JP2005202485A - Video presenting device - Google Patents

Video presenting device Download PDF

Info

Publication number
JP2005202485A
JP2005202485A JP2004005443A JP2004005443A JP2005202485A JP 2005202485 A JP2005202485 A JP 2005202485A JP 2004005443 A JP2004005443 A JP 2004005443A JP 2004005443 A JP2004005443 A JP 2004005443A JP 2005202485 A JP2005202485 A JP 2005202485A
Authority
JP
Japan
Prior art keywords
video
information
user preference
user
keyword
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004005443A
Other languages
Japanese (ja)
Inventor
Yoshihiro Omori
善啓 大盛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2004005443A priority Critical patent/JP2005202485A/en
Publication of JP2005202485A publication Critical patent/JP2005202485A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a video presenting device for improving the matching precision of program keywords and user taste keywords. <P>SOLUTION: This video presenting device is provided with a meta data storing part 101 which inputs a video to which attribute information is attached, a preference storage part 102 which stores user taste information, a preference extending part 104 which extends the user taste information by synonyms, a matching deciding part 106 which performs matching between the attribute information and the extended user taste information, a recommended program deciding part 107 which recommends a program based on the matching result and a display part 108 which presents the recommended program to the user. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、映像に付加されたメタデータとユーザ嗜好データとのマッチングに応じて映像を提示する映像提示装置に関する。   The present invention relates to a video presentation apparatus that presents video in accordance with matching between metadata added to the video and user preference data.

映像に付加されたメタデータとユーザ嗜好データのマッチング方法に関して従来から研究されている。例えば、EPG(Electric Program Guide、電子番組表)からキーワードを抽出してユーザ嗜好データとマッチングして番組を推薦する技術がある(特許文献1参照)。これは、キーワードを出現頻度、視聴時間、録画予約などのユーザ操作に応じて重み付けしたものをユーザ嗜好データとして蓄積している。しかし、ここで用いられているマッチング方法は、キーワード文字列の完全一致であり、同じ意味を持つキーワードでも、漢字による表記とひらがなによる表記の違いや類義語は別のキーワードとして処理されるという問題があった。   Conventionally, a method for matching metadata added to video and user preference data has been studied. For example, there is a technique for recommending a program by extracting a keyword from an EPG (Electric Program Guide) and matching it with user preference data (see Patent Document 1). In this method, keywords weighted according to user operations such as appearance frequency, viewing time, and recording reservation are stored as user preference data. However, the matching method used here is a complete match of keyword strings, and even for keywords with the same meaning, the difference between Kanji and Hiragana notation and synonyms are handled as separate keywords. there were.

また、複数のキーワードをまとめるテーマ辞書とテーマで構成されたユーザ嗜好データをあらかじめ定義しておき、EPGの番組説明文から抽出したキーワードについてテーマ別スコアとユーザ嗜好データとの積の値で推薦番組を選択する技術がある(特許文献2参照)。この技術によると、異なるキーワードを同じテーマに属するものとしてマッチング処理することができる。しかし、漢字やひらがな表記や別名に対応するには、これらをすべて登録した膨大なデータ量のテーマ辞書が必要となる。このような専用の辞書を作成するには高いコストが必要となる。たとえこのような辞書を作成できたとしても、意味が似ているが同一ではない類義語に対応することはできない。また、マッチング処理はすべての登録されたすべてのキーワードと比較を行うため、処理時間がかかるという問題があった。   Also, user preference data composed of theme dictionaries and themes that combine multiple keywords are defined in advance, and recommended programs are calculated by the product of thematic score and user preference data for keywords extracted from EPG program descriptions. There is a technique for selecting (see Patent Document 2). According to this technique, different keywords can be matched as belonging to the same theme. However, in order to support kanji, hiragana notation, and aliases, a theme dictionary with a huge amount of data in which all of these are registered is required. Creating such a dedicated dictionary requires high costs. Even if such a dictionary can be created, it cannot correspond to synonyms that have similar meanings but are not identical. In addition, since the matching process is compared with all registered keywords, there is a problem that it takes a long processing time.

更に、ジャンル別、番組タイトル別、出演者別、といったように複数のユーザプロファイルを用意しておき、ユーザが番組推薦をさせる際にどのプロファイルを使って番組を推薦させるかを選択できる技術がある(特許文献3参照)。この技術によると、ユーザの嗜好をより細かく反映した番組推薦が可能となるが、あらかじめ用意されたプロファイル以外のものには対応できない上に、プロファイルを選択する操作はユーザにとって煩雑であるという問題があった。
特許第3351058号公報 特開2002−320159号公報 特開2002−142160号公報
In addition, there is a technique in which a plurality of user profiles such as genres, program titles, performers, etc. are prepared, and the user can select which profile to use when recommending a program. (See Patent Document 3). According to this technology, it is possible to recommend a program that more closely reflects the user's preference, but it is not possible to deal with anything other than a profile prepared in advance, and the operation of selecting a profile is complicated for the user. there were.
Japanese Patent No. 3351058 JP 2002-320159 A JP 2002-142160 A

映像に付加されたメタデータとユーザ嗜好データとの従来のマッチング方法では、類義語によるマッチングができなかった。また、ユーザの状況に合わせてマッチングをするためには、ユーザが重視する項目を明示的に指示しなければならず煩雑であった。   In the conventional matching method between the metadata added to the video and the user preference data, matching with synonyms could not be performed. Further, in order to perform matching in accordance with the user's situation, it is complicated because the user must explicitly indicate the items that are important.

従って、本発明は、映像に付加されたメタデータとユーザ嗜好データとのマッチングにおいて、メタデータやユーザ嗜好データを構成するキーワードを類義語で拡張することによってマッチング精度を向上させる映像提示装置を提供することを目的とする。   Therefore, the present invention provides a video presentation device that improves matching accuracy by expanding the keywords constituting metadata and user preference data with synonyms in matching metadata added to video and user preference data. For the purpose.

本発明は、属性情報が付加された映像を入力する手段と、ユーザ嗜好情報を記憶するユーザ嗜好記憶手段と、前記ユーザ嗜好情報を類義語で拡張する情報拡張手段と、前記属性情報と拡張ユーザ嗜好情報との間でマッチングを取る手段と、前記マッチング結果に基づいて映像を特定する映像特定手段と、特定された映像をユーザに提示する手段とを具備することを特徴とする映像提示装置を提供する。   The present invention includes means for inputting a video to which attribute information is added, user preference storage means for storing user preference information, information expansion means for expanding the user preference information with synonyms, the attribute information, and extended user preference. Provided is a video presentation device comprising means for matching information, video specifying means for specifying a video based on the matching result, and means for presenting the specified video to a user To do.

本発明の類義語によるユーザ嗜好マッチングを用いた映像提示装置を用いれば、ユーザ嗜好を表すキーワードと番組のキーワードが厳密に一致していなくても類義語であれば検出できるため、ユーザの好む番組を精度よく推薦することができる。さらには、ユーザの嗜好をセンサーで感知してユーザ嗜好を表すキーワードを動的に変化させることにより、動的に変化するユーザ嗜好にも対応できる。   If the video presentation device using the user preference matching by the synonym of the present invention is used, it is possible to detect a synonym even if the keyword representing the user preference and the keyword of the program do not exactly match. Can recommend well. Furthermore, it is possible to cope with dynamically changing user preferences by sensing user preferences with a sensor and dynamically changing a keyword representing the user preferences.

以下に図面を参照しながら本発明の実施形態を説明する。   Embodiments of the present invention will be described below with reference to the drawings.

(第1の実施形態)
図1は、本発明の第1の実施形態による映像提示装置の概略構成図である。本装置によると、番組表を受信する番組表受信部100は、番組表からキーワード(属性情報)を抽出して記憶するメタデータ記憶部101に接続される。プリファレンス記憶部102はユーザの嗜好(プリファレンス)をキーワードで記憶するものであり、類義語を蓄積した類義語辞書103と共にプリファレンス拡張部104に接続される。プリファレンス拡張部104はプリファレンスに類義語を追加してプリファレンスを拡張する機能を有する。プリファレンス拡張部104はプリファレンス拡張部104の出力部は拡張されたプリファレンスを記憶する拡張プリファレンス記憶部105に接続される。この拡張プリファレンス記憶部105の出力部はメタデータ記憶部101の出力部と共にマッチング判定部106に接続される。マッチング判定部106はメタデータと拡張プリファレンスを比較して各番組のスコアを算出する。マッチング判定部106の出力部は判定結果に応じてユーザに推薦する番組を決定する推薦番組決定部107に接続される。推薦番組決定部107は番組表受信部100およびマッチング判定部106の出力データに従って推薦する番組を決定し、該番組の番組表をユーザに提示するため表示部108に出力する。
(First embodiment)
FIG. 1 is a schematic configuration diagram of a video presentation device according to the first embodiment of the present invention. According to this apparatus, a program guide receiving unit 100 that receives a program guide is connected to a metadata storage unit 101 that extracts and stores keywords (attribute information) from the program guide. The preference storage unit 102 stores user preferences (preferences) as keywords, and is connected to the preference extension unit 104 together with the synonym dictionary 103 storing the synonyms. The preference extension unit 104 has a function of extending a preference by adding a synonym to the preference. In the preference extension unit 104, the output unit of the preference extension unit 104 is connected to an extended preference storage unit 105 that stores the extended preference. The output unit of the extended preference storage unit 105 is connected to the matching determination unit 106 together with the output unit of the metadata storage unit 101. The matching determination unit 106 compares the metadata and the extended preference to calculate the score of each program. The output unit of the matching determination unit 106 is connected to a recommended program determination unit 107 that determines a program recommended to the user according to the determination result. The recommended program determining unit 107 determines a recommended program according to the output data of the program guide receiving unit 100 and the matching determining unit 106, and outputs the program guide of the program to the display unit 108 for presentation to the user.

番組受信部100は、例えばEPG対応テレビチューナーで構成され、受信した電波からEPGによって記述された番組表を取り出す。図2は番組表の一部の一例であり、ひとつの番組情報は、識別子、放送局名、開始時刻、終了時刻、番組タイトル、番組内容の項目から構成される。タイトルと番組内容は単語または文章によって記述される。   The program receiving unit 100 is composed of, for example, an EPG compatible TV tuner, and extracts a program guide described in EPG from the received radio waves. FIG. 2 shows an example of a part of the program table, and one piece of program information includes items of an identifier, a broadcasting station name, a start time, an end time, a program title, and program contents. The title and program content are described by words or sentences.

メタデータ記憶部101は、例えばハードディスクから構成され、受信した番組表から単語を抽出して番組表を記憶する。単語の抽出にはキーワードマッチングや構文解析などの一般的な手法が用いられる。図3はメタデータ記憶部101が番組情報を記憶する状態を示しており、番組情報は識別子と番組タイトルと番組内容から抽出したキーワードにより構成される。   The metadata storage unit 101 is composed of, for example, a hard disk, extracts words from the received program guide, and stores the program guide. Common methods such as keyword matching and syntax analysis are used to extract words. FIG. 3 shows a state where the metadata storage unit 101 stores program information, and the program information includes an identifier, a program title, and a keyword extracted from the program content.

プリファレンス記憶部102は、例えばハードディスクにより構成され、ユーザが興味を持つキーワードを記憶する。図4はユーザプリファレンスの一例を示し、好ましい番組に関するキーワードと好ましくない番組に関するキーワード(プリファレンス)の二種類のキーワードがプリファレンス記憶部102に記憶されている。好ましいキーワードには、「ショッピング」、「料理」が登録されており、好ましくないキーワード(非プリファレンス)には「野球」が登録されている。先頭に記憶するキーワードほどユーザの興味が強いものとする。この例では、「ショッピング」は「料理」よりも興味が強いことを表している。ユーザは興味のある任意のキーワードを登録、削除できるものとする。   The preference storage unit 102 is composed of, for example, a hard disk, and stores keywords that the user is interested in. FIG. 4 shows an example of a user preference. Two types of keywords, a keyword related to a preferable program and a keyword (preference) related to an unfavorable program, are stored in the preference storage unit 102. “Shopping” and “cooking” are registered as preferable keywords, and “baseball” is registered as an unfavorable keyword (non-preference). It is assumed that the keyword stored at the top is more interested in the user. In this example, “shopping” is more interested than “cooking”. It is assumed that the user can register and delete any keyword of interest.

類義語辞書103は、例えばハードディスクで構成された、数万語の単語を意味別に木構造に接続した汎用オントロジー辞書であり、例えば(株)日本電子化辞書研究所のEDR電子化辞書、分類語彙表[国立国語研究所 1964]や、日本語語彙体系[池原ほか 1997]などが利用できる。   The synonym dictionary 103 is a general-purpose ontology dictionary composed of, for example, a hard disk and connected to a tree structure according to meaning, for example, an EDR electronic dictionary and a classification lexicon of Japan Electronic Dictionary Research Institute. You can use [National Institute of Japanese Language 1964] and Japanese vocabulary system [Ikehara et al. 1997].

プリファレンス拡張部104は、例えば電子回路により構成され、プリファレンス記憶部102に記憶されたキーワードに類義語辞書103を用いて検索した類義語を追加する。ここでは表現は異なるが同一の意味を持つ同義語のみを追加する。類義語の検索は、例えば辞書に登録されたすべての単語について0から1の間の値をとる類似度を計算して、この類似度が1のキーワードを追加する。類似度の計算は、例えばLeacockらの文献(Leacock, C. and Chodorow, M. (1998). “Combining Local Context and WordNet Similarity for Word Sense Idenfication.” In Fellbaum, C. (Ed.), WordNet, An Electronic Lexical Database, pp.265-283. MIT Press)による式1を用いて求める。ただし、w1、w2は類似度を計算するキーワード、Nはw1からw2へのオントロジー辞書を構成する木構造のパスpのノード数、Dは辞書木の最深の長さを表すものとする。

Figure 2005202485
The preference extension unit 104 is configured by, for example, an electronic circuit, and adds a synonym searched using the synonym dictionary 103 to the keyword stored in the preference storage unit 102. Here, only synonyms with different expressions but the same meaning are added. In the search for synonyms, for example, the degree of similarity having a value between 0 and 1 is calculated for all the words registered in the dictionary, and a keyword having this degree of similarity of 1 is added. Similarity calculation is performed, for example, by Leacock et al. (Leacock, C. and Chodorow, M. (1998). “Combining Local Context and WordNet Similarity for Word Sense Idenfication.” In Fellbaum, C. (Ed.), WordNet, An Electronic Lexical Database, pp.265-283. MIT Press). Here, w1 and w2 are keywords for calculating similarity, N is the number of nodes in the path p of the tree structure constituting the ontology dictionary from w1 to w2, and D is the deepest length of the dictionary tree.
Figure 2005202485

図5は、プリファレンス記憶部102に記憶されたキーワードの類義語を検索した結果であり、「ショッピング」は「買い物」が類義語として検索され、「料理」は「クッキング」と「調理」が検索されている。プリファレンス拡張部104は検索された類義語をユーザプリファレンスに追加する。図6は、類義語で拡張されたユーザプリファレンスの一例であり、キーワードの追加はプリファレンス記憶部102に記憶されたキーワードの先頭のキーワードから順に行っている。「ショッピング」を例にとると、類義語は「買い物」であり、このキーワードを「ショッピング」の後に追加する。   FIG. 5 is a result of searching for synonyms of keywords stored in the preference storage unit 102, “shopping” is searched as a synonym, and “cooking” is searched for “cooking” and “cooking”. ing. The preference extension unit 104 adds the searched synonym to the user preference. FIG. 6 shows an example of user preferences expanded with synonyms, and keywords are added in order from the first keyword stored in the preference storage unit 102. Taking “shopping” as an example, the synonym is “shopping”, and this keyword is added after “shopping”.

拡張プリファレンス記憶部105は、例えばハードディスクによって構成され、プリファレンス記憶部102に記憶されたキーワードをプリファレンス拡張部104が拡張した結果を記憶する。この例では図6に示した拡張プリファレンスを記憶する。図中の灰色で塗りつぶしたキーワードは拡張されたプリファレンスであることを示す。   The extension preference storage unit 105 is configured by, for example, a hard disk, and stores the result of the preference extension unit 104 extending the keywords stored in the preference storage unit 102. In this example, the extension preference shown in FIG. 6 is stored. The keyword filled in gray in the figure indicates an expanded preference.

マッチング判定部105は、例えば電子回路により構成され、メタデータ記憶部101に記憶された番組情報を表すキーワードと、拡張プリファレンス記憶部105に記憶されたユーザプリファレンスを表すキーワードとを比較してスコアを算出して、ユーザに推薦すべき番組の優先順位をつける。   The matching determination unit 105 includes, for example, an electronic circuit, and compares a keyword representing program information stored in the metadata storage unit 101 with a keyword representing user preferences stored in the extended preference storage unit 105. Scores are calculated and priorities of programs to be recommended to the user are given.

図7は、番組のスコアを算出するために用いるキーワードのスコアを表しており、図中の灰色で塗りつぶしたキーワードは拡張されたプリファレンスであることを示す。好ましいキーワードに関しては、拡張プリファレンス記憶部105に記憶された好ましいキーワードの末尾が1で先頭方向に移動する非類義語毎に1を和算して先頭のキーワードのスコアを高くする。同様に、好ましくないキーワードに関しては、拡張プリファレンス記憶部105に記憶された好ましくないキーワードの末尾が−1で先頭方向に移動する非類義語毎に1を減算して先頭のキーワードのスコアを最も低くする。   FIG. 7 shows the keyword scores used to calculate the score of the program, and the keywords filled in gray in the figure indicate expanded preferences. For the preferred keyword, the end of the preferred keyword stored in the expanded preference storage unit 105 is 1, and 1 is added to each non-synonymous word that moves in the beginning direction to increase the score of the first keyword. Similarly, with respect to unfavorable keywords, the unfavorable keyword stored in the expanded preference storage unit 105 has the end of −1 and 1 is subtracted for each non-synonym that moves in the head direction, so that the score of the leading keyword is the lowest. To do.

図8は、番組のスコアを算出する一例を示し、メタデータ記憶部101に記憶された番組情報を表すキーワードと拡張プリファレンス記憶部105に記憶されたユーザプリファレンスを表すキーワードが一致する場合は、図6に示すスコアをつけて、一致しない場合には0をつける。例えば識別子4の番組情報の場合には、「今晩」というキーワードは図7に示す表にないからスコアは0で、同様に「焼き魚」も0となる。「料理」は図7に示す表に存在してスコアは1なのでスコアが1となる。番組情報のスコアはキーワードのスコアを合計して求める。この例では、識別子3、4、5、6のスコアはそれぞれ−1、+1、0、+2となる。   FIG. 8 shows an example of calculating the score of a program. When the keyword representing the program information stored in the metadata storage unit 101 matches the keyword representing the user preference stored in the extended preference storage unit 105. A score shown in FIG. 6 is attached, and 0 is added when they do not match. For example, in the case of the program information with the identifier 4, since the keyword “tonight” is not in the table shown in FIG. 7, the score is 0, and similarly, the “baked fish” is also 0. “Cooking” exists in the table shown in FIG. The program information score is obtained by summing up the keyword scores. In this example, the scores of identifiers 3, 4, 5, and 6 are -1, +1, 0, and +2, respectively.

このように、プリファレンス記憶部102に記憶されたキーワード「ショッピング」と、メタデータ記憶部101に記憶された「買い物」はそのままでは一致しないが、プリファレンスを類義語によって拡張することによって、一致させることができるようになる。   As described above, the keyword “shopping” stored in the preference storage unit 102 and the “shopping” stored in the metadata storage unit 101 do not match as they are, but are matched by expanding the preference with synonyms. Will be able to.

推薦番組決定部107は、例えば電子回路により構成され、マッチング判定部105によって算出された番組のスコアを比較して、最もスコアの高い番組を選択する。図8の例では、最も合計スコアが高い番組は識別子6の番組であるため、推薦番組決定部107は識別子6を選択して、番組表受信部100から入力した識別子6の番組情報を表示部108に出力する。   The recommended program determination unit 107 is constituted by, for example, an electronic circuit, compares the program scores calculated by the matching determination unit 105, and selects the program with the highest score. In the example of FIG. 8, since the program with the highest total score is the program with the identifier 6, the recommended program determination unit 107 selects the identifier 6 and displays the program information with the identifier 6 input from the program guide receiver 100. To 108.

表示部108は、例えばディスプレイにより構成され、推薦番組決定部107によって選択された番組情報を画面上に表示してユーザに推薦する。図9は識別子6の番組を推薦する画面の一例を示す。   The display unit 108 is configured by a display, for example, and displays the program information selected by the recommended program determination unit 107 on the screen and recommends it to the user. FIG. 9 shows an example of a screen for recommending the program with the identifier 6.

図10は、以上の処理手順を説明するためのフローチャートである。これによると、まず、番組受信部100は番組情報を受信する(ステップS900)。メタデータ記憶部101は番組表からキーワードを構文解析によって抽出して記憶する(ステップS901)。プリファレンス拡張部104は類義語辞書103を用いてプリファレンス記憶部102に記憶されたキーワードに同義語を追加して拡張する(ステップ902)。   FIG. 10 is a flowchart for explaining the above processing procedure. According to this, first, the program receiving unit 100 receives program information (step S900). The metadata storage unit 101 extracts keywords from the program guide by syntax analysis and stores them (step S901). The preference expansion unit 104 expands the synonym dictionary 103 by adding synonyms to the keywords stored in the preference storage unit 102 (step 902).

マッチング判定部106はメタデータ記憶部101に記憶された番組のスコアを算出する(ステップ903)。推薦番組決定部107は最もスコアの高い番組を選択して(ステップS904)、表示部108に番組情報を表示する(ステップS905)。   The matching determination unit 106 calculates the score of the program stored in the metadata storage unit 101 (step 903). The recommended program determination unit 107 selects the program with the highest score (step S904), and displays the program information on the display unit 108 (step S905).

図11は、ステップ903で番組のスコアを算出する処理手順を説明するためのフローチャートである。このフローチャートはひとつの番組のスコアを算出する手順を表している。これによると、まず、メタデータ記憶部101に記憶された番組に対応付けられた先頭のキーワードを選択する(ステップS1000)。選択されたキーワードと一致するキーワードが拡張プリファレンス記憶部105に記憶されたキーワードの中にあるかどうかを判定する(S1001)。この判定がYESであると、処理はステップS1002に進む。判定がNOであると、処理はステップS1003に進む。   FIG. 11 is a flowchart for explaining a processing procedure for calculating a program score in step 903. This flowchart represents a procedure for calculating the score of one program. According to this, first, the top keyword associated with the program stored in the metadata storage unit 101 is selected (step S1000). It is determined whether there is a keyword that matches the selected keyword among the keywords stored in the extended preference storage unit 105 (S1001). If this determination is YES, processing proceeds to step S1002. If the determination is NO, the process proceeds to step S1003.

一致するキーワードが見つかった場合には、キーワードに対応するスコアを加算する(ステップS1002)。次に、すべてのキーワードをチェックしたかが判定される(S1003)。この判定がYESであると、処理はステップ1004に進み、そうでない場合にはステップS1000に戻って次のキーワードについて調べる。ステップS1004ではスコアの総和を出力する。この処理を各番組で繰り返してすべての番組のスコアを算出する。   If a matching keyword is found, a score corresponding to the keyword is added (step S1002). Next, it is determined whether all keywords have been checked (S1003). If this determination is YES, the process proceeds to step 1004, and if not, the process returns to step S1000 to check the next keyword. In step S1004, the total score is output. This process is repeated for each program to calculate the scores of all programs.

上述した第1の実施形態を用いれば、ユーザプリファレンスのキーワードと同一のキーワードが番組情報にない場合でも類義語であれば検出できるため、精度よく番組を推薦することができる。   If the first embodiment described above is used, a synonym can be detected even when the same keyword as the keyword of the user preference is not present in the program information, so that the program can be recommended with high accuracy.

第1の実施形態において、番組受信部100は番組表を電波で受信したが、これに限らず番組表を受信できる手段であれば何でもよい。例えば、インターネットでiEPG(Internet EPG)を受信してもよい。また、プリファレンス拡張部104では、類似度をLeacockらの方法で算出したが、これに限らずキーワード間の類似度を計算できる方法であれば何でも良い。更に、プリファレンス拡張部104では同義語のみを追加したがこれに限らず、予め閾値を設定しておいて、この閾値を超える類似度のキーワードを追加しても良い。また、推薦番組決定部107はひとつだけ選択したが、これに限らず、順番をつけて、表示部108でユーザが順番に閲覧させてもよい。   In the first embodiment, the program receiving unit 100 receives the program guide by radio waves. However, the present invention is not limited to this, and any means can be used as long as it can receive the program guide. For example, iEPG (Internet EPG) may be received over the Internet. In addition, the preference extension unit 104 calculates the similarity by the method of Leacock et al. However, the present invention is not limited to this, and any method can be used as long as it can calculate the similarity between keywords. Furthermore, although only the synonym is added in the preference extension unit 104, the present invention is not limited to this, and a threshold value may be set in advance, and a keyword having a similarity degree exceeding the threshold value may be added. In addition, although only one recommended program determining unit 107 is selected, the present invention is not limited to this, and the order may be given and the user may browse the display unit 108 in order.

更に、上記実施形態では、ユーザ嗜好情報を類義語で拡張しているが、属性情報を類義語で拡張してもよい。この場合、拡張された属性情報とユーザ嗜好情報との間でマッチングが取られる。図28はユーザプリファレンスを拡張しない場合のキーワードのスコアを表しており、キーワードのスコアの付け方は図7の場合と同様である。図29は番組情報を類義語で拡張したものを表しており、図6でユーザプリファレンスを拡張したのと同様に、ひとつのプリファレンスの後にそのプリファレンスの類義語を挿入する。図中の灰色のプリファレンスが拡張されたプリファレンスである。図30は図28に示した番組情報のスコア表と図29に示した拡張されたユーザプリファレンスとを使って番組のスコアを計算する様子を表したものであり、灰色の番組情報は拡張されたことを示している。この結果、「野球」が−1、「料理」が+1、「ショッピング」が+2にマッチングした結果、識別子3、4、5、6の番組の合計スコアがそれぞれ−1、+1、0、+2と算出される。識別子6の番組の合計スコアが最も大きいため、推薦番組決定部107は識別子6を選択する。   Furthermore, in the said embodiment, although user preference information is expanded with a synonym, you may extend attribute information with a synonym. In this case, matching is performed between the extended attribute information and the user preference information. FIG. 28 shows keyword scores when user preferences are not expanded, and the method of assigning keyword scores is the same as in FIG. FIG. 29 shows the program information expanded with synonyms, and the synonym of the preference is inserted after one preference in the same way as the user preference is expanded in FIG. The gray preference in the figure is an expanded preference. FIG. 30 shows how the program score is calculated using the program information score table shown in FIG. 28 and the extended user preferences shown in FIG. 29. Gray program information is expanded. It shows that. As a result, “baseball” is −1, “cooking” is +1, and “shopping” is +2. As a result, the total scores of the programs with identifiers 3, 4, 5, and 6 are −1, +1, 0, and +2, respectively. Calculated. Since the total score of the program with the identifier 6 is the largest, the recommended program determination unit 107 selects the identifier 6.

また、上記実施形態では、マッチング判定部105はキーワードが完全一致するかどうかでマッチング判定を行っているが、キーワードとユーザプリファレンスの間の類似度を用いてもよい。図31は類似度を用いた番組スコアの算出方法を説明するための図であり、図8に示したキーワードの完全一致による番組スコアの算出方法と同じ属性情報を用いている。例えば、キーワード「焼き魚」は単語スコアが3のユーザプリファレンス「料理」と類似度0.6であり、図中では「3×0.6」と表記されている。この例では、スコアは各キーワードと各ユーザプリファレンスとの間で単語の類似度を算出して、その中で最も大きいスコアとなるものを番組スコア算出に用いており、例えばキーワード「焼き魚」とユーザプリファレンス「クッキング」との類似度が0.4であっても単語スコアは「2×0.4=0.8」となり、ユーザプリファレンス「料理」との類似度を用いた場合の「1.8」よりも小さいために採用されない。番組スコアはこのようにして算出した単語スコアの和として算出する。なお、この例では単語類似度の最高値を採用したが、これに限らず類似度の和を用いても良い。また、この例では属性情報と拡張されたユーザ情報との間で類似度を求めたが、これに限らず拡張された属性情報とユーザ情報との間や、拡張しない属性情報と拡張しないユーザ情報との間で算出した類似度を用いてもよい。   In the above embodiment, the matching determination unit 105 performs the matching determination based on whether or not the keywords completely match. However, the similarity between the keyword and the user preference may be used. FIG. 31 is a diagram for explaining a program score calculation method using similarity, and uses the same attribute information as the program score calculation method based on complete keyword matching shown in FIG. For example, the keyword “grilled fish” has a similarity of 0.6 to the user preference “dish” with a word score of 3, and is represented as “3 × 0.6” in the figure. In this example, the score is calculated by calculating the word similarity between each keyword and each user preference, and the highest score among them is used for program score calculation. Even if the similarity with the user preference “Cooking” is 0.4, the word score is “2 × 0.4 = 0.8”, and the similarity with the user preference “Cooking” is “ Not adopted because it is smaller than 1.8 ". The program score is calculated as the sum of the word scores thus calculated. In this example, the maximum value of the word similarity is adopted, but not limited to this, the sum of the similarities may be used. In this example, the degree of similarity is obtained between the attribute information and the extended user information. However, the present invention is not limited to this, but between the extended attribute information and the user information, or between the attribute information that is not expanded and the user information that is not expanded. You may use the similarity calculated between.

(第2の実施形態)
第1の実施形態は、ユーザ嗜好を表すキーワードを類義語で拡張することによってマッチング精度を向上させるものであったが、第2の実施形態は、ユーザの状況をセンサーで取り込んでユーザ状況に対応するキーワードを追加してユーザ嗜好を拡張するものである。本実施形態は、第1の実施形態におけるプリファレンス拡張部104が、プリファレンス記憶部102に記憶されたキーワードを類義語で拡張する代わりに、ユーザ状況に応じてキーワードを拡張する。
(Second Embodiment)
In the first embodiment, matching keywords are improved by expanding keywords representing user preferences with synonyms. However, in the second embodiment, a user's situation is captured by a sensor to correspond to the user situation. Add keywords to expand user preferences. In this embodiment, the preference expansion unit 104 in the first embodiment expands a keyword according to the user situation instead of expanding the keyword stored in the preference storage unit 102 with a synonym.

図12は、第2の実施形態による映像提示装置の概略構成図である。本装置は、第1の実施形態の概略構成に状況情報取得部109と状況プリファレンス記憶部110を追加して構成される。   FIG. 12 is a schematic configuration diagram of a video presentation device according to the second embodiment. This apparatus is configured by adding a status information acquisition unit 109 and a status preference storage unit 110 to the schematic configuration of the first embodiment.

ユーザ状況情報取得部109は、例えばユーザに取り付けられた人物特定センサーと血糖値センサーとから構成され、テレビを視聴している人物とユーザの血糖値とを取得する。人物特定センサーは例えばバッジに組み込まれた無線IDタグとテレビに組み込まれた無線ID読み取り器とから構成され、テレビの周辺にいる人物を特定する。血糖値センサーは、例えば携帯型の光学的血糖値測定器と無線装置から構成され、これらを装着したユーザの血糖値を読み込む。センサーで読み取ったデータは意味を持った単位に分類してセンサーIDを割り振る。   The user status information acquisition unit 109 includes, for example, a person identification sensor and a blood glucose level sensor attached to the user, and acquires the person watching the television and the blood glucose level of the user. The person identification sensor is composed of, for example, a wireless ID tag incorporated in a badge and a wireless ID reader incorporated in a television, and identifies a person around the television. The blood glucose level sensor is composed of, for example, a portable optical blood glucose level measuring device and a wireless device, and reads the blood glucose level of the user wearing these. The data read by the sensor is classified into meaningful units and assigned a sensor ID.

図13は、センサーデータとセンサーIDの対応付けの一例であり、センサーID1はユーザが食事中であることを表しており、例えばユーザのうち誰かひとりでも血糖値センサーの値がある閾値を越えている場合に食事中であることを判定する。センサーID2はユーザAがテレビを視聴していることを表しており、例えば無線IDタグで読み取ったIDがユーザAのIDを含むものと判定する。同様にセンサーID3はユーザBがテレビを視聴していることを表している。   FIG. 13 is an example of association between sensor data and sensor ID, and sensor ID 1 represents that the user is eating. For example, any one of the users exceeds the threshold value of the blood glucose level sensor. If so, determine that you are eating. The sensor ID 2 represents that the user A is watching the television. For example, it is determined that the ID read by the wireless ID tag includes the ID of the user A. Similarly, sensor ID3 represents that user B is watching TV.

ユーザ状況情報取得部109は、センサーIDがセンサー条件を満たす場合にはTrue、そうでない場合にはFalseを出力する。図の例では、センサーID2のみがセンサー条件を満たし、それ以外のIDはセンサー条件を満たしていない。状況プリファレンス記憶部110は、例えばハードディスクから構成され、センサーIDの状態と関連のあるキーワードを記憶する。   The user situation information acquisition unit 109 outputs True if the sensor ID satisfies the sensor condition, and outputs False if not. In the illustrated example, only sensor ID2 satisfies the sensor condition, and other IDs do not satisfy the sensor condition. The situation preference storage unit 110 is composed of, for example, a hard disk, and stores keywords related to the state of the sensor ID.

図14は、センサーIDとキーワードの対応付けの一例である。センサーID1は食事中であることを表しており、食事中には「嘔吐」と「血」というキーワードは好ましくないものとして登録されている。センサーID2はユーザAの嗜好を表しており、好ましいキーワードとして「音楽」が登録され、好ましくないキーワードとして「クッキング」が登録されている。同様に、センサーID3はユーザBの嗜好を表しており、好ましいキーワードとして「野球」が登録されている。   FIG. 14 is an example of correspondence between sensor IDs and keywords. The sensor ID 1 indicates that a meal is in progress, and the keywords “vomiting” and “blood” are registered as undesirable in the meal. The sensor ID 2 represents the preference of the user A, and “music” is registered as a preferable keyword, and “cooking” is registered as an undesirable keyword. Similarly, the sensor ID 3 represents the preference of the user B, and “baseball” is registered as a preferable keyword.

第2の実施形態のプリファレンス拡張部104は、センサーIDの状態を参照して、センサーIDがTrueのキーワードを、プリファレンス記憶部102の記憶情報に対して追加および削除を行い、ユーザ嗜好情報を更新する。この例では図13に示したセンサーIDのうち、センサーID2の状態がTrueであり、ユーザAがテレビを見ていることを表している。この場合、センサーID2と対応付けられたキーワードについて類義語が図15に示すように検索される。類義語の検索は第1の実施形態と同様の方法で行い、「音楽」の類義語は「ミュージック」、「楽」とが検索され、「クッキング」の類義語は「料理」と「調理」とが検索される。   The preference expansion unit 104 according to the second embodiment refers to the state of the sensor ID, adds and deletes a keyword having a sensor ID of True to the storage information in the preference storage unit 102, and sets user preference information. Update. In this example, among the sensor IDs shown in FIG. 13, the state of the sensor ID2 is True, indicating that the user A is watching the television. In this case, synonyms are searched for the keyword associated with the sensor ID 2 as shown in FIG. The synonym search is performed in the same manner as in the first embodiment, and “music” and “easy” are searched as synonyms for “music”, and “cooking” and “cooking” are searched as synonyms for “cooking”. Is done.

次に、好ましいキーワードとして追加すべきキーワードやその類義語が既に好ましくないキーワードとして登録されたり、好ましくないキーワードとして追加すべきキーワードやその類義語が既に好ましいキーワードとして登録されたりすることを防ぐために、図15のように検索されたセンサーID2に対応づけられたキーワードとその類義語をユーザプリファレンスから削除する。この例では、図4に示したユーザプリファレンスのうち、「料理」は図15で検索されたキーワードと一致するからこれを削除する。その後に、センサーID2に対応付けられたキーワードをプリファレンスの先頭に追加する。   Next, in order to prevent a keyword to be added as a preferred keyword or its synonym from being registered as an unfavorable keyword or a keyword to be added as an unfavorable keyword or its synonym from being already registered as a preferred keyword, FIG. The keyword and its synonym associated with the searched sensor ID 2 are deleted from the user preferences. In this example, “cooking” of the user preferences shown in FIG. 4 matches the keyword searched in FIG. Thereafter, the keyword associated with the sensor ID 2 is added to the head of the preference.

図16は、このようにして拡張されたユーザプリファレンスであり、「料理」が削除されて、「クッキング」が好ましくないキーワードとして先頭に追加されている。「音楽」は削除すべきキーワードがなかったため単に好ましいキーワードの先頭に追加されている。   FIG. 16 shows user preferences expanded in this manner, with “food” being deleted and “cooking” being added as an unfavorable keyword at the top. “Music” is simply added to the top of the preferred keyword because there was no keyword to delete.

状態がTrueであるセンサーが複数ある場合には、センサーIDの小さいものから同様の処理を繰り返し行って、最終的にひとつの拡張されたユーザプリファレンスを生成する。これ以降は第1の実施形態と同様に処理するので説明を省略するが、最終的には図2に示したID4の音楽番組をユーザに推薦する。   If there are a plurality of sensors whose status is True, the same processing is repeated from the sensor ID with the smallest sensor ID, and finally one expanded user preference is generated. Since the subsequent processing is the same as in the first embodiment, the description thereof is omitted, but the music program with ID4 shown in FIG. 2 is finally recommended to the user.

図17は、第2の実施形態のプリファレンス拡張部104でユーザプリファレンスを拡張する処理のフローチャートを示す。これによると、まず、センサーIDを記憶する変数nに0を設定し(ステップS1700)、変数nに1を足してすべてのセンサーIDについて繰り返し処理できるようにする(ステップS1701)。   FIG. 17 shows a flowchart of processing for extending user preferences in the preference extension unit 104 of the second embodiment. According to this, first, 0 is set to the variable n for storing the sensor ID (step S1700), and 1 is added to the variable n so that all sensor IDs can be repeatedly processed (step S1701).

次に、センサーIDがnの状態がTrueかどうかを調べ(ステップS1702)、Trueの場合にはステップS1703に進み、そうでない場合にはステップS1706に進む。ステップS1703ではセンサーIDがnのセンサーに対応付けられて登録されたキーワードの類義語を検索して(ステップS1703)、ユーザプレファレンスから登録キーワードと検索された類義語を削除する(ステップS1705)。その後に、登録キーワードをユーザプリファレンスの先頭に追加して拡張プリファレンスを生成する(ステップS1705)。この処理をすべてのセンサーについて行うために、変数nがセンサー数Nよりも小さいかどうかを比較して、小さい場合には次のセンサーについて処理を行うためにステップS1701に戻り、そうでない場合には処理を停止する(ステップS1706)。   Next, it is checked whether or not the state of the sensor ID n is True (step S1702). If True, the process proceeds to step S1703, and if not, the process proceeds to step S1706. In step S1703, the synonym of the keyword registered in association with the sensor with the sensor ID n is searched (step S1703), and the registered keyword and the searched synonym are deleted from the user preference (step S1705). Thereafter, the registered keyword is added to the head of the user preference to generate an extension preference (step S1705). In order to perform this process for all sensors, it is compared whether or not the variable n is smaller than the number N of sensors. If the variable n is small, the process returns to step S1701 to perform the process for the next sensor. The processing is stopped (step S1706).

上述した第2の実施形態によれば、ユーザの状況に応じてユーザプリファレンスを動的に変化させることができるため、ユーザの状況に応じた番組を推薦することができる。   According to the second embodiment described above, the user preference can be dynamically changed according to the user's situation, so that a program according to the user's situation can be recommended.

上記第2の実施形態においては、プリファレンス拡張部104では、プリファレンス記憶部102に記憶されたキーワードから、環境プリファレンス記憶部110に記憶されたキーワードだけではなくその類義語も削除したが、これに限らず、環境プリファレンス記憶部110に記憶されたキーワードについてのみ処理してもよい。また、マッチング判定以降の処理は第1の実施形態と同様としたが、これに限らず、マッチング判定を行うものであれば何でも良い。例えば、第2の実施形態では、図16に示した環境情報によって拡張されたユーザプリファレンスを第1の実施形態と同様にさらに類義語で拡張するが、類義語で拡張することなくマッチング判定を行っても良い。   In the second embodiment, the preference extension unit 104 deletes not only the keyword stored in the environment preference storage unit 110 but also its synonym from the keyword stored in the preference storage unit 102. Not only the keywords stored in the environment preference storage unit 110 may be processed. Further, the processing after the matching determination is the same as that in the first embodiment. However, the present invention is not limited to this. For example, in the second embodiment, the user preference expanded by the environment information shown in FIG. 16 is further expanded with synonyms as in the first embodiment, but the matching determination is performed without expanding with the synonyms. Also good.

(第3の実施形態)
第1の実施形態は、ユーザ嗜好を表すキーワードを類義語で拡張して番組情報のマッチングを行ったが、第3の実施形態は同様にユーザ嗜好の類義語による拡張によって部分映像を隠蔽したりハイライトしたりする表示制御を行うものである。この表示制御は、たとえばユーザにとって不快な部分映像を自動的に隠蔽したり、強く興味を持っている部分映像を強調したりする。
(Third embodiment)
In the first embodiment, keywords representing user preferences are expanded by synonyms and program information matching is performed. In the third embodiment, partial videos are similarly hidden or highlighted by expansion by synonyms of user preferences. Display control. In this display control, for example, a partial video unpleasant to the user is automatically hidden or a partial video that is strongly interested is emphasized.

なお、実施形態の説明において、例えばテレビなどで表示される動画像を「映像」と呼び、映像中の人物や物体などの意味のある部分について映像全体とは別のまとまりとして記述したものを「映像オブジェクト」と呼ぶことにする。映像オブジェクトが部分画像でもよいし、映像中の部分を例えば座標値で表したメタデータでもよく、ここでは後者のメタデータが用いられているものとして説明する。   In the description of the embodiment, for example, a moving image displayed on a television or the like is referred to as a “video”, and a meaningful part such as a person or an object in the video is described as a separate unit from the whole video. It will be called a “video object”. The video object may be a partial image, or may be metadata in which a portion in the video is represented by, for example, coordinate values. Here, the latter metadata will be described as being used.

本実施形態は、第1の実施形態における番組表受信部100が番組表を受信する代わりに映像と映像オブジェクトを受信し、推薦番組決定部107が推薦する番組を決定する代わりに映像オブジェクトの表示方法を決定し、さらに表示部108がユーザに推薦する番組情報を表示する代わりに映像オブジェクトを隠蔽したりハイライトしたりして映像と合成して表示する違いがあるのみなので、この部分についてのみ説明する。   In the present embodiment, the program guide receiving unit 100 in the first embodiment receives a video and a video object instead of receiving a program guide, and the recommended program determining unit 107 displays a video object instead of determining a recommended program. There is only a difference between determining the method and displaying the combined video information by hiding or highlighting the video object instead of displaying the program information recommended by the display unit 108 to the user. explain.

図18は、第3の実施形態による映像提示装置の概略構成図である。本装置は、第1の実施形態の概略構成において、番組受信部100の代わりに映像受信部111を使用し、推薦番組決定部107の代わりに映像オブジェクト表示方法決定部112を使用し、表示部108の代わりに映像表示部113を使用して構成される。   FIG. 18 is a schematic configuration diagram of a video presentation device according to the third embodiment. This apparatus uses a video receiving unit 111 instead of the program receiving unit 100, a video object display method determining unit 112 instead of the recommended program determining unit 107, and a display unit in the schematic configuration of the first embodiment. The video display unit 113 is used instead of the video display unit 113.

映像受信部111は、例えばEPG(Electric Program Guide)対応テレビチューナーで構成され、映像信号と映像オブジェクト信号を受信する。図19は受信した信号の一例を示す。この例では、映像1900としてチョウ、ヘビ、ゴキブリが映った映像を受信しており、映像オブジェクトはチョウの部分映像を囲む楕円の図形情報1901、ヘビの図形情報1902、ゴキブリの図形情報1903として受信する。この図では、説明のために図形情報を破線で示しているが、実際の画面にはこの破線は表示されない。映像信号と映像オブジェクト信号は1/30秒に1回放送局から送信されるものとし、1回の受信で映像信号は1フレーム分の映像データを入力して、映像オブジェクト信号は各フレームにデータを受信するものとする。   The video receiving unit 111 is configured by, for example, an EPG (Electric Program Guide) compatible TV tuner, and receives a video signal and a video object signal. FIG. 19 shows an example of a received signal. In this example, a video showing a butterfly, a snake, and a cockroach is received as the video 1900, and video objects are received as ellipse graphic information 1901, snake graphic information 1902, and cockroach graphic information 1903 surrounding the partial video of the butterfly. To do. In this figure, the graphic information is indicated by broken lines for the sake of explanation, but this broken line is not displayed on the actual screen. The video signal and the video object signal are transmitted from the broadcast station once every 1/30 seconds, and the video signal is input as video data for one frame in one reception. Shall be received.

図20は、1回の受信で入力した映像オブジェクト信号(メタデータ)の一例を示し、映像信号を受信するたびにメタデータ記憶部101に記憶する。この例では、メタデータは、映像オブジェクトの識別子2000、映像オブジェクトの図形情報2001、映像オブジェクトを説明するキーワード2002とから構成される。図形情報2001は楕円の中心座標、短径、長径、傾きから構成される。キーワード2002は単語の列で構成され、この例では、識別子134の映像オブジェクトには「ヘビ」、識別子135の映像オブジェクトには「ゴキブリ」と「昆虫」、識別子136の映像オブジェクトには「蝶」、「昆虫」が映像オブジェクトの説明として付加されている。   FIG. 20 shows an example of a video object signal (metadata) input in one reception, and the video object signal (metadata) is stored in the metadata storage unit 101 every time a video signal is received. In this example, the metadata includes a video object identifier 2000, video object graphic information 2001, and a keyword 2002 describing the video object. The graphic information 2001 is composed of the center coordinates of the ellipse, the minor axis, the major axis, and the inclination. The keyword 2002 is composed of a sequence of words. In this example, the video object with the identifier 134 is “snake”, the video object with the identifier 135 is “cockroach” and “insect”, and the video object with the identifier 136 is “butterfly”. , “Insect” is added as a description of the video object.

図21は、ユーザプリファレンス記憶部102に記憶されたユーザ嗜好情報を示している。この例では、好ましいキーワードとして「昆虫」、好ましくないキーワードとして「油虫」、「へび」が記憶されているものとする。   FIG. 21 shows user preference information stored in the user preference storage unit 102. In this example, it is assumed that “insect” is stored as a preferred keyword, and “oilworm” and “snake” are stored as undesirable keywords.

図22は、拡張プリファレンス記憶部105に記憶された内容の一例を示す。本装置は映像信号を受信すると、プリファレンス拡張部104は第1の実施形態と同様にユーザ嗜好情報を類義語で拡張する。この例では、「油虫」は別名の「ゴキブリ」や別表記の「アブラムシ」が追加されている。   FIG. 22 shows an example of the contents stored in the extended preference storage unit 105. When the apparatus receives the video signal, the preference extension unit 104 extends the user preference information with synonyms as in the first embodiment. In this example, “oilworm” is added with another name “cockroach” and another notation “aphid”.

図23は、マッチング判定部106でマッチング判定するために、第1の実施形態と同様の方法で作成したユーザ嗜好スコア表の一例を示す。   FIG. 23 shows an example of a user preference score table created by the same method as that of the first embodiment for the matching determination by the matching determination unit 106.

図24は、マッチング判定部106でマッチング判定するために、第1の実施形態と同様の方法で各映像オブジェクトのスコアを算出した結果の一例を示す。映像オブジェクト表示方法決定部112は、マッチング判定部106で算出したスコアを入力して、映像オブジェクトをそのまま表示するか、あるいは塗りつぶすかを決定する。ここでは、スコアが負でない映像オブジェクトは何も行わないものとして判定して、スコアが負の映像オブジェクトは塗りつぶすものとして判定する。   FIG. 24 shows an example of the result of calculating the score of each video object by the same method as in the first embodiment in order to make a matching determination by the matching determination unit 106. The video object display method determination unit 112 receives the score calculated by the matching determination unit 106 and determines whether to display the video object as it is or to paint it. Here, it is determined that a video object having a negative score is not performed, and a video object having a negative score is determined to be filled.

図25は、映像オブジェクト表示方法決定部112の判定に従って映像と映像オブジェクトを合成して表示した一例を示す。この例では、識別子134の「ヘビ」の映像オブジェクトと識別子135の「ゴキブリ」の映像オブジェクトのスコアは負であるため、塗りつぶして表示する。塗りつぶしは、映像受信部111で受信した映像オブジェクトを表す図形情報を用いて楕円形に塗りつぶす。識別子136の「チョウ」の映像オブジェクトは正であるためそのまま表示する。   FIG. 25 shows an example in which a video and a video object are combined and displayed according to the determination of the video object display method determination unit 112. In this example, since the score of the video object “snake” with the identifier 134 and the video object “cockroach” with the identifier 135 are negative, they are displayed in a solid color. The fill is performed in an elliptical shape using graphic information representing the video object received by the video receiver 111. Since the video object of “Chow” with the identifier 136 is positive, it is displayed as it is.

図26は、上述した処理手順のフローチャートを示す。これによると、まず、映像受信部111は映像と映像オブジェクトを受信する(ステップS2600)。メタデータ記憶部101は映像オブジェクトを図形情報とキーワードとして記憶する(ステップS2601)。プリファレンス拡張部104はプリファレンス記憶部102に記憶されたキーワードを類義語で拡張する(ステップS2602)。マッチング判定部106はメタデータ記憶部に記憶された映像オブジェクトのスコアを算出する(ステップS2603)。映像オブジェクト表示方法決定部112は映像オブジェクトのスコアを参照して、スコアが負の映像オブジェクトを塗りつぶして表示するように決定する(ステップ2604)。表示部113は塗りつぶすと決定された映像オブジェクトは映像受信部111で受信した図形で塗りつぶし、そうでない映像オブジェクトはそのまま表示する(ステップS2605)。   FIG. 26 shows a flowchart of the above-described processing procedure. According to this, first, the video receiver 111 receives a video and a video object (step S2600). The metadata storage unit 101 stores the video object as graphic information and a keyword (step S2601). The preference extension unit 104 extends the keywords stored in the preference storage unit 102 with synonyms (step S2602). The matching determination unit 106 calculates the score of the video object stored in the metadata storage unit (step S2603). The video object display method determination unit 112 refers to the score of the video object and determines to display the video object having a negative score (step 2604). The display unit 113 fills the video object determined to be filled with the graphic received by the video receiving unit 111, and displays the video object that is not so as it is (step S2605).

ユーザ嗜好キーワードの類義語による拡張には処理時間がかかるが、本実施形態のマッチング方法では番組を視聴する前に準備することができるため、フレーム単位の高速なマッチングに適している。   The expansion of user-preferred keywords by synonyms takes time, but the matching method of this embodiment is suitable for high-speed matching on a frame basis because it can be prepared before viewing a program.

上記の第3の実施形態を用いれば、映像オブジェクトに対しても、ユーザプリファレンスのキーワードと同一のキーワードが映像オブジェクトのキーワードにない場合でも類義語であれば検出できるため、精度良く映像オブジェクトの表示制御ができる。   If the third embodiment described above is used, even if the same keyword as the keyword of the user preference is not found in the keyword of the video object, it can be detected if it is a synonym. Can control.

上記の第3の実施形態によると、ユーザ嗜好キーワードはユーザによって予め設定されるものとしたが、これに限らず、ユーザの現在の嗜好を参照して動的に設定してもよい。例えば第2の実施形態と同様に、センサーとキーワードを対応付けておいて、動的にユーザ嗜好キーワードを変化させてもよい。また、映像受信部111は、映像フレームごとに映像オブジェクト情報を受信したが、これに限らず、間引いて受信したり、先読みしたりしても良い。間引く場合には、前に2回受信したデータから予測すればよいし、先読みする場合には、前後のデータから線形補間すればよい。   According to the third embodiment, the user preference keyword is set in advance by the user. However, the present invention is not limited to this, and the user preference keyword may be set dynamically with reference to the user's current preference. For example, similarly to the second embodiment, the user preference keyword may be dynamically changed by associating the sensor with the keyword. In addition, the video receiving unit 111 receives the video object information for each video frame, but the video receiving unit 111 is not limited thereto, and may receive it by thinning or prefetching. In the case of thinning, prediction may be performed from data received twice before, and in the case of prefetching, linear interpolation may be performed from previous and subsequent data.

図18の実施形態に対して図27に示すように番組受信部100および推薦番組決定部107を含む図1の実施形態の機能または状況情報取得部109および状況プリファレンス記憶部110を含む図18の実施形態の機能或いは両者の機能を付加してもよい。これによると、ユーザ嗜好の類義語による拡張によって部分映像を隠蔽したりハイライトしたりする表示制御を行うだけでなく、ユーザプリファレンスのキーワードと同一のキーワードが番組情報にない場合でも類義語であれば、精度よく番組を推薦することができる。また、ユーザ嗜好の類義語による拡張によって部分映像を隠蔽したりハイライトしたりする表示制御を行うだけでなく、ユーザの状況に応じてユーザプリファレンスを動的に変化させることができるため、ユーザの状況に応じた番組を推薦することができる。   18 includes the function or situation information acquisition unit 109 and the situation preference storage unit 110 of the embodiment of FIG. 1 including the program receiving unit 100 and the recommended program determining unit 107 as shown in FIG. The functions of the embodiment or both functions may be added. According to this, in addition to performing display control for concealing or highlighting partial video by extension by user preference synonyms, even if the program keyword does not have the same keyword as the user preference keyword, , Can recommend the program with high accuracy. In addition, the user preference can be dynamically changed according to the user's situation, in addition to performing display control for concealing or highlighting the partial video by extension by a user preference synonym. It is possible to recommend programs according to the situation.

上記実施形態では、ユーザ嗜好情報を類義語で拡張しているが、第1の実施形態と同様に属性情報を類義語で拡張しても良い。   In the above embodiment, user preference information is expanded with synonyms, but attribute information may be expanded with synonyms as in the first embodiment.

なお、本発明は、上記実施形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形することが可能である。更に、上記実施形態には種々の段階の発明が含まれており、開示される複数の構成要件における適宜な組み合わせにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件から幾つかの構成要件が削除されても、発明が解決しようとする課題の欄で述べた課題の少なくとも1つが解決でき、発明の効果の欄で述べられている効果の少なくとも1つが得られる場合には、この構成要件が削除された構成が発明として抽出され得る。   In addition, this invention is not limited to the said embodiment, In the implementation stage, it can change variously in the range which does not deviate from the summary. Further, the above embodiments include inventions at various stages, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some constituent elements are deleted from all the constituent elements shown in the embodiment, at least one of the problems described in the column of the problem to be solved by the invention can be solved, and is described in the column of the effect of the invention. When at least one of the effects is obtained, a configuration in which this configuration requirement is deleted can be extracted as an invention.

本発明の第1実施形態に従った映像提示装置のブロック図The block diagram of the image | video presentation apparatus according to 1st Embodiment of this invention. 番組表の一例を示す図Figure showing an example of the program guide メタデータ記憶部の記憶されている番組情報の一例を示す図The figure which shows an example of the program information memorize | stored in a metadata memory | storage part ユーザプリファレンスの一例を示す図Diagram showing an example of user preferences キーワードの類義語検索結果の一例を示す図The figure which shows an example of a keyword synonym search result 類義語で拡張されたユーザプリファレンスの一例を示す図Diagram showing an example of user preferences extended with synonyms キーワードとスコアとを示す図Figure showing keywords and scores 番組スコアを算出する一例を示す図The figure which shows an example which calculates a program score 番組推薦の画面を示す図Figure showing the program recommendation screen 図1の映像提示装置の処理を示すフローチャート図The flowchart figure which shows the process of the video presentation apparatus of FIG. 番組のスコアを算出する処理手順を示すフローチャート図The flowchart figure which shows the process sequence which calculates the score of a program 本発明の第2実施形態に従った映像提示装置のブロック図The block diagram of the image | video presentation apparatus according to 2nd Embodiment of this invention. センサーデータとセンサーIDとの対応付の一例を示す図The figure which shows an example of matching with sensor data and sensor ID センサーIDとキーワードとの対応付の一例を示す図The figure which shows an example of matching with sensor ID and a keyword 類義語の検索を説明するための図Diagram for explaining synonym search 拡張されたプリファレンスを示す図Diagram showing expanded preferences 図2の映像提示装置の処理を示すフローチャート図The flowchart figure which shows the process of the video presentation apparatus of FIG. 本発明の第3実施形態に従った映像提示装置のブロック図The block diagram of the image | video presentation apparatus according to 3rd Embodiment of this invention. 映像オブジェクトを示す図Diagram showing video object 映像オブジェクト信号を説明する図Diagram explaining video object signal ユーザ嗜好情報を示す図The figure which shows user preference information 類義語で拡張されたユーザプリファレンスの一例を示す図Diagram showing an example of user preferences extended with synonyms スコア表の一例を示す図Figure showing an example of the score table 映像オブジェクトのスコアを算出した結果の一例を示す図The figure which shows an example of the result of calculating the score of a video object 選択的に映像オブジェクトの表示する状態を示す図The figure which shows the state which displays the picture object selectively 図18の映像提示装置の処理を示すフローチャート図The flowchart figure which shows the process of the video presentation apparatus of FIG. 図18の実施形態に図1の実施形態または/および図18の実施形態を含めた映像提示装置のブロック図。The block diagram of the image | video presentation apparatus which included embodiment of FIG. 1 and / or embodiment of FIG. 18 in embodiment of FIG. 拡張されないユーザ情報とスコアを示す図Diagram showing user information and score not expanded 拡張した番組の属性情報を示す図Diagram showing extended program attribute information 拡張した属性情報と拡張されないユーザ情報と用いて、番組スコアを算出する一例を示す図The figure which shows an example which calculates a program score using the extended attribute information and the user information which is not extended 類似度を用いて番組スコアを算出する一例を示す図The figure which shows an example which calculates a program score using similarity

符号の説明Explanation of symbols

100…番組表受信部、101…メタデータ記憶部、102…プリファレンス記憶部、103…類義語辞書、104…プリファレンス拡張部、105…拡張プリファレンス記憶部、106…マッチング判定部、107…推薦番組決定部、108…表示部、109…状況情報取得部、110…状況プリファレンス記憶部、111…映像受信部、112…映像オブジェクト表示方法決定部、113…映像表示部 DESCRIPTION OF SYMBOLS 100 ... Program schedule receiving part 101 ... Metadata storage part 102 ... Preference storage part 103 ... Synonym dictionary 104 ... Preference extension part 105 ... Extended preference storage part 106 ... Matching determination part 107 ... Recommendation Program determining unit 108 ... Display unit 109 ... Situation information acquisition unit 110 ... Situation preference storage unit 111 ... Video receiving unit 112 ... Video object display method determining unit 113 113 Video display unit

Claims (11)

属性情報が付加された映像を入力する手段と、
ユーザ嗜好情報を記憶するユーザ嗜好記憶手段と、
前記ユーザ嗜好情報を類義語で拡張する情報拡張手段と、
前記属性情報と拡張されたユーザ嗜好情報との間でマッチングを取る手段と、
前記マッチング結果に基づいて映像を特定する映像特定手段と、
特定された映像をユーザに提示する手段と、
を具備することを特徴とする映像提示装置。
Means for inputting video with attribute information;
User preference storage means for storing user preference information;
Information expansion means for expanding the user preference information with synonyms;
Means for matching between the attribute information and the extended user preference information;
Video specifying means for specifying a video based on the matching result;
Means for presenting the identified video to the user;
A video presentation apparatus comprising:
属性情報が付加された映像を入力する手段と、
ユーザ嗜好情報を記憶するユーザ嗜好記憶手段と、
前記属性情報を類義語で拡張する情報拡張手段と、
拡張された属性情報と前記ユーザ嗜好情報との間でマッチングを取る手段と、
前記マッチング結果に基づいて映像を特定する映像特定手段と、
特定された映像をユーザに提示する手段と、
を具備することを特徴とする映像提示装置。
Means for inputting video with attribute information;
User preference storage means for storing user preference information;
Information expansion means for expanding the attribute information with synonyms;
Means for matching between the extended attribute information and the user preference information;
Video specifying means for specifying a video based on the matching result;
Means for presenting the identified video to the user;
A video presentation apparatus comprising:
前記ユーザ嗜好情報を類義語で拡張する情報拡張手段を更に含み、前記マッチングを取る手段は拡張された前記属性情報と拡張されたユーザ嗜好情報との間でマッチングを取ることを特徴とする請求項2の映像提示装置。   3. The information expansion means for expanding the user preference information with a synonym, wherein the matching means performs matching between the extended attribute information and the extended user preference information. Video presentation device. ユーザ状況を取得する状況取得手段と、
前記取得された状況に対応するキーワードを記憶する状況キーワード記憶手段と、
前記状況取得手段が取得した状況に応じて前記ユーザ嗜好情報を更新するために、前記キーワードを前記ユーザ嗜好記憶手段に対して追加または削除する状況キーワード制御手段とを更に具備することを特徴とする請求項1または2記載の映像提示装置。
Status acquisition means for acquiring user status;
Situation keyword storage means for storing a keyword corresponding to the acquired situation;
In order to update the user preference information according to the situation acquired by the situation acquisition means, the apparatus further comprises situation keyword control means for adding or deleting the keyword to or from the user preference storage means. The video presentation apparatus according to claim 1 or 2.
類義語による拡張を同義語のみに限定することを特徴とする請求項1乃至4のいずれか1記載の映像提示装置。   The video presentation apparatus according to claim 1, wherein expansion by synonyms is limited to only synonyms. 前記マッチングを取る手段は、属性情報とユーザ嗜好情報との間の類似度を用いることを特徴とする請求項1乃至4のいずれか1記載の映像提示装置。   The video presentation apparatus according to claim 1, wherein the matching unit uses a similarity between attribute information and user preference information. 映像と映像オブジェクトを入力する手段と、
ユーザ嗜好情報を記憶するユーザ嗜好記憶手段と、
前記ユーザ嗜好情報を類義語で拡張する情報拡張手段と、
前記映像オブジェクトと前記拡張されたユーザ嗜好情報との間でマッチングを取る手段と、
前記マッチング結果に基づいて前記映像オブジェクトを加工し、映像に合成して表示映像を生成する映像加工手段と、
前記表示映像をユーザに提示する手段と、
を具備することを特徴とする映像提示装置。
Means for inputting video and video objects;
User preference storage means for storing user preference information;
Information expansion means for expanding the user preference information with synonyms;
Means for matching between the video object and the extended user preference information;
Video processing means for processing the video object based on the matching result and generating a display video by combining the video object;
Means for presenting the display video to a user;
A video presentation apparatus comprising:
属性情報が付加された映像と映像オブジェクトを入力する手段と、
ユーザ嗜好情報を記憶するユーザ嗜好記憶手段と、
前記属性情報を類義語で拡張する情報拡張手段と、
拡張された属性情報と前記ユーザ嗜好情報との間でマッチングを取る手段と、
前記マッチング結果に基づいて前記映像オブジェクトを加工し、映像に合成して表示映像を生成する映像加工手段と、
特定された映像をユーザに提示する手段と、
を具備することを特徴とする映像提示装置。
Means for inputting video and video objects with attribute information added thereto;
User preference storage means for storing user preference information;
Information expansion means for expanding the attribute information with synonyms;
Means for matching between the extended attribute information and the user preference information;
Video processing means for processing the video object based on the matching result and generating a display video by combining the video object;
Means for presenting the identified video to the user;
A video presentation apparatus comprising:
前記ユーザ嗜好情報を類義語で拡張する情報拡張手段を更に含み、前記マッチングを取る手段は拡張された前記属性情報と拡張されたユーザ嗜好情報との間でマッチングを取ることを特徴とする請求項8の映像提示装置。   9. The information expanding means for expanding the user preference information with a synonym, wherein the matching means performs matching between the extended attribute information and the extended user preference information. Video presentation device. 前記マッチング結果に基づいて映像オブジェクトを特定する映像特定手段を更に有し、前記提示手段は、特定された映像オブジェクトをユーザに提示することを特徴とする請求項75記載の映像提示装置。   The video presentation apparatus according to claim 75, further comprising video identification means for identifying a video object based on the matching result, wherein the presentation means presents the identified video object to a user. ユーザ状況を取得する状況取得手段と、取得した状況に対応するキーワードを記憶する状況キーワード記憶手段と、取得した状況に応じて前記ユーザ嗜好情報を更新するために前記キーワードを前記ユーザ嗜好記憶手段に対して追加または削除する状況キーワード制御手段とを更に具備することを特徴とする請求項5または6記載の映像提示装置。   Status acquisition means for acquiring user status, status keyword storage means for storing a keyword corresponding to the acquired status, and the keyword in the user preference storage means for updating the user preference information according to the acquired status 7. The video presentation apparatus according to claim 5, further comprising status keyword control means for adding to or deleting from the status keyword control means.
JP2004005443A 2004-01-13 2004-01-13 Video presenting device Pending JP2005202485A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004005443A JP2005202485A (en) 2004-01-13 2004-01-13 Video presenting device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004005443A JP2005202485A (en) 2004-01-13 2004-01-13 Video presenting device

Publications (1)

Publication Number Publication Date
JP2005202485A true JP2005202485A (en) 2005-07-28

Family

ID=34819769

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004005443A Pending JP2005202485A (en) 2004-01-13 2004-01-13 Video presenting device

Country Status (1)

Country Link
JP (1) JP2005202485A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008134800A (en) * 2006-11-28 2008-06-12 Ntt Docomo Inc Retrieval system and retrieval method
JP2010218385A (en) * 2009-03-18 2010-09-30 Nippon Hoso Kyokai <Nhk> Content retrieval device and computer program
JP2016031675A (en) * 2014-07-29 2016-03-07 Kddi株式会社 Content recommendation device and program
WO2018088040A1 (en) * 2016-11-14 2018-05-17 オムロン株式会社 Matching device, matching method, and program
JPWO2021145030A1 (en) * 2020-01-13 2021-07-22
WO2023042515A1 (en) * 2021-09-15 2023-03-23 キヤノン株式会社 Display device, control device, control method, and program

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008134800A (en) * 2006-11-28 2008-06-12 Ntt Docomo Inc Retrieval system and retrieval method
JP2010218385A (en) * 2009-03-18 2010-09-30 Nippon Hoso Kyokai <Nhk> Content retrieval device and computer program
JP2016031675A (en) * 2014-07-29 2016-03-07 Kddi株式会社 Content recommendation device and program
WO2018088040A1 (en) * 2016-11-14 2018-05-17 オムロン株式会社 Matching device, matching method, and program
JP2018081377A (en) * 2016-11-14 2018-05-24 オムロン株式会社 Matching device, matching method and program
US10922325B2 (en) 2016-11-14 2021-02-16 Omron Corporation Matching device, matching method, and program
JPWO2021145030A1 (en) * 2020-01-13 2021-07-22
WO2021145030A1 (en) * 2020-01-13 2021-07-22 日本電気株式会社 Video search system, video search method, and computer program
JP7416091B2 (en) 2020-01-13 2024-01-17 日本電気株式会社 Video search system, video search method, and computer program
WO2023042515A1 (en) * 2021-09-15 2023-03-23 キヤノン株式会社 Display device, control device, control method, and program

Similar Documents

Publication Publication Date Title
US11197036B2 (en) Multimedia stream analysis and retrieval
KR101644789B1 (en) Apparatus and Method for providing information related to broadcasting program
US8374845B2 (en) Retrieving apparatus, retrieving method, and computer program product
CN103914513B (en) A kind of entity input method and device
US9973815B2 (en) Apparatus, method, and program for processing information
US20120036139A1 (en) Content recommendation device, method of recommending content, and computer program product
CN109558513B (en) Content recommendation method, device, terminal and storage medium
US8463596B2 (en) Selecting an optimal property of a keyword associated with program guide content for keyword retrieval
US8397263B2 (en) Information processing apparatus, information processing method and information processing program
JP4487018B2 (en) Related scene assigning apparatus and related scene assigning method
JPWO2006073095A1 (en) Associative dictionary creation device
CN110430476A (en) Direct broadcasting room searching method, system, computer equipment and storage medium
CN108388570B (en) Method and device for carrying out classification matching on videos and selection engine
US20100057721A1 (en) Information Providing Server, Information Providing Method, and Information Providing System
CN110929158A (en) Content recommendation method, system, storage medium and terminal equipment
WO2009104387A1 (en) Interactive program search device
JP2006186426A (en) Information retrieval display apparatus, information retrieval display method, and information retrieval display program
JP2005202485A (en) Video presenting device
JP2016177690A (en) Service recommendation device, service recommendation method, and service recommendation program
JP2016086342A (en) Information processing device, information processing method, and program
JP2009059335A (en) Information processing apparatus, method, and program
JP5136181B2 (en) Information retrieval device
JP2001028010A (en) System and method for automatic multimedia contents extraction
JP4120597B2 (en) Partial content creation method, apparatus and program
JP2016025570A (en) Information processor, information processing method and program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20061215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070109

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070308

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070508

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20071002