JP2005202485A - Video presenting device - Google Patents
Video presenting device Download PDFInfo
- Publication number
- JP2005202485A JP2005202485A JP2004005443A JP2004005443A JP2005202485A JP 2005202485 A JP2005202485 A JP 2005202485A JP 2004005443 A JP2004005443 A JP 2004005443A JP 2004005443 A JP2004005443 A JP 2004005443A JP 2005202485 A JP2005202485 A JP 2005202485A
- Authority
- JP
- Japan
- Prior art keywords
- video
- information
- user preference
- user
- keyword
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
本発明は、映像に付加されたメタデータとユーザ嗜好データとのマッチングに応じて映像を提示する映像提示装置に関する。 The present invention relates to a video presentation apparatus that presents video in accordance with matching between metadata added to the video and user preference data.
映像に付加されたメタデータとユーザ嗜好データのマッチング方法に関して従来から研究されている。例えば、EPG(Electric Program Guide、電子番組表)からキーワードを抽出してユーザ嗜好データとマッチングして番組を推薦する技術がある(特許文献1参照)。これは、キーワードを出現頻度、視聴時間、録画予約などのユーザ操作に応じて重み付けしたものをユーザ嗜好データとして蓄積している。しかし、ここで用いられているマッチング方法は、キーワード文字列の完全一致であり、同じ意味を持つキーワードでも、漢字による表記とひらがなによる表記の違いや類義語は別のキーワードとして処理されるという問題があった。 Conventionally, a method for matching metadata added to video and user preference data has been studied. For example, there is a technique for recommending a program by extracting a keyword from an EPG (Electric Program Guide) and matching it with user preference data (see Patent Document 1). In this method, keywords weighted according to user operations such as appearance frequency, viewing time, and recording reservation are stored as user preference data. However, the matching method used here is a complete match of keyword strings, and even for keywords with the same meaning, the difference between Kanji and Hiragana notation and synonyms are handled as separate keywords. there were.
また、複数のキーワードをまとめるテーマ辞書とテーマで構成されたユーザ嗜好データをあらかじめ定義しておき、EPGの番組説明文から抽出したキーワードについてテーマ別スコアとユーザ嗜好データとの積の値で推薦番組を選択する技術がある(特許文献2参照)。この技術によると、異なるキーワードを同じテーマに属するものとしてマッチング処理することができる。しかし、漢字やひらがな表記や別名に対応するには、これらをすべて登録した膨大なデータ量のテーマ辞書が必要となる。このような専用の辞書を作成するには高いコストが必要となる。たとえこのような辞書を作成できたとしても、意味が似ているが同一ではない類義語に対応することはできない。また、マッチング処理はすべての登録されたすべてのキーワードと比較を行うため、処理時間がかかるという問題があった。 Also, user preference data composed of theme dictionaries and themes that combine multiple keywords are defined in advance, and recommended programs are calculated by the product of thematic score and user preference data for keywords extracted from EPG program descriptions. There is a technique for selecting (see Patent Document 2). According to this technique, different keywords can be matched as belonging to the same theme. However, in order to support kanji, hiragana notation, and aliases, a theme dictionary with a huge amount of data in which all of these are registered is required. Creating such a dedicated dictionary requires high costs. Even if such a dictionary can be created, it cannot correspond to synonyms that have similar meanings but are not identical. In addition, since the matching process is compared with all registered keywords, there is a problem that it takes a long processing time.
更に、ジャンル別、番組タイトル別、出演者別、といったように複数のユーザプロファイルを用意しておき、ユーザが番組推薦をさせる際にどのプロファイルを使って番組を推薦させるかを選択できる技術がある(特許文献3参照)。この技術によると、ユーザの嗜好をより細かく反映した番組推薦が可能となるが、あらかじめ用意されたプロファイル以外のものには対応できない上に、プロファイルを選択する操作はユーザにとって煩雑であるという問題があった。
映像に付加されたメタデータとユーザ嗜好データとの従来のマッチング方法では、類義語によるマッチングができなかった。また、ユーザの状況に合わせてマッチングをするためには、ユーザが重視する項目を明示的に指示しなければならず煩雑であった。 In the conventional matching method between the metadata added to the video and the user preference data, matching with synonyms could not be performed. Further, in order to perform matching in accordance with the user's situation, it is complicated because the user must explicitly indicate the items that are important.
従って、本発明は、映像に付加されたメタデータとユーザ嗜好データとのマッチングにおいて、メタデータやユーザ嗜好データを構成するキーワードを類義語で拡張することによってマッチング精度を向上させる映像提示装置を提供することを目的とする。 Therefore, the present invention provides a video presentation device that improves matching accuracy by expanding the keywords constituting metadata and user preference data with synonyms in matching metadata added to video and user preference data. For the purpose.
本発明は、属性情報が付加された映像を入力する手段と、ユーザ嗜好情報を記憶するユーザ嗜好記憶手段と、前記ユーザ嗜好情報を類義語で拡張する情報拡張手段と、前記属性情報と拡張ユーザ嗜好情報との間でマッチングを取る手段と、前記マッチング結果に基づいて映像を特定する映像特定手段と、特定された映像をユーザに提示する手段とを具備することを特徴とする映像提示装置を提供する。 The present invention includes means for inputting a video to which attribute information is added, user preference storage means for storing user preference information, information expansion means for expanding the user preference information with synonyms, the attribute information, and extended user preference. Provided is a video presentation device comprising means for matching information, video specifying means for specifying a video based on the matching result, and means for presenting the specified video to a user To do.
本発明の類義語によるユーザ嗜好マッチングを用いた映像提示装置を用いれば、ユーザ嗜好を表すキーワードと番組のキーワードが厳密に一致していなくても類義語であれば検出できるため、ユーザの好む番組を精度よく推薦することができる。さらには、ユーザの嗜好をセンサーで感知してユーザ嗜好を表すキーワードを動的に変化させることにより、動的に変化するユーザ嗜好にも対応できる。 If the video presentation device using the user preference matching by the synonym of the present invention is used, it is possible to detect a synonym even if the keyword representing the user preference and the keyword of the program do not exactly match. Can recommend well. Furthermore, it is possible to cope with dynamically changing user preferences by sensing user preferences with a sensor and dynamically changing a keyword representing the user preferences.
以下に図面を参照しながら本発明の実施形態を説明する。 Embodiments of the present invention will be described below with reference to the drawings.
(第1の実施形態)
図1は、本発明の第1の実施形態による映像提示装置の概略構成図である。本装置によると、番組表を受信する番組表受信部100は、番組表からキーワード(属性情報)を抽出して記憶するメタデータ記憶部101に接続される。プリファレンス記憶部102はユーザの嗜好(プリファレンス)をキーワードで記憶するものであり、類義語を蓄積した類義語辞書103と共にプリファレンス拡張部104に接続される。プリファレンス拡張部104はプリファレンスに類義語を追加してプリファレンスを拡張する機能を有する。プリファレンス拡張部104はプリファレンス拡張部104の出力部は拡張されたプリファレンスを記憶する拡張プリファレンス記憶部105に接続される。この拡張プリファレンス記憶部105の出力部はメタデータ記憶部101の出力部と共にマッチング判定部106に接続される。マッチング判定部106はメタデータと拡張プリファレンスを比較して各番組のスコアを算出する。マッチング判定部106の出力部は判定結果に応じてユーザに推薦する番組を決定する推薦番組決定部107に接続される。推薦番組決定部107は番組表受信部100およびマッチング判定部106の出力データに従って推薦する番組を決定し、該番組の番組表をユーザに提示するため表示部108に出力する。
(First embodiment)
FIG. 1 is a schematic configuration diagram of a video presentation device according to the first embodiment of the present invention. According to this apparatus, a program
番組受信部100は、例えばEPG対応テレビチューナーで構成され、受信した電波からEPGによって記述された番組表を取り出す。図2は番組表の一部の一例であり、ひとつの番組情報は、識別子、放送局名、開始時刻、終了時刻、番組タイトル、番組内容の項目から構成される。タイトルと番組内容は単語または文章によって記述される。
The
メタデータ記憶部101は、例えばハードディスクから構成され、受信した番組表から単語を抽出して番組表を記憶する。単語の抽出にはキーワードマッチングや構文解析などの一般的な手法が用いられる。図3はメタデータ記憶部101が番組情報を記憶する状態を示しており、番組情報は識別子と番組タイトルと番組内容から抽出したキーワードにより構成される。
The
プリファレンス記憶部102は、例えばハードディスクにより構成され、ユーザが興味を持つキーワードを記憶する。図4はユーザプリファレンスの一例を示し、好ましい番組に関するキーワードと好ましくない番組に関するキーワード(プリファレンス)の二種類のキーワードがプリファレンス記憶部102に記憶されている。好ましいキーワードには、「ショッピング」、「料理」が登録されており、好ましくないキーワード(非プリファレンス)には「野球」が登録されている。先頭に記憶するキーワードほどユーザの興味が強いものとする。この例では、「ショッピング」は「料理」よりも興味が強いことを表している。ユーザは興味のある任意のキーワードを登録、削除できるものとする。
The
類義語辞書103は、例えばハードディスクで構成された、数万語の単語を意味別に木構造に接続した汎用オントロジー辞書であり、例えば(株)日本電子化辞書研究所のEDR電子化辞書、分類語彙表[国立国語研究所 1964]や、日本語語彙体系[池原ほか 1997]などが利用できる。
The
プリファレンス拡張部104は、例えば電子回路により構成され、プリファレンス記憶部102に記憶されたキーワードに類義語辞書103を用いて検索した類義語を追加する。ここでは表現は異なるが同一の意味を持つ同義語のみを追加する。類義語の検索は、例えば辞書に登録されたすべての単語について0から1の間の値をとる類似度を計算して、この類似度が1のキーワードを追加する。類似度の計算は、例えばLeacockらの文献(Leacock, C. and Chodorow, M. (1998). “Combining Local Context and WordNet Similarity for Word Sense Idenfication.” In Fellbaum, C. (Ed.), WordNet, An Electronic Lexical Database, pp.265-283. MIT Press)による式1を用いて求める。ただし、w1、w2は類似度を計算するキーワード、Nはw1からw2へのオントロジー辞書を構成する木構造のパスpのノード数、Dは辞書木の最深の長さを表すものとする。
図5は、プリファレンス記憶部102に記憶されたキーワードの類義語を検索した結果であり、「ショッピング」は「買い物」が類義語として検索され、「料理」は「クッキング」と「調理」が検索されている。プリファレンス拡張部104は検索された類義語をユーザプリファレンスに追加する。図6は、類義語で拡張されたユーザプリファレンスの一例であり、キーワードの追加はプリファレンス記憶部102に記憶されたキーワードの先頭のキーワードから順に行っている。「ショッピング」を例にとると、類義語は「買い物」であり、このキーワードを「ショッピング」の後に追加する。
FIG. 5 is a result of searching for synonyms of keywords stored in the
拡張プリファレンス記憶部105は、例えばハードディスクによって構成され、プリファレンス記憶部102に記憶されたキーワードをプリファレンス拡張部104が拡張した結果を記憶する。この例では図6に示した拡張プリファレンスを記憶する。図中の灰色で塗りつぶしたキーワードは拡張されたプリファレンスであることを示す。
The extension
マッチング判定部105は、例えば電子回路により構成され、メタデータ記憶部101に記憶された番組情報を表すキーワードと、拡張プリファレンス記憶部105に記憶されたユーザプリファレンスを表すキーワードとを比較してスコアを算出して、ユーザに推薦すべき番組の優先順位をつける。
The matching
図7は、番組のスコアを算出するために用いるキーワードのスコアを表しており、図中の灰色で塗りつぶしたキーワードは拡張されたプリファレンスであることを示す。好ましいキーワードに関しては、拡張プリファレンス記憶部105に記憶された好ましいキーワードの末尾が1で先頭方向に移動する非類義語毎に1を和算して先頭のキーワードのスコアを高くする。同様に、好ましくないキーワードに関しては、拡張プリファレンス記憶部105に記憶された好ましくないキーワードの末尾が−1で先頭方向に移動する非類義語毎に1を減算して先頭のキーワードのスコアを最も低くする。
FIG. 7 shows the keyword scores used to calculate the score of the program, and the keywords filled in gray in the figure indicate expanded preferences. For the preferred keyword, the end of the preferred keyword stored in the expanded
図8は、番組のスコアを算出する一例を示し、メタデータ記憶部101に記憶された番組情報を表すキーワードと拡張プリファレンス記憶部105に記憶されたユーザプリファレンスを表すキーワードが一致する場合は、図6に示すスコアをつけて、一致しない場合には0をつける。例えば識別子4の番組情報の場合には、「今晩」というキーワードは図7に示す表にないからスコアは0で、同様に「焼き魚」も0となる。「料理」は図7に示す表に存在してスコアは1なのでスコアが1となる。番組情報のスコアはキーワードのスコアを合計して求める。この例では、識別子3、4、5、6のスコアはそれぞれ−1、+1、0、+2となる。
FIG. 8 shows an example of calculating the score of a program. When the keyword representing the program information stored in the
このように、プリファレンス記憶部102に記憶されたキーワード「ショッピング」と、メタデータ記憶部101に記憶された「買い物」はそのままでは一致しないが、プリファレンスを類義語によって拡張することによって、一致させることができるようになる。
As described above, the keyword “shopping” stored in the
推薦番組決定部107は、例えば電子回路により構成され、マッチング判定部105によって算出された番組のスコアを比較して、最もスコアの高い番組を選択する。図8の例では、最も合計スコアが高い番組は識別子6の番組であるため、推薦番組決定部107は識別子6を選択して、番組表受信部100から入力した識別子6の番組情報を表示部108に出力する。
The recommended
表示部108は、例えばディスプレイにより構成され、推薦番組決定部107によって選択された番組情報を画面上に表示してユーザに推薦する。図9は識別子6の番組を推薦する画面の一例を示す。
The
図10は、以上の処理手順を説明するためのフローチャートである。これによると、まず、番組受信部100は番組情報を受信する(ステップS900)。メタデータ記憶部101は番組表からキーワードを構文解析によって抽出して記憶する(ステップS901)。プリファレンス拡張部104は類義語辞書103を用いてプリファレンス記憶部102に記憶されたキーワードに同義語を追加して拡張する(ステップ902)。
FIG. 10 is a flowchart for explaining the above processing procedure. According to this, first, the
マッチング判定部106はメタデータ記憶部101に記憶された番組のスコアを算出する(ステップ903)。推薦番組決定部107は最もスコアの高い番組を選択して(ステップS904)、表示部108に番組情報を表示する(ステップS905)。
The matching
図11は、ステップ903で番組のスコアを算出する処理手順を説明するためのフローチャートである。このフローチャートはひとつの番組のスコアを算出する手順を表している。これによると、まず、メタデータ記憶部101に記憶された番組に対応付けられた先頭のキーワードを選択する(ステップS1000)。選択されたキーワードと一致するキーワードが拡張プリファレンス記憶部105に記憶されたキーワードの中にあるかどうかを判定する(S1001)。この判定がYESであると、処理はステップS1002に進む。判定がNOであると、処理はステップS1003に進む。
FIG. 11 is a flowchart for explaining a processing procedure for calculating a program score in
一致するキーワードが見つかった場合には、キーワードに対応するスコアを加算する(ステップS1002)。次に、すべてのキーワードをチェックしたかが判定される(S1003)。この判定がYESであると、処理はステップ1004に進み、そうでない場合にはステップS1000に戻って次のキーワードについて調べる。ステップS1004ではスコアの総和を出力する。この処理を各番組で繰り返してすべての番組のスコアを算出する。 If a matching keyword is found, a score corresponding to the keyword is added (step S1002). Next, it is determined whether all keywords have been checked (S1003). If this determination is YES, the process proceeds to step 1004, and if not, the process returns to step S1000 to check the next keyword. In step S1004, the total score is output. This process is repeated for each program to calculate the scores of all programs.
上述した第1の実施形態を用いれば、ユーザプリファレンスのキーワードと同一のキーワードが番組情報にない場合でも類義語であれば検出できるため、精度よく番組を推薦することができる。 If the first embodiment described above is used, a synonym can be detected even when the same keyword as the keyword of the user preference is not present in the program information, so that the program can be recommended with high accuracy.
第1の実施形態において、番組受信部100は番組表を電波で受信したが、これに限らず番組表を受信できる手段であれば何でもよい。例えば、インターネットでiEPG(Internet EPG)を受信してもよい。また、プリファレンス拡張部104では、類似度をLeacockらの方法で算出したが、これに限らずキーワード間の類似度を計算できる方法であれば何でも良い。更に、プリファレンス拡張部104では同義語のみを追加したがこれに限らず、予め閾値を設定しておいて、この閾値を超える類似度のキーワードを追加しても良い。また、推薦番組決定部107はひとつだけ選択したが、これに限らず、順番をつけて、表示部108でユーザが順番に閲覧させてもよい。
In the first embodiment, the
更に、上記実施形態では、ユーザ嗜好情報を類義語で拡張しているが、属性情報を類義語で拡張してもよい。この場合、拡張された属性情報とユーザ嗜好情報との間でマッチングが取られる。図28はユーザプリファレンスを拡張しない場合のキーワードのスコアを表しており、キーワードのスコアの付け方は図7の場合と同様である。図29は番組情報を類義語で拡張したものを表しており、図6でユーザプリファレンスを拡張したのと同様に、ひとつのプリファレンスの後にそのプリファレンスの類義語を挿入する。図中の灰色のプリファレンスが拡張されたプリファレンスである。図30は図28に示した番組情報のスコア表と図29に示した拡張されたユーザプリファレンスとを使って番組のスコアを計算する様子を表したものであり、灰色の番組情報は拡張されたことを示している。この結果、「野球」が−1、「料理」が+1、「ショッピング」が+2にマッチングした結果、識別子3、4、5、6の番組の合計スコアがそれぞれ−1、+1、0、+2と算出される。識別子6の番組の合計スコアが最も大きいため、推薦番組決定部107は識別子6を選択する。
Furthermore, in the said embodiment, although user preference information is expanded with a synonym, you may extend attribute information with a synonym. In this case, matching is performed between the extended attribute information and the user preference information. FIG. 28 shows keyword scores when user preferences are not expanded, and the method of assigning keyword scores is the same as in FIG. FIG. 29 shows the program information expanded with synonyms, and the synonym of the preference is inserted after one preference in the same way as the user preference is expanded in FIG. The gray preference in the figure is an expanded preference. FIG. 30 shows how the program score is calculated using the program information score table shown in FIG. 28 and the extended user preferences shown in FIG. 29. Gray program information is expanded. It shows that. As a result, “baseball” is −1, “cooking” is +1, and “shopping” is +2. As a result, the total scores of the programs with
また、上記実施形態では、マッチング判定部105はキーワードが完全一致するかどうかでマッチング判定を行っているが、キーワードとユーザプリファレンスの間の類似度を用いてもよい。図31は類似度を用いた番組スコアの算出方法を説明するための図であり、図8に示したキーワードの完全一致による番組スコアの算出方法と同じ属性情報を用いている。例えば、キーワード「焼き魚」は単語スコアが3のユーザプリファレンス「料理」と類似度0.6であり、図中では「3×0.6」と表記されている。この例では、スコアは各キーワードと各ユーザプリファレンスとの間で単語の類似度を算出して、その中で最も大きいスコアとなるものを番組スコア算出に用いており、例えばキーワード「焼き魚」とユーザプリファレンス「クッキング」との類似度が0.4であっても単語スコアは「2×0.4=0.8」となり、ユーザプリファレンス「料理」との類似度を用いた場合の「1.8」よりも小さいために採用されない。番組スコアはこのようにして算出した単語スコアの和として算出する。なお、この例では単語類似度の最高値を採用したが、これに限らず類似度の和を用いても良い。また、この例では属性情報と拡張されたユーザ情報との間で類似度を求めたが、これに限らず拡張された属性情報とユーザ情報との間や、拡張しない属性情報と拡張しないユーザ情報との間で算出した類似度を用いてもよい。
In the above embodiment, the matching
(第2の実施形態)
第1の実施形態は、ユーザ嗜好を表すキーワードを類義語で拡張することによってマッチング精度を向上させるものであったが、第2の実施形態は、ユーザの状況をセンサーで取り込んでユーザ状況に対応するキーワードを追加してユーザ嗜好を拡張するものである。本実施形態は、第1の実施形態におけるプリファレンス拡張部104が、プリファレンス記憶部102に記憶されたキーワードを類義語で拡張する代わりに、ユーザ状況に応じてキーワードを拡張する。
(Second Embodiment)
In the first embodiment, matching keywords are improved by expanding keywords representing user preferences with synonyms. However, in the second embodiment, a user's situation is captured by a sensor to correspond to the user situation. Add keywords to expand user preferences. In this embodiment, the
図12は、第2の実施形態による映像提示装置の概略構成図である。本装置は、第1の実施形態の概略構成に状況情報取得部109と状況プリファレンス記憶部110を追加して構成される。
FIG. 12 is a schematic configuration diagram of a video presentation device according to the second embodiment. This apparatus is configured by adding a status information acquisition unit 109 and a status
ユーザ状況情報取得部109は、例えばユーザに取り付けられた人物特定センサーと血糖値センサーとから構成され、テレビを視聴している人物とユーザの血糖値とを取得する。人物特定センサーは例えばバッジに組み込まれた無線IDタグとテレビに組み込まれた無線ID読み取り器とから構成され、テレビの周辺にいる人物を特定する。血糖値センサーは、例えば携帯型の光学的血糖値測定器と無線装置から構成され、これらを装着したユーザの血糖値を読み込む。センサーで読み取ったデータは意味を持った単位に分類してセンサーIDを割り振る。 The user status information acquisition unit 109 includes, for example, a person identification sensor and a blood glucose level sensor attached to the user, and acquires the person watching the television and the blood glucose level of the user. The person identification sensor is composed of, for example, a wireless ID tag incorporated in a badge and a wireless ID reader incorporated in a television, and identifies a person around the television. The blood glucose level sensor is composed of, for example, a portable optical blood glucose level measuring device and a wireless device, and reads the blood glucose level of the user wearing these. The data read by the sensor is classified into meaningful units and assigned a sensor ID.
図13は、センサーデータとセンサーIDの対応付けの一例であり、センサーID1はユーザが食事中であることを表しており、例えばユーザのうち誰かひとりでも血糖値センサーの値がある閾値を越えている場合に食事中であることを判定する。センサーID2はユーザAがテレビを視聴していることを表しており、例えば無線IDタグで読み取ったIDがユーザAのIDを含むものと判定する。同様にセンサーID3はユーザBがテレビを視聴していることを表している。
FIG. 13 is an example of association between sensor data and sensor ID, and
ユーザ状況情報取得部109は、センサーIDがセンサー条件を満たす場合にはTrue、そうでない場合にはFalseを出力する。図の例では、センサーID2のみがセンサー条件を満たし、それ以外のIDはセンサー条件を満たしていない。状況プリファレンス記憶部110は、例えばハードディスクから構成され、センサーIDの状態と関連のあるキーワードを記憶する。
The user situation information acquisition unit 109 outputs True if the sensor ID satisfies the sensor condition, and outputs False if not. In the illustrated example, only sensor ID2 satisfies the sensor condition, and other IDs do not satisfy the sensor condition. The situation
図14は、センサーIDとキーワードの対応付けの一例である。センサーID1は食事中であることを表しており、食事中には「嘔吐」と「血」というキーワードは好ましくないものとして登録されている。センサーID2はユーザAの嗜好を表しており、好ましいキーワードとして「音楽」が登録され、好ましくないキーワードとして「クッキング」が登録されている。同様に、センサーID3はユーザBの嗜好を表しており、好ましいキーワードとして「野球」が登録されている。
FIG. 14 is an example of correspondence between sensor IDs and keywords. The
第2の実施形態のプリファレンス拡張部104は、センサーIDの状態を参照して、センサーIDがTrueのキーワードを、プリファレンス記憶部102の記憶情報に対して追加および削除を行い、ユーザ嗜好情報を更新する。この例では図13に示したセンサーIDのうち、センサーID2の状態がTrueであり、ユーザAがテレビを見ていることを表している。この場合、センサーID2と対応付けられたキーワードについて類義語が図15に示すように検索される。類義語の検索は第1の実施形態と同様の方法で行い、「音楽」の類義語は「ミュージック」、「楽」とが検索され、「クッキング」の類義語は「料理」と「調理」とが検索される。
The
次に、好ましいキーワードとして追加すべきキーワードやその類義語が既に好ましくないキーワードとして登録されたり、好ましくないキーワードとして追加すべきキーワードやその類義語が既に好ましいキーワードとして登録されたりすることを防ぐために、図15のように検索されたセンサーID2に対応づけられたキーワードとその類義語をユーザプリファレンスから削除する。この例では、図4に示したユーザプリファレンスのうち、「料理」は図15で検索されたキーワードと一致するからこれを削除する。その後に、センサーID2に対応付けられたキーワードをプリファレンスの先頭に追加する。
Next, in order to prevent a keyword to be added as a preferred keyword or its synonym from being registered as an unfavorable keyword or a keyword to be added as an unfavorable keyword or its synonym from being already registered as a preferred keyword, FIG. The keyword and its synonym associated with the searched
図16は、このようにして拡張されたユーザプリファレンスであり、「料理」が削除されて、「クッキング」が好ましくないキーワードとして先頭に追加されている。「音楽」は削除すべきキーワードがなかったため単に好ましいキーワードの先頭に追加されている。 FIG. 16 shows user preferences expanded in this manner, with “food” being deleted and “cooking” being added as an unfavorable keyword at the top. “Music” is simply added to the top of the preferred keyword because there was no keyword to delete.
状態がTrueであるセンサーが複数ある場合には、センサーIDの小さいものから同様の処理を繰り返し行って、最終的にひとつの拡張されたユーザプリファレンスを生成する。これ以降は第1の実施形態と同様に処理するので説明を省略するが、最終的には図2に示したID4の音楽番組をユーザに推薦する。 If there are a plurality of sensors whose status is True, the same processing is repeated from the sensor ID with the smallest sensor ID, and finally one expanded user preference is generated. Since the subsequent processing is the same as in the first embodiment, the description thereof is omitted, but the music program with ID4 shown in FIG. 2 is finally recommended to the user.
図17は、第2の実施形態のプリファレンス拡張部104でユーザプリファレンスを拡張する処理のフローチャートを示す。これによると、まず、センサーIDを記憶する変数nに0を設定し(ステップS1700)、変数nに1を足してすべてのセンサーIDについて繰り返し処理できるようにする(ステップS1701)。
FIG. 17 shows a flowchart of processing for extending user preferences in the
次に、センサーIDがnの状態がTrueかどうかを調べ(ステップS1702)、Trueの場合にはステップS1703に進み、そうでない場合にはステップS1706に進む。ステップS1703ではセンサーIDがnのセンサーに対応付けられて登録されたキーワードの類義語を検索して(ステップS1703)、ユーザプレファレンスから登録キーワードと検索された類義語を削除する(ステップS1705)。その後に、登録キーワードをユーザプリファレンスの先頭に追加して拡張プリファレンスを生成する(ステップS1705)。この処理をすべてのセンサーについて行うために、変数nがセンサー数Nよりも小さいかどうかを比較して、小さい場合には次のセンサーについて処理を行うためにステップS1701に戻り、そうでない場合には処理を停止する(ステップS1706)。 Next, it is checked whether or not the state of the sensor ID n is True (step S1702). If True, the process proceeds to step S1703, and if not, the process proceeds to step S1706. In step S1703, the synonym of the keyword registered in association with the sensor with the sensor ID n is searched (step S1703), and the registered keyword and the searched synonym are deleted from the user preference (step S1705). Thereafter, the registered keyword is added to the head of the user preference to generate an extension preference (step S1705). In order to perform this process for all sensors, it is compared whether or not the variable n is smaller than the number N of sensors. If the variable n is small, the process returns to step S1701 to perform the process for the next sensor. The processing is stopped (step S1706).
上述した第2の実施形態によれば、ユーザの状況に応じてユーザプリファレンスを動的に変化させることができるため、ユーザの状況に応じた番組を推薦することができる。 According to the second embodiment described above, the user preference can be dynamically changed according to the user's situation, so that a program according to the user's situation can be recommended.
上記第2の実施形態においては、プリファレンス拡張部104では、プリファレンス記憶部102に記憶されたキーワードから、環境プリファレンス記憶部110に記憶されたキーワードだけではなくその類義語も削除したが、これに限らず、環境プリファレンス記憶部110に記憶されたキーワードについてのみ処理してもよい。また、マッチング判定以降の処理は第1の実施形態と同様としたが、これに限らず、マッチング判定を行うものであれば何でも良い。例えば、第2の実施形態では、図16に示した環境情報によって拡張されたユーザプリファレンスを第1の実施形態と同様にさらに類義語で拡張するが、類義語で拡張することなくマッチング判定を行っても良い。
In the second embodiment, the
(第3の実施形態)
第1の実施形態は、ユーザ嗜好を表すキーワードを類義語で拡張して番組情報のマッチングを行ったが、第3の実施形態は同様にユーザ嗜好の類義語による拡張によって部分映像を隠蔽したりハイライトしたりする表示制御を行うものである。この表示制御は、たとえばユーザにとって不快な部分映像を自動的に隠蔽したり、強く興味を持っている部分映像を強調したりする。
(Third embodiment)
In the first embodiment, keywords representing user preferences are expanded by synonyms and program information matching is performed. In the third embodiment, partial videos are similarly hidden or highlighted by expansion by synonyms of user preferences. Display control. In this display control, for example, a partial video unpleasant to the user is automatically hidden or a partial video that is strongly interested is emphasized.
なお、実施形態の説明において、例えばテレビなどで表示される動画像を「映像」と呼び、映像中の人物や物体などの意味のある部分について映像全体とは別のまとまりとして記述したものを「映像オブジェクト」と呼ぶことにする。映像オブジェクトが部分画像でもよいし、映像中の部分を例えば座標値で表したメタデータでもよく、ここでは後者のメタデータが用いられているものとして説明する。 In the description of the embodiment, for example, a moving image displayed on a television or the like is referred to as a “video”, and a meaningful part such as a person or an object in the video is described as a separate unit from the whole video. It will be called a “video object”. The video object may be a partial image, or may be metadata in which a portion in the video is represented by, for example, coordinate values. Here, the latter metadata will be described as being used.
本実施形態は、第1の実施形態における番組表受信部100が番組表を受信する代わりに映像と映像オブジェクトを受信し、推薦番組決定部107が推薦する番組を決定する代わりに映像オブジェクトの表示方法を決定し、さらに表示部108がユーザに推薦する番組情報を表示する代わりに映像オブジェクトを隠蔽したりハイライトしたりして映像と合成して表示する違いがあるのみなので、この部分についてのみ説明する。
In the present embodiment, the program
図18は、第3の実施形態による映像提示装置の概略構成図である。本装置は、第1の実施形態の概略構成において、番組受信部100の代わりに映像受信部111を使用し、推薦番組決定部107の代わりに映像オブジェクト表示方法決定部112を使用し、表示部108の代わりに映像表示部113を使用して構成される。
FIG. 18 is a schematic configuration diagram of a video presentation device according to the third embodiment. This apparatus uses a
映像受信部111は、例えばEPG(Electric Program Guide)対応テレビチューナーで構成され、映像信号と映像オブジェクト信号を受信する。図19は受信した信号の一例を示す。この例では、映像1900としてチョウ、ヘビ、ゴキブリが映った映像を受信しており、映像オブジェクトはチョウの部分映像を囲む楕円の図形情報1901、ヘビの図形情報1902、ゴキブリの図形情報1903として受信する。この図では、説明のために図形情報を破線で示しているが、実際の画面にはこの破線は表示されない。映像信号と映像オブジェクト信号は1/30秒に1回放送局から送信されるものとし、1回の受信で映像信号は1フレーム分の映像データを入力して、映像オブジェクト信号は各フレームにデータを受信するものとする。
The
図20は、1回の受信で入力した映像オブジェクト信号(メタデータ)の一例を示し、映像信号を受信するたびにメタデータ記憶部101に記憶する。この例では、メタデータは、映像オブジェクトの識別子2000、映像オブジェクトの図形情報2001、映像オブジェクトを説明するキーワード2002とから構成される。図形情報2001は楕円の中心座標、短径、長径、傾きから構成される。キーワード2002は単語の列で構成され、この例では、識別子134の映像オブジェクトには「ヘビ」、識別子135の映像オブジェクトには「ゴキブリ」と「昆虫」、識別子136の映像オブジェクトには「蝶」、「昆虫」が映像オブジェクトの説明として付加されている。
FIG. 20 shows an example of a video object signal (metadata) input in one reception, and the video object signal (metadata) is stored in the
図21は、ユーザプリファレンス記憶部102に記憶されたユーザ嗜好情報を示している。この例では、好ましいキーワードとして「昆虫」、好ましくないキーワードとして「油虫」、「へび」が記憶されているものとする。
FIG. 21 shows user preference information stored in the user
図22は、拡張プリファレンス記憶部105に記憶された内容の一例を示す。本装置は映像信号を受信すると、プリファレンス拡張部104は第1の実施形態と同様にユーザ嗜好情報を類義語で拡張する。この例では、「油虫」は別名の「ゴキブリ」や別表記の「アブラムシ」が追加されている。
FIG. 22 shows an example of the contents stored in the extended
図23は、マッチング判定部106でマッチング判定するために、第1の実施形態と同様の方法で作成したユーザ嗜好スコア表の一例を示す。
FIG. 23 shows an example of a user preference score table created by the same method as that of the first embodiment for the matching determination by the matching
図24は、マッチング判定部106でマッチング判定するために、第1の実施形態と同様の方法で各映像オブジェクトのスコアを算出した結果の一例を示す。映像オブジェクト表示方法決定部112は、マッチング判定部106で算出したスコアを入力して、映像オブジェクトをそのまま表示するか、あるいは塗りつぶすかを決定する。ここでは、スコアが負でない映像オブジェクトは何も行わないものとして判定して、スコアが負の映像オブジェクトは塗りつぶすものとして判定する。
FIG. 24 shows an example of the result of calculating the score of each video object by the same method as in the first embodiment in order to make a matching determination by the matching
図25は、映像オブジェクト表示方法決定部112の判定に従って映像と映像オブジェクトを合成して表示した一例を示す。この例では、識別子134の「ヘビ」の映像オブジェクトと識別子135の「ゴキブリ」の映像オブジェクトのスコアは負であるため、塗りつぶして表示する。塗りつぶしは、映像受信部111で受信した映像オブジェクトを表す図形情報を用いて楕円形に塗りつぶす。識別子136の「チョウ」の映像オブジェクトは正であるためそのまま表示する。
FIG. 25 shows an example in which a video and a video object are combined and displayed according to the determination of the video object display
図26は、上述した処理手順のフローチャートを示す。これによると、まず、映像受信部111は映像と映像オブジェクトを受信する(ステップS2600)。メタデータ記憶部101は映像オブジェクトを図形情報とキーワードとして記憶する(ステップS2601)。プリファレンス拡張部104はプリファレンス記憶部102に記憶されたキーワードを類義語で拡張する(ステップS2602)。マッチング判定部106はメタデータ記憶部に記憶された映像オブジェクトのスコアを算出する(ステップS2603)。映像オブジェクト表示方法決定部112は映像オブジェクトのスコアを参照して、スコアが負の映像オブジェクトを塗りつぶして表示するように決定する(ステップ2604)。表示部113は塗りつぶすと決定された映像オブジェクトは映像受信部111で受信した図形で塗りつぶし、そうでない映像オブジェクトはそのまま表示する(ステップS2605)。
FIG. 26 shows a flowchart of the above-described processing procedure. According to this, first, the
ユーザ嗜好キーワードの類義語による拡張には処理時間がかかるが、本実施形態のマッチング方法では番組を視聴する前に準備することができるため、フレーム単位の高速なマッチングに適している。 The expansion of user-preferred keywords by synonyms takes time, but the matching method of this embodiment is suitable for high-speed matching on a frame basis because it can be prepared before viewing a program.
上記の第3の実施形態を用いれば、映像オブジェクトに対しても、ユーザプリファレンスのキーワードと同一のキーワードが映像オブジェクトのキーワードにない場合でも類義語であれば検出できるため、精度良く映像オブジェクトの表示制御ができる。 If the third embodiment described above is used, even if the same keyword as the keyword of the user preference is not found in the keyword of the video object, it can be detected if it is a synonym. Can control.
上記の第3の実施形態によると、ユーザ嗜好キーワードはユーザによって予め設定されるものとしたが、これに限らず、ユーザの現在の嗜好を参照して動的に設定してもよい。例えば第2の実施形態と同様に、センサーとキーワードを対応付けておいて、動的にユーザ嗜好キーワードを変化させてもよい。また、映像受信部111は、映像フレームごとに映像オブジェクト情報を受信したが、これに限らず、間引いて受信したり、先読みしたりしても良い。間引く場合には、前に2回受信したデータから予測すればよいし、先読みする場合には、前後のデータから線形補間すればよい。
According to the third embodiment, the user preference keyword is set in advance by the user. However, the present invention is not limited to this, and the user preference keyword may be set dynamically with reference to the user's current preference. For example, similarly to the second embodiment, the user preference keyword may be dynamically changed by associating the sensor with the keyword. In addition, the
図18の実施形態に対して図27に示すように番組受信部100および推薦番組決定部107を含む図1の実施形態の機能または状況情報取得部109および状況プリファレンス記憶部110を含む図18の実施形態の機能或いは両者の機能を付加してもよい。これによると、ユーザ嗜好の類義語による拡張によって部分映像を隠蔽したりハイライトしたりする表示制御を行うだけでなく、ユーザプリファレンスのキーワードと同一のキーワードが番組情報にない場合でも類義語であれば、精度よく番組を推薦することができる。また、ユーザ嗜好の類義語による拡張によって部分映像を隠蔽したりハイライトしたりする表示制御を行うだけでなく、ユーザの状況に応じてユーザプリファレンスを動的に変化させることができるため、ユーザの状況に応じた番組を推薦することができる。
18 includes the function or situation information acquisition unit 109 and the situation
上記実施形態では、ユーザ嗜好情報を類義語で拡張しているが、第1の実施形態と同様に属性情報を類義語で拡張しても良い。 In the above embodiment, user preference information is expanded with synonyms, but attribute information may be expanded with synonyms as in the first embodiment.
なお、本発明は、上記実施形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形することが可能である。更に、上記実施形態には種々の段階の発明が含まれており、開示される複数の構成要件における適宜な組み合わせにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件から幾つかの構成要件が削除されても、発明が解決しようとする課題の欄で述べた課題の少なくとも1つが解決でき、発明の効果の欄で述べられている効果の少なくとも1つが得られる場合には、この構成要件が削除された構成が発明として抽出され得る。 In addition, this invention is not limited to the said embodiment, In the implementation stage, it can change variously in the range which does not deviate from the summary. Further, the above embodiments include inventions at various stages, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some constituent elements are deleted from all the constituent elements shown in the embodiment, at least one of the problems described in the column of the problem to be solved by the invention can be solved, and is described in the column of the effect of the invention. When at least one of the effects is obtained, a configuration in which this configuration requirement is deleted can be extracted as an invention.
100…番組表受信部、101…メタデータ記憶部、102…プリファレンス記憶部、103…類義語辞書、104…プリファレンス拡張部、105…拡張プリファレンス記憶部、106…マッチング判定部、107…推薦番組決定部、108…表示部、109…状況情報取得部、110…状況プリファレンス記憶部、111…映像受信部、112…映像オブジェクト表示方法決定部、113…映像表示部
DESCRIPTION OF
Claims (11)
ユーザ嗜好情報を記憶するユーザ嗜好記憶手段と、
前記ユーザ嗜好情報を類義語で拡張する情報拡張手段と、
前記属性情報と拡張されたユーザ嗜好情報との間でマッチングを取る手段と、
前記マッチング結果に基づいて映像を特定する映像特定手段と、
特定された映像をユーザに提示する手段と、
を具備することを特徴とする映像提示装置。 Means for inputting video with attribute information;
User preference storage means for storing user preference information;
Information expansion means for expanding the user preference information with synonyms;
Means for matching between the attribute information and the extended user preference information;
Video specifying means for specifying a video based on the matching result;
Means for presenting the identified video to the user;
A video presentation apparatus comprising:
ユーザ嗜好情報を記憶するユーザ嗜好記憶手段と、
前記属性情報を類義語で拡張する情報拡張手段と、
拡張された属性情報と前記ユーザ嗜好情報との間でマッチングを取る手段と、
前記マッチング結果に基づいて映像を特定する映像特定手段と、
特定された映像をユーザに提示する手段と、
を具備することを特徴とする映像提示装置。 Means for inputting video with attribute information;
User preference storage means for storing user preference information;
Information expansion means for expanding the attribute information with synonyms;
Means for matching between the extended attribute information and the user preference information;
Video specifying means for specifying a video based on the matching result;
Means for presenting the identified video to the user;
A video presentation apparatus comprising:
前記取得された状況に対応するキーワードを記憶する状況キーワード記憶手段と、
前記状況取得手段が取得した状況に応じて前記ユーザ嗜好情報を更新するために、前記キーワードを前記ユーザ嗜好記憶手段に対して追加または削除する状況キーワード制御手段とを更に具備することを特徴とする請求項1または2記載の映像提示装置。 Status acquisition means for acquiring user status;
Situation keyword storage means for storing a keyword corresponding to the acquired situation;
In order to update the user preference information according to the situation acquired by the situation acquisition means, the apparatus further comprises situation keyword control means for adding or deleting the keyword to or from the user preference storage means. The video presentation apparatus according to claim 1 or 2.
ユーザ嗜好情報を記憶するユーザ嗜好記憶手段と、
前記ユーザ嗜好情報を類義語で拡張する情報拡張手段と、
前記映像オブジェクトと前記拡張されたユーザ嗜好情報との間でマッチングを取る手段と、
前記マッチング結果に基づいて前記映像オブジェクトを加工し、映像に合成して表示映像を生成する映像加工手段と、
前記表示映像をユーザに提示する手段と、
を具備することを特徴とする映像提示装置。 Means for inputting video and video objects;
User preference storage means for storing user preference information;
Information expansion means for expanding the user preference information with synonyms;
Means for matching between the video object and the extended user preference information;
Video processing means for processing the video object based on the matching result and generating a display video by combining the video object;
Means for presenting the display video to a user;
A video presentation apparatus comprising:
ユーザ嗜好情報を記憶するユーザ嗜好記憶手段と、
前記属性情報を類義語で拡張する情報拡張手段と、
拡張された属性情報と前記ユーザ嗜好情報との間でマッチングを取る手段と、
前記マッチング結果に基づいて前記映像オブジェクトを加工し、映像に合成して表示映像を生成する映像加工手段と、
特定された映像をユーザに提示する手段と、
を具備することを特徴とする映像提示装置。 Means for inputting video and video objects with attribute information added thereto;
User preference storage means for storing user preference information;
Information expansion means for expanding the attribute information with synonyms;
Means for matching between the extended attribute information and the user preference information;
Video processing means for processing the video object based on the matching result and generating a display video by combining the video object;
Means for presenting the identified video to the user;
A video presentation apparatus comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004005443A JP2005202485A (en) | 2004-01-13 | 2004-01-13 | Video presenting device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004005443A JP2005202485A (en) | 2004-01-13 | 2004-01-13 | Video presenting device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005202485A true JP2005202485A (en) | 2005-07-28 |
Family
ID=34819769
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004005443A Pending JP2005202485A (en) | 2004-01-13 | 2004-01-13 | Video presenting device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005202485A (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008134800A (en) * | 2006-11-28 | 2008-06-12 | Ntt Docomo Inc | Retrieval system and retrieval method |
JP2010218385A (en) * | 2009-03-18 | 2010-09-30 | Nippon Hoso Kyokai <Nhk> | Content retrieval device and computer program |
JP2016031675A (en) * | 2014-07-29 | 2016-03-07 | Kddi株式会社 | Content recommendation device and program |
WO2018088040A1 (en) * | 2016-11-14 | 2018-05-17 | オムロン株式会社 | Matching device, matching method, and program |
JPWO2021145030A1 (en) * | 2020-01-13 | 2021-07-22 | ||
WO2023042515A1 (en) * | 2021-09-15 | 2023-03-23 | キヤノン株式会社 | Display device, control device, control method, and program |
-
2004
- 2004-01-13 JP JP2004005443A patent/JP2005202485A/en active Pending
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008134800A (en) * | 2006-11-28 | 2008-06-12 | Ntt Docomo Inc | Retrieval system and retrieval method |
JP2010218385A (en) * | 2009-03-18 | 2010-09-30 | Nippon Hoso Kyokai <Nhk> | Content retrieval device and computer program |
JP2016031675A (en) * | 2014-07-29 | 2016-03-07 | Kddi株式会社 | Content recommendation device and program |
WO2018088040A1 (en) * | 2016-11-14 | 2018-05-17 | オムロン株式会社 | Matching device, matching method, and program |
JP2018081377A (en) * | 2016-11-14 | 2018-05-24 | オムロン株式会社 | Matching device, matching method and program |
US10922325B2 (en) | 2016-11-14 | 2021-02-16 | Omron Corporation | Matching device, matching method, and program |
JPWO2021145030A1 (en) * | 2020-01-13 | 2021-07-22 | ||
WO2021145030A1 (en) * | 2020-01-13 | 2021-07-22 | 日本電気株式会社 | Video search system, video search method, and computer program |
JP7416091B2 (en) | 2020-01-13 | 2024-01-17 | 日本電気株式会社 | Video search system, video search method, and computer program |
WO2023042515A1 (en) * | 2021-09-15 | 2023-03-23 | キヤノン株式会社 | Display device, control device, control method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11197036B2 (en) | Multimedia stream analysis and retrieval | |
KR101644789B1 (en) | Apparatus and Method for providing information related to broadcasting program | |
US8374845B2 (en) | Retrieving apparatus, retrieving method, and computer program product | |
CN103914513B (en) | A kind of entity input method and device | |
US9973815B2 (en) | Apparatus, method, and program for processing information | |
US20120036139A1 (en) | Content recommendation device, method of recommending content, and computer program product | |
CN109558513B (en) | Content recommendation method, device, terminal and storage medium | |
US8463596B2 (en) | Selecting an optimal property of a keyword associated with program guide content for keyword retrieval | |
US8397263B2 (en) | Information processing apparatus, information processing method and information processing program | |
JP4487018B2 (en) | Related scene assigning apparatus and related scene assigning method | |
JPWO2006073095A1 (en) | Associative dictionary creation device | |
CN110430476A (en) | Direct broadcasting room searching method, system, computer equipment and storage medium | |
CN108388570B (en) | Method and device for carrying out classification matching on videos and selection engine | |
US20100057721A1 (en) | Information Providing Server, Information Providing Method, and Information Providing System | |
CN110929158A (en) | Content recommendation method, system, storage medium and terminal equipment | |
WO2009104387A1 (en) | Interactive program search device | |
JP2006186426A (en) | Information retrieval display apparatus, information retrieval display method, and information retrieval display program | |
JP2005202485A (en) | Video presenting device | |
JP2016177690A (en) | Service recommendation device, service recommendation method, and service recommendation program | |
JP2016086342A (en) | Information processing device, information processing method, and program | |
JP2009059335A (en) | Information processing apparatus, method, and program | |
JP5136181B2 (en) | Information retrieval device | |
JP2001028010A (en) | System and method for automatic multimedia contents extraction | |
JP4120597B2 (en) | Partial content creation method, apparatus and program | |
JP2016025570A (en) | Information processor, information processing method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20061215 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070109 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070308 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070508 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20071002 |