JP5106455B2 - Content recommendation device and content recommendation method - Google Patents

Content recommendation device and content recommendation method Download PDF

Info

Publication number
JP5106455B2
JP5106455B2 JP2009066639A JP2009066639A JP5106455B2 JP 5106455 B2 JP5106455 B2 JP 5106455B2 JP 2009066639 A JP2009066639 A JP 2009066639A JP 2009066639 A JP2009066639 A JP 2009066639A JP 5106455 B2 JP5106455 B2 JP 5106455B2
Authority
JP
Japan
Prior art keywords
content
scene
keyword
information
program
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009066639A
Other languages
Japanese (ja)
Other versions
JP2010220065A (en
Inventor
奈夕子 渡辺
昌之 岡本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2009066639A priority Critical patent/JP5106455B2/en
Publication of JP2010220065A publication Critical patent/JP2010220065A/en
Application granted granted Critical
Publication of JP5106455B2 publication Critical patent/JP5106455B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、コンテンツを推薦するコンテンツ推薦装置及びコンテンツ推薦方法に関する。   The present invention relates to a content recommendation device and a content recommendation method for recommending content.

録画機器の大容量化や放送の多チャンネル化に伴い、ユーザが視聴することのできる放送番組が増加、多様化している。このためユーザは大量の番組からどの番組を視聴・録画するかを選択する必要がある。   With the increase in capacity of recording equipment and the increase in the number of broadcast channels, broadcast programs that can be viewed by users are increasing and diversifying. Therefore, the user needs to select which program is to be viewed / recorded from a large number of programs.

しかし、大量の番組からユーザが見たい番組を選択するのは難しい。例えば、番組表には番組の内容としてEPG(Electronic Program Guide)が表示されるが、これを全て見ることはできない。   However, it is difficult to select a program that the user wants to watch from a large number of programs. For example, EPG (Electronic Program Guide) is displayed in the program guide as the contents of the program, but it is not possible to see all of them.

これに対し、現在視聴している番組の特定のシーンのメタデータをもとにして他の番組の推薦を行う技術がある(例えば非特許文献1参照)。   On the other hand, there is a technique for recommending other programs based on the metadata of a specific scene of a currently viewed program (see Non-Patent Document 1, for example).

しかしながら、ユーザが視聴している番組のメタデータのみをもとに推薦番組を探すと、番組中に無い新しい語彙を利用した推薦を行うことができない。また、番組全体から語彙を取得すると、ユーザが今見ているシーンには関係の無い番組が推薦されてしまうことがある。   However, if a recommended program is searched based only on the metadata of the program that the user is viewing, it is not possible to make a recommendation using a new vocabulary that is not present in the program. In addition, when the vocabulary is acquired from the entire program, a program unrelated to the scene that the user is currently viewing may be recommended.

また、推薦された番組も全てをオンエアで視聴できるわけではなく、予約録画をして時間のあるときに視聴する、ということが多い。   In addition, not all recommended programs can be viewed on-air, but they are often reserved and recorded when there is time.

番組を録画した場合は、録画済み番組一覧として、番組のタイトル、放送日時、内容を表すサムネイル画像、EPGなどが表示されることが多い。   When a program is recorded, a program title, broadcast date and time, thumbnail images representing contents, EPG, etc. are often displayed as a recorded program list.

しかしながら、番組を録画した後に録画番組一覧を見るだけでは、録画予約時に自分が見たかった内容を思い出すことができない。   However, simply viewing the recorded program list after recording the program will not allow you to remember what you wanted to see when you reserved the recording.

また、見たかった内容を思い出したとしても、録画された番組の中からその内容の箇所を探しちょうど良い場所から再生するのは難しい。   Also, even if you remember what you wanted to see, it is difficult to find the location of the content in the recorded program and play it from the right place.

http://www.nhk.or.jp/strl/publica/giken_dayori/jp2/mt-0901.html(住吉秀樹,連載「映像メディアのためのメタデータ制作・活用技術」、第6回「情報検索を活用した新しい視聴スタイルCurioView」,NHK放送技術研究所,NHK技研だより,第46号,2009年1月)http://www.nhk.or.jp/strl/publica/giken_dayori/jp2/mt-0901.html (Hideki Sumiyoshi, “Metadata Production and Utilization Technology for Video Media”, 6th “Information Search” New viewing style CurioView that uses ”, NHK Science & Technology Research Laboratories, NHK Giken News, No. 46, January 2009)

従来、ユーザがコンテンツの視聴中に気になったシーンに関連しつつも幅広い放送予定番組等のコンテンツの推薦を行うとともに、コンテンツの録画後に、ユーザが録画予約時に視聴したかったであろう部分を容易に視聴できるようにすることは困難であった。   Conventionally, while recommending content such as a wide range of programs scheduled to be broadcast while related to the scene that the user was interested in while viewing the content, the portion that the user would have wanted to watch at the time of recording reservation after recording the content It was difficult to make it easy to watch.

本発明は、上記事情を考慮してなされたもので、ユーザがコンテンツの視聴中に気になったシーンに関連しつつも幅広い放送予定番組等のコンテンツの推薦を行うとともに、コンテンツの録画後に、ユーザが録画予約時に視聴したかったであろう部分を容易に視聴できるようにしたコンテンツ推薦装置及びコンテンツ推薦方法を提供することを目的とする。   The present invention has been made in consideration of the above circumstances, and recommends content such as a wide range of broadcast-scheduled programs related to scenes that the user is interested in while viewing the content, and after recording the content, It is an object of the present invention to provide a content recommendation device and a content recommendation method that allow a user to easily view a portion that the user would have wanted to view at the time of recording reservation.

本発明に係るコンテンツ推薦装置は、予約録画されたコンテンツの各々について、当該コンテンツの内容に関係する情報を含むメタデータと、当該コンテンツを特徴付ける第1の特徴キーワードと、当該コンテンツを構成する複数のシーンに関する情報と、各々のシーンを特徴付ける第2の特徴キーワードと、当該コンテンツが録画予約された理由とを含むコンテンツ情報を記憶する第1の記憶部と、再生中のコンテンツを構成するシーンのうちから、特定のシーンが選択された場合に、前記第1の記憶部に記憶されている当該再生中のコンテンツに係る前記コンテンツ情報から、当該特定のシーンに関係する第3の特徴キーワードを取得する第1の取得部と、前記第3の特徴キーワードを利用して取得された複数のネット動画に関する情報をもとに、前記第3の特徴キーワードを拡張した拡張キーワードを取得するとともに、該拡張キーワードの属性として少なくとも該ネット動画に対する評価値を取得する第2の取得部と、取得された前記拡張キーワードの一覧を提示するとともに、提示した任意の拡張キーワードに対するユーザ選択を受け付ける第1の選択部と、前記ユーザ選択された拡張キーワードを利用して取得された録画予約可能なコンテンツを推薦するための一覧を提示するとともに、提示した任意のコンテンツに対するユーザ選択を受け付ける第2の選択部と、前記ユーザ選択されたコンテンツを録画予約するための情報を登録した予約リストを記憶する第2の記憶部と、前記予約リストに基づいて録画済となったコンテンツについて、前記コンテンツ情報を利用して、当該コンテンツのシーンに関する提示と、少なくとも前記拡張キーワード及びその属性を含む前記録画予約された理由に関する提示とを行う提示部とを備えたことを特徴とする。   The content recommendation device according to the present invention includes, for each of the reservation-recorded contents, metadata including information related to the contents of the contents, a first feature keyword that characterizes the contents, and a plurality of pieces that constitute the contents A first storage unit that stores content information including information on scenes, a second feature keyword that characterizes each scene, and a reason why the content is reserved for recording, and a scene that constitutes the content being played When a specific scene is selected, a third characteristic keyword related to the specific scene is acquired from the content information related to the content being reproduced stored in the first storage unit. Information on a plurality of net moving images acquired using the first acquisition unit and the third characteristic keyword A second acquisition unit that acquires an extended keyword obtained by expanding the third feature keyword and acquires at least an evaluation value for the net moving image as an attribute of the extended keyword; A first selection unit that presents a list and accepts user selection for any of the presented extended keywords, and a list for recommending content that can be reserved for recording acquired using the user-selected extended keywords A second selection unit that presents and receives a user selection for the presented arbitrary content; a second storage unit that stores a reservation list in which information for recording reservation of the user-selected content is registered; For content that has already been recorded based on the reservation list, use the content information. Te is a presentation about the scene of the content, characterized in that a presentation unit that performs a presentation of why the recording reservation was made including at least the extended keywords and attributes.

本発明によれば、ユーザがコンテンツの視聴中に気になったシーンに関連しつつも幅広い放送予定番組等のコンテンツの推薦を行うとともに、コンテンツの録画後に、ユーザが録画予約時に視聴したかったであろう部分を容易に視聴できるようになる。   According to the present invention, while recommending content such as a wide range of broadcast scheduled programs while relating to a scene that the user was interested in while viewing the content, the user wanted to view after recording the content at the time of recording reservation You will be able to easily watch the part that will be.

本発明の一実施形態に係るコンテンツ推薦装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the content recommendation apparatus which concerns on one Embodiment of this invention. シーン分割及びシーン特徴抽出並びに番組特徴抽出の処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the process sequence of scene division, scene feature extraction, and program feature extraction. シーン分割部によるシーン分割結果の一例を示す図である。It is a figure which shows an example of the scene division | segmentation result by a scene division part. 番組のメタデータである文書の一例を示す図である。It is a figure which shows an example of the document which is metadata of a program. 固有表現抽出結果の一例を示す図である。It is a figure which shows an example of a specific expression extraction result. 重みテーブルの一例を示す図である。It is a figure which shows an example of a weight table. 映像情報蓄積部に蓄積されている映像情報の一例を示す図である。It is a figure which shows an example of the video information accumulate | stored in the video information storage part. 番組の再生中におけるシーン選択からシーン予約リスト蓄積までの処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the process sequence from scene selection during the reproduction | regeneration of a program to accumulation | storage of a scene reservation list. 視聴シーン情報取得部による視聴シーン情報取得結果の一例を示す図である。It is a figure which shows an example of the viewing-and-listening scene information acquisition result by a viewing-and-listening scene information acquisition part. ネット動画の検索結果の一例を示す図である。It is a figure which shows an example of the search result of a net moving image. 図10のタグの共起行列の初期状態を示す図である。It is a figure which shows the initial state of the co-occurrence matrix of the tag of FIG. 図11の共起行列に共起回数を加算した状態を示す図である。It is a figure which shows the state which added the number of times of co-occurrence to the co-occurrence matrix of FIG. 録画理由情報選択画面の一例を示す図である。It is a figure which shows an example of a recording reason information selection screen. 予約番組選択画面の一例を示す図である。It is a figure which shows an example of a reservation program selection screen. シーン予約リストの一例を示す図である。It is a figure which shows an example of a scene reservation list. 録画理由を付加された映像情報の一例を示す図である。It is a figure which shows an example of the video information to which the reason for recording was added. 録画済み番組一覧画面の一例を示す図である。It is a figure which shows an example of the recorded program list screen. 録画済み番組一覧画面において表示されたシーン一覧の一例を示す図である。It is a figure which shows an example of the scene list displayed on the recorded program list screen. シーンメニューの一例を示す図である。It is a figure which shows an example of a scene menu.

以下、図面を参照しながら本発明の実施形態について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

以下では、本実施形態に係るコンテンツ推薦装置を、映像録画機器での録画番組推薦・予約機能に適用した場合を例にとって説明するが、これに限定されるものではなく、映像録画機器での録画番組推薦・予約機能以外の様々な機能に対して適用することが可能である。なお、ここで、コンテンツは、例えば、放送番組である。また、ここで、映像録画機器とは、独立した装置だけでなく、テレビ受像機に内蔵されたものや、テレビ受像機能を内蔵するPCにハードウェア又はソフトウェアとして内蔵されたものなどでも良い。   In the following, a case where the content recommendation device according to the present embodiment is applied to a recording program recommendation / reservation function in a video recording device will be described as an example. However, the present invention is not limited to this. It can be applied to various functions other than the program recommendation / reservation function. Here, the content is, for example, a broadcast program. Here, the video recording device is not limited to an independent device, but may be a device incorporated in a television receiver or a device incorporated as hardware or software in a PC incorporating a television reception function.

本実施形態のコンテンツ推薦装置は、概略的には、視聴中のシーンを特徴付けるキーワードを抽出し、ネット動画サイトの情報を利用してキーワードを拡張し、拡張したキーワードを利用して検索した放送番組等のコンテンツを推薦するとともに、推薦したコンテンツが録画された後に当該コンテンツを録画予約する元となった情報(録画理由情報等)を提示するものである。   In general, the content recommendation device according to the present embodiment extracts a keyword that characterizes a scene being viewed, expands the keyword using information on the Internet video site, and searches for a broadcast program searched using the expanded keyword. Etc., and the information (recording reason information, etc.) from which the recommended content is recorded after the recommended content is recorded is presented.

図1を参照しながら、本実施形態に係るコンテンツ推薦装置の構成例について説明する。   A configuration example of the content recommendation device according to the present embodiment will be described with reference to FIG.

図1に示されるように、本実施形態のコンテンツ推薦装置は、映像再生・シーン指定部11、録画理由情報指定部12、録画予約番組指定部13、録画済番組指定部14、番組特徴抽出部15、シーン分割部16、シーン特徴抽出部17、視聴シーン情報取得部18、録画理由情報取得部19、番組検索部20、シーン予約リスト蓄積部21、映像蓄積部22、映像情報蓄積部23を備えている。図中の101は、ユーザインタフェースに関係する部分を示している。   As shown in FIG. 1, the content recommendation device of this embodiment includes a video playback / scene designation unit 11, a recording reason information designation unit 12, a scheduled recording program designation unit 13, a recorded program designation unit 14, and a program feature extraction unit. 15, scene division unit 16, scene feature extraction unit 17, viewing scene information acquisition unit 18, recording reason information acquisition unit 19, program search unit 20, scene reservation list storage unit 21, video storage unit 22, and video information storage unit 23 I have. Reference numeral 101 in the figure denotes a portion related to the user interface.

各部の概要は下記の通りである。   The outline of each part is as follows.

シーン予約リスト蓄積部21は、本実施形態の推薦処理により或る番組の或るシーンをもとに推薦した番組のうちから、ユーザにより録画予約することを選択された番組(録画予約番組)に関する情報のリスト(シーン予約リスト)を蓄積する。   The scene reservation list storage unit 21 relates to a program (recording reservation program) selected by the user to make a recording reservation from among the programs recommended based on a certain scene of a certain program by the recommendation processing of the present embodiment. A list of information (scene reservation list) is accumulated.

映像蓄積部22は、録画処理部(図示せず)により録画された番組を蓄積する。   The video storage unit 22 stores programs recorded by a recording processing unit (not shown).

本実施形態では、録画処理部(図示せず)は、シーン予約リスト蓄積部21に蓄積されているシーン予約リストの情報に従って、録画処理を行う(番組の録画を行って映像蓄積部22に蓄積する)。なお、録画処理部(図示せず)は、従来の方法により作成された録画予約リスト(例えば、ユーザによる直接入力・編集や電子番組表を利用した入力・編集などにより作成された録画予約リスト)にも従って、番組を映像蓄積部22に蓄積するものであっても良い。この場合に、本実施形態のシーン予約リストを既存の録画予約リストとは別に設けても良いし、シーン予約リストを録画予約リストとを一体化して構成しても良い。また、録画処理部(図示せず)は、更に、例えばリモコン或いはGUI画面の録画ボタンがユーザにより押されたことなどによって、そのときに画面/スピーカ(図示せず)に映像/音声出力している番組を映像蓄積部22に蓄積する機能を有するものであっても良い。   In the present embodiment, a recording processing unit (not shown) performs recording processing according to information in the scene reservation list stored in the scene reservation list storage unit 21 (records a program and stores it in the video storage unit 22). To do). The recording processing unit (not shown) is a recording reservation list created by a conventional method (for example, a recording reservation list created by direct input / editing by a user or input / editing using an electronic program guide). Therefore, the program may be stored in the video storage unit 22. In this case, the scene reservation list of this embodiment may be provided separately from the existing recording reservation list, or the scene reservation list may be integrated with the recording reservation list. The recording processing unit (not shown) further outputs video / audio to a screen / speaker (not shown) at that time, for example, when a remote control or a recording button on the GUI screen is pressed by the user. It may have a function of accumulating existing programs in the video accumulation unit 22.

番組特徴抽出部15は、映像蓄積部22に蓄積された番組(すなわち、録画された番組)について、その番組の特徴キーワード(番組特徴キーワード)を抽出する。   The program feature extraction unit 15 extracts a feature keyword (program feature keyword) of the program stored in the video storage unit 22 (that is, a recorded program).

シーン分割部16は、映像蓄積部22に蓄積された番組(すなわち、録画された番組)について、番組のシーン分割を行う。なお、番組のシーン分割は、従来の方法を利用しても良いが、その番組を録画予約した際の録画理由情報が存在する場合には、録画理由情報を利用して番組のシーン分割を行っても良い(シーン分割部16(分割部)は、映像情報(コンテンツ情報)に含まれる録画理由情報(録画予約された理由)を利用して、映像情報(コンテンツ情報)をシーン分割(分割)するようにしても良い)。録画理由情報を持たない番組(例えば、従来の方法で録画された番組など)については、従来の方法で番組のシーン分割を行えば良い。   The scene division unit 16 divides a program into scenes for the programs stored in the video storage unit 22 (that is, recorded programs). A conventional method may be used for scene division of a program. However, if there is recording reason information when the program is reserved for recording, the program scene is divided using the recording reason information. (The scene dividing unit 16 (dividing unit) may divide the video information (content information) into scenes (divide) using the recording reason information (reason for recording reservation) included in the video information (content information). You may do it). For programs that do not have recording reason information (for example, programs recorded by a conventional method), scene division of the program may be performed by a conventional method.

シーン特徴抽出部17は、シーン分割された番組について、個々のシーンの特徴キーワード(シーン特徴キーワード)を抽出する。   The scene feature extraction unit 17 extracts feature keywords (scene feature keywords) of individual scenes from the scene-divided program.

映像情報蓄積部23は、映像蓄積部22に蓄積された各番組について、例えばEPG等のメタデータと、上記番組特徴抽出部15により抽出された番組特徴キーワードと、上記シーン分割部16によるシーン分割結果と、上記シーン特徴抽出部17により抽出された各シーンのシーン特徴キーワードと、当該番組を録画予約した際の録画理由情報とを含む番組情報(コンテンツ情報)を蓄積する(ただし、録画理由情報を持たない番組については、この項目は空欄にして構わない)。なお、メタデータは、例えば、メタデータ取得部(図示せず)が放送局或いはサーバ等より受信したものであっても良いし、必要に応じて番組コンテンツから抽出したものであっても良いし、それらを併用しても良い。   The video information storage unit 23, for each program stored in the video storage unit 22, for example, metadata such as EPG, program feature keywords extracted by the program feature extraction unit 15, and scene division by the scene division unit 16. The program information (content information) including the result, the scene feature keyword of each scene extracted by the scene feature extraction unit 17 and the recording reason information when the program is reserved for recording is accumulated (however, the recording reason information For programs that do not have, this field may be left blank). Note that the metadata may be, for example, data received by a metadata acquisition unit (not shown) from a broadcasting station or a server, or may be extracted from program content as necessary. They may be used in combination.

映像再生・シーン指定部11は、映像蓄積部22に蓄積された番組の映像(或いは、録画番組でない番組)を再生するとともに、その再生中において、本実施形態の推薦処理の最初のトリガとなるユーザの入力を受け取る。ここで、以下では「最初のトリガとなるユーザの入力」の具体例としては、「検索」ボタンが押される場合を例にとって説明するが、これに限定されるものではない。   The video playback / scene designation unit 11 plays back the video of the program stored in the video storage unit 22 (or a program that is not a recorded program), and becomes the first trigger of the recommendation process of the present embodiment during the playback. Receive user input. Here, as a specific example of “user input serving as the first trigger”, a case where the “search” button is pressed will be described as an example, but the present invention is not limited to this.

ユーザは、現在視聴しているシーンをもとにして推薦番組の提示を受けたい場合に、例えば「検索」ボタンを押すなどすれば良い。   When the user wants to receive a recommended program based on the currently viewed scene, the user may press a “search” button, for example.

なお、「最初のトリガとなるユーザの入力」を受け付けたときに再生していた番組を、「元番組」と呼ぶものとする。   Note that the program that was being played when the “first user input as a trigger” was received is referred to as the “original program”.

また、ユーザが視聴する番組を選択する方法は、録画番組の一覧から選択するなど、従来と同様の方法で構わない。   The method for selecting a program to be viewed by the user may be the same as the conventional method, such as selecting from a list of recorded programs.

視聴シーン情報取得部18は、上記再生中の番組について、上記「検索」ボタンが押されるなどしたときに再生していたシーンの特徴情報(視聴シーン情報)を、映像情報蓄積部23に蓄積された当該番組(元番組)の当該シーンのシーン特徴キーワードから求める。   The viewing scene information acquisition unit 18 stores, in the video information storage unit 23, the feature information (viewing scene information) of the scene that has been played when the “search” button is pressed for the program being played. Further, it is obtained from the scene feature keyword of the scene of the program (original program).

録画理由情報取得部19は、視聴シーン情報取得部18により得られたシーンの特徴情報等をもとにして、ネット動画のサイト(例えば、投稿サイト)30から動画コンテンツを取得し、取得した動画コンテンツの情報をもとに、録画理由情報の候補として、拡張キーワードを取得し、更に、拡張キーワードの属性(例えば、評価値や日時等)を取得する。   The recording reason information acquisition unit 19 acquires video content from a net video site (for example, a posting site) 30 based on the scene feature information obtained by the viewing scene information acquisition unit 18, and acquires the acquired video. Based on the content information, an extended keyword is acquired as a candidate for recording reason information, and further an attribute of the extended keyword (for example, an evaluation value, a date, etc.) is acquired.

録画理由情報指定部12は、録画理由情報(少なくとも拡張キーワード)を候補として提示するとともに、提示した録画理由情報の候補のうちからユーザが1つ或いは複数の録画理由情報を選択するための画面を生成する(この画面により、録画理由情報の候補を提示するとともに、提示した録画理由情報の候補についてユーザによる選択を受け付ける)。   The recording reason information specifying unit 12 presents recording reason information (at least an extended keyword) as a candidate, and displays a screen for the user to select one or a plurality of recording reason information from the presented recording reason information candidates. Generate (this screen presents candidates for recording reason information and accepts selection by the user for the candidates for recording reason information presented).

ユーザは、上記画面上において、所望する録画理由情報があれば、これを選択することができる。   If there is desired recording reason information on the screen, the user can select it.

番組検索部20は、上記画面においてユーザにより録画理由情報が選択された場合に、該録画理由情報を利用して、放送予定番組等のコンテンツのEPG検索を行う。   When the recording reason information is selected by the user on the screen, the program search unit 20 uses the recording reason information to perform an EPG search for content such as a broadcast-scheduled program.

録画予約番組指定部13は、番組検索部20の検索結果(番組)をユーザに提示(推薦)するとともに、提示した推薦番組のうちからユーザが1つ或いは複数の推薦番組を選択するための画面を生成する(この画面により、推薦番組を提示するとともに、提示した推薦番組についてユーザによる選択を受け付ける)。   The scheduled recording program specifying unit 13 presents (recommends) the search result (program) of the program search unit 20 to the user, and a screen for the user to select one or more recommended programs from the presented recommended programs. (This screen presents the recommended program and accepts selection by the user for the presented recommended program).

ユーザは、提示された推薦番組のうち、所望する番組があれば、その番組を録画予約するために、選択することができる。   The user can select a desired program among the presented recommended programs in order to reserve recording of the program.

選択された録画予約番組と、その際の録画理由情報などの情報は、シーン予約リスト蓄積部21に蓄積される。   The selected scheduled recording program and information such as the recording reason information at that time are stored in the scene reservation list storage unit 21.

録画済番組指定部14は、録画済み番組に関する情報を提示するとともに、提示した番組のうちからユーザが視聴するものを選択するための画面を生成する(この画面により、録画済み番組に関する情報を提示するとともに、提示した番組についてユーザによる選択を受け付ける)。なお、録画済み番組に関する情報を提示するにあたって、シーン予約リストに基づいて録画された番組については、シーン予約リスト蓄積部21から録画済み番組リストを取得し、映像情報蓄積部23に蓄積された当該番組のシーン情報と録画理由情報などの情報を利用して提示を行う。   The recorded program specifying unit 14 presents information on the recorded program and generates a screen for selecting a user to view from the presented programs (this screen displays information on the recorded program). And accepting selection by the user for the presented program). When presenting information related to a recorded program, for a program recorded based on the scene reservation list, the recorded program list is acquired from the scene reservation list storage unit 21 and stored in the video information storage unit 23. Information is presented using information such as program scene information and recording reason information.

ところで、本実施形態のコンテンツ推薦装置は、映像視聴・録画可能なPC(Personal Computer)にアプリケーションとして搭載することで実現することも可能である。また、コンテンツ推薦装置に用いられるPCは、例えばノート型などのどのような形状でも良く、また、PC以外のTV等の映像視聴機器、HDDレコーダ等の映像録画機器を用いて実現しても良い。   By the way, the content recommendation device of the present embodiment can also be realized by being installed as an application in a PC (Personal Computer) capable of viewing and recording video. Further, the PC used for the content recommendation device may have any shape such as a notebook type, and may be realized by using a video viewing device such as a TV other than the PC, or a video recording device such as an HDD recorder. .

また、推薦された番組を選択するなどの操作のための入力手段としては、種々の方法が可能である。PCを用いる場合は例えばマウスやキーボードを利用することができる。TVなどの映像視聴機器の場合は、例えば、リモコンのように、最低限上下左右や決定・キャンセル等が入力出来れば良い。以下では、TV画面に向かってリモコンで操作する場合を中心に説明する。   Various methods can be used as input means for operations such as selecting a recommended program. When using a PC, for example, a mouse or a keyboard can be used. In the case of a video viewing device such as a TV, it is only necessary to input at least up / down / left / right, decision / cancel, etc. Below, it demonstrates centering on the case where it operates with a remote control toward TV screen.

ここで、本実施形態のコンテンツ推薦装置が処理を行うタイミングについて説明する。   Here, the timing at which the content recommendation device of the present embodiment performs processing will be described.

番組特徴抽出部15/シーン分割部16/シーン特徴抽出部17の処理は、番組の録画時に行う。なお、録画しながら処理するようにしても良いし、録画が完了してから処理するようにしても良い。   The processing of the program feature extracting unit 15 / scene dividing unit 16 / scene feature extracting unit 17 is performed when a program is recorded. The processing may be performed while recording, or may be performed after the recording is completed.

視聴シーン情報取得部18、録画理由情報取得部19及び録画理由情報指定部12の処理は、映像再生・シーン指定部11を通して、ユーザが映像を視聴し「検索」ボタンを押す等のアクションを起こした時に行う。また、これらに続いて、録画理由情報取得部19及び録画理由情報指定部12の処理が行われる。更に、これらに続いて、番組検索部20及び録画予約番組指定部13の処理が行われる。   The processes of the viewing scene information acquisition unit 18, the recording reason information acquisition unit 19 and the recording reason information designation unit 12 cause an action such as the user viewing the video and pressing the “search” button through the video playback / scene designation unit 11. When you do. Following this, the recording reason information acquisition unit 19 and the recording reason information designation unit 12 are processed. Subsequently, the program search unit 20 and the recording reservation program designation unit 13 are processed.

録画済番組指定部14等の処理は、ユーザが当該コンテンツ推薦装置を通して録画予約した番組が実際に録画された後に行う。   The processing of the recorded program specifying unit 14 and the like is performed after the program reserved for recording by the user through the content recommendation device is actually recorded.

なお、映像再生・シーン指定部11は、録画番組でない番組(例えば、現在放送中の番組、あるいは、DVD等の番組)の映像を再生するとともに、その再生中において、本実施形態の推薦処理の最初のトリガとなるユーザの入力を受け取ることを可能にしても良い。この場合には、シーン分割処理と、シーン特徴キーワード抽出処理と、番組特徴キーワード抽出処理は、番組の視聴時に当該処理を行う。以下では、録画番組の再生中に本実施形態の推薦処理の最初のトリガとなるユーザの入力を受け取る場合を中心に説明する。   The video playback / scene designation unit 11 plays back a video of a program that is not a recorded program (for example, a program currently being broadcast or a program such as a DVD), and during the playback, the recommendation process of the present embodiment is performed. It may be possible to receive user input as an initial trigger. In this case, the scene division process, the scene feature keyword extraction process, and the program feature keyword extraction process are performed when the program is viewed. In the following, a description will be mainly given of a case where a user input serving as a first trigger of the recommendation process of the present embodiment is received during playback of a recorded program.

以下、本実施形態のコンテンツ推薦装置で行われる処理について更に詳しく説明する。   Hereinafter, the process performed by the content recommendation device of the present embodiment will be described in more detail.

なお、以下において、ユーザが録画されたTV番組の視聴中に推薦された他の番組を録画予約し、録画後に当該番組を視聴する場合の例にとりつつ説明する。   In the following description, an example in which a user reserves recording of another recommended program while viewing a recorded TV program and views the program after recording will be described.

まず、図2を参照しながら、シーン分割及び特徴抽出(番組特徴抽出及びシーン特徴抽出)の処理手順の一例について説明する。なお、図2でKWはキーワードを表す(他の図のKWも同様である)。   First, an example of a procedure for scene division and feature extraction (program feature extraction and scene feature extraction) will be described with reference to FIG. In FIG. 2, KW represents a keyword (the same applies to KW in other figures).

<シーン分割処理>
番組録画時に、まず、シーン分割部16は、録画した番組を複数のシーンに分割する(ステップS1)。
<Scene division processing>
When recording a program, first, the scene dividing unit 16 divides the recorded program into a plurality of scenes (step S1).

<シーン特徴抽出処理>
次に、シーン特徴抽出部17は、各々のシーンについて、当該シーンを特徴付けるシーン特徴キーワードの抽出を行う。
<Scene feature extraction processing>
Next, the scene feature extraction unit 17 extracts, for each scene, a scene feature keyword that characterizes the scene.

具体的には、まず、当該番組のシーンを1つ取り出し(ステップS3)、取り出したシーンSのシーン特徴キーワードの候補を抽出する(ステップS4)。そして、シーン特徴キーワードの候補を1つ取り出し(ステップS6)、取り出したシーン特徴キーワードの候補wi,jの特徴量を算出する(ステップS7)。これを繰り返し行い、シーンSの全ての特徴キーワードの候補について特徴量の算出が完了した後に(ステップS5)、シーンSの特徴キーワードを選択する(ステップS8)。最後に、選択されたシーンSの特徴キーワードを、映像情報蓄積部23に蓄積する(ステップS9)。 Specifically, first, it takes out (step S3) one scene of the program, extracts the scene feature keyword candidate scene S i taken out (step S4). Then, one scene feature keyword candidate is extracted (step S6), and the feature amount of the extracted scene feature keyword candidate w i, j is calculated (step S7). Repeated this (step S5) after the calculation of the characteristic quantity for all candidate feature keyword of the scene S i is completed, selecting the feature keyword of the scene S i (step S8). Finally, the characteristics keywords of the selected scene S i, accumulates in the video information storage section 23 (step S9).

以上の処理を全てのシーンについて順次行う。全てのシーンについて以上の処理を完了した(ステップS2)後に、次の番組特徴抽出部処理に進む。   The above processing is sequentially performed for all scenes. After the above process is completed for all scenes (step S2), the process proceeds to the next program feature extraction unit process.

<番組特徴抽出処理>
次に、番組特徴抽出部15は、当該番組の全体を特徴付ける番組特徴キーワード抽出を行う。
<Program feature extraction processing>
Next, the program feature extraction unit 15 performs program feature keyword extraction that characterizes the entire program.

具体的には、当該番組について、番組特徴キーワードの候補を抽出する(ステップS10)。そして、番組特徴キーワードの候補を1つ取り出し(ステップS12)、取り出した特徴キーワードの候補wg,jの特徴量を算出する(ステップS13)。これを繰り返し行い、全ての番組特徴キーワードの候補について特徴量の算出が完了した後に(ステップS11)、当該番組について、番組特徴キーワードを選択する(ステップS14)。最後に、選択された番組特徴キーワードを、映像情報蓄積部23に蓄積する(ステップS15)。 Specifically, program feature keyword candidates are extracted for the program (step S10). Then, one program feature keyword candidate is extracted (step S12), and the feature amount of the extracted feature keyword candidate wg , j is calculated (step S13). This is repeated, and after the feature amount calculation is completed for all program feature keyword candidates (step S11), a program feature keyword is selected for the program (step S14). Finally, the selected program feature keyword is stored in the video information storage unit 23 (step S15).

なお、上記では、最初にシーン特徴抽出処理を行い、次いで番組特徴抽出処理を行ったが、これに限定されるものではなく、例えば、最初に番組特徴抽出処理を行い、次いでシーン特徴抽出処理を行っても良いし、シーン特徴抽出処理と番組特徴抽出処理とを並行して行っても良い。   In the above, the scene feature extraction process is performed first, and then the program feature extraction process is performed. However, the present invention is not limited to this. For example, the program feature extraction process is performed first, and then the scene feature extraction process is performed. The scene feature extraction process and the program feature extraction process may be performed in parallel.

以下では、上記の「シーン分割処理(シーン分割部16)」、「シーン特徴キーワード抽出処理(シーン特徴抽出部17)」、「番組特徴キーワード抽出処理(番組特徴抽出部15)」についてそれぞれ詳しく説明する。   In the following, the “scene division processing (scene division unit 16)”, “scene feature keyword extraction processing (scene feature extraction unit 17)”, and “program feature keyword extraction processing (program feature extraction unit 15)” will be described in detail. To do.

まず、シーン分割処理について説明する。   First, the scene division process will be described.

シーン分割部16は、番組の録画時に、文字情報や映像情報を利用して、番組の映像を複数のシーンに分割する。   The scene dividing unit 16 divides the video of the program into a plurality of scenes using character information and video information when the program is recorded.

映像のシーン分割には、例えば、映像情報を対象にした既存のシーン分割手法を適用することができる。例えば、映像をショット毎に分割し、その類似度に従ってシーン毎に映像を分割する手法を用いても良い。   For example, an existing scene division method for video information can be applied to the video scene division. For example, a method may be used in which a video is divided for each shot and the video is divided for each scene according to the similarity.

また、シーン分割には、映像上のデータではなく、テキストデータを対象とした既存のシーン分割手法を適用することができる。この方法では、話題の内容を考慮したシーン分割を行うことができる。例えば、テキスト中に含まれる語彙を比較し、話題の切れ目を自動的に検出する手法を用いても良い。   For scene division, an existing scene division method for text data instead of video data can be applied. In this method, scene division can be performed in consideration of the topic content. For example, a method of automatically detecting breaks between topics by comparing vocabularies included in texts may be used.

シーン分割の結果は、例えば、分割点のタイムスタンプで得られる。   The result of scene division is obtained, for example, by the time stamp of the division point.

図3に、シーン分割部16によるシーン分割結果の一例を示す。この例では、各シーンの開始時刻を記録している。   FIG. 3 shows an example of a scene division result by the scene division unit 16. In this example, the start time of each scene is recorded.

シーン分割結果は、映像情報蓄積部23において、当該番組に対応付けて蓄積する。   The scene division result is stored in the video information storage unit 23 in association with the program.

次に、シーン特徴キーワード抽出処理について説明する。   Next, the scene feature keyword extraction process will be described.

シーン特徴抽出部17は、分割された各シーンの特徴となるシーン特徴キーワードを抽出する。   The scene feature extraction unit 17 extracts a scene feature keyword that is a feature of each divided scene.

シーン特徴抽出部17は、まず、シーン分割部16で分割された各シーンのメタデータから、シーン特徴キーワード候補に関する情報として、例えば、キーワードと、当該キーワードの意味属性と、当該キーワードの出現位置とを抽出する。   First, the scene feature extraction unit 17 uses, for example, a keyword, a semantic attribute of the keyword, an appearance position of the keyword, as information on the scene feature keyword candidate from the metadata of each scene divided by the scene division unit 16. To extract.

映像には、メタデータとしてクローズドキャプション(closed captions)と呼ばれるテキストデータが付随していることが多い。これを文字情報の抽出元メタデータとして使用することができる。もしくは、クローズドキャプション以外のメタデータを使用してもよい。また、クローズドキャプションを含まない映像に対しては、映像中の音声データに対して自動音声認識技術を適用して文字情報抽出元のデータとして利用することも可能である。   In many cases, video data is accompanied by text data called closed captions as metadata. This can be used as extraction source metadata for character information. Alternatively, metadata other than closed captions may be used. For video that does not include closed captions, it is also possible to apply automatic speech recognition technology to audio data in the video and use it as character information extraction source data.

キーワードを抽出する手段としては、例えば、既存の形態素解析などの技術を利用して名詞句を取り出す方法を用いることができる。   As a means for extracting a keyword, for example, a method of extracting a noun phrase using a technique such as an existing morphological analysis can be used.

また、キーワードの意味属性を判定する手段としては、例えば、辞書やルールを用いる既存の固有表現抽出手法等を用いることができる。例えば、ある文字列に“「株式会社…」という表現が当てはまれば、その意味属性を「企業名」とする”というようなルールが用意されているものとして、得られたキーワードが「株式会社○○」という表現であれば、その意味属性は、キーワード意味属性判定の処理によって「企業名」と判定することができる。   As a means for determining the semantic attribute of the keyword, for example, an existing specific expression extraction method using a dictionary or a rule can be used. For example, a rule such as “If the expression“ corporation… ”is applied to a certain character string, its semantic attribute is“ company name ”” is prepared. If the expression is “O”, the semantic attribute can be determined as “company name” by the keyword semantic attribute determination process.

図4に、番組のメタデータである文書の一例を示す。また、図5に、図4の文書から文字情報を抽出した結果を例示する。図5のテーブル例では、各キーワードについて、意味属性と出現位置が記録されている。   FIG. 4 shows an example of a document which is program metadata. FIG. 5 illustrates the result of extracting character information from the document of FIG. In the table example of FIG. 5, semantic attributes and appearance positions are recorded for each keyword.

シーン特徴抽出部17は、次に、抽出された特徴キーワード候補それぞれについてその特徴量を算出する。   Next, the scene feature extraction unit 17 calculates the feature amount of each extracted feature keyword candidate.

特徴量とは、そのキーワードが、ユーザにより指定されたシーンを、どれだけ特徴付けているかを表す指標である。   The feature amount is an index representing how much the keyword characterizes the scene designated by the user.

特徴量を算出する方法としては、例えば、文書検索でよく用いられるtf−idfを用いた方法を用いても良い。この場合、例えば、1シーンのクローズドキャプションを1文書とし、番組全体をそれらから成る文書群として、tf−idfを計算する。   As a method for calculating the feature amount, for example, a method using tf-idf often used in document search may be used. In this case, for example, tf-idf is calculated with a closed caption of one scene as one document and the entire program as a document group composed of them.

ここで、分割結果の各シーンをS,S,…,S,…,Sとし、シーンSでの特徴キーワード候補をwi,0,wi,1,…,wi,mとする。 Here, each scene of the division result S 0, S 1, ..., S i, ..., and S n, scene S i features keyword candidate w at i, 0, w i, 1 , ..., w i, m .

シーンSにおけるj番目のキーワード候補wi,jの特徴量fi,jをtf−idfを用いて算出する方法を式(1)に示す。
i,j=tf(wi,j)×log{n/df(wi,j)}…(1)
式(1)において、tf(wi,j)はSにおけるwi,jの出現数、nはシーンの総数、df(wi,j)はキーワードwi,jが出現するシーンの数である。
Formula (1) shows a method of calculating the feature quantity f i, j of the j-th keyword candidate w i, j in the scene S i using tf-idf.
f i, j = tf (w i, j ) × log {n / df (w i, j )} (1)
In Expression (1), tf (w i, j ) is the number of occurrences of w i, j in S i , n is the total number of scenes, and df (w i, j ) is the number of scenes in which the keywords w i, j appear. It is.

また、他の既存の方法として、例えば、適合フィードバックにおけるキーワード選出のための指標を用いることもできる。   Further, as another existing method, for example, an index for keyword selection in relevance feedback can be used.

なお、特徴量には上記したような単純な統計情報をそのまま用いるのではなく、特徴キーワード候補の種類ごとに重みを付けても良い。この場合に、例えば、図6のように、番組ジャンル毎に意味属性の重みを定義した表を用意しておき、この表を特徴量算出時に参照するようにしても良い。なお、番組のジャンルは、メタデータから容易に知ることができる。   In addition, the simple statistical information as described above is not used as it is for the feature amount, but a weight may be given to each type of feature keyword candidate. In this case, for example, as shown in FIG. 6, a table in which the weight of the semantic attribute is defined for each program genre may be prepared and referred to when calculating the feature amount. The genre of the program can be easily known from the metadata.

図6の例を用いた場合に、wi,j=“シロクマ(意味属性:哺乳類)”で番組ジャンルが“ドキュメンタリー・教養/動物”とすると、wi,jの重みcw(wi,j)は1.2となり、特徴量としては、cw(wi,j)×fi,j=1.2×fi,jを用いることになる。 When the example of FIG. 6 is used, if w i, j = “polar bear (semantic attribute: mammal)” and the program genre is “documentary / cultural / animal” , the weight cw (wi , j) of w i, j ) Is 1.2, and cw (w i, j ) × f i, j = 1.2 × f i, j is used as the feature amount.

なお、図6に例示した表では、同じ意味属性でも、番組ジャンルに応じて重みを変えることができるようになっている。例えば、番組ジャンル「動物」における意味属性「人名」の重みは“0.9”になるに対して、番組ジャンル「旅行」における意味属性「人名」の重みは“1.2”になる。また、意味属性の重みの定義に、図6に例示した番組ジャンルの代わりに又はこれに加えて他の要素を用いても良いし、各意味属性について一意に重みを定義しても良い。   In the table illustrated in FIG. 6, even with the same semantic attribute, the weight can be changed according to the program genre. For example, the weight of the semantic attribute “person name” in the program genre “animal” is “0.9”, whereas the weight of the semantic attribute “person name” in the program genre “travel” is “1.2”. Further, in defining the semantic attribute weight, other elements may be used instead of or in addition to the program genre illustrated in FIG. 6, and the weight may be uniquely defined for each semantic attribute.

以上のように特徴量を算出したシーン特徴キーワード候補について、例えば、特徴量の大きい方から上位n件を、当該シーンのシーン特徴キーワードとする。なお、nは、予め定められた整数である。また、ユーザがnを適宜調整できるようにしても良い。 For the scene feature keyword candidates whose feature values have been calculated as described above, for example, the top ns items with the largest feature values are set as the scene feature keywords of the scene. Note that n s is a predetermined integer. Further, the user may be able to adjust ns as appropriate.

抽出されたシーン特徴キーワードは、映像情報蓄積部23において、当該番組に対応付けて、当該シーンの項に蓄積する。   The extracted scene feature keyword is stored in the scene item in the video information storage unit 23 in association with the program.

次に、番組特徴キーワード抽出処理について説明する。   Next, the program feature keyword extraction process will be described.

番組特徴抽出部15は、番組全体に出現するキーワードを番組特徴として抽出する。   The program feature extraction unit 15 extracts keywords appearing in the entire program as program features.

番組特徴抽出部15は、シーン特徴抽出部17のシーン特徴キーワード候補抽出処理と同様に、番組に付与されているEPGデータから、番組特徴キーワード候補に関する情報として、例えば、キーワードと、当該キーワードの意味属性と、当該キーワードの出現位置を抽出する。   Similar to the scene feature keyword candidate extraction process of the scene feature extraction unit 17, the program feature extraction unit 15 uses, for example, a keyword and the meaning of the keyword as information on the program feature keyword candidate from the EPG data given to the program. The attribute and the appearance position of the keyword are extracted.

抽出された番組特徴キーワード候補について、番組全体に出現しているかどうかを表す普遍量を算出する。普遍量は、番組特徴キーワード候補wG,0,wG,1,…,wG,kが、各シーンのメタデータ(例えば、クローズドキャプション)に偏り無く出現していれば高くなる値を用いる。例えば、単純に、1シーンのクローズドキャプションを1文書とし、上述したdf(wG,i)を用いるなどすればよい。 For the extracted program feature keyword candidates, a universal quantity indicating whether or not it appears in the entire program is calculated. The universal amount uses a value that increases if the program feature keyword candidates w G, 0 , w G, 1 ,..., W G, k appear evenly in the metadata (eg, closed caption) of each scene. . For example, the closed caption of one scene may be set as one document and the above-described df (w G, i ) may be used.

なお、これだけではEPG中の一般的なキーワードの普遍量が高くなってしまうことがある。そのような場合には、これに加えて、1番組のEPGを1文書とし、現在までに得られている多数の番組のEPGを文書群としてtf−idfを計算し、その値の低いものは省くなどしても良い。   Note that this alone may increase the universal amount of general keywords in the EPG. In such a case, in addition to this, tf-idf is calculated using EPG of one program as one document and EPG of many programs obtained so far as a document group. You may omit it.

以上のようにして普遍量を算出した番組特徴キーワード候補について、例えば、特徴量の大きい方から上位n件を、当該番組の番組特徴キーワードとする。nは、予め定められた整数である。また、ユーザがnを適宜調整できるようにしても良い。 For the program feature keyword candidates whose universal quantities have been calculated as described above, for example, the top n p items having the largest feature quantity are set as the program feature keywords of the program. n p is a predetermined integer. Further, the user may be able to adjust n p as appropriate.

なお、nとnとを常に同一の値として設定しても良いし、nとnとを独立して設定しても良い。 Note that n p and n s may always be set as the same value, or n p and n s may be set independently.

抽出された番組特徴キーワードは、映像情報蓄積部23において、当該番組に対応付けて蓄積する。   The extracted program feature keyword is stored in the video information storage unit 23 in association with the program.

さて、番組の録画時(録画番組でない番組については番組の視聴時)に以上の処理が行われ、それら結果が映像情報蓄積部23に蓄積される。   The above processing is performed when a program is recorded (when a program that is not a recorded program is viewed), and the results are stored in the video information storage unit 23.

図7に、映像情報蓄積部23に蓄積されている映像情報の一例を示す。この例では、映像情報蓄積部23は、その番組を一意に示す番組識別子(番組ID)、番組全体のメタデータであるEPGの各情報(図7の例では、タイトル、放送日時、概要、ジャンル)、番組特徴キーワード、各シーンに対応する、分割結果の情報(例えば、そのシーンの開始時刻及び終了時刻)、シーン特徴キーワード、録画理由等を対応付けて1レコードとして保持している。   FIG. 7 shows an example of video information stored in the video information storage unit 23. In this example, the video information storage unit 23 includes a program identifier (program ID) that uniquely indicates the program, and each piece of EPG information that is metadata of the entire program (in the example of FIG. 7, title, broadcast date, overview, genre). ), A program feature keyword, division result information corresponding to each scene (for example, the start time and end time of the scene), a scene feature keyword, a recording reason, and the like are stored as one record.

なお、図7の例においては、各シーンについて、表示用ラベル情報も蓄積している。ラベルの生成には既存の様々な手法を用いれば良く、例えば、上述した特徴キーワード抽出のような方法を使って抽出されたキーワードを含むセンテンスを選択する、という方法を用いることができる。また、EPGデータの中の概要文に各シーンの概要が含まれているような場合には、EPG中から該当する文を取得してラベルとして使うことも可能である。   In the example of FIG. 7, display label information is also accumulated for each scene. Various existing methods may be used to generate the label. For example, a method of selecting a sentence including a keyword extracted using a method such as the feature keyword extraction described above can be used. In addition, when an outline sentence in the EPG data includes an outline of each scene, it is possible to acquire the corresponding sentence from the EPG and use it as a label.

また、録画理由については、後で説明する。   The reason for recording will be described later.

次に、図8を参照しながら、番組の再生中におけるシーン選択からシーン予約リスト蓄積までの処理手順の一例について説明する。   Next, an example of a processing procedure from scene selection to scene reservation list accumulation during program playback will be described with reference to FIG.

映像再生・シーン指定部11は、番組の映像の再生を開始する(ステップS21)。   The video playback / scene designation unit 11 starts playback of the video of the program (step S21).

映像再生・シーン指定部11がシーンの選択(すなわち、「検索」ボタン等の「推薦処理の最初のトリガとなるユーザの入力」)を受けると(ステップS22)、まず、視聴シーン情報取得部18が、選択されたシーンの特徴情報(シーン特徴キーワード)等を求め、次いで、録画理由情報取得部19が、該特徴情報をもとにネット動画のサイト(例えば、投稿サイト)30から取得される動画コンテンツの情報を利用して、録画理由情報の候補(拡張キーワードやその属性)を取得し、録画理由情報指定部12が、録画理由情報(少なくとも拡張キーワード)を候補として提示する(ステップS22)。   When the video playback / scene designation unit 11 receives a scene selection (ie, “user input as a first trigger for recommendation processing” such as a “search” button) (step S22), the viewing scene information acquisition unit 18 first. The feature information (scene feature keyword) of the selected scene is obtained, and then the recording reason information acquisition unit 19 is acquired from the site of the online video (for example, a posting site) 30 based on the feature information. Video content information information is used to acquire recording reason information candidates (extended keywords and their attributes), and the recording reason information specifying unit 12 presents the recording reason information (at least extended keywords) as candidates (step S22). .

録画理由情報指定部12が録画理由情報の選択を受け付けると(ステップS24)、まず、番組検索部20が、選択された録画理由情報をもとにして、放送予定番組のEPG検索を行い、録画予約番組指定部13が、検索結果(推薦番組)を提示する(ステップS25)。   When the recording reason information specifying unit 12 accepts the selection of recording reason information (step S24), first, the program search unit 20 performs EPG search of a broadcast-scheduled program based on the selected recording reason information, and recording. The reserved program designating unit 13 presents the search result (recommended program) (step S25).

録画予約番組指定部13が録画予約番組の選択を受け付けると(ステップS26)、選択された録画予約番組とその際の録画理由情報などの情報をシーン予約リスト蓄積部21に蓄積する(ステップS27)。   When the scheduled recording program specifying unit 13 accepts the selection of the scheduled recording program (step S26), the selected scheduled recording program and information such as the recording reason information at that time are stored in the scene reservation list storage unit 21 (step S27). .

以下では、上記の各処理ついてそれぞれ詳しく説明する。   Hereinafter, each of the above processes will be described in detail.

まず、視聴シーン情報取得について説明する。   First, viewing scene information acquisition will be described.

視聴シーン情報取得部18は、ユーザが番組視聴中に、例えばリモコンで「検索」ボタンを押す、或いは、「検索」メニューを選択するなどのアクションをした際に、ユーザが現在視聴している、すなわち、現在再生している、シーンの特徴情報を、3種類のキーワード(G特徴キーワード,P特徴キーワード,N特徴キーワード)として取得する。   The viewing scene information acquisition unit 18 is currently viewed by the user when an action such as pressing the “Search” button on the remote controller or selecting the “Search” menu while the user is viewing the program. That is, the feature information of the scene currently being reproduced is acquired as three types of keywords (G feature keyword, P feature keyword, and N feature keyword).

ここで、G特徴キーワードとは、当該番組の全体を特徴付けるキーワードである。   Here, the G feature keyword is a keyword that characterizes the entire program.

P特徴キーワードとは、選択されたシーンを特徴付けるキーワードである。   The P feature keyword is a keyword that characterizes the selected scene.

N特徴キーワードとは、選択されなかったシーンを特徴付けるものであって、かつ、選択されたシーンには出てこないキーワードである。   The N feature keyword is a keyword that characterizes a scene that has not been selected and does not appear in the selected scene.

以下、この3種類のキーワードの取得方法について説明する。   Hereinafter, a method for acquiring these three types of keywords will be described.

ユーザが「検索」ボタンを押す等のアクションを起こすと、視聴シーン情報取得部18は、現在再生中の番組の番組IDをキーとして、映像情報蓄積部23から、当該番組のレコードを取得する。同時に、番組特徴キーワードを、G特徴キーワード候補として取得する。   When the user takes an action such as pressing the “search” button, the viewing scene information acquisition unit 18 acquires a record of the program from the video information storage unit 23 using the program ID of the program currently being played as a key. At the same time, a program feature keyword is acquired as a G feature keyword candidate.

次に、番組中で現在再生している時点が、番組開始時刻から何秒後であるか(以下、番組開始時刻から何秒後であるかを示す時刻を「経過時刻」と呼ぶものとする。)に基づいて、番組情報の中から現在再生中のシーンに関する情報を取得する。そして、現在再生中のシーン情報に付与されている特徴キーワードを、P特徴キーワードとして取得する。   Next, the number of seconds after the program start time is the time at which the current playback is in the program (hereinafter, the time indicating the number of seconds after the program start time is referred to as “elapsed time”). )), Information on the scene currently being reproduced is acquired from the program information. Then, the feature keyword assigned to the scene information currently being reproduced is acquired as the P feature keyword.

更に、現在再生中のシーン以外のシーンに付与されている特徴キーワードを、N特徴キーワードとして使用する。ただし、再生中でないシーン全ての特徴キーワードを採用すると、数が多くなり過ぎるので、例えば、現在再生中のシーンの前のシーン及び又は後のシーンの特徴キーワードのみを使用するなど、数を絞るのが好ましい。   Further, a feature keyword assigned to a scene other than the scene currently being reproduced is used as an N feature keyword. However, if feature keywords for all scenes that are not being played are used, the number will increase too much.For example, only the feature keywords for the scene before and / or after the scene that is currently being played will be used. Is preferred.

図9は、蓄積されている映像情報から視聴しているシーンの情報を取得する例である。   FIG. 9 is an example of acquiring information of a scene being viewed from the stored video information.

図9の例では、現在再生中のシーンi(この場合、i=2)の特徴キーワード“シロクマ”,“氷面積”のうち、“シロクマ”の特徴量の方が大きいとして、特徴量の大きい“シロクマ”がP特徴キーワードとして選択される。   In the example of FIG. 9, among the feature keywords “Polar bear” and “Ice area” of the currently playing scene i (i = 2 in this case), the feature amount of “Polar bear” is larger, and the feature amount is larger. “Polar bear” is selected as the P feature keyword.

なお、特徴量を参照するのではなく、当該シーン(i)中で、ユーザが「検索」ボタンを押す等した時刻(すなわち、当該シーンが選択されたときに再生していた箇所の経過時刻)に一番近い経過時刻に出現する特徴キーワードをP特徴キーワードとして用いても良い。   The time when the user presses the “search” button in the scene (i) instead of referring to the feature amount (that is, the elapsed time of the portion that was played back when the scene was selected). The feature keyword that appears at the closest elapsed time may be used as the P feature keyword.

また、図9の例では、シーン(i)の1つ前のシーン(i−1)(この場合、i−1=1)の特徴キーワード“アザラシ”,“セイウチ”や、シーン(i+1)(この場合、i+1=3)の特徴キーワード“ペンギン”,“海鳥”が、シーン(i)のN特徴キーワードとして選択される。   In the example of FIG. 9, the feature keywords “seal” and “walrus” of the scene (i−1) (i−1 = 1 in this case) immediately before the scene (i), and the scene (i + 1) ( In this case, the feature keywords “penguin” and “seabird” of i + 1 = 3) are selected as the N feature keywords of the scene (i).

次に、録画理由情報の取得について説明する。   Next, acquisition of recording reason information will be described.

録画理由情報取得部19は、上述した方法で取得したシーン特徴キーワード等をもとにして、ネット動画のサイト30から拡張キーワードを取得する。   The recording reason information acquisition unit 19 acquires an extended keyword from the site 30 of the online video based on the scene feature keyword acquired by the method described above.

ネット動画のサイト30には、例えば投稿などにより、数多くの動画が存在し、それらにはタグと呼ばれる動画の内容を示した文字列が複数付与されている。ユーザは、このタグをクエリキーとして、動画の検索をすることができる。また、各動画には、投稿日時或いは掲載日時等の日時情報や、その動画を見た人などが動画の評価をした結果の評価値などが付与されていることが多い。なお、複数のネット動画のサイトから評価値を得る場合に、評価値の付与方法が異なるときは、各サイトの評価値を正規化するなどして、拡張キーワードの属性としての評価値を求めるようにしても良い。また、ネット動画のサイト30から得られる評価値を用いるとともに、或いは、これに替えて、ネット動画のサイト30から得られる他の情報(例えば、再生回数等)を用いて、拡張キーワードの属性としての評価値を算出するようにしても良い。更に、拡張キーワードの属性としては、評価値のみを用いても良いし、評価値と投稿日時を用いても良いし、他にも種々の方法が可能である。   A large number of moving images exist on the Internet moving image site 30 by, for example, posting, and a plurality of character strings indicating the contents of the moving images called tags are given to them. The user can search for moving images using this tag as a query key. In addition, date and time information such as posting date and time or posting date, evaluation value as a result of evaluating a moving image by a person who viewed the moving image, and the like are often given to each moving image. When obtaining evaluation values from multiple Internet video sites, if the method of assigning the evaluation values is different, normalize the evaluation values of each site, etc., and obtain the evaluation values as attributes of extended keywords. Anyway. In addition, the evaluation value obtained from the Internet video site 30 is used, or alternatively, other information obtained from the Internet video site 30 (for example, the number of times of reproduction, etc.) is used as the extended keyword attribute. The evaluation value may be calculated. Furthermore, as an attribute of the extended keyword, only the evaluation value may be used, the evaluation value and the posting date / time may be used, and various other methods are possible.

本実施形態においては、タグ、評価値、投稿日時がセットになった動画メタ情報を拡張キーワードの情報源として利用する場合を例にとって説明する。   In the present embodiment, a case where moving image meta information in which a tag, an evaluation value, and a posting date / time are set is used as an information source of an extended keyword will be described as an example.

また、ここでは、得られた拡張キーワードとその属性(評価値等)を、推薦番組を録画する際の情報である「録画理由情報」として生成する場合を例にとって説明する。   Here, a case will be described as an example where the obtained extended keyword and its attributes (evaluation value, etc.) are generated as “recording reason information” that is information when recording a recommended program.

最初に、P特徴による拡張キーワードの取得方法、N特徴による拡張キーワードの取得方法について説明し、次いで、拡張キーワードの属性を取得する方法について説明する。   First, a method for acquiring an extended keyword using the P feature and a method for acquiring an extended keyword using the N feature will be described, and then a method for acquiring the attribute of the extended keyword will be described.

まず、P特徴キーワードによって、ネット動画のサイト30から、動画の検索を行う。この場合、検索クエリは、単純に“(P特徴キーワード)”(例えば、図9における“シロクマ”)でも良い。ただし、このときに、検索結果の動画数が多い場合には、他のP特徴キーワード(例えば、図9における“氷面積”)や、G特徴キーワード(例えば、図9における“動物”,“北極”,“南極”)を適宜ANDクエリとして使って絞り込み検索を行っていけば良い。また、N特徴キーワード(例えば、図9における“アザラシ”)を適宜NOTクエリとして用いても良い。   First, a video search is performed from the network video site 30 using the P feature keyword. In this case, the search query may simply be “(P feature keyword)” (for example, “polar bear” in FIG. 9). However, at this time, if the number of search result videos is large, another P feature keyword (for example, “ice area” in FIG. 9) or G feature keyword (for example, “animal”, “north pole” in FIG. 9). "," Antarctica ") can be used as an AND query to narrow down the search. Further, N feature keywords (for example, “seal” in FIG. 9) may be used as a NOT query as appropriate.

次いで、検索結果の動画に付与されているタグの集合から、いくつかのタグを拡張キーワードとして選択する。   Next, some tags are selected as expansion keywords from the set of tags attached to the search result moving image.

以下、図9〜12を参照しながら、拡張キーワードの選択方法について説明する。   Hereinafter, an extended keyword selection method will be described with reference to FIGS.

動画の検索をした結果、次のようなM+1個の動画が得られたとする。
動画M:タグt0,0,t0,1,…,t0,T0,評価値r,投稿日時d
動画M:タグt1,0,t1,1,…,t1,T1,評価値r,投稿日時d
...
動画M:タグtn,0,tn,1,…,tn,Tn,評価値r,投稿日時d
得られた全てのタグt0,0,…,tn,Tnから、クエリに使われた特徴キーワード(例えば、図9における“シロクマ”)を取り除き、更に重複を除いたタグ集合t,…,tを得る。
Assume that the following M n +1 moving images are obtained as a result of searching for moving images.
Movie M 0 : tag t 0,0 , t 0,1 ,..., T 0, T0 , evaluation value r 0 , posting date and time d 0
Video M 1: tag t 1,0, t 1,1, ..., t 1, T1, evaluation value r 1, contribution date and time d 1
. . .
Video M n : tags t n, 0 , t n, 1 ,..., T n, Tn , evaluation value r n , posting date and time d n
From the obtained tags t 0,0 ,..., T n, Tn , the feature keyword used in the query (for example, “Polar bear” in FIG. 9) is removed, and the tag set t 0 ,. , T T.

次にタグ集合t,…,tを、動画間で共起するもののグループに分ける。 Next, the tag set t 0 ,..., T T is divided into groups that co-occur between videos.

ここでは、共起行列を作成し、動画Mから順に動画を参照し、1つの動画に両方付与されているタグ2個に対して、共起行列中の該当項の数値に加算していく。 Here, a co-occurrence matrix is created, and the moving image is referred to in order from the moving image M 0, and is added to the numerical value of the corresponding item in the co-occurrence matrix for two tags attached to one moving image .

例えば、P特徴キーワード“シロクマ”で検索した結果から、図10のような動画が得られたとして、図11のような初期の共起行列に共起回数を加算していく。なお、実際の例では図10よりも大量の動画が検索結果として得られると考えられる。   For example, assuming that a moving image as shown in FIG. 10 is obtained from the result of searching with the P feature keyword “polar bear”, the number of co-occurrence is added to the initial co-occurrence matrix as shown in FIG. In an actual example, it is considered that a larger amount of moving images than in FIG. 10 is obtained as a search result.

図10において、例えば、動画Mにおいて、検索クエリであった“シロクマ”以外のタグを参照すると、この場合、“砥部動物園”,“ピース”がタグとして付与されているので、共起行列の“砥部動物園”,“ピース”の交わる項(2行2列目)の値を1加算する。 In FIG. 10, for example, in the video M 0 , when a tag other than “Polar Bear” that was the search query is referenced, in this case, “Tobe Zoo” and “Piece” are assigned as tags. Add 1 to the value of the term (2nd row, 2nd column) where “Tobe Zoo” and “Piece” intersect.

このようにして、全ての動画において共起行列の項に加算していくと、例えば、図12のような共起行列が得られる。   Thus, if it adds to the term of a co-occurrence matrix in all the moving images, for example, a co-occurrence matrix as shown in FIG. 12 will be obtained.

次に、加算後の共起行列から、共起回数の大きいペア(或いはグループ)を取り出す。ただし、P特徴キーワード、N特徴キーワード又はG特徴キーワードに包含されるものについては、拡張キーワードが得られないので、省くこととする。   Next, a pair (or group) having a large number of co-occurrence is extracted from the co-occurrence matrix after addition. However, those included in the P feature keyword, the N feature keyword, or the G feature keyword are omitted because an extended keyword cannot be obtained.

図12の例では、N特徴キーワードが“アザラシ”,G特徴キーワードが“動物”,“北極”,“南極”であるので、結果のペアは、“砥部動物園−ピース”,“旭山動物園−ペンギン”,“地球温暖化−絶滅危惧種”となる。   In the example of FIG. 12, the N feature keyword is “seal”, and the G feature keyword is “animal”, “north pole”, “antarctic”, so the resulting pairs are “Tobe Zoo-Peace”, “Asahiyama Zoo-Penguin” "," Global warming-endangered species ".

最後に、例えば、得られたペアの中から、1つずつ拡張キーワードを選択していく。   Finally, for example, the expansion keywords are selected one by one from the obtained pairs.

なお、この選択の方法にはどのような指標を用いても良い。   Any index may be used for this selection method.

簡単な例を示すと、例えば、推薦対象である放送予定EPGをそれぞれのキーワードで検索し、数の多い方を拡張キーワードとして選択すれば良い。これにより最終的な推薦番組が少なくなってしまうことを防ぐことができる。   To give a simple example, for example, a broadcast schedule EPG that is a recommendation target may be searched with each keyword, and the larger number may be selected as an extended keyword. This can prevent the final recommended program from being reduced.

また、その他にも、他の語句との共起回数が多いものを選択する、或いは、ネット動画を検索して多いものを選択するなど、様々な方法が考えられる。   In addition, various methods are conceivable, such as selecting an item that has a large number of co-occurrence with other words or phrases or selecting an item that is frequently searched by searching for an online video.

以上のようにして得られたキーワードが拡張キーワードとなる。   The keyword obtained as described above becomes an extended keyword.

なお、上記のように共起するタグを拡張キーワードとするのではなく、1つの動画に付与されたタグ集合を1つの文書と想定して、既存の文書クラスタリング手法を適用し、その中から代表タグを1つ選択する方法を取っても良い。   Instead of using co-occurrence tags as extended keywords as described above, assuming that a set of tags assigned to one video is one document, an existing document clustering method is applied, and a representative is selected from these. You may take the method of selecting one tag.

拡張キーワードの取得手法としては、それらの他にも、種々の方法が可能である。   In addition to these methods, various methods can be used as an extended keyword acquisition method.

同様にして、N特徴を用いた拡張キーワードも取得する。この場合、上記した拡張キーワードを取得する処理について、N特徴キーワードとP特徴キーワードの役割を入れ替えた処理を行えば良い。   Similarly, an extended keyword using N features is also acquired. In this case, the process of acquiring the extended keyword may be performed by switching the roles of the N feature keyword and the P feature keyword.

すなわち、検索クエリは、単純に“(N特徴キーワード)”(例えば、図9の例における“アザラシ”)でも良い。ただし、このときに、検索結果の動画数が多い場合には、他のN特徴キーワード(例えば、図9における“セイウチ”)や、G特徴キーワード(例えば、図9における“動物”,“北極”,“南極”)を適宜使って絞り込み検索を行っていく。また、P特徴キーワード(例えば、図9における“シロクマ”)を適宜NOTクエリとして用いても良い。   That is, the search query may simply be “(N feature keyword)” (for example, “seal” in the example of FIG. 9). However, at this time, when the number of videos in the search result is large, other N feature keywords (for example, “walrus” in FIG. 9) or G feature keywords (for example, “animal”, “north pole” in FIG. 9). , “Antarctica”), and use the appropriate search. Further, a P feature keyword (for example, “polar bear” in FIG. 9) may be used as a NOT query as appropriate.

検索結果から拡張キーワードを取得する手法については、P特徴による拡張キーワード取得と同様である。   The method for acquiring the extended keyword from the search result is the same as that for acquiring the extended keyword based on the P feature.

P特徴を用いた拡張キーワードの取得方法と、N特徴を用いた拡張キーワードの取得方法とを、同一の方法にしても良いし、異なる方法にしても良い。   The extended keyword acquisition method using the P feature and the extended keyword acquisition method using the N feature may be the same method or different methods.

好ましくは、例えば、録画理由情報取得部19(第2の取得部)は、選択されたシーン(特定のシーン)以外の所定のシーンに係るシーン特徴キーワード(第2の特徴キーワード)をクエリとし、又は、選択されたシーン(特定のシーン)以外の所定のシーンに係るシーン特徴キーワード(第2の特徴キーワード)をクエリとするとともに前記コンテンツに係る番組特徴キーワード(第1の特徴キーワード)をANDクエリとし及び又は選択されたシーン(特定のシーン)に係るシーン特徴キーワード(第2の特徴キーワード)をNOTクエリとして更に他の複数のネット動画を取得し、該取得された他の複数のネット動画に関する情報をもとに、更に、他の拡張キーワードを取得するとともに、該他の拡張キーワードの属性として少なくとも該ネット動画に対する評価値を取得し、録画理由情報指定部12(第1の選択部)は、更に、取得された前記他の拡張キーワードの一覧をも提示するようにしても良い。   Preferably, for example, the recording reason information acquisition unit 19 (second acquisition unit) uses a scene feature keyword (second feature keyword) related to a predetermined scene other than the selected scene (specific scene) as a query, Alternatively, a scene feature keyword (second feature keyword) related to a predetermined scene other than the selected scene (specific scene) is used as a query, and a program feature keyword (first feature keyword) related to the content is used as an AND query. And / or using the scene feature keyword (second feature keyword) related to the selected scene (specific scene) as a NOT query to obtain a plurality of other net moving images, and related to the obtained other plurality of net moving images. Based on the information, other extended keywords are acquired and at least as attributes of the other extended keywords. And acquire the evaluation value for the net video recording reason information specifying section 12 (first selector) further may be also present a list of the other extended keywords obtained.

また、N特徴を用いた拡張キーワードの取得を省いた構成も可能である。この場合には、以降の処理において、N特徴を用いた拡張キーワードに関係する部分も省けば良い。   Further, a configuration in which the acquisition of extended keywords using N features is omitted is also possible. In this case, in the subsequent processing, a portion related to the extended keyword using the N feature may be omitted.

次に、拡張キーワードの属性を取得する方法について説明する。   Next, a method for acquiring the extended keyword attribute will be described.

動画メタ情報には、タグ以外にも評価値、投稿日時といった情報が付与されている。   In addition to the tags, information such as evaluation values and posting dates / times is given to the moving image meta information.

ここで、評価値は、ユーザがどの拡張キーワードによる推薦が面白そうであるかを判断する指標として有用であり、投稿日時は、拡張キーワードの話題性を判断する指標として有用であるため、これらを録画理由情報に含める。   Here, the evaluation value is useful as an index for determining which expansion keyword is recommended by the user, and the posting date is useful as an index for determining the topicality of the expansion keyword. Include in recording reason information.

拡張キーワードの属性としての評価値は、当該拡張キーワードを取得するもととなった複数のネット動画に関する情報のうちで、当該拡張キーワードを含むものに含まれる評価値に対して所定の統計処理を行った得られた値であるようにしても良い。   The evaluation value as the attribute of the extended keyword is obtained by performing predetermined statistical processing on the evaluation value included in the information including the extended keyword among the information on the plurality of net moving images from which the extended keyword is acquired. The obtained value may be used.

例えば、拡張キーワードの評価値は、単純には、当該拡張キーワードをタグとして持つ動画群の評価値の中央値をとることで得られる。拡張キーワードの評価値は、必ずしも1つの値である必要はなく、例えば、動画群の評価値の四分位数範囲を、評価値として抽出しても良い。   For example, the evaluation value of the extended keyword can be obtained simply by taking the median value of the evaluation values of the moving image group having the extended keyword as a tag. The evaluation value of the extended keyword does not necessarily have to be one value. For example, the quartile range of the evaluation value of the moving image group may be extracted as the evaluation value.

同様に、拡張キーワードの属性としての投稿日時は、当該拡張キーワードを取得するもととなった複数のネット動画に関する情報のうちで、当該拡張キーワードを含むものに含まれる投稿日時に対して所定の統計処理を行った得られた値であるようにしても良い。   Similarly, the posting date and time as the attribute of the extended keyword is a predetermined date with respect to the posting date and time included in the information including the extended keyword among the information on the plurality of net moving images from which the extended keyword is acquired. It may be a value obtained by performing statistical processing.

例えば、拡張キーワードの投稿日時も、評価値と同様、中央値や四分位数範囲を用いれば良い。   For example, the median value and the quartile range may be used for the posting date of the extended keyword as well as the evaluation value.

もちろん、中央値や四分位数範囲に限定されるものではなく、いずれについても、種々の統計的指標を利用して構わない。   Of course, the present invention is not limited to the median or quartile range, and various statistical indicators may be used for both.

このようにして得られた拡張キーワード及びその属性を、ユーザが番組の録画予約をする際の録画理由である録画理由情報と呼ぶ。   The extended keywords and their attributes obtained in this way are referred to as recording reason information which is the reason for recording when the user makes a recording reservation for a program.

次に、録画理由情報の指定について説明する。   Next, designation of recording reason information will be described.

録画理由情報指定部12は、上述したようにして得られた録画理由情報の中から、ユーザが所望するものを選択するための画面を生成する。   The recording reason information specifying unit 12 generates a screen for selecting what the user desires from the recording reason information obtained as described above.

図13に、録画理由情報指定部12が生成する録画理由情報選択画面の一例を示す。   FIG. 13 shows an example of a recording reason information selection screen generated by the recording reason information specifying unit 12.

図13では、画面例左に「視聴中のシーン」における録画理由情報が3つ、画面例右に「以前のシーン」に係る録画理由情報が3つそれぞれ候補として提示された例を示している。   FIG. 13 shows an example in which three pieces of recording reason information for “scene being viewed” are presented as candidates on the left of the screen example, and three pieces of recording reason information for “previous scene” are presented as candidates on the right side of the screen example. .

例えば、録画理由情報指定部12は、P特徴キーワードから得られた録画理由情報の集合Rと、N特徴キーワードから得られた録画理由情報の集合Rについて集合演算を行う。 For example, recording reason information specifying section 12 performs a set R P of recording reasons information obtained from the P characteristic keywords, the set operation for the set R N recording reason information obtained from N feature keyword.

画面例左の「視聴中のシーン」における録画理由情報には、R \ Rの結果をソートして出力する。ここで、R \ Rは、集合Rから集合Rを除いた集合を表す。 The recording reason information in the "scene being viewed" on the left side of the screen example, and outputs the sort the results of R P \ R N. Here, R P \ R N represents a set excluding the set R N from the set R P.

ソートの基準としては、例えば、拡張キーワードの評価値の高い順などが考えられる。   As a sorting criterion, for example, the order in which the evaluation values of the expansion keywords are high may be considered.

画面例右の「以前のシーン」における録画理由情報にはRの結果を出力するが、その中でもR ∩ Rを優先して出力する。ここで、R ∩ Rは、集合Rと集合Rとの論理積集合を表す。 The recording reason information in the "previous scene" in the example screen right and outputs the result of R N, but also preferentially output the R P ∩ R N therein. Here, R P ∩ R N represents the logical intersection of the set R P the set R N.

なお、録画理由情報中の評価値や投稿日時の情報はそのまま表示しても良いが、例えば、評価値がある一定以上の高さであれば“特定の印(例えば、星型のマーク)(図13の121参照)”を付ける、評価値によって拡張キーワードの色を変える、投稿日時の分布が最近であれば“!”(図13の122参照)”や“New”を付ける、などすることで画面上に表示する情報を増やすことができる。   The evaluation value and the posting date / time information in the recording reason information may be displayed as they are. For example, if the evaluation value has a certain height or more, a “specific mark (for example, a star mark) ( (See 121 in FIG. 13), change the color of the extended keyword depending on the evaluation value, add “!” (See 122 in FIG. 13) or “New” if the posting date / time distribution is recent. You can increase the information displayed on the screen.

また、ユーザが録画理由情報を選択するための指標として、元のネット動画に付与されていた視聴者のコメントの一部を表示するなどしても良い。   Further, as an index for the user to select the recording reason information, a part of the viewer's comment given to the original net moving image may be displayed.

その他、種々のバリエーションが可能である。   Various other variations are possible.

録画理由情報を選択する画面では、ユーザは例えばリモコン等の操作デバイスを用いて、1つ録画理由情報を選択することができる。   On the screen for selecting recording reason information, the user can select one recording reason information using an operation device such as a remote controller.

図13では、画面例左に提示された「視聴中のシーン」における3つの録画理由情報のうち、ユーザにより「砥部動物園」が選択された様子を例示している(図13の122参照)。   FIG. 13 illustrates a state in which “Totobe Zoo” is selected by the user among the three recording reason information in the “viewing scene” presented on the left side of the screen example (see 122 in FIG. 13).

選択を決定すると、コンテンツ推薦装置は番組検索部20へ処理を移行する。   When the selection is determined, the content recommendation device shifts the processing to the program search unit 20.

次に、番組検索とその結果の提示、録画予約番組の指定について説明する。   Next, program search, presentation of the results, and designation of a scheduled recording program will be described.

番組検索部20は、ユーザが選択した録画理由情報の中の拡張キーワードをもとにして、放送予定番組のEPGを検索する。   The program search unit 20 searches for an EPG of a broadcast-scheduled program based on the extended keyword in the recording reason information selected by the user.

なお、放送予定番組のEPGを保持していない場合には、例えば、Webサービスに見られるような番組検索サービスを利用しても良い。   In addition, when the EPG of the broadcast scheduled program is not held, for example, a program search service such as that found in a Web service may be used.

番組検索の結果は、録画予約番組指定部13によってユーザに提示される。   The result of the program search is presented to the user by the recording reservation program designating unit 13.

図14に、録画予約番組指定部13が生成する、ユーザが予約番組を選択するための画面(予約番組選択画面)の一例を示す。   FIG. 14 shows an example of a screen (reserved program selection screen) for the user to select a reserved program, which is generated by the recording reserved program designating unit 13.

図14では、「砥部動物園」による検索結果として、2つの番組が提示された例を示している。   FIG. 14 shows an example in which two programs are presented as search results by “Tobe Zoo”.

複数の推薦番組(予約番組の候補)を提示するにあたっては、例えば、複数の推薦番組について、EPG中にどれだけP特徴キーワードが出現するか、G特徴キーワードが出現するか、またN特徴キーワードが出現しないかを考慮して、並び替えるようにしても良い。   When presenting a plurality of recommended programs (reserved program candidates), for example, how many P-feature keywords appear in the EPG, G-feature keywords appear, and N-feature keywords for a plurality of recommended programs. It may be rearranged considering whether it appears.

例えば、P特徴キーワードの出現回数P,G特徴キーワードの出現回数P,N特徴キーワードの出現回数Pとし、
α×P+β×P−γ×P (α,β,γ>0)
を各予約番組のスコアとして、このスコアによってソートするなどすれば良い。
For example, P feature keyword appearance count P P , G feature keyword appearance count P G , N feature keyword appearance count P N ,
α × P P + β × P G −γ × P N (α, β, γ> 0)
May be sorted by this score as the score of each reserved program.

ユーザは、例えばリモコン等の操作デバイスを用いて、提示された中から所望する予約番組を選択することができる。   The user can select a desired reserved program from the presented programs using an operation device such as a remote controller.

図14では、提示された番組のうち、ユーザにより「シロクマ人工飼育」が選択された様子を例示している(図14の124参照)。   FIG. 14 illustrates a state in which “Polar bear artificial breeding” is selected by the user from the presented program (see 124 in FIG. 14).

次に、シーン予約リストの蓄積について説明する。   Next, accumulation of the scene reservation list will be described.

図15に、シーン予約リスト蓄積部21に蓄積されるシーン予約リストの一例を示す。   FIG. 15 shows an example of a scene reservation list stored in the scene reservation list storage unit 21.

図15の例では、ユーザにより録画予約番組が指定された場合に、録画予約した番組の番組IDと、(「検索」ボタン等の「推薦処理の最初のトリガとなるユーザの入力」を受け付けたときに)視聴中であった元番組の番組ID(元番組ID)と、視聴中であった(その元番組における)シーンが、その元番組中で何番目のシーンかを示すインデクス(元シーンindex)と、視聴中であったシーンのP特徴キーワードとN特徴キーワードとG特徴キーワードと、録画理由情報(本例では、拡張キーワード、評価値、投稿日時)とを対応付けて記録したシーン予約リストを、シーン予約リスト蓄積部21に蓄積する。なお、シーン予約リストには、他の情報も格納して構わない。例えば、録画予約した時刻、或いは、元番組のシーンを選択した時刻などを含めても良い。   In the example of FIG. 15, when a recording reservation program is designated by the user, the program ID of the program reserved for recording and “user input as a first trigger for recommendation processing” such as a “search” button are accepted. (Sometimes) the program ID (original program ID) of the original program that was being viewed, and an index (original scene) that indicates the number of scenes in the original program that were being viewed (in the original program) index), the P feature keyword, the N feature keyword, the G feature keyword of the scene being viewed, and the recording reason information (in this example, the extended keyword, the evaluation value, the posting date and time) and recorded in association with each other The list is stored in the scene reservation list storage unit 21. Note that other information may be stored in the scene reservation list. For example, the recording reservation time or the time when the scene of the original program is selected may be included.

なお、図15の例の場合に、本実施形態のシーン予約リストを既存の録画予約リストと一体化して構成するときは、従来の方法で録画予約された番組については、元番組ID以降の項目を空欄にすれば良い。   In the case of the example of FIG. 15, when the scene reservation list of the present embodiment is integrated with the existing recording reservation list, the items after the original program ID are recorded for the programs reserved for recording by the conventional method. Should be left blank.

前述したように、録画処理部(図示せず)は、シーン予約リストの情報をもとに、番組の録画を行って映像蓄積部22に蓄積する。   As described above, a recording processing unit (not shown) records a program based on the information in the scene reservation list and stores it in the video storage unit 22.

さて、ここで、番組録画時の処理に戻って説明する。   Now, let us return to the processing at the time of program recording.

既に説明したように、番組の録画時には、当該番組について、シーン分割及び特徴抽出(番組特徴抽出及びシーン特徴抽出)を行い、図7や図9のように、番組情報の各項目に情報が記録される。   As already described, when a program is recorded, scene division and feature extraction (program feature extraction and scene feature extraction) are performed for the program, and information is recorded in each item of program information as shown in FIGS. Is done.

ところで、図7や図9の例では、「録画理由」の項目は、空欄であったが、上記のようにして元番組から推薦されて予約録画された番組については、「録画理由」の項目に情報が格納される。   By the way, in the examples of FIGS. 7 and 9, the item “Reason for recording” is blank, but the item “Reason for recording” is reserved for the program recommended and recorded from the original program as described above. Information is stored.

その際、当該番組について、シーン予約リスト蓄積部21中のP/N/G特徴キーワード及び録画理由情報(本例では、拡張キーワード、評価値、投稿日時)を参照し、各シーンのクローズドキャプションにP特徴キーワード、N特徴キーワード、G特徴キーワード、録画理由情報の拡張キーワードが含まれていないかをチェックする。もし含まれている場合は、映像情報蓄積部23の当該番組の当該シーンの情報中の「録画理由」の項目に、P/N/G特徴キーワード及び録画理由情報(本例では、拡張キーワード、評価値、投稿日時)の全部又は一部を格納する。   At that time, the P / N / G feature keyword and recording reason information (in this example, extended keyword, evaluation value, and posting date / time) in the scene reservation list storage unit 21 are referred to for the program, and closed captions for each scene are used. It is checked whether the P feature keyword, the N feature keyword, the G feature keyword, and the extended keyword of the recording reason information are not included. If it is included, the P / N / G characteristic keyword and the recording reason information (in this example, an extended keyword, Store all or part of (evaluation value, posting date).

図16に、この処理を行った後の映像情報(「録画理由」の項目を付加された映像情報)の一例を示す。   FIG. 16 shows an example of video information after this processing (video information to which the item “recording reason” is added).

図16において、「録画理由」の中の記号は、
P:P特徴キーワード、
N:N特徴キーワード、
G:G特徴キーワード、
E:拡張キーワード、
R:拡張キーワードの評価値、
D:拡張キーワードの投稿日時
をそれぞれ示している。
In FIG. 16, the symbol in “Reason for recording”
P: P feature keyword,
N: N feature keyword,
G: G feature keyword,
E: Extended keyword,
R: Evaluation value of extended keyword,
D: Date and time of extended keyword posting
Respectively.

なお、図16では、「録画理由」を映像情報蓄積部23の中に直接格納しているが、別テーブルで「録画理由」を保持しておき、該「録画理由」へのポインタを映像情報蓄積部23に格納するようにしても良い。   In FIG. 16, “recording reason” is directly stored in the video information storage unit 23, but “recording reason” is held in a separate table and a pointer to the “recording reason” is set as video information. You may make it store in the accumulation | storage part 23. FIG.

ところで、シーン分割部16は、上記の「録画理由」を用いて、その挙動を変更しても良い。例えば、シーン分割を行う際に文字情報を利用するのであれば、語彙の比較時に「録画理由」内のキーワードの重みを加重する等の変更が考えられる。   By the way, the scene dividing unit 16 may change the behavior by using the above “recording reason”. For example, if character information is used when performing scene division, a change such as weighting the keyword weight in the “recording reason” at the time of vocabulary comparison can be considered.

以下では、録画済み番組の提示、選択、表示等について説明する。   Hereinafter, presentation, selection, display, etc. of recorded programs will be described.

録画済番組指定部14は、番組の録画後、ユーザが録画済み番組を選択するための画面(録画済み番組一覧画面)を生成する。   The recorded program specifying unit 14 generates a screen (recorded program list screen) for the user to select a recorded program after recording the program.

録画済み番組のリストは、シーン予約リストから得られる。   A list of recorded programs is obtained from the scene reservation list.

図17に、録画済み番組一覧画面(と、シーン一覧の拡大図)の一例を示す。この例では、各番組のサムネイル、タイトル、放送日時を表示している。   FIG. 17 shows an example of a recorded program list screen (and an enlarged view of a scene list). In this example, the thumbnail, title, and broadcast date and time of each program are displayed.

録画予約時に録画理由情報を指定した番組については、その旨がユーザに分るような形態で表示するのが望ましい。例えば、その番組のサムネイル上に“特定の印(例えば、星型のマーク)(図17の141参照)”を付して提示するようにしても良い。これにより、ユーザは何か視聴したい理由があってその番組を録画したということを直ぐに知ることができる。   It is desirable to display the program for which the recording reason information is specified at the time of recording reservation so that the user can know that fact. For example, a “specific mark (for example, a star-shaped mark) (see 141 in FIG. 17)” may be added and presented on the thumbnail of the program. As a result, the user can immediately know that there is a reason for viewing the program and the program has been recorded.

なお、録画番組が一覧画面に表示しきれない場合には、従来のようにスクロールできるようにすれば良い。また、サムネイル形式による表示と、リスト形式による表示とをユーザが適宜切り替えることが出来るようにしても良い。   If the recorded program cannot be displayed on the list screen, it can be scrolled as in the prior art. Further, the user may be able to appropriately switch between the display in the thumbnail format and the display in the list format.

ここで、図17の録画済み番組一覧画面において、録画済み番組のうち、「録画予約時に録画理由情報を指定した番組」がユーザにより選択され或いはその番組にカーソルを合わせた状態にされると、その番組のシーン一覧とともに、録画理由や属性情報を表示する。   Here, in the recorded program list screen of FIG. 17, among the recorded programs, “program for which recording reason information was specified at the time of recording reservation” is selected by the user or the cursor is put on the program. The recording reason and attribute information are displayed together with the scene list of the program.

図18は、星型のマーク付きで表示されている録画番組「シロクマ人工飼育」にカーソルが合わされた状態で、番組「シロクマ人工飼育」のシーン一覧が、タイムラインの形で表示されている場合を例示している(図18の142参照)。この例において、タイムラインの各マスはシーンの長さを表しており、その内部にシーンの代表サムネイルやシーンのラベルを表示する。また、この際、ユーザが指定した録画理由情報(この例の場合、拡張キーワードである「砥部動物園」やその属性の情報)を一緒に提示する。なお、元番組で選択されたシーンのP特徴キーワード(この例の場合、「シロクマ」)等の情報を併せて提示するようにしても良い。また、録画理由情報が得られる契機となった「検索」ボタン等によるトリガが入力されたときに再生されていた元番組の番組名や、そのシーンのラベルの情報(この例の場合、番組名「どうぶつ紀行」やシーンラベル「シロクマの子育て」)、或いは、予約日時等を併せて表示するようにしても良い。   FIG. 18 shows a case where the scene list of the program “Polar bear artificial breeding” is displayed in the form of a timeline in a state where the cursor is placed on the recorded program “Polar bear artificial breeding” displayed with a star-shaped mark. (See 142 in FIG. 18). In this example, each square on the timeline represents the length of the scene, and a representative thumbnail of the scene and a label of the scene are displayed therein. At this time, the recording reason information designated by the user (in this case, the extended keyword “Tobe Zoo” and information on its attributes) is presented together. It should be noted that information such as the P feature keyword (in this example, “polar bear”) of the scene selected in the original program may be presented together. In addition, the program name of the original program that was played when the trigger by the “Search” button or the like that triggered the recording reason information was input, and the label information of the scene (in this case, the program name It may also be displayed together with “Animal Travel”, scene label “Polar Bear Raising”), or reservation date and time.

これは、例えば以下のように処理することで実現することができる。   This can be realized by, for example, processing as follows.

録画済番組指定部14は、録画済み番組一覧画面において例えばユーザが或る録画番組のサムネイル上にカーソルを移動するなどした際に、映像情報蓄積部23から当該番組の情報を取得する。   The recorded program specifying unit 14 acquires information on the program from the video information storage unit 23 when the user moves the cursor over a thumbnail of a recorded program on the recorded program list screen, for example.

録画済み番組一覧画面において、選択された番組のシーン一覧として、シーン分割の結果とシーンラベルを表示する。その際、シーン情報に録画理由が格納されているシーンは、強調して表示する(図18の例では、反転表示している様子を表している)。   On the recorded program list screen, a scene division result and a scene label are displayed as a scene list of the selected program. At that time, the scene in which the reason for recording is stored in the scene information is displayed with emphasis (in the example of FIG. 18, the scene is displayed in reverse video).

また、ラベルテキスト中にP/N/G特徴キーワードが出現している場合には、テキストを強調して表示する(図18の例では、「北極」と「アザラシ」を太字で表示している様子を表している)。   Further, when a P / N / G feature keyword appears in the label text, the text is highlighted and displayed (in the example of FIG. 18, “North Pole” and “Sealing” are displayed in bold type. Represents the situation).

更に、シーン一覧の下部に、予約日時として元番組の情報と、録画理由情報である拡張キーワード、評価値、投稿日時の情報を提示する。   Furthermore, information on the original program as the reserved date and time, information on the extended keyword, evaluation value, and posting date and time as recording reason information are presented at the bottom of the scene list.

なお、元番組の番組IDはシーン予約リストから取得できるため、この番組IDをもとに映像情報蓄積部23から当該番組の情報を取得すれば良い。   Since the program ID of the original program can be acquired from the scene reservation list, information on the program may be acquired from the video information storage unit 23 based on the program ID.

図18の例では、元番組「どうぶつ紀行」のあるシーンでP特徴キーワード「シロクマ」が抽出され、それをもとに録画理由情報を生成した結果、ユーザが「砥部動物園(評価値4.8, 投稿日時2.5か月前)」という録画理由情報を選択したという場合を例示している。   In the example of FIG. 18, the P feature keyword “Polar bear” is extracted in a scene with the original program “Animal Travel”, and the recording reason information is generated based on the P feature keyword “Polar Bear”. , Posting date and time 2.5 months ago) ”is illustrated.

次に、図18に例示したシーン一覧においてユーザが所望するシーンにカーソル(図18の143参照)を合わせてアクションをすると、録画済番組指定部14は、シーンメニューを表示する。   Next, when the user moves the cursor (see 143 in FIG. 18) to a scene desired by the user in the scene list illustrated in FIG. 18, the recorded program designation unit 14 displays a scene menu.

図19(a)に、録画済み番組のシーンを1つ選んだ状態で提示されるシーンメニューの一例を示す。なお、図19(b)〜(d)のシーンメニューにおいて、「ここから再生」「はじめから再生」「録画元番組の関連シーンを再生」の各項目がそれぞれ選択された様子をそれぞれ例示する。   FIG. 19A shows an example of a scene menu presented in a state where one scene of a recorded program is selected. It should be noted that, in the scene menu of FIGS. 19B to 19D, a state where each item of “play from here”, “play from the beginning”, and “play related scenes of the recording source program” is selected is illustrated.

「ここから再生」が選ばれたら、カーソルのあるシーンの最初から再生する。   If “Play from here” is selected, playback starts from the beginning of the scene where the cursor is.

「はじめから再生」が選ばれたら、その番組を最初から再生する。   If “Play from the beginning” is selected, the program is played from the beginning.

「録画元番組の関連シーンを再生」が選ばれたら、シーン予約リスト蓄積部21を参照して元番組IDのシーンから元シーンindexのシーンを再生すれば良い。   When “Play related scene of recording source program” is selected, the scene reservation list storage unit 21 is referred to and the scene of the original scene index is reproduced from the scene of the original program ID.

以上のように、本実施形態によれば、シーン分割した後、ネット動画に基づいて拡張されたキーワードで番組推薦されるため、今見ているシーンに関連しつつも幅広い番組の推薦が可能になる。   As described above, according to the present embodiment, after the scene is divided, the program is recommended with the extended keyword based on the net moving image, so that it is possible to recommend a wide range of programs while being related to the scene currently being viewed. .

また、拡張キーワードには、評価値等の属性が付与されているため、ユーザはどの拡張キーワードを選択すれば良いかの判断が容易になる。   Further, since an attribute such as an evaluation value is assigned to the extended keyword, the user can easily determine which extended keyword should be selected.

更に、ユーザは録画番組の中で、録画予約時に見たかったであろう部分を容易に見つけ、視聴することができるようになる。   In addition, the user can easily find and watch the portion of the recorded program that he / she would have wanted to see at the time of recording reservation.

なお、以上の各機能は、ソフトウェアとして記述し適当な機構をもったコンピュータに処理させても実現可能である。
また、本実施形態は、コンピュータに所定の手順を実行させるための、あるいはコンピュータを所定の手段として機能させるための、あるいはコンピュータに所定の機能を実現させるためのプログラムとして実施することもできる。加えて該プログラムを記録したコンピュータ読取り可能な記録媒体として実施することもできる。
Each of the above functions can be realized even if it is described as software and processed by a computer having an appropriate mechanism.
The present embodiment can also be implemented as a program for causing a computer to execute a predetermined procedure, causing a computer to function as a predetermined means, or causing a computer to realize a predetermined function. In addition, the present invention can be implemented as a computer-readable recording medium on which the program is recorded.

なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。   Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.

11…映像再生・シーン指定部、12…録画理由情報指定部、13…録画予約番組指定部、14…録画済番組指定部、15…番組特徴抽出部、16…シーン分割部、17…シーン特徴抽出部、18…視聴シーン情報取得部、19…録画理由情報取得部、20…番組検索部、21…シーン予約リスト蓄積部、22…映像蓄積部、23…映像情報蓄積部   DESCRIPTION OF SYMBOLS 11 ... Video reproduction / scene designation | designated part, 12 ... Recording reason information designation part, 13 ... Recording reservation program designation part, 14 ... Recorded program designation part, 15 ... Program feature extraction part, 16 ... Scene division part, 17 ... Scene feature Extraction unit, 18 ... viewing scene information acquisition unit, 19 ... recording reason information acquisition unit, 20 ... program search unit, 21 ... scene reservation list storage unit, 22 ... video storage unit, 23 ... video information storage unit

Claims (9)

予約録画されたコンテンツの各々について、当該コンテンツの内容に関係する情報を含むメタデータと、当該コンテンツを特徴付ける第1の特徴キーワードと、当該コンテンツを構成する複数のシーンに関する情報と、各々のシーンを特徴付ける第2の特徴キーワードと、当該コンテンツが録画予約された理由とを含むコンテンツ情報を記憶する第1の記憶部と、
再生中のコンテンツを構成するシーンのうちから、特定のシーンが選択された場合に、前記第1の記憶部に記憶されている当該再生中のコンテンツに係る前記コンテンツ情報から、当該特定のシーンに関係する第3の特徴キーワードを取得する第1の取得部と、
前記第3の特徴キーワードを利用して取得された複数のネット動画に関する情報をもとに、前記第3の特徴キーワードを拡張した拡張キーワードを取得するとともに、該拡張キーワードの属性として少なくとも該ネット動画に対する評価値を取得する第2の取得部と、
取得された前記拡張キーワードの一覧を提示するとともに、提示した任意の拡張キーワードに対するユーザ選択を受け付ける第1の選択部と、
前記ユーザ選択された拡張キーワードを利用して取得された録画予約可能なコンテンツを推薦するための一覧を提示するとともに、提示した任意のコンテンツに対するユーザ選択を受け付ける第2の選択部と、
前記ユーザ選択されたコンテンツを録画予約するための情報を登録した予約リストを記憶する第2の記憶部と、
前記予約リストに基づいて録画済となったコンテンツについて、前記コンテンツ情報を利用して、当該コンテンツのシーンに関する提示と、少なくとも前記拡張キーワード及びその属性を含む前記録画予約された理由に関する提示とを行う提示部とを備えたことを特徴とするコンテンツ推薦装置。
For each reservation-recorded content, metadata including information related to the content, a first feature keyword that characterizes the content, information about a plurality of scenes that constitute the content, and each scene A first storage unit for storing content information including a second characteristic keyword to be characterized and a reason why the content is reserved for recording;
When a specific scene is selected from the scenes constituting the content being played back, the content information related to the content being played back stored in the first storage unit is changed to the specific scene. A first acquisition unit for acquiring related third feature keywords;
Based on information about a plurality of net moving images acquired using the third characteristic keyword, an extended keyword obtained by extending the third characteristic keyword is acquired, and at least the net moving image is used as an attribute of the extended keyword. A second acquisition unit for acquiring an evaluation value for
A first selection unit that presents a list of the acquired extended keywords and accepts a user selection for any of the presented extended keywords;
A second selection unit for presenting a list for recommending content that can be reserved for recording acquired using the user-selected extended keyword, and accepting user selection for any presented content;
A second storage unit for storing a reservation list in which information for recording reservation of the user-selected content is registered;
For the content that has been recorded based on the reservation list, the content information is used to present the scene of the content and the reason for the recording reservation including at least the extended keyword and its attribute. A content recommendation device comprising a presentation unit.
前記コンテンツの録画時に、前記コンテンツに関するメタデータから前記第1の特徴キーワードを抽出する第1の抽出部と、
前記コンテンツの録画時に、前記コンテンツ情報に含まれる前記シーンに関するデータを生成するために、前記コンテンツを分割する分割部と、
前記分割部により分割された前記コンテンツの各々のシーンについて、当該シーンに関係するメタデータから、前記第2の特徴キーワードを抽出する第2の抽出部とを更に備えたことを特徴とする請求項1に記載のコンテンツ推薦装置。
A first extraction unit that extracts the first feature keyword from metadata about the content at the time of recording the content;
A division unit for dividing the content in order to generate data relating to the scene included in the content information at the time of recording the content;
2. The method according to claim 1, further comprising: a second extraction unit that extracts the second feature keyword for each scene of the content divided by the division unit from metadata related to the scene. The content recommendation device according to 1.
前記予約リストには、録画予約された各々の前記コンテンツについて、当該コンテンツを推薦するもととなった、前記再生中であったコンテンツに係る前記特徴キーワード並びに前記拡張キーワード及びその属性も登録され、前記コンテンツ情報に含まれる当該コンテンツに対応する前記録画予約された理由は、前記予約リストに当該コンテンツに対応して登録されている前記特徴キーワード並びに前記拡張キーワード及びその属性を用いて、当該コンテンツの録画時に記憶されることを特徴とする請求項1に記載のコンテンツ推薦装置。   In the reservation list, for each of the contents reserved for recording, the feature keyword and the extended keyword and the attribute thereof related to the content being played back, which is the basis for recommending the content, are also registered. The reason for the recording reservation corresponding to the content included in the content information is that the feature keyword registered in the reservation list corresponding to the content and the extended keyword and its attribute are used. The content recommendation device according to claim 1, wherein the content recommendation device is stored at the time of recording. 前記予約リストには、録画予約された各々の前記コンテンツについて、当該コンテンツを推薦するもととなった、前記再生中であったコンテンツ及びシーンに関する情報も登録され、
前記提示部は、前記録画済となったコンテンツについて、当該コンテンツを推薦するもととなった、前記再生中であったコンテンツ及びシーンに関する情報も提示することを特徴とする請求項1に記載のコンテンツ推薦装置。
In the reservation list, for each of the contents reserved for recording, information related to the content and scene that was being reproduced and from which the content was recommended is also registered,
The said presentation part also presents the information regarding the content and the scene which were being reproduced and became the basis for recommending the content for the recorded content. Content recommendation device.
前記再生中のコンテンツの前記特定のシーンに関係する第3の特徴キーワードは、少なくとも当該特定のシーンに係る1又は複数の第2の特徴キーワードであり、
前記ネット動画は、前記第2の特徴キーワードをクエリとして取得されることを特徴とする請求項1に記載のコンテンツ推薦装置。
The third characteristic keyword related to the specific scene of the content being reproduced is at least one or a plurality of second characteristic keywords related to the specific scene,
The content recommendation apparatus according to claim 1, wherein the net moving image is acquired using the second characteristic keyword as a query.
前記再生中のコンテンツの前記特定のシーンに関係する第3の特徴キーワードには、更に、当該コンテンツに係る1又は複数の第1の特徴キーワード、及び又は、前記再生中のコンテンツの前記特定のシーン以外の所定のシーンに係る1又は複数の第2の特徴キーワードが含まれ、
前記ネット動画は、前記コンテンツに係る前記第1の特徴キーワードについてはANDクエリとし、前記特定のシーン以外の所定のシーンに係る前記第2の特徴キーワードについてはNOTクエリとして取得されることを特徴とする請求項1に記載のコンテンツ推薦装置。
The third feature keyword related to the specific scene of the content being played back further includes one or more first feature keywords related to the content and / or the specific scene of the content being played back Including one or more second feature keywords related to a predetermined scene other than
The net moving image is acquired as an AND query for the first feature keyword related to the content, and as a NOT query for the second feature keyword related to a predetermined scene other than the specific scene. The content recommendation device according to claim 1.
取得される前記複数のネット動画に関する情報には、各々のネット動画に対する評価値が含まれ、
前記拡張キーワードの属性としての前記評価値は、当該拡張キーワードを取得するもととなった前記複数のネット動画に関する情報のうちで、当該拡張キーワードを含むものに含まれる評価値に対して所定の統計処理を行った得られた値であることを特徴とする請求項1に記載のコンテンツ推薦装置。
The acquired information about the plurality of net videos includes an evaluation value for each net video,
The evaluation value as an attribute of the extended keyword is a predetermined value for an evaluation value included in the information about the plurality of net moving images from which the extended keyword is acquired, including the extended keyword. The content recommendation device according to claim 1, wherein the content recommendation device is a value obtained by performing statistical processing.
取得される前記複数のネット動画に関する情報には、各々のネット動画に対する投稿日時も含まれ、
前記第2の取得部は、前記拡張キーワードの属性として前記ネット動画に対する投稿日時も取得することを特徴とする請求項1に記載のコンテンツ推薦装置。
The acquired information about the plurality of net videos includes the posting date and time for each net video,
The content recommendation apparatus according to claim 1, wherein the second acquisition unit also acquires a posting date and time for the net moving image as an attribute of the extended keyword.
コンテンツ推薦装置のコンテンツ推薦方法であって、
前記コンテンツ推薦装置の備える第1の記憶部が、予約録画されたコンテンツの各々について、当該コンテンツの内容に関係する情報を含むメタデータと、当該コンテンツを特徴付ける第1の特徴キーワードと、当該コンテンツを構成する複数のシーンに関する情報と、各々のシーンを特徴付ける第2の特徴キーワードと、当該コンテンツが録画予約された理由とを含むコンテンツ情報を記憶するステップと、
前記コンテンツ推薦装置の備える第1の取得部が、再生中のコンテンツを構成するシーンのうちから、特定のシーンが選択された場合に、前記第1の記憶部に記憶されている当該再生中のコンテンツに係る前記コンテンツ情報から、当該特定のシーンに関係する第3の特徴キーワードを取得するステップと、
前記コンテンツ推薦装置の備える第2の取得部が、前記第3の特徴キーワードを利用して取得された複数のネット動画に関する情報をもとに、前記第3の特徴キーワードを拡張した拡張キーワードを取得するとともに、該拡張キーワードの属性として少なくとも該ネット動画に対する評価値を取得するステップと、
前記コンテンツ推薦装置の備える第1の選択部が、取得された前記拡張キーワードの一覧を提示するとともに、提示した任意の拡張キーワードに対するユーザ選択を受け付けるステップと、
前記コンテンツ推薦装置の備える第2の選択部が、前記ユーザ選択された拡張キーワードを利用して取得された録画予約可能なコンテンツを推薦するための一覧を提示するとともに、提示した任意のコンテンツに対するユーザ選択を受け付けるステップと、
前記ユーザ選択されたコンテンツを録画予約するための情報を登録した予約リストを記憶するステップと、
前記予約リストに基づいて録画済となったコンテンツについて、前記コンテンツ情報を利用して、当該コンテンツのシーンに関する提示と、少なくとも前記拡張キーワード及びその属性を含む前記録画予約された理由に関する提示とを行うステップとを有することを特徴とするコンテンツ推薦方法。
A content recommendation method for a content recommendation device,
A first storage unit included in the content recommendation device includes, for each reservation-recorded content, metadata including information relating to the content of the content, a first feature keyword that characterizes the content, and the content. Storing content information including information on a plurality of scenes constituting, a second feature keyword characterizing each scene, and a reason why the content is reserved for recording;
When the first acquisition unit included in the content recommendation device selects a specific scene from the scenes constituting the content being played back, the currently playing back stored in the first storage unit Obtaining a third feature keyword related to the specific scene from the content information related to the content;
A second acquisition unit included in the content recommendation device acquires an extended keyword obtained by extending the third feature keyword based on information about a plurality of net moving images acquired using the third feature keyword. And at least obtaining an evaluation value for the net video as an attribute of the extended keyword;
A first selection unit provided in the content recommendation device presents a list of the acquired extended keywords and accepts a user selection for any extended keyword presented;
The second selection unit included in the content recommendation device presents a list for recommending content that can be reserved for recording acquired using the extended keyword selected by the user, and a user for any presented content Accepting a selection;
Storing a reservation list in which information for recording reservation of the user-selected content is registered;
For the content that has been recorded based on the reservation list, the content information is used to present the scene of the content and the reason for the recording reservation including at least the extended keyword and its attribute. And a content recommendation method.
JP2009066639A 2009-03-18 2009-03-18 Content recommendation device and content recommendation method Active JP5106455B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009066639A JP5106455B2 (en) 2009-03-18 2009-03-18 Content recommendation device and content recommendation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009066639A JP5106455B2 (en) 2009-03-18 2009-03-18 Content recommendation device and content recommendation method

Publications (2)

Publication Number Publication Date
JP2010220065A JP2010220065A (en) 2010-09-30
JP5106455B2 true JP5106455B2 (en) 2012-12-26

Family

ID=42978387

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009066639A Active JP5106455B2 (en) 2009-03-18 2009-03-18 Content recommendation device and content recommendation method

Country Status (1)

Country Link
JP (1) JP5106455B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7294541B2 (en) 2020-07-28 2023-06-20 日産自動車株式会社 Boost pressure control method and boost pressure control device for internal combustion engine

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001027625A (en) * 1999-07-15 2001-01-30 Hitachi Ltd Integrated element device
JP5750876B2 (en) * 2010-12-07 2015-07-22 富士通株式会社 Information providing apparatus, information providing method, and program
JP2012155695A (en) * 2011-01-07 2012-08-16 Kddi Corp Program for imparting keyword tag to scene of interest in motion picture contents, terminal, server, and method
JP5627030B2 (en) * 2012-02-13 2014-11-19 日本電信電話株式会社 Related information providing method, related information providing apparatus, and related information providing program
JP6246520B2 (en) * 2012-10-12 2017-12-13 シャープ株式会社 Recording / playback apparatus and recording / playback method
JP6767808B2 (en) * 2016-08-25 2020-10-14 日本テレビ放送網株式会社 Viewing user log storage system, viewing user log storage server, and viewing user log storage method
CN109214374B (en) * 2018-11-06 2020-12-18 北京达佳互联信息技术有限公司 Video classification method, device, server and computer-readable storage medium
JP6669952B1 (en) * 2018-11-12 2020-03-18 株式会社日本経済新聞社 Tagging apparatus, method, and program for video
CN111612588B (en) * 2020-05-27 2023-12-26 腾讯科技(深圳)有限公司 Commodity presenting method and device, computing equipment and computer readable storage medium
JP7158666B2 (en) * 2020-12-10 2022-10-24 インフォームシステム株式会社 Video viewing providing device, video viewing providing method, and video viewing providing program
CN117093745A (en) * 2022-05-12 2023-11-21 北京字跳网络技术有限公司 Video record display method, apparatus, electronic device, medium and program product

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3654173B2 (en) * 2000-11-02 2005-06-02 日本電気株式会社 PROGRAM SELECTION SUPPORT DEVICE, PROGRAM SELECTION SUPPORT METHOD, AND RECORDING MEDIUM CONTAINING THE PROGRAM
JP2006048202A (en) * 2004-08-02 2006-02-16 Pioneer Electronic Corp Information acquisition device, method, and program
JP4247638B2 (en) * 2006-04-06 2009-04-02 ソニー株式会社 Recording / reproducing apparatus and recording / reproducing method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7294541B2 (en) 2020-07-28 2023-06-20 日産自動車株式会社 Boost pressure control method and boost pressure control device for internal combustion engine

Also Published As

Publication number Publication date
JP2010220065A (en) 2010-09-30

Similar Documents

Publication Publication Date Title
JP5106455B2 (en) Content recommendation device and content recommendation method
JP6342951B2 (en) Annotate video interval
JP4910582B2 (en) Information processing apparatus and method, and program
US8799253B2 (en) Presenting an assembled sequence of preview videos
US10210253B2 (en) Apparatus of providing comments and statistical information for each section of video contents and the method thereof
JP4905103B2 (en) Movie playback device
KR101382499B1 (en) Method for tagging video and apparatus for video player using the same
CN100429933C (en) Navigation process displaying a mobile window, viewing apparatus implementing the process
US20080059526A1 (en) Playback apparatus, searching method, and program
US20070244902A1 (en) Internet search-based television
JP5225037B2 (en) Program information display apparatus and method
JP2005348055A (en) Device, method for editing user profile and program
JPWO2006019101A1 (en) Content-related information acquisition device, content-related information acquisition method, and content-related information acquisition program
US20110106809A1 (en) Information presentation apparatus and mobile terminal
CN113841418A (en) Dynamic video highlights
JP2007150723A (en) Video viewing support system and method
JP4487018B2 (en) Related scene assigning apparatus and related scene assigning method
US20120066235A1 (en) Content processing device
CN101431645B (en) Video reproducer and video reproduction method
US20060085416A1 (en) Information reading method and information reading device
JP2008242838A (en) Description expression adding apparatus, program and description expression adding method
JP6150780B2 (en) Information processing apparatus, information processing method, and program
JP6029530B2 (en) Information processing apparatus and information processing method
JP2016025570A (en) Information processor, information processing method and program
KR20120128157A (en) Chapter creation device, chapter creation method, and chapter creation program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110916

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120828

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120904

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121002

R151 Written notification of patent or utility model registration

Ref document number: 5106455

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151012

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313121

Free format text: JAPANESE INTERMEDIATE CODE: R313115

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250