JP5627030B2 - Related information providing method, related information providing apparatus, and related information providing program - Google Patents

Related information providing method, related information providing apparatus, and related information providing program Download PDF

Info

Publication number
JP5627030B2
JP5627030B2 JP2012028060A JP2012028060A JP5627030B2 JP 5627030 B2 JP5627030 B2 JP 5627030B2 JP 2012028060 A JP2012028060 A JP 2012028060A JP 2012028060 A JP2012028060 A JP 2012028060A JP 5627030 B2 JP5627030 B2 JP 5627030B2
Authority
JP
Japan
Prior art keywords
keyword
related information
video data
data
identifier
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012028060A
Other languages
Japanese (ja)
Other versions
JP2013164770A (en
Inventor
佳林 前橋
佳林 前橋
壮 日比野
壮 日比野
小野 朗
朗 小野
丈二 中山
丈二 中山
知之 兼清
知之 兼清
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2012028060A priority Critical patent/JP5627030B2/en
Publication of JP2013164770A publication Critical patent/JP2013164770A/en
Application granted granted Critical
Publication of JP5627030B2 publication Critical patent/JP5627030B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、映像データの関連情報を提供する関連情報提供方法、関連情報提供装置および関連情報提供プログラムに関する。   The present invention relates to a related information providing method, related information providing apparatus, and related information providing program for providing related information of video data.

情報機器や通信ネットワークの発達に伴い、ユーザは、映像データを閲覧する機会が増えている。また、映像データを閲覧する際、映像内容に興味を持ち、登場人物や紹介されたトピックなどの、映像データに関連する情報を、コンピュータや通信ネットワークを介して取得する機会が増えている。   With the development of information devices and communication networks, users have increased opportunities to browse video data. In addition, when browsing video data, there is an increasing opportunity to acquire information related to video data, such as characters and introduced topics, who are interested in video content via a computer or a communication network.

このようなユーザのニーズに応えるため、デジタル放送は、データ放送として番組の放送中に番組の関連情報を提供する。また、放送終了後にも関連情報の閲覧を希望するユーザのため、同様に関連情報を提供する。   In order to meet such user needs, digital broadcasting provides related information of programs as data broadcasting during the broadcasting of the programs. Also, related information is provided in the same manner for users who wish to view related information even after the broadcast ends.

ここで、放送に多重化されたデータ信号を用いることにより、所定のタイミングにおける関連情報の取得を可能とする方法がある(例えば、特許文献1参照。)。特許文献1に記載の方法では、画像フレーム識別子または音声フレーム識別子を、データ信号として映像データに重畳する。ユーザは所望のタイミングにおける画像フレーム識別子または音声フレーム識別子を用いて、関連情報を取得することができる。   Here, there is a method that enables acquisition of related information at a predetermined timing by using a data signal multiplexed in broadcasting (see, for example, Patent Document 1). In the method described in Patent Document 1, an image frame identifier or an audio frame identifier is superimposed on video data as a data signal. The user can acquire the related information using the image frame identifier or the audio frame identifier at a desired timing.

特許第4494389号公報Japanese Patent No. 4494389

しかしながら、特許文献1に記載の方法は、デジタル放送の際、関連情報が存在することを示す画像フレーム識別子または音声フレーム識別子などのデータ信号をあらかじめ作成し、データ放送の信号内で定義する必要がある。また関連情報が存在することを示す画像フレーム識別子または音声フレーム識別子を、放送事業者が関連情報コンテンツ提供サーバに提供し、関連情報コンテンツ提供サーバが、このタイミングにおける関連情報をあらかじめ定義する必要がある。   However, in the method described in Patent Document 1, it is necessary to create in advance a data signal such as an image frame identifier or an audio frame identifier indicating that related information exists during digital broadcasting, and define it in the signal of the data broadcasting. is there. In addition, a broadcaster provides an image frame identifier or an audio frame identifier indicating that related information exists to the related information content providing server, and the related information content providing server needs to define related information at this timing in advance. .

このように従来の方法では、サービス事業者が放送前にあらかじめ準備する必要があり、サービス事業者に負担を強いるものであった。   As described above, in the conventional method, it is necessary for the service provider to prepare in advance before broadcasting, which places a burden on the service provider.

従って本発明の目的は、映像データの所定のタイミングの関連情報を容易に提供する関連情報提供方法、関連情報提供装置および関連情報提供プログラムを提供することである。   Accordingly, an object of the present invention is to provide a related information providing method, a related information providing apparatus, and a related information providing program for easily providing related information at a predetermined timing of video data.

上記課題を解決するために、本発明の第1の特徴は、映像データの関連情報を提供する関連情報提供方法に関する。即ち本発明の第1の特徴に係る関連情報提供方法は、関連情報提供装置が、ユーザ端末から、映像データの識別子および再生時間を含み、当該再生時間における映像の関連情報の要求を受信する関連情報要求検出ステップと、関連情報提供装置が、映像データから、要求に含まれる映像データの識別子および再生時間に対応するテキストデータを取得し、取得したテキストデータに含まれる固有名詞を、当該映像データの当該再生時間のキーワードとして抽出するテキスト情報分析ステップと、関連情報提供装置が、映像データの識別子および再生時間と、テキスト情報分析ステップにおいて抽出したキーワードとを対応づけるとともに、この対応づけを識別するキーワード対応の識別子を付して、キーワードデータに記憶するキーワード更新ステップと、関連情報提供装置が、キーワードデータから、関連情報要求検出ステップにおいて受信した映像データの識別子および再生時間に対応するキーワード対応の識別子およびキーワードを取得するキーワード選択ステップと、関連情報提供装置が、キーワード選択ステップにおいて選択されたキーワードに関連する関連情報を、ユーザ端末に出力する関連情報出力ステップと、を備える。 In order to solve the above problem, a first feature of the present invention relates to a related information providing method for providing related information of video data. That is, in the related information providing method according to the first aspect of the present invention, the related information providing apparatus receives a request for related information of a video including the identifier of video data and a playback time from the user terminal, and the video information at the playback time. The information request detecting step and the related information providing device acquire text data corresponding to the identifier and playback time of the video data included in the request from the video data, and the proper noun included in the acquired text data is determined as the video data. The text information analysis step that is extracted as a keyword of the reproduction time of the video information , and the related information providing apparatus associates the identifier and the reproduction time of the video data with the keyword extracted in the text information analysis step, and identifies this correspondence. Add keyword identifiers and store keyword updates stored in keyword data. A step, related information providing apparatus, the keyword data, and a keyword selection step of obtaining a keyword corresponding identifier and the keyword corresponding to the identifier and the reproduction time of the video data received in the context information request detection step, related information providing apparatus And a related information output step of outputting related information related to the keyword selected in the keyword selecting step to the user terminal.

ここで、関連情報提供装置が、要求に含まれる映像データの識別子および再生時間に対応する部分映像データを取得し、当該部分映像データにおいて人物が撮像された部分の特徴量と、人物名と、当該人物の画像の特徴量とを対応づけた人物特徴データの特徴量とを比較して、当該部分映像データに含まれる人物名を当該映像データの当該再生時間のキーワードとして抽出する映像情報分析ステップをさらに備えても良い。この場合キーワード更新ステップはさらに、キーワード対応の識別子と、映像データの識別子と、当該映像データの再生時間と、映像情報分析ステップにおいて抽出したキーワードとを対応づけて、キーワードデータに記憶する。

Here, the related information providing device acquires partial video data corresponding to the identifier and playback time of the video data included in the request, and the feature amount of the part where the person is imaged in the partial video data, the person name, A video information analysis step of comparing the feature quantity of the person feature data associated with the feature quantity of the person's image and extracting the person name included in the partial video data as a keyword of the playback time of the video data May be further provided. In this case, the keyword update step further associates the identifier corresponding to the keyword, the identifier of the video data, the reproduction time of the video data, and the keyword extracted in the video information analysis step, and stores them in the keyword data.

また、キーワード更新ステップは、キーワード対応の識別子に、当該映像データの当該再生時間における当該キーワードの適合度をさらに対応づけてキーワードデータに記憶しても良い。この場合、関連情報出力ステップは、キーワード選択ステップにおいて選択されたキーワードに関連する関連情報を、キーワード対応の識別子に対応づけてユーザ端末に出力し、ユーザ端末において当該関連情報が選択されると、キーワードデータの当該キーワード対応の識別子に対応する適合度を上げる更新をするとともに、キーワードデータにおいて、映像データの識別子および再生時間に複数のキーワードが対応づけられている場合、複数のキーワードのうち適合度の高いキーワードに関連する関連情報を優先的に出力する。   In the keyword update step, the keyword-corresponding identifier may be further associated with the degree of matching of the keyword at the reproduction time of the video data and stored in the keyword data. In this case, the related information output step outputs the related information related to the keyword selected in the keyword selection step to the user terminal in association with the keyword corresponding identifier, and when the related information is selected in the user terminal, When the keyword data is updated to increase the fitness corresponding to the identifier corresponding to the keyword, and the keyword data has a plurality of keywords associated with the identifier of the video data and the playback time, the fitness of the keywords is Relevant information related to high keywords is output preferentially.

また、キーワード更新ステップは、キーワード対応の識別子に、映像関連性も対応づけてキーワードデータに記憶しても良い。この場合、テキスト情報分析ステップは、映像データおよび再生時間に対応するキーワードを抽出すると、抽出したキーワードが、当該映像データのシノプシス情報に含まれる場合、映像関連性が高くなるように映像関連性を設定し、関連情報出力ステップは、キーワードデータにおいて、映像データの識別子および再生時間に複数のキーワードが対応づけられている場合、複数のキーワードのうち映像関連性の高いキーワードに関連する関連情報を優先的に出力する。   In the keyword update step, the keyword correspondence identifier may be associated with the video relevance and stored in the keyword data. In this case, when the text information analysis step extracts the keywords corresponding to the video data and the playback time, if the extracted keywords are included in the synopsis information of the video data, the video relevance is increased so that the video relevance is increased. In the related information output step, when a plurality of keywords are associated with the identifier of the video data and the playback time in the keyword data, the related information related to the keyword having high video relevance among the plurality of keywords is prioritized. To output automatically.

本発明の第2の特徴は、映像データの関連情報を提供する関連情報提供装置に関する。即ち本発明の第2の特徴に係る関連情報提供装置は、ユーザ端末から、映像データの識別子および再生時間を含み、当該再生時間における映像の関連情報の要求を受信する関連情報要求検出部と、映像データから、要求に含まれる映像データの識別子および再生時間に対応するテキストデータを取得し、取得したテキストデータに含まれる固有名詞を、当該映像データの当該再生時間のキーワードとして抽出するテキスト情報分析部と、映像データの識別子および再生時間と、テキスト情報分析部が抽出したキーワードとを対応づけるとともに、この対応づけを識別するキーワード対応の識別子を付して、キーワードデータに記憶するキーワード更新部と、キーワードデータから、関連情報要求検出部が受信した映像データの識別子および再生時間に対応するキーワード対応の識別子およびキーワードを取得するキーワード選択部と、キーワード選択部によって選択されたキーワードに関連する関連情報を、ユーザ端末に出力する関連情報出力部と、を備える。   A second feature of the present invention relates to a related information providing apparatus that provides related information of video data. That is, the related information providing apparatus according to the second feature of the present invention includes a related information request detecting unit that includes a video data identifier and a playback time from a user terminal, and receives a request for video related information at the playback time; Text information analysis that acquires text data corresponding to the identifier and playback time of the video data included in the request from the video data, and extracts proper nouns included in the acquired text data as keywords of the playback time of the video data A keyword updating unit that associates the identifier, the playback time of the video data, and the keyword extracted by the text information analysis unit with a keyword correspondence identifier that identifies this association, and stores the keyword in the keyword data From the keyword data, the identifier of the video data received by the related information request detection unit and the Includes a keyword selection unit that acquires a keyword corresponding identifier and the keyword corresponding to the time, the relevant information related to the keyword selected by the keyword selection unit, the related information outputting section for outputting to the user terminal.

ここで、人物名と、当該人物の画像の特徴量とを対応づけた人物特徴データを記憶する記憶装置と、要求に含まれる映像データの識別子および再生時間に対応する部分映像データを取得し、当該部分映像データにおいて人物が撮像された部分の特徴量と、人物特徴データに記憶された特徴量とを比較して、当該部分映像データに含まれる人物名を当該映像データの当該再生時間のキーワードとして抽出する映像情報分析部をさらに備えても良い。この場合、キーワード更新部はさらに、キーワード対応の識別子と、映像データの識別子と、当該映像データの再生時間と、映像情報分析部が抽出したキーワードとを対応づけて、キーワードデータに記憶する。   Here, a storage device that stores person feature data in which a person name is associated with an image feature amount of the person, and a partial video data corresponding to an identifier and a playback time of video data included in the request are acquired, In the partial video data, the feature amount of the portion where the person is imaged is compared with the feature amount stored in the person feature data, and the person name included in the partial video data is determined as the reproduction time keyword of the video data. A video information analysis unit that extracts the information may be further provided. In this case, the keyword update unit further associates the identifier corresponding to the keyword, the identifier of the video data, the reproduction time of the video data, and the keyword extracted by the video information analysis unit, and stores them in the keyword data.

またキーワード更新部は、キーワード対応の識別子に、当該映像データの当該再生時間における当該キーワードの適合度をさらに対応づけてキーワードデータに記憶しても良い。この場合関連情報出力部は、キーワード選択部によって選択されたキーワードに関連する関連情報を、キーワード対応の識別子に対応づけてユーザ端末に出力し、ユーザ端末において当該関連情報が選択されると、キーワードデータの当該キーワード対応の識別子に対応する適合度を上げる更新をするとともに、キーワードデータにおいて、映像データの識別子および再生時間に複数のキーワードが対応づけられている場合、複数のキーワードのうち適合度の高いキーワードに関連する関連情報を優先的に出力する。   In addition, the keyword update unit may store the keyword correspondence by further matching the keyword matching identifier with the identifier corresponding to the keyword in the reproduction time of the video data. In this case, the related information output unit outputs the related information related to the keyword selected by the keyword selection unit to the user terminal in association with the keyword corresponding identifier, and when the related information is selected at the user terminal, In addition to updating to increase the fitness level corresponding to the identifier corresponding to the keyword of the data, and in the keyword data, when a plurality of keywords are associated with the identifier and playback time of the video data, Preferentially output related information related to high keywords.

本発明の第3の特徴は、コンピュータに、本発明の第1の特徴のいずれかに記載のステップを実行させるための関連情報提供プログラムに関する。   A third feature of the present invention relates to a related information providing program for causing a computer to execute the steps described in any of the first features of the present invention.

本発明によれば、映像データの所定のタイミングの関連情報を容易に提供する関連情報提供方法、関連情報提供装置および関連情報提供プログラム提供することができる。   According to the present invention, it is possible to provide a related information providing method, a related information providing apparatus, and a related information providing program that easily provide related information at a predetermined timing of video data.

本発明の実施の形態に係る関連情報提供システムのシステム構成と、関連情報提供装置の機能ブロックを説明する図である。It is a figure explaining the system configuration | structure of the related information provision system which concerns on embodiment of this invention, and the functional block of a related information provision apparatus. 本発明の実施の形態に係るキーワードデータの構造とそのデータの一例を説明する図である。It is a figure explaining the structure of the keyword data which concerns on embodiment of this invention, and an example of the data. 本発明の実施の形態に係るユーザデータの構造とそのデータの一例を説明する図である。It is a figure explaining an example of the structure of the user data which concerns on embodiment of this invention, and its data. 本発明の実施の形態に係る関連情報提供装置による関連情報提供方法を説明するフローチャートである。It is a flowchart explaining the related information provision method by the related information provision apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る関連情報提供装置の関連情報出力部による関連情報出力処理を説明するフローチャートである。It is a flowchart explaining the related information output process by the related information output part of the related information provision apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る映像メタデータの構造とそのデータの一例を説明する図である。It is a figure explaining the structure of the image | video metadata which concerns on embodiment of this invention, and an example of the data. 本発明の実施の形態に係る人物特徴データの構造とそのデータの一例を説明する図である。It is a figure explaining an example of the structure of the person characteristic data which concerns on embodiment of this invention, and its data. 本発明の実施の形態に係る関連情報提供装置の映像コンテンツ分析部による映像コンテンツ分析処理を説明するフローチャートである。It is a flowchart explaining the video content analysis process by the video content analysis part of the related information provision apparatus which concerns on embodiment of this invention.

次に、図面を参照して、本発明の実施の形態を説明する。以下の図面の記載において、同一または類似の部分には同一または類似の符号を付している。   Next, embodiments of the present invention will be described with reference to the drawings. In the following description of the drawings, the same or similar parts are denoted by the same or similar reference numerals.

本発明の実施の形態に係る関連情報提供システム2は、図1に示すように、関連情報提供装置1、映像視聴装置100、102、ユーザ端末101および103を備える。関連情報提供装置1、映像視聴装置100、102、ユーザ端末101および103は、通信ネットワーク110を介して相互に通信可能に接続されている。通信ネットワーク110は、インターネットなどの相互に通信可能なネットワークである。   The related information providing system 2 according to the embodiment of the present invention includes a related information providing device 1, video viewing devices 100 and 102, and user terminals 101 and 103, as shown in FIG. The related information providing apparatus 1, the video viewing apparatuses 100 and 102, and the user terminals 101 and 103 are connected via a communication network 110 so that they can communicate with each other. The communication network 110 is a network that can communicate with each other, such as the Internet.

映像視聴装置100は、デジタル放送の映像データや、映像データ提供サーバなどが提供する映像データなどを、ユーザAが視聴可能な装置である。映像視聴装置100は、具体的には、テレビ、パソコン、スマートフォン、携帯電話などである。また映像視聴装置100は、有料放送を受信し、テレビなどに接続して用いるセットトップボックスとテレビであっても良いし、有料放送を受信可能な機能を内蔵したテレビであっても良い。   The video viewing device 100 is a device that allows the user A to view digital broadcast video data, video data provided by a video data providing server, and the like. Specifically, the video viewing apparatus 100 is a television, a personal computer, a smartphone, a mobile phone, or the like. The video viewing apparatus 100 may be a set-top box and a television that are used by receiving a pay broadcast and connected to a television or the like, or may be a television with a built-in function capable of receiving the pay broadcast.

本発明の実施の形態に係る映像視聴装置100は特に、映像データを再生中に、ユーザが所定の操作を入力すると、その入力時に再生中の映像データの識別子と、その映像データの再生時間とを取得し、通信ネットワークを介して関連情報提供装置1に送信する。ここで、映像データの再生時間は、録画された映像データや、動画配信サーバからダウンロードした映像データなどの蓄積型の映像データの場合、映像データの先頭から経過した再生時間である。また、リアルタイムに放送されるデジタル放送などの映像データの場合、時刻でも良い。再生時間は、映像データにおいて、ユーザが操作したタイミングがわかればどのような形式でも良い。   The video viewing apparatus 100 according to the embodiment of the present invention, in particular, when a user inputs a predetermined operation during playback of video data, the identifier of the video data being played back at the time of input, the playback time of the video data, Is transmitted to the related information providing apparatus 1 via the communication network. Here, the reproduction time of the video data is the reproduction time that has elapsed from the beginning of the video data in the case of storage-type video data such as recorded video data or video data downloaded from a video distribution server. In the case of video data such as digital broadcast broadcast in real time, the time may be used. The reproduction time may be in any format as long as the user's operation timing is known in the video data.

映像視聴装置102は、映像データなどを、ユーザBが視聴可能な装置であって、その機能などは映像視聴装置100と同様である。   The video viewing device 102 is a device that allows the user B to view video data and the like, and its function is the same as that of the video viewing device 100.

ユーザ端末101は、ユーザAの利用する端末であって、例えば、パソコン、スマートフォン、携帯電話機などである。ユーザ端末101は、メールなどを受信するとともに、ブラウザなどを用いて関連情報提供装置1から入力される関連情報のダイジェストや、詳細な関連情報を閲覧できる端末である。   The user terminal 101 is a terminal used by the user A, and is, for example, a personal computer, a smartphone, a mobile phone, or the like. The user terminal 101 is a terminal that receives a mail or the like and can browse a digest of related information input from the related information providing apparatus 1 using a browser or the like, or detailed related information.

映像視聴装置102は、映像データなどを、ユーザBが視聴可能な装置であって、その機能などは映像視聴装置100と同様である。ユーザ端末103は、ユーザBが利用する端末であって、その機能などはユーザ端末101と同様である。   The video viewing device 102 is a device that allows the user B to view video data and the like, and its function is the same as that of the video viewing device 100. The user terminal 103 is a terminal used by the user B, and its function is the same as that of the user terminal 101.

関連情報提供装置1は、ユーザから指定されたタイミングの映像データの関連情報を提供する装置である。   The related information providing apparatus 1 is an apparatus that provides related information of video data at a timing designated by a user.

本発明の実施の形態においては、ユーザが所定の操作により、映像データを閲覧中の映像コンテンツに関する関連情報の要求を、例えば、映像視聴装置100に入力する。このとき映像視聴装置100は、ユーザの識別子とともに、操作時に再生中の映像データの識別子および再生時間を、関連情報提供装置1に送信する。この「所定の操作」は、例えば、映像視聴装置100のリモコンに設けられたボタンの押下でも良いし、映像視聴装置100のリモコン機能を実装するユーザ端末101に対するユーザの操作でも良い。   In the embodiment of the present invention, a user inputs a request for related information related to video content while browsing video data, for example, to the video viewing device 100 by a predetermined operation. At this time, the video viewing apparatus 100 transmits the identifier of the video data being reproduced at the time of operation and the reproduction time to the related information providing apparatus 1 together with the user identifier. This “predetermined operation” may be, for example, pressing of a button provided on the remote control of the video viewing apparatus 100 or a user operation on the user terminal 101 that implements the remote control function of the video viewing apparatus 100.

ユーザ端末101がリモコン機能を実装する場合、ユーザ端末101が、操作時に再生中の映像データの識別子および再生時間を、関連情報提供装置1に送信しても良い。ここで、ユーザ端末101がリモコン機能を実装する場合、ユーザによるユーザ端末101の操作履歴に基づいて、現在再生中の映像データを特定しても良い。またユーザが映像視聴装置100でユーザ自身が録画した映像データを視聴している際に関連情報の要求をする場合、映像視聴装置100は、録画時に保持するメタデータから、映像データの識別子を関連情報提供装置1に送信しても良い。   When the user terminal 101 implements the remote control function, the user terminal 101 may transmit the identifier and the reproduction time of the video data being reproduced at the time of operation to the related information providing apparatus 1. Here, when the user terminal 101 implements the remote control function, the video data currently being reproduced may be specified based on the operation history of the user terminal 101 by the user. Further, when the user requests related information while viewing the video data recorded by the user himself / herself on the video viewing apparatus 100, the video viewing apparatus 100 associates the identifier of the video data from the metadata held at the time of recording. You may transmit to the information provision apparatus 1. FIG.

関連情報提供装置1が、映像データの識別子および再生時間を受信すると、そのとき再生された映像データを解析して、キーワードを抽出する。関連情報提供装置1は、抽出したキーワードに基づいて検索サーバ(図示せず)にアクセスし、検索サーバが取得した検索結果を、キーワードの関連情報としてユーザに提供する。   When the related information providing apparatus 1 receives the identifier and the reproduction time of the video data, it analyzes the video data reproduced at that time and extracts keywords. The related information providing apparatus 1 accesses a search server (not shown) based on the extracted keyword, and provides the search result acquired by the search server to the user as related information on the keyword.

関連結果を提供する方法としては、さまざまな方法が考えられる。関連情報提供装置1は例えば、あらかじめユーザのメールアドレスを保持し、関連情報を取得した旨を知らせるとともに、マイページなどのリンクを含むメールをユーザ端末101に送信する。本発明の実施の形態においてこのリンクは、関連情報提供装置1内のユーザのマイページに対応するリンクである。ユーザ端末101がメールを受信すると、ユーザ端末101からこのリンクにアクセスし、ユーザは、ユーザが要求した関連情報のダイジェストページを閲覧することができる。さらにユーザは、このダイジェストページから興味のある関連情報を選択し、関連情報の詳細を知ることができる。   There are various ways to provide the relevant results. For example, the related information providing apparatus 1 holds the user's mail address in advance, notifies the user that the related information has been acquired, and transmits a mail including a link such as a My Page to the user terminal 101. In the embodiment of the present invention, this link is a link corresponding to the user's My Page in the related information providing apparatus 1. When the user terminal 101 receives the mail, the user terminal 101 accesses this link, and the user can view the digest page of the related information requested by the user. Further, the user can select related information of interest from the digest page and know details of the related information.

(関連情報提供装置)
図1を参照して本発明の実施の形態に係る関連情報提供装置1を説明する。関連情報提供装置1は、記憶装置、処理制御装置および通信制御装置などを備える一般的なコンピュータである。関連情報提供装置1は、一般的なコンピュータに所定の処理を実行するための関連情報提供プログラムが実行されることにより、図1に示す各部が実装される。
(Related information provision device)
A related information providing apparatus 1 according to an embodiment of the present invention will be described with reference to FIG. The related information providing device 1 is a general computer including a storage device, a processing control device, a communication control device, and the like. The related information providing apparatus 1 is implemented with each unit shown in FIG. 1 by executing a related information providing program for executing a predetermined process on a general computer.

関連情報提供装置1の記憶装置は、映像メタデータ記憶部11、映像データ記憶部12、人物特徴データ記憶部13、キーワードデータ記憶部31およびユーザデータ記憶部32を備える。処理制御装置は、テキスト情報分析部21、映像情報分析部22、固定キーワード入力部23、キーワード更新部24、関連情報要求検出部41、キーワード選択部42、関連情報取得部43、関連情報出力部44および新規関連情報通知部45を備える。   The storage device of the related information providing device 1 includes a video metadata storage unit 11, a video data storage unit 12, a person feature data storage unit 13, a keyword data storage unit 31, and a user data storage unit 32. The processing control apparatus includes a text information analysis unit 21, a video information analysis unit 22, a fixed keyword input unit 23, a keyword update unit 24, a related information request detection unit 41, a keyword selection unit 42, a related information acquisition unit 43, and a related information output unit. 44 and a new related information notification unit 45.

ここで、映像メタデータ記憶部11、映像データ記憶部12、人物特徴データ記憶部13、テキスト情報分析部21、映像情報分析部22、固定キーワード入力部23およびキーワード更新部24を総称して、映像コンテンツ分析部10と称する場合がある。映像コンテンツ分析部10は、キーワードデータ記憶部31に記憶されるキーワードデータ31aに、新たなキーワードを登録する。   Here, the video metadata storage unit 11, the video data storage unit 12, the person feature data storage unit 13, the text information analysis unit 21, the video information analysis unit 22, the fixed keyword input unit 23, and the keyword update unit 24 are collectively referred to as Sometimes referred to as video content analysis unit 10. The video content analysis unit 10 registers a new keyword in the keyword data 31 a stored in the keyword data storage unit 31.

キーワードデータ記憶部31は、キーワードデータ31aを記憶する記憶領域である。キーワードデータ31aは、図2に示すように、映像データ識別子、再生時間、キーワード、映像関連性および適合度を対応づけるとともに、この対応づけを識別するキーワード対応の識別子を付したデータである。   The keyword data storage unit 31 is a storage area for storing the keyword data 31a. As shown in FIG. 2, the keyword data 31a is data in which a video data identifier, a reproduction time, a keyword, video relevance, and a fitness level are associated with each other and a keyword corresponding identifier for identifying this association is attached.

キーワード対応識別子は、キーワードデータ31a中のレコードを特定する。キーワード対応識別子は、映像データ識別子、再生時間およびキーワードの組み合わせを一意に識別する識別子である。   The keyword correspondence identifier specifies a record in the keyword data 31a. The keyword correspondence identifier is an identifier that uniquely identifies a combination of a video data identifier, a reproduction time, and a keyword.

映像データ識別子および再生時間は、ユーザが関連情報の要求を操作した際に再生されていた映像データの識別子および再生時間である。この映像データの識別子および再生時間は、ユーザから逐次入力される関連情報の要求に含まれる映像データの識別子および再生時間に対応する。図2に示す例で、再生時間は、ユーザが要求したタイミングと同じ時刻であるが、これに限られない。例えば、映像データの時間長を30秒単位で分割して番号を付した場合の番号で表現しても良いし、ユーザが要求したタイミングの時刻の前後30秒を設定しても良い。   The video data identifier and playback time are the identifier and playback time of video data that was played back when the user operated the request for related information. The identifier and playback time of the video data correspond to the identifier and playback time of the video data included in the related information request sequentially input from the user. In the example illustrated in FIG. 2, the playback time is the same time as the timing requested by the user, but is not limited thereto. For example, the time length of the video data may be expressed by a number when divided by 30 seconds and numbered, or 30 seconds before and after the time requested by the user may be set.

キーワードは、映像データの識別子によって特定される映像データにおける再生時間の映像データに関連するキーワードである。キーワードは、映像コンテンツ分析部10によって抽出される。ここでキーワードは、再生時間が示す時刻の映像データについて抽出されても良い。またキーワードは、再生時間の前後30秒など、再生時間の近傍の映像データに基づいて抽出されれば良い。   The keyword is a keyword related to the video data of the reproduction time in the video data specified by the video data identifier. The keywords are extracted by the video content analysis unit 10. Here, the keyword may be extracted for the video data at the time indicated by the playback time. The keyword may be extracted based on video data near the playback time, such as 30 seconds before and after the playback time.

映像関連性は、キーワードが、この映像データについて、関連しているものであることを示す指標である。映像関連性は、映像コンテンツ分析部10のテキスト情報分析部21または映像情報分析部22によって算出される。本発明の実施の形態において、映像関連性は、適宜任意の数値で表現する場合を説明するが、映像関連性を、「有り(1)」または「なし(0)」で表現しても良い。   The video relevance is an index indicating that the keyword is related to the video data. The video relevance is calculated by the text information analysis unit 21 or the video information analysis unit 22 of the video content analysis unit 10. In the embodiment of the present invention, the case where the video relevance is appropriately expressed by an arbitrary numerical value will be described. However, the video relevance may be expressed by “Yes (1)” or “No (0)”. .

適合度は、映像データの再生時間における当該キーワードの適切さを示す指標である。ユーザがこのキーワードに基づいて検索された関連情報が閲覧されると、映像データの再生時間におけるキーワードは適切であると考えられる。従ってユーザから関連情報が閲覧されるほど、適合度は高くなる。このように適合度は、ユーザの操作などによって、適宜変更される。   The fitness is an index indicating the appropriateness of the keyword in the playback time of the video data. When the user browses related information retrieved based on this keyword, the keyword in the reproduction time of the video data is considered appropriate. Therefore, the more relevant information is browsed by the user, the higher the fitness is. As described above, the fitness is appropriately changed by a user operation or the like.

ユーザデータ記憶部32は、ユーザデータ32aを記憶する記憶領域である。ユーザデータ32aは、図3に示すように、ユーザ識別子、ユーザのメールアドレスおよび端末の種別を対応づけたデータである。ユーザのメールアドレスは、ユーザに関連情報の提供の準備が整った旨をメールで知らせる際の宛名となる。端末の種別は、ユーザがメールを受信する端末の種別であって、メールを作成する際に、端末の制限や利用可能な文字などを考慮して作成するために保持する。   The user data storage unit 32 is a storage area for storing user data 32a. As shown in FIG. 3, the user data 32a is data in which a user identifier, a user's mail address, and a terminal type are associated with each other. The user's e-mail address is an address used when notifying the user that preparation for provision of related information is complete. The type of terminal is the type of terminal from which the user receives mail, and is retained when creating a mail in consideration of restrictions on the terminal and available characters.

ユーザでの通知を好まないユーザに対し、ユーザデータ記憶部32は、ユーザに通知するか否かを設定するフラグを設けても良い。またこの際は、メールアドレス欄には、null値が設定されれば良い。   For users who do not like user notification, the user data storage unit 32 may be provided with a flag for setting whether to notify the user. In this case, a null value may be set in the mail address field.

関連情報要求検出部41は、ユーザ端末101から、映像データの識別子および再生時間を含み、当該再生時間における映像の関連情報の要求を受信する。ここで、映像データの識別子は、映像データを識別できればどのような形でも良い。例えば、映像データが、動画サーバが配信する映像コンテンツデータの場合、映像データの識別子は、動画サーバの識別子と、その動画サーバ内で映像データに付した識別子の組み合わせである。データ放送の映像コンテンツデータの場合、映像データの識別子は、チャンネル識別子と放送時刻の組み合わせである。また、再生時間は、ユーザが関連情報を要求したタイミングがわかればどのような形でも良い。   The related information request detection unit 41 receives, from the user terminal 101, a request for video related information including the identifier of the video data and the playback time. Here, the identifier of the video data may be in any form as long as the video data can be identified. For example, when the video data is video content data distributed by the video server, the video data identifier is a combination of the video server identifier and the identifier attached to the video data in the video server. In the case of video content data for data broadcasting, the video data identifier is a combination of a channel identifier and broadcast time. Further, the playback time may take any form as long as the timing when the user requests the related information is known.

また、要求にはユーザ識別子も含まれており、関連情報要求検出部41は、ユーザ識別子も受信する。ユーザ識別子は、要求の発信元がいずれのユーザであるかを認識し、そのユーザに対して、関連情報を提供するためである。   The request also includes a user identifier, and the related information request detection unit 41 also receives the user identifier. The user identifier is for recognizing which user is the source of the request and providing related information to the user.

キーワード選択部42は、キーワードデータ31aから、関連情報要求検出部41が受信した映像データの識別子および再生時間に対応するキーワード対応の識別子およびキーワードを取得する。キーワード選択部42は、キーワードデータ31aから、関連情報要求検出部41が受信した映像データの識別子および再生時間に対応するキーワードを検索する。このときキーワード選択部42は、ある程度の時間長を設定し、受信した映像データの識別子に対応づけられた再生時間が、設定した時間長に含まれるレコードを検索しても良い。例えば、ユーザによる関連情報の要求に時間を要することを考慮し、キーワード選択部42は、受信した再生時間の前の60秒から、再生時間の10秒後までの範囲でキーワードを検索しても良い。   The keyword selection unit 42 acquires an identifier and a keyword corresponding to the keyword corresponding to the identifier and playback time of the video data received by the related information request detection unit 41 from the keyword data 31a. The keyword selection unit 42 searches the keyword data 31a for a keyword corresponding to the identifier and playback time of the video data received by the related information request detection unit 41. At this time, the keyword selection unit 42 may set a certain length of time, and search for a record in which the reproduction time associated with the received video data identifier is included in the set time length. For example, considering that it takes time for a user to request related information, the keyword selection unit 42 may search for a keyword in a range from 60 seconds before the received reproduction time to 10 seconds after the reproduction time. good.

キーワード選択部42は、関連情報要求検出部41から受信したユーザ識別子、キーワードデータ31aから検索したキーワード、キーワード対応の識別子を対応づけて、関連情報取得部43に入力する。またキーワード選択部42は、取得したキーワードに関連する映像関連性および適合度を関連情報取得部43に入力しても良い。   The keyword selection unit 42 associates the user identifier received from the related information request detection unit 41, the keyword searched from the keyword data 31a, and the keyword corresponding identifier, and inputs them to the related information acquisition unit 43. Further, the keyword selection unit 42 may input the video relevance and the fitness level related to the acquired keyword to the related information acquisition unit 43.

キーワードを選択できなかった場合、具体的には、受信した映像データの識別子および再生時間に対応するキーワードがキーワードデータ31aに登録されていなかった場合、キーワード選択部42は、映像コンテンツ分析部10にキーワードを登録させる。このときキーワード選択部42は、関連情報要求検出部41から入力された映像データの識別子と再生時間とを、映像コンテンツ分析部10に入力する。映像コンテンツ分析部10によってキーワードデータ31aにキーワードが登録されると、キーワード選択部42は、キーワードを選択し、選択したキーワードと、キーワード対応識別子とを対応づけて関連情報取得部43に入力する。このキーワード対応識別子は、キーワードデータ31aにおいて、要求に含まれる映像データの識別子および再生時間と、選択したキーワードを一意に識別するために用いられる。   If the keyword cannot be selected, specifically, if the keyword corresponding to the identifier and the playback time of the received video data is not registered in the keyword data 31a, the keyword selection unit 42 sends the video content analysis unit 10 Register keywords. At this time, the keyword selection unit 42 inputs the identifier and playback time of the video data input from the related information request detection unit 41 to the video content analysis unit 10. When a keyword is registered in the keyword data 31 a by the video content analysis unit 10, the keyword selection unit 42 selects a keyword and associates the selected keyword with a keyword correspondence identifier and inputs the keyword to the related information acquisition unit 43. This keyword correspondence identifier is used in the keyword data 31a to uniquely identify the identifier and playback time of the video data included in the request and the selected keyword.

キーワード選択部42は、キーワードデータ31aから多数のキーワードを選択した場合、多数のキーワードの一部のキーワードに関する情報を、関連情報取得部43に入力しても良い。例えば、キーワードデータ31aには、要求に含まれる再生時間に対応する複数のキーワードが登録されている場合がある。その場合、あらかじめキーワード選択部42が選択するキーワードの数をm個と決定し、多数のキーワードから、適合度の高いm個のキーワードを選択しても良い。また、抽出されたキーワードがm個以内の場合、そのすべてのキーワードに関する情報を、関連情報取得部43に入力しても良い。   When the keyword selection unit 42 selects a large number of keywords from the keyword data 31 a, the keyword selection unit 42 may input information related to some keywords of the large number of keywords to the related information acquisition unit 43. For example, in the keyword data 31a, a plurality of keywords corresponding to the playback time included in the request may be registered. In that case, the number of keywords selected by the keyword selection unit 42 may be determined as m in advance, and m keywords having a high degree of fitness may be selected from a large number of keywords. In addition, when there are no more than m extracted keywords, information regarding all the keywords may be input to the related information acquisition unit 43.

ここで、適合度は、ユーザの操作によって変更されるデータであるので、ユーザからのアクセス数が少ない場合には、適合度の値は正当でない場合がある。そこでキーワード選択部42は、ユーザからのアクセス数が少ない場合、映像関連性を用いてm個のキーワードを選択し、アクセス数が所定数以上になると、適合度を用いてm個のキーワードを選択することが好ましい。   Here, since the fitness level is data changed by a user operation, the fitness level value may not be valid when the number of accesses from the user is small. Therefore, the keyword selection unit 42 selects m keywords using the video relevance when the number of accesses from the user is small, and selects m keywords using the fitness when the number of accesses exceeds a predetermined number. It is preferable to do.

例えば、デジタル放送などで、所定の映像データおよび再生時間に対して所定数以上の関連情報の要求を受信した場合、キーワード選択部42は、キーワードデータ31aから受信した適合度が、最も高い上位m件のキーワードに関する情報を、選択する。さらにキーワード選択部42は、選択したm件のキーワードに関する情報を、関連情報取得部43に入力しても良い。   For example, when a request for a predetermined number or more of related information is received with respect to predetermined video data and playback time in digital broadcasting or the like, the keyword selection unit 42 has the highest degree of matching received from the keyword data 31a. Select information about keywords. Further, the keyword selection unit 42 may input information on the selected m keywords to the related information acquisition unit 43.

また、キーワード選択部42は、個々のユーザにあわせて、関連情報取得部43に入力するキーワードを決定しても良い。例えばユーザのウェブの検索履歴を活用できる場合、検索履歴のクエリと一致するキーワードがあると、そのキーワードを優先的に採用して、関連情報取得部43に出力しても良い。   Moreover, the keyword selection part 42 may determine the keyword input into the related information acquisition part 43 according to each user. For example, when the search history of the user's web can be used, if there is a keyword that matches the search history query, the keyword may be preferentially adopted and output to the related information acquisition unit 43.

関連情報取得部43は、キーワード選択部42によって選択されたキーワードに関連する情報を検索し、キーワード選択部から入力されたユーザ識別子に対応づけて関連情報を保持する。関連情報取得部43は、例えば、ウェブの検索機能を持ち、キーワード選択部42から入力されるキーワードを利用して、関連情報を取得する。関連情報取得部43は、取得した関連情報の少なくとも一部を、ユーザに提供するべき関連情報として、関連情報出力部44に出力する。また関連情報取得部43は、新規関連情報通知部45に、関連情報を取得した旨を通知する。   The related information acquisition unit 43 searches for information related to the keyword selected by the keyword selection unit 42, and holds the related information in association with the user identifier input from the keyword selection unit. The related information acquisition unit 43 has, for example, a web search function, and acquires related information using a keyword input from the keyword selection unit 42. The related information acquisition unit 43 outputs at least a part of the acquired related information to the related information output unit 44 as related information to be provided to the user. Further, the related information acquisition unit 43 notifies the new related information notification unit 45 that the related information has been acquired.

関連情報取得部43は、既存の検索サーバなどのAPIを用いてキーワードを入力し、その検索結果を、キーワードの関連情報として取得しても良い。   The related information acquisition unit 43 may input a keyword using an API such as an existing search server and acquire the search result as related information of the keyword.

関連情報取得部43は、キーワード選択部42から、図2に示すように、映像データ識別子“crid://aaa.co.jp/content/000001”、再生時間“04:05:06”のシーンに対して、「まるや旅館」、「芦ノ湖」および「園田れいこ」の3つのキーワードが入力されたとする。この場合、関連情報取得部43は、「まるや旅館」による検索結果の上位2件、「芦ノ湖」による検索結果の上位2件、および「園田れいこ」による検索結果の上位2件を、関連情報として取得する。ここで、各キーワードについて取得した関連情報が重複する場合、関連情報取得部43では関連情報のフィルタリングを実施せず、関連情報出力部44において、同じ関連情報が複数回表示されないように、関連情報の表示画面が生成される。   As shown in FIG. 2, the related information acquisition unit 43 receives the scene of the video data identifier “crid: //aaa.co.jp/content/000001” and the playback time “04:05:06” from the keyword selection unit 42. Suppose that three keywords “Mariya Ryokan”, “Ashinoko”, and “Reiko Sonoda” are input. In this case, the related information acquisition unit 43 uses the top two search results for “Maruya Ryokan”, the top two search results for “Lake Ashinoko”, and the top two search results for “Reiko Sonoda” as related information. get. Here, when the related information acquired about each keyword overlaps, the related information acquisition unit 43 does not perform filtering of the related information, and the related information output unit 44 does not display the same related information multiple times. Display screen is generated.

関連情報取得部43は、多数の検索結果を取得した場合、検索結果のランキング上位n件のみ関連情報として取得するなどして、フィルタリングしても良い。ここで、nは、キーワードの適合度により可変の数であっても良い。例えば、関連情報取得部43は、適合度の高い上位3個のキーワードについて、それぞれの検索結果の上位2件を関連情報として採用し、適合度の高くないキーワードについて、検索結果の上位1件を関連情報として採用しても良い。   When the related information acquisition unit 43 acquires a large number of search results, the related information acquisition unit 43 may perform filtering by acquiring only the top n rankings of search results as related information. Here, n may be a variable number depending on the degree of matching of the keyword. For example, the related information acquisition unit 43 employs the top two search results for the top three keywords with the highest degree of matching as the related information, and sets the top one of the search results for the keywords with the lower degree of suitability. It may be adopted as related information.

例えば、適合度の高い上位3件のキーワードについて関連情報として取得し、そのうち、最も関連情報の高いキーワードについては、上位2件の関連情報を、それ以外のキーワードについては、上位1件の関連情報を取得する場合を考える。図2に示す例で、「まるや旅館」の適合度は「0. 9542」で、「芦ノ湖」の適合度は「0.6464」で、「園田れいこ」の適合度は「0.3333」である。そこで関連情報取得部43は、最も適合度の高い「まるや旅館」については、この検索結果の上位2件を関連情報とする。また関連情報取得部43は、それ以外の「芦ノ湖」および「園田れいこ」については、この検索結果の上位1件を関連情報とする。   For example, the top three keywords with the highest degree of fitness are acquired as related information, of which the top two related information for the keyword with the highest related information, and the top one related information for the other keywords. Think about getting it. In the example shown in FIG. 2, “Mariya Ryokan” has a fitness of “0.9542”, “Ashinoko” has a fitness of “0.6464”, and “Sonoda Reiko” has a fitness of “0.3333”. is there. Therefore, the related information acquisition unit 43 sets the top two search results as related information for “Maruya Ryokan” having the highest fitness. The related information acquisition unit 43 sets the top one of the search results as related information for the other “Lake Ashinoko” and “Reiko Sonoda”.

また、映像関連性を用いても同様に、関連情報取得部43は、映像関連性が「1」のキーワードについて、それぞれの検索結果の上位2件を関連情報として採用し、映像関連性が「0」のキーワードについて、検索結果の上位1件を関連情報として採用しても良い。   Similarly, even when the video relevance is used, the related information acquisition unit 43 employs the top two search results for the keyword having the video relevance “1” as the related information, and the video relevance is “ For the keyword “0”, the top one of the search results may be adopted as related information.

例えば、3つのキーワードについて関連情報として取得し、そのうち、映像関連性が「1」のキーワードについては、上位2件の関連情報を、それ以外のキーワードについては、上位1件の関連情報を取得する場合を考える。図3に示す例で、「まるや旅館」の映像関連性は「1」で、「芦ノ湖」および「園田れいこ」の映像関連性は「0」である。そこで関連情報取得部43は、映像関連性が「1」の「まるや旅館」については、この検索結果の上位2件を関連情報とする。また関連情報取得部43は、それ以外の「芦ノ湖」および「園田れいこ」については、この検索結果の上位1件を関連情報とする。   For example, three keywords are acquired as related information, of which the top two related information is acquired for the keyword with the video relevance “1”, and the top one related information is acquired for the other keywords. Think about the case. In the example shown in FIG. 3, the video relevance of “Mariya Ryokan” is “1”, and the relevance of “Lake Ashinoko” and “Reiko Sonoda” is “0”. Accordingly, the related information acquisition unit 43 sets the top two search results as related information for “Maruya Ryokan” having a video relevance of “1”. The related information acquisition unit 43 sets the top one of the search results as related information for the other “Lake Ashinoko” and “Reiko Sonoda”.

このように関連情報取得部43が、キーワードについて検索した関連情報のいずれを出力するかは、映像関連性または適合度に基づいて判断される。ここで、適合度は、多くのユーザが閲覧しアクセスすることによって、正当な値となる。そこで、一定のアクセス数を得られていない場合、関連情報取得部43は、映像関連性に基づいて、出力する関連情報をフィルタリングし、一定のアクセス数が得られた後は、適合度に基づいて、出力する関連情報をフィルタリングしても良い。   In this manner, which of the related information searched for the keyword is output by the related information acquisition unit 43 is determined based on the video relevance or the fitness. Here, the fitness is a valid value when many users browse and access. Therefore, when a certain number of accesses has not been obtained, the related information acquisition unit 43 filters the related information to be output based on the video relevance, and after obtaining the certain number of accesses, based on the fitness level. The related information to be output may be filtered.

関連情報取得部43が、各キーワードの関連情報をフィルタリングして関連情報出力部44に入力することにより、ユーザによる可読性を確保することができる。関連情報取得部43は、取得した関連情報について、キーワード、ユーザ識別子およびキーワード対応識別子とともに、関連情報のタイトル、関連情報のリンク、スニペットなどの情報を、関連情報出力部44に入力する。例えば関連情報取得部43は、{0000000001,AE2309841F,“まるや旅館ホームページ”,http://www.maruyar.co.xx/,“まるや旅館は1952 年創業の…”}などの情報を、関連情報出力部44に出力する。また、このとき関連情報出力部44は、新規に関連情報を提供可能なことを通知するために、ユーザ識別子を、新規関連情報通知部45に入力する。   The related information acquisition unit 43 filters the related information of each keyword and inputs it to the related information output unit 44, thereby ensuring readability by the user. The related information acquisition unit 43 inputs information such as the title of the related information, the link of the related information, and the snippet together with the keyword, the user identifier, and the keyword correspondence identifier to the related information output unit 44 for the acquired related information. For example, the related information acquisition unit 43 may provide information such as {0000000001, AE2309841F, “Maruya Ryokan Website”, http: //www.maruyar.co.xx/, “Maruya Ryokan was founded in 1952…”} Output to the output unit 44. At this time, the related information output unit 44 inputs the user identifier to the new related information notification unit 45 in order to notify that the related information can be newly provided.

関連情報出力部44は、ユーザ端末101からアクセスがあると、ユーザ端末101を認証し、ユーザ端末101にHTML形式のウェブページを提供する。このとき関連情報出力部44は、関連情報取得部43が取得した関連情報を表示するためのウェブページを生成し、ユーザ端末101からアクセスがあると、このウェブページを提供する。関連情報出力部44は、キーワードデータ31aにおいて、映像データの識別子および再生時間に複数のキーワードが対応づけられている場合、全てのキーワードについて関連情報を出力しなくとも良い。例えば、関連情報出力部44は、複数のキーワードのうち適合度の高いキーワードに関連する関連情報を優先的に出力する。なお、複数のキーワードのうち、いずれのキーワードに関連する関連情報を出力するかは、関連情報出力部44が決定しても良いし、関連情報取得部43が決定しても良い。   When accessed from the user terminal 101, the related information output unit 44 authenticates the user terminal 101 and provides the user terminal 101 with an HTML web page. At this time, the related information output unit 44 generates a web page for displaying the related information acquired by the related information acquisition unit 43, and provides this web page when accessed from the user terminal 101. In the keyword data 31a, the related information output unit 44 does not need to output the related information for all the keywords when a plurality of keywords are associated with the identifier of the video data and the reproduction time. For example, the related information output unit 44 preferentially outputs related information related to a keyword having a high matching degree among a plurality of keywords. It should be noted that the related information output unit 44 or the related information acquisition unit 43 may determine which of the plurality of keywords is to be output related information.

また、本発明の実施の形態においては、関連情報取得部43が、一つのキーワードに基づいて取得した複数の関連情報から所定の関連情報をフィルタリングし、関連情報出力部44が、フィルタリング後の関連情報を取得することにより実現するが、これに限られない。例えば、関連情報取得部43が取得したすべての関連情報を関連情報出力部44が取得し、を関連情報出力部44がフィルタリングしても良い。   In the embodiment of the present invention, the related information acquisition unit 43 filters predetermined related information from a plurality of pieces of related information acquired based on one keyword, and the related information output unit 44 sets the related information after filtering. This is realized by acquiring information, but is not limited to this. For example, the related information output unit 44 may acquire all the related information acquired by the related information acquisition unit 43, and the related information output unit 44 may filter the related information.

関連情報出力部44は、キーワード選択部42によって選択されたキーワードに関連する関連情報を、キーワードデータ31aのキーワード対応の識別子に対応づけてユーザ端末101に出力する。さらに関連情報出力部44は、ユーザ端末101において当該関連情報が選択されると、キーワードデータ31aの当該キーワード対応の識別子に対応する適合度を上げる更新をする。   The related information output unit 44 outputs related information related to the keyword selected by the keyword selection unit 42 to the user terminal 101 in association with the keyword corresponding identifier of the keyword data 31a. Further, when the related information is selected on the user terminal 101, the related information output unit 44 updates the matching degree corresponding to the keyword corresponding identifier of the keyword data 31a.

例えば関連情報出力部44は、関連情報を出力する際、この関連情報を閲覧するためのリンクを設け、このリンクには、ユーザの要求に合致するキーワードデータのキーワード対応識別子を含める。これにより、ユーザがリンクを選択すると、関連情報出力部44は、そのキーワード対応識別子を取得できるので、キーワードの適合度が高いと把握することができる。このようにユーザが選択するたびに、キーワードデータ31aのキーワード対応識別子に対応する適合度が高くなるように、キーワードデータ31aを更新する。 For example, when the related information output unit 44 outputs the related information, a link for browsing the related information is provided, and the link includes a keyword correspondence identifier of the keyword data that matches the user's request. Accordingly, when the user selects a link, the related information output unit 44 can acquire the keyword correspondence identifier, and thus can grasp that the degree of matching of the keyword is high. Thus, every time the user selects, the keyword data 31a is updated so that the degree of matching corresponding to the keyword corresponding identifier of the keyword data 31a is increased.

このように、関連情報出力部44は、ユーザから関連情報のリンクがクリックされると、この関連情報に対応するキーワード対応識別子に対して、カウンタを1つインクリメントする。ここで、ひとつの関連情報に、複数のキーワードが対応づけられる場合がある。その場合、ユーザに複数回同じ関連情報を表示することのないように、関連情報出力部44は、ひとつの関連情報に、複数のキーワードをあらかじめ紐づけて、関連情報のリンクを設ける。このようなリンクをユーザがクリックして関連情報を閲覧した場合、紐付けられたキーワードのそれぞれについて、適合度が高くなるようにキーワードデータ31aを更新することが好ましい。また、ひとつの関連情報に3つのキーワードが対応づけられたリンクがクリックされた場合、関連情報出力部44は、このリンクの関連情報に対応する3つのキーワードの対応識別子に対して、カウンタを1/3回インクリメントする。 As described above, when the link of the related information is clicked by the user, the related information output unit 44 increments the counter by one for the keyword corresponding identifier corresponding to the related information. Here, a plurality of keywords may be associated with one piece of related information. In this case, the related information output unit 44 links a plurality of keywords to one related information in advance so as to prevent the user from displaying the same related information multiple times. When the user clicks such a link and browses related information, it is preferable to update the keyword data 31a so that the degree of matching is high for each of the associated keywords. When a link in which three keywords are associated with one related information is clicked, the related information output unit 44 sets a counter to 1 for the corresponding identifier of the three keywords corresponding to the related information of this link. / Increment 3 times.

ここで、関連情報出力部44は、ユーザがクリックした関連情報の元となるキーワードを外部のシステムに開示しても良い。外部のシステムにおいて、このキーワードをユーザの嗜好を示すキーワードとして、サービスや商品の推薦に用いることができる。 Here, the related information output unit 44 may disclose a keyword that is the basis of the related information clicked by the user to an external system. In an external system, this keyword can be used as a keyword indicating the user's preference for service or product recommendation.

関連情報出力部44が、キーワードデータ31aの適合度を変更する方法はいくつか考え考えられる。例えば、関連情報が閲覧された割合を用いて、適合度を算出する方法が考えられる。この方法の場合、例えば、(該当キーワードにより求められた関連情報が閲覧された回数)/(該当シーンのキーワードで求められた関連情報の全閲覧回数)を算出する。図2に示す例の場合、「まるや旅館」のカウンタが「80」、キーワード「芦ノ湖」のカウンタが 「10」、キーワード「園田れいこ」のカウンタが「5」 であるとする。この場合、「まるや旅館」、「芦ノ湖」、「園田れいこ」のそれぞれの適合度を、{0.80,0.10,0.05}と算出して、キーワードデータ31aを更新しても良い。 There are several possible methods for the related information output unit 44 to change the degree of matching of the keyword data 31a. For example, a method of calculating the degree of fitness using the ratio of browsing related information can be considered. In the case of this method, for example, (the number of times the related information obtained by the relevant keyword is browsed) / (the total number of times of viewing of the relevant information obtained by the keyword of the relevant scene) is calculated. In the example shown in FIG. 2, it is assumed that the counter for “Mariya Ryokan” is “80”, the counter for the keyword “Lake Ashinoko” is “10”, and the counter for the keyword “Reiko Sonoda” is “5”. In this case, the keyword data 31a may be updated by calculating the fitness of “Maruya Ryokan”, “Ashinoko”, and “Reiko Sonoda” as {0.80, 0.10, 0.05}. .

ここで、ユーザが閲覧した関連情報に対応するキーワード対応識別子の適合度が高くなり、ユーザが閲覧しなかった関連情報に対応するキーワード対応識別子の適合度が低くなるように更新されれば、どのような方法を用いても良い。 Here, if the degree of matching of the keyword corresponding identifier corresponding to the related information browsed by the user is increased and the degree of matching of the keyword corresponding identifier corresponding to the related information that the user did not browse is updated, Such a method may be used.

関連情報出力部44は、ユーザデータ32aのユーザ端末の種別を考慮して、関連情報を提供するための画面を生成しても良い。例えば、端末の種別として、メールを閲覧する画面が、標準サイズ、標準サイズより小さいサイズ、標準サイズより大きいサイズの3種類を有する。関連情報出力部44は、ユーザの見易さを考慮して、関連情報を提供する画面を生成することができる。 The related information output unit 44 may generate a screen for providing related information in consideration of the type of the user terminal in the user data 32a. For example, as a type of terminal, there are three types of screens for browsing mail: a standard size, a size smaller than the standard size, and a size larger than the standard size. The related information output unit 44 can generate a screen that provides related information in consideration of the user's visibility.

新規関連情報通知部45は、関連情報取得部43から関連情報が取得された旨を通知されると、ユーザ端末101にその旨を通知する。具体的には新規関連情報通知部45は、ユーザデータ32aからこのユーザのメールアドレスおよび端末の種別を取得し、関連情報が取得された旨を通知するメール文を生成する。   When notified that the related information is acquired from the related information acquisition unit 43, the new related information notification unit 45 notifies the user terminal 101 to that effect. Specifically, the new related information notifying unit 45 acquires the mail address and terminal type of the user from the user data 32a, and generates a mail text notifying that the related information has been acquired.

さらに新規関連情報通知部45は、生成したメール文に基づいて、ユーザデータ32aから取得したメールアドレスを宛先とし、端末の種別に対応する形式のメールを生成する。一般的に、ユーザ端末101として、コンピュータ、タブレット端末、スマートフォン、携帯電話機などのさまざまな情報機器が考えられるが、各端末において表示画面の大きさは異なる。そこで、端末の種別として、例えばメールを閲覧する画面が、標準サイズ、標準サイズより小さいサイズ、標準サイズより大きいサイズの3種類を有する。新規関連情報通知部45は、ユーザの見易さを考慮して、電子メールを生成することができる。   Further, the new related information notifying unit 45 generates a mail in a format corresponding to the type of the terminal with the mail address acquired from the user data 32a as a destination based on the generated mail text. In general, as the user terminal 101, various information devices such as a computer, a tablet terminal, a smartphone, and a mobile phone can be considered, but the size of the display screen is different in each terminal. Therefore, as a type of terminal, for example, there are three types of screens for browsing mail: a standard size, a size smaller than the standard size, and a size larger than the standard size. The new related information notification unit 45 can generate an e-mail in consideration of the user's visibility.

メールを生成すると新規関連情報通知部45は、生成したメールをユーザ端末101に送信する。   When the mail is generated, the new related information notification unit 45 transmits the generated mail to the user terminal 101.

このときメールには、関連情報が取得された旨のみを通知しても良いし、関連情報のダイジェストを含み、その関連情報を閲覧するためのリンクを設けても良い。このリンクには、ユーザの要求に合致するキーワードデータ31aのキーワード対応識別子を含めても良い。この場合も、ユーザがリンクを選択すると、関連情報出力部44が、そのキーワード対応識別子を取得できるので、キーワードの適合度が高いと把握し、キーワードデータ31aの適合度を更新することができる。   At this time, the mail may notify only that the related information has been acquired, or may include a digest of the related information and provide a link for browsing the related information. This link may include a keyword correspondence identifier of the keyword data 31a that matches the user's request. Also in this case, when the user selects a link, the related information output unit 44 can acquire the keyword corresponding identifier, so that it can be understood that the matching degree of the keyword is high and the matching degree of the keyword data 31a can be updated.

(関連情報提供方法)
図4を参照して、本発明の実施の形態に係る関連情報提供方法を説明する。
(Related information provision method)
With reference to FIG. 4, the related information provision method which concerns on embodiment of this invention is demonstrated.

まずステップS1において、関連情報提供装置1は、ユーザ端末101から関連情報取得要求を受信する。ステップS2において関連情報提供装置1は、関連情報取得要求から、ユーザ識別子、映像データ識別子および再生時間を取得する。   First, in step S <b> 1, the related information providing apparatus 1 receives a related information acquisition request from the user terminal 101. In step S2, the related information providing apparatus 1 acquires the user identifier, the video data identifier, and the reproduction time from the related information acquisition request.

ステップS3において関連情報提供装置1は、キーワードデータ31aを読み出して、ステップS2で取得した映像データ識別子および再生時間に対応するキーワードがあるか否かを判定する。キーワードがある場合、ステップS5に進む。キーワードがない場合、ステップS4において関連情報提供装置1は、映像データ識別子および再生時間に基づいて、コンテンツ分析し、この映像データの再生時間に対応するキーワードを取得する。ステップS4において関連情報提供装置1は、取得したキーワードの情報を、キーワードデータ31aに挿入し、ステップS5に進む。   In step S3, the related information providing apparatus 1 reads the keyword data 31a, and determines whether or not there is a keyword corresponding to the video data identifier and the reproduction time acquired in step S2. If there is a keyword, the process proceeds to step S5. If there is no keyword, in step S4, the related information providing apparatus 1 analyzes the content based on the video data identifier and the playback time, and acquires a keyword corresponding to the playback time of the video data. In step S4, the related information providing apparatus 1 inserts the acquired keyword information into the keyword data 31a, and proceeds to step S5.

ステップS5において関連情報提供装置1は、キーワードデータ31aから、ステップS2で取得した映像データ識別子および再生時間に対応するキーワードと、キーワード対応識別子を取得する。ステップS6において関連情報提供装置1は、ステップS5で取得したキーワードに基づいて関連情報を取得し、ユーザ識別子およびキーワード対応識別子と対応づけて保有する。   In step S5, the related information providing apparatus 1 acquires the keyword corresponding to the video data identifier and the reproduction time acquired in step S2 and the keyword correspondence identifier from the keyword data 31a. In step S6, the related information providing apparatus 1 acquires related information based on the keyword acquired in step S5, and stores the related information in association with the user identifier and the keyword corresponding identifier.

ステップS7において関連情報提供装置1は、ユーザデータ32aから要求元のユーザ識別子に対応するメールアドレスを取得し、関連情報が提供可能な旨のメールを、ユーザ端末101に送信する。さらにステップS8において関連情報提供装置1は、関連情報を提供するための画面を生成する。その後、ステップS9において関連情報提供装置1は、ユーザからのアクセスに基づいて、関連情報を提供するとともに、ユーザデータ32aの適合度を更新する。   In step S <b> 7, the related information providing apparatus 1 acquires a mail address corresponding to the user identifier of the request source from the user data 32 a, and transmits a mail indicating that the related information can be provided to the user terminal 101. In step S8, the related information providing apparatus 1 generates a screen for providing related information. Thereafter, in step S9, the related information providing apparatus 1 provides related information and updates the fitness of the user data 32a based on the access from the user.

図5を参照して本発明の実施の形態に係る関連情報出力部44による関連情報出力処理を説明する。ここで、関連情報出力部44は、ユーザ端末101に、関連情報とともに、関連情報を出力する元となったキーワード対応識別子を、あらかじめ紐づけて保持する。ユーザ端末101からアクセスがあると、ユーザ識別子を認証し、このユーザに対する関連情報を表示する。ユーザが関連情報を表示する方法は、さまざまな方法がある。例えば、メールに記載されたリンクをクリックする方法がある。また、関連情報出力部44が、ユーザの認証後にユーザに対する関連情報のリンクをウェブページで表示してユーザがクリックする方法がある。さらに、映像視聴装置100のリモコンや、リモコンアプリケーションを介して、関連情報出力部44にアクセスし、表示されたリンクをユーザが選択する方法がある。ここで、リモコンアプリケーションは、スマートフォン上で動作するリモコンの機能を有したアプリケーションである。図5に示す例では、このような方法に基づいて、ユーザが関連情報を閲覧した場合の処理を説明する。   The related information output processing by the related information output unit 44 according to the embodiment of the present invention will be described with reference to FIG. Here, the related information output unit 44 holds, in advance, the keyword correspondence identifier that is the source of outputting the related information together with the related information, in the user terminal 101. When accessed from the user terminal 101, the user identifier is authenticated and related information for the user is displayed. There are various methods for the user to display related information. For example, there is a method of clicking a link described in an email. In addition, there is a method in which the related information output unit 44 displays a link of related information for the user on the web page after the user is authenticated and the user clicks. Furthermore, there is a method in which the user selects the displayed link by accessing the related information output unit 44 via the remote control of the video viewing apparatus 100 or a remote control application. Here, the remote control application is an application having a function of a remote control that operates on a smartphone. In the example illustrated in FIG. 5, processing when the user browses related information will be described based on such a method.

まずステップS101において関連情報出力部44は、ユーザ端末101からのアクセスを待機する。ユーザ端末101からアクセスされると、関連情報出力部44は、このユーザに表示するべき関連情報のリンクを表示する。このリンクには、関連情報を出力する元となったキーワード対応識別子が紐づけられている。ユーザがこのリンクを押下し、ユーザ端末101において関連情報が閲覧されると、ステップS103において関連情報出力部44は、そのリンクが押下され閲覧された関連情報に紐付けられたキーワード対応識別子を取得する。ステップS104において関連情報出力部44は、ステップS102で取得したキーワード対応識別子に対応する適合度を高めるように更新する。   First, in step S <b> 101, the related information output unit 44 waits for access from the user terminal 101. When accessed from the user terminal 101, the related information output unit 44 displays a link of related information to be displayed to the user. This link is associated with the keyword correspondence identifier that is the source of the output of the related information. When the user presses this link and the related information is browsed on the user terminal 101, in step S103, the related information output unit 44 acquires the keyword correspondence identifier associated with the related information that is pressed and browsed. To do. In step S104, the related information output unit 44 updates the degree of matching corresponding to the keyword correspondence identifier acquired in step S102 so as to increase.

(映像コンテンツ分析部)
図1を参照して、映像コンテンツ分析部10の処理を詳述する。映像コンテンツ分析部10は、映像メタデータ記憶部11、映像データ記憶部12、人物特徴データ記憶部13、テキスト情報分析部21、映像情報分析部22、固定キーワード入力部23およびキーワード更新部24を備える。
(Video Content Analysis Department)
The processing of the video content analysis unit 10 will be described in detail with reference to FIG. The video content analysis unit 10 includes a video metadata storage unit 11, a video data storage unit 12, a person feature data storage unit 13, a text information analysis unit 21, a video information analysis unit 22, a fixed keyword input unit 23, and a keyword update unit 24. Prepare.

映像メタデータ記憶部11は、映像メタデータ11a、11b、11c…を記憶する記憶領域である。映像メタデータ11aは、映像データごとにひとつの映像メタデータを有し、映像データの識別子で識別される。映像メタデータ11b、11c…も映像メタデータ11aと同様である。   The video metadata storage unit 11 is a storage area for storing video metadata 11a, 11b, 11c,. The video metadata 11a has one video metadata for each video data, and is identified by a video data identifier. The video metadata 11b, 11c,... Are the same as the video metadata 11a.

図6を参照して、映像メタデータ11aの一例を説明する。映像メタデータ11aは、映像データのタイトル、シノプシス情報、出演者の情報などの各項目のデータを有する。ここで、シノプシス情報は、映像データの概要をあらわしたテキストのデータであって、番組表やコンテンツガイド(ECG/EPG)などを作成する際に用いられる。図6に示す映像メタデータ11aは、XML構造を有するが、この構造に限られない。例えば、映像データの識別子と、図6に示す各項目のデータとを対応づけたテーブル構造で表現しても良い。   An example of the video metadata 11a will be described with reference to FIG. The video metadata 11a includes data of each item such as video data title, synopsis information, performer information, and the like. Here, the synopsis information is text data representing an outline of video data, and is used when a program guide, a content guide (ECG / EPG), or the like is created. The video metadata 11a shown in FIG. 6 has an XML structure, but is not limited to this structure. For example, the identifier of the video data and the data of each item shown in FIG. 6 may be expressed in a table structure.

映像データ記憶部12は、映像データを記憶する記憶領域である。映像データを記憶する記憶領域である。この映像データは、映像データの識別子で識別される。図1に示す例では、映像データ記憶部12を関連情報提供装置1が保有する場合を説明するが、これに限られない。例えば、通信ネットワーク等を介して接続されるほかの装置が保有し、関連情報提供装置1が、必要に応じてこの装置から、映像データまたはコンテンツの分析に必要なデータを取得しても良い。   The video data storage unit 12 is a storage area for storing video data. This is a storage area for storing video data. This video data is identified by an identifier of the video data. In the example illustrated in FIG. 1, a case where the related information providing apparatus 1 holds the video data storage unit 12 will be described, but the present invention is not limited thereto. For example, other devices connected via a communication network or the like may be held, and the related information providing device 1 may acquire video data or data necessary for content analysis from this device as necessary.

人物特徴データ記憶部13は、人物特徴データ13aを記憶する記憶領域である。人物特徴データ13aは、人物名と、当該人物の画像の特徴量とを対応づけたデータである。人物の画像の特徴量とは、例えば、人物の顔画像から分析された特徴量である。   The person feature data storage unit 13 is a storage area for storing person feature data 13a. The person feature data 13a is data in which a person name is associated with a feature amount of the person's image. The feature amount of the person image is, for example, a feature amount analyzed from the face image of the person.

人物特徴データ13aは、例えば、図7に示すようなデータである。図7に示す人物特徴データ13aは、人物の識別子と、この人物名と、この人物の画像の特徴量とを対応づける。人物特徴データ13aに特徴量を登録する人物は、映像データの登場人物や話題の対象となる人物であって、ユーザが関連情報を欲する対象となりうる人物である。   The person feature data 13a is, for example, data as shown in FIG. The person feature data 13a shown in FIG. 7 associates the person identifier, the person name, and the feature amount of the person image. A person whose feature value is registered in the person feature data 13a is a person who is a character or subject of a topic in video data and can be a target for which the user wants related information.

図7においては、人物特徴データ13aが、人物の識別子と人物名とを別々の項目として保有する場合を説明するが、人物名を、人物の識別子として用いても良い。   In FIG. 7, a case is described in which the person feature data 13a holds a person identifier and a person name as separate items, but the person name may be used as a person identifier.

テキスト情報分析部21は、映像データから、要求に含まれる映像データの識別子および再生時間に対応するテキストデータを取得する。ここで、テキスト情報分析部21が取得するテキストデータは、字幕情報として重畳して放送される字幕情報や、文字放送として放送される文字情報のテキストデータである。   The text information analysis unit 21 acquires text data corresponding to the identifier and playback time of the video data included in the request from the video data. Here, the text data acquired by the text information analysis unit 21 is subtitle information that is broadcast while being superimposed as subtitle information, or text data of text information that is broadcast as character broadcast.

テキスト情報分析部21はさらに、取得したテキストデータに含まれる固有名詞を、当該映像データの当該再生時間のキーワードとして抽出する。テキスト情報分析部21はさらに、映像データおよび再生時間に対応するキーワードを抽出すると、抽出したキーワードが、当該映像データの当該映像データのシノプシス情報に含まれる場合、映像関連性が高くなるように映像関連性を設定する。   The text information analysis unit 21 further extracts proper nouns included in the acquired text data as keywords of the reproduction time of the video data. The text information analysis unit 21 further extracts keywords corresponding to the video data and the playback time. When the extracted keywords are included in the synopsis information of the video data of the video data, the video information is highly relevant. Set relevance.

テキスト情報分析部21は、映像データ記憶部12から、関連情報要求検出部41が検出した要求に含まれる映像データの識別子および再生時間に基づいて、テキスト情報を取得する。テキスト情報分析部21は、要求で特定される映像データの再生時間で再生される字幕情報、再生時間の近傍で再生される字幕情報、あるいは、再生時間を含む所定時間で再生される字幕情報を、テキスト情報として取得する。   The text information analysis unit 21 acquires text information from the video data storage unit 12 based on the video data identifier and playback time included in the request detected by the related information request detection unit 41. The text information analysis unit 21 displays subtitle information that is reproduced at the reproduction time of the video data specified by the request, subtitle information that is reproduced near the reproduction time, or subtitle information that is reproduced at a predetermined time including the reproduction time. , Get as text information.

ここでテキスト情報分析部21は、映像データとして多重化する前の字幕情報のデータを参照することができる場合、この多重化前の字幕情報が、再生時間と対応づけられている場合、この多重化前の字幕情報を用いる。この場合、映像メタデータ11aが、多重化する前の字幕情報のデータのURIを保持する。テキスト情報分析部21は、要求対象の映像データの映像メタデータ11aから字幕情報のデータのURIを取得し、このURIに基づいて字幕情報のデータを取得する。テキスト情報分析部21は、取得した字幕情報のデータから、再生時間の字幕情報、再生時間の近傍の字幕情報、あるいは、再生時間を含む所定時間内の字幕情報などのうち、再生時間に最も近い再生時間の字幕情報を、テキスト情報として取得する。   Here, the text information analysis unit 21 can refer to the data of the subtitle information before multiplexing as video data. If the subtitle information before multiplexing is associated with the reproduction time, the multiplexing is performed. Subtitle information before conversion is used. In this case, the video metadata 11a holds the URI of the caption information data before multiplexing. The text information analysis unit 21 acquires the URI of the caption information data from the video metadata 11a of the request target video data, and acquires the caption information data based on the URI. The text information analysis unit 21 is the closest to the reproduction time among the subtitle information of the reproduction time, the subtitle information in the vicinity of the reproduction time, or the subtitle information within the predetermined time including the reproduction time, from the acquired subtitle information data. The subtitle information of the playback time is acquired as text information.

映像データとして多重化する前の字幕情報のデータを参照することができない場合、テキスト情報分析部21は、要求に含まれる映像データの識別子に基づいて要求対象の映像データを取得する。さらにテキスト情報分析部21は、取得した映像データから字幕情報をデコードして字幕情報を特定し、テキスト情報として取得する。映像データから字幕情報をデコードする方法は、放送または配信されたトランスポートストリームから、デジタル放送受信機が字幕情報をデコードする手法などが考えられる。   When the subtitle information data before being multiplexed as video data cannot be referred to, the text information analysis unit 21 acquires the requested video data based on the video data identifier included in the request. Further, the text information analysis unit 21 decodes the caption information from the acquired video data, identifies the caption information, and acquires it as text information. As a method for decoding the caption information from the video data, a technique in which the digital broadcast receiver decodes the caption information from a broadcast or distributed transport stream is conceivable.

要求対象のテキストデータを取得すると、テキスト情報分析部21は、取得したテキストデータを形態素解析し、ユーザが関連情報を要求する対象となりうるキーワードを抽出する。ここで抽出するキーワードは、例えば、固有名詞である。映像データが情報番組やニュースの場合、ユーザの興味の対象は、商業店舗、製品名、エリア名、イベント名などが考えられる。また、ドラマやスポーツ番組などの場合、ユーザの興味の対象は、ドラマに出演する俳優やスポーツ選手などが考えられる。このように、ユーザの興味の対象は、多くの場合固有名詞であることが考えられる。そこでテキスト情報分析部21は、取得したテキストデータから、ユーザの興味の対象として固有名詞を抽出する。なお、固有名詞の抽出方法としては、例えば、IREX (Information Retrieval and Extraction Exercise,http://nlp.cs.nyu.edu/irex/NE/)などの、既存の方法が考えられる。   When the text data to be requested is acquired, the text information analysis unit 21 performs morphological analysis on the acquired text data, and extracts keywords that can be targets for which the user requests related information. The keyword extracted here is a proper noun, for example. When the video data is an information program or news, the user may be interested in commercial stores, product names, area names, event names, and the like. In the case of dramas and sports programs, the user's interest may be actors or sports players who appear in the dramas. As described above, the object of interest of the user can be a proper noun in many cases. Therefore, the text information analysis unit 21 extracts proper nouns from the acquired text data as objects of user interest. As a proper noun extraction method, for example, an existing method such as IREX (Information Retrieval and Extraction Exercise, http://nlp.cs.nyu.edu/irex/NE/) can be considered.

また、テキスト情報分析部21は、ユーザの興味対象として、固有名詞以外の名詞も抽出しても良い。例えば、紅茶を扱った映像データの場合、紅茶のブランド名の固有名詞に限らず、「ダージリン」などの紅茶の種別など、テキストデータを特徴づける名詞などの特徴語もキーワードとして抽出しても良い。テキスト情報分析部21は、取得したテキストデータから抽出した特徴語を、キーワードとしても良い。ただしこの場合、日付情報、時間表現、金額表現などは、ユーザの興味とは関連が低いと考えられるのでキーワードからは除外することが好ましい。   Moreover, the text information analysis part 21 may extract nouns other than a proper noun as a user's interest object. For example, in the case of video data dealing with black tea, characteristic words such as nouns that characterize text data, such as the type of black tea such as “Darjeeling”, may be extracted as keywords. . The text information analysis unit 21 may use feature words extracted from the acquired text data as keywords. However, in this case, it is preferable to exclude date information, time expression, money amount expression, and the like from the keyword because they are considered to be less relevant to the user's interest.

テキスト情報分析部21は、再生時間のキーワードを抽出すると、抽出したキーワードについて、映像関連性を算出する。映像関連性は、ユーザが関連情報を選択する際の指標となる情報である。映像関連性は、シノプシス情報を用いて定義されるので、再生時間に特化した指標とはなり辛いものの、映像データ全体としての関連性の指標となりうる。また映像関連性は特に、ユーザからのアクセスや情報の選択履歴が少ない場合でも、指標としての役割を果たすことができる。   When the text information analysis unit 21 extracts a keyword for the reproduction time, the text information analysis unit 21 calculates video relevance for the extracted keyword. The video relevance is information serving as an index when the user selects related information. Since the video relevance is defined using synopsis information, it is difficult to be an index specialized in playback time, but it can be an index of relevance as a whole video data. In addition, video relevance can serve as an index even when there is little access history or information selection history from the user.

映像関連性を算出する際、テキスト情報分析部21は、シノプシス情報を用いる。シノプシス情報には、映像データ全体の概要と関連の深い用語が含まれていると考えられる。そこでテキスト情報分析部21は、要求対象の映像データのシノプシス情報を取得し、映像データの字幕情報と同様に、形態素解析して固有名詞を抽出する。テキスト情報分析部21は、字幕情報から抽出した固有名詞と、シノプシス情報から抽出された固有名詞とを比較して、字幕情報とシノプシス情報の両方に含まれる固有名詞を特定する。テキスト情報分析部21は、両方に含まれる固有名詞について、このキーワードの映像関連性を高く設定する。   When calculating the video relevance, the text information analysis unit 21 uses synopsis information. Synopsis information is thought to include terms that are closely related to the overview of the entire video data. Therefore, the text information analysis unit 21 acquires the synopsis information of the requested video data, and extracts proper nouns by performing morphological analysis in the same manner as the caption information of the video data. The text information analysis unit 21 compares the proper noun extracted from the caption information with the proper noun extracted from the synopsis information, and identifies the proper noun included in both the caption information and the synopsis information. The text information analysis unit 21 sets the video relevance of this keyword high for proper nouns included in both.

例えば、字幕情報から抽出した固有名詞が、「横浜」、「元町」、「岡田屋」、「京浜東北線」、「石川町」で、シノプシス情報から抽出した固有名詞が、「勝田ゆかり」、「栗田明美」、「横浜」だったとする。映像関連性が高いほど、大きい数値で示す場合、テキスト情報分析部21は、キーワード「横浜」について、映像関連性を「1」と設定し、その他のキーワードの映像関連性を「0」と設定する。   For example, the proper nouns extracted from the caption information are “Yokohama”, “Motomachi”, “Okadaya”, “Keihin Tohoku Line”, “Ishikawacho”, and the proper nouns extracted from the synopsis information are “Ykari Katsuta”, Suppose that it was “Akemi Kurita” and “Yokohama”. When the video relevance is higher and the numerical value is larger, the text information analysis unit 21 sets the video relevance for the keyword “Yokohama” as “1” and the video relevance for other keywords as “0”. To do.

映像情報分析部22は、関連情報要求検出部41が関連情報の要求を検出すると、映像データ記憶部12から、要求に含まれる映像データの識別子および再生時間に対応する部分映像データを取得する。映像情報分析部22は、部分映像データにおいて人物が撮像された部分の特徴量と、人物特徴データ13aに記憶された特徴量とを比較して、部分映像データに含まれる人物名を当該映像データの再生時間のキーワードとして抽出する。   When the related information request detection unit 41 detects a request for related information, the video information analysis unit 22 acquires, from the video data storage unit 12, partial video data corresponding to the video data identifier and playback time included in the request. The video information analysis unit 22 compares the feature quantity of the part in which the person is imaged in the partial video data with the feature quantity stored in the person feature data 13a, and determines the person name included in the partial video data as the video data. As a keyword for the playback time of.

映像情報分析部22は、映像データ記憶部12から、関連情報要求検出部41が検出した要求に含まれる映像データの識別子および再生時間に基づいて、部分映像データを取得する。映像情報分析部22は、要求で特定される映像データの再生時間で再生される映像フレーム、再生時間の近傍で再生される映像データ、あるいは、再生時間を含む所定時間で再生される映像データなどを、部分映像データとして取得する。   The video information analysis unit 22 acquires partial video data from the video data storage unit 12 based on the video data identifier and the playback time included in the request detected by the related information request detection unit 41. The video information analysis unit 22 is a video frame that is played back at the playback time of the video data specified by the request, video data that is played back near the playback time, video data that is played back at a predetermined time including the playback time, etc. Are acquired as partial video data.

映像情報分析部22は、取得した部分映像データを分析し、人物の顔部分を抽出する。その抽出した顔部分の画像から求めた特徴量と、人物特徴データ13aが保有する特徴量との類似度を算出する。映像情報分析部22は、最も類似した人物特徴データ13aの特徴量を決定し、その特徴量に対応する人物名を取得する。このように、顔画像の分析については、例えば、特開2009−157767号公報などに記載の方法を採用することができる。   The video information analysis unit 22 analyzes the acquired partial video data and extracts a human face portion. The degree of similarity between the feature amount obtained from the extracted face portion image and the feature amount possessed by the person feature data 13a is calculated. The video information analysis unit 22 determines the feature quantity of the most similar person feature data 13a, and acquires the person name corresponding to the feature quantity. As described above, for the analysis of the face image, for example, a method described in JP 2009-157767 A can be employed.

例えば、映像情報分析部22が、部分映像データから多数の顔部分を抽出された場合、すべての顔部分について人物名を推定しなくとも良い。多くの出演者がいるシーンでは、ユーザの興味対象が出演者である可能性が低いにもかかわらず、その処理に時間を有してしまうからである。例えば、映像情報分析部22が顔部分を抽出する際、所定数以上の顔部分を検出した場合、全ての顔部分について、人物を特定しなくとも良い。例えば、映像情報分析部22が、顔部分から人物名を特定する処理を省略し、人物名のキーワードに含めない方法が考えられる。また、映像情報分析部22は、表示領域の大きい顔部分について分析して人物を特定し、表示領域の小さい顔部分については、人物を特定する処理を省略するなどの方法も考えられる。   For example, when the video information analysis unit 22 extracts a large number of face parts from the partial video data, it is not necessary to estimate the person names for all the face parts. This is because in a scene where there are many performers, the user's interest is less likely to be a performer, but the process takes time. For example, when the video information analysis unit 22 extracts a face part, if a predetermined number or more of face parts are detected, it is not necessary to specify a person for all the face parts. For example, a method in which the video information analysis unit 22 omits the process of specifying the person name from the face portion and does not include it in the keyword of the person name can be considered. Further, the video information analysis unit 22 may analyze a face part having a large display area to identify a person, and may omit a process of identifying a person for a face part having a small display area.

映像情報分析部22は、人物の顔部分の特徴量に基づいてキーワードを特定すると、このキーワードについても、映像関連性を算出しても良い。具体的には、映像情報分析部22は、要求対象の映像データのシノプシス情報を取得し、形態素解析して固有名詞を抽出する。テキスト情報分析部21は、顔部分の特徴量に基づいて抽出した人物名と、シノプシス情報から抽出された固有名詞とを比較して、両方に含まれる人物名を特定する。映像情報分析部22は、両方に含まれる人物名について、このキーワードの映像関連性を高く設定する。ここで、すでにテキスト情報分析部22によって映像関連性が設定されている場合、映像情報分析部22は、さらに、その映像関連性を高くするように、映像関連性を更新する。 When the video information analysis unit 22 specifies a keyword based on the feature amount of the face portion of the person, the video relevance may be calculated for this keyword. Specifically, the video information analysis unit 22 acquires synopsis information of video data to be requested, and extracts proper nouns by performing morphological analysis. The text information analysis unit 21 compares the person name extracted based on the feature amount of the face part with the proper noun extracted from the synopsis information, and specifies the person name included in both. The video information analysis unit 22 sets the video relevance of this keyword high for the person names included in both. Here, when the video relevance is already set by the text information analysis unit 22, the video information analysis unit 22 further updates the video relevance so as to increase the video relevance.

固定キーワード入力部23は、あらかじめ決められたキーワードを、キーワードデータに登録する。ここでは登録されるキーワードは、あらかじめ作業者などによって入力される。固定キーワード入力部23は、要求に含まれる映像データの識別子および再生時間に関係なく、任意の映像データの識別子と、任意の再生時間に、任意のキーワードを対応づけて、キーワード更新部24に出力しても良い。   The fixed keyword input unit 23 registers a predetermined keyword in the keyword data. Here, the keyword to be registered is input in advance by an operator or the like. The fixed keyword input unit 23 associates an arbitrary keyword with an arbitrary video data identifier and an arbitrary playback time regardless of the video data identifier and the playback time included in the request, and outputs them to the keyword update unit 24. You may do it.

キーワード更新部24は、テキスト情報分析部21、映像情報分析部22および固定キーワード入力部23が決定した各キーワードを、キーワードデータ31aに更新する。   The keyword update unit 24 updates each keyword determined by the text information analysis unit 21, the video information analysis unit 22, and the fixed keyword input unit 23 to the keyword data 31a.

このときキーワード更新部24は、新たなキーワード対応の識別子を採番する。キーワード更新部24は、採番されたキーワード対応の識別子と、要求に関する映像データの識別子および再生時間と、キーワードとを対応づけて、キーワードデータに記憶する。ここでキーワード更新部24は、キーワードに、映像関連性および適合度も対応づけて、キーワードデータ31aに登録しても良い。ここで適合度は、ユーザの操作によって更新されるデータであるので、キーワード更新部24は、適合度として初期値を設定してキーワードデータ31aに登録しても良い。   At this time, the keyword updating unit 24 assigns a new identifier corresponding to the keyword. The keyword update unit 24 associates the identifier corresponding to the numbered keyword, the identifier of the video data related to the request, the reproduction time, and the keyword, and stores them in the keyword data. Here, the keyword update unit 24 may associate the video relevance and the fitness with the keyword and register them in the keyword data 31a. Here, since the fitness is data updated by a user operation, the keyword updating unit 24 may set an initial value as the fitness and register it in the keyword data 31a.

図8を参照して、本発明の実施の形態に係る映像コンテンツ分析部10による映像コンテンツ分析処理を説明する。図8に示す例では、テキスト情報分析部21および映像情報分析部22によって出力されるキーワードを登録する場合を説明する。 With reference to FIG. 8, the video content analysis processing by the video content analysis unit 10 according to the embodiment of the present invention will be described. In the example illustrated in FIG. 8, a case will be described in which keywords output by the text information analysis unit 21 and the video information analysis unit 22 are registered.

まずステップS201において映像コンテンツ分析部10は、キーワード選択部42から、キーワード取得対象となる映像データの識別子および再生時間を取得する。 First, in step S <b> 201, the video content analysis unit 10 acquires the identifier and playback time of video data that is a keyword acquisition target from the keyword selection unit 42.

次にステップS202ないしステップS204において、テキスト情報分析部21によるキーワードが抽出される。具体的にはステップS202においてテキスト情報分析部21は、キーワード処理対象の映像データの識別子に対応する映像メタデータ11aを参照して、字幕情報の取得先のURIを参照する。さらにテキスト情報分析部21は、字幕情報のうち、再生時間帯の字幕情報のテキストデータを取得する。 Next, in steps S202 to S204, keywords by the text information analysis unit 21 are extracted. Specifically, in step S202, the text information analysis unit 21 refers to the video metadata 11a corresponding to the identifier of the video data targeted for keyword processing, and refers to the URI from which the caption information is acquired. Furthermore, the text information analysis part 21 acquires the text data of the subtitle information in the reproduction time zone among the subtitle information.

さらにステップS203においてテキスト情報分析部21は、ステップS202で取得した字幕情報のテキストデータのうち、固有名詞を抽出する。ステップS204においてテキスト情報分析部21は、ステップS203で取得した固有名詞と、映像メタデータ11aのシノプシス情報の固有名詞とを比較して、映像関連性を決定する。 In step S203, the text information analysis unit 21 extracts proper nouns from the text data of the caption information acquired in step S202. In step S204, the text information analysis unit 21 compares the proper noun acquired in step S203 with the proper noun of the synopsis information in the video metadata 11a to determine the video relevance.

次にステップS205ないしステップS207において、映像情報分析部22によるキーワードが抽出される。具体的にはステップS205において映像情報分析部22は、キーワード処理対象の映像データの識別子に対応する映像データを参照して、再生時間帯の部分映像データを取得する。 Next, in steps S205 to S207, keywords are extracted by the video information analysis unit 22. Specifically, in step S205, the video information analysis unit 22 refers to the video data corresponding to the identifier of the video data targeted for keyword processing, and acquires partial video data in the playback time zone.

さらにステップS206において映像情報分析部22は、ステップS205で取得した部分映像データを解析して、人物の顔部分を抽出し、人物特定データの特徴量と比較して、人物名を推定する。ステップS207において映像情報分析部22は、ステップS206で取得した人物名と、映像メタデータ11aのシノプシス情報の人物名とを比較して、映像関連性を決定する。 Further, in step S206, the video information analysis unit 22 analyzes the partial video data acquired in step S205, extracts the face portion of the person, and compares the feature amount of the person specifying data to estimate the person name. In step S207, the video information analysis unit 22 compares the person name acquired in step S206 with the person name of the synopsis information in the video metadata 11a to determine the video relevance.

このように、要求対象の時間帯のキーワードが決定されると、ステップS208においてキーワード更新部24は、キーワードデータ31aに、ステップS202ないしステップS207で特定されたキーワードおよび映像関連性を対応づけて記憶する。このときキーワード更新部24は、各キーワードについてキーワード対応識別子を採番し、このキーワード対応識別子に、映像データの識別子、再生時間、キーワードおよび映像関連性を対応づけたレコードを生成し、キーワードデータ31aに挿入する。ここで、映像コンテンツ分析部10は、テキスト情報分析部21および映像情報分析部22が共通して出力したキーワードであって、シノプシス情報にも含まれるキーワードについては、映像関連性が最も高くなるように、映像関連性を設定する。 As described above, when the keyword for the requested time zone is determined, in step S208, the keyword update unit 24 stores the keyword data 31a in association with the keyword and the video relevance specified in step S202 to step S207. To do. At this time, the keyword updating unit 24 assigns a keyword correspondence identifier for each keyword, generates a record in which the keyword correspondence identifier is associated with the video data identifier, the reproduction time, the keyword, and the video relevance, and the keyword data 31a. Insert into. Here, the video content analysis unit 10 is a keyword output in common by the text information analysis unit 21 and the video information analysis unit 22, and the keyword included in the synopsis information has the highest video relevance. Set the video relevance.

このように本発明の実施の形態に係る関連情報提供装置1は、ユーザ端末101から映像データの識別子および再生時間が入力されると、その映像データおよび再生時間に対応する映像データや映像メタデータから、ユーザの所望の関連情報の抽出に有効と考えられるキーワードを特定する。これにより、従来のように、放送データや映像配信データに新たにフレームごとに識別子を定義し、それにあわせて関連情報をあらかじめ設定することなく、ユーザが興味を示す場面に関する情報を提供することができる。また、ウェブから適宜関連情報を取得することにより、関連情報を動的に生成し、また最新の関連情報を提供することができる。 As described above, when the video data identifier and the playback time are input from the user terminal 101, the related information providing apparatus 1 according to the embodiment of the present invention receives the video data and video metadata corresponding to the playback time. Thus, a keyword that is considered to be effective for extracting the relevant information desired by the user is specified. As a result, it is possible to provide information related to a scene in which a user is interested without newly defining an identifier for each frame in broadcast data or video distribution data and setting related information in advance accordingly. it can. Moreover, by acquiring relevant information appropriately from the web, it is possible to dynamically generate relevant information and provide the latest relevant information.

また本発明の実施の形態においては、キーワードを、字幕情報や映像データの解析により取得する。このように映像データおよび再生時間ごとに推定したキーワードに基づいて、関連情報を取得し、ユーザに提供する。ここで、多くのユーザが興味を示した関連情報に関連するキーワードが、映像データおよび再生時間を示すキーワードであると考えられる。そこで、ユーザからのフィードバックに基づいて、より多くのユーザが閲覧した関連情報に関連するキーワードの適合度を高めることによって、適切なキーワードに基づいた関連情報を、ユーザに提供することができる。 In the embodiment of the present invention, the keyword is acquired by analyzing caption information and video data. In this way, related information is acquired based on the video data and the keyword estimated for each reproduction time, and provided to the user. Here, it is considered that keywords related to related information that many users are interested in are keywords indicating video data and reproduction time. Therefore, based on feedback from users, the degree of matching of keywords related to related information viewed by more users can be increased, so that related information based on appropriate keywords can be provided to users.

(その他の実施の形態)
上記のように、本発明の実施の形態によって記載したが、この開示の一部をなす論述および図面はこの発明を限定するものであると理解すべきではない。この開示から当業者にはさまざまな代替実施の形態、実施例および運用技術が明らかとなる。
(Other embodiments)
As described above, the embodiments of the present invention have been described. However, it should not be understood that the descriptions and drawings constituting a part of this disclosure limit the present invention. From this disclosure, various alternative embodiments, examples, and operational techniques will be apparent to those skilled in the art.

例えば、本発明の実施の形態に記載した関連情報提要装置は、図1に示したように一つの装置に実装されても良いし、複数の装置に実装されても良い。   For example, the related information providing device described in the embodiment of the present invention may be mounted on one device as shown in FIG. 1 or may be mounted on a plurality of devices.

本発明はここでは記載していないさまざまな実施の形態などを含むことは勿論である。従って、本発明の技術的範囲は上記の説明から妥当な特許請求の範囲に係る発明特定事項によってのみ定められるものである。   Needless to say, the present invention includes various embodiments not described herein. Therefore, the technical scope of the present invention is defined only by the invention specifying matters according to the scope of claims reasonable from the above description.

1 関連情報提供装置
2 関連情報提供システム
10 映像コンテンツ分析部
11 映像メタデータ記憶部
12 映像データ記憶部
13 人物特徴データ記憶部
21 テキスト情報分析部
22 映像情報分析部
23 固定キーワード入力部
24 キーワード更新部
31 キーワードデータ記憶部
32 ユーザデータ記憶部
41 関連情報要求検出部
42 キーワード選択部
43 関連情報取得部
44 関連情報出力部
45 新規関連情報通知部
100、102 映像視聴装置
101、103 ユーザ端末
110 通信ネットワーク
DESCRIPTION OF SYMBOLS 1 Related information provision apparatus 2 Related information provision system 10 Video content analysis part 11 Video metadata storage part 12 Video data storage part 13 Person feature data storage part 21 Text information analysis part 22 Video information analysis part 23 Fixed keyword input part 24 Keyword update Unit 31 keyword data storage unit 32 user data storage unit 41 related information request detection unit 42 keyword selection unit 43 related information acquisition unit 44 related information output unit 45 new related information notification unit 100, 102 video viewing device 101, 103 user terminal 110 communication network

Claims (8)

映像データの関連情報を提供する関連情報提供方法であって、
関連情報提供装置が、ユーザ端末から、映像データの識別子および再生時間を含み、当該再生時間における映像の関連情報の要求を受信する関連情報要求検出ステップと、
前記関連情報提供装置が、前記映像データから、前記要求に含まれる映像データの識別子および再生時間に対応するテキストデータを取得し、取得したテキストデータに含まれる固有名詞を、当該映像データの当該再生時間のキーワードとして抽出するテキスト情報分析ステップと、
前記関連情報提供装置が、前記映像データの識別子および再生時間と、前記テキスト情報分析ステップにおいて抽出したキーワードとを対応づけるとともに、この対応づけを識別するキーワード対応の識別子を付して、キーワードデータに記憶するキーワード更新ステップと、
前記関連情報提供装置が、前記キーワードデータから、前記関連情報要求検出ステップにおいて受信した映像データの識別子および再生時間に対応するキーワード対応の識別子およびキーワードを取得するキーワード選択ステップと、
前記関連情報提供装置が、前記キーワード選択ステップにおいて選択されたキーワードに関連する関連情報を、ユーザ端末に出力する関連情報出力ステップと、
を備えることを特徴とする関連情報提供方法。
A related information providing method for providing related information of video data,
A related information request detecting step including a video data identifier and a playback time from the user terminal, and receiving a request for video related information at the playback time;
The related information providing device acquires text data corresponding to an identifier and a playback time of the video data included in the request from the video data, and a proper noun included in the acquired text data is acquired from the playback of the video data. Text information analysis step to extract as a keyword of time,
The related information providing apparatus associates the identifier and playback time of the video data with the keyword extracted in the text information analysis step, and attaches an identifier corresponding to the keyword that identifies this association, to the keyword data. A keyword update step to memorize;
A keyword selection step in which the related information providing device acquires, from the keyword data, an identifier and a keyword corresponding to a keyword corresponding to the identifier and playback time of the video data received in the related information request detection step;
A related information output step in which the related information providing device outputs related information related to the keyword selected in the keyword selecting step to a user terminal;
The related information provision method characterized by comprising.
前記関連情報提供装置が、前記要求に含まれる映像データの識別子および再生時間に対応する部分映像データを取得し、当該部分映像データにおいて人物が撮像された部分の特徴量と、人物名と、当該人物の画像の特徴量とを対応づけた人物特徴データの特徴量とを比較して、当該部分映像データに含まれる人物の人物名を当該映像データの当該再生時間のキーワードとして抽出する映像情報分析ステップをさらに備え、
前記キーワード更新ステップはさらに、キーワード対応の識別子と、映像データの識別子と、当該映像データの再生時間と、前記映像情報分析ステップにおいて抽出したキーワードとを対応づけて、前記キーワードデータに記憶する
ことを特徴とする請求項1に記載の関連情報提供方法。
The related information providing device acquires partial video data corresponding to an identifier and playback time of video data included in the request, a feature amount of a portion where a person is imaged in the partial video data, a person name, Video information analysis that compares the feature quantity of the person feature data with the feature quantity of the person image and extracts the person name of the person included in the partial video data as a keyword of the playback time of the video data Further comprising steps,
The keyword update step further includes associating an identifier corresponding to the keyword, an identifier of the video data, a reproduction time of the video data, and the keyword extracted in the video information analysis step, and storing them in the keyword data. The related information providing method according to claim 1, wherein the related information is provided.
前記キーワード更新ステップは、前記キーワード対応の識別子に、当該映像データの当該再生時間における当該キーワードの適合度をさらに対応づけて前記キーワードデータに記憶し、
前記関連情報出力ステップは、
前記キーワード選択ステップにおいて選択されたキーワードに関連する関連情報を、前記キーワード対応の識別子に対応づけてユーザ端末に出力し、
ユーザ端末において当該関連情報が選択されると、前記キーワードデータの当該キーワード対応の識別子に対応する適合度を上げる更新をするとともに、
前記キーワードデータにおいて、前記映像データの識別子および前記再生時間に複数のキーワードが対応づけられている場合、前記複数のキーワードのうち適合度の高いキーワードに関連する関連情報を優先的に出力する
ことを特徴とする請求項1または2に記載の関連情報提供方法。
In the keyword update step, the identifier corresponding to the keyword is further associated with the matching degree of the keyword at the reproduction time of the video data, and stored in the keyword data.
The related information output step includes:
The related information related to the keyword selected in the keyword selection step is output to the user terminal in association with the keyword corresponding identifier.
When the relevant information is selected in the user terminal, the keyword data is updated to increase the matching degree corresponding to the keyword corresponding identifier,
In the keyword data, when a plurality of keywords are associated with the identifier of the video data and the playback time, related information related to a keyword having a high matching degree among the plurality of keywords is preferentially output. The related information providing method according to claim 1, wherein the related information is provided.
前記キーワード更新ステップは、前記キーワード対応の識別子に、映像関連性も対応づけて前記キーワードデータに記憶し、
前記テキスト情報分析ステップは、映像データおよび再生時間に対応するキーワードを抽出すると、抽出したキーワードが、当該映像データのシノプシス情報に含まれる場合、映像関連性が高くなるように前記映像関連性を設定し、
前記関連情報出力ステップは、前記キーワードデータにおいて、前記映像データの識別子および前記再生時間に複数のキーワードが対応づけられている場合、前記複数のキーワードのうち前記映像関連性の高いキーワードに関連する関連情報を優先的に出力する
ことを特徴とする請求項1ないし3のいずれか1項に記載の関連情報提供方法。
In the keyword update step, the identifier corresponding to the keyword is associated with video relevance and stored in the keyword data,
In the text information analysis step, when the keywords corresponding to the video data and the playback time are extracted, the video relevance is set so that the video relevance is high when the extracted keywords are included in the synopsis information of the video data. And
In the keyword information, when a plurality of keywords are associated with the identifier of the video data and the playback time in the keyword data, the related information output step is related to the keyword having a high video relevance among the plurality of keywords. The related information providing method according to any one of claims 1 to 3, wherein the information is preferentially output.
映像データの関連情報を提供する関連情報提供装置であって、
ユーザ端末から、映像データの識別子および再生時間を含み、当該再生時間における映像の関連情報の要求を受信する関連情報要求検出部と、
前記映像データから、前記要求に含まれる映像データの識別子および再生時間に対応するテキストデータを取得し、取得したテキストデータに含まれる固有名詞を、当該映像データの当該再生時間のキーワードとして抽出するテキスト情報分析部と、
前記映像データの識別子および再生時間と、前記テキスト情報分析部が抽出したキーワードとを対応づけるとともに、この対応づけを識別するキーワード対応の識別子を付して、キーワードデータに記憶するキーワード更新部と、
前記キーワードデータから、前記関連情報要求検出部が受信した映像データの識別子および再生時間に対応するキーワード対応の識別子およびキーワードを取得するキーワード選択部と、
前記キーワード選択部によって選択されたキーワードに関連する関連情報を、ユーザ端末に出力する関連情報出力部と、
を備えることを特徴とする関連情報提供装置。
A related information providing device for providing related information of video data,
A related information request detecting unit that includes an identifier of video data and a playback time from a user terminal, and receives a request for video related information at the playback time;
Text that acquires text data corresponding to an identifier and playback time of the video data included in the request from the video data, and extracts a proper noun included in the acquired text data as a keyword of the playback time of the video data Information analysis department,
A keyword updating unit for associating the identifier and the reproduction time of the video data with the keyword extracted by the text information analysis unit, attaching a keyword correspondence identifier for identifying the correspondence, and storing the keyword in the keyword data;
A keyword selection unit that acquires an identifier and a keyword corresponding to the identifier of the video data and the playback time received by the related information request detection unit from the keyword data;
A related information output unit that outputs related information related to the keyword selected by the keyword selection unit to a user terminal;
A related information providing apparatus comprising:
人物名と、当該人物の画像の特徴量とを対応づけた人物特徴データを記憶する記憶装置と、
前記要求に含まれる映像データの識別子および再生時間に対応する部分映像データを取得し、当該部分映像データにおいて人物が撮像された部分の特徴量と、前記人物特徴データに記憶された特徴量とを比較して、当該部分映像データに含まれる人物名を当該映像データの当該再生時間のキーワードとして抽出する映像情報分析部をさらに備え、
前記キーワード更新部はさらに、キーワード対応の識別子と、映像データの識別子と、当該映像データの再生時間と、前記映像情報分析部が抽出したキーワードとを対応づけて、前記キーワードデータに記憶する
ことを特徴とする請求項5に記載の関連情報提供装置。
A storage device for storing person feature data in which a person name is associated with a feature amount of an image of the person;
The partial video data corresponding to the identifier and the playback time of the video data included in the request is acquired, and the feature amount of the portion where the person is imaged in the partial video data, and the feature amount stored in the person feature data In comparison, the video information analysis unit further extracts a person name included in the partial video data as a keyword of the playback time of the video data,
The keyword updating unit further associates the identifier corresponding to the keyword, the identifier of the video data, the reproduction time of the video data, and the keyword extracted by the video information analysis unit, and stores them in the keyword data. The related information providing apparatus according to claim 5, wherein
前記キーワード更新部は、前記キーワード対応の識別子に、当該映像データの当該再生時間における当該キーワードの適合度をさらに対応づけて前記キーワードデータに記憶し、
前記関連情報出力部は、
前記キーワード選択部によって選択されたキーワードに関連する関連情報を、前記キーワード対応の識別子に対応づけてユーザ端末に出力し、
ユーザ端末において当該関連情報が選択されると、前記キーワードデータの当該キーワード対応の識別子に対応する適合度を上げる更新をするとともに、
前記キーワードデータにおいて、前記映像データの識別子および前記再生時間に複数のキーワードが対応づけられている場合、前記複数のキーワードのうち適合度の高いキーワードに関連する関連情報を優先的に出力する
ことを特徴とする請求項5または6に記載の関連情報提供装置。
The keyword update unit further associates the identifier corresponding to the keyword with the degree of matching of the keyword at the reproduction time of the video data, and stores it in the keyword data.
The related information output unit includes:
The related information related to the keyword selected by the keyword selection unit is output to the user terminal in association with the keyword corresponding identifier.
When the relevant information is selected in the user terminal, the keyword data is updated to increase the matching degree corresponding to the keyword corresponding identifier,
In the keyword data, when a plurality of keywords are associated with the identifier of the video data and the playback time, related information related to a keyword having a high matching degree among the plurality of keywords is preferentially output. 7. The related information providing apparatus according to claim 5 or 6, characterized in that:
コンピュータに、請求項1ないし請求項4のいずれか1項に記載のステップを実行させるための関連情報提供プログラム。   The related information provision program for making a computer perform the step of any one of Claim 1 thru | or 4.
JP2012028060A 2012-02-13 2012-02-13 Related information providing method, related information providing apparatus, and related information providing program Expired - Fee Related JP5627030B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012028060A JP5627030B2 (en) 2012-02-13 2012-02-13 Related information providing method, related information providing apparatus, and related information providing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012028060A JP5627030B2 (en) 2012-02-13 2012-02-13 Related information providing method, related information providing apparatus, and related information providing program

Publications (2)

Publication Number Publication Date
JP2013164770A JP2013164770A (en) 2013-08-22
JP5627030B2 true JP5627030B2 (en) 2014-11-19

Family

ID=49176075

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012028060A Expired - Fee Related JP5627030B2 (en) 2012-02-13 2012-02-13 Related information providing method, related information providing apparatus, and related information providing program

Country Status (1)

Country Link
JP (1) JP5627030B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019074949A (en) * 2017-10-17 2019-05-16 株式会社Nttドコモ Retrieval device and program
JP7455584B2 (en) 2020-01-06 2024-03-26 キヤノン株式会社 Information processing device, control method for information processing device, program, and storage medium

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100769371B1 (en) * 2001-05-12 2007-10-22 엘지전자 주식회사 Medium on recorded script files, and method and apparatus for reproducing them
JP2005115790A (en) * 2003-10-09 2005-04-28 Sony Corp Information retrieval method, information display and program
JP2007142750A (en) * 2005-11-17 2007-06-07 National Agency For The Advancement Of Sports & Health Video image browsing system, computer terminal and program
JP2007148976A (en) * 2005-11-30 2007-06-14 Toshiba Corp Relevant information retrieval device
KR100916717B1 (en) * 2006-12-11 2009-09-09 강민수 Advertisement Providing Method and System for Moving Picture Oriented Contents Which Is Playing
JP2008167018A (en) * 2006-12-27 2008-07-17 Toshiba Corp Recording and reproducing device
JP2009010797A (en) * 2007-06-29 2009-01-15 Hitachi Ltd Information presenting method and apparatus
JP4814849B2 (en) * 2007-08-10 2011-11-16 富士通株式会社 How to identify the frame
US20090113475A1 (en) * 2007-08-21 2009-04-30 Yi Li Systems and methods for integrating search capability in interactive video
JP2009157460A (en) * 2007-12-25 2009-07-16 Hitachi Ltd Information presentation device and method
JP5106455B2 (en) * 2009-03-18 2012-12-26 株式会社東芝 Content recommendation device and content recommendation method
JP2010239507A (en) * 2009-03-31 2010-10-21 Toshiba Corp Moving image processing apparatus

Also Published As

Publication number Publication date
JP2013164770A (en) 2013-08-22

Similar Documents

Publication Publication Date Title
KR102313471B1 (en) Methods, systems, and media for presenting supplemental information corresponding to on-demand media content
CN102265276B (en) Commending system based on context
US9414006B2 (en) System for generating recommendation keyword of multimedia contents and method thereof
KR101644789B1 (en) Apparatus and Method for providing information related to broadcasting program
US9626369B2 (en) Method and apparatus for collecting and providing information of interest to user regarding multimedia content
KR101999389B1 (en) Identification and presentation of internet-accessible content associated with currently playing television programs
JP4922245B2 (en) Server, method and program for providing advertisement information related to viewed content
US8965916B2 (en) Method and apparatus for providing media content
CN110913241B (en) Video retrieval method and device, electronic equipment and storage medium
KR20150052123A (en) Aiding discovery of program content by providing deeplinks into most interesting moments via social media
WO2015070807A1 (en) Program recommendation method and device for smart television
KR20150083336A (en) Server, method for providing service thereof, display device and method for displaying thereof
KR20090014846A (en) Method for displaying customized data and a browser agent
WO2014151883A1 (en) Using an audio stream to identify metadata associated with a currently playing television program
JP4305080B2 (en) Video playback method and system
JP2010288024A (en) Moving picture recommendation apparatus
JP5627030B2 (en) Related information providing method, related information providing apparatus, and related information providing program
JP5335500B2 (en) Content search apparatus and computer program
JP5344937B2 (en) SEARCH METHOD, SEARCH SYSTEM, AND SEARCH TERM GENERATION DEVICE BASED ON METALL INFORMATION OF TV PROGRAM
KR20120127031A (en) Method for Recommending Contents Based on User Watch History
JP2012084966A (en) Moving image information viewing device and moving image information viewing method
JP5545883B2 (en) Recommendation data shaping method, recommendation data shaping device and recommendation data shaping program
KR20090128251A (en) System and its method for providing advertisement based on substance of multimedia contents
US20160353176A1 (en) Contextual content programming
KR101343488B1 (en) System for searching product of tv-commerce synchronized with tv broadcasting program and method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140624

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140729

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140904

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140924

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140926

R150 Certificate of patent or registration of utility model

Ref document number: 5627030

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees