JP2008134825A - Information processor, information processing method and program - Google Patents

Information processor, information processing method and program Download PDF

Info

Publication number
JP2008134825A
JP2008134825A JP2006320507A JP2006320507A JP2008134825A JP 2008134825 A JP2008134825 A JP 2008134825A JP 2006320507 A JP2006320507 A JP 2006320507A JP 2006320507 A JP2006320507 A JP 2006320507A JP 2008134825 A JP2008134825 A JP 2008134825A
Authority
JP
Japan
Prior art keywords
program
headline
keyword
unit
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2006320507A
Other languages
Japanese (ja)
Inventor
Taka Murakoshi
象 村越
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2006320507A priority Critical patent/JP2008134825A/en
Publication of JP2008134825A publication Critical patent/JP2008134825A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To associate an index appropriate to a program content with a program partitioned to image sections. <P>SOLUTION: An index relevant keyword group extraction part 22 extracts, from a text associated with an index contained in information relevant to a program, a word contained in the text as an index keyword. An image section capturing part 16 cuts the program to a plurality of image sections, and a caption keyword group extraction part 18 extracts, for each image section captured by the part 16, a word contained in a caption synchronized with an image of the program as a caption keyword. An association information retention part 26 associates an index associated with the text from which an index keyword evaluated to have the highest similarity with a caption keyword by a similarity evaluation part 24 for evaluating the similarity between the caption keyword and the index keyword with an image section. This invention is applicable to, for example, a video reproducing device. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、情報処理装置および情報処理方法、並びにプログラムに関し、特に、番組から切り出された映像区間に、映像区間内の番組の内容に対して適切な見出しを紐付けることができるようにした情報処理装置および情報処理方法、並びにプログラムに関する。   The present invention relates to an information processing apparatus, an information processing method, and a program, and in particular, information that enables an appropriate heading to be associated with the content of a program in a video section in a video section cut out from the program. The present invention relates to a processing device, an information processing method, and a program.

従来、ハードディスクレコーダなどの録画再生装置の中には、テレビジョン放送された番組を録画する際に、番組の映像を解析することによって抽出された特徴に基づいて、場面(シーン)が切り替わる位置を検出し、その位置に応じて、番組から複数の映像区間を切り出す機能が搭載されているものがある。   2. Description of the Related Art Conventionally, in a recording / playback apparatus such as a hard disk recorder, when a television broadcast program is recorded, a position where a scene switches is determined based on a feature extracted by analyzing a program video. Some of them have a function of detecting and cutting out a plurality of video sections from a program according to the position.

このような録画再生装置では、録画済の番組の再生時において、表示部に、映像区間の先頭のフレームに対応する静止画像を並べて表示させ、それらの静止画像に基づいてユーザが所望の映像区間を選択すると、ユーザにより選択された映像区間の開始位置から、番組の再生が開始される。   In such a recording / playback apparatus, when a recorded program is played back, a still image corresponding to the first frame of the video section is displayed side by side on the display unit, and the user can select a desired video section based on the still image. When is selected, program playback is started from the start position of the video section selected by the user.

ここで、例えば、特許文献1には、テレビジョン放送されている番組でコーナが開始するときに表示されるタイトル名を抽出し、そのコーナが放送されている間、タイトル名を表示する表示装置が開示されている。   Here, for example, Patent Document 1 discloses a display device that extracts a title name that is displayed when a corner starts in a television broadcast program and displays the title name while the corner is broadcast. Is disclosed.

特開2004−72504号公報JP 2004-72504 A

ところで、上述したように、録画再生装置が、映像区間に応じた静止画像を表示したとしても、ユーザが、静止画像だけによって、映像区間内の番組の内容を把握することは難しく、所望の映像区間を見つけ出すことが困難であった。例えば、録画再生装置が、映像区間に応じた静止画像とともに、映像区間内の番組の内容を適切に表現した見出しを表示することができれば、ユーザは、静止画像と見出しにより映像区間内の番組の内容を把握し、所望の映像区間を容易に見つけ出すことができると考えられる。   By the way, as described above, even if the recording / playback apparatus displays a still image corresponding to the video section, it is difficult for the user to grasp the content of the program in the video section only by the still image, and the desired video is displayed. It was difficult to find a section. For example, if the recording / playback apparatus can display a headline that appropriately represents the contents of a program in the video section together with a still image corresponding to the video section, the user can display the program in the video section by using the still image and the heading. It is thought that the content can be grasped and a desired video section can be easily found.

しかしながら、従来の録画再生装置では、映像区間内の番組に含まれる情報を処理して、番組の内容を認識することは困難であったため、映像区間内の番組の内容を適切に表現した見出しを表示することは行われていなかった。そこで、このような表示を行うために、映像区間内の番組に含まれる情報を処理して、映像区間の内容を適切に表現した見出しを、映像区間に紐付ける情報処理装置が求められていた。   However, in the conventional recording / playback apparatus, it is difficult to process the information included in the program in the video section and recognize the contents of the program, so a headline that appropriately represents the contents of the program in the video section is displayed. It was not done to display. Therefore, in order to perform such display, there has been a demand for an information processing apparatus that processes information included in a program in a video section and associates a headline that appropriately represents the contents of the video section with the video section. .

本発明は、このような状況に鑑みてなされたものであり、番組から切り出された映像区間に、映像区間内の番組の内容に対して適切な見出しを紐付けることができるようにするものである。   The present invention has been made in view of such a situation, and enables an appropriate heading to be associated with the content of a program in a video section in a video section cut out from the program. is there.

本発明の一側面の情報処理装置は、番組、および前記番組に関連する情報を処理する情報処理装置であって、前記番組に関連する情報に含まれる見出しに紐付けられている本文から、前記本文に含まれる単語を、見出しキーワードとして抽出する見出しキーワード抽出手段と、前記番組から複数の映像区間を切り出す切り出し手段と、前記切り出し手段により切り出された前記映像区間ごとに、前記番組の映像に同期している字幕から、前記字幕に含まれる単語を、字幕キーワードとして抽出する字幕キーワード抽出手段と、前記字幕キーワードと前記見出しキーワードとの類似性を評価する評価手段と、前記字幕キーワードとの類似性が最も高いと評価された前記見出しキーワードが抽出された前記本文に紐付けられている前記見出しを、前記映像区間に紐付ける紐付け手段とを備える。   An information processing apparatus according to an aspect of the present invention is an information processing apparatus that processes a program and information related to the program, and is based on the text associated with a heading included in the information related to the program, Synchronizing with the video of the program for each of the video sections cut out by the cut-out means, the cut-out means for cutting out a plurality of video sections from the program, and the headline keyword-extracting means for extracting words included in the text as headline keywords Subtitle keyword extracting means for extracting words included in the subtitles as subtitle keywords from the subtitles being performed, evaluation means for evaluating the similarity between the subtitle keywords and the headline keywords, and similarity between the subtitle keywords The headline associated with the body from which the headline keyword evaluated as being the highest is extracted, And a strap with means to attach the string to the serial video section.

本発明の一側面の情報処理方法またはプログラムは、番組、および前記番組に関連する情報を処理する情報処理方法、または、番組、および前記番組に関連する情報を処理するコンピュータに実行させるプログラムであって、前記番組に関連する情報に含まれる見出しに紐付けられている本文から、前記本文に含まれる単語を見出しキーワードとして抽出し、前記番組から複数の映像区間を切り出し、前記映像区間ごとに、前記番組の映像に同期している字幕から、前記字幕に含まれる単語を字幕キーワードとして抽出し、前記字幕キーワードと前記見出しキーワードとの類似性を評価し、前記字幕キーワードとの類似性が最も高いと評価された前記見出しキーワードが抽出された前記本文に紐付けられている前記見出しを、前記映像区間に紐付けるステップを含む。   An information processing method or program according to one aspect of the present invention is an information processing method for processing a program and information related to the program, or a program executed by a computer that processes the program and information related to the program. Then, from the text linked to the headline included in the information related to the program, the word included in the text is extracted as a headline keyword, and a plurality of video sections are cut out from the program, and for each video section, Extract words contained in the subtitle as subtitle keywords from subtitles synchronized with the video of the program, evaluate the similarity between the subtitle keyword and the headline keyword, and have the highest similarity with the subtitle keyword The headline associated with the body text from which the headline keyword evaluated as Comprising the step of attaching.

本発明の一側面においては、番組に関連する情報に含まれる見出しに紐付けられている本文から、本文に含まれる単語が見出しキーワードとして抽出される。また、番組から複数の映像区間が切り出され、映像区間ごとに、番組の映像に同期している字幕から、字幕に含まれる単語が字幕キーワードとして抽出される。そして、字幕キーワードと見出しキーワードとの類似性が評価され、字幕キーワードとの類似性が最も高いと評価された見出しキーワードが抽出された本文に紐付けられている見出しが、映像区間に紐付けられる。   In one aspect of the present invention, a word included in the text is extracted as a headline keyword from the text associated with the headline included in the information related to the program. Also, a plurality of video sections are cut out from the program, and words included in the subtitles are extracted as subtitle keywords from the subtitles synchronized with the video of the program for each video section. Then, the similarity between the subtitle keyword and the headline keyword is evaluated, and the headline associated with the body from which the headline keyword evaluated as having the highest similarity with the subtitle keyword is associated with the video section. .

本発明の一側面によれば、番組から切り出された映像区間に、映像区間内の番組の内容に対して適切な見出しを紐付けることができる。   According to one aspect of the present invention, an appropriate heading can be associated with the content of a program in a video section in a video section cut out from the program.

以下に本発明の実施の形態を説明するが、本発明の構成要件と、明細書又は図面に記載の実施の形態との対応関係を例示すると、次のようになる。この記載は、本発明をサポートする実施の形態が、明細書又は図面に記載されていることを確認するためのものである。従って、明細書又は図面中には記載されているが、本発明の構成要件に対応する実施の形態として、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その構成要件に対応するものではないことを意味するものではない。逆に、実施の形態が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。   Embodiments of the present invention will be described below. Correspondences between the constituent elements of the present invention and the embodiments described in the specification or the drawings are exemplified as follows. This description is intended to confirm that the embodiments supporting the present invention are described in the specification or the drawings. Therefore, even if there is an embodiment which is described in the specification or the drawings but is not described here as an embodiment corresponding to the constituent elements of the present invention, that is not the case. It does not mean that the form does not correspond to the constituent requirements. Conversely, even if an embodiment is described here as corresponding to a configuration requirement, that means that the embodiment does not correspond to a configuration requirement other than the configuration requirement. It's not something to do.

本発明の一側面の情報処理装置は、番組、および前記番組に関連する情報を処理する情報処理装置であって、
前記番組に関連する情報に含まれる見出しに紐付けられている本文から、前記本文に含まれる単語を、見出しキーワードとして抽出する見出しキーワード抽出手段(例えば、図1の見出し関連キーワード群抽出部22)と、
前記番組から複数の映像区間を切り出す切り出し手段(例えば、図1の映像区間切り出し部16)と、
前記切り出し手段により切り出された前記映像区間ごとに、前記番組の映像に同期している字幕から、前記字幕に含まれる単語を、字幕キーワードとして抽出する字幕キーワード抽出手段(例えば、図1の字幕キーワード群抽出部18)と、
前記字幕キーワードと前記見出しキーワードとの類似性を評価する評価手段(例えば、図1の類似性評価部24)と、
前記字幕キーワードとの類似性が最も高いと評価された前記見出しキーワードが抽出された前記本文に紐付けられている前記見出しを、前記映像区間に紐付ける紐付け手段(例えば、図1の紐付け処理部25)と
を備える。
An information processing apparatus according to one aspect of the present invention is an information processing apparatus that processes a program and information related to the program,
Headline keyword extraction means (for example, a headline-related keyword group extraction unit 22 in FIG. 1) that extracts words included in the main text from the main text associated with the headlines included in the information related to the program. When,
Cutout means for cutting out a plurality of video sections from the program (for example, the video section cutout section 16 in FIG. 1),
For each of the video sections cut out by the cutout means, subtitle keyword extraction means for extracting words included in the subtitles as subtitle keywords from subtitles synchronized with the video of the program (for example, subtitle keywords in FIG. 1). Group extraction unit 18);
Evaluation means for evaluating the similarity between the caption keyword and the headline keyword (for example, the similarity evaluation unit 24 in FIG. 1);
A linking means for linking the headline linked to the body from which the headline keyword evaluated as having the highest similarity to the caption keyword is linked to the video section (for example, linking in FIG. 1) And a processing unit 25).

また、本発明の一側面の情報処理装置は、
前記番組を受信する番組受信手段(例えば、図1の番組受信部13)と、
前記番組に関連する情報を受信する情報受信手段(例えば、図1のデータ放送受信部19)と
をさらに備えることができる。
An information processing apparatus according to one aspect of the present invention includes:
Program receiving means for receiving the program (for example, the program receiving unit 13 in FIG. 1);
Information receiving means for receiving information related to the program (for example, the data broadcast receiving unit 19 in FIG. 1) can be further provided.

また、本発明の一側面の情報処理装置は、
前記番組と、前記番組に関連する情報との受信を、時分割により行う受信手段(例えば、図1の番組受信部13およびデータ放送受信部19)
をさらに備えることができる。
An information processing apparatus according to one aspect of the present invention includes:
Receiving means for receiving the program and information related to the program by time division (for example, the program receiving unit 13 and the data broadcast receiving unit 19 in FIG. 1).
Can further be provided.

また、本発明の一側面の情報処理装置は、
前記番組の映像の特徴量の変化に基づいて、前記切り出し手段により前記番組から切り出される前記映像区間を決定する映像区間決定手段(例えば、図1の映像区間決定部15)
をさらに備えることができる。
An information processing apparatus according to one aspect of the present invention includes:
Video segment determining means (for example, video segment determining unit 15 in FIG. 1) for determining the video segment cut out from the program by the clipping unit based on a change in the feature amount of the video of the program.
Can further be provided.

本発明の一側面の情報処理方法またはプログラムは、番組、および前記番組に関連する情報を処理する情報処理方法、または、番組、および前記番組に関連する情報を処理するコンピュータに実行させるプログラムであって、
前記番組に関連する情報に含まれる見出しに紐付けられている本文から、前記本文に含まれる単語を見出しキーワードとして抽出し(例えば、図7のステップS14)、
前記番組から複数の映像区間を切り出し(例えば、図8のステップS23)、
前記映像区間ごとに、前記番組の映像に同期している字幕から、前記字幕に含まれる単語を字幕キーワードとして抽出し(例えば、図8のステップS25)、
前記字幕キーワードと前記見出しキーワードとの類似性を評価し(例えば、図8のステップS26)、
前記字幕キーワードとの類似性が最も高いと評価された前記見出しキーワードが抽出された前記本文に紐付けられている前記見出しを、前記映像区間に紐付ける(例えば、図8のステップS28)
ステップを含む。
An information processing method or program according to one aspect of the present invention is an information processing method for processing a program and information related to the program, or a program executed by a computer that processes the program and information related to the program. And
From the text associated with the headline included in the information related to the program, a word included in the text is extracted as a headline keyword (for example, step S14 in FIG. 7).
A plurality of video sections are cut out from the program (for example, step S23 in FIG. 8),
For each video section, words included in the subtitles are extracted as subtitle keywords from subtitles synchronized with the video of the program (for example, step S25 in FIG. 8).
Evaluating the similarity between the caption keyword and the headline keyword (for example, step S26 in FIG. 8),
The headline associated with the body from which the headline keyword evaluated to have the highest similarity with the caption keyword is associated with the video section (for example, step S28 in FIG. 8).
Includes steps.

以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。   Hereinafter, specific embodiments to which the present invention is applied will be described in detail with reference to the drawings.

図1は、本発明を適用した情報処理装置の一実施の形態の構成例を示すブロック図である。   FIG. 1 is a block diagram showing a configuration example of an embodiment of an information processing apparatus to which the present invention is applied.

図1において、情報処理装置11は、アンテナ12、番組受信部13、特徴抽出部14、映像区間決定部15、映像区間切り出し部16、字幕切り出し部17、字幕キーワード群抽出部18、データ放送受信部19、見出し取得部20、本文取得部21、見出し関連キーワード群抽出部22、見出し保持部23、類似性評価部24、紐付け処理部25、および紐付け情報保持部26から構成される。   In FIG. 1, an information processing apparatus 11 includes an antenna 12, a program receiving unit 13, a feature extracting unit 14, a video segment determining unit 15, a video segment segmenting unit 16, a caption segmenting unit 17, a caption keyword group extracting unit 18, and data broadcasting reception. A section 19, a headline acquisition section 20, a body text acquisition section 21, a headline related keyword group extraction section 22, a headline holding section 23, a similarity evaluation section 24, a linking processing section 25, and a linking information holding section 26.

アンテナ12は、テレビジョン放送されているRF(radio frequency)信号を受信し、番組受信部13およびデータ放送受信部19にRF信号を供給する。   The antenna 12 receives an RF (radio frequency) signal broadcast on television and supplies the RF signal to the program receiving unit 13 and the data broadcasting receiving unit 19.

番組受信部13は、アンテナ12からのRF信号を受信して復調し、MPEG-TS(Moving Picture Experts Group-Transport Stream)を取得する。番組受信部13は、録画の対象になっている番組のデータ(映像のデータ、および映像に同期した字幕のデータ)をMPEG-TSから抽出し、その番組のデータを、特徴抽出部14および映像区間切り出し部16に供給する。   The program receiving unit 13 receives and demodulates the RF signal from the antenna 12, and acquires MPEG-TS (Moving Picture Experts Group-Transport Stream). The program receiving unit 13 extracts program data (video data and caption data synchronized with the video) from the MPEG-TS, and the program data is extracted from the feature extraction unit 14 and the video. This is supplied to the section cutout unit 16.

特徴抽出部14は、番組から複数の映像区間を切り出すことの前処理として、番組受信部13から供給された番組のデータを解析し、解析結果である特徴量を番組のデータから抽出する。例えば、特徴抽出部14は、連続するフレームの画素値の変化や、テロップの表示の有無、音量の変化などに基づいて、番組のデータを解析する。そして、特徴抽出部14は、番組から抽出した特徴量を、映像区間決定部15に供給する。   The feature extraction unit 14 analyzes the program data supplied from the program reception unit 13 as pre-processing for extracting a plurality of video sections from the program, and extracts the feature amount as the analysis result from the program data. For example, the feature extraction unit 14 analyzes program data based on changes in pixel values of consecutive frames, presence / absence of telop display, change in volume, and the like. Then, the feature extraction unit 14 supplies the feature amount extracted from the program to the video section determination unit 15.

映像区間決定部15は、特徴抽出部14から供給される特徴量に基づいて、番組から切り出される映像区間を決定する。例えば、ドラマや映画における場面(シーン)の変わり目においては、連続するフレームの画素値の変化が大きくなり、特徴抽出部14から供給される特徴量も大きな値となる。従って、映像区間決定部15は、特徴量が、所定の閾値以上となった時刻を、映像区間の開始時刻または終了時刻として決定する。そして、映像区間決定部15は、映像区間の開始時刻または終了時刻を含む情報であるチャプタ情報を生成し、映像区間切り出し部16に供給する。   The video section determination unit 15 determines a video section cut out from the program based on the feature amount supplied from the feature extraction unit 14. For example, at the transition of a scene in a drama or a movie, the change in the pixel value of consecutive frames is large, and the feature amount supplied from the feature extraction unit 14 is also a large value. Therefore, the video section determination unit 15 determines the time when the feature amount is equal to or greater than a predetermined threshold as the start time or end time of the video section. Then, the video segment determination unit 15 generates chapter information that is information including the start time or end time of the video segment, and supplies the chapter information to the video segment cutout unit 16.

映像区間切り出し部16には、番組受信部13から番組のデータが供給されるとともに、映像区間決定部15からチャプタ情報が供給される。映像区間切り出し部16は、映像区間決定部15から供給されたチャプタ情報に基づいて、番組受信部13から供給された番組のデータから映像区間を切り出し、映像区間ごとに、番組のデータを字幕切り出し部17および紐付け処理部25に供給する。   The video section cutout section 16 is supplied with program data from the program receiving section 13 and chapter information from the video section determination section 15. The video segment cutout unit 16 cuts out the video segment from the program data supplied from the program receiving unit 13 based on the chapter information supplied from the video segment determination unit 15, and subtitles the program data for each video segment. To the unit 17 and the linking processing unit 25.

字幕切り出し部17は、映像区間切り出し部16から供給された映像区間ごとの番組のデータから、映像に同期した字幕のデータを抽出し、字幕キーワード群抽出部18に供給する。   The caption segmentation unit 17 extracts caption data synchronized with the video from the program data for each video segment supplied from the video segment segmentation unit 16, and supplies it to the caption keyword group extraction unit 18.

字幕キーワード群抽出部18は、字幕切り出し部17から供給された映像区間ごとの字幕のデータに対して形態素解析を行い、字幕に含まれる単語を字幕キーワードとして抽出する。例えば、字幕キーワード群抽出部18は、字幕中の単語を単語(形態素)単位に区切り、区切られた各単語に品詞を付与し、品詞として「名詞」が付与された単語を、字幕キーワードとして抽出する。字幕キーワード群抽出部18は、映像区間ごとに複数の字幕キーワードを抽出し、それらの字幕キーワード(字幕キーワード群)のデータを類似性評価部24に供給する。   The caption keyword group extraction unit 18 performs morphological analysis on the caption data for each video section supplied from the caption cutout unit 17, and extracts words included in the caption as caption keywords. For example, the caption keyword group extraction unit 18 divides words in the caption into words (morphemes), assigns parts of speech to the divided words, and extracts words assigned “noun” as parts of speech as caption keywords. To do. The subtitle keyword group extraction unit 18 extracts a plurality of subtitle keywords for each video section, and supplies data of the subtitle keywords (subtitle keyword group) to the similarity evaluation unit 24.

データ放送受信部19は、アンテナ12からのRF信号を受信して復調し、データ放送として放送されているテキストデータや静止画像などを取得する。データ放送受信部19は、データ放送のテキストデータを、見出し取得部20および本文取得部21に供給する。   The data broadcast receiving unit 19 receives and demodulates the RF signal from the antenna 12, and acquires text data, a still image, and the like broadcast as data broadcast. The data broadcast receiving unit 19 supplies the text data of the data broadcast to the headline acquisition unit 20 and the body text acquisition unit 21.

見出し取得部20は、データ放送受信部19から供給されたデータ放送のテキストデータから、データ放送の記述言語として規定されているBML(Broadcast Markup Language)に基づいて、見出しのデータを取得する。見出し取得部20は、データ放送のテキストデータから取得した見出しのデータを、見出し保持部23に供給する。   The headline acquisition unit 20 acquires headline data from text data of the data broadcast supplied from the data broadcast reception unit 19 based on BML (Broadcast Markup Language) defined as a data broadcast description language. The header acquisition unit 20 supplies the header data acquired from the text data of the data broadcast to the header holding unit 23.

本文取得部21は、データ放送受信部19から供給されたデータ放送のテキストデータから、BMLに基づいて、本文のデータを取得する。本文取得部21は、データ放送のテキストデータから取得した本文のデータを、見出し関連キーワード群抽出部22に供給する。   The text acquisition unit 21 acquires text data from the text data of the data broadcast supplied from the data broadcast receiving unit 19 based on BML. The body acquisition unit 21 supplies body data acquired from the text data of the data broadcast to the headline-related keyword group extraction unit 22.

見出し関連キーワード群抽出部22は、本文取得部21から供給された本文のデータに対して形態素解析を行い、本文に含まれる単語を、見出し関連キーワードとして抽出する。見出し関連キーワード群抽出部22は、データ放送の本文から複数の見出し関連キーワードを抽出し、それらの見出し関連キーワード(見出し関連キーワード群)のデータを見出し保持部23に供給する。   The headline-related keyword group extraction unit 22 performs morphological analysis on the text data supplied from the text acquisition unit 21 and extracts words included in the text as headline-related keywords. The headline-related keyword group extraction unit 22 extracts a plurality of headline-related keywords from the text of the data broadcast, and supplies data of the headline-related keywords (headline-related keyword group) to the headline holding unit 23.

見出し保持部23は、見出し取得部20から供給された見出しのデータと、見出し関連キーワード群抽出部22から供給された見出し関連キーワード群のデータとを対応付けて保持(記憶)する。また、データ放送は、放送局から定期的に送信されてくるものであるので、見出し保持部23には、見出しのデータと見出し関連キーワード群のデータとが、順次蓄積される。   The headline holding unit 23 holds (stores) the headline data supplied from the headline acquisition unit 20 and the headline related keyword group data supplied from the headline related keyword group extraction unit 22 in association with each other. In addition, since the data broadcast is periodically transmitted from the broadcasting station, the headline holding unit 23 sequentially stores the headline data and the data of the headline related keyword group.

類似性評価部24には、字幕キーワード群抽出部18から字幕キーワード群が供給され、類似性評価部24は、字幕キーワード群抽出部18からの字幕キーワード群と、見出し保持部23に保持されている複数の見出し関連キーワード群との類似性を評価する。   The similarity evaluation unit 24 is supplied with a caption keyword group from the caption keyword group extraction unit 18, and the similarity evaluation unit 24 is held in the caption keyword group from the caption keyword group extraction unit 18 and the headline holding unit 23. Evaluate the similarity with multiple headline related keywords.

例えば、類似性評価部24は、字幕キーワード群および見出し関連キーワード群の全ての単語の数に対する、字幕キーワード群と見出し関連キーワード群との間で一致した単語の数の割合に応じて、字幕キーワード群と見出し関連キーワード群との類似性を評価する。即ち、類似性評価部24は、この割合が高ければ、字幕キーワード群と見出し関連キーワード群との類似性が高いと評価し、この割合が低ければ、字幕キーワード群と見出し関連キーワード群との類似性が低いと評価する。   For example, the similarity evaluation unit 24 selects the caption keyword according to the ratio of the number of matched words between the caption keyword group and the headline-related keyword group with respect to the number of all words in the caption keyword group and the headline-related keyword group. Evaluate the similarity between groups and headline related keywords. That is, the similarity evaluation unit 24 evaluates that the similarity between the subtitle keyword group and the headline related keyword group is high if the ratio is high, and the similarity between the subtitle keyword group and the headline related keyword group if the ratio is low. Evaluated to be low.

そして、類似性評価部24は、類似性の評価が所定の基準以上である見出し関連キーワード群のうちの、類似性の評価が最も高い見出し関連キーワード群を特定する特定情報を、紐付け処理部25に供給する。なお、類似性の評価が所定の基準以上である見出し関連キーワード群が、見出し保持部23に保持されていない場合、類似性評価部24は、紐付け処理部25に特定情報を供給しない。   Then, the similarity evaluation unit 24 assigns specific information for identifying the headline-related keyword group having the highest similarity evaluation among the headline-related keyword groups whose similarity evaluation is equal to or higher than a predetermined criterion. 25. Note that if the headline related keyword group whose similarity evaluation is equal to or higher than a predetermined standard is not held in the headline holding unit 23, the similarity evaluation unit 24 does not supply the linking processing unit 25 with specific information.

紐付け処理部25には、映像区間切り出し部16から映像区間ごとの番組のデータが供給される。紐付け処理部25は、類似性評価部24から字幕キーワード群との類似性の評価が最も高い見出し関連キーワード群を特定する特定情報が供給されると、類似性評価部24から供給された特定情報により特定される見出し関連キーワード群に対応付けられている見出しのデータを、見出し保持部23から読み出す。そして、紐付け処理部25は、見出し保持部23から読み出した見出しのデータと、映像区間切り出し部16から供給された映像区間ごとの番組のデータとを紐付ける紐付け情報を生成して、紐付け情報保持部26に供給する。   The association processing unit 25 is supplied with program data for each video segment from the video segment cutout unit 16. When the specific information specifying the headline related keyword group having the highest similarity evaluation with the caption keyword group is supplied from the similarity evaluation unit 24, the linking processing unit 25 is supplied with the specification supplied from the similarity evaluation unit 24. The headline data associated with the headline related keyword group specified by the information is read from the headline holding unit 23. Then, the linking processing unit 25 generates linking information for linking the heading data read from the heading holding unit 23 and the program data for each video section supplied from the video section cutout unit 16. The information is supplied to the attachment information holding unit 26.

紐付け情報保持部26は、紐付け処理部25から供給された映像区間ごとの番組のデータと見出しとを紐付ける紐付け情報を保持(記憶)する。   The linking information holding unit 26 holds (stores) linking information for linking program data and headings for each video section supplied from the linking processing unit 25.

次に、図2は、データ放送の画面の表示例を示す図である。   Next, FIG. 2 is a diagram illustrating a display example of a data broadcast screen.

図2には、テレビジョン放送される番組の内容を紹介するための画面30が示されており、画面30には、番組の番組名31、番組の内容を紹介する番組情報32、および番組の出演者などの静止画像33などが表示されている。番組情報32には、番組内のコーナのタイトル名である見出し34、およびコーナの内容が要約された文章である本文35が表示されている。   FIG. 2 shows a screen 30 for introducing the contents of a television broadcast program. The screen 30 shows a program name 31 of the program, program information 32 introducing the contents of the program, and a program information. A still image 33 of a performer or the like is displayed. The program information 32 displays a heading 34 that is the title name of a corner in the program, and a text 35 that is a sentence summarizing the contents of the corner.

図2の表示例においては、見出し34には「県の花情報 花の森」と表示されており、本文35には「クリンソウが咲き始めています。クリンソウはサクラソウ科で、白やピンク色の可愛らしい花を咲かせます。野草花園の方によると、今年は例年よりも少し遅い開花となっており、見頃は今月いっぱい続くということです。」と表示されている。   In the display example of FIG. 2, the heading 34 displays “prefectural flower information flower forest”, and the body 35 reads “Krinsou is beginning to bloom. According to the Wildflower Garden, this year it is flowering a little later than usual, and the best time to see it is this month. ”

図1のデータ放送受信部19が、図2に示される画面30を表示させるデータ放送を受信して、データ放送のテキストデータを見出し取得部20および本文取得部21に供給したとする。この場合、見出し取得部20は、見出しとして「県の花情報 花の森」を取得し、本文取得部21から本文のデータを供給された見出し関連キーワード群抽出部22は、見出し関連キーワード群として「クリンソウ、サクラソウ、白、ピンク、花、開花、見頃」を抽出する。   1 receives the data broadcast that displays the screen 30 shown in FIG. 2 and supplies the text data of the data broadcast to the header acquisition unit 20 and the body acquisition unit 21. In this case, the headline acquisition unit 20 acquires “prefectural flower information flower forest” as the headline, and the headline related keyword group extraction unit 22 supplied with the text data from the text acquisition unit 21 sets the headline related keyword group as Extract "Klinsaw, Primrose, White, Pink, Flower, Flowering, Best time".

次に、図3は、図1の映像区間決定部15が、特徴抽出部14から供給された特徴量に基づいて決定する映像区間を説明する図である。図3において、横軸は、録画される番組の時刻の経過を表す。なお、図4乃至図6の横軸も、図3と同様に、録画される番組の時刻の経過を表す。   Next, FIG. 3 is a diagram illustrating a video section determined by the video section determination unit 15 of FIG. 1 based on the feature amount supplied from the feature extraction unit 14. In FIG. 3, the horizontal axis represents the passage of time of the program to be recorded. Note that the horizontal axis in FIGS. 4 to 6 also represents the passage of time of the recorded program, as in FIG.

映像区間決定部15は、例えば、録画の対象になっている番組が開始した時刻が、時刻t1であれば、1番目の映像区間である映像区間Aの開始時刻を時刻t1とする。そして、時刻t1から時刻t2までの間、特徴抽出部14から順次供給される特徴量が所定の閾値未満であって、時刻t2での特徴量が所定の閾値以上になったとする。この場合、映像区間決定部15は、時刻t2を、映像区間Aと、2番目の映像区間である映像区間Bとを区切る時刻(カット点)として検出し、映像区間Aの終了時刻および映像区間Bの開始時刻と、時刻t2とする。また、映像区間決定部15は、時刻t2での処理と同様に、映像区間Bの終了時刻を、時刻t3とする。 For example, if the time when the program to be recorded starts is time t 1 , the video section determination unit 15 sets the start time of the video section A, which is the first video section, as time t 1 . Then, from time t 1 to time t 2, and the feature quantity which is sequentially supplied from the feature extractor 14 is less than the predetermined threshold value, feature quantity at the time t 2 is assumed to equal to or greater than a predetermined threshold value. In this case, the video section determination unit 15 detects the time t 2 as a time (cut point) that divides the video section A from the video section B that is the second video section, and the end time of the video section A and the video and the start time of the section B, the time t 2 to. In addition, the video section determination unit 15 sets the end time of the video section B as time t 3 as in the process at time t 2 .

次に、図4は、図1の字幕切り出し部17が、映像区間切り出し部16から供給された映像区間ごとの番組のデータから抽出した字幕のデータを説明する図である。   Next, FIG. 4 is a diagram for explaining the caption data extracted from the program data for each video section supplied from the video section cutout unit 16 by the caption cutout unit 17 in FIG. 1.

字幕切り出し部17は、映像区間切り出し部16から映像区間Aの番組のデータが供給されると、例えば、映像区間Aの開始時刻t1よりも所定の時間だけ遅延した時刻t1’から、映像区間Aの終了時刻t2までの字幕のデータを、映像区間Aに同期した字幕群Aとして、番組のデータから抽出する。なお、映像に同期した字幕のデータを作成する作業は、例えば、放送局側で、映像区間内の番組の映像を視聴した人が文章を入力することにより行われるため、字幕のデータは、映像区間に対して若干遅れることになる。従って、字幕切り出し部17は、映像区間の開始時刻よりも所定の時間だけ遅延した時刻から、字幕のデータの抽出を行う。 When the data of the program in the video section A is supplied from the video section cutout section 16, the caption cutout section 17, for example, starts from the time t 1 ′ delayed by a predetermined time from the start time t 1 of the video section A. Subtitle data up to the end time t 2 of the section A is extracted from the program data as a subtitle group A synchronized with the video section A. Note that the work of creating subtitle data synchronized with the video is performed, for example, by the person who has watched the video of the program in the video section on the broadcast station side. It will be slightly delayed from the section. Accordingly, the caption cutout unit 17 extracts caption data from a time delayed by a predetermined time from the start time of the video section.

また、字幕切り出し部17は、映像区間Aでの処理と同様に、映像区間Bの開始時刻t2よりも所定の時間だけ遅延した時刻t2’から、映像区間Bの終了時刻t3までの字幕のデータを、映像区間Bに同期した字幕群Bとして番組のデータから抽出する。 Similarly to the processing in the video section A, the caption cutout unit 17 extends from the time t 2 ′ delayed by a predetermined time from the start time t 2 of the video section B to the end time t 3 of the video section B. The caption data is extracted from the program data as a caption group B synchronized with the video section B.

次に、図5は、図1の字幕キーワード群抽出部18が、字幕切り出し部17から供給された字幕群から抽出した字幕キーワード群を説明する図である。   Next, FIG. 5 is a diagram illustrating the caption keyword group extracted from the caption group supplied from the caption cutout unit 17 by the caption keyword group extraction unit 18 of FIG.

例えば、字幕切り出し部17から字幕キーワード群抽出部18に供給された字幕群Aが、図5に示されているように、「クリンソウはサクラソウ科に属し」、「花の色はピンクや白」、および「今年の開花は遅く、見頃は来月です。」からなるものであるとする。この場合、字幕キーワード群抽出部18は、字幕群Aに含まれる単語「クリンソウ、サクラソウ、白、ピンク、花、開花、見頃」を、字幕キーワード群として抽出する。   For example, the subtitle group A supplied from the subtitle cutout section 17 to the subtitle keyword group extraction section 18, as shown in FIG. 5, “Klinsaw belongs to the primrose family”, “Flower color is pink or white” , And "This year's flowering is late, the best time is next month." In this case, the caption keyword group extraction unit 18 extracts the words “clinics, primroses, white, pink, flowers, flowering, best time” included in the caption group A as caption keyword groups.

次に、図6は、図1の紐付け処理部25により紐付けられた映像区間と見出しとを説明する図である。   Next, FIG. 6 is a diagram for explaining video sections and headings linked by the linking processing unit 25 in FIG.

例えば、図2に示される画面30を表示させるデータ放送が放送され、そのデータ放送をデータ放送受信部19が受信していたとする。この場合、図1の見出し取得部20は、見出しとして「県の花情報 花の森」を取得し、見出し関連キーワード群抽出部22は、見出し関連キーワード群として「クリンソウ、サクラソウ、白、ピンク、花、開花、見頃」を抽出しており、見出し保持部23には、見出し「県の花情報 花の森」と、見出し関連キーワード群「クリンソウ、サクラソウ、白、ピンク、花、開花、見頃」とが対応付けられて保持されている。   For example, it is assumed that a data broadcast for displaying the screen 30 shown in FIG. 2 is broadcast and the data broadcast receiving unit 19 receives the data broadcast. In this case, the headline acquisition unit 20 of FIG. 1 acquires “prefectural flower information flower forest” as the headline, and the headline related keyword group extraction unit 22 sets “Klinsaw, primrose, white, pink, The headline holding unit 23 extracts the heading “prefectural flower information flower forest” and the headline-related keyword group “Klinsou, primrose, white, pink, flowers, blooming, best season”. And are held in association with each other.

また、図5を参照して説明したように、字幕キーワード群抽出部18が字幕キーワード群「クリンソウ、サクラソウ、白、ピンク、花、開花、見頃」を抽出して、類似性評価部24に供給したとする。この場合、類似性評価部24は、字幕キーワード群抽出部18からの字幕キーワード群「クリンソウ、サクラソウ、白、ピンク、花、開花、見頃」が、見出し保持部23に保持されている見出し関連キーワード群「クリンソウ、サクラソウ、白、ピンク、花、開花、見頃」と一致しているので、字幕キーワード群抽出部18からの字幕キーワード群との類似性が最も高い見出し関連キーワード群「クリンソウ、サクラソウ、白、ピンク、花、開花、見頃」を特定する特定情報を紐付け処理部25に供給する。   Further, as described with reference to FIG. 5, the caption keyword group extraction unit 18 extracts the caption keyword group “Klinsaw, primrose, white, pink, flower, flowering, best time” and supplies it to the similarity evaluation unit 24. Suppose that In this case, the similarity evaluation unit 24 uses the headline-related keywords in which the subtitle keyword group “clinics, primroses, white, pink, flowers, flowering, best time” from the subtitle keyword group extraction unit 18 is held in the headline holding unit 23. Since it matches the group “Klinsou, Primrose, White, Pink, Flower, Flowering, Best time”, the headline related keyword group “Klinsou, Primrose, Specific information specifying “white, pink, flower, flowering, best time” is supplied to the linking processing unit 25.

そして、紐付け処理部25は、その特定情報に基づいて、見出し関連キーワード群「クリンソウ、サクラソウ、白、ピンク、花、開花、見頃」に対応付けられている見出し「県の花情報 花の森」を見出し保持部23から読み出し、映像区間Aと、見出し「県の花情報 花の森」とを紐付ける紐付け情報を生成する。   Then, based on the specific information, the linking processing unit 25 uses the heading “prefectural flower information flower forest” associated with the headline-related keyword group “Klinsou, primrose, white, pink, flower, flowering, best time”. "Is read from the headline holding unit 23, and link information that links the video section A and the headline" Prefectural Flower Information Flower Forest "is generated.

次に、図7は、図1の情報処理装置11が、見出しと見出し関連キーワード群とを対応付ける処理を説明するフローチャートである。   Next, FIG. 7 is a flowchart for explaining processing in which the information processing apparatus 11 in FIG. 1 associates a headline with a headline-related keyword group.

アンテナ12が、テレビジョン放送されているRF信号を受信し、データ放送受信部19に供給すると、ステップS11において、データ放送受信部19は、アンテナ12からのRF信号を受信して復調し、データ放送として放送されているテキストデータや静止画像などを取得する。データ放送受信部19は、データ放送のテキストデータを、見出し取得部20および本文取得部21に供給し、処理はステップS12に進む。   When the antenna 12 receives an RF signal being broadcast on television and supplies it to the data broadcast receiving unit 19, in step S11, the data broadcast receiving unit 19 receives and demodulates the RF signal from the antenna 12, and data Acquire text data and still images that are being broadcast. The data broadcast receiving unit 19 supplies the text data of the data broadcast to the header acquiring unit 20 and the body acquiring unit 21, and the process proceeds to step S12.

ステップS12において、見出し取得部20は、データ放送受信部19から供給されたデータ放送のテキストデータから、BMLに基づいて、見出しのデータを取得して見出し保持部23に供給し、処理はステップS13に進む。   In step S12, the headline acquisition unit 20 acquires headline data from the text data of the data broadcast supplied from the data broadcast reception unit 19 based on BML, and supplies the headline data to the headline holding unit 23. The processing is step S13. Proceed to

ステップS13において、本文取得部21は、データ放送受信部19から供給されたデータ放送のテキストデータから、BMLに基づいて、本文のデータを取得し、見出し関連キーワード群抽出部22に供給する。   In step S <b> 13, the text acquisition unit 21 acquires text data based on BML from the text data of the data broadcast supplied from the data broadcast receiving unit 19, and supplies it to the headline-related keyword group extraction unit 22.

ステップS13の処理後、処理はステップS14に進み、見出し関連キーワード群抽出部22は、本文取得部21から供給された本文のデータから見出し関連キーワード群を抽出し、見出し保持部23に供給して、処理はステップS15に進む。   After the process of step S13, the process proceeds to step S14, and the headline related keyword group extraction unit 22 extracts the headline related keyword group from the text data supplied from the text acquisition unit 21, and supplies the headline related keyword group to the headline holding unit 23. The process proceeds to step S15.

ステップS15において、見出し保持部23は、ステップS12で見出し取得部20から供給された見出しと、ステップS14で見出し関連キーワード群抽出部22から供給された見出し関連キーワード群とを対応付けて保持し、処理は終了する。   In step S15, the headline holding unit 23 associates and holds the headline supplied from the headline acquisition unit 20 in step S12 and the headline related keyword group supplied from the headline related keyword group extraction unit 22 in step S14. The process ends.

次に、図8は、図1の情報処理装置11が、映像区間と見出しとを対応付ける処理を説明するフローチャートである。   Next, FIG. 8 is a flowchart for explaining processing in which the information processing apparatus 11 in FIG. 1 associates video segments with headings.

録画の対象になっている番組の放送が開始され、その番組のRF信号がアンテナ12から番組受信部13に供給されると、ステップS21において、番組受信部13は、アンテナ12から供給されるRF信号から、録画の対象になっている番組のデータを取得する。番組受信部13は、番組のデータを特徴抽出部14および映像区間切り出し部16に供給し、処理はステップS22に進む。   When broadcasting of the program to be recorded is started and the RF signal of the program is supplied from the antenna 12 to the program receiving unit 13, the program receiving unit 13 receives the RF supplied from the antenna 12 in step S21. From the signal, the program data to be recorded is acquired. The program receiving unit 13 supplies the program data to the feature extracting unit 14 and the video segment extracting unit 16, and the process proceeds to step S22.

ステップS22において、特徴抽出部14は、番組受信部13から供給された番組のデータ解析し、解析結果である特徴量を、映像区間決定部15に供給する。   In step S <b> 22, the feature extraction unit 14 analyzes the data of the program supplied from the program reception unit 13, and supplies the feature amount that is the analysis result to the video section determination unit 15.

ステップS22の処理後、処理はステップS23に進み、映像区間決定部15は、特徴抽出部14から供給される特徴量に基づいて、番組から切り出される映像区間を決定する。そして、映像区間決定部15は、映像区間の開始時刻または終了時刻を含む情報であるチャプタ情報を生成して、映像区間切り出し部16に供給する。映像区間切り出し部16は、映像区間決定部15から供給されたチャプタ情報に基づいて、番組受信部13から供給された番組から映像区間を切り出し、映像区間ごとに、番組のデータを字幕切り出し部17および紐付け処理部25に供給する。   After the process of step S22, the process proceeds to step S23, and the video segment determination unit 15 determines a video segment cut out from the program based on the feature amount supplied from the feature extraction unit 14. Then, the video segment determination unit 15 generates chapter information that is information including the start time or end time of the video segment, and supplies the chapter information to the video segment cutout unit 16. The video segment cutout unit 16 cuts out a video segment from the program supplied from the program receiving unit 13 based on the chapter information supplied from the video segment determination unit 15 and subtitles the program data for each video segment. And supplied to the linking processing unit 25.

ステップS23の処理後、処理はステップS24に進み、字幕切り出し部17は、ステップS23で映像区間切り出し部16から供給された映像区間ごとの番組のデータから、映像に同期した字幕のデータを取得して、字幕キーワード群抽出部18に供給し、処理はステップS25に進む。   After the process of step S23, the process proceeds to step S24, and the caption cutout unit 17 obtains subtitle data synchronized with the video from the program data for each video section supplied from the video section cutout unit 16 in step S23. Then, the subtitle keyword group extraction unit 18 is supplied, and the process proceeds to step S25.

ステップS25において、字幕キーワード群抽出部18は、字幕切り出し部17から供給された映像区間ごとの字幕のデータから字幕キーワード群を抽出して、類似性評価部24に供給し、処理はステップS26に進む。   In step S25, the subtitle keyword group extraction unit 18 extracts a subtitle keyword group from the subtitle data for each video section supplied from the subtitle cutout unit 17, and supplies the subtitle keyword group to the similarity evaluation unit 24, and the process proceeds to step S26. move on.

ステップS26において、類似性評価部24は、ステップS25で字幕キーワード群抽出部18から供給された字幕キーワード群と、見出し保持部23に保持されている複数の見出し関連キーワード群との類似性を評価する。   In step S <b> 26, the similarity evaluation unit 24 evaluates the similarity between the caption keyword group supplied from the caption keyword group extraction unit 18 in step S <b> 25 and the plurality of headline related keyword groups held in the headline holding unit 23. To do.

ステップS26の処理後、処理はステップS27に進み、類似性評価部24は、字幕キーワード群との類似性の評価が所定の基準以上である見出し関連キーワード群が、見出し保持部23に保持されているか否かを判定する。   After the process of step S26, the process proceeds to step S27, and the similarity evaluation unit 24 holds the headline related keyword group whose similarity evaluation with the subtitle keyword group is equal to or higher than a predetermined standard in the headline holding unit 23. It is determined whether or not.

ステップS27において、類似性評価部24が、字幕キーワード群との類似性の評価が所定の基準以上である見出し関連キーワード群が、見出し保持部23に保持されていると判定した場合、処理はステップS28に進む。   In step S27, when the similarity evaluation unit 24 determines that the headline related keyword group whose similarity evaluation with the caption keyword group is equal to or higher than a predetermined criterion is held in the headline holding unit 23, the process is step. Proceed to S28.

ステップS28において、類似性評価部24は、字幕キーワード群との類似性の評価が最も高い見出し関連キーワード群を特定する特定情報を、紐付け処理部25に供給する。紐付け処理部25は、類似性評価部24から供給された特定情報により特定される見出し関連キーワード群に対応付けられている見出しのデータを、見出し保持部23から読み出し、その見出しのデータと、ステップS23で映像区間切り出し部16から供給された映像区間ごとの番組のデータとを紐付ける紐付け情報を生成して、紐付け情報保持部26に供給する。付け情報保持部26は、紐付け処理部25から供給された紐付け情報を保持し、処理は終了される。   In step S <b> 28, the similarity evaluation unit 24 supplies the linking processing unit 25 with specific information that identifies the headline-related keyword group having the highest similarity evaluation with the caption keyword group. The association processing unit 25 reads out the headline data associated with the headline-related keyword group specified by the specific information supplied from the similarity evaluation unit 24 from the headline holding unit 23, the headline data, In step S 23, link information that links the program data for each video segment supplied from the video segment cutout unit 16 is generated and supplied to the link information holding unit 26. The attachment information holding unit 26 holds the association information supplied from the association processing unit 25, and the process ends.

一方、ステップS27において、類似性評価部24が、字幕キーワード群との類似性の評価が所定の基準以上である見出し関連キーワード群が、見出し保持部23に保持されていないと判定した場合、ステップS28をスキップして、処理は終了される。   On the other hand, if the similarity evaluation unit 24 determines in step S27 that the headline related keyword group whose similarity evaluation with the caption keyword group is equal to or higher than a predetermined criterion is not held in the headline holding unit 23, S28 is skipped and the process is terminated.

以上のように、情報処理装置11は、映像区間切り出し部16により切り出された映像区間ごとの番組に、その映像区間の字幕から抽出された字幕キーワード群との類似性が最も高い見出し関連キーワード群に応じた見出しを、紐付けることができる。即ち、情報処理装置11は、映像区間内の番組の内容に対して適切な見出しを、映像区間に紐付けることができる。   As described above, the information processing apparatus 11 includes the headline-related keyword group having the highest similarity to the subtitle keyword group extracted from the subtitles in the video section in the program for each video section cut out by the video section cutout unit 16. The headline corresponding to can be linked. That is, the information processing apparatus 11 can associate an appropriate heading with the content of the program in the video section in the video section.

これにより、例えば、情報処理装置11の紐付け情報保持部26に保持された紐付け情報を、録画再生装置が利用することにより、録画済の番組の再生時において、映像区間の先頭のフレームに対応する静止画像とともに、映像区間に紐付けられた見出しを表示することができる。従って、ユーザは、静止画像および見出しから映像区間の内容を把握することができ、従来よりも、所望の映像区間を容易に見つけ出すことができる。   Thereby, for example, when the recording / reproducing apparatus uses the association information held in the association information holding unit 26 of the information processing apparatus 11, the recorded frame is used as the first frame of the video section when reproducing the recorded program. A headline associated with the video section can be displayed together with the corresponding still image. Therefore, the user can grasp the contents of the video section from the still image and the headline, and can easily find the desired video section as compared with the conventional art.

また、例えば、録画再生装置が、キーワードに基づく検索を行うことができれば、録画再生装置は、ユーザにより入力されたキーワードに基づいて、紐付け情報保持部26に保持された紐付け情報を検索し、その検索の結果得られた映像区間を、ユーザに提示することができる。   Further, for example, if the recording / reproducing apparatus can perform a search based on a keyword, the recording / reproducing apparatus searches the association information held in the association information holding unit 26 based on the keyword input by the user. The video section obtained as a result of the search can be presented to the user.

なお、情報処理装置11は、テレビジョン放送される番組やデータ放送のデータだけでなく、例えば、インターネットなどのネットワークを介して配信されてきた番組やデータ放送のデータに対しても、映像区間と見出しとを紐付ける処理を行うことができる。   Note that the information processing apparatus 11 is not limited to television programs and data broadcast data, but also, for example, video sections and data broadcast data distributed via a network such as the Internet. A process of associating a headline can be performed.

また、テレビジョン放送されている番組から映像区間を切り出すとともに、映像区間と見出しとを紐付ける処理が行われる他、例えば、映像区間ごとに切り出された番組が録画再生装置に録画されていて、その番組を再生する処理と並列して、映像区間と見出しとを紐付ける処理が行われてもよい。   In addition to cutting out the video section from the program being broadcasted on the television and performing processing for associating the video section and the headline, for example, the program cut out for each video section is recorded in the recording and playback device, In parallel with the process of reproducing the program, a process of associating the video section and the headline may be performed.

即ち、図9は、本発明を適用した情報処理装置の他の実施の形態の構成例を示すブロック図である。   That is, FIG. 9 is a block diagram showing a configuration example of another embodiment of the information processing apparatus to which the present invention is applied.

図9において、情報処理装置41は、ネットワーク43を介して、録画再生装置42に接続されている。   In FIG. 9, the information processing apparatus 41 is connected to a recording / playback apparatus 42 via a network 43.

情報処理装置41は、アンテナ44、表示部45、字幕処理部46、見出し処理部47、および保持部48から構成される。   The information processing apparatus 41 includes an antenna 44, a display unit 45, a caption processing unit 46, a heading processing unit 47, and a holding unit 48.

アンテナ44は、テレビジョン放送されているRF信号を受信し、見出し処理部47に供給する。   The antenna 44 receives an RF signal being broadcasted on television and supplies it to the header processing unit 47.

表示部45は、テレビジョン放送されている番組や、録画再生装置42により再生される番組を表示する。   The display unit 45 displays programs that are broadcast on television and programs that are played back by the recording and playback device 42.

字幕処理部46は、図1の字幕切り出し部17および字幕キーワード群抽出部18を備えており、録画再生装置42により再生される番組のデータが、映像区間ごとに供給される。字幕処理部46は、録画再生装置42から供給される映像区間ごとの番組のデータから、字幕のデータを抽出するとともに、字幕に含まれる字幕キーワード群のデータを抽出し、字幕キーワード群のデータを見出し処理部47に供給する。   The subtitle processing unit 46 includes the subtitle cutout unit 17 and the subtitle keyword group extraction unit 18 of FIG. 1, and program data reproduced by the recording / reproducing apparatus 42 is supplied for each video section. The caption processing unit 46 extracts caption data from the program data for each video section supplied from the recording / playback device 42, extracts caption keyword group data included in the caption, and uses the caption keyword group data as the caption keyword group data. This is supplied to the header processing unit 47.

見出し処理部47は、図1のデータ放送受信部19、見出し取得部20、本文取得部21、見出し関連キーワード群抽出部22、類似性評価部24、および紐付け処理部25を備えており、見出し処理部47には、アンテナ44からRF信号が供給される。見出し処理部47は、アンテナ44からのRF信号から、データ放送として放送されているテキストデータを抽出し、BMLに基づいて、テキストデータから見出しのデータと本文のデータとを取得する。そして、見出し処理部47は、テキストデータの本文のデータから見出し関連キーワード群を抽出して、見出しのデータと見出し関連キーワード群のデータとを保持部48に供給し、それらを対応付けて保持させる。   The headline processing unit 47 includes the data broadcast reception unit 19, the headline acquisition unit 20, the body text acquisition unit 21, the headline related keyword group extraction unit 22, the similarity evaluation unit 24, and the association processing unit 25 of FIG. The headline processing unit 47 is supplied with an RF signal from the antenna 44. The heading processing unit 47 extracts text data broadcast as a data broadcast from the RF signal from the antenna 44, and acquires heading data and body data from the text data based on BML. Then, the headline processing unit 47 extracts a headline-related keyword group from the text data of the text data, supplies the headline data and the headline-related keyword group data to the holding unit 48, and holds them in association with each other. .

また、見出し処理部47は、字幕処理部46から字幕キーワード群のデータが供給されると、その字幕キーワード群と、保持部48に保持されている複数の見出し関連キーワード群との類似性を評価する。そして、見出し処理部47は、類似性の評価が所定の基準以上である見出し関連キーワード群のうちの、類似性の評価が最も高い見出し関連キーワード群に対応付けられている見出しを保持部48から読み出して、字幕処理部46から供給された字幕キーワード群に対応する映像区間と、保持部48から読み出した見出しとを紐付ける紐付け情報を生成する。さらに、見出し処理部47は、その紐付け情報を、ネットワーク43を介して録画再生装置42に供給する。   Further, when the caption keyword group data is supplied from the caption processing unit 46, the caption processing unit 47 evaluates the similarity between the caption keyword group and a plurality of header-related keyword groups held in the holding unit 48. To do. Then, the headline processing unit 47 extracts a headline associated with the headline-related keyword group having the highest similarity evaluation from the headline-related keyword group whose similarity evaluation is equal to or higher than a predetermined criterion from the holding unit 48. The link information that reads and links the video section corresponding to the caption keyword group supplied from the caption processing unit 46 and the headline read from the holding unit 48 is generated. Further, the header processing unit 47 supplies the association information to the recording / playback apparatus 42 via the network 43.

保持部48は、見出し処理部47から供給される見出しのデータと見出し関連キーワード群のデータとを対応付けて保持する。   The retaining unit 48 retains the heading data supplied from the heading processing unit 47 and the heading-related keyword group data in association with each other.

録画再生装置42は、例えば、ハードディスクなどの記録部(図示せず)を備えており、番組を録画または再生する。また、録画再生装置42に録画されている番組は、映像に同期した字幕を含み、映像の特徴量の変化に基づいた映像区間で区切られている。   The recording / playback device 42 includes, for example, a recording unit (not shown) such as a hard disk, and records or plays back a program. The program recorded in the recording / playback device 42 includes subtitles synchronized with the video, and is divided into video sections based on changes in the video feature.

また、録画再生装置42が、録画済の映像を再生し、情報処理装置41の表示部45に表示させるために、ネットワーク43を介して、映像区間で区切られた番組のデータを情報処理装置41に供給すると、録画再生装置42には、情報処理装置41の見出し処理部47から、映像区間と見出しとを紐付ける紐付け情報が供給される。録画再生装置42は、見出し処理部47から供給された紐付け情報を記録部に記録する。   In addition, in order for the recording / playback device 42 to play back the recorded video and display it on the display unit 45 of the information processing device 41, the data of the program divided by the video section is transmitted via the network 43 to the information processing device 41. Is supplied to the recording / playback apparatus 42 from the headline processing unit 47 of the information processing apparatus 41. The recording / playback apparatus 42 records the association information supplied from the headline processing unit 47 in the recording unit.

ネットワーク43は、HDMI(High-Definition Multimedia Interface),DLNA(Digital Living Network Alliance)、またはIEEE(Institute of Electrical and Electronics Engineers)1394などの規格に準拠したデジタルインタフェースである。   The network 43 is a digital interface that conforms to standards such as HDMI (High-Definition Multimedia Interface), DLNA (Digital Living Network Alliance), or IEEE (Institute of Electrical and Electronics Engineers) 1394.

このように、情報処理装置41は、録画再生装置42による番組の再生と並列して、映像区間と見出しとを紐付ける処理を行うことができ、録画再生装置42には、映像区間と見出しとを紐付ける紐付け情報が記録される。そして、ユーザは、録画再生装置42に記録された紐付け情報に基づいて、録画再生装置42に録画された番組の所望の映像区間を容易に見つけ出すことができる。   As described above, the information processing apparatus 41 can perform processing for associating the video section and the headline in parallel with the program reproduction by the recording / playback apparatus 42. The linking information for linking is recorded. Then, the user can easily find a desired video section of the program recorded in the recording / reproducing apparatus 42 based on the association information recorded in the recording / reproducing apparatus 42.

また、一般的な録画再生装置においては、データ放送では天気予報などのようにタイムシフトするメリットがない情報が放送されることより、データ放送を録画する機能が備えられていないが、そのような録画再生装置でも、ネットワーク43を介して録画再生装置42に接続し、録画再生装置42が備える機能を利用することにより、映像区間の内容に適した見出しと、映像区間とを紐付ける紐付け情報を記録することができる。   Further, in general recording / playback apparatuses, data broadcasting is not provided with a function for recording data broadcasting because information without the advantage of time shifting such as weather forecast is broadcast. Also in the recording / playback apparatus, by connecting to the recording / playback apparatus 42 via the network 43 and using the functions provided in the recording / playback apparatus 42, association information that links the headline suitable for the content of the video section and the video section Can be recorded.

なお、情報処理装置41は、映像区間に見出しを紐付けることを確認するメッセージを表示部45に表示し、ユーザの確認を得た後に、録画再生装置42に紐付け情報を供給することができる。   The information processing apparatus 41 can display a message confirming that the headline is associated with the video section on the display unit 45, and can supply the association information to the recording / playback apparatus 42 after obtaining confirmation from the user. .

ところで、情報処理装置11または41により映像区間に紐付けられた見出しは、ユーザが、所望の映像区間を検索するときに用いられる他、例えば、図示しないDVD(Digital Versatile Disc)レコーダにより番組が記録されたディスクのディスクラベルに、番組の情報をプリントするときに用いることができる。   By the way, the heading associated with the video section by the information processing apparatus 11 or 41 is used when the user searches for a desired video section. For example, a program is recorded by a DVD (Digital Versatile Disc) recorder (not shown). This can be used when printing program information on the disc label of the disc.

例えば、ディスクラベルに番組の情報をプリントするプリンタ(図示せず)には、ディスクラベルにプリントされる情報のテンプレートとして、番組のタイトルイメージ、分類、タイトル、話数、イメージ、日時、およびインデックスなどを印刷する位置が設定されている。そして、プリンタは、ユーザの操作に応じて、ディスクに記録されている番組に対応するデータ放送のデータを、図示しないデータ放送記録部から取得し、ディスクラベルにプリントする番組の情報となる要素、即ち、番組のタイトルイメージ、分類、タイトル、話数、イメージ、および日時などの情報を取得する。   For example, for a printer (not shown) that prints program information on a disc label, the title image, classification, title, number of stories, image, date and time, and index of the program are used as templates for information printed on the disc label. The position to print is set. The printer obtains data broadcast data corresponding to the program recorded on the disc from a data broadcast recording unit (not shown) in accordance with a user operation, and serves as information on the program to be printed on the disc label, That is, information such as the title image, classification, title, number of stories, image, date and time of the program is acquired.

一方、情報処理装置11は、ユーザの操作に応じ、ディスクに記録されている番組に対応する紐付け情報が紐付け情報保持部26に保持されていれば、番組区間に紐付けられている見出しをプリンタに供給する。同様に、情報処理装置41も、見出しをプリンタに供給する。これにより、プリンタは、情報処理装置11または41から供給された見出しを、ディスクラベルのインデックスにプリントする情報として取得し、これらの番組の情報をディスクラベルにプリントする。   On the other hand, if the linking information corresponding to the program recorded on the disc is held in the linking information holding unit 26 according to the user's operation, the information processing apparatus 11 finds the heading linked to the program section. To the printer. Similarly, the information processing apparatus 41 supplies headings to the printer. Thereby, the printer acquires the headline supplied from the information processing apparatus 11 or 41 as information to be printed on the index of the disc label, and prints information of these programs on the disc label.

ユーザは、このようにしてインデックスがプリントされたディスクラベルにより、ディスクに記録された番組の内容を詳細に把握することができる。また、ディスクラベルにプリントされたインデックスに対応する紐付け情報を、番組とともにディスクに記録させてもよい。これにより、ディスクに記録されている番組の再生時に、番組区間に対応する見出しが表示され、ユーザは、所望の番組区間を容易に見つけ出して、再生させることができる。   The user can grasp in detail the content of the program recorded on the disc by the disc label on which the index is printed in this way. Further, the linking information corresponding to the index printed on the disc label may be recorded on the disc together with the program. Thereby, when the program recorded on the disc is reproduced, the heading corresponding to the program section is displayed, and the user can easily find and reproduce the desired program section.

なお、ディスクに記録された番組に応じた見出しが多数ある場合には、それらの見出しを図示しない表示部に表示させ、ディスクラベルにプリントする見出しをユーザに選択させ、ユーザに選択された見出しをプリントするようにしてもよい。また、ディスクラベルの背景色は、データ放送から取得されたタイトルイメージの画像の色あいから決定することができる。   If there are many headings corresponding to the program recorded on the disc, the headings are displayed on a display unit (not shown), the user selects a heading to be printed on the disc label, and the user selects the heading selected. You may make it print. The background color of the disc label can be determined from the color of the title image acquired from the data broadcast.

上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。   The series of processes described above can be executed by hardware or can be executed by software. When a series of processing is executed by software, a program constituting the software executes various functions by installing a computer incorporated in dedicated hardware or various programs. For example, it is installed from a program recording medium in a general-purpose personal computer or the like.

図10は、上述した一連の処理をプログラムにより実行するパーソナルコンピュータの構成の例を示すブロック図である。CPU(Central Processing Unit)101は、ROM(Read Only Memory)102、または記憶部108に記憶されているプログラムに従って各種の処理を実行する。RAM(Random Access Memory)103には、CPU101が実行するプログラムやデータなどが適宜記憶される。これらのCPU101、ROM102、およびRAM103は、バス104により相互に接続されている。   FIG. 10 is a block diagram showing an example of the configuration of a personal computer that executes the above-described series of processing by a program. A CPU (Central Processing Unit) 101 executes various processes according to a program stored in a ROM (Read Only Memory) 102 or a storage unit 108. A RAM (Random Access Memory) 103 appropriately stores programs executed by the CPU 101 and data. These CPU 101, ROM 102, and RAM 103 are connected to each other by a bus 104.

CPU101にはまた、バス104を介して入出力インターフェース105が接続されている。入出力インターフェース105には、キーボード、マウス、マイクロホンなどよりなる入力部106、ディスプレイ、スピーカなどよりなる出力部107が接続されている。CPU101は、入力部106から入力される指令に対応して各種の処理を実行する。そして、CPU101は、処理の結果を出力部107に出力する。   An input / output interface 105 is also connected to the CPU 101 via the bus 104. Connected to the input / output interface 105 are an input unit 106 made up of a keyboard, mouse, microphone, and the like, and an output unit 107 made up of a display, a speaker, and the like. The CPU 101 executes various processes in response to commands input from the input unit 106. Then, the CPU 101 outputs the processing result to the output unit 107.

入出力インターフェース105に接続されている記憶部108は、例えばハードディスクからなり、CPU101が実行するプログラムや各種のデータを記憶する。通信部109は、インターネットやローカルエリアネットワークなどのネットワークを介して外部の装置と通信する。   The storage unit 108 connected to the input / output interface 105 includes, for example, a hard disk, and stores programs executed by the CPU 101 and various data. The communication unit 109 communicates with an external device via a network such as the Internet or a local area network.

また、通信部109を介してプログラムを取得し、記憶部108に記憶してもよい。   A program may be acquired via the communication unit 109 and stored in the storage unit 108.

入出力インターフェース105に接続されているドライブ110は、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア111が装着されたとき、それらを駆動し、そこに記録されているプログラムやデータなどを取得する。取得されたプログラムやデータは、必要に応じて記憶部108に転送され、記憶される。   The drive 110 connected to the input / output interface 105 drives a removable medium 111 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, and drives programs and data recorded there. Get etc. The acquired program and data are transferred to and stored in the storage unit 108 as necessary.

コンピュータにインストールされ、コンピュータによって実行可能な状態とされるプログラムを格納するプログラム記録媒体は、図10に示すように、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)を含む)、光磁気ディスク、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア111、または、プログラムが一時的もしくは永続的に格納されるROM102や、記憶部108を構成するハードディスクなどにより構成される。プログラム記録媒体へのプログラムの格納は、必要に応じてルータ、モデムなどのインターフェースである通信部109を介して、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の通信媒体を利用して行われる。   As shown in FIG. 10, a program recording medium for storing a program that is installed in a computer and is ready to be executed by the computer includes a magnetic disk (including a flexible disk), an optical disk (CD-ROM (Compact Disc-Read Only). Memory), DVD (Digital Versatile Disc), a magneto-optical disk, a removable medium 111 which is a package medium made of a semiconductor memory or the like, a ROM 102 in which a program is temporarily or permanently stored, or a storage unit 108 It is comprised by the hard disk etc. which comprise. The program is stored in the program recording medium using a wired or wireless communication medium such as a local area network, the Internet, or digital satellite broadcasting via a communication unit 109 that is an interface such as a router or a modem as necessary. Done.

なお、上述のフローチャートを参照して説明した各処理は、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含むものである。   Note that the processes described with reference to the flowcharts described above do not necessarily have to be processed in time series in the order described in the flowcharts, but are performed in parallel or individually (for example, parallel processes or objects). Processing).

また、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。   The embodiments of the present invention are not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the present invention.

本発明を適用した情報処理装置の一実施の形態の構成例を示すブロック図である。It is a block diagram which shows the structural example of one Embodiment of the information processing apparatus to which this invention is applied. データ放送の画面の表示例を示す図である。It is a figure which shows the example of a display of the screen of data broadcasting. 映像区間決定部15が、特徴抽出部14から供給された特徴量に基づいて決定する映像区間を説明する図である。4 is a diagram illustrating a video section that is determined by a video section determination unit 15 based on a feature amount supplied from a feature extraction unit 14. FIG. 字幕切り出し部17が、映像区間切り出し部16から供給された映像区間ごとの番組のデータから抽出した字幕のデータを説明する図である。FIG. 10 is a diagram for explaining caption data extracted from the program data for each video section supplied from the video section cutting unit by the caption cutout unit. 字幕キーワード群抽出部18が、字幕切り出し部17から供給された字幕群から抽出した字幕キーワード群を説明する図である。FIG. 5 is a diagram for explaining a caption keyword group extracted from a caption group supplied from a caption cutout unit 17 by a caption keyword group extraction unit 18. 紐付け処理部25により紐付けられた映像区間と見出しとを説明する図である。It is a figure explaining the video section and heading which were tied by the tied processing part. 情報処理装置11が、見出しと見出し関連キーワード群とを対応付ける処理を説明するフローチャートである。It is a flowchart explaining the process in which the information processing apparatus 11 matches a headline and a headline related keyword group. 情報処理装置11が、映像区間と見出しとを対応付ける処理を説明するフローチャートである。It is a flowchart explaining the process in which the information processing apparatus 11 matches a video area and a headline. 本発明を適用した情報処理装置の他の実施の形態の構成例を示すブロック図である。It is a block diagram which shows the structural example of other embodiment of the information processing apparatus to which this invention is applied. パーソナルコンピュータの構成の例を示すブロック図である。And FIG. 11 is a block diagram illustrating an example of a configuration of a personal computer.

符号の説明Explanation of symbols

11 情報処理装置, 12 アンテナ, 13 番組受信部, 14 特徴抽出部, 15 映像区間決定部, 16 映像区間切り出し部, 17 字幕切り出し部, 18 字幕キーワード群抽出部, 19 データ放送受信部, 20 見出し取得部, 21 本文取得部, 22 見出し関連キーワード群抽出部, 23 見出し保持部, 24 類似性評価部, 25 紐付け処理部, 26 紐付け情報保持部, 41 情報処理装置, 42 録画再生装置, 43 ネットワーク, 44 アンテナ, 45 表示部, 46 字幕処理部, 47 見出し処理部, 48 保持部   DESCRIPTION OF SYMBOLS 11 Information processing apparatus, 12 Antenna, 13 Program receiving part, 14 Feature extraction part, 15 Video area determination part, 16 Video area cutout part, 17 Subtitle cutout part, 18 Subtitle keyword group extraction part, 19 Data broadcast receiving part, 20 Heading Acquiring unit, 21 Text acquiring unit, 22 Headline related keyword group extracting unit, 23 Headline holding unit, 24 Similarity evaluation unit, 25 Linking processing unit, 26 Linking information holding unit, 41 Information processing device, 42 Recording / playback device, 43 network, 44 antenna, 45 display unit, 46 caption processing unit, 47 headline processing unit, 48 holding unit

Claims (6)

番組、および前記番組に関連する情報を処理する情報処理装置において、
前記番組に関連する情報に含まれる見出しに紐付けられている本文から、前記本文に含まれる単語を、見出しキーワードとして抽出する見出しキーワード抽出手段と、
前記番組から複数の映像区間を切り出す切り出し手段と、
前記切り出し手段により切り出された前記映像区間ごとに、前記番組の映像に同期している字幕から、前記字幕に含まれる単語を、字幕キーワードとして抽出する字幕キーワード抽出手段と、
前記字幕キーワードと前記見出しキーワードとの類似性を評価する評価手段と、
前記字幕キーワードとの類似性が最も高いと評価された前記見出しキーワードが抽出された前記本文に紐付けられている前記見出しを、前記映像区間に紐付ける紐付け手段と
を備える情報処理装置。
In an information processing apparatus for processing a program and information related to the program,
Heading keyword extraction means for extracting a word included in the text as a heading keyword from the text linked to the heading included in the information related to the program;
Cutting means for cutting out a plurality of video sections from the program;
Subtitle keyword extraction means for extracting words included in the subtitles as subtitle keywords from subtitles synchronized with the video of the program for each video section cut out by the cutout means;
An evaluation means for evaluating the similarity between the caption keyword and the headline keyword;
An information processing apparatus comprising: a linking unit that links the headline associated with the text from which the headline keyword evaluated to have the highest similarity to the caption keyword is associated with the video section.
前記番組を受信する番組受信手段と、
前記番組に関連する情報を受信する情報受信手段と
をさらに備える請求項1に記載の情報処理装置。
Program receiving means for receiving the program;
The information processing apparatus according to claim 1, further comprising: an information receiving unit that receives information related to the program.
前記番組と、前記番組に関連する情報との受信を、時分割で行う受信手段
をさらに備える請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, further comprising: a receiving unit that performs time division reception of the program and information related to the program.
前記番組の映像の特徴量の変化に基づいて、前記切り出し手段により前記番組から切り出される前記映像区間を決定する映像区間決定手段
をさらに備える請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, further comprising: a video section determination unit that determines the video section cut out from the program by the cutout unit based on a change in a feature amount of a video of the program.
番組、および前記番組に関連する情報を処理する情報処理方法において、
前記番組に関連する情報に含まれる見出しに紐付けられている本文から、前記本文に含まれる単語を見出しキーワードとして抽出し、
前記番組から複数の映像区間を切り出し、
前記映像区間ごとに、前記番組の映像に同期している字幕から、前記字幕に含まれる単語を字幕キーワードとして抽出し、
前記字幕キーワードと前記見出しキーワードとの類似性を評価し、
前記字幕キーワードとの類似性が最も高いと評価された前記見出しキーワードが抽出された前記本文に紐付けられている前記見出しを、前記映像区間に紐付ける
ステップを含む情報処理方法。
In an information processing method for processing a program and information related to the program,
From the text associated with the headline included in the information related to the program, the word included in the text is extracted as a headline keyword,
Cut out multiple video segments from the program,
For each video section, from the subtitles synchronized with the video of the program, extract words included in the subtitles as subtitle keywords,
Evaluate the similarity between the caption keyword and the headline keyword,
An information processing method including the step of associating the headline associated with the text from which the headline keyword evaluated as having the highest similarity with the caption keyword is associated with the video section.
番組、および前記番組に関連する情報を処理するコンピュータに実行させるプログラムにおいて、
前記番組に関連する情報に含まれる見出しに紐付けられている本文から、前記本文に含まれる単語を見出しキーワードとして抽出し、
前記番組から複数の映像区間を切り出し、
前記映像区間ごとに、前記番組の映像に同期している字幕から、前記字幕に含まれる単語を字幕キーワードとして抽出し、
前記字幕キーワードと前記見出しキーワードとの類似性を評価し、
前記字幕キーワードとの類似性が最も高いと評価された前記見出しキーワードが抽出された前記本文に紐付けられている前記見出しを、前記映像区間に紐付ける
ステップを含むプログラム。
In a program to be executed by a computer that processes a program and information related to the program,
From the text associated with the headline included in the information related to the program, the word included in the text is extracted as a headline keyword,
Cut out multiple video segments from the program,
For each video section, from the subtitles synchronized with the video of the program, extract words included in the subtitles as subtitle keywords,
Evaluate the similarity between the caption keyword and the headline keyword,
A program comprising the step of associating the headline associated with the text from which the headline keyword evaluated as having the highest similarity with the subtitle keyword is associated with the video section.
JP2006320507A 2006-11-28 2006-11-28 Information processor, information processing method and program Withdrawn JP2008134825A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006320507A JP2008134825A (en) 2006-11-28 2006-11-28 Information processor, information processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006320507A JP2008134825A (en) 2006-11-28 2006-11-28 Information processor, information processing method and program

Publications (1)

Publication Number Publication Date
JP2008134825A true JP2008134825A (en) 2008-06-12

Family

ID=39559643

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006320507A Withdrawn JP2008134825A (en) 2006-11-28 2006-11-28 Information processor, information processing method and program

Country Status (1)

Country Link
JP (1) JP2008134825A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010219735A (en) * 2009-03-16 2010-09-30 Kddi Corp Broadcast receiver
US9043860B2 (en) 2009-02-23 2015-05-26 Samsung Electronics Co., Ltd. Method and apparatus for extracting advertisement keywords in association with situations of video scenes
JP2015125632A (en) * 2013-12-26 2015-07-06 日本放送協会 Attention keyword information extraction device and its program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9043860B2 (en) 2009-02-23 2015-05-26 Samsung Electronics Co., Ltd. Method and apparatus for extracting advertisement keywords in association with situations of video scenes
JP2010219735A (en) * 2009-03-16 2010-09-30 Kddi Corp Broadcast receiver
JP2015125632A (en) * 2013-12-26 2015-07-06 日本放送協会 Attention keyword information extraction device and its program

Similar Documents

Publication Publication Date Title
US8250623B2 (en) Preference extracting apparatus, preference extracting method and preference extracting program
JP4113059B2 (en) Subtitle signal processing apparatus, subtitle signal processing method, and subtitle signal processing program
JP2008061120A (en) Reproducing apparatus, retrieving method and program
KR20060027826A (en) Video processing apparatus, ic circuit for video processing apparatus, video processing method, and video processing program
US20050264703A1 (en) Moving image processing apparatus and method
US20090070850A1 (en) System and method for searching video signals
JP2009239729A (en) Device, method and program for informing content scene appearance
JP2008227909A (en) Video retrieval apparatus
JP2008134825A (en) Information processor, information processing method and program
JP2006303869A (en) Particular conditional interval detecting apparatus and method
JP2010109852A (en) Video indexing method, video recording and playback device, and video playback device
JP5458163B2 (en) Image processing apparatus and image processing apparatus control method
US20150063782A1 (en) Electronic Apparatus, Control Method, and Computer-Readable Storage Medium
US20050232598A1 (en) Method, apparatus, and program for extracting thumbnail picture
JP5033653B2 (en) Video recording / reproducing apparatus and video reproducing apparatus
JP5143270B1 (en) Image processing apparatus and image processing apparatus control method
JP5703321B2 (en) Information processing apparatus and information processing method
JP5410128B2 (en) Content display control device, content display control method, program, and recording medium
JP2008020767A (en) Recording and reproducing device and method, program, and recording medium
KR20020007178A (en) Video-signal recording and playback apparatus, video-signal recording and playback method, and recording medium
JP2014207619A (en) Video recording and reproducing device and control method of video recording and reproducing device
US20080104656A1 (en) Method of storing and reproducing interactive digital broadcast signals and apparatus therefor
CN113315931B (en) HLS stream-based data processing method and electronic equipment
JP4114593B2 (en) Receiver
JP2009260762A (en) Digest creation device

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20100202