JP2013172381A - Content storage device and content storage method - Google Patents

Content storage device and content storage method Download PDF

Info

Publication number
JP2013172381A
JP2013172381A JP2012036129A JP2012036129A JP2013172381A JP 2013172381 A JP2013172381 A JP 2013172381A JP 2012036129 A JP2012036129 A JP 2012036129A JP 2012036129 A JP2012036129 A JP 2012036129A JP 2013172381 A JP2013172381 A JP 2013172381A
Authority
JP
Japan
Prior art keywords
unit
word
content
chapter
program information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012036129A
Other languages
Japanese (ja)
Other versions
JP5840026B2 (en
Inventor
香 ▲高▼階
Kaori Takashina
Masaaki Shimada
昌明 島田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2012036129A priority Critical patent/JP5840026B2/en
Publication of JP2013172381A publication Critical patent/JP2013172381A/en
Application granted granted Critical
Publication of JP5840026B2 publication Critical patent/JP5840026B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To automatically generate a chapter of a scene that interests unspecified persons.SOLUTION: A content storage device 100 includes: a data storage unit 104 for storing a content; a caption analysis unit 103 for analyzing caption data included in the content to identify a display time of each caption displayed on one screen; a communication unit 113 for communicating with a network 160; an associative word acquisition unit 105 for acquiring an associative word associated with a keyword from an associative word storage unit 150 connected to the network 160; and a chapter generation unit 108 for generating chapter information indicating a chapter sectioned by the display time of the caption including the associative word.

Description

本発明は、コンテンツ蓄積装置及びコンテンツ蓄積方法に関する。   The present invention relates to a content storage device and a content storage method.

光ディスクレコーダー及びハードディスクレコーダーの普及によって、テレビ放送等の映像コンテンツを長時間録画することが一般的になっている。しかし、ユーザのテレビ視聴時間は限られているため、録画した映像コンテンツから所望のシーンを容易に見つけられることが望まれている。   With the widespread use of optical disk recorders and hard disk recorders, it has become common to record video content such as television broadcasts for a long time. However, since the user's television viewing time is limited, it is desired that a desired scene can be easily found from the recorded video content.

そこで、コンテンツの映像又は音声の切り替わりによるシーンチェンジを抽出し、チャプターに区切ることによって、ユーザに任意のシーンを探しやすくする技術が広く知られている。映像コンテンツにおけるシーンの切り替わり時間をチャプター情報として登録することにより、見たいシーンの開始点に容易にスキップすることができる。   Therefore, a technique is known that makes it easy for a user to find an arbitrary scene by extracting a scene change due to switching of video or audio of a content and dividing it into chapters. By registering the scene change time in the video content as the chapter information, it is possible to easily skip to the start point of the desired scene.

また、ユーザが作成したメタデータ(チャプター情報及びシーンに対するコメント等のテキスト情報を決まった様式で記述したもの)をネットワークにアップロードし、他の多くのユーザと共有する技術がある(例えば特許文献1参照)。この技術により、ユーザは誰かが作成したメタデータを用いて、チャプターを生成できる。また、ユーザは、各シーンに対応したコメントを参照することによってシーンの内容を理解でき、容易に所望のシーンを見つけることができる。   In addition, there is a technique for uploading metadata created by a user (description of text information such as chapter information and comments on a scene in a predetermined format) to a network and sharing it with many other users (for example, Patent Document 1). reference). With this technology, a user can generate chapters using metadata created by someone. The user can understand the contents of the scene by referring to the comment corresponding to each scene, and can easily find a desired scene.

特開2007−110697号公報JP 2007-110697 A

特許文献1に記載の技術では、ユーザが視聴しようとする映像コンテンツに対して、別のユーザが、メタデータを作成し、かつ、そのメタデータをネットワークにアップロードしている必要がある。そのため、ユーザが人気のない(メタデータのない)映像コンテンツを視聴する場合、及び、そのサービス自体のユーザが少なく、メタデータが作成されていない場合には、メタデータを取得することはできない。   In the technique described in Patent Document 1, it is necessary that another user creates metadata and uploads the metadata to the network for the video content that the user wants to view. Therefore, when the user views video content that is not popular (without metadata), and when there are few users of the service itself and no metadata is created, the metadata cannot be acquired.

そこで、本発明は、不特定の人が興味を示すシーンのチャプターを自動的に生成できるようにすることを目的とする。   Therefore, an object of the present invention is to automatically generate a chapter of a scene in which an unspecified person is interested.

本発明の一態様に係るコンテンツ蓄積装置は、コンテンツを蓄積するデータ蓄積部と、前記コンテンツに含まれる字幕データを解析して、一画面に表示される字幕毎の表示時間を特定する字幕解析部と、ネットワークとの間で通信を行う通信部と、前記通信部を介して、前記ネットワークに接続された関連ワード蓄積部より、キーワードに関連する関連ワードを取得する関連ワード取得部と、前記関連ワードを含む前記字幕の表示時間で区切られたチャプターを示すチャプター情報を生成するチャプター生成部と、を備えることを特徴とする。   A content storage device according to an aspect of the present invention includes a data storage unit that stores content, and a subtitle analysis unit that analyzes subtitle data included in the content and identifies a display time for each subtitle displayed on one screen A communication unit that communicates with a network, a related word acquisition unit that acquires a related word related to a keyword from a related word storage unit connected to the network via the communication unit, and the related A chapter generation unit that generates chapter information indicating chapters separated by display times of the subtitles including words.

本発明の一態様によれば、不特定の人が興味を示すシーンのチャプターを自動的に生成することができる。   According to one embodiment of the present invention, a chapter of a scene in which an unspecified person is interested can be automatically generated.

実施の形態1に係るコンテンツ蓄積装置の構成を概略的に示すブロック図である。1 is a block diagram schematically showing a configuration of a content storage device according to Embodiment 1. FIG. 実施の形態1におけるコンテンツの取得からチャプターの生成までの流れを示すフローチャートである。3 is a flowchart showing a flow from content acquisition to chapter generation in the first embodiment. 実施の形態1におけるMPEG−2TSとAVデータ及び字幕データの関係を示す概略図である。3 is a schematic diagram illustrating a relationship between MPEG-2TS, AV data, and caption data in Embodiment 1. FIG. 実施の形態1における字幕管理情報を示す概略図である。6 is a schematic diagram showing subtitle management information in Embodiment 1. FIG. 実施の形態1において、テレビ放送における番組情報の一例を示す概略図である。In Embodiment 1, it is the schematic which shows an example of the program information in television broadcasting. 実施の形態1における関連ワード情報のフォーマットの一例を示す概略図である。6 is a schematic diagram illustrating an example of a format of related word information in Embodiment 1. FIG. 実施の形態1において、関連ワードからチャプターを生成する流れを示すフローチャートである。5 is a flowchart illustrating a flow of generating chapters from related words in the first embodiment. 実施の形態1において、チャプターを生成する際の処理を説明するための概略図である。In Embodiment 1, it is the schematic for demonstrating the process at the time of producing | generating a chapter. (A)及び(B)は、実施の形態1において、関連ワードの時間による推移の様子を示す概略図である。(A) And (B) is the schematic which shows the mode of transition by the time of a related word in Embodiment 1. FIG. 実施の形態1において、生成されたチャプター情報に基づくシーン検索の様子を示す概略図である。In Embodiment 1, it is the schematic which shows the mode of the scene search based on the produced | generated chapter information. 実施の形態2に係るコンテンツ蓄積装置の構成を概略的に示すブロック図である。FIG. 5 is a block diagram schematically showing a configuration of a content storage device according to a second embodiment. 実施の形態2におけるコンテンツの取得からチャプター生成までの流れを示すフローチャートである。10 is a flowchart showing a flow from content acquisition to chapter generation in the second embodiment.

実施の形態1.
図1は、実施の形態1に係るコンテンツ蓄積装置100の構成を概略的に示すブロック図である。コンテンツ蓄積装置100は、ネットワーク160に接続されており、このネットワークには、少なくとも一つの関連ワード蓄積部150が接続されている。ネットワーク160は、例えばインターネットである。関連ワード蓄積部150は、例えば検索サイトに蓄積された、不特定のユーザによる検索履歴を集計してデータベース化されたものである。
Embodiment 1 FIG.
FIG. 1 is a block diagram schematically showing the configuration of the content storage device 100 according to the first embodiment. The content storage device 100 is connected to a network 160, and at least one related word storage unit 150 is connected to the network. The network 160 is the Internet, for example. The related word storage unit 150 is a database that aggregates search histories of unspecified users stored in a search site, for example.

コンテンツ蓄積装置100は、チューナ部101と、録画再生制御部102と、字幕解析部103と、データ蓄積部104と、関連ワード取得部105と、チャプター生成部108と、一時記憶部109と、チャプター情報蓄積部110と、リモコン受信部111と、リモコン112と、通信部113とを備える。また、コンテンツ蓄積装置100には、アンテナ130及びモニタ131が接続されている。アンテナ130は、図示しないが例えば複数の放送局から送信されるテレビ放送の放送波を受信する。モニタ131は、映像を表示する表示部である。   The content storage apparatus 100 includes a tuner unit 101, a recording / playback control unit 102, a caption analysis unit 103, a data storage unit 104, a related word acquisition unit 105, a chapter generation unit 108, a temporary storage unit 109, a chapter, and the like. An information storage unit 110, a remote control reception unit 111, a remote control 112, and a communication unit 113 are provided. In addition, an antenna 130 and a monitor 131 are connected to the content storage device 100. Although not shown, the antenna 130 receives television broadcast waves transmitted from a plurality of broadcast stations, for example. The monitor 131 is a display unit that displays video.

チューナ部101は、アンテナ130を介して、ユーザ操作等により選局された放送波に対する放送信号を受信し、その放送信号に対して復調処理及び圧縮符号処理等を適宜施して、コンテンツ及び番組情報を含む受信信号を生成する。   The tuner unit 101 receives a broadcast signal corresponding to a broadcast wave selected by a user operation or the like via the antenna 130, and appropriately performs demodulation processing, compression code processing, and the like on the broadcast signal to obtain content and program information. Is generated.

録画再生制御部102は、チューナ部101が生成した受信信号からAVデータを分離し、データ蓄積部104に蓄積する。また、録画再生制御部102は、データ蓄積部104に蓄積されたコンテンツを再生する処理を制御する。
字幕解析部103は、チューナ部101が生成した受信信号から字幕データを抽出し、データ蓄積部104に蓄積する。このとき、字幕データは、一画面に表示される字幕毎の表示時間を示すタイムスタンプとともに蓄積される。
データ蓄積部104は、コンテンツを蓄積する。コンテンツには、AVデータ及び字幕データが含まれる。
The recording / playback control unit 102 separates AV data from the reception signal generated by the tuner unit 101 and stores the AV data in the data storage unit 104. The recording / playback control unit 102 controls processing for playing back the content stored in the data storage unit 104.
The caption analysis unit 103 extracts caption data from the reception signal generated by the tuner unit 101 and stores it in the data storage unit 104. At this time, the caption data is stored together with a time stamp indicating a display time for each caption displayed on one screen.
The data storage unit 104 stores content. The content includes AV data and caption data.

関連ワード取得部105は、通信部113を介して、ネットワーク160に接続された関連ワード蓄積部150より、キーワードに関連する関連ワードを取得する。ここで、関連ワード取得部105は、番組情報管理部106と、番組情報蓄積部107とを備える。   The related word acquisition unit 105 acquires a related word related to the keyword from the related word storage unit 150 connected to the network 160 via the communication unit 113. Here, the related word acquisition unit 105 includes a program information management unit 106 and a program information storage unit 107.

番組情報管理部106は、チューナ部101が生成した受信信号に含まれる番組情報のうち、データ蓄積部104に蓄積されたコンテンツに関するものを番組情報蓄積部107に蓄積する。「番組情報」は、テレビ放送のEPG情報に含まれる、コンテンツのタイトル、サブタイトル、出演者情報及び番組概要等を含む。
また、番組情報管理部106は、番組情報蓄積部107に蓄積された番組情報から、特定の情報をキーワードとして抽出する。そして、番組情報管理部106は、通信部113を介して、ネットワーク160に接続された関連ワード蓄積部150から、抽出されたキーワードに関連する関連ワードを取得する。番組情報管理部106は、取得された関連ワードをチャプター生成部108に与える。「関連ワード」は、キーワードに関連するワードである。詳細については後述する。
番組情報蓄積部107は、番組情報管理部106から与えられた番組情報を記憶する。
The program information management unit 106 stores, in the program information storage unit 107, the program information included in the received signal generated by the tuner unit 101 related to the content stored in the data storage unit 104. “Program information” includes content titles, subtitles, performer information, program outlines, and the like included in EPG information of television broadcasts.
The program information management unit 106 extracts specific information as a keyword from the program information stored in the program information storage unit 107. Then, the program information management unit 106 acquires a related word related to the extracted keyword from the related word storage unit 150 connected to the network 160 via the communication unit 113. The program information management unit 106 gives the acquired related word to the chapter generation unit 108. The “related word” is a word related to the keyword. Details will be described later.
The program information storage unit 107 stores the program information given from the program information management unit 106.

チャプター生成部108は、データ蓄積部104に蓄積された字幕データに、番組情報管理部106によって取得された関連ワードが含まれる箇所を抽出する。抽出した箇所のタイムスタンプをもとにチャプターを生成し、生成されたチャプターを示すチャプター情報をチャプター情報蓄積部110に蓄積する。   The chapter generation unit 108 extracts a part where the related word acquired by the program information management unit 106 is included in the caption data stored in the data storage unit 104. A chapter is generated based on the time stamp of the extracted part, and chapter information indicating the generated chapter is stored in the chapter information storage unit 110.

リモコン受信部111は、リモコン112からの無線信号を受信して、受信された無線信号で示される内容を録画再生制御部102に与える。
リモコン112は、ユーザからの指示の入力を受けて、指示の内容を示す無線信号を発信する。
ここで、リモコン受信部111及びリモコン112により、ユーザからの指示の入力を受け付ける入力部が構成される。
通信部113は、ネットワーク160との間で通信を行う。
The remote control receiving unit 111 receives a radio signal from the remote control 112 and gives the content indicated by the received radio signal to the recording / playback control unit 102.
The remote controller 112 receives an instruction input from the user and transmits a radio signal indicating the content of the instruction.
Here, the remote control receiving unit 111 and the remote control 112 constitute an input unit that receives an input of an instruction from the user.
The communication unit 113 communicates with the network 160.

次に、コンテンツの再生方法について説明する。
録画再生制御部102は、データ蓄積部104に蓄積されたコンテンツをモニタ131に出力し再生を行う。このとき、録画再生制御部102は、チャプター情報蓄積部110に蓄積されたチャプター情報を用いて、ユーザからのシーン検索に対応する。シーン検索は、チャプター情報に基づいて、各チャプターのシーンの内容をサムネイル等によってユーザに提示し、ユーザが選択したチャプターの開始点からシーンを再生する機能である。
Next, a content reproduction method will be described.
The recording / playback control unit 102 outputs the content stored in the data storage unit 104 to the monitor 131 for playback. At this time, the recording / playback control unit 102 uses the chapter information stored in the chapter information storage unit 110 to respond to a scene search from the user. The scene search is a function of presenting the contents of the scene of each chapter to the user on the basis of the chapter information by a thumbnail or the like and reproducing the scene from the start point of the chapter selected by the user.

なお、データ蓄積部104に蓄積されるコンテンツは、テレビ放送から得られるものでなくてもよい。例えば、コンテンツは、USBやIEEE1394等のバスを経由して、あるいはDVD/BD、メモリーカード等のリムーバルメディアを経由して取得されたものであってもよい。または、コンテンツは、通信部113を介して、ネットワーク160からダウンロードされたものであってもよい。ここで、本実施の形態においては、コンテンツのデータとして、テレビ放送に用いられるMPEG−2トランスポートストリーム(TS)が想定されているが、字幕等の文字情報が付随したデータであれば、MPEG−2プログラムストリーム及びアナログAV信号等であってもよい。   Note that the content stored in the data storage unit 104 may not be obtained from television broadcasting. For example, the content may be obtained via a bus such as USB or IEEE 1394, or via a removable medium such as a DVD / BD or a memory card. Alternatively, the content may be downloaded from the network 160 via the communication unit 113. Here, in this embodiment, an MPEG-2 transport stream (TS) used for television broadcasting is assumed as content data. However, if the data is accompanied by character information such as captions, the MPEG-2 transport stream (TS) is used. -2 program stream, analog AV signal, and the like.

図2は、コンテンツの取得からチャプターの生成までの流れを示すフローチャートである。
まず、録画再生制御部102は、外部からの放送信号に基づいてチューナ部101で生成された受信信号に含まれるAVデータを取得し、また、番組情報管理部106は、この受信信号に含まれる番組情報を取得する(S10)。番組情報については後述する。
FIG. 2 is a flowchart showing a flow from content acquisition to chapter generation.
First, the recording / playback control unit 102 acquires AV data included in the received signal generated by the tuner unit 101 based on a broadcast signal from the outside, and the program information management unit 106 is included in this received signal. Program information is acquired (S10). The program information will be described later.

次に、字幕解析部103は、チューナ部101で生成された受信信号に含まれる字幕データを抽出し、データ蓄積部104に蓄積する(S11)。   Next, the caption analysis unit 103 extracts the caption data included in the reception signal generated by the tuner unit 101 and stores it in the data storage unit 104 (S11).

ここで、受信信号にAVデータと字幕データとがどのように含まれるかを示すために、図3を用いて、受信信号がMPEG−2TSの場合におけるコンテンツのデータ構造について説明する。図3は、MPEG−2TSとAVデータ及び字幕データの関係を示す概略図である。MPEG−2TSは、映像、音声及び字幕のPES(Packetized Elementary Stream)が多重化されて構成されている。各PESには、映像、音声及び字幕のそれぞれの実データと、それらを表示するタイムスタンプとが含まれている。
字幕データは、一画面で表示するページ単位で区切られている。タイムスタンプを用いて、ページ毎に表示開始時刻及び表示終了時刻を管理することができる。字幕解析部103は、受信信号から分離された字幕PESを解析し、文字情報とタイムスタンプとを紐付けて、図4に示されているような字幕管理情報140を作成し、データ蓄積部104に蓄積する。
Here, in order to show how AV data and caption data are included in the received signal, a data structure of content when the received signal is MPEG-2TS will be described with reference to FIG. FIG. 3 is a schematic diagram showing the relationship between MPEG-2TS, AV data, and caption data. MPEG-2TS is configured by multiplexing PES (Packetized Elementary Stream) of video, audio, and subtitles. Each PES includes actual data of video, audio, and subtitles, and a time stamp for displaying them.
The caption data is divided in units of pages to be displayed on one screen. Using the time stamp, the display start time and the display end time can be managed for each page. The caption analysis unit 103 analyzes the caption PES separated from the received signal, associates the character information with the time stamp, creates the caption management information 140 as shown in FIG. To accumulate.

図4は、字幕管理情報140を示す概略図である。字幕管理情報140は、タイムスタンプ欄140aと、字幕データ欄140dとを有するテーブル形式の情報である。
タイムスタンプ欄140aは、字幕データ欄140dに格納されている一ページあたりの字幕データの字幕を表示する表示時間を格納する。ここで、タイムスタンプ欄140aは、表示開始時刻欄140bと、表示終了時刻欄140cとを有する。
表示開始時刻欄140bは、字幕データ欄140dに格納されている一ページあたりの字幕データの字幕を表示する表示開始時刻を格納する。
表示終了時刻140cは、字幕データ欄140dに格納されている一ページあたりの字幕データの字幕を表示する表示終了時刻を格納する。
字幕データ欄140dは、タイムスタンプ欄140aで特定される期間に表示される一ページあたりの字幕データ(ここでは、テキストデータ)を格納する。
FIG. 4 is a schematic diagram showing the caption management information 140. The caption management information 140 is information in a table format having a time stamp field 140a and a caption data field 140d.
The time stamp field 140a stores the display time for displaying the caption data of the caption data per page stored in the caption data field 140d. Here, the time stamp field 140a has a display start time field 140b and a display end time field 140c.
The display start time column 140b stores a display start time for displaying subtitles of subtitle data per page stored in the subtitle data column 140d.
The display end time 140c stores the display end time for displaying the caption data of the caption data per page stored in the caption data column 140d.
The caption data column 140d stores caption data (here, text data) per page displayed in the period specified by the time stamp column 140a.

なお、字幕解析部103は、字幕データ以外にも番組で表示されるテロップ等の文字情報から文字認識して、認識された文字の文字データを字幕データとして字幕管理情報140に蓄積してもよい。   Note that the caption analysis unit 103 may recognize characters from character information such as telop displayed in the program in addition to the caption data, and accumulate the character data of the recognized characters in the caption management information 140 as caption data. .

図2の説明に戻り、ステップS12において、番組情報管理部106は、番組情報蓄積部107に蓄積された番組情報から、特定の情報として、ゲスト出演者名を抽出する。   Returning to the description of FIG. 2, in step S <b> 12, the program information management unit 106 extracts a guest performer name as specific information from the program information stored in the program information storage unit 107.

ここで、図5は、テレビ放送における番組情報141の一例を示す概略図である。図5に示されている番組情報141は、タイトル行141aと、日時行141bと、放送局行141cと、ジャンル行141dと、番組概要行141eと、番組詳細行141fとを有する。
タイトル行141aは、番組のタイトルを格納する。
日時行141bは、番組が放送される日時を格納する。
放送局行141cは、番組が放送される放送局を示す放送局情報を格納する。
ジャンル行141dは、番組のジャンルを格納する。
番組概要行141eは、番組内容の概要を格納する。
番組詳細行141fは、番組内容の詳細を格納する。
Here, FIG. 5 is a schematic diagram showing an example of program information 141 in television broadcasting. The program information 141 shown in FIG. 5 includes a title line 141a, a date / time line 141b, a broadcast station line 141c, a genre line 141d, a program summary line 141e, and a program detail line 141f.
The title row 141a stores the title of the program.
The date and time row 141b stores the date and time when the program is broadcast.
The broadcast station line 141c stores broadcast station information indicating a broadcast station where the program is broadcast.
The genre row 141d stores the genre of the program.
The program summary line 141e stores a summary of program contents.
The program details row 141f stores details of program contents.

図5に示されている番組情報141では、番組詳細行141fに、番組の出演者を示す出演者情報が“[出演者]”又は“[ゲスト]”の後に記されている。本実施の形態では、番組情報管理部106は、出演者のうち番組内で特に話題が掘り下げられる、ゲスト出演者の名前を抽出する。そのため、番組情報管理部106は、“[ゲスト]”の文字列に続く文字列を抽出する。テレビ放送の番組情報では、図5の例の他に“ゲスト:”や“今回のゲストは”の文字列の後ろに出演者名が記される場合がある。また、シリーズ番組を毎週及び毎日等のように定期的に放送される番組の場合は、出演者名から放送回毎に共通する人名を除外し、各回の放送のみに出演する名前を抽出すれば、ゲスト出演者名を抽出することができる。   In the program information 141 shown in FIG. 5, performer information indicating the performers of the program is written in the program detail line 141f after “[Performer]” or “[Guest]”. In the present embodiment, the program information management unit 106 extracts the names of guest performers who are particularly interested in the program among the performers. Therefore, the program information management unit 106 extracts a character string following the character string “[Guest]”. In TV broadcast program information, in addition to the example of FIG. 5, the name of the performer may be written after the character string “Guest:” or “This guest is”. In addition, in the case of programs that are broadcast regularly, such as weekly and daily, series names are excluded from the names of performers, and the names that appear only in each broadcast are extracted. , Guest performer names can be extracted.

図2の説明に戻り、ステップS13において、番組情報管理部106は、ステップS12で抽出されたゲスト出演者名をキーワードとして、通信部113を介して、ネットワーク160に接続された関連ワード蓄積部150から関連ワードを取得する。   Returning to the description of FIG. 2, in step S <b> 13, the program information management unit 106 uses the guest performer name extracted in step S <b> 12 as a keyword, and the related word storage unit 150 connected to the network 160 via the communication unit 113. Get related word from.

ここで、図6は、関連ワード蓄積部150に蓄積されている関連ワード情報142のフォーマットの一例を示す概略図である。関連ワード情報142は、順位欄142aと、関連ワード欄142bとを有するテーブル形式の情報である。
順位欄142aは、関連ワード欄142bに格納された関連ワードが、キーワードと共に検索された回数の多いものから順に高くなる順位を格納する。ここでの順位は、数字が大きいほど低い順位になるように、「1」から順に自然数が割り当てられる。
関連ワード欄142bは、キーワードと共に検索サイトで検索されたワードである関連ワードを格納する。
Here, FIG. 6 is a schematic diagram showing an example of the format of the related word information 142 stored in the related word storage unit 150. The related word information 142 is information in a table format having a rank column 142a and a related word column 142b.
The rank column 142a stores a rank in which the related words stored in the related word column 142b increase in order from the most frequently searched words together with the keyword. Here, natural numbers are assigned in order from “1” so that the higher the number, the lower the order.
The related word column 142b stores a related word that is a word searched on the search site together with the keyword.

ここで、関連ワード情報142は、例えば、インターネット160の検索サイトでキーワードとともに検索されたワードを集計したものである。言い換えると、インターネット160の検索サイトでキーワードと一緒に検索される回数が多いワードから順に、関連ワードとして関連ワード情報142に格納される。
また、他の例として、Webページ上でキーワードと一緒に出現する回数が多いワードから順に、関連ワードとして関連ワード情報142に格納されてもよい。
検索サイト等では、利用者がキーワードを入力すると関連ワードを複数表示し、その中から利用者に選択させ、より絞り込んだ検索を可能にするサービスが提供されている。よって、番組情報管理部106は、通信部113及びインターネット160を介して検索サイトに接続し、キーワードから関連ワードを取得することができる。また、関連ワードは、インターネット160上で不特定の利用者が利用したデータを基に、随時更新される。
このように、キーワードと一緒に検索される回数が多いワード、又は、Webページ上でキーワードと一緒に出現する回数が多いワードを関連ワードとすることにより、関連ワードは、不特定の利用者が興味を示すワードであると考えることができる。そして、関連ワード情報142の順位は、不特定の利用者が興味を示す順であると考えることができる。
Here, the related word information 142 is, for example, a total of words searched together with keywords on a search site on the Internet 160. In other words, the words are stored in the related word information 142 as related words in order from the word searched most frequently together with the keyword on the search site of the Internet 160.
As another example, the words may be stored in the related word information 142 as related words in order from the word that appears more frequently with the keyword on the Web page.
In a search site or the like, a service is provided that enables a more narrowed search by displaying a plurality of related words when a user inputs a keyword and allowing the user to select from them. Therefore, the program information management unit 106 can connect to the search site via the communication unit 113 and the Internet 160 and acquire a related word from the keyword. The related words are updated as needed based on data used by unspecified users on the Internet 160.
In this way, a word that is frequently searched together with a keyword or a word that frequently appears together with a keyword on a Web page is used as a related word. It can be thought of as a word indicating interest. The order of the related word information 142 can be considered to be the order in which an unspecified user shows interest.

なお、関連ワードの取得に用いるキーワードは、ゲスト出演者の名前以外にも、番組情報141に含まれている情報であればどのような情報であってもよい。例えば、キーワードは、番組のサブタイトル又は概要等でもよい。また、複数のキーワードに基づいて、関連ワードが取得されてもよい。   In addition, the keyword used for acquisition of a related word may be any information as long as it is information included in the program information 141 other than the name of the guest performer. For example, the keyword may be a program subtitle or an outline. A related word may be acquired based on a plurality of keywords.

図2の説明に戻り、ステップS14では、チャプター生成部108は、ステップS13で番組情報管理部106により取得された関連ワードがデータ蓄積部104に蓄積された字幕データの中に登場するか検索する。そして、登場する場合は、チャプター生成部108は、その字幕部分に相当する表示開始時刻を、図4に示されている字幕管理情報140から取得し、この表示開始時刻をチャプターの区切りとしたチャプター情報を生成して、チャプター情報蓄積部110に蓄積する。ステップS14での処理については、図7を用いて、詳細に説明する。   Returning to the description of FIG. 2, in step S <b> 14, the chapter generation unit 108 searches whether the related word acquired by the program information management unit 106 in step S <b> 13 appears in the caption data stored in the data storage unit 104. . Then, when it appears, the chapter generation unit 108 acquires the display start time corresponding to the subtitle portion from the subtitle management information 140 shown in FIG. 4, and uses the display start time as a chapter break. Information is generated and stored in the chapter information storage unit 110. The process in step S14 will be described in detail with reference to FIG.

図7は、図2のステップS14における、関連ワードからチャプターを生成する流れを示すフローチャートである。また、図8は、チャプターを生成する際の処理を説明するための概略図である。   FIG. 7 is a flowchart showing a flow of generating chapters from related words in step S14 of FIG. FIG. 8 is a schematic diagram for explaining processing when generating a chapter.

まず、チャプター生成部108は、インデックスnを「1」に、インデックスkを「0」に設定する(S20)。インデックスnは、検索ワードの順位を示すインデックスである。取得された関連ワードは、図6に示すように順位付けされており、第1番目から順に検索に用いられる。インデックスkは、各々の時点において、字幕データ内でインデックスnの関連ワードが検出された数を示すインデックスである。   First, the chapter generation unit 108 sets the index n to “1” and the index k to “0” (S20). The index n is an index indicating the ranking of search words. The acquired related words are ranked as shown in FIG. 6, and are used for the search in order from the first. The index k is an index indicating the number of detected related words of the index n in the caption data at each time point.

次に、チャプター生成部108は、チャプター数が閾値x以上であるか否かを判定する(S21)。チャプター生成部108は、チャプター数が閾値x以上となるまで、後述するステップS22〜S30の処理を繰り返す。閾値xは、最終的な総チャプター数の最小値である。閾値xは、コンテンツの長さに応じて決定されるものとする。長時間のコンテンツではより多くのシーンが存在すると考えられ、所望のシーンを見つけるためには、多くのチャプター数を必要とする。例えば、30分のコンテンツならば、閾値xは「5」、2時間のコンテンツならば、閾値xは「20」というように、コンテンツが長いほど閾値xが大きくなるように、コンテンツの時間に比例させて閾値xが決定されることが望ましい。なお、図8に示されている例では、閾値xの値は「5」とする。また、閾値xの値は、処理を軽減するために定数にしたり、好みに応じてユーザが設定したりしてもよい。   Next, the chapter generation unit 108 determines whether or not the number of chapters is greater than or equal to a threshold value x (S21). The chapter generation unit 108 repeats the processes of steps S22 to S30 described later until the number of chapters is equal to or greater than the threshold value x. The threshold value x is the minimum value of the final total number of chapters. The threshold value x is determined according to the content length. In a long-time content, it is considered that more scenes exist, and in order to find a desired scene, a large number of chapters are required. For example, if the content is 30 minutes, the threshold value x is “5”, and if the content is 2 hours, the threshold value x is “20”. The longer the content is, the larger the threshold value x becomes. It is desirable that the threshold value x is determined. In the example shown in FIG. 8, the value of the threshold value x is “5”. Further, the value of the threshold value x may be a constant for reducing processing, or may be set by the user according to preference.

次に、チャプター生成部108は、第n番目の関連ワードがコンテンツの字幕データに登場するか検出する(S22)。検出は、時間順に字幕データの先頭から行われる。第n番目の関連ワードが字幕データ内に見つかった場合(S22:Yes)には、チャプター生成部108は、ステップS23の処理に進み、それが見つからなかった場合(S22:No)には、チャプター生成部108は、ステップS28の処理に進む。   Next, the chapter generator 108 detects whether the nth related word appears in the caption data of the content (S22). The detection is performed from the top of the caption data in time order. When the n-th related word is found in the caption data (S22: Yes), the chapter generation unit 108 proceeds to the process of step S23, and when it is not found (S22: No), the chapter is generated. The generation unit 108 proceeds to the process of step S28.

ステップS23では、チャプター生成部108は、インデックスkが「0」であるか否かを判断する。そして、チャプター生成部108は、インデックスkが「0」ではない場合(S23:No)、即ち、既に第n番目の関連ワードが検出されている場合には、ステップS24の処理に進み、インデックスkが「0」である場合(S23:Yes)、即ち、初めて第n番目の関連ワードが検出された場合には、ステップS25の処理に進む。   In step S23, the chapter generation unit 108 determines whether or not the index k is “0”. Then, when the index k is not “0” (S23: No), that is, when the nth related word has already been detected, the chapter generation unit 108 proceeds to the process of step S24, and the index k Is “0” (S23: Yes), that is, when the nth related word is detected for the first time, the process proceeds to step S25.

ステップS24では、チャプター生成部108は、今回検出された第n番目の関連ワードが含まれている字幕データの放送開始時刻と、直前に登場した第n番目の関連ワードが含まれている字幕データの放送開始時刻との間の時間が、予め定められた時間y以内であるか否かを判定する。そして、チャプター生成部108は、その時間が時間yよりも長い場合(S24:No)には、ステップS25の処理に進み、その時間が時間y以内である場合(S24:Yes)には、ステップS27の処理に進む。   In step S24, the chapter generation unit 108 starts broadcasting of the caption data that includes the nth related word detected this time and the caption data that includes the nth related word that appears immediately before. It is determined whether or not the time from the broadcast start time is within a predetermined time y. Then, when the time is longer than the time y (S24: No), the chapter generation unit 108 proceeds to the process of step S25, and when the time is within the time y (S24: Yes), the step The process proceeds to S27.

ステップS25では、チャプター生成部108は、ステップS22で見つかった第n番目の関連ワードの表示開始時刻を、一時記憶部109に記憶させる。
そして、チャプター生成部108は、インデックスkに「1」を足して、ステップS27の処理に進む。
In step S25, the chapter generation unit 108 causes the temporary storage unit 109 to store the display start time of the nth related word found in step S22.
Then, the chapter generation unit 108 adds “1” to the index k, and proceeds to the process of step S27.

ステップS27では、チャプター生成部108は、検索位置を更新して、第n番目の関連ワードの検索を続行して、ステップS22の処理に戻る。   In step S27, the chapter generation unit 108 updates the search position, continues the search for the nth related word, and returns to the process of step S22.

ここで、図8を用いて、ステップS24〜S27での処理について説明する。
符号143aに示されているように、ある検索ワードが短い時間内に複数登場する場合は、その区間でその事柄について話し続けられていると考えられる。従って、連続した話題であるにもかかわらず、チャプターを区切るのは不適切となるため、チャプター生成部108は、短い時間内において検出された関連ワードに基づいてチャプターを区切らない。なお、図8に示す例では、時間yの値は2分とした。時間yの値は、一つの事柄について話す時間を考え、定数を設定すればよいが、この値をユーザが設定してもよい。
Here, the processing in steps S24 to S27 will be described with reference to FIG.
As indicated by reference numeral 143a, when a plurality of search words appear within a short period of time, it is considered that the matter continues to be talked about in that section. Therefore, although it is a continuous topic, it is inappropriate to divide chapters. Therefore, the chapter generation unit 108 does not divide chapters based on related words detected within a short time. In the example shown in FIG. 8, the value of time y is 2 minutes. The value of the time y may be set as a constant in consideration of the time to talk about one matter, but this value may be set by the user.

図7の説明に戻り、ステップS22において、第n番目の関連ワードが残りの字幕データから検出されなかった場合(S22:No)には、チャプター生成部108は、ステップS28の処理に進む。ステップS28では、チャプター生成部108は、インデックスkの値が、関連ワードの最大検出数を定める閾値zよりも小さいか否かを判断する。そして、チャプター生成部108は、その値が閾値zよりも小さい場合(S28:Yes)には、ステップS29の処理に進み、その値が閾値z以上の場合(S28:No)には、ステップS30の処理に進む。   Returning to the description of FIG. 7, when the nth related word is not detected from the remaining caption data in step S22 (S22: No), the chapter generation unit 108 proceeds to the process of step S28. In step S28, the chapter generation unit 108 determines whether or not the value of the index k is smaller than a threshold z that determines the maximum number of detected related words. Then, when the value is smaller than the threshold value z (S28: Yes), the chapter generation unit 108 proceeds to the process of step S29. When the value is equal to or larger than the threshold value z (S28: No), the chapter generation unit 108 proceeds to step S30. Proceed to the process.

ステップS29においては、チャプター生成部108は、インデックスkの値が「0」ではない場合には、一時記憶部109に記憶させた放送開始時刻を区切りとするチャプターをチャプター情報に設定する。
そして、チャプター生成部108は、インデックスnに「1」を加え、インデックスkを初期値「0」に戻して、ステップS21に戻る。このとき、チャプター生成部108は、一時記憶部109に記憶されている放送開始時刻を削除する。
In step S29, when the value of the index k is not “0”, the chapter generation unit 108 sets a chapter with the broadcast start time stored in the temporary storage unit 109 as a chapter as chapter information.
Then, chapter generation unit 108 adds “1” to index n, returns index k to initial value “0”, and returns to step S21. At this time, the chapter generation unit 108 deletes the broadcast start time stored in the temporary storage unit 109.

ここで、図8を用いて、ステップS28及びS29での処理について説明する。
例えば、図8の符号143bに示されているように、インデックスkの値が閾値z以上の場合は、番組全体を通して何回も出現する関連ワードとなる。例えば、その関連ワードは、“山ちゃん”のように出演者のニックネーム等、番組の話題には関係がないと判断できる。このため、チャプター生成部108は、インデックスkの値が閾値z以上の場合は、このような関連ワードに基づくチャプターの区切りは行わない。なお、閾値zの値は、番組の長さに応じて決定される。例えば、番組の放送時間が長いほど、閾値zの値を大きくすることが望ましい。なお、図8に示されている例では、閾値zの値は「5」とする。
Here, the processing in steps S28 and S29 will be described with reference to FIG.
For example, as indicated by reference numeral 143b in FIG. 8, when the value of the index k is equal to or greater than the threshold value z, the related word appears many times throughout the entire program. For example, the related word can be determined not to be related to the topic of the program such as the nickname of the performer such as “Yama-chan”. For this reason, when the value of the index k is greater than or equal to the threshold value z, the chapter generation unit 108 does not perform chapter separation based on such related words. Note that the value of the threshold value z is determined according to the length of the program. For example, it is desirable to increase the value of the threshold z as the broadcast time of the program is longer. In the example shown in FIG. 8, the value of the threshold value z is “5”.

なお、図8の符号143cに示されているように、累積チャプター数が、閾値x(ここでは、「5」)以上となった場合には、チャプター生成部108は、図7のフローを終了する。
以上、説明した流れでチャプターが生成される。
As indicated by reference numeral 143c in FIG. 8, when the cumulative number of chapters is equal to or greater than the threshold value x (here, “5”), the chapter generation unit 108 ends the flow in FIG. To do.
As described above, chapters are generated according to the flow described above.

図7に示されているフローでチャプターが生成されるタイミングは、コンテンツを録画し終わったときに行うのが望ましい。また、ユーザが指定したときに行われてもよく、さらに、放送終了後一定時間経過したときに行われてもよい。   The timing at which the chapter is generated in the flow shown in FIG. 7 is preferably performed when the content has been recorded. Moreover, it may be performed when the user designates, or may be performed when a certain time has elapsed after the end of broadcasting.

放送終了後一定時間経過してからチャプター生成を行う場合の利点について説明する。番組情報管理部106がキーワードを用いて取得する関連ワードは、前述のとおり、不特定の利用者の利用履歴によって随時更新される。コンテンツを先に視聴した人が、興味を持ち、番組内で触れられた話題を、検索サイトで検索したり、ブログ等のWebサイトに投稿したりすることによって、ある関連ワードが一定時間後上位にくる可能性がある。その関連ワードは、コンテンツの中で話題にされた事柄である可能性が高く、かつ、多くの人にとって重要であると判断できる。そのため、一定時間経過してから関連ワードを取得することによって、よりコンテンツに即したチャプターを生成することができる。   An advantage in the case where chapter generation is performed after a certain time has elapsed after the end of broadcasting will be described. As described above, the related word acquired by the program information management unit 106 using a keyword is updated at any time according to the usage history of an unspecified user. A certain related word becomes higher after a certain period of time by searching on a search site or posting on a website such as a blog for a topic that has been viewed by a person who has previously viewed the content There is a possibility of coming. The related word is highly likely to be a topic in the content, and can be determined to be important for many people. Therefore, by acquiring a related word after a certain time has elapsed, it is possible to generate a chapter that is more suited to the content.

図9(A)及び(B)は、関連ワードの時間による推移の様子を示す概略図である。図9(A)は、放送直後の関連ワード情報142#1を示し、図9(B)は、放送から一定時間経過後の関連ワード情報142#2を示す。
放送から一定時間経過後の関連ワード情報142#2には、放送直後の関連ワード情報142#1に含まれていなかった「○○美」というワードが新たに含まれている。また、放送から一定時間経過後の関連ワード情報142#2では、放送直後の関連ワード情報142#1において順位が低かった「舞台」のワードが、上位に含まれている。このように、放送から一定時間後の関連ワード情報142#2を用いることにより、放送直後の関連ワード情報142#1には含まれない、一定時間で上位に含まれた関連ワードに関するチャプターも生成できる。
FIGS. 9A and 9B are schematic diagrams showing the transition of related words over time. FIG. 9A shows the related word information 142 # 1 immediately after the broadcast, and FIG. 9B shows the related word information 142 # 2 after a predetermined time has passed since the broadcast.
The related word information 142 # 2 after the elapse of a certain time from broadcasting newly includes the word “XX beauty” that was not included in the related word information 142 # 1 immediately after broadcasting. Further, in the related word information 142 # 2 after a certain time has passed since the broadcast, the word “stage” having a lower rank in the related word information 142 # 1 immediately after the broadcast is included in the upper rank. In this way, by using the related word information 142 # 2 after a certain time from the broadcast, chapters related to the related words included in the higher order at a certain time that are not included in the related word information 142 # 1 immediately after the broadcast are generated. it can.

なお、放送直後の関連ワード情報142#1もコンテンツ蓄積装置100内に蓄積しておくことで、チャプター生成部108は、放送から一定時間経過後の関連ワード情報142#2と比較して、特に急上昇したワードを優先的に字幕データと照合してもよい。例えば、チャプター生成部108は、放送直後の順位から、放送から一定時間経過後の順位を減算した値が、予め定められた閾値よりも大きいワードを、このワードの順位で定まる順番よりも早く、字幕データと照合することができる。   Note that the related word information 142 # 1 immediately after the broadcast is also stored in the content storage device 100, so that the chapter generator 108 can compare with the related word information 142 # 2 after a certain time has passed since the broadcast. The rapidly rising word may be preferentially collated with the caption data. For example, the chapter generation unit 108 determines a word in which a value obtained by subtracting a rank after a certain time from broadcasting is larger than a predetermined threshold from a rank immediately after broadcasting earlier than the order determined by the rank of the word, It can be collated with subtitle data.

図10は、生成されたチャプター情報に基づくシーン検索の様子を示す概略図である。録画再生制御部102は、コンテンツの再生をしているとき、ユーザからの要求に応じてシーン検索画面144をモニタ131に表示させる。このとき、各シーンのサムネイル144aだけではなく、関連ワードが含まれている字幕データの一部分を表示する文字情報画面144bを表示させることで、ユーザは容易にシーンの内容を把握できる。   FIG. 10 is a schematic diagram showing a scene search based on the generated chapter information. The recording / playback control unit 102 displays a scene search screen 144 on the monitor 131 in response to a request from the user when playing back content. At this time, the user can easily grasp the contents of the scene by displaying not only the thumbnail 144a of each scene but also the character information screen 144b that displays a part of the caption data including the related word.

また、チャプター生成に用いた関連ワードをユーザが選択し、興味のあるシーンのみ再生することもできる。   In addition, the user can select a related word used for chapter generation, and only a scene of interest can be reproduced.

以上の処理によって、多くの人が興味をもつ事柄を話題にしているシーンを、事前に別のユーザがチャプター生成していなくとも、自動で抽出することができる。   Through the above processing, a scene in which many people are interested in a topic can be automatically extracted even if another user does not generate a chapter in advance.

また、トーク番組のような画像の切り替わりが少ない番組では、映像や音声の切り替わりを自動で認識しチャプターを区切る方法ではシーンチェンジが検出しにくい。しかし、本発明では関連ワードと字幕データとによる文字情報によってチャプターを生成するため、出演者が話す内容によって、適切にチャプターを区切ることができる。   Further, in a program such as a talk program with few image switching, it is difficult to detect a scene change by a method of automatically recognizing video and audio switching and dividing a chapter. However, in the present invention, chapters are generated based on character information based on related words and subtitle data, so that chapters can be appropriately divided according to the contents spoken by the performers.

また、サムネイルのみではシーンの内容を把握しづらい場合でも、文字情報によってシーンの内容を容易に把握することができる。   Further, even when it is difficult to grasp the contents of a scene only with thumbnails, the contents of the scene can be easily grasped by using character information.

実施の形態2.
図11は、実施の形態2に係るコンテンツ蓄積装置200の構成を概略的に示すブロック図である。コンテンツ蓄積装置200は、チューナ部101と、録画再生制御部202と、字幕解析部103と、データ蓄積部104と、関連ワード取得部205と、チャプター生成部108と、一時記憶部109と、チャプター情報蓄積部110と、リモコン受信部211と、リモコン212と、通信部113とを備える。実施の形態2に係るコンテンツ蓄積装置200は、録画再生制御部202、リモコン受信部211、リモコン212及び関連ワード取得部205において、実施の形態1に係るコンテンツ蓄積装置100と異なっている。
Embodiment 2. FIG.
FIG. 11 is a block diagram schematically showing the configuration of the content storage device 200 according to the second embodiment. The content storage device 200 includes a tuner unit 101, a recording / playback control unit 202, a caption analysis unit 103, a data storage unit 104, a related word acquisition unit 205, a chapter generation unit 108, a temporary storage unit 109, a chapter, and the like. An information storage unit 110, a remote control reception unit 211, a remote control 212, and a communication unit 113 are provided. The content storage device 200 according to the second embodiment is different from the content storage device 100 according to the first embodiment in a recording / playback control unit 202, a remote control reception unit 211, a remote control 212, and a related word acquisition unit 205.

録画再生制御部202は、フリーワード蓄積部215に蓄積されたフリーワードに関するコンテンツを含む受信信号を、アンテナ130を介してチューナ部101より取得し、この受信信号からAVデータを分離し、データ蓄積部104に蓄積する。例えば、録画再生制御部202は、フリーワード蓄積部215に蓄積されたフリーワードが、タイトル、番組概要及び番組詳細等の少なくとも何れか1つに含まれるコンテンツの受信信号を取得する。   The recording / playback control unit 202 obtains a reception signal including content related to free words stored in the free word storage unit 215 from the tuner unit 101 via the antenna 130, separates AV data from the reception signal, and stores the data. Stored in the unit 104. For example, the recording / playback control unit 202 acquires a reception signal of content in which the free word stored in the free word storage unit 215 is included in at least one of a title, a program overview, and program details.

リモコン212は、実施の形態1と同様の処理を行う他、ユーザから興味のある事柄をフリーワードとして入力を受け付ける。リモコン212は、入力されたフリーワードを示す無線信号を発信する。
リモコン受信部211は、実施の形態1と同様の処理を行う他、リモコン212から発信された無線信号を受信し、この無線信号から入力されたフリーワードを特定し、特定されたフリーワードをフリーワード管理部214に与える。
The remote controller 212 performs the same processing as in the first embodiment, and accepts input from the user as a free word for matters of interest. The remote control 212 transmits a radio signal indicating the input free word.
In addition to performing the same processing as in the first embodiment, remote control receiving unit 211 receives a radio signal transmitted from remote control 212, identifies a free word input from this radio signal, and frees the identified free word. This is given to the word management unit 214.

関連ワード取得部205は、通信部113及びネットワーク160を介して、関連ワード蓄積部150に接続して、キーワードに関連する関連ワードを取得する。ここで、関連ワード取得部205は、フリーワード管理部214と、フリーワード蓄積部215とを備える。   The related word acquisition unit 205 is connected to the related word storage unit 150 via the communication unit 113 and the network 160 to acquire a related word related to the keyword. Here, the related word acquisition unit 205 includes a free word management unit 214 and a free word storage unit 215.

フリーワード管理部214は、リモコン212を介してユーザが入力したフリーワードをフリーワード蓄積部215に蓄積する。
また、フリーワード管理部214は、フリーワード蓄積部215に蓄積されたフリーワードをキーワードとして抽出する。そして、フリーワード管理部214は、通信部113を介して、ネットワーク160に接続されている関連ワード蓄積部150から、抽出されたキーワードに関連する関連ワードを取得する。フリーワード管理部214は、取得された関連ワードをチャプター生成部108に与える。
フリーワード蓄積部215は、フリーワード管理部214から与えられたフリーワードを記憶する。
The free word management unit 214 stores free words input by the user via the remote control 212 in the free word storage unit 215.
Further, the free word management unit 214 extracts the free words stored in the free word storage unit 215 as keywords. Then, the free word management unit 214 acquires a related word related to the extracted keyword from the related word storage unit 150 connected to the network 160 via the communication unit 113. The free word management unit 214 gives the acquired related word to the chapter generation unit 108.
The free word storage unit 215 stores the free word given from the free word management unit 214.

図12は、実施の形態2におけるコンテンツの取得からチャプター生成までの流れを示すフローチャートである。   FIG. 12 is a flowchart showing a flow from content acquisition to chapter generation in the second embodiment.

まず、リモコン212は、ユーザから興味のある事柄をフリーワードとして入力を受け付ける(S40)。そして、リモコン212は、入力された内容を示す無線信号を発信する。リモコン受信部211は、リモコン212から発信された無線信号を受信し、受信信号から入力されたフリーワードを特定して、特定された内容をフリーワード管理部214に与える。フリーワード管理部214は、リモコン受信部211を介して取得したフリーワードをフリーワード蓄積部215に蓄積する。   First, the remote control 212 accepts an input from the user as a free word (S40). Then, the remote control 212 transmits a radio signal indicating the input content. The remote control receiving unit 211 receives a radio signal transmitted from the remote control 212, specifies a free word input from the received signal, and supplies the specified content to the free word management unit 214. The free word management unit 214 stores free words acquired via the remote control reception unit 211 in the free word storage unit 215.

次に、録画再生制御部202は、フリーワード蓄積部215に蓄積されたフリーワードに関するコンテンツを含む受信信号を、アンテナ130を介してチューナ部101より取得し、この受信信号からAVデータを分離し、データ蓄積部104に蓄積する(S41)。   Next, the recording / playback control unit 202 acquires a reception signal including content related to the free word stored in the free word storage unit 215 from the tuner unit 101 via the antenna 130, and separates AV data from the reception signal. The data is stored in the data storage unit 104 (S41).

次に、字幕解析部103は、チューナ部101から取得した受信信号に含まれる字幕データを抽出し、データ蓄積部104に蓄積する(S42)。   Next, the caption analysis unit 103 extracts caption data included in the received signal acquired from the tuner unit 101, and stores it in the data storage unit 104 (S42).

次に、フリーワード管理部214は、ステップS40で入力されたフリーワードをキーワードとして、通信部113を介して、ネットワーク160に接続されている関連ワード蓄積部150から関連ワードを取得する(S43)。   Next, the free word management unit 214 acquires a related word from the related word storage unit 150 connected to the network 160 via the communication unit 113 using the free word input in step S40 as a keyword (S43). .

チャプター生成部108は、ステップS43でフリーワード管理部214により取得された関連ワードがデータ蓄積部104に蓄積された字幕データの中に登場するか検索する。そして、登場する場合は、チャプター生成部108は、その字幕部分に相当する表示開始時刻を、図4に示されている字幕管理情報140から取得し、この表示開始時刻をチャプターの区切りとしたチャプター情報を生成して、チャプター情報蓄積部110に蓄積する(S44)。ステップS44での処理については、図7のフローチャートで示されている処理と同様である。   The chapter generation unit 108 searches whether the related word acquired by the free word management unit 214 in step S43 appears in the caption data stored in the data storage unit 104. Then, when it appears, the chapter generation unit 108 acquires the display start time corresponding to the subtitle portion from the subtitle management information 140 shown in FIG. 4, and uses the display start time as a chapter break. Information is generated and stored in the chapter information storage unit 110 (S44). The process in step S44 is the same as the process shown in the flowchart of FIG.

ここで、ステップS41〜ステップS44までの処理は、ステップS40において入力されたフリーワードに関するコンテンツが複数あれば、コンテンツの数だけ繰り返される。   Here, the processing from step S41 to step S44 is repeated by the number of contents if there are a plurality of contents related to the free word input in step S40.

また、実施の形態2に係るコンテンツ蓄積装置200は、特定のコンテンツに対して、ユーザが入力したフリーワードをキーワードに設定して、チャプターを生成してもよい。その場合は、あらかじめ蓄積されたコンテンツに対して、図12のステップS41を除外して、図12に示されている処理を実行すればよい。   Also, the content storage apparatus 200 according to Embodiment 2 may generate a chapter by setting a free word input by the user as a keyword for specific content. In that case, the processing shown in FIG. 12 may be executed on the content stored in advance, excluding step S41 of FIG.

番組情報から複数のキーワードが抽出されたとき、その中からユーザが興味を持つキーワードを選択することは難しい。また、ユーザが興味を持つ事柄が、番組情報に含まれない場合は適切なキーワードを抽出することはできない。実施の形態2では、このような場合においても、ユーザの所望するシーンのチャプターを生成することができる。   When a plurality of keywords are extracted from program information, it is difficult to select a keyword that the user is interested in. In addition, when a matter that the user is interested in is not included in the program information, an appropriate keyword cannot be extracted. In the second embodiment, even in such a case, a chapter of a scene desired by the user can be generated.

以上に記載された実施の形態1及び2に係るコンテンツ蓄積装置100、200は、デジタル放送受信装置として構成されていてもよく、デジタル放送受信録画再生装置として構成されていてもよい。また、実施の形態1及び2に係るコンテンツ蓄積装置100、200は、パーソナルコンピュータ又は携帯端末として構成されていてもよい。   The content storage devices 100 and 200 according to the first and second embodiments described above may be configured as a digital broadcast reception device or a digital broadcast reception recording / playback device. In addition, content storage apparatuses 100 and 200 according to Embodiments 1 and 2 may be configured as a personal computer or a mobile terminal.

100,200:コンテンツ蓄積装置、 101:チューナ部、 102,202:録画再生制御部、 103:字幕解析部、 104:データ蓄積部、 105,205:関連ワード取得部、 106:番組情報管理部、 107:番組情報蓄積部、 108:チャプター生成部、 109:一時記憶部、 110:チャプター情報蓄積部、 111,211:リモコン受信部、 112、212:リモコン、 113:通信部、 214:フリーワード管理部、 215:フリーワード蓄積部。   100, 200: Content storage device 101: Tuner unit 102, 202: Recording / playback control unit 103: Subtitle analysis unit 104: Data storage unit 105, 205: Related word acquisition unit 106: Program information management unit 107: Program information storage unit, 108: Chapter generation unit, 109: Temporary storage unit, 110: Chapter information storage unit, 111, 211: Remote control reception unit, 112, 212: Remote control, 113: Communication unit, 214: Free word management Part, 215: a free word storage part.

Claims (12)

コンテンツを蓄積するデータ蓄積部と、
前記コンテンツに含まれる字幕データを解析して、一画面に表示される字幕毎の表示時間を特定する字幕解析部と、
ネットワークとの間で通信を行う通信部と、
前記通信部を介して、前記ネットワークに接続された関連ワード蓄積部より、キーワードに関連する関連ワードを取得する関連ワード取得部と、
前記関連ワードを含む前記字幕の表示時間で区切られたチャプターを示すチャプター情報を生成するチャプター生成部と、を備えること
を特徴とするコンテンツ蓄積装置。
A data storage unit for storing content;
Analyzing the caption data included in the content, and specifying a display time for each caption displayed on one screen;
A communication unit for communicating with the network;
A related word acquisition unit that acquires a related word related to a keyword from a related word storage unit connected to the network via the communication unit;
And a chapter generation unit that generates chapter information indicating chapters separated by display times of the subtitles including the related words.
前記関連ワード取得部は、
前記コンテンツに付随する番組情報を取得する番組情報管理部と、
前記番組情報管理部で取得された番組情報を蓄積する番組情報蓄積部と、を備え、
前記番組情報管理部は、前記番組情報に含まれている特定の情報を前記キーワードとして、前記関連ワードを取得すること
を特徴とする請求項1に記載のコンテンツ蓄積装置。
The related word acquisition unit
A program information management unit for acquiring program information accompanying the content;
A program information storage unit that stores program information acquired by the program information management unit,
The content storage apparatus according to claim 1, wherein the program information management unit acquires the related word using specific information included in the program information as the keyword.
アンテナを介して受信した放送信号から、前記コンテンツ及び前記番組情報を含む受信信号を生成するチューナ部をさらに備え、
前記番組情報管理部は、前記チューナ部が放送信号を受信してから予め定められた時間が経過した後に、前記関連ワードを取得すること
を特徴とする請求項2に記載のコンテンツ蓄積装置。
A tuner unit for generating a reception signal including the content and the program information from a broadcast signal received via an antenna;
The content storage device according to claim 2, wherein the program information management unit acquires the related word after a predetermined time has elapsed since the tuner unit received a broadcast signal.
指示の入力を受け付ける入力部と、
前記チャプター情報に基づいて、前記入力部が入力を受け付けた指示で指定されたチャプターに対応するシーンの再生を行う録画再生制御部と、をさらに備えること
を特徴とする請求項1から3の何れか一項に記載のコンテンツ蓄積装置。
An input unit for receiving instructions,
4. A recording / playback control unit that plays back a scene corresponding to a chapter specified by an instruction received by the input unit based on the chapter information. 5. The content storage device according to claim 1.
前記録画再生制御部は、前記関連ワードを含む前記字幕の少なくとも一部を表示するチャプター選択画面を生成し、当該チャプター選択画面において、前記入力部で指示の入力を受け付けること
を特徴とする請求項4に記載のコンテンツ蓄積装置。
The recording / playback control unit generates a chapter selection screen that displays at least a part of the subtitles including the related word, and receives an instruction input from the input unit on the chapter selection screen. 4. The content storage device according to 4.
指示の入力を受け付ける入力部をさらに備え、
前記関連ワード取得部は、
前記入力部が入力を受け付けた指示で示されるフリーワードを取得するフリーワード管理部と、
前記フリーワード管理部で取得されたフリーワードを蓄積するフリーワード蓄積部と、を備え、
前記フリーワード管理部は、前記フリーワードをキーワードとして、前記関連ワードを取得すること
を特徴とする請求項1に記載のコンテンツ蓄積装置。
It further includes an input unit that receives input of instructions,
The related word acquisition unit
A free word management unit that acquires a free word indicated by an instruction that the input unit has accepted an input;
A free word storage unit for storing free words acquired by the free word management unit,
The content storage device according to claim 1, wherein the free word management unit acquires the related word using the free word as a keyword.
コンテンツを蓄積するデータ蓄積過程と、
前記コンテンツに含まれる字幕データを解析して、一画面に表示される字幕毎の表示時間を特定する字幕解析過程と、
ネットワークに接続された関連ワード蓄積部より、キーワードに関連する関連ワードを取得する関連ワード取得過程と、
前記関連ワードを含む前記字幕の表示時間で区切られたチャプターを示すチャプター情報を生成するチャプター生成過程と、を有すること
を特徴とするコンテンツ蓄積方法。
A data storage process for storing content;
Analyzing the subtitle data included in the content and identifying a display time for each subtitle displayed on one screen;
A related word acquisition process for acquiring a related word related to a keyword from a related word storage unit connected to the network;
A chapter generation process for generating chapter information indicating chapters separated by display times of the subtitles including the related words.
前記関連ワード取得過程は、
前記コンテンツに付随する番組情報を取得する番組情報管理過程と、
前記番組情報管理過程で取得された番組情報を蓄積する番組情報蓄積過程と、
前記番組情報蓄積過程で蓄積された番組情報に含まれている特定の情報を前記キーワードとして、前記関連ワードを取得する取得過程と、を有すること
を特徴とする請求項7に記載のコンテンツ蓄積方法。
The related word acquisition process includes:
A program information management process for acquiring program information associated with the content;
A program information storage process for storing program information acquired in the program information management process;
The content storage method according to claim 7, further comprising: an acquisition step of acquiring the related word using the specific information included in the program information stored in the program information storage step as the keyword. .
アンテナを介して受信した放送信号から、前記コンテンツ及び前記番組情報を含む受信信号を生成する受信過程をさらに有し、
前記取得過程は、前記受信過程で放送信号が受信されてから予め定められた時間が経過した後に、前記関連ワードを取得すること
を特徴とする請求項8に記載のコンテンツ蓄積方法。
A reception process for generating a reception signal including the content and the program information from a broadcast signal received via an antenna;
The content accumulating method according to claim 8, wherein the obtaining step obtains the related word after a predetermined time has elapsed since the broadcast signal was received in the receiving step.
指示の入力を受け付ける入力過程と、
前記チャプター情報に基づいて、前記入力過程で入力を受け付けた指示で指定されたチャプターに対応するシーンの再生を行う録画再生制御過程と、をさらに有すること
を特徴とする請求項7から9の何れか一項に記載のコンテンツ蓄積方法。
An input process for receiving instructions,
The recording / playback control step of playing back a scene corresponding to the chapter specified by the instruction received in the input step based on the chapter information. The content storage method according to claim 1.
前記録画再生制御過程は、前記関連ワードを含む前記字幕の少なくとも一部を表示するチャプター選択画面を生成し、当該チャプター選択画面において、前記入力過程で指示の入力を受け付けること
を特徴とする請求項10に記載のコンテンツ蓄積方法。
The recording / playback control process generates a chapter selection screen that displays at least a part of the subtitles including the related word, and receives an instruction input in the input process on the chapter selection screen. 10. The content storage method according to 10.
指示の入力を受け付ける入力過程をさらに有し、
前記関連ワード取得過程は、
前記入力過程で入力を受け付けた指示で示されるフリーワードを取得するフリーワード管理過程と、
前記フリーワード管理過程で取得されたフリーワードを蓄積するフリーワード蓄積過程と、
前記フリーワード蓄積過程で蓄積されたフリーワードをキーワードとして、前記関連ワードを取得する取得過程と、を有すること
を特徴とする請求項7に記載のコンテンツ蓄積方法。
An input process for receiving an instruction input;
The related word acquisition process includes:
A free word management process for obtaining a free word indicated by an instruction that has received an input in the input process;
A free word storage process for storing free words acquired in the free word management process;
The content storage method according to claim 7, further comprising: an acquisition process of acquiring the related word using the free word stored in the free word storage process as a keyword.
JP2012036129A 2012-02-22 2012-02-22 Content storage apparatus and content storage method Expired - Fee Related JP5840026B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012036129A JP5840026B2 (en) 2012-02-22 2012-02-22 Content storage apparatus and content storage method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012036129A JP5840026B2 (en) 2012-02-22 2012-02-22 Content storage apparatus and content storage method

Publications (2)

Publication Number Publication Date
JP2013172381A true JP2013172381A (en) 2013-09-02
JP5840026B2 JP5840026B2 (en) 2016-01-06

Family

ID=49266038

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012036129A Expired - Fee Related JP5840026B2 (en) 2012-02-22 2012-02-22 Content storage apparatus and content storage method

Country Status (1)

Country Link
JP (1) JP5840026B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005303741A (en) * 2004-04-13 2005-10-27 Daikin Ind Ltd Information processing apparatus and information processing method, program, and information processing system
JP2006129122A (en) * 2004-10-29 2006-05-18 Sharp Corp Broadcast receiver, broadcast receiving method, broadcast reception program and program recording medium
JP2006332765A (en) * 2005-05-23 2006-12-07 Sharp Corp Contents searching/reproducing method, contents searching/reproducing apparatus, and program and recording medium
JP2011209873A (en) * 2010-03-29 2011-10-20 Sony Corp Information processing device, content displaying method, and computer program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005303741A (en) * 2004-04-13 2005-10-27 Daikin Ind Ltd Information processing apparatus and information processing method, program, and information processing system
JP2006129122A (en) * 2004-10-29 2006-05-18 Sharp Corp Broadcast receiver, broadcast receiving method, broadcast reception program and program recording medium
JP2006332765A (en) * 2005-05-23 2006-12-07 Sharp Corp Contents searching/reproducing method, contents searching/reproducing apparatus, and program and recording medium
JP2011209873A (en) * 2010-03-29 2011-10-20 Sony Corp Information processing device, content displaying method, and computer program

Also Published As

Publication number Publication date
JP5840026B2 (en) 2016-01-06

Similar Documents

Publication Publication Date Title
CA2924065C (en) Content based video content segmentation
JP4905103B2 (en) Movie playback device
JP5135024B2 (en) Apparatus, method, and program for notifying content scene appearance
JP4388128B1 (en) Information providing server, information providing method, and information providing system
JP5106455B2 (en) Content recommendation device and content recommendation method
JP2007124465A (en) Data processing device, system, and method
JP2009118168A (en) Program recording/reproducing apparatus and program recording/reproducing method
JP4476786B2 (en) Search device
JP2009048348A (en) Information processing apparatus, method for searching through candidate for character information, and program for searching through candidate for character information
JP2008227909A (en) Video retrieval apparatus
JP5148325B2 (en) Content processing apparatus, content processing method, content reproduction apparatus, program, and recording medium
JP6150780B2 (en) Information processing apparatus, information processing method, and program
JP5209129B1 (en) Information processing apparatus, broadcast receiving apparatus, and information processing method
JP4331706B2 (en) Editing apparatus and editing method
WO2014103374A1 (en) Information management device, server and control method
JP5343658B2 (en) Recording / playback apparatus and content search program
JP6028505B2 (en) Recording / playback apparatus and program search method
JP6029530B2 (en) Information processing apparatus and information processing method
JP5703321B2 (en) Information processing apparatus and information processing method
JP5840026B2 (en) Content storage apparatus and content storage method
JP2012203773A (en) Moving image recommendation device and moving image recommendation method
WO2009107708A1 (en) Contents reproduction device, contents reproduction system, method for reproducing contents, contents reproduction program and recording medium
JP2011239085A (en) Recording and reproducing device and method
JP2010062758A (en) Electronic apparatus, information processing method, and program
JP6710926B2 (en) Recording/reproducing apparatus, server, and database creation method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150625

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150630

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150731

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151013

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151110

R150 Certificate of patent or registration of utility model

Ref document number: 5840026

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees