JP2013172381A - Content storage device and content storage method - Google Patents
Content storage device and content storage method Download PDFInfo
- Publication number
- JP2013172381A JP2013172381A JP2012036129A JP2012036129A JP2013172381A JP 2013172381 A JP2013172381 A JP 2013172381A JP 2012036129 A JP2012036129 A JP 2012036129A JP 2012036129 A JP2012036129 A JP 2012036129A JP 2013172381 A JP2013172381 A JP 2013172381A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- word
- content
- chapter
- program information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、コンテンツ蓄積装置及びコンテンツ蓄積方法に関する。 The present invention relates to a content storage device and a content storage method.
光ディスクレコーダー及びハードディスクレコーダーの普及によって、テレビ放送等の映像コンテンツを長時間録画することが一般的になっている。しかし、ユーザのテレビ視聴時間は限られているため、録画した映像コンテンツから所望のシーンを容易に見つけられることが望まれている。 With the widespread use of optical disk recorders and hard disk recorders, it has become common to record video content such as television broadcasts for a long time. However, since the user's television viewing time is limited, it is desired that a desired scene can be easily found from the recorded video content.
そこで、コンテンツの映像又は音声の切り替わりによるシーンチェンジを抽出し、チャプターに区切ることによって、ユーザに任意のシーンを探しやすくする技術が広く知られている。映像コンテンツにおけるシーンの切り替わり時間をチャプター情報として登録することにより、見たいシーンの開始点に容易にスキップすることができる。 Therefore, a technique is known that makes it easy for a user to find an arbitrary scene by extracting a scene change due to switching of video or audio of a content and dividing it into chapters. By registering the scene change time in the video content as the chapter information, it is possible to easily skip to the start point of the desired scene.
また、ユーザが作成したメタデータ(チャプター情報及びシーンに対するコメント等のテキスト情報を決まった様式で記述したもの)をネットワークにアップロードし、他の多くのユーザと共有する技術がある(例えば特許文献1参照)。この技術により、ユーザは誰かが作成したメタデータを用いて、チャプターを生成できる。また、ユーザは、各シーンに対応したコメントを参照することによってシーンの内容を理解でき、容易に所望のシーンを見つけることができる。 In addition, there is a technique for uploading metadata created by a user (description of text information such as chapter information and comments on a scene in a predetermined format) to a network and sharing it with many other users (for example, Patent Document 1). reference). With this technology, a user can generate chapters using metadata created by someone. The user can understand the contents of the scene by referring to the comment corresponding to each scene, and can easily find a desired scene.
特許文献1に記載の技術では、ユーザが視聴しようとする映像コンテンツに対して、別のユーザが、メタデータを作成し、かつ、そのメタデータをネットワークにアップロードしている必要がある。そのため、ユーザが人気のない(メタデータのない)映像コンテンツを視聴する場合、及び、そのサービス自体のユーザが少なく、メタデータが作成されていない場合には、メタデータを取得することはできない。
In the technique described in
そこで、本発明は、不特定の人が興味を示すシーンのチャプターを自動的に生成できるようにすることを目的とする。 Therefore, an object of the present invention is to automatically generate a chapter of a scene in which an unspecified person is interested.
本発明の一態様に係るコンテンツ蓄積装置は、コンテンツを蓄積するデータ蓄積部と、前記コンテンツに含まれる字幕データを解析して、一画面に表示される字幕毎の表示時間を特定する字幕解析部と、ネットワークとの間で通信を行う通信部と、前記通信部を介して、前記ネットワークに接続された関連ワード蓄積部より、キーワードに関連する関連ワードを取得する関連ワード取得部と、前記関連ワードを含む前記字幕の表示時間で区切られたチャプターを示すチャプター情報を生成するチャプター生成部と、を備えることを特徴とする。 A content storage device according to an aspect of the present invention includes a data storage unit that stores content, and a subtitle analysis unit that analyzes subtitle data included in the content and identifies a display time for each subtitle displayed on one screen A communication unit that communicates with a network, a related word acquisition unit that acquires a related word related to a keyword from a related word storage unit connected to the network via the communication unit, and the related A chapter generation unit that generates chapter information indicating chapters separated by display times of the subtitles including words.
本発明の一態様によれば、不特定の人が興味を示すシーンのチャプターを自動的に生成することができる。 According to one embodiment of the present invention, a chapter of a scene in which an unspecified person is interested can be automatically generated.
実施の形態1.
図1は、実施の形態1に係るコンテンツ蓄積装置100の構成を概略的に示すブロック図である。コンテンツ蓄積装置100は、ネットワーク160に接続されており、このネットワークには、少なくとも一つの関連ワード蓄積部150が接続されている。ネットワーク160は、例えばインターネットである。関連ワード蓄積部150は、例えば検索サイトに蓄積された、不特定のユーザによる検索履歴を集計してデータベース化されたものである。
FIG. 1 is a block diagram schematically showing the configuration of the
コンテンツ蓄積装置100は、チューナ部101と、録画再生制御部102と、字幕解析部103と、データ蓄積部104と、関連ワード取得部105と、チャプター生成部108と、一時記憶部109と、チャプター情報蓄積部110と、リモコン受信部111と、リモコン112と、通信部113とを備える。また、コンテンツ蓄積装置100には、アンテナ130及びモニタ131が接続されている。アンテナ130は、図示しないが例えば複数の放送局から送信されるテレビ放送の放送波を受信する。モニタ131は、映像を表示する表示部である。
The
チューナ部101は、アンテナ130を介して、ユーザ操作等により選局された放送波に対する放送信号を受信し、その放送信号に対して復調処理及び圧縮符号処理等を適宜施して、コンテンツ及び番組情報を含む受信信号を生成する。
The
録画再生制御部102は、チューナ部101が生成した受信信号からAVデータを分離し、データ蓄積部104に蓄積する。また、録画再生制御部102は、データ蓄積部104に蓄積されたコンテンツを再生する処理を制御する。
字幕解析部103は、チューナ部101が生成した受信信号から字幕データを抽出し、データ蓄積部104に蓄積する。このとき、字幕データは、一画面に表示される字幕毎の表示時間を示すタイムスタンプとともに蓄積される。
データ蓄積部104は、コンテンツを蓄積する。コンテンツには、AVデータ及び字幕データが含まれる。
The recording /
The
The
関連ワード取得部105は、通信部113を介して、ネットワーク160に接続された関連ワード蓄積部150より、キーワードに関連する関連ワードを取得する。ここで、関連ワード取得部105は、番組情報管理部106と、番組情報蓄積部107とを備える。
The related
番組情報管理部106は、チューナ部101が生成した受信信号に含まれる番組情報のうち、データ蓄積部104に蓄積されたコンテンツに関するものを番組情報蓄積部107に蓄積する。「番組情報」は、テレビ放送のEPG情報に含まれる、コンテンツのタイトル、サブタイトル、出演者情報及び番組概要等を含む。
また、番組情報管理部106は、番組情報蓄積部107に蓄積された番組情報から、特定の情報をキーワードとして抽出する。そして、番組情報管理部106は、通信部113を介して、ネットワーク160に接続された関連ワード蓄積部150から、抽出されたキーワードに関連する関連ワードを取得する。番組情報管理部106は、取得された関連ワードをチャプター生成部108に与える。「関連ワード」は、キーワードに関連するワードである。詳細については後述する。
番組情報蓄積部107は、番組情報管理部106から与えられた番組情報を記憶する。
The program
The program
The program
チャプター生成部108は、データ蓄積部104に蓄積された字幕データに、番組情報管理部106によって取得された関連ワードが含まれる箇所を抽出する。抽出した箇所のタイムスタンプをもとにチャプターを生成し、生成されたチャプターを示すチャプター情報をチャプター情報蓄積部110に蓄積する。
The
リモコン受信部111は、リモコン112からの無線信号を受信して、受信された無線信号で示される内容を録画再生制御部102に与える。
リモコン112は、ユーザからの指示の入力を受けて、指示の内容を示す無線信号を発信する。
ここで、リモコン受信部111及びリモコン112により、ユーザからの指示の入力を受け付ける入力部が構成される。
通信部113は、ネットワーク160との間で通信を行う。
The remote
The
Here, the remote
The
次に、コンテンツの再生方法について説明する。
録画再生制御部102は、データ蓄積部104に蓄積されたコンテンツをモニタ131に出力し再生を行う。このとき、録画再生制御部102は、チャプター情報蓄積部110に蓄積されたチャプター情報を用いて、ユーザからのシーン検索に対応する。シーン検索は、チャプター情報に基づいて、各チャプターのシーンの内容をサムネイル等によってユーザに提示し、ユーザが選択したチャプターの開始点からシーンを再生する機能である。
Next, a content reproduction method will be described.
The recording /
なお、データ蓄積部104に蓄積されるコンテンツは、テレビ放送から得られるものでなくてもよい。例えば、コンテンツは、USBやIEEE1394等のバスを経由して、あるいはDVD/BD、メモリーカード等のリムーバルメディアを経由して取得されたものであってもよい。または、コンテンツは、通信部113を介して、ネットワーク160からダウンロードされたものであってもよい。ここで、本実施の形態においては、コンテンツのデータとして、テレビ放送に用いられるMPEG−2トランスポートストリーム(TS)が想定されているが、字幕等の文字情報が付随したデータであれば、MPEG−2プログラムストリーム及びアナログAV信号等であってもよい。
Note that the content stored in the
図2は、コンテンツの取得からチャプターの生成までの流れを示すフローチャートである。
まず、録画再生制御部102は、外部からの放送信号に基づいてチューナ部101で生成された受信信号に含まれるAVデータを取得し、また、番組情報管理部106は、この受信信号に含まれる番組情報を取得する(S10)。番組情報については後述する。
FIG. 2 is a flowchart showing a flow from content acquisition to chapter generation.
First, the recording /
次に、字幕解析部103は、チューナ部101で生成された受信信号に含まれる字幕データを抽出し、データ蓄積部104に蓄積する(S11)。
Next, the
ここで、受信信号にAVデータと字幕データとがどのように含まれるかを示すために、図3を用いて、受信信号がMPEG−2TSの場合におけるコンテンツのデータ構造について説明する。図3は、MPEG−2TSとAVデータ及び字幕データの関係を示す概略図である。MPEG−2TSは、映像、音声及び字幕のPES(Packetized Elementary Stream)が多重化されて構成されている。各PESには、映像、音声及び字幕のそれぞれの実データと、それらを表示するタイムスタンプとが含まれている。
字幕データは、一画面で表示するページ単位で区切られている。タイムスタンプを用いて、ページ毎に表示開始時刻及び表示終了時刻を管理することができる。字幕解析部103は、受信信号から分離された字幕PESを解析し、文字情報とタイムスタンプとを紐付けて、図4に示されているような字幕管理情報140を作成し、データ蓄積部104に蓄積する。
Here, in order to show how AV data and caption data are included in the received signal, a data structure of content when the received signal is MPEG-2TS will be described with reference to FIG. FIG. 3 is a schematic diagram showing the relationship between MPEG-2TS, AV data, and caption data. MPEG-2TS is configured by multiplexing PES (Packetized Elementary Stream) of video, audio, and subtitles. Each PES includes actual data of video, audio, and subtitles, and a time stamp for displaying them.
The caption data is divided in units of pages to be displayed on one screen. Using the time stamp, the display start time and the display end time can be managed for each page. The
図4は、字幕管理情報140を示す概略図である。字幕管理情報140は、タイムスタンプ欄140aと、字幕データ欄140dとを有するテーブル形式の情報である。
タイムスタンプ欄140aは、字幕データ欄140dに格納されている一ページあたりの字幕データの字幕を表示する表示時間を格納する。ここで、タイムスタンプ欄140aは、表示開始時刻欄140bと、表示終了時刻欄140cとを有する。
表示開始時刻欄140bは、字幕データ欄140dに格納されている一ページあたりの字幕データの字幕を表示する表示開始時刻を格納する。
表示終了時刻140cは、字幕データ欄140dに格納されている一ページあたりの字幕データの字幕を表示する表示終了時刻を格納する。
字幕データ欄140dは、タイムスタンプ欄140aで特定される期間に表示される一ページあたりの字幕データ(ここでは、テキストデータ)を格納する。
FIG. 4 is a schematic diagram showing the
The
The display start
The
The
なお、字幕解析部103は、字幕データ以外にも番組で表示されるテロップ等の文字情報から文字認識して、認識された文字の文字データを字幕データとして字幕管理情報140に蓄積してもよい。
Note that the
図2の説明に戻り、ステップS12において、番組情報管理部106は、番組情報蓄積部107に蓄積された番組情報から、特定の情報として、ゲスト出演者名を抽出する。
Returning to the description of FIG. 2, in step S <b> 12, the program
ここで、図5は、テレビ放送における番組情報141の一例を示す概略図である。図5に示されている番組情報141は、タイトル行141aと、日時行141bと、放送局行141cと、ジャンル行141dと、番組概要行141eと、番組詳細行141fとを有する。
タイトル行141aは、番組のタイトルを格納する。
日時行141bは、番組が放送される日時を格納する。
放送局行141cは、番組が放送される放送局を示す放送局情報を格納する。
ジャンル行141dは、番組のジャンルを格納する。
番組概要行141eは、番組内容の概要を格納する。
番組詳細行141fは、番組内容の詳細を格納する。
Here, FIG. 5 is a schematic diagram showing an example of
The
The date and
The
The
The
The program details
図5に示されている番組情報141では、番組詳細行141fに、番組の出演者を示す出演者情報が“[出演者]”又は“[ゲスト]”の後に記されている。本実施の形態では、番組情報管理部106は、出演者のうち番組内で特に話題が掘り下げられる、ゲスト出演者の名前を抽出する。そのため、番組情報管理部106は、“[ゲスト]”の文字列に続く文字列を抽出する。テレビ放送の番組情報では、図5の例の他に“ゲスト:”や“今回のゲストは”の文字列の後ろに出演者名が記される場合がある。また、シリーズ番組を毎週及び毎日等のように定期的に放送される番組の場合は、出演者名から放送回毎に共通する人名を除外し、各回の放送のみに出演する名前を抽出すれば、ゲスト出演者名を抽出することができる。
In the
図2の説明に戻り、ステップS13において、番組情報管理部106は、ステップS12で抽出されたゲスト出演者名をキーワードとして、通信部113を介して、ネットワーク160に接続された関連ワード蓄積部150から関連ワードを取得する。
Returning to the description of FIG. 2, in step S <b> 13, the program
ここで、図6は、関連ワード蓄積部150に蓄積されている関連ワード情報142のフォーマットの一例を示す概略図である。関連ワード情報142は、順位欄142aと、関連ワード欄142bとを有するテーブル形式の情報である。
順位欄142aは、関連ワード欄142bに格納された関連ワードが、キーワードと共に検索された回数の多いものから順に高くなる順位を格納する。ここでの順位は、数字が大きいほど低い順位になるように、「1」から順に自然数が割り当てられる。
関連ワード欄142bは、キーワードと共に検索サイトで検索されたワードである関連ワードを格納する。
Here, FIG. 6 is a schematic diagram showing an example of the format of the
The
The
ここで、関連ワード情報142は、例えば、インターネット160の検索サイトでキーワードとともに検索されたワードを集計したものである。言い換えると、インターネット160の検索サイトでキーワードと一緒に検索される回数が多いワードから順に、関連ワードとして関連ワード情報142に格納される。
また、他の例として、Webページ上でキーワードと一緒に出現する回数が多いワードから順に、関連ワードとして関連ワード情報142に格納されてもよい。
検索サイト等では、利用者がキーワードを入力すると関連ワードを複数表示し、その中から利用者に選択させ、より絞り込んだ検索を可能にするサービスが提供されている。よって、番組情報管理部106は、通信部113及びインターネット160を介して検索サイトに接続し、キーワードから関連ワードを取得することができる。また、関連ワードは、インターネット160上で不特定の利用者が利用したデータを基に、随時更新される。
このように、キーワードと一緒に検索される回数が多いワード、又は、Webページ上でキーワードと一緒に出現する回数が多いワードを関連ワードとすることにより、関連ワードは、不特定の利用者が興味を示すワードであると考えることができる。そして、関連ワード情報142の順位は、不特定の利用者が興味を示す順であると考えることができる。
Here, the
As another example, the words may be stored in the
In a search site or the like, a service is provided that enables a more narrowed search by displaying a plurality of related words when a user inputs a keyword and allowing the user to select from them. Therefore, the program
In this way, a word that is frequently searched together with a keyword or a word that frequently appears together with a keyword on a Web page is used as a related word. It can be thought of as a word indicating interest. The order of the
なお、関連ワードの取得に用いるキーワードは、ゲスト出演者の名前以外にも、番組情報141に含まれている情報であればどのような情報であってもよい。例えば、キーワードは、番組のサブタイトル又は概要等でもよい。また、複数のキーワードに基づいて、関連ワードが取得されてもよい。
In addition, the keyword used for acquisition of a related word may be any information as long as it is information included in the
図2の説明に戻り、ステップS14では、チャプター生成部108は、ステップS13で番組情報管理部106により取得された関連ワードがデータ蓄積部104に蓄積された字幕データの中に登場するか検索する。そして、登場する場合は、チャプター生成部108は、その字幕部分に相当する表示開始時刻を、図4に示されている字幕管理情報140から取得し、この表示開始時刻をチャプターの区切りとしたチャプター情報を生成して、チャプター情報蓄積部110に蓄積する。ステップS14での処理については、図7を用いて、詳細に説明する。
Returning to the description of FIG. 2, in step S <b> 14, the
図7は、図2のステップS14における、関連ワードからチャプターを生成する流れを示すフローチャートである。また、図8は、チャプターを生成する際の処理を説明するための概略図である。 FIG. 7 is a flowchart showing a flow of generating chapters from related words in step S14 of FIG. FIG. 8 is a schematic diagram for explaining processing when generating a chapter.
まず、チャプター生成部108は、インデックスnを「1」に、インデックスkを「0」に設定する(S20)。インデックスnは、検索ワードの順位を示すインデックスである。取得された関連ワードは、図6に示すように順位付けされており、第1番目から順に検索に用いられる。インデックスkは、各々の時点において、字幕データ内でインデックスnの関連ワードが検出された数を示すインデックスである。
First, the
次に、チャプター生成部108は、チャプター数が閾値x以上であるか否かを判定する(S21)。チャプター生成部108は、チャプター数が閾値x以上となるまで、後述するステップS22〜S30の処理を繰り返す。閾値xは、最終的な総チャプター数の最小値である。閾値xは、コンテンツの長さに応じて決定されるものとする。長時間のコンテンツではより多くのシーンが存在すると考えられ、所望のシーンを見つけるためには、多くのチャプター数を必要とする。例えば、30分のコンテンツならば、閾値xは「5」、2時間のコンテンツならば、閾値xは「20」というように、コンテンツが長いほど閾値xが大きくなるように、コンテンツの時間に比例させて閾値xが決定されることが望ましい。なお、図8に示されている例では、閾値xの値は「5」とする。また、閾値xの値は、処理を軽減するために定数にしたり、好みに応じてユーザが設定したりしてもよい。
Next, the
次に、チャプター生成部108は、第n番目の関連ワードがコンテンツの字幕データに登場するか検出する(S22)。検出は、時間順に字幕データの先頭から行われる。第n番目の関連ワードが字幕データ内に見つかった場合(S22:Yes)には、チャプター生成部108は、ステップS23の処理に進み、それが見つからなかった場合(S22:No)には、チャプター生成部108は、ステップS28の処理に進む。
Next, the
ステップS23では、チャプター生成部108は、インデックスkが「0」であるか否かを判断する。そして、チャプター生成部108は、インデックスkが「0」ではない場合(S23:No)、即ち、既に第n番目の関連ワードが検出されている場合には、ステップS24の処理に進み、インデックスkが「0」である場合(S23:Yes)、即ち、初めて第n番目の関連ワードが検出された場合には、ステップS25の処理に進む。
In step S23, the
ステップS24では、チャプター生成部108は、今回検出された第n番目の関連ワードが含まれている字幕データの放送開始時刻と、直前に登場した第n番目の関連ワードが含まれている字幕データの放送開始時刻との間の時間が、予め定められた時間y以内であるか否かを判定する。そして、チャプター生成部108は、その時間が時間yよりも長い場合(S24:No)には、ステップS25の処理に進み、その時間が時間y以内である場合(S24:Yes)には、ステップS27の処理に進む。
In step S24, the
ステップS25では、チャプター生成部108は、ステップS22で見つかった第n番目の関連ワードの表示開始時刻を、一時記憶部109に記憶させる。
そして、チャプター生成部108は、インデックスkに「1」を足して、ステップS27の処理に進む。
In step S25, the
Then, the
ステップS27では、チャプター生成部108は、検索位置を更新して、第n番目の関連ワードの検索を続行して、ステップS22の処理に戻る。
In step S27, the
ここで、図8を用いて、ステップS24〜S27での処理について説明する。
符号143aに示されているように、ある検索ワードが短い時間内に複数登場する場合は、その区間でその事柄について話し続けられていると考えられる。従って、連続した話題であるにもかかわらず、チャプターを区切るのは不適切となるため、チャプター生成部108は、短い時間内において検出された関連ワードに基づいてチャプターを区切らない。なお、図8に示す例では、時間yの値は2分とした。時間yの値は、一つの事柄について話す時間を考え、定数を設定すればよいが、この値をユーザが設定してもよい。
Here, the processing in steps S24 to S27 will be described with reference to FIG.
As indicated by
図7の説明に戻り、ステップS22において、第n番目の関連ワードが残りの字幕データから検出されなかった場合(S22:No)には、チャプター生成部108は、ステップS28の処理に進む。ステップS28では、チャプター生成部108は、インデックスkの値が、関連ワードの最大検出数を定める閾値zよりも小さいか否かを判断する。そして、チャプター生成部108は、その値が閾値zよりも小さい場合(S28:Yes)には、ステップS29の処理に進み、その値が閾値z以上の場合(S28:No)には、ステップS30の処理に進む。
Returning to the description of FIG. 7, when the nth related word is not detected from the remaining caption data in step S22 (S22: No), the
ステップS29においては、チャプター生成部108は、インデックスkの値が「0」ではない場合には、一時記憶部109に記憶させた放送開始時刻を区切りとするチャプターをチャプター情報に設定する。
そして、チャプター生成部108は、インデックスnに「1」を加え、インデックスkを初期値「0」に戻して、ステップS21に戻る。このとき、チャプター生成部108は、一時記憶部109に記憶されている放送開始時刻を削除する。
In step S29, when the value of the index k is not “0”, the
Then,
ここで、図8を用いて、ステップS28及びS29での処理について説明する。
例えば、図8の符号143bに示されているように、インデックスkの値が閾値z以上の場合は、番組全体を通して何回も出現する関連ワードとなる。例えば、その関連ワードは、“山ちゃん”のように出演者のニックネーム等、番組の話題には関係がないと判断できる。このため、チャプター生成部108は、インデックスkの値が閾値z以上の場合は、このような関連ワードに基づくチャプターの区切りは行わない。なお、閾値zの値は、番組の長さに応じて決定される。例えば、番組の放送時間が長いほど、閾値zの値を大きくすることが望ましい。なお、図8に示されている例では、閾値zの値は「5」とする。
Here, the processing in steps S28 and S29 will be described with reference to FIG.
For example, as indicated by
なお、図8の符号143cに示されているように、累積チャプター数が、閾値x(ここでは、「5」)以上となった場合には、チャプター生成部108は、図7のフローを終了する。
以上、説明した流れでチャプターが生成される。
As indicated by
As described above, chapters are generated according to the flow described above.
図7に示されているフローでチャプターが生成されるタイミングは、コンテンツを録画し終わったときに行うのが望ましい。また、ユーザが指定したときに行われてもよく、さらに、放送終了後一定時間経過したときに行われてもよい。 The timing at which the chapter is generated in the flow shown in FIG. 7 is preferably performed when the content has been recorded. Moreover, it may be performed when the user designates, or may be performed when a certain time has elapsed after the end of broadcasting.
放送終了後一定時間経過してからチャプター生成を行う場合の利点について説明する。番組情報管理部106がキーワードを用いて取得する関連ワードは、前述のとおり、不特定の利用者の利用履歴によって随時更新される。コンテンツを先に視聴した人が、興味を持ち、番組内で触れられた話題を、検索サイトで検索したり、ブログ等のWebサイトに投稿したりすることによって、ある関連ワードが一定時間後上位にくる可能性がある。その関連ワードは、コンテンツの中で話題にされた事柄である可能性が高く、かつ、多くの人にとって重要であると判断できる。そのため、一定時間経過してから関連ワードを取得することによって、よりコンテンツに即したチャプターを生成することができる。
An advantage in the case where chapter generation is performed after a certain time has elapsed after the end of broadcasting will be described. As described above, the related word acquired by the program
図9(A)及び(B)は、関連ワードの時間による推移の様子を示す概略図である。図9(A)は、放送直後の関連ワード情報142#1を示し、図9(B)は、放送から一定時間経過後の関連ワード情報142#2を示す。
放送から一定時間経過後の関連ワード情報142#2には、放送直後の関連ワード情報142#1に含まれていなかった「○○美」というワードが新たに含まれている。また、放送から一定時間経過後の関連ワード情報142#2では、放送直後の関連ワード情報142#1において順位が低かった「舞台」のワードが、上位に含まれている。このように、放送から一定時間後の関連ワード情報142#2を用いることにより、放送直後の関連ワード情報142#1には含まれない、一定時間で上位に含まれた関連ワードに関するチャプターも生成できる。
FIGS. 9A and 9B are schematic diagrams showing the transition of related words over time. FIG. 9A shows the
The
なお、放送直後の関連ワード情報142#1もコンテンツ蓄積装置100内に蓄積しておくことで、チャプター生成部108は、放送から一定時間経過後の関連ワード情報142#2と比較して、特に急上昇したワードを優先的に字幕データと照合してもよい。例えば、チャプター生成部108は、放送直後の順位から、放送から一定時間経過後の順位を減算した値が、予め定められた閾値よりも大きいワードを、このワードの順位で定まる順番よりも早く、字幕データと照合することができる。
Note that the
図10は、生成されたチャプター情報に基づくシーン検索の様子を示す概略図である。録画再生制御部102は、コンテンツの再生をしているとき、ユーザからの要求に応じてシーン検索画面144をモニタ131に表示させる。このとき、各シーンのサムネイル144aだけではなく、関連ワードが含まれている字幕データの一部分を表示する文字情報画面144bを表示させることで、ユーザは容易にシーンの内容を把握できる。
FIG. 10 is a schematic diagram showing a scene search based on the generated chapter information. The recording /
また、チャプター生成に用いた関連ワードをユーザが選択し、興味のあるシーンのみ再生することもできる。 In addition, the user can select a related word used for chapter generation, and only a scene of interest can be reproduced.
以上の処理によって、多くの人が興味をもつ事柄を話題にしているシーンを、事前に別のユーザがチャプター生成していなくとも、自動で抽出することができる。 Through the above processing, a scene in which many people are interested in a topic can be automatically extracted even if another user does not generate a chapter in advance.
また、トーク番組のような画像の切り替わりが少ない番組では、映像や音声の切り替わりを自動で認識しチャプターを区切る方法ではシーンチェンジが検出しにくい。しかし、本発明では関連ワードと字幕データとによる文字情報によってチャプターを生成するため、出演者が話す内容によって、適切にチャプターを区切ることができる。 Further, in a program such as a talk program with few image switching, it is difficult to detect a scene change by a method of automatically recognizing video and audio switching and dividing a chapter. However, in the present invention, chapters are generated based on character information based on related words and subtitle data, so that chapters can be appropriately divided according to the contents spoken by the performers.
また、サムネイルのみではシーンの内容を把握しづらい場合でも、文字情報によってシーンの内容を容易に把握することができる。 Further, even when it is difficult to grasp the contents of a scene only with thumbnails, the contents of the scene can be easily grasped by using character information.
実施の形態2.
図11は、実施の形態2に係るコンテンツ蓄積装置200の構成を概略的に示すブロック図である。コンテンツ蓄積装置200は、チューナ部101と、録画再生制御部202と、字幕解析部103と、データ蓄積部104と、関連ワード取得部205と、チャプター生成部108と、一時記憶部109と、チャプター情報蓄積部110と、リモコン受信部211と、リモコン212と、通信部113とを備える。実施の形態2に係るコンテンツ蓄積装置200は、録画再生制御部202、リモコン受信部211、リモコン212及び関連ワード取得部205において、実施の形態1に係るコンテンツ蓄積装置100と異なっている。
FIG. 11 is a block diagram schematically showing the configuration of the
録画再生制御部202は、フリーワード蓄積部215に蓄積されたフリーワードに関するコンテンツを含む受信信号を、アンテナ130を介してチューナ部101より取得し、この受信信号からAVデータを分離し、データ蓄積部104に蓄積する。例えば、録画再生制御部202は、フリーワード蓄積部215に蓄積されたフリーワードが、タイトル、番組概要及び番組詳細等の少なくとも何れか1つに含まれるコンテンツの受信信号を取得する。
The recording /
リモコン212は、実施の形態1と同様の処理を行う他、ユーザから興味のある事柄をフリーワードとして入力を受け付ける。リモコン212は、入力されたフリーワードを示す無線信号を発信する。
リモコン受信部211は、実施の形態1と同様の処理を行う他、リモコン212から発信された無線信号を受信し、この無線信号から入力されたフリーワードを特定し、特定されたフリーワードをフリーワード管理部214に与える。
The
In addition to performing the same processing as in the first embodiment, remote
関連ワード取得部205は、通信部113及びネットワーク160を介して、関連ワード蓄積部150に接続して、キーワードに関連する関連ワードを取得する。ここで、関連ワード取得部205は、フリーワード管理部214と、フリーワード蓄積部215とを備える。
The related
フリーワード管理部214は、リモコン212を介してユーザが入力したフリーワードをフリーワード蓄積部215に蓄積する。
また、フリーワード管理部214は、フリーワード蓄積部215に蓄積されたフリーワードをキーワードとして抽出する。そして、フリーワード管理部214は、通信部113を介して、ネットワーク160に接続されている関連ワード蓄積部150から、抽出されたキーワードに関連する関連ワードを取得する。フリーワード管理部214は、取得された関連ワードをチャプター生成部108に与える。
フリーワード蓄積部215は、フリーワード管理部214から与えられたフリーワードを記憶する。
The free
Further, the free
The free
図12は、実施の形態2におけるコンテンツの取得からチャプター生成までの流れを示すフローチャートである。 FIG. 12 is a flowchart showing a flow from content acquisition to chapter generation in the second embodiment.
まず、リモコン212は、ユーザから興味のある事柄をフリーワードとして入力を受け付ける(S40)。そして、リモコン212は、入力された内容を示す無線信号を発信する。リモコン受信部211は、リモコン212から発信された無線信号を受信し、受信信号から入力されたフリーワードを特定して、特定された内容をフリーワード管理部214に与える。フリーワード管理部214は、リモコン受信部211を介して取得したフリーワードをフリーワード蓄積部215に蓄積する。
First, the
次に、録画再生制御部202は、フリーワード蓄積部215に蓄積されたフリーワードに関するコンテンツを含む受信信号を、アンテナ130を介してチューナ部101より取得し、この受信信号からAVデータを分離し、データ蓄積部104に蓄積する(S41)。
Next, the recording /
次に、字幕解析部103は、チューナ部101から取得した受信信号に含まれる字幕データを抽出し、データ蓄積部104に蓄積する(S42)。
Next, the
次に、フリーワード管理部214は、ステップS40で入力されたフリーワードをキーワードとして、通信部113を介して、ネットワーク160に接続されている関連ワード蓄積部150から関連ワードを取得する(S43)。
Next, the free
チャプター生成部108は、ステップS43でフリーワード管理部214により取得された関連ワードがデータ蓄積部104に蓄積された字幕データの中に登場するか検索する。そして、登場する場合は、チャプター生成部108は、その字幕部分に相当する表示開始時刻を、図4に示されている字幕管理情報140から取得し、この表示開始時刻をチャプターの区切りとしたチャプター情報を生成して、チャプター情報蓄積部110に蓄積する(S44)。ステップS44での処理については、図7のフローチャートで示されている処理と同様である。
The
ここで、ステップS41〜ステップS44までの処理は、ステップS40において入力されたフリーワードに関するコンテンツが複数あれば、コンテンツの数だけ繰り返される。 Here, the processing from step S41 to step S44 is repeated by the number of contents if there are a plurality of contents related to the free word input in step S40.
また、実施の形態2に係るコンテンツ蓄積装置200は、特定のコンテンツに対して、ユーザが入力したフリーワードをキーワードに設定して、チャプターを生成してもよい。その場合は、あらかじめ蓄積されたコンテンツに対して、図12のステップS41を除外して、図12に示されている処理を実行すればよい。
Also, the
番組情報から複数のキーワードが抽出されたとき、その中からユーザが興味を持つキーワードを選択することは難しい。また、ユーザが興味を持つ事柄が、番組情報に含まれない場合は適切なキーワードを抽出することはできない。実施の形態2では、このような場合においても、ユーザの所望するシーンのチャプターを生成することができる。 When a plurality of keywords are extracted from program information, it is difficult to select a keyword that the user is interested in. In addition, when a matter that the user is interested in is not included in the program information, an appropriate keyword cannot be extracted. In the second embodiment, even in such a case, a chapter of a scene desired by the user can be generated.
以上に記載された実施の形態1及び2に係るコンテンツ蓄積装置100、200は、デジタル放送受信装置として構成されていてもよく、デジタル放送受信録画再生装置として構成されていてもよい。また、実施の形態1及び2に係るコンテンツ蓄積装置100、200は、パーソナルコンピュータ又は携帯端末として構成されていてもよい。
The
100,200:コンテンツ蓄積装置、 101:チューナ部、 102,202:録画再生制御部、 103:字幕解析部、 104:データ蓄積部、 105,205:関連ワード取得部、 106:番組情報管理部、 107:番組情報蓄積部、 108:チャプター生成部、 109:一時記憶部、 110:チャプター情報蓄積部、 111,211:リモコン受信部、 112、212:リモコン、 113:通信部、 214:フリーワード管理部、 215:フリーワード蓄積部。
100, 200: Content storage device 101:
Claims (12)
前記コンテンツに含まれる字幕データを解析して、一画面に表示される字幕毎の表示時間を特定する字幕解析部と、
ネットワークとの間で通信を行う通信部と、
前記通信部を介して、前記ネットワークに接続された関連ワード蓄積部より、キーワードに関連する関連ワードを取得する関連ワード取得部と、
前記関連ワードを含む前記字幕の表示時間で区切られたチャプターを示すチャプター情報を生成するチャプター生成部と、を備えること
を特徴とするコンテンツ蓄積装置。 A data storage unit for storing content;
Analyzing the caption data included in the content, and specifying a display time for each caption displayed on one screen;
A communication unit for communicating with the network;
A related word acquisition unit that acquires a related word related to a keyword from a related word storage unit connected to the network via the communication unit;
And a chapter generation unit that generates chapter information indicating chapters separated by display times of the subtitles including the related words.
前記コンテンツに付随する番組情報を取得する番組情報管理部と、
前記番組情報管理部で取得された番組情報を蓄積する番組情報蓄積部と、を備え、
前記番組情報管理部は、前記番組情報に含まれている特定の情報を前記キーワードとして、前記関連ワードを取得すること
を特徴とする請求項1に記載のコンテンツ蓄積装置。 The related word acquisition unit
A program information management unit for acquiring program information accompanying the content;
A program information storage unit that stores program information acquired by the program information management unit,
The content storage apparatus according to claim 1, wherein the program information management unit acquires the related word using specific information included in the program information as the keyword.
前記番組情報管理部は、前記チューナ部が放送信号を受信してから予め定められた時間が経過した後に、前記関連ワードを取得すること
を特徴とする請求項2に記載のコンテンツ蓄積装置。 A tuner unit for generating a reception signal including the content and the program information from a broadcast signal received via an antenna;
The content storage device according to claim 2, wherein the program information management unit acquires the related word after a predetermined time has elapsed since the tuner unit received a broadcast signal.
前記チャプター情報に基づいて、前記入力部が入力を受け付けた指示で指定されたチャプターに対応するシーンの再生を行う録画再生制御部と、をさらに備えること
を特徴とする請求項1から3の何れか一項に記載のコンテンツ蓄積装置。 An input unit for receiving instructions,
4. A recording / playback control unit that plays back a scene corresponding to a chapter specified by an instruction received by the input unit based on the chapter information. 5. The content storage device according to claim 1.
を特徴とする請求項4に記載のコンテンツ蓄積装置。 The recording / playback control unit generates a chapter selection screen that displays at least a part of the subtitles including the related word, and receives an instruction input from the input unit on the chapter selection screen. 4. The content storage device according to 4.
前記関連ワード取得部は、
前記入力部が入力を受け付けた指示で示されるフリーワードを取得するフリーワード管理部と、
前記フリーワード管理部で取得されたフリーワードを蓄積するフリーワード蓄積部と、を備え、
前記フリーワード管理部は、前記フリーワードをキーワードとして、前記関連ワードを取得すること
を特徴とする請求項1に記載のコンテンツ蓄積装置。 It further includes an input unit that receives input of instructions,
The related word acquisition unit
A free word management unit that acquires a free word indicated by an instruction that the input unit has accepted an input;
A free word storage unit for storing free words acquired by the free word management unit,
The content storage device according to claim 1, wherein the free word management unit acquires the related word using the free word as a keyword.
前記コンテンツに含まれる字幕データを解析して、一画面に表示される字幕毎の表示時間を特定する字幕解析過程と、
ネットワークに接続された関連ワード蓄積部より、キーワードに関連する関連ワードを取得する関連ワード取得過程と、
前記関連ワードを含む前記字幕の表示時間で区切られたチャプターを示すチャプター情報を生成するチャプター生成過程と、を有すること
を特徴とするコンテンツ蓄積方法。 A data storage process for storing content;
Analyzing the subtitle data included in the content and identifying a display time for each subtitle displayed on one screen;
A related word acquisition process for acquiring a related word related to a keyword from a related word storage unit connected to the network;
A chapter generation process for generating chapter information indicating chapters separated by display times of the subtitles including the related words.
前記コンテンツに付随する番組情報を取得する番組情報管理過程と、
前記番組情報管理過程で取得された番組情報を蓄積する番組情報蓄積過程と、
前記番組情報蓄積過程で蓄積された番組情報に含まれている特定の情報を前記キーワードとして、前記関連ワードを取得する取得過程と、を有すること
を特徴とする請求項7に記載のコンテンツ蓄積方法。 The related word acquisition process includes:
A program information management process for acquiring program information associated with the content;
A program information storage process for storing program information acquired in the program information management process;
The content storage method according to claim 7, further comprising: an acquisition step of acquiring the related word using the specific information included in the program information stored in the program information storage step as the keyword. .
前記取得過程は、前記受信過程で放送信号が受信されてから予め定められた時間が経過した後に、前記関連ワードを取得すること
を特徴とする請求項8に記載のコンテンツ蓄積方法。 A reception process for generating a reception signal including the content and the program information from a broadcast signal received via an antenna;
The content accumulating method according to claim 8, wherein the obtaining step obtains the related word after a predetermined time has elapsed since the broadcast signal was received in the receiving step.
前記チャプター情報に基づいて、前記入力過程で入力を受け付けた指示で指定されたチャプターに対応するシーンの再生を行う録画再生制御過程と、をさらに有すること
を特徴とする請求項7から9の何れか一項に記載のコンテンツ蓄積方法。 An input process for receiving instructions,
The recording / playback control step of playing back a scene corresponding to the chapter specified by the instruction received in the input step based on the chapter information. The content storage method according to claim 1.
を特徴とする請求項10に記載のコンテンツ蓄積方法。 The recording / playback control process generates a chapter selection screen that displays at least a part of the subtitles including the related word, and receives an instruction input in the input process on the chapter selection screen. 10. The content storage method according to 10.
前記関連ワード取得過程は、
前記入力過程で入力を受け付けた指示で示されるフリーワードを取得するフリーワード管理過程と、
前記フリーワード管理過程で取得されたフリーワードを蓄積するフリーワード蓄積過程と、
前記フリーワード蓄積過程で蓄積されたフリーワードをキーワードとして、前記関連ワードを取得する取得過程と、を有すること
を特徴とする請求項7に記載のコンテンツ蓄積方法。 An input process for receiving an instruction input;
The related word acquisition process includes:
A free word management process for obtaining a free word indicated by an instruction that has received an input in the input process;
A free word storage process for storing free words acquired in the free word management process;
The content storage method according to claim 7, further comprising: an acquisition process of acquiring the related word using the free word stored in the free word storage process as a keyword.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012036129A JP5840026B2 (en) | 2012-02-22 | 2012-02-22 | Content storage apparatus and content storage method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012036129A JP5840026B2 (en) | 2012-02-22 | 2012-02-22 | Content storage apparatus and content storage method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013172381A true JP2013172381A (en) | 2013-09-02 |
JP5840026B2 JP5840026B2 (en) | 2016-01-06 |
Family
ID=49266038
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012036129A Expired - Fee Related JP5840026B2 (en) | 2012-02-22 | 2012-02-22 | Content storage apparatus and content storage method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5840026B2 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005303741A (en) * | 2004-04-13 | 2005-10-27 | Daikin Ind Ltd | Information processing apparatus and information processing method, program, and information processing system |
JP2006129122A (en) * | 2004-10-29 | 2006-05-18 | Sharp Corp | Broadcast receiver, broadcast receiving method, broadcast reception program and program recording medium |
JP2006332765A (en) * | 2005-05-23 | 2006-12-07 | Sharp Corp | Contents searching/reproducing method, contents searching/reproducing apparatus, and program and recording medium |
JP2011209873A (en) * | 2010-03-29 | 2011-10-20 | Sony Corp | Information processing device, content displaying method, and computer program |
-
2012
- 2012-02-22 JP JP2012036129A patent/JP5840026B2/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005303741A (en) * | 2004-04-13 | 2005-10-27 | Daikin Ind Ltd | Information processing apparatus and information processing method, program, and information processing system |
JP2006129122A (en) * | 2004-10-29 | 2006-05-18 | Sharp Corp | Broadcast receiver, broadcast receiving method, broadcast reception program and program recording medium |
JP2006332765A (en) * | 2005-05-23 | 2006-12-07 | Sharp Corp | Contents searching/reproducing method, contents searching/reproducing apparatus, and program and recording medium |
JP2011209873A (en) * | 2010-03-29 | 2011-10-20 | Sony Corp | Information processing device, content displaying method, and computer program |
Also Published As
Publication number | Publication date |
---|---|
JP5840026B2 (en) | 2016-01-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CA2924065C (en) | Content based video content segmentation | |
JP4905103B2 (en) | Movie playback device | |
JP5135024B2 (en) | Apparatus, method, and program for notifying content scene appearance | |
JP4388128B1 (en) | Information providing server, information providing method, and information providing system | |
JP5106455B2 (en) | Content recommendation device and content recommendation method | |
JP2007124465A (en) | Data processing device, system, and method | |
JP2009118168A (en) | Program recording/reproducing apparatus and program recording/reproducing method | |
JP4476786B2 (en) | Search device | |
JP2009048348A (en) | Information processing apparatus, method for searching through candidate for character information, and program for searching through candidate for character information | |
JP2008227909A (en) | Video retrieval apparatus | |
JP5148325B2 (en) | Content processing apparatus, content processing method, content reproduction apparatus, program, and recording medium | |
JP6150780B2 (en) | Information processing apparatus, information processing method, and program | |
JP5209129B1 (en) | Information processing apparatus, broadcast receiving apparatus, and information processing method | |
JP4331706B2 (en) | Editing apparatus and editing method | |
WO2014103374A1 (en) | Information management device, server and control method | |
JP5343658B2 (en) | Recording / playback apparatus and content search program | |
JP6028505B2 (en) | Recording / playback apparatus and program search method | |
JP6029530B2 (en) | Information processing apparatus and information processing method | |
JP5703321B2 (en) | Information processing apparatus and information processing method | |
JP5840026B2 (en) | Content storage apparatus and content storage method | |
JP2012203773A (en) | Moving image recommendation device and moving image recommendation method | |
WO2009107708A1 (en) | Contents reproduction device, contents reproduction system, method for reproducing contents, contents reproduction program and recording medium | |
JP2011239085A (en) | Recording and reproducing device and method | |
JP2010062758A (en) | Electronic apparatus, information processing method, and program | |
JP6710926B2 (en) | Recording/reproducing apparatus, server, and database creation method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20141208 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150625 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150630 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150731 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20151013 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20151110 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5840026 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |