JP2008301426A - Featured value generating device, summary video detecting device, and program - Google Patents
Featured value generating device, summary video detecting device, and program Download PDFInfo
- Publication number
- JP2008301426A JP2008301426A JP2007148389A JP2007148389A JP2008301426A JP 2008301426 A JP2008301426 A JP 2008301426A JP 2007148389 A JP2007148389 A JP 2007148389A JP 2007148389 A JP2007148389 A JP 2007148389A JP 2008301426 A JP2008301426 A JP 2008301426A
- Authority
- JP
- Japan
- Prior art keywords
- video
- feature
- section
- program
- feature vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 claims abstract description 47
- 230000005236 sound signal Effects 0.000 claims abstract description 12
- 238000000605 extraction Methods 0.000 claims description 45
- 238000004364 calculation method Methods 0.000 claims description 31
- 238000004519 manufacturing process Methods 0.000 claims description 6
- 239000013598 vector Substances 0.000 abstract description 169
- 239000000284 extract Substances 0.000 abstract description 8
- 238000000034 method Methods 0.000 description 19
- 238000010586 diagram Methods 0.000 description 9
- 230000010354 integration Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 238000000926 separation method Methods 0.000 description 4
- 238000009825 accumulation Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000013138 pruning Methods 0.000 description 1
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Television Signal Processing For Recording (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
Description
本発明は、特徴量生成装置、要約映像検出装置、及びプログラムに関する。 The present invention relates to a feature quantity generation device, a summary video detection device, and a program.
近年、テレビ放映された映像を、番組ごとの番組映像として蓄積し、いつでも誰でも見られるようにするサービスが人気を集めている。このようなサービスでは、蓄積される番組映像の量が膨大なものになってしまうため、ユーザが効率的に見たい番組映像を選択できるよう、番組映像ごとに、その要約映像を用意しておくことが望まれている。 In recent years, services that accumulate television broadcast video as program video for each program so that anyone can view it at any time are gaining popularity. In such a service, the amount of the program video to be accumulated becomes enormous, so a summary video is prepared for each program video so that the user can select the program video that he / she wants to see efficiently. It is hoped that.
番組映像の蓄積時に新たに要約映像を作成することも考えられるが、多くの番組では、実は放送前にスポット映像や告知映像を作成していることが多く、これらを用いれば、効率的に要約映像を取得できる。 Although it is conceivable to create a new summary video when the program video is stored, many programs actually create a spot video or a notification video before broadcasting. Video can be acquired.
ところが、蓄積段階で上記要約映像が番組ごとに用意されていることは少なく、通常は、テレビ放映された映像の中から要約映像を見つけ出さなければならない。そこで、テレビ放映された映像(以下、蓄積映像という。)から、要約映像として相応しい部分(以下、要約部分という。)を検出する技術が望まれている。 However, the summary video is rarely prepared for each program at the accumulation stage, and it is usually necessary to find the summary video from the video broadcast on television. Therefore, there is a demand for a technique for detecting a portion suitable for a summary video (hereinafter referred to as a summary portion) from a television broadcast video (hereinafter referred to as a stored video).
この点、非特許文献1及び2には、このような技術として用いることのできる技術が開示されている。
非特許文献1に開示される技術によれば、蓄積映像の区間ごとに色ヒストグラムに基づく特徴ベクトルを求めておくとともに、番組映像についても同様の特徴ベクトルを求め、特徴ベクトルの類似性によって、要約部分を検出することができる。
In this regard,
According to the technique disclosed in Non-Patent
また、非特許文献2に開示される技術によれば、蓄積映像の区間ごとにカメラのフラッシュの発光パターンを求めておくとともに、番組映像についても同様の発光パターンを求め、発光パターンの類似性によって、要約部分を検出することができる。
しかしながら、上記非特許文献1に開示される技術には、色の類似性のみに基づいて要約部分を見つけることになることから、検出精度があまり上がらないという問題がある。また、上記非特許文献2に開示される技術は、カメラのフラッシュがたかれている映像(ニュースに差し込まれる現場映像など)にしか適用し得ないという問題がある。
However, the technique disclosed in Non-Patent
従って、本発明の課題の一つは、幅広い映像に適用可能な、検出精度の高い要約映像検出を実現するための特徴量生成装置、要約映像検出装置、及びプログラムを提供することにある。 Accordingly, one of the objects of the present invention is to provide a feature amount generation device, a summary video detection device, and a program for realizing summary video detection with high detection accuracy applicable to a wide range of videos.
上記課題を解決するための本発明にかかる特徴量生成装置は、映像に対応する文字データ又は音声信号のうちの少なくとも一方から、1又は複数の索引語を抽出する抽出手段と、前記索引語ごとの前記映像内での出現数に基づいて前記映像に関する特徴量を生成する特徴量生成手段と、を含むことを特徴とする。
上記特徴量は映像の意味内容を反映しているので、上記特徴量を用いて行われる要約画像検出は、幅広い映像に適用可能な、検出精度の高いものとなる。なお、前記文字データは、前記映像に含まれるクローズドキャプションや、電子番組ガイド内の前記映像にかかる部分の文字データを含む、こととしてもよい。こうすれば、クローズドキャプションや電子番組ガイドから文字データを取得することができる。
In order to solve the above problems, a feature value generating apparatus according to the present invention includes an extraction unit that extracts one or a plurality of index words from at least one of character data or audio signals corresponding to a video, and each index word And a feature quantity generating means for generating a feature quantity related to the video based on the number of appearances in the video.
Since the feature quantity reflects the semantic content of the video, the summary image detection performed using the feature quantity is applicable to a wide range of videos and has high detection accuracy. The character data may include closed captions included in the video and character data of a portion related to the video in the electronic program guide. In this way, character data can be acquired from a closed caption or an electronic program guide.
また、上記各特徴量生成装置において、前記特徴量生成手段は、蓄積映像内での出現数に基づいて決定される前記索引語ごとの希少性にさらに基づいて、前記映像に関する特徴量を生成する、こととしてもよい。
これによれば、特徴量による要約映像検出の精度を、さらに高めることができる。
Further, in each of the feature value generation devices, the feature value generation means generates a feature value related to the video based on the rarity of each index word determined based on the number of appearances in the stored video. It's good.
According to this, the accuracy of the summary video detection based on the feature amount can be further increased.
また、本発明の一側面にかかる特徴量生成装置は、映像の区間ごとに、区間映像に対応する文字データ又は音声信号のうちの少なくとも一方から、1又は複数の索引語を抽出する抽出手段と、前記索引語ごとの前記区間映像内での出現数に基づいて該区間映像に関する特徴量を生成する区間映像特徴量生成手段と、前記区間映像特徴量生成手段によって生成される各区間映像に関する特徴量に基づき、隣り合った複数の区間映像からなる連続区間映像に関する特徴量を生成する連続区間映像特徴量生成手段と、を含むことを特徴とする。
これによれば、映像の区間ごとに、特徴量を作成することができるとともに、特徴量算出の処理負荷を軽減することが可能になる。
In addition, the feature value generation device according to one aspect of the present invention includes an extraction unit that extracts one or a plurality of index words from at least one of character data or audio signals corresponding to a section video for each section of the video. , A section video feature generating unit that generates a feature amount related to the section video based on the number of appearances in the section video for each index word, and a feature related to each section video generated by the section video feature generating unit And a continuous segment video feature quantity generating unit that generates a feature quantity related to a continuous segment video composed of a plurality of adjacent segment videos based on the quantity.
According to this, it is possible to create a feature amount for each section of the video, and to reduce the processing load of feature amount calculation.
また、本発明にかかる要約映像検出装置は、蓄積映像の各区間それぞれについて、請求項1に記載された特徴量生成装置により生成された特徴量を取得する蓄積映像特徴量取得手段と、番組映像について、請求項1に記載された特徴量生成装置により生成された特徴量を取得する番組映像特徴量取得手段と、前記蓄積映像の前記区間ごとに、該区間に関する特徴量と、前記番組映像に関する特徴量と、の類似度を算出する類似度算出手段と、前記類似度算出手段の算出結果に基づいて、前記蓄積映像の前記各区間の中から前記番組映像の要約映像を検出する要約映像検出手段と、を含むことを特徴とする。
これによれば、幅広い映像に適用可能な、検出精度の高い要約映像検出が実現される。
A summary video detection apparatus according to the present invention includes a stored video feature quantity acquisition unit that acquires a feature quantity generated by the feature quantity generation apparatus according to
According to this, summary video detection with high detection accuracy applicable to a wide range of videos is realized.
また、本発明の一側面にかかる要約映像検出装置は、蓄積映像の各区間及び隣り合った複数の区間からなる連続区間それぞれについて、請求項3に記載された特徴量生成装置により生成された特徴量を取得する蓄積映像特徴量取得手段と、番組映像について、請求項1に記載された特徴量生成装置により生成された特徴量を取得する番組映像特徴量取得手段と、前記蓄積映像の前記区間及び前記連続区間ごとに、該区間又は該連続区間に関する特徴量と、前記番組映像に関する特徴量と、の類似度を算出する類似度算出手段と、前記類似度算出手段の算出結果に基づいて、前記蓄積映像の前記各区間及び前記各連続区間の中から前記番組映像の要約映像を検出する要約映像検出手段と、を含むことを特徴とする。
このようにしても、幅広い映像に適用可能な、検出精度の高い要約映像検出が実現される。また、様々な長さの映像区間を要約映像候補として取り扱うことが可能になる。
According to another aspect of the present invention, there is provided a summary video detection apparatus that generates features generated by the feature value generation device according to
In this way, summary video detection with high detection accuracy applicable to a wide range of videos is realized. In addition, video sections of various lengths can be handled as summary video candidates.
また、本発明にかかるプログラムは、映像に対応する文字データ又は音声信号のうちの少なくとも一方から、1又は複数の索引語を抽出する抽出手段、及び前記索引語ごとの前記映像内での出現数に基づいて前記映像に関する特徴量を生成する特徴量生成手段、としてコンピュータを機能させるためのプログラムである。 In addition, the program according to the present invention includes an extracting unit that extracts one or a plurality of index words from at least one of character data or audio signals corresponding to a video, and the number of appearances in the video for each index word. Is a program for causing a computer to function as a feature amount generating means for generating a feature amount related to the video based on the image.
以下、本発明の実施の形態について、図面を参照しながら説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
図1は、本実施の形態にかかる要約映像検出システム1のシステム構成を示す図である。同図に示すように、要約映像検出システム1は、映像データベース2、特徴ベクトル生成装置3、特徴ベクトルデータベース4、要約映像検出装置5を含んで構成される。
FIG. 1 is a diagram showing a system configuration of a summary
図1は、各装置の機能ブロックも示している。同図に示すように、映像データベース2は機能的に蓄積映像記憶部20を含んで構成されており、蓄積映像記憶部20は番組映像記憶部21を含んで構成される。また、特徴ベクトル生成装置3は機能的に、番組映像特徴ベクトル生成部30、希少性情報算出部31、蓄積映像特徴ベクトル生成部32を含んで構成される。また、特徴ベクトルデータベース4は機能的に、番組映像特徴ベクトル記憶部40及び蓄積映像特徴ベクトル記憶部41を含んで構成される。また、要約映像検出装置5は機能的に、番組指定受付部50、番組映像特徴ベクトル取得部51、類似度算出部52、蓄積映像特徴ベクトル取得部53、類似度記憶部54、要約映像検出部55を含んで構成される。以下、これら各部について詳細に説明する。
FIG. 1 also shows functional blocks of each device. As shown in the figure, the
まず、映像データベース2について説明する。蓄積映像記憶部20は、過去にテレビ放送された映像(番組として編集・放送された映像である番組映像の他、スポット映像や告知映像等も含む。以下、蓄積映像という。)を、所定の映像形式(例えばMPEG等。)により記憶している。なお、蓄積映像記憶部20は、映像に対応する文字データ(クローズドキャプション(CC)や、番組ごとの電子番組ガイド(EPG)など)や音声信号も、映像に同期させて記憶する。
First, the
次に、特徴ベクトル生成装置3及び特徴ベクトルデータベース4について説明する。以下、まず番組映像に関する特徴ベクトルの生成について説明する。番組映像特徴ベクトル生成部30は、蓄積映像記憶部20に記憶される各番組映像について、それぞれに関する特徴ベクトルを生成する。以下、具体的に説明する。
Next, the feature
図2は、番組映像特徴ベクトル生成部30の内部構成を示す図である。同図に示すように、番組映像特徴ベクトル生成部30は抽出部300及び特徴ベクトル生成部301を含んで構成される。
FIG. 2 is a diagram illustrating an internal configuration of the program video feature
抽出部300は、番組映像に付加された文字データ又は音声信号のうちの少なくとも一方から、1又は複数の索引語を抽出する(抽出手段)。
抽出部300の処理について、その内部構成を示す図面を参照しながら説明する。図3は、抽出部300の内部構成を示す図である。同図に示すように、抽出部300は、ストリーム分離部3000、索引語抽出部3002、音声認識部3003、索引語抽出部3004、統合部3005を含んで構成される。
The
The processing of the
ストリーム分離部3000は、蓄積映像記憶部20に記憶される映像から、付加されている文字データ(クローズドキャプションや電子番組ガイド情報)及び音声信号を分離する。そして、文字データを索引語抽出部3002に、音声信号を音声認識部3003に、それぞれ出力する。
The
音声認識部3003は、ストリーム分離部3000から入力された音声信号に所定の音声認識処理を施すことにより、該音声信号を文字データに変換する。音声認識部3003は、取得した文字データを索引語抽出部3004に出力する
The
索引語抽出部3002及び索引語抽出部3004は、それぞれストリーム分離部3000及び音声認識部3003から入力される各文字データを解析することにより、各文字データから索引語を抽出する。なお、文字データの解析には形態素解析を用いることが好適であり、その場合、索引語には形態素と品詞の組み合わせを用いる。すなわち、形態素が同じでも、品詞が異なれば異なる索引語となる。また、索引語抽出部3002及び索引語抽出部3004は、文字データを構成する索引語の全てを抽出することとしてもよいし、例えば名詞のみを抽出することとしてもよい。
The index
統合部3005は、索引語抽出部3002及び索引語抽出部3004の各抽出結果を統合し、1つの抽出結果を出力する。具体的には、索引語抽出部3002及び索引語抽出部3004の一方が抽出結果を得られなかった場合(番組映像に対応する文字データ又は音声信号がない場合等)には、他方により得られた抽出結果を出力する。また、索引語抽出部3002及び索引語抽出部3004の両方が抽出結果を得た場合、信頼性の高い(音声認識処理を経ていない)索引語抽出部3002の抽出結果を出力する。ただし、クローズドキャプションにおいては、画面上に文字スーパーとして表示された情報は省略されることがある。クローズドキャプションにおいて上記省略がある場合、クローズドキャプション内にはその省略箇所を表す記号が含まれている。統合部3005は、この記号を検出することにより、省略部分を検出する。そして、検出した省略部分を索引語抽出部3004の抽出結果により置換する。
The
図2に戻り、特徴ベクトル生成部301は、統合部3005が出力する抽出結果を用い、索引語ごとの番組映像内での出現数を取得する。そして、取得した索引語ごとの出現数に基づいて該番組映像に関する特徴ベクトルを生成する(特徴量生成手段)。このとき、特徴ベクトル生成部301は、蓄積映像内での出現数に基づいて決定される索引語ごとの希少性にも基づいて、特徴ベクトルの生成を行う。
Returning to FIG. 2, the feature
具体的には、特徴ベクトル生成部301は、以下の式(1)により、特徴ベクトルの索引語ごとの要素である特徴量を生成する。ここで、tf(tk,Pi)は番組Piにおける索引語tkの出現数であり、S(tk)は、索引語tkの希少性を表す希少性情報である(後述)。また、vk Piは番組Piの索引語tkについての特徴量である。
Specifically, the feature
特徴ベクトル生成部301は、統合部3005が出力する抽出結果に含まれる全ての索引語について、式(1)の計算を行う。そして、その結果を用い、式(2)により、各索引語tkについての特徴量により構成されるベクトルである特徴ベクトルVPiを生成する。ここで、値Dは、後述する番組映像特徴ベクトル記憶部40に記憶される索引語の数である。統合部3005が出力する抽出結果に含まれていなかった索引語については、特徴ベクトル生成部301は、特徴ベクトルVPiを生成するにあたり、vk Piにゼロを代入しておく。
The feature
特徴ベクトル生成部301は、上記特徴ベクトルVPiを、番組映像特徴ベクトル記憶部40に記憶させる。
図4は、番組映像特徴ベクトル記憶部40の記憶内容の具体例を示す図である。同図に示すように、番組映像特徴ベクトル記憶部40は、索引語ごとに、テレビ番組ごとの出現数及び上記特徴量を記憶している。なお、番組映像特徴ベクトル記憶部40に記憶される索引語は、過去に蓄積映像(番組映像を含む。)から抽出された索引語全てである。
The feature
FIG. 4 is a diagram showing a specific example of the contents stored in the program video feature
特徴ベクトル生成部301は、上記特徴ベクトルVPiを番組映像特徴ベクトル記憶部40に記憶させる際、既に記憶されている索引語については、その索引語の行に、取得した出現数tf(tk,Pi)及び算出した特徴量vk Piを記憶させる。一方、まだ記憶されていない索引語については、その索引語の行を追加し、追加した行に、取得した出現数tf(tk,Pi)及び算出した特徴量vk Piを記憶させる。その他の行については、出現数及び特徴量ともにゼロを記憶させる。
When the feature
ここで、上記希少性情報S(tk)について説明する。希少性情報算出部31は、番組映像特徴ベクトル記憶部40の記憶内容に基づいて、索引語tkごとの希少性情報S(tk)を算出する。具体的には、式(3)又は式(4)を用いて、希少性情報S(tk)を算出する。なお、pf(tk)は索引語tkの出現数が1以上である番組映像の数であり、希少性情報算出部31は、番組映像特徴ベクトル記憶部40の記憶内容に基づいてpf(tk)を算出する。また、Nは過去の番組映像の総数である。
Here, the rarity information S (t k ) will be described. The rarity
式(3)はIDF(Inverse Document Frequency)値であり、式(4)はエントロピーに基づく値である。これらの各式を用いることにより、ある特定の番組映像のみに出現するような索引語の希少性情報S(tk)の値は、そうでない索引語(様々な番組映像に出現する索引語)の希少性情報S(tk)の値に比べて高くなる。 Expression (3) is an IDF (Inverse Document Frequency) value, and Expression (4) is a value based on entropy. By using each of these formulas, the value of the scarcity information S (t k ) of an index word that appears only in a specific program video is an index word that does not (index word that appears in various program videos). Becomes higher than the value of the scarcity information S (t k ).
さて、次に、蓄積映像(番組映像を含む。)に関する特徴ベクトルの生成について説明する。蓄積映像特徴ベクトル生成部32は、蓄積映像記憶部20に記憶される蓄積映像について、特徴ベクトルを生成する。以下、具体的に説明する。
Next, generation of feature vectors relating to stored video (including program video) will be described. The stored video feature
図5は、蓄積映像特徴ベクトル生成部32の内部構成を示す図である。同図に示すように、蓄積映像特徴ベクトル生成部32は抽出部302及び特徴ベクトル生成部303を含んで構成される。
FIG. 5 is a diagram illustrating an internal configuration of the stored video feature
抽出部302の処理は、番組映像特徴ベクトル生成部30に含まれる抽出部300の処理とほぼ同様であるが、蓄積映像の区間ごとに、区間映像に付加された文字データ又は音声信号のうちの少なくとも一方から、1又は複数の索引語を抽出するという点で、抽出部300と異なっている。この区間は、予め定められた時間長の区間であることが好適であるが、特に、コマーシャル映像やスポット映像の時間長の最大公約数の区間とすることが好適である。
The processing of the
特徴ベクトル生成部303は、区間映像特徴ベクトル生成部3030及び連続区間映像特徴ベクトル生成部3031を含んで構成される。
区間映像特徴ベクトル生成部3030は、抽出部302が出力する抽出結果を用い、索引語ごとの区間映像内での出現数を取得する。そして、取得した索引語ごとの出現数に基づいて区間映像に関する特徴ベクトルを生成する(区間映像特徴量生成手段)。具体的な特徴ベクトルの生成方法は、特徴ベクトル生成部301とほぼ同様である。
The feature
The section video feature
ただし、特徴ベクトル生成部301は番組映像ごとに特徴ベクトルを生成するが、区間映像特徴ベクトル生成部3030は区間映像ごとに特徴ベクトルを生成するという違いがある。このため、特徴ベクトルを表す記号としては異なるものを使用するのが好適であり、以下に定義しておく。まず、時刻Txに始まり時刻Tyで終わる区間映像を、Tx〜Tyと表す。その結果、式(1)は、次の式(5)のように書き直される。ここで、vk Tx〜Tyは区間番組Tx〜Tyの索引語tkについての特徴量である。
However, the feature
連続区間映像特徴ベクトル生成部3031は、区間映像特徴ベクトル生成部3030によって生成される各区間映像に関する特徴ベクトルに基づき、隣り合った複数の区間映像からなる連続区間映像に関する特徴ベクトルを生成する(連続区間映像特徴ベクトル生成手段)。具体的には、連続区間映像特徴ベクトル生成部3031は、隣り合った複数の区間映像からなる連続区間映像に関する特徴ベクトルを、要素ごとに足し算することにより、連続区間映像に関する特徴ベクトルを生成する。
The continuous segment video feature
図6は、連続区間映像に関する特徴ベクトルの例を示す図である。同図の例では、まず、区間映像ごとの特徴ベクトルVT1〜T2、VT2〜T3、VT3〜T4、VT4〜T5がそれぞれ生成される。次に、隣接する2区間ずつの特徴ベクトルVT1〜T3=VT1〜T2+VT2〜T3、VT3〜T5=VT3〜T4+VT4〜T5が生成される。さらに、隣接する4区間ずつの特徴ベクトルVT1〜T5=VT1〜T3+VT3〜T5も生成される。このような生成が、以降も繰り返される。この例では、結果として、特徴ベクトルが階層的に生成されており、同一階層内での重複はない。 FIG. 6 is a diagram illustrating an example of a feature vector related to a continuous section video. In the example shown in the figure, first, feature vectors V T1 to T2 , V T2 to T3 , V T3 to T4 , and V T4 to T5 are generated for each section video. Next, feature vectors V T1 to T3 = V T1 to T2 + V T2 to T3 and V T3 to T5 = V T3 to T4 + V T4 to T5 are generated every two adjacent sections. Further, feature vectors V T1 to T5 = V T1 to T3 + V T3 to T5 are also generated for every four adjacent sections. Such generation is repeated thereafter. In this example, as a result, the feature vectors are generated hierarchically, and there is no overlap in the same hierarchy.
図7は、連続区間映像に関する特徴ベクトルの他の例を示す図である。同図の例は、図6の例において、同一階層内での重複を認める場合の例である。すなわち、この例では、隣接する2区間ずつの特徴ベクトルを生成する際、特徴ベクトルVT1〜T3=VT1〜T2+VT2〜T3、VT3〜T5=VT3〜T4+VT4〜T5の他、VT2〜T4=VT2〜T3+VT3〜T4も生成される。VT2〜T4とVT1〜T3、VT2〜T4とVT3〜T5は、それぞれ重複区間を有している。さらに上位の階層についても、同様に重複を認めて特徴ベクトルが生成される。 FIG. 7 is a diagram illustrating another example of the feature vector related to the continuous section video. The example of the figure is an example in the case where duplication within the same hierarchy is recognized in the example of FIG. That is, in this example, when generating feature vectors for every two adjacent sections, feature vectors V T1 to T3 = V T1 to T2 + V T2 to T3 , V T3 to T5 = V T3 to T4 + V T4 to T5 , V T2 to T4 = V T2 to T3 + V T3 to T4 are also generated. V T2 to T4 and V T1 to T3 , V T2 to T4 and V T3 to T5 have overlapping sections, respectively. In addition, for the upper layers, feature vectors are generated in a similar manner with recognition of duplication.
なお、このように階層的に特徴ベクトルを算出する場合の階層の深さは、最下位階層の区間長に基づいて決まる最上位階層の区間長が、要約映像として検出したい映像の時間長になるように決定される。図6に示した例を取り上げて具体的な例を挙げると、最下位階層の区間長が10秒程度であり、要約映像として検出したい映像の時間長が数分程度であれば、5〜6階層となる。 Note that the hierarchical depth in the case of calculating feature vectors hierarchically in this way is the time length of the video to be detected as the summary video, with the section length of the highest hierarchy determined based on the section length of the lowest hierarchy. To be determined. Taking the example shown in FIG. 6 as a specific example, if the section length of the lowest layer is about 10 seconds and the time length of the video to be detected as the summary video is about several minutes, 5-6 It becomes a hierarchy.
区間映像特徴ベクトル生成部3030及び連続区間映像特徴ベクトル生成部3031は、以上のようにして生成した特徴ベクトルを、蓄積映像特徴ベクトル記憶部41に記憶させる。
The section video feature
図8は、蓄積映像特徴ベクトル記憶部41の記憶内容の具体例を示す図である。同図に示すように、蓄積映像特徴ベクトル記憶部41は、索引語ごとに、区間ごとの上記特徴量を記憶している。なお、蓄積映像特徴ベクトル記憶部41に記憶される索引語は、過去に蓄積映像(番組映像を含む。)から抽出された索引語全てである。
FIG. 8 is a diagram illustrating a specific example of the stored contents of the accumulated video feature
区間映像特徴ベクトル生成部3030及び連続区間映像特徴ベクトル生成部3031は、生成した特徴ベクトルを蓄積映像特徴ベクトル記憶部41に記憶させる際、既に記憶されている索引語については、その索引語の行に、算出した特徴量vk Tx〜Tyを記憶させる。一方、まだ記憶されていない索引語については、その索引語の行を追加し、追加した行に、特徴量vk Tx〜Tyを記憶させる。その他の行の特徴量についてはゼロを記憶させる。
When the section video feature
次に、図1に戻って要約映像検出装置5について説明する。まず、要約映像検出装置5はディスプレイなどの表示手段及びキーボード・マウスなどの入力手段を備えており、番組指定受付部50は、これらを用いて、番組映像特徴ベクトル記憶部40に記憶される各番組映像のうちの1つのユーザによる指定を受け付ける。
Next, referring back to FIG. 1, the summary
番組映像特徴ベクトル取得部51は、ユーザにより指定された番組映像について、特徴ベクトル生成装置3により生成され、番組映像特徴ベクトル記憶部40に記憶された特徴ベクトルを取得する(番組映像特徴ベクトル取得手段)。そして、取得した特徴ベクトルを類似度算出部52に出力する。
The program video feature
番組映像特徴ベクトル取得部51から特徴ベクトルの入力を受けた類似度算出部52は、蓄積映像特徴ベクトル取得部53(蓄積映像特徴ベクトル取得手段)を用い、蓄積映像の各区間それぞれについて、特徴ベクトル生成装置3により生成され、蓄積映像特徴ベクトル記憶部41に記憶された特徴ベクトルを取得する。このとき取得対象とする区間は、番組映像のスポット映像や告知映像が番組放送の数週間前から放送され始めることに鑑み、指定された番組映像が放送された日前数週間程度の区間とすることが好ましい。
The
類似度算出部52は、蓄積映像特徴ベクトル取得部53により取得される各特徴ベクトルを用い、蓄積映像の区間(連続区間を含む。)ごとに、該区間に関する特徴ベクトルと、番組映像に関する特徴ベクトルと、の類似度を算出する(類似度算出手段)。
The
類似度算出部52は、類似度の算出を式(7)に基づいて行うことが好適である。ここで、sim(VPi,VTx〜Ty)は、番組映像Piに関する特徴ベクトルVpiと区間映像Tx〜Tyに関する特徴ベクトルVTx〜Tyの類似度である。また、I(tk)は、番組映像Pi内における索引語tkの重要度を表す重み係数である。例えば、電子番組ガイド内に、番組映像Piのタイトル、副題、出演者として現れている索引語ほど、I(tk)を大きな値とする。また、番組映像Pi内での出現数が高く、かつ上記希少性が高い索引語ほど、I(tk)を大きな値とする。なお、I(tk)の値を決定するためのこれらの条件は適宜決定されるものであるが、過去のデータからの機械学習により適切な条件を決定することとしてもよい。
The
式(7)によれば、重み係数I(tk)によって重み付けられた特徴ベクトル同士がなす角の余弦値によって類似度を表していることになるので、特徴ベクトルの絶対値は類似度に影響しない。映像が長いほど特徴ベクトルの絶対値は大きくなるが、式(7)を用いることにより、映像の長さに影響されない類似度を算出することが可能となっている。
類似度算出部52は、算出した区間映像ごとの類似度を類似度記憶部54に記憶させる。
According to Equation (7), the similarity is represented by the cosine value of the angle formed by the feature vectors weighted by the weighting coefficient I (t k ), so the absolute value of the feature vector affects the similarity. do not do. The longer the video is, the larger the absolute value of the feature vector is. However, by using Equation (7), it is possible to calculate a similarity that is not affected by the length of the video.
The
ここで、蓄積映像特徴ベクトル取得部53による特徴ベクトル取得の順序について説明する。第1の方法では、蓄積映像特徴ベクトル取得部53は、まず始点を決め、その始点から順次区間長を長くして、区間映像に関する特徴ベクトルを取得していく。そして、区間長が所定の最大長に達した場合、始点に該最大長を加算して新たな始点を取得する。以降の処理は同様である。
Here, the order of feature vector acquisition by the stored video feature
また、第2の方法では、蓄積映像特徴ベクトル取得部53は、まず始点を決め、その始点から所定区間長の区間映像に関する特徴ベクトルを取得する。次に、始点に所定時間長(所定時間長>所定区間長)を加算して新たな始点を取得する。以降の処理は同様である。
In the second method, the accumulated video feature
なお、この第2の方法を採用する場合、蓄積映像特徴ベクトル取得部53が特徴ベクトルを取得する都度、類似度算出部52による類似度算出を行うことが好ましい。そして、ある始点から所定区間長の類似度が所定値以下である場合(ほとんど場合或いは全く類似していない場合)、又は、該類似度が所定値以上である場合(極めてよく類似している場合)、始点に加算する値を、上記所定時間長ではなく上記所定区間長とすることが好ましい。
When the second method is employed, it is preferable that the
図9は、上記第2の方法を採用する場合において、蓄積映像特徴ベクトル取得部53により取得される特徴ベクトルの例を示す図である。同図の例では、所定時間長が1区間分で、所定区間長が4区間分となっている。同図においては、特徴ベクトルVT3〜T7の類似度が所定値以下であった場合であり、この場合、蓄積映像特徴ベクトル取得部53は、VT4〜T8、VT5〜T9、VT6〜T10、及びVT7〜T11の取得をスキップし、VT3〜T7の次にVT8〜T12を取得している。こうすることで、類似度算出にかかる時間を削減し、処理を高速化することができる。
FIG. 9 is a diagram illustrating an example of feature vectors acquired by the accumulated video feature
さて、要約映像検出部55は、類似度記憶部54に記憶される類似度算出部52の算出結果に基づいて、蓄積映像の各区間及び各連続区間の中から、番組映像の要約映像を検出する(要約映像検出手段)。具体的には、類似度の最も高い区間映像を要約映像として検出してもよいし、類似度の高い順にいくつかの区間映像を要約映像として検出してもよい。
The summary
要約映像検出部55は、要約映像検出装置5の表示手段を用い、ユーザに対し、検出した要約映像を提示する。複数の区間映像を提示する場合には、類似度の順に表示することが好ましい。
The summary
最後に、以上説明した要約映像検出装置5の各処理について、処理フローを参照しながら、再度より詳細に説明する。
図10は、要約映像検出装置5の処理フローを示すフロー図である。同図に示すように、要約映像検出装置5は、まず、番組映像Piに関する特徴ベクトルVpiを取得する(ステップS1)。次に、蓄積映像の検索範囲を設定し(ステップS2)、区間長最大値TLMAX、区間長増分TI、蓄積映像内の始点TS、映像区間長TLをそれぞれ初期設定する(ステップS3〜ステップS6)。
Finally, each process of the summary
FIG. 10 is a flowchart showing the processing flow of the summary
次に、要約映像検出装置5は、映像区間長TLが区間長最大値TLMAX以下であるか否かを判定し(ステップS7)、以下でなければ、TSに映像区間長TLMAXを加算し、ステップS6に処理を戻す(ステップS8)。
Next, the digest
一方、ステップS7の判定において、映像区間長TLが区間長最大値TLMAX以下であると判定されると、要約映像検出装置5は、次に、始点TSから映像区間長TL分の区間が、ステップS2で初期設定した検索範囲内に含まれるか否かを判定する(ステップS8)。その結果、検索範囲外であれば、ステップS14に処理を移す。検索範囲内であれば、始点TSから映像区間長TL分の区間(Tx〜Tyとする。)に関する特徴ベクトルVTx〜Tyを取得する。そして、特徴ベクトルVpiと特徴ベクトルVTx〜Tyの類似度を算出し(ステップS12)、類似度記憶部54に記憶させる(ステップS13)。次に、要約映像検出装置5は、TLにTIを加算し、処理をS7に戻す。
On the other hand, if it is determined in step S7 that the video segment length T L is equal to or smaller than the maximum segment length value T LMAX , the summary
ステップS14では、要約映像検出装置5は、類似度記憶部54に記憶された類似度に基づいて要約映像を検出する。そして、類似度の高い順にソートしてユーザに対して提示する。
In step S <b> 14, the summary
以上説明したように、要約映像検出システム1によれば、上記特徴ベクトルが映像の意味内容を反映しているので、要約映像検出装置5によって行われる要約画像の検出が、幅広い映像に適用可能な、検出精度の高いものとなる。
また、特徴ベクトル生成装置3は、特徴ベクトル生成の基になる文字データを、クローズドキャプションや電子番組ガイドから文字データを取得することができる。
As described above, according to the summary
In addition, the feature
また、特徴ベクトル生成装置3は、映像の区間ごとに、特徴ベクトルを作成することができる。また、映像の区間ごとに特徴ベクトルを生成したことから、階層的に特徴ベクトルを算出することができるので、特徴ベクトル算出の処理負荷を軽減することが可能になる。
さらに、要約映像検出システム1では、様々な長さの映像区間を要約映像候補として取り扱うことが可能になっている。
Also, the feature
Furthermore, the summary
以上本発明の実施の形態について説明したが、本発明はこうした実施の形態に何等限定されるものではなく、本発明は、その要旨を逸脱しない範囲において、種々なる態様で実施され得ることは勿論である。 Although the embodiments of the present invention have been described above, the present invention is not limited to these embodiments, and the present invention can of course be implemented in various modes without departing from the scope of the present invention. It is.
例えば、上記実施の形態では、蓄積映像に関する特徴ベクトルを予め算出して記憶しておいたが、番組指定受付部50によって番組映像が指定されたときに蓄積映像に関する特徴ベクトルを算出するようにしてもよい。
For example, in the above embodiment, the feature vector related to the stored video is calculated and stored in advance, but when the program video is designated by the program
また、各連続区間に関する特徴ベクトルの算出において、上記実施の形態では、より下位層の区間に関する特徴ベクトルの足し算により求めていたが、より上位の特徴ベクトルから、より下位の特徴ベクトルを引くことにより求めることとしてもよい。例えば、T1〜T9の特徴ベクトルVT1〜T9は、VT1〜T10−VT9〜T10として求めることが可能である。 Further, in the calculation of the feature vector for each continuous section, in the above embodiment, the feature vector for the lower layer section is obtained by addition. However, by subtracting the lower-order feature vector from the higher-order feature vector, It may be asking. For example, the feature vectors V T1 to T9 of T1 to T9 can be obtained as V T1 to T10 −V T9 to T10 .
また、特徴ベクトル生成装置3及び要約映像検出装置5の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、上記各処理を行ってもよい。
ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものであってもよい。また、この「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。
さらに、「コンピュータ読み取り可能な記録媒体」には、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。
さらに、上記プログラムは、上述した各機能の一部を実現するためのものであってもよい。さらに、上述した各機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
Further, a program for realizing the functions of the feature
Here, the “computer system” may include an OS and hardware such as peripheral devices. Further, the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used.
The “computer-readable recording medium” means a flexible disk, a magneto-optical disk, a ROM, a writable nonvolatile memory such as a flash memory, a portable medium such as a CD-ROM, a hard disk built in a computer system, etc. This is a storage device.
Furthermore, the “computer-readable recording medium” includes a volatile memory (for example, DRAM (DRAM) in a computer system that becomes a server or a client when a program is transmitted through a network such as the Internet or a communication line such as a telephone line. Dynamic Random Access Memory)), etc., which hold programs for a certain period of time.
The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line.
Further, the program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve each function mentioned above in combination with the program already recorded on the computer system, what is called a difference file (difference program) may be sufficient.
1 要約映像検出システム、
2 映像データベース、
3 特徴ベクトル生成装置、
4 特徴ベクトルデータベース、
5 要約映像検出装置、
20 蓄積映像記憶部、
30 番組映像特徴ベクトル生成部、
31 希少性情報算出部、
32 蓄積映像特徴ベクトル生成部、
40 番組映像特徴ベクトル、
41 蓄積映像特徴ベクトル記憶部、
50 番組指定受付部、
51 番組映像特徴ベクトル取得部、
52 類似度算出部、
53 蓄積映像特徴ベクトル取得部、
54 類似度記憶部、
55 要約映像検出部、
55 類似度記憶部、
300,302 抽出部、
301,303 特徴ベクトル生成部、
3000 ストリーム分離部、
3002 索引語抽出部、
3003 音声認識部、
3004 索引語抽出部、
3005 統合部、
3030 区間映像特徴ベクトル生成部、
3031 連続区間映像特徴ベクトル生成部。
1 summary video detection system,
2 video database,
3 feature vector generator,
4 Feature vector database,
5 summary video detection device,
20 Accumulated video storage unit,
30 Program video feature vector generator,
31 Rareness information calculator,
32. stored image feature vector generation unit,
40 Program video feature vector,
41 stored image feature vector storage unit,
50 Program designation reception part,
51 Program video feature vector acquisition unit,
52 similarity calculation unit,
53. Accumulated video feature vector acquisition unit,
54 similarity storage unit,
55 Summary video detector,
55 similarity storage unit,
300,302 extraction unit,
301, 303 feature vector generator,
3000 stream separator,
3002 Index word extraction unit,
3003 voice recognition unit,
3004 Index word extraction unit,
3005 Integration Department,
3030 section image feature vector generation unit,
3031 A continuous segment video feature vector generation unit.
Claims (6)
前記索引語ごとの前記映像内での出現数に基づいて前記映像に関する特徴量を生成する特徴量生成手段と、
を含むことを特徴とする特徴量生成装置。 Extraction means for extracting one or a plurality of index words from at least one of character data or audio signals corresponding to video;
Feature quantity generating means for generating a feature quantity related to the video based on the number of appearances in the video for each index word;
The feature-value production | generation apparatus characterized by including.
前記特徴量生成手段は、蓄積映像内での出現数に基づいて決定される前記索引語ごとの希少性にさらに基づいて、前記映像に関する特徴量を生成する、
ことを特徴とする特徴量生成装置。 In the feature-value production | generation apparatus of Claim 1,
The feature amount generation means generates a feature amount related to the video based on the rarity of each index word determined based on the number of appearances in the stored video;
The feature-value production | generation apparatus characterized by this.
前記索引語ごとの前記区間映像内での出現数に基づいて該区間映像に関する特徴量を生成する区間映像特徴量生成手段と、
前記区間映像特徴量生成手段によって生成される各区間映像に関する特徴量に基づき、隣り合った複数の区間映像からなる連続区間映像に関する特徴量を生成する連続区間映像特徴量生成手段と、
を含むことを特徴とする特徴量生成装置。 Extraction means for extracting one or a plurality of index words from at least one of character data or audio signal corresponding to the section video for each section of the video;
Section video feature value generation means for generating a feature value related to the section video based on the number of appearances in the section video for each index word;
A continuous section video feature quantity generating means for generating a feature quantity regarding a continuous section video composed of a plurality of adjacent section videos based on a feature quantity regarding each section video generated by the section video feature quantity generation means;
The feature-value production | generation apparatus characterized by including.
番組映像について、請求項1に記載された特徴量生成装置により生成された特徴量を取得する番組映像特徴量取得手段と、
前記蓄積映像の前記区間ごとに、該区間に関する特徴量と、前記番組映像に関する特徴量と、の類似度を算出する類似度算出手段と、
前記類似度算出手段の算出結果に基づいて、前記蓄積映像の前記各区間の中から前記番組映像の要約映像を検出する要約映像検出手段と、
を含むことを特徴とする要約映像検出装置。 For each section of the stored video, stored video feature quantity acquisition means for acquiring the feature quantity generated by the feature quantity generation device according to claim 1;
A program video feature amount acquisition means for acquiring a feature amount generated by the feature amount generation apparatus according to claim 1 for a program video;
For each section of the stored video, similarity calculation means for calculating the similarity between the feature quantity related to the section and the feature quantity related to the program video;
Summary video detection means for detecting a summary video of the program video from the sections of the stored video based on the calculation result of the similarity calculation means;
A summary video detection apparatus comprising:
番組映像について、請求項1に記載された特徴量生成装置により生成された特徴量を取得する番組映像特徴量取得手段と、
前記蓄積映像の前記区間及び前記連続区間ごとに、該区間又は該連続区間に関する特徴量と、前記番組映像に関する特徴量と、の類似度を算出する類似度算出手段と、
前記類似度算出手段の算出結果に基づいて、前記蓄積映像の前記各区間及び前記各連続区間の中から前記番組映像の要約映像を検出する要約映像検出手段と、
を含むことを特徴とする要約映像検出装置。 An accumulated video feature amount acquisition means for acquiring a feature amount generated by the feature amount generation device according to claim 3 for each of the sections of the stored video and each continuous section composed of a plurality of adjacent sections;
A program video feature amount acquisition means for acquiring a feature amount generated by the feature amount generation apparatus according to claim 1 for a program video;
For each of the sections and the continuous sections of the stored video, a similarity calculation unit that calculates a similarity between the feature quantity related to the section or the continuous section and the feature quantity related to the program video;
Summary video detection means for detecting a summary video of the program video from the sections and the continuous sections of the stored video based on the calculation result of the similarity calculation means;
A summary video detection apparatus comprising:
前記索引語ごとの前記映像内での出現数に基づいて前記映像に関する特徴量を生成する特徴量生成手段、
としてコンピュータを機能させるためのプログラム。 Extracting means for extracting one or a plurality of index words from at least one of character data or audio signals corresponding to the video, and a feature quantity related to the video based on the number of appearances in the video for each index word Feature quantity generating means to generate,
As a program to make the computer function.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007148389A JP4731522B2 (en) | 2007-06-04 | 2007-06-04 | Feature generation device, summary video detection device, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007148389A JP4731522B2 (en) | 2007-06-04 | 2007-06-04 | Feature generation device, summary video detection device, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008301426A true JP2008301426A (en) | 2008-12-11 |
JP4731522B2 JP4731522B2 (en) | 2011-07-27 |
Family
ID=40174465
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007148389A Active JP4731522B2 (en) | 2007-06-04 | 2007-06-04 | Feature generation device, summary video detection device, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4731522B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200192935A1 (en) * | 2011-08-02 | 2020-06-18 | Comcast Cable Communications, Llc | Segmentation Of Video According To Narrative Theme |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000023112A (en) * | 1998-06-30 | 2000-01-21 | Toshiba Corp | System, device and method for filtering information and video equipment |
JP2004333737A (en) * | 2003-05-06 | 2004-11-25 | Nec Corp | Device and program for media retrieval |
JP2005340880A (en) * | 2004-05-24 | 2005-12-08 | Casio Comput Co Ltd | Terminal device and terminal processing program |
JP2006050483A (en) * | 2004-08-09 | 2006-02-16 | Ricoh Co Ltd | Video analysis device, video analysis method, content preparing device, program, and recording medium |
JP2007110188A (en) * | 2005-10-11 | 2007-04-26 | Sony Corp | Recording apparatus, recording method, reproducing apparatus, and reproducing method |
-
2007
- 2007-06-04 JP JP2007148389A patent/JP4731522B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000023112A (en) * | 1998-06-30 | 2000-01-21 | Toshiba Corp | System, device and method for filtering information and video equipment |
JP2004333737A (en) * | 2003-05-06 | 2004-11-25 | Nec Corp | Device and program for media retrieval |
JP2005340880A (en) * | 2004-05-24 | 2005-12-08 | Casio Comput Co Ltd | Terminal device and terminal processing program |
JP2006050483A (en) * | 2004-08-09 | 2006-02-16 | Ricoh Co Ltd | Video analysis device, video analysis method, content preparing device, program, and recording medium |
JP2007110188A (en) * | 2005-10-11 | 2007-04-26 | Sony Corp | Recording apparatus, recording method, reproducing apparatus, and reproducing method |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200192935A1 (en) * | 2011-08-02 | 2020-06-18 | Comcast Cable Communications, Llc | Segmentation Of Video According To Narrative Theme |
Also Published As
Publication number | Publication date |
---|---|
JP4731522B2 (en) | 2011-07-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11197036B2 (en) | Multimedia stream analysis and retrieval | |
US11468109B2 (en) | Searching for segments based on an ontology | |
US9888279B2 (en) | Content based video content segmentation | |
KR100684484B1 (en) | Method and apparatus for linking a video segment to another video segment or information source | |
KR102068790B1 (en) | Estimating and displaying social interest in time-based media | |
KR100915847B1 (en) | Streaming video bookmarks | |
US7209942B1 (en) | Information providing method and apparatus, and information reception apparatus | |
KR101644789B1 (en) | Apparatus and Method for providing information related to broadcasting program | |
US10652592B2 (en) | Named entity disambiguation for providing TV content enrichment | |
US20180068690A1 (en) | Data processing apparatus, data processing method | |
US20090132074A1 (en) | Automatic segment extraction system for extracting segment in music piece, automatic segment extraction method, and automatic segment extraction program | |
JP2006287319A (en) | Program digest generation apparatus and program digest generation program | |
US20020144293A1 (en) | Automatic video retriever genie | |
JP2006155384A (en) | Video comment input/display method and device, program, and storage medium with program stored | |
EP2336900A2 (en) | Search device and search method | |
US20080016068A1 (en) | Media-personality information search system, media-personality information acquiring apparatus, media-personality information search apparatus, and method and program therefor | |
KR20080112975A (en) | Method, system and recording medium storing a computer program for building moving picture search database and method for searching moving picture using the same | |
JP4731522B2 (en) | Feature generation device, summary video detection device, and program | |
JP2007060606A (en) | Computer program comprised of automatic video structure extraction/provision scheme | |
Kim et al. | Multimodal approach for summarizing and indexing news video | |
KR20020061318A (en) | A Method of Summarizing News Video Based on Multimodal Features | |
US20190182517A1 (en) | Providing Enrichment Data That is a Video Segment | |
JP2007006116A (en) | Picture indexer | |
JP3985656B2 (en) | Video indexing method and program, and computer-readable recording medium | |
EP3044728A1 (en) | Content based video content segmentation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20091016 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20101228 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110111 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110209 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110322 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110419 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140428 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 4731522 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |