JP5096259B2 - 要約コンテンツ生成装置および要約コンテンツ生成プログラム - Google Patents

要約コンテンツ生成装置および要約コンテンツ生成プログラム Download PDF

Info

Publication number
JP5096259B2
JP5096259B2 JP2008203712A JP2008203712A JP5096259B2 JP 5096259 B2 JP5096259 B2 JP 5096259B2 JP 2008203712 A JP2008203712 A JP 2008203712A JP 2008203712 A JP2008203712 A JP 2008203712A JP 5096259 B2 JP5096259 B2 JP 5096259B2
Authority
JP
Japan
Prior art keywords
section
video
content
shot
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008203712A
Other languages
English (en)
Other versions
JP2010039877A (ja
Inventor
秀信 長田
Kowalic Uwe
行信 谷口
浩太 日高
陽介 鳥井
豪 入江
泳青 孫
光洋 我妻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2008203712A priority Critical patent/JP5096259B2/ja
Publication of JP2010039877A publication Critical patent/JP2010039877A/ja
Application granted granted Critical
Publication of JP5096259B2 publication Critical patent/JP5096259B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Television Signal Processing For Recording (AREA)

Description

本発明は,未編集の映像素材を要約した要約コンテンツを生成する要約コンテンツ生成装置およびそのプログラムに関する。
放送番組の制作工程の一つに,未編集の素材映像からの編集工程がある。編集工程においては,大量の素材映像中から本編に用いる素材を探す必要が生じることがよくある。本工程で素材を探すにあたって,素材映像に対してメタデータが付与されていない場合,素材映像を順次再生しながらその内容を確認しなくてはならず,それにかかる作業コストは極めて大きい。
したがって,素材映像の内容を短時間に把握することができるような要約コンテンツを生成することが可能であれば,仮に素材映像が大量に存在したとしても,その内容の把握にかかる作業コストは大幅に低減されることになる。このような要約コンテンツの生成方法に関しては,以下の特許文献1〜特許文献5および非特許文献1,非特許文献2に開示されている技術がある。
特許文献1には,話者に依存しない発話状態の判定を可能にするため,音声特徴量ベクトルの強調状態での出現確率および平静状態での出現確率をコードごとに格納した符号帳を用い,入力音声からフレームごとに得た音声特徴量の組を量子化した対応する音声特徴量ベクトルの強調状態および平静状態での出現確率を求め,それらを比較して強調状態であるか否かを判定する音声処理方法が開示されている。
また,特許文献2には,被写体の種類にかかわらず,動物体が大きく写っている動物体アップフレームの映像時刻および動物体のアップショットを精度よく検出するため,入力された映像の動きベクトルから所定のカメラワークモデルに則しているかを判定し,則していない場合には動物体アップフレームとして検出する方法が開示されている。
また,特許文献3には,速見映像の作成において,選択可能な方法により映像を要約編集可能にするため,ユーザに映像斜め読み出し方法または映像探し読み出し方法を選択させ,映像斜め読み出し方法が選択された場合には,指定された速見時間長を速見区間の各ショットに所定の率で割り当て,ショット速見時間に対応するフレーム数で各ショットから速見フレーム位置の速見フレームを抽出して順次表示し,映像探し読み出し方法が選択された場合には,速見時間長を速見区間の各ショットに所定の率で割り当て,ショット速見時間に対応するフレーム数で速見フレームを各ショットから等間隔で抽出して順次表示する技術が開示されている。
また,特許文献4には,映像情報を符号化したまま圧縮処理を可能とするため,映像ソースを再生装置で再生し,可変レート符号化部で符号化し,ポインタ管理部でポインタの付与を行った後,蓄積媒体に蓄積し,次いで,ユーザから入力したしきい値(圧縮時間)に基づいて,映像フレームの抽出を行い,表示装置に表示する映像内容圧縮再生処理方法が開示されている。
また,特許文献5には,マルチメディアコンテンツの要約において,単一のメディアに偏らない要約を実現するため,マルチメディアコンテンツに対して,複数の個々のメディアごとにそれぞれ重要度分布を求め,それぞれのメディアの重みを加味させて総合重要度分布を作成し,総合重要度分布から要約率に沿うよう全体の要約を再生するマルチメディアコンテンツの要約方法が開示されている。
また,非特許文献1には,インターネット上のCGM(Consumer Generated Media)動画数が爆発的に増加してきており,また視聴者のCGM動画に対する嗜好や視聴要求の多様化が進んでいることから,多様なハイライト区間の自動検出・配信を可能にするため,印象的な区間を特徴付ける重要な要因として「笑い」や「泣き」などの感情表出に着目し,この区間を自動検出する感情表出区間自動検出法が開示されている。
非特許文献2には,映像の基本的な単位であるショットの切換わりを自動的に検出するにあたって,瞬時にショットを切り換えるカットだけでなく,フェードやワイプといったゆっくりしたショット切換えも検出できるようにするため,隣り合うフレームの間だけではなく,より間隔をおいた2枚のフレームの間で非類似度を計算し,それらを総合的に評価してショット切換えの判定を行う映像ショット切換え検出法が開示されている。
特許第3803311号公報 特開2006−244074号公報 特開平6−233227号公報 特開平5−225237号公報 特開2003−256445号公報 入江豪,日高浩太,佐藤隆,谷口行信,中蔦信弥「CGM動画を対象とした感情表出区間自動検出法」電子情報通信学会総合大会講演論文集,Proceedings of the IEICE General Conference ,Vol.2007年_情報・システム,No.2(20070307)p.210 ,社団法人電予情報通信学会 谷口行信,外村佳伸,浜田洋著「映像ショット切換え検出法とその映像アクセスインタフェースへの応用」,電子情報通信学会論文誌,Vol.J79-D2 No.4 (1996年4月),p.538-546 ,社団法人電子情報通信学会
〔特許文献1〕および〔非特許文献1〕で挙げた技術によると,映像中の音声信号から抽出した特徴に基づいて,映像コンテンツの内容が把握可能なハイライトシーンや,「楽しいシーン」「悲しいシーン」といった,ユーザが映像コンテンツを閲覧した結果抱く何らかの感情状態に即したシーンを映像中から抽出し,これを提示することができる。この技術を用いれば,個人撮影動画などに代表される冗長な映像コンテンツに含まれる「見どころ」の提示や,「面白いシーンが見たい」といったユーザの要望に適うシーンの提示ができるほか,スポーツ録画からプレー中に生じたイベントによって上がった歓声を含むシーンをハイライトシーンとして抽出することもできる。
すなわち,〔特許文献1〕および〔非特許文献1〕の技術によると,元の映像から短時間の要約コンテンツの生成が可能で,その要約コンテンツによって元の映像の概要や盛り上がった雰囲気までも伝えることができる上に,多数の映像があった場合でも,それらの中から興味の持てそうな映像をユーザが容易に選択できるようになる。
また,〔特許文献2〕および〔非特許文献2〕の技術によると,映像コンテンツ中のショット切り替え位置や,動物体被写体が大きく写されたシーンを抽出可能であり,これらの抽出された位置ならびにシーンを時刻の前後関係を保持した上で繋ぎ合わせ,これを要約コンテンツとすることで,画面内に何らかの動的な特徴が現れているような映像や,特定被写体の有無といった情報を,ユーザが素早く理解することができるような要約コンテンツを提供できると考えられる。
このように,〔特許文献1,2〕および〔非特許文献1,2〕の技術によって,現段階では,既にある種の要約コンテンツが生成可能であるが,例えば,映像の扱いに慣れたプロフェッショナル・ユーザが,できるだけ短時間のうちに,多数の放送番組用の素材映像に含まれているシーンを満遍なく確認するというような利用シーンを想定した場合,従来技術ではまだ十分とは言えず,このような利用シーンにさらに適した要約コンテンツの生成が可能であることが望まれる。
以降,本発明でいう素材映像とは,一般的に次のような特徴を含む映像を含んでよいものとする。
素材映像とは,映像が一旦撮影された後,全ての編集作業を終えるよりも以前の状態にある,未完成の映像のことを総称する。このような素材映像には,黒つぶれ・白飛びを起したフレームや,監督から「OK,カット!」等の号令が出されるまで幾度となく撮り直されたシーンや,シーン撮影の合間に無駄にカメラに収められたと思われるシーンや,部分的な編集作業によって生成されたシーンチェンジや,カラーバー等の機械的に生成されたシーンや,クラップボード(カチンコ)やガンマイク等の撮影機器が図らずも写ってしまったようなシーン等の放送番組の素材映像ならではの冗長なシーンが多数含まれる。
また,素材映像には,人物が無言で大きく写っている場面や,路地の雑踏シーン,建物のカット,風景,カメラが特定の物体にズームするようなシーン等,いわゆる音声はあまり含まれないか,あるいは全く含まれないものの,番組の内容上は必要不可欠であるために意図的に撮影されたシーンが含まれる。さらに,素材映像には,最終的に生成される番組とは一切の関連がないものの,別の番組に使うことなどを意図して撮影された,いわゆるストック用の短時間のシーンなどが含まれる場合もある。
本発明では,一般的な映像だけではなく,上記のような特徴を有する素材映像の場合でも,これをもとに要約コンテンツを生成できる方法である。上記のような素材映像をもとに要約コンテンツを生成する場合,最適な要約コンテンツを以下のように定める。
第1の点:冗長な部分が除外されている要約コンテンツ
大量の素材映像のシーンを満遍なく,短時間に確認する必要があることから,要約コンテンツには無駄な部分が可能な限り少ないほうがよい。すなわち,機械的に生成されたカラーバーや,黒つぶれ・白飛びのフレームを含むような内容に無関係のシーンや,複数回に渡って撮影された,同じ内容を持つシーンは要約コンテンツからは除外されていることが望ましい。
第2の点:画像と音声信号の両方の特徴を用いて決定した要約区間を含む要約コンテンツ
要約コンテンツは,意図を持って撮影された部分をできるだけ満遍なく,多く含んでいることが望ましい。すなわち,要約区間として,音声信号に基づいて抽出されたハイライトシーンに加え,画像信号から抽出される特徴量を用いることにより,音声は全く含まれないか,あるいは音量が極めて小さいが,内容上重要であるシーンが要約コンテンツに含まれていることが望ましい。
第3の点:所定の区間ごとに適切に再生速度が設定された可変倍速の要約コンテンツ
本発明が想定する利用シーンにおける要約コンテンツの閲覧者は,映像編集作業従事者の業務遂行に必要な一般知識を特に有しない,いわゆる一般ユーザも含まれる。元の素材映像のシーンを効率よくかつ満遍なく確認する目的を達成するためには,要約コンテンツの時間長が短いことに加え,要約コンテンツが素材映像のより多くの時間的範囲を網羅できるように,適切な再生速度が設定される必要がある。すなわち,要約コンテンツの再生速度が1倍(元の素材映像の再生速度に等しい速度)であることは必須の条件でなく,内容把握が可能である範囲で,要約区間のそれぞれに対して適切な区間再生速度を設定する必要がある。
上述した従来の技術を上記3点について鑑みた場合,次のことが言える。第1の点と第2の点に関しては,〔特許文献1〕〜〔特許文献2〕によると,映像・画像のそれぞれ個別の特徴に基づく要約コンテンツの生成はできるが,素材映像ならではの冗長区間の除外処理ができないほか,要約区間の決定と同時に該区間の区間再生速度を決定するような,再生速度値を算出する方法は考慮されていない。
また,第3の点に関しては,〔特許文献3〕,〔特許文献4〕および〔特許文献5〕の開示技術では,可変倍速再生が可能であるとして再生速度の算出段階を備えるが,これらに開示されている技術における再生速度は,コンテンツの速見を目的とした再生速度であって,セグメントごとにユーザが予め指定した速度であるか,コンテンツの速見に割く時間長が所定の時間内に収まるように算出された一定の倍速速度であるか,あるいは,映像中の動きか音声情報のいずれかの物理量によって決定された再生速度であるにとどまっている。
本発明が想定しているような,素材内容を効率的に,かつ満遍なく把握する,といった利用シーンにおける要約コンテンツの再生速度は,単純な画面の動き量や音声の有無といった物理的な特徴に基づく再生速度では不十分であり,素材中の被写体へのズーム,素材中の動物体,人物の顔,歓声といった,物理特徴よりもさらに映像中の意味内容に近い,いわゆる高レベルな特徴を考慮に入れて決定される必要がある。しかし,〔特許文献3〕〜〔特許文献5〕に記載の技術はその術を具備しない。
このような理由から,従来技術およびそれらのあらゆる組み合わせを以ってしても,本発明が目指す要約コンテンツは生成できない,という問題があった。
本発明は,上記問題点に基づいてなされたもので,映像コンテンツ中の音声・画像を解析し,映像コンテンツ中の所定のセグメントごとに,要約コンテンツに用いる区間と当該区間の区間再生速度を決定し,素材映像に含まれているシーンをできる限り短時間に,満遍なく把握できるような可変倍速の要約コンテンツを生成するための新しい技術手段を提供することを目的とする。
上記課題を解決するための要約コンテンツ生成装置は,要約対象の映像コンテンツ中に含まれる画像信号と音声信号とを解析し,それぞれ連続したフレーム列からなる映像区間のショットに分割する映像信号解析手段と,前記映像信号解析手段により得られた各ショットごとに,映像の各フレームから得られる画像または音声の特徴を表す値が所定の閾値以上となるものをイベントとして検出するイベント検出手段と,前記イベント検出手段により検出されたイベントに基づいて,イベントが少ないほど,またはさらにフレーム間の画像変化が少ないほど,前記ショットから抽出される要約区間が速い速度で再生されるように要約区間ごとの再生速度を決定し,さらに前記イベントが少ないほど前記要約区間が短くなり,前記要約区間の全長が元の映像コンテンツに対し所定の割合の時間長となるように各要約区間の長さを決定する要約区間・区間再生速度決定手段と,前記要約区間・区間再生速度決定手段により決定された再生速度に基づいて,前記映像コンテンツから,前記各要約区間ごとの再生速度に適合する要約コンテンツを生成するダイジェスト映像生成手段とを備えることを特徴とする。
ここで,前記映像信号解析手段は,前記映像コンテンツにおける隣接するフレーム間画像の差分を算出する手段と,前記映像コンテンツにおける各フレームの画素値のヒストグラムを算出する手段と,前記フレーム間画像の差分または前記ヒストグラムに基づいて,前記各ショットからジャンクショットまたは同一もしくは類似するフレーム列からなる重複テイクを検出し,それらのフレームが要約コンテンツに含まれないように除外する手段とを備えてもよい。
また,前記イベント検出手段は,前記映像コンテンツの映像を撮影したカメラが操作されているカメラワーク区間を検出する手段と,前記映像コンテンツの映像中から動物体がアップで表示されている動物体アップショット区間を検出する手段と,前記映像コンテンツの音声トラックから音声が強調されている音声強調区間を検出する手段と,前記映像コンテンツの映像中から人物の顔画像が含まれている部分を顔区間として検出する手段の少なくともいずれか複数を有し,前記カメラワーク区間の検出結果,前記動物体アップショット区間の検出結果,前記音声強調区間の検出結果または前記顔区間の検出結果を,前記画像または音声の特徴を表す値としてイベントを検出する構成も採り得る。
本発明によれば,映像コンテンツの画像信号・音声信号の分析に基づいて,所定のセグメント(ショット)ごとに要約区間を決定することが可能になる。前記所定のセグメントは,映像コンテンツの画像信号・音声信号の少なくとも一つから自動的に決定することが可能である。これをもとに,所定のセグメントごとに,要約コンテンツに用いる要約区間と区間再生速度の双方を考慮した要約コンテンツの生成を行うことができる。
また,要約コンテンツに用いる要約区間と区間再生速度を,所定のセグメントの長さと,所定のセグメントに含まれる映像中のイベントの種類と,所定のセグメントにおけるフレーム間画像差分情報とを考慮して決定することができる。
本発明の最良の実施形態について説明する。本実施例は,素材映像と短縮率を入力し,要約区間と区間再生速度を自動で算出し,これに基づいて要約コンテンツを出力する例である。なお,以下の説明において,ショットとは連続した一区間の映像をいう。要約区間は,各ショットの中の動きやイベントの数などに基づいて求められるものであり,ショットの長さ以下となる。
図1は,本発明に係る要約コンテンツ生成装置の構成例を示す。要約コンテンツ生成装置1は,素材映像と短縮率とを入力する入力部11と,素材映像の映像信号を解析する映像信号解析処理部12と,映像信号の解析結果をもとに短縮率に従ってダイジェスト映像を生成する要約処理部13とを備える。
映像信号解析処理部12は,素材映像のフレーム間画像の差分を算出するフレーム間画像差分算出部121と,素材映像を映像の基本的な単位であるショットに分割するショット分割部122と,フレーム画像から各色ごとの画素値のヒストグラムを生成するカラーヒストグラム算出部123と,素材映像からジャンクショットを取り除くジャンクショット除外処理部124と,素材映像から重複テイクを取り除く重複テイク除外処理部125を備える。
また,要約処理部13は,映像信号解析処理部12による解析結果から映像中のイベントを検出するイベント検出部131と,検出されたイベント情報をもとに指定された短縮率に従って要約区間と各要約区間ごとの再生速度を決定する要約区間および区間再生速度決定部132と,決定した要約区間と区間再生速度に従って要約コンテンツであるダイジェスト映像を生成するダイジェスト映像生成部133とを備える。
図1に示す要約コンテンツ生成装置1を実現するための装置構成図を,図2に示す。図2に示すように,本装置は,ハードウェアとして,プログラムメモリ10と,中央処理ユニット(CPU:Central Processing Unit )20と,データメモリ30と,バス40とを備え,CPU20には,バス40を介してプログラムメモリ10,データメモリ30がそれぞれ接続されている。プログラムメモリ10には,入力部11,映像信号解析処理部12,要約処理部13の機能を実現するためのソフトウェアプログラムが記憶される。データメモリ30には,フレーム間画像差分記憶部31,イベント情報記憶部32,ショット情報記憶部33,再生制御情報記憶部34,ヒストグラム記憶部35が設けられている。
本実施例の全体動作を示すフローチャートを図3に示す。本実施例は,素材映像および短縮率の入力ステップS11と,前処理ステップS12と,冗長部分除外処理ステップS13と,ショット内イベント検出処理ステップS14と,要約区間および区間再生速度決定ステップS15と,ダイジェスト映像生成ステップS16とを実行する。
素材映像および短縮率の入力ステップS11では,入力部11により素材映像と要約映像の短縮率を入力する。素材映像は必要に応じてデコードする。入力された素材映像と短縮率は,直ちに一時記憶部(図示せず)に格納される。
前処理ステップS12では,一時記憶部から素材映像を入力し,映像信号解析処理部12において,前記素材映像の映像音声信号を解析し,ショット情報をショット情報記憶部33に,フレーム間画像差分情報をフレーム間画像差分記憶部31に,カラーヒストグラムをヒストグラム記憶部35に,それぞれ出力する。ショット情報は,例えばショットの開始時刻と終了時刻である。これはショットに含まれる映像を特定できるものであればよく,フレーム番号情報のようなものであってもよい。
この前処理ステップS12の詳細動作を,図4に示すフローチャートに従って説明する。前処理ステップS12は,映像入力ステップS121と,映像のデコードステップS122と,フレーム間画像差分算出ステップS123と,フレーム間画像差分情報出力ステップS124と,カット検出ステップS125と,ショット分割ステップS126と,ショット情報出力ステップS127と,カラーヒストグラム算出ステップS128と,カラーヒストグラム出力ステップS129とからなる。以下に,各ステップS121〜S129の動作について記す。
映像入力ステップS121では,一時記憶部から映像信号解析処理部12に素材映像を入力する。
映像のデコードステップS122では,前記入力された映像をデコードし,タイムコードと関連付けられた一連のフレーム画像および音声パケットを抽出し,一時記憶部に出力する。
フレーム間画像差分算出ステップS123では,一時記憶部から映像のデコードステップS122で取得された一連のフレーム画像を入力し,時刻的に隣接するフレーム同士のフレーム画像の差分を算出し,一時記憶部に出力する。このとき,フレーム間画像差分の情報は,フレーム画像内の領域について量子化してもよい。さらに,フレーム間画像差分の情報は,時刻の隣接するフレーム同士で差分を算出した後,任意時間幅でもって平滑化処理を施してもよい。
フレーム間画像差分情報出力ステップS124では,一時記憶部から,フレーム間画像差分算出ステップS123で求められたフレーム間画像差分情報を,フレーム間画像差分記憶部31に出力する。
カット検出ステップS125では,一時記憶部から,従来技術として既知のシーンチェンジの検出方法を用いてシーンチェンジを検出し,検出された時刻をカット点とし,一時記憶部に出力する。このシーンチェンジの検出方法としては,例えば非特許文献2に記載されている方法を用いることができる。
ショット分割ステップS126では,一時記憶部からカット検出ステップS125によって得られたカット点の時刻情報に基づいて,ショット情報を生成する。
ショット情報出力ステップS127では,ショット分割ステップS126で生成したショット情報を,ショット情報記憶部33に出力する。
カラーヒストグラム算出ステップS128では,フレーム画像から,(R,G,B)のカラーヒストグラムを生成する。
カラーヒストグラム出力ステップS129では,カラーヒストグラム算出ステップS128により生成されたヒストグラムデータをヒストグラム記憶部35に出力する。
以上の前処理の後,図3の冗長部分除外処理ステップS13では,ショット情報記憶部33からショット情報を,またフレーム間画像差分記憶部31からフレーム間画像差分情報を入力し,映像信号解析処理部12において,ショット情報とフレーム間画像差分情報とに基づいて冗長区間の検出と除外を行い,その処理の結果に基づいて,ショット情報記憶部33のショット情報を上書きする。
冗長部分除外処理ステップS13の詳細動作を,図5のフローチャートに従って説明する。図5に示すように,本ステップは,主として,ジャンクショット(機械的に生成されたカラーバーや黒いフレーム等の,無駄なショット)の除外処理と,重複テイクの除外処理との二つの処理から構成されており,ショット情報入力ステップS131と,フレーム間画像差分情報入力ステップS132と,ジャンク値評価ステップS133と,除外区間決定ステップS134と,ショット情報上書きステップS135と,隣接ショット間類似度算出ステップS136と,除外ショット決定ステップS137と,ショット情報上書きステップS138とからなる。以下に,各ステップS131〜S138の動作について記す。
ショット情報入力ステップS131では,ショット情報記憶部33から,映像信号解析処理部12にショット情報を入力する。
フレーム間画像差分情報入力ステップS132では,フレーム間画像差分記憶部31から,フレーム間画像差分情報を映像信号解析処理部12に入力する。
ジャンク値評価ステップS133では,フレーム間画像差分記憶部31からフレーム間画像差分情報を入力し,ショット情報記憶部33からショット情報を入力し,機械的に生成された縦横のカラーバーや,黒つぶれ・白飛びしたフレーム等に代表される,編集時にカットされるであろうフレームを判別するためのジャンク値を求める。本ステップは映像信号解析処理部12におけるジャンクショット除外処理部124にて行われる。このとき,例えば以下のアルゴリズムを用いることができる。
例1:ジャンクフレーム判別アルゴリズム
以下は,ジャンクフレームの判別方法の例である。はじめに,第n番目のフレーム画像について,そのフレーム画像領域を,等サイズの矩形領域に分割し,当該分割された領域に,z−orderで1〜Aの番号を付与する。すなわち,左上の領域から右側へ向かって順番に番号を振り,右端の領域まで番号を振ったならば,次に2段目の左端の領域から右側へ向かって番号を振り,同様に右下の領域に到達するまで番号を振るものとする。
続いて,前記番号の付与された各領域のカラーヒストグラムベクトルをdn a (a=1〜A)とし,以下に記載する(a)〜(k)のステップに従って,前記フレームがジャンクフレームであるか否かを判断し,当該フレームに対し“junkframe ”のラベルを付与する。
下記のアルゴリズムの例において,nはフレームに対する添え字,aは各フレーム画像を領域分割してz−orderに領域番号を付与した場合の領域番号,kはフレーム画像をk×kの合計k2 個の矩形領域に分割するとした場合の,行数に関する添え字,VCBn は機械的に生成された縦のカラーバーを検出するための特徴量,HCBn は機械的に生成された横のカラーバーを検出するための特徴量,BHn は黒つぶれ・白飛びを検出するための特徴量,jvcb,hcb ,jBH1 およびjBH2 は,前記各特徴量と閾値との関係によってフレームnのジャンク値Jn に加算されるジャンク値,labeln は第n番目のフレームに対して付与されたラベルである。Th1〜Th3およびεは閾値であり,自由に定めてかまわない。
(a)n=1の先頭フレームからn=Nの最終フレームまで,各フレームnについて,以下の処理を繰り返す。
(b)a=1からa=Aまで,領域番号aの各領域に対して,以下の処理を繰り返す。
(c)VCBn を次式により算出する。
Figure 0005096259
(d)HCBn を次式により算出する。
Figure 0005096259
なお,この式において,「where a≠Ck」は,aがkの整数倍でないときだけ|dn a+1 −dn a |を算出して,和を計算することを意味する。
(e)BHn を次式により算出する。
Figure 0005096259
(f)VCBn ×HCBn が閾値εより小さければ,ジャンク値Jn (初期値は0)にjvcb,hcb を加算する。
(g)BHn と閾値Th1とを比較し,BHn が閾値Th1より大きければ,ジャンク値Jn にjBH1 を加算する。
(h)BHn と閾値Th2とを比較し,BHn が閾値Th2より小さければ,ジャンク値Jn にjBH2 を加算する。
(i)aに1を加算し,a≦Aであれば,処理(c)以降を同様に繰り返す。a>Aになったならば,次の処理(j)へ進む。
(j)次に,ジャンク値Jn と閾値Th3とを比較し,Jn が閾値Th3より大きければ,フレームnのラベルlabeln を“junkframe ”とし,“junkframe ”のラベルを付与する。
(k)nに1を加算し,n≦Nであれば,処理(b)以降を同様に繰り返す。n>Nになったならば,ジャンクフレームの判別処理を終了する。
以上の例で示したラベリングにおいては,各フレームに対するラベリングを示したが,所定の時間長に相当する複数フレームに対するラベリング処理であってもかまわない。さらに,本例ではカラーヒストグラムベクトルdn a を用いた例を示したが,dn a として,カラーヒストグラムでなく,カラーヒストグラムの形状を表すような,ケプストラム係数を用いてもよく,前記領域分割された各領域のRGBパラメータの平均値を用いてもよい。また,RGB以外の任意のカラーパラメータを用いてもよい。また,フレーム画像を矩形に分割する際には,各領域のカラーまたは輝度バランスを考慮して矩形を任意のサイズとしてもよい。また,フレーム画像の複数の領域をグルーピングした,矩形以外の選択領域としてもかまわない,また,各領域は互いに重畳する部分があってもかまわない。
除外区間決定ステップS134では,ジャンク値評価ステップS133によって算出されたジャンク値に基づいて,ジャンクフレームであるとラベルされたフレームか,あるいはジャンク値が所定の閾値以上となるフレームについて,これらを要約区間に含めない除外区間となるよう,除外区間情報を一時記憶部に出力する。
ショット情報上書きステップS135では,一時記憶部から,除外区間情報を入力し,ショット情報記憶部33のショット情報を上書きする。
隣接ショット間類似度算出ステップS136では,フレーム間画像差分情報入力ステップS132で入力されたフレーム間画像差分情報と,ショット情報上書きステップS135で上書きされたショット情報を用い,映像信号解析処理部12において,隣接するショット同士の類似度を評価し,素材映像中から同じシーンが取り直されている部分を検出する。隣接するショット間の類似度は,1次元または多次元のDPマッチングを用いて求めることができる。
また,DPマッチングにおいてショット同士の類似度を算出する際,ショット中のフレーム画像の色に基づいて生成したカラーヒストグラム等を生成し,そのヒストグラムの類似度を求めることにより,ショット同士の類似度を評価することもできる。さらに,カラーヒストグラムの生成時には,ショットのフレーム画像のうち,所定の区間に該当するフレーム画像のみを用いてヒストグラムを生成してもよく,前記所定の区間を定めるにあたっては,フレーム間画像差分情報,すなわち時刻的に隣接するフレーム画像の画像差分に基づいて区間を定めてもよい。特に,フレーム間画像差分の値が所定の値未満となるようなフレームが連続する,一連のフレーム画像を用いることにより,動きの少ないフレームを用いて,DPマッチングのためのカラーヒストグラムを生成することが可能になる。
除外ショット決定ステップS137では,隣接ショット間類似度算出ステップS136で得られた隣接ショット間類似度に基づいて,類似度が所定の閾値以上となるショットを要約区間に含めない除外ショットとし,当該除外ショットの時刻情報を一時記憶部に出力する。この際,2つの隣接する類似ショットにおいてどちらかを除外する際に,タイムスタンプが小さいショットを除外ショットとしてもよい。あるいは,ショットの時間長が短いショットを除外ショットとしてもよい。
ショット情報上書きステップS138では,一時記憶部から,除外ショット決定ステップS137で求められた除外ショットの時刻を入力し,ショット情報記憶部33のショット情報を上書きする。
なお,ステップS133からステップS135までのジャンクショットの除外処理は,素材映像および短縮率の入力ステップS11で入力されるコンテンツの種類がホームビデオ等のいわゆるCGVであることが事前知識として与えられている場合,この実行をスキップしてよい。また,ショットの数またはカメラワークまたは文字列情報の有無に基づいて,一定時間長におけるこれらの生起回数が所定の回数を下回る場合に,入力映像がCGVであると判断して,ステップS133からステップS135までのジャンクショットの除外処理をスキップしてもよい。
次に,図3のショット内イベント検出処理ステップS14では,要約処理部13のイベント検出部131が,ショット情報記憶部33からショット情報を入力し,一時記憶部から素材映像を入力し,映像中のイベントを検出し,イベント情報記憶部32にイベント情報を出力する。
ショット内イベント検出処理ステップS14の詳細動作を,図6のフローチャートに従って説明する。本ステップは,カメラワーク区間検出ステップS141と,動物体アップショット検出ステップS142と,音声強調区間検出ステップS143と,顔検出ステップS144と,イベント情報出力ステップS145とからなる。以下に,各ステップS141〜S145の動作について記す。
カメラワーク区間検出ステップS141では,例えば下記の〔参考技術文献1〕に記載されているような既知の方法に基づいて,素材映像からカメラが上下左右に操作されて撮影された区間をカメラワーク区間として検出し,同時に,検出されたカメラワーク区間における,カメラワークの生起確率を取得し,フレーム単位イベント情報ファイルに,前記方法で検出したカメラワーク区間内に対応するフレームへ,カメラワーク値として,0〜1の値に正規化したカメラワーク生起確率の値を追記する。
〔参考技術文献1〕:特許第3408117号公報,谷口 行信,阿久津 明人,外村 佳伸「カメラ操作推定方法およびカメラ操作推定プログラムを記録した記録媒体」,日本電信電話株式会社。
動物体アップショット検出ステップS142では,前記〔特許文献2〕に記載の方法で,映像中から動物体がアップで表示されている部分を動物体アップショット区間として検出し,同時に,検出された動物体アップショット区間における,動物体アップショットの生起確率を取得し,フレーム単位イベント情報ファイルに,前記方法で検出した動物体アップショット区間に対応するフレームへ,動物体アップショット値として,0〜1の値に正規化した動物体アップショットの生起確率の値を追記する。
音声強調区間検出ステップS143では,前記〔特許文献1〕に記載の方法で,映像中の音声トラックから,音声が強調されている区間を音声強調区間として検出し,同時に,前記音声強調区間の音声強調度を取得し,フレーム単位イベント情報ファイルに,前記方法で検出した音声強調区間に対応するフレームへ,0〜1の値に正規化した音声強調度の値を追記する。
顔検出ステップS144では,下記の〔参考技術文献2〕に記載されている方法に基づいて,素材映像から人物の顔画像が含まれている部分を顔区間として検出し,同時に,顔の出現確率の値を取得し,フレーム単位イベント情報ファイルに,前記方法で検出した顔区間に対応するフレームへ,0〜1の値に正規化した顔の出現確率を追記する。
〔参考技術文献2〕:特開平9−50528号公報,福島 和恵,川村 春美,曽根原 登,水谷 伸「人物検出装置」,日本電信電話株式会社。
イベント情報出力ステップS145では,ステップS141〜S144で追記されたフレーム単位イベント情報ファイルを,イベント情報記憶部32に出力する。なお,ステップS141〜S144は順不同であり,並列,直列のいずれの実行方法によって実行してもよく,直列の場合にはどのような順序で実行してもかまわない。さらに,ステップS141〜S144では,フレーム単位イベント情報ファイルに処理結果を追記する方法によって実行したが,当該情報はファイルではなくメモリ等の一時記憶部上の情報であってかまわない。
次に,図3の要約区間および区間再生速度決定ステップS15では,フレーム間画像差分記憶部31からフレーム間画像差分情報を,イベント情報記憶部32からフレーム単位イベント情報を,ショット情報記憶部33からショット情報を,一時記憶部から素材映像を入力し,要約処理部13の要約区間および区間再生速度決定部132において,要約区間と当該区間の再生速度を決定し,再生制御情報記憶部34に再生制御情報として出力する。
要約区間および区間再生速度決定ステップS15の詳細動作を,図7のフローチャートに従って説明する。本ステップは,ショット情報入力ステップS151と,イベント検出結果入力ステップS152と,フレーム間画像差分情報入力ステップS153と,短縮率入力ステップS154と,短縮パラメータ決定ステップS155と,初期化ステップS156と,要約区間および区間再生速度更新ステップS157と,コンテンツ長さ評価ステップS158と,パラメータ更新ステップS159とからなる。以下に,ステップS151〜S159のそれぞれの動作を説明する。
ショット情報入力ステップS151では,ショット情報記憶部33から要約処理部13へ,ショット情報を入力する。ここで入力したショット情報は,後述するステップS155やS157で用いるLn の初期値を算出するために利用される。
イベント検出結果入力ステップS152では,イベント情報記憶部32から要約処理部13へ,フレーム単位イベント情報を入力する。
フレーム間画像差分情報入力ステップS153では,フレーム間画像差分記憶部31から要約処理部13へ,フレーム間画像差分情報を入力する。
短縮率入力ステップS154では,一時記憶部から,要約コンテンツの時間長の上限値を決める基準となる,元の素材映像の時間長に対する比率を,短縮率として入力する。
短縮パラメータ決定ステップS155では,例えば,以下の方法により,要約区間に対する区間長パラメータPcn と区間速度パラメータPsn を算出する。
Psn =Csn ×(d×Ln )/(En ×Dn ) …(式1)
Pcn =Ccn ×(d×Ln )/(En ×Dn ) …(式2)
ただし,nは要約区間に対する添え字,Ccn はn番目の要約区間の区間長に対して与える定数,Csn はn番目の要約区間の区間再生速度に対して与えられる定数,En はn番目の要約区間におけるユニークなイベントの数(イベントの種類),Dn はn番目の要約区間におけるフレーム間画像差分の平均値,Ln はn番目の要約区間の時間長,dは短縮率である。
本ステップにおいては,Dn の値としてフレーム間画像差分の値でなく,局所と大域ヒストグラムの差分値か,あるいは,局所と大域ヒストグラムの差分値またはフレーム間画像差分の値を所定の時間窓でもって平滑化処理を施した値を用いてもよい。また,En の値として,所定の時間長さにおけるイベントの生起密度か,あるいは,イベントの変化回数を用いてもよい。
ここで,局所と大域ヒストグラムの差分値とは,次のような情報である。今,ヒストグラムをRGBのカラーヒストグラムであるとすれば,大域ヒストグラムとは,例えばフレーム画像1枚から生成されるRGBの画素値の平均値からなるヒストグラムであり,局所ヒストグラムとは,例えばステップS133の説明で述べたジャンクフレームの判別アルゴリズムで用いたような,1枚のフレーム画像を複数の領域に分割(k×kのグリッドで分割するなど)した際の,分割された各領域から生成されたヒストグラムである。局所と大域ヒストグラムの差分値とは,これらのヒストグラムの差分値をいう。
また,En の値として用いることができるイベントの生起密度は,例えば次のようにして算出される値である。まず,フレーム単位イベント情報によって得られるイベントの生起確率に対して閾値処理を施し,連続したフレームにおいて所定の閾値以上の生起確率を呈したイベントの回数を,イベントの種類ごとにカウントし,そのカウントされた回数を単位時間当たりの値に正規化した値を算出し,これをイベントの生起密度とする。
また,En の値として用いることができるイベントの変化回数は,前述したイベントの種類ごとにカウントする処理で,当該ショットにおいてイベントが何回変化したかをカウントし,これを同様に単位時間当たりの値に正規化した値を算出し,これをイベント変化回数とする。
以上の(式1)(式2)で用いているパラメータPsn ,Pcn には,負の値を用いてもよい。また,(式1)(式2)の例に限らず,要約区間長に比例し,かつ,要約区間のイベントおよびフレーム間画像差分に反比例する関数を任意に定めてよい。
初期化ステップS156では,要約区間と区間再生速度の初期値を求める。区間再生速度の初期値は1.0(通常の再生速度)とする。初期の要約区間は,フレーム単位イベント情報に基づいて,所定の値を閾値として設定し,当該閾値を上回る区間を全て抽出し,これを初期の要約区間とする。すなわち,ショットについては,ジャンクショットや重複テイクを排除した後,連続フレーム区間を一つずつに数え,各ショットとする。初期の要約区間は,このショットのうち,ある閾値以上となる部分を抽出し,連続フレーム区間ごとに各要約区間とする。このとき,要約区間の時間長が所定の時間長となるように,あるいは,一つの要約区間の終了時刻と前記要約区間の一つ後方に隣接する要約区間の開始時刻との差が所定の時間となるように,フレーム単位イベント情報に対して平滑化処理を施した後,要約区間の抽出を行ってもよい。また,(式2)のEn の値を正規分布であると仮定し,確率値の低い区間をカットする方法によって要約区間を決定してよい。
次に,各要約区間nについて,ステップS157〜S159をn=1からn=Nまで適応し,それをステップS158の条件が満たされるまで繰り返す。
要約区間および区間再生速度更新ステップS157では,全ての要約区間に対し,ステップS159で更新したパラメータを適用し,次の式により要約区間と区間再生速度を更新する。
n =Ln −cn
n =Sn +sn …(式3)
ただし,Ln は第n番目の要約区間の時間長,Sn は第n番目の要約区間の区間再生速度,cn とsn はそれぞれ要約区間の更新分の長さと区間再生速度の更新分の速度の大きさである。ステップS159が一度も実行されていない初期の段階では,要約区間と区間再生速度は,初期化ステップS156で算出した初期値とし,cn ,sn =0である。
コンテンツ長さ評価ステップS158では,要約区間および区間再生速度更新ステップS157により決定された要約区間のそれぞれの時間長と,それぞれの区間再生速度に基づいて,要約コンテンツの総時間長を求め,これを元の素材映像の時間長の比が所定の短縮率を満足するかを算出しながら,要約区間と区間再生速度を決定する。短縮率を満たすかどうかについては,例えば,以下の評価式を用いることができる。
Σn-1 N {Ln ×(1/Sn )}/Lorg ≦d …(式4)
ただし,nは要約区間に対する添え字,Ln は第n番目のショットの長さ,Sn は第n番目のショットの区間再生速度,Lorg は元の素材映像の総時間長,dは短縮率である。
パラメータ更新ステップS159では,コンテンツ長さ評価ステップS158の評価の結果,(式4)を満たさない場合,要約コンテンツが所定の短縮率に至っていないとし,要約区間と区間再生速度を以下の式に基づいて更新する。
Δcn =Pcn ×Ln , Δsn =Psn ×Ln
n+1 =cn +Δcn , sn+1 =sn +Δsn …(式5)
ただし,nは要約区間に対する添え字,Pcn とPsn はそれぞれ(式1)と(式2)で算出した要約区間と区間再生速度に与えるパラメータ,Ln は現時点での要約区間の時間長,cn とsn はそれぞれ要約区間の長さと区間再生速度の更新用パラメータである。本ステップでは,所定の量を超えた更新パラメータcn とsn とならないよう,cn とsn の値の大きさか,あるいはステップS159の累積実行回数に応じて,Δcn およびΔsn を0とするか,あるいは所定の大きさを与えるなどしてもよい。また,
n =w1 ×cn1+w2 ×cn2,where w1 +w2 =1 …(式6)
とし,(式3)において要約区間の長さを決定する際,n番目の要約区間の前半からcn1,n番目の要約区間の後半からcn2だけ長さを更新することもできる。
以上のように,本実施の形態では,(式1)および(式2)で算出したパラメータを用いて,要約区間の更新に関わるパラメータcn ,sn を決めることにより,ステップS157からS159のループでもって,要約区間の長さとその速度をインクリメンタルに更新していくところが特徴となっている。このような方法を用いることにより,「イベントの少ないショット」ほど,また「動きの量が少ないショット」ほど,要約区間が早送りになり,しかも短くカットされていくことになり,適切な要約区間の長さと再生速度が決定されることになる。
ダイジェスト映像生成ステップS16では,再生制御情報記憶部34から再生制御情報を入力し,一時記憶部から素材映像を入力し,前記再生制御情報に基づいて区間と当該区間の再生速度となるように,要約コンテンツを生成し,一時記憶部に出力する。再生制御情報として得られた要約区間と区間再生速度に従って,ダイジェスト映像(要約コンテンツ)を生成する処理は,どのような方法を用いてもよい。簡単な方法としては,区間再生速度に応じて要約区間内のフレームを間引く方法を用いることができる。音声についても区間再生速度に合うように再サンプルを行い,早送り映像を作ることができる。
上記の全てのステップの実行により,素材映像から,複数の要約区間とその各区間の区間再生速度が適切に設定された要約コンテンツを生成することができる。
以上の要約コンテンツ生成の処理は,コンピュータとソフトウェアプログラムとによって実現することができ,そのプログラムをコンピュータ読み取り可能な記録媒体に記録して提供することも,ネットワークを通して提供することも可能である。
本発明の構成例を示す図である。 実施例における装置構成図である。 実施例における処理の全体フローチャートである。 前処理(S12)の詳細フローチャートである。 冗長部分除外処理(S13)の詳細フローチャートである。 イベント検出処理(S14)の詳細フローチャートである。 要約区間および区間再生速度決定処理(S15)の詳細フローチャートである。
符号の説明
1 要約コンテンツ生成装置
10 プログラムメモリ
11 入力部
12 映像信号解析処理部
13 要約処理部
20 CPU
30 データメモリ
31 フレーム間画像差分記憶部
32 イベント情報記憶部
33 ショット情報記憶部
34 再生制御情報記憶部
35 ヒストグラム記憶部
40 バス
121 フレーム間画像差分算出部
122 ショット分割部
123 カラーヒストグラム算出部
124 ジャンクショット除外処理部
125 重複テイク除外処理部
131 イベント検出部
132 要約区間および区間再生速度決定部
133 ダイジェスト映像生成部

Claims (4)

  1. 映像コンテンツ中に含まれる画像信号および音声信号を解析し,要約コンテンツを生成する要約コンテンツ生成装置において,
    要約対象の映像コンテンツ中に含まれる画像信号と音声信号とを解析し,それぞれ連続したフレーム列からなる映像区間のショットに分割する映像信号解析手段と,
    前記映像信号解析手段により得られた各ショットごとに,映像の各フレームから得られる画像または音声の特徴を表す値が所定の閾値以上となるものをイベントとして検出するイベント検出手段と,
    前記イベント検出手段により検出されたイベントに基づいて,イベントが少ないほど,またはさらにフレーム間の画像変化が少ないほど,前記ショットから抽出される要約区間が速い速度で再生されるように要約区間ごとの再生速度を決定し,さらに前記イベントが少ないほど前記要約区間が短くなり,前記要約区間の全長が元の映像コンテンツに対し所定の割合の時間長となるように各要約区間の長さを決定する要約区間・区間再生速度決定手段と,
    前記要約区間・区間再生速度決定手段により決定された再生速度に基づいて,前記映像コンテンツから,前記各要約区間ごとの再生速度に適合する要約コンテンツを生成するダイジェスト映像生成手段とを備える
    ことを特徴とする要約コンテンツ生成装置。
  2. 請求項1記載の要約コンテンツ生成装置において,
    前記映像信号解析手段は,
    前記映像コンテンツにおける隣接するフレーム間画像の差分を算出する手段と,
    前記映像コンテンツにおける各フレームの画素値のヒストグラムを算出する手段と,
    前記フレーム間画像の差分または前記ヒストグラムに基づいて,前記各ショットからジャンクショットまたは同一もしくは類似するフレーム列からなる重複テイクを検出し,それらのフレームが要約コンテンツに含まれないように除外する手段とを備える
    ことを特徴とする要約コンテンツ生成装置。
  3. 請求項1または請求項2記載の要約コンテンツ生成装置において,
    前記イベント検出手段は,
    前記映像コンテンツの映像を撮影したカメラが操作されているカメラワーク区間を検出する手段と,
    前記映像コンテンツの映像中から動物体がアップで表示されている動物体アップショット区間を検出する手段と,
    前記映像コンテンツの音声トラックから音声が強調されている音声強調区間を検出する手段と,
    前記映像コンテンツの映像中から人物の顔画像が含まれている部分を顔区間として検出する手段の少なくともいずれか複数を有し,
    前記カメラワーク区間の検出結果,前記動物体アップショット区間の検出結果,前記音声強調区間の検出結果または前記顔区間の検出結果を,前記画像または音声の特徴を表す値としてイベントを検出する
    ことを特徴とする要約コンテンツ生成装置。
  4. コンピュータを,請求項1から請求項までのいずれか1項に記載の要約コンテンツ生成装置が備える前記各手段として機能させるための要約コンテンツ生成プログラム。
JP2008203712A 2008-08-07 2008-08-07 要約コンテンツ生成装置および要約コンテンツ生成プログラム Expired - Fee Related JP5096259B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008203712A JP5096259B2 (ja) 2008-08-07 2008-08-07 要約コンテンツ生成装置および要約コンテンツ生成プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008203712A JP5096259B2 (ja) 2008-08-07 2008-08-07 要約コンテンツ生成装置および要約コンテンツ生成プログラム

Publications (2)

Publication Number Publication Date
JP2010039877A JP2010039877A (ja) 2010-02-18
JP5096259B2 true JP5096259B2 (ja) 2012-12-12

Family

ID=42012334

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008203712A Expired - Fee Related JP5096259B2 (ja) 2008-08-07 2008-08-07 要約コンテンツ生成装置および要約コンテンツ生成プログラム

Country Status (1)

Country Link
JP (1) JP5096259B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6747158B2 (ja) 2016-08-09 2020-08-26 ソニー株式会社 マルチカメラシステム、カメラ、カメラの処理方法、確認装置および確認装置の処理方法
CN108307229B (zh) * 2018-02-02 2023-12-22 新华智云科技有限公司 一种影音数据的处理方法及设备
JP6465328B1 (ja) * 2018-06-08 2019-02-06 クックパッド株式会社 情報処理システム、情報処理装置、情報処理方法及びプログラム
JP2019212277A (ja) * 2018-12-21 2019-12-12 クックパッド株式会社 情報処理システム、情報処理装置、情報処理方法及びプログラム
JP7218198B2 (ja) * 2019-02-08 2023-02-06 キヤノン株式会社 動画再生装置、動画再生方法及びプログラム
KR102652647B1 (ko) * 2019-10-25 2024-04-01 주식회사 케이티 주요 장면 이벤트를 검출하여 타임 슬라이스 영상을 생성하는 서버, 방법 및 컴퓨터 프로그램

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3240871B2 (ja) * 1995-03-07 2001-12-25 松下電器産業株式会社 映像要約方法
KR100763899B1 (ko) * 2004-02-20 2007-10-05 삼성전자주식회사 앵커 샷 검출 방법 및 장치
JP4496992B2 (ja) * 2005-03-02 2010-07-07 日本電信電話株式会社 動物体アップフレーム検出方法及びプログラム及びプログラムを格納した記憶媒体及び動物体アップショット検出方法及び動物体アップフレームあるいはショット検出方法及びプログラム及びプログラムを格納した記憶媒体

Also Published As

Publication number Publication date
JP2010039877A (ja) 2010-02-18

Similar Documents

Publication Publication Date Title
US7796860B2 (en) Method and system for playing back videos at speeds adapted to content
KR100957902B1 (ko) 영상 요약 장치
KR100564893B1 (ko) 프레임정보 기술방법 및 그 장치, 프레임정보 생성방법 및 그 장치, 특수재생방법 및 그 장치, 특수재생 제어정보 생성장치 및 컴퓨터 독출가능한 기록매체
EP1081960B1 (en) Signal processing method and video/voice processing device
US8195038B2 (en) Brief and high-interest video summary generation
JP4778231B2 (ja) ビデオシーケンスに対してインデックス付けするシステムおよび方法
US8233769B2 (en) Content data processing device, content data processing method, program, and recording/ playing device
US8873861B2 (en) Video processing apparatus and method
US11438510B2 (en) System and method for editing video contents automatically technical field
US20110267544A1 (en) Near-lossless video summarization
JP5096259B2 (ja) 要約コンテンツ生成装置および要約コンテンツ生成プログラム
JP4253139B2 (ja) フレーム情報記述方法、フレーム情報生成装置及び方法、映像再生装置及び方法並びに記録媒体
JP2007060392A (ja) 画像記憶装置及び方法
JP4924447B2 (ja) シーン切り替わり点検出器、シーン切り替わり点検出方法、記録装置、イベント生成器、イベント生成方法および再生装置
CN113347489B (zh) 视频片段检测方法、装置、设备及存储介质
JPH11265396A (ja) 音楽映像分類方法、装置および音楽映像分類プログラムを記録した記録媒体
JP4032122B2 (ja) 映像編集装置、映像編集プログラム、記録媒体、および映像編集方法
JP5070179B2 (ja) シーン類似判定装置、そのプログラム及びサマリ映像生成システム
JP3838483B2 (ja) オーディオ概要情報、オーディオビデオ概要情報の抽出装置、再生装置、および記録媒体
JP2005252372A (ja) ダイジェスト映像作成装置及びダイジェスト映像作成方法
JP2000175149A (ja) 映像検出装置、及び要約映像生成装置
JP5129198B2 (ja) 映像予告生成装置、映像予告生成方法および映像予告生成プログラム
Lehane et al. Dialogue scene detection in movies using low and mid-level visual features
KR102361811B1 (ko) 비디오 컨텐츠 자동 편집 시스템 및 자동 편집 방법
JP2005252859A (ja) 動画像データのシーン分割装置

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100331

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100720

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120702

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120710

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120821

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120918

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120920

R150 Certificate of patent or registration of utility model

Ref document number: 5096259

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150928

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees