JP2004194197A - Device, method and program for detecting scene change - Google Patents
Device, method and program for detecting scene change Download PDFInfo
- Publication number
- JP2004194197A JP2004194197A JP2002362383A JP2002362383A JP2004194197A JP 2004194197 A JP2004194197 A JP 2004194197A JP 2002362383 A JP2002362383 A JP 2002362383A JP 2002362383 A JP2002362383 A JP 2002362383A JP 2004194197 A JP2004194197 A JP 2004194197A
- Authority
- JP
- Japan
- Prior art keywords
- scene change
- still image
- pattern
- moving image
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Television Signal Processing For Recording (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、動画のシーンチェンジ検出装置、シーンチェンジ検出方法、及びプログラムに関し、特に、人間の主観(感性)に即した注目領域のパターンを用い、動画のシーンの変化(シーンチェンジ)を検出し、シーンチェンジした静止画を抽出することができる、シーンチェンジ検出装置、シーンチェンジ検出方法、及びプログラムに関する。
【0002】
【従来の技術】
近時、インターネットやDVDビデオなど様々な分野で、動画情報(本明細書では、単に「動画」ともいう)をコンピューターで扱う機会が増えている。また、現在では、パーソナルコンピュータ上でのビデオ編集が可能になり、簡単に動画の作成も行えるようになってきた。
このような動画については、利用者が興味を持つ目的のシーンだけを見たい場合もある。このような場合に、動画を順次再生しながら目的のシーンを見つける方法では、煩雑で時間がかかり、特に、長時間の動画の場合に問題となる。そこで、動画中のシーンチェンジの検出を行い、シーンチェンジのあったフレームだけを表示し、目的のシーンを効率的に探すためのツールが幾つか提供されている。
【0003】
このような、従来のシーンチェンジ検出方法としては、例えば、以下に示す方法がある。
(1)画像の符号量の変化に基づいてシーンの変化を検出する方法
(2)画像の色相、再度、明度の特徴量の変化に基づいてシーンの変化を検出する方法
【0004】
上述した(1)の方法としては、例えば、特許文献1「画像データ符号化方法、その方法を用いた画像データ符号化装置、画像データ復元方法、その方法を用いた画像データ復元装置、シーン変化検出方法、その方法を用いたシーン変化検出装置」に開示された発明がある。
特許文献1の発明では、一連の動画像データに含まれるシーン変化のフレームを自動的に抽出(検出)し、動画像データをシーン変化のフレーム(変化フレーム)とそれ以外の通常フレームに識別する。そして、変化フレームの検出条件として、連続するフレーム間の符号量の差か、連続するフレーム間の符号量の変化率の差を使用する。
【0005】
また、(2)の方法としては、例えば、特許文献2「映像特徴処理方法」に開示された発明がある。特許文献2の発明は、映像から自動的に特徴量を取り出し、映像を自動的に分類することを目的とした発明である。
そして、上記の目的を達成するため、映像のかたまりを変換した色相、彩度、明度のいずれか又はそれらの組み合わせからなる情報より、ヒストグラムを計測し、そのヒストグラムから極値等を代表値として取り出して特徴量とする。これにより、特徴量の取り出しを自動的に行えるようにする。また、特徴量の数を次元とする特徴空間に前記の映像のかたまりを展開し、その位置から複数の映像のかたまり相互間の距離を計算し、一定距離内の前記映像のかたまり同志をクラスタリングすることにより、それら映像のかたまりを自動的に分類可能とする。それとともに、そのクラスタリング条件パラメータによって映像全体の記述を可能にしている。
【0006】
しかしながら、(1)、(2)の何れの方法にしても、画像の符号量や色情報などの物理的な特徴量の変化を検出する機械的な処理になるため、必ずしも人間の主観から見たシーンチェンジの検出が行われているとは言い難く、人間の主観(感性)を主体としたシーンチェンジの検出装置の提供が望まれていた。
【0007】
【特許文献1】
特開平6−133305号公報
【特許文献2】
特開平6−251147号公報
【0008】
【発明が解決しようとする課題】
本発明はこのような問題を解決するためになされたもので、その目的は、シーンチェンジの検出を物理的な特徴量を用いて機械的に処理するのではなく、人間の主観(感性)に即して、動画のシーンチェンジを検出し、シーンチェンジした静止画を抽出することのできる、シーンチェンジ検出装置、シーンチェンジ検出方法、及びプログラムを提供することにある。
【0009】
【課題を解決するための手段】
本発明は上記課題を解決するためになされたものであり、本発明のシーンチェンジ検出装置は、動画のシーンチェンジを検出するシーンチェンジ検出装置であって、対象となる動画から、所定のルールに基づき、静止画を切り出すための静止画生成手段と、前記切り出した静止画の注目領域のパターンを算出するための注目領域算出手段と、前記切り出した静止画間の注目領域のパターンを比較し、シーンチェンジを検出するためのパターン識別手段とを具備することを特徴とする。
このような構成によれば、前記静止画生成手段が、シーンチェンジ検出の検出対象となる動画から、所定のルールに基づき、例えば、所定のフレーム間隔ごとに静止画を切り出す。また、前記注目領域算出手段が、前記切り出した静止画の注目領域のパターンを算出する。そして、前記パターン識別手段により、前記切り出した静止画間の注目領域のパターンを比較し、変化が大きい場合は、シーンチェンジした静止画として抽出する。これにより、動画からシーンチェンジした静止画を検出(抽出)する場合に、より人間の主観に適合したシーンチェンジ画面を抽出することができる。
【0010】
また、本発明のシーンチェンジ検出装置は、前記パターン識別手段により、シーンチェンジの検出を行う際には、直前にシーンチェンジしたとして抽出された静止画の注目領域のパターンと、新たに切り出した静止画の注目領域のパターンを比較することを特徴とする。
このような構成によれば、パターン識別手段により、シーンチェンジの検出を行う際には、直前に切り出された静止画ではなく、直前にシーンチェンジしたとして抽出された静止画を使用する。そして、この直前にシーンチェンジしたとして抽出された静止画の注目領域のパターンと、新たに切り出した静止画の注目領域のパターンを比較する。これにより、人間の主観に適合したシーンチェンジ画面を抽出することができると共に、シーンチェンジの検出処理を効率的に行うことができる。
【0011】
また、本発明のシーンチェンジ検出装置は、シーンチェンジしたとして抽出された静止画に、該静止画の動画中の位置を関連づけるための動画リンク手段をさらに具備することを特徴とする。
このような構成によれば、前記動画リンク手段が、シーンチェンジしたとして抽出された静止画に、該静止画の動画中の位置を関連づけるための動画リンク情報を付与してデータベースに記録する。そして、シーンチェンジした静止画を選択すると、該静止画の動画リンク情報を基に、当該静止画から後の動画が再生される。これにより、目的のシーンを選択し、そこから動画を再生することができる。
【0012】
また、本発明のシーンチェンジ検出装置は、対象となる動画から静止画を切り出す際のルールとして、全画像、所定のフレーム間隔ごと、または所定の時間ごとに切り出すことを指定することを特徴とする。
このような構成によれば、動画から静止画を切り出す場合、全部のフレームの画像を選択するか、所定のフレーム間隔(例えば、100フレーム)ごとに選択するか、所定の時間(例えば、0.1秒)ごとに選択するかを、利用者の選択により設定できる。これにより、シーンチェンジの検出処理の条件を、動画の種類や、内容を把握したい程度や、利用者の好みなどに応じて、設定することができる。
【0013】
また、本発明のシーンチェンジ検出方法は、動画のシーンチェンジを検出するシーンチェンジ検出装置におけるシーンチェンジ検出方法であって、対象となる動画から、所定のルールに基づき、静止画を切り出すための静止画生成手順と、前記切り出した静止画の注目領域のパターンを算出するための注目領域算出手順と、前記切り出した静止画間の注目領域のパターンを比較し、シーンチェンジを検出するためのパターン識別手順とを含むことを特徴とする。
このような手順によれば、前記静止画生成手順により、シーンチェンジ検出の検出対象となる動画から、所定のルールに基づき、例えば、所定のフレーム間隔ごとに静止画が切り出される。また、前記注目領域算出手順により、前記切り出した静止画の注目領域のパターンが算出される。そして、前記パターン識別手順により、前記切り出した静止画間の注目領域のパターンが比較され、変化が大きい場合は、シーンチェンジした静止画として抽出される。これにより、動画からシーンチェンジした静止画を抽出する場合に、より人間の主観に適合したシーンチェンジ画面を抽出することができる。
【0014】
また、本発明のコンピュータプログラムは、動画のシーンチェンジを検出するシーンチェンジ検出装置内のコンピュータに、対象となる動画から、所定のルールに基づき、静止画を切り出すための静止画生成手順と、前記切り出した静止画の注目領域のパターンを算出するための注目領域算出手順と、前記切り出した静止画間の注目領域のパターンを比較し、シーンチェンジを検出するためのパターン識別手順とを実行させるためのプログラムである。
【0015】
【発明の実施の形態】
次に本発明の実施の形態例について図面を参照して説明する。
【0016】
図1は、本発明のシーンチェンジ検出装置100が備える手段の構成例を示す図である。図1に示すシーンチェンジ検出装置100に設けられた各手段は、以下の処理を行う。
・シーン検出条件入力手段101は、動画から静止画を切り出す条件や、シーンチェンジ検出条件を設定するための手段である。例えば、動画の中から静止画を切り出する条件(ルール)として、静止画を切り出す対象となる動画の指定、静止画を切り出すフレーム間隔または時間間隔、再生時間の期間(シーンチェンジ検出を行う対象時間)など指定するための手段である。なお、必要に応じて、シーンチェンジ検出(抽出)画面の枚数(例えば、300枚など)、または、シーンチェンジ検出画像の再生時間の長さ(例えば、30フレーム/秒の再生速度で10秒間など)を指定するようにもできる。
・動画読取手段102は、シーンチェンジ検出の対象となる動画を読み取るための手段である。
・静止画生成手段103は、入力された動画から静止画を生成する(切り出す)ための手段である。
【0017】
・注目領域算出手段104は、注目領域を算出するための手段である。画像内を複数の領域に分割し、分割した領域ごとに、注目度の程度を2段階以上に区分けする。この注目領域の算出には、例えば、「特開2001−126070号公報(注目領域抽出装置およびそれを用いた自動構図決定装置)」に開示された「誘目度」を使用することができる。なお、この誘目度については、後述する「誘目度についての補足説明」の項目で、その概要について説明する。
【0018】
・パターン識別手段105は、切り出した静止画間で、注目領域(誘目度)のパターンがどの程度変化したかを識別(比較)するための手段である。誘目度のパターンの変化が大きい場合は、シーンチェンジした画面として選択され、データベース111に記録される。なお、パターン識別手段105におけるシーンチェンジ検出方法については後述する。
・静止画選択手段106は、ユーザが望むシーンから動画を再生するために、シーンチェンジした静止画を選択するための手段である。例えば、あるシーンチェンジを示す静止画を選択すると、その静止画から後の動画が再生される。
・動画リンク手段107は、動画中の静止画(シーンチェンジを示すものとして抽出された静止画)が切り取られた部分に関する情報(フレームや再生位置など)を、「動画リンク情報」として、データベース111に記録するための手段である。
・動画再生手段108は、指定された個所から動画を再生するための手段である。
・印刷手段109は、選択した静止画を印刷するための手段である。
・表示手段110は、動画、静止画を表示するための手段である。
なお、データベース111には、シーンチェンジ検出を行う対象となる動画111a、シーンチェンジしたとして抽出された静止画111bと、該静止画111bの動画リンク情報111cなどが記録される。
【0019】
また、図2は、注目領域算出手段104により、誘目度のパターンを算出する例を示す図であり、注目度として「誘目度」を使用し、誘目度のパターンを算出した例を示す図である。図2(a)は、人物11が左端に配置されている画像10の例を模式的に示した図であり、図2(b)は、図2(a)の画像に対応する誘目度のパターンを模式的に示した図である。図2(b)に示す誘目度のパターン画面20中で、誘目度は領域Aが最も高く算出され、領域B、領域Cがこの順に低く算出されている。
また、図3は、誘目度のパターンの他の算出例を示す図である。図3(a)は花31が右端に配置されている画像30の例を模式的に示した図であり、図3(b)は、図3(a)に対応する誘目度のパターンを模式的に示した図である。図3(b)に示す誘目度のパターン画面40中で、誘目度は領域Aが最も高く算出され、領域B、領域Cがこの順に低く算出されている。
【0020】
次に、パターン識別手段105により、シーンチェンジの検出を行う手法について説明する。本発明では、誘目度のパターンが閾値以上に変化していれば、シーンが変化していると考える。
(1)まず、誘目度のパターン変化を式(1)を用いて定義する。
【数1】
ここで、
n::画像の画素数
Xi:以前にシーンチェンジと見なした静止画の、画素iの誘目度
ti:新たに切り出した静止画の、画素iにおける誘目度
ωi:重み係数(=1)
なお、重み係数ωiは、本例では‘1’を使用しているが、ユーザの好みや経験値により異なる値とすることができる。
【0021】
なお、式(1)を適用するに先立って、必要に応じて、次のように誘目度の値を正規化する。あるいは、必要に応じて、通常よく用いるように標準偏差により正規化するようにしてもよい。
【数2】
(2)そして、式(1)の値が予め設定した閾値以上に大きくなれば、シーンチェンジがあったと見なす。
【0022】
例えば、図4は、シーンチェンジ検出が行われない場合の例を示す図であり、図4において、51は直前にシーンチェンジしたとして選択された静止画、52は静止画51の誘目度パターンを示している。また、61は新たに切り出された静止画、62は静止画61の誘目度パターンを示している。
図4に示す例において、誘目度パターン52と誘目度パターン53とを比較すると、その変化は少なく、シーンチェンジはないと見なされる。
【0023】
また、図5は、シーンチェンジが行われる例を示す図であり、図5おいて、71は直前にシーンチェンジしたとして選択された静止画、72は静止画71の誘目度パターンを示している。81は新たに切り出された静止画、82は静止画81の誘目度パターンを示している。
図5に示す例において、誘目度パターン72と誘目度パターン82とを比較すると、その変化は大きく、その差は所定の閾値以上となり、シーンチェンジしたと見なされ、静止画81が新たにシーンチェンジした静止画として抽出される。
【0024】
このようにして、本発明のシーンチェンジ検出装置では、動画から静止画を切り取り、注目領域(誘目度)の二次元分布のパターンを検出、パターンが閾値以上に変化した場合、シーンが変化したとして静止画を抽出するものである。
【0025】
また、図6は、動画から静止画を切り出す方法を説明するための図である。図6に示す例では、動画の再生時間の期間T中に含まれる「フレーム−1〜フレーム−n」の各フレームの全部を「静止画−1〜静止画−n」として切り出した例を示している。静止画の切り出し方法は、その他に、所定のフレーム間隔ごと(例えば、10フレームごと)に切り出すことができ、また、所定の時間間隔ごと(例えば、0.1秒ごと)に切り出すこともできる。
【0026】
また、図7は、切り出した静止画を選択し、動画を再生する方法を説明するための図である。図7に示す例では、シーンチェンジが検出され抽出された静止画が、静止画−1と静止画−nであり、各静止画にはフレームと再生開始時間(動画中の再生開始位置)の情報が、動画リンク情報として付与されて記録される。従って、例えば、静止画1を選択すると、再生開始時間−aから動画を再生するようにできる。同様に、静止画nを選択すると、再生開始時間−bから動画を再生するようにできる。
【0027】
また、図8は、シーンチェンジを検出する処理手順を示すフローチャートである。
(1)ステップS1:シーン検出条件入力手段101により指定された動画を、動画読取手段102により読み込む。
(2)ステップS2:静止画生成手段103により、指定された時間間隔で動画中のフレームを選び、静止画を切り出す。
(3)ステップS3:注目領域算出手段104により、静止画の誘目度のパターンを算出する。
(4)ステップS4:パターン識別手段105により、誘目度のパターン変化の度合いを算出する。
(5)ステップS5:誘目度のパターン変化の度合いと閾値とを比較する。
(6)ステップS6:誘目度が閾値よりも変化している場合は、シーンチェンジを示す静止画として抽出する。
(7)ステップS7:対象とした動画の処理が全て終了したかどうかを判定する。
(8)ステップS8:表示手段110により、抽出した静止画を表示する。または、印刷手段109により印刷する。
(9)ステップS9:静止画選択手段106により、シーンチェンジしたとして抽出された静止画を選択し、該静止画の動画リンク情報を基に再生位置を決め、動画再生手段108により動画の再生を行う。
以上手順により、動画のシーンチェンジの検出と再生を行うことができる。
【0028】
また、図9は、シーンチェンジ検出装置の構成例を示すブロック図であり、本発明に直接関係する部分についてのみ示したものである。図9において、100はシーンチェンジ検出装置、1はインターネット網などの通信ネットワーク、112はシーンチェンジ検出装置100と通信ネットワーク1とを接続する通信用インタフェース、113はシーンチェンジ検出装置の全体を統括制御する制御部、120は処理プログラム部を示している。なお、シーンチェンジ検出装置100には、PC(パーソナルコンピュータ)を使用してもよい。
【0029】
また、処理プログラム部120には、以下の処理部が含まれる。
・シーン検出条件入力処理部121は、シーンを切り出す対象となる動画の指定や、静止画を切り出すフレーム間隔または時間間隔、再生時間の期間(シーンチェンジ検出を行う対象時間)などを指定するための処理部である。なお、必要に応じて、シーンチェンジ検出画面の枚数(例えば、300枚など)、または、シーンチェンジ検出画像の再生時間の長さ(例えば、30フレーム/秒の再生速度で10秒間など)を指定するようにもできる。
・動画読取処理部122は、シーンチェンジ検出の対象となる動画を読み取るための処理部である。
・静止画生成処理部123は、入力された動画から静止画を生成するための処理部である。
・注目領域算出処理部124は、注目領域を算出するための処理部である。画像内を複数の領域に分割し、分割した領域ごとに、注目度の程度を2段階以上に区分けする。
・パターン識別処理部125は、切り出した静止画間で、注目領域(誘目度)のパターンがどの程度変化したかを識別(比較)するための処理部である。誘目度のパターンの変化が大きい場合は、シーンチェンジした画面として抽出され、データベース111に記録される。
・静止画選択処理部126は、ユーザが望むシーンから動画を再生するために、シーンチェンジした静止画を選択するための手段である。例えば、あるシーンチェンジを示す静止画を選択すると、その静止画から後の動画が再生される。
・動画リンク処理部127は、動画中の静止画が切り取られた部分に関する情報(フレームや再生位置など)を、「動画リンク情報」として、データベース111に記憶するための手段である。
・動画再生処理部128は、指定された個所から動画を再生するための処理部である。
・印刷処理部129は、選択した静止画を印刷するための処理部である。
・表示処理部130は、動画、静止画を表示するための処理部である。
【0030】
なお、この処理プログラム部120は専用のハードウエアにより実現されるものであってもよく、またこの処理プログラム部はメモリおよびCPU(中央処理装置)等の汎用の情報処理装置により構成され、この処理部の機能を実現するためのプログラム(図示せず)をメモリにロードして実行することによりその機能を実現させるものであってもよい。また、このシーンチェンジ検出装置100には、周辺機器として入力装置、表示装置、印刷装置等(いずれも図示せず)が接続されているものとする。ここで、入力装置としては、キーボード、マウス等の入力デバイスのことをいう。表示装置とは、CRT(Cathode Ray Tube)や液晶表示装置等のことをいう。印刷装置とは、レーザープリンタ、インクジェットプリンタ等のことをいう。
【0031】
また、図9に示すシーンチェンジ検出装置100の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより本発明のシーンチェンジ検出装置100に必要な処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)を含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可般媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。
さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの(伝送媒体ないしは伝送波)、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。
また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
【0032】
以上、本発明の実施の形態について説明したが、本発明のシーンチェンジ検出装置は、上述の図示例にのみ限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変更を加え得ることは勿論である。
【0033】
[誘目度についての補足説明]
本発明の実施の形態では、注目領域の抽出基準として「誘目度」を使用しているが、この「誘目度」の算出方法の一例が、「特開2001−126070号公報(注目領域抽出装置およびそれを用いた自動構図決定装置)に詳細に開示されている。
ここでは、その概要についてだけ説明する。
注目領域の抽出のために、原画像の物理的特徴に従って誘目度を評価する。ここで、誘目度とは、人間の主観に合ったパラメータをいう。注目領域の抽出は、評価結果から一番目立つ領域を注目領域として抽出する。つまり、注目領域の評価の際は、物理的特徴に従って人間の主観に合った評価をするので、人間の主観に適合した注目領域を抽出することができる。
例えば、物理的特徴が色の異質度を含む場合、各領域の色の違いに基づいて誘目度を評価することができる。
また、物理的特徴が、色の異質度に加えて、形の異質度、面積の異質度およびテクスチャ(模様)の異質度をさらに含むので、この4つの異質度の少なくとも1つの異質度に基づいて誘目度を評価すれば、原画像の特徴に応じて的確に誘目度を評価することができる。
また、色の3要素(色相、彩度、明度)についても評価する場合であれば、人間の主観による目立つ色(赤色)に近い領域を最も目立つ領域と評価することができる。
さらに、空間周波数や原画像における各領域の面積についても評価すれば、最も目立つ領域の評価をさらに的確に判断することができる。
【0034】
また、誘目度の評価は、以下の手順により行う。
(1)最初に原画像を領域分割する。この場合、原画像を図領域と絵領域に分割する。この領域分割の方法には、1997IEEEにおいてW.Y.MaやB.S.Manjunath らが「Edge Flow:A Framework of Boundary Detection and Image Segmentation」に記載した“edge flow ”に基づく境界検出方法が適用される。
(2)次に、分割した図領域を抽出し、領域の誘目度を評価する。
この誘目度の評価は、概略以下のようにして行う。
・最初に各領域の異質性誘目度を求める。この場合、色の異質度,テクスチャの異質度,形の異質度および面積の異質度を各々求め、それぞれに重み係数を付与して線形結合し、各領域の異質性誘目度を求める。
・次に、各領域における特徴誘目度を求める。この場合、色の誘目度、空間周波数の誘目度、面積の誘目度を求め、それぞれに重み係数を付与して線形結合し、各領域の特徴誘目度を求める。
・次に、各領域の異質性誘目度と特徴誘目度を加算し、特徴量統合値を求め、この特徴量統合値を、所定のベータ関数により評価して、誘目度を算出する。
(3)また、原画像から誘目度を評価したパターン図を生成する。
【図面の簡単な説明】
【図1】シーンチェンジ検出装置が備える手段の構成例を示す図。
【図2】誘目度のパターンを算出する例を示す図。
【図3】誘目度のパターンの他の算出例を示す図。
【図4】シーンチェンジ検出が行われない場合の例を示す図。
【図5】シーンチェンジ検出が行われる場合の例を示す図。
【図6】動画から静止画を切り出す方法を示す図。
【図7】切り出した静止画から動画を再生する方法を示す図。
【図8】シーンチェンジ検出装置の処理手順を示す図。
【図9】シーンチェンジ検出装置の構成例を示すブロック図。
【符号の説明】
100 シーンチェンジ検出装置、 101 シーン検出条件入力手段
102 動画読取手段 、 103 静止画生成手段
104 注目領域算出手段、 105 パターン識別手段
106 静止画選択手段、 107 動画リンク手段
108 動画再生手段、 109 印刷手段、 110 表示手段[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a moving image scene change detecting device, a scene change detecting method, and a program, and more particularly, to detecting a change in a moving image scene (scene change) using a pattern of a region of interest according to human subjectivity (sensitivity). The present invention relates to a scene change detection device, a scene change detection method, and a program that can extract a scene-changed still image.
[0002]
[Prior art]
2. Description of the Related Art Recently, in various fields such as the Internet and DVD video, the opportunity to handle moving image information (hereinafter, also simply referred to as “moving image”) on a computer has been increasing. At present, video editing on a personal computer has become possible, and moving images can be easily created.
For such a moving image, there are cases where the user wants to see only the intended scene in which the user is interested. In such a case, the method of finding a target scene while sequentially reproducing moving images is cumbersome and time-consuming, and is particularly problematic for long-time moving images. Therefore, there are provided some tools for detecting a scene change in a moving image, displaying only a frame where a scene change has occurred, and efficiently searching for a target scene.
[0003]
Such a conventional scene change detection method includes, for example, the following method.
(1) A method for detecting a change in a scene based on a change in a code amount of an image (2) A method for detecting a change in a scene based on a change in a feature amount of a hue and a brightness of an image again
As the method (1) described above, for example,
In the invention of
[0005]
As the method (2), for example, there is an invention disclosed in Patent Document 2 “Video feature processing method”. The invention of Patent Literature 2 is an invention for automatically extracting a feature amount from a video and automatically classifying the video.
Then, in order to achieve the above object, a histogram is measured from information including any one of hue, saturation, and lightness obtained by converting a block of video, or a combination thereof, and an extreme value or the like is extracted from the histogram as a representative value. As the feature value. Thus, the feature amount can be automatically extracted. In addition, the above image cluster is developed in a feature space having the number of feature amounts as a dimension, a distance between a plurality of image clusters is calculated from the position, and clusters of the image clusters within a certain distance are clustered. This makes it possible to automatically classify the cluster of these images. At the same time, the entire video can be described by the clustering condition parameters.
[0006]
However, any of the methods (1) and (2) is a mechanical process for detecting a change in a physical feature amount such as a code amount and color information of an image. It is hard to say that a scene change has been detected, and it has been desired to provide a scene change detection device mainly based on human subjectivity (sensitivity).
[0007]
[Patent Document 1]
JP-A-6-133305 [Patent Document 2]
JP-A-6-251147
[Problems to be solved by the invention]
The present invention has been made to solve such a problem, and its purpose is not to mechanically process the detection of a scene change using physical feature values, but to a human subjectivity (sensitivity). Accordingly, it is an object of the present invention to provide a scene change detection device, a scene change detection method, and a program capable of detecting a scene change of a moving image and extracting a scene-changed still image.
[0009]
[Means for Solving the Problems]
The present invention has been made in order to solve the above problems, and a scene change detection device of the present invention is a scene change detection device that detects a scene change of a moving image. Based on the still image generation means for cutting out a still image, the attention area calculation means for calculating the pattern of the attention area of the cut out still image, and comparing the pattern of the attention area between the cut out still images, Pattern identification means for detecting a scene change.
According to such a configuration, the still image generation unit cuts out still images at predetermined frame intervals, for example, from a moving image to be detected for scene change detection based on a predetermined rule. Further, the attention area calculation means calculates a pattern of the attention area of the cut-out still image. Then, the pattern identification means compares the pattern of the region of interest between the cut-out still images, and if the change is large, extracts as a scene-changed still image. This makes it possible to extract a scene change screen that is more suitable for human subjectivity when detecting (extracting) a still image whose scene has been changed from a moving image.
[0010]
Further, the scene change detection device of the present invention, when detecting a scene change by the pattern identification means, includes a pattern of a region of interest of a still image extracted as a scene change immediately before, and a newly cut still image. It is characterized in that the pattern of the attention area of the image is compared.
According to such a configuration, when a scene change is detected by the pattern identification means, a still image extracted as a scene change immediately before is used instead of a still image cut out immediately before. Then, the pattern of the attention area of the still image extracted as the scene change immediately before this is compared with the pattern of the attention area of the newly cut out still image. Thus, a scene change screen suitable for human subjectivity can be extracted, and the process of detecting a scene change can be performed efficiently.
[0011]
Further, the scene change detecting device of the present invention is characterized by further comprising moving image link means for associating a still image extracted as a scene change with a position in the moving image of the still image.
According to such a configuration, the moving image linking means adds the moving image link information for associating the position of the still image in the moving image to the still image extracted as the scene change, and records it in the database. Then, when a still image whose scene has been changed is selected, a moving image subsequent to the still image is reproduced based on the moving image link information of the still image. As a result, a target scene can be selected, and a moving image can be reproduced therefrom.
[0012]
Further, the scene change detection device of the present invention is characterized in that, as a rule for cutting out a still image from a target moving image, it is specified to cut out all images, at a predetermined frame interval, or at a predetermined time. .
According to such a configuration, when cutting out a still image from a moving image, an image of all frames is selected, a frame is selected at a predetermined frame interval (for example, 100 frames), or a predetermined time (for example, 0. 1 second) can be set by the user. This makes it possible to set the conditions for the scene change detection process according to the type of the moving image, the degree to which the contents are desired to be grasped, and the preference of the user.
[0013]
Further, the scene change detection method of the present invention is a scene change detection method in a scene change detection device for detecting a scene change of a moving image, wherein a still image for cutting out a still image from a target moving image based on a predetermined rule is provided. An image generation procedure, an attention area calculation procedure for calculating a pattern of an attention area of the cut out still image, and a pattern identification for detecting a scene change by comparing the attention area pattern between the cut out still images. And a procedure.
According to such a procedure, a still image is cut out from the moving image to be detected for scene change detection based on a predetermined rule, for example, at predetermined frame intervals, by the still image generation procedure. Further, the pattern of the attention area of the cut-out still image is calculated by the attention area calculation procedure. Then, the pattern of the region of interest between the cut-out still images is compared by the pattern identification procedure, and if the change is large, the still image is extracted as a scene-changed still image. Thus, when extracting a still image whose scene has been changed from a moving image, a scene change screen more suitable for human subjectivity can be extracted.
[0014]
Further, the computer program of the present invention provides a computer in a scene change detection device that detects a scene change of a moving image, a still image generation procedure for cutting out a still image from a target moving image based on a predetermined rule, To execute a region-of-interest calculation procedure for calculating the pattern of the region of interest of the extracted still image, and a pattern identification procedure for detecting a scene change by comparing the pattern of the region of interest between the extracted still images. Program.
[0015]
BEST MODE FOR CARRYING OUT THE INVENTION
Next, embodiments of the present invention will be described with reference to the drawings.
[0016]
FIG. 1 is a diagram showing a configuration example of the means provided in the scene
The scene detection
The moving
The still
[0017]
The attention area calculation means 104 is means for calculating the attention area. The image is divided into a plurality of regions, and the degree of attention is divided into two or more levels for each of the divided regions. For the calculation of the attention area, for example, the “attraction degree” disclosed in “Japanese Patent Application Laid-Open No. 2001-126070 (attention area extraction apparatus and automatic composition determination apparatus using the same)” can be used. In addition, about this attraction degree, the outline | summary is demonstrated in the item of "supplementary explanation about attraction degree" mentioned later.
[0018]
The
The still
The moving
The moving image reproducing means 108 is a means for reproducing a moving image from a specified location.
The
The
The
[0019]
FIG. 2 is a diagram illustrating an example of calculating the pattern of the degree of interest by the attention
FIG. 3 is a diagram illustrating another example of calculating the pattern of the degree of attraction. FIG. 3A is a diagram schematically illustrating an example of an
[0020]
Next, a method of detecting a scene change by the
(1) First, a pattern change of the degree of attraction is defined by using Expression (1).
(Equation 1)
here,
n :: Number of pixels Xi of the image: Attraction degree ti of pixel i of a still image which was previously regarded as a scene change: Attraction degree ωi of pixel i of a newly cut out still image: weight coefficient (= 1)
Although the weighting coefficient ωi uses “1” in this example, it may be different depending on the user's preference or experience value.
[0021]
Prior to applying Equation (1), the value of the degree of attraction is normalized as necessary, as follows. Alternatively, if necessary, the data may be normalized by the standard deviation so as to be often used.
(Equation 2)
(2) If the value of the equation (1) becomes larger than a predetermined threshold value, it is determined that a scene change has occurred.
[0022]
For example, FIG. 4 is a diagram illustrating an example in which scene change detection is not performed. In FIG. 4,
In the example shown in FIG. 4, when the
[0023]
FIG. 5 is a diagram showing an example in which a scene change is performed. In FIG. 5,
In the example shown in FIG. 5, when the
[0024]
In this way, the scene change detection device of the present invention cuts a still image from a moving image, detects a pattern of a two-dimensional distribution of a region of interest (attraction level), and determines that the scene has changed if the pattern has changed to a threshold or more. A still image is extracted.
[0025]
FIG. 6 is a diagram for explaining a method of cutting out a still image from a moving image. In the example illustrated in FIG. 6, an example is shown in which all the frames of “frame-1 to frame-n” included in the moving image playback time period T are cut out as “still image-1 to still image-n”. ing. In addition, the still image can be extracted at a predetermined frame interval (for example, every 10 frames) or at a predetermined time interval (for example, every 0.1 second).
[0026]
FIG. 7 is a diagram for explaining a method of selecting a cut-out still image and playing back a moving image. In the example shown in FIG. 7, the still images from which a scene change is detected and extracted are still image-1 and still image-n, and each still image has a frame and a reproduction start time (reproduction start position in a moving image). Information is added and recorded as moving image link information. Therefore, for example, when the
[0027]
FIG. 8 is a flowchart illustrating a processing procedure for detecting a scene change.
(1) Step S1: The moving image specified by the scene detection
(2) Step S2: The still
(3) Step S3: The attention
(4) Step S4: The
(5) Step S5: The degree of pattern change of the degree of attraction is compared with a threshold.
(6) Step S6: If the degree of attraction changes more than the threshold value, it is extracted as a still image indicating a scene change.
(7) Step S7: It is determined whether or not all the processes of the target moving image have been completed.
(8) Step S8: The extracted still image is displayed by the display means 110. Alternatively, printing is performed by the
(9) Step S9: The still
Through the above procedure, scene change detection and playback of a moving image can be performed.
[0028]
FIG. 9 is a block diagram showing a configuration example of the scene change detection device, and shows only a portion directly related to the present invention. In FIG. 9,
[0029]
Further, the
The scene detection condition input processing unit 121 is used to specify a moving image from which a scene is to be cut out, a frame interval or a time interval from which a still image is cut out, a reproduction time period (a target time for performing scene change detection), and the like. It is a processing unit. If necessary, specify the number of scene change detection screens (for example, 300) or the length of the scene change detection image playback time (for example, 10 seconds at a playback speed of 30 frames / second). You can do it.
The moving image
The still image
The attention area
The pattern
The still image
The moving image
The moving image
The
The
[0030]
Note that the
[0031]
A program for realizing the functions of the scene
The “computer system” includes a homepage providing environment (or a display environment) if a WWW system is used.
The “computer-readable recording medium” refers to a general medium such as a flexible disk, a magneto-optical disk, a ROM, a CD-ROM, and a storage device such as a hard disk built in a computer system.
Further, a “computer-readable recording medium” refers to a communication line for transmitting a program via a network such as the Internet or a communication line such as a telephone line, which dynamically holds the program for a short time. This includes transmission media (transmission media or transmission waves), and those in which programs are held for a certain period of time, such as volatile memories in computer systems serving as servers and clients in that case.
Further, the above-mentioned program may be for realizing a part of the above-mentioned functions, and may be a program for realizing the above-mentioned functions in combination with a program already recorded in a computer system, that is, a so-called difference file (difference file). Program).
[0032]
Although the embodiment of the present invention has been described above, the scene change detecting device of the present invention is not limited to the above-described illustrated example, and various changes can be made without departing from the gist of the present invention. Of course.
[0033]
[Supplementary explanation on the degree of attraction]
In the embodiment of the present invention, “attraction level” is used as a reference for extracting a region of interest. One example of a method of calculating the “attraction level” is disclosed in Japanese Patent Laid-Open No. 2001-126070 (attention region extraction device). And an automatic composition determination device using the same).
Here, only the outline will be described.
To extract a region of interest, the degree of attraction is evaluated according to the physical characteristics of the original image. Here, the degree of attraction means a parameter suitable for human subjectivity. The region of interest is extracted by extracting a region that stands out from the evaluation result as a region of interest. In other words, when the attention area is evaluated, the evaluation is performed in accordance with the human subjectivity according to the physical characteristics, so that the attention area suitable for the human subjectivity can be extracted.
For example, when the physical characteristics include the degree of heterogeneity of color, the degree of attraction can be evaluated based on the difference in color of each region.
In addition, since the physical characteristics further include, in addition to the color heterogeneity, the shape heterogeneity, the area heterogeneity, and the texture (pattern) heterogeneity, the physical heterogeneity is determined based on at least one of the four heterogeneities. By evaluating the degree of eye-catching, the degree of eye-catching can be accurately evaluated according to the characteristics of the original image.
In the case where three color components (hue, saturation, and lightness) are also evaluated, a region close to a prominent color (red) according to human subjectivity can be evaluated as the most prominent region.
Furthermore, by evaluating the spatial frequency and the area of each region in the original image, the evaluation of the most prominent region can be more accurately determined.
[0034]
The evaluation of the degree of attraction is performed according to the following procedure.
(1) First, the original image is divided into regions. In this case, the original image is divided into a drawing area and a picture area. As a method of this area division, a boundary detection method based on “edge flow” described in “Edge Flow: A Framework of Boundary Detection and Image Segmentation” by WYMa and BS Manjunath et al. In 1997 IEEE is applied.
(2) Next, the divided figure region is extracted, and the degree of attraction of the region is evaluated.
The evaluation of the degree of attraction is roughly performed as follows.
First, determine the degree of heterogeneity attraction in each area. In this case, the heterogeneity of color, the heterogeneity of texture, the heterogeneity of shape, and the heterogeneity of area are obtained, and weighting factors are assigned to each of them to perform linear combination, thereby obtaining the heterogeneity attractiveness of each region.
Next, the feature attractiveness in each area is obtained. In this case, the attraction of color, the attraction of spatial frequency, and the attraction of area are obtained, and weighting factors are assigned to each of them to perform linear combination to obtain the characteristic attraction of each region.
Next, the heterogeneous attractiveness and the feature attractiveness of each area are added to obtain a feature integrated value, and the feature integrated value is evaluated by a predetermined beta function to calculate the attractiveness.
(3) Also, a pattern diagram in which the degree of attraction is evaluated is generated from the original image.
[Brief description of the drawings]
FIG. 1 is a diagram showing a configuration example of a means provided in a scene change detection device.
FIG. 2 is a diagram showing an example of calculating an attractiveness degree pattern.
FIG. 3 is a diagram showing another example of calculation of the pattern of the degree of attraction.
FIG. 4 is a diagram showing an example in which scene change detection is not performed.
FIG. 5 is a diagram showing an example of a case where scene change detection is performed.
FIG. 6 is a diagram showing a method of cutting out a still image from a moving image.
FIG. 7 is a diagram showing a method of reproducing a moving image from a cut-out still image.
FIG. 8 is a diagram showing a processing procedure of the scene change detection device.
FIG. 9 is a block diagram illustrating a configuration example of a scene change detection device.
[Explanation of symbols]
REFERENCE SIGNS
Claims (6)
対象となる動画から、所定のルールに基づき、静止画を切り出すための静止画生成手段と、
前記切り出した静止画の注目領域のパターンを算出するための注目領域算出手段と、
前記切り出した静止画間の注目領域のパターンを比較し、シーンチェンジを検出するためのパターン識別手段と
を具備することを特徴とするシーンチェンジ検出装置。A scene change detection device that detects a scene change of a video,
A still image generation unit for extracting a still image from a target moving image based on a predetermined rule;
Attention area calculation means for calculating a pattern of the attention area of the cut-out still image,
A scene change detecting device, comprising: a pattern identification unit for comparing a pattern of a region of interest between the extracted still images and detecting a scene change.
を特徴とする請求項1に記載のシーンチェンジ検出装置。When detecting a scene change by the pattern identification unit, the pattern of the attention area of the still image extracted as the scene change immediately before and the pattern of the attention area of the newly cut still image are compared. The scene change detection device according to claim 1, wherein:
さらに具備することを特徴とする請求項1または請求項2に記載のシーンチェンジ検出装置。3. The scene change detecting device according to claim 1, further comprising a moving image link unit for associating a still image extracted as a scene change with a position in the moving image of the still image.
を特徴とする請求項1から3のいずれかに記載のシーンチェンジ検出装置。4. The rule according to claim 1, wherein a rule for cutting out a still image from a target moving image is specified to cut out all images, at a predetermined frame interval, or at a predetermined time. 5. Scene change detection device.
対象となる動画から、所定のルールに基づき、静止画を切り出すための静止画生成手順と、
前記切り出した静止画の注目領域のパターンを算出するための注目領域算出手順と、
前記切り出した静止画間の注目領域のパターンを比較し、シーンチェンジを検出するためのパターン識別手順と
を含むことを特徴とするシーンチェンジ検出方法。A scene change detection method in a scene change detection device that detects a scene change of a moving image,
A still image generation procedure for cutting out a still image from a target moving image based on a predetermined rule;
An attention area calculation procedure for calculating a pattern of the attention area of the cut-out still image;
A pattern identification procedure for comparing a pattern of a region of interest between the extracted still images and detecting a scene change.
対象となる動画から、所定のルールに基づき、静止画を切り出すための静止画生成手順と、
前記切り出した静止画の注目領域のパターンを算出するための注目領域算出手順と、
前記切り出した静止画間の注目領域のパターンを比較し、シーンチェンジを検出するためのパターン識別手順と
を実行させるためのプログラム。The computer in the scene change detection device that detects the scene change of the video,
A still image generation procedure for cutting out a still image from a target moving image based on a predetermined rule;
An attention area calculation procedure for calculating a pattern of the attention area of the cut-out still image;
A program for comparing the pattern of the region of interest between the extracted still images and performing a pattern identification procedure for detecting a scene change.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002362383A JP2004194197A (en) | 2002-12-13 | 2002-12-13 | Device, method and program for detecting scene change |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002362383A JP2004194197A (en) | 2002-12-13 | 2002-12-13 | Device, method and program for detecting scene change |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004194197A true JP2004194197A (en) | 2004-07-08 |
Family
ID=32760845
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002362383A Withdrawn JP2004194197A (en) | 2002-12-13 | 2002-12-13 | Device, method and program for detecting scene change |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004194197A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009031398A1 (en) * | 2007-09-06 | 2009-03-12 | Mitsubishi Electric Corporation | Similar image discriminating device, chapter judging device, video signal recording device, and image processing device |
-
2002
- 2002-12-13 JP JP2002362383A patent/JP2004194197A/en not_active Withdrawn
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009031398A1 (en) * | 2007-09-06 | 2009-03-12 | Mitsubishi Electric Corporation | Similar image discriminating device, chapter judging device, video signal recording device, and image processing device |
JPWO2009031398A1 (en) * | 2007-09-06 | 2010-12-09 | 三菱電機株式会社 | Similar image determination device, chapter determination device, video signal recording device, and image processing device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7653249B2 (en) | Variance-based event clustering for automatically classifying images | |
US7760956B2 (en) | System and method for producing a page using frames of a video stream | |
US6342904B1 (en) | Creating a slide presentation from full motion video | |
US7643686B2 (en) | Multi-tiered image clustering by event | |
US6546185B1 (en) | System for searching a particular character in a motion picture | |
JP4489120B2 (en) | Reduce artifacts in digital video | |
KR100667663B1 (en) | Image processing apparatus, image processing method and computer readable recording medium which records program therefore | |
CN107430780B (en) | Method for output creation based on video content characteristics | |
EP1555634A1 (en) | Method and apparatus for automatically determining image foreground color | |
JP3690391B2 (en) | Image editing apparatus, image trimming method, and program | |
JP2010244398A (en) | Image processing apparatus and image processing program | |
JP2004199248A (en) | Image layouting device, method and program | |
JP2006079457A (en) | Electronic album display system, electronic album display method, electronic album display program, image classification device, image classification method and image classification program | |
JP4052128B2 (en) | Image trimming apparatus, image trimming method, and program | |
EP2199976B1 (en) | Image processing method, image processing apparatus and image processing program | |
US8218823B2 (en) | Determining main objects using range information | |
JP2006217046A (en) | Video index image generator and generation program | |
JP4348956B2 (en) | Image layout apparatus, image layout method, and program in image layout apparatus | |
JP2021111228A (en) | Learning device, learning method, and program | |
JP2004194197A (en) | Device, method and program for detecting scene change | |
JP3558886B2 (en) | Video processing equipment | |
JP2004192527A (en) | Animation summarizing device, animation summarizing method, and program | |
JP2004192121A (en) | Image retrieval device, image classification method, image retrieval method, and program | |
Jaimes et al. | Discovering recurrent visual semantics in consumer photographs | |
JP5009864B2 (en) | Candidate image display method, apparatus, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050527 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20050530 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20070705 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070710 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070910 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20071113 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20080107 |