JP2004361988A - シーン切替検出システム及びシーン切替検出プログラム、並びにシーン切替検出方法 - Google Patents

シーン切替検出システム及びシーン切替検出プログラム、並びにシーン切替検出方法 Download PDF

Info

Publication number
JP2004361988A
JP2004361988A JP2003155887A JP2003155887A JP2004361988A JP 2004361988 A JP2004361988 A JP 2004361988A JP 2003155887 A JP2003155887 A JP 2003155887A JP 2003155887 A JP2003155887 A JP 2003155887A JP 2004361988 A JP2004361988 A JP 2004361988A
Authority
JP
Japan
Prior art keywords
still image
image
still
feature vector
moving image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003155887A
Other languages
English (en)
Other versions
JP4111065B2 (ja
Inventor
Toshinori Nagahashi
敏則 長橋
Atsuji Nagahara
敦示 永原
Takashi Hiuga
崇 日向
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2003155887A priority Critical patent/JP4111065B2/ja
Publication of JP2004361988A publication Critical patent/JP2004361988A/ja
Application granted granted Critical
Publication of JP4111065B2 publication Critical patent/JP4111065B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】利用者の希望に添ったシーンの切り替わりを検出するのに好適なシーン切替検出システムを提供する。
【解決手段】動画像登録DB10の動画像をフレーム単位に分割して複数の静止画像を生成し、各静止画像ごとにその静止画像から注目領域を抽出し、抽出した注目領域に基づいて各静止画像ごとにその静止画像の特徴ベクトルを生成する。そして、再生時間軸上に連続する複数の静止画像のうち再生時間軸上先頭のものを基準静止画像とし、複数の静止画像のうち基準静止画像以外の各静止画像を比較静止画像として、各比較静止画像ごとに、その比較静止画像の特徴ベクトルと基準静止画像の特徴ベクトルとのベクトル間距離を算出し、算出したベクトル間距離が所定以上となったときは、その比較静止画像の再生時点をシーンの切り替わりとして検出する。
【選択図】 図1

Description

【0001】
【発明の属する技術分野】
本発明は、動画像のなかからシーンの切り替わりを検出するシステムおよびプログラム、並びに方法に係り、特に、利用者の希望に添ったシーンの切り替わりを検出するのに好適なシーン切替検出システムおよびシーン切替検出プログラム、並びにシーン切替検出方法に関する。
【0002】
【従来の技術】
従来、動画像のなかからシーンの切り替わりを検出する技術としては、例えば、特許文献1に開示されている画像データ符号化方法(以下、第1の従来例という。)、および特許文献2に開示されている映像特徴処理方法(以下、第2の従来例という。)があった。
【0003】
第1の従来例では、端子aは、動画の画像データを入力する。符号化部は、動画像データをフレーム単位で符号化する。符号バッファは、符号化により得られた1フレーム当たりの符号量を格納する。検出条件設定部は、端子bから入力される検出指定データにより指定される検出条件(差分符号量の基準値)を設定する。シーン判定部は、符号バッファから入力される現フレームの符号量と前フレームの符号量との差分を算出し、その差分値が、上記検出条件(差分符号量の基準値)以上のとき変化シーンであることを示すCOS符号とともにセレクト信号をアクティブにする。スイッチは、セレクト信号の入力により現フレームの符号データに変化シーンのフレームであることを示す符号データを付加し、出力端子cを介して外部に出力する。
【0004】
これにより、動画像のシーン変化を自動的に抽出して動画像を符号化・復元することができる。
第2の従来例は、まず、原画像の各フレームRGBデータを色変換し、少なくとも色相の値にする。この色相値から、色相ヒストグラムを計測し、その色相ヒストグラムから各フレームの色相代表値を選択することにより、自動的に特徴量を取り出す。この色相代表値を特徴量とする色特徴空間にその色相代表値を展開し、各フレームをそれぞれ空間内での位置として表す。そして、各フレーム間の距離を計算し、近いもの同士をクラスタリングし、各クラスタごとに分類することで、各フレームのかたまり即ち映像シーンを自動的に分類する。また、このときのクラスタリング条件パラメータによって全体映像を記述する。
【0005】
これにより、映像から自動的に特徴量を取り出し、映像を自動的に分類することができるとともに、映像から取り出した特徴量により映像全体を記述することができる。
【0006】
【特許文献1】
特開平6−133305号公報
【特許文献2】
特開平6−251147号公報
【0007】
【発明が解決しようとする課題】
利用者が動画像のなかでシーンの切り替わりを認識するのは、動画像のなかで利用者が注目する箇所が大きく変化したときである。例えば、利用者が画面右下の特定画像を注目している場合に、次の瞬間、画面右下の特定画像が消え、画面中央に特定の人物画像が出現したときは、利用者の注目がその人物画像に移動する可能性が高いので、この瞬間をシーンの切り替わりとして検出すべきである。したがって、シーンの切り替わりは、利用者が注目する箇所を考慮して検出するのが望ましい。
【0008】
しかしながら、第1の従来例にあっては、符号バッファから入力される現フレームの符号量と前フレームの符号量との差分を算出し、その差分値が検出条件以上のときシーンの切り替わりであると判定するため、利用者が注目する箇所を考慮してシーンの切り替わりを検出していない。したがって、検出結果に利用者の主観を十分に反映できず、利用者の希望に添ったシーンの切り替わりを検出しにくいという問題があった。
【0009】
また、第2の従来例にあっては、各フレーム間の距離を計算し、近いもの同士をクラスタリングし、各クラスタごとに分類することで、各フレームのかたまり即ち映像シーンを自動的に分類するため、利用者が注目する箇所を考慮してシーンの切り替わりを検出していない。したがって、検出結果に利用者の主観を十分に反映できず、利用者の希望に添ったシーンの切り替わりを検出しにくいという問題があった。
【0010】
そこで、本発明は、このような従来の技術の有する未解決の課題に着目してなされたものであって、利用者の希望に添ったシーンの切り替わりを検出するのに好適なシーン切替検出システムおよびシーン切替検出プログラム、並びにシーン切替検出方法を提供することを目的としている。
【0011】
【課題を解決するための手段】
〔発明1〕
上記目的を達成するために、発明1のシーン切替検出システムは、
動画像のなかからシーンの切り替わりを検出するシステムであって、
前記動画像をその再生時間軸上に区分して構成した複数の静止画像のそれぞれについて、当該静止画像から注目領域を抽出し、抽出した注目領域に基づいて当該静止画像の特徴を示す特徴ベクトルを生成し、
生成した特徴ベクトルに基づいて、前記動画像のなかからシーンの切り替わりを検出するようになっていることを特徴とする。
【0012】
このような構成であれば、動画像をその再生時間軸上に区分して構成した複数の静止画像のそれぞれについて、その静止画像から注目領域が抽出され、抽出された注目領域に基づいてその静止画像の特徴を示す特徴ベクトルが生成される。そして、生成された特徴ベクトルに基づいて、動画像のなかからシーンの切り替わりが検出される。
【0013】
これにより、利用者が注目する箇所を考慮してシーンの切り替わりが検出されるので、利用者の主観が検出結果に反映しやすくなる。したがって、従来に比して、利用者の希望に比較的添ったシーンの切り替わりを検出することができるという効果が得られる。
ここで、注目領域とは、静止画像のなかで利用者が注目すると思われる領域をいう。以下、発明2のシーン切替検出システム、発明6のシーン切替検出プログラム、および発明7のシーン切替検出方法において同じである。
【0014】
また、本システムは、単一の装置、端末その他の機器として実現するようにしてもよいし、複数の装置、端末その他の機器を通信可能に接続したネットワークシステムとして実現するようにしてもよい。後者の場合、各構成要素は、それぞれ通信可能に接続されていれば、複数の機器等のうちいずれに属していてもよい。以下、発明2のシーン切替検出システムにおいて同じである。
〔発明2〕
さらに、発明2のシーン切替検出システムは、
動画像のなかからシーンの切り替わりを検出するシステムであって、
前記動画像を記憶するための動画像記憶手段と、前記動画像記憶手段の動画像をその再生時間軸上に区分して複数の静止画像を構成する静止画像構成手段と、前記静止画像構成手段で構成した各静止画像ごとに当該静止画像から注目領域を抽出する注目領域抽出手段と、前記注目領域抽出手段で抽出した注目領域に基づいて前記各静止画像ごとに当該静止画像の特徴を示す特徴ベクトルを生成する特徴ベクトル生成手段と、前記特徴ベクトル生成手段で生成した特徴ベクトルに基づいて前記動画像のなかからシーンの切り替わりを検出するシーン切替検出手段とを備えることを特徴とする。
【0015】
このような構成であれば、静止画像構成手段により、動画像記憶手段の動画像がその再生時間軸上に区分されて複数の静止画像が構成される。次いで、各静止画像ごとに、注目領域抽出手段により、その静止画像から注目領域が抽出され、特徴ベクトル生成手段により、抽出された注目領域に基づいてその静止画像の特徴を示す特徴ベクトルが生成される。そして、シーン切替検出手段により、生成された特徴ベクトルに基づいて動画像のなかからシーンの切り替わりが検出される。
【0016】
これにより、利用者が注目する箇所を考慮してシーンの切り替わりが検出されるので、利用者の主観が検出結果に反映しやすくなる。したがって、従来に比して、利用者の希望に比較的添ったシーンの切り替わりを検出することができるという効果が得られる。
ここで、注目領域抽出手段は、各静止画像ごとにその静止画像から注目領域を抽出するようになっていればよい。例えば、各静止画像ごとに、その静止画像に基づいて誘目度を算出し、算出した誘目度に基づいて注目領域を抽出することができる。以下、発明6のシーン切替検出プログラムにおいて同じである。
【0017】
また、静止画像構成手段は、動画像記憶手段の動画像をその再生時間軸上に区分して複数の静止画像を構成するようになっていればどのような構成であってもよく、例えば、動画像が連続した映像データまたは映像信号からなる場合は、映像データまたは映像信号に基づいて表示される映像を所定時間ごとにキャプチャして複数の静止画像を生成するようになっていてもよいし、動画像がフレーム単位の静止画像を複数集合したものからなる場合は、動画像をフレーム単位に分割して複数の静止画像を生成・抽出するようになっていてもよい。静止画像の構成には、静止画像の生成、抽出および組立が含まれる。以下、発明6のシーン切替検出プログラムにおいて同じである。
【0018】
また、動画像記憶手段は、動画像をあらゆる手段でかつあらゆる時期に記憶するものであり、動画像をあらかじめ記憶してあるものであってもよいし、動画像をあらかじめ記憶することなく、本システムの動作時に外部からの入力等によって動画像を記憶するようになっていてもよい。
〔発明3〕
さらに、発明3のシーン切替検出システムは、発明2のシーン切替検出システムにおいて、
前記シーン切替検出手段は、前記再生時間軸上に連続する複数の静止画像のうち前記再生時間軸上先頭のものを基準静止画像とし、前記複数の静止画像のうち前記基準静止画像以外の各静止画像を比較静止画像として、前記各比較静止画像ごとに、当該比較静止画像の特徴ベクトルと前記基準静止画像の特徴ベクトルとのベクトル間距離を算出し、算出したベクトル間距離が所定以上となったときは、当該比較静止画像の再生時点またはその近傍をシーンの切り替わりとして検出するようになっていることを特徴とする。
【0019】
このような構成であれば、シーン切替検出手段により、各比較静止画像ごとに、その比較静止画像の特徴ベクトルと基準静止画像の特徴ベクトルとのベクトル間距離が算出され、算出されたベクトル間距離が所定以上となると、その比較静止画像の再生時点がシーンの切り替わりとして検出される。
静止画像の特徴ベクトル同士のベクトル間距離は、それら静止画像の注目領域の変化の大きさに比例するので、ベクトル間距離が所定以上となる点をシーンの切り替わりとして検出すれば、利用者が注目する箇所が大きく変化したところをシーンの切り替わりとして検出することができる。したがって、利用者の希望にさらに添ったシーンの切り替わりを検出することができるという効果も得られる。
【0020】
ここで、比較静止画像の再生時点またはその近傍とは、該当の比較静止画像の再生時点、該当の比較静止画像の再生時間軸上前の静止画像の再生時点、または該当の比較静止画像および前の静止画像の再生時点の間を含むものである。
〔発明4〕
さらに、発明4のシーン切替検出システムは、発明2および3のいずれかのシーン切替検出システムにおいて、
さらに、前記各静止画像ごとに当該静止画像に含まれる人物画像の顔情報を判定する顔情報判定手段を備え、
前記特徴ベクトル生成手段は、前記顔情報判定手段で判定した顔情報に基づいて、前記各静止画像ごとに、当該静止画像の特徴を示す特徴ベクトルを生成するようになっていることを特徴とする。
【0021】
このような構成であれば、各静止画像ごとに、顔情報判定手段により、その静止画像に含まれる人物画像の顔情報が判定され、特徴ベクトル生成手段により、判定された顔情報に基づいて、その静止画像の特徴を示す特徴ベクトルが生成される。
これにより、人物画像の顔情報を考慮してシーンの切り替わりが検出されるので、静止画像に含まれる人物画像の顔を考慮した検出結果を得ることができるという効果も得られる。
〔発明5〕
さらに、発明5のシーン切替検出システムは、発明2ないし4のいずれかのシーン切替検出システムにおいて、
さらに、前記各静止画像ごとに当該静止画像に含まれる人物画像の顔と特定画像に含まれる人物画像の顔との類似度を判定する類似度判定手段を備え、
前記特徴ベクトル生成手段は、前記類似度判定手段の判定結果に基づいて、前記各静止画像ごとに、当該静止画像の特徴を示す特徴ベクトルを生成するようになっていることを特徴とする。
【0022】
このような構成であれば、各静止画像ごとに、類似度判定手段により、その静止画像に含まれる人物画像の顔と特定画像に含まれる人物画像の顔との類似度が判定され、特徴ベクトル生成手段により、その判定結果に基づいて、その静止画像の特徴を示す特徴ベクトルが生成される。
これにより、人物画像の顔同士の類似度を考慮してシーンの切り替わりが検出されるので、特定画像に含まれる人物画像の顔に類似する人物画像が含まれているところをシーンの切り替わりとして検出することができるという効果も得られる。
〔発明6〕
一方、上記目的を達成するために、発明6のシーン切替検出プログラムは、
動画像のなかからシーンの切り替わりを検出するプログラムであって、
前記動画像を記憶するための動画像記憶手段を利用可能なコンピュータに対して、
前記動画像記憶手段の動画像をその再生時間軸上に区分して複数の静止画像を構成する静止画像構成手段、前記静止画像構成手段で構成した各静止画像ごとに当該静止画像から注目領域を抽出する注目領域抽出手段、前記注目領域抽出手段で抽出した注目領域に基づいて前記各静止画像ごとに当該静止画像の特徴を示す特徴ベクトルを生成する特徴ベクトル生成手段、および前記特徴ベクトル生成手段で生成した特徴ベクトルに基づいて前記動画像のなかからシーンの切り替わりを検出するシーン切替検出手段として実現される処理を実行させるためのプログラムであることを特徴とする。
【0023】
このような構成であれば、コンピュータによってプログラムが読み取られ、読み取られたプログラムに従ってコンピュータが処理を実行すると、発明2のシーン切替検出システムと同等の作用および効果が得られる。
〔発明7〕
一方、上記目的を達成するために、発明7のシーン切替検出方法は、
動画像のなかからシーンの切り替わりを検出する方法であって、
前記動画像をその再生時間軸上に区分して複数の静止画像を構成する静止画像構成ステップと、
前記静止画像から注目領域を抽出する注目領域抽出ステップと、
前記注目領域抽出ステップで抽出した注目領域に基づいて前記静止画像の特徴を示す特徴ベクトルを生成する特徴ベクトル生成ステップと、
前記静止画像構成ステップで構成した各静止画像ごとに前記注目領域抽出ステップおよび前記特徴ベクトル生成ステップを繰り返し行う繰返ステップと、
前記特徴ベクトル生成ステップで生成した特徴ベクトルに基づいて前記動画像のなかからシーンの切り替わりを検出するシーン切替検出ステップとを含むことを特徴とする。
【0024】
これにより、発明2のシーン切替検出システムと同等の効果が得られる。
ここで、注目領域抽出ステップは、各静止画像ごとにその静止画像から注目領域を抽出すればよい。例えば、各静止画像ごとに、その静止画像に基づいて誘目度を算出し、算出した誘目度に基づいて注目領域を抽出することができる。
また、静止画像構成ステップは、動画像をその再生時間軸上に区分して複数の静止画像を構成すればどのような方法であってもよく、例えば、動画像が連続した映像データまたは映像信号からなる場合は、映像データまたは映像信号に基づいて表示される映像を所定時間ごとにキャプチャして複数の静止画像を生成してもよいし、動画像がフレーム単位の静止画像を複数集合したものからなる場合は、動画像をフレーム単位に分割して複数の静止画像を生成・抽出してもよい。静止画像の構成には、静止画像の生成、抽出および組立が含まれる。
【0025】
【発明の実施の形態】
以下、本発明の実施の形態を図面を参照しながら説明する。図1ないし図7は、本発明に係るシーン切替検出システムおよびシーン切替検出プログラム、並びにシーン切替検出方法の実施の形態を示す図である。
本実施の形態は、本発明に係るシーン切替検出システムおよびシーン切替検出プログラム、並びにシーン切替検出方法を、利用者が注目する箇所を考慮して動画像のなかからシーン切り替わりを検出する場合について適用したものである。
【0026】
本実施の形態では、画像のなかで利用者が注目すると思われる箇所(以下、注目領域という。)の抽出基準として「誘目度」という概念を用いる。誘目度の算出方法は、例えば、「特開2001−126070号公報(注目領域抽出装置およびそれを用いた自動構図決定装置)に詳細に開示されている。
誘目度について簡単に説明する。
【0027】
注目領域の抽出のために、原画像の物理的特徴に従って誘目度を評価する。ここで、誘目度とは、人間の主観に合ったパラメータをいう。注目領域の抽出は、評価結果から一番目立つ領域を注目領域として抽出する。つまり、注目領域の評価の際は、物理的特徴に従って人間の主観に合った評価をするので、人間の主観に適合した注目領域を抽出することができる。
【0028】
例えば、物理的特徴が色の異質度を含む場合、各領域の色の違いに基づいて誘目度を評価することができる。
また、物理的特徴が、色の異質度に加えて、形の異質度、面積の異質度およびテクスチャ(模様)の異質度をさらに含むので、この4つの異質度の少なくとも1つの異質度に基づいて誘目度を評価すれば、原画像の特徴に応じて的確に誘目度を評価することができる。
【0029】
また、色の3要素(色相、彩度、明度)についても評価する場合であれば、人間の主観による目立つ色(赤色)に近い領域を最も目立つ領域と評価することができる。
さらに、空間周波数や原画像における各領域の面積についても評価すれば、最も目立つ領域の評価をさらに的確に判定することができる。
【0030】
また、誘目度の評価は、以下の手順により行う。
(1)最初に原画像を領域分割する。この場合、原画像を図領域と絵領域に分割する。領域分割の方法には、1997IEEEにおいてW.Y.MaやB.S.Manjunathらが「Edge Flow:A Framework of Boundary Detection and Image Segmentation」に記載した”edge flow”に基づく境界検出方法が適用される。
(2)次に、分割した図領域を抽出し、領域の誘目度を評価する。
【0031】
誘目度の評価は、概略以下のようにして行う。
最初に、各領域の異質性誘目度を求める。この場合、色の異質度、テクスチャの異質度、形の異質度および面積の異質度を各々求め、それぞれに重み係数を付与して線形結合し、各領域の異質性誘目度を求める。
次に、各領域における特徴誘目度を求める。この場合、色の誘目度、空間周波数の誘目度、面積の誘目度を求め、それぞれに重み係数を付与して線形結合し、各領域の特徴誘目度を求める。
【0032】
次に、各領域の異質性誘目度と特徴誘目度を加算し、特徴量統合値を求め、特徴量統合値を所定のベータ関数により評価して、誘目度を算出する。
(3)また、原画像から誘目度を評価したパターン図を生成する。
次に、本発明に係るシーン切替検出装置100の構成を図1を参照しながら説明する。
【0033】
図1は、本発明に係るシーン切替検出装置100の構成を示す機能ブロック図である。
シーン切替検出装置100は、図1に示すように、動画像を登録した動画像登録データベース(以下、データベースのことを単にDBと略記する。)10と、動画像登録DB10の動画像をフレーム単位に分割して複数の静止画像を生成する静止画像生成部14と、静止画像生成部14で生成した静止画像から注目領域を抽出する注目領域抽出部16と、静止画像生成部14で生成した静止画像に含まれる人物画像の顔情報および類似度を判定する顔画像処理部18とを有して構成されている。さらに、注目領域抽出部16で抽出した注目領域および顔画像処理部18の判定結果に基づいて静止画像の特徴を示す特徴ベクトルを生成する特徴ベクトル生成部20と、シーン切替の検出条件を入力する検出条件入力部22と、検出条件入力部22で入力した検出条件および特徴ベクトル生成部20で生成した特徴ベクトルに基づいて動画像のなかからシーンの切り替わりを検出するシーン切替検出部24とを有して構成されている。さらに、シーン切替検出部24の検出結果に基づいてシーンの切り替わり時点を特定するためのシーン切替情報を生成するシーン切替情報生成部26と、シーン切替部の静止画像を表示する静止画像表示部28と、シーン切替部の静止画像を印刷する静止画像印刷部30と、シーン切替部から動画像を再生する動画像再生部32とを有して構成されている。
【0034】
顔画像処理部18は、静止画像生成部14で生成した静止画像に人物画像の顔に相当する領域(以下、顔領域という。)が含まれているか否かを判定する顔領域判定部38と、顔領域判定部38の判定結果に基づいて静止画像に含まれる人物画像の顔の向き、大きさおよび重心位置を判定する顔情報判定部40と、顔領域判定部38の判定結果に基づいて静止画像に含まれる人物画像の顔と特定画像に含まれる人物画像の顔との類似度を判定する類似度判定部42とを有して構成されている。
【0035】
具体的に、シーン切替検出装置100は、図2に示すように、コンピュータ200およびこれに実行させるプログラムとして実現することができる。コンピュータ200の構成を図2を参照しながら説明する。
図2は、コンピュータ200の構成を示すブロック図である。
コンピュータ200は、図2に示すように、制御プログラムに基づいて演算およびシステム全体を制御するCPU50と、所定領域にあらかじめCPU50の制御プログラム等を格納しているROM52と、ROM52等から読み出したデータやCPU50の演算過程で必要な演算結果を格納するためのRAM54と、外部装置に対してデータの入出力を媒介するI/F58とで構成されており、これらは、データを転送するための信号線であるバス59で相互にかつデータ授受可能に接続されている。
【0036】
I/F58には、外部装置として、動画像登録DB10と、ヒューマンインターフェースとしてデータの入力が可能なキーボードやマウス等からなる入力装置60と、画像信号に基づいて画面を表示する表示装置64と、印刷データに基づいて印刷を行う印刷装置66とが接続されている。
CPU50は、マイクロプロセッシングユニット(MPU)等からなり、ROM52の所定領域に格納されている所定のプログラムを起動させ、そのプログラムに従って、図3のフローチャートに示すシーン切替検出処理を実行するようになっている。
【0037】
図3は、シーン切替検出処理を示すフローチャートである。
シーン切替検出処理は、入力装置60から検出要求の入力を受けて実行される処理であって、CPU50において実行されると、図3に示すように、まず、ステップS100に移行するようになっている。
ステップS100では、シーン切替の検出条件を入力装置60から入力する。シーン切替の検出条件としては、シーンの切り替わりを検出する動画像の指定、シーンの切り替わりを検出する時間間隔、シーンの切り替わりを検出する長さ(再生時間)、並びに静止画像に含まれる人物画像の顔情報および類似度を特徴ベクトルの要素として含めるか否かを入力することができる。
【0038】
次いで、ステップS102に移行して、シーン切替の検出条件として指定された動画像をフレーム単位に分割して複数の静止画像を生成し、ステップS104に移行して、生成した静止画像を動画像登録DB10に登録し、ステップS106に移行して、動画像登録DB10のなかから先頭の静止画像を読み出し、ステップS108に移行する。
【0039】
ステップS108では、読み出した静止画像に基づいて誘目度を算出し、算出した誘目度に基づいて注目領域を抽出する。注目領域の抽出は、上記方法により行う。誘目度の絶対値は、静止画像に影響を受けることがあるので、すべての静止画像を等しく評価するためには、誘目度を正規化して注目領域の注目度合いを所定段階(例えば、10段階)に区分する。以下、静止画像を構成する各画素について算出した誘目度をe’xyとする。x,yは、静止画像における画素のX座標およびY座標を示す。
【0040】
図4は、縦向きの静止画像の一例を示す図である。
図4(a)の例では、表示向きが縦方向となっており、右下に花の画像が配置されている。この場合、注目領域を算出すると、例えば、図4(b)に示すように、花の画像のうち花の部分およびその近傍に相当する領域が最も注目度合いの高い注目領域Aとして抽出され、花の画像のうち茎および葉の部分並びにその近傍に相当する領域が2番目に注目度合いの高い注目領域Bとして抽出される。その他の領域は、注目度合いの低い領域Cとして抽出される。
【0041】
図5は、横向きの静止画像の一例を示す図である。
図5(a)の例では、表示向きが横方向となっており、右下に花の画像が配置されている。この場合、注目領域を算出すると、例えば、図5(b)に示すように、花の画像のうち花の部分およびその近傍に相当する領域が最も注目度合いの高い注目領域Aとして抽出され、花の画像のうち茎および葉の部分並びにその近傍に相当する領域が2番目に注目度合いの高い注目領域Bとして抽出される。その他の領域は、注目度合いの低い領域Cとして抽出される。このように、図4の静止画像とほぼ同様の領域が同様の注目の度合いで抽出されることが分かる。
【0042】
次いで、ステップS110に移行して、読み出した静止画像に顔領域が含まれているか否かを判定し、ステップS118に移行する。
ステップS118では、ステップS110の判定結果に基づいて、静止画像に含まれる人物画像の顔の向き、大きさおよび重心位置を判定する。具体的には、静止画像内に複数の顔領域が含まれていることを想定し、それらを検出顔領域群とすると、検出顔領域群の静止画像内に占める面積の総和f1、検出顔領域群の静止画像内に占める面積の平均値f2、検出顔領域群の静止画像内に占める面積の分散f3、検出顔領域群の各顔が水平方向どれぐらい正面を向いているかの水平方向正面向度合の平均値f4(−π/2〜π/2)、検出顔領域群の各顔の水平方向正面向度合の分散f5、検出顔領域群の各顔が垂直方向どれぐらい正面を向いているかの垂直方向正面向度合の平均値f6(−π/2〜π/2)、検出顔領域群の各顔の垂直向方向正面度合の分散f7、検出顔領域群の各重心位置の平均値f8、および検出顔領域群の各重心位置の分散f9をそれぞれ算出する。静止画像内に1つの顔領域しか含まれていない場合は、f1およびf2は、その顔領域の面積を、f4およびf6は、その顔領域の水平方向正面向度合および垂直方向正面向度合をそれぞれ算出する。なお、水平方向正面向度合は、検出顔領域の顔が正面を基準として水平方向に傾いているほど小さい値となり、垂直方向正面度合は、検出顔領域の顔が正面を基準として垂直方向に傾いているほど小さい値となる。以下、特に区別する場合を除き、水平方向正面向度合および垂直方向正面向度合を総称して正面向度合という。また、顔領域の面積は、静止画像の大きさで正規化して算出する。
【0043】
次いで、ステップS120に移行して、静止画像に含まれる人物画像の顔と特定画像に含まれる人物画像の顔との類似度を判定する。例えば、特定画像に被写体A,B,Cの人物画像が含まれている場合、静止画像に含まれる各顔領域ごとに、被写体Aの顔領域の顔との類似度、被写体Bの顔領域の顔との類似度、および被写体Cの顔領域の顔との類似度をそれぞれ判定する。
【0044】
次いで、ステップS124に移行して、ステップS108で抽出した注目領域、およびステップS118,S120の判定結果に基づいて静止画像の特徴ベクトルVを生成する。特徴ベクトルVは、大別して、注目領域の誘目度に応じた第1要素群と、顔情報f1〜f9に応じた第2要素群と、類似度に応じた第3要素群とからなる。
【0045】
特徴ベクトルVの第1要素群は、静止画像を複数の領域(例えば、水平方向N個および垂直方向M個の矩形領域)に区分し、下式(1)により、各区分領域ごとにその区分領域(i,j)の誘目度の平均値eijを算出し、誘目度の平均値eijに基づいて決定する。区分領域(i,j)は、静止画像において水平方向i(i=1〜N)番目でかつ垂直方向j(j=1〜M)番目の領域を示す。
【0046】
【数1】
Figure 2004361988
【0047】
上式(1)は、各区分領域を2s×2sの画素からなる正方形の領域とした場合に、区分領域(i,j)の誘目度の平均値eijを算出している。上式(1)において、xiは、区分領域(i,j)の中心点のx座標であり、xjは、区分領域(i,j)の中心点のy座標である。
したがって、特徴ベクトルVの第1要素群は、下式(2)により、各区分領域の誘目度の平均値eijにそれぞれ独立の係数Eijを乗算し、それらを各要素として羅列したものとなる。静止画像を水平方向N個および垂直方向M個の領域に区分した場合、特徴ベクトルVの第1要素群は、N×M個の要素から構成される。
【0048】
【数2】
Figure 2004361988
【0049】
特徴ベクトルVの第2要素群は、下式(3)により、ステップS118で判定した顔情報f1〜f9にそれぞれ独立の係数F〜Fを乗算し、それらを各要素として羅列したものとなる。
【0050】
【数3】
Figure 2004361988
【0051】
特徴ベクトルVの第3要素群は、下式(4)により、ステップS120で判定した類似度pにそれぞれ独立の係数Pを乗算し、それらを各要素として羅列したものとなる。例えば、特定画像にK個の人物画像が含まれている場合、静止画像に含まれる各顔領域ごとに、特定画像に含まれる顔領域k(k=1〜K)の顔との類似度を算出する。このとき、顔領域kの顔と類似しているとき(類似度が所定値以上であるとき)は、p=1とし、顔領域kの顔と類似していないとき(類似度が所定値未満であるとき)は、p=0とする。
【0052】
【数4】
Figure 2004361988
【0053】
以上により、特徴ベクトルVは、下式(5)により、第1要素群、第2要素群および第3要素群の各要素を羅列したものして表される。
【0054】
【数5】
Figure 2004361988
【0055】
次いで、ステップS126に移行して、動画像登録DB10のすべての静止画像についてステップS108〜S124の処理が終了したか否かを判定し、すべての静止画像について処理が終了したと判定したとき(Yes)は、ステップS128に移行する。
ステップS128では、入力したシーン切替の検出条件に基づいて動画像のなかからシーンの切り替わりを検出する。具体的には、動画像の再生時間軸上に連続する複数の静止画像のうち再生時間軸上先頭のものを基準静止画像とし、複数の静止画像のうち基準静止画像以外の各静止画像を比較静止画像として、各比較静止画像ごとに、下式(6)により、その比較静止画像の特徴ベクトルと基準静止画像の特徴ベクトルとのベクトル間距離を算出し、算出したベクトル間距離が所定以上となったときは、その比較静止画像の再生時点をシーンの切り替わりとして検出する。下式(6)は、特徴ベクトルVと特徴ベクトルVとのベクトル間距離を算出している。
S=|V−V| …(6)
図6は、再生時間軸上に連続する複数の静止画像について基準静止画像からみたベクトル間距離の推移を示すグラフである。
【0056】
図6の例では、フレーム番号「0」の静止画像を基準静止画像とし、フレーム番号「1」〜「5」の静止画像を比較静止画像として、各比較静止画像ごとに、その比較静止画像の特徴ベクトルと基準静止画像の特徴ベクトルとのベクトル間距離が示されている。ここで、比較静止画像0(比較静止画像nは、フレーム番号nの比較静止画像を示す。以下、同じ。)および基準静止画像のベクトル間距離、並びに比較静止画像1および基準静止画像のベクトル間距離がいずれも所定値(図6中、点線で示す水平線の位置)以下となり、比較静止画像3および基準静止画像のベクトル間距離、比較静止画像4および基準静止画像のベクトル間距離、並びに比較静止画像5および基準静止画像のベクトル間距離がいずれも所定値以上となっている。この場合、比較静止画像3の再生時点をシーンの切り替わりとして検出する。
【0057】
図7は、再生時間軸上に連続する複数の静止画像について基準静止画像からみたベクトル間距離の推移を示すグラフである。
図7の例では、図6の例で比較静止画像3の再生時点をシーンの切り替わりとして検出した場合、次に、フレーム番号「3」の静止画像を基準静止画像とし、フレーム番号「4」,「5」の静止画像を比較静止画像として、各比較静止画像ごとに、その比較静止画像の特徴ベクトルと基準静止画像の特徴ベクトルとのベクトル間距離が示されている。ここで、比較静止画像4および基準静止画像のベクトル間距離、並びに比較静止画像5および基準静止画像のベクトル間距離がいずれも所定値以下となっている。この場合、比較静止画像3の再生時点から比較静止画像5の再生時点までの間には、シーンの切り替わりが存在しないことを意味している。
【0058】
次いで、ステップS130に移行して、ステップS128の検出結果に基づいてシーン切替情報を生成し、ステップS132に移行して、生成したシーン切替情報に基づいてシーン切替部の静止画像(図6の例では、比較静止画像3)を表示装置64に表示し、ステップS134に移行する。
ステップS134では、生成したシーン切替情報に基づいてシーン切替部の静止画像を印刷装置66で印刷し、ステップS136に移行して、生成したシーン切替情報に基づいてシーン切替部から動画像を表示装置64で再生し、一連の処理を終了して元の処理に復帰させる。
【0059】
一方、ステップS126で、動画像登録DB10のすべての静止画像についてステップS108〜S124の処理が終了していないと判定したとき(No)は、ステップS134に移行して、動画像登録DB10のなかから次の静止画像を読み込み、ステップS108に移行する。
次に、本実施の形態の動作を説明する。
【0060】
シーンの切り替わりを検出する場合、利用者は、検出要求を入力し、シーン切替の検出条件を入力する。シーン切替の検出条件としては、動画像の指定、検出時間間隔、検出時間、並びに顔情報および類似度を特徴ベクトルの要素として含めるか否かを入力する。
シーン切替検出装置100では、シーン切替の検出条件が入力されると、ステップS102,S104を経て、指定された動画像がフレーム単位に分割されて複数の静止画像が生成され、生成された静止画像が動画像登録DB10に登録される。次いで、ステップS106〜S110を経て、動画像登録DB10のなかから先頭の静止画像が読み出され、読み出された静止画像から注目領域が抽出されるととともに静止画像に顔領域が含まれているか否かが判定される。次いで、ステップS118,S120を経て、ステップS110の判定結果に基づいて、静止画像に含まれる人物画像の顔の向き、大きさおよび重心位置が判定され、静止画像に含まれる人物画像の顔と特定画像に含まれる人物画像の顔との類似度が判定される。静止画像に複数の被写体の人物画像が含まれている場合は、ステップS110〜S120を繰り返し経て、各顔領域ごとに顔情報および類似度が判定される。
【0061】
次いで、静止画像のすべての顔領域について顔情報および類似度が判定されると、ステップS124を経て、抽出された注目領域、並びに判定された顔情報および類似度に基づいて静止画像の特徴ベクトルVが生成される。
このような処理が動画像登録DB10のすべての静止画像について行われると、ステップS128を経て、動画像の再生時間軸上に連続する複数の静止画像のうち再生時間軸上先頭のものを基準静止画像とし、複数の静止画像のうち基準静止画像以外の各静止画像を比較静止画像として、各比較静止画像ごとに、その比較静止画像の特徴ベクトルと基準静止画像の特徴ベクトルとのベクトル間距離が算出される。そして、算出されたベクトル間距離が所定以上となると、その比較静止画像の再生時点がシーンの切り替わりとして検出される。
【0062】
次いで、ステップS130〜S134を経て、シーン切替の検出結果に基づいてシーン切替情報が生成され、生成されたシーン切替情報に基づいて、シーン切替部の静止画像が表示されるとともに印刷される。そして、ステップS136を経て、生成されたシーン切替情報に基づいてシーン切替部から動画像が再生される。
【0063】
このようにして、本実施の形態では、動画像登録DB10の動画像をフレーム単位に分割して複数の静止画像を生成し、各静止画像ごとにその静止画像から注目領域を抽出し、抽出した注目領域に基づいて各静止画像ごとにその静止画像の特徴ベクトルを生成し、生成した特徴ベクトルに基づいて動画像のなかからシーンの切り替わりを検出するようになっている。
【0064】
これにより、利用者が注目する箇所を考慮してシーンの切り替わりが検出されるので、利用者の主観が検出結果に反映しやすくなる。したがって、従来に比して、利用者の希望に比較的添ったシーンの切り替わりを検出することができる。さらに、本実施の形態では、再生時間軸上に連続する複数の静止画像のうち再生時間軸上先頭のものを基準静止画像とし、複数の静止画像のうち基準静止画像以外の各静止画像を比較静止画像として、各比較静止画像ごとに、その比較静止画像の特徴ベクトルと基準静止画像の特徴ベクトルとのベクトル間距離を算出し、算出したベクトル間距離が所定以上となったときは、その比較静止画像の再生時点をシーンの切り替わりとして検出するようになっている。
【0065】
静止画像の特徴ベクトル同士のベクトル間距離は、それら静止画像の注目領域の変化の大きさに比例するので、ベクトル間距離が所定以上となる点をシーンの切り替わりとして検出すれば、利用者が注目する箇所が大きく変化したところをシーンの切り替わりとして検出することができる。したがって、利用者の希望にさらに添ったシーンの切り替わりを検出することができる。
【0066】
さらに、本実施の形態では、各静止画像ごとにその静止画像に含まれる人物画像の顔の向き、大きさまたは重心位置を判定し、判定した顔の向き、大きさまたは重心位置に基づいて、各静止画像ごとに、その静止画像の特徴ベクトルを生成するようになっている。
これにより、人物画像の顔の向き、大きさまたは重心位置を考慮してシーンの切り替わりが検出されるので、静止画像に含まれる人物画像の顔を考慮した検出結果を得ることができる。
【0067】
さらに、本実施の形態では、各静止画像ごとにその静止画像に含まれる人物画像の顔と特定画像に含まれる人物画像の顔との類似度を判定し、判定した類似度に基づいて、各静止画像ごとに、その静止画像の特徴ベクトルを生成するようになっている。
これにより、人物画像の顔同士の類似度を考慮してシーンの切り替わりが検出されるので、特定画像に含まれる人物画像の顔に類似する人物画像が含まれているところをシーンの切り替わりとして検出することができる。
【0068】
上記実施の形態において、動画像登録DB10は、発明2または6の動画像記憶手段に対応し、ステップS102および静止画像生成部12は、発明2若しくは6の静止画像構成手段、または発明7の静止画像構成ステップに対応し、ステップS108および注目領域抽出部16は、発明2若しくは6の注目領域抽出手段、または発明7の注目領域抽出ステップに対応している。また、ステップS118および顔情報判定部40は、発明4の顔情報判定手段に対応し、ステップS120および類似度判定部42は、発明5の類似度判定手段に対応し、ステップS124および特徴ベクトル生成部20は、発明2、4ないし6の特徴ベクトル生成手段、または発明7の特徴ベクトル生成ステップに対応している。
【0069】
また、上記実施の形態において、ステップS128およびシーン切替検出部24は、発明2、3若しくは6のシーン切替検出手段、または発明7のシーン切替検出ステップに対応している。
なお、上記実施の形態においては、静止画像のアスペクト比について特に説明しなかったが、静止画像のアスペクト比が異なる場合は、次のように画像の類否を判定する。
【0070】
図8は、アスペクト比が異なる静止画像A,Bを重ね合わせた場合を示す図である。
アスペクト比が異なる静止画像A,Bの類否を判定する場合は、図8に示すように、静止画像A,Bとを重ね合わせ、静止画像Aのうち重複領域について静止画像Aの特徴ベクトルVを生成し、静止画像Bのうち重複領域について静止画像Bの特徴ベクトルVを生成し、生成した特徴ベクトルV,Vに基づいて静止画像A,Bの類否を判定する。
【0071】
この場合、さらに、重複領域が異なるように静止画像A,Bの重ね合わせ方を変えて静止画像A,Bを重ね合わせ、各組み合わせごとに算出した静止画像Aの特徴ベクトルVAi(i=1〜N、Nは組み合わせ総数)の平均値を静止画像Aの特徴ベクトルVとして生成し、各組み合わせごとに算出した静止画像Bの特徴ベクトルVBiの平均値を静止画像Bの特徴ベクトルVとして生成してもよい。
【0072】
これにより、アスペクト比が異なる静止画像同士であっても、比較的正確に類否を判定することができるので、利用者の希望にさらに添ったシーンの切り替わりを検出することができる。
また、上記実施の形態においては、特徴ベクトルVの第1要素群を、上式(2)により、各区分領域の誘目度の平均値eijにそれぞれ独立の係数Eijを乗算し、それらを各要素として羅列したものとして生成するように構成したが、これに限らず、注目領域の算出に誘目度を用いる場合、分割された領域では誘目度は一定となるのでステップS108では、次のように生成することもできる。まず、静止画像のなかから誘目度の高い順にH個の注目領域を選択する。次いで、下式(7)により、注目領域h(h=1〜H)の水平方向の中心座標xに係数Xを乗算し、注目領域hの垂直方向の中心座標yに係数Yを乗算する。また、注目領域hの誘目度eに係数Eを乗算し、注目領域hの面積sに係数Sを乗算する。そして、それらXx、Yy、Ee、Ssを各要素として羅列したものを特徴ベクトルVの第1要素群として生成する。
【0073】
【数6】
Figure 2004361988
【0074】
この場合、抽出した注目領域の個数hが所定数(例えば、10個)に満たない場合は、特徴ベクトルVの第1要素群をすべて「0」とする。
また、上記実施の形態において、図3のフローチャートに示す処理を実行するにあたっては、ROM52にあらかじめ格納されている制御プログラムを実行する場合について説明したが、これに限らず、これらの手順を示したプログラムが記憶された記憶媒体から、そのプログラムをRAM54に読み込んで実行するようにしてもよい。
【0075】
ここで、記憶媒体とは、RAM、ROM等の半導体記憶媒体、FD、HD等の磁気記憶型記憶媒体、CD、CDV、LD、DVD等の光学的読取方式記憶媒体、MO等の磁気記憶型/光学的読取方式記憶媒体であって、電子的、磁気的、光学的等の読み取り方法のいかんにかかわらず、コンピュータで読み取り可能な記憶媒体であれば、あらゆる記憶媒体を含むものである。
【0076】
また、上記実施の形態においては、本発明に係るシーン切替検出システムおよびシーン切替検出プログラム、並びにシーン切替検出方法を、利用者が注目する箇所を考慮して動画像のなかからシーン切り替わりを検出する場合について適用したが、これに限らず、本発明の主旨を逸脱しない範囲で他の場合にも適用可能である。
【図面の簡単な説明】
【図1】本発明に係るシーン切替検出装置100の構成を示す機能ブロック図である。
【図2】コンピュータ200の構成を示すブロック図である。
【図3】シーン切替検出処理を示すフローチャートである。
【図4】縦向きの静止画像の一例を示す図である。
【図5】横向きの静止画像の一例を示す図である。
【図6】再生時間軸上に連続する複数の静止画像について基準静止画像からみたベクトル間距離の推移を示すグラフである。
【図7】再生時間軸上に連続する複数の静止画像について基準静止画像からみたベクトル間距離の推移を示すグラフである。
【図8】アスペクト比が異なる静止画像A,Bを重ね合わせた場合を示す図である。
【符号の説明】
100…シーン切替検出装置,200…コンピュータ,10…動画像登録DB,12…静止画像生成部,16…注目領域抽出部,18…顔画像処理部,20…特徴ベクトル生成部,22…検出条件入力部,24…シーン切替検出部,26…シーン切替情報生成部,28…静止画像表示部,30…静止画像印刷部,32…動画像再生部,38…顔領域判定部,40…顔情報判定部,42…類似度判定部,50…CPU,52…ROM,54…RAM,58…I/F,60…入力装置,64…表示装置,66…印刷装置

Claims (7)

  1. 動画像のなかからシーンの切り替わりを検出するシステムであって、
    前記動画像をその再生時間軸上に区分して構成した複数の静止画像のそれぞれについて、当該静止画像から注目領域を抽出し、抽出した注目領域に基づいて当該静止画像の特徴を示す特徴ベクトルを生成し、
    生成した特徴ベクトルに基づいて、前記動画像のなかからシーンの切り替わりを検出するようになっていることを特徴とするシーン切替検出システム。
  2. 動画像のなかからシーンの切り替わりを検出するシステムであって、
    前記動画像を記憶するための動画像記憶手段と、前記動画像記憶手段の動画像をその再生時間軸上に区分して複数の静止画像を構成する静止画像構成手段と、前記静止画像構成手段で構成した各静止画像ごとに当該静止画像から注目領域を抽出する注目領域抽出手段と、前記注目領域抽出手段で抽出した注目領域に基づいて前記各静止画像ごとに当該静止画像の特徴を示す特徴ベクトルを生成する特徴ベクトル生成手段と、前記特徴ベクトル生成手段で生成した特徴ベクトルに基づいて前記動画像のなかからシーンの切り替わりを検出するシーン切替検出手段とを備えることを特徴とするシーン切替検出システム。
  3. 請求項2において、
    前記シーン切替検出手段は、前記再生時間軸上に連続する複数の静止画像のうち前記再生時間軸上先頭のものを基準静止画像とし、前記複数の静止画像のうち前記基準静止画像以外の各静止画像を比較静止画像として、前記各比較静止画像ごとに、当該比較静止画像の特徴ベクトルと前記基準静止画像の特徴ベクトルとのベクトル間距離を算出し、算出したベクトル間距離が所定以上となったときは、当該比較静止画像の再生時点又はその近傍をシーンの切り替わりとして検出するようになっていることを特徴とするシーン切替検出システム。
  4. 請求項2及び3のいずれかにおいて、
    さらに、前記各静止画像ごとに当該静止画像に含まれる人物画像の顔情報を判定する顔情報判定手段を備え、
    前記特徴ベクトル生成手段は、前記顔情報判定手段で判定した顔情報に基づいて、前記各静止画像ごとに、当該静止画像の特徴を示す特徴ベクトルを生成するようになっていることを特徴とするシーン切替検出システム。
  5. 請求項2乃至4のいずれかにおいて、
    さらに、前記各静止画像ごとに当該静止画像に含まれる人物画像の顔と特定画像に含まれる人物画像の顔との類似度を判定する類似度判定手段を備え、
    前記特徴ベクトル生成手段は、前記類似度判定手段の判定結果に基づいて、前記各静止画像ごとに、当該静止画像の特徴を示す特徴ベクトルを生成するようになっていることを特徴とするシーン切替検出システム。
  6. 動画像のなかからシーンの切り替わりを検出するプログラムであって、
    前記動画像を記憶するための動画像記憶手段を利用可能なコンピュータに対して、
    前記動画像記憶手段の動画像をその再生時間軸上に区分して複数の静止画像を構成する静止画像構成手段、前記静止画像構成手段で構成した各静止画像ごとに当該静止画像から注目領域を抽出する注目領域抽出手段、前記注目領域抽出手段で抽出した注目領域に基づいて前記各静止画像ごとに当該静止画像の特徴を示す特徴ベクトルを生成する特徴ベクトル生成手段、及び前記特徴ベクトル生成手段で生成した特徴ベクトルに基づいて前記動画像のなかからシーンの切り替わりを検出するシーン切替検出手段として実現される処理を実行させるためのプログラムであることを特徴とするシーン切替検出プログラム。
  7. 動画像のなかからシーンの切り替わりを検出する方法であって、
    前記動画像をその再生時間軸上に区分して複数の静止画像を構成する静止画像構成ステップと、
    前記静止画像から注目領域を抽出する注目領域抽出ステップと、
    前記注目領域抽出ステップで抽出した注目領域に基づいて前記静止画像の特徴を示す特徴ベクトルを生成する特徴ベクトル生成ステップと、
    前記静止画像構成ステップで構成した各静止画像ごとに前記注目領域抽出ステップ及び前記特徴ベクトル生成ステップを繰り返し行う繰返ステップと、
    前記特徴ベクトル生成ステップで生成した特徴ベクトルに基づいて前記動画像のなかからシーンの切り替わりを検出するシーン切替検出ステップとを含むことを特徴とするシーン切替検出方法。
JP2003155887A 2003-05-30 2003-05-30 シーン切替検出システム及びシーン切替検出プログラム、並びにシーン切替検出方法 Expired - Fee Related JP4111065B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003155887A JP4111065B2 (ja) 2003-05-30 2003-05-30 シーン切替検出システム及びシーン切替検出プログラム、並びにシーン切替検出方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003155887A JP4111065B2 (ja) 2003-05-30 2003-05-30 シーン切替検出システム及びシーン切替検出プログラム、並びにシーン切替検出方法

Publications (2)

Publication Number Publication Date
JP2004361988A true JP2004361988A (ja) 2004-12-24
JP4111065B2 JP4111065B2 (ja) 2008-07-02

Family

ID=34050159

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003155887A Expired - Fee Related JP4111065B2 (ja) 2003-05-30 2003-05-30 シーン切替検出システム及びシーン切替検出プログラム、並びにシーン切替検出方法

Country Status (1)

Country Link
JP (1) JP4111065B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009031398A1 (ja) * 2007-09-06 2009-03-12 Mitsubishi Electric Corporation 類似画像判別装置、チャプタ判定装置、映像信号記録装置及び画像処理装置
KR100993601B1 (ko) 2008-09-16 2010-11-10 (주)위디랩 디지털 동영상 컨텐츠의 유사도 측정 방법, 이를 이용한 동영상 컨텐츠의 관리 방법 및 상기 관리 방법을 이용한 동영상 컨텐츠의 관리 시스템

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009031398A1 (ja) * 2007-09-06 2009-03-12 Mitsubishi Electric Corporation 類似画像判別装置、チャプタ判定装置、映像信号記録装置及び画像処理装置
JPWO2009031398A1 (ja) * 2007-09-06 2010-12-09 三菱電機株式会社 類似画像判別装置、チャプタ判定装置、映像信号記録装置及び画像処理装置
KR100993601B1 (ko) 2008-09-16 2010-11-10 (주)위디랩 디지털 동영상 컨텐츠의 유사도 측정 방법, 이를 이용한 동영상 컨텐츠의 관리 방법 및 상기 관리 방법을 이용한 동영상 컨텐츠의 관리 시스템

Also Published As

Publication number Publication date
JP4111065B2 (ja) 2008-07-02

Similar Documents

Publication Publication Date Title
JP2004361987A (ja) 画像検索システム、画像分類システム、画像検索プログラム及び画像分類プログラム、並びに画像検索方法及び画像分類方法
US6885760B2 (en) Method for detecting a human face and an apparatus of the same
JP3740065B2 (ja) 領域分割された映像の領域特徴値整合に基づいた客体抽出装置およびその方法
JP4907938B2 (ja) 少なくとも1つの画像及び画像群を表現する方法、画像又は画像群の表現、画像及び/又は画像群を比較する方法、画像又は画像群を符号化する方法、画像又は画像シーケンスを復号する方法、符号化されたデータの使用、画像又は画像群を表現する装置、画像及び/又は画像群を比較する装置、コンピュータプログラム、システム、及びコンピュータ読み取り可能な記憶媒体
US8311336B2 (en) Compositional analysis method, image apparatus having compositional analysis function, compositional analysis program, and computer-readable recording medium
US9704230B2 (en) Feedback to user for indicating augmentability of an image
JP5097280B2 (ja) 画像及び画像群を表現、比較及び検索する方法及び装置、プログラム、コンピュータ読み取り可能な記憶媒体
CN104899586B (zh) 对图像中包含的文字内容进行识别方法及装置
JP2016095849A (ja) 前景画像分割方法及び装置、プログラム、並びに記録媒体
CN107430780B (zh) 用于基于视频内容特性的输出创建的方法
JP2008527525A (ja) グラフィカルなオブジェクトを検出するための方法及び電子装置
JP2000215318A (ja) 入力ベクトルをクラスタリングする方法
JPH0863601A (ja) 領域分割方法および装置
US8831357B2 (en) System and method for image and video search, indexing and object classification
JPWO2011046128A1 (ja) 人物服装特徴抽出装置、人物検索装置、及びその処理方法
JP2001309225A (ja) 顔を検出するためのカメラ及び方法
US8213741B2 (en) Method to generate thumbnails for digital images
JP5180922B2 (ja) 画像検索システム及び画像検索方法
EP2977932B1 (en) Image processing apparatus, image processing method and image processing program
JP4367010B2 (ja) システム、プログラムおよび方法
US8606001B2 (en) Image processing apparatus, method, and storage medium to implement image segmentation with high accuracy
JP2009289210A (ja) 重要物体認識装置および重要物体認識方法ならびにそのプログラム
JP4111065B2 (ja) シーン切替検出システム及びシーン切替検出プログラム、並びにシーン切替検出方法
GB2467643A (en) Improved detection of people in real world videos and images.
JP3661774B2 (ja) 文字列認識方法、文字認識装置およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060214

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20070403

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20071213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071225

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080318

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080331

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110418

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110418

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees