JP2006270301A - シーンチェンジ検出装置およびシーンチェンジ検出プログラム - Google Patents
シーンチェンジ検出装置およびシーンチェンジ検出プログラム Download PDFInfo
- Publication number
- JP2006270301A JP2006270301A JP2005083126A JP2005083126A JP2006270301A JP 2006270301 A JP2006270301 A JP 2006270301A JP 2005083126 A JP2005083126 A JP 2005083126A JP 2005083126 A JP2005083126 A JP 2005083126A JP 2006270301 A JP2006270301 A JP 2006270301A
- Authority
- JP
- Japan
- Prior art keywords
- scene change
- block
- similarity
- feature vector
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Television Signal Processing For Recording (AREA)
- Image Analysis (AREA)
Abstract
【課題】 シーンチェンジの検出を高精度に行うことができるシーンチェンジ検出装置およびシーンチェンジ検出プログラムを提供する。
【解決手段】 シーンチェンジ検出装置1は、入力された動画像のシーンチェンジを検出するものであって、動画像を構成する画像(フレーム)を所定個数のブロックに分割する分割手段3と、分割したブロックの特徴ベクトルを求める特徴計算手段5と、前後のフレームの各ブロックの特徴ベクトルの類似度を計算する類似度計算手段7と、類似度に基づいてシーンチェンジを判定するシーンチェンジ判定手段9と、判定結果によりシーンチェンジ点を蓄積するシーンチェンジ時刻データ蓄積手段11と、を備えた。
【選択図】 図1
【解決手段】 シーンチェンジ検出装置1は、入力された動画像のシーンチェンジを検出するものであって、動画像を構成する画像(フレーム)を所定個数のブロックに分割する分割手段3と、分割したブロックの特徴ベクトルを求める特徴計算手段5と、前後のフレームの各ブロックの特徴ベクトルの類似度を計算する類似度計算手段7と、類似度に基づいてシーンチェンジを判定するシーンチェンジ判定手段9と、判定結果によりシーンチェンジ点を蓄積するシーンチェンジ時刻データ蓄積手段11と、を備えた。
【選択図】 図1
Description
本発明は、動画像処理に係り、動画像のシーンチェンジを検出するシーンチェンジ検出装置およびシーンチェンジ検出プログラムに関する。
従来、映像(動画像)をリアルタイムで読み込みながら、動画像を構成する各画像(各フレーム)の構図の変化、つまり、前後のフレーム(現在入力されているフレームと直前に入力されたフレーム)において変動(差分)が発生した範囲の面積(複数の画素からなる領域の面積)を評価してカット点(シーンチェンジ)を検出する手法として、例えば、「画像処理装置及びシーンチェンジ検出方法」(特許文献1)と「映像カット点検出方法及び装置」(特許文献2)とがある。
しかし、これらの手法(特許文献1または特許文献2により開示されている手法)は、画素というフレームを構成する最小単位を、カット点を検出する評価単位としているので、図7に示すように、被写体(野球選手)が、きめが粗く複雑な背景(観客席)を通過するような動画像の場合、本来、シーンチェンジしていないにも拘わらず、シーンチェンジ(カット点)を連続して検出する過剰検出を起こしてしまう場合がある。
図7では、野球選手が走っているフレームが(a)〜(c)に示したように連続しており、当該野球選手の背中越しに映っている観客席が、(a)〜(c)を通して流れていくように見える。このような動画像の場合、(a)〜(c)が別々のシーンとして検出されることなく、「野球選手が走っているシーン」として、1つのシーンが検出されることが望まれている。
こういった過剰検出を抑制するために、画素を評価単位とせずに、フレームを分割したブロック単位での差分を評価してカット点(シーンチェンジ)を検出する手法として、例えば、「シーンチェンジ検出方法およびシーンチェンジ検出装置」(特許文献3)と「動画像のシーンチェンジ検出装置および編集装置」(特許文献4)とがある。
特開2000−324499号公報
特開平8−214210号公報
特開平10−294923号公報
特開平6−153146号公報
しかしながら、これらの手法(特許文献3または特許文献4により開示されている手法)は、各ブロックで計算する画像の特徴(特徴ベクトル)が色特徴のみや、動きベクトルのみであるので、画像の他の特徴が大きく変化したときにシーンチェンジであると反応してしまうため、過剰検出を抑制する効果が少なく、例えば、図7に示したように、きめが粗く複雑な背景(観客席)が激しい動きをする場合(連続するフレームにおいて背景の変動が激しい場合)、シーンチェンジの十分な検出精度が得られないという問題がある。
そこで、本発明では、前記した問題を解決し、シーンチェンジの検出を高精度に行うことができるシーンチェンジ検出装置およびシーンチェンジ検出プログラムを提供することを目的とする。
前記課題を解決するため、請求項1に記載のシーンチェンジ検出装置は、入力された動画像のシーンチェンジを検出するシーンチェンジ検出装置であって、分割手段と、特徴計算手段と、類似度計算手段と、シーンチェンジ判定手段と、シーンチェンジ時刻データ蓄積手段と、を備える構成とした。
かかる構成によれば、シーンチェンジ検出装置は、分割手段によって、動画像を構成する各フレームを所定の画像サイズのブロックに分割する。所定の画像サイズとは、画像(フレーム)の縦横を、任意の割合で分割した際の大きさを指している。続いて、シーンチェンジ検出装置は、特徴計算手段によって、分割手段で分割したブロックごとに、当該ブロックのエッジ量で示す特徴量、または、当該ブロックにおける各方向のエッジ画素対の数で示す特徴量、或いは、当該ブロックにおけるフラクタル尺度を利用した輝度変化の複雑な度合いを示す複雑度の少なくとも1つの特徴量を計算した当該ブロックごとのテクスチャ特徴ベクトルを求める。なお、ブロックのエッジ量とは、エッジ抽出処理されたブロックにおけるエッジ画素数を指している。ブロックにおける各方向のエッジ画素対とは、エッジ方向(水平方向、右上がり、垂直方向、左上がり)のエッジを構成する2つの画素を指している。フラクタル尺度を利用した輝度変化の複雑な度合いを示す複雑度とは、画像の相似性を表す特徴量であるフラクタル次元を利用して、ブロックの輝度がどれだけ複雑に変化しているのかを表したものである。例えば、図形aと、当該図形aが複数集まった集合体である図形Aとが相似である場合にフラクタルをなしているといえ、それぞれの図形aが同一色(輝度が同一)の複数の画素からなる領域であるとすると、図形Aは図形aの集合体であるので、同じ色の図形aのみが集まっている場合には複雑度はゼロに等しいといえ、異なる色の図形aが集まっているほど、複雑度は高くなるといえる。
そして、シーンチェンジ検出装置は、類似度計算手段によって、特徴計算手段で求めたブロックごとのテクスチャ特徴ベクトルについて、連続する前後のフレームにおける類似度を示す距離を計算する。この距離の尺度として、1−ノルム、2−ノルム(ユークリッド距離)、∞−ノルム、コサイン距離等がある。そして、シーンチェンジ検出装置は、シーンチェンジ判定手段によって、類似度計算手段で計算した連続する前後のフレームにおける類似度を示す距離が予め設定した閾値を越えたブロックを、フレームの構図の一部が変化したことを示す変化ブロックとし、前後のフレームにおいて当該変化ブロックの割合が予め設定した設定値以上になった場合に、後のフレームが入力された時刻をシーンチェンジ点とする。
このシーンチェンジ判定手段では、例えば、類似度を示す距離が閾値以下になったブロックについて、構図が変化したとして、当該ブロックを変化ブロックとすることができる。つまり、この場合、類似度を示す距離が大きくなるほど、ブロック同士は類似していることになり、類似度を示す距離が閾値以下になる、すなわち、小さくなるほど、ブロック同士は異なっていることになる。逆に、類似度を示す距離の取り方によっては、類似度を示す距離が小さいほど、ブロック同士が類似しているといえる場合があり、こういった場合には、類似度を示す距離が大きくなるほど、ブロック同士が異なっていることになる。
そして、シーンチェンジ検出装置は、シーンチェンジ時刻データ蓄積手段によって、シーンチェンジ判定手段で判定されたシーンチェンジ点に関する情報を、シーンチェンジ時刻データとして蓄積する。
請求項2に記載のシーンチェンジ検出装置は、請求項1に記載のシーンチェンジ検出装置において、前記特徴計算手段が、前記ブロック内の全画素のRGB平均値、または、HSV平均値を特徴量として計算した当該ブロックごとの色特徴ベクトルを求め、この色特徴ベクトルと前記テクスチャ特徴ベクトルとを合成した特徴ベクトルを求めることを特徴とする。
かかる構成によれば、シーンチェンジ検出装置は、特徴計算手段によって、色特徴ベクトルを求めることとしており、この色特徴ベクトルをテクスチャ特徴ベクトルと合成し、この合成した特徴ベクトルを、類似度計算手段により前後のフレームにおける類似度を示す距離の計算に用いることで、より高精度なシーンチェンジの検出を実現することができる。ちなみに、HSVは、色相(Hue)、彩度(Saturation)、明度(Value)の3つの属性の組み合わせによって色を特定する方式を指している。
請求項3に記載のシーンチェンジ検出プログラムは、入力された動画像のシーンチェンジを検出するために、コンピュータを、分割手段、特徴計算手段、類似度計算手段、シーンチェンジ判定手段、として機能させる構成とした。
かかる構成によれば、シーンチェンジ検出プログラムは、分割手段によって、動画像を構成する各フレームを所定の画像サイズのブロックに分割し、特徴計算手段によって、分割手段で分割したブロックごとに、当該ブロックのエッジ量で示す特徴量、または、当該ブロックにおける各方向のエッジ画素対の数で示す特徴量、或いは、当該ブロックにおけるフラクタル尺度を利用した輝度変化の複雑な度合いを示す複雑度で示す特徴量における少なくとも1つの特徴量を計算した当該ブロックごとのテクスチャ特徴ベクトルを求める。そして、シーンチェンジ検出プログラムは、類似度計算手段によって、特徴計算手段で求めたブロックごとのテクスチャ特徴ベクトルについて、連続する前後のフレームにおける類似度を示す距離を計算し、シーンチェンジ判定手段によって、類似度計算手段で計算した連続する前後のフレームにおける類似度を示す距離と予め設定した閾値とに基づいてブロックを変化ブロックとし、前後のフレームにおいて当該変化ブロックの割合が予め設定した設定値以上になった場合に、後のフレームが入力された時刻をシーンチェンジ点とする。
請求項1、3に記載の発明によれば、ブロックを評価単位として、前後のフレームにおいて対応するブロックのテクスチャ特徴ベクトルの差が閾値を越えたブロックを変化ブロックとし、この変化ブロックの数が設定値以上の場合にシーンチェンジを検出しているので、画素を評価単位とする従来の手法に比べ、シーンチェンジの過剰検出を抑制でき、シーンチェンジの検出を高精度に行うことができる。
請求項2に記載の発明によれば、テクスチャ特徴ベクトルのみではなく、色特徴ベクトルも併用しているので、ブロックを評価単位とする従来の手法に比べ、シーンチェンジの過剰検出を抑制でき、シーンチェンジの検出をより高精度に行うことができる。
次に、本発明の実施形態について、適宜、図面を参照しながら詳細に説明する。
〈シーンチェンジ検出装置の構成〉
図1は、シーンチェンジ検出装置のブロック図である。この図1に示すように、シーンチェンジ検出装置1は、動画像のシーンチェンジの検出を行うもので、分割手段3と、特徴計算手段5と、類似度計算手段7と、シーンチェンジ判定手段9と、シーンチェンジ時刻データ蓄積手段11とを備えている。
〈シーンチェンジ検出装置の構成〉
図1は、シーンチェンジ検出装置のブロック図である。この図1に示すように、シーンチェンジ検出装置1は、動画像のシーンチェンジの検出を行うもので、分割手段3と、特徴計算手段5と、類似度計算手段7と、シーンチェンジ判定手段9と、シーンチェンジ時刻データ蓄積手段11とを備えている。
分割手段3は、入力された動画像を構成する各フレームを所定の画像サイズ、つまり、フレームを所定数のブロック(M×N個のブロック)に分割するものである。ここでは、図2(a)(b)に示すように、フレーム(入力フレーム画像)を横方向に4つに、縦方向に3つに分割している(M=4、N=3の場合)。ここでは、所定の画像サイズは、フレームのサイズの1/12となる。また、図2(c)に示すように、各ブロックを区別するために、座標(i,j)(i=1,...,M、j=1,...,N)を付している。なお、この図2(c)において、例えば、V(1,1)は、ブロック(1,1)における特徴ベクトル(後記する特徴計算手段5で計算されたもの)を示している。
図1に戻って、シーンチェンジ検出装置1の構成の説明を続ける。
特徴計算手段5は、分割手段3で分割したブロックごとの特徴ベクトル(テクスチャ特徴ベクトル、色特徴ベクトル)を計算するもので、テクスチャ特徴ベクトル計算部5aと、色特徴ベクトル計算部5bとを備えている。テクスチャ特徴ベクトル(NT次元)をVT(i,j)=[VT(1,i,j),...,VT(NT,i,j)]とし、色特徴ベクトル(NC次元)をVC(i,j)=[VC(1,i,j),...,VC(NC,i,j)]とする。
特徴計算手段5は、分割手段3で分割したブロックごとの特徴ベクトル(テクスチャ特徴ベクトル、色特徴ベクトル)を計算するもので、テクスチャ特徴ベクトル計算部5aと、色特徴ベクトル計算部5bとを備えている。テクスチャ特徴ベクトル(NT次元)をVT(i,j)=[VT(1,i,j),...,VT(NT,i,j)]とし、色特徴ベクトル(NC次元)をVC(i,j)=[VC(1,i,j),...,VC(NC,i,j)]とする。
テクスチャ特徴ベクトル計算部5aは、各ブロックにエッジ抽出処理を施して、ブロックのエッジ量で示す特徴量と、ブロックにおける各方向のエッジ画素対の数で示す特徴量と、フラクタル尺度を利用した輝度変化の複雑な度合いを示す複雑度で示す特徴量とにおいて、各特徴量の少なくとも1つを計算して、テクスチャ特徴ベクトルを求めるものである。
ここでは、テクスチャ特徴ベクトルは、エッジ量で示す特徴量を用いている。なお、これらの特徴量(エッジ量で示す特徴量、エッジ画素対の数で示す特徴量および複雑度で示す特徴量)を併用すればするほど、テクスチャ特徴ベクトルの次元が増加し、シーンチェンジを判定する際の精度が向上する。
エッジは、画素間の相対的な濃度差によって現れ、被写体等の対象の輪郭に見える部分である。エッジ抽出処理は、画像に含まれている急激な濃度差を1次微分することにより、輪郭を抽出する処理である。なお、エッジ抽出処理を施したブロックを、ブロックエッジ画像と呼称することとする。
ブロック(ブロックエッジ画像)のエッジ量は、ブロックエッジ画像に含まれているエッジの画素数を指しており、ここでは、エッジ量(エッジ量ベクトル)Veと表すことにする。そうすると、この場合のテクスチャ特徴ベクトルは、VT(i,j)=[Ve]となる。
ブロック(ブロックエッジ画像)における各方向のエッジ画素対の数は、ブロックエッジ画像のエッジ方向(0度、45度、90度、135度)のヒストグラムベクトルV0、V45、V90、V135と表すことにする。V0は、ブロックエッジ画像における、水平方向のエッジ画素対の数を表しており、V45は、ブロックエッジ画像における、右上がり45度方向のエッジ画素対の数を表している。また、V90は、ブロックエッジ画像における、垂直方向のエッジ画素対の数を表しており、V135は、ブロックエッジ画像における、左上がり45度方向のエッジ画素対の数を表している。そうすると、この場合のテクスチャ特徴ベクトルは、VT(i,j)=[V0、V45、V90、V135]となる。
フラクタル尺度を利用した輝度変化の複雑な度合いを示す複雑度は、ブロック内に、輝度の異なる複数の領域が存在し、これらの領域が複雑な形状をして、絡み合っている度合いを示す特徴量である。なお、この複雑度の求め方については、特開2001−56820号公報の「静止画像検索装置および記録媒体」に開示されている手法を用いることとする。ここでは、複雑度(複雑度ベクトル)をVcompと表すことにする。そうすると、この場合のテクスチャ特徴ベクトルは、VT(i,j)=[Vcomp]となる。
色特徴ベクトル計算部5bは、ブロックの全画素のRGB(赤色[Red]、緑色[Green]、青色[Blue])の平均値、または、HSV(色相[Hue]、彩度[Saturation]、明度[Value])の平均値を計算し、色特徴ベクトル(RGB平均値ベクトル、または、HSV平均値ベクトル)を求めるものである。
ここでは、RGB平均値ベクトルをVC(i,j)=[r,g,b]と表すこととし、HSV平均値ベクトルをVC(i,j)=[h,s,v]と表すこととする。
ここでは、RGB平均値ベクトルをVC(i,j)=[r,g,b]と表すこととし、HSV平均値ベクトルをVC(i,j)=[h,s,v]と表すこととする。
そして、特徴計算手段5は、テクスチャ特徴ベクトル計算部5aで求められたテクスチャ特徴ベクトルVT(i,j)と、色特徴ベクトル計算部5bで求められた色特徴ベクトルVC(i,j)とを組み合わせたNT+NC次元ベクトルV(i,j)=[VT(1,i,j),...,VT(NT,i,j),VC(1,i,j),...,VC(NC,i,j)]を、ブロックの特徴ベクトルとする。
類似度計算手段7は、特徴計算手段5から出力された特徴ベクトルV(i,j)に基づいて、連続する前後のフレーム(前フレームと後フレーム[現フレーム])の各ブロックの類似度を計算するものである。つまり、1つのフレームに含まれている全てのブロック(i,j)(i=1,2,...,M,j=1,2,...,N)について、前フレームの各ブロックの特徴ベクトルをv(i,j)とし、現フレームの各ブロックの特徴ベクトルをV(i,j)とし、類似度をS(i,j)とすると、この類似度計算手段7では、これらv(i,j)とV(i,j)とからS(i,j)を計算する。
ここでは、類似度計算手段7は、以下に示す2つの式のいずれかに基づいて、類似度を計算している。なお、これらの特徴ベクトルの類似度の計算よると、ここでは、計算して得られた数値が大きいほど類似度が高く、小さいほど類似度が低くなる。(1)式は、符号を反転したユークリッド距離を計算するものである。
また、(2)式は、コサンイン距離を計算するものである。なお、コサイン距離は、−1.0〜1.0の範囲の数値をとる。
シーンチェンジ判定手段9は、類似度計算手段7で計算した特徴ベクトルの類似度を示す距離に基づいて、シーンチェンジを検出するものである。つまり、このシーンチェンジ判定手段9は、類似度計算手段7で計算した特徴ベクトルの類似度を示す距離が予め設定した閾値(Tsとする)以下になった(閾値を越えた)ブロックの数をカウントし、このブロック数が予め設定した設定値(Rとする)以上になったか否かを判定する。そして、シーンチェンジ判定手段9は、予め設定した閾値以下になったブロックの数が、予め設定した設定値以上になった場合、後フレーム(現フレーム)が入力された時刻をシーンチェンジされた時(シーンチェンジ点)とみなし、当該時刻をシーンチェンジ時刻データ蓄積手段11に出力するものである。なお、当該時刻をシーンチェンジ時刻データ蓄積手段11に出力する際に、後フレーム(現フレーム)を識別するフレーム番号と対応付けられる。
また、ここでは、類似度計算手段7で計算した特徴ベクトルの類似度を示す距離が予め設定した閾値(Ts)以下になったブロックの数をカウントしているが、距離の取り方によっては、閾値以上になったブロックの数をカウントしてもよい。つまり、シーンチェンジ判定手段9は、閾値を越えたブロックをカウントするものである。すなわち、閾値を越えたとは、閾値以上になった場合と閾値以下になった場合の両方を指すもので、閾値を「超える」とは異なり、閾値を「越える」は“通り過ぎる”、“向こう側に行く”という意味である。
なお、類似度計算手段7で計算した特徴ベクトルの類似度を示す距離が予め設定した閾値(Tsとする)以下になったブロックを変化ブロックと呼称することとする。この変化ブロックの数が多くなるほど、現フレームは、前フレームと異なった構図であるといえ、シーンチェンジを判定する際の根拠とされる。
シーンチェンジ時刻データ蓄積手段11は、シーンチェンジ判定手段9から出力された時刻を、シーンチェンジがなされた時刻を示すものとし、シーンチェンジ時刻データとして蓄積するもので、一般的なハードディスクやメモリ等の記録媒体によって構成されている。
ここで、図3を参照して、類似度計算手段7およびシーンチェンジ判定手段9による処理について説明する。
まず、図3(a)、(b)に示すように、類似度計算手段7によって、現フレームの各ブロックの特徴ベクトルV(i,j)と、前フレームの各ブロックの特徴ベクトルv(i,j)との類似度S(i,j)を計算する(図3のStep1)。
まず、図3(a)、(b)に示すように、類似度計算手段7によって、現フレームの各ブロックの特徴ベクトルV(i,j)と、前フレームの各ブロックの特徴ベクトルv(i,j)との類似度S(i,j)を計算する(図3のStep1)。
そして、シーンチェンジ判定手段9によって、類似度S(i,j)≦閾値Tsであるブロック(ハッチングを施したブロック)の数をカウントし、このカウントした数をnとする(0≦n≦M×N)(図3のStep2)。そして、このカウントした数nが変化ブロックの数であり、フレーム全体に対して、この変化ブロックの数n(割合)が設定値R(例えば、M×N=12個であるので、R=8)以上である場合に、現フレームが入力された時刻をシーンチェンジ点とみなして、シーンチェンジ時刻データとして蓄積する(図3のStep3)。
図1に示したシーンチェンジ検出装置1によれば、分割手段3でフレームをブロックに分割し、このブロックを評価単位として、前後のフレームにおいて対応するブロックのテクスチャ特徴ベクトルの差が閾値Ts以下になった(閾値を越えた)ブロックを変化ブロックとし、この変化ブロックの数が設定値R以上の場合にシーンチェンジを検出しているので、画素を評価単位とする従来の手法に比べ、シーンチェンジの過剰検出を抑制でき、シーンチェンジの検出を高精度に行うことができる。
また、シーンチェンジ検出装置1によれば、特徴計算手段5において、テクスチャ特徴ベクトルのみではなく、色特徴ベクトルも併用して計算しているので、ブロックを評価単位とする従来の手法に比べ、シーンチェンジの過剰検出を抑制でき、シーンチェンジの検出を高精度に行うことができる。
〈シーンチェンジ検出装置の動作〉
次に、図6に示すフローチャートを参照して、シーンチェンジ検出装置1の動作を説明する(適宜、図1参照)。
まず、シーンチェンジ検出装置1は、動画像を構成する画像(現在のフレーム[現フレーム])を切り出して(ステップS1)、分割手段3によって、現フレームを、M×N個のブロックに分割する(ステップS2)。
次に、図6に示すフローチャートを参照して、シーンチェンジ検出装置1の動作を説明する(適宜、図1参照)。
まず、シーンチェンジ検出装置1は、動画像を構成する画像(現在のフレーム[現フレーム])を切り出して(ステップS1)、分割手段3によって、現フレームを、M×N個のブロックに分割する(ステップS2)。
続いて、シーンチェンジ検出装置1は、特徴計算手段5のテクスチャ特徴ベクトル計算部5aおよび色特徴ベクトル計算部5bによって、各ブロック(i,j)(i=1,2,...,M,j=1,2,...,N)のテクスチャ特徴ベクトルVT(i,j)と色特徴ベクトルVC(i,j)とを計算し、VT(i,j)とVC(i,j)とを組み合わせて、ブロック(i,j)の特徴ベクトルV(i,j)を求める。
そして、シーンチェンジ検出装置1は、現フレームが開始フレームかどうか(現フレームを前フレームとするか否か)を判定する(ステップS4)。現フレームを開始フレームとすると判定しなかった場合(ステップS4、No)、シーンチェンジ検出装置1は、類似度計算手段7によって、各ブロック(i,j)について、現フレームの各ブロックの特徴ベクトルV(i,j)と前フレームの各ブロックの特徴ベクトルv(i,j)との類似度を計算する(ステップS5)。なお、ステップS4にて、現フレームを開始フレームとすると判定した場合(ステップS4、Yes)、後記するステップS10の処理に移行する。
そして、シーンチェンジ検出装置1は、シーンチェンジ判定手段9によって、類似度S(i,j)が閾値Ts以下のブロック(変化ブロック)の数nを数える(カウントする)(ステップS6)。なお、変化ブロックの数nは、0≦n≦M×Nの範囲である。
それから、シーンチェンジ検出装置1は、シーンチェンジ判定手段9によって、変化ブロックの数nが設定値R以上であるか否かを判定し(ステップS7)、変化ブロックの数nが設定値R以上であると判定した場合(ステップS7、Yes)には、現フレームを切り出した(現フレームが入力された)時刻を「シーンチェンジ時刻データ」として、シーンチェンジ時刻データ蓄積手段11に蓄積する(ステップS8)。
また、シーンチェンジ検出装置1は、シーンチェンジ判定手段9によって、変化ブロックの数nが設定値R以上であると判定しなかった場合(ステップS7、No)には現フレームが終了フレーム(動画像を構成する画像の中で最後[最終]の画像)であるか否かを判定し(ステップS9)、終了フレームであると判定した場合(ステップS9、Yes)には動作を終了する。
そして、シーンチェンジ検出装置1は、終了フレームであると判定しなかった場合(ステップS9、No)、現フレームの各ブロックの特徴ベクトルV(i,j)を、前フレームの各ブロックの特徴ベクトルv(i,j)に置き換えて(ステップ10)、ステップS1に戻る。
〈シーンチェンジ検出装置と従来手法とによるシーンチェンジの検出結果の比較〉
次に、図4、図5を参照して、シーンチェンジ検出装置1(提案手法)によって動画像のシーンチェンジを検出した場合と、従来手法(比較手法)によって動画像のシーンチェンジを検出した場合との比較(実験結果)について説明する。
次に、図4、図5を参照して、シーンチェンジ検出装置1(提案手法)によって動画像のシーンチェンジを検出した場合と、従来手法(比較手法)によって動画像のシーンチェンジを検出した場合との比較(実験結果)について説明する。
図4は、比較手法と提案手法との実験結果を示した図であり、図5は、比較手法と提案手法とにおけるフレーム間差分の推移を示した図である。なお、図5の白丸は、予め実験前に測定された正確なカット点(シーンェンジするフレーム)を示している。ここでは、動画像として、5分間の野球映像を用いている(図7に示したような、被写体である野球選手に対して、様々な観客が多数映っている観客席が背景となっている動画像)。
比較手法は、変化した画素の面積に基づいて、シーンチェンジ(カット点)の検出を行う手法であり、提案手法は、これまで説明してきたように、変化ブロックの数に基づいて、シーンチェンジ(カット点)の検出を行う手法である。
図4に示すように、5分間の野球映像には、正解カット数(予め確かめられたカット点)が45個含まれているはずであるが、比較手法による検出結果では、シーンチェンジ(カット点)の検出数が382個となっており、検出漏れが2個となっているので、過剰検出が339個(382−45+2)となっている。これに比べ、提案手法による検出結果では、シーンチェンジ(カット点)の検出数が92個となっており、検出漏れが2個となっているので、過剰検出が49個(92−45+2)となっている。
このように、比較手法で過剰検出が生じた理由は、図5(a)に示したように、比較手法では、フレーム(フレームNo)にハッチングを施した部分において、変化した画素の面積が連続して広くなる箇所が生じるからであり、この箇所にて、シーンチェンジであると連続して検出して、過剰検出が発生するからである。これに比べ、図5(b)に示したように、提案手法では、フレーム(フレームNo)にハッチングを施した部分において、
比較手法で過剰検出が発生している時間帯でも、変化ブロックの数は多くなっておらず、過剰検出が発生しない。
比較手法で過剰検出が発生している時間帯でも、変化ブロックの数は多くなっておらず、過剰検出が発生しない。
この比較(実験結果)からもわかるように、シーンチェンジ検出装置1によって動画像のシーンチェンジを行うと、過剰検出を抑制することができ、シーンチェンジの検出を高精度に行うことができる。
以上、本発明の実施形態について説明したが、本発明は前記実施形態には限定されない。例えば、本実施形態では、シーンチェンジ検出装置1として説明したが、当該装置1に含まれる各手段が実行する処理を、汎用的または特殊なコンピュータ言語によって記述したシーンチェンジ検出プログラムとして実現することも可能である。この場合、シーンチェンジ検出装置1と同様の効果を得ることができる。
1 シーンチェンジ検出装置
3 分割手段
5 特徴計算手段
5a テクスチャ特徴ベクトル計算部
5b 色特徴ベクトル計算部
7 類似度計算手段
9 シーンチェンジ判定手段
11 シーンチェンジ時刻データ蓄積手段
3 分割手段
5 特徴計算手段
5a テクスチャ特徴ベクトル計算部
5b 色特徴ベクトル計算部
7 類似度計算手段
9 シーンチェンジ判定手段
11 シーンチェンジ時刻データ蓄積手段
Claims (3)
- 入力された動画像のシーンチェンジを検出するシーンチェンジ検出装置であって、
前記動画像を構成する各フレームを所定の画像サイズのブロックに分割する分割手段と、
この分割手段で分割したブロックごとに、当該ブロックのエッジ量で示す特徴量、または、当該ブロックにおける各方向のエッジ画素対の数で示す特徴量、或いは、当該ブロックにおけるフラクタル尺度を利用した輝度変化が複雑な度合いを示す複雑度で示す特徴量における少なくとも1つの特徴量を計算した当該ブロックごとのテクスチャ特徴ベクトルを求める特徴計算手段と、
この特徴計算手段で求めた前記ブロックごとのテクスチャ特徴ベクトルについて、連続する前後のフレームにおける類似度を示す距離を計算する類似度計算手段と、
この類似度計算手段で計算した連続する前後のフレームにおける類似度を示す距離が予め設定した閾値を越えた前記ブロックを、前記フレームの構図の一部が変化したことを示す変化ブロックとし、前記前後のフレームにおいて当該変化ブロックの割合が予め設定した設定値以上になった場合に、後のフレームが入力された時刻をシーンチェンジ点とするシーンチェンジ判定手段と、
このシーンチェンジ判定手段で判定されたシーンチェンジ点に関する情報を、シーンチェンジ時刻データとして蓄積するシーンチェンジ時刻データ蓄積手段と、
を備えることを特徴とするシーンチェンジ検出装置。 - 前記特徴計算手段は、
前記ブロック内の全画素のRGB平均値、または、HSV平均値を特徴量として計算した当該ブロックごとの色特徴ベクトルを求め、この色特徴ベクトルと前記テクスチャ特徴ベクトルとを合成した特徴ベクトルを求めることを特徴とする請求項1に記載のシーンチェンジ検出装置。 - 入力された動画像のシーンチェンジを検出するために、コンピュータを、
前記動画像を構成する各フレームを所定の画像サイズのブロックに分割する分割手段、
この分割手段で分割したブロックごとに、当該ブロックのエッジ量で示す特徴量、または、当該ブロックにおける各方向のエッジ画素対の数で示す特徴量、或いは、当該ブロックにおけるフラクタル尺度を利用した輝度変化の複雑な度合いを示す複雑度で示す特徴量における少なくとも1つの特徴量を計算した当該ブロックごとのテクスチャ特徴ベクトルを求める特徴計算手段、
この特徴計算手段で求めた前記ブロックごとのテクスチャ特徴ベクトルについて、連続する前後のフレームにおける類似度を示す距離を計算する類似度計算手段、
この類似度計算手段で計算した連続する前後のフレームにおける類似度を示す距離が予め設定した閾値を越えた前記ブロックを、前記フレームの構図の一部が変化したことを示す変化ブロックとし、前記前後のフレームにおいて当該変化ブロックの割合が予め設定した設定値以上になった場合に、後のフレームが入力された時刻をシーンチェンジ点とするシーンチェンジ判定手段、
として機能させることを特徴とするシーンチェンジ検出プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005083126A JP2006270301A (ja) | 2005-03-23 | 2005-03-23 | シーンチェンジ検出装置およびシーンチェンジ検出プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005083126A JP2006270301A (ja) | 2005-03-23 | 2005-03-23 | シーンチェンジ検出装置およびシーンチェンジ検出プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006270301A true JP2006270301A (ja) | 2006-10-05 |
Family
ID=37205819
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005083126A Pending JP2006270301A (ja) | 2005-03-23 | 2005-03-23 | シーンチェンジ検出装置およびシーンチェンジ検出プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006270301A (ja) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009031398A1 (ja) * | 2007-09-06 | 2009-03-12 | Mitsubishi Electric Corporation | 類似画像判別装置、チャプタ判定装置、映像信号記録装置及び画像処理装置 |
JP2009177550A (ja) * | 2008-01-25 | 2009-08-06 | Sony Corp | シーン切り替わり点検出器、シーン切り替わり点検出方法、記録装置、イベント生成器、イベント生成方法、再生装置およびプログラム |
JP2011118498A (ja) * | 2009-12-01 | 2011-06-16 | Nec Corp | 映像識別子抽出装置および方法、映像識別子照合装置および方法、ならびにプログラム |
EP2778896A1 (en) | 2013-03-11 | 2014-09-17 | Kabushiki Kaisha Toshiba | Information processor, cloud platform, information processing method, and computer program thereof |
US20160127741A1 (en) * | 2013-01-30 | 2016-05-05 | Atul Puri | Content adaptive prediction distance analyzer and hierarchical motion estimation system for next generation video coding |
CN111601162A (zh) * | 2020-06-08 | 2020-08-28 | 北京世纪好未来教育科技有限公司 | 视频切分方法、装置和计算机存储介质 |
CN112766045A (zh) * | 2020-12-28 | 2021-05-07 | 平安科技(深圳)有限公司 | 场景变化检测方法、系统、电子装置及存储介质 |
CN113438480A (zh) * | 2021-07-07 | 2021-09-24 | 北京小米移动软件有限公司 | 判断视频场景切换的方法、装置及存储介质 |
CN114827665A (zh) * | 2022-05-31 | 2022-07-29 | 北京奇艺世纪科技有限公司 | 视频分析方法、装置、设备及存储介质 |
-
2005
- 2005-03-23 JP JP2005083126A patent/JP2006270301A/ja active Pending
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009031398A1 (ja) * | 2007-09-06 | 2009-03-12 | Mitsubishi Electric Corporation | 類似画像判別装置、チャプタ判定装置、映像信号記録装置及び画像処理装置 |
JPWO2009031398A1 (ja) * | 2007-09-06 | 2010-12-09 | 三菱電機株式会社 | 類似画像判別装置、チャプタ判定装置、映像信号記録装置及び画像処理装置 |
JP2009177550A (ja) * | 2008-01-25 | 2009-08-06 | Sony Corp | シーン切り替わり点検出器、シーン切り替わり点検出方法、記録装置、イベント生成器、イベント生成方法、再生装置およびプログラム |
US8320614B2 (en) | 2008-01-25 | 2012-11-27 | Sony Corporation | Scene switching point detector, scene switching point detecting method, recording apparatus, event generator, event generating method, reproducing apparatus, and computer program |
JP2011118498A (ja) * | 2009-12-01 | 2011-06-16 | Nec Corp | 映像識別子抽出装置および方法、映像識別子照合装置および方法、ならびにプログラム |
US20160127741A1 (en) * | 2013-01-30 | 2016-05-05 | Atul Puri | Content adaptive prediction distance analyzer and hierarchical motion estimation system for next generation video coding |
US10284852B2 (en) * | 2013-01-30 | 2019-05-07 | Intel Corporation | Content adaptive prediction distance analyzer and hierarchical motion estimation system for next generation video coding |
EP2778896A1 (en) | 2013-03-11 | 2014-09-17 | Kabushiki Kaisha Toshiba | Information processor, cloud platform, information processing method, and computer program thereof |
CN111601162A (zh) * | 2020-06-08 | 2020-08-28 | 北京世纪好未来教育科技有限公司 | 视频切分方法、装置和计算机存储介质 |
CN112766045A (zh) * | 2020-12-28 | 2021-05-07 | 平安科技(深圳)有限公司 | 场景变化检测方法、系统、电子装置及存储介质 |
CN112766045B (zh) * | 2020-12-28 | 2023-11-24 | 平安科技(深圳)有限公司 | 场景变化检测方法、系统、电子装置及存储介质 |
CN113438480A (zh) * | 2021-07-07 | 2021-09-24 | 北京小米移动软件有限公司 | 判断视频场景切换的方法、装置及存储介质 |
CN113438480B (zh) * | 2021-07-07 | 2022-11-11 | 北京小米移动软件有限公司 | 判断视频场景切换的方法、装置及存储介质 |
CN114827665A (zh) * | 2022-05-31 | 2022-07-29 | 北京奇艺世纪科技有限公司 | 视频分析方法、装置、设备及存储介质 |
CN114827665B (zh) * | 2022-05-31 | 2023-10-10 | 北京奇艺世纪科技有限公司 | 视频分析方法、装置、设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2006270301A (ja) | シーンチェンジ検出装置およびシーンチェンジ検出プログラム | |
US8531484B2 (en) | Method and device for generating morphing animation | |
US8290264B2 (en) | Image processing method and apparatus | |
US8654181B2 (en) | Methods for detecting, visualizing, and correcting the perceived depth of a multicamera image sequence | |
EP3021575B1 (en) | Image processing device and image processing method | |
KR101369915B1 (ko) | 영상 식별자 추출 장치 | |
JP3461626B2 (ja) | 特定画像領域抽出方法及び特定画像領域抽出装置 | |
CN107430780B (zh) | 用于基于视频内容特性的输出创建的方法 | |
US7974470B2 (en) | Method and apparatus for processing an image | |
JP6198484B2 (ja) | ビデオシーケンスのイメージをリフレーミングする方法及び装置 | |
US20120262543A1 (en) | Method for generating disparity map of stereo video | |
US9563967B2 (en) | Photographic subject tracking device and camera | |
US20080019669A1 (en) | Automatically editing video data | |
KR20090006068A (ko) | 동영상 시퀀스를 수정하는 방법 및 그 장치 | |
JP2002271795A (ja) | 画像符号化方法と装置および画像復号方法と装置 | |
JP2011076316A (ja) | 群衆監視装置および方法ならびにプログラム | |
US20100021008A1 (en) | System and Method for Face Tracking | |
WO2007129591A1 (ja) | 遮蔽物映像識別装置及び方法 | |
JP5644505B2 (ja) | 照合加重情報抽出装置 | |
Dittrich et al. | Saliency detection for stereoscopic video | |
JP2003203237A (ja) | 画像マッチング方法と装置、および画像符号化方法と装置 | |
CN104112266B (zh) | 一种图像边缘虚化的检测方法和装置 | |
JP4225503B2 (ja) | 動画像のカット点検出装置 | |
JP2011113177A (ja) | 被写体3次元モデルを構築する方法およびプログラム | |
Lavigne et al. | Automatic Video Zooming for Sport Team Video Broadcasting on Smart Phones. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070409 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080826 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20081027 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20090421 |