JP2008083894A - プログラム、検出方法、及び検出装置 - Google Patents

プログラム、検出方法、及び検出装置 Download PDF

Info

Publication number
JP2008083894A
JP2008083894A JP2006261867A JP2006261867A JP2008083894A JP 2008083894 A JP2008083894 A JP 2008083894A JP 2006261867 A JP2006261867 A JP 2006261867A JP 2006261867 A JP2006261867 A JP 2006261867A JP 2008083894 A JP2008083894 A JP 2008083894A
Authority
JP
Japan
Prior art keywords
image
similarity
histogram
spatial correlation
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006261867A
Other languages
English (en)
Other versions
JP4720705B2 (ja
Inventor
Mototsugu Abe
素嗣 安部
Masayuki Nishiguchi
正之 西口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2006261867A priority Critical patent/JP4720705B2/ja
Priority to US11/861,906 priority patent/US20080181492A1/en
Priority to CN200710152516A priority patent/CN100592339C/zh
Publication of JP2008083894A publication Critical patent/JP2008083894A/ja
Application granted granted Critical
Publication of JP4720705B2 publication Critical patent/JP4720705B2/ja
Priority to US13/198,693 priority patent/US8254677B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Television Signal Processing For Recording (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

【課題】カットチェンジの検出を高精度に行う。
【解決手段】ヒストグラム生成部101は、前フレームと現フレームのそれぞれの輝度または色のヒストグラムを生成し、空間相関画像生成部102は、前フレームと現フレームのそれぞれの空間配置の相関関係を表す画像である空間相関画像を生成する。ヒストグラム類似度計算部104は、前フレームのヒストグラムと現フレームのヒストグラムの類似度であるヒストグラム類似度を計算し、空間相関画像類似度計算部105は、前フレームの空間相関画像と現フレームの空間相関画像の類似度である空間相関画像類似度を計算する。判定部64は、ヒストグラム類似度と空間相関画像類似度に基づいて、前フレームと現フレームにおける画像の変化がカットチェンジであるかを判定する。本発明は、例えば、画像処理用のパーソナルコンピュータに適用できる。
【選択図】図12

Description

本発明は、プログラム、検出方法、及び検出装置に関し、特に、カットチェンジの検出を高精度に行うことができるようにするプログラム、検出方法、及び検出装置に関する。
画像からカットチェンジを検出する処理は、画像の分析、符号化、検索等を行う場合に有用である。
ここで、カットとは、空間的に連続するひとまとまりの画像区間(画像クリップ)を意味し、カットチェンジは、カットの切り替え点、すなわち、時間的若しくは空間的に不連続な画像クリップどうしが連結された境界である画像の変化点のことを意味する。
なお、カットチェンジは、ショットチェンジ、シーンチェンジ、画像変化点等と称される場合があるが、本明細書においては、カットチェンジと称する。
ところで、従来のカットチェンジの検出方法として、統計量差分法、画素差分法、符号化データ法、エッジ法等が知られているが、最も精度がよいと認識されているのは、ヒストグラム差分法である。
ヒストグラム差分法においては、ヒストグラムの差分値が用いられる。
ここで、ヒストグラムは、あるフレームの画像の各ピクセルを、その輝度または色の画素値に対応して、適当な階調数(一般には、16乃至64階調がよく用いられる)に分割された各要素(ビン)に投票することで、その画像の輝度または色の頻度分布を求めたものである。
ヒストグラム差分法には、単純ヒストグラム差分法と分割ヒストグラム差分法がある。
単純ヒストグラム差分法においては、処理対象とする、例えば2フレームの画像のそれぞれのヒストグラムどうしの違いが評価量として算出される(例えば、非特許文献1参照)。
また、単純ヒストグラム差分法においては、一般に、ヒストグラムどうしの違いとして、ヒストグラムの同じビンどうしの差分値のヒストグラム全体に関する絶対和(以下、適宜、ヒストグラム差分絶対和という)が評価量として算出される。
分割ヒストグラム差分法においては、処理対象とする、例えば2フレームの画像のそれぞれの画像全体が所定数のブロック(例えば、非特許文献1では、16個のブロック)に分割され、各ブロックのヒストグラムどうしの違いが求められ、そのヒストグラムどうしの違いが小さい方から所定数のブロックのみが、評価量の算出に用いられる(例えば、非特許文献1及び2参照)。
カット内の画像の変化には、カメラモーション、撮影対象の移動や変形等の変化(以下、適宜、位置姿勢形状系変化という)、カメラの絞りやカラーバランスの変化、撮影対象の明るさや色等の変化(以下、適宜、明るさ色系変化という)、そして、テロップ等の出現、高速に移動する物体の出現や消滅等の変化(以下、適宜、出現系変化という)等がある。
ヒストグラム差分法を用いた場合、ヒストグラムを生成する処理の過程で、撮影対象の形状や空間配置等の情報がほとんど無くなるので、カット内で最も頻発する位置姿勢形状系変化に対する感度を低く抑えることができる。したがって、ヒストグラム差分法のカットチェンジ検出の精度は、他の方法のカットチェンジ検出の精度に比べて高くなっている。
また、ヒストグラム差分法を用いた場合、ヒストグラムを生成する処理の過程で、撮影対象の形状や空間配置等の情報がほとんど無くなるので、副作用として、明るさ色系変化や出現系変化に対して、必要以上に感度が高くなってしまう。
非特許文献2によれば、ヒストグラム差分法は、上述した方法の中では最も検出の精度が高いとされており、単純ヒストグラム差分法で85%程度、分割ヒストグラム差分法で90%程度の検出率が達成されたと報告されている。
しかしながら、最も精度が高い分割ヒストグラム差分法であっても、カットチェンジとされるべきカットチェンジ(正しいカットチェンジ)の10個につき1個程度の割合で、過剰検出や検出の漏れが発生していることになり、十分な精度があるとは言えなかった。
図1及び図2を参照して、ヒストグラム差分法を用いた場合のカット内の画像の変化とヒストグラムの関係について説明する。
図1は、画像全体の明るさが変化した場合のヒストグラムの変化を示している。
図1において、フレームF1とフレームF2は、時間的に隣接する処理対象とする2フレームの画像であり、ヒストグラムH1とヒストグラムH2は、それぞれフレームF1とフレームF2の画像全体に関する輝度のヒストグラムである。
図1において、フレームF1とフレームF2の間では、撮影対象の形状や空間配置はほとんど変化せず、画像全体の輝度が暗くなるように変化しているので、ヒストグラムH2は、ヒストグラムH1に較べて、ヒストグラムが全体的に図中左方向(輝度値が小さい方向)にずれている。
フレームF1とフレームF2の間の画像の変化は、本来、カット内の画像の変化とすべきであるにもかかわらず、単純ヒストグラム差分法を用いた場合、ヒストグラムH1とヒストグラムH2の間の違いが所定の閾値以上になると、フレームF1とフレームF2の間の切り替え点がカットチェンジと誤って判定されてしまうおそれが高い。
また、分割ヒストグラム差分法を用いた場合も、画像全体の輝度が変化すると、すべてのブロックでフレームF1とフレームF2のそれぞれのヒストグラムどうしの違いが生じるので、カットチェンジの誤検出が生じるおそれが高い。
図2は、テロップが出現した場合のヒストグラムの変化を示している。
図2において、フレームF11とフレームF12は、時間的に隣接する処理対象とする2フレームの画像であり、ヒストグラムH11とヒストグラムH12は、それぞれフレームF11とフレームF12の画像全体に関する輝度のヒストグラムである。
図2において、フレームF11とフレームF12の間の画像の変化は、主に、突然出現したテロップの分であり、ヒストグラムH12は、ヒストグラムH11と比べて、テロップの領域のヒストグラムが加わり、また、テロップで隠蔽された領域のヒストグラムが差し引かれるように変化している。
フレームF11とフレームF12との間の画像の変化は、本来、カット内の画像の変化とすべきであるにもかかわらず、単純ヒストグラム差分法を用いた場合、ヒストグラムH11とヒストグラムH12の間の違いが所定の閾値以上となると、フレームF11とフレームF12の切り替え点がカットチェンジと誤って判定されてしまうおそれが高い。
一方、分割ヒストグラム差分法を用いた場合には、テロップの領域に対応するブロック以外のブロックどうしのヒストグラムの違いが小さいので、評価量の算出に用いるブロックの数が適切であれば、フレームF11とフレームF12の間の画像の変化がカットチェンジでないと判定され、カットチェンジの誤検出が生じるおそれが低い。
以上のように、分割ヒストグラム差分法では、ヒストグラムどうしの違いが小さい方から所定数のブロックを、評価量の算出に用いるブロックとすることにより、撮影対象の形状や空間配置等に関する情報を部分的にではあるが利用していることになるので、単純ヒストグラム差分法に比べてカットチェンジ検出の精度が高くなる。ただし、分割ヒストグラム差分法を用いた場合でも、図1の場合のように、画像の全体の輝度が変化する場合や、撮影対象がブロックの境界を跨いで高速に移動する場合等には、カットチェンジの誤検出が発生するおそれが高い。
また、ヒストグラム差分法(単純ヒストグラム差分法及び分割ヒストグラム差分法)を用いた場合、輝度の微小変動が、カットチェンジと誤って判定されてしまうおそれがある。
次に、図3乃至図5を参照して、ヒストグラム差分法を用いた場合の輝度の微小変動とヒストグラムの関係について説明する。
図3は、カットチェンジが正しく検出される場合のヒストグラムの変化を示している。
図3において、フレームF31乃至F33は、時間的に隣接する一連の画像であり、フレームF31から順番に2フレームずつの画像が、カットチェンジを検出する処理対象とされる。すなわち、最初に、フレームF31とフレームF32が処理対象とされ、次に、フレームF32とフレームF33が処理対象とされる。
また、ヒストグラムH31乃至H33は、それぞれフレームF31乃至F33の画像全体に関する輝度のヒストグラムである。
図3において、フレームF31とフレームF32の間の画像の変化は、主に、撮影対象としての人の移動の分なので、ヒストグラムH31とヒストグラムH32の分布はほぼ一致している。
この場合、ヒストグラムH31とヒストグラムH32の違いとして、例えば、ヒストグラムH31とヒストグラムH32のヒストグラム差分絶対和を計算すると、そのヒストグラム差分絶対和は十分に小さくなる。したがって、ヒストグラムH31とヒストグラムH32の間の違いは十分に小さいので、フレームF31とフレームF32の間の画像の変化は、カットチェンジではないと正しく判定することができる。
これに対して、フレームF32とフレームF33の間では、撮影対象が全く異なっている(前者は人であるのに対して後者は山である)ので、ヒストグラムH32とヒストグラムH33の間で、ヒストグラムが大きく変化している。
この場合、ヒストグラムH32とヒストグラムH33の間の違いとして、例えば、ヒストグラムH32とヒストグラムH33のヒストグラム差分絶対和を計算すると、そのヒストグラム差分絶対和は十分に大きく、したがって、ヒストグラムH32とヒストグラムH33の間の違いは十分に大きいので、フレームF32とフレームF33の間の画像の変化は、カットチェンジと正しく判定することができる。
図4は、輝度の微小変動が生じた場合のヒストグラムの変化を示している。
図4において、フレームF41乃至F45は、時間的に隣接する一連の画像であり、フレームF41から順番に2つずつの画像がカットチェンジを検出する処理対象とされる。すなわち、最初に、フレームF41とフレームF42が処理対象とされ、次に、フレームF42とフレームF43が処理対象とされる。以下、同様に、2フレームずつの画像が処理対象とされる。
また、ヒストグラムH41乃至H45は、それぞれフレームF41乃至F45の画像全体に関する輝度のヒストグラムである。
フレームF41乃至F45は、例えば、それぞれ単色の画像であり、さらに、各画像の輝度は画像全体で同じである。
図4において、ヒストグラムのビンの数は64個、ビンの幅は4階調である。また、ビンの分割境界は、例えば、76階調と77階調の間、80階調と81階調の間等とされている。そして、フレームF41乃至F45には、73,75,77,79,81と、微小な輝度変動が生じており、画像全体の輝度がわずかずつ増加している。また、フレームF41乃至F45のそれぞれの画像全体の輝度は同じであるので、ヒストグラムH41乃至H45のそれぞれは、1つのビンに頻度が集中している。ヒストグラムの、あるビンに頻度が集中している部分を、以下、適宜、ヒストグラムピークという。
フレームF41乃至F45の画像の変化、つまり、輝度の微小変動は、カット内の画像の変化であり、カットチェンジではない。
フレームF43は、フレームF42に比べて、画像全体の輝度が75から77に微かではあるが増えており、画像全体の輝度がビンの分割境界の1つの76と77の間を跨いだので、ヒストグラムH43は、ヒストグラムH42と比べて、ヒストグラムピークが右隣のビンに移動するように、大きく変化している。そして、例えば、ヒストグラムH42とヒストグラムH43のヒストグラム差分絶対和を計算すると、そのヒストグラム差分絶対和は、ヒストグラムの違いとしては最大となるので、フレームF42とフレームF43の間の切り替え点がカットチェンジと誤検出されてしまう。
同様に、フレームF45は、フレームF44に比べて、画像全体の輝度が79から81に微かではあるが増えており、画像全体の輝度がビンの分割境界の1つの80と81の間を跨いだので、ヒストグラムH45は、ヒストグラムH44と比べて、ヒストグラムピークが右隣のビンに移動するように変化している。そして、例えば、ヒストグラムH44とヒストグラムH45のヒストグラム差分絶対和を計算すると、そのヒストグラム差分絶対和は、ヒストグラムの違いとしては最大となるので、フレームF44とフレームF45の間の切り替え点がカットチェンジと誤検出されてしまう。
かかるカットチェンジの誤検出は、上述したように、特に、単色の画像を処理する場合に典型的に観測されるが、複数色の画像である一般の画像を処理する場合であっても、輝度または色の微小変動に伴って、輝度または色のヒストグラムのビンの分割境界を跨ぐピクセルの数が大きく変化する場合に観測される。このように、処理対象とする2フレームの画像の間の輝度または色の微小変動に伴って、その2つの画像のヒストグラムどうしの違いのブレが生じることは、カットチェンジの検出精度を下げる原因の1つとなっている。
特許文献1には、処理対象とする2つの画像どうしの画像全体の輝度の平均値を一致させる処理を行うことにより、2つの画像のそれぞれのヒストグラムの全体を輝度の軸の方向にシフトさせ(以下、適宜、ヒストグラムシフトという)、ヒストグラムシフト後のヒストグラムどうしの違いを計算する方法が提案されている。この方法を、例えば、図4のような比較的単純な例に採用すると、ヒストグラムシフト後のヒストグラムどうしがほぼ同じ形状、位置となるので、ヒストグラムどうしの違いのブレは吸収され、誤検出が抑制される。
しかし、図5に示されるような場合、誤検出が発生する。すなわち、図5は、画像の左半分と右半分のそれぞれに輝度の微小変動が生じた場合のヒストグラムの変化を示している。
図5において、フレームF51とフレームF52は、時間的に隣接する処理対象とする2つの画像であり、ヒストグラムH51とヒストグラムH52は、それぞれフレームF51とフレームF52の画像全体に関する輝度のヒストグラムである。
フレームF51及びフレームF52の左半分と右半分の領域は、それぞれ単色の画像となっている。
図5において、ヒストグラムのビンの数は64個、ビンの幅は4階調である。また、ビンの分割境界は、例えば、76階調と77階調の間、80階調と81階調の間等とされている。
図5において、フレームF51の左半分と右半分のそれぞれの輝度は、75と81であり、フレームF52の左半分と右半分のそれぞれの輝度は、77と83である。したがって、ヒストグラムH51には、75と81を含むビンのそれぞれにヒストグラムピークがあり、また、フレームF52には、77と83を含むビンのそれぞれにヒストグラムピークがある。
フレームF51とフレームF52の間の画像の変化、つまり、輝度の微小変動は、カット内の画像の変化であり、したがって、フレームF51とフレームF52の境界は、カットチェンジではない。
フレームF52の左半分は、フレームF51の左半分に比べて、画像全体の輝度が75から77に微かではあるが増えており、画像左半分の輝度がビンの分割境界の1つの76と77の間を跨いでいる。一方、フレームF52の右半分は、フレームF51の右半分に比べて、画像全体の輝度が81から83に微かではあるが増えているが、ビンの分割境界を跨いでいない。したがって、ヒストグラムH51とヒストグラムH52の間では、左のヒストグラムピークのみが分割境界である76と77の間を跨いで右隣のビンに移動している。その結果、例えば、ヒストグラムH51とヒストグラムH52のヒストグラム差分絶対和を計算した場合、そのヒストグラム差分絶対和が所定の閾値以上になると、フレームF51とフレームF52の間の画像の変化がカットチェンジと誤検出されてしまう。
このように輝度の微小変動に伴ってヒストグラムの形状が変化する場合には、ヒストグラムシフトだけでは、ヒストグラムどうしの違いのブレを吸収することは難しい。つまり、画像の変化が図4に示した場合より少し複雑化するだけで、ヒストグラムシフトが有効に機能しなくなってしまう。
そこで、特許文献2には、ヒストグラムの生成時に、投票をするビンだけでなく、そのビンに隣接するビンにも所定の割合で投票する方法が提案されている。
かかる方法を用いた場合、画像全体の輝度の変動量が、ヒストグラムのビンの幅に対して十分に小さい場合は、ヒストグラムどうしの違いのブレを緩和させる効果を期待できるが、画像全体の輝度の変動量が、ヒストグラムのビンの幅に対して無視できないほどである場合は、隣接するビンへの投票だけでは、ヒストグラムどうしの違いのブレを吸収できなくなってしまう。
以上のように、ヒストグラム差分法では、輝度または色の微小変動に伴って生じるカットチェンジの誤検出を減らすことが困難であった。
ところで、カットチェンジは、一般に、上述したような隣り合う画像の間に生じることが多く、かかるカットチェンジを、以下、適宜、通常カットチェンジという。これに対して、前後の画像が混合されたような画像内で、2つのカットが連結されるようなカットチェンジもある。これを、ブレンドカットチェンジという。
通常カットチェンジの検出方法では、上述したように、処理対象とする2つの画像どうしの類似度が評価量として計算され、その類似度が所定の閾値よりも低い場合に、すなわち、非類似度が所定の閾値よりも高い場合に、2つの画像の間の画像の変化がカットチェンジであると判定される。
しかし、このような方法では、ブレンドカットチェンジを正確に検出することが困難である。すなわち、通常カットチェンジの例を示している図6において、フレームF61乃至フレームF63は、時間的に隣接する一連の画像であり、フレームF61から順番に2つずつの画像がカットチェンジを検出する処理対象とされる。すなわち、最初に、フレームF61とフレームF62が処理対象とされ、次に、フレームF62とフレームF63が処理対象とされる。
図6において、人が撮影対象となっているフレームF61と家が撮影対象となっているフレームF62の類似度が低くなっており、その類似度が所定の閾値以下であれば、フレームF61とフレームF62の間の画像の変化が、通常カットチェンジであると判定される。また、家が撮影対象となっているフレームF62とやはり家が撮影対象となっているフレームF63の類似度が高くなっており、その類似度が閾値以下でなければ、カットチェンジではないと判定される。
これに対して、ブレンドカットチェンジの例を示している図7において、フレームF71乃至フレームF73は、時間的に隣接する一連の画像であり、フレームF71から順番に2つずつの画像がカットチェンジ検出の処理対象とされる。すなわち、最初に、フレームF71とフレームF72が処理対象とされ、次に、フレームF72とフレームF73が処理対象とされる。
人と家が撮影対象となっているフレームF72は、人が撮影対象である前のフレームF71と、家が撮影対象である後のフレームF73が混合したような画像となっており、フレームF72内で2つのカットが連結されているので、フレームF72はブレンドカットチェンジとなっている。
このようなブレンドカットチェンジは、例えば、カットチェンジが同一画像内のフィールド間で生じる場合(かかるカットチェンジを、以下、適宜、フィールドカットチェンジという)、画像フィルタにより隣接する画像どうしが混合された場合、符号化若しくは復号化時に隣接する画像どうしが混合された場合、編集時に隣接する画像どうしが混合された場合等に生じる。
図7において、フレームF72は、フレームF71またはF73と類似する部分をそれぞれ含んでおり、フレームF72はフレームF71とフレームF73のどちらに対しても類似度が高くなっているので、隣り合う2つの画像どうしの類似度に基づいて、カットチェンジを検出する方法を採用しても、ブレンドカットチェンジを検出することは困難である。
ブレンドカットチェンジの1つであるフィールドカットチェンジを検出する方法が、特許文献3に提案されている。特許文献3の方法では、隣接する2つの画像どうしの類似度ではなく、1フレームおいた2つのフレームの画像どうしの類似度に基づいて、カットチェンジが検出される。
しかしながら、特許文献3の方法を用いた場合、各フレームの画像が撮影対象が早く動く画像である場合には、カットチェンジが検出できないおそれがある。
例えば、図8において、フレームF81乃至フレームF83は、時間的に隣接する一連の画像であり、人が家から画面内の左方向に次第に離れていく画像を表している。フレームF81乃至フレームF83の画像は、人が画面内の左方向に高速に移動している画像であり、カットチェンジは生じていない。
図8において、人の全部と家の左側の一部を含む画像のフレームF81と、人の全部と家の左側のより広い範囲を含む画像のフレームF82の類似度、並びに、そのフレームF82と人の右側半分と家の全部を含む画像のフレームF83の類似度はそれぞれ高くなっているが、人の動きが早いので、人の全部と家の左側の一部を含む画像のフレームF81と、人の右側半分と家の全部を含む画像のフレームF83の類似度は低くなっている。
上述した特許文献3の方法を用いた場合、カットチェンジを検出する処理対象とするフレームF81乃至フレームF83のうちの、例えば、1つおきのフレームF81とフレームF83の類似度を求めるとすると、フレームF81とフレームF83の類似度は低いので、フレームF81乃至フレームF83の間の画像の変化がブレンドカットチェンジと誤って判定されてしまうおそれが高い。
また、特許文献4には、符号化データを用いて、フィールドカットチェンジを検出する方法が提案されている。しかし、この方法は、特定の符号化方式の符号化画像に特有の特徴量を利用するため、その符号化方式を用いて符号化された画像にしか適用できない。
特許文献5には、処理対象とする2つの画像のピクセルどうしの差分値の画像全体に関する絶対和(以下、適宜、差分絶対和という)を求めるとともに、さらに、差分絶対和どうしの差分値を求めることにより、通常カットチェンジとフィールドカットチェンジを区別して検出する方法が提案されている。しかしながら、この方法を用いた場合でも、ブレンドカットチェンジ(フィールドカットチェンジを含む)を精度よく検出することは困難である。
情報処理学会論文誌,長坂晃朗,田中譲,1992年4月,Vol.33,No.4,P.543-550 Comparison of Video Shot Boundary Detection Techniques, John S. Boreczky, Lawrence A. Rowe. Storage and Retrieval for Image and Video Databases (SPIE) (1996) p170-179 特開2006−121274号公報 特開2004−282318号公報 特開2000−295624号公報 特開2002−64823号公報 特開2000−324499号公報
以上のように、従来の方法では、カットチェンジを正確に検出することが困難であった。特に、最近、放送画像にテロップが挿入されることが多くなり、このような画像からカットチェンジを正確に検出することが困難であった。
よって、カットチェンジの検出をさらに高い精度で行う方法の提案が望まれている。
本発明は、このような状況に鑑みてなされたものであり、カットチェンジの検出を高精度に行うことができるようにするものである。
本発明の一側面のプログラムまたは検出方法は、第1の画像と第2の画像の類似度に基づいて、カットチェンジを検出する検出処理をコンピュータに実行させるプログラムまたは検出方法において、前記第1の画像と前記第2の画像のそれぞれの輝度または色のヒストグラムを生成し、前記第1の画像と前記第2の画像のそれぞれの空間配置の相関関係を表す画像である空間相関画像を生成し、前記第1の画像の前記ヒストグラムと前記第2の画像の前記ヒストグラムの類似度であるヒストグラム類似度を計算し、前記第1の画像の前記空間相関画像と前記第2の画像の前記空間相関画像の類似度である空間相関画像類似度を計算し、前記ヒストグラム類似度と前記空間相関画像類似度に基づいて、前記第1の画像と前記第2の画像の境界がカットチェンジであるかを判定するステップを備える。
本発明の一側面のプログラムには、前記ヒストグラム類似度計算ステップによって計算された、近傍の複数フレームの画像の前記ヒストグラム類似度の平均、若しくは、前記空間相関画像類似度計算手段によって計算された、近傍の複数フレームの画像の前記空間相関画像類似度の平均のいずれか一方または両方である平均類似度を計算する平均類似度計算ステップをさらに設け、前記判定ステップには、前記ヒストグラム類似度、前記空間相関画像類似度、及び前記平均類似度に基づいて、前記第1の画像と前記第2の画像の境界が、カットチェンジであるかを判定させることができる。
本発明の一側面のプログラムには、前記第1の画像の近傍の複数フレームの画像の輝度または色の平均である近傍平均色を計算する近傍平均色計算ステップをさらに設け、前記判定ステップには、前記ヒストグラム類似度、前記空間相関画像類似度、及び前記近傍平均色に基づいて、前記第1の画像と前記第2の画像の境界がカットチェンジであるかを判定させることができる。
本発明の一側面のプログラムには、前記第1の画像と前記第2の画像のそれぞれの輝度または色の精細ヒストグラムを生成し、前記精細ヒストグラムに対してフィルタ処理を施して特徴分布を算出し、前記第1の画像と前記第2の画像のそれぞれの前記特徴分布の類似度を算出し、前記第1の画像と前記第2の画像以外に、さらに第3の画像の特徴を抽出し、前記第1の画像、前記第2の画像及び前記第3の画像のうちの2つの画像の特徴の類似度を算出し、前記第1の画像、前記第2の画像及び前記第3の画像の縮小画像を生成し、前記第1の画像と前記第3の画像の縮小画像の合成画像を生成し、前記第2の画像の縮小画像と前記合成画像の類似度を算出するステップをさらに設け、前記判定ステップには、さらに前記特徴分布の類似度、前記第1の画像、前記第2の画像及び前記第3の画像のうちの2つの画像の特徴の類似度、並びに前記第2の画像の縮小画像と前記合成画像の類似度に基づいて、前記第1の画像と前記第2の画像の境界が、カットチェンジであるかを判定させることができる。
本発明の一側面の検査装置は、第1の画像と第2の画像の類似度に基づいて、カットチェンジを検出する検出装置において、前記第1の画像と前記第2の画像のそれぞれの輝度または色のヒストグラムを生成するヒストグラム生成手段と、前記第1の画像と前記第2の画像のそれぞれの空間配置の相関関係を表す画像である空間相関画像を生成する空間相関画像生成手段と、前記第1の画像の前記ヒストグラムと前記第2の画像の前記ヒストグラムの類似度であるヒストグラム類似度を計算するヒストグラム類似度計算手段と、前記第1の画像の前記空間相関画像と前記第2の画像の前記空間相関画像の類似度である空間相関画像類似度を計算する空間相関画像類似度計算手段と、前記ヒストグラム類似度と前記空間相関画像類似度に基づいて、前記第1の画像と前記第2の画像の境界がカットチェンジであるかを判定する判定手段とを備える。
本発明の一側面においては、第1の画像と第2の画像のそれぞれの輝度または色のヒストグラムが生成され、第1の画像と第2の画像のそれぞれの空間配置の相関関係を表す画像である空間相関画像が生成される。また、第1の画像のヒストグラムと第2の画像のヒストグラムの類似度であるヒストグラム類似度が計算され、第1の画像の空間相関画像と第2の画像の空間相関画像の類似度である空間相関画像類似度が計算される。そして、ヒストグラム類似度と空間相関画像類似度に基づいて、第1の画像と第2の画像の境界がカットチェンジであるかが判定される。
本発明の一側面によれば、カットチェンジの検出を高精度に行うことができる。
以下に本発明の実施の形態を説明するが、本発明の構成要件と、明細書又は図面に記載の実施の形態との対応関係を例示すると、次のようになる。この記載は、本発明をサポートする実施の形態が、明細書又は図面に記載されていることを確認するためのものである。従って、明細書又は図面中には記載されているが、本発明の構成要件に対応する実施の形態として、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その構成要件に対応するものではないことを意味するものではない。逆に、実施の形態が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。
本発明の一側面のプログラムまたは検出方法は、
第1の画像と第2の画像の類似度に基づいて、カットチェンジを検出する検出処理をコンピュータに実行させるプログラムまたは検出方法において、
前記第1の画像と前記第2の画像のそれぞれの輝度または色のヒストグラムを生成し(例えば、図13のステップS31)、
前記第1の画像と前記第2の画像のそれぞれの空間配置の相関関係を表す画像である空間相関画像を生成し(例えば、図13のステップS32)、
前記第1の画像の前記ヒストグラムと前記第2の画像の前記ヒストグラムの類似度であるヒストグラム類似度を計算し(例えば、図13のステップS34)、
前記第1の画像の前記空間相関画像と前記第2の画像の前記空間相関画像の類似度である空間相関画像類似度を計算し(例えば、図13のステップS35)、
前記ヒストグラム類似度と前記空間相関画像類似度に基づいて、前記第1の画像と前記第2の画像の境界がカットチェンジであるかを判定する(例えば、図11のステップS5)
ステップを備える。
本発明の一側面のプログラムには、
前記ヒストグラム類似度計算ステップによって計算された、近傍の複数フレームの画像の前記ヒストグラム類似度の平均、若しくは、前記空間相関画像類似度計算手段によって計算された、近傍の複数フレームの画像の前記空間相関画像類似度の平均のいずれか一方または両方である平均類似度を計算する平均類似度計算ステップ(例えば、図33のステップS248)をさらに設け、
前記判定ステップには、前記ヒストグラム類似度、前記空間相関画像類似度、及び前記平均類似度に基づいて、前記第1の画像と前記第2の画像の境界が、カットチェンジであるかを判定させることができる。
本発明の一側面のプログラムには、
前記第1の画像の近傍の画像の輝度または色の平均である近傍平均色を計算する近傍平均色計算ステップ(例えば、図35のステップS269)をさらに設け、
前記判定ステップには、前記ヒストグラム類似度、前記空間相関画像類似度、及び前記近傍平均色に基づいて、前記第1の画像と前記第2の画像の境界がカットチェンジであるかを判定させることができる。
本発明の一側面のプログラムには、
前記第1の画像と前記第2の画像のそれぞれの輝度または色の精細ヒストグラムを生成し(例えば、図37のステップS401)、
前記精細ヒストグラムに対してフィルタ処理を施して特徴分布を算出し(例えば、図37のステップS402)、
前記第1の画像と前記第2の画像のそれぞれの前記特徴分布の類似度を算出し(例えば、図37のステップS404)、
前記第1の画像と前記第2の画像以外に、さらに第3の画像の特徴を抽出し(例えば、図45のステップS601)、
前記第1の画像、前記第2の画像及び前記第3の画像のうちの2つの画像の特徴の類似度を算出し(例えば、図45のステップS602)、
前記第1の画像、前記第2の画像及び前記第3の画像の縮小画像を生成し(例えば、図45のステップS603)、
前記第1の画像と前記第3の画像の縮小画像の合成画像を生成し(例えば、図45のステップS604)、
前記第2の画像の縮小画像と前記合成画像の類似度を算出する(例えば、図45のステップS605)
ステップをさらに設け、
前記判定ステップには、さらに前記特徴分布の類似度、前記第1の画像、前記第2の画像及び前記第3の画像のうちの2つの画像の特徴の類似度、並びに前記第2の画像の縮小画像と前記合成画像の類似度に基づいて、前記第1の画像と前記第2の画像の境界が、カットチェンジであるかを判定させることができる。
本発明の一側面の検査装置は、
第1の画像と第2の画像の類似度に基づいて、カットチェンジを検出する検出装置(例えば、図9のパーソナルコンピュータ1)において、
前記第1の画像と前記第2の画像のそれぞれの輝度または色のヒストグラムを生成するヒストグラム生成手段(例えば、図12のヒストグラム生成部101)と、
前記第1の画像と前記第2の画像のそれぞれの空間配置の相関関係を表す画像である空間相関画像を生成する空間相関画像生成手段(例えば、図12の空間相関画像生成部102)と、
前記第1の画像の前記ヒストグラムと前記第2の画像の前記ヒストグラムの類似度であるヒストグラム類似度を計算するヒストグラム類似度計算手段(例えば、図12のヒストグラム類似度計算部104)と、
前記第1の画像の前記空間相関画像と前記第2の画像の前記空間相関画像の類似度である空間相関画像類似度を計算する空間相関画像類似度計算手段(例えば、図12の空間相関画像類似度計算部105)と、
前記ヒストグラム類似度と前記空間相関画像類似度に基づいて、前記第1の画像と前記第2の画像の境界がカットチェンジであるかを判定する判定手段(例えば、図10の判定部64)と
を備える。
以下、図面を参照して本発明を適用した実施の形態について説明する。
図9は、本発明を適用した検出装置の一実施の形態の構成例を示すブロック図である。
図9において、検出装置としてのパーソナルコンピュータ1は、CPU(Central Processing Unit)21,ROM(Read Only Memory)22,RAM(Random Access Memory)23、バス24、入出力インタフェース25、入力部26、出力部27、記憶部28、通信部29、ドライブ30、及びリムーバブルメディア31から構成される。
バス24には、CPU21、ROM22、RAM23、および入出力インタフェース25が接続され、入出力インタフェース25には、バス24、入力部26、出力部27、記憶部28、通信部29、及びドライブ30が接続されている。
CPU21は、ROM22または記憶部28に記憶されたプログラムに従って各種の処理を実行する。また、CPU21は、入力部26から入力される指令に対応して各種の処理を実行し、また、処理の結果を出力部27に出力する。
ROM22は、CPU21が実行するプログラム等を記憶する。
RAM23は、CPU21が実行するプログラムやデータなどを適宜記憶する。また、RAM23は、例えば、外部から入力される画像を一時的に記憶するバッファを有する。
入力部26は、キーボード、マウス、マイクロホン等で構成される。
出力部27は、ディスプレイ、スピーカ等で構成される。
記憶部28は、例えばハードディスクからなり、CPU21が実行するプログラムや各種のデータを記憶する。
通信部29は、インターネットやローカルエリアネットワークなどのネットワークを介して外部の装置と通信する。
なお、通信部29を介してプログラムが取得され、記憶部28に記憶されてもよい。
ドライブ30は、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア31が装着されたとき、それらを駆動し、そこに記録されているプログラムやデータなどを取得する。取得されたプログラムやデータは、必要に応じて記憶部28に転送され、記憶される。
コンピュータにインストールされ、コンピュータによって実行可能な状態とされるプログラムを格納するプログラム記録媒体は、図9に示すように、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)を含む)、光磁気ディスク、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア31、ROM22や、記憶部28を構成するハードディスクなどにより構成される。プログラム記録媒体へのプログラムの格納は、必要に応じてルータ、モデムなどのインタフェースである通信部29を介して、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の通信媒体を利用して行われる。
また、パーソナルコンピュータ1のCPU21は、ROM22または記憶部28に記憶されたプログラムを実行することにより、カットチェンジを検出するカットチェンジ検出部として機能する。
図10は、パーソナルコンピュータ1のソフトウェアにより構成されるカットチェンジ検出部51の実施の形態の構成を示すブロック図である。
図10において、カットチェンジ検出部51は、外部からの画像を、例えば、RAM23のバッファから読み出すことにより入力し、カットチェンジ検出処理を行う。
すなわち、カットチェンジ検出部51は、第1処理部61、第2処理部62、第3処理部63、及び判定部64から構成される。
第1処理部61、第2処理部62、及び第3処理部63には、それぞれカットチェンジ検出部51に入力された画像データが供給される。
第1処理部61は、そこに供給される画像データに基づいて、後述する第1の処理を行い、その結果得られる第1の類似度を判定部64に供給する。
第2処理部62は、そこに供給される画像データに基づいて、後述する第2の処理を行い、その結果得られる第2の類似度を判定部64に供給する。
第3処理部63は、そこに供給される画像データに基づいて、後述する第3の処理を行い、その結果得られる第3の類似度を判定部64に供給する。
判定部64は、第1処理部61から供給される第1の類似度、第2処理部62から供給される第2の類似度、及び第3処理部63から供給される第3の類似度のそれぞれに基づいて、後述する判定処理を行う。
次に、図11のフローチャートを参照して、図10のカットチェンジ検出部51によるカットチェンジ検出処理について説明する。
カットチェンジ検出処理は、例えば、ユーザがカットチェンジ検出処理の開始を指示すると、開始される。
ステップS1において、カットチェンジ検出部51の第1処理部61、第2処理部62、及び第3処理部63は、例えば、RAM23のバッファから画像データを入力する。
いま、カットチェンジ検出部51に入力された直近の3つのフレームを、時間順に、前々フレーム、前フレーム、現フレームということとする。
ステップS2において、第1処理部61は、そこに供給される直近の2つのフレーム、すなわち、前フレームと現フレームに基づいて、第1の処理を行い、その結果得られる第1の処理の類似度を判定部64に供給する。第1の処理の詳細は、図12乃至図35を参照して後述するが、ヒストグラムと空間相関画像から類似度が算出される。
ステップS3において、第2処理部62は、そこに供給される直近の2つのフレーム、すなわち、前フレームと現フレームに基づいて、第2の処理を行い、その結果得られる第2の処理の類似度を判定部64に供給する。第2の処理の詳細は、図36乃至図43を参照して後述するが、特徴分布を間引き処理することで、類似度が算出される。
ステップS4において、第3処理部63は、そこに供給される直近の3つのフレーム、すなわち、前々フレーム、前フレーム、及び現フレームに基づいて、第3の処理を行い、その結果得られる第3の処理の類似度を判定部64に供給する。第3の処理の詳細は、図44乃至図51を参照して後述するが、縮小画像を合成した画像を用いて類似度が算出される。
なお、ステップS2乃至ステップS4の第1の処理乃至第3の処理は、実際には、並行して実行される。
ステップS5において、判定部64は、第1処理部61から供給される第1の処理の類似度、第2処理部62から供給される第2の処理の類似度、及び第3処理部63から供給される第3の処理の類似度に基づいて、判定処理を行う。判定処理の詳細は、図28乃至図31を参照して後述するが、第1の処理乃至第3の処理により求められた類似度を総合して、最終的に、対象フレームの画像がカットチェンジであるかを判定する。
ステップS6において、判定部64は、例えば、RAM23のバッファを参照し、次のフレームはあるかを判定する。ステップS6において、次のフレームはあると判定されると、処理はステップS1に戻り、以下、同様の処理が繰り返される。
一方、ステップS6において、次のフレームはないと判定されると、カットチェンジ検出処理は終了される。
次に、第1の処理について詳しく説明する。
図12は、図10の第1処理部61の実施の形態の構成を示すブロック図である。
図12において、第1処理部61は、ヒストグラム生成部101、空間相関画像生成部102、バッファ103、ヒストグラム類似度計算部104、及び空間相関画像類似度計算部105から構成されている。
ヒストグラム生成部101には、第1処理部61に入力された、第1の処理の処理対象とする前フレームと現フレームの画像データが供給される。
ヒストグラム生成部101は、そこに供給される前フレームと現フレームのそれぞれの輝度または色のヒストグラムを生成し、バッファ103に供給する。
輝度のヒストグラムには、例えば、輝度信号(Y信号)に対応するY画像のヒストグラムが用いられ、色のヒストグラムには、例えば、RGB(Red, Green, Blue)信号に対応するR画像、G画像、及びB画像のヒストグラムが用いられる。
一般に、色のヒストグラを用いる方がより高い精度でカットチェンジの検出を行うことができる。
空間相関画像生成部102には、第1処理部61に入力された第1の処理の処理対象とする前フレームと現フレームの画像データが供給される。
空間相関画像生成部102は、そこに供給される前フレームと現フレームの画像のそれぞれの空間配置の相関関係を表す空間相関画像を生成し、バッファ103に供給する。
バッファ103は、ヒストグラム生成部101から供給される前フレームと現フレームのそれぞれのヒストグラムを記憶するとともに、空間相関画像生成部102から供給される前フレームと現フレームのそれぞれの空間相関画像を記憶する。
ヒストグラム類似度計算部104は、バッファ103から前フレームと現フレームのそれぞれのヒストグラムを読み出し、その前フレームのヒストグラムと現フレームのヒストグラムの類似度であるヒストグラム類似度を計算し、そのヒストグラム類似度を、判定部64に供給する。
空間相関画像類似度計算部105は、バッファ103から前フレームと現フレームのそれぞれの空間相関画像を読み出し、その前フレームの空間相関画像と現フレームの空間相関画像の類似度である空間相関画像類似度を計算し、その空間相関画像類似度を、判定部64に供給する。
次に、図13のフローチャートを参照して、図12の第1処理部61による第1の処理について説明する。
ヒストグラム生成部101には、第1処理部61に入力された第1の処理の処理対象とする前フレームと現フレームの画像データが供給される。ステップS31において、ヒストグラム生成部101は、そこに供給される前フレームの画像データと現フレームの画像データのそれぞれのヒストグラムを生成する。
空間相関画像生成部102には、第1処理部61に入力された第1の処理の処理対象とする前フレームと現フレームの画像データが供給される。ステップS32において、空間相関画像生成部102は、そこに供給される前フレームと現フレームの画像それぞれの空間配置の相関関係を表す空間相関画像を生成する。
ヒストグラムと空間相関画像は、元となる画像(原画像)の特徴を表す特徴量であり、S31及びS32の処理は、特徴量抽出処理である。
ステップS33において、バッファ103は、ヒストグラム生成部101から供給される前フレームと現フレームのそれぞれのヒストグラムを記憶するとともに、空間相関画像生成部102から供給される前フレームと現フレームのそれぞれの空間相関画像を記憶する。
ステップS34において、ヒストグラム類似度計算部104は、バッファ103から前フレームと現フレームのそれぞれのヒストグラムを読み出し、その前フレームのヒストグラムと現フレームのヒストグラムの類似度であるヒストグラム類似度を計算し、そのヒストグラム類似度を、判定部64に供給する。ヒストグラムの生成とその類似度の算出の具体的例については、図20、図21、及び図23を参照して後述する。
ステップS35において、空間相関画像類似度計算部105は、バッファ103から前フレームと現フレームのそれぞれの空間相関画像を読み出し、その前フレームの空間相関画像と現フレームの空間相関画像の類似度である空間相関画像類似度を計算し、その空間相関画像類似度を、判定部64に供給する。その後、処理は、図11のステップS2に戻る。空間相関画像の生成とその類似度の計算の具体的例は、フィルタ画像またはモザイク画像の生成とその類似度の計算である。その詳細は、図20乃至図22、図25、図27を参照して後述する。
なお、ヒストグラムや空間相関画像等の特徴量どうしの類似度を計算する処理を、以下、適宜、類似度計算処理という。図13のステップS34及びS35の処理は、類似度計算処理である。
図14は、図10の第1処理部61の他の実施の形態の機能的な構成を示すブロック図である。
なお、図14において、図12と対応する部分については、同一の符号を付してあり、その説明は繰り返しになるので、適宜省略する。他の図においても同様とする。
図14において、第1処理部61は、ヒストグラム生成部101、バッファ103、ヒストグラム類似度計算部104、空間相関画像生成部102としてのフィルタ画像生成部121、及び空間相関画像類似度計算部105としてのフィルタ画像類似度計算部122から構成される。
フィルタ画像生成部121には、第1処理部61に入力された第1の処理の処理対象とする前フレームと現フレームの画像が供給される。
フィルタ画像生成部121は、そこに供給される前フレームと現フレームの画像から空間相関画像としてのフィルタ画像を生成し、バッファ103に供給する。
ここで、フィルタ画像とは、元となる画像の空間周波数の低周波成分及び高周波数成分を低減させた画像をいう。
つまり、フィルタ画像は、低周波成分、特に、直流成分を低減させるローカットフィルタの効果と、高周波数成分を低減させて細かいパターンを鈍らせるハイカットフィルタの効果とが得られるフィルタで画像データを処理することで生成される。
ハイカットフィルタの効果は、例えば、原画像を複数のブロックに区分し、そのブロックごとに画素値を平均することによって得ることができ、また、ローカットフィルタの効果は、原画像の各ピクセルの値から、全ピクセルの平均値を減じることによって得ることができる。また、ハイカットフィルタとローカットフィルタの効果は、より精密に設計されたバンドパスフィルタを用いることによっても得ることができる。
なお、フィルタ画像を生成することで、原画像の高周波数成分を低減させると、実質的に有効なピクセルの数は減少するので、実質的に有効でないピクセルを適宜間引くことで、空間的なサンプリングレートを下げることができる。また、データ量を削減することもでき、後段における演算の効率を上げることができる。
フィルタ画像類似度計算部122は、バッファ103から前フレームと現フレームのそれぞれのフィルタ画像を読み出し、その前フレームのフィルタ画像と現フレームのフィルタ画像の類似度であるフィルタ画像類似度を計算し、そのフィルタ画像類似度を、判定部64に供給する。
次に、図15のフローチャートを参照して、図14の第1処理部61による第1の処理について説明する。
図14のヒストグラム生成部101には、第1処理部61に入力された第1の処理の処理対象とする前フレームと現フレームが供給される。ステップS51において、ヒストグラム生成部101は、そこに供給される前フレームと現フレームのそれぞれのヒストグラムを生成し、バッファ103に供給する。
図14のフィルタ画像生成部121には、第1処理部61に入力された第1の処理の処理対象とする前フレームと現フレームが供給される。ステップS52において、フィルタ画像生成部121は、そこに供給される前フレームと現フレームのそれぞれのフィルタ画像を空間相関画像として生成し、バッファ103に供給する。
このステップS51及びS52の処理は、特徴量抽出処理である。
ステップS53において、バッファ103は、ヒストグラム生成部101から供給される前フレームと現フレームのそれぞれのヒストグラムを記憶するとともに、フィルタ画像生成部121から供給される前フレームと現フレームのそれぞれのフィルタ画像を記憶する。
ステップS54において、ヒストグラム類似度計算部104は、バッファ103から前フレームと現フレームのそれぞれのヒストグラムを読み出し、その前フレームのヒストグラムと現フレームのヒストグラムの類似度であるヒストグラム類似度を計算し、そのヒストグラム類似度を、判定部64に供給する。
ステップS55において、フィルタ画像類似度計算部122は、バッファ103から前フレームと現フレームのそれぞれのフィルタ画像を読み出し、その前フレームのフィルタ画像と現フレームのフィルタ画像の類似度であるフィルタ画像類似度を計算し、そのフィルタ画像類似度を、判定部64に供給する。その後、処理は図11のステップS2に戻る。フィルタ画像の生成とその類似度の計算については、図20乃至図22、図25を参照して後述する。
ステップS54及びS55の処理は、類似度計算処理である。
図16は、図10の第1処理部61の他の実施の形態の機能的な構成を示すブロック図である。
図16において、第1処理部61は、ヒストグラム生成部101、バッファ103、ヒストグラム類似度計算部104、空間相関画像生成部102としてのモザイク画像生成部131、及び空間相関画像類似度計算部105としてのモザイク画像類似度計算部132から構成される。
モザイク画像生成部131には、第1処理部61に入力された第1の処理の処理対象とする前フレームと現フレームが供給される。モザイク画像生成部131は、そこに供給される前フレームと現フレームのそれぞれのモザイク画像を、空間相関画像として生成し、バッファ103に供給する。
ここで、モザイク画像は、元の画像(原画像)の画像全体を、例えば、横8×縦8から横32×縦32程度に区分した場合の各領域の輝度または色の平均をその領域の輝度または色とする画像である。モザイク画像は、原画像内の輝度または色の大まかな空間配置を特徴化したものであり、特に、画像全体が横8×縦8に分割されたモザイク画像は、カラーレイアウトと呼ばれることもある。
モザイク画像類似度計算部132は、バッファ103から前フレームと現フレームのそれぞれのモザイク画像を読み出し、その前フレームのモザイク画像と現フレームのモザイク画像の類似度であるモザイク画像類似度を計算し、そのモザイク画像類似度を、判定部64に供給する。
次に、図17のフローチャートを参照して、図16の第1処理部61による第1の処理について説明する。
ヒストグラム生成部101には、第1処理部61に入力された第1の処理の処理対象とする前フレームと現フレームが供給される。ステップS91において、ヒストグラム生成部101は、そこに供給される前フレームと現フレームのそれぞれのヒストグラムを生成し、バッファ103に供給する。
モザイク画像生成部131には、第1処理部61に入力された第1の処理の処理対象とする前フレームと現フレームが供給される。ステップS92において、モザイク画像生成部131は、そこに供給される前フレームと現フレームのそれぞれのモザイク画像を空間相関画像として生成し、バッファ103に供給する。
ステップS91及びS92の処理は、特徴量抽出処理である。
ステップS93において、バッファ103は、ヒストグラム生成部101から供給される前フレームと現フレームのそれぞれのヒストグラムを記憶するとともに、モザイク画像生成部131から供給される前フレームと現フレームのそれぞれのモザイク画像を記憶する。
ステップS94において、ヒストグラム類似度計算部104は、バッファ103から前フレームと現フレームのそれぞれのヒストグラムを読み出し、その前フレームのヒストグラムと現フレームのヒストグラムの類似度であるヒストグラム類似度を計算し、そのヒストグラム類似度を、判定部64に供給する。
ステップS95において、モザイク画像類似度計算部132は、バッファ103から前フレームと現フレームのそれぞれのモザイク画像を読み出し、その前フレームのモザイク画像と現フレームのモザイク画像の類似度であるモザイク画像類似度を計算し、そのモザイク画像類似度を、判定部64に供給する。その後、処理は、図11のステップS2に戻る。モザイク画像の生成とその類似度の計算の具体的例は、図20、図21、図27を参照して後述する。
ステップS94及びS95の処理は、類似度計算処理である。
図18は、図10の第1処理部61の他の実施の形態の機能的な構成例を示すブロック図である。
図18において、第1処理部61は、ヒストグラム生成部101、空間相関画像生成部102、バッファ103、ヒストグラム類似度計算部104、及び空間相関画像類似度計算部105から構成される。そして、空間相関画像生成部102は、フィルタ画像生成部121及びモザイク画像生成部131から構成される。さらに、空間相関画像類似度計算部105は、フィルタ画像類似度計算部122及びモザイク画像類似度計算部132から構成される。
次に、図19のフローチャートを参照して、図18の第1処理部61による第1の処理について説明する。
ヒストグラム生成部101には、第1処理部61に入力された第1の処理の処理対象とする前フレームと現フレームが供給される。ステップS121において、ヒストグラム生成部101は、そこに供給される前フレームと現フレームのそれぞれのヒストグラムを生成し、バッファ103に供給する。この処理は、図13のステップS31、図15のステップS51、図17のステップS91における処理と同様の処理である。
例えば、図20に示される原画像の画像データが入力されると、図21Aに示されるようなヒストグラムが生成される。
図21Aにおいて、横軸は、輝度を表し、縦軸は、頻度を表している。原画像P101には、背景の灰色の領域と、中央の白と黒の領域があるので、ヒストグラムH101では、比較的小さい輝度(黒)、中間的な輝度(灰色)、及び比較的大きい輝度(白)のそれぞれに頻度が集中している。
空間相関画像生成部102には、第1処理部61に入力された第1の処理の処理対象とする前フレームと現フレームが供給され、その前フレームと現フレームは、フィルタ画像生成部121及びモザイク画像生成部131に供給される。
ステップS122において、フィルタ画像生成部121は、そこに供給される前フレームと現フレームのフィルタ画像を、空間相関画像として生成する。この処理は、図15のステップS52の処理と同様の処理である。
具体的には、フィルタ画像生成部121には、入力された画像データに対して、図22に示される特性C1のフィルタを作用させることで、フィルタ画像を生成する。図22において、横軸は、周波数を表し、縦軸は、フィルタが出力する画像データのレベルを表している。
図22において、フィルタ特性C1は、フィルタ画像を生成する処理のフィルタ特性を示し、フィルタ特性C2は、エッジ抽出を行う処理のフィルタ特性を示している。
フィルタ特性C1により、フィルタ画像を生成する処理を行った場合、DC成分を除いた低中域成分が抽出される。この点、フィルタ特性C2に示されるような、中高域成分を抽出するエッジ抽出処理と異なっている。すなわち、フィルタ画像では、エッジ抽出された画像と異なり、比較的低中域成分の特徴が用いられる。
図20に示される原画像P101をフィルタ処理することで、図21Bに示されるフィルタ画像PF101が生成される。フィルタ画像PF101では、ローカットフィルタの効果で、原画像P101の輝度の変化が少ない領域の値は小さくなり、また、原画像P101の輝度の変化が大きい領域、例えば、原画像P101のリング状の黒い部分の輪郭となる領域の値も比較的小さい有意な値となる。また、フィルタ画像PF101では、ハイカットフィルタの効果で、画像全体がややぼやけたようになる。
ステップS123において、モザイク画像生成部131は、そこに供給される前フレームと現フレームのそれぞれのモザイク画像を空間相関画像として生成する。この処理は、図17のステップS92の処理と同様の処理である。
モザイク画像生成部131は、原画像P101を、複数のブロックに区分し、各区分の平均の画素値で各ブロックを表現することで、図20Cに示されるような、精々10×8ブロックのモザイク画像PM101を生成する。
モザイク画像PM101では、原画像P101の輝度または色の空間配置が大まかに表される。
図19のステップS121乃至S123の処理は、特徴量抽出処理である。
ステップS124において、バッファ103は、ヒストグラム生成部101から供給される前フレームと現フレームのそれぞれのヒストグラム、フィルタ画像生成部121から供給される前フレームと現フレームのそれぞれのフィルタ画像、並びに、モザイク画像生成部131から供給される前フレームと現フレームのそれぞれのモザイク画像を記憶する。
ステップS125において、ヒストグラム類似度計算部104は、バッファ103から前フレームと現フレームのそれぞれのヒストグラムを読み出し、その前フレームのヒストグラムと現フレームのヒストグラムの類似度であるヒストグラム類似度を計算し、そのヒストグラム類似度を、判定部64に供給する。この処理は図13のステップS34、図15のステップS54、図17のステップS94の処理と同様の処理である。
ヒストグラム類似度には、処理対象とする、前フレームと現フレームのそれぞれのヒストグラムどうしの重なり率が採用される。
例えば、図23に示されるように、ヒストグラムH111とヒストグラムH112の重なり率は、ヒストグラムH111とヒストグラムH112に共通する部分の面積(ヒストグラムの斜線の部分の面積)とされる。
また、ヒストグラム類似度には、その他、ヒストグラムの各要素(ビン)の頻度を成分とするベクトル(以下、適宜、ヒストグラムベクトルという)どうしの類似度を用いてもよい。ヒストグラムベクトルどうしの類似度としては、例えば、ヒストグラムベクトルどうしの絶対距離である、いわゆるマンハッタン距離(実質的に、ヒストグラム間の重なり率に等しい)や、ヒストグラムベクトルどうしの2乗距離であるユークリッド距離等を用いてもよい。
以上のように、ヒストグラム類似度は、撮影対象の形状や空間配置等の情報がほとんど無いヒストグラムどうしの類似度なので、位置姿勢形状系変化に影響されにくく、また、明るさ色系変化に敏感なので、明るさ色系変化を定量化する類似度として用いられる。
ステップS126において、フィルタ画像類似度計算部122は、バッファ103から前フレームと現フレームのそれぞれのフィルタ画像を読み出し、その前フレームのフィルタ画像と現フレームのフィルタ画像の類似度であるフィルタ画像類似度を計算し、そのフィルタ画像類似度を、判定部64に供給する。この処理は、図15のステップS55の処理と同様の処理である。
フィルタ画像類似度計算処理の詳細は、図24のフローチャートに示されている。
フィルタ画像類似度計算部122はバッファ103から前フレームと現フレームのそれぞれのフィルタ画像を読み出し、ステップS151において、例えば、前フレームのフィルタ画像の中央部分を切り出す。
ステップS152において、フィルタ画像類似度計算部122は、ステップS151で切り出した前フレームのフィルタ画像の中央部分と現フレームのフィルタ画像の相対的な位置をシフトさせながら、前フレームのフィルタ画像の中央部分と現フレームのフィルタ画像の相関値を演算する。
ステップS153において、フィルタ画像類似度計算部122は、ステップS152で演算した相関値のうちの最大値である最大相関値を検出する。
すなわち、図25に示されるように、前フレームとしてのフレームF111のフィルタ画像PF111の中央部分が切り出され、そのフィルタ画像PF111の中央部分と、現フレームとしてのフレームF112のフィルタ画像PF112の相対的な位置をシフトさせながら、フィルタ画像PF111の中央部分とフィルタ画像PF112の相関値が最大となる相対的な位置が探索され、それにより、最大相関値が得られる。
また、フィルタ画像類似度には、その他、フィルタ画像の全体または一部どうしの相対的な位置をシフトさせながら、フィルタ画像の全体または一部どうしの絶対距離(差分絶対和)や2乗距離(差分2乗和)等の距離を演算し、その最小値(以下、適宜、最小距離という)を用いてもよい。ただし、かかる最小距離は、そのままではフィルタ画像どうしの非類似度を表すので、符号を反転させる等により、類似度への変換が必要となる。
以上のように、フィルタ画像類似度は、直流成分を低減させたフィルタ画像どうしの類似度なので、画像全体の輝度の変化等の明るさ色形変化にほとんど影響されず、また、高周波成分を低減させたフィルタ画像どうしの類似度でもあるので、細かいパターンや形状の変化にほとんど影響されない。したがって、フィルタ画像類似度は、大まかに位置姿勢形状系変化を定量化する類似度となっている。
また、フィルタ画像類似度は、前フレームのフィルタ画像と現フレームのフィルタ画像の最大相関値や最小距離を求めるようにしたので、カメラモーションや撮影対象の移動等による画像の変化の影響を受け難くなっている。
さらに、フィルタ画像類似度は、画像全体の明るさの変化にほとんど影響されないため、図1に示したように、画像全体の輝度が変化する場合には、ヒストグラム類似度の低下を補うように作用する。
図19に戻って、次に、ステップS127において、モザイク画像類似度計算部132は、バッファ103から前フレームと現フレームのそれぞれのモザイク画像を読み出し、その前フレームのモザイク画像と現フレームのモザイク画像の類似度であるモザイク画像類似度を計算し、そのモザイク画像類似度を、判定部64に供給する。その後、処理は、図11のステップS2に戻る。
図19のステップS125乃至S127の処理は、類似度計算処理である。
次に、モザイク画像類似度計算処理の詳細は、図26のフローチャートに示されている。
モザイク画像類似度計算部132は、バッファ103から前フレームと現フレームのそれぞれのモザイク画像を読み出し、ステップS171において、例えば、前フレームのモザイク画像と現フレームのモザイク画像の、対応する位置のピクセルどうしの差分値が所定の閾値以下であるピクセルである一致ピクセルを検出する。
ステップS172において、モザイク画像類似度計算部132は、ステップS171で検出した一致ピクセルの数、または、そのピクセルの数の全ピクセル数に対する割合をモザイク画像類似度として求める。
図27は、一致ピクセルの計数の様子を示している。同図において、丸印はモザイク画像PM111とモザイク画像PM112の間の一致ピクセルを表し、×印は一致していないピクセルを表す。
モザイク画像類似度を用いた場合、処理対象とする、例えば、2つのモザイク画像のそれぞれのピクセルどうしの違いは定量化されないので、図27に示すように、モザイク画像PM111で発生していなかったテロップがモザイク画像PM112で発生し、モザイク画像PM112の一部のピクセルが他のピクセルと全く異なる画素値に変化した場合に、その一部のピクセルの影響が支配的となってしまうのを避けることができる。
このように、モザイク画像類似度は、出現系変化に対する感度が低くなっているので、例えば、図2に示したように、テロップが出現した場合には、ヒストグラム類似度の低下を補うように作用する。
以上のように、カットチェンジを検出する処理対象とする、例えば、2つの画像のそれぞれの空間配置の相関関係を表す空間相関画像として、フィルタ画像やモザイク画像を生成するようにしたので、明るさの変動やテロップの出現といったカット内の画像の変化に対しても、カットチェンジと誤検出しないようにする頑健なカットチェンジの検出方法を提供することができる。
次に、判定部64は、図10に示したように、本来、第1処理部61、第2処理部62及び第3処理部63から供給されるそれぞれの類似度の情報に基づいて、最終的な判定処理を行うが、ここでは、図18の第1処理部61の実施の形態において、第1処理部61から供給される類似度のみに基づいて、判定処理を行う場合について説明する。
図28は、第1処理部61から供給される類似度のみに基づいて、判定処理を行う場合における判定部64の機能的構成を示すブロック図である。
図28において、判定部64は、荷重処理部151乃至153、加算部154、並びに、閾値判定部155から構成される。
荷重処理部151には、図18の第1処理部61のヒストグラム類似度計算部104から、カットチェンジを検出する処理対象とする第1の画像と第2の画像のヒストグラム類似度を表すヒストグラム類似度情報が供給される。
荷重処理部151は、そこに供給されるヒストグラム類似度情報に、所定の荷重係数W1を乗算し、その結果得られる重み付けされたヒストグラム類似度情報を、加算部154に供給する。
荷重処理部152には、図18の第1処理部61のフィルタ画像類似度計算部122から、カットチェンジを検出する処理対象とする第1の画像と第2の画像のフィルタ画像類似度を表すフィルタ画像類似度情報が供給される。
荷重処理部152は、そこに供給されるフィルタ画像類似度情報に、所定の荷重係数W2を乗算し、その結果得られる重み付けされたフィルタ画像類似度情報を、加算部154に供給する。
荷重処理部153には、図18の第1処理部61のモザイク画像類似度計算部132から、カットチェンジを検出する処理対象とする第1の画像と第2の画像のモザイク画像類似度を表すモザイク画像類似度情報が供給される。
荷重処理部153は、そこに供給されるモザイク画像類似度情報に、所定の荷重係数W3を乗算し、その結果得られる重み付けされたモザイク画像類似度情報を、加算部154に供給する。
加算部154は、荷重処理部151から供給される重み付けされたヒストグラム類似度情報、荷重処理部152から供給される重み付けされたフィルタ画像類似度情報、並びに、荷重処理部153から供給される重み付けされたモザイク画像類似度情報をすべて加算し、その結果得られる加算された類似度を表す加算類度似情報を、閾値判定部155に供給する。
閾値判定部155は、加算部154から供給される加算類似度情報と所定の閾値とを比較することにより、カットチェンジを検出する処理対象とする第1の画像と第2の画像の境界が、時間的に不連続な画像の変化を伴う境界であるカットチェンジであるかを判定する。
次に、図29のフローチャートを参照して、図28の判定部64による判定処理について説明する。
荷重処理部151には、図18の第1処理部61のヒストグラム類似度計算部104から、カットチェンジを検出する処理対象とする第1の画像と第2の画像のヒストグラム類似度を表すヒストグラム類似度情報が供給され、荷重処理部152には、図18の第1処理部61のフィルタ画像類似度計算部122から、カットチェンジを検出する処理対象とする第1の画像と第2の画像のフィルタ画像類似度を表すフィルタ画像類似度情報が供給される。また、荷重処理部153には、図18の第1処理部61のモザイク画像類似度計算部132から、カットチェンジを検出する処理対象とする第1の画像と第2の画像のモザイク画像類似度を表すモザイク画像類似度情報が供給される。
ステップS201において、荷重処理部151は、そこに供給されるヒストグラム類似度情報に、所定の荷重係数W1を乗算し、その結果得られる重み付けされたヒストグラム類似度情報を、加算部154に供給し、荷重処理部152は、そこに供給されるフィルタ画像類似度情報に、所定の荷重係数W2を乗算し、その結果得られる重み付けされたフィルタ画像類似度情報を、加算部154に供給し、荷重処理部153は、そこに供給されるモザイク画像類似度情報に、所定の荷重係数W3を乗算し、その結果得られる重み付けされたモザイク画像類似度情報を、加算部154に供給する。
ステップS202において、加算部154は、荷重処理部151から供給される重み付けされたヒストグラム類似度情報、荷重処理部152から供給される重み付けされたフィルタ画像類似度情報、並びに、荷重処理部153から供給される重み付けされたモザイク画像類似度情報をすべて加算し、その結果得られる加算された類似度を表す加算類度似情報を、閾値判定部155に供給する。
ステップS203において、閾値判定部155は、加算部154から供給される加算類似度情報が所定の閾値以下かを判定する。ステップS203において、加算類似度情報が所定の閾値以下と判定された場合、ステップS204において、閾値判定部155は、カットチェンジを検出する処理対象とする第1の画像と第2の画像の境界が、時間的に不連続な画像の変化を伴う境界であるカットチェンジであると判定する。
一方、ステップS203において、加算類似度情報が所定の閾値以下ではないと判定された場合、ステップS205において、閾値判定部155は、カットチェンジを検出する処理対象とする第1の画像と第2の画像の境界が、カットチェンジではないと判定する。
図30は、第1処理部61の実施の形態において、第1処理部61から供給される類似度のみに基づいて、判定処理を行う場合における判定部64の他の機能的構成を示すブロック図である。
図30に示されるように、判定部64は、図28における荷重処理部151乃至153、加算部154、閾値判定部155以外に、非線形変換処理部161乃至163から構成される。
非線形変換処理部161には、図18の第1処理部61のヒストグラム類似度計算部104から、カットチェンジを検出する処理対象とする第1の画像と第2の画像のヒストグラム類似度を表すヒストグラム類似度情報が供給される。
非線形変換処理部161は、そこに供給されるヒストグラム類似度情報に、非線形関数による非線形変換を行い、その結果得られる非線形変換後のヒストグラム類似度情報を荷重処理部151に供給する。
非線形変換処理部162には、図18の第1処理部61のフィルタ画像類似度計算部122から、カットチェンジを検出する処理対象とする第1の画像と第2の画像のフィルタ画像類似度を表すフィルタ画像類似度情報が供給される。
非線形変換処理部162は、そこに供給されるフィルタ画像類似度情報に、非線形関数による非線形変換を行い、その結果得られる非線形変換後のフィルタ画像類似度情報を荷重処理部152に供給する。
非線形変換処理部163には、図18の第1処理部61のモザイク画像類似度計算部132から、カットチェンジを検出する処理対象とする第1の画像と第2の画像のモザイク画像類似度を表すモザイク画像類似度情報が供給される。
非線形変換処理部163は、そこに供給されるモザイク画像類似度情報に、非線形関数による非線形変換を行い、その結果得られる非線形変換後のモザイク画像類似度情報を荷重処理部153に供給する。
次に、図31のフローチャートを参照して、図30の判定部64による判定処理について説明する。
非線形変換処理部161には、図18の第1処理部61のヒストグラム類似度計算部104から、カットチェンジを検出する処理対象とする第1の画像と第2の画像のヒストグラム類似度を表すヒストグラム類似度情報が供給され、非線形変換処理部162には、図18の第1処理部61のフィルタ画像類似度計算部122から、カットチェンジを検出する処理対象とする第1の画像と第2の画像のフィルタ画像類似度を表すフィルタ画像類似度情報が供給される。また、非線形変換処理部163には、図18の第1処理部61のモザイク画像類似度計算部132から、カットチェンジを検出する処理対象とする第1の画像と第2の画像のモザイク画像類似度を表すモザイク画像類似度情報が供給される。
ステップS221において、非線形変換処理部161は、そこに供給されるヒストグラム類似度情報に、非線形関数による非線形変換を行い、その結果得られる非線形変換後のヒストグラム類似度情報を荷重処理部151に供給し、非線形変換処理部162は、そこに供給されるフィルタ画像類似度情報に、非線形関数による非線形変換を行い、その結果得られる非線形変換後のフィルタ画像類似度情報を荷重処理部152に供給する。さらに、非線形変換処理部163は、そこに供給されるモザイク画像類似度情報に、非線形関数による非線形変換を行い、その結果得られる非線形変換後のモザイク画像類似度情報を荷重処理部153に供給する。
ステップS222において、荷重処理部151は、そこに供給されるヒストグラム類似度情報に、所定の荷重係数W11を乗算し、その結果得られる重み付けされたヒストグラム類似度情報を、加算部154に供給し、荷重処理部152は、そこに供給されるフィルタ画像類似度情報に、所定の荷重係数W12を乗算し、その結果得られる重み付けされたフィルタ画像類似度情報を、加算部154に供給し、荷重処理部153は、第3処理部63から供給されるモザイク画像類似度情報に、所定の荷重係数W13を乗算し、その結果得られる重み付けされたモザイク画像類似度情報を、加算部154に供給する。
ステップS223において、加算部154は、荷重処理部151から供給される重み付けされたヒストグラム類似度情報、荷重処理部152から供給される重み付けされたフィルタ画像類似度情報、並びに、荷重処理部153から供給される重み付けされたモザイク画像類似度情報をすべて加算し、その結果得られる加算された類似度を表す加算類度似情報を、閾値判定部155に供給する。
ステップS224において、閾値判定部155は、加算部154から供給される加算類似度情報が所定の閾値以下かを判定する。ステップS224において、加算類似度情報が所定の閾値以下と判定された場合、ステップS225において、閾値判定部155は、カットチェンジを検出する処理対象とする第1の画像と第2の画像の境界が、時間的に不連続な画像の変化を伴う境界であるカットチェンジであると判定する。
一方、ステップS224において、加算類似度情報が所定の閾値以下ではないと判定された場合、ステップS226において、閾値判定部155は、カットチェンジを検出する処理対象とする第1の画像と第2の画像の境界が、カットチェンジではないと判定する。
これにより、例えば、モザイク画像類似度として、一致ピクセルの数に線形比例した類似度を用いる代わりに、例えば、全ピクセルのうちの半数以上のピクセルが一致ピクセルである場合に最大のモザイク類似度を与えるといったような非線形変換を施した類似度を用いることで、カットチェンジ検出の精度を向上させることができる。
なお、判定部64は、上述した判定処理の他、ベイズの定理に従って事象の確率を求めるベイズ識別法や、ニューラルネットワーク法、統計的学習理論を応用したサポートベクターマシン法等の、いわゆる統計的判別法を利用して、カットチェンジであるかを判定するようにしてもよい。
図32は、図10の第1処理部61の他の実施の形態の構成を示すブロック図である。
第1処理部61は、図18におけるヒストグラム生成部101、バッファ103、ヒストグラム類似度計算部104、フィルタ画像生成部121、フィルタ画像類似度計算部122、モザイク画像生成部131、モザイク画像類似度計算部132以外に、平均類似度計算部171から構成される。
図32において、平均類似度計算部171は、ヒストグラム類似度計算部104から供給されるヒストグラム類似度の、近傍の所定の数のフレーム(例えば、8フレーム)の平均である平均ヒストグラム類似度を計算し、判定部64に供給し、また、フィルタ画像類似度計算部122から供給されるフィルタ画像類似度の、近傍の所定の数のフレームの平均である平均フィルタ画像類似度を計算し、判定部64に供給する。さらに、平均類似度計算部171は、モザイク画像類似度計算部132から供給されるモザイク画像類似度の、近傍の所定の数のフレームの平均である平均モザイク画像類似度を計算し、判定部64に供給する。
なお、平均ヒストグラム類似度、平均フィルタ画像類似度、及び平均モザイク画像類似度のことを、以下、適宜、平均類似度ともいう。
次に、図33のフローチャートを参照して、図32の第1処理部61による第1の処理について説明する。
図33において、ステップS241乃至S247の処理は、図19におけるステップS121乃至S127の処理と同様であり、説明を省略する。
ステップS248において、図32の平均類似度計算部171は、ヒストグラム類似度計算部104から供給されるヒストグラム類似度の、近傍の所定の数のフレームの平均である平均ヒストグラム類似度を計算し、判定部64に供給するとともに、フィルタ画像類似度計算部122から供給されるフィルタ画像類似度の、近傍の所定の数のフレームの平均である平均フィルタ画像類似度を計算し、判定部64に供給する。さらに、平均類似度計算部171は、モザイク画像類似度計算部132から供給されるモザイク画像類似度の、近傍の所定の数のフレームの平均である平均モザイク画像類似度を計算し、判定部64に供給する。その後、処理は、図11のステップS2に戻る。
一般に、画像の動きが激しい画像区間では、カットチェンジではなくても、画像どうしの類似度が低下するので、カットチェンジの過剰検出が発生しやすくなる傾向がある。このような場合に、平均類似度をあわせて用いることにより、画像の動きが激しい画像区間と、ほとんど動きのない画像区間のそれぞれの各種の類似度の違いを吸収することができる。したがって、動きの大きな画像区間と、ほとんど動きのない画像区間のどちらに対しても、高い精度のカットチェンジ検出を安定して実現することができる。
図34は、図10の第1処理部61の他の実施の形態の構成を示すブロック図である。
第1処理部61は、図18におけるヒストグラム生成部101、バッファ103、ヒストグラム類似度計算部104、フィルタ画像生成部121、フィルタ画像類似度計算部122、モザイク画像生成部131、モザイク画像類似度計算部132以外に、平均色計算部181、及び近傍平均色計算部182から構成される。
図34において、平均色計算部181には、第1処理部61に入力された画像が供給される。
平均色計算部181は、そこに入力される画像の輝度または色の画像全体に関する平均である平均輝度または平均色を計算し、近傍平均色計算部182に供給する。
近傍平均色計算部182は、カットチェンジを検出する処理対象とする第1の画像の近傍の、例えば、所定数のフレームの、平均色計算部181から供給された平均輝度または平均色の平均である近傍平均色を計算し、判定部64に供給する。
次に、図35のフローチャートを参照して、図34の第1処理部61による第1の処理について説明する。
図35において、ステップS261乃至S267の処理は、図19におけるステップS121乃至S127の処理と同様であり、説明を省略する。
平均色計算部181には、第1処理部61に入力された画像が供給される。ステップS268において、平均色計算部181は、そこに入力される画像の輝度または色の画像全体に関する平均である平均輝度または平均色を計算し、近傍平均色計算部182に供給する。
ステップS269において、近傍平均色計算部182は、カットチェンジを検出する処理対象とする第1の画像(現フレーム)の近傍の、例えば、所定数のフレーム(例えば、8フレーム)の、平均色計算部181から供給された平均輝度または平均色の平均である近傍平均色を計算し、判定部64に供給する。その後、処理は、図11のステップS2に戻る。
一般に、夜間の画像や室内での画像など、画像全体の明るさ(輝度)が暗い画像区間では、ヒストグラムどうしの違いやフィルタ画像どうしの違いが小さくなり、ヒストグラム類似度やフィルタ画像類似度が高い値となるので、検出漏れが発生しやすくなるという傾向がある。このように、輝度や色が画像全体で小さい値をとる場合に、近傍平均色をあわせて用いることにより、例えば、画像が暗い場合には、わずかの変化でもカットチェンジであると判定し、明るい場合には、大きい変化があったときにのみカットチェンジであると判定するようにする等して、画像全体の輝度や色の大きさのバラツキを補うことで、高い精度のカットチェンジ検出を安定して実現することができる。
次に、第2の処理について説明する。
図36は、図10の第2処理部62の実施の形態の構成を示すブロック図である。
図36において、第2処理部62は、精細ヒストグラム生成部401、特徴分布算出部402、間引き処理部403、及び類似度算出部404から構成される。
精細ヒストグラム生成部401には、第2処理部62に入力された画像が供給される。精細ヒストグラム生成部401は、そこに供給される画像のヒストグラムとして、できるだけ細かい分割幅の、例えば、256階調の場合には1階調の分割幅のヒストグラムである精細ヒストグラムを生成し、特徴分布算出部402に供給する。
特徴分布算出部402は、精細ヒストグラム生成部401から供給される精細ヒストグラムにフィルタ処理を施し、その結果得られる特徴分布を、間引き処理部403に供給する。特徴分布算出部402によるフィルタ処理には、適切に設計された低域通過型フィルタを用いることが望ましいが、非線形な応答を持つフィルタを用いてもよい。
間引き処理部403は、特徴分布算出部402から供給される特徴分布に対して、その特徴分布を忠実に再現する(サンプリング定理で許される)範囲のサンプリング周波数に対応する間隔で間引きを行う間引き処理を施し、その結果得られる間引き処理後の特徴分布を類似度算出部404に供給する。
なお、間引き処理部403による間引き処理は、主に、データ量を削減して演算量や記憶容量を節約するための処理であり、必要がなければ省略してもよい。
類似度算出部404は、間引き処理部403から供給される間引き処理後の第1の画像の特徴分布と間引き処理後の第2の画像の特徴分布とを比較し、その間引き処理後の第1の画像の特徴分布と間引き処理後の第2の画像の特徴分布の類似度を算出する。
特徴分布どうしの類似度は、通常のヒストグラム差分法と同様に、第1の画像の特徴分布と、例えば、第1の画像より前のフレームの第2の画像の特徴分布の間の距離を求め、その距離が小さいほど特徴分布どうしの類似度が高くなるようにすればよい。
次に、図37のフローチャートを参照して、図11のステップS3で図36の第2処理部62が行う第2の処理について説明する。
図36の精細ヒストグラム生成部401には、第2処理部62に入力された画像が供給される。ステップS401において、精細ヒストグラム生成部401は、そこに供給される画像の精細ヒストグラムを生成し、特徴分布算出部402に供給する。
いま、図38Aに示されるように、フレームF211とフレームF212が処理対象画像であるとする。これらの画像は、図5のフレームF51とフレームF52と同じ輝度の分布を持つ画像となっている。すなわち、フレームF211の画像の左半分は75、右半分は81の輝度を有し、フレームF212の画像の左半分は77、右半分は83の輝度を有している。図38Bの精細ヒストグラムH211と精細ヒストグラムH212は、それぞれ、フレームF211とフレームF212の画像から生成された精細ヒストグラムである。精細ヒストグラムH211は、輝度75,81に、精細ヒストグラムH212は、輝度77,83にそれぞれヒストグラムピークを有している。
図38の精細ヒストグラムH211は、入力される画像がN階調の画像であれば、ビンの分割数をN段階とすることが望ましい。その場合、後述するヒストグラム生成の演算の不連続性は、画像がそもそも有する量子化レベルに留まり、新たな誤差が導入されることがない。また、演算量や記憶容量を節約する観点からすると、ビンの分割数をN段階未満とすることも可能ではあるが、分割が粗ければ粗い程、一般のヒストグラム差分法と同様に、ヒストグラム生成の演算の不連続性によって生じる誤差が導入されてしまう。
ステップS402において、特徴分布算出部402は、精細ヒストグラム生成部401から供給される精細ヒストグラムにフィルタ処理を施し、その結果得られる特徴分布を、間引き処理部403に供給する。
図38Cの特徴分布C211は、精細ヒストグラムH211にフィルタ処理を施すことによって得られたものであり、また、特徴分布C212は、精細ヒストグラムH212にフィルタ処理を施すことによって得られたものである。
フィルタ処理には、図39に示すような低域通過型フィルタを用いるのが望ましい。低域通過型フィルタを用いることにより、隣接のビンに投票する方法を用いる場合のようにヒストグラム生成の演算の不連続性による新たな誤差を導入することなく、輝度の微小変動によるヒストグラムの違いのブレを吸収することができる。
また、低域通過型フィルタによるフィルタ処理によって得られる特徴分布は、ヒストグラムに比べて高周波成分が低減されているので、サンプリング定理に従う範囲で間引き処理を行うことにより、以降の演算量を低く抑えつつ、フィルタ処理または間引き処理による誤差を導入しないようにできるか、あるいは、非常に少ない誤差に抑えることができる。
したがって、上述した方法を採用することにより、ヒストグラム差分法が本質的に有するヒストグラム生成の演算の不連続性による誤差が排除された特徴分布を用いて、対象画像どうしの類似度を算出することができるので、より高精度のカットチェンジ検出を行うことができる。
特徴分布算出部402によるフィルタ処理には、上述した低域通過型フィルタの他、非線形応答を持つフィルタである非線形フィルタを用いることもできる。
例えば、非線形フィルタには、特徴分布の対数を取ることにより、特徴値軸を対数的に圧縮または伸張するものを用いることもできる。
図40は、特定の輝度に特徴分布が集中している画像に、上述の非線形フィルタによる処理を施した場合の特徴分布を示している。
図40Aはフィルタ処理される画像を示し、図40Bは、その画像に線形フィルタによる処理を施した場合の特徴分布を示し、図40Cは、その画像に非線形フィルタによる処理を施した場合の特徴分布を示す。
図40Aの原画像は、単純色の物体の前景が、複雑な背景の前に位置する画像である。
図40Bの特徴分布では、その単純色の物体の輝度に特徴分布が集中している。この場合、前述したように、単純色の物体の輝度の変動が、カットチェンジの検出結果に過度に支配的となってしまう。
これに対して、図40Cの特徴分布では、非線形なフィルタリングによって、大きすぎる輝度が抑えられるので、特定の輝度に特徴分布が集中するのを抑制することができる。
ステップS403において、間引き処理部403は、特徴分布算出部402から供給される特徴分布に対して、例えば、4階調ごとに間引く間引き処理を施し、その結果得られる間引き処理後の特徴分布を類似度算出部404に供給する。図38Cの特徴分布C211と特徴分布C212を間引き処理することで、それぞれ図38Cの特徴分布D211と特徴分布D212が得られる。
ステップS404において、類似度算出部404は、間引き処理部403から供給される間引き処理後の第1の画像の特徴分布と間引き処理後の第2の画像(前フレームの画像)の特徴分布とを比較し、その間引き処理後の第1の画像の特徴分布と間引き処理後の第2の画像の特徴分布の類似度を算出するための類似度算出処理を実行する。その後、処理は、図11のステップS3に戻る。
この類似度算出処理を実行するため、図36の類似度算出部404は、図41に示されるように構成される。すなわち、類似度算出部404は、対応サンプル決定部431及び類似度決定部432から構成される。
対応サンプル決定部431は、間引き処理部403から供給される、第1の画像の間引き処理後の特徴分布と第2の画像の間引き処理後の特徴分布を比較し、第1の画像と第2の画像のそれぞれの特徴分布どうしの形状が最もよく一致するようにサンプルどうしの対応関係を決定し、その対応関係を表す対応関係情報を類似度決定部432に供給する。
類似度決定部432は、対応サンプル決定部431から供給される対応関係情報に基づいて、例えば、第1の画像の特徴分布と第2の画像の特徴分布の距離を求め、その距離が小さいほど高くなる類似度である特徴分布類似度を、判定部64に供給する。
図42のフローチャートを参照して、図36の類似度算出部404による類似度算出処理について説明する。
ステップS421において、対応サンプル決定部431は、間引き処理部403から供給される、第1の画像の間引き処理後の特徴分布と第2の画像の間引き処理後の特徴分布を比較し、第1の画像と第2の画像のそれぞれの特徴分布どうしの形状が最もよく一致するようにサンプルどうしの対応関係を、図43に示されるように決定し、その対応関係を表す対応関係情報を類似度決定部432に供給する。ここで、サンプルは、特徴分布の要素(ビン)のことを表す。
図43の上の図は、第1の画像としてのフレームF231の特徴分布を示し、図43の下の図は第2の画像としてのフレームF232の特徴分布を示す。
図43において、フレームF231の特徴分布とフレームF232の特徴分布のそれぞれのサンプルを、矢印で示されるように対応付けることで、2つの特徴分布の形状が最もよく一致する状態になる。
特徴分布どうしの対応関係を求める方法には、例えば、特徴分布どうしの相関を最大とするように求める方法、特徴分布どうしの2乗誤差を最小とするように求める方法、あるいは、特徴分布どうしの重心を一致させるように求める方法等がある。
あるいは、一般に、輝度の変化によって特徴分布の形状の歪みが発生するため、DP(Dynamic Programming)マッチングの技法等の非線形な方法を用いて、対応関係を決定してもよい。
ステップS422において、類似度決定部432は、対応サンプル決定部431から供給される対応関係情報に基づいて、例えば、第1の画像の特徴分布と第2の画像の特徴分布の距離を求め、その距離が小さいほど高くなる類似度である特徴分布類似度を、判定部64に供給する。
前述したように、ヒストグラム差分法では、微小な輝度変動が生じたときに、カットチェンジの誤検出が発生するおそれがあったが、その原因は、ヒストグラムを求める際に、ビンの区切りを挟んで不連続な演算を行っていることにある。特許文献2の方法を用いた場合、この演算の不連続性を緩和することができるので、カットチェンジの誤検出をある程度抑制できるが、ビンの区切り自体を解消するには至っていないので、効果が限定的となるのである。これに対して、本実施の形態では、特徴分布の形状が一致するようにサンプルを対応付けるので、ビンの区切りによる影響をより少なくすることができる。
次に、第3の処理について説明する。
図44は、図10の第3処理部63の実施の形態の構成を示すブロック図である。
図44において、第3処理部63は、特徴抽出部811、特徴量バッファ812、類似度算出部813、縮小画像生成部814、縮小画像バッファ815、合成画像生成部816、および類似度算出部817から構成される。
特徴抽出部811には、第3処理部63に入力された画像が供給される。
いま、第3処理部63に入力された直近の3つの画像、すなわち、時間順に、前々の画像、前の画像、または現画像を、それぞれ、第1の注目画像、第2の注目画像、または第3の注目画像とする。
特徴抽出部811は、そこに供給される第1乃至第3の注目画像のそれぞれの特徴量を抽出し、特徴量バッファ812に供給する。
この実施の形態の場合、特徴量として、上述したヒストグラムが採用されるが、この他、フィルタ画像、モザイク画像、または特徴分布の他、一般的なカットチェンジの検出方法のものも採用することができ、例えば、非特許文献1及び非特許文献2に示されているように、輝度の平均値若しくは分散値、符号化で得られるDCT係数若しくは動きベクトル、エッジ検出で得られるエッジ等を用いることができる。
特徴量バッファ812は、特徴抽出部811から供給される第1乃至第3の注目画像の特徴量を保存する。また、特徴量バッファ812は、少なくとも直近の3つの画像、つまり、第1乃至第3の注目画像も保存する。
類似度算出部813は、特徴量バッファ812から、第1乃至第3の注目画像を読み出し、第1の注目画像の特徴量と第3の注目画像の特徴量の類似度(以下、適宜、類似度1という)である第1の類似度1、第1の注目画像の特徴量と第2の注目画像の特徴量の類似度1である第2の類似度1、及び第2の注目画像の特徴量と第3の注目画像の特徴量の類似度1である第3の類似度1をそれぞれ算出し、その第1乃至第3の類似度1を判定部64にそれぞれ供給する。
この実施の形態の場合、類似度1として、上述したヒストグラム類似度が採用されるが、この他、フィルタ画像類似度、モザイク画像類似度、または特徴分布類似度の他、一般的なカットチェンジの検出方法で用いるものを採用することができ、例えば、非特許文献1または非特許文献2に示されているように、隣接する2つの画像のそれぞれの輝度の平均値若しくは分散値どうしの差分値、隣接する2つの画像の差分絶対和または差分2乗和、ヒストグラム差分絶対和、DCT係数の差分値、動きベクトルを用いて予測した画像と実際の画像との誤差である予測誤差の大きさ、エッジの数またはエッジの分布どうしの違い等を用いることができる。
縮小画像生成部814には、第3処理部63に入力された画像、すなわち、第1乃至第3の注目画像がそれぞれ供給される。縮小画像生成部814は、そこに供給される第1乃至第3の注目画像をそれぞれ縮小した縮小画像を生成し、縮小画像バッファ815に供給する。縮小画像には、例えば、8ピクセル×8ピクセルから16ピクセル×16ピクセル程度のサイズに縮小したものが用いられる。
縮小画像バッファ815は、縮小画像生成部814から供給される第1乃至第3の注目画像のそれぞれの縮小画像を保存する。また、縮小画像バッファ815は、少なくとも直近の3つの画像、つまり、第1乃至第3の注目画像も保存する。
合成画像生成部816は、縮小画像バッファ815から、第2の注目画像に対して時間的に前または後に位置する第1の注目画像の縮小画像と第3の注目画像の縮小画像をそれぞれ読み出し、第1の注目画像の縮小画像と第3の注目画像の縮小画像を合成した合成画像を生成し、類似度算出部817に供給する。
合成画像の点(x,y)の画素値G(x, y)は、例えば、第1の画像の縮小画像の画素値をF1(x, y)、第3の画像の縮小画像の画素値をF3(x, y)とすると、所定の定数a、bを用いて、式(1)で表される。
Figure 2008083894
ここで、xまたはyは、それぞれ各画像のX座標またはY座標を表す。
類似度算出部817は、縮小画像バッファ815から第2の注目画像の縮小画像を読み出し、合成画像生成部816から供給される第1の注目画像の縮小画像と第3の注目画像の縮小画像を合成した合成画像と第2の画像の縮小画像との類似度である類似度2を算出し、判定部64に供給する。
類似度2には、例えば、合成画像と縮小画像の同一ピクセルどうしの差分値の画像全体に関する2乗和の符号を反転したものか、あるいは、合成画像と縮小画像の最大相関値等を用いてもよい。
次に、図45のフローチャートを参照して、図44の第3処理部63による第3の処理について説明する。
特徴抽出部811には、第3処理部63に入力された画像が供給される。
いま、第3処理部63に入力された直近の3つの画像、すなわち、時間順に、前々の画像、前の画像、または現画像を、それぞれ、図46に示されるフレームF511、フレームF512、またはフレームF513の画像とする。人が撮影対象とされているフレームF511の画像と家が撮影対象とされているフレームF513の画像の類似度は低く、フレームF512の画像は、前のフレームF511の画像と後のフレームF513の画像が混合したような画像となっているので、フレームF511の画像とフレームF512の画像の類似度、及びフレームF512の画像とフレームF513の画像の類似度は、それぞれ高くなっている。すなわち、フレームF512には、フレームF511までのカットとフレームF513以降のカットを連結する境界であるブレンドカットチェンジが存在する。
ステップS601において、特徴抽出部811は、そこに供給されるフレームF511乃至F513のそれぞれの特徴量を抽出する。具体的には、図19のステップS121における場合と同様に、ヒストグラムが生成される。このヒストグラムは、特徴量バッファ812に保存される。
ステップS602において、類似度算出部813は、特徴量バッファ812から、フレームF511乃至F513のそれぞれの特徴量を読み出し、フレームF511の特徴量とフレームF513の特徴量の類似度である第1の類似度1、フレームF511の特徴量とフレームF512の特徴量の類似度である第2の類似度1、及びフレームF512の特徴量とフレームF513の特徴量の類似度である第3の類似度1をそれぞれ算出し、その第1乃至第3の類似度1を判定部64にそれぞれ供給する。具体的には、図19のステップS125における場合と同様に、ヒストグラム類似度が計算される。
縮小画像生成部814には、第3処理部63に入力された画像、すなわち、フレームF511乃至F513の画像がそれぞれ供給される。
ステップS603において、縮小画像生成部814は、そこに供給されるフレームF511乃至F513の画像をそれぞれ縮小した縮小画像を生成し、縮小画像バッファ815に保存させる。すなわち、LCD(Liquid Crystal Display)等の表示部に表示されるサイズの画像が、例えば、8ピクセル×8ピクセルのサイズに縮小される。この縮小は、例えば、原画像を8×8個のブロックに区分し、各ブロックの平均値を求めることで行われる。
ステップS604において、合成画像生成部816は、縮小画像バッファ815からフレームF512より時間的に前のフレームF511の縮小画像と、フレームF512より時間的に後のフレームF513の縮小画像をそれぞれ読み出し、式(1)に従って、フレームF511の縮小画像とフレームF513の縮小画像を合成した合成画像を生成し、類似度算出部817に供給する。
ステップS605において、類似度算出部817は、縮小画像バッファ815からフレームF512の縮小画像を読み出し、合成画像生成部816から供給されるフレームF511の縮小画像とフレームF513の縮小画像を合成した合成画像とフレームF512の縮小画像の類似度である類似度2を算出する。具体的には、合成画像と縮小画像の2乗距離の符号を反転したもの、または、両者の相関関数の最大値が演算される。演算結果としての類似度2は、判定部64に供給される。その後、処理は、図11のステップS4に戻る。
判定部64は、図10に示したように、本来、第1処理部61、第2処理部62、及び第3処理部63から供給される各種の類似度に基づいて、判定処理を行うが、ここでは、図44の第3処理部63の構成例において、第3処理部63から供給される類似度のみに基づいて、判定処理を行う場合について図47のフローチャートを参照して説明する。
判定処理は、図45の第3の処理でリターンがされると開始される。
判定部64には、図44の類似度算出部813からの第1乃至第3の類似度1と類似度算出部817からの類似度2が供給される。
ステップS631において、判定部64は、フレームF511の画像とフレームF513の画像の類似度1(第1の類似度1)は予め設定されている所定の閾値より大きいかを判定する。第1の類似度1が閾値より大きい場合、ステップS635において、判定部64は、フレームF511乃至フレームF513における画像の変化を、カットチェンジではないと判定する。
例えば、図48Aに示されるように、フレームF511乃至F513の画像が殆ど変化していない場合、あるいは、図48Bに示されるように、フレームF511とフレームF513の画像は殆ど変化していないが、その間のフレームF512の画像がフレームF511,F513に較べて明るさが異なる場合(例えば、フラッシュがたかれたり、フレーム落ちなどの場合)、カットチェンジではないと判定される。
一方、ステップS631において、第1の類似度1は閾値より大きくないと判定された場合、ステップS632において、判定部64は、フレームF511とフレームF512の画像の類似度1(第2の類似度1)が予め設定されている所定の閾値より大きいかを判定する。
ステップS632において、第2の類似度1が閾値より大きいと判定された場合、ステップS633において、判定部64は、フレームF512の画像とフレームF513の画像の類似度1(第3の類似度1)は予め設定されている所定の閾値より大きいかを判定する。
ステップS633において、第3の類似度1は閾値より大きいと判定された場合、ステップS634において、判定部64は、類似度2は予め設定されている所定の閾値より大きいかを判定する。
ステップS634において、類似度2が閾値より大きくないと判定された場合、すなわち、フレームF511とフレームF513の画像の類似度1が閾値より小さく、フレームF511とフレームF512の画像の類似度1が閾値より大きく、フレームF512とフレームF513の画像の類似度1が閾値より大きく、かつ、類似度2が閾値より小さい場合、ステップS635において、判定部64は、フレームF511乃至フレームF513における画像の変化を、カットチェンジではないと判定する。
例えば、図48Cに示されるように、フレームF511乃至F513の画像が、人が家から速い動きで離れていく画像である場合であって、フレームF511とフレームF513の画像は類似していないが、フレームF511とフレームF512の画像は類似し、フレームF512とフレームF513の画像は類似し、フレームF511とフレームF513の縮小画像を合成した画像と、フレームF512の縮小画像は類似していない場合、カットチェンジではないと判定される。
ステップS634において、類似度2が閾値より大きいと判定された場合、すなわち、フレームF511とフレームF513の画像の類似度1が閾値より小さく、フレームF511とフレームF512の画像の類似度1が閾値より大きく、フレームF512とフレームF513の画像の類似度1が閾値より大きく、かつ、類似度2が閾値より大きい場合、ステップS636において、判定部64は、フレームF511乃至フレームF513における画像の変化を、ブレンドカットチェンジであると判定する。
例えば、図48Gに示されるように、人の画像であるフレームF511の画像と、家の画像であるフレームF513の画像は類似していないが、フレームF512の画像は人と家を合成したような画像であるため、フレームF511とフレームF512の画像は類似し、フレームF512とフレームF513の画像は類似し、フレームF511とフレームF513の縮小画像を合成した画像と、フレームF512の縮小画像は類似する場合、ブレンドカットチェンジであると判定される。
一方、ステップS632において、第2の類似度1が閾値より小さいと判定された場合、ステップS637において、判定部64は、フレームF512とフレームF513の類似度1(第3の類似度1)は予め設定されている所定の閾値より大きいかを判定する。ステップS637において、第3の類似度1は閾値より大きいと判定された場合、すなわち、フレームF511とフレームF513の画像の類似度1が閾値より小さく、フレームF511とフレームF512の画像の類似度1が閾値より小さく、フレームF512とフレームF513の画像の類似度1が閾値より大きい場合、ステップS639において、判定部64は、フレームF511乃至フレームF513における画像の変化は、通常カットチェンジであると判定する。
例えば、図48Dに示されるように、人の画像であるフレームF511の画像と、家の画像であるフレームF513の画像は類似しておらず、フレームF512の画像は家の画像であるため、フレームF511とフレームF512の画像は類似しておらず、フレームF512とフレームF513の画像は類似する場合、通常のカットチェンジであると判定される。
ステップS633において、第3の類似度1は閾値より小さいと判定された場合、すなわち、フレームF511とフレームF513の画像の類似度1が閾値より小さく、フレームF511とフレームF512の画像の類似度1が閾値より大きく、フレームF512とフレームF513の画像の類似度1が閾値より小さい場合、ステップS639において、判定部64は、フレームF511乃至フレームF513における画像の変化は、通常カットチェンジであると判定する。
例えば、図48Eに示されるように、人の画像であるフレームF511の画像と、家の画像であるフレームF513の画像は類似しておらず、フレームF512の画像は人の画像であるため、フレームF511とフレームF512の画像は類似し、フレームF512とフレームF513の画像は類似していない場合、通常のカットチェンジであると判定される。
ステップS637において、第3の類似度1は閾値より小さいと判定された場合、ステップS638において、判定部64は、類似度2は予め設定されている所定の閾値より大きいかを判定する。ステップS638において、類似度2は閾値より大きいと判定された場合、すなわち、フレームF511とフレームF513の画像の類似度1が閾値より小さく、フレームF511とフレームF512の画像の類似度1が閾値より小さく、フレームF512とフレームF513の類似度1が閾値より小さく、かつ、類似度2が閾値より大きい場合、ステップS636において、判定部64は、フレームF511乃至フレームF513における画像の変化を、ブレンドカットチェンジであると判定する。
例えば、図48Gに示されるように、人の画像であるフレームF511の画像と、家の画像であるフレームF513の画像は類似しておらず、フレームF512の画像は人と家を合成したような画像であるが、フレームF511とフレームF512の画像、並びにフレームF512とフレームF513の画像は類似していないと判定された場合でも、フレームF511とフレームF513の縮小画像を合成した画像と、フレームF512の縮小画像が類似する場合、ブレンドカットチェンジであると判定される。
一方、ステップS638において、類似度2は閾値より小さいと判定された場合、すなわち、フレームF511とフレームF513の画像の類似度1が閾値より小さく、フレームF511とフレームF512の類似度1が閾値より小さく、フレームF512とフレームF513の類似度1が閾値より小さく、かつ、類似度2が閾値より小さい場合、判定部64は、フレームF511乃至フレームF513における画像の変化は、通常カットチェンジであると判定する。
例えば、図48Fに示されるように、人の画像であるフレームF511の画像と、山の画像であるフレームF513の画像は類似しておらず、フレームF512の画像は家の画像であるため、フレームF511とフレームF512の画像は類似しておらず、フレームF512とフレームF513の画像も類似していない場合、フレームF511とフレームF513の縮小画像を合成した画像と、フレームF512の縮小画像が類似していないとき、通常のカットチェンジであると判定される。
以上のように、図44の判定部64は、類似度算出部813から供給される第1乃至第3の類似度1、並びに、類似度算出部817から供給される類似度2に基づいて、フレームF511乃至フレームF513の間の画像の変化は、通常のカットチェンジであるか、さらに、ブレンドカットチェンジであるかを判定する。
また、判定部64は、第1乃至第3の類似度1及び類似度2のそれぞれが、第1乃至第3の類似度1及び類似度2のそれぞれに対して設定された適切な閾値に対して大きいかまたは小さいかを判定する閾値判定を行い、第1乃至第3の類似度1及び類似度2のそれぞれに対する閾値判定結果の組み合わせに基づいて、カットチェンジであるかを判定する。なお、値が閾値と等しい場合には、大きいかまたは小さいかのいずれかに判定される。
図49は、図47の判定処理と図48の3フレームの画像のパターンの関係をまとめたものである。
図49において、類似度の欄が「大」である場合、その類似度が所定の閾値より大きいことを表し、類似度の欄が「小」である場合、その類似度が所定の閾値より小さいことを表す。
図49の上から2行目において、フレームF511とフレームF513の類似度1が「大」の場合には、他の類似度が「大」、「小」のいずれの値であっても、カットチェンジではないと判定される。このような場合に対応する画像パターンは、例えば、図48Aまたは図48Bに示されている。
図49の上から3行目において、フレームF511とフレームF513の類似度1が「小」、フレームF511とフレームF512の類似度1が「大」、フレームF512とフレームF513の類似度1が「大」、類似度2が「大」の場合には、ブレンドカットチェンジであると判定される。このような場合に対応する画像パターンは、例えば、図48Gに示されている。
図49の上から4行目において、フレームF511とフレームF513の類似度1が「小」、フレームF511とフレームF512の類似度1が「大」、フレームF512とフレームF513の類似度1が「大」、類似度2が「小」の場合には、カットチェンジでないと判定される。このような場合に対応する画像パターンは、例えば、図48Cに示されている。
図49の上から5行目において、フレームF511とフレームF513の類似度1が「小」、フレームF511とフレームF512の類似度1が「大」、フレームF512とフレームF513の類似度1が「小」の場合、類似度2が「大」若しくは「小」のいずれでも、通常カットチェンジであると判定される。このような場合に対応する画像パターンは、例えば、図48Eに示されている。
図49の上から6行目において、フレームF511とフレームF513の類似度1が「小」、フレームF511とフレームF512の類似度1が「小」、フレームF512とフレームF513の類似度1が「大」の場合、類似度2が「大」若しくは「小」のいずれでも、通常カットチェンジであると判定される。このような場合に対応する画像パターンは、例えば、図48Dに示されている。
図49の上から7行目において、フレームF511とフレームF513の類似度1が「小」、フレームF511とフレームF512の類似度1が「小」、フレームF512とフレームF513の類似度1が「小」、類似度2が「大」の場合には、ブレンドカットチェンジであると判定される。このような場合に対応する画像パターンは、例えば、図48Gに示されている。
図49の上から8行目において、フレームF511とフレームF513の類似度1が「小」、フレームF511とフレームF512の類似度1が「小」、フレームF512とフレームF513の類似度1が「小」、類似度2が「小」の場合には、通常カットチェンジであると判定される。このような場合に対応する画像パターンは、例えば、図48Fに示されている。
例えば、フェード、ディゾルブ、ワイプ等の連続的な画像の変化を伴う画像効果を用いた画像区間の接続における画像の変化であるブレンドカットチェンジも、カットチェンジとして検出することができ、ブレンドカットチェンジの検出を正確に行うことができる。
なお、図44の判定部64は、この他、ベイズ識別法やニューラルネットワーク法、サポートベクターマシン法等の統計的判別法を用いて、第1乃至第3の類似度1と類似度2に基づいて、カットチェンジであるかを判別する判別器を有する構成としてもよい。
判定部64の構成については、第1の処理を実行する場合に関連して、図28と図30に示したが、図10の判定部64の実施の形態としての構成を示すと、図50と図51に示すようになる。
図50において、荷重処理部151には、図10の第1処理部61から第1の処理の類似度が供給される。荷重処理部151は、そこに供給される第1の処理の類似度情報に、所定の荷重係数W31を乗算し、その結果得られる重み付けされた第1の処理の類似度を、加算部154に供給する。第1の処理の類似度として、ヒストグラム類似度、空間相関画像類似度、フィルタ画像類似度、モザイク画像類似度等が入力される場合には、それぞれに対応する荷重係数が乗算されて、加算部154に供給される。
荷重処理部152には、図10の第2処理部62から第2の処理の類似度、すなわち、特徴分布情報が供給される。荷重処理部152は、そこに供給される第2の処理の類似度に、所定の荷重係数W32を乗算し、その結果得られる重み付けされた第2の処理の類似度を、加算部154に供給する。
荷重処理部153には、図10の第3処理部63の第3の処理の類似度が供給される。荷重処理部153は、第3処理部63から供給される第3の処理の類似度に、所定の荷重係数W33を乗算し、その結果得られる重み付けされた第3の処理の類似度を、加算部154に供給する。第3の処理の類似度として第1乃至第3の類似度1、類似度3が入力される場合には、それぞれに対応する荷重係数が乗算されて、加算部154に供給される。
加算部154は、荷重処理部151から供給される重み付けされた第1の処理の類似度情報、荷重処理部152から供給される重み付けされた第2の処理の類似度情報、並びに、荷重処理部153から供給される重み付けされた第3の処理の類似度情報をすべて加算し、その結果得られる加算された類似度を表す加算類度似情報を、閾値判定部155に供給する。
閾値判定部155は、加算部154から供給される加算類似度情報と所定の閾値とを比較することにより、カットチェンジを検出する処理対象とする第1の画像と第2の画像、または第2の画像と第3の画像の境界が、時間的に不連続な画像の変化を伴う境界であるカットチェンジであるかを判定する。
図51の判定部64は、図50の荷重処理部151乃至153の前段に、非線形変換処理部161乃至163が付加された構成とされている。非線形変換処理部161乃至163の機能は、図30を参照して説明した場合と同様である。
図52は、図10の実施の形態によるカットチェンジ検出の性能評価の結果を表している。
図52の上から2行目に示されるように、1本が約120分で12本、カット数が260個のパーソナルビデオ、すなわち、個人がビデオカメラで撮影したパーソナルビデオの画像からカットチェンジを検出した場合、検出漏れ数は5個、過剰検出数は4個であったので、再現率は98.1 %(=(260-5)/260)、適合率は98.5 %(=(260-4)/260)となった。
図52の上から3行目に示されるように、1本が約120分で19本、カット数が1891個の放送、すなわち、DVDレコーダやTV(Television)パソコンで録画した放送番組やCM(Commercial Message)の画像からカットチェンジを検出した場合、検出漏れ数は15個、過剰検出数は27個であったので、再現率は99.2 %(=(1891-15)/1891)、適合率は98.6 %(=(1891-27)/1891)となった。
このように、この実施の形態は、高い精度でカットチェンジの検出を行うことができる。
なお、上述した各処理では、画像をフレーム単位で扱うように説明したが、画像をフィールド単位で扱うようにすることもできる。
また、本明細書において、プログラム記録媒体に格納されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
本発明は、ソフトウェアにより構成する他、ハードウェアにより構成することができる。
本発明は、放送機器、画像編集機器、カムコーダ、画像処理用のパーソナルコンピュータ、DVDレコーダ、ハードディスクレコーダ等の画像を処理するあらゆる検出装置に適用することができる。
なお、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
画像全体の明るさが変化した場合のヒストグラムの変化を示す図である。 テロップが出現した場合のヒストグラムの変化を示す図である。 カットチェンジが生じた場合のヒストグラムの変化を示す図である。 輝度の微小変動が生じた場合のヒストグラムの変化を示す図である。 フレームの左半分と右半分のそれぞれに輝度の微小変動が生じた場合のヒストグラムの変化を示す図である。 通常カットチェンジの例を示す図である。 ブレンドカットチェンジの例を示す図である。 撮影対象の早い動きの例を示す図である。 本発明を適用した検出装置の一実施の形態の構成を示すブロック図である。 カットチェンジ検出部の一実施の形態の構成を示すブロック図である。 カットチェンジ検出処理を説明するフローチャートである。 第1処理部の一実施の形態の構成を示すブロック図である。 第1の処理を説明するフローチャートである。 第1処理部の他の実施の形態の機能的な構成を示すブロック図である。 図14の第1の処理を説明するフローチャートである。 第1処理部の他の実施の形態の機能的な構成を示すブロック図である。 図16の第1処理部による第1の処理を説明するフローチャートである。 第1処理部の他の実施の形態の機能的な構成を示すブロック図である。 図18の第1処理部による第1の処理を説明するフローチャートである。 原画像の例を示す図である。 ヒストグラム、フィルタ画像、及びモザイク画像の例を示す図である。 フィルタ画像を生成するフィルタのフィルタ特性を示す図である。 ヒストグラムどうしの重なり率を説明する図である。 フィルタ画像の類似度計算処理を説明するフローチャートである。 最大相関値の探索を説明する図である。 モザイク画像の類似度計算処理を説明するフローチャートである。 一致ピクセルの計数を説明する図である。 判定部の一実施の形態の構成例を示すブロック図である。 図28の判定部による判定処理を説明するフローチャートである。 判定部の他の実施の形態の機能的構成を示すブロック図である。 図30の判定部による判定処理を説明するフローチャートである。 第1処理部の他の実施の形態の機能的な構成を示すブロック図である。 図32の第1処理部による第1の処理を説明するフローチャートである。 第1処理部の他の実施の形態の機能的な構成を示すブロック図である。 図34の第1処理部による第1の処理を説明するフローチャートである。 第2処理部の一実施の形態の構成を示すブロック図である。 図36の第2処理部による第2の処理を説明するフローチャートである。 精細ヒストグラム及び特徴分布の変化を示す図である。 低域通過型フィルタの周波数応答特性を示す図である。 非線形フィルタによるフィルタ処理を説明する図である。 類似度算出部の一実施の形態の構成を示すブロック図である。 図37のステップS404の類似度算出処理を説明するフローチャートである。 サンプルの対応付けを説明する図である。 第3処理部の一実施の形態の構成を示すブロック図である。 第3処理部による第3の処理を説明するフローチャートである。 合成画像の生成を説明する図である。 図44の判定部による判定処理を説明するフローチャートである。 画像パターンとカットチェンジの関係を示す図である。 類似度1及び類似度2とカットチェンジの判定結果の関係を示す図である。 図10の判定部の実施の形態の機能的構成を示すブロック図である。 図10の判定部の他の実施の形態の機能的構成を示すブロック図である。 カットチェンジ検出の性能評価を説明する図である。
符号の説明
1 パーソナルコンピュータ, 21 CPU, 22 ROM, 23 RAM, 24 バス, 25 入出力インタフェース, 26 入力部, 27 出力部, 28 記憶部, 29 通信部, 30 ドライブ, 31 リムーバブルメディア, 51 カットチェンジ検出部, 61 第1処理部, 62 第2処理部, 63 第3処理部, 64 判定部, 101 ヒストグラム生成部, 102 空間相関画像生成部, 103 バッファ, 104 ヒストグラム類似度計算部, 105 空間相関画像類似度計算部, 121 フィルタ画像生成部, 122 フィルタ画像類似度計算部, 131 モザイク画像生成部, 132 モザイク画像類似度計算部, 151乃至153 荷重処理部, 154 加算器, 155 閾値判定部, 161乃至163 非線形変換処理部, 171 平均類似度計算部, 181 平均色計算部, 182 近傍平均色計算部, 401 精細ヒストグラム生成部, 402 特徴分布算出部, 403 間引き処理部, 404 類似度算出部, 431 対応サンプル決定部, 432 類似度決定部, 811 特徴抽出部, 812 特徴量バッファ, 813 類似度算出部, 814 縮小画像生成部, 815 縮小画像バッファ, 816 合成画像生成部, 817 類似度算出部

Claims (13)

  1. 第1の画像と第2の画像の類似度に基づいて、カットチェンジを検出する検出処理をコンピュータに実行させるプログラムにおいて、
    前記第1の画像と前記第2の画像のそれぞれの輝度または色のヒストグラムを生成し、
    前記第1の画像と前記第2の画像のそれぞれの空間配置の相関関係を表す画像である空間相関画像を生成し、
    前記第1の画像の前記ヒストグラムと前記第2の画像の前記ヒストグラムの類似度であるヒストグラム類似度を計算し、
    前記第1の画像の前記空間相関画像と前記第2の画像の前記空間相関画像の類似度である空間相関画像類似度を計算し、
    前記ヒストグラム類似度と前記空間相関画像類似度に基づいて、前記第1の画像と前記第2の画像の境界がカットチェンジであるかを判定する
    ステップを備えるプログラム。
  2. 前記ヒストグラム類似度は、前記第1の画像と前記第2の画像のそれぞれの前記ヒストグラムどうしの重なり率である
    請求項1に記載のプログラム。
  3. 前記空間相関画像生成ステップは、前記第1の画像と前記第2の画像のそれぞれの低周波成分及び高周波数成分を低減させた画像であるフィルタ画像、若しくは、画像の全体を複数の領域に区分した場合における各領域の輝度または色の平均をその領域の輝度または色とする画像であるモザイク画像のいずれか一方または両方を、前記空間相関画像として生成する
    請求項1に記載のプログラム。
  4. 前記空間相関画像は、前記フィルタ画像であり、
    前記空間相関画像類似度は、前記第1の画像と前記第2の画像のそれぞれの前記空間相関画像の全体若しくは一部どうしの相対的な位置をシフトさせながら計算した相関値のうちの最大値である
    請求項3に記載のプログラム。
  5. 前記空間相関画像は、前記フィルタ画像であり、
    前記空間相関画像類似度は、前記第1の画像と前記第2の画像のそれぞれの前記空間相関画像の全体若しくは一部どうしの相対的な位置をシフトさせながら計算した差分絶対和若しくは差分2乗和の最小値である
    請求項3に記載のプログラム。
  6. 前記空間相関画像は、前記モザイク画像であり、
    前記空間相関画像類似度は、前記第1の画像と前記第2の画像のそれぞれの前記空間相関画像の対応するピクセルどうしの差分値が所定の閾値以下であるピクセルの数、または、そのピクセルの数の全ピクセル数に対する割合である
    請求項3に記載のプログラム。
  7. 前記判定ステップは、前記ヒストグラム類似度と前記空間相関画像類似度とを荷重加算した値と所定の閾値とを比較することにより、前記第1の画像と前記第2の画像の境界がカットチェンジであるかを判定する
    請求項1に記載のプログラム。
  8. 前記判定ステップは、前記ヒストグラム類似度を非線形関数で変換した非線形変換後のヒストグラム類似度と、前記空間相関画像類似度を非線形関数で変換した非線形変換後の空間相関画像類似度とを荷重加算した値と所定の閾値とを比較することにより、前記第1の画像と前記第2の画像の境界がカットチェンジであるかを判定する
    請求項7に記載のプログラム。
  9. 前記ヒストグラム類似度計算ステップによって計算された、近傍の複数フレームの画像の前記ヒストグラム類似度の平均、若しくは、前記空間相関画像類似度計算手段によって計算された、近傍の複数フレームの画像の前記空間相関画像類似度の平均のいずれか一方または両方である平均類似度を計算する平均類似度計算ステップをさらに備え、
    前記判定ステップは、前記ヒストグラム類似度、前記空間相関画像類似度、及び前記平均類似度に基づいて、前記第1の画像と前記第2の画像の境界が、カットチェンジであるかを判定する
    請求項1に記載のプログラム。
  10. 前記第1の画像の近傍の複数フレームの画像の輝度または色の平均である近傍平均色を計算する近傍平均色計算ステップをさらに備え、
    前記判定ステップは、前記ヒストグラム類似度、前記空間相関画像類似度、及び前記近傍平均色に基づいて、前記第1の画像と前記第2の画像の境界がカットチェンジであるかを判定する
    請求項1に記載のプログラム。
  11. 前記第1の画像と前記第2の画像のそれぞれの輝度または色の精細ヒストグラムを生成し、
    前記精細ヒストグラムに対してフィルタ処理を施して特徴分布を算出し、
    前記第1の画像と前記第2の画像のそれぞれの前記特徴分布の類似度を算出し、
    前記第1の画像と前記第2の画像以外に、さらに第3の画像の特徴を抽出し、
    前記第1の画像、前記第2の画像及び前記第3の画像のうちの2つの画像の特徴の類似度を算出し、
    前記第1の画像、前記第2の画像及び前記第3の画像の縮小画像を生成し、
    前記第1の画像と前記第3の画像の縮小画像の合成画像を生成し、
    前記第2の画像の縮小画像と前記合成画像の類似度を算出する
    ステップをさらに備え、
    前記判定ステップは、さらに前記特徴分布の類似度、前記第1の画像、前記第2の画像及び前記第3の画像のうちの2つの画像の特徴の類似度、並びに前記第2の画像の縮小画像と前記合成画像の類似度に基づいて、前記第1の画像と前記第2の画像の境界が、カットチェンジであるかを判定する
    請求項1に記載のプログラム。
  12. 第1の画像と第2の画像の類似度に基づいて、カットチェンジを検出する検出方法において、
    前記第1の画像と前記第2の画像のそれぞれの輝度または色のヒストグラムを生成し、
    前記第1の画像と前記第2の画像のそれぞれの空間配置の相関関係を表す画像である空間相関画像を生成し、
    前記第1の画像の前記ヒストグラムと前記第2の画像の前記ヒストグラムの類似度であるヒストグラム類似度を計算し、
    前記第1の画像の前記空間相関画像と前記第2の画像の前記空間相関画像の類似度である空間相関画像類似度を計算し、
    前記ヒストグラム類似度と前記空間相関画像類似度に基づいて、前記第1の画像と前記第2の画像の境界がカットチェンジであるかを判定する
    ステップを含む検出方法。
  13. 第1の画像と第2の画像の類似度に基づいて、カットチェンジを検出する検出装置において、
    前記第1の画像と前記第2の画像のそれぞれの輝度または色のヒストグラムを生成するヒストグラム生成手段と、
    前記第1の画像と前記第2の画像のそれぞれの空間配置の相関関係を表す画像である空間相関画像を生成する空間相関画像生成手段と、
    前記第1の画像の前記ヒストグラムと前記第2の画像の前記ヒストグラムの類似度であるヒストグラム類似度を計算するヒストグラム類似度計算手段と、
    前記第1の画像の前記空間相関画像と前記第2の画像の前記空間相関画像の類似度である空間相関画像類似度を計算する空間相関画像類似度計算手段と、
    前記ヒストグラム類似度と前記空間相関画像類似度に基づいて、前記第1の画像と前記第2の画像の境界がカットチェンジであるかを判定する判定手段と
    を備える検出装置。
JP2006261867A 2006-09-27 2006-09-27 プログラム、検出方法、及び検出装置 Expired - Fee Related JP4720705B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2006261867A JP4720705B2 (ja) 2006-09-27 2006-09-27 プログラム、検出方法、及び検出装置
US11/861,906 US20080181492A1 (en) 2006-09-27 2007-09-26 Detection Apparatus, Detection Method, and Computer Program
CN200710152516A CN100592339C (zh) 2006-09-27 2007-09-27 检测设备和检测方法
US13/198,693 US8254677B2 (en) 2006-09-27 2011-08-04 Detection apparatus, detection method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006261867A JP4720705B2 (ja) 2006-09-27 2006-09-27 プログラム、検出方法、及び検出装置

Publications (2)

Publication Number Publication Date
JP2008083894A true JP2008083894A (ja) 2008-04-10
JP4720705B2 JP4720705B2 (ja) 2011-07-13

Family

ID=39255933

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006261867A Expired - Fee Related JP4720705B2 (ja) 2006-09-27 2006-09-27 プログラム、検出方法、及び検出装置

Country Status (3)

Country Link
US (2) US20080181492A1 (ja)
JP (1) JP4720705B2 (ja)
CN (1) CN100592339C (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2458895A2 (en) 2010-11-29 2012-05-30 Sony Corporation Information processing apparatus, information processing method and program
EP2458881A2 (en) 2010-11-29 2012-05-30 Sony Corporation Information Processing Apparatus, Information Processing Method and Program
JP2013202273A (ja) * 2012-03-29 2013-10-07 Fuji Heavy Ind Ltd 眠気レベルの推定装置、眠気レベルの推定方法および眠気レベルの推定処理プログラム
JP2017112448A (ja) * 2015-12-15 2017-06-22 日本放送協会 映像シーン分割装置及び映像シーン分割プログラム
CN111654703A (zh) * 2015-05-04 2020-09-11 谷歌有限责任公司 用于应用流的预取的编码
JP2021166066A (ja) * 2020-06-28 2021-10-14 ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド ビデオにおけるキーロゴの認識方法、装置、設備、記憶媒体、及びプログラム

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5196731B2 (ja) * 2006-04-20 2013-05-15 キヤノン株式会社 画像処理装置及び画像処理方法
US9600959B2 (en) 2007-01-09 2017-03-21 Cfph, Llp System for managing promotions
US9754444B2 (en) 2006-12-06 2017-09-05 Cfph, Llc Method and apparatus for advertising on a mobile gaming device
US8751154B2 (en) 2008-04-24 2014-06-10 GM Global Technology Operations LLC Enhanced clear path detection in the presence of traffic infrastructure indicator
US8634593B2 (en) * 2008-04-24 2014-01-21 GM Global Technology Operations LLC Pixel-based texture-less clear path detection
US8803966B2 (en) 2008-04-24 2014-08-12 GM Global Technology Operations LLC Clear path detection using an example-based approach
US20100104018A1 (en) * 2008-08-11 2010-04-29 New York University System, method and computer-accessible medium for providing body signature recognition
US8811771B2 (en) * 2008-08-22 2014-08-19 Adobe Systems Incorporated Content aware slideshows
US8406573B2 (en) * 2008-12-22 2013-03-26 Microsoft Corporation Interactively ranking image search results using color layout relevance
US8688517B2 (en) * 2009-02-13 2014-04-01 Cfph, Llc Method and apparatus for advertising on a mobile gaming device
JP4575501B2 (ja) * 2009-02-26 2010-11-04 株式会社東芝 映像信号処理装置及びその制御方法及びテレビジョン信号受信装置
WO2010105105A2 (en) * 2009-03-11 2010-09-16 Crowley Davis Research, Inc. Discrimination between multi-dimensional models using difference distributions
EP2355037A1 (en) * 2009-12-18 2011-08-10 Nxp B.V. Method of and system for determining an average colour value for pixels
JP5561524B2 (ja) * 2010-03-19 2014-07-30 ソニー株式会社 画像処理装置および方法、並びにプログラム
CN102340676B (zh) * 2010-07-16 2013-12-25 深圳Tcl新技术有限公司 一种3d视频格式自动识别的方法及装置
CN102457701B (zh) * 2010-11-02 2014-03-12 华为终端有限公司 图像显示处理方法及装置
CN102591892A (zh) * 2011-01-13 2012-07-18 索尼公司 数据分段设备和方法
US8805865B2 (en) * 2012-10-15 2014-08-12 Juked, Inc. Efficient matching of data
US9665796B2 (en) * 2013-01-22 2017-05-30 University Of Central Florida Research Foundation, Inc. System and method for visual correlation of digital images
JP6104680B2 (ja) * 2013-03-21 2017-03-29 株式会社日立国際電気 画像処理装置、撮像装置、監視システム、符号化装置、画像処理方法
CN103258434A (zh) * 2013-04-25 2013-08-21 广州中国科学院软件应用技术研究所 基于视频交通流检测和车辆识别的图像边缘检测系统
KR101523843B1 (ko) * 2013-09-24 2015-05-29 한국 한의학 연구원 설진기 재현성 측정 장치 및 방법
CN103577323B (zh) * 2013-09-27 2016-03-30 西安交通大学 基于动态关键指令序列胎记的软件抄袭检测方法
CN104063871B (zh) * 2014-07-04 2017-03-01 西安电子科技大学 可穿戴设备的图像序列场景分割方法
US10032402B2 (en) * 2014-07-23 2018-07-24 Texas Instruments Incorporated Power and brightness management of solid-state displays
US9805662B2 (en) * 2015-03-23 2017-10-31 Intel Corporation Content adaptive backlight power saving technology
CN106296634B (zh) * 2015-05-28 2019-11-15 腾讯科技(深圳)有限公司 一种检测相似图像的方法和装置
CN105160029B (zh) * 2015-09-30 2019-04-16 努比亚技术有限公司 图像检索装置及方法
US10769442B1 (en) * 2017-09-11 2020-09-08 Amazon Technologies, Inc. Scene change detection in image data
CN107292826B (zh) * 2016-03-31 2021-01-22 富士通株式会社 图像处理设备、图像处理方法以及图像处理装置
US10169655B2 (en) * 2016-11-30 2019-01-01 Arris Enterprises Llc Detection of logos in a sequence of video frames
CN106658119A (zh) * 2017-01-10 2017-05-10 网易(杭州)网络有限公司 视频应用测试方法及装置
US10255526B2 (en) * 2017-06-09 2019-04-09 Uptake Technologies, Inc. Computer system and method for classifying temporal patterns of change in images of an area
CN107256693A (zh) * 2017-08-17 2017-10-17 京东方科技集团股份有限公司 显示方法、显示面板和显示装置
CN109409305A (zh) * 2018-11-01 2019-03-01 深圳技术大学(筹) 一种人脸图像清晰度评价方法及装置
CN114041127A (zh) * 2019-07-05 2022-02-11 夏普Nec显示器解决方案株式会社 图像显示系统、图像发送装置、图像显示装置以及图像显示系统的连接方法
CN112492249B (zh) * 2019-09-11 2024-04-09 瑞昱半导体股份有限公司 图像处理方法及电路

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000165798A (ja) * 1998-11-30 2000-06-16 Sony Corp 情報処理装置および方法、並びに提供媒体

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5719643A (en) * 1993-08-10 1998-02-17 Kokusai Denshin Denwa Kabushiki Kaisha Scene cut frame detector and scene cut frame group detector
US5614945A (en) * 1993-10-19 1997-03-25 Canon Kabushiki Kaisha Image processing system modifying image shake correction based on superimposed images
US6195458B1 (en) * 1997-07-29 2001-02-27 Eastman Kodak Company Method for content-based temporal segmentation of video
JP2000295624A (ja) 1999-04-07 2000-10-20 Matsushita Electric Ind Co Ltd シーン検出装置
JP2000324499A (ja) 1999-05-14 2000-11-24 Fujitsu Ltd 画像処理装置及びシーンチェンジ検出方法
US7110454B1 (en) * 1999-12-21 2006-09-19 Siemens Corporate Research, Inc. Integrated method for scene change detection
KR100698106B1 (ko) * 2000-03-07 2007-03-26 엘지전자 주식회사 엠펙(mpeg)압축 비디오 환경에서 계층적 혼합형장면 변화 검출 방법
JP2002064823A (ja) 2000-08-21 2002-02-28 Matsushita Electric Ind Co Ltd 圧縮動画像のシーンチェンジ検出装置、圧縮動画像のシーンチェンジ検出方法及びそのプログラムを記録した記録媒体
KR20020040503A (ko) 2000-11-24 2002-05-30 구자홍 동영상 비디오 스트림의 장면전환 검출방법
US6826310B2 (en) * 2001-07-06 2004-11-30 Jasc Software, Inc. Automatic contrast enhancement
US6810144B2 (en) * 2001-07-20 2004-10-26 Koninklijke Philips Electronics N.V. Methods of and system for detecting a cartoon in a video data stream
US7123769B2 (en) * 2001-11-09 2006-10-17 Arcsoft, Inc. Shot boundary detection
US7054367B2 (en) * 2001-12-31 2006-05-30 Emc Corporation Edge detection based on variable-length codes of block coded video
US6993182B2 (en) * 2002-03-29 2006-01-31 Koninklijke Philips Electronics N.V. Method and apparatus for detecting scene changes in video using a histogram of frame differences
EP1509882A4 (en) * 2002-05-20 2009-03-04 Konan Technology Inc SCENE CHANGE DETECTOR ALGORITHM IN IMAGE SEQUENCE
JP4100205B2 (ja) 2003-03-14 2008-06-11 ソニー株式会社 シーンチェンジ検出方法および装置
JP2006121274A (ja) 2004-10-20 2006-05-11 Victor Co Of Japan Ltd シーンチェンジ検出装置
US20060109902A1 (en) * 2004-11-19 2006-05-25 Nokia Corporation Compressed domain temporal segmentation of video sequences
JP4496106B2 (ja) * 2005-02-28 2010-07-07 株式会社東芝 画像処理装置及び画像処理方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000165798A (ja) * 1998-11-30 2000-06-16 Sony Corp 情報処理装置および方法、並びに提供媒体

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2458895A2 (en) 2010-11-29 2012-05-30 Sony Corporation Information processing apparatus, information processing method and program
EP2458881A2 (en) 2010-11-29 2012-05-30 Sony Corporation Information Processing Apparatus, Information Processing Method and Program
JP2013202273A (ja) * 2012-03-29 2013-10-07 Fuji Heavy Ind Ltd 眠気レベルの推定装置、眠気レベルの推定方法および眠気レベルの推定処理プログラム
CN111654703A (zh) * 2015-05-04 2020-09-11 谷歌有限责任公司 用于应用流的预取的编码
CN111654703B (zh) * 2015-05-04 2024-03-15 谷歌有限责任公司 用于应用流的预取的编码
JP2017112448A (ja) * 2015-12-15 2017-06-22 日本放送協会 映像シーン分割装置及び映像シーン分割プログラム
JP2021166066A (ja) * 2020-06-28 2021-10-14 ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド ビデオにおけるキーロゴの認識方法、装置、設備、記憶媒体、及びプログラム
US11748986B2 (en) 2020-06-28 2023-09-05 Beijing Baidu Netcom Science And Technology Co., Ltd. Method and apparatus for recognizing key identifier in video, device and storage medium

Also Published As

Publication number Publication date
JP4720705B2 (ja) 2011-07-13
US20110293176A1 (en) 2011-12-01
CN100592339C (zh) 2010-02-24
US8254677B2 (en) 2012-08-28
CN101154290A (zh) 2008-04-02
US20080181492A1 (en) 2008-07-31

Similar Documents

Publication Publication Date Title
JP4720705B2 (ja) プログラム、検出方法、及び検出装置
US7916173B2 (en) Method for detecting and selecting good quality image frames from video
EP1800260B1 (en) Correction of blotches in component images
US8121431B2 (en) Method and apparatus for detecting edge of image and computer readable medium processing method
Karaman et al. Comparison of static background segmentation methods
US20120019728A1 (en) Dynamic Illumination Compensation For Background Subtraction
Bidokhti et al. Detection of regional copy/move forgery in MPEG videos using optical flow
US20200250840A1 (en) Shadow detection method and system for surveillance video image, and shadow removing method
JP4545195B2 (ja) デジタル映像のアーティファクト削減
US20080253617A1 (en) Method and Apparatus for Determining the Shot Type of an Image
US8331689B2 (en) Detecting a border region in an image
US20110075924A1 (en) Color adjustment
CN102333174A (zh) 一种视频图像处理方法和装置
JP2013026755A (ja) 画像処理装置、撮像装置、画像処理方法および画像処理プログラム
US20110085026A1 (en) Detection method and detection system of moving object
US20090180670A1 (en) Blocker image identification apparatus and method
Urhan et al. Modified phase-correlation based robust hard-cut detection with application to archive film
US20060268181A1 (en) Shot-cut detection
JP4662169B2 (ja) プログラム、検出方法、及び検出装置
AU2005202715B2 (en) A Method for Detecting and Selecting Good Quality Image Frames from Video
Lavigne et al. Automatic Video Zooming for Sport Team Video Broadcasting on Smart Phones.
CN110248182B (zh) 一种场景片段镜头检测方法
CN117474959B (zh) 基于视频数据的目标对象运动轨迹处理方法及系统
JP2008085539A (ja) プログラム、検出方法、検出装置、画像処理方法、及び画像処理装置
KR20050041761A (ko) 샷 전환 프레임 검출방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090716

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110308

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110321

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140415

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4720705

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140415

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees