JP3561942B2 - Shot detection method and representative image recording / display device - Google Patents
Shot detection method and representative image recording / display device Download PDFInfo
- Publication number
- JP3561942B2 JP3561942B2 JP02650794A JP2650794A JP3561942B2 JP 3561942 B2 JP3561942 B2 JP 3561942B2 JP 02650794 A JP02650794 A JP 02650794A JP 2650794 A JP2650794 A JP 2650794A JP 3561942 B2 JP3561942 B2 JP 3561942B2
- Authority
- JP
- Japan
- Prior art keywords
- shot
- information
- image
- unit
- representative
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Analysis (AREA)
- Television Signal Processing For Recording (AREA)
Description
【0001】
【産業上の利用分野】
本発明は、動画像の早見、検索、編集などのために、画像内容に応じた単位で動画像をまとめる方法、及び、まとめられた動画像を基に代表的な画像を自動抽出し、その画像を記録・表示する装置に関するものである。
【0002】
【従来の技術】
従来、動画像の区切りを検出する技術や、動画像の区切りを編集作業に利用する技術が多数提案されてきた。
【0003】
動画像の区切りを映像信号から自動検出する方法としては、例えば、特開平3−214364号公報に開示されたシーン変化検出手法がある。これは、隣接フレーム間でヒストグラムを比較することにより、シーンが変化したかどうか判定するものである。ここでのシーンの変化は、撮影・録画の開始/終了時点や、編集作業によって別々のシーンを連結した時のつなぎ目に対応している。また、VISS(VHS Index Search System)では、録画開始時に、ビデオテープにVISS信号を自動記録し、高速頭出しなどのタグとして利用している。
【0004】
一方、録画の開始点だけでなく、好みの画像の時点にタグ付けする、といった柔軟な技術も必要とされている。例えば、前述のVISSでは、ユーザが見たい場面に対してもVISS信号を記録できるので、ビデオテープ上に記録されたVISS信号を利用して、イントロサーチと呼ばれる早送り再生を行うことができる。イントロサーチとは、早送り中にVISS信号を見つけると、ある時間だけ再生状態にし、その後再び早送りするという動作をテープの終わりまで繰り返すものである。
【0005】
さらに、「好みの画像を選択してVISS信号を付加する」というユーザの手間を省くために、代表的な画像を自動抽出する方法も提案されている。例えば、特開平5ー147337では、1カット(録画開始操作をしてから録画終了操作をするまでの間に連続して撮影された動画像)の中から、代表的な画像を自動的に抽出する静止画像自動抽出方法が開示されている。ここで、代表的な画像は、撮影者の意図、撮影された画像の状態、被写体の状態をもとに評価して選び出され、動画像の早見や検索などに利用される。
【0006】
【発明が解決しようとする課題】
しかしながら、上記の静止画像自動抽出方法も、録画開始から終了までの動画像ごとに代表画像を抽出するので、基本的に代表画像の数は、動画像全体に含まれる録画開始/終了の区切りの数に依存する。
【0007】
例えば、映画のようにカットの多い動画像の場合には、代表画像が多くなる。この代表画像は少数の画像の中から選ばれるので、各カットの画像内容をよく表すような画像が選ばれ易い。一方、ビデオカメラで長時間、撮影しつづけた映像の場合には、どんなに画像内容が変化しても、録画開始/終了の区切りがないので、ほとんど代表画像を抽出できない。従って、代表画像だけ見ても、動画像全体の内容がわからない場合もある。
【0008】
ここで具体例として、撮影開始から終了までに、2種類の被写体を撮影するような場合を考えてみる。図2の画像A〜画像Pは、長時間撮影した動画像から、一部分をぬきだしたものである。撮影者はまず、「黄色の車」を撮影して(画像A,B)いったん撮影を止め、撮影開始後、「赤い服の人物」を撮影し(画像C〜画像F)、そのままカメラをパンニングして(画像G〜画像I)、「茶色の屋根の小屋」を撮影(画像J〜画像N)、ここで撮影を中止し、再開後は「高層ビル」を撮影している(画像O、P)。録画開始/終了の区切りは、画像Bと画像Cの間、画像Nと画像Oの間であり、画像C〜Nが一まとまりの画像とみなされる。しかし、画像内容から考えると画像C〜Nの中で、「赤い服の人物」の部分と「茶色の屋根の小屋」の部分は別の場面であり、それぞれで代表画像を選んだ方が良い。
【0009】
このように、撮影や編集操作による区切りで動画像をまとめても、まとまりによって画像内容の変化する度合が異なるため、内容を表現するのに必要な代表画像の数が変化し、従来方法では対応できないことがわかる。従って、画像内容に応じた単位で動画像をまとめて取り扱うことが必要になる。
【0010】
本発明はかかる点に鑑み、画像内容に応じて動画像をまとめる手法、およびまとめられた動画像を基に代表的画像を自動抽出し、記録表示する装置を提供することを目的とする。
【0011】
【課題を解決するための手段】
上記課題を解決するために、本発明のショット検出方法は、撮影者が撮影開始操作をしてから撮影終了操作をするまでの間に撮影された動画像の中で、撮影者が特定の被写体を撮影しつづけた動画像、及び撮影者が特定の画角や撮影条件や撮影方法で撮影し続けた動画像をショットとし、撮像装置のズームや撮影開始操作などのカメラ操作情報と撮影中のカメラのセンサーからの信号を処理して得られた撮影状態情報の少なくとも一つを入力情報とし、動画像が一方のショットから別のショットへ移行する際の前記入力情報の変化の規則を予め選出しておき、前記入力情報に関して前記変化の規則と合っている度合をショット変化度合として検出し、少なくとも1つの前記ショット変化度合をもとにして、動画像中のショットを検出するものである。
【0012】
また、本発明の代表画像記録・表示装置は、撮影者が撮影開始操作をしてから撮影終了操作をするまでの間に撮影された動画像の中で、撮影者が特定の被写体を撮影しつづけた動画像、及び撮影者が特定の画角や撮影条件や撮影方法で撮影し続けた動画像をショットとし、動画像を撮影する際に撮影者がカメラを操作したカメラ操作情報を取り込むカメラ操作情報獲得手段と、カメラのセンサーからの信号を処理して得られた撮影中の撮影状態情報を取り込む撮影状態情報獲得手段のうち少なくとも1つを備えて前記カメラ操作情報または前記撮影状態情報を出力する画像情報出力部と、前記画像情報出力部からの出力に関して、予め設定された変化の規則に合っている度合をショット変化度合として検出するショット変化度合検出部と、前記ショット変化度合検出部からの出力の少なくとも1つを基にして、動画像中のショットを検出するショット検出部と、前記ショット検出部で求められたショットに属する画像から代表的な画像を抽出する代表画像抽出部と、動画像の映像信号を取り込む映像情報獲得部と、前記代表画像抽出部で抽出した代表画像の映像信号を前記映像情報獲得部から入力し、画像記録媒体に記録、または画像表示装置に表示する画像記録・表示部を備えたものである。
【0013】
【作用】
以上のような構成において、カメラ操作情報や撮影状態情報を入力情報とし、動画像の内容が変化する際の入力情報の変化規則を予め選出しておき、変化規則と入力情報を比較することで、撮影者が特定の被写体を撮影しつづけた動画像や特定の画角、撮影条件で撮影しつづけた動画像をショットとして検出できる。これによって、録画開始から終了までの動画像の単位にとらわれず、動画像を画像内容に応じた任意個数のかたまりにまとめることができる。
【0014】
また、上記方法で検出されたショットを基に代表的画像を選ぶことにより、動画像の内容の変化度合に応じて必要個数の代表画像が得られるようになり、さらに、抽出した代表画像の情報を記録・表示することで、できるだけ少ない画像で動画像全体の内容をよく表せるようになる。
【0015】
【実施例】
(実施例1)
まず、本発明のショット検出方法の第1の実施例について説明する。ここで、「ショット」とは、1カットの画像を撮影している間に、パンニングやズーミングなどのカメラ操作を続けたり、特定の被写体を撮りつづけたりして、撮影者が1つの場面として意図的に連続撮影した動画像のかたまりとする。それに対して、「カット」は、カメラにおいて録画開始操作をしてから録画終了操作をするまでの間に連続して撮影された動画像のかたまりとする。
【0016】
例えば、図2の動画像に対して、カットの単位で区切ると、画像Bまでが「黄色い車」の写ったカット、画像C〜Nが「赤い服の人物」と「茶色い屋根の小屋」の両方の写ったカット、画像Oからは「高層ビル」の写ったカットが始まっている。一方、ショットについて考えると、画像C〜Nのカットの中に、
・「赤い服の人物」をアップショットで撮影した区間(画像E〜F付近)
・「茶色い屋根の小屋」をややロングショットで撮影した区間(画像M〜N付近)
の2つのショットが含まれることがわかる。
【0017】
まず、図1を基に本発明のショット検出方法の概要を説明する。図に示すように、本発明のショット検出方法は、画像情報出力部1、ショット変化度合検出部2、ショット検出部3の3つの部分で実現されている。
【0018】
画像情報出力部1は、映像信号を処理した情報、撮影時にユーザが行ったカメラ操作の情報、センサの出力情報を出力する。この3種類の情報に関しては、以後、それぞれの種類の情報を総称して、画像処理情報、カメラ操作情報、撮影状態情報と呼ぶことにする。3情報の詳しい説明は後述する。図1では、画像処理情報20の例として、高周波成分(の大きさ)21と色ヒストグラム22を、カメラ操作情報30の例として、録画開始/終了31とズーム(倍率)32を、撮影状態情報40の例として、パンニング速度41を挙げている。
【0019】
ショット変化度合検出部2は、画像情報出力部1からの情報を入力として、画像内容の変化する度合を検出する。ショット検出部3では、ショット変化度合検出部2からの結果をもとに、動画像中でショットと判定される区間を検出する。
【0020】
続いて、画像情報出力部1、ショット変化度合検出部2、ショット検出部3の各部の動作について詳細に説明する。
【0021】
始めに、図3を用いて画像情報出力部1について説明する。図において、4はカメラ、5は映像信号、20は画像処理情報、21は高周波成分の大きさ、22は色ヒストグラム、23は動きベクトル、24は高周波成分検出部、25は色ヒストグラム検出部、26は動きベクトル検出部、30はカメラ操作情報、31は録画開始/終了のボタン押下信号、32はズーム倍率、33はオート/マニュアルのモードのボタン設定、40は撮影状態情報、41は角速度センサの出力(パンニング時の速度)、42はズーム倍率を換算するためのレンズ焦点距離、43は絞り開度センサの出力、44はフォーカス距離である。図3に示すように、画像情報出力部1は、カメラと多数の出力端子からなっており、ビデオカメラで撮影中、画像処理情報20、カメラ操作情報30、撮影状態情報40を順次出力する。
【0022】
ここで画像処理情報は、撮像素子で撮像した映像信号をもとにして自動的もしくは人間が関与して抽出処理した情報の総称である。図3では例として、フォーカス制御を行うために求めた映像信号の高周波成分の大きさ21、画面内の色ヒストグラム22、画面各所の動きベクトル23を示している。この情報はすべて、カメラ4から映像信号5を入力し、それぞれ高周波成分検出部24、色ヒストグラム検出部25、動きベクトル検出部26において求められる。その他、フレーム間における輝度信号や色信号の差異を求めたフレーム間差分値、あるいは映像信号から被写体領域の位置や大きさの情報なども画像処理情報に含まれる。
【0023】
また、カメラ操作情報は、ユーザがビデオカメラで撮影する際に行った、ボタン操作をもとにした情報の総称である。図3では、例として、撮影の開始/終了のボタン操作により撮影の開始点/終了点を表す情報31、撮影中のズーム操作から換算されたズーム倍率を表す情報32、Auto/Manualの設定の情報33を示している。
【0024】
また撮影状態情報は、カメラの撮影中の状態をセンサーなどで検出した情報の総称である。図3では、例として、角速度センサーによって検出したパンニング速度の情報41、撮影時のズーム倍率を示すレンズ焦点距離42、絞り開度センサによって検出した絞り開度情報43、フォーカス距離44を示している。
【0025】
次に、ショット変化度合検出部2とショット検出部3について説明する。ただしここでは、例として、高周波成分(の大きさ)21、色ヒストグラム22、録画開始/終了のボタン押下信号31、ズーム倍率32、パンニング速度41の5つの情報が入力する場合に限定して説明する。
【0026】
まず、図2の動画像を例にとり、ショット変化度合検出部2、ショット検出部3において、ショットを検出する原理を説明する。図5は、図2の各画像に対して、録画開始/終了、ズーム倍率、画面内の高周波成分の大きさ、色ヒストグラム、パンニングの速度、の5つの情報をプロットしたものである。ただし、色ヒストグラムは多数の色の中から茶色、赤色、黄緑に対する頻度だけを抽出して表示した。また、パンニング速度は、水平方向の速度に限定している。図からわかるように、ショットのの区間(E〜F、M〜N)は、全ての情報が一定値で安定しているのに対し、1つのショットから別のショットへ移る区間(C〜E、F〜M)では少なくとも1つの情報が変化していることがわかる。このことから、入力情報の変化度合を調べれば、現在処理中の画像が、ショットの区間中なのか、それとも別のショットに移行中なのか、わかるはずである。ここで、「処理中の画像が別のショットに移行中である」という信頼度をショット変化度合と呼ぶことにし、以下、入力される情報の変化度合を、各情報のショット変化度合として検出し、各情報に関するショット変化度合からショットの区間を特定する方法を説明する。
【0027】
図4は、ショット変化度合検出部2、ショット検出部3の具体的な構成図である。図において、51は微分フィルタ、52は絶対値処理部、53はローパスフィルタ、54はゲイン調整部、56は最大値検出部、57は状態判定部、58はショット区間出力部、59はカウンタである。
【0028】
まず、ショット変化度合検出部2では、入力される情報それぞれのショット変化度合を検出する。ここで、ショット変化度合は[0,max](max:定数)の範囲の値に正規化されており、値が大きいほど、処理中の画像が別のショットに移行中の可能性が高いことを示すものとする。
【0029】
ショット変化度合の検出方法は、入力情報によって多少異なっている。高周波成分(の大きさ)21、ズーム倍率32、パンニング速度41の情報に関しては、まず微分フィルタ51を通し、絶対値処理部52で絶対値を求めることにより、各情報の時間的変動の大きさを求める。さらに、細かいノイズの影響を少なくし、大域的な変化だけを検出するため、ローパスフィルタ53を通す。最後にゲイン調整部54において、各情報固有のゲインをかけて正規化し、出力がショット変化度合の範囲内の値をとるように調整する。また色ヒストグラムのように、多次元のパラメータに関しては、隣接フレーム間での相関計算を行う。色ヒストグラム22の場合、ヒストグラム相関検出部55において、ヒストグラム差分などの相関計算を行う。さらに他の情報と同様に、ローパスフィルタ53を通し、ゲイン調整部54において正規化する。ただし、ここでの正規化は、相関が低いほど大きい値を出力するように調整する。また、録画開始/終了のボタン押下信号31に関しては、ゲイン調整部54において、カットの切れ目のとき max 、切れ目でないとき0の値を出力するよう、調整する。以上のようにして、ショット変化度合検出部2では、入力情報毎にショット変化度合を検出する。
【0030】
一方、ショット検出部3では、各情報に関するショット変化度合をもとに、ショットの区間を検出する。まず、最大値検出部56では、ショット変化度合検出部2から同時刻に出力されるすべてのショット変化度合を比較し、その最大値Mを求める。状態判定部57では、求めた最大値Mを所定のしきい値THと比較し、比較結果をもとに、現在処理中の画像の状態を以下のように判定する。
【0031】
M > THのとき、現在処理中の画像はショット外である
(別のショットへ移行中である) …(A)
M ≦ THのとき、現在処理中の画像はショット区間内にある …(B)
ショット区間出力部58では、状態判定部57の出力(A or B)に応じて以下のような処理を行う。
・状態判定部57の出力がAのとき、
カウンタ59の内容Cを読み込む。
【0032】
C>0の場合、Cを出力し、その後カウンタ59の内容を0にリセットする。
・状態判定部57の出力がBのとき、
カウンタ59の内容をインクリメントする。
【0033】
ただし、初期状態で、カウンタは0に設定されているとする。ショット終了時点で出力される値Cは、ショット継続中に処理した回数を表している。従って、ショット検出部3から値Cが出力された時、その出力を基に、直前に終了したショットの区間を特定することができる。
【0034】
ここで、以上説明した構成が、実際の画像でどのように動作するか調べるため、図2の動画像を例にとって情報の流れを追ってみる。図6は、ショット変化度合検出部2とショット検出部3の内部のブロックの出力の時間変化を示した図である。図の上部のグラフはショット変化度合検出部2に対応しており、その中で実線は微分フィルタ51またはヒストグラム相関検出部55の出力を表し、破線はショット変化度合検出部2の最終的な出力(ショット変化度合)を表している。また、図6の下部のショット検出部3に対応するグラフでは、ショット変化度合検出部2の出力(破線)とその最大値(太い実線)、しきい値を重ねて示した。また、取り扱う入力情報は、録画開始/終了31、ズーム倍率32、画面内の高周波成分の大きさ21、色ヒストグラム22、パンニングの速度41、の5つに限定し、さらに色ヒストグラムは3色のみ、パンニングの速度は水平方向に限定して表示してある。図6において、各入力情報に対するショット変化度合は、ショット以外の区間(C〜E、F〜M)で大きな値を出力している。また、ショット変化度合の最大値は、ショット以外の区間でしきい値を越えていることがわかる。従って、FとNの画像を処理する際、ショット検出部3からそれぞれE〜F、M〜Nの区間中の処理回数(L1,L2)が出力され、L1、L2により、E〜F、M〜Nがショットの区間であると特定できる。
【0035】
以上のように、カメラ操作情報または画像処理情報または撮影状態情報を入力とし、各情報に関するショット変化度合を検出することにより、ショットの区間が特定でき、動画像を画像内容に応じた単位でまとめることができる。
【0036】
なお、上記実施例では、画像情報出力部1の具体例としては、図3を用いて、撮影中、カメラから直接情報を出力する方法を説明した。しかし、別の方法として、撮影中はカメラからの情報を記録媒体に記録し、ショット検出を行う際に、記録媒体から情報を読み出しても同様の処理が行える。この方法を図7を用いて説明する。図において、4はカメラ、5は映像信号、6は記録媒体、7は符号化処理部、8は復号化処理部、9は画像処理部、20は画像処理情報、30はカメラ操作情報、40は撮影状態情報であり、破線枠内が画像情報出力部1に対応している。
【0037】
以下に各部の動作を説明する。記録媒体6は、録画時と再生時で切り替わるスイッチを持っている。ここで、「録画時」とは、カメラ4で撮影しながら、各種情報を記録媒体に記録する期間であり、「再生時」とは、記録媒体に記録された各種情報を出力する期間である。まず、ユーザが撮影する際、記録媒体6のスイッチは「録画時」のモードに設定されている。撮影中にカメラ4から出力された映像信号5、画像処理情報、カメラ操作情報、撮影状態情報は、符号化処理部7において、符号化の処理やフォーマット合わせの処理が施され、記録媒体6に蓄積される。その後、ショットを検出する際に、記録媒体6のスイッチは「再生時」のモードに設定される。記録媒体6に蓄えられた情報は、復号化処理部8でそれぞれの情報として読み出され、画像情報出力部1の出力として、ショット変化度合検出部2に送られる。ここで、復号化処理部8をから出力された映像信号5を画像処理部9で加工し、その結果を他の画像処理情報と合わせて出力しても同様である。
【0038】
このように、各種情報をいったん記録媒体に蓄積しても、カメラから直接得るのと同様にして、各種情報を出力できる。
【0039】
以上の実施例では、画像処理情報、カメラ操作情報、撮影状態情報を、カメラから直接出力したり、いったん記録媒体に蓄積して後から読みだしたりする場合について説明したが、いずれにしても、必要なすべての情報は、もともとカメラから与えられていた。しかし、これら情報の一部、もしくは全部が与えられない場合でも、カメラあるいは記録媒体から出力される映像信号を処理することによって、欠如した情報に相当する情報を獲得し、獲得した情報をもとにショットを検出することができる。これについて、以下の第2の実施例のショット検出方法で詳細に説明する。
【0040】
(実施例2)
第2の実施例は、映像信号のみから画像処理情報、カメラ操作情報、撮影状態情報を獲得し、獲得した情報からショットを検出するものである。本実施例の全体構成は、第1の実施例で用いた図1と同じであるが、画像情報出力部1の具体的な構成が異なっている。以下、図8を用いて、本実施例の画像情報出力部1において映像信号から各種情報を検出・出力する方法を説明する。ただし、ここで説明するのは、画像処理情報に関して高周波成分と色ヒストグラム、カメラ操作情報に関しては録画開始/終了の情報とズーム倍率、撮影状態情報に関してはパンニング速度、の5つの情報に限定している。
【0041】
図8で、5は映像信号、26は高周波成分検出部、21は高周波成分(の大きさ)の情報、27は色ヒストグラム検出部、22は色ヒストグラムの情報、60はフレーム間差分値検出部、61はメモリ、62は変化量検出部、63はカットチェンジ検出部、31は録画開始/終了の情報、64はカメラワーク検出部、65は動きベクトル検出部、66はカメラワークパラメータ推定部、32はズーム倍率の情報、41はパンニング速度の情報である。以上の構成における各部の動作について以下に説明する。
【0042】
まず、画像処理情報に関しては、高周波成分検出部24、色ヒストグラム検出部25において、それぞれ高周波成分21、色ヒストグラム22の情報を検出する。ここで、高周波成分検出部24と色ヒストグラム検出部25は、図3の各部と同じであり、既に第1の実施例で述べたので、説明は省略する。
【0043】
次に、カメラ操作情報の内、録画開始/終了31の情報を検出する方法を説明する。録画開始/終了の情報の検出は、フレーム間差分値検出部60とカットチェンジ検出部63で行われ、さらにフレーム間差分値検出部60は、映像信号を1フレーム遅延させるためのメモリ61と、連続するフレーム間で映像信号の差分を求める変化量検出部62から構成されている。連続するフレーム間での差を求める信号は、輝度値やRGB値等を用い、変化量検出部62において画素単位で連続するフレーム間の映像信号の差分演算を行い、画素ごとの差分値の総和を求めてフレーム間差分値として出力する。カットチェンジ検出部63は、フレーム間差分値検出部60で求めたフレーム間差分値に対してしきい値処理をする。すなわち、所定のしきい値とフレーム間差分値との比較を行い、フレーム間差分値がしきい値より大きい場合は、2枚のフレーム間で画像内容が大きく変化していると考えて、その部分でカットチェンジがあったと判断する。ここで検出したカットチェンジは、撮影の開始や終了時点に対応するので、カットチェンジの有無の信号は、カメラのボタン押下信号として得られる録画開始/終了の情報に相当する。
【0044】
次に、カメラ操作情報の中のズーム倍率32の情報と、撮影状態情報のパンニング速度41の情報を検出する方法を説明する。この2つの情報は、カメラワーク検出部64において検出され、さらにカメラワーク検出部64は、動きベクトル検出部65とカメラワークパラメータ推定部66に分かれる。まず、動きベクトル検出部65は、画面内で複数の座標位置を設定し、隣接フレームとの画素値の比較により、各座標位置での動きベクトルを検出する。カメラワークパラメータ推定部66では、検出された動きベクトルを基に、カメラの水平、垂直方向の変化(パンニング、チルティング)や、カメラ画角の変化(ズーミング)、カメラの水平・垂直・前後の位置の変化(トラッキング、ブーミング、ドリーイング)等のカメラワークを推定する。ズーム倍率32とパンニング速度41は、カメラワークの1つとして推定されるので、カメラ操作情報や撮影状態情報に相当する情報が得られる。ここで、動きベクトル検出部65、カメラワークパラメータ推定部66の詳細な動作は、例えば特開平4ー317267で説明されているので、ここでの説明は省略する。
【0045】
以上のように、カメラから、カメラ操作情報や撮影状態情報が得られない場合でも、映像信号を処理することにより、相当する情報を推定することができる。本実施例では、γ補正値、色温度、逆光や過順光の状態などの情報については記載しなかったが、これらの情報も、映像信号を処理することによって獲得することが可能である。上記情報を獲得後、この情報をもとにショットを検出する構成と手法については、第1の実施例と同様であり、説明は省略する。
【0046】
(実施例3)
次に、本発明のショット検出方法の第3の実施例について説明する。本実施例は、図1のショット変化度合検出部2に関するものである。
【0047】
第1の実施例では、図4に示すように、微分フィルタやヒストグラム相関処理によって各情報の変動量を求め、ショット変化度合を検出した。これは、「撮影者が1つのショットを撮り終わって別のショットを撮り始めるまでの期間は、各情報が大きく変化する」、という性質を利用している。しかしながら、入力される情報それぞれについて調べると、情報が大きく変化する現象以外にも、ショットを検出する際に関連するような現象があることがわかる。
【0048】
例えば、ある被写体を撮影中に、急に別の被写体にレンズを向けると、フォーカスがずれ、ピンボケの状態が短時間続くことがあるが、この間、高周波成分は、小さくなっている。従って、「高周波成分が小さいとき、別のショットへの移行期間である」というルールが成り立つ。また、同じパンニングでも、ある被写体から別の被写体へ移るためのパンニングは、ショットの移行中と判定してほしいが、ゆっくり移動する被写体を追いかけてパンする場合には、パンニングの期間を1つのショットの区間中として認識したい。このように、同じパンニングでも、ショットの移行中の場合とそうでない場合があるので、第1の実施例のようにパンニング速度の変動量からパンニングの期間を検出できたとしても、ショットの区間を特定できないことがある。しかし、別のショットへ移行するためのパンニングは速くて短時間でおわるし、被写体をトラッキングする場合には、遅くてほぼ一定速度のパンニングが長時間継続するので、パンニング速度とパンニングの継続時間によって両者を区別することができる。
【0049】
このように、ショットが移行する際に各情報がどのような変動パターンを示すかを予め調べておき、この変動パターンに合っているかどうかでショット変化度合を検出することにより、ショットの検出性能を高めることができる。本実施例では、各情報の変動量以外に、各情報の大きさ、各情報が所定の状態を継続する時間、を基にショット変化度合を検出する方法を説明する。
【0050】
図9は、高周波成分21とパンニング速度41の2つの情報に関して、ショット変化度合の検出方法を示したものである。図において、微分フィルタ51、絶対値処理部52は、図4の各部と同じであり、67、69は推定部、68は継続時間検出部である。以下に上記構成におけるショット変化度合検出部2の動作を説明する。
【0051】
まず、高周波成分21に関する検出方法を説明する。第1の実施例と同様に、微分フィルタ51と絶対値処理部52によって、高周波成分の時間的変動の大きさを求める。推定部67では、高周波成分と絶対値処理部52からの出力を、予め設定した関数で写像し、ショット変化度合として出力する。ここで、写像の関数の具体例として、図10を用いて説明する。図10は、2入力(高周波成分、絶対値処理部52からの出力)、1出力(ショット変化度合)の写像関係を示している。図からわかるように、出力の値域は[0,max]であり、高周波成分の変動が大きい場合、または高周波成分が小さい場合に大きい値を出力するよう、設定されている。このような写像関数を予め設定することで、2つの入力に対して一意の出力がショット変化度合として求められる。
【0052】
次にパンニング速度41に関する検出方法を説明する。この場合も同様にして、微分フィルタ51と絶対値処理部52によって、パンニング速度の時間的変動の大きさを求める。さらに、継続時間検出部68では、微分フィルタ51からの結果を基に、パンニングの継続時間を求める。ここでパンニングの継続時間とは、撮影者がほぼ一定の速度でパンニングしつづけた時間とする。パンニング継続時間の具体的な検出方法としては、まず、パンニング速度の時間的変動量Dが振動許容範囲をはずれた時点から、初めてDが許容範囲内に入る時点をパンニング開始時点として検出し、パンニング開始時点から初めてDが振動許容範囲をはずれるまでの時間をパンニング継続時間として求める。ただし、振動許容範囲はあらかじめ[ーWIDE,WIDE](WIDE:正の所定数)と設定されているものとする。
【0053】
推定部69は、パンニング速度と、絶対値処理部52の出力、パンニング継続時間の3つの値を、予め設定した関数で写像し、ショット変化度合として出力する。ここでの写像の関数は、図10の2入力1出力の関係を3入力1出力に拡張したものであり、「パンニング速度が速いとき」または「パンニング速度の変動が大きいとき」または「パンニング継続時間が短いとき」に、大きい値が出力されるよう設定されている。
【0054】
以上のように、ショットが移行する際に各情報がどのような変動パターンを示すかを予め調べておき、この変動パターンに合っているかどうかでショット変化度合を検出することにより、ショットの検出性能を高めることができる。
【0055】
なお、上記実施例では、推定部67、69においてショット変化度合を検出する方法として、2入力1出力と3入力1出力の予め設定された写像関数を用いる方法を説明したが、入出力の変換に、例えばファジィ推論や多重線形関数、ニューラルネットなどを用いてもよい。
【0056】
また、上記実施例では、入力される情報として高周波成分とパンニング速度の2種類に限定して説明したが、他の情報に対しても同様である。
【0057】
また、上記実施例では、各情報の変動量、各情報の大きさ、各情報の所定状態が継続する時間を基に、ショット変化度合の検出を行ったが、入力する情報に応じて、他のパラメータを用いても同様である。
【0058】
(実施例4)
次に本発明の代表画像記録・表示装置における実施例を説明する。
【0059】
本発明の代表画像記録・表示装置は、前述のショット検出方法を利用して、動画像中の代表画像を抽出し、記録・表示するものである。ここで、代表画像とは、ブラウジングや検索などで、動画像を代表する画像として利用するために選ばれる画像であり、撮影者の意図、撮影された画像の状態、被写体の状態などの画像内容が良く表せるように選ばれる。
【0060】
図11に本発明の代表画像記録・表示装置の構成図を示す。図において、画像情報出力部1、ショット変化度合検出部2、ショット検出部3、画像処理情報20、カメラ操作情報30、撮影状態情報40は、既に本発明のショット検出方法の実施例で説明したように、図1の構成図と同じである。また、10は代表画像抽出部、70はショット内代表情報検出部、71はメモリ、72は代表情報比較部、11は映像信号出力部、12は画像記録・表示部である。
【0061】
以下、各部の動作を説明する。画像情報出力部1は、画像処理情報20、カメラ操作情報30、撮影状態情報40を出力し、ショット変化度合検出部2において各情報に関するショット変化度合を検出する。ショット検出部3では、複数のショット変化度合を基にして、撮影者が1つのショットとして撮影した画像の区間を特定する。
【0062】
一方、代表画像抽出部10は、ショット内代表情報検出部70、メモリ71、代表情報比較部72から構成されており、ショット検出部3で求めたショットの区間を基に、動画像の代表画像を求める。以下、代表画像抽出部10の動作を説明する。
【0063】
まず、ショット内代表情報検出部70は、ショット検出部3で検出された各ショットに対して、同一ショットに属する画像の画像処理情報20、カメラ操作情報30、撮影状態情報40を入力し、各情報の平均値を求める。検出された各情報の平均値は「ショットを代表する情報」として出力される。ここで、ショット検出部3で第i番目に検出されたショットに注目し、ショットを代表する情報を数式で表すと、以下のようになる。
【0064】
【数1】
【0065】
ただし、INは、画像処理情報20、カメラ操作情報30、撮影状態情報40の中で入力情報として利用される情報の数とする。例えば、入力情報を、高周波成分、色ヒストグラム、録画開始/終了、ズーム倍率、パンニング速度とする場合、IN=5であり、m(1,i)は高周波成分、m(2,i)は色ヒストグラム、m(3,i)は録画開始/終了、m(4,i)はズーム倍率、m(5,i)はパンニング速度の平均値を示している。従って、k番目(0≦k≦IN)の入力情報に関する代表情報m(k,i)は、
【0066】
【数2】
【0067】
と表される。
次に、メモリ71は、ショット内代表情報検出部70において検出されたショット毎の代表情報 M(i)を蓄える。代表情報比較部72では、ショット間で代表情報 M(i)の比較を行い、検出された全てのショットの中から「代表画像を出すべきショット」を選び、選ばれたショットから代表画像を抽出する。代表情報比較部72の処理手順は以下の通りである。
(1)最初に検出されたショットを「代表画像を出すべきショット」に選び、ショットを代表する情報 M(1)をメモリ71内の変数 Mpreに代入して、Mpre=M(1)とする。
(2)2番目のショットが検出されたとき、ショットを代表する情報 M(2)をMpre と比較し、2つの代表情報間の距離を検出する。ここで代表情報間の距離とは、入力情報毎に1つの次元の軸を割り当てて(IN)次元空間をつくり、この空間に2つの代表情報をプロットしたときの距離である。例えば、a番目のショットとb番目のショットの代表情報の距離Dis(a,b)は、
【0068】
【数3】
【0069】
で表される。
(3)Dis(1,2)を所定のしきい値Eと比較し、以下の処理を行う。
・Dis(1,2)>Eのとき、
2番目のショットを「代表画像を出すべきショット」として選択し、ショットに属する画像の中から、中央に位置する画像F(2,N2/2)を代表画像として抽出する。また、メモリ71内の変数Mpreに、代表情報M(2)を代入する。
・Dis(1,2)≦Eのとき、
2番目のショットは1番目のショットと画像内容が似ている、と判断される。(4)以降で検出されるショットに対しても、(2)、(3)と同様の処理を行う。すなわち、
(4−1)i番目のショットが検出されたとき、M(i)とMpreを比較し、2つの代表情報間の距離Dis(i,pre)を検出する。
(4−2)Dis(i,pre)をしきい値Eと比較し、
・Dis(i,pre)>Eのとき、
i番目のショットを「代表画像を出すべきショット」として選択し、ショットに属する画像の中から、中央に位置する画像F(i,Ni/2)を代表画像として抽出する。メモリ71内の変数Mpreに代表情報M(i)を代入する。
・Dis(i,pre)≦Eのとき、
i番目のショットは Mpreの情報を持つショットと画像内容が似ている、と判断する。
(4ー3)4−1に戻り、(i+1)番目のショットに対して同様の処理を行う。
【0070】
4−1,4−2,4−3の処理は、最後に検出されたショットまで継続され、動画像の代表画像が抽出される。
【0071】
一方、代表画像記録・表示部12は、映像信号やその他情報を表示するディスプレイ、または各種情報を記録する記録媒体で構成されている。代表情報比較部72から代表画像に関する情報を入力し、映像信号出力部11からは代表画像に対応する映像信号を入力し、代表画像の表示または記録を行う。
【0072】
以上のようにして、ショット間で代表情報を比較し、比較結果を基に選んだショットから、代表画像を抽出することにより、できるだけ少ない代表画像ですべての画像内容を表現することが可能になる。従って、この代表画像を表示、記録して、動画像のブラウジング、検索などに利用することにより、画像内容が把握しやすくなる。
【0073】
【発明の効果】
以上説明したように、本発明のショット検出方法は、カメラ操作情報や撮影状態情報を入力情報として画像内容の変化する度合を検出することで、撮影者が特定の被写体を撮影しつづけた動画像や特定の画角、撮影条件で撮影しつづけた動画像をショットとして検出できる。
【0074】
本発明の方法によれば、画像内容が変化する毎に、動画像が別のショットとして分類されるので、「話の展開が速い」ときは多くのショットが、「ずっと同じような画面が続く」ときには少ないショットが検出され、動画像によって画像内容の変化の仕方が異なる場合にも、画像内容に応じた動画像の単位化が行える。
【0075】
また本発明の代表画像表示・記録装置は、上記方法で求めたショットを用いて、代表画像を抽出することにより、少ない代表画像で多くの画像内容を網羅することが可能になり、抽出した代表画像の情報を記録・表示することで、動画像の効率的な検索、早見、編集が行えるようになる。
【図面の簡単な説明】
【図1】本発明のショット検出方法の全体構成を示す図
【図2】動画像のショットとカットの関係を説明するための図
【図3】本発明のショット検出方法の第1の実施例における画像情報出力部の構成を示す図
【図4】本発明のショット検出方法の第1の実施例におけるショット変化度合検出部およびショット検出部の具体的構成を示す図
【図5】本発明のショット検出方法の画像情報出力部の出力の時間変化を示す図
【図6】本発明のショット検出方法の第1の実施例のショット変化度合検出部およびショット検出部に関して、内部ブロックの出力の時間変化を示す図
【図7】本発明のショット検出方法の第1の実施例の画像情報出力部に関して、図3とは別の構成を示す図
【図8】本発明のショット検出方法の第2の実施例の画像情報出力部の構成を示す図
【図9】本発明のショット検出方法の第3の実施例のショット変化度合検出部の構成を示す図
【図10】本発明のショット検出方法の第3の実施例の推定部における2入力1出力の写像関数を示す図
【図11】本発明の代表画像記録・表示装置の実施例の構成を示す図
【符号の説明】
1 画像情報出力部
2 ショット変化度合検出部
3 ショット検出部
4 カメラ
5 映像信号
6 記録媒体
7 符号化処理部
8 復号化処理部
9 画像処理部
10 代表画像抽出部
11 映像信号出力部
12 画像記録表示部
20 画像処理情報
21 高周波成分
22 色ヒストグラム
23 動きベクトル
24 高周波成分検出部
25 色ヒストグラム検出部
26 動きベクトル検出部
30 カメラ操作情報
31 録画開始/終了
32 ズーム倍率
33 オート/マニュアルのモード
40 撮影状態情報
41 パンニング速度
42 レンズ焦点距離
43 絞り開度センサ出力
44 フォーカス距離
51 微分フィルタ
52 絶対値処理部
53 ローパスフィルタ
54 ゲイン調整部
56 最大値検出部
57 状態判定部
58 ショット区間出力部
59 カウンタ
60 フレーム間差分値検出部
61 メモリ
62 変化量検出部
63 カットチェンジ検出部
64 カメラワーク検出部
65 動きベクトル検出部
66 カメラワークパラメータ推定部
67、69 推定部
68 継続時間検出部
70 ショット内代表情報検出部
71 メモリ
72 代表情報比較部[0001]
[Industrial applications]
The present invention is a method of summarizing moving images in units according to image contents, for quick viewing, searching, editing, etc. of moving images, and automatically extracting a representative image based on the summarized moving images, The present invention relates to a device for recording and displaying images.
[0002]
[Prior art]
Conventionally, many techniques have been proposed for detecting a break in a moving image and for using a break in a moving image for editing work.
[0003]
As a method of automatically detecting a break of a moving image from a video signal, for example, there is a scene change detection method disclosed in Japanese Patent Application Laid-Open No. 3-214364. This is to determine whether a scene has changed by comparing histograms between adjacent frames. The scene change here corresponds to the start / end point of photographing / recording or the joint when different scenes are linked by editing work. In VISS (VHS Index Search System), a VISS signal is automatically recorded on a video tape at the start of recording, and is used as a tag for high-speed cueing.
[0004]
On the other hand, there is also a need for a flexible technique of tagging not only a starting point of recording but also a point of a desired image. For example, in the above-mentioned VISS, a VISS signal can be recorded even for a scene that the user wants to see, so that fast forward reproduction called intro search can be performed using the VISS signal recorded on the video tape. The intro search repeats the operation of, when a VISS signal is found during fast-forwarding, setting a reproduction state for a certain time and then fast-forwarding again until the end of the tape.
[0005]
In addition, a method of automatically extracting a representative image has been proposed in order to save the user the trouble of “selecting a favorite image and adding a VISS signal”. For example, in Japanese Patent Application Laid-Open No. 5-147337, a representative image is automatically extracted from one cut (moving image continuously taken from the start of recording to the end of recording). A still image automatic extraction method is disclosed. Here, a representative image is selected based on evaluation based on the intention of the photographer, the state of the photographed image, and the state of the subject, and is used for quick viewing and retrieval of a moving image.
[0006]
[Problems to be solved by the invention]
However, the above-described still image automatic extraction method also extracts a representative image for each moving image from the start to the end of the recording, so that the number of representative images basically depends on the boundary between the recording start / end included in the entire moving image. Depends on the number.
[0007]
For example, in the case of a moving image with many cuts such as a movie, the number of representative images increases. Since this representative image is selected from a small number of images, it is easy to select an image that well represents the image content of each cut. On the other hand, in the case of a video that has been shot for a long time with a video camera, no matter how the image content changes, there is no break between recording start / end, so that a representative image can hardly be extracted. Therefore, the contents of the entire moving image may not be known even when only the representative image is viewed.
[0008]
Here, as a specific example, consider a case where two types of subjects are photographed from the start to the end of photographing. The images A to P in FIG. 2 are obtained by extracting a part from a moving image captured for a long time. First, the photographer shoots the “yellow car” (images A and B), stops shooting once, starts shooting, then shoots “the person in red clothes” (images C to F), and pans the camera as it is. (Image G to Image I), and photographing the "brown roof hut" (Image J to Image N), stopping the photographing here, and photographing the "high-rise building" after resuming (Image O, P). The recording start / end is defined between the image B and the image C and between the image N and the image O, and the images C to N are regarded as a group of images. However, considering the image content, in the images C to N, the portion of “the person in red clothes” and the portion of the “hut with a brown roof” are different scenes, and it is better to select the representative image in each case. .
[0009]
As described above, even if moving images are grouped by a break due to shooting or editing operations, the degree of change in image contents varies depending on the unity, so the number of representative images required to express the contents changes, and conventional methods It turns out that you can't. Therefore, it is necessary to handle moving images collectively in units corresponding to image contents.
[0010]
In view of the above, it is an object of the present invention to provide a technique for combining moving images according to image contents, and an apparatus for automatically extracting a representative image based on the combined moving images and recording and displaying the representative image.
[0011]
[Means for Solving the Problems]
In order to solve the above-described problem, a shot detection method according to the present invention provides a method in which, in a moving image taken from a time when a photographer performs a shooting start operation to a time when a photographing end operation is performed, the photographer is provided with a specific subject. A moving image that has been shot continuously, and a moving image that has been continuously shot by the photographer at a specific angle of view, shooting conditions, and shooting method are used as shots.CameraAt least one of shooting state information obtained by processing a signal from a sensor is used as input information, and the input information when a moving image transitions from one shot to another shotofChange rules are selected in advance, and the input informationToIn this case, the degree of change is detected as a shot change degree, and a shot in a moving image is detected based on at least one of the shot change degrees.
[0012]
In addition, the representative image recording / display device of the present invention includes:Of the moving images taken during the period from when the photographer performs the shooting start operation to when the photographing end operation is performed, a moving image in which the photographer has continued to photograph a specific subject, and the photographer has a specific angle of view. A camera operation information acquisition unit that captures the camera operation information of the camera operated by the photographer when shooting a moving image, and a signal from the camera sensor. An image information output unit for outputting the camera operation information or the shooting state information, the image information output unit including at least one of shooting state information obtaining means for capturing shooting state information during shooting obtained by processing; and the image information output unit With respect to the output from the camera, a shot change degree detection unit that detects a degree of change that conforms to a preset change rule as a shot change degree, and a small amount of output from the shot change degree detection unit. Both by one based on the shot detection unit for detecting a shot in a moving image,A representative image extracting unit that extracts a representative image from the images belonging to the shot determined by the shot detecting unit, a video information acquiring unit that captures a video signal of a moving image, and a representative image extracting unit that extracts the representative image extracted by the representative image extracting unit. An image recording / display unit for inputting a video signal from the image information acquiring unit, recording the image signal on an image recording medium, or displaying the image signal on an image display device.Things.
[0013]
[Action]
In the above configuration, the camera operation informationAndUsing shooting status information as input information, input information when the content of the moving image changesofBy selecting a change rule in advance and comparing the change rule with the input information, it is possible to shoot a moving image where the photographer has continued to shoot a specific subject or a moving image continuously shot with a specific angle of view and shooting conditions. Can be detected as This allows the moving images to be grouped into an arbitrary number of blocks according to the image content, regardless of the unit of the moving image from the start to the end of recording.
[0014]
In addition, by selecting a representative image based on the shots detected by the above method, a required number of representative images can be obtained according to the degree of change in the content of the moving image. Is recorded and displayed, the contents of the entire moving image can be well represented with as few images as possible.
[0015]
【Example】
(Example 1)
First, a first embodiment of the shot detection method of the present invention will be described. Here, the “shot” means that while photographing a one-cut image, the photographer intends to continue a camera operation such as panning and zooming, or to continue taking a specific subject, as one scene. It is a group of moving images that have been continuously shot. On the other hand, “cut” is a group of moving images continuously shot from the start of recording to the end of recording in the camera.
[0016]
For example, when the moving image of FIG. 2 is divided in units of cut, the image B is a cut including a “yellow car”, and the images C to N are “red person in a red clothes” and “a hut with a brown roof”. From both of the cuts, image O, a cut of a “high-rise building” has begun. On the other hand, considering shots, in the cuts of images C to N,
・ Section where “Person in red clothes” was shot by up-shot (near images E to F)
・ Section where the “roof with brown roof” was shot with a slightly longer shot (near images M to N)
It can be seen that the two shots are included.
[0017]
First, an outline of the shot detection method of the present invention will be described with reference to FIG. As shown in the figure, the shot detection method of the present invention is realized by three parts: an image
[0018]
The image
[0019]
The shot change
[0020]
Subsequently, the operations of the image
[0021]
First, the image
[0022]
Here, the image processing information is a general term for information that is extracted automatically or with human involvement based on a video signal captured by an image sensor. FIG. 3 shows, as an example, the
[0023]
Further, the camera operation information is a general term for information based on button operations performed by a user when shooting with a video camera. In FIG. 3, as an example,
[0024]
The shooting state information is a general term for information obtained by detecting a shooting state of the camera with a sensor or the like. In FIG. 3, as an example,
[0025]
Next, the shot change
[0026]
First, taking the moving image of FIG. 2 as an example, the principle of detecting a shot in the shot change
[0027]
FIG. 4 is a specific configuration diagram of the shot change
[0028]
First, the shot change
[0029]
The method of detecting the degree of shot change is slightly different depending on the input information. Regarding the information of the (high-frequency component) 21, the
[0030]
On the other hand, the
[0031]
When M> TH, the image currently being processed is outside the shot
(Moving to another shot) (A)
When M ≦ TH, the image currently being processed is within the shot section ... (B)
The shot
When the output of the
The contents C of the
[0032]
If C> 0, C is output, and then the content of the
When the output of the
The contents of the
[0033]
However, it is assumed that the counter is set to 0 in the initial state. The value C output at the end of the shot indicates the number of times processing has been performed during the continuation of the shot. Therefore, when the value C is output from the
[0034]
Here, in order to examine how the above-described configuration operates on an actual image, the flow of information will be described using the moving image in FIG. 2 as an example. FIG. 6 is a diagram showing a temporal change in the output of the blocks inside the shot change
[0035]
As described above, by inputting the camera operation information, the image processing information, or the shooting state information and detecting the degree of change in the shot for each piece of information, the section of the shot can be specified, and the moving images are grouped in units corresponding to the image contents. be able to.
[0036]
In the above embodiment, as a specific example of the image
[0037]
The operation of each unit will be described below. The
[0038]
As described above, even if various information is once stored in the recording medium, the various information can be output in a manner similar to that obtained directly from the camera.
[0039]
In the above embodiment, the case where the image processing information, the camera operation information, and the photographing state information are directly output from the camera, or once stored in the recording medium and read later, have been described. All the necessary information was originally given by the camera. However, even when some or all of this information is not provided, by processing a video signal output from a camera or a recording medium, information corresponding to the missing information is obtained, and based on the obtained information, A shot can be detected. This will be described in detail in the following shot detection method of the second embodiment.
[0040]
(Example 2)
In the second embodiment, image processing information, camera operation information, and shooting state information are obtained only from a video signal, and a shot is detected from the obtained information. Although the overall configuration of the present embodiment is the same as that of FIG. 1 used in the first embodiment, the specific configuration of the image
[0041]
In FIG. 8, 5 is a video signal, 26 is a high-frequency component detector, 21 is information on (the size of) a high-frequency component, 27 is a color histogram detector, 22 is color histogram information, and 60 is an inter-frame difference value detector. , 61 is a memory, 62 is a change amount detecting unit, 63 is a cut change detecting unit, 31 is recording start / end information, 64 is a camera work detecting unit, 65 is a motion vector detecting unit, 66 is a camera work parameter estimating unit,
[0042]
First, as for the image processing information, the high frequency
[0043]
Next, a method for detecting the information of the recording start /
[0044]
Next, a method for detecting the information of the
[0045]
As described above, even when the camera operation information and the shooting state information cannot be obtained from the camera, the corresponding information can be estimated by processing the video signal. In the present embodiment, the information such as the γ correction value, the color temperature, the state of the backlight or the over-direct light is not described, but such information can also be obtained by processing the video signal. After acquiring the above information, the configuration and method of detecting a shot based on this information are the same as in the first embodiment, and a description thereof will be omitted.
[0046]
(Example 3)
Next, a third embodiment of the shot detection method of the present invention will be described. This embodiment relates to the shot change
[0047]
In the first embodiment, as shown in FIG. 4, a variation amount of each information is obtained by a differential filter and a histogram correlation process, and a shot change degree is detected. This utilizes the property that "each information changes greatly during the period from when the photographer finishes taking one shot to when taking another shot". However, when examining each piece of input information, it can be seen that there are other phenomena related to the detection of shots, in addition to the phenomena in which the information greatly changes.
[0048]
For example, if a lens is suddenly pointed at another subject while a certain subject is being photographed, the focus may deviate and the out-of-focus state may continue for a short time. During this time, the high-frequency component is small. Therefore, the rule that “when the high-frequency component is small, it is a transition period to another shot” is established. Also, in the same panning, panning for moving from one subject to another should be determined to be during the transition of a shot. However, when panning while chasing a slowly moving subject, the panning period is set to one shot. Want to recognize it as in the section. As described above, even if the same panning is performed, the shot may or may not be in transition, so even if the panning period can be detected from the fluctuation amount of the panning speed as in the first embodiment, the shot section is not changed. It may not be possible to identify. However, panning for transition to another shot is fast and short, and when tracking a subject, slow and almost constant speed panning continues for a long time, so depending on the panning speed and the duration of panning The two can be distinguished.
[0049]
As described above, when a shot shifts, what kind of variation pattern each information indicates is checked in advance, and the degree of shot change is detected based on whether or not the shot matches the variation pattern, thereby improving shot detection performance. Can be enhanced. In the present embodiment, a method of detecting the degree of shot change based on the size of each piece of information and the time during which each piece of information continues in a predetermined state, in addition to the amount of change in each piece of information, will be described.
[0050]
FIG. 9 shows a method of detecting the degree of shot change with respect to two pieces of information of the
[0051]
First, a detection method for the
[0052]
Next, a method for detecting the
[0053]
The estimating
[0054]
As described above, by examining in advance what kind of variation pattern each information indicates when the shot shifts, and by detecting the degree of shot change based on whether or not the shot matches the variation pattern, the shot detection performance is improved. Can be increased.
[0055]
In the above-described embodiment, a method using a predetermined mapping function of two inputs and one output and three inputs and one output has been described as a method of detecting the degree of shot change in the
[0056]
Further, in the above-described embodiment, the input information is limited to the two types of the high frequency component and the panning speed, but the same applies to other information.
[0057]
Further, in the above embodiment, the degree of shot change is detected based on the amount of change of each information, the size of each information, and the time during which the predetermined state of each information continues. The same applies to the use of the parameter
[0058]
(Example 4)
Next, an embodiment of the representative image recording / display apparatus of the present invention will be described.
[0059]
The representative image recording / display device of the present invention extracts, records, and displays a representative image in a moving image using the above-described shot detection method. Here, the representative image is an image selected for use as a representative image of a moving image in browsing, searching, or the like, and includes image contents such as a photographer's intention, a state of a shot image, and a state of a subject. Is chosen so that it can be expressed well.
[0060]
FIG. 11 shows a configuration diagram of a representative image recording / display device of the present invention. In the figure, an image
[0061]
Hereinafter, the operation of each unit will be described. The image
[0062]
On the other hand, the representative
[0063]
First, the in-shot representative
[0064]
(Equation 1)
[0065]
Here, IN is the number of information used as input information in the
[0066]
(Equation 2)
[0067]
It is expressed as
Next, the
(1) The first detected shot is selected as a “shot for which a representative image is to be output”, and information M (1) representative of the shot is substituted into a variable Mpre in the
(2) When the second shot is detected, information M (2) representing the shot is compared with Mpre to detect the distance between the two representative information. Here, the distance between the representative information is the distance when an (IN) dimensional space is created by allocating one dimensional axis for each input information and two representative information are plotted in this space. For example, the distance Dis (a, b) between the representative information of the a-th shot and the b-th shot is
[0068]
(Equation 3)
[0069]
Is represented by
(3) Dis (1,2) is compared with a predetermined threshold value E, and the following processing is performed.
・ When Dis (1,2)> E,
The second shot is selected as a "shot for which a representative image should be output", and an image F (2, N2 / 2) located at the center is extracted as a representative image from the images belonging to the shot. Further, the representative information M (2) is substituted for the variable Mpre in the
・ When Dis (1,2) ≦ E,
It is determined that the second shot has similar image content to the first shot. (4) The same processing as in (2) and (3) is performed for shots detected thereafter. That is,
(4-1) When the i-th shot is detected, M (i) is compared with Mpre, and a distance Dis (i, pre) between two pieces of representative information is detected.
(4-2) Dis (i, pre) is compared with a threshold value E,
When Dis (i, pre)> E,
The i-th shot is selected as a "shot for which a representative image should be output", and an image F (i, Ni / 2) located at the center is extracted as a representative image from the images belonging to the shot. The representative information M (i) is substituted for a variable Mpre in the
When Dis (i, pre) ≦ E,
It is determined that the i-th shot is similar in image content to the shot having Mpre information.
(4-3) Return to 4-1 and perform the same processing for the (i + 1) th shot.
[0070]
The processing of 4-1 to 4-2 and 4-3 is continued up to the last detected shot, and a representative image of a moving image is extracted.
[0071]
On the other hand, the representative image recording /
[0072]
As described above, by comparing the representative information between shots and extracting the representative image from the shot selected based on the comparison result, it is possible to express all image contents with as few representative images as possible. . Therefore, by displaying and recording this representative image and using it for browsing and searching for moving images, the image contents can be easily grasped.
[0073]
【The invention's effect】
As described above, the shot detection method of the present invention uses the camera operation informationAnd shootingDetects the degree of change in image content using state information as input information, and detects, as shots, moving images in which the photographer has continuously shot a specific subject, or has been continuously shot with a specific angle of view and shooting conditions it can.
[0074]
According to the method of the present invention, each time the image content changes, the moving image is classified as another shot, so that many shots are displayed when "the development of the story is fast" In some cases, even if a small number of shots are detected and the way of changing the image content differs depending on the moving image, the unitization of the moving image according to the image content can be performed.
[0075]
Further, the representative image display / recording apparatus of the present invention makes it possible to cover many image contents with a small number of representative images by extracting a representative image using shots obtained by the above method. By recording and displaying image information, efficient searching, quick viewing, and editing of moving images can be performed.
[Brief description of the drawings]
FIG. 1 is a diagram showing an overall configuration of a shot detection method according to the present invention.
FIG. 2 is a diagram for explaining a relationship between a shot and a cut of a moving image.
FIG. 3 is a diagram showing a configuration of an image information output unit in the first embodiment of the shot detection method of the present invention.
FIG. 4 is a diagram showing a specific configuration of a shot change degree detection unit and a shot detection unit in the first embodiment of the shot detection method of the present invention.
FIG. 5 is a diagram showing a time change of an output of an image information output unit in the shot detection method of the present invention.
FIG. 6 is a diagram showing a time change of an output of an internal block with respect to the shot change degree detection unit and the shot detection unit according to the first embodiment of the shot detection method of the present invention.
FIG. 7 is a diagram showing another configuration of the image information output unit of the first embodiment of the shot detection method according to the present invention, which is different from FIG. 3;
FIG. 8 is a diagram illustrating a configuration of an image information output unit according to a second embodiment of the shot detection method of the present invention.
FIG. 9 is a diagram showing a configuration of a shot change degree detection unit according to a third embodiment of the shot detection method of the present invention.
FIG. 10 is a diagram showing a mapping function of two inputs and one output in an estimating unit of a third embodiment of the shot detection method of the present invention.
FIG. 11 is a diagram showing a configuration of an embodiment of a representative image recording / display device of the present invention.
[Explanation of symbols]
1 Image information output unit
2 Shot change degree detector
3 Shot detector
4 Camera
5 Video signal
6 Recording media
7 Encoding unit
8 Decryption processing unit
9 Image processing unit
10 Representative image extraction unit
11 Video signal output section
12 Image record display section
20 Image processing information
21 High frequency components
22 color histogram
23 motion vector
24 High frequency component detector
25 color histogram detector
26 Motion vector detector
30 Camera operation information
31 Recording start / end
32 zoom magnification
33 Auto / Manual mode
40 Shooting status information
41 Panning speed
42 lens focal length
43 Throttle opening sensor output
44 Focus distance
51 Differential filter
52 Absolute value processing unit
53 Low-pass filter
54 Gain adjustment unit
56 Maximum value detector
57 State judgment unit
58 shot section output section
59 counter
60 Inter-frame difference value detection unit
61 memory
62 Change amount detection unit
63 Cut change detector
64 Camera work detector
65 Motion vector detector
66 Camera work parameter estimation unit
67, 69 Estimator
68 Duration detector
70 Representative information detection unit in shot
71 memory
72 Representative information comparison section
Claims (8)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP02650794A JP3561942B2 (en) | 1994-02-24 | 1994-02-24 | Shot detection method and representative image recording / display device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP02650794A JP3561942B2 (en) | 1994-02-24 | 1994-02-24 | Shot detection method and representative image recording / display device |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH07236115A JPH07236115A (en) | 1995-09-05 |
JP3561942B2 true JP3561942B2 (en) | 2004-09-08 |
Family
ID=12195404
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP02650794A Expired - Fee Related JP3561942B2 (en) | 1994-02-24 | 1994-02-24 | Shot detection method and representative image recording / display device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3561942B2 (en) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10276395A (en) * | 1997-03-28 | 1998-10-13 | Sony Corp | Image processing unit, image processing method and recording medium |
JP4656680B2 (en) | 1998-11-30 | 2011-03-23 | シャープ株式会社 | Image search information recording apparatus and image search apparatus |
JP3732366B2 (en) * | 1999-10-05 | 2006-01-05 | 財団法人電力中央研究所 | Image database apparatus and image database creation / retrieval method |
JP4497761B2 (en) * | 2001-07-18 | 2010-07-07 | キヤノン株式会社 | Image processing apparatus and index creation method |
JP4433937B2 (en) | 2004-08-24 | 2010-03-17 | ソニー株式会社 | IMAGING DEVICE, IMAGING METHOD, IMAGING PROGRAM, RECORDING DEVICE, RECORDING METHOD, AND RECORDING PROGRAM |
JP2006244424A (en) * | 2005-03-07 | 2006-09-14 | Nippon Telegr & Teleph Corp <Ntt> | Image scene classifying method and device and program |
JP2007081594A (en) * | 2005-09-13 | 2007-03-29 | Sony Corp | Imaging apparatus and recording method |
JP4379409B2 (en) | 2005-11-08 | 2009-12-09 | ソニー株式会社 | Imaging apparatus, information processing method, and computer program |
JP2008085539A (en) * | 2006-09-27 | 2008-04-10 | Sony Corp | Program, detection method, detector, image processing method and image processor |
JP5228760B2 (en) * | 2008-09-30 | 2013-07-03 | カシオ計算機株式会社 | Imaging apparatus and program |
EP4354400A4 (en) * | 2021-06-08 | 2024-06-26 | Sony Group Corporation | Information processing device, information processing method, and program |
-
1994
- 1994-02-24 JP JP02650794A patent/JP3561942B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH07236115A (en) | 1995-09-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100215586B1 (en) | Digest image auto-generating apparatus and digest image auto-generating method | |
US7433586B2 (en) | Camera with an auto-focus function | |
US7453506B2 (en) | Digital camera having a specified portion preview section | |
JP4241709B2 (en) | Image processing device | |
JP3230858B2 (en) | Video priority automatic selection method and video digest automatic display device | |
US20050228849A1 (en) | Intelligent key-frame extraction from a video | |
JPH09130732A (en) | Scene change detection method and dynamic image edit device | |
US20120082389A1 (en) | Image processing device and computer-program product of image evaluation | |
JP2004208318A (en) | Imaging apparatus and method for determining important area in archival image | |
JP3561942B2 (en) | Shot detection method and representative image recording / display device | |
KR101319544B1 (en) | Photographing apparatus for detecting appearance of person and method thereof | |
US7742072B2 (en) | Monitoring image recording apparatus | |
JPH08251540A (en) | Video summarizing method | |
JP3404803B2 (en) | Moving image recording medium, still image extracting device, moving image recording device, and still image automatic extracting method | |
JP4154012B2 (en) | Recording medium storing program for realizing image display method and image composition apparatus | |
US7982792B2 (en) | Image processing apparatus | |
JP2003032600A (en) | Image processing unit, index preparing system, index preparing method, recording medium and program | |
JP2009267773A (en) | Video editing device, photographic device, and video-editing method | |
JP2008199330A (en) | Moving image management apparatus | |
JP4654552B2 (en) | Image recording / reproducing apparatus, reproducing apparatus, recording / reproducing method, and reproducing method | |
JP3525493B2 (en) | Still image extraction device, moving image recording device, and still image automatic extraction method | |
JP6660236B2 (en) | Image processing apparatus, image processing method, program, and storage medium | |
JPH11261946A (en) | Video display method, device therefor and recording medium recorded with the video display method | |
JP7353821B2 (en) | Image processing device, its control method, program | |
JP4842232B2 (en) | Imaging apparatus and image reproduction apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20040511 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20040524 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080611 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090611 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100611 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100611 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110611 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120611 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120611 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130611 Year of fee payment: 9 |
|
LAPS | Cancellation because of no payment of annual fees |