JP3776514B2 - Camera shake correction method and image monitoring system - Google Patents
Camera shake correction method and image monitoring system Download PDFInfo
- Publication number
- JP3776514B2 JP3776514B2 JP17771796A JP17771796A JP3776514B2 JP 3776514 B2 JP3776514 B2 JP 3776514B2 JP 17771796 A JP17771796 A JP 17771796A JP 17771796 A JP17771796 A JP 17771796A JP 3776514 B2 JP3776514 B2 JP 3776514B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- camera shake
- movement
- amount
- pattern
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Adjustment Of Camera Lenses (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は動画像中から特定の移動物体を識別する画像監視システムに関し、特に監視カメラの揺れ補正によるオンライン監視方式に関する。
【0002】
【従来の技術】
監視対象エリアの動画像中から人物などの移動体を認識する場合、設置カメラの振動や風による揺れ補正が必要になる。類似の技術として、撮影時のカメラ手ぶれ補正方法がある。すなわち、カメラ視野範囲の所定の小ブロックに対し、そのブロックがどこにあるか1画素ずつシフトしてサーチし、最大類似のブロックの位置を検出してぶれ量を補正する。
【0003】
また、揺れるカメラの動画像中から移動物体を認識する方法として、複数の注目点を設定して連続する画像フレーム間のマッチングを行い、その結果をもとにアフィン変換を2段階に適用することで背景の位置合わせを行い、さらに、位置合わせした後の時間軸方向での差分画像から移動物体領域の抽出を行うものが知られている(引用文献:信学技報;PRU95−181、1995年−12月)。
【0004】
【発明が解決しようとする課題】
従来のカメラの手ぶれ補正方法は、手ぶれのずれ量が比較的少ないので、視野範囲の所定位置の小さな基準ブロックをテンプレートパターンとして使用でき、マッチングのサーチ範囲も狭くてよい。しかし、基準ブロックが小さいあるいは位置が固定していると、そのブロックに外乱や移動体が進入するとマッチングが不可能になる。
【0005】
一方、引用文献による移動物体の抽出方法は、設定した複数の注目パターンで画像フレーム間のマッチングを行うが、特徴のない注目パターン(規則的なパターン)が含まれていると、位置合わせに誤りが発生する。さらに、複数の注目パターンのいくつかでマッチング領域が存在した場合、これらのマッチング結果を基にアフィン変換を2段階適用して背景の位置合わせを行うと、時間がかかり過ぎてリアルタイムのオンライン処理が困難になる。
【0006】
本発明の目的は、従来技術の問題点を克服し、監視カメラの揺れ量が大きくさらに外乱が存在する環境下においても、正確にかつ高速にカメラの揺れを補正するカメラ揺れ補正方法と、それを利用したオンライン処理可能な移動物体の画像監視システムを提供することにある。
【0007】
【課題を解決するための手段】
上記目的は、監視カメラより対象エリアを所定タイミング毎に撮影した画像のカメラ揺れを補正する方法において、前記画像の2フレームの一方を基準画像、他方を処理画像とし、前記基準画像から作成したテンプレートパターンを用いて前記処理画像のパターンマッチングを行ない、カメラ揺れによる画像ずれの規則性を利用して特定のマッチング領域を選択し、その移動ベクトルからカメラ揺れ量を算出して画像ずれを補正することにより達成される。
【0008】
カメラ揺れによる画像ずれは、処理画像の全体にわたり同一方向に同一移動量となる規則性を有している。従って、テンプレート領域とマッチング領域の間の移動ベクトルのうち、この規則性、少なくとも移動方向が一致する移動ベクトルを特定することで、カメラ揺れ量を算出できる。なお、上記マッチング領域は、パターンマッチングによって抽出された最大類似度の領域である。
【0009】
この一方法として、前記基準画像から作成した複数のテンプレートパターンを用いて前記処理画像に対するパターンマッチングを行ない、前記テンプレートパターン毎にマッチング領域との移動ベクトルを算出し、移動方向が同一または移動方向及び移動量が同一となる頻度最大の移動ベクトル(群)を求め、該移動ベクトル(群)の移動方向と移動量からカメラ揺れ量を算出し、該カメラ揺れ量だけ画像シフトして前記基準画像と前記処理画像の背景を位置合わせすることで、カメラ揺れの補正が実現できる。
【0010】
前記テンプレートパターンは前記基準画像の領域中に、1つずつ指定しあるいは所定規則に従って自動的に位置決めされた所定面積の矩形領域として設定される。
【0011】
また、上記のように設定された複数のテンプレートパターンを候補とし、各々の濃度分散値を求め、濃度の分散値が一定以上となるテンプレートパターンのみをパターンマッチングに使用する。このように、分散値の大きい特徴あるテンプレートパターンを用いることで、パターンマッチングの精度が向上する。また、パターンが基準画像の全体的に多数設定されるとき、特徴のないパターンは捨てられるので処理効率が向上する。
【0012】
上記目的は、テレビカメラなどの監視カメラで、監視対象エリアを所定タイミング毎に撮影した画像を順次、入力して移動物体を監視する画像監視システムにおいて、前記入力画像の2フレームの一方を基準画像、他方を処理画像としてA/D変換する画像入力手段、基準画像から複数のテンプレートパターンを生成するテンプレートパターン作成手段、テンプレートパターン毎に前記処理画像に対するパターンマッチングして移動ベクトルを算出し、移動方向及び移動量が同一となる頻度が最大の移動ベクトル(群)の前記移動方向と前記移動量からカメラ揺れ量を算出し、前記基準画像と前記処理画像の背景を位置合わせするカメラ揺れ補正手段を設けたことにより達成される。
【0013】
さらに、前記位置合わせ後の基準画像と処理画像の差分画像を基に、移動画像の移動距離を含む特徴量を算出し、該特徴量を利用した所定の判定基準に従って特定の移動物体の識別を行なう移動物体識別手段を設けたことを特徴とする。
【0014】
また、前記差分画像の濃度頻度分布から2値化しきい値を決定し、前記差分画像を2値化処理する2値化処理手段を設け、この2値化画像から前記特徴量を算出することを特徴とする。
【0015】
また、前記特定の移動物体の位置座標を時系列に蓄積し、該移動物体の現時点の画像と過去の位置座標から移動軌跡を表示する表示処理手段を設けたことを特徴とする。
【0016】
本発明によれば、監視カメラが振動や風で揺れている場合に、その揺れを正確に補正した動画像が得られる。さらに、外乱や対象外の種々の移動体から識別した監視対象の移動物体の映像をモニタ上でオンライン監視することができる。
【0017】
【発明の実施の形態】
以下、本発明の一実施形態を図面を用いて詳細に説明する。各図を通して、同等の要素には同一の符号を付している。
【0018】
図1は、一実施形態による画像監視システムの機能ブロック図である。本システムでは、ITVカメラ100が対象エリアをサンプリングタイミングで撮影した映像を、画像入力部200が順次画像信号として取り込んでA/D変換する。テンプレートパターン作成部400は、取り込んだ1フレームの画像を基準画像として複数のテンプレートパターンを作成し、テンプレートパターン毎の濃度の分散値を求め、分散値が大きいテンプレートパターンを採用する。
【0019】
カメラ揺れ量算出部600は、次のサンプリングタイミングで、画像入力部200から取り込まれた1フレームの画像を処理画像として、採用したテンプレートパターンによるパターンマッチングを行い、揺れ量を算出する。カメラ揺れ補正部800は、カメラ揺れ量算出部600で求めたカメラ揺れ量だけ処理画像を移動し、この移動画像と基準画像の背景の位置合わせを行なう。
【0020】
移動物体抽出部1000は、移動画像と処理画像の差分を行って差分画像を作成し、差分画像の濃度頻度分布を算出して、濃度頻度分布のノイズを除去した濃度情報から算出したしきい値で2値化した2値画像や差分画像から、移動物体領域を抽出して移動物体領域の特徴量を算出する。
【0021】
移動物体識別部1200は、移動物体領域の特徴量を用いて外乱を除外し移動物体の判別を行い、監視対象の移動物体の存在を認識すると、画像格納部1500に当該移動物体の画像を格納する。表示制御部1400は、画像格納部1500に格納した移動物体の画像及びその移動軌跡を用いて、表示装置1600に表示する制御を行う。これら画像入力部200、テンプレートパターン作成部400、カメラ揺れ量算出部600、カメラ揺れ補正部800、移動物体抽出部1000、移動物体識別部1200、画像格納部1500、表示制御部1400を順次繰り返して処理し、リアルタイムに表示装置1600に表示し、監視者は識別した目的の物体が写っている映像をモニタ等の表示装置1600でオンライン監視する。
【0022】
図2に、カメラが揺れている動画像から移動物体を検出する概念図を示す。同図(a)のように、カメラ揺れがある場合、基準画像10の建物30に対して処理画像40の建物50がずれている。そこで、カメラ揺れでずれた分、処理画像40を基準画像10に位置合わせした後、共通シーン20の領域の差分を行う。この場合は、移動物体や外乱がないので共通シーン20の領域には何も検出されない。
【0023】
一方、同図(b)のように、カメラ揺れとともにシーンに移動人物がいる場合、カメラ揺れに対しては処理画像40を基準画像10に位置合わせして補正する。しかし、基準画像10の人物70は処理画像40で人物80に移動しているため、基準画像10と処理画像40の差分を行うと、人物70の移動前の画像90と移動後の画像95が正しい移動距離で検出できる。このように、カメラ揺れの影響を排除すると、移動距離などの特徴量を利用して特定の移動物体、たとえば人物を識別できる。
【0024】
図3は、画像入力部の構成を示す機能ブロック図である。ITVカメラ100が対象シーンを撮影すると、一方の画像取り込み部(Fi)220より取り込まれた画像信号を基準画像とし、もう一方の画像取り込み部(Fi+1)240より取り込まれた画像信号を処理画像として、A/D変換部260でA/D変換して、基準画像をテンプレートパターン作成部400に、処理画像をカメラ揺れ算出部600に送信する。
【0025】
図4は、テンプレートパターン作成部の構成を示す機能ブロック図である。テンプレートパターン作成部400は画像入力部200からの基準画像を取り込み、テンプレートパターン生成部420で複数のテンプレートパターンの候補を生成し、テンプレートパターン決定部440で各候補パターン毎に濃度の分散値を計算して、しきい値以上の分散値を有する候補パターンをテンプレートとして決定し、テンプレートパターン格納部460に格納する。採用するテンプレートパターンは、例えば窓のある事務室等の映像の場合、分散値のしきい値が約35〜40以上である。このように、テンプレートパターンの分散値が小さい個所は、後述のようにずれ位置の探索は行わない。
【0026】
図5は、テンプレートパターンの生成方法を示す説明図で、濃淡テンプレートパターンの生成例である。テンプレートパターン生成部420は、画像入力部200からの基準画像に対し、注目点423を与えて注目点423を中心とする矩形をテンプレートパターン425として生成する。注目点423は、マウス等の入力装置でその位置を全て指示したり、基準となる1点の位置を指示し、この点から予め定めた規則的な位置を注目点として、複数の候補パターンを自動生成する。
【0027】
図6は、テンプレートパターンの別の生成方法を示す説明図である。この例でのテンプレートパターン生成部420は、基準画像上でマウス等により直接指示された矩形427の領域を候補パターンとして生成する。
【0028】
上記のテンプレートは2値パターンでもよい。2値パターンの場合、テンプレートは、基準画像を所定のしきい値で2値化した2値画像から生成する。あるいは、基準画像のエッジを求めて所定のしきい値で2値化した2値画像から生成してもよい。
【0029】
図7は、カメラ揺れ算出部の構成を示す機能ブロック図である。カメラ揺れ算出部600は作成されたテンプレートと処理画像を入力し、パターンマッチング領域設定部620で処理画像に対しパターンマッチングを行うパターンマッチングの処理領域を設定する(ウインドウ設定)。パターンマッチング処理領域は必ずしも処理画像全体でなくてよい。例えば、テンプレートパターン領域自身の左右にm画素、上下にn画素拡大したり、任意に指定してもよく、カメラの揺れの幅に合わせて設定すればよい。
【0030】
パターンマッチング部640は、パターンマッチングの処理領域に対するテンプレートパターン毎のパターンマッチングを行い、最も一致したマッチング領域を検出する。テンプレートが濃淡パターンの場合は濃淡パターンマッチング、2値パターンの場合は2値パターンマッチングを行う。カメラ揺れベクトル算出部660は、各パターン毎に移動ベクトルを算出する。
【0031】
図8は、カメラ揺れ算出部の処理手順を示すフロー図である。まず、テンプレートパターン領域を含んだパターンマッチング領域を設定する(S650)。次に、設定したパターンマッチング領域内において、テンプレートパターンを1画素ずつシフトしながら最も一致しているマッチング領域をサーチする(S660)。さらに、ステップS660で最も一致しているマッチング領域とテンプレートパターンの位置を比較し、その移動方向と移動量からなる移動ベクトルを算出する(S670)。さらに、設定したテンプレートパターンによるパターンマッチングが全て終了したかチェックし(S680)、終了していない場合はステップS650へ戻り、一連の処理ステップを繰り返す。
【0032】
図9は、カメラ揺れ算出部で算出した移動ベクトルの例を示す説明図である。基準画像上で生成した複数のテンプレートパタン毎に、処理画像に対してパターンマッチングを行って、所定のしきい値以上で類似度が最大のマッチング領域を探索する。
【0033】
マッチング領域が検知されると、基準画像の代表位置(例えば、矩形左上の位置)915に一致した処理画像の代表位置(例えば、矩形左上の位置)918をずれ位置とする。基準画像の代表位置915をベクトルの始点、見つけた処理画像の代表位置918をベクトルの終点とし、始点と終点を結ぶベクトル910を移動ベクトルとする。同様にして、次のテンプレートパターンに対しても、パターンマッチングを行ってマッチング領域を見つけ、基準画像の代表位置925をベクトルの始点、見つけた処理画像の代表位置928をベクトルの終点とし、始点と終点を結ぶベクトル920を移動ベクトルとする。
【0034】
図示の移動人物1430が存在する場合、移動人物1430に対応する移動ベクトル692は、人物の移動方向と移動量を示す。しかし、移動人物1430により背景が変化した部分の移動ベクトル694、696、698などは、その移動方向に規則性がない。また、分散値が小さいテンプレートパターンは使用しないので(ずれ位置の探索が行わなれない)、図示のように移動ベクトルが抜けている。
【0035】
図10は、カメラ揺れ補正部の構成を示す機能ブロック図である。カメラ揺れ算出部600で算出した各テンプレート毎の移動ベクトルに対して、対応ベクトル間の距離算出部820で、基準とするベクトル(基準ベクトル)と比較対象のベクトル(対象ベクトル)の始点間の距離と終点間の距離を算出する。また、対応ベクトル間の傾き算出部830で、基準ベクトルの傾きと対象ベクトルの傾きを算出する。
【0036】
さらに、同一ベクトルの頻度分布算出部840で、始点間の距離と終点間の距離が等しく、かつ、基準ベクトルの傾きと対象ベクトルの傾きが等しい場合、両者を同一ベクトルとして頻度分布を算出する。ここでの距離と傾きには、若干の誤差が許容される。例えば、距離及び傾きの差が、±1〜2画素以下では同一としてもよい。
【0037】
X方向揺れ量算出部850及びY方向揺れ量算出部860は、頻度分布の最大度数のベクトルの始点と終点から、X軸の揺れ量(移動量)とY軸の揺れ量(移動量)を算出する。
【0038】
画像シフト部870は、算出したX方向及びY方向の揺れ量で、処理画像(又は基準画像)をX方向とY方向にシフトする。なお、シフトの対象は上記のパターンマッチングの処理領域でよい。
【0039】
図11は、カメラ揺れ補正部による補正手順を示すフロー図である。まず、i番目の移動ベクトルを基準に、i+1番目〜m番目の移動ベクトルに対し、始点同士及び終点同士の距離を計算し(S825)、また、i番目の移動ベクトルを基準に、i+1番目〜m番目の移動ベクトルに対し、傾きを計算する(S835)。次に、始点同士と終点同士の距離が等しくて傾きが同じ移動ベクトルを同一ベクトルとし(S845)、同一ベクトルの個数をカウントして、ベクトルの頻度分布を算出する(S855)。全ての移動ベクトルの処理が終了したかチェックし(S865)、終了してない場合はステップS825へ戻る。全ベクトルの処理が終了したとき、ベクトルの頻度分布が作成される。
【0040】
次に、作成された頻度分布から最大頻度のベクトルを探し(S875)、そのベクトルの始点と終点よりX方向揺れ量とY方向揺れ量を算出する(S880)。最後に、算出した揺れ量だけ、X方向とY方向に処理画像をシフトする(S890)。なお、ステップS875で、最大頻度が全て1以下の場合は、ベクトルの方向がばらばらで規則性がないので、カメラ揺れは発生していないものとみなす。
【0041】
図12は、対応ベクトル間の距離と傾きの算出方法を示す説明図である。図9に示した移動ベクトル910及び移動ベクトル920を例に説明する。対応ベクトル間の距離算出部820は、基準ベクトルVkの始点P1(x1,y1)と対象ベクトルVk+1の始点P2(x2,y2)の距離L1を、基準ベクトルVkの終点P1*(x1*,y1*)と、対象ベクトルVk+1の終点P2*(x2*,y2*)の距離L2を、数1により計算する。
【0042】
【数1】
L1=√((x2−x1)2+(y2−y1)2)
L2=√((x2*−x1*)2+(y2*−y1*)2)
ここで、基準ベクトルVkと対象ベクトルVk+1が同一であるためには、L1=L2を満足すればよい。実際には、|L1−L2|≦1〜2画素を誤差範囲として、同一ベクトルとみなす。
【0043】
対応ベクトル間の傾き算出部830は、基準ベクトルVkの傾きM1を始点P1(x1,y1)と終点P1*(x1*,y1*)から、対象ベクトルVk+1の傾きM2を始点P2(x2,y2)と終点P2*(x2*,y2*)から、数2により計算する。
【0044】
【数2】
M1=(y1*−y1)/(x1*−x1)
M2=(y2*−y2)/(x2*−x2)
ここで、M1=M2を満たす場合に、基準ベクトルVkと対象ベクトルVk+1の傾きが同一である。実際には、M1−M2=±1程度までは同一とみなす。
【0045】
図13は、図9の移動ベクトルの頻度分布を算出したテーブルである。すなわち、移動ベクトル910について、他の移動ベクトル920、692、694…と同一ベクトルか次々と判定し、同一の場合に比較したベクトル番号(たとえば、920)を消去し、移動ベクトル910の度数を更新する。次に、移動ベクトル692、694と同様の手法を繰返して、処理画像中における異なる移動ベクトルとその頻度を集計した頻度分布テーブルが作成される。同図のテーブルにおいて、移動ベクトル910の頻度が最大であり、その始点座標と終点座標からカメラの揺れ量を、数3により決定する。
【0046】
【数3】
X方向の揺れ量(Δx)=x1*−x1
Y方向の揺れ量(Δy)=y1*−y1
カメラ揺れ補正部800は、上記によるX方向揺れ量ΔxとY方向揺れ量Δyを用いて、画像シフト部870が処理画像の位置をX方向にΔx、Y方向にΔyシフトして、基準画像の背景と位置合わせしてカメラ揺れを補正する。
【0047】
上記の実施形態では、同一ベクトルの頻度算出で、移動ベクトルの移動方向と移動量の両方が一致するものとしたが、カメラ揺れによる画像ずれの規則性から移動方向のみの一致でも可能である。さらに、複数のテンプレートパターンを用いたが、予め、カメラ揺れによるずれ方向の予測ができる場合は、1つのテンプレートパターンによるパターンマッチングの結果からでも、カメラ揺れ量の算出が可能となる。
【0048】
図14は、移動物体抽出部の構成を示す機能ブロック図である。移動物体抽出部1000は画像入力部200からの基準画像と、カメラ揺れ補正部800からの補正後の処理画像を取り込んで、差分画像算出部1020で画像間の画素毎の差を算出して差分画像を作成する。次に、濃度頻度分布算出部1040が、差分画像の濃度頻度分布を算出した後、ノイズ除去部1060が濃度頻度分布Hj(j=0,1,...,n)を、数4により平滑化してノイズ除去を行う。nは濃度の最大値である。
【0049】
【数4】
Hj=(Hj-1+2Hj+Hj+1)/4−1
H0=(2H0+H1)/3−1
Hn=(2Hn+Hn-1)/3−1
但し、J=1,...,n−1である。
【0050】
2値化しきい値算出部1070は、ノイズ除去部1060で平滑化した濃度頻度分布から差分画像の2値化しきい値を算出する。2値化処理部1080は、算出された2値化しきい値で2値化処理し差分画像の2値画像を作成し、検知対象に不適当な面積をもつ画素ブロックをノイズとして除外し、膨張・収縮等を行って整形した2値画像を作成する。
【0051】
特徴量算出部1090は、2値化処理部1080による2値画像から検知対象の特徴量を算出して、監視対象物体の識別に用いる。なお、監視場所が暗く、目標物体が存在しても差分画像を抽出できない場合は、抽出できる明るさに照明する。
【0052】
図15は、2値化しきい値の算出方法を示す説明図である。2値化しきい値算出部1070は、ノイズ除去部1060で平滑化した濃度頻度分布から求めた最大濃度値(max)から、2値化のしきい値thを自動算出する。
【0053】
差分画像の変化領域が多い場合、平滑化した濃度頻度分布は、(a)に示すようになる。最大濃度値(max)1110から小さい方に濃度を探索すると、少なくとも1個の極大値1120が存在する。この極大値1120を基準に、更に小さい方に濃度を探索すると、最大濃度に最も近い極小値1130が存在する。この極小値1130の濃度値から最大濃度1110までが、変化部分の濃度分布である。従って、極小値1130の濃度値を2値化しきい値thとする。これは、モード法による2値化しきい値の決定方法である。
【0054】
一方、差分画像の変化領域が少ない場合は、変化部分の濃度の度数が少ないため、(a)のような極大値1120が存在しないで、(b)に示すような濃度頻度分布となる。この場合の2値化しきい値thは、数5により最大濃度(max)1110から定数Cを差し引いた値に設定する。
【0055】
【数5】
th=max−C
但し、th≧thmin(下限しきい値)である。
【0056】
算出したしきい値thが予め設定したthminより小さくなる場合は、下限しきい値thminとする。定数Cは、対象画像の正常画像から、予め算出した正常状態での白色ノイズの上限しきい値thmaxと下限しきい値thminの差の値とする。又は、対象画像の正常状態におけるノイズの最大変動幅を示す値なら何でもよい。例えば、昼間の屋外環境を監視するシーンならば、上限しきい値thmaxは12〜14階調程度で、下限しきい値thminは4〜5階調程度である。従って、定数Cは7〜10階調程度となる。なお、変化部分の最大値に白色ノイズが加味された場合でも、数4の平滑化処理でノイズ低減されるので、濃度差のわずかな変化に対しても精度よく設定できる。
【0057】
図16は、2値化処理部の構成を示す機能ブロック図である。2値化処理部1080は、差分画像と2値化しきい値を取り込み、2値化部1082が2値化しきい値で2値画像を作成し、微小面積除去部1084が抽出の対象外となる微小面積の領域をノイズとして除去し、差分画像の変化領域の2値画像を作成する。
【0058】
2値化処理部1080が変化領域として2値化するのは、例えば抽出対象が人物の場合、カメラの視野範囲に対応して人物としての適当な面積をもっている領域である。それ以下の領域はノイズである。
【0059】
変化領域の2値画像は抽出対象物体が分離している場合が多く、画像補正部1086がこれら分離領域を膨張して連結した後、収縮して2値画像を補正する。画像補正部1086の膨張回数と収縮回数は同一回数で、例えば、人物の抽出の例では2〜3回程度である。
【0060】
図17は、特徴量算出部の構成を示す機能ブロック図である。本例の特徴量算出部1090は2値画像から、以下の特徴量を算出する。即ち、面積算出部1094で算出した面積、縦横比算出部1095で算出した縦横比、移動距離算出部1096で算出した移動距離であり、これらを、画像入力のタイミングiの度に、時系列に算出する。
【0061】
面積算出部1094は、2値画像の画素数を計算して面積を算出する。縦横比算出部1095は、2値画像をX方向に投影してX軸の位置毎の画素数を累積したX投影分布と、Y方向に投影してY軸の位置毎の画素数を累積したY投影分布の割合を縦横比として算出する。移動距離算出部1096は、2値画像のうち、最大面積を有する領域の重心を用いて、i−1回目とi回目の重心間の長さをi回目の距離として算出する。但し、i=1回目の移動距離は0とする。
【0062】
図18は、本実施形態における検出対象と特徴量の関係を説明するテーブルである。ここでの検出対象は移動物体で、人物、小動物、車両である。特徴量は面積、縦横比、移動距離を用いる。検出対象が人物の場合、人物の特徴として、移動距離が小さく面積が中くらいで、形状が縦に長い。例えば、昼間の屋外シーンで目視で明らかに確認できる人物を検出する場合は、移動距離のしきい値を約20〜30画素、縦横比を約3:1とすればよい。
【0063】
検出対象が小動物の場合、小動物の特徴として移動距離が中程度で面積が小さくかつ、形状が横長もしくは縦横比が1程度である。検出対象が車両の場合、車両の特徴として、移動距離と面積がともに大きくかつ、形状が横長の場合や縦横比が1程度である。
【0064】
移動物体識別部1200は、移動距離算出部1096で求めた移動距離、面積算出部1094で求めた面積、縦横比算出部1095で求めた縦横比を用いて、検出対象とする人物、小動物または車両を識別して検出する。目的の検出対象が識別されると、その画像を表示制御部1400に渡し、その重心などの所定位置の座標を画像格納部1500に時系列に蓄積する。
【0065】
図19は、移動物体識別部の処理手順を示すフロー図である。まず、面積をチェックし(S1300)、面積が中程度の場合、X投影分布とY投影分布を用いて形状が縦長か否かチェックする(S1310)。形状が縦長の場合、移動距離をチェックし(S1315)、移動距離が小ならば人物と判定する(S1320)。ステップS1310で形状が縦長でない場合やステップS1315で移動距離が小さくない場合は、ともに外乱と判定する(S1330)。
【0066】
次に、ステップS1300で面積が小さいと判定した場合、形状をチェックし(S1340)、形状が横長又は縦横比が同程度の場合、移動距離をチェックし(S1350)、移動距離が中程度ならば小動物と判定する(S1360)。ステップS1340で形状が縦長な場合やステップS1350で中程度でない場合は、外乱と判定する(S1370)。
【0067】
ステップS1300で面積が大きいと判定した場合、移動距離をチェックし(S1380)、移動距離がい大きい場合、形状判定を行い(S1390)、形状が横長又は縦横比が同程度の場合、車両と判定する(S1395)。ステップS1380で移動距離が大きくない場合やステップS1390で形状が縦長な場合は、外乱と判定する(S1370)。
【0068】
図20は、識別された人物の移動軌跡の表示図である。表示制御部1400は、移動物体識別部1200から検出対象の移動物体、例えば人物の識別通知とその画像データを受信すると、その画像と移動軌跡を表示装置1600にオンライン表示する。
【0069】
即ち、移動物体識別部1200が、i−1回目、i回目、i+1回目等毎に時系列で識別した人物のi+1回目の画像1430を表示し、更に、i−1回目とi回目の移動軌跡1450、i回目とi+1回目の移動軌跡1460を表示する。これにより、監視者は、人物およびその移動状態を画面上で監視できる。
【0070】
【発明の効果】
本発明のカメラ揺れ補正方法によれば、監視カメラで対象エリアを撮影した入力画像の1フレームを基準画像、次のフレームを処理画像として取り込み、基準画像から作成したテンプレートパターンと処理画像のパターンマッチングを行なってパターン毎の移動ベクトルを算出し、移動方向または移動方向及び移動量が同一となる頻度最大の移動ベクトル(群)を求め、その移動方向と移動量からカメラ揺れ量を算出し、基準画像と処理画像の背景の位置合わせを行なうので、入力画像に移動体やノイズが存在する場合にも監視カメラの揺れを正確に検出でき、かつ、揺れ補正の画像シフトが1回で済むのでリアルタイム処理が可能になる。
【0071】
また、パターンマッチングに使用するテンプレートパターンは、濃度の分散値が一定以上で特徴のあるパターンを用いるので、パターンマッチングの信頼性が高く、かつ、効率処理できる。
【0072】
本発明の画像監視システムによれば、動画像中における移動物体の移動量を含む特徴量から人物などの対象物体の識別を行なう場合に、カメラの揺れによる画像のずれを補正して特徴量を正確に把握できるので、対象物やその行動の信頼性の高い、オンライン監視が可能になる。
【図面の簡単な説明】
【図1】本発明の一実施形態による画像監視システムの構成を示す機能ブロック図。
【図2】カメラが揺れている状態において移動物体を検知する原理説明図。
【図3】画像入力部の構成を示す機能ブロック図。
【図4】テンプレートパターン作成部の構成を示す機能ブロック図。
【図5】テンプレートパターンの生成方法を示す説明図。
【図6】テンプレートパターンの別の生成方法を示す説明図。
【図7】カメラ揺れ算出部の構成を示す機能ブロック図。
【図8】移動ベクトル算出の処理手順を示すフロー図。
【図9】1フレームの画像の移動ベクトルの算出例を示す説明図。
【図10】カメラ揺れ補正部の構成を示す機能ブロック図。
【図11】カメラ揺れ補正の処理手順を示すフロー図。
【図12】対応ベクトル間の距離と傾きの算出方法を示す説明図。
【図13】移動ベクトルの頻度分布の一例を示すテーブル。
【図14】移動物体抽出部の構成を示す機能ブロック図。
【図15】2値化しきい値の算出方法を示す説明図。
【図16】2値化処理部の構成を示す機能ブロック図。
【図17】特徴量算出部の構成を示す機能ブロック図。
【図18】検出対象とその特徴を説明するテーブル。
【図19】移動物体識別部の識別手順を示すフロー図。
【図20】移動人物の識別結果を示す表示図。
【符号の説明】
100…ITVカメラ、200…画像入力部、400…テンプレートパターン作成部、420…テンプレートパターン生成部、440…テンプレートパターン決定部、600…カメラ揺れ算出部、640…パターンマッチング部、660…カメラ揺れベクトル算出部、800…カメラ揺れ補正部、820…対応ベクトル間の距離算出部、830…対応ベクトル間の傾き算出部、840…同一ベクトルの頻度分布算出部、850…X方向揺れ量算出部、860…Y方向揺れ量算出部、870…画像シフト部、1000…移動物体抽出部、1020…差分画像算出部、1040…濃度頻度分布算出部、1060…ノイズ除去部、1070…2値化しきい値算出部、1080…2値化処理部、1090…特徴量算出部、1200…移動物体識別部、1400…表示制御部、1500…画像格納部、1600…表示装置。[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image monitoring system for identifying a specific moving object from a moving image, and more particularly to an on-line monitoring system by correcting a camera shake.
[0002]
[Prior art]
When recognizing a moving body such as a person from a moving image in the monitoring target area, it is necessary to correct the vibration of the installation camera and the vibration due to the wind. As a similar technique, there is a camera shake correction method at the time of shooting. That is, with respect to a predetermined small block in the camera field of view, a search is performed by shifting one pixel at a time, and the position of the most similar block is detected to correct the blur amount.
[0003]
In addition, as a method of recognizing a moving object from a moving image of a shaking camera, a plurality of attention points are set and matching between successive image frames is performed, and affine transformation is applied in two stages based on the result. Is used to perform background registration and to extract a moving object region from a difference image in the time axis direction after the registration (cited literature: IEICE Technical Report; PRU95-181, 1995). Year-December).
[0004]
[Problems to be solved by the invention]
A conventional camera shake correction method has a relatively small amount of camera shake shift, so that a small reference block at a predetermined position in the visual field range can be used as a template pattern, and a matching search range may be narrow. However, if the reference block is small or the position is fixed, matching becomes impossible if disturbance or a moving body enters the block.
[0005]
On the other hand, the moving object extraction method based on the cited document performs matching between image frames with a plurality of set attention patterns, but if there is an attention pattern with no features (regular pattern), the alignment is incorrect. Occurs. In addition, if there are matching regions in some of the target patterns, applying the two-step affine transformation based on these matching results to perform background alignment will take too much time, and real-time online processing will take place. It becomes difficult.
[0006]
An object of the present invention is to overcome the problems of the prior art, and to provide a camera shake correction method that corrects camera shake accurately and at high speed even in an environment where the amount of camera shake is large and disturbance is present, and An object of the present invention is to provide an on-line processable image monitoring system for moving objects.
[0007]
[Means for Solving the Problems]
The above object is a method for correcting camera shake of an image obtained by capturing a target area at a predetermined timing from a surveillance camera, wherein one of the two frames of the image is a reference image and the other is a processed image, and a template created from the reference image Perform pattern matching of the processed image using a pattern, select a specific matching region using the regularity of image shift caused by camera shake, and correct the image shift by calculating the camera shake amount from the movement vector. Is achieved.
[0008]
Image shift due to camera shake has regularity that is the same amount of movement in the same direction over the entire processed image. Therefore, the camera shake amount can be calculated by specifying a movement vector having the regularity, at least the movement direction, among the movement vectors between the template area and the matching area. The matching area is an area having the maximum similarity extracted by pattern matching.
[0009]
As one method, pattern matching is performed on the processed image using a plurality of template patterns created from the reference image, a movement vector with a matching area is calculated for each template pattern, and the movement direction is the same or the movement direction and The movement vector (group) having the maximum frequency with the same movement amount is obtained, the camera shake amount is calculated from the movement direction and the movement amount of the movement vector (group), the image is shifted by the camera shake amount, and the reference image and The camera shake can be corrected by aligning the background of the processed image.
[0010]
The template pattern is set as a rectangular area having a predetermined area which is designated one by one in the area of the reference image or is automatically positioned according to a predetermined rule.
[0011]
Further, using a plurality of template patterns set as described above as candidates, the density dispersion value of each is obtained, and only the template pattern having a density dispersion value equal to or greater than a certain value is used for pattern matching. In this way, by using a characteristic template pattern having a large variance value, the accuracy of pattern matching is improved. Further, when a large number of patterns are set as a whole of the reference image, the pattern having no features is discarded, so that the processing efficiency is improved.
[0012]
An object of the present invention is to provide an image monitoring system for monitoring a moving object by sequentially inputting images obtained by photographing a monitoring target area at a predetermined timing with a monitoring camera such as a television camera. In the image monitoring system, one of the two frames of the input image is a reference image. , An image input means for A / D converting the other as a processed image, a template pattern creating means for generating a plurality of template patterns from a reference image, a movement vector is calculated by pattern matching with the processed image for each template pattern, and a moving direction And a camera shake correction means for calculating a camera shake amount from the movement direction and the movement amount of the movement vector (group) having the same frequency of movement amount and aligning the background of the reference image and the processed image. This is achieved by providing it.
[0013]
Further, based on the difference image between the reference image after the alignment and the processed image, a feature amount including a moving distance of the moving image is calculated, and a specific moving object is identified according to a predetermined determination criterion using the feature amount. A moving object identification means is provided.
[0014]
Further, a binarization threshold value is determined from the density frequency distribution of the difference image, binarization processing means for binarizing the difference image is provided, and the feature amount is calculated from the binarized image. Features.
[0015]
Further, the present invention is characterized in that there is provided display processing means for accumulating the position coordinates of the specific moving object in time series and displaying a movement locus from the current image of the moving object and the past position coordinates.
[0016]
According to the present invention, when the surveillance camera is shaken by vibration or wind, a moving image in which the shake is accurately corrected can be obtained. Furthermore, it is possible to monitor on-line the video of the moving object to be monitored, identified from disturbances and various moving objects that are not the object.
[0017]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings. Equivalent elements are denoted by the same reference numerals throughout the drawings.
[0018]
FIG. 1 is a functional block diagram of an image monitoring system according to an embodiment. In this system, the
[0019]
The camera shake
[0020]
The moving
[0021]
The moving
[0022]
FIG. 2 is a conceptual diagram for detecting a moving object from a moving image in which the camera is shaking. As shown in FIG. 4A, when the camera shakes, the
[0023]
On the other hand, when there is a moving person in the scene with camera shake as shown in FIG. 5B, the processed
[0024]
FIG. 3 is a functional block diagram showing the configuration of the image input unit. When the
[0025]
FIG. 4 is a functional block diagram showing the configuration of the template pattern creation unit. The template
[0026]
FIG. 5 is an explanatory diagram showing a template pattern generation method, and is an example of generating a light and dark template pattern. The template
[0027]
FIG. 6 is an explanatory diagram showing another method for generating a template pattern. The template
[0028]
The template may be a binary pattern. In the case of a binary pattern, the template is generated from a binary image obtained by binarizing the reference image with a predetermined threshold value. Or you may produce | generate from the binary image which calculated | required the edge of the reference | standard image and binarized with the predetermined threshold value.
[0029]
FIG. 7 is a functional block diagram illustrating a configuration of the camera shake calculation unit. The camera
[0030]
The
[0031]
FIG. 8 is a flowchart showing the processing procedure of the camera shake calculation unit. First, a pattern matching area including a template pattern area is set (S650). Next, in the set pattern matching area, the matching area that matches most is searched while shifting the template pattern pixel by pixel (S660). Further, the position of the template pattern is compared with the matching region that most matches in step S660, and a movement vector composed of the movement direction and the movement amount is calculated (S670). Furthermore, it is checked whether or not all pattern matching using the set template pattern has been completed (S680). If not completed, the process returns to step S650, and a series of processing steps are repeated.
[0032]
FIG. 9 is an explanatory diagram illustrating an example of the movement vector calculated by the camera shake calculation unit. For each of a plurality of template patterns generated on the reference image, pattern matching is performed on the processed image to search for a matching region having a maximum similarity not less than a predetermined threshold value.
[0033]
When the matching region is detected, the representative position (for example, the upper left position of the rectangle) 918 of the processed image that matches the representative position (for example, the upper left position of the rectangle) 915 of the reference image is set as the shift position. The
[0034]
When the illustrated moving
[0035]
FIG. 10 is a functional block diagram illustrating the configuration of the camera shake correction unit. With respect to the movement vector for each template calculated by the camera
[0036]
Furthermore, when the distance between the start points and the distance between the end points are equal and the inclination of the reference vector and the inclination of the target vector are equal, the frequency
[0037]
The X-direction swing
[0038]
The
[0039]
FIG. 11 is a flowchart showing a correction procedure by the camera shake correction unit. First, with respect to the i-th movement vector, the distances between the start points and the end points are calculated for the i + 1-th to m-th movement vectors (S825), and i + 1-th to the i-th movement vector. The inclination is calculated for the m-th movement vector (S835). Next, the movement vectors having the same distance and the same inclination between the start points and the end points are set as the same vector (S845), the number of the same vectors is counted, and the vector frequency distribution is calculated (S855). It is checked whether all the movement vectors have been processed (S865). If not, the process returns to step S825. When all the vectors have been processed, a vector frequency distribution is created.
[0040]
Next, the maximum frequency vector is searched from the created frequency distribution (S875), and the X-direction fluctuation amount and the Y-direction fluctuation amount are calculated from the start point and end point of the vector (S880). Finally, the processed image is shifted in the X and Y directions by the calculated amount of shaking (S890). In step S875, if the maximum frequencies are all equal to or less than 1, the vector directions are disjoint and there is no regularity, so it is considered that camera shake has not occurred.
[0041]
FIG. 12 is an explanatory diagram showing a method for calculating the distance and inclination between corresponding vectors. The
[0042]
[Expression 1]
L1 = √ ((x2−x1) 2 + (Y2−y1) 2 )
L2 = √ ((x2 * −x1 *) 2 + (Y2 * -y1 *) 2 )
Where the reference vector V k And target vector V k + 1 Are the same, L1 = L2 should be satisfied. Actually, | L1−L2 | ≦ 1 to 2 pixels is regarded as an error range and regarded as the same vector.
[0043]
The
[0044]
[Expression 2]
M1 = (y1 * −y1) / (x1 * −x1)
M2 = (y2 * −y2) / (x2 * −x2)
Here, when M1 = M2 is satisfied, the reference vector V k And target vector V k + 1 Have the same slope. Actually, it is regarded as the same up to about M1-M2 = ± 1.
[0045]
FIG. 13 is a table in which the frequency distribution of the movement vector in FIG. 9 is calculated. That is, for the
[0046]
[Equation 3]
X-direction shaking (Δx) = x1 * −x1
Y-direction swing (Δy) = y1 * −y1
The camera
[0047]
In the above-described embodiment, it is assumed that both the movement direction and the movement amount of the movement vector match in calculating the frequency of the same vector. However, it is possible to match only the movement direction due to the regularity of image shift caused by camera shake. Further, although a plurality of template patterns are used, when the shift direction due to camera shake can be predicted in advance, the camera shake amount can be calculated even from the result of pattern matching using one template pattern.
[0048]
FIG. 14 is a functional block diagram illustrating a configuration of the moving object extraction unit. The moving
[0049]
[Expression 4]
H j = (H j-1 + 2H j + H j + 1 ) / 4-1
H 0 = (2H 0 + H 1 ) / 3-1
H n = (2H n + H n-1 ) / 3-1
However, J = 1,. . . , N-1.
[0050]
A binarization threshold
[0051]
The feature
[0052]
FIG. 15 is an explanatory diagram showing a binarization threshold value calculation method. The binarization threshold
[0053]
When there are many change areas of the difference image, the smoothed density frequency distribution is as shown in (a). When the density is searched from the maximum density value (max) 1110 to a smaller value, at least one
[0054]
On the other hand, when the difference area of the difference image is small, the density frequency distribution is as shown in (b) without the local
[0055]
[Equation 5]
th = max-C
However, th ≧ thmin (lower threshold).
[0056]
When the calculated threshold value th is smaller than a preset thmin, the lower limit threshold value thmin is set. The constant C is a value of a difference between the upper limit threshold thmax and the lower limit threshold thmin of white noise in a normal state calculated in advance from the normal image of the target image. Alternatively, any value that indicates the maximum fluctuation range of noise in the normal state of the target image may be used. For example, in a scene where the outdoor environment is monitored in the daytime, the upper limit threshold thmax is about 12 to 14 gradations, and the lower limit threshold thmin is about 4 to 5 gradations. Therefore, the constant C is about 7 to 10 gradations. Even when white noise is added to the maximum value of the changed portion, the noise is reduced by the smoothing process of
[0057]
FIG. 16 is a functional block diagram showing the configuration of the binarization processing unit. The
[0058]
For example, when the extraction target is a person, the
[0059]
In many cases, the binary image of the change area is separated from the object to be extracted, and the
[0060]
FIG. 17 is a functional block diagram illustrating a configuration of the feature amount calculation unit. The feature
[0061]
The
[0062]
FIG. 18 is a table for explaining the relationship between the detection target and the feature amount in the present embodiment. The detection target here is a moving object, which is a person, a small animal, or a vehicle. The feature amount uses an area, an aspect ratio, and a moving distance. When the detection target is a person, the characteristics of the person are that the moving distance is small, the area is medium, and the shape is vertically long. For example, when detecting a person who can be visually confirmed in an outdoor scene in the daytime, the threshold value of the moving distance may be about 20 to 30 pixels and the aspect ratio may be about 3: 1.
[0063]
When the detection target is a small animal, the movement distance is medium, the area is small, and the shape is horizontally long or the aspect ratio is approximately 1 as a feature of the small animal. When the detection target is a vehicle, as a feature of the vehicle, both the moving distance and the area are large, the shape is horizontally long, and the aspect ratio is about 1.
[0064]
The moving
[0065]
FIG. 19 is a flowchart showing the processing procedure of the moving object identification unit. First, the area is checked (S1300). If the area is medium, it is checked whether the shape is vertically long using the X projection distribution and the Y projection distribution (S1310). If the shape is vertically long, the moving distance is checked (S1315), and if the moving distance is small, it is determined as a person (S1320). If the shape is not vertically long in step S1310 or if the moving distance is not small in step S1315, both are determined to be disturbances (S1330).
[0066]
Next, if it is determined in step S1300 that the area is small, the shape is checked (S1340). If the shape is horizontally long or the aspect ratio is the same, the moving distance is checked (S1350). If the moving distance is medium Determined as a small animal (S1360). If the shape is vertically long in step S1340 or not moderate in step S1350, it is determined as a disturbance (S1370).
[0067]
If it is determined in step S1300 that the area is large, the moving distance is checked (S1380). If the moving distance is large, the shape is determined (S1390). If the shape is horizontally long or the aspect ratio is the same, the vehicle is determined. (S1395). If the moving distance is not large in step S1380 or the shape is vertically long in step S1390, it is determined as a disturbance (S1370).
[0068]
FIG. 20 is a display diagram of the movement trajectory of the identified person. When the
[0069]
That is, the moving
[0070]
【The invention's effect】
According to the camera shake correction method of the present invention, one frame of an input image obtained by photographing a target area with a surveillance camera is taken as a reference image and the next frame is taken as a processed image, and pattern matching between a template pattern created from the reference image and the processed image is performed. To calculate the movement vector for each pattern, find the movement vector (group) with the maximum frequency in which the movement direction or movement direction and movement amount are the same, calculate the camera shake amount from the movement direction and movement amount, and Since the image and the background of the processed image are aligned, it is possible to accurately detect the shaking of the surveillance camera even when there is a moving object or noise in the input image, and the image shift for the shaking correction can be performed only once. Processing becomes possible.
[0071]
Further, since the template pattern used for pattern matching uses a characteristic pattern having a density dispersion value of a certain value or more, the pattern matching is highly reliable and can be processed efficiently.
[0072]
According to the image monitoring system of the present invention, when a target object such as a person is identified from a feature amount including a moving amount of a moving object in a moving image, the feature amount is corrected by correcting a shift of the image due to a camera shake. Because it can be accurately grasped, it enables online monitoring with high reliability of the object and its action.
[Brief description of the drawings]
FIG. 1 is a functional block diagram showing a configuration of an image monitoring system according to an embodiment of the present invention.
FIG. 2 is a diagram for explaining the principle of detecting a moving object while the camera is shaking.
FIG. 3 is a functional block diagram illustrating a configuration of an image input unit.
FIG. 4 is a functional block diagram showing a configuration of a template pattern creation unit.
FIG. 5 is an explanatory diagram showing a template pattern generation method.
FIG. 6 is an explanatory diagram showing another method for generating a template pattern.
FIG. 7 is a functional block diagram illustrating a configuration of a camera shake calculation unit.
FIG. 8 is a flowchart showing a processing procedure for calculating a movement vector.
FIG. 9 is an explanatory diagram illustrating an example of calculating a movement vector of an image of one frame.
FIG. 10 is a functional block diagram illustrating a configuration of a camera shake correction unit.
FIG. 11 is a flowchart showing a processing procedure for camera shake correction.
FIG. 12 is an explanatory diagram illustrating a method for calculating a distance and a slope between corresponding vectors.
FIG. 13 is a table showing an example of a frequency distribution of movement vectors.
FIG. 14 is a functional block diagram showing a configuration of a moving object extraction unit.
FIG. 15 is an explanatory diagram showing a binarization threshold value calculation method.
FIG. 16 is a functional block diagram showing a configuration of a binarization processing unit.
FIG. 17 is a functional block diagram illustrating a configuration of a feature amount calculation unit.
FIG. 18 is a table explaining detection targets and their characteristics.
FIG. 19 is a flowchart showing an identification procedure of a moving object identification unit.
FIG. 20 is a display diagram showing the identification result of a moving person.
[Explanation of symbols]
100 ... ITV camera, 200 ... Image input unit, 400 ... Template pattern creation unit, 420 ... Template pattern generation unit, 440 ... Template pattern determination unit, 600 ... Camera shake calculation unit, 640 ... Pattern matching unit, 660 ... Camera shake vector Calculation unit, 800 ... camera shake correction unit, 820 ... distance calculation unit between corresponding vectors, 830 ... inclination calculation unit between corresponding vectors, 840 ... frequency distribution calculation unit of the same vector, 850 ... X-direction shake amount calculation unit, 860 ... Y-direction fluctuation amount calculation unit, 870 ... image shift unit, 1000 ... moving object extraction unit, 1020 ... difference image calculation unit, 1040 ... density frequency distribution calculation unit, 1060 ... noise removal unit, 1070 ... binary threshold calculation , 1080 ... binarization processing unit, 1090 ... feature amount calculation unit, 1200 ... moving object identification unit, 1400 ... display control unit, 1500 ... image storage unit, 1600 ... display device.
Claims (8)
前記画像の2フレームの一方を基準画像、他方を処理画像とし、前記基準画像に対し外部からの指示による注目点を与え、その注目点を中心として生成する矩形のテンプレートパターンを用いて前記処理画像のパターンマッチングを行ない、カメラ揺れによる画像ずれの規則性を利用して特定のマッチング領域を選択し、その移動ベクトルからカメラ揺れ量を算出して画像ずれを補正することを特徴とするカメラ揺れ補正方法。In a method of correcting camera shake of an image obtained by photographing a target area at a predetermined timing from a surveillance camera,
One of the two frames of the image is a reference image, the other is a processed image, and a point of interest is given to the reference image by an external instruction , and the processed image is generated using a rectangular template pattern generated around the point of interest. Camera shake correction, which performs pattern matching of images, selects a specific matching area using the regularity of image shift caused by camera shake, calculates the camera shake amount from the movement vector, and corrects the image shift Method.
前記画像の2フレームの一方を基準画像、他方を処理画像とし、前記基準画像に対し外部からの指示による注目点を与え、その注目点を中心とする矩形領域より作成した複数のテンプレートパターンを用いて前記処理画像のパターンマッチングを行ない、前記テンプレートパターン毎にマッチング領域との移動ベクトルを算出し、移動方向及び移動量が同一となる頻度最大の移動ベクトルを求め、該移動ベクトルの移動方向と移動量からカメラ揺れ量を算出し、前記特徴量を算出する前記基準画像と前記処理画像の背景を前記カメラ揺れ量に応じて位置合わせすることを特徴とするカメラ揺れ補正方法。In a camera shake correction method for an image monitoring system that identifies a moving object using a feature amount such as a movement amount from an image obtained by capturing a target area at a predetermined timing from a monitoring camera,
While the reference image of two frames of the image, and the other the processed image provides the attention point by an instruction from the outside against the reference image, using a plurality of template patterns created from the rectangular region centering the point of interest Pattern matching of the processed image is performed, a movement vector with a matching area is calculated for each template pattern, a movement vector having the same frequency as the movement direction and movement amount is obtained, and the movement direction and movement of the movement vector are determined. A camera shake correction method comprising: calculating a camera shake amount from an amount; and aligning a background of the reference image for calculating the feature amount and a background of the processed image according to the camera shake amount.
前記テンプレートパターンは前記基準画像上で、外部から指定された所定面積を有する矩形領域とすることを特徴とするカメラ揺れ補正方法。In claim 1 or 2,
The camera shake correction method according to claim 1, wherein the template pattern is a rectangular area having a predetermined area designated from outside on the reference image.
濃度の分散値が一定以上のテンプレートパターンのみを用いて、前記パターンマッチングを行なうことを特徴とするカメラ揺れ補正方法。In claim 1, 2 or 3,
A camera shake correction method, wherein the pattern matching is performed using only a template pattern having a density dispersion value of a certain value or more.
前記入力画像の2フレームの一方を基準画像、他方を処理画像としてA/D変換する画像入力手段、基準画像に対し外部からの指示による注目点を与え、その注目点を中心とする矩形領域から複数のテンプレートパターンを生成するテンプレートパターン作成手段、テンプレートパターン毎に前記処理画像に対するパターンマッチングして移動ベクトルを算出し、移動方向及び移動量が同一となる頻度が最大の移動ベクトルの前記移動方向と前記移動量からカメラ揺れ量を算出し、前記基準画像と前記処理画像の背景を位置合わせするカメラ揺れ補正手段を設けたことを特徴とする画像監視システム。In an image monitoring system for monitoring a moving object by sequentially inputting images taken at a predetermined timing with a monitoring camera such as a television camera,
While the reference image of two frames of the input image, an image input means for A / D conversion as the other processed images, a given target point by an instruction from the outside against the reference image, from the rectangular region centering the point of interest A template pattern creating means for generating a plurality of template patterns, calculating a movement vector by pattern matching with respect to the processed image for each template pattern, and the movement direction of the movement vector having the maximum frequency in which the movement direction and the movement amount are the same An image monitoring system comprising camera shake correction means for calculating a camera shake amount from the movement amount and aligning the background of the reference image and the processed image.
前記位置合わせ後の基準画像と処理画像の差分画像を基に、移動画像の移動距離を含む特徴量を算出し、該特徴量を利用した所定の判定基準に従って特定の移動物体の識別を行なう移動物体識別手段を設けたことを特徴とする画像監視システム。In claim 5,
Based on the difference image between the reference image after alignment and the processed image, a feature amount including a moving distance of the moving image is calculated, and a specific moving object is identified according to a predetermined determination criterion using the feature amount. An image monitoring system comprising an object identifying means.
前記差分画像の濃度頻度分布から2値化しきい値を決定し、前記差分画像を2値化処理する2値化処理手段を設け、この2値化画像から前記特徴量を算出することを特徴とする画像監視システム。In claim 6,
A binarization threshold value is determined from a density frequency distribution of the difference image, binarization processing means for binarizing the difference image is provided, and the feature amount is calculated from the binarized image. Image monitoring system.
前記特定の移動物体の位置座標を時系列に蓄積し、該移動物体の現時点の画像と過去の位置座標から移動軌跡を表示する表示処理手段を設けたことを特徴とする画像監視システム。In claim 6 or 7,
An image monitoring system comprising: a display processing unit that accumulates position coordinates of the specific moving object in time series and displays a movement locus from a current image of the moving object and past position coordinates.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP17771796A JP3776514B2 (en) | 1996-07-08 | 1996-07-08 | Camera shake correction method and image monitoring system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP17771796A JP3776514B2 (en) | 1996-07-08 | 1996-07-08 | Camera shake correction method and image monitoring system |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005349061A Division JP4040651B2 (en) | 2005-12-02 | 2005-12-02 | Camera shake correction method and image system |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH1023322A JPH1023322A (en) | 1998-01-23 |
JP3776514B2 true JP3776514B2 (en) | 2006-05-17 |
Family
ID=16035886
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP17771796A Expired - Lifetime JP3776514B2 (en) | 1996-07-08 | 1996-07-08 | Camera shake correction method and image monitoring system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3776514B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8350909B2 (en) * | 2008-05-30 | 2013-01-08 | Alpine Electronics, Inc. | Method and in-vehicle device for correcting alignment information representative of the alignment of an in-vehicle camera |
US10863092B2 (en) | 2017-02-28 | 2020-12-08 | Panasonic Intellectual Property Management Co., Ltd. | Imaging device and method for correcting shake of captured image |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4162333B2 (en) * | 1999-07-09 | 2008-10-08 | 株式会社東芝 | Monitoring system |
US6842196B1 (en) * | 2000-04-04 | 2005-01-11 | Smith & Nephew, Inc. | Method and system for automatic correction of motion artifacts |
JP4599679B2 (en) * | 2000-07-21 | 2010-12-15 | ソニー株式会社 | Information processing apparatus and method, and presentation system |
JP2005135014A (en) | 2003-10-28 | 2005-05-26 | Hitachi Kokusai Electric Inc | Object detection system |
JP2006229393A (en) * | 2005-02-16 | 2006-08-31 | Olympus Imaging Corp | Imaging device |
JP4900939B2 (en) * | 2006-11-28 | 2012-03-21 | キヤノン株式会社 | Method for controlling imaging apparatus |
CN101601276B (en) | 2006-12-22 | 2011-05-18 | 国立大学法人电气通信大学 | Jiggle measuring system and jiggle measuring method |
JP4818987B2 (en) * | 2007-05-21 | 2011-11-16 | オリンパスイメージング株式会社 | Imaging apparatus, display method, and program |
WO2009072264A1 (en) * | 2007-12-03 | 2009-06-11 | Panasonic Corporation | Image processing device, photographing device, reproducing device, integrated circuit, and image processing method |
JP5215707B2 (en) * | 2008-03-31 | 2013-06-19 | 能美防災株式会社 | Smoke detector |
KR101228328B1 (en) | 2011-01-31 | 2013-01-31 | 삼성테크윈 주식회사 | Display apparatus and method of controlling thereof |
KR101284219B1 (en) * | 2011-11-23 | 2013-07-09 | 부산대학교 산학협력단 | Correction of Motion of Vision-based Measurement System Using a Fixed Object |
JP5971746B2 (en) * | 2012-03-09 | 2016-08-17 | 株式会社日立ハイテクノロジーズ | Template matching positioning method and charged particle beam apparatus |
-
1996
- 1996-07-08 JP JP17771796A patent/JP3776514B2/en not_active Expired - Lifetime
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8350909B2 (en) * | 2008-05-30 | 2013-01-08 | Alpine Electronics, Inc. | Method and in-vehicle device for correcting alignment information representative of the alignment of an in-vehicle camera |
US10863092B2 (en) | 2017-02-28 | 2020-12-08 | Panasonic Intellectual Property Management Co., Ltd. | Imaging device and method for correcting shake of captured image |
Also Published As
Publication number | Publication date |
---|---|
JPH1023322A (en) | 1998-01-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4040651B2 (en) | Camera shake correction method and image system | |
JP3776514B2 (en) | Camera shake correction method and image monitoring system | |
JP3279479B2 (en) | Video monitoring method and device | |
US7982774B2 (en) | Image processing apparatus and image processing method | |
US20080181499A1 (en) | System and method for feature level foreground segmentation | |
JPH07168932A (en) | Method for search of human being in video image | |
JP4874150B2 (en) | Moving object tracking device | |
JP4969291B2 (en) | Moving object tracking device | |
JP2007188294A (en) | Method for detecting moving object candidate by image processing, moving object detection method for detecting moving object from moving object candidate, moving object detection apparatus, and moving object detection program | |
JP4578864B2 (en) | Automatic tracking device and automatic tracking method | |
KR100623835B1 (en) | Object detecting method and apparatus | |
JP4171310B2 (en) | Intruder detection method and intruder detection apparatus | |
JP3227179B2 (en) | Moving object detection and tracking processing method | |
JP4572190B2 (en) | Object detection device | |
JP2002157598A (en) | System for detecting invader | |
WO2020095644A1 (en) | State-change detection device, state-change detection method, and computer-readable recording medium | |
JP2005070985A (en) | Image processor, method and program | |
JPH1093957A (en) | Mobile object detecting method, device, system and storage medium | |
JPH0793558A (en) | Image monitoring device | |
KR102107137B1 (en) | Method and Apparatus for Detecting Event by Using Pan-Tilt-Zoom Camera | |
JPH0514891A (en) | Image monitor device | |
JP3423886B2 (en) | Moving object monitoring device | |
JP2002279429A (en) | Method for detecting infiltrating object | |
JPH06274625A (en) | Moving object tracking method for monitor image | |
JP2000341679A (en) | Picture recognizing device and monitoring device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20050630 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050705 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050902 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20050902 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20051004 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20051202 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20060221 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20060223 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100303 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110303 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120303 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130303 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130303 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140303 Year of fee payment: 8 |
|
EXPY | Cancellation because of completion of term |