JP3934279B2 - 移動領域追跡方法及び装置及び記録媒体 - Google Patents
移動領域追跡方法及び装置及び記録媒体 Download PDFInfo
- Publication number
- JP3934279B2 JP3934279B2 JP15318399A JP15318399A JP3934279B2 JP 3934279 B2 JP3934279 B2 JP 3934279B2 JP 15318399 A JP15318399 A JP 15318399A JP 15318399 A JP15318399 A JP 15318399A JP 3934279 B2 JP3934279 B2 JP 3934279B2
- Authority
- JP
- Japan
- Prior art keywords
- region
- area
- tracking
- overlap
- search range
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Description
【発明の属する技術分野】
本発明は、画像から特定の特徴を有する領域が複数あり、それぞれを追跡する際に、各領域が互いに重なり合う場合がある時でも、正しく追跡を行うための移動領域追跡方法及び装置及び記録媒体に関するものである。
【0002】
2次元の配列で各要素に値を持つ形式の情報を画像と定義する。連続的に入力される画像から、特定の特徴を有する画像領域を抽出し、その領域を連続的に追跡することは、移動を伴う領域の各時刻での位置や形状を得るために重要である。
【0003】
例えば、カメラから入力される画像を対象とすれば、3次元中に移動する物体を追跡できる。領域を追跡するには、何らかの運動モデルに基づき領域の動きを予測し、予測された位置の周囲から物体特徴を有する領域を抽出し、得られた領域(群)から、追跡領域に相当する領域を対応づけ、さらに次の追跡のために運動モデルを更新する必要がある。
【0004】
このとき、追跡している領域が、他の類似した領域と重なるならば、領域どうしの区別ができないので、追跡での対応付けが困難となる。そのため、運動モデルの正常な更新ができず、領域の動き予測を誤り、結果として追跡が不可能になることがある。重なり状態が数回繰り返せば、正しい運動モデルの推定が行えず、追跡は困難である。
【0005】
そこで、発明者らは、追跡中に他の領域との重なりを検知し、重なり中は領域の検索範囲を大きくし、領域周辺の広い範囲から物体領域を抽出することで重なっていた領域が再び離れることに備え、離反時に隠蔽中の運動モデルの変化に影響されず、安定した領域追跡を可能にする手法を発案したものである。
【0006】
本発明は、複数の移動物体をとらえる必要のある通行者監視や侵入者監視など、特定の特徴を有する対象の位置や移動軌跡を必要とする多くの監視システムに利用できるほか、手話やジェスチャ認識での各部位の追跡などにも利用できるものである。
【0007】
【従来の技術】
従来の方法では、初期状態の物体領域位置を初期画面中で既知、あるいは何らかの簡単な手法により取得し、次からは、カメラから連続的に入力される画像中から、初期位置を参考に対象領域を次の手順で追跡する。
【0008】
まず、カメラから連続的に入力される画像から、特定の物体に相当する特徴を有する画像領域を抽出する。次に、何らかの運動モデルに基づき領域の動きを予測し、予測された位置に最も距離が近い領域を追跡領域として対応付ける。そして、次の追跡のための運動モデルを更新する。
【0009】
例えば、今川和幸、呂山、猪木誠二、松尾英明「顔によるオクルージョンを考慮した手話動画像からの実時間掌追跡」電子情報通信学会、技術研究報告PRMU97−104〜110,pp.15−22の人の掌および顔を色情報に基づいて追跡する手法によると、最初は掌と顔が重ならないように配置し、あらかじめ定めた掌と顔の色分布のモデルを用いて、初期画面から掌と顔を含む領域を得る。得られた領域の大きさと位置により初期の掌と顔の領域を決定する。以降は、次の処理を繰り返し、各領域を追跡する。
【0010】
まず、現時刻の撮影画像と、前時刻の画像と現時刻の画像との差分画像の2つについて、前述の色モデルを用いて掌と顔の候補領域を得る(前者の画像の領域を static blobとし、後者の画像からの領域を motion blobとする)。次に、static blob で最も大きいものを顔領域とする。これは、顔の動きモデルとして、位置固定したことに相当する。掌領域は、次の手順で得る。
【0011】
掌の位置と速度を状態量とするカルマン(Kalman)フィルタにより掌の移動位置を予測し、顔を除く static blobと、 motion blobの中で、予測位置からの距離が一定値以内にある最も近いblobを掌領域として対応付ける。対応が求まれば、次回の動き予測のために、得られたblobの中心位置を観測位置として掌の運動パラメータをカルマンフィルタに基づいて更新する。このようなblobが存在しない時は、掌は顔と重なっていると判断し、前回の位置を観測位置として動きパラメータを更新していた。
【0012】
【発明が解決しようとする課題】
前記従来のものには、次のような課題があった。
【0013】
▲1▼まず、画像全体から画像特徴に基づいて領域を抽出すると時間がかかるものであった。例えば、色分布のモデルを用いて領域を抽出するには、画像の各画素に対して、色を表す3要素(例えばRGB)がモデルで示された範囲に入っているかの判断をする必要がある。画像の大きさをM×Nとすると3×M×Nの時間を要することになる。そのため、高速な処理を行うには、特別な機器が必要なものであった。
【0014】
▲2▼次に、複数の領域(物体)が重なり1つの領域として観測されそれぞれの領域が区別できない時に、重なった領域が重なり中に運動パターン(運動パラメータ)を大きく変化させると、それを観測できないので、領域が離反したときに予測した運動パラメータと大きく異なり追跡を失敗するという問題があった。これは、重なり領域に属す全ての領域の運動パラメータの更新を、それぞれの領域の真の中心位置(あるいは重心位置)でなく、重なり合う領域の和集合の中心位置(あるいは重心位置)を観測位置として代表させて行うために、重なり領域内での運動の変化を正しくモデル化できず、結果として離反した時に予測運動パラメータとの差異が非常に大きくなるためである。
【0015】
▲3▼この問題は、重なり合う領域間の大きさの違いが大きい時には、それら領域が重なりの前後で運動パラメータに変化がなくとも、同様に生じていた。なぜなら、領域の一部が重なった時から離れるまで、小さい方の領域の真の中心位置(重心位置)と、重なり合う領域の和集合で示す領域の中心位置(重心位置)は大きく異なるため誤った運動パラメータの推定を行うことになるからである。
【0016】
本発明は、このような従来の課題を解決し、領域探索範囲を追跡中の各々の領域の近傍の一定の範囲のみに限定し、複数の領域(物体)が重なった時には、通常より大きな領域探索範囲を設け、処理時間を大幅に減らし、領域の動きの変化に影響されず安定に領域を追跡することを目的とする。
【0017】
【課題を解決するための手段】
図1は本発明の移動領域追跡手法の概略説明図である。図1中、4は領域追跡部、5は重なり判定部である。
【0018】
本発明は前記従来の課題を解決するため次のように構成した。
(1):カメラから連続して入力される画像から特定の特徴を有する領域を追跡する移動領域追跡方法において、前時刻からの領域位置による領域の運動モデルから移動位置を予測し、該予測した移動位置の周囲のある範囲を探索範囲として領域の探索を行い、他の類似領域との重なりにより、前記探索範囲を大きくし、前記重なりの解消により前記探索範囲を小さくする。
【0020】
(2):前記(1)の移動領域追跡方法において、前記探索範囲を追跡する領域の予測位置の不確かさに応じた大きさとする。
【0021】
(3):前記(1)又は(2)の移動領域追跡方法において、前記領域の予測位置の周囲の解像度を下げて、前記探索範囲を可変する。
【0022】
(4):カメラから連続して入力される画像から特定の特徴を有する領域を追跡する移動領域追跡装置において、前時刻からの領域位置による領域の運動モデルから移動位置を予測し、該予測した移動位置の周囲のある範囲を探索範囲として領域の探索を行う領域追跡部4と、他の領域との重なりを判定する重なり判定部5とを備え、前記領域追跡部4は、重なり判定部5で判定した他の類似領域との重なりにより、前記探索範囲を大きくし、前記重なりの解消により前記探索範囲を小さくする。
【0023】
(5):カメラから連続して入力される画像から特定の特徴を有する領域の前時刻からの領域位置による運動モデルから領域の移動位置を予測し、該予測した移動位置の周囲のある範囲を探索範囲として領域の探索を行う領域探索手順と、他の領域との重なりを判定する重なり判定手順と、他の類似領域との重なりにより、前記探索範囲を大きくし、前記重なりの解消により前記探索範囲を小さくする手順とを実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体とする。
【0024】
(作用)
前記構成に基づく作用を説明する。
【0025】
特定の特徴を有する領域の運動モデルから移動位置を予測し、該予測した移動位置の周囲のある範囲を探索範囲として領域の探索を行い、他の類似領域との重なりに応じて前記探索範囲を可変する。このため、領域探索範囲を一定の範囲のみに限定して処理時間を大幅に減らし、安定に領域を追跡することができる。
【0026】
また、前記他の類似領域との重なりにより、前記探索範囲を大きくし、前記重なりの解消により前記探索範囲を小さくする。このため、領域探索範囲を一定の範囲のみに限定し、複数の領域(物体)が重なった時には、通常より大きな探索範囲とし、処理時間を大幅に減らし、領域の動きの変化に影響されず安定に領域を追跡することができる。
【0027】
さらに、前記探索範囲を追跡する領域の予測位置の不確かさに応じた大きさとする。このため、探索範囲を必要最小限とすることができる。
【0028】
また、前記領域の予測位置の周囲の解像度を下げて、前記探索範囲を可変する。このため、探索領域の大きさは一定にしても、広範囲の領域を探索することができる。
【0029】
さらに、領域追跡部4で特定の特徴を有する領域の運動モデルから移動位置を予測し、該予測した移動位置の周囲のある範囲を探索範囲として領域の探索を行い、重なり判定部5で他の領域との重なりの判定を行い、前記領域追跡部4で、重なり判定部5で判定した他の類似領域との重なりに応じて前記探索範囲を可変する。このため、領域探索範囲を一定の範囲のみに限定して処理時間を大幅に減らし、安定に領域を追跡することができる。
【0030】
また、特定の特徴を有する領域の運動モデルから領域の移動位置を予測し、該予測した移動位置の周囲のある範囲を探索範囲として領域の探索を行う領域探索手順と、他の領域との重なりを判定する重なり判定手順と、他の類似領域との重なりに応じて前記探索範囲を可変する手順とを実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体とする。このため、この記録媒体のプログラムをコンピュータにインストールすることで、処理時間を大幅に減らし、安定に領域を追跡することができる移動領域追跡装置を容易に提供することができる。
【0031】
【発明の実施の形態】(1):追跡方式の概要の説明
▲1▼:処理時間の短縮について
画像全体から画像特徴に基づいて領域を抽出すると時間が係る問題に対しては、画像全体を処理するのではなく、追跡中の各々の領域の近傍の一定の範囲のみに処理領域を限定することで、処理時間を大幅に減らすことができる。具体的には、追跡の対象となる各領域を独立に追跡し、追跡中の各々の領域について、運動パラメータにより予測される移動予測位置を中心とする一定の範囲のみを処理領域とするものである。
【0032】
▲2▼:重なった領域が離反したときの追跡の失敗について
(移動領域追跡手法の説明)
図1は移動領域追跡手法の概略説明図である。図1において、移動領域追跡手法には、領域追跡部4と重なり判定部5が設けてある。領域追跡部4は、複数の領域追跡部(1)、(2)・・・(n)からなる。各領域追跡部(1)、(2)・・・(n)は、それぞれ1つの追跡対象を追跡する。また、追跡で得られた領域の位置/形状/大きさの情報を重なり判定部へ送る。
【0033】
重なり判定部5では、各領域追跡部(1)、(2)・・・(n)から得られた領域の位置関係を元に重なりの有無を求める。もし重なりがあれば、重なったそれぞれの領域に重なりの発生を返す。重なったと判断された領域については、重なりが分離するときに領域の区別を行うための一つの情報とするために、重なり前の運動パラメータを記録しておく。
【0034】
(追跡処理の流れの説明)
追跡の手順は、領域追跡部4では、運動モデルにより領域の移動先を予測し、その予測された位置を中心にある一定範囲を探索して対象の特徴を持つ領域を抽出し、得られた領域(群)から、最も類似度が高い領域を対応付けることとなる。
【0035】
「探索範囲の決定」では追跡領域が重なるか否かで次のようにする。
・重なり判定部5で重ならないと判定されている領域については、固定の大きさ、あるいは追跡領域の位置の不確かさ、あるいはその両方に基づいた大きさを探索範囲とする。
【0036】
・一方、重なり判定部5で重なりがあると判定されている場合には、通常より大きな領域探索範囲を設けて、重なり領域の周囲を監視し、重なりが分離する領域がないかを調べる。重なり時に、探索領域により重なり領域以外に新たな領域が得られた場合は、領域が分離したとする。このような分離する領域があれば、領域の形状/大きさ/重なり前の運動パラメータのいずれか、あるいは一部、あるいは全部を参考に、どの領域が分離したかを決定する。分離した以降は、通常の重ならない場合の追跡に戻る。
【0037】
図2は領域追跡処理の流れの説明図である。以下、図2の処理S1〜処理S5に従って説明する。
【0038】
S1:領域追跡部4は、追跡領域の運動モデル(MMi)、運動パラメータ(MPi)等により追跡領域の移動後の位置を予測し、処理S2に移る。
【0039】
S2:領域追跡部4は、重なりの有無(OVFi)、重なっている領域の位置/形状(OVPi/OVSi)により探索範囲を算出し、処理S3に移る。
【0040】
S3:領域追跡部4は、算出した探索範囲から追跡領域に類似した特徴を持つ画像領域(領域の特徴モデル(RFi))の抽出を行い、処理S4に移る。
【0041】
S4:領域追跡部4は、追跡領域の移動後の領域に対応する領域の決定を行い、処理S5に移る。
【0042】
S5:領域追跡部4は、運動パラメータの更新(前回との差を調べる等により)してこの処理を終了する。
【0043】
(領域追跡状況の説明)
図3は領域追跡状況の説明図であり、図3(a)は時刻tの説明、図3(b)は時刻t+1の説明、図3(c)は時刻t+2の説明、図3(d)は時刻t+3の説明である。
【0044】
・図3(a)において、破線の楕円で示す前時刻の領域位置(i)から運動モデルにより現時刻tの領域位置(矢印の位置)を予測し、その周辺に破線の正方形で示す領域探索領域(範囲)を設けて、その探索範囲より追跡領域と類似した領域i(塗りつぶした楕円)を抽出し、その領域iを現時刻での追跡領域として得ている。そして、追跡領域iの重心点(黒丸)を観測位置として運動パラメータを更新する。なお、大きな破線の楕円は他の領域jであり、その矢印位置は動き予測位置を示している。
【0045】
・上記図3(a)の操作を繰り返すと、図3(b)において、時刻t+1で追跡領域iが他の領域jと重なった。このとき、観測位置は重なり領域全体の重心として得られるため、追跡領域の運動パラメータが真の領域のものとずれることになる。
【0046】
・図3(c)において、追跡領域iが他の領域jと重なったことを重なり判定部5で検出し、重なり時には領域探索領域を大きく設けたものである。このため、前時刻の領域位置(i)からの運動予測(矢印の位置)が誤っていても、領域探索範囲内に分離した領域iが得られ、分離の前後で運動が大きく変化する場合についても対象を見失うことなく、安定した追跡が可能となる。
【0047】
・図3(d)において、追跡領域iが他の領域jと分離した後は、通常の重ならない場合の追跡(拡大前の探索領域)に戻ることになる。
【0048】
(重なり時の探索領域の説明)
重なり時に大きくする探索領域は、次のようにすることができる。
【0049】
・領域が重なる時は、重ならない時の探索範囲に対して一定の割合(×k、k>1)だけ探索領域を大きくする。
【0050】
・領域が重なった場合は、重なった物体(領域)の大きさに、一定の大きさを付加(加算)した探索領域とする。
【0051】
・領域が重なった場合は、重なった物体(領域)の大きさに、元の追跡領域の一定の割合(×k、k>1)の大きさを付加した探索領域とする。
【0052】
・領域が重なった場合は、重なった物体(領域)の大きさに、追跡対象の不確かさに応じた大きさを付加あるいは乗じて探索領域を大きくする。
【0053】
・探索範囲を広げる代わりに、予測位置の周囲の解像度を下げて探索することで、探索領域の大きさは一定に、広範囲の領域を探索する。
【0054】
(2):移動領域追跡装置の説明
図4は移動領域追跡装置の構成図である。図4において、移動領域追跡装置には、テレビカメラ1、アナログデジタル変換器(A/D変換器)2、フレームメモリ3、領域追跡部4、重なり判定部5、出力部6が設けてある。
【0055】
テレビカメラ1は、移動物体を撮影する撮像装置である。A/D変換器2は、テレビカメラ1からの映像信号をデジタル画像に変換するものである。フレームメモリ3は、デジタル画像を蓄積するものである。領域追跡部4は、対象領域を追跡するものである。重なり判定部5は、領域間の重なりを判断するものである。出力部6は、追跡領域の位置および形状を出力するものである。
【0056】
テレビカメラ1より一定間隔毎に撮像され、デジタル画像がフレームメモリに蓄積される。追跡する対象領域の最初の位置は、任意の時点のデジタル画像について、人手もしくは自動的(説明省略)に与えられるものとする。そして、追跡対象は1つあるいはそれ以上の個数設定されているとする。以降は、対象領域(群)は、領域追跡部4により自動的に追跡される。なお、この領域追跡部4は、追跡したい領域の数だけ用意される。
【0057】
(3):領域追跡部の処理の説明
図5は領域追跡部の処理の説明図であり、図5(a)は、領域追跡部の処理の説明、図5(b)は重なり処理の説明である。
【0058】
図5(a)において、まず、領域追跡部4の領域追跡処理(S11)により 対象領域が追跡される。この追跡により得られた対象領域の位置Piおよび形状PSiを、重なり判定部5に送る。
【0059】
重なり判定部5では、他の領域との位置関係から領域の重なりの有無OViを求め、各領域に重なりの結果を返す。
【0060】
領域追跡部4は、領域の重なりの有無OViにより重なり処理を行う(S12)。
【0061】
図5(b)において、領域追跡部4の重なり処理は、重なり発生か否かの判断(S21)と前時刻で重なっていたか否かの判断(S22)を行い、重なりが発生し、しかも、前時刻では重なりのない状況、つまり最初の重なりの発生なら、重なりの分離に備えて領域の大きさAi、および運動パラメータMPiの保存を行う(S23)。それ以外の時は何もしない(処理終了)。
【0062】
(4):領域追跡処理の具体的な説明
領域追跡処理の手順は図2で説明したが、以下、ある領域Riの追跡過程を図6により説明する。図6は領域Riの追跡過程の説明図であり、図6において、領域の移動後の位置の予測では、前時刻t−1での領域の位置Pi(t−1)から、追跡対象領域Riの運動モデルMMiと運動パラメータMPiを用いて、現時刻tでの領域の位置Ppred(t)を予測する。運動モデルについては言及しないが、例えば等速運動モデルを用いれば、運動パラメータは領域の位置Pi(t)と速度vi(t)となり、予測位置はPo=Pi(t−1)として、Ppred(t)=vi(t)+Poとなる。
【0063】
・時間的に変化する運動パラメータを予測し、それに応じた次時刻の予測位置を算出するために、カルマンフィルタを用いることもできる。そのシステム式は、xxi(t)を時刻tでの状態ベクトル、zi(t)を時刻tでの観測ベクトル、Fiをシステム行列、Giをシステムノイズ行列、Hiを観測行列、wiをシステムノイズ、viを観測ノイズ、Sxiを状態量xxiの共分散行列、RRiを観測の共分散行列とすると、時刻tでの状態ベクトルxxi(t)と時刻tでの観測ベクトルzi(t)は以下で表される。
【0064】
xxi(t)=Fi×xxi(t−1)+Gi×wi
zi(t)=Hi×xxi(t−1)+vi
ここで、例えば等速運動を表すには、xxi(t)=(x,y,vx,vy)
(x,yは画像での位置、vx,vyはx方向およびy方向の速度)とすれば、システム行列Fi、システムノイズ行列Gi、観測行列Hiは次のようになる。
【0065】
【数1】
【0066】
v、wはシステムに依存するノイズ量である。ここで、時刻t−1での状態ベクトルをxxi(t−1)とすると、上式により領域の予測位置はzi(t)で与えられる。
【0067】
・次に、予測位置を中心に領域探索範囲Si(t)を設定する。領域探索範囲は、重なりの有無OViにより異なる。重なりが無い時には、追跡領域の位置の不確かさSpi(t)を引数とする関数Si(t)=Fs(Spi(t))を用いて決定する。Fs( )は例えば、Fs(x)=a1×x+b1で表され、特にa1=0の時は固定の大きさ、b1=0の時は追跡領域の位置の不確かさに基づいた探索範囲となる。カルマンフィルタを用いない時はa1=0とする。追跡領域の位置の不確かさSpi(t)は、状態共分散行列Sxiの中で位置に関する部分を切り出した部分共分散行列SSから求めた最大固有値となる。上記の例では、Sxiの各要素をsij(i=1〜4、j=1〜4)とすると、次のようになる。
【0068】
【数2】
【0069】
また、探索範囲の形状の決定は自由で、例えばFs( )の大きさを1辺とする正方形でもよい(長方形、円、楕円等でもよい)。
【0070】
一方、重なりがある場合には、探索範囲を領域どうしが重ならない場合に比べてk倍(k>1)の領域とする。具体的には、1辺の大きさをk倍、あるいは半径をk倍とする。
【0071】
・次に、領域探索範囲Si(t)内から、領域の特徴モデルRFiを用いて追跡対象に相当する特徴を有する抽出領域(群)Ejを得る。領域の特徴モデルについては限定しない。例えば、色情報を用いるなら、色を表す3つの要素(例えばRGB)の値にそれぞれ区間を設けて、規定区間内に3要素値が入れば領域として抽出する。このような区間を用いる他にも、色情報をベクトルと考え(色ベクトルCi)、事前に抽出対象の色分布について、色ベクトルが属する多次元空間での平均色ベクトルCmiと分散行列Sciを求めておき、入力された色ベクトルCjを、その平均色ベクトルと分散行列により求めた次のマララノビス距離Lciが閾値よりも小さい部分を残すことによっても得られる。
【0072】
Lci=(Cj−Cmi)T ×Sci-1×(Cj−Cmi)
このような特徴モデルにより得られた画素単位の集合から連接領域を求めて、ある一定値以上の面積を有する領域を残すことで、抽出領域群Ejを得る。なお、できるだけ大きな領域を得るために、連接領域を求める前に、膨張処理を加えてもよい。また、色情報の他にも輝度値や距離情報など様々な特徴でも同様に実現することができる。
【0073】
・これら抽出領域群Ejの中で最も追跡領域に類似した領域を対応付けることで、領域の追跡を行う。重なりなしと判定されている領域、または重なりありと判定されていても抽出領域が1つの場合については、領域の類似度には、抽出領域の中心(重心)位置Cjと領域予測位置Ppred(t)との距離や、抽出領域群Ejの面積と追跡領域Riの面積の差、の一方あるいは両方を用い、それらが小さいほど類似度が高いとする。また、重なりありと判定されて、抽出領域が2つ以上存在する場合には、重なっていた領域が分離したと考えられるので、重なり開始時に保存した物体面積との差が小さい方と対応付ける。なお、重なり前の運動パラメータの差の小さいものを対応付けることも可能である。
【0074】
対応が求まると、運動パラメータMPi(t)を更新する。更新方法は規定しないが、例として、単純な等速運動モデルならば、Vi(t+1)=Cj−Pi(t−1)、Pi(t)=Cjとなる。また、カルマンフィルタを用いる時は、対応する領域の中心位置をzzi(t)=(x,y)とすると、状態ベクトルxxi(t)は、次のように推定される。
【0075】
Sc=Fi×Sxi(t−1)×FiT
K=Sc×HiT ×(Hi×Sc×HiT +RRi)-1
として、
xxi(t)=Fi×xxi(t−1)+Gi×wi+K×(zzi(t)−(Hi×xxi(t−1)+vi))
(なお、Tは転置を表し、−1は逆変換を表す)
このとき、上記状態ベクトルxxi(t)から時刻tでの位置と速度の成分を抽出し、領域位置Ri(t)=(xx〔0〕,xx〔1〕)、運動パラメータ(移動速度)Vi(t)=(xx〔2〕,xx〔3〕)を得る。このとき、状態ベクトルの共分散行列Sxi(t)は以下のように更新される。
【0076】
Sxi(t)=(I−K×Hi)×Sc×(I−K×Hi)-1+Ki×RRi×KiT
この推定された状態共分散行列Sxi(t)は、時刻t+1での領域探索範囲Si(t+1)の算出に用いる。
【0077】
・重なり判定部5での処理手順は、全ての追跡領域の組み合わせ(RiとRj)について、追跡領域の位置と形状を元に2つの領域を画像座標において重ね合わせて、領域間に重なりがある場合には、重なりありと判定する。両領域に重なりがなければ、両領域とも重なりなしと判定する。
【0078】
重なりありの場合は、重なり合う領域の大きさの違いを調べ、大きさに顕著な違い(例えば倍程度)がある場合には、大きい方の領域は通常の重なっていない状態での追跡とし、小さい方を重なり有りとする。また、領域間の大きさがほぼ同じ時には、それら領域全てを重なり有りとする。そして、判定結果を各領域(Ri、Rj)の領域追跡部4に返す。
【0079】
図7は重なり判定部の処理の流れの説明図である。以下、図7の処理S31〜処理S44に従って説明する。
【0080】
S31:重なり判定部5は、i=1として、処理S32に移る。
S32:重なり判定部5は、領域Riの情報を得て、処理S33に移る。
【0081】
S33:重なり判定部5は、j=i+1として、処理S34に移る。
S34:重なり判定部5は、領域Rjの情報を得て、処理S35に移る。
【0082】
S35:重なり判定部5は、領域Riと領域Rjが重なっているかどうか判定する。この判定で領域Riと領域Rjが重なっていれば処理S36に移り、重なっていない場合は処理S39に移る。
【0083】
S36:重なり判定部5は、領域Riと領域Rjの大きさの差は大きいかどうか判定する。この判定で大きさの差が大きい場合は処理S37に移り、差が大きくない場合は処理S38に移る。
【0084】
S37:重なり判定部5は、大きい領域の方は重なっていないとし、小さい領域の方を重なっているとし、処理S40に移る。
【0085】
S38:重なり判定部5は、処理S36の判定で領域Riと領域Rjの大きさの差が大きくない場合、領域Riと領域Rjの両方とも重なっているとし、処理S40に移る。
【0086】
S39:重なり判定部5は、処理S35の判断で領域Riと領域Rjが重なっていない場合、領域Riと領域Rjの両方とも重なっていないとし、処理S40に移る。
【0087】
S40:重なり判定部5は、領域Riと領域Rjの領域追跡部4に重なり情報を返し、処理S41に移る。
S41:重なり判定部5は、j=j+1として、処理S42に移る。
【0088】
S42:重なり判定部5は、jの値が最大領域数以下かどうか判断する。この判断でjの値が最大領域数以下の場合は処理S34に戻り、もし最大領域数以下でない場合は処理S43に移る。
【0089】
S43:重なり判定部5は、i=i+1として、処理S44に移る。
S44:重なり判定部5は、iの値が最大領域数以下かどうか判断する。この判断でiの値が最大領域数以下の場合は処理S32に戻り、もし最大領域数以下でない場合はこの処理を終了する。
【0090】
(5):他の重なっている時の領域探索範囲の説明
・前記(4)の領域追跡処理の具体的において、領域Riの追跡で、領域が重なっているときの領域探索範囲Si(t)の設定方式を、追跡領域Riの周囲に、一定の大きさを付加(加算)して膨張させた領域を探索範囲とする方法に替えたもの。
【0091】
・前記(4)の領域追跡処理の具体的において、領域Riの追跡で、領域が重なっているときの領域探索範囲Si(t)の設定方式を、追跡領域Riの周囲に、重なり前の領域の大きさAiから何らかの関数Fs2(Ai)で定まる大きさを加えて膨張させた領域を探索範囲とする方法に替えたもの。関数Fs2( )の例として、Fs2(x)=a2×x+b2(a2、b2は定数)など。
【0092】
・前記(4)の領域追跡処理の具体的において、領域Riの追跡で、領域が重なっているときの領域探索範囲Si(t)の設定方式を、追跡領域Riの周囲に、追跡領域の位置の不確かさSpi(t)から何らかの関数Fs3(Spi)で定まる大きさを加えて膨張させた領域を探索範囲とする方法に替えたもの。関数Fs3( )の例として、Fs3(x)=a3×x+b3(a3、b3は定数)など。
【0093】
(6):重なっている時に解像度を下げる場合の説明
前記(4)(5)で説明したように探索範囲を実際に広げる代わりに、予測位置の周囲の解像度を下げて探索することで、探索領域の実際の大きさは一定にしながら、広範囲の領域を探索することができる。
【0094】
解像度を下げる方式は複数あるが、例えば、解像度を下げた画像の画素値を、解像度の低い画像の座標系から、対応する元の解像度での座標系へ座標変換したときに、変換された座標(一般には実数値で表される)に最も近い整数値で表せる座標の画素値としたもの。
【0095】
(具体的な解像度の変換方式の説明)
・図8は解像度変換方式の説明図であり、図8(a)は元の解像度での探索範囲の説明、図8(b)は低解像度での探索範囲の説明である。図8(a)において、元の解像度の座標系o−xy(oは画像の左上)で、探索範囲の中心位置をq(qx,qy)、幅および高さをww、hhとする。元の解像度での探索範囲の大きさに対する低解像度での探索範囲の大きさは1/mとする。図8(b)において、低解像度での座標系O−XY(Oは低解像度での探索範囲の左上)で、探索範囲の中心位置をQ(Qx,Qy)、幅および高さをww/m、hh/mとする。
【0096】
この時、低解像度での座標P(X,Y)から元の解像度での座標p(x,y)は、x座標、y座標それぞれの座標変換関数をhx(X)、hy(Y)とすると、hx、hyはそれぞれ次のように表せる。
【0097】
hx(X)=(X−Qx)×m+qx
hy(Y)=(Y−Qy)×m+qy
ここで、演算子[x]を「xを越えない最大の整数を返す」と定義する。元の解像度での任意の位置の画素値をg(x,y)、低解像度での任意の位置の画素値をG(X,Y)とするとき、本解像度変換方式は、次のようになる。
【0098】
G(X,Y)=g([hx(X)],[hy(Y)])
この変換を低解像度での探索範囲内の各位置で行うことで、低解像度での探索範囲画像が得られる。
【0099】
・上記解像度を下げる方式を次の方式とすることもできる。解像度を下げた画像の画素値を、解像度の低い画像の座標系から、対応する元の解像度での座標系へ座標変換したときに、周囲の4つの画素値を用いて線形補間(bilinear)した値としたもの。
【0100】
具体的には、以下の通り、低解像度の探索範囲内の点P(PX,PY)に対する元の解像度での画素の位置p(px,py)は、
px=hx(PX)
py=hy(PY)
で与えられる。このとき、低解像度での任意の画素値G(PX,PY)を以下の式により線形補間して求める。
【0101】
G(PX,PY)=[(px−[px])×((py−[py])×g([px],[py])+([py]+1−py)×g([px],[py]+1))+([px]+1−px)×((py−[py])×g([px]+1,[py])+([py]+1−py)×g([px]+1,[py]+1))]
この変換を低解像度での探索範囲内の各位置で行うことで、低解像度での探索範囲画像が得られる。
【0102】
・また、前記解像度を下げる方式を次の方式とすることもできる。解像度を下げた画像の画素値を、解像度の低い画像の座標系から、対応する元の解像度での座標系へ座標変換したときに、周囲の16の画素値を用いてsinc(シンク)補間した値としたもの。
【0103】
具体的には、以下の通り、低解像度の探索範囲内の点P(PX,PY)に対する元の解像度での画素の位置p(px,py)は、
px=hx(PX)
py=hy(PY)
で与えられる。位置p(px,py)は、一般には実数値で与えられる。ここで、
ppx=[px]
ppy=[py]
とおき、(ppx、ppy)の周囲の座標を以下のように定義する。
【0104】
ppx(1)=ppx−1、ppx(2)=ppx、ppx(3)=ppx+1、ppx(4)=ppx+2
ppy(1)=ppy−1、ppy(2)=ppy、ppy(3)=ppy+1、ppy(4)=ppy+2
xとy方向の4点ずつ、つまり16点で定義される位置について、重み係数WW(i,j)を以下のように定義する。
【0105】
i=1〜4、j=1〜4の16点について
WW(i,j)=sin(sqrt((px−ppx(i))2 +(py−ppy(j))2 ))/sqrt((px−ppx(i))2 +(py−ppy(j))2 )
このとき、低解像度での任意の画素値G(PX,PY)を以下の式により補間して求める。
【0106】
【数3】
【0107】
この変換を低解像度での探索範囲内の各位置で行うことで、低解像度での探索範囲画像が得られる。
【0108】
・さらに、前記解像度を下げる方式を次の方式とすることもできる。解像度を下げた画像の画素値を、解像度の低い画像の座標系から、対応する元の解像度での座標系へ座標変換したときに、周囲の16の画素値を用いてcubic(キュービック:3次元)補間した値としたもの。
【0109】
具体的には、次の通り、低解像度の探索範囲内の点P(PX,PY)に対する元の解像度での画素の位置p(px,py)は、
px=hx(PX)
py=hy(PY)
で与えられる。位置p(px,py)は、一般には実数値で与えられる。ここで、
ppx=[px]
ppy=[py]
とおき、(ppx、ppy)の周囲の座標を以下のように定義する。
【0110】
ppx(1)=ppx−1、ppx(2)=ppx、ppx(3)=ppx+1、ppx(4)=ppx+2
ppy(1)=ppy−1、ppy(2)=ppy、ppy(3)=ppy+1、ppy(4)=ppy+2
xとy方向の4点ずつ、つまり16点で定義される位置について、重み係数WW(i,j)を以下のように定義する。
【0111】
i=1〜4、j=1〜4の16点について
このとき、低解像度での任意の画素値G(PX,PY)を以下の式により補間して求める。
【0112】
【数4】
【0113】
この変換を低解像度での探索範囲内の各位置で行うことで、低解像度での探索範囲画像が得られる。
【0114】
以上実施の形態で説明したように、画像全体から追跡領域に類似した特徴を有する領域を抽出するのではなく、追跡中の各々の領域の近傍の一定の範囲のみに処理領域を限定することで、処理時間を大幅に減らすことができる。
【0115】
また、複数の領域(物体)が重なり1つの領域として観測され、それぞれの領域が区別できない時でも、重なり状態を判断して、重なり時には通常より大きな領域探索範囲を設けて、重なり領域の周囲の広い部分を監視することで、重なった領域が重なり中に運動パターン(運動パラメータ)を変化させても、その変化に影響されることなく、安定に領域を追跡する事ができる。
【0116】
(6):プログラムのインストールの説明
領域追跡部、重なり判定部は、プログラムで構成でき、主制御部(CPU)が実行するものであり、主記憶に格納されているものである。このプログラムは、一般的な、コンピュータで処理されるものである。このコンピュータは、主制御部、主記憶、ファイル装置、表示装置、キーボード等の入力手段である入力装置などのハードウェアで構成されている。
【0117】
このコンピュータに、本発明のプログラムをインストールする。このインストールは、フロッピィ、光磁気ディスク等の可搬型の記録(記憶)媒体に、これらのプログラムを記憶させておき、コンピュータが備えている記録媒体に対して、アクセスするためのドライブ装置を介して、或いは、LAN等のネットワークを介して、コンピュータに設けられたファイル装置にインストールされる。そして、このファイル装置から処理に必要なプログラムステップを主記憶に読み出し、主制御部が実行するものである。
【0118】
【発明の効果】
以上説明したように、本発明によれば次のような効果がある。
(1):特定の特徴を有する領域の運動モデルから移動位置を予測し、該予測した移動位置の周囲のある範囲を探索範囲として領域の探索を行い、他の類似領域との重なりに応じて前記探索範囲を可変するため、領域探索範囲を一定の範囲のみに限定して処理時間を大幅に減らし、安定に領域を追跡することができる。
【0119】
(2):他の類似領域との重なりにより、前記探索範囲を大きくし、前記重なりの解消により前記探索範囲を小さくするため、処理時間を大幅に減らし、領域の動きの変化に影響されず安定に領域を追跡することができる。
【0120】
(3):探索範囲を追跡する領域の予測位置の不確かさに応じた大きさとするため、探索範囲を必要最小限とすることができる。
【0121】
(4):領域の予測位置の周囲の解像度を下げて、前記探索範囲を可変するため、探索領域の大きさは一定にしても、広範囲の領域を探索することができる。
【0122】
(5):領域追跡部で特定の特徴を有する領域の運動モデルから移動位置を予測し、該予測した移動位置の周囲のある範囲を探索範囲として領域の探索を行い、重なり判定部で他の領域との重なりの判定を行い、前記領域追跡部で他の類似領域との重なりに応じて前記探索範囲を可変するため、領域探索範囲を一定の範囲のみに限定して処理時間を大幅に減らし、安定に領域を追跡することができる。
【0123】
(6):特定の特徴を有する領域の運動モデルから領域の移動位置を予測し、該予測した移動位置の周囲のある範囲を探索範囲として領域の探索を行う領域探索手順と、他の領域との重なりを判定する重なり判定手順と、他の類似領域との重なりに応じて前記探索範囲を可変する手順とを実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体とするため、この記録媒体のプログラムをコンピュータにインストールすることで、処理時間を大幅に減らし、安定に領域を追跡することができる移動領域追跡装置を容易に提供することができる。
【図面の簡単な説明】
【図1】本発明の移動領域追跡手法の概略説明図である。
【図2】実施の形態における領域追跡処理の流れの説明図である。
【図3】実施の形態における領域追跡状況の説明図である。
【図4】実施の形態における移動領域追跡装置の構成図である。
【図5】実施の形態における領域追跡部の処理の説明図である。
【図6】実施の形態における領域Riの追跡過程の説明図である。
【図7】実施の形態における重なり判定部の処理の流れの説明図である。
【図8】実施の形態における解像度変換方式の説明図である。
【符号の説明】
4 領域追跡部
5 重なり判定部
Claims (5)
- カメラから連続して入力される画像から特定の特徴を有する領域を追跡する移動領域追跡方法において、
前時刻からの領域位置による領域の運動モデルから移動位置を予測し、該予測した移動位置の周囲のある範囲を探索範囲として領域の探索を行い、
他の類似領域との重なりにより、前記探索範囲を大きくし、前記重なりの解消により前記探索範囲を小さくすることを特徴とした移動領域追跡方法。 - 前記探索範囲を追跡する領域の予測位置の不確かさに応じた大きさとすることを特徴とした請求項1記載の移動領域追跡方法。
- 前記領域の予測位置の周囲の解像度を下げて、前記探索範囲を可変することを特徴とする請求項1又は2記載の移動領域追跡方法。
- カメラから連続して入力される画像から特定の特徴を有する領域を追跡する移動領域追跡装置において、
前時刻からの領域位置による領域の運動モデルから移動位置を予測し、該予測した移動位置の周囲のある範囲を探索範囲として領域の探索を行う領域追跡部と、
他の領域との重なりを判定する重なり判定部とを備え、
前記領域追跡部は、重なり判定部で判定した他の類似領域との重なりにより、前記探索範囲を大きくし、前記重なりの解消により前記探索範囲を小さくすることを特徴とした移動領域追跡装置。 - カメラから連続して入力される画像から特定の特徴を有する領域の前時刻からの領域位置による運動モデルから領域の移動位置を予測し、該予測した移動位置の周囲のある範囲を探索範囲として領域の探索を行う領域探索手順と、
他の領域との重なりを判定する重なり判定手順と、
他の類似領域との重なりにより、前記探索範囲を大きくし、前記重なりの解消により前記探索範囲を小さくする手順と
を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP15318399A JP3934279B2 (ja) | 1999-06-01 | 1999-06-01 | 移動領域追跡方法及び装置及び記録媒体 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP15318399A JP3934279B2 (ja) | 1999-06-01 | 1999-06-01 | 移動領域追跡方法及び装置及び記録媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2000348180A JP2000348180A (ja) | 2000-12-15 |
JP3934279B2 true JP3934279B2 (ja) | 2007-06-20 |
Family
ID=15556869
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP15318399A Expired - Fee Related JP3934279B2 (ja) | 1999-06-01 | 1999-06-01 | 移動領域追跡方法及び装置及び記録媒体 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3934279B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101924933A (zh) * | 2009-04-10 | 2010-12-22 | 特克特朗尼克国际销售有限责任公司 | 跟踪视频帧序列中感兴趣区域的方法 |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005331603A (ja) * | 2004-05-18 | 2005-12-02 | Sony Corp | 画像処理装置およびその方法 |
JP2008107925A (ja) * | 2006-10-23 | 2008-05-08 | Sharp Corp | 物体検出処理回路および画像処理システム、電子情報機器 |
JP5024116B2 (ja) * | 2007-05-02 | 2012-09-12 | 株式会社ニコン | 被写体追跡プログラム、および被写体追跡装置 |
US8253564B2 (en) * | 2009-02-19 | 2012-08-28 | Panasonic Corporation | Predicting a future location of a moving object observed by a surveillance device |
JP2010197467A (ja) * | 2009-02-23 | 2010-09-09 | Casio Computer Co Ltd | 撮影装置、及びプログラム |
CN102867311B (zh) * | 2011-07-07 | 2015-11-25 | 株式会社理光 | 目标跟踪方法和目标跟踪设备 |
JP6550881B2 (ja) * | 2014-07-14 | 2019-07-31 | 株式会社リコー | 立体物検出装置、立体物検出方法、立体物検出プログラム、及び移動体機器制御システム |
CN105761245B (zh) * | 2016-01-29 | 2018-03-06 | 速感科技(北京)有限公司 | 一种基于视觉特征点的自动跟踪方法及装置 |
US11348245B2 (en) * | 2019-06-21 | 2022-05-31 | Micron Technology, Inc. | Adapted scanning window in image frame of sensor for object detection |
-
1999
- 1999-06-01 JP JP15318399A patent/JP3934279B2/ja not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101924933A (zh) * | 2009-04-10 | 2010-12-22 | 特克特朗尼克国际销售有限责任公司 | 跟踪视频帧序列中感兴趣区域的方法 |
Also Published As
Publication number | Publication date |
---|---|
JP2000348180A (ja) | 2000-12-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4643766B1 (ja) | 移動体検出装置及び移動体検出方法 | |
CN109670474B (zh) | 一种基于视频的人体姿态估计方法、装置及设备 | |
CN101960490B (zh) | 图像处理方法和图像处理设备 | |
JP6641163B2 (ja) | オブジェクト追跡装置及びそのプログラム | |
JP4542207B1 (ja) | 移動体検出方法および移動体検出装置 | |
JP4456181B1 (ja) | 移動体検出方法及び移動体検出装置 | |
JP6184271B2 (ja) | 撮像管理装置、撮像管理システムの制御方法およびプログラム | |
JP4181473B2 (ja) | 映像オブジェクト軌跡合成装置、その方法及びそのプログラム | |
US20220254157A1 (en) | Video 2D Multi-Person Pose Estimation Using Multi-Frame Refinement and Optimization | |
CN110428448A (zh) | 目标检测跟踪方法、装置、设备及存储介质 | |
EP3010229B1 (en) | Video surveillance system, video surveillance device | |
JP3934279B2 (ja) | 移動領域追跡方法及び装置及び記録媒体 | |
KR101062225B1 (ko) | 감시 카메라를 이용한 지능형 영상 검색 방법 및 시스템 | |
CN110533694A (zh) | 图像处理方法、装置、终端及存储介质 | |
CN112465855B (zh) | 客流统计方法、装置、存储介质及设备 | |
JP2010140425A (ja) | 画像処理システム | |
JP2010028594A (ja) | 移動物体監視装置 | |
CN111524086A (zh) | 运动物体检测装置、运动物体检测方法、存储介质 | |
JP2004348303A (ja) | 物体検出装置及びプログラム | |
JP4283532B2 (ja) | 画像認識装置および方法 | |
KR102614895B1 (ko) | 동적 카메라 영상 내의 객체를 실시간 추적하는 시스템 및 방법 | |
JP2012084056A (ja) | 物体検出装置 | |
JPH11225310A (ja) | 映像静止画表示方法及び装置並びに映像静止画表示プログラム格納記録媒体 | |
WO2022049820A1 (ja) | 骨格検出システム | |
JP2012226403A (ja) | 画像領域追跡装置、画像領域追跡方法、および、コンピュータ・プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040324 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20061109 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20061121 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070118 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070313 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070315 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100330 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110330 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110330 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120330 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130330 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130330 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140330 Year of fee payment: 7 |
|
LAPS | Cancellation because of no payment of annual fees |