JP5147760B2 - 画像監視装置 - Google Patents

画像監視装置 Download PDF

Info

Publication number
JP5147760B2
JP5147760B2 JP2009048409A JP2009048409A JP5147760B2 JP 5147760 B2 JP5147760 B2 JP 5147760B2 JP 2009048409 A JP2009048409 A JP 2009048409A JP 2009048409 A JP2009048409 A JP 2009048409A JP 5147760 B2 JP5147760 B2 JP 5147760B2
Authority
JP
Japan
Prior art keywords
person
proximity
unit
positions
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009048409A
Other languages
English (en)
Other versions
JP2010206404A (ja
JP2010206404A5 (ja
Inventor
裕二 中沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2009048409A priority Critical patent/JP5147760B2/ja
Publication of JP2010206404A publication Critical patent/JP2010206404A/ja
Publication of JP2010206404A5 publication Critical patent/JP2010206404A5/ja
Application granted granted Critical
Publication of JP5147760B2 publication Critical patent/JP5147760B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、監視空間が撮像された画像を処理して監視空間内の人物の位置を検出する画像監視装置に関し、特に複数の撮像部により撮像された画像から人物の位置を検出する画像監視装置に関する。
広範囲に亘って人物の行動を監視するために、複数のカメラを設置して各カメラにより撮像された画像のそれぞれから人物の位置を検出し、各画像から検出された人物位置の情報を統合することが行われてきた。
人物位置の情報を統合するために、特許文献1においては重心位置が近い情報同士を同一人物の情報として統合している(0015段落、0033段落)。
特開平7−49952号公報
しかしながら、検出される人物位置には一般に誤差が含まれ、検出誤差は誤った統合を引き起こしていた。検出誤差の要因は、撮像される人物像の一部又は全部が他の人物や障害物に隠蔽されるオクルージョン、影、量子化誤差など様々である。中でも特にオクルージョンによる検出誤差は大きく、統合を誤る主要因となっていた。
例えば、図11(a)は、障害物91によるオクルージョンの影響で人物90の下半身部分が隠蔽され、人物90の上半身部分の重心が人物90の重心位置92として検出された様子を表している。人物90の重心は、本来は上半身と下半身を合わせた領域の重心位置93の位置に検出されるべきものである。
検出誤差が含まれると、本来同一人物のものである人物位置同士が離間したり、離間した人物位置が他人の人物位置と近接したりしてしまう。そのため、従来技術においては、本来同一人物のものである人物位置同士を別々の人物としてしまったり、本来他人のものである人物位置同士を同一人物としてしまうという問題があった。
本発明は、上記問題を鑑みてなされたものであり、複数の撮像部により撮像された画像から検出された人物位置に誤差が含まれていても、同一人物の人物位置を誤りなくまとめて人物位置の情報を統合できる画像監視装置を提供することを目的とする。
本願発明者は、上記問題点を解決する画像監視装置を実現するために研究を行い、その結果、縦長である人物の検出誤差は人物の幅方向よりも高さ方向に大きく現れること、高さ方向の検出誤差は撮像部から人物への投影線に沿って現れることが判明した。例えば、図11(a)の例において検出された人物位置92は、図11(b)に示すように投影線96に沿って撮像部から遠ざかる位置に存在する人物像94の重心位置95とみなされてしまうのである。本発明はこの知見を利用したものである。
本発明にかかる画像監視装置は、互いに視野の一部を共有し当該視野内を移動する人物を互いに異なる方向から撮像して監視画像を出力する複数の撮像部と、監視画像から人物が存在するローカル座標系での人物位置を検出する人物位置検出手段と、撮像部ごとに設定されたローカル座標系から複数の撮像部に共通して設定された共通座標系へ人物位置を射影する射影手段と、複数の撮像部により同時に撮像された監視画像の一方から検出された人物位置及び他方の監視画像から検出された人物位置のペアを設定して当該ペアの近接度を算出する近接度算出手段と、近接度がより高いペアを他のペアよりも優先的に同一人物の人物位置としてまとめることで人物位置の情報を統合する人物位置統合手段と、を備え、近接度算出手段は、共通座標系において一方の人物位置と当該人物位置が検出された撮像部の位置とを結ぶ投影線と他方の人物位置との間の線点間距離を算出し、当該線点間距離が近いほど近接度を高く算出することを特徴とする。
かかる構成によれば、投影線に沿って現れる高さ方向の検出誤差を無視した線点間距離に基づき近接度が算出されて近接度の高いペアが優先的に同一人物の人物位置としてまとめられるため、人物位置に検出誤差が含まれていても同一人物の人物位置を高精度にまとめて人物位置の情報を統合できる。
また、本発明の好適な態様においては、近接度算出手段は、一方の人物位置と他方の人物位置を入れ替えた線点間距離をさらに算出し、算出された2つの線点間距離のうち小さい方の線点間距離を近接度の算出に用いる。
かかる構成によれば、投影線に沿って現れる高さ方向の検出誤差がより大きい方の人物位置への投影線に対する線点間距離が選択的に近接度の算出に用いられ、投影線に沿う誤差成分を無視する効果が最大限に発揮されるため、同一人物の人物位置をより高い精度でまとめて人物位置の情報を統合できる。
また、本発明の好適な態様においては、近接度算出手段は、線点間距離が人物の幅に相当する所定しきい値を超える場合に近接度を予め設定された最小値とする。
かかる構成によれば、高さ方向の検出誤差がほぼ無視されて人物の幅方向の検出誤差が主成分である線点間距離から不当に高い近接度が算出されなくなるので、他人の人物位置を同一人物の人物位置としてまとめる誤りが減じられる。
また、本発明の好適な態様においては、近接度算出手段は、ペアを構成する人物位置間の2点間距離をさらに算出し、当該2点間距離が大きいほど近接度を小さく補正する。
かかる構成によれば、2点間距離が大きいほど近接度を小さく補正することで投影線に沿って現れる高さ方向の検出誤差を無制限に許容することがなくなるので、他人の人物位置を同一人物の人物位置としてまとめる誤りが減じられる。
また、本発明の好適な態様においては、近接度算出手段は、予め設定された上限値を超える近接度を上限値に修正する。
かかる構成によれば、検出誤差が少なく補正の程度が小さい同一人物のペアについて近接度がクリッピングされ、検出誤差が大きく補正の程度が大きい同一人物のペアについての近接度と近い近接度となるよう調整されるので、上記補正をより効果的に作用させることができる。
また、本発明の好適な態様においては、人物位置統合手段は、人物位置のそれぞれについて当該人物位置に対して算出された近接度の最大値を上限値から減じた単独度を算出し、単独度が近接度より高い人物位置はまとめずに統合する。
かかる構成によれば、単独度が近接度より高い人物位置はまとめずに統合するので、低めの近接度が算出されたペアを無理にまとめることがなくなり、より高い精度で人物位置の情報を統合できる。
また、本発明の好適な態様においては、人物位置統合手段は、同一人物とされた人物位置の平均位置を統合後の当該人物の位置として算出することで、同一人物の人物位置をひとつにまとめることができる。
本発明によれば、複数の撮像部により撮像された画像から検出された人物位置の情報に検出誤差が生じていても、これらの人物位置の情報を適確に統合できる。
本実施の形態に係る画像監視装置の全体構成図である。 画像監視装置の各部の配置例を示す図である。 近接度を算出する関数f(・)を例示した図である。 信頼度を算出する関数g(・)を例示した図である。 人物位置が検出される様子を例示した図である。 近接度を算出する様子を例示した図である。 近接度、単独度の算出例を示す図である。 統合評価値の算出例を示す図である。 画像監視処理のフローチャートである。 人物情報統合処理のフローチャートである。 人物位置の検出誤差を例示した図である。
本発明の好適な実施形態の一例として、監視空間を移動する人物の移動軌跡を分析して不審人物を検知する画像監視装置について説明する。
<画像監視装置1の構成>
図1,図2を参照して画像監視装置1の構成を説明する。図1は機能ブロック図、図2は配置例を示している。
画像監視装置1は、複数のカメラユニット2と統合ユニット3とがLAN等の通信網4により接続されてなる。カメラユニット2のそれぞれは自身の視野内に存在する人物の位置(人物位置)を検出し、検出された人物位置を統合ユニット3に送信する。統合ユニット3は各カメラユニット2から受信した人物位置の情報を統合する。このとき同一人物による人物位置はひとつにまとめられる。そして統合ユニット3は統合された人物位置を基に人物の行動を認識して不審行動を検知する。画像監視装置1においては統合により広範囲かつ死角の少ない監視が可能となる。また人物位置の情報を基礎とするためカメラユニット2の間でカラーキャリブレーションを行う必要がない、カメラユニット2と統合ユニット3の間の通信量が少ないなどの利点が得られる。尚、各ユニット2及び3は、互いに通信を行うことでタイミングを合わせ、同期して動作しているものとする。
カメラユニット2のそれぞれは、撮像部20と、カメラ記憶部21と、カメラ通信部23とがカメラ制御部22に接続されてなる。
撮像部20は所謂監視カメラである。各撮像部20は、一定時間おきに監視空間を撮像して監視画像を出力する。各撮像部20は少なくとも隣り合う撮像部20と互いに視野50の一部を共有する程度に離間させて天井や壁などに設置され、当該視野内を移動する人物を互いに異なる方向から同時に撮像する。これによりひとつの撮像部20により撮像された監視画像においてオクルージョンが生じている人物について、オクルージョンが生じていない監視画像を別の撮像部20から同時に得ることができる。好適には各撮像部20は、魚眼レンズを有する監視カメラで構成され、その光軸を鉛直下方に向けて設置される。また好適には、各撮像部20の撮像範囲のうち画像処理により人物位置を検出できる解像度が得られる撮像範囲が各視野50とみなす設定が予め為される。
カメラ記憶部21は、ROM(Read Only Memory)、RAM(Random Access Memory)等のメモリ装置である。各ユニットのアドレスや各種プログラムを予め記憶し、また視野内の人物の画像特徴(色ヒストグラム)を表すテンプレート、監視画像、視野内に人物がいないときの背景画像等のデータを必要に応じて記憶する。
カメラ制御部22は、DSP(Digital Signal Processor)、MCU(Micro Control Unit)等の演算装置である。カメラ制御部22は、人物位置検出手段220等の動作を記述したプログラムをカメラ記憶部21から読み出して実行することにより各手段として機能する。
人物位置検出手段220は、監視画像から人物が存在する人物位置を検出し、検出された人物位置をカメラ通信部23に出力する。人物位置の検出は次のようにして探索的に行われる。人物位置検出手段220は、背景画像と監視画像との差分処理により変化領域を抽出し、変化領域内に候補位置を設定して当該候補位置を重心とするテンプレートと同一の形状及び大きさの領域を設定し、当該領域において監視画像から抽出した色ヒストグラムとテンプレートの色ヒストグラムの類似度を算出する。類似度の算出は順次候補位置を移動させながら繰り返され、人物位置検出手段220は、極大且つ予め設定された基準値以上の類似度が算出された候補位置を人物位置として検出する。
上述したように、人物位置としては人物像の重心位置が検出される。別の実施形態では、人物位置として頭頂を想定した人物像の最上部位置、足元を想定した人物像の最下部位置などを採用することもできる。しかし人物像の外縁部である最上部位置や最下部位置は変化領域抽出の誤差の影響を受けやすい、最上部位置は投影線の俯角が小さくなるため後述する射影の誤差が大きくなる、最下部位置はオクルージョンにより欠落しやすく、その抽出誤差が大きいといった欠点がある。一方、重心位置はこれらの抽出誤差や射影誤差の影響が稀釈されて小さくなる点で最上部位置や最下部位置より優れる。
また、人物位置検出手段220は、変化領域が抽出されないときの監視画像で置き換える背景画像の更新、いずれのテンプレートとも一致しない変化領域の画像特徴を新規追加するテンプレートの更新、いずれの変化領域とも一致しないテンプレートを破棄する更新などのデータ更新を適宜行う。
カメラ通信部23は、通信網4に適合した通信回路である。カメラ通信部23は、通信網4に接続され、人物位置検出手段220から入力された人物位置を通信網4経由で統合ユニット3に送信する。
統合ユニット3は、統合通信部30と、操作部31と、統合記憶部32と、出力部34とが統合制御部33に接続されてなる。
統合通信部30は、通信網4に適合した通信回路である。統合通信部30は、通信網4に接続され、カメラユニット2のそれぞれから人物位置を通信網4経由で受信する。
操作部31は、タッチパネルディスプレイ等のユーザインターフェース装置である。画像監視装置1の管理者が各種設定の入力に用いる。
統合記憶部32は、ROM、RAM等のメモリ装置である。各ユニットのアドレスや各種プログラムを予め記憶し、また各種データを必要に応じて記憶する。各種データには、撮像部20の設置位置CAM、射影規則320や移動軌跡321が含まれる。
射影規則320は、撮像部20ごとに設定された監視画像面のローカル座標系から全ての撮像部20に共通して設定された共通座標系へ人物位置を射影する座標変換式である。
撮像部20−1のローカル座標系は、撮像面51−1上で互いに直交するx1軸及びy1軸で表される。同様に撮像部20−2のローカル座標系は撮像面51−2上で互いに直交するx2軸及びy2軸で表される。
共通座標系には、実際の監視空間52を表す3次元の世界座標系における水平面が設定される。すなわち世界座標系を互いに直交するX軸,Y軸,Z軸で表し、Z軸を監視空間52の鉛直方向に設定したときのX−Y平面を共通座標系に設定する。平面のZ座標は任意だが本実施形態では処理を簡単化するためにZ=0の平面とする。
射影規則320は、撮像部20それぞれのカメラパラメータに公知のピンホールカメラモデル等のカメラモデルを適用することで設定される。カメラパラメータは、撮像部20の焦点距離、画角、画素数及びレンズ歪み、世界座標系における撮像部20の設置位置CAM及び撮像方向等であり、画像処理に先立って操作部31から入力される。
また、ローカル座標系の人物位置を共通座標系の1点に射影するには人物の身長を規定して射影規則320を設定する必要がある。この身長には監視対象とする人物群の平均身長を予め規定しておけばよい。例えばATMコーナーなど成人主体の監視対象であれば平均身長を170cmに規定することができる。
移動軌跡321は、人物ごとに統合された共通座標系における人物位置の履歴である。
統合制御部33は、CPU(Central Processing Unit)、DSP等の演算装置である。統合制御部33は、射影手段330、近接度算出手段331、人物位置統合手段332、追跡手段333、不審行動検知手段334等の動作を記述したプログラムを統合記憶部32から読み出して実行することにより各手段として機能する。
射影手段330は、射影規則320を用いて人物位置検出手段220により検出された人物位置を共通座標系に射影する。
近接度算出手段331は、人物位置のうち互いに異なる監視画像から検出された人物位置のペアを総当りで設定して当該ペアの近接度を算出する。近接度は、ペアを構成する人物位置間の近さを表し、ペアの設定が尤もらしいかを判定するための尺度、いわばペア度である。具体的には、近接度算出手段331は、共通座標系においてペアの一方の人物位置と当該人物位置が検出された撮像部20の位置とを結ぶ直線(投影線)と当該ペアの他方の人物位置との間の距離δ(本発明における線点間距離)を算出し、当該距離δが近いほど大きな値を出力するよう予め設定された関数f(・)に距離δを入力して近接度f(δ)を算出する。
移動する人物は立位の姿勢をとっているため縦長の形状、すなわち幅より高さの方が大きい形状で撮像される。そのため人物位置の検出誤差においては高さ方向の成分が支配的となる。そして高さ方向の誤差成分は撮像部20から遠ざかる方向、すなわち撮像部20から人物位置への投影線に沿った方向に現れる。
一方の人物位置に対する投影線と他方の人物位置との距離に基づく近接度は、一方の人物位置に生じた投影線に沿う誤差成分を無視した近さを表すため、検出誤差が生じていても同一人物に関する人物位置のペアに対して高い近接度が算出され、同一人物のペアをより確実に識別することが可能となる。
ところで各ペアについては、ペアの一方の人物位置への投影線と他方の人物位置の距離、及び一方と他方を入れ替えたときの距離の2通りの距離を算出できる。上記原理に従えば、オクルージョンが生じている方の人物位置に対する投影線とオクルージョンが生じていない方の人物位置との距離に基づいて近接度を算出することで、投影線に沿う誤差成分を無視する効果が最大限に発揮される。そしてこのとき算出される距離はもうひとつの距離よりも小さな距離となる。
そこで、近接度算出手段331は、各ペアについて2通りの距離δ1,δ2を算出して、そのうち小さい方の距離δ=min{δ1,δ2}を近接度の算出に用いる。こうすることで投影線に沿って現れる高さ方向の検出誤差がより大きい方の人物位置への投影線に対する距離が選択的に近接度の算出に用いられる。そのため投影線に沿う誤差成分を無視する効果が最大限に発揮され、同一人物のペアをより確実に識別することが可能となる。
また、上述の説明から分かるように距離δの主成分は人物の幅方向の誤差成分である。よって、距離δが人物の幅として妥当な範囲を超える人物位置のペアは同一人物のものと認識すべきではない。そこで、上記関数f(・)は距離δが人物の幅の上限に相当する距離しきい値Δを超える場合に最小値を出力するような関数として設定する。距離しきい値Δは例えば1mに設定される。
図3の関数50−1は関数f(・)の一例である。すなわち関数50−1は、δ=0のときに最大値を出力し、0≦δ<Δのときにδの増加とともに出力が減少し、δ≧Δのときに最小値を出力する。
別の実施形態において、関数f(・)は0≦δ<Δのときに最大値を出力し、δ≧Δのときに最小値を出力するステップ関数50−2とすることもできる。さらに別の実施形態において、関数f(・)は関数50−1と関数50−2を合成した関数50−3とすることもできる。
このように距離しきい値Δによる制限を加えることで、人物の幅を超える距離δが算出された人物位置のペアについて不当に高い近接度が算出されなくなるため、他人の人物位置を同一人物の人物位置としてまとめる誤りを減じることが可能となる。
また、投影線に沿う検出誤差を無制限に許容してしまうと他人の人物位置が同一人物によるものとして誤って統合されるケースが発生する。そこで近接度算出手段331は、ペアを構成する人物位置間の距離d(本発明における2点間距離)を算出し、当該2点間距離が大きいほど近接度を小さく補正する。具体的には、近接度算出手段331は距離dが大きくなるほど小さな値を出力するよう予め設定された関数g(・)に距離dを入力して信頼度g(d)を算出し、算出された信頼度g(d)を近接度f(δ)に乗じることで補正を行う。
図4の関数51は関数g(・)の一例である。すなわち関数51は、d=0のときに最大値を出力し、0≦d<Dのときにdの増加とともに出力が減少し、d≧Dのときに最小値を出力する。距離しきい値Dは人の身長に由来する値であり、例えば平均身長の約3倍である5mに設定される。
このように人物位置が離間しているほど小さくなる信頼度に応じて近接度を補正することにより、十分に離間しているが単に同一投影線上に存在する他人同士の人物位置のペアを同一人物によるものとしてまとめる誤りを減じることが可能となる。
また、信頼度による近接度の補正を行ったときに、オクルージョンの影響で離間してしまっているが本来同一人物のものである人物位置のペアの近接度は低く補正され、オクルージョンが発生していない同一人物のものである人物位置のペアの近接度は高く維持される。しかし、これらのペアはいずれも同一人物のものであるから同等に高い近接度となるよう補正されるべきである。
そこで、近接度算出手段331は、関数f(・)が出力する最大値を予め定めた近接度の上限値以上の大きな値に設定しておき、信頼度により補正された後の近接度を上限値でクリッピングさせる修正を行う。本実施形態においては、近接度の上限値を1.0とし、図3に例示した関数f(・)では最大値を1.5としている。最大値1.5から上限値1.0への低下倍率0.67はオクルージョンが発生していない同一人物のものである人物位置のペアに対して信頼度が近接度を低下させる倍率より小さく設定されている。
このように近接度を上限値でクリッピングさせることにより、検出誤差が少なく補正の程度が小さい同一人物のペアについて近接度がクリッピングされ、検出誤差が大きく補正の程度が大きい同一人物のペアについての近接度と近い近接度となるよう調整される。そのため、上記補正がより効果的に作用し、同一人物の人物位置をより高い精度でまとめて人物位置の情報を統合することが可能となる。
以上をまとめると、近接度の導出は次の式(1)及び式(2)により表される。
近接度=f(min{δ1,δ2})×g(d) …式(1)
ただし、近接度>1.0となる場合、近接度=1.0 …式(2)
近接度算出の様子を、図5,図6を参照し、撮像部20−1と撮像部20−2の共有視野に人物αと人物βが存在するときの例示により説明する。
撮像部20−1により撮像された監視画像60−1においてオクルージョンが発生しており、人物βの一部が人物αにより隠蔽されている。他方、撮像部20−2により撮像された監視画像60−2においては別の角度から撮像しているためオクルージョンは発生していない。人物位置検知手段220−1が監視画像60−1から検出した人物αの位置をa1、人物βの位置をb1とする。人物βの像は下半身が隠蔽されているため人物位置b1は本来の位置より上方にずれてしまっている。他方、人物位置検知手段220−2が監視画像60−2から検出した人物αの位置をa2、人物βの位置をb2とする。
人物位置a1,b1,a2,b2のそれぞれは射影手段330により共通座標系70の位置A1,B1,A2,B2に射影される。人物αの位置A1とA2は略同位置となっている。しかし、人物βの位置B1は撮像部2−1の設置位置CAM1から遠ざかる方向にずれてしまいB1とB2は離間してしまっている。
近接度算出手段331は、人物位置B1への投影線CAM1−B1を算出し、当該投影線と人物位置B2の距離σを算出する。また近接度算出手段331は、人物位置B2への投影線CAM2−B2を算出し、当該投影線と人物位置B1の距離σを算出する。
近接度算出手段331はδ1>δ2であることからδ2を基に近接度f(δ)を算出する。つまりオクルージョンが生じている人物位置B1への投影線とオクルージョンが生じていない人物位置B2との距離δ2に基づき近接度f(δ)が算出される。A1とA2のペア,A1とB2のペア,B1とA2のペアについても同様にして近接度f(δ)が算出される。
さらに近接度算出手段331は、信頼度及びクリッピングによる近接度の補正を行う。
図7の数値群80は、こうして算出された近接度の例である。人物位置A1とA2の近接度はクリッピングされて1.0、人物位置A1とB2の近接度は0.9、人物位置B1とA2の近接度は0.15、人物位置B1とB2の近接度は0.75と算出された。
人物位置統合手段332は、人物位置のペアのうち近接度算出手段331により算出された近接度がより高いペアを他のペアよりも優先的に同一人物の人物位置としてまとめることで人物位置の情報を統合し、統合結果を追跡手段333へ出力する。このとき人物位置統合手段332は1対多の統合(例えば人物位置A1とA2のペアと人物位置A1とB2のペアの同時成立など)が生じないようペアを排他的に組み合わせて統合を行う。人物位置統合手段332は同一人物の人物位置とされたペアについてはこれらの人物位置の平均位置を当該人物の統合後の位置とすることで同一人物の人物位置をひとつにまとめる。
ここで、人物位置検出手段220により検出された人物位置の全てがペアを有しているとは限らない。すなわち、一方の撮像部20の視野内に居るが他方の撮像部20の視野外に居る人物、或いは両方の撮像部20の視野内に居るがオクルージョンにより一方の撮像部20からはほぼ撮像されない人物については1つの人物位置検出手段220からしか人物位置は検出されない。このような人物位置は、ペアの一方の人物位置として統合されるのではなく、単独の人物位置として統合されるべきである。
そこで、人物位置統合手段332は、人物位置が単独である蓋然性の尺度を表す単独度を算出し、単独度が近接度より高い人物位置はまとめずに統合する。単独度は次式により算出する。尚、式中の1.0は上述した近接度の上限値である。
人物位置の単独度=1.0−当該人物位置に関する近接度の最大値 …式(3)
例えば図7の例において、人物位置A1の単独度81は1.0−max{1.0,0.9}=0.0と算出される。人物位置B1,A2,B2の単独度81は同様にしてそれぞれ0.25,0.0,0.1と算出される。
具体的には、人物位置統合手段332は、近接度及び単独度を加味して人物位置を統合するために、可能な限り人物位置のペアを組んだ場合、一部の人物位置を単独として残りの人物位置でペアを組んだ場合、及び全ての人物位置が単独の場合を網羅した組み合わせ(以下、統合パターンと称する)を設定し、各統合パターンに応じた近接度及び/又は単独度を選択的に総和することで統合評価値を算出し、最も高い統合評価値が算出された統合パターンを選定する。
このように統合パターンを決定することで、近接度がより高いペアは他のペアよりも優先的に同一人物の人物位置としてまとめられ、さらに単独度が近接度より高い人物位置はまとめずに統合される。結果、低めの近接度が算出されたペアを無理にまとめることがなくなり、より高い精度で人物位置の情報を統合できる。尚、人物位置統合手段332は単独と決定された人物位置については当該人物位置をそのまま人物の位置とする。
例えば図7の例のように2つのカメラユニット2において2つずつ人物位置が検出されている場合、図8のように7つの統合パターン#1〜#7のそれぞれについて統合評価値が算出され、統合評価値が最大である統合パターン#1が選定される。すなわち、図5〜図8にて示してきた例では、「人物位置A1とA2を同一人物の人物位置、且つ人物位置B1とB2を同一人物の人物位置として統合する」ことが決定される。この決定は、まず近接度及び単独度の中で値が最も高いA1とA2のペアを第一に優先して選定し、次に既に選定されたA1,A2に関する近接度及び単独度を除いた中で値が最も高いB1とB2のペアを第二に優先して選定したことを意味している。
そして人物位置統合手段332は、A1とA2の平均位置を算出して当該平均位置を人物αの統合後の位置として出力し、B1とB2の平均位置を算出して当該平均位置を人物βの統合後の位置として出力する。
追跡手段333は、前後する時刻において人物位置統合手段332から出力された統合後の人物位置を人物位置の整合性に基づいて対応付けることで人物ごとの移動軌跡321を生成する。具体的には、追跡手段333は、一時刻前までに生成された移動軌跡321から現時刻における各人物の人物位置を予測し、各予測位置に予め設定された距離しきい値の範囲内で最も近い統合後の人物位置を当該予測位置と対応する人物のものとして移動軌跡321に追記する。予測位置は移動軌跡321に等速運動モデル等の運動モデル、又はカルマンフィルタ等の予測フィルタを適用することで算出できる。
尚、追跡手段333は、いずれの予測位置とも対応付かない人物位置については新規出現の人物であるとして移動軌跡321に新規登録し、いずれの人物位置とも対応付かない予測位置が算出された移動軌跡321については視野外に消失した人物であるとして移動軌跡321から登録抹消する。
不審行動検知手段334は、移動軌跡321を分析して不審行動の有無を判定し、不審行動を検知すると検知の旨及び不審行動が検知された移動軌跡321を含んだ異常信号を出力部34に出力する。不審行動は、例えば、規定時間を超える滞在や予め設定された立ち入り禁止エリア等への立ち入りである。
出力部34は、スピーカやブザー等の音響出力装置、CRTや液晶ディスプレイ等のモニタ装置、通信網を介して警備センタ等と通信する通信装置などである。出力部34は、異常信号が入力されると音響出力装置を鳴動させて検知の旨を監視員に報知したり、モニタ装置に不審行動が検知された移動軌跡321を表示したり、警備センタへ異常信号を転送したりして異常信号を出力する。
<画像監視装置1の動作>
図9を参照して、画像監視装置1の動作を説明する。
監視空間が無人であることを確認した管理者が電源を投入すると各部、各手段は初期化されて動作を始める。統合制御部33は統合記憶部32に射影規則320が記憶されているかを確認し(S1)、記憶されていなければ(S1にてNO)、管理者にカメラパラメータの入力を要求する。管理者の入力操作により操作部31からカメラパラメータが入力されると(S2)、統合制御部3はカメラパラメータに基づく射影規則320及び設置位置CAMを統合記憶部32に記憶させる(S3)。
すなわち統合制御部33は、入力された撮像部20−1のカメラパラメータに基づく撮像部20−1のローカル座標系から共通座標系への射影規則320及び設置位置CAM1をカメラユニット2−1のアドレスと対応付けて記憶させ、入力された撮像部20−2のカメラパラメータに基づく撮像部20−2のローカル座標系から共通座標系への射影規則320及び設置位置CAM2をカメラユニット2−2のアドレスと対応付けて記憶させる。
射影規則320等の設定がなされると、或いは既になされていると(S1にてYES)、以降、撮像部20が一定時間間隔で新たな監視画像を撮像するたびにS4〜S11の処理が繰り返される。尚、以下では上記一定時間間隔で刻まれる時間の単位を時刻と称する。
新たな監視画像が入力されると(S4)、各カメラ制御部22の物体位置検出手段220は当該監視画像から人物位置を検出し(S5)、検出された人物位置を統合ユニット3へ送信する。このとき人物位置検出手段220は、送信元アドレスとして自ユニット2のアドレス、送信先アドレスとして統合ユニット3のアドレスを人物位置に付与して出力する。
各カメラユニット2から人物位置の情報を受信した統合ユニット3の統合制御部33はこれらの情報を統合する(S6)。
図10を参照してステップS6の人物情報統合処理の詳細を説明する。
まず、統合制御部33の射影手段330は、射影規則320を用い、現時刻において物体検知手段220により検出された全ての人物位置を共通座標系に射影する(S60)。このとき射影手段330は、各人物位置に付与されている送信元アドレスから変換元のローカル座標系を特定し、特定したローカル座標系に対応する射影規則320を用いて射影する。射影結果は元の人物位置と対応付けて一時記憶される。
次に、統合制御部33の近接度算出手段331は、射影された人物位置のペアを順次生成してループ処理を設定し(S61〜S68)、全てのペアに対して近接度を算出する。ここで、ペアは異なる監視画像から検出された人物位置で構成されることに注意されたい。例えば図5の例ではa1とa2,a1とb2,b1とa2,b1とb2の4組のペアが順次生成される。
ループ処理において、まず、近接度算出手段331は、ペアを構成する射影後の人物位置と当該人物位置が検知された監視画像を撮像した撮像部20の設置位置CAMとを結ぶ投影線を算出し(S62)、ペアの一方の人物位置に対する投影線とペアの他方の人物位置との間の距離δ1及びδ2を算出する(S63)。このとき近接度算出手段331は各人物位置に付与された送信元アドレスから投影線の算出に用いる設置位置CAMを特定する。
続いて、近接度算出手段331は、算出された距離δ1及びδ2のうち小さい方の距離δを選出し(S64)、選出された距離δを関数f(・)に入力して近接度f(δ)を算出する(S65)。
さらに、近接度算出手段331は、ペアを構成する人物位置間の距離dを算出し(S66)、算出された距離dを関数g(・)に入力して信頼度g(d)を算出し(S67)、算出された信頼度g(d)をステップS65にて算出された近接度f(δ)に乗じて近接度を補正する(S68)。但し、補正された近接度が1.0を超えていた場合は(S69にてYES)、さらに近接度を1.0に修正する(クリッピング)(S70)。
こうして全ペアに対して近接度が算出されると(S71にてYES)、統合制御部33の人物位置統合手段332は、近接度を参照して式(3)により各人物位置に対する単独度を算出し(S72)、統合パターンをリストアップして各統合パターンに対する統合評価値を算出する(S73)。
そして、人物位置統合手段332は、最も高い統合評価値が算出された統合パターンを決定し(S74)、決定された統合パターンに従って人物位置を統合する(S75)。すなわちペアと決定された人物位置についてはその平均位置、単独と決定された人物位置については当該人物位置が統合された人物位置として求められる。
図9に戻り、統合制御部33の追跡手段333は、統合された現時刻の人物位置をその位置の整合性に基づいて一時刻前までの移動軌跡321と対応付け、対応付け結果に従い現時刻の人物位置で移動軌跡321を更新することで追跡を進捗させる(S7)。
追跡が進捗すると、統合制御部33の不審行動検知手段334は、更新された移動軌跡321を分析して不審行動の有無を判定し(S8)、不審行動を検知すると(S9にてYES)、不審行動が検知された移動軌跡を含む異常信号を生成して出力部34へ出力する(S10)。異常信号が入力された出力部34は、音響出力手段を鳴動させモニタ装置に移動軌跡を表示する、或いは通信装置により異常信号を遠隔地の警備センタへ転送して警備センタの音響出力装置やモニタ装置に表示を行わせる(S11)。これらの表示を見聞きした監視員は移動軌跡を基に案内或いは排除といった対処の必要性を判断し、必要であれば監視空間に急行して対処を行う。
以上の処理を終えると、処理は再びSへ戻される。
<変形例>
上記実施形態においては、人物位置統合手段332は、単独度を算出して近接度と単独度を加味した統合評価値を算出した。別の実施形態において、人物位置統合手段332は、単独度を用いずに統合評価値を算出する。すなわち、人物位置統合手段332は、予め設定された近接度しきい値を下回る近接度が算出されたペアを除外して統合パターンを設定し、設定された統合パターンに応じて近接度を総和して統合評価値を算出する。
上記実施形態においては、統合ユニット3には2つのカメラユニット2が接続されている。別の実施形態において統合ユニット3には3つ目のカメラユニット2−3が接続される。この場合、統合ユニット3はカメラユニット2−1及びカメラユニット2−2からの物体位置を統合し、この統合結果とカメラユニット2−3からの物体位置をさらに統合することで3つのカメラユニット2からの物体位置を統合する。尚、4つ以上のカメラユニット2が接続されている場合も以下同様に多段階で統合を行うことで、全てのカメラユニット2からの物体位置を統合できる。
上記実施形態においては統合ユニット3にて射影を行ったが、別の実施形態においてはカメラユニット2にて射影を行って処理を分散化する。この場合、射影規則320は各カメラ記憶部21に記憶され、射影手段330は各カメラ制御部22により実現される。
上記実施形態においては各カメラユニット2にて人物位置を検出したが、別の実施形態においては統合ユニット3にて人物位置を検出する。すなわち人物位置検出手段220は統合制御部33により実現される。この場合、監視画像が送受信されるため通信網4の通信負荷は上がるが、カメラ制御部22において画像処理を行う必要がなくなりカメラユニット2の調達が容易になる。
以上、本発明の画像監視装置は、主として人物の高さ方向に大きく現れる検出誤差を効果的に無視できる線点間距離に基づき近接度を算出し、近接度がより高いペアを優先して同一人物の人物位置としてまとめるので、人物位置の情報を高精度に統合することができる。

1・・・画像監視装置
2・・・カメラユニット
3・・・統合ユニット
20・・・撮像部
21・・・カメラ記憶部
22・・・カメラ制御部
23・・・カメラ通信部
30・・・統合通信部
31・・・操作部
32・・・統合記憶部
33・・・統合制御部
34・・・出力部
220・・・人物位置検出手段
320・・・射影規則
321・・・移動軌跡
330・・・射影手段
331・・・近接度算出手段
332・・・人物位置統合手段
333・・・追跡手段
334・・・不審行動検知手段

Claims (7)

  1. 互いに視野の一部を共有し当該視野内を移動する人物を互いに異なる方向から撮像して監視画像を出力する複数の撮像部と、
    前記監視画像から前記人物が存在するローカル座標系での人物位置を検出する人物位置検出手段と、
    前記撮像部ごとに設定された前記ローカル座標系から前記複数の撮像部に共通して設定された共通座標系へ前記人物位置を射影する射影手段と、
    前記複数の撮像部により同時に撮像された前記監視画像の一方から検出された前記人物位置及び他方の前記監視画像から検出された前記人物位置のペアを設定して当該ペアの近接度を算出する近接度算出手段と、
    前記近接度がより高い前記ペアを他の前記ペアよりも優先的に同一人物の人物位置としてまとめることで前記人物位置の情報を統合する人物位置統合手段と、
    を備え、
    前記近接度算出手段は、前記共通座標系において前記一方の人物位置と当該人物位置が検出された前記撮像部の位置とを結ぶ投影線と前記他方の人物位置との間の線点間距離を算出し、当該線点間距離が近いほど前記近接度を高く算出することを特徴とする画像監視装置。
  2. 前記近接度算出手段は、前記一方の人物位置と前記他方の人物位置を入れ替えた前記線点間距離をさらに算出し、算出された2つの線点間距離のうち小さい方の線点間距離を前記近接度の算出に用いる請求項1に記載の画像監視装置。
  3. 前記近接度算出手段は、前記線点間距離が人物の幅に相当する所定しきい値を超える場合に前記近接度を予め設定された最小値とする請求項1又は2に記載の画像監視装置。
  4. 前記近接度算出手段は、前記ペアを構成する人物位置間の2点間距離をさらに算出し、当該2点間距離が大きいほど前記近接度を小さく補正する請求項1乃至3に記載の画像監視装置。
  5. 前記近接度算出手段は、予め設定された上限値を超える前記近接度を前記上限値に修正する請求項4に記載の画像監視装置。
  6. 前記人物位置統合手段は、前記人物位置のそれぞれについて当該人物位置に対して算出された前記近接度の最大値を前記上限値から減じた単独度を算出し、前記単独度が前記近接度より高い人物位置はまとめずに統合する請求項5に記載の画像監視装置。
  7. 前記人物位置統合手段は、同一人物とされた人物位置の平均位置を統合後の当該人物の位置として算出する請求項1乃至6に記載の画像監視装置。

JP2009048409A 2009-03-02 2009-03-02 画像監視装置 Active JP5147760B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009048409A JP5147760B2 (ja) 2009-03-02 2009-03-02 画像監視装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009048409A JP5147760B2 (ja) 2009-03-02 2009-03-02 画像監視装置

Publications (3)

Publication Number Publication Date
JP2010206404A JP2010206404A (ja) 2010-09-16
JP2010206404A5 JP2010206404A5 (ja) 2012-03-22
JP5147760B2 true JP5147760B2 (ja) 2013-02-20

Family

ID=42967461

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009048409A Active JP5147760B2 (ja) 2009-03-02 2009-03-02 画像監視装置

Country Status (1)

Country Link
JP (1) JP5147760B2 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6015756B2 (ja) * 2012-07-02 2016-10-26 日本電気株式会社 位置管理装置、位置管理システム、位置管理方法、及び、位置管理プログラム
JP6067527B2 (ja) * 2013-09-30 2017-01-25 株式会社日立ソリューションズ 移動体情報管理方法及び装置並びにプログラム
JP6488647B2 (ja) * 2014-09-26 2019-03-27 日本電気株式会社 物体追跡装置、物体追跡システム、物体追跡方法、表示制御装置、物体検出装置、プログラムおよび記録媒体
US10664705B2 (en) 2014-09-26 2020-05-26 Nec Corporation Object tracking apparatus, object tracking system, object tracking method, display control device, object detection device, and computer-readable medium
JP2016118707A (ja) * 2014-12-22 2016-06-30 株式会社リコー 画像形成装置
JP2017054100A (ja) * 2015-09-11 2017-03-16 株式会社東芝 表示制御装置および表示制御システム
KR102139106B1 (ko) * 2016-12-16 2020-07-29 주식회사 케이티 타임 슬라이스 영상을 제공하는 장치 및 사용자 단말
JP6865110B2 (ja) * 2017-05-31 2021-04-28 Kddi株式会社 オブジェクト追跡方法および装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3257165B2 (ja) * 1993-08-06 2002-02-18 株式会社日立製作所 移動物体監視装置
JP3577875B2 (ja) * 1997-03-06 2004-10-20 松下電器産業株式会社 移動物体抽出装置
JP3520050B2 (ja) * 2001-01-17 2004-04-19 株式会社国際電気通信基礎技術研究所 移動物体追跡装置
JP4070618B2 (ja) * 2003-01-15 2008-04-02 日本電信電話株式会社 物体追跡方法、物体追跡装置、物体追跡方法のプログラム並びにそのプログラムを記録した記録媒体
JP4559874B2 (ja) * 2005-03-01 2010-10-13 ティーオーエー株式会社 動体追跡装置

Also Published As

Publication number Publication date
JP2010206404A (ja) 2010-09-16

Similar Documents

Publication Publication Date Title
JP5147761B2 (ja) 画像監視装置
JP5147760B2 (ja) 画像監視装置
KR101788269B1 (ko) 이상 상황을 감지하는 장치 및 방법
JP5180733B2 (ja) 移動物体追跡装置
CN104954747B (zh) 视频监视方法和装置
JP2014127208A (ja) 物体検出方法及び物体検出装置
JP5956248B2 (ja) 画像監視装置
JP7272024B2 (ja) 物体追跡装置、監視システムおよび物体追跡方法
KR101125233B1 (ko) 융합기술기반 보안방법 및 융합기술기반 보안시스템
WO2019220589A1 (ja) 映像解析装置、映像解析方法、及びプログラム
JP6444283B2 (ja) 姿勢判定装置
JP5027741B2 (ja) 画像監視装置
JP7188240B2 (ja) 人検出装置および人検出方法
JP5027758B2 (ja) 画像監視装置
EP2309454A2 (en) Apparatus and method for detecting motion
JP7255173B2 (ja) 人検出装置および人検出方法
JP5771039B2 (ja) 放置人物検出装置
WO2022127181A1 (zh) 客流的监测方法、装置、电子设备及存储介质
JP2007219603A (ja) 人物追跡装置、人物追跡方法および人物追跡プログラム
JP6336935B2 (ja) 移動物体追跡装置
JP2006259847A (ja) 自動追尾装置及び自動追尾方法
JP5930808B2 (ja) 画像処理装置、画像処理装置の制御方法、およびプログラム
JP4670010B2 (ja) 移動体分布推定装置、移動体分布推定方法及び移動体分布推定プログラム
JP6548683B2 (ja) 対象物画像推定装置および対象物画像判定装置
KR20090125192A (ko) 카메라 위치 결정 방법 및 카메라 장치

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120206

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121120

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121127

R150 Certificate of patent or registration of utility model

Ref document number: 5147760

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151207

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250