以下、本発明の実施形態として、空港内の到着ロビーが撮影された監視画像から不審者を検出して、検出結果を監視員に対して表示する画像監視装置1の例を説明する。すなわち本実施形態における監視領域は到着ロビーである。
<画像監視装置1の構成>
図1は画像監視装置1の概略の構成を示すブロック図である。画像監視装置1は、撮影部2、通信部3、記憶部4、画像処理部5、および表示部6からなる。
撮影部2は、監視カメラであり、通信部3を介して画像処理部5と接続され、監視領域を所定の時間間隔で撮影して監視画像を順次出力する撮影手段である。例えば、撮影部2は、隣り合う監視カメラとの共有視野を有して連鎖配置された複数の監視カメラである。これらの監視カメラは、それぞれ監視領域内や監視領域近傍の天井、柱、壁、ポールなどに当該監視領域を俯瞰する視野に固定された状態で設置され、予めキャリブレーションされる。撮影部2は、監視領域をフレーム周期1秒で撮影し、可視のカラー画像を生成する。以下、フレーム周期で刻まれる時間を時刻と称する。なお、撮影部2を単一のカメラで構成してもよいし、カラー画像の代わりにモノクロ画像を生成してもよい。
通信部3は、通信回路であり、その一端が画像処理部5に接続され、他端が同軸ケーブルまたはLAN(Local Area Network)、インターネットなどの通信網を介して撮影部2および表示部6と接続される。通信部3は、撮影部2から監視画像を取得して画像処理部5に入力し、画像処理部5から入力された検出結果を表示部6に出力する。
記憶部4は、ROM(Read Only Memory)、RAM(Random Access Memory)等のメモリ装置であり、各種プログラムや各種データを記憶する。記憶部4は、画像処理部5と接続されて画像処理部5との間でこれらの情報を入出力する。
画像処理部5は、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、MCU(Micro Control Unit)等の演算装置で構成される。画像処理部5は、記憶部4と接続され、記憶部4からプログラムを読み出して実行することにより各種処理手段・制御手段として動作し、各種データを記憶部4に記憶させ、読み出す。また、画像処理部5は、通信部3を介して撮影部2および表示部6とも接続され、通信部3経由で撮影部2から取得した監視画像を解析することにより不審者を検出し、検出結果を通信部3経由で表示部6に表示させる。
表示部6は、液晶ディスプレイ又はCRT(Cathode Ray Tube)ディスプレイ等のディスプレイ装置であり、通信部3を介して画像処理部5と接続され、画像処理部5による検出結果を表示する表示手段である。監視員は表示された検出結果を視認して不審者に対する対処の必要性を判断し、必要に応じて対処員を急行させる等の対処を行う。
<画像監視装置1の機能>
図2は画像監視装置1の機能を示す機能ブロック図である。通信部3は画像取得手段30および不審者情報出力手段31等として機能し、記憶部4は人物情報記憶手段40、監視領域情報記憶手段41およびグループ情報記憶手段42等として機能する。画像処理部5は、人物追跡手段50、グループ検出手段51、姿勢判定手段52、別行動判定手段53および不審者判定手段54等として機能する。
画像取得手段30は、撮影手段である撮影部2から監視画像を順次取得して、取得した監視画像を人物追跡手段50、姿勢判定手段52および不審者情報出力手段31に順次出力する。
以下、図2~図7を参照して各手段について説明する。
人物情報記憶手段40は、監視画像に写る各人物についての情報である人物情報を記憶する。具体的には、人物情報記憶手段40は、各人物の人物情報として、人物追跡手段50によって監視画像から抽出された当該人物の人物画像、当該人物画像が抽出された位置(人物位置)が列挙された人物位置履歴、監視画像において当該人物の人物画像を特徴づける色ヒストグラムなどの人物特徴量などを当該人物の人物IDと対応付けて記憶する。人物位置履歴には少なくとも出現位置と現在位置が含まれる。
また、人物情報記憶手段40は、各人物の人物情報として、さらに各人物の人物IDと対応付けて当該人物に関するグループ検出手段51、別行動判定手段53および不審者判定手段54の中間データを記憶する。
図5は人物情報のうちの中間データを例示したものであり、図5(a)は或る時刻tにおいて追跡中の人物A~Eの中間データ200を、図5(b)はその30時刻後の中間データ201を、それぞれ示している。
出現位置は、グループ検出手段51が生成する中間データであり、各人物が出現した監視領域内の進入口に対応する。本実施形態において出現位置には、初期値である空欄、「入国ゲート」、「入退室エリア」のいずれかが設定される。
滞在時間は、不審者判定手段54が生成する中間データであり、各人物が監視領域内に滞在している時間を表す。
静止時間は、グループ検出手段51が生成する中間データであり、各人物が静止とみなせる状態となっていた時間を表す。
直近移動方向は、別行動判定手段53が生成する中間データであり、各人物の最新の移動方向を表す。本実施形態において、移動方向は、監視領域を模したXYZ座標系の仮想三次元空間におけるX軸方向を0度として反時計回りに増加する角度で表す。
人物追跡手段50は、画像取得手段30から順次入力される監視画像を解析することにより監視領域に出現した複数の人物を追跡して各人物の人物情報を生成し、生成した人物情報を人物情報記憶手段40に記憶させる。
具体的には、人物追跡手段50は、入力された監視画像に背景差分処理を施して人物領域を検出し、監視画像から人物領域内の画像を切り出して人物画像を抽出する。また、人物追跡手段50は、当該人物画像から特徴量を抽出して人物情報記憶手段40に記憶されている人物特徴量との類似度を算出するとともに、当該人物画像の代表点を人物位置として算出する。
人物位置は例えば各人物の最下端(足元)の三次元位置である。例えば、撮影部2をキャリブレーションされた複数の監視カメラで構成する場合、各監視カメラから抽出した人物画像を世界座標系に逆投影して得られる視体積に三次元人物モデルを当てはめることで頭部中心位置を決定することができる。人物位置は人物の重心、最上端または頭部中心など他の代表点とすることもできる。また人物位置は、監視画像の平面座標系(すなわち人物画像の代表点)で表してもよい。
人物画像から抽出した特徴量との類似度が予め定めた同定閾値を超える人物特徴量が記憶されていない場合、人物追跡手段50は、新たな人物IDを発行し、人物画像から抽出した特徴量を人物特徴量として当該人物IDと対応付けて人物情報記憶手段40に記憶させるとともに、当該人物IDと対応付けて人物画像および人物位置を人物情報記憶手段40に記憶させる。なお、撮影部2を複数の監視カメラで構成する場合は、例えば、人物から最も近い監視カメラにて抽出した人物画像を記憶させればよい。
一方、人物画像から抽出した特徴量との類似度が同定閾値を超える人物特徴量が記憶されている場合、人物追跡手段50は、当該人物画像を当該人物特徴量が示す人物のものと同定する。人物追跡手段50は、人物画像を、同定した人物の人物IDおよび人物位置と紐づけて人物情報記憶手段40に記憶させる。また、人物追跡手段50は同定した人物の人物特徴量を人物画像から抽出した特徴量で更新する。
また、人物追跡手段50は、いずれの人物画像とも同定されなかった人物特徴量を、監視領域外に移動して追跡を終えた人物のものであるとして人物情報記憶手段40から削除する。
監視領域情報記憶手段41は、監視領域内の互いに異なる進入口を表す第一進入口領域および第二進入口領域と含んだ監視領域情報を予め記憶している。例えば、到着ロビーを監視領域とする本実施形態において、第一進入口領域が表す第一進入口は入国ゲートであり、第二進入口領域が表す第二進入口はそれ以外の扉、通路およびエスカレータの乗降口などである。監視領域は出迎えられる者と出迎える者とが専ら接触し、出迎えられる者は少なくとも第一進入口領域から出現した人物の中に含まれ、出迎える者は少なくとも第二進入口領域から出現した人物の中に含まれると推定できる。
例えば、人物位置を人物の最下端の三次元位置で表す本実施形態においては、第一進入口領域および第二進入口領域のそれぞれは、監視領域を模した仮想三次元空間における基準面上(床面上)の領域として設定される。図3はXYZ座標系で表される仮想三次元空間の基準面を模式的に表したものであり、基準面上に設定された第一進入口領域101、第二進入口領域102,103を例示している。
なお、人物位置を他の代表点とする場合は仮想三次元空間における三次元領域としてもよく、人物位置を監視画像の平面座標系の代表点とする場合は当該平面座標系の二次元領域とすることができる。
グループ情報記憶手段42は、人物の組み合わせに関する情報を記憶する。本実施形態においてグループ情報記憶手段42には、追跡中の人物の全ペアに関し、グループ検出手段51、姿勢判定手段52、別行動判定手段53および不審者判定手段54による検出結果や判定結果の他に、これら各手段による中間データを記憶する。そのため、グループとして検出された人物のペアに関する情報の他に、未だグループとして検出されていない人物ペアの情報を含んで記憶するが、便宜上これらをグループ情報と称する。
図6は図5の人物情報に対応するグループ情報300を例示している。
人物ペアは、追跡中の人物のペアであり、人物IDの組み合わせで表される。
近接時間は、グループ検出手段51が生成する中間データであり、各人物ペアが近接していた時間を表す。
姿勢フラグは、姿勢判定手段52が生成する判定結果のデータであり、各人物ペアの姿勢が受け渡し姿勢と判定された場合は1、そうでない場合は0が設定される。
グループフラグは、グループ検出手段51が生成する検出結果のデータであり、各人物ペアがグループとして検出された場合は1、そうでない場合は0が設定される。
離間時間は、別行動判定手段53が生成する中間データであり、各人物ペアが離間していた時間を表す。離間時間はグループとして検出された人物ペアについてのみ計測される。
別行動状態は、別行動判定手段53が生成する判定結果のデータであり、各人物ペアについて、確度の高い別行動が判定された場合は「あり」、確度の低い別行動が判定された場合は「警告」、そうでない場合は「なし」が設定される。別行動状態はグループとして検出された人物ペアについてのみ判定される。
不審度は、不審者判定手段54が生成する判定結果のデータであり、各人物ペアを構成する人物が不審者の可能性があると判定された場合は1以上の整数、そうでなければ0が設定される。本実施形態において不審度の値域は0~2である。不審者の可能性があると判定された場合、不審者である確度が高いほど大きな値が設定される。
グループ検出手段51は、複数の人物の中から、所定の不審行動判定時間の範囲内で人物間距離が所定の近接判定距離D1以下である近接位置関係を維持した人物のグループを不審者の可能性があるグループとして検出し、検出したグループの情報をグループ情報記憶手段42に記憶させる。
具体的には、グループ検出手段51は、人物情報記憶手段40に記憶されている人物情報とグループ情報記憶手段42に記憶されているグループ情報とを参照して、各時刻において追跡中である人物の組み合わせ(人物ペア)ごとに人物位置の間の距離(人物間距離)を算出してD1と比較することで近接位置関係であるか否かを判定し、近接位置関係であると判定された人物ペアごとに近接位置関係であると判定され続けた時間(近接時間)を計測して群行動判定時間T1および短期接触判定時間T2と比較し、近接時間がT1を超えており且つT2以下であるグループを検出する。
つまり、T1よりも長い時間、D1以下の距離に近接し続けていた人物同士は、単にすれ違った人物同士ではなく、会話や受け渡しなどの相手への関与があった人物同士であるとし、さらに、T2以下の短い時間だけ、D1以下の距離に近接し続けていた人物同士は、長時間人目に触れることを避けて接触した人物同士であるとし、これらの人物を不審者の可能性があるグループとして検出する。群行動判定時間T1は例えば歩いてすれ違う人物同士がD1以下の距離に近接してからD1を超える距離に離間するまでの典型的な所要時間にマージンを加えた長さに予め設定しておくことができ、短期接触判定時間T2は例えば受け渡しのみに要する時間にマージンを加えた長さに予め設定しておくことができ、近接判定距離D1は例えば腕2本分の長さにマージンを加えた距離に予め設定しておくことができる。
ここで、時間と距離だけで検出したグループには、たまたま並進しているだけの人物も含まれ得る。そこで、たまたま並進しているだけの人物をグループとして検出しないよう、グループ検出手段51は、出現した位置に対応する進入口領域が異なる人物とを含んだグループを検出する。具体的には、グループ検出手段51は、人物情報記憶手段40に記憶されている人物情報と監視領域情報記憶手段41に記憶されている監視領域情報とを参照し、各人物の出現位置を第一進入口領域および第二進入口領域の座標と比較することによって、当該人物の出現位置が第一進入口領域であるか、第二進入口領域であるかを判定する。そして、グループ検出手段51は、不審行動判定時間の範囲内で人物間距離が近接判定距離D1以下である近接位置関係を維持した人物の組み合わせのうち、出現位置が第一進入口領域である人物と出現位置が第二進入口領域である人物の組み合わせをグループとして検出する。
また、相手への関与があった人物同士であることの確度を高めるために、両者が立ち止まったことをグループ検出の条件とすることもできる。すなわち、グループ検出手段51は、不審行動判定時間の範囲内で近接位置関係を維持した人物について、当該近接位置関係を維持していた時の移動距離を算出し、当該移動距離が所定の静止判定距離D0以下である場合にグループを検出する。なお、近接位置関係を維持した時間の全てにおいてD0以下の移動距離である必要はなく、所定の静止判定時間T3だけD0以下の移動距離であれば相手への関与があった人物同士であることを確認できる。
具体的には、グループ検出手段51は、人物情報記憶手段40に記憶されている人物情報を参照し、近接位置関係であると判定された人物の人物位置から当該人物の近接位置関係が判定されている間の移動距離を算出してD0と比較し、移動距離がD0以下であった時間(静止時間)を計測してT3と比較する。静止判定距離D0は例えば人ひとりの幅程度の距離とすることができ、静止判定時間T3は例えば群行動判定時間T1と同程度の時間に予め設定しておくことができる。そして、グループ検出手段51は、不審行動判定時間の範囲内で人物間距離が近接判定距離D1以下である近接位置関係を維持した、出現位置が異なる進入口領域である人物の組み合わせのうち、T3よりも長い時間に移動距離がD0以下である人物を含む組み合わせをグループとして検出する。
そして、グループ検出手段51は、グループ情報における、グループとして検出された人物ペアのグループフラグに1、グループとして検出されていない人物ペアのグループフラグに0を設定する。また、グループ検出手段51は、検出処理の中間結果として、人物情報における各人物の出現位置、静止時間を人物情報記憶手段40との間で適宜入出力し、グループ情報における各人物ペアの近接時間をグループ情報記憶手段42との間で入出力する。
また、受け渡しがあった人物同士であることの確度を高めるために、両者が立ち止まったことに加えて、或いは両者が立ち止まったことに代えて、受け渡しの姿勢をとったことをグループ検出の条件としてもよい。
そのために、姿勢判定手段52は、監視画像のうちのグループの人物が近接位置関係を維持していた時の監視画像を、予め取得した受け渡し姿勢の画像特徴と比較して、当該人物の姿勢が受け渡し姿勢であるか否かを判定し、判定結果をグループ情報記憶手段42に記憶させる。そして、グループ検出手段51は、この判定結果を参照してグループの検出を行う。
具体的には、まず、姿勢判定手段52は、人物情報記憶手段40に記憶されている人物情報を参照し、近接位置関係であると判定された人物の人物画像から複数の部位を検出する。すなわち、姿勢判定手段52は、予め頭、右肩、右肘、右手首、左肩、左肘、左手首、右臀部、右膝、右足首、左臀部、左膝、左足首の各画像および各画像間の位置関係を学習した部位識別器であって記憶部4に記憶させている部位識別器に、近接位置関係であると判定された人物の人物画像を入力して、当該人物画像における部位の配置を特定する。
次に、姿勢判定手段52は、特定した配置における右手および左手の部位形状モデルの位置を検出する。検出された位置は各人物の人物領域におけるローカルな位置である。姿勢判定手段52は、各人物の人物画像における右手および左手の位置に、当該人物の人物画像の代表位置である人物位置を加えて監視領域におけるグローバルな右手および左手の位置を算出する。なお、人物画像中の人物領域と複数の部位の形状モデルとの形状マッチングによって各部位の位置を検出してもよい。
続いて、姿勢判定手段52は、近接位置関係であると判定された人物の間で監視領域における右手および左手の位置の組み合わせの距離を算出して、算出した距離の中から最小の距離を人物間での手の距離として求める。
そして、姿勢判定手段52は、近接位置関係であると判定された人物の組み合わせについて、当該人物間での手の距離が予め定めた閾値D3以下である場合に、人物の組み合わせの姿勢が受け渡し姿勢であると判定して、グループ情報記憶手段42の姿勢フラグを1に更新する。なお、姿勢フラグの初期値は0であり、1に更新されなかった人物の組み合わせの姿勢フラグは0に維持される。また閾値D3はカバンの幅程度の長さに予め設定しておくことができる。
図7は、カバンを受け渡している人物AとCの人物画像510,520に対する姿勢判定処理の例を示している。図中の丸印は検出された部位の位置を示している。この例では、姿勢判定手段52によって、左側の人物Aの人物画像510から右手首511および左手首512が検出され、右側の人物Cの人物画像520から右手首521および左手首522が検出されている。そして、姿勢判定手段52は、これらのうち左手首512と右手首521の間の距離を人物間での手の距離として算出し、当該距離がD3以下であることから人物AとCの姿勢は受け渡し姿勢であると判定し、図6のグループ情報における人物ペア「A,C」の姿勢フラグの値を1に更新する。
グループ検出手段51によって検出されるグループには、不審者グループのみならず単なる出迎えのグループも含まれている。別行動判定手段53は、検出されたグループを構成する人物がその後に別行動をとったか否かを判定することにより、別行動をとる不審グループと、別行動をとらないことが多い出迎えのグループの区別を可能にする。
そのために別行動判定手段53は、少なくとも、グループの人物が近接判定距離D1よりも長く定められた離間判定距離D2を超える離間位置関係となった場合に当該グループに別行動が発生したと判定し、判定結果をグループ情報記憶手段42に記憶させる。具体的には、別行動判定手段53は、人物情報記憶手段40に記憶されている人物情報とグループ情報記憶手段42に記憶されているグループ情報とを参照して、各時刻においてグループフラグに1が設定されている人物ペアごとに人物間距離を算出してD2と比較することで当該人物ペアが離間位置関係であるか否かを判定する。例えば、離間判定距離D2は近接判定距離D1の3倍程度の長さなどとすることができる。
図5には、或る時刻tにおける人物情報の中間データ200を例示している。また、図3には、図5で示した時刻tまでに、人物A~Eを追跡して得られた人物位置を結んだ移動軌跡110~114を模式的に示している。また、図6には、時刻tから30時刻後のグループ情報300を例示している。
これらを基にグループ検出手段51によるグループ検出の例を説明する。
図5の中間データ200および図3の移動軌跡110,112に示したように、人物Aの出現位置は入国ゲート101、人物Cの出現位置は入退室エリア102であり、互いに異なる。人物AとCは、時刻tにおいてD1以下の距離に近接し、図6のグループ情報300の近接時間に示したようにその後10時刻の間、近接位置関係が維持された。また、中間データ200の静止時間に示したように近接位置関係が維持されている間に、少なくとも人物AとCは5時刻の間静止していた。さらにはグループ情報300に示したように人物ペア「A,C」が受け渡し姿勢をとったことが判定されて当該ペアの姿勢フラグに1が設定された。これらのデータから人物ペア「A,C」は検出条件を満たすものとされ、グループとして検出された。
また、中間データ200および移動軌跡111に示したように、人物Bの出現位置は入国ゲート101であり、人物Cの出現位置とは異なる。人物BとCは、時刻tにおいてD1以下の距離に近接し、グループ情報300の近接時間に示したようにその後10時刻の間、近接位置関係が維持された。また、中間データ200の静止時間に示したように近接位置関係が維持されている間に、少なくとも人物BとCは5時刻の間静止していた。さらにはグループ情報300に示したように人物ペア「B,C」が受け渡し姿勢をとったことが判定されて当該ペアの姿勢フラグに1が設定された。これらのデータから人物ペア「B,C」は検出条件を満たすものとされ、グループとして検出された。
また、中間データ200および移動軌跡113,114に示したように、人物Dの出現位置は入国ゲート101であり、人物Eの出現位置は入退室エリア103であり、互いに異なる。人物DとEは、時刻tにおいてD1以下の距離に近接し、グループ情報300の近接時間に示したようにその後10時刻の間、近接位置関係が維持された。また、中間データ200の静止時間に示したように近接位置関係が維持されている間に、少なくとも人物BとCは5時刻の間静止していた。さらにはグループ情報300に示したように人物ペア「D,E」が受け渡し姿勢をとったことが判定されて当該ペアの姿勢フラグに1が設定された。これらのデータから人物ペア「D,E」は検出条件を満たすものとされ、グループとして検出された。
ここで、不審者ではない出迎えのグループであっても、グループの中のひとりの歩みが遅れてグループの中の別のひとりがそれに気づかずに短時間だけ先に進んでしまうことが生じ得る。このような場合の誤報を防止するために別行動判定手段53は離間の際の移動方向および/または離間時間を確認することが好適である。
すなわち、別行動判定手段53は、離間位置関係となったグループについて、近接位置関係から当該離間位置関係となるまでの人物の移動方向差を算出し、当該移動方向差が所定の別行動判定角度rを超える場合に別行動が発生したと判定する。
また、別行動判定手段53は、グループの人物が離間位置関係を継続した離間時間を計測し、離間時間が所定の別行動判定時間T4を超えた場合に当該グループに別行動が発生したと判定する。
具体的には、別行動判定手段53は、人物情報とグループ情報とを参照して、各時刻においてグループフラグに1が設定されている人物ペアごとに、人物間距離がD2を超えたときの両者の直近移動方向の差を離間時の移動方向差として算出して別行動判定角度rと比較するとともに、人物間距離がD2を超えている時間を離間時間として計測してT4と比較し、移動方向差がrを超え、且つ離間時間がT4を超えた場合に当該人物ペアに別行動が発生したと判定する。別行動判定角度rは例えば90度とすることができ、離間時間は例えば数秒程度の長さとすることができる。
なお、上記説明では、移動方向差がrを超え且つ離間時間がT4を超えることを条件としたが、一方のみの成立を条件とし、移動方向差がrを超えた場合に別行動が発生したと判定してもよいし、離間時間がT4を超えた場合に別行動が発生したと判定してもよい。また、2以上の条件成立を管理して成立した条件別にランク付けしてもよい。
本実施形態では、移動方向差がrを超え且つ離間時間がT4を超えた場合と、離間時間がT4を超えた場合に別行動が発生したと判定し、前者を後者よりも確信度が高い状態として管理する。
そして、別行動判定手段53は、グループ情報における、移動方向差がrを超え且つ離間時間がT4を超えた人物ペアの別行動状態に「あり」、離間時間がT4を超えた且つ移動方向差が未だrを超えていない人物ペアの別行動状態に「警告」、それ以外の人物ペアの別行動状態に「なし」を設定する。また、別行動判定手段53は、判定処理の中間結果として、人物情報における各人物の離間時間を人物情報記憶手段40との間で適宜入出力し、グループ情報における各人物ペアの直近移動方向をグループ情報記憶手段42との間で入出力する。
不審者判定手段54は、少なくとも別行動判定手段53による判定結果を参照して、別行動の発生が判定されたグループの人物を不審者と判定し、不審者の情報(不審者情報)を生成して不審者情報出力手段31に出力する。
具体的には、不審者判定手段54は、グループ情報記憶手段42に記憶されたグループ情報を参照し、別行動状態が「あり」または「警告」である人物ペアを構成する人物を不審者と判定して、グループ情報記憶手段42のグループ情報における当該人物ペアの不審度に1以上の値を設定する。このとき、不審者判定手段54は、別行動状態が「警告」である場合よりも「あり」である場合の方が不審者である確度が高いとして、「警告」である場合の不審度を1、「あり」である場合の不審度を2に設定する。
ここで、受け渡しを行う不審者は人目を避けるために監視領域の滞在時間を短く済ませる傾向があると考えられる。そこで、不審者判定手段54は、人物の前記監視領域における滞在時間を計測し、別行動の発生が判定されたグループの人物の滞在時間が所定の短期滞在判定時間T5以下である場合に当該人物を不審者と判定することもできる。短期滞在判定時間T5は例えば事前の実験等を通じて得られた監視領域の平均滞在時間よりも短い時間に予め設定される。
或いは、滞在時間の短さに応じて不審者である確度を高めることも好適である。この場合、例えば、不審者判定手段54は、別行動状態が「あり」である人物ペアを構成するいずれかの人物の滞在時間がT5以下である場合に当該ペアの不審度を3に設定し、別行動状態が「あり」である人物ペアを構成する人物の滞在時間がいずれもT5を超えている場合に当該ペアの不審度を2に設定する。また、例えば、不審者判定手段54は、さらに別行動状態が「警告」である人物ペアを構成するいずれかの人物の滞在時間がT5以下である場合に当該ペアの不審度を2に設定し、別行動状態が「警告」である人物ペアを構成する人物の滞在時間がいずれもT5を超えている場合に当該ペアの不審度を1に設定する。
また、不審者判定手段54は、不審度が1以上である人物グループを構成する人物の人物情報を基に、監視員が当該人物の行動等を視認可能な不審者情報を生成して、不審者情報出力手段31に出力する。例えば、不審者情報は、監視画像、該当する人物ペアの不審度、および該当する人物の人物画像を合成した画像とすることができる。
不審者情報出力手段31は、不審者判定手段54から入力された不審者情報を通信網を介して表示部6に伝送する。そして、不審者情報は、表示部6によって表示され、監視員により視認される。
図5には、或る時刻tの30時刻後における人物情報の中間データ201を例示している。また、図4には、時刻tからその30時刻後までに、人物A~Eを追跡して得られた人物位置を結んだ移動軌跡210~214を模式的に示している。また、図6には、時刻tから30時刻後のグループ情報300を例示している。
これらを基に別行動判定手段53による別行動判定処理と不審者判定手段54による不審者判定の例を説明する。
グループ情報300に示したように、グループフラグに1が設定された人物ペア「A,C」、「B,C」および「D,E」がグループとして検出されている。
そのうちの人物ペア「A,C」は、移動軌跡210,211に示したように離間時の移動方向差が大きく、グループ情報300の離間時間に示したように15時刻の間、離間位置関係を継続している。これらのデータから人物ペア「A,C」には別行動が発生したと判定され、別行動状態に「あり」が設定された。そして、別行動状態が「あり」に設定されたことを受けて、人物ペア「A,C」の不審度が2に設定された。
人物ペア「B,C」は、移動軌跡211,212から分かるように離間時の移動方向差が大きいが、グループ情報300に示したように離間時間は未だ5時刻である。これらのデータから人物ペア「B,C」には別行動が発生したと判定され、未だ離間時間が短いため別行動状態に「警告」が設定された。そして、別行動状態が「警告」に設定されたことを受けて、人物ペア「B,C」の不審度が1に設定された。
人物ペア「D,E」は、移動軌跡213,214から分かるように離間時の移動方向差が小さいため、別行動の発生が判定されない。そのため、人物ペア「D,E」の別行動状態は「なし」のままとなり、人物ペア「B,C」の不審度は0のままとなる。
図8~図12のフローチャートを参照して画像監視装置1の動作を説明する。
画像監視装置1の管理者は監視領域が無人であることを確認して画像監視装置1を起動する。起動後、撮影部2は監視領域を所定時間間隔で撮影して監視画像を順次出力する。通信部3は画像取得手段30として動作し、監視画像は画像取得手段30を介して画像処理部5に順次入力される。
画像処理部5では監視画像が取得されるたびに図8のステップS1~S5の処理が繰り返される。
画像取得手段30を介して監視画像が取得されると(S1)、画像処理部5が人物追跡手段50等として動作するとともに記憶部4が人物情報記憶手段40等として動作し、監視画像中の各人物を追跡する(S2)。
図9を参照してステップS2の人物追跡処理を説明する。人物追跡処理の過程においては、画像処理部5がグループ検出手段51、姿勢判定手段52、別行動判定手段53および不審者判定手段54としても動作するとともに、記憶部4が監視領域情報記憶手段40およびグループ情報記憶手段42としても動作し、適宜、グループ検出や別行動判定、不審者判定のための情報生成が行われる。
まず、人物追跡手段50は、監視画像と背景画像との差分処理により監視画像から人物画像を抽出して人物位置(現在位置)を特定する(S211)。また、ステップS211において人物追跡手段50は、適宜、背景画像の更新を行う。なお、起動直後から所定時間が経過するまで、ステップS211において人物追跡手段50は入力された監視画像を平均化するなどして背景画像を生成し、記憶部4に記憶させる処理を行うだけで、ステップS212~S226の処理を省略する。
次に、人物追跡手段50は、人物画像のそれぞれから特徴量を抽出して、人物情報記憶手段40に記憶している追跡中の人物(追跡人物)の人物特徴量と比較して人物画像の人物IDを特定することで、人物の対応付けを行う(S212)。このとき、人物追跡手段50は、いずれの追跡人物とも対応づかない人物画像には新規の人物IDを付与する。
続いて、人物追跡手段50は、新規の人物(新規人物)を含めた追跡人物を順次注目人物に設定してステップS213~S226のループ処理を実行する。
追跡人物のループ処理において、まず、人物追跡手段50は、注目人物が新規人物であるか否かを確認する(S214)。人物情報記憶手段40に記録がなければ新規人物である。注目人物が新規人物であれば(ステップS214にてyes)、処理をステップS215に進める。
ステップS215においては新規人物の人物情報とグループ情報の追記が行われる。すなわち、人物追跡手段50は、ステップS212で付与した注目人物の人物ID、ステップS211で抽出した人物画像、ステップS212で抽出した人物特徴量を有する人物情報を人物情報記憶手段40に追加記憶させる。また、グループ検出手段51は注目人物の人物IDとその他の追跡人物の人物IDとを組み合わせた新規の人物ペアのグループ情報をグループ情報記憶手段42に追加記憶させる。
続くステップS216においては新規人物の人物情報とグループ情報が初期化される。すなわち、グループ検出手段51はステップS215で追記された人物情報における出現位置を空欄、静止時間を0に更新する。また、グループ検出手段51はステップS215で追記されたグループ情報における近接時間を0、グループフラグを0に更新する。また、姿勢判定手段52は当該グループ情報における姿勢判定フラグを0に更新する。また、別行動判定手段53は、当該人物情報における直近移動方向を空欄に更新し、当該グループ情報における離間時間を0、別行動状態を「なし」に更新する。また、不審者判定手段54は当該人物情報における滞在時間を0に更新し、当該グループ情報における不審度を0に更新する。
続くステップS217において、グループ検出手段51は注目人物の現在位置を、監視領域情報記憶手段41に記憶されている監視領域情報と比較して、注目人物の出現位置が第一進入口領域であるか第二進入口領域であるかを判定し、判定結果を人物情報記憶手段40に記憶させる。本実施形態では、第一進入口領域であれば「入国ゲート」、第二進入口領域であれば「入退室エリア」という文字列が記憶される。
ステップS217の判定を終えると処理はステップS226に進められる。
一方、注目人物が新規人物でない場合(ステップS214にてno)、処理はステップS218に進められる。
ステップS218において人物追跡手段50およびグループ検出手段51は注目人物が消失(すなわち監視領域外に移動)したか否かを確認する。消失した場合(ステップS218にてyes)、人物追跡手段50が注目人物の人物情報を人物情報記憶手段40から削除するとともに、グループ検出手段51が注目人物を含む人物ペアのグループ情報をグループ情報記憶手段42から削除して(S225)、処理はステップS226に進められる。
他方、注目人物が消失していない場合(ステップS218にてno)、処理はステップS219に進められる。
ステップS219において、グループ検出手段51は、人物情報記憶手段40に記憶されている注目人物の1時刻前の人物位置と、ステップS211で特定した注目人物の現在位置から移動距離を算出して静止判定距離D0と比較する。移動距離がD0以下である場合(ステップS219にてyes)、グループ検出手段51は人物情報記憶手段40に記憶されている注目人物の静止時間を1時刻だけインクリメントする(S220)。他方、移動距離がD0を超えている場合(ステップS219にてno)、グループ検出手段51は人物情報記憶手段40に記憶されている注目人物の静止時間を0にリセットして(S221)処理をステップS222に進める。
続くステップS222において、不審者判定手段54は、人物情報記憶手段40に記憶されている注目人物の滞在時間を1時刻だけインクリメントする。
続くステップS223において、別行動判定手段53は、人物情報記憶手段40に記憶されている注目人物の1時刻前の人物位置と、ステップS211で特定した注目人物の現在位置から移動方向を算出して、算出した移動方向を人物情報記憶手段40における注目人物の直近移動方向に上書き記憶させる。
続くステップS224において、人物追跡手段50は、ステップS211で特定した注目人物の現在位置を人物情報記憶手段40における注目人物の現在位置に上書き記憶させる。
続くステップS226において人物追跡手段50は新規人物を含めた追跡人物の全てを注目人物として処理し終えたか否かを確認する。未処理の追跡人物がある場合(ステップS226にてno)、処理はステップS213に戻されて次の追跡人物の処理が行われる。他方、全ての追跡人物を処理し終えた場合(ステップS226にてyes)、処理は図8のステップS3へと進められる。
ステップS3においては、人物追跡処理によって更新された人物情報およびグループ情報を基にしてグループ検出処理が行われる。
図10を参照してステップS3のグループ検出処理を説明する。グループ検出処理の過程においては、画像処理部5がグループ検出手段51および姿勢判定手段52として動作するとともに、記憶部4が人物情報記憶手段40およびグループ情報記憶手段42として動作する。
グループ検出手段51は、グループ情報記憶手段42からグループ情報を読み出し、グループ情報に含まれている人物ペアを順次注目ペアに設定してステップS311~S323のループ処理を実行する。
人物ペアのループ処理において、まず、グループ検出手段51は、注目ペアのグループフラグが0であるか否かを確認する(S312)。グループフラグが0であれば注目ペアが不審者のグループの可能性があるか否かが未定であるとして(ステップS312にてyes)、処理をステップS313に進める。他方、グループフラグが1である場合(ステップS312にてno)、ステップS313~S322は省略されて処理はステップS323に進められる。
ステップS313において、グループ検出手段51は、注目ペアを構成する人物それぞれの人物情報を人物情報記憶手段40から読み出し、両者の出現位置を比較する。両者の出現した進入口が異なる場合(ステップS313にてyes)、グループ検出手段51は、不審者のグループの可能性があるとして処理をステップS314に進める。他方、出現した進入口が同一である場合(ステップS313にてno)、ステップS314~S322は省略されて処理はステップS323に進められる。
ステップS314においてグループ検出手段51は注目ペアを構成する人物それぞれの静止時間を静止判定時間T3と比較する。両者の静止時間が共にT3を超えている場合(ステップS314にてyes)、グループ検出手段51は、不審者のグループの可能性があるとして処理をステップS315に進める。他方、静止時間の一方がT3以下であった場合(ステップS314にてno)、ステップS315~S322は省略されて処理はステップS323に進められる。
ステップS315において、グループ検出手段51は、注目ペアを構成する人物の現在位置から人物間距離を算出して人物間距離を近接判定距離D1と比較する。人物間距離がD1以下である場合(ステップS315にてyes)、グループ検出手段51はグループ情報記憶手段42に記憶されている注目ペアの近接時間を1時刻だけ増加させて(S316)、処理をステップS317に進める。他方、人物間距離がD1を超えている場合(ステップS315にてno)、ステップS316~S322は省略されて処理はステップS323に進められる。
ステップS317において、姿勢判定手段52は、注目ペアを構成する人物それぞれの人物情報を人物情報記憶手段40から読み出し、両者の現在位置と人物画像から注目ペアの姿勢が受け渡し姿勢であるか否かを判定する。注目ペアの姿勢が受け渡し姿勢である場合(ステップS317にてyes)、姿勢判定手段52は、グループ情報記憶手段42に記憶されている注目ペアの姿勢フラグを1に更新する(S318)。他方、注目ペアの姿勢が受け渡し姿勢でなかった場合(ステップS317にてno)、ステップS318の処理は省略される。
ステップS319~S321において、グループ検出手段51は、グループ情報記憶手段42から注目ペアのグループ情報を改めて読み出すとともに、人物情報記憶手段40から注目ペアを構成する人物それぞれの人物情報を改めて読み出して、これらの情報を基に注目ペアが不審者のグループの可能性があるか否かを判定する。
ステップS319においてグループ検出手段51は注目ペアの姿勢フラグが1であるか否かを確認する。姿勢フラグが1である場合(ステップS319にてyes)、グループ検出手段51は、不審者のグループの可能性があるとして処理をステップS320に進める。他方、姿勢フラグが0である場合(ステップS319にてno)、ステップS320~S322は省略されて処理はステップS323に進められる。
ステップS320においてグループ検出手段51は注目ペアの近接時間を群行動判定時間T1と比較する。近接時間がT1を超えている場合(ステップS320にてyes)、グループ検出手段51は、不審者のグループの可能性があるとして処理をステップS321に進める。他方、近接時間がT1以下である場合(ステップS320にてno)、ステップS321,S322は省略されて処理はステップS323に進められる。
ステップS321においてグループ検出手段51は注目ペアの近接時間を短期接触判定時間T2と比較する。近接時間がT2以下である場合(ステップS321にてyes)、グループ検出手段51は、不審者のグループの可能性があるとして、グループ情報記憶手段42に記憶されている注目ペアのグループフラグを1に更新する(S322)。他方、近接時間がT2を超えている場合(ステップS321にてno)、不審者のグループである可能性は無いとしてステップS322は省略されて処理はステップS323に進められる。
ステップS323においてグループ検出手段51はグループ情報に含まれている全ての人物ペアを注目ペアとして処理し終えたか否かを確認する。未処理の人物ペアがある場合(ステップS323にてno)、処理はステップS311に戻されて次の人物ペアの処理が行われる。他方、全ての人物ペアを処理し終えた場合(ステップS323にてyes)、処理は図8のステップS4へと進められる。
ステップS4においては、グループ検出処理によって検出されたグループの人物に別行動が発生したか否かを判定する別行動判定処理が行われる。
図11を参照してステップS4の別行動判定処理を説明する。別行動判定処理の過程においては、画像処理部5が別行動判定手段53として動作するとともに、記憶部4が人物情報記憶手段40およびグループ情報記憶手段42として動作する。
別行動判定手段53は、グループ情報記憶手段42からグループ情報を読み出し、グループ情報に含まれている人物ペアを順次注目ペアに設定してステップS411~S422のループ処理を実行する。
人物ペアのループ処理において、まず、別行動判定手段53は、注目ペアのグループフラグが1であるか否かを確認する(S412)。グループフラグが1であれば(ステップS412にてyes)、処理をステップS413に進める。他方、グループフラグが0であれば判定対象でないとして(ステップS412にてno)、処理をステップS422に進める。
また、別行動判定手段53は、注目ペアの別行動状態が「なし」または「警告」であるかを確認する(S413)。別行動状態が「なし」または「警告」であれば判定対象であるとして(ステップS413にてyes)、処理をステップS414に進める。他方、別行動状態が「あり」であれば判定済みであるとして(ステップS413にてno)、処理をステップS422に進める。
ステップS414において、別行動判定手段53は、注目ペアを構成する人物それぞれの人物情報を人物情報記憶手段40から読み出し、両者の現在位置から人物間距離を算出して人物間距離を離間判定距離D2と比較する。人物間距離がD2を超えている場合(ステップS414にてyes)、別行動判定手段53はグループ情報記憶手段42に記憶されている注目ペアの離間時間を1時刻だけ増加させて(S417)、処理をステップS418に進める。他方、人物間距離がD2以下である場合は別行動が発生していないとして(ステップS414にてno)、別行動判定手段53はグループ情報記憶手段42における注目ペアの離間時間を0にリセットするとともに(S415)、同ペアの別行動状態に「なし」を設定して(S416)、処理をステップS422に進める。
ステップS418において、別行動判定手段53は、ステップS417で更新した注目ペアの離間時間を別行動判定時間T4と比較する。離間時間がT4を超えている場合は別行動が発生しているとして(ステップS418にてyes)、処理をステップS419に進める。他方、離間時間がT4以下である場合は別行動が発生していないとして(ステップS418にてno)、ステップS419~S421は省略されて処理はステップS422に進められる。
ステップS419において、別行動判定手段53は、注目ペアを構成する人物の間で直近移動方向の差である移動方向差を算出して移動方向差を別方向判定角度rと比較する。移動方向差がrを超えている場合は別行動発生の確信度の高い状態であるとして(ステップS419にてyes)、別行動判定手段53はグループ情報記憶手段42における注目ペアの別行動状態に「あり」を設定して(S421)、処理をステップS422に進める。他方、移動方向差がr以下である場合は別行動発生の可能性がある状態が続いているとして(ステップS419にてno)、別行動判定手段53はグループ情報記憶手段42における注目ペアの別行動状態に「警告」を設定して(S420)、処理をステップS422に進める。
ステップS422において別行動判定手段53はグループ情報に含まれている全ての人物ペアを注目ペアとして処理し終えたか否かを確認する。未処理の人物ペアがある場合(ステップS422にてno)、処理はステップS411に戻されて次の人物ペアの処理が行われる。他方、全ての人物ペアを処理し終えた場合(ステップS422にてyes)、処理は図8のステップS5へと進められる。
ステップS5においては、別行動判定処理の結果に基づいて不審者を判定する不審者判定処理が行われる。
図12を参照してステップS5の不審者判定処理を説明する。不審者判定処理の過程においては、画像処理部5が不審者判定手段54として動作するとともに、記憶部4が人物情報記憶手段40およびグループ情報記憶手段42として動作する。
不審者判定手段54は、グループ情報記憶手段42からグループ情報を読み出し、グループ情報に含まれている人物ペアを順次注目ペアに設定してステップS511~S518のループ処理を実行する。
人物ペアのループ処理において、不審者判定手段54は、グループ情報における注目ペアの別行動状態を確認する(S512,S515)。
注目ペアの別行動状態が「あり」である場合(ステップS512にてyes)、不審者判定手段54は、注目ペアのグループ情報記憶手段42における注目ペアの不審度を2に更新する(S514)。
そして、別行動状態が「警告」または「なし」である場合(ステップS512にてno)、不審者判定手段54は、処理をステップS515に進める。
他方、注目ペアを構成する人物の滞在時間がいずれもT5を超えている場合(ステップS513にてno)、不審者判定手段54は、注目ペアのグループ情報記憶手段42における注目ペアの不審度を0に更新し(S517)、処理をステップS518に進める。
ステップS515において不審者判定手段54は注目ペアの別行動状態を再び確認する。注目ペアの別行動状態が「警告」である場合(ステップS515にてyes)、不審者判定手段54は、注目ペアのグループ情報記憶手段42における注目ペアの不審度を1に更新し(S516)、処理をステップS518に進める。
他方、注目ペアの別行動状態が「なし」である場合(ステップS515にてno)、不審者判定手段54は、注目ペアのグループ情報記憶手段42における注目ペアの不審度を0に更新し(S517)、処理をステップS518に進める。
ステップS518において不審者判定手段54はグループ情報に含まれている全ての人物ペアを注目ペアとして処理し終えたか否かを確認する。未処理の人物ペアがある場合(ステップS518にてno)、処理はステップS511に戻されて次の人物ペアの処理が行われる。他方、全ての人物ペアを処理し終えた場合(ステップS518にてyes)、処理は図8のステップS6へと進められる。
ステップS6において、不審者判定手段54は、改めてグループ情報記憶手段42のグループ情報を参照し、不審度が1以上であるグループの有無を確認する。
不審度が1以上であるグループがある場合(ステップS6にてyes)、不審者情報の生成および出力が行われる(S7)。
ステップS7において、不審者判定手段54は、不審度が1以上である人物ペアを構成する人物の人物情報を人物情報記憶手段40から読み出す。そして、不審者判定手段54は、人物ごとに当該各人物が属する人物ペアの不審度を表す文字列、と当該各人物の人物画像を合成した不審者画像を生成する。さらに、不審者判定手段54は、これら1または複数の不審者画像を監視画像に並べて合成した画像を不審者情報として生成し、通信部3に出力する。
不審者情報を入力された通信部3は不審者情報出力手段31として動作し、不審者情報を表示部6に伝送する。表示部6は不審情報を監視員が視認可能に表示する。
他方、不審度が1以上であるグループがない場合(ステップS6にてno)、ステップS7は省略される。このとき、画像処理部5は監視画像をそのまま通信部3に出力して表示部6に伝送させ、表示部6に監視画像を表示させてもよい。
以上の処理を終えると処理は再びステップS1に戻される。
<変形例>
(1)上記実施形態においては、空港内の到着ロビーを監視領域とする例を示したが、バスの到着ロビー、駅の改札前、通路の合流地点など、人と人とが専ら異方向から到来して合流する領域に適用可能である。
(2)上記実施形態およびその変形例においては、2種類の進入口領域を設定する例を示したが、三叉路の各通路上に進入口領域を設定する等、3種類以上の進入口領域を設定してもよい。
(3)上記実施形態およびその各変形例においては、グループ検出手段51が群行動判定時間T1を下限値とし短期接触判定時間T2を上限値とする不審行動判定時間の範囲内で近接位置関係を維持した人物のグループを検出する例を示したが、上限値を省略し、近接時間が群行動判定時間T1を超える範囲を不審行動判定時間の範囲としてもよい。
(4)上記実施形態およびその各変形例においては、グループ検出手段51が出現位置に基づいて異方向から到来した人物のグループを検出する例を示したが、出現位置に代わる検出指標として人物の移動方向を用いることもできる。
その場合、グループ検出手段51が、上述した別行動判定手段53と同様にして、不審行動判定時間の範囲内で近接位置関係を維持した人物について、当該近接位置関係となる直前の移動方向差を算出し、当該移動方向差が所定の別方向判定角度を超える場合にグループを検出する。
(5)上記実施形態およびその各変形例においては、別行動判定手段53が近接位置関係から離間位置関係となるまでの人物の移動方向差に基づいて別行動の発生を検出する例を示したが、移動方向差に代わる検出指標として監視領域からの消失を用いることもできる。
その場合、別行動判定手段53は、グループの人物が離間位置関係を維持したまま監視領域から消失した場合に当該グループに別行動が発生したと判定する。
(6)上記実施形態およびその各変形例においては、人物追跡手段50が人物位置履歴として出現位置と最新位置を記録し、グループ検出手段51、別行動判定手段53、不審者判定手段54が逐次的に人物位置履歴を参照して各種処理を行う例を示した。さらなる変形例においては、撮影手段が撮影時刻を付加して監視画像を出力して、人物追跡手段50が人物位置履歴として出現位置から最新位置までの人物位置と撮影時刻の組を記録し、グループ検出手段51、別行動判定手段53および不審者判定手段54が適宜に人物位置履歴をさかのぼることによって各種処理を行ってもよい。この場合、例えば、直前移動方向を3時刻以上の移動方向の平均とすることができる。また、この場合、例えば、不審者判定手段54は不審者情報に不審度が1以上の人物についての移動軌跡を加えて出力することもできる。
(7)上記実施形態およびその各変形例においては、グループ検出手段51が、近接位置関係の維持に加えて、出現位置か移動方向差の条件、受け渡し姿勢の条件および静止時間の条件を満足する人物のグループを検出する例を示したが、グループ検出手段51は、出現位置の条件、移動方向差の条件、受け渡し姿勢の条件および静止時間の条件を省略して検出してもよいし、出現位置の条件、移動方向差の条件、受け渡し姿勢の条件および静止時間の条件のうちのひとつの条件を用いて検出してもよいし、出現位置の条件と移動方向差の条件を同時使用しない範囲で出現位置の条件、移動方向差の条件、受け渡し姿勢の条件、静止時間の条件のうちの2以上の条件を組み合わせて検出してもよい。