以下、本発明に係る人物検出装置を用いた実施の形態(以下実施形態という)である監視装置1について、図面に基づいて説明する。監視装置1は、ドアDとその周辺を含む監視空間を2つのカメラによって撮影し、ドアDを通行しようとする人物を各カメラが撮影した画像から検出すると共に同一人物をカメラ間で対応付けて当該人物の監視を行う。
[監視装置1の構成]
図1は監視装置1の概略の構成を表すブロック図である。監視装置1は顔認証装置2及び人物追跡装置3を含んで構成される。
顔認証装置2は監視空間に存在する人物の認証を行う装置であり、当該人物の顔を撮影して得られる画像を用いて認証を行う。顔認証装置2は認証用撮影部20、認証情報記憶部21、認証処理部22及び送信部23を含んで構成される。認証処理部22は認証用撮影部20、認証情報記憶部21及び送信部23と接続される。
人物追跡装置3は監視空間に存在する人物の追跡、監視を行う装置であり、受信部30、追跡用撮影部31、追跡情報記憶部32、追跡処理部33及び出力部34を含んで構成される。追跡処理部33は受信部30、追跡用撮影部31、追跡情報記憶部32及び出力部34と接続される。出力部34は音響出力手段と接続される。
顔認証装置2と人物追跡装置3とは送信部23と受信部30との間の通信を介して接続される。また、送信部23は電気錠とも接続される。
次に顔認証装置2及び人物追跡装置3の各構成要素について説明する。
図2は監視空間における認証用撮影部20及び追跡用撮影部31の配置の一例を示す模式図であり、図2(a)は監視空間にてドアDに向かって立つ人物Paの側方から見た図を示しており、図2(b)は当該人物Paの後方から見た図を示している。図2に示すように、認証用撮影部20及び追跡用撮影部31は、顔認証装置2が人物Paを認証する際に人物Paが存在する領域を、互いに異なる位置(視点)から撮影可能な位置に設置されている。
認証用撮影部20(第一カメラ)は、監視空間に存在する人物の顔を撮影する撮影装置であり、当該人物の顔を撮影するのに適した位置に設置される。例えば、認証用撮影部20の設置位置は、ドアDに向かう人物Paをほぼ正面から撮影可能な位置とされる。本実施形態では認証用撮影部20はドアD近傍の壁面の例えば高さ2.2mの位置に、その撮影方向を水平面に対してやや下向きに向けて設置される。認証用撮影部20は監視空間を所定時間おきに撮影して、撮影した画像を認証処理部22に順次出力する。以下、認証用撮影部20が撮影した画像を認証用画像と称する。
一方、追跡用撮影部31(第二カメラ)は、監視空間に存在する人物を上方から撮影する撮影装置である。追跡用撮影部31は所定時間おきに監視空間を撮影して、撮影した画像を追跡処理部33に順次出力する。以下、追跡用撮影部31が撮影した画像を追跡用画像と称する。例えば、追跡用撮影部31は例えばドアD近傍の天井に、その撮影方向を鉛直下方に向けて設置される。このように設置すると、追跡用画像内において人物Paの人物像がその周囲に存在する他の人物の人物像と重なりにくくすることができる。つまり、追跡用画像上で他の人物の陰に隠れてしまう人物が減るので、追跡に適した画像が得られる。
認証情報記憶部21は、例えばROM等のメモリ素子を含んで構成され、人物の認証情報や認証処理部22によって実行される各種のプログラム等を記憶している。具体的に、認証情報記憶部21は、ドアDの通行が許可された1又は複数の人物(以下、通行許可者という)それぞれの認証情報を記憶している。ここで認証情報は、例えば通行許可者の顔の特徴を表す特徴量(顔特徴量)及び識別番号など、通行許可者を他の人物と区別して特定するための情報である。
認証処理部22は、例えばデジタルシグナルプロセッサ(DSP)等の演算装置により構成され、認証情報記憶部21に記憶されるプログラムに従って認証処理を実行する。当該認証処理において認証処理部22は、認証用撮影部20が撮影した認証用画像の中から人の顔の領域を検出し、その顔位置、顔向き、顔向き検出の信頼度、及び顔サイズを算出する。また、認証処理部22は、検出した顔領域内の画像を認証情報記憶部21に記憶された通行許可者の認証情報と照合し、通行許可者の認証情報と照合一致した顔領域があれば、当該顔領域が示す人物に認証を与える。
認証処理部22は認証を与える場合には所定の認証信号を送信部23に対して出力する。この認証信号には、認証を与えたことを示す情報のほか、認証用画像から検出された顔領域における顔位置、顔向き及び顔サイズ、当該顔領域と照合一致した通行許可者の識別番号を含めることができる。以下、顔位置、顔向き、顔サイズ及び識別番号を含んだ情報を顔情報と称する。
送信部23は、例えばLANインタフェース等の通信装置であって、照合一致が得られたタイミングで認証処理部22が出力する認証信号を受けて、顔情報を受信部30に対して送信する。また、送信部23は認証信号を受けると、ドアDを解錠するための制御信号を電気錠に対して出力する。これにより、ドアDが所定時間だけ開放され、通行許可者はその間にドアDを通行できる。
受信部30は、例えばLANインタフェース等の通信装置及びバッファであって、顔認証装置2の送信部23が送信する顔情報を受信して、バッファに記憶する。バッファに記憶された顔情報は追跡処理部33によって読み出される。
なお、本実施形態では2つの撮影部20,31それぞれの設置位置に対応して顔認証装置2、人物追跡装置3を互いに分けて配置する構成としており、これに対応して送信部23及び受信部30が設けられている。一方、顔認証装置2及び人物追跡装置3を一体的に構成することもでき、この場合は通信装置としての送信部23及び受信部30を省略することが可能である。
追跡情報記憶部32は、例えばROMやRAM等のメモリ素子を含んで構成され、追跡処理部33によって実行される各種のプログラムや、追跡処理部33が実行する処理により利用される各種のパラメータなどの情報が記憶される。
このパラメータにはカメラパラメータ、及び追跡用画像におけるドアDの位置が含まれる。具体的には、カメラパラメータは、実空間における、認証用撮影部20及び追跡用撮影部31それぞれの設置位置及び撮影方向を含む設置パラメータ、並びに認証用撮影部20及び追跡用撮影部31それぞれの画角、画素数及びレンズ歪みを含む撮像パラメータなどである。
追跡処理部33は、例えばCPUやDSP等の演算装置であって、追跡情報記憶部32に記憶されるプログラムに従って追跡処理を実行する。すなわち、追跡処理部33は、追跡用画像から人物像を抽出して人物像の位置を追跡すると共に、顔認証装置2からの顔情報を、追跡している人物像と対応付けることで人物像の異常を検知した場合に当該異常の検知に応じた信号を出力部34に出力する。なお、本実施形態において追跡処理部33が実行する処理の具体例については後述する。
出力部34は追跡処理部33による処理結果を外部機器等に出力するためのインタフェースである。出力部34は、例えばスピーカやブザー等の音響出力手段と接続され、追跡処理部33からの指示により、当該音響出力手段に対して異常信号を出力して警告音を鳴動させる。
図3は監視装置1の概略の機能ブロック図である。認証処理部22は、認証情報記憶部21に記憶されたプログラムに従い、認証用画像を処理する顔検出手段220及び顔照合手段221として動作する。追跡処理部33は追跡情報記憶部32に記憶されたプログラムに従い、追跡用画像を処理する人物検出手段330、座標変換手段331、対応付け手段332、追跡手段333及び異常判定手段334として動作する。また、顔検出手段220、人物検出手段330、座標変換手段331及び対応付け手段332は、認証用画像中の顔を追跡用画像中の人物と対応付ける人物検出装置を構成する。
顔検出手段220は認証用画像の中から1又は複数の人物(第一人物)の顔を示す顔領域を検出し、認証用画像上における当該人物の顔の位置(顔位置)、認証用画像上における当該人物の顔の向き(顔向き)、顔向き検出の信頼度、及び認証用画像上における当該人物の顔の大きさ(顔サイズ)を求める。
そのために顔検出手段220は、認証用画像上の各位置に検出窓を設定し、予め人の顔の画像を顔の向きごとに学習した複数の識別器に検出窓内の画像を入力して出力値を得、所定値以上の出力値が得られた検出窓を顔領域として検出する。そして、顔検出手段220は、検出した顔領域の顔位置、顔向き及び顔サイズを含めた顔情報を生成する。生成した顔情報は座標変換手段331に送信される。
例えば、顔検出手段220は、所定値以上の出力値が得られた検出窓の中心座標を、検出した顔の位置として算出する。このとき、顔検出手段220は互いに重なる検出窓については、これらのうち最大の出力値が得られた検出窓をその代表として選ぶ。こうして人物ごとに1つの顔情報を生成する。
また、顔検出手段220は、所定値以上の出力値が得られた識別器のうち最大の出力値が得られた識別器に対応する顔の向きを、検出した顔の向きとして算出する。顔向きは認証用画像上のx軸(x1軸)に対する顔の角度とすることができる。或いは顔向きをy軸(y1軸)に対する顔の角度としてもよい。或いは、顔検出手段220は顔向きの算出に、最大の出力値が得られた識別器の両隣の識別器の出力値を用いても良い。例えば、15度刻みで識別器を学習しておき、30度の識別器から最大の出力値が得られた場合、15度の識別器の出力値と30度の識別器の出力値の差、及び45度の識別器の出力値と30度の識別器の出力値の差を比較して差が小さい方の向きに差に応じた角度だけずらして顔向き(20度など)を算出することもできる。
また、顔検出手段220は、識別器から得られた最大の出力値を顔向き検出の信頼度として算出する。
また、顔検出手段220は、所定値以上の出力値が得られた検出窓の大きさを、顔サイズとして算出する。顔サイズは検出窓の幅及び高さとすることができる。或いは顔サイズを検出窓内の画素数で表してもよい。
顔照合手段221は、顔検出手段220により検出された顔領域の画像に基づいて、監視空間に存在する人物Paを照合する。すなわち、顔領域の画像を解析して得られる解析結果と、認証情報記憶部21に記憶された通行許可者の認証情報とを照合することにより、人物Paが通行許可者であるか否か判定する。この顔画像の解析及び認証情報との照合の方法としては、例えば特開2007−299186号公報に記載された方法を用いることができる。
人物検出手段330は、追跡用撮影部31によって所定時間おきに撮影された追跡用画像のそれぞれについて、当該追跡用画像の中から1又は複数の人物(第二人物)の人物像を抽出すると共に、人物像の重心位置を当該人物の位置(人物検出位置)として検出する。
具体的には、例えば人物検出手段330は、予め人が誰もいない状態の監視空間を撮影して得られる追跡用画像を背景画像として追跡情報記憶部32に記憶しておき、当該背景画像と追跡用画像とを比較して差分画素を抽出する。そして、互いに隣接する差分画素を含んで構成される差分画素群のうち、所定の条件を満足する形状や所定値以上の大きさを有する差分画素群を、人を表す人物像として抽出する。また、人物検出手段330は、上記方法のほか、エッジ検出などの各種の画像処理を組み合わせて人物像を抽出してもよい。
人物像は、追跡用画像が撮影されたタイミングで監視空間に存在する人物の数に応じた数だけ、追跡用画像の中から抽出される。人物検出手段330によって検出された人物像に関する情報は追跡情報記憶部32に記憶され、後述する追跡手段333による人物像の追跡処理に用いられる。
座標変換手段331は、認証用撮影部20と追跡用撮影部31のカメラパラメータ同士の関係から決定される共通座標系に、顔位置、顔向き、顔サイズ及び人物位置を変換する。共通座標系はワールド座標系とすることができ、監視空間における水平面をXY平面、鉛直高さ方向をZ軸とするワールド座標系XYZを設定する。例えば、X軸はドアDが設けられた壁に沿う方向とし、これに直交する水平方向をY軸とする。また、監視空間となる部屋の天井高さをZ=0とする。本実施形態において座標変換手段331は顔位置、顔向き、顔サイズ及び人物位置をそれぞれワールド座標系のXY平面(Z=0)に射影する。
ここで、認証用画像における位置座標と共通座標系における位置座標との間の対応関係、及び追跡用画像における位置座標と共通座標系における位置座標との間の対応関係は前述したカメラパラメータにより導出される。導出の規則は座標変換手段331のプログラムとして追跡情報記憶部32に予め記憶させておく。
図4及び図5は顔位置、顔向き及び人物位置の関係を説明するための模式図であり、図4は認証用画像の例を示しており、図5はワールド座標系のXY平面における人物等の位置関係を示している。
図4(a)に示す認証用画像50には2人の人物P1,P2が写っている。人物P1,P2は互いに相手の方を向いており、認証用撮影部20に対して顔を横に向けている。人物P1の像から顔領域501が検出され、その重心座標が顔位置F1と算出される。同様に人物P2の像から顔領域502が検出され、その重心座標が顔位置F2と算出される。人物P1,P2が顔を横に向けているため顔位置F1,F2は体の中心線から顔向きの方向にずれて検出される。すなわち顔位置F1,F2は本人の体の中心線から離れる方向にずれて検出される。そして、顔向きの方向は他人が居る場合、顔位置は当該他人の体に近づく方向にずれて検出される。
図4(b)に示す認証用画像51は2人の人物P1,P2が正面を向いているときの画像であり、対比のために認証用画像50とは人物P1,P2の位置が同じで顔の向きだけが異なる画像を示している。この場合には人物P1について検出される顔領域511の重心座標である顔位置512、人物P2について検出される顔領域513の重心座標である顔位置514は、それぞれ体の中心線上に算出される。
認証用画像50のx1−y1座標系の顔位置F1,F2は、図5に示すように、ワールド座標系のXY平面である共通座標系52において、認証用撮影部20の設置位置521を通るエピポーラ線EP1,EP2にそれぞれ変換される。一方、人物P1,P2が正面を向いているときの顔位置512,514はそれぞれ、当該人物の像の中心を通るエピポーラ線522,523に変換される。
つまり、共通座標系52において、人物P2側に顔を向けた人物P1の顔位置EP1は本人P1の中心から離れ、他人P2側に角度φ1だけずれて算出される。同様に、共通座標系52において、人物P1側に顔を向けた人物P2の顔位置EP2は本人P2の中心から離れ、他人P1側に角度φ2だけずれて算出される。
ここで、図5において人物P1,P2それぞれの人物の検出位置H1,H2は人物の像の中心を通るエピポーラ線522,523からずれている。これは、人物検出手段330が追跡用画像から影524と一体化した人物P1の人物像を抽出してしまい、人物像の重心位置H1が人物P1の本来の重心位置からずれたためである。人物P2の人物像についても、影525の影響で人物像の重心位置H2が人物P2の本来の重心位置からずれて算出されている。
上述のように顔向きに応じて顔位置と人物位置との位置関係が変化することは他人の顔位置と人物位置とを対応付けてしまうという誤りや、本人の顔位置と人物位置とを対応付け損ねる誤りの原因となる。また、この顔向きの変動によって顔位置がずれる傾向に、上述した影などの影響による人物位置の検出誤差や、顔位置の検出誤差及び撮影部間のキャリブレーション誤差などが複合すると、誤対応付けはさらに起こりやすくなる。そこで次に説明する対応付け手段332により、顔向きの変動によって顔位置がずれる傾向を考慮して誤対応付けを防止する。
対応付け手段332は、認証用撮影部20(第一カメラ)及び追跡用撮影部31(第二カメラ)のカメラパラメータから決定される共通座標系において、注目している人物(第一人物。以下、注目人物と称す。)の顔位置の周辺に、人物検出手段330によって当該人物が検出されると推定される推定領域(周辺領域)を設定し、人物検出手段330が当該推定領域にて検出した人物(第二人物)を注目人物と同一人物であると判定して注目人物に対応付ける。
この際に、対応付け手段332は注目人物の顔向きを参照して、推定領域を注目人物の顔位置の前方よりも後方に広く設定する。顔位置の後方に推定領域を広げることは、本人の顔位置と人物位置を対応付け損ねる誤りを起こりにくくし、顔位置の前方における推定領域を狭めることは、他人同士の顔位置と人物位置を対応付けてしまう誤りを起こりにくくする。
また、対応付け手段332は、注目人物の推定領域を、認証用撮影部20からの距離に関し、顔サイズに応じて予め定められた範囲に制限するように構成することができる。これにより、他人同士の顔位置と人物位置とを対応付けてしまう誤りを防止する。
また、対応付け手段332は、顔向き検出の信頼度が高いほど注目人物の顔の横方向に対しての推定領域の広がりを狭く設定し、逆に当該信頼度が低いほど顔の横方向に対しての推定領域の広がりを広く設定するように構成することができる。すなわち、顔向き検出の信頼度が高いほど推定領域の推定精度は高くなることが期待でき、推定領域を狭めても本人の顔位置と人物位置とが推定領域から外れにくく、一方、推定領域を狭めることで他人同士の顔位置と人物位置を対応付けてしまう誤りが防止されるので、対応付けの精度が向上する。
例えば、対応付け手段332は、顔向き及びその信頼度を考慮せずに顔位置を基準として推定領域を初期設定し、当該推定領域を顔向き及びその信頼度を考慮して補正する。
図6は補正前の推定領域の例を示す共通座標系のXY平面60の模式図であり、図5にて説明した人物P1について、その人物像の存在が推定される領域を人物P1の顔位置EP1を基準として初期設定した様子を示している。認証用撮影部20の撮影面に対する顔位置EP1の方向角をθとしたときに、θ±θmの範囲を推定領域の人物の幅方向の初期値とすることができる。θmは、例えば、顔検出手段220が顔を検出する平均的な距離(認証用撮影部20から顔までの距離)を実験から求め、当該距離における標準的な人の幅の見込み角に見込み誤差を加えて予め設定し、例えば、追跡情報記憶部32に記憶しておく。或いは、上述した平均的な距離の代わりに、検出した顔サイズから換算した顔までの距離を用いて、都度設定することもできる。或いは、顔の検出の信頼度が高いほど狭く、信頼度が低いほど広いθmを予め設定しておき、算出した信頼度に応じたθmを用いることもできる。
また、顔検出手段220が検出する顔サイズを用い、対応付け手段332は推定領域を、認証用撮影部20からの距離に関し、顔サイズに応じて予め定められた範囲に制限することもできる。すなわち、人物P1の顔サイズに応じて初期設定の推定領域の人物奥行き方向の範囲を認証用撮影部20から半径RL以上RH未満とすることができる。顔サイズとRL,RHの関係は人の顔の平均的な大きさとカメラパラメータとから導出される認証用画像上での顔位置と顔サイズとの関係に顔サイズの見込み誤差を加減することによって、顔位置と顔サイズの組み合わせごとに予め設定し、例えば、追跡情報記憶部32に記憶しておく。
以上の値を用い、対応付け手段332は、XY平面において、認証用撮影部20の位置を一端とする方向角(θ+θm)の直線600、方向角(θ−θm)の直線601、及び認証用撮影部20の位置を中心とする半径RLの円、半径RHの円により囲まれた領域602を推定領域の初期値として導出する。なお、顔サイズ及びそれに応じたRL,RHを用いずに扇形の推定領域を設定することもできる。
図5に示す例に対応して設定される人物P1の推定領域の初期値602には図6に示すように、本人の人物位置H1が含まれているものの、他人の人物位置H2も含まれてしまい、顔位置EP1に対応する人物位置がH1であるかH2であるか特定しがたい。
図7、図8は図6に示す推定領域の初期値602に対応した補正後の推定領域の例を示す共通座標系のXY平面の模式図である。
図7において、矢印605は顔位置EP1に対応して算出された人物P1の顔向きを共通座標系に変換したベクトルである。このベクトルは顔位置EP1のエピポーラ線に対して角度θfをなしている
対応付け手段332は人物P1の顔向きθfを参照して、人物P1の顔位置EP1の後ろ側に初期設定した方向角(θ+θm)の直線600を顔向きの後方寄りにθaだけ回転させて方向角(θ+θm+θa)の直線610に補正する。補正は顔向きだけを考慮して行うこともできるが本実施形態では顔向きとその信頼度の両方を考慮して行い、θaには図8に示すように、顔向きの角度θfに応じた顔の後ろ向きの成分700に加え、顔向きの信頼度に応じた顔の側方向きの成分702が含まれる。よって、顔向きの信頼度をCfとすると、θaはθf,Cfの関数α(θf,Cf)で与えられる。すなわちθa=α(θf,Cf)である。ここでα≧0である。
顔位置EP1の後ろ側の直線600に対する補正のうち後ろ向きの成分700を用いた補正は、顔位置より後方の推定領域を広げる。これにより顔向きの変動によってずれた推定領域を人物P1の人物像側に近づけることができ、人物P1の本来の人物位置H1が推定領域に含まれる可能性を高めることができる。
側方向きの成分702は顔向き検出の信頼度Cfが高いほど大きく設定され、顔位置であるエピポーラ線に近づく方向に補正後の直線610を修正する。これにより顔向き検出の信頼度Cfが高いほど、顔の横方向に対しての推定領域の広がりを狭めることができ、他人P2の人物位置H2が推定領域に含まれる可能性を低減することができる。
エピポーラ線のずらし量を定める関数αとして、例えば、予め顔向きの角度θf及び顔向き検出の信頼度Cfとエピポーラ線のずらし量との関係をテーブルとして追跡情報記憶部32に記憶させておく。対応付け手段332は当該テーブルからθf及びCfに関連付けたαの値を読み出してθaを定める。
また、対応付け手段332は人物P1の顔向きθfを参照して、人物P1の顔位置EP1の前方側に初期設定した方向角(θ−θm)の直線601を顔向きの後方寄りにθbだけ回転させて方向角(θ−θm+θb)の直線611に補正する。当該補正は上述の顔向きの後ろ側の場合と同様、顔向きとその信頼度の両方を考慮して行い、θbには図8に示すように、顔向きの角度θfに応じた顔の後ろ向きの成分701と、顔向きの信頼度に応じた顔の側方向きの成分703とが含まれる。よって、θbは関数β(θf,Cf)で与えられる。すなわちθb=β(θf,Cf)である。ここでβ≧0である。
後ろ向きの成分701を用いた補正は、顔位置より前方の推定領域を狭める。これにより推定領域を他人P2の人物像から遠ざけることができ、他人P2の人物位置H2を推定領域から除外する可能性を高めることができる。
側方向きの成分703は顔向き検出の信頼度Cfが高いほど大きく設定され、補正後の直線611は顔位置であるエピポーラ線に近づく。これにより顔向き検出の信頼度Cfが高いほど、顔の横方向に対しての推定領域の広がりを狭めることができ、他人P2の人物位置H2が推定領域に含まれる可能性を低減することができる。
エピポーラ線のずらし量を定める関数βとして、例えば、予め顔向きの角度θf及び顔向き検出の信頼度Cfとエピポーラ線のずらし量との関係をテーブルとして追跡情報記憶部32に記憶させておく。対応付け手段332は当該テーブルからθf及びCfに関連付けたβの値を読み出してθbを定める。
このように補正することで、図6の推定領域の初期値602から、図7に示す補正した推定領域612が得られる。この補正した推定領域612には、本人の人物位置H1が含まれ、且つ他人の人物位置H2を含まない。よって、初期値の推定領域602とは異なり、補正後の推定領域612では、顔位置EP1に対応する人物位置がH1であると正確に特定できるようになる。
また、対応付け手段332は、注目人物の推定領域に複数の人物位置が含まれる場合に、認証用撮影部20から人物位置までの距離が最も近い人物を優先して注目人物に対応付ける。この処理は、認証用画像において手前の人物によって隠された後ろの人物の顔が検出されなかった場合に、他人同士の顔位置と人物位置を対応付けてしまう誤りを防止する効果がある。
図3に戻り、残りの機能ブロックを説明する。追跡手段333は、追跡用撮影部31が所定時間おきに撮影した追跡用画像のそれぞれについて、人物検出手段330が人物像を抽出するごとに、以下に説明するような人物像の追跡処理を行う。すなわち、追跡手段333は、新たに撮影された追跡用画像から人物検出手段330によって抽出された人物像のそれぞれを、当該追跡用画像より過去の時点において撮影された追跡用画像から人物検出手段330によって抽出され追跡情報記憶部32に記憶されている人物像と比較することによって、当該人物像に対応する人物の監視空間内における移動経路を追跡する。具体的には、追跡手段333は、新たな追跡用画像から抽出された各人物像の位置や画像特徴に関する量(例えば色ヒストグラム等)を、前回撮影された追跡用画像から抽出された人物像の位置や画像特徴に関する量と比較することによって、同じ人物を表す人物像同士を関連付ける。そして、同一人物を表す人物像として互いに関連付けられた人物像の、時系列に従って撮影された各追跡用画像内における位置を示す時系列情報を、当該人物の移動経路を示す移動経路情報として出力する。
ここで、追跡手段333は、対応付け手段332によって通行許可者のものであると特定された人物像については、他の人物像と区別するために、当該人物の移動経路情報に対して、対応する識別番号を関連付ける。具体例として、追跡手段333は、新たな追跡用画像から抽出された人物像のうち、前回撮影された追跡用画像内に同一人物を示す人物像が存在しないと判定された人物像については、新たに監視空間に入ってきた人物の人物像として、まず人物が不明であることを示す番号を関連付ける。これにより、追跡手段333により追跡対象となる監視空間内の各人物は、常に最初は通行許可者ではないものとして管理される。そして、顔認証装置2から認証信号を受信したタイミングにおいて、対応付け手段332によって通行許可者であると特定された人物像については、当該通行許可者の識別番号に更新する。これにより、追跡手段333による追跡対象となっている人物のうち、通行許可者として特定された人物については、それ以降は他の人物と区別して追跡されることとなる。
異常判定手段334は、追跡手段333が出力する監視空間内の各人物の移動経路情報に基づいて、所定の条件に合致する不正な移動がないか否かを判定する。具体例として、人物が不明であることを示す番号が関連付けられた人物が、追跡用画像内においてドアDに対応する領域外からドアDに対応する領域内に移動したことを示す移動経路情報が追跡手段333によって出力された場合、異常判定手段334は、不正な通行があると判定して、異常信号を出力部34に対して出力する。
[動作例]
次に監視装置1の動作について説明する。
図9は顔認証装置2の動作の概略のフロー図である。認証用撮影部20は、撮影した認証用画像を認証処理部22に出力する(S100)。認証処理部22は顔検出手段220として動作し、認証用画像から顔領域を検出する(S101)。顔検出手段220は人の顔の画像を学習した識別器にて認証用画像を走査し、顔領域を検出する。
顔検出手段220は、ステップS101にて顔領域が検出された場合(S102にて「Yes」の場合)は処理をステップS103へと進める。この場合、顔検出手段220はステップS101にて検出された顔領域のそれぞれについて顔情報を生成する(S103)。すなわち、顔検出手段220は、各顔の顔位置、顔向き、顔サイズ及び顔向き検出の信頼度を算出し、これらに識別番号の初期値を加えた顔情報を生成する。
また、認証処理部22は顔照合手段221として動作し、顔領域の照合を行う(S104)。すなわち、顔照合手段221はステップS101にて検出された顔領域のそれぞれを認証情報記憶部21に記憶されている通行許可者の顔特徴量と照合し、照合一致した顔領域があれば、当該顔領域に対して生成された顔情報に、照合一致した通行許可者の識別番号を書き込む。顔照合手段221は、照合一致した顔領域が1以上あれば(S105にて「Yes」の場合)、各顔情報を含めた認証信号を送信部23に出力して処理をステップS106へと進める。認証信号を入力された送信部23は、解錠信号を生成して電気錠に出力し(S106)、また、顔情報を人物追跡装置3に送信する(S107)。
認証処理部22はステップS107を終えると、処理をステップS100に戻し、次の認証用画像についての処理に移る。なお、ステップS101にて顔領域が検出されなかった場合(S102にて「No」の場合)、及びステップS104にて、照合一致した顔領域が1つもない場合(S105にて「No」の場合)もステップS100に戻る。
図10は人物追跡装置3の動作の概略のフロー図である。追跡情報記憶部32には、監視空間に人物が存在しない状態で取得した追跡用画像が背景画像として格納される。監視装置1が監視動作を開始すると、追跡用撮影部31は撮影した追跡用画像を追跡処理部33に出力する(S200)。追跡処理部33は人物検出手段330として動作し、追跡情報記憶部32から読み出した背景画像と、追跡用撮影部31から入力された追跡用画像とを比較して人物像を抽出し、その重心位置を人物位置として検出する(S201)。ステップS201にて人物像が抽出された場合(S202にて「Yes」の場合)は、追跡処理部33は顔認証装置2にて検出された顔情報をステップS201で検出された人物の情報に結合させる情報結合処理S203を行う。
また、追跡処理部33は追跡手段303として動作し、ステップS201で抽出された人物像の追跡処理を行う(S204)。この追跡処理は、具体的には、ステップS201で抽出された人物像のそれぞれについて、前回までに抽出された人物像と同一人物を示す人物像か否かの判定を行い、判定結果に応じて、新たに抽出された人物像の位置を既に追跡情報記憶部32に記録されている各人物の移動経路情報に追加する処理である。
追跡処理部33は異常判定手段334として動作し、ステップS204の処理により得られる移動経路情報を参照して、顔認証装置2による認証を受けていない人物がドアDを通行しようとする不正通行がないか判定する(S205)。判定の結果、不正通行が検知された場合(S205にて「Yes」の場合)、異常判定手段334は出力部34に対して異常信号を出力する(S206)。
追跡処理部33はステップS206を終えると処理をステップS200に戻し、次の追跡用画像についての処理に移る。なお、ステップS201にて人物像が抽出されなかった場合(S202にて「No」の場合)、及び不正通行が検知されない場合(S205にて「No」の場合)もステップS200に戻る。
図11及び図12は情報結合処理S203の概略のフロー図である。追跡処理部33は受信部30が顔認証装置2からの顔情報を新たに受信しているか否か判定する(S300)。受信部30にて顔情報を受信している場合(S300にて「Yes」の場合)、処理対象となっている追跡用画像は、顔認証装置2による認証が行われたタイミングで撮影された画像であり、その中には通行許可者が映っていると判断される。その場合、追跡処理部33はステップS301以降の処理を実行する。一方、顔情報を受信していない場合(S300にて「No」の場合)は、追跡用画像内に新たに通行許可者は映っていないと判断されるため、ステップS301〜S311をスキップして処理をステップS204に進める。
追跡処理部33は座標変換手段331として動作し、顔情報と人物位置とを共通座標系に変換する(S301)。すなわち、座標変換手段331は、カメラパラメータを用いて、受信した顔情報に含まれる顔位置、顔向き及び顔サイズ、並びにステップS201にて検出した人物位置を共通座標系に変換する。前述したように、座標変換後の顔位置は、認証用撮影部20の設置位置を原点とし、その撮影面に対し角度θをなすエピポーラ線となる。また、座標変換後の顔向きは当該エピポーラ線に対する角度θfで表され、座標変換後の顔サイズは実寸換算した顔領域の幅w及び高さhで定義する。なお、座標変換手段331は複数人物の顔情報を受信していれば各人物の顔情報を座標変換し、複数人物の人物位置を検出していれば各人物の人物位置を座標変換する。
次に追跡処理部33は対応付け手段332として動作する。対応付け手段332は、座標変換した顔情報それぞれに対して、顔サイズ(w,h)に基づき、推定領域の奥行き方向の距離範囲を定める下限値RL及び上限値RHを算出する(S302)。
また、対応付け手段332は、座標変換した顔情報それぞれに対して、顔向きθf及び顔向き検出の信頼度Cfに基づき、推定領域の補正量θa,θbを算出する(S303)。
対応付け手段332は、ステップS301にて座標変換した顔位置、ステップS302にて算出した距離範囲及びステップS303にて算出した補正量から、共通座標系において各顔情報に対応する人物位置が検出される領域を推定する(S304)。すなわち、それぞれが認証用撮影部20の設置位置を原点とし、その撮影面に対し角度(θ+θm+θa),(θ−θm+θb)をなす2本の直線に挟まれる扇形領域のうち、認証用撮影部20の設置位置を中心とする半径RL以上RH未満の領域が推定領域として算出される。なお、推定領域は、2本のエピポーラ線によって形成される2つの扇形領域のうち、中心角が2π以下の方に設定される。
対応付け手段332は顔情報を順次処理するループ処理S305〜S311を開始する。対応付け手段332は、顔サイズの降順にて顔情報を順次、注目顔情報に設定する(S305)。顔サイズの降順とすることで、認証用撮影部20に近い人物から対応付けが行われることが期待できる。対応付け手段332は、ステップS301にて座標変換した人物位置を注目顔情報の推定領域と比較して、当該推定領域に含まれる人物位置を選出する(S306)。その際、既に別の顔情報との対応付けが確定している人物位置は除外して選出を行う。
対応付け手段332はステップS306にて選出された人物位置の数を確認する。選出された人物位置が0であれば(S307にて「Yes」の場合)、人物追跡装置3が現フレームにおいて注目顔情報と対応する人物を検出していないとして対応付けをスキップし、処理をステップS311へと進める。
対応付け手段332は、選出された人物位置が1つであれば(S307にて「No」且つS308にて「Yes」の場合)、注目顔情報を当該人物位置が示す人物情報と対応付ける(S309)。すなわち、注目顔情報に含まれる人物の識別番号を当該人物情報に書き込む。
対応付け手段332は、選出された人物位置が複数であれば(S307にて「No」且つS308にて「No」の場合)、そのうち人物位置が認証用撮影部20に最も近い人物情報を注目顔情報と対応付ける(S310)。すなわち、対応付け手段332は、認証用撮影部20の設置位置から当該人物位置それぞれまでの距離を算出して算出した距離同士を比較し、最小距離の人物位置が示す人物情報を選出する。そして、対応付け手段332は、注目顔情報に含まれる人物の識別番号を選出した人物情報に書き込む。
注目顔情報について人物情報との対応付け処理S309,S310が完了した場合、又は対応付けをスキップした場合、当該注目顔情報についての処理が終わり、対応付け手段332は全顔情報を処理し終えていなければ(S311にて「No」の場合)、処理をステップS305に戻し、次の顔情報を処理する。全顔情報の処理を終えると(S311にて「Yes」の場合)、処理を図10のステップS204へと進める。
[変形例]
(1)顔情報の検出
上述の実施形態では顔情報を、顔の向きごとに学習した複数の識別器を用いて認証用画像から検出する例を示したが、顔情報の検出はその他の手法で行うこともできる。
例えば、Regression Forest法を用いて顔向きの角度を連続変数で得ることができる。
また、識別器を用いずに、認証用画像における目、鼻及び口を含む肌色領域を顔領域として検出し、当該顔領域から顔情報を抽出してもよい。例えば、顔向きは、右目と鼻の間の距離と、左目と鼻の間の距離との比率から算出できる。また、肌色領域の重心座標、或いは外接矩形の中心座標を顔位置として算出し、また肌色領域の外接矩形の幅及び高さを顔サイズとして算出できる。
(2)推定領域の設定
図13は顔位置に基づいて設定した推定領域の初期値を補正する方法の他の例を示す模式図であり、図6,図7等と同様の共通座標系のXY平面の模式図である。図13には図6に示した初期値の推定領域602を補正する例を示している。この方法では、初期値の推定領域602を、ベクトル800で示すように、顔向きの後ろ方向に平行移動させる。移動量は例えば平均的な人の頭部1つ分を円で近似したときの直径とすることができる。
図14は顔位置に基づいて推定領域を設定する方法の他の例を示す模式図であり、図6,図7等と同様の共通座標系のXY平面の模式図である。図14には図6に示した人物P1の顔位置のエピポーラ線EP1に対応する推定領域を設定する例を示している。この方法では、認証用画像から検出された顔向きの後ろ方向に顔位置を変位させ、変位させた顔位置の周囲の所定範囲を推定領域に設定する。図14に示す例では、座標変換後の顔位置であるエピポーラ線EP1を顔向きθfの後ろ方向にθcだけ回転させ、回転後のエピポーラ線EP1’から±θmの範囲に推定領域900を設定する。変位量θcは平均的な人の頭部1つ分に対する見込み角度とすることができる。
(3)共通座標系
追跡用画像の座標系(追跡用撮影部31の撮影面の座標系)を共通座標系としてもよい。