JP5470111B2 - 監視カメラ端末 - Google Patents

監視カメラ端末 Download PDF

Info

Publication number
JP5470111B2
JP5470111B2 JP2010056964A JP2010056964A JP5470111B2 JP 5470111 B2 JP5470111 B2 JP 5470111B2 JP 2010056964 A JP2010056964 A JP 2010056964A JP 2010056964 A JP2010056964 A JP 2010056964A JP 5470111 B2 JP5470111 B2 JP 5470111B2
Authority
JP
Japan
Prior art keywords
person
terminal
height
foot
frame image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010056964A
Other languages
English (en)
Other versions
JP2011193187A (ja
Inventor
慎也 湯淺
丈嗣 内藤
俊介 上條
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
University of Tokyo NUC
Original Assignee
Omron Corp
University of Tokyo NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, University of Tokyo NUC filed Critical Omron Corp
Priority to JP2010056964A priority Critical patent/JP5470111B2/ja
Publication of JP2011193187A publication Critical patent/JP2011193187A/ja
Application granted granted Critical
Publication of JP5470111B2 publication Critical patent/JP5470111B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

この発明は、自端末に割り当てられている監視対象エリアを撮像したフレーム画像を処理し、この監視対象エリアに位置する人物を追跡する監視カメラ端末に関し、特に監視対象エリアの一部が重複している他の監視カメラ端末との間で、追跡している人物の受け渡しが行える監視カメラ端末に関する。
従来、駅、ショッピングセンタ、繁華街等の不特定多数の人が集まる場所では、複数の監視カメラ端末を用いて、特異な行動をとった不審者等の人物(以下、単に不審者と言う。)の検出や、検出した不審者の追跡を行っている。複数の監視カメラ端末で不審者を追跡する場合、この不審者の移動に応じて、追跡する監視カメラ端末を切り替える必要がある。また、不審者を追跡する監視カメラ端末を切り替えるときには、追跡を引き継ぐ監視カメラ端末が、その不審者を同定する必要がある。この不審者の同定に失敗すると、追跡を引き継いだ監視カメラ端末が、これまで追跡していた不審者でない別の人を追跡する。したがって、検出した不審者を見失い、この不審者の追跡に失敗する。
不審者の同定精度を向上させるために、不審者を追跡している一方の監視カメラ端末が、不審者の検出に使用したテンプレート情報を、この不審者の追跡を引き継ぐ他方の監視カメラ端末に通知し、この他方の監視カメラ端末が通知されたテンプレート情報を用いて不審者を同定することが提案されている(特許文献1参照)。
また、テンプレート情報だけではなく、不審者の検出に利用した特徴情報(例えば、画像から切り出した不審者の画像データ、形状、色、大きさなどにより不審者を特定する情報、あるいは目、鼻、口等の顔部品の形状や、位置等)を他方の監視カメラ端末に通知することも提案されている(特許文献2参照)。
特許第3814779号公報 特許第3999561号公報
しかしながら、不審者を追跡している一方の監視カメラ端末と、この不審者の追跡を引き継ぐ他方の監視カメラ端末とでは、被写体である不審者に対するアングルが異なる。したがって、一方の監視カメラ端末で撮像したフレーム画像における不審者の画像と、他方の監視カメラ端末で撮像したフレーム画像における同一の不審者の画像とでは、不審者の外形や、目、鼻、口等の顔部品等の形状に違いが生じる。このため、不審者の検出に使用したテンプレート情報や特徴情報を、一方の監視カメラ端末から他方の監視カメラ端末に通知しても、他方の監視カメラ端末がアングルの違いを考慮したマッチングを行えない限り、不審者の同定精度を確保することができない。
また、上述のアングルの違いを考慮したマッチングを行うには、被写体である不審者の3次元情報を用いればよいのであるが、不審者の3次元情報を得るには、ステレオカメラを用いなければならない。このため、個々の監視カメラ端末のコストがアップし、これにともない監視システム全体のコストもアップする。
この発明の目的は、他の監視カメラ端末との間で、追跡している人物の同定精度を十分に確保し、且つ、コストアップも十分に抑えられる監視カメラ端末を提供することにある。
この発明の監視カメラ端末は、上記目的を達するために、以下のように構成している。
人物抽出手段が、自端末に割り当てられている監視対象エリアを撮像したフレーム画像毎に、撮像されている人物を抽出する。ID付与手段は、人物抽出手段が抽出した人物にIDを付与する。このIDは、付与した人物を識別できるユニークな値であればよい。足元位置取得手段は、ID付与手段がIDを付与した人物について、その人物のフレーム画像上における足元の座標位置を取得する。また、オブジェクトマップ作成手段が、人物抽出手段が抽出した人物毎に、その人物に付与されているIDと、フレーム画像上における足元の座標位置と、を対応付けたオブジェクトマップを作成する。そして、追跡手段が、オブジェクトマップ作成手段が作成したオブジェクトマップを用いて、自端末に割り当てられている監視対象エリア内に位置する人物を追跡する。
すなわち、時系列にフレーム画像を処理することにより得られた、時系列に並べたオブジェクトマップにより、IDを付与した人物の足元の座標位置の時間的変化を得ることで、監視対象エリア内における、その人物の移動が追跡できる。
また、身長推定手段が、ID付与手段がIDを付与した人物毎に、その人物の身長を推定する。足元位置取得手段は、フレーム画像に足元が撮像されていない人物、すなわち足元が他の物体に隠れて撮像されていない人物、については、身長推定手段が推定した身長を用いて、その人物の足元の座標位置を取得する。したがって、フレーム画像に足元が撮像されていない人物であっても、その人物の足元の座標位置が精度良く取得できる。
上述の身長推定手段は、例えば、IDを付与した人物の足元と頭頂部とが撮像されているフレーム画像上における、足元の座標位置、および頭頂部の座標位置に基づいて身長を推定すればよい。また、推定した身長については、該当するIDに対応付けて記憶すればよい。これにより、IDを付与した人物に対する身長の推定は、その人物に対して何度も繰り返し行う必要がない。
また、IDを付与した人物について、その人物の顔が撮像されているフレーム画像から顔部品の特徴量を抽出し、当該人物の性別や年齢等の属性を推定し、ここで推定した属性に応じて、当該人物の身長を推定する構成としてもよい。
また、監視カメラ端末は、オブジェクトマップ取得手段が、割り当てられている監視対象エリアが、自端末の監視対象エリアの一部と重複している相手側端末とのデータ通信により、この相手側端末が作成した相手側オブジェクトマップを取得する。座標変換情報記憶手段が、自端末のフレーム画像の座標位置と、相手側端末のフレーム画像の座標位置とにおける、相対的な位置関係を示す座標変換情報を記憶する。そして、同定手段は、座標変換情報記憶手段が記憶している座標変換情報を用いて、自端末が抽出した人物の足元の位置、および相手側端末が抽出した人物の足元の位置を共通の座標系の位置に変換し、この共通の座標系における、自端末が抽出した人物の足元の位置と、相手側端末が抽出した人物の足元の位置との距離によって、重複エリアに位置する人物を同定する
この共通の座標系は、どのような座標系であってもよいが、どちらか一方の監視カメラ端末(自端末、または相手側端末)の座標系とするのが好ましい。このようにすれば、一方のオブジェクトマップに登録されている人物の足元の位置についてのみ、座標変換を行えばよいので、この座標変換にかかる処理負荷が抑えられる。
通常、自端末が抽出した人物と、相手側端末が抽出した人物と、が同一の人物であっても、共通の座標系での座標位置は、アングルの違いや、検出精度等の要因により若干の誤差はある。自端末が抽出した人物と、相手側端末が抽出した人物とは、その足元の座標位置間の距離によって同定することで、この同定にかかる精度を十分に確保できる。
例えば、重複エリアに位置する自端末が抽出した人物と、相手側端末が抽出した人物と、を1対1で対応付けた組み合せの中で、対応付けた人物の足元の座標位置間の距離(共通の座標系での座標位置間の距離)の総和が最小である組み合せにより、重複エリアに位置する人物を同定すればよい。
また、共通の座標系を2種類とし、各種類での総和が最小である組み合せにより、重複エリアに位置するオブジェクトを同定してもよい。この場合、2種類の共通の座標系は、自端末のフレーム画像の座標系と、相手側端末のフレーム画像の座標系と、の2つにするのが好ましい。
この発明によれば、他の監視カメラ端末との間で、追跡している人物の同定精度を十分に確保でき、且つ、コストアップも十分に抑えられる。
広域監視システムの構成を示す概略図である。 監視カメラ端末の主要部の構成を示すブロック図である。 第1の推定身長の推定に用いる位置係数αnを説明する図である。 属性テーブルを示す図である。 隣接する2つの監視カメラ端末の撮像エリアを示す図である。 監視カメラ端末の追跡処理を示すフローチャートである。 オブジェクトマップを説明する図である。 ID確定処理を示すフローチャートである。
以下、この発明の実施形態である監視カメラ端末について説明する。
図1は、この発明の実施形態にかかる監視カメラ端末を用いた、広域監視システムの構成を示す概略図である。この広域監視システムは、複数の監視カメラ端末1(1A〜1H)を有するネットワークシステムである。この広域監視システムは、例えば、アドホック型のネットワークシステムである。監視カメラ端末1間では、直接、または他の監視カメラ端末1を介してデータ通信が行える。この監視カメラ端末1間のデータ通信は、無線であってもよいし、有線であってもよい。
なお、この広域監視システムを構成する監視カメラ端末1の台数は、ここで例示している8台に限らず、複数台であれば何台であってもよい。また、図1に示した、監視カメラ端末1間を結ぶ線はリンクである。また、以下の説明では、特に監視カメラ端末1A〜1Hを区別しないで説明する場合、監視カメラ端末1と示す。
図2は、監視カメラ端末の主要部の構成を示す図である。監視カメラ端末1は、制御部11と、撮像部12と、画像処理部13と、記憶部14と、タイマ15と、通信部16と、を備えている。制御部11は、本体各部の動作を制御する。撮像部12は、自端末に割り当てられている監視対象エリアを撮像する。言い換えれば、撮像部12の撮像エリアが自端末に割り当てられている監視対象エリアである。撮像部12は、1秒間に30フレーム程度の撮像画像(フレーム画像)を出力する。このフレーム画像は、画像処理部13に入力される。
画像処理部13は、撮像部12が撮像した監視対象エリアのフレーム画像を処理し、撮像されている人物を抽出する。また、画像処理部13は、抽出した人物にIDを付与する。このIDは、人物を識別できるユニークな値である。また、画像処理部13は、時間的に連続する複数のフレーム画像を処理することにより、監視対象エリア内を移動している人物(IDが付与されている人物)を追跡する。画像処理部13は、時空間MRF(Markov Random Field)モデルを利用して、撮像されている人物の抽出や追跡を行う。時空間MRFモデルは、公知のように、時空間画像の時間軸方向の相関関係に着目し、MRFモデルを時空間モデルとして拡張したものである。この時空間MRFモデルは、処理対象であるフレーム画像に対して数ピクセル×数ピクセル(例えば、8ピクセル×8ピクセル)のブロックで領域分割を行い、時間的に連続するフレーム画像間でのブロック毎の動きベクトルを参照した時間軸方向の相関を定義するモデルである。
また、画像処理部13は、抽出した人物について、その人物の身長を以下に示す2通りの方法(第1の方法、および第2の方法)で推定する。
第1の方法は、フレーム画像上で抽出した人物について、その足元と、頭頂部とが撮像されていれば、当該フレーム画像上における足元の座標位置と、頭頂部の座標位置とに基づいて身長を推定する。具体的には、フレーム画像上における足元の座標位置と、頭頂部の座標位置との距離を算出し、これに撮像位置(例えば、足元の座標位置)に応じた位置係数αn(n=1、2、3・・・n)を乗じた値を、当該人物の推定身長(第1の推定身長)とする。フレーム画像上における人物の大きさ(身長)は、撮像部12からの距離に反比例する。例えば、撮像部12が、図3(A)に示すエリアを撮像している場合、フレーム画像は図3(B)に示す画像になる。位置係数αnは、図3に示すように、撮像されている人物と、撮像部12との距離が長くなるにつれて、その値が大きくなる(α1側の値が大きくなる。)。画像処理部13は、フレーム画像上において、撮像部12からの距離によって区分(フレーム画像上の座標位置で区分)した複数の領域毎に、対応する位置係数αnを対応付けた位置係数テーブル13aを記憶している。
第2の方法は、フレーム画像上で抽出した人物の性別、および年齢に基づいて身長を推定する。具体的には、フレーム画像上で抽出した人物について、その人物の顔画像が撮像されていれば、その人物の顔部品(目、鼻、口等)の特徴量を抽出し、性別、および年齢を含む属性を推定する。画像処理部13は、顔部品の特徴量から属性を推定するのに用いる属性推定情報13bを記憶している。顔部品の特徴量から属性を推定する技術については、公知であるので、ここでは詳細な説明を省略する。また、画像処理部13は、属性別(性別、および年齢別)に身長を対応付けた属性テーブル13c(図4参照)を記憶している。画像処理部13は、この人物について、推定した属性に対応する身長を属性テーブル13cから読み出し、これを推定身長(第2の推定身長)とする。
なお、画像処理部13は、IDが付与されている人物毎に、IDと第1の推定身長、および第2の推定身長を対応付けて記憶する。したがって、同一人物に対して、第1の推定身長を何度も繰り返し推定したり、第2の推定身長を何度も繰り返し推定したりすることはない。
記憶部14は、本体を動作させる動作プログラムや、動作時に利用する設定データ、動作時に発生した処理データ等を記憶する。タイマ15は、現在時刻を計時する。通信部16は、他の監視カメラ端末1との間におけるデータ通信を制御する。
この広域監視システムは、特異な行動をとった不審者等の人物を追跡するシステムであり、この人物の移動に応じて、その人物を追跡する監視カメラ端末1を切り替える。これにより、不審者の追跡を広域的に行う。図5は、隣接する2つの監視カメラ端末1A、1Bの撮像エリア(監視対象エリア)を示す図である。隣接する2つの監視カメラ端末1A、1Bは、撮像エリア(監視対象エリア)の一部が重複している。この重複している撮像エリアを、ここでは重複エリアと言う。図5では、隣接する2つの監視カメラ端末1A、1Bの監視対象エリアを例示しているが、隣接する他の2つの監視カメラ端末1の組み合せにおいても、監視対象エリアの一部が重複している。監視カメラ端末1は、隣接する他の監視カメラ端末1との間で、重複エリアに位置する人物X、Yを、1対1で対応付ける同定処理を行う。図5では、人物X、Yは、監視カメラ端末1A、1Bの重複エリア内に位置し、人物Zは、監視カメラ端末1Aの監視対象エリア内で、且つ監視カメラ端末1Bとの重複エリア外に位置している。
なお、ここでは、監視対象エリアの一部が重複している2つの監視カメラ端末1を、隣接している監視カメラ端末1と呼んでいる。また、隣接している監視カメラ端末1は、直接(他の監視カメラ端末1を介さず)データ通信が行える。
また、監視カメラ端末1は、隣接する他の監視カメラ端末1が1台であるとは限らない。言い換えれば、隣接する監視カメラ端末1が2台や3台である監視カメラ端末1もある。ただし、重複エリアは、隣接する他の監視カメラ端末1毎に異なる。
各監視カメラ端末1は、隣接する監視カメラ端末1毎に、自端末の撮像部12が撮像したフレーム画像の2次元座標系と、隣接する相手側監視カメラ端末1の撮像部12が撮像したフレーム画像の2次元座標系と、の相対的な位置関係を示す座標変換情報を記憶部14に記憶している。この座標変換情報は、自端末の撮像部12が撮像したフレーム画像の2次元座標系と、隣接する相手側監視カメラ端末1の撮像部12が撮像したフレーム画像の2次元座標系と、を共通の座標系に射影変換する情報である。ここでは、この座標変換情報として、自端末の撮像部12が撮像したフレーム画像の2次元座標系を、隣接する相手側監視カメラ端末1の撮像部12が撮像したフレーム画像の2次元座標系に射影変換する第1の座標変換パラメータと、反対に、隣接する相手側監視カメラ端末1の撮像部12が撮像したフレーム画像の2次元座標系を、自端末の撮像部12が撮像したフレーム画像の2次元座標系に射影変換する第2の座標変換パラメータと、を記憶部14に記憶している。
なお、座標変換情報は、第1の座標変換パラメータ、または第2の座標変換パラメータのどちらか一方のみであってもよい。
ここで、第1の座標変換パラメータ、および第2の座標変換パラメータについて説明しておく。この第1の座標変換パラメータ、および第2の座標変換パラメータは、監視カメラ端末1の設置時に、実際に撮像したフレーム画像を用いて算出した値である。
まず、監視カメラ端末1の設置完了時に、テープ等を用いて、隣接する相手側監視カメラ端末1との重複エリア内の床面に4点をマーキングする。そして、自端末の撮像部12で撮像したフレーム画像を処理し、このフレーム画像上におけるマーキングした4点の座標位置(x,y)を検出する。同様に、隣接する相手側監視カメラ端末1が撮像部12で撮像したフレーム画像上におけるマーキングした4点の座標位置(X,Y)を、この相手側端末から取得する。そして、マーキングした点毎に、その座標位置を、
X=(a1x+b1y+c1)/(a0x+b0y+1)
Y=(a2x+b2y+c2)/(a0x+b0y+1)
に代入し、8元連立方程式を得る。この8元連立方程式の解である、a0,b0,a1,b1,c1,a2,b2,c2の8個の係数が、この隣接する相手側監視カメラ端末1との第1の座標変換パラメータである。監視カメラ端末1は、この第1の座標変換パラメータを記憶部14に記憶する。
同様に、マーキングした点毎に、その座標位置を、
x=(A1X+B1Y+C1)/(A0X+B0Y+1)
y=(A2X+B2Y+C2)/(A0X+B0Y+1)
に代入し、8元連立方程式を得る。この8元連立方程式の解である、A0,B0,A1,B1,C1,A2,B2,C2の8個の係数が、この隣接する相手側監視カメラ端末1との第1の座標変換パラメータである。監視カメラ端末1は、この第2の座標変換パラメータを記憶部14に記憶する。
次に、この広域監視システムにおける、不審者等の人物の追跡について詳細に説明する。図6は、各監視カメラ端末における追跡処理を示すフローチャートである。
監視カメラ端末1は、撮像部12が撮像した監視対象エリアのフレーム画像を画像処理部13に取り込む(s1)。画像処理部13は、s1で取り込んだフレーム画像を処理し、撮像されている人物を抽出する(s2)。画像処理部13は、前回処理したフレーム画像で抽出した人物と、s2で抽出した人物と、を対応付ける(s3)。画像処理部13は、時空間MRFモデルを用い、人物を、8ピクセル×8ピクセルのブロックを単位とする人物領域として抽出する。s3では、前回処理したフレーム画像で抽出した人物と、s2で抽出した人物と、を対応付けることにより、今回抽出した人物の移動方向や移動量を得ることができ、抽出した人物の追跡が行える。
また、今回の処理で抽出した人物であって、前回の処理で抽出されていなかった人物(すなわち、今回初めて抽出した人物)については、仮IDを付与する(s4、s5)。この仮IDが付与される人物は、前回のフレーム画像の処理から、今回のフレーム画像の処理までの間に、監視対象エリア内に入ってきた人物である。
なお、前回の処理で抽出されていたが、今回の処理で抽出されなかった人物は、前回のフレーム画像の処理から、今回のフレーム画像の処理までの間に、監視対象エリア外に出た人物である。
画像処理部13は、今回抽出した人物の中に、上述の第1の方法で推定した第1の推定身長が登録されていない人物(未登録の人物)がいるかどうかを判定する(s6)。画像処理部13は、第1の推定身長の未登録者がいれば、該当する人物を抽出する(s7)。さらに、s7で抽出した人物の中から、上述の第1の方法で第1の推定身長の推定が行える人物を抽出し、ここで抽出した人物毎に、上述の第1の方法で第1の推定身長を推定する(s8)。s8では、第1の推定身長の未登録者であって、且つ今回処理しているフレーム画像上で足元と、頭頂部とが撮像されている人物について、第1の推定身長を推定する。画像処理部13は、s8で推定した第1の推定身長を、その人物のIDに対応付けて記憶する(s9)。
また、画像処理部13は、今回抽出した人物の中に、上述の第2の方法で推定した第2の推定身長が登録されていない人物(未登録の人物)がいるかどうかを判定する(s10)。画像処理部13は、第2の推定身長の未登録者がいれば、該当する人物を抽出する(s11)。
なお、この例の監視カメラ端末1では、後述する処理で、第1の推定身長を、第2推定身長よりも優先して使用するので、第2の推定身長の未登録者であっても、すでに第1の推定身長が登録されている人物については、s11で抽出しない構成としてもよい。
画像処理部13は、s11で抽出した人物の中から、上述の第2の方法で第2の推定身長の推定が行える人物を抽出し、ここで抽出した人物毎に、顔部品(目、鼻、口等)の特徴量を抽出し、性別、および年齢を含む属性を推定する(s12)。s12では、第2の推定身長の未登録者であって、且つ今回処理しているフレーム画像上で顔が撮像されている人物について、その属性を推定する。画像処理部13は、s12で属性を推定した人物毎に、その属性に対応する身長を属性テーブル13cから読み出し、これを、その人物の第2の推定身長とする(s13)。画像処理部13は、s13で得た第2の推定身長を、その人物のIDに対応付けて記憶する(s14)。
次に、画像処理部13は、今回処理したフレーム画像に対する、オブジェクトマップを作成する(s15)。このオブジェクトマップは、図7に示すように、今回抽出した人物毎に、その人物に付与されているID(または今回付与した仮ID)と、今回処理したフレーム画像上における座標位置とを対応付けた情報である。また、監視カメラ端末1は、タイムスタンプをオブジェクトマップに付与する。このタイムスタンプは、s1でフレーム画像を画像処理部13に取り込んだ時刻であってもよいし、付与するときにタイマ15で計時している時刻(現在時刻)であってもよい。また、s15でオブジェクトマップを作成するときには、今回抽出した人物の足元位置を、その人物の座標位置として取得する。
具体的には、以下(1)〜(4)の処理手順で、今回抽出した人物の足元位置を検出する。
(1)フレーム画像上で、人物の足元が撮像されていれば、その足元の座標位置(例えば、右足の中心、左足の中心、または両足を結ぶ直線の中点)を検出し、その人物の座標位置とする。
(2)また、他の人物の影になって、足元が撮像されていない人物(肉体の一部が撮像されている人物。)であれば、その人物について、第1の推定身長を記憶していれば、この第1の推定身長を用いて、足元の座標位置を推定する。例えば、撮像されている肉体の一部からフレーム画像上における頭頂部の位置を推定し、その位置、その位置に対応する位置係数αn、および第1の推定身長を用いて、足元位置を推定し、その人物の座標位置とすればよい。また、第1の推定身長のモデルを、縦横比を変えることなく、拡大、縮小して、撮像されている肉体の一部に重ね合わせたときに、得られる足元の座標位置を推定し、その人物の座標位置としてもよい。
なお、肉体の一部は、テンプレートマッチング等で検出すればよい。
(3)また、第1の推定身長を記憶していない人物であれば、この第2の推定身長を用いて、足元の座標位置を推定する。例えば、撮像されている肉体の一部からフレーム画像上における頭頂部の位置を推定し、その位置、その位置に対応する位置係数αn、および第2の推定身長を用いて、足元位置を推定し、その人物の座標位置とすればよい。また、第2の推定身長のモデルを、縦横比を変えることなく、拡大、縮小して、撮像されている肉体の一部に重ね合わせたときに、得られる足元の座標位置を推定し、その人物の座標位置としてもよい。
(4)さらに、第2の推定身長を記憶していない人物であれば、身長の学習データ等を用いて、当該人物の身長を推定し、ここで推定した身長を用いて、足元の座標位置を推定する。この場合も、ここで推定身長を用いて、上述した(2)や(3)と同様の手法で、足元の座標位置を推定し、その人物の座標位置とすればよい。
なお、この例では、第1の推定身長を、第2の推定身長よりも優先して使用する構成としているので、上述の(1)〜(4)の順番で、フレーム画像上において抽出した人物の座標位置を取得するとしたが、第2の推定身長を、第1の推定身長よりも優先して使用する構成とするのであれば、上述の(2)、(3)の順番を入れ換えればよい
監視カメラ端末1は、s15で作成されたオブジェクトマップを記憶部14に記憶するとともに、通信部16において隣接する他の監視カメラ端末1に対して、今回作成したオブジェクトマップ(以下、自端末オブジェクトマップと言う。)を送信する(s16、s17)。
なお、各監視カメラ端末1は、隣接する他の監視カメラ端末1からオブジェクトマップ(以下、相手側オブジェクトマップと言う。)が送信されてくると、この相手側オブジェクトマップを記憶部14に記憶する。監視カメラ端末1は、隣接する相手側監視カメラ端末1毎に、相手側オブジェクトマップを区別して記憶する。
監視カメラ端末1は、上述したs1〜s17の処理を繰り返し行うことにより、自端末の監視エリア内に位置する人物の追跡を行う。
次に、s5で仮IDを付与した人物のIDを確定するID確定処理について説明する。上述したように、オブジェクトマップに登録されている人物には、その人物を特定できるID,または仮IDが付与されている。仮IDが付与されている人物には、他の監視カメラ端末1ですでにIDを付与されていた人物(すなわち、すでに追跡が開始されていた人物)と、現時点ではIDが付与されていない人物(すなわち、この広域監視システムで監視しているエリアに入ってきた人物)と、が含まれている。このID確定処理は、不審者等の人物を広域にわたって追跡するために、仮IDを付与した人物が、すでにIDが付与されている人物であれば、今回付与した仮IDを無効にし、すでに付与されているIDに戻すための処理である。また、仮IDを付与した人物が、現時点でIDが付与されていない人物であれば、今回付与した仮IDをこの人物のIDに確定する。
なお、人物に付与されているIDや、仮IDは、その人物を特定できるユニークな値である。このIDや、仮IDは、数字であってもよいし、符号であってもよいし、これらの組み合せであってもよい。また、監視カメラ端末1間で発行済IDを通知し合うことなく、各人物に異なるIDが付与できるように、付与した監視カメラ端末1が識別できる数字や符号をIDに含ませる構成が好ましい。
図8は、このID確定処理を示すフローチャートである。このID確定処理は、仮IDを付与した人物を登録したオブジェクトマップを作成したときに行う。まず、今回仮IDを付与した人物の中に、隣接する他の監視カメラ端末1との重複エリア内に位置する人物がいるかどうかを判定する(s21)。今回仮IDを付与した人物が、重複エリア内に位置している場合、その人物は、この重複エリアを監視エリアに含む隣接する相手側監視カメラ端末1で追跡されている人物である。すなわち、すでにIDが付与されている人物である。一方、今回仮IDを付与した人物が、重複エリア内に位置していない場合、その人物は、他の監視カメラ端末1で追跡されていなかった人物である。すなわち、現時点でIDが付与されていない人物である。監視カメラ端末1は、s21で重複エリア内に位置している人物がいなければ、今回仮IDを付与した人物毎に、付与した仮IDをIDに確定する(s22)。
一方、重複エリア内に位置している人物がいれば、今回仮IDを付与した人物の中で、重複エリア内に位置していない人物についてのみ、付与した仮IDをIDに確定する(s23)。また、監視カメラ端末1は、今回、仮IDを登録した自端末側オブジェクトマップに時間的に対応する、相手側オブジェクトマップを記憶部14から読み出す(s24)。s24では、自端末側オブジェクトマップに付与されているタイムスタンプの時刻との時間差の絶対値が最小である時刻のタイムスタンプが付与されている相手側オブジェクトマップを記憶部14から読み出す。
監視カメラ端末1は、自端末側オブジェクトマップに登録されている重複エリア内に位置している人物と、相手側オブジェクトマップに登録されている重複エリア内に位置している人物と、を1対1で対応付ける組み合せパターンを作成する(s25)。s25で作成される組み合せのパターン数は、例えば、重複エリア内に位置している人物が2人であれば2通りであり、また重複エリア内に位置している人物が3人であれば6通りである。
また、監視カメラ端末1は、今回作成した自端末側オブジェクトマップに登録されている人物の中で、重複エリア内に位置する人物毎に、第1の座標変換パラメータを用いて、その人物の座標位置を相手側端末の座標系に変換する(s26)。監視カメラ端末1は、s25で作成した組み合せパターン毎に、第1の距離エネルギーを算出する(s27)。この第1の距離エネルギーは、相手側端末の座標系での、対応する組み合せパターンにおいて対応付けた人物間の距離の総和である。
また、監視カメラ端末1は、s24で読み出した相手側オブジェクトマップに登録されている人物の中で、重複エリア内に位置する人物毎に、第2の座標変換パラメータを用いて、その人物の座標位置を自端末の座標系に変換する(s28)。監視カメラ端末1は、s25で作成した組み合せパターン毎に、第2の距離エネルギーを算出する(s29)。この第2の距離エネルギーは、自端末の座標系での、対応する組み合せパターンにおいて対応付けた人物間の距離の総和である。
監視カメラ端末1は、s24で作成した組み合せパターン毎に、総合距離エネルギーを算出する(s30)。この総合距離エネルギーは、組み合せパターン毎に、その組み合せパターンの第1の距離エネルギーと、第2の距離エネルギーとの和である。
監視カメラ端末1は、s30で得た総合距離エネルギーが最小である組み合せパターンを、重複エリア内に位置する人物の適正な対応付けと判断する。そして、総合距離エネルギーが最小である組み合せパターンによる人物の対応付けにより、重複エリア内に位置する人物を同定する(s31)。そして、監視カメラ端末1は、仮IDを付与した人物については、付与されている仮IDを無効とし、同定した人物に付与されているIDに確定する(s32)。s32では、オブジェクトマップにおける、仮IDを同定した人物に付与されているIDに置き換える。
上述したように、オブジェクトマップを作成するとき、他の物体によって足元が撮像されていない人物であっても、その人物について推定した身長を用いて、足元の座標位置を取得している。すなわち、他の物体によって足元が撮像されていない人物であっても、足元の座標位置が精度良く取得されている。したがって、重複エリアに位置する人物の同定精度の向上が図れ、特異な行動をとった不審者等を見失うことなく、その追跡が広域にわたって行える。しかも、本処理は、仮IDを付与した人物を登録したオブジェクトマップを作成したときに行うので、人物の同定にリアルタイム性を持たせることができる。
また、ステレオカメラ等を用いて、人物の3次元情報を得る必要がないので、コストアップが十分に抑えられる。
なお、上記の説明では、重複エリア内に位置する人物の同定精度を確保するために、第1の距離エネルギーと、第2の距離エネルギーとの和を総合距離エネルギーとしたが、第1の距離エネルギー、または第2の距離エネルギーの一方を総合距離エネルギーとしてもよい。このようにすれば、監視カメラ端末1の処理負荷を低減することができる。
1(1A〜1H)−監視カメラ端末
11−制御部
12−撮像部
13−画像処理部
13a−位置係数テーブル
13b−属性推定情報
13c−属性テーブル
14−記憶部
15−タイマ
16−通信部

Claims (3)

  1. 自端末に割り当てられている監視対象エリアを撮像したフレーム画像毎に、撮像されている人物を抽出する人物抽出手段と、
    前記人物抽出手段が抽出した人物に、その人物を識別するIDを付与するID付与手段と、
    前記ID付与手段がIDを付与した人物について、その人物のフレーム画像上における足元の座標位置を取得する足元位置取得手段と、
    前記人物抽出手段が抽出した人物毎に、その人物に付与されているIDと、フレーム画像上における足元の座標位置と、を対応付けたオブジェクトマップを作成するオブジェクトマップ作成手段と、
    前記オブジェクトマップ作成手段が作成したオブジェクトマップを用いて、自端末に割り当てられている監視対象エリア内に位置する人物を追跡する追跡手段と、を備えた監視カメラ端末であって、
    前記ID付与手段がIDを付与した人物毎に、その人物の身長を推定する身長推定手段と、
    割り当てられている監視対象エリアが、自端末の監視対象エリアの一部と重複している相手側端末とのデータ通信により、この相手側端末が作成した相手側オブジェクトマップを取得する相手側オブジェクトマップ取得手段と、
    自端末のフレーム画像上の座標位置と、前記相手側端末のフレーム画像上の座標位置とにおける、相対的な位置関係を示す座標変換情報を記憶する座標変換情報記憶手段と、
    自端末の監視対象エリアと、相手側端末の監視対象エリアとが重複している重複エリア内において、自端末が抽出した人物と、相手側端末が抽出した人物とを同定する同定手段と、を備え、
    前記足元位置取得手段は、フレーム画像に足元が撮像されていない人物については、前記身長推定手段が推定した身長を用いて、その人物の足元の座標位置を取得し、
    前記同定手段は、前記座標変換情報記憶手段が記憶している前記座標変換情報を用いて、自端末が抽出した人物の位置、および相手側端末が抽出した人物の位置を共通の座標系の位置に変換し、この共通の座標系における、自端末が抽出した人物の足元の座標位置と、相手側端末が抽出した人物の足元の座標位置との距離によって、前記重複エリアに位置する人物を同定する、監視カメラ端末。
  2. 前記身長推定手段は、前記ID付与手段がIDを付与した人物について、その人物の足元と頭頂部とが撮像されているフレーム画像上における、足元の座標位置、および頭頂部の座標位置に基づいて身長を推定する第1の身長推定を行う、請求項1に記載の監視カメラ端末。
  3. 人物の属性別に、推定身長を対応付けて登録した属性テーブルを記憶する属性テーブル記憶手段と、
    前記ID付与手段がIDを付与した人物について、その人物の顔が撮像されているフレーム画像から顔部品の特徴量を抽出し、当該人物の属性を推定する属性推定手段と、を備え、
    前記身長推定手段は、前記ID付与手段がIDを付与した人物の身長を、前記属性テーブルにおいて、前記属性推定手段が推定した当該人物の属性に対応付けられている推定身長にする第2の身長推定を行う、請求項1、または2に記載の監視カメラ端末。
JP2010056964A 2010-03-15 2010-03-15 監視カメラ端末 Active JP5470111B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010056964A JP5470111B2 (ja) 2010-03-15 2010-03-15 監視カメラ端末

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010056964A JP5470111B2 (ja) 2010-03-15 2010-03-15 監視カメラ端末

Publications (2)

Publication Number Publication Date
JP2011193187A JP2011193187A (ja) 2011-09-29
JP5470111B2 true JP5470111B2 (ja) 2014-04-16

Family

ID=44797669

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010056964A Active JP5470111B2 (ja) 2010-03-15 2010-03-15 監視カメラ端末

Country Status (1)

Country Link
JP (1) JP5470111B2 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6273685B2 (ja) * 2013-03-27 2018-02-07 パナソニックIpマネジメント株式会社 追尾処理装置及びこれを備えた追尾処理システム並びに追尾処理方法
US10491863B2 (en) 2013-06-14 2019-11-26 Hitachi, Ltd. Video surveillance system and video surveillance device
JP6484402B2 (ja) * 2014-03-20 2019-03-13 株式会社日立国際電気 画像監視システム
JP6700752B2 (ja) * 2015-12-01 2020-05-27 キヤノン株式会社 位置検出装置、位置検出方法及びプログラム
CN107666590B (zh) * 2016-07-29 2020-01-17 华为终端有限公司 一种目标监控方法、摄像头、控制器和目标监控系统
JP2018046501A (ja) * 2016-09-16 2018-03-22 株式会社東芝 情報処理装置、検出システムおよび情報処理方法
JP2020008929A (ja) * 2018-07-03 2020-01-16 富士ゼロックス株式会社 身長算出システム、情報処理装置およびプログラム
JP2020102135A (ja) * 2018-12-25 2020-07-02 清水建設株式会社 追跡システム、追跡処理方法、及びプログラム
US20220164963A1 (en) * 2019-03-19 2022-05-26 Nec Corporation Information processing device, estimation method, and nontransitory computer readable medium
JP7286387B2 (ja) * 2019-04-08 2023-06-05 清水建設株式会社 位置推定システム、位置推定装置、位置推定方法、及びプログラム
CN112800841B (zh) * 2020-12-28 2024-05-17 深圳市捷顺科技实业股份有限公司 一种行人计数方法、装置、系统及计算机可读存储介质
CN114463941A (zh) * 2021-12-30 2022-05-10 中国电信股份有限公司 防溺水告警方法、装置及系统

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004072628A (ja) * 2002-08-08 2004-03-04 Univ Waseda 複数カメラを用いた移動体追跡システム及びその方法
JP2009088709A (ja) * 2007-09-27 2009-04-23 Fujifilm Corp 身長推定装置及び撮影装置

Also Published As

Publication number Publication date
JP2011193187A (ja) 2011-09-29

Similar Documents

Publication Publication Date Title
JP5470111B2 (ja) 監視カメラ端末
JP5453429B2 (ja) 監視カメラ端末
US11879960B2 (en) System and method for monitoring clinical activities
CN107431786B (zh) 图像处理设备、图像处理系统和图像处理方法
US8965050B2 (en) Behavior analysis device
JPWO2011114799A1 (ja) 監視カメラ端末
CN105283129B (zh) 信息处理装置、信息处理方法
US20130002868A1 (en) Surveillance camera terminal
JP2017212581A (ja) 追尾装置、追尾方法及びプログラム
KR20120053275A (ko) 3차원 얼굴 위치 추정방법 및 장치
JP2004072628A (ja) 複数カメラを用いた移動体追跡システム及びその方法
JP5554726B2 (ja) データ関連付けのための方法と装置
JP2010206405A (ja) 画像監視装置
JP5147760B2 (ja) 画像監視装置
JP2003329448A (ja) 現場の3次元情報生成システム
JP4670010B2 (ja) 移動体分布推定装置、移動体分布推定方法及び移動体分布推定プログラム
WO2020261403A1 (ja) 身長推定装置、身長推定方法及びプログラムが格納された非一時的なコンピュータ可読媒体
JP4238042B2 (ja) 監視装置および監視方法
JP5053136B2 (ja) 移動物体追跡装置
CN110268438B (zh) 图像数据库构建装置、位置和倾斜估计装置以及图像数据库构建方法
Zhao et al. A sensor-service collaboration approach for target tracking in wireless camera networks
KR20090125192A (ko) 카메라 위치 결정 방법 및 카메라 장치
JP2004069497A (ja) 監視装置および監視方法
JP2018073044A (ja) オブジェクト追跡装置、方法およびプログラム
Zhanbyrtayev et al. Device mobility detection based on optical flow and multi-receiver consensus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121226

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130827

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131001

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140203

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5470111

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250