JP3996864B2 - Surveillance device using stereo images - Google Patents

Surveillance device using stereo images Download PDF

Info

Publication number
JP3996864B2
JP3996864B2 JP2003097358A JP2003097358A JP3996864B2 JP 3996864 B2 JP3996864 B2 JP 3996864B2 JP 2003097358 A JP2003097358 A JP 2003097358A JP 2003097358 A JP2003097358 A JP 2003097358A JP 3996864 B2 JP3996864 B2 JP 3996864B2
Authority
JP
Japan
Prior art keywords
difference image
monitoring
scanning lines
imaging device
dynamic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003097358A
Other languages
Japanese (ja)
Other versions
JP2004304662A (en
Inventor
圭 加藤
利治 武居
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Osaka Cement Co Ltd
Original Assignee
Sumitomo Osaka Cement Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Osaka Cement Co Ltd filed Critical Sumitomo Osaka Cement Co Ltd
Priority to JP2003097358A priority Critical patent/JP3996864B2/en
Publication of JP2004304662A publication Critical patent/JP2004304662A/en
Application granted granted Critical
Publication of JP3996864B2 publication Critical patent/JP3996864B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、ステレオ画像を用いて三次元の監視空間を移動する監視対象物を監視する監視装置に関する。
【0002】
【従来の技術】
監視対象物の位置情報の測定に関しては、2個の撮像装置を用い、ステレオ画像の差画像から、三角法により、三次元の監視空間を移動する監視対象物の位置情報を計測する装置が記載されている。このようなステレオ画像を用いる方法は、差分処理により三次元情報の取得が可能であり、一般的に使用されている(特許文献1参照)。
【特許文献1】
特開2002―175513号公報(段落0034〜0040、0064、図4、図8)
【0003】
【発明が解決しようとする課題】
しかし、ステレオ画像を用いる方法は、演算部分において高度な処理能力を必要とし、装置規模が大きくなったり、処理時間が長くなるという問題があった。他方、走査線数を少なくして処理を早めようとすると、測定精度が落ちるという問題があった。また、監視対象物が遠方になるほど距離の分解能が低下したり、遠方では監視対象物が走査線間に入って検出できなくなるという問題があった。
【0004】
本発明は、ステレオ画像を用いて三次元の監視空間を移動する監視対象物の位置情報を高速かつ高精度に得られる簡易な構成の監視装置を提供すること、特に監視対象物が遠方にある場合でも、近くにある場合と同等な精度で測定できる監視装置を提供することを目的とする。
【0005】
【課題を解決するための手段】
上記課題を解決するために、請求項1に記載のステレオ画像を用いた監視装置は、三次元の監視空間10を移動する監視対象物12を監視するステレオ画像を用いた監視装置1であって、前記監視空間10に向けて設置され、経時的に変化をする前記監視対象物12を撮像する第1の撮像装置16と、前記第1の撮像装置16から所定の間隔wだけ離して、前記監視空間10に向けて設置され、経時的に変化をする前記監視対象物12を撮像する第2の撮像装置18と、前記第1の撮像装置16により第1の時刻T0に撮像された画像と前記第1の時刻T0から所定の時間ΔTだけ遅れた第2の時刻T1に撮像された画像との差画像である第1の差画像を逐次形成する第1の差画像形成手段24と、前記第2の撮像装置18により前記第1の時刻T0に撮像された画像と前記第2の時刻T1に撮像された画像との差画像である第2の差画像を逐次形成する第2の差画像形成手段25と、前記第1の差画像と前記第2の差画像から、それぞれ、前記監視対象物12が前記第1の差画像上と前記第2の差画像上に占める各々の領域を第1の動的領域と第2の動的領域として抽出する動的領域抽出手段27と、前記第1の撮像装置16の走査線及び前記第2の撮像装置18の走査線から、前記監視対象物12の同一部分を走査する走査線を互いに対応する走査線とし、前記互いに対応する走査線から所定本数nの走査線の対を抽出する走査線抽出手段32と、前記第1の撮像装置16及び前記第2の撮像装置18における前記所定本数nの走査線を、それぞれ前記第1の動的領域及び前記第2の動的領域に集中して走査させる走査線集中手段33と、前記集中して走査された走査線を用いて形成された第1の動的領域と第2の動的領域に基づいて、前記監視対象物12の所定の基準線からの距離を演算する距離情報演算手段26を備える。
【0006】
ここで、請求項1に記載の第1の撮像装置16と第2の撮像装置18は、典型的にはCCDセンサやCMOSセンサのようなセンサを用い、三角法で距離を測定するパッシブ型距離検出装置を構成することができる。
【0007】
このように構成すると、走査線を監視対象物12の動作領域に集中させることにより、ステレオ画像を用いて三次元の監視空間10を移動する監視対象物12の位置情報を高速かつ高精度に得ることができる簡易な構成の監視装置1、特に監視対象物12が遠方にある場合でも、近くにある場合と同等な精度で測定できる監視装置1を提供できる。
【0008】
請求項2に記載の発明に係る請求項1に記載のステレオ画像を用いた監視装置は、前記距離及びその経時的変化を記憶する距離情報記憶手段39と、前記距離の経時的変化に基づいて前記監視対象物の移動状態を判定する判定手段28を備える。
【0009】
このように構成すると、監視対象物12の距離の経時変化から、監視対象物12の移動方向を、効率的に検知できる。
【0010】
請求項3に記載の発明に係る請求項1又は2に記載のステレオ画像を用いた監視装置において、前記動的領域抽出手段27は、前記第1の差画像又は前記第2の差画像を構成する各画素から、前記集中して走査した走査線毎に、画素値の絶対値が、第1の閾値より大きく、差画像の信号が生じた領域を挟み、信号がない領域との境界にある1対以上の画素領域を抽出して、隣接する走査線にて抽出された各1対以上の画素領域を互いに連結して形成された環状の画素領域を、又は前記環状の画素領域を周囲とする面状の画素領域を、それぞれ前記第1の動的領域又は前記第2の動的領域として抽出する。
【0011】
このように構成すると、多くの場合、監視対象物12の輪郭が差画像の信号が生じる境界になるので、効率的に監視対象物12の動的領域を把握できる。ここで、1対以上とあるのは、人物12が手を胴体から離したり、足を開いたりした場合には、これらの部分を走査する走査線が複数回人物12を横切り、それぞれ人物12の輪郭に当たる領域が差画像の信号が生じる境界になるからである。また、動的領域として、人物12の輪郭部分の画素領域、当該輪郭部分に囲まれた画素領域の2態様がある。ここで、人物の輪郭のうち、動きの少ない部分があれば、明度差の絶対値は小さくなるので、抽出された動的領域は、環状の一部が欠けたものになるが、一部が欠けても、明度差の絶対値が大きい部分がある程度抽出されれば、後の相関処理や距離の演算は可能であるので、環状は一部が欠けても良い。面状も同様に一部が欠けても良い。すなわち、前記環状の画素領域は、一部が欠けているものを含むものとする。また、前記面状の画素領域は一部が欠けているものを含むものとする。
【0012】
請求項4に記載の発明に係る請求項1又は2に記載のステレオ画像を用いた監視装置において、前記動的領域抽出手段27は、前記第1の差画像又は前記第2の差画像を構成する各画素から、前記集中して走査した走査線毎に、画素値の絶対値が、第1の閾値より大きく、最外部にある1対の画素領域を抽出して、隣接する走査線にて抽出された各1対の画素領域を互いに連結して形成された環状の画素領域を、又は前記環状の画素領域を周囲とする面状の画素領域を、それぞれ前記第1の動的領域又は前記第2の動的領域として抽出する。
【0013】
このように構成すると、走査線毎に最外部にある1対の画素領域を動的領域として抽出するので、監視対象物12を確実に動的領域の内側に収めることができる。また、動的領域として、人物12の輪郭部分の画素領域、当該輪郭部分に囲まれた画素領域の2態様がある。環状や面状は一部が欠けても良い。すなわち、前記環状の画素領域は、一部が欠けているものを含むものとする。また、前記面状の画素領域は一部が欠けているものを含むものとする。
【0014】
請求項5に記載の発明に係る請求項1乃至4に記載のステレオ画像を用いた監視装置において、前記走査線集中手段33は、前記第1の動的領域又は前記第2の動的領域を構成する画素のうち、最上位の画素が最上位の走査線と次上位の走査線との間に、最下位の画素が最下位の走査線と次下位の走査線との間に来るように、前記所定本数nの走査線を前記第1の動的領域又は前記第2の動的領域に集中して走査させる。
【0015】
このように構成すると、最上位の画素の下側を最上位の走査線が走査するようになった時、又は最下位の画素の上側を次下位の走査線が走査するようになった時には、所定本数nの走査線の集中させる範囲を広くするように、そして、最上位の画素の上側を次上位の走査線が走査するようになった時、又は最下位の画素の下側を次上位の走査線が走査するようになった時には、所定本数nの走査線の集中させる範囲を狭くするように、改めて走査線の間隔を、最上位の画素が最上位の走査線と次上位の走査線との間に、最下位の画素が最下位の走査線と次下位の走査線との間に来るように調整することにより、所定本数nの走査線を恒久的に監視対象物12に集中させて、監視対象物12の動作を一定の精度で把握できる。
【0016】
請求項6に記載の発明に係る請求項1乃至5に記載のステレオ画像を用いた監視装置において、前記走査線集中手段33は、前記第1の動的領域又は前記第2の動的領域を抽出できなかった時は、直前のフレームにおける走査線の状態を維持し、さらに、所定の回数以上、前記第1の動的領域又は前記第2の動的領域を抽出できなかった時は、前記所定本数nの走査線を監視空間10全体に拡張する。
【0017】
このように構成すると、動的領域が抽出できなかった時は監視対象物12が静止しているとみなして、直前のフレームでの走査線の状態を維持して、監視を継続できる。さらに、所定の回数以上、動的領域が抽出できなかった時は、走査線の走査範囲を拡大して、監視対象物12の位置を再確認できる。
【0018】
請求項7に記載の発明に係る請求項1乃至6に記載のステレオ画像を用いた監視装置において、前記距離情報演算手段26は、前記第1の動的領域と前記第2の動的領域との相関関係から、前記第1の撮像装置16と前記第2の撮像装置18との視差に係る相関出力値を算出し、前記相関出力値から三角法を用いて前記監視対象物12の所定の基準線43からの距離を演算する。
【0019】
このように構成すると、簡単な装置構成で、監視対象物12の距離情報を、効率的に把握できる。
【0020】
請求項8に記載の発明に係る請求項7に記載のステレオ画像を用いた監視装置において、前記距離情報演算手段26は、前記相関出力値のうち、最大の相関ピーク値を示す相関出力値と2番目の相関ピーク値を示す相関出力値を抽出し、前記最大の相関ピーク値と前記2番目の相関ピーク値との差が第2の閾値より大きい場合に限り、前記最大の相関ピーク値を示す相関出力値から、前記距離を演算する。
【0021】
このように構成すると、相関ピ―ク値は通常、1つしかない真の相関出力値で飛び抜けて大きな値となるので、ノイズを誤って監視対象物12の輪郭と把握することを防止できる。
【0022】
【発明の実施の形態】
以下、本発明の実施の形態について、図面を参照して説明する。なお、各図において互いに同一あるいは相当する部材には同一符号または類似符号を付し、重複した説明は省略する。
【0023】
図1は、本発明による実施の形態である監視装置1の模式的な一部破断斜視図である。監視装置1は、三次元の監視空間10を移動又は侵入する監視対象物としての人物12を監視する。三次元の監視空間とは、例えば、水平方向(X軸)、奥行方向(Y軸)、及び垂直方向(Z軸)の直交座標で定義することができる領域をいう。XY面である床面3上に人物12が存在し、XZ面とYZ面に壁面がある。
【0024】
監視装置1は、監視空間10に向けて設置され、経時的に形状が変化する人物12を撮像する第1の撮像装置16と、第1の撮像装置16から所定の間隔wだけ離して、監視空間10に向けて設置され、経時的に形状が変化する人物12を撮像する第2の撮像装置18を備え、第1の撮像装置16と第2の撮像装置18は、例えば、壁面(XZ面)4に設置して監視空間10内の人物12を撮像している。第1及び第2の撮像装置16、18はセンサとしてCCDセンサを使用している。また、対物レンズの周囲に赤外線発光素子17を配置し、ケーブルによりIF部に接続され、暗闇状態で自動点灯するように制御され、昼夜監視できるようになっている。センサとしてCMOSも使用可能である。
【0025】
第1の撮像装置16と第2の撮像装置18は、制御装置2に通信ケーブルで接続され、ビデオ信号を制御装置2のインターフェースであるIF部19へ送信する。制御装置2は、内部にIF部19と、IF部19に接続する演算部30と、演算部30に接続する記憶部31と、IF部19及び演算部30に接続する走査線制御部29と、演算部30に接続する入力部37と、IF部19及び演算部30に接続する送信部38とを備える。
【0026】
制御装置2には、監視装置1を操作するための情報を入力する入力装置35が入力部37を介して接続され、監視装置1からの演算結果や判定結果を出力する出力装置36及び撮像装置16,18からのビデオ信号を録画、再生する画像録画再生装置34が、送信部38を介して接続されている。入力装置35は例えばタッチパネル、キーボード、マウス等であり、出力装置36はディスプレイ、プリンタ、警報装置等である。図1では、入力装置35と出力装置36は制御装置2に外付けするものとして図示されているが、内蔵でも良い。また制御装置2は、赤外線発光素子17の点灯、消灯を制御する図示しない発光制御部を備えていても良い。
【0027】
記憶部31には、第1の撮像装置16で第1の時刻T0に撮像した撮像信号を記憶する撮像信号記憶部(CCD1:T0)20、第2の時刻T1に撮像した撮像信号を記憶する撮像信号記憶部(CCD1:T1)21、第2の撮像装置18で第1の時刻T0に撮像した撮像信号を記憶する撮像信号記憶部(CCD2:T0)22、第2の時刻T1に撮像した撮像信号を記憶する撮像信号記憶部(CCD2:T1)23、及び監視対象物12の位置情報を記憶する位置情報記憶部39が設けられている。位置情報は距離情報とX方向及びZ方向の位置情報を含み、位置情報記憶部39は距離情報記憶手段としての機能を有している。また、演算途中で取得できるその他のデータ等も記憶する。
【0028】
演算部30には、第1の撮像装置16による第1の差画像を形成する第1の差画像形成部(CCD1:差)24、第2の撮像装置18による第2の差画像を形成する第2の差画像形成部(CCD2:差)25、人物12等の監視対象物の位置情報を演算処理する位置演算部26、第1の差画像と第2の差画像からそれぞれ第1の動的領域と第2の動的領域を抽出する動的領域抽出部27、及び位置情報の経時変化から監視対象物12である人物の移動状態を判定する判定部28と、を備える。第1の差画像形成部24と第2の差画像形成部25はそれぞれ第1の差画像形成手段と第2の差画像形成手段としての機能を有し、位置演算部26は距離情報演算手段としての機能を有し、動的領域抽出部27は動的領域抽出手段としての機能を有し、判定部28は判定手段としての機能を有する。
【0029】
走査線制御部29は、同期させる走査線の選択を行う走査線選択手段としての機能を有する走査線選択部32と所定の本数nの走査線を動的領域に集中させる走査線集中部33を備え、また、第1の撮像装置16と第2の撮像装置18の互いに対応する走査線を同期させる制御を行なう。
【0030】
図1の一部破断斜視図を参照して、監視装置1の動作について説明をする。監視空間10には、人物12が壁面4に向かって接近したり、遠ざかったりするのを監視する範囲を設定するために、例えば、床面3上に、壁面4に沿って規定する内縁部43(所定の基準線に該当する)と内縁部43から所定の距離Dだけ遠方に離れて規定された外縁部42が設定されている。内縁部43には第1及び第2の撮像装置16、18が設置されている。
【0031】
ここで、第1の撮像装置16は第1の本数の走査線を有し、第2の撮像装置18は第2の本数の走査線を有し、両撮像装置16、18は走査線方向を共通に並列に設置されている。また、本実施の形態では、第1の撮像装置16と第2の撮像装置18は、別体として説明するが一体として構成してもよい。監視空間10は、外縁部42と内縁部43に挟まれた所定の距離Dを有する領域であり、第1及び第2の撮像装置16、18は、この監視空間10内を移動する人物12を撮像する。また本実施の形態では、第1の撮像装置16と第2の撮像装置18は、壁面4に設置し水平方向に向けているが、壁や天井に角度をもたせて三次元の監視空間に向けて設置してもよい。
【0032】
また、第1の撮像装置16と第2の撮像装置18の走査線の本数は、典型的には同数であり、各撮像装置の走査線の本数は、例えば、500本有し、各走査線には500ピクセルの画素を備えている。また、第1の撮像装置16と第2の撮像装置18は、走査線方向に並べて水平に設置されていることが望ましい。
【0033】
制御装置2は、第1の撮像装置16と第2の撮像装置18から撮像信号を受信し、互いに対応する走査線上(水平方向)に形成された画像を同期させて抽出する。互いに対応する走査線とは、監視対象物12の同一部分を走査するものをいう。後に説明するように、これらの互いに対応する走査線上の画素データから相関演算や距離演算が行われる。そこで、第1の撮像装置16と第2の撮像装置18の最近撮影された画像の画素データを比較対照して、走査線の対応関係を予め把握しておく。
【0034】
走査線選択部32は、走査線抽出手段としての機能を有し、同期させる走査線として、互いに対応する走査線のうちから所定の本数nの走査線の対を抽出する。所定の本数nは2以上であるが、監視対象物12の距離や位置に応じて自由に選択できる。所定の本数nは、例えば人物12のプライバシーが保護される程度、または処理量の増大に伴い処理時間が遅くならない程度とし、10〜20程度でも良い。等間隔に選択したり、ランダムに選択したり、使用目的に応じて適宜変更できる。
【0035】
各撮像装置が有する約500本(互いに対応する走査線が上下方向にずれることがあるので、対応しないものを除く)の走査線を抽出してもよく、撮像領域を所定の間隔に区切る本数の走査線を抽出してもよい。例えば、人物12を検出する場合は約100mm間隔の映像を撮像する走査線を抽出し、小動物を検出する場合は約50mm間隔の映像を撮像する走査線を抽出し、その他接近する物体を全て検出する場合は約10mm間隔の映像を撮像する走査線を抽出するように個別に設定することもできる。例えば、人物12の何れかの部分が監視空間10に侵入したことを検知するには、少なくとも各撮像装置の走査線が約500本としたときに、等間隔毎に約20本の走査線を抽出すればよい。本実施の形態では所定の本数nとして20本の走査線を抽出するものとする。
【0036】
別のケースとして、第1の撮像装置16の走査線の本数が500本で第2の撮像装置18の走査線の本数が600本の場合を仮定する。この場合、撮影される全領域が同じであれば、第1の撮像装置16の5本の走査線で走査された画像と第2の撮像装置18の6本の走査線で走査された画像が対応関係をなす。すなわち、第1の撮像装置16の5本中1本の走査線と第2の撮像装置18の6本中1本の走査線とが互いに対応する走査線となる。したがって、互いに対応する走査線の本数は約100本(互いに対応する走査線が上下方向にずれることがあるので、対応しないものを除く)となる。この場合においても約100本の互いに対応する走査線から所定の本数nとして20本の走査線を抽出できる。なお、第1の撮像装置16で1本の走査に要する時間と第2の撮像装置18で1本の走査に要する時間が異なる場合には、各々の走査線の走査開始時間を合わせるように同期させる。さらに、同期させる走査線は、各走査線を時系列的に抽出するとよい。
【0037】
監視装置1は、第1の撮像装置16が時刻T0に撮像した人物12の画像情報をIF部19を通じて受信し、演算部30を介して記憶部31の第1の時刻T0の撮像信号記憶部20へ記憶する。並行して、第2の撮像装置18により時刻T0に撮像した人物12の画像情報をIF部19を通じて受信し、演算部30を介して記憶部31の第1の時刻T0の撮像信号記憶部22へ記憶する。画像情報は、典型的には画像を構成する画素の画素値(明度)の配列データである。
【0038】
引き続き、第1の撮像装置16が時刻T0より所定時間ΔT遅れて撮像された時刻T1の人物12の画像情報をIF部19を通じて受信し、演算部30を介して記憶部31の第2の時刻T1の撮像信号記憶部21へ記憶する。並行して、第2の撮像装置18により時刻T0より所定時間ΔT遅れて撮像された時刻T1の人物12の画像情報をIF部19を通じて受信し、演算部30を介して記憶部31の第2の時刻T1の撮像信号記憶部23へ記憶する。
【0039】
演算部30内の第1の差画像形成部24と第2の差画像形成部25は、各撮像信号に含まれる走査線上に形成される各画像の画像情報から差画像を形成する、それぞれ第1の差画像形成手段、第2の差画像形成手段としての機能を備えている。
【0040】
第1の差画像形成部24は、第1の撮像装置16で撮像した時刻T0の人物12の画像と時刻T1の人物12の画像との差画像である第1の差画像を逐次演算処理し、第1の差画像を一時記憶する。並行して、第2の差画像形成部25は、第2の撮像装置18で撮像した時刻T0の人物12の画像と時刻T1の人物12の画像との差画像である第2の差画像を逐次演算処理し、第2の差画像を一時記憶する。これらの差画像は、人物12の動いた部分を抽出した人物12の輪郭(エッジ)を示す画像情報である。
【0041】
差画像を形成するための2つの画像は、撮像時刻T0及び撮像時刻T0から所定の時間ΔTだけ遅れた撮像時刻T1に各々取得するが、ずらす遅延時間(所定の時間)ΔTは、人物12の移動量が大きくなり過ぎず、実質的にはほぼ同位置とみなせる程度の時間、例えば0.1秒程度とすればよい。あるいはテレビ周期の1〜10周期(1/30秒〜1/3秒)とする。このような差画像を演算して取得すると人物12の背景が除去され、動きのある人物12の像だけを抽出することができる。
【0042】
各撮像装置16、18の走査線上に各々形成された画像は、背景は動くことがないので、動いている人物12の境界部ではその画素値が急激に変化する。本実施の形態において、演算部30内の動的領域抽出部27は、第1の差画像形成部24と第2の差画像形成部25から各差画像を読み出し、監視対象物12が各差画像上に占める領域をそれぞれ、第1の動的領域、第2の動的領域として抽出する動的領域抽出機能を有している。差画像を構成する各画素値(明度差)の絶対値が、第1の閾値よりも大きな画素のうち、差画像の信号が生じる境界の画素を人物12の境界とみなし、各々の動的領域として抽出する。本実施の形態では、動的領域として環状の画素領域を抽出する場合について説明する。
【0043】
通常、監視対象物12の輪郭で画素値(明度差)の絶対値が大きくなる。差画像には明るくなった画素と暗くなった画素とがあり、例えば明るくなった場合の画素値を+とすると、暗くなった場合の画素値が−になる。また、第1の閾値を設けたのはノイズを除去するためである。
【0044】
図2に本実施の形態の監視装置1において、撮像装置により撮影された画像の例を示す。図2(a)及び(b)は、それぞれ時刻T0及びT1において第1の撮像装置により撮影された画像の例を示す。時刻T0から時刻T1の間に、両腕を胴体から離し、両足を開いた状態の人物12がそのまま左に移動すれば、その形状は図2(b)の点線から実線のように変化する。そして、実線と点線の間の部分が第1の差画像として形成されるが、第1の差画像は人物の輪郭を表したものとほぼ一致する。
【0045】
図2(a)、(b)において、走査線を上からm1〜m13とする。走査線m4上では領域p1、p2の2箇所が、明度差の絶対値が大きい領域となる。人物12の移動に伴って顔の位置が変わるため、p1、p2間では差画像の信号が生じ、画素値は0でない。p1の左側、p2の右側では、背景が不変のため、差画像の画素値は0である。走査線m7上では領域p3〜p8の6箇所が、明度差の絶対値が大きい領域となる。人物12の移動に伴って衣服の位置が変わるため、p3とp4間、p5とp6間、p7とp8間では、差画像の信号が生じ、画素値は0でない。他方、p3の左側、p4とp5間、p6とp7間及びp8の右側では、背景が不変のため差画像の画素値は0である。また走査線m10ではp9〜p12の4箇所で、明度差の絶対値が大きい領域となる。p9とp10間、p11とp12間では、差画像の信号が生じ、画素値は0でない。p8の左側、p9とp10間及びp8の右側では、差画像の画素値は0である。
【0046】
そこで、明度差の絶対値が大きい画素領域は、その間に差画像の信号が生じる領域、すなわち人物が占める領域を挟んだ対をなす領域であるといえる。すなわち、p1とp2、p3とp4、・・・、p11とp12が、それぞれ、差画像の信号が生じた領域を挟み、信号がない領域との境界にある対をなす画素領域であり、人物が占める領域を挟んだ対をなす画素領域である。このような画素領域を集めて、隣接する走査線にて抽出された各1対以上の画素領域を互いに連結して形成された環状の画素領域が第1の動的領域として抽出される。すなわち抽出された第1の動的領域は、実質的に差画像の明度差の絶対値が大きい画素領域と殆ど一致し、実質的に人物12が差画像上に占める領域として抽出される。このようにして抽出された第1の動的領域は人物の輪郭を表すものとなる。ここで、人物の輪郭のうち、動きの少ない部分があれば、明度差の絶対値は小さくなるので、抽出された動的領域は、環状の一部が欠けたものになる。しかし、一部が欠けても、明度差の絶対値が大きい部分がある程度抽出されれば、後の相関処理や距離の演算は可能である。
【0047】
また、走査線m4と走査線m11では差画像が形成されるが、走査線m3と走査線m12では差画像が形成されないので、第1の動的領域の上端はm3とm4の間に、第1の動的領域の下端はm11とm12の間にあることが解る。また、右に移動した場合も、同様な差画像と動的領域を構成する点が得られる。また、正面にいる人物が前に移動した場合には、人物の輪郭は拡大し、後ろに移動した場合には、人物の輪郭は縮小するので、同様な差画像が形成され、第1の動的領域を抽出できる。また、同様にして、第2の差画像から第2の動的領域を抽出できる。
【0048】
なお、走査線m7やm10のように、複数の対をなす画素領域が生じる場合には、第1の動的領域を構成する点として、走査線上の最外部にある1対の画素領域、p3とp8、p9とp12のみを選んでも良い。このようにして選んだ対をなす画素領域を走査線毎に抽出し、集めて、隣接する走査線にて抽出された各1対の画素領域を連結して形成された環状の画素領域を第1の動的領域として抽出しても、人物12が差画像上に占める領域は第1の動的領域の内側に含まれる。そして、第2の動的領域も同様にして抽出すれば、相関処理をした場合に、手足の内側等の輪郭を除いて相関処理がされるが、手と胴、両足が離れていない場合も多く、実質的には複数対を選んで相関処理をした場合と同じ結果を得られることとなる。
【0049】
もし、監視対象物12である人物が静止していれば、動的領域は抽出されない。したがって、動的領域が抽出されなかった時には、人物は静止しているものと見なされる。
【0050】
このように、演算部30は、動的領域の抽出処理を、全ての走査線について行わなくても、互いに対応する所定の本数(本実施の形態では20本)の走査線について行うことにより、人物12が動いた領域を抽出することができる。
【0051】
ところで、人物2の動きを監視するには、所定の本数の走査線を、撮影した画像の全域に広げなくても、その人物12について抽出した動的領域に集中させれば十分である。
【0052】
図3に所定の本数nの走査線を人物12に集中させた場合に、人物12を走査する走査線の状態を示す。図3(a)は人物12が監視装置1から近距離にいる場合、図3(b)は人物12が監視装置1から遠距離にいる場合の状態を示す。人物12が内縁部43の近くにいれば動的領域は大きくなり、外縁部42の近くにいれば動的領域は小さくなり、人物12が外縁部42から内縁部43に近づくにつれて動的領域は単調に増加する。
【0053】
走査線集中部33は、走査線集中手段としての機能を有する。走査線集中部33は、所定の本数nの互いに対応する走査線を、動的領域に集中させて、ほぼ均等な間隔で抽出するようにする。人物12が外縁部42から内縁部43に近づくにつれて、抽出する走査線の間隔を次第に広くし、人物12が内縁部43から外縁部42に遠ざかるにつれて、抽出する走査線の間隔を次第に狭くしていく。このようにすれば、例えば上から3番目の走査線m3は常に肩の近くを走査し、下から3番目の走査線m18は常に膝の近くを走査するようにできるので、人物の動作を同等の精度で監視することができる。また遠方の監視対象物12が走査線の間に入って走査されず、検出できないということもなくなる。
【0054】
また、最上部の走査線と最下部の走査線は人物12の全体を余裕をもって収められるように選択する。例えば、第1の撮像装置16と第2の撮像装置18の走査線の本数は共に500本で、互いに対応する走査線が約500本の場合で、外縁部42で人物12の画像が撮影範囲の約1/3となる場合は、上から約160本目〜約340本目の約180本の走査線を約9本間隔で20本を選択し、内縁部43側の方向に近づき人物12の画像が撮像画面一杯に広がる位置では約25本間隔で20本を選択し、その間で互いに対応する走査線の間隔を次第に変化させていけば良い。人物12の画像が撮像画面一杯に広がる位置から〔さらに〕内縁部43側では、約25本間隔で20本の状態を維持する。
【0055】
また、例えば、第1の撮像装置16の走査線の本数が500本で第2の撮像装置18の走査線の本数が600本で、互いに対応する走査線が約100本の場合で、外縁部42で人物12の画像が撮像画面の約1/3となる場合は、上から約30本目〜約70本目の約40本の走査線を約2本間隔で20本を選択し、内縁部43側の方向に近づき人物12の画像が撮像画面一杯に広がる位置では約5本間隔で20本を選択し、その間で互いに対応する走査線の間隔を次第に変化させていけば良い。人物12の画像が撮影範囲一杯に広がる位置から内縁部43側では、約5本間隔で20本の状態を維持する。
【0056】
また、例えば、第1の動的領域又は第2の動的領域を構成する画素のうち、最上位の画素が最上位の走査線と次上位の走査線との間に、最下位の画素が最下位の走査線と次下位の走査線との間に来るように、所定本数nの走査線を第1の動的領域又は第2の動的領域に集中して走査させると、最上位の画素の下側を最上位の走査線が走査するようになった時、又は最下位の画素の上側を最下位の走査線が走査するようになった時には、所定本数nの走査線の集中させる範囲を広くするように、そして、最上位の画素の上側を次上位の走査線が走査するようになった時、又は最下位の画素の下側を次上位の走査線が走査するようになった時には、所定本数nの走査線の集中させる範囲を狭くするように、改めて走査線の間隔を、最上位の画素が最上位の走査線と次上位の走査線との間に、最下位の画素が最下位の走査線と次下位の走査線との間に来るように調整することにより、所定本数nの走査線を恒久的に監視対象物12に集中させられ、監視対象物12の動作を一定の精度で把握できる。調整は、例えば、最上位の走査線を最上位の画素より現時点における走査線間隔の1/2上にくるようにし、かつ、最下位の走査線を最下位の画素より現時点における走査線間隔の1/2下にくるようにして、その間を走査線間隔がほぼ均等になるようにn−2本の走査線を抽出する。
【0057】
もし、動的領域が抽出されなかった時には、人物12は静止しているものと見なされるので、直前のフレームにおける走査線の状態を維持する。さらに、所定の回数以上、動的領域が抽出されなかった時には、監視対象物12の状態を再確認するために、所定本数nの走査線を監視空間全体に拡張する。動的領域が確認されれば、新たに抽出された動的領域に対して所定本数nの走査線を集中させる。
【0058】
位置演算部26は、距離情報演算手段としての機能を有する。第1の差画像と第2の差画像に基いて、相関処理を行うことにより内縁部43(所定の基準線)と人物12との距離及びX方向やZ方向の位置を演算処理し、演算で取得した人物12の各部分の位置情報を位置情報記憶部39に一時記憶する。
【0059】
また、位置演算部26は、第1の差画像から抽出された第1の動的領域と第2の差画像から抽出された第2の動的領域間の相関出力値を算出する機能を有している。位置演算部26は、演算した相関出力値に基づき所定の基準線(内縁部)43、すなわち撮像装置の設置位置から人物12までの距離を算出する。
【0060】
位置演算部26は、例えば、第1の差画像から、それぞれ画素値の絶対値が大きい画素領域、すなわち人物12の動きによって、コントラストの変化が激しかった画素領域を動的領域として、その画像情報を抽出する。また、第2の差画像から画素値の絶対値が大きい画素領域を動的領域として、その画像情報を抽出する。各々抽出された動的領域の画像情報を比較した場合、両撮像装置16,18の視差の関係から2つ動的領域は対応する画素領域の位置が僅かに異なる画像であることがわかる。これは、2つの撮像装置16,18を一定の間隔wで設置し、同じ監視対象物12を監視しているためである。
【0061】
引き続き位置演算部26は、第1の動的領域と第2の動的領域との相関処理を施し、1ピクセル単位で一方の画像をずらし、その相関ピークが最大になった位置(相関ピーク位置)を計測することにより、2つの動的領域間の平均的な相関出力値、または、抽出された領域のほぼ中心の相関出力値を演算し取得する。
【0062】
ここで相関出力値とは、第1の撮像装置16と第2の撮像装置18との視差により発生する相対的結像位置差のことであり、相関処理により、典型的には画素数(ピクセル)で出力される値である。位置演算部26は、この相関出力値により第1の撮像装置16の走査線と第2の撮像装置18の走査線との視差に基づき、三角法を用いて撮像装置すなわち所定の基準線43と人物12との距離を算出する。
【0063】
また、相関処理とは、第1の差画像と第2の差画像のどちらか一方を、又は第1の動的領域と第2の動的領域のどちらか一方を、2つの画像がほぼ一致するまで画素単位でずらして、そのずらした量を例えば画素数により示して算出する処理である。2つの差画像が一致するか否かの判定は、一方の差画像を固定し他方の差画像をずらしながら、又は一方の動的領域を固定し他方の動的領域をずらしながら、比較したときに重なり合う信号全体の強さに基づいて実行する。信号がピークになった座標が一致点であり相関ピーク位置である。
【0064】
また、相関処理は、第1の差画像と第2の差画像を適正な閾値で二値化し、監視対象物12のエッジ部を抽出することにより、動きのある監視対象物12が存在する領域を抽出し、この抽出した領域のみについて相関処理を施しても良い。このようにすると、相関処理は二値化した画像データを用いるので、処理が簡単になる。
【0065】
真の相関出力値であれば、通常、相関ピーク値は飛び抜けて大きくなる。しかし、取得した相関出力値のデータが、そうでない場合も生じ得る。そこで、最大の相関ピーク値および2番目に大きな相関ピーク値の比較を行なう。相関ピーク値のレベル差が所定の閾値R以上の場合は、相関ピーク値が最大となる相関出力値を取得し、閾値R以下の場合には、相関ピーク値が最大となる相関出力値を取得しないこととする。すなわち、相関ピーク値は飛び抜けて大きくならない場合は信頼性のないデータとみなす。また、最大のピーク値がある場合でも、最大のピーク値が閾値R’以下の場合には、信頼性のないデータとみなして、相関ピーク値が最大となる相関出力値を取得しないこととする。
【0066】
第1の撮像装置16と第2の撮像装置18を同じ機種とし、殆ど全ての互いに対応する走査線を用いる場合はもちろん、そうでなくても本実施の形態では抽出した走査線を動的領域全体に集中させ、しかも均等な間隔で抽出しているので、人物12の頭部から足先までに対応する部分の画像が得られる。そして、互いに対応する各走査線から得られた差画像から抽出された動的領域について、相関処理により、各走査線上における人物12の各部分についての距離を得ることができる。又は、所定本数nの走査線全体から得られた差画像から抽出された動的領域について、相関処理により、人物12についての距離を得ることができる。また各部分の距離を集めて平均距離を算出しても良い。
【0067】
監視対象物12である人物のX方向やZ方向の位置情報は、第1の差画像又は第2の差画像の、若しくは、第1の動的領域又は第2の動的領域のX方向やZ方向の位置と距離情報から導かれる。位置情報記憶部39は距離情報記憶手段としての機能を有し、距離情報、X方向やZ方向の位置情報及びこれらの経時変化を一時記憶する。
【0068】
判定部28は判定手段としての機能を有し、距離情報の経時変化から、監視対象物12である人物の移動状態を判定し、送信部38を介して出力装置36に移動状態についての判定結果を出力する。また、送信部38を介して画像録画再生装置34に移動状態を表示しても良い。人物の移動状態は、前後左右への移動、静止等の情報である。距離が短くなれば近づいており、長くなれば遠ざかっていると判定される。また、時間情報と組み合わせると、移動速度も演算可能である。また、動的領域の大きさを演算して、大きくなれば近づいており、小さくなれば遠ざかっていると判定しても良い。
【0069】
図4に監視装置の処理フローのフローチャート図を例示する。ここで、左画像は第1の撮像装置16で撮像された画像であり、右画像は第2の撮像装置18で撮像された画像として説明する。処理はスタートステップS10から開始し、まず、制御装置2は、第1の撮像装置16と第2の撮像装置18で、それぞれ左画像と右画像を撮像し(ステップS11)、IF部19を介してステレオ画像として取得する。
【0070】
制御装置2は、走査線制御部29の走査線選択部32において、第1の撮像装置16及び第2の撮像装置18により最近撮像された画像を対比照合し、第1の撮像装置16の走査線および第2の撮像装置18の走査線から、監視対象物12の同一部分を走査する互いに対応する走査線の対のデータを予め保持しておく。走査線選択部32は、互いに対応する走査線の対のデータに基づいて、第1の撮像装置16の走査線および第2の撮像装置18の走査線から、監視対象物12の互いに対応する所定の本数nの走査線を抽出する(ステップS12)。
【0071】
制御装置2は、監視空間10内の人物12を第1の時刻T0に撮像されたT0フレームの左画像を取得する(ステップS13)。次に、所定時間のΔTが経過した第2の時刻T1=T0+ΔTに撮像されたT1フレームの左画像を取得する(ステップS14)。
【0072】
次に、第1の差画像形成部24は、T0フレームの左画像とT1フレームの左画像との差画像(左)である第1の差画像を抽出する(ステップS15)。次に、動的領域抽出部27は、第1の差画像をT0フレームまたはT1フレームの何れか一方のフレームに対応させて、第1の差画像からコントラストが強い人物12の輪郭を抽出する第1の動的領域の抽出処理(ステップS16)を施してから、後続のステップS21の相関処理に移行する。
【0073】
また、制御装置2は、監視空間10内の人物12を第1の時刻T0に撮像されたT0フレームの右画像を取得する(ステップS17)。次に、所定時間のΔT経過した第2の時刻T1=T0+ΔTに撮像されたT1フレームの右画像を取得する(ステップS18)。
【0074】
次に、第2の差画像形成部25は、T0フレームの右画像とT1フレームの右画像との差画像(右)である第2の差画像を抽出する(ステップS19)。次に、動的領域抽出部27は、第2の差画像をT0フレームまたはT1フレームの何れか一方のフレームに対応させて、第2の差画像からコントラストが強い人物12の輪郭を抽出する第2の動的領域の抽出処理(ステップS20)を施してから、ステップS12に戻る。
【0075】
このとき、走査線制御部29の走査線集中部33は、所定の本数nの走査線を動作領域(第1及び第2の動的領域)に集中させるように、最上位の走査線、最下位の走査線、走査線の間隔等を算出し、走査線選択部32は、算出結果に基づき、互いに対応する所定の本数nの走査線を選択する。所定の本数nの走査線がすでに動的領域に集中されている場合は、後続のステップS21の相関処理に移行する。
【0076】
本実施の形態では、第1の撮像装置と第2の撮像装置は同時並列的に各時刻(T0、T1=T0+ΔT)で撮像を行う。この場合ΔTは、計数装置の設定条件により適宜決めてよいが、あるフレームNが撮像されてから、次のフレームN+1が撮像されるまでの時間とすることが望ましい。
【0077】
次に、位置演算部26は、T0フレームの左画像のコントラストが強い人物12の輪郭である第1の動的領域を用いてT0フレームの右画像のコントラストが強い人物12の輪郭である第2の動的領域の対応点を探索し相関処理を実行する(ステップS21)。この相関処理により得られた対応点の情報から、所定の基準線としての内縁部43から人物12までの距離に対応する距離情報を算出する(ステップS22)。例えば、左画像と右画像を一致させる画素数に基づき人物12までの距離を演算する。
【0078】
引き続き、判定部28は、直前のフレームで作成した時空間画像と現在のフレームの時空間画像とを比較し、現在のフレームの時空間画像の中に存在する人物12またはその部分が監視空間10内で移動したか否かを距離情報やX方向の位置情報に基づいて判定する(ステップS23)。距離が短くなる場合は人物12又はその部分が壁面4に、すなわち所定の基準線43に接近していると判定して、送信部38を介して出力装置36に判定結果を出力すると共に、人物12が監視空間10に存在する場合には、第1の撮像装置16又は第2の撮像装置18が撮像している人物12のビデオ信号を送信部38を介して画像録画再生装置34に逐次記録(録画)し続けさせる等の処置をする(ステップS24)。距離が長くなる場合は人物12又はその部分が壁面4から遠ざかっていると判定する。また、X方向やZ方向の位置情報の変化から、X方向やZ方向での移動を判定する。なお、人物12又はその部分の輪郭を示す画素アドレスの移動状態に基づいて判定しても良い。例えば、人物12の輪郭アドレスが広がる場合は壁面4に接近していると判定し、狭まる場合は壁面4から遠ざかっていると判定する等である。以上で処理を終了し(ステップS25)、又はスタートに戻る。
【0079】
図5に本実施の形態における距離測定方法の原理を説明するための模式的なブロック図を示す。ここで、三角法を用いた撮像装置と人物12との距離の算出方法について説明をする。図5は、人物12を正面から観察し、第1の撮像装置16と第2の撮像装置18により水平方向から人物12を撮像したときの、人物12の左端部までの距離の測定方法を例示する。
【0080】
ここで、wは第1の撮像装置16と第2の撮像装置18との光軸間距離(基線長)、fは各撮像装置16、18の受光レンズを単一レンズとしたときのレンズ焦点距離、dは第1の撮像装置16の結像面上の視差(第2の撮像装置18に対する)とする。ここでの焦点距離fは、一般に用いられている組み合わせレンズを使用する場合は、その組み合わせレンズの焦点距離fとする。これにより対象とする人物12の左端部(左肩)と監視装置1との距離aは次式で算出できる。a = w × f/d ………(1)
【0081】
このようにして、第1と第2の撮像装置16、18(所定の基準線である内縁部43に設置されている)からステレオ画像を取得したセンサ制御部60は、内部の差画像形成部62により第1の撮像装置16の差画像(第1の差画像)と第2の撮像装置18の差画像(第2の差画像)を形成し、さらに第1及び第2の差画像から第1及び第2の動的領域を抽出し、この2つの動的領域を相関出力演算部64により相関処理し、相関処理信号を制御装置2へ出力することにより、撮像装置から人物12までの距離を算出する。
【0082】
また、予め測定した背景と撮像装置との基準距離h(外縁部42から計測される)から人物12までの距離を減算して人物12の侵入距離値zを算出し、侵入距離値zを位置演算部26に一時記憶する。また、センサ制御部60を介さずに直接2台の撮像装置から映像信号を制御装置2へ送信するように構成することもできる。
【0083】
図6に本実施の形態における距離測定方法の原理を説明するための別の模式的なブロック図を示す。図6に示すように、対象とする人物12の右端部(右肩)と撮像装置との距離a’も、第2の撮像装置18の結像面上の視差d’(第1の撮像装置16に対する)から上述した式(1)で算出することができる(ただし、aをa’に、dをd’に変える)。センサ制御部60は、差画像形成部62により差画像を形成し、2つの差画像からそれぞれ動的領域を抽出し、2つの動的領域を相関出力演算部64により相関処理し、相関処理信号を制御装置2へ出力することにより、撮像装置から人物12までの距離を算出する。人物12が左右対称な姿勢で正面を向いている場合には、a’はaに等しく、d’はdに等しい。
【0084】
図1に戻って、さらに監視装置1の動作について説明する。演算部30は、位置演算部26に一時記憶された侵入距離値zにより、人物12を監視することができる。
【0085】
また、演算部30は、位置情報記憶部39に一時記憶された人物12の左端部と右端部の侵入距離値zを時系列的に記憶し、それに基づき人物12の位置情報(距離情報を含む)、大きさ、移動方向、姿勢等を判断するように構成する。すなわち、判定部28において、外縁部42までの基準距離hと、ある時刻の人物12の侵入距離値zとを比較することにより、人物12の存在、その位置情報、大きさ、移動方向、姿勢等を判断することができるように構成する。
【0086】
さらに、位置演算部26は、最終的な人物12の存在、その位置情報、移動方向、姿勢等の判断を、撮像装置の走査線の中から抽出した複数の走査線にそれぞれに対応する判断結果から人物12の位置情報を演算処理する。また人物12の移動方向は、人物12の位置の水平的な変化だけでなく、例えば、人物12が立ったり座ったりするような鉛直的な変化も含むものとする。
【0087】
なお、本発明の監視装置は、上述の実施の形態のみに限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変更を加え得ることは勿論である。
【0088】
例えば、本実施の形態では、第1の動的領域と第2の動的領域について相関処理を施すことにより、所定の基準線43から監視対象物12までの距離を算出したが、位置演算部26は、第1の動的領域と第2の動的領域からそれぞれ対応関係にある画素を求め、これら対応関係にある画素の位置ずれを算出し、位置ずれすなわち視差から三角測量の原理に基づいて監視対象物12までの距離を算出するようにしても良い。
【0089】
このようにすると、位置演算部26は、相関処理を全く行なう必要がなく、非常に簡単な処理で視差を算出することができる。この手法は、人物2までの距離が近くなって、視差が大きくなった場合にも有効である。
【0090】
また、本実施の形態では、動的領域を画素値の絶対値が第1の閾値より大きく、差画像の信号が生じた領域を挟み、信号がない領域との境界にある1対以上の画素領域を抽出して、隣接する走査線にて抽出された各1対以上の画素領域を互いに連結して形成された環状の画素領域として抽出したが、このようにして形成された環状の領域を周囲とする面状の画素領域として抽出しても良い。このようにすると、衣服の境界等も含めて抽出される。また、環状の画素領域や面状の画素領域は一部が欠けても、相関処理や距離の演算が可能なので、本発明の適用範囲といえる。
【0091】
また、本実施の形態では、相関出力値を第1の動的領域と第2の動的領域との相関関係から算出したが、第1の差画像と第2の差画像との相関関係から算出しても良い。
【0092】
【発明の効果】
以上説明したように、本発明によれば、ステレオ画像を用いて三次元の監視空間を移動する監視対象物の位置情報を高速かつ高精度に得られる簡易な構成の監視装置を、特に監視対象物が遠方にある場合でも、近くにある場合と同等な精度で測定できる監視装置を提供できる。
【図面の簡単な説明】
【図1】 本発明の実施の形態である監視装置の模式的な一部破断斜視図である。
【図2】 本発明の実施の形態において撮像装置により撮影された画像の例を示す図である。
【図3】 本発明の実施の形態において監視対象物が近い場合と遠い場合の監視対象物を走査する走査線の状態を示す図である。
【図4】 本発明の実施の形態である監視装置の処理フローを例示するフローチャート図である。
【図5】 本発明の実施の形態に用いる距離測定方法の原理を説明するための図である。
【図6】 本発明の実施の形態に用いる距離測定方法の原理を説明するための別の図である。
【符号の説明】
1 監視装置
2 制御装置
3 床面(XY面)
4 壁面(XZ面)
10 監視空間
12 監視対象物(人物)
16 第1の撮像装置
17 赤外線発光素子
18 第2の撮像装置
19 I/F部
20〜23 撮像信号記憶部
24 第1の差画像形成部
25 第2の差画像形成部
26 位置演算部
27 動的領域抽出部
28 判定部
29 走査線制御部
30 演算部
31 記憶部
32 走査線選択部
33 走査線集中部
34 画像録画再生装置
35 入力装置
36 出力装置
37 入力部
38 送信部
39 位置情報記憶部
40 移動方向
42 外縁部
43 内縁部
44 壁面(YZ面)
60 センサ制御部
62 差画像形成部
64 相関出力演算部
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a monitoring apparatus that monitors a monitoring object that moves in a three-dimensional monitoring space using a stereo image.
[0002]
[Prior art]
Regarding the measurement of the position information of the monitoring object, there is described an apparatus that uses two imaging devices and measures the position information of the monitoring object moving in a three-dimensional monitoring space from the difference image of the stereo image by trigonometry. Has been. A method using such a stereo image can acquire three-dimensional information by differential processing, and is generally used (see Patent Document 1).
[Patent Document 1]
Japanese Patent Laid-Open No. 2002-175513 (paragraphs 0034 to 0040, 0064, FIG. 4, FIG. 8)
[0003]
[Problems to be solved by the invention]
However, the method using a stereo image requires a high processing capability in the calculation part, and there is a problem that the apparatus scale becomes large and the processing time becomes long. On the other hand, if the number of scanning lines is reduced to speed up the processing, there is a problem that the measurement accuracy is lowered. In addition, there is a problem that the resolution of the distance decreases as the object to be monitored becomes farther away, or that the object to be monitored enters between the scanning lines and cannot be detected in the farther place.
[0004]
The present invention provides a monitoring device having a simple configuration capable of obtaining position information of a monitoring object moving in a three-dimensional monitoring space using a stereo image at high speed and with high accuracy. In particular, the monitoring object is located far away. Even in such a case, an object is to provide a monitoring device capable of measuring with the same accuracy as in the case of being nearby.
[0005]
[Means for Solving the Problems]
In order to solve the above-mentioned problem, the monitoring device using a stereo image according to claim 1 is a monitoring device 1 using a stereo image for monitoring a monitoring object 12 moving in a three-dimensional monitoring space 10. The first imaging device 16 that is installed toward the monitoring space 10 and captures the monitoring object 12 that changes over time is separated from the first imaging device 16 by a predetermined interval w, and A second imaging device 18 that is installed toward the monitoring space 10 and images the monitoring object 12 that changes over time, and an image that is captured by the first imaging device 16 at a first time T0. A first difference image forming unit 24 that sequentially forms a first difference image that is a difference image from an image captured at a second time T1 delayed by a predetermined time ΔT from the first time T0; The first imaging device 18 allows the first imaging device Second difference image forming means 25 for sequentially forming a second difference image, which is a difference image between the image taken at time T0 and the image taken at the second time T1, and the first difference image And the second difference image, the respective areas occupied by the monitoring object 12 on the first difference image and the second difference image are defined as a first dynamic region and a second dynamic image, respectively. The dynamic area extracting means 27 that extracts the area and the scanning lines that scan the same portion of the monitoring object 12 from the scanning lines of the first imaging device 16 and the second imaging device 18 are mutually connected. A scanning line extracting unit 32 that extracts a predetermined number n of scanning lines from the scanning lines corresponding to each other, and the predetermined number in the first imaging device 16 and the second imaging device 18 as corresponding scanning lines. n scan lines, respectively, for the first dynamic region and the first Based on the first dynamic region and the second dynamic region formed by using the scanning line concentrating means 33 for concentrating and scanning the two dynamic regions, and the concentrated and scanned scanning lines, Distance information calculating means 26 for calculating the distance of the monitoring object 12 from a predetermined reference line is provided.
[0006]
Here, the first imaging device 16 and the second imaging device 18 according to claim 1 typically use a sensor such as a CCD sensor or a CMOS sensor, and use a triangulation method to measure the distance. A detection device can be configured.
[0007]
With this configuration, by concentrating the scanning lines on the operation area of the monitoring object 12, position information of the monitoring object 12 moving in the three-dimensional monitoring space 10 is obtained with high speed and high accuracy using a stereo image. It is possible to provide a monitoring device 1 having a simple configuration that can be measured, in particular, the monitoring device 1 that can measure with the same accuracy as when the monitoring object 12 is located in the distance.
[0008]
According to a second aspect of the present invention, the monitoring apparatus using the stereo image according to the first aspect is based on the distance information storage means 39 for storing the distance and its change with time, and the change with time of the distance. A determination unit 28 is provided for determining a movement state of the monitoring object.
[0009]
If comprised in this way, the moving direction of the monitoring target object 12 can be detected efficiently from the time-dependent change of the distance of the monitoring target object 12.
[0010]
The monitoring apparatus using the stereo image according to claim 1 or 2 according to the invention of claim 3, wherein the dynamic region extraction means 27 constitutes the first difference image or the second difference image. For each scanning line that has been scanned in a concentrated manner from each pixel, the absolute value of the pixel value is larger than the first threshold, and the region where the signal of the difference image occurs is sandwiched between the region where there is no signal An annular pixel region formed by extracting one or more pairs of pixel regions and connecting each pair of pixel regions extracted by adjacent scanning lines to each other, or surrounding the annular pixel region The planar pixel areas to be extracted are extracted as the first dynamic area or the second dynamic area, respectively.
[0011]
With this configuration, in many cases, the contour of the monitoring object 12 becomes a boundary where a difference image signal is generated, so that the dynamic region of the monitoring object 12 can be efficiently grasped. Here, when the person 12 moves his / her hand away from the torso or opens his / her leg, the scanning lines for scanning these portions cross the person 12 a plurality of times, This is because the area corresponding to the contour becomes a boundary where a signal of the difference image is generated. In addition, there are two types of dynamic areas: a pixel area of the contour portion of the person 12 and a pixel region surrounded by the contour portion. Here, if there is a portion with little movement in the outline of the person, the absolute value of the brightness difference is small, so that the extracted dynamic region is a part lacking a ring shape, Even if it is missing, if a portion with a large absolute value of the brightness difference is extracted to some extent, later correlation processing and calculation of distance can be performed, so a part of the ring may be missing. Similarly, a part of the planar shape may be missing. That is, the annular pixel region includes a part lacking. Further, the planar pixel region includes a part lacking.
[0012]
The monitoring apparatus using the stereo image according to claim 1 or 2 according to the invention described in claim 4, wherein the dynamic region extraction means 27 constitutes the first difference image or the second difference image. For each of the scanning lines that are scanned in a concentrated manner, the pixel value having an absolute value greater than the first threshold value is extracted for each of the concentrated scanning lines, and the outermost pair of pixel areas is extracted. An annular pixel region formed by connecting the extracted pairs of pixel regions to each other, or a planar pixel region surrounding the annular pixel region, respectively, the first dynamic region or the Extract as a second dynamic region.
[0013]
With this configuration, the outermost pair of pixel regions is extracted as a dynamic region for each scanning line, so that the monitoring object 12 can be reliably placed inside the dynamic region. In addition, there are two types of dynamic areas: a pixel area of the contour portion of the person 12 and a pixel region surrounded by the contour portion. A part of the annular or planar shape may be missing. That is, the annular pixel region includes a part lacking. Further, the planar pixel region includes a part lacking.
[0014]
In the monitoring apparatus using the stereo image according to any one of claims 1 to 4 according to the invention described in claim 5, the scanning line concentration unit 33 may be configured to detect the first dynamic region or the second dynamic region. Among the constituent pixels, the uppermost pixel is between the uppermost scanning line and the next upper scanning line, and the lowermost pixel is between the lowermost scanning line and the next lower scanning line. The predetermined number n of scanning lines are concentrated and scanned in the first dynamic area or the second dynamic area.
[0015]
With this configuration, when the uppermost scanning line scans the lower side of the uppermost pixel, or when the next lower scanning line scans the upper side of the lowermost pixel, The range in which a predetermined number n of scanning lines are concentrated is widened, and when the uppermost scanning line scans the upper side of the uppermost pixel, or the lower side of the lowermost pixel is the upper next When the scanning line becomes the scanning line, the scanning line interval is changed again so that the range where the predetermined number n of scanning lines are concentrated is narrowed. A predetermined number n of scanning lines are permanently concentrated on the monitoring object 12 by adjusting the lowermost pixel between the lowermost scanning line and the next lower scanning line. Thus, the operation of the monitoring object 12 can be grasped with a certain accuracy.
[0016]
In the monitoring apparatus using the stereo image according to any one of claims 1 to 5 according to the invention described in claim 6, the scanning line concentration unit 33 may be configured to detect the first dynamic region or the second dynamic region. When the extraction cannot be performed, the state of the scanning line in the immediately preceding frame is maintained, and when the first dynamic region or the second dynamic region cannot be extracted more than a predetermined number of times, A predetermined number n of scanning lines are extended to the entire monitoring space 10.
[0017]
With this configuration, when the dynamic area cannot be extracted, the monitoring target 12 is regarded as stationary, and the state of the scanning line in the immediately preceding frame is maintained, and monitoring can be continued. Further, when the dynamic region cannot be extracted a predetermined number of times or more, the scanning range of the scanning line can be expanded and the position of the monitoring object 12 can be reconfirmed.
[0018]
In the monitoring apparatus using the stereo image according to any one of claims 1 to 6 according to the invention described in claim 7, the distance information calculation unit 26 includes the first dynamic region, the second dynamic region, The correlation output value related to the parallax between the first imaging device 16 and the second imaging device 18 is calculated from the correlation between the first imaging device 16 and the second imaging device 18, and a predetermined value of the monitoring object 12 is determined from the correlation output value using trigonometry. The distance from the reference line 43 is calculated.
[0019]
If comprised in this way, the distance information of the monitoring target object 12 can be efficiently grasped | ascertained with a simple apparatus structure.
[0020]
The monitoring apparatus using the stereo image according to claim 7 according to the invention according to claim 8, wherein the distance information calculation means 26 includes a correlation output value indicating a maximum correlation peak value among the correlation output values, and A correlation output value indicating the second correlation peak value is extracted, and the maximum correlation peak value is determined only when the difference between the maximum correlation peak value and the second correlation peak value is greater than a second threshold. The distance is calculated from the correlation output value shown.
[0021]
With this configuration, since the correlation peak value is usually a single true correlation output value and becomes a large value, noise can be prevented from being mistakenly recognized as the contour of the monitoring object 12.
[0022]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described below with reference to the drawings. In addition, in each figure, the same code | symbol or a similar code | symbol is attached | subjected to the mutually same or equivalent member, and the overlapping description is abbreviate | omitted.
[0023]
FIG. 1 is a schematic partially broken perspective view of a monitoring device 1 according to an embodiment of the present invention. The monitoring device 1 monitors a person 12 as a monitoring object that moves or enters a three-dimensional monitoring space 10. The three-dimensional monitoring space refers to an area that can be defined by, for example, orthogonal coordinates in the horizontal direction (X axis), the depth direction (Y axis), and the vertical direction (Z axis). A person 12 exists on the floor surface 3 which is the XY plane, and there are wall surfaces on the XZ plane and the YZ plane.
[0024]
The monitoring device 1 is installed toward the monitoring space 10 and is separated from the first imaging device 16 for imaging a person 12 whose shape changes over time by a predetermined interval w. A second imaging device 18 that images the person 12 that is installed toward the space 10 and whose shape changes with time is provided. The first imaging device 16 and the second imaging device 18 are, for example, wall surfaces (XZ plane). ) 4 to image the person 12 in the monitoring space 10. The first and second imaging devices 16 and 18 use CCD sensors as sensors. In addition, an infrared light emitting element 17 is disposed around the objective lens, connected to the IF unit by a cable, controlled to automatically light in the dark state, and can be monitored day and night. A CMOS can also be used as a sensor.
[0025]
The first imaging device 16 and the second imaging device 18 are connected to the control device 2 via a communication cable, and transmit a video signal to an IF unit 19 that is an interface of the control device 2. The control device 2 includes an IF unit 19, a calculation unit 30 connected to the IF unit 19, a storage unit 31 connected to the calculation unit 30, and a scanning line control unit 29 connected to the IF unit 19 and the calculation unit 30. The input unit 37 connected to the calculation unit 30 and the transmission unit 38 connected to the IF unit 19 and the calculation unit 30 are provided.
[0026]
An input device 35 for inputting information for operating the monitoring device 1 is connected to the control device 2 via an input unit 37, and an output device 36 and an imaging device for outputting calculation results and determination results from the monitoring device 1. An image recording / reproducing device 34 that records and reproduces video signals from 16 and 18 is connected via a transmission unit 38. The input device 35 is, for example, a touch panel, a keyboard, a mouse, and the like, and the output device 36 is a display, a printer, an alarm device, or the like. In FIG. 1, the input device 35 and the output device 36 are illustrated as externally attached to the control device 2, but may be built in. Further, the control device 2 may include a light emission control unit (not shown) that controls turning on and off of the infrared light emitting element 17.
[0027]
The storage unit 31 stores an imaging signal storage unit (CCD1: T0) 20 that stores an imaging signal captured at the first time T0 by the first imaging device 16, and stores an imaging signal captured at the second time T1. An imaging signal storage unit (CCD1: T1) 21, an imaging signal storage unit (CCD2: T0) 22 for storing an imaging signal captured at the first time T0 by the second imaging device 18, and an imaging at the second time T1 An imaging signal storage unit (CCD2: T1) 23 that stores imaging signals and a position information storage unit 39 that stores positional information of the monitoring target 12 are provided. The position information includes distance information and position information in the X and Z directions, and the position information storage unit 39 has a function as a distance information storage unit. It also stores other data that can be acquired during the calculation.
[0028]
In the arithmetic unit 30, a first difference image forming unit (CCD 1: difference) 24 that forms a first difference image by the first imaging device 16 and a second difference image by the second imaging device 18 are formed. A second difference image forming unit (CCD2: difference) 25, a position calculating unit 26 for calculating position information of a monitoring object such as a person 12, and a first motion from the first difference image and the second difference image, respectively. A dynamic region extraction unit 27 that extracts a target region and a second dynamic region, and a determination unit 28 that determines a movement state of a person that is the monitoring target 12 from a temporal change in position information. The first difference image forming unit 24 and the second difference image forming unit 25 have functions as a first difference image forming unit and a second difference image forming unit, respectively, and the position calculation unit 26 is a distance information calculation unit. The dynamic region extraction unit 27 has a function as a dynamic region extraction unit, and the determination unit 28 has a function as a determination unit.
[0029]
The scanning line control unit 29 includes a scanning line selection unit 32 having a function as a scanning line selection unit for selecting a scanning line to be synchronized and a scanning line concentration unit 33 for concentrating a predetermined number n of scanning lines in a dynamic region. In addition, control is performed to synchronize the scanning lines corresponding to each other in the first imaging device 16 and the second imaging device 18.
[0030]
The operation of the monitoring device 1 will be described with reference to a partially broken perspective view of FIG. In the monitoring space 10, for example, an inner edge portion 43 defined along the wall surface 4 on the floor surface 3 is set in order to set a range for monitoring the person 12 approaching or moving away from the wall surface 4. An outer edge portion 42 that is defined far away from the inner edge portion 43 by a predetermined distance D (corresponding to a predetermined reference line) is set. The first and second imaging devices 16 and 18 are installed on the inner edge 43.
[0031]
Here, the first imaging device 16 has the first number of scanning lines, the second imaging device 18 has the second number of scanning lines, and both the imaging devices 16 and 18 have the scanning line direction. Commonly installed in parallel. In the present embodiment, the first imaging device 16 and the second imaging device 18 are described as separate bodies, but may be configured as a single unit. The monitoring space 10 is a region having a predetermined distance D sandwiched between the outer edge portion 42 and the inner edge portion 43, and the first and second imaging devices 16 and 18 are configured to detect the person 12 moving in the monitoring space 10. Take an image. In the present embodiment, the first imaging device 16 and the second imaging device 18 are installed on the wall surface 4 and oriented in the horizontal direction. However, the walls and ceiling are inclined toward a three-dimensional monitoring space. May be installed.
[0032]
In addition, the number of scanning lines of the first imaging device 16 and the second imaging device 18 is typically the same, and the number of scanning lines of each imaging device is, for example, 500, and each scanning line. Has a pixel of 500 pixels. In addition, it is desirable that the first imaging device 16 and the second imaging device 18 are installed horizontally in the scanning line direction.
[0033]
The control device 2 receives imaging signals from the first imaging device 16 and the second imaging device 18, and extracts images formed on the scanning lines (horizontal direction) corresponding to each other in synchronization. The scanning lines corresponding to each other means scanning the same part of the monitoring object 12. As will be described later, correlation calculation and distance calculation are performed from the pixel data on the scanning lines corresponding to each other. Thus, the pixel data of recently captured images of the first imaging device 16 and the second imaging device 18 are compared and contrasted, and the correspondence relationship between the scanning lines is grasped in advance.
[0034]
The scanning line selection unit 32 has a function as scanning line extraction means, and extracts a predetermined number n of scanning line pairs from scanning lines corresponding to each other as scanning lines to be synchronized. The predetermined number n is 2 or more, but can be freely selected according to the distance and position of the monitoring object 12. The predetermined number n is, for example, a level that protects the privacy of the person 12 or a level that does not slow down the processing time as the processing amount increases, and may be about 10 to 20. It can be selected at regular intervals, randomly selected, or appropriately changed according to the purpose of use.
[0035]
About 500 scanning lines (excluding those that do not correspond since the scanning lines corresponding to each other may be displaced in the vertical direction) included in each imaging apparatus may be extracted, and the number of scanning lines that divide the imaging region at a predetermined interval may be extracted. Scan lines may be extracted. For example, when detecting a person 12, a scanning line that captures an image with an interval of about 100 mm is extracted, and when detecting a small animal, a scanning line that captures an image with an interval of about 50 mm is extracted, and all other close objects are detected. In this case, it is possible to individually set scanning lines for picking up images with an interval of about 10 mm. For example, in order to detect that any part of the person 12 has entered the monitoring space 10, when at least about 500 scanning lines of each imaging device are used, about 20 scanning lines are provided at regular intervals. Extract it. In the present embodiment, 20 scanning lines are extracted as a predetermined number n.
[0036]
As another case, it is assumed that the number of scanning lines of the first imaging device 16 is 500 and the number of scanning lines of the second imaging device 18 is 600. In this case, if the entire imaged area is the same, the image scanned with the five scanning lines of the first imaging device 16 and the image scanned with the six scanning lines of the second imaging device 18 are the same. Make correspondence. That is, one of the five scanning lines of the first imaging device 16 and one of the six scanning lines of the second imaging device 18 are scanning lines corresponding to each other. Therefore, the number of scanning lines corresponding to each other is about 100 (except for the case where the scanning lines corresponding to each other are displaced in the vertical direction, so that they do not correspond). Even in this case, 20 scanning lines can be extracted from about 100 corresponding scanning lines as a predetermined number n. When the time required for one scan in the first imaging device 16 and the time required for one scan in the second imaging device 18 are different, the scanning start time of each scanning line is synchronized. Let Furthermore, the scanning lines to be synchronized may be extracted in time series.
[0037]
The monitoring device 1 receives the image information of the person 12 captured by the first imaging device 16 at the time T0 through the IF unit 19, and the imaging signal storage unit at the first time T0 of the storage unit 31 via the arithmetic unit 30. Store to 20. In parallel, the image information of the person 12 imaged at the time T0 by the second imaging device 18 is received through the IF unit 19, and the imaging signal storage unit 22 at the first time T0 of the storage unit 31 is received via the arithmetic unit 30. Remember me. The image information is typically array data of pixel values (lightness) of pixels constituting the image.
[0038]
Subsequently, the image information of the person 12 at time T1 captured by the first imaging device 16 after a predetermined time ΔT from the time T0 is received through the IF unit 19, and the second time in the storage unit 31 is obtained via the arithmetic unit 30. The image is stored in the imaging signal storage unit 21 of T1. In parallel, the image information of the person 12 at time T1 imaged by the second imaging device 18 after a predetermined time ΔT from the time T0 is received through the IF unit 19, and the second information in the storage unit 31 is received via the arithmetic unit 30. Is stored in the imaging signal storage unit 23 at time T1.
[0039]
The first difference image forming unit 24 and the second difference image forming unit 25 in the calculation unit 30 form a difference image from image information of each image formed on the scanning line included in each imaging signal. It functions as a first difference image forming unit and a second difference image forming unit.
[0040]
The first difference image forming unit 24 sequentially calculates a first difference image that is a difference image between the image of the person 12 at time T0 and the image of the person 12 at time T1 captured by the first imaging device 16. The first difference image is temporarily stored. In parallel, the second difference image forming unit 25 outputs a second difference image that is a difference image between the image of the person 12 at time T0 and the image of the person 12 at time T1 captured by the second imaging device 18. A sequential calculation process is performed to temporarily store the second difference image. These difference images are image information indicating the contour (edge) of the person 12 from which the moved part of the person 12 is extracted.
[0041]
The two images for forming the difference image are respectively acquired at the imaging time T0 and the imaging time T1 delayed by a predetermined time ΔT from the imaging time T0. The delay time (predetermined time) ΔT to be shifted is The amount of movement does not become too large, and the time can be regarded as substantially the same position, for example, about 0.1 seconds. Or it is set as 1-10 periods (1/30 second-1/3 second) of a television period. When such a difference image is calculated and acquired, the background of the person 12 is removed, and only an image of the person 12 with movement can be extracted.
[0042]
Since the images formed on the scanning lines of the imaging devices 16 and 18 do not move in the background, their pixel values change abruptly at the boundary of the moving person 12. In the present embodiment, the dynamic region extraction unit 27 in the calculation unit 30 reads out each difference image from the first difference image forming unit 24 and the second difference image forming unit 25, and the monitoring target 12 has each difference. It has a dynamic area extraction function for extracting areas occupied on the image as a first dynamic area and a second dynamic area, respectively. Among the pixels in which the absolute value of each pixel value (lightness difference) constituting the difference image is larger than the first threshold value, the boundary pixel where the signal of the difference image is generated is regarded as the boundary of the person 12, and each dynamic region Extract as In the present embodiment, a case where an annular pixel region is extracted as a dynamic region will be described.
[0043]
Usually, the absolute value of the pixel value (brightness difference) increases at the contour of the monitoring object 12. The difference image includes a brightened pixel and a darkened pixel. For example, if the pixel value when the image becomes bright is +, the pixel value when the image becomes dark is-. The first threshold value is provided to remove noise.
[0044]
FIG. 2 shows an example of an image photographed by the imaging device in the monitoring device 1 of the present embodiment. 2A and 2B show examples of images taken by the first imaging device at times T0 and T1, respectively. Between time T0 and time T1, if both the arms are separated from the torso and the person 12 with both legs open moves to the left as it is, the shape changes from a dotted line in FIG. 2B to a solid line. A portion between the solid line and the dotted line is formed as the first difference image, and the first difference image substantially coincides with the one representing the outline of the person.
[0045]
2A and 2B, the scanning lines are m1 to m13 from the top. On the scanning line m4, two areas p1 and p2 are areas where the absolute value of the brightness difference is large. Since the position of the face changes as the person 12 moves, a difference image signal is generated between p1 and p2, and the pixel value is not zero. On the left side of p1 and the right side of p2, the pixel value of the difference image is 0 because the background is unchanged. On the scanning line m7, six regions p3 to p8 are regions where the absolute value of the brightness difference is large. Since the position of the clothes changes with the movement of the person 12, a difference image signal is generated between p3 and p4, between p5 and p6, and between p7 and p8, and the pixel value is not zero. On the other hand, on the left side of p3, between p4 and p5, between p6 and p7, and on the right side of p8, the pixel value of the difference image is 0 because the background is unchanged. In the scanning line m10, there are four areas from p9 to p12 where the absolute value of the brightness difference is large. A difference image signal is generated between p9 and p10 and between p11 and p12, and the pixel value is not zero. The pixel value of the difference image is 0 on the left side of p8, between p9 and p10, and on the right side of p8.
[0046]
Therefore, it can be said that the pixel areas where the absolute value of the brightness difference is large are areas where a difference image signal is generated, that is, a pair of areas sandwiching an area occupied by a person. That is, p1 and p2, p3 and p4,..., P11 and p12 are pixel regions that form a pair on the boundary with a region where there is no signal and sandwich the region where the signal of the difference image is generated. It is a pixel area which makes a pair across the area occupied by. An annular pixel region formed by collecting such pixel regions and connecting each pair of pixel regions extracted by adjacent scanning lines to each other is extracted as a first dynamic region. That is, the extracted first dynamic area substantially coincides with a pixel area where the absolute value of the brightness difference of the difference image is large, and is extracted as an area substantially occupied by the person 12 on the difference image. The first dynamic area extracted in this way represents the outline of a person. Here, if there is a portion with little motion in the outline of the person, the absolute value of the brightness difference is small, so that the extracted dynamic region lacks a part of the annular shape. However, even if a portion is missing, if a portion with a large absolute value of the brightness difference is extracted to some extent, later correlation processing and distance calculation are possible.
[0047]
In addition, a difference image is formed between the scanning line m4 and the scanning line m11, but a difference image is not formed between the scanning line m3 and the scanning line m12. Therefore, the upper end of the first dynamic area is between m3 and m4. It can be seen that the lower end of one dynamic region is between m11 and m12. Also, when moving to the right, the same difference image and points constituting the dynamic region can be obtained. Also, when the person in front moves forward, the outline of the person enlarges, and when the person moves backward, the outline of the person shrinks, so that a similar difference image is formed and the first motion is formed. Target area can be extracted. Similarly, the second dynamic region can be extracted from the second difference image.
[0048]
When a plurality of pairs of pixel regions are generated as in the scanning lines m7 and m10, a pair of pixel regions on the outermost side on the scanning line, p3, is used as a point constituting the first dynamic region. And p8, and only p9 and p12 may be selected. A pair of pixel regions selected in this way are extracted for each scanning line, collected, and an annular pixel region formed by connecting each pair of pixel regions extracted by adjacent scanning lines is defined as a first pixel region. Even if it is extracted as one dynamic region, the region occupied by the person 12 on the difference image is included inside the first dynamic region. If the second dynamic region is extracted in the same manner, when the correlation process is performed, the correlation process is performed except for the contours such as the inner side of the limbs. In many cases, substantially the same result as when a plurality of pairs are selected and correlation processing is performed can be obtained.
[0049]
If the person who is the monitoring target 12 is stationary, the dynamic area is not extracted. Therefore, when no dynamic region is extracted, the person is considered to be stationary.
[0050]
As described above, the calculation unit 30 does not perform the dynamic region extraction processing for all the scanning lines, but performs the processing for a predetermined number (20 in this embodiment) of scanning lines corresponding to each other. An area where the person 12 has moved can be extracted.
[0051]
By the way, in order to monitor the movement of the person 2, it is sufficient to concentrate a predetermined number of scanning lines on the dynamic region extracted for the person 12, without spreading it over the entire area of the captured image.
[0052]
FIG. 3 shows a state of scanning lines for scanning the person 12 when a predetermined number n of scanning lines are concentrated on the person 12. 3A shows a state where the person 12 is at a short distance from the monitoring apparatus 1, and FIG. 3B shows a state where the person 12 is at a long distance from the monitoring apparatus 1. If the person 12 is near the inner edge 43, the dynamic area becomes larger, if the person 12 is near the outer edge 42, the dynamic area becomes smaller, and as the person 12 approaches the inner edge 43 from the outer edge 42, the dynamic area becomes smaller. Monotonically increasing.
[0053]
The scanning line concentration unit 33 has a function as a scanning line concentration unit. The scanning line concentration unit 33 concentrates a predetermined number n of scanning lines corresponding to each other on the dynamic region and extracts them at substantially equal intervals. As the person 12 approaches the inner edge 43 from the outer edge 42, the interval between the scanning lines to be extracted is gradually increased, and as the person 12 moves away from the inner edge 43 to the outer edge 42, the interval between the scanning lines to be extracted is gradually reduced. Go. In this way, for example, the third scanning line m3 from the top always scans near the shoulder, and the third scanning line m18 from the bottom always scans near the knee. Can be monitored with accuracy. Further, the remote monitoring object 12 is not scanned between the scanning lines, and it cannot be detected.
[0054]
The uppermost scanning line and the lowermost scanning line are selected so that the entire person 12 can be accommodated with a margin. For example, when the number of scanning lines of the first imaging device 16 and the second imaging device 18 is 500 and the number of scanning lines corresponding to each other is approximately 500, the image of the person 12 is captured in the outer edge portion 42. Of about 160 scanning lines from the top to about 340, 20 lines are selected at intervals of about 9, and the image of the person 12 approaches the direction of the inner edge 43 side. At the position where the image is spread over the entire imaging screen, 20 lines are selected at intervals of about 25 lines, and the intervals between the scanning lines corresponding to each other are gradually changed. From the position where the image of the person 12 spreads across the imaging screen [further], on the inner edge 43 side, 20 states are maintained at intervals of about 25.
[0055]
Further, for example, when the number of scanning lines of the first imaging device 16 is 500, the number of scanning lines of the second imaging device 18 is 600, and the number of scanning lines corresponding to each other is about 100, the outer edge portion If the image of the person 12 is about 1/3 of the imaging screen at 42, 20 lines of about 40 scanning lines from about 30 to about 70 from the top are selected at intervals of about 2, and the inner edge 43 At the position where the image of the person 12 approaches in the direction of the side and the image of the person 12 spreads out, 20 lines are selected at intervals of about 5 lines, and the intervals between the scanning lines corresponding to each other are gradually changed. On the inner edge 43 side from the position where the image of the person 12 extends over the entire shooting range, 20 states are maintained at intervals of about 5 lines.
[0056]
Further, for example, among the pixels constituting the first dynamic region or the second dynamic region, the lowest pixel is between the highest scanning line and the next higher scanning line. When a predetermined number n of scanning lines are concentrated on the first dynamic area or the second dynamic area so as to be between the lowest scanning line and the next lower scanning line, the highest scanning line is obtained. When the uppermost scanning line scans the lower side of the pixel, or when the lowermost scanning line scans the upper side of the lowermost pixel, a predetermined number n of scanning lines are concentrated. In order to widen the range and when the next upper scanning line scans the upper side of the highest pixel, or the lower upper scanning line scans the lower side of the lowermost pixel. In this case, the interval between the scanning lines is changed again so that the range of the predetermined number n of scanning lines is reduced. By adjusting the lowermost pixel between the upper scanning line and the next upper scanning line so as to be between the lowermost scanning line and the next lower scanning line, a predetermined number n of scanning lines can be obtained. It is permanently concentrated on the monitoring object 12, and the operation of the monitoring object 12 can be grasped with a certain accuracy. For example, the adjustment is performed so that the uppermost scanning line is ½ of the current scanning line interval from the uppermost pixel and the lowermost scanning line is set to the current scanning line interval from the lowermost pixel. The n-2 scanning lines are extracted so that the scanning line interval is substantially uniform between them so as to be 1/2 lower.
[0057]
If the dynamic region is not extracted, the person 12 is considered to be stationary, so the state of the scanning line in the immediately preceding frame is maintained. Further, when a dynamic region is not extracted a predetermined number of times or more, in order to reconfirm the state of the monitoring object 12, a predetermined number n of scanning lines are extended to the entire monitoring space. If the dynamic area is confirmed, a predetermined number n of scanning lines are concentrated on the newly extracted dynamic area.
[0058]
The position calculation unit 26 has a function as distance information calculation means. By performing correlation processing based on the first difference image and the second difference image, the distance between the inner edge portion 43 (predetermined reference line) and the person 12 and the position in the X direction or the Z direction are calculated. The position information of each part of the person 12 acquired in step 1 is temporarily stored in the position information storage unit 39.
[0059]
The position calculation unit 26 has a function of calculating a correlation output value between the first dynamic region extracted from the first difference image and the second dynamic region extracted from the second difference image. is doing. The position calculator 26 calculates a predetermined reference line (inner edge) 43, that is, a distance from the installation position of the imaging device to the person 12 based on the calculated correlation output value.
[0060]
For example, the position calculation unit 26 uses, as a dynamic area, a pixel area where the absolute value of each pixel value is large from the first difference image, that is, a pixel area whose contrast has changed drastically due to the movement of the person 12. To extract. Further, the image information is extracted from the second difference image using a pixel region having a large absolute value of the pixel value as a dynamic region. When the image information of each extracted dynamic region is compared, it can be seen that the two dynamic regions are images in which the positions of the corresponding pixel regions are slightly different from the parallax relationship between the imaging devices 16 and 18. This is because the two imaging devices 16 and 18 are installed at a constant interval w and the same monitoring object 12 is monitored.
[0061]
Subsequently, the position calculation unit 26 performs correlation processing between the first dynamic region and the second dynamic region, shifts one image in units of one pixel, and the position where the correlation peak is maximized (correlation peak position). ) Is calculated, the average correlation output value between the two dynamic regions or the correlation output value at the approximate center of the extracted region is calculated and acquired.
[0062]
Here, the correlation output value is a relative imaging position difference generated by parallax between the first imaging device 16 and the second imaging device 18, and typically, the number of pixels (pixels) is obtained by correlation processing. ) Is the output value. Based on the parallax between the scanning line of the first imaging device 16 and the scanning line of the second imaging device 18 based on the correlation output value, the position calculation unit 26 uses the trigonometry to obtain the imaging device, that is, the predetermined reference line 43. The distance to the person 12 is calculated.
[0063]
Correlation processing means that one of the first difference image and the second difference image, or one of the first dynamic region and the second dynamic region, and the two images substantially coincide. This is a process of calculating by shifting the pixel unit until it is done, and indicating the shifted amount by, for example, the number of pixels. Judgment of whether two difference images match or not is when one difference image is fixed and the other difference image is shifted, or one dynamic region is fixed and the other dynamic region is shifted. Execute based on the strength of the entire signal that overlaps. The coordinates at which the signal peaked are the coincidence points and the correlation peak positions.
[0064]
In addition, the correlation process binarizes the first difference image and the second difference image with an appropriate threshold value, and extracts an edge portion of the monitoring target object 12 so that the moving monitoring target object 12 exists. May be extracted, and correlation processing may be performed only on the extracted region. By doing so, the correlation processing uses binarized image data, so the processing becomes simple.
[0065]
If it is a true correlation output value, the correlation peak value usually jumps and becomes large. However, the acquired correlation output value data may not be the case. Therefore, the maximum correlation peak value and the second largest correlation peak value are compared. If the correlation peak value level difference is equal to or greater than the predetermined threshold R, the correlation output value that maximizes the correlation peak value is acquired. If the correlation peak value is equal to or less than the threshold R, the correlation output value that maximizes the correlation peak value is acquired. Do not do. That is, if the correlation peak value is not large and does not increase, it is regarded as unreliable data. Even when there is a maximum peak value, if the maximum peak value is equal to or less than the threshold value R ′, it is regarded as unreliable data, and the correlation output value with the maximum correlation peak value is not acquired. .
[0066]
Of course, when the first imaging device 16 and the second imaging device 18 are the same model and almost all of the scanning lines corresponding to each other are used, in this embodiment, the extracted scanning lines are used as dynamic regions. Since the images are concentrated on the whole and extracted at equal intervals, an image of a portion corresponding to the head of the person 12 to the toes can be obtained. Then, with respect to the dynamic region extracted from the difference image obtained from each corresponding scanning line, the distance for each part of the person 12 on each scanning line can be obtained by correlation processing. Alternatively, the distance about the person 12 can be obtained by correlation processing for the dynamic region extracted from the difference image obtained from the entire predetermined number n of scanning lines. The average distance may be calculated by collecting the distances of the respective parts.
[0067]
The position information of the person who is the monitoring object 12 in the X direction and the Z direction is the X direction of the first difference image or the second difference image, or the first dynamic region or the second dynamic region. Derived from position and distance information in the Z direction. The position information storage unit 39 has a function as distance information storage means, and temporarily stores distance information, position information in the X direction and Z direction, and changes with time thereof.
[0068]
The determination unit 28 has a function as a determination unit, determines the movement state of the person who is the monitoring object 12 from the time-dependent change of the distance information, and determines the movement state to the output device 36 via the transmission unit 38. Is output. Further, the moving state may be displayed on the image recording / reproducing apparatus 34 via the transmission unit 38. The movement state of the person is information such as forward / backward / left / right movement and stillness. It is determined that the distance is approaching when the distance is short, and is moving away when the distance is long. When combined with time information, the moving speed can also be calculated. Alternatively, the size of the dynamic region may be calculated, and it may be determined that the size of the dynamic region is approaching when it is large, and that the region is moving away when it is small.
[0069]
FIG. 4 illustrates a flowchart of the processing flow of the monitoring apparatus. Here, the left image is an image captured by the first imaging device 16, and the right image is described as an image captured by the second imaging device 18. The process starts from the start step S10. First, the control device 2 captures the left image and the right image with the first imaging device 16 and the second imaging device 18, respectively (step S11). To obtain a stereo image.
[0070]
The control device 2 compares the images recently captured by the first imaging device 16 and the second imaging device 18 in the scanning line selection unit 32 of the scanning line control unit 29, and scans the first imaging device 16. Data of a pair of scanning lines corresponding to each other that scan the same portion of the monitoring object 12 from the scanning line of the second imaging device 18 and the scanning line of the second imaging device 18 is held in advance. The scanning line selection unit 32 determines a predetermined corresponding one of the monitoring objects 12 from the scanning line of the first imaging device 16 and the scanning line of the second imaging device 18 based on the data of the pair of scanning lines corresponding to each other. N scanning lines are extracted (step S12).
[0071]
The control device 2 acquires a left image of the T0 frame obtained by imaging the person 12 in the monitoring space 10 at the first time T0 (step S13). Next, the left image of the T1 frame captured at the second time T1 = T0 + ΔT when the predetermined time ΔT has elapsed is acquired (step S14).
[0072]
Next, the first difference image forming unit 24 extracts a first difference image that is a difference image (left) between the left image of the T0 frame and the left image of the T1 frame (step S15). Next, the dynamic area extraction unit 27 associates the first difference image with either the T0 frame or the T1 frame, and extracts the contour of the person 12 with high contrast from the first difference image. After performing the dynamic region extraction process (step S16), the process proceeds to the subsequent correlation process of step S21.
[0073]
In addition, the control device 2 acquires a right image of the T0 frame obtained by capturing the person 12 in the monitoring space 10 at the first time T0 (step S17). Next, the right image of the T1 frame imaged at the second time T1 = T0 + ΔT when ΔT of a predetermined time has elapsed is acquired (step S18).
[0074]
Next, the second difference image forming unit 25 extracts a second difference image that is a difference image (right) between the right image of the T0 frame and the right image of the T1 frame (step S19). Next, the dynamic region extraction unit 27 associates the second difference image with either the T0 frame or the T1 frame, and extracts the contour of the person 12 with high contrast from the second difference image. After performing the second dynamic region extraction process (step S20), the process returns to step S12.
[0075]
At this time, the scanning line concentration unit 33 of the scanning line control unit 29 concentrates the predetermined number n of scanning lines on the operation area (first and second dynamic areas), The lower scanning line, the scanning line interval, and the like are calculated, and the scanning line selection unit 32 selects a predetermined number n of scanning lines corresponding to each other based on the calculation result. If the predetermined number n of scanning lines are already concentrated in the dynamic area, the process proceeds to the correlation processing in the subsequent step S21.
[0076]
In the present embodiment, the first imaging device and the second imaging device perform imaging at each time (T0, T1 = T0 + ΔT) simultaneously and in parallel. In this case, ΔT may be appropriately determined according to the setting conditions of the counting device, but it is preferable to set the time from when a certain frame N is captured until the next frame N + 1 is captured.
[0077]
Next, the position calculation unit 26 uses the first dynamic region that is the outline of the person 12 with high contrast in the left image of the T0 frame, and uses the first dynamic region that is the outline of the person 12 with high contrast in the right image of the T0 frame. The corresponding point of the dynamic region is searched for and correlation processing is executed (step S21). Distance information corresponding to the distance from the inner edge 43 as a predetermined reference line to the person 12 is calculated from the corresponding point information obtained by this correlation processing (step S22). For example, the distance to the person 12 is calculated based on the number of pixels that match the left image and the right image.
[0078]
Subsequently, the determination unit 28 compares the spatio-temporal image created in the immediately preceding frame with the spatio-temporal image of the current frame, and the person 12 or part thereof present in the spatio-temporal image of the current frame is the monitoring space 10. Is determined based on distance information and position information in the X direction (step S23). When the distance is shortened, it is determined that the person 12 or the part thereof is approaching the wall surface 4, that is, the predetermined reference line 43, and the determination result is output to the output device 36 via the transmission unit 38. 12 is present in the monitoring space 10, the video signal of the person 12 imaged by the first imaging device 16 or the second imaging device 18 is sequentially recorded in the image recording / reproducing device 34 via the transmission unit 38. A measure such as continuing (recording) is performed (step S24). When the distance becomes long, it is determined that the person 12 or a part thereof is away from the wall surface 4. Further, the movement in the X direction or the Z direction is determined from the change in the position information in the X direction or the Z direction. Note that the determination may be made based on the movement state of the pixel address indicating the outline of the person 12 or its portion. For example, when the contour address of the person 12 widens, it is determined that the person 12 is approaching the wall surface 4, and when the person 12 becomes narrow, it is determined that the person 12 is moving away from the wall surface 4. Thus, the process ends (step S25) or returns to the start.
[0079]
FIG. 5 shows a schematic block diagram for explaining the principle of the distance measuring method in the present embodiment. Here, a method of calculating the distance between the imaging device and the person 12 using the trigonometric method will be described. FIG. 5 illustrates a method for measuring the distance to the left end of the person 12 when the person 12 is observed from the front and the person 12 is imaged from the horizontal direction by the first imaging device 16 and the second imaging device 18. To do.
[0080]
Here, w is the distance (base line length) between the optical axes of the first imaging device 16 and the second imaging device 18, and f is the lens focus when the light receiving lens of each of the imaging devices 16 and 18 is a single lens. The distance, d, is the parallax on the image plane of the first imaging device 16 (relative to the second imaging device 18). The focal length f here is the focal length f of the combination lens when a commonly used combination lens is used. Thereby, the distance a between the left end (left shoulder) of the target person 12 and the monitoring device 1 can be calculated by the following equation. a = w × f / d (1)
[0081]
In this way, the sensor control unit 60 that has acquired the stereo image from the first and second imaging devices 16 and 18 (installed at the inner edge 43 that is a predetermined reference line) has an internal difference image forming unit. 62. A difference image (first difference image) of the first image pickup device 16 and a difference image (second difference image) of the second image pickup device 18 are formed by 62, and further, the first and second difference images are used as the first difference image. The first and second dynamic regions are extracted, the two dynamic regions are subjected to correlation processing by the correlation output calculation unit 64, and the correlation processing signal is output to the control device 2, whereby the distance from the imaging device to the person 12 Is calculated.
[0082]
Further, the invasion distance value z of the person 12 is calculated by subtracting the distance from the reference distance h (measured from the outer edge portion 42) between the background measured in advance and the imaging device to the person 12, and the intrusion distance value z is determined as the position. Temporarily stored in the calculation unit 26. Further, it is also possible to configure so that video signals are directly transmitted from the two imaging devices to the control device 2 without using the sensor control unit 60.
[0083]
FIG. 6 shows another schematic block diagram for explaining the principle of the distance measuring method in the present embodiment. As shown in FIG. 6, the distance a ′ between the right end (right shoulder) of the target person 12 and the imaging device is also the parallax d ′ on the image plane of the second imaging device 18 (first imaging device). 16) (where a is changed to a ′ and d is changed to d ′). The sensor control unit 60 forms a difference image by the difference image forming unit 62, extracts dynamic regions from the two difference images, and performs correlation processing on the two dynamic regions by the correlation output calculation unit 64, and outputs a correlation processing signal. Is output to the control device 2 to calculate the distance from the imaging device to the person 12. When the person 12 is facing the front with a symmetrical posture, a ′ is equal to a and d ′ is equal to d.
[0084]
Returning to FIG. 1, the operation of the monitoring apparatus 1 will be further described. The calculation unit 30 can monitor the person 12 based on the penetration distance value z temporarily stored in the position calculation unit 26.
[0085]
In addition, the calculation unit 30 stores the intrusion distance value z between the left end and the right end of the person 12 temporarily stored in the position information storage unit 39 in time series, and based on this, the position information (including distance information) of the person 12 is stored. ), Size, moving direction, posture, etc. are determined. That is, the determination unit 28 compares the reference distance h to the outer edge portion 42 with the intrusion distance value z of the person 12 at a certain time, thereby determining the presence of the person 12, its position information, size, moving direction, and posture. And so on.
[0086]
Further, the position calculation unit 26 determines the final existence of the person 12, the position information, the moving direction, the posture, and the like corresponding to each of a plurality of scanning lines extracted from the scanning lines of the imaging device. To calculate the position information of the person 12. The moving direction of the person 12 includes not only a horizontal change in the position of the person 12 but also a vertical change in which the person 12 stands or sits down, for example.
[0087]
It should be noted that the monitoring device of the present invention is not limited to the above-described embodiment, and various changes can be made without departing from the scope of the present invention.
[0088]
For example, in the present embodiment, the distance from the predetermined reference line 43 to the monitoring object 12 is calculated by performing correlation processing on the first dynamic region and the second dynamic region. 26 obtains pixels corresponding to each of the first dynamic area and the second dynamic area, calculates the positional deviation of the pixels in correspondence, and based on the principle of triangulation from the positional deviation, that is, parallax. Thus, the distance to the monitoring object 12 may be calculated.
[0089]
In this way, the position calculation unit 26 does not need to perform correlation processing at all, and can calculate parallax with a very simple process. This method is also effective when the distance to the person 2 becomes short and the parallax increases.
[0090]
In the present embodiment, the absolute value of the pixel value in the dynamic region is larger than the first threshold, and the pair of pixels at the boundary with the region where there is no signal sandwiching the region where the difference image signal is generated An area is extracted and extracted as an annular pixel area formed by connecting one or more pairs of pixel areas extracted in adjacent scanning lines to each other. It may be extracted as a surrounding planar pixel region. If it does in this way, the boundary of clothes etc. will be extracted. Further, even if a part of the annular pixel region or the planar pixel region is missing, it can be said that the present invention is applicable because correlation processing and distance calculation are possible.
[0091]
In the present embodiment, the correlation output value is calculated from the correlation between the first dynamic region and the second dynamic region, but from the correlation between the first difference image and the second difference image. It may be calculated.
[0092]
【The invention's effect】
As described above, according to the present invention, the monitoring device having a simple configuration that can obtain the position information of the monitoring target moving in the three-dimensional monitoring space using the stereo image at high speed and with high accuracy, particularly the monitoring target. Even when an object is far away, it is possible to provide a monitoring device that can measure with the same accuracy as when it is nearby.
[Brief description of the drawings]
FIG. 1 is a schematic partially broken perspective view of a monitoring device according to an embodiment of the present invention.
FIG. 2 is a diagram illustrating an example of an image photographed by the imaging device in the embodiment of the present invention.
FIG. 3 is a diagram showing a state of a scanning line that scans a monitoring object when the monitoring object is near and far from the embodiment of the present invention.
FIG. 4 is a flowchart illustrating the processing flow of the monitoring apparatus according to the embodiment of the present invention.
FIG. 5 is a diagram for explaining the principle of a distance measuring method used in the embodiment of the present invention.
FIG. 6 is another diagram for explaining the principle of the distance measuring method used in the embodiment of the present invention.
[Explanation of symbols]
1 Monitoring device
2 Control device
3 Floor (XY plane)
4 Wall surface (XZ surface)
10 Monitoring space
12 Monitoring object (person)
16 First imaging device
17 Infrared light emitting device
18 Second imaging device
19 I / F section
20-23 Imaging signal storage unit
24 1st difference image formation part
25 Second difference image forming unit
26 Position calculator
27 Dynamic region extraction unit
28 judgment part
29 Scanning line controller
30 Calculation unit
31 Memory unit
32 Scanning line selector
33 Scanning line concentration part
34 Image recording and playback device
35 Input device
36 Output device
37 Input section
38 Transmitter
39 Location information storage unit
40 Direction of movement
42 Outer edge
43 Inner edge
44 Wall surface (YZ surface)
60 Sensor control unit
62 Difference image forming unit
64 Correlation output calculator

Claims (8)

三次元の監視空間を移動する監視対象物を監視するステレオ画像を用いた監視装置であって;
前記監視空間に向けて設置され、経時的に変化をする前記監視対象物を撮像する第1の撮像装置と;
前記第1の撮像装置から所定の間隔だけ離して、前記監視空間に向けて設置され、経時的に変化をする前記監視対象物を撮像する第2の撮像装置と;
前記第1の撮像装置により第1の時刻に撮像された画像と前記第1の時刻から所定の時間だけ遅れた第2の時刻に撮像された画像との差画像である第1の差画像を逐次形成する第1の差画像形成手段と;
前記第2の撮像装置により前記第1の時刻に撮像された画像と前記第2の時刻に撮像された画像との差画像である第2の差画像を逐次形成する第2の差画像形成手段と;
前記第1の差画像と前記第2の差画像から、それぞれ、前記監視対象物が前記第1の差画像上と前記第2の差画像上に占める各々の領域を第1の動的領域と第2の動的領域として抽出する動的領域抽出手段と;
前記第1の撮像装置の走査線及び前記第2の撮像装置の走査線から、前記監視対象物の同一部分を走査する走査線を互いに対応する走査線とし、前記互いに対応する走査線から所定本数の走査線の対を抽出する走査線抽出手段と;
前記第1の撮像装置及び前記第2の撮像装置における前記所定本数の走査線を、それぞれ前記第1の動的領域及び前記第2の動的領域に集中して走査させる走査線集中手段と;
前記集中して走査された走査線を用いて形成された第1の動的領域と第2の動的領域に基づいて、前記監視対象物の所定の基準線からの距離を演算する距離情報演算手段を備える;
ステレオ画像を用いた監視装置。
A monitoring device using a stereo image for monitoring a monitoring object moving in a three-dimensional monitoring space;
A first imaging device that is installed toward the monitoring space and images the monitoring object that changes over time;
A second imaging device that is installed at a predetermined distance from the first imaging device and is directed toward the monitoring space and that images the monitoring object that changes over time;
A first difference image that is a difference image between an image captured at a first time by the first imaging device and an image captured at a second time delayed by a predetermined time from the first time. First difference image forming means for sequentially forming;
Second difference image forming means for sequentially forming a second difference image that is a difference image between the image picked up at the first time by the second image pickup device and the image picked up at the second time. When;
From the first difference image and the second difference image, the respective areas occupied by the monitoring object on the first difference image and the second difference image are defined as first dynamic areas. Dynamic area extracting means for extracting as a second dynamic area;
From the scanning lines of the first imaging device and the scanning lines of the second imaging device, scanning lines that scan the same portion of the monitoring target are scanning lines that correspond to each other, and a predetermined number of scanning lines from the scanning lines that correspond to each other. Scanning line extracting means for extracting a pair of scanning lines;
Scanning line concentration means for concentrating and scanning the predetermined number of scanning lines in the first imaging device and the second imaging device in the first dynamic region and the second dynamic region, respectively;
Distance information calculation for calculating the distance from the predetermined reference line of the monitoring object based on the first dynamic area and the second dynamic area formed using the concentrated scanning lines. Comprising means;
A monitoring device using stereo images.
前記距離及びその経時的変化を記憶する距離情報記憶手段と;
前記距離の経時的変化に基づいて前記監視対象物の移動状態を判定する判定手段を備える;
請求項1に記載のステレオ画像を用いた監視装置。
Distance information storage means for storing the distance and its change over time;
Determining means for determining a movement state of the monitoring object based on a change with time of the distance;
The monitoring apparatus using the stereo image according to claim 1.
前記動的領域抽出手段は、前記第1の差画像又は前記第2の差画像を構成する各画素から、前記集中して走査した走査線毎に、画素値の絶対値が、第1の閾値より大きく、差画像の信号が生じた領域を挟み、信号がない領域との境界にある1対以上の画素領域を抽出して、隣接する走査線にて抽出された各1対以上の画素領域を互いに連結して形成された環状の画素領域を、又は前記環状の画素領域を周囲とする面状の画素領域を、それぞれ前記第1の動的領域又は前記第2の動的領域として抽出する;
請求項1又は2に記載のステレオ画像を用いた監視装置。
The dynamic region extraction unit is configured such that an absolute value of a pixel value is a first threshold value for each of the concentrated scanning lines from each pixel constituting the first difference image or the second difference image. One or more pairs of pixel regions that are extracted by adjacent scanning lines by extracting one or more pairs of pixel regions at the boundary with a region that has a larger difference image signal and sandwiches the region where there is no signal Are extracted as a first dynamic region or a second dynamic region, respectively. ;
The monitoring apparatus using the stereo image according to claim 1 or 2.
前記動的領域抽出手段は、前記第1の差画像又は前記第2の差画像を構成する各画素から、前記集中して走査した走査線毎に、画素値の絶対値が、第1の閾値より大きく、最外部にある1対の画素領域を抽出して、隣接する走査線にて抽出された各1対の画素領域を互いに連結して形成された環状の画素領域を、又は前記環状の画素領域を周囲とする面状の画素領域を、それぞれ前記第1の動的領域又は前記第2の動的領域として抽出する;
請求項1又は2に記載のステレオ画像を用いた監視装置。
The dynamic region extraction unit is configured such that an absolute value of a pixel value is a first threshold value for each of the concentrated scanning lines from each pixel constituting the first difference image or the second difference image. An annular pixel region formed by extracting a pair of pixel regions that are larger and outermost and connecting each pair of pixel regions extracted by adjacent scanning lines to each other, or the annular pixel region Extracting planar pixel areas around the pixel area as the first dynamic area or the second dynamic area, respectively;
The monitoring apparatus using the stereo image according to claim 1 or 2.
前記走査線集中手段は、前記第1の動的領域又は前記第2の動的領域を構成する画素のうち、最上位の画素が最上位の走査線と次上位の走査線との間に、最下位の画素が最下位の走査線と次下位の走査線との間に来るように、前記所定本数の走査線を前記第1の動的領域又は前記第2の動的領域に集中して走査させる;
請求項1乃至4に記載のステレオ画像を用いた監視装置。
The scanning line concentration means is configured such that, among the pixels constituting the first dynamic region or the second dynamic region, the highest pixel is between the highest scanning line and the next higher scanning line. The predetermined number of scanning lines are concentrated in the first dynamic area or the second dynamic area so that the lowest pixel is between the lowest scanning line and the next lower scanning line. Scan;
The monitoring apparatus using the stereo image according to claim 1.
前記走査線集中手段は、前記第1の動的領域又は前記第2の動的領域を抽出できなかった時は、直前のフレームにおける走査線の状態を維持し、さらに、所定の回数以上、前記第1の動的領域又は前記第2の動的領域を抽出できなかった時は、前記所定本数の走査線を監視空間全体に拡張する;
請求項1乃至5に記載のステレオ画像を用いた監視装置。
The scanning line concentration means maintains the state of the scanning line in the immediately preceding frame when the first dynamic area or the second dynamic area cannot be extracted, and further, the scanning line concentration means is more than a predetermined number of times, When the first dynamic area or the second dynamic area cannot be extracted, the predetermined number of scanning lines are extended to the entire monitoring space;
The monitoring apparatus using the stereo image according to claim 1.
前記距離情報演算手段は、前記第1の動的領域と前記第2の動的領域との相関関係から、前記第1の撮像装置と前記第2の撮像装置との視差に係る相関出力値を算出し、前記相関出力値から三角法を用いて前記監視対象物の所定の基準線からの距離を演算する;
請求項1乃至6に記載のステレオ画像を用いた監視装置。
The distance information calculation means calculates a correlation output value related to a parallax between the first imaging device and the second imaging device from a correlation between the first dynamic region and the second dynamic region. Calculating and calculating a distance from the predetermined reference line of the monitored object using trigonometry from the correlation output value;
The monitoring apparatus using the stereo image according to claim 1.
前記距離情報演算手段は、前記相関出力値のうち、最大の相関ピーク値を示す相関出力値と2番目の相関ピーク値を示す相関出力値を抽出し、前記最大の相関ピーク値と前記2番目の相関ピーク値との差が第2の閾値より大きい場合に限り、前記最大の相関ピーク値を示す相関出力値から、前記所定の基準線からの距離を演算する;
請求項7に記載のステレオ画像を用いた監視装置。
The distance information calculation means extracts a correlation output value indicating a maximum correlation peak value and a correlation output value indicating a second correlation peak value from the correlation output values, and extracts the maximum correlation peak value and the second correlation peak value. A distance from the predetermined reference line is calculated from the correlation output value indicating the maximum correlation peak value only when the difference from the correlation peak value is greater than the second threshold value;
The monitoring apparatus using the stereo image according to claim 7.
JP2003097358A 2003-03-31 2003-03-31 Surveillance device using stereo images Expired - Fee Related JP3996864B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003097358A JP3996864B2 (en) 2003-03-31 2003-03-31 Surveillance device using stereo images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003097358A JP3996864B2 (en) 2003-03-31 2003-03-31 Surveillance device using stereo images

Publications (2)

Publication Number Publication Date
JP2004304662A JP2004304662A (en) 2004-10-28
JP3996864B2 true JP3996864B2 (en) 2007-10-24

Family

ID=33409166

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003097358A Expired - Fee Related JP3996864B2 (en) 2003-03-31 2003-03-31 Surveillance device using stereo images

Country Status (1)

Country Link
JP (1) JP3996864B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4962415B2 (en) * 2008-05-30 2012-06-27 株式会社明電舎 Cutting edge position measuring device for construction machinery
DE112010002857T8 (en) 2009-07-08 2013-02-07 Honda Motor Co., Ltd. Particle image velocity measuring method, three-dimensional space particle image velocity measuring method, particle image velocity measuring system and tracer particle generating device in a particle image velocity measuring system
JP2011017603A (en) * 2009-07-08 2011-01-27 Honda Motor Co Ltd Method for measuring particle image flow velocity

Also Published As

Publication number Publication date
JP2004304662A (en) 2004-10-28

Similar Documents

Publication Publication Date Title
JP4488804B2 (en) Stereo image association method and three-dimensional data creation apparatus
US10705218B2 (en) Object position detection apparatus
GB2557465A (en) Method for calibrating a camera and calibration system
JP2003219225A (en) Device for monitoring moving object image
EP1395059B1 (en) Intruding-object detection apparatus
JP2011029737A (en) Surveillance image retrieval apparatus and surveillance system
JP6664436B2 (en) Three-dimensional image processing apparatus and method
JP5300694B2 (en) Detection device
JP3643157B2 (en) Object height measurement method using stereo images
JPH09282459A (en) Body detector
JP2012057974A (en) Photographing object size estimation device, photographic object size estimation method and program therefor
JP3988574B2 (en) Image processing device
US9215426B2 (en) Imaging apparatus and imaging method
JP2008015815A (en) Image processor and image processing program
JP3996864B2 (en) Surveillance device using stereo images
JP4238042B2 (en) Monitoring device and monitoring method
KR101919138B1 (en) Method and apparatus for remote multi biometric
JP6602286B2 (en) Image processing apparatus, image processing method, and program
JP3631541B2 (en) Object tracking method using stereo images
JP2004187125A (en) Monitoring apparatus and monitoring method
JP2006324727A (en) Imaging apparatus and image processing method thereof
JP2004172754A (en) Monitoring apparatus and monitoring method
JP2004304661A (en) Monitor apparatus using stereoscopic image
JP4449808B2 (en) Human detection device
JP3862977B2 (en) Surveillance system using stereo images

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050622

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070702

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070731

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070803

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100810

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 3996864

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100810

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100810

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110810

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110810

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120810

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130810

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140810

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees