JPH09107540A - 監視カメラ装置 - Google Patents

監視カメラ装置

Info

Publication number
JPH09107540A
JPH09107540A JP7261463A JP26146395A JPH09107540A JP H09107540 A JPH09107540 A JP H09107540A JP 7261463 A JP7261463 A JP 7261463A JP 26146395 A JP26146395 A JP 26146395A JP H09107540 A JPH09107540 A JP H09107540A
Authority
JP
Japan
Prior art keywords
image
information
moving object
cluster block
monitoring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7261463A
Other languages
English (en)
Inventor
Yoshinori Nagai
義典 長井
Harunobu Mori
晴信 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP7261463A priority Critical patent/JPH09107540A/ja
Publication of JPH09107540A publication Critical patent/JPH09107540A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Emergency Alarm Devices (AREA)
  • Image Analysis (AREA)
  • Measurement Of Optical Distance (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Burglar Alarm Systems (AREA)

Abstract

(57)【要約】 【課題】検出精度の高い監視カメラ装置を安価に提供す
る。 【解決手段】切り出し手段5で切り出した前回撮影時刻
における移動物体の位置情報と蓄積手段3が蓄積してい
る監視対象物体の固有移動情報とから、今回撮影時刻に
おける移動物体の予測位置情報を位置予測手段6で作成
する。そして、切り出した今回撮影画像情報中における
移動物体の位置情報が、位置予測手段6で予測した移動
物体の予測位置情報に対応しない場合、対応付け手段7
によってその移動物体を監視継続物体から除外する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、ビデオカメラなど
の画像入力手段によって得られる画像を処理することに
より、侵入者などを自動的に検知する監視カメラ装置に
関する。
【0002】
【従来の技術】従来から、監視カメラ装置として、画像
入力手段で得た2次元画像と、予め撮影しておいた侵入
者のない状況での2次元画像とを比較し、その画像の相
違点を見いだすことで侵入者を検出するものがある。し
かしながら、この監視カメラ装置には、・2次元情報を
基にして侵入者を検出するために検出物体の2次元画像
内での位置と実空間内での位置との対応付けが不可能で
ある、・2次元画像内での検出物体の大きさと実物の大
きさとが一致しないために、ネズミ等の小動物を人間と
誤認識しかねない、といった不都合があった。
【0003】このような不都合を解消したものとして、
従来から、特開昭62−249298号公報に示された
監視システムが考えられた。このシステムは、2つの画
像入力手段が撮影した2次元情報を画像処理することで
距離画像を形成し、この距離画像によって侵入者の有無
を判断している。
【0004】この監視システムについて、詳細に説明す
る。すなわち、2つの画像入力手段が撮影した映像間の
対応点を三角測量の原理により決定することで映像内の
物体の3次元位置、すなわち距離画像を求める。そし
て、予め蓄えておいた侵入物体のない状態の距離画像と
現在の距離画像とを比較し、その差分から侵入物体を抽
出するとともに、距離画像内で切り出された画像構成部
分の個数から侵入物体の概略の大きさを推定する。そし
て、これらの侵入物体の情報と、予め記憶しておいた侵
入物体の属性情報とを比較することにより、侵入物体の
特定(例えば、人間であるか否か)を行う。
【0005】この方法は監視領域内では光の状況に依存
することなく、物体の大きさを直接推定することができ
るという特徴がある。
【0006】なお、画像上の各部分3次元位置の算出
は、例えば、谷内田正彦著 『ロボットビジョン』平成
2年 昭晃堂 平成2年 出版 7.4.1節(181頁〜18
8頁)に示されたものが一般に知られている。この算出
方法は、右画像用入力手段で捕えた右画像内の各部分に
ついて、左画像用入力手段で捕らえた左画像内で最も類
似した部分を探索することにより左右の視差を求め、こ
の視差から3角側量の原理により、各部分の3次元位置
を算出している。
【0007】
【発明が解決しようとする課題】しかしながら、このよ
うに改良された監視システムにおいては、監視すべき領
域外の物体の影が監視領域内を移動する物体として検出
されたり、カーテンの風によるゆらぎが移動物体として
誤検出されるという問題があった。
【0008】また、画像入力手段から得られる画像を経
時的に追跡する手段を備えていないので、画像の読み取
り間違いによる誤認識を防止することができないという
問題もあった。
【0009】さらには、この監視システムでは、画像上
での各部分の3次元位置の算出動作を三角測量の原理を
基にして行っており、その際、左右画像において対応す
る部分の割り出しが重要となっており、このような対応
部分の割り出しは、上述した谷内田正彦著『ロボットビ
ジョン』において例示されたように、左右一対の画像間
内において最も類似した部分を検索するといった方法で
行っていた。しかしながら、これでは対応部分の決定を
精度よく行うことができず、そのために、対応部分の誤
決定に起因する侵入者検出失敗を完全に防止することが
できないという問題があった。
【0010】このような対応部分の誤検出を防止するた
めには、画像入力手段として赤外線カメラを用いて、侵
入者を熱分布の上から画像の他の部分から切り出すこと
で、対応部分の誤検出を防止することが行われている。
しかしながら、これでは、高価な赤外線カメラが必要と
なって、簡便・廉価なセキュリティシステムの実現が困
難になるという問題があった。
【0011】本発明は、このような問題を解決するもの
であり、検出精度の高い監視カメラ装置を安価に提供す
ることを課題としている。
【0012】
【課題を解決するための手段】上記目的を達成するた
め、本発明は次のように構成している。
【0013】請求項1の構成 この監視カメラ装置は、監視領域を所定時刻毎に撮影す
る画像入力手段と、前記画像入力手段が撮影した画像情
報中の各画像構成部分の位置を算出する位置算出手段
と、前記位置算出手段が算出した各画像構成部分の位置
情報から、監視領域内で移動する移動物体を切り出す切
り出し手段と、前記切り出し手段によって切り出された
前回撮影時刻における移動物体の位置情報と監視対象物
体の固有移動情報とから、今回撮影時刻における移動物
体の予測位置情報を作成する位置予測手段と、前記切り
出し手段によって切り出された今回撮影画像情報中にお
ける移動物体の位置情報が、前記位置予測手段で予測し
た移動物体の予測位置情報に対応しない場合、該移動物
体を監視継続物体から除外する対応付け手段とを有して
いる。
【0014】請求項4の構成 この監視カメラ装置は、監視領域を所定時刻毎に撮影す
る画像入力手段と、前記画像入力手段が撮影した画像情
報中の各画像構成部分の位置を算出する位置算出手段
と、前記位置算出手段が算出した各画像構成部分の位置
情報から、監視領域内で移動する移動物体を切り出す切
り出し手段と、前記切り出し手段によって切り出された
複数時刻における移動物体の位置情報から該移動物体の
運動特性を算定し、該運動特性が監視対象物体の固有運
動特性に対応しない場合、該移動物体を監視継続物体か
ら除外する運動状況判定手段とを有している。
【0015】
【発明の実施の形態】第1の実施の形態 図1は、本発明の請求項1の発明を実施した形態の一つ
である監視カメラ装置の構成を示すブロック図である。
この監視カメラ装置1は、CCDカメラ等からなり、監
視領域を互いに別角度から所定時刻毎に撮影する複数
(この例では左右一対)の画像入力手段2と、メモリか
らなり画像入力手段2で入力した画像データ、監視対象
物体の移動特性情報、および画像データの演算処理等の
各種演算情報を蓄積する蓄積手段3と、画像入力手段2
により得られた画像中に存在する各部分の3次元位置を
算出する3次元位置算出手段4と、撮影時刻毎の画像か
ら個々の物体を切り出す切り出し手段5と、切り出した
物体が次の撮影時刻において位置しているであろう位置
を予測する位置予測手段6と、撮影時刻毎の切り出し物
体の間で対応付けを行う対応付け手段7と、ブラウン管
等からなり画像入力手段2で撮影した画像を表示する画
像表示手段8と、各手段2〜8の動作制御を行う中央演
算処理手段9とを備えている。
【0016】次に、この監視カメラ装置1の動作の概略
を図2のフローチャートを基にして説明する。なお、こ
の例では、左右一対の画像入力手段2,2を用いて画像
を入力する場合を説明するが、画像入力手段2の数は一
対に限定されることはなく、3個以上であってもよいの
はいうまでもない。
【0017】まず、右左の画像入力手段2,2で所定時
刻毎に監視領域を互いに別角度から撮影し、その画像デ
ータを蓄積手段3に蓄積する(S1,S2)。そして、
蓄積した左右の画像データを3次元位置算出手段4に入
力する。3次元位置算出手段4では、左右画像中の各画
像構成部分を互いに対応させたうえで、各対応点の間の
視差および三角測量の原理等から各部分の3次元位置を
算出する(S3)。
【0018】3次元位置の算出を詳細に説明すると次の
ようになる。すなわち、入力された左右の画像中の各画
像構成部分を、従来例で説明した谷内田らの方法に従っ
て、例えば8×8画素のブロック状の画像構成部品に分
割したうえで左右画像間で最も類似した部分を見いだし
て対応付ける。そして、対応付けされた画像構成部分ど
うしの左右の視差を求め、3角側量の原理を適用するこ
とにより、その3次元位置情報を算出する。
【0019】このようにして算出された各画像構成部分
の3次元位置データは切り出し手段5に入力され、ここ
で、左右上下にクラスタリングされて、画像中に存在す
る物体がクラスタブロックとして切り出される(S
4)。
【0020】クラスタブロックの切り出し(S4)操作
は次のようになっている。すなわち、まず、予め侵入物
体のない状態における各画像構成部分の初期3次元位置
情報をS3の手法により求めておく。次に、監視撮影に
より求めた各画像構成部分の3次元位置情報と、予め記
憶していた初期3次元位置情報とを比較し、変化のあっ
た画像構成部分は物体の侵入があったと見なして抽出す
る。このような変化があるか否かの判定は、3次元位置
情報を比較した結果、奥行き座標の差が所定の閾値を越
えたか否かで行う。この判定は人間等の監視対象物体が
監視領域内に侵入すれば、物体が位置する画像構成部分
の奥行き座標は物体が存在する分、ある程度変動するこ
とを判定基準にしている。例えば、監視対象物体が人間
であれば、奥行き座標の変化は最低でも約50cmと見
なすことができる。したがって、閾値(例えば50c
m)以上奥行き座標が変化したことを確認できれば、そ
の画像構成部分に物体(人間)が侵入したと見なしてそ
の画像構成部分を抽出する。
【0021】次に、抽出された画像構成部分に対して左
右方向及び奥行き方向の座標に関するクラスタリングを
行う。クラスタリングとは、互いに近接した同一ないし
同等の性質を有する画像構成部分どうしを一つのクラス
タブロックCBと見なして、画像内の他の画像構成部分
から切り離す操作をいう。そして、クラスタリングによ
って得られたクラスタブロックCBに属する画像構成部
分の数を検出してその数の多少を検討して、部品切り出
し操作の正誤を判定する。すなわち、切り出したクラス
タブロックCBに属する部分数が少ない場合では、画像
入力あるいは3次元位置算出での操作に誤りが発生した
可能性が高いと判断してそのクラスタブロックCBの情
報を削除する。
【0022】このような判定は次のような理由に依って
いる。すなわち、例えば、画像内から分割する画像構成
部分の大きさを3Ocm四方としかつ監視対象物体を人
間とした場合、人間の身長は通常120cm以上あるの
で、120/30=4、つまりクラスタブロックCBを
構成する画像構成部分の数が4個以上なければ、そのク
ラスタブロックCBを人間と見なすことはできない。そ
こで、クラスタブロックCBに属する画像構成部分の数
を調べ、その数が3個以下の場合では、画像入力ないし
部品の切り出し操作に誤りがあったとして、そのクラス
タブロックCBの情報を削除する。
【0023】なお、このとき、画像構成部分の画像上の
長さと実際の長さとは、画像構成部分と画像入力手段2
との間の距離に応じて変動する。そのため、画像入力手
段2に近い位置にある画像構成部分ほど、上述したクラ
スタブロックCBの大きさ判定における部品個数の閾値
を小さくしている。
【0024】また、接することなく位置する同一ないし
同等の性質を有する画像構成部分のうち、互いの間の隙
間が小さい画像構成部分は統合を行って一つのクラスタ
ブロックCBと見なしている。これは、検出したクラス
タブロックCBが画像入力手段2に近い位置に存在し
て、クラスタブロックCBの大きさ判定における部品個
数の閾値が少ない場合では、画像入力あるいは3次元位
置算出操作での誤りにより、本来一つのクラスタブロッ
クCBを構成する画像構成部分が画像情報上では隙間を
空けて配置しているかのごとく記憶される可能性が比較
的高いことを救済するために行われる操作である。具体
的には、画像構成部分の間に画像構成部分1つ分の隙間
がある場合は、これは一つのクラスタブロックCBを構
成する画像構成部分であると見なして統合する。
【0025】このようにして得られたクラスタブロック
CBの位置は物体の位置に対応する一方、その広がりは
物体の広がりに対応している。
【0026】切り出された各クラスタブロックCBのデ
ータは切り出し手段5と位置予測手段6とにそれぞれ入
力され、ここで今度は、前回撮影時刻と、今回撮影時刻
とにおける各クラスタブロックCBの対応付けが行われ
る(S5,S6)。ここでは、前回撮影時刻において切
り出されたクラスタブロックCBbが、監視対象物体で
あれば、今回撮影時刻においてどこまで移動するかを予
測したうえで、今回撮影時刻において切り出されたクラ
スタブロックCBnが予測していた位置に存在するか否
かを判定している。
【0027】そして、クラスタブロックCBnが予測し
ておいた位置に存在している場合は、そのクラスタブロ
ックCBnを監視対象物体と見なしてその監視を継続す
る一方、クラスタブロックCBnが予測しておいた位置
に存在していない場合は、そのクラスタブロックCBn
が監視対象物体でない、もしくは誤検出されたクラスタ
ブロックCBnと見なして、監視対象物体から除外す
る。
【0028】次に、S5の対応付け操作とS6の位置予
測操作を図3のフローチャートを基にして詳細に説明す
る。
【0029】まず、撮影画像が1番最初の画像(以下第
1フレーム画像)であるか否かを判断する(S7)。画
像フレームは画像のフレームカウンタで調べることがで
きる。
【0030】第1フレームでクラスタブロックCBの切
り出しを行った場合、次の撮影時刻、すなわち第2フレ
ームの撮影時刻においてこのクラスタブロックCBがど
の位置まで移動するかを予測する予測位置リストを作成
する(S9)。予測位置リストの作成は位置予測手段6
が行う。
【0031】予測位置リストは以下の手順で作成され
る。すなわち、蓄積手段3には、図4に示すように、監
視対象物体の移動特性情報20が記憶されている。この
移動特性情報20は、監視対象物体21と、この物体2
1の移動特性22とが対応付けられて記憶されている。
例えば、監視対象物体20には、「人間」という値が格
納されており、物体の移動特性22には、たとえば「人
間」の最大歩行速度値VWmaxが格納されている。これ
らの値は、監視対象物体21の種類に応じて複数個設定
することができるが、ここでは、簡単にするため、監視
対象物体21を「人間」1種として記載している。
【0032】まず、今回撮影時刻(この場合は第1フレ
ームの撮影時刻)で切り出されたクラスタブロックCB
bを監視対象物体と見なしたうえで、次回撮影時刻にお
いて最も遠くまで移動したときの移動距離(最大移動距
離)Lmaxを算出する。この移動距離Lmax算出は、Lma
x=(今回撮影時刻−前回撮影時刻)×VWmax(最大歩
行速度)の計算式で求められる。
【0033】次に、今回撮影時刻において切り出したク
ラスタブロックCBbの平面上の中心位置を中心とし、
求めた最大移動距離Lmaxを半径とし、かつ軸方向を垂
直にした円筒形を想定し、この円筒形内に位置するいく
つかの点の位置データを作成する。この円筒形内の点は
すべて原理的には第2フレームで物体が移動可能な点と
考えられる。実際には、このようにいくつかの点で代表
される近似を行う。これらの点の円筒形内での位置の例
を、その水平断面内において、図5に示す。第1フレー
ムでの予測では、監視対象物体の移動速度・移動方向に
関する情報が得られないため、このように一つのクラス
タブロックCBに対して複数(図5の例では4個)の予
測位置データを作成する。このような予測位置データ
を、切り出したクラスタブロックCBb毎に作成して予
測位置リスト25に収納する。予測位置データ25は蓄
積手段3内に格納される。
【0034】図6に予測位置リスト25の構造例を示
す。この図で、26はクラスタブロックコードを収納す
るレコードであり、27はクラスタブロック予測位置の
左右座標を入れるレコードであり、28はクラスタブロ
ック予測位置の奥行き座標を入れるレコードである。図
5では、1からnまでのn個の監視中クラスタブロック
CBが存在している例を示しており、クラスタブロック
コードは1から順に増加している。なお、監視中のクラ
スタブロックCBが監視領域外に出た場合や、クラスタ
ブロックCBの検出が誤検出であると判明した場合は、
そのクラスタブロックコードは空番号となる。
【0035】また、座標は符号付き整数で表しており、
例えば、mmを単位とした4バイトの座標レコードとす
ると、−32768mm〜32768mmの間のデータ
を座標データとして記入することができる。なお、図5
中、29は終了コードを入れるレコードである。また、
図7は図6の予測位置リスト25に具体的な数値を入れ
た例である。
【0036】一方、S7で、撮影画像が2番目の画像
(第2フレーム画像)以降の画像であると判断すると、
この画像中のクラスタブロックCBの位置が、予測位置
リスト25で記憶している各クラスタブロックCBの予
測位置とマッチングするか否かが判定される(S8)。
【0037】S8のマッチング操作を図8のフローチャ
ートを基にして詳細に説明する。まず、予測位置リスト
25を蓄積手段3から呼び出して、前回の撮影時刻の画
像フレームで切り出したクラスタブロックCBbと、今
回撮影時刻で切り出したクラスタブロックCBnとを照
合して(S11)、前回撮影時刻で切り出したクラスタ
ブロックCBbと今回撮影時刻で切り出したクラスタブ
ロックCBnとの間で対応するものが存在するか否かを
判断する(S12)。この判断は、実際に、前回撮影時
刻の画像フレームで切り出したクラスタブロックCBb
それぞれと、今回撮影時刻で切り出したクラスタブロッ
クCBnそれぞれとの間での、対応が可能な組み合わせ
を全て調べ、各組み合わせについて、その中の全対応の
予測位置(CBb)と位置(CBn)との間の距離の総
和を計算し、この総和が最小となる組み合わせを選ぶこ
とによって行う。この際、前回撮影時刻の画像フレーム
で切り出したクラスタブロックCBbそれぞれと、今回
撮影時刻で切り出したクラスタブロックCBnとの間に
対応する相手がないものであっても構わない。そのよう
な場合には、距離は、図9に示すように、監視・非監視
領域間の境界Kと、対応するものが存在しないクラスタ
ブロックCBb’(またはCBn’)との間の最小離間
距離Eで代用する。なお、図9では、説明の都合上、監
視領域を平面図で表示するとともに、クラスタブロック
CBb(CBn)を点で表示している。
【0038】S12で対応するクラスタブロックCBn
があると判断すると、前回の撮影時刻の画像フレームで
切り出したクラスタブロックCBbの位置と、今回撮影
時刻で切り出したクラスタブロックCBnの位置からこ
れらに対応する移動物体の移動速度(ベクトル)を計算
する。
【0039】このようにして、算出したクラスタブロッ
クCBの移動速度と、今回撮影時刻のクラスタブロック
CBnの位置から、次回撮影時刻におけるクラスタブロ
ックCBの移動予測位置を計算し、その計算値を予測位
置リスト25に記入して、次回撮影時刻(例えば、第3
フレームの撮影時刻)における移動予測リスト25を作
成する(S14)。
【0040】一方、S12において、対応するクラスタ
ブロックCBがないと判断した場合には、 ・前回撮影時刻で切り出したクラスタブロックCBbに
対応するものが今回撮影時刻で切り出したクラスタブロ
ックCBnの中に存在しない、 ・今回撮影時刻で切り出したクラスタブロックCBnに
対応するものが前回撮影時刻で切り出したクラスタブロ
ックCBbの中に存在しない、という二つの場合が考え
られ、これらの場合には、画像処理において何らかの問
題が発生していることが想定できる。
【0041】このような場合には、図9に示すように、
監視・非監視領域間の境界Kと、前回もしくは今回の撮
影時刻で切り出されたものの対応するものが存在しない
クラスタブロックCBb’(CBn’)との間の最小離
間距離Eを調べ、この最小離間距離Eが所定の閾値Lよ
り大きいか否かを調べる(S15)。なお、閾値Lは監
視対象物体の移動速度や監視領域の大きさによって任意
に設定される。
【0042】S15で最小離間距離Eが閾値Lより大き
いとわかると、前回もしくは今回の撮影時刻においてク
ラスタブロックCBの検出に失敗したと判断して、その
クラスタブロックCBのデータを蓄積手段3から削除す
る(S16,S17)。
【0043】一方、S15で最小離間距離Eが閾値Lよ
り小さいとわかった場合には、 前回撮影時刻において切り出したクラスタブロックC
Bbが監視領域の端部に位置しており、今回の撮影時刻
においてこのクラスタブロックCBbは監視領域外に外
れた、 今回撮影時刻において切り出したクラスタブロックC
Bnが監視領域の端部に位置しており、このクラスタブ
ロックCBnは今回撮影時刻において新たに監視領域内
に入ってきた、 という二つの場合が想定される。
【0044】これらの場合には、S18に移行する。S
18では対応操作を行っているクラスタブロックCBが
今回撮影時刻で切り出されたものであるか否かを判断す
る。
【0045】S18で、対応操作を行っているクラスタ
ブロックCBが今回撮影時刻で切り出されたものでない
と分かった場合、すなわち、対応操作を行っているクラ
スタブロックCBが前回撮影時刻において切り出された
ものである場合は、上記の場合と判断して(S1
9)、そのクラスタブロックCBbのデータを蓄積手段
3から削除する(S20)。
【0046】一方、S18で、対応操作しているクラス
タブロックCBが今回撮影時刻で切り出されたものであ
ると分かった場合は、上記の場合と判断する(S2
1)。そして、このような場合には、そのクラスタブロ
ックCBnと前回の撮影時刻の画像フレームで切り出し
たクラスタブロックCBbとのとの間で離間距離の計算
を中止して、次回撮影時刻におけるそのクラスタブロッ
クCBnの予測位置リスト25をS9の手法により作成
する(S22)。
【0047】このようにして、S9で予測位置リスト2
5を作成したのち、最終撮影時刻になったか、すなわ
ち、最終フレームになったか否かを判断する(S1
0)。S10で最終フレームになったと判断した場合に
は上述した一連の処理を終了する。一方、S10で最終
フレームでないと判断した判断には、S1,S2に戻っ
て、上述した一連の処理を継続する。
【0048】以上の実施の形態によれば、前回撮影時刻
における監視物体(クラスタブロック)の位置に基づい
て今回撮影時刻における監視物体の位量を予測すること
により、監視物体の時間的変化を予測して侵入物体の検
出及び監視を行うので、侵入者などの画像を精度よく監
視することができる。
【0049】第2実施例 図10は、本発明の請求項2の発明を実施した形態の一
つである監視カメラ装置の構成を示すブロック図であ
る。この監視カメラ装置50は、CCDカメラ等からな
り、監視領域を互いに別角度から所定時刻毎に撮影する
複数(この例では左右一対)の画像入力手段51と、メ
モリからなり画像入力手段51で入力した画像データ、
移動物体の運動特性データ、および画像データの演算処
理等の各種演算情報を蓄積する蓄積手段52と、画像入
力手段51により得られた画像中に存在する各部分の3
次元位置を算出する3次元位置算出手段53と、撮影時
刻毎の画像から個々の物体を切り出す切り出し手段54
と、切り出した物体が次の撮影時刻において位置してい
るであろう位置を予測する位置予測手段55と、撮影時
刻毎の切り出し物体の間で対応付けを行う対応付け手段
56と、切り出した物体の位置情報を記憶する位置情報
記憶手段57と、位置情報記憶手段57で記憶した切り
出し物体の位置情報を基にして切り出し物体が監視対象
物体であるか否かを判定する運動状況判定手段58と、
ブラウン管等からなり画像入力手段51で撮影した画像
を表示する画像表示手段59と、各手段51〜59の動
作制御を行う中央演算処理手段60とを備えている。
【0050】次に、この監視カメラ装置50による監視
操作を図11のフローチャートを基にして説明する。ま
ず、S30,S31で画像データを蓄積し、S32で蓄
積した画像データの3次元位置算出操作を行い、S33
で、3次元位置の算出を行った画像データからクラスタ
ブロックCBを切り出す操作を行う。これらS30〜S
33の操作は、S1〜S4の操作と同様であるので、操
作の詳細の説明を省略する。
【0051】切り出された各クラスタブロックCBのデ
ータはその運動状況の判断(S34)と、位置予測操作
(S35)とが行われる。
【0052】以下、S34,S35の操作を図12のフ
ローチャートを基にして詳細に説明する。まず、S33
で切り出したクラスタブロックCBの位置情報を位置情
報記憶手段57に記憶する(S40)。なお、位置情報
記憶手段57は、切り出したクラスタブロックCBの位
置情報をすべての撮影時刻にわたって記憶する必要はな
く、例えば過去5フレーム分の位置情報を記憶しておけ
ばよい。また、クラスタブロックCBの位置情報を記憶
することに限定されるものではなく、切り出したクラス
タブロックCBの平均速度やベクトル情報等、クラスタ
ブロックCBの運動状況を判定できるものであれば、他
の情報であってもかまわない。
【0053】位置情報を蓄積したのち、蓄積した画像デ
ータが第1フレームのデータであるか否かを、S7と同
様の操作で判定する(S41)。S41で第1フレーム
であると判断すると、各クラスタブロックCBの予測位
置リスト25をS9の操作と同様の操作で作成する(S
44)。一方、S41で第1フレームでないと判断する
と、S8と同様の操作で予測位置リスト25とのマッチ
ングを取る(S42)。
【0054】S42で予測位置リスト25とのマッチン
グを取った後、位置情報記憶手段57に記憶されたその
時点までの各クラスタブロックCBの位置情報に基づい
て、運動状況判定手段58が、そのクラスタブロックC
Bの運動特性を調べる(S43)。運動特性は例えば次
のように調べる。
【0055】まず、予測位置リスト25とのマッチング
によって得られたクラスタブロックCBの移動距離と移
動に要した時間(撮影時刻の間隔)とからクラスタブロ
ックCBの平均移動速度を求め、予め蓄積手段52に蓄
積しておいた物体運動情報と比較する。図13は物体運
動情報リスト65の―例であり、図中、66は移動物体
の名称、67は運動特性情報である。図13おいて、カ
ーテンの平均移動速度VavcがVcminとVcma
xとの間に存在している一方、人間の平均移動速度Va
vhがVhminとVhmaxとの間に存在しているこ
とを意味している。
【0056】ここで、切り出したクラスタブロックCB
の平均移動速度がVhminより小さい場合は、そのク
ラスタブロックCBを次のように判定する。すなわち、
このクラスタブロックCBは、監視対象物体(人間)よ
り移動速度の遅い、非監視対象物体である、もしくは内
部的には運動している部分があるものの全体としてはあ
る場所に停止しており移動している物体ではないと判定
する。このような判定を下すと、切り出したクラスタブ
ロックCBの位置情報を予測位置リスト25から除いて
それ以降の監視対象から削除する。
【0057】S43の操作により、例えば、揺れてはい
るものの移動してはいないカーテンなどを移動物体とし
て誤って検出することが防げる。また、予め、監視対象
物体の運動状況に関する情報を、物体運動情報リスト6
5に蓄えておき、切り出したクラスタブロックCBの運
動状況と比較することにより、監視対象物体であるか否
かを判断することができるので、切り出したクラスタブ
ロックCBの運動状況がこの条件に合わない場合、該ク
ラスタブロックCBを予測位置リスト25から削除して
監視対象から除外することができる。これにより、誤検
出が低減する。
【0058】S43で運動状況を判定したのち、S9と
同様の操作により、次回撮影時刻における予測位置リス
ト25を作成する(S44)。
【0059】S44で予測位置リスト25を作成したの
ち、最終撮影時刻になったか、すなわち、最終フレーム
になったか否かを判断する(S45)。S45で最終フ
レームになったと判断した場合には上述した一連の処理
を終了する。一方、S45で最終フレームでないと判断
した判断には、S30,S31に戻って、上述した一連
の処理を継続する。
【0060】この実施の形態によれば、複数の撮影時刻
におけるクラスタブロックCBの位置に基づいて他の時
刻におけるクラスタブロックCBの位置を予測すること
により、カーテンといった誤検出を起こしやすい物体の
時間的変化を予測して、監視対象物体から除外すること
が可能となり、監視対象物体(侵入者等)を精度よく監
視することができる。
【0061】
【発明の効果】
請求項1の効果 複数の撮影における物体の位置に基づいて他の撮影時刻
における物体の位置を予測することができるので、照明
の変化による陰影の影響など、3次元位置は不変である
にもかかわらず、2次元画像上において変化が起こるこ
とに起因する誤検出を防止できる。
【0062】また、位置予測手段により、個々の動体を
逐次監視できるので、元々監視領域内にあった物体で、
視野外にはずれた物体の動きの誤検出を避けることがで
きる。さらに、複数の撮影時刻における監視結果の整合
性をとることになるので、各撮影時刻での検出失敗の影
響を排除することができ、監視の精度を向上させること
ができる。
【0063】さらに、移動予測位置を算出するので、画
像間の対応間違いによる侵入者などの検出の失敗を軽減
することができる。
【0064】さらにまた、赤外線カメラなどの高価な手
段を用いることなく、画像入力手段を構成することがで
きるので、簡便・廉価なセキュリティシステムが実現で
きる。
【0065】請求項2の効果 3次元位置を検出することで位置検出精度が高まり、そ
の分、監視精度がさらに向上する。
【0066】請求項3の効果 固有移動情報や画像情報を蓄積手段で蓄積処理するの
で、その分、各種情報処理の簡略化が促進されてさらに
監視精度が向上する。
【0067】請求項4の効果 揺れるカーテン等、ある場所にとどまったまま殆ど動か
ない物体を侵入者と誤判断することを避ける効果がある
うえ、運動状況から物体を特定することが可能になり、
誤検出の可能性を低減することができる。
【0068】また、赤外線カメラなどの高価な手段を用
いることなく、画像入力手段を構成することができるの
で、簡便・廉価なセキュリティシステムが実現できる。
【0069】請求項5の効果 3次元位置を検出することで位置検出精度が高まり、そ
の分、監視精度がさらに向上する。
【0070】請求項6の効果固有移動情報や画像情報を
蓄積手段で蓄積処理するので、その分、各種情報処理の
簡略化が促進されてさらに監視精度が向上する。
【図面の簡単な説明】
【図1】本発明の第1の実施の形態の構造を示す図であ
る。
【図2】第1の実施の形態における操作の手順の全体を
示すフローチャートである。
【図3】第1の実施の形態における操作の手順の要部を
示すフローチャートである。
【図4】移動特性情報の例である。
【図5】予測位置リストの構成の説明に供するととも
に、クラスタブロックの移動予測操作の第1の手順を示
す説明図てある。
【図6】予測位置リストの例である。
【図7】予測位置リストの具体例である。
【図8】第1の実施の形態における操作の手順のさらに
要部を示すフローチャートである。
【図9】クラスタブロックの移動予測操作の第2の手順
を示す説明図てある。
【図10】本発明の第2の実施の形態の構造を示す図で
ある。
【図11】第2の実施の形態における操作の手順の全体
を示すフローチャートである。
【図12】第2の実施の形態における操作の手順の要部
を示すフローチャートである。
【図13】物体運動情報リストの例である。
【符号の説明】
3 蓄積手段 5 切り出し手段 6 位置予測手段 7 対応付け手段 52 蓄積手段 54 切り出し手段 55 位置予測手段 56 対応付け手段 58 運動状況判定手段 CB クラスタブロック

Claims (7)

    【特許請求の範囲】
  1. 【請求項1】 監視領域を所定時刻毎に撮影する画像入
    力手段と、 前記画像入力手段が撮影した画像情報中の各画像構成部
    分の位置を算出する位置算出手段と、 前記位置算出手段が算出した各画像構成部分の位置情報
    から、監視領域内で移動する移動物体を切り出す切り出
    し手段と、 前記切り出し手段によって切り出された前回撮影時刻に
    おける移動物体の位置情報と監視対象物体の固有移動情
    報とから、今回撮影時刻における移動物体の予測位置情
    報を作成する位置予測手段と、 前記切り出し手段によって切り出された今回撮影画像情
    報中における移動物体の位置情報が、前記位置予測手段
    で予測した移動物体の予測位置情報に対応しない場合、
    該移動物体を監視継続物体から除外する対応付け手段と
    を有することを特徴とする監視カメラ装置。
  2. 【請求項2】 前記画像入力手段は複数設けられて、前
    記監視領域を互いに別角度から撮影しており、 前記位置算出手段は、画像情報中の各画像構成部分の3
    次元位置を算出するものであることを特徴とする請求項
    1記載の監視カメラ装置。
  3. 【請求項3】 前記固有移動情報を記憶するとともに前
    記画像入力手段が撮影した画像情報を蓄積する蓄積手段
    をさらに有することを特徴とする請求項1または請求項
    2記載の監視カメラ装置。
  4. 【請求項4】 監視領域を所定時刻毎に撮影する画像入
    力手段と、 前記画像入力手段が撮影した画像情報中の各画像構成部
    分の位置を算出する位置算出手段と、 前記位置算出手段が算出した各画像構成部分の位置情報
    から、監視領域内で移動する移動物体を切り出す切り出
    し手段と、 前記切り出し手段によって切り出された複数時刻におけ
    る移動物体の位置情報から該移動物体の運動特性を算定
    し、該運動特性が監視対象物体の固有運動特性に対応し
    ない場合、該移動物体を監視継続物体から除外する運動
    状況判定手段とを有することを特徴とする監視カメラ装
    置。
  5. 【請求項5】 前記画像入力手段は複数設けられて、前
    記監視領域を互いに別角度から撮影しており、 前記位置算出手段は、画像情報中の各画像構成部分の3
    次元位置を算出するものであることを特徴とする請求項
    4記載の監視カメラ装置。
  6. 【請求項6】 前記固有運動特性を記憶するとともに前
    記画像入力手段が撮影した画像情報を蓄積する蓄積手段
    をさらに有することを特徴とする請求項4または請求項
    5記載の監視カメラ装置。
  7. 【請求項7】 前記運動状況判定手段が算定する移動物
    体の運動特性は、移動物体の平均移動速度であることを
    特徴とする請求項4ないし請求項6のいずれかに記載の
    監視カメラ装置。
JP7261463A 1995-10-09 1995-10-09 監視カメラ装置 Pending JPH09107540A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7261463A JPH09107540A (ja) 1995-10-09 1995-10-09 監視カメラ装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7261463A JPH09107540A (ja) 1995-10-09 1995-10-09 監視カメラ装置

Publications (1)

Publication Number Publication Date
JPH09107540A true JPH09107540A (ja) 1997-04-22

Family

ID=17362253

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7261463A Pending JPH09107540A (ja) 1995-10-09 1995-10-09 監視カメラ装置

Country Status (1)

Country Link
JP (1) JPH09107540A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003057007A (ja) * 2001-08-10 2003-02-26 Matsushita Electric Works Ltd 距離画像を用いた人体検知方法
JP2009268005A (ja) * 2008-04-30 2009-11-12 Meidensha Corp 侵入物検知追跡装置
JP2012160011A (ja) * 2011-01-31 2012-08-23 Fujitsu Ltd サムネイル抽出プログラム及びサムネイル抽出方法
JP2013217936A (ja) * 2006-06-01 2013-10-24 Ana Tec As 物体を解析するための方法及び装置
JP2014025711A (ja) * 2012-07-24 2014-02-06 Fujitsu Ltd 決定装置、決定方法、および決定プログラム

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003057007A (ja) * 2001-08-10 2003-02-26 Matsushita Electric Works Ltd 距離画像を用いた人体検知方法
JP4644992B2 (ja) * 2001-08-10 2011-03-09 パナソニック電工株式会社 距離画像を用いた人体検知方法
JP2013217936A (ja) * 2006-06-01 2013-10-24 Ana Tec As 物体を解析するための方法及び装置
JP2009268005A (ja) * 2008-04-30 2009-11-12 Meidensha Corp 侵入物検知追跡装置
JP2012160011A (ja) * 2011-01-31 2012-08-23 Fujitsu Ltd サムネイル抽出プログラム及びサムネイル抽出方法
JP2014025711A (ja) * 2012-07-24 2014-02-06 Fujitsu Ltd 決定装置、決定方法、および決定プログラム

Similar Documents

Publication Publication Date Title
CN109446942B (zh) 目标跟踪方法、装置和系统
US10990830B2 (en) Auto-calibration of tracking systems
US7307652B2 (en) Method and apparatus for object tracking and detection
US5554983A (en) Object recognition system and abnormality detection system using image processing
US7982774B2 (en) Image processing apparatus and image processing method
JP4700477B2 (ja) 移動体監視システムおよび移動体特徴量算出装置
KR101735365B1 (ko) 학습 기반의 영상 내 관심 물체 검지 및 환경 변화에 강인한 물체 추적 방법
JP6385419B2 (ja) 物体検出装置
US10970823B2 (en) System and method for detecting motion anomalies in video
KR102263717B1 (ko) 객체 검출 및 추적을 통한 이상행동 분석 장치 및 방법
KR20190046351A (ko) 침입 탐지방법 및 그 장치
KR101840042B1 (ko) 복합 가상 팬스 라인 설정 방법 및 이를 이용한 침입 감지 시스템
JP4821355B2 (ja) 人物追跡装置、人物追跡方法および人物追跡プログラム
JP7125843B2 (ja) 障害検知システム
CN108985131B (zh) 一种目标识别方法及图像处理设备
KR101990823B1 (ko) 얼굴정보를 이용한 위치 추정 및 신원 관리 방법, 프로그램 및 장치
US20200394802A1 (en) Real-time object detection method for multiple camera images using frame segmentation and intelligent detection pool
JPH09107540A (ja) 監視カメラ装置
US7738009B2 (en) Method for following at least one object in a scene
US20220004770A1 (en) Object detection using a combination of deep learning and non-deep learning techniques
JPH0514891A (ja) 画像監視装置
JP2001012946A (ja) 動画像処理装置及び方法
JPH08167022A (ja) 画像監視装置
JPH0721475A (ja) 侵入物体監視装置
CN112507902A (zh) 交通标志异常检测方法、计算机设备及存储介质