JP3659609B2 - 物体検出方法及び物体検出装置 - Google Patents
物体検出方法及び物体検出装置 Download PDFInfo
- Publication number
- JP3659609B2 JP3659609B2 JP29191097A JP29191097A JP3659609B2 JP 3659609 B2 JP3659609 B2 JP 3659609B2 JP 29191097 A JP29191097 A JP 29191097A JP 29191097 A JP29191097 A JP 29191097A JP 3659609 B2 JP3659609 B2 JP 3659609B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- background image
- input
- imaging device
- object detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
Description
【発明の属する技術分野】
本発明は、侵入者あるいは物体を監視する監視用CCTV装置において、監視領域内の侵入者あるいは物体を認識するための物体認識画像処理方法における侵入者あるいは物体の存在しない画像すなわち背景画像の作成処理、更新処理の改良に関するものである。
【0002】
【従来の技術】
テレビジョンカメラ(以下TVカメラと呼ぶ)を用いた映像監視装置は、従来より広く用いられている。しかし、近年このようなシステムにおいて、その監視視野内に侵入する人・物等の検出を、画像モニタ面での監視員の常時監視によるのではなく、画像信号から自動的に検出し、所定の報知や警報処置が得られるようにしたシステムが要求されるようになってきている。
【0003】
このようなシステムを実現するためには、まず、TVカメラより得られた入力画像を、背景画像すなわち、検出すべき侵入者あるいは物体(以後、物体と称する)が写っていない画像と比較し、画素毎に輝度値の差分を求め、その差分値の大きい領域を物体として検出する。この方法は差分法と呼ばれ、従来から広く用いられている。
【0004】
この方法の一例として、画像処理産業応用総覧に記載されている方法を図8と図5を用いて説明する。図8は物体検知の原理を説明するフローチャートで、このステップに対応した説明を図5によって行う。図5は入力画像から物体を抽出するまでの段階を説明する図で、50は背景画像Rn、55は減算器、61は入力画像Ln、70は差分処理部、30は差分画像、31は2値化画像、32はノイズ領域、33はノイズ除去画像、34はラベリング画像、35は特徴量抽出画像である。
まず、TVカメラから、物体が存在しないときの監視範囲の画像が取込まれ、該取込まれた画像は背景画像Rn50として格納される(初期背景画像作成ステップ122)。以後、前記TVカメラはその監視範囲の撮影を続けている。
次に、前記TVカメラから新規の入力画像Ln61が一定時間間隔で取込まれ、背景画像更新ステップ222と差分ステップ150に送られる(画像入力ステップ141)。前記背景画像Rn50は該入力画像Ln61によって更新され、差分ステップ150に送られる(背景画像更新ステップ222)。次に、該背景画像Rn50と前記入力画像Ln61との画素毎の差分が計算され、差分画像30が得られ、ステップ160に進む(差分ステップ150)。該差分画像30は画素毎にしきい値処理を行なわれ、1画素を256階調として、差分値が所定のしきい値以下の輝度を“0”、差分値が所定のしきい値以上の輝度を“255”とした二値化画像31が得られ、ステップ170に進む(2値化ステップ160)。該二値化画像31には映像上に含まれるノイズ領域32存在するためノイズ除去処理が行なわれ、二値化画像31で存在したノイズ領域32を除去され、ノイズ除去画像33のように物体存在領域のみが抽出され、ステップ180に進む(ノイズ除去ステップ170)。ここで、物体存在領域とはノイズ除去画像33の白画素(輝度値が“255”の部分)で示された閉領域のことである。 次のステップでは、前記ノイズ除去ステップ170で得られた前記ノイズ除去画像33を用いて物体の番号付けが行なわれ、物体存在領域には、例えばラベリング画像34の“N1”のように、番号が付けられ、ステップ200に進む(ラベリングステップ180)。そして該番号付けられた物体存在領域毎に、物体の横幅X、物体の縦幅Y、物体の面積(白画像の総画素数)という特徴量が算出され、ステップ360に進む(特徴量抽出ステップ200)。この抽出された物体、即ち物体存在領域N1の特徴量の横幅X、縦幅Yを、特徴量抽出画像35に示す。
次に、算出された前記特徴量を用いて、特徴量を算出した各物体を移動物体と関連付けて、移動の追跡を行い、ステップ370に進む(移動物体対応付け・追跡ステップ360)。そしてステップ360の結果を元に、移動物体が物体か否かを判定する(物体判定ステップ370)。ステップ370で物体ありと判断した場合には、警報ステップ380に進み、物体なしの場合には画像入力ステップ141に戻る(ステップ192)。ステップ380は、物体ありの警報を鳴らす(警報ステップ380)。
【0005】
前述の方法において、物体の差分をとるための背景画像Rn50を最初に取込んだものをそのまま使用していると、朝、昼、夜の輝度値変動のために、物体以外の物も抽出してしまうため、背景画像更新処理(ステップ222)を逐次行う必要がある。
そこで上記背景画像更新ステップ222について、図9と図10を用いて更に説明する。図10は従来の背景画像更新方法の原理を説明するブロック図で、48は初期背景画像作成ステップ122または1回前に背景画像更新ステップ222を実行した際に作成された背景画像Rn-1、49は画像入力ステップ141で格納した入力画像Ln、50はこの背景画像更新ステップ222を実行したことによって作成された背景画像Rn、51は乗算器、52は加算器、53は加重係数α、54は背景画像用加重係数αrである。図9は従来の背景更新方法の原理を説明するフローチャートで、図10を用いて図9のフローチャートの動作を実行する。
図9において、
まず加重係数αを式(1)より算出する。
α=|Ln−Rn-1|-1 …式(1)
但し、Ln=Rn-1である場合には、α=0.99とする。
ここで通常αは、0<α<1を満たすように選ぶ。
式(1)の場合、入力画像の濃度変化が小さいときはαを大きく(1に近く)なって入力画像の濃度変化に対する追従性が高まり、逆に濃度変化が大きいときにはαが小さくなり変化に対しての追従性が低くなる(加重係数α算出ステップ294)。
【0006】
次に、加重係数α算出ステップ294で求めたαを加重変数として、画像メモリに格納されている背景画像Rn ― 1とLn入力画像Lnとの加重平均演算を行う。
即ち、背景画像の更新を、式(2)で示される加重係数演算と呼ばれる方法によって行う。
Rn=α×Ln+αr×Rn-1 …式(2)
但し、背景画像Rn-148は初期背景画像作成ステップ122または、1回前の処理で背景画像更新ステップ222を実行した際に作成された背景画像で、入力画像Ln49は画像入力ステップ141で格納した入力画像、背景画像Rn50は背景画像更新ステップ222を実行することにより作成された背景画像、αrは“1−加重係数(αr=1−α)”である。
【0007】
前述の初期背景画像作成方法では、物体の存在しない画像を取込まなければならないため、物体が常時通る場所では初期画像を作成できない。また、物体が存在しない場合、加重係数α算出ステップ294で算出した加重係数αを1に極めて近くし、背景画像Rnの、入力画像Lnに対する追従性を高めることが望ましい。しかし、背景画像Rn-1及び入力画像Lnにはノイズが混入しているため、物体が存在しない場合であっても背景画像Rn-1と入力画像Lnとの間には、経験上輝度値に“10”程度の差分が生じる。そのため物体が存在しない場合でも、加重係数算出ステップ294で算出した加重係数αは“0.1”と小さくなり、背景画像Rnの入力画像Lnに対する追従性が低くなるという問題がある。
【0008】
また、前述の背景画像更新方法では、背景画像Rn-1と入力画像Lnの各画素に対して、加重平均算出ステップ294と加重平均演算ステップ240を実行するため、処理速度が遅くなり、時間当りの物体検知処理回数が減少する。
【0009】
図2に物体認識画像処理装置の構成の例を示す。1はテレビジョンカメラ(TVカメラ)、2は画像入力I/F、3は画像メモリ、4はCPU、5は出力I/F、6は警告表示モニタ、7はデータバス、8はワークメモリ、9はプログラムメモリ、10は画像出力I/F、11はビデオモニタである。
【0010】
図2において、TVカメラ1は固定の監視対象領域を撮像し、その撮像した映像信号を画像入力I/F2に送る。該画像入力I/F2は前記TVカメラ1から送られてきた映像信号をA/D変換し、変換した映像信号の輝度信号を画素毎に“0”〜“255”の256階調の輝度値に変換する。画像メモリ3は前記画像入力I/F2で取得した画像の輝度信号データを格納し、かつ画像間の演算を行う。CPU4はプログラムメモリ9に格納されているプログラムに従って、前記画像メモリ3に格納された画像についてワークメモリ8内で画像解析を行う。この画像解析で物体が検出された場合には、出力I/F5に信号を送る。該出力I/F5は警告表示モニタ6を介して警告を表示する。ここでいう警告表示とは、視覚的なものの他、聴覚的なもの等、感覚的なもの及びその複合形態を総称している。画像出力I/F10は画像処理の結果得られた画像の輝度信号をD/A変換し、映像信号としてビデオモニタ11に送る。該ビデオモニタ11は送られてきた該画像を表示する。また、データバス7はデータの転送に使用するものである。
【0011】
【発明が解決しようとする課題】
前述の従来技術の背景画像更新法では、各画素毎に加重係数を計算し、画像入力のたびに背景画像を更新するために演算量が多く、処理速度が遅くなる。このため、時間当たりの侵入者検知処理回数が減少するという問題があった。また、物体が逐次存在する場所では物体が背景として取込まれ安定した背景更新が行えないという問題があった。更に、初期背景画像の作成には物体が存在しない状態が必要であった。
【0012】
本発明の目的は、物体が逐次存在する場所でも確実に安定した背景画像が作成できるような物体認識画像処理装置を提供することにある。また、背景画像更新を短時間で行い、高速の(時間当たりの物体認識処理回数が多い)物体認識画像処理装置を提供することにある。更に、物体が逐次存在する場所でも初期背景画像の作成と背景更新が可能で、確実に安定した背景画像を作成する物体認識画像処理装置を提供することにある。
【0013】
【課題を解決するための手段】
上記の目的を達成するために、本発明は、一定時間間隔で取込んだ画像を加重平均演算することにより、初期背景画像を作成し、
また、背景画像更新を短時間で行うため、加重平均演算に用いる加重係数は定数を用いた。ただし、加重係数として用いる定数は、物体が存在しない場合、物体が存在し尚かつ監視範囲が明るい場合と、物体が存在し尚かつ監視範囲が暗い場合とで変化させ、
更にまた、背景更新を一定時間間隔毎に行い、安定な背景更新を行ったものである。
【0014】
つまり、本発明は、TVカメラの撮像視野内に侵入した物体又は人物を、該TVカメラから取込んだ画像の中から自動的に認識する物体認識画像処理装置において、画像を一定周期で取込む処理と取込んだ画像を用いて加重平均演算を行う処理を設けることにより、安定に初期背景画像を作成する。
【0015】
また、本発明は、物体の有無を判断する処理、監視範囲の照度を判断する処理、判断により加重係数を決定する処理、決定した加重係数を用いて加重平均演算を行う処理を設けることにより、短時間にかつ安定に背景が更新する。
【0016】
更にまた、背景更新を行うか否かの判断をする処理、背景更新を行う処理を設けることにより、安定な背景更新を行うことができる物体認識画像処理方法を実現したものである。
【0017】
【発明の実施の形態】
本発明の一実施例を図2,図1,図5により説明する。図2は、物体認識画像処理装置の構成の一例を示すブロック図で、従来技術と共通の構成例である。図2の物体認識画像処理装置はプログラムメモリ9に格納されているプログラムに従って画像解析を行う。図1は本発明の画像処理による物体認識方法の一実施例を示すフローチャートである。図1のフローチャートを図5を用いて説明する。図5は入力画像から物体を抽出するまでの段階を説明する図で、従来技術で説明した同じものである。また、背景画像の更新は、初期背景画像の作成後随時行っている。
【0018】
まず、TVカメラ1により撮影された画像を一定時間間隔毎(例えば、0.5秒毎)に画像入力I/F2から画像メモリ3に取込み、取込んだ画像の加重平均演算を行い、物体が存在しないか無視できる安定した背景画像Rnを作成し、ステップ130に進む(初期背景画像作成ステップ121)。尚、初期背景画像作成の動作原理については後述する。 次に、背景画像更新時に使用する背景画像作成時間情報をCPU4のタイマ機能により読込み、ステップ141に進む(初期背景画像作成時間取得処理ステップ130)。そして、TVカメラ1から画素数256×256に対応する入力画像Lnを得、ステップ150に進む(画像入力処理ステップ141)。次のステップ150では、前記初期背景画像作成ステップ121または後述の背景画像更新ステップ221で作成した背景画像Rnと、前記画像入力ステップ141で得た入力画像Lnとの画素毎の差分を計算し、差分画像を得、ステップ160に進む(差分ステップ150)。ステップ160では、前記差分ステップ150で得られた差分画像30を画素毎にしきい値処理し、差分値がしきい値未満の画素を輝度値“0”、しきい値以上の画素を輝度値“255”(1画素の輝度値を256階調で表現した場合)とした二値画像31に変換し、ステップ170に進む(二値化ステップ160)。通常この二値画像31中には、映像上に含まれるノイズ領域32が存在する。そこでステップ170ではノイズ領域を除去し、物体存在領域のみを抽出しノイズ除去画像33に変換して、ステップ180に進む(ノイズ除去ステップ170)。ステップ180では、前記ノイズ除去画像33を用いて画像中の物体存在領域に番号付けを行い(例えば、図5のラベリング画像34にあるN1)、かつ番号付けを行った物体存在領域の数も算出し、ステップ191に進む(ラベリングステップ180)。ステップ191では、ステップ180で算出した物体存在領域の数によって、物体存在領域の数が“0”の場合は“物体なし”と判断してステップ210に進み、物体存在領域の数が“0”以外の場合は“物体あり”と判断してステップ200に進む(物体の有無判断ステップ191)。ステップ200では、特徴量抽出画像35に示すように、ラベリングステップ180で番号付けされた各物体(即ち、物体存在領域)毎に、従来技術で述べたように、物体の横幅X、物体の縦幅Y、物体の面積(白画像の総画素数)という特徴量を算出し、ステップ210に進む(特徴量抽出ステップ200)。ステップ210では、現在の時刻をCPU4のタイマ機能により読込み、該読込んだ現在の時刻と、前記初期背景画像作成時間取得ステップ130または後述する背景画像更新時間取得ステップ230で取得した時刻とを比較し、初期または前回の背景画像の更新から2秒経過したか否かによって、背景画像の更新の要否を判断し、更新不要(2秒経過していない)ならステップ360に進み、更新要(2秒経過している)ならステップ221に進む(背景画像の更新有無判断ステップ210)。ステップ221では、前記初期背景画像作成ステップ121または、この背景画像更新ステップ221で前回更新された背景画像Rn-1と前記画像入力ステップ141で得られた入力画像Lnの加重平均演算を行い、物体が存在しないかまたは無視できる背景画像Rnを作成(前回更新された背景画像Rn-1を更新)し、ステップ230に進む(背景画像更新ステップ221)。尚、該背景画像更新ステップ221の動作原理については後述する。
ステップ230では、該背景画像更新ステップ221前記背景画像の更新有無判断ステップ210で使用する背景画像更新時間情報を前期CPU4に内蔵するタイマ機能により読込み、ステップ360に進む(背景画像更新時間取得ステップ230)。次に、ステップ200で算出された特徴量を用いて、特徴量を算出した各物体を移動物体と関連付けて、移動の追跡を行い、ステップ370に進む(移動物体対応付け・追跡ステップ360)。そしてステップ360の結果を元に、移動物体が物体か否かを判定する(物体判定ステップ370)。ステップ370で物体ありと判断した場合には、警報ステップ380に進み、物体なしの場合には画像入力ステップ141に戻る(ステップ192)。ステップ380は、物体ありの警報を鳴らし、ステップ141に戻る(警報ステップ380)。
【0019】
次に初期背景画像作成ステップ121において、加重平均演算を用いて物体が存在しないかまたは無視できる画像、即ち背景画像Rnを作成する原理の一例を、図3、図6を用いて説明する。図3は本発明の初期背景画像作成ステップ121(図1)の原理の一例を説明するフローチャートで、図6は本発明の初期背景画像作成ステップの原理の一例を説明するブロック図である。図6の各画像は画像メモリ3に格納されている。610は初期入力画像C0、620は1回目の処理の入力画像L0、630は加重係数α、640は入力画像用加重係数αi、611は1回目の処理の処理画像C1、621は2回目の処理の入力画像L1、612は2回目の処理の処理画像C2、613は199回目の処理の処理画像C199、623は200回目の処理の入力画像L199、614は200回目の処理の処理画像C200、615は更新された初期背景画像R0、701は1回目の処理、702は2回目の処理、703は200回目の処理である。
【0020】
図3のフローチャートにおいて、1回目の処理701では、TVカメラ1から画像を取得し、該取得画像を初期入力画像C0610として格納し、ステップ141に進む(初期画像入力ステップ142)。ステップ141では、前記TVカメラ1から得た画像を入力画像L0620として格納し、ステップ240に進む(画像入力ステップ141)。ステップ240では、格納した前記初期入力画像C0610と前記入力画像L0620との加重平均を式(3)を用いて算出し、ステップ250に進む(加重平均演算ステップ240)。
Cn=Cn-1×α+Ln-1×αi …式(3)
ただし、Ln ― 1は入力画像、Cnは処理画像(ただし、C0は初期入力画像)、Cn-1は前回算出した処理画像、αは加重係数、αiは入力画像用加重係数であり、n=1,2,…,200の整数、αi=(1−α)、α=31/32とする。
ステップ250では、前記画像入力ステップ141と加重平均演算ステップ240を実行した回数が規定回数(例えば、200回)に達したか否かを判断し、規定回数に達していなければステップ260に進み、規定回数に達していればステップ270に進む(処理回数判断ステップ250)。
ステップ260では、0.5秒間のタイマーを動作させ、0.5秒間経過後ステップ141に進み、画像入力ステップを実行する(画像入力待ちステップ260)。ステップ270では、1回前の加重平均ステップ240で得られた処理画像C199613と画像入力ステップ141で得られた入力画像L199622の加重平均の算出結果を処理画像C200614として格納し、かつ処理画像C200614を初期背景画像R0615として格納し、ステップ142に戻る(背景画像登録ステップ270)。
【0021】
2回目の処理702では、前記画像入力ステップ141がTVカメラ1から画像を取得し、該取得した画像を入力画像L1621として格納する。そして、該入力画像L1621(即ち一般的には、入力画像Ln-1)と1回目の加重平均演算ステップで得られた処理画像C1611(即ち一般的には、前回の処理画像Cn-1)との加重平均を算出し、該算出した処理画像C2612(即ち一般的には、n回目の処理画像Cn)を格納する。次に処理回数判断ステップ250が前記画像入力ステップ141と前記加重平均演算ステップ240を実行した回数を判断し、規定回数(200回)に達したか否かを判断し、処理回数が2回目の場合は規定回数に達していない(n=2)のでステップ260に進み、画像入力待ちステップ260に進んだ後、3回目の処理に進む。
【0022】
以下、前述の2回目の処理と同様の処理を、処理回数が200回になるまで繰返す。
200回目の処理703(n=200)では、前回の処理(n=199)で取得した処理画像C199613と、画像入力ステップ141で取得した入力画像L199622との加重平均を加重平均演算ステップ240で取得し、処理画像C200614として格納する。また、この処理画像C200614は初期背景画像R0615として格納される。
【0023】
図1の初期背景画像作成ステップ121においては、ビットシフトを利用した演算であれば高速に実行できることから、加重係数α=A/2n(ただし、A,nは自然数)となるように決定することが効果的である。ここで、加重係数αの分母2nは、加重係数αを調整することができる数値の刻みを表している。上記の実施例では、加重係数αの調整は経験的に“約0.03”刻みで行えばよいとして、加重係数値αの分母を25=32とした。
また加重係数αは、“0<α<1”となるように決定し、通常更新される背景画像は、αを大きく選ぶと入力画像の変化に鈍感になり、αを小さく選ぶと入力画像の変化に対する追従性が高まる性質がある。
本発明では、物体の存在しないまたは無視できる画像を作成することが目的であるため、加重係数αを“1”に近くする必要があった。そこで上記の実施例において、前記初期背景画像作成ステップ121では、更新した背景画像R0の中で背景画像Rn-1の占める割合が約97%であれば、経験的に入力画像に含まれる物体やノイズの影響を取除けることから、加重係数αを“31/32”とした。
【0024】
画像入力待ちの時間は、画面上に存在する物体が一箇所に重なって映らないように設定する必要がある。上述の実施例では、TVカメラ1の視野(水平方向の視野×垂直方向の視野)を13m×9.8mから20.8m×15.6mまでとし、検出する物体が時速40Km以上の車等の移動物体で、該移動物体の最大の長さを4.5mとし、該移動物体が時速40Kmで移動した場合、該移動物体の最大の長さ分即ち4.5m移動するのに0.4秒かかることから、画像入力待ちの時間を0.5秒としている。
【0025】
また上述の実施例での処理回数の上限(n=200)は、以下のような理由で決定した。即ち、背景画像は、前記式(3)により決定される。ここで、
Ln=RZ+dn …式(4)
Cn=RZ+εn …式(5)
と表現する。但し、 Lnは入力画像、Cnは処理画像、RZは理想背景画像、εnは処理画像の理想背景画像に対する差分(物体、ノイズによる)、dnは入力画像の理想背景画像に対する差分(物体、ノイズ)を表す。
式(4)と式(5)により、式(3)は次のようになる。
RZ+εn=α×(RZ+εnー1)+(1−α)×(RZ+dnー1)
∴εn=α×εn-1+(1−α)×dn-1 …式(6)
(ただし、C0は初期入力画像、ε0は経験上輝度値として“220”程度であるので220とした。)
ここで、α>>(1−α)であるため、n回目の処理画像Cnの理想背景画像に対する差分εnに対し、nの1回前(時間にして0.5秒前)の処理画像Cn-1の理想背景画像に対する差分εn-1が支配的となる。
従って、dnが十分に小さい場合、式(6)より
ε1=α×ε0
ε2=α2×ε0
・
・
・
εn=αn×ε0 …式(7)
となる。ここで、n回目の処理画像Cnの理想背景画像に対するεnが、輝度値にして“10”以下である場合には二値化ステップにより物体とは判断しないとする。
また、加重係数α=31/32であり、εnを10(物体とは判断しない最大の輝度値)以下に押さえるために必要な処理回数は、式(7)より、
10=αn×220
∴n=logα(10/220)=97.36 …式(8)
以上のことから、上記の実施例の処理回数nを、式(8)の結果の約2倍の200回とした。
【0026】
次に加重平均法を用いて物体が存在しないかまたは無視できる画像、即ち背景画像を更新する原理について、図4と図7を用いて説明する。図7は本発明の背景画像更新方法の原理を説明するブロック図で、88は初期背景画像作成ステップ121または1回前に背景画像更新ステップ221を実行した際に作成された背景画像Rn-1、89は画像入力ステップ141で格納した入力画像Ln、90はこの背景画像更新ステップ221を実行したことによって作成された背景画像Rn、91は乗算器、92は加算器、93は加重係数α、94は入力画像用加重係数αiである。図4は本発明のの背景画像更新方法の原理を説明するフローチャートで、図7を用いて図4のフローチャートの動作を実行する。
図4において、
ラベリングステップ180(図1)で算出した番号付けされた物体の数から物体の有無を判断する。番号付けされた物体の数が”0”である場合には物体なしと判断しステップ291に進み、それ以外の場合には物体ありと判断しステップ280に進む(物体の有無判断ステップ191)。ステップ191では物体未存在時であるとして、加重係数αを加重係数“50/64”にし、ステップ240に進む(第1の加重係数決定ステップ291)。ステップ280では、CPU4のタイマ,カレンダ,予め登録された監視場所の日照時間に従って、昼と夜を判断し、昼と判断した場合にはステップ293に進み、夜と判断した場合にはステップ292に進む(昼夜判断ステップ280)。ステップ292では加重係数αを、夜であってかつ物体が存在するときの値“62/64”として、ステップ240に進む(第2の加重係数決定ステップ292)。ステップ293では加重係数αを、昼であってかつ物体が存在するときの値“61/64”として、ステップ240に進む(第3の加重係数決定ステップ293)。ステップ240では、ステップ291〜293のいずれかで決定した加重係数αと式(9)とを用いて、初期画像作成ステップ121(図1)または背景画像更新ステップ221(図1)で格納された背景画像Rn-1と画像入力ステップ141(図1)で格納された入力画像Lnとの加重平均演算を式(9)によって行う(加重平均演算ステップ240)。
Rn=α×Rn-1+αi×Ln …式(9)
ただし、処理回数nは自然数とする。
【0027】
図4で述べたような背景画像更新方法では、ビットシフトを利用した演算であれば高速に実行できることから、加重係数α=A/2n(ただし、A,nは自然数)となるように決定することが効果的である。ここで、加重係数αの分母2nは、加重係数αを調整することができる数値の刻みを表している。上記の実施例では、加重係数αの調整は経験的に“約0.01”刻みで行えばよいとして、加重係数値αの分母を26=64とした。
物体が存在しない時の加重係数α決定ステップ291で決定される加重係数αは、背景画像Rnの入力画像Lnに対する追従性をよくするために加重係数を小さく(“0”に近く)する必要がある。ここで、物体が存在しない場合、背景画像Rn-1と入力画像Lnとの差としてはノイズ成分のみであり、ノイズ成分は経験上、最大で輝度値にして“20”以下である。よって背景画像中に含まれているノイズ成分も考慮し、入力画像のノイズ成分の混入を20%程度許容することとして、加重係数をαを“50/64”と決定した。
【0028】
物体存在かつ夜の場合には加重係数α決定ステップ292で決定される加重係数αは、入力画像Lnに物体が混入しているため、加重係数αを大きく(“1”に近く)する必要がある。ここで、夜の場合には輝度の時間変化が小さく、輝度値が大きい車のライトが背景画像Rnに混入しにくくする必要があることから、加重係数αを“62/64”と決定した。
【0029】
物体存在かつ昼の場合には加重係数α決定ステップ293で決定される加重係数αは、入力画像Lnに物体が混入しているため、加重係数αを大きく(“1”に近く)する必要がある。ここで、昼の場合には輝度の時間変化が大きいため、背景画像Rnの入力画像Lnに対する追従性をよくし、かつ物体の混入を防ぐ必要があることから、加重係数αを“61/64”と決定した。
【0030】
背景画像の更新間隔は、入力画像Lnに混入した物体が一箇所に重なって映らず、かつ入力画像Lnへの追従性がよくなるように設定する必要がある。上述の実施例では、TVカメラ1の視野(水平方向の視野×垂直方向の視野)を13m×9.8mから20.8m×15.6mまでとし、検出する物体が時速40Km以上の車等の移動物体で、該移動物体の最大の長さを10mとし、該移動物体が時速40Kmで移動した場合、該移動物体の最大の長さ分即ち10m移動するのに約1秒かかることから、画像入力待ちの時間をその2倍の2秒間に1回行うこととした。
【0031】
図4及び図1のフローチャートでは、監視範囲の明るさによる判断(昼と夜の違い)を時刻によって行ったが、その他、監視範囲内の物体を検出しない(侵入物がないと予想される)範囲または、輝度の変化が代表的である範囲を指定してその部分の輝度を観測し、指定部分の輝度を目安として、処理判断を行う方法がある。
【0032】
前述の実施例では、監視する物体を車等の移動物体で説明した。また、昼と夜とに区別して照度の違いによる条件分けを行った。しかし、これらに限らず監視する対象によって、実行するための条件が変るのは自明であって、何ら本発明を適用範囲を逸脱していないことは自明である。
【0033】
【発明の効果】
以上説明したように、本発明では物体が逐次存在する場合でも安定した初期背景画像を作成することが可能となる。また、背景画像更新時の演算量を減少させたため、物体認識回数を多くすることができ、精度の高い物体認識が行える。更に、随時背景画像更新を行うため、物体が逐次存在するような場所でも安定した背景画像を作成することができる。
【0034】
従って、本発明によれば安定に物体認識を行うことができる。
【図面の簡単な説明】
【図1】 本発明の一実施例の方法を示すフローチャート。
【図2】 本発明の一実施例の構成を示すブロック図。
【図3】 本発明の初期背景画像作成の方法を示すフローチャート。
【図4】 本発明の背景画像更新の方法を示すフローチャート。
【図5】 入力画像から侵入物体を検出するまでを説明するための図。
【図6】 本発明の初期背景画像作成の一実施例の構成を示すブロック図。
【図7】 本発明の背景画像更新の一実施例の構成を示すブロック図。
【図8】 従来の物体検知処理の方法を示すフローチャート。
【図9】 従来の背景画像更新法の方法を示すフローチャート。
【図10】 従来の背景画像更新法の構成例を示すブロック図。
【符号の説明】
1:TVカメラ、 2:画像入力I/F、 3:画像メモリ、 4:CPU、 5:出力I/F、 6:警告表示モニタ、 7:データバス、 8:ワークメモリ、 9:プログラムメモリ、 10:画像出力I/F、 11:ビデオモニタ、 30:差分画像、 31:二値化画像、 32:ノイズ領域、 33:ノイズ除去画像、 34:ラベリング画像、 35:特徴量検出画像、 48:背景画像Rn-1、 49:入力画像Ln、 50:背景画像Rn、 51:乗算器、 52:加算器、 53:加重係数α、 54:背景画像用加重係数αr、 55:減算器、 61:Ln入力画像、 70:差分処理部、 88:背景画像Rn-1、 89:入力画像Ln、 90:背景画像Rn、 91:乗算器、 92:加算器、 93:加重係数α、 94:背景画像用加重係数αr、 610:初期入力画像C0、 611:1回目の処理画像C1、 612:2回目の処理画像C2、 613:199回目の処理画像C199、 614:200回目の処理画像C200、 615:初期背景画像R0、 620:1回目の入力画像L0、 621:2回目の入力画像L1、 622:200回目の入力画像L199、 623:200回目の入力画像L1、 630:加重係数α、 640:入力画像用加重係数αi、 701:1回目の処理、 702:2回目の処理、 703:3回目の処理、 710:背景画像Rn-1、 711:背景画像Rn、 720:入力画像Ln、 121:初期背景画像作成ステップ、 130:初期背景作成時間取得ステップ、 141:画像入力ステップ、 150:差分ステップ、 160:二値化ステップ、 170:ノイズ除去ステップ、 180:ラベリングステップ、 191:物体の有無判断ステップ、 200:特徴量抽出ステップ、 210:背景画像の更新有無判断ステップ、 221:背景画像更新ステップ、 230:背景画像更新時間取得ステップ、
Claims (8)
- 背景画像と入力画像との比較に基づいて撮像装置から得られる画像中の物体を検出する物体検出方法において、
前記撮像装置から得られる画像全体と前記背景画像全体とを所定の加重係数に基づいて加重平均することにより前記背景画像を更新するステップを備え、
物体の検出が有る場合は、物体の検出が無い場合に比べて、前記背景画像全体に対する加重係数を大きくすると共に、前記撮像装置から得られる画像全体に対する加重係数を0ではない値とする、
ことを特徴とする物体検出方法。 - 背景画像と入力画像との比較に基づいて撮像装置から得られる画像中の物体を検出する物体検出方法において、
前記撮像装置から得られる画像と前記背景画像とを所定の加重係数に基づいて加重平均することにより前記背景画像を更新するステップを備え、
監視場所が明るい場合は、監視場所が暗い場合に比べて、前記背景画像に対する加重係数を小さくする、
ことを特徴とする物体検出方法。 - 背景画像と入力画像との比較に基づいて撮像装置から得られる画像中の物体を検出する物体検出方法において、
前記撮像装置から得られる画像と前記背景画像とを所定の加重係数に基づいて加重平均することにより前記背景画像を更新するステップを備え、
前記加重係数を、監視時刻によって変化させる、
ことを特徴とする物体検出方法。 - 背景画像と入力画像との比較に基づいて撮像装置から得られる画像中の物体を検出する物体検出方法において、
前記撮像装置から得られる画像と前記背景画像とを所定の加重係数に基づいて加重平均することにより前記背景画像を更新するステップを備え、
前記加重係数を、昼夜判断によって変化させる、
ことを特徴とする物体検出方法。 - 背景画像と入力画像との比較に基づいて撮像装置から得られる画像中の物体を検出する物体検出装置において、
前記撮像装置から得られる画像全体と前記背景画像全体とを所定の加重係数に基づいて加重平均することにより前記背景画像を更新する背景画像更新手段を備え、
物体の検出が有る場合は、物体の検出が無い場合に比べて、前記背景画像全体に対する加重係数を大きくすると共に、前記撮像装置から得られる画像全体に対する加重係数を0ではない値とする、
ことを特徴とする物体検出装置。 - 背景画像と入力画像との比較に基づいて撮像装置から得られる画像中の物体を検出する物体検出装置において、
前記撮像装置から得られる画像と前記背景画像とを所定の加重係数に基づいて加重平均することにより前記背景画像を更新する背景画像更新手段を備え、
監視場所が明るい場合は、監視場所が暗い場合に比べて、前記背景画像に対する加重係数を小さくする、
ことを特徴とする物体検出装置。 - 背景画像と入力画像との比較に基づいて撮像装置から得られる画像中の物体を検出する物体検出装置において、
前記撮像装置から得られる画像と前記背景画像とを所定の加重係数に基づいて加重平均することにより前記背景画像を更新する背景画像更新手段を備え、
前記加重係数を、監視時刻によって変化させる、
ことを特徴とする物体検出装置。 - 背景画像と入力画像との比較に基づいて撮像装置から得られる画像中の物体を検出する物体検出装置において、
前記撮像装置から得られる画像と前記背景画像とを所定の加重係数に基づいて加重平均することにより前記背景画像を更新する背景画像更新手段を備え、
前記加重係数を、昼夜判断によって変化させる、
ことを特徴とする物体検出装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP29191097A JP3659609B2 (ja) | 1997-10-24 | 1997-10-24 | 物体検出方法及び物体検出装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP29191097A JP3659609B2 (ja) | 1997-10-24 | 1997-10-24 | 物体検出方法及び物体検出装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH11127430A JPH11127430A (ja) | 1999-05-11 |
JP3659609B2 true JP3659609B2 (ja) | 2005-06-15 |
Family
ID=17775047
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP29191097A Expired - Lifetime JP3659609B2 (ja) | 1997-10-24 | 1997-10-24 | 物体検出方法及び物体検出装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3659609B2 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4832894B2 (ja) * | 2005-12-28 | 2011-12-07 | セコム株式会社 | 画像センサ |
KR101893677B1 (ko) * | 2017-01-26 | 2018-08-31 | 공주대학교 산학협력단 | 컬러 영상 내의 변화영역을 검출하는 방법 및 그 장치 |
-
1997
- 1997-10-24 JP JP29191097A patent/JP3659609B2/ja not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JPH11127430A (ja) | 1999-05-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6088468A (en) | Method and apparatus for sensing object located within visual field of imaging device | |
US7982774B2 (en) | Image processing apparatus and image processing method | |
JP3123587B2 (ja) | 背景差分による動物体領域抽出方法 | |
US6754367B1 (en) | Method and apparatus for automatically detecting intrusion object into view of image pickup device | |
US7286709B2 (en) | Apparatus and computer program for detecting motion in image frame | |
KR19980701568A (ko) | 이미지 시퀀스내의 객체의 움직임을 검출하기 위한 방법 및 장치(method and apparatus for detecting object movement within an image sequence) | |
CN109803096B (zh) | 一种基于脉冲信号的显示方法和系统 | |
WO2001033503A1 (en) | Image processing techniques for a video based traffic monitoring system and methods therefor | |
JPH1141589A (ja) | 移動物体の監視方法および装置 | |
US5963272A (en) | Method and apparatus for generating a reference image from an image sequence | |
EP2447912B1 (en) | Method and device for the detection of change in illumination for vision systems | |
JP3377659B2 (ja) | 物体検出装置及び物体検出方法 | |
US9443150B2 (en) | Device and method for detecting objects from a video signal | |
JP3034101B2 (ja) | 動きベクトルによる識別方法及び装置 | |
JPH09293141A (ja) | 移動物体検出装置 | |
JP3659609B2 (ja) | 物体検出方法及び物体検出装置 | |
JPH1093957A (ja) | 移動物体検出方法、装置、システム、および記憶媒体 | |
JP3423886B2 (ja) | 移動物体監視装置 | |
JP3736836B2 (ja) | 物体検出方法及び物体検出装置及びプログラム | |
JPH05300516A (ja) | 動画処理装置 | |
KR100615672B1 (ko) | Xy축 투영그래프를 이용한 화재 감시시스템 및 이를이용한 화재 감시방법과 화재 감시방법이 구현된 컴퓨터판독가능 기록매체 | |
JP3532769B2 (ja) | 画像監視装置 | |
JPH05183901A (ja) | 移動体監視装置 | |
JP2001169270A (ja) | 画像監視装置及び画像監視方法 | |
JP2003299066A (ja) | 画像処理装置およびその方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20040720 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20040917 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20041018 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20041217 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20041217 |
|
A911 | Transfer of reconsideration by examiner before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20050209 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20050314 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20050314 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080325 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090325 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100325 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100325 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110325 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120325 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120325 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130325 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130325 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140325 Year of fee payment: 9 |
|
EXPY | Cancellation because of completion of term |