JP3973623B2 - 物体追尾方法及び物体追尾装置 - Google Patents

物体追尾方法及び物体追尾装置 Download PDF

Info

Publication number
JP3973623B2
JP3973623B2 JP2003422254A JP2003422254A JP3973623B2 JP 3973623 B2 JP3973623 B2 JP 3973623B2 JP 2003422254 A JP2003422254 A JP 2003422254A JP 2003422254 A JP2003422254 A JP 2003422254A JP 3973623 B2 JP3973623 B2 JP 3973623B2
Authority
JP
Japan
Prior art keywords
image
detected
template
moving object
difference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003422254A
Other languages
English (en)
Other versions
JP2004213648A5 (ja
JP2004213648A (ja
Inventor
渡 伊藤
博唯 上田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Kokusai Electric Inc
Original Assignee
Hitachi Kokusai Electric Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Kokusai Electric Inc filed Critical Hitachi Kokusai Electric Inc
Priority to JP2003422254A priority Critical patent/JP3973623B2/ja
Publication of JP2004213648A publication Critical patent/JP2004213648A/ja
Publication of JP2004213648A5 publication Critical patent/JP2004213648A5/ja
Application granted granted Critical
Publication of JP3973623B2 publication Critical patent/JP3973623B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

本発明は、撮像装置を用いた物体追尾システムに係り、特に追尾対象領域内の物体を画像信号の処理により自動的に検出し、当該撮像装置を搭載するカメラ雲台を制御するようにして物体を追尾するようにした物体追尾方法及び物体追尾装置に関する。
TVカメラ(テレビジョンカメラ)などの撮像装置(以下、カメラと称する)
を用いた遠隔モニタ方式の監視システム等の物体追尾システムは、従来から広く用いられているが、その多くは、監視員がモニタに表示される画像を見ながら監視を行なう、いわゆる有人監視方式の監視システムである。しかし、この有人監視方式の監視システムでは、監視員が常時モニタに表示される映像を見ていて、監視対象領域内に入り込んでくる人間や自動車などの侵入物体(検出物体)をリアルタイムで識別する必要があり、監視員に大きな負担がかかる。
人間の集中力には限りがあるため、有人監視方式の監視システムでは、侵入してくる物体の見逃しの発生を無視できず、監視の信頼性の面で問題がある。また、カメラが撮像した画像(カメラ映像)内にある侵入物体を見つけた場合に、侵入物体をカメラの視野(即ち、撮像視野)範囲内に捉えておくために、カメラを搭載するカメラ雲台(電動旋回台)を操作することが必要になる。しかし、近年の監視カメラの爆発的な普及もあって、監視員1人でそれぞれ、数多くのカメラ映像を複数のモニタを使って監視することも多くなっており、複数のカメラで同時に侵入物体を捉えた場合等、同時に複数のカメラ各々のカメラ雲台を同時に操作することは困難である。この場合にも侵入物体の見逃しが発生する可能性がある。
そこで、このような、人間による有人監視ではなく、カメラで撮像された画像(カメラ映像)から画像処理により侵入物体を自動的に検出し、必要に応じてカメラの視野内に侵入物体を捉えるようにカメラ雲台を制御し、所定の報知や警報処置が得られるようにした、いわゆる自動検出・自動追尾方式の監視システムが、近年、強く要求されるようになってきている。
ところで、このような監視システムの実現には、所定の監視方式を用い、侵入物体とみなすべき監視対象物体を画像信号から検出し、カメラの視野内に侵入物体を捉えるようにカメラ雲台を制御する機能が必要となる。
従来から、このような監視システムを実現するために、例えば、まず、差分法などによって視野内の侵入物体を検出する。差分法とはカメラ等の撮像装置により得られた画像(入力画像)と、検出すべき物体の映っていない画像(即ち、予め作成した基準背景画像)とを比較し、画素毎または複数の画素からなる画素ブロック毎に輝度値の差分を求め、その差分値の大きい領域(画像信号の変化領域)を侵入物体として検出するものである。
このようにして検出された侵入物体の画像をテンプレートとして登録し、カメラの視野内の侵入物体の動きを検出し、動きに応じてカメラ雲台を制御する。
この従来方式の侵入物体検出処理を図5のフローチャートを用いて説明する。
図5において、まず初期化処理ステップ101では、侵入物体追尾方式を実行するための外部機器、変数、画像メモリ等の初期化を行なう。
次に点線で囲ったステップ102は、差分法による侵入物体検出ステップであり、第1の画像入力ステップ102aでは、カメラから、例えば横320画素、高さ240画素の入力画像を取得する。次に、差分処理ステップ102bでは、第1の画像入力ステップ102aで得た入力画像と予め作成しておいた基準背景画像との各画素毎の輝度値の差分を差分画像の輝度値として算出する。次に、二値化処理ステップ102cでは、差分処理ステップ102bで得られた差分画像の画素値(差分値)について、画素毎に、所定のしきい値Th(例えば、Th=20)未満の画素値を“0”、しきい値Th以上の画素の画素値を“255”(1画素の画素値を8ビットで計算した)として二値化画像を取得する。次に、ラベリング処理ステップ102dでは、二値化処理ステップ102cで得られた二値化画像中の画素値“255”となる画素のかたまりを検出して各々に番号を付けて区別できるようにする。次に、侵入物体存在判定ステップ102eでは、ラベリング処理ステップ102dで番号付けされた画素値“255”となる画素のかたまりが所定の条件(例えば大きさ横20画素、高さ50画素以上)であれば当該監視対象領域内に侵入物体が存在すると判定する(以上差分法の説明した)。
侵入物体存在判定ステップ102eでは、もし侵入物体が存在すると判定された場合は第1の警報・モニタ表示ステップ103へ分岐し、侵入物体が存在しないと判定された場合は再び第1の画像入力ステップ102aに分岐し、差分法を実行する。
次に第1の警報・モニタ表示ステップ103では、例えば、侵入物体を発見したことを表す警報を鳴らして監視員に知らせる。
次にテンプレート登録ステップ104では、ラベリング処理ステップ102dで番号付けされた画素値“255”となる画素のかたまりに基づいて、入力画像中の侵入物体の画像を切り出し、テンプレートとして登録する。
ここまで説明した図5のステップ101〜ステップ104の処理を、図6を用いて説明する。図6は、差分法を用いて侵入物体を検出し、検出された侵入物体の画像をテンプレートに登録するまでの処理の概略を説明するための図である。図6中、601は第1の画像入力ステップ102aで得られた入力画像、609は入力画像601に映った人型の物体、602は予め作成しておいた基準背景画像、603は差分処理ステップ102bの処理を表す減算器、604は差分処理ステップ102bで得られた差分画像、610は差分画像604中の減算器603によって差分が生じた領域、605は二値化処理ステップ102cの処理を表す二値化器、606は二値化処理ステップ102cで得られた二値化画像、611は二値化画像606中の画素値が“255”以上の画素のかたまり(侵入物体の画像)、607はテンプレート登録ステップ104で入力画像601から侵入物体の画像611の外接矩形を切り出す処理を表す切り出し器、612はテンプレート登録ステップ104で登録されたテンプレート、608はテンプレート612を登録するときのテンプレート画像である。
図6において、減算器603は、入力画像601と基準背景画像602との画素毎の輝度値の差分を計算し、計算した値を該当する画素での輝度と画像(差分画像)604を出力する。次に、二値化器605は、差分画像604を所定のしきい値Thでしきい値処理し、しきい値Th未満の画素値を“0”、しきい値Th以上の画素の画素値を“255”とする処理を画素毎に行ない、二値化画像606を得る。
これによって入力画像601に映った人型の物体609は、(映像信号の変化領域)610として計算され、二値化器605によって画像611として検出される。
次に、切り出し器607では、二値化画像606中で番号付けされた画素値“255”のかたまり611の外接矩形を計算し、入力画像601の外接矩形の領域を切り出してテンプレート画像608を得る。テンプレート画像608では、入力画像601に映った人型の物体609の画像がテンプレート612として登録される。
次に、逐次入力される画像の中でテンプレートと一致度(類似度)が最大となる位置を検出することで、侵入物体の位置を検出する。この方法は、テンプレートマッチングと呼ばれて広く知られている(例えば、非特許文献1参照)。
ここで、テンプレートマッチングを使用する理由は、差分法を実行するためには基準背景画像602が必要であり、カメラの視野内に侵入物体を捉えるようにカメラ雲台を制御すると、カメラの光軸方向が変化してしまい、予め作成した基準背景画像602が使用できなくなってしまうからである。
通常、テンプレートマッチングを用いて侵入物体の位置を検出する場合、侵入物体の姿勢の変化に追従するため、マッチング処理によって検出された侵入物体の位置の画像を新たにテンプレートとして逐次更新する。
これらの処理は、図5における第2の画像入力ステップ105以降であり、以下に説明する。
第2の画像入力ステップ105では、第1の画像入力ステップ102aと同様に、カメラから、例えば横320画素、高さ240画素の入力画像を取得する。
次にテンプレートマッチングステップ106では、第2の画像入力ステップ105で得た入力画像の中でテンプレートと最も一致度が高い画像を検出する。通常、テンプレートと入力画像全体を比較すると計算時間がかかるため、テンプレートに対して所定の範囲(例えば、テンプレートに対して上下20画素、左右50画素広げた領域)を探索領域として、その探索領域内でテンプレートと最も一致度が高い画像検出する。
一致度の算出には、例えば正規化相関値r(Δx,Δy)が適用でき、式(1)で表される。
Figure 0003973623
ここで、f(x,y)は入力画像を表し、g(x,y)はテンプレート画像を表す。また、(x0,y0)はテンプレート602の左上の座標を表し(画像の座標軸は画像の左上を原点(0,0)とする)、Dはテンプレートの大きさ(二値化画像611で検出された侵入物体の外接矩形の大きさで、上記の例では横20画素、縦50画素)を表す。正規化相関値r(Δx,Δy)は、−1≦r(Δx,Δy)≦1の値を取り、入力画像とテンプレートが全く一致した場合は、“1”となる。テンプレートマッチングは、Δx、Δyを探索範囲内で走査、すなわち上記例では−50≦Δx≦50、−20≦Δy≦20と変化させた場合に、正規化相関値r(Δx,Δy)が最も大きくなる位置(Δx,Δy)を検出する処理である。
次に一致度判定ステップ107では、一致度r(Δx,Δy)を判定し、正規化相関値を用いた場合、例えば0.7以上であれば一致度が大きいと判定し侵入物体位置修正ステップ108へ分岐し、0.7未満であれば一致度が小さいと判定し第1の画像入力ステップ102aに分岐する。
一致度が大きいということは、入力画像中でテンプレートに似た画像がある、即ち、入力画像中に侵入物体が存在することを意味し、その場合は引き続き侵入物体を追尾する。
また一致度が小さいということは、入力画像中でテンプレートに似た画像が無い、即ち、入力画像中に侵入物体が存在しないことを意味し、その場合は第1の画像入力ステップ102aに分岐して、差分法によって再び侵入物体を検出する処理を実行する。
さて、一致度が大きい場合に実行される侵入物体位置修正ステップ108では、一致度が最も大きくなる位置(Δx,Δy)に基づいて(x0+Δx,y0+Δy)を新たな侵入物体の位置として修正する。
次に、テンプレート更新ステップ117では、新たに求められた侵入物体の位置に基づいて第2の画像入力ステップ105で得られた入力画像を切り出し、新たなテンプレート画像とする。
更に、カメラ雲台制御ステップ118では、テンプレートマッチングステップ106によって検出された侵入物体の位置と、入力画像の所定基準位置(即ち、撮像視野内の所定基準位置)、例えば、中心との変位によってカメラ雲台の制御を行なう。一例として、図8で示すような位置802に侵入物体が検出されたとする。この場合、侵入物体の中心位置をテンプレートの中心803とすると、画像の中心804からの変位dx、dyが算出される。
ここで、テンプレートの中心位置803が入力画像の中心804より所定量s以上左側(dx<−s)であればカメラ雲台を左にパンさせ、右側(dx>s)であれば右にパンさせる。侵入物体が画像の中心付近に存在する場合(−s≦dx≦s)は、カメラ雲台制御を制御する必要がないため、所定量sによってカメラ雲台制御を開始する位置を指定することができる。例えば、所定量sは、s=50である。
また、テンプレートの中心位置803が入力画像の中心804より上側(dy<−s))であればカメラ雲台を上にチルトさせ、下側(dy>s)であれば下にチルトさせる。
なお、dx及びdyの絶対値によってパンモータやチルトモータの制御速度を変化させるようにしても良い(dxあるいはdyの絶対値が大きいほど制御速度を大きくする)。
最後に第2の警報・モニタ表示ステップ119では、例えば侵入物体を追尾中であることを表す警報を鳴らして監視員に知らせる。
ここまでの処理が実行されていく過程を、図7によって説明する。図7は、テンプレートマッチングを逐次実行することによって侵入物体の位置を追跡する一例を表す図である。図7において、701は時刻t0−1におけるテンプレート画像を表しており、701aは時刻t0−1におけるテンプレートであり、702は時刻t0における入力画像である。画像702において、702aは時刻t0−1における侵入物体の位置(テンプレート701aの位置)を示す矩形領域、702bはテンプレートマッチングの対象となる領域(探索領域)を示す矩形領域を表す。
ここで、テンプレートマッチング処理709(テンプレートマッチングステップ106)を実行すると、テンプレートマッチングの探索領域702bの中でテンプレート701aに最も一致する画像702cで一致度が最も大きくなり、侵入物体は時刻t0において画像702cの位置に存在していることが分かる。即ち、侵入物体は矢印702dだけ移動したことが分かる。
次に、テンプレート更新処理710(テンプレート更新ステップ117)において、テンプレート701aに最も一致した画像702cを時刻t0における新たなテンプレートとして更新する。即ち、入力画像702から侵入物体の位置702cを切り出し、これをテンプレート画像703とし、侵入物体の画像702cを時刻t0における新たなテンプレート703aとして更新する。
この処理をカメラから逐次入力される入力画像に対して適用すると、時刻t0+1における入力画像704中にテンプレート703aの位置704aに基づいて探索領域704bを設定し、時刻t0におけるテンプレート画像703中のテンプレート703aを用いてテンプレートマッチング処理709によって侵入物体の位置704cを検出する。すると侵入物体は矢印704dのように移動したことが分かる。
更にテンプレート更新処理710によって時刻t0+1におけるテンプレート画像705、および侵入物体のテンプレート705aを更新する。更に、時刻t0+2における入力画像706中にテンプレート705aの位置706aに基づいて探索領域706bを設定し、時刻t0+1におけるテンプレート画像705中のテンプレート705aを用いてテンプレートマッチング処理709によって侵入物体の位置706cを検出する。
すると侵入物体は矢印706dのように移動したことが分かる。さらにテンプレート更新処理710によって時刻t0+2におけるテンプレート画像707、および侵入物体のテンプレート707aを更新する。
更に、時刻t0+3における入力画像708中にテンプレート707aの位置708aに基づいて探索領域707bを設定し、時刻t0+2におけるテンプレート画像707中のテンプレート707aを用いてテンプレートマッチング処理709によって侵入物体の位置708cを検出する。すると侵入物体は矢印708dのように移動したことが分かる。すなわち、テンプレートマッチングを逐次実行することで侵入物体を追跡することができる。
ところで、前述のテンプレートマッチングを用いた侵入物体の追尾法では、追尾対象の侵入物体の向きが変化(例えば、侵入物体の人が右を向いたり、後ろを向いたり)すると、侵入物体とテンプレートマッチングによって検出される位置とのずれが大きくなり、正確かつ安定した追尾が行なえなくなるという問題がある。これは、テンプレートマッチングは、テンプレート内の高いコントラストの模様部分(輝度値の差が大きい部分)が一致するようにマッチングされるという性質があるためである。例えば、侵入物体が車両である場合において、はじめは正面を向いていて、車両のほとんどすべてをテンプレート内に捉えていた場合でも、その後進行方向(向き)が変わり横向きになってしまうと車両の前面部分だけしかテンプレートに捉えられなくなり、車両全体がテンプレート内に捉えていた時に比べて、テンプレートの中心が車両の中心から車両の前部に移動するため、侵入物体の位置がずれて検出されてしまう。
この現象を図9によって説明する。図9は、テンプレートマッチングを用いた侵入物体の追尾法でテンプレート内に侵入物体を捉えられなくなる現象を説明するために、撮像視野内で曲線を描く車道を通過する車両を侵入物体として追尾した場合の処理が実行されていく過程を示した図である。簡単のために、この図9では、カメラ雲台の制御は行なっていない場合の例を示している。
901、903、905、907は、それぞれ、時刻t1−1、時刻t1、時刻t1+1、時刻t1+2におけるテンプレート画像、901a、903a、905a、907aは、それぞれ、時刻t1−1、時刻t1、時刻t1+1、時刻t1+2におけるテンプレートを表す。また、902、904、906、908は、それぞれ、時刻t1、時刻t1+1、時刻t1+2、時刻t1+3における入力画像、902a、904a、906a、908aは、それぞれ、時刻t1−1、時刻t1、時刻t1+1、時刻t1+2におけるテンプレートの位置(時刻t1−1、時刻t1、時刻t1+1、時刻t1+2における侵入物体の位置)、902b、904b、906b、906bは、それぞれ、時刻t1、時刻t1+1、時刻t1+2、時刻t1+3においてテンプレートマッチング処理によって検出された侵入物体の位置である。
図9において、時刻t1−1で登録されているテンプレート901aは、車両のフロント部分がほぼ正面を向いている画像である。時刻t1では、このテンプレート901aを用いてテンプレートマッチング(テンプレートマッチング処理709)を行ない、侵入物体の移動した位置を検出すると共に、テンプレート901aをテンプレート903aに更新する(テンプレート更新処理710)。続いて、時刻t1+1ではテンプレート905aに更新され、時刻t1+2ではテンプレート907aに更新され、この処理を時刻t1+3まで行なうと、テンプレートは、追尾開始時刻t11で車両のライトなどがあるフロント部分を捉えていたものが、時刻t1+3では、車両の左側にずれて捉えている。この現象は、テンプレートマッチングが対象とする入力画像とテンプレート画像中のコントラストが高い画像部分のずれを小さくするようにマッチングが行なわれるように働くためで、この例では車両のライト部分がそれにあたる。そのため、図9のように、侵入物体が向って右から左に向きを変えるような場合には左側にずれ、向って左から右に向きを変えるような場合に右側にずれる。
さらに、時刻t1−1では、テンプレート901aの中に車両の画像だけが入っていたが、侵入物体が向きを変えて、侵入物体に対してテンプレートがずれたことによって、時刻t1+3ではテンプレート908b中に侵入物体以外の背景部分の画像が入り込んでしまう。このテンプレート908bのような追尾すべき侵入物体以外の画像を多く含んだテンプレートを用いてテンプレートマッチングを続けた場合には、侵入物体を捉えることができずに、テンプレートに入り込んだ背景部分とマッチングしてしまう。従って、テンプレートマッチングを用いた侵入物体追尾法は、侵入物体の向きが変化するような場合には、侵入物体の模様が見かけ上移動し、それに引っ張られてテンプレートの位置が侵入物体の位置からずれてしまうため、追尾対象である侵入物体を追尾している保証ができず、安定な追尾を行なうことができない。
なお、本発明に係る先行出願には、例えば、例えば先行特許文献1がある。
特開2001−06263号公報(第7−8ページ、第9−10図) 田村秀行監修参照「コンピュータ画像処理」総研出版、1985年3月10日、P.149〜P.153。
このように、上記従来技術には、例えば、検出物体の向きの変化が大きい場合には安定な追尾が行なえなくなるという欠点があった。
本発明の目的は、上記従来技術の欠点を除去しうる物体追尾方法及び物体追尾装置を提供するにある。
本発明の別の目的は、例えば、検出物体の向きの変化が大きい場合にも、正確に検出物体を検出し、追尾することができる、信頼性が高く安定に動作する物体追尾方法及び物体追尾装置を提供することにある。
本発明の物体追尾方法は、撮像装置から得られる画像信号に基づいて撮像画像中の物体を検出し追跡する物体追尾方法において、前記撮像装置から取得した画像から前記物体の一部を含む所定サイズのテンプレート画像を作成するテンプレート画像作成ステップと、前記撮像装置から異なる時刻に取得した2フレーム以上の画像に基づいて、該フレーム間での画像の変化領域を検出する画像変化検出ステップと、該検出された画像の変化領域に基づいて該物体の位置を検出し、該検出された物体位置を前記テンプレート画像に代えて新たなテンプレート画像とする、物体位置修正ステップとを備える。
また、本発明の物体追尾方法において、前記画像変化検出ステップは、前記撮像装置の制御状態の停止時において、前記撮像装置から異なる時刻に取得した2フレームの画像を比較することによって、画像の変化領域を検出する。
また、本発明の物体追尾方法において、前記撮像装置の制御状態の停止とは、前記撮像装置の撮像方向が固定の状態を示す。
また、本発明の物体追尾方法において、更に、前記検出された物体位置と、前記撮像装置の撮像視野内の所定基準位置との関係に基づいて該撮像装置の撮像方向を制御するステップを備える。
また、本発明の物体追尾方法において、前記画像変化検出ステップは、前記撮像装置から異なる時刻に取得した2フレームの画像を比較し、最も多い差分或いは所定値以上の差分が検出された領域を前記物体の位置として検出する。
また、本発明の物体追尾方法において、前記画像変化検出ステップは、前記現在のテンプレート画像の位置に基づき該物体の位置を検出するための探索範囲を設定し、該設定された探索範囲において前記2フレーム間での画像の変化領域を検出し、前記物体位置修正ステップは、該変化された探索範囲において最も多い差分或いは所定値以上の差分が検出された領域を前記物体の位置として検出する。
また、本発明の物体追尾装置は、撮像装置から得られる画像信号に基づいて撮像画像中の物体を検出し追跡する物体追尾装置において、該撮像装置が取得した映像信号を逐次画像信号に変換する画像入力部と、前記画像入力部によって変換された前記画像信号を予め決めた手順で処理する処理部とを備え、前記処理部は、前記撮像装置から取得した画像から前記物体の一部を含む所定サイズのテンプレート画像を作成し、前記撮像装置から異なる時刻に取得した2フレーム以上の画像に基づいて、該フレーム間での画像の変化領域を検出し、該検出された画像の変化領域に基づいて該物体の位置を検出し、該検出された物体位置を前記テンプレート画像に代えて新たなテンプレート画像とするように構成される。
また、本発明の物体追尾装置において、前記処理部は、前記撮像装置から異なる時刻に取得した2フレームの画像を比較し、最も多い差分或いは所定値以上の差分が検出された領域を前記物体の位置として検出するように構成される。
また、本発明の物体追尾装置において、前記処理部は、前記現在のテンプレート画像の位置に基づき該物体の位置を検出するための探索範囲を設定し、該設定された探索範囲において前記2フレーム間での画像の変化領域を検出し、該変化された探索範囲において最も多い差分或いは所定値以上の差分が検出された領域を前記物体の位置として検出するように構成される。
また、本発明の物体追尾方法は、撮像装置から得られる画像信号に基づいて撮像画像中の物体を検出し追跡する物体追尾方法において、前記撮像装置から異なる時刻に取得した2フレーム以上の画像に基づいて、該フレーム間での画像の変化領域を検出する画像変化検出ステップと、該検出された画像の変化領域に基づいて該物体の位置を検出し、該検出された物体位置を現在の物体検出位置に代えて新たな物体検出位置とする、物体位置修正ステップとを備える。
また、本発明の物体追尾方法において、画像変化検出ステップは、前記撮像装置から異なる時刻に取得した2フレームの画像を比較し、最も多い差分が検出された領域を前記物体の位置として検出する。
また、本発明の物体追尾方法において、前記画像変化検出ステップは、前記撮像装置から異なる時刻に取得した2フレームの画像を比較し、所定値以上の差分が検出された領域を前記物体の位置として検出する。
また、本発明の物体追尾方法において、前記画像変化検出ステップは、前記撮像装置の制御状態の停止時において、前記撮像装置から異なる時刻に取得した2フレームの画像を比較することによって、画像の変化領域を検出する。
また、本発明の物体追尾方法において、前記撮像装置の制御状態の停止とは、前記撮像装置の撮像方向が固定の状態を示す。
また、本発明の物体追尾方法において、前記検出された物体位置と、前記撮像装置の撮像視野内の所定基準位置との関係に基づいて該撮像装置の撮像方向を制御するステップを備える。
また、本発明の物体追尾方法において、前記画像変化検出ステップは、前記現在の物体検出位置に基づき該物体の位置を検出するための探索範囲を設定し、該設定された探索範囲において前記2フレーム間での画像の変化領域を検出し、前記物体位置修正ステップは、該変化された探索範囲において最も多い差分が検出された領域を前記物体の位置として検出する。
また、本発明の物体追尾方法において、前記画像変化検出ステップは、前記現在の物体検出位置に基づき該物体の位置を検出するための探索範囲を設定し、該設定された探索範囲を段階的に変化し、該変化された各探索範囲において前記2フレーム間での画像の変化領域を検出し、前記物体位置修正ステップは、該変化された探索範囲において最も多い差分が検出された領域を前記物体の位置として検出する。
また、本発明の物体追尾方法において、前記物体位置修正ステップは、前記変化された探索範囲において検出された変化領域において最も多い差分が所定値以上となると、該最も多い差分が検出された領域を前記物体の位置として検出する。
また、本発明の物体追尾方法において、前記画像変化検出ステップは、該設定された探索範囲を段階的に拡大または移動する。
また、本発明の物体追尾方法において、前記画像変化検出ステップは、前記現在の物体検出位置に基づき該物体の位置を検出するための探索範囲を設定し、該設定された探索範囲において前記2フレーム間での画像の変化領域を検出し、前記物体位置修正ステップは、該変化された探索範囲において所定値以上の差分が検出された領域を前記物体の位置として検出する。
また、本発明の物体追尾方法において、前記画像変化検出ステップは、前記現在の物体検出位置に基づき該物体の位置を検出するための探索範囲を設定し、該設定された探索範囲を段階的に変化し、該変化された各探索範囲において前記2フレーム間での画像の変化領域を検出し、前記物体位置修正ステップは、該変化された探索範囲において所定値以上の差分が検出された領域を前記物体の位置として検出する。
また、本発明の物体追尾方法において、前記画像変化検出ステップは、該設定された探索範囲を段階的に拡大または移動する。
また、本発明の物体追尾方法は、撮像装置から得られる画像信号に基づいて撮像画像中の物体を検出し追跡する物体追尾方法において、前記撮像装置から取得した画像から前記物体の一部を含む所定サイズのテンプレート画像を作成するテンプレート画像作成ステップと、前記撮像装置から異なる時刻に取得した2フレーム以上の画像に基づいて、該フレーム間での画像の変化領域を検出する画像変化検出ステップと、該検出された画像の変化領域に基づいて該物体の位置を検出し、該検出された物体位置を前記テンプレート画像に代えて新たなテンプレート画像とする、物体位置修正ステップとを備える。
また、本発明の物体追尾方法において、前記画像変化検出ステップは、前記撮像装置から異なる時刻に取得した2フレームの画像を比較し、最も多い差分が検出された領域を前記物体の位置として検出する。
また、本発明の物体追尾方法において、前記画像変化検出ステップは、前記撮像装置から異なる時刻に取得した2フレームの画像を比較し、所定値以上の差分が検出された領域を前記物体の位置として検出する。
また、本発明の物体追尾方法において、前記画像変化検出ステップは、前記撮像装置の制御状態の停止時において、前記撮像装置から異なる時刻に取得した2フレームの画像を比較することによって、画像の変化領域を検出する。
また、本発明の物体追尾方法において、前記撮像装置の制御状態の停止とは、前記撮像装置の撮像方向が固定の状態を示す。
また、本発明の物体追尾方法において、前記検出された物体位置と、前記撮像装置の撮像視野内の所定基準位置との関係に基づいて該撮像装置の撮像方向を制御するステップを備える。
また、本発明の物体追尾方法において、前記画像変化検出ステップは、前記現在のテンプレート画像の位置に基づき該物体の位置を検出するための探索範囲を設定し、該設定された探索範囲において前記2フレーム間での画像の変化領域を検出し、前記物体位置修正ステップは、該変化された探索範囲において最も多い差分が検出された領域を前記物体の位置として検出する。
また、本発明の物体追尾方法において、前記画像変化検出ステップは、前記現在のテンプレート画像の位置に基づき該物体の位置を検出するための探索範囲を設定し、該設定された探索範囲を段階的に変化し、該変化された各探索範囲において前記2フレーム間での画像の変化領域を検出し、前記物体位置修正ステップは、該変化された探索範囲において最も多い差分が検出された領域を前記物体の位置として検出する。
また、本発明の物体追尾方法において、前記物体位置修正ステップは、前記変化された探索範囲において検出された変化領域において最も多い差分が所定値以上となると、該最も多い差分が検出された領域を前記物体の位置として検出する。
また、本発明の物体追尾方法において、前記画像変化検出ステップは、該設定された探索範囲を段階的に拡大または移動する。
また、本発明の物体追尾方法において、前記画像変化検出ステップは、前記現在のテンプレート画像の位置に基づき該物体の位置を検出するための探索範囲を設定し、該設定された探索範囲において前記2フレーム間での画像の変化領域を検出し、前記物体位置修正ステップは、該変化された探索範囲において所定値以上の差分が検出された領域を前記物体の位置として検出する。
また、本発明の物体追尾方法において、前記画像変化検出ステップは、前記現在のテンプレート画像の位置に基づき該物体の位置を検出するための探索範囲を設定し、該設定された探索範囲を段階的に変化し、該変化された各探索範囲において前記2フレーム間での画像の変化領域を検出し、前記物体位置修正ステップは、該変化された探索範囲において所定値以上の差分が検出された領域を前記物体の位置として検出する。
また、本発明の物体追尾方法において、前記画像変化検出ステップは、該設定された探索範囲を段階的に拡大または移動する。
また、本発明の侵入物体追尾方法は、監視対象領域に侵入する物体を監視対象領域を撮像して取得した画像信号に基づいて検出し、検出した結果に基づいて撮像装置を搭載するカメラ雲台を制御して侵入物体を追尾する方式の侵入物体追尾方法において、カメラ雲台の制御状態に応じて撮像装置から異なる時刻に取得した少なくとも2フレーム以上の画像信号に基づいて画像信号の変化領域を検出する画像信号変化検出ステップと、画像信号変化検出ステップで検出された画像信号の変化領域に基づいて侵入物体の正確な位置を検出して侵入物体の位置情報を修正する侵入物体位置修正ステップとを備えることによって達成される。
また好ましくは、本発明の侵入物体追尾方法の画像信号変化検出ステップは、カメラ雲台停止時に撮像装置から異なる時刻に取得した2フレームの画像信号を比較することによって画像信号の変化領域を検出するものである。
またさらに好ましくは、本発明の侵入物体追尾方法の侵入物体位置修正ステップは、侵入物体の位置情報に基づいて侵入物体の正確な位置を検出する対象領域を段階的に拡大し、画像信号変化検出ステップで得られた画像信号の変化領域と、対象領域に基づいて侵入物体の正確な位置を検出して侵入物体の位置情報を修正するものである。
また、本発明の侵入物体監視装置は、監視対象領域を撮像する撮像装置から入力される画像信号の変化部分を検出し、検出した結果に基づいて撮像装置を搭載するカメラ雲台を制御することにより侵入物体を追尾する方式の侵入物体追尾装置において、監視対象領域を逐次撮像する装置と、撮像装置が取得した映像信号を逐次画像信号に変換する画像入力部と、カメラ雲台を制御する雲台制御部と、画像入力部によって変換された画像信号を予め決めた手順で処理する処理手段を備え、記処理手段は、画像入力部を介して得られた画像信号の変化領域を検出し、変化領域に基づいて雲台制御部を介してカメラ雲台を制御し、侵入物体を撮像装置の視野内に捉えながら侵入物体を追尾するものである。
本発明によれば、検出物体が向きを変えた場合に検出物体に対してテンプレートがずれる場合があり、テンプレートに追尾すべき検出物体以外の画像を多く含んでしまい検出物体を捉えることができずに、テンプレートに入り込んだ背景部分とマッチングしてしまうという従来の問題を除去できる。更に、検出物体の向きの変化が大きい場合にも、正確に物体を検出し、追尾することができる。従って、信頼性が高く安定に動作する物体追尾方法及び物体追尾装置を提供することができる。
以下、本発明による侵入物体追尾方法および侵入物体追尾装置について、図示の実施の形態により詳細に説明する。
先ず、図4は、本発明の一実施例が適用された監視システムのハードウエア構成の一例である。401は撮像装置である。撮像装置401はカメラ401aとズームレンズ401b、及びカメラ雲台(電動旋回台)401cで少なくとも構成されている。次に、402は処理装置で、画像入力部(画像入力I/F)402aと雲台制御部(雲台制御I/F)402b、レンズ制御部(レンズ制御I/F)402c、操作入力部(操作入力I/F)402d、画像メモリ402e、MPU(マイクロプロセッシングユニット、Micro Processing Unit)402f、ワークメモリ402g、外部入出力部(外部入出力I/F)402h、画像出力部(画像出力I/F)402i、警報出力部(警報出力I/F)402j、それにデータバス402kで構成され、これに、操作手段403と外部記憶装置404、画像モニタ405、更に警告灯406が組合わされている。
更に、操作手段403は、ジョイスティック403aと第1のボタン403b、第
2のボタン404cで構成されている。そして、カメラ401aの出力は画像入力部
402aを介してデータバス402kに接続され、ズームレンズ401bの制御部はレンズ制御部402cを介してデータバス402kに接続され、カメラ401aを搭載するカメラ雲台401cは雲台制御部402bを介してデータバス402kに接続され、操作手段403の出力は操作入力部402dを介してデータバス402kに接続されている。
また、外部記憶装置404は外部入出力部402hを介してデータバス402kに
接続され、監視用の画像モニタ405は画像出力部402iを介してデータバス40
2kに接続され、警告灯406は警報出力部402jを介してデータバス402kに接続されている。一方、MPU402gとワークメモリ402gは、そのままデータバス402kに接続されている。
ここで、カメラ401aは、監視対象領域を所定の視野内に捉え、監視対象領域撮像して映像信号を出力する。このため、ズームレンズ401bを備え、カメラ雲台401cに搭載されている。そして、撮像された映像信号は、画像入力部402aからデータバス402kを介して画像メモリ402eに蓄積される。外部記憶装置404は、プログラムやデータなどを記憶する働きをし、プログラムやデータなどが必要に応じて外部入出力部402hを介してワークメモリ402gに読み込まれ、また反対にワークメモリ402gから画像記憶装置404に保存される。
MPU402fは、外部記憶装置404に保存され、処理手段402動作時にワークメモリ402gに読み込まれたプログラムに従って処理を実行し、ワークメモリ4
02g内で画像メモリ402eに蓄積された画像の解析を行なう。そして、この処理
結果に応じて、MPU402fは、ズームレンズ401bを制御し、カメラ雲台401cを制御して、カメラ401aの撮像視野を変えると共に、必要に応じて監視モニタ405に侵入物体検出結果の画像を表示し、警告灯406を点灯させる。
次に、本発明の実施の形態の動作の一例について説明する。ここで、以下に説明する実施形態は、図4で説明したハードウエア構成により動作するもので、この本発明の第1の実施例の動作を、図2により説明する。ここで、この図2は、本発明の第1の実施例における処理プロセスの一例をフローチャートで示した図である。
この図2の処理プロセスは、まず初期化処理ステップ101から開始される。この初期化処理ステップ101では、画像メモリ領域や記録領域の初期化を実行する。また、外部記憶装置404に記録した基準背景画像を読み込んで画像メモリ402eに記憶する。画像メモリ領域は、侵入物体追尾処理に使用するためのメモリ領域で、画像メモリ402e内に確保される。また、記録領域は、ワークメモリ402g内に確保された領域で、処理プロセスの処理に必要な変数などを記憶する。
次に、侵入物体検出処理ステップ102は、図5、6を用いて説明した従来方式の侵入物体検出処理ステップ102と同じ処理を行なう。図2では、侵入物体検出処理ステップ102を構成する各ステップは、1つのステップとして省略して表示している。また、各ステップの動作については、従来方式の処理動作で説明したため、ここでは説明を省略する。
次に第1の警報・モニタ表示ステップ103では、例えば画像モニタ405に検出した侵入物体の画像を表示し、警告灯406を点灯させ、監視対象領域内に侵入物体が存在することを意味する報知が行なわれる。または警報を示す画像、文字等を画像モニタ405に表示しても良い。
画像入力ステップ105では、画像入力部402aを介して、カメラ401aで撮像された画像信号を入力し、例えば横方向320画素、高さ方向240画素、1画素当たりデータビット数8(320×240画素、8bit/画素)の入力画像を取得する。この際、前の処理フレーム(1巡前のステップの処理で)で取得した入力画像を画像メモリ402eに記憶しておく。画像メモリ402eに記憶された入力画像は、それが入力された時刻から所定の時間(例えば10秒)が経過した場合に消去される。
次に、カメラ雲台停止判定ステップ109では、カメラ雲台401cが停止中か、即ち、カメラの撮像方向(言い替えれば、カメラの光軸方向)が固定中か否かを判定する。停止中の場合はフレーム間差分処理ステップ110へ分岐し、停止中でない場合はカメラ雲台制御ステップ118へ分岐する(理由は後述する)。
フレーム間差分処理ステップ110では、フレーム間差分法の処理を実行する。フレーム間差分法とは、図6で説明した従来技術で使用している侵入物体の検出方法である差分法の基準背景画像602の代わりに画像メモリ402eに記憶された前処理フレームの入力画像を使用する。即ち、異なる時刻に得られた2フレームの入力画像を差分法に適用すると、入力画像中で動いている部分(画素値に変化がある部分)が検出される。侵入物体は動いているため、侵入物体の画素値に差分が生じるため、侵入物体の検出が行なえるのである。この差分法は、特にフレーム間差分法と呼ばれ広く使用されている。なお、図6で説明した入力画像と基準背景画像との差分を求める方法は、背景差分法と呼ばれている。
次に差分量最大位置探索ステップ112では、フレーム間差分処理ステップ110で得られた差分画像から、差分が多く含まれる領域を探索する。この処理を図15によって説明する。図15(1)は、画像入力ステップ105で入力した入力画像1501、図15(2)は、画像メモリ402eに記憶された入力画像1502を表す。入力画像1502は、入力画像1501に比べ取得時刻が所定の時間(例えば1秒)離れているものを使用する。すると、差分画像として図15(3)の斜線で囲んだ領域1503が得られる。
ここで、侵入物体位置1503a(この時点では、現在の侵入物体の位置は分からないため前処理フレームでの侵入物体の位置を使用する)に対し、X軸、Y軸方向にそれぞれ所定の画素d分(例えばd=100画素)だけ拡大した領域を探索領域1503bとして設定し、その領域内の画素の差分の累積値を、X軸、Y軸に対して投影すると、図15(3)で示す投影像1503c、1503dのようになる。これらを、それぞれhx(x)、hy(y)と表記する。なお、図15(3)は、分かりやすくするために差分画像上に投影したグラフを重ねて表示している。
次に、図15(4)は、探索領域内の画素の差分の累積値をX軸に投影したhx(x)を示し、点線で示した領域1503eは、前処理フレームで侵入物体の検出位置を表わす範囲である。ここで、侵入物体の幅tx(侵入物体検出処理ステップ102で検出された侵入物体の幅)内に最も差分の多い位置を検出する。この例では、実線の領域1503fになる。これを式で表すと式(2)のようになる。
Figure 0003973623
式(2)において、x0は前フレームで検出された侵入物体の位置(侵入物体に外接する矩形の左上の座標を基準とする)を表し、x1は検出した侵入物体の幅tx内で最も差分の多い位置を表す。このようにして検出された差分が最も多く検出された領域には、動く物体が存在している。同様にY軸に対して差分を投影した図15(5)で表されるグラフに対しても、点線で示した前処理フレームで侵入物体の存在していた領域1503gから、侵入物体の高さty(侵入物体検出処理ステップ102で検出された侵入物体の高さ)内で差分が最も多く検出された領域1503hが検出される。
これを式で表すと式(3)のようになる。
Figure 0003973623
式(3)において、y0は前フレームで検出された侵入物体の位置を表すし、y1は検出した侵入物体の高さty内で最も差分の多い位置を表す。
従って、フレーム間差分処理ステップ110によって、差分が多く存在する位置(x1,y1)が検出される。
なお、本実施例では、式(2)、(3)で表される通り、x1もしくはy1をx0−d<x1<x0+d、y0−d<y1<y0+dと変化させた場合に、x1<x<x1+dx、y1<y<y1+dyにおいてhx(x)、hy(y)の累積値が最も大きくなるx1、y1を求めている。これに代わり、x0−d<x1<x0+d、y0−d<y1<y0+dと変化させる過程で式(2)のΣhx(x1+i)、i=0〜tx−1、式(3)のΣhy(y1+j)、j=0〜ty−1が所定のしきい値を超えた場合に式(2)、(3)の計算を中止し、その時のx1もしくはy1を侵入物体位置の修正位置としても良い。この場合、所定のしきい値とは、例えば累積値の最大値255×(dy+2d)(y軸に対しては255×(dx+2d))の30%の値を設定する。この値によって検出される範囲は、差分の最大累積値の30%以上の差分を含む部分となり、これによって式(2)、(3)の計算量を減らすことができる。
以上の方法は、フレーム間差分によって得られた差分をX軸方向、Y軸方向に投影して、投影した差分量に基づいて差分が最大となる領域を求め、侵入者の位置を修正するものである。この方法以外にも、探索範囲内であってテンプレートサイズの領域を、例えば左上から右下へと走査し、領域内に含まれる差分の合計量が最も大きくなる部分を検出して、その部分の位置を侵入物体の位置として修正する方法を用いても良い。またこの方法で、走査中に領域内の差分の合計量が所定の値以上になった場合に走査を中止し、その領域を侵入物体の位置として修正しても良い。
次に、差分量判定ステップ201では、検出した差分が多く存在する領域(x1,y1)−(x1+tx,y1+ty)内の差分の合計値を求め、その値がtx×ty×th×0.1(この値は検出した領域内にしきい値の1割相当の差分が含まれているかを判定するものである)未満であった場合には、差分量が少ない、即ち、検出された領域内の動く物体は侵入物体ではないとして侵入物体検出処理ステップ102へ分岐する。また、その値がtx×ty×th×0.1以上であった場合には差分量が多い、即ち、検出された領域内の動く物体は侵入物体であるとして侵入物体位置修正ステップ115へ分岐する。ここで、この値0.1は検出した領域内にしきい値の、例えば、1割相当の差分が含まれているかを判定するものである。なお、0.1(1割)は、一例であり、実際のシステムの設定状況に応じて任意に設定すればよい。
そして、侵入物体位置修正ステップ115では、検出された位置(x1,y1)を侵入物体の存在する位置(x0,y0)と置きかえる。
なお、カメラ雲台停止判定ステップ109によって、カメラ雲台401cが停止している場合にのみフレーム間差分処理ステップ110から侵入物体位置修正ステップ115が実行されるようになっているが、フレーム間差分法は、異なる時刻に得られた2フレームの入力画像を比較することによって行なわれるため、カメラ雲台401cが動いている間はフレーム間差分を実行することができないためである。
次に、カメラ雲台制御ステップ118は、図5と図8を用いて説明した従来のカメラ雲台制御方法と同様にカメラ雲台を制御する。さらに、第2の警報・モニタ表示ステップ119では、例えば画像モニタ405に追尾中の侵入物体の画像を表示し、警告灯406を点灯させ、監視対象領域内の侵入物体を追尾中であることを意味する報知が行なわれる。または侵入物体を追尾中であることを表す警報を示す画像、文字等を画像モニタ405に表示しても良い。
つまり、この図2の実施例によれば、検出した領域内には動く物体である侵入物体が存在し、テンプレートマッチングを使用した侵入物体追尾方法で、追尾すべき侵入物体以外の画像を多く含んだテンプレートを用いてテンプレートマッチングを続けた場合には、侵入物体を捉えることができずに、テンプレートに入り込んだ背景部分とマッチングしてしまい、追尾対象である侵入物体を追尾している保証ができず、安定な追尾を行なうことができないという問題を解決することができ、確実に動く物体である侵入物体を捉え追尾することができる。以上のような結果、侵入物体追尾処理の性能を向上させることができ、信頼性の高い監視システムが容易に構築できる。
次に、本発明の第2の実施例の動作を、図3により説明する。ここで、この図3は、本発明の第2の実施例における処理プロセスの一例をフローチャートで示したものである。
この図3の処理プロセスは、図2で表される処理プロセスに、図5で示される従来法のテンプレートマッチングを用いた侵入物体追尾方法を組合わせたものであり、差分量判定ステップ113、及び侵入物体停止判定ステップ116以外は、すでに説明しているため、ここでは説明は省略する。ただし、差分量最大位置探索ステップ112については、図2の処理プロセスのステップ112とは若干異なるので、この点は図10を用いて後述する。
この処理プロセスでは、先ずテンプレートマッチングステップ106から第1の侵入物体位置修正ステップ108までの処理で、テンプレートマッチングによって侵入物体の位置を検出する。ただし、検出された侵入物体の位置には、上記従来技術の問題のように侵入物体とテンプレートの位置がずれている可能性があるため、続くカメラ雲台停止判定ステップ109から第2の侵入物体位置修正ステップ115までの処理で侵入物体の位置を正しい位置に補正するようにしている。
ここで、前記第1の実施例での差分量判定ステップ201では、検出した位置の差分量が所定値以下であった場合に侵入物体追尾を中止し、再び侵入物体検出処理ステップ102へ戻る構成になっていたが、図3の実施例での差分量判定処理ステップ113は、差分量が所定値以下であっても侵入物体追尾を続けるようにしている。
ただし、差分量が所定値以下である場合には、侵入物体位置の修正は行なわず、侵入物体停止判定ステップ116へ分岐するようにしている。
次に、侵入物体停止判定ステップ116では、検出した侵入物体の位置が所定時間(例えば10秒)変わらない場合には侵入物体検出処理ステップ102へ分岐し、検出した侵入物体の位置が変わっている場合にはテンプレート更新ステップ117へ分岐する。
上述の本発明の第1の実施例では、フレーム間差分法のみを使って侵入物体の位置を検出している。しかし、フレーム間差分法は、侵入物体の動きが止まった場合には差分が現れなくなってしまうため、すぐさま侵入物体追尾を中止し、新たな侵入物体を探すようになってしまう。そこで、この本発明の第2の実施例では、テンプレートマッチングを使用することで、侵入物体の動きが止まった場合でも所定時間内(上記例では10秒)であれば侵入物体を追尾し続けることができるようにする。
この処理プロセスの流れを図11によって説明する。図11は、本発明の第2の実施例での処理が実行されていく過程の一例を表す図であり、図9で示した撮像視野内で曲線を描く車道を通過する車両を侵入物体として追尾した場合の図である。
なお、図11では、フレーム間差分処理110と差分量最大位置検索112の効果を説明するために、カメラ雲台の制御は行っていない場合の例を示している。カメラ雲台制御処理とフレーム間差分処理の動作タイミングについては後述する。1101、1103、1105、1107は、それぞれ、時刻t1−1、時刻t1、時刻t1+1、時刻t1+2におけるテンプレート画像、1101a、1103a、1105a、1107aは、それぞれ、時刻t1−1、時刻t1、時刻t1+1、時刻t1+2におけるテンプレートを表す。また、1102、1104、1106、1108は、それぞれ、時刻t1、時刻t1+1、時刻t1+2、時刻t1+3における入力画像、1102b、1104b、1106b、1108bは、それぞれ、時刻t1−1、時刻t1、時刻t1+1、時刻t1+2におけるテンプレートの位置(時刻t1−1、時刻t1、時刻t1+1、時刻t1+2における侵入物体の位置)、1102a、1104a、1106a、1108aは、それぞれ、時刻t1、時刻t1+1、時刻t1+2、時刻t1+3においてテンプレートマッチング処理によって検出された侵入物体の位置である。
図11において、時刻t1−1で登録されているテンプレート1101aは、車両のフロント部分がほぼ正面を向いている画像である。時刻t1では、このテンプレート1101aを用いてテンプレートマッチング(テンプレートマッチング処理709)を行ない、侵入物体の移動した位置を検出すると共に、フレーム間差分法(フレーム間差分処理ステップ110から侵入物体補正処理ステップ115)によって侵入物体位置を正確に補正し、更にテンプレート1101aをテンプレート1103aに更新する(テンプレート更新処理710)。
続いて、時刻t1+1ではテンプレート1105aに更新され、時刻t1+2ではテンプレート1107aに更新され、この処理を時刻t1+3まで行なうと、テンプレートは、追尾開始時刻t1において車両のライトなどがあるフロント部分を捉えていた。しかし、時刻t1+3において、図9で示される従来技術では車両の左側にずれて捉えている(テンプレート907a)のに対して、本発明の第2の実施例ではテンプレートは正確に侵入物体を捉えている(テンプレート1107a)。
従って、図11のように、侵入物体が向きを変えるような場面でも、従来のテンプレートマッチングのみを使ったときに生じる侵入物体の向きの変化に伴う侵入物体とテンプレートのずれを解決することができ、正確に侵入物体を追尾することができる。
また、本実施形態によれば、テンプレートマッチングステップ106によって、侵入物体の大まかな位置(範囲)を特定し、この特定された範囲(現在のテンプレートの位置)に基づき探索範囲を設定し、フレーム間差分処理110、及び、差分量最大位置探索112を行っている。従って、本発明の第1の実施例の範囲(上記例ではd=100画素)に比べて例えばd=50画素などのように小さくできるため、フレーム間差分法に関わる計算量を低減することができる。
ここで、第2の実施例における差分量最大位置探索ステップ112の処理の様子を図10に示す。第1の実施例の図15と同様の部分の説明は省略するが、図10(3)に示すように、テンプレートマッチングにより検出された侵入物体位置(現在のテンプレート位置)1003aに対し、X軸、Y軸方向にそれぞれ所定の画素d(例えば、d=50画素)だけ拡大した領域が探索領域1003bとして設定される。
さらに、第2の実施例によれば、TVカメラの撮像視野内に複数の物体が存在した場合に、第1の実施例に比べて侵入物体をより正確に追尾できるという効果もある。この効果を図13(1)、(2)を用いて説明する。図13(1)は、撮像視野内の車両1301aを追尾中に、車両より手前に別の物体1301bが存在する例を示している。物体1301bは、車両1301aよりも手前に存在するため、見かけの大きさ、見かけの速度が車両1301aよりも大きい。このような場合、フレーム間差分処理によって得られる差分は、物体1301bの方が大きくなる。今、前フレームの侵入物体の検出位置を表す範囲を1301cとすると、本発明の第1の実施例によると、フレーム間差分処理の対象となる範囲は、1301dのようになる。この場合、範囲1301dの中に物体1301bが写っており、このような場面で差分量最大位置探索ステップ112を実行すると、得られる差分の累積値が最大となる範囲は、物体1301bの部分になってしまう。
それに対し、第2の実施例によれば、図13(2)に示す様に、まずテンプレートマッチングステップ106によって侵入物体の存在する範囲1302aを大まかに検出し、範囲1302aに基づいてフレーム間差分処理の対象となる範囲1302bを決定する。この例では、範囲1302bの中に物体1301bは写っておらず、差分量最大位置探索ステップ112を実行しても第1の実施例のように得られる差分の累積値が最大となる範囲が物体1301bの部分になってしまうことはなく、正確に車両1301aを捉えることができる。
以上のような結果、侵入物体追尾処理の性能を向上させることができ、信頼性の高い監視システムが容易に構築できる。
ここで、図14(1)−(3)にテンプレートマッチング処理とカメラ雲台制御処理、フレーム間差分を利用した侵入物体位置修正処理の動作タイミングを示す。図14(1)−(3)は、各処理の動作をある時刻t0から時刻t0+12にわたって表示した図である。1401は時間の流れを表す軸であり、テンプレートマッチングの処理サイクルに合わせてt0、t0+1…と目盛を付けてある。図14(1)に示す1402はテンプレートマッチング処理の動作を表し、1402において斜線で図示した時間帯、例えば時間帯1402a、1402bは、テンプレートマッチング処理ステップ106が実際に処理を行なっている時間である。次に、1403はカメラ雲台制御処理ステップ118の動作を表し、図14(2)に示す1403において斜線で図示した時間帯は、カメラ雲台が実際に動作している時間である。
ここで、カメラ雲台が動作している時間帯を順を追って説明する。今、時刻t0の処理フレームにおいて検出された侵入物体の位置がカメラの視野中央から離れている場合、カメラ雲台制御処理ステップ118はカメラ雲台の制御を開始し、さらに時刻t0+1の処理フレームにおいて検出された侵入物体の位置がカメラの視野中央に捉えられた場合、カメラ雲台制御処理ステップ118はカメラの雲台制御を停止させる。すなわち、カメラ雲台の動作時間は時間帯1403aのようになる。同様に、時刻t0+3、時刻t0+4、時刻t0+5の処理フレームにおいて侵入物体の検出位置がカメラの視野中央から離れており、時刻t0+6の処理フレームにおいて侵入物体の検出位置がカメラの視野中央に捉えられた場合、カメラ雲台の動作時間は時間帯1403bのようになる。さらに、時刻t0+9、時刻t0+10の処理フレームにおいて侵入物体の検出位置がカメラの視野中央から離れており、時刻t0+11の処理フレームにおいて侵入物体の検出位置がカメラの視野中央に捉えられた場合、カメラ雲台の動作時間は時間帯1403cのようになる。
次に図14(3)に示す1404はフレーム間差分処理ステップ110によって得られる差分に基づいた侵入物体修正処理(ステップ110−115)の動作を表し、1404において斜線で図示した時間帯は、フレーム間差分処理ステップ110等を実行している時間である。前述の通り、時刻t0+1の処理フレームにおいて、検出した侵入物体の位置はカメラ視野の中央付近に捉えられているため、カメラ雲台の動作は時間帯1403aで停止する。すると次の時刻t0+2の処理フレームでは、カメラ雲台停止判定処理ステップ109において、カメラ雲台の動作が停止していると判定されるため、フレーム間差分が実行される。すなわち、時間帯1404aにおいて、フレーム間差分処理ステップ110が実行され、侵入物体位置の修正が実行される(ステップ112−115)。続く時刻t0+3の処理フレームの時間帯1404bにおいてもフレーム間差分は実行されるが、時刻t0+3の処理フレームで検出された侵入物体の位置はカメラの視野中央から離れており、続くt0+4の処理フレームではフレーム間差分は実行されない。同様に、侵入物体の検出位置がカメラの視野の中央に捉えられた時刻t0+6の処理フレームにおいて、カメラ雲台の動作が停止し(時間帯1403b)、再びカメラ雲台の動作が開始されるまでの時刻t0+7、時刻t0+8、時刻t0+9の処理フレームでは、時間帯1404c、時間帯1404d、時間帯1404eにおいてフレーム間差分処理ステップ110等が実行され、侵入物体の位置が修正される。すなわち、カメラ雲台が動作していないタイミングで、フレーム間差分を利用した侵入物体位置修正処理が動作する。
更に、本発明の第3の実施例の動作を図1(1)、(2)により説明する。図1(1)、(2)は、本発明の第3の実施例における処理プロセスの一例をフローチャートで示した図である。この図1(1)の処理プロセスは、図3で表される処理プロセスに、探索範囲拡大ループ111(ステップ111−114)を追加したものである。なお、これ以外の処理ステップはすでに説明しているため、ここでは説明は省略する。
図1(2)は、探索範囲拡大処理(ステップ111から114までの間の処理)の詳細を示すフローチャートである。
探索範囲拡大ループ(ステップ111−114)は、図10(3)で示されるフレーム間差分による差分画像の投影範囲である探索領域1003bを段階的に(例えば、この例では5段階に)拡大する。本実施例では、1処理フレームにつき、探索範囲拡大処理(ステップ111から114まで)を複数回、例えば、5回繰り返す。上記第2の実施例では、探索範囲dをd=50として実行しているが、本実施例では、探索範囲拡大処理、即ち、探索ステップ111からステップ114までの処理を最初に実行する場合には、探索範囲dの初期値をd=10とする(ステップ111a)。次いで、2回目の探索範囲拡大処理ではステップ114aにおいて、d+10を新たなd(即ちd=20)とし、3回目の探索範囲拡大処理では同様にステップ114aでdを更新してd=30とし、段階的に探索範囲を拡大し、5回目の探索範囲拡大処理でd=50の探索範囲となるようにすることで、探索範囲を段階的に拡大することができる。なお、探索範囲拡大処理はステップ114bにより5回を超えないようにする。
なお、ステップ111から114の間のステップを5回繰り返す間に、差分量判定ステップ113によって所定値以上の差分が検出された場合、探索範囲拡大処理の繰り返しを中断し、侵入物体位置修正ステップ115を実行するように構成している。
第2の実施例では、侵入物体の探索範囲内に複数の動く物体が存在する場合、差分が最も多い(差分量判定ステップ113の判定結果による)部分に侵入物体が存在するものとして無条件に侵入物体の位置を決定してしまう。それに対して、この第3の実施例のように処理プロセスを構成することで、テンプレートマッチングによって検出された侵入物体の位置を基準に、その位置に近く、差分が多く存在する場所を侵入物体の位置として決定できるため、侵入物体の探索範囲内に複数の動く物体が存在する場合でも、正しい侵入物体の位置を検出することができるようになる。この効果を図12によって説明する。
図12は、本発明の第3の実施例における侵入物体位置の検出方法を説明するための図で、ある時刻におけるフレーム間差分を適用した場合の差分画像1201を表している。図12は、侵入物体1202を追尾している途中で別の物体1203が監視視野内に現れた瞬間の画像を表している。矩形1204はテンプレートマッチングステップ106によって検出された侵入物体位置を表している。また、矩形1204a、1204b、1204c、1204d、1204eは、それぞれ、探索範囲を段階的に拡大した場合の各段階での探索範囲である。
この場合において、本発明の第2の実施例によれば、矩形1204eの範囲で差分が最も多い部分を検出するため、侵入物体位置修正ステップ115によって追尾中の侵入物体1202ではなく、差分量の多い別の物体1203の位置に補正してしまう。従って、追尾中の侵入物体1202ではなく、誤った別の物体1203を追尾してしまう。それに対して、本発明の第3の実施例によれば、テンプレートマッチングにより見つけた侵入物体位置1204を、例えば、2回拡大した段階での探索範囲1204bの時点で侵入物体1202を捉えることができる。即ち、最初の探索範囲1204aでは差分が所定値に達しないため、次の拡大された探索範囲1204bで探索を行う。すると、この探索範囲1204bでは差分が所定値に達するため追尾中の正しい侵入物体1202を捉えることができ、該物体1202の正しい位置を検出しそれに修正できる。
なお、本実施例では、探索範囲を表すX軸、Y軸方向それぞれの画素数dを1回目の探索ではd=10、2回目の探索ではd=20と段階的に大きくしているが、探索範囲の設定方法はこれに限らない。即ち、他の探索範囲の設定方法としては、例えば、探索範囲の大きさをテンプレートの大きさに固定し、テンプレートマッチングステップ106で検出した位置1204を基準に、例えば、上方向に10画素移動後の探索範囲で探索し、次に上方向に10画素かつ左方向に10画素移動後の探索範囲で探索し、次に左方向に10画素移動後の探索範囲で探索し、次に下方向に10画素かつ左方向に10画素移動後の探索範囲で探索し、次に下方向に10画素移動後の探索範囲で探索し、次に下方向に10画素かつ右方向に10画素移動後の探索範囲で探索し、次に右方向に10画素移動後の探索範囲で探索し、次に上方向に10画素かつ右方向に10画素移動後の探索範囲で探索し、次に上方向に20画素移動後の探索範囲で探索し、次に上方向に20画素かつ左方向に20画素移動後の探索範囲で探索し、次に左方向に20画素移動後の探索範囲で探索し…、というように螺旋状に探索範囲を移動しながら差分の累積値が最大となる範囲或いは差分の累積値が所定値以上となる範囲を検出するようにしても良い。
従って、侵入物体の探索範囲内に複数の動く物体が存在する場合でも、正しい侵入物体の位置を検出することができるようになるのである。以上のような結果、侵入物体追尾処理の性能を向上させることができ、信頼性の高い監視システムが容易に構築できる。
なお、上記の各実施例では、侵入物体を検出し追跡する場合を例に挙げて説明したが、検出対象としては、種々なものが用いられてもよく、例えば、侵入物体以外の移動物体であっても良い。また、上記の実施例では、本発明を監視システムに適用した例を説明したが「監視」を目的としない単に移動物体を検出して追跡するシステムなどに適用してもよい。その場合にも上記実施例と同様の効果が得られる。
また、本発明においては、第1の実施例に第3実施例の探索範囲拡大処理を適用するようにしても良い。
また、本発明の適用分野としては、必ずしも以上に示したものに限られず、本発明は、種々な分野に適用することが可能なものである。
また、本発明に係る物体追尾装置などにおいて行われる各種の処理としては、例えばプロセッサやメモリ等を備えたハードウエア資源においてプロセッサがROM(Read Only Memory)に格納された制御プログラムを実行することにより制御される構成が用いられてもよく、また、例えば当該処理を実行するための各機能手段が独立したハードウエア回路として構成されてもよい。
また、本発明は上記の制御プログラムを格納したフロッピー(登録商標)ディスクやCD(Compact Disc)−ROMやDVD(Digital Versatile Disk)−ROM等のコンピュータにより読み取り可能な記録媒体や当該プログラム(自体)として把握することもでき、当該制御プログラムを記録媒体からコンピュータに入力してプロセッサに実行させることにより、本発明に係る処理を遂行させることができる。
本発明の一実施例の処理の流れの一例を説明するためのフローチャートである。 本発明の一実施例の処理の流れの一例を説明するためのフローチャートである。 本発明の一実施例の処理の流れの一例を説明するためのフローチャートである。 本発明の一実施例が適用された監視システムの一例を示す構成図である。 従来の侵入物体追尾方法の処理の流れを説明するためのフローチャートである。 差分法による侵入物体検出動作の説明するための図である。 テンプレートマッチングによる侵入物体追跡動作を説明するための図である。 カメラ雲台の制御方法を説明するための図である。 従来の侵入物体追尾方法の課題を説明するための図である。 本発明の一実施例のフレーム間差分法による物体位置の検出方法を説明するための図である。 本発明の一実施例の侵入物体追尾方法の処理の流れの一例を説明するための図である。 本発明の一実施例の侵入物体位置の検出方法を説明するための図である。 本発明の一実施例の効果を説明するための図である。 本発明の一実施例のテンプレートマッチング処理とカメラ雲台制御処理、フレーム間差分を利用した物体位置修正処理の動作タイミングを示す図である。 本発明の一実施例のフレーム間差分法による物体位置の検出方法を説明するための図である。
符号の説明
101:初期化処理ステップ、102:侵入物体検出処理ステップ、102a:画像入力ステップ、102b:差分処理ステップ、102c:二値化処理ステップ、102d:ラベリング処理ステップ、102e:侵入物体存在判定ステップ、103:警報・モニタ表示ステップ、104:テンプレート登録ステップ、105:画像入力ステップ、106:テンプレートマッチングステップ、107:一致度判定ステップ、108:侵入物体位置補正ステップ、109:カメラ雲台停止判定ステップ、110:フレーム間差分処理ステップ、111:探索範囲拡大ループ(開始)、112:差分量最大位置探索ステップ、113:差分量判定ステップ、114:探索範囲拡大ループ(終了)、115:侵入物体位置修正ステップ、116:侵入物体停止判定ステップ、117:テンプレート更新ステップ、118:カメラ雲台制御ステップ、119:警報・モニタ表示ステップ、201:差分量判定ステップ、401:撮像装置、401a:カメラ、401b:ズームレンズ、401c:カメラ雲台、402:処理装置、402a:画像入力部、402b:雲台制御部、402c:レンズ制御部、402d:操作入力部、402e:画像メモリ、402f:MPU、403g:ワークメモリ、402h:外部入出力部、402i:画像出力部、402j:警報出力部、402k:データバス、403:操作手段、403a:ジョイスティック、403b,403c:ボタン、404:外部記憶装置、405:出力モニタ、406:警告灯。

Claims (8)

  1. 撮像装置から得られる画像に基づいて撮像画像中の移動物体を検出し追跡する物体追尾方法において、
    撮像装置から取得した画像から前記移動物体の一部を含むテンプレート画像を作成するテンプレート画像作成ステップと、
    テンプレート画像に基づいてテンプレートマッチングを行い、マッチング位置を移動物体の位置として検出するテンプレートマッチングステップと、
    撮像装置から異なる時刻に取得した2フレーム以上の画像に基づいて、フレーム間での画像の変化領域を検出する変化領域検出ステップと、
    検出された画像の変化領域に基づいて移動物体の位置を検出し、該検出された移動物体の位置をテンプレートマッチングステップにより検出された移動物体の位置に代えて新たな移動物体の位置とする物体位置修正ステップと、
    前記新たな移動物体の位置に対応する撮像装置から取得した画像の部分画像を新たなテンプレート画像とするテンプレート画像更新ステップとを備えることを特徴とする物体追尾方法。
  2. 請求項1記載の物体追尾方法において、
    前記物体位置修正ステップは、検出された画像の変化領域に基づいて最も多い差分或いは所定値以上の差分が検出された領域を移動物体の位置として検出することを特徴とする物体追尾方法。
  3. 請求項1記載の物体追尾方法において、
    前記物体位置修正ステップは、テンプレートマッチングステップにより検出された移動物体の位置に基づき移動物体の位置を検出するための探索範囲を設定し、設定された探索範囲において最も多い差分或いは所定値以上の差分が検出された領域を移動物体の位置として検出することを特徴とする物体追尾方法。
  4. 請求項3記載の物体追尾方法において、
    前記探索範囲を段階的に拡大または移動し、段階的に拡大または移動している間に、所定値以上の差分が検出された場合は、当該差分が検出された領域を移動物体の位置として検出し、それ以上は拡大または移動は行わない、ことを特徴とする物体追尾方法。
  5. 撮像装置から得られる画像に基づいて撮像画像中の移動物体を検出し追跡する物体追尾装置において、
    画像を予め決めた手順で処理する処理部を備え、
    前記処理部は、撮像装置から取得した画像から前記移動物体の一部を含むテンプレート画像を作成し、テンプレート画像に基づいてテンプレートマッチングを行い、マッチング位置を移動物体の位置として検出し、撮像装置から異なる時刻に取得した2フレーム以上の画像に基づいて、フレーム間での画像の変化領域を検出し、検出された画像の変化領域に基づいて移動物体の位置を検出し、該検出された移動物体の位置をテンプレートマッチングにより検出された移動物体の位置に代えて新たな移動物体の位置とし、該新たな移動物体の位置に対応する撮像装置から取得した画像の部分画像を新たなテンプレート画像とすることを特徴とする物体追尾装置。
  6. 請求項5記載の物体追尾装置において、
    前記処理部は、検出された画像の変化領域に基づいて最も多い差分或いは所定値以上の差分が検出された領域を移動物体の位置として検出することを特徴とする物体追尾装置。
  7. 請求項5記載の物体追尾装置において、
    前記処理部は、テンプレートマッチングにより検出された移動物体の位置に基づき移動物体の位置を検出するための探索範囲を設定し、設定された探索範囲において最も多い差分或いは所定値以上の差分が検出された領域を移動物体の位置として検出することを特徴とする物体追尾装置。
  8. 請求項7記載の物体追尾装置において、
    前記探索範囲を段階的に拡大または移動し、段階的に拡大または移動している間に、所定値以上の差分が検出された場合は、当該差分が検出された領域を移動物体の位置として検出し、それ以上は拡大または移動は行わない、ことを特徴とする物体追尾装置。
JP2003422254A 2002-12-19 2003-12-19 物体追尾方法及び物体追尾装置 Expired - Fee Related JP3973623B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003422254A JP3973623B2 (ja) 2002-12-19 2003-12-19 物体追尾方法及び物体追尾装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2002367852 2002-12-19
JP2003422254A JP3973623B2 (ja) 2002-12-19 2003-12-19 物体追尾方法及び物体追尾装置

Publications (3)

Publication Number Publication Date
JP2004213648A JP2004213648A (ja) 2004-07-29
JP2004213648A5 JP2004213648A5 (ja) 2005-05-26
JP3973623B2 true JP3973623B2 (ja) 2007-09-12

Family

ID=32828793

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003422254A Expired - Fee Related JP3973623B2 (ja) 2002-12-19 2003-12-19 物体追尾方法及び物体追尾装置

Country Status (1)

Country Link
JP (1) JP3973623B2 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006267221A (ja) * 2005-03-22 2006-10-05 Fujinon Corp オートフォーカスシステム
JP2006267220A (ja) * 2005-03-22 2006-10-05 Fujinon Corp オートフォーカスシステム
JP2006258943A (ja) * 2005-03-15 2006-09-28 Fujinon Corp オートフォーカスシステム
JP5578816B2 (ja) * 2009-09-02 2014-08-27 キヤノン株式会社 画像処理装置
JP5789937B2 (ja) * 2010-09-14 2015-10-07 株式会社ニコン 画像追尾装置及び撮像装置
JP5461597B2 (ja) * 2012-01-30 2014-04-02 日本電信電話株式会社 移動体追跡方法及びコンピュータプログラム
WO2014061123A1 (ja) * 2012-10-17 2014-04-24 富士通株式会社 画像処理装置、画像処理プログラムおよび画像処理方法
JP6212400B2 (ja) * 2014-01-29 2017-10-11 セコム株式会社 物体検出センサ及びプログラム
JP5990229B2 (ja) * 2014-08-19 2016-09-07 株式会社岩崎電機製作所 位置変化検出装置
US9721350B2 (en) * 2015-06-26 2017-08-01 Getalert Ltd. Methods circuits devices systems and associated computer executable code for video feed processing
CN112184750A (zh) * 2019-06-13 2021-01-05 北京四维图新科技股份有限公司 基于视频图像的对象跟踪方法及装置

Also Published As

Publication number Publication date
JP2004213648A (ja) 2004-07-29

Similar Documents

Publication Publication Date Title
US7596240B2 (en) Object tracking method and object tracking apparatus
KR102126513B1 (ko) 카메라의 포즈를 판단하기 위한 장치 및 방법
KR100676232B1 (ko) 물체추적방법, 물체추적장치 및 물체추적을 행하기 위한 계산기의 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체
JP3768073B2 (ja) 物体追跡方法及び物体追跡装置
US6687386B1 (en) Object tracking method and object tracking apparatus
JP4241742B2 (ja) 自動追尾装置及び自動追尾方法
US7400344B2 (en) Object tracking method and object tracking apparatus
JP3279479B2 (ja) 映像監視方法及び装置
KR101071352B1 (ko) 좌표맵을 이용한 팬틸트줌 카메라 기반의 객체 추적 장치 및 방법
JP3973623B2 (ja) 物体追尾方法及び物体追尾装置
US10083513B2 (en) Information presentation device, stereo camera system, and information presentation method
JP3644668B2 (ja) 画像監視装置
JP2006229322A (ja) 自動追尾制御装置及び自動追尾制御方法、並びにプログラム、自動追尾システム
JP2008009849A (ja) 人物追跡装置
KR20140055159A (ko) Avm 시스템의 장애물 검출 장치 및 방법
JP4578864B2 (ja) 自動追尾装置及び自動追尾方法
JP2016152027A (ja) 画像処理装置、画像処理方法およびプログラム
JP5155110B2 (ja) 監視装置
JP2007274543A (ja) 画像処理装置および方法、プログラム、並びに記録媒体
JP3560326B2 (ja) 物体追跡方法及び物体追跡装置
JP4699056B2 (ja) 自動追尾装置及び自動追尾方法
CN110378183B (zh) 图像解析装置、图像解析方法及记录介质
JP2006311099A (ja) 自動追尾装置及び自動追尾方法
JP4444746B2 (ja) 物体追尾方法及び物体追尾装置
JP3828096B2 (ja) 物体追跡装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040826

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040826

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070305

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070327

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070516

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070612

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070612

R150 Certificate of patent or registration of utility model

Ref document number: 3973623

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100622

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110622

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120622

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130622

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140622

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees