JP3555159B2 - Three-dimensional shape restoration method and apparatus - Google Patents

Three-dimensional shape restoration method and apparatus Download PDF

Info

Publication number
JP3555159B2
JP3555159B2 JP03207794A JP3207794A JP3555159B2 JP 3555159 B2 JP3555159 B2 JP 3555159B2 JP 03207794 A JP03207794 A JP 03207794A JP 3207794 A JP3207794 A JP 3207794A JP 3555159 B2 JP3555159 B2 JP 3555159B2
Authority
JP
Japan
Prior art keywords
camera
estimated value
covariance matrix
motion
distance information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP03207794A
Other languages
Japanese (ja)
Other versions
JPH07244735A (en
Inventor
直哉 太田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP03207794A priority Critical patent/JP3555159B2/en
Publication of JPH07244735A publication Critical patent/JPH07244735A/en
Application granted granted Critical
Publication of JP3555159B2 publication Critical patent/JP3555159B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【産業上の利用分野】
本発明は、環境内の物体までの距離の情報を必要とする場合に、画像を解析して距離の情報を得る3次元形状復元方法および装置に関する。
【0002】
【従来の技術】
環境内を自律的に移動する移動ロボットや、道路環境を自ら理解して走行する自立走行自動車において、テレビカメラで得られた画像をコンピュータで解析し、必要な情報を得る人工視覚システムを持つことが多い。これらのシステムでは、例えば障害物の検知などのために、環境内の物体までの距離の情報が必要とされる。画像を解析して距離の情報を得るための手法には、ステレオ視などと並んで、動画像の持つ移動情報を利用するStructure from Motionと呼ばれる手法がある。
【0003】
動画像からオプティカルフローを検出する技術として、例えば
Ohta N.:“Image Movement Detection with Reliability Indices”,IEICE Trans.,E74,10,pp.3379−3388(Oct.1991)
に示されている手法があり、また、オプティカルフローからカメラの運動パラメータと撮影されている物体までの距離を計算する手法の例として
太田直哉:“信頼性情報を持ったオプティカルフローからの形状復元とその移動物体検出への応用”,電子情報通信学会論文誌,D−II,Vol.J76−D−II,No.8,pp.1562−1571(1993年8月)
で報告されている手法がある。これら2つの手法により、動画像から物体までの距離とカメラの運動パラメータ、およびそれらの値に見積もられる誤差の分散が計算できる。しかし、これらの手法は、動画像のうちの2枚のフレームを用いるものである。カメラから次々と得られる動画像の各フレームから計算される距離情報とカメラの運動を時間的に融合し、より精度の良い結果を得るためにカルマンフィルタを利用する方法が
Matthies L.M.,Kanade T.,Szeliski R.:“Kalman Filter−based Algorithms forEstimating Depth from Image Sequence”,Int.J.Comput.Vision,3,pp.209−236(1989)
によって示された。しかし、この報告では具体例としてカメラの運動が回転を含まない場合のみを議論しており、一般的なカメラの運動に対しては
Heel J.:“Dynamic Motion Vision”,Proc. of Image Understanding Workshop ’89,pp.702−713(1989)
によって示された。
【0004】
【発明が解決しようとする課題】
Heelによって提案された方法は、オプティカルフローと距離情報との関係式を線形化し、拡張カルマンフィルタを適用するものである。しかし、オプティカルフローと距離情報との関係は非線形性が強いので、この方法が正しく動作するためのカメラの運動は制限されたものとなり、また、動作の安定性にも問題があった。一般的なカメラの運動に対して安定な動作を可能にするためには、この問題が持つ非線形性を十分考慮してアルゴリズムを構成する必要がある。
【0005】
本発明の目的は、動画像の各フレームから得られる距離情報とカメラの運動を時間的に融合し、より正確な情報を安定して得ることのできる3次元形状復元方法および装置を提供することにある。
【0006】
【課題を解決するための手段】
本発明は、動画像を構成する一連の画像内の2枚のフレームを用いて画像上の移動情報であるオプティカルフローの推定値とその共分散行列を計算するオプティカルフロー計算手段と、前記オプティカルフローの推定値と共分散行列を用いて撮像されている物体までの距離とカメラの運動の推定値およびそれらの共分散行列を計算する距離情報計算手段と、これら2つの方法を動画像に対して連続的に適用することで得られる多数の物体までの距離とカメラの運動の推定値とそれらの共分散行列を時間的に融合し、物体までの距離とカメラの運動の精度の高い推定値とその共分散行列を計算する距離情報融合手段とを備える3次元形状復元装置において、
前記距離情報融合手段は、前記距離情報計算手段によって計算される物体までの距離の推定値とカメラの運動の推定値の各々に対して独立なカルマンフィルタを構成することを特徴としている。
【0007】
また、本発明は、距離情報計算手段の入力としてオプティカルフローの推定値とその共分散行列に加えて、カメラの並進運動の大きさとそれに含まれるノイズの分散を使用し、計算される物体までの距離の推定値とカメラの運動の推定値に反映する距離情報融合手段を採用することを特徴としている。
【0008】
【作用】
非線形性の強いオプティカルフローと距離情報およびカメラの運動との関係に対して、直接拡張カルマンフィルタを適用すると不安定な動作となる。そこで、距離情報計算手段において問題の持つ非線形性を十分考慮した処理を行い、線形近似が有効となる値を得てからそれらの値に対してカルマンフィルタを適用する。オプティカルフロー計算手段によって動画像からオプティカルフローとそれに見積もられる誤差の共分散行列を計算し、距離情報計算手段によってカメラの運動パラメータと距離情報およびそれらに含まれる誤差の共分散行列を計算する。これらの値は、距離情報融合手段のカルマンフィルタで時間的に融合され、より正確な値となる。距離情報計算手段によって計算される距離情報とカメラの運動パラメータには相関があるので、両者を一括してカルマンフィルタを構成することも考えられるが、状態ベクトルの次元が非常に大きなものとなるため、実際の手法としては現実的ではない。従って、距離情報とカメラの運動パラメータ各々について独立したカルマンフィルタを構成する。なお、距離情報計算手段への入力としてオプティカルフローとは別にカメラの運動速度があるが、これは以下の理由による。オプティカルフローから解析して得られる距離情報は、カメラの並進運動の大きさとの相対的な値のみであり、絶対的な値は知ることができない。距離情報融合手段のカルマンフィルタが正しい動作を行うためには絶対的な値が必要であり、これを得るためには、距離情報計算手段において、カメラの並進運動の絶対値、すなわちカメラの運動速度が速度計などカメラ以外の装置から入力される必要があるからである。しかし、現実的には、カメラの運動はなめらかであることが多く、時間を短時間に限れば、速度が一定であると仮定しても問題がない場合も多い。その場合には、カメラの速度の計測値とそれに含まれるノイズの分散は、適当な値を設定すればよい。
【0009】
【実施例】
次に、本発明の実施例について、図面を参照して説明する。図1は、本発明の3次元形状復元装置の一実施例を示す構成図である。図1に示す3次元形状復元装置は、動画像からオプティカルフローの推定値とそれに見積もられる誤差の共分散行列を計算するオプティカルフロー計算手段10と、オプティカルフローの推定値と共分散行列およびカメラの並進運動の大きさとそれに含まれるノイズの分散を用いて撮像されている物体までの距離情報とカメラの運動パラメータの推定値およびそれらに含まれる誤差の共分散行列を計算する距離情報計算手段20と、距離情報の推定値とカメラの運動パラメータの推定値の各々に対して独立なカルマンフィルタ30,40を構成し、距離情報とカメラの運動パラメータの精度の高い推定値とその共分散行列を計算する距離情報融合手段50とを備えている。
【0010】
まず、図1のオプティカルフロー計算手段10については、オプティカルフローとそれに含まれるノイズの共分散行列を出力する手法ならば、本発明の手法で使用することができる。例えば前記の文献
Ohta N.:“Image Movement Detection with Reliability Indices”,IEICE Trans.,E74,10,pp.3379−3388(Oct.1991)
または
太田直哉:“オプティカルフローからの形状復元とその移動物体検出”,計測自動制御学会,第25回パターン計測部会資料,pp.7−13(1993/11/19)
で報告されている手法が利用できる。この手法は、画像上の点iでそこでの移動ベクトルの推定値u とその推定値の誤差の共分散行列Vui(より正確にはその逆行列Vui −1)を出力する。
【0011】
次に、距離情報計算手段20では、前記の文献
太田直哉:“信頼性情報を持ったオプティカルフローからの形状復元とその移動物体検出への応用”,電子情報通信学会論文誌,D−II,Vol.J76−D−II,No.8,pp.1562−1571(1993年8月)
に述べられている手法が参考になるが、この手法では、カメラの並進運動の大きさを入力する場合については述べられていないので、以下に述べる。
【0012】
撮像系のモデルとして焦点距離1の中心投影系を採用する。カメラが静止環境中を並進速度T,回転速度Rで移動したときに、画像上の点i(位置を(x,y)とする)に生じるオプティカルフローuは次式で表される。
【0013】
【数1】

Figure 0003555159
【0014】
ただし、
【0015】
【数2】
Figure 0003555159
【0016】
上式において、添え字i(=1,・・・,N)は画像上の各々の点に対応する番号、pは画像上の点iでのZ座標値の逆数(インバースデプスと呼ぶ)である。一方、カメラの速度kは次式で与えられる。
【0017】
k=|T|=(T +T +T 1/2 (2)
ここで、距離情報計算手段20の入力となる量であるオプティカルフローとカメラの速度を1つのベクトルy、計算すべき量であるカメラの並進・回転速度とインバースデプスを1つのベクトルθにまとめて表記する。
【0018】
y=[u・・・uk] (3)
θ=[T・・・p
ベクトルyはθの関数y(θ)であり、詳細は式(1)および(2)で与えられる。
【0019】
次に、オプティカルフロー計算手段10によって実際の動画像から計算されるオプティカルフローと速度計などにより計測されるカメラの速度から作られる観測ベクトルyは、真の値yに平均0の多次元ガウスノイズnが加わったものとして確率的なモデル化を行う。
【0020】
=y(θ)+n (4)
ノイズnの共分散行列をVとすると、パラメータθが与えられたときに計測値yが観測される確率P(y|θ)は次式となる。
【0021】
P(y|θ)=(2π)−N/2|V−1/2exp(−J/2) (5)
J=(y−y(θ)) −1(y−y(θ))
計測値yが観測されたときのパラメータθの最ゆう推定値θMLは、式(5)を最大にするθ、すなわちJを最小にするθである。Jの最小化は、最急勾配法などの非線形最適化の手法を用いることができる。また、文献
太田直哉:“信頼性情報を持ったオプティカルフローからの形状復元とその移動物体検出への応用”,電子情報通信学会論文誌,D−II,Vol.J76−D−II,No.8,pp.1562−1571(1993年8月)
の第2.3節に示されている最小化アルゴリズムにおいて、カメラの並進速度の大きさ|T|を1に正規化するステップをカメラの速度の計測値kの大きさにするように変更することで、このアルゴリズムがそのまま適用可能である。
【0022】
次に、推定されたパラメータθMLの誤差の共分散行列の計算法について述べる。関数y(θ)の非線形性により、厳密に共分散行列を計算することは容易ではないので、y(θ)をθML周りでテーラー展開し、1次の項までとることによって線形化する。
【0023】
=y(θML)+(dy/dθ)(θ−θML) (6)
ここで、dy/dθはヤコビ行列である。式(6)をθについて解くと次式となる。
【0024】
θ=(dy/dθ)−1(y−y(θML))+θML (7)
ベクトルyの共分散行列をVとすれば、θの共分散行列V
=(dy/dθ)−1((dy/dθ)−1 (8)
となる。オプティカルフロー検出方法によって得られる分散情報は、共分散行列の逆行列である関係上、実際の計算では、Vの逆行列を用いて計算を行う方が効率的である。そこで、式(8)の逆行列を作り、実際の計算ではこれを用いる。
【0025】
−1 =(dy/dθ) −1(dy/dθ) (9)
一方、距離情報融合手段30において、計算の容易性からカメラの運動パラメータmと各インバースデプスpに関して独立にカルマンフィルタを構成するので、そのためには、式(9)からそれぞれの共分散行列を作り出す必要がある。ここで、運動パラメータmとは
m=[T (10)
である。そこでV −1から対応する部分行列を取り出し、それをそれぞれの変数に対する分散の逆行列として使用する。すなわち、カメラの運動パラメータに関しては、V −1の1行1列から6行6列までの部分行列を運動パラメータの分散の逆行列V −1とし、i番目のインバースデプスに関しては、i+6行i+6列の対角成分を分散の逆数1/σpi とする。この操作は、各変数の分散を他の変数の正しい値が得られた場合の条件付き確率で見積もっていることに相当する。
【0026】
ここで、今まで述べたことをまとめておく。まず、オプティカルフロー計算手段10によって、画像上の各点での移動ベクトルu とその共分散行列の逆行列Vui −1が計算されると共に、速度計などからカメラの移動速度kが得られる。移動速度kにはσ の分散の誤差が含まれているとする。このときu およびkの誤差は独立であると仮定する。これらから観測ベクトルyと共分散行列の逆行列V −1を作り、距離情報計算手段20の入力とする。観測ベクトルyは、式(3)で示した順序に各要素を並べる。行列V −1は、2行2列の行列Vui −1をその対角要素、すなわち2i−1行2i−1列から2i行2i列までの2行2列の部分行列になるように並べ、最後の対角成分2N+1行2N+1列の要素は1/σ とする。残りの部分は0とする。このようにして作られたyとV − 1 を用いて式(5)を最小化し、θMLを計算すると共に、式(9)によりV −1を求める。さらに、式(10)を参考にθMLを分解してmMLとpMLi 、V −1を分解してV −1と1/σpi を得る。V −1と1/σpi の具体的な形は、式(1)および(9)から計算され、次のようになる。
【0027】
【数3】
Figure 0003555159
【0028】
距離情報融合手段30においては、前述のごとくカメラの運動パラメータmと各インバースデプスpに関して独立にカルマンフィルタを構成する。距離情報計算手段20によってθMLとその共分散行列の逆行列V −1が得られているので、理論的にはθを状態ベクトルとしてカルマンフィルタを構成することができる。しかし、このようなカルマンフィルタを構成すると、実際にV −1の逆行列を数値計算により求める必要があり、その大きな次元数のため処理量と安定性の面で問題がある。それを避けるために、θをカメラの運動パラメータmと各インバースデプスpに分解し、それぞれ独立にカルマンフィルタを構成する。
【0029】
最初にカメラの運動パラメータmのカルマンフィルタについて述べる。カメラの並進・回転速度は、微少時間では一定であると考え、状態遷移行列を単位行列とし、システムノイズの共分散行列をQとすると、時間更新アルゴリズムは次のようになる。
【0030】
t+1 =m (12)
mt+1 =Vmt +Q
一方、観測更新アルゴリズムは次式で与えられる。
【0031】
=m +Kmt(m −m ) (13)
mt =(I−Kmt)Vmt
mt=Vmt (Vmt +Vmt −1
これらの式で、ベクトルおよび行列の添字tおよびt+1は時間ステップを、肩の+および−はそれぞれ観測更新値と時間更新値を表す。また、Iは単位行列であり、m およびVmt は時刻tにおける観測値とその分散で、距離情報計算手段20で計算されたmMLとV −1の逆行列を使用する。
【0032】
次に、インバースデプスpのカルマンフィルタを構成する。時刻tに3次元座標がX であった物体上の点は、その時刻のカメラの並進・回転速度がTおよびR とすれば、単位時間後の座標値Xt+1 は次式で与えられる。
【0033】
t+1 =−T −R ×X (14)
=(X
t+1 =(Xt+1 t+1 t+1
上式のZとZt+1 の関係から両時刻のインバースデプスの関係は次のようになる。
【0034】
it+1=pit/(1+Rytit−Rxtit−Tztit) (15)
ここで、上式をpitで微分すると次式となる。
【0035】
dpit+1/dpit=(Tztit)/(1+Rytit−Rxtit−Tztit+1/(1+Rytit−Rxtit−Tztit) (16)
式(15)および(16)より、時間更新アルゴリズムが得られる。
【0036】
it+1 =pit /(1+Rytit−Rxtit−Tztit ) (17)
σpit+1 2−=(dpit+1/dpitσpit 2++Q
yt,Rxt,Tztは、カメラの運動パラメータのカルマンフィルタの推定値mの対応する要素を用いる。また、Q は、インバースデプスに関するシステムノイズである。
【0037】
一方、観測更新アルゴリズムは次のようになる。
【0038】
it =pit +Kpt(pit −pit ) (18)
σpit 2+=(1−Kpt)σpit 2−
pt=σpit 2−/(σpit 2−+σpit 2*
ここで、pit およびσpit 2*は、時刻tに距離情報計算手段20によって計算された値pMLi およびσpi に対応する。さて、以上で物体上に固定された点のインバースデプスに関するカルマンフィルタが構成されたが、その点は、カメラの運動によって画像上を移動する。従って、ある時刻でのインバースデプスpに対応する点は、次の時刻では画像上の異なった位置にあるので、補間によってこれらを関係づける必要があるが、これは次のようにして達成される。式(18)で示される観測更新アルゴリズムを適用する際に、式(13)で計算されるその時刻のカメラの運動パラメータの推定値m から式(1)を用いて推定されるオプティカルフローu を計算する。観測値pit に対応する予測値pit は、単位時間前には画像上で−u だけ離れた位置に存在することになるので、pit の画像を内挿してその位置での値を求め、式(18)内のpit として使用する。この様子を1次元の図として図2に示した。内挿の方法には、最近隣内挿法、共1次内挿法、3次たたみ込み内挿法などがあり、そのいずれも使用することができる。詳細は以下の参考文献に述べられている。
【0039】
高木幹雄,下田陽久 監修:画像解析ハンドブック,東京大学出版会,pp.411−444(1991)
また、予測値pit の位置を単位時間だけ前の運動パラメータの推定値mt−1 から計算する方法もある。これにはmt−1 を式(1)に代入して時刻t−1のオプティカルフローu を推定し、図3に示すようにpit の位置を移動する。移動された位置を標本点として内挿し、観測値pit の位置の値を得る。この方法では、内挿すべき画像の標本点が規則正しい格子上に存在しないので、内挿問題がやや複雑になる。この場合の内挿の1例として以下の方法がある。まず、計算しようとする点に最も近く、かつその点を内部に含むような3つの標本点を決定する。これらの標本点の位置をそれぞれ(x,y),(x,y),(x,y)とし、値をp,p,pとすると、位置(x,y)の点での値pは次式で与えられる。
【0040】
p=(cx+cy+c)/c (19)
=(y−y)p+(y−y)p+(y−y)p
=(x−x)p+(x−x)p+(x−x)p
=(x−x)p+(x−x)p+(x−x)p
=(x−x)y+(x−x)y+(x−x)y
予測値pit と同様に分散σpit 2−の内挿も必要であるが、これも以上述べた方法によって達成される。ただし、分散の場合には平方根を求めて標準偏差に直してから内挿を行い、自乗して分散に戻すという操作を行う。
【0041】
【発明の効果】
本発明によって示された方法および装置を使用することで、動画像の各フレームから得られる距離情報とカメラの運動を時間的に融合し、より正確な情報を安定して得ることができる。
【図面の簡単な説明】
【図1】本発明の3次元形状復元装置の一実施例を示す構成図である。
【図2】インバースデプスの内挿方法を説明する図である。
【図3】インバースデプスの内挿方法を説明する図である。
【符号の説明】
10 オプティカルフロー計算手段
20 距離情報計算手段
30 距離情報融合手段
40 距離情報カルマンフィルタ
50 運動パラメータカルマンフィルタ[0001]
[Industrial applications]
The present invention relates to a method and an apparatus for reconstructing a three-dimensional shape that obtains distance information by analyzing an image when information on a distance to an object in an environment is required.
[0002]
[Prior art]
For mobile robots that move autonomously in the environment or autonomous vehicles that run on their own understanding of the road environment, have an artificial vision system that obtains the necessary information by analyzing images obtained by TV cameras with a computer. There are many. In these systems, information on the distance to an object in the environment is required, for example, for detecting an obstacle. As a technique for analyzing information of an image to obtain distance information, there is a technique called Structure from Motion that uses movement information of a moving image in addition to stereoscopic viewing.
[0003]
As a technique for detecting an optical flow from a moving image, for example, Ohta N.A. : "Image Movement Detection with Reliability Indices", IEICE Trans. , E74,10, pp. 3379-3388 (Oct. 1991)
As an example of a method for calculating the motion parameters of the camera and the distance from the object to be photographed from the optical flow, Naoya Ota: "Shape recovery from optical flow with reliability information And its application to moving object detection, "Transactions of the Institute of Electronics, Information and Communication Engineers, D-II, Vol. J76-D-II, No. 8, pp. 1562-1571 (August 1993)
There is a method reported in With these two methods, the distance from the moving image to the object, the motion parameters of the camera, and the variance of the error estimated for those values can be calculated. However, these methods use two frames of a moving image. A method in which distance information calculated from each frame of a moving image sequentially obtained from a camera and motion of the camera are temporally fused and a Kalman filter is used to obtain a more accurate result is described in Mattheys L. et al. M. , Kanade T .; , Szeliski R .; : "Kalman Filter-based Algorithms for Estimating Depth from Image Image Sequence", Int. J. Comput. Vision, 3, pp. 209-236 (1989)
Indicated by However, this report discusses only a case where the camera motion does not include rotation as a specific example, and Heel J. et al. : "Dynamic Motion Vision", Proc. of Image Understands Working Shop '89, pp. 702-713 (1989)
Indicated by
[0004]
[Problems to be solved by the invention]
The method proposed by Heel linearizes the relational expression between optical flow and distance information and applies an extended Kalman filter. However, since the relationship between the optical flow and the distance information has a strong nonlinearity, the movement of the camera for properly operating this method is limited, and there is also a problem in the stability of the operation. In order to enable a stable operation with respect to general camera motion, it is necessary to configure an algorithm with due consideration of the nonlinearity of this problem.
[0005]
An object of the present invention is to provide a three-dimensional shape restoration method and apparatus capable of temporally fusing distance information obtained from each frame of a moving image with camera motion and stably obtaining more accurate information. It is in.
[0006]
[Means for Solving the Problems]
The present invention provides an optical flow calculation means for calculating an estimated value of an optical flow, which is movement information on an image, and a covariance matrix thereof using two frames in a series of images constituting a moving image, and the optical flow Distance information calculating means for calculating an estimated value of the distance to the object being imaged and the motion of the camera and their covariance matrices using the estimated value and the covariance matrix, and applying these two methods to a moving image By temporally fusing the distance to many objects obtained by continuous application and the estimated value of the camera motion and their covariance matrix, a highly accurate estimated value of the distance to the object and the camera motion is obtained. A three-dimensional shape restoration device comprising: a distance information fusion unit that calculates the covariance matrix;
The distance information fusing means constitutes an independent Kalman filter for each of the estimated value of the distance to the object calculated by the distance information calculating means and the estimated value of the motion of the camera.
[0007]
In addition, the present invention uses the magnitude of the translational motion of the camera and the variance of the noise included in the motion as well as the estimated value of the optical flow and its covariance matrix as inputs to the distance information calculating means, and calculates the distance to the object to be calculated. It is characterized by employing distance information fusion means for reflecting the estimated value of the distance and the estimated value of the motion of the camera.
[0008]
[Action]
Applying the extended Kalman filter directly to the relationship between the optical flow having strong nonlinearity, the distance information, and the motion of the camera results in an unstable operation. Therefore, the distance information calculation means performs a process in which the nonlinearity of the problem is sufficiently taken into consideration, obtains values at which the linear approximation is effective, and then applies a Kalman filter to those values. The optical flow calculation means calculates an optical flow and a covariance matrix of an error estimated therefrom from the moving image, and the distance information calculation means calculates a motion parameter of the camera, distance information, and a covariance matrix of an error included therein. These values are temporally fused by the Kalman filter of the distance information fusion unit, and become more accurate values. Since there is a correlation between the distance information calculated by the distance information calculation means and the motion parameters of the camera, it is conceivable to configure a Kalman filter collectively, but since the dimension of the state vector becomes very large, It is not realistic as an actual method. Therefore, an independent Kalman filter is configured for each of the distance information and the motion parameters of the camera. Note that the input to the distance information calculation means is the motion speed of the camera separately from the optical flow for the following reason. The distance information obtained by analyzing the optical flow is only a value relative to the magnitude of the translational movement of the camera, and an absolute value cannot be known. An absolute value is necessary for the Kalman filter of the distance information fusion means to perform a correct operation, and in order to obtain the absolute value, the absolute value of the translational movement of the camera, that is, the movement speed of the camera, is calculated by the distance information calculation means. This is because it is necessary to input from a device other than the camera such as a speedometer. However, in reality, the movement of the camera is often smooth, and if the time is short, there is often no problem even if the speed is assumed to be constant. In this case, the measured value of the camera speed and the variance of the noise included in the measured value may be set to appropriate values.
[0009]
【Example】
Next, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a configuration diagram showing one embodiment of a three-dimensional shape restoration device of the present invention. The three-dimensional shape restoration apparatus shown in FIG. 1 includes an optical flow calculation unit 10 that calculates an estimated value of an optical flow and a covariance matrix of an error estimated therefrom from a moving image, an estimated value of an optical flow, a covariance matrix, and a camera. Distance information calculating means 20 for calculating distance information to the object being imaged using the magnitude of the translational motion and the variance of the noise contained therein, the estimated values of the motion parameters of the camera, and the covariance matrix of the errors contained therein; Independent Kalman filters 30 and 40 are formed for each of the estimated value of the distance information and the estimated value of the motion parameter of the camera, and the highly accurate estimated value of the distance information and the motion parameter of the camera and its covariance matrix are calculated. And a distance information fusion unit 50.
[0010]
First, the optical flow calculation means 10 of FIG. 1 can be used in the method of the present invention as long as it outputs a covariance matrix of an optical flow and a noise included therein. For example, the above-mentioned document Ohta N. : "Image Movement Detection with Reliability Indices", IEICE Trans. , E74,10, pp. 3379-3388 (Oct. 1991)
Or Naoya Ota: "Shape restoration from optical flow and detection of moving object", Society of Instrument and Control Engineers, 25th Pattern Measurement Subcommittee, pp. 7-13 (November 19, 1993)
You can use the techniques reported in This approach estimates the motion vector there at the point i on the image u i * and covariance matrix V ui of the error in the estimated value (more precisely its inverse matrix V ui -1) to output a.
[0011]
Next, in the distance information calculating means 20, the aforementioned document Naoya Ota: "Shape restoration from optical flow having reliability information and its application to moving object detection", IEICE Transactions, D-II, Vol. J76-D-II, No. 8, pp. 1562-1571 (August 1993)
However, this method does not describe the case of inputting the magnitude of the translational movement of the camera, and will be described below.
[0012]
A central projection system with a focal length of 1 is used as a model of the imaging system. Camera still in the environment translational velocity T, when moving at a speed R, (the position (x i, y i) to) the point i on the image optical flow occurs u i is expressed by the following formula .
[0013]
(Equation 1)
Figure 0003555159
[0014]
However,
[0015]
(Equation 2)
Figure 0003555159
[0016]
In the above equation, the subscript i (= 1,..., N) is a number corresponding to each point on the image, and p i is the reciprocal of the Z coordinate value at the point i on the image (called an inverse depth). It is. On the other hand, the camera speed k is given by the following equation.
[0017]
k = | T | = (T x 2 + T y 2 + T z 2) 1/2 (2)
Here, the optical flow and the speed of the camera, which are the amounts to be input to the distance information calculating means 20, are combined into one vector y, and the translation / rotation speed and the inverse depth of the camera, which are the amounts to be calculated, are combined into one vector θ. write.
[0018]
y = [u 1 v 1 u 2 v 2 ... u N v N k] T (3)
θ = [T x T y T z R x R y R z p 1 p 2 ··· p N] T
The vector y is a function y (θ) of θ, and details are given by equations (1) and (2).
[0019]
Next, an observation vector y * generated from the optical flow calculated from the actual moving image by the optical flow calculation means 10 and the speed of the camera measured by a speedometer or the like is converted into a true value y and a multidimensional Gaussian whose average is 0. Probabilistic modeling is performed assuming that noise n is added.
[0020]
y * = y (θ) + n (4)
Assuming that the covariance matrix of the noise n is V y , the probability P (y * | θ) that the measured value y * is observed when the parameter θ is given is as follows.
[0021]
P (y * | θ) = (2π) -N / 2 | V y | -1/2 exp (-J / 2) (5)
J = (y * −y (θ)) T V y −1 (y * −y (θ))
The maximum likelihood estimation value θ ML of the parameter θ when the measurement value y * is observed is θ that maximizes Expression (5), that is, θ that minimizes J. To minimize J, a non-linear optimization method such as the steepest gradient method can be used. Also, Naoya Ota: "Shape recovery from optical flow with reliability information and its application to moving object detection", IEICE Transactions, D-II, Vol. J76-D-II, No. 8, pp. 1562-1571 (August 1993)
In the minimization algorithm shown in section 2.3 of the above, the step of normalizing the magnitude of the translation speed | T | of the camera to 1 is changed to the magnitude of the measured value k * of the camera speed. By doing so, this algorithm can be applied as it is.
[0022]
Next, a method for calculating the covariance matrix of the error of the estimated parameter θ ML will be described. Since it is not easy to calculate the exact covariance matrix due to the nonlinearity of the function y (θ), y (θ) is tailored around θ ML and linearized by taking the first-order term.
[0023]
y L = y (θ ML) + (dy / dθ) (θ-θ ML) (6)
Here, dy / dθ is a Jacobian matrix. When equation (6) is solved for θ, the following equation is obtained.
[0024]
θ = (dy / dθ) −1 (y L −y (θ ML )) + θ ML (7)
Assuming that the covariance matrix of the vector y L is V y , the covariance matrix V h of θ is V h = (dy / dθ) −1 V y ((dy / dθ) −1 ) T (8)
It becomes. Distributed information obtained by the optical flow detection method, the inverse matrix is related of the covariance matrix, the actual calculation, who performed the calculation using the inverse matrix of V y is efficient. Therefore, an inverse matrix of Expression (8) is created, and this is used in actual calculation.
[0025]
V h −1 = (dy / dθ) T V y −1 (dy / dθ) (9)
On the other hand, in the distance information fusion unit 30, so constituting a Kalman filter from the ease of calculation independently for camera motion parameters m and the inverse depth p i, For this purpose, produce a respective covariance matrix from equation (9) There is a need. Here, the motion parameters m m = [T x T y T z R x R y R z] T (10)
It is. Then, the corresponding sub-matrix is extracted from V h -1 and used as the inverse matrix of the variance for each variable. In other words, regarding the motion parameters of the camera, the sub-matrix from 1 row 1 column to 6 rows 6 columns of V h −1 is defined as the inverse matrix V m −1 of the variance of the motion parameters, and the i-th inverse depth is i + 6 The diagonal component in the row i + 6 is defined as the reciprocal of the variance 1 / σ pi 2 . This operation is equivalent to estimating the variance of each variable by the conditional probability when the correct value of the other variable is obtained.
[0026]
Here is a summary of what we have said so far. First, the optical flow calculating unit 10, the inverse matrix V ui -1 of movement in each point on the image vectors u i * and its covariance matrix is calculated, the moving speed k of the camera etc. speedometer obtained Can be It is assumed that the moving speed k * includes a variance error of σ k 2 . U i * and k * error at this time are assumed to be independent. From these, the observation vector y * and the inverse matrix V y -1 of the covariance matrix are created and input to the distance information calculation means 20. Observation vector y * arranges each element in the order shown by Formula (3). The matrix V y -1 is obtained by transforming the 2-by-2 matrix V ui -1 into a diagonal element thereof, that is, a 2-by-2 sub-matrix from 2i-1 row 2i-1 column to 2i row 2i column. The elements of the last diagonal component 2N + 1 row and 2N + 1 column are 1 / σ k 2 . The remaining part is set to 0. Equation (5) is minimized using y * and V y -1 created in this manner, θ ML is calculated, and V h -1 is obtained by equation (9). Furthermore, to obtain a V m -1 and 1 / sigma pi 2 decomposes m ML and p MLi, the V h -1 to decompose theta ML equation (10) as a reference. The specific forms of V m -1 and 1 / σ pi 2 are calculated from equations (1) and (9) and are as follows.
[0027]
(Equation 3)
Figure 0003555159
[0028]
In the distance information fusion unit 30 constitute a Kalman filter independently for motion parameters m and the inverse depth p i of the camera as described above. Since θML and the inverse matrix V h -1 of its covariance matrix have been obtained by the distance information calculation means 20, a Kalman filter can be theoretically configured using θ as a state vector. However, when such a Kalman filter is configured, it is necessary to actually obtain the inverse matrix of V h -1 by numerical calculation, and there is a problem in terms of processing amount and stability due to the large number of dimensions. To avoid it, decomposing θ to the camera motion parameters m and the inverse depth p i, constitute a Kalman filter independently.
[0029]
First, a Kalman filter of a camera motion parameter m will be described. Translation and rotation speed of the camera is considered to be constant in the short time, the state transition matrix and a unit matrix and the covariance matrix of system noise and Q m, time update algorithm is as follows.
[0030]
m t + 1 - = m t + (12)
V mt + 1 - = V mt + + Q m
On the other hand, the observation update algorithm is given by the following equation.
[0031]
m t + = m t - + K mt (m t * -m t -) (13)
V mt + = (I-K mt) V mt -
K mt = V mt - (V mt - + V mt *) -1
In these equations, the suffixes t and t + 1 of the vector and the matrix denote the time step, and + and-on the shoulder denote the observation update value and the time update value, respectively. Also, I is the identity matrix, m t * and V mt * is an observation value and its dispersion at the time t, using the inverse matrix of the calculated m ML and V m -1 at a distance information calculating unit 20.
[0032]
Next, a Kalman filter with inverse depth p i is configured. The point on the object whose three-dimensional coordinates were Xt * at time t is represented by a coordinate value Xt + 1 * after a unit time if the translation and rotation speeds of the camera at that time are Tt * and Rt *. It is given by the following equation.
[0033]
X t + 1 * = -T t * -R t * × X t * (14)
X t * = (X t Y t Z t) T
Xt + 1 * = ( Xt + 1Yt + 1Zt + 1 ) T
Above formula relationship inverse depth of both time from the relationship between the Z t and Z t + 1 of it is as follows.
[0034]
p it + 1 = p it / (1 + R yt x it -R xt y it -T zt p it) (15)
Here, differentiating the above equation with pit gives the following equation.
[0035]
dp it + 1 / dp it = (T zt p it) / (1 + R yt x it -R xt y it -T zt p it) 2 + 1 / (1 + R yt x it -R xt y it -T zt p it) (16 )
From equations (15) and (16), a time update algorithm is obtained.
[0036]
p it + 1 - = p it + / (1 + R yt x it -R xt y it -T zt p it +) (17)
σ pit + 1 2- = (dp it + 1 / dp it) 2 σ pit 2+ + Q p
R yt, R xt, T zt is using the corresponding elements of the estimated value m t + Kalman filter of the camera motion parameters. In addition, Q p is a system noise on the inverse depth.
[0037]
On the other hand, the observation update algorithm is as follows.
[0038]
p it + = p it - + K pt (p it * -p it -) (18)
σ pit 2+ = (1-K pt ) σ pit 2-
K pt = σ pit 2 − / (σ pit 2− + σ pit 2 * )
Here, p * and sigma pit 2 * corresponds to the distance information calculated by the calculation means 20 the values p MLi and sigma pi 2 at time t. Now, the Kalman filter for the inverse depth of a point fixed on the object has been configured as described above. The point moves on the image by the movement of the camera. Therefore, the point corresponding to the inverse depth p i at a certain time, since the next time in a different position on the image, it is necessary to relate these by interpolation, this is accomplished as follows You. When applying the observation update algorithm represented by equation (18), optical flow estimation using Equation estimate m t + color type parameter of the motion of that time of the camera calculated in (13) (1) Calculate u i + . Observations p it * predicted value corresponding to the p it -, it means that exists at a position apart on the image -u i + only before a unit time, p it - the position image by interpolating the Is obtained and used as pit in the equation (18). This state is shown in FIG. 2 as a one-dimensional figure. As the interpolation method, there are a nearest neighbor interpolation method, a bilinear interpolation method, a tertiary convolution interpolation method, and the like, and any of them can be used. Details are given in the following references.
[0039]
Mikio Takagi, Hirohisa Shimoda Supervision: Image Analysis Handbook, University of Tokyo Press, pp. 411-444 (1991)
Further, the predicted value p it - there is a method of calculating the estimated value of only the previous motion parameter position unit time m t-1 +. It estimates the time t-1 of the optical flow u i + by substituting m t-1 + in formula (1), p it as shown in Figure 3 - to move the position. The moved position is interpolated as a sample point to obtain the value of the position of the observed value pit * . In this method, the interpolation problem is somewhat complicated because the sample points of the image to be interpolated are not on a regular grid. The following method is an example of interpolation in this case. First, three sample points that are closest to the point to be calculated and that include that point are determined. The position of these sampling points each (x a, y a), (x b, y b), (x c, y c) and the value p a, p b, When p c, the position (x, The value p at point y) is given by:
[0040]
p = (c 1 x + c 2 y + c 3 ) / c 4 (19)
c 1 = (y a -y b ) p a + (y a -y c) p b + (y b -y a) p c
c 2 = (x b -x c ) p a + (x c -x a) p b + (x a -x b) p c
c 3 = (x c y b -x b y c) p a + (x a y c -x c y a) p b + (x b y a -x a y b) p c
c 4 = (x b -x c ) y a + (x c -x a) y b + (x a -x b) y c
Predicted value p it - and it is also necessary likewise distributed sigma pit 2-interpolation, which is also achieved by the method described above. However, in the case of variance, an operation is performed in which a square root is obtained and converted to a standard deviation, interpolation is performed, and then squared to return to variance.
[0041]
【The invention's effect】
By using the method and the apparatus shown by the present invention, the distance information obtained from each frame of the moving image and the movement of the camera can be temporally fused, and more accurate information can be stably obtained.
[Brief description of the drawings]
FIG. 1 is a configuration diagram showing one embodiment of a three-dimensional shape restoration device of the present invention.
FIG. 2 is a diagram illustrating an inverse depth interpolation method.
FIG. 3 is a diagram illustrating an inverse depth interpolation method.
[Explanation of symbols]
Reference Signs List 10 optical flow calculation means 20 distance information calculation means 30 distance information fusion means 40 distance information Kalman filter 50 motion parameter Kalman filter

Claims (5)

動画像を構成する一連の画像内の2枚のフレームを用いて画像上の移動情報であるオプティカルフローの推定値とその共分散行列を計算するオプティカルフロー計算手順と、そのオプティカルフローの推定値と共分散行列を用いて撮像されている物体までの距離とカメラの運動の推定値およびそれらの共分散行列を計算する距離情報計算手順と、これら2つの手順を動画像に対して連続的に適用することで得られる多数の物体までの距離の推定値とカメラの運動の推定値に対して独立に構成されたカルマンフィルタを適用して時間的に融合し、物体までの距離とカメラの運動の精度の高い推定値とその共分散行列を計算する距離情報融合手順を含むことを特徴とする3次元形状復元方法。An optical flow calculation procedure for calculating an optical flow that is movement information on an image and a covariance matrix thereof using two frames in a series of images forming a moving image, and an optical flow estimate and Distance information calculation procedure for calculating the distance to the object being imaged and camera motion using the covariance matrix and their covariance matrix, and these two procedures are continuously applied to moving images By applying the independently constructed Kalman filter to the estimated value of the distance to many objects and the estimated value of the camera motion obtained by performing A three-dimensional shape restoring method, which includes a distance information fusion procedure for calculating an estimated value having a high value and a covariance matrix thereof. 請求項1記載の3次元形状復元方法において、オプティカルフローの推定値とその共分散行列に加えて、カメラの並進運動の大きさとそれに含まれるノイズの分散を入力して使用し、計算される物体までの距離の推定値とカメラの運動の推定値に反映することを特徴とする3次元形状復元方法。2. A method according to claim 1, wherein, in addition to the estimated value of the optical flow and its covariance matrix, the magnitude of the translational motion of the camera and the variance of the noise contained therein are input and used to calculate the object. A three-dimensional shape restoration method, which is reflected in an estimated value of the distance to the camera and an estimated value of the motion of the camera. 動画像を構成する一連の画像内の2枚のフレームを用いて画像上の移動情報であるオプティカルフローの推定値とその共分散行列を計算するオプティカルフロー計算手段と、前記オプティカルフローの推定値と共分散行列を用いて撮像されている物体までの距離とカメラの運動の推定値およびそれらの共分散行列を計算する距離情報計算手段と、これら2つの方法を動画像に対して連続的に適用することで得られる多数の物体までの距離とカメラの運動の推定値とそれらの共分散行列を時間的に融合し、物体までの距離とカメラの運動の精度の高い推定値とその共分散行列を計算する距離情報融合手段とを備える3次元形状復元装置において、
前記距離情報融合手段は、前記距離情報計算手段によって計算される物体までの距離の推定値とカメラの運動の推定値の各々に対して独立なカルマンフィルタを構成することを特徴とする3次元形状復元装置。
An optical flow calculation means for calculating an optical flow estimation value, which is movement information on an image, and a covariance matrix thereof using two frames in a series of images constituting a moving image; and the optical flow estimation value, Distance information calculation means for calculating the distance to the object being imaged using the covariance matrix, the estimated value of the motion of the camera, and their covariance matrix, and continuously applying these two methods to moving images Of the distance to many objects and the estimated values of the camera's motion and their covariance matrices in time to obtain a highly accurate estimate of the distance to the object and the motion of the camera and its covariance matrix A three-dimensional shape restoration device comprising:
The three-dimensional shape reconstruction device according to claim 3, wherein the distance information fusion unit constitutes an independent Kalman filter for each of the estimated value of the distance to the object and the estimated value of the motion of the camera calculated by the distance information calculating unit. apparatus.
請求項3記載の3次元形状復元装置において、距離情報計算手段の入力としてオプティカルフローの推定値とその共分散行列に加えて、カメラの並進運動の大きさとそれに含まれるノイズの分散を使用し、計算される物体までの距離の推定値とカメラの運動の推定値に反映する距離情報融合手段を採用することを特徴とする3次元形状復元装置。4. The three-dimensional shape restoration apparatus according to claim 3, wherein the input of the distance information calculating means uses, in addition to the estimated value of the optical flow and its covariance matrix, the magnitude of the translational motion of the camera and the variance of the noise included therein, A three-dimensional shape restoration apparatus characterized by employing distance information fusion means for reflecting an estimated value of a distance to an object to be calculated and an estimated value of a motion of a camera. 動画像からオプティカルフローの推定値とオプティカルフローに見積もられる誤差の共分散行列を計算するオプティカルフロー計算手段と、
前記オプティカルフローの推定値と共分散行列およびカメラの並進運動の大きさとそれに含まれるノイズの分散を用いて撮像されている物体までの距離情報とカメラの運動パラメータの推定値および距離情報とカメラの運動パラメータに含まれる誤差の共分散行列を計算する距離情報計算手段と、
前記距離情報の推定値と共分散行列に対して適用する距離情報カルマンフィルタと、前記カメラの運動パラメータの推定値と共分散行列に対して適用する運動パラメータカルマンフィルタとを備え、距離情報とカメラの運動パラメータの精度の高い推定値と誤差の共分散行列を計算する距離情報融合手段とを備えることを特徴とする3次元形状復元装置。
Optical flow calculation means for calculating an estimated value of the optical flow from the moving image and a covariance matrix of an error estimated for the optical flow,
The estimated value of the optical flow and the covariance matrix and the magnitude of the translational motion of the camera and the variance of the noise included therein are used to estimate the distance information to the object being imaged, the estimated value of the motion parameters of the camera, the distance information, and the camera. Distance information calculating means for calculating a covariance matrix of an error included in the motion parameter,
A distance information Kalman filter to be applied to the estimated value of the distance information and the covariance matrix; and a motion parameter Kalman filter to be applied to the estimated value of the motion parameter of the camera and the covariance matrix. A three-dimensional shape restoration apparatus comprising: a distance information fusion unit that calculates a highly accurate estimated value of a parameter and a covariance matrix of an error.
JP03207794A 1994-03-02 1994-03-02 Three-dimensional shape restoration method and apparatus Expired - Fee Related JP3555159B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP03207794A JP3555159B2 (en) 1994-03-02 1994-03-02 Three-dimensional shape restoration method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP03207794A JP3555159B2 (en) 1994-03-02 1994-03-02 Three-dimensional shape restoration method and apparatus

Publications (2)

Publication Number Publication Date
JPH07244735A JPH07244735A (en) 1995-09-19
JP3555159B2 true JP3555159B2 (en) 2004-08-18

Family

ID=12348825

Family Applications (1)

Application Number Title Priority Date Filing Date
JP03207794A Expired - Fee Related JP3555159B2 (en) 1994-03-02 1994-03-02 Three-dimensional shape restoration method and apparatus

Country Status (1)

Country Link
JP (1) JP3555159B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2749419B1 (en) * 1996-05-31 1998-08-28 Sagem METHOD AND DEVICE FOR IDENTIFYING AND LOCATING FIXED OBJECTS ALONG A ROUTE
US6038074A (en) * 1997-05-20 2000-03-14 Ricoh Company, Ltd. Three-dimensional measuring apparatus and method, image pickup apparatus, and apparatus and method for inputting image
JP5148669B2 (en) * 2000-05-26 2013-02-20 本田技研工業株式会社 Position detection apparatus, position detection method, and position detection program
JP4672175B2 (en) * 2000-05-26 2011-04-20 本田技研工業株式会社 Position detection apparatus, position detection method, and position detection program
JP4934806B2 (en) * 2006-05-26 2012-05-23 国立大学法人 東京大学 Method and apparatus for estimating link length parameter of link mechanism model using motion capture
CA2870175C (en) 2012-06-08 2017-01-03 Irobot Corporation Carpet drift estimation using differential sensors or visual measurements

Also Published As

Publication number Publication date
JPH07244735A (en) 1995-09-19

Similar Documents

Publication Publication Date Title
US10755428B2 (en) Apparatuses and methods for machine vision system including creation of a point cloud model and/or three dimensional model
Haußecker et al. Motion
US5777690A (en) Device and method for detection of moving obstacles
US6307959B1 (en) Method and apparatus for estimating scene structure and ego-motion from multiple images of a scene using correlation
EP2352128B1 (en) Mobile body detection method and mobile body detection apparatus
Bergman et al. Deep adaptive lidar: End-to-end optimization of sampling and depth completion at low sampling rates
Zhang et al. Fast, robust, and consistent camera motion estimation
Hajder et al. Relative planar motion for vehicle-mounted cameras from a single affine correspondence
Senst et al. Robust local optical flow: Long-range motions and varying illuminations
JP3555159B2 (en) Three-dimensional shape restoration method and apparatus
Saxena et al. Simultaneous localization and mapping: Through the lens of nonlinear optimization
KR101791166B1 (en) Apparatus and Method for Estimation of Spatial information of an object
Gedik et al. RGBD data based pose estimation: Why sensor fusion?
Weng et al. Transitory image sequences, asymptotic properties, and estimation of motion and structure
JPH08194822A (en) Moving object detecting device and its method
KR101776638B1 (en) Apparatus and Method for Estimation of Spatial information of multiple objects
JP2988933B1 (en) Head movement measurement device
JPH08129025A (en) Three-dimensional image processing flow velocity measuring method
Xu et al. Visual-inertial odometry using iterated cubature Kalman filter
Saeed et al. Real time, dynamic target tracking using image motion
Winkens et al. Optical truck tracking for autonomous platooning
JP5874996B2 (en) Object motion estimation apparatus, object motion estimation method, and program
JP2883111B2 (en) Multiple motion vector detection method
Tagawa et al. Direct 3-d shape recovery from image sequence based on multi-scale bayesian network
Dalmia et al. Real-time implementation of structure estimation using image streams

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040420

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040503

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090521

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100521

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110521

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110521

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120521

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120521

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130521

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees