JPH07244735A - Method and device for three-dimensional shape restoration - Google Patents

Method and device for three-dimensional shape restoration

Info

Publication number
JPH07244735A
JPH07244735A JP6032077A JP3207794A JPH07244735A JP H07244735 A JPH07244735 A JP H07244735A JP 6032077 A JP6032077 A JP 6032077A JP 3207794 A JP3207794 A JP 3207794A JP H07244735 A JPH07244735 A JP H07244735A
Authority
JP
Japan
Prior art keywords
camera
estimated value
covariance matrix
motion
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP6032077A
Other languages
Japanese (ja)
Other versions
JP3555159B2 (en
Inventor
Naoya Ota
直哉 太田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GIJUTSU KENKYU KUMIAI SHINJIYO
GIJUTSU KENKYU KUMIAI SHINJIYOUHOU SHIYORI KAIHATSU KIKO
NEC Corp
Original Assignee
GIJUTSU KENKYU KUMIAI SHINJIYO
GIJUTSU KENKYU KUMIAI SHINJIYOUHOU SHIYORI KAIHATSU KIKO
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GIJUTSU KENKYU KUMIAI SHINJIYO, GIJUTSU KENKYU KUMIAI SHINJIYOUHOU SHIYORI KAIHATSU KIKO, NEC Corp filed Critical GIJUTSU KENKYU KUMIAI SHINJIYO
Priority to JP03207794A priority Critical patent/JP3555159B2/en
Publication of JPH07244735A publication Critical patent/JPH07244735A/en
Application granted granted Critical
Publication of JP3555159B2 publication Critical patent/JP3555159B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

PURPOSE:To stably obtain more accurate information by merging distance information, obtained from respective frames of a motion picture, with the motion of a camera with time. CONSTITUTION:The three-dimensional shape restoration device, composed of an optical flow calculation means 10, a distance information calculation means 20, and a distance information merging means 30, is equipped with a distance information merging means 30 using Kalman filters 40 and 50 which are independent of an estimated value of the distance to a body calculated by the distance information calculation means 20 and an estimated value of the motion of the camera.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、環境内の物体までの距
離の情報を必要とする場合に、画像を解析して距離の情
報を得る3次元形状復元方法および装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a three-dimensional shape restoration method and apparatus for analyzing an image to obtain distance information when information on the distance to an object in the environment is required.

【0002】[0002]

【従来の技術】環境内を自律的に移動する移動ロボット
や、道路環境を自ら理解して走行する自立走行自動車に
おいて、テレビカメラで得られた画像をコンピュータで
解析し、必要な情報を得る人工視覚システムを持つこと
が多い。これらのシステムでは、例えば障害物の検知な
どのために、環境内の物体までの距離の情報が必要とさ
れる。画像を解析して距離の情報を得るための手法に
は、ステレオ視などと並んで、動画像の持つ移動情報を
利用するStructure from Motion
と呼ばれる手法がある。
2. Description of the Related Art In a mobile robot that autonomously moves in an environment or an autonomous vehicle that travels by understanding the road environment, an image obtained by a TV camera is analyzed by a computer to obtain necessary information. Often has a visual system. In these systems, information on the distance to an object in the environment is required for detecting obstacles, for example. A method for analyzing images to obtain distance information is Structure from Motion, which uses movement information of moving images, as well as stereoscopic vision.
There is a method called.

【0003】動画像からオプティカルフローを検出する
技術として、例えば Ohta N.:“Image Movement D
etection with Reliability
Indices”,IEICE Trans.,E7
4,10,pp.3379−3388(Oct.199
1) に示されている手法があり、また、オプティカルフロー
からカメラの運動パラメータと撮影されている物体まで
の距離を計算する手法の例として 太田直哉:“信頼性情報を持ったオプティカルフローか
らの形状復元とその移動物体検出への応用”,電子情報
通信学会論文誌,D−II,Vol.J76−D−II,N
o.8,pp.1562−1571(1993年8月) で報告されている手法がある。これら2つの手法によ
り、動画像から物体までの距離とカメラの運動パラメー
タ、およびそれらの値に見積もられる誤差の分散が計算
できる。しかし、これらの手法は、動画像のうちの2枚
のフレームを用いるものである。カメラから次々と得ら
れる動画像の各フレームから計算される距離情報とカメ
ラの運動を時間的に融合し、より精度の良い結果を得る
ためにカルマンフィルタを利用する方法が Matthies L.M.,Kanade T.,S
zeliski R.:“Kalman Filter
−based Algorithms forEsti
mating Depth from Image S
equence”,Int.J.Comput.Vis
ion,3,pp.209−236(1989) によって示された。しかし、この報告では具体例として
カメラの運動が回転を含まない場合のみを議論してお
り、一般的なカメラの運動に対しては Heel J.:“Dynamic Motion V
ision”,Proc. of Image Und
erstanding Workshop ’89,p
p.702−713(1989) によって示された。
As a technique for detecting an optical flow from a moving image, for example, Ohta N. et al. : "Image Movement D
inspection with Reliability
Indices ", IEICE Trans., E7
4, 10, pp. 3379-3388 (Oct. 199)
1), and as an example of the method to calculate the motion parameters of the camera from the optical flow and the distance to the object being photographed Naoya Ota: “From the optical flow with reliability information Shape Restoration and Its Application to Moving Object Detection ", IEICE Transactions, D-II, Vol. J76-D-II, N
o. 8, pp. 1562-1571 (August 1993). With these two methods, it is possible to calculate the distance from the moving image to the object, the motion parameters of the camera, and the variance of the estimated errors in these values. However, these methods use two frames of the moving image. A method in which distance information calculated from each frame of a moving image sequentially obtained from a camera and the motion of the camera are temporally fused and a Kalman filter is used to obtain a more accurate result is described in Matthies L. et al. M. , Kanade T .; , S
zeliski R. : "Kalman Filter
-Based Algorithms for Esti
mating Depth from Image S
"equence", Int. J. Comput. Vis
ion, 3, pp. 209-236 (1989). However, in this report, as a specific example, only the case where the motion of the camera does not include rotation is discussed, and for the general motion of the camera, Heel J. et al. : "Dynamic Motion V
Ision ”, Proc. of Image Und
erstanding Workshop '89, p
p. 702-713 (1989).

【0004】[0004]

【発明が解決しようとする課題】Heelによって提案
された方法は、オプティカルフローと距離情報との関係
式を線形化し、拡張カルマンフィルタを適用するもので
ある。しかし、オプティカルフローと距離情報との関係
は非線形性が強いので、この方法が正しく動作するため
のカメラの運動は制限されたものとなり、また、動作の
安定性にも問題があった。一般的なカメラの運動に対し
て安定な動作を可能にするためには、この問題が持つ非
線形性を十分考慮してアルゴリズムを構成する必要があ
る。
The method proposed by Heel is to linearize the relational expression between optical flow and distance information and apply an extended Kalman filter. However, since the relationship between the optical flow and the distance information has a strong non-linearity, the movement of the camera for the correct operation of this method is limited, and there is a problem in the stability of the operation. In order to enable stable motion with respect to general camera movement, it is necessary to construct an algorithm with due consideration of the nonlinearity of this problem.

【0005】本発明の目的は、動画像の各フレームから
得られる距離情報とカメラの運動を時間的に融合し、よ
り正確な情報を安定して得ることのできる3次元形状復
元方法および装置を提供することにある。
An object of the present invention is to provide a three-dimensional shape restoration method and apparatus which can temporally fuse the distance information obtained from each frame of a moving image and the motion of the camera to stably obtain more accurate information. To provide.

【0006】[0006]

【課題を解決するための手段】本発明は、動画像を構成
する一連の画像内の2枚のフレームを用いて画像上の移
動情報であるオプティカルフローの推定値とその共分散
行列を計算するオプティカルフロー計算手段と、前記オ
プティカルフローの推定値と共分散行列を用いて撮像さ
れている物体までの距離とカメラの運動の推定値および
それらの共分散行列を計算する距離情報計算手段と、こ
れら2つの方法を動画像に対して連続的に適用すること
で得られる多数の物体までの距離とカメラの運動の推定
値とそれらの共分散行列を時間的に融合し、物体までの
距離とカメラの運動の精度の高い推定値とその共分散行
列を計算する距離情報融合手段とを備える3次元形状復
元装置において、前記距離情報融合手段は、前記距離情
報計算手段によって計算される物体までの距離の推定値
とカメラの運動の推定値の各々に対して独立なカルマン
フィルタを構成することを特徴としている。
According to the present invention, an estimated value of optical flow, which is movement information on an image, and its covariance matrix are calculated using two frames in a series of images forming a moving image. Optical flow calculation means, distance information calculation means for calculating the distance to the object being imaged using the estimated value and the covariance matrix of the optical flow and the estimated value of the motion of the camera and their covariance matrix, and The distance to a large number of objects obtained by continuously applying the two methods to a moving image, the motion estimation values of the camera, and their covariance matrices are temporally fused to obtain the distance to the object and the camera. In the three-dimensional shape restoration device including the highly accurate estimated value of the motion of the motion vector and the distance information fusing means for calculating the covariance matrix thereof, the distance information fusing means is configured by the distance information fusing means. It is characterized in that it constitutes an independent Kalman filter for each of the estimated value and the estimated value of the camera movement distance to the object to be calculated.

【0007】また、本発明は、距離情報計算手段の入力
としてオプティカルフローの推定値とその共分散行列に
加えて、カメラの並進運動の大きさとそれに含まれるノ
イズの分散を使用し、計算される物体までの距離の推定
値とカメラの運動の推定値に反映する距離情報融合手段
を採用することを特徴としている。
Further, according to the present invention, in addition to the estimated value of the optical flow and its covariance matrix as the input of the distance information calculation means, the magnitude of the translational motion of the camera and the variance of the noise contained therein are used for the calculation. It is characterized in that the distance information fusion means that reflects the estimated value of the distance to the object and the estimated value of the motion of the camera is adopted.

【0008】[0008]

【作用】非線形性の強いオプティカルフローと距離情報
およびカメラの運動との関係に対して、直接拡張カルマ
ンフィルタを適用すると不安定な動作となる。そこで、
距離情報計算手段において問題の持つ非線形性を十分考
慮した処理を行い、線形近似が有効となる値を得てから
それらの値に対してカルマンフィルタを適用する。オプ
ティカルフロー計算手段によって動画像からオプティカ
ルフローとそれに見積もられる誤差の共分散行列を計算
し、距離情報計算手段によってカメラの運動パラメータ
と距離情報およびそれらに含まれる誤差の共分散行列を
計算する。これらの値は、距離情報融合手段のカルマン
フィルタで時間的に融合され、より正確な値となる。距
離情報計算手段によって計算される距離情報とカメラの
運動パラメータには相関があるので、両者を一括してカ
ルマンフィルタを構成することも考えられるが、状態ベ
クトルの次元が非常に大きなものとなるため、実際の手
法としては現実的ではない。従って、距離情報とカメラ
の運動パラメータ各々について独立したカルマンフィル
タを構成する。なお、距離情報計算手段への入力として
オプティカルフローとは別にカメラの運動速度がある
が、これは以下の理由による。オプティカルフローから
解析して得られる距離情報は、カメラの並進運動の大き
さとの相対的な値のみであり、絶対的な値は知ることが
できない。距離情報融合手段のカルマンフィルタが正し
い動作を行うためには絶対的な値が必要であり、これを
得るためには、距離情報計算手段において、カメラの並
進運動の絶対値、すなわちカメラの運動速度が速度計な
どカメラ以外の装置から入力される必要があるからであ
る。しかし、現実的には、カメラの運動はなめらかであ
ることが多く、時間を短時間に限れば、速度が一定であ
ると仮定しても問題がない場合も多い。その場合には、
カメラの速度の計測値とそれに含まれるノイズの分散
は、適当な値を設定すればよい。
If the extended Kalman filter is directly applied to the relationship between the optical flow having strong nonlinearity and the distance information and the motion of the camera, the operation becomes unstable. Therefore,
The distance information calculation means performs a process that sufficiently considers the non-linearity of the problem, obtains values for which the linear approximation is valid, and then applies the Kalman filter to those values. The optical flow calculation means calculates the covariance matrix of the optical flow and the error estimated for it from the moving image, and the distance information calculation means calculates the motion parameter and distance information of the camera and the error covariance matrix contained therein. These values are temporally fused by the Kalman filter of the distance information fusion means and become more accurate values. Since there is a correlation between the distance information calculated by the distance information calculation means and the motion parameter of the camera, it is possible to construct a Kalman filter by combining them, but since the dimension of the state vector is very large, It is not realistic as an actual method. Therefore, an independent Kalman filter is configured for each of the distance information and the motion parameter of the camera. It should be noted that the motion speed of the camera is provided as an input to the distance information calculation means in addition to the optical flow, for the following reason. The distance information obtained by analyzing the optical flow is only a value relative to the magnitude of the translational motion of the camera, and an absolute value cannot be known. An absolute value is necessary for the Kalman filter of the distance information fusion means to perform a correct operation, and in order to obtain this, the absolute value of the translational movement of the camera, that is, the movement speed of the camera, is obtained in the distance information calculation means. This is because it is necessary to input from a device other than the camera such as a speedometer. However, in reality, the movement of the camera is often smooth, and if the time is limited to a short time, there is often no problem even assuming that the speed is constant. In that case,
An appropriate value may be set for the measured value of the speed of the camera and the variance of the noise contained therein.

【0009】[0009]

【実施例】次に、本発明の実施例について、図面を参照
して説明する。図1は、本発明の3次元形状復元装置の
一実施例を示す構成図である。図1に示す3次元形状復
元装置は、動画像からオプティカルフローの推定値とそ
れに見積もられる誤差の共分散行列を計算するオプティ
カルフロー計算手段10と、オプティカルフローの推定
値と共分散行列およびカメラの並進運動の大きさとそれ
に含まれるノイズの分散を用いて撮像されている物体ま
での距離情報とカメラの運動パラメータの推定値および
それらに含まれる誤差の共分散行列を計算する距離情報
計算手段20と、距離情報の推定値とカメラの運動パラ
メータの推定値の各々に対して独立なカルマンフィルタ
30,40を構成し、距離情報とカメラの運動パラメー
タの精度の高い推定値とその共分散行列を計算する距離
情報融合手段50とを備えている。
Embodiments of the present invention will now be described with reference to the drawings. FIG. 1 is a block diagram showing an embodiment of a three-dimensional shape restoration device of the present invention. The three-dimensional shape restoration apparatus shown in FIG. 1 includes an optical flow calculation unit 10 for calculating an estimated value of an optical flow and a covariance matrix of an error estimated from the estimated value of an optical flow from a moving image, an estimated value of the optical flow, a covariance matrix, and a camera. Distance information calculating means 20 for calculating the distance information to the object being imaged, the estimated value of the motion parameter of the camera, and the covariance matrix of the error included in them, using the magnitude of the translational motion and the variance of the noise contained therein. , Constructing independent Kalman filters 30 and 40 for each of the estimated value of the distance information and the estimated value of the motion parameter of the camera, and calculating the highly accurate estimated value of the distance information and the motion parameter of the camera and its covariance matrix. The distance information fusion means 50 is provided.

【0010】まず、図1のオプティカルフロー計算手段
10については、オプティカルフローとそれに含まれる
ノイズの共分散行列を出力する手法ならば、本発明の手
法で使用することができる。例えば前記の文献 Ohta N.:“Image Movement D
etection with Reliability
Indices”,IEICE Trans.,E7
4,10,pp.3379−3388(Oct.199
1) または 太田直哉:“オプティカルフローからの形状復元とその
移動物体検出”,計測自動制御学会,第25回パターン
計測部会資料,pp.7−13(1993/11/1
9) で報告されている手法が利用できる。この手法は、画像
上の点iでそこでの移動ベクトルの推定値ui * とその
推定値の誤差の共分散行列Vui(より正確にはその逆行
列Vui -1)を出力する。
First, the optical flow calculating means 10 of FIG. 1 can be used in the method of the present invention as long as it is a method of outputting the covariance matrix of the optical flow and the noise contained therein. For example, the above mentioned document Ohta N. et al. : "Image Movement D
inspection with Reliability
Indices ", IEICE Trans., E7
4, 10, pp. 3379-3388 (Oct. 199)
1) Or Naoya Ota: “Shape restoration from optical flow and its moving object detection”, Society of Instrument and Control Engineers, 25th Pattern Measurement Subcommittee, pp. 7-13 (1993/11/1
The method reported in 9) can be used. This method outputs the estimated value u i * of the movement vector at the point i on the image and the covariance matrix V ui of the error of the estimated value (more accurately, its inverse matrix V ui −1 ).

【0011】次に、距離情報計算手段20では、前記の
文献 太田直哉:“信頼性情報を持ったオプティカルフローか
らの形状復元とその移動物体検出への応用”,電子情報
通信学会論文誌,D−II,Vol.J76−D−II,N
o.8,pp.1562−1571(1993年8月) に述べられている手法が参考になるが、この手法では、
カメラの並進運動の大きさを入力する場合については述
べられていないので、以下に述べる。
Next, in the distance information calculation means 20, the above-mentioned document Naoya Ota: “Shape restoration from optical flow having reliability information and its application to moving object detection”, IEICE Transactions, D -II, Vol. J76-D-II, N
o. 8, pp. The method described in 1562-1571 (August 1993) is helpful, but in this method,
The case of inputting the magnitude of the translational motion of the camera is not described, and will be described below.

【0012】撮像系のモデルとして焦点距離1の中心投
影系を採用する。カメラが静止環境中を並進速度T,回
転速度Rで移動したときに、画像上の点i(位置を(x
i ,yi )とする)に生じるオプティカルフローui
次式で表される。
A central projection system with a focal length of 1 is adopted as a model of the image pickup system. When the camera moves in the stationary environment at a translational speed T and a rotational speed R, the point i (position (x
i , y i )) generated optical flow u i is expressed by the following equation.

【0013】[0013]

【数1】 [Equation 1]

【0014】ただし、However,

【0015】[0015]

【数2】 [Equation 2]

【0016】上式において、添え字i(=1,・・・,
N)は画像上の各々の点に対応する番号、pi は画像上
の点iでのZ座標値の逆数(インバースデプスと呼ぶ)
である。一方、カメラの速度kは次式で与えられる。
In the above equation, the subscript i (= 1, ...,
N) is the number corresponding to each point on the image, and p i is the reciprocal of the Z coordinate value at the point i on the image (called inverse depth).
Is. On the other hand, the speed k of the camera is given by the following equation.

【0017】 k=|T|=(Tx 2 +Ty 2 +Tz 2 1/2 (2) ここで、距離情報計算手段20の入力となる量であるオ
プティカルフローとカメラの速度を1つのベクトルy、
計算すべき量であるカメラの並進・回転速度とインバー
スデプスを1つのベクトルθにまとめて表記する。
K = | T | = (T x 2 + T y 2 + T z 2 ) 1/2 (2) Here, the optical flow, which is an amount to be input to the distance information calculation means 20, and the speed of the camera are set to one. Vector y,
The translation / rotation speed of the camera and the inverse depth, which are the amounts to be calculated, are collectively shown in one vector θ.

【0018】 y=[u1 1 2 2 ・・・uN N k]T (3) θ=[Tx y z x y z 1 2 ・・・pN T ベクトルyはθの関数y(θ)であり、詳細は式(1)
および(2)で与えられる。
Y = [u 1 v 1 u 2 v 2 ... u N v N k] T (3) θ = [T x T y T z R x R y R z p 1 p 2 ... p N ] T vector y is a function y (θ) of θ, and details are given by equation (1).
And given in (2).

【0019】次に、オプティカルフロー計算手段10に
よって実際の動画像から計算されるオプティカルフロー
と速度計などにより計測されるカメラの速度から作られ
る観測ベクトルy* は、真の値yに平均0の多次元ガウ
スノイズnが加わったものとして確率的なモデル化を行
う。
Next, the observation vector y * made from the optical flow calculated from the actual moving image by the optical flow calculation means 10 and the camera speed measured by a speedometer etc. has a true value y of 0 on average. Probabilistic modeling is performed assuming that multidimensional Gaussian noise n is added.

【0020】 y* =y(θ)+n (4) ノイズnの共分散行列をVy とすると、パラメータθが
与えられたときに計測値y* が観測される確率P(y*
|θ)は次式となる。
Y * = y (θ) + n (4) When the covariance matrix of the noise n is V y , the probability P (y *) of observing the measured value y * when the parameter θ is given .
| Θ) is given by the following equation.

【0021】 P(y* |θ)=(2π)-N/2|Vy -1/2exp(−J/2) (5) J=(y* −y(θ))T y -1(y* −y(θ)) 計測値y* が観測されたときのパラメータθの最ゆう推
定値θMLは、式(5)を最大にするθ、すなわちJを最
小にするθである。Jの最小化は、最急勾配法などの非
線形最適化の手法を用いることができる。また、文献 太田直哉:“信頼性情報を持ったオプティカルフローか
らの形状復元とその移動物体検出への応用”,電子情報
通信学会論文誌,D−II,Vol.J76−D−II,N
o.8,pp.1562−1571(1993年8月) の第2.3節に示されている最小化アルゴリズムにおい
て、カメラの並進速度の大きさ|T|を1に正規化する
ステップをカメラの速度の計測値k* の大きさにするよ
うに変更することで、このアルゴリズムがそのまま適用
可能である。
P (y * | θ) = (2π) −N / 2 | V y | −1/2 exp (−J / 2) (5) J = (y * −y (θ)) T V y −1 (y * −y (θ)) The maximum likelihood estimation value θ ML of the parameter θ when the measured value y * is observed is θ that maximizes Equation (5), that is, θ that minimizes J. is there. For the minimization of J, a nonlinear optimization method such as the steepest gradient method can be used. Also, reference: Naoya Ota: “Shape restoration from optical flow with reliability information and its application to moving object detection”, IEICE Transactions, D-II, Vol. J76-D-II, N
o. 8, pp. 1562-1571 (August 1993), in the minimization algorithm shown in Section 2.3, the step of normalizing the magnitude of the translational velocity | T | This algorithm can be applied as it is by changing to the size of * .

【0022】次に、推定されたパラメータθMLの誤差の
共分散行列の計算法について述べる。関数y(θ)の非
線形性により、厳密に共分散行列を計算することは容易
ではないので、y(θ)をθML周りでテーラー展開し、
1次の項までとることによって線形化する。
Next, the method of calculating the covariance matrix of the error of the estimated parameter θ ML will be described. Due to the non-linearity of the function y (θ), it is not easy to calculate the covariance matrix exactly, so y (θ) is expanded by Taylor around θ ML ,
Linearize by taking up to the first order term.

【0023】 yL =y(θML)+(dy/dθ)(θ−θML) (6) ここで、dy/dθはヤコビ行列である。式(6)をθ
について解くと次式となる。
Y L = y (θ ML ) + (dy / dθ) (θ−θ ML ) (6) where dy / dθ is the Jacobian matrix. Equation (6) is θ
Solving for

【0024】 θ=(dy/dθ)-1(yL −y(θML))+θML (7) ベクトルyL の共分散行列をVy とすれば、θの共分散
行列Vh は Vh =(dy/dθ)-1y ((dy/dθ)-1T (8) となる。オプティカルフロー検出方法によって得られる
分散情報は、共分散行列の逆行列である関係上、実際の
計算では、Vy の逆行列を用いて計算を行う方が効率的
である。そこで、式(8)の逆行列を作り、実際の計算
ではこれを用いる。
Θ = (dy / dθ) −1 (y L −y (θ ML )) + θ ML (7) If the covariance matrix of the vector y L is V y , the covariance matrix V h of θ is V h = (dy / dθ) −1 V y ((dy / dθ) −1 ) T (8) Since the variance information obtained by the optical flow detection method is the inverse matrix of the covariance matrix, it is more efficient to perform the calculation using the inverse matrix of V y in the actual calculation. Therefore, the inverse matrix of equation (8) is created and used in actual calculation.

【0025】 Vh -1 =(dy/dθ)T y -1(dy/dθ) (9) 一方、距離情報融合手段30において、計算の容易性か
らカメラの運動パラメータmと各インバースデプスpi
に関して独立にカルマンフィルタを構成するので、その
ためには、式(9)からそれぞれの共分散行列を作り出
す必要がある。ここで、運動パラメータmとは m=[Tx y z x y z T (10) である。そこでVh -1から対応する部分行列を取り出
し、それをそれぞれの変数に対する分散の逆行列として
使用する。すなわち、カメラの運動パラメータに関して
は、Vh -1の1行1列から6行6列までの部分行列を運
動パラメータの分散の逆行列Vm -1とし、i番目のイン
バースデプスに関しては、i+6行i+6列の対角成分
を分散の逆数1/σpi 2 とする。この操作は、各変数の
分散を他の変数の正しい値が得られた場合の条件付き確
率で見積もっていることに相当する。
V h −1 = (dy / dθ) T V y −1 (dy / dθ) (9) On the other hand, in the distance information fusion means 30, the motion parameter m of the camera and each inverse depth p are calculated from the ease of calculation. i
Since the Kalman filter is configured independently with respect to, it is necessary to generate each covariance matrix from the equation (9) for that purpose. Here, the motion parameters m is m = [T x T y T z R x R y R z] T (10). So we take the corresponding submatrix from V h -1 and use it as the inverse matrix of the variance for each variable. That is, with respect to the motion parameter of the camera, the submatrix of V h -1 from 1st row to 1st column to 6th row to 6th column is set as the inverse matrix Vm -1 of the variance of the motion parameter, and i + 6 is obtained for the i-th inverse depth. The diagonal component of row i + 6 column is the reciprocal of variance 1 / σ pi 2 . This operation is equivalent to estimating the variance of each variable by the conditional probability when the correct values of other variables are obtained.

【0026】ここで、今まで述べたことをまとめてお
く。まず、オプティカルフロー計算手段10によって、
画像上の各点での移動ベクトルui * とその共分散行列
の逆行列Vui -1が計算されると共に、速度計などからカ
メラの移動速度kが得られる。移動速度k* にはσk 2
の分散の誤差が含まれているとする。このときui *
よびk* の誤差は独立であると仮定する。これらから観
測ベクトルy* と共分散行列の逆行列Vy -1を作り、距
離情報計算手段20の入力とする。観測ベクトルy
* は、式(3)で示した順序に各要素を並べる。行列V
y -1は、2行2列の行列Vui -1をその対角要素、すなわ
ち2i−1行2i−1列から2i行2i列までの2行2
列の部分行列になるように並べ、最後の対角成分2N+
1行2N+1列の要素は1/σk 2 とする。残りの部分
は0とする。このようにして作られたy* とVy - 1
用いて式(5)を最小化し、θMLを計算すると共に、式
(9)によりVh -1を求める。さらに、式(10)を参
考にθMLを分解してmMLとpMLi、Vh -1を分解してV
m -1と1/σpi 2 を得る。Vm -1と1/σpi 2 の具体的
な形は、式(1)および(9)から計算され、次のよう
になる。
Here, the above description will be summarized. First, by the optical flow calculation means 10,
The movement vector u i * at each point on the image and the inverse matrix V ui −1 of its covariance matrix are calculated, and the movement speed k of the camera is obtained from a speedometer or the like. The moving speed k * is σ k 2
It is assumed that the error of variance of is included. At this time, it is assumed that the errors of u i * and k * are independent. The observation vector y * and the inverse matrix V y −1 of the covariance matrix are created from these and used as the input of the distance information calculation means 20. Observation vector y
* Arranges each element in the order shown by Formula (3). Matrix V
y −1 is the matrix V ui −1 of 2 rows and 2 columns and its diagonal elements, namely 2 rows of 2i−1 rows and 2i−1 columns to 2i rows and 2i columns.
Arrange so as to be a submatrix of columns, and the final diagonal element 2N +
The element in the 1st row and 2N + 1th column is 1 / σ k 2 . The remaining part is 0. Equation (5) is minimized by using y * and Vy -1 thus created, and θ ML is calculated, and V h −1 is obtained by equation (9). Further, referring to the equation (10), θ ML is decomposed into m ML , p MLi , and V h −1 is decomposed into V
We get m -1 and 1 / σ pi 2 . The specific forms of V m -1 and 1 / σ pi 2 are calculated from equations (1) and (9) and are as follows.

【0027】[0027]

【数3】 [Equation 3]

【0028】距離情報融合手段30においては、前述の
ごとくカメラの運動パラメータmと各インバースデプス
i に関して独立にカルマンフィルタを構成する。距離
情報計算手段20によってθMLとその共分散行列の逆行
列Vh -1が得られているので、理論的にはθを状態ベク
トルとしてカルマンフィルタを構成することができる。
しかし、このようなカルマンフィルタを構成すると、実
際にVh -1の逆行列を数値計算により求める必要があ
り、その大きな次元数のため処理量と安定性の面で問題
がある。それを避けるために、θをカメラの運動パラメ
ータmと各インバースデプスpi に分解し、それぞれ独
立にカルマンフィルタを構成する。
In the distance information fusing means 30, as described above, the Kalman filter is constructed independently for the motion parameter m of the camera and each inverse depth p i . Since θ ML and the inverse matrix V h −1 of its covariance matrix are obtained by the distance information calculating means 20, theoretically, a Kalman filter can be configured with θ as a state vector.
However, when such a Kalman filter is constructed, it is necessary to actually obtain the inverse matrix of V h −1 by numerical calculation, and there is a problem in terms of processing amount and stability due to the large number of dimensions. In order to avoid this, θ is decomposed into a motion parameter m of the camera and each inverse depth p i , and a Kalman filter is independently constructed.

【0029】最初にカメラの運動パラメータmのカルマ
ンフィルタについて述べる。カメラの並進・回転速度
は、微少時間では一定であると考え、状態遷移行列を単
位行列とし、システムノイズの共分散行列をQm とする
と、時間更新アルゴリズムは次のようになる。
First, the Kalman filter for the motion parameter m of the camera will be described. The translation / rotation speed of the camera is considered to be constant in a minute time, and when the state transition matrix is the unit matrix and the covariance matrix of the system noise is Q m , the time update algorithm is as follows.

【0030】 mt+1 - =mt + (12) Vmt+1 - =Vmt + +Qm 一方、観測更新アルゴリズムは次式で与えられる。M t + 1 = m t + (12) V mt + 1 = V mt + + Q m On the other hand, the observation update algorithm is given by the following equation.

【0031】 mt + =mt - +Kmt(mt * −mt - ) (13) Vmt + =(I−Kmt)Vmt - mt=Vmt - (Vmt - +Vmt * -1 これらの式で、ベクトルおよび行列の添字tおよびt+
1は時間ステップを、肩の+および−はそれぞれ観測更
新値と時間更新値を表す。また、Iは単位行列であり、
t * およびVmt * は時刻tにおける観測値とその分散
で、距離情報計算手段20で計算されたmMLとVm -1
逆行列を使用する。
M t + = m t + K mt (m t * −m t ) (13) V mt + = (I−K mt ) V mt K mt = V mt (V mt + V mt * -1 In these equations, the vector and matrix subscripts t and t +
1 represents a time step, and + and − on the shoulder represent an observation update value and a time update value, respectively. Also, I is an identity matrix,
m t * and V mt * are the observed value at time t and its variance, and the inverse matrix of m ML and V m −1 calculated by the distance information calculation means 20 is used.

【0032】次に、インバースデプスpi のカルマンフ
ィルタを構成する。時刻tに3次元座標がXt * であっ
た物体上の点は、その時刻のカメラの並進・回転速度が
t * およびRt * とすれば、単位時間後の座標値X
t+1 * は次式で与えられる。
Next, a Kalman filter of inverse depth p i is constructed. If the translation / rotation speed of the camera at that time is T t * and R t * , the point on the object whose three-dimensional coordinate is X t * at time t is the coordinate value X after a unit time.
t + 1 * is given by the following equation.

【0033】 Xt+1 * =−Tt * −Rt * ×Xt * (14) Xt * =(Xt t t T t+1 * =(Xt+1 t+1 t+1 T 上式のZt とZt+1 の関係から両時刻のインバースデプ
スの関係は次のようになる。
[0033] X t + 1 * = -T t * -R t * × X t * (14) X t * = (X t Y t Z t) T X t + 1 * = (X t + 1 Y t +1 Z t + 1 ) T The inverse depth relationship at both times is as follows from the relationship between Z t and Z t + 1 in the above equation.

【0034】 pit+1=pit/(1+Rytit−Rxtit−Tztit) (15) ここで、上式をpitで微分すると次式となる。P it + 1 = p it / (1 + R yt x it −R xt y it −T zt p it ) (15) Here, when the above formula is differentiated by p it , the following formula is obtained.

【0035】 dpit+1/dpit=(Tztit)/(1+Rytit−Rxtit−Tztit2 +1/(1+Rytit−Rxtit−Tztit) (16) 式(15)および(16)より、時間更新アルゴリズム
が得られる。
Dp it + 1 / dp it = (T zt p it ) / (1 + R yt x it −R xt y it −T zt p it ) 2 + 1 / (1 + R yt x it −R xt y it −T zt p it ) (16) From equations (15) and (16), the time update algorithm is obtained.

【0036】 pit+1 - =pit + /(1+Rytit−Rxtit−Tztit + ) (17) σpit+1 2-=(dpit+1/dpit2 σpit 2++Qp yt,Rxt,Tztは、カメラの運動パラメータのカルマ
ンフィルタの推定値mt + の対応する要素を用いる。ま
た、Qp は、インバースデプスに関するシステムノイズ
である。
P it + 1 = p it + / (1 + R yt x it −R xt y it −T zt p it + ) (17) σ pit + 1 2 − = (dp it + 1 / dp it ) 2 σ pit 2+ + Q p R yt , R xt , and T zt use the corresponding elements of the Kalman filter estimate m t + of the motion parameters of the camera. Further, Q p is system noise related to inverse depth.

【0037】一方、観測更新アルゴリズムは次のように
なる。
On the other hand, the observation update algorithm is as follows.

【0038】 pit + =pit - +Kpt(pit * −pit - ) (18) σpit 2+=(1−Kpt)σpit 2-pt=σpit 2-/(σpit 2-+σpit 2*) ここで、pit * およびσpit 2*は、時刻tに距離情報計
算手段20によって計算された値pMLi およびσpi 2
対応する。さて、以上で物体上に固定された点のインバ
ースデプスに関するカルマンフィルタが構成されたが、
その点は、カメラの運動によって画像上を移動する。従
って、ある時刻でのインバースデプスpiに対応する点
は、次の時刻では画像上の異なった位置にあるので、補
間によってこれらを関係づける必要があるが、これは次
のようにして達成される。式(18)で示される観測更
新アルゴリズムを適用する際に、式(13)で計算され
るその時刻のカメラの運動パラメータの推定値mt +
ら式(1)を用いて推定されるオプティカルフローui
+ を計算する。観測値pit * に対応する予測値p
it -は、単位時間前には画像上で−ui + だけ離れた位
置に存在することになるので、pit - の画像を内挿して
その位置での値を求め、式(18)内のpit - として使
用する。この様子を1次元の図として図2に示した。内
挿の方法には、最近隣内挿法、共1次内挿法、3次たた
み込み内挿法などがあり、そのいずれも使用することが
できる。詳細は以下の参考文献に述べられている。
P it + = p it + K pt (p it * −p it ) (18) σ pit 2+ = (1−K pt ) σ pit 2 −K pt = σ pit 2 − / (σ pit 2- + σ pit 2 * ) Here, p it * and σ pit 2 * correspond to the values p MLi and σ pi 2 calculated by the distance information calculation means 20 at time t. Now, the Kalman filter for the inverse depth of the point fixed on the object is constructed as above,
The point moves on the image due to the movement of the camera. Therefore, the point corresponding to the inverse depth p i at one time is at a different position on the image at the next time, so it is necessary to relate them by interpolation, which is achieved as follows. It When applying the observation update algorithm shown in Expression (18), the optical flow estimated using Expression (1) from the estimated value m t + of the motion parameter of the camera at that time calculated in Expression (13). u i
Calculate + . Predicted value p corresponding to observed value p it *
Since it exists at a position separated by −u i + on the image before the unit time, the image of p it is interpolated to obtain the value at that position, and It is used as a - p it of. This state is shown in FIG. 2 as a one-dimensional diagram. The interpolation method includes a nearest neighbor interpolation method, a colinear interpolation method, and a cubic convolution interpolation method, and any of them can be used. Details are described in the following references.

【0039】高木幹雄,下田陽久 監修:画像解析ハン
ドブック,東京大学出版会,pp.411−444(1
991) また、予測値pit - の位置を単位時間だけ前の運動パラ
メータの推定値mt-1 +から計算する方法もある。これ
にはmt-1 + を式(1)に代入して時刻t−1のオプテ
ィカルフローui + を推定し、図3に示すようにpit -
の位置を移動する。移動された位置を標本点として内挿
し、観測値pit * の位置の値を得る。この方法では、内
挿すべき画像の標本点が規則正しい格子上に存在しない
ので、内挿問題がやや複雑になる。この場合の内挿の1
例として以下の方法がある。まず、計算しようとする点
に最も近く、かつその点を内部に含むような3つの標本
点を決定する。これらの標本点の位置をそれぞれ
(xa ,ya ),(xb ,yb ),(xc ,yc )と
し、値をpa ,pb ,pc とすると、位置(x,y)の
点での値pは次式で与えられる。
Supervision by Mikio Takagi and Haruhisa Shimoda: Image Analysis Handbook, University of Tokyo Press, pp. 411-444 (1
991) Further, there is also a method of calculating the position of the predicted value p it − from the estimated value m t−1 + of the motion parameter which is a unit time before. For this, m t-1 + is substituted into the equation (1) to estimate the optical flow u i + at time t−1, and as shown in FIG. 3, p it
Move the position of. By interpolating the moved position as a sample point, the value of the position of the observed value p it * is obtained. This method complicates the interpolation problem because the sample points of the image to be interpolated do not exist on a regular grid. Interpolation 1 in this case
The following methods are examples. First, three sample points that are closest to and include the point to be calculated are determined. The position of these sampling points each (x a, y a), (x b, y b), (x c, y c) and the value p a, p b, When p c, the position (x, The value p at the point y) is given by the following equation.

【0040】 p=(c1 x+c2 y+c3 )/c4 (19) c1 =(ya −yb )pa +(ya −yc )pb +(yb −ya )pc 2 =(xb −xc )pa +(xc −xa )pb +(xa −xb )pc 3 =(xc b −xb c )pa +(xa c −xc a )pb +(xb a −xa b )pc 4 =(xb −xc )ya +(xc −xa )yb +(xa −xb )yc 予測値pit - と同様に分散σpit 2-の内挿も必要である
が、これも以上述べた方法によって達成される。ただ
し、分散の場合には平方根を求めて標準偏差に直してか
ら内挿を行い、自乗して分散に戻すという操作を行う。
[0040] p = (c 1 x + c 2 y + c 3) / c 4 (19) c 1 = (y a -y b) p a + (y a -y c) p b + (y b -y a) p c c 2 = (x b -x c) p a + (x c -x a) p b + (x a -x b) p c c 3 = (x c y b -x b y c) p a + (x a y c -x c y a) p b + (x b y a -x a y b) p c c 4 = (x b -x c) y a + (x c -x a) y b + Like the (x a −x b ) y c predicted value p it , it is necessary to interpolate the variance σ pit 2 , which is also achieved by the method described above. However, in the case of variance, the square root is calculated, the standard deviation is corrected, interpolation is then performed, and the square is used to restore the variance.

【0041】[0041]

【発明の効果】本発明によって示された方法および装置
を使用することで、動画像の各フレームから得られる距
離情報とカメラの運動を時間的に融合し、より正確な情
報を安定して得ることができる。
By using the method and apparatus according to the present invention, distance information obtained from each frame of a moving image and camera movement are temporally fused to obtain more accurate information stably. be able to.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の3次元形状復元装置の一実施例を示す
構成図である。
FIG. 1 is a configuration diagram showing an embodiment of a three-dimensional shape restoration device of the present invention.

【図2】インバースデプスの内挿方法を説明する図であ
る。
FIG. 2 is a diagram illustrating an inverse depth interpolation method.

【図3】インバースデプスの内挿方法を説明する図であ
る。
FIG. 3 is a diagram illustrating an inverse depth interpolation method.

【符号の説明】[Explanation of symbols]

10 オプティカルフロー計算手段 20 距離情報計算手段 30 距離情報融合手段 40 距離情報カルマンフィルタ 50 運動パラメータカルマンフィルタ 10 Optical Flow Calculation Means 20 Distance Information Calculation Means 30 Distance Information Fusion Means 40 Distance Information Kalman Filters 50 Motion Parameter Kalman Filters

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】動画像を構成する一連の画像内の2枚のフ
レームを用いて画像上の移動情報であるオプティカルフ
ローの推定値とその共分散行列を計算するオプティカル
フロー計算手順と、そのオプティカルフローの推定値と
共分散行列を用いて撮像されている物体までの距離とカ
メラの運動の推定値およびそれらの共分散行列を計算す
る距離情報計算手順と、これら2つの手順を動画像に対
して連続的に適用することで得られる多数の物体までの
距離の推定値とカメラの運動の推定値に対して独立に構
成されたカルマンフィルタを適用して時間的に融合し、
物体までの距離とカメラの運動の精度の高い推定値とそ
の共分散行列を計算する距離情報融合手順を含むことを
特徴とする3次元形状復元方法。
1. An optical flow calculation procedure for calculating an estimated value of optical flow, which is movement information on an image, and its covariance matrix using two frames in a series of images forming a moving image, and the optical flow calculation procedure. Distance information calculation procedure for calculating the distance to the object being imaged using the flow estimation value and the covariance matrix, the camera motion estimation value, and their covariance matrix, and these two procedures for moving images. By applying a Kalman filter independently configured to the estimated value of the distance to a large number of objects and the estimated value of the motion of the camera obtained by successively applying
A three-dimensional shape restoration method comprising a distance information fusion procedure for calculating an accurate estimation value of a distance to an object and camera motion and a covariance matrix thereof.
【請求項2】請求項1記載の3次元形状復元方法におい
て、オプティカルフローの推定値とその共分散行列に加
えて、カメラの並進運動の大きさとそれに含まれるノイ
ズの分散を入力して使用し、計算される物体までの距離
の推定値とカメラの運動の推定値に反映することを特徴
とする3次元形状復元方法。
2. The three-dimensional shape restoration method according to claim 1, wherein in addition to the estimated value of the optical flow and its covariance matrix, the magnitude of the translational motion of the camera and the variance of the noise contained therein are used. A three-dimensional shape restoration method characterized by reflecting on an estimated value of a calculated distance to an object and an estimated value of camera motion.
【請求項3】動画像を構成する一連の画像内の2枚のフ
レームを用いて画像上の移動情報であるオプティカルフ
ローの推定値とその共分散行列を計算するオプティカル
フロー計算手段と、前記オプティカルフローの推定値と
共分散行列を用いて撮像されている物体までの距離とカ
メラの運動の推定値およびそれらの共分散行列を計算す
る距離情報計算手段と、これら2つの方法を動画像に対
して連続的に適用することで得られる多数の物体までの
距離とカメラの運動の推定値とそれらの共分散行列を時
間的に融合し、物体までの距離とカメラの運動の精度の
高い推定値とその共分散行列を計算する距離情報融合手
段とを備える3次元形状復元装置において、 前記距離情報融合手段は、前記距離情報計算手段によっ
て計算される物体までの距離の推定値とカメラの運動の
推定値の各々に対して独立なカルマンフィルタを構成す
ることを特徴とする3次元形状復元装置。
3. An optical flow calculation means for calculating an estimated value of optical flow, which is movement information on an image, and its covariance matrix using two frames in a series of images forming a moving image, and the optical flow calculation means. Distance information calculation means for calculating the distance to the object being imaged using the flow estimation value and the covariance matrix, the camera movement estimation value, and their covariance matrix, and these two methods for moving images. Estimated values of distances to objects and camera movements with high accuracy by fusing the estimated values of distances to many objects and camera movements and their covariance matrices obtained temporally by continuous application. And a distance information fusion means for calculating a covariance matrix thereof, wherein the distance information fusion means is a distance to an object calculated by the distance information calculation means. A three-dimensional shape restoration device characterized in that an independent Kalman filter is configured for each of the estimated value of the motion vector and the estimated value of the motion of the camera.
【請求項4】請求項3記載の3次元形状復元装置におい
て、距離情報計算手段の入力としてオプティカルフロー
の推定値とその共分散行列に加えて、カメラの並進運動
の大きさとそれに含まれるノイズの分散を使用し、計算
される物体までの距離の推定値とカメラの運動の推定値
に反映する距離情報融合手段を採用することを特徴とす
る3次元形状復元装置。
4. The three-dimensional shape restoration apparatus according to claim 3, wherein, in addition to the estimated value of the optical flow and its covariance matrix as an input of the distance information calculation means, the magnitude of the translational motion of the camera and the noise contained therein A three-dimensional shape restoration device characterized by employing a distance information fusion means which reflects the estimated value of the distance to the calculated object and the estimated value of the motion of the camera using the variance.
【請求項5】動画像からオプティカルフローの推定値と
オプティカルフローに見積もられる誤差の共分散行列を
計算するオプティカルフロー計算手段と、 前記オプティカルフローの推定値と共分散行列およびカ
メラの並進運動の大きさとそれに含まれるノイズの分散
を用いて撮像されている物体までの距離情報とカメラの
運動パラメータの推定値および距離情報とカメラの運動
パラメータに含まれる誤差の共分散行列を計算する距離
情報計算手段と、 前記距離情報の推定値と共分散行列に対して適用する距
離情報カルマンフィルタと、前記カメラの運動パラメー
タの推定値と共分散行列に対して適用する運動パラメー
タカルマンフィルタとを備え、距離情報とカメラの運動
パラメータの精度の高い推定値と誤差の共分散行列を計
算する距離情報融合手段とを備えることを特徴とする3
次元形状復元装置。
5. An optical flow calculating means for calculating a covariance matrix of an estimated value of an optical flow and an error estimated for the optical flow from a moving image, an estimated value of the optical flow, a covariance matrix, and a magnitude of translational motion of a camera. And distance information calculation means for calculating distance information to an object being imaged, an estimated value of a motion parameter of the camera, and a covariance matrix of an error included in the motion parameter of the camera using the variance of the noise included in the motion parameter A distance information Kalman filter applied to the estimated value of the distance information and the covariance matrix, and a motion parameter Kalman filter applied to the estimated value of the motion parameter of the camera and the covariance matrix, the distance information and the camera Distance to compute a high-precision estimate of the motion parameters of the and covariance matrix of the error 3, characterized in that it comprises a distribution fusion means
Dimensional shape restoration device.
【請求項6】請求項5記載の3次元形状復元装置を備え
てテレビカメラで得られた画像を解析し環境内の物体ま
での距離の情報を得ることのできる人工視覚システムを
有することを特徴とするロボット。
6. An artificial vision system comprising the three-dimensional shape restoration device according to claim 5 and capable of obtaining information on a distance to an object in an environment by analyzing an image obtained by a television camera. Robot to be.
【請求項7】道路環境を自ら理解して走行する自立走行
自動車において、請求項5記載の3次元形状復元装置を
備えてテレビカメラで得られた画像を解析し環境内の物
体までの距離の情報を得ることのできる人工視覚システ
ムを有することを特徴とする自立走行自動車。
7. A self-propelled vehicle that travels while understanding the road environment by itself, is equipped with the three-dimensional shape restoration device according to claim 5, and analyzes an image obtained by a television camera to determine the distance to an object in the environment. An autonomous vehicle having an artificial vision system capable of obtaining information.
JP03207794A 1994-03-02 1994-03-02 Three-dimensional shape restoration method and apparatus Expired - Fee Related JP3555159B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP03207794A JP3555159B2 (en) 1994-03-02 1994-03-02 Three-dimensional shape restoration method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP03207794A JP3555159B2 (en) 1994-03-02 1994-03-02 Three-dimensional shape restoration method and apparatus

Publications (2)

Publication Number Publication Date
JPH07244735A true JPH07244735A (en) 1995-09-19
JP3555159B2 JP3555159B2 (en) 2004-08-18

Family

ID=12348825

Family Applications (1)

Application Number Title Priority Date Filing Date
JP03207794A Expired - Fee Related JP3555159B2 (en) 1994-03-02 1994-03-02 Three-dimensional shape restoration method and apparatus

Country Status (1)

Country Link
JP (1) JP3555159B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0810496A2 (en) * 1996-05-31 1997-12-03 Société SAGEM Method and device for the identification and localisation of fixed objects along a path
US6038074A (en) * 1997-05-20 2000-03-14 Ricoh Company, Ltd. Three-dimensional measuring apparatus and method, image pickup apparatus, and apparatus and method for inputting image
JP2002048513A (en) * 2000-05-26 2002-02-15 Honda Motor Co Ltd Position detector, method of detecting position, and program for detecting position
JP2007315968A (en) * 2006-05-26 2007-12-06 Univ Of Tokyo Method and device for estimating kinematics parameter using motion capture
JP2011022157A (en) * 2000-05-26 2011-02-03 Honda Motor Co Ltd Position detection apparatus, position detection method and position detection program
JP2015521760A (en) * 2012-06-08 2015-07-30 アイロボット コーポレイション Carpet drift estimation using differential sensors or visual measurements

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0810496A2 (en) * 1996-05-31 1997-12-03 Société SAGEM Method and device for the identification and localisation of fixed objects along a path
FR2749419A1 (en) * 1996-05-31 1997-12-05 Sagem METHOD AND DEVICE FOR IDENTIFYING AND LOCATING FIXED OBJECTS ALONG A ROUTE
EP0810496A3 (en) * 1996-05-31 1998-08-19 Société SAGEM Method and device for the identification and localisation of fixed objects along a path
US6038074A (en) * 1997-05-20 2000-03-14 Ricoh Company, Ltd. Three-dimensional measuring apparatus and method, image pickup apparatus, and apparatus and method for inputting image
JP2011022157A (en) * 2000-05-26 2011-02-03 Honda Motor Co Ltd Position detection apparatus, position detection method and position detection program
JP2002048513A (en) * 2000-05-26 2002-02-15 Honda Motor Co Ltd Position detector, method of detecting position, and program for detecting position
JP2007315968A (en) * 2006-05-26 2007-12-06 Univ Of Tokyo Method and device for estimating kinematics parameter using motion capture
JP2015521760A (en) * 2012-06-08 2015-07-30 アイロボット コーポレイション Carpet drift estimation using differential sensors or visual measurements
US9427875B2 (en) 2012-06-08 2016-08-30 Irobot Corporation Carpet drift estimation using differential sensors or visual measurements
US9969089B2 (en) 2012-06-08 2018-05-15 Irobot Corporation Carpet drift estimation using differential sensors for visual measurements
US10974391B2 (en) 2012-06-08 2021-04-13 Irobot Corporation Carpet drift estimation using differential sensors or visual measurements
EP2858794B1 (en) 2012-06-08 2021-04-14 iRobot Corporation Carpet drift estimation and compensation using two sets of sensors
US11926066B2 (en) 2012-06-08 2024-03-12 Irobot Corporation Carpet drift estimation using differential sensors or visual measurements

Also Published As

Publication number Publication date
JP3555159B2 (en) 2004-08-18

Similar Documents

Publication Publication Date Title
CN101960326B (en) Method for object localization using visual images with reference coordinates
KR100468857B1 (en) Method for calibrating hand/eye using projective invariant shape descriptor for 2-dimensional shape
US5777690A (en) Device and method for detection of moving obstacles
EP0974128B1 (en) Three-dimensional imaging method and device
Assa et al. A robust vision-based sensor fusion approach for real-time pose estimation
JP4996745B2 (en) Self-position recognition method using parallel projection model
Hartmann et al. Implementation and evaluation of optical flow methods for two-dimensional deformation measurement in comparison to digital image correlation
CN112815939B (en) Pose estimation method of mobile robot and computer readable storage medium
KR20080029080A (en) System for estimating self-position of the mobile robot using monocular zoom-camara and method therefor
Crétual et al. Visual servoing based on image motion
JPH1125277A (en) Inter-picture correspondence detecting method and device therefor
Armangué et al. A review on egomotion by means of differential epipolar geometry applied to the movement of a mobile robot
JPH07244735A (en) Method and device for three-dimensional shape restoration
Van der Mark et al. Stereo based navigation in unstructured environments
Bayro-Corrochano et al. Lie algebra approach for tracking and 3D motion estimation using monocular vision
Kim et al. Absolute motion and structure from stereo image sequences without stereo correspondence and analysis of degenerate cases
Blostein et al. Three-dimensional trajectory estimation from image position and velocity
Gedik et al. RGBD data based pose estimation: Why sensor fusion?
CN115049784A (en) Three-dimensional velocity field reconstruction method based on binocular particle image
JPH08194822A (en) Moving object detecting device and its method
Weng et al. Transitory image sequences, asymptotic properties, and estimation of motion and structure
Pietzsch Planar features for visual slam
JP2988933B1 (en) Head movement measurement device
Iida et al. High-accuracy Range Image Generation by Fusing Binocular and Motion Stereo Using Fisheye Stereo Camera
JPH0688706A (en) Method for determining positions of observing point and object point

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040420

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040503

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090521

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100521

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110521

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110521

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120521

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120521

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130521

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees