JPH06129833A - Three dimensional restoration method - Google Patents

Three dimensional restoration method

Info

Publication number
JPH06129833A
JPH06129833A JP4275729A JP27572992A JPH06129833A JP H06129833 A JPH06129833 A JP H06129833A JP 4275729 A JP4275729 A JP 4275729A JP 27572992 A JP27572992 A JP 27572992A JP H06129833 A JPH06129833 A JP H06129833A
Authority
JP
Japan
Prior art keywords
time
image
affine transformation
feature point
parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP4275729A
Other languages
Japanese (ja)
Inventor
Takashi Torio
隆 鳥生
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP4275729A priority Critical patent/JPH06129833A/en
Publication of JPH06129833A publication Critical patent/JPH06129833A/en
Withdrawn legal-status Critical Current

Links

Abstract

PURPOSE:To facilitate solving of an equation by finding out parameters expressing positional relations at first, and finding out the movement parameters having complicated constraint relations later, when the three dimensional structure of a body is restored from plural picture images input from one camera. CONSTITUTION:In a three dimensional restoration method for restoring a three dimensional structure from picture images, a device therefor is provided with a feature point detecting portion 1 of a first time picture image the feature point detecting portion 2 of a second time picture image and a feature point detecting portion 3 of a third time picture image. The device is further provided with a positional relations computing means 4 and a motion parameter computing means 5. At first parameters on a plane are computed by the positional relations computing means 4, and next the movement parameters are computed by the movement parameter computing means 5.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は2次元画像情報から3次
元構造を復元する3次元復元方式に係り、特に1個のカ
メラから入力される複数枚の画像からその3次元構造を
復元するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a three-dimensional reconstruction system for reconstructing a three-dimensional structure from two-dimensional image information, and particularly for reconstructing the three-dimensional structure from a plurality of images input from one camera. Is.

【0002】[0002]

【従来の技術】画像処理によって外界の3次元構造を復
元する方式はロボットや無人自動車用の視覚システムを
実現させるために必須の技術である。従来2次元情報か
ら3次元構造を復元する方法として、三角測量の原理を
用いた両眼立体視に基づく方法が提案されている。しか
しこの場合には2台のカメラの位置や方向を精巧に設定
しておくことが必要であり、利用しずらい面があった。
2. Description of the Related Art A method of restoring a three-dimensional structure of the outside world by image processing is an essential technique for realizing a vision system for robots and unmanned vehicles. Conventionally, as a method for restoring a three-dimensional structure from two-dimensional information, a method based on binocular stereoscopic vision using the principle of triangulation has been proposed. However, in this case, it is necessary to precisely set the positions and directions of the two cameras, which is difficult to use.

【0003】また唯1台のカメラを用いる方法として
は、Ullmanが異なる3つの時刻にそれぞれ入力された画
像中に含まれる剛体上の4つの特徴点の対応から剛物体
の運動と、4つの特徴点の3次元的な位置関係を求める
方法を提案した。しかしこの方法は、解を求めるために
非線形の方程式を解かなければならず、必ずしも正しい
解が得られるという保証がなかった。
As a method of using only one camera, the movement of the rigid object and the four characteristics are determined by the correspondence of the four feature points on the rigid body included in the images input by Ullman at three different times. We proposed a method to obtain the three-dimensional positional relationship of points. However, this method requires solving a non-linear equation in order to obtain a solution, and is not necessarily guaranteed to obtain a correct solution.

【0004】この問題を解決するためHuang 等は、Ullm
anの場合と同じ設定条件のもとで、線形の解法を提案し
た。Huang 等の方法は、図6(B)に示す如く、3次元
の物体P(図6(B)の例では4角錐)をTVカメラで
写したときの2次元画像をQとするとき、時刻T1 、T
2 、T3 の異なる3時刻でこの3種類の2次元画像よ
り、図6(A)に示す如く、第一時刻の画像の特徴点検
出部61、第二時刻の画像の特徴点検出部62、第三時
刻の画像の特徴点検出部63から得られた各時刻のそれ
ぞれ4点の(X、Y)情報から、運動パラメータ及び4
点間の位置関係の2組の未知数のうち、運動パラメータ
算出部64により位置関係を表す未知数を消去した後、
運動パラメータだけの方程式を導き、位置関係の算出部
65により4点の位置を算出した。
To solve this problem, Huang et al.
We proposed a linear solution under the same conditions as in the case of an. As shown in FIG. 6 (B), Huang et al.'S method uses Q as a two-dimensional image when a three-dimensional object P (a four-sided pyramid in the example of FIG. 6B) is captured by a TV camera. T 1 , T
As shown in FIG. 6A, the feature point detecting unit 61 for the image at the first time and the feature point detecting unit 62 for the image at the second time are obtained from these three types of two-dimensional images at three different times T 2 and T 3 . , The motion parameter and 4 from the (X, Y) information of each of four points at each time obtained from the feature point detection unit 63 of the image at the third time.
After deleting the unknown number representing the positional relationship by the motion parameter calculation unit 64 from the two unknowns of the positional relationship between the points,
The equation of only the motion parameters was derived, and the positions of the four points were calculated by the position relation calculation unit 65.

【0005】[0005]

【発明が解決しようとする課題】ところが、図6(A)
に示す手法では、初めに運動パラメータ算出部64で運
動パラメータだけの方程式を導いてこれを解くが、運動
パラメータは多くの未知数が互いに抱束しあっているた
めに解法が複雑になり、高速な演算が容易でなかった。
従って本発明の目的は、運動パラメータを消去してまず
位置関係を表すパラメータについて算出した3次元復元
方式を提供することである。
However, FIG. 6 (A)
In the method shown in (1), the motion parameter calculation unit 64 first derives an equation of only the motion parameter and solves it. However, the motion parameter is complicated because many unknowns are bound to each other and the solution is fast. The calculation was not easy.
Therefore, it is an object of the present invention to provide a three-dimensional reconstruction method in which motion parameters are deleted and then parameters representing a positional relationship are first calculated.

【0006】[0006]

【課題を解決するための手段】前記目的を達成するた
め、本発明では、図1に示す如く、第一時刻の画像の特
徴点検出部1、第二時刻の画像の特徴点検出部2、第三
時刻の画像の特徴点検出部3等から得られた、各時刻の
それぞれの2次元情報から、まず位置関係の算出部4に
おいて、最初に複雑な抱束関係を持つ運動パラメータを
消去した後、位置関係を表すパラメータについての方程
式を導き、これを得るようにする。
In order to achieve the above object, according to the present invention, as shown in FIG. 1, a feature point detecting section 1 for an image at a first time, a feature point detecting section 2 for an image at a second time, From the two-dimensional information of each time obtained from the feature point detection unit 3 of the image at the third time, first, in the positional relationship calculation unit 4, the motion parameter having a complicated hugging relationship is first erased. After that, an equation for a parameter that represents the positional relationship is derived and obtained.

【0007】[0007]

【作用】これにより、方程式の性質が簡単になり、つま
り方程式が解き易くなり、演算量を削減することができ
る。なお位置関係を表すパラメータも、後述するように
適切な変数に置き換えることで、方程式の形をより簡単
化可能となり、解き易くなる。
As a result, the nature of the equation is simplified, that is, the equation is easy to solve, and the amount of calculation can be reduced. Note that the parameters representing the positional relationship can also be simplified by solving the equations by replacing them with appropriate variables as will be described later, and can be solved easily.

【0008】[0008]

【実施例】本発明を一実施例にもとづき説明するに先立
ち、本発明の原理を説明する。図6(B)においてPは
3次元物体であり4つの特徴点の3次元的な位置P0
1 、P2 、P3 、が、例えばYVカメラによる撮影等
により、XY平面上での2次元の画像Q に移った点Q
0 、Q1 、Q2 、Q3 の関係を表している。図6(B)
においてXY平面が画像平面であり、3次元空間上の点
が平行投影で画像に写されることを仮定した。また物体
Pは剛体であることを仮定した。このとき、物体の運動
は、平行移動量と回転量により、完全に記述できる。
EXAMPLES Prior to describing the present invention based on an example
Next, the principle of the present invention will be described. In FIG. 6 (B), P is
It is a three-dimensional object and the three-dimensional position P of four feature points0,
P 1, P2, P3, But, for example, shooting with a YV camera
, The point Q moved to the two-dimensional image Q on the XY plane
0, Q1, Q2, Q3Represents the relationship. FIG. 6 (B)
, The XY plane is the image plane, and the point in the three-dimensional space
Was assumed to be imaged in parallel projection. Another object
It is assumed that P is a rigid body. At this time, the movement of the object
Can be completely described by the translation amount and the rotation amount.

【0009】画像Qは平行投影を仮定したので、物体P
を画像Qに垂直な方向(図6(B)ではZ軸方向)にい
くら移動させても画像Qは変化しない。従って画像Qか
ら物体Pの垂直方向の位置は原理的に検出できない。ま
た画像の変化から物体の垂直方向の運動も検出できな
い。
Since the image Q is assumed to be a parallel projection, the object P
6 does not change no matter how much is moved in the direction perpendicular to the image Q (Z-axis direction in FIG. 6B). Therefore, the position of the object P in the vertical direction cannot be detected from the image Q in principle. Moreover, the vertical movement of the object cannot be detected from the change of the image.

【0010】一方、画像面に平行な方向(水平方向)へ
の移動量は、図6(B)から容易にわかるように、画像
平面における移動量をそのまま物体の移動量と考えてよ
い。つまり水平方向の移動量は画像平面上で特徴点間の
対応がわかれば容易に求められる。
On the other hand, the amount of movement in the direction parallel to the image plane (horizontal direction) can be considered as the amount of movement of the object as it is, as is easily understood from FIG. 6B. That is, the movement amount in the horizontal direction can be easily obtained if the correspondence between the feature points is known on the image plane.

【0011】従って、問題は物体の回転量を求めること
と、4つの特徴点の相対的な位置関係を求めることにな
る。4つの特徴点の位置に関して、画像平面に平行な成
分は画像上での座標値の関係と等しいので、相対的なZ
座標を求めれば3次元空間上での特徴点の位置関係が求
められる。
Therefore, the problem is to find the amount of rotation of the object and the relative positional relationship between the four feature points. With respect to the positions of the four feature points, the component parallel to the image plane is equal to the relationship of the coordinate values on the image, so that the relative Z
If the coordinates are obtained, the positional relationship of the feature points in the three-dimensional space can be obtained.

【0012】ところで物体の回転量とZ座標の相対的な
位置関係を求めるためには、物体の4つの特徴点のうち
1つは原点にあるものと考えても一般性を失わない。つ
まり、図2に示すように、1つの特徴点を原点Oに固定
し、原点Oのまわりの回転量と残りの3特徴点P1 、P
2 、P3 のZ座標を求めればよい。なお図2のP1 、P
2 、P3 と図6(B)のP1 、P2 、P3 とは対応する
ものではない。
In order to obtain the relative positional relationship between the rotation amount of the object and the Z coordinate, it can be considered that one of the four feature points of the object is at the origin. That is, as shown in FIG. 2, one feature point is fixed to the origin O, the rotation amount around the origin O and the remaining three feature points P 1 , P
The Z coordinate of 2 and P 3 should be calculated. Note that P 1 and P in FIG.
2 and P 3 do not correspond to P 1 , P 2 and P 3 in FIG. 6 (B).

【0013】いま2つの異なる時刻T1 、T2 を考え、
原点Oのまわりの回転を3×3の行列Rで表す。この回
転Rによって一番目の時刻T1 において(x、y、z)
にある点は次式で定まる点(x’、y’、z’)に移
る。
Considering two different times T 1 and T 2 ,
The rotation around the origin O is represented by a 3 × 3 matrix R. By this rotation R, at the first time T 1 , (x, y, z)
The point at is moved to the point (x ', y', z ') determined by the following equation.

【0014】[0014]

【数1】 [Equation 1]

【0015】ただし、Rijは回転行列Rの成分であ
る。ここで、第一の時刻における原点以外の三つの特徴
点P1 、P2 、P3 の座標を、それぞれ(x1 、y1
1 )、(x2 、y2 、z2 )、(x3 、y3 、z 3
とする。ここで求めるべき量は回転行列Rと、三つの特
徴点のZ座標z1 、z2 、z3 である。
However, Rij is a component of the rotation matrix R.
It Here, three features other than the origin at the first time
Point P1, P2, P3Coordinates of (x1, Y1,
z1), (X2, Y2, Z2), (X3, Y3, Z 3)
And The quantity to be calculated here is the rotation matrix R and three special characteristics.
Z-coordinate z of the point1, Z2, Z3Is.

【0016】いま、三つの特徴点によって定まる平面の
方程式を z=ax+bx+c (2) と置く。平面上の点(x、y、ax+bx+c)は回転
Rによって
Now, the equation of the plane defined by the three feature points is set as z = ax + bx + c (2). The point (x, y, ax + bx + c) on the plane is rotated by R

【0017】[0017]

【数2】 [Equation 2]

【0018】に移る。画像平面上の点の座標に関して、
第一時刻の画像Q1 と第二時刻の画像のQ2には
Move on to. Regarding the coordinates of points on the image plane,
Image Q 1 at the first time and Q 2 at the second time

【0019】[0019]

【数3】 [Equation 3]

【0020】の関係が成立する。これらの式を整理する
と、
The following relationship holds. By rearranging these expressions,

【0021】[0021]

【数4】 [Equation 4]

【0022】が得られる。この(3)式は、画像平面上
の点は、アフィン変換によって変換を受けることを示し
ている。一方、第二時刻における3つの特徴点P1 ’、
2 ’、P3 ’の座標をそれぞれ(x1 ’、y1 ’、z
1 ’)、(x2 ’、y2 ’、z2 ’)、(x3 ’、
3’、z3 ’)とする。このとき画像平面上において
三点(x1 、y1 )、(x2、y2 )、(x3 、y3
はそれぞれ(x1 ’、y1 ’)、(x2 ’、y2 ’)、
(x3 ’、y3 ’)に移動する。この三点の対応によっ
て第一時刻の画像と、第二時刻の画像を結びつけるアフ
ィン変換が完全に定まる。
Is obtained. The expression (3) indicates that the points on the image plane are transformed by the affine transformation. On the other hand, three feature points P 1 'at the second time,
The coordinates of P 2 'and P 3 ' are (x 1 ', y 1 ', z
1 '), (x 2' , y 2 ', z 2'), (x 3 ',
y 3 ', z 3 '). At this time, three points (x 1 , y 1 ), (x 2 , y 2 ), (x 3 , y 3 ) on the image plane
Are (x 1 ', y 1 '), (x 2 ', y 2 '),
Move to (x 3 ', y 3 '). The affine transformation that connects the image at the first time and the image at the second time is completely determined by the correspondence of these three points.

【0023】実際、定めるべきアフィン変換を、In fact, the affine transformation to be defined is

【0024】[0024]

【数5】 [Equation 5]

【0025】とすると、Then,

【0026】[0026]

【数6】 [Equation 6]

【0027】が成立するが、この6つの方程式をA、
B、C、D、α、βについて解けば、前記(4)式のア
フィン変換の係数が求まると、前記(3)式と(4)式
を比較すれば、求めるべき回転R、平面のパラメータ
a、b、cとアフィン変換の係数の間の下記の関係式が
得られる。
## EQU3 ## These six equations are represented by A,
Solving for B, C, D, α, and β, the coefficients of the affine transformation of the above equation (4) are obtained, and by comparing the above equations (3) and (4), the rotation R and the plane parameter to be obtained The following relational expression between a, b, c and the coefficient of the affine transformation is obtained.

【0028】[0028]

【数7】 [Equation 7]

【0029】上記(5)式の最後の2式を使ってR13
α/c、R23=β/cを最初の4式に代入することでこ
れら(5)式を変形すると、
Using the last two equations of the above equation (5), R 13 =
When these equations (5) are transformed by substituting α / c and R 23 = β / c into the first four equations,

【0030】[0030]

【数8】 [Equation 8]

【0031】が得られる。ここでRは回転行列であるの
Is obtained. Where R is the rotation matrix

【0032】[0032]

【数9】 [Equation 9]

【0033】が成立する。この(7)式に前記(6)式
を代入すると、平面のパラメータa、b、cだけを未知
数とする次の方程式が得られる。
Is satisfied. By substituting the equation (6) into the equation (7), the following equation having only plane parameters a, b, and c as unknowns is obtained.

【0034】[0034]

【数10】 [Equation 10]

【0035】これらの式を整理すると、下記の(8−
1)〜(8−3)式が得られる。
The following equation (8-
Expressions 1) to (8-3) are obtained.

【0036】[0036]

【数11】 [Equation 11]

【0037】(8−1)×β−(8−3)×αより、下
記の(9)式が得られる。
From (8-1) × β- (8-3) × α, the following equation (9) is obtained.

【0038】[0038]

【数12】 [Equation 12]

【0039】(8−2)×α−(8−3)×βより、下
記の(10)式が得られる。
From (8-2) × α- (8-3) × β, the following equation (10) is obtained.

【0040】[0040]

【数13】 [Equation 13]

【0041】前記(9)式、(10)式を整理すると、
下記の(11)式、(12)式が得られる。
When the above equations (9) and (10) are arranged,
The following equations (11) and (12) are obtained.

【0042】[0042]

【数14】 [Equation 14]

【0043】ここで前記(11)式と(12)式を2つ
の未知数a/cとb/cについて解けばよいと考えられ
るが、実際には両式の左辺が互いに比例関係にあるので
これら2つの式は独立ではなく、この2つの式だけから
では解が求まらない。
Here, it is considered that the above equations (11) and (12) should be solved for two unknowns a / c and b / c. However, in practice, the left sides of both equations are proportional to each other. The two equations are not independent, and a solution cannot be obtained only from these two equations.

【0044】(11)×α−(12)×βの左辺は常に
ゼロであるので下記(A)式でなければならない。
Since the left side of (11) × α- (12) × β is always zero, the following expression (A) must be used.

【0045】[0045]

【数15】 [Equation 15]

【0046】アフィン変換の係数の間にこの関係が成り
立たないときは2つの時刻間の対応付けが正しくないと
判定できる。前記(11)式と(12)式だけは解が求
められないので、第一の時刻と第三の時刻の画像に関し
て、前記(3)式以降の展開を繰り返す。ただしアフィ
ン変換の係数と回転行列のそれぞれに’記号を付す。こ
のとき前記(11)式と(12)式に対応して下記の
(13)式、(14)式が成立する。
When this relationship does not hold between the coefficients of the affine transformation, it can be determined that the correspondence between the two times is incorrect. Since a solution cannot be obtained only from the equations (11) and (12), the expansion after the equation (3) is repeated for the images at the first time and the third time. However, the'symbol is added to each of the affine transformation coefficient and the rotation matrix. At this time, the following expressions (13) and (14) are established corresponding to the expressions (11) and (12).

【0047】[0047]

【数16】 [Equation 16]

【0048】(11)式から(14)式において、(1
1)式と(12)式は一般に独立であるのでa/cとb
/cについての連立一次方程式として解くことができ
る。そしてa/cとb/cが得られると、前記(8−
3)式を使用して、a、b、cが算出できる。ただし前
記(8−1)式〜(8−3)式はa、b、cの符号を同
時に反転させると、もとの式に戻るので、−a、−b、
−cも解になる。即ち2通りの解が存在する。ここで、
a、b、cは3次元物体の底面の位置する平面を示すパ
ラメータであり、この平面とZ軸の交点がc、aとbは
平面の傾きを示す。
In equations (11) to (14), (1
Since equations (1) and (12) are generally independent, a / c and b
It can be solved as a simultaneous linear equation for / c. When a / c and b / c are obtained, (8-
Using the equation 3), a, b, and c can be calculated. However, in the formulas (8-1) to (8-3), when the signs of a, b, and c are simultaneously inverted, the original formulas are restored, and therefore -a, -b,
-C is also a solution. That is, there are two solutions. here,
a, b, and c are parameters indicating the plane on which the bottom surface of the three-dimensional object is located. The intersection of this plane and the Z axis is c, and a and b indicate the inclination of the plane.

【0049】更に前記(6)式にこれらの値を代入すれ
ば、回転行列のうち、R11、R12、R13、R21、R22
23が求められる。なお回転行列には次式の性質がある
ので、次式によって残りの成分R31、R32、R33も定ま
る。
Further, by substituting these values into the equation (6), R 11 , R 12 , R 13 , R 21 , R 22 ,
R 23 is required. Since the rotation matrix has the property of the following equation, the remaining components R 31 , R 32 , and R 33 are also determined by the following equation.

【0050】[0050]

【数17】 [Equation 17]

【0051】もう1つの回転R’も同様に求められる。
以上の方法により、平面のパラメータと、運動パラメー
タ(回転行列)を算出することができる。本発明の第1
実施例を図3に基づき説明する。図3において図1と同
記号は同一部分を示す。図3において、11、12はそ
れぞれ特徴点間の対応付け部、13、14はそれぞれア
フィン変換係数算出部、15は平面のパラメータ算出
部、16、17はそれぞれ回転パラメータ算出部であ
る。
The other rotation R'is similarly obtained.
By the above method, the plane parameter and the motion parameter (rotation matrix) can be calculated. First of the present invention
An embodiment will be described with reference to FIG. 3, the same symbols as in FIG. 1 indicate the same parts. In FIG. 3, reference numerals 11 and 12 are correspondence sections between feature points, 13 and 14 are affine transformation coefficient calculation sections, 15 is a plane parameter calculation section, and 16 and 17 are rotation parameter calculation sections.

【0052】まず、第一時刻の画像の特徴点検出部1に
より、例えば図2における第一時刻の画像Q1 の特徴点
(x1 、y1 )、(x2 、y2 )、(x3 、y3 )を算
出し、第二時刻の画像の特徴点検出部2により画像Q2
の特徴点(x1 ’、y1 ’、(x2 ’、y2 ’)、(x
3 ’、y3 ’)を算出し、第三時刻の画像の特徴点検出
部3により画像Q3 の特徴点(x1 ”、y1 ”)、(x
2 ”、y2 ”)、(x 3 ”、y3 ”)を算出する。
First, the feature point detection unit 1 of the image at the first time is
Therefore, for example, the image Q at the first time in FIG.1Features of
(X1, Y1), (X2, Y2), (X3, Y3)
Of the image Q by the feature point detecting unit 2 of the image at the second time.2
Feature points (x1’、 Y1’, (X2’、 Y2’), (X
3’、 Y3′) Is calculated, and the feature points of the image at the third time are detected.
Image Q by Part 33Feature points (x1", Y1)), (X
2", Y2)), (X 3", Y3)) Is calculated.

【0053】特徴点間の対応付け部11は、前記第一時
刻の画像Q1 の特徴点と前記第二時刻の画像Q2 の特徴
点の対応関係、即ち4組の特徴点の対応関係を求める。
実際は、図2に示す如く、特徴点の1つは原点Oに固定
されているので、3組の特徴点の対応関係を求める。
The associating unit 11 between feature points determines the correspondence relationship between the feature points of the image Q 1 at the first time and the feature points of the image Q 2 at the second time, that is, the correspondence relationship of four sets of feature points. Ask.
Actually, as shown in FIG. 2, one of the feature points is fixed at the origin O, and therefore the correspondence relationship between the three sets of feature points is obtained.

【0054】同様に、特徴点間の対応付け部12は、前
記第二時刻の画像Q2 の特徴点と前記第三時刻の画像Q
3 の特徴点との対応関係、即ち4組の特徴点の対応関係
を求める。実際は、これまた3組の対応関係を求める。
Similarly, the associating unit 12 between the feature points and the feature point of the image Q 2 at the second time and the image Q at the third time.
The correspondence relationship with the three feature points, that is, the correspondence relationship between the four feature points is obtained. In reality, three sets of correspondences are also obtained.

【0055】それからアフィン変換係数算出部13は、
前記特徴点間の対応付け部11より出力される(x1
1 )、(x2 、y2 )、(x3 、y3 )、(x1 ’、
1’、(x2 ’、y2 ’)、(x3 ’、y3 ’)にも
とづき、前記(4)’式を解く。同様にアフィン変換係
数算出部14は、前記特徴点間の対応付け部12より出
力される(x1 ’、y1 ’)、(x2 ’、y2 ’)、
(x3 ’、y3 ’)、(x1 ”、y1 ”)、(x2 ”、
2 ”)、(x3 ”、y3 ”)にもとづき、(4)’式
を解く。これらによりそれぞれ画像Q1 とQ2 によるア
フィン変換係数A、B、C、D、α、βが得られ、また
画像Q2 とQ3 によるアフィン変換係数A’、B’、
C’、D’、α’、β’が得られる。
Then, the affine transformation coefficient calculation unit 13
It is output from the associating unit 11 between the feature points (x 1 ,
y 1 ), (x 2 , y 2 ), (x 3 , y 3 ), (x 1 ',
y 1 ', (x 2' , y 2 ')' based on the (4), (x 3 ' , y 3)' Solving equation. Similarly, the affine transformation coefficient calculation unit 14 outputs (x 1 ′, y 1 ′), (x 2 ′, y 2 ′) from the feature point association unit 12 described above,
(X 3 ', y 3' ), (x 1 ", y 1"), (x 2 ",
Based on y 2 ″) and (x 3 ″, y 3 ″), the equation (4) ′ is solved. By these, the affine transformation coefficients A, B, C, D, α and β by the images Q 1 and Q 2 are obtained. The affine transformation coefficients A ′, B ′, obtained by the images Q 2 and Q 3 ,
C ′, D ′, α ′ and β ′ are obtained.

【0056】平面のパラメータ算出部15では、これら
2組のアフィン変換係数をもとに、第一時刻における4
つの特徴点のうち、原点に位置していない残りの3つの
特徴点の3次元位置により定まる平面の方程式z=ax
+bx+cにおいて、前記(11)式〜(13)式を解
くことでa/c、b/cを求めた後に、(8−3)式を
用いてa、b、cを算出する。
The plane parameter calculation unit 15 calculates the value of 4 at the first time based on these two sets of affine transformation coefficients.
Of the two feature points, the equation of the plane defined by the three-dimensional positions of the remaining three feature points not located at the origin z = ax
In + bx + c, a / c and b / c are obtained by solving the equations (11) to (13), and then a, b, and c are calculated using the equation (8-3).

【0057】回転パラメータ算出部16は、平面のパラ
メータ算出部15から得られた平面のパラメータa、
b、cと、前記アフィン変換係数A、B、C、D、α、
βをもとに、前記(6)式から運動パラメータR11、R
12、R13、R21、R22、R23を算出する。
The rotation parameter calculation unit 16 has a plane parameter a obtained from the plane parameter calculation unit 15,
b, c and the affine transformation coefficients A, B, C, D, α,
Based on β, the motion parameters R 11 and R are calculated from the equation (6).
12 , R 13 , R 21 , R 22 , and R 23 are calculated.

【0058】同様に回転パラメータ算出部17は、平面
のパラメータ算出部15から得られた平面のパラメータ
a、b、cと、アフィン変換係数算出部14から得られ
たアフィン変換係数A’、B’、C’、D’、α’、
β’により、前記(6)式から運動パラメータR11’、
12’、R13’、R21’、R22’、R23’を算出する。
Similarly, the rotation parameter calculator 17 has the plane parameters a, b and c obtained from the plane parameter calculator 15 and the affine transformation coefficients A ′ and B ′ obtained from the affine transformation coefficient calculator 14. , C ', D', α ',
β ′ is used to calculate the motion parameter R 11 ′ from the equation (6),
R 12 ', R 13', R 21 ', R 22', calculates the R 23 '.

【0059】次に、図4により本発明の第2実施例を説
明する。画像処理にあたり、いつも特徴点の対応付けを
とることが成功するとは限らず、失敗してとれない場合
がある。図4はこの特徴点の対応付けがとれたか否かを
判定し、とれなかったらもう一度とり直す。この対応付
けがとれたか否かを判定するため、図4では対応付け正
否判定部18、19を設けるものである。
Next, a second embodiment of the present invention will be described with reference to FIG. In image processing, it is not always successful in associating feature points with each other, and in some cases, failure cannot be achieved. In FIG. 4, it is determined whether or not the feature points are associated with each other. In order to determine whether or not this association has been established, in FIG. 4, association correctness determination units 18 and 19 are provided.

【0060】図4においては、図3の実施例と同様に、
第一時刻の画像の特徴点検出部1、第二時刻の画像の特
徴点検出部2、第三時刻の画像の特徴点検出部3によ
り、それぞれ図2に示す画像Q1 、Q2 、Q3 の各特徴
点を算出し、特徴点間の対応付け部11は画像Q1 、Q
2 の特徴点の対応関係を求め、特徴点間の対応付け部1
2は画像Q1 3 の特徴点の対応関係を求める。
In FIG. 4, as in the embodiment of FIG.
The image Q 1 , Q 2 , and Q 2 shown in FIG. 2 are respectively provided by the feature point detection unit 1 of the image at the first time, the feature point detection unit 2 of the image at the second time, and the feature point detection unit 3 of the image at the third time. Each feature point of 3 is calculated, and the associating unit 11 between feature points calculates the images Q 1 , Q 2.
Correspondence section 1 between feature points is obtained by obtaining the correspondence relationship between the two feature points.
In step 2, the correspondence between feature points of the images Q 1 Q 3 is obtained.

【0061】そしてアフィン変換係数算出部13は、前
記画像Q1 、Q2 より得られた特徴点間の対応付け部1
1から出力されるデータにもとづき前記(4)’式を解
き、アフィン変換係数A、B、C、D、α、βを得る。
またアフィン変換係数算出部14は、前記画像Q1 、Q
3 より得られた特徴点間の対応付け部12から出力され
るデータにもとづき、これまた前記(4)’式を解き、
アフィン変換係数A’、B’、C’、D’、α’、β’
を得る。
The affine transformation coefficient calculation unit 13 then associates the feature points obtained from the images Q 1 and Q 2 with each other.
The equation (4) ′ is solved based on the data output from 1 to obtain the affine transformation coefficients A, B, C, D, α and β.
Further, the affine transformation coefficient calculation unit 14 uses the images Q 1 , Q 2.
Based on the data output from the associating unit 12 between the feature points obtained from 3, the equation (4) ′ is also solved,
Affine transformation coefficients A ', B', C ', D', α ', β'
To get

【0062】対応付け正否判定部18は、前記アフィン
変換係数A、B、C、D、α、βにより前記(A)式の
演算を行う。また対応付け正否判定部19は前記アフィ
ン変換係数A’、B’、C’、D’、α’、β’により
前記(A)式の演算を行う。
The association correctness determination unit 18 calculates the equation (A) using the affine transformation coefficients A, B, C, D, α and β. The association correctness determination unit 19 also performs the calculation of the formula (A) using the affine transformation coefficients A ′, B ′, C ′, D ′, α ′ and β ′.

【0063】これらにより(A)式の演算が成立すれ
ば、前記図3の実施例と同様に、平面のパラメータ算出
部15により平面のパラメータa、b、cを算出し、ま
た回転パラメータ算出部16、17により、それぞれ運
動パラメータR11、R12、R13、R21、R22、R23及び
11’、R12’、R13’、R21’、R22’、R23’を算
出する。
If the calculation of the equation (A) is established by these, the plane parameter calculation unit 15 calculates the plane parameters a, b, c, and the rotation parameter calculation unit, as in the embodiment of FIG. 16 and 17, the motion parameters R 11 , R 12 , R 13 , R 21 , R 22 , R 23 and R 11 ′, R 12 ′, R 13 ′, R 21 ′, R 22 ′, R 23 ′ are respectively calculated. calculate.

【0064】もし(A)式の演算が成立しなければ、N
Oのルートにより、再び第一時刻の画像の特徴点検出部
1、第二時刻の画像の特徴点検出部2、第三時刻の画像
の特徴点検出部3より得られた各画像にもとづき、同様
の対応付け処理をやり直すことになる。
If the operation of the expression (A) does not hold, N
Based on the respective images obtained by the feature point detection unit 1 of the image at the first time, the feature point detection unit 2 of the image at the second time, and the feature point detection unit 3 of the image at the third time by the route of O, The same association process will be redone.

【0065】更に、図5により、本発明の第3実施例を
説明する。本発明では、Z軸の回りに3次元物体が回転
しているとき解けない。しかしどの位回転しているかは
わかるので、それが出力できる。
Further, a third embodiment of the present invention will be described with reference to FIG. In the present invention, it cannot be solved when the three-dimensional object is rotating around the Z axis. However, I can see how much it is rotating, so I can output it.

【0066】Z軸の回りに3次元物体が回転しているか
否かを判定するため、図5に示す如く、Z軸回転判定部
20、21を設ける。そして前記(4)’式により得ら
れたアフィン変換係数のうちαとβがともにゼロか否か
判定する。ともにゼロの場合には、Z軸の回りに回転し
ているものと判定する。そしてこの場合、回転パラメー
タ算出部22、23により前記(6)式を演算し、それ
ぞれ回転パラメータだけを算出する。
In order to determine whether or not the three-dimensional object is rotating around the Z axis, Z axis rotation determining sections 20 and 21 are provided as shown in FIG. Then, it is determined whether or not both α and β are zero among the affine transformation coefficients obtained by the equation (4) ′. If both are zero, it is determined that the rotation is about the Z axis. In this case, the rotation parameter calculation units 22 and 23 calculate the equation (6) to calculate only the rotation parameter.

【0067】[0067]

【発明の効果】本発明によれば、例えば前記(7)式の
如き、複雑な運動パラメータを先ず消去して、位置関係
を表すパラメータつまり平面のパラメータについての方
程式を導くようにして、演算すべき方程式を解き易くし
たので、演算量を削減することができる。
According to the present invention, a complicated motion parameter such as the above equation (7) is first erased, and an equation for a parameter representing a positional relationship, that is, a plane parameter is derived and calculated. Since the power equation is made easy to solve, the amount of calculation can be reduced.

【0068】しかも、本発明の第2実施例によれば特徴
点間の対応付けがとれたか否かを途中で判定できるの
で、正確な判断を早く行うことができる。更に本発明の
第3実施例によれば、物体がZ軸回転しているか否かを
途中で判定できるので、これまた正確な判断を早く行う
ことができる。
Moreover, according to the second embodiment of the present invention, it is possible to determine whether or not the feature points have been associated with each other, so that an accurate determination can be made quickly. Furthermore, according to the third embodiment of the present invention, it is possible to determine whether or not the object is rotating in the Z-axis on the way, so that an accurate determination can be made quickly.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の原理図である。FIG. 1 is a principle diagram of the present invention.

【図2】物体の移動状態説明図である。FIG. 2 is an explanatory diagram of a moving state of an object.

【図3】本発明の第1実施例である。FIG. 3 is a first embodiment of the present invention.

【図4】本発明の第2実施例である。FIG. 4 is a second embodiment of the present invention.

【図5】本発明の第3実施例である。FIG. 5 is a third embodiment of the present invention.

【図6】従来例及び特徴点と画像の説明図である。FIG. 6 is an explanatory diagram of a conventional example, feature points, and an image.

【符号の説明】[Explanation of symbols]

1 第一時刻の画像の特徴点検出部 2 第二時刻の画像の特徴点検出部 3 第三時刻の画像の特徴点検出部 4 位置関係の算出部 5 運転パラメータ算出部 11、12 特徴点間の対応付け部 13、14 アフィン変換係数算出部 15 平面のパラメータ算出部 16、17 回転パラメータ算出部 1 1st time image feature point detection unit 2 2nd time image feature point detection unit 3 3rd time image feature point detection unit 4 Positional relationship calculation unit 5 Operating parameter calculation unit 11, 12 Between feature points Associating unit 13 and 14 Affine transformation coefficient calculator 15 Planar parameter calculator 16 and 17 Rotation parameter calculator

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 第一時刻の画像の特徴点検出部(1)
と、第二時刻の画像の特徴点検出部(2)と、第三時刻
の画像の特徴点検出部(3)を有し、画像より3次元構
造を復元する3次元復元方式において、 位置関係の算出手段(4)と、 運動パラメータ算出手段(5)を具備し、 先ず位置関係の算出手段(4)において平面のパラメー
タを算出し、次に運動パラメータ算出手段(5)により
運動パラメータを算出するように構成したことを特徴と
する3次元復元方式。
1. A feature point detection unit (1) for an image at a first time
And a feature point detection unit (2) for the image at the second time and a feature point detection unit (3) for the image at the third time, and in the three-dimensional restoration method for restoring the three-dimensional structure from the image, The calculation means (4) and the motion parameter calculation means (5) are provided. First, the positional relationship calculation means (4) calculates planar parameters, and then the motion parameter calculation means (5) calculates motion parameters. A three-dimensional reconstruction method characterized by being configured as follows.
【請求項2】 第一時刻の画像の特徴点検出部(1)
と、第二時刻の画像の特徴点検出部(2)と、第三時刻
の画像の特徴点検出部(3)を有し、画像より3次元構
造を復元する3次元復元方式において、 画像間で特徴点の対応を検出する対応検出手段(1
1)、(12)と、 画像間の特徴点の対応からアフィン変換係数を算出する
アフィン変換係数算出手段(13)、(14)と、 第一時刻と第二時刻の間のアフィン変換係数と、第一時
刻と第三時刻との間のアフィン変換係数から第一時刻に
おける4つの特徴点のうち1つを原点とみなしたときの
残りの3点により定まる平面のパラメータを算出する平
面のパラメータ算出手段(15)を具備したことを特徴
とする3次元復元方式。
2. A feature point detection unit (1) for an image at a first time.
And a feature point detection unit (2) for the image at the second time and a feature point detection unit (3) for the image at the third time, and in the three-dimensional restoration method for restoring the three-dimensional structure from the images, Correspondence detection means (1
1) and (12), affine transformation coefficient calculation means (13) and (14) for calculating affine transformation coefficients from the correspondence of feature points between images, and affine transformation coefficients between the first time and the second time. , A parameter of a plane for calculating from the affine transformation coefficient between the first time and the third time a parameter of the plane determined by the remaining three points when one of the four feature points at the first time is regarded as the origin A three-dimensional reconstruction method comprising a calculating means (15).
【請求項3】 請求項2において、 アフィン変換係数の間に所定の関係が成立しているか否
かを判定し、成立していないときは特徴点の対応付けが
正しくないと判断する対応付け正否判定手段(18)、
(19)を設けたことを特徴とする3次元復元方式。
3. The matching correctness according to claim 2, wherein it is determined whether or not a predetermined relationship is established between the affine transformation coefficients, and if not, it is determined that the correspondence of the feature points is incorrect. Determination means (18),
A three-dimensional reconstruction method characterized in that (19) is provided.
【請求項4】 前記請求項2において、 前記平面のパラメータ算出部(15)から算出された平
面のパラメータと、前記アフィン変換係数算出手段(1
3)、(14)から算出されたアフィン変換係数から、
第一時刻と第二時刻間の回転パラメータならびに第一時
刻と第三時刻の間の回転パラメータを算出する回転パラ
メータ算出手段(16)、(17)を具備したことを特
徴とする3次元復元方式。
4. The plane parameter calculated by the plane parameter calculating section (15) according to claim 2, and the affine transformation coefficient calculating means (1).
3), from the affine transformation coefficient calculated from (14),
A three-dimensional reconstruction method comprising rotation parameter calculation means (16), (17) for calculating a rotation parameter between the first time and the second time and a rotation parameter between the first time and the third time. .
【請求項5】 前記請求項3において、 第一時刻と第二時刻の間のアフィン変換係数または第一
時刻と第三時刻の間のアフィン変換係数の特定の2つの
係数がいずれもゼロの場合、物体がZ軸の回りを回転し
ているものと判別するZ軸回転判定手段(20)、(2
1)を具備したことを特徴とする3次元復元方式。
5. The method according to claim 3, wherein both two specific affine transformation coefficients between the first time and the second time or between the first time and the third time are zero. , Z-axis rotation determination means (20) for determining that the object is rotating around the Z-axis, (2
A three-dimensional reconstruction method characterized by comprising 1).
JP4275729A 1992-10-14 1992-10-14 Three dimensional restoration method Withdrawn JPH06129833A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4275729A JPH06129833A (en) 1992-10-14 1992-10-14 Three dimensional restoration method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4275729A JPH06129833A (en) 1992-10-14 1992-10-14 Three dimensional restoration method

Publications (1)

Publication Number Publication Date
JPH06129833A true JPH06129833A (en) 1994-05-13

Family

ID=17559573

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4275729A Withdrawn JPH06129833A (en) 1992-10-14 1992-10-14 Three dimensional restoration method

Country Status (1)

Country Link
JP (1) JPH06129833A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6038074A (en) * 1997-05-20 2000-03-14 Ricoh Company, Ltd. Three-dimensional measuring apparatus and method, image pickup apparatus, and apparatus and method for inputting image
JP2000331160A (en) * 1999-05-24 2000-11-30 Nec Corp Device and method for matching and recording medium stored with matching program
US7379564B2 (en) 2002-12-18 2008-05-27 Aisin Seiki Kabushiki Kaisha Movable body circumstance monitoring apparatus
JP2016092567A (en) * 2014-11-04 2016-05-23 セイコーエプソン株式会社 Head-mounted display device, control method for head-mounted display device, and computer program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6038074A (en) * 1997-05-20 2000-03-14 Ricoh Company, Ltd. Three-dimensional measuring apparatus and method, image pickup apparatus, and apparatus and method for inputting image
JP2000331160A (en) * 1999-05-24 2000-11-30 Nec Corp Device and method for matching and recording medium stored with matching program
US7379564B2 (en) 2002-12-18 2008-05-27 Aisin Seiki Kabushiki Kaisha Movable body circumstance monitoring apparatus
JP2016092567A (en) * 2014-11-04 2016-05-23 セイコーエプソン株式会社 Head-mounted display device, control method for head-mounted display device, and computer program

Similar Documents

Publication Publication Date Title
JP6551184B2 (en) Simulation apparatus, simulation method, and simulation program
JP5713159B2 (en) Three-dimensional position / orientation measurement apparatus, method and program using stereo images
CN111127422A (en) Image annotation method, device, system and host
KR19990008059A (en) A method for reproducing and operating a three-dimensional object based on a two-dimensional projection of a three-dimensional object and its apparatus
Larsson et al. Revisiting radial distortion absolute pose
KR20000064528A (en) 3D image processing method and apparatus using parallax shape at both points
WO2011145285A1 (en) Image processing device, image processing method and program
JP2007004578A (en) Method and device for acquiring three-dimensional shape and recording medium for program
Mohr et al. Relative positioning from geometric invariants.
Liu et al. Epipolar rectification method for a stereovision system with telecentric cameras
CN110930444B (en) Point cloud matching method, medium, terminal and device based on bilateral optimization
Ammi et al. Flexible microscope calibration using virtual pattern for 3-d telemicromanipulation
Fan et al. Large-scale dense mapping system based on visual-inertial odometry and densely connected U-Net
JPH06129833A (en) Three dimensional restoration method
JP4006296B2 (en) Displacement measuring method and displacement measuring apparatus by photogrammetry
JP2000003446A (en) Missing value estimating method, three-dimensional data input device and recording medium
JP2002008014A (en) Method and device for extracting three-dimensional shape, and recording medium
WO2020166401A1 (en) Learning data generation device, method, and program
Liang et al. An integrated camera parameters calibration approach for robotic monocular vision guidance
JP3548652B2 (en) Apparatus and method for restoring object shape
JP2005063012A (en) Full azimuth camera motion and method and device for restoring three-dimensional information and program and recording medium with the same recorded
JP2001245323A (en) Three-dimensional input method and device
JP3452188B2 (en) Tracking method of feature points in 2D video
EP3779878A1 (en) Method and device for combining a texture with an artificial object
Yu et al. A self-correction based algorithm for single-shot camera calibration

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20000104