JP2923069B2 - Viewpoint position determination method - Google Patents

Viewpoint position determination method

Info

Publication number
JP2923069B2
JP2923069B2 JP3074439A JP7443991A JP2923069B2 JP 2923069 B2 JP2923069 B2 JP 2923069B2 JP 3074439 A JP3074439 A JP 3074439A JP 7443991 A JP7443991 A JP 7443991A JP 2923069 B2 JP2923069 B2 JP 2923069B2
Authority
JP
Japan
Prior art keywords
viewpoint
measurement
probability density
density distribution
equation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP3074439A
Other languages
Japanese (ja)
Other versions
JPH04286905A (en
Inventor
敦 野引
央 成瀬
立田  光廣
敦志 井手
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP3074439A priority Critical patent/JP2923069B2/en
Publication of JPH04286905A publication Critical patent/JPH04286905A/en
Application granted granted Critical
Publication of JP2923069B2 publication Critical patent/JP2923069B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、異なる2視点間の相対
位置関係を決定する視点位置決定方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a viewpoint position determining method for determining a relative positional relationship between two different viewpoints.

【0002】[0002]

【従来の技術】まず、異なる2視点間の相対位置を決定
する従来の方法を説明し、次に、この従来の方法に用い
られるステレオ画像計測の原理およびその誤差の性質に
ついて説明し、さらに、この従来の方法における誤差の
取り扱いについて説明する。
2. Description of the Related Art First, a conventional method for determining a relative position between two different viewpoints will be described. Next, the principle of stereo image measurement used in the conventional method and the nature of its error will be described. The handling of errors in this conventional method will be described.

【0003】(1) 異なる2視点間の相対位置関係を
決定する従来の方法 図4は、3次元空間内にある2つの視点O1,O2間の相
対位置関係を表している。第1の視点O1における座標
系(第1の視点座標系)をx111座標系で表すと
き、この座標系を、z1軸の周りにθ、y1軸の周りに
φ、x1軸の周りにψの回転を行なったのち、新しい軸
に沿って3方向への平行移動Δx,Δy,Δzを行なった
結果が第2の視点O2における座標系(第2の視点座標
系)であるとする。第2の視点座標系は、図4におい
て、x222座標系で表されている。ここで、第1の
視点O1と第2の視点O2との相対位置関係を上述の各座
標変換パラメータθ,φ,ψ,Δx,Δy,Δzで表現す
る。
(1) Conventional method for determining relative positional relationship between two different viewpoints FIG. 4 shows a relative positional relationship between two viewpoints O 1 and O 2 in a three-dimensional space. When representing the first coordinate system at viewpoint O 1 (first viewpoint coordinate system) with x 1 y 1 z 1 coordinate system, the coordinate system about the z 1 axis theta, about the y 1 axis φ , after performing rotation ψ about the x 1 axis, translation Δx in the three directions along the new axis, [Delta] y, result of performing Δz second coordinate system in the view point O 2 (second viewpoint Coordinate system). The second viewpoint coordinate system in FIG. 4 are represented by x 2 y 2 z 2 coordinate system. Here, the relative positional relationship between the first viewpoint O 1 and the second viewpoint O 2 is represented by the above-described coordinate conversion parameters θ, φ, ψ, Δx, Δy, Δz.

【0004】従来、この2つの視点O1,O2間の相対位
置関係を決定する場合、3次元空間内のn(n≧3)個
の被計測点について、これら各視点O1,O2のそれぞれ
からステレオ画像計測によってその位置を計測し、被計
測点の観測された座標を当該視点における座標系によっ
て表現し、各被計測点について得られた結果から決定す
るようになっていた。
Conventionally, when determining the relative positional relationship between the two viewpoints O 1, O 2, for n (n ≧ 3) pieces of the measurement points in the three-dimensional space, each of these viewpoints O 1, O 2 Is measured from each of the positions by stereo image measurement, the observed coordinates of the measured point are represented by a coordinate system at the viewpoint, and determined from the result obtained for each measured point.

【0005】図5において、第1、第2の視点O1,O2
からn個の被計測点のうちk番目の被計測点Pkを計測
した結果を、当該視点における座標系で表したものをそ
れぞれ
In FIG. 5, first and second viewpoints O 1 and O 2 are shown.
The result of measuring the k-th measured point P k among the n measured points from is expressed in the coordinate system at the viewpoint.

【外1】 で表す。このとき、ベクトル[Outside 1] Expressed by Then the vector

【外2】 は、それぞれ、この被計測点Pkについての各視点O1,
2における計測座標ベクトルを表す。
[Outside 2] Are the viewpoints O 1 ,
It represents the measurement coordinate vector in O 2.

【0006】ところで、第1の視点座標系から第2の視
点座標系への座標変換の演算子をTで表すと、
By the way, if an operator for coordinate conversion from the first viewpoint coordinate system to the second viewpoint coordinate system is represented by T,

【数1】 が成立するはずである。n個の被計測点の全てについ
て、2つの視点O1,O2からその位置を計測することに
より、式(1)のTを決定することができ、2つの視点
1,O2間の相対位置関係を決定することができる。
(Equation 1) Should hold. By measuring the positions of all the n measurement points from the two viewpoints O 1 and O 2 , T in the equation (1) can be determined, and the distance between the two viewpoints O 1 and O 2 can be determined. The relative positional relationship can be determined.

【0007】しかし、実際の計測では、誤差の発生を防
ぐことができない。一般に、各視点O1,O2から被計測
点Pkを計測した結果
However, in actual measurement, it is not possible to prevent occurrence of an error. Generally, the result of measuring the measured point P k from each viewpoint O 1 , O 2

【外3】 は、3次元空間において一致せず、ずれる。このずれを
ずれ量ベクトル
[Outside 3] Are not coincident in the three-dimensional space and are shifted. This displacement is represented by the displacement vector

【外4】 を用いて表すことにする。第1の視点O1から被計測点
kを計測した結果を第2の視点O2における座標系で表
すことを考えると、座標変換の演算子Tの定義より、
[Outside 4] Will be represented using. Considering that the result of measuring the measured point P k from the first viewpoint O 1 is represented by a coordinate system at the second viewpoint O 2 , from the definition of the coordinate transformation operator T,

【数2】 が成立するから、ずれ量ベクトルについて、(Equation 2) Holds, the displacement vector is

【数3】 が成立する。(Equation 3) Holds.

【0008】そこで、従来の方法では、n個の被測定点
の全てについて、ずれ量ベクトル
Therefore, in the conventional method, the shift amount vector is determined for all of the n measured points.

【外5】 (k=1,2,…,n)のユークリッド・ノルムを求め、
そのユークリッド・ノルムの2乗の総和をずれ評価量E
とし、ずれ評価量Eを最小とする座標変換の演算子Tを
求めることによって、2つの視点O1,O2間の相対位置
関係を決定するようになっていた。
[Outside 5] Find the Euclidean norm of (k = 1,2, ..., n),
The sum of the squares of the Euclidean norm is shifted by the evaluation amount E
Then, the relative positional relationship between the two viewpoints O 1 and O 2 is determined by obtaining an operator T for coordinate conversion that minimizes the displacement evaluation amount E.

【0009】このとき、各被計測点Pkごとに計測誤差
の大きさが異なることから、誤差の大きさのちがいを重
みとして取り入れ、ずれ評価量Eを
At this time, since the magnitude of the measurement error is different for each point to be measured P k , the difference in the magnitude of the error is taken as a weight, and the deviation evaluation amount E is calculated.

【数4】 と定めることにより相対位置関係の決定の高精度化を図
る試みがなされている(Robert M. Haralick 他, "Pose
Estimation from Corresponding Point Data",IEEE Tr
ans. on Systems, Man. and Cybernetics, Vol.19, No.
6, PP. 1426-1446)。なお、‖…‖はユークリッド・
ノルムを表し、Wkは、k番目の被計測点Pkにおける計
測誤差に対する重み係数である。
(Equation 4) Attempts have been made to improve the accuracy of the determination of the relative positional relationship by determining the relationship (Robert M. Haralick et al., "Pose
Estimation from Corresponding Point Data ", IEEE Tr
ans.on Systems, Man. and Cybernetics, Vol.19, No.
6, PP. 1426-1446). ‖… ‖ Is Euclid
Represents a norm, and W k is a weight coefficient for a measurement error at the k-th measured point P k .

【0010】(2) ステレオ画像計測 次に、ステレオ画像計測の原理について、図6により説
明する。ステレオ画像計測は、3次元空間を視点に設け
られた左右の2台のカメラによって2次元平面に投影
し、2台のカメラ間の視差により被計測点の位置を計測
する方法である。3次元空間を表す座標としてx,y,z
を用い、この3次元空間を左右の2台のカメラによって
投影した2次元の画像面2,3上の位置を表す座標とし
てu,vを用いる。x軸とu軸、z軸とv軸はそれぞれ
平行であり、y軸はカメラの光軸1に平行であるとす
る。また、3次元空間座標系(xyz座標系)の原点O
を視点とする。左右のカメラ間の距離を2aとすると、
各カメラの主点OL,ORの座標は、ぞれぞれ(-a,0,0),
(a,0,0)となる。また、各カメラの主点OL,ORと画像面
2,3との距離をfとする。以下、左、右の画像をそれ
ぞれ添字L,Rで表す。
(2) Stereo Image Measurement Next, the principle of stereo image measurement will be described with reference to FIG. Stereo image measurement is a method in which a three-dimensional space is projected onto a two-dimensional plane by two left and right cameras provided at the viewpoint, and the position of a point to be measured is measured by parallax between the two cameras. X, y, z as coordinates representing a three-dimensional space
And u and v are used as coordinates representing the position on the two-dimensional image planes 2 and 3 obtained by projecting this three-dimensional space by the two right and left cameras. It is assumed that the x-axis and the u-axis, the z-axis and the v-axis are respectively parallel, and the y-axis is parallel to the optical axis 1 of the camera. Also, the origin O of a three-dimensional space coordinate system (xyz coordinate system)
From the viewpoint. If the distance between the left and right cameras is 2a,
Principal point O L, the O R coordinates of each camera, Zorezore (-a, 0,0),
(a, 0,0). Also, the principal point O L of each camera, the distance between the O R and the image plane 2, 3 and f. Hereinafter, the left and right images are represented by subscripts L and R, respectively.

【0011】3次元空間内の1点P(x,y,z)が、左右の
画像面2、3上の点IL(uL,vL),IR(uR,vR)にそれぞれ
投影されたとする。このときエピポーラ条件から、vL
とvRとは同じ値となり、以下両者を区別せずvで表
す。△ILRPと△OLRPとが相似であることから、
画像面上での測定値uL,uR,vを用いて、点P(x,y,z)
は、 x = a(uL+uR)/(uL−uR) …(3) y = 2af/(uL−uR) …(4) z = 2av/(uL−uR) …(5) と表される。以上の原理によりステレオ画像計測が実行
される。
[0011] 1 point P in the three-dimensional space (x, y, z) is a point I L on the left and right image planes 2,3 (u L, v L) , I R (u R, v R) to It is assumed that each is projected. At this time, from the epipolar condition, v L
And v R have the same value, and are represented by v without distinguishing between them. △ since the I L I R P and △ O L O R P is similar,
Using the measured values u L , u R , v on the image plane, a point P (x, y, z)
Is, x = a (u L + u R) / (u L -u R) ... (3) y = 2af / (u L -u R) ... (4) z = 2av / (u L -u R) ... (5). Stereo image measurement is performed according to the above principle.

【0012】このようなステレオ画像計測を行うための
装置の一例の構成を図7に示す。この装置はデジタル画
像処理によるものであり、左右の2台のテレビカメラ4
1,42で撮像された画像は、それぞれ走査線ごとに走査
されて、時間的に連続した画像信号に変換される。各画
像信号は、デジタイザ5に入力し、デジタイザ5内のサ
ンプラによって、碁盤の目のように2次元に配列された
縦横それぞれ数百個の画素に標本化され、さらにデジタ
イザ5内のA/D変換器によって、各画素に入射した光
量に対応した数百階調に量子化される。このように、画
像は、デジタイザ5を介してデジタル化され、画素の位
置を示す座標の情報として、画像メモリ6のに入力され
て記憶される。そして計算機(CPU)7に入力され、
エッジなどの特徴を手がかりとして、座標の測定値uL,
R,vが求められる。そののち上記式(3)〜(5)によって
点P(x,y,z)が求められる。
FIG. 7 shows the configuration of an example of an apparatus for performing such stereo image measurement. This device is based on digital image processing and has two left and right TV cameras 4
1, 4 2 in the captured image is being scanned for each scan line, it is converted into time-sequential image signal. Each image signal is input to the digitizer 5, sampled by a sampler in the digitizer 5 into several hundred pixels each of which is arranged two-dimensionally like a grid in the vertical and horizontal directions, and further A / D in the digitizer 5. The data is quantized by the converter to several hundred gradations corresponding to the amount of light incident on each pixel. As described above, the image is digitized via the digitizer 5, and is input to the image memory 6 and stored as coordinate information indicating the position of the pixel. Then, it is input to a computer (CPU) 7,
Coordinate measurement values u L ,
u R , v is determined. After that, the point P (x, y, z) is obtained by the above equations (3) to (5).

【0013】次に、ステレオ画像計測における誤差の性
質について説明する。水準器などを用い、ステレオ画像
計測を満足するような位置精度でカメラを設定すること
は可能であるので、ここでは、画像面上での投影点の位
置計測精度と3次元空間内での位置決定精度との関係に
ついて考察する。簡単のため、uL,uR,vの計測誤差は
統計的に同じ性質を有し、それらの標準偏差がσである
とする。誤差の伝播法則から、式(3)〜(5)により求めら
れるx,y,zの標準偏差σxyzは、
Next, the nature of the error in the stereo image measurement will be described. Since it is possible to set the camera with a position accuracy that satisfies the stereo image measurement using a level, etc., here, the position measurement accuracy of the projection point on the image plane and the position in the three-dimensional space Consider the relationship with decision accuracy. For simplicity, it is assumed that the measurement errors of u L , u R , v have the same statistical properties, and their standard deviation is σ. From the propagation law of the error, the standard deviations σ x , σ y , σ z of x, y, z obtained by Expressions (3) to (5) are

【数5】 のように表される。(Equation 5) It is represented as

【0014】通常、カメラの標準的な全視野角は50°
程度以下であり、計測対象は主に地表面近くにあること
から、y≫x〜zとなる。よって、視点と計測対象まで
の距離(x2+y2+z21/2はyで近似できる。したが
って、式(6)〜(8)より、x軸方向およびz軸方向すなわ
ち左右および上下方向では、誤差が距離に比例して大き
くなるのに対し、y軸方向すなわち奥行き方向では、誤
差が距離の2乗に比例して大きくなることがわかる。こ
のためにステレオ画像計測では、視点から計測対象まで
の距離の増加とともに、特に奥行き方向での計測精度が
著しく低下するという性質がある。
Typically, the standard full viewing angle of a camera is 50 °
Y or less, and the measurement target is mainly near the ground surface, so that y≫x〜z. Therefore, the distance (x 2 + y 2 + z 2 ) 1/2 from the viewpoint to the measurement target can be approximated by y. Therefore, from Equations (6) to (8), the error increases in proportion to the distance in the x-axis direction and the z-axis direction, that is, in the left-right and up-down directions, whereas the error increases in the y-axis direction, that is, the depth direction. It can be seen that it increases in proportion to the square of. For this reason, in the stereo image measurement, there is a property that the measurement accuracy particularly in the depth direction is significantly reduced as the distance from the viewpoint to the measurement target increases.

【0015】(3) 異なる2視点間の相対位置関係を
決定する従来の方法における誤差の取り扱い 一般に、3次元空間内の2つの座標系間の相対位置関係
は、3つの回転パラメータと3つの平行移動(並進)パ
ラメータとによって、完全に記述することができる。一
方、ステレオ画像計測は、水準器などの使用により、左
右の2台のカメラのそれぞれの主点を結ぶ主軸と、各カ
メラの光軸とが、mrad以下の水平精度を保つようにして
実施することができる。そこで、2つの異なる視点が同
一水平面内にあるという仮定をおくことは現実的であ
り、以下の議論では、この仮定の成立を前提にして、2
次元(各視点における座標系が水平面内の2次元座標系
で記述できる場合)の場合について扱うこととする。
(3) Error Handling in Conventional Method for Determining Relative Position Relation between Two Different Viewpoints Generally, the relative position relation between two coordinate systems in a three-dimensional space is determined by three rotation parameters and three parallel parameters. The movement (translation) parameter can be completely described. On the other hand, stereo image measurement is performed by using a level or the like so that the principal axis connecting the principal points of the two left and right cameras and the optical axis of each camera maintain horizontal accuracy of mrad or less. be able to. Therefore, it is realistic to make an assumption that two different viewpoints are in the same horizontal plane. In the following discussion, it is assumed that this assumption is satisfied.
The case of dimension (when the coordinate system at each viewpoint can be described by a two-dimensional coordinate system in a horizontal plane) will be handled.

【0016】第1の視点から、k番目の被計測点Pk
計測し、第1の視点における座標系(第1の視点座標
系)でのその計測結果を
From the first viewpoint, the k-th point P k to be measured is measured, and the measurement result in the coordinate system (first viewpoint coordinate system) at the first viewpoint is obtained.

【外6】 とし、第1の視点座標系における計測座標ベクトルを[Outside 6] And the measured coordinate vector in the first viewpoint coordinate system is

【数6】 とする。同様に、第2の視点から被計測点Pkを計測
し、第2の視点における座標系(第2の視点座標系)で
のその計測結果を
(Equation 6) And Similarly, the measured point P k is measured from the second viewpoint, and the measurement result in the coordinate system (second viewpoint coordinate system) at the second viewpoint is obtained.

【外7】 とし、第2の視点座標系における計測座標ベクトルを[Outside 7] And the measured coordinate vector in the second viewpoint coordinate system is

【数7】 とする。さらに、第1の視点からみた計測結果を第2の
視点座標系でのベクトルで表したものを、第2の視点座
標系における仮想座標ベクトルといい、
(Equation 7) And Further, a measurement result viewed from the first viewpoint, represented by a vector in the second viewpoint coordinate system, is referred to as a virtual coordinate vector in the second viewpoint coordinate system,

【数8】 で表す。このとき、(Equation 8) Expressed by At this time,

【外8】 と(x2,k',y2,k')との間には、[Outside 8] And (x 2, k ', y 2, k ')

【数9】 が成立する。ただし、θ,Δx,Δyは2次元の座標変換
パラメータである。この場合、ずれ評価量Eは、式(4)
より、
(Equation 9) Holds. Here, θ, Δx, and Δy are two-dimensional coordinate conversion parameters. In this case, the deviation evaluation amount E is calculated by the equation (4).
Than,

【数10】 と表される。(Equation 10) It is expressed as

【0017】上述のように、ステレオ画像計測では、視
点と被測定点との距離の2乗に逆比例して計測精度が低
下するので、これを信頼度の基準と考え、重みWk
[0017] As described above, in stereo image measurement, since inverse proportion to the measurement accuracy decreases to the square of the viewpoint and the distance between the measured point, considered as a reference for the reliability of this, the weight W k

【数11】 のように定める。そして、式(9)のEを最小にするθ,Δ
x,Δyを最小2乗法によって決定する。すなわち、
[Equation 11] Determined as follows. Then, θ, Δ that minimizes E in equation (9)
x and Δy are determined by the least squares method. That is,

【数12】 により、次の条件式(10)〜(12)を満たす座標変換パラメ
ータを決定する。
(Equation 12) Thus, coordinate conversion parameters that satisfy the following conditional expressions (10) to (12) are determined.

【数13】 (Equation 13)

【0018】式(10)〜(12)を連立してθ,Δx,Δyにつ
いて解くと、θ,Δx,Δyは、
When equations (10) to (12) are simultaneously solved for θ, Δx, Δy, θ, Δx, Δy are

【数14】 のようになる。ここで、[Equation 14] become that way. here,

【数15】 (Equation 15)

【数16】 である。(Equation 16) It is.

【0019】以上のようにして、座標変換パラメータ
θ,Δx,Δyが求められ、2つの異なる視点間の相対位
置関係が決定できる。
As described above, the coordinate conversion parameters θ, Δx, Δy are obtained, and the relative positional relationship between two different viewpoints can be determined.

【0020】[0020]

【発明が解決しようとする課題】上述した従来の視点位
置決定方法では、ステレオ画像計測における誤差の異方
性を考慮せず、誤差が等方的であることを前提とする単
純な重み付き平均によって、2つの異なる視点間の相対
位置関係を決定するため、相対位置関係の決定の精度が
十分には得られないという問題点がある。
The above-described conventional viewpoint position determination method does not consider the anisotropy of the error in the stereo image measurement, and simply uses a simple weighted average on the assumption that the error is isotropic. Accordingly, there is a problem in that the relative positional relationship between two different viewpoints is determined, so that the accuracy of determining the relative positional relationship cannot be sufficiently obtained.

【0021】本発明の目的は、各視点においてステレオ
画像計測を行なうことにより、異なる2つの視点間の相
対位置関係を決定する場合に、高精度で相対位置関係を
決定することのできる、視点位置決定方法を提供するこ
とにある。
An object of the present invention is to perform stereo image measurement at each viewpoint to determine the relative positional relationship between two different viewpoints with high accuracy when determining the relative positional relationship. It is to provide a decision method.

【0022】[0022]

【課題を解決するための手段】本発明の第1の視点位置
決定方法は、ステレオ画像計測により、n(ただしn≧
2)個の被計測点のそれぞれの2次元平面内における位
置を第1の視点から計測する、第1の工程と、ステレオ
画像計測により、前記n個の被計測点のそれぞれの2次
元平面内における位置を第2の視点から計測する、第2
の工程と、前記n個の被計測点のそれぞれについて、前
記第1の視点と前記第2の視点との間の、2次元平面に
おける相対位置関係を記述する座標変換パラメータと、
当該被計測点の真の位置とを変数として含む確率密度分
布を算出し、前記第1の視点と前記第2の視点とについ
て前記確率密度分布を合成して合成確率密度分布を算出
し、前記合成確率密度分布の最大値を前記座標変換パラ
メータの関数として算出する第3の工程と、前記n個の
被計測点のそれぞれについての前記最大値を合成して計
測点合成確率を算出し、前記計測点合成確率を最大にす
る前記座標変換パラメータを求める、第4の工程を有す
る。
A first viewpoint position determining method according to the present invention uses n (where n ≧ n) by measuring a stereo image.
2) measuring the position of each of the measured points in the two-dimensional plane from a first viewpoint, and performing stereo image measurement in the respective two-dimensional planes of the n measured points. Measuring the position at from the second viewpoint, the second
And a coordinate conversion parameter describing a relative positional relationship in a two-dimensional plane between the first viewpoint and the second viewpoint for each of the n measurement points;
Calculating the probability density distribution including the true position of the measured point as a variable, calculating the combined probability density distribution by combining the probability density distributions for the first viewpoint and the second viewpoint, A third step of calculating the maximum value of the combined probability density distribution as a function of the coordinate conversion parameter, and calculating the measurement point combining probability by combining the maximum values of each of the n measured points; A fourth step of obtaining the coordinate conversion parameter that maximizes the measurement point synthesis probability.

【0023】本発明の第2の視点位置決定方法は、ステ
レオ画像計測により、n(ただしn≧3)個の被計測点
のそれぞれの位置を第1の視点から計測する、第1の工
程と、ステレオ画像計測により、前記n個の被計測点の
それぞれの位置を第2の視点から計測する、第2の工程
と、前記n個の被計測点のそれぞれについて、前記第1
の視点と前記第2の視点との間の、3次元空間内におけ
る相対位置関係を記述する座標変換パラメータと、当該
被計測点の真の位置とを変数として含む確率密度分布を
算出し、前記第1の視点と前記第2の視点とについて前
記確率密度分布を合成して合成確率密度分布を算出し、
前記合成確率密度分布の最大値を前記座標変換パラメー
タの関数として算出する第3の工程と、前記n個の被計
測点のそれぞれについての前記最大値を合成して計測点
合成確率を算出し、前記計測点合成確率を最大にする前
記座標変換パラメータを求める、第4の工程を有する。
A second viewpoint position determining method according to the present invention comprises a first step of measuring the positions of n (where n ≧ 3) measured points from a first viewpoint by stereo image measurement. A second step of measuring the respective positions of the n measured points from a second viewpoint by stereo image measurement, and the first step for each of the n measured points.
Calculating a probability density distribution including, as variables, a coordinate conversion parameter describing a relative positional relationship in a three-dimensional space between the viewpoint and the second viewpoint, and the true position of the measured point; Calculating a combined probability density distribution by combining the probability density distributions for a first viewpoint and the second viewpoint;
A third step of calculating a maximum value of the composite probability density distribution as a function of the coordinate transformation parameter, and calculating a measurement point synthesis probability by synthesizing the maximum values of each of the n measured points; A fourth step of obtaining the coordinate transformation parameter that maximizes the measurement point synthesis probability.

【0024】[0024]

【作用】n個の被計測点のそれぞれについて、第1の視
点と第2の視点との間の相対位置関係を記述する座標変
換パラメータと、当該被計測点の真の位置とを変数とし
て含む確率密度分布を算出し、この確率密度分布を視点
と被計測点とに関して合成して座標変換パラメータの関
数として算出し、この合成したものを最大にする座標変
換パラメータを求めて第1、第2の視点間の相対位置関
係を決定するので、誤差の異方性が確率密度分布に含ま
れていることにより、計測誤差の異方性を考慮した相対
位置関係を求めることができる。
For each of the n measured points, a coordinate conversion parameter describing the relative positional relationship between the first viewpoint and the second viewpoint and the true position of the measured point are included as variables. A probability density distribution is calculated, the probability density distribution is combined with respect to the viewpoint and the point to be measured, and calculated as a function of a coordinate conversion parameter. Since the relative positional relationship between the viewpoints is determined, the anisotropy of the error is included in the probability density distribution, so that the relative positional relationship in consideration of the anisotropy of the measurement error can be obtained.

【0025】[0025]

【実施例】次に、本発明の実施例について図面を参照し
て説明する。図1は、本発明の一実施例の視点位置決定
方法の処理の手順を示す流れ図、図2は、各視点間の相
対位置関係を示す説明図、図3は本実施例を具体的に実
施した結果を示す説明図である。
Next, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a flowchart showing a procedure of a viewpoint position determining method according to an embodiment of the present invention, FIG. 2 is an explanatory diagram showing a relative positional relationship between viewpoints, and FIG. It is an explanatory view showing the result.

【0026】本実施例の視点位置決定方法の具体的手順
を説明する前に、まず、ステレオ画像計測における誤差
の確率密度分布について説明し、そののち具体的手順を
説明することとする。
Before describing the specific procedure of the method for determining the viewpoint position according to the present embodiment, first, the probability density distribution of errors in stereo image measurement will be described, and then the specific procedure will be described.

【0027】(1) 誤差の確率密度分布 ステレオ画像計測による画像面上の測定値uL,uR,vと
被測定点Pの座標(x,y,z)との間には、上述の式(3)〜
(5)から、 uL = (x+a)f/y …(13) uR = (x−a)f/y …(14) v = zf/y …(15) なる関係が成立する。ここで式(13)〜(15)の全微分を考
えると、
(1) Error probability density distribution Between the measured values u L , u R , v on the image plane obtained by stereo image measurement and the coordinates (x, y, z) of the point P to be measured are as described above. Equation (3)-
(5) from, u L = (x + a ) f / y ... (13) u R = (x-a) f / y ... (14) v = zf / y ... (15) the relationship is established. Here, considering the total derivatives of equations (13) to (15),

【数17】 となる。ここでdx,dy,dzは、それぞれ被測定点P
の座標のx方向、y方向、z方向の計測誤差を示してい
る。
[Equation 17] Becomes Here, dx, dy, and dz are measured points P, respectively.
3 shows measurement errors in the x, y, and z directions of the coordinates.

【0028】ステレオ画像計測において、左右の各画像
面の間においても、1枚の画像面中の水平方向と垂直方
向の間においても、誤差はたがいに影響を与えないこと
は明らかであるから、duL,duR,dvはそれぞれ独立
であると考えられる。ここで画像面上の計測誤差が、そ
れぞれ標準偏差σの正規分布にしたがうと仮定する。画
像面上での計測において、水平方向、垂直方向の標準偏
差σuvがたがいに異なる場合も考えられないわけで
はないが、ここでは簡単のため、σuvが等しく、こ
れをσで表すことにする。ちなみに、標準偏差σは、ス
テレオ画像計測の計測系、すなわち光学系や画像の計測
アルゴリズムによって決定される、システム固有の値で
ある。ここで、画像面上での計測誤差duL,duR,dv
が同時に起こる確率である、確率密度分布Φは、
In the stereo image measurement, it is clear that the error does not affect each other between the left and right image planes and between the horizontal direction and the vertical direction in one image plane. du L , du R , and dv are considered to be independent. Here, it is assumed that the measurement errors on the image plane respectively follow the normal distribution of the standard deviation σ. In the measurement on the image plane, it is not inconceivable that the standard deviations σ u , σ v in the horizontal direction and the vertical direction are different from each other, but here, for simplicity, σ u , σ v are equal. Is represented by σ. Incidentally, the standard deviation σ is a system-specific value determined by a measurement system for stereo image measurement, that is, an optical system or an image measurement algorithm. Here, the measurement errors du L , du R , dv on the image plane
Are the probabilities that occur simultaneously, the probability density distribution Φ is

【数18】 で与えられる。この式(19)に上述の式(16)〜(18)を代入
することにより、3次元空間での誤差dx,dy,dzが
同時に起こる確率である確率密度分布が計算されること
になる。この確率密度分布は、3次元空間での誤差d
x,dy,dzの異方性を含んだ関数形で表されることに
なる。
(Equation 18) Given by By substituting the above equations (16) to (18) into the equation (19), the probability density distribution, which is the probability that the errors dx, dy, dz in the three-dimensional space occur simultaneously, is calculated. This probability density distribution has an error d in a three-dimensional space.
It is represented by a function form including anisotropy of x, dy, dz.

【0029】(2) 視点位置の決定方法 上述したように、3次元空間内の2つの座標系間の相対
位置関係は、3つの回転パラメータθ,φ,ψと3つの平
行移動(並進)パラメータΔx,Δy,Δzとによって、
完全に記述することができる。一方、ステレオ画像計測
は、水準器などの使用により、左右の2台のカメラのそ
れぞれの主点を結ぶ主軸と、各カメラの光軸とが、mrad
以下の水平精度を保つようにして実施することができ
る。ここに述べたステレオ画像計測の特徴を考え、ま
ず、2次元の場合(各視点において、当該視点における
座標系でのxy平面が水平であるとみなせ、水平面を基
準として、2つの異なる視点間の水平面内における相対
位置関係のみを求める場合)について扱うこととする。
この議論を3次元の場合に拡張することは容易である。
2次元での取り扱いの場合、画像面上での垂直方向の誤
差dvは無視できるから、上記式(19)は、
(2) Method of Determining Viewpoint Position As described above, the relative positional relationship between two coordinate systems in a three-dimensional space includes three rotation parameters θ, φ, ψ and three translational (translation) parameters. By Δx, Δy, Δz,
Can be completely described. On the other hand, in stereo image measurement, the level of the principal axis connecting the respective principal points of the two left and right cameras and the optical axis of
The following horizontal accuracy can be maintained. Considering the features of the stereo image measurement described here, first, in a two-dimensional case (at each viewpoint, the xy plane in the coordinate system at the viewpoint is considered to be horizontal, and the distance between two different viewpoints is determined based on the horizontal plane). (Only the relative positional relationship in the horizontal plane is obtained).
It is easy to extend this argument to the three-dimensional case.
In the case of two-dimensional handling, the error dv in the vertical direction on the image plane is negligible.

【数19】 のように変形される。[Equation 19] It is transformed as follows.

【0030】最初に、2次元空間中のn(ただし、n≧
2)個の被計測点のそれぞれについて、第1の視点O1
からのステレオ画像計測により、第1の視点O1につい
ての座標系(第1の視点座標系)で表したその被計測点
の座標を計測する。ここでn≧2であるのは、2次元で
あるから、2点が与えられてその2点との距離が求めら
れないと、点の位置を確定することができないからであ
る。k(ただし、1≦k≦n)番目の被計測点Pkの計
測された座標を
First, n in a two-dimensional space (where n ≧
2) First viewpoint O 1 for each of the measured points
Stereo image measurement from the measures the coordinate system the coordinates of the (first viewpoint coordinate system) with expressed was that the measuring point for the first viewpoint O 1. Here, n ≧ 2, because it is two-dimensional, the position of a point cannot be determined unless two points are given and the distance to the two points is determined. The measured coordinates of the k- th (where 1 ≦ k ≦ n) measurement point P k is

【外9】 で表す(ステップ101)。次に、同様にして、n個の
被計測点のそれぞれについて、第2の視点O2からのス
テレオ画像計測により、第2の視点O2についての座標
系(第2の視点座標系)で表したその被計測点の座標を
計測する。k番目の被計測点Pkの計測された座標を
[Outside 9] (Step 101). Next, similarly, for each of the n measurement points, a stereo image measurement from the second viewpoint O 2 is performed to represent the n measurement points in the coordinate system (second viewpoint coordinate system) for the second viewpoint O 2. The coordinates of the measured point are measured. The measured coordinates of the k-th measured point P k

【外10】 で表す(ステップ102)。[Outside 10] (Step 102).

【0031】ここで、第iの視点Oi(i=1,2)から
みた、k番目の被計測点Pkの計測座標ベクトルを
Here, the measured coordinate vector of the k-th measured point P k viewed from the i- th viewpoint O i (i = 1, 2) is

【数20】 で表す。第1、第2の視点O1,O2間の相対位置関係が
図2に示されている。ここで、被計測点Pkの真の座標
を第1の視点座標系で表したものを(x1,k,y1,k)と
し、第1の視点座標系における真の座標ベクトルを
(Equation 20) Expressed by FIG. 2 shows the relative positional relationship between the first and second viewpoints O 1 and O 2 . Here, the true coordinates of the measured point P k in the first viewpoint coordinate system are represented by (x 1, k , y 1, k ), and the true coordinate vector in the first viewpoint coordinate system is

【数21】 とする。同様に、被計測点Pkの真の座標を第2の視点
座標系で表したものを(x2,k,y2,k)とし、第2の視点
座標系における真の座標ベクトルを
(Equation 21) And Similarly, the true coordinates of the measured point P k in the second viewpoint coordinate system are represented by (x 2, k , y 2, k ), and the true coordinate vector in the second viewpoint coordinate system is

【数22】 とする。第1の視点座標系から第2の視点座標系への座
標変換を表す演算子をTで表すと、
(Equation 22) And When an operator representing coordinate transformation from the first viewpoint coordinate system to the second viewpoint coordinate system is represented by T,

【数23】 が成立する。すなわち、 (x2,k,y2,k) = T(x1,k,y1,k) が成立する。演算子Tが表す座標変換パラメータをθ,
Δx,Δyとすると、この式は x2,k = x1,kcos θ + y1,ksin θ − Δx …(22) y2,k = −x1,ksin θ + y1,kcos θ − Δy …(23) と表される。
(Equation 23) Holds. That is, (x 2, k , y 2, k ) = T (x 1, k , y 1, k ) holds. The coordinate conversion parameter represented by the operator T is θ,
Assuming that Δx, Δy, this equation is expressed as x 2, k = x 1, k cos θ + y 1, k sin θ -Δx (22) y 2, k = -x 1, k sin θ + y 1, k cos θ−Δy (23)

【0032】第1の視点座標系における計測座標ベクト
Measurement coordinate vector in the first viewpoint coordinate system

【外11】 と真の座標ベクトル[Outside 11] And the true coordinate vector

【外12】 とは、[Outside 12] Is

【数24】 だけの誤差を生じる。その誤差の確率密度分布Φ
1,kは、式(20)より、
(Equation 24) Causes only an error. The probability density distribution Φ of the error
From Equation (20), 1, k is

【数25】 と表される。ここで、(Equation 25) It is expressed as here,

【数26】 である。同様に、第2の視点座標系における計測座標ベ
クトル
(Equation 26) It is. Similarly, the measurement coordinate vector in the second viewpoint coordinate system

【外13】 と真の座標ベクトル[Outside 13] And the true coordinate vector

【外14】 とが[Outside 14] And

【数27】 だけの誤差を生じるとき、その誤差の確率密度分布Φ
2,kは、
[Equation 27] When only the error occurs, the probability density distribution Φ of the error
2, k is

【数28】 となる。ここで、[Equation 28] Becomes here,

【数29】 である。(Equation 29) It is.

【0033】上述の式(21)から、第2の視点座標系にお
ける真の座標ベクトル
From the above equation (21), the true coordinate vector in the second viewpoint coordinate system is obtained.

【外15】 は、演算子Tを用いて、第1の視点座標系で記述された
真の座標ベクトル
[Outside 15] Is the true coordinate vector described in the first viewpoint coordinate system using the operator T

【外16】 に変換できる。座標変換パラメータθ,Δx,Δyをまと
めてtで表すことにすると、第2の視点における確率密
度分布Φ2,k(x2,k,y2,k)は、(x1,k,y1,k,t)の関数
として表すことができる。
[Outside 16] Can be converted to If the coordinate transformation parameters θ, Δx, and Δy are collectively represented by t, the probability density distribution Φ 2, k (x 2, k , y 2, k ) in the second viewpoint is (x 1, k , y 1, k , t).

【0034】各被測定点Pk(1≦k≦n)について、
式(24),(25)で表される誤差が同時に起こる確率分布で
ある、視点間合成確率密度分布Fk(x1,k,y1,k,t)
は、公知の誤差密度分布の合成の式より、
For each measured point P k (1 ≦ k ≦ n),
The inter-view combined probability density distribution F k (x 1, k , y 1, k , t) is a probability distribution in which the errors represented by the equations (24) and (25) occur simultaneously.
From the equation of the synthesis of the known error density distribution,

【数30】 で表される。ただし、gk(x1,k,y1,k,t)は、[Equation 30] It is represented by Where g k (x 1, k , y 1, k , t) is

【数31】 である(ステップ103)。(Equation 31) (Step 103).

【0035】次に、視点間合成確率密度分布Fk(x1,k,
1,k,t)を(x1,k,y1,k)の関数とみたときの最大値を
求め、この最大値をtの関数sk(t)として、
Next, the inter-view combined probability density distribution F k (x 1, k ,
y 1, k, a t) (x 1, k, the maximum value when viewed as a function of y 1, k), as the maximum value of t function s k (t),

【数32】 のように求める。すなわち、あるtに対して、x1,k,y
1,kのみを変化させたときの、視点間合成確率密度分布
kの最大値を求める。Fkが最大になるときは、明らか
に、gk(x1,k,y1,k,t)が最小になるときであるか
ら、gk(x1,k,y1,k,t)を最小とする座標ベクトル
(Equation 32) Ask like. That is, for a certain t, x 1, k , y
The maximum value of the inter-view combined probability density distribution F k when only 1, k is changed is determined. Obviously, the time when F k is maximized is when g k (x 1, k , y 1, k , t) is minimized, so that g k (x 1, k , y 1, k , t) ) Is the minimum coordinate vector

【外17】 を求め、そのときのFk(x1,k,y1,k,t)を算出する。
なお、この座標ベクトルは、もちろん第1の視点座標系
で表示されたベクトルである。
[Outside 17] Is calculated , and F k (x 1, k , y 1, k , t) at that time is calculated.
The coordinate vector is, of course, a vector displayed in the first viewpoint coordinate system.

【0036】ここで、gk(x1,k,y1,k,t)が最小とな
る条件の求め方を説明する。
Here, how to find the condition that minimizes g k (x 1, k , y 1, k , t) will be described.

【数33】 より、gk(x1,k,y1,k,t)を最小とする座標ベクトル[Equation 33] From the above, a coordinate vector minimizing g k (x 1, k , y 1, k , t)

【数34】 を求めればよい。式(29)より、(Equation 34) Should be obtained. From equation (29),

【外18】 に関して、次の2つの条件式(30),(31)、[Outside 18] With respect to the following two conditional expressions (30) and (31),

【数35】 が得られる。ここで、(Equation 35) Is obtained. here,

【数36】 [Equation 36]

【数37】 である。式(30),(31)を連立させて、(37) It is. By simultaneous equations (30) and (31),

【外19】 について解くと、[Outside 19] Solving for

【数38】 が得られる。この式(30),(31)で表される(38) Is obtained. Expressions (30) and (31)

【外20】 を式(26)に代入することにより、tの関数である最大値
k(t)が求められる(ステップ104)。
[Outside 20] Is substituted into equation (26) to obtain the maximum value s k (t) which is a function of t (step 104).

【0037】ところで、tの関数である最大値sk(t)
は、その定義式(28)より、tに関して誤差の確率密度分
布を表す関数である。そこで、n個の被計測点Pk(1
≦k≦n)について、その誤差の確率密度分布を合成す
ることができる。その合成された確率密度分布を計測点
合成確率S(t)とすると、公知の合成の式より、
By the way, the maximum value s k (t) which is a function of t
Is a function representing the probability density distribution of the error with respect to t according to the definition equation (28). Therefore, n measured points P k (1
≦ k ≦ n), the probability density distribution of the error can be synthesized. Assuming that the synthesized probability density distribution is a measurement point synthesis probability S (t), from a known synthesis formula,

【数39】 である。そこで、この計測点合成確率S(t)を求めてお
く(ステップ105)。
[Equation 39] It is. Therefore, the measurement point combination probability S (t) is obtained (step 105).

【0038】計測点合成確率S(t)は確率密度分布であ
るから、S(t)を最大にするtが、tの最尤の値という
ことになる。そこで次に、
Since the measurement point synthesis probability S (t) is a probability density distribution, t that maximizes S (t) is the maximum likelihood value of t. So next,

【外21】 を与える座標変換パラメータt(=θ,Δx,Δy)を求
めればよく、この座標変換パラメータtが、第1の視点
と第2の視点との相対位置関係を表すことになる。θ,
Δx,Δyを少しずつ変えてS(t)を計算し、S(t)が
最大になるような座標変換パラメータt(=θ,Δx,Δ
y)を求めればよい(ステップ106)。あるいは、式
(29)と同様に、
[Outside 21] The coordinate transformation parameter t (= θ, Δx, Δy) which gives the following equation may be obtained, and the coordinate transformation parameter t indicates the relative positional relationship between the first viewpoint and the second viewpoint. θ,
S (t) is calculated by changing Δx and Δy little by little, and a coordinate conversion parameter t (= θ, Δx, Δ
y) may be obtained (step 106). Or the expression
Like (29),

【数40】 を解くことにより、この座標変換パラメータtを解析的
に求めるようにしてもよい。
(Equation 40) , The coordinate conversion parameter t may be obtained analytically.

【0039】次に、本実施例を実施した結果について、
従来の方法による結果と比較しながら、図3を用いて説
明する。左右のカメラの間隔2aを1mとし、各カメラ
に焦点距離(すなわち主点と画像面との距離)fが1
6.1mmのレンズを装着し、ステレオ画像計測により、
第1、第2の視点O1,O2のそれぞれから、2次元平面
内にある4つの被測定点の座標を計測した。その結果を
表1に示す。なお、第1、第2の視点O1,O2との間の
相対位置関係を実測したところ、真の座標変換パラメー
タは、θ=87.40°、Δx=37.45m、Δy=−
26.37mであった。また、真の第2の視点O2におけ
る座標系を図3において実線で示す。また、各視点O1,
2からの各被計測点の計測された位置を
Next, regarding the result of implementing this embodiment,
This will be described with reference to FIG. 3 while comparing the result with the conventional method. The distance 2a between the left and right cameras is 1 m, and the focal length (ie, the distance between the principal point and the image plane) f is 1 for each camera.
With a 6.1mm lens attached and stereo image measurement,
From each of the first and second viewpoints O 1 and O 2 , the coordinates of four measured points in a two-dimensional plane were measured. Table 1 shows the results. Note that when the relative positional relationship between the first and second viewpoints O 1 and O 2 was actually measured, the true coordinate conversion parameters were θ = 87.40 °, Δx = 37.45 m, and Δy = −.
It was 26.37 m. Further, shown by the solid line in FIG. 3 the coordinate system in the real second viewpoint O 2. In addition, each viewpoint O 1 ,
The measured position of each measured point from O 2

【外22】 で表す。[Outside 22] Expressed by

【表1】 [Table 1]

【0040】この計測結果を用いて、上述の本実施例の
方法によって、座標変換パラメータを計算したところ、
θ=87.69°、Δx=36.18m、Δy=−25.4
3mが得られた。上記の真の座標変換パラメータからの
誤差は、θについて0.29°、Δxについて1.27
m、Δyについて0.94mである。このとき計算された
第2の視点の位置を図3においてO2'で表し、この第2
の視点O2'における座標系を一点鎖線で表す。
Using this measurement result, the coordinate conversion parameters were calculated by the method of the present embodiment described above.
θ = 87.69 °, Δx = 36.18 m, Δy = −25.4
3 m were obtained. The error from the true coordinate transformation parameters is 0.29 ° for θ and 1.27 for Δx.
m and Δy are 0.94 m. The position of the second viewpoint calculated at this time is represented by O 2 ′ in FIG.
The coordinate system at the viewpoint O 2 ′ of FIG.

【0041】一方、[従来の技術]で説明した重み付き
平均を用いた従来の方法によって、座標変換パラメータ
を計算したところ、θ=81.52°、Δx=35.78
m、Δy=−21.69mが得られた。上記の座標変換パ
ラメータからの誤差は、θについて5.88°、Δxに
ついて1.67m、Δyについて4.68mである。このと
き計算された第2の視点の位置を図3においてO2"で表
し、この第2の視点O2"における座標系を点線で表す。
On the other hand, when the coordinate conversion parameters were calculated by the conventional method using the weighted average described in [Prior Art], θ = 81.52 ° and Δx = 35.78.
m, Δy = -21.69 m were obtained. The errors from the above coordinate transformation parameters are 5.88 ° for θ, 1.67 m for Δx, and 4.68 m for Δy. The position of the second viewpoint calculated at this time is represented by O 2 "in FIG. 3, and the coordinate system at the second viewpoint O 2 " is represented by a dotted line.

【0042】以上の結果を比較すると、上述の本実施例
の方法によって求めた座標変換パラメータは、従来の方
法によるものに比べ、θにおいて約20倍、Δxについ
て約1.3倍、Δyについて約5.0倍精度が向上してい
ることがわかり、本実施例の方法を用いることにより、
2つの異なる視点O1,O2間の相対位置関係が高精度に
求められたことがわかる。
Comparing the above results, the coordinate transformation parameters obtained by the method of the present embodiment described above are about 20 times in θ, about 1.3 times in Δx, and about 1.3 times in Δy, as compared with the conventional method. It can be seen that the 5.0-fold precision is improved, and by using the method of this embodiment,
It can be seen that the relative positional relationship between the two different viewpoints O 1 and O 2 was determined with high accuracy.

【0043】以上、本発明の実施例について、2次元の
場合について説明したが、これを3次元に拡張すること
は容易である。次に、3次元の場合について、2次元の
場合との違いを中心に説明する。
Although the embodiment of the present invention has been described for a two-dimensional case, it is easy to extend this to a three-dimensional case. Next, the three-dimensional case will be described focusing on the difference from the two-dimensional case.

【0044】3次元の場合、3点が与えられその3点と
の距離が求められないと、点の位置が確定しないから、
被計測点として3点以上必要である。したがって、2次
元のときがn≧2であったのに対し、n≧3となる。ま
た、3次元の場合の座標変換パラメータは、θ,φ,ψ,
Δx,Δy,Δzで完全に表される。
In the three-dimensional case, if three points are given and the distance to the three points is not obtained, the position of the point is not determined.
Three or more measurement points are required. Therefore, while n ≧ 2 in the two-dimensional case, n ≧ 3. The coordinate conversion parameters in the three-dimensional case are θ, φ, ψ,
It is completely represented by Δx, Δy, Δz.

【0045】k番目の被計測点Pkについて、第1の視
点座標系における真の座標ベクトルと第2の視点座標系
における真の座標ベクトルとをそれぞれ
For the k-th measured point P k , the true coordinate vector in the first viewpoint coordinate system and the true coordinate vector in the second viewpoint coordinate system are respectively

【数41】 で表すと、式(22),(23)に対応する具体的な座標変換を
あらわす式は、 x2,k=x1,kcosφcosθ+y1,kcosφsinθ-z1,ksinφ-Δx …(36) y2,k=x1,k(sinψsinφcosθ-cosψsinθ)+y1,k(cosψcosθ +sinφsinψsinθ)+z1,ksinψcosφ-Δy …(37) z2,k=x1,k(sinψsinθ+cosψsinφcosθ)+y1,k(cosψsinφsinθ -sinψcosθ)+z1,kcosψcosφ-Δz …(38) となる。あとは、誤差duL,duR,dvが同時に起こる
確率密度分布Φを表す式(19)を用い、2次元での視点間
合成確率密度分布Fk(x1,k,y1,k,t)を表す式(26)の
代わりに、3次元での視点間合成確率密度分布Fk(x
1,k,y1,k,z1,k,t)を考えて、上述と同様に扱ってや
ればよい。ただしここでのgk(x1,k,y1,k,z1,k,t)
は、
[Equation 41] In this case, an expression representing a specific coordinate transformation corresponding to the expressions (22) and (23) is: x 2, k = x 1, k cos φ cos θ + y 1, k cos φ sin θ-z 1, k sin φ-Δx (36) y 2, k = x 1, k (sinψsin φcos θ-cosψsin θ) + y 1, k (cosψcos θ + sin φsinψsin θ) + z 1, k sinψcos φ-Δy (37) z 2, k = x 1, k (sinψsin θ + cosψsinφcosθ) + y 1, k (cosψsinφsinθ−sinψcosθ) + z1 , k cosψcosφ-Δz (38) Then, using the equation (19) representing the probability density distribution Φ in which the errors du L , du R , and dv occur simultaneously, the two-dimensional inter-view combined probability density distribution F k (x 1, k , y 1, k , t) instead of equation (26), the three-dimensional combined probability density distribution F k (x
1, k , y 1, k , z 1, k , t) may be considered and handled as described above. Where g k (x 1, k , y 1, k , z 1, k , t)
Is

【数42】 である。(Equation 42) It is.

【0046】[0046]

【発明の効果】以上説明したように本発明は、n個の被
計測点のそれぞれについて、第1の視点と第2の視点と
の間の相対位置関係を記述する座標変換パラメータと、
当該被計測点の真の位置とを変数として含む確率密度分
布を算出し、この確率密度分布を視点と被計測点とに関
して合成して座標変換パラメータの関数として算出し、
この合成したものを最大にする座標変換パラメータを求
めることにより、誤差の異方性が確率密度分布に含まれ
ているから、誤差の異方性を考慮した相対位置関係を求
めることができ、高精度で相対位置関係を決定すること
ができるという効果がある。
As described above, according to the present invention, for each of n measurement points, a coordinate conversion parameter describing a relative positional relationship between a first viewpoint and a second viewpoint,
A probability density distribution including the true position of the measured point as a variable is calculated, and the probability density distribution is calculated with respect to the viewpoint and the measured point as a function of a coordinate conversion parameter,
By calculating the coordinate transformation parameter that maximizes the combined result, the anisotropy of the error is included in the probability density distribution. Therefore, the relative positional relationship in which the anisotropy of the error is considered can be obtained. There is an effect that the relative positional relationship can be determined with high accuracy.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施例の視点位置決定方法の処理の
手順を示す流れ図である。
FIG. 1 is a flowchart showing a processing procedure of a viewpoint position determining method according to an embodiment of the present invention.

【図2】各視点間の相対位置関係を示す説明図である。FIG. 2 is an explanatory diagram showing a relative positional relationship between viewpoints.

【図3】図1の実施例を具体的に実施した結果を示す説
明図である。
FIG. 3 is an explanatory diagram showing a result of specifically implementing the embodiment of FIG. 1;

【図4】第1、第2の視点O1,O2間の相対位置関係を
示す説明図である。
FIG. 4 is an explanatory diagram showing a relative positional relationship between first and second viewpoints O 1 and O 2 .

【図5】従来の視点位置決定方法を説明する図である。FIG. 5 is a diagram illustrating a conventional viewpoint position determination method.

【図6】ステレオ画像計測の原理を説明する図である。FIG. 6 is a diagram illustrating the principle of stereo image measurement.

【図7】ステレオ画像計測を行なうための装置の構成を
示すブロック図である。
FIG. 7 is a block diagram showing a configuration of an apparatus for performing stereo image measurement.

【符号の説明】[Explanation of symbols]

1 光軸 2 左カメラの画像面 3 右カメラの画像面 41,42 テレビカメラ 5 デジタイザ 6 画像メモリ 7 計算機 101〜106 ステップ O1 第1の視点 O2 第2の視点DESCRIPTION OF SYMBOLS 1 Optical axis 2 Image plane of left camera 3 Image plane of right camera 4 1 , 4 2 TV camera 5 Digitizer 6 Image memory 7 Calculator 101 to 106 Steps O 1 First viewpoint O 2 Second viewpoint

───────────────────────────────────────────────────── フロントページの続き (72)発明者 井手 敦志 東京都千代田区内幸町一丁目1番6号 日本電信電話株式会社内 (56)参考文献 特開 平9−326029(JP,A) 特開 平5−256613(JP,A) 特開 平4−264207(JP,A) 特開 平3−6780(JP,A) 特開 昭60−173403(JP,A) 特開 昭60−171410(JP,A) (58)調査した分野(Int.Cl.6,DB名) G01B 11/00 - 11/30 G01C 3/06 G06T 7/00 ────────────────────────────────────────────────── ─── Continuation of front page (72) Inventor Atsushi Ide 1-6, Uchisaiwaicho, Chiyoda-ku, Tokyo Nippon Telegraph and Telephone Corporation (56) References JP-A-9-326029 (JP, A) JP-A Heisei JP-A-4-256207 (JP, A) JP-A-3-6780 (JP, A) JP-A-60-173403 (JP, A) JP-A-60-171410 (JP, A) A) (58) Fields investigated (Int. Cl. 6 , DB name) G01B 11/00-11/30 G01C 3/06 G06T 7/00

Claims (2)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】異なる2視点間の相対位置関係を決定する
視点位置決定方法であって、ステレオ画像計測により、
n(ただしn≧2)個の被計測点のそれぞれの2次元平
面内における位置を第1の視点から計測する、第1の工
程と、ステレオ画像計測により、前記n個の被計測点の
それぞれの2次元平面内における位置を第2の視点から
計測する、第2の工程と、前記n個の被計測点のそれぞ
れについて、前記第1の視点と前記第2の視点との間
の、2次元平面における相対位置関係を記述する座標変
換パラメータと、当該被計測点の真の位置とを変数とし
て含む確率密度分布を算出し、前記第1の視点と前記第
2の視点とについて前記確率密度分布を合成して合成確
率密度分布を算出し、前記合成確率密度分布の最大値を
前記座標変換パラメータの関数として算出する第3の工
程と、前記n個の被計測点のそれぞれについての前記最
大値を合成して計測点合成確率を算出し、前記計測点合
成確率を最大にする前記座標変換パラメータを求める、
第4の工程を有する視点位置決定方法。
1. A viewpoint position determining method for determining a relative positional relationship between two different viewpoints, the method comprising:
a first step of measuring the position of each of the n (where n ≧ 2) measurement points in a two-dimensional plane from a first viewpoint, and a stereo image measurement to each of the n measurement points A second step of measuring a position in a two-dimensional plane from a second viewpoint, and for each of the n measurement points, a distance between the first viewpoint and the second viewpoint Calculating a probability density distribution including, as variables, a coordinate conversion parameter describing a relative positional relationship on a two-dimensional plane and a true position of the measured point, and calculating the probability density distribution for the first viewpoint and the second viewpoint. A third step of calculating a combined probability density distribution by combining distributions, and calculating a maximum value of the combined probability density distribution as a function of the coordinate conversion parameter; and Combine values and measure Calculating a synthetic probability, determine the coordinate transformation parameters to maximize the measurement point synthetic probability,
A viewpoint position determining method having a fourth step.
【請求項2】異なる2視点間の相対位置関係を決定する
視点位置決定方法であって、ステレオ画像計測により、
n(ただしn≧3)個の被計測点のそれぞれの位置を第
1の視点から計測する、第1の工程と、ステレオ画像計
測により、前記n個の被計測点のそれぞれの位置を第2
の視点から計測する、第2の工程と、前記n個の被計測
点のそれぞれについて、前記第1の視点と前記第2の視
点との間の、3次元空間内における相対位置関係を記述
する座標変換パラメータと、当該被計測点の真の位置と
を変数として含む確率密度分布を算出し、前記第1の視
点と前記第2の視点とについて前記確率密度分布を合成
して合成確率密度分布を算出し、前記合成確率密度分布
の最大値を前記座標変換パラメータの関数として算出す
る第3の工程と、前記n個の被計測点のそれぞれについ
ての前記最大値を合成して計測点合成確率を算出し、前
記計測点合成確率を最大にする前記座標変換パラメータ
を求める、第4の工程を有する視点位置決定方法。
2. A viewpoint position determining method for determining a relative positional relationship between two different viewpoints, the method comprising:
A first step of measuring the respective positions of n (where n ≧ 3) measurement points from a first viewpoint, and the respective positions of the n measurement points are determined in a second step by stereo image measurement.
A second step of measuring from the viewpoint, and a relative positional relationship in the three-dimensional space between the first viewpoint and the second viewpoint for each of the n measurement points. A probability density distribution including a coordinate transformation parameter and a true position of the measured point as variables is calculated, and the probability density distributions are combined for the first viewpoint and the second viewpoint, thereby obtaining a combined probability density distribution. A third step of calculating the maximum value of the combined probability density distribution as a function of the coordinate transformation parameter; and combining the maximum values of each of the n measurement points to obtain a measurement point combination probability. And determining the coordinate transformation parameter that maximizes the measurement point synthesis probability.
JP3074439A 1991-03-15 1991-03-15 Viewpoint position determination method Expired - Fee Related JP2923069B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3074439A JP2923069B2 (en) 1991-03-15 1991-03-15 Viewpoint position determination method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3074439A JP2923069B2 (en) 1991-03-15 1991-03-15 Viewpoint position determination method

Publications (2)

Publication Number Publication Date
JPH04286905A JPH04286905A (en) 1992-10-12
JP2923069B2 true JP2923069B2 (en) 1999-07-26

Family

ID=13547266

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3074439A Expired - Fee Related JP2923069B2 (en) 1991-03-15 1991-03-15 Viewpoint position determination method

Country Status (1)

Country Link
JP (1) JP2923069B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5418408B2 (en) * 2010-05-31 2014-02-19 富士通株式会社 Simulation parameter calibration method, apparatus and program
JP6694234B2 (en) * 2015-01-23 2020-05-13 シャープ株式会社 Distance measuring device

Also Published As

Publication number Publication date
JPH04286905A (en) 1992-10-12

Similar Documents

Publication Publication Date Title
US10825198B2 (en) 3 dimensional coordinates calculating apparatus, 3 dimensional coordinates calculating method, 3 dimensional distance measuring apparatus and 3 dimensional distance measuring method using images
CN102472609B (en) Position and orientation calibration method and apparatus
US6438507B1 (en) Data processing method and processing device
US7342669B2 (en) Three-dimensional shape measuring method and its device
EP2551633B1 (en) Three dimensional distance measuring device and method
JP2014216813A (en) Camera attitude estimation device and program therefor
JP2923069B2 (en) Viewpoint position determination method
JP2923063B2 (en) Multi-view stereo image measurement method
JP2726366B2 (en) Viewpoint / object position determination method
CN114693807B (en) Method and system for reconstructing mapping data of power transmission line image and point cloud
Falkenhagen et al. 3D object-based depth estimation from stereoscopic image sequences
JP3728460B2 (en) Method and system for determining optimal arrangement of stereo camera
JPH1153549A (en) Device and method for processing image and transmission medium
JP5409451B2 (en) 3D change detector
CN112965052A (en) Monocular camera target ranging method
JP3340599B2 (en) Plane estimation method
Huang et al. An Innovative Approach of Evaluating the Accuracy of Point Cloud Generated by Photogrammetry-Based 3D Reconstruction
WO2023095375A1 (en) Three-dimensional model generation method and three-dimensional model generation device
JPH1163949A (en) Device and method for restoring threedimensional shape
CN114442097B (en) Curve SAR (synthetic aperture radar) three-dimensional target imaging method and device based on time domain back projection
JP5358137B2 (en) Image generating apparatus, method and program
Shahbazi Hybrid 3D dynamic measurement by particle swarm optimization and photogrammetric tracking
Ariyaeeinia Calibration of an active stereoscopic imaging system
JP2001116656A (en) Camera calibration method and device
JPH06221832A (en) Method and device for calibrating focusing distance of camera

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees