JPS61277012A - Method and apparatus for correcting position and posture of camera - Google Patents

Method and apparatus for correcting position and posture of camera

Info

Publication number
JPS61277012A
JPS61277012A JP60118756A JP11875685A JPS61277012A JP S61277012 A JPS61277012 A JP S61277012A JP 60118756 A JP60118756 A JP 60118756A JP 11875685 A JP11875685 A JP 11875685A JP S61277012 A JPS61277012 A JP S61277012A
Authority
JP
Japan
Prior art keywords
camera
camera position
parameters
parameter
error
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP60118756A
Other languages
Japanese (ja)
Other versions
JPH0680404B2 (en
Inventor
Minoru Ito
稔 伊藤
Akira Ishii
明 石井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP60118756A priority Critical patent/JPH0680404B2/en
Publication of JPS61277012A publication Critical patent/JPS61277012A/en
Publication of JPH0680404B2 publication Critical patent/JPH0680404B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Abstract

PURPOSE:To simply obtain the position and posture parameter of a camera at a high speed with high accuracy, by analytically calculating the solution of simultaneous equations consisting of a camera position and posture parameter and an error parameter and performing the correction reducing the error parameter by an analytical process. CONSTITUTION:A mark discrimination processing part 4 obtain the center coordinates of a reference mark from the image data stored in an image input part 3. An approximate value calculation processing part 5 performs a means for analytically calculating a camera position and posture parameter and an error parameter by the matrix operation based on a method of least square and a correction processing part 6 performs a correction means for analytically calculating the camera position and posture parameter by the matrix operation based on a method of least square after performing the preparatory correction of the camera position and posture parameter. When the error parameter is larger than a preliminarily indicated value, the correction means is again performed to make it possible to correct the parameter. When the error parameter became smaller than the indicated value, a processing result is outputted from a result output part.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 この発明は、物体の3次元情報をカメラを用いて人力す
る際に必要なカメラの位置姿勢パラメータを簡易、かつ
高精度に校正する方法とその装置に関するものである。
[Detailed Description of the Invention] [Field of Industrial Application] The present invention provides a method for easily and highly accurately calibrating the position and orientation parameters of a camera, which are necessary when manually obtaining three-dimensional information of an object using a camera. This is related to the device.

〔従来の技術〕[Conventional technology]

カメラの位置姿勢パラメータには、カメラのレンズ中心
位置、カメラ方向があり、光軸点、光軸長があらかじめ
分っている場合忙未知パラメータ数とし工は6である。
Camera position and orientation parameters include the camera lens center position and camera direction, and if the optical axis point and optical axis length are known in advance, the number of unknown parameters is six.

なお、ここで光軸点はカメラのレンズ中心からカメラの
イメージプレーンへの垂線と、イメージブレーンとの交
点であり、光軸長はその垂線の長さである。パラメータ
を求める方法として、あらかじめ位置が分っている物体
上の複数の点(基準マークンをカメラで観測し、その像
と、仮定したパラメータをもつカメラで得られる像との
誤差を求め、その差が小さくなるようにパラメータの値
を選択する方法が、従来提案されている。
Note that the optical axis point here is the intersection of the perpendicular line from the center of the camera lens to the image plane of the camera and the image plane, and the optical axis length is the length of the perpendicular line. The method of determining the parameters is to observe multiple points (reference markons) on an object whose positions are known in advance with a camera, find the error between that image and the image obtained by the camera with the assumed parameters, and calculate the difference between the two. Conventionally, methods have been proposed for selecting parameter values such that .

下記文献lでは多(の未知数を含む誤差函数2つを同時
に小さくてるパラメータを求める方法を提案し工いる。
The following document 1 proposes a method for finding parameters that simultaneously reduce two error functions that include unknowns.

手順は、先ず未知パラメータに初期値を与えたうえで、
2つの誤差函数が小さくなるようにパラメータを少しず
つ修正してい(ことによっている。初期値の与え方を誤
ると収束しなかったり、修正の回数が非常に多(なり、
実用性に問題がある。また、基準マークを多(したり。
The procedure is to first give initial values to the unknown parameters, and then
The parameters are corrected little by little so that the two error functions become smaller (depending on the situation).If the initial values are incorrectly given, convergence may not occur or the number of corrections may be extremely large.
There is a problem with practicality. Also, there are many reference marks.

精度を高めようとすると修正のための処理時間が非常に
長くなる欠点があった。
Attempting to improve accuracy has the disadvantage that processing time for correction becomes extremely long.

下記文献2では3本の既知直線の像からパラメータを含
む3つの連立方程式を導出している。この方程式の変数
は変数間の制約条件をもつため解析的手法が適用できず
、前記文献lと同様に、パラメータな徐々に修正しなが
ら近似解を求める必要がある。初期値の設定を誤まると
収束しなかったり、修正回数が多くなる欠点がある。
In Document 2 below, three simultaneous equations including parameters are derived from images of three known straight lines. Since the variables in this equation have constraint conditions between variables, analytical methods cannot be applied, and as in the above-mentioned document 1, it is necessary to find an approximate solution while gradually modifying the parameters. If the initial values are incorrectly set, convergence may not occur or the number of corrections may be increased.

下記文献3では座標系変換マトリクスを用いてパラメー
タの初期値を求めた後、誤差が小さくなるまで各パラメ
ータを徐々忙変化させてくり返し演算する山登り法によ
り解を出す方法を提唱し工いる。この方法では、文献1
と文献2と同様、くり返し演算により処理時間がかかる
ものと考えられる。
Document 3 below proposes a method of finding a solution using a hill-climbing method in which initial values of parameters are determined using a coordinate system transformation matrix, and then each parameter is gradually changed and calculations are repeated until the error becomes small. In this method, reference 1
Similar to Document 2, it is thought that the processing time is required due to repeated calculations.

また、この方法において開示されている変換マトリクス
を見る限り、マトリクスのもつべき直交性の条件を満足
させるための考慮がなされていない。
Further, as far as the transformation matrices disclosed in this method are concerned, no consideration is given to satisfying the orthogonality condition that the matrices should have.

このため、マトリクス要素間の制約条件は修正工程であ
る山登り演算の中で十分考慮しな(℃はならない。した
がって、文献1.2と同様に、処理量が大きくなり、長
い処理時間を要することとなる。
For this reason, the constraint conditions between matrix elements must be fully considered in the hill-climbing operation that is the correction process (℃ will not be achieved. Therefore, as in Reference 1.2, the amount of processing will be large and the processing time will be long. becomes.

文献り 石井他、電子通信学会枝根S C−84−9「
3次元位置、姿勢センサとロボットへの応用」 文献2)越後他、情報処理学会コンピュータビジミツ研
究会34−4(1985年1月248)「縞状バクーン
ステレオによる3次元位置検出」 文献3) 久野他、情報処理学会コンピュータビジョン
研究会35−1(1985年3月12日)[2値画*に
よる多面体の位置、姿勢計測] 〔発明が解決しようとする問題点〕 以上のよ5K、従来、提案されている方法は、くり返し
演算により徐々に誤差を小さくし工い(方法である。初
期値の与え方や基準マークの与え方により値が変わり易
く必ずしも汎用的に利用することができず、また、処理
量が大きく処理時間がかかる欠点がある。
Reference Ishii et al., Institute of Electronics and Communication Engineers Edane SC-84-9
3D Position and Posture Sensors and their Application to Robots” Reference 2) Echigo et al., Information Processing Society of Japan Computer Vision Study Group 34-4 (January 1985, 248) “3D Position Detection Using Striped Bakoon Stereo” Reference 3) Kuno et al., Information Processing Society of Japan Computer Vision Study Group 35-1 (March 12, 1985) [Position and orientation measurement of polyhedrons using binary images*] [Problems to be solved by the invention] As described above, 5K, conventional , the proposed method gradually reduces the error through repeated calculations.The value tends to change depending on how the initial value is given and how the reference mark is given, so it cannot necessarily be used for general purpose. In addition, there is a drawback that the amount of processing is large and the processing time is long.

この発明は、カメラ位置姿勢パラメータと誤差パラメー
タからなる連立方程式の解を解析的に求めた後、解析的
手続により誤差パラメータを小さくする補正を簡易紀行
うことにより、簡易、高速、かつ高精度にカメラ位置姿
勢バラメークを得るカメラ位置姿勢校正方法とその装置
を提供することを目的とする。
The present invention analytically solves simultaneous equations consisting of camera position/orientation parameters and error parameters, and then performs a simple correction to reduce the error parameters using an analytical procedure. An object of the present invention is to provide a camera position/orientation calibration method and apparatus for obtaining a camera position/orientation variation.

C問題点を解決するための手段〕 この発明Kかかるカメラ位置姿勢校正方法は、空間座標
系が既知の6点以上の特定点を撮像カメラを用いて観測
し、得られた特定点の像の位置を使って空間座標系とカ
メラ座標系間の直交性を有する変換マトリクスと誤差パ
ラメータとを最小自乗法に基づく行列演算により解析的
に算出して、カメラ位置姿勢パラメータの近似筐を求め
、しかる後、前記誤差パラメータを用いて最小自乗法に
基づく行列演算により変換マトリク′スと誤差ノ(ラメ
ータを解析的に算出し工カメラ位置姿勢)(ラメークの
補正値を求め、誤差パラメータが指定した領置工匠なる
ように補正を(り返丁ことによって、カメラ位置姿勢パ
ラメータを得るものである。
Means for Solving Problem C] The camera position and orientation calibration method according to the present invention K uses an imaging camera to observe six or more specific points whose spatial coordinate system is known, and calculates the image of the obtained specific point. Using the position, a transformation matrix having orthogonality between the spatial coordinate system and the camera coordinate system and an error parameter are analytically calculated by matrix operations based on the method of least squares to obtain an approximate case for the camera position and orientation parameters, and then Then, using the error parameters, perform matrix calculations based on the least squares method to calculate the transformation matrix and the error parameters (parameters are calculated analytically to obtain the corrected values for the camera position and orientation). The camera position and orientation parameters are obtained by making corrections so that the position and orientation are correct.

また、この発明にかかるカメラ位置姿勢校正装置は、画
像入力部と、基準となるマークの識別を行うマーク識別
処理部と、この出力からカメラ位置姿勢パラメータと誤
差パラメータを最小自乗法に基づく行列演算により解析
的に算出するハード化した行列演算モジュールからなる
補正処理部とで構成されたものである。
Further, the camera position and orientation calibration device according to the present invention includes an image input unit, a mark identification processing unit that identifies a reference mark, and a matrix calculation based on the least squares method to calculate camera position and orientation parameters and error parameters from the output of the image input unit. It is composed of a correction processing section consisting of a hardened matrix calculation module that performs analytical calculations.

〔作用〕[Effect]

か この発明のカメラ位置姿勢補iVcおいては、第1ステ
ツプとしてカメラ位置姿勢パラメータの近似値の°誤差
を変換マトリクスの直交化により判明した誤差パラメー
タの値により表現し、第2ステツプとして精度を高める
ための補正として解析的手続により誤差の補正量を直接
的に行列演算を行いカメラ位置姿勢パラメータを得る。
In the camera position and orientation correction iVc of this invention, the first step is to express the degree error of the approximate value of the camera position and orientation parameter by the value of the error parameter found by orthogonalizing the transformation matrix, and the second step is to evaluate the accuracy. As a correction for increasing the amount of error, matrix calculation is performed directly on the error correction amount using an analytical procedure to obtain camera position and orientation parameters.

また、この発明のカメラ位置姿勢補正装置は。Further, the camera position and orientation correction device of the present invention is as follows.

近似値算出処理部でカメラ位置姿勢パラメータと誤差パ
ラメータを最小自乗法に基づく行列演算により解析的V
Cg出し、補正処理部により最小自乗法に基づく行列算
算によりカメラ位置姿勢パラメータと誤差パラメータを
解析的に算出する。
The approximate value calculation processing unit calculates the camera position/orientation parameters and error parameters using matrix calculations based on the method of least squares.
Cg is extracted, and the correction processing unit analytically calculates camera position and orientation parameters and error parameters by matrix calculation based on the method of least squares.

〔実施例〕〔Example〕

以下この発明の一実施例について第1ステツプと第2ス
テツプに分けて説明する。
An embodiment of the present invention will be explained below by dividing into a first step and a second step.

(第1ステツプン カメラレンズ中心が物体座標系(X + 7 + z)
の(C+ a e31 c3 )に位置し工いるものと
する。カメラ座標系(XB g y@ + Z@ )と
物体座標系(X * y*z)との関係は一般に次式で
書き表わされる。なお、座標系は第2図に示すよ5に右
手系とし、カメラ光軸方向なyo  軸とする。また、
1はマーク板で、!+  7+  Zは空間座標、α、
β、ψは方位角、2はカメラで、Xe* y@ *  
z6  はその軸である。
(The center of the first step camera lens is the object coordinate system (X + 7 + z)
It is assumed that the operation is located at (C+ a e31 c3 ). The relationship between the camera coordinate system (XB g y@ + Z@) and the object coordinate system (X*y*z) is generally expressed by the following equation. Note that the coordinate system is a right-handed system as shown in FIG. 2, and the yo axis is in the direction of the camera optical axis. Also,
1 is a mark board! +7+Z is the spatial coordinate, α,
β, ψ are azimuth angles, 2 is camera, Xe* y@ *
z6 is its axis.

ただし、Mは物体座標系からカメラ座標系への変換マト
リクスであるCMの行列要素を次式で示す。
However, M is a matrix element of CM, which is a transformation matrix from the object coordinate system to the camera coordinate system, as shown in the following equation.

M ” (ak4)(k、 l=l 、2.3 ) =
・・・(21一方、カメラ中心からカメラ画面へ垂線を
下したときの距11!(光軸長ンをLとし、その垂線と
画面との交点(光軸点)の座標を(5olo )とし、
また、画面上の像と画像メモリ上の像との間のスケール
ファクタ(縮小率)を画像の1方向(横方向)Kつい℃
η1、j方向(縦方向)につい工ηjとする。基準マー
クのカメラ座標系における座標とその画像(i、j)と
は次の関係を存している。
M ” (ak4) (k, l=l, 2.3) =
...(21) On the other hand, the distance when a perpendicular line is drawn from the camera center to the camera screen is 11! (The optical axis length is L, and the coordinates of the intersection of the perpendicular line and the screen (optical axis point) are (5olo). ,
In addition, the scale factor (reduction ratio) between the image on the screen and the image in the image memory is set by K in one direction (horizontal direction) of the image.
Let η1 be an engineering ηj in the j direction (vertical direction). The coordinates of the reference mark in the camera coordinate system and its image (i, j) have the following relationship.

以後の計算で、変換マ) Uクスが直交すること、すな
わち。
In subsequent calculations, the transformation matrix) U is orthogonal, ie.

ΣaL1=l(k=1,2.3)・・・・(5)Σak
J arml =0    ・・・・・・・(6)(k
呻(転) を保証させるため、第(3)式、第(4)式を次のよう
に誓き直す。
ΣaL1=l(k=1,2.3)...(5)Σak
J arml = 0 (6) (k
In order to guarantee this, we will renew the vows in formulas (3) and (4) as follows.

δと(ε2.ε、)は光軸長および光軸点座標の誤差を
表わす誤差パラメータである。第(1)式、第(2)式
を第(7)式に代入すれば次式が得られる。
δ and (ε2.ε,) are error parameters representing errors in the optical axis length and optical axis point coordinates. By substituting equations (1) and (2) into equation (7), the following equation is obtained.

a’1. lx +a’、、 i y+a’H−i z
 + f、x +f、 y+B’1z−B;el−B’
zc=−B’3c3=i     ・・’(8まただし
、 BJ−−Lall−Jalj−η1 1oau−’71
  εr  aH(J=L2+3)ft−B /A1η
、(1=11213ンazJ” atj /A1(ll
 ” 1 + 2+ 3 )同様にして、 a’21 j  x+a’B  j y +a’Hj 
z +D’、x+D’27+I)’、zD’r l  
D’s ea  D; e3 :j’  −(10)た
だし、 第(8)式、第(1o)式を用い、物体座標系での複数
(n個ンの基準マーク座標を(Xls Fl * Z+
 ) + ・・・+(XB +7IIIZ11)  と
し、それら忙対応する像を(i、 * j+ )+・・
・、(in、Jll)とすると、GN=W    ・・
・・・・・・・・02)ただし、Gは多次元パラメータ
ベクトルでありG= (an+ a;b m’s + 
B’+  + B”! * B; *  D7 * p
;、 l1lr31 u; +u’! ) −−・a3
)像点ベクトル W=(ill 121・+ 11 II l!’・、j
・・05)基準マーク行列 ただし にm =(1,・,1)  ・・(17)また、O□は
m行n列のOマトリクス、1.1’はそれぞれ3行3列
およびn行n列の単位行列であ机 次に、第(12)式を用いて最小自乗法によりGを求め
る。すなわち誤差E E=Σ(ΣG。。NPk  ”mk ) ’IIkn を最小とするGを求める。結果は次式で与えられる。
a'1. lx +a',, i y+a'H-i z
+f, x +f, y+B'1z-B;el-B'
zc=-B'3c3=i...' (8 squared, BJ--Lall-Jalj-η1 1oau-'71
εr aH(J=L2+3)ft-B/A1η
, (1=11213n azJ” atj /A1(ll
"1 + 2+ 3) Similarly, a'21 j x + a'B j y + a'Hj
z +D', x+D'27+I)', zD'r l
D's ea D; e3 :j' - (10) However, using equations (8) and (1o), the coordinates of multiple (n) reference marks in the object coordinate system are expressed as (Xls Fl * Z+
) + ...+(XB +7IIIZ11), and the corresponding images are (i, * j+ )+...
・, (in, Jll), then GN=W ・・
・・・・・・・・・02) However, G is a multidimensional parameter vector, and G= (an+ a; b m's +
B'+ + B"! * B; * D7 * p
;, l1lr31 u; +u'! ) --・a3
) Image point vector W = (ill 121・+ 11 II l!'・, j
...05) Reference mark matrix where m = (1,...,1) ... (17) Also, O□ is an O matrix with m rows and n columns, and 1.1' are 3 rows and 3 columns and n rows and n columns, respectively. Next, calculate G using the least squares method using equation (12) using the unit matrix of columns. That is, G that minimizes the error EE=Σ(ΣG..NPk ``mk )'IIkn is determined.The result is given by the following equation.

G=W・N” (NNT戸・・・・・・(18)ただし
、NTは基準マーク行列Nの転置行列である。
G=W·N” (NNT door (18) where NT is the transposed matrix of the reference mark matrix N.

さ工、第(9)弐により次の関係が成立する。The following relationship is established by Sako and No. (9) 2.

a’Hel  +a’B  el  +a’Hc@  
=  1    ・ ・(19)このことと、第(14
)式からカメラのレンズ中心座標(CIHcl+Ca)
は次式で与えられる。
a'Hel +a'B el +a'Hc@
= 1 ・ ・(19) This and the (14th)
) from the camera lens center coordinates (CIHcl+Ca)
is given by the following equation.

また、変換マトリクスMが直交すること、すなわち第(
5)弐′、第(6)式の条件と第(9)式とを用いて変
形すると、誤差パラメータε量 、εj を算出するこ
とができる。
Also, the transformation matrix M is orthogonal, that is, the (
5) By transforming using the conditions of Equation (6) and Equation (9), the error parameters ε quantity and εj can be calculated.

ε1  ” −AS (&:@、fl+a’lJ’l+
ajHB’* )−io  −・・イ21)83 = 
・A:  (a’i、DH+ &’**D* +jL′
、、D;  ン・j 、  ・・(22)ここで、第(
5)式、第(6)式を考慮すると、A:とじて次式で計
算される値を使うことができる。
ε1 ” −AS (&:@, fl+a'lJ'l+
ajHB'*)-io-...i21)83=
・A: (a'i, DH+ &'**D* +jL'
,,D; n j , ...(22) Here, the th (
Considering Equations 5) and Equations (6), it is possible to use the value calculated by the following equation, where A: is taken.

A:=(a’、・+a4.”+a’、、”)・’  ・
・・・(23)次に誤差パラメータδを求める。第(9
)式から(L+δ)” 1117 (l=1 + 2+
 3 )を求め、第(5)式、第(6)式を用いて変形
すれば、次式が得られる。
A:=(a',・+a4."+a',,")・'・
(23) Next, find the error parameter δ. No. 9
) from the formula (L+δ)” 1117 (l=1 + 2+
3) and transform it using equations (5) and (6), the following equation is obtained.

(L+15)”/η1”=A、” (B、” +B’、
”+B’、” )+(1,+g、)”+  2 (+6
 +j  )(B?a′21+B’2 ass  +B
’s &’* s )Ax・・・(24) 同様に (L+δ’) AJ”= kX (07”+D;”+ 
D;”) + (j o +g J ) ”+ 2 (
jg +54 ) (D7 a’z+ +l)’=a’
H−+−o、 4s ) A x・・・(25) 次に第(9)式から a’+t=(B’z771−η+ (i o+g、)a
−、l/(L+δ )、<l=1.2.3)であるから a’l 1=(−Bコー(i@+gt )a’u )/
l(L+δ ン/’?t  l−=(26ン同様に1 、% 、 =t  o+コシ−j、+gj)a’y)/
((L+δ)/ηJ  )   −・−(27)ここで
、上記で求める変換マトリクスM(akj)は直交して
いることが保証され工いる。みかけの光軸長を第(24
)式または第(25)弐により求まるL+δとし、また
、みかけの光軸点を第(20式、第(223式により算
出される(i0+ε1.j0+εj)とすれば、x*’
;”ila回りのカメラの回転角α、β、ψはα” I
I t n−’ (−1% z t a n 9)/I
k’H)    ’β= t a n−” (a’s+
 / a’ss )cp  =  jan−”(−a’
Ba  inβ/a’s I )Kより求めることとな
る。
(L+15)”/η1”=A,” (B,”+B’,
"+B',")+(1,+g,)"+2 (+6
+j ) (B?a'21+B'2 ass +B
's &'*s)Ax...(24) Similarly (L+δ') AJ"= kX (07"+D;"+
D;”) + (jo + g J) ”+ 2 (
jg +54 ) (D7 a'z+ +l)'=a'
H-+-o, 4s) A x...(25) Next, from equation (9), a'+t=(B'z771-η+ (io+g,)a
-, l/(L+δ), <l=1.2.3), so a'l 1=(-Bko(i@+gt)a'u)/
l(L+δ line/'?t l-=(1, %, =t o+cosine-j,+gj)a'y)/
((L+δ)/ηJ) −·−(27) Here, the transformation matrix M(akj) obtained above is guaranteed to be orthogonal. The apparent optical axis length is the 24th
) or (25) 2, and the apparent optical axis point is (i0+ε1.j0+εj) calculated by equations (20 and 223), then x*'
;"The rotation angles α, β, and ψ of the camera around ila are α" I
I t n-' (-1% z t a n 9)/I
k'H) 'β= t a n-'(a's+
/a'ss)cp=jan-"(-a'
It is determined from Ba inβ/a's I)K.

カメラとマークの傾きがなく、マークの構成あるいは照
明条件が最良忙調整されている場合で、かつマークの奥
行き方向分布が広い範囲にわたっている場合には、誤差
パラメータが無視できる程小さい値となる可能性が高い
。このときには、求まった1、+ε8.j0+εj、L
+δの値をそれぞれill JolLの内部パラメータ
とし1使用できる。
If the camera and mark are not tilted, the mark configuration or lighting conditions are optimally adjusted, and the mark depth distribution covers a wide range, the error parameter can be negligibly small. Highly sexual. At this time, the obtained 1, +ε8. j0+εj,L
The value of +δ can be used as an internal parameter of ill Joll.

しかし、通常はカメラとマークとの位置関係や照明条件
が変動する。さらに、マークの中心座標の読取り誤差も
実際の計測では生じる。このため、算出されるみかけの
光軸点(i6+ε1.jo+ε」島みかげの光軸長(L
+δ)&ま真の値、No、joLLと差が生じ、このた
め、刀メラ位置姿勢バラメーグの誤差が生じる。実線に
、この誤差がしばしば著しく太き(なることがある。高
精度なカメラ位置姿勢パラメータ校正を行うには、みか
けの光軸点、みかけの光軸長が真の値に一致すること、
すなわち誤差パラメータε1+$3.δをOとする第2
ステツプが必要である。
However, the positional relationship between the camera and the mark and the lighting conditions usually change. Furthermore, errors in reading the center coordinates of marks also occur in actual measurements. Therefore, the calculated apparent optical axis point (i6+ε1.jo+ε) is the optical axis length of the island (L
+δ) & is different from the true value, No, and joLL, which causes an error in the position and orientation of the sword blade. As shown in the solid line, this error often becomes extremely thick (sometimes).To perform highly accurate camera position and orientation parameter calibration, it is necessary to make sure that the apparent optical axis point and apparent optical axis length match the true values.
That is, the error parameter ε1+$3. the second where δ is O
Steps are required.

(第2ステツプ] 一般には、上記方法によつ℃はみかけの光軸点からεし
εjを分離することはできないが、通常のレンズ特性の
計測手段によつ℃別途光軸点(io。
(Second Step) Generally, it is not possible to separate ε and εj from the apparent optical axis point in °C using the above method, but it is possible to separate the optical axis point (io) separately at °C using ordinary means for measuring lens characteristics.

jo)を求めることができる。また、光軸長LVcつい
ては基準マーク配列面がカメラの光軸にほぼ直角におか
れ、かつ基準マーク数が多いときKは、この発明による
前記第1ステツプのパラメータ校正により精度よく得ら
れる。これ忙より、レンズくり出し位置とLとの関係を
あらかじめ校正しておく。このように、カメラ固有のパ
ラメータである(Lo、jo)とLをあらかじめ求めて
おくことにより、C6,C4,δの値を分離することが
で診る。
jo) can be obtained. Regarding the optical axis length LVc, when the reference mark arrangement surface is placed approximately at right angles to the optical axis of the camera and the number of reference marks is large, K can be obtained with high accuracy by the parameter calibration in the first step according to the present invention. Since we are busy, we calibrate the relationship between the lens extension position and L in advance. In this way, by determining the camera-specific parameters (Lo, jo) and L in advance, it is possible to separate the values of C6, C4, and δ.

次は、C3,εj、δ=0となり、かつ変換マ) IJ
クスが直交するようにパラメータ補正を行う。
Next, C3, εj, δ=0, and the transformation ma) IJ
The parameters are corrected so that the lines are orthogonal.

まず、画像面と物体座標系の水平面(x−y面ンの交線
と、画像面のl軸とのなす角度θ舅を求める。θ証 と
して次式が導出で會る。
First, find the angle θ between the intersection line of the image plane and the horizontal plane (xy plane) of the object coordinate system and the l axis of the image plane. As θ proof, the following equation is derived.

01g=coa−1(bl  、  a’o+b鵞 I
L’+*)ただし、bt=±(1+(a%+/i;*)
” l−’x  ・” −−”(29)b2= −a’
ff1l bl / &’xs上記の交線と、””jo
)、(io+εl+ jll+εj)を結ぶ直線とのな
す角度θは、第C29)式のθにを含む次式で与えられ
る。
01g=coa-1(bl, a'o+b goose I
L'+*) However, bt=±(1+(a%+/i;*)
"l-'x ・"--"(29)b2=-a'
ff1l bl / &'xs The above intersection line and ""jo
) and the straight line connecting (io+εl+jll+εj) are given by the following equation including θ in equation C29).

θ= −−’=(e o a−’ (ε+1lo)−0
M + −・”(30)1εJま ただし、l:=ε−十εj2 カメラ方位補正量は、θを用いて で与えられる。
θ= −−′=(e o a−′ (ε+1lo)−0
M + −・”(30)1εJ However, l:=ε−1εj2 The camera direction correction amount is given by using θ.

また、C1+ C1+ amはδを用いて((!II 
et、 es )=τ町(cr+cz*cs)・・(3
2]で与えられる。
Also, C1+ C1+ am is expressed as ((!II
et, es) = τ town (cr+cz*cs)...(3
2].

次K、第(31)式により補正した方位を使って、a□
r&B*1に□を求める。この値と、第(32)弐によ
り補正したCI+ CR# eMを使って1次式により
C41゜a’211 &’++s ’k 求1h ル。
K, using the direction corrected by equation (31), a□
Find □ in r&B*1. Calculate C41°a'211 &'++s'k1h using this value and CI+CR#eM corrected according to No. (32) 2 using the linear equation.

a’zs=au/Axe a’a=az*/A*+ a
’意s=atm/Av ’°匈)ただし、A*:!Lh
e++auC*+ILnem  ・・=<A4)ここま
でが予備補正である。
a'zs=au/Axe a'a=az*/A*+ a
'Is=atm/Av '°匈) However, A*:! Lh
e++auC*+ILnem...=<A4) This is the preliminary correction.

さて、a’2+ 1 &’22 * a’tsを既知数
とすると、第(8)式は未知係数が左辺にのみ含まれる
次式に誉きl1ことができる。
Now, if a'2+ 1 &'22 * a'ts are known numbers, then equation (8) can be reduced to the following equation in which the unknown coefficient is included only on the left side.

B’、 x +B’、 y +B; z −Bτat−
B2c’z−B’* C3:=i−aり+1x−a’B
iy−a’、31z     ・ c’t5)同様に第
(lO)式の代わりに次式が得られる。  、D’、 
X+D’2 y+D’3 z −D’; cl −n;
 C3−I)’、 c。
B', x +B', y +B; z -Bτat-
B2c'z-B'* C3:=i-a+1x-a'B
iy-a', 31z・c't5) Similarly, the following equation is obtained instead of the equation (lO). ,D',
X+D'2 y+D'3 z -D'; cl -n;
C3-I)', c.

”j−&’ajx−a’ujY−a’ujz  ・・(
判物体座標系での複数(nivA)の基準マーク座標を (X++  7i l  Z+  L  ・・・’・・
*  CXy、a  Val Zm  )とし、それら
に対応する像を (Ii++J+L・・、(ill、 j、 )とすると
、第(35)式、第C36)式を用いて次の関係式が得
ら”れる。
”j-&'ajx-a'ujY-a'ujz...(
The coordinates of multiple (nivA) reference marks in the size object coordinate system are (X++ 7i l Z+ L...'...
* CXy, a Val Zm ), and the corresponding images are (Ii++J+L..., (ill, j, ), then the following relational expression is obtained using equations (35) and C36). It will be done.

P・Q=W    ・・・・1旧・・・(初ただし、 V =  (I J )−1”A KtKg−f”A’
KsKJ   −−・・(40)(IJ)=(””””
) A=(an l’!!、a′2S)+ (=(Δ)
jl・・・jlll である。第(18)式を導出したと會と同様にして、P
は次式 %式%(41) kより求められ、Pから B’+−B’t l n′sI D; +D’2 sD
Z #u’llu’!が求められる。これを用い、第(
26) 、 (27) 、 (28)式から補正後の衷
位角α、β、ψが求まる。得られた変換マトリクスは直
交性が保証されている。これらの値を使って第(20ン
式によりC1at l asを、また、第0υ、 (2
2)、 (25)式から61+g31δを求める。ここ
までの処理で、通常の基準マーク条件の場合にはε籏、
εj、δは十分小さくなる。ルかし、基準マークが少な
(、かつ画像上1カ所にかたまっている等基準マークの
条件が悪いときなど忙は。
P・Q=W...1 old...(first proviso, V=(I J)-1"A KtKg-f"A'
KsKJ --... (40) (IJ) = (""""
) A=(an l'!!, a'2S)+ (=(Δ)
jl...jllll. After deriving equation (18), P
is obtained from the following formula % formula % (41) k, from P B'+-B't l n'sI D; +D'2 sD
Z #u'llu'! is required. Using this, the first (
26), (27), and (28), the corrected lateral angles α, β, and ψ are found. The obtained transformation matrix is guaranteed to be orthogonal. Using these values, we can calculate C1at l as by the (20th equation), and also calculate the 0υ, (2
2) Find 61+g31δ from equation (25). In the processing up to this point, in the case of normal reference mark conditions, ε籏,
εj and δ become sufficiently small. However, when the condition of the fiducial marks is poor, such as when there are few fiducial marks (and they are clustered in one place on the image), etc.

ε濁、εj、δが無視できない程度となることがある。ε turbidity, εj, and δ may reach a level that cannot be ignored.

その場合VCは、第(29)式から第(41)式の処理
を再実行する。このようにして、カメラ位置鞠姿勢パラ
メータを高精度に知ることができる。
In that case, the VC re-executes the processes of equations (29) to (41). In this way, the camera position and posture parameters can be known with high precision.

第1図はこの発明の一実施例を示す処理の流れ図を示し
たものである。なお、(1)〜(14)は各ステップを
示す。
FIG. 1 shows a flowchart of processing showing an embodiment of the present invention. Note that (1) to (14) indicate each step.

ステップ(1)で基準マークの座標を入力した後、ステ
ップ(2ンにおい℃、第(15)、 (16)弐により
、N。
After inputting the coordinates of the fiducial mark in step (1), step (2), (15), (16) 2, and N.

Wをセットし、ステップ(3)忙おいて、第(18)弐
によりG、すなわち a−t  s  &’s雪、a’*s*  B; *B
;s  Bs  mD’>mD−*5D−s +u’t
+ u。
Set W, step (3) busy, G by step (18) 2, i.e. a-t s &'s snow, a'*s* B; *B
;s Bs mD'>mD-*5D-s +u't
+ u.

を求め、ステップ(4)kおい、第C20)式・y第(
25)式により el+ ORr C3,gl、 61.δしδjを求め
る。次にステップ(5)&tおいて、第(ア)式。
Step (4) k, C20) formula, y-th (
25) el+ORr C3, gl, 61. δ and find δj. Next, in step (5) &t, equation (a).

第(27ン式により Jl’ll  r  a’l!+  ass  I  
a’st  l  a’zs  l  a’l!を求め
、ステップ(6)Kより、方位角α、β、ψを求める。
According to the 27th formula, Jl'll r a'l!+ ass I
a'st l a'zs l a'l! Then, in step (6) K, the azimuth angles α, β, and ψ are determined.

ステップ(7)からは補正ルーチンである。The correction routine starts from step (7).

εl* ’J+δが無視で伴ないときはステップ(8)
忙進む。ステップ(8)では、第(3り式、第(322
弐により、方位角の補正と81+el+03の補正を行
った後、ステップ(9)で、第(33ン式、第04)式
によりa’ts 書a’*t l a’zsを求め、ス
テップ00)におい1、第(39)式、第(4o)式に
より、Q、 Vをセントし、ステップ(11) 6fお
いて第(37)弐によりP、すなわちBτ #  n#
、I  B’s l  D;  #  DS  *  
D:  *  u’+  *  u’1を算出する。ス
テップ(12)では、!(20)、(2υ、(2)ン。
εl* 'If J+δ is ignored, step (8)
I'm busy. In step (8), the 3rd expression, the 322nd
After correcting the azimuth angle and correcting 81+el+03 using 2, in step (9), a'ts document a'*t l a'zs is determined by equations (33rd and 04th), and step 00 ) smell 1, by equations (39) and (4o), set Q and V, and in step (11) 6f, by step (37) 2, P, that is, Bτ # n #
, I B's l D; # DS *
D: Calculate *u'+*u'1. In step (12),! (20), (2υ, (2)n.

(24) 、  (25)弐により 6Ilεjl δ を求め、ステップ(7)忙戻る。ステップ(7)でYE
Sの場合、すなわち J 、 gj、δ が無視できる程小さい場合忙は、確認ルーチンのステッ
プ(13)に移る。ステップ(13)ではカメラ方位角
α、β、ψとカメラ位置01+ e!* C3を用いて
基準マーク像を算出し、ステップ(14)で、マーク実
riiI像の座標と、算出したマーク像座標とのずれを
算出する。
(24), (25) Find 6Ilεjl δ using 2, and return to step (7). YES in step (7)
In the case of S, that is, if J, gj, and δ are negligibly small, the process moves to step (13) of the confirmation routine. In step (13), camera azimuths α, β, ψ and camera position 01+e! * A reference mark image is calculated using C3, and in step (14), a deviation between the coordinates of the mark actual riii image and the calculated mark image coordinates is calculated.

第3図はこの発明のカメラ位置姿勢校正装置の一実施例
を示すブロック図である。
FIG. 3 is a block diagram showing an embodiment of the camera position and orientation calibration device of the present invention.

この図で、1は基準マークが書かれているマーク板であ
り、カメラ2の前方に置かれている。カメラ2で得られ
る画像は画像入力部3VC記憶する。
In this figure, 1 is a mark board on which reference marks are written, and is placed in front of the camera 2. The image obtained by the camera 2 is stored in the image input section 3VC.

この画像入力部3Vcはフレームメモリと、カメラ駆動
回路とを有し℃いる。4はマーク識別処理部であり、画
像入力部3に記憶されている画像データから、基準マー
クの中心座標を得る。実験ではマークとして白丸を用い
たので、マーク識別処理忙は先ずラベリングを行い、各
ラベリング領域のサイズ、円形度を算出して有効なラベ
リング領域を抽出してからマーク番号を附している。
This image input section 3Vc has a frame memory and a camera drive circuit. Reference numeral 4 denotes a mark identification processing section, which obtains the center coordinates of the reference mark from the image data stored in the image input section 3. In the experiment, a white circle was used as a mark, so the mark identification process first performed labeling, calculated the size and circularity of each labeling area, extracted a valid labeling area, and then assigned a mark number.

5は近似値算出処理部であり、カメラ位置姿勢パラメー
タと誤差パラメータを最小自乗法に基づく行列演算によ
り解析的に求める手段を実行する。
Reference numeral 5 denotes an approximate value calculation processing unit, which executes means for analytically determining camera position/orientation parameters and error parameters by matrix calculation based on the method of least squares.

6は補正処理部であり、カメラ位置姿勢パラメータの予
備補正を行ってから最小自乗法VC基づく行列演算によ
り、カメラ位置姿勢パラメータを解析的に算出する補正
手段を実行する。誤差パラメータがあらかじめ指定した
値より大tい場合には、再度この補正手段を実行するこ
とにより、パラメータを補正することができる。誤差パ
ラメータが指定値より小さくなったと會には結果出力部
7で処理結果を出力する。
Reference numeral 6 denotes a correction processing unit, which executes a correction means that performs preliminary correction of camera position and orientation parameters and then analytically calculates the camera position and orientation parameters by matrix calculation based on the least squares method VC. If the error parameter is larger than a predetermined value, the parameter can be corrected by executing this correction means again. When the error parameter becomes smaller than the specified value, the result output unit 7 outputs the processing result to the meeting.

次に実験の結果について説明する。Next, the results of the experiment will be explained.

画像入力s3とマーク識別処理部4には、東芝裏汎用画
像処理装置TO8PIX−11を用い、カメラ2には、
ソニー製CCDカメラを用いた。また、近似値算出処理
部5と補正処理s6はVAXu/’ys(Bニコンピュ
ータのライブラリにサブルーチンとして登録しである。
For the image input s3 and the mark identification processing section 4, a Toshiba rear general-purpose image processing device TO8PIX-11 is used, and for the camera 2,
A Sony CCD camera was used. Further, the approximate value calculation processing section 5 and the correction processing s6 are registered as subroutines in the library of the VAXu/'ys (B 2 computer).

また、マークの空間座標は、データファイルに予じめ登
録してあり、処理の際必要に応じ参照される。
Furthermore, the spatial coordinates of the marks are registered in advance in the data file, and are referenced as necessary during processing.

CFr算mシミュレーション実験〕 η、=0.02.η7 = 0.02 、L =55 
mm 、α=−〇、11111ラジアン、β=0.0.
 9)=0.04ラジアン*  c、: −100,0
mm+ cz=−800,0mmacs:= 400.
0mmのパラメータを存するカメラで64点の基準マー
クを用いて前述の流れ図に従いカメラ位置姿勢を求めた
ところ、第1ステツプでは、Ctニー108.5画素、
εj::147i!ii素、δ=3.8mm+ α=−
0,0722ラジアン、β〜0.001ラジア7.9+
= −0,357ラジア7、cH=−109,1mm+
 c、ニーs60.6mm+ cl=434.1mmと
なり、実際とはかなり誤差が大きい。
CFr calculation m simulation experiment] η, = 0.02. η7 = 0.02, L = 55
mm, α=-〇, 11111 radians, β=0.0.
9) = 0.04 radian * c,: -100,0
mm+cz=-800,0mmacs:=400.
When the camera position and orientation were determined according to the flowchart described above using 64 reference marks using a camera with a parameter of 0 mm, in the first step, the Ct knee was 108.5 pixels,
εj::147i! ii element, δ=3.8mm+ α=-
0,0722 radian, β ~ 0.001 radian 7.9+
= -0,357 radius 7, cH = -109,1mm+
c, knee s 60.6 mm + cl = 434.1 mm, which is a fairly large error from the actual value.

第2ステツプの補正手順で1回の修正忙より、εl= 
−0,9画素、  g 5 ==−1,8m g + 
δ=0.4 m m +α:=−0.1.118 ラジ
77.cp=−0,40225ジアン、β=0.000
2ラジアン+  e1=100.3mm、  C2ニー
799.83 mm*  cs=401.47mmとな
り、さらK、2@目の補正によりεI=0.2画素、ε
1 = −1,8uni 素、  δ=−0.47mm
eα=−0,1112ラジ77,9)=−0,401ラ
ジアン、β=0.0007ラジアン*  c+: −1
00,4mm+c2=−800,2mm+  e、=4
01.6mmとなり、方位角は最大0.001ラジアン
、位置は最大0.4%にまで精度が高くなつ工いる。
Due to one correction in the second step correction procedure, εl=
−0.9 pixels, g 5 ==−1.8 m g +
δ=0.4 m m +α:=-0.1.118 Radius 77. cp=-0,40225 diane, β=0.000
2 radians + e1 = 100.3 mm, C2 knee 799.83 mm* cs = 401.47 mm, and further correction of K and 2@ eyes makes εI = 0.2 pixels, ε
1 = -1,8uni element, δ=-0.47mm
eα=-0,1112 radians 77,9)=-0,401 radians, β=0.0007 radians*c+: -1
00,4mm+c2=-800,2mm+e,=4
01.6mm, the azimuth angle is up to 0.001 radian, and the position accuracy is up to 0.4%.

確認手順でのマークずれは平均0.2画素であった。The average mark shift in the confirmation procedure was 0.2 pixels.

〔実画像による実験例〕[Experiment example using real images]

基準マーク12点の例では、第1ステツプで、t、=−
8,0画素、17:−35画素、δ= −25,2mm
であったが補正手順4回で、ε、==ニーQ、37画素
、ε。
In the example of 12 reference marks, in the first step, t, = -
8,0 pixels, 17:-35 pixels, δ=-25,2mm
However, after performing the correction procedure four times, ε, = Knee Q, 37 pixels, ε.

=−0,021画素、δ=0.0003mmとなり。= -0,021 pixels, δ = 0.0003 mm.

また、確認手順でのマークすれか、第1ステツプで平均
800画素ったものが補正4回で1画素以内とすること
ができた。また、別の例では、基準マーク数14につい
て第1ステツプで6=3Q、3−素、εj = 78.
 Ojji素、a=−0,14mmであっりtJ”−1
補正ルーチア 1 @ ”t’ 81 = 1.3 j
ji 素−gl::l 7.1画素、δ:O,+12m
mとなり、2rj:A目ル−チンでg+ =−0,15
1mj 素、’1 ”−0,017ul 素、a =0
゜00002mmとなり、また、確認ルーチンでのマー
クずれは、第1ステツプで平均Jal素が、補王手1晒
により0.9画素となった。
In addition, the mark in the confirmation procedure was 800 pixels on average in the first step, but was able to be reduced to less than 1 pixel after four corrections. In another example, for the number of reference marks 14, in the first step, 6=3Q, 3-element, εj = 78.
Ojji element, a=-0.14mm, tJ''-1
Corrected Lucia 1 @ “t” 81 = 1.3 j
ji elementary-gl::l 7.1 pixels, δ:O, +12m
m, 2rj: A-th routine, g+ = -0,15
1mj element, '1''-0,017ul element, a = 0
The mark deviation in the confirmation routine was 0.9 pixels in average Jal element in the first step due to the first exposure.

次に、処理スピードについて述べる。Next, we will discuss processing speed.

市販の汎用画像処理装置とミニコンビエータを用いてマ
ーク数to8点の場合について、一画素入力からマーク
識別までが、工10.ディスクオーバーヘッドを含め約
5秒、最終的忙パラメータを決定し、かつ確認手順を終
って結果を表示するのK1秒の計6秒ですべての処理が
完了した。
In the case of 8 marks using a commercially available general-purpose image processing device and a mini combiator, the process from inputting one pixel to identifying marks takes 10 steps. All processing was completed in a total of 6 seconds, including about 5 seconds including disk overhead, and K1 seconds for determining the final busy parameters and displaying the results after completing the confirmation procedure.

1つのマーク当りの所要時間はわずか60m5ecであ
る。この発明での精度を従来の方法で得ようとすると数
10分、場合忙よっては1時間以上かかる可能性が強い
。従って、この発明の方法によれば処理時間が短く、実
時間計測が可能である。
The time required per mark is only 60 m5ec. If you try to obtain the accuracy of this invention using the conventional method, it will take several tens of minutes, and there is a strong possibility that it will take more than an hour depending on the busy schedule. Therefore, according to the method of the present invention, the processing time is short and real-time measurement is possible.

なお、上記実施例ではマークテーク入力用撮像カメラと
して2次元テレビカメラを想定して説明したが、浜松ホ
トニクス社製ポジションセンスデバイスのように一度に
1つのマークのみの像位置が得られる撮像カメラにおい
ても、タイムシェアリングにより各マークのマーク像位
置を順次久方することができるので、この発明の適用が
可能である。また、1次元のイメージセンナについても
!次元センナでマーク像面を走査すればマーク像の2次
元画像を入力できるので、やはりこの発明−を適用丁゛
ることがで伊る。また、超音波カメラ。
In the above embodiment, a two-dimensional television camera was assumed to be used as the image pickup camera for mark-taking input, but it is also possible to use an image pickup camera that can obtain the image position of only one mark at a time, such as a position sense device manufactured by Hamamatsu Photonics. The present invention is also applicable to this method because the mark image position of each mark can be sequentially changed by time sharing. Also, about the one-dimensional image senna! Since a two-dimensional image of the mark image can be input by scanning the mark image plane with a dimensional sensor, the present invention can also be applied. Also an ultrasound camera.

XIRカメラ等他の情報伝送媒体を用いた1次元または
2次元イメージセンサ忙も適用可能である。
One-dimensional or two-dimensional image sensors using other information transmission media such as XIR cameras are also applicable.

さらに、基準マークとしては、物体の特徴点、たとえば
頂点や稜の特定点や特別に配列を設計した3次元分布す
る識別しやす〜1マーク集合体が用いられる。
Further, as the reference mark, a feature point of the object, such as a specific point on a vertex or edge, or a three-dimensionally distributed, easy-to-identify set of marks with a specially designed arrangement is used.

〔発明の効果〕〔Effect of the invention〕

以上説明したよう忙、この発明のカメラ位置姿勢校正方
法は、カメラ位置方位の近似解と、3種の誤差パラメー
タの計9点を解析的に求めた後、解析的手続により補正
を行って誤差パラメータを極小とする方法であるから1
次の利点がある。
As explained above, the camera position and orientation calibration method of the present invention analytically obtains an approximate solution for the camera position and orientation and three types of error parameters, totaling nine points, and then corrects the error using an analytical procedure. 1 because it is a method that minimizes the parameters
It has the following advantages.

(1)、蓮似解を簡易に求めることができる。また、誤
差パラメータを算出しているため、近似の度合が分る。
(1), a lotus-like solution can be easily obtained. Furthermore, since the error parameters are calculated, the degree of approximation can be determined.

(2)、補正手順は、解析的手法によっているため。(2) The correction procedure is based on an analytical method.

見通しが良く直接的であり、簡易に、かつ精度が高い。It is easy to see, direct, simple, and highly accurate.

(3)、この発明では、座標系変換マトリクスの直交性
を保持しているので、得られた解の信頼性、安定性がよ
く、汎用手法として利用できる。
(3) In this invention, since the orthogonality of the coordinate system transformation matrix is maintained, the obtained solution has good reliability and stability, and can be used as a general-purpose method.

(4)、基準マーク点が多くても、入出力オーバヘッド
を含めても、数秒程度で、処理が可能であり、また、カ
メラ位置の最大誤差0.4%。
(4) Even if there are many reference mark points, processing can be performed in several seconds even including input/output overhead, and the maximum error in camera position is 0.4%.

方位角0.001ラジアン程度の高精度計測が可能であ
る。このため、実時間の高精度なカメラ位置姿勢校正方
法として利用価値がある。
High precision measurement of azimuth angle of about 0.001 radian is possible. Therefore, it is useful as a real-time, highly accurate camera position and orientation calibration method.

また、この発明のカメラ位置姿勢校正装置は、ハード化
した行列演算モジュールを用いて近似値算出処理部と補
正処理部を構成しているので、演算速度を上げることが
でき、また、基準マーク数に応じて行列演算モジュール
を交換することで対処できるので、装置が小形で取り扱
いが簡便になる等の利点を有する。
Furthermore, since the camera position and orientation calibration device of the present invention uses a hardened matrix calculation module to configure the approximate value calculation processing section and the correction processing section, the calculation speed can be increased, and the number of reference marks can be increased. This can be dealt with by replacing the matrix calculation module depending on the situation, which has the advantage that the device is compact and easy to handle.

【図面の簡単な説明】[Brief explanation of drawings]

第1図はこの発明のカメラ位置姿勢校正方法の処理手順
を示す流れ図、第2図は空間座標系とカメラ座標系のと
り万を示す説明図、第3図はこの発明のカメラ位置姿勢
校正装置の一実施例を示すブロック図である。 図中、1はマーク板、2はカメラ、3は画像入力部、4
はマーク識別処理部、5は近似値算出処理部、6は補正
処理部、7は結果出力部である。 第1図 第2図 c
Fig. 1 is a flowchart showing the processing procedure of the camera position and orientation calibration method of the present invention, Fig. 2 is an explanatory diagram showing the arrangement of the spatial coordinate system and the camera coordinate system, and Fig. 3 is the camera position and orientation calibration device of the present invention. FIG. 2 is a block diagram showing one embodiment of the present invention. In the figure, 1 is a mark board, 2 is a camera, 3 is an image input unit, 4
5 is a mark identification processing section, 5 is an approximate value calculation processing section, 6 is a correction processing section, and 7 is a result output section. Figure 1 Figure 2 c

Claims (2)

【特許請求の範囲】[Claims] (1)空間座標系での位置が既知の6点以上の特定点を
撮像カメラを用いて同時に、または時系列に観測し、得
られた特定点の像の位置を使つて、空間座標系とカメラ
座標系間の直交性を有する変換マトリクスと誤差パラメ
ータとを最小自乗法に基づく行列演算により解析的に算
出して、カメラ位置姿勢パラメータの近似値を求め、し
かる後、前記誤差パラメータを用いて最小自乗法に基づ
く行列演算により変換マトリクスと誤差パラメータを解
析的に算出してカメラ位置姿勢パラメータの補正値を求
め、前記誤差パラメータが指定した値以下になるように
前記補正をくり返すことによつて、カメラ位置姿勢パラ
メータを得ることを特徴とするカメラ位置姿勢校正方法
(1) Observe six or more specific points whose positions in the spatial coordinate system are known simultaneously or in chronological order using an imaging camera, and use the positions of the images of the obtained specific points to establish the spatial coordinate system. An approximate value of the camera position/orientation parameter is obtained by analytically calculating a transformation matrix having orthogonality between camera coordinate systems and an error parameter by matrix calculation based on the least squares method, and then using the error parameter. By analytically calculating the transformation matrix and error parameters using matrix calculations based on the least squares method to obtain correction values for camera position and orientation parameters, and repeating the correction so that the error parameters become less than or equal to a specified value. A camera position and orientation calibration method characterized by obtaining camera position and orientation parameters.
(2)マークの像を入力する画像入力部と、この画像入
力部の出力を入力とし基準となるマークの識別を行うマ
ーク識別処理部と、このマーク識別処理部の出力を入力
としカメラ位置姿勢パラメータと誤差パラメータを、最
小自乗法に基づく行列演算により解析的に算出するハー
ド化した行列演算モジュールからなる近似値算出処理部
と、この近似値算出処理部の出力を入力とし、最小自乗
法に基づく行列演算により、カメラ位置姿勢パラメータ
と誤差パラメータを解析的に算出する補正を実行するハ
ード化した行列演算モジュールからなる補正処理部とを
備えたことを特徴とするカメラ位置姿勢校正装置。
(2) An image input section that inputs the image of the mark, a mark identification processing section that uses the output of this image input section as input and identifies the reference mark, and a camera position/orientation that uses the output of this mark identification processing section as input. An approximate value calculation processing section consisting of a hardened matrix calculation module that analytically calculates parameters and error parameters by matrix calculation based on the least squares method, and the output of this approximate value calculation processing section is input, and the least squares method is used. What is claimed is: 1. A camera position/orientation calibration device comprising: a correction processing unit comprising a hardened matrix calculation module that executes correction for analytically calculating camera position/orientation parameters and error parameters through matrix calculations based on the above-mentioned matrix calculations.
JP60118756A 1985-06-03 1985-06-03 Camera position and orientation calibration method Expired - Fee Related JPH0680404B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP60118756A JPH0680404B2 (en) 1985-06-03 1985-06-03 Camera position and orientation calibration method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP60118756A JPH0680404B2 (en) 1985-06-03 1985-06-03 Camera position and orientation calibration method

Publications (2)

Publication Number Publication Date
JPS61277012A true JPS61277012A (en) 1986-12-08
JPH0680404B2 JPH0680404B2 (en) 1994-10-12

Family

ID=14744276

Family Applications (1)

Application Number Title Priority Date Filing Date
JP60118756A Expired - Fee Related JPH0680404B2 (en) 1985-06-03 1985-06-03 Camera position and orientation calibration method

Country Status (1)

Country Link
JP (1) JPH0680404B2 (en)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6444805A (en) * 1987-08-14 1989-02-17 Nippon Telegraph & Telephone Calibrating method of position and posture of pattern projector
JPS6468677A (en) * 1987-09-10 1989-03-14 Komatsu Mfg Co Ltd Position detecting method for moving body
JPH02276901A (en) * 1989-04-19 1990-11-13 Fanuc Ltd Position shift correcting method for visual sensor
WO1991018258A1 (en) * 1990-05-19 1991-11-28 Kabushiki Kaisha Topcon Method of tridimensional measuring, reference scale and self-illuminating reference scale for tridimensional measuring
JPH06246520A (en) * 1993-02-26 1994-09-06 Japan Steel Works Ltd:The Calibration method of camera type reference hole drilling machine
JPH1062145A (en) * 1996-08-14 1998-03-06 Meidensha Corp Attitude detector for camera
JP2002228442A (en) * 2000-11-30 2002-08-14 Mixed Reality Systems Laboratory Inc Positioning attitude determining method and device, and recording media
JP2005141702A (en) * 2003-07-11 2005-06-02 Olympus Corp Information presentation device
JP2006042361A (en) * 2004-07-27 2006-02-09 Microsoft Corp System and method for calibrating multiple cameras without employing pattern by inter-image homography
JP2007064836A (en) * 2005-08-31 2007-03-15 Kyushu Institute Of Technology Algorithm for automating camera calibration
JP2010237193A (en) * 2009-03-12 2010-10-21 Omron Corp Calibration apparatus and method for assisting accuracy confirmation of parameter for three-dimensional measurement
US8091493B2 (en) 2008-01-24 2012-01-10 Brother Kogyo Kabushiki Kaisha Sewing machine, and computer-readable storage medium storing sewing machine control program
JP2012069153A (en) * 2011-12-06 2012-04-05 Canon Inc Imaging device, object detection method and posture parameter calculation method
US8196535B2 (en) 2008-01-24 2012-06-12 Brother Kogyo Kabushiki Kaisha Sewing machine, and computer-readable storage medium storing sewing machine control program
CN102609994A (en) * 2012-01-06 2012-07-25 中国测绘科学研究院 Point-to-point model based universal 3D (three-dimensional) surface matching method
EP1379833B1 (en) 2001-04-19 2016-06-01 Mapvision OY Method for indicating a point in a measurement space
CN108507502A (en) * 2017-12-04 2018-09-07 中国科学院近代物理研究所 A kind of measurement method of accelerator engineering alignment parameter
JP2020148700A (en) * 2019-03-15 2020-09-17 オムロン株式会社 Distance image sensor, and angle information acquisition method
JP2020173216A (en) * 2019-04-12 2020-10-22 株式会社島津製作所 Material testing machine and method for controlling material testing machine

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6444805A (en) * 1987-08-14 1989-02-17 Nippon Telegraph & Telephone Calibrating method of position and posture of pattern projector
JPS6468677A (en) * 1987-09-10 1989-03-14 Komatsu Mfg Co Ltd Position detecting method for moving body
JPH02276901A (en) * 1989-04-19 1990-11-13 Fanuc Ltd Position shift correcting method for visual sensor
WO1991018258A1 (en) * 1990-05-19 1991-11-28 Kabushiki Kaisha Topcon Method of tridimensional measuring, reference scale and self-illuminating reference scale for tridimensional measuring
JPH06246520A (en) * 1993-02-26 1994-09-06 Japan Steel Works Ltd:The Calibration method of camera type reference hole drilling machine
JPH1062145A (en) * 1996-08-14 1998-03-06 Meidensha Corp Attitude detector for camera
JP2002228442A (en) * 2000-11-30 2002-08-14 Mixed Reality Systems Laboratory Inc Positioning attitude determining method and device, and recording media
EP1379833B1 (en) 2001-04-19 2016-06-01 Mapvision OY Method for indicating a point in a measurement space
JP4540329B2 (en) * 2003-07-11 2010-09-08 オリンパス株式会社 Information presentation device
JP2005141702A (en) * 2003-07-11 2005-06-02 Olympus Corp Information presentation device
JP2006042361A (en) * 2004-07-27 2006-02-09 Microsoft Corp System and method for calibrating multiple cameras without employing pattern by inter-image homography
JP2007064836A (en) * 2005-08-31 2007-03-15 Kyushu Institute Of Technology Algorithm for automating camera calibration
US8091493B2 (en) 2008-01-24 2012-01-10 Brother Kogyo Kabushiki Kaisha Sewing machine, and computer-readable storage medium storing sewing machine control program
US8196535B2 (en) 2008-01-24 2012-06-12 Brother Kogyo Kabushiki Kaisha Sewing machine, and computer-readable storage medium storing sewing machine control program
JP2010237193A (en) * 2009-03-12 2010-10-21 Omron Corp Calibration apparatus and method for assisting accuracy confirmation of parameter for three-dimensional measurement
JP2012069153A (en) * 2011-12-06 2012-04-05 Canon Inc Imaging device, object detection method and posture parameter calculation method
CN102609994A (en) * 2012-01-06 2012-07-25 中国测绘科学研究院 Point-to-point model based universal 3D (three-dimensional) surface matching method
CN108507502A (en) * 2017-12-04 2018-09-07 中国科学院近代物理研究所 A kind of measurement method of accelerator engineering alignment parameter
CN108507502B (en) * 2017-12-04 2020-06-16 中国科学院近代物理研究所 Method for measuring engineering collimation parameters of accelerator
JP2020148700A (en) * 2019-03-15 2020-09-17 オムロン株式会社 Distance image sensor, and angle information acquisition method
WO2020189071A1 (en) * 2019-03-15 2020-09-24 オムロン株式会社 Distance image sensor and angle information acquisition method
JP2020173216A (en) * 2019-04-12 2020-10-22 株式会社島津製作所 Material testing machine and method for controlling material testing machine

Also Published As

Publication number Publication date
JPH0680404B2 (en) 1994-10-12

Similar Documents

Publication Publication Date Title
JPS61277012A (en) Method and apparatus for correcting position and posture of camera
CN112669393B (en) Laser radar and camera combined calibration method
US7659921B2 (en) Distance measurement apparatus, distance measurement method, and distance measurement program
JP3261115B2 (en) Stereo image processing device
US20100020178A1 (en) Calibrating a camera system
JPH10253322A (en) Method and apparatus for designating position of object in space
US8571303B2 (en) Stereo matching processing system, stereo matching processing method and recording medium
JPH07167649A (en) Distance measuring equipment
CN110966956A (en) Binocular vision-based three-dimensional detection device and method
CN111709985A (en) Underwater target ranging method based on binocular vision
CN111678518A (en) Visual positioning method for correcting automatic parking path
EP0880010A2 (en) Measuring apparatus
CN111915681B (en) External parameter calibration method, device, storage medium and equipment for multi-group 3D camera group
CN112712566B (en) Binocular stereo vision sensor measuring method based on structure parameter online correction
CN111127560B (en) Calibration method and system for three-dimensional reconstruction binocular vision system
CN113405532B (en) Forward intersection measuring method and system based on structural parameters of vision system
JP2961140B2 (en) Image processing method
Lynch et al. Backpropagation neural network for stereoscopic vision calibration
CN112785647A (en) Three-eye stereo image detection method and system
CN114485479B (en) Structured light scanning and measuring method and system based on binocular camera and inertial navigation
JPH01116401A (en) Parallax correction system for visual sensor
CN110689532B (en) Image comparison method and system
CN111854736B (en) Error-suppression star point centroid positioning method
CN109239727B (en) Distance measurement method combining solid-state area array laser radar and double CCD cameras
JPH0727514A (en) Calibrating method for image measuring device

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees