JP2007205929A - Instrument for measuring camera internal parameter - Google Patents

Instrument for measuring camera internal parameter Download PDF

Info

Publication number
JP2007205929A
JP2007205929A JP2006025847A JP2006025847A JP2007205929A JP 2007205929 A JP2007205929 A JP 2007205929A JP 2006025847 A JP2006025847 A JP 2006025847A JP 2006025847 A JP2006025847 A JP 2006025847A JP 2007205929 A JP2007205929 A JP 2007205929A
Authority
JP
Japan
Prior art keywords
camera
parallel beam
internal parameter
module
incident
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006025847A
Other languages
Japanese (ja)
Other versions
JP4813911B2 (en
Inventor
Masahiro Ueno
雅浩 上野
Yutaka Kunida
豊 國田
Keiji Tanaka
敬二 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2006025847A priority Critical patent/JP4813911B2/en
Publication of JP2007205929A publication Critical patent/JP2007205929A/en
Application granted granted Critical
Publication of JP4813911B2 publication Critical patent/JP4813911B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Testing Of Optical Devices Or Fibers (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an instrument for measuring a camera internal parameter capable of measuring precisely a camera internal parameter. <P>SOLUTION: A camera 208 has a lens 204 and a two-dimensional imaging element 206. This instrument for measuring the camera internal parameter has a parallel beam emission module 216 for emitting a parallel beam 212, a camera rotation module 211 for changing an incident angle of the parallel beam to the camera, and a calculation module for calculating a photoreception-face-to-photoreception-face distance in an image side main point of the lens and the two-dimensional imaging element 206, and an intersection position of a camera optical axis with the two-dimensional imaging element 206, which are the camera internal parameters, based on two out of three angle differences obtained from the three incident angles when making the parallel beam 212 get incident three times from the parallel beam emission module 216 into the camera 208 while changing the incident angle by the camera rotation module 211, and based on two out of positional differences in three points obtained from three convergence points converged on the two-dimensional imaging element 206 inside the camera 208 corresponding thereto. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、コンピュータビジョンにおいて、カメラの内部パラメタであるレンズの像側主点と撮像素子の受光面間の距離と、レンズの光軸中心と撮像素子との交点のディジタル画像座標系における座標を求めることに関する。   In computer vision, the distance between the image-side principal point of the lens and the light-receiving surface of the image sensor, which is an internal parameter of the camera, and the coordinates in the digital image coordinate system of the intersection of the optical axis center of the lens and the image sensor are calculated. Regarding seeking.

従来のカメラ内部パラメタ測定装置(たとえば、非特許文献1)について、以下に説明する。図1は従来のカメラ内部パラメタ測定について、測定する際の光学系を示したものである。   A conventional camera internal parameter measurement device (for example, Non-Patent Document 1) will be described below. FIG. 1 shows an optical system for measurement of conventional camera internal parameter measurement.

101は光源、102はカメラパラメタを得るためのパターンであるキャリブレーションパターン、103はキャリブレーションパターンの位置を示す世界座標系、104はカメラのレンズ、105はカメラによって規定されるカメラ座標系、106はカメラの二次元撮像素子、107は二次元撮像素子によって規定されるディジタル画像座標系、108は104のカメラレンズと106の二次元撮像素子で構成されるカメラ、である。   101 is a light source, 102 is a calibration pattern which is a pattern for obtaining camera parameters, 103 is a world coordinate system indicating the position of the calibration pattern, 104 is a camera lens, 105 is a camera coordinate system defined by the camera, 106 Is a two-dimensional image sensor of the camera, 107 is a digital image coordinate system defined by the two-dimensional image sensor, and 108 is a camera composed of 104 camera lenses and 106 two-dimensional image sensors.

108のカメラは、103の世界座標に対して、いろいろな位置において102のキャリブレーションパターンを撮影することができるものとする。それぞれの位置のカメラをC,i=1,2,3,‥.と呼ぶこととし、iで位置を関連づけるものとする。 Assume that the camera 108 can capture 102 calibration patterns at various positions with respect to the 103 world coordinates. C i , i = 1, 2, 3,. And the position is related by i.

105のカメラ座標系の各軸の決め方は、以下の通りである。原点は、カメラのレンズの物体側主点と像側主点であり、レンズへの光の入射に関する座標の原点は物体側主点であり、レンズからの光の出射に関する座標の原点は像側主点である。ZCi軸はレンズ光軸と一致し、カメラへの光の入射とは反対方向をプラス方向とする。XCi軸は、原点を含みZCi軸と直交した面内にあり、二次元撮像素子の走査方向と平行な軸であり、物体を動かした際に走査方向と同じ方向に動く物体の方向をプラス側とする。YCi軸は、ZCi軸とXCi軸の両方と直交する軸であり、右手系としてYCi軸のプラス方向を決めることとする。 The method of determining each axis of the 105 camera coordinate system is as follows. The origin is the object-side principal point and the image-side principal point of the camera lens, the origin of coordinates related to the incidence of light on the lens is the object-side principal point, and the origin of coordinates related to the emission of light from the lens is the image side The main point. Z Ci-axis coincides with the lens optical axis, the light incident on the camera to the opposite direction to the positive direction. The X Ci axis is in a plane that includes the origin and is orthogonal to the Z Ci axis, and is an axis parallel to the scanning direction of the two-dimensional imaging device. When the object is moved, the direction of the object moving in the same direction as the scanning direction is indicated. The positive side. The Y Ci axis is an axis orthogonal to both the Z Ci axis and the X Ci axis, and determines the positive direction of the Y Ci axis as a right-handed system.

107のディジタル画像座標系は、1フレームの走査の起点が原点であり、走査方向の軸をuCi軸とし、もう一方の軸をvCi軸とする。
102のキャリブレーションパターンは、視覚的に特徴のある点を複数含むものとする。その特徴点は、たとえば、格子状の線の交点、市松模様の各四角の頂点等が考えられる
カメラ内部パラメタを得る手順は以下の通りである。
In the digital image coordinate system 107, the origin of scanning of one frame is the origin, the axis in the scanning direction is the u Ci axis, and the other axis is the v Ci axis.
It is assumed that the calibration pattern 102 includes a plurality of visually characteristic points. The characteristic points are, for example, intersections of grid-like lines, vertices of checkered squares, etc. The procedure for obtaining camera internal parameters is as follows.

1)103の世界座標系上における102のキャリブレーションパターンの複数の特徴点の位置を測定する。これらの座標を[XWk,YWk,ZWkとする。ここで、kは点を区別するための番号である。Tは転置を表す。 1) Measure the positions of a plurality of feature points of 102 calibration patterns on the 103 world coordinate system. Let these coordinates be [X Wk , Y Wk , Z Wk ] T. Here, k is a number for distinguishing points. T represents transposition.

2)ある位置に108のカメラを固定する。このときのカメラをCとする。iはカメラの位置を区別するための番号である。 2) Fix 108 cameras in a certain position. The camera of this time is C i. i is a number for distinguishing the position of the camera.

3)108のカメラCで102のキャリブレーションパターンを撮像する。 3) imaging the calibration pattern 102 in 108 camera C i of.

4)107のディジタル画像座標系上におけるキャリブレーションパターンの複数の格子点の位置を検出する。これらの座標を[uCik,vCikとする。ここで、kは点を区別するための番号であり、上記で述べた特徴点のそれぞれに対応して番号が付けられる。この対応付けによる番号付けをラベリングと呼ぶ。 4) The positions of a plurality of grid points of the calibration pattern on the digital image coordinate system 107 are detected. Let these coordinates be [u Cik , v Cik ] T. Here, k is a number for distinguishing points, and a number is assigned to each of the feature points described above. Numbering by this association is called labeling.

5)カメラCについての射影行列PCiを求める。求め方は、以下の通り。
5−1)カメラCについて、[XWk,YWk,ZWkと[uCik,vCikを用いて下記の行列BCiを求める。
5) Find the projection matrix P Ci for the camera C i . How to find is as follows.
5-1) For the camera C i , the following matrix B Ci is obtained by using [X Wk , Y Wk , Z Wk ] T and [u Cik , v Cik ] T.

Figure 2007205929
Figure 2007205929

5−2)上記BCiを使ったBCi Ci行列の最小固値に対する固有ベクトルを求める。これを[pCi11,pCi12,pCi13,pCi14,pCi21,pCi22,pCi23,pCi24,pCi31,pCi32,pCi33,pCi34とすると、以下の式が射影行列となる。 5-2) determining the eigenvectors for the minimum solid value of B Ci T B Ci matrix using the B Ci. If this is [p Ci11 , p Ci12 , p Ci13 , p Ci14 , p Ci21 , p Ci22 , p Ci23 , p Ci24 , p Ci31 , p Ci32 , p Ci33 , p Ci34 ] T , the following expression is Become.

Figure 2007205929
Figure 2007205929

6)上記で求めた射影行列PCiを用いて、下記のようにエピポールeCiを求める。 6) The epipole e Ci is obtained as follows using the projection matrix P Ci obtained above.

Figure 2007205929
ただし、sCiはスカラであり、WCiは三次元の任意のベクトルである。sCiの大きさについては、〜付きeCiの3つめのエレメントは1であるので、sCiは、そうなるように決める。Iは4×4の単位行列である。
Figure 2007205929
However, s Ci is a scalar, and W Ci is a three-dimensional arbitrary vector. Regarding the size of s Ci , since the third element of e Ci with ~ is 1, s Ci is determined to be so. I is a 4 × 4 unit matrix.

7)ある位置のカメラCの他、別の位置のカメラCについても、上記2)〜6)を行う。 7) In addition to the camera C i at a certain position, the above 2) to 6) are performed for the camera C j at another position.

8)上記で求めた射影行列PCiを用いて、下記のようにFundamental行列を求める。 8) A Fundamental matrix is obtained as follows using the projection matrix P Ci obtained above.

Figure 2007205929
Figure 2007205929

9)ところでカメラ内部パラメタを含むカメラ内部行列をAと表したとき、以下のようにAで対称行列Kを作るとする。   9) When the camera internal matrix including the camera internal parameters is represented as A, it is assumed that a symmetric matrix K is created by A as follows.

Figure 2007205929
ただし、fCiはカメラのレンズの像側主点と二次元撮像素子の受光面間の距離であり、[uCO,vCOはカメラの二次元撮像素子が規定しているディジタル画像座標系におけるカメラのレンズの光軸と二次元撮像素子との交点の座標であり、kCiはカメラの二次元撮像素子のピクセルピッチの逆数である。
Figure 2007205929
Where f Ci is the distance between the image side principal point of the camera lens and the light receiving surface of the two-dimensional image sensor, and [u CO , v CO ] T is the digital image coordinates defined by the camera two-dimensional image sensor. It is the coordinate of the intersection of the optical axis of the camera lens in the system and the two-dimensional image sensor, and k Ci is the reciprocal of the pixel pitch of the two-dimensional image sensor of the camera.

ある場所のカメラCにおけるKCiと、置き場所を変えたカメラCにおけるKCjを使うと、以下の2式が同時に成り立つことがSelf-Calibrationの理論で分かっている。 It is known from the Self-Calibration theory that the following two expressions hold simultaneously when K Ci in a camera C i at a certain place and K Cj in a camera C j whose place is changed are used.

Figure 2007205929
これらはτについての二次方程式になる。これらのτについての二次関数は等価であるので、それらの二次方程式の0次、1次、2次の係数をそれぞれkCi0、kCi1、kCi2、kCj0、kCj1、kCj2で表すと、以下のようなKruppa方程式が得られる。
Figure 2007205929
These are quadratic equations for τ. Since the secondary functions of these τ are equivalent, 0-order their quadratic equation, primary, secondary coefficient in each k Ci0, k Ci1, k Ci2 , k Cj0, k Cj1, k Cj2 When expressed, the following Kruppa equation is obtained.

Figure 2007205929
ただし、FCiCjはFundamental行列であり、その要素を上記のようにFCiCjklという表記に置き換えている。また、カメラCとCは、カメラの設置位置だけが異なり、カメラ内部パラメタは同じであるためKCi=KCjとなるので、以降はKCjをKCiに置き換えて述べる。
Figure 2007205929
However, F CiCj is a Fundamental matrix, and its elements are replaced with the notation F CiCjkl as described above. The camera C i and C j differ by the installation position of the camera, because the camera internal parameter becomes K Ci = K Cj are the same, thereafter describes replacing K Cj to K Ci.

なお、この式からは、KCiklについての連立二次方程式が以下のように3組成り立つが、どの組を使用しても良い。 Note that, from this equation, three simultaneous quadratic equations for K Cikl stand as follows, but any set may be used.

Figure 2007205929
Figure 2007205929

10)上記式1−8が5つ以上できるように、カメラの位置を変えて上記2)から9)を繰り返す。このためには、たとえば、カメラC、Cとは別の位置のカメラCについて上記2)〜6)を行い、カメラCとCで8)〜9)を行って2つの式を導出し、さらに、カメラCとCで8)〜9)を行ってさらに2つの式を導出し、全部で6つのKCiklについての二次方程式を作る。 10) Repeat steps 2) to 9) while changing the position of the camera so that five or more of the above equations 1-8 can be achieved. For this purpose, for example, the above-mentioned 2) to 6) are performed for the camera C k at a position different from the cameras C i and C j, and 8) to 9) are performed with the cameras C j and C k to obtain two equations. , And 8) to 9) are performed with the cameras C k and C i to derive two more equations, and a quadratic equation for a total of six K Cikl is created .

11)上記10)で作ったKCiklについての二次方程式から、KCiklを導出する。このためには、たとえば、6つのKCiklについての二次方程式から5つを選び、二次方程式を解く。あるいは、6つのKCiklについての二次方程式の左辺についてそれぞれ二乗し、6つ全ての総和を取った関数を評価関数とし、その評価関数が0に近づくようにKCiklを変化させる最適化手法を使用してKCiklを得る。この最適化手法としては、たとえば、Levenberg-Marquardt法を使用する。 11) from the secondary equation for K Cikl made in the above 10), to derive the K Cikl. For this purpose, for example, five out of the quadratic equations for six K Cikl are selected and the quadratic equation is solved. Alternatively, an optimization method may be used in which the left side of the quadratic equation for six K Cikl is squared, and a function obtained by summing all six is used as an evaluation function, and K Cikl is changed so that the evaluation function approaches zero. Use to get K Cikl . As this optimization method, for example, the Levenberg-Marquardt method is used.

12)上記11)で求めたKCi行列から、カメラ内部パラメタを算出する。このためには、たとえば、まず以下のようにKCi行列の逆行列をCholeski分解する。 12) Camera internal parameters are calculated from the K Ci matrix obtained in 11) above. For this purpose, for example, the inverse matrix of the K Ci matrix is first subjected to Choleski decomposition as follows.

Figure 2007205929
ここで、カメラ内部パラメタと上記の式とは、下記の関係がある。
Figure 2007205929
Here, the camera internal parameters and the above formula have the following relationship.

Figure 2007205929
ただし、fCiはカメラのレンズの像側主点と二次元撮像素子の受光面間の距離であり、[uCO,vCOはカメラの二次元撮像素子が規定しているディジタル画像座標系におけるカメラのレンズの光軸と二次元撮像素子との交点の座標であり、kCiはカメラの二次元撮像素子のピクセルピッチの逆数である。
Figure 2007205929
However, f Ci is the distance between the light receiving surface of the image side principal point and the two-dimensional imaging device of the camera lens, [u CO, v CO] T digital image coordinate two-dimensional image sensor of the camera is defined It is the coordinate of the intersection of the optical axis of the camera lens in the system and the two-dimensional image sensor, and k Ci is the reciprocal of the pixel pitch of the two-dimensional image sensor of the camera.

したがって、カメラ内部パラメタについて、たとえば、以下のような計算を行って導出する。   Therefore, the camera internal parameters are derived, for example, by performing the following calculation.

Figure 2007205929
あるいは、式1−10の各エレメントについて、左辺と右辺の二乗和を取ったものを評価関数とし、その評価関数が0に近づくようにuCiO、vCiO、fCiを変化させる最適化手法を使用してuCiO、vCiO、fCiを得る。この最適化手法としては、たとえば、Levenberg-Marquardt法を使用する。
Figure 2007205929
Alternatively, an optimization method for changing u CiO , v CiO , and f Ci so that each element of Expression 1-10 is obtained by taking the sum of squares of the left and right sides as an evaluation function and the evaluation function approaches 0. Use to obtain u CiO , v CiO , f Ci . As this optimization method, for example, the Levenberg-Marquardt method is used.

Q. T. Luong, O. D. Faugeras,“Self Calibration of a Moving Camera from Point Correspondences and Fundamental Matrices”, International Journal of Computer Vision, 22(3), pp.261-289, 1997Q. T. Luong, O. D. Faugeras, “Self Calibration of a Moving Camera from Point Correspondences and Fundamental Matrices”, International Journal of Computer Vision, 22 (3), pp.261-289, 1997

しかしながら、上記従来方法では、キャリブレーションパターンの特徴点からの光のカメラレンズの物体側主点への入射角度が同じであっても、キャリブレーションパターンの特徴点とカメラレンズの物体側主点との距離によって、二次元撮像素子上に到達する光の位置がずれるという現象が発生し、その影響で、カメラ内部パラメタの測定精度が悪化する、という欠点がある。また、従来のカメラパラメタ測定方法では、測定のために厳密な位置合わせが必要であるため、精度のよい位置合わせ機構を必要とし、これらを調整する機構測定の稼働も大きかった。
本発明は、上記に鑑みてなされたものであり、その目的とするところは、カメラ内部パラメタを精度よく測定するカメラ内部パラメタ測定装置を提供することにある。
However, in the above conventional method, even if the incident angle of the light from the feature point of the calibration pattern to the object side principal point of the camera lens is the same, the feature point of the calibration pattern and the object side principal point of the camera lens This causes a phenomenon that the position of the light reaching the two-dimensional image sensor is shifted depending on the distance, and the measurement accuracy of the internal parameters of the camera deteriorates due to the phenomenon. In addition, since the conventional camera parameter measurement method requires strict alignment for measurement, an accurate alignment mechanism is required, and the operation of the mechanism measurement for adjusting these is large.
The present invention has been made in view of the above, and an object of the present invention is to provide a camera internal parameter measurement device that accurately measures camera internal parameters.

本願において開示される発明のうち、代表的なものの概要を簡単に説明すれば、以下のとおりである。   Of the inventions disclosed in this application, the outline of typical ones will be briefly described as follows.

第1の発明は、レンズと二次元撮像素子を有するカメラのカメラ内部パラメタ測定装置であって、平行ビームを出射する平行ビーム出射モジュールと、カメラへの平行ビームの入射角度を変える相対位置変更モジュールと、前記平行ビーム出射モジュールから前記カメラに平行ビームを前記相対位置変更モジュールにより入射角度を変えて3回入射させたときの3つの入射角度から得られる3つの角度差のうちの2つと、それに対応する前記カメラ内の前記二次元撮像素子上で集光された3つの集光点から得られる3つの点の位置の差のうちの2つとで、カメラ内部パラメタである、レンズの像側主点と二次元撮像素子の受光面間の距離と、カメラ光軸と二次元撮像素子の交点位置を計算する計算モジュールと、を有することを特徴とする。   A first invention is a camera internal parameter measurement device for a camera having a lens and a two-dimensional imaging device, a parallel beam emitting module for emitting a parallel beam, and a relative position changing module for changing the incident angle of the parallel beam to the camera And two of three angle differences obtained from three incident angles when a parallel beam is incident on the camera from the parallel beam emitting module by changing the incident angle by the relative position changing module three times, and The image side principal of the lens, which is a camera internal parameter, with two of the differences in the positions of the three points obtained from the three focal points collected on the two-dimensional image sensor in the corresponding camera And a calculation module for calculating the distance between the point and the light receiving surface of the two-dimensional image sensor and the intersection position of the camera optical axis and the two-dimensional image sensor.

第2の発明は、第1の発明において、前記相対位置変更モジュールは、前記カメラを回転させるカメラ回転モジュールであることを特徴とする。   According to a second aspect, in the first aspect, the relative position changing module is a camera rotation module that rotates the camera.

第3の発明は、第1または第2の発明において、カメラ内部パラメタの値の分散の閾値を記憶する閾値記憶モジュールを有し、前記計算モジュールは、3つの入射角度から得られる3つの角度差のうちの2つと、それに対応する3つの集光点から得られる3つの点の位置の差のうち2つをとる選び方3通りについて、カメラ内部パラメタを算出し、算出されたカメラ内部パラメタの値の分散が前記閾値記憶モジュールに記憶された閾値よりも大きい場合は、これまでとは別の入射角度で前記平行ビーム出射モジュールから前記カメラに平行ビームを入射させたときの入射角度および集光点とこれまでに得られた入射角度および集光点を用いて、3つの入射角度と集光点位置を選び、再度前記の通り、カメラ内部パラメタを算出することとし、算出されたカメラ内部パラメタの値の分散を比較し、算出されたカメラ内部パラメタの分散が前記閾値記憶モジュールに記憶された閾値より小さい場合は、算出されたカメラ内部パラメタの値を用いてカメラ内部パラメタを確定する、ことを特徴とする。   According to a third invention, in the first or second invention, a third aspect of the invention includes a threshold value storage module that stores a threshold value of dispersion of camera internal parameter values. The calculation module includes three angular differences obtained from three incident angles. The camera internal parameters are calculated for the three methods for selecting two of the differences between the positions of the three points obtained from two of the three and the corresponding three focal points, and the calculated values of the camera internal parameters are calculated. Is larger than the threshold value stored in the threshold value storage module, the incident angle and the focal point when a parallel beam is incident on the camera from the parallel beam extraction module at a different incident angle than before. And using the incident angle and condensing point obtained so far, select three incident angles and condensing point position, and again as described above, to calculate the camera internal parameters, If the variance of the calculated camera internal parameter value is compared and the calculated variance of the camera internal parameter is smaller than the threshold stored in the threshold storage module, the calculated camera internal parameter value is used. The parameter is fixed.

以下、本発明の理解を助けるために、前記カメラ内部パラメタ測定装置の前記計算モジュールにおいて行われる計算の詳細を具体的に説明するが、これにより本発明が限定されるものではない。カメラ内部パラメタを計算する際には、たとえば、以下のような計算を行う。   Hereinafter, in order to help understanding of the present invention, details of calculation performed in the calculation module of the camera internal parameter measurement device will be specifically described, but the present invention is not limited thereto. When calculating camera internal parameters, for example, the following calculation is performed.

カメラが規定する座標をカメラ座標と呼ぶこととする。このカメラ座標は、原点は、カメラのレンズの物体側主点と像側主点であり、レンズへの光の入射に関する座標の原点は物体側主点であり、レンズからの光の出射に関する座標の原点は像側主点である。このカメラ座標のZ軸、X軸、Y軸は次のように定める。Z軸はレンズ光軸と一致し、カメラへの光の入射とは反対方向をプラス方向とする。X軸は、原点を含みZ軸と直交した面内にあり、カメラの二次元撮像素子の走査方向と平行な軸であり、物体を動かした際に走査方向と同じ方向に動く物体の方向をプラス側とする。Y軸は、Z軸とX軸の両方と直交する軸であり、右手系としてY軸のプラス方向を決めることとする。 The coordinates defined by the camera are called camera coordinates. In this camera coordinate, the origin is the object-side principal point and the image-side principal point of the camera lens, the origin of the coordinates relating to the incidence of light on the lens is the object-side principal point, and the coordinates relating to the emission of light from the lens Is the image side principal point. The Z C axis, X C axis, and Y C axis of the camera coordinates are determined as follows. Z C axis coincides with the lens optical axis, the light incident on the camera to the opposite direction to the positive direction. X C-axis is in the plane orthogonal to the Z C axis comprises the origin, a axis parallel to the scanning direction of the two-dimensional imaging device of the camera, of an object moving in the same direction as the scanning direction when moving the object The direction is the plus side. Y C-axis is an axis orthogonal to both the Z C axis and X C axis, and to determine the positive direction of the Y C axis as right-handed.

また、カメラの二次元撮像素子が規定するディジタル画像座標系は、1フレームの走査の起点が原点であり、走査方向の軸をu軸とし、もう一方の軸をv軸とする。 In the digital image coordinate system defined by the two-dimensional image sensor of the camera, the origin of scanning of one frame is the origin, the scanning direction axis is the u C axis, and the other axis is the v C axis.

カメラのレンズの光軸と二次元撮像素子との交点のディジタル画像座標系での座標を[uCO,vCOとし、カメラのレンズの像側主点とカメラの二次元撮像素子の受光面までの距離をfとし、カメラの二次元撮像素子のピクセルピッチを1/kとする。 The coordinates of the intersection of the optical axis of the camera lens and the two-dimensional image sensor in the digital image coordinate system is [u CO , v CO ] T, and the image side principal point of the camera lens and the light reception of the two-dimensional image sensor of the camera. The distance to the surface is f C and the pixel pitch of the two-dimensional image sensor of the camera is 1 / k C.

平行ビーム出射モジュールから出射された平行ビームをカメラのレンズに入射させて、そのときのカメラの二次元撮像素子上で集光する点のディジタル画像座標系での座標を[u,vとし、カメラ座標系での座標を[X,Y,Zとしたときに、その[X,Y,Zは、 The coordinate in the digital image coordinate system of the point where the parallel beam emitted from the parallel beam extraction module is incident on the lens of the camera and is focused on the two-dimensional image sensor of the camera at that time is [u C , v C ]. T , and the coordinates in the camera coordinate system are [X C , Y C , Z C ] T , the [X C , Y C , Z C ] T is

Figure 2007205929
の関係にある。
Figure 2007205929
Are in a relationship.

カメラ回転モジュールによりカメラの向きを3回変えたときのそれぞれの方向を、方向0、方向1、方向2と名付けることとする。   The directions when the direction of the camera is changed three times by the camera rotation module will be referred to as direction 0, direction 1, and direction 2, respectively.

方向1から方向0を引いた角度差を[ΔθZXCD10,ΔθZYCD10、方向2から方向0を引いた角度差を[ΔθZXCD20,ΔθZYCD20、ただし、カメラ座標系の[Y軸を回転軸とする角度,X軸を回転軸にする角度]と表記することとする。 The angle difference obtained by subtracting the direction 0 from the direction 1 is [Δθ ZXCD10 , Δθ ZYCD10 ] T , and the angle difference obtained by subtracting the direction 0 from the direction 2 is [Δθ ZXCD20 , Δθ ZYCD20 ] T , where [Y C axis of the camera coordinate system angle to the rotational axis, and be referred to as angle to rotation axis X C axis.

また、それぞれの方向についてカメラの二次元撮像素子上に集光する点の座標を、ディジタル画像座標系で表すと、それぞれ、方向0では[uCD0,vCD0、方向1では[uCD0+ΔuCD10,vCD0+ΔvCD10、方向2では[uCD0+ΔuCD20,vCD0+ΔvCD20となるとする。 In addition, when the coordinates of the points focused on the two-dimensional image sensor of the camera in each direction are expressed in the digital image coordinate system, [u CD0 , v CD0 ] T in direction 0 and [u CD0 in direction 1 respectively. + Δu CD10 , v CD0 + Δv CD10 ] T and [u CD0 + Δu CD20 , v CD0 + Δv CD20 ] T in direction 2.

カメラレンズがfSinθ系であれば、カメラのレンズと二次元撮像素子間の距離fと、カメラの二次元撮像素子が規定しているディジタル画像座標系におけるカメラのレンズの光軸と二次元撮像素子との交点の座標[uCO,vCOは、 If the camera lens is an fSinθ system, the distance f C between the camera lens and the two-dimensional imaging device, the optical axis of the camera lens in the digital image coordinate system defined by the two-dimensional imaging device of the camera, and the two-dimensional imaging The coordinates [u CO , v CO ] T of the intersection with the element are

Figure 2007205929
となる。
Figure 2007205929
It becomes.

また、カメラレンズがfTanθ系であれば、カメラのレンズと二次元撮像素子間の距離fと、カメラの二次元撮像素子が規定しているディジタル画像座標系におけるカメラのレンズの光軸と二次元撮像素子との交点の座標[uCO,vCOは、 If the camera lens is an fTanθ system, the distance f C between the camera lens and the two-dimensional image sensor, the optical axis of the camera lens in the digital image coordinate system defined by the camera two-dimensional image sensor, The coordinates [u CO , v CO ] T of the intersection with the two-dimensional image sensor are

Figure 2007205929
となる。
Figure 2007205929
It becomes.

第1、第2の発明においては、平行ビームをカメラに入射させた光を用いて測定しているため、従来技術のように、キャリブレーションパターンの特徴点からの光のカメラレンズの物体側主点への入射角度が同じであっても、キャリブレーションパターンの特徴点とカメラレンズの物体側主点との距離によって、2次元撮像素子上に到達する光の位置がずれるというような不都合が無く、精度よく特徴点の位置を抽出でき、そのため、精度よくカメラ内部パラメタを測定できるという利点がある。   In the first and second aspects of the invention, since the measurement is performed using the light in which the parallel beam is incident on the camera, the object side main part of the camera lens of the light from the feature point of the calibration pattern as in the prior art. Even if the incident angle to the point is the same, there is no inconvenience that the position of the light reaching the two-dimensional imaging device is shifted depending on the distance between the feature point of the calibration pattern and the object side principal point of the camera lens. The position of the feature point can be extracted with high accuracy, and therefore, there is an advantage that the camera internal parameters can be measured with high accuracy.

また、第1、第2の本発明においては、計算に用いている角度は、平行ビームに対するカメラの絶対的な角度ではなく、複数点取った角度データの差分値であるので、平行ビーム出射モジュールとカメラの角度関係は厳密に合わせる必要が無く、簡易に測定できるという利点がある。   In the first and second aspects of the present invention, the angle used for the calculation is not an absolute angle of the camera with respect to the parallel beam, but is a difference value of angle data obtained from a plurality of points. There is an advantage that the angle relationship between the camera and the camera does not need to be strictly matched and can be easily measured.

また、第1、第2の発明においては、平行ビームをカメラに入射させているので、平行ビーム出射モジュールとカメラの距離関係は厳密に位置合わせする必要がなく、簡易に測定できるという利点がある。   In the first and second inventions, since the parallel beam is incident on the camera, the distance relationship between the parallel beam emitting module and the camera does not need to be strictly aligned, and there is an advantage that it can be easily measured. .

第3の発明においては、カメラの回転角度を測定するときに発生する誤差や、撮像素子上に集光する集光点の位置を測定するときに発生する誤差や、カメラ内部パラメタを算出するときに発生する計算丸め誤差等、何らかの誤差が発生した場合に、本来分散が0となる3通りの組み合わせから得られるカメラ内部パラメタの分散の大きさが大きくなると、そのカメラ内部パラメタの算出精度に問題があることが分かるため、得られたカメラ内部パラメタの誤差を検知することができるという利点がある。   In the third aspect of the invention, an error that occurs when measuring the rotation angle of the camera, an error that occurs when measuring the position of the condensing point that is focused on the image sensor, or a camera internal parameter is calculated. If an error such as a calculation rounding error occurs in the camera, if the variance of the camera internal parameters obtained from the three combinations where the variance is originally 0 increases, there is a problem in the calculation accuracy of the camera internal parameters. Since it can be seen that there is an advantage that an error of the obtained camera internal parameter can be detected.

また、第3の本発明においては、得られたカメラ内部パラメタに誤差が検知された場合は、入射光を増やして入射光の角度差とそれに対応する集光点の位置差の組み合わせを増やして、算出されるカメラ内部パラメタの分散が最も小さくなる組み合わせを選ぶことができるので、カメラ内部パラメタの算出精度が良くなるという利点がある。   Further, in the third aspect of the present invention, when an error is detected in the obtained camera internal parameter, the incident light is increased to increase the combination of the incident light angle difference and the corresponding condensing point position difference. Since the combination with the smallest variance of the calculated camera internal parameters can be selected, there is an advantage that the calculation accuracy of the camera internal parameters is improved.

本発明においては、平行ビームをカメラに入射させた光を用いて測定しているため、従来技術のように、キャリブレーションパターンの特徴点からの光のカメラレンズの物体側主点への入射角度が同じであっても、キャリブレーションパターンの特徴点とカメラレンズの物体側主点との距離によって、2次元撮像素子上に到達する光の位置がずれるというような不具合が無く、精度よく特徴点の位置を抽出でき、そのため、精度よくカメラ内部パラメタを測定できるという利点がある。   In the present invention, since the parallel beam is measured using the light incident on the camera, the incident angle of the light from the feature point of the calibration pattern to the object side principal point of the camera lens as in the prior art. Even if they are the same, there is no problem that the position of the light reaching the two-dimensional image sensor is shifted depending on the distance between the calibration pattern feature point and the object side principal point of the camera lens, and the feature point is accurate. Therefore, there is an advantage that the camera internal parameters can be measured with high accuracy.

また、計算に用いている角度は、平行ビームに対するカメラの絶対的な角度ではなく、複数点取った角度データの差分値であるので、平行ビーム出射モジュールとカメラの角度関係は厳密に合わせる必要が無く、簡易に測定できるという利点がある。   In addition, the angle used for the calculation is not the absolute angle of the camera with respect to the parallel beam, but the difference value of the angle data obtained from a plurality of points, so the angle relationship between the parallel beam extraction module and the camera must be strictly matched. There is an advantage that it can be measured easily.

また、平行ビームをカメラに入射させているので、平行ビーム出射モジュールとカメラの距離関係は厳密に位置合わせする必要がなく、簡易に測定できるという利点がある。   Further, since the parallel beam is incident on the camera, there is an advantage that the distance relationship between the parallel beam extraction module and the camera does not need to be strictly aligned and can be easily measured.

以下、図面を用いて本発明の実施の形態を説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図2は本発明の実施例1のカメラ内部パラメタ測定装置の構成図である。204はカメラのレンズ、205はカメラによって規定されるカメラ座標系、206はカメラの二次元撮像素子、207は二次元撮像素子によって規定されるディジタル画像座標系、208は204のレンズと206の二次元撮像素子で構成されるカメラである。209はカメラの向きを変える回転ステージであり、208のカメラ座標系のY軸を中心に回転するθYC回転ステージである。210はカメラの向きを変える回転ステージであり、208のカメラ座標系のX軸を中心に回転するθXC回転ステージである。211は209のθYC回転ステージと210のθXC回転ステージで構成されるカメラ回転モジュールである。212はカメラに入射する平行ビーム、213は光源となるレーザ、214は213のレーザの空間周波数のノイズを除去して平面波に近づけるためのスペーシャルフィルタ、215は214から出射したレーザ光を広げるためのビームエキスパンダ、216は213のレーザと214のスペーシャルフィルタと215のビームエキスパンダで構成される平行ビーム出射モジュールである。この他に、図2には示していないが、実施例1のカメラ内部パラメタ測定装置は、コンピュータと記憶装置に記憶されたプログラムとからなる計算モジュールを有する。この計算モジュールは、216の平行ビーム出射モジュールから208のカメラに平行ビームを211のカメラ回転モジュールにより入射角度を変えて3回入射させたときの3つの入射角度から得られる3つの角度差のうちの2つと、それに対応する208のカメラ内の206の二次元撮像素子上で集光された3つの集光点から得られる3つの点の位置の差のうちの2つとで、カメラ内部パラメタである、レンズの像側主点と二次元撮像素子の受光面間の距離と、カメラ光軸と二次元撮像素子の交点位置を計算する。 FIG. 2 is a configuration diagram of the camera internal parameter measurement device according to the first embodiment of the present invention. 204 is a camera lens; 205 is a camera coordinate system defined by the camera; 206 is a two-dimensional image sensor of the camera; 207 is a digital image coordinate system defined by the two-dimensional image sensor; It is a camera composed of a two-dimensional image sensor. Reference numeral 209 denotes a rotary stage that changes the direction of the camera, and a θYC rotary stage that rotates about the Y axis of the camera coordinate system 208. A rotation stage 210 changes the orientation of the camera, and is a θ XC rotation stage that rotates about the X axis of the camera coordinate system 208. Reference numeral 211 denotes a camera rotation module composed of a 209 θ YC rotation stage and a 210 θ XC rotation stage. 212 is a parallel beam incident on the camera, 213 is a laser serving as a light source, 214 is a spatial filter for removing the spatial frequency noise of the laser 213, and approaches a plane wave, and 215 is for spreading the laser light emitted from 214. The beam expander 216 is a parallel beam extraction module composed of a laser 213, a spatial filter 214, and a beam expander 215. In addition, although not shown in FIG. 2, the camera internal parameter measurement device according to the first embodiment includes a calculation module including a computer and a program stored in a storage device. This calculation module includes three angle differences obtained from three incident angles when a parallel beam is incident from the 216 parallel beam emitting module to the 208 camera by changing the incident angle by the 211 camera rotating module three times. And two of the three point position differences obtained from the three condensing points collected on the 206 two-dimensional image sensors in the 208 cameras corresponding thereto, A distance between the image-side principal point of the lens and the light receiving surface of the two-dimensional image sensor, and an intersection position between the camera optical axis and the two-dimensional image sensor are calculated.

208のカメラは、209のθYC回転ステージと210のθXC回転ステージにより、212の平行ビームの進む方向に対して、いろいろな角度で固定することができ、212の平行ビームを208のカメラのレンズにいろいろな角度で入射させることができるものとする。それぞれの角度のカメラをCDi,i=0,1,2,...と呼ぶこととし、iで角度を関連づけるものとする。 The 208 camera can be fixed at various angles with respect to the traveling direction of the 212 parallel beam by the 209 θ YC rotation stage and the 210 θ XC rotation stage. It shall be able to enter the lens at various angles. For each angle camera, C Di , i = 0, 1, 2,. . . And the angle is related by i.

205のカメラ座標系の各軸の決め方は、以下の通りである。原点は、カメラのレンズの物体側主点と像側主点であり、レンズへの光の入射に関する座標の原点は物体側主点であり、レンズからの光の出射に関する座標の原点は像側主点である。ZCDi軸はレンズ光軸と一致し、カメラへの光の入射とは反対方向をプラス方向とする。XCDi軸は、原点を含みZCDi軸と直交した面内にあり、二次元撮像素子の走査方向と平行な軸であり、物体を動かした際に走査方向と同じ方向に動く物体の方向をプラス側とする。YCDi軸は、ZCDi軸とXCDi軸の両方と直交する軸であり、右手系としてYCDi軸のプラス方向を決めることとする。 How to determine each axis of the 205 camera coordinate system is as follows. The origin is the object-side principal point and the image-side principal point of the camera lens, the origin of coordinates related to the incidence of light on the lens is the object-side principal point, and the origin of coordinates related to the emission of light from the lens is the image side The main point. The Z CDi axis coincides with the lens optical axis, and the direction opposite to the incidence of light on the camera is the plus direction. The X CDi axis is in a plane that includes the origin and is orthogonal to the Z CDi axis, and is an axis parallel to the scanning direction of the two-dimensional imaging device. The direction of the object that moves in the same direction as the scanning direction when the object is moved The positive side. Y CDi axis is an axis orthogonal to both the Z CDi axis and X CDi axis, and to determine the positive direction of the Y CDi axis as right-handed.

207のディジタル画像座標系は、1フレームの走査の起点が原点であり、走査方向の軸をuCDi軸とし、もう一方の軸をvCDi軸とする。 In the digital image coordinate system 207, the origin of scanning of one frame is the origin, the axis in the scanning direction is the u CDi axis, and the other axis is the v CDi axis.

上記2つの座標系の関係は、以下のようになる。ディジタル画像座標系上のある点の座標を[uCDi,vCDiとすると、その点をカメラ座標系での座標[XCDi,YCDi,ZCDiで表すと、以下のようになる。 The relationship between the two coordinate systems is as follows. If the coordinates of a certain point on the digital image coordinate system is [u CDi , v CDi ] T , the point is represented by coordinates [X CDi , Y CDi , Z CDi ] T in the camera coordinate system as follows: Become.

Figure 2007205929
ただし、[uCO,vCOはカメラのレンズの光軸と二次元撮像素子との交点のディジタル画像座標系での座標であり、fはカメラのレンズの像側主点とカメラの二次元撮像素子の受光面までの距離であり、1/kはカメラの二次元撮像素子のピクセルピッチである。
Figure 2007205929
[U CO , v CO ] T is the coordinate in the digital image coordinate system of the intersection of the optical axis of the camera lens and the two-dimensional image sensor, and f C is the image side principal point of the camera lens and the camera This is the distance to the light receiving surface of the two-dimensional image sensor, and 1 / k C is the pixel pitch of the two-dimensional image sensor of the camera.

212の平行ビームは、208のカメラCが211のカメラ回転モジュールにより回転して204のレンズの位置が変わったとしても、平行ビームの伝搬している範囲から204のレンズがはみ出ないように、ビーム幅を広くしておく。 Parallel beam of 212, even if the position of the to 204 of lens rotation has changed by 208 Camera rotation module C i is 211, as 204 of the lens does not protrude from the scope propagating parallel beams, Keep the beam width wide.

以下、カメラ内部パラメタである、カメラのレンズの光軸と二次元撮像素子との交点のディジタル画像座標系での座標[uCO,vCOと、カメラのレンズの像側主点とカメラの二次元撮像素子の受光面までの距離fを求める手順を説明する。 Hereinafter, the coordinates [u CO , v CO ] T in the digital image coordinate system of the intersection between the optical axis of the camera lens and the two-dimensional image sensor, which are internal parameters of the camera, the image side principal point of the camera lens, and the camera A procedure for obtaining the distance f C to the light receiving surface of the two-dimensional image sensor will be described.

1)208のカメラをカメラ回転モジュールにより、ある角度に設定する。このときカメラに付ける項番i=0とし、このカメラをCD0と名付ける。 1) The 208 camera is set at a certain angle by the camera rotation module. In this case the item number i = 0 to be given to the camera, call this camera and C D0.

2)このときのカメラの角度として、カメラ座標系の[YCD0軸を回転軸とする角度,XCD0軸を回転軸にする角度]を測定し、これを[θZXCD0’,θZYCD0’]とする。 2) As an angle of the camera at this time, [an angle with the YCD0 axis as the rotation axis and an angle with the XCD0 axis as the rotation axis] of the camera coordinate system is measured, and this is obtained as [ θZXCD0 ′, θZYCD0 ′]. T.

角度の測定は、たとえば、209のθYC回転ステージの目盛の読みをθYCD0’とし、210のθXC回転ステージの目盛の読みをθXCD0’としたとき、θZXCD0’とθZYCD0’は以下のようになる。 For example, when the reading of the scale of the 209 θ YC rotary stage is θ YCD0 ′ and the reading of the scale of the θ XC rotary stage of 210 is θ XCD0 ′, θ ZXCD0 ′ and θ ZYCD0 ′ are as follows: become that way.

Figure 2007205929
ここで、角度にダッシュ「’」がついているのは、205のカメラ座標系と209のθYC回転ステージと210のθXC回転ステージが、212の平行ビームの進行方向に対して、その位置関係を何ら保証していないためである。
Figure 2007205929
Here, it marked with a dash "'" The angle, theta XC rotating stage of the camera coordinate system and 209 of the theta YC rotating stage and 210 205, the traveling direction of the parallel beam 212, the positional relationship This is because there is no guarantee.

これについて、図3を用いて説明する。204はカメラのレンズであり、212は204のレンズに入射する入射光すなわち図2に示す平行ビームである。301、302、303はそれぞれカメラ座標系のXCDi軸、YCDi軸、ZCDi軸である。311は301のXCDi軸と303のZCDi軸を含む平面であるXCDi−ZCDi平面であり、312は302のYCDi軸と303のZCDi軸を含む平面であるYCDi−ZCDi平面である。321は212の入射光を311のXCDi−ZCDi平面へ投射した線であり、322は212の入射光を312のYCDi−ZCDi平面へ投射した線である。331は303のZCDi軸から321の線への角度θZXCDiであり、332は303のZCDi軸から322の線への角度θZYCDiである。カメラの項番i=0の場合は、331は角度θZXCD0となり、332は角度θZYCD0となる。すなわち、この図はカメラのレンズへの入射光とカメラ座標系[XCDi,YCDi,ZCDiと、入射光をカメラ座標系のXCDi−ZCDi平面へ投射した線に対するZCDiからの角度θZXCD0と、入射光をカメラ座標系のYCDi−ZCDiへ投射した線に対するZCDiからの角度θZYCD0の関係を示している。ZCDi軸が入射光の方向の逆方向と一致したさいに、θZXCD0’とθZYCD0’が0となるように205のカメラと216の平行ビーム出射モジュールが調整してあれば、θZXCD0’とθZYCD0’はθZXCD0とθZYCD0と一致するが、ここでは、そのような調整をしていないので、一般にθZXCD0’とθZYCD0’はθZXCD0とθZYCD0と一致しない。そのため、現在測っているものとθZXCD0とθZYCD0と区別するために角度にダッシュ「’」をつけてある。 This will be described with reference to FIG. Reference numeral 204 denotes a camera lens, and reference numeral 212 denotes incident light incident on the lens 204, that is, a parallel beam shown in FIG. Reference numerals 301, 302, and 303 denote an X CDi axis, a Y CDi axis, and a Z CDi axis of the camera coordinate system, respectively. 311 is a X CDi -Z CDi plane is a plane containing the Z CDi axis X CDi axis 303 of the 301, 312 is a plane including the Z CDi axis Y CDi axis 303 of the 302 Y CDi -Z CDi It is a plane. Reference numeral 321 denotes a line obtained by projecting 212 incident light onto the X CDi -Z CDi plane of 311. Reference numeral 322 denotes a line obtained by projecting 212 incident light onto the Y CDi -Z CDi plane of 312. Reference numeral 331 denotes an angle θ ZXCDi from the Z CDi axis of 303 to the line 321, and 332 denotes an angle θ ZYCDi from the Z CDi axis of 303 to the line 322. When the camera item number i = 0, 331 is the angle θ ZXCD0 and 332 is the angle θ ZYCD0 . That is, this figure shows the incident light on the lens of the camera, the camera coordinate system [X CDi , Y CDi , Z CDi ] T, and Z CDi for the line in which the incident light is projected onto the X CDi -Z CDi plane of the camera coordinate system. the angle θ ZXCD0, shows the relationship of the angle theta ZYCD0 from Z CDi incident light for the line was projected to Y CDi -Z CDi of the camera coordinate system. When the Z CDi axis coincides with the direction opposite to the direction of the incident light, if the 205 camera and the 216 parallel beam extraction module are adjusted so that θ ZXCD0 ′ and θ ZYCD0 ′ become 0, θ ZXCD0 ′ And θ ZYCD0 ′ coincide with θ ZXCD0 and θ ZYCD0 , but since such adjustment is not performed here, θ ZXCD0 ′ and θ ZYCD0 ′ generally do not coincide with θ ZXCD0 and θ ZYCD0 . Therefore, in order to distinguish the current measurement from θ ZXCD0 and θ ZYCD0 , a dash “′” is added to the angle.

上記では、209のθYC回転ステージの目盛と、210のθXC回転ステージの目盛を読んで、計算によってθZXCD0’とθZYCD0’を測定したが、その他に、図には示さないが、カメラの平らな部分、あるいは、平らな板をカメラに取り付け、角度計を用いて直接θZXCD0’とθZYCD0’を測定してもよい。 In the above, the scale of the 209 θ YC rotary stage and the scale of the 210 X XC rotary stage were read and θ ZXCD0 ′ and θ ZYCD0 ′ were measured by calculation. flat portion of, or attached to a flat plate in a camera, it may be measured directly θ ZXCD0 'and θ ZYCD0' using goniometer.

3)この状態で216の平行ビーム出射モジュールから出射した212の平行ビームを、204のカメラのレンズに入射させる。   3) In this state, 212 parallel beams emitted from the 216 parallel beam emission module are made incident on the lens of the 204 camera.

4)このときの206の二次元撮像素子上に集光した点のディジタル画像座標系上の座標を測定し、[uCD0,vCD0とする。 4) Measure the coordinates on the digital image coordinate system of the point focused on the two-dimensional image sensor 206 at this time and set it as [u CD0 , v CD0 ] T.

5)208のカメラを211のカメラ回転モジュールにより、別の角度に設定し上記2)〜4)を2回行う。それぞれにカメラにつける項番をi=1、2とし、[θZXCDi’,θZYCDi’],i=1,2と[uCDi,vCDi,i=1,2を得る。 5) The 208 camera is set to another angle by the 211 camera rotation module, and the above 2) to 4) are performed twice. The item number to be given to the camera, respectively the i = 1, 2, to obtain [θ ZXCDi ', θ ZYCDi' ] T, i = 1,2 and [u CDi, v CDi] T , the i = 1, 2.

6)上記5)の結果から、下記の角度差と集光点の位置の差を得る。   6) From the result of the above 5), the following angle difference and the difference in the position of the focal point are obtained.

Figure 2007205929
Figure 2007205929

7)カメラのレンズの像側主点と二次元撮像素子の受光面間の距離fと、カメラの二次元撮像素子が規定しているディジタル画像座標系におけるカメラのレンズの光軸と二次元撮像素子との交点の座標[uCO,vCOを、以下の式に従って求める。
カメラレンズがfSinθ系のときは以下のようにして求める。
7) The distance f C between the image side principal point of the camera lens and the light receiving surface of the two-dimensional image sensor, the optical axis of the camera lens in the digital image coordinate system defined by the camera two-dimensional image sensor, and the two-dimensional image The coordinates [u CO , v CO ] T of the intersection with the image sensor are obtained according to the following equation.
When the camera lens is an fSinθ system, it is obtained as follows.

Figure 2007205929
Figure 2007205929

カメラレンズがfTanθ系のときは以下のようにして求める。   When the camera lens is an fTanθ system, it is obtained as follows.

Figure 2007205929
Figure 2007205929

上記手順では、カメラ項番i=0に対するi=1,2という組み合わせにおける角度の差と集光点位置の差を用いているが、i=1に対するi=2,0という組み合わせや、i=2に対する0,1という組み合わせにおける角度差と集光点位置差についても考慮し、それぞれの組み合わせにおける角度差と集光点位置差を使って式2−3、式2−4、式2−5から求められたそれぞれのfとuCOとvCOの差を少なくすることで計算精度を上げる方法も以下に記述する。 In the above procedure, the angle difference and the condensing point position difference in the combination i = 1, 2 with respect to the camera item number i = 0 are used, but the combination i = 2, 0 with respect to i = 1, i = In consideration of the angle difference and the condensing point position difference in the combination of 0 and 1 with respect to 2, the angle difference and the condensing point position difference in each combination are used to formulas 2-3, 2-4, and 2-5. a method of increasing the respective f C and u CO and v differencing accuracy by a reduced of CO obtained from also described below.

この方法としては、各組み合わせにおけるfとしuCOとvCOの分散の線形和が最小となるようにすることで行う。これは、fとuCOとvCOの分散の線形和を評価関数とし、最適化手法を使うことで可能となる。最適化手法としては、たとえば、Levenberg-Marquardt法がある。これは、評価関数の変数を[θZXCDi’,θZYCDi’],i=0,1,2と[uCDi,vCDi,i=0,1,2とし、評価関数を変数で偏微分した微分係数を用いることによって行われる。 As this method, f C in each combination is set so that the linear sum of dispersion of u CO and v CO is minimized. This can be achieved by using an optimization method using a linear sum of variances of f C , u CO and v CO as an evaluation function. As an optimization method, for example, there is a Levenberg-Marquardt method. This is the variable of the evaluation function [θ ZXCDi ', θ ZYCDi' ] T, i = 0,1,2 and [u CDi, v CDi] T , and i = 0,1,2, the evaluation function in the variable This is performed by using a differential coefficient obtained by partial differentiation.

以下、この手順を示す。カメラ内部パラメタである、カメラのレンズの光軸と二次元撮像素子との交点のディジタル画像座標系での座標[uCO,vCOと、カメラのレンズの像側主点とカメラの二次元撮像素子の受光面までの距離fを求める手順は、上記の手順1)〜5)と同じである。それ以降の手順を以下に述べる。ただし、手順を示す番号には実施例1と区別するために「’」を付けてある。 This procedure is shown below. Coordinates [u CO , v CO ] T in the digital image coordinate system of the intersection of the optical axis of the camera lens and the two-dimensional image sensor, which are camera internal parameters, the image side principal point of the camera lens, and the camera The procedure for obtaining the distance f C to the light receiving surface of the two-dimensional image sensor is the same as the above procedures 1) to 5). The subsequent procedure is described below. However, “′” is attached to the number indicating the procedure to distinguish it from the first embodiment.

6’)角度差と集光点の位置の差として下記の3つの組み合わせのものを求める。   6 ') The following three combinations are obtained as the difference between the angle difference and the focal point position.

Figure 2007205929
Figure 2007205929

Figure 2007205929
Figure 2007205929

Figure 2007205929
Figure 2007205929

7’)それぞれについて、手順7)の式を計算し、カメラのレンズの光軸と二次元画像素子との交点のディジタル画像座標系での座標と、カメラのレンズの像側主点とカメラの二次元画像素子の受光面までの距離を求める。このとき、式2−6、7、8で求まるものをそれぞれ[uCOj,vCOj,fCj,j=0,1,2とする。 7 ′) For each, calculate the equation of step 7), and the coordinates of the intersection of the optical axis of the camera lens and the two-dimensional image element in the digital image coordinate system, the image side principal point of the camera lens, and the camera The distance to the light receiving surface of the two-dimensional image element is obtained. At this time, the values obtained by the expressions 2-6, 7, and 8 are [u COj , v COj ] T , f Cj , j = 0, 1, and 2, respectively.

8’)uCOj、vCOj、fCjの分散σuCO、σvCO、σfCをそれぞれ求め、評価関数Jを以下のように分散の線形和として求める。 8 ′) Variances σ uCO , σ vCO , and σ fC of u COj , v COj , and f Cj are obtained, respectively, and the evaluation function J is obtained as a linear sum of variances as follows.

Figure 2007205929
ここで、C,C,Cは実数であり重みを表す。σuCO、σvCO、σfCはjによって変動するuCOj、vCOj、fCjの分散であり、たとえば、σuCOについては、σuCO=(1/3)*Σ(uCOj)^2−((1/3)*ΣuCOj)^2によって求められる。ここで、Σはj=0〜2の和であり、「^2」は2乗である。σvCO、σfCについても同様である。
Figure 2007205929
Here, C u , C v , and C f are real numbers and represent weights. σ uCO , σ vCO , and σ fC are variances of u COj , v COj , and f Cj that vary depending on j. For example, for σ uCO , σ uCO = (1/3) * Σ (u COj ) ^ 2- ((1/3) * Σu COj ) ^ 2. Here, Σ is the sum of j = 0 to 2, and “^ 2” is the square. The same applies to σ vCO and σ fC .

変数を要素とするベクトルを以下のように表す。   A vector whose elements are variables is expressed as follows.

Figure 2007205929
このとき勾配∇Jとヘッセ行列Hを以下のように求める。
Figure 2007205929
At this time, the gradient ∇J and the Hessian matrix H are obtained as follows.

Figure 2007205929
Figure 2007205929

Figure 2007205929
ξの更新ルールは以下のようにする。
Figure 2007205929
The update rule of ξ is as follows.

Figure 2007205929
ただし、ξ(K)はK回の反復後のξであり、H(K)と∇J(K)はξ(K)を代入して得られたヘッセ行列と勾配である。cはξ(K)を使って求めたJ(K+1)の値が以前に求めたJの最小値よりも小さいかどうかで変更する実数である。D[H(K)]は、たとえば、H(K)の対角要素のみ取り出した対角行列としてもよいし、単位行列に置き換えても良い。
Figure 2007205929
Here, ξ (K) is ξ after K iterations, and H (K) and ∇J (K) are the Hessian and gradient obtained by substituting ξ (K) . c is a real number that changes depending on whether the value of J (K + 1) obtained using ξ (K) is smaller than the minimum value of J obtained previously. D [H (K)], for example, may be used as the diagonal matrix obtained by extracting only diagonal elements of H (K), it may be replaced with the identity matrix.

式2−13を用いて、たとえば以下の手順でξを収束させて求める。
8’−1)c←0.0001と置く。ただし、値は0.0001に限ることは無く、適宜小さい値を決めてよい。
8’−2)ξの初期値を与える。これは、たとえば、測定値そのもので良い。
8’−3)そのξを用いて式2−9を計算し、Jを求める。
8’−4)勾配∇Jとヘッセ行列Hを式2−11、式2−12により求める。
8’−5)次の連立1次方程式を解き、Δξを求める。
Using Equation 2-13, for example, the following procedure is used to converge ξ.
8′-1) Set c ← 0.0001. However, the value is not limited to 0.0001, and a small value may be determined as appropriate.
8′-2) An initial value of ξ is given. This may be, for example, the measured value itself.
8′-3) Formula 2-9 is calculated using the ξ, and J is obtained.
8′-4) The gradient ∇J and the Hessian matrix H are obtained by Equations 2-11 and 2-12.
8′-5) Solve the following simultaneous linear equations to obtain Δξ.

Figure 2007205929
8’−6)次のようにξ’を計算する。
Figure 2007205929
8′-6) ξ ′ is calculated as follows.

Figure 2007205929
8’−7)そのξ’を用いて式2−9を計算した値を、J’とする。
8’−8)J’>Jであれば、c←10cと更新して8’−5)へ戻る。
8’−9)そうでなければ次のように更新する。
Figure 2007205929
8′-7) A value obtained by calculating Expression 2-9 using the ξ ′ is J ′.
8′-8) If J ′> J, update c ← 10c and return to 8′-5).
8′-9) Otherwise, update as follows.

Figure 2007205929
8’−10)ある小さな値δに対して、|Δξ|<δであれば、ξが収束したと見なし、終了する。そうでなければ、8’−4)に戻る。
Figure 2007205929
8′−10) If | Δξ | <δ with respect to a certain small value δ, it is considered that ξ has converged, and the process ends. Otherwise, return to 8'-4).

以上で求められたξを式2−3に代入し、さらに式2−4を計算すると、[uCO,vCO,fが得られる。 [U CO , v CO ] T , f C is obtained by substituting ξ obtained above into Equation 2-3 and further calculating Equation 2-4.

以上の計算は、図示していない計算モジュールによって行う。計算モジュールはコンピュータと記憶装置に記憶されたプログラムによって構成できる。また、そのプログラムの一部または全部に代えてハードウェアを用いてもよい。   The above calculation is performed by a calculation module (not shown). The calculation module can be configured by a program stored in a computer and a storage device. Further, hardware may be used in place of part or all of the program.

本実施例の効果としては、平行ビームをカメラに入射させた光を用いて測定しているため、従来技術のように、キャリブレーションパターンの特徴点からの光のカメラレンズの物体側主点への入射角度が同じであっても、キャリブレーションパターンの特徴点とカメラレンズの物体側主点との距離によって、2次元撮像素子上に到達する光の位置がずれるというような不具合が無く、精度よく特徴点の位置を抽出でき、そのため、精度よくカメラ内部パラメタを測定できるという利点がある。   As an effect of the present embodiment, since a parallel beam is measured using light incident on the camera, the light from the calibration pattern feature point to the object side principal point of the camera lens as in the conventional technique. Even if the incident angles are the same, there is no problem that the position of the light reaching the two-dimensional image sensor is shifted depending on the distance between the feature point of the calibration pattern and the object side principal point of the camera lens. The position of the feature point can be extracted well, so that there is an advantage that the camera internal parameter can be measured with high accuracy.

また、計算に用いている角度は、平行ビームに対するカメラの絶対的な角度ではなく、複数点取った角度データの差分値であるので、平行ビーム出射モジュールとカメラの角度関係は厳密に合わせる必要が無く、簡易に測定できるという利点がある。   In addition, the angle used for the calculation is not the absolute angle of the camera with respect to the parallel beam, but the difference value of the angle data obtained from a plurality of points, so the angle relationship between the parallel beam extraction module and the camera must be strictly matched. There is an advantage that it can be measured easily.

また、平行ビームをカメラに入射させているので、平行ビーム出射モジュールとカメラの距離関係は厳密に位置合わせする必要がなく、簡易に測定できるという利点がある。   Further, since the parallel beam is incident on the camera, there is an advantage that the distance relationship between the parallel beam extraction module and the camera does not need to be strictly aligned and can be easily measured.

また、平行ビームは、レーザ光というコヒーレント光を光源として、スペーシャルフィルタを通して得られているため、平行ビームの波面は平面波に近く、カメラのレンズによる集光性能が自然光と比べて非常に良く、カメラの二次元撮像素子上でぼけの少ない像が得られることから、高精度に集光点の座標を得られるという利点がある。   In addition, since the parallel beam is obtained through a spatial filter using coherent light called laser light as a light source, the wave front of the parallel beam is close to a plane wave, and the condensing performance of the camera lens is very good compared to natural light, Since an image with little blur is obtained on the two-dimensional image sensor of the camera, there is an advantage that the coordinates of the condensing point can be obtained with high accuracy.

以下、実施例2について述べる。
構成図は、実施例1(図2)と同じである。ただし、図2には示していないが、実施例2のカメラ内部パラメタ測定装置は、コンピュータと記憶装置に記憶されたプログラムとからなる計算モジュールと、記憶装置からなる閾値記憶モジュールを有する。この計算モジュールは、3つの入射角度から得られる3つの角度差のうちの2つと、それに対応する3つの集光点から得られる3つの点の位置の差のうち2つをとる選び方3通りについて、カメラ内部パラメタを算出し、算出されたカメラ内部パラメタの値の分散が前記閾値記憶モジュールに記憶された閾値よりも大きい場合は、これまでとは別の入射角度で前記平行ビーム出射モジュールから前記カメラに平行ビームを入射させたときの入射角度および集光点とこれまでに得られた入射角度および集光点を用いて、3つの入射角度と集光点位置を選び、再度前記の通り、カメラ内部パラメタを算出することとし、算出されたカメラ内部パラメタの値の分散を比較し、算出されたカメラ内部パラメタの分散が前記閾値記憶モジュールに記憶された閾値より小さい場合は、算出されたカメラ内部パラメタの値を用いてカメラ内部パラメタを確定する。
Example 2 will be described below.
The configuration diagram is the same as that of the first embodiment (FIG. 2). However, although not shown in FIG. 2, the camera internal parameter measurement device according to the second embodiment includes a calculation module including a computer and a program stored in a storage device, and a threshold storage module including a storage device. This calculation module uses two of the three angle differences obtained from three incident angles and two of the three point position differences obtained from the corresponding three condensing points. The camera internal parameter is calculated, and when the variance of the calculated camera internal parameter value is larger than the threshold value stored in the threshold value storage module, the parallel beam extraction module at the incident angle is different from the above. Using the incident angle and condensing point when the parallel beam is incident on the camera and the incident angle and condensing point obtained so far, three incident angles and condensing point positions are selected, again as described above, The camera internal parameter is calculated, the variance of the calculated camera internal parameter value is compared, and the calculated variance of the camera internal parameter is stored in the threshold storage module. If less than the threshold value, it determines the camera internal parameter using the value of the camera internal parameters are calculated.

カメラ内部パラメタである、カメラのレンズの光軸と二次元撮像素子との交点のディジタル画像座標系での座標[uCO,vCOと、カメラのレンズの像側主点とカメラの二次元撮像素子の受光面までの距離fを求める手順は、実施例1の手順1)〜5)と同じである。それ以降の手順を以下に述べる。ただし、手順を示す番号には実施例1と区別するために「”」を付けてある。 Coordinates [u CO , v CO ] T in the digital image coordinate system of the intersection of the optical axis of the camera lens and the two-dimensional image sensor, which are camera internal parameters, the image side principal point of the camera lens, and the camera The procedure for obtaining the distance f C to the light receiving surface of the two-dimensional imaging device is the same as the procedures 1) to 5) of the first embodiment. The subsequent procedure is described below. However, “” ”is added to the number indicating the procedure to distinguish it from the first embodiment.

6”)角度差と集光点の位置の差として下記の3つの組み合わせのものを求める。   6 ″) The following three combinations are obtained as the difference between the angle difference and the focal point position.

Figure 2007205929
Figure 2007205929

Figure 2007205929
Figure 2007205929

Figure 2007205929
Figure 2007205929

7”)それぞれについて、実施例1の手順7)の式を計算し、カメラのレンズの光軸と二次元撮像素子との交点のディジタル画像座標系での座標と、カメラのレンズの像側主点とカメラの二次元撮像素子の受光面までの距離を求める。このとき、式2−17、18、19で求まるものをそれぞれ[uCOj,vCOj,fCj,j=0,1,2とする。 7 ″) for each, calculate the expression of the procedure 7) of the first embodiment, coordinates of the intersection of the optical axis of the camera lens and the two-dimensional image sensor in the digital image coordinate system, and the image side main of the camera lens. The distance from the point to the light receiving surface of the two-dimensional image sensor of the camera is obtained by calculating [u COj , v COj ] T , f Cj , j = 0, 1 , 2

8”)uCOj、vCOj、fCjの分散σuCO、σvCO、σfCをそれぞれ求める。分散を求める方法は8’)で述べたとおりである。これらの分散に対して設定した閾値TσuCO、TσvCO、TσfCとそれぞれの分散を比較して、いずれの分散もそれに対する閾値を超えない場合は、j=0,1,2に対する[uCOj,vCOj,fCjのどれかを採用する。あるいは、実施例1に記載の最適化手法であるLevenberg-Marquardt法を用いて式2−9に示す分散の線形和を極小化したときの[uCOj,vCOj,fCjを採用する。 8 ″) The variances σ uCO , σ vCO , and σ fC of u COj , v COj , and f Cj are obtained. The method for obtaining the variance is as described in 8 ′). The threshold value T set for these variances σuCO, T σvCO, by comparing each of the variance and T σfC, if the threshold is not exceeded for it any of the dispersion, [u COj, v COj] for j = 0, 1, 2 T, which of f Cj Alternatively, [u COj , v COj ] T , when the linear sum of dispersion shown in Equation 2-9 is minimized using the Levenberg-Marquardt method, which is the optimization method described in Example 1. f Cj is adopted.

上記の分散σuCO、σvCO、σfCを、それらに対する閾値TσuCO、TσvCO、TσfCとそれぞれ比較して、いずれかが越えた場合は、j=0,1,2に対する[uCOj,vCOj,fCjの全てを不採用とする。そして、上記[θZXCDi’,θZYCDi’],i=0,1,2と[uCDj,vCDj,i=0,1,2のどれとも異なる入射角と集光点の位置となるように、新たに平行光をカメラに入射し、それを、[θZXCDi’,θZYCDi’]T,i=3と[uCDi,vCDi,i=3とする。 The variances σ uCO , σ vCO , and σ fC are compared with the threshold values T σuCO , T σvCO , and T σfC , respectively, and if any of them exceeds [u COj , v COj ] All of T and f Cj are not adopted . Then, the incident angle and the position of the condensing point are different from any of the above [[theta] ZXCDi ', [theta] ZYCDi '] T , i = 0, 1, 2 and [ uCDj , vCDj ] T , i = 0, 1, 2. as a newly incident parallel light to the camera, it is a [θ ZXCDi ', θ ZYCDi' ] T, i = 3 and [u CDi, v CDi] T , i = 3.

9”)i=0,1,2,3の4つから3つを選ぶ組み合わせ全てについて、以下の角度差と集光点の位置の差を計算し、それぞれについて上記7”)、8”)と同様な計算を行う。   9 ″) For all the combinations in which i = 0, 1, 2, 3 are selected from three, the following angular difference and focal point difference are calculated, and for each of the above 7 ″), 8 ″) The same calculation is performed.

Figure 2007205929
各3つを選ぶ組み合わせごとにuCOj、vCOj、fCjのjを変えた場合の変動を示す分散σuCO、σvCO、σfCをそれぞれ求める。分散を求める方法は8’)で述べたとおりである。各組み合わせにおいて、分散σuCO、σvCO、σfCに対してそれぞれ設定した閾値TσuCO、TσvCO、TσiCとこれらの分散を比較し、いずれの分散もそれに対する閾値を超えない場合は、その組み合わせを[uCOj,vCOj,fCjを採用するための候補とする。
Figure 2007205929
Variances σ uCO , σ vCO , and σ fC indicating fluctuations when j of u COj , v COj , and f Cj is changed are obtained for each combination of selecting three. The method for obtaining the variance is as described in 8 ′). In each combination, the threshold values T σuCO , T σvCO , and T σiC set for the variances σ uCO , σ vCO , and σ fC are compared with these variances. If any variance does not exceed the threshold value, Let the combination be a candidate for employing [u COj , v COj ] T , f Cj .

候補になった組み合わせの中からいずれか1つの組み合わせを選ぶ。あるいは、候補となった組み合わせのうち、分散の最も小さい組み合わせを選ぶ。   Select one of the candidate combinations. Alternatively, the combination having the smallest variance is selected from the combinations that are candidates.

その中の3つの[uCOj,vCOj,fCjの組から1つを採用する。あるいは、実施例1に記載の最適化手法であるLevenberg-Marquardt法を用いて式2−9に示す分散の線形和を極小化したときの[uCOj,vCOj,fCjを採用する。 One of the three sets [u COj , v COj ] T , f Cj is adopted. Alternatively, [u COj , v COj ] T , f Cj obtained by minimizing the linear sum of dispersion shown in Equation 2-9 using the Levenberg-Marquardt method, which is the optimization method described in the first embodiment, is employed. .

しかし、上記で[uCOj,vCOj,fCjを採用するための組み合わせの候補が得られなかった場合は、いずれの組み合わせも候補とせず、これまで使用した入射角度と集光点位置と異なるように、新たに平行光をカメラに入射し、その時の入射角度と集光点位置を測定する。そして、9”)を、各3つを選ぶ組み合わせごとに得られる分散σuCO、σvCO、σfCが、それらに対して設定した閾値TσuCO、TσvCO、TσiCを超えない組み合わせができるまで、繰り返す。 However, if a combination candidate for adopting [u COj , v COj ] T , f Cj is not obtained, none of the combinations is a candidate, and the incident angle and the focal point position used so far are not used. Unlike the above, a new parallel light is incident on the camera, and the incident angle and the focal point position at that time are measured. 9 ″) until the dispersions σ uCO , σ vCO , and σ fC obtained for each of the combinations for selecting each of the three combinations do not exceed the threshold values T σuCO , T σvCO , and T σiC set for them. ,repeat.

以上の計算は、図示していない計算モジュールによって行う。計算モジュールはコンピュータと記憶装置に記憶されたプログラムによって構成できる。また、そのプログラムの一部または全部に代えてハードウェアを用いてもよい。また、上記のカメラ内部パラメタの値の分散の閾値は、図示していない閾値記憶モジュールに記憶させておく。閾値記憶モジュールは記憶装置で構成することができる。   The above calculation is performed by a calculation module (not shown). The calculation module can be constituted by a program stored in a computer and a storage device. Further, hardware may be used in place of part or all of the program. Further, the threshold value of the dispersion of the camera internal parameter value is stored in a threshold value storage module (not shown). The threshold storage module can be configured by a storage device.

図4に、実施例2のフロー図を示す。ステップ401で、入射角度の数Nを3と置く。ステップ402で、N個の異なる角度で光を入射させ、それから得られる3つの角度差からカメラ内部パラメタを算出する(通りある角度の選び方の全てで算出する。)。ステップ403で、通りの選び方によるカメラ内部パラメタの分散を評価する。分散が小さい場合は、ステップ404で、カメラ内部パラメタを確定する。分散が大きい場合は、ステップ405で、さらに異なる角度で光を入射させ、Nに1を加え、ステップ402に戻る。なお、については図4の(注1)に記載したとおりである。 FIG. 4 shows a flowchart of the second embodiment. In step 401, the number N of incident angles is set to 3. In step 402, light is incident at N different angles, and camera internal parameters are calculated from the three angle differences obtained therefrom (calculated in all N C two ways of selecting angles). In step 403, the variance of the camera internal parameters according to the N C two ways of selection is evaluated. If the variance is small, in step 404, camera internal parameters are determined. If the dispersion is large, in step 405, light is further incident at a different angle, 1 is added to N, and the process returns to step 402. N C 2 is as described in (Note 1) of FIG.

本実施例の効果としては、実施例1に示した効果が得られる。
また、カメラの回転角度を測定するときに発生する誤差や、撮像素子上に集光する集光点の位置を測定するときに発生する誤差や、カメラ内部パラメタを算出するときに発生する計算丸め誤差等、何らかの誤差が発生した場合に、本来分散が0となる3通りの組み合わせから得られるカメラ内部パラメタの分散の大きさが大きくなると、そのカメラ内部パラメタの算出精度に問題があることが分かるため、得られたカメラ内部パラメタの誤差を検知することができるという利点がある。
As the effect of the present embodiment, the effect shown in the first embodiment can be obtained.
Also, errors that occur when measuring the rotation angle of the camera, errors that occur when measuring the position of the focal point that converges on the image sensor, and calculation rounding errors that occur when calculating the camera internal parameters When some kind of error occurs, it can be seen that if the variance of the camera internal parameters obtained from the three combinations whose variance is originally 0 becomes large, there is a problem in the calculation accuracy of the camera internal parameters. There is an advantage that an error of the obtained camera internal parameter can be detected.

また、本実施例の効果としては、得られたカメラ内部パラメタに誤差が検知された場合は、入射光を増やして入射光の角度差とそれに対応する集光点の位置差の組み合わせを増やして、算出されるカメラ内部パラメタの分散が最も小さくなる組み合わせを選ぶことができるので、カメラ内部パラメタの算出精度が良くなるという利点がある。   In addition, as an effect of the present embodiment, when an error is detected in the obtained camera internal parameter, the incident light is increased and the combination of the incident light angle difference and the corresponding condensing point position difference is increased. Since the combination with the smallest variance of the calculated camera internal parameters can be selected, there is an advantage that the calculation accuracy of the camera internal parameters is improved.

実施例1、2では図2に示すように208のカメラを211のカメラ回転ステージで回転させることによって、カメラへの平行ビームの入射角度を変えているが、これに限定されず、208のカメラと216の平行ビーム出射モジュールの相対的な位置や角度を変えることができる相対位置変更モジュールによって、カメラへの平行ビームの入射角度を変えてもよい。   In the first and second embodiments, as shown in FIG. 2, the incident angle of the parallel beam to the camera is changed by rotating the 208 camera with the 211 camera rotation stage. However, the present invention is not limited to this. The incident angle of the parallel beam to the camera may be changed by a relative position changing module that can change the relative position and angle of the parallel beam extraction modules 216 and 216.

以上、本発明者によってなされた発明を、前記実施形態に基づき具体的に説明したが、本発明は、前記実施形態に限定されるものではなく、その要旨を逸脱しない範囲において種々変更可能であることは勿論である。   As mentioned above, the invention made by the present inventor has been specifically described based on the embodiment. However, the invention is not limited to the embodiment, and various modifications can be made without departing from the scope of the invention. Of course.

従来のカメラ内部パラメタ測定装置の構成図である。It is a block diagram of the conventional camera internal parameter measurement apparatus. 本発明の実施例の構成図である。It is a block diagram of the Example of this invention. カメラ座標系と入射角度の関係図である。It is a related figure of a camera coordinate system and an incident angle. 本発明の実施例2のフロー図である。It is a flowchart of Example 2 of this invention.

符号の説明Explanation of symbols

101…光源、102…キャリブレーションパターン、103…世界座標系、104…レンズ、105…カメラ座標系、106…二次元撮像素子、107…ディジタル画像座標系、108…カメラC、204…レンズ、205…カメラ座標系、206…二次元撮像素子、207…ディジタル画像座標系、208…カメラCDi、209…θYC回転ステージ、210…θXC回転ステージ、211…カメラ回転モジュール、212…平行ビーム、213…レーザ、214…スペーシャルフィルタ、215…ビームエキスパンダ、216…平行ビーム出射モジュール 101 ... light source, 102 ... calibration pattern, 103 ... world coordinate system, 104 ... lens, 105 ... camera coordinate system, 106 ... two-dimensional imaging element, 107 ... digital image coordinate system, 108 ... camera C i, 204 ... lens, 205 ... camera coordinate system, 206 ... two-dimensional imaging element, 207 ... digital image coordinate system, 208 ... camera CDi, 209 ... theta YC rotating stage, 210 ... theta XC rotating stage, 211 ... camera rotation module, 212 ... parallel beam, 213 ... Laser, 214 ... Spatial filter, 215 ... Beam expander, 216 ... Parallel beam extraction module

Claims (3)

レンズと二次元撮像素子を有するカメラのカメラ内部パラメタ測定装置であって、
平行ビームを出射する平行ビーム出射モジュールと、
カメラへの平行ビームの入射角度を変える相対位置変更モジュールと、
前記平行ビーム出射モジュールから前記カメラに平行ビームを前記相対位置変更モジュールにより入射角度を変えて3回入射させたときの3つの入射角度から得られる3つの角度差のうちの2つと、それに対応する前記カメラ内の前記二次元撮像素子上で集光された3つの集光点から得られる3つの点の位置の差のうちの2つとで、カメラ内部パラメタである、レンズの像側主点と二次元撮像素子の受光面間の距離と、カメラ光軸と二次元撮像素子の交点位置を計算する計算モジュールと、
を有することを特徴とするカメラ内部パラメタ測定装置。
A camera internal parameter measurement device for a camera having a lens and a two-dimensional image sensor,
A parallel beam extraction module for emitting a parallel beam;
A relative position changing module that changes the incident angle of the parallel beam on the camera;
Two of three angular differences obtained from three incident angles obtained when a parallel beam is incident on the camera from the parallel beam emitting module three times by changing the incident angle by the relative position changing module, and corresponding thereto And two of the differences in the positions of the three points obtained from the three condensing points collected on the two-dimensional image sensor in the camera, and the image side principal point of the lens, which is a camera internal parameter, and A calculation module for calculating the distance between the light receiving surfaces of the two-dimensional image sensor and the intersection position of the camera optical axis and the two-dimensional image sensor;
A camera internal parameter measuring device.
前記相対位置変更モジュールは、前記カメラを回転させるカメラ回転モジュールであることを特徴とする請求項1に記載のカメラ内部パラメタ測定装置。   The camera internal parameter measurement device according to claim 1, wherein the relative position change module is a camera rotation module that rotates the camera. カメラ内部パラメタの値の分散の閾値を記憶する閾値記憶モジュールを有し、
前記計算モジュールは、3つの入射角度から得られる3つの角度差のうちの2つと、それに対応する3つの集光点から得られる3つの点の位置の差のうち2つをとる選び方3通りについて、カメラ内部パラメタを算出し、算出されたカメラ内部パラメタの値の分散が前記閾値記憶モジュールに記憶された閾値よりも大きい場合は、これまでとは別の入射角度で前記平行ビーム出射モジュールから前記カメラに平行ビームを入射させたときの入射角度および集光点とこれまでに得られた入射角度および集光点を用いて、3つの入射角度と集光点位置を選び、再度前記の通り、カメラ内部パラメタを算出することとし、算出されたカメラ内部パラメタの値の分散を比較し、算出されたカメラ内部パラメタの分散が前記閾値記憶モジュールに記憶された閾値より小さい場合は、算出されたカメラ内部パラメタの値を用いてカメラ内部パラメタを確定する、
ことを特徴とする請求項1または2に記載のカメラ内部パラメタ測定装置。
A threshold storage module for storing a dispersion threshold of values of camera internal parameters;
The calculation module has two ways of selecting two of three angle differences obtained from three incident angles and two of three point positions obtained from three corresponding condensing points. The camera internal parameter is calculated, and when the variance of the calculated camera internal parameter value is larger than the threshold value stored in the threshold value storage module, the parallel beam extraction module at the incident angle is different from the above. Using the incident angle and condensing point when the parallel beam is incident on the camera and the incident angle and condensing point obtained so far, three incident angles and condensing point positions are selected, again as described above, The camera internal parameter is calculated, the variance of the calculated camera internal parameter value is compared, and the calculated variance of the camera internal parameter is stored in the threshold storage module. If less than the threshold value, determines the camera internal parameter using the value of the camera internal parameters are calculated,
The camera internal parameter measurement device according to claim 1 or 2, characterized in that
JP2006025847A 2006-02-02 2006-02-02 Camera internal parameter measurement device Expired - Fee Related JP4813911B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006025847A JP4813911B2 (en) 2006-02-02 2006-02-02 Camera internal parameter measurement device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006025847A JP4813911B2 (en) 2006-02-02 2006-02-02 Camera internal parameter measurement device

Publications (2)

Publication Number Publication Date
JP2007205929A true JP2007205929A (en) 2007-08-16
JP4813911B2 JP4813911B2 (en) 2011-11-09

Family

ID=38485517

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006025847A Expired - Fee Related JP4813911B2 (en) 2006-02-02 2006-02-02 Camera internal parameter measurement device

Country Status (1)

Country Link
JP (1) JP4813911B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016038493A (en) * 2014-08-08 2016-03-22 株式会社Screenホールディングス Optical characteristics acquisition device, position measuring device, optical characteristics acquisition method, and position measuring method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11355813A (en) * 1998-06-04 1999-12-24 Honda Motor Co Ltd Device for deciding internal parameters of camera
JP2000195095A (en) * 1999-01-05 2000-07-14 Toshiba Corp Objective lens inclination-inspecting device, method for manufacturing optical disk pick-up, and optical disk pick- up manufactured by manufacturing method
JP2004048399A (en) * 2002-07-12 2004-02-12 Honda Motor Co Ltd Image output calibrating device for camera
JP2004108836A (en) * 2002-09-13 2004-04-08 Sumitomo Denko Systems Kk Azimuth angle computing method of imaging apparatus and system, attitude sensor of imaging apparatus, tilt sensor of imaging device and computer program and three-dimentional model configuration device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11355813A (en) * 1998-06-04 1999-12-24 Honda Motor Co Ltd Device for deciding internal parameters of camera
JP2000195095A (en) * 1999-01-05 2000-07-14 Toshiba Corp Objective lens inclination-inspecting device, method for manufacturing optical disk pick-up, and optical disk pick- up manufactured by manufacturing method
JP2004048399A (en) * 2002-07-12 2004-02-12 Honda Motor Co Ltd Image output calibrating device for camera
JP2004108836A (en) * 2002-09-13 2004-04-08 Sumitomo Denko Systems Kk Azimuth angle computing method of imaging apparatus and system, attitude sensor of imaging apparatus, tilt sensor of imaging device and computer program and three-dimentional model configuration device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016038493A (en) * 2014-08-08 2016-03-22 株式会社Screenホールディングス Optical characteristics acquisition device, position measuring device, optical characteristics acquisition method, and position measuring method

Also Published As

Publication number Publication date
JP4813911B2 (en) 2011-11-09

Similar Documents

Publication Publication Date Title
CN102376089B (en) Target correction method and system
CN107533763B (en) Image processing apparatus, image processing method, and program
CN103649674B (en) Measuring equipment and messaging device
US9599462B2 (en) Three-dimensional shape measurement apparatus and control method thereof
US10234844B2 (en) Information processing apparatus, control method thereof, information processing system, and non-transitory computer-readable storage medium
Krüger et al. Accurate chequerboard corner localisation for camera calibration
JP5051493B2 (en) 3D measurement marker and 3D measurement method using the same
KR101926953B1 (en) Matching method of feature points in planar array of four - camera group and measurement method based theron
JP4837538B2 (en) End position measuring method and dimension measuring method
Fetzer et al. Stable intrinsic auto-calibration from fundamental matrices of devices with uncorrelated camera parameters
Wohlfeil et al. Automatic camera system calibration with a chessboard enabling full image coverage
JP2013178174A (en) Three-dimensional shape measuring apparatus using a plurality of gratings
JP3696336B2 (en) How to calibrate the camera
Chen et al. Finding optimal focusing distance and edge blur distribution for weakly calibrated 3-D vision
JP4813911B2 (en) Camera internal parameter measurement device
Ricolfe-Viala et al. Optimal conditions for camera calibration using a planar template
Rodríguez Online self-calibration for mobile vision based on laser imaging and computer algorithms
US7941003B2 (en) Efficient calculation of ensquared energy in an imaging system
JP2006317418A (en) Image measuring device, image measurement method, measurement processing program, and recording medium
JP6671589B2 (en) Three-dimensional measurement system, three-dimensional measurement method, and three-dimensional measurement program
JP4651550B2 (en) Three-dimensional coordinate measuring apparatus and method
JP7153514B2 (en) 3D shape inspection device, 3D shape inspection method, 3D shape inspection program, computer
Sagawa et al. Accurate calibration of intrinsic camera parameters by observing parallel light pairs
Xu et al. Global calibration method of a camera using the constraint of line features and 3D world points
Yang et al. Error model for scene reconstruction from motion and stereo

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100929

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101102

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110823

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110825

R150 Certificate of patent (=grant) or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140902

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees