JP2010186265A - Camera calibration device, camera calibration method, camera calibration program, and recording medium with the program recorded threin - Google Patents

Camera calibration device, camera calibration method, camera calibration program, and recording medium with the program recorded threin Download PDF

Info

Publication number
JP2010186265A
JP2010186265A JP2009029084A JP2009029084A JP2010186265A JP 2010186265 A JP2010186265 A JP 2010186265A JP 2009029084 A JP2009029084 A JP 2009029084A JP 2009029084 A JP2009029084 A JP 2009029084A JP 2010186265 A JP2010186265 A JP 2010186265A
Authority
JP
Japan
Prior art keywords
camera
image
reference object
point
calibration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009029084A
Other languages
Japanese (ja)
Other versions
JP4948552B2 (en
Inventor
Isao Miyagawa
勲 宮川
Hiroyuki Arai
啓之 新井
Hideki Koike
秀樹 小池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2009029084A priority Critical patent/JP4948552B2/en
Publication of JP2010186265A publication Critical patent/JP2010186265A/en
Application granted granted Critical
Publication of JP4948552B2 publication Critical patent/JP4948552B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a camera calibration device for easily calibrating a camera. <P>SOLUTION: This camera calibration device is provided with a reference point adjustment part 104 for setting a prescribed two-dimensional coordinate system in an image acquired by photographing a reference object wherein geometric information of a reference point is known by use of a camera 102 of a calibration target, and extracting a prepared two-dimensional coordinate value of the reference point, and a reference point measurement part 105, and is provided with a camera calibration processing part 106 for adjusting a position or an attitude of the reference object until a part of the obtained reference points satisfies a specific geometric restraint condition, and calibrating external information or internal information of the camera 102 from the coordinate value of the reference point obtained on two-dimensional coordinates and the geometric information of the reference point according to calculation derived from a perspective projection condition when three-dimensional points of all the reference points on the reference object are projected to the two-dimensional coordinate system. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、単眼カメラまたは被写体を取り囲むように配置された多視点カメラのカメラ校正に利用可能で、カメラ校正作業のコストを抑えることを目的として、少数の参照点またはその参照点を一部に含む校正用参照物体を撮影し、その投影関係に基づきカメラを校正する(カメラパラメータを求める)カメラ校正装置に関する。   The present invention can be used for camera calibration of a monocular camera or a multi-view camera arranged so as to surround a subject, and a small number of reference points or a part of the reference points is used for the purpose of reducing the cost of camera calibration work. The present invention relates to a camera calibration apparatus that photographs a reference object for calibration including the camera and calibrates the camera based on the projection relationship (determines a camera parameter).

カメラ固有の焦点距離や画像中心などの内部パラメータ、並びに、カメラ配置時の姿勢や位置情報という外部パラメータを得るにはカメラキャリブレーション(カメラ校正)が行われる。従来の方法では、校正したいカメラに対して図1のように格子パターンの模様を描いた2次元物体を撮影し、その参照物体に関する幾何情報とカメラで観測した画像上での投影情報から、カメラ内部、外部パラメータ(両者を合わせてカメラパラメータと呼ぶ)を推定する(非特許文献1参照)。   Camera calibration (camera calibration) is performed to obtain internal parameters such as a camera-specific focal length and image center, and external parameters such as posture and position information at the time of camera placement. In the conventional method, a two-dimensional object having a lattice pattern as shown in FIG. 1 is photographed with respect to the camera to be calibrated, and from the geometric information about the reference object and the projection information on the image observed by the camera, the camera Internal and external parameters (both are referred to as camera parameters) are estimated (see Non-Patent Document 1).

より簡単な参照物体を使った例として、図2のように長さの既知な1次元物体を使い、点Aを固定したまま撮影しその画像からカメラを校正する方法も公開されている(非特許文献2参照)。   As an example using a simpler reference object, a method of using a one-dimensional object with a known length as shown in FIG. Patent Document 2).

コンピュータビジョンでは、Structure From Motionと呼ばれている基本原理があり、静止した被写体に対してカメラが相対的に運動することにより被写体の3次元形状と運動を復元する方法がある(運動する被写体に対してカメラが静止していても原理は同じ)。セルフキャリブレーション(あるいはオートキャリブレーションとも呼ばれる)はこの原理に基づく手法の一つであり、上記のような既知の参照物体を必要とせず、静的な映像シーンから観測した特徴点を使ってカメラパラメータを推定する。   In computer vision, there is a basic principle called Structure From Motion, and there is a method for restoring the three-dimensional shape and movement of a subject by moving the camera relative to a stationary subject (for moving subjects). On the other hand, the principle is the same even if the camera is stationary). Self-calibration (also called auto-calibration) is one of the methods based on this principle. It does not require the above-mentioned known reference object and uses a feature point observed from a static video scene. Estimate the parameters.

尚、セルフキャリブレーションを多視点カメラシステムに応用したものが非特許文献3に提案されている。   Non-Patent Document 3 proposes a self-calibration applied to a multi-view camera system.

Z.Zhang,“A flexible new technique for camera calibration”,IEEE Trans.on Pattern Analysis and Machine Intelligence,Vol.22,No.11,pp.1330−1334,2000.Z. Zhang, “A flexible new technology for camera calibration”, IEEE Trans. on Pattern Analysis and Machine Intelligence, Vol. 22, no. 11, pp. 1330-1334, 2000. Z.Zhang,“Camera calibration with one−dimensional objects”,IEEE Trans.on Pattern Analysis and Machine Intelligence,Vol.26,No.7,pp.892−699,2004.Z. Zhang, “Camera calibration with one-dimensional objects”, IEEE Trans. on Pattern Analysis and Machine Intelligence, Vol. 26, no. 7, pp. 892-699, 2004. 宮川勲,冨山仁博,岩舘祐一,“1次元物体を使った多視点カメラのキャリブレーション”,電子情報通信学会技術研究報告(PRMU2006−177),Vol.106,No.429,pp.37−42,2006.Isao Miyagawa, Yoshihiro Hiyama, Yuichi Iwabuchi, “Calibration of multi-viewpoint cameras using one-dimensional objects”, IEICE Technical Report (PRMU 2006-177), Vol. 106, no. 429, pp. 37-42, 2006.

従来のカメラキャリブレーション法では非特許文献1、2に代表されるように参照物体を使うことが常套手段である。図1では2次元物体上の参照点の2次元座標を既知としており(非特許文献1)、図2では1次元物体の長さLと点Aから点Cまでの距離と点Bから点Cまでの距離の比が既知であることが前提である(非特許文献2)。   In conventional camera calibration methods, it is common practice to use a reference object as represented by Non-Patent Documents 1 and 2. In FIG. 1, the two-dimensional coordinates of the reference point on the two-dimensional object are known (Non-Patent Document 1). In FIG. 2, the length L of the one-dimensional object, the distance from point A to point C, and the point B to point C are shown. It is a premise that the ratio of the distance to is known (Non-Patent Document 2).

このような参照物体を使用するカメラ校正では、十分な量の参照点を撮影する必要がある。言い換えれば、カメラ校正の前に、参照物体を撮影する作業に多くの時間が割かれることになる。さらに、多視点カメラシステムの環境では、カメラごとに同様のカメラ校正作業を繰り返さなければならない。   In camera calibration using such a reference object, it is necessary to photograph a sufficient amount of reference points. In other words, a lot of time is taken for the work of photographing the reference object before the camera calibration. Further, in a multi-view camera system environment, the same camera calibration work must be repeated for each camera.

一方、セルフキャリブレーションによれば、既知の参照物体を必要とせず、静的な映像シーンから観測した特徴点に基づきカメラを校正することができる。しかし、その特徴点の観測精度が校正結果へ過敏に影響を与えるため、カメラパラメータを安定的に推定するためには、静的シーン中から特徴点の画像座標を高精度に測定しなければならない。非特許文献3では、人為的に用意した参照点を使ってセルフキャリブレーションを多視点カメラシステムへ応用しているが、カメラごとに膨大な量の参照点を観測しており作業の効率化・簡便化は図られていない。   On the other hand, according to self-calibration, the camera can be calibrated based on feature points observed from a static video scene without requiring a known reference object. However, since the observation accuracy of the feature point sensitively affects the calibration result, in order to stably estimate the camera parameters, the image coordinates of the feature point must be measured with high accuracy from a static scene. . In Non-Patent Document 3, self-calibration is applied to a multi-view camera system using artificially prepared reference points. However, a huge amount of reference points are observed for each camera, and work efficiency is improved. There is no simplification.

このように、カメラ校正の作業効率を低下させ、作業量を増加させる要因の一つは、カメラで観測する特徴点あるいは参照点の量である。特に屋外環境では、参照点を自動抽出するためにブルーバックを前提とすることができないため、より正確に参照点の画像座標を得るには手動作業に頼ることになる。安定的にカメラパラメータを推定するには広範囲に、かつ、膨大な参照点を測定することが望ましい。ところが、セキュリティカメラが配置されている実環境では、必ずしもカメラ校正に十分な量の参照点を撮影することが保証されておらず、それらを撮影するだけの時間的余裕があるとは限らない。運用状況によっては、少数の参照点から単眼あるいは多視点のカメラ校正に応じなければならない。   Thus, one of the factors that reduce the work efficiency of the camera calibration and increase the work amount is the amount of feature points or reference points observed by the camera. In particular, in an outdoor environment, it is not possible to assume a blue back for automatically extracting reference points, so manual operation is required to obtain image coordinates of the reference points more accurately. In order to stably estimate camera parameters, it is desirable to measure a large number of reference points over a wide range. However, in a real environment where a security camera is arranged, it is not always guaranteed to capture a sufficient amount of reference points for camera calibration, and there is not always enough time to capture them. Depending on the operational situation, it is necessary to respond to single-eye or multi-view camera calibration from a small number of reference points.

本発明は、単眼あるいは多視点カメラシステムにおいて、カメラ校正用の撮影作業コストを低減させるために特殊な参照物体を使い、その物体から観測される少数の参照点から単眼カメラを簡単に校正する、あるいは、被写体を囲むように配置された多視点カメラを簡単に校正することを主な課題とする。   The present invention uses a special reference object in a monocular or multi-viewpoint camera system to reduce the imaging work cost for camera calibration, and easily calibrates a monocular camera from a small number of reference points observed from the object. Alternatively, a main problem is to easily calibrate a multi-viewpoint camera arranged so as to surround a subject.

上記の課題を解決するための手段を説明するために、射影幾何の基本原理とその原理に基づく計算アルゴリズムについて説明する。なお、ここでの解決手段の原理・方法は、単眼カメラに着目した記載になっているが多視点カメラへの拡張は容易である。その拡張については実施例4にて詳細に記載する。   In order to explain the means for solving the above problems, a basic principle of projective geometry and a calculation algorithm based on the principle will be described. The principle and method of the solution means here are described focusing on a monocular camera, but can be easily extended to a multi-view camera. The expansion will be described in detail in Example 4.

射影幾何の原理を説明するにあたって、参照物体の概観、並びに、カメラとの位置関係を定義しなければならない。図3に本発明で使う参照物体の概観図を示す。参照物体は大まかに、垂直棒11と水平棒12とで構成され、お互いが点Oで直交する関係にある。垂直棒11には点Oを端点に、点Aがもう一つの端点となっており、その間に点Bが配置されている。同様に、水平棒12には点Oを端点に、点Cがもう一つの端点となっており、その間に点Dが配置されている。水平棒12は垂直棒11と一体となって図3に示すように自由に回転できるものとする。点O,A,B,C,Dはカメラで撮影した画像中において参照点として観測される。   In explaining the principle of projective geometry, an overview of the reference object and the positional relationship with the camera must be defined. FIG. 3 shows an overview of the reference object used in the present invention. The reference object is roughly composed of a vertical bar 11 and a horizontal bar 12, which are in a relationship orthogonal to each other at a point O. In the vertical bar 11, the point O is an end point, the point A is another end point, and the point B is arranged therebetween. Similarly, the horizontal bar 12 has a point O as an end point, a point C as another end point, and a point D is arranged therebetween. It is assumed that the horizontal bar 12 and the vertical bar 11 can rotate freely as shown in FIG. Points O, A, B, C, and D are observed as reference points in an image captured by the camera.

便宜上、点Oを世界座標系上の原点とし、垂直棒11は世界座標系のZw軸と一致しており、原点Oからそれぞれh1,h2の高さに点A,Bが設定されているものとする。一方、水平棒12はXww平面上にあるとし、その水平棒12は世界座標系のYw軸と一致しており、原点Oからそれぞれd3,d4の奥行きの位置に点C,Dが設定されているものとする。図3の参照物体をカメラC1で撮影するとき、図5(a),(b)に示す世界座標系Xwwwを参照物体上に設定しても一般性を失わない。図4は図3の参照物体を撮影して得た画像の例であり、この画像から各参照点の画像座標:p0〜p4を測定できるとする。 For convenience, the point O is the origin on the world coordinate system, the vertical bar 11 is coincident with the Z w axis of the world coordinate system, and points A and B are set at heights h 1 and h 2 from the origin O, respectively. It shall be. On the other hand, it is assumed that the horizontal bar 12 is on the X w Y w plane, and the horizontal bar 12 coincides with the Y w axis of the world coordinate system, and the point C is located at a depth of d 3 and d 4 from the origin O, respectively. , D are set. When the reference object in FIG. 3 taken by the camera C 1, FIG. 5 (a), the without loss of generality be set the world coordinate system X w Y w Z w onto the reference object shown in (b). FIG. 4 is an example of an image obtained by photographing the reference object of FIG. 3, and it is assumed that image coordinates: p 0 to p 4 of each reference point can be measured from this image.

次に、カメラ座標系XYZを設定し、このカメラによる幾何的射影をピンホールカメラに従った透視投影にモデル化できると仮定する。参照物体上の3次元点をPj=(Xj,Yj,Zj)、カメラ視点の位置を(Tx,Ty,Tz)とすると、画像上で観測される点Pjの2次元点(xj,yj)は Next, a camera coordinate system XYZ is set, and it is assumed that the geometric projection by this camera can be modeled as a perspective projection according to a pinhole camera. If the three-dimensional point on the reference object is P j = (X j , Y j , Z j ) and the camera viewpoint position is (Tx, Ty, Tz), the two-dimensional point of the point P j observed on the image (X j , y j ) is

Figure 2010186265
Figure 2010186265

で与えられる。fは焦点距離、R11,R12,…,R33は3×3の回転行列の要素に対応する。本発明で扱うカメラモデルでは、画像中心は投影中心であるとしレンズ歪を無視する。 Given in. f is a focal length, and R 11 , R 12 ,..., R 33 correspond to elements of a 3 × 3 rotation matrix. In the camera model handled in the present invention, the center of the image is the projection center, and lens distortion is ignored.

図5(a),(b)では、Zw軸上の点A,B、並びにYw軸上の点C,Dを参照点として配置している。よって、カメラはこれらの参照点に対して、Y軸周りの回転が0とした姿勢で配置されていると仮定できるので、回転行列を FIG. 5 (a), arranged as reference points to (b) the, Z w point on axis A, B, and Y point on the w axis C, D. Therefore, since it can be assumed that the camera is arranged in such a posture that the rotation around the Y axis is 0 with respect to these reference points, the rotation matrix is

Figure 2010186265
Figure 2010186265

と与えることができる。φはX軸周りの回転角、θはZ軸周りの回転角である。   And can be given. φ is the rotation angle around the X axis, and θ is the rotation angle around the Z axis.

本発明の基本原理は、参照物体上の5つの参照点:O,A,B,C,Dの画像上での座標値:p0〜p4が式(1),(2)に従って観測されると仮定し、その画像座標と参照点に関する計量情報:h1,h2,d3,d4を使って、カメラの焦点距離f、カメラ座標系での回転角:φ,θ、並びに、世界座標系でのカメラ視点の位置(Tx,Ty,Tz)を逆問題として解くことである。その推定に必要となる計算式、あるいはアルゴリズムを式(1),(2)で結び付けられた透視投影の関係式から導出する必要がある。以降に、その計算式を導出する。 The basic principle of the present invention is that five reference points on a reference object: O, A, B, C, and D, coordinate values: p 0 to p 4 on an image are observed according to equations (1) and (2). Assuming that the metric information about the image coordinates and reference points: h 1 , h 2 , d 3 , d 4 , the camera focal length f, the rotation angle in the camera coordinate system: φ, θ, and The camera viewpoint position (Tx, Ty, Tz) in the world coordinate system is solved as an inverse problem. It is necessary to derive a calculation formula or algorithm necessary for the estimation from the relational expression of the perspective projection linked by the formulas (1) and (2). Thereafter, the calculation formula is derived.

点A,Bは原点Oからそれぞれh1,h2の高さにある点であるとすると、原点Oを含めて、これらの投影像pj,j=0,1,2は If the points A and B are points at the heights h 1 and h 2 from the origin O, respectively, the projection images p j , j = 0, 1, and 2 including the origin O are

Figure 2010186265
Figure 2010186265

と記述できる。式(4),(5)に示した原点Oの透視投影像の関係から、
−f(Txcos(θ)+Tysin(θ)cos(φ)+Tzsin(θ)sin(φ))=x0(Tysin(φ)−Tzcos(φ)), (8)
f(Txsin(θ)−Tycos(θ)cos(φ)−Tzcos(θ)sin(φ))=y0(Tysin(φ)−Tzcos(φ)) (9)
が得られるので、式(8),(9)をそれぞれ式(6),(7)へ代入して整理すると、
(xj−x0)Tysin(φ)−(xj−x0)Tzcos(φ)−fhjsin(θ)sin(φ)=−xjjcos(φ),(j=1,2), (10)
(yj−y0)Tysin(φ)−(yj−y0)Tzcos(φ)−fhjcos(θ)sin(φ)=−yjjcos(φ),(j=1,2) (11)
を得る。さらに、式(10),(11)からそれぞれ
Can be described. From the relationship of the perspective projection image of the origin O shown in equations (4) and (5),
−f (Txcos (θ) + Tysin (θ) cos (φ) + Tzsin (θ) sin (φ)) = x 0 (Tysin (φ) −Tzcos (φ)), (8)
f (Txsin (θ) −Tycos (θ) cos (φ) −Tzcos (θ) sin (φ)) = y 0 (Tysin (φ) −Tzcos (φ)) (9)
Therefore, substituting equations (8) and (9) into equations (6) and (7) respectively,
(X j −x 0 ) Tysin (φ) − (x j −x 0 ) Tz cos (φ) −fh j sin (θ) sin (φ) = − x j h j cos (φ), (j = 1, 2), (10)
(Y j −y 0 ) Tysin (φ) − (y j −y 0 ) Tz cos (φ) −fh j cos (θ) sin (φ) = − y j h j cos (φ), (j = 1, 2) (11)
Get. Furthermore, from equations (10) and (11), respectively

Figure 2010186265
Figure 2010186265

を導くことができる。   Can guide you.

一方、点C,DはYw軸上の点として便宜上定義している。ここで、参照点C,Dに対して回転パラメータωを導入する。点C,DをZw軸周りに回転角ωで回転させた点を点C’,D’とする。参照物体の水平棒12を回転角ωで回転させ、観測点p0のx座標を通過する直線x=x0と水平棒が一致したときの画像の例を図9に示す。すなわち、点C’,D’の観測点の座標をそれぞれp3=(x0,y3),p4=(x0,y4)で得る。 On the other hand, the points C and D are defined as points on the Yw axis for convenience. Here, the rotation parameter ω is introduced for the reference points C and D. Points C ′ and D ′ are points obtained by rotating the points C and D around the Zw axis at a rotation angle ω. FIG. 9 shows an example of an image when the horizontal bar 12 of the reference object is rotated at the rotation angle ω and the horizontal bar matches the straight line x = x 0 passing through the x coordinate of the observation point p 0 . That is, the coordinates of the observation points of the points C ′ and D ′ are obtained by p 3 = (x 0 , y 3 ) and p 4 = (x 0 , y 4 ), respectively.

図5(b)において、点C’,D’の3次元座標は(−djsin(ω),djcos(ω),0),j=3,4と与えることができるので、式(1),式(3)から
j{(djcos(ω)−Ty)sin(φ)+Tzcos(φ)}=f{(djsin(ω)+Tx)cos(θ)−(djcos(ω)−Ty)sin(θ)cos(φ)+Tzsin(θ)sin(φ)}, (j=3,4) (15)
となる。ここで、式(8)を使うと、
In FIG. 5B, the three-dimensional coordinates of the points C ′ and D ′ can be given as (−d j sin (ω), d j cos (ω), 0), j = 3,4. From (1) and Equation (3), x j {(d j cos (ω) −Ty) sin (φ) + Tz cos (φ)} = f {(d j sin (ω) + Tx) cos (θ) − (d j cos (ω) −Ty) sin (θ) cos (φ) + Tzsin (θ) sin (φ)}, (j = 3,4) (15)
It becomes. Here, using equation (8),

Figure 2010186265
Figure 2010186265

の関係が得られる。   The relationship is obtained.

これに対し、点C’,D’の画像上のy座標は
−yj{(djcos(ω)−Ty)sin(φ)+Tzcos(φ)}=f{(djsin(ω)+Tx)sin(θ)+(djcos(ω)−Ty)cos(θ)cos(φ)−Tzcos(θ)sin(φ)}, (j=3,4) (17)
であるので、式(9)を使うと、
(yj−y0)Tysin(φ)−(yj−y0)Tzcos(φ)−fdj{sin(θ)sin(ω)+cos(θ)cos(φ)cos(ω)}=yjjsin(φ)cos(ω), (j=3,4) (18)
となる。式(18)を整理すれば、
On the other hand, the y coordinate on the image of the points C ′ and D ′ is −y j {(d j cos (ω) −Ty) sin (φ) + Tz cos (φ)} = f {(d j sin (ω) + Tx) sin (θ) + (d j cos (ω) −Ty) cos (θ) cos (φ) −Tzcos (θ) sin (φ)}, (j = 3,4) (17)
So, using equation (9),
(Y j −y 0 ) Tysin (φ) − (y j −y 0 ) Tz cos (φ) −fd j {sin (θ) sin (ω) + cos (θ) cos (φ) cos (ω)} = y j d j sin (φ) cos (ω), (j = 3,4) (18)
It becomes. If formula (18) is rearranged,

Figure 2010186265
Figure 2010186265

の関係が導き出せる。式(16)を式(19)へ代入して整理すると、   Can be derived. Substituting equation (16) into equation (19) and rearranging,

Figure 2010186265
Figure 2010186265

ガ得られ、式(16)を式(13)へ代入して整理すると、   When substituting equation (16) into equation (13) and rearranging,

Figure 2010186265
Figure 2010186265

が得られる、さらに、式(20)を式(21)へ代入して整理すれば、   Furthermore, if formula (20) is substituted into formula (21) and rearranged,

Figure 2010186265
Figure 2010186265

を導出することができる(図5(a)のカメラ配置では−π/2<φ<0の範囲であるとして負の解を選択する)。式(22)からφを得ることができるので、式(20)を使えばωを計算でき、さらに式(16)から焦点距離fが求まる。   (A negative solution is selected assuming that −π / 2 <φ <0 in the camera arrangement of FIG. 5A). Since φ can be obtained from Equation (22), ω can be calculated using Equation (20), and the focal length f can be obtained from Equation (16).

最後に、式(4)〜(7)、式(18)を連立した方程式:   Finally, an equation that combines equations (4) to (7) and (18):

Figure 2010186265
Figure 2010186265

を解けばカメラの視点位置(Tx,Ty,Tz)を復元することができる。ただし、式(23)では、   By solving the above, the viewpoint position (Tx, Ty, Tz) of the camera can be restored. However, in Formula (23),

Figure 2010186265
Figure 2010186265

と置換している。   Is replaced.

以上の導出式を使えば、参照点の画像座標からカメラパラメータを得ることができる。まず、参照物体を撮影した図4の画像から参照点:O,A,Bの画像座標:p0,p1,p2を測定する。次に、水平棒12をx=x0と一致するように回転角ωで回転させ、その一致した状態での参照点C’,D’の画像座標:p0,p3,p4を測定する。次に、参照点の画像座標を入力データとして使い、上記で導出した算出式により、以下の処理を順番に実行することによって、カメラパラメータを得ることができる。
ステップ1:式(14)により回転角θを求める。
ステップ2:式(22)により回転角φを求める。
ステップ3:式(20)によりパラメータω求める。
ステップ4:式(16)により焦点距離fを求める。
ステップ5:式(23)によりカメラの視点位置(Tx,Ty,Tz)を求める。
Using the above derivation formula, the camera parameter can be obtained from the image coordinates of the reference point. First, image coordinates: p 0 , p 1 , p 2 of reference points: O, A, B are measured from the image of FIG. Next, the horizontal bar 12 is rotated at the rotation angle ω so as to coincide with x = x 0, and the image coordinates: p 0 , p 3 , p 4 of the reference points C ′, D ′ in the coincidence state are measured. To do. Next, camera parameters can be obtained by using the image coordinates of the reference point as input data and sequentially executing the following processing according to the calculation formula derived above.
Step 1: The rotation angle θ is obtained from equation (14).
Step 2: The rotation angle φ is obtained from equation (22).
Step 3: The parameter ω is obtained from equation (20).
Step 4: The focal length f is obtained from equation (16).
Step 5: The viewpoint position (Tx, Ty, Tz) of the camera is obtained by Expression (23).

以上説明したように、本発明は、図3の参照物体を使って、その参照物体上の5つの参照点を測定し、上記の計算手順でカメラパラメータを得るものである。よって、本発明の基本構成は、これらの処理を実行するための構成となっている。   As described above, the present invention uses the reference object of FIG. 3 to measure five reference points on the reference object, and obtains camera parameters by the above calculation procedure. Therefore, the basic configuration of the present invention is a configuration for executing these processes.

本発明の請求項1に記載のカメラ構成装置は、単眼または複数の画像入力装置を使って取得した画像から、その画像入力装置の内部情報と姿勢および位置を含む外部情報を校正する装置であって、校正対象の画像入力装置を使って参照点の幾何情報が既知である参照物体を撮影して取得した画像において所定の2次元座標系を設定し、用意された参照点の2次元座標値を抽出する参照点抽出手段と、前記参照点抽出手段において得られた参照点の中で、一部の参照点が特定の幾何拘束条件を満足するまで参照物体の姿勢または位置を調整する参照物体調整手段と、前記参照物体調整手段によって調整された参照物体に対して、参照物体上の全ての参照点の3次元点が画像上の2次元座標系へ射影するときの透視投影条件から導出された計算に従って、参照点の幾何情報と2次元座標上で得た参照点の座標値から、前記画像入力装置の内部情報または外部情報を校正するカメラ校正計算手段と、を備えることを特徴としている。   According to a first aspect of the present invention, there is provided a camera constituting apparatus that calibrates internal information of an image input device and external information including posture and position from an image acquired using a single eye or a plurality of image input devices. Then, a predetermined two-dimensional coordinate system is set in an image obtained by photographing a reference object whose reference point geometric information is known using the image input device to be calibrated, and the two-dimensional coordinate value of the prepared reference point A reference point extracting means for extracting the reference object, and a reference object for adjusting a posture or a position of the reference object until a part of the reference points satisfy a specific geometric constraint condition among the reference points obtained by the reference point extracting means It is derived from the perspective projection conditions when the three-dimensional points of all the reference points on the reference object are projected onto the two-dimensional coordinate system on the image with respect to the adjustment means and the reference object adjusted by the reference object adjustment means. Calculation It, from the geometric information of the reference point and the coordinate value of the reference point obtained in the two-dimensional coordinate system, is characterized by and a camera calibration calculating means for calibrating the internal information or external information of the image input device.

本発明は、少数の参照点を使ってカメラ校正を実行するため、従来のカメラキャリブレーション(非特許文献1〜3)のように膨大な量の参照点を必要としない。本発明では参照点の画像上での座標値を円滑に測定するための特殊な参照物体を使うことにより、カメラ校正作業の簡略化と処理時間の短縮化になる。   Since the present invention performs camera calibration using a small number of reference points, it does not require an enormous amount of reference points unlike conventional camera calibration (Non-Patent Documents 1 to 3). In the present invention, the use of a special reference object for smoothly measuring the coordinate value of the reference point on the image simplifies the camera calibration operation and shortens the processing time.

さらに、この参照物体を取り囲むように複数のカメラで配置すれば、複数カメラを同時に校正することができ、多視点カメラを使ったシームレスな3次元映像生成、モザイク画像またはパノラマ画像の生成に寄与する。   Furthermore, if the plurality of cameras are arranged so as to surround the reference object, the plurality of cameras can be calibrated at the same time, which contributes to seamless 3D image generation, mosaic image generation, or panoramic image generation using a multi-viewpoint camera. .

従来のカメラ校正方法における2次元物体を使ったカメラ校正作業を示す説明図である。It is explanatory drawing which shows the camera calibration operation | work using the two-dimensional object in the conventional camera calibration method. 従来のカメラ校正方法における1次元物体を使ったカメラ校正作業を示す説明図である。It is explanatory drawing which shows the camera calibration operation | work using the one-dimensional object in the conventional camera calibration method. 本発明で使用する垂直棒と水平棒から構成される参照物体を示す説明図である。It is explanatory drawing which shows the reference object comprised from the vertical bar and horizontal bar which are used by this invention. 図3の参照物体を撮影したときの画像の例を示す説明図である。It is explanatory drawing which shows the example of an image when the reference object of FIG. 3 is image | photographed. 本発明の実施形態例におけるカメラと参照点の位置関係を示す説明図である。It is explanatory drawing which shows the positional relationship of the camera and reference point in the example of embodiment of this invention. 本発明の実施例1の基本構成図である。It is a basic composition figure of Example 1 of the present invention. 本発明の実施例1の全体処理を示すフローチャートである。It is a flowchart which shows the whole process of Example 1 of this invention. 本発明の実施例1での参照点調整部の処理を示すフローチャートである。It is a flowchart which shows the process of the reference point adjustment part in Example 1 of this invention. 本発明の実施例1において水平棒の回転が完了し参照物体を撮影したときの画像の例を示す説明図である。It is explanatory drawing which shows the example of an image when rotation of a horizontal bar is completed in Example 1 of this invention, and the reference object was image | photographed. 本発明の実施例1でのカメラ校正計算の処理を示すフローチャートである。It is a flowchart which shows the process of the camera calibration calculation in Example 1 of this invention. 本発明の実施例2で使う参照物体の例を示す説明図である。It is explanatory drawing which shows the example of the reference object used in Example 2 of this invention. 本発明の実施例2における参照点測定の処理を示すフローチャートである。It is a flowchart which shows the process of the reference point measurement in Example 2 of this invention. 本発明の実施例3でのカメラ校正計算の処理を示すフローチャートである。It is a flowchart which shows the process of the camera calibration calculation in Example 3 of this invention. 本発明の実施例4における多視点カメラの配置例を示す説明図である。It is explanatory drawing which shows the example of arrangement | positioning of the multiview camera in Example 4 of this invention. 本発明の実施例4における2つのカメラに関する世界座標系の関係を示す説明図である。It is explanatory drawing which shows the relationship of the world coordinate system regarding the two cameras in Example 4 of this invention. 本発明の実施例4の基本構成図である。It is a basic composition figure of Example 4 of the present invention.

以下、図面を参照しながら本発明の実施の形態を説明するが、本発明は下記の実施形態例に限定されるものではない。   Hereinafter, embodiments of the present invention will be described with reference to the drawings, but the present invention is not limited to the following embodiments.

図6は請求項1に記載のカメラ校正の発明に関する基本構成図であり、図7は全体の処理フローである。本実施例1は図3の参照物体(請求項2)を使った実施例であり、図6と図7にそって説明する。本発明は、参照物体を校正対象のカメラ102の前に提示し、参照点調整部104と連携して被写体位置を制御する参照物体調整手段としての被写体制御部101、校正対象のカメラ102、校正に使用する画像を取得する画像入力部103、画像入力部103からの画像に対して、被写体制御部101と連動してカメラ校正処理のための前処理を行う参照点調整部104、その処理された画像から校正処理に必要な画像座標を計測する参照点測定部105、カメラ校正を実行するカメラ校正計算手段としてのカメラ校正処理部106とから構成される。   FIG. 6 is a basic configuration diagram relating to the camera calibration invention described in claim 1, and FIG. 7 is an overall processing flow. The first embodiment is an embodiment using the reference object of FIG. 3 (claim 2), and will be described with reference to FIGS. The present invention presents a reference object in front of a camera 102 to be calibrated and cooperates with a reference point adjustment unit 104 to control a subject position, a subject control unit 101 as a reference object adjustment unit, a calibration target camera 102, a calibration An image input unit 103 that acquires an image to be used for the reference, and a reference point adjustment unit 104 that performs preprocessing for camera calibration processing in conjunction with the subject control unit 101 on the image from the image input unit 103, A reference point measuring unit 105 that measures image coordinates necessary for calibration processing from the captured image, and a camera calibration processing unit 106 as camera calibration calculation means for executing camera calibration.

尚、本実施例1において、本発明の参照点抽出手段は、参照点調整部104および参照点測定部105により構成されている。   In the first embodiment, the reference point extraction unit of the present invention is configured by a reference point adjustment unit 104 and a reference point measurement unit 105.

この構成において、校正対象のカメラ102は必ずしも構成要素として接続している必要はなく、校正に必要なサンプル画像を画像入力部103を通して取得すればよく、その画像入力部103には、ハードディスク、RAID装置、CD−ROMなどの記録媒体を利用する、または、ネットワークを介してリモートなデータ資源を利用する形態でもどちらでも構わない。さらに、処理の必要に応じてリアルタイムで画像を取得する場合も可能であり、本発明は必ずしも記憶装置を必要としない。   In this configuration, the camera 102 to be calibrated does not necessarily have to be connected as a component, and a sample image necessary for calibration may be acquired through the image input unit 103. The image input unit 103 includes a hard disk, a RAID, and the like. Either a device, a recording medium such as a CD-ROM, or a remote data resource via a network may be used. Furthermore, it is possible to acquire an image in real time according to the necessity of processing, and the present invention does not necessarily require a storage device.

まず、図6の被写体制御部101において、図3の参照物体を撮影被写体としてカメラ102の前に提示される(図7のステップS11;被写体の提示)。図3の参照物体は垂直棒11と水平棒12とそれらの土台13となる平面盤から構成されている。垂直棒11にはOで示す位置を原点として、その点からh1,h2の高さにそれぞれ位置A,Bに参照点が設置されている。被写体制御部101は命令に応じて、垂直棒11を回転軸として、水平棒12を自由に回転させることができる。その水平棒12上には点Oからd3,d4の距離にそれぞれ参照点C,Dが設置されている。参照点は屋外でも目立つような特殊な塗料で色づけられているとする(このようにしておけば画像処理による抽出が容易になる)。 First, in the subject control unit 101 in FIG. 6, the reference object in FIG. 3 is presented in front of the camera 102 as a photographing subject (step S11 in FIG. 7; subject presentation). The reference object shown in FIG. 3 is composed of a vertical bar 11, a horizontal bar 12, and a plane board serving as a base 13 thereof. The vertical bar 11 is provided with reference points at positions A and B at the heights h 1 and h 2 with the position indicated by O as the origin. The subject control unit 101 can freely rotate the horizontal bar 12 around the vertical bar 11 as a rotation axis in response to a command. On the horizontal bar 12, reference points C and D are installed at distances of d 3 and d 4 from the point O, respectively. It is assumed that the reference points are colored with a special paint that stands out even outdoors (this makes extraction by image processing easier).

サンプル画像はカメラ102を通して画像入力部103から得られる(図7のステップS12;画像の取得)。図4にこのときに得られた画像の例を示す。この図では、画像中心を画像座標系の中心としており、その点を原点としたxy画像座標系が重複表示されている。カメラ校正はこのサンプル画像を使って行うが、各参照点の画像座標を測定する前に図6の参照点調整部104にて前処理が施される。   A sample image is obtained from the image input unit 103 through the camera 102 (step S12 in FIG. 7; image acquisition). FIG. 4 shows an example of the image obtained at this time. In this figure, the image center is the center of the image coordinate system, and the xy image coordinate system with the point as the origin is displayed in an overlapping manner. Camera calibration is performed using this sample image, but pre-processing is performed by the reference point adjustment unit 104 in FIG. 6 before measuring the image coordinates of each reference point.

参照点調整部104では、まず、画像処理によって垂直棒11(点A,B,Oから構成される1次元物体)を検出し、直線パラメータを抽出する。これはハフ変換などの画像処理が応用できる。次に、検出された直線に沿って走査を行い、特殊インクで色づけられた参照点O,A,Bを抽出する。もし、参照点の形状を球体として設計しておけば、Blob解析などを使って球体部分を抽出することができ、その球体領域の中心が点O,A,Bの画像座標として観測することができる。いずれにせよ、この観測手段によって画像座標:p0=(x0,y0),p1=(x1,y1),p2=(x2,y2)を得る。 The reference point adjustment unit 104 first detects the vertical bar 11 (one-dimensional object composed of points A, B, and O) by image processing, and extracts straight line parameters. This can be applied to image processing such as Hough transform. Next, scanning is performed along the detected straight line, and reference points O, A, and B colored with special ink are extracted. If the shape of the reference point is designed as a sphere, the sphere portion can be extracted using Blob analysis or the like, and the center of the sphere region can be observed as the image coordinates of the points O, A, and B. it can. In any case, the image coordinates: p 0 = (x 0 , y 0 ), p 1 = (x 1 , y 1 ), p 2 = (x 2 , y 2 ) are obtained by this observation means.

次に、図9に示すように画面上において参照点C,Dが直線x=x0と一致するまで、図7のステップS13,S14にしたがって水平棒12の回転を行う(一致したときの参照点をC’,D’とする)。この水平棒12の回転動作は図8の処理フローにしたがって行われる。まず、デフォルトの回転角を設定する(ステップS21)。続いて、ハフ変換などの画像処理を使って水平棒12の領域から水平棒12の直線パラメータを得る(ステップS22)。抽出された直線が、先に抽出しておいたp0=(x0,y0)を通過する直線x=x0と重なるまで微小な回転角Δωで水平棒12を回転させる(ステップS23〜S25)。水平棒12が許容誤差の範囲内で直線x=x0と重なったとき、回転動作を停止させる。 Next, as shown in FIG. 9, the horizontal bar 12 is rotated in accordance with steps S13 and S14 of FIG. 7 until the reference points C and D on the screen coincide with the straight line x = x 0 (reference when they coincide). The points are C ′ and D ′). The rotation operation of the horizontal bar 12 is performed according to the processing flow of FIG. First, a default rotation angle is set (step S21). Subsequently, straight line parameters of the horizontal bar 12 are obtained from the area of the horizontal bar 12 using image processing such as Hough transform (step S22). The horizontal bar 12 is rotated at a small rotation angle Δω until the extracted straight line overlaps with the straight line x = x 0 passing through the previously extracted p 0 = (x 0 , y 0 ) (steps S23 to S23). S25). When the horizontal bar 12 overlaps the straight line x = x 0 within the allowable error range, the rotation operation is stopped.

この一連の処理によって、図9の画像を得る。この画像上において、参照点C’,D’の画像座標を測定する。図8の処理フローによって、水平棒12が直線x=x0と重なっているため、直線x=x0上を上から下へ走査し、特殊インクの部分を画像処理によって検出するだけで、画像座標p3=(x0,y3),p4=(x0,y4)が得られる。以上の処理フローを経て、図6の参照点測定部105では、垂直棒11上の画像座標:p0=(x0,y0),p1=(x1,y1),p2=(x2,y2)、並びに、水平棒12上の画像座標p3=(x0,y3),p4=(x0,y4)を得る(図7のステップS15;参照点の測定)。 The image of FIG. 9 is obtained by this series of processing. On this image, the image coordinates of the reference points C ′ and D ′ are measured. According to the processing flow of FIG. 8, since the horizontal bar 12 overlaps with the straight line x = x 0 , it is possible to scan the top of the straight line x = x 0 from top to bottom and detect the special ink portion by image processing. Coordinates p 3 = (x 0 , y 3 ) and p 4 = (x 0 , y 4 ) are obtained. Through the above processing flow, the reference point measurement unit 105 in FIG. 6 uses image coordinates on the vertical bar 11: p 0 = (x 0 , y 0 ), p 1 = (x 1 , y 1 ), p 2 = (X 2 , y 2 ) and image coordinates p 3 = (x 0 , y 3 ), p 4 = (x 0 , y 4 ) on the horizontal bar 12 are obtained (step S15 in FIG. 7; reference points) Measurement).

参照点の画像座標が測定できれば、図6のカメラ校正処理部106にて、各参照点に関する幾何的情報:h1,h2,d3,d4と、対応する参照点の画像座標:p0=(x0,y0),p1=(x1,y1),p2=(x2,y2),p3=(x0,y3),p4=(x0,y4)を入力データとして、図10の処理フローに従ってカメラパラメータを算出する。計算式の導出と基本原理は上記で説明しているので、以降では、既に上記で導出した計算式を使ってどうのようにカメラパラメータを求めることを説明する。 If the image coordinates of the reference point can be measured, the camera calibration processing unit 106 in FIG. 6 performs geometric information on each reference point: h 1 , h 2 , d 3 , d 4 and the image coordinate of the corresponding reference point: p 0 = (x 0 , y 0 ), p 1 = (x 1 , y 1 ), p 2 = (x 2 , y 2 ), p 3 = (x 0 , y 3 ), p 4 = (x 0 , Using y 4 ) as input data, camera parameters are calculated according to the processing flow of FIG. Since the derivation of the calculation formula and the basic principle have been described above, how to obtain the camera parameters using the calculation formula already derived above will be described below.

まず、式(12),(13)で置換している値p,qを計算する。これらの値が得られれば、回転角θは式(14)によって算出される(図10のステップS31;回転角θ算出)。次に、値r(式(19)にて置換している)と先に得た回転角θを使って式(22)により回転角φを算出する(図10のステップS32;回転角φ算出)。次に、後の計算に必要になる回転パラメータωを算出しておく。この計算には値r、回転角φを使って式(20)により求める(図10のステップS33;回転パラメータω算出)。さらに、回転角θ,φ、回転パラメータωを使って、式(16)により焦点距離fを算出する(図10のステップS34;焦点距離f算出)。最後に、これまでに求めたカメラパラメータと回転パラメータを使って式(23)の連立一次方程式を解くことによってカメラ視点位置(Tx,Ty,Tz)を算出する(図10のステップS35;位置(Tx,Ty,Tz)算出)。   First, the values p and q replaced by the equations (12) and (13) are calculated. If these values are obtained, the rotation angle θ is calculated by the equation (14) (step S31 in FIG. 10; rotation angle θ calculation). Next, using the value r (replaced by equation (19)) and the previously obtained rotation angle θ, the rotation angle φ is calculated by equation (22) (step S32 in FIG. 10; rotation angle φ calculation). ). Next, a rotation parameter ω necessary for later calculation is calculated. For this calculation, the value r and the rotation angle φ are used to obtain the equation (20) (step S33 in FIG. 10; rotation parameter ω calculation). Further, using the rotation angles θ, φ and the rotation parameter ω, the focal length f is calculated by the equation (16) (step S34 in FIG. 10; focal length f calculation). Finally, the camera viewpoint position (Tx, Ty, Tz) is calculated by solving the simultaneous linear equations of Expression (23) using the camera parameters and rotation parameters obtained so far (step S35 in FIG. 10; position ( Tx, Ty, Tz) calculation).

以上説明したように、図3で設計された参照物体を校正のための撮影被写体とし、図6の基本構成のもとで、図7の処理フローに従って処理を行うことにより、図5(a),(b)に示したカメラ視点の位置(Tx,Ty,Tz)、カメラ座標系での回転角θ,φ、並びに、カメラの焦点距離fを求めることができる。   As described above, the reference object designed in FIG. 3 is used as a photographic subject for calibration, and processing is performed according to the processing flow of FIG. 7 under the basic configuration of FIG. , (B), the camera viewpoint position (Tx, Ty, Tz), the rotation angles θ and φ in the camera coordinate system, and the camera focal length f can be obtained.

本実施例2は請求項3に関する実施例である。基本構成図は実施例1と同じ構成となるが、参照物体の概観図とそれに基づく処理のみ異なるため、この差異のみを記載する。   The second embodiment is an embodiment relating to claim 3. Although the basic configuration diagram is the same as that of the first embodiment, only the difference between the overview of the reference object and the processing based thereon is described.

本実施例では、図6の被写体制御部101において、図11の参照物体を撮影被写体としてカメラ102の前に提示される。図11の参照物体は、前記水平棒12を回転する代わりに、半径d3,d4の同心円14を描いた平面が垂直棒11に対して垂直に取り付けられている。なお、単眼カメラの場合には垂直棒11と同心円14だけで校正ができるが、多視点カメラへ拡張することを想定し、同心円14にそって垂直棒11を回転軸として回転する方位棒22を用意しておく(この方位棒22を使う例は、実施例4にて説明する)。 In the present embodiment, the subject control unit 101 in FIG. 6 presents the reference object in FIG. 11 as a photographic subject in front of the camera 102. In the reference object of FIG. 11, instead of rotating the horizontal bar 12, a plane depicting concentric circles 14 with radii d 3 and d 4 is attached perpendicular to the vertical bar 11. In the case of a monocular camera, calibration can be performed only with the vertical bar 11 and the concentric circle 14. However, assuming that the camera can be expanded to a multi-view camera, an azimuth bar 22 that rotates about the vertical bar 11 along the concentric circle 14 as a rotation axis is provided. Prepare (an example of using this azimuth bar 22 will be described in Example 4).

図12は本実施例2の処理フローであり、実施例1と比べて水平棒12の回転を不要とする。ステップS41では図7のステップS11と同様に被写体の提示を行い、ステップS42では図7のステップS12と同様に画像を取得する。図11に示すように半径d3,d4の同心円を用意しておけば、水平棒12の回転は不要となる。その代わり、図9と同様に、直線x=x0が同心円14と交差する点を直線x=x0上を上から下へ走査し、同心円14と交差するエッジ部分で検出する。これにより参照点C’,D’画像座標:p3=(x0,y3),p4=(x0,y4)を測定する(図12のステップS43;参照点の測定)。参照点の画像座標が得られれば、実施例1と同様にカメラ校正ができる(図12のステップS44;カメラ校正の計算)。 FIG. 12 shows the processing flow of the second embodiment, which makes the rotation of the horizontal bar 12 unnecessary compared with the first embodiment. In step S41, the subject is presented in the same manner as in step S11 in FIG. 7, and in step S42, an image is acquired in the same manner as in step S12 in FIG. If concentric circles with radii d 3 and d 4 are prepared as shown in FIG. 11, the rotation of the horizontal bar 12 becomes unnecessary. Instead, as in FIG. 9, the linear x = x 0 scans down the point which intersects the concentric 14 from above the upper straight line x = x 0, it is detected in the edge portion intersecting the concentric circle 14. Thus, reference point C ′, D ′ image coordinates: p 3 = (x 0 , y 3 ), p 4 = (x 0 , y 4 ) are measured (step S43 in FIG. 12; measurement of reference point). If the image coordinates of the reference point are obtained, camera calibration can be performed as in the first embodiment (step S44 in FIG. 12; calculation of camera calibration).

図11の参照物体はカメラの撮影範囲が比較的小規模の場合には設計・製造しやすいが、撮影規模が大きくなると、それに応じるスケールの同心円14を設計・製造しなければならない。このため、撮影規模が大きくなると、実施例1の水平棒12を回転させる方が有利である。   The reference object of FIG. 11 is easy to design and manufacture when the shooting range of the camera is relatively small. However, when the shooting scale increases, the concentric circles 14 corresponding to the scale must be designed and manufactured. For this reason, it is advantageous to rotate the horizontal bar 12 of the first embodiment when the photographing scale becomes large.

本実施例3は請求項4に関する実施例である。基本構成図は実施例1と同じ構成となるが、カメラ校正の処理フローが異なるため、以降ではこの差異のみを記載する。   The third embodiment relates to the fourth aspect. Although the basic configuration diagram is the same as that of the first embodiment, since the processing flow of camera calibration is different, only this difference will be described below.

その前に、本実施例が解決する課題について補足しておく。図3、あるいは図11の参照物体を撮影したとき、図4での垂直棒11がほぼy軸に沿って撮影されることがある。   Before that, it supplements about the subject which a present Example solves. When the reference object of FIG. 3 or FIG. 11 is photographed, the vertical bar 11 in FIG. 4 may be photographed substantially along the y axis.

Figure 2010186265
Figure 2010186265

と記述できるので、一度、実施例1で説明したカメラ校正処理フローでカメラパラメータを求めた後、φ,Ty,Tzを後述の式(31)に代入してθを再度算出する。θが求まると、上記で記述した手順によりパラメータφ,ω,f,(Tx,Ty,Tz)を順次求める。カメラパラメータが更新されると、再び式(31)によりθを求め、同様の手順によりカメラパラメータを求める。これを解が安定化するまで続けることにより、反復的にカメラパラメータを調整することができる。   Therefore, once the camera parameters are obtained by the camera calibration processing flow described in the first embodiment, φ, Ty, Tz are substituted into formula (31) described later, and θ is calculated again. When θ is obtained, parameters φ, ω, f, (Tx, Ty, Tz) are sequentially obtained according to the procedure described above. When the camera parameter is updated, θ is obtained again by Expression (31), and the camera parameter is obtained by the same procedure. By continuing this until the solution stabilizes, the camera parameters can be adjusted iteratively.

すなわち、まず最初に校正用のカメラパラメータ(校正外部情報)を求め、該カメラパラメータから評価用のカメラパラメータ(評価外部情報)を再算出し、前記校正外部情報と評価外部情報の誤差が大きい場合は評価外部情報を校正外部情報に置換してカメラパラメータの再計算を行い、前記誤差が所定誤差より小さくなるまで前記校正計算を繰り返す。   That is, first, when camera parameters for calibration (calibration external information) are obtained, camera parameters for evaluation (evaluation external information) are recalculated from the camera parameters, and the error between the calibration external information and the evaluation external information is large Replaces the evaluation external information with the calibration external information, recalculates the camera parameters, and repeats the calibration calculation until the error becomes smaller than a predetermined error.

本実施例3のカメラ校正処理部106での処理フローは図13である。実施例1と異なり、上記で説明した状況に備え、本実施例3では反復的にカメラパラメータを算出する。反復回数が1回目のときは実施例1のカメラ校正処理(図10で説明したステップS31〜S35)と同じフローによりカメラパラメータを得る。次に、反復回数が所定の回数Nかどうかを判定し(ステップS36)、反復数が所定の回数Nを超えていない場合は、   FIG. 13 shows a processing flow in the camera calibration processing unit 106 of the third embodiment. Unlike the first embodiment, in preparation for the situation described above, the third embodiment repeatedly calculates camera parameters. When the number of iterations is the first, camera parameters are obtained by the same flow as the camera calibration process of the first embodiment (steps S31 to S35 described in FIG. 10). Next, it is determined whether the number of iterations is a predetermined number N (step S36). If the number of iterations does not exceed the predetermined number N,

Figure 2010186265
Figure 2010186265

の計算によって回転角θ’の再算出を行う(ステップS37)。この回転角θ’を回転角θに置き換えて、図13の処理フローに従ってカメラパラメータを再度算出する。この反復を反復回数Nを超えるまで続けた後、カメラパラメータを出力する。   The rotation angle θ ′ is recalculated by calculating (Step S37). The rotation angle θ ′ is replaced with the rotation angle θ, and the camera parameters are calculated again according to the processing flow of FIG. After this iteration is repeated until the iteration count N is exceeded, camera parameters are output.

本実施例4は、図3の参照物体を使って、複数のカメラ(多視点カメラ)を校正する方法である。まず、上記実施例1〜3で説明した単眼カメラを使った校正方法から多視点カメラでの校正方法へ拡張するために、多視点カメラについて補足しておく。   The fourth embodiment is a method of calibrating a plurality of cameras (multi-viewpoint cameras) using the reference object shown in FIG. First, in order to extend the calibration method using the monocular camera described in the first to third embodiments to the calibration method using the multi-view camera, the multi-view camera is supplemented.

カメラC1からカメラC5の計5台が図3の参照物体を囲むように配置した例を図14に示す。この図は真上から見た鳥瞰図となっており、世界座標系XwwwとしてカメラC1が想定した座標系が設定されている。つまり、上記実施例1〜3と同様に、カメラC1に関する回転行列は式(3)で与えられる姿勢(カメラC1に対してZw軸周りの回転がない状態で参照物体の水平棒12が向けられている)で世界座標系Xwwwと関係付けられていると仮定する。よって、他のカメラCi,i=2,…,5にとってはこのような姿勢で参照物体が置かれてはおらず、図3の参照物体を囲んで撮影するように自由に配置されているものとする。ここでは、多視点カメラの外部パラメータを同一の座標系上で推定するために、基準に合わせるカメラとしてどれか一つのカメラ(この実施例ではカメラC1)に対して、図5(a),(b)の世界座標系を考える。 FIG. 14 shows an example in which a total of five cameras C 1 to C 5 are arranged so as to surround the reference object of FIG. This figure is a bird's eye view as viewed from above, the coordinate system of the camera C 1 is assumed as the world coordinate system X w Y w Z w is set. That is, as in the first to third embodiments, the rotation matrix related to the camera C 1 is the posture given by the expression (3) (the horizontal bar 12 of the reference object without rotation around the Zw axis with respect to the camera C 1 . assume that is associated with the world coordinate system X w Y w Z w in is directed). Therefore, for the other cameras C i , i = 2,..., 5, the reference object is not placed in such a posture, and is freely arranged so as to shoot around the reference object of FIG. And Here, in order to estimate the external parameters of the multi-viewpoint camera on the same coordinate system, for any one camera (camera C 1 in this embodiment) that matches the reference, FIG. Consider the world coordinate system of (b).

上記の実施例1〜3と同様な方法を使えば、カメラC1のカメラパラメータを得ることができる。一方、それ以外のカメラCi,i=2,…,5について、Zw軸周りに点C,Dが回転するだけで、カメラC1と世界座標系との対応関係と同様の関係(各カメラの回転行列が式(3)で与えられる姿勢としてもよいという関係)を世界座標系との間に関係付けることが容易に想像できる。 If the same method as in the first to third embodiments is used, the camera parameters of the camera C 1 can be obtained. On the other hand, for the other cameras C i , i = 2,..., 5, the points C and D are simply rotated around the Zw axis, and the same relationship (respectively) between the camera C 1 and the world coordinate system. It can be easily imagined that the relationship between the camera rotation matrix and the orientation given by equation (3) may be related to the world coordinate system.

つまり、複数のカメラCi,i=1,2,…,M(以降のサフィックスiはカメラ識別のために便宜上添えている)にも応用することができる。各カメラで観測する参照点をAi,Bi,Oi,C’i,D’i、その観測座標をpij,i=1,2,…,M,j=1,2,3,4とする。上記で記述した計算式を使えば、参照点の幾何情報と観測座標から、各視点でのカメラパラメータ:fi,φi,θi,Txi,Tyi,Tzi,ωi,i=1,2,…,Mを得ることができる。ここで、垂直棒11上の参照点:Ai=A,Bi=B,Oi=Oはカメラ共通の参照点である。これに対し、参照点:C’i,D’iの投影点は各カメラで得た画像においてx=x0上に拘束されるように水平棒12を回転するため、各カメラに応じてその3次元座標は異なる。よって、参照物体上の同じ参照点を全てのカメラで撮影したものではないので、上記実施例1〜3の校正方法を各カメラへ適用して外部パラメータを得ても、同じ世界座標系上で表現されたものではない。本実施例4は、これを同じ世界座標系上へ変換することで、多視点カメラ校正を行うものである。 That is, the present invention can be applied to a plurality of cameras C i , i = 1, 2,..., M (hereinafter suffix i is attached for convenience for camera identification). Reference points observed by each camera are A i , B i , O i , C ′ i , D ′ i , and their observation coordinates are p ij , i = 1, 2,..., M, j = 1, 2, 3, 4 Using the calculation formula described above, the camera parameters at each viewpoint: f i , φ i , θ i , Tx i , Ty i , Tz i , ω i , i = 1, 2, ..., M can be obtained. Here, the reference points on the vertical bar 11: A i = A, B i = B, and O i = O are reference points common to the cameras. On the other hand, the projection points of the reference points C ′ i and D ′ i rotate the horizontal bar 12 so as to be constrained on x = x 0 in the image obtained by each camera. Three-dimensional coordinates are different. Therefore, since the same reference point on the reference object is not photographed by all cameras, even if the calibration method of the first to third embodiments is applied to each camera and external parameters are obtained, the same reference point on the same world coordinate system is obtained. It is not expressed. The fourth embodiment performs multi-viewpoint camera calibration by converting this into the same world coordinate system.

まず、2つのカメラを校正する基本原理を、図15の例で説明する。上記の実施例1〜3で説明した単眼でのカメラ校正方法をカメラC1とカメラC2に独立に適用すると、図15に示すようにそれぞれ世界座標系が異なる。カメラC1は世界座標系をXwwwとしており、カメラC2は世界座標系をX’wY’wZ’wとしている。この図において、世界座標系X’wY’wZ’wは世界座標系XwwwをZw軸周りの回転によって回転したものと考えることができる。つまりこの回転角が分かれば、世界座標系X’wY’wZ’w上で復元したカメラC2の外部パラメータを世界座標系Xwww上に変換することができる。 First, the basic principle of calibrating two cameras will be described with reference to the example of FIG. When the camera calibration method with a single eye described in the first to third embodiments is applied to the camera C 1 and the camera C 2 independently, the world coordinate systems are different as shown in FIG. The camera C 1 has a world coordinate system of X w Y w Z w and the camera C 2 has a world coordinate system of X ′ w Y ′ w Z ′ w . In this figure, the world coordinate system X ′ w Y ′ w Z ′ w can be considered as a rotation of the world coordinate system X w Y w Z w by rotation around the Z w axis. That is, if this rotation angle is known, the external parameters of the camera C 2 restored on the world coordinate system X ′ w Y ′ w Z ′ w can be converted to the world coordinate system X w Y w Z w .

本実施例4では、各カメラの外部パラメータを同じ座標系上で復元するため、図3の水平棒12を利用する。水平棒12を適当に回転させたときの参照点C0,D0をカメラC2で観測する。または、水平棒12を適当に回転させるのではなく、図3の参照物体を使って校正したとき、カメラC1が得た画像においてx=x0と重なる水平棒12上の参照点をカメラC2で撮影してもよい。この場合、カメラC1で取得する画像が1枚になるだけであり、以降の校正方法には何ら影響を与えない。なお、図11の参照物体を使う場合、基準とした適当な方位に方位棒22を固定しておき、カメラC2で同心円と交差する点を測定するだけで、以降と同様の方法で多視点カメラを校正できる。よって、以降では、図3の参照物体を使った実施例を説明する。 In the fourth embodiment, the horizontal bar 12 in FIG. 3 is used to restore the external parameters of each camera on the same coordinate system. Reference points C 0 and D 0 when the horizontal bar 12 is appropriately rotated are observed by the camera C 2 . Alternatively, when the horizontal bar 12 is not properly rotated but is calibrated using the reference object shown in FIG. 3, the reference point on the horizontal bar 12 that overlaps x = x 0 in the image obtained by the camera C 1 is defined as the camera C. You may shoot with 2 . In this case, only the image acquired by camera C 1 is one, no effect on the method of calibration since. When the reference object shown in FIG. 11 is used, the azimuth bar 22 is fixed in an appropriate orientation as a reference, and the camera C 2 is used to measure a point intersecting the concentric circle. The camera can be calibrated. Therefore, hereinafter, an embodiment using the reference object of FIG. 3 will be described.

カメラC1で取得した画像において、水平棒12上の参照点C0,D0の画像座標:(x13,y13),(x14,y14)、カメラC2で取得した画像において、水平棒12上の参照点C0,D0の画像座標:(x23,y23),(x24,y24)を得たとする。参照点C0,D0はXww平面上の3次元座標なので、式(1),(2),(3)から、 In the image obtained by the camera C 1, reference point C 0 on the horizontal bar 12, D 0 of the image coordinates: (x 13, y 13) , in (x 14, y 14), an image acquired by the camera C 2, Assume that the image coordinates (x 23 , y 23 ) and (x 24 , y 24 ) of the reference points C 0 and D 0 on the horizontal bar 12 are obtained. Since the reference points C 0 and D 0 are three-dimensional coordinates on the X w Y w plane, from the equations (1), (2), and (3),

Figure 2010186265
Figure 2010186265

と変形できる。これらの式に各カメラパラメータと参照点の画像座標を代入すれば、参照点C0の3次元座標(X3,Y3,0)、参照点D0の3次元座標(X4,Y4,0)を復元できることが分かる。 And can be transformed. Substituting the image coordinates of the reference point and the camera parameters in these equations, the three-dimensional coordinates of the reference point C 0 (X 3, Y 3 , 0), 3 -dimensional coordinates of the reference point D 0 (X 4, Y 4 , 0) can be restored.

式(32),(33)を使って、カメラC1のカメラパラメータと画像座標:(x13,y13),(x14,y14)から復元した参照点C0,D0の3次元座標をそれぞれ(X3,Y3,0),(X4,Y4,0)とする。一方、カメラC2のカメラパラメータと画像座標:(x23,y23),(x24,y24)から復元した参照点C0,D0の3次元座標をそれぞれ(X’3,Y’3,0),(X’4,Y’4,0)とする。各カメラで復元した3次元座標値から、 Using the equations (32) and (33), the three-dimensional reference points C 0 and D 0 restored from the camera parameters and image coordinates of the camera C 1 : (x 13 , y 13 ) and (x 14 , y 14 ) The coordinates are (X 3 , Y 3 , 0) and (X 4 , Y 4 , 0), respectively. On the other hand, the camera parameters and image coordinates of the camera C 2 and the three-dimensional coordinates of the reference points C 0 and D 0 restored from (x 23 , y 23 ) and (x 24 , y 24 ) are respectively (X ′ 3 , Y ′ 3 , 0), (X ′ 4 , Y ′ 4 , 0). From the 3D coordinate values restored by each camera,

Figure 2010186265
Figure 2010186265

を計算する(どちらか1点でも回転角を計算できるが、ここでは2点からの平均値とする)と、この回転角の差:
ΔΩ2=Ω2−Ω1 (36)
は、図15に示されているように、カメラC1が想定する世界座標系Xwwwに対して、カメラC2が想定する世界座標系X’wY’wZ’wのZw軸周りの回転角となる。
(The rotation angle can be calculated at any one point, but here the average value from two points), the difference between the rotation angles:
ΔΩ 2 = Ω 2 −Ω 1 (36)
, As shown in Figure 15, with respect to the world coordinate system X w Y w Z w camera C 1 are assumed, the world coordinate system camera C 2 is assumed X 'w Y' of w Z 'w The rotation angle around the Zw axis.

よって、カメラC2の外部パラメータの変換は回転行列: Therefore, the conversion of the external parameters of camera C 2 is the rotation matrix:

Figure 2010186265
Figure 2010186265

を使って、カメラC2の外部パラメータから構成される回転行列[R]と並進ベクトル(Tx,Ty,Tz)をそれぞれ , The rotation matrix [R] composed of the external parameters of the camera C 2 and the translation vector (Tx, Ty, Tz)

Figure 2010186265
Figure 2010186265

と行列変換する。式(38),(39)の行列変換によって得られる外部パラメータは、カメラC1が想定する世界座標系上で表現されたものとなる。この計算をM視点のカメラCi,i=2,3,…,Mに適用すれば多視点カメラでのカメラ校正ができる。以上が、実施例1〜3の単眼カメラの校正方法を利用し、多視点カメラでの校正を行う基本原理である。 And matrix transformation. Equation (38), the external parameter obtained by the matrix transformation of (39) is intended to camera C 1 is represented on the world coordinate system assumed. If this calculation is applied to M viewpoint cameras C i , i = 2, 3,..., M, camera calibration with a multi-view camera can be performed. The above is the basic principle of calibrating with a multi-viewpoint camera using the monocular camera calibration method of the first to third embodiments.

本実施例4の基本構成図を図16に示す。図16において図6と同一部分は同一符号をもって示している。実施例1〜3と比べて、複数のカメラCi,i=1,2,3,…,M(カメラC1〜CM)の切り替え部(カメラ切替部110)と、各カメラの外部パラメータを同じ座標系へ変換するためのパラメータ変換部(パラメータ変換処理部111)が新たに加わる。本実施例4において、新たに加えらえた処理部以外は、実施例1〜3で説明した単眼カメラの校正と同じである。よって、以降では、この差異部分のみを記載する。 FIG. 16 shows a basic configuration diagram of the fourth embodiment. In FIG. 16, the same parts as those in FIG. 6 are denoted by the same reference numerals. Compared to the first to third embodiments, a switching unit (camera switching unit 110) of a plurality of cameras C i , i = 1, 2, 3,..., M (cameras C 1 to C M ), and external parameters of each camera Is newly added to the parameter conversion unit (parameter conversion processing unit 111) for converting to the same coordinate system. The fourth embodiment is the same as the monocular camera calibration described in the first to third embodiments except for the processing unit newly added. Therefore, only this difference will be described below.

カメラ切替部110では、カメラCi,i=1,2,3,…,Mを順番に切り替え、参照点調整部104と被写体制御部101の連携動作により、図3の参照物体を使う場合、適当な回転での水平棒12を一度撮影して画像(基準画像)を得て、次に、その水平棒12を回転させ、x=x0と一致するときの画像(校正画像)を撮影する。各カメラで取得した2枚の画像(基準画像と校正画像)から、基準画像から参照点C0,D0の画像座標を測定し、次に、校正画像から上記実施例1〜3と同様に参照点A,B,O,C’,D’の画像座標を得る。校正画像から得た画像座標を使って、上記実施例1〜3で説明した方法によってカメラ校正処理部106において各カメラのカメラパラメータが算出される。さらに、パラメータ変換処理部111において、基準とするカメラ(これまでの例ではカメラをカメラC1とする)に対して、各カメラの回転角Ωiを式(36)を使って求め、式(37)に従って得た回転行列を使って、式(38),(39)の行列変換を行う。この変換の後に、各カメラCi,i=2,3,…,Mの外部パラメータを抽出する。 In the camera switching unit 110, when the cameras C i , i = 1, 2, 3,..., M are sequentially switched, and the reference object of FIG. An image (reference image) is obtained by shooting the horizontal bar 12 at an appropriate rotation once, and then the horizontal bar 12 is rotated to take an image (calibration image) when x = x 0 is matched. . The image coordinates of the reference points C 0 and D 0 are measured from the standard image from the two images (the standard image and the calibration image) acquired by each camera, and then the calibration image is used in the same manner as in the first to third embodiments. Image coordinates of reference points A, B, O, C ′, D ′ are obtained. Using the image coordinates obtained from the calibration image, the camera calibration processing unit 106 calculates the camera parameters of each camera by the method described in the first to third embodiments. Further, the parameter conversion processing unit 111 obtains the rotation angle Ω i of each camera with respect to the reference camera (in the examples so far, the camera is the camera C 1 ) using the expression (36), and the expression ( Using the rotation matrix obtained in accordance with 37), matrix transformations of equations (38) and (39) are performed. After this conversion, external parameters of each camera C i , i = 2, 3,..., M are extracted.

以上説明したように、実施例1〜3の単眼カメラの校正方法を各カメラに適用し、計算された各カメラのカメラパラメータを、基準とするカメラの座標系へ変換することにより、多視点カメラの校正ができる。   As described above, by applying the monocular camera calibration method according to the first to third embodiments to each camera, and converting the calculated camera parameters of each camera into a reference camera coordinate system, a multi-view camera Can be calibrated.

また、本実施形態のカメラ校正装置における各手段の一部もしくは全部の機能をコンピュータのプログラムで構成し、そのプログラムをコンピュータを用いて実行して本発明を実現することができること、本実施形態のカメラ校正方法における手順をコンピュータのプログラムで構成し、そのプログラムをコンピュータに実行させることができることは言うまでもなく、コンピュータでその機能を実現するためのプログラムを、そのコンピュータが読み取り可能な記録媒体、例えばFD(Floppy(登録商標) Disk)や、MO(Magneto−Optical disk)、ROM(Read Only Memory)、メモリカード、CD(Compact Disk)−ROM、DVD(Digital Versatile Disk)−ROM、CD−R、CD−RW、HDD、リムーバブルディスクなどに記録して、保存したり、配布したりすることが可能である。また、上記のプログラムをインターネットや電子メールなど、ネットワークを通して提供することも可能である。   Further, a part or all of the functions of each means in the camera calibration apparatus of the present embodiment can be configured by a computer program, and the program can be executed using the computer to realize the present invention. Needless to say, the procedure in the camera calibration method can be constituted by a computer program and the program can be executed by the computer, and the program for realizing the function by the computer can be read by a computer-readable recording medium such as an FD. (Floppy (registered trademark) Disk), MO (Magneto-Optical disk), ROM (Read Only Memory), memory card, CD (Compact Disk) -ROM, DVD (Digital Versatile) Disk) -ROM, CD-R, CD-RW, HDD, removable disk, etc., and can be stored and distributed. It is also possible to provide the above program through a network such as the Internet or electronic mail.

101…被写体制御部
102,C1〜CM…カメラ
103…画像入力部
104…参照点調整部
105…参照点測定部
106…カメラ校正処理部
110…カメラ切替部
111…パラメータ変換処理部
101 ... object control unit 102, C 1 ~C M ... camera 103 ... image input unit 104 ... reference point adjuster 105 ... reference point measuring unit 106 ... camera calibration processing unit 110 ... camera switching section 111 ... parameter conversion processing unit

Claims (10)

単眼または複数の画像入力装置を使って取得した画像から、その画像入力装置の内部情報と姿勢および位置を含む外部情報を校正する装置であって、
校正対象の画像入力装置を使って参照点の幾何情報が既知である参照物体を撮影して取得した画像において所定の2次元座標系を設定し、用意された参照点の2次元座標値を抽出する参照点抽出手段と、
前記参照点抽出手段において得られた参照点の中で、一部の参照点が特定の幾何拘束条件を満足するまで参照物体の姿勢または位置を調整する参照物体調整手段と、
前記参照物体調整手段によって調整された参照物体に対して、参照物体上の全ての参照点の3次元点が画像上の2次元座標系へ射影するときの透視投影条件から導出された計算に従って、参照点の幾何情報と2次元座標上で得た参照点の座標値から、前記画像入力装置の内部情報または外部情報を校正するカメラ校正計算手段と、
を備えることを特徴とするカメラ校正装置。
A device for calibrating external information including internal information and posture and position of an image input device from an image acquired using a single eye or a plurality of image input devices,
A predetermined two-dimensional coordinate system is set in an image obtained by photographing a reference object with known reference point geometric information using an image input device to be calibrated, and a two-dimensional coordinate value of the prepared reference point is extracted. Reference point extracting means for
Among the reference points obtained by the reference point extracting means, reference object adjusting means for adjusting the posture or position of the reference object until some reference points satisfy a specific geometric constraint condition;
According to the calculation derived from the perspective projection conditions when the three-dimensional points of all the reference points on the reference object are projected onto the two-dimensional coordinate system on the image with respect to the reference object adjusted by the reference object adjusting means, Camera calibration calculation means for calibrating internal information or external information of the image input device from the geometric information of the reference point and the coordinate value of the reference point obtained on the two-dimensional coordinate;
A camera calibration device comprising:
前記参照物体は、互いに直交する垂直棒および水平棒を備えた校正撮影用の参照物体で構成され、
前記参照点抽出手段は、校正対象の画像入力装置を使って取得したその被写体の画像において画像座標系を設定し、前記垂直棒上の任意の点と直交する位置の点、並びに前記水平棒上の任意の点を参照点として、校正対象の画像入力装置を使ってその参照物体を撮影し、取得した画像において所定の2次元座標系を設定し、垂直棒上の任意の点と直交する位置の点、並びに水平棒上の任意の点の2次元座標値を抽出し、
前記参照物体調整手段は、前記参照点抽出手段において得られた参照点の中で、前記水平棒上の参照点が特定の幾何拘束条件を満足するまで、前記垂直棒と一体となって垂直棒を軸として水平棒を回転させる手段を備えた、
ことを特徴とする請求項1に記載のカメラ校正装置。
The reference object is composed of a reference object for calibration photography including a vertical bar and a horizontal bar orthogonal to each other,
The reference point extraction unit sets an image coordinate system in the image of the subject acquired using the image input device to be calibrated, and points at a position orthogonal to an arbitrary point on the vertical bar, as well as on the horizontal bar. The reference object is taken as a reference point, the reference object is photographed using the image input device to be calibrated, a predetermined two-dimensional coordinate system is set in the acquired image, and a position orthogonal to the arbitrary point on the vertical bar And 2D coordinate values of any point on the horizontal bar,
The reference object adjusting unit is integrated with the vertical bar until the reference point on the horizontal bar satisfies a specific geometric constraint condition among the reference points obtained by the reference point extracting unit. With means to rotate the horizontal bar around the axis,
The camera calibration apparatus according to claim 1.
前記参照物体は、ある土台上の基準点を中心とした複数の円を構成する円盤と、その同心円の中心から伸びた同心円と垂直な棒とを備えた校正撮影用の参照物体で構成され、
前記参照点抽出手段は、校正対象の画像入力装置を使って取得したその被写体の画像において画像座標系を設定し、前記垂直棒上の任意の点と同心円の中心、並びに同心円中心を通過する所定の直線と同心円が交差する点を参照点として、校正対象の画像入力装置を使ってその参照物体を撮影し、取得した画像において所定の2次元座標系を設定し、垂直棒上の任意の点と同心円の中心、並びに同心円中心を通過する所定の直線と同心円が交差する点の2次元座標値を抽出する、
ことを特徴とする請求項1に記載のカメラ校正装置。
The reference object is composed of a reference object for calibration photography including a disk that forms a plurality of circles centered on a reference point on a certain base, and a bar perpendicular to a concentric circle extending from the center of the concentric circle,
The reference point extraction unit sets an image coordinate system in the image of the subject acquired using the image input device to be calibrated, and passes through the center of the concentric circle and the center of the concentric circle with an arbitrary point on the vertical bar. Using the image input device to be calibrated as a reference point at the point where the straight line and the concentric circle intersect, the reference object is photographed, a predetermined two-dimensional coordinate system is set in the acquired image, and an arbitrary point on the vertical bar 2D coordinate values of the center of the concentric circle and the point where the concentric circle intersects with a predetermined straight line passing through the center of the concentric circle,
The camera calibration apparatus according to claim 1.
前記カメラ構成計算手段は、前記校正計算によって得た画像入力装置の内部情報または外部情報から校正外部情報を求め、該校正外部情報から評価外部情報を再算出し、前記校正外部情報と評価外部情報の誤差が所定の誤差より大きい場合には、評価外部情報を校正外部情報に置換して、画像入力装置の内部情報または所定の外部情報以外の外部情報を再計算し、校正外部情報と評価外部情報の間の誤差が所定の誤差より小さくなるまで、前記校正計算を反復する、
ことを特徴とする請求項1ないし3のいずれか1項に記載のカメラ校正装置。
The camera configuration calculation means obtains calibration external information from internal information or external information of the image input device obtained by the calibration calculation, recalculates evaluation external information from the calibration external information, and the calibration external information and evaluation external information If the error is larger than the predetermined error, replace the evaluation external information with the calibration external information and recalculate the internal information of the image input device or external information other than the predetermined external information. Repeating the calibration calculation until the error between the information is less than a predetermined error,
The camera calibration apparatus according to claim 1, wherein the camera calibration apparatus is provided.
単眼または複数の画像入力装置を使って取得した画像から、その画像入力装置の内部情報と姿勢および位置を含む外部情報を校正する方法であって、
参照点抽出手段が、校正対象の画像入力装置を使って参照点の幾何情報が既知である参照物体を撮影して取得した画像において所定の2次元座標系を設定し、用意された参照点の2次元座標値を抽出する参照点抽出ステップと、
参照物体調整手段が、前記参照点抽出ステップにおいて得られた参照点の中で、一部の参照点が特定の幾何拘束条件を満足するまで参照物体の姿勢または位置を調整する参照物体調整ステップと、
カメラ校正計算手段が、前記参照物体調整ステップによって調整された参照物体に対して、参照物体上の全ての参照点の3次元点が画像上の2次元座標系へ射影するときの透視投影条件から導出された計算に従って、参照点の幾何情報と2次元座標上で得た参照点の座標値から、前記画像入力装置の内部情報または外部情報を校正するカメラ校正計算ステップと、
を備えることを特徴とするカメラ校正方法。
A method of calibrating external information including internal information and posture and position of an image input device from an image acquired using a single eye or a plurality of image input devices,
The reference point extraction unit sets a predetermined two-dimensional coordinate system in an image acquired by photographing a reference object whose reference point geometric information is known using an image input device to be calibrated, and A reference point extracting step for extracting a two-dimensional coordinate value;
A reference object adjusting step in which a reference object adjusting means adjusts the posture or position of the reference object until some of the reference points satisfy a specific geometric constraint condition among the reference points obtained in the reference point extracting step; ,
From the perspective projection conditions when the camera calibration calculation means projects the three-dimensional points of all the reference points on the reference object to the two-dimensional coordinate system on the image with respect to the reference object adjusted in the reference object adjusting step. A camera calibration calculation step for calibrating internal information or external information of the image input device from the geometric information of the reference point and the coordinate value of the reference point obtained on the two-dimensional coordinates in accordance with the derived calculation;
A camera calibration method comprising:
前記参照物体は、互いに直交する垂直棒および水平棒を備えた校正撮影用の参照物体で構成され、
前記参照点抽出ステップは、校正対象の画像入力装置を使って取得したその被写体の画像において画像座標系を設定し、前記垂直棒上の任意の点と直交する位置の点、並びに前記水平棒上の任意の点を参照点として、校正対象の画像入力装置を使ってその参照物体を撮影し、取得した画像において所定の2次元座標系を設定し、垂直棒上の任意の点と直交する位置の点、並びに水平棒上の任意の点の2次元座標値を抽出し、
前記参照物体調整ステップは、前記参照点抽出ステップにおいて得られた参照点の中で、前記水平棒上の参照点が特定の幾何拘束条件を満足するまで、前記垂直棒と一体となって垂直棒を軸として水平棒を回転させる、
ことを特徴とする請求項5に記載のカメラ校正方法。
The reference object is composed of a reference object for calibration photography including a vertical bar and a horizontal bar orthogonal to each other,
In the reference point extraction step, an image coordinate system is set in the image of the subject acquired using the image input device to be calibrated, a point at a position orthogonal to an arbitrary point on the vertical bar, and the horizontal bar The reference object is taken as a reference point, the reference object is photographed using the image input device to be calibrated, a predetermined two-dimensional coordinate system is set in the acquired image, and a position orthogonal to the arbitrary point on the vertical bar And 2D coordinate values of any point on the horizontal bar,
In the reference object adjustment step, the vertical bar integrated with the vertical bar until the reference point on the horizontal bar satisfies a specific geometric constraint condition among the reference points obtained in the reference point extraction step. Rotate the horizontal bar around the axis,
The camera calibration method according to claim 5.
前記参照物体は、ある土台上の基準点を中心とした複数の円を構成する円盤と、その同心円の中心から伸びた同心円と垂直な棒とを備えた校正撮影用の参照物体で構成され、
前記参照点抽出ステップは、校正対象の画像入力装置を使って取得したその被写体の画像において画像座標系を設定し、前記垂直棒上の任意の点と同心円の中心、並びに同心円中心を通過する所定の直線と同心円が交差する点を参照点として、校正対象の画像入力装置を使ってその参照物体を撮影し、取得した画像において所定の2次元座標系を設定し、垂直棒上の任意の点と同心円の中心、並びに同心円中心を通過する所定の直線と同心円が交差する点の2次元座標値を抽出する、
ことを特徴とする請求項5に記載のカメラ校正方法。
The reference object is composed of a reference object for calibration photography including a disk that forms a plurality of circles centered on a reference point on a certain base, and a bar perpendicular to a concentric circle extending from the center of the concentric circle,
In the reference point extraction step, an image coordinate system is set in the image of the subject acquired using the image input device to be calibrated, and a predetermined point that passes through the center of the concentric circle with the arbitrary point on the vertical bar and the center of the concentric circle. Using the image input device to be calibrated as a reference point at the point where the straight line and the concentric circle intersect, the reference object is photographed, a predetermined two-dimensional coordinate system is set in the acquired image, and an arbitrary point on the vertical bar 2D coordinate values of the center of the concentric circle and the point where the concentric circle intersects with a predetermined straight line passing through the center of the concentric circle,
The camera calibration method according to claim 5.
前記カメラ構成計算ステップは、前記校正計算によって得た画像入力装置の内部情報または外部情報から校正外部情報を求め、該校正外部情報から評価外部情報を再算出し、前記校正外部情報と評価外部情報の誤差が所定の誤差より大きい場合には、評価外部情報を校正外部情報に置換して、画像入力装置の内部情報または所定の外部情報以外の外部情報を再計算し、校正外部情報と評価外部情報の間の誤差が所定の誤差より小さくなるまで、前記校正計算を反復する、
ことを特徴とする請求項5ないし7のいずれか1項に記載のカメラ校正方法。
The camera configuration calculation step obtains calibration external information from internal information or external information of the image input device obtained by the calibration calculation, recalculates evaluation external information from the calibration external information, and the calibration external information and evaluation external information. If the error is larger than the predetermined error, replace the evaluation external information with the calibration external information and recalculate the internal information of the image input device or external information other than the predetermined external information. Repeating the calibration calculation until the error between the information is less than a predetermined error,
The camera calibration method according to claim 5, wherein the camera calibration method is performed.
コンピュータに請求項5ないし8のいずれか1項に記載の各ステップを実行させるカメラ校正プログラム。   A camera calibration program for causing a computer to execute each step according to any one of claims 5 to 8. 請求項9に記載のカメラ校正プログラムを記録したコンピュータ読み取り可能な記録媒体。   A computer-readable recording medium in which the camera calibration program according to claim 9 is recorded.
JP2009029084A 2009-02-10 2009-02-10 Camera calibration apparatus, camera calibration method, camera calibration program, and recording medium recording the program Expired - Fee Related JP4948552B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009029084A JP4948552B2 (en) 2009-02-10 2009-02-10 Camera calibration apparatus, camera calibration method, camera calibration program, and recording medium recording the program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009029084A JP4948552B2 (en) 2009-02-10 2009-02-10 Camera calibration apparatus, camera calibration method, camera calibration program, and recording medium recording the program

Publications (2)

Publication Number Publication Date
JP2010186265A true JP2010186265A (en) 2010-08-26
JP4948552B2 JP4948552B2 (en) 2012-06-06

Family

ID=42766898

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009029084A Expired - Fee Related JP4948552B2 (en) 2009-02-10 2009-02-10 Camera calibration apparatus, camera calibration method, camera calibration program, and recording medium recording the program

Country Status (1)

Country Link
JP (1) JP4948552B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010287074A (en) * 2009-06-12 2010-12-24 Nippon Telegr & Teleph Corp <Ntt> Camera calibration device, camera calibration method, camera calibration program and recording medium recording the program
JP2011013121A (en) * 2009-07-02 2011-01-20 Sobal Kk Three-dimensional shape measuring apparatus and three-dimensional shape measurement method
JP2012027000A (en) * 2010-06-22 2012-02-09 Itt:Kk Image measurement processor, image measurement processing method and image measurement processing program by single camera
JP2012202694A (en) * 2011-03-23 2012-10-22 Canon Inc Camera calibration method
JP2014085351A (en) * 2012-10-23 2014-05-12 Electronics And Telecommunications Research Institute Depth image correction device and method based on relation between depth sensor and image capturing camera
CN110084861A (en) * 2019-06-03 2019-08-02 易思维(杭州)科技有限公司 A kind of scaling method of polyphaser visual detection equipment
WO2020101447A1 (en) * 2018-11-16 2020-05-22 (주)리플레이 Camera calibration method for multi-view photographing, and device therefor
CN112418086A (en) * 2020-11-23 2021-02-26 浙江大华技术股份有限公司 Rule box correction method and device, electronic equipment and storage medium
CN113487677A (en) * 2021-06-07 2021-10-08 电子科技大学长三角研究院(衢州) Outdoor medium and long distance scene calibration method of multiple PTZ cameras based on any distributed configuration

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009253715A (en) * 2008-04-08 2009-10-29 Nippon Telegr & Teleph Corp <Ntt> Camera calibrating device, camera calibrating method, camera calibrating program, and recording medium for recording the program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009253715A (en) * 2008-04-08 2009-10-29 Nippon Telegr & Teleph Corp <Ntt> Camera calibrating device, camera calibrating method, camera calibrating program, and recording medium for recording the program

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010287074A (en) * 2009-06-12 2010-12-24 Nippon Telegr & Teleph Corp <Ntt> Camera calibration device, camera calibration method, camera calibration program and recording medium recording the program
JP2011013121A (en) * 2009-07-02 2011-01-20 Sobal Kk Three-dimensional shape measuring apparatus and three-dimensional shape measurement method
JP2012027000A (en) * 2010-06-22 2012-02-09 Itt:Kk Image measurement processor, image measurement processing method and image measurement processing program by single camera
JP2012202694A (en) * 2011-03-23 2012-10-22 Canon Inc Camera calibration method
JP2014085351A (en) * 2012-10-23 2014-05-12 Electronics And Telecommunications Research Institute Depth image correction device and method based on relation between depth sensor and image capturing camera
WO2020101447A1 (en) * 2018-11-16 2020-05-22 (주)리플레이 Camera calibration method for multi-view photographing, and device therefor
CN110084861A (en) * 2019-06-03 2019-08-02 易思维(杭州)科技有限公司 A kind of scaling method of polyphaser visual detection equipment
CN110084861B (en) * 2019-06-03 2023-09-15 易思维(杭州)科技有限公司 Calibration method of multi-camera visual inspection equipment
CN112418086A (en) * 2020-11-23 2021-02-26 浙江大华技术股份有限公司 Rule box correction method and device, electronic equipment and storage medium
CN113487677A (en) * 2021-06-07 2021-10-08 电子科技大学长三角研究院(衢州) Outdoor medium and long distance scene calibration method of multiple PTZ cameras based on any distributed configuration
CN113487677B (en) * 2021-06-07 2024-04-12 电子科技大学长三角研究院(衢州) Outdoor medium-long distance scene calibration method based on multi-PTZ camera with random distributed configuration

Also Published As

Publication number Publication date
JP4948552B2 (en) 2012-06-06

Similar Documents

Publication Publication Date Title
JP4948552B2 (en) Camera calibration apparatus, camera calibration method, camera calibration program, and recording medium recording the program
JP6859442B2 (en) Calibration equipment, calibration system, and calibration method
CN110809786B (en) Calibration device, calibration chart, chart pattern generation device, and calibration method
TWI555379B (en) An image calibrating, composing and depth rebuilding method of a panoramic fish-eye camera and a system thereof
JP5392415B2 (en) Stereo image generation apparatus, stereo image generation method, and computer program for stereo image generation
JP5739409B2 (en) Method for determining the relative position of a first image device and a second image device and these devices
JP6622503B2 (en) Camera model parameter estimation apparatus and program thereof
CN107155341B (en) Three-dimensional scanning system and frame
JP7218435B2 (en) CALIBRATION DEVICE, CALIBRATION CHART AND CALIBRATION METHOD
JPH09170914A (en) Method and apparatus for measurement with image
KR20160116075A (en) Image processing apparatus having a function for automatically correcting image acquired from the camera and method therefor
JP5111447B2 (en) Camera calibration apparatus, camera calibration method, camera calibration program, and recording medium recording the program
JP2009017480A (en) Camera calibration device and program thereof
CN108195472B (en) Heat conduction panoramic imaging method based on track mobile robot
JP2015219679A (en) Image processing system, information processing device, and program
JP6641729B2 (en) Line sensor camera calibration apparatus and method
WO2020208686A1 (en) Camera calibration device, camera calibration method, and non-transitory computer-readable medium having program stored thereon
US10929706B2 (en) Image processing device and projection system
JP2012185772A (en) Method and program for enhancing accuracy of composited picture quality of free viewpoint picture using non-fixed zoom camera
KR20170130150A (en) Camera rig method for acquiring 3d data, camera rig system performing the same, and storage medium storing the same
JP2013036831A (en) Calibration apparatus and distortion error calculation method
JP4764896B2 (en) Camera calibration apparatus, camera calibration method, camera calibration program, and recording medium recording the program
JPWO2018167918A1 (en) Projector, mapping data creation method, program, and projection mapping system
JP5235842B2 (en) Optical system parameter calibration apparatus, optical system parameter calibration method, program, and recording medium
JP5410328B2 (en) Optical projection stabilization device, optical projection stabilization method, and program

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20100616

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20100615

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111013

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A132

Effective date: 20111025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120228

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120306

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150316

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4948552

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees