JP2005308641A - Camera calibration apparatus and method - Google Patents

Camera calibration apparatus and method Download PDF

Info

Publication number
JP2005308641A
JP2005308641A JP2004128502A JP2004128502A JP2005308641A JP 2005308641 A JP2005308641 A JP 2005308641A JP 2004128502 A JP2004128502 A JP 2004128502A JP 2004128502 A JP2004128502 A JP 2004128502A JP 2005308641 A JP2005308641 A JP 2005308641A
Authority
JP
Japan
Prior art keywords
coordinate system
common
camera
stereo
position data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004128502A
Other languages
Japanese (ja)
Other versions
JP3849030B2 (en
Inventor
Yasuyuki Nakamura
恭之 中村
Toshikazu Wada
俊和 和田
Takeo Iizuka
健男 飯塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wakayama University
Original Assignee
Wakayama University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wakayama University filed Critical Wakayama University
Priority to JP2004128502A priority Critical patent/JP3849030B2/en
Publication of JP2005308641A publication Critical patent/JP2005308641A/en
Application granted granted Critical
Publication of JP3849030B2 publication Critical patent/JP3849030B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a camera calibration apparatus having a simple structure and a method which do not require points of measurements of which the three-dimensional positions are known, the correspondence between the points of measurement, or synchronization between cameras when images are acquired. <P>SOLUTION: A plurality of items of position data in the locus of movement of an object moving within a range of measurement common for a plurality of stereoscopic cameras 4 and 5 are measured in coordinate systems centered at the stereoscopic cameras 4 and 5. Since the coordinate systems of the stereoscopic cameras 4 and 5 are arranged differently, the plurality of items of position data, measured in this way by the stereoscopic cameras 4 and 5, are numerically different from each other, but their shapes of distribution are identical. For converting the state of distribution of the position data into a numerical form, principal component analysis is performed on the position data to constitute a coordinate system common for the stereoscopic cameras and estimate the relative arrangement of the coordinate systems of the stereoscopic cameras 4 and 5 via the common coordinate system. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、画像取得に用いるカメラの種々の特性及びパラメータを求めるカメラキャリブレーション装置及び方法に関する。   The present invention relates to a camera calibration apparatus and method for obtaining various characteristics and parameters of a camera used for image acquisition.

カメラキャリブレーションには、レンズによって生じる光学的な歪を推定する作業、焦点距離、画像中心等のカメラ固有のパラメータを推定する作業、及びカメラの位置・姿勢を表すパラメータを推定する作業がある。   Camera calibration includes an operation of estimating optical distortion caused by a lens, an operation of estimating camera-specific parameters such as a focal length and an image center, and an operation of estimating parameters representing the position and orientation of the camera.

従来、カメラの位置・姿勢を表すパラメータ、すなわち、並進ベクトル及び回転行列を推定するに際し、3次元形状が既知のキャリブレーション物体を用いている(例えば、非特許文献1,2参照)   Conventionally, a calibration object with a known three-dimensional shape is used in estimating parameters representing the position and orientation of a camera, that is, a translation vector and a rotation matrix (for example, see Non-Patent Documents 1 and 2).

図1は、従来のカメラキャリブレーション装置における並進ベクトル及び回転行列の推定原理を説明するための図である。図1では、複数のステレオカメラの共通視野内において、3次元位置が既知であるキャリブレーション物体1の4個の計測点o,p,p,pを与える。なお、点oと点p、点oと点p及び点oと点pで構成される三つのベクトルは互いに直交しているものとする。なお、図1及び後に説明する図2において、iは、1以上の自然数を表すものとし、jは、iより大きい自然数を表すものとする。 FIG. 1 is a diagram for explaining an estimation principle of a translation vector and a rotation matrix in a conventional camera calibration apparatus. In FIG. 1, four measurement points o, p 1 , p 2 , and p 3 of the calibration object 1 whose three-dimensional positions are known are provided within a common visual field of a plurality of stereo cameras. It is assumed that the three vectors constituted by the point o and the point p 1 , the point o and the point p 2, and the point o and the point p 3 are orthogonal to each other. In FIG. 1 and FIG. 2 to be described later, i represents a natural number of 1 or more, and j represents a natural number larger than i.

4個の計測点o,p,p,pの3次元位置を、それぞれのステレオカメラ中心の座標系のおいて計測し、第i番目のステレオカメラ2で計測したこれら4個の計測点を

Figure 2005308641

と表す。これらの点は、
Figure 2005308641

とする3次元座標値を有するものとする。 The four measurement points o, p 1 , p 2 , and p 3 measured at the coordinate system at the center of each stereo camera and measured by the i-th stereo camera 2. Dot
Figure 2005308641

It expresses. These points
Figure 2005308641

And having a three-dimensional coordinate value.

この場合、各カメラで計測された点同士の対応をとる必要がある。すなわち、従来の手法では、点

Figure 2005308641

と点
Figure 2005308641

及び点
Figure 2005308641

と点
Figure 2005308641

が3次元空間内の同一の点であるという情報が必要となる。これらの情報を基にして、これら4点から構成される三つのベクトルを
Figure 2005308641

と表すものとする。 In this case, it is necessary to take correspondence between points measured by each camera. That is, with the conventional method,
Figure 2005308641

And point
Figure 2005308641

And points
Figure 2005308641

And point
Figure 2005308641

Is required to be the same point in the three-dimensional space. Based on these information, three vectors composed of these four points are
Figure 2005308641

It shall be expressed as

ここで

Figure 2005308641


Figure 2005308641

はそれぞれ、第i番目のステレオカメラ2の座標系ΣSiから共有座標系Σへの回転行列及び並進ベクトルを表すものとする。これらの回転行列及び並進ベクトルは、上記4点の情報を用いて次のように表すことができる。
Figure 2005308641
here
Figure 2005308641

When
Figure 2005308641

Respectively shall be the i-th coordinate system sigma Si of the stereo camera 2 represents the rotation matrix and the translation vector to the shared coordinate system sigma W. These rotation matrices and translation vectors can be expressed as follows using the information of the above four points.
Figure 2005308641

これらの関係を用いて、第i番目のステレオカメラ2の座標系ΣSiから第j番目のステレオカメラ3の座標系ΣSjへの回転行列

Figure 2005308641


Figure 2005308641

はそれぞれ次のように表すことができる。
Figure 2005308641

このようにして、2個のステレオカメラ2,3の座標系間の相対位置を表す回転行列及び並進ベクトルを求めることができるようになる。
高橋裕信等 「ロボットビジョンのためのカメラキャリブレーション」、日本ロボット学会誌 Vol. 10, No. 2, pp.177~pp. 184, 1992 R. Tsai. A versatile camera calibration technique for high accuracy 3D machine vision metrology using off-the-shelf TV cameras and lenses, IEEE Journal of Robotics and Automation, Vol. 3, No. 4, pp.323-344, 1987 Using these relationships, the i-th rotation matrix from the coordinate system sigma Si of the stereo camera 2 to the j-th of the stereo camera 3 in the coordinate system sigma Sj
Figure 2005308641

When
Figure 2005308641

Can be expressed as follows.
Figure 2005308641

In this way, a rotation matrix and a translation vector representing the relative positions between the coordinate systems of the two stereo cameras 2 and 3 can be obtained.
Hironobu Takahashi et al. “Camera Calibration for Robot Vision”, Journal of the Robotics Society of Japan Vol. 10, No. 2, pp.177-pp. 184, 1992 R. Tsai.A versatile camera calibration technique for high accuracy 3D machine vision metrology using off-the-shelf TV cameras and lenses, IEEE Journal of Robotics and Automation, Vol. 3, No. 4, pp.323-344, 1987

しかしながら、従来のカメラキャリブレーション装置における並進ベクトル及び回転行列の推定する際には、共通座標系を構築するために、3次元位置が既知の計測点及びこれら計測点の対応を与える必要がある。また、複数のカメラ間の相対的配置を推定するためには、カメラ間で画像取得する際に同期をとる必要がある。   However, when the translation vector and the rotation matrix are estimated in the conventional camera calibration apparatus, it is necessary to provide a measurement point whose three-dimensional position is known and a correspondence between these measurement points in order to construct a common coordinate system. In order to estimate the relative arrangement between a plurality of cameras, it is necessary to synchronize when acquiring images between the cameras.

本発明の目的は、3次元位置が既知の計測点及びこれら計測点の対応を与える必要並びにカメラ間で画像取得する際に同期をとる必要のない、簡単な構成のカメラキャリブレーション装置及び方法を提供することである。   SUMMARY OF THE INVENTION An object of the present invention is to provide a camera calibration apparatus and method having a simple configuration that does not need to provide measurement points with known three-dimensional positions, correspondence between these measurement points, and synchronization when acquiring images between cameras. Is to provide.

本発明によるカメラキャリブレーション装置は、
共通の計測範囲を有するように配置された複数のステレオカメラのカメラキャリブレーション装置であって、
前記共通の計測範囲で運動する物体の移動軌跡中の複数の位置データを、前記ステレオカメラの中心の座標系でそれぞれ計測する手段と、
これら位置データを主成分分析して、前記ステレオカメラに共通の座標系を構成し、この共通の座標系を経由して前記ステレオカメラの座標系間の相対的配置を推定する手段とを具えることを特徴とする。
The camera calibration device according to the present invention comprises:
A camera calibration device for a plurality of stereo cameras arranged to have a common measurement range,
Means for measuring a plurality of position data in a movement trajectory of an object moving in the common measurement range in a coordinate system of the center of the stereo camera;
The position data is subjected to principal component analysis to form a common coordinate system for the stereo cameras, and a means for estimating a relative arrangement between the coordinate systems of the stereo cameras via the common coordinate system is provided. It is characterized by that.

本発明によるカメラキャリブレーション方法は、
共通の計測範囲を有するように配置された複数のステレオカメラのカメラキャリブレーション方法であって、
前記共通の計測範囲で運動する物体の移動軌跡中の複数の位置データを、前記ステレオカメラの中心の座標系でそれぞれ計測するステップと、
これら位置データを主成分分析して、前記ステレオカメラに共通の座標系を構成し、この共通の座標系を経由して前記ステレオカメラの座標系間の相対的配置を推定するステップとを具えることを特徴とする。
The camera calibration method according to the present invention includes:
A method for calibrating a plurality of stereo cameras arranged to have a common measurement range,
Measuring a plurality of position data in a movement trajectory of an object moving in the common measurement range in a coordinate system of the center of the stereo camera; and
Analyzing the position data to form a coordinate system common to the stereo cameras, and estimating a relative arrangement between the coordinate systems of the stereo cameras via the common coordinate system. It is characterized by that.

本発明によれば、共通の計測範囲を有するように配置された複数のステレオカメラのカメラキャリブレーションを行うに際し、共通の計測範囲で運動する物体の移動軌跡中の複数の位置データを、ステレオカメラの中心の座標系でそれぞれ計測する。   According to the present invention, when performing camera calibration of a plurality of stereo cameras arranged so as to have a common measurement range, a plurality of position data in the movement trajectory of an object moving in the common measurement range is converted into a stereo camera. Measure each in the center coordinate system.

このようにして計測されたステレオカメラごとの位置データは、ステレオカメラの座標系の配置が互いに相違するために数値的には互いに相違するが、分布の形状は同一である。したがって、位置データの分布の様子を数値化するために、位置データを主成分分析して、ステレオカメラに共通の座標系を構成し、共通の座標系を経由してステレオカメラの座標系間の相対的配置を推定することによって、並進ベクトル及び回転行列を推定することができる。   The position data for each stereo camera thus measured is numerically different because the arrangement of the coordinate system of the stereo camera is different from each other, but the distribution shape is the same. Therefore, in order to quantify the distribution of position data, the position data is principally analyzed to form a common coordinate system for the stereo cameras, and between the stereo camera coordinate systems via the common coordinate system. By estimating the relative placement, translation vectors and rotation matrices can be estimated.

その結果、3次元位置が既知の計測点及びこれら計測点の対応を与える必要並びにカメラ間で画像取得する際に同期をとる必要がなくなり、カメラキャリブレーションを簡単な構成で行うことができるようになる。   As a result, it is no longer necessary to provide measurement points whose three-dimensional positions are known, correspondence between these measurement points, and synchronization when acquiring images between cameras, and camera calibration can be performed with a simple configuration. Become.

本発明によるカメラキャリブレーション装置及び方法の実施の形態を、図面を参照して詳細に説明する。
図2は、本発明によるカメラキャリブレーション装置における並進ベクトル及び回転行列の推定原理を説明するための図である。本発明は、複数のステレオカメラの主成分分析に基づくキャリブレーションによってステレオカメラ間の相対的な位置関係を推定するものである。
Embodiments of a camera calibration apparatus and method according to the present invention will be described in detail with reference to the drawings.
FIG. 2 is a diagram for explaining the principle of translation vector and rotation matrix estimation in the camera calibration apparatus according to the present invention. The present invention estimates the relative positional relationship between stereo cameras by calibration based on principal component analysis of a plurality of stereo cameras.

既に説明したように、複数のステレオカメラの共通視野内で環境内に固定された座標系ができれば、ステレオカメラ間の相対的な位置関係を推定することができる。したがって、共通視野内において計測対象の点を運動させ、それぞれのステレオカメラ中心の座標系において、運動中の点の3次元位置を計測する。ステレオカメラを用いることによって、計測点の3次元位置を取得することができる。   As described above, if a coordinate system fixed in the environment within the common field of view of a plurality of stereo cameras is created, the relative positional relationship between the stereo cameras can be estimated. Therefore, the point to be measured is moved within the common visual field, and the three-dimensional position of the moving point is measured in the coordinate system of each stereo camera. By using a stereo camera, the three-dimensional position of the measurement point can be acquired.

計測された点の3次元位置のデータが、第i番目のステレオカメラ4に関してN個取得できたとする。ここで、これらN個の点を

Figure 2005308641

と表すことにし、
Figure 2005308641

とする3次元座標値を有するものとする。この際、ステレオカメラの各々で計測された点同士の対応をとる必要がない。すなわち、点
Figure 2005308641


Figure 2005308641

とは、3次元空間内の同一の点であるという条件を満足する必要がない。 It is assumed that N i pieces of data of the three-dimensional positions of the measured points have been acquired for the i-th stereo camera 4. Where these N i points are
Figure 2005308641

And
Figure 2005308641

And having a three-dimensional coordinate value. At this time, it is not necessary to take correspondence between points measured by each stereo camera. That is, the point
Figure 2005308641

When
Figure 2005308641

Does not have to satisfy the condition that they are the same point in the three-dimensional space.

それぞれのステレオカメラの座標系におけるN個の3次元座標データを主成分分析する。すなわち、N個の3次元座標データの共分散行列Cを計算し、共分散行列を固有値分解する。固有値分解の結果得られる固有ベクトルを、

Figure 2005308641

とする。固有ベクトルの性質から、これら三つの固有ベクトルは互いに直交している。また、共分散行列を求めるときに、既に求められている平均値ベクトルを
Figure 2005308641

とする。ここで、以下のような関係が成立する。
Figure 2005308641
The N i number of 3-dimensional coordinate data in the coordinate system of each of the stereo camera principal component analysis. That is, the covariance matrix C i of N i three-dimensional coordinate data is calculated, and the covariance matrix is subjected to eigenvalue decomposition. The eigenvector obtained as a result of eigenvalue decomposition is
Figure 2005308641

And Due to the nature of the eigenvectors, these three eigenvectors are orthogonal to each other. In addition, when calculating the covariance matrix, the average value vector already determined is
Figure 2005308641

And Here, the following relationship is established.
Figure 2005308641

このようにして求められる、各ステレオカメラの座標系に関する平均値ベクトルの示す3次元空間中の位置及び3個の固有ベクトルが表す3次元空間内での方向は、実際には全て同一のものを表している。このことは、各ステレオカメラの座標系からある一つの座標系(「共有座標系」と称する。)を観測していることに相当し、この共有座標系を経由してステレオカメラの座標系間の相対的な配置を推定することができる。   The position in the three-dimensional space indicated by the average value vector related to the coordinate system of each stereo camera and the direction in the three-dimensional space represented by the three eigenvectors are actually all the same. ing. This corresponds to observing one coordinate system (referred to as a “shared coordinate system”) from the coordinate system of each stereo camera, and between the coordinate systems of the stereo camera via this shared coordinate system. Can be estimated.

ここで、

Figure 2005308641


Figure 2005308641

はそれぞれ、第i番目のステレオカメラ4の座標系ΣSiから共有座標系Σへの回転行列及び並進ベクトルを表すものとする。これら回転行列及び並進ベクトルは、上記固有ベクトル及び平均値ベクトルを用いて以下のように表すことができる。
Figure 2005308641
here,
Figure 2005308641

When
Figure 2005308641

Respectively shall be the coordinate system sigma Si of the i-th of the stereo camera 4 represents the rotation matrix and the translation vector to the shared coordinate system sigma E. These rotation matrix and translation vector can be expressed as follows using the above eigenvectors and average vector.
Figure 2005308641

これらの関係を用いて、第i番目のステレオカメラ4の座標系ΣSiから第j番目のステレオカメラ5の座標系ΣSjへの回転行列

Figure 2005308641

と並進ベクトル
Figure 2005308641

はそれぞれ、以下のように表すことができる。
Figure 2005308641

このようにして、二つのステレオカメラ4,5の座標系間の相対的配置を表す回転行列及び並進ベクトルを求めることができる。 Using these relationships, the rotation matrix from the coordinate system sigma Si of the i-th of the stereo camera 4 to the coordinate system sigma Sj of the j-th of the stereo camera 5
Figure 2005308641

And translation vector
Figure 2005308641

Each can be expressed as:
Figure 2005308641

In this way, a rotation matrix and a translation vector representing the relative arrangement between the coordinate systems of the two stereo cameras 4 and 5 can be obtained.

次に、2個のステレオカメラ(以下、「ステレオカメラa」及び「ステレオカメラb」と称する。)の共通視野内で、任意に動かした色のついた計測点の移動軌跡をステレオカメラごとに記録した実験の結果を説明する。図3は、ステレオカメラaにおける移動軌跡を示す図であり、図4は、ステレオカメラbにおける移動軌跡を示す図である。この実験において、ステレオカメラaでは100個の移動軌跡データが取得され、ステレオカメラbでは76個の移動軌跡データが取得された。これら移動軌跡データから、図2を用いて説明した計算手法によって、ステレオカメラaとステレオカメラbとの間の相対的な配置を表す回転行列及び並進ベクトルを求める。   Next, for each stereo camera, the movement locus of the colored measurement points that are arbitrarily moved within the common field of view of the two stereo cameras (hereinafter referred to as “stereo camera a” and “stereo camera b”). Explain the results of the recorded experiment. FIG. 3 is a diagram showing a movement locus in the stereo camera a, and FIG. 4 is a diagram showing a movement locus in the stereo camera b. In this experiment, 100 movement trajectory data were acquired with the stereo camera a, and 76 movement trajectory data were acquired with the stereo camera b. From these movement trajectory data, a rotation matrix and a translation vector representing a relative arrangement between the stereo camera a and the stereo camera b are obtained by the calculation method described with reference to FIG.

求められた回転行列及び並進ベクトルによって推定されたステレオカメラa及びステレオカメラbの相対的な配置を、図5に示す。また、求められた回転行列及び並進ベクトルを評価するために、共通視野内において、計測点を四つの場所1〜4でステレオカメラa及びステレオカメラbを用いて計測し、ステレオカメラbで計測された移動軌跡データをステレオカメラaの座標系に関する移動軌跡データに変換して、変換された移動軌跡データとステレオカメラaで計測された移動軌跡データとが一致するか否かを確かめた。なお、計測点の計測を100回行い、その平均値を計測点の3次元位置とした。表1は、ステレオカメラaでの計測位置及び座標変換後のステレオカメラbの計測位置を示す。

Figure 2005308641

表1に示すように、変換された移動軌跡データとステレオカメラaで計測された移動軌跡データとがほぼ一致していることがわかる。 FIG. 5 shows a relative arrangement of the stereo cameras a and b estimated by the obtained rotation matrix and translation vector. Further, in order to evaluate the obtained rotation matrix and translation vector, the measurement points are measured using the stereo camera a and the stereo camera b at the four places 1 to 4 in the common visual field, and measured by the stereo camera b. The obtained movement locus data is converted into movement locus data relating to the coordinate system of the stereo camera a, and it is confirmed whether or not the converted movement locus data matches the movement locus data measured by the stereo camera a. The measurement point was measured 100 times, and the average value was taken as the three-dimensional position of the measurement point. Table 1 shows the measurement position of the stereo camera a and the measurement position of the stereo camera b after coordinate conversion.
Figure 2005308641

As shown in Table 1, it can be seen that the converted movement trajectory data and the movement trajectory data measured by the stereo camera a substantially coincide.

本実施の形態によれば、3次元位置が既知の計測点及びこれら計測点の対応を与える必要並びにカメラ間で画像取得する際に同期をとる必要がないので、カメラキャリブレーションを簡単な構成で行うことができる。   According to the present embodiment, since it is not necessary to provide measurement points whose three-dimensional positions are known, correspondence between these measurement points, and synchronization when acquiring images between cameras, camera calibration can be performed with a simple configuration. It can be carried out.

本発明は、上記実施の形態に限定されるものではなく、幾多の変更及び変形が可能である。
例えば、上記実施の形態において、3次元座標系として直交座標系で計測する場合について説明したが、極座標系で計測する場合についても本発明を適用することができる。
The present invention is not limited to the above-described embodiment, and many changes and modifications can be made.
For example, in the above embodiment, the case where measurement is performed using an orthogonal coordinate system as a three-dimensional coordinate system has been described, but the present invention can also be applied to the case where measurement is performed using a polar coordinate system.

本発明を、様々な情報システムで用いられる非接触3次元位置計測装置、生物の行動計測装置、ヒューマンインタフェース装置等の分野に応用することができる。   The present invention can be applied to fields such as a non-contact three-dimensional position measurement device, a biological behavior measurement device, and a human interface device used in various information systems.

従来のカメラキャリブレーション装置における並進ベクトル及び回転行列の推定原理を説明するための図である。It is a figure for demonstrating the estimation principle of the translation vector and rotation matrix in the conventional camera calibration apparatus. 本発明によるカメラキャリブレーション装置における並進ベクトル及び回転行列の推定原理を説明するための図である。It is a figure for demonstrating the estimation principle of the translation vector and rotation matrix in the camera calibration apparatus by this invention. ステレオカメラaにおける移動軌跡を示す図である。It is a figure which shows the movement locus | trajectory in the stereo camera a. ステレオカメラbにおける移動軌跡を示す図である。It is a figure which shows the movement locus | trajectory in the stereo camera b. 求められた回転行列及び並進ベクトルによって推定されたステレオカメラa及びステレオカメラbの相対的な配置を示す。The relative arrangement | positioning of the stereo camera a and the stereo camera b estimated by the calculated | required rotation matrix and translation vector is shown.

符号の説明Explanation of symbols

1 キャリブレーション物体
2,3,4,5 ステレオカメラ
1 Calibration object 2, 3, 4, 5 Stereo camera

Claims (2)

共通の計測範囲を有するように配置された複数のステレオカメラのカメラキャリブレーション装置であって、
前記共通の計測範囲で運動する物体の移動軌跡中の複数の位置データを、前記ステレオカメラの中心の座標系でそれぞれ計測する手段と、
これら位置データを主成分分析して、前記ステレオカメラに共通の座標系を構成し、この共通の座標系を経由して前記ステレオカメラの座標系間の相対的配置を推定する手段とを具えることを特徴とするカメラキャリブレーション装置。
A camera calibration device for a plurality of stereo cameras arranged to have a common measurement range,
Means for measuring a plurality of position data in a movement trajectory of an object moving in the common measurement range in a coordinate system of the center of the stereo camera;
The position data is subjected to principal component analysis to form a common coordinate system for the stereo cameras, and a means for estimating a relative arrangement between the coordinate systems of the stereo cameras via the common coordinate system is provided. A camera calibration device characterized by that.
共通の計測範囲を有するように配置された複数のステレオカメラのカメラキャリブレーション方法であって、
前記共通の計測範囲で運動する物体の移動軌跡中の複数の位置データを、前記ステレオカメラの中心の座標系でそれぞれ計測するステップと、
これら位置データを主成分分析して、前記ステレオカメラに共通の座標系を構成し、この共通の座標系を経由して前記ステレオカメラの座標系間の相対的配置を推定するステップとを具えることを特徴とするカメラキャリブレーション方法。
A method for calibrating a plurality of stereo cameras arranged to have a common measurement range,
Measuring a plurality of position data in a movement trajectory of an object moving in the common measurement range in a coordinate system of the center of the stereo camera; and
Analyzing the position data to form a coordinate system common to the stereo cameras, and estimating a relative arrangement between the coordinate systems of the stereo cameras via the common coordinate system. A camera calibration method characterized by the above.
JP2004128502A 2004-04-23 2004-04-23 Camera calibration apparatus and method Expired - Lifetime JP3849030B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004128502A JP3849030B2 (en) 2004-04-23 2004-04-23 Camera calibration apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004128502A JP3849030B2 (en) 2004-04-23 2004-04-23 Camera calibration apparatus and method

Publications (2)

Publication Number Publication Date
JP2005308641A true JP2005308641A (en) 2005-11-04
JP3849030B2 JP3849030B2 (en) 2006-11-22

Family

ID=35437576

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004128502A Expired - Lifetime JP3849030B2 (en) 2004-04-23 2004-04-23 Camera calibration apparatus and method

Country Status (1)

Country Link
JP (1) JP3849030B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101171660B1 (en) 2010-03-01 2012-08-09 이문기 Pointing device of augmented reality
KR20190085237A (en) * 2018-01-10 2019-07-18 한국과학기술연구원 Apparatus and method for calibrating camera coordinate system using positioning information based on image
JP7363456B2 (en) 2019-12-20 2023-10-18 大同特殊鋼株式会社 Calibration device for three-dimensional shape measurement
CN117409080A (en) * 2023-11-10 2024-01-16 广州市斯睿特智能科技有限公司 Hand-eye calibration method for line scanning 3D camera

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101171660B1 (en) 2010-03-01 2012-08-09 이문기 Pointing device of augmented reality
KR20190085237A (en) * 2018-01-10 2019-07-18 한국과학기술연구원 Apparatus and method for calibrating camera coordinate system using positioning information based on image
KR102002785B1 (en) * 2018-01-10 2019-07-23 한국과학기술연구원 Apparatus and method for calibrating camera coordinate system using positioning information based on image
JP7363456B2 (en) 2019-12-20 2023-10-18 大同特殊鋼株式会社 Calibration device for three-dimensional shape measurement
CN117409080A (en) * 2023-11-10 2024-01-16 广州市斯睿特智能科技有限公司 Hand-eye calibration method for line scanning 3D camera

Also Published As

Publication number Publication date
JP3849030B2 (en) 2006-11-22

Similar Documents

Publication Publication Date Title
Orteu et al. Multiple-camera instrumentation of a single point incremental forming process pilot for shape and 3D displacement measurements: methodology and results
US11403780B2 (en) Camera calibration device and camera calibration method
JP2019510311A (en) Method and computer program product for calibrating a stereo imaging system using a planar mirror
JP2015090298A (en) Information processing apparatus, and information processing method
JP2009042162A (en) Calibration device and method therefor
WO2018201677A1 (en) Bundle adjustment-based calibration method and device for telecentric lens-containing three-dimensional imaging system
Niola et al. A new real-time shape acquisition with a laser scanner: first test results
JP2014112043A (en) Stereoscopic shape recognition device and light source position estimation method for stereoscopic shape recognition device
JP3849030B2 (en) Camera calibration apparatus and method
CN107945166B (en) Binocular vision-based method for measuring three-dimensional vibration track of object to be measured
Franceschini et al. Multivariate control charts for monitoring internal camera parameters in digital photogrammetry for LSDM (Large-Scale Dimensional Metrology) applications
JP2012047637A (en) Non-contact three-dimensional measurement equipment and non-contact three-dimensional measurement method
CN108955562B (en) Digital extension method and system for microscopic depth of field of microscopic vision system
CN113658270B (en) Method, device, medium and system for multi-vision calibration based on workpiece hole center
JP2005525863A5 (en)
Gorevoy et al. Optimization of a geometrical calibration procedure for stereoscopic endoscopy systems
KR20150119770A (en) Method for measuring 3-dimensional cordinates with a camera and apparatus thereof
Al-Durgham et al. Bundle adjustment-based stability analysis method with a case study of a dual fluoroscopy imaging system
Pai et al. High-fidelity camera-based method for noncontact vibration testing of structures
Bräuer-Burchardt et al. Comparison of calibration strategies for optical 3D scanners based on structured light projection using a new evaluation methodology
KR101846390B1 (en) Apparatus and method of camera network calibration with a small calibration pattern
JP2019032660A (en) Imaging system and imaging method
CN108876838B (en) Method and system for digitizing micro-operation space of micro-operation system
An et al. On the camera position dithering in visual 3D reconstruction
Randil et al. 3D Full-Field Deformation Measuring Technique with Optics-Based Measurements

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060623

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060801

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150