JP2005322128A - Calibration method for stereo three-dimensional measurement and three-dimensional position calculating method - Google Patents

Calibration method for stereo three-dimensional measurement and three-dimensional position calculating method Download PDF

Info

Publication number
JP2005322128A
JP2005322128A JP2004140975A JP2004140975A JP2005322128A JP 2005322128 A JP2005322128 A JP 2005322128A JP 2004140975 A JP2004140975 A JP 2004140975A JP 2004140975 A JP2004140975 A JP 2004140975A JP 2005322128 A JP2005322128 A JP 2005322128A
Authority
JP
Japan
Prior art keywords
calibration
stereo
plane
transformation matrix
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004140975A
Other languages
Japanese (ja)
Inventor
Masatoshi Okutomi
正敏 奥富
Akio Ishizaki
晃朗 石崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rikogaku Shinkokai
Original Assignee
Rikogaku Shinkokai
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rikogaku Shinkokai filed Critical Rikogaku Shinkokai
Priority to JP2004140975A priority Critical patent/JP2005322128A/en
Publication of JP2005322128A publication Critical patent/JP2005322128A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration

Abstract

<P>PROBLEM TO BE SOLVED: To provide a stereo three-dimensional measurement calibrating method capable of easily performing calibration of a stereo camera required to measure a three-dimensional position of a target object by utilizing the stereo camera in stereo three-dimensional measurement. <P>SOLUTION: This calibrating method comprises the steps for: calculating a distance between calibration planes being a first calibration plane and a second calibration plane in parallel; calculating a first projective transformation matrix between stereo cameras for the first calibration plane and a second projective transformation matrix between the stereo cameras for the second calibration plane; calculating the three-dimensional position of the optical center of a reference camera in a world coordinate system fixed to a prescribed reference calibration plane; and calculating a third projective transformation matrix from a reference image plane to the reference calibration plane. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、ステレオカメラによる3次元計測(以下、ステレオ3次元計測又はステレオ計測とも呼ばれる)技術に関し、特に、ステレオ3次元計測をするためのステレオカメラのキャリブレーション方法及びそのキャリブレーション方法の結果を用いた対象物体の3次元位置算出方法に関する。   The present invention relates to a three-dimensional measurement technique using a stereo camera (hereinafter also referred to as stereo three-dimensional measurement or stereo measurement), and in particular, a stereo camera calibration method for performing stereo three-dimensional measurement and a result of the calibration method. The present invention relates to a method for calculating a three-dimensional position of a target object used.

ステレオ3次元計測分野では、ステレオカメラを用いて、対象物体を計測し、対象物体の3次元位置(3次元座標)を求めるためには、一般に事前に、ステレオカメラのキャリブレーションを行う必要がある。   In the stereo three-dimensional measurement field, in order to measure a target object using a stereo camera and obtain a three-dimensional position (three-dimensional coordinates) of the target object, it is generally necessary to calibrate the stereo camera in advance. .

つまり、従来、ステレオ3次元計測において、カメラの焦点距離などのカメラの固有の特性を表すカメラの内部パラメータとカメラ間の位置関係を表すカメラの外部パラメータ、又は各カメラの透視投影行列が既知でなければ、対象物体の3次元位置を求めることができなかった。   In other words, conventionally, in stereo three-dimensional measurement, the camera internal parameters representing the camera's intrinsic characteristics such as the camera's focal length and the camera external parameters representing the positional relationship between the cameras, or the perspective projection matrix of each camera are known. Otherwise, the three-dimensional position of the target object could not be obtained.

しかし、上記のカメラの内部パラメータ・外部パラメータ、又は各カメラの透視投影行列といった情報を事前に正確に得るためには、非常に手間のかかるステレオカメラのキャリブレーション(以下、強キャリブレーションとも称する)が必要で、通常は工場出荷時に行われる。よく知られていた強キャリブレーション方法に、例えば、非特許文献1に開示されている、内部パラメータ・外部パラメータを直接に求めるTsaiの方法や、非特許文献2に開示されている、透視投影行列を求めた後に、内部パラメータ・外部パラメータに分解する方法などがある。   However, in order to accurately obtain in advance information such as the internal parameters / external parameters of the camera or the perspective projection matrix of each camera, calibration of a stereo camera (hereinafter also referred to as strong calibration) is very laborious. This is usually done at the factory. Well-known strong calibration methods include, for example, the Tsai method disclosed in Non-Patent Document 1 for directly obtaining internal parameters and external parameters, and the perspective projection matrix disclosed in Non-Patent Document 2. There is a method of decomposing into an internal parameter and an external parameter after obtaining.

そのため、実際にステレオカメラを設置するステレオ3次元計測現場において、現場状況に合わせてカメラの焦点距離やフォーカス等の設定を変更する必要が生じても、このような設定の変更に伴って、もう一度ステレオカメラの強キャリブレーションを現場で行うことは困難である。   Therefore, in a stereo 3D measurement site where a stereo camera is actually installed, even if it becomes necessary to change the focal length, focus, etc. of the camera according to the site situation, It is difficult to perform strong calibration of a stereo camera in the field.

一方、ステレオ3次元計測分野において、もう1種類のステレオカメラのキャリブレーション方法として、例えば、非特許文献3に開示されているような3次元シーンの相対的な位置関係のみを計測可能とするステレオカメラのキャリブレーション方法(以下、弱キャリブレーション方法とも呼ばれる)が知られている。また、弱キャリブレーション方法の他の例として、例えば、非特許文献4と非特許文献5に開示されているような「2平面の射影変換行列を利用したキャリブレーション方法」がある。   On the other hand, in the stereo three-dimensional measurement field, as another type of stereo camera calibration method, for example, a stereo that can measure only the relative positional relationship of a three-dimensional scene as disclosed in Non-Patent Document 3 is used. A camera calibration method (hereinafter also referred to as a weak calibration method) is known. As another example of the weak calibration method, for example, there is a “calibration method using a two-plane projective transformation matrix” as disclosed in Non-Patent Document 4 and Non-Patent Document 5.

このような弱キャリブレーション方法によれば、ステレオカメラのキャリブレーションを容易に行うことができるが、キャリブレーションの結果から得られる情報は、キャリブレーション平面に対する前後関係のみであり、対象物体の3次元位置情報(3次元座標)を得ることはできなかったといった問題がある。
アール.ワイ.ツァイ(R.Y.Tsai)著、「ア バーサトル カメラ キャリブレーション テクニック フォア ハイ−アキュラシ スリーデー マシン ビジョン ミトロジー ユージング オフ−ザ シェルフ ティーブイ カメラ アンド レンズ(A versatile camera calibration technique for high−accuracy 3D machine vision metrology using off−the shelf TV cameras and lenses)」、アイ・トリプル・イー ジャーナル オブ ロボテックス アンド オートメーション,アールエイ−3,ナンバー4(IEEE Journal of Robotics and Automation,RA−3,No.4)、p.323-344、1987年8月 オー.フォウゲラス(O.Faugeras)著、「スリー ディメンションナル コンピュータ ビジョン(Three dimensional computer vision)」、ザ エムアイティ プレス(The MIT Press)、1993年 ゼット.チャン(Z.Zhang),アール.デリシェ(R.Deriche),オー.フォウゲラス(O.Faugeras),キュー.ティー.ルオン(Q.T.Luong)共著、「ローバスト テクニック フォア マッチング ツー アンキャリブレーティッド イメージ スルー ザ リカバリー オブ ザ アンノウン エピポーラ ジオメトリー(A robust technique for matching two uncalibrated images through the recovery of the unknown epipolar geometry)、アイ・エヌ・アール・アイ・エイ テクニカル レポート,ナンバー2273(INRIA technical report,No.2273)、1994年5月 蚊野浩・金出武雄,「任意カメラ配置におけるステレオ視とステレオカメラ校正」,電子情報通信学会論文誌,1996年,第J79-D-II巻,第11号,p.1810-1818 蚊野浩・美濃導彦・安田昌司・大隅正人,「2平面を用いたステレオカメラの弱校正に関する幾何学的な性質」,電子情報通信学会論文誌,1999年,第J82-D-II巻,第3号,p.561-565
According to such a weak calibration method, the calibration of the stereo camera can be easily performed, but the information obtained from the calibration result is only the context with respect to the calibration plane, and the three-dimensional of the target object. There is a problem that position information (three-dimensional coordinates) could not be obtained.
R. Wy. RYTsai, “A versatile camera calibration technique for high-accuracy 3D machine vision metrology using off-the shelf TV” A high-accuracy 3D machine vision metrology using off-the shelf TV cameras and lenses) ”, I Triple E Journal of Robotics and Automation, RA-3, Number 4 (IEEE Journal of Robotics and Automation, RA-3, No.4), p.323-344, 1987 8 Moon Oh. O.Faugeras, "Three dimensional computer vision", The MIT Press, 1993 Zet. Z.Zhang, Earl. R. Deriche, Oh. O.Faugeras, cue. tea. Co-authored by QTLuong, “Robust Technique for matching two uncalibrated images through the recovery of the unknown epipolar geometry”, INR・ A Technical Report, Number 2273 (INRIA technical report, No.2273), May 1994 Hiroshi Mosquito and Takeo Kanade, "Stereovision and Stereo Camera Calibration in Arbitrary Camera Arrangement", IEICE Transactions, 1996, Vol.11, No.11, p.1810-1818 Mosquito Hiroshi, Mino, N., Yasuda, M. and Osumi Masato, “Geometrical Properties of Weak Calibration of Stereo Cameras Using Two Planes”, IEICE Transactions, 1999, Vol. J82-D-II, No.3, p.561-565

要するに、従来の強キャリブレーション方法では、3次元位置が既知の多数の参照点とそのカメラ座標の対応からカメラの内部パラメータと外部パラメータを求めるようにしており、精密な校正用パターンや正確な位置決め機構が必要であり、強キャリブレーション方法を用いて、ステレオカメラを強校正することが大変困難であるという問題があった。   In short, in the conventional strong calibration method, the internal parameters and external parameters of the camera are obtained from the correspondence between a large number of reference points whose three-dimensional positions are known and their camera coordinates, and a precise calibration pattern and accurate positioning are obtained. There is a problem that a mechanism is necessary and it is very difficult to strongly calibrate a stereo camera using a strong calibration method.

また、従来の弱キャリブレーション方法で弱校正されたステレオカメラで計測される距離情報は、キャリブレーションに用いる2平面(つまり、キャリブレーション平面)からの相対的な距離であるため、対象物体の3次元位置情報(3次元座標)を得ることができないという問題があった。   Further, since the distance information measured by the stereo camera weakly calibrated by the conventional weak calibration method is a relative distance from two planes (that is, calibration planes) used for calibration, There has been a problem that the dimension position information (three-dimensional coordinates) cannot be obtained.

本発明は、上述のような事情よりなされたものであり、本発明の目的は、ステレオ3次元計測において、ステレオカメラを利用して対象物体の3次元位置を計測するために必要なステレオカメラのキャリブレーションを簡単に行うことができるステレオ3次元計測用キャリブレーション方法、及びそのキャリブレーション方法の結果を利用して対象物体の3次元位置を算出することができる3次元位置算出方法を提供することにある。   The present invention has been made under the circumstances as described above, and an object of the present invention is a stereo camera required for measuring the three-dimensional position of a target object using a stereo camera in stereo three-dimensional measurement. To provide a calibration method for stereo three-dimensional measurement capable of easily performing calibration, and a three-dimensional position calculation method capable of calculating the three-dimensional position of a target object using the result of the calibration method. It is in.

本発明は、ステレオ3次元計測用キャリブレーション方法に関し、本発明の上記目的は、ステレオ3次元計測、即ち、ステレオカメラを利用した3次元計測を行うためのキャリブレーション方法であって、平行する第1のキャリブレーション平面と第2のキャリブレーション平面との間のキャリブレーション平面間距離を求め、前記第1のキャリブレーション平面に対するステレオカメラ間の第1の射影変換行列と前記第2のキャリブレーション平面に対するステレオカメラ間の第2の射影変換行列を求め、所定の基準キャリブレーション平面に固定されたワールド座標系における基準カメラの光学中心の3次元位置を求め、基準画像平面から前記基準キャリブレーション平面への第3の射影変換行列を求めるステップとを有することにより、或いは、前記基準キャリブレーション平面は、前記第1のキャリブレーション平面又は前記第2のキャリブレーション平面の何れかであることにより、或いは、前記第1の射影変換行列を求めるために必要な情報は、ステレオカメラから観察した3次元空間中の前記第1のキャリブレーション平面に存在する4点以上のステレオ画像間の対応点であり、また、前記第2の射影変換行列を求めるために必要な情報は、ステレオカメラから観察した3次元空間中の前記第2のキャリブレーション平面に存在する4点以上のステレオ画像間の対応点であることにより、或いは、第3の射影変換行列を求めるために必要な情報は、前記基準キャリブレーション平面上の4点以上のサンプル点のワールド座標値であることによって効果的に達成される。   The present invention relates to a calibration method for stereo three-dimensional measurement, and the above object of the present invention is a calibration method for performing stereo three-dimensional measurement, that is, three-dimensional measurement using a stereo camera. A distance between calibration planes between one calibration plane and a second calibration plane is obtained, and a first projective transformation matrix between the stereo cameras with respect to the first calibration plane and the second calibration plane. A second projective transformation matrix between stereo cameras with respect to is obtained, a three-dimensional position of the optical center of the reference camera in the world coordinate system fixed to a predetermined reference calibration plane is obtained, and a reference image plane is transferred to the reference calibration plane. Obtaining a third projective transformation matrix of Alternatively, the reference calibration plane is either the first calibration plane or the second calibration plane, or information necessary to obtain the first projective transformation matrix is: Corresponding points between four or more stereo images existing in the first calibration plane in the three-dimensional space observed from the stereo camera, and information necessary for obtaining the second projective transformation matrix are as follows: Necessary for obtaining the third projective transformation matrix by corresponding points between four or more stereo images existing in the second calibration plane in the three-dimensional space observed from the stereo camera. Information is effectively achieved by being world coordinate values of four or more sample points on the reference calibration plane.

また、本発明は3次元位置算出方法に関し、本発明の上記目的は、本発明のステレオ3次元計測用キャリブレーション方法を用いて得られた、前記キャリブレーション平面間距離と、前記基準カメラの光学中心の3次元位置と、前記第1の射影変換行列と、前記第2の射影変換行列と、前記第3の射影変換行列とに基づいて、対象物体のワールド座標(X,Y,Z)を導出することにより、或いは、2平面射影変換行列を利用したステレオ3次元計測から、キャリブレーション平面に垂直な方向成分である前記ワールド座標成分Zを導出するステップと、前記第3の射影変換行列と前記ワールド座標成分Zとに基づいて、前記ワールド座標成分X,Yを求めるステップとを有することによって効果的に達成される。 The present invention also relates to a method for calculating a three-dimensional position, and the object of the present invention is to obtain the distance between the calibration planes obtained by using the calibration method for stereo three-dimensional measurement according to the present invention and the optics of the reference camera. Based on the three-dimensional position of the center, the first projective transformation matrix, the second projective transformation matrix, and the third projective transformation matrix, the world coordinates ( Xw , Yw , Z) of the target object by deriving a w), alternatively, from the stereo three-dimensional measurement using two-plane projective transformation matrix, deriving the world coordinate component Z w is perpendicular component calibration plane, the third The step of obtaining the world coordinate components X w and Y w based on the projective transformation matrix and the world coordinate component Z w is effectively achieved.

本発明に係るステレオ3次元計測用キャリブレーション方法を用いれば、ステレオ3次元計測において、ステレオカメラのキャリブレーションを簡単に行うことができるといった優れた効果を奏する。   If the calibration method for stereo three-dimensional measurement according to the present invention is used, the stereo camera can be easily calibrated in stereo three-dimensional measurement.

また、本発明に係るステレオ3次元計測用キャリブレーション方法で決められた4つのパラメータは、ステレオカメラの内部パラメータ・外部パラメータと直接関係ないパラメータであるために、実際にステレオカメラを設置するステレオ3次元計測現場において、ステレオカメラの焦点距離やフォーカス等の内部パラメータ・外部パラメータを計測現場状況に合わせて調整した上で、3次元計測を高精度に行うことができるといった優れた効果を奏する。   Further, since the four parameters determined by the stereo three-dimensional measurement calibration method according to the present invention are parameters not directly related to the internal parameters and the external parameters of the stereo camera, the stereo 3 in which the stereo camera is actually installed is used. In a three-dimensional measurement site, the internal parameters and external parameters such as the focal length and focus of the stereo camera are adjusted in accordance with the measurement site conditions, and an excellent effect is achieved such that three-dimensional measurement can be performed with high accuracy.

つまり、本発明のキャリブレーション方法でキャリブレーションを行ったステレオカメラを用いれば、様々な3次元計測現場で、その計測現場状況に合わせてステレオカメラの内部パラメータ・外部パラメータを調整しても、3次元位置計測に必要なキャリブレーションを現場で容易に行うことができ、大変実用的な3次元計測を実現できるといった顕著な効果を奏する。   In other words, if the stereo camera calibrated by the calibration method of the present invention is used, even if the internal parameters / external parameters of the stereo camera are adjusted in accordance with the measurement site conditions at various 3D measurement sites, 3 Calibration required for the three-dimensional position measurement can be easily performed on site, and a remarkable effect is achieved that a very practical three-dimensional measurement can be realized.

更に、本発明に係る3次元位置算出方法では、本発明のキャリブレーション方法で決められたパラメータを利用して、対象物体の3次元位置を簡単に算出することができるといった優れた効果を奏する。   Furthermore, the three-dimensional position calculation method according to the present invention has an excellent effect that the three-dimensional position of the target object can be easily calculated using the parameters determined by the calibration method of the present invention.

以下、本発明を実施するための最良の形態を図面を参照して説明する。なお、本発明を実際の3次元計測分野の一つである交通流計測(車両検出、トラッキング)に適用した実施例について以下のように説明するが、本発明はそれに限定されることはなく、様々な3次元計測分野で本発明を適用することが可能であることは、言うまでも無い。

<1>本発明に係るステレオ3次元計測用キャリブレーション方法
本発明に係るステレオ3次元計測用キャリブレーション方法(以下、単に本発明のキャリブレーション方法とも称する)は、ステレオ3次元計測において、ステレオカメラを利用して対象物体の3次元位置を計測するために、必要なステレオカメラのキャリブレーションを簡単に行うことができるキャリブレーション方法である。また、後述するように、本発明に係る3次元位置算出方法は、本発明のキャリブレーション方法の結果を用いて、対象物体の3次元位置を算出することができる方法である。
The best mode for carrying out the present invention will be described below with reference to the drawings. An embodiment in which the present invention is applied to traffic flow measurement (vehicle detection, tracking) which is one of the actual three-dimensional measurement fields will be described as follows, but the present invention is not limited thereto. Needless to say, the present invention can be applied in various three-dimensional measurement fields.

<1> Stereo 3D Measurement Calibration Method According to the Present Invention Stereo 3D measurement calibration method according to the present invention (hereinafter also simply referred to as the calibration method of the present invention) is a stereo camera in stereo 3D measurement. In order to measure the three-dimensional position of the target object using the method, it is a calibration method that can easily perform the necessary calibration of the stereo camera. As will be described later, the three-dimensional position calculation method according to the present invention is a method capable of calculating the three-dimensional position of the target object using the result of the calibration method of the present invention.

つまり、ステレオ3次元計測用キャリブレーション方法と3次元位置算出方法とから構成される本発明とは、対象物体の3次元座標を簡単に計測できる、且つ、強キャリブレーションを必要としない(つまり、ステレオカメラの内部パラメータ・外部パラメータが不要)3次元計測方法である。   In other words, the present invention configured by the stereo three-dimensional measurement calibration method and the three-dimensional position calculation method can easily measure the three-dimensional coordinates of the target object and does not require strong calibration (that is, Stereo camera does not require internal parameters and external parameters) This is a three-dimensional measurement method.

本発明のキャリブレーション方法で求めておくものは、図1に示されている次の4つのパラメータである。なお、図1において、基準カメラと参照カメラは、ステレオ3次元計測用のステレオカメラを構成し、ステレオカメラから観察した、3次元空間に存在する互いに平行する平面Πと平面Πをキャリブレーション平面とする。
(1)キャリブレーション平面Πとキャリブレーション平面Πとの間の距離D
(2)キャリブレーション平面Πに対するステレオカメラ間の射影変換行列Hと、キャリブレーション平面Πに対するステレオカメラ間の射影変換行列H
(3)基準キャリブレーション平面に固定されたワールド座標系(X,Y,Z)における基準カメラの光学中心の3次元位置(X,Y,Z
なお、図1において、キャリブレーション平面Πを基準キャリブレーション平面としているが、本発明ではそれに限定されることがなく、キャリブレーション平面Πを基準キャリブレーション平面とすることが勿論可能である。また、本発明でいう基準キャリブレーション平面とは、ワールド座標系(X,Y,Z)を固定したキャリブレーション平面を意味する。
(4)基準画像平面から基準キャリブレーション平面(図1では、キャリブレーション平面Π)への射影変換行列HIC
本発明のキャリブレーション方法に必要な情報は、上記4つのパラメータのみであり、従来の強キャリブレーション方法に必要なステレオ3次元計測に用いるステレオカメラの内部パラメータ・外部パラメータについては、一切知る必要が無い。
What is obtained by the calibration method of the present invention is the following four parameters shown in FIG. In FIG. 1, the reference camera and the reference camera constitute a stereo camera for stereo three-dimensional measurement, and the parallel planes 0 and 1 existing in the three-dimensional space observed from the stereo camera are calibrated. A plane.
(1) Distance D between calibration plane 0 0 and calibration plane Π 1
(2) and the projective transformation matrix H 0 between the stereo camera for the calibration plane [pi 0, projective transformation matrix H 1 between the stereo camera for the calibration plane [pi 1
(3) Three-dimensional position (X c , Y c , Z c ) of the optical center of the reference camera in the world coordinate system (X, Y, Z) fixed on the reference calibration plane
In FIG. 1, although the calibration plane [pi 1 being based calibration plane, without being limited thereto in the present invention, it is of course possible to the calibration plane [pi 0 as a reference calibration plane. Further, the reference calibration plane in the present invention means a calibration plane in which the world coordinate system (X, Y, Z) is fixed.
(4) Projection transformation matrix H IC from the reference image plane to the reference calibration plane (in FIG. 1, calibration plane Π 1 )
The information necessary for the calibration method of the present invention is only the above four parameters, and it is necessary to know all the internal parameters and external parameters of the stereo camera used for the stereo three-dimensional measurement necessary for the conventional strong calibration method. No.

以下、本発明のキャリブレーション方法に必要な上記4つのパラメータの求め方を詳細に説明する。

<1−1>平行する2つのキャリブレーション平面間距離
まず、ステレオカメラから観察した3次元空間に存在し、且つ、平行する2つのキャリブレーション平面を設定して、そして、設定されたキャリブレーション平面間距離を計測する。
Hereinafter, a method for obtaining the above four parameters necessary for the calibration method of the present invention will be described in detail.

<1-1> Distance between two parallel calibration planes First, two calibration planes that exist in the three-dimensional space observed from the stereo camera and are parallel are set, and the set calibration planes Measure the distance.

具体的には、まず、キャリブレーションに利用する2つの平面(キャリブレーション平面とも呼ばれる)は、平行すると仮定する。図2(A)に示されるように、互いに平行するキャリブレーション平面Πとキャリブレーション平面Πを設定し、設定されたキャリブレーション平面Π間の距離Dを実際に計測する。 Specifically, first, it is assumed that two planes (also called calibration planes) used for calibration are parallel. As shown in FIG. 2 (A), and set the calibration plane [pi 0 and calibration plane [pi 1 parallel to each other, the calibration plane [pi 0 is set, actually measuring the distance D between [pi 1.

なお、図2(A)に示されるように、このキャリブレーション平面Π間の距離をDとすることは、図2(B)に示されるように、ステレオカメラペアを平面への光軸の向きを変化させずに距離D移動させていることと等価なことである。つまり、図2(B)において、平面Πに近い位置にあるステレオカメラペアから観察した平面Πをキャリブレーション平面Πとする場合に、そのステレオカメラペアを垂直方向に上に距離D移動させれば、その際にステレオカメラペアから観察した平面Πをキャリブレーション平面Πとすることができる。

<1−2>キャリブレーション平面に対するステレオカメラ間の射影変換行列
キャリブレーション平面に対するステレオカメラ間の射影変換行列を得るために必要な情報とは、ステレオカメラから観察した3次元空間中のキャリブレーション平面に存在する点を4点以上に決定し、決定された点のステレオ画像間(つまり、基準カメラが撮影した基準画像と参照カメラが撮影した参照カメラとの間)の対応関係である。
As shown in FIG. 2A, setting the distance between the calibration planes 0 0 and Π 1 to D means that the stereo camera pair is moved to the plane as shown in FIG. This is equivalent to moving the distance D without changing the direction of the optical axis. That is, in FIG. 2B, when the plane Π observed from the stereo camera pair at a position close to the plane と す る is set as the calibration plane 0 0 , the stereo camera pair can be moved by a distance D in the vertical direction. For example, the plane plane observed from the stereo camera pair at that time can be used as the calibration plane plane 1 .

<1-2> Projection Transformation Matrix Between Stereo Cameras for Calibration Plane Information necessary for obtaining a projection transformation matrix between stereo cameras for the calibration plane is a calibration plane in a three-dimensional space observed from the stereo camera. 4 or more points, and the correspondence relationship between the stereo images of the determined points (that is, between the reference image taken by the reference camera and the reference camera taken by the reference camera).

具体的には、例えば、図2(A)に示されたようなキャリブレーション平面Πが存在した場合に、そのキャリブレーション平面Πを介したステレオ画像間(つまり、ステレオカメラ間)の射影変換行列H,Hを求める。 Specifically, for example, when the calibration planes 0 0 and Π 1 as shown in FIG. 2A exist, between stereo images via the calibration planes 0 0 and Π 1 (that is, A projection transformation matrix H 0 , H 1 between stereo cameras is obtained.

図3は、ステレオ画像間の対応点の例で実際の場面に適用している図である。図3において、道路面をキャリブレーション平面と仮定しており、対応点1,2,3,4は選択されている。なお、図3(A)は基準カメラが撮影した基準画像で、図3(B)は参照カメラが撮影した参照画像である。   FIG. 3 is an example of corresponding points between stereo images and applied to an actual scene. In FIG. 3, the road surface is assumed to be a calibration plane, and corresponding points 1, 2, 3, and 4 are selected. 3A is a reference image taken by the reference camera, and FIG. 3B is a reference image taken by the reference camera.

図3(A)及び図3(B)に示された対応点1,2,3,4の関係から、下記数1における射影変換行列Hを求める。ここで、

Figure 2005322128
は基準画像の画像座標の斉次座標表示で、
Figure 2005322128
は参照画像の画像座標の斉次座標表示である。また、数1を展開すると、数2になる。 From the relationship between corresponding points 1, 2, 3, and 4 shown in FIGS. 3 (A) and 3 (B), a projective transformation matrix H in Equation 1 below is obtained. here,
Figure 2005322128
Is a homogeneous coordinate display of the image coordinates of the reference image,
Figure 2005322128
Is a homogeneous coordinate display of the image coordinates of the reference image. Further, when formula 1 is expanded, formula 2 is obtained.

Figure 2005322128
Figure 2005322128

Figure 2005322128
ここで、射影変換行列Hは3×3の行列である。この射影変換行列Hは、定数倍の不定性を含むため、実際には未知数は8個存在する。
Figure 2005322128
Here, the projective transformation matrix H is a 3 × 3 matrix. Since this projective transformation matrix H includes an indefiniteness of a constant multiple, there are actually eight unknowns.

上記数2を変形すると、下記数3となり、一つの対応点の組から2個の式を立てることができる。   When the above equation 2 is transformed, the following equation 3 is obtained, and two equations can be established from one set of corresponding points.

Figure 2005322128
そこで、未知数が8個なので、図3に示されるような対応点の組を4点以上求めると、下記数4のようになり、
Figure 2005322128
Therefore, since there are eight unknowns, when four or more pairs of corresponding points as shown in FIG. 3 are obtained, the following equation 4 is obtained.

Figure 2005322128
上記数4を下記数5の形に置き換えることができ、Aの最小固有値に対応する固有ベクトルをhとすることで、射影変換行列Hを求めることができる(つまり、最小2乗法を適用している事と等価)。
Figure 2005322128
The above equation 4 can be replaced by the following equation 5, and the projective transformation matrix H can be obtained by setting the eigenvector corresponding to the minimum eigenvalue of A to h (that is, the least square method is applied). Equivalent to that).

Figure 2005322128
上述した射影変換行列Hの求め方を用いて、図2(A)に示されるような平行する2つのキャリブレーション平面Πに対するステレオカメラ間の射影変換行列H,Hをそれぞれ導出する。

<1−3>基準キャリブレーション平面に固定されたワールド座標系における基準カメラの光学中心の3次元位置
図4はステレオカメラを真横から見た図である。図4において、下側のカメラを基準カメラ、上側のカメラを参照カメラとしているが、実際にはどちらを基準カメラとしても良い。また、図4において、下側に位置するキャリブレーション平面Πを基準キャリブレーション平面と呼ぶこととするが、それに限定されることがなく、例えば、上側に位置するキャリブレーション平面Πを基準キャリブレーション平面と呼ぶこともできる。
Figure 2005322128
Using the above-described method for obtaining the projection transformation matrix H, the projection transformation matrices H 0 and H 1 between the stereo cameras for two parallel calibration planes Π 0 and Π 1 as shown in FIG. To derive.

<1-3> Three-dimensional position of the optical center of the reference camera in the world coordinate system fixed on the reference calibration plane FIG. 4 is a diagram of the stereo camera viewed from the side. In FIG. 4, the lower camera is the reference camera and the upper camera is the reference camera, but in actuality, either may be the reference camera. Further, in FIG. 4, but will be referred calibration plane [pi 1 located on the lower side with reference calibration plane, without being limited thereto, for example, based on the calibration plane [pi 0 positioned above calibration It can also be called a motion plane.

ここで、説明を簡便にするために、図4において、ワールド座標原点を基準カメラの光学中心から基準キャリブレーション平面へ降ろした垂線の足と置くこととしているが、ワールド座標原点の位置はそこに限定されることがなく、基準キャリブレーション平面上の任意の位置にワールド座標原点を置くことが可能であり、また、ワールド座標系のZ軸をワールド座標原点から基準カメラの光学中心への方向へ取ることとし、更に、ワールド座標系のX軸とY軸は、基準キャリブレーション平面上にはる直交座標と定義する。   Here, in order to simplify the explanation, in FIG. 4, the world coordinate origin is assumed to be placed with a perpendicular foot drawn from the optical center of the reference camera to the reference calibration plane, but the position of the world coordinate origin is there. Without being limited, it is possible to place the world coordinate origin at an arbitrary position on the reference calibration plane, and the Z axis of the world coordinate system is directed from the world coordinate origin to the optical center of the reference camera. Furthermore, the X axis and Y axis of the world coordinate system are defined as orthogonal coordinates on the reference calibration plane.

図4に示されたような前提条件の下で、基準キャリブレーション平面に固定されたワールド座標系における基準カメラの光学中心の3次元位置(3次元座標)を下記のように求める。   Under the preconditions as shown in FIG. 4, the three-dimensional position (three-dimensional coordinates) of the optical center of the reference camera in the world coordinate system fixed to the reference calibration plane is obtained as follows.

ここで、図4に示されたようなワールド座標系の置き方から、基準カメラの光学中心は、(0,0,D)のように置くことができる。従って、図4に示されるように、基準カメラの光学中心から基準キャリブレーション平面までの距離Dのみを実際に計測すれば、ワールド座標系における基準カメラの光学中心の3次元座標が求まる訳である。つまり、ワールド座標系(X,Y,Z)における基準カメラの光学中心の3次元座標(X,Y,Z)は(0,0,D)である。 Here, from the way of placing the world coordinate system as shown in FIG. 4, the optical center of the reference camera can be placed as (0, 0, D 1 ). Accordingly, as shown in FIG. 4, if actually measured only distance D 1 of the from the optical center of the base camera and the reference calibration plane, mean three-dimensional coordinates of the optical center of the base camera in the world coordinate system is obtained is there. That is, the three-dimensional coordinates (X c , Y c , Z c ) of the optical center of the reference camera in the world coordinate system (X, Y, Z) are (0, 0, D 1 ).

また、図4に示されるように、基準カメラの光学中心とキャリブレーション平面Πとの間の距離Dは、キャリブレーション平面Πと基準キャリブレーション平面(ここでは、キャリブレーション平面Π)との間の距離Dが既知であるので、下記数6と表すことができる。 Also, as shown in FIG. 4, the distance D 0 between the optical center of the reference camera and the calibration plane 0 is the calibration plane 0 0 and the reference calibration plane (here, the calibration plane 1 1 ). Since the distance D between and is known, it can be expressed as the following formula 6.

Figure 2005322128

<1−4>基準画像平面から基準キャリブレーション平面への射影変換行列HIC
基準画像平面から基準キャリブレーション平面への射影変換行列HICを導出するのに必要な情報とは、基準キャリブレーション平面上の4点以上のサンプル点のワールド座標値である。
Figure 2005322128

<1-4> Projection transformation matrix H IC from the reference image plane to the reference calibration plane
The information required to derive a projective transformation matrix H IC from the reference image plane to the reference calibration plane, a world coordinate values of four points or more sample points on the reference calibration plane.

基準画像平面から基準キャリブレーション平面への射影変換行列HICを導出するために、次の前提条件を仮定する。 In order to derive the projective transformation matrix H IC from the reference image plane to the reference calibration plane, the following preconditions are assumed.

まず、図4に示されるように、2つのキャリブレーション平面のうち、下側に位置するキャリブレーション平面Πを基準キャリブレーション平面とし、また、基準カメラの光学中心から基準キャリブレーション平面へ降ろした垂線の足をワールド座標の原点とし、更に、ワールド座標原点から基準カメラの光学中心への方向(つまり、基準キャリブレーション平面に垂直する方向)をワールド座標系のZ軸とし、基準カメラの光軸を基準キャリブレーション平面へ正射影した方向をワールド座標系のY軸とする。また、図5(A)に示されるように、ワールド座標系のX軸をワールド座標系のY軸,Z軸に垂直するように取ると定義する。 First, as shown in FIG. 4, the calibration plane Π 1 located on the lower side of the two calibration planes is used as a reference calibration plane, and is lowered from the optical center of the reference camera to the reference calibration plane. The vertical foot is the origin of the world coordinates, and the direction from the world coordinate origin to the optical center of the reference camera (that is, the direction perpendicular to the reference calibration plane) is the Z axis of the world coordinate system, and the optical axis of the reference camera The direction orthogonally projected to the reference calibration plane is defined as the Y axis of the world coordinate system. Further, as shown in FIG. 5A, it is defined that the X axis of the world coordinate system is taken to be perpendicular to the Y axis and the Z axis of the world coordinate system.

また、図5において、点Mcp(Xcp,Ycp,0)とは、基準キャリブレーション平面上のサンプル点であり、点m(u,v)とは、基準画像平面における点Mcp(Xcp,Ycp,0)の対応点である。 In FIG. 5, a point M cp (X cp , Y cp , 0) is a sample point on the reference calibration plane, and a point m (u, v) is a point M cp ( X cp , Y cp , 0).

なお、本発明では、ワールド座標系のZ軸について、その取り方が上述されたようになっているが、残りのワールド座標系の軸、つまり、ワールド座標系のX軸,Y軸について、特にそれらの取り方に制限が無く、ワールド座標系のX軸とY軸は、基準キャリブレーション平面上にはる直交座標であれば良い訳である。   In the present invention, the method of taking the Z axis of the world coordinate system is as described above, but the remaining world coordinate system axes, that is, the X axis and the Y axis of the world coordinate system are particularly There is no restriction on how to take them, and the X-axis and Y-axis of the world coordinate system only need to be orthogonal coordinates on the reference calibration plane.

上述した前提条件の下で、基準画像平面から基準キャリブレーション平面への射影変換行列HICを次のように導出する。 Under the above-mentioned preconditions, a projective transformation matrix H IC from the reference image plane to the reference calibration plane is derived as follows.

先ず、図6に示されるように、基準キャリブレーション平面上(図中では道路面上)のサンプル点のワールド座標を4点以上求める。図6(A)において、選択されたサンプル点(つまり、図中の点1,点2,点3,点4,点5,点6,点7及び点8)のワールド座標は、図6(B)に示された表の通りである。   First, as shown in FIG. 6, four or more world coordinates of sample points on the reference calibration plane (on the road surface in the figure) are obtained. In FIG. 6A, the world coordinates of the selected sample points (that is, point 1, point 2, point 3, point 4, point 5, point 6, point 7, and point 8 in the figure) are shown in FIG. It is as the table shown in B).

なお、図6(B)に示された表において、光学中心とは基準カメラの光学中心で、パラメータXcp,Ycpは、図5に示されたような基準キャリブレーション平面上のサンプル点Mcpのワールド座標(Xcp,Ycp,0)のXcp,Ycpを表し、パラメータu,vは、図5に示されたような基準画像平面上の点mの2次元座標(u,v)のu,vを表す。 In the table shown in FIG. 6B, the optical center is the optical center of the reference camera, and the parameters X cp and Y cp are the sample points M on the reference calibration plane as shown in FIG. represents the cp world coordinates (X cp , Y cp , 0), X cp , Y cp , and parameters u, v are the two-dimensional coordinates (u, v) of the point m on the reference image plane as shown in FIG. v) represents u and v.

次に、図6に示された基準キャリブレーション平面上の8個のサンプル点から、図5に示されるような基準画像平面から基準キャリブレーション平面への射影変換行列HICを下記数7に基づいて導出する。 Next, the projection transformation matrix H IC from the reference image plane to the reference calibration plane as shown in FIG. 5 from the eight sample points on the reference calibration plane shown in FIG. To derive.

Figure 2005322128
ここで、行列HIC(ここのICは基準画像平面から基準キャリブレーション平面へを意味し、つまり、ImagePlane to CalibrationPlaneを意味する)は、基準画像平面から基準キャリブレーション平面への射影変換行列である。

<2>本発明に係る3次元位置算出方法
本発明に係る3次元位置算出方法とは、上述したような本発明に係るステレオ3次元計測用キャリブレーション方法によって得られた情報(つまり、<1>で述べられた4つのパラメータ)に基づいて、ステレオ3次元計測対象である対象物体を表す点の3次元位置(つまり、対象物体を表す点のワールド座標(X,Y,Z))を導出する方法であって、その手順は次のようになっている。なお、本発明では、説明を簡単にするために、対象物体を表す点を単に対象物体とも称し、また、対象物体を表す点の3次元位置を単に対象物体の3次元位置とも称するようにしている。また、本発明でいう3次元座標は、ワールド座標を意味する。
ステップ1:
まず、2平面射影変換行列を利用したステレオ3次元計測から、対象物体の3次元座標のキャリブレーション平面の法線方向の成分Zを導出する。
ステップ2:
そして、基準画像平面から基準キャリブレーション平面への射影変換行列HICと、ステップ1で求められた3次元座標のキャリブレーション平面の法線方向の成分Zとに基づいて、対象物体の3次元座標の残りの2つの成分X,Yを求める。
Figure 2005322128
Here, the matrix H IC (the IC here means from the reference image plane to the reference calibration plane, that is, ImagePlane to CalibrationPlane) is a projective transformation matrix from the reference image plane to the reference calibration plane. .

<2> Three-dimensional position calculation method according to the present invention The three-dimensional position calculation method according to the present invention is information obtained by the above-described stereo three-dimensional measurement calibration method according to the present invention (that is, <1 > The three-dimensional position of the point representing the target object that is a stereo three-dimensional measurement target (that is, the world coordinates (X w , Y w , Z w ) of the point representing the target object) ), And the procedure is as follows. In the present invention, for the sake of simplicity, the point representing the target object is also simply referred to as the target object, and the three-dimensional position of the point representing the target object is also simply referred to as the three-dimensional position of the target object. Yes. Further, the three-dimensional coordinates referred to in the present invention mean world coordinates.
Step 1:
First, from the stereo three-dimensional measurement using two-plane projective transformation matrix to derive the normal direction of the component Z w calibration plane of the three-dimensional coordinates of the target object.
Step 2:
Then, a projective transformation matrix H IC from the reference image plane to the reference calibration plane based on the normal direction of the component Z w calibration plane of the three-dimensional coordinates calculated in step 1, 3-dimensional object Find the remaining two components X w , Y w of the coordinates.

本発明の3次元位置算出方法の手順を以下のように更に詳細に説明する。

<2−1>ステップ1:対象物体の3次元座標の成分Zの導出
2平面の射影変換行列を利用したステレオ3次元計測を行うことによって、対象物体のワールド座標のキャリブレーション平面に垂直な方向成分Zを導出することができる。
The procedure of the three-dimensional position calculation method of the present invention will be described in more detail as follows.

<2-1> Step 1: By performing stereo three-dimensional measurement using the projective transformation matrix derivation 2 plane components Z w of the three-dimensional coordinates of the object, perpendicular to the calibration plane in the world coordinate of the target object it can be derived directional component Z w.

一方、2平面の射影変換行列を利用したステレオ3次元計測を行う上で必要な情報とは、平行する2つのキャリブレーション平面Πに関する射影変換行列H,Hと、基準カメラの光学中心からキャリブレーション平面Πまでの距離Dと、基準カメラの光学中心からキャリブレーション平面Πまでの距離Dである。これらの情報は、上述したように、本発明のキャリブレーション方法によって求められる。なお、距離Dと距離Dについて、図4を参照する。 On the other hand, the necessary information in performing stereo three-dimensional measurement using the projection transformation matrix of two planes, parallel to the two calibration planes [pi 0, a projective transformation matrix H 0, H 1 relates [pi 1, reference camera The distance D 0 from the optical center to the calibration plane 0 and the distance D 1 from the optical center of the reference camera to the calibration plane 1 1 . These pieces of information are obtained by the calibration method of the present invention as described above. Incidentally, the distance D 0 and the distance D 1, referring to FIG.

ここで、図7に示されたような2つのキャリブレーション平面に関する射影変換行列を利用したステレオ3次元計測場面を想定する。図7において、平行する2つのキャリブレーション平面Πに関する射影変換行列H,Hが既知の時に、キャリブレーション平面Πに内挿(又は、外挿)する平面Παに関する射影変換行列Hαは、下記数8のように表すことができる。 Here, a stereo three-dimensional measurement scene using a projective transformation matrix relating to two calibration planes as shown in FIG. 7 is assumed. In FIG. 7, when projection transformation matrices H 0 and H 1 relating to two parallel calibration planes 0 0 and 1 are known, a plane 内 that is interpolated (or extrapolated) into the calibration planes 0 0 and Π 1. the projective transformation matrix H alpha related alpha, can be expressed as the following equation 8.

Figure 2005322128
ステレオ計測を行うことにより、対象物体の奥行きと同一の位置にある平面Παを推定することができ、よって、上記数8から対象物体の奥行き係数αを導出することができる。
Figure 2005322128
By performing stereo measurement, it is possible to estimate the plane [pi alpha in the same location and depth of the target object, thus, it is possible to derive the depth factor of the object alpha from the number 8.

次に、図8に示されるように、2つのキャリブレーション平面Πが平行で、それぞれ基準カメラの光学中心から各キャリブレーション平面へ降ろした垂線の距離DとDが既知であれば、上記数8で求められた対象物体の奥行き係数αに対応する対象物体の奥行きDαを下記数9に基づいて求めることができる。 Next, as shown in FIG. 8, the two calibration planes 0 and Π 1 are parallel, and the perpendicular distances D 0 and D 1 dropped from the optical center of the reference camera to each calibration plane are known. If so, the depth D α of the target object corresponding to the depth coefficient α of the target object obtained by the above equation 8 can be obtained based on the following equation 9.

Figure 2005322128
よって、下記数10に基づいて、対象物体のワールド座標の射影平面(つまり、キャリブレーション平面)に垂直な方向成分Zを求めることが可能になる。
Figure 2005322128
Therefore, on the basis of the following Expression 10, projective plane in the world coordinate of the target object (i.e., the calibration plane) it is possible to determine a direction perpendicular component Z w to.

Figure 2005322128

<2−2>ステップ2:対象物体の3次元座標の残りの2つの成分X,Yの導出
対象物体の3次元座標(つまり、ワールド座標)の残りの2つの成分X,Yの導出には、基準画像平面から基準キャリブレーション平面への射影変換行列HIC、ステップ1で得られた対象物体のワールド座標の成分Z、基準カメラの光学中心から基準キャリブレーション平面までの距離D(図9参照)といった情報を用いる。
Figure 2005322128

<2-2> Step 2: The remaining two components X w of the remaining two components X w of the 3-dimensional coordinates of the object, three-dimensional coordinates of the derived target object Y w (i.e., world coordinates), Y w Is derived from the reference image plane to the reference calibration plane by the projective transformation matrix H IC , the world coordinate component Z w of the target object obtained in step 1, and the distance from the optical center of the reference camera to the reference calibration plane. Information such as D 1 (see FIG. 9) is used.

ここで、図9において、基準画像平面上の点(より詳細に説明すると、基準カメラが撮影した基準画像上の対象物体を表す点)を射影変換行列HICを用いて基準キャリブレーション平面上の点Mcp(Xcp,Ycp,0)へ投影する。本発明では、基準キャリブレーション平面(ここでは、道路面)への写像された点Mcp(Xcp,Ycp,0)から対象物体を表す点Mのワールド座標成分X,Yを求める訳である。 Here, in FIG. 9, a point on the reference image plane (more specifically, a point representing a target object on the reference image captured by the reference camera) is displayed on the reference calibration plane using the projective transformation matrix H IC . Project to the point M cp (X cp , Y cp , 0). In the present invention, the world coordinate components X w and Y w of the point M w representing the target object from the point M cp (X cp , Y cp , 0) mapped to the reference calibration plane (here, the road surface) are changed. It is a reason for seeking.

図9に示されるように、三角形OCMcpと三角形OCMの相似関係を利用して、下記数12、数14に基づいて、未知である対象物体を表す点Mのワールド座標成分Y,Xを算出することができる。 As shown in FIG. 9, using the similar relationship between the triangle OCM cp and the triangle OCM w , the world coordinate component Y w , of the point M w representing the unknown target object based on the following equations 12 and 14, Xw can be calculated.

つまり、下記数11が成立するので、下記数12が得られる。また、下記数13が成立するので、下記数14が得られる。   That is, since the following formula 11 is established, the following formula 12 is obtained. Moreover, since the following formula 13 is established, the following formula 14 is obtained.

Figure 2005322128
Figure 2005322128

Figure 2005322128
Figure 2005322128

Figure 2005322128
Figure 2005322128

Figure 2005322128
上述したように、本発明に係る3次元位置算出方法によれば、対象物体(つまり、対象物体を表す点M)のワールド座標の全ての成分、つまり、(X,Y,Z)を求めることができる。
Figure 2005322128
As described above, according to the three-dimensional position calculation method according to the present invention, all the components of the world coordinates of the target object (that is, the point M w representing the target object), that is, (X w , Y w , Z w ).

本発明のキャリブレーション方法で求められるパラメータを説明するための模式図である。It is a schematic diagram for demonstrating the parameter calculated | required with the calibration method of this invention. 本発明において、ステレオカメラとキャリブレーション平面を説明するための模式図である。In this invention, it is a schematic diagram for demonstrating a stereo camera and a calibration plane. ステレオ画像間の対応点の例で実際の場面に適用している図である。It is the figure applied to the actual scene in the example of the corresponding point between stereo images. ステレオカメラを真横から見た図である。It is the figure which looked at the stereo camera from the side. 基準画像平面の座標系からワールド座標系への変換を説明するための模式図である。It is a schematic diagram for demonstrating conversion from the coordinate system of a reference | standard image plane to a world coordinate system. 基準キャリブレーション平面上のサンプル点の取り方及びワールド座標値の一例を示す図である。It is a figure which shows an example of how to take the sample point on a reference | standard calibration plane, and a world coordinate value. 2つのキャリブレーション平面に関する射影変換行列を利用した3次元計測を説明するための模式図である。It is a schematic diagram for demonstrating the three-dimensional measurement using the projection transformation matrix regarding two calibration planes. 図7に示された3次元計測の場合において、ステレオカメラを真横から見た図である。In the case of the three-dimensional measurement shown in FIG. 7, it is the figure which looked at the stereo camera from right side. 対象物体の3次元座標の残りの2つの成分X,Yの導出を説明するための模式図である。FIG. 6 is a schematic diagram for explaining derivation of the remaining two components X w and Y w of the three-dimensional coordinates of the target object.

Claims (6)

ステレオ3次元計測、即ち、ステレオカメラを利用した3次元計測を行うためのキャリブレーション方法であって、
平行する第1のキャリブレーション平面と第2のキャリブレーション平面との間のキャリブレーション平面間距離を求め、前記第1のキャリブレーション平面に対するステレオカメラ間の第1の射影変換行列と前記第2のキャリブレーション平面に対するステレオカメラ間の第2の射影変換行列を求め、所定の基準キャリブレーション平面に固定されたワールド座標系における基準カメラの光学中心の3次元位置を求め、基準画像平面から前記基準キャリブレーション平面への第3の射影変換行列を求めるステップを有することを特徴とするステレオ3次元計測用キャリブレーション方法。
A calibration method for performing stereo 3D measurement, that is, 3D measurement using a stereo camera,
A distance between calibration planes between the parallel first calibration plane and the second calibration plane is obtained, and the first projective transformation matrix between the stereo cameras with respect to the first calibration plane and the second calibration plane are calculated. A second projection transformation matrix between stereo cameras with respect to the calibration plane is obtained, a three-dimensional position of the optical center of the reference camera in the world coordinate system fixed to a predetermined reference calibration plane is obtained, and the reference calibration is obtained from the reference image plane. A calibration method for stereo three-dimensional measurement, comprising a step of obtaining a third projective transformation matrix onto a projection plane.
前記基準キャリブレーション平面は、前記第1のキャリブレーション平面又は前記第2のキャリブレーション平面の何れかである請求項1に記載のステレオ3次元計測用キャリブレーション方法。   The stereo three-dimensional measurement calibration method according to claim 1, wherein the reference calibration plane is one of the first calibration plane and the second calibration plane. 前記第1の射影変換行列を求めるために必要な情報は、ステレオカメラから観察した3次元空間中の前記第1のキャリブレーション平面に存在する4点以上のステレオ画像間の対応点であり、また、前記第2の射影変換行列を求めるために必要な情報は、ステレオカメラから観察した3次元空間中の前記第2のキャリブレーション平面に存在する4点以上のステレオ画像間の対応点である請求項2に記載のステレオ3次元計測用キャリブレーション方法。   The information necessary for obtaining the first projective transformation matrix is corresponding points between four or more stereo images existing on the first calibration plane in the three-dimensional space observed from a stereo camera, and The information necessary for obtaining the second projective transformation matrix is corresponding points between four or more stereo images existing on the second calibration plane in the three-dimensional space observed from a stereo camera. Item 3. A calibration method for stereo three-dimensional measurement according to Item 2. 第3の射影変換行列を求めるために必要な情報は、前記基準キャリブレーション平面上の4点以上のサンプル点のワールド座標値である請求項2に記載のステレオ3次元計測用キャリブレーション方法。   The calibration method for stereo three-dimensional measurement according to claim 2, wherein the information necessary for obtaining the third projective transformation matrix is world coordinate values of four or more sample points on the reference calibration plane. 請求項1乃至請求項4の何れかに記載のステレオ3次元計測用キャリブレーション方法を用いて得られた、前記キャリブレーション平面間距離と、前記基準カメラの光学中心の3次元位置と、前記第1の射影変換行列と、前記第2の射影変換行列と、前記第3の射影変換行列とに基づいて、対象物体のワールド座標(X,Y,Z)を導出することを特徴とする3次元位置算出方法。 5. The distance between the calibration planes, the three-dimensional position of the optical center of the reference camera, obtained by using the stereo three-dimensional measurement calibration method according to claim 1; Deriving world coordinates (X w , Y w , Z w ) of the target object based on one projection transformation matrix, the second projection transformation matrix, and the third projection transformation matrix; A three-dimensional position calculation method. 2平面射影変換行列を利用したステレオ3次元計測から、キャリブレーション平面に垂直な方向成分である前記ワールド座標成分Zを導出するステップと、
前記第3の射影変換行列と前記ワールド座標成分Zとに基づいて、前記ワールド座標成分X,Yを求めるステップと、
を有する請求項5に記載の3次元位置算出方法。
Stereo three-dimensional measurement using two-plane projective transformation matrix, deriving the world coordinate component Z w is perpendicular component calibration plane,
Obtaining the world coordinate components X w and Y w based on the third projective transformation matrix and the world coordinate component Z w ;
The three-dimensional position calculation method according to claim 5, wherein:
JP2004140975A 2004-05-11 2004-05-11 Calibration method for stereo three-dimensional measurement and three-dimensional position calculating method Pending JP2005322128A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004140975A JP2005322128A (en) 2004-05-11 2004-05-11 Calibration method for stereo three-dimensional measurement and three-dimensional position calculating method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004140975A JP2005322128A (en) 2004-05-11 2004-05-11 Calibration method for stereo three-dimensional measurement and three-dimensional position calculating method

Publications (1)

Publication Number Publication Date
JP2005322128A true JP2005322128A (en) 2005-11-17

Family

ID=35469356

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004140975A Pending JP2005322128A (en) 2004-05-11 2004-05-11 Calibration method for stereo three-dimensional measurement and three-dimensional position calculating method

Country Status (1)

Country Link
JP (1) JP2005322128A (en)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008292407A (en) * 2007-05-28 2008-12-04 Canon Inc Information processing method and information processing device
KR100927096B1 (en) 2008-02-27 2009-11-13 아주대학교산학협력단 Method for object localization using visual images with reference coordinates
CN101954883A (en) * 2009-07-03 2011-01-26 罗伯特·博世有限公司 Be used to expand method, camera system, driver assistance system and the corresponding automobile of camera system
CN103063135A (en) * 2012-12-26 2013-04-24 北京矿冶研究总院 Three-dimensional laser scanner posture high-precision calibration method and device
CN105021126A (en) * 2015-06-18 2015-11-04 中国计量学院 Truck side guard rail mounting size measurement system and method based on machine vision technology
CN105307115A (en) * 2015-08-07 2016-02-03 浙江海洋学院 Distributed vision positioning system and method based on action robot
CN105307116A (en) * 2015-08-07 2016-02-03 浙江海洋学院 Distributed vision positioning system and method based on mobile robot
CN105302132A (en) * 2015-08-07 2016-02-03 浙江海洋学院 Distributed-type vision localization system and method based on travel robot
CN108734741A (en) * 2017-04-18 2018-11-02 松下知识产权经营株式会社 Camera bearing calibration, camera correction program and camera means for correcting
JP2018179577A (en) * 2017-04-05 2018-11-15 株式会社Soken Position measuring device
CN112184806A (en) * 2020-09-14 2021-01-05 国家电网有限公司 Space distance measurement method based on three-dimensional live-action transformer substation
CN112229342A (en) * 2020-09-14 2021-01-15 桂林电子科技大学 Rapid self-correction method for projection grating in phase measurement profilometry
CN113310420A (en) * 2021-04-22 2021-08-27 中国工程物理研究院上海激光等离子体研究所 Method for measuring distance between two targets through image
JP2022048963A (en) * 2020-09-15 2022-03-28 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド Acquisition method for obstacle three-dimensional position to be used for roadside calculation device, apparatus, electronic device, computer readable storage medium, and computer program
CN114705122A (en) * 2022-04-13 2022-07-05 成都飞机工业(集团)有限责任公司 Large-field stereoscopic vision calibration method
CN114800520A (en) * 2022-05-23 2022-07-29 北京迁移科技有限公司 High-precision hand-eye calibration method

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008292407A (en) * 2007-05-28 2008-12-04 Canon Inc Information processing method and information processing device
KR100927096B1 (en) 2008-02-27 2009-11-13 아주대학교산학협력단 Method for object localization using visual images with reference coordinates
CN101954883A (en) * 2009-07-03 2011-01-26 罗伯特·博世有限公司 Be used to expand method, camera system, driver assistance system and the corresponding automobile of camera system
CN101954883B (en) * 2009-07-03 2016-04-13 罗伯特·博世有限公司 For expanding the method for camera system, camera system, driver assistance system and corresponding automobile
CN103063135A (en) * 2012-12-26 2013-04-24 北京矿冶研究总院 Three-dimensional laser scanner posture high-precision calibration method and device
CN105021126A (en) * 2015-06-18 2015-11-04 中国计量学院 Truck side guard rail mounting size measurement system and method based on machine vision technology
CN105307115A (en) * 2015-08-07 2016-02-03 浙江海洋学院 Distributed vision positioning system and method based on action robot
CN105307116A (en) * 2015-08-07 2016-02-03 浙江海洋学院 Distributed vision positioning system and method based on mobile robot
CN105302132A (en) * 2015-08-07 2016-02-03 浙江海洋学院 Distributed-type vision localization system and method based on travel robot
JP2018179577A (en) * 2017-04-05 2018-11-15 株式会社Soken Position measuring device
CN108734741A (en) * 2017-04-18 2018-11-02 松下知识产权经营株式会社 Camera bearing calibration, camera correction program and camera means for correcting
CN112184806A (en) * 2020-09-14 2021-01-05 国家电网有限公司 Space distance measurement method based on three-dimensional live-action transformer substation
CN112229342A (en) * 2020-09-14 2021-01-15 桂林电子科技大学 Rapid self-correction method for projection grating in phase measurement profilometry
JP2022048963A (en) * 2020-09-15 2022-03-28 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド Acquisition method for obstacle three-dimensional position to be used for roadside calculation device, apparatus, electronic device, computer readable storage medium, and computer program
US11694445B2 (en) 2020-09-15 2023-07-04 Apollo Intelligent Connectivity (Beijing) Technology Co., Ltd. Obstacle three-dimensional position acquisition method and apparatus for roadside computing device
CN113310420A (en) * 2021-04-22 2021-08-27 中国工程物理研究院上海激光等离子体研究所 Method for measuring distance between two targets through image
CN113310420B (en) * 2021-04-22 2023-04-07 中国工程物理研究院上海激光等离子体研究所 Method for measuring distance between two targets through image
CN114705122A (en) * 2022-04-13 2022-07-05 成都飞机工业(集团)有限责任公司 Large-field stereoscopic vision calibration method
CN114800520A (en) * 2022-05-23 2022-07-29 北京迁移科技有限公司 High-precision hand-eye calibration method
CN114800520B (en) * 2022-05-23 2024-01-23 北京迁移科技有限公司 High-precision hand-eye calibration method

Similar Documents

Publication Publication Date Title
KR101930796B1 (en) 3 Dimensional Coordinates Calculating Apparatus, 3 Dimensional Coordinates Calculating Method, 3 Dimensional Distance Measuring Apparatus and 3 Dimensional Distance Measuring Method Using Images
CN111243002A (en) Monocular laser speckle projection system calibration and depth estimation method applied to high-precision three-dimensional measurement
CN110296667B (en) High-reflection surface three-dimensional measurement method based on line structured light multi-angle projection
CN111192235B (en) Image measurement method based on monocular vision model and perspective transformation
JP2005322128A (en) Calibration method for stereo three-dimensional measurement and three-dimensional position calculating method
Zhang et al. A robust and rapid camera calibration method by one captured image
KR102016636B1 (en) Calibration apparatus and method of camera and rader
CN108986070A (en) A kind of rock fracture way of extensive experimentation monitoring method based on high-speed video measurement
CN102376089A (en) Target correction method and system
CN104316083B (en) The TOF depth camera three-dimensional coordinate caliberating devices and method of a kind of virtual many spheroid centre of sphere positioning
JP6515650B2 (en) Calibration apparatus, distance measuring apparatus and calibration method
KR101926953B1 (en) Matching method of feature points in planar array of four - camera group and measurement method based theron
CN1561502A (en) Strapdown system for three-dimensional reconstruction
CN110415286B (en) External parameter calibration method of multi-flight time depth camera system
Junior et al. Calibration of a catadioptric omnidirectional vision system with conic mirror
Wohlfeil et al. Automatic camera system calibration with a chessboard enabling full image coverage
JP3696336B2 (en) How to calibrate the camera
JP2002099902A (en) Image processing device for measuring three-dimensional information of object through binocular stereoscopic vision, its method, and storage medium with measurement program stored therein
Yang et al. Effect of field of view on the accuracy of camera calibration
CN111402315A (en) Three-dimensional distance measuring method for adaptively adjusting base line of binocular camera
Aldelgawy et al. Calibration of smartphone’s rear dual camera system
US11640680B2 (en) Imaging system and a method of calibrating an image system
CN100370220C (en) Single-image self-calibration for relative parameter of light structural three-dimensional system
KR100379948B1 (en) Three-Dimensional Shape Measuring Method
Ahrnbom et al. Calibration and absolute pose estimation of trinocular linear camera array for smart city applications