JPH0886609A - Measurement with beam light projection-type three-dimensional sensor, calibration of the sensor and apparatus therefor - Google Patents

Measurement with beam light projection-type three-dimensional sensor, calibration of the sensor and apparatus therefor

Info

Publication number
JPH0886609A
JPH0886609A JP22155794A JP22155794A JPH0886609A JP H0886609 A JPH0886609 A JP H0886609A JP 22155794 A JP22155794 A JP 22155794A JP 22155794 A JP22155794 A JP 22155794A JP H0886609 A JPH0886609 A JP H0886609A
Authority
JP
Japan
Prior art keywords
camera
beam light
dimensional
light projection
dimensional sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP22155794A
Other languages
Japanese (ja)
Inventor
Ko Sano
香 佐野
Takashi Harada
孝 原田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kobe Steel Ltd
Original Assignee
Kobe Steel Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kobe Steel Ltd filed Critical Kobe Steel Ltd
Priority to JP22155794A priority Critical patent/JPH0886609A/en
Publication of JPH0886609A publication Critical patent/JPH0886609A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE: To provide a measuring method with a beam projection type three- dimensional sensor, a calibration method for the sensor, and an apparatus therefor enabling highly accurate three-dimensional measurements and correct calibration of an actual beam-camera system. CONSTITUTION: According to the method, modeling of a beam projection type three-dimensional sensor is conducted with the use of an affine inverse matrix so that a middle point of the common normal of a line of a beam light from a beam light source and a line of sight of a camera becomes an approximate solution of least squares (51). Image data of the camera as measuring data are subjected to coordinate transformation with the use of a line parameter of the beam light included in the model and a camera parameter, thereby the position of a measuring point on the three-dimensional coordinates in space is operated (52). Alternatively, the line parameter of the beam light included in the model and the camera parameter are calibrated. By the above constitution, a highly accurate three-dimensional measurements and the like are achieved.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は,ビーム光投影式3次元
センサによる計測方法及びキャリブレーション方法並び
にそれらの装置に係り,詳しくはビーム光源と1台のカ
メラとを用いて,三角測量により3次元位置計測を行う
ビーム光投影式3次元センサによる計測方法及びキャリ
ブレーション方法並びにそれらの装置に関するものであ
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a measuring method and a calibrating method using a beam light projection type three-dimensional sensor and their devices. More specifically, the present invention relates to a method of triangulation using a beam light source and a camera. The present invention relates to a measuring method and a calibrating method using a beam light projection type three-dimensional sensor for measuring a dimensional position, and devices thereof.

【0002】[0002]

【従来の技術】レーザビームなどのビーム光を用いたビ
ーム光投影式3次元式センサは,幾何学的位置関係が既
知のビーム光源と1台のカメラとを用いて,三角測量の
原理により3次元空間内にあるある対象物体の位置を計
測するものである。ここでは,ビーム光源と1台のカメ
ラとの幾何学的位置関係の設定/較正精度が,計測精度
に直接影響する。このため,高い計測精度を得るために
は,ビーム光源と1台のカメラとの幾何学的位置関係の
較正(キャリブレーション)を精度良く行う必要があ
る。一般に,ビーム光投影式3次元センサのキャリブレ
ーションは,ビーム光源と1台のカメラとの幾何学的位
置関係を数学モデルを用いて記述し,モデルのパラメー
タの値を導出することにより行われる。このような従来
のビーム光投影式3次元センサの計測方法では,3次元
空間上の計測点がビーム光の直線上にあり,かつ計測点
とカメラのレンズ中心を結んだカメラ視線とカメラの撮
像面との交点にビーム像が存在するという仮定を用いる
ことにより,複数個の方程式の内1個の方程式を解いて
計測点の座標を算出していた(電子セオドライトを用い
た大型構造物の3次元計測システム,SICE‘89,
July25−27,Matsuyama参照)。
2. Description of the Related Art A beam light projection type three-dimensional sensor using a beam light such as a laser beam uses a beam light source whose geometrical positional relationship is known and a single camera, and uses a triangulation principle. It measures the position of a certain target object in the dimensional space. Here, the setting / calibration accuracy of the geometrical positional relationship between the beam light source and one camera directly affects the measurement accuracy. Therefore, in order to obtain high measurement accuracy, it is necessary to accurately calibrate the geometrical positional relationship between the beam light source and one camera. Generally, the calibration of the beam light projection type three-dimensional sensor is performed by describing the geometrical positional relationship between the beam light source and one camera using a mathematical model and deriving the parameter values of the model. In such a conventional method of measuring a beam light projection type three-dimensional sensor, the measurement point in the three-dimensional space is on the straight line of the beam light, and the line of sight of the camera connecting the measurement point and the lens center of the camera and the image pickup of the camera. By using the assumption that the beam image exists at the intersection with the plane, one of the equations was solved to calculate the coordinates of the measurement point (3 for a large structure using an electronic theodolite). Dimensional measurement system, SICE'89,
Jul 25-27, Matsuyama).

【0003】[0003]

【発明が解決しようとする課題】上記したような従来の
ビーム光投影式3次元センサによる計測方法では,3次
元空間上の計測点がビーム光の直線上にあり,かつ計測
点とカメラのレンズ中心を結んだカメラ視線とカメラの
撮像面との交点にビーム像が存在するという仮定を用い
ている。しかし,現実のビーム光投影式3次元センサで
は,計測の量子化誤差などのため,ビーム光直線とカメ
ラ視線とが厳密には交錯しなくなる。その場合,上記仮
定を用いて1個の方程式を解く方法では,計測ノイズな
どの影響が大きいため,計測精度が低下する。従って,
現実のビーム−カメラ系のキャリブレーションを正確に
は行うことができない。本発明は上記事情に鑑みてなさ
れたものであり,その第1の目的とするところは,計測
ノイズなどの現実のビーム−カメラ系に存在する誤差を
予め考慮することにより高精度な3次元計測を行い得る
ビーム光投影式3次元センサによる計測方法およびその
装置を提供することである。また,第2の目的とすると
ころは,現実のビーム−カメラ系のキャリブレーション
を正確に行い得るビーム光投影式3次元センサのキャリ
ブレーション方法及びその装置を提供することである。
In the conventional measuring method using the beam light projection type three-dimensional sensor as described above, the measuring point in the three-dimensional space is on the straight line of the beam light and the measuring point and the lens of the camera. The assumption is that a beam image exists at the intersection of the camera line of sight that connects the centers and the imaging surface of the camera. However, in an actual beam light projection type three-dimensional sensor, the beam light straight line and the camera line of sight do not strictly cross each other due to a quantization error in measurement or the like. In that case, in the method of solving one equation using the above assumptions, the measurement accuracy is reduced because the influence of measurement noise is large. Therefore,
The actual beam-camera system cannot be calibrated accurately. The present invention has been made in view of the above circumstances, and a first object of the present invention is to perform highly accurate three-dimensional measurement by considering in advance an error existing in an actual beam-camera system such as measurement noise. It is an object of the present invention to provide a measurement method and a device therefor using a beam light projection type three-dimensional sensor that can perform A second object is to provide a method and apparatus for calibrating a beam light projection type three-dimensional sensor capable of accurately calibrating an actual beam-camera system.

【0004】[0004]

【課題を解決するための手段】上記第1の目的を達成す
るために第1の発明は,ビーム光源と1台のカメラとを
用いて3次元空間内の計測点の位置を計測するビーム光
投影式3次元センサによる計測方法において,擬似逆行
列を用いて上記光源からのビーム光の直線と上記カメラ
の視線との共通法線の中点を最小自乗近似解とするビー
ム光投影式3次元センサのモデリングを行っておき,上
記計測データであるカメラの画像データを,上記モデル
に含まれる上記ビーム光の直線パラメータとカメラパラ
メータとを用いて座標変換することにより,3次元空間
座標における計測点の位置を演算してなることを特徴と
するビーム光投影式3次元センサによる計測方法として
構成されている。また,第2の発明は,ビーム光源と1
台のカメラとを用いて3次元空間内の計測点の位置を計
測するビーム光投影式3次元センサによる計測装置にお
いて,擬似逆行列を用いて上記光源からのビーム光の直
線と上記カメラの視線との共通法線の中点を最小自乗近
似解とするビーム光投影式3次元センサのモデリングを
行っておくモデリング手段と,上記計測データであるカ
メラの画像データを,上記モデルに含まれる上記ビーム
光の直線パラメータとカメラパラメータとを用いて座標
変換することにより,3次元空間座標における計測点の
位置を演算する演算手段とを具備してなることを特徴と
するビーム光投影式3次元センサによる計測装置であ
る。上記第2の目的を達成するために第3の発明は,ビ
ーム光源と1台のカメラとを用いて3次元空間内の計測
点の位置を計測するビーム光投影式3次元センサのキャ
リブレーション方法において,擬似逆行列を用いて,上
記光源からのビーム光の直線と上記カメラの視線との共
通法線の中点を最小自乗近似解とするビーム光投影式3
次元センサのモデリングを行い,上記モデルを,該モデ
ルに含まれる上記ビーム光の直線パラメータとカメラパ
ラメータとで偏微分し,3次元空間内の既知の計測点の
位置を計測し,上記既知の計測点の位置の計測データと
モデルの偏微分データとを用いて該両データ間のノルム
を最小にするような上記両パラメータを導出してなるこ
とを特徴とするビーム光投影式3次元センサのキャリブ
レーション方法として構成されている。また,ビーム光
源と1台のカメラとを用いて3次元空間内の計測点の位
置を計測するビーム光投影式3次元センサのキャリブレ
ーション装置において,擬似逆行列を用いて,上記光源
からのビーム光の直線と上記カメラの視線との共通法線
の中点を最小自乗近似解とするビーム光投影式3次元セ
ンサのモデリングを行うモデリング手段と,上記モデル
を,該モデルに含まれる上記ビーム光の直線パラメータ
とカメラパラメータとで偏微分する微分手段と,3次元
空間内の既知の計測点の位置を計測する計測手段と,上
記既知の計測点の位置の計測データとモデルの偏微分デ
ータとを用いて該両データ間のノルムを最小にするよう
な上記両パラメータを導出する導出手段とを具備してな
ることを特徴とするビーム光投影式3次元センサのキャ
リブレーション装置である。
To achieve the above first object, a first invention is a beam light for measuring the position of a measuring point in a three-dimensional space by using a beam light source and a camera. In a measurement method using a projection type three-dimensional sensor, a beam light projection type three-dimensional method in which a midpoint of a common normal line between the straight line of the light beam from the light source and the line of sight of the camera is used as a least squares approximate solution using a pseudo inverse matrix The sensor is modeled, and the image data of the camera, which is the measurement data, is subjected to coordinate conversion using the straight line parameter of the light beam and the camera parameter included in the model, thereby measuring points in three-dimensional space coordinates. It is configured as a measuring method by a beam light projection type three-dimensional sensor characterized by calculating the position of. The second invention is a beam light source and
In a measuring device using a beam light projection type three-dimensional sensor that measures the position of a measurement point in a three-dimensional space using two cameras, a straight line of the beam light from the light source and the line of sight of the camera using a pseudo inverse matrix. Modeling means for modeling a beam light projection type three-dimensional sensor having a midpoint of a common normal line to and as a least square approximation solution, and camera data, which is the above measurement data, included in the above beam included in the above model. A beam light projection type three-dimensional sensor comprising: a calculation means for calculating the position of a measurement point in three-dimensional space coordinates by performing coordinate conversion using a linear parameter of light and a camera parameter. It is a measuring device. In order to achieve the above-mentioned second object, a third invention is a calibration method of a beam light projection type three-dimensional sensor for measuring the position of a measurement point in a three-dimensional space using a beam light source and one camera. , A pseudo-inverse matrix is used to calculate a beam light projection formula 3 in which the midpoint of the common normal line between the straight line of the light beam from the light source and the line of sight of the camera is used as the least squares approximate solution.
Modeling a three-dimensional sensor, partially differentiating the model with a linear parameter of the light beam and a camera parameter included in the model, measuring a position of a known measurement point in a three-dimensional space, and performing the known measurement. Calibration of a beam light projection type three-dimensional sensor characterized by deriving both of the above parameters that minimizes the norm between the data using the measured data of the position of the point and the partial differential data of the model. Is configured as an option method. Further, in a beam light projection type three-dimensional sensor calibration device that measures the position of a measurement point in a three-dimensional space using a beam light source and one camera, the beam from the light source is calculated using a pseudo inverse matrix. Modeling means for modeling a beam light projection type three-dimensional sensor having a midpoint of a common normal line of a straight line of light and a line of sight of the camera as a least squares approximate solution, and the beam light included in the model. Differentiating means for partially differentiating between the linear parameter and the camera parameter, measuring means for measuring the position of a known measuring point in the three-dimensional space, measurement data of the position of the known measuring point, and partial derivative data of the model. And a deriving means for deriving both of the above parameters so as to minimize the norm between the two data by using the carrier of the beam light projection type three-dimensional sensor. A configuration device.

【0005】[0005]

【作用】第1,第2の発明によれば,ビーム光源と1台
のカメラとを用いて3次元空間内の計測点の位置を計測
するビーム光投影式3次元センサによる計測を行うに際
し,擬似逆行列を用いて上記光源からのビーム光の直線
と上記カメラの視線との共通法線の中点を最小自乗近似
解とするビーム光投影式3次元センサのモデリングが行
われる。上記計測データであるカメラの画像データを,
上記モデルに含まれる上記ビーム光の直線パラメータと
カメラパラメータとを用いて座標変換することにより,
3次元空間座標における計測点の位置が演算される。上
記モデリングは計測ノイズなどの現実のビーム−カメラ
系に存在する誤差を予め考慮しているため,複数個の方
程式を用いて最小自乗法による演算を行うことにより,
高精度な3次元計測が可能となる。また,第3,第4の
発明によれば,ビーム光源と1台のカメラとを用いて3
次元空間内の計測点の位置を計測するビーム光投影式3
次元センサのキャリブレーションを行うに際し,擬似逆
行列を用いて上記光源からのビーム光の直線と上記,カ
メラの視線との共通法線の中点を最小自乗近似解とする
ビーム光投影式3次元センサのモデリングが行われる。
上記モデルが,該モデルに含まれる上記ビーム光の直線
パラメータとカメラパラメータとで偏微分される。3次
元空間内の既知の計測点の位置が計測される。上記既知
の計測点の計測データとモデルの偏微分データとを用い
て,該両データ間のノルムが最小になるような上記両パ
ラメータが導出される。これにより,現実のビーム−カ
メラ系のキャリブレーションを正確に行うことができ
る。
According to the first and second aspects of the invention, when the beam light projection type three-dimensional sensor for measuring the position of the measurement point in the three-dimensional space is used by using the beam light source and one camera, Using a pseudo-inverse matrix, modeling of a beam light projection type three-dimensional sensor in which the midpoint of the common normal line between the straight line of the light beam from the light source and the line of sight of the camera is used as the least squares approximate solution is performed. The image data of the camera, which is the above measurement data,
By performing coordinate conversion using the linear parameter of the light beam and the camera parameter included in the model,
The position of the measurement point in three-dimensional space coordinates is calculated. Since the above modeling considers errors existing in the actual beam-camera system such as measurement noise in advance, by performing the calculation by the least square method using a plurality of equations,
Highly accurate three-dimensional measurement is possible. Further, according to the third and fourth inventions, a beam light source and a single camera are used.
Beam light projection formula 3 for measuring the position of the measurement point in the dimensional space
When calibrating a three-dimensional sensor, a beam light projection type three-dimensional method that uses a pseudo-inverse matrix to set the midpoint of the common normal line between the line of the beam of light from the light source and the line of sight of the camera to the least squares approximate solution Modeling of the sensor is performed.
The model is partially differentiated by the linear parameter of the light beam and the camera parameter included in the model. The position of a known measurement point in the three-dimensional space is measured. Using the measurement data of the known measurement points and the partial differential data of the model, the above two parameters are derived so that the norm between the two data is minimized. As a result, the actual beam-camera system can be accurately calibrated.

【0006】[0006]

【実施例】以下添付図面を参照して,本発明を具体化し
た実施例につき説明し,本発明の理解に供する。尚,以
下の実施例は,本発明を具体化した一例であって,本発
明の技術的範囲を限定する性格のものではない。ここ
に,図1は第1の発明の一実施例(第1の実施例)に係
るビーム光投影式3次元センサによる計測方法の概略処
理フローを示す図,図2は上記計測方法を適用可能な装
置Aの概略構成を示すブロック図,図3は各座標系の説
明図,図4は第3の発明の一実施例(第2の実施例)に
係るビーム光投影式3次元センサのキャリブレーション
方法の概略処理フローを示す図,図5は上記キャリブレ
ーション方法を適用可能な装置Bの概略構成を示すブロ
ック図である。図1に示すごとく,第1の発明の一実施
例(第1の実施例)に係るビーム光投影式3次元センサ
による計測方法は,ビーム光源と1台のカメラとを用い
て3次元空間内の計測点の位置を計測するビーム投影式
3次元センサによる計測である点で従来例と同様であ
る。しかし,本第1の実施例では,擬似逆行列を用いて
上記光源からのビーム光の直線と上記カメラの視線との
共通法線の中点を最小自乗近似解とするビーム光投影式
3次元センサのモデリングを行っておき(S1),上記
計測データであるカメラの画像データを,上記モデルに
含まれる上記ビーム光の直線パラメータとカメラパラメ
ータとを用いて座標変換することにより,3次元空間座
標における計測点の位置を演算する(S2)ように構成
されている点で従来例と異なる。上記測定方法を適用可
能な装置を図2に示す。即ち,この測定装置Aが第2の
発明であり,図中のモデリング装置3(モデリング手段
に相当)により上記方法におけるステップS1を,計測
点位置計算装置4(演算手段に相当)により上記ステッ
プS2をそれぞれ実行する。実行結果は出力装置5によ
り出力される。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiments embodying the present invention will be described below with reference to the accompanying drawings for the understanding of the present invention. The following embodiments are examples of embodying the present invention and are not intended to limit the technical scope of the present invention. Here, FIG. 1 is a diagram showing a schematic processing flow of a measuring method using a beam light projection type three-dimensional sensor according to an embodiment (first embodiment) of the first invention, and FIG. 2 is applicable to the measuring method. FIG. 3 is a block diagram showing a schematic configuration of a device A, FIG. 3 is an explanatory diagram of each coordinate system, and FIG. 4 is a calibration of a beam light projection type three-dimensional sensor according to an embodiment (second embodiment) of the third invention. FIG. 5 is a block diagram showing a schematic configuration of an apparatus B to which the above calibration method can be applied. As shown in FIG. 1, a measuring method using a beam light projection type three-dimensional sensor according to one embodiment (first embodiment) of the first invention uses a beam light source and one camera in a three-dimensional space. This is the same as the conventional example in that the measurement is performed by the beam projection type three-dimensional sensor that measures the position of the measurement point. However, in the first embodiment, a pseudo-inverse matrix is used for the beam light projection type three-dimensional method in which the midpoint of the common normal line between the straight line of the light beam from the light source and the line of sight of the camera is used as the least square approximation solution. The sensor is modeled (S1), and the image data of the camera, which is the measurement data, is subjected to coordinate conversion using the straight line parameter of the light beam and the camera parameter included in the model, thereby performing three-dimensional spatial coordinates. This is different from the conventional example in that it is configured to calculate the position of the measurement point in (S2). An apparatus to which the above measuring method can be applied is shown in FIG. That is, this measuring apparatus A is the second invention, and the modeling apparatus 3 (corresponding to modeling means) in the figure performs step S1 in the above method, and the measuring point position calculating apparatus 4 (corresponding to computing means) performs the above step S2. Respectively. The execution result is output by the output device 5.

【0007】以下上記方法の手順に従って,基本原理を
明らかにする。 ステップS1(ビーム光投影式3次元センサのモデリン
グ):本第1の実施例では,まずビーム光源1と1台の
カメラ2とを用いて図3に示すようなワールド座標系Σ
w で記述される参照点w xの位置を計測する場合を想定
する。このとき光源1からのビーム光,カメラ2,計測
w x及び,ワールド座標系ΣW の関係を次のように表
現する。即ち,図中に定義するワールド座標系ΣW から
ビーム光座標系ΣR 及び,カメラ座標系ΣC への座標変
換をそれぞれ4×4の同次変換行列w R w C で表
現し,スクリーン座標系ΣS からフレーム座標系ΣF
の座標変換を3×3の同次変換行列S F で表現する。
また,カメラ2の撮像面(スクリーン)の位置と姿勢と
はスクーン上に設定された座標系ΣS で記述し,画像メ
モリ上での位置と姿勢とは画像メモリ上に設定されたフ
レーム座標系ΣF で記述する。ここに,
The basic principle will be clarified below according to the procedure of the above method. Step S1 (Modeling of a beam light projection type three-dimensional sensor): In the first embodiment, first, the beam light source 1 and one camera 2 are used to create a world coordinate system Σ as shown in FIG.
it is assumed for measuring the position of the reference point w x described by w. At this time, the relationship between the light beam from the light source 1, the camera 2, the measurement point w x, and the world coordinate system Σ W is expressed as follows. That is, the light beam coordinate system sigma R and from the world coordinate system sigma W as defined in the figure, homogeneous transformation matrix of each coordinate transformation to the camera coordinate system Σ C 4 × 4 w A R , expressed in w A C , expressed in homogeneous transformation matrix S a F of the coordinate conversion 3 × 3 from the screen coordinate system sigma S to the frame coordinate system sigma F.
Further, the position and orientation of the image pickup surface (screen) of the camera 2 are described by the coordinate system Σ S set on the scoon, and the position and orientation on the image memory are the frame coordinate system set on the image memory. Describe in Σ F. here,

【数1】 スクーン(CCD面)から画像メモリ(フレームバッフ
ァ)上への変換には,サンプリング等の影響による歪み
が生じる。それを(F 0 F 0 )は原点の並進と
し,(s,t)は座標軸の収縮,φは座標系のゆがみと
する。カメラ座標空間をスクリーン座標空間へ投影する
射影行列を次式で与える。
[Equation 1] The conversion from the screen (CCD surface) to the image memory (frame buffer) causes distortion due to the influence of sampling or the like. Let ( F u 0 , F v 0 ) be the translation of the origin, (s, t) be the contraction of the coordinate axes, and φ be the distortion of the coordinate system. The projection matrix for projecting the camera coordinate space onto the screen coordinate space is given by the following equation.

【数2】 [Equation 2]

【0008】ここで,fは焦点距離である。ビーム光座
標系ΣR における,ビーム光は次のように表現される。 R x=α・R m+R 0 …(4) ただし,αはスカラの媒介変数,R mは方向ベクトル,
R 0 はビーム光上の点であり,
Here, f is the focal length. The beam light in the beam light coordinate system Σ R is expressed as follows. R x = α · R m + R x 0 (4) where α is a scalar parameter, R m is a direction vector,
R x 0 is a point on the light beam,

【数3】 である。ビーム光座標系ΣR で定義される点R xをフレ
ーム座標系ΣF へ投影すると次のようになる。
(Equation 3) Is. The point R x defined by the beam light coordinate system Σ R is projected on the frame coordinate system Σ F as follows.

【数4】 [Equation 4]

【0009】但し,F wはスケールファクタであり,2
次元フレーム上の点(F X,F Y)は,次式で与えられ
る(射影変換により3次元空間の点は2次元空間の点へ
射影される)。
However, F w is a scale factor, and 2
The point ( F X, F Y) on the three-dimensional frame is given by the following equation (the point in the three-dimensional space is projected onto the point in the two-dimensional space by the projective transformation).

【数5】 カメラ2の取り付け位置,焦点距離,フレームバッファ
の歪みなどを表現するカメラパラメータおよび光源1か
らのビーム光の直線のパラメータをセンサパラメータc
と定義する。本第1の実施例では,上記(1),
(3),(6)式におけるパラメータ,
(Equation 5) The sensor parameter c is a camera parameter expressing the mounting position of the camera 2, the focal length, the distortion of the frame buffer, and the like, and the straight line parameter of the light beam from the light source 1.
Is defined. In the first embodiment, the above (1),
Parameters in equations (3) and (6),

【数6】 が,具体的なセンサパラメータとなる。キャリブレーシ
ョンとは,これらのパラメータの値を正確に導出するこ
とにほかならない。 ステップS2(擬似逆行列を用いたビーム光投影式3次
元センサの計測方法):
(Equation 6) Is the specific sensor parameter. Calibration is nothing but the accurate derivation of the values of these parameters. Step S2 (measurement method of beam light projection type three-dimensional sensor using pseudo inverse matrix):

【0010】ビーム光座標系ΣR における直線が上記
(4)式のように与えられている時,座標変換行列W
R W C F S S C は全て既知であるので,上
記(5)式におけるベクトルのフレーム座標系ΣF での
ベクトル量
When the straight line in the beam light coordinate system Σ R is given by the above equation (4), the coordinate transformation matrix W A
Since R , W A C , F A S , and S P C are all known, the vector amount in the frame coordinate system Σ F of the vector in the above equation (5)

【数7】 はその値が規定されている。この時,上記(7)式より
次式が導かれる。
(Equation 7) Has its value specified. At this time, the following equation is derived from the above equation (7).

【数8】 上記(10)式は未知変数がα1つに対して,方程式が
2つあり冗長になっている。従来は,3次元空間上の計
測点がビーム光の直線上にあり,且つ,計測点とカメラ
のレンズ中心とを結んだカメラ視線とカメラの撮像面と
の交点にビーム像が存在するという仮定を用いて1つの
方程式を解いていた。しかし,本第1の実施例では,こ
れら冗長な方程式を用いて擬似逆行列による最小自乗解
を得る。
[Equation 8] The equation (10) is redundant because there are two equations for one unknown variable α. Conventionally, it is assumed that the measurement point in the three-dimensional space is on the straight line of the light beam and that the beam image exists at the intersection of the camera line of sight connecting the measurement point and the center of the camera lens and the imaging surface of the camera. Was used to solve one equation. However, in the first embodiment, the least squares solution by the pseudo inverse matrix is obtained by using these redundant equations.

【数9】 [Equation 9]

【0011】但し,+は擬似逆行列を表し,例えばPが
n×m行列(n≧m)のとき P+ =PT (PT P)-1 …(12) で与えられる。上記(11)式で得られた変数αを上記
(4)式に代入することにより,ビーム光座標系ΣR
おける計測点の位置R xが求められ,次のような座標変
換によりワールド座標系Σw における計測点の位置を求
めることができる。 W x=W R R x …(13) 以上のように,本第1の実施例では擬似逆行列による最
小自乗解を用いることにより,計測ノイズなどの影響に
よる計測精度の低下を軽減することができる。ところ
で,上記第1の実施例ではビーム光投影式3次元センサ
による計測方法及びその装置について述べたが,この計
測に用いるモデリング中のセンサパラメータについて
は,定期的にキャリブレーションを行う必要がある。そ
の方法を実現したのが次に述べる第3,第4の発明であ
る。図4に示す如く,第3の発明の一実施例(第2の実
施例)に係るビーム光投影式3次元センサのキャリブレ
ーション方法は,ビーム光源と1台のカメラとを用いて
3次元空間内の計測点の位置を計測するビーム光投影式
3次元センサのキャリブレーションを行うに際し,擬似
逆行列を用いて上記光源からのビーム光の直線と上記カ
メラの視線との共通法線の中点を最小自乗近似解とする
ビーム光投影式3次元センサのモデリングを行い(S1
1),上記モデルを,該モデルに含まれる上記ビーム光
の直線パラメータとカメラパラメータとで偏微分し(S
12),3次元空間内の既知の計測点の位置を計測し
(S13),上記既知の計測点の既知の計測データとモ
デルの偏微分データとを用いて該両データ間のノルムを
最小にするような上記両パラメータを導出する(S1
4)ように構成されている。
However, + represents a pseudo-inverse matrix, and is given by P + = P T (P T P) -1 (12) when P is an n × m matrix (n ≧ m), for example. By substituting the variable α obtained by the above equation (11) into the above equation (4), the position R x of the measurement point in the beam light coordinate system Σ R is obtained, and the world coordinate system is obtained by the following coordinate conversion. The position of the measurement point at Σ w can be obtained. W x = W A R · R x ... (13) As described above, in this first embodiment by using the least squares solution by pseudo-inverse, to reduce the deterioration of the measurement accuracy due to influence of measurement noise be able to. By the way, in the first embodiment described above, the measuring method and the apparatus using the beam light projection type three-dimensional sensor have been described. However, it is necessary to periodically calibrate the sensor parameter during modeling used for this measurement. The method is realized by the following third and fourth inventions. As shown in FIG. 4, a method of calibrating a beam light projection type three-dimensional sensor according to an embodiment (second embodiment) of the third invention uses a beam light source and a camera to form a three-dimensional space. When calibrating a beam light projection type three-dimensional sensor that measures the position of a measurement point inside, the midpoint of the common normal line between the straight line of the light beam from the light source and the line of sight of the camera is calculated by using the pseudo inverse Modeling of a beam light projection type three-dimensional sensor with S is the least squares approximate solution (S1
1), the model is partially differentiated by the linear parameter of the light beam and the camera parameter included in the model (S
12), the position of a known measurement point in the three-dimensional space is measured (S13), and the norm between the two is minimized by using the known measurement data of the known measurement point and the partial differential data of the model. Both of the above parameters are derived (S1
4) is configured.

【0012】上記キャリブレーション方法を適用可能な
装置を図5に示す。即ち,このキャリブレーション装置
Bが第4の発明であり,図5中のモデリング装置6(モ
デリング手段に相当)により上記方法におけるステップ
S11を,微分装置7(微分手段に相当)によりステッ
プS12を,ビーム光源1及びカメラ2(いずれも計測
手段に相当)及びキャリブレーション用データ記憶装置
8によりステップS13を,センサパラメータ計算装置
9(導出手段に相当)によりステップS14をそれぞれ
実行する。実行結果はセンサパラメータ記憶装置10に
記憶され,ビーム光源1及びカメラ2による実際の計測
に供される。以下,上記方法の手順に従って基本原理を
明らかにする。 ステップS11(ビーム光投影式3次元センサのモデリ
ング):このステップは上記第1の実施例方法における
ステップS1と同様であるので,ここではその説明を割
愛する。 ステップS12(微分関係の導出):今,W R W
C S C F S などの座標変換行列及びビーム光の
パラメータがN個の要素を持つパラメータベクトルqk
で記述されているものとする。 qk =〔qk1k2 …qkN〕 …(14) このパラメータベクトルqk は,上記第1の実施例方法
におけるセンサパラメータcを一般化したものである。
定式化を簡単にするため,前記(4)式の直線の式をワ
ールド座標系Σw へ変換し,関数f( ,)で表す。
An apparatus to which the above calibration method can be applied is shown in FIG. That is, the calibration device B is the fourth invention, and the modeling device 6 (corresponding to modeling means) in FIG. 5 performs step S11 in the above method, and the differentiating device 7 (corresponding to differentiating means) performs step S12. The beam light source 1 and the camera 2 (both correspond to measuring means) and the calibration data storage device 8 execute step S13, and the sensor parameter calculation device 9 (corresponding to deriving means) executes step S14. The execution result is stored in the sensor parameter storage device 10 and used for actual measurement by the beam light source 1 and the camera 2. Below, the basic principle is clarified according to the procedure of the above method. Step S11 (Modeling of a beam light projection type three-dimensional sensor): This step is the same as step S1 in the method of the first embodiment, so its explanation is omitted here. Step S12 (derivation of differential relation): Now, W A R , W A
C, S P C, F A S parameter vector q k parameters of the coordinate transformation matrix and the light beam having the N elements, such as
It is assumed that it is described in. q k = [q k1 q k2 ... q kN] ... (14) The parameter vector q k is a generalization of the sensor parameter c in the first embodiment method.
In order to simplify the formulation, the straight line equation of the equation (4) is converted into the world coordinate system Σ w and is represented by the function f (,).

【数10】 [Equation 10]

【0013】以下,フレーム座標系ΣF の投影点F Xが
与えられたときに,パラメータベクトルqk の誤差によ
りワールド座標系Σw の参照点w xを導出する計算中に
生じる誤差を導出する。上記(15)式のパラメータベ
クトルqk による微分関係は次式のようになる。
Hereinafter, when the projection point F X of the frame coordinate system Σ F is given, the error that occurs during the calculation for deriving the reference point w x of the world coordinate system Σ w due to the error of the parameter vector q k is derived. . The differential relation by the parameter vector q k of the above equation (15) is as follows.

【数11】 ここにJl はヤコビ行列である。以降では,このヤコビ
行列Jl を導出する。上記(16)式において,ヤコビ
行列Jl は次のように変形できる。
[Equation 11] Where J l is the Jacobian matrix. In the following, this Jacobian matrix J l is derived. In the above equation (16), the Jacobian matrix J l can be transformed as follows.

【数12】 [Equation 12]

【0014】上記(17)式の右辺第2,3項は同次変
換形式の微分で容易に導出される。第1項に関しては次
のように書き直す。
The second and third terms on the right side of the equation (17) can be easily derived by the differential of the homogeneous conversion form. Rewrite the first term as follows.

【数13】 すると第1項はクロネッカ積を用いて,[Equation 13] Then, the first term uses the Kronecker product,

【数14】 のように導出される。上記(17),(19)式が,ビ
ーム光を用いた光切断計測の誤差方程式である。尚,従
来の仮定を用いたモデリング手法では,
[Equation 14] Is derived as follows. The above equations (17) and (19) are error equations of the light section measurement using the beam light. In addition, in the modeling method using the conventional assumption,

【数15】 より,上記(19)式の右辺第1項の影響が無視された
形になっており,その意味で厳密性を欠いていた。上記
(19)式により,フレーム座標系ΣF からワールド座
標系Σw の微分関係,すなわち,フレーム座標系ΣF
投影点F Xが与えられたときにカメラパラメータの誤差
(微小変化)及び量子化などの投影点そのものの誤差に
より,ワールド座標系Σw の参照点w xを導出する計算
中に生じる誤差が計算される。
(Equation 15) As a result, the influence of the first term on the right side of the above equation (19) is neglected, and in that sense the rigor is lacking. According to the above equation (19), when the differential relation between the frame coordinate system Σ F and the world coordinate system Σ w , that is, the projection point F X of the frame coordinate system Σ F is given, the camera parameter error (small change) and quantum Due to the error of the projection point itself such as the conversion, the error that occurs during the calculation for deriving the reference point w x of the world coordinate system Σ w is calculated.

【0015】ステップS13(キャリブレーション用デ
ータの収集):ワールド座標系Σw における位置が既知
の計測点w i を用意する。
Step S13 (collection of calibration data): A measurement point w x i whose position in the world coordinate system Σ w is known is prepared.

【数16】 それらをカメラ2で撮像したデータを次のように表す。[Equation 16] Data obtained by capturing them with the camera 2 is represented as follows.

【数17】 ただし,mは計測点w i の個数である。ワールド座標
系Σw の計測点の位置と個数は後述する(24)式のヤ
コビ行列JのランクがN(センサパラメータの個数)以
上になるように選ぶ。 ステップS14(キャリブレーション計算)
[Equation 17] However, m is the number of measurement points w x i . The positions and the number of measurement points in the world coordinate system Σ w are selected so that the rank of the Jacobian matrix J of the equation (24) described later is N (the number of sensor parameters) or more. Step S14 (calibration calculation)

【0016】上記(21),(22)式のデータと,
(15),(19)式とを用いて(13)式のセンサパ
ラメータを導出する。 サブステップS14−1:センサパラメータの初期値
Data of the above equations (21) and (22),
The sensor parameters of equation (13) are derived using equations (15) and (19). Substep S14-1: Initial values of sensor parameters

【数18】 と収束判定基準e(>0)とを与える。 サブステップS14−2:ワールド座標系Σw において
既知である計測点の座標値w D ,カメラ2で撮像した
データである投影点 FXとセンサパラメータの一般形で
あるベクトルqとを用いて算出した座標値 wM および
ヤコビ行列Jを求める。
(Equation 18) And the convergence criterion e (> 0). Sub-step S 14 - 2: by using the vector q is a common form known in which the coordinate values w x D measurement point, projection point F X and the sensor parameters is a data captured by the camera 2 in the world coordinate system sigma w The calculated coordinate value w x M and the Jacobian matrix J are obtained.

【数19】 [Formula 19]

【0017】サブステップS14−3: Δx=w D w M …(25) を計算し, |Δx|≦e …(26) なら終了する。 サブステップS14−4: Δw x=JΔqT …(27) より, ΔqT =J+ ΔW x=〔(JT J)-1T 〕Δw x …(28) を計算する。 サブステップS14−5: q←q+Δq …(29) とし,上記サブステップS14−2へ戻る。上記反復計
算により,パラメータベクトルqを高精度に導出するこ
とが可能となる。以上により本第2の実施例によれば現
実のビーム−カメラ系のキャリブレーションを正確に行
うことができる。尚,上記第1,第2の実施例とも,モ
デリングにおいて最小自乗法を用いているが,実使用に
際しては,他の種類の最適化アルゴリズムを用いてもよ
い。ただし,この場合でも最小自乗法によれば他の種類
の最適化アルゴリズムを用いる場合と比べて比較的信頼
性が高く且つ高精度のモデリングを得ることができる。
[0017] The sub-step S14-3: Δx = w x D - w x M ... to calculate the (25), | Δx | terminated if ≦ e ... (26). Sub-step S14-4: Δ w x = JΔq T ... from (27), calculates the = Δq T = J + Δ W x [(J T J) -1 J T] Δ w x ... (28). Substep S14-5: q ← q + Δq (29), and the procedure returns to substep S14-2. The iterative calculation enables the parameter vector q to be derived with high accuracy. As described above, according to the second embodiment, the actual beam-camera system can be accurately calibrated. Although the least squares method is used in modeling in both the first and second embodiments, other types of optimization algorithms may be used in actual use. However, even in this case, according to the method of least squares, relatively reliable and highly accurate modeling can be obtained as compared with the case of using another type of optimization algorithm.

【0018】[0018]

【発明の効果】第1,第2の発明に係るビーム光投影式
3次元センサによる計測方法及びその装置は,上記した
ように構成されているため,計測ノイズなどの現実のビ
ーム−カメラ系に存在する誤差を予め考慮することがで
きる。このため,複数個の方程式を用いて最小自乗法に
よる演算を行うことにより,高精度な3次元計測が可能
となる。また,第3,第4の発明に係るビーム光投影式
3次元センサのキャリブレーション方法及びその装置
は,上記したように構成されているため,現実のビーム
−カメラ系のキャリブレーションを正確に行うことがで
きる。
Since the measuring method and apparatus using the beam light projection type three-dimensional sensor according to the first and second aspects of the invention are configured as described above, they can be applied to an actual beam-camera system such as measurement noise. The existing error can be taken into account in advance. Therefore, highly accurate three-dimensional measurement can be performed by performing the calculation by the least square method using a plurality of equations. Further, since the method and apparatus for calibrating the beam light projection type three-dimensional sensor according to the third and fourth aspects of the invention are configured as described above, the actual beam-camera system is calibrated accurately. be able to.

【図面の簡単な説明】[Brief description of drawings]

【図1】 第1の発明の一実施例(第1の実施例)に係
るビーム光投影式3次元センサによる計測方法の概略処
理フローを示す図。
FIG. 1 is a diagram showing a schematic processing flow of a measuring method using a beam light projection type three-dimensional sensor according to an embodiment (first embodiment) of the first invention.

【図2】 上記計測方法を適用可能な装置Aの概略構成
を示すブロック図。
FIG. 2 is a block diagram showing a schematic configuration of an apparatus A to which the above measuring method can be applied.

【図3】 各座標系の説明図。FIG. 3 is an explanatory diagram of each coordinate system.

【図4】 第3の発明の一実施例(第2の実施例)に係
るビーム光投影式3次元センサのキャリブレーション方
法の概略処理フローを示す図。
FIG. 4 is a diagram showing a schematic processing flow of a calibration method for a beam light projection type three-dimensional sensor according to an embodiment (second embodiment) of the third invention.

【図5】 上記キャリブレーション方法を適用可能な装
置Bの概略構成を示すブロック図。
FIG. 5 is a block diagram showing a schematic configuration of an apparatus B to which the above calibration method can be applied.

【符号の説明】[Explanation of symbols]

A…ビーム光投影式3次元センサによる計測装置 1…ビーム光源(計測手段に相当) 2…カメラ(計測手段に相当) 3…モデリング装置(モデリング手段に相当) 4…計測点位置計算装置(演算手段に相当) B…ビーム光投影式3次元センサのキャリブレーション
装置 1…ビーム光源(計測手段に相当) 2…カメラ(計測手段に相当) 6…モデリング装置(モデリング手段に相当) 7…微分装置(微分手段に相当) 9…センサパラメータ計算装置(導出手段に相当)
A ... Measuring device using a beam light projection type three-dimensional sensor 1 ... Beam light source (corresponding to measuring means) 2 ... Camera (corresponding to measuring means) 3 ... Modeling device (corresponding to modeling means) 4 ... Measuring point position calculation device (calculation) B) ... calibration device for beam light projection type three-dimensional sensor 1 ... beam light source (corresponding to measuring device) 2 ... camera (corresponding to measuring device) 6 ... modeling device (corresponding to modeling device) 7 ... differential device (Corresponding to differentiating means) 9 ... Sensor parameter calculation device (corresponding to deriving means)

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 ビーム光源と1台のカメラとを用いて3
次元空間内の計測点の位置を計測するビーム光投影式3
次元センサによる計測方法において,擬似逆行列を用い
て上記光源からのビーム光の直線と上記カメラの視線と
の共通法線の中点を最小自乗近似解とするビーム光投影
式3次元センサのモデリングを行っておき,上記計測デ
ータであるカメラの画像データを,上記モデルに含まれ
る上記ビーム光の直線パラメータとカメラパラメータと
を用いて座標変換することにより,3次元空間座標にお
ける計測点の位置を演算してなることを特徴とするビー
ム光投影式3次元センサによる計測方法。
1. A beam source and a camera
Beam light projection formula 3 for measuring the position of the measurement point in the dimensional space
In a measurement method using a three-dimensional sensor, modeling of a beam light projection type three-dimensional sensor in which a midpoint of a common normal line between the straight line of the light beam from the light source and the line of sight of the camera is used as a least squares approximate solution by using a pseudo inverse matrix The image data of the camera, which is the measurement data, is subjected to coordinate conversion using the linear parameters of the light beam and the camera parameters included in the model to determine the position of the measurement point in three-dimensional space coordinates. A measuring method using a beam light projection type three-dimensional sensor characterized by being calculated.
【請求項2】 ビーム光源と1台のカメラとを用いて3
次元空間内の計測点の位置を計測するビーム光投影式3
次元センサによる計測装置において,擬似逆行列を用い
て上記光源からのビーム光の直線と上記カメラの視線と
の共通法線の中点を最小自乗近似解とするビーム光投影
式3次元センサのモデリングを行っておくモデリング手
段と,上記計測データであるカメラの画像データを,上
記モデルに含まれる上記ビーム光の直線パラメータとカ
メラパラメータとを用いて座標変換することにより,3
次元空間座標における計測点の位置を演算する演算手段
とを具備してなることを特徴とするビーム光投影式3次
元センサによる計測装置。
2. A beam source and a camera
Beam light projection formula 3 for measuring the position of the measurement point in the dimensional space
Modeling of a beam light projection type three-dimensional sensor using a pseudo-inverse matrix in which a midpoint of a common normal line between the straight line of the light beam from the light source and the line of sight of the camera is used as a least-squares approximate solution in a measuring device using a three-dimensional sensor By performing the coordinate conversion of the modeling means for performing the above and the image data of the camera, which is the measurement data, by using the linear parameter of the light beam and the camera parameter included in the model, 3
A measuring device using a beam light projection type three-dimensional sensor, comprising: a calculation means for calculating the position of a measurement point in dimensional space coordinates.
【請求項3】 ビーム光源と1台のカメラとを用いて3
次元空間内の計測点の位置を計測するビーム光投影式3
次元センサのキャリブレーション方法において,擬似逆
行列を用いて,上記光源からのビーム光の直線と上記カ
メラの視線との共通法線の中点を最小自乗近似解とする
ビーム光投影式3次元センサのモデリングを行い,上記
モデルを,該モデルに含まれる上記ビーム光の直線パラ
メータとカメラパラメータとで偏微分し,3次元空間内
の既知の計測点の位置を計測し,上記既知の計測点の位
置の計測データとモデルの偏微分データとを用いて該両
データ間のノルムを最小にするような上記両パラメータ
を導出してなることを特徴とするビーム光投影式3次元
センサのキャリブレーション方法。
3. A beam source and a camera
Beam light projection formula 3 for measuring the position of the measurement point in the dimensional space
In a calibration method for a three-dimensional sensor, a beam light projection type three-dimensional sensor using a pseudo-inverse matrix in which a midpoint of a common normal line between the straight line of the light beam from the light source and the line of sight of the camera is used as a least squares approximate solution. Is modeled, the model is partially differentiated by the linear parameter of the light beam and the camera parameter included in the model, the position of the known measurement point in the three-dimensional space is measured, and the model of the known measurement point is calculated. A method of calibrating a beam light projection type three-dimensional sensor characterized by deriving both of the above parameters that minimizes the norm between the two data by using position measurement data and model partial differential data. .
【請求項4】 ビーム光源と1台のカメラとを用いて3
次元空間内の計測点の位置を計測するビーム光投影式3
次元センサのキャリブレーション装置において,擬似逆
行列を用いて,上記光源からのビーム光の直線と上記カ
メラの視線との共通法線の中点を最小自乗近似解とする
ビーム光投影式3次元センサのモデリングを行うモデリ
ング手段と,上記モデルを,該モデルに含まれる上記ビ
ーム光の直線パラメータとカメラパラメータとで偏微分
する微分手段と,3次元空間内の既知の計測点の位置を
計測する計測手段と,上記既知の計測点の位置の計測デ
ータとモデルの偏微分データとを用いて該両データ間の
ノルムを最小にするような上記両パラメータを導出する
導出手段とを具備してなることを特徴とするビーム光投
影式3次元センサのキャリブレーション装置。
4. A beam source and a camera
Beam light projection formula 3 for measuring the position of the measurement point in the dimensional space
In a calibration device for a three-dimensional sensor, a beam light projection type three-dimensional sensor that uses a pseudo-inverse matrix and uses a midpoint of a common normal line between the straight line of the light beam from the light source and the line of sight of the camera as a least squares approximate solution Means for modeling the above, a differentiating means for partially differentiating the model with the linear parameter of the light beam and the camera parameter included in the model, and a measurement for measuring the position of a known measurement point in the three-dimensional space. And means for deriving the two parameters so as to minimize the norm between the data by using the measurement data of the position of the known measurement point and the partial differential data of the model. A beam light projection type three-dimensional sensor calibration device characterized by:
JP22155794A 1994-09-16 1994-09-16 Measurement with beam light projection-type three-dimensional sensor, calibration of the sensor and apparatus therefor Pending JPH0886609A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP22155794A JPH0886609A (en) 1994-09-16 1994-09-16 Measurement with beam light projection-type three-dimensional sensor, calibration of the sensor and apparatus therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP22155794A JPH0886609A (en) 1994-09-16 1994-09-16 Measurement with beam light projection-type three-dimensional sensor, calibration of the sensor and apparatus therefor

Publications (1)

Publication Number Publication Date
JPH0886609A true JPH0886609A (en) 1996-04-02

Family

ID=16768596

Family Applications (1)

Application Number Title Priority Date Filing Date
JP22155794A Pending JPH0886609A (en) 1994-09-16 1994-09-16 Measurement with beam light projection-type three-dimensional sensor, calibration of the sensor and apparatus therefor

Country Status (1)

Country Link
JP (1) JPH0886609A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005098973A (en) * 2003-08-28 2005-04-14 Fujitsu Ltd Measuring method, measuring system and program
CN1303574C (en) * 2005-02-01 2007-03-07 珠海金山软件股份有限公司 Realp-time 3-D image processing device
JP2011215082A (en) * 2010-04-01 2011-10-27 Nippon Telegr & Teleph Corp <Ntt> Method, apparatus and program for determination of imaging parameter
CN111126450A (en) * 2019-11-29 2020-05-08 上海宇航系统工程研究所 Modeling method and device of cuboid spacecraft based on nine-line configuration

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005098973A (en) * 2003-08-28 2005-04-14 Fujitsu Ltd Measuring method, measuring system and program
CN1303574C (en) * 2005-02-01 2007-03-07 珠海金山软件股份有限公司 Realp-time 3-D image processing device
JP2011215082A (en) * 2010-04-01 2011-10-27 Nippon Telegr & Teleph Corp <Ntt> Method, apparatus and program for determination of imaging parameter
CN111126450A (en) * 2019-11-29 2020-05-08 上海宇航系统工程研究所 Modeling method and device of cuboid spacecraft based on nine-line configuration
CN111126450B (en) * 2019-11-29 2024-03-19 上海宇航系统工程研究所 Modeling method and device for cuboid space vehicle based on nine-line configuration

Similar Documents

Publication Publication Date Title
US20210041236A1 (en) Method and system for calibration of structural parameters and construction of affine coordinate system of vision measurement system
JP3020898B2 (en) A linear estimation method of three-dimensional position by affine camera correction
US6438507B1 (en) Data processing method and processing device
JP3428539B2 (en) Satellite attitude sensor calibration device
Zeller et al. Depth estimation and camera calibration of a focused plenoptic camera for visual odometry
WO2010001940A1 (en) Position measurement method, position measurement device, and program
US20050207640A1 (en) Camera calibration system using planar concentric circles and method thereof
JP5027746B2 (en) POSITION MEASUREMENT METHOD, POSITION MEASUREMENT DEVICE, AND PROGRAM
CN110345921B (en) Stereo visual field vision measurement and vertical axis aberration and axial aberration correction method and system
CN101563709A (en) Calibrating a camera system
CN110969665B (en) External parameter calibration method, device, system and robot
CN111899305A (en) Camera automatic calibration optimization method and related system and equipment
IL182799A (en) Method for estimating the pose of a ptz camera
CN114705122B (en) Large-view-field stereoscopic vision calibration method
CN114299156A (en) Method for calibrating and unifying coordinates of multiple cameras in non-overlapping area
JP3913901B2 (en) Camera internal parameter determination device
JP3842988B2 (en) Image processing apparatus for measuring three-dimensional information of an object by binocular stereoscopic vision, and a method for recording the same, or a recording medium recording the measurement program
JPH0814828A (en) Calibration method for stereoscopic image sensor and device therefor
Chatterjee et al. A nonlinear Gauss–Seidel algorithm for noncoplanar and coplanar camera calibration with convergence analysis
JPH0886609A (en) Measurement with beam light projection-type three-dimensional sensor, calibration of the sensor and apparatus therefor
JP2000205821A (en) Instrument and method for three-dimensional shape measurement
Long et al. Portable visual metrology without traditional self-calibration measurement model
Kumar et al. Generalized radial alignment constraint for camera calibration
CN112116665A (en) Structured light sensor calibration method
KR101239671B1 (en) Method and apparatus for correcting distortion of image by lens