JP2002202122A - Calibration method for two-dimensional distance image sensor - Google Patents
Calibration method for two-dimensional distance image sensorInfo
- Publication number
- JP2002202122A JP2002202122A JP2001000595A JP2001000595A JP2002202122A JP 2002202122 A JP2002202122 A JP 2002202122A JP 2001000595 A JP2001000595 A JP 2001000595A JP 2001000595 A JP2001000595 A JP 2001000595A JP 2002202122 A JP2002202122 A JP 2002202122A
- Authority
- JP
- Japan
- Prior art keywords
- parameter
- dimensional
- distance
- image sensor
- calibration
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Optical Radar Systems And Details Thereof (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of Optical Distance (AREA)
- Image Processing (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、タイムオブフライ
ト方式の距離画像センサのキャリブレーション方法に関
する。The present invention relates to a method of calibrating a distance image sensor of a time-of-flight system.
【0002】[0002]
【従来の技術】3次元計測を行うことで距離画像を生成
する距離画像センサとしては、文献1:R.Miyagawa and
T.Kanade,“CCD-Based Range-Finding Sensor,”IEEE
Transactions on Electron Devices, Vol.44, No.10, O
ctober 1997, pp.1648-1652がある。このセンサシステ
ムでは、光源がパルス光を3次元形状を測定したい対象
物に照射し、当該対象物から反射した光の遅延時間に関
連する電荷量を2次元的に配置された光電素子を用いて
計測し、その電荷量と光の遅延時間の関係に基づき、対
象物の3次元形状を測定することになる。実際的にこの
ような素子はCCDあるいはCMOSなどの微細素子か
ら成り立ち、測定範囲を拡大するためには、こうしたC
CDあるいはCMOSなどの素子と対象物の間にレンズ
などの光学部品を配置することにより、カメラの画角に
相当する測定領域を拡大する必要がある。従って、実際
には光源から発せられるパルス光の位相差を算出して正
確な形状計測あるいは距離計測を行うためには、光電素
子の前方に配置された光学部品を含めて、各素子に対応
する光線方向を決定する必要がある。2. Description of the Related Art As a range image sensor that generates a range image by performing three-dimensional measurement, reference 1: R. Miyagawa and
T. Kanade, “CCD-Based Range-Finding Sensor,” IEEE
Transactions on Electron Devices, Vol.44, No.10, O
ctober 1997, pp. 1648-1652. In this sensor system, a light source irradiates a pulse light to an object whose three-dimensional shape is to be measured, and a charge amount related to a delay time of light reflected from the object using a photoelectric element arranged two-dimensionally. The three-dimensional shape of the object is measured based on the relationship between the measured charge amount and the delay time of light. Practically, such an element is composed of a fine element such as a CCD or a CMOS.
By arranging an optical component such as a lens between an element such as a CD or a CMOS and an object, it is necessary to enlarge a measurement area corresponding to an angle of view of a camera. Therefore, in order to actually calculate the phase difference of the pulsed light emitted from the light source and perform accurate shape measurement or distance measurement, it is necessary to correspond to each element including the optical components arranged in front of the photoelectric element. It is necessary to determine the beam direction.
【0003】[0003]
【発明が解決しようとする課題】しかしながら、文献1
に記載の距離画像センサは、基本的に1次元ラインセン
サとして構成されており、しかも平面上のボードを利用
してキャリブレーションを行うため、各素子に対応する
光線方向を規定し、その光線方向における距離を算出す
るようにキャリブレーションされているわけではない。[0005] However, Document 1
Is basically configured as a one-dimensional line sensor. Further, since calibration is performed using a board on a plane, a light beam direction corresponding to each element is defined. Is not necessarily calibrated to calculate the distance at.
【0004】本発明はこのような課題に着目してなされ
たものであり、その目的とするところは、タイムオブフ
ライトの計測原理を利用する2次元的に配置された複数
の素子を有する距離画像センサにおいて、各素子の光線
方向に応じた距離(レンジ)を正確に計測できるキャリ
ブレーション方法を提供することにある。The present invention has been made in view of such a problem, and an object of the present invention is to provide a range image having a plurality of two-dimensionally arranged elements utilizing a time-of-flight measurement principle. It is an object of the present invention to provide a calibration method that can accurately measure a distance (range) according to a light beam direction of each element in a sensor.
【0005】[0005]
【課題を解決するための手段】上記の目的を達成するた
めに、第1の発明は、2次元に配置された複数の素子を
含む受光部を有するタイムオブフライトの計測原理を利
用した距離画像センサのキャリブレーション方法であ
り、上記各素子に入射する光線の方向を規定する光線パ
ラメータを求めるステップと、上記各素子の出力信号に
応じた対象物までの距離パラメータを求めるステップと
を有する。上記の構成は、以下に述べる第1実施形態に
対応する。In order to achieve the above object, a first aspect of the present invention is to provide a distance image utilizing a time-of-flight measurement principle having a light receiving section including a plurality of elements arranged two-dimensionally. A method for calibrating a sensor, the method including a step of obtaining a light beam parameter defining a direction of a light beam incident on each of the above-described elements, and a step of obtaining a distance parameter to an object according to an output signal of each of the above-described elements. The above configuration corresponds to the first embodiment described below.
【0006】また、第2の発明は、2次元距離画像セン
サのキャリブレーション方法において、上記光線パラメ
ータまたは距離パラメータを求めるにあたり、3次元形
状が既知の部材を測定した結果を利用する。上記の構成
は、以下に述べる第1実施形態に対応する。According to a second aspect of the present invention, in the method for calibrating a two-dimensional range image sensor, a result of measuring a member having a known three-dimensional shape is used to obtain the light ray parameter or the distance parameter. The above configuration corresponds to the first embodiment described below.
【0007】また、第3の発明は、第2の発明に係る2
次元距離画像センサのキャリブレーション方法におい
て、上記3次元形状が既知の部材の測定は、上記部材と
上記2次元距離画像センサの距離を複数回変更して行わ
れる。上記の構成は、以下に述べる第1実施形態に対応
する。Further, a third invention is directed to the second invention according to the second invention.
In the calibration method of the three-dimensional range image sensor, the measurement of the member having the known three-dimensional shape is performed by changing the distance between the member and the two-dimensional range image sensor a plurality of times. The above configuration corresponds to the first embodiment described below.
【0008】また、第4の発明は、第3の発明に係る2
次元距離画像センサのキャリブレーション方法におい
て、上記3次元形状が既知な部材は、複数の穴または凹
凸のあるマーカを有する部材と、当該マーカを有さない
平面部を有した部材とから構成されている。上記の構成
は、以下に述べる第1実施形態に対応する。A fourth invention is directed to the second invention according to the third invention.
In the method for calibrating a three-dimensional distance image sensor, the member having a known three-dimensional shape includes a member having a marker having a plurality of holes or irregularities, and a member having a planar portion having no marker. I have. The above configuration corresponds to the first embodiment described below.
【0009】また、第5の発明は、第1の発明に係る2
次元距離画像センサのキャリブレーション方法におい
て、上記距離パラメータを求めるステップでは、変換テ
ーブルを利用する。上記の構成は、以下に述べる第1実
施形態に対応する。Further, a fifth invention is directed to the second invention according to the first invention.
In the calibration method of the three-dimensional distance image sensor, the step of obtaining the distance parameter uses a conversion table. The above configuration corresponds to the first embodiment described below.
【0010】また、第6の発明は、第1の発明に係る2
次元距離画像センサのキャリブレーション方法におい
て、上記距離画像センサに加えて、形状が既知の部材を
撮影するための撮影装置をさらに配置し、上記距離画像
センサとこの撮影装置間の位置関係を規定するパラメー
タと、上記撮影装置に関するパラメータとを算出する。
上記の構成は、以下に述べる第3実施形態に対応する。A sixth invention is directed to the second invention according to the first invention.
In the method for calibrating a three-dimensional range image sensor, in addition to the range image sensor, a shooting device for shooting a member having a known shape is further arranged, and a positional relationship between the range image sensor and the shooting device is defined. The parameters and the parameters relating to the photographing device are calculated.
The above configuration corresponds to a third embodiment described below.
【0011】また、第7の発明は、第2の発明に係る2
次元距離画像センサのキャリブレーション方法におい
て、上記3次元形状が既知の部材を3次元的に移動させ
ることにより、上記光線パラメータと上記距離パラメー
タとを算出する。上記の構成は、以下に述べる第3実施
形態に対応する。Further, a seventh invention is directed to the second invention according to the second invention.
In the calibration method of the three-dimensional distance image sensor, the light ray parameter and the distance parameter are calculated by three-dimensionally moving the member having the known three-dimensional shape. The above configuration corresponds to a third embodiment described below.
【0012】[0012]
【発明の実施の形態】[第1の実施の形態]図1は、本
発明に関わる距離画像センサとしてのレンジセンサ1の
装置構成の一部を示す図である。図1において、レンジ
センサ1は、対象物2を撮影するために構成され、その
入出力信号17はコンピュータ3に送信される。レンジ
センサ1の基本コンポーネントとしては、レンジセンサ
1の全体のタイミングを制御するタイミングコントロー
ラ4、タイムオブフライト用のパルス光12を生成する
パルス光源ユニット5、そのパルス光12を対象物2へ
照射するためにパルス光13へ調節するパルス光源用光
学系ユニット6、対象物2から反射されたパルス光14
をセンサ素子アレイ7に結像するためのセンサ素子アレ
イ用光学系ユニット8、そのパルス光15を受光するセ
ンサ素子アレイ7、タイミングコントローラ4が生成し
たパルス光とセンサ素子アレイ7が入力したパルス光と
の時間差のパルス光15を信号処理してコンピュータ3
が入力可能な入出力信号16に変換する信号処理ユニッ
ト9、そのように処理された信号をコンピュータ3へ出
力したり、コンピュータ3からの命令を入力したりする
入出力インタフェース10から構成される。DESCRIPTION OF THE PREFERRED EMBODIMENTS [First Embodiment] FIG. 1 is a diagram showing a part of a device configuration of a range sensor 1 as a range image sensor according to the present invention. In FIG. 1, a range sensor 1 is configured to photograph an object 2, and an input / output signal 17 is transmitted to the computer 3. As basic components of the range sensor 1, a timing controller 4 for controlling the overall timing of the range sensor 1, a pulse light source unit 5 for generating pulse light 12 for time of flight, and irradiating the pulse light 12 to the object 2 Light source optical system unit 6 for adjusting to pulse light 13 for the purpose, pulse light 14 reflected from object 2
Sensor unit optical system unit 8 for imaging the image on the sensor element array 7, the sensor element array 7 receiving the pulse light 15, the pulse light generated by the timing controller 4, and the pulse light input by the sensor element array 7. Signal processing of the pulsed light 15 having a time difference from
And a signal processing unit 9 for converting the signal into an input / output signal 16 that can be input, and an input / output interface 10 for outputting the signal processed as described above to the computer 3 and inputting an instruction from the computer 3.
【0013】タイミングコントローラ4は、コンピュー
タ3からの指令を入出力インタフェース10を介して受
け取り、パルス光を発生するタイミング信号を発生する
とともに、センサ素子アレイ7での電荷量をリセットや
振り分けするためのタイミング信号を生成する。このセ
ンサ素子アレイ7としては、文献1にあるようなCCD
素子を利用したものや、CMOS素子を利用したものな
どがあるが、その他の素子でも光遅延時間に関連する電
荷量を蓄積できる素子であれば、どのような素子構造で
も構わない。The timing controller 4 receives a command from the computer 3 through the input / output interface 10, generates a timing signal for generating pulsed light, and resets and distributes the charge amount in the sensor element array 7. Generate a timing signal. As the sensor element array 7, a CCD as disclosed in Document 1 is used.
There are a device using a device, a device using a CMOS device, and the like. However, any other device may be used as long as it can store a charge amount related to an optical delay time.
【0014】センサ素子アレイ7のこうした光電変換素
子では、タイミングコントローラ4の生成した信号を光
電変換素子が受けた光の遅延した時間だけ、素子が電荷
量を蓄積することにより(例えば2個のゲートを用いて
振り分ける電荷量の差をとることにより、原理的には光
の遅延時間に比例した値(あるいは光遅延時間を変数と
するある関数系の値)を電気信号として送出することに
なる。In such a photoelectric conversion element of the sensor element array 7, a signal generated by the timing controller 4 is accumulated by the element for a delay time of light received by the photoelectric conversion element (for example, two gates). In principle, a value proportional to the light delay time (or a value of a certain function system with the light delay time as a variable) is sent out as an electric signal by taking the difference in the amount of charge to be distributed using.
【0015】ただし本実施形態で説明するキャリブレー
ション方法に関しては、これらの素子は、光の遅延時間
tの関数f(t)を電気信号として出力する素子であれ
ばよい。ここでf(t)はtに関する単調増加あるいは
単調減少な関数であればよく、文献1で説明されている
方法以外のものでも、このような特性を出力できればよ
いことを、ここでは述べておく。However, regarding the calibration method described in the present embodiment, these elements may be elements that output a function f (t) of the optical delay time t as an electric signal. Here, f (t) may be a monotonically increasing or monotonically decreasing function related to t, and it should be noted here that a method other than the method described in Reference 1 can output such characteristics. .
【0016】以下、本発明で使用する数学的用語につい
て説明する。図2は、センサ素子アレイ7の構造を数学
的に示したものである。センサ素子アレイ7は、2次元
状に均一的に分散していると仮定する(必ずしも、2次
元的でなくてもよく1次元的でもよい)。センサ素子
は、(i,j)なるインデックスにより規定してあるも
のとする。ここでi,jは整数で、i=1,2,…,N
i ;j=1,2,…,Nj である。このときパルス光源ユ
ニット5から発せられる光パルスは、対象物2で反射
し、レンジセンサ1内のセンサ素子アレイ用光学系8を
通して結像された後に、センサ素子アレイ7(i,j)
に到達する。パルス光が発せられてからセンサ素子アレ
イ7に到達するまでの時間をtij、センサ素子(i,
j)の電荷量をfijすると、fijはfij(tij)でtij
の関数である。もちろんfijは素子特性の多少のばらつ
きの影響や、光源とセンサ素子間の相対的位置に依存す
るのでfijは(i,j)に依存した関数である。Hereinafter, mathematical terms used in the present invention will be described.
Will be explained. FIG. 2 shows the structure of the sensor element array 7 in mathematical form.
It is shown in a typical way. The sensor element array 7 is two-dimensional
Are assumed to be uniformly distributed in a shape (not necessarily
It may not be original and may be one-dimensional). Sensor element
Is defined by the index (i, j)
And Here, i and j are integers, and i = 1, 2,.
iJ = 1,2, ..., Nj It is. At this time, the pulse light source
The light pulse emitted from the knit 5 is reflected by the object 2
And the optical system 8 for the sensor element array in the range sensor 1
After forming an image through the sensor element array 7 (i, j)
To reach. After the pulsed light is emitted, the sensor element
The time to reach i7 is tij, Sensor element (i,
Let j) be the chargeijThen fijIs fij(Tij) At tij
Is a function of Of course fijIndicates slight variations in device characteristics
And the relative position between the light source and the sensor element.
So fijIs a function dependent on (i, j).
【0017】なお、本発明で算出される距離画像(レン
ジデータ)を生成するためのキャリブレーションパラメ
ータは、上記信号処理ユニット9あるいはコンピュータ
3に格納され、そのパラメータ値に基づいて、各センサ
素子ユニットからの出力が、レンジデータへと変換され
る。ただし、本発明で述べられるキャリブレーションパ
ラメータ自体を算出する(推定する)処理は、コンピュ
ータ3などのデータ処理装置で行われる。The calibration parameters for generating the distance image (range data) calculated in the present invention are stored in the signal processing unit 9 or the computer 3, and each sensor element unit is stored on the basis of the parameter values. Is converted to range data. However, the process of calculating (estimating) the calibration parameter itself described in the present invention is performed by a data processing device such as the computer 3.
【0018】一方レンジセンサ1は、固有の基準座標系
を有しており、いまこの座標系をR(xR ,yR ,
zR )で表すことにする。本発明でいう所のレンジセン
サ1のキャリブレーションは、センサ素子アレイ7内の
各素子(i,j)の出力信号fijが与えられたとき、そ
のfijに対応する対象物2上の反射を起こした点のR座
標系に関する座標値(xR ,yR ,zR )を算出する算
出方法と算出に関わるパラメータを推定することにあ
る。On the other hand, the range sensor 1 has a unique reference coordinate system, and this coordinate system is now represented by R (x R , y R ,
z R ). Calibration of the range sensor 1 in the present invention is performed by, when an output signal f ij of each element (i, j) in the sensor element array 7 is given, the reflection on the object 2 corresponding to the f ij. A method for calculating coordinate values (x R , y R , z R ) of the point where the point has occurred in the R coordinate system and parameters for the calculation are estimated.
【0019】ここで、センサ素子アレイ7でのインデッ
クス(i,j)により、センサ素子アレイ上での物理的
位置が確定されるばかりでなく、その物理的位置とセン
サ素子アレイ用光学系ユニット8とが規定する光線方向
を決定することができる。即ち各センサ素子アレイの素
子(i,j)に対してその素子と光学系の焦点とを結ぶ
直線(光線)上に対象物上の反射点が存在しなければな
らない。すなわち、(i,j)に対して、固有な直線L
がR座標系内で存在し、直線LはR座標系において一意
に決定できるものである。従って、対象物上の反射点
(xR ,yR ,z R )は直線L上になければならないと
いう制約条件とfijの値とを利用することにより、(x
R ,yR ,zR )を決定することができる。Here, the index in the sensor element array 7 is
(I, j), the physical on the sensor element array
Not only is the location determined, but its physical location and
Ray direction defined by the optical element unit 8 for the element array
Can be determined. That is, the element of each sensor element array
Focus the element and the focus of the optical system on the child (i, j)
There must be a reflection point on the object on a straight line (ray)
No. That is, for (i, j), a unique straight line L
Exists in the R coordinate system, and the straight line L is unique in the R coordinate system.
Can be determined. Therefore, the reflection point on the object
(XR, YR, Z R) Must be on the straight line L
Constraints and fijBy using the value of (x
R, YR, ZR) Can be determined.
【0020】以下の議論では、R座標系の定義として、
このセンサ素子アレイ7に対応するように、R座標系を
定義するものとする。すなわちセンサ素子アレイ用光学
系ユニット8の焦点位置をRの原点とし、センサ素子の
インデックスiと平行にxR軸を、インデックスjと平
行にyR 軸を取ることとし、zR 軸はこれらに直交する
方向にとることとする。In the following discussion, as the definition of the R coordinate system,
An R coordinate system is defined so as to correspond to the sensor element array 7. That the focal position of the sensor element array optical system unit 8 and the origin of the R, parallel to x R-axis and the index i of the sensor element, and to take y R-axis parallel to the index j, z R axis to these It is assumed to be orthogonal.
【0021】実際のところ、センサ素子アレイ用光学系
ユニット8内には、光学系レンズが使用されることが多
く、レンズのディストーションを含めた形で直線(光
線)Lを決定することも重要な場合もある。Actually, an optical system lens is often used in the optical system unit 8 for the sensor element array, and it is also important to determine the straight line (light ray) L including the distortion of the lens. In some cases.
【0022】光学系のレンズディストーションが無視で
きる場合には、この(i,j)に対応する直線上の点
(xR ,yR ,zR )との関係はIf the lens distortion of the optical system is negligible, the relationship with the point (x R , y R , z R ) on the straight line corresponding to (i, j) is
【0023】[0023]
【数1】 (Equation 1)
【0024】で表すことができる。ここで、(αu ,α
v )はi,j方向の拡大率を表すパラメータであり、
(u0 ,v0 )は、(i,j)が規定するセンサアレイ
面と光軸であるzR 軸が公差する交点を表す。Can be represented by Where (α u , α
v ) is a parameter representing the magnification in the i and j directions,
(U 0, v 0) represents the (i, j) z intersections R-axis is the tolerance is a sensor array plane and the optical axis defining the.
【0025】レンズディストーションが無視できない場
合には、式は複雑になるが、If the lens distortion cannot be ignored, the equation becomes complicated,
【0026】[0026]
【数2】 (Equation 2)
【0027】これらの定式化については、文献2(J.We
ng, P.Cohen, and M.Herniou,“Camera calibration wi
th distortion models and accuracy evaluation,”IEE
E Transactions on Pattern Analysis and Machine Int
elligence, Vol.14, No.10, October 1992, pp.965-98
0.)で詳しく述べられているので、ここではその説明を
省略する。These formulations are described in reference 2 (J. We
ng, P. Cohen, and M. Herniou, “Camera calibration wi
th distortion models and accuracy evaluation, ”IEE
E Transactions on Pattern Analysis and Machine Int
elligence, Vol.14, No.10, October 1992, pp.965-98
0.), the description is omitted here.
【0028】実際には、R座標系をレンジセンサ1外部
から直接的に規定する(計測する)ことは困難であるの
で、この座標系とは別に基準座標系を設定して、その基
準座標系とR座標系との関係を考えながら、レンジセン
サ1のキャリブレーションを行うことが便利となる。In practice, it is difficult to directly define (measure) the R coordinate system from the outside of the range sensor 1. Therefore, a reference coordinate system is set separately from this coordinate system, and the reference coordinate system is set. It is convenient to calibrate the range sensor 1 while considering the relationship between the range sensor 1 and the R coordinate system.
【0029】ここでは、この別の基準座標系として世界
座標系W(xW ,yW ,zW )を考え、W座標系からR
座標系への座標変換パラメータを回転行列Rと並進ベク
トルTで表すとすると、Here, the world coordinate system W (x W , y W , z W ) is considered as another reference coordinate system.
Assuming that a coordinate transformation parameter to a coordinate system is represented by a rotation matrix R and a translation vector T,
【0030】[0030]
【数3】 (Equation 3)
【0031】ここで、Rを規定するパラメータとしては
Yaw(φx )-Pitch(φy )-Roll(φz )角などを利用するこ
とができ、並進ベクトルTとしては(tx ,ty ,
tz )を利用することができる。Here, the parameters defining R are:
A Yaw (φ x ) -Pitch (φ y ) -Roll (φ z ) angle or the like can be used, and the translation vector T is (t x , t y ,
tz ) can be used.
【0032】すると、式(3)はThen, equation (3) becomes
【0033】[0033]
【数4】 (Equation 4)
【0034】で表すことができるs=(αu ,αv ,u
0 ,v0 ;k1 ,g1 ,g2 ,g3 ,g4 )をカメラ内
部パラメータ、e=(φx ,φy ,φz ;tx ,ty ,
tz )をカメラ外部パラメータと呼ぶことにする。ここ
でRはS = (α u , α v , u
0 , v 0 ; k 1 , g 1 , g 2 , g 3 , g 4 ) are camera internal parameters, and e = (φ x , φ y , φ z ; t x , ty ,
Let t z ) be called the camera extrinsic parameter. Where R is
【0035】[0035]
【数5】 (Equation 5)
【0036】で表される。Is represented by
【0037】従って、より現実的なキャリブレーション
としては、こうしたパラメータ群p=(φx ,φy ,φ
z ;tx ,ty ,tz ;αu ,αv ,u0 ,v0 ;
k1 ,g 1 ,g2 ,g3 ,g4 )を推定することによ
り、キャリブレーションを行うことを、今後考える。Therefore, a more realistic calibration
Is such a parameter group p = (φx, Φy, Φ
z; Tx, Ty, Tz; Αu, Αv, U0, V0;
k1, G 1, GTwo, GThree, GFourBy estimating
Consider performing calibration in the future.
【0038】キャリブレーションの具体的方法を説明す
る前に、まず光学系の内部パラメータs=(αu ,
αv ,u0 ,v0 ;k1 ,g1 ,g2 ,g3 ,g4 )と
外部パラメータe=(φx ,φy ,φz ;tx ,ty ,
tz )が既知であると仮定したときに、レンジセンサ1
によりどのようにして距離画像を生成できるかについて
説明する。Before describing the specific method of calibration, first, the internal parameters s = (α u ,
α v , u 0 , v 0 ; k 1 , g 1 , g 2 , g 3 , g 4 ) and external parameters e = (φ x , φ y , φ z ; t x , ty ,
tz ) is known, the range sensor 1
The following describes how the distance image can be generated by the following.
【0039】図3に示されるように、いま世界座標系W
でzW =zm なる基準平面板18(m=1,2,…,N
M )を用意し、この平面板にパルス光をあてたときに、
各素子(i,j)が出力する信号をfij m とする。先ず
各素子(i,j)は規定する光線とzW =zm の基準平
面板との交点をレンジセンサ座標系で求める。これに
は、(i,j)に関する光線を、式(2)を用いて
(i,j)に関してAs shown in FIG. 3, the world coordinate system W
In z W = z m become the reference plane plate 18 (m = 1,2, ..., N
M ), and when a pulsed light is applied to this flat plate,
The signal output from each element (i, j) is defined as f ij m . First, each element (i, j) obtains an intersection between a prescribed light beam and a reference plane plate of z W = z m in a range sensor coordinate system. This involves estimating the ray for (i, j) with respect to (i, j) using equation (2).
【0040】[0040]
【数6】 (Equation 6)
【0041】をみたすzR を算出する。ここで注意すべ
きは、基準平面板上ではzW は既知(設定した値)であ
るので、この方程式での未知数はzR ,xW ,yW の3
個である。一方、方程式の制約次数も3であるので、解
は存在する。式(8)から、Z R that satisfies is calculated. It should be noted here that z W is known (set value) on the reference plane plate, and the unknowns in this equation are z R , x W , and y W.
Individual. On the other hand, since the constraint order of the equation is also 3, a solution exists. From equation (8),
【0042】[0042]
【数7】 (Equation 7)
【0043】で表される線形方程式を導き、かつ解法す
ることにより、zR を算出することができる。ここで、By deriving and solving a linear equation represented by the following equation, z R can be calculated. here,
【0044】[0044]
【数8】 (Equation 8)
【0045】このようにして、センサ素子の出力fij m
に対するR座標系に関する反射点(xR ,yR ,zR )
を測定値として得ることができる。In this way, the output f ij m of the sensor element
Reflection point for R coordinate system for (x R, y R, z R)
Can be obtained as a measured value.
【0046】各素子(i,j)に対して、異なった基準
平面板の位置mに対する反射点(x R m,yR m,zR m)と
センサ出力信号fmが与えられたとすると、これらを利
用して、任意の出力信号fに対する3次元位置(xR ,
yR ,zR )を計算することができる。例えば、図4に
示されているように、測定点列(fm ,zR m)に対する
ルックアップテーブルを変換テーブルとして用意してお
く。このときzR mとz R m+1の間隔は、部分的に線形近似
できる程度に十分小さいと仮定する。このとき、任意の
出力信号fに対するzR を、以下の方法で算出すること
ができる。すなわち任意の出力信号fが与えられたと
き、For each element (i, j), different criteria
The reflection point (x R m, YR m, ZR m)When
Sensor output signal fmGiven that
Using the three-dimensional position (xR,
yR, ZR) Can be calculated. For example, in FIG.
As shown, the sequence of measurement points (fm, ZR mAgainst)
Prepare a lookup table as a conversion table
Good. Then zR mAnd z R m + 1Is partially linear approximation
Assume that it is small enough to be possible. At this time, any
Z for output signal fRIs calculated by the following method.
Can be. That is, given an arbitrary output signal f,
Come
【0047】[0047]
【数9】 (Equation 9)
【0048】でzR を算出することができる。このよう
にしてzR を算出したら、式(13)によりレンジセン
サ座標系での3次元位置を算出することができる。Thus, z R can be calculated. After calculating the z R In this way, it is possible to calculate the three-dimensional position in range sensor coordinate system by the equation (13).
【0049】いままで説明してきた方法は、一般的にル
ックアップテーブル方式の距離データ算出方法である。
いままでの説明では、ルックアップテーブル処理を部分
線形近似処理により行ってきたが、もちろんスプライン
方式などの非線形近似であっても構わない。さらにテー
ブルを作成する際にfm を繰り返し測定し、その測定値
の代表値(例えばメディアンや平均値)を算出すること
により、fm に含まれたノイズを減少させることも可能
である。以下での議論では、このルックアップテーブル
を作成するのに必要な測定パラメータ群(fm ,zR m)
(m=1,2,…,NM )を距離パラメータと呼ぶこと
にする。The method described so far is generally a look-up table type distance data calculation method.
In the description so far, the lookup table processing has been performed by the partial linear approximation processing, but it is needless to say that nonlinear approximation such as a spline method may be used. Furthermore repeatedly measure f m when creating the table, by calculating the representative value of the measured value (e.g., a median or average value), it is possible to reduce the noise contained in the f m. In the discussion below, the measurement parameter group necessary to create the look-up table (f m, z R m)
( M = 1, 2,..., N M ) is called a distance parameter.
【0050】[0050]
【数10】 (Equation 10)
【0051】以下では、こうした光線パラメータと距離
パラメータをどのようにして算出するかについて実施形
態を利用しながら説明する。Hereinafter, how to calculate such a ray parameter and a distance parameter will be described with reference to an embodiment.
【0052】図5は、キャリブレーション方法を具体化
するアルゴリズムを示す図である。ステップ1は、各素
子(i,j)に対する光線方向を規定する光線パラメー
タと座標変換パラメータを算出するものであり、ステッ
プ2では、距離に関するルックアップテーブルを規定す
るための距離パラメータの算出とルックアップテーブル
を作成するステップである。FIG. 5 is a diagram showing an algorithm that embodies the calibration method. Step 1 is to calculate a ray parameter and a coordinate conversion parameter that define a ray direction for each element (i, j). Step 2 is to calculate and look up a distance parameter for defining a lookup table related to a distance. This is a step of creating an up table.
【0053】ステップ1 図6は、光線パラメータと座標変換パラメータを算出す
る方法を実現する装置を示す図である。レンジセンサ1
は平行レール19上に配置され、キャリブレーションボ
ード20も平行レール19上に配置されている。平行レ
ール19とキャリブレーションボード20は世界座標系
で定義されるものであり、キャリブレーションボード2
0は、平行レール19上で世界座標系で平行レール19
に平行に移動可能なものとなっている。ここでは説明を
簡単にするために、平行レール19は世界座標系のz軸
と平行に移動できるものと仮定する。すなわちキャリブ
レーションボード20は、zW =zk で示される位置に
配置することができるものとする。 Step 1 FIG. 6 is a diagram showing an apparatus for realizing a method for calculating a ray parameter and a coordinate conversion parameter. Range sensor 1
Are arranged on the parallel rail 19, and the calibration board 20 is also arranged on the parallel rail 19. The parallel rail 19 and the calibration board 20 are defined in the world coordinate system, and the calibration board 2
0 is the parallel rail 19 on the parallel rail 19 in the world coordinate system.
It can be moved in parallel to. Here, for the sake of simplicity, it is assumed that the parallel rail 19 can move parallel to the z-axis of the world coordinate system. That is, the calibration board 20 can be arranged at a position indicated by z W = z k .
【0054】図7はキャリブレーションボード20の構
成を示す図である。キャリブレーションボード20内に
は、マーカとしての大円の穴と小円の穴のキャリブレー
ションパターンが存在する。マーカを有していない部分
は白色の平面部から構成される。大円5個は、キャリブ
レーションパターンの同定を容易にするために世界座標
系でのx方向及びy方向に対して対称の位置に配置され
ており、すべての穴(パターン)の世界座標系での位置
はあらかじめ算出が可能となっている。すべての穴の個
数をNA とすると、これらの穴の世界座標系での中心位
置は、(xa k,ya k,za k)(a=1,2,…,NA )
と表すことができる。もちろん穴の数に比べて、センサ
素子数は十分大きいと仮定する。FIG. 7 is a diagram showing the configuration of the calibration board 20. In the calibration board 20, there are calibration patterns of large circle holes and small circle holes as markers. The part having no marker is constituted by a white flat part. The five great circles are arranged symmetrically with respect to the x direction and the y direction in the world coordinate system to facilitate identification of the calibration pattern, and in the world coordinate system of all holes (patterns). Can be calculated in advance. The number of all holes When N A, the center position in the world coordinate system of the holes, (x a k, y a k, z a k) (a = 1,2, ..., N A)
It can be expressed as. Of course, it is assumed that the number of sensor elements is sufficiently larger than the number of holes.
【0055】図8は、光線パラメータを算出するための
アルゴリズムを示す図である。ステップ1−1では、全
体の流れをコントロールするインデックスパラメータk
を1で初期化する。このパラメータは、キャリブレーシ
ョンボード20を配置する位置を指定するパラメータで
ある。ステップ1−2では、世界座標系のzW =zkの
位置にキャリブレーションボード20を配置する。ステ
ップ1−3では、レンジセンサ1でキャリブレーション
ボード20を撮影し、各素子からの信号出力f ij kを入
力する。ステップ1−4では、fij kを2次元配列とし
て解析し、パターンを抽出するとともに同定し、キャリ
ブレーションパターンの穴の位置の中心(ua k,va k)
を計算する。ステップ1−5では、抽出、同定されたパ
ターンの世界座標系における3次元位置(xa k,ya k,
za k)を2次元位置(ua k,va k)とともに登録する。
ステップ1−6では、kの値を1増やす。ステップ1−
7では、インデックスkがあらかじめ定められたNK よ
り大きいかを否かをチェックする。もし大きくなけれ
ば、ステップ1−2へ移行する。大きければ、ステップ
1−8へ移行する。ステップ1−8では、ステップ1−
5で登録された3次元位置(xa k,ya k,za k)を2次
元位置(ua k,va k)を利用して、FIG. 8 is a diagram for calculating a ray parameter.
It is a figure showing an algorithm. In step 1-1,
Index parameter k that controls body flow
Is initialized with 1. This parameter is
Parameter that specifies the position where the
is there. In step 1-2, z in the world coordinate systemW= Zkof
The calibration board 20 is arranged at the position. Stay
In step 1-3, calibration is performed with the range sensor 1.
The board 20 is photographed and the signal output f from each element is taken. ij kEnter
Power. In step 1-4, fij kIs a two-dimensional array
To analyze, extract and identify patterns, and carry
The center of the position of the hole in the blation pattern (ua k, Va k)
Is calculated. In step 1-5, the extracted and identified
The three-dimensional position of the turn in the world coordinate system (xa k, Ya k,
za k) To the two-dimensional position (ua k, Va k) And register.
In step 1-6, the value of k is increased by one. Step 1-
7, the index k is set to a predetermined NKYo
Check whether it is greater than If not big
If so, the process proceeds to step 1-2. If big, step
Move to 1-8. In step 1-8, step 1-
5 three-dimensional position (xa k, Ya k, Za k) Is secondary
Original position (ua k, Va k)
【0056】[0056]
【数11】 [Equation 11]
【0057】以下、本アルゴリズムでより詳細な説明が
必要なステップ1−4,ステップ1−8について説明す
る。Hereinafter, Steps 1-4 and 1-8 which require more detailed explanation in the present algorithm will be described.
【0058】ステップ1−4 例えば、センサ素子数をNi ×Nj 個とし、各素子が出
力する信号fijで表す。このとき、fijは、キャリブレ
ーションボード20内の穴を光線方向とするとき、異常
値として認識され、穴以外を光線方向とするときには、
キャリブレーションボード20からの反射に関連する正
常値を送出することになる。従って、センサ素子アレイ
の全体の出力はfijの2次元配列として定義することが
できる。またキャリブレーションボード20で穴を有さ
ない平面部で反射された光線は素子(i,j)の近傍
(i+1,j)、(i−1,j)、(i,j−1)、
(i,j+1)などで正常の値を示すことになる。従っ
て、fijが形成する2次元配列の値を解析することによ
り、穴の中心位置を求めることができる。こうした手法
は、画像処理における2次元連結領域の抽出およびその
方法でよく用いられる方法であるので、ここではその方
法についての説明を省略する。ここで注意すべきこと
は、キャリブレーションボード20上には、大小の穴が
存在するが、はじめに大円の方を見つけ出すことによ
り、fij2次元配列上での穴の同定を容易に行うことが
できる。 Step 1-4 For example, it is assumed that the number of sensor elements is N i × N j and is represented by a signal f ij output from each element. At this time, f ij is recognized as an abnormal value when the hole in the calibration board 20 is in the ray direction, and when other than the hole is in the ray direction,
A normal value related to the reflection from the calibration board 20 will be transmitted. Therefore, the entire output of the sensor element array can be defined as a two-dimensional array of f ij . Light rays reflected by the plane portion having no hole on the calibration board 20 are near (i + 1, j), (i-1, j), (i, j-1), and (i-1, j) near the element (i, j).
A normal value is indicated by (i, j + 1) or the like. Therefore, the center position of the hole can be obtained by analyzing the values of the two-dimensional array formed by f ij . Since such a method is a method often used for extracting a two-dimensional connected region in the image processing and the method, the description of the method is omitted here. It should be noted here that although there are large and small holes on the calibration board 20, it is easy to identify the holes on the f ij two-dimensional array by finding the larger circle first. Can be.
【0059】このようにすることで、キャリブレーショ
ンパターン(a=1,2,…,NA)に対する2次元配
列上での位置(ua k,va k)を求め、ステップ1−5で
は、その世界座標系での位置(xa k,ya k,za k)を求
めることができる。ここで(ua k,va k)は必ずしも格
子点(整数値)ではない、すなわち実数であることもあ
り得ることも付しておく。[0059] By doing so, the calibration pattern (a = 1,2, ..., N A) position (u a k, v a k ) on the two-dimensional array with respect to seeking, in step 1-5 it can be determined that the position in the world coordinate system (x a k, y a k , z a k) a. Here (u a k, v a k ) is kept also subjected also possible that it is not necessarily at the grid point (integer value), ie real numbers.
【0060】ステップ1−8 Step 1-8
【数12】 (Equation 12)
【0061】本ステップでは、まずステップ1−7まで
で得られた2次元座標値と3次元座標値の対を統合す
る。具体的には、すべての測定点対を並べ替えて、(u
b ,v b ,xb ,yb ,zb )というコンパクトな形で
表す。ここでインデックスのbは、これまで使用した
a,kのインデックスを統合したものであり、全ての測
定点を1つのインデックスで表したものである。ここで
b=1,2,…,NB であるとする。ステップ1−8で
は、これら(ub ,vb ,xb ,yb ,zb )を用い
て、In this step, first, up to step 1-7
Unify the two-dimensional and three-dimensional coordinate value pairs obtained in
You. Specifically, all measurement point pairs are rearranged, and (u
b, V b, Xb, Yb, Zb) In a compact form
Represent. Where b of the index is
The index of a and k are integrated, and all
The fixed point is represented by one index. here
b = 1,2, ..., NBAnd In step 1-8
Are these (ub, Vb, Xb, Yb, Zb)
hand,
【0062】[0062]
【数13】 (Equation 13)
【0063】この方法に関しては文献2に詳しく述べら
れているので詳しく説明しないが、カメラキャリブレー
ションの方法では、カメラ内部パラメータのうちピンホ
ールに関わるパラメータ(αu ,αv ,u0 ,v0)
と、レンズのディストーションのパラメータ(k1 ,g
1 ,g2 ,g3 ,g4 )、さらにカメラ外部パラメータ
に関わる(φx ,φy ,φz ;tx ,ty ,tz )を同
時に算出する方法である。Although this method is described in detail in Document 2, it will not be described in detail. However, in the camera calibration method, parameters (α u , α v , u 0 , v 0) related to the pinhole among the camera internal parameters. )
And the lens distortion parameters (k 1 , g
1 , g 2 , g 3 , g 4 ) and further, (φ x , φ y , φ z ; t x , ty , tz ) relating to camera external parameters.
【0064】[0064]
【数14】 [Equation 14]
【0065】ステップ2 図9は、ステップ2である距離パラメータの算出とルッ
クアップテーブルの作成に関する装置を示す図である。
レンジセンサ1は、ステップ1と同様に、平行レール1
9上に装着される。平行レール19には、さらに平面の
ホワイトボード21が設置されている。この平面のホワ
イトボード21は、ステップ1のキャリブレーションボ
ード20と同様に、平行に移動可能であり世界座標系の
z位置がzW =zm となるように配置可能となってい
る。いまホワイトボード21の移動位置をzW =z1 ,
z2 ,…,zNM とする。 Step 2 FIG. 9 is a diagram showing an apparatus relating to the calculation of the distance parameter and the creation of the look-up table in step 2.
The range sensor 1 is similar to the parallel rail 1
9 is mounted. On the parallel rail 19, a flat white board 21 is further installed. Similar to the calibration board 20 of step 1, the flat white board 21 can be moved in parallel and can be arranged so that the z position of the world coordinate system is z W = z m . Now, the movement position of the whiteboard 21 is represented by z W = z 1 ,
z 2, ..., and zN M.
【0066】図10は、ステップ2のアルゴリズムの詳
細を示す図である。ステップ2−1では、本アルゴリズ
ムで使用するインデックスmの初期値として1が代入さ
れる。ステップ2−2では、世界座標系でzW =zm の
位置にホワイトボード21を設置する。ステップ2−3
では、レンジセンサ1からパルス光を照射し、ホワイト
ボード21で反射したパルス光がレンジセンサ1の各素
子(i,j)で変換されて得られた信号を出力信号fij
mとして記録する。ステップ2−4では、mの値を1増
加する。ステップ2−5では、mとNM を比較し、もし
mがNM より大きくなければ、ステップ2−2に移行す
る。そうでなければ、ステップ2−6に移行する。FIG. 10 is a diagram showing details of the algorithm of step 2. In step 2-1, 1 is substituted as the initial value of the index m used in the present algorithm. At step 2-2, installing the whiteboard 21 in a position of z W = z m in the world coordinate system. Step 2-3
Then, a pulse light is irradiated from the range sensor 1 and a signal obtained by converting the pulse light reflected by the whiteboard 21 by each element (i, j) of the range sensor 1 is output signal f ij.
Record as m . In step 2-4, the value of m is increased by one. At step 2-5, and compares m and N M, if m is not greater than N M, the process proceeds to step 2-2. Otherwise, the process proceeds to step 2-6.
【0067】[0067]
【数15】 (Equation 15)
【0068】ここでは、本アルゴリズムで重要となるス
テップ2−6に関して説明する。Here, step 2-6 which is important in the present algorithm will be described.
【0069】ステップ2−6 Step 2-6
【数16】 (Equation 16)
【0070】こうして求められた(fij m,zR m)を、
図11に示されるようなテーブルとして作成することと
なる。このように作成されたテーブルを利用すれば、先
に説明した方法で、レンジセンサ座標系における距離計
測を行うことができるようになるわけである。(F ij m , z R m ) thus obtained is
It is created as a table as shown in FIG. By using the table created in this way, the distance measurement in the range sensor coordinate system can be performed by the method described above.
【0071】[0071]
【数17】 [Equation 17]
【0072】(1)各素子の特性のばらつきを補正し、
(2)レンジセンサ1内に配置された光学系ユニットの
ディストーション補正も行うこともでき、タイムオブフ
ライトを計測原理とする2次元素子構造を有するレンジ
センサ1でも、正確に3次元計測を実現するキャリブレ
ーション方法を提供することができる。(1) Variation in characteristics of each element is corrected,
(2) Distortion correction of an optical system unit arranged in the range sensor 1 can also be performed, and even the range sensor 1 having a two-dimensional element structure based on time-of-flight measurement principle can accurately perform three-dimensional measurement. A calibration method can be provided.
【0073】今まで説明してきた方法では、図7に示す
ようなキャリブレーションボード20を複数個のz位置
に配置して行った。もちろんこのキャリブレーションボ
ード20には、いくつかのバリエーションを考えること
ができる。In the method described so far, the calibration board 20 as shown in FIG. 7 is arranged at a plurality of z positions. Of course, several variations of the calibration board 20 can be considered.
【0074】例えば、図12に示すように、zの位置に
応じてキャリブレーションボード20内のパターンの大
きさと間隔を変化されたボードを複数用意しておいても
構わない。この図12に示すようなキャリブレーション
ボード20では、レンジセンサ1の予想画角をまず想定
し、その予想画角で、センサ素子面にいつもほぼ同じよ
うなサイズでパターンの穴が抽出できるようにするわけ
である。このように、レンジセンサ1の画角を配慮しな
がらパターンの大きさと間隔を設計することで、素子ア
レイ(i,j)内での穴の大きさがほぼ一定となり、そ
の抽出がより容易になるとともに穴の検出能力も向上さ
せることができる。For example, as shown in FIG. 12, a plurality of boards may be prepared in which the size and interval of the pattern in the calibration board 20 are changed according to the position of z. In the calibration board 20 as shown in FIG. 12, the expected angle of view of the range sensor 1 is first assumed, and the hole of the pattern having the almost same size can be always extracted on the sensor element surface at the expected angle of view. It does. In this way, by designing the size and interval of the pattern while taking the angle of view of the range sensor 1 into consideration, the size of the holes in the element array (i, j) becomes substantially constant, and the extraction thereof becomes easier. In addition, the ability to detect holes can be improved.
【0075】また、今までの説明では、キャリブレーシ
ョンボードやホワイトボードを移動してzW=zkまた
はzW=zmなる位置を設定したが、これらのボードを
固定して、レンジセンサ1を相対的に移動する方法を採
用しても同様の効果が得られるのは明白である。In the description so far, the position of z W = z k or z W = z m is set by moving the calibration board or white board, but these boards are fixed and the range sensor 1 is fixed. Obviously, the same effect can be obtained even if a method of relatively moving is adopted.
【0076】[第2の実施の形態]第1の実施形態で
は、アレイ内の素子数がキャリブレーションボード内の
パターン(穴)の個数に比べて、大きい場合には有効で
ある。ところがアレイ内の素子数が極端に小さい場合に
は、穴の中心を計測する精度が落ちることが考えられ
る。このような場合にも対処できる方法が、本第2の実
施形態で説明する方法である。図13は、第2の実施形
態を実現する装置構成を示す図である。図において、レ
ンジセンサ1は、世界座標系で固定されており、キャリ
ブレーションボード22は、1個の円形の穴を有するホ
ワイトボードから成り立つ。このキャリブレーションボ
ード22は、Xステージ23、Yステージ24、Zステ
ージ25の上に装着されている。これらのXステージ2
3、Yステージ24、Zステージ25は、コンピュータ
3により生成されるコントロール信号26を利用するこ
とにより、キャリブレーションボード22内の穴の中心
位置を世界座標系の任意の位置に移動できるように制御
されている。より具体的には、キャリブレーションボー
ド22内の穴の中心位置をあらかじめ定められた複数の
(xW ,yW ,zW )にできるようになっている。すな
わち、x,y,z方向で、[Second Embodiment] The first embodiment is effective when the number of elements in the array is larger than the number of patterns (holes) in the calibration board. However, when the number of elements in the array is extremely small, the accuracy of measuring the center of the hole may decrease. A method that can cope with such a case is the method described in the second embodiment. FIG. 13 is a diagram illustrating an apparatus configuration for realizing the second embodiment. In the figure, the range sensor 1 is fixed in the world coordinate system, and the calibration board 22 is composed of a white board having one circular hole. The calibration board 22 is mounted on an X stage 23, a Y stage 24, and a Z stage 25. These X Stage 2
3, the Y stage 24 and the Z stage 25 are controlled by using the control signal 26 generated by the computer 3 so that the center position of the hole in the calibration board 22 can be moved to an arbitrary position in the world coordinate system. Have been. More specifically, the center position of the hole in the calibration board 22 can be set to a plurality of predetermined (x W , y W , z W ). That is, in the x, y, and z directions,
【0077】[0077]
【数18】 (Equation 18)
【0078】の組み合わせの位置に移動することが可能
となっている。It is possible to move to the position of the combination.
【0079】図14は、アルゴリズムのステップを示す
フローチャートである。ステップ3−1では、世界座標
系におけるzの座標値をzW =zk とするところにキャ
リブレーションパターンの穴の中心のz座標にあわせる
ように、Zステージによりキャリブレーションボード2
2を移動する。ステップ3−2では、あらかじめ設定さ
れたxW =xm ,yW =yn の位置にキャリブレーショ
ンパターンである穴の中心が来るように移動する。ステ
ップ3−1と3−2で、穴の中心は(xm ,y n ,
zk )の位置になるようにできるわけである。FIG. 14 shows the steps of the algorithm.
It is a flowchart. In step 3-1, the world coordinates
Let the coordinate value of z in the system be zW= ZkAnd where
Adjust to the z-coordinate of the center of the hole in the vibration pattern
As described above, the calibration board 2
Move 2 In step 3-2, the preset
XW= Xm, YW= YnCalibration
Move so that the center of the hole, which is the pattern, comes. Stay
In steps 3-1 and 3-2, the center of the hole is (xm, Y n,
zk).
【0080】ステップ3−4では、レンジセンサ1から
パルス光を発し、キャリブレーションボード22からの
反射光をセンサ素子アレイで入力し、その結果fij kを
出力する。これは、第1の実施形態で説明したのと同様
である。ステップ3−4では、fij kで構成される2次
元アレイ内から穴パターンを抽出する。この抽出方法
も、第1の実施形態と同様である。こうして抽出された
穴の中心位置を(ua ,va )とする。またこの位置に
対応する世界座標系での穴の中心3次元位置(x a ,y
a ,za )として登録する。In step 3-4, the range sensor 1
Emits a pulsed light, and
The reflected light is input to the sensor element array, and as a result fij kTo
Output. This is the same as described in the first embodiment.
It is. In step 3-4, fij kSecondary consisting of
Extract the hole pattern from within the original array. This extraction method
Are the same as in the first embodiment. Thus extracted
Position the center of the hole at (ua, Va). Also in this position
The center 3D position of the hole in the corresponding world coordinate system (x a, Y
a, Za).
【0081】[0081]
【数19】 [Equation 19]
【0082】で平均化することにより、すなわち有効な
測定値の平均値をとることにより、より正確な測定を行
うわけである。By averaging, that is, by taking the average of effective measured values, more accurate measurement is performed.
【0083】ステップ3−5,3−6では、それぞれX
YステージとZステージで所定の回数分に移動が終了し
たかを確認する。もし終了していないならば、それぞれ
ステップ3−2あるいはステップ3−1へ移行する。そ
うでない場合には次ステップ3−7へと進む。In steps 3-5 and 3-6, X
It is checked whether the movement has been completed a predetermined number of times on the Y stage and the Z stage. If not, the process proceeds to step 3-2 or step 3-1. If not, proceed to the next step 3-7.
【0084】[0084]
【数20】 (Equation 20)
【0085】今までは、平面上に穴の空いたキャリブレ
ーションボード22を利用して説明してきたが、このほ
かにもいろいろバリエーションを考えることができる。
図15はその1例を示している。図15のように、キャ
リブレーションボード22の代わりに、3次元形状が既
知な部材をリファレンス部材26として考えることがで
きる。この例では、平面E上に4個の3角形平面A,
B,C,Dを配置し、これら平面は1点で交わるものと
する。Although the above description has been made using the calibration board 22 having a hole in a plane, various variations can be considered.
FIG. 15 shows one example. As shown in FIG. 15, a member having a known three-dimensional shape can be considered as the reference member 26 instead of the calibration board 22. In this example, four triangular planes A,
B, C, and D are arranged, and these planes intersect at one point.
【0086】このリファレンス部材26を、キャリブレ
ーションボード22の代わりに利用し、XYZステージ
で移動しながら、平面A,B,C,Dの交点位置として
のキャリブレーションの中心(ua ,va )を、fij k
から抽出する。一方(xa ,ya ,za )は、XYZス
テージの移動量から算出することができる。ここで、f
ij kから交点位置(ua ,va )を算出する方法として
は、fij kの近傍計算からfij kの値に複数の平面フィッ
ティングを行い、抽出された平面方程式の交点を求める
ことにより、行えばよい。Using the reference member 26 instead of the calibration board 22, the center of the calibration (u a , v a ) as the intersection point of the planes A, B, C, and D is moved while moving on the XYZ stage. To f ij k
Extract from On the other hand (x a, y a, z a) can be calculated from the amount of movement of the XYZ stage. Where f
intersection from ij k (u a, v a ) As a method of calculating the carries a plurality of planes fitting the value of f ij k from the vicinity calculation of f ij k, by finding the intersection of the extracted plane equation , Just do it.
【0087】以上説明してきたように、第2の実施形態
では、XYZステージを利用して、光線パラメータと距
離パラメータを同時に推定することが可能である。第1
の実施形態で使用したセンサ素子アレイより小さな素子
数のアレイでも、キャリブレーションが可能となる。さ
らに、第1の実施形態のステップ1とステップ2を統合
することが可能であり、キャリブレーションの自動化に
も適した方法である。As described above, in the second embodiment, it is possible to simultaneously estimate a ray parameter and a distance parameter using the XYZ stage. First
Calibration is possible even with an array having a smaller number of elements than the sensor element array used in the embodiment. Further, step 1 and step 2 of the first embodiment can be integrated, which is a method suitable for automation of calibration.
【0088】[第3の実施の形態]いままでの第1及び
第2の実施形態では、レンジセンサ1のキャリブレーシ
ョン方法を示した。一方、現実の場面の多くでは、レン
ジセンサ1が計測する距離画像と通常のCCD/CMO
Sカメラから得られるテクスチャ画像(カラーあるいは
モノクロ画像)を融合して、テクスチャ画像を距離画像
上にマッピングすること(あるいはその逆にテクスチャ
画像に距離画像をマッピングすること)が求められるこ
とが多い。[Third Embodiment] In the first and second embodiments, the calibration method of the range sensor 1 has been described. On the other hand, in many actual scenes, the distance image measured by the range sensor 1 and the normal CCD / CMO
It is often required to map a texture image on a distance image (or vice versa) by mapping a texture image (color or monochrome image) obtained from the S camera.
【0089】以下、この方法について説明する。図16
は、第3の実施形態の構成を示す図である。装置の構成
は、ほとんど第1の実施形態と同様だが、これらにテク
スチャを撮影するためのテクスチャ撮影用カメラ(撮像
装置)27がレンジセンサ1に装着される。Hereinafter, this method will be described. FIG.
FIG. 9 is a diagram illustrating a configuration of a third embodiment. The configuration of the apparatus is almost the same as that of the first embodiment, except that a texture photographing camera (imaging apparatus) 27 for photographing a texture is mounted on the range sensor 1.
【0090】図17は、本実施形態の処理フローを示す
フローチャートである。基本的には、図8に示される処
理フローにステップ4−6とステップ4−9が新たに加
わったものであり、これらはテクスチャ撮影用カメラの
キャリブレーションパラメータ(光線パラメータと座標
変換パラメータ)を算出するためのステップである。FIG. 17 is a flowchart showing the processing flow of this embodiment. Basically, steps 4-6 and 4-9 are newly added to the processing flow shown in FIG. 8, and these are used to adjust the calibration parameters (light ray parameters and coordinate conversion parameters) of the camera for texture photographing. This is a step for calculation.
【0091】ステップ4−1では、全体の流れをコント
ロールするインデックスパラメータkを1で初期化す
る。このパラメータは、キャリブレーションボードを配
置する位置を指定するパラメータである。ステップ4−
2では、世界座標系のzW =z k の位置にキャリブレー
ションボードを配置する。ステップ4−3では、レンジ
センサ1でキャリブレーションボードを撮影し、各素子
からの信号出力fij kを入力する。ステップ4−4で
は、fij kを2次元配列として解析し、パターンを抽出
するとともに同定し、キャリブレーションパターンの穴
の位置の中心(ua k,va k)を計算する。ステップ4−
5では、レンジセンサ1で抽出、同定されたパターンの
世界座標系における3次元位置(xa k,ya k,za k)を
2次元位置(ua k,va k)とともに登録する。In step 4-1, the entire flow is controlled.
Initialize the index parameter k to be rolled to 1.
You. This parameter is used to place the calibration board.
This is a parameter to specify the position to place. Step 4-
In 2, the z of the world coordinate systemW= Z kCalibrate to the position
Place an option board. In step 4-3, the range
Image the calibration board with sensor 1
Signal output fromij kEnter In step 4-4
Is fij kIs analyzed as a two-dimensional array to extract patterns
And identify the holes in the calibration pattern
Center of position (ua k, Va k) Is calculated. Step 4-
In 5, the pattern extracted and identified by the range sensor 1
Three-dimensional position (xa k, Ya k, Za k)
Two-dimensional position (ua k, Va k) And register.
【0092】ステップ4−6では、テクスチャ撮影用カ
メラで、キャリブレーションパターンを撮影し、その撮
影された画像内からキャリブレーションパターンの穴の
中心を計測する。この穴の画像内での位置を(uc k,v
c k)とする。一方この抽出された穴に対応するパターン
の世界座標系における3次元位置(xc k,yc k,zc k)
を、2次元位置(uc k,vc k)とともに登録する。In step 4-6, the calibration pattern is photographed by the texture photographing camera, and the center of the hole of the calibration pattern is measured from the photographed image. The location within the image of the hole (u c k, v
c k ). On the other hand, the three-dimensional position (x c k , y c k , z c k ) of the pattern corresponding to the extracted hole in the world coordinate system
And registers with the two-dimensional position (u c k, v c k ).
【0093】ステップ4−7では、kの値を1増やす。
ステップ4−8では、インデックスkがあらかじめ定め
られたNK より大きいか否かをチェックする。もし大き
くなければ、ステップ4−2へ移行する。大きければ、
ステップ4−9へ移行する。ステップ4−9では、ステ
ップ4−5で登録された3次元位置(xa k,ya k,
z a k)と2次元位置(ua k,va k)を利用して、In step 4-7, the value of k is increased by one.
In step 4-8, the index k is determined in advance.
NKCheck if it is greater than. If large
If not, the process proceeds to step 4-2. If it ’s big,
Move to step 4-9. In step 4-9,
The three-dimensional position (xa k, Ya k,
z a k) And two-dimensional position (ua k, Va k)
【0094】[0094]
【数21】 (Equation 21)
【0095】さらにステップ4−10では、ステップ4
−6で登録されたテクスチャ撮影用カメラの3次元位置
(xc k,yc k,zc k)と2次元位置(uc k,vc k)を利
用して、テクスチャ撮影用カメラ内部パラメータと世界
座標系からテクスチャ撮影用カメラ座標系への座標変換
パラメータ(カメラ外部パラメータ)R′,T′とレン
ジセンサ座標系からテクスチャ撮影用カメラ座標系への
座標変換パラメータcHsを算出する。Further, in step 4-10, step 4
Three-dimensional position of the texture picture camera registered -6 using (x c k, y c k , z c k) and two-dimensional position (u c k, v c k ) the camera internal texture for shooting The parameters and coordinate conversion parameters (external camera parameters) R ′ and T ′ from the world coordinate system to the texture photographing camera coordinate system and the coordinate conversion parameter c H s from the range sensor coordinate system to the texture photographing camera coordinate system are calculated. .
【0096】以下、本アルゴリズムでより詳細な説明が
必要なカメラキャリブレーションの方法と、ステップ4
−6,ステップ4−10について説明する。Hereinafter, a camera calibration method that requires a more detailed description of the present algorithm, and step 4
-6, step 4-10 will be described.
【0097】まずカメラキャリブレーションで必要とな
る数学について説明する。テクスチャ撮影用カメラの座
標系Cと世界座標系Wを規定し、この世界座標系Wでの
3次元位置(xW ,yW ,zW )がカメラ画像内の位置
(s,t)に対応すると仮定すると、First, the mathematics required for camera calibration will be described. The coordinate system C and the world coordinate system W of the camera for texture photographing are defined, and the three-dimensional position (x W , y W , z W ) in the world coordinate system W corresponds to the position (s, t) in the camera image. Assuming that
【0098】[0098]
【数22】 (Equation 22)
【0099】の関係が成り立つ。The following relationship holds.
【0100】ここにR′(ψx ,ψy ,ψz )=
(rij′)とt′=(tx′,ty′,tz′)は、それ
ぞれ世界座標系からテクスチャ撮影用カメラ座標系への
座標変換のうちの回転行列成分と並進ベクトル成分を表
す。(ψx ,ψy ,ψz )はR′内のYaw-Pitch-Roll角
を表す。Here, R ′ (ψ x , ψ y , ψ z ) =
(R ij ′) and t ′ = (t x ′, t y ′, t z ′) respectively represent a rotation matrix component and a translation vector component of the coordinate transformation from the world coordinate system to the texture photographing camera coordinate system. Represent. (Ψ x , ψ y , ψ z ) represents the Yaw-Pitch-Roll angle in R ′.
【0101】カメラキャリブレーションでは、g=(β
s ,βt ,s0 ,t0 ,a1 ,b1,b2 ,b3 ,
b4 )をカメラ内部パラメータ、h=(ψx ,ψy ,ψ
z ,tx′,ty′,tz′)をカメラ外部パラメータと
呼ぶ。In the camera calibration, g = (β
s , β t , s 0 , t 0 , a 1 , b 1 , b 2 , b 3 ,
b 4 ) is a camera internal parameter, and h = (ψ x , ψ y , ψ
z, t x ', t y ', t z ') is referred to as the extrinsic camera parameters.
【0102】いま世界座標系で与えられた3次元点群
(xW i,yW i,zW i)と対応する画像点(si ,ti )
(i=1,2,…,N)が与えられたとき、パラメータ
g=(βs ,βt ,s0 ,t0 ,a1 ,b1 ,b2 ,b
3 ,b4 )とh=(ψx ,ψy,ψz ,tx′,ty′,
tz′)を算出する方法は、先にも述べたように文献1
などで与えられる。Now, the image points (s i , t i ) corresponding to the three-dimensional point group (x W i , y W i , z W i ) given in the world coordinate system
Given (i = 1, 2,..., N), the parameter g = (β s , β t , s 0 , t 0 , a 1 , b 1 , b 2 , b
3 , b 4 ) and h = (ψ x , ψ y , ψ z , t x ′, t y ′,
The method of calculating t z ') is described in Reference 1 as described above.
And so on.
【0103】一方、これらのパラメータが算出される
と、世界座標系の3次元点(xW ,y W ,zW )からテ
クスチャ撮影用カメラ座標系での対応点(s,t)を算
出するには、以下の方法をとればよい。すなわち、
(1)まずOn the other hand, these parameters are calculated
And a three-dimensional point (xW, Y W, ZW) From te
Calculate corresponding point (s, t) in camera coordinate system for texture shooting
To do this, the following method may be used. That is,
(1) First
【0104】[0104]
【数23】 (Equation 23)
【0105】さて、ステップ4−6では、テクスチャ撮
影用カメラで、キャリブレーションパターンを撮影す
る。その画像においては、背景となる平面部は白く映
り、キャリブレーションパターンである穴の部分は白い
平面部と識別することが容易である。すなわち、基本的
な画像処理アルゴリズムを利用することにより、撮影さ
れた画像内から容易に、穴の中心座標を算出することが
できる。いま、この2次元座標値を(sd k,td k)とす
る。ここにkはキャリブレーションボードの位置を表す
インデックスであり、dは認識されたキャリブレーショ
ンパターン(穴)を表すインデックスである。こうして
計測された(sd k,td k)に対応する世界座標系でのキ
ャリブレーションパターン(穴)の位置を(xd k,
yd k,zd k)とする。In step 4-6, a calibration pattern is photographed by a texture photographing camera. In the image, the plane portion serving as the background appears white, and the hole portion serving as the calibration pattern is easily distinguishable from the white plane portion. That is, by using the basic image processing algorithm, the center coordinates of the hole can be easily calculated from the captured image. Now, the two-dimensional coordinate value (s d k, t d k ). Here, k is an index representing the position of the calibration board, and d is an index representing the recognized calibration pattern (hole). Thus measured (s d k, t d k ) to the position (x d k of the calibration pattern (hole) in the corresponding world coordinate system,
y d k , z d k ).
【0106】一方、ステップ4−10では、ステップ4
−6で算出された(sd k,td k)と対応する(xd k,y
d k,zd k)を利用して、先に述べたカメラ内部パラメー
タg=(βs ,βt ,s0 ,t0 ,a1 ,b1 ,b2 ,
b3 ,b4 )とカメラ外部パラメータh=(Ψx ,
Ψy ,Ψz ,tx′,ty′,tz′)を算出する。On the other hand, in step 4-10, step 4
( Sd k , t d k ) calculated at −6 and (x d k , y
d k , z d k ), and the camera internal parameters g = (β s , β t , s 0 , t 0 , a 1 , b 1 , b 2 ,
b 3 , b 4 ) and camera external parameters h = (Ψ x ,
Ψ y, Ψ z, t x ', t y', calculates a t z ').
【0107】[0107]
【数24】 (Equation 24)
【0108】[0108]
【数25】 (Equation 25)
【0109】で与えられる。よって、レンジセンサ1か
らテクスチャ撮影用カメラ座標系への座標変換行列は、Is given by Therefore, the coordinate transformation matrix from the range sensor 1 to the texture photographing camera coordinate system is
【0110】[0110]
【数26】 (Equation 26)
【0111】によって算出することができる。この座標
変換行列により、レンジセンサ座標系の点(xR ,
yR ,zR )をテクスチャ撮影用カメラ座標系の点(x
C ,yC ,zC )に、以下の式により変換することがで
きる。Can be calculated. By this coordinate conversion matrix, a point (x R ,
y R , z R ) are converted to points (x
C , y C , z C ) by the following equation.
【0112】[0112]
【数27】 [Equation 27]
【0113】とする。ここで、R″とT″は、レンジセ
ンサ座標系からテクスチャ撮影用カメラ座標系への座標
変換のうちの回転行列と並進ベクトルの成分を表す。It is assumed that Here, R ″ and T ″ represent the components of the rotation matrix and the translation vector in the coordinate transformation from the range sensor coordinate system to the texture photographing camera coordinate system.
【0114】以下では、こうして算出されたパラメータ
からどのようにテクスチャ画像と距離画像とを融合する
かを図18と図19を利用して簡単に説明する。In the following, how to combine a texture image and a distance image from the parameters calculated in this way will be briefly described with reference to FIGS. 18 and 19.
【0115】まず図18を参照しながら説明する。いま
レンジセンサ1内のセンサ素子28(i,j)で計測さ
れたfに基づき、先に述べたように、ルックアップテー
ブル処理を施すことを行い、すなわちFirst, a description will be given with reference to FIG. Now, based on f measured by the sensor element 28 (i, j) in the range sensor 1, the lookup table processing is performed as described above, that is,
【0116】[0116]
【数28】 [Equation 28]
【0117】により、レンジセンサ座標系における3次
元計測点(xR ,yR ,zR )を算出する。これらすべ
ての3次元計測点29を(xR a,yR a,zR a)とする。
ここでa=1,2,…,Nとする。これらの点は、レン
ジセンサ座標系からテクスチャ撮影用カメラ座標系への
座標変換パラメータ(R″,T″)を利用して、テクス
チャ撮影用カメラ座標系の点(xC a,yC a,zC a)へ、
以下の式によりマッピングされる。Thus, the three-dimensional measurement points (x R , y R , z R ) in the range sensor coordinate system are calculated. All 3D measurement point 29 thereof (x R a, y R a , z R a) to.
Here, a = 1, 2,..., N. These points, the coordinate transformation parameters from range sensor coordinate system to the texture photographing camera coordinate system (R ", T") by using, the camera coordinate system for the texture photographing point (x C a, y C a , z C a )
It is mapped by the following formula.
【0118】[0118]
【数29】 (Equation 29)
【0119】続いて、テクスチャ撮影用カメラの先に述
べたカメラ内部パラメータg=(βs,βt ,s0 ,t
0 ,a1 ,b1 ,b2 ,b3 ,b4 )と式(20)(2
1)(22)を利用して、(xC a,yC a,zC a)に対す
るカメラ画像内の対応点30(sa ,ta )を算出す
る。こうして、カメラ画像内での離散的な画像計測点と
測距点の組{(sa ,ta ),(xC a,yC a,zC a)}
を利用して、テクスチャマッピングを行う。Subsequently, the camera internal parameters g = (β s , β t , s 0 , t) described above for the texture photographing camera.
0, a 1, b 1, b 2, b 3, b 4) and formula (20) (2
1) by using (22), calculates the (x C a, y C a , z C a) corresponding point 30 in the camera image for (s a, t a). Thus, a set of discrete image measurement points and ranging points in a camera image {(s a , t a ), (x C a , y C a , z C a )}
Is used to perform texture mapping.
【0120】具体的には、次のような方法がある。図1
9を参照しながら説明する。テクスチャ撮影用カメラの
各画素(k,m)について、最近傍の画像計測点3点
(sb,tb )34(b=1,2,3)を探索し、その
測定点(xC b,yC b,zC b)31を探索する。このと
き、それら測距点が作る平面をπ32とする。いまこの
平面を nx xC +ny yC +nz zC =d (29) とする。この平面π32と、カメラ画素点(k,m)が
作る光線との交点33を以て、(k,m)に対する測距
点と新たに定義すればよい。具体的には、Specifically, there is the following method. FIG.
This will be described with reference to FIG. For each pixel (k, m) of the texture photographing camera, three nearest image measurement points (s b , t b ) 34 (b = 1, 2, 3) are searched for, and the measurement points (x C b) , y C b, searches the z C b) 31. At this time, the plane formed by the distance measuring points is π32. Now the this plane n x x C + n y y C + n z z C = d (29). A distance measuring point for (k, m) may be newly defined based on the intersection point 33 of the plane π32 and the light beam created by the camera pixel point (k, m). In particular,
【0121】[0121]
【数30】 [Equation 30]
【0122】で求めることができる。すなわち、テクス
チャ撮影用カメラの各画素点について、距離情報
(xC ,yC ,zC )を付加することができるので、テ
クスチャマッピング、あるいは距離画像とテクスチャ画
像に融合をしたことと等価になる。Can be obtained. That is, since distance information (x C , y C , z C ) can be added to each pixel point of the texture photographing camera, this is equivalent to texture mapping or fusing a distance image and a texture image. .
【0123】以上説明してきたように、第3実施形態に
よれば、テクスチャ画像等を撮影するカメラや撮影装置
を、レンジセンサ1の他に配置し、キャリブレーション
パターンを同時に認識することで、両者の間の位置関係
を計測することが可能となり、レンジセンサ1が生成し
た距離画像とテクスチャ画像を融合することが可能とな
る。As described above, according to the third embodiment, a camera and a photographing device for photographing a texture image and the like are arranged in addition to the range sensor 1, and the calibration patterns are simultaneously recognized, so that the both are recognized. Can be measured, and the distance image and the texture image generated by the range sensor 1 can be fused.
【0124】[0124]
【発明の効果】請求項1に記載の発明によれば、各素子
が規定する光線パラメータを算出することにより、レン
ジセンサの光学系が有する歪み成分(レンズディストー
ション)を有している場合でも、正確にキャリブレーシ
ョンを行うことができる。また各素子について光線パラ
メータと距離パラメータを算出するので、複数の素子間
に現れるタイムオブフライトの特性のばらつきを補正す
ることもできる。According to the first aspect of the present invention, by calculating the light beam parameters defined by each element, even if the optical system of the range sensor has a distortion component (lens distortion), Calibration can be performed accurately. Further, since the light ray parameter and the distance parameter are calculated for each element, it is also possible to correct variations in the time-of-flight characteristics appearing between a plurality of elements.
【0125】また、請求項2に記載の発明によれば、請
求項1に記載の発明の効果に加えて、3次元的に形状が
既知な部材をリファレンスとして利用できるので、キャ
リブレーション時に測定すべきパラメータの算出が容易
になる。これによって素子全体が算出する対象物の3次
元形状を、相対的ではない絶対的な意味での座標値を用
いて計測することができ、正確な3次元計測が可能とな
る。According to the second aspect of the invention, in addition to the effect of the first aspect, a member having a three-dimensionally known shape can be used as a reference. Calculation of the power parameter becomes easy. As a result, the three-dimensional shape of the object calculated by the entire device can be measured using coordinate values in an absolute sense that is not relative, and accurate three-dimensional measurement can be performed.
【0126】また、請求項3に記載の発明によれば、請
求項2に記載の発明の効果に加えて、複数回撮影するこ
とにより、キャリブレーションに使用するパラメータの
算出が容易になる。According to the third aspect of the present invention, in addition to the effect of the second aspect of the present invention, calculation of parameters used for calibration is facilitated by taking a plurality of images.
【0127】また、請求項4に記載の発明によれば、請
求項3に記載の発明の効果に加えて、キャリブレーショ
ンに使用するパターンの認識(穴などのマーカの認識)
が容易になるので、人手の介在を少なくし、より正確で
容易なキャリブレーションが実現できる。According to the invention described in claim 4, in addition to the effect of the invention described in claim 3, recognition of a pattern used for calibration (recognition of a marker such as a hole).
Therefore, manual intervention is reduced, and more accurate and easy calibration can be realized.
【0128】また、請求項5に記載の発明によれば、請
求項1に記載の発明の効果に加えて、変換テーブルを利
用することにより、キャリブレーションパラメータを効
率的に格納し、かつ距離変換に利用することができる。According to the fifth aspect of the present invention, in addition to the effects of the first aspect of the present invention, by using a conversion table, calibration parameters are efficiently stored and distance conversion is performed. Can be used for
【0129】また、請求項6に記載の発明によれば、請
求項1に記載の発明の効果に加えて、テクスチャ画像な
どを撮影するカメラや撮影装置を、レンジセンサの他に
配置し、キャリブレーションパターンを同時に認識する
ことで、両者の間の位置関係を計測することが可能とな
り、レンジセンサが生成した距離画像とテクスチャ画像
を融合することが可能となる。According to the sixth aspect of the present invention, in addition to the effects of the first aspect, a camera or a photographing device for photographing a texture image or the like is arranged in addition to the range sensor to perform calibration. By simultaneously recognizing the motion patterns, the positional relationship between the two can be measured, and the distance image and the texture image generated by the range sensor can be combined.
【0130】また、請求項7に記載の発明によれば、請
求項2に記載の発明の効果に加えて、3次元形状な部材
を3次元的に移動することにより、光線パラメータと距
離パラメータを同時に推定することが可能である。According to the seventh aspect of the present invention, in addition to the effect of the second aspect, by moving the three-dimensionally shaped member three-dimensionally, the ray parameter and the distance parameter can be reduced. It is possible to estimate at the same time.
【図1】本発明の第1実施形態に関わるレンジセンサ1
の装置構成の一部を示す図である。FIG. 1 is a range sensor 1 according to a first embodiment of the present invention.
FIG. 3 is a diagram showing a part of the device configuration of FIG.
【図2】センサ素子アレイ7の構造を数学的に示した図
である。FIG. 2 is a diagram mathematically showing a structure of a sensor element array 7;
【図3】レンジセンサ1がどのようにして距離画像を生
成できるかについて説明するための図である。FIG. 3 is a diagram for explaining how the range sensor 1 can generate a distance image.
【図4】測定点列(fm ,zR m)に対するルックアップ
テーブルの内部構成を示す図である。It is a diagram showing an internal configuration of a look-up table for the FIG. 4 measurement point sequence (f m, z R m) .
【図5】キャリブレーション方法を具体化するアルゴリ
ズムを示すフローチャートである。FIG. 5 is a flowchart illustrating an algorithm that embodies a calibration method.
【図6】光線パラメータと座標変換パラメータを算出す
る方法を実現する装置を示す図である。FIG. 6 is a diagram showing an apparatus for realizing a method for calculating a ray parameter and a coordinate conversion parameter.
【図7】キャリブレーションボードの構成を示す図であ
る。FIG. 7 is a diagram showing a configuration of a calibration board.
【図8】光線パラメータを算出するためのアルゴリズム
を示す図である。FIG. 8 is a diagram showing an algorithm for calculating a ray parameter.
【図9】ステップ2である距離パラメータの算出とルッ
クアップテーブルの作成に関する装置を示す図である。FIG. 9 is a diagram showing an apparatus relating to calculation of a distance parameter and creation of a look-up table, which are steps 2;
【図10】ステップ2のアルゴリズムの詳細を示すフロ
ーチャートである。FIG. 10 is a flowchart showing details of the algorithm of step 2;
【図11】(fij m,zR m)のテーブルを示す図であ
る。FIG. 11 is a diagram showing a table of (f ij m , z R m ).
【図12】キャリブレーションボード内のパターンの大
きさと間隔をzの位置に応じて変化させた構成を示す図
である。FIG. 12 is a diagram showing a configuration in which the size and interval of a pattern in a calibration board are changed according to the position of z.
【図13】本発明の第2の実施形態を実現する装置構成
を示す図である。FIG. 13 is a diagram showing an apparatus configuration for realizing a second embodiment of the present invention.
【図14】第2実施形態のアルゴリズムのステップを示
すフローチャートである。FIG. 14 is a flowchart showing the steps of the algorithm of the second embodiment.
【図15】キャリブレーションボードの代わりに、3次
元形状が既知な部材を用いた場合の実施形態を説明する
ための図である。FIG. 15 is a diagram for describing an embodiment in which a member having a known three-dimensional shape is used instead of the calibration board.
【図16】本発明の第3実施形態の構成を示す図であ
る。FIG. 16 is a diagram showing a configuration of a third embodiment of the present invention.
【図17】第3実施形態の処理フローを示すフローチャ
ートである。FIG. 17 is a flowchart illustrating a processing flow according to the third embodiment.
【図18】算出されたパラメータからテクスチャ画像と
距離画像とをどのように融合するかを説明するための図
(その1)である。FIG. 18 is a diagram (part 1) for explaining how to combine a texture image and a distance image from calculated parameters.
【図19】算出されたパラメータからテクスチャ画像と
距離画像とをどのように融合するかを説明するための図
(その2)である。FIG. 19 is a diagram (part 2) for explaining how to combine a texture image and a distance image from calculated parameters.
1 レンジセンサ 2 対象物 3 コンピュータ 4 タイミングコントローラ 5 パルス光源ユニット 6 パルス光源用光学系ユニット 7 センサ素子アレイ 8 センサ素子アレイ用光学系ユニット 9 信号処理ユニット 10 入出力インタフェース 11 タイミング信号 12 パルス光 13 パルス光 14 パルス光 15 パルス光 16 入出力信号 17 入出力信号 DESCRIPTION OF SYMBOLS 1 Range sensor 2 Object 3 Computer 4 Timing controller 5 Pulse light source unit 6 Optical system unit for pulse light source 7 Sensor element array 8 Optical system unit for sensor element array 9 Signal processing unit 10 Input / output interface 11 Timing signal 12 Pulse light 13 Pulse Light 14 Pulsed light 15 Pulsed light 16 I / O signal 17 I / O signal
───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 2F065 AA06 BB28 DD00 FF12 FF32 FF61 JJ03 JJ09 JJ26 PP12 RR07 SS03 SS13 UU04 UU05 2F112 AD01 BA06 CA08 FA03 FA45 GA10 5B057 BA02 BA17 BA19 BA26 CA12 CA16 CD14 CH07 DA07 DA20 DB02 DC39 5J084 AA05 AB20 AD01 BA40 CA03 CA31 CA67 DA01 DA07 EA08 FA03 ──────────────────────────────────────────────────続 き Continued on the front page F term (reference) 2F065 AA06 BB28 DD00 FF12 FF32 FF61 JJ03 JJ09 JJ26 PP12 RR07 SS03 SS13 UU04 UU05 2F112 AD01 BA06 CA08 FA03 FA45 GA10 5B057 BA02 BA17 BA19 BA26 CA12 CA16 CD14 CH07 DA07 DB20 DB04 AB20 AD01 BA40 CA03 CA31 CA67 DA01 DA07 EA08 FA03
Claims (7)
光部を有するタイムオブフライトの計測原理を利用した
距離画像センサのキャリブレーション方法であり、 上記各素子に入射する光線の方向を規定する光線パラメ
ータを求めるステップと、 上記各素子の出力信号に応じた対象物までの距離パラメ
ータを求めるステップとを有することを特徴とする2次
元距離画像センサのキャリブレーション方法。1. A method for calibrating a distance image sensor using a time-of-flight measurement principle having a light receiving section including a plurality of elements arranged two-dimensionally, wherein a direction of a light beam incident on each of the elements is defined. A step of obtaining a parameter of a light beam to be performed, and a step of obtaining a distance parameter to an object according to an output signal of each element.
タを求めるにあたり、3次元形状が既知の部材を測定し
た結果を利用することを特徴とする請求項1記載の2次
元距離画像センサのキャリブレーション方法。2. The method for calibrating a two-dimensional distance image sensor according to claim 1, wherein a result of measuring a member having a known three-dimensional shape is used for obtaining the ray parameter or the distance parameter.
上記部材と上記2次元距離画像センサの距離を複数回変
更して行われることを特徴とする請求項2記載の2次元
距離画像センサのキャリブレーション方法。3. The measurement of a member whose three-dimensional shape is known,
3. The method according to claim 2, wherein the distance between the member and the two-dimensional distance image sensor is changed a plurality of times.
穴または凹凸のあるマーカを有する部材と、当該マーカ
を有さない平面部を有した部材とから構成されているこ
とを特徴とする2次元距離画像センサのキャリブレーシ
ョン方法。4. The member having a known three-dimensional shape includes a member having a plurality of holes or a marker having irregularities, and a member having a planar portion not having the marker. Calibration method for a two-dimensional range image sensor.
は、変換テーブルを利用することを特徴とする請求項1
記載の2次元距離画像センサのキャリブレーション方
法。5. The method according to claim 1, wherein the step of obtaining the distance parameter uses a conversion table.
A calibration method for a two-dimensional range image sensor according to claim 1.
知の部材を撮影するための撮影装置をさらに配置し、上
記距離画像センサとこの撮影装置間の位置関係を規定す
るパラメータと、上記撮影装置に関するパラメータとを
算出することを特徴とする請求項1記載の2次元距離画
像センサのキャリブレーション方法。6. In addition to the distance image sensor, a photographing device for photographing a member having a known shape is further arranged, and a parameter defining a positional relationship between the distance image sensor and the photographing device; 2. The method for calibrating a two-dimensional range image sensor according to claim 1, wherein parameters related to the apparatus are calculated.
に移動させることにより、上記光線パラメータと上記距
離パラメータとを算出することを特徴とする請求項2記
載の2次元距離画像センサのキャリブレーション方法。7. The two-dimensional distance image sensor according to claim 2, wherein the light ray parameter and the distance parameter are calculated by three-dimensionally moving the member having a known three-dimensional shape. Calibration method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001000595A JP2002202122A (en) | 2001-01-05 | 2001-01-05 | Calibration method for two-dimensional distance image sensor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001000595A JP2002202122A (en) | 2001-01-05 | 2001-01-05 | Calibration method for two-dimensional distance image sensor |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2002202122A true JP2002202122A (en) | 2002-07-19 |
Family
ID=18869354
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001000595A Pending JP2002202122A (en) | 2001-01-05 | 2001-01-05 | Calibration method for two-dimensional distance image sensor |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2002202122A (en) |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6915072B2 (en) | 2002-10-23 | 2005-07-05 | Olympus Corporation | Finder, marker presentation member, and presentation method of positioning marker for calibration photography |
JP2007171092A (en) * | 2005-12-26 | 2007-07-05 | Ishikawajima Harima Heavy Ind Co Ltd | Marker for three-dimensional measurement, and three-dimensional measurement method using the same |
JP2007256091A (en) * | 2006-03-23 | 2007-10-04 | Space Vision:Kk | Method and apparatus for calibrating range finder |
JP2008014940A (en) * | 2006-06-08 | 2008-01-24 | Fast:Kk | Camera calibration method for camera measurement of planar subject and measuring device applying same |
JP2008249431A (en) * | 2007-03-29 | 2008-10-16 | Nippon Hoso Kyokai <Nhk> | Three-dimensional image correction method and its device |
JP2009204532A (en) * | 2008-02-28 | 2009-09-10 | Aisin Seiki Co Ltd | Calibration device and calibration method of range image sensor |
JP2011033497A (en) * | 2009-08-03 | 2011-02-17 | Honda Motor Co Ltd | Environmental recognition system, environmental recognition method, and robot |
JP2011257402A (en) * | 2010-06-09 | 2011-12-22 | Thomson Licensing | Flight time image pickup apparatus |
JP2013250110A (en) * | 2012-05-31 | 2013-12-12 | Hitachi Information & Control Solutions Ltd | Calibration system, calibration method and calibration apparatus for laser measurement apparatus |
JP2014085351A (en) * | 2012-10-23 | 2014-05-12 | Electronics And Telecommunications Research Institute | Depth image correction device and method based on relation between depth sensor and image capturing camera |
CN104315995A (en) * | 2014-11-15 | 2015-01-28 | 中国科学院光电研究院 | TOF depth camera three-dimensional coordinate calibration device and method based on virtual multi-cube standard target |
CN104316083A (en) * | 2014-11-15 | 2015-01-28 | 中国科学院光电研究院 | Three-dimensional coordinate calibration device and method of TOF (Time-of-Flight) depth camera based on sphere center positioning of virtual multiple spheres |
CN105091691A (en) * | 2014-05-07 | 2015-11-25 | 哈尔滨飞机工业集团有限责任公司 | Method for calibrating control system parameters of flight parameter system |
JP2015537206A (en) * | 2012-11-05 | 2015-12-24 | オドス イメージング リミテッドodos imaging Ltd. | Apparatus and method for measuring distance values and distance images |
WO2016076400A1 (en) * | 2014-11-13 | 2016-05-19 | オリンパス株式会社 | Calibration device, calibration method, optical device, imaging device, projection device, measurement system, and measurement method |
JP2017118396A (en) * | 2015-12-25 | 2017-06-29 | Kddi株式会社 | Program, device and method for calculating internal parameter of depth camera |
WO2017138291A1 (en) * | 2016-02-09 | 2017-08-17 | 富士フイルム株式会社 | Distance image acquisition device, and application thereof |
WO2017195801A1 (en) * | 2016-05-13 | 2017-11-16 | オリンパス株式会社 | Calibration device, calibration method, optical device, imaging device, projection device, measurement system and measurement method |
WO2018173551A1 (en) * | 2017-03-21 | 2018-09-27 | オリンパス株式会社 | Calibration device, calibration method, optical device, photographing device, and projection device |
JP2021085679A (en) * | 2019-11-25 | 2021-06-03 | トヨタ自動車株式会社 | Target device for sensor axis adjustment |
WO2022209166A1 (en) * | 2021-03-31 | 2022-10-06 | ソニーグループ株式会社 | Information processing device, information processing method, and calibrating target |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05248819A (en) * | 1992-03-06 | 1993-09-28 | Kobe Steel Ltd | Calibrating method of data of calibration object for measuring three dimensional position of object by camera and measuring method of three dimensional position |
JPH0835828A (en) * | 1994-07-25 | 1996-02-06 | Kobe Steel Ltd | Calibration method of three-dimensional measuring apparatus |
JPH0843026A (en) * | 1994-07-29 | 1996-02-16 | Mazda Motor Corp | Calibration device and hologram |
JPH10320558A (en) * | 1997-05-21 | 1998-12-04 | Sony Corp | Calibration method, corresponding point search method and device therefor, focus distance detection method and device therefor, three-dimensional position information detection method and device therefor, and recording medium |
JPH1151609A (en) * | 1997-08-01 | 1999-02-26 | Sony Corp | Instrument and method for measuring distance and transmission medium |
JPH11118425A (en) * | 1997-10-17 | 1999-04-30 | Sony Corp | Calibration method and device and calibration data production |
-
2001
- 2001-01-05 JP JP2001000595A patent/JP2002202122A/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05248819A (en) * | 1992-03-06 | 1993-09-28 | Kobe Steel Ltd | Calibrating method of data of calibration object for measuring three dimensional position of object by camera and measuring method of three dimensional position |
JPH0835828A (en) * | 1994-07-25 | 1996-02-06 | Kobe Steel Ltd | Calibration method of three-dimensional measuring apparatus |
JPH0843026A (en) * | 1994-07-29 | 1996-02-16 | Mazda Motor Corp | Calibration device and hologram |
JPH10320558A (en) * | 1997-05-21 | 1998-12-04 | Sony Corp | Calibration method, corresponding point search method and device therefor, focus distance detection method and device therefor, three-dimensional position information detection method and device therefor, and recording medium |
JPH1151609A (en) * | 1997-08-01 | 1999-02-26 | Sony Corp | Instrument and method for measuring distance and transmission medium |
JPH11118425A (en) * | 1997-10-17 | 1999-04-30 | Sony Corp | Calibration method and device and calibration data production |
Cited By (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6915072B2 (en) | 2002-10-23 | 2005-07-05 | Olympus Corporation | Finder, marker presentation member, and presentation method of positioning marker for calibration photography |
JP2007171092A (en) * | 2005-12-26 | 2007-07-05 | Ishikawajima Harima Heavy Ind Co Ltd | Marker for three-dimensional measurement, and three-dimensional measurement method using the same |
JP2007256091A (en) * | 2006-03-23 | 2007-10-04 | Space Vision:Kk | Method and apparatus for calibrating range finder |
JP2008014940A (en) * | 2006-06-08 | 2008-01-24 | Fast:Kk | Camera calibration method for camera measurement of planar subject and measuring device applying same |
JP2008249431A (en) * | 2007-03-29 | 2008-10-16 | Nippon Hoso Kyokai <Nhk> | Three-dimensional image correction method and its device |
JP2009204532A (en) * | 2008-02-28 | 2009-09-10 | Aisin Seiki Co Ltd | Calibration device and calibration method of range image sensor |
JP2011033497A (en) * | 2009-08-03 | 2011-02-17 | Honda Motor Co Ltd | Environmental recognition system, environmental recognition method, and robot |
US8401279B2 (en) | 2009-08-03 | 2013-03-19 | Honda Motor Co., Ltd. | Environment recognition system, environment recognition method and robot |
US9188663B2 (en) | 2010-06-09 | 2015-11-17 | Thomson Licensing | Time-of-flight imager |
JP2011257402A (en) * | 2010-06-09 | 2011-12-22 | Thomson Licensing | Flight time image pickup apparatus |
JP2013250110A (en) * | 2012-05-31 | 2013-12-12 | Hitachi Information & Control Solutions Ltd | Calibration system, calibration method and calibration apparatus for laser measurement apparatus |
JP2014085351A (en) * | 2012-10-23 | 2014-05-12 | Electronics And Telecommunications Research Institute | Depth image correction device and method based on relation between depth sensor and image capturing camera |
JP2015537206A (en) * | 2012-11-05 | 2015-12-24 | オドス イメージング リミテッドodos imaging Ltd. | Apparatus and method for measuring distance values and distance images |
CN105091691A (en) * | 2014-05-07 | 2015-11-25 | 哈尔滨飞机工业集团有限责任公司 | Method for calibrating control system parameters of flight parameter system |
WO2016076400A1 (en) * | 2014-11-13 | 2016-05-19 | オリンパス株式会社 | Calibration device, calibration method, optical device, imaging device, projection device, measurement system, and measurement method |
JPWO2016076400A1 (en) * | 2014-11-13 | 2017-08-24 | オリンパス株式会社 | Calibration apparatus, calibration method, optical apparatus, photographing apparatus, projection apparatus, measurement system, and measurement method |
CN107003109A (en) * | 2014-11-13 | 2017-08-01 | 奥林巴斯株式会社 | Calibrating installation, calibration method, Optical devices, camera, projection arrangement, measuring system and measuring method |
US10127687B2 (en) | 2014-11-13 | 2018-11-13 | Olympus Corporation | Calibration device, calibration method, optical device, image-capturing device, projection device, measuring system, and measuring method |
CN104316083A (en) * | 2014-11-15 | 2015-01-28 | 中国科学院光电研究院 | Three-dimensional coordinate calibration device and method of TOF (Time-of-Flight) depth camera based on sphere center positioning of virtual multiple spheres |
CN104315995A (en) * | 2014-11-15 | 2015-01-28 | 中国科学院光电研究院 | TOF depth camera three-dimensional coordinate calibration device and method based on virtual multi-cube standard target |
CN104315995B (en) * | 2014-11-15 | 2017-02-01 | 中国科学院光电研究院 | TOF depth camera three-dimensional coordinate calibration device and method based on virtual multi-cube standard target |
JP2017118396A (en) * | 2015-12-25 | 2017-06-29 | Kddi株式会社 | Program, device and method for calculating internal parameter of depth camera |
US10764487B2 (en) | 2016-02-09 | 2020-09-01 | Fujifilm Corporation | Distance image acquisition apparatus and application thereof |
CN108700662B (en) * | 2016-02-09 | 2022-02-11 | 富士胶片株式会社 | Distance image acquisition device and application thereof |
CN108700662A (en) * | 2016-02-09 | 2018-10-23 | 富士胶片株式会社 | Range image acquisition device and its application |
WO2017138291A1 (en) * | 2016-02-09 | 2017-08-17 | 富士フイルム株式会社 | Distance image acquisition device, and application thereof |
JPWO2017138291A1 (en) * | 2016-02-09 | 2018-12-06 | 富士フイルム株式会社 | Range image acquisition device and its application |
JPWO2017195801A1 (en) * | 2016-05-13 | 2019-03-07 | オリンパス株式会社 | Calibration apparatus, calibration method, optical apparatus, photographing apparatus, projection apparatus, measurement system, and measurement method |
WO2017195801A1 (en) * | 2016-05-13 | 2017-11-16 | オリンパス株式会社 | Calibration device, calibration method, optical device, imaging device, projection device, measurement system and measurement method |
US10699440B2 (en) | 2016-05-13 | 2020-06-30 | Olympus Corporation | Calibration device, calibration method, optical device, photographing device, projecting device, measurement system, and measurement method |
CN110447220A (en) * | 2017-03-21 | 2019-11-12 | 奥林巴斯株式会社 | Calibrating installation, calibration method, Optical devices, camera and projection arrangement |
US10798353B2 (en) | 2017-03-21 | 2020-10-06 | Olympus Corporation | Calibration apparatus, calibration method, optical apparatus, image capturing apparatus, and projection apparatus |
CN110447220B (en) * | 2017-03-21 | 2021-03-09 | 奥林巴斯株式会社 | Calibration device, calibration method, optical device, imaging device, and projection device |
WO2018173551A1 (en) * | 2017-03-21 | 2018-09-27 | オリンパス株式会社 | Calibration device, calibration method, optical device, photographing device, and projection device |
JP2021085679A (en) * | 2019-11-25 | 2021-06-03 | トヨタ自動車株式会社 | Target device for sensor axis adjustment |
WO2022209166A1 (en) * | 2021-03-31 | 2022-10-06 | ソニーグループ株式会社 | Information processing device, information processing method, and calibrating target |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2002202122A (en) | Calibration method for two-dimensional distance image sensor | |
JP6465789B2 (en) | Program, apparatus and method for calculating internal parameters of depth camera | |
CN103649674B (en) | Measuring equipment and messaging device | |
US9053547B2 (en) | Three-dimensional point cloud position data processing device, three-dimensional point cloud position data processing system, and three-dimensional point cloud position data processing method and program | |
JP6363863B2 (en) | Information processing apparatus and information processing method | |
CN107025663A (en) | It is used for clutter points-scoring system and method that 3D point cloud is matched in vision system | |
EP3049756B1 (en) | Modeling arrangement and method and system for modeling the topography of a three-dimensional surface | |
US10771776B2 (en) | Apparatus and method for generating a camera model for an imaging system | |
CN105378794A (en) | 3d recording device, method for producing 3d image, and method for setting up 3d recording device | |
JP2003130621A (en) | Method and system for measuring three-dimensional shape | |
Samper et al. | Analysis of Tsai calibration method using two-and three-dimensional calibration objects | |
KR20150069927A (en) | Device, method for calibration of camera and laser range finder | |
JP2005509877A (en) | Computer vision system calibration method and system | |
US20200007843A1 (en) | Spatiotemporal calibration of rgb-d and displacement sensors | |
JPWO2016135856A1 (en) | Three-dimensional shape measurement system and measurement method thereof | |
KR102023087B1 (en) | Method for camera calibration | |
JP2018009927A (en) | Image processing device, image processing method and program | |
JP2013178174A (en) | Three-dimensional shape measuring apparatus using a plurality of gratings | |
KR20190050819A (en) | A method for performing calibration using measured data without an assumed calibration model and a three-dimensional scanner calibration system | |
JP2623367B2 (en) | Calibration method of three-dimensional shape measuring device | |
WO2015159835A1 (en) | Image processing device, image processing method, and program | |
JP7259660B2 (en) | Image registration device, image generation system and image registration program | |
US12094227B2 (en) | Object recognition device and object recognition method | |
Rodríguez | Online self-calibration for mobile vision based on laser imaging and computer algorithms | |
JP2000205821A (en) | Instrument and method for three-dimensional shape measurement |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20071128 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100622 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20101019 |