JPH08110807A - Method and device for automatic calibration - Google Patents

Method and device for automatic calibration

Info

Publication number
JPH08110807A
JPH08110807A JP7251971A JP25197195A JPH08110807A JP H08110807 A JPH08110807 A JP H08110807A JP 7251971 A JP7251971 A JP 7251971A JP 25197195 A JP25197195 A JP 25197195A JP H08110807 A JPH08110807 A JP H08110807A
Authority
JP
Japan
Prior art keywords
image
calibration
slit light
equation
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7251971A
Other languages
Japanese (ja)
Inventor
Atsushi Kuno
敦司 久野
Masachika Watanabe
正誓 渡邊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP7251971A priority Critical patent/JPH08110807A/en
Publication of JPH08110807A publication Critical patent/JPH08110807A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Numerical Control (AREA)
  • Image Input (AREA)
  • Image Processing (AREA)

Abstract

PURPOSE: To automatically generate a geometrical model of slit light. CONSTITUTION: A work 23 for calibration which has flat surfaces in two stages differing in height and is provided with plural marks on the respective flat surfaces, is irradiated with the slit light from a projection device 22 to form intersection lines of the slit light on the respective flat surfaces, and an image of the intersection lines is picked up by an image pickup device 21. A CPU 12 detects the two-dimensional coordinates of the respective marks in the two-dimensional image stored in an image storage part 15, and arithmetic operation using the coordinates and the known three-dimensional coordinates of the respective marks is carried out to calculate a camera model. Then, when slight light irradiation and image pickup processing are performed again, the CPU 12 detects the coordinates of image points of slit images in the two-dimensional image and the arithmetic operation using the three-dimensional coordinates of the coordinates and the image points calculated from the camera model is performed to find the geometrical model of the slit light.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】この発明は、例えば産業用ロボッ
トにおける視覚認識技術に関連し、殊にこの発明は、観
測対象物にスリット光を投射してその表面に形成された
スリット光の交わり線を観測する視覚認識装置におい
て、スリット光の幾何学的モデルのキャリブレーション
を自動的に行うための自動キャリブレーション方法およ
びその装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to, for example, a visual recognition technique in an industrial robot, and more particularly, the present invention projects slit light onto an object to be observed and intersects the slit light formed on the surface thereof. The present invention relates to an automatic calibration method and an apparatus for automatically calibrating a geometric model of slit light in a visual recognition device for observing.

【0002】[0002]

【従来の技術】従来、物体の形状等を認識するのに種々
の方式があり、その一方式として、先般、板状のスリッ
ト光を用いた3次元物体認識方式が提案されている。こ
の方式は、投光装置により板状のスリット光を観測対象
物に照射してその表面にスリット光の交わり線を生成
し、その交わり線を撮像装置により撮像してスリット像
を得た後、そのスリット像を画像処理して、対象物の認
識処理を行うものである。この種の方式の場合、認識処
理に先立ち、前記撮像装置や投光装置のキャリブレーシ
ョンを実行して、カメラモデルやスリット光モデルを予
め求めておく必要がある。
2. Description of the Related Art Conventionally, there are various methods for recognizing the shape of an object, and as one of them, a three-dimensional object recognition method using a plate-shaped slit light has been proposed. This method irradiates an object to be observed with a plate-shaped slit light by a light projecting device to generate a line of intersection of the slit light on its surface, and after capturing the line of intersection with an imaging device to obtain a slit image, The slit image is image-processed to recognize the object. In the case of this type of system, it is necessary to obtain the camera model and the slit light model in advance by executing the calibration of the imaging device and the light projecting device before the recognition processing.

【0003】従来、スリット光の幾何学モデルのキャリ
ブレーションは、所定のキャリブレーション用ワークを
観測位置に設置してスリット光を照射し、その表面に生
成されたスリット光の交わり線を撮像して得られた2次
元画像上からスリット像を検出した後、その検出結果,
スリット光の照射条件,撮像装置やキャリブレーション
用ワークの設置位置などの設定条件,補正係数などをコ
ンピュータに与えてキャリブレーション演算を実行させ
ることにより、行われている。
Conventionally, a geometric model of slit light is calibrated by setting a predetermined calibration work at an observation position, irradiating the slit light, and imaging the intersecting line of the slit light generated on the surface thereof. After detecting the slit image on the obtained two-dimensional image, the detection result,
This is performed by giving a computer the slit light irradiation conditions, the setting conditions such as the installation position of the imaging device and the calibration work, and the correction coefficient, and executing the calibration calculation.

【0004】[0004]

【発明が解決しようとする課題】ところがこのようなキ
ャリブレーション方式の場合、投光装置や撮像装置の調
整を多岐にわたって行いながら各調整条件の下での演算
処理を行う必要があるため、キャリブレーションを行う
のに多大の時間がかかるという問題がある。またこの調
整は画素単位で行われるため調整作業が難しい上、種々
の補正係数を用意する必要があるという問題も存在す
る。
However, in the case of such a calibration method, since it is necessary to perform arithmetic processing under each adjustment condition while adjusting the projection device and the image pickup device over a wide range, There is a problem that it takes a lot of time to perform. Further, since this adjustment is performed on a pixel-by-pixel basis, the adjustment work is difficult, and there is also the problem that it is necessary to prepare various correction coefficients.

【0005】この発明は、上記問題に着目してなされた
もので、撮像装置のカメラモデルと2次元画像上のスリ
ット光の交わり線の位置とを用いた演算を行うことによ
り、スリット光の幾何学的モデルを自動的に生成して、
キャリブレーション作業を容易かつ短時間で行うことが
できる自動キャリブレーション方法およびその装置を提
供することを目的とする。
The present invention has been made in view of the above-mentioned problems, and the geometry of the slit light is calculated by performing the calculation using the camera model of the image pickup device and the position of the intersection line of the slit light on the two-dimensional image. Automatically generates a geometric model,
An object of the present invention is to provide an automatic calibration method and an apparatus therefor which can perform the calibration work easily and in a short time.

【0006】[0006]

【課題を解決するための手段】第1の発明は、観測対象
物にスリット光を照射してこの観測対象物の表面に生成
されたスリット光の交わり線を観測する視覚認識装置に
おいて、スリット光の幾何学的モデルのキャリブレーシ
ョンを自動的に行うための方法であって、同一平面上の
面とはみなせないキャリブレーション用の面をその表面
に有するキャリブレーション用ワークに投光手段よりス
リット光を照射してその表面に生成されたスリット光の
交わり線を撮像手段により撮像し、得られた2次元画像
上で前記キャリブレーション用の面における交わり線の
位置を検出する第1の工程と、前記2次元画像上で検出
された交わり線の画像位置とあらかじめ求められた前記
撮像手段のカメラモデルとを用いた所定の演算を行っ
て、スリット光の幾何学的モデルを生成する第2の工程
とを一連に実施することを特徴としている。
According to a first aspect of the present invention, there is provided a visual recognition device for irradiating an observation object with slit light and observing a line of intersection of the slit light generated on the surface of the observation object. A method for automatically calibrating the geometric model of the above, which has a calibration surface on the surface that cannot be regarded as a surface on the same plane, and a slit light is projected from the light projecting means onto the calibration work. A first step of irradiating the image with the image of the intersecting line of the slit light generated on the surface thereof by the image capturing means, and detecting the position of the intersecting line on the calibration surface on the obtained two-dimensional image; A predetermined calculation is performed using the image position of the intersecting line detected on the two-dimensional image and the camera model of the image pickup unit obtained in advance to determine the slit light It is characterized by carrying out the second step of generating a biological model in a series.

【0007】第2の発明は、上記の方法を実施するため
の自動キャリブレーション装置であって、前記キャリブ
レーション用ワークにスリット光を照射してその表面に
スリット光の交わり線を生成する投光手段と、前記キャ
リブレーション用ワークおよび前記スリット光の交わり
線を撮像してそれぞれの2次元画像を生成する2次元撮
像手段と、前記2次元撮像手段により撮像された前記2
次元画像が格納される画像記憶手段と、前記2次元撮像
手段のカメラモデルを記憶するカメラモデル記憶手段
と、前記画像記憶手段に格納された2次元画像上で前記
キャリブレーション用の面における交わり線の位置を検
出する交わり線位置検出手段と、前記カメラモデル記憶
手段に記憶されたカメラモデルと前記交わり線位置検出
手段により検出された交わり線の画像位置とから所定の
演算によりスリット光の幾何学的モデルを生成する演算
手段とを備えている。
A second aspect of the present invention is an automatic calibration device for carrying out the above method, wherein the calibration work is irradiated with slit light and a crossing line of the slit light is generated on the surface thereof. Means, two-dimensional imaging means for imaging the intersecting line of the calibration work and the slit light to generate respective two-dimensional images, and the two-dimensional imaging means for imaging the two-dimensional images.
An image storage means for storing a three-dimensional image, a camera model storage means for storing a camera model of the two-dimensional image pickup means, and a line of intersection on the calibration surface on the two-dimensional image stored in the image storage means. Of the slit light by a predetermined calculation from the intersecting line position detecting means for detecting the position of the intersecting line, the camera model stored in the camera model storing means, and the image position of the intersecting line detected by the intersecting line position detecting means. And a calculation means for generating a dynamic model.

【0008】[0008]

【作用】同一平面上の面とはみなせないキャリブレーシ
ョン用の面をその表面に有するキャリブレーション用ワ
ークにスリット光を照射して、その表面に生成されたス
リット光の交わり線を撮像し、この2次元画像において
キャリブレーション用の面における交わり線の位置を検
出する。ついで、あらかじめ求められた撮像手段のカメ
ラモデルと交わり線について検出された画像位置とを用
いた演算が実行され、スリット光の幾何学的モデルが自
動的に生成される。
The slitting light is radiated to the calibration work having the surface for calibration which cannot be regarded as coplanar surfaces, and the intersecting line of the slit light generated on the surface is imaged. The position of the intersecting line on the calibration surface is detected in the two-dimensional image. Then, a calculation is executed using the camera model of the image pickup means and the image position detected about the intersection line, which is obtained in advance, and the geometric model of the slit light is automatically generated.

【0009】[0009]

【実施例】図1はこの発明にかかる自動キャリブレーシ
ョン装置2の概念を示しており、この自動キャリブレー
ション装置2がインターフェイス3を介して物体認識装
置1に電気接続されている。物体認識装置1は物体の形
状等を認識するためのものであって、撮像装置4と、ビ
デオ信号を取り込み所定の画像処理を実行して物体認識
する画像処理装置5とから構成されている。
FIG. 1 shows the concept of an automatic calibration device 2 according to the present invention, which is electrically connected to an object recognition device 1 via an interface 3. The object recognizing device 1 is for recognizing the shape of an object, etc., and is composed of an image pickup device 4 and an image processing device 5 for recognizing an object by executing a predetermined image processing by capturing a video signal.

【0010】自動キャリブレーション装置2は、コンピ
ュータのCPU6を制御主体としており、撮像装置4の
キャリブレーションを実行するためのプログラムを格納
するROM7や各種データを格納する演算用RAM8を
備えている。CPU6はキャリブレーション用プログラ
ムを解読実行し、撮像装置4よりキャリブレーション用
ワーク9の画像データを取り込んで、所定のキャリブレ
ーション演算を実行する。その結果、カメラモデル(詳
細は後述する)が生成され、そのカメラモデルを構成す
る座標変換係数が物体認識装置1へ出力される。
The automatic calibration device 2 is mainly controlled by the CPU 6 of the computer, and is provided with a ROM 7 for storing a program for executing the calibration of the image pickup device 4 and a calculation RAM 8 for storing various data. The CPU 6 decodes and executes the calibration program, takes in the image data of the calibration work 9 from the imaging device 4, and executes a predetermined calibration calculation. As a result, a camera model (details of which will be described later) is generated, and the coordinate conversion coefficient forming the camera model is output to the object recognition device 1.

【0011】図2および図3は、上記自動キャリブレー
ション装置が組み込まれた物体認識装置を示しており、
図2は2次元物体認識装置の例であり、また図3は板状
のスリット光を用いた3次元物体認識装置の例である。
2 and 3 show an object recognition device incorporating the above-mentioned automatic calibration device,
FIG. 2 is an example of a two-dimensional object recognition device, and FIG. 3 is an example of a three-dimensional object recognition device using plate-shaped slit light.

【0012】図2の装置例は、コンピュータのCPU1
2を制御主体とし、このCPU12に対し、画像処理用
プログラムやキャリブレーション用プログラムが格納さ
れるROM13,被認識物体の画像やキャリブレーショ
ン用ワーク9の画像が格納される画像記憶部15,カメ
ラモデルを構成する座標変換係数が格納される係数記憶
部16,演算用に供されるRAM17の他、CRTより
成る表示部18やキーボードより成る操作部19が、そ
れぞれ接続されている。前記画像記憶部15は画像メモ
リより成り、インターフェイス20を介して撮像装置2
1に接続される。この撮像装置21は例えば2次元CC
Dテレビカメラより成り、被認識物体やキャリブレーシ
ョン用ワーク9を撮像してそのビデオ信号を出力する。
The device example of FIG. 2 is a CPU 1 of a computer.
2 is a control main body, and for this CPU 12, a ROM 13 in which an image processing program and a calibration program are stored, an image storage section 15 in which an image of a recognized object and an image of the calibration work 9 are stored, and a camera model. In addition to the coefficient storage unit 16 that stores the coordinate conversion coefficient that configures, the RAM 17 that is used for calculation, the display unit 18 that is a CRT and the operation unit 19 that is a keyboard are connected. The image storage unit 15 is composed of an image memory, and the imaging device 2 is connected via the interface 20.
Connected to 1. This image pickup device 21 is, for example, a two-dimensional CC.
It is composed of a D television camera, and images the object to be recognized and the calibration work 9 and outputs the video signal.

【0013】前記キャリブレーション用ワーク9は、図
4および図5に示す如く、平面形状が正方形の薄板状を
なし、一定高さ(厚み)hの平坦面10上に複数個のマ
ーク11が設けてある。これら各マーク11は同一径の
円形であり、このキャリブレーション用ワーク9を撮像
して2値化したとき、その背景である平坦面10や床面
などと明確に区別できるように円形内を黒く塗り潰して
ある。またマーク11の総数は10個であり、図5に示
す如く、各マーク11に対し「0」〜「9」のラベルが
割り当ててある。各マーク11は所定の規則に従って配
置してあり、ラベルが0,5,6,7,8,9の各マー
ク11は直交する対角線上にほぼ位置し、その他のラベ
ルの各マーク11はその線外に位置している。なお図示
例の各マーク11は同一形状であるが、後記するラベル
付けのために個々の形状を違えてもよい。
As shown in FIGS. 4 and 5, the calibration work 9 is a thin plate having a square planar shape, and a plurality of marks 11 are provided on a flat surface 10 having a constant height (thickness) h. There is. Each of these marks 11 is a circle having the same diameter, and when the calibration work 9 is imaged and binarized, the inside of the circle is black so that it can be clearly distinguished from the background such as the flat surface 10 and the floor surface. It is painted. Further, the total number of the marks 11 is 10, and as shown in FIG. 5, the labels “0” to “9” are assigned to the respective marks 11. The marks 11 are arranged in accordance with a predetermined rule. The marks 11 having labels 0, 5, 6, 7, 8, 9 are located substantially on a diagonal line orthogonal to each other, and the marks 11 of other labels have the lines. It is located outside. The marks 11 in the illustrated example have the same shape, but the shapes may be different for labeling later.

【0014】図3の装置例は、上記図2の装置例とは、
キャリブレーション用ワーク23の態様が異なる点およ
び投光装置22を具備している点で差異がある。なおそ
の他の構成は、図2の実施例と同様であり、ここでは対
応する構成に同一の符号を付することにより、その説明
を省略する。
The device example shown in FIG. 3 is different from the device example shown in FIG.
There is a difference in that the form of the calibration work 23 is different and that the light projecting device 22 is provided. The other configurations are the same as those of the embodiment of FIG. 2, and the corresponding configurations are denoted by the same reference numerals and the description thereof will be omitted.

【0015】この実施例でのキャリブレーション用ワー
ク23は、図6および図7に示す如く、高さ(厚み)
h1,h2の異なる二段階の平坦面24,25を有し、各平
坦面24,25上に前記と同様のマーク26が5個宛
(合計10個)設けられたものである。各マーク11に
は図7に示す如く、「0」〜「9」のラベルが割り当て
られ、前記の実施例と同様の規則に基づき各マーク11
の配置が決定されている。
The calibration work 23 in this embodiment has a height (thickness) as shown in FIGS. 6 and 7.
The flat surfaces 24 and 25 having two different levels of h 1 and h 2 are provided, and five marks 26 (10 in total) similar to the above are provided on each of the flat surfaces 24 and 25. Labels "0" to "9" are assigned to each mark 11 as shown in FIG. 7, and each mark 11 is assigned based on the same rule as the above-mentioned embodiment.
Has been determined.

【0016】前記投光装置22は、被認識物体やキャリ
ブレーション用ワーク23に対し板状のスリット光を斜
め上方より照射して、その表面にスリット光の交わり線
27を生成するためのもので、この交わり線27を撮像
装置21で撮像して、被処理画像としてのスリット像を
得る。
The light projecting device 22 is for irradiating the object to be recognized and the work 23 for calibration with a plate-shaped slit light obliquely from above so as to generate an intersection line 27 of the slit light on the surface thereof. The intersection line 27 is imaged by the imaging device 21 to obtain a slit image as an image to be processed.

【0017】図8および図9は、前記撮像装置21のカ
メラモデルの構造を示している。同図中、OC は撮像装
置21の撮像面31の中心点を示し、この中心点OC
原点としてXC 軸,YC 軸,ZC 軸を各直交軸とするカ
メラ座標系が設定されている。Rは撮像装置21のレン
ズ中心であり、結像距離lembはOC R間の距離で与えら
れる。また図8中、S0 は画像処理時のサンプリングの
原点、PCX , PCY はXC 軸方向およびYC 軸方向の各サ
ンプリングピッチである。なお図8中のIJ座標系はこ
の撮像面31に当てはめられた画像メモリ座標系であ
り、また図9中のxyz座標系は物点に空間座標を与え
る基準座標系である。
FIGS. 8 and 9 show the structure of the camera model of the image pickup device 21. In the figure, O C indicates the center point of the image pickup surface 31 of the image pickup device 21, and a camera coordinate system having the X C axis, Y C axis, and Z C axis as orthogonal axes is set with this center point O C as the origin. Has been done. R is the lens center of the image pickup device 21, and the imaging distance lemb is given by the distance between O C R. Further, in FIG. 8, S 0 is the origin of sampling during image processing, and PC X and PC Y are sampling pitches in the X C axis direction and the Y C axis direction. The IJ coordinate system in FIG. 8 is an image memory coordinate system fitted to the imaging surface 31, and the xyz coordinate system in FIG. 9 is a reference coordinate system that gives spatial coordinates to an object point.

【0018】ここでカメラモデルとは、撮像装置の3次
元位置および姿勢、レンズの結像距離、ビデオ信号のデ
ィジタル化仕様を表現するモデルであって、前二者を外
部モデル、後者を内部モデルという。撮像装置の位置お
よび姿勢は前記カメラ座標系を基準座標系から表現した
ものであり、この撮像装置の位置・姿勢およびレンズの
結像距離は撮像装置の移動やピント調整により変化す
る。
Here, the camera model is a model expressing the three-dimensional position and orientation of the image pickup device, the image forming distance of the lens, and the digitized specifications of the video signal. The former two are external models and the latter are internal models. Say. The position and orientation of the image pickup device represent the camera coordinate system from the reference coordinate system, and the position and posture of this image pickup device and the image forming distance of the lens change due to movement of the image pickup device and focus adjustment.

【0019】撮像装置の基準座標系より見た位置・姿勢
を〔FRAME 〕とすると、この〔FRAME 〕はつぎの(1) 式
のように4行4列の行列として表現できる。
When the position / orientation of the image pickup apparatus viewed from the reference coordinate system is [FRAME], this [FRAME] can be expressed as a matrix of 4 rows and 4 columns as in the following equation (1).

【0020】[0020]

【数1】 [Equation 1]

【0021】ここでf11,f21,f31を成分とするベク
トルはカメラ座標系のXC 方向の単位ベクトルであり、
11,f21,f31はそのベクトルの基準座標系における
xyz成分である。またf12,f22,f32を成分とする
ベクトル、およびf13,f23,f33を成分とするベクト
ルはカメラ座標系のYC 方向およびZC 方向の単位ベク
トルであり、f12,f22,f32およびf13,f23,f33
はそれぞれベクトルの基準座標系におけるxyz成分で
ある。
Here, the vector having f 11 , f 21 , and f 31 as components is a unit vector in the X C direction of the camera coordinate system,
f 11 , f 21 , and f 31 are xyz components in the reference coordinate system of the vector. A vector having f 12 , f 22 , and f 32 as components and a vector having f 13 , f 23 , and f 33 as components are unit vectors in the Y C direction and Z C direction of the camera coordinate system, and f 12 , f 22 , f 32 and f 13 , f 23 , f 33
Are xyz components in the reference coordinate system of the vector.

【0022】さらにf14,f24,f34を成分とするベク
トルはカメラ座標系の原点OC の位置座標であり、
14,f24,f34は基準座標系におけるxyz成分であ
る。以上から、行列〔FRAME 〕の各要素については理想
的につぎの(2) 〜(6) 式が成立する。
Further, the vector having the components f 14 , f 24 and f 34 is the position coordinate of the origin O C of the camera coordinate system,
f 14 , f 24 , and f 34 are xyz components in the reference coordinate system. From the above, the following equations (2) to (6) are ideally established for each element of the matrix [FRAME].

【0023】[0023]

【数2】 [Equation 2]

【0024】[0024]

【数3】 (Equation 3)

【0025】[0025]

【数4】 [Equation 4]

【0026】[0026]

【数5】 (Equation 5)

【0027】[0027]

【数6】 (Equation 6)

【0028】ただし(2) 式は単位ベクトルという条件を
表すものであり、(3) 〜(5) 式はカメラ座標系の各軸が
直交することを示すものである。
However, the expression (2) represents the condition of a unit vector, and the expressions (3) to (5) show that the axes of the camera coordinate system are orthogonal to each other.

【0029】つぎに結像変換を表す行列を〔LENZ〕とす
ると、この〔LENZ〕はつぎの(7) 式で示される。
Next, letting [LENZ] be a matrix representing image formation transformation, this [LENZ] is expressed by the following equation (7).

【0030】[0030]

【数7】 (Equation 7)

【0031】さらに撮像装置の内部モデルは、撮像面3
1上で画像がどのようにサンプリングされるかを示すも
のであり、これを〔SAMP〕とすると、つぎの(8) 式のよ
うな3行3列の行列として表現できる。
Further, the internal model of the image pickup device is the image pickup surface 3
1 shows how the image is sampled, and if this is [SAMP], it can be expressed as a matrix with 3 rows and 3 columns as in the following equation (8).

【0032】[0032]

【数8】 (Equation 8)

【0033】なお上式中、 ORGX , ORGY は図8に示す
如く、撮像面31におけるサンプリング原点S0 のXC
座標およびYC 座標を示す。
In the above equation, ORG X and ORG Y are X C of the sampling origin S 0 on the image pickup surface 31 as shown in FIG.
The coordinates and Y C coordinates are shown.

【0034】いま基準座標系およびカメラ座標系で表現
した物点Bi (図9に示す)の3次元座標を、 (xi ,yi ,zi ,1)t ・・・基準座標系 (ei ,fi ,gi ,1)t ・・・カメラ座標系 とし、またこの物点Bi についてカメラ座標系および画
像メモリ座標系で表現した像点Pi の座標を、 (pi ,qi ,1)t ・・・カメラ座標系 (Ii ,Ji ,1)t ・・・画像メモリ座標系 とする。なおこれらの各座標は同次座標表現で表してあ
り、tは転置行列を示す。
The three-dimensional coordinates of the object point B i (shown in FIG. 9) expressed by the reference coordinate system and the camera coordinate system are now (x i , y i , z i , 1) t ... e i, f i, and g i, 1) t ··· camera coordinate system, also the coordinates of the image point P i expressed in the camera coordinate system and the image memory coordinate system for the object point B i, (p i, q i , 1) t ... Camera coordinate system (I i , J i , 1) t ... Image memory coordinate system. Note that each of these coordinates is represented by the homogeneous coordinate expression, and t indicates a transposed matrix.

【0035】この場合に基準座標系で表現した物点Bi
の3次元座標が、カメラ座標系で表現した3次元座標に
変換される過程はつぎの(9) 式で表される。
In this case, the object point B i expressed in the reference coordinate system
The process of converting the three-dimensional coordinates of to the three-dimensional coordinates expressed in the camera coordinate system is expressed by the following equation (9).

【0036】[0036]

【数9】 [Equation 9]

【0037】つぎに結像変換によって物点座標が像点座
標に変換される過程はつぎの(10)式で表される。
Next, the process of converting the object point coordinates into the image point coordinates by the image formation conversion is expressed by the following equation (10).

【0038】[0038]

【数10】 [Equation 10]

【0039】なお上式中、hi は座標のひずみ等を表す
変数である。さらにカメラ座標系で表現した像点Pi
座標が画像メモリ座標系で表現した座標に変換される過
程はつぎの(11)式で表される。
In the above equation, h i is a variable representing the distortion of coordinates and the like. Further, the process of converting the coordinates of the image point P i expressed in the camera coordinate system into the coordinates expressed in the image memory coordinate system is expressed by the following equation (11).

【0040】[0040]

【数11】 [Equation 11]

【0041】つぎに図10は、図3の装置例において、
撮像装置21のキャリブレーションを実行する手順を示
している。このキャリブレーションは、6図,7図に示
すキャリブレーション用ワーク23を用いて実行される
もので、各マーク画像の中心点を画像上で抽出した上
で、各マーク26の中心点の3次元座標(既知)と各マ
ーク画像の中心点の画像上の座標とから撮像装置21の
カメラモデルを生成するものである。
Next, FIG. 10 shows an example of the apparatus of FIG.
The procedure for executing the calibration of the imaging device 21 is shown. This calibration is executed by using the calibration work 23 shown in FIGS. 6 and 7. The center point of each mark image is extracted on the image, and then the three-dimensional center point of each mark 26 is extracted. The camera model of the imaging device 21 is generated from the coordinates (known) and the coordinates on the image of the center point of each mark image.

【0042】まず同図のステップ1(図中「ST1」で
示す)において、マーク画像を2値化するためのしきい
値THを決定した後、投光装置22をオフして、キャリブ
レーション用ワーク23を撮像装置21で撮像する(ス
テップ2,3)。撮像装置21はキャリブレーション用
ワーク23を画像化してそのビデオ信号をインターフェ
イス20へ出力するもので、CPU12はこのワーク2
3の画像を前記のしきい値THにより2値化し、マーク画
像の部分を黒画素(データ「1」の画素)、背景の部分
を白画素(データ「0」の画素)として、この2値画像
を画像メモリより成る画像記憶部15に格納する。
First, in step 1 (shown as "ST1" in the figure) of the figure, after determining the threshold value TH for binarizing the mark image, the light projecting device 22 is turned off to perform calibration. The work 23 is imaged by the imaging device 21 (steps 2 and 3). The image pickup device 21 images the calibration work 23 and outputs the video signal to the interface 20.
The image of No. 3 is binarized by the threshold value TH, and the bin of the mark image is defined as a black pixel (pixel of data “1”) and the background portion is a white pixel (pixel of data “0”). The image is stored in the image storage unit 15 including an image memory.

【0043】つぎにCPU12はステップ4において、
キャリブレーション用ワークの2値画像よりマーク画像
の中心点を抽出する。図11はこの中心点抽出方法の一
例を示すもので、キャリブレーション用ワークの画像3
2に対しマーク探索用ウィンドウ34およびマーク中心
点抽出用ウィンドウ35が設定されている。マーク探索
用ウィンドウ34は縦長矩形状であり、長辺の長さがd
j、短辺の長さがdiである。またマーク中心点抽出用ウ
ィンドウ35は正方形状であり、各辺の長さがwであ
る。
Next, in step 4, the CPU 12
The center point of the mark image is extracted from the binary image of the calibration work. FIG. 11 shows an example of this center point extraction method.
2, a mark search window 34 and a mark center point extraction window 35 are set. The mark search window 34 has a vertically long rectangular shape, and the length of the long side is d.
j, the length of the short side is di. The mark center point extraction window 35 has a square shape, and the length of each side is w.

【0044】いま各マーク画像33の半径をrとする
と、各ウィンドウ34,35の各サイズは、この半径r
の関数としてつぎの(12)〜(14)式により求める。
Assuming that the radius of each mark image 33 is r, the sizes of the windows 34 and 35 are the radius r.
It is calculated by the following equations (12) to (14) as a function of.

【0045】[0045]

【数12】 (Equation 12)

【0046】[0046]

【数13】 (Equation 13)

【0047】[0047]

【数14】 [Equation 14]

【0048】ただし半径rは黒画素の全面積Sとマーク
の個数(=10)からつぎの(15)式によって求めるもの
で、これにより照明などの観測条件が変動しても、マー
ク画像位置の抽出の精度が劣化しにくくなる。
However, the radius r is obtained from the total area S of black pixels and the number of marks (= 10) by the following equation (15), and even if the observation conditions such as illumination change, the mark image position The accuracy of extraction is less likely to deteriorate.

【0049】[0049]

【数15】 (Equation 15)

【0050】まずマーク画像33を探索するのに、マー
ク探索用ウィンドウ34を矢印方向へ走査し、ウィンド
ウ34内の黒画素の面積がウィンドウ面積の80%を占
める位置を求める。そしてその位置でマーク探索用ウィ
ンドウ34を止め、ウィンドウ内の黒画素の重心Gの位
置を求める。この重心位置はマーク画像33の中心点C
M の近傍である。
First, in order to search the mark image 33, the mark searching window 34 is scanned in the direction of the arrow, and the position where the area of the black pixel in the window 34 occupies 80% of the window area is obtained. Then, the mark searching window 34 is stopped at that position, and the position of the center of gravity G of the black pixel in the window is obtained. The center of gravity is at the center point C of the mark image 33.
It is near M.

【0051】つぎにこの中心点CM の位置を求めるの
に、マーク中心点抽出用ウィンドウ35を重心Gを中心
にしてセットし、このウィンドウ内の黒画素の中心座標
を中心点CM として求める。この中心点CM の座標が求
まると、同じマーク画像の重複処理を防止するため、処
理済みマーク画像を消去するとよい。以下同様の処理を
マーク探索用ウィンドウ34を画像全面にわたり走査し
ながら実行して、全てのマーク画像33につき中心点C
M を抽出する。
Next, in order to obtain the position of the center point C M , the mark center point extraction window 35 is set around the center of gravity G, and the center coordinates of the black pixels in this window are obtained as the center point C M. . When the coordinates of the center point C M are obtained, the processed mark image may be deleted in order to prevent the same mark image from being overlapped. Thereafter, the same process is executed while scanning the mark search window 34 over the entire surface of the image, and the center point C is calculated for all the mark images 33.
Extract M.

【0052】図10に戻って、ステップ4の中心点抽出
が終わると、つぎのステップ5でCPU12は各マーク
画像33の中心点CM の検出座標位置に基づき各マーク
の配置に関する情報を参照して各マーク画像33をいず
れかマークと対応させてラベル付けする。
Returning to FIG. 10, when the center point extraction in step 4 is completed, in the next step 5, the CPU 12 refers to the information on the arrangement of each mark based on the detected coordinate position of the center point C M of each mark image 33. Then, each mark image 33 is labeled in correspondence with any of the marks.

【0053】すなわちCPU12は、図12に示す如
く、まず10個のマーク画像33の中心点CM につきそ
の重心gを求め、その重心gに最も近い位置にある中心
点CM−9のマーク画像33にラベル「9」を割り付け
る。つぎにこのラベル「9」のマーク画像33の中心点
M −9から最も遠い位置にある中心点CM −0のマー
ク画像33にラベル「0」を割り付ける。ついでラベル
「9」のマーク画像の中心点CM −9よりラベル「0」
のマーク画像の中心点CM −0に向かう単位ベクトルを
nとし、このベクトルnに直交する単位ベクトルをtと
する。そしてラベル「9」の中心点CM −9を原点と
し、各単位ベクトルn,tの方向を軸とする座標系によ
って各マーク画像33の中心点CM の座標を表現し直
し、第i番目に検出したマーク画像の中心点CM のn座
標およびt座標を(ni ,ti )とする。
That is, as shown in FIG. 12, the CPU 12 first obtains the center of gravity g of the center point C M of the ten mark images 33, and the mark image of the center point C M -9 closest to the center of gravity g. The label “9” is assigned to 33. Then assign the label "0" in the mark image 33 of the center point C M -0 located farthest from the center point C M -9 mark images 33 of the label "9". Then label "9" label from the center point C M -9 mark image "0"
The unit vector directed toward the center point C M -0 of the mark image is n, the unit vector perpendicular to the vector n and t. Then the center point C M -9 labeled "9" as the origin, again representing the coordinates of the center point C M of each mark image 33 by the coordinate system to the unit vector n, the direction t with the shaft, the i-th The n-coordinate and t-coordinate of the center point C M of the detected mark image are defined as (n i , t i ).

【0054】つぎにラベル「9」のマーク画像33の中
心点CM −9とラベル「0」のマーク画像33の中心点
M −0との距離の1/4 をしきい値ath とし、各マーク
画像33の中心点CM と前記のしきい値ath とを用い
て、つぎの表1に示す規則に基づき他のマーク画像33
のラベル付けを行う。なお同表中、「正」はn座標やt
座標の値がしきい値ath より大であることを、また
「0」はその座標値の絶対値がしきい値ath 以下である
ことを、さらに「負」はその座標値がしきい値ath より
小であることを、それぞれ示している。
[0054] Next, 1/4 of the distance between the center point C M -0 of the center point C M -9 and mark images 33 of the label "0" in the mark image 33 labeled "9" and a threshold ath, Using the center point C M of each mark image 33 and the threshold value ath, another mark image 33 is generated based on the rules shown in Table 1 below.
Label. In the table, “positive” means n coordinate or t.
The coordinate value is greater than the threshold value ath, "0" means that the absolute value of the coordinate value is less than or equal to the threshold value ath, and "negative" means that the coordinate value is at the threshold value ath. Each is shown to be smaller.

【0055】[0055]

【表1】 [Table 1]

【0056】つぎにステップ6において、CPU12は
各マーク26の中心点の空間座標位置とそれぞれマーク
と対応関係にある各マーク画像33の中心点の検出座標
位置とから所定の演算を実行して撮像装置21の外部モ
デルを生成する。
Next, in step 6, the CPU 12 performs a predetermined calculation from the spatial coordinate position of the center point of each mark 26 and the detected coordinate position of the center point of each mark image 33 that has a corresponding relationship with the mark to capture an image. Generate an external model of the device 21.

【0057】いまこの外部モデルを表す行列を〔EXT 〕
とすると、この〔EXT 〕は前記(9)(10)式よりつぎの(1
6)(17)式のように表される。
Now, the matrix representing this external model is [EXT]
Then, this [EXT] is the following (1) from the above equations (9) and (10).
It is expressed as in Eqs. 6) and 17).

【0058】[0058]

【数16】 [Equation 16]

【0059】[0059]

【数17】 [Equation 17]

【0060】ここで〔FRAME 〕-1の各要素を、(18)式の
ように表現すると、(7) 式と(18)式とを(16)式に代入し
てつぎの(19)式を得る。
If each element of [FRAME] -1 is expressed as in equation (18), equations (7) and (18) are substituted into equation (16), and equation (19) is obtained. To get

【0061】[0061]

【数18】 (Equation 18)

【0062】[0062]

【数19】 [Formula 19]

【0063】ここで(19)式に示す要素をもつ撮像装置2
1の外部モデルを、各マーク画像33の中心点CM の画
像メモリ座標系における座標と各マーク26の中心点の
基準座標系における座標とを用いて算出する。
Here, the image pickup apparatus 2 having the elements shown in the equation (19)
The external model No. 1 is calculated using the coordinates of the center point C M of each mark image 33 in the image memory coordinate system and the coordinates of the center point of each mark 26 in the reference coordinate system.

【0064】いまラベルiのマーク画像33の中心点C
M につき、画像メモリ座標系における座標が(Ii , J
i )であるとし、またこれをカメラ座標系で表現した座
標を(pi ,qi )とすると、前記(11)式よりつぎの(2
0)式を得る。
Now, the center point C of the mark image 33 of the label i
For M , the coordinates in the image memory coordinate system are (I i , J
i ), and the coordinates expressed in the camera coordinate system are (p i , q i ), the following (2
We get expression (0).

【0065】[0065]

【数20】 (Equation 20)

【0066】つぎにラベルiのマーク26の中心点の基
準座標系における3次元座標(xi,yi ,zi )とす
ると、(20)式を用いて前記(17)式を解くことにより〔EX
T 〕を求めることができる。この場合に前記(19)式を(1
7)式に代入し、pi ,qi につき整理すると、つぎの(2
1)(22)式を得る。
Next, assuming three-dimensional coordinates (x i , y i , z i ) in the reference coordinate system of the center point of the mark 26 of the label i, the above equation (17) is solved using the equation (20). [EX
T] can be obtained. In this case, Eq. (19) is changed to (1
Substituting into equation (7) and rearranging for p i and q i , the following (2
1) Equation (22) is obtained.

【0067】[0067]

【数21】 [Equation 21]

【0068】[0068]

【数22】 [Equation 22]

【0069】上記(21)(22)式を変形しかつC34=1と置
くと、つぎの(23)(24)式を得る。
When the above equations (21) and (22) are modified and C 34 = 1 is set, the following equations (23) and (24) are obtained.

【0070】[0070]

【数23】 (Equation 23)

【0071】[0071]

【数24】 [Equation 24]

【0072】ここで行列〔C〕を(25)式のように置き、
さらに(23)(24)式がN個の点(i=1,・・・・, N)につ
き成立する場合に、行列〔A〕および〔R〕をつぎの(2
6)(27)式のように置く。
Here, the matrix [C] is placed as shown in equation (25), and
Further, when the equations (23) and (24) are satisfied for N points (i = 1, ..., N), the matrices [A] and [R] are transformed into the following (2
6) Place as in equation (27).

【0073】[0073]

【数25】 (Equation 25)

【0074】[0074]

【数26】 (Equation 26)

【0075】[0075]

【数27】 [Equation 27]

【0076】かくて上記の各行列〔C〕〔A〕〔R〕を
用いて、i=1,・・・・, Nについての(23)(24)式を書
きなおすと、つぎの(28)式の行列方程式を得る。また行
列〔C〕は、最小2乗法を適用することによって、つぎ
の(29)式のように求まる。
Thus, by rewriting the equations (23) and (24) for i = 1, ..., N using the above-mentioned respective matrices [C] [A] [R], the following (28 ) Equation matrix equation is obtained. Further, the matrix [C] is obtained by applying the least squares method as in the following expression (29).

【0077】[0077]

【数28】 [Equation 28]

【0078】[0078]

【数29】 [Equation 29]

【0079】従って(25)(29)式から(19)式の外部モデル
の各パラメータを求めることができる。
Therefore, each parameter of the external model of the equation (19) can be obtained from the equations (25) and (29).

【0080】図10に戻って、ステップ6の外部モデル
の算出が行われると、つぎにこの外部モデルから結像距
離および撮像装置21の位置・姿勢を算出する(ステッ
プ7,8)。
Returning to FIG. 10, when the external model is calculated in step 6, the image forming distance and the position / orientation of the image pickup device 21 are calculated from this external model (steps 7 and 8).

【0081】この場合に外部モデルは非一意的であっ
て、(21)(22)式から明らかなように〔EXT 〕の各要素を
K倍(だだしKは比例係数)しても成立する。従って(2
9)式を解いて得られる〔C〕は本来の値をK倍したもの
になっている可能性がある。この点を考慮して、(19)式
の各要素間の関係式を記述するとつぎのようになる。 t11=C11・K ・・・・(a) t12=C12・K ・・・・(b) t13=C13・K ・・・・(c) t14=C14・K ・・・・(d) t21=C21・K ・・・・(e) t22=C22・K ・・・・(f) t23=C23・K ・・・・(g) t24=C24・K ・・・・(h) t31=−lenb・C31・K ・・・・(i) t32=−lenb・C32・K ・・・・(j) t33=−lenb・C33・K ・・・・(k) t34=lenb−lenb・C34・K ・・・・(l)
In this case, the external model is non-unique, and as is clear from the equations (21) and (22), it holds even if each element of [EXT] is multiplied by K (however, K is a proportional coefficient). . Therefore (2
[C] obtained by solving equation (9) may be K times the original value. Considering this point, the relational expression between each element of Eq. (19) is described as follows. t 11 = C 11 · K ··· (a) t 12 = C 12 · K ··· (b) t 13 = C 13 · K ··· (c) t 14 = C 14 · K · ... (d) t 21 = C 21 · K ··· (e) t 22 = C 22 · K ··· (f) t 23 = C 23 · K ··· (g) t 24 = C 24 · K ···· (h) t 31 = -lenb · C 31 · K ··· (i) t 32 = -lenb · C 32 · K ··· (j) t 33 =- lenb ・ C 33・ K ・ ・ ・ ・ (k) t 34 = lenb-lenb ・ C 34・ K ・ ・ ・ ・ (l)

【0082】また行列〔FRAME 〕-1の各要素 tijには、 t11 2 +t12 2 +t13 2 =1 ・・・・(m) t21 2 +t22 2 +t23 2 =1 ・・・・(n) t31 2 +t32 2 +t33 2 =1 ・・・・(o) の各拘束条件が成立するから、以上の(a)〜(o)式
を解くことによって、つぎの(30)(31)式を得る。
Further, in each element t ij of the matrix [FRAME] −1 , t 11 2 + t 12 2 + t 13 2 = 1 ... (m) t 21 2 + t 22 2 + t 23 2 = 1 ... since · (n) t 31 2 + t 32 2 + t 33 2 = 1 the constraint · · · · (o) is satisfied, by solving the above (a) ~ (o) type, the following (30 ) Equation (31) is obtained.

【0083】[0083]

【数30】 [Equation 30]

【0084】[0084]

【数31】 [Equation 31]

【0085】かくして(30)(31)式を(a)〜(l)式に
代入することにより、〔FRAME 〕-1の各要素 tijを求め
ることができ、また〔FRAME 〕-1の逆行列をとることに
よって、〔FRAME 〕が得られる。こうして求めた lenb
が結像距離であり、また〔FRAME 〕がカメラの位置・姿
勢である。
[0085] Thus (30) (31) by substituting expression of (a) ~ (l) equation [FRAME] Each element t ij -1 can be obtained, also [FRAME] -1 reverse [FRAME] is obtained by taking the matrix. Lenb thus obtained
Is the imaging distance, and [FRAME] is the position and orientation of the camera.

【0086】上記の撮像装置21のキャリブレーション
が完了すると、つぎに図13に示す手順に基づき投光装
置22のキャリブレーションを実行することになる。こ
のキャリブレーションは、カメラモデルが既知となった
後、前記のキャリブレーション用ワーク23に板状のス
リット光を照射してスリット像を生成し、このスリット
像を解析することにより、投光装置22のスリット光モ
デルを生成するものである。
When the calibration of the image pickup device 21 is completed, the calibration of the light projecting device 22 is executed based on the procedure shown in FIG. In this calibration, after the camera model is known, the calibration work 23 is irradiated with a plate-shaped slit light to generate a slit image, and the slit image is analyzed, whereby the light projecting device 22 The slit light model of is generated.

【0087】ここでスリット光モデルとは、図14に示
す如く、スリット光40の平面を平面方程式で表現した
ものである。このスリット光40の平面方程式は、つぎ
の(32)式で与えられ、従ってスリット光モデルはこの式
のパラメータaS ,bS ,cS ,dS の組として表現で
きる。
Here, the slit beam model is a plane equation of the plane of the slit beam 40 as shown in FIG. The plane equation of the slit light 40 is given by the following equation (32), and therefore the slit light model can be expressed as a set of parameters a S , b S , c S and d S.

【0088】[0088]

【数32】 [Equation 32]

【0089】まず図13のステップ9で、スリット像を
2値化するためのしきい値TH′を決定した後、ステップ
10で投光装置22をオンして、キャリブレーション用
ワーク23に板状のスリット光40を照射する。これに
よりワーク23の平坦面24,25や床面に図7に示す
ようなスリット光の交わり線27が生成され、この交わ
り線27は撮像装置21により撮像される(ステップ1
1)。撮像装置21は交わり線27を画像化してスリッ
ト像を求め、そのビデオ信号をインターフェイス20へ
出力するもので、CPU12はスリット像を前記のしき
い値TH′により2値化し、例えばスリット像の部分を黒
画素(データ「1」の画素)、それ以外の部分を白画素
(データ「0」の画素)として、この2値画像を画像記
憶部15に格納する(ステップ12)。
First, in step 9 of FIG. 13, the threshold value TH 'for binarizing the slit image is determined, and then in step 10, the light projecting device 22 is turned on and the calibration work 23 is plate-shaped. The slit light 40 is emitted. As a result, the intersecting line 27 of the slit light as shown in FIG. 7 is generated on the flat surfaces 24 and 25 of the work 23 and the floor surface, and the intersecting line 27 is imaged by the imaging device 21 (step 1).
1). The image pickup device 21 obtains a slit image by imaging the intersecting line 27 and outputs the video signal to the interface 20. The CPU 12 binarizes the slit image by the threshold value TH ', for example, a portion of the slit image. Are stored as black pixels (pixels of data “1”) and the other portions are white pixels (pixels of data “0”), and the binary image is stored in the image storage unit 15 (step 12).

【0090】つぎのステップ13で、CPU12はスリ
ット像上の像点の3次元座標を算出する。図15は、像
点の座標算出方法を示している。同図中、A1 〜A4
1 〜B4 はキャリブレーション用ワーク23の上下平
坦面24,25の角点であって、各角点に対応するワー
ク画像41上の角点はA1 ′〜A4 ′,B1 ′〜B4
示してある。上下平坦面24,25および床面上にはス
リット光40の交わり線27が生成され、このワーク2
3を撮像したとき、ワーク画像41には交わり線27に
対応するスリット像42が現れる。交わり線27は物点
Bの集合であり、各物点Bとその像点Pとはレンズ中心
Rを通る視線43によりその位置関係が決定される。
At the next step 13, the CPU 12 calculates the three-dimensional coordinates of the image point on the slit image. FIG. 15 shows a method of calculating coordinates of image points. In the figure, A 1 to A 4 ,
B 1 to B 4 are corner points of the upper and lower flat surfaces 24 and 25 of the calibration work 23, and the corner points on the work image 41 corresponding to the respective corner points are A 1 ′ to A 4 ′ and B 1 ′. It is shown in ~B 4. An intersecting line 27 of the slit light 40 is generated on the upper and lower flat surfaces 24 and 25 and on the floor surface.
When 3 is imaged, a slit image 42 corresponding to the intersection line 27 appears in the work image 41. The intersecting line 27 is a set of object points B, and the positional relationship between each object point B and its image point P is determined by the line of sight 43 passing through the lens center R.

【0091】すなわち像点Pが与えられたとき、その像
点Pに対応する物点Bの3次元座標は像点Pの視線43
とキャリブレーション用ワーク23の平坦面(図示例の
場合は上段の平坦面25)との交点として求めることが
できる。いま視線43を表す直線をパラメータ表現する
つぎの(33)式で与えられる。ただしkR はパラメータで
ある。
That is, when the image point P is given, the three-dimensional coordinates of the object point B corresponding to the image point P are the line of sight 43 of the image point P.
And the flat surface of the calibration work 23 (the upper flat surface 25 in the illustrated example). The line representing the line of sight 43 is given by the following equation (33) which is expressed as a parameter. However, k R is a parameter.

【0092】[0092]

【数33】 [Expression 33]

【0093】上式中、(xR ,yR ,zR )はレンズ中
心Rの3次元座標であり、カメラモデルが既知の状態下
でつぎの(34)〜(36)式により求まる。
In the above equation, (x R , y R , z R ) is the three-dimensional coordinate of the lens center R, and is obtained by the following equations (34) to (36) under the known camera model.

【0094】[0094]

【数34】 (Equation 34)

【0095】[0095]

【数35】 [Equation 35]

【0096】[0096]

【数36】 [Equation 36]

【0097】かくて像点Pの3次元座標を(x0
0 ,z0 )とすると、nx ,ny ,nz はつぎの(37)
式で与えられる。
Thus, the three-dimensional coordinates of the image point P are (x 0 ,
y 0 , z 0 ), then n x , n y , n z are
Given by the formula.

【0098】[0098]

【数37】 (37)

【0099】なお像点Pの3次元座標(x0 ,y0 ,z
0 )は、カメラモデルが既知の状態下では、つぎの(38)
式により求まる。
The three-dimensional coordinates of the image point P (x 0 , y 0 , z
0 ) is the following (38) when the camera model is known.
It is determined by the formula.

【0100】[0100]

【数38】 (38)

【0101】上記の各式から像点Pの視線43を求める
ことができるから、つぎに物点Bが位置する平坦面の平
面方程式を求める。まずカメラモデルおよびキャリブレ
ーション用ワーク23の形状データが既知であるから、
ワーク画像41上の角点A1 ′〜A4 ′およびB1 ′〜
4 ′の画像上の座標(I,J)をつぎの(39)(40)式に
より算出する。
Since the line-of-sight 43 of the image point P can be obtained from the above equations, the plane equation of the flat surface on which the object point B is located is next obtained. First, since the shape data of the camera model and the calibration work 23 are known,
Corner points A 1 ′ -A 4 ′ and B 1 ′ -on the work image 41
The coordinates (I, J) of B 4 ′ on the image are calculated by the following equations (39) and (40).

【0102】[0102]

【数39】 [Formula 39]

【0103】[0103]

【数40】 (Equation 40)

【0104】なお上式中、(xB ,yB ,zB )は算出
しようとするマーク画像41の角点と対応関係にあるワ
ーク23上の角点の3次元座標を意味している。
In the above equation, (x B , y B , z B ) means the three-dimensional coordinates of the corner point on the work 23 which has a correspondence relationship with the corner point of the mark image 41 to be calculated.

【0105】全ての角点A1 ′〜A4 ′,B1 ′〜
4 ′の3次元座標が求まると、つぎに着目する像点P
が角点A1 ′〜A4 ′で決まる四角形44と角点B1
〜B4 ′で決まる四角形45と、どのような包含関係に
あるかをつぎの表2にて判断し、これにより物点Bが平
坦面24,25や床面のいずれに位置するかを判断す
る。
All corner points A 1 ′ to A 4 ′, B 1 ′ to
Once the three-dimensional coordinates of B 4 ′ are obtained, the next image point P of interest
Is a square 44 determined by the corner points A 1 ′ to A 4 ′ and the corner point B 1
The following Table 2 determines the inclusion relationship with the quadrangle 45 determined by B 4 ′ to B 4 ′, thereby determining whether the object point B is located on the flat surface 24, 25 or the floor surface. To do.

【0106】[0106]

【表2】 [Table 2]

【0107】上記により物点Bが位置する平面を判別す
ると、その平面の方程式と前記視線43の方程式とを連
立させて解くことにより、物点Bの3次元座標を算出す
る。このようにしてスリット像42上の各像点Pの3次
元座標(xi ,yi ,zi)が得られると、スリット光
40の平面パラメータとの間につぎの(41)式が成立す
る。
When the plane on which the object point B is located is discriminated as described above, the three-dimensional coordinates of the object point B are calculated by simultaneously solving the equation of the plane and the equation of the line of sight 43. When the three-dimensional coordinates (x i , y i , z i ) of each image point P on the slit image 42 are obtained in this way, the following equation (41) holds between the slit light 40 and the plane parameter. To do.

【0108】[0108]

【数41】 [Formula 41]

【0109】ただし前記(32)式においてcS =−1と置
く。ここでN個の点について、つぎの(42)式を解くこと
により、上式の誤差項eiについてei の総和を最小と
するaS ,bS ,dS を得る(ステップ14)。
However, in the expression (32), c S = -1 is set. For where N points, by solving the following equation (42), a S, b S of the error term e i in the above equation minimizing the sum of e i, obtaining a d S (step 14).

【0110】[0110]

【数42】 (Equation 42)

【0111】ここで(42)式の各行列を〔R〕〔A〕
〔Z〕と置くと、この(42)式はつぎの(43)式で表現でき
る。
Here, each matrix of the equation (42) is [R] [A]
Putting [Z], this equation (42) can be expressed by the following equation (43).

【0112】[0112]

【数43】 [Equation 43]

【0113】そしてこの式中、スリット光モデルを表す
行列〔A〕はつぎの(44)式で与えられる。
In this equation, the matrix [A] representing the slit light model is given by the following equation (44).

【0114】[0114]

【数44】 [Equation 44]

【0115】なお上記は図3の装置例について撮像装置
21および投光装置22のキャリブレーションを説明し
たが、図2の装置例については撮像装置21のキャリブ
レーションのみを実施すれば足り、しかもその方法は上
記と同様であるかから、ここではその説明は省略する。
Although the above has described the calibration of the image pickup device 21 and the light projecting device 22 with respect to the example of the apparatus shown in FIG. 3, it is sufficient for the example of the apparatus shown in FIG. Since the method is similar to the above, the description thereof is omitted here.

【0116】[0116]

【発明の効果】この発明は上記の如く、同一平面上の面
とはみなせないキャリブレーション用の面をその表面に
有するキャリブレーション用ワークにスリット光を照射
してこれを撮像し、得られた2次元画像上でのスリット
光の交わり線の位置とあらかじめ求められた撮像手段の
カメラモデルとを用いて、スリット光の幾何学的モデル
を自動生成するようにしたから、3次元物体認識装置な
どにおいて必要とされるスリット光の幾何学的モデルの
キャリブレーションを自動的に行い得るなど、発明目的
を達成した顕著な効果を奏する。
As described above, the present invention was obtained by irradiating a slitting light on a calibration work having a calibration surface which cannot be regarded as a coplanar surface on the surface, and imaged the slit work. Since the geometrical model of the slit light is automatically generated by using the position of the line of intersection of the slit light on the two-dimensional image and the camera model of the image pickup means which is obtained in advance, a three-dimensional object recognition device, etc. In this case, the geometrical model of the slit light required in the above can be automatically calibrated, and the remarkable effects of achieving the object of the invention are achieved.

【図面の簡単な説明】[Brief description of drawings]

【図1】この発明にかかる自動キャリブレーション装置
の概念を示すブロック図である。
FIG. 1 is a block diagram showing the concept of an automatic calibration device according to the present invention.

【図2】この発明の一実施例を示すブロック図である。FIG. 2 is a block diagram showing an embodiment of the present invention.

【図3】この発明の他の実施例を示すブロック図であ
る。
FIG. 3 is a block diagram showing another embodiment of the present invention.

【図4】キャリブレーション用ワークの一例を示す斜面
図である。
FIG. 4 is a perspective view showing an example of a calibration work.

【図5】キャリブレーション用ワークの一例を示す平面
図である。
FIG. 5 is a plan view showing an example of a calibration work.

【図6】キャリブレーション用ワークの他の例を示す斜
面図である。
FIG. 6 is a perspective view showing another example of the calibration work.

【図7】キャリブレーション用ワークの他の例を示す平
面図である。
FIG. 7 is a plan view showing another example of the calibration work.

【図8】撮像装置のカメラモデルの構造を説明するため
の説明図である。
FIG. 8 is an explanatory diagram illustrating a structure of a camera model of an imaging device.

【図9】撮像装置のカメラモデルの構造を説明するため
の説明図である。
FIG. 9 is an explanatory diagram illustrating a structure of a camera model of an imaging device.

【図10】撮像装置のキャリブレーションの実行手順を
示すフローチャートである。
FIG. 10 is a flowchart showing a procedure of performing calibration of the image pickup apparatus.

【図11】マーク画像の中心点抽出方法を示す説明図で
ある。
FIG. 11 is an explanatory diagram showing a method of extracting a center point of a mark image.

【図12】マーク画像のラベル付け方法を示す説明図で
ある。
FIG. 12 is an explanatory diagram showing a method of labeling mark images.

【図13】投光装置のキャリブレーションの実行手順を
示すフローチャートである。
FIG. 13 is a flowchart showing a procedure for executing calibration of the light projecting device.

【図14】スリット光モデルの構造を説明するための説
明図である。
FIG. 14 is an explanatory diagram illustrating a structure of a slit light model.

【図15】像点の座標算出方法を示す説明図である。FIG. 15 is an explanatory diagram showing a method of calculating coordinates of an image point.

【符号の説明】[Explanation of symbols]

2 自動キャリブレーション装置 12 CPU 21 撮像装置 22 投光装置 23 キャリブレーション用ワーク 2 Automatic calibration device 12 CPU 21 Imaging device 22 Projection device 23 Work for calibration

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 G06T 1/00 G06F 15/62 415 15/64 M ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification code Internal reference number FI Technical display location G06T 1/00 G06F 15/62 415 15/64 M

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 観測対象物にスリット光を照射してこの
観測対象物の表面に生成されたスリット光の交わり線を
観測する視覚認識装置において、スリット光の幾何学的
モデルのキャリブレーションを自動的に行うための方法
であって、 同一平面上の面とはみなせないキャリブレーション用の
面をその表面に有するキャリブレーション用ワークに投
光手段よりスリット光を照射してその表面に生成された
スリット光の交わり線を撮像手段により撮像し、得られ
た2次元画像上で前記キャリブレーション用の面におけ
る交わり線の位置を検出する第1の工程と、 前記2次元画像上で検出された交わり線の画像位置とあ
らかじめ求められた前記撮像手段のカメラモデルとを用
いた所定の演算を行って、スリット光の幾何学的モデル
を生成する第2の工程とを一連に実施することを特徴と
する自動キャリブレーション方法。
1. A visual recognition device for irradiating an observation object with slit light and observing a line of intersection of the slit light generated on the surface of the observation object, wherein a geometric model of slit light is automatically calibrated. It is a method for performing the same, and it is generated on the surface by irradiating slit light from the light projecting means to the calibration work that has the surface for calibration that cannot be regarded as coplanar A first step of imaging the intersecting line of the slit light by an imaging means and detecting the position of the intersecting line on the calibration surface on the obtained two-dimensional image, and the intersecting detected on the two-dimensional image. A second calculation for generating a geometric model of slit light is performed by performing a predetermined calculation using the image position of the line and the camera model of the image pickup unit obtained in advance. Automatic calibration method which comprises carrying out the degree in a series.
【請求項2】 前記キャリブレーション用ワークは、同
一平面上に位置しない複数の面を具備する請求項1に記
載された自動キャリブレーション方法。
2. The automatic calibration method according to claim 1, wherein the calibration work has a plurality of surfaces that are not located on the same plane.
【請求項3】 同一平面上の面とはみなせないキャリブ
レーション用の面をその表面に有するキャリブレーショ
ン用ワークを用いてスリット光の幾何学的モデルのキャ
リブレーションを自動的に行うための自動キャリブレー
ション装置であって、 前記キャリブレーション用ワークにスリット光を照射し
てその表面にスリット光の交わり線を生成する投光手段
と、 前記キャリブレーション用ワークおよび前記スリット光
の交わり線を撮像してそれぞれの2次元画像を生成する
2次元撮像手段と、 前記2次元撮像手段により撮像された前記2次元画像が
格納される画像記憶手段と、 前記2次元撮像手段のカメラモデルを記憶するカメラモ
デル記憶手段と、 前記画像記憶手段に格納された2次元画像上で前記キャ
リブレーション用の面における交わり線の位置を検出す
る交わり線位置検出手段と、 前記カメラモデル記憶手段に記憶されたカメラモデルと
前記交わり線位置検出手段により検出された交わり線の
画像位置とから所定の演算によりスリット光の幾何学的
モデルを生成する演算手段とを備えて成る自動キャリブ
レーション装置。
3. An automatic calibration for automatically calibrating a geometric model of slit light using a calibration work having a surface for calibration which cannot be regarded as a surface on the same plane. A projection device for irradiating the calibration work with slit light to generate a line of intersection of the slit light on the surface thereof, and imaging the line of intersection of the calibration work and the slit light. Two-dimensional imaging means for generating each two-dimensional image, image storage means for storing the two-dimensional image captured by the two-dimensional imaging means, and camera model storage for storing a camera model of the two-dimensional imaging means Means and a calibration plane on the two-dimensional image stored in the image storage means. The intersecting line position detecting means for detecting the position of the intersecting line, the camera model stored in the camera model storing means, and the image position of the intersecting line detected by the intersecting line position detecting means are subjected to a predetermined calculation to determine the slit light An automatic calibration device comprising a calculation means for generating a geometric model.
【請求項4】 前記キャリブレーション用ワークは、同
一平面上に位置しない複数の面を具備する請求項2に記
載された自動キャリブレーション装置。
4. The automatic calibration device according to claim 2, wherein the calibration work has a plurality of surfaces that are not located on the same plane.
【請求項5】 前記キャリブレーション用ワークは、二
段階の高さをもつ各平坦面を具備する請求項3または4
に記載された自動キャリブレーション装置。
5. The calibrating work is provided with each flat surface having two levels of height.
The automatic calibration device described in.
JP7251971A 1995-09-04 1995-09-04 Method and device for automatic calibration Pending JPH08110807A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7251971A JPH08110807A (en) 1995-09-04 1995-09-04 Method and device for automatic calibration

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7251971A JPH08110807A (en) 1995-09-04 1995-09-04 Method and device for automatic calibration

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP62147205A Division JP2672509B2 (en) 1987-06-13 1987-06-13 Method and apparatus for automatically calibrating camera model

Publications (1)

Publication Number Publication Date
JPH08110807A true JPH08110807A (en) 1996-04-30

Family

ID=17230725

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7251971A Pending JPH08110807A (en) 1995-09-04 1995-09-04 Method and device for automatic calibration

Country Status (1)

Country Link
JP (1) JPH08110807A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1766326A1 (en) * 2004-03-19 2007-03-28 JRB Engineering Pty Ltd Optical method of determining a physical attribute of a moving object
US7526121B2 (en) 2002-10-23 2009-04-28 Fanuc Ltd Three-dimensional visual sensor
JP2009192483A (en) * 2008-02-18 2009-08-27 Toyota Motor Corp Three dimensional shape measuring method and three dimensional shape measuring device
JP2010281621A (en) * 2009-06-03 2010-12-16 Seiko Epson Corp Three-dimensional shape measuring instrument
JP2011005180A (en) * 2009-06-29 2011-01-13 Brother Industries Ltd Sewing machine
AU2005224291B2 (en) * 2004-03-19 2011-06-16 Siemens Mobility Pty Ltd Optical method of determining a physical attribute of a moving object
JP2012177596A (en) * 2011-02-25 2012-09-13 Jfe Steel Corp Holder for calibration and method for calibrating photo cutting type shape measuring instrument
JP2014149303A (en) * 2014-04-01 2014-08-21 Seiko Epson Corp Three-dimensional shape measuring device, calibration block, and calibration method for the three-dimensional shape measuring device
JP2015106287A (en) * 2013-11-29 2015-06-08 キヤノン株式会社 Calibration device and method
CN106767535A (en) * 2017-01-10 2017-05-31 杭州汉振科技有限公司 Contactless duplex measurement instrument and its measuring method
CN107490347A (en) * 2016-06-13 2017-12-19 卡尔蔡司工业测量技术有限公司 Method for calibrating optical arrangement
CN109631799A (en) * 2019-01-09 2019-04-16 王红军 A kind of intelligentized measurement and labeling method
JP2020514759A (en) * 2017-03-24 2020-05-21 テクサ・エッセ・ピ・ア System, method and multifunctional apparatus for determining vehicle brake disc and tire contours

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6217604A (en) * 1985-07-16 1987-01-26 Agency Of Ind Science & Technol Calibration of auxiliary light for 3-dimensional measurement
JPS63108204A (en) * 1986-10-25 1988-05-13 Sumitomo Rubber Ind Ltd Size measuring method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6217604A (en) * 1985-07-16 1987-01-26 Agency Of Ind Science & Technol Calibration of auxiliary light for 3-dimensional measurement
JPS63108204A (en) * 1986-10-25 1988-05-13 Sumitomo Rubber Ind Ltd Size measuring method

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7526121B2 (en) 2002-10-23 2009-04-28 Fanuc Ltd Three-dimensional visual sensor
EP1766326A1 (en) * 2004-03-19 2007-03-28 JRB Engineering Pty Ltd Optical method of determining a physical attribute of a moving object
EP1766326A4 (en) * 2004-03-19 2007-10-24 Jrb Engineering Pty Ltd Optical method of determining a physical attribute of a moving object
US7492448B2 (en) 2004-03-19 2009-02-17 Jrb Engineering Pty Ltd. Optical method of determining a physical attribute of a moving object
AU2005224291B2 (en) * 2004-03-19 2011-06-16 Siemens Mobility Pty Ltd Optical method of determining a physical attribute of a moving object
JP2009192483A (en) * 2008-02-18 2009-08-27 Toyota Motor Corp Three dimensional shape measuring method and three dimensional shape measuring device
JP2010281621A (en) * 2009-06-03 2010-12-16 Seiko Epson Corp Three-dimensional shape measuring instrument
JP2011005180A (en) * 2009-06-29 2011-01-13 Brother Industries Ltd Sewing machine
JP2012177596A (en) * 2011-02-25 2012-09-13 Jfe Steel Corp Holder for calibration and method for calibrating photo cutting type shape measuring instrument
JP2015106287A (en) * 2013-11-29 2015-06-08 キヤノン株式会社 Calibration device and method
JP2014149303A (en) * 2014-04-01 2014-08-21 Seiko Epson Corp Three-dimensional shape measuring device, calibration block, and calibration method for the three-dimensional shape measuring device
CN107490347A (en) * 2016-06-13 2017-12-19 卡尔蔡司工业测量技术有限公司 Method for calibrating optical arrangement
CN107490347B (en) * 2016-06-13 2020-05-05 卡尔蔡司工业测量技术有限公司 Method for calibrating an optical arrangement
CN106767535A (en) * 2017-01-10 2017-05-31 杭州汉振科技有限公司 Contactless duplex measurement instrument and its measuring method
JP2020514759A (en) * 2017-03-24 2020-05-21 テクサ・エッセ・ピ・ア System, method and multifunctional apparatus for determining vehicle brake disc and tire contours
CN109631799A (en) * 2019-01-09 2019-04-16 王红军 A kind of intelligentized measurement and labeling method

Similar Documents

Publication Publication Date Title
EP3033875B1 (en) Image processing apparatus, image processing system, image processing method, and computer program
JP4825253B2 (en) System and method for deformable object recognition
US6470271B2 (en) Obstacle detecting apparatus and method, and storage medium which stores program for implementing the method
JP3624353B2 (en) Three-dimensional shape measuring method and apparatus
JP3977776B2 (en) Stereo calibration device and stereo image monitoring device using the same
JP2001524228A (en) Machine vision calibration target and method for determining position and orientation of target in image
US20020118874A1 (en) Apparatus and method for taking dimensions of 3D object
CN111627072A (en) Method and device for calibrating multiple sensors and storage medium
JP2008246631A (en) Object fetching equipment
JP2018060296A (en) Image processing apparatus, image processing system, and image processing method
CN110926330B (en) Image processing apparatus, image processing method, and program
JPH08110807A (en) Method and device for automatic calibration
Yan et al. Joint camera intrinsic and lidar-camera extrinsic calibration
CN113359692B (en) Obstacle avoidance method and movable robot
JP2672509B2 (en) Method and apparatus for automatically calibrating camera model
CN109143167B (en) Obstacle information acquisition device and method
JP2001148025A (en) Device and method for detecting position, and device and method for detecting plane posture
JP2007086534A (en) Image correction device, pattern inspection device, image correction method, and pattern inspection method
CN116977328B (en) Image quality evaluation method in active vision of vehicle bottom robot
JPH1079029A (en) Stereoscopic information detecting method and device therefor
CN114782556B (en) Camera and laser radar registration method and system and storage medium
JP3605955B2 (en) Vehicle identification device
JPH07250538A (en) Apparatus for carrying out measuring treatment of target material to be harvested and method therefor
CN111489384B (en) Method, device, system and medium for evaluating shielding based on mutual viewing angle
JPH11190611A (en) Three-dimensional measuring method and three-dimensional measuring processor using this method