JP5494267B2 - Three-dimensional shape measuring apparatus, calibration method for three-dimensional shape measuring apparatus, and robot apparatus - Google Patents

Three-dimensional shape measuring apparatus, calibration method for three-dimensional shape measuring apparatus, and robot apparatus Download PDF

Info

Publication number
JP5494267B2
JP5494267B2 JP2010135839A JP2010135839A JP5494267B2 JP 5494267 B2 JP5494267 B2 JP 5494267B2 JP 2010135839 A JP2010135839 A JP 2010135839A JP 2010135839 A JP2010135839 A JP 2010135839A JP 5494267 B2 JP5494267 B2 JP 5494267B2
Authority
JP
Japan
Prior art keywords
unit
coordinate
dimensional shape
light
calibration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010135839A
Other languages
Japanese (ja)
Other versions
JP2012002564A (en
Inventor
敏則 長橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2010135839A priority Critical patent/JP5494267B2/en
Publication of JP2012002564A publication Critical patent/JP2012002564A/en
Application granted granted Critical
Publication of JP5494267B2 publication Critical patent/JP5494267B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、三次元形状計測装置、三次元形状計測装置のキャリブレーション方法、およびロボット装置に関する。   The present invention relates to a three-dimensional shape measurement apparatus, a calibration method for a three-dimensional shape measurement apparatus, and a robot apparatus.

スリット光源がスリット光を照射するとともに、カメラが計測対象物体の表面に映ったスリット光の輝線(光切断線)を撮像し、演算処理装置が撮像された光切断線の画像に基づいて三角測量の原理により計測対象物体の三次元形状を計測する、三次元形状計測技術が知られている。この三次元形状計測技術は、光切断法とも呼ばれる。
精密部品等の外形形状が複雑な計測対象物体を光切断法によって計測する場合に、特定の一方向からの撮像だけでは光切断線の隠れ(Occlusion)が生じてしまい、形状計測ができない部分が発生したり、計測精度の悪い部分が発生したりすることがある。また、大きな形状の計測対象物体を計測する場合にも、特定の一方向からの撮像だけでは、カメラの解像度の限界によって所望の計測精度よりも低い計測精度でしか形状計測を行うことができないことがある。
従来、このような問題を解決するために、互いに異なる方向から撮像する複数のカメラを設けて三次元形状を計測する三次元形状測定装置が知られている(例えば、特許文献1参照)。
The slit light source emits slit light, and the camera captures the bright line (light cutting line) of the slit light reflected on the surface of the object to be measured, and the arithmetic processing unit performs triangulation based on the image of the optical cutting line captured. A three-dimensional shape measurement technique for measuring a three-dimensional shape of a measurement target object based on the principle of is known. This three-dimensional shape measurement technique is also called an optical cutting method.
When measuring an object to be measured, such as a precision part, with a complicated outer shape by the light cutting method, there is a portion that cannot be measured because the optical cutting line is hidden only by imaging from one specific direction. May occur or a portion with poor measurement accuracy may occur. In addition, when measuring a measurement target object with a large shape, shape measurement can only be performed with a measurement accuracy lower than the desired measurement accuracy due to the limit of the resolution of the camera only by imaging from one specific direction. There is.
Conventionally, in order to solve such a problem, a three-dimensional shape measuring apparatus that measures a three-dimensional shape by providing a plurality of cameras that capture images from different directions is known (see, for example, Patent Document 1).

特開2007−93412号公報JP 2007-93412 A

光切断法による三次元形状計測装置では、カメラが撮像した計測対象物体の画像における光切断線の位置と、その位置に対応する実空間における位置との整合をとるためのキャリブレーション(校正)が必要である。従来、複数のカメラを用いる光切断法の三次元形状計測装置では、カメラごとにキャリブレーションを行っており、校正作業に多大な時間と煩雑な作業とが発生していた。この問題は、固定したスリット光源に対してカメラの位置を変更して複数の方向からの撮像を行う三次元形状計測装置においても同様に生じる問題である。
そこで、本発明は、上記問題を解決するためになされたものであり、複数の方向から計測対象物体を撮像して三次元形状を計測する三次元形状計測装置のキャリブレーションを、簡便な作業で短時間に行うことのできる、三次元形状計測装置、三次元形状計測装置のキャリブレーション方法、およびロボット装置を提供することを目的とする。
In the three-dimensional shape measurement apparatus using the light section method, calibration (calibration) is required to match the position of the light section line in the image of the measurement target object captured by the camera with the position in the real space corresponding to the position. is necessary. Conventionally, in a light cutting method three-dimensional shape measuring apparatus using a plurality of cameras, calibration is performed for each camera, and a great amount of time and troublesome work have occurred in the calibration work. This problem also occurs in a three-dimensional shape measuring apparatus that changes the position of the camera with respect to a fixed slit light source and performs imaging from a plurality of directions.
Therefore, the present invention has been made to solve the above-described problem. Calibration of a three-dimensional shape measuring apparatus that measures a three-dimensional shape by imaging a measurement target object from a plurality of directions is performed with a simple operation. An object of the present invention is to provide a three-dimensional shape measuring apparatus, a three-dimensional shape measuring apparatus calibration method, and a robot apparatus that can be performed in a short time.

[1]上記の課題を解決するため、本発明の一態様である三次元形状計測装置は、光源部が射出したスリット光の照射部分に映る光切断線を、複数の撮像部が撮像して三次元形状計測を行う三次元形状計測装置において、キャリブレーション用ブロックと、前記複数の撮像部それぞれが撮像した複数の撮像画像から、前記キャリブレーション用ブロックに照射された前記スリット光による光切断線をそれぞれ検出する光切断線検出部と、前記光切断線検出部がそれぞれ検出した複数の光切断線から特徴点の座標値をそれぞれ検出する特徴点検出部と、前記複数の撮像画像それぞれにおける特徴点の座標値を単一の座標系の座標値に変換するための座標変換パラメーターを計算する座標変換パラメーター計算部と、を備えることを特徴とする。
この構成によれば、座標変換パラメーター計算部が、複数の撮像部が撮像した各撮像画像におけるキャリブレーション用ブロックの光切断線の特徴点座標値を単一座標系の座標値に変換するための座標変換パラメーターを計算する。この座標変換パラメーターを求めておくことにより、三次元形状計測装置は、撮像方向の異なる複数の撮像部それぞれから得られる撮像画像を容易につなぎ合わせて単一の画像平面を構築することができる。キャリブレーション用ブロックは、複数の撮像部が撮像可能なように置かれるだけでよい。また、キャリブレーションにおいて、光切断線の詳細なスキャンを必要としないため、本発明の一態様である三次元形状計測装置によれば、簡便な作業で短時間にキャリブレーションを行うことができる。
[1] In order to solve the above-described problem, in the three-dimensional shape measuring apparatus according to one aspect of the present invention, a plurality of imaging units captures a light cutting line reflected in a portion irradiated with slit light emitted from a light source unit. In a three-dimensional shape measurement apparatus that performs three-dimensional shape measurement, an optical cutting line by the slit light irradiated to the calibration block from a plurality of captured images captured by the calibration block and each of the plurality of imaging units An optical cutting line detection unit for detecting the respective feature points, a feature point detection unit for detecting coordinate values of feature points from the plurality of optical cutting lines respectively detected by the optical cutting line detection unit, and a feature in each of the plurality of captured images A coordinate conversion parameter calculation unit for calculating a coordinate conversion parameter for converting the coordinate value of the point into a coordinate value of a single coordinate system.
According to this configuration, the coordinate conversion parameter calculation unit converts the feature point coordinate value of the light cutting line of the calibration block in each captured image captured by the plurality of imaging units into a coordinate value of a single coordinate system. Calculate coordinate transformation parameters. By obtaining the coordinate conversion parameters, the three-dimensional shape measuring apparatus can easily connect the captured images obtained from the plurality of imaging units having different imaging directions to construct a single image plane. The calibration block only needs to be placed so that a plurality of imaging units can capture images. Further, since detailed scanning of the light section line is not required for calibration, according to the three-dimensional shape measuring apparatus which is one embodiment of the present invention, calibration can be performed in a short time with a simple operation.

[2]上記[1]記載の三次元形状計測装置において、前記キャリブレーション用ブロックは、前記スリット光が照射されるべき平面を有するとともに、前記平面が当該三次元形状計測装置のキャリブレーションの基準面と平行となるように設けられることを特徴とする。
この構成によれば、単純な形状のキャリブレーション用ブロックを用いて高さ一定での
キャリブレーションを簡易且つ短時間に行うことができる。
[3]上記[1]または[2]記載の三次元形状計測装置において、前記座標変換パラメーター計算部は、前記スリット光の面を表す式と前記複数の撮像部それぞれのカメラパラメーターと前記キャリブレーション用ブロックの高さ寸法値とに基づいて、前記座標変換パラメーターを計算することを特徴とする。
この構成によれば、所望の高さにおけるキャリブレーションを簡易且つ短時間に行うことができる。
[4]上記[3]記載の三次元形状計測装置において、前記座標変換パラメーター計算部は、前記キャリブレーション用ブロックの複数の高さ寸法値それぞれに応じて複数の座標変換パラメーターを計算し、前記複数の座標変換パラメーターを線形補間することを特徴とする。
この構成によれば、任意の高さの対応関係を簡易且つ短時間に得ることができる。
[2] The three-dimensional shape measuring apparatus according to [1], wherein the calibration block has a plane to be irradiated with the slit light, and the plane is a reference for calibration of the three-dimensional shape measuring apparatus. It is provided to be parallel to the surface.
According to this configuration, it is possible to easily perform calibration at a constant height in a short time using a simple-shaped calibration block.
[3] In the three-dimensional shape measuring apparatus according to [1] or [2], the coordinate conversion parameter calculation unit includes an equation representing a surface of the slit light, camera parameters of each of the plurality of imaging units, and the calibration. The coordinate transformation parameter is calculated based on the height dimension value of the block for use.
According to this configuration, calibration at a desired height can be performed easily and in a short time.
[4] In the three-dimensional shape measuring apparatus according to [3], the coordinate conversion parameter calculation unit calculates a plurality of coordinate conversion parameters according to each of a plurality of height dimension values of the calibration block, It is characterized by linearly interpolating a plurality of coordinate transformation parameters.
According to this configuration, it is possible to easily obtain a correspondence relationship having an arbitrary height in a short time.

[5]上記の課題を解決するため、本発明の一態様である三次元形状計測装置のキャリブレーション方法は、光源部が射出したスリット光の照射部分に映る光切断線を、複数の撮像部が撮像して三次元形状計測を行う三次元形状計測装置のキャリブレーション方法において、前記複数の撮像部それぞれが撮像した複数の撮像画像から、キャリブレーション用ブロックに照射された前記スリット光による光切断線をそれぞれ検出する光切断線検出ステップと、前記光切断線検出ステップにおいて検出した複数の光切断線から特徴点の座標値をそれぞれ検出する特徴点検出ステップと、前記複数の撮像画像それぞれにおける特徴点の座標値を単一の座標系の座標値に変換するための座標変換パラメーターを計算する座標変換パラメーター計算ステップと、を有することを特徴とする。
この手順によれば、座標変換パラメーター計算ステップが、複数の撮像部が撮像した各撮像画像におけるキャリブレーション用ブロックの光切断線の特徴点座標値を単一座標系の座標値に変換するための座標変換パラメーターを計算する。この座標変換パラメーターを求めておくことにより、三次元形状計測装置は、撮像方向の異なる複数の撮像部それぞれから得られる撮像画像を容易につなぎ合わせて単一の画像平面を構築することができる。キャリブレーション用ブロックは、複数の撮像部が撮像可能なように置かれるだけでよい。また、キャリブレーションにおいて、光切断線の詳細なスキャンを必要としないため、本発明の一態様である三次元形状計測装置のキャリブレーション方法によれば、簡便な作業で短時間にキャリブレーションを行うことができる。
[5] In order to solve the above-described problem, a calibration method for a three-dimensional shape measuring apparatus according to an aspect of the present invention includes a plurality of imaging units that display a light cutting line reflected in a portion irradiated with slit light emitted from a light source unit. In a calibration method for a three-dimensional shape measuring apparatus that takes an image and measures a three-dimensional shape, light cutting by the slit light emitted to the calibration block from a plurality of picked-up images picked up by each of the plurality of image pickup units A light cutting line detection step for detecting each line, a feature point detection step for detecting coordinate values of feature points from the plurality of light cutting lines detected in the light cutting line detection step, and a feature in each of the plurality of captured images A coordinate transformation parameter calculation step that calculates coordinate transformation parameters for transforming point coordinate values to coordinate values in a single coordinate system. And having a flop, a.
According to this procedure, the coordinate conversion parameter calculation step converts the feature point coordinate value of the light cutting line of the calibration block in each captured image captured by the plurality of imaging units into a coordinate value of a single coordinate system. Calculate coordinate transformation parameters. By obtaining the coordinate conversion parameters, the three-dimensional shape measuring apparatus can easily connect the captured images obtained from the plurality of imaging units having different imaging directions to construct a single image plane. The calibration block only needs to be placed so that a plurality of imaging units can capture images. Further, since the calibration does not require detailed scanning of the light section line, according to the calibration method of the three-dimensional shape measuring apparatus which is one aspect of the present invention, calibration is performed in a short time with a simple operation. be able to.

[6]上記の課題を解決するため、本発明の一態様であるロボット装置は、光源部が射出したスリット光の照射部分に映る光切断線を、撮像部が撮像して三次元形状計測を行うロボット装置において、キャリブレーション用ブロックと、前記撮像部が取り付けられたハンド部と、前記ハンド部が可動自在に取り付けられたアーム部と、前記ハンド部と前記アーム部とを複合的に動作させて前記撮像部の位置を変更させるとともに、その変更した位置において前記撮像部に撮像させる計測制御部と、前記複数の撮像部それぞれが撮像した複数の撮像画像から、前記キャリブレーション用ブロックに照射された前記スリット光による光切断線をそれぞれ検出する光切断線検出部と、前記光切断線検出部がそれぞれ検出した複数の光切断線から特徴点の座標値をそれぞれ検出する特徴点検出部と、前記複数の撮像画像それぞれにおける特徴点の座標値を単一の座標系の座標値に変換するための座標変換パラメーターを計算する座標変換パラメーター計算部と、を備えることを特徴とする。
この構成によれば、座標変換パラメーター計算部が、撮像部が複数の位置で撮像した各撮像画像におけるキャリブレーション用ブロックの光切断線の特徴点座標値を単一座標系の座標値に変換するための座標変換パラメーターを計算する。この座標変換パラメーターを求めておくことにより、ロボット装置は、撮像位置の異なる撮像部から順次得られる撮像画像を容易につなぎ合わせて単一の画像平面を構築することができる。キャリブレーション用ブロックは、撮像部が複数の位置全てで撮像可能なように置かれるだけでよい。また、キャリブレーションにおいて、光切断線の詳細なスキャンを必要としないため、本発明の一態様であるロボット装置によれば、簡便な作業で短時間にキャリブレーションを行うことができる。
[6] In order to solve the above-described problem, in the robot apparatus according to one aspect of the present invention, the imaging unit captures a three-dimensional shape measurement by imaging the light cutting line reflected in the slit light irradiated portion emitted by the light source unit. In a robot apparatus to perform, a calibration block, a hand unit to which the imaging unit is attached, an arm unit to which the hand unit is movably attached, and the hand unit and the arm unit are operated in combination. The position of the imaging unit is changed, and the calibration block is irradiated from a measurement control unit that causes the imaging unit to capture an image at the changed position and a plurality of captured images captured by each of the plurality of imaging units. A light cutting line detection unit that detects a light cutting line by the slit light, and a plurality of light cutting lines detected by the light cutting line detection unit, respectively. And a coordinate conversion parameter calculation unit for calculating a coordinate conversion parameter for converting the coordinate value of the feature point in each of the plurality of captured images into a coordinate value of a single coordinate system. And.
According to this configuration, the coordinate conversion parameter calculation unit converts the feature point coordinate value of the light section line of the calibration block in each captured image captured by the imaging unit at a plurality of positions into a coordinate value of a single coordinate system. Calculate the coordinate transformation parameters for By obtaining the coordinate conversion parameters, the robot apparatus can easily connect the captured images sequentially obtained from the imaging units having different imaging positions to construct a single image plane. The calibration block only needs to be placed so that the imaging unit can capture images at all of a plurality of positions. Further, since the calibration does not require detailed scanning of the light section line, the robot apparatus according to one embodiment of the present invention can perform calibration in a short time with a simple operation.

本発明の第1実施形態である三次元形状計測装置がキャリブレーションを行っている様子を模式的に示した、三次元形状計測装置およびキャリブレーション用ブロックの概略の図である。1 is a schematic diagram of a three-dimensional shape measuring apparatus and a calibration block, schematically showing how the three-dimensional shape measuring apparatus according to the first embodiment of the present invention performs calibration. 同実施形態における、三次元形状計測装置の主要な機能構成を示すブロック図である。It is a block diagram which shows the main function structures of the three-dimensional shape measuring apparatus in the embodiment. 同実施形態において、光切断線検出部が撮像画像領域の中でウィンドウをジグザグスキャンさせる様子を模式的に示した図である。In the same embodiment, it is the figure which showed typically a mode that the light cutting line detection part zigzag scans a window within the captured image area | region. 同実施形態において、特徴点検出部が二つの撮像画像領域から検出した特徴点の二次元座標を示す図である。In the same embodiment, it is a figure which shows the two-dimensional coordinate of the feature point which the feature point detection part detected from two captured image areas. 同実施形態において、三次元形状計測装置が実行する1台の撮像部についてのカメラパラメーター計算処理の手順を示すフローチャートである。In the same embodiment, it is a flowchart which shows the procedure of the camera parameter calculation process about one imaging part which a three-dimensional shape measuring apparatus performs. 同実施形態において、三次元形状計測装置が実行する座標変換パラメーター計算処理の手順を示すフローチャートである。In the same embodiment, it is a flowchart which shows the procedure of the coordinate transformation parameter calculation process which a three-dimensional shape measuring device performs. 本発明の第2実施形態であるロボット装置がキャリブレーションを行っている様子を模式的に示した、ロボット装置およびキャリブレーション用ブロックの概略の図である。It is the schematic of the robot apparatus and the block for a calibration which showed a mode that the robot apparatus which is 2nd Embodiment of this invention performed calibration. 同実施形態における、ロボット装置の主要な機能構成を示すブロック図である。FIG. 2 is a block diagram showing a main functional configuration of the robot apparatus in the same embodiment. 同実施形態において、ロボット装置が実行する座標変換パラメーター計算処理の手順を示すフローチャートである。4 is a flowchart illustrating a procedure of coordinate transformation parameter calculation processing executed by the robot apparatus in the embodiment. 高さ寸法の異なる複数の平面を設けたキャリブレーション用ブロックの外観の斜視図である。It is a perspective view of the appearance of a calibration block provided with a plurality of planes having different height dimensions.

以下、本発明を実施するための形態について、図面を参照して詳細に説明する。
[第1の実施の形態]
図1は、本発明の第1実施形態である三次元形状計測装置がキャリブレーションを行っている様子を模式的に示した、三次元形状計測装置およびキャリブレーション用ブロックの概略の図である。同図において、三次元形状計測装置1は、光切断法によって計測対象物体(キャリブレーション用ブロックを含む。)の外部形状を計測する装置であり、キャリブレーションモードまたは通常計測モードに切り換えられて動作する。光切断法とは、例えば、スリット光源と計測対象物体とを相対的に移動させながら、スリット光源が計測対象物体にスリット光を照射し、撮像装置が計測対象物体の表面に映る輝線(光切断線)を撮像して二次元の輝線画像を取得し、画像処理装置がその輝線画像に基づいて三角測量の原理により計測対象物体の三次元形状を算出する方法である。
Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the drawings.
[First Embodiment]
FIG. 1 is a schematic diagram of a three-dimensional shape measuring apparatus and a calibration block schematically showing how the three-dimensional shape measuring apparatus according to the first embodiment of the present invention performs calibration. In the figure, a three-dimensional shape measurement apparatus 1 is an apparatus that measures the external shape of a measurement target object (including a calibration block) by a light cutting method, and operates by switching to a calibration mode or a normal measurement mode. To do. The light cutting method refers to, for example, a bright line (light cutting) in which the slit light source irradiates the measurement target object with slit light while the slit light source and the measurement target object are moved relative to each other, and the imaging device reflects on the surface of the measurement target object. Line) to obtain a two-dimensional bright line image, and the image processing apparatus calculates the three-dimensional shape of the measurement object based on the principle of triangulation based on the bright line image.

図1に示すように、三次元形状計測装置1は、光源部11と、2台の撮像部12(撮像部12−1,12−2)と、載置台40とを含んで構成される。そして、同図において、載置台40には、撮像部12−1,12−2がそれぞれ撮像した撮像画像における光切断線の二次元の位置と、その二次元の位置に対応する実空間における三次元の位置との整合をとるために用いられるキャリブレーション用ブロック100が載置されている。すなわち、キャリブレーション用ブロック100は、三次元形状計測装置1がキャリブレーションモードで動作する場合に用いられる計測対象物体である。   As shown in FIG. 1, the three-dimensional shape measuring apparatus 1 includes a light source unit 11, two imaging units 12 (imaging units 12-1 and 12-2), and a mounting table 40. In the figure, the mounting table 40 has a two-dimensional position of the optical cutting line in the captured images captured by the imaging units 12-1 and 12-2 and a tertiary in real space corresponding to the two-dimensional position. A calibration block 100 used for matching with the original position is placed. That is, the calibration block 100 is a measurement target object used when the three-dimensional shape measurement apparatus 1 operates in the calibration mode.

まず、キャリブレーション用ブロック100について説明する。キャリブレーション用ブロック100は、高さ方向(Z軸上方向)のキャリブレーションを行うために用いられる計測対象物体である。キャリブレーション用ブロック100は、載置台40に載置されたときにその載置面(キャリブレーションの基準面)に対して平行な面となる上面101を有する固体ブロックであり、例えば、直方体の固体ブロックである。なお、キャリブレーション用ブロック100は中空または凹型であってもよい。キャリブレーション用ブロック100の載置側は、設置の安定性を確保するために面または少なくとも4箇所の支持部を有している。   First, the calibration block 100 will be described. The calibration block 100 is a measurement target object used for performing calibration in the height direction (Z-axis upward direction). The calibration block 100 is a solid block having an upper surface 101 that is parallel to the placement surface (calibration reference surface) when placed on the placement table 40. For example, the calibration block 100 is a cuboid solid. It is a block. The calibration block 100 may be hollow or concave. The placement side of the calibration block 100 has a surface or at least four support portions in order to ensure the stability of the installation.

キャリブレーション用ブロック100の上面101には、例えばレーザー光が照射されるため、その照射部分の温度は高くなる傾向にある。よって、キャリブレーション用ブロック100は、熱膨張率の小さな材質で形成されることが好ましい。キャリブレーション用ブロック100は、例えば、その材質をカーボンブラック、ガラス、またはステンレス鋼をとすることができる。これらの中で、カーボンブラックは、ガラスやステンレス鋼に比べて質量を小さくできる点において優れており、材質としては好ましい。また、照射されたレーザー光を反射させ易くするために、キャリブレーション用ブロック100の少なくとも上面101は、ブラスト処理されている。   Since the upper surface 101 of the calibration block 100 is irradiated with, for example, laser light, the temperature of the irradiated portion tends to increase. Therefore, the calibration block 100 is preferably formed of a material having a small coefficient of thermal expansion. For example, the calibration block 100 can be made of carbon black, glass, or stainless steel. Among these, carbon black is excellent in that the mass can be reduced as compared with glass and stainless steel, and is preferable as a material. In order to easily reflect the irradiated laser light, at least the upper surface 101 of the calibration block 100 is blasted.

キャリブレーション用ブロック100は、載置台40の載置面と当該キャリブレーション用ブロック100の上面101との距離(高さ寸法)が異なる複数の固体ブロックのうちの一つである。各個体ブロックの高さ寸法は、本実施形態である三次元形状計測装置1以外の形状計測装置によって測定され既知である。そして、固体ブロックごとに、固体ブロックの識別子と高さ寸法値とを関連づけたリファレンスデータが作成されている。このリファレンスデータは、後述する記憶部に予め記憶されている。   The calibration block 100 is one of a plurality of solid blocks having different distances (height dimensions) between the mounting surface of the mounting table 40 and the upper surface 101 of the calibration block 100. The height dimension of each individual block is measured by a shape measuring device other than the three-dimensional shape measuring device 1 according to this embodiment and is known. For each solid block, reference data in which the identifier of the solid block is associated with the height dimension value is created. This reference data is stored in advance in a storage unit described later.

次に、三次元形状計測装置1の機能構成について説明する。図2は、三次元形状計測装置1の主要な機能構成を示すブロック図である。なお、同図において、図1に示した構成と同一の構成については同一の符号を付す。図2に示すように、三次元形状計測装置1は、光学測定部10と、制御部20と、載置台駆動部30と、載置台40とを備える。以下、図1および図2を併せ参照して三次元形状計測装置1の機能構成について説明する。   Next, the functional configuration of the three-dimensional shape measuring apparatus 1 will be described. FIG. 2 is a block diagram showing the main functional configuration of the three-dimensional shape measuring apparatus 1. In the figure, the same components as those shown in FIG. As shown in FIG. 2, the three-dimensional shape measurement apparatus 1 includes an optical measurement unit 10, a control unit 20, a mounting table driving unit 30, and a mounting table 40. Hereinafter, the functional configuration of the three-dimensional shape measuring apparatus 1 will be described with reference to FIGS. 1 and 2 together.

光学測定部10は、光切断法によって三次元形状計測を行う測定ユニットであり、光源部11と、2台の撮像部12(撮像部12−1,12−2)とを含んで構成される。
光源部11は、スリット光SLを空間に射出するスリット光源である。スリット光SLは、例えばレーザー光やタングステン光である。光源部11は、スリット光SLの中心光軸が鉛直軸と非平行である所定の角度を有して固定設置される。
The optical measurement unit 10 is a measurement unit that performs three-dimensional shape measurement by a light cutting method, and includes a light source unit 11 and two imaging units 12 (imaging units 12-1 and 12-2). .
The light source unit 11 is a slit light source that emits slit light SL into space. The slit light SL is, for example, laser light or tungsten light. The light source unit 11 is fixedly installed with a predetermined angle at which the central optical axis of the slit light SL is not parallel to the vertical axis.

撮像部12は、制御部20にカメラパラメーターを計算させるために用いられるチェッカーパターンのテストチャートを撮像したり、計測対象物体からのスリット光SLの反射光を撮像したりする撮像装置である。撮像部12は、例えば、デジタルカメラまたはデジタルビデオカメラである。計測対象物体に照射されたスリット光SLの照射箇所は輝線LLとして可視化されるため、撮像部12は、計測対象物体からの反射光をその輝線LLによりとらえて撮像する。撮像部12は、計測対象物体に映った輝線LLを撮像して、撮像画像データを制御部20に供給する。   The imaging unit 12 is an imaging device that captures a test chart of a checker pattern used to cause the control unit 20 to calculate camera parameters, or captures reflected light of the slit light SL from the measurement target object. The imaging unit 12 is, for example, a digital camera or a digital video camera. Since the irradiated portion of the slit light SL irradiated to the measurement target object is visualized as a bright line LL, the imaging unit 12 captures and captures the reflected light from the measurement target object by the bright line LL. The imaging unit 12 images the bright line LL reflected on the measurement target object, and supplies the captured image data to the control unit 20.

撮像部12は、撮像レンズの光軸がスリット光SLの中心光軸と非平行である所定の角度で傾斜する位置に設置される。つまり、撮像部12−1,12−2は、それぞれの撮像画像領域IA−1,IA−2(撮像画像領域IAと総称することもある。)が部分的に重複する向きに設置される。より好ましくは、撮像部12−1,12−2は、計測対象物体の形状に応じて、撮像画像領域IA−1,IA−2が部分的に重複する向きであり、且つ相互に輝線LLの隠れを補う向きに設置方向が適宜変更される。   The imaging unit 12 is installed at a position where the optical axis of the imaging lens is inclined at a predetermined angle that is not parallel to the central optical axis of the slit light SL. That is, the imaging units 12-1 and 12-2 are installed in directions in which the respective captured image areas IA-1 and IA-2 (also collectively referred to as captured image areas IA) partially overlap. More preferably, the imaging units 12-1 and 12-2 are oriented so that the captured image areas IA-1 and IA-2 partially overlap according to the shape of the measurement target object, and the bright lines LL mutually. The installation direction is appropriately changed to compensate for the hiding.

制御部20は、三次元形状計測装置1全体を制御するものであり、例えば、キャリブレーションモードと通常計測モードとを、外部から供給される選択信号によって切替える制御を行う。制御部20は、CPU(Central Processing Unit)と記憶部と(いずれも不図示)を含んで構成され、その機能上、計測制御部21と、カメラパラメーター計算部22と、光切断線検出部23と、特徴点検出部24と、座標変換パラメーター計算部25とを含む。   The control unit 20 controls the entire three-dimensional shape measurement apparatus 1, and performs control for switching between a calibration mode and a normal measurement mode by a selection signal supplied from the outside, for example. The control unit 20 is configured to include a CPU (Central Processing Unit) and a storage unit (both not shown), and in terms of its functions, the measurement control unit 21, the camera parameter calculation unit 22, and the light section line detection unit 23 are included. And a feature point detection unit 24 and a coordinate conversion parameter calculation unit 25.

計測制御部21は、光学測定部10と載置台駆動部30とを制御する。具体的には、計測制御部21は、光源部11に対して、スリット光SLの射出の開始および停止を制御する。また、計測制御部21は、撮像部12に対して、チェッカーパターンのテストチャートを撮像させて、撮像画像データをカメラパラメーター計算部22に供給させる制御を行う。また、計測制御部21は、撮像部12に対して、計測対象物体に映った輝線LLを撮像させて、撮像画像データを光切断線検出部23に供給させる制御を行う。また、計測制御部21は、載置台駆動部30に対して、載置面上X方向およびY方向の少なくとも一方向に載置台40を移動させたり、載置面の略中心位置を中心点として載置台40を回転させたりする制御を行う。   The measurement control unit 21 controls the optical measurement unit 10 and the mounting table driving unit 30. Specifically, the measurement control unit 21 controls the light source unit 11 to start and stop the emission of the slit light SL. The measurement control unit 21 controls the imaging unit 12 to image a checker pattern test chart and supply the captured image data to the camera parameter calculation unit 22. In addition, the measurement control unit 21 controls the imaging unit 12 to capture the bright line LL reflected in the measurement target object and supply the captured image data to the light section line detection unit 23. In addition, the measurement control unit 21 moves the mounting table 40 in at least one of the X direction and the Y direction on the mounting surface with respect to the mounting table driving unit 30, or uses the approximate center position of the mounting surface as a central point. Control which rotates the mounting base 40 is performed.

カメラパラメーター計算部22は、キャリブレーションモードにおいて、撮像部12−1,12−2からそれぞれ供給される撮像画像データを取り込み、撮像部12ごとに、撮像画像に含まれるチェッカーパターンの二次元座標値に基づいてカメラキャリブレーションを行う。カメラキャリブレーションとは、撮像部12の固有情報である内部パラメーターと、世界座標系における位置姿勢を示す外部パラメーターとを含むカメラパラメーターを計算する処理である。   In the calibration mode, the camera parameter calculation unit 22 takes in the captured image data supplied from the imaging units 12-1 and 12-2, and for each imaging unit 12, the two-dimensional coordinate values of the checker pattern included in the captured image. Based on the camera calibration. The camera calibration is a process of calculating camera parameters including internal parameters that are unique information of the imaging unit 12 and external parameters that indicate positions and orientations in the world coordinate system.

光切断線検出部23は、キャリブレーションモードおよび通常計測モードにおいて、撮像部12−1,12−2からそれぞれ供給される撮像画像データを取り込み、各撮像画像データの撮像画像領域IA−1,IA−2それぞれから光切断線を検出する。
撮像画像領域IAには、撮像部12の撮像性能によって輝線LLの画像(輝線画像)にノイズが含まれたり、画素構造によって輝線LLが太く撮像されたりする場合がある。光切断線検出部23は、撮像画像領域IAから輝度の重心位置を求めることによって光切断線を検出する。
具体的には、光切断線検出部23は、撮像画像領域IAの画像平面をxy座標系平面としたときの座標値(imin,jmin)から座標値(imax,jmax)までのウィンドウにおけるx軸方向の輝度の重心位置xを、下記の式(1)によって計算する。なお、式(1)において、(x,y)は、画像平面における座標値であり、I(x,y)は、座標値(x,y)における輝度値である。
In the calibration mode and the normal measurement mode, the light section line detection unit 23 captures captured image data supplied from the imaging units 12-1 and 12-2, and captures image areas IA-1 and IA of each captured image data. -2 A light cutting line is detected from each.
In the captured image area IA, noise may be included in the image of the bright line LL (bright line image) depending on the imaging performance of the imaging unit 12, or the bright line LL may be captured thickly depending on the pixel structure. The light section line detection unit 23 detects the light section line by obtaining the barycentric position of the luminance from the captured image area IA.
Specifically, the light section line detection unit 23 obtains the coordinate values (i min , j min ) to the coordinate values (i max , j max ) when the image plane of the captured image area IA is the xy coordinate system plane. gravity position x c of the luminance in the x-axis direction in the window is calculated by the following equation (1). In equation (1), (x i , y j ) is a coordinate value on the image plane, and I (x i , y j ) is a luminance value at the coordinate value (x i , y j ).

Figure 0005494267
Figure 0005494267

そして、光切断線検出部23は、重心位置xとこの位置に対応するy軸方向の位置であるyとを、当該ウィンドウにおける重心座標値(x,y)として記憶する。さらに、光切断線検出部23は、ウィンドウをx軸方向である主走査方向とy軸方向である副走査方向とにジグザグスキャンさせて式(1)の計算を行う処理を繰り返すことにより光切断線を検出する。
図3は、光切断線検出部23が撮像画像領域IAの中でウィンドウをジグザグスキャンさせる様子を模式的に示した図である。同図において、ウィンドウWは、x軸方向の幅がimax−iminであり、y軸方向の高さがjmax−jminである矩形の画像領域である。同図に示すように、光切断線検出部23は、撮像画像領域IAにおいて、ウィンドウWをx軸方向である主走査方向とy軸方向である副走査方向とに所定ステップずつジグザグに移動させ、ウィンドウWごとに式(1)の計算処理を行って重心座標値(x,y)を計算して、撮像画像領域IAから光切断線を検出する。
Then, the light section line detecting unit 23 stores a y c is the position of the y-axis direction corresponding to the position of the gravity center position x c Toko, barycentric coordinates value in the window (x c, y c) as. Further, the light cutting line detection unit 23 performs light cutting by repeating the process of calculating the equation (1) by zigzag scanning the window in the main scanning direction which is the x-axis direction and the sub-scanning direction which is the y-axis direction. Detect lines.
FIG. 3 is a diagram schematically illustrating how the light section line detection unit 23 performs zigzag scanning of the window in the captured image area IA. In the figure, the window W is a rectangular image area whose width in the x-axis direction is i max −i min and whose height in the y-axis direction is j max −j min . As shown in the figure, in the captured image area IA, the light section line detection unit 23 moves the window W in a zigzag manner by a predetermined step in the main scanning direction that is the x-axis direction and the sub-scanning direction that is the y-axis direction. Then, the calculation process of Expression (1) is performed for each window W to calculate the barycentric coordinate values (x c , y c ), and the light section line is detected from the captured image area IA.

図2に戻り、特徴点検出部24は、キャリブレーションモードおよび通常計測モードにおいて、光切断線検出部23で検出された光切断線から特徴点を検出してその特徴点の二次元座標値を取得する。特徴点とは、光切断線の輝度の変化点、すなわち光切断線の端部の点である。図3においては、特徴点は、点p1,p2である。よって、特徴点検出部24は、光切断線検出部23が検出した光切断線の両端部の二次元座標値を取得する。
図4は、特徴点検出部24が撮像画像領域IA−1,IA−2から検出した特徴点の二次元座標を示す図である。同図(a)は、撮像部12−1が撮像した撮像画像の撮像画像領域IA−1における輝線LL−1とその輝線LL−1の両端部の点である2個の特徴点p1a,p2aとを示している。2個の特徴点のxy座標系における二次元座標値は、p1a=(x1a,y1a),p2a=(x2a,y2a)である。同図(b)は、撮像部12−2が撮像した撮像画像の撮像画像領域IA−2における輝線LL−2とその輝線LL−2の両端部の点である2個の特徴点p1b,p2bとを示している。2個の特徴点のx’y’座標系における二次元座標値は、p1b=(x1b,y1b),p2b=(x2b,y2b)である。
Returning to FIG. 2, the feature point detection unit 24 detects the feature point from the light section line detected by the light section line detection unit 23 in the calibration mode and the normal measurement mode, and calculates the two-dimensional coordinate value of the feature point. get. The feature point is a change point of luminance of the light cutting line, that is, a point at the end of the light cutting line. In FIG. 3, the feature points are points p1 and p2. Therefore, the feature point detection unit 24 acquires the two-dimensional coordinate values of both ends of the light section line detected by the light section line detection unit 23.
FIG. 4 is a diagram illustrating two-dimensional coordinates of feature points detected by the feature point detection unit 24 from the captured image areas IA-1 and IA-2. FIG. 4A shows a bright line LL-1 and two feature points p1a and p2a that are points on both ends of the bright line LL-1 in the picked-up image area IA-1 of the picked-up image picked up by the image pickup unit 12-1. It shows. The two-dimensional coordinate values of the two feature points in the xy coordinate system are p1a = (x1a, y1a) and p2a = (x2a, y2a). FIG. 6B shows the bright line LL-2 in the captured image area IA-2 of the captured image captured by the image capturing unit 12-2 and two feature points p1b and p2b that are points on both ends of the bright line LL-2. It shows. The two-dimensional coordinate values of the two feature points in the x′y ′ coordinate system are p1b = (x1b, y1b) and p2b = (x2b, y2b).

なお、特徴点検出部24は、キャリブレーションモードおよび通常計測モードにおいて、記憶部から後述するレンズ歪補正係数を読み込んで画像平面の二次元座標値を補正する。   Note that the feature point detection unit 24 reads a lens distortion correction coefficient (to be described later) from the storage unit and corrects the two-dimensional coordinate value of the image plane in the calibration mode and the normal measurement mode.

図2に戻り、座標変換パラメーター計算部25は、キャリブレーションモードにおいては、撮像部12−1の撮像画像領域IA−1におけるxy座標系の二次元座標値と撮像部12−2の撮像画像領域IA−2におけるx’y’座標系の二次元座標値とを、単一の座標系であるxy座標系の二次元座標値に変換するための座標変換パラメーターを計算する。具体的には、座標変換パラメーター計算部25は、スリット光SLの面を表す式と、カメラパラメーター計算部22で計算されたカメラパラメーターと、キャリブレーション用ブロック100の高さ寸法値とに基づいて、xy座標系とx’y’座標系とを対応付けるための座標変換パラメーターを計算して記憶部に記憶する。
また、座標変換パラメーター計算部25は、通常計測モードにおいては、特徴点検出部24で検出された計測対象物体の特徴点のx’y’座標系の二次元座標値をxy座標系の二次元座標値に線形変換して一つのxy座標系に統合する。
Returning to FIG. 2, in the calibration mode, the coordinate conversion parameter calculation unit 25 uses the two-dimensional coordinate values of the xy coordinate system in the captured image area IA-1 of the imaging unit 12-1 and the captured image area of the imaging unit 12-2. A coordinate conversion parameter for converting the two-dimensional coordinate value of the x′y ′ coordinate system in IA-2 into the two-dimensional coordinate value of the xy coordinate system which is a single coordinate system is calculated. Specifically, the coordinate conversion parameter calculation unit 25 is based on an expression representing the surface of the slit light SL, the camera parameter calculated by the camera parameter calculation unit 22, and the height dimension value of the calibration block 100. , A coordinate conversion parameter for associating the xy coordinate system with the x′y ′ coordinate system is calculated and stored in the storage unit.
In the normal measurement mode, the coordinate conversion parameter calculation unit 25 converts the two-dimensional coordinate value of the x′y ′ coordinate system of the feature point of the measurement target object detected by the feature point detection unit 24 into the two-dimensional coordinate system of the xy coordinate system. Linearly transform into coordinate values and integrate them into one xy coordinate system.

載置台駆動部30は、計測制御部21から供給される移動方向または回転方向、ピッチ、移動距離または回転角度等の制御情報に基づいて載置台40を移動または回転させるアクチュエータであり、例えばステッピングモーターを含んで構成される。   The mounting table drive unit 30 is an actuator that moves or rotates the mounting table 40 based on control information such as a movement direction or a rotation direction, a pitch, a movement distance, or a rotation angle supplied from the measurement control unit 21. For example, a stepping motor It is comprised including.

次に、三次元形状計測装置1のキャリブレーションモードの動作について説明する。キャリブレーションモードの処理は、カメラパラメーター計算処理と座標変換パラメーター計算処理とを含む。まず、三次元形状計測装置1のカメラパラメーター計算処理について説明する。図5は、三次元形状計測装置1が実行する1台の撮像部12についてのカメラパラメーター計算処理の手順を示すフローチャートである。チェッカーパターンのテストチャートが載置台40に載置された後、三次元形状計測装置1が計測制御部21に対してカメラパラメーター計算処理の動作開始指示を供給すると、同図に示すフローチャートの処理が開始される。   Next, the operation in the calibration mode of the three-dimensional shape measuring apparatus 1 will be described. The calibration mode process includes a camera parameter calculation process and a coordinate conversion parameter calculation process. First, camera parameter calculation processing of the three-dimensional shape measuring apparatus 1 will be described. FIG. 5 is a flowchart showing a procedure of camera parameter calculation processing for one imaging unit 12 executed by the three-dimensional shape measurement apparatus 1. After the test chart of the checker pattern is placed on the placing table 40, when the three-dimensional shape measurement apparatus 1 supplies an operation start instruction for camera parameter calculation processing to the measurement control unit 21, the processing of the flowchart shown in FIG. Be started.

ステップS1において、計測制御部21は、1台の撮像部12(例えば、撮像部12−1)を制御して、テストチャートのチェッカーパターンを撮像させる。次に、撮像部12は、撮像画像データをカメラパラメーター計算部22に供給する。
次に、ステップS2において、計測制御部21は、予め設定された所定枚数分のチェッカーパターンの撮像を行ったか否かを判定し、所定枚数分の撮像を完了していないと判定した場合(S2:NO)はステップS3の処理に移り、所定枚数分の撮像を完了したと判定した場合(S2:YES)はステップS4の処理に移る。
In step S1, the measurement control unit 21 controls one image capturing unit 12 (for example, the image capturing unit 12-1) to capture an image of the checker pattern of the test chart. Next, the imaging unit 12 supplies the captured image data to the camera parameter calculation unit 22.
Next, in step S2, the measurement control unit 21 determines whether or not a predetermined number of preset checker patterns have been imaged, and if it is determined that the predetermined number of image captures has not been completed (S2). : NO) proceeds to the process of step S3, and when it is determined that the predetermined number of images have been captured (S2: YES), the process proceeds to step S4.

ステップS3において、計測制御部21は、載置台駆動部30を制御し、予め設定された所定角度分だけ例えば時計回転方向に載置台40を回転させて、ステップS1の処理に戻る。
ステップS4において、カメラパラメーター計算部22は、所定枚数の撮像画像データを取得すると、撮像画像ごとにチェッカーパターンの特徴点の二次元座標値を抽出し、抽出した特徴点同士の対応付けを行ってカメラパラメーターを計算し記憶部に記憶する。そして、このフローチャートの処理を終了する。
In step S <b> 3, the measurement control unit 21 controls the mounting table driving unit 30 to rotate the mounting table 40 by a predetermined angle set in advance, for example, in the clockwise direction, and returns to the process of step S <b> 1.
In step S4, when the camera parameter calculation unit 22 acquires a predetermined number of captured image data, the camera parameter calculation unit 22 extracts the two-dimensional coordinate values of the feature points of the checker pattern for each captured image, and associates the extracted feature points with each other. The camera parameters are calculated and stored in the storage unit. And the process of this flowchart is complete | finished.

三次元形状計測装置1は、撮像部12−2についても図5のフローチャートの手順に従ってカメラパラメーターを計算し記憶部に記憶する。   The three-dimensional shape measurement apparatus 1 also calculates camera parameters for the imaging unit 12-2 according to the procedure of the flowchart in FIG.

ここで、カメラパラメーター計算部22のカメラパラメーターの計算処理について説明する。カメラパラメーターの計算方法は、例えば公知文献である“Lerning OpenCV, Computer Vision with the OpenCV Library, Gary Bradski, Adrian Kaebler, O’REILLY”に開示されており、カメラパラメーター計算部22は、このような公知技術によりカメラパラメーターを計算する。   Here, the camera parameter calculation process of the camera parameter calculation unit 22 will be described. The camera parameter calculation method is disclosed in, for example, “Lerning OpenCV, Computer Vision with the OpenCV Library, Gary Bradski, Adrian Kaebler, O'REILLY”, which is a publicly known document. Calculate camera parameters by technology.

カメラパラメーターについて概略を説明する。撮像画像領域IAにおける二次元座標値を(x y)とし、チェッカーパターンのテストチャートまたは計測対象物体の位置を規定する世界座標系の三次元座標値を(X Y Z)とすると、それぞれの同次座標値q(ボールド体),Q(ボールド体)は式(2)で表され、また、座標の変換式は式(3)のように表される。なお、「(ボールド体)」との記載は、その直前の文字がボールド体であることを示し、当該文字で示されるデータが行列またはベクトルであることを意味する。   An outline of camera parameters will be described. Assuming that the two-dimensional coordinate value in the captured image area IA is (xy) and the three-dimensional coordinate value of the world coordinate system that defines the position of the test chart of the checker pattern or the measurement target object is (XYZ), The next coordinate values q (bold body) and Q (bold body) are expressed by equation (2), and the coordinate conversion equation is expressed by equation (3). Note that the description “(bold)” indicates that the character immediately before is bold, and that the data indicated by the character is a matrix or a vector.

Figure 0005494267
Figure 0005494267

Figure 0005494267
Figure 0005494267

なお、式(3)において、sは、スケールパラメーターである。また、M(ボールド体)は、撮像部12の内部パラメーター行列である。
内部パラメーター行列M(ボールド体)は、以下の要素を含む。
:x軸方向の焦点距離(画素単位での表現)
:y軸方向の焦点距離(画素単位での表現)
:画像中心である主点(x座標)
:画像中心である主点(y座標)
In equation (3), s is a scale parameter. M (bold body) is an internal parameter matrix of the imaging unit 12.
The internal parameter matrix M (bold body) includes the following elements.
f x : Focal length in the x-axis direction (expression in pixel units)
f y : focal length in the y-axis direction (expressed in pixel units)
c x : principal point (x coordinate) that is the center of the image
c y : principal point (y coordinate) that is the center of the image

W(ボールド体)は、撮像部12の外部パラメーター行列であり、以下の要素を含む。
R(ボールド体):世界座標からカメラ座標への変換を表す回転行列
t(ボールド体):世界座標からカメラ座標への変換を表す並進行列
なお、世界座標は、チェッカーパターンのテストチャートが最初に配置された位置の座標である。
W (bold body) is an external parameter matrix of the imaging unit 12 and includes the following elements.
R (bold): rotation matrix representing transformation from world coordinates to camera coordinates t (bold): parallel progression representing transformation from world coordinates to camera coordinates Note that the world coordinate is the test chart of the checker pattern first. The coordinates of the position where it was placed.

カメラパラメーター計算部22は、撮像部12が備える撮像レンズのレンズ歪を補正するためのレンズ歪補正係数と撮像レンズの半径の値を記憶部に予め記憶している。撮像画像における二次元座標値からレンズ歪を補正した二次元座標値を計算する式は、例えば式(4)である。式(4)の(x)に画像平面の二次元座標値(x y)を代入して計算することにより、レンズ歪が補正された座標値(x y)を得ることができる。式(4)において、k,k,kは、撮像レンズの径方向のレンズ歪を示すレンズ歪補正係数であり、p,pは、撮像レンズの円周方向のレンズ歪を示すレンズ歪補正係数である。また、rは撮像レンズの半径である。 The camera parameter calculation unit 22 stores in advance a lens distortion correction coefficient for correcting lens distortion of the imaging lens included in the imaging unit 12 and a radius value of the imaging lens in the storage unit. An equation for calculating a two-dimensional coordinate value obtained by correcting lens distortion from a two-dimensional coordinate value in the captured image is, for example, Equation (4). By substituting the two-dimensional coordinate value (x y) of the image plane for (x d y d ) in Equation (4), a coordinate value (x y) with corrected lens distortion can be obtained. In Expression (4), k 1 , k 2 , and k 3 are lens distortion correction coefficients indicating the lens distortion in the radial direction of the imaging lens, and p 1 and p 2 represent the lens distortion in the circumferential direction of the imaging lens. It is a lens distortion correction coefficient shown. R is the radius of the imaging lens.

Figure 0005494267
Figure 0005494267

次に、三次元形状計測装置1の座標変換パラメーター計算処理について説明する。図6は、三次元形状計測装置1が実行する座標変換パラメーター計算処理の手順を示すフローチャートである。キャリブレーション用ブロック100が載置台40に載置された後、三次元形状計測装置1が計測制御部21に対して座標変換パラメーター計算処理の動作開始指示を供給すると、同図に示すフローチャートの処理が開始される。   Next, the coordinate conversion parameter calculation process of the three-dimensional shape measuring apparatus 1 will be described. FIG. 6 is a flowchart illustrating a procedure of coordinate conversion parameter calculation processing executed by the three-dimensional shape measurement apparatus 1. After the calibration block 100 is mounted on the mounting table 40, when the three-dimensional shape measurement apparatus 1 supplies an operation start instruction for coordinate conversion parameter calculation processing to the measurement control unit 21, the processing of the flowchart shown in FIG. Is started.

ステップS11において、計測制御部21は、光源部11に対してスリット光の照射開始を指示する。そして、この指示を受けた光源部11は、スリット光SLの照射を開始する。
次に、ステップS12において、撮像部12−1,12−2は、被写体であるキャリブレーション用ブロック100をそれぞれ撮像し、各撮像画像データを光切断線検出部23に供給する。
In step S <b> 11, the measurement control unit 21 instructs the light source unit 11 to start irradiation with slit light. And the light source part 11 which received this instruction | indication starts irradiation of slit light SL.
Next, in step S <b> 12, the imaging units 12-1 and 12-2 image the calibration block 100 that is a subject, and supply each captured image data to the optical section line detection unit 23.

次に、ステップS13において、光切断線検出部23は、二つの撮像画像データを取り込んで、撮像画像領域IA−1,IA−2それぞれにキャリブレーション用ブロック100の上面101に映る輝線LLの輝線画像があるか否かを判定する。具体的には、光切断線検出部23は、撮像画像領域IAごとに、例えば、ウィンドウWをジグザグスキャンさせて、ウィンドウWの内部から輝度の高いオブジェクトを探索する。光切断線検出部23は、輝度の高いオブジェクトを検出した場合に輝線LLがあると推定する。一方、光切断線検出部23は、輝度の高いオブジェクトを検出しない場合に輝線LLがないと推定する。そして、光切断線検出部23は、撮像画像領域IA−1,IA−2のいずれか一方に輝線LLがないと推定した場合には、載置台40の位置の調整が必要であると判定する(S13:YES)。一方、光切断線検出部23は、撮像画像領域IA−1,IA−2のいずれとも輝線LLがあると推定した場合には、載置台40の位置の調整は不要であると判定する(S13:NO)。   Next, in step S <b> 13, the light section line detection unit 23 takes in the two captured image data, and the bright lines of the bright lines LL appearing on the upper surface 101 of the calibration block 100 in each of the captured image areas IA- 1 and IA- 2. It is determined whether there is an image. Specifically, the light section line detection unit 23 searches, for example, the window W in a zigzag scan for each captured image area IA, and searches for an object with high luminance from the inside of the window W. The light section line detection unit 23 estimates that there is a bright line LL when an object with high luminance is detected. On the other hand, the light section line detection unit 23 estimates that there is no bright line LL when an object with high brightness is not detected. Then, when it is estimated that there is no bright line LL in either one of the captured image areas IA-1 and IA-2, the light section line detection unit 23 determines that the position of the mounting table 40 needs to be adjusted. (S13: YES). On the other hand, the light section line detection unit 23 determines that the adjustment of the position of the mounting table 40 is unnecessary when it is estimated that the bright line LL is present in both the captured image areas IA-1 and IA-2 (S13). : NO).

光切断線検出部23が載置台40の位置の調整が必要であると判定した場合(S13:YES)、ステップS14において、光切断線検出部23は、計測制御部21に対し、載置台駆動部30を制御して載置台40を所定ステップだけ移動させるよう制御する。そして、載置台駆動部30は、その制御に基づいて載置台40を移動させる。ステップS12からステップS14までの処理は、光切断線検出部23が載置台40の位置の調整は不要であると判定するまで繰り返される。載置台40の移動方向は載置面のXY平面上を二次元的に移動するよう予め設定されている。   When the light section line detection unit 23 determines that the position of the mounting table 40 needs to be adjusted (S13: YES), the light section line detection unit 23 drives the mounting table with respect to the measurement control unit 21 in step S14. The unit 30 is controlled so as to move the mounting table 40 by a predetermined step. And the mounting base drive part 30 moves the mounting base 40 based on the control. The processing from step S12 to step S14 is repeated until the light cutting line detector 23 determines that the adjustment of the position of the mounting table 40 is unnecessary. The moving direction of the mounting table 40 is set in advance so as to move two-dimensionally on the XY plane of the mounting surface.

一方、光切断線検出部23が載置台40の位置の調整が不要であると判定した場合(S13:NO)、ステップS15において、光切断線検出部23は、前述したように撮像画像領域IA−1,IA−2それぞれから輝度の重心位置を求める処理を行って光切断線をそれぞれ検出する。
次に、ステップS16において、特徴点検出部24は、撮像画像領域IA−1から得られた光切断線の特徴点を検出してxy座標系の二次元座標値を取得する。そして、特徴点検出部24は、撮像画像領域IA−2から得られた光切断線の特徴点を検出してx’y’座標系の二次元座標値を取得する。次に、特徴点検出部24は、記憶部からレンズ歪補正係数を読み込み、式(4)にしたがってレンズ歪を補正した二次元座標値を計算する。
On the other hand, when the light section line detection unit 23 determines that the adjustment of the position of the mounting table 40 is not necessary (S13: NO), in step S15, the light section line detection unit 23 detects the captured image area IA as described above. -1 and IA-2 are each subjected to processing for obtaining the barycentric position of the luminance, and the light section line is detected.
Next, in step S <b> 16, the feature point detection unit 24 detects a feature point of the light section line obtained from the captured image area IA- 1 and acquires a two-dimensional coordinate value in the xy coordinate system. Then, the feature point detection unit 24 detects the feature point of the light section line obtained from the captured image area IA-2, and acquires the two-dimensional coordinate value of the x′y ′ coordinate system. Next, the feature point detection unit 24 reads a lens distortion correction coefficient from the storage unit, and calculates a two-dimensional coordinate value in which the lens distortion is corrected according to Expression (4).

次に、ステップS17において、座標変換パラメーター計算部25は、レンズ歪補正後のxy座標系とx’y’座標系との座標変換パラメーターを計算する。
ここで、座標変換パラメーター計算部25が実行する座標変換パラメーターの計算処理について具体的に説明する。光源部11から射出されるスリット光SLの空間における広がりは面とみなすことができ、その面は下記の式(5)のように表すことができる。なお、式(5)において、A,B,Cは、スリット光の面を規定する係数であり、これらの係数A,B,Cは予め記憶部に記憶されている。また、Zは、キャリブレーション用ブロック100の高さ寸法値であり、この高さ寸法値はリファレンスデータに含まれている。
Next, in step S <b> 17, the coordinate conversion parameter calculation unit 25 calculates coordinate conversion parameters between the xy coordinate system and the x′y ′ coordinate system after the lens distortion correction.
Here, the coordinate conversion parameter calculation processing executed by the coordinate conversion parameter calculation unit 25 will be specifically described. The spread of the slit light SL emitted from the light source unit 11 in the space can be regarded as a surface, and the surface can be expressed as the following equation (5). In Equation (5), A, B, and C are coefficients that define the surface of the slit light, and these coefficients A, B, and C are stored in advance in the storage unit. Z is the height dimension value of the calibration block 100, and this height dimension value is included in the reference data.

Figure 0005494267
Figure 0005494267

ここで、以下の説明を簡単にするために、式(3)のq(ボールド体)=s・M(ボールド体)・W(ボールド体)・Q(ボールド体)を下記の式(6)に置き換える。   Here, in order to simplify the following description, q (bold body) = s · M (bold body) · W (bold body) · Q (bold body) in equation (3) is expressed by the following equation (6): Replace with

Figure 0005494267
Figure 0005494267

つまり、式(6)において、pij(1≦i≦3,1≦j≦4)の要素で構成される3行4列の行列は、s・M(ボールド体)・W(ボールド体)・Q(ボールド体)に対応する。
式(6)を展開すると、撮像画像領域IAにおける二次元座標値のx成分は、下記の式(7)として表される。
That is, in Equation (6), a 3 × 4 matrix composed of elements of p ij (1 ≦ i ≦ 3, 1 ≦ j ≦ 4) is expressed as s · M (bold body) · W (bold body). -Corresponds to Q (bold).
When Expression (6) is expanded, the x component of the two-dimensional coordinate value in the captured image area IA is expressed as Expression (7) below.

Figure 0005494267
Figure 0005494267

同様に、式(6)を展開すると、撮像画像領域IAにおける二次元座標値のy成分は、下記の式(8)として表される。   Similarly, when Expression (6) is expanded, the y component of the two-dimensional coordinate value in the captured image area IA is expressed as Expression (8) below.

Figure 0005494267
Figure 0005494267

式(5)および式(7)より、下記の式(9)が導かれる。   From the equations (5) and (7), the following equation (9) is derived.

Figure 0005494267
Figure 0005494267

同様に、式(5)および式(7)より、下記の式(10)が導かれる。   Similarly, the following equation (10) is derived from the equations (5) and (7).

Figure 0005494267
Figure 0005494267

式(8),(9),(10)より、下記の式(11)が導かれる。   The following expression (11) is derived from the expressions (8), (9), and (10).

Figure 0005494267
Figure 0005494267

式(11)から分かるように、撮像画像領域IAにおける二次元座標値(x y)は、カメラパラメーターおよびキャリブレーション用ブロック100の高さ寸法値によって決定される直線である。   As can be seen from the equation (11), the two-dimensional coordinate value (xy) in the captured image area IA is a straight line determined by the camera parameter and the height dimension value of the calibration block 100.

撮像部12−1,12−2が同一の輝線LLを撮像した場合、式(9)は下記の式(12)のように表される。なお、式(12)において、撮像部12−1の各パラメーターには添字αを付与し、撮像部12−2の各パラメーターには添字βを付与して表す。   When the imaging units 12-1 and 12-2 capture the same bright line LL, Expression (9) is expressed as the following Expression (12). In Expression (12), each parameter of the imaging unit 12-1 is given a suffix α, and each parameter of the imaging unit 12-2 is given a suffix β.

Figure 0005494267
Figure 0005494267

式(12)をxαについて整理すると、下記の式(13)になる。 If equation (12) will be summarized x alpha, becomes the following equation (13).

Figure 0005494267
Figure 0005494267

つまり、座標変換パラメーター計算部25は、xy座標系とx’y’座標系との各直線上の点を線形変換によって対応付けることができる。式(13)におけるK,Lが座標変換パラメーターである。なお、座標変換パラメーター計算部25は、xα,xβに対応するyα,yβを、式(11)により求める。
式(13)を整理すると、座標変換パラメーターK,Lは、下記の式(14)のように表される。
That is, the coordinate conversion parameter calculation unit 25 can associate the points on each straight line between the xy coordinate system and the x′y ′ coordinate system by linear conversion. K and L in the equation (13) are coordinate transformation parameters. In addition, the coordinate conversion parameter calculation unit 25 obtains y α and y β corresponding to x α and x β by Expression (11).
When the equation (13) is arranged, the coordinate conversion parameters K and L are expressed as the following equation (14).

Figure 0005494267
Figure 0005494267

座標変換パラメーター計算部25は、式(14)により求めた座標変換パラメーターK,Lを記憶部に記憶し、図6のフローチャートの処理を終了する。   The coordinate conversion parameter calculation unit 25 stores the coordinate conversion parameters K and L obtained by Expression (14) in the storage unit, and ends the process of the flowchart of FIG.

三次元形状計測装置1は、高さ寸法値の異なる複数のキャリブレーション用ブロック100それぞれについて、図6に示す座標変換パラメーター計算処理を実行する。そして、座標変換パラメーター計算部25は、高さ寸法ごとの座標変換パラメーターを線形補間して得られる座標変換パラメーターを記憶部に記憶する。このようにすることにより、任意の高さの対応関係を簡易且つ短時間に得ることができる。   The three-dimensional shape measuring apparatus 1 executes a coordinate conversion parameter calculation process shown in FIG. 6 for each of a plurality of calibration blocks 100 having different height dimension values. Then, the coordinate conversion parameter calculation unit 25 stores a coordinate conversion parameter obtained by linear interpolation of the coordinate conversion parameter for each height dimension in the storage unit. By doing in this way, the correspondence of arbitrary height can be obtained simply and in a short time.

次に、三次元形状計測装置1の通常計測モードの動作について説明する。通常計測モードにおいて、撮像部12−1,12−2は、それぞれ計測対象物体を撮像して撮像画像データを光切断線検出部23に供給する。そして、光切断線検出部23は、これらの撮像画像データを取り込み、xy座標系の撮像画像領域IA−1とx’y’座標系の撮像画像領域IA−2とのそれぞれから光切断線を検出する。次に、特徴点検出部24は、xy座標系における特徴点の二次元座標値と、x’y’座標系における特徴点の二次元座標値とを取得する。次に、座標変換パラメーター計算部25は、記憶部から座標変換パラメーターを読み込み、x’y’座標系をxy座標系に線形変換してxy座標系の仮想的な画像領域を構築し、そのxy座標系における特徴点の二次元座標値を記憶部に記憶する。   Next, the operation in the normal measurement mode of the three-dimensional shape measurement apparatus 1 will be described. In the normal measurement mode, the imaging units 12-1 and 12-2 respectively capture the measurement target object and supply the captured image data to the light section line detection unit 23. Then, the light section line detection unit 23 takes in these captured image data, and generates a light section line from each of the captured image area IA-1 in the xy coordinate system and the captured image area IA-2 in the x′y ′ coordinate system. To detect. Next, the feature point detection unit 24 acquires the two-dimensional coordinate value of the feature point in the xy coordinate system and the two-dimensional coordinate value of the feature point in the x′y ′ coordinate system. Next, the coordinate conversion parameter calculation unit 25 reads the coordinate conversion parameter from the storage unit, linearly converts the x′y ′ coordinate system to the xy coordinate system, and constructs a virtual image region of the xy coordinate system, and the xy thereof. The two-dimensional coordinate value of the feature point in the coordinate system is stored in the storage unit.

上述したとおり、本発明の第1実施形態である三次元形状計測装置1によれば、座標変換パラメーター計算部25が、撮像部12−1,12−2が撮像した各撮像画像におけるキャリブレーション用ブロック100の光切断線の特徴点の二次元座標値を単一座標系の二次元座標値に変換するための座標変換パラメーターを計算する。この座標変換パラメーターを求めておくことにより、三次元形状計測装置1は、撮像方向の異なる撮像部12−1,12−2それぞれから得られる撮像画像を容易につなぎ合わせて単一の画像平面を構築することができる。キャリブレーション用ブロック100は、撮像部12−1,12−2がそれぞれ撮像可能なように載置台40に置かれるだけでよい。また、キャリブレーションにおいて、光切断線の詳細なスキャンを必要としないため、三次元形状計測装置1によれば、簡便な作業で短時間にキャリブレーションを行うことができる。   As described above, according to the three-dimensional shape measurement apparatus 1 according to the first embodiment of the present invention, the coordinate conversion parameter calculation unit 25 is used for calibration in each captured image captured by the imaging units 12-1 and 12-2. A coordinate conversion parameter for converting the two-dimensional coordinate value of the feature point of the light cutting line of the block 100 into the two-dimensional coordinate value of the single coordinate system is calculated. By obtaining these coordinate conversion parameters, the three-dimensional shape measuring apparatus 1 can easily connect the captured images obtained from the imaging units 12-1 and 12-2 having different imaging directions to form a single image plane. Can be built. The calibration block 100 only needs to be placed on the mounting table 40 so that the imaging units 12-1 and 12-2 can respectively capture images. Further, since the calibration does not require detailed scanning of the light section line, the three-dimensional shape measuring apparatus 1 can perform calibration in a short time with a simple operation.

[第2の実施の形態]
本発明の第2実施形態は、上述した第1実施形態における三次元形状計測装置1の機能をロボット装置に組み込んだ形態である。この第2実施形態において第1実施形態と同一の構成については同一の符号を付してその説明を省略する。
[Second Embodiment]
The second embodiment of the present invention is a form in which the function of the three-dimensional shape measuring apparatus 1 in the first embodiment described above is incorporated in a robot apparatus. In this 2nd Embodiment, about the structure same as 1st Embodiment, the same code | symbol is attached | subjected and the description is abbreviate | omitted.

図7は、本発明の第2実施形態であるロボット装置がキャリブレーションを行っている様子を模式的に示した、ロボット装置およびキャリブレーション用ブロックの概略の図である。同図に示すように、ロボット装置2は、ロボット本体50と、光源部11と、載置台40とを含んで構成される。そして、載置台40には、キャリブレーション用ブロック100が載置されている。
ロボット本体50は、地面に固定された支持台51と、旋回および屈伸動作が可能なアーム部52と、回転および首振り動作が可能なハンド部53と、ハンド部53に取り付けられた撮像部12とを含んで構成される。ロボット本体50は、支持台51とアーム部52とハンド部53との組み合わせが6軸の自由度を有し、撮像部12の位置および向きを自在に変更可能な検査ロボットである。
なお、ロボット本体50の自由度は3軸以上あればよい。また、支持台51は、地面の他に壁や天井等の地面に対して固定された場所に設置してもよい。
FIG. 7 is a schematic diagram of the robot apparatus and the calibration block schematically showing how the robot apparatus according to the second embodiment of the present invention performs calibration. As shown in the figure, the robot apparatus 2 includes a robot body 50, a light source unit 11, and a mounting table 40. A calibration block 100 is mounted on the mounting table 40.
The robot main body 50 includes a support base 51 fixed to the ground, an arm portion 52 capable of turning and bending, a hand portion 53 capable of rotating and swinging, and an imaging unit 12 attached to the hand portion 53. It is comprised including. The robot body 50 is an inspection robot in which the combination of the support base 51, the arm unit 52, and the hand unit 53 has six degrees of freedom, and the position and orientation of the imaging unit 12 can be freely changed.
The robot body 50 may have three or more degrees of freedom. Moreover, you may install the support stand 51 in the place fixed with respect to the grounds, such as a wall and a ceiling other than the ground.

次に、三次元形状計測装置1の機能構成について説明する。図8は、ロボット装置2の主要な機能構成を示すブロック図である。なお、同図において、図7に示した構成と同一の構成については同一の符号を付す。図8に示すように、ロボット装置2は、光源部11と、制御部20aと、載置台駆動部30と、載置台40と、ロボット本体50とを備える。以下、図7および図8を併せ参照してロボット装置2の機能構成について説明する。   Next, the functional configuration of the three-dimensional shape measuring apparatus 1 will be described. FIG. 8 is a block diagram illustrating a main functional configuration of the robot apparatus 2. In the figure, the same components as those shown in FIG. As shown in FIG. 8, the robot apparatus 2 includes a light source unit 11, a control unit 20 a, a mounting table driving unit 30, a mounting table 40, and a robot body 50. Hereinafter, the functional configuration of the robot apparatus 2 will be described with reference to FIGS. 7 and 8 together.

制御部20aは、ロボット装置2全体を制御するものであり、例えば、キャリブレーションモードと通常計測モードとを、外部から供給される選択信号によって切替える制御を行う。制御部20aは、CPU(Central Processing Unit)と記憶部と(いずれも不図示)を含んで構成され、その機能上、計測制御部21aと、カメラパラメーター計算部22aと、光切断線検出部23aと、特徴点検出部24と、座標変換パラメーター計算部25とを含む。   The control unit 20a controls the entire robot apparatus 2, and performs, for example, control for switching between a calibration mode and a normal measurement mode by a selection signal supplied from the outside. The control unit 20a includes a CPU (Central Processing Unit) and a storage unit (both not shown), and in terms of its functions, the measurement control unit 21a, the camera parameter calculation unit 22a, and the light section line detection unit 23a. And a feature point detection unit 24 and a coordinate conversion parameter calculation unit 25.

計測制御部21aは、光源部11と載置台駆動部30とロボット本体50とを制御する。具体的には、計測制御部21aは、光源部11に対して、スリット光SLの射出の開始および停止を制御する。また、計測制御部21aは、撮像部12に対して、チェッカーパターンのテストチャートを撮像させて、撮像画像データをカメラパラメーター計算部22aに供給させる制御を行う。また、計測制御部21aは、撮像部12に対して、計測対象物体に映った輝線LLを撮像させて、撮像画像データを光切断線検出部23aに供給させる制御を行う。また、計測制御部21aは、載置台駆動部30に対して、載置面上X方向およびY方向の少なくとも一方向に載置台40を移動させたり、載置面の略中心位置を中心点として載置台40を回転させたりする制御を行う。また、計測制御部21aは、ロボット本体50に対して支持台51とアーム部52とハンド部53とを複合的に動作させて撮像部12を三次元空間中の第1の位置と第2の位置とに設定することができる。
なお、この第1および第2の位置とは、撮像部12の撮像レンズの光軸の方向を変更することも含む。
The measurement control unit 21 a controls the light source unit 11, the mounting table driving unit 30, and the robot body 50. Specifically, the measurement control unit 21a controls the light source unit 11 to start and stop the emission of the slit light SL. The measurement control unit 21a controls the imaging unit 12 to image a checker pattern test chart and supply the captured image data to the camera parameter calculation unit 22a. In addition, the measurement control unit 21a controls the imaging unit 12 to capture the bright line LL reflected in the measurement target object and supply the captured image data to the light section line detection unit 23a. Further, the measurement control unit 21a moves the mounting table 40 in at least one of the X direction and the Y direction on the mounting surface with respect to the mounting table driving unit 30, or uses the approximate center position of the mounting surface as a central point. Control which rotates the mounting base 40 is performed. In addition, the measurement control unit 21a operates the support base 51, the arm unit 52, and the hand unit 53 in a complex manner with respect to the robot main body 50 so that the imaging unit 12 is moved to the first position and the second position in the three-dimensional space. Can be set to position.
Note that the first and second positions include changing the direction of the optical axis of the imaging lens of the imaging unit 12.

カメラパラメーター計算部22aは、キャリブレーションモードにおいて、撮像部12から供給される撮像画像データを取り込み、撮像部12の位置および向きごとに、撮像画像に含まれるチェッカーパターンの二次元座標値に基づいてカメラキャリブレーションを行う。
光切断線検出部23aは、キャリブレーションモードおよび通常計測モードにおいて、撮像部12から供給される撮像画像データを順次取り込み、撮像部12の位置および向きごとに、撮像画像データの撮像画像領域IA−1,IA−2それぞれから光切断線を検出する。なお、撮像部12の第1の位置で撮像された撮像画像データの撮像画像領域が撮像画像領域IA−1であり、撮像部12の第2の位置で撮像された撮像画像データの撮像画像領域が撮像画像領域IA−2である。
In the calibration mode, the camera parameter calculation unit 22a captures captured image data supplied from the imaging unit 12, and based on the two-dimensional coordinate values of the checker pattern included in the captured image for each position and orientation of the imaging unit 12. Perform camera calibration.
The light section line detection unit 23a sequentially captures the captured image data supplied from the imaging unit 12 in the calibration mode and the normal measurement mode, and the captured image area IA- of the captured image data for each position and orientation of the imaging unit 12. 1 and IA-2 detect the optical cutting line. The captured image area of the captured image data captured at the first position of the imaging unit 12 is the captured image area IA-1, and the captured image area of the captured image data captured at the second position of the imaging unit 12 Is the captured image area IA-2.

次に、ロボット装置8のキャリブレーションモードの動作について説明する。キャリブレーションモードの処理は、カメラパラメーター計算処理と座標変換パラメーター計算処理とを含む。まず、ロボット装置2のカメラパラメーター計算処理について説明する。ロボット装置2が実行する撮像部12についてのカメラパラメーター計算処理の手順は、第1実施形態で説明した図5に示したフローチャートによる手順と同様である。よって、同図を参照して、ロボット装置2が実行する撮像部12についてのカメラパラメーター計算処理の手順を説明する。チェッカーパターンのテストチャートが載置台40に載置された後、ロボット装置2が計測制御部21aに対してカメラパラメーター計算処理の動作開始指示を供給すると、同図に示すフローチャートの処理が開始される。   Next, the operation in the calibration mode of the robot apparatus 8 will be described. The calibration mode process includes a camera parameter calculation process and a coordinate conversion parameter calculation process. First, camera parameter calculation processing of the robot apparatus 2 will be described. The procedure of the camera parameter calculation process for the imaging unit 12 executed by the robot apparatus 2 is the same as the procedure according to the flowchart shown in FIG. 5 described in the first embodiment. Therefore, the procedure of the camera parameter calculation process for the imaging unit 12 executed by the robot apparatus 2 will be described with reference to FIG. After the test chart of the checker pattern is placed on the placing table 40, when the robot apparatus 2 supplies an operation start instruction for camera parameter calculation processing to the measurement control unit 21a, the processing of the flowchart shown in FIG. .

ステップS1において、計測制御部21aは、第1の位置に設定された撮像部12を制御して、テストチャートのチェッカーパターンを撮像させる。次に、撮像部12は、撮像画像データをカメラパラメーター計算部22に供給する。
次に、ステップS2において、計測制御部21aは、予め設定された所定枚数分のチェッカーパターンの撮像を行ったか否かを判定し、所定枚数分の撮像を完了していないと判定した場合(S2:NO)はステップS3の処理に移り、所定枚数分の撮像を完了したと判定した場合(S2:YES)はステップS4の処理に移る。
In step S1, the measurement control unit 21a controls the imaging unit 12 set to the first position to image the checker pattern of the test chart. Next, the imaging unit 12 supplies the captured image data to the camera parameter calculation unit 22.
Next, in step S2, the measurement control unit 21a determines whether or not a predetermined number of checker patterns that have been set in advance have been imaged, and determines that the predetermined number of images has not been captured (S2). : NO) proceeds to the process of step S3, and when it is determined that the predetermined number of images have been captured (S2: YES), the process proceeds to step S4.

ステップS3において、計測制御部21aは、載置台駆動部30を制御し、予め設定された所定角度分だけ例えば時計回転方向に載置台40を回転させて、ステップS1の処理に戻る。
ステップS4において、カメラパラメーター計算部22は、所定枚数の撮像画像データを取得すると、撮像画像ごとにチェッカーパターンの特徴点の二次元座標値を抽出し、抽出した特徴点同士の対応付けを行ってカメラパラメーターを計算し記憶部に記憶する。そして、このフローチャートの処理を終了する。
In step S3, the measurement control unit 21a controls the mounting table driving unit 30 to rotate the mounting table 40 by a predetermined angle set in advance, for example, in the clockwise direction, and returns to the process of step S1.
In step S4, when the camera parameter calculation unit 22 acquires a predetermined number of captured image data, the camera parameter calculation unit 22 extracts the two-dimensional coordinate values of the feature points of the checker pattern for each captured image, and associates the extracted feature points with each other. The camera parameters are calculated and stored in the storage unit. And the process of this flowchart is complete | finished.

ロボット装置2は、第2の位置に設定された撮像部12についても図5のフローチャートの手順に従ってカメラパラメーターを計算し記憶部に記憶する。
なお、カメラパラメーター計算部22のカメラパラメーターの計算処理については、第1実施形態と同一であるため、その説明を省略する。
The robot apparatus 2 calculates camera parameters for the imaging unit 12 set at the second position in accordance with the procedure of the flowchart of FIG.
Note that the camera parameter calculation process of the camera parameter calculation unit 22 is the same as that of the first embodiment, and thus the description thereof is omitted.

次に、ロボット装置2の座標変換パラメーター計算処理について説明する。図9は、ロボット装置2が実行する座標変換パラメーター計算処理の手順を示すフローチャートである。キャリブレーション用ブロック100が載置台40に載置された後、ロボット装置2が計測制御部21aに対して座標変換パラメーター計算処理の動作開始指示を供給すると、同図に示すフローチャートの処理が開始される。   Next, the coordinate conversion parameter calculation process of the robot apparatus 2 will be described. FIG. 9 is a flowchart illustrating a procedure of coordinate conversion parameter calculation processing executed by the robot apparatus 2. After the calibration block 100 is mounted on the mounting table 40, when the robot apparatus 2 supplies an operation start instruction for coordinate conversion parameter calculation processing to the measurement control unit 21a, the processing of the flowchart shown in FIG. The

ステップS31において、計測制御部21aは、光源部11に対してスリット光の照射開始を指示する。そして、この指示を受けた光源部11は、スリット光SLの照射を開始する。
次に、ステップS32において、計測制御部21aは、撮像部12を第1の位置に設定するようロボット本体50を制御する。そして、ロボット本体50は、支持台51とアーム部52とハンド部53とを制御して撮像部12を第1の位置に設定する。次に、撮像部12は、被写体であるキャリブレーション用ブロック100を撮像し、撮像画像データを光切断線検出部23aに供給する。
次に、計測制御部21aは、撮像部12を第2の位置に設定するようロボット本体50を制御する。そして、ロボット本体50は、支持台51とアーム部52とハンド部53とを制御して撮像部12を第2の位置に設定する。次に、撮像部12は、被写体であるキャリブレーション用ブロック100を撮像し、撮像画像データを光切断線検出部23aに供給する。
In step S31, the measurement control unit 21a instructs the light source unit 11 to start irradiation of slit light. And the light source part 11 which received this instruction | indication starts irradiation of slit light SL.
Next, in step S32, the measurement control unit 21a controls the robot main body 50 so as to set the imaging unit 12 to the first position. Then, the robot main body 50 controls the support base 51, the arm unit 52, and the hand unit 53 to set the imaging unit 12 to the first position. Next, the imaging unit 12 images the calibration block 100 that is a subject, and supplies the captured image data to the light section line detection unit 23a.
Next, the measurement control unit 21a controls the robot body 50 so as to set the imaging unit 12 to the second position. Then, the robot body 50 controls the support base 51, the arm unit 52, and the hand unit 53 to set the imaging unit 12 to the second position. Next, the imaging unit 12 images the calibration block 100 that is a subject, and supplies the captured image data to the light section line detection unit 23a.

次に、ステップS33において、光切断線検出部23は、撮像画像データを順次取り込んで、撮像画像領域IA−1,IA−2それぞれにキャリブレーション用ブロック100の上面101に映る輝線LLの輝線画像があるか否かを判定する。輝線LLがあるか否かの推定方法の具体的内容は、第1実施形態と同様であるため、その説明を省略する。光切断線検出部23aは、撮像画像領域IA−1,IA−2のいずれか一方に輝線LLがないと推定した場合には、載置台40の位置の調整が必要であると判定する(S33:YES)。一方、光切断線検出部23aは、撮像画像領域IA−1,IA−2のいずれとも輝線LLがあると推定した場合には、載置台40の位置の調整は不要であると判定する(S33:NO)。   Next, in step S <b> 33, the light section line detection unit 23 sequentially captures the captured image data, and the bright line images of the bright lines LL displayed on the upper surface 101 of the calibration block 100 in each of the captured image areas IA-1 and IA-2. It is determined whether or not there is. The specific content of the estimation method for determining whether there is a bright line LL is the same as that in the first embodiment, and thus the description thereof is omitted. When it is estimated that the bright line LL is not present in either one of the captured image areas IA-1 and IA-2, the light section line detection unit 23a determines that the position of the mounting table 40 needs to be adjusted (S33). : YES) On the other hand, when it is estimated that the bright line LL exists in both the captured image areas IA-1 and IA-2, the light section line detection unit 23a determines that the adjustment of the position of the mounting table 40 is unnecessary (S33). : NO).

光切断線検出部23aが載置台40の位置の調整が必要であると判定した場合(S33:YES)、ステップS34において、光切断線検出部23aは、計測制御部21aに対し、載置台駆動部30を制御して載置台40を所定ステップだけ移動させるよう制御する。そして、載置台駆動部30は、その制御に基づいて載置台40を移動させる。ステップS32からステップS34までの処理は、光切断線検出部23aが載置台40の位置の調整は不要であると判定するまで繰り返される。載置台40の移動方向は載置面のXY平面上を二次元的に移動するよう予め設定されている。   When the light section line detection unit 23a determines that the position of the mounting table 40 needs to be adjusted (S33: YES), in step S34, the light section line detection unit 23a drives the mounting table with respect to the measurement control unit 21a. The unit 30 is controlled so as to move the mounting table 40 by a predetermined step. And the mounting base drive part 30 moves the mounting base 40 based on the control. The processing from step S32 to step S34 is repeated until the light cutting line detection unit 23a determines that the adjustment of the position of the mounting table 40 is unnecessary. The moving direction of the mounting table 40 is set in advance so as to move two-dimensionally on the XY plane of the mounting surface.

一方、光切断線検出部23aが載置台40の位置の調整が不要であると判定した場合(S33:NO)、ステップS35において、光切断線検出部23aは、前述したように撮像画像領域IA−1,IA−2それぞれから輝度の重心位置を求める処理を行って光切断線をそれぞれ検出する。
次のステップS36およびステップS37の処理は、図6に示した第1実施形態における座標変換パラメーター計算処理のステップS16およびステップS17の処理と同様であるため、説明を省略する。
On the other hand, when the light section line detection unit 23a determines that the adjustment of the position of the mounting table 40 is unnecessary (S33: NO), in step S35, the light section line detection unit 23a, as described above, the captured image area IA. -1 and IA-2 are each subjected to processing for obtaining the barycentric position of the luminance, and the light section line is detected.
The processing of the next step S36 and step S37 is the same as the processing of step S16 and step S17 of the coordinate transformation parameter calculation processing in the first embodiment shown in FIG.

ロボット装置2は、高さ寸法値の異なる複数のキャリブレーション用ブロック100それぞれについて、図9に示す座標変換パラメーター計算処理を実行する。そして、座標変換パラメーター計算部25は、高さ寸法ごとの座標変換パラメーターを線形補間して高さ寸法に応じた座標変換パラメーターを計算して記憶部に記憶する。   The robot apparatus 2 executes the coordinate conversion parameter calculation process shown in FIG. 9 for each of the plurality of calibration blocks 100 having different height dimension values. Then, the coordinate conversion parameter calculation unit 25 performs linear interpolation on the coordinate conversion parameter for each height dimension, calculates a coordinate conversion parameter corresponding to the height dimension, and stores it in the storage unit.

次に、ロボット装置2の通常計測モードの動作について説明する。通常計測モードにおいて、計測制御部21aは、撮像部12を第1の位置に設定するようロボット本体50を制御する。そして、ロボット本体50は、支持台51とアーム部52とハンド部53とを制御して撮像部12を第1の位置に設定する。次に、撮像部12は、計測対象物体を撮像して撮像画像データを光切断線検出部23aに供給する。次に、計測制御部21aは、撮像部12を第2の位置に設定するようロボット本体50を制御する。そして、ロボット本体50は、支持台51とアーム部52とハンド部53とを制御して撮像部12を第2の位置に設定する。次に、撮像部12は、計測対象物体を撮像して撮像画像データを光切断線検出部23aに供給する。   Next, the operation in the normal measurement mode of the robot apparatus 2 will be described. In the normal measurement mode, the measurement control unit 21a controls the robot main body 50 so as to set the imaging unit 12 to the first position. Then, the robot main body 50 controls the support base 51, the arm unit 52, and the hand unit 53 to set the imaging unit 12 to the first position. Next, the imaging unit 12 images the measurement target object and supplies the captured image data to the light section line detection unit 23a. Next, the measurement control unit 21a controls the robot body 50 so as to set the imaging unit 12 to the second position. Then, the robot body 50 controls the support base 51, the arm unit 52, and the hand unit 53 to set the imaging unit 12 to the second position. Next, the imaging unit 12 images the measurement target object and supplies the captured image data to the light section line detection unit 23a.

光切断線検出部23aは、撮像画像データを順次取り込み、xy座標系の撮像画像領域IA−1とx’y’座標系の撮像画像領域IA−2とのそれぞれから光切断線を検出する。次に、特徴点検出部24は、xy座標系における特徴点の二次元座標値と、x’y’座標系における特徴点の二次元座標値とを取得する。次に、座標変換パラメーター計算部25は、記憶部から座標変換パラメーターを読み込み、x’y’座標系をxy座標系に線形変換してxy座標系の仮想的な画像領域を構築し、そのxy座標系における特徴点の二次元座標値を記憶部に記憶する。   The light section line detection unit 23a sequentially captures captured image data, and detects a light section line from each of the captured image area IA-1 in the xy coordinate system and the captured image area IA-2 in the x′y ′ coordinate system. Next, the feature point detection unit 24 acquires the two-dimensional coordinate value of the feature point in the xy coordinate system and the two-dimensional coordinate value of the feature point in the x′y ′ coordinate system. Next, the coordinate conversion parameter calculation unit 25 reads the coordinate conversion parameter from the storage unit, linearly converts the x′y ′ coordinate system to the xy coordinate system, and constructs a virtual image region of the xy coordinate system, and the xy thereof. The two-dimensional coordinate value of the feature point in the coordinate system is stored in the storage unit.

上述したとおり、本発明の第2実施形態であるロボット装置2によれば、座標変換パラメーター計算部25が、撮像部12が2箇所の位置で撮像した各撮像画像におけるキャリブレーション用ブロック100の光切断線の特徴点の二次元座標値を単一座標系の二次元座標値に変換するための座標変換パラメーターを計算する。この座標変換パラメーターを求めておくことにより、ロボット装置2は、撮像位置の異なる撮像部12から順次得られる撮像画像を容易につなぎ合わせて単一の画像平面を構築することができる。キャリブレーション用ブロック100は、撮像部12が2箇所の位置で撮像可能なように載置台40に置かれるだけでよい。また、キャリブレーションにおいて、光切断線の詳細なスキャンを必要としないため、ロボット装置2によれば、簡便な作業で短時間にキャリブレーションを行うことができる。   As described above, according to the robot apparatus 2 according to the second embodiment of the present invention, the coordinate transformation parameter calculation unit 25 uses the light of the calibration block 100 in each captured image captured by the imaging unit 12 at two positions. A coordinate conversion parameter for converting the two-dimensional coordinate value of the feature point of the cutting line into the two-dimensional coordinate value of the single coordinate system is calculated. By obtaining the coordinate conversion parameters, the robot apparatus 2 can easily connect the captured images sequentially obtained from the imaging units 12 with different imaging positions to construct a single image plane. The calibration block 100 need only be placed on the mounting table 40 so that the imaging unit 12 can capture images at two positions. Further, since the calibration does not require detailed scanning of the light section line, the robot apparatus 2 can perform calibration in a short time with a simple operation.

なお、上述した第1実施形態および第2実施形態では、キャリブレーション用ブロック100は、載置台40の載置面と当該キャリブレーション用ブロック100の上面101との距離(高さ寸法)が異なる複数の固体ブロックのうちの一つであるものとした。これ以外にも、例えば、高さ寸法の異なる複数の平面を設けた固体ブロックを用いるようにしてもよい。
図10は、高さ寸法の異なる複数の平面を設けたキャリブレーション用ブロックの外観の斜視図である。同図に示すように、キャリブレーション用ブロック200は、4段の階段形状部を有して一体的に形成されている。なお、階段は必ずしも4段である必要はなく複数段あればよい。キャリブレーション用ブロック200は中空または凹型であってもよい。キャリブレーション用ブロック200は、その底部201を載置台40の載置面に合わせて載置するものであり、底部201は設置の安定性を確保するために、面または少なくとも4箇所の支持部を有している。底部201と反対側の階段形状部には、底部201の載置面と平行であり、且つ垂直方向の寸法がそれぞれ異なる段上平面202a−202dが設けられている。
キャリブレーション用ブロック100を用いる場合は、作業者によるキャリブレーション用ブロック100の置換作業が発生するが、キャリブレーション用ブロック200を用いる場合は、そのような置換作業は発生せず作業性を向上させることができる。
In the first and second embodiments described above, the calibration block 100 has a plurality of different distances (height dimensions) between the placement surface of the placement table 40 and the upper surface 101 of the calibration block 100. One of the solid blocks. In addition to this, for example, a solid block provided with a plurality of planes having different height dimensions may be used.
FIG. 10 is a perspective view of the appearance of a calibration block provided with a plurality of planes having different height dimensions. As shown in the figure, the calibration block 200 is integrally formed with four steps. Note that the number of steps is not necessarily four, but may be a plurality of steps. The calibration block 200 may be hollow or concave. The calibration block 200 is mounted with its bottom 201 aligned with the mounting surface of the mounting table 40, and the bottom 201 has a surface or at least four support portions in order to ensure stability of installation. Have. Stepped planes 202a to 202d that are parallel to the mounting surface of the bottom 201 and have different vertical dimensions are provided on the step-shaped portion opposite to the bottom 201.
When the calibration block 100 is used, replacement work of the calibration block 100 by the operator occurs. However, when the calibration block 200 is used, such replacement work does not occur and the workability is improved. be able to.

また、キャリブレーション用ブロック100の上面101、またはキャリブレーション用ブロック200の段上平面202a−202dの少なくとも一つの段上平面にチェッカーパターンをパターンニングしてもよい。このようにすることによって、カメラパラメーターを求める際のチェッカーパターンのテストチャートの代わりにキャリブレーション用ブロック100,200を用いることができ、作業性を向上させることができる。   Further, the checker pattern may be patterned on the upper surface 101 of the calibration block 100 or at least one of the step planes 202a to 202d of the calibration block 200. In this way, the calibration blocks 100 and 200 can be used instead of the checker pattern test chart for obtaining the camera parameters, and workability can be improved.

また、第1実施形態では、2台の撮像部12(撮像部12−1,12−2)を用いる例について説明したが、撮像部12の台数はこれに限定されず複数台を適用することができる。例えば、3台の撮像部12(撮像部12−1,12−2,12−3)を用いる場合、撮像部12−1,12−2の2台について第1実施形態と同様にしてキャリブレーションを行い、さらに、撮像部12−2,12−3の2台について第1実施形態と同様のキャリブレーションを行う。これにより、撮像部12−1,12−2,12−3を対応付けることができる。   In the first embodiment, the example using two imaging units 12 (imaging units 12-1 and 12-2) has been described. However, the number of imaging units 12 is not limited to this, and a plurality of imaging units 12 may be applied. Can do. For example, when three imaging units 12 (imaging units 12-1, 12-2, 12-3) are used, calibration is performed for the two imaging units 12-1, 12-2 in the same manner as in the first embodiment. Further, the same calibration as that of the first embodiment is performed for the two imaging units 12-2 and 12-3. Thereby, the imaging units 12-1, 12-2, and 12-3 can be associated with each other.

また、第2実施形態では、撮像部12を2種類の位置および向きに設定する例について説明したが、これに限定されずさらに多くの位置および向きに設定することもできる。例えば、3種類の位置および向きに設定する場合、第1および第2の位置について、第2実施形態と同様にしてキャリブレーションを行い、さらに、第2および第3の位置について、第2実施系値亜と同様のキャリブレーションを行う。これにより、第1〜第3の位置に設定される撮像部12を対応付けることができる。   Moreover, although 2nd Embodiment demonstrated the example which sets the imaging part 12 to two types of positions and directions, it is not limited to this, It can also set to more positions and directions. For example, when three types of positions and orientations are set, the first and second positions are calibrated in the same manner as in the second embodiment, and the second and third positions are set in the second implementation system. Perform the same calibration as the value sub. Thereby, the imaging part 12 set to the 1st-3rd position can be matched.

なお、上述した実施形態である三次元形状計測装置の一部、例えば、制御部の機能をコンピュータで実現するようにしてもよい。この場合、その制御機能を実現するためのキャリブレーション・プログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたキャリブレーション・プログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OS(Operating System)や周辺機器のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、光ディスク、メモリカード等の可搬型記録媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持するものを含んでもよい。また上記のプログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせにより実現するものであってもよい。   In addition, you may make it implement | achieve the function of a part of three-dimensional shape measuring apparatus which is embodiment mentioned above, for example, a control part with a computer. In this case, a calibration program for realizing the control function is recorded on a computer-readable recording medium, and the calibration program recorded on the recording medium is read by the computer system and executed. May be. Here, the “computer system” includes an OS (Operating System) and hardware of peripheral devices. The “computer-readable recording medium” refers to a portable recording medium such as a flexible disk, a magneto-optical disk, an optical disk, and a memory card, and a storage device such as a hard disk built in the computer system. Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory in a computer system serving as a server or a client in that case may be included and a program that holds a program for a certain period of time may be included. Further, the above program may be for realizing a part of the functions described above, or may be realized by a combination with the program already recorded in the computer system. .

以上、本発明の実施形態について図面を参照して詳述したが、具体的な構成はこの実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計等も含まれる。   As mentioned above, although embodiment of this invention was explained in full detail with reference to drawings, the concrete structure is not restricted to this embodiment, The design etc. of the range which does not deviate from the summary of this invention are included.

1 三次元形状計測装置
2 ロボット装置
10 光学測定部
11 光源部
12,12−1,12−2 撮像部
20,20a 制御部
21,21a 計測制御部
22 カメラパラメーター計算部
23,23a 光切断線検出部
24 特徴点検出部
25 座標変換パラメーター計算部
30 載置台駆動部
40 載置台
50 ロボット本体
51 支持台
52 アーム部
53 ハンド部
100,200 キャリブレーション用ブロック
201 底部
202a,202b,202c,202d 段上平面
IA,IA−1,IA−2 撮像画像領域
LL,LL−1,LL−2 輝線
p1,p2 点
p1a,p2a,p1b,p2b 特徴点
SL スリット光
W ウィンドウ
DESCRIPTION OF SYMBOLS 1 Three-dimensional shape measuring apparatus 2 Robot apparatus 10 Optical measurement part 11 Light source part 12, 12-1, 12-2 Imaging part 20, 20a Control part 21, 21a Measurement control part 22 Camera parameter calculation part 23, 23a Light cutting line detection Unit 24 feature point detection unit 25 coordinate conversion parameter calculation unit 30 mounting table driving unit 40 mounting table 50 robot body 51 support table 52 arm unit 53 hand unit 100, 200 calibration block 201 bottom 202a, 202b, 202c, 202d Plane IA, IA-1, IA-2 Captured image area LL, LL-1, LL-2 Bright lines p1, p2 points p1a, p2a, p1b, p2b Feature points SL Slit light W Window

Claims (5)

光源部が射出したスリット光の照射部分に映る光切断線を、複数の撮像部が撮像して三次元形状計測を行う三次元形状計測装置において、
キャリブレーション用ブロックと、
前記複数の撮像部それぞれが撮像した複数の撮像画像から、前記キャリブレーション用ブロックに照射された前記スリット光による光切断線をそれぞれ検出する光切断線検出部と、
前記光切断線検出部がそれぞれ検出した複数の光切断線から特徴点の座標値をそれぞれ検出する特徴点検出部と、
前記スリット光の面を表す式と前記複数の撮像部それぞれのカメラパラメーターと前記キャリブレーション用ブロックの高さ寸法値とに基づいて、前記複数の撮像画像それぞれにおける特徴点の座標値を単一の座標系の座標値に変換するための座標変換パラメーターを計算する座標変換パラメーター計算部と、
を備えることを特徴とする三次元形状計測装置。
In the three-dimensional shape measuring apparatus in which a plurality of imaging units pick up the light cutting line reflected in the slit light irradiation part emitted by the light source unit and measure the three-dimensional shape,
A calibration block;
A light cutting line detection unit that detects a light cutting line by the slit light emitted to the calibration block from a plurality of captured images captured by the plurality of imaging units, and
A feature point detection unit that detects coordinate values of feature points from a plurality of light cutting lines respectively detected by the light cutting line detection unit;
Based on the equation representing the surface of the slit light, the camera parameters of each of the plurality of imaging units, and the height dimension value of the calibration block, the coordinate value of the feature point in each of the plurality of captured images is a single value. A coordinate conversion parameter calculation unit for calculating a coordinate conversion parameter for converting to a coordinate value of the coordinate system;
A three-dimensional shape measuring apparatus comprising:
前記キャリブレーション用ブロックは、前記スリット光が照射されるべき平面を有するとともに、前記平面が当該三次元形状計測装置のキャリブレーションの基準面と平行となるように設けられることを特徴とする請求項1記載の三次元形状計測装置。   The calibration block has a plane on which the slit light is to be irradiated, and is provided so that the plane is parallel to a calibration reference plane of the three-dimensional shape measuring apparatus. 3. The three-dimensional shape measuring apparatus according to 1. 前記座標変換パラメーター計算部は、前記キャリブレーション用ブロックの複数の高さ寸法値それぞれに応じて複数の座標変換パラメーターを計算し、前記複数の座標変換パラメーターを線形補間することを特徴とする請求項1または2記載の三次元形状計測装置。 The coordinate transformation parameter calculating section claims wherein in response to the calibration for a plurality of height values of the block are calculated a plurality of coordinate conversion parameters, characterized by linearly interpolating the plurality of coordinate conversion parameters The three-dimensional shape measuring apparatus according to 1 or 2 . 光源部が射出したスリット光の照射部分に映る光切断線を、複数の撮像部が撮像して三次元形状計測を行う三次元形状計測装置のキャリブレーション方法において、
前記複数の撮像部それぞれが撮像した複数の撮像画像から、キャリブレーション用ブロックに照射された前記スリット光による光切断線をそれぞれ検出する光切断線検出ステップと、
前記光切断線検出ステップにおいて検出した複数の光切断線から特徴点の座標値をそれぞれ検出する特徴点検出ステップと、
前記スリット光の面を表す式と前記複数の撮像部それぞれのカメラパラメーターと前記キャリブレーション用ブロックの高さ寸法値とに基づいて、前記複数の撮像画像それぞれにおける特徴点の座標値を単一の座標系の座標値に変換するための座標変換パラメーターを計算する座標変換パラメーター計算ステップと、
を有することを特徴とする三次元形状計測装置のキャリブレーション方法。
In a calibration method of a three-dimensional shape measuring apparatus in which a plurality of imaging units pick up a light cutting line reflected in an irradiation portion of slit light emitted from a light source unit and measure a three-dimensional shape,
A light cutting line detection step for detecting a light cutting line by the slit light emitted to the calibration block from a plurality of captured images captured by the plurality of imaging units, respectively;
A feature point detection step of detecting coordinate values of feature points from the plurality of light cutting lines detected in the light cutting line detection step;
Based on the equation representing the surface of the slit light, the camera parameters of each of the plurality of imaging units, and the height dimension value of the calibration block, the coordinate value of the feature point in each of the plurality of captured images is a single value. A coordinate conversion parameter calculation step for calculating a coordinate conversion parameter for converting to a coordinate value of the coordinate system;
A method for calibrating a three-dimensional shape measuring apparatus, comprising:
光源部が射出したスリット光の照射部分に映る光切断線を、撮像部が撮像して三次元形状計測を行うロボット装置において、
キャリブレーション用ブロックと、
前記撮像部が取り付けられたハンド部と、
前記ハンド部が可動自在に取り付けられたアーム部と、
前記ハンド部と前記アーム部とを複合的に動作させて前記撮像部の位置を変更させるとともに、その変更した位置において前記撮像部に撮像させる計測制御部と、
前記複数の撮像部それぞれが撮像した複数の撮像画像から、前記キャリブレーション用ブロックに照射された前記スリット光による光切断線をそれぞれ検出する光切断線検出部と、
前記光切断線検出部がそれぞれ検出した複数の光切断線から特徴点の座標値をそれぞれ検出する特徴点検出部と、
前記スリット光の面を表す式と前記複数の撮像部それぞれのカメラパラメーターと前記キャリブレーション用ブロックの高さ寸法値とに基づいて、前記複数の撮像画像それぞれにおける特徴点の座標値を単一の座標系の座標値に変換するための座標変換パラメーターを計算する座標変換パラメーター計算部と、
を備えることを特徴とするロボット装置。
In the robot apparatus in which the imaging unit images the light cutting line reflected in the slit light irradiation part emitted from the light source unit and performs the three-dimensional shape measurement,
A calibration block;
A hand unit to which the imaging unit is attached;
An arm part to which the hand part is movably attached;
A measurement control unit that operates the hand unit and the arm unit in combination to change the position of the imaging unit, and causes the imaging unit to image at the changed position;
A light cutting line detection unit that detects a light cutting line by the slit light emitted to the calibration block from a plurality of captured images captured by the plurality of imaging units, and
A feature point detection unit that detects coordinate values of feature points from a plurality of light cutting lines respectively detected by the light cutting line detection unit;
Based on the equation representing the surface of the slit light, the camera parameters of each of the plurality of imaging units, and the height dimension value of the calibration block, the coordinate value of the feature point in each of the plurality of captured images is a single value. A coordinate conversion parameter calculation unit for calculating a coordinate conversion parameter for converting to a coordinate value of the coordinate system;
A robot apparatus comprising:
JP2010135839A 2010-06-15 2010-06-15 Three-dimensional shape measuring apparatus, calibration method for three-dimensional shape measuring apparatus, and robot apparatus Expired - Fee Related JP5494267B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010135839A JP5494267B2 (en) 2010-06-15 2010-06-15 Three-dimensional shape measuring apparatus, calibration method for three-dimensional shape measuring apparatus, and robot apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010135839A JP5494267B2 (en) 2010-06-15 2010-06-15 Three-dimensional shape measuring apparatus, calibration method for three-dimensional shape measuring apparatus, and robot apparatus

Publications (2)

Publication Number Publication Date
JP2012002564A JP2012002564A (en) 2012-01-05
JP5494267B2 true JP5494267B2 (en) 2014-05-14

Family

ID=45534740

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010135839A Expired - Fee Related JP5494267B2 (en) 2010-06-15 2010-06-15 Three-dimensional shape measuring apparatus, calibration method for three-dimensional shape measuring apparatus, and robot apparatus

Country Status (1)

Country Link
JP (1) JP5494267B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012018580B4 (en) * 2012-09-20 2015-06-11 Jenoptik Industrial Metrology Germany Gmbh Measuring device and measuring method for in-process measurement on test specimens during a machining operation on a processing machine, in particular a grinding machine
JP5865988B1 (en) 2014-12-19 2016-02-17 三菱電機株式会社 Rotation sensor
WO2019168250A1 (en) * 2018-02-28 2019-09-06 주식회사 코미코 Three-dimensional shape image acquisition system
TWI732506B (en) * 2019-04-22 2021-07-01 日商新川股份有限公司 Line shape measuring device, line three-dimensional image generating method, and line shape measuring method
JP2023131124A (en) * 2022-03-08 2023-09-21 株式会社三松 Surface shape measurement device
CN116878419B (en) * 2023-09-06 2023-12-01 南京景曜智能科技有限公司 Rail vehicle limit detection method and system based on three-dimensional point cloud data and electronic equipment

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07239219A (en) * 1990-04-30 1995-09-12 Korea Mach Res Inst Method and device for measuring profile shape of tire edge without contact
JPH08292019A (en) * 1995-04-20 1996-11-05 Mazda Motor Corp Calibration method for article detecting device
JP3245003B2 (en) * 1995-05-15 2002-01-07 株式会社東芝 Distance measuring apparatus and method
JP2003270719A (en) * 2002-03-13 2003-09-25 Osaka Industrial Promotion Organization Projection method, projector, and method and system for supporting work
JP3977776B2 (en) * 2003-03-13 2007-09-19 株式会社東芝 Stereo calibration device and stereo image monitoring device using the same
JP4021413B2 (en) * 2004-01-16 2007-12-12 ファナック株式会社 Measuring device

Also Published As

Publication number Publication date
JP2012002564A (en) 2012-01-05

Similar Documents

Publication Publication Date Title
US20210160471A1 (en) Motion blur compensation
US8390794B2 (en) Optical instrument and method for obtaining distance and image information
JP4607095B2 (en) Method and apparatus for image processing in surveying instrument
JP5494267B2 (en) Three-dimensional shape measuring apparatus, calibration method for three-dimensional shape measuring apparatus, and robot apparatus
US8368875B2 (en) Optical instrument and method for obtaining distance and image information
JP5073256B2 (en) POSITION MEASUREMENT DEVICE, POSITION MEASUREMENT METHOD, AND POSITION MEASUREMENT PROGRAM
JP6504274B2 (en) Three-dimensional shape data and texture information generation system, imaging control program, three-dimensional shape data and texture information generation method, and information recording medium
US8633983B2 (en) Feature detection apparatus and method for measuring object distances
CN112102387B (en) Test method and test system based on depth estimation performance of depth camera
JPWO2018168757A1 (en) Image processing apparatus, system, image processing method, article manufacturing method, program
JP2018189497A (en) Method and device for three-dimensional measurement using feature quantity
JP2014145735A (en) Shape measurement device, structure production system, evaluation device, shape measurement method, structure production method, and shape measurement program
JP5487946B2 (en) Camera image correction method, camera apparatus, and coordinate transformation parameter determination apparatus
JP5494234B2 (en) Three-dimensional shape measuring apparatus, calibration method, and robot
JP2000039310A (en) Method and device for measuring shape
JP2012013592A (en) Calibration method for three-dimensional shape measuring machine, and three-dimensional shape measuring machine
JP2012057996A (en) Image measuring device and image measuring method
JP6921036B2 (en) A laser calibrator, a method for calibrating the laser, and an image input device including the laser calibrator.
JP2002022424A (en) Three-dimensional measuring apparatus
JP4077755B2 (en) POSITION DETECTION METHOD, DEVICE THEREOF, PROGRAM THEREOF, AND CALIBRATION INFORMATION GENERATION METHOD
JP2010204759A (en) Coordinate calibration method for three-dimensional image display device
JP2009092409A (en) Three-dimensional shape measuring device
JP2012013593A (en) Calibration method for three-dimensional shape measuring machine, and three-dimensional shape measuring machine
JP2011220752A (en) Three-dimensional shape measurement apparatus and calibration method for three-dimensional shape measurement apparatus
JP3997751B2 (en) 3D shape measuring apparatus and 3D shape measuring method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130315

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131112

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140217

R150 Certificate of patent or registration of utility model

Ref document number: 5494267

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees