JP2022152480A - Three-dimensional measuring device, three-dimensional measuring method, program, system, and method for manufacturing article - Google Patents

Three-dimensional measuring device, three-dimensional measuring method, program, system, and method for manufacturing article Download PDF

Info

Publication number
JP2022152480A
JP2022152480A JP2021055267A JP2021055267A JP2022152480A JP 2022152480 A JP2022152480 A JP 2022152480A JP 2021055267 A JP2021055267 A JP 2021055267A JP 2021055267 A JP2021055267 A JP 2021055267A JP 2022152480 A JP2022152480 A JP 2022152480A
Authority
JP
Japan
Prior art keywords
parameters
dimensional
predetermined
unit
measuring device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021055267A
Other languages
Japanese (ja)
Inventor
英則 橋口
Hidenori Hashiguchi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2021055267A priority Critical patent/JP2022152480A/en
Publication of JP2022152480A publication Critical patent/JP2022152480A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Manipulator (AREA)

Abstract

To provide a three-dimensional measuring device that can accurately calculate three-dimensional information on an object even within a relatively large measuring range.SOLUTION: A three-dimensional measuring device has a plurality of imaging units whose magnifications or focus positions can be changed, and the magnification or the focus position when picking up an image of an object is selected from a plurality of predetermined positions. The three-dimensional measuring device has: a selection unit that selects, from a plurality of first parameters related to the plurality of magnifications of the plurality of imaging units or a relative position attitude between the plurality of imaging units at the plurality of focus positions, a first parameter corresponding to a predetermined magnification or a predetermined focus position as a parameter for calculation; and an operation unit that, on the basis of an image of the object and the parameter for calculation, calculates three-dimensional information on the object the image of which is picked up at the predetermined magnification or at the predetermined focus position.SELECTED DRAWING: Figure 7

Description

本発明は、3次元計測装置、3次元計測方法、プログラム、システム、及び物品の製造方法に関する。 The present invention relates to a three-dimensional measuring device, a three-dimensional measuring method, a program, a system, and an article manufacturing method.

従来から、複数のカメラ(撮像ユニット)により撮像された視差のある複数の画像に基づいて、3次元再構成を行い、3次元情報を生成する3次元測距装置等の3次元計測装置が知られている。3次元計測装置において、精度の高い測距(計測)を実現するためには、複数のカメラそれぞれについて、内部パラメータ、並びに、外部パラメータに関する正確な情報が必要である。なお、内部パラメータは焦点距離、主点位置、及び、歪みパラメータ等の情報であり、外部パラメータは複数のカメラの相対位置及び姿勢の情報である。 Conventionally, a three-dimensional measuring device such as a three-dimensional distance measuring device that generates three-dimensional information by performing three-dimensional reconstruction based on a plurality of images with parallax captured by a plurality of cameras (imaging units) has been known. It is In order to achieve highly accurate distance measurement (measurement) in a three-dimensional measurement apparatus, accurate information on internal parameters and external parameters is required for each of a plurality of cameras. Note that the intrinsic parameters are information such as focal length, principal point position, and distortion parameters, and the extrinsic parameters are information about relative positions and orientations of a plurality of cameras.

その対応のため、非特許文献1では、校正パターン平板を3次元測距装置からの距離を変えながら計測することを開示している。これによって、撮像ユニットの内部パラメータと外部パラメータを計測し、キャリブレーションパラメータ(内部パラメータと外部パラメータ)として記憶し、そのキャリブレーションパラメータを用いて撮像画像を校正することが記載されている。 In order to deal with this, Non-Patent Document 1 discloses measuring the calibration pattern flat plate while changing the distance from the three-dimensional distance measuring device. This document describes that the internal parameters and external parameters of the imaging unit are measured, stored as calibration parameters (internal parameters and external parameters), and the captured image is calibrated using the calibration parameters.

また、一般に、3次元測距装置の計測範囲を拡大するため、ズーム(倍率)及びフォーカス調整機構を備えた光学系が用いられる。このような3次元測距装置において、ズーム及びフォーカス調整機構を操作した場合の対応として、特許文献1では、ズーム及びフォーカスの組み合わせから最も近い状態の内部パラメータもしくは近傍の複数の状態から補間した内部パラメータを用いる。そして、当該内部パラメータにより3次元再構築する。これにより精度の高い測距を実現している。 Further, in general, an optical system having a zoom (magnification) and focus adjustment mechanism is used in order to expand the measurement range of the three-dimensional distance measuring device. In such a three-dimensional distance measuring device, as a response to the operation of the zoom and focus adjustment mechanism, in Patent Document 1, an internal parameter interpolated from a state closest to the combination of zoom and focus or a plurality of neighboring states Use parameters. Then, three-dimensional reconstruction is performed using the internal parameters. This enables highly accurate distance measurement.

特許第4858263号公報Japanese Patent No. 4858263 ”A flexible new technique for camera calibration” Z.Zhang,IEEE Transactions on Pattern Analysis and Machine Intelligence, vol.22, no.11, pp.1330-1334, 2000.``A flexible new technique for camera calibration'' Z. Zhang, IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 22, no. 11, pp. 1330-1334, 2000.

しかしながら、ズーム及びフォーカス調整機構を操作した場合には、レンズ駆動が発生するため、レンズ偏心等の可能性があり、通常は変化しないと考える外部パラメータも微妙に変化する。 However, when the zoom and focus adjustment mechanisms are operated, the lens is driven, so there is a possibility of lens eccentricity and the like, and external parameters that are usually considered to be unchanged also change subtly.

そのため、外部パラメータをズーム及びフォーカス位置に関わらず、共通とすると、測距精度の低下が発生してしまう。さらに、測距時とキャリブレーションパラメータ取得時のズーム及びフォーカス条件の微小な違いからも、測距精度の低下が発生してしまう。その対策として、キャリブレーションパラメータを、補間によって推測する方法も提案されているが、ズーム及びフォーカス条件に対してキャリブレーションパラメータが非線形になる場合もあり、測距精度の低下の回避が難しい。 Therefore, if the external parameter is made common regardless of the zoom and focus positions, the accuracy of distance measurement will be degraded. Further, even a slight difference in the zoom and focus conditions when measuring the distance and when obtaining the calibration parameters also causes a decrease in accuracy of distance measurement. As a countermeasure, a method of estimating the calibration parameters by interpolation has been proposed, but the calibration parameters may become non-linear with respect to the zoom and focus conditions, and it is difficult to avoid a decrease in distance measurement accuracy.

本発明は、比較的大きな計測範囲でも対象物の3次元情報を高精度に算出可能な3次元計測装置を提供することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide a three-dimensional measurement apparatus capable of calculating three-dimensional information of an object with high precision even in a relatively large measurement range.

上記目的を達成するために、本発明の一側面としての3次元計測装置は、倍率またはフォーカス位置を変更可能な複数の撮像部を有する3次元計測装置において、対象物を撮像する際の倍率またはフォーカス位置は、予め定められた複数の位置の中から選択され、複数の撮像部の複数の倍率または複数のフォーカス位置における複数の撮像部間の相対位置姿勢に関する複数の第1パラメータから、所定の倍率または所定のフォーカス位置に対応した第1パラメータを算出用パラメータとして選択する選択部と、対象物の画像と算出用パラメータに基づいて、所定の倍率または所定のフォーカス位置で撮像された対象物の3次元情報を算出する演算部と、を有する、ことを特徴とする。 In order to achieve the above object, a three-dimensional measurement apparatus as one aspect of the present invention is a three-dimensional measurement apparatus having a plurality of imaging units capable of changing magnification or focus position, wherein the magnification or The focus position is selected from a plurality of predetermined positions, and a predetermined position is obtained from a plurality of first parameters relating to the relative position and orientation of the plurality of imaging units at the plurality of magnifications of the plurality of imaging units or the plurality of focus positions. a selection unit that selects a first parameter corresponding to a magnification or a predetermined focus position as a calculation parameter; and a calculation unit for calculating three-dimensional information.

本発明によれば、例えば、比較的大きな計測範囲内でも対象物の3次元情報を高精度に算出可能な3次元計測装置を提供することができる。 According to the present invention, for example, it is possible to provide a three-dimensional measurement apparatus capable of calculating three-dimensional information of an object with high accuracy even within a relatively large measurement range.

実施例1の3次元計測装置とキャリブレーション装置の概略図である。1 is a schematic diagram of a three-dimensional measuring device and a calibration device of Example 1; FIG. 実施例1の3次元計測装置の制御演算部の概念図である。4 is a conceptual diagram of a control calculation unit of the three-dimensional measuring device of Example 1. FIG. 実施例1のキャリブレーション装置の校正パターンのイメージ図である。FIG. 4 is an image diagram of a calibration pattern of the calibration device of Example 1; 実施例1の校正フローを例示するフローチャートである。4 is a flowchart illustrating a calibration flow of Example 1; 実施例1のキャリブレーションパラメータの格納状態を例示する図である。4 is a diagram illustrating a storage state of calibration parameters in Example 1; FIG. 実施例1の3次元計測装置の計測時を例示する図である。4A and 4B are diagrams illustrating the measurement time of the three-dimensional measurement apparatus of the first embodiment; FIG. 実施例1の計測フローを例示するフローチャートである。4 is a flowchart illustrating a measurement flow of Example 1; 実施例2の3次元計測装置とキャリブレーション装置の概略図である。FIG. 10 is a schematic diagram of a three-dimensional measuring device and a calibration device of Example 2; 実施例2の校正フローを例示するフローチャートである。10 is a flowchart illustrating a calibration flow of Example 2; 情報処理装置が備え付けられた把持装置を含む制御システムの例を示した図である。1 is a diagram showing an example of a control system including a gripping device equipped with an information processing device; FIG.

以下に、本発明の好適な実施の形態について実施例や添付図面を用いて説明する。なお、各図において、同一の部材ないし要素については同一の参照番号を付し、重複する説明は省略ないし簡略化する。 BEST MODE FOR CARRYING OUT THE INVENTION Preferred embodiments of the present invention will be described below with reference to examples and accompanying drawings. In each figure, the same members or elements are denoted by the same reference numerals, and overlapping descriptions are omitted or simplified.

<実施例1>
まず、実施例1の3次元計測装置のキャリブレーションに関して、図1、図2、及び図3を用いて以下に説明する。図1は、実施例1における3次元計測装置とキャリブレーション装置の概略図である。図2は、3次元計測装置の制御演算部の概念図である。図3は、キャリブレーション装置の校正パターンのイメージ図である。なお、本実施例における3次元計測装置には3次元測距装置も含まれる。
<Example 1>
First, the calibration of the three-dimensional measuring apparatus of Example 1 will be described below with reference to FIGS. 1, 2, and 3. FIG. FIG. 1 is a schematic diagram of a three-dimensional measuring device and a calibration device in Example 1. FIG. FIG. 2 is a conceptual diagram of the control calculation section of the three-dimensional measuring device. FIG. 3 is an image diagram of a calibration pattern of the calibration device. Note that the three-dimensional measuring device in this embodiment also includes a three-dimensional distance measuring device.

実施例1の3次元計測装置は、計測ヘッド10(破線部)と制御演算ユニット(制御演算部)3で構成されうる。計測ヘッド10は更に、被検物を撮像する撮像ユニット1と撮像ユニット2の2つの光学ユニットを含んでいる。また、以下では、後述するステージ101の移動する方向をz軸方向、z軸方向に直行する方向をx軸方向、z軸に対し垂直な方向をy軸方向とする。 The three-dimensional measurement apparatus of Example 1 can be configured with a measurement head 10 (broken line portion) and a control operation unit (control operation section) 3 . The measurement head 10 further includes two optical units, an imaging unit 1 and an imaging unit 2, for imaging the object. Also, hereinafter, the direction in which the stage 101 (to be described later) moves is defined as the z-axis direction, the direction perpendicular to the z-axis direction is defined as the x-axis direction, and the direction perpendicular to the z-axis is defined as the y-axis direction.

撮像ユニット1は、倍率またはフォーカス位置を変更可能に構成され、受光面を有するセンサ素子6と、被検物からの光を受光面に導く撮像レンズ(結像光学系)4を含みうる。撮像ユニット2は、倍率またはフォーカス位置を変更可能に構成され、受光面を有するセンサ素子9と、被検物からの光を受光面に導く撮像レンズ(結像光学系)7を含みうる。センサ素子6及びセンサ素子9は、被検物からの光を受光面で受光して被検物の画像を取得する撮像部として機能する。また、センサ素子6及びセンサ素子9はCMOSやCCDなどの光電変換素子で構成されうる。さらに、撮像レンズ4と撮像レンズ7は、それぞれフォーカスが可変のレンズであり、被検物の位置に応じて、複数の位置の中から選択した位置に、フォーカスを設定可能とする。 The imaging unit 1 is configured such that the magnification or focus position can be changed, and can include a sensor element 6 having a light receiving surface and an imaging lens (imaging optical system) 4 that guides light from a subject to the light receiving surface. The imaging unit 2 is configured such that the magnification or focus position can be changed, and can include a sensor element 9 having a light receiving surface and an imaging lens (imaging optical system) 7 that guides light from the subject to the light receiving surface. The sensor element 6 and the sensor element 9 function as an imaging unit that receives light from a test object on its light receiving surface and obtains an image of the test object. Moreover, the sensor element 6 and the sensor element 9 can be composed of photoelectric conversion elements such as CMOS and CCD. Furthermore, the imaging lens 4 and the imaging lens 7 are lenses with variable focus, and the focus can be set to a position selected from among a plurality of positions according to the position of the object to be inspected.

制御演算部3は、図2で例示するように撮像ユニット1及び撮像ユニット2のフォーカスを制御するフォーカス制御部31を含みうる。さらに、後述する3次元情報を算出するためのパラメータであるキャリブレーションパラメータを格納するキャリブレーションパラメータ格納部(格納部)32を含みうる。さらに、フォーカス制御部31の情報等、各撮像ユニットのフォーカス駆動情報に基づき、格納部32からキャリブレーションパラメータを選択するキャリブレーションパラメータ選択部(選択部)33を含みうる。さらに、撮像ユニット1及び撮像ユニット2で取得した画像と選択部33で選択したキャリブレーションパラメータから距離情報を算出する演算部34とを含みうる。なお、制御演算部3はコンピュータとしてのCPUを内蔵し、不図示のメモリに記憶されたプログラムを実行することによって3次元計測装置やキャリブレーション装置の動作を制御する。 The control calculation unit 3 can include a focus control unit 31 that controls the focus of the imaging unit 1 and the imaging unit 2 as illustrated in FIG. Furthermore, it can include a calibration parameter storage unit (storage unit) 32 that stores calibration parameters, which are parameters for calculating three-dimensional information, which will be described later. Further, a calibration parameter selection unit (selection unit) 33 that selects a calibration parameter from the storage unit 32 based on focus driving information of each imaging unit such as information of the focus control unit 31 can be included. Further, it can include a calculation unit 34 that calculates distance information from the images acquired by the imaging unit 1 and the imaging unit 2 and the calibration parameters selected by the selection unit 33 . The control calculation unit 3 incorporates a CPU as a computer, and controls operations of the three-dimensional measurement device and the calibration device by executing programs stored in a memory (not shown).

実施例1のキャリブレーション装置は、キャリブレーションパラメータを導出するために平面上に2次元グリッド座標が既知である校正パターンを有する校正パターン平板100と、校正パターン平板100を載置するステージ101で構成されうる。また、ステージ101は不図示の制御部及び駆動部を有し、駆動部が動作することによってZ軸方向に移動可能に構成される。なお駆動部の制御は、制御演算部3によって行われてもよい。 The calibration apparatus of Example 1 comprises a calibration pattern plate 100 having a calibration pattern with known two-dimensional grid coordinates on a plane for deriving calibration parameters, and a stage 101 on which the calibration pattern plate 100 is placed. can be Further, the stage 101 has a control unit and a driving unit (not shown), and is configured to be movable in the Z-axis direction by the operation of the driving unit. Note that the control of the drive unit may be performed by the control calculation unit 3 .

校正パターンは、例えば、図3で示すようなドットパターンなどがある。なお、校正パターン平板100としては、印刷などにより位置精度の高い校正パターンが付された基板を採用することができる。また、基準位置にそれぞれグリッド状に開口部や凹凸部が形成されている基板を用いてもよい。 The calibration pattern is, for example, a dot pattern as shown in FIG. As the calibration pattern flat plate 100, a substrate on which a calibration pattern with high positional accuracy is applied by printing or the like can be used. Alternatively, a substrate having grid-like openings and uneven portions at the reference positions may be used.

次に、図4及び図5を参照して、実施例1における校正方法の説明を行う。図4は、実施例1における校正フローを例示するフローチャート図である。図5は、キャリブレーションパラメータの格納状態を例示する図である。なお、制御演算部3が不図示のメモリに記憶されたプログラムを実行することによって図4の各ステップの処理が行われる。 Next, a calibration method according to the first embodiment will be described with reference to FIGS. 4 and 5. FIG. FIG. 4 is a flow chart diagram illustrating the calibration flow in the first embodiment. FIG. 5 is a diagram illustrating a storage state of calibration parameters. 4 is performed by the control calculation unit 3 executing a program stored in a memory (not shown).

まず、ステップ(工程)S101では、ユーザは撮像ユニット1及び撮像ユニット2のそれぞれの複数の特定フォーカス位置の中からそれぞれ一つを選択する。選択後、フォーカス制御部31は、撮像ユニット1及び撮像ユニット2のフォーカスを制御する。 First, in step (process) S<b>101 , the user selects one of a plurality of specific focus positions for each of the imaging unit 1 and imaging unit 2 . After selection, the focus control section 31 controls the focus of the imaging unit 1 and the imaging unit 2 .

ここで、特定フォーカス位置に関して、以下に説明する。特定フォーカス位置とは、3次元計測装置の計測範囲(計測領域)内に設定した離散的な位置である。この設定に当たっては、デフォーカスの影響による計測精度低下を考慮し、設定する。具体的には、計測範囲内で、隣接した特定フォーカス位置において、計測精度が目標精度を達成できる範囲が重複する、即ち、隣接する領域同士が一部重複するように設定する。前述の設定により、計測範囲内の被検物の位置に応じて、常に計測精度が目標精度を達成できるように、特定フォーカス位置を選択できるようになる。 Here, the specific focus position will be described below. A specific focus position is a discrete position set within the measurement range (measurement area) of the three-dimensional measurement device. This setting is made in consideration of the decrease in measurement accuracy due to the influence of defocus. Specifically, within the measurement range, at adjacent specific focus positions, the ranges in which the measurement accuracy can achieve the target accuracy overlap, that is, the adjacent areas are set to partially overlap. With the above setting, it becomes possible to select a specific focus position so that the measurement accuracy always achieves the target accuracy according to the position of the object within the measurement range.

次に、ステップS102では、キャリブレーション装置の制御部は、ステージ101を駆動させ、校正パターン平板100を事前に設定している既知の距離位置にステップ移動させる。次に、制御演算部3は、各ステップ位置で撮像ユニット1及び撮像ユニット2を制御し、撮像ユニット1及び撮像ユニット2のそれぞれで校正パターン平板100を撮像する。 Next, in step S102, the controller of the calibration apparatus drives the stage 101 to move the calibration pattern flat plate 100 stepwise to a preset known distance position. Next, the control calculation section 3 controls the imaging unit 1 and the imaging unit 2 at each step position, and the imaging unit 1 and the imaging unit 2 respectively capture images of the calibration pattern plate 100 .

次に、ステップS103では、制御演算部3は、撮像画像上の校正パターン平板100上に形成された各校正パターンの座標と既知の2次元グリッド座標から撮像ユニット1と撮像ユニット2の内部パラメータ(第2パラメータ)を導出する。さらに、校正パターン平板100に対する撮像ユニット1と撮像ユニット2の相対的な位置及び姿勢(相対位置姿勢)をそれぞれ導出する。その導出手法としては、例えば非特許文献1で示されているZhangの方法により導出することができる。また、内部パラメータとしては、撮像ユニット1と撮像ユニット2の撮像性能である焦点距離、主点位置、及び、歪みパラメータ等が挙げられる。 Next, in step S103, the control calculation unit 3 calculates internal parameters ( second parameter). Further, relative positions and orientations (relative position and orientation) of the imaging units 1 and 2 with respect to the calibration pattern plate 100 are derived. As a derivation method thereof, for example, Zhang's method disclosed in Non-Patent Document 1 can be used. Further, the internal parameters include focal length, principal point position, distortion parameter, etc., which are imaging performance of the imaging unit 1 and the imaging unit 2 .

さらに、制御演算部3は、校正パターン平板100に対する撮像ユニット1及び撮像ユニット2の相対的な位置及び姿勢に基づいて、外部パラメータ(第1パラメータ)である撮像ユニット1及び撮像ユニット2間の相対的な位置及び姿勢を導出する。即ち、それぞれの撮像部間の相対位置姿勢を導出する。 Furthermore, based on the relative positions and orientations of the imaging units 1 and 2 with respect to the calibration pattern plate 100, the control calculation unit 3 calculates the relative position between the imaging units 1 and 2, which is an external parameter (first parameter). derived the position and orientation of the That is, the relative position and orientation between the imaging units are derived.

以上のように、導出した内部パラメータと外部パラメータから成るキャリブレーションパラメータについて導出することができる。キャリブレーションパラメータは、内部パラメータまたは外部パラメータのいずれかをキャリブレーションパラメータとしてもよいが、上記のように内部パラメータ及び外部パラメータから成るキャリブレーションパラメータとすることが好ましい。 As described above, it is possible to derive the calibration parameters consisting of the derived intrinsic parameters and the extrinsic parameters. The calibration parameters may be either internal parameters or external parameters, but are preferably calibration parameters composed of internal parameters and external parameters as described above.

以上の工程により導出した、撮像ユニット1と撮像ユニット2の内部パラメータ及び外部パラメータから成るキャリブレーションパラメータを、制御演算部3によって格納部32に保存(格納)する。 The calibration parameters composed of the internal parameters and the external parameters of the imaging units 1 and 2 derived by the above steps are saved (stored) in the storage unit 32 by the control calculation unit 3 .

キャリブレーションパラメータ導出にあたり、撮像ユニット1及び撮像ユニット2のフォーカスが合っている範囲だけ使用する限定をしてしまうと、内部パラメータの推定に十分なデータ数が得られない事がある。その場合には、撮像ユニット1及び撮像ユニット2の内部パラメータの導出は、それぞれ拡張した範囲で実施し、その内部パラメータを使用して外部パラメータを予測してもよい。拡張した範囲とは、撮像ユニット1の内部パラメータ推定時において、撮像ユニット2のフォーカスが合っていないが、撮像ユニット1のフォーカスが合っており、内部パラメータの推定に使用できる範囲を示している。 When deriving the calibration parameters, if the use is limited to the range where the imaging units 1 and 2 are in focus, it may not be possible to obtain a sufficient number of data for estimating the internal parameters. In that case, the derivation of the intrinsic parameters of imaging unit 1 and imaging unit 2 may each be performed with an expanded range and the intrinsic parameters used to predict the extrinsic parameters. The expanded range indicates a range that can be used for estimating the internal parameters of the imaging unit 1 when the imaging unit 2 is out of focus but the imaging unit 1 is in focus.

次に、ステップS104では、演算部34は、ステップS103で導出したキャリブレーションパラメータにステレオ画像処理を行い、校正パターン平板100及びステージ101によって移動した距離に相当する3次元情報(3次元距離情報)を算出する。ステレオ画像処理は、平行化処理やノイズ除去を行うためのローパスフィルタ等の前処理に加え、エッジ検出等の特徴抽出処理などがある。さらに、正規化相関のブロックマッチング等の処理を用いてステレオ画像間の対応点探索を行い、視差情報を取得するステレオマッチング処理などがある。 Next, in step S104, the calculation unit 34 performs stereo image processing on the calibration parameters derived in step S103, and obtains three-dimensional information (three-dimensional distance information) corresponding to the distance moved by the calibration pattern plate 100 and the stage 101. Calculate Stereo image processing includes feature extraction processing such as edge detection in addition to preprocessing such as a low-pass filter for performing parallelization processing and noise removal. Furthermore, there is a stereo matching process for obtaining parallax information by searching for corresponding points between stereo images using a process such as normalized correlation block matching.

演算部34は、次に、導出した3次元情報と、ステージ101によって移動した既知の距離とを比較し、その差から測定誤差(測距誤差)を算出する。 The computing unit 34 then compares the derived three-dimensional information with the known distance moved by the stage 101, and calculates a measurement error (ranging error) from the difference.

次に、ステップS105では、制御演算部3は、ステップS104で算出した測定誤差と事前に設定した目標精度の比較を行う。比較の結果、測定誤差が目標精度より小さい場合、即ち、目標精度を超えない場合にはステップS104で算出したキャリブレーションパラメータを、3次元情報を算出するための算出用パラメータとして採用し、ステップS106に進む。比較の結果、測定誤差が目標精度より大きい場合、即ち、目標精度を超えた場合には、ステップS103に戻り、測定誤差が目標精度より小さくなるまで、キャリブレーションパラメータの算出(キャリブレーションパラメータの推定)を繰り返す。なお、測定誤差の大小については事前に所定の値または閾値の設定がされてある。 Next, in step S105, the control calculation unit 3 compares the measurement error calculated in step S104 with the preset target accuracy. As a result of the comparison, if the measurement error is smaller than the target accuracy, that is, if it does not exceed the target accuracy, the calibration parameters calculated in step S104 are adopted as calculation parameters for calculating three-dimensional information, and step S106. proceed to As a result of the comparison, if the measurement error is larger than the target accuracy, that is, if the target accuracy is exceeded, the process returns to step S103, and the calibration parameter calculation (calibration parameter estimation) is performed until the measurement error becomes smaller than the target accuracy. )repeat. A predetermined value or threshold is set in advance for the magnitude of the measurement error.

次に、ステップS106では、制御演算部3は、ステップS104で採用したキャリブレーションパラメータを格納部32に保存する。保存の際には、図5で例示するように、選択した特定フォーカス位置に関連付けた状態で、キャリブレーションパラメータをそれぞれ格納部32に保存し、ステップS107に進む。 Next, in step S<b>106 , the control calculation unit 3 stores the calibration parameters adopted in step S<b>104 in the storage unit 32 . When saving, as illustrated in FIG. 5, each calibration parameter is saved in the storage unit 32 while being associated with the selected specific focus position, and the process proceeds to step S107.

次に、ステップS107で、制御演算部3は、全ての特定フォーカス位置でキャリブレーションパラメータの格納が完了したか判定する。全ての特定フォーカス位置でキャリブレーションパラメータの格納がされていない場合は、ステップS101に戻り、特定フォーカス位置を選択し直す。その後、ステップS102~S106までの処理を実施し、全ての特定フォーカス位置でキャリブレーションパラメータの格納がされるまでこれを繰り返す。全ての特定フォーカス位置でキャリブレーションパラメータの格納がされた場合は処理を終了する。 Next, in step S107, the control calculation unit 3 determines whether or not the storage of the calibration parameters has been completed at all the specific focus positions. If the calibration parameters have not been stored for all the specific focus positions, the process returns to step S101 to reselect the specific focus positions. After that, the processing from steps S102 to S106 is performed, and this is repeated until the calibration parameters are stored at all the specific focus positions. If the calibration parameters have been stored for all specific focus positions, the process ends.

以上、ステップS101~S106を繰り返すことにより、全ての特定フォーカス位置に関連付けたキャリブレーションパラメータを格納部32へ保存することができる。つまり、格納部32に保存した各情報は、撮像ユニット1の特定フォーカス位置と撮像ユニット2の特定フォーカス位置との組み合わせにより、キャリブレーションパラメータが一意に決定する情報となっている。キャリブレーションパラメータ選択時には、撮像ユニット1の特定フォーカス位置と撮像ユニット2の特定フォーカス位置の情報に基づき、キャリブレーションパラメータが、選択部33によって選択できる構成となっている。 By repeating steps S101 to S106 as described above, the calibration parameters associated with all the specific focus positions can be stored in the storage unit 32. FIG. In other words, each piece of information stored in the storage unit 32 is information whose calibration parameter is uniquely determined by a combination of the specific focus position of the imaging unit 1 and the specific focus position of the imaging unit 2 . When selecting the calibration parameters, the selection unit 33 can select the calibration parameters based on the information about the specific focus position of the imaging unit 1 and the specific focus position of the imaging unit 2 .

実施例1のキャリブレーションパラメータは、上述したように内部パラメータと外部パラメータを合わせて導出する。合わせて導出する事で、フォーカス位置の変更に伴うレンズ駆動により、レンズ偏心等の可能性から、通常は変化しないと考える外部パラメータにおける微妙に変化する成分も校正が可能となる。 The calibration parameters of Example 1 are derived by combining the internal parameters and the external parameters as described above. By deriving them together, it is possible to calibrate even slightly changing components in external parameters that are normally thought not to change due to the possibility of lens eccentricity, etc., due to lens driving accompanying changes in focus position.

さらに、内部パラメータと外部パラメータは、独立な成分でないため、特定フォーカス位置で、求めた内部パラメータと外部パラメータは、相互に誤差を打ち消している可能性がある。その状態で外部パラメータのみを一定としてしまうと、外部パラメータの誤差が残り続けてしまう可能性がある。前述のように内部パラメータと外部パラメータを一組として使用することによりその影響を排除する事ができる。 Furthermore, since the intrinsic parameter and the extrinsic parameter are not independent components, there is a possibility that the intrinsic parameter and the extrinsic parameter obtained at a specific focus position cancel out each other's errors. If only the extrinsic parameters are kept constant in that state, errors in the extrinsic parameters may continue to remain. By using a set of intrinsic and extrinsic parameters as described above, the effect can be eliminated.

以上が、実施例1における校正方法の説明である。次に、実施例1の3次元計測装置の計測方法に関して図6を参照して以下に説明する。図6は、3次元計測装置の計測時(測距時)を例示する図である。 The above is the description of the calibration method in the first embodiment. Next, the measuring method of the three-dimensional measuring apparatus of Example 1 will be described below with reference to FIG. FIG. 6 is a diagram illustrating the time of measurement (during distance measurement) by the three-dimensional measurement device.

実施例1の3次元計測装置は、上述したように、計測ヘッド10と制御演算部3で構成されうる。また、図6で例示するように、3次元計測装置の計測範囲内(測距範囲内)に、計測対象(測距対象)である被検物21が配置されている。さらに、実施例1の3次元計測装置は、不図示のユーザ入力部を有する。ユーザが、ユーザ入力部より制御演算部3のフォーカス制御部31に、フォーカス位置を入力することで、フォーカス位置の設定が可能となる。 The three-dimensional measurement apparatus of Example 1 can be composed of the measurement head 10 and the control calculation unit 3 as described above. Further, as illustrated in FIG. 6, an object 21 to be measured (distance measurement target) is arranged within the measurement range (distance measurement range) of the three-dimensional measurement device. Furthermore, the three-dimensional measurement apparatus of Example 1 has a user input unit (not shown). The focus position can be set by the user inputting the focus position to the focus control section 31 of the control calculation section 3 from the user input section.

次に、図7を参照して、実施例1の計測方法を以下に説明する。図7は、実施例1の計測フローを例示する図である。なお、制御演算部3が不図示のメモリに記憶されたプログラムを実行することによって図7の各ステップの処理が行われる。 Next, referring to FIG. 7, the measurement method of Example 1 will be described below. FIG. 7 is a diagram illustrating the measurement flow of the first embodiment; 7 is performed by the control calculation unit 3 executing a program stored in a memory (not shown).

まず、ステップS201では、ユーザは特定フォーカス位置の選択を実施する。ユーザは特定フォーカス位置の選択に際し、被検物21の概略位置情報に基づき、不図示のユーザ入力部より撮像ユニット1及び撮像ユニット2それぞれの複数の特定フォーカス位置の中から、それぞれ一つを選択する。ここでは直接、特定フォーカス位置を選択するとしたが、概略位置情報や計測範囲を入力する事で、特定フォーカス位置を制御演算部3によって演算して自動選択する方式としてもよい。また、少なくともどちらかの撮像ユニットで被検物を含む範囲を撮像し、撮像した画像を画面に表示した上で計測物を指定することで、不図示のオートフォーカス機構やラフな測距機構で被検物の概略位置を計測する。当該計測後、その結果から特定フォーカス位置を自動選択するようにしてもよい。 First, in step S201, the user selects a specific focus position. When selecting a specific focus position, the user selects one of a plurality of specific focus positions for each of the imaging unit 1 and the imaging unit 2 using a user input unit (not shown) based on the approximate position information of the test object 21. do. Although the specific focus position is directly selected here, it is also possible to adopt a method of automatically selecting the specific focus position by calculating the specific focus position with the control calculation unit 3 by inputting the approximate position information and the measurement range. In addition, by capturing an image of the range including the test object with at least one of the imaging units, displaying the captured image on the screen, and specifying the measurement object, an autofocus mechanism (not shown) or a rough distance measurement mechanism can be used. Measure the approximate position of the object. After the measurement, the specific focus position may be automatically selected from the result.

次に、ステップS202では、制御演算部3のフォーカス制御部31によって、撮像ユニット1及び撮像ユニット2のフォーカスを、選択された特定フォーカス位置となるように制御し、撮像ユニット1及び撮像ユニット2を駆動させる。この駆動に際しては、前述のキャリブレーションパラメータ格納部に格納された特定フォーカス位置のみへの駆動に限定する。この限定をすることで、計測時の特定フォーカス位置と、キャリブレーション時の特定フォーカス位置を合わせる事が可能となり、正確なキャリブレーションパラメータを選択する事が可能となる。 Next, in step S202, the focus control unit 31 of the control calculation unit 3 controls the focus of the imaging unit 1 and the imaging unit 2 so as to be the selected specific focus position, and the imaging unit 1 and the imaging unit 2 are controlled. drive. This drive is limited to the specific focus position stored in the calibration parameter storage unit. By making this limitation, it becomes possible to match the specific focus position at the time of measurement with the specific focus position at the time of calibration, and it becomes possible to select an accurate calibration parameter.

次に、ステップS203では、ステップS202における特定フォーカス位置への駆動後に、制御演算部3によって撮像ユニット1及び撮像ユニット2を制御し、被検物21を撮像する。これにより被検物21の画像を取得する(撮像工程)。 Next, in step S203, after driving to the specific focus position in step S202, the imaging unit 1 and the imaging unit 2 are controlled by the control arithmetic unit 3, and the subject 21 is imaged. Thereby, an image of the test object 21 is obtained (imaging step).

次に、ステップS204では、制御演算部3は、複数のキャリブレーションパラメータの中から、ステップS201で選択した特定フォーカス位置に対応したキャリブレーションパラメータを格納部32から選択する(選択工程)。 Next, in step S204, the control calculation unit 3 selects from the storage unit 32 the calibration parameter corresponding to the specific focus position selected in step S201 from among a plurality of calibration parameters (selection step).

次に、ステップS205では、ステップS204で選択したキャリブレーションパラメータを使用し、演算部34によって、ステレオ画像処理を行い、被検物21の3次元情報を算出する(演算工程)。ステレオ画像処理には、平行化処理やノイズ除去を行うためのローパスフィルタ等の前処理に加え、エッジ検出等の特徴抽出処理がある。さらに、正規化相関のブロックマッチング等の処理を用いてステレオ画像間の対応点探索を行い、視差情報を取得するステレオマッチング処理などがある。 Next, in step S205, using the calibration parameters selected in step S204, stereo image processing is performed by the calculation unit 34 to calculate three-dimensional information of the test object 21 (calculation step). Stereo image processing includes feature extraction processing such as edge detection in addition to preprocessing such as low-pass filtering for parallelization processing and noise removal. Furthermore, there is a stereo matching process for obtaining parallax information by searching for corresponding points between stereo images using a process such as normalized correlation block matching.

以上、実施例1における計測方法の説明である。実施例1における校正時には、特定フォーカス位置でのキャリブレーションパラメータ算出し、これを格納した。そして、計測時には、特定フォーカス位置のみへの駆動とした。しかし、フォーカスのみでなく、ズーム(倍率)に関しても同様に考える事ができ、特定ズーム位置でのキャリブレーションパラメータ算出と格納、計測時には、特定ズーム位置のみへの駆動とする事で、ズーム駆動が必要な被検物の場合の対応とする事ができる。フォーカス、ズームの両方を具備する装置の場合は、フォーカスとズームの組み合わせ毎にキャリブレーションパラメータを持つことが好ましい。 The above is the description of the measurement method in the first embodiment. At the time of calibration in Example 1, calibration parameters were calculated at a specific focus position and stored. Then, during measurement, driving was performed only to a specific focus position. However, not only focus but also zoom (magnification) can be considered in the same way. By calculating and storing calibration parameters at a specific zoom position and driving only to a specific zoom position during measurement, zoom drive can be reduced. It is possible to deal with the case of a necessary specimen. For devices with both focus and zoom, it is preferable to have calibration parameters for each focus and zoom combination.

また、実施例1では、撮像ユニット1及び撮像ユニット2の全てのフォーカス位置の全ての組み合わせで、撮像ユニット1及び撮像ユニット2のそれぞれの内部パラメータを異なるパラメータとした。しかし、全ての組み合わせで、全て異なるパラメータとすると、格納容量の増大やキャリブレーション時の作業工数が多く掛かってしまう。そこで、撮像ユニット1及び撮像ユニット2のそれぞれの内部パラメータの一部又は全てを共通化する事としてもよい。 In addition, in Example 1, the internal parameters of the imaging units 1 and 2 are different for all combinations of all focus positions of the imaging units 1 and 2 . However, if different parameters are used for all combinations, the storage capacity will increase and the number of man-hours required for calibration will increase. Therefore, some or all of the internal parameters of the imaging unit 1 and the imaging unit 2 may be made common.

例えば、図5で例示している撮像ユニット1が特定フォーカス位置1である場合に、撮像ユニット2の特定フォーカス位置との組み合わせは、複数存在する。この組み合わせおいて、撮像ユニット1はフォーカス位置が共通であるため、内部パラメータ(1,1)、内部パラメータ(2,1)、・・・の内、撮像ユニット1に関わる内部パラメータを共通化できる。この場合においても、撮像ユニット2の特定フォーカス位置を変更した場合には、対応する外部パラメータを算出する。 For example, when the imaging unit 1 illustrated in FIG. 5 is at the specific focus position 1, there are a plurality of combinations with the imaging unit 2 at the specific focus position. In this combination, since the imaging unit 1 has a common focus position, the internal parameters related to the imaging unit 1 can be shared among the internal parameters (1, 1), the internal parameters (2, 1), . . . . Also in this case, when the specific focus position of the imaging unit 2 is changed, the corresponding external parameters are calculated.

つまり、撮像ユニット1の内部パラメータは、共通として、撮像ユニット2の内部パラメータ及び外部パラメータを撮像ユニット2のフォーカス位置との組み合わせに応じて、使用する事としてもよい。言い換えれば、撮像ユニット1、撮像ユニット2のそれぞれのフォーカス位置で、それぞれ独立に内部パラメータを持ち、外部パラメータはそれぞれのフォーカス位置での組み合わせに基づき使用する事としてもよい。 That is, the internal parameters of the imaging unit 1 may be used in common, and the internal parameters and external parameters of the imaging unit 2 may be used according to the combination with the focus position of the imaging unit 2 . In other words, the focus positions of the imaging unit 1 and the imaging unit 2 may each have their own internal parameters independently, and the external parameters may be used based on the combination at each focus position.

また、実施例1では、撮像ユニット1と撮像ユニット2は、計測ヘッド10外で光軸が交わる配置となっている。そのため、通常、撮像ユニット1と撮像ユニット2のフォーカスが同時に合う範囲を空間的に分割すると、分割数が多くなってしまい、キャリブレーションパラメータもその分割数分保有する必要があり、効率的とは言えない。そこで、撮像ユニット1と撮像ユニット2のフォーカス面を略平行とすることで、最小の分割数とする事ができる。具体的には、撮像ユニット1と撮像ユニット2の光軸を平行とする。または撮像ユニット1と撮像ユニット2それぞれのセンサ素子6,9をそれぞれの光軸に垂直な面に対して所定量傾けて配置する、いわゆるシャインプルーフの構成にする事で、フォーカス面を略平行とすることができる。なお、シャインプルーフの構成とするのは、撮像ユニット1または撮像ユニット2のいずれか一方としてもよい。 Further, in Example 1, the imaging unit 1 and the imaging unit 2 are arranged so that their optical axes intersect outside the measurement head 10 . Therefore, normally, when the range in which the imaging units 1 and 2 are simultaneously focused is spatially divided, the number of divisions increases, and calibration parameters must be stored for the number of divisions, which is not efficient. I can not say. Therefore, the number of divisions can be minimized by making the focus planes of the imaging units 1 and 2 approximately parallel to each other. Specifically, the optical axes of the imaging unit 1 and the imaging unit 2 are made parallel. Alternatively, the sensor elements 6 and 9 of the image pickup unit 1 and the image pickup unit 2 are arranged with a predetermined amount of inclination with respect to a plane perpendicular to the respective optical axes, which is a so-called Scheimpflug configuration. can do. Either the imaging unit 1 or the imaging unit 2 may have the Scheimpflug configuration.

撮像ユニット1と撮像ユニット2のフォーカス面を略平行とした場合、撮像ユニット1のフォーカス位置を決めると撮像ユニット2のフォーカス駆動位置を一意的に決定することができる。これにより、図5中の撮像ユニット1と撮像ユニット2の特定フォーカス位置の対角に相当するキャリブレーションパラメータのみとする事ができ、校正方法の煩雑さを大幅に効率化する事が可能となる。 When the focus planes of the image pickup unit 1 and the image pickup unit 2 are substantially parallel, once the focus position of the image pickup unit 1 is determined, the focus driving position of the image pickup unit 2 can be uniquely determined. As a result, only the calibration parameters corresponding to the diagonals of the specific focus positions of the imaging units 1 and 2 in FIG. 5 can be used, and the complexity of the calibration method can be significantly streamlined. .

また、実施例1の3次元計測装置は表示装置(表示部)を備えてもよい。表示装置は、複数の外部パラメータ、内部パラメータ、または選択部33により選択されたキャリブレーションパラメータを表示可能とするようにしてもよい。さらに、不図示の入力部により表示される内容を例えば各撮像ユニットのフォーカスに関する情報や、計測結果などに切り替えられるようにしてもよい。 Moreover, the three-dimensional measurement apparatus of the first embodiment may include a display device (display unit). The display device may display a plurality of external parameters, internal parameters, or calibration parameters selected by the selection unit 33 . Furthermore, the content displayed by an input unit (not shown) may be switched to, for example, information regarding the focus of each imaging unit, measurement results, or the like.

以上、実施例1では、複数のフォーカス位置に対応した外部パラメータと内部パラメータを、3次元情報を算出する際のキャリブレーションパラメータとして選択する。そして、選択したキャリブレーションパラメータと対象物の画像に基づいて、対象物の3次元情報を算出することができる3次元計測装置を提供することができる。これにより、通常は変化しないと考える外部パラメータもキャリブレーションパラメータに組み合わせることで、広い計測範囲と高精度な計測(測距)とを両立することができる。 As described above, in the first embodiment, external parameters and internal parameters corresponding to a plurality of focus positions are selected as calibration parameters when calculating three-dimensional information. Then, it is possible to provide a three-dimensional measuring apparatus capable of calculating three-dimensional information of an object based on the selected calibration parameters and the image of the object. As a result, it is possible to achieve both a wide measurement range and high-precision measurement (distance measurement) by combining the calibration parameters with the external parameters that are normally considered to remain unchanged.

<実施例2>
実施例2の3次元計測装置について、図8を参照して以下に説明する。なお、実施例2の3次元計測装置は、パターンを投影する投影ユニット(投影部)11が追加されている他は、実施例2の3次元計測装置と同様であるため同様の点については説明を省略し、異なる点のみ以下に説明をする。
<Example 2>
A three-dimensional measurement apparatus of Example 2 will be described below with reference to FIG. Note that the three-dimensional measurement apparatus of the second embodiment is the same as the three-dimensional measurement apparatus of the second embodiment except that a projection unit (projection section) 11 for projecting a pattern is added. are omitted, and only different points will be described below.

実施例2の3次元計測装置のキャリブレーションに関して、図8を用いて説明する。図8は、実施例2の3次元計測装置とキャリブレーション装置の概略図である。実施例2の3次元計測装置は、計測ヘッド102(破線部)と制御演算部3で構成され、計測ヘッド102は更に、被検物を撮像する撮像ユニット1と撮像ユニット2と投影ユニット11の3つの光学ユニットを含みうる。 The calibration of the three-dimensional measuring apparatus of Example 2 will be described using FIG. FIG. 8 is a schematic diagram of a three-dimensional measuring device and a calibration device of Example 2. FIG. The three-dimensional measurement apparatus of the second embodiment is composed of a measurement head 102 (broken line portion) and a control operation section 3. The measurement head 102 further includes an imaging unit 1 and an imaging unit 2 for imaging the object to be inspected, and a projection unit 11. It may contain three optical units.

投影ユニット11は、予め設定された既知の光パターン(光強度分布)16を投影する機能を有している。図8においてy軸は光パターン16のラインと平行な方向であり、x軸及びz軸で張られるxz平面は、投影光学系12の物体側主点と撮像レンズ7と撮像レンズ4の像側主点と物点を含む平面である。投影ユニット11は、投影パターン設定素子(パターン形成部)13と、投影光学系12と、を有する。 The projection unit 11 has a function of projecting a preset known light pattern (light intensity distribution) 16 . In FIG. 8, the y-axis is parallel to the line of the light pattern 16, and the xz-plane spanned by the x-axis and z-axis is the object side principal point of the projection optical system 12 and the image side of the imaging lens 7 and imaging lens 4. It is the plane containing the principal point and the object point. The projection unit 11 has a projection pattern setting element (pattern forming section) 13 and a projection optical system 12 .

投影ユニット11は、不図示の光源から出射された光を、光パターンを形成する投影パターン設定素子13に照射し、設定されたパターンを投影光学系12で投影している。投影パターン設定素子13には、液晶素子やDMD(デジタルミラーデバイス)などが用いられ、任意の光パターンを設定することを可能にしている。また、光パターンが可変な素子の代わりに、固定パターンが描画された、固定の光パターンを形成するガラス板を用いてもよい。 The projection unit 11 irradiates a projection pattern setting element 13 that forms a light pattern with light emitted from a light source (not shown), and the projection optical system 12 projects the set pattern. A liquid crystal element, a DMD (digital mirror device), or the like is used for the projection pattern setting element 13, and it is possible to set an arbitrary light pattern. Also, instead of an element with a variable light pattern, a glass plate on which a fixed pattern is drawn and which forms a fixed light pattern may be used.

次に、図9を参照して、実施例2における校正方法の説明を行う。図9は、実施例2における校正フローを例示するフローチャート図である。なお、図4の処理フローと同様の説明については説明を省略する。なお、制御演算部3が不図示のメモリに記憶されたプログラムを実行することによって図9の各ステップの処理が行われる。 Next, with reference to FIG. 9, the calibration method in Example 2 will be described. FIG. 9 is a flow chart diagram illustrating a calibration flow in the second embodiment. It should be noted that the description of the same as the processing flow of FIG. 4 will be omitted. The processing of each step in FIG. 9 is performed by the control calculation unit 3 executing a program stored in a memory (not shown).

まず、ステップS301では、ユーザは撮像ユニット1、撮像ユニット2及び投影ユニット11のそれぞれの複数の特定フォーカス位置の中からそれぞれ一つ選択する。選択後、フォーカス制御部31は、撮像ユニット1、撮像ユニット2及び投影ユニット11のフォーカスを制御する。 First, in step S<b>301 , the user selects one of each of the plurality of specific focus positions of the imaging unit 1 , the imaging unit 2 and the projection unit 11 . After selection, the focus control section 31 controls the focus of the imaging unit 1 , the imaging unit 2 and the projection unit 11 .

次に、ステップS302では、キャリブレーション装置の制御部は、ステージ101を駆動させ、校正パターン平板100をステージ101によって事前に設定している既知の距離位置にステップ移動させる。次に、制御演算部3は、各ステップ位置で撮像ユニット1及び撮像ユニット2を制御し、撮像ユニット1及び撮像ユニット2のそれぞれで校正パターン平板100を撮像する。次に、キャリブレーション装置の制御部は、ステージ101を駆動させ、校正パターン平板100を既知の距離位置にステップ移動させる。移動後、各ステップ位置で投影パターン設定素子13によって水平及び垂直の両方向の縞状パターンを照射した状態において、撮像ユニット1及び撮像ユニット2のそれぞれで校正パターン平板100を撮像する。 Next, in step S302, the controller of the calibration apparatus drives the stage 101 to move the calibration pattern flat plate 100 stepwise to a known distance position set in advance by the stage 101. FIG. Next, the control calculation section 3 controls the imaging unit 1 and the imaging unit 2 at each step position, and the imaging unit 1 and the imaging unit 2 respectively capture images of the calibration pattern plate 100 . Next, the controller of the calibration apparatus drives the stage 101 to move the calibration pattern flat plate 100 stepwise to a known distance position. After the movement, the image pickup unit 1 and the image pickup unit 2 each pick up an image of the calibration pattern plate 100 in a state in which the projection pattern setting element 13 irradiates stripe patterns in both horizontal and vertical directions at each step position.

次に、ステップS303では、制御演算部3は、撮像画像上の校正パターン平板100上に形成された各校正パターンの座標と既知の2次元グリッド座標から撮像ユニット1と撮像ユニット2の内部パラメータを導出する。さらに、校正パターン平板100に対する撮像ユニット1と撮像ユニット2の相対的な位置及び姿勢をそれぞれ導出する。導出手法としては、実施例1と同様である。さらに、撮像画像上の縞状パターンの座標と既知の2次元グリッド座標から投影ユニット11の内部パラメータ及び校正パターン平板100に対する投影ユニット11の相対的な位置及び姿勢を同様に導出する。投影ユニット11の内部パラメータとしては、焦点距離、主点位置、及び、歪みパラメータ等が挙げられる。 Next, in step S303, the control calculation unit 3 calculates the internal parameters of the imaging unit 1 and the imaging unit 2 from the coordinates of each calibration pattern formed on the calibration pattern plate 100 on the captured image and the known two-dimensional grid coordinates. derive Furthermore, the relative positions and orientations of the imaging units 1 and 2 with respect to the calibration pattern plate 100 are derived. The derivation method is the same as in the first embodiment. Further, the internal parameters of the projection unit 11 and the relative position and orientation of the projection unit 11 with respect to the calibration pattern plate 100 are similarly derived from the coordinates of the striped pattern on the captured image and the known two-dimensional grid coordinates. The internal parameters of the projection unit 11 include focal length, principal point position, distortion parameters, and the like.

加えて、制御演算部3は、外部パラメータである投影ユニット11及び撮像ユニット1間、投影ユニット11及び撮像ユニット2間の相対的な位置及び姿勢を導出する。これらの相対的な位置姿勢を導出するにあたり、制御演算部3は、校正パターン平板100に対する撮像ユニット1、撮像ユニット2及び投影ユニット11の位置及び姿勢に基づいて導出をする。以上のように、導出した内部パラメータと外部パラメータから成るキャリブレーションパラメータを導出することができる。 In addition, the control calculation unit 3 derives the relative positions and orientations between the projection unit 11 and the imaging unit 1 and between the projection unit 11 and the imaging unit 2, which are external parameters. In deriving these relative positions and orientations, the control calculation unit 3 derives them based on the positions and orientations of the imaging unit 1 , the imaging unit 2 and the projection unit 11 with respect to the calibration pattern plate 100 . As described above, it is possible to derive calibration parameters consisting of derived intrinsic parameters and extrinsic parameters.

以上の工程により導出した、撮像ユニット1、撮像ユニット2及び投影ユニット11の内部パラメータ及び外部パラメータから成るキャリブレーションパラメータを、制御演算部3によって格納部32に保存(格納)する。 The calibration parameters composed of the internal parameters and external parameters of the imaging unit 1, the imaging unit 2, and the projection unit 11 derived by the above steps are saved (stored) in the storage unit 32 by the control calculation unit 3.

次に、ステップS304では、実施例2における3次元計測装置を用いた計測方法について説明する。実施例2における投影ユニット11が投影する光パターン16は白と黒の2値の縞で構成される。そして、投影ユニット11が複数種類の光パターンを投影しつつ、制御演算部3は、撮像ユニット1と撮像ユニット2がパターン毎に撮像するように制御し、各パターンにおける撮像した画像の信号(データ)を演算部34に保存する。 Next, in step S304, a measurement method using the three-dimensional measurement apparatus according to the second embodiment will be described. The light pattern 16 projected by the projection unit 11 in the second embodiment consists of binary stripes of white and black. While the projection unit 11 projects a plurality of types of light patterns, the control calculation unit 3 controls the imaging unit 1 and the imaging unit 2 to capture images for each pattern, and signals (data) of the captured images in each pattern. ) is stored in the calculation unit 34 .

次に、制御演算部3は、光パターン16の縞の設定値と設定値毎の撮像結果のデータから計測空間を分割する。そして、計測空間内の被検物の表面上の物点に対して、投影ユニット11の投影パターン設定素子13の画素位置と、撮像ユニット1のセンサ素子6の画素位置と、撮像ユニット2のセンサ素子9の画素位置を、それぞれ対応付ける。さらに、演算部34は、ステップS303で算出したキャリブレーションパラメータを用いて、三角測量に基づき被検物の距離情報を算出する。 Next, the control calculation unit 3 divides the measurement space from the set values of the fringes of the light pattern 16 and the imaging result data for each set value. Then, the pixel position of the projection pattern setting element 13 of the projection unit 11, the pixel position of the sensor element 6 of the imaging unit 1, and the sensor of the imaging unit 2 are The pixel positions of the elements 9 are associated with each other. Furthermore, the calculation unit 34 calculates the distance information of the test object based on triangulation using the calibration parameters calculated in step S303.

そして、校正時には、校正パターン平板100を被検物と見立てて、撮像ユニット1と投影ユニット11を用いて測定をし、演算部34は、ステージ101によって移動した既知の距離との差から測定誤差を算出する。さらに撮像ユニット2と投影ユニット11を用いて、測定をし、演算部34は、ステージ101によって移動した既知の距離との差から測定誤差を算出する。 At the time of calibration, the calibration pattern plate 100 is treated as an object to be measured, and the imaging unit 1 and the projection unit 11 are used for measurement. Calculate Furthermore, the imaging unit 2 and the projection unit 11 are used for measurement, and the calculation unit 34 calculates the measurement error from the difference from the known distance moved by the stage 101 .

次に、ステップS305では、制御演算部3は、ステップS304で算出したそれぞれの測定誤差と事前に設定した目標精度の比較を行う。比較の結果、それぞれの測定誤差が目標精度より小さい場合、即ち、目標精度を超えない場合にはステップS304で算出したキャリブレーションパラメータを、3次元情報を算出するための算出用パラメータとして採用し、ステップS306に進む。比較の結果、いずれかの測定誤差が目標精度より大きい場合、即ち、目標精度を超えた場合には、ステップS303に戻り、測定誤差が目標精度より小さくなるまで、キャリブレーションパラメータの算出(キャリブレーションパラメータの推定)を繰り返す。なお、測定誤差の大小については事前に所定の値または閾値の設定がされてある。 Next, in step S305, the control calculation unit 3 compares each measurement error calculated in step S304 with a preset target accuracy. As a result of the comparison, if each measurement error is smaller than the target accuracy, that is, if the target accuracy is not exceeded, the calibration parameter calculated in step S304 is adopted as a calculation parameter for calculating three-dimensional information, Proceed to step S306. As a result of the comparison, if any of the measurement errors is larger than the target accuracy, that is, if the target accuracy is exceeded, the process returns to step S303, and calculation of the calibration parameters (calibration parameter estimation) is repeated. A predetermined value or threshold is set in advance for the magnitude of the measurement error.

次に、ステップS306では、制御演算部3は、ステップS304で採用したキャリブレーションパラメータを格納部32に保存する。保存の際には、制御演算部3は、選択した特定フォーカス位置に関連付けた状態で、キャリブレーションパラメータをそれぞれ格納部32に保存し、ステップS307に進む。 Next, in step S<b>306 , the control calculation unit 3 stores the calibration parameters employed in step S<b>304 in the storage unit 32 . When saving, the control calculation unit 3 saves each calibration parameter in the storage unit 32 while being associated with the selected specific focus position, and proceeds to step S307.

次に、ステップS307で、制御演算部3は、全ての特定フォーカス位置でキャリブレーションパラメータの格納が完了したか判定する。全ての特定フォーカス位置でキャリブレーションパラメータの格納がされていない場合は、ステップS301に戻り、特定フォーカス位置を選択し直す。その後、ステップS302~S306までの処理を実施し、全ての特定フォーカス位置でキャリブレーションパラメータの格納がされるまでこれを繰り返す。全ての特定フォーカス位置でキャリブレーションパラメータの格納がされた場合は処理を終了する。 Next, in step S307, the control calculation unit 3 determines whether or not the storage of the calibration parameters has been completed at all the specific focus positions. If the calibration parameters have not been stored for all the specific focus positions, the process returns to step S301 to reselect the specific focus positions. After that, the processing from steps S302 to S306 is performed, and this is repeated until the calibration parameters are stored at all the specific focus positions. If the calibration parameters have been stored for all specific focus positions, the process ends.

以上、ステップS301~S306を繰り返すことにより、全ての特定フォーカス位置に関連付けたキャリブレーションパラメータの格納部32への保存が完了する。キャリブレーションパラメータ選択時には、撮像ユニット1の特定フォーカス位置と撮像ユニット2の特定フォーカス位置の情報に基づき、キャリブレーションパラメータが、選択部33によって選択できる構成となっている。 By repeating steps S301 to S306, the storage of the calibration parameters associated with all the specific focus positions in the storage unit 32 is completed. When selecting the calibration parameters, the selection unit 33 can select the calibration parameters based on the information about the specific focus position of the imaging unit 1 and the specific focus position of the imaging unit 2 .

以上が実施例2の3次元計測装置を用いた校正方法の説明である。実施例2の3次元計測装置の計測に関して、実施例1との相違点は、撮像ユニット1と投影ユニット11の関係から導出した被検物の距離情報と撮像ユニット2と投影ユニット11の関係から導出した被検物の計測情報を合成して距離情報を算出するところである。これにより、通常は変化しないと考える外部パラメータもキャリブレーションパラメータに組み合わせることで、広い計測範囲と高精度な計測(測距)を両立することができる。 The above is the description of the calibration method using the three-dimensional measurement apparatus of the second embodiment. Regarding the measurement of the three-dimensional measuring apparatus of the second embodiment, the difference from the first embodiment is that the distance information of the object to be inspected derived from the relationship between the imaging unit 1 and the projection unit 11 and the relationship between the imaging unit 2 and the projection unit 11 are This is where the distance information is calculated by synthesizing the derived measurement information of the subject. As a result, it is possible to achieve both a wide measurement range and high-precision measurement (distance measurement) by combining the calibration parameters with the external parameters that are normally considered to remain unchanged.

なお、合成方法は、単純な平均や、周辺の距離情報から信頼度を算出し、信頼度が高い距離情報を採用する方式であってもよい。以上が実施例2における計測方法の説明である。 Note that the synthesis method may be a simple average method, or a method of calculating the reliability from surrounding distance information and adopting the highly reliable distance information. The above is the description of the measurement method in the second embodiment.

さらに、実施例2では、撮像ユニット1、撮像ユニット2と投影ユニット11との組み合わせ毎に距離情報を得る方式とした。しかしこれに限らず、投影ユニット11で照射したパターンを単純に被検物の特徴点として撮像ユニット1及び撮像ユニット2の関係から被検物の距離情報を算出する事も可能である。この場合に照射するパターンは、ドットパターンなどが使用され、投影ユニット11に関わるキャリブレーションパラメータ(内部パラメータ、外部パラメータ)は不要とでき、距離情報の算出に関わる計算負荷を低下させる事ができる。 Furthermore, in the second embodiment, a method of obtaining distance information for each combination of the imaging unit 1, the imaging unit 2, and the projection unit 11 is employed. However, it is not limited to this, and it is also possible to calculate the distance information of the object from the relationship between the imaging unit 1 and the imaging unit 2 by simply using the pattern irradiated by the projection unit 11 as a characteristic point of the object. In this case, a dot pattern or the like is used as the irradiation pattern, and the calibration parameters (internal parameters and external parameters) related to the projection unit 11 can be eliminated, and the calculation load related to the calculation of distance information can be reduced.

<物品製造方法に係る実施例>
上述の各実施例における3次元計測装置は、ある支持部材に支持された状態で使用されうる。本実施例では、一例として、図10のようにロボットアーム800(把持装置)に備え付けられて使用される制御システムについて説明する。3次元測定装置の制御演算部3又は、3次元測定装置の制御演算部3から出力された情報を取得したアーム制御部810が、物体Wの位置や姿勢を決定する。アーム制御部810は、その位置や姿勢の情報(計測結果)に基づいて、ロボットアーム800に駆動指令を送ってロボットアーム800を制御する。本実施例では、上記各実施例における3次元計測装置により算出された物体Wの3次元情報に基づいて、ロボットアーム800は先端のロボットハンド(把持部)などで物体Wを保持して、並進や回転などの移動をさせる。
<Example related to article manufacturing method>
The three-dimensional measuring device in each of the above-described embodiments can be used while being supported by a certain supporting member. In this embodiment, as an example, a control system installed in a robot arm 800 (grasping device) and used as shown in FIG. 10 will be described. The control calculation unit 3 of the three-dimensional measuring device or the arm control unit 810 that acquires the information output from the control calculation unit 3 of the three-dimensional measuring device determines the position and orientation of the object W. FIG. The arm control unit 810 controls the robot arm 800 by sending a drive command to the robot arm 800 based on the position and orientation information (measurement result). In this embodiment, based on the three-dimensional information of the object W calculated by the three-dimensional measuring apparatus in each of the above embodiments, the robot arm 800 holds the object W with a robot hand (grasping portion) or the like at the tip, and moves in translation. or rotate.

さらに、ロボットアーム800によって物体Wを他の部品に組み付ける(組立処理をする)ことにより、複数の部品で構成された所定の物品、例えば電子回路基板や機械などを製造することができる。また、移動された物体Wを加工(処理)することにより、物品を製造することができる。なお、アーム制御部810は、コンピュータとしてのCPUなどの演算装置や、コンピュータプログラムを記憶したメモリなどの記憶装置を有する。なお、ロボットを制御する制御部をアーム制御部810の外部に設けてもよい。また、3次元計測装置により計測された計測データや得られた画像をディスプレイなどの表示部820に表示してもよい。また、物体Wを他の部品に対して位置合わせのために、把持及び移動をしてもよい。なお、物体Wは図6で示している被検物21と同様の構成である。 Furthermore, by assembling (assembling) the object W with other parts by the robot arm 800, it is possible to manufacture a predetermined article composed of a plurality of parts, such as an electronic circuit board or a machine. Further, by processing (processing) the moved object W, an article can be manufactured. Note that the arm control unit 810 has an arithmetic device such as a CPU as a computer and a storage device such as a memory that stores a computer program. Note that a control unit that controls the robot may be provided outside the arm control unit 810 . In addition, the measurement data measured by the three-dimensional measurement device and the obtained image may be displayed on the display unit 820 such as a display. Also, the object W may be gripped and moved for alignment with other parts. The object W has the same configuration as the test object 21 shown in FIG.

<その他の実施例>
以上、本発明をその好適な実施例に基づいて詳述してきたが、本発明は上記実施例に限定されるものではなく、本発明の主旨に基づき種々の変形が可能であり、それらを本発明の範囲から除外するものではない。
<Other Examples>
The present invention has been described in detail above based on its preferred embodiments, but the present invention is not limited to the above embodiments, and various modifications are possible based on the gist of the present invention. They are not excluded from the scope of the invention.

また、上記実施例における制御の一部または全部を上述した実施例の機能を実現するコンピュータプログラムをネットワーク又は各種記憶媒体を介して3次元計測装置に供給するようにしてもよい。そしてその3次元計測装置におけるコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行するようにしてもよい。その場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することとなる。 Moreover, a computer program that implements the functions of the above embodiments may be supplied to the three-dimensional measuring apparatus via a network or various storage media for part or all of the control in the above embodiments. Then, the computer (or CPU, MPU, etc.) in the three-dimensional measurement device may read and execute the program. In that case, the program and the storage medium storing the program constitute the present invention.

1 撮像ユニット
2 撮像ユニット
3 制御演算部
31 フォーカス制御部
32 キャリブレーションパラメータ格納部
33 キャリブレーションパラメータ選択部
34 演算部


1 imaging unit 2 imaging unit 3 control calculation unit 31 focus control unit 32 calibration parameter storage unit 33 calibration parameter selection unit 34 calculation unit


Claims (16)

倍率またはフォーカス位置を変更可能な複数の撮像部を有する3次元計測装置において、
対象物を撮像する際の前記倍率または前記フォーカス位置は、予め定められた複数の位置の中から選択され、前記複数の撮像部の複数の倍率または複数のフォーカス位置における前記複数の撮像部間の相対位置姿勢に関する複数の第1パラメータから、所定の倍率または所定のフォーカス位置に対応した第1パラメータを算出用パラメータとして選択する選択部と、
前記対象物の画像と前記算出用パラメータに基づいて、前記所定の倍率または前記所定のフォーカス位置で撮像された前記対象物の3次元情報を算出する演算部と、を有する、
ことを特徴とする3次元計測装置。
In a three-dimensional measuring device having a plurality of imaging units capable of changing magnification or focus position,
The magnification or the focus position when capturing an image of the object is selected from among a plurality of predetermined positions, and a plurality of magnifications of the plurality of imaging units or between the plurality of imaging units at a plurality of focus positions. a selection unit that selects, as a calculation parameter, a first parameter corresponding to a predetermined magnification or a predetermined focus position from a plurality of first parameters relating to the relative position and orientation;
a calculation unit that calculates three-dimensional information of the object imaged at the predetermined magnification or the predetermined focus position based on the image of the object and the calculation parameters;
A three-dimensional measuring device characterized by:
前記選択部は、前記複数の倍率または前記複数のフォーカス位置における前記複数の撮像部それぞれの撮像性能に関する複数の第2パラメータから、前記所定の倍率または前記所定のフォーカス位置に対応した第2パラメータを前記算出用パラメータとして選択することを特徴とする請求項1に記載の3次元計測装置。 The selection unit selects a second parameter corresponding to the predetermined magnification or the predetermined focus position from a plurality of second parameters relating to imaging performance of each of the plurality of imaging units at the plurality of magnifications or the plurality of focus positions. 2. The three-dimensional measuring apparatus according to claim 1, wherein the parameters are selected as the calculation parameters. 前記選択部は、前記所定の倍率または前記所定のフォーカス位置に対応した前記第1パラメータと前記第2パラメータを組み合わせて前記算出用パラメータとして選択することを特徴とする請求項2に記載の3次元計測装置。 3. The three-dimensional structure according to claim 2, wherein the selection unit selects a combination of the first parameter and the second parameter corresponding to the predetermined magnification or the predetermined focus position as the calculation parameter. measuring device. 前記複数の第1パラメータまたは前記複数の第2パラメータは、前記複数の倍率または前記複数のフォーカス位置において予め計測されていることを特徴とする請求項2または3に記載の3次元計測装置。 4. The three-dimensional measuring apparatus according to claim 2, wherein the plurality of first parameters or the plurality of second parameters are measured in advance at the plurality of magnifications or the plurality of focus positions. 前記複数の第1パラメータまたは前記複数の第2パラメータを格納する格納部をさらに有することを特徴とする請求項2~4のいずれか1項に記載の3次元計測装置。 5. The three-dimensional measuring apparatus according to claim 2, further comprising a storage unit for storing said plurality of first parameters or said plurality of second parameters. 所定のパターンを有する光を投影する投影部をさらに有することを特徴とする請求項1~5のいずれか1項に記載の3次元計測装置。 6. The three-dimensional measurement apparatus according to any one of claims 1 to 5, further comprising a projection section for projecting light having a predetermined pattern. 前記複数の第1パラメータは、前記複数の倍率または前記複数のフォーカス位置における前記投影部と前記複数の撮像部間との相対位置姿勢に関するパラメータを含むことを特徴とする請求項6に記載の3次元計測装置。 7. The method according to claim 6, wherein the plurality of first parameters include parameters relating to the relative position and orientation between the projection unit and the plurality of imaging units at the plurality of magnifications or the plurality of focus positions. Dimensional measuring device. 前記複数の第2パラメータは、前記複数の倍率または前記複数のフォーカス位置における前記投影部の撮像性能に関するパラメータを含むことを特徴とする請求項6または7に記載の3次元計測装置。 8. The three-dimensional measurement apparatus according to claim 6, wherein the plurality of second parameters include parameters relating to imaging performance of the projection unit at the plurality of magnifications or the plurality of focus positions. 前記複数の倍率または前記複数のフォーカス位置はそれぞれ所定の領域を有し、隣接する領域同士は一部重複することを特徴とする請求項1~8のいずれか1項に記載の3次元計測装置。 The three-dimensional measuring apparatus according to any one of claims 1 to 8, wherein each of said plurality of magnifications or said plurality of focus positions has a predetermined area, and adjacent areas partially overlap each other. . 前記複数の撮像部は、それぞれセンサと光学系とを含み、
前記複数の撮像部のうちいずれかの撮像部における、前記センサの光軸と前記光学系の光軸は相対的に傾いて配置されていることを特徴とする請求項1~8のいずれか1項に記載の3次元計測装置。
The plurality of imaging units each include a sensor and an optical system,
9. The optical axis of the sensor and the optical axis of the optical system in any one of the plurality of imaging units are arranged to be inclined relative to each other. The three-dimensional measuring device according to the item.
前記複数の第1パラメータまたは前記選択部により選択された前記算出用パラメータのいずれかを表示可能な表示部を有する、
ことを特徴とする請求項1~10のいずれか1項に記載の3次元計測装置。
a display unit capable of displaying either the plurality of first parameters or the calculation parameter selected by the selection unit;
The three-dimensional measuring device according to any one of claims 1 to 10, characterized in that:
前記表示部は前記複数の倍率または前記複数のフォーカス位置における前記複数の撮像部それぞれの撮像性能に関する情報である複数の第2パラメータを表示可能であることを特徴とする請求項11に記載の3次元計測装置。 12. The third method according to claim 11, wherein the display unit is capable of displaying a plurality of second parameters that are information relating to imaging performance of each of the plurality of imaging units at the plurality of magnifications or at the plurality of focus positions. Dimensional measuring device. 倍率またはフォーカス位置を変更可能な複数の撮像部を有する3次元計測装置による3次元計測方法であって、
対象物を撮像する際の前記倍率または前記フォーカス位置は、予め定められた複数の位置の中から選択され、前記複数の撮像部の複数の倍率または複数のフォーカス位置における前記複数の撮像部間の相対位置姿勢に関する複数の第1パラメータから、所定の倍率または所定のフォーカス位置に対応した第1パラメータを算出用パラメータとして選択する選択工程と、
前記対象物の画像と前記算出用パラメータに基づいて、前記所定の倍率または前記所定のフォーカス位置で撮像された前記対象物の3次元情報を算出する演算工程と、を有する、
ことを特徴とする3次元計測方法。
A three-dimensional measurement method using a three-dimensional measurement device having a plurality of imaging units capable of changing magnification or focus position,
The magnification or the focus position when capturing an image of the object is selected from among a plurality of predetermined positions, and a plurality of magnifications of the plurality of imaging units or between the plurality of imaging units at a plurality of focus positions. a selection step of selecting, as a calculation parameter, a first parameter corresponding to a predetermined magnification or a predetermined focus position from a plurality of first parameters relating to the relative position and orientation;
a calculation step of calculating three-dimensional information of the object imaged at the predetermined magnification or the predetermined focus position based on the image of the object and the calculation parameters;
A three-dimensional measurement method characterized by:
コンピュータにより、請求項1~12のいずれか1項に記載の3次元計測装置の各部を制御するためのプログラム。 A program for controlling each part of the three-dimensional measuring device according to any one of claims 1 to 12 by a computer. 請求項1~12のうちいずれか1項に記載の3次元計測装置と、
前記3次元計測装置により算出された前記対象物の3次元情報に基づき前記対象物を把持して移動させるロボットと、
を有することを特徴とするシステム。
The three-dimensional measurement device according to any one of claims 1 to 12;
a robot that grips and moves the object based on the three-dimensional information of the object calculated by the three-dimensional measuring device;
A system characterized by comprising:
請求項1~12のうちいずれか1項に記載の3次元計測装置により算出された前記対象物の3次元情報に基づき、前記対象物を把持し、前記対象物の処理を行うことで、所定の物品を製造する工程を有することを特徴とする物品の製造方法。

Based on the three-dimensional information of the object calculated by the three-dimensional measuring device according to any one of claims 1 to 12, by gripping the object and processing the object, a predetermined A method for manufacturing an article characterized by having a step of manufacturing an article of

JP2021055267A 2021-03-29 2021-03-29 Three-dimensional measuring device, three-dimensional measuring method, program, system, and method for manufacturing article Pending JP2022152480A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021055267A JP2022152480A (en) 2021-03-29 2021-03-29 Three-dimensional measuring device, three-dimensional measuring method, program, system, and method for manufacturing article

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021055267A JP2022152480A (en) 2021-03-29 2021-03-29 Three-dimensional measuring device, three-dimensional measuring method, program, system, and method for manufacturing article

Publications (1)

Publication Number Publication Date
JP2022152480A true JP2022152480A (en) 2022-10-12

Family

ID=83555809

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021055267A Pending JP2022152480A (en) 2021-03-29 2021-03-29 Three-dimensional measuring device, three-dimensional measuring method, program, system, and method for manufacturing article

Country Status (1)

Country Link
JP (1) JP2022152480A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024100712A1 (en) * 2022-11-07 2024-05-16 ファナック株式会社 Apparatus, control device, method, and computer program for managing temperature of imaging unit

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024100712A1 (en) * 2022-11-07 2024-05-16 ファナック株式会社 Apparatus, control device, method, and computer program for managing temperature of imaging unit

Similar Documents

Publication Publication Date Title
US8619144B1 (en) Automatic camera calibration
JP6239232B2 (en) High performance edge focus tool
US8711275B2 (en) Estimating optical characteristics of a camera component using sharpness sweep data
US9710905B2 (en) Mask inspection apparatus and mask inspection method
US8662676B1 (en) Automatic projector calibration
WO2012053521A1 (en) Optical information processing device, optical information processing method, optical information processing system, and optical information processing program
JP2009031150A (en) Three-dimensional shape measuring device, three-dimensional shape measurement method, three-dimensional shape measurement program, and record medium
JP2016061687A (en) Contour line measurement device and robot system
CN109995996B (en) Variable focus lens system including a focus state reference subsystem
CN110612428B (en) Three-dimensional measurement method using characteristic quantity and apparatus therefor
US20160033753A1 (en) Image acquiring apparatus
US9990739B1 (en) Method and device for fisheye camera automatic calibration
JP2015138207A (en) focus position adjustment method and inspection method
WO2011114939A1 (en) Height measurement method, program for measuring height, and height measurement device
WO2011114407A1 (en) Method for measuring wavefront aberration and device of same
US20240087167A1 (en) Compensation of three-dimensional measuring instrument having an autofocus camera
JPWO2018168757A1 (en) Image processing apparatus, system, image processing method, article manufacturing method, program
JP2022152480A (en) Three-dimensional measuring device, three-dimensional measuring method, program, system, and method for manufacturing article
CN113658270A (en) Multi-view visual calibration method, device, medium and system based on workpiece hole center
JP2020106841A (en) System and method for calibrating variable focal length lens system by using calibration object with planar tilted pattern surface
TWI715812B (en) Target location in semiconductor manufacturing
JP2017037017A (en) Distance measurement device and distance measurement method
JP5925109B2 (en) Image processing apparatus, control method thereof, and control program
JP6732680B2 (en) Map making method, mask inspection method and mask inspection apparatus
US20140009595A1 (en) Image acquisition apparatus and image acquisition method