JP6695748B2 - measuring device - Google Patents

measuring device Download PDF

Info

Publication number
JP6695748B2
JP6695748B2 JP2016127057A JP2016127057A JP6695748B2 JP 6695748 B2 JP6695748 B2 JP 6695748B2 JP 2016127057 A JP2016127057 A JP 2016127057A JP 2016127057 A JP2016127057 A JP 2016127057A JP 6695748 B2 JP6695748 B2 JP 6695748B2
Authority
JP
Japan
Prior art keywords
image
light
measurement
unit
stage
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016127057A
Other languages
Japanese (ja)
Other versions
JP2018004282A (en
Inventor
中務 貴司
貴司 中務
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Keyence Corp
Original Assignee
Keyence Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Keyence Corp filed Critical Keyence Corp
Priority to JP2016127057A priority Critical patent/JP6695748B2/en
Publication of JP2018004282A publication Critical patent/JP2018004282A/en
Application granted granted Critical
Publication of JP6695748B2 publication Critical patent/JP6695748B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Description

本発明は、測定対象物の測定を行う測定装置に関する。   The present invention relates to a measuring device that measures an object to be measured.

三角測距方式の測定装置では、測定対象物の表面に光が照射され、その反射光が1次元または2次元に配列された画素を有する受光素子により受光される。受光素子により得られる受光量分布のピーク位置に基づいて、測定対象物の表面の高さを計測することができる。   In the triangulation type measuring device, the surface of the measuring object is irradiated with light, and the reflected light is received by a light receiving element having pixels arranged one-dimensionally or two-dimensionally. The height of the surface of the measuring object can be measured based on the peak position of the received light amount distribution obtained by the light receiving element.

非特許文献1においては、符号化された光と位相シフト法とを組み合わせた三角測距方式の形状測定が提案されている。また、非特許文献2においては、符号化された光とストライプ状の光とを組み合わせた三角測距方式の形状測定が提案されている。これらの方式においては、測定対象物の形状測定の精度を向上させることができる。   Non-Patent Document 1 proposes a shape measurement by a triangulation method that combines coded light and a phase shift method. Further, Non-Patent Document 2 proposes shape measurement by a triangulation method that combines coded light and stripe light. In these methods, the accuracy of shape measurement of the measurement object can be improved.

Toni F. Schenk, "Remote Sensing and Reconstruction for Three-Dimensional Objects and Scenes", Proceedings of SPIE, Volume 2572, pp. 1-9 (1995)Toni F. Schenk, "Remote Sensing and Reconstruction for Three-Dimensional Objects and Scenes", Proceedings of SPIE, Volume 2572, pp. 1-9 (1995) Sabry F. El-Hakim and Armin Gruen, "Videometrics and Optical Methods for 3D Shape Measurement", Proceedings of SPIE, Volume 4309, pp. 219-231 (2001)Sabry F. El-Hakim and Armin Gruen, "Videometrics and Optical Methods for 3D Shape Measurement", Proceedings of SPIE, Volume 4309, pp. 219-231 (2001)

上記のような形状測定によって取得されるデータ(以下、測定データと呼ぶ。)に基づいて、測定対象物の立体形状を平面上に表す画像(以下、立体形状画像と呼ぶ。)を表示することができる。しかしながら、立体形状画像は、いわゆるコンピュータグラフィック画像であり、立体形状画像として表示される測定対象物の外観と、実際の測定対象物の外観との間には乖離がある。そのため、使用者は、立体形状画像を見ても、実際の測定対象物を容易に認識することができないことがある。   Displaying an image (hereinafter, referred to as a three-dimensional shape image) showing a three-dimensional shape of a measurement target on a plane based on the data (hereinafter, referred to as measurement data) acquired by the shape measurement as described above. You can However, the stereoscopic image is a so-called computer graphic image, and there is a gap between the appearance of the measurement target displayed as the stereoscopic image and the actual appearance of the measurement target. Therefore, the user may not be able to easily recognize the actual measurement target even when looking at the stereoscopic image.

例えば、使用者は、立体形状画像上で測定対象物の計測箇所を指定する。その場合、立体形状画像として表示される測定対象物の外観と実際の測定対象物の外観との間に乖離があると、計測箇所の指定に長い時間を要する、または誤った計測箇所を指定する等の問題が生じる可能性がある。特に、立体形状画像を用いた作業に不慣れな使用者にとって、その作業は困難である。   For example, the user specifies the measurement location of the measurement object on the three-dimensional image. In that case, if there is a discrepancy between the appearance of the measurement object displayed as a stereoscopic image and the appearance of the actual measurement object, it takes a long time to specify the measurement point, or the wrong measurement point is specified. Such problems may occur. In particular, it is difficult for a user who is unfamiliar with work using a stereoscopic image to do so.

本発明の目的は、計測すべき箇所を容易に指定することができる測定装置を提供することである。   An object of the present invention is to provide a measuring device that can easily specify a location to be measured.

(1)本発明に係る測定装置は、ステージ保持部と、ステージ保持部により保持され、測定対象物が載置されるステージと、ステージに載置された測定対象物にパターンを有する測定光を照射する投光部と、測定対象物により反射された測定光を受光して受光量を示す受光信号を出力する受光部と、ステージ上に載置された測定対象物を一定の画角で撮像することによりリアルタイムでの測定対象物の画像をライブ画像として表すライブ画像データを取得する撮像部とを含むヘッド部と、投光部から測定対象物に対して測定光が斜め下方に導かれ、かつ受光部の光軸が測定対象物に向かって斜め下方に延びるように、ヘッド部とステージ保持部とを固定的に連結する連結部と、受光部から出力される受光信号に基づいて、測定対象物の立体形状を表す点群データを生成する点群データ生成手段と、点群データ生成手段により生成された点群データに基づいて、測定対象物の画像を立体画法により平面上に立体形状画像として表す立体形状画像データを生成する立体形状画像データ生成手段と、立体形状画像データ生成手段により生成された立体形状画像データにより表される立体形状画像上で計測すべき箇所の指定を受け付け、点群データ生成手段により生成された点群データに基づいて、指定された箇所の計測値を算出する計測手段とを備え、立体形状画像データ生成手段は、測定対象物が立体画法のうち透視画法により平面上に立体形状画像として表され、当該立体形状画像の消失点の位置がライブ画像の消失点の位置と一致するように立体形状画像データを生成する(1) A measuring device according to the present invention provides a stage holding section, a stage which is held by the stage holding section and on which an object to be measured is placed, and measuring light which has a pattern on the object to be measured placed on the stage. The projecting unit that emits light, the light receiving unit that receives the measurement light reflected by the measurement target and outputs a light reception signal that indicates the amount of light received, and the measurement target that is placed on the stage is imaged at a fixed angle of view. By including a head unit including an imaging unit that acquires live image data representing a real-time image of the measurement target object as a live image, measurement light is guided obliquely downward from the light projection unit with respect to the measurement target object, And, based on a light receiving signal output from the light receiving unit and a connecting unit that fixedly connects the head unit and the stage holding unit so that the optical axis of the light receiving unit extends obliquely downward toward the measurement target, the measurement is performed. Based on the point cloud data generating means for generating the point cloud data representing the three-dimensional shape of the object and the point cloud data generated by the point cloud data generating means, the image of the measurement object is stereoscopically projected on a plane by the stereoscopic method. A stereoscopic shape image data generation unit that generates stereoscopic shape image data represented as a shape image and a designation of a portion to be measured on the stereoscopic shape image represented by the stereoscopic shape image data generated by the stereoscopic shape image data generation unit are accepted. And a measurement unit that calculates a measurement value at a specified location based on the point cloud data generated by the point cloud data generation unit, and the three-dimensional shape image data generation unit uses It is represented as a stereoscopic image on a plane by the perspective method, and stereoscopic image data is generated so that the position of the vanishing point of the stereoscopic image matches the position of the vanishing point of the live image.

この測定装置においては、投光部および受光部を含むヘッド部がステージ保持部と固定的に連結される。ステージ保持部により保持されたステージ上に測定対象物が載置され、パターンを有する測定光が投光部から測定対象物に照射される。測定対象物により反射された測定光が受光部により受光され、受光量を表す受光信号が出力される。受光信号に基づいて測定対象物の立体形状を表す点群データが生成される。   In this measuring device, the head unit including the light projecting unit and the light receiving unit is fixedly connected to the stage holding unit. The measurement target is placed on the stage held by the stage holding unit, and the measurement light having a pattern is applied to the measurement target from the light projecting unit. The measurement light reflected by the measurement object is received by the light receiving unit, and a light reception signal indicating the amount of received light is output. Point cloud data representing the three-dimensional shape of the measurement target is generated based on the light reception signal.

この場合、投光部、受光部およびステージが一体的に設けられているので、使用者は、これらの配置を調整する必要がなく、ステージ上に測定対象物を載置することで、測定対象物の点群データを得ることができる。また、投光部から測定対象物に斜め下方に測定光が導かれ、かつ測定対象物に向かって斜め下方に延びる光軸を有する受光部によってその反射光が受光されるので、測定対象物の広い範囲の点群データを効率良く生成することができる。さらに、ステージの回転軸が受光部の光軸と平行でないので、ステージを回転させることにより、受光部に向けられる測定対象物の箇所が変わる。そのため、ステージの回転位置が異なる状態で測定対象物に測定光が照射されることにより、測定対象物の異なる箇所での反射光が受光部によって受光される。したがって、測定対象物の広い範囲の点群データを容易に生成することができる。   In this case, since the light projecting unit, the light receiving unit, and the stage are integrally provided, the user does not need to adjust their arrangement, and the object to be measured is placed on the stage to measure the object to be measured. Object point cloud data can be obtained. Further, since the measurement light is guided obliquely downward from the light projecting portion to the measurement object, and the reflected light is received by the light receiving portion having an optical axis extending obliquely downward toward the measurement object, the measurement object It is possible to efficiently generate a wide range of point cloud data. Furthermore, since the rotation axis of the stage is not parallel to the optical axis of the light receiving section, rotating the stage changes the location of the measurement target pointed at the light receiving section. Therefore, the measurement light is irradiated onto the measurement target in a state where the rotational position of the stage is different, and thus the reflected light at the different position of the measurement target is received by the light receiving unit. Therefore, it is possible to easily generate a wide range of point cloud data of the measurement target.

また、ステージ上に載置された測定対象物が一定の画角で撮像されることによりリアルタイムでの測定対象物の画像をライブ画像として表すライブ画像データが取得される。使用者は、ライブ画像データにより表されるライブ画像を見ながら、測定対象物の位置および姿勢を確認することができる。   Moreover, live image data representing an image of the measurement object in real time as a live image is acquired by imaging the measurement object placed on the stage at a constant angle of view. The user can confirm the position and orientation of the measurement target while viewing the live image represented by the live image data.

また、点群データに基づいて、測定対象物の画像を立体画法により平面上に立体形状画像として表す立体形状画像データが生成される。立体形状画像データにより表される立体形状画像上で使用者により測定対象物の計測すべき箇所が指定され、点群データに基づいて、指定された箇所の計測値が算出される。   Also, based on the point cloud data, stereoscopic image data representing an image of the measurement object on a plane as a stereoscopic image is generated by the stereoscopic method. A user specifies a measurement target portion of the measurement target on the stereoscopic image represented by the stereoscopic image data, and the measured value of the specified position is calculated based on the point cloud data.

体形状画像データは、測定対象物が透視画法により平面上に立体形状画像として表されかつ当該立体形状画像の消失点の位置がライブ画像の消失点の位置と一致するように生成される。 Steric shape image data is generated as the position of the vanishing point is represented on a plane as a three-dimensional shape image and the three-dimensional shape image matches the position of the vanishing point of the live image by Toshigaho object to be measured ..

それにより、使用者は、立体形状画像とライブ画像とを違和感なく見比べることができる。そのため、使用者は、立体形状画像を見て、測定対象物の計測すべき箇所を直感的に認識することができる。したがって、使用者は、立体形状画像上で計測すべき箇所を容易に指定することができる。 Thereby , the user can compare the stereoscopic image and the live image with each other without feeling discomfort. Therefore, the user can intuitively recognize the measurement target portion of the measurement target by looking at the three-dimensional image. Therefore, the user can easily specify the place to be measured on the stereoscopic image.

)受光部は、撮像部として機能してもよい。この場合、撮像部が受光部と別個に設けられる場合に比べて、ヘッド部の構成が簡略化される。また、共通の受光部によってライブ画像データおよび点群データがそれぞれ取得されるので、ライブ画像と点群データに基づいて生成される立体形状画像とを近似させやすくなる。 ( 2 ) The light receiving section may function as an imaging section. In this case, the configuration of the head unit is simplified as compared with the case where the imaging unit is provided separately from the light receiving unit. Further, since the live image data and the point cloud data are respectively acquired by the common light receiving unit, it becomes easy to approximate the live image and the stereoscopic image generated based on the point cloud data.

)撮像部は、測定対象物を撮像することにより測定対象物の表面状態を表すテクスチャ情報を取得し、立体形状画像データ生成手段は、点群データ生成手段により生成された点群データと受光部により取得されたテクスチャ情報とに基づいて、立体形状画像データを生成してもよい。この場合、テクスチャ情報を含む立体形状画像データを生成することができる。それにより、立体形状画像に対する使用者の違和感がより低減される。 ( 3 ) The imaging unit acquires the texture information representing the surface state of the measurement target by imaging the measurement target, and the three-dimensional shape image data generation unit generates the point cloud data generated by the point cloud data generation unit. The stereoscopic shape image data may be generated based on the texture information acquired by the light receiving unit. In this case, stereoscopic shape image data including texture information can be generated. This further reduces the user's discomfort with respect to the stereoscopic image.

)測定装置は、点群データ生成手段により生成された点群データに基づいて、測定対象物の表面の一部に対応しかつ計測の基準となる基準面を設定する基準面設定手段と、点群データ生成手段により生成された点群データに基づいて、基準面設定手段により設定された基準面に対して垂直に測定対象物を見た画像を表す平面画像データを生成する平面画像データ生成手段とをさらに備え、計測手段は、指定された箇所の計測値を基準面設定手段により設定された基準面を基準として算出してもよい。 ( 4 ) The measuring device includes a reference plane setting unit that sets a reference plane corresponding to a part of the surface of the object to be measured and serving as a reference for measurement, based on the point group data generated by the point group data generating unit. Planar image data for generating planar image data representing an image of a measurement object viewed perpendicularly to the reference plane set by the reference plane setting means, based on the point cloud data generated by the point cloud data generating means The measuring unit may further include a generating unit, and the measuring unit may calculate the measured value of the designated location with the reference plane set by the reference plane setting unit as a reference.

この場合、基準面が設定されることによって、点群データから計測値を算出することが容易となる。また、生成された平面画像データに基づいて、基準面に対して垂直に測定対象物を見た画像が表示されることにより、使用者は計測箇所の指定を容易に行うことができる。
(5)立体形状画像データ生成手段は、画角に基づいて、立体形状画像の消失点の位置がライブ画像の消失点の位置と一致するように、立体形状画像データを生成してもよい。
In this case, setting the reference plane facilitates calculation of the measurement value from the point cloud data. In addition, based on the generated planar image data, an image of the measurement object viewed perpendicularly to the reference plane is displayed, so that the user can easily specify the measurement location.
(5) The three-dimensional shape image data generating means may generate the three-dimensional shape image data based on the angle of view such that the position of the vanishing point of the three-dimensional image matches the position of the vanishing point of the live image.

(6)立体形状画像データ生成手段は、画角に加えて撮像部とステージとの位置関係に基づいて、立体形状画像の消失点の位置がライブ画像の消失点の位置と一致するように、立体形状画像データを生成してもよい。 (6) The three-dimensional shape image data generating means, based on the positional relationship between the imaging unit and the stage in addition to the angle of view , causes the position of the vanishing point of the three-dimensional image to match the position of the vanishing point of the live image. Stereoscopic image data may be generated.

この場合、撮像部がステージと一体的に設けられているので、画角および撮像部とステージとの位置関係に基づいて、立体形状画像の消失点の位置とライブ画像の消失点の位置とを容易に一致させることができる。   In this case, since the imaging unit is provided integrally with the stage, the position of the vanishing point of the stereoscopic image and the position of the vanishing point of the live image are determined based on the angle of view and the positional relationship between the imaging unit and the stage. Can be matched easily.

(7)ステージは上下方向の回転軸を中心に回転可能にステージ保持部により保持され、測定装置は、ステージの回転指示を受け付ける回転指示受付手段と、回転指示受付手段により受け付けられた回転指示に基づいて、ステージの回転を制御する回転制御手段とをさらに備え、立体形状画像データ生成手段は、回転指示受付手段により受け付けられた回転指示に基づいて、立体形状画像における測定対象物の向きがライブ画像における測定対象物の向きと一致するように、立体形状画像データを生成してもよい。   (7) The stage is held by the stage holding unit so as to be rotatable about a vertical rotation axis, and the measuring device is configured to display a rotation instruction receiving unit that receives a rotation instruction of the stage and a rotation instruction received by the rotation instruction receiving unit. Based on the rotation instruction accepted by the rotation instruction acceptance means, the stereoscopic image data generation means further includes a rotation control means for controlling the rotation of the stage based on the rotation instruction. The stereoscopic shape image data may be generated so as to match the orientation of the measurement target in the image.

この場合、使用者によるステージの回転指示に基づいてステージが回転され、ライブ画像における測定対象物の向きが変化される。一方、ステージの回転指示に基づいて、立体形状画像における測定対象物の向きがライブ画像における測定対象物の向きと一致するように、立体形状画像データが更新される。これにより、ステージの回転に伴うライブ画像上での測定対象物の向きの変化に連動して、立体形状画像における測定対象物の向きが変化する。それにより、使用者は、立体形状画像とライブ画像とを違和感なく見比べることができ、立体形状画像を見て、測定対象物の計測すべき箇所を直感的に認識することができる。   In this case, the stage is rotated based on the user's instruction to rotate the stage, and the orientation of the measuring object in the live image is changed. On the other hand, based on the instruction to rotate the stage, the stereoscopic shape image data is updated so that the orientation of the measurement object in the stereoscopic image matches the orientation of the measurement object in the live image. As a result, the orientation of the measurement target in the stereoscopic image changes in association with the change in the orientation of the measurement target on the live image due to the rotation of the stage. As a result, the user can compare the three-dimensional image and the live image with each other without a feeling of discomfort, and can see the three-dimensional image and intuitively recognize the place to be measured of the measurement target.

(8)ステージは上下方向の回転軸を中心に回転可能にステージ保持部により保持され、測定装置は、ステージの回転を制御する回転制御手段と、立体形状画像における測定対象物の予め定められた方向の回転指示を受け付ける第2の回転指示受付手段をさらに備え、予め定められた方向は、ステージの回転方向に対応し、立体形状画像データ生成手段は、第2の回転指示受付手段により受け付けられた回転指示に基づいて、立体形状画像における測定対象物が予め定められた方向に回転するように立体形状画像データを生成し、回転制御手段は、第2の回転指示受付手段により受け付けられた回転指示に基づいて、ライブ画像における測定対象物の向きが立体形状画像における測定対象物の向きと一致するように、ステージを回転させてもよい。   (8) The stage is held by a stage holding unit so as to be rotatable about a vertical rotation axis, and the measuring device has a rotation control means for controlling the rotation of the stage and a predetermined measurement target of a three-dimensional image. Second rotation instruction receiving means for receiving a rotation instruction of a direction is further provided, and the predetermined direction corresponds to the rotation direction of the stage, and the stereoscopic image data generating means is received by the second rotation instruction receiving means. Based on the rotation instruction, the three-dimensional image data is generated so that the measurement object in the three-dimensional image rotates in a predetermined direction, and the rotation control means rotates the rotation received by the second rotation instruction receiving means. Based on the instruction, the stage may be rotated so that the orientation of the measuring object in the live image matches the orientation of the measuring object in the stereoscopic image.

この場合、使用者による回転指示に基づいて、立体形状画像における測定対象物が予め定められた方向に回転するように、立体形状画像データが更新される。一方、回転指示に基づいて、ライブ画像における測定対象物の向きが立体形状画像における測定対象物の向きと一致するように、ステージが回転される。これにより、立体形状画像における測定対象物の向きの変化に連動してステージが回転され、ライブ画像上での測定対象物の向きが変化する。それにより、使用者は、立体形状画像とライブ画像とを違和感なく見比べることができる。また、立体形状画像とライブ画像との違いを容易に把握することができるので、立体形状データの欠損箇所を容易に把握することができる。   In this case, based on the rotation instruction from the user, the three-dimensional shape image data is updated so that the measurement object in the three-dimensional shape image rotates in a predetermined direction. On the other hand, based on the rotation instruction, the stage is rotated so that the orientation of the measuring object in the live image matches the orientation of the measuring object in the stereoscopic image. As a result, the stage is rotated in association with the change in the orientation of the measurement target in the three-dimensional image, and the orientation of the measurement target on the live image changes. As a result, the user can compare the stereoscopic image and the live image with each other without feeling any discomfort. Further, since it is possible to easily grasp the difference between the stereoscopic shape image and the live image, it is possible to easily grasp the defective portion of the stereoscopic shape data.

(9)点群データ生成手段は、ステージが第1の回転位置にあるときに受光部から出力される受光信号に基づいて点群データとして第1の立体形状データを生成し、ステージが第1の回転位置と異なる第2の回転位置にあるときに受光部から出力される受光信号に基づいて点群データとして第2の立体形状データを生成し、生成された第1および第2の立体形状データを合成してもよい。   (9) The point cloud data generating means generates the first solid shape data as the point cloud data based on the light reception signal output from the light receiving unit when the stage is at the first rotation position, and the stage is the first Second stereoscopic shape data as point cloud data based on a light reception signal output from the light receiving unit when the second stereoscopic shape is different from the rotation position of the first and second stereoscopic shapes. The data may be combined.

この場合、ステージの回転位置が異なることによって、測定対象物の異なる箇所での反射光が受光部によって受光される。したがって、受光部により出力される受光信号に基づいて、測定対象物の広い範囲の点群データを生成することができる。   In this case, due to the different rotational positions of the stage, the light receiving section receives the reflected light at different points on the measurement target. Therefore, it is possible to generate the point cloud data of a wide range of the measurement object based on the light reception signal output by the light receiving unit.

本発明によれば、計測すべき箇所を容易に指定することが可能となる。   According to the present invention, it is possible to easily specify a portion to be measured.

本発明の一実施の形態に係る測定装置の構成を示すブロック図である。It is a block diagram which shows the structure of the measuring device which concerns on one embodiment of this invention. 図1の測定装置の測定部の構成を示す模式図である。It is a schematic diagram which shows the structure of the measurement part of the measuring device of FIG. 図1のCPUにより実現される機能を示す機能ブロック図である。2 is a functional block diagram showing functions realized by the CPU of FIG. 1. FIG. 測定部の模式的な外観斜視図である。It is a typical external appearance perspective view of a measurement part. 受光部とステージとの位置関係について説明するための図である。It is a figure for demonstrating the positional relationship of a light-receiving part and a stage. 三角測距方式の原理を説明するための図である。It is a figure for explaining the principle of a triangulation method. 測定光の第1のパターンを説明するための図である。It is a figure for demonstrating the 1st pattern of measurement light. 測定光の第2のパターンを説明するための図である。It is a figure for demonstrating the 2nd pattern of measurement light. 測定光の第3のパターンを説明するための図である。It is a figure for demonstrating the 3rd pattern of measurement light. 測定対象物の特定の部分における画像が撮影されたタイミングと受光された光の強度との関係を示す図である。It is a figure which shows the relationship with the timing which imaged the image in the specific part of a measuring object, and the intensity | strength of the light received. 測定光の第4のパターンを説明するための図である。It is a figure for demonstrating the 4th pattern of measurement light. 複数の視点から測定対象物を撮像することにより複数の立体形状データを生成する例を説明するための図である。It is a figure for demonstrating the example which produces | generates several solid shape data by imaging a to-be-measured object from a some viewpoint. 形状測定の準備の手順を示すフローチャートである。It is a flowchart which shows the procedure of preparation for shape measurement. 形状測定の準備の手順における第1の調整の詳細を示すフローチャートである。It is a flow chart which shows the details of the 1st adjustment in the procedure of preparation for shape measurement. 形状測定の準備の手順における第1の調整の詳細を示すフローチャートである。It is a flow chart which shows the details of the 1st adjustment in the procedure of preparation for shape measurement. 形状測定の準備の手順における第2の調整の詳細を示すフローチャートである。It is a flow chart which shows the details of the 2nd adjustment in the procedure of preparation for shape measurement. 形状測定処理の概要を示すフローチャートである。It is a flow chart which shows an outline of shape measurement processing. 測定対象物の一例を示す図である。It is a figure which shows an example of a measuring object. ライブ画像の例を示す図である。It is a figure which shows the example of a live image. 立体形状画像について説明するための図である。It is a figure for demonstrating a stereoscopic image. 立体形状画像における測定対象物の向きについて説明するための模式図である。It is a schematic diagram for demonstrating the direction of a measuring object in a stereoscopic image. 消失点の位置について説明するための図である。It is a figure for demonstrating the position of a vanishing point. ライブ画像と立体形状画像とが同時に表示される例を示す図である。It is a figure which shows the example in which a live image and a stereoscopic image are simultaneously displayed. テクスチャ付き立体形状画像の例を示す図である。It is a figure which shows the example of the three-dimensional image with texture. 1つの視点に対応する立体形状データを示す模式図である。It is a schematic diagram which shows the three-dimensional shape data corresponding to one viewpoint. 操作部の操作によるステージの回転の指示の例について説明するための図である。FIG. 9 is a diagram for explaining an example of an instruction to rotate the stage by operating the operation unit. 立体透視画像を用いてステージの回転指示を行う例について説明するための図である。It is a figure for explaining an example which gives a rotation instruction of a stage using a stereoscopic image. 新たに生成された立体形状データに基づいて表示される立体透視画像を示す図である。It is a figure which shows the stereoscopic perspective image displayed based on the newly generated stereoscopic shape data. ステージの回転時におけるCPUの動作例を示すフローチャートである。7 is a flowchart showing an operation example of the CPU when the stage rotates. 立体形状画像における測定対象物の回転方向の制限について説明するための図である。It is a figure for demonstrating the restriction | limiting of the rotation direction of the measuring object in a stereoscopic image. 基準面の設定時におけるCPUの動作例を示すフローチャートである。6 is a flowchart showing an operation example of a CPU when setting a reference plane. 基準面画像の例を示す図である。It is a figure which shows the example of a reference plane image. 計測条件の設定例について説明するための図である。It is a figure for explaining an example of setting measurement conditions. 基準面画像の他の例を示す図である。It is a figure which shows the other example of a reference plane image. プロファイルを取得すべき箇所の指定について説明するための図である。It is a figure for demonstrating specification of the part which should acquire a profile. プロファイル画像の例を示す図である。It is a figure which shows the example of a profile image.

以下、本発明の実施の形態に係る測定装置について図面を参照しながら説明する。   Hereinafter, a measuring device according to an embodiment of the present invention will be described with reference to the drawings.

[1]測定装置の構成
図1は、本発明の一実施の形態に係る測定装置の構成を示すブロック図である。図2は、図1の測定装置500の測定部の構成を示す模式図である。以下、本実施の形態に係る測定装置500について、図1および図2を参照しながら説明する。図1に示すように、測定装置500は、測定部100、PC(パーソナルコンピュータ)200、制御部300および表示部400を備える。
[1] Configuration of Measuring Apparatus FIG. 1 is a block diagram showing the configuration of the measuring apparatus according to one embodiment of the present invention. FIG. 2 is a schematic diagram showing the configuration of the measuring unit of the measuring device 500 shown in FIG. Hereinafter, the measuring device 500 according to the present embodiment will be described with reference to FIGS. 1 and 2. As shown in FIG. 1, the measurement device 500 includes a measurement unit 100, a PC (personal computer) 200, a control unit 300, and a display unit 400.

図1に示すように、測定部100は、例えば投受光一体の撮像デバイスであり、投光部110、受光部120、照明光出力部130、ステージ140および制御基板150を含む。図2に示すように、投光部110は、測定光源111、パターン生成部112および複数のレンズ113,114を含む。受光部120は、撮像素子121aを有するカメラ121、およびレンズ122を含む。本例において、カメラ121は単眼カメラである。ステージ140上には、測定対象物Sが載置される。   As shown in FIG. 1, the measurement unit 100 is, for example, an image pickup device integrated with light projection and light reception, and includes a light projection unit 110, a light reception unit 120, an illumination light output unit 130, a stage 140, and a control board 150. As shown in FIG. 2, the light projecting unit 110 includes a measurement light source 111, a pattern generating unit 112, and a plurality of lenses 113 and 114. The light receiving unit 120 includes a camera 121 having an image sensor 121a and a lens 122. In this example, the camera 121 is a monocular camera. The measuring object S is placed on the stage 140.

図2の例においては、測定部100は2つの投光部110を含む。以下、2つの投光部110を区別する場合は、一方の投光部110を投光部110Aと呼び、他方の投光部110を投光部110Bと呼ぶ。投光部110A,110Bは受光部120の光軸A1を挟んで対称に配置される。受光部120の光軸A1は、カメラ121の撮像素子121aの中心およびレンズ122の中心を通る。   In the example of FIG. 2, the measuring unit 100 includes two light projecting units 110. Hereinafter, when distinguishing the two light projecting units 110, one light projecting unit 110 is referred to as a light projecting unit 110A, and the other light projecting unit 110 is referred to as a light projecting unit 110B. The light projecting units 110A and 110B are arranged symmetrically with the optical axis A1 of the light receiving unit 120 interposed therebetween. The optical axis A1 of the light receiving unit 120 passes through the center of the image sensor 121a of the camera 121 and the center of the lens 122.

各投光部110A,110Bの測定光源111は、例えば青色LED(発光ダイオード)である。測定光源111は、ハロゲンランプ等の他の光源であってもよい。測定光源111から出射された光(以下、測定光と呼ぶ)は、レンズ113により適切に集光された後、パターン生成部112に入射する。   The measurement light source 111 of each of the light projecting units 110A and 110B is, for example, a blue LED (light emitting diode). The measurement light source 111 may be another light source such as a halogen lamp. Light emitted from the measurement light source 111 (hereinafter, referred to as measurement light) is appropriately condensed by the lens 113 and then enters the pattern generation unit 112.

パターン生成部112は、例えばDMD(デジタルマイクロミラーデバイス)である。パターン生成部112は、LCD(液晶ディスプレイ)、LCOS(Liquid Crystal on Silicon:反射型液晶素子)またはマスクであってもよい。パターン生成部112に入射した測定光は、予め設定されたパターンおよび予め設定された強度(明るさ)に変換されて出射される。パターン生成部112により出射された測定光は、レンズ114により測定対象物Sの寸法よりも大きい径を有する光に変換された後、ステージ140上の測定対象物Sに照射される。   The pattern generation unit 112 is, for example, a DMD (digital micromirror device). The pattern generation unit 112 may be an LCD (liquid crystal display), an LCOS (Liquid Crystal on Silicon) or a mask. The measurement light that has entered the pattern generation unit 112 is converted into a preset pattern and a preset intensity (brightness) and then emitted. The measurement light emitted by the pattern generation unit 112 is converted by the lens 114 into light having a diameter larger than the dimension of the measurement target S, and then the measurement target S on the stage 140 is irradiated with the measurement light.

投光部110Aの測定光源111、レンズ113およびパターン生成部112は、受光部120の光軸A1と略平行に並ぶように配置される。同様に、投光部110Bの測定光源111、レンズ113およびパターン生成部112は、受光部120の光軸A1と略平行に並ぶように配置される。一方、投光部110A,110Bのレンズ114は、測定光源111、レンズ113およびパターン生成部112に対してオフセットするように配置される。これにより、投光部110A,110Bの光軸A2が受光部120の光軸A1に対して傾斜し、受光部120の両側方から測定対象物Sに向けて測定光が出射される。測定対象物Sによりステージ140の上方に反射された測定光は、受光部120のレンズ122により集光および結像され、カメラ121の撮像素子121aにより受光される。   The measurement light source 111, the lens 113, and the pattern generation unit 112 of the light projecting unit 110A are arranged so as to be aligned substantially parallel to the optical axis A1 of the light receiving unit 120. Similarly, the measurement light source 111, the lens 113, and the pattern generation unit 112 of the light projecting unit 110B are arranged so as to be aligned substantially parallel to the optical axis A1 of the light receiving unit 120. On the other hand, the lenses 114 of the light projecting units 110A and 110B are arranged so as to be offset with respect to the measurement light source 111, the lens 113, and the pattern generating unit 112. As a result, the optical axes A2 of the light projecting units 110A and 110B are inclined with respect to the optical axis A1 of the light receiving unit 120, and measurement light is emitted toward the measurement target S from both sides of the light receiving unit 120. The measurement light reflected above the stage 140 by the measurement target S is condensed and imaged by the lens 122 of the light receiving unit 120, and is received by the image pickup element 121a of the camera 121.

本例においては、測定光の照射範囲を広くするため、一定の画角θ1を有するように投光部110A,110Bが構成される。投光部110A,110Bの画角θ1は、例えば、パターン生成部112の寸法およびレンズ114の焦点距離により定まる。また、受光部120の視野(撮像範囲)を広くするため、一定の画角θ2を有するように受光部120が構成される。受光部120の画角θ2は、例えば、撮像素子121aの寸法およびレンズ122の焦点距離により定まる。測定光の照射範囲および撮像範囲を広くする必要がない場合には、投光部110A,110Bおよび受光部120として、画角が略0度となるテレセントリック光学系が用いられてもよい。   In this example, in order to widen the irradiation range of the measurement light, the light projecting units 110A and 110B are configured to have a constant angle of view θ1. The angle of view θ1 of the light projecting units 110A and 110B is determined by, for example, the size of the pattern generating unit 112 and the focal length of the lens 114. Further, in order to widen the visual field (imaging range) of the light receiving unit 120, the light receiving unit 120 is configured to have a constant angle of view θ2. The angle of view θ2 of the light receiving unit 120 is determined by, for example, the size of the image sensor 121a and the focal length of the lens 122. If it is not necessary to widen the irradiation range and the imaging range of the measurement light, a telecentric optical system having an angle of view of approximately 0 degrees may be used as the light projecting units 110A and 110B and the light receiving unit 120.

測定部100は、倍率が異なる複数の受光部120を有してもよい。この場合、複数の受光部120を選択的に用いることにより、測定対象物Sを異なる倍率で撮像することができる。複数の受光部120の光軸は、互いに平行であることが好ましい。   The measurement unit 100 may include a plurality of light receiving units 120 having different magnifications. In this case, the measurement object S can be imaged at different magnifications by selectively using the plurality of light receiving units 120. The optical axes of the plurality of light receiving units 120 are preferably parallel to each other.

カメラ121は、例えばCCD(電荷結合素子)カメラである。撮像素子121aは、例えばモノクロCCD(電荷結合素子)である。撮像素子121aは、CMOS(相補性金属酸化膜半導体)イメージセンサ等の他の撮像素子であってもよい。撮像素子121aの各画素からは、受光量に対応するアナログの電気信号(以下、受光信号と呼ぶ)が制御基板150に出力される。   The camera 121 is, for example, a CCD (charge coupled device) camera. The image pickup device 121a is, for example, a monochrome CCD (charge coupled device). The image sensor 121a may be another image sensor such as a CMOS (complementary metal oxide semiconductor) image sensor. From each pixel of the image sensor 121a, an analog electric signal (hereinafter referred to as a light reception signal) corresponding to the amount of light received is output to the control board 150.

モノクロCCDには、カラーCCDとは異なり、赤色波長の光を受光する画素、緑色波長の光を受光する画素および青色波長の光を受光する画素を設ける必要がない。ここで、測定光に青色波長等の特定波長を採用した場合、カラーCCDは特定波長の光を受光する画素しか計測に利用できないが、モノクロCCDにはそのような制約がない。そのため、モノクロCCDの計測の分解能はカラーCCDの分解能よりも高くなる。また、モノクロCCDには、カラーCCDとは異なり、各画素にカラーフィルタを設ける必要がない。そのため、モノクロCCDの感度はカラーCCDの感度よりも高くなる。これらの理由により、本例におけるカメラ121にはモノクロCCDが設けられる。   Unlike a color CCD, a monochrome CCD does not need to be provided with a pixel that receives light of a red wavelength, a pixel that receives light of a green wavelength, and a pixel that receives light of a blue wavelength. Here, when a specific wavelength such as a blue wavelength is adopted as the measurement light, the color CCD can only be used for measurement of pixels that receive light of the specific wavelength, but the monochrome CCD has no such restriction. Therefore, the measurement resolution of the monochrome CCD is higher than that of the color CCD. Further, unlike the color CCD, the monochrome CCD does not need to be provided with a color filter for each pixel. Therefore, the sensitivity of the monochrome CCD is higher than that of the color CCD. For these reasons, the camera 121 in this example is provided with a monochrome CCD.

本例においては、照明光出力部130は、測定対象物Sに赤色波長の光、緑色波長の光および青色波長の光を時分割で出射する。この構成によれば、モノクロCCDを用いた受光部120により測定対象物Sのカラー画像を撮像することができる。   In this example, the illumination light output unit 130 outputs the red wavelength light, the green wavelength light, and the blue wavelength light to the measurement target S in a time division manner. With this configuration, a color image of the measuring object S can be captured by the light receiving unit 120 using the monochrome CCD.

一方、カラーCCDが十分な分解能および感度を有する場合には、撮像素子121aは、カラーCCDであってもよい。この場合、照明光出力部130は、測定対象物Sに赤色波長の光、緑色波長の光および青色波長の光を時分割で照射する必要はなく、白色光を測定対象物Sに照射する。そのため、照明光源320の構成を単純にすることができる。   On the other hand, when the color CCD has sufficient resolution and sensitivity, the image sensor 121a may be the color CCD. In this case, the illumination light output unit 130 does not need to irradiate the measurement target S with the red wavelength light, the green wavelength light, and the blue wavelength light in a time division manner, and irradiates the measurement target S with the white light. Therefore, the configuration of the illumination light source 320 can be simplified.

制御基板150には、図示しないA/D変換器(アナログ/デジタル変換器)およびFIFO(First In First Out)メモリが実装される。カメラ121から出力される受光信号は、制御部300による制御に基づいて、制御基板150のA/D変換器により一定のサンプリング周期でサンプリングされるとともにデジタル信号に変換される。A/D変換器から出力されるデジタル信号は、FIFOメモリに順次蓄積される。FIFOメモリに蓄積されたデジタル信号は画素データとして順次PC200に転送される。ここで、カメラ121が、例えば、モノクロCMOSカメラであって、撮像素子121aの各画素から受光量に対応するデジタルの電気信号が制御基板150へ出力される場合、A/D変換器は必ずしも必要ではない。   An A / D converter (analog / digital converter) and a FIFO (First In First Out) memory (not shown) are mounted on the control board 150. The light reception signal output from the camera 121 is sampled at a constant sampling period by the A / D converter of the control board 150 and converted into a digital signal under the control of the control unit 300. The digital signals output from the A / D converter are sequentially stored in the FIFO memory. The digital signals stored in the FIFO memory are sequentially transferred to the PC 200 as pixel data. Here, when the camera 121 is, for example, a monochrome CMOS camera and each pixel of the image sensor 121a outputs a digital electric signal corresponding to the amount of received light to the control board 150, the A / D converter is not always necessary. is not.

図1に示すように、PC200は、CPU(中央演算処理装置)210、ROM(リードオンリメモリ)220、作業用メモリ230、記憶装置240および操作部250を含む。また、操作部250は、キーボードおよびポインティングデバイスを含む。ポインティングデバイスとしては、マウスまたはジョイスティック等が用いられる。   As shown in FIG. 1, the PC 200 includes a CPU (central processing unit) 210, a ROM (read only memory) 220, a work memory 230, a storage device 240, and an operation unit 250. The operation unit 250 also includes a keyboard and a pointing device. A mouse, a joystick, or the like is used as the pointing device.

ROM220には、システムプログラムが記憶される。作業用メモリ230は、RAM(ランダムアクセスメモリ)からなり、種々のデータの処理のために用いられる。記憶装置240は、ハードディスク等からなる。記憶装置240には、形状測定プログラムが記憶される。また、記憶装置240は、制御基板150から与えられる画素データ等の種々のデータを保存するために用いられる。   A system program is stored in the ROM 220. The work memory 230 is composed of a RAM (random access memory) and is used for processing various data. The storage device 240 includes a hard disk or the like. The storage device 240 stores a shape measurement program. Further, the storage device 240 is used to store various data such as pixel data given from the control board 150.

CPU210は、制御基板150から与えられる画素データに基づいて画像データを生成する。また、CPU210は、生成した画像データに作業用メモリ230を用いて各種処理を行うとともに、画像データに基づく画像を表示部400に表示させる。さらに、CPU210は、後述するステージ駆動部146に制御基板150を通して駆動信号を与える。表示部400は、例えばLCDパネルまたは有機EL(エレクトロルミネッセンス)パネルにより構成される。表示部400には、受光部120のカメラ121によりリアルタイムで取得される画像データ(以下、ライブ画像データと呼ぶ。)に基づいて、リアルタイムでの測定対象物Sの画像(以下、ライブ画像と呼ぶ)を表示させることができる。   The CPU 210 generates image data based on the pixel data provided from the control board 150. Further, the CPU 210 uses the work memory 230 to perform various processes on the generated image data and causes the display unit 400 to display an image based on the image data. Further, the CPU 210 gives a drive signal to the stage drive unit 146 described later through the control board 150. The display unit 400 is composed of, for example, an LCD panel or an organic EL (electroluminescence) panel. An image of the measuring object S in real time (hereinafter referred to as a live image) is displayed on the display unit 400 based on image data (hereinafter referred to as live image data) acquired in real time by the camera 121 of the light receiving unit 120. ) Can be displayed.

一方の投光部110Aから測定光が照射された測定対象物Sの画像と他方の投光部110Bから測定光が照射された測定対象物Sの画像とが並ぶように表示部400に表示(2画面表示)されてもよい。また、一方の投光部110Aから測定光が照射された測定対象物Sの画像と他方の投光部110Bから測定光が照射された測定対象物Sの画像とが重なるように表示部400に表示する等の合成表示がされてもよい。   The image of the measurement target S irradiated with the measurement light from one light projection unit 110A and the image of the measurement target S irradiated with the measurement light from the other light projection unit 110B are displayed on the display unit 400 so as to be aligned ( It may be displayed in two screens. In addition, the image of the measuring object S irradiated with the measuring light from one light projecting section 110A and the image of the measuring object S irradiated with the measuring light from the other light projecting section 110B are overlapped on the display section 400. Composite display such as display may be performed.

2画面表示がされる場合には、例えば、一定の周期(数Hz)で投光部110A,110Bから測定対象物Sに交互に測定光が照射され、投光部110Aから測定対象物Sに測定光が照射されているときに取得される画像および投光部110Bから測定対象物Sに測定光が照射されているときに取得される画像が表示部400に別個に表示される。使用者は、表示される画像を見ながら、投光部110Aから測定光が出射されるときの受光部120の受光量および投光部110Bから測定光が出射されるときの受光部120の受光量をそれぞれ調整することができる。受光部120の受光量は、投光部110A,110Bから出射される測定光の明るさまたは受光部120の露光時間を変化させることにより調整可能である。   When two screens are displayed, for example, the measuring object S is alternately irradiated from the light projecting units 110A and 110B at a constant cycle (several Hz), and the measuring object S is projected from the light projecting unit 110A. The image acquired when the measuring light is irradiated and the image acquired when the measuring object S is irradiated with the measuring light from the light projecting unit 110B are separately displayed on the display unit 400. While watching the displayed image, the user receives the amount of light received by the light receiving unit 120 when the measurement light is emitted from the light projecting unit 110A and the light reception of the light receiving unit 120 when the measurement light is emitted from the light projecting unit 110B. The amount can be adjusted individually. The amount of light received by the light receiving unit 120 can be adjusted by changing the brightness of the measurement light emitted from the light projecting units 110A and 110B or the exposure time of the light receiving unit 120.

合成表示がされる場合も、2画面表示がされる場合と同様に、使用者は、表示される画像を見ながら、投光部110Aから測定光が出射されるときの受光部120の受光量および投光部110Bから測定光が出射されるときの受光部120の受光量をそれぞれ調整することができる。この場合、表示部400においては、合成表示の画像に加えて、一方の投光部110Aから測定光が照射された測定対象物Sの画像と、他方の投光部110Bから測定光が照射された測定対象物Sの画像とが並ぶように表示されてもよい。または、表示部400においては、2画面表示の画像と合成表示の画像とが切り替えて表示されてもよい。あるいは、表示部400においては、合成表示の画像と、一方の投光部110Aから測定光が照射された測定対象物Sの画像と、他方の投光部110Bから測定光が照射された測定対象物Sの画像とが、切り替えて表示されてもよい。   Even when the composite display is performed, the user receives the amount of light received by the light receiving unit 120 when the measurement light is emitted from the light projecting unit 110A while looking at the displayed image, as in the case of the two-screen display. Also, it is possible to adjust the amount of light received by the light receiving unit 120 when the measurement light is emitted from the light projecting unit 110B. In this case, in the display unit 400, in addition to the combined display image, the image of the measuring object S irradiated with the measurement light from one light projecting unit 110A and the measurement light from the other light projecting unit 110B are irradiated. The image of the measurement target S may be displayed side by side. Alternatively, the display unit 400 may switch between the two-screen display image and the composite display image. Alternatively, in the display unit 400, an image of the combined display, an image of the measurement target S irradiated with the measurement light from one light projecting unit 110A, and a measurement target irradiated with the measurement light from the other light projection unit 110B. The image of the object S may be switched and displayed.

図2に示すように、ステージ140は、ステージベース141およびステージプレート142を含む。ステージベース141上にステージプレート142が配置される。ステージプレート142は、測定対象物Sが載置される載置面を有する。ここで、ステージプレート142の載置面内で互いに直交する2方向をX方向およびY方向と定義し、それぞれ矢印X,Yで示す。また、載置面に対して直交する方向をZ方向と定義し、矢印Zで示す。また、Z方向に平行な軸を中心に回転する方向をθ方向と定義し、矢印θで示す。ステージプレート142には、クランプまたは治具等を取り付けるための取付部(例えばねじ孔)が設けられてもよい。   As shown in FIG. 2, the stage 140 includes a stage base 141 and a stage plate 142. The stage plate 142 is arranged on the stage base 141. The stage plate 142 has a mounting surface on which the measurement target S is mounted. Here, two directions orthogonal to each other on the mounting surface of the stage plate 142 are defined as an X direction and a Y direction, which are indicated by arrows X and Y, respectively. Moreover, the direction orthogonal to the mounting surface is defined as the Z direction, and is indicated by an arrow Z. Further, a direction rotating about an axis parallel to the Z direction is defined as a θ direction and is indicated by an arrow θ. The stage plate 142 may be provided with a mounting portion (for example, a screw hole) for mounting a clamp, a jig, or the like.

ステージプレート142の載置面の上方には、略円柱状の測定可能領域MRが設定される。測定可能領域MRは、投光部110A,110Bにより測定光を照射可能でかつ受光部120により撮像可能な領域である。測定可能領域MRの大きさおよび位置は、カメラ121のレンズ122の倍率および焦点位置等によって異なる。倍率が異なる複数の受光部120が設けられる場合には、使用される受光部120によって測定可能領域MRが異なる。   A substantially cylindrical measurable region MR is set above the mounting surface of the stage plate 142. The measurable region MR is a region that can be irradiated with the measurement light by the light projecting units 110A and 110B and can be imaged by the light receiving unit 120. The size and position of the measurable region MR differ depending on the magnification and focus position of the lens 122 of the camera 121. When a plurality of light receiving units 120 having different magnifications are provided, the measurable region MR differs depending on the light receiving units 120 used.

ステージ140は回転機構143に取り付けられる。回転機構143は、例えばステッピングモータを含む。回転機構143は、図1のステージ操作部145またはステージ駆動部146により駆動され、ステージ140を回転軸Axを中心にθ方向に回転させる。本例において、回転軸Axは鉛直方向に延びる。回転軸Axの方向は鉛直方向に限らず、鉛直方向に対して僅かに傾斜していてもよい。使用者は、ステージ操作部145を手動で操作することにより、ステージ140をθ方向に回転させることができる。また、ステージ駆動部146は、PC200より制御基板150を通して与えられる駆動信号に基づいて、回転機構143に電流を供給することにより、ステージ140を受光部120に相対的にθ方向に回転させることができる。   The stage 140 is attached to the rotation mechanism 143. The rotation mechanism 143 includes, for example, a stepping motor. The rotation mechanism 143 is driven by the stage operation unit 145 or the stage drive unit 146 of FIG. 1 to rotate the stage 140 in the θ direction about the rotation axis Ax. In this example, the rotation axis Ax extends in the vertical direction. The direction of the rotation axis Ax is not limited to the vertical direction, and may be slightly inclined with respect to the vertical direction. The user can rotate the stage 140 in the θ direction by manually operating the stage operation unit 145. Further, the stage driving unit 146 can rotate the stage 140 in the θ direction relative to the light receiving unit 120 by supplying a current to the rotating mechanism 143 based on the drive signal given from the PC 200 through the control board 150. it can.

なお、本実施の形態では、ステージ140はステッピングモータにより駆動することが可能であるとともに手動により操作することが可能であるが、これに限定されない。ステージ140はステッピングモータでのみ駆動することが可能であってもよいし、手動でのみ操作することが可能であってもよい。また、ステッピングモータに代えて、サーボモータ等の他の駆動装置が用いられてもよい。   In this embodiment, the stage 140 can be driven by a stepping motor and can be manually operated, but the present invention is not limited to this. The stage 140 may be driven only by a stepping motor, or may be operated only manually. Further, instead of the stepping motor, another driving device such as a servo motor may be used.

制御部300は、制御基板310および照明光源320を含む。制御基板310には、図示しないCPUが実装される。制御基板310のCPUは、PC200のCPU210からの指令に基づいて、投光部110、受光部120および制御基板150を制御する。制御基板310および照明光源320は、測定部100に搭載されてもよい。ただし、制御基板310および照明光源320は熱を生じやすく、その熱の影響によって測定部100の精度が低下する可能性がある。したがって、測定部100の精度を確保するために、制御基板310および照明光源320が測定部100の外部に設けられることが好ましい。   The controller 300 includes a control board 310 and an illumination light source 320. A CPU (not shown) is mounted on the control board 310. The CPU of the control board 310 controls the light projecting section 110, the light receiving section 120, and the control board 150 based on a command from the CPU 210 of the PC 200. The control board 310 and the illumination light source 320 may be mounted on the measurement unit 100. However, the control board 310 and the illumination light source 320 easily generate heat, and the accuracy of the measurement unit 100 may be deteriorated due to the influence of the heat. Therefore, in order to ensure the accuracy of the measurement unit 100, it is preferable that the control board 310 and the illumination light source 320 be provided outside the measurement unit 100.

照明光源320は、例えば赤色光、緑色光および青色光を出射する3つのLEDを含む。各LEDから出射される光の輝度を制御することにより、照明光源320から任意の色の光を発生することができる。照明光源320から発生される光(以下、照明光と呼ぶ)は、導光部材(ライトガイド)を通して測定部100の照明光出力部130から出力される。図2の照明光出力部130は、円環形状を有し、受光部120を取り囲むようにステージ140の上方に配置される。これにより、影が発生しないように照明光出力部130から測定対象物Sに照明光が照射される。なお、照明光出力部130および照明光源320は、外部装置として設けられてもよい。   The illumination light source 320 includes, for example, three LEDs that emit red light, green light, and blue light. By controlling the brightness of the light emitted from each LED, it is possible to generate light of any color from the illumination light source 320. Light generated from the illumination light source 320 (hereinafter referred to as illumination light) is output from the illumination light output unit 130 of the measurement unit 100 through the light guide member (light guide). The illumination light output unit 130 of FIG. 2 has an annular shape and is arranged above the stage 140 so as to surround the light receiving unit 120. As a result, the illumination light output unit 130 illuminates the measurement target S with illumination light so that no shadow is generated. The illumination light output unit 130 and the illumination light source 320 may be provided as external devices.

図3は、図1のCPU210により実現される機能を示す機能ブロック図である。図3に示すように、CPU210は、点群データ生成部501、立体形状画像データ生成部502、計測部503、基準面設定部504、平面画像データ生成部505、第1の回転指示受付部506a、第2の回転指示受付部506bおよび回転制御部507を含む。   FIG. 3 is a functional block diagram showing functions realized by the CPU 210 of FIG. As illustrated in FIG. 3, the CPU 210 includes a point cloud data generation unit 501, a three-dimensional shape image data generation unit 502, a measurement unit 503, a reference plane setting unit 504, a plane image data generation unit 505, and a first rotation instruction reception unit 506a. , And a second rotation instruction receiving unit 506b and a rotation control unit 507.

点群データ生成部501は、受光部120により出力される受光信号に基づいて、測定対象物Sの立体形状を表す点群データを生成する。立体形状画像データ生成部502は、点群データ生成部501により生成された点群データに基づいて、測定対象物Sの画像を立体画法により平面上に立体形状画像として表す立体形状画像データを生成する。計測部503は、立体形状画像データ生成部502により生成された立体形状画像データにより表される立体形状画像上で計測すべき箇所の指定を受け付け、点群データ生成部501により生成された点群データに基づいて、指定された箇所の計測値を算出する。基準面設定部504は、点群データ生成部501により生成された点群データに基づいて、測定対象物Sの表面の一部に対応しかつ計測の基準となる基準面を設定する。平面画像データ生成部505は、点群データ生成部501により生成された点群データに基づいて、基準面設定部504により設定された基準面に対して垂直に測定対象物Sを見た画像を表す平面画像データを生成する。第1の回転指示受付部506aは、使用者によるステージ140の回転指示を受け付ける。第2の回転指示受付部506bは、立体形状画像における測定対象物Sの予め定められた方向の回転指示を受け付ける。回転制御部507は、第1または第2の回転指示受付部506a,506bにより受け付けられた回転指示に基づいて、ステージ駆動部146を制御することによりステージ140の回転を制御する。これらの機能の詳細については後述する。   The point cloud data generation unit 501 generates point cloud data representing the three-dimensional shape of the measurement target S based on the light reception signal output by the light reception unit 120. Based on the point cloud data generated by the point cloud data generation unit 501, the stereoscopic shape image data generation unit 502 generates stereoscopic shape image data that represents an image of the measurement target S on a plane as a stereoscopic shape image by a stereoscopic method. To generate. The measuring unit 503 accepts designation of a position to be measured on the stereoscopic image represented by the stereoscopic image data generated by the stereoscopic image data generating unit 502, and the point cloud generated by the point cloud data generating unit 501. Based on the data, calculate the measured value at the specified location. The reference plane setting unit 504 sets a reference plane corresponding to a part of the surface of the measuring object S and serving as a reference for measurement, based on the point cloud data generated by the point cloud data generation unit 501. Based on the point cloud data generated by the point cloud data generation unit 501, the plane image data generation unit 505 displays an image of the measurement target S viewed perpendicularly to the reference plane set by the reference plane setting unit 504. The plane image data to represent is produced | generated. The first rotation instruction receiving unit 506a receives a rotation instruction of the stage 140 from the user. The second rotation instruction receiving unit 506b receives a rotation instruction of the measurement target S in the predetermined direction in the stereoscopic image. The rotation control unit 507 controls the rotation of the stage 140 by controlling the stage driving unit 146 based on the rotation instruction received by the first or second rotation instruction receiving unit 506a or 506b. Details of these functions will be described later.

点群データ生成部501、立体形状画像データ生成部502、計測部503、基準面設定部504、平面画像データ生成部505、第1の回転指示受付部506a、第2の回転指示受付部506bおよび回転制御部507は、CPU210がROM220または記憶装置240に記憶された形状測定プログラムを実行することにより実現される。これらの機能部は、電子回路等のハードウエアにより実現されてもよい。   Point cloud data generation unit 501, stereoscopic shape image data generation unit 502, measurement unit 503, reference plane setting unit 504, plane image data generation unit 505, first rotation instruction reception unit 506a, second rotation instruction reception unit 506b, and The rotation control unit 507 is realized by the CPU 210 executing the shape measurement program stored in the ROM 220 or the storage device 240. These functional units may be realized by hardware such as an electronic circuit.

図4は、測定部100の模式的な外観斜視図である。図4では、測定部100の外観が太い実線で示されるとともに、測定部100の内部に設けられる一部の構成要素が点線で示される。図4に示すように、測定部100は台座170を含む。台座170には、2つの投光部110、受光部120、照明光出力部130および制御基板150が取り付けられる。この状態で、2つの投光部110、受光部120および照明光出力部130の位置関係が台座170により固定される。また、照明光出力部130は、略円筒形状を有し、受光部120を取り囲むように配置されている。照明光出力部130の一端部には、楕円形状を有する照明光の出射口131が形成されている。さらに、2つの投光部110は、受光部120および照明光出力部130を挟んで並ぶように配置される。   FIG. 4 is a schematic external perspective view of the measuring unit 100. In FIG. 4, the appearance of the measurement unit 100 is shown by a thick solid line, and some of the constituent elements provided inside the measurement unit 100 are shown by a dotted line. As shown in FIG. 4, the measuring unit 100 includes a pedestal 170. Two light projecting units 110, a light receiving unit 120, an illumination light output unit 130, and a control board 150 are attached to the pedestal 170. In this state, the positional relationship among the two light projecting units 110, the light receiving units 120, and the illumination light output units 130 is fixed by the pedestal 170. The illumination light output section 130 has a substantially cylindrical shape and is arranged so as to surround the light receiving section 120. An illumination light outlet 131 having an elliptical shape is formed at one end of the illumination light output unit 130. Further, the two light projecting units 110 are arranged side by side with the light receiving unit 120 and the illumination light output unit 130 interposed therebetween.

台座170には、2つの投光部110、受光部120、照明光出力部130および制御基板150の一部を収容するヘッドケーシング180が取り付けられる。2つの投光部110、受光部120、照明光出力部130、制御基板150、台座170およびヘッドケーシング180によりヘッド部190が構成される。   A head casing 180 that accommodates a part of the two light projecting units 110, the light receiving unit 120, the illumination light output unit 130, and the control board 150 is attached to the pedestal 170. A head unit 190 is configured by the two light projecting units 110, the light receiving unit 120, the illumination light output unit 130, the control board 150, the pedestal 170, and the head casing 180.

測定部100は、設置部161およびスタンド部162を含む。設置部161は、平坦な底面を有するとともに略一定幅で一方向に延びるように形成されている。スタンド部162は、設置部161の一端部に接続され、設置部161の一端部から上方に延びるように形成される。設置部161上にステージ140が回転可能に保持される。ヘッド部190の台座170は、スタンド部162の上端に着脱可能に構成されている。スタンド部162によりヘッド部190と設置部161とが固定的に連結される。これにより、ステージ140、2つの投光部110および受光部120の位置関係が一定に保持される。   The measurement unit 100 includes an installation unit 161 and a stand unit 162. The installation portion 161 has a flat bottom surface and is formed to extend in one direction with a substantially constant width. The stand portion 162 is connected to one end of the installation portion 161, and is formed to extend upward from one end of the installation portion 161. The stage 140 is rotatably held on the installation unit 161. The pedestal 170 of the head portion 190 is configured to be attachable to and detachable from the upper end of the stand portion 162. The head part 190 and the installation part 161 are fixedly connected by the stand part 162. As a result, the positional relationship between the stage 140, the two light projecting units 110, and the light receiving units 120 is held constant.

各投光部110は、測定光の照射される照射領域IRがステージ140およびその上方の空間を含むように位置決めされる。測定光は、各投光部110から測定対象物Sに対して斜め下方に導かれる。各受光部120は、図2のカメラ121による撮像領域TRがステージ140およびその上方の空間を含むように位置決めされる。図4では、各投光部110の照射領域IRが二点鎖線で示されるとともに、受光部120の撮像領域TRが一点鎖線で示される。   Each light projecting unit 110 is positioned such that the irradiation region IR to which the measurement light is irradiated includes the stage 140 and the space above it. The measurement light is guided obliquely downward from each light projecting unit 110 with respect to the measurement target S. Each light receiving unit 120 is positioned so that the imaging region TR by the camera 121 of FIG. 2 includes the stage 140 and the space above it. In FIG. 4, the irradiation region IR of each light projecting unit 110 is shown by a two-dot chain line, and the imaging region TR of the light receiving unit 120 is shown by a one-dot chain line.

図5は、受光部120とステージ140との位置関係について説明するための図である。図5には、側方から見た受光部120およびステージ140が示される。図5に示すように、受光部120の光軸A1は、ステージ140の回転軸Axに対して傾斜しており、ステージ140上の測定対象物Sに向かって斜め下方に延びる。   FIG. 5 is a diagram for explaining the positional relationship between the light receiving unit 120 and the stage 140. FIG. 5 shows the light receiving unit 120 and the stage 140 viewed from the side. As shown in FIG. 5, the optical axis A1 of the light receiving unit 120 is inclined with respect to the rotation axis Ax of the stage 140 and extends obliquely downward toward the measurement target S on the stage 140.

受光部120は、光軸A1に垂直な仮想的な撮像面120aを有する。撮像面120aが向けられる領域が、受光部120によって撮像される領域となる。本例では、測定可能領域MRに対して撮像面120aが斜め下方に向けられる。水平面に対する撮像面120aの傾斜角度D1は、例えば45度に設定される。   The light receiving unit 120 has a virtual imaging surface 120a perpendicular to the optical axis A1. The area where the imaging surface 120a is directed becomes the area where the light receiving unit 120 images. In this example, the imaging surface 120a is directed obliquely downward with respect to the measurable region MR. The inclination angle D1 of the imaging surface 120a with respect to the horizontal plane is set to 45 degrees, for example.

[2]測定対象物の形状測定
(1)三角測距方式による形状測定
測定部100においては、三角測距方式により測定対象物Sの形状が測定される。図6は、三角測距方式の原理を説明するための図である。図6に示すように、測定光の光軸A2と受光部120の光軸A1との間の角度αが予め設定される。角度αは、0度よりも大きく90度よりも小さい。
[2] Measurement of Shape of Object to be Measured (1) Shape Measurement by Triangular Ranging Method In the measuring unit 100, the shape of the object of measurement S is measured by the triangular distance measuring method. FIG. 6 is a diagram for explaining the principle of the triangulation method. As shown in FIG. 6, an angle α between the optical axis A2 of the measurement light and the optical axis A1 of the light receiving unit 120 is set in advance. The angle α is larger than 0 degrees and smaller than 90 degrees.

ステージ140上に測定対象物Sが載置されない場合、投光部110から出射される測定光は、ステージ140の載置面の点Oにより反射され、受光部120に入射する。一方、ステージ140上に測定対象物Sが載置される場合、投光部110から出射される測定光は、測定対象物Sの表面の点Aにより反射され、受光部120に入射する。   When the measurement target S is not mounted on the stage 140, the measurement light emitted from the light projecting unit 110 is reflected by the point O on the mounting surface of the stage 140 and enters the light receiving unit 120. On the other hand, when the measurement target S is placed on the stage 140, the measurement light emitted from the light projecting unit 110 is reflected by the point A on the surface of the measurement target S and enters the light receiving unit 120.

点Oと点Aとの間のX方向における距離をdとすると、ステージ140の載置面に対する測定対象物Sの点Aの高さhは、h=d÷tan(α)により与えられる。図1のPC200のCPU210は、制御基板150により与えられる測定対象物Sの画素データに基づいて、X方向における点Oと点Aとの間の距離dを測定する。また、CPU210は、測定された距離dに基づいて、測定対象物Sの表面の点Aの高さhを算出する。測定対象物Sの表面の複数の点の高さを算出することにより、測定対象物Sの三次元的な形状が測定される。   When the distance between the point O and the point A in the X direction is d, the height h of the point A of the measuring object S with respect to the mounting surface of the stage 140 is given by h = d ÷ tan (α). The CPU 210 of the PC 200 in FIG. 1 measures the distance d between the point O and the point A in the X direction based on the pixel data of the measurement object S provided by the control board 150. Further, the CPU 210 calculates the height h of the point A on the surface of the measuring object S based on the measured distance d. The three-dimensional shape of the measuring object S is measured by calculating the heights of a plurality of points on the surface of the measuring object S.

測定対象物Sの表面の複数の点に測定光を照射するために、図1の投光部110からは種々のパターンを有する測定光が出射される。測定光のパターンは、図2のパターン生成部112により制御される。以下、測定光のパターンについて説明する。   In order to irradiate a plurality of points on the surface of the measuring object S with the measuring light, the light projecting unit 110 in FIG. 1 emits the measuring light having various patterns. The pattern of the measurement light is controlled by the pattern generation unit 112 in FIG. Hereinafter, the pattern of the measurement light will be described.

(2)測定光の第1のパターン
図7は、測定光の第1のパターンを説明するための図である。図7(a)は、ステージ140上の測定対象物Sに投光部110から測定光を照射した状態を示す。図7(b)は、測定光が照射された測定対象物Sの平面図を示す。図7(a)に示すように、第1のパターンとして、Y方向に平行な直線状の断面を有する測定光(以下、ライン状測定光と呼ぶ)が投光部110から出射される。この場合、図7(b)に示すように、ステージ140に照射されたライン状測定光の部分と測定対象物Sの表面に照射されたライン状測定光の部分とは、測定対象物Sの表面の高さhに対応する距離dだけX方向に互いにずれる。したがって、距離dを測定することにより、測定対象物Sの高さhを算出することができる。
(2) First Pattern of Measuring Light FIG. 7 is a diagram for explaining the first pattern of measuring light. FIG. 7A shows a state in which the measuring object S on the stage 140 is irradiated with the measuring light from the light projecting unit 110. FIG. 7B shows a plan view of the measuring object S irradiated with the measurement light. As shown in FIG. 7A, as the first pattern, measurement light having a linear cross section parallel to the Y direction (hereinafter, referred to as line measurement light) is emitted from the light projecting unit 110. In this case, as shown in FIG. 7B, the portion of the linear measuring light with which the stage 140 is irradiated and the portion of the linear measuring light with which the surface of the measuring object S is irradiated are of the measuring object S. They are offset from each other in the X direction by a distance d corresponding to the height h of the surface. Therefore, the height h of the measuring object S can be calculated by measuring the distance d.

測定対象物Sの表面のY方向に沿った複数の部分が異なる高さを有する場合には、各部分について上記の距離dを測定することにより、Y方向に沿った複数の部分の高さhを算出することができる。   When a plurality of portions along the Y direction on the surface of the measuring object S have different heights, the height h of the plurality of portions along the Y direction is measured by measuring the distance d for each portion. Can be calculated.

また、図1のCPU210は、X方向の一の位置でY方向に沿った複数の部分について距離dを測定した後、Y方向に平行なライン状測定光をX方向に走査することにより、X方向の他の位置でY方向に沿った複数の部分について距離dを測定する。これにより、X方向の複数の位置におけるY方向に沿った測定対象物Sの複数の部分の高さhが算出される。測定対象物SのX方向の寸法よりも広い範囲でライン状測定光をX方向に走査することにより、測定対象物Sの表面の各点の高さhを算出することができる。これにより、測定対象物Sの三次元的な形状を測定することができる。   Further, the CPU 210 of FIG. 1 measures the distance d at a plurality of portions along the Y direction at one position in the X direction, and then scans a linear measuring light parallel to the Y direction in the X direction, thereby The distance d is measured for a plurality of portions along the Y direction at other positions in the direction. Thereby, the heights h of the plurality of portions of the measuring object S along the Y direction at the plurality of positions in the X direction are calculated. The height h of each point on the surface of the measuring object S can be calculated by scanning the linear measuring light in the X direction in a range wider than the dimension of the measuring object S in the X direction. Thereby, the three-dimensional shape of the measuring object S can be measured.

(3)測定光の第2のパターン
図8は、測定光の第2のパターンを説明するための図である。図8に示すように、第2のパターンとして、Y方向に平行な直線状の断面を有しかつX方向に強度が正弦波状に変化するパターンを有する測定光(以下、正弦波状測定光と呼ぶ)が投光部110から複数回(本例においては4回)出射される。
(3) Second Pattern of Measuring Light FIG. 8 is a diagram for explaining the second pattern of measuring light. As shown in FIG. 8, as the second pattern, measurement light having a linear cross section parallel to the Y direction and a pattern in which the intensity changes sinusoidally in the X direction (hereinafter referred to as sinusoidal measurement light). ) Is emitted from the light projecting unit 110 a plurality of times (four times in this example).

図8(a)は、1回目に出射される正弦波状測定光を示す。1回目に出射される正弦波状測定光の強度は、測定対象物Sの表面上の任意の部分P0において初期位相φを有する。この正弦波状測定光が出射されることにより、測定対象物Sの表面で反射された光が受光部120により受光される。受光された光の強度が測定対象物Sの画素データに基づいて測定される。測定対象物Sの表面上の部分P0により反射された光の強度をI1とする。   FIG. 8A shows the sinusoidal measurement light emitted for the first time. The intensity of the sinusoidal measurement light emitted for the first time has an initial phase φ at an arbitrary portion P0 on the surface of the measuring object S. The light reflected by the surface of the measuring object S is received by the light receiving unit 120 by emitting the sinusoidal measuring light. The intensity of the received light is measured based on the pixel data of the measuring object S. Let I1 be the intensity of the light reflected by the portion P0 on the surface of the measuring object S.

図8(b)は、2回目に出射される正弦波状測定光を示す。2回目に出射される正弦波状測定光の強度は、測定対象物Sの表面上の部分P0において位相(φ+π/2)を有する。この正弦波状測定光が出射されることにより、測定対象物Sの表面で反射された光が受光部120により受光される。受光された光の強度が測定対象物Sの画素データに基づいて測定される。測定対象物Sの表面上の部分P0により反射された光の強度をI2とする。   FIG. 8B shows the sinusoidal measurement light emitted for the second time. The intensity of the sinusoidal measurement light emitted the second time has a phase (φ + π / 2) at the portion P0 on the surface of the measurement object S. The light reflected by the surface of the measuring object S is received by the light receiving unit 120 by emitting the sinusoidal measuring light. The intensity of the received light is measured based on the pixel data of the measuring object S. Let I2 be the intensity of the light reflected by the portion P0 on the surface of the measuring object S.

図8(c)は、3回目に出射される正弦波状測定光を示す。3回目に出射される正弦波状測定光の強度は、測定対象物Sの表面上の部分P0において位相(φ+π)を有する。この正弦波状測定光が出射されることにより、測定対象物Sの表面で反射された光が受光部120により受光される。受光された光の強度が測定対象物Sの画素データに基づいて測定される。測定対象物Sの表面上の部分P0により反射された光の強度をI3とする。   FIG. 8C shows the sinusoidal measurement light emitted for the third time. The intensity of the sinusoidal measurement light emitted for the third time has a phase (φ + π) at the portion P0 on the surface of the measuring object S. The light reflected by the surface of the measuring object S is received by the light receiving unit 120 by emitting the sinusoidal measuring light. The intensity of the received light is measured based on the pixel data of the measuring object S. The intensity of the light reflected by the portion P0 on the surface of the measuring object S is I3.

図8(d)は、4回目に出射される正弦波状測定光を示す。4回目の正弦波状測定光の強度は、測定対象物Sの表面上の部分P0において位相(φ+3π/2)を有する。この正弦波状測定光が出射されることにより、測定対象物Sの表面で反射された光が受光部120により受光される。受光された光の強度が測定対象物Sの画素データに基づいて測定される。測定対象物Sの表面上の部分P0により反射された光の強度をI4とする。   FIG. 8D shows the sinusoidal measurement light emitted for the fourth time. The intensity of the fourth sinusoidal measurement light has a phase (φ + 3π / 2) at the portion P0 on the surface of the measuring object S. The light reflected by the surface of the measuring object S is received by the light receiving unit 120 by emitting the sinusoidal measuring light. The intensity of the received light is measured based on the pixel data of the measuring object S. The intensity of the light reflected by the portion P0 on the surface of the measuring object S is I4.

初期位相φは、φ=tan−1[(I1−I3)/(I2−I4)]で与えられる。初期位相φから測定対象物Sの任意の部分の高さhが算出される。この方式によれば、4回の光の強度の測定により、測定対象物Sの各部分の初期位相φを高速かつ容易に算出することができる。なお、初期位相φは、異なる位相を有する測定光を少なくとも3回出射し、受光される光の強度を測定することにより算出することができる。測定対象物Sの表面上の各部分の高さhを算出することにより、測定対象物Sの三次元的な形状を測定することができる。 The initial phase φ is given by φ = tan −1 [(I1-I3) / (I2-I4)]. The height h of an arbitrary portion of the measuring object S is calculated from the initial phase φ. According to this method, the initial phase φ of each portion of the measuring object S can be calculated quickly and easily by measuring the light intensity four times. The initial phase φ can be calculated by emitting measurement light having different phases at least three times and measuring the intensity of the received light. By calculating the height h of each part on the surface of the measuring object S, the three-dimensional shape of the measuring object S can be measured.

(4)測定光の第3のパターン
図9は、測定光の第3のパターンを説明するための図である。図9に示すように、第3のパターンとして、Y方向に平行でかつX方向に並ぶような直線状の断面を有する測定光(以下、縞状測定光と呼ぶ)が投光部110から複数回(本例においては16回)出射される。すなわち、縞状測定光においては、Y方向に平行な直線状の明部分およびY方向に平行な直線状の暗部分がX方向に周期的に配列される。
(4) Third Pattern of Measuring Light FIG. 9 is a diagram for explaining the third pattern of measuring light. As shown in FIG. 9, as the third pattern, a plurality of measurement light beams (hereinafter, referred to as striped measurement light beams) having a linear cross section that is parallel to the Y direction and aligned in the X direction are emitted from the light projecting unit 110. It is emitted once (16 times in this example). That is, in the striped measurement light, linear bright portions parallel to the Y direction and linear dark portions parallel to the Y direction are periodically arranged in the X direction.

1回目の縞状測定光が出射されることにより、測定対象物Sの表面で反射された光が受光部120により受光される。受光された光の強度が、測定対象物Sの1番目の撮影画像の画素データに基づいて測定される。図9(a)は、1回目の縞状測定光に対応する測定対象物Sの1番目の撮影画像である。   The light reflected by the surface of the measuring object S is received by the light receiving unit 120 by emitting the first striped measurement light. The intensity of the received light is measured based on the pixel data of the first captured image of the measuring object S. FIG. 9A is a first photographed image of the measuring object S corresponding to the first striped measurement light.

2回目の縞状測定光は、1回目の縞状測定光から明部分および暗部分をX方向に1単位だけ移動させたパターンを有する。2回目の縞状測定光が出射されることにより、測定対象物Sの表面で反射された光が、受光部120により受光される。受光された光の強度が測定対象物Sの2番目の撮影画像の画素データに基づいて測定される。   The second striped measurement light has a pattern in which the bright portion and the dark portion are moved by one unit in the X direction from the first striped measurement light. The light reflected by the surface of the measuring object S is received by the light receiving unit 120 by the second striped measurement light being emitted. The intensity of the received light is measured based on the pixel data of the second captured image of the measuring object S.

3回目の縞状測定光は、2回目の縞状測定光から明部分および暗部分をX方向に1単位だけ移動させたパターンを有する。3回目の縞状測定光が出射されることにより、測定対象物Sの表面で反射された光が受光部120により受光される。受光された光の強度が、測定対象物Sの3番目の撮影画像の画素データに基づいて測定される。   The third striped measurement light has a pattern in which the bright portion and the dark portion are moved by one unit in the X direction from the second striped measurement light. The light reflected by the surface of the measuring object S is received by the light receiving unit 120 by the third striped measurement light being emitted. The intensity of the received light is measured based on the pixel data of the third captured image of the measuring object S.

同様の動作が繰り返されることにより、4〜16回目の縞状測定光に対応する光の強度が、測定対象物Sの4〜16番目の撮影画像の画素データに基づいてそれぞれ測定される。X方向の周期が16単位である縞状測定光が16回出射されることにより、測定対象物Sの表面の各部分に縞状測定光が照射される。なお、図9(b)は、7回目の縞状測定光に対応する測定対象物Sの7番目の撮影画像である。図9(c)は、13回目の縞状測定光に対応する測定対象物Sの13番目の撮影画像である。   By repeating the same operation, the light intensities corresponding to the 4th to 16th striped measurement lights are measured based on the pixel data of the 4th to 16th captured images of the measurement object S, respectively. The striped measurement light having a period of 16 units in the X direction is emitted 16 times, so that each portion of the surface of the measuring object S is irradiated with the striped measurement light. Note that FIG. 9B is a seventh captured image of the measuring object S corresponding to the seventh striped measurement light. FIG. 9C is a 13th photographed image of the measuring object S corresponding to the 13th striped measurement light.

図10は、測定対象物Sの特定の部分における画像が撮影されたタイミング(番数)と受光された光の強度との関係を示す図である。図10の横軸は画像の順番を示し、縦軸は受光された光の強度を示す。上述のように、測定対象物Sの各部分について、1〜16番目の撮影画像が生成される。また、生成された1〜16番目の撮影画像の各画素に対応する光の強度が測定される。   FIG. 10 is a diagram showing the relationship between the timing (number) at which an image of a specific portion of the measuring object S is captured and the intensity of the received light. The horizontal axis of FIG. 10 represents the order of images, and the vertical axis represents the intensity of the received light. As described above, for each part of the measurement object S, the first to 16th captured images are generated. In addition, the intensity of light corresponding to each pixel of the generated 1st to 16th captured images is measured.

図10に示すように、撮影画像の番号に対応する撮影画像の各画素の光の強度を図示することにより散布図が得られる。得られた散布図に例えばガウシアン曲線、スプライン曲線または放物線をフィッティングさせることにより、光の強度が最大になるときの撮影画像の番号(番数)を1未満の精度で推定することができる。図10の例においては、フィッティングされた点線で示す曲線により、9番目と10番目との間である仮想的な9.38番目の撮影画像において、光の強度が最大になることが推定される。   As shown in FIG. 10, a scatter diagram is obtained by illustrating the light intensity of each pixel of the captured image corresponding to the number of the captured image. By fitting a Gaussian curve, a spline curve, or a parabola to the obtained scatter diagram, the number (number) of the photographed image when the light intensity becomes maximum can be estimated with an accuracy of less than 1. In the example of FIG. 10, it is estimated from the fitted curved line that the light intensity is maximum in the virtual 9.38th captured image between the 9th and 10th. ..

また、フィッティングされた曲線により、光の強度の最大値を推定することができる。測定対象物Sの各部分において推定された光の強度が最大となる撮影画像の番号に基づいて、測定対象物Sの各部分の高さhを算出することができる。この方法によれば、S/N(信号/ノイズ)比が十分に大きい光の強度に基づいて、測定対象物Sの三次元的な形状が測定される。これにより、測定対象物Sの形状測定の精度を向上させることができる。   Moreover, the maximum value of the light intensity can be estimated from the fitted curve. The height h of each portion of the measuring object S can be calculated based on the number of the captured image where the light intensity estimated in each portion of the measuring object S is maximum. According to this method, the three-dimensional shape of the measuring object S is measured based on the intensity of light having a sufficiently high S / N (signal / noise) ratio. Thereby, the accuracy of the shape measurement of the measuring object S can be improved.

なお、正弦波状測定光または縞状測定光等の周期的なパターン形状を有する測定光を用いた測定対象物Sの形状測定においては、測定対象物Sの表面の各部分の相対的な高さ(高さの相対値)が測定される。これは、パターンを形成するY方向に平行な複数の直線(縞)の各々を識別することができず、複数の直線の1周期(2π)の整数倍に相当する不確かさが存在することにより、絶対位相が求まらないからである。そのため、測定対象物Sの一の部分の高さとその部分に隣接する部分の高さが連続的に変化しているという仮定に基づいて、測定された高さのデータに公知のアンラッピング処理が行われてもよい。   In the shape measurement of the measuring object S using the measuring light having a periodic pattern shape such as the sinusoidal measuring light or the striped measuring light, the relative height of each part of the surface of the measuring object S is measured. (Relative value of height) is measured. This is because it is not possible to identify each of a plurality of straight lines (fringes) parallel to the Y direction that form a pattern, and there is uncertainty corresponding to an integral multiple of one period (2π) of the plurality of straight lines. , Because the absolute phase cannot be obtained. Therefore, a known unwrapping process is performed on the measured height data based on the assumption that the height of one portion of the measuring object S and the height of the portion adjacent to the portion continuously change. May be done.

(5)測定光の第4のパターン
図11は、測定光の第4のパターンを説明するための図である。図11に示すように、第4のパターンとして、Y方向に平行な直線状の断面を有しかつ明部分と暗部分とがX方向に並ぶ測定光(以下、コード状測定光と呼ぶ)が投光部110から複数回(本例においては4回)出射される。コード状測定光の明部分および暗部分の割合は、それぞれ50%である。
(5) Fourth Pattern of Measuring Light FIG. 11 is a diagram for explaining the fourth pattern of measuring light. As shown in FIG. 11, as the fourth pattern, measurement light (hereinafter, referred to as code measurement light) having a linear cross section parallel to the Y direction and having bright and dark portions arranged in the X direction is used. The light is emitted from the light projecting unit 110 a plurality of times (four times in this example). The proportion of the bright portion and the dark portion of the coded measuring light is 50%, respectively.

本例においては、測定対象物Sの表面がX方向において複数(図11の例では16)の領域に分割される。以下、複数に分割されたX方向における測定対象物Sの領域をそれぞれ第1〜第16の領域と呼ぶ。   In this example, the surface of the measuring object S is divided into a plurality of (16 in the example of FIG. 11) regions in the X direction. Hereinafter, the areas of the measuring object S in the X direction divided into a plurality of areas will be referred to as first to sixteenth areas, respectively.

図11(a)は、1回目に出射されるコード状測定光を示す。1回目に出射されるコード状測定光は、測定対象物Sの第1〜第8の領域に照射される明部分を有する。また、1回目に出射されるコード状測定光は、測定対象物Sの第9〜第16の領域に照射される暗部分を有する。これにより、1回目に出射されるコード状測定光においては、明部分と暗部分とがY方向に平行でかつX方向に並ぶ。また、1回目に出射されるコード状測定光の明部分および暗部分の割合は、それぞれ50%である。   FIG. 11A shows the coded measurement light emitted for the first time. The cord-shaped measurement light emitted for the first time has a bright portion with which the first to eighth regions of the measuring object S are irradiated. In addition, the cord-shaped measurement light emitted for the first time has a dark portion that is irradiated to the ninth to sixteenth regions of the measuring object S. As a result, in the coded measurement light emitted for the first time, the bright portion and the dark portion are parallel to the Y direction and aligned in the X direction. Further, the ratio of the bright portion and the dark portion of the code-like measurement light emitted the first time is 50%.

図11(b)は、2回目に出射されるコード状測定光を示す。2回目に出射されるコード状測定光は、測定対象物Sの第5〜第12の領域に照射される明部分を有する。また、2回目に出射されるコード状測定光は、測定対象物Sの第1〜第4および第13〜第16の領域に照射される暗部分を有する。これにより、2回目に出射されるコード状測定光においては、明部分と暗部分とがY方向に平行でかつX方向に並ぶ。また、2回目に出射されるコード状測定光の明部分および暗部分の割合は、それぞれ50%である。   FIG. 11B shows the coded measurement light emitted for the second time. The coded measurement light emitted for the second time has a bright portion with which the fifth to twelfth regions of the measuring object S are irradiated. In addition, the cord-shaped measurement light emitted for the second time has a dark portion that is applied to the first to fourth and thirteenth to sixteenth regions of the measuring object S. As a result, in the coded measurement light emitted the second time, the bright portion and the dark portion are parallel to the Y direction and aligned in the X direction. Further, the ratio of the bright portion and the dark portion of the cord-shaped measuring light emitted the second time is 50%.

図11(c)は、3回目に出射されるコード状測定光を示す。3回目に出射されるコード状測定光は、測定対象物Sの第1、第2、第7〜第10、第15および第16の領域に照射される明部分を有する。また、3回目に出射されるコード状測定光は、測定対象物Sの第3〜第6および第11〜第14の領域に照射される暗部分を有する。これにより、3回目に出射されるコード状測定光においては、明部分と暗部分とがY方向に平行でかつX方向に並ぶ。また、3回目に出射されるコード状測定光の明部分および暗部分の割合は、それぞれ50%である。   FIG. 11C shows the coded measurement light emitted for the third time. The coded measurement light emitted for the third time has a bright portion that is irradiated to the first, second, seventh to tenth, fifteenth, and sixteenth regions of the measuring object S. In addition, the coded measurement light emitted for the third time has a dark portion that is irradiated to the third to sixth and first to fourteenth regions of the measuring object S. As a result, in the coded measurement light emitted the third time, the bright portion and the dark portion are parallel to the Y direction and aligned in the X direction. Further, the ratio of the bright portion and the dark portion of the code-like measurement light emitted the third time is 50%.

図11(d)は、4回目に出射されるコード状測定光を示す。4回目に出射されるコード状測定光は、測定対象物Sの第1、第4、第5、第8、第9、第12、第13および第16の領域に照射される明部分を有する。また、4回目に出射されるコード状測定光は、測定対象物Sの第2、第3、第6、第7、第10、第11、第14および第15の領域に照射される暗部分を有する。これにより、4回目に出射されるコード状測定光においては、明部分と暗部分とがY方向に平行でかつX方向に並ぶ。また、4回目に出射されるコード状測定光の明部分および暗部分の割合は、それぞれ50%である。   FIG. 11D shows the coded measurement light emitted for the fourth time. The cord-shaped measurement light emitted for the fourth time has a bright portion with which the first, fourth, fifth, eighth, ninth, twelfth, thirteenth, and sixteenth areas of the measuring object S are irradiated. .. In addition, the code-shaped measurement light emitted for the fourth time is a dark portion irradiated to the second, third, sixth, seventh, tenth, eleventh, fourteenth, and fifteenth regions of the measuring object S. Have. As a result, in the coded measurement light emitted for the fourth time, the bright portion and the dark portion are parallel to the Y direction and aligned in the X direction. Further, the ratio of the bright portion and the dark portion of the code-like measuring light emitted the fourth time is 50%.

コード状測定光の明部分に論理“1”が割り当てられ、コード状測定光の暗部分に論理“0”が割り当てられる。また、測定対象物Sの各領域に照射される1回目〜4回目のコード状測定光の論理の並びを符号と呼ぶ。この場合、測定対象物Sの第1の領域には、符号“1011”のコード状測定光が照射される。これにより、測定対象物Sの第1の領域は、符号“1011”に符号化される。   A logic "1" is assigned to the bright portion of the coded measurement light, and a logic "0" is assigned to the dark portion of the coded measurement light. In addition, the logical arrangement of the first to fourth coded measurement lights with which each region of the measurement object S is irradiated is referred to as a code. In this case, the first region of the measuring object S is irradiated with the coded measuring light of the code “1011”. As a result, the first region of the measuring object S is encoded as the code “1011”.

測定対象物Sの第2の領域には、符号“1010”のコード状測定光が照射される。これにより、測定対象物Sの第2の領域は、符号“1010”に符号化される。測定対象物Sの第3の領域には、符号“1000”のコード状測定光が照射される。これにより、測定対象物Sの第3の領域は、符号“1000”に符号化される。同様に、測定対象物Sの第16の領域には、符号“0011”のコード状測定光が照射される。これにより、測定対象物Sの第16の領域は、符号“0011”に符号化される。   The second region of the measuring object S is irradiated with the coded measuring light having the code “1010”. As a result, the second region of the measuring object S is encoded as the code “1010”. The third region of the measuring object S is irradiated with the coded measuring light with the code “1000”. As a result, the third region of the measuring object S is encoded with the code “1000”. Similarly, the sixteenth region of the measuring object S is irradiated with the coded measuring light having the code “0011”. As a result, the 16th region of the measuring object S is encoded with the code “0011”.

このように、測定対象物Sの隣り合う領域の間では、符号のいずれかの桁が“1”のみ異なるようにコード状測定光が測定対象物Sに複数回照射される。すなわち、コード状測定光は、明部分および暗部分がグレイコード状に変化するように、複数回測定対象物Sに照射される。   In this way, between the adjacent regions of the measuring object S, the measuring object S is irradiated with the coded measuring light a plurality of times such that any one of the digits of the code is different by “1”. That is, the coded measurement light is applied to the measurement object S a plurality of times such that the bright portion and the dark portion change into a gray code.

測定対象物Sの表面の各領域で反射された光が受光部120により受光される。受光された光の符号を測定することにより、測定対象物Sの領域ごとに、測定対象物Sが存在することにより変化した符号が得られる。得られた符号と領域ごとに測定対象物Sが存在しない場合の符号との差分を求めることにより、図6の距離dに相当する距離を算出することができる。ここで、画像におけるX軸方向には、上記の符号は1回のみ出現するというコード状測定光を用いた測定方法の特徴から、距離dの絶対的な値が算出される。これにより、測定対象物Sのその領域の絶対的な高さ(高さの絶対値)が算出される。測定対象物Sの表面上の全ての領域の高さを算出することにより、測定対象物Sの三次元的な形状を測定することができる。   The light reflected by each area on the surface of the measuring object S is received by the light receiving unit 120. By measuring the sign of the received light, the sign changed due to the existence of the measurement object S is obtained for each region of the measurement object S. The distance corresponding to the distance d in FIG. 6 can be calculated by obtaining the difference between the obtained code and the code when the measurement target S does not exist for each region. Here, the absolute value of the distance d is calculated from the characteristic of the measuring method using the coded measuring light that the above code appears only once in the X-axis direction in the image. Thereby, the absolute height (absolute value of height) of the region of the measuring object S is calculated. By calculating the heights of all the regions on the surface of the measuring object S, the three-dimensional shape of the measuring object S can be measured.

上記の説明においては、測定対象物Sの表面がX方向において16の領域に分割され、コード状測定光が投光部110から4回出射されたが、これに限定されない。測定対象物Sの表面がX方向において2の領域(Nは自然数)に分割され、コード状測定光が投光部110からN回出射されてもよい。上記の説明においては、理解を容易にするためにNは4に設定されている。後述の形状測定処理においては、Nは例えば8に設定される。したがって、測定対象物Sの表面はX方向において256の領域に分割される。 In the above description, the surface of the measuring object S is divided into 16 regions in the X direction, and the coded measuring light is emitted from the light projecting unit 110 four times, but the present invention is not limited to this. The surface of the measuring object S may be divided into 2 N regions (N is a natural number) in the X direction, and the coded measuring light may be emitted N times from the light projecting unit 110. In the above description, N is set to 4 for ease of understanding. In the shape measuring process described later, N is set to 8, for example. Therefore, the surface of the measuring object S is divided into 256 regions in the X direction.

コード状測定光を用いた測定対象物Sの形状測定においては、コード状測定光を分離して識別可能な距離、すなわち1画素分に相当する距離が最小の分解能となる。したがって、受光部120のX方向における視野の画素数が1024画素である場合、高さが例えば10mmの測定対象物Sを10mm÷1024≒10μmの分解能で計測することができる。分解能は低いが絶対値を算出可能なコード状測定光を用いた形状測定と絶対値を算出できないが分解能が高い正弦波状測定光または縞状測定光を用いた形状測定とを組み合わせることにより、測定対象物Sの高さの絶対値をより高い分解能で算出することができる。   In the shape measurement of the measuring object S using the coded measurement light, the minimum resolution is a distance at which the coded measurement light can be separated and identified, that is, a distance corresponding to one pixel. Therefore, when the number of pixels of the visual field of the light receiving unit 120 in the X direction is 1024 pixels, the measurement target S having a height of 10 mm can be measured with a resolution of 10 mm ÷ 1024≈10 μm. Measurement is performed by combining shape measurement using coded measurement light that has low resolution but can calculate absolute value with shape measurement that uses sinusoidal measurement light or striped measurement light that cannot calculate absolute value but has high resolution. The absolute value of the height of the object S can be calculated with higher resolution.

特に、図9の縞状測定光を用いた測定対象物Sの形状測定においては、分解能を1/100画素にすることができる。なお、1/100画素の分解能は、受光部120のX方向における視野の画素数が1024画素である場合、測定対象物Sの表面をX方向において約100000の領域に分割すること(すなわちN≒17)に相当する。そのため、コード状測定光を用いた形状測定と縞状測定光を用いた形状測定と組み合わせることにより、測定対象物Sの高さの絶対値をさらに高い分解能で算出することができる。   In particular, in the shape measurement of the measuring object S using the striped measuring light in FIG. 9, the resolution can be set to 1/100 pixel. Note that the resolution of 1/100 pixel is that when the number of pixels of the visual field in the X direction of the light receiving unit 120 is 1024 pixels, the surface of the measuring object S is divided into about 100000 regions in the X direction (that is, N≈). It corresponds to 17). Therefore, the absolute value of the height of the measuring object S can be calculated with a higher resolution by combining the shape measurement using the coded measuring light and the shape measurement using the striped measuring light.

上述のライン状測定光を測定対象物S上で走査する方法は一般に光切断法と呼ばれる。一方、正弦波状測定光、縞状測定光またはコード状測定光を測定対象物Sに照射する方法は、パターン投影法に分類される。また、パターン投影法の中でも、正弦波状測定光または縞状測定光を測定対象物Sに照射する方法は位相シフト法に分類され、コード状測定光を測定対象物Sに照射する方法は空間コード法に分類される。   The method of scanning the measuring object S with the above-mentioned line-shaped measuring light is generally called a light section method. On the other hand, the method of irradiating the measuring object S with the sinusoidal measuring light, the striped measuring light or the code measuring light is classified into the pattern projection method. Further, among the pattern projection methods, the method of irradiating the measurement object S with the sinusoidal measurement light or the striped measurement light is classified into the phase shift method, and the method of irradiating the measurement object S with the code measurement light is a spatial code. Classified as law.

位相シフト法においては、周期的な投影パターンである正弦波状測定光または縞状測定光を出射した際に、測定対象物Sが存在しない場合の基準高さ位置から反射した受光量に基づいて計算された位相と、測定対象物Sが存在する場合の測定対象物S表面から反射した受光量に基づいて計算された位相との位相差から測定対象物Sの高さを求める。位相シフト法においては、個々の周期的な縞が区別できず、縞1周期分(2π)の整数倍に相当する不確かさが存在するため、絶対位相が求まらないという欠点がある。しかしながら、光切断法に比べて取得する画像の枚数が少ないため測定時間が比較的短く、測定分解能が高いという長所がある。   In the phase shift method, calculation is performed based on the amount of received light reflected from the reference height position when the measurement target S does not exist when the sinusoidal measurement light or the striped measurement light that is a periodic projection pattern is emitted. The height of the measurement target S is obtained from the phase difference between the calculated phase and the phase calculated based on the amount of received light reflected from the surface of the measurement target S when the measurement target S is present. In the phase shift method, individual periodic fringes cannot be distinguished, and there is an uncertainty corresponding to an integral multiple of one fringe period (2π), so that the absolute phase cannot be obtained. However, as compared with the light section method, the number of images to be acquired is small, so that the measurement time is relatively short and the measurement resolution is high.

一方、空間コード法おいては、測定対象物Sの領域ごとに、測定対象物Sが存在することによって変化した符号が得られる。得られた符号と測定対象物Sが存在しない場合の符号との差分を領域ごとに求めることにより、測定対象物Sの絶対的な高さを求めることができる。空間コード法においても、比較的少数の画像により測定が可能であり、絶対的な高さを求めることができるという長所がある。しかしながら、位相シフト法に比べると測定分解能に限界がある。   On the other hand, in the space code method, the code changed due to the existence of the measurement object S is obtained for each region of the measurement object S. The absolute height of the measurement object S can be obtained by obtaining the difference between the obtained code and the code when the measurement object S does not exist for each region. The spatial code method also has an advantage that it is possible to measure with a relatively small number of images and it is possible to obtain an absolute height. However, the measurement resolution is limited as compared with the phase shift method.

これらの投影法は、各々短所および長所を有しているが、いずれも三角測距の原理を用いている点は共通である。上記のような複数のパターンのうち1または複数のパターンの測定光が投影された測定対象物Sの画像データ(以下、パターン画像データと呼ぶ)に基づいて、測定対象物Sの立体形状を表す点群(ポイントクラウド)データが生成される。   These projection methods have their respective advantages and disadvantages, but they all have the common point that they use the principle of triangulation. The three-dimensional shape of the measurement target S is represented based on the image data (hereinafter, referred to as pattern image data) of the measurement target S onto which the measurement light of one or a plurality of the plurality of patterns as described above is projected. Point cloud data is generated.

以下の説明では、測定対象物Sの立体形状を表す点群データを立体形状データと呼ぶ。立体形状データは、測定対象物Sの表面上の複数の点の位置データを含む。位置データは、例えば、X方向、Y方向およびZ方向における座標を表す。この場合、立体形状データのうち任意の点のデータをPn(nは自然数)とすると、Pnは、例えば装置座標系の座標値を用いて(Xn,Yn,Zn)で表すことができる。なお、立体形状データは、点群データに基づいて生成される面情報データにより構成されてもよく、ポリゴンメッシュ等の他の形式のデータを含んでもよい。立体形状データに基づいて、測定対象物Sの画像を立体画法により平面上に立体形状画像として表す立体形状画像データが生成される。立体画法とは、立体を平面上に表す画法であり、後述の投影画法(平行投影画法)および透視画法(透視投影画法)を含む。立体形状画像の詳細については後述する。   In the following description, the point cloud data representing the three-dimensional shape of the measuring object S will be referred to as three-dimensional shape data. The three-dimensional shape data includes position data of a plurality of points on the surface of the measuring object S. The position data represents coordinates in the X direction, Y direction, and Z direction, for example. In this case, if the data of an arbitrary point in the three-dimensional shape data is Pn (n is a natural number), Pn can be represented by (Xn, Yn, Zn) using the coordinate value of the device coordinate system, for example. The three-dimensional shape data may be composed of surface information data generated based on the point cloud data, and may include data in other formats such as a polygon mesh. Based on the stereoscopic shape data, stereoscopic image data representing an image of the measuring object S on a plane as a stereoscopic image is generated by a stereoscopic method. The three-dimensional drawing method is a drawing method that represents a three-dimensional object on a plane, and includes a projection drawing method (parallel projection drawing method) and a perspective drawing method (perspective projection drawing method) described later. Details of the stereoscopic image will be described later.

本実施の形態においては、立体形状画像は、二次元座標系が定義された任意の平面上に立体形状データが投影された状態を示す画像であり、使用者による計測箇所の指定を受け付けるための画像である。使用者は、測定対象物Sを見る方向(測定対象物Sに対する受光部120の位置)として立体形状データが投影される平面を指定することができる。それにより、立体形状画像により表される測定対象物Sの向きが変化する。   In the present embodiment, the three-dimensional shape image is an image showing a state in which the three-dimensional shape data is projected on an arbitrary plane in which the two-dimensional coordinate system is defined, and is used for receiving the designation of the measurement location by the user. It is an image. The user can specify the plane on which the three-dimensional shape data is projected as the direction in which the measurement target S is viewed (the position of the light receiving unit 120 with respect to the measurement target S). Thereby, the orientation of the measuring object S represented by the three-dimensional image changes.

投光部110および受光部120に対する測定対象物Sの位置および姿勢が一定であると、測定対象物Sの一部にしか測定光が照射されない。また、測定対象物Sの一部で反射される光しか受光部120に入射しない。そのため、測定対象物Sの表面の広範囲に渡る立体形状データを求めることができない。そこで、測定対象物Sの位置または姿勢を変化させることにより、互いに異なる複数の視点で測定対象物Sを撮像し、複数の視点にそれぞれ対応する複数の立体形状データを取得し、取得された複数の立体形状データを合成してもよい。   When the position and orientation of the measuring object S with respect to the light projecting unit 110 and the light receiving unit 120 are constant, only a part of the measuring object S is irradiated with the measuring light. Further, only the light reflected by a part of the measuring object S enters the light receiving unit 120. Therefore, it is not possible to obtain solid shape data over a wide range of the surface of the measuring object S. Therefore, by changing the position or orientation of the measurement target S, the measurement target S is imaged from a plurality of different viewpoints, a plurality of three-dimensional shape data respectively corresponding to a plurality of viewpoints is acquired, and the acquired plurality of 3D shape data may be combined.

図12は、複数の視点から測定対象物Sを撮像することにより複数の立体形状データを生成する例を説明するための図である。例えば、図12(a)に示すように、使用者により測定対象物Sの位置および姿勢がステージ140上で調整された後、測定光を用いて測定対象物Sが撮像されることにより最初の立体形状データが生成される。最初の立体形状データに基づく立体形状画像の一例が図12(d)に示される。立体形状データは、測定対象物Sの表面で反射して受光部120に入射する測定光に基づいて生成される。そのため、測定対象物Sの表面のうち受光部120に向けられている部分については立体形状データが生成されるが、受光部120に向けられていない部分については立体形状データを生成することができない。   FIG. 12 is a diagram for explaining an example of generating a plurality of three-dimensional shape data by imaging the measurement target S from a plurality of viewpoints. For example, as shown in FIG. 12A, after the position and orientation of the measurement target S is adjusted on the stage 140 by the user, the measurement target S is imaged using the measurement light. Three-dimensional shape data is generated. An example of the three-dimensional image based on the first three-dimensional data is shown in FIG. The three-dimensional shape data is generated based on the measurement light reflected by the surface of the measurement target S and incident on the light receiving unit 120. Therefore, three-dimensional shape data is generated for the portion of the surface of the measuring object S that faces the light receiving unit 120, but three-dimensional shape data cannot be generated for the portion that does not face the light receiving unit 120. ..

そこで、図12(b)に示すように、図2の回転機構143によりステージ140が一定角度回転された後、測定光を用いて測定対象物Sが撮像されることにより2番目の立体形状データが生成される。図12(b)の例では、ステージ140が図12(a)の状態から反時計回りに所定角度回転されている。2番目の立体形状データに基づく立体形状画像の一例が図12(e)に示される。上記のように、ステージ140が回転すると、その回転に伴って測定対象物Sの表面のうち受光部120に向けられる部分が変化する。その結果、最初の撮像時には取得されなかった部分を含む立体形状データが生成される。   Therefore, as shown in FIG. 12B, after the stage 140 is rotated by a certain angle by the rotation mechanism 143 of FIG. 2, the measurement object S is imaged using the measurement light, and the second three-dimensional shape data is obtained. Is generated. In the example of FIG. 12B, the stage 140 is rotated counterclockwise by a predetermined angle from the state of FIG. 12A. An example of a stereoscopic image based on the second stereoscopic shape data is shown in FIG. As described above, when the stage 140 rotates, the portion of the surface of the measuring object S facing the light receiving unit 120 changes with the rotation. As a result, three-dimensional shape data including a part that was not acquired at the time of the first imaging is generated.

さらに、図12(c)に示すように、図2の回転機構143によりステージ140が一定角度回転された後、測定光を用いて測定対象物Sが撮像されることにより3番目の立体形状データが生成される。図12(c)の例では、ステージ140が図12(b)の状態から反時計回りに所定角度回転されている。3番目の立体形状データに基づく立体形状画像の一例が図12(f)に示される。   Further, as shown in FIG. 12C, after the stage 140 is rotated by a certain angle by the rotation mechanism 143 of FIG. 2, the measurement object S is imaged using the measurement light, so that the third three-dimensional shape data is obtained. Is generated. In the example of FIG. 12C, the stage 140 is rotated counterclockwise by a predetermined angle from the state of FIG. 12B. An example of a stereoscopic image based on the third stereoscopic data is shown in FIG.

このようにして、ステージ140の回転および測定対象物Sの撮像が繰り返されることにより、複数の視点に対応する複数の立体形状データが生成される。ステージ140の1回の回転角度およびその回転の回数は、予め定められていてもよく、使用者が任意に指定可能であってもよい。これらの立体形状データが合成されることにより、測定対象物Sの広範囲の立体形状データが生成される。   In this way, the rotation of the stage 140 and the imaging of the measurement target S are repeated, so that a plurality of three-dimensional shape data corresponding to a plurality of viewpoints is generated. The one rotation angle of the stage 140 and the number of rotations thereof may be predetermined or may be arbitrarily designated by the user. By combining these three-dimensional shape data, a wide range of three-dimensional shape data of the measuring object S is generated.

本実施の形態では、受光部120、投光部110およびステージ140の相対位置が一定であり、これらの相対位置を表すパラメータ(以下、機器パラメータ)が、例えば図1の記憶装置240に予め記憶される。また、図1のステージ駆動部146が回転機構143を駆動する場合、例えばステージ140の回転角度が使用者により予め指定され、記憶された角度に基づいてステージ140が制御される。この場合、ステージ140の回転角度は、例えば図1のROM220または作業用メモリ230に記憶される。図1のCPU210は、複数の立体形状データを合成する際に、記憶された回転角度および機器パラメータに基づいて、複数の立体形状データの位置合わせを容易にかつ正確に行うことができる。また、位置合わせの詳細設定および補正等を使用者が行ってもよい。   In the present embodiment, the relative positions of the light receiving unit 120, the light projecting unit 110, and the stage 140 are constant, and parameters (hereinafter, device parameters) representing these relative positions are stored in advance in, for example, the storage device 240 in FIG. To be done. When the stage driving unit 146 of FIG. 1 drives the rotating mechanism 143, the rotation angle of the stage 140 is designated in advance by the user, and the stage 140 is controlled based on the stored angle. In this case, the rotation angle of the stage 140 is stored in, for example, the ROM 220 or the work memory 230 of FIG. When synthesizing a plurality of three-dimensional shape data, the CPU 210 of FIG. 1 can easily and accurately align the plurality of three-dimensional shape data based on the stored rotation angle and the device parameter. Further, the user may perform detailed setting and correction of alignment.

ステージ140の回転角度を検出するセンサ等が設けられてもよい。この場合、使用者がステージ操作部145を操作してステージ140を回転させる場合であっても、センサによって検出された角度および上記の機器パラメータに基づいて、複数の立体形状データの位置合わせを容易にかつ正確に行うことができる。   A sensor or the like that detects the rotation angle of the stage 140 may be provided. In this case, even when the user operates the stage operation unit 145 to rotate the stage 140, it is easy to align a plurality of three-dimensional shape data based on the angle detected by the sensor and the above-mentioned device parameter. It can be done accurately and accurately.

[3]テクスチャ画像
測定部100においては、照明光出力部130から測定対象物Sに照明光が照射された状態または投光部110A,110Bから測定対象物Sに均一な測定光が照射された状態で、測定対象物Sの外観(表面状態)を表す画像データ(以下、テクスチャ画像データと呼ぶ。)が生成される。均一な測定光とは、パターンを有さない測定光であり、照明光の代わりに用いることができる。測定対象物Sの表面状態は、例えば模様または色彩を含む。以下、テクスチャ画像データにより表される画像をテクスチャ画像と呼ぶ。
[3] Texture Image In the measurement unit 100, the illumination light output unit 130 irradiates the measurement object S with illumination light, or the light projecting units 110A and 110B illuminate the measurement object S with uniform measurement light. In this state, image data (hereinafter referred to as texture image data) representing the appearance (surface state) of the measuring object S is generated. The uniform measuring light is a measuring light having no pattern and can be used instead of the illuminating light. The surface state of the measuring object S includes, for example, a pattern or a color. Hereinafter, the image represented by the texture image data is referred to as a texture image.

テクスチャ画像データの種々の例について説明する。例えば、測定対象物Sに対して受光部120の焦点位置が相対的に変化されつつ複数のテクスチャ画像データが取得される。その複数のテクスチャ画像データが合成されることにより、測定対象物Sの表面の全体に焦点が合ったテクスチャ画像データ(以下、全焦点テクスチャ画像データと呼ぶ)が生成される。   Various examples of texture image data will be described. For example, a plurality of texture image data are acquired while the focus position of the light receiving unit 120 is relatively changed with respect to the measurement target S. By combining the plurality of texture image data, texture image data in which the entire surface of the measuring object S is in focus (hereinafter, referred to as omnifocal texture image data) is generated.

また、異なる複数の撮像条件で複数のテクスチャ画像データが取得されてもよい。撮像条件は、例えば、受光部120の露光時間、照明光出力部130からの照明光の強度(明るさ)または投光部110からの均一な測定光の強度(明るさ)等を含む。取得された複数のテクスチャ画像データを用いて公知のハイダイナミック(HDR)合成が行われる。これにより、明るさの差異による黒つぶれおよび白とび等が抑制されたテクスチャ画像データ(以下、HDRテクスチャ画像データと呼ぶ)が生成される。   Further, a plurality of texture image data may be acquired under a plurality of different imaging conditions. The imaging conditions include, for example, the exposure time of the light receiving unit 120, the intensity (brightness) of the illumination light from the illumination light output unit 130, the uniform intensity (brightness) of the measurement light from the light projecting unit 110, and the like. Well-known high dynamic (HDR) composition is performed using a plurality of acquired texture image data. As a result, texture image data (hereinafter referred to as HDR texture image data) in which blackout and whiteout due to differences in brightness are suppressed is generated.

また、焦点位置が変化されるとともに撮像条件が変化されてもよい。具体的には、測定対象物Sに対して受光部120の焦点位置が相対的に変化されるとともに、各焦点位置において異なる複数の撮像条件でテクスチャ画像データが取得される。取得された複数のテクスチャ画像データを合成することにより、測定対象物Sの表面の全体に焦点が合い、かつ黒つぶれおよび白とび等が抑制されたテクスチャ画像データを生成することができる。   Further, the imaging condition may be changed as the focus position is changed. Specifically, the focus position of the light receiving unit 120 is relatively changed with respect to the measurement target S, and the texture image data is acquired under a plurality of different imaging conditions at each focus position. By synthesizing a plurality of acquired texture image data, it is possible to generate texture image data in which the entire surface of the measurement target S is focused and blackout and whiteout are suppressed.

各テクスチャ画像データは、測定対象物Sの各点の色または輝度を表すテクスチャ情報(光学的表面状態を表す情報)を含む。一方、上記の立体形状データは、測定対象物Sの表面状態の情報を含まない。そこで、立体形状データといずれかのテクスチャ画像データとが合成されることにより、立体形状データにテクスチャ情報が付与されたテクスチャ付き立体形状データが生成される。   Each texture image data includes texture information (information indicating an optical surface state) indicating the color or brightness of each point on the measurement target S. On the other hand, the above-mentioned three-dimensional shape data does not include information on the surface state of the measuring object S. Therefore, the three-dimensional shape data and any one of the texture image data are combined to generate three-dimensional shape data with texture in which texture information is added to the three-dimensional shape data.

テクスチャ付き立体形状データは、測定対象物Sの表面上の複数の点の位置データを含むとともに各点の位置データに対応付けられた当該点の色または輝度を示すデータを含む。この場合、テクスチャ付き立体形状データのうち任意の点のデータをTPn(nは自然数)とすると、TPnは、例えば装置座標系の座標値と、赤色、緑色および青色の三原色の成分(R,G,B)とを用いて(Xn,Yn,Zn,Rn,Gn,Bn)で表すことができる。または、TPnは、例えば装置座標系の座標値と、輝度値(I)とを用いて(Xn,Yn,Zn,In)で表すことができる。テクスチャ付き立体形状データは、点群データに基づいて生成される面情報データにより構成されてもよい。   The textured three-dimensional shape data includes position data of a plurality of points on the surface of the measuring object S and data indicating the color or brightness of the point associated with the position data of each point. In this case, if the data of an arbitrary point in the textured three-dimensional shape data is TPn (n is a natural number), TPn is, for example, the coordinate value of the device coordinate system and the three primary color components (R, G) of red, green, and blue. , B) and can be represented by (Xn, Yn, Zn, Rn, Gn, Bn). Alternatively, TPn can be represented by (Xn, Yn, Zn, In) using, for example, the coordinate value of the device coordinate system and the brightness value (I). The textured solid shape data may be composed of surface information data generated based on the point cloud data.

以下の説明では、一定の焦点位置および撮像条件で取得されたテクスチャ画像データにより表されるテクスチャ画像を通常テクスチャ画像と呼び、全焦点テクスチャ画像データにより表される画像を全焦点テクスチャ画像と呼び、HDRテクスチャ画像データにより表される画像をHDRテクスチャ画像と呼ぶ。また、テクスチャ付き立体形状データに基づいて、テクスチャ情報を含む立体形状画像データが生成される。以下、テクスチャ付き立体形状データから生成された立体形状画像データにより表される立体形状画像をテクスチャ付き立体形状画像と呼ぶ。テクスチャ付き立体形状画像は、測定対象物の表面状態を表す。   In the following description, the texture image represented by the texture image data acquired in a fixed focus position and imaging conditions is called a normal texture image, the image represented by the omnifocal texture image data is called an omnifocal texture image, An image represented by HDR texture image data is called an HDR texture image. Also, based on the textured solid shape data, solid shape image data including texture information is generated. Hereinafter, the stereoscopic image represented by the stereoscopic image data generated from the textured stereoscopic image data is referred to as a textured stereoscopic image. The textured three-dimensional image represents the surface state of the measurement target.

なお、上記のように測定対象物Sの位置または姿勢が異なる複数の立体形状データが生成される場合には、各立体形状データの生成時に、テクスチャ画像データが取得されてもよい。この場合、複数のパターン画像データから生成される複数の立体形状データおよび複数のテクスチャ画像データを合成することにより、測定対象物Sの広い範囲のテクスチャ付き立体形状データを生成することができる。   When a plurality of three-dimensional shape data in which the position or orientation of the measuring object S is different is generated as described above, the texture image data may be acquired when generating each three-dimensional shape data. In this case, by combining a plurality of three-dimensional shape data generated from a plurality of pattern image data and a plurality of texture image data, it is possible to generate textured three-dimensional shape data of a wide range of the measuring object S.

[4]形状測定処理
(1)形状測定の準備
測定対象物Sの形状測定処理を実行する前に、使用者は、形状測定の準備を行う。図13は、形状測定の準備の手順を示すフローチャートである。以下、図1、図2および図13を参照しながら形状測定の準備の手順を説明する。まず、使用者は、測定対象物Sをステージ140上に載置する(ステップS1)。次に、使用者は、投光部110から測定対象物Sに測定光を照射する(ステップS2)。続いて、使用者は、表示部400に表示されたライブ画像を見ながら、取得されるライブ画像の明るさ、ならびに測定対象物Sの位置および姿勢の調整(以下、第1の調整と呼ぶ)を行う(ステップS3)。ステップS3において取得されるライブ画像の明るさは、測定光の光量および受光部120の露光時間のうち少なくとも一方を変化させることにより調整することができる。本実施の形態では、測定光を用いて取得されるライブ画像の明るさを観察に適した明るさにするために、測定光の光量または受光部120の露光時間のうち一方が調整される。なお、取得されるライブ画像の明るさは、測定光の光量を一定にし、受光部120の露光時間により調整されることが好ましい。それにより、測定光の光量の変化に伴って測定光源111の温度が変化することによる計測精度の低下が抑制される。
[4] Shape Measurement Processing (1) Preparation for Shape Measurement Before executing the shape measurement processing for the measurement object S, the user prepares for shape measurement. FIG. 13 is a flowchart showing a procedure for preparation for shape measurement. Hereinafter, the procedure of preparation for shape measurement will be described with reference to FIGS. 1, 2, and 13. First, the user places the measuring object S on the stage 140 (step S1). Next, the user irradiates the measuring object S with the measuring light from the light projecting unit 110 (step S2). Subsequently, the user adjusts the brightness of the acquired live image and the position and orientation of the measurement target S while observing the live image displayed on the display unit 400 (hereinafter referred to as the first adjustment). Is performed (step S3). The brightness of the live image acquired in step S3 can be adjusted by changing at least one of the light amount of the measurement light and the exposure time of the light receiving unit 120. In the present embodiment, in order to make the brightness of the live image acquired using the measurement light suitable for observation, one of the light amount of the measurement light and the exposure time of the light receiving unit 120 is adjusted. In addition, it is preferable that the brightness of the acquired live image is adjusted by the exposure time of the light receiving unit 120 while keeping the light amount of the measurement light constant. This suppresses a decrease in measurement accuracy due to a change in the temperature of the measurement light source 111 with a change in the amount of measurement light.

ステップS2では、上記の第1〜第4のパターンの測定光のいずれかが測定対象物Sに照射されてもよく、均一な測定光が測定対象物Sに照射されてもよい。ステップS3において、測定対象物Sの計測すべき箇所(以下、計測箇所と呼ぶ)に影が発生していない場合には、使用者は、測定対象物Sの位置および姿勢の調整を行う必要はなく、測定光の光量または受光部120の露光時間の調整を行えばよい。   In step S2, the measurement object S may be irradiated with any of the above-described first to fourth patterns of measurement light, or the measurement object S may be irradiated with uniform measurement light. In step S3, when a shadow of the measurement target S to be measured (hereinafter referred to as a measurement position) does not occur, the user does not need to adjust the position and orientation of the measurement target S. Instead, the light amount of the measurement light or the exposure time of the light receiving unit 120 may be adjusted.

次に、使用者は、測定光の照射を停止するとともに、照明光出力部130から測定対象物Sに照明光を照射する(ステップS4)。続いて、使用者は、表示部400に表示されたライブ画像を見ながら、照明光の光量または受光部120の露光時間の調整(以下、第2の調整と呼ぶ)を行う(ステップS5)。ステップS5において取得されるライブ画像の明るさは、基本的にステップS3の例と同様に、照明光の光量および受光部120の露光時間のうち少なくとも一方を変化させることにより調整することができる。本実施の形態では、照明光を用いて取得されるライブ画像の明るさを観察に適した明るさにするために、照明光の光量または受光部120の露光時間のうち一方が調整される。   Next, the user stops the irradiation of the measurement light and irradiates the measurement object S with the illumination light from the illumination light output unit 130 (step S4). Subsequently, the user adjusts the light amount of the illumination light or the exposure time of the light receiving unit 120 (hereinafter referred to as the second adjustment) while watching the live image displayed on the display unit 400 (step S5). The brightness of the live image acquired in step S5 can be adjusted basically by changing at least one of the light amount of the illumination light and the exposure time of the light receiving unit 120, as in the example of step S3. In the present embodiment, either the light amount of the illumination light or the exposure time of the light receiving unit 120 is adjusted in order to make the brightness of the live image acquired by using the illumination light suitable for observation.

次に、使用者は、表示部400に表示されたライブ画像を確認し、光量、受光部120の露光時間、測定対象物Sの位置および姿勢(以下、観察状態と呼ぶ)が適切であるか否かを判定する(ステップS6)。ステップS6においては、測定対象物Sに測定光が照射されてもよく、照明光が照射されてもよく、または測定光および照明光が順に照射されてもよい。   Next, the user confirms the live image displayed on the display unit 400, and determines whether the light amount, the exposure time of the light receiving unit 120, and the position and orientation of the measurement target S (hereinafter, referred to as an observation state) are appropriate. It is determined whether or not (step S6). In step S6, the measurement object S may be irradiated with the measurement light, the irradiation light, or the measurement light and the illumination light may be sequentially irradiated.

ステップS6において、観察状態が適切でないと判定した場合、使用者は、ステップS2の処理に戻る。一方、ステップS6において、観察状態が適切であると判定した場合、使用者は、形状測定の準備を終了する。   When it is determined in step S6 that the observation state is not appropriate, the user returns to the process of step S2. On the other hand, when it is determined in step S6 that the observation state is appropriate, the user ends preparation for shape measurement.

なお、上記の説明においては、第1の調整の後に第2の調整が行われるが、これに限定されない。第2の調整の後に第1の調整が行われてもよい。この場合、使用者は、第2の調整において測定対象物Sの位置および姿勢を調整し、第1の調整時に測定対象物Sの所望の部分に測定光が照射されていることを確認してもよい。測定対象物Sの所望の部分に測定光が照射されていない場合には、測定対象物Sの位置および姿勢を再調整し、再度第2の調整として照明光の光量または受光部120の露光時間の調整等を行ってもよい。   In the above description, the second adjustment is performed after the first adjustment, but the present invention is not limited to this. The first adjustment may be performed after the second adjustment. In this case, the user adjusts the position and orientation of the measuring object S in the second adjustment, and confirms that the desired portion of the measuring object S is irradiated with the measurement light in the first adjustment. Good. When the measurement light is not applied to the desired portion of the measurement object S, the position and the posture of the measurement object S are readjusted, and the light amount of the illumination light or the exposure time of the light receiving unit 120 is again adjusted as the second adjustment. May be adjusted.

(2)第1の調整
図14および図15は、形状測定の準備の手順における第1の調整の詳細を示すフローチャートである。以下、図1、図2、図14および図15を参照しながら形状測定の準備の手順における第1の調整の詳細を説明する。以下、投光部110A,110Bのうち一方から出射される測定光を一方の測定光と呼び、他方から出射される測定光を他方の測定光と呼ぶ。ここで、本実施の形態に係る測定部100においては、一方および他方の測定光の光量をそれぞれ独立して設定することができる。また、一方の測定光を用いて測定対象物Sを撮像する際の受光部120の露光時間と、他方の測定光を用いて測定対象物Sを撮像する際の受光部120の露光時間とをそれぞれ独立して設定することができる。
(2) First Adjustment FIGS. 14 and 15 are flowcharts showing the details of the first adjustment in the procedure for the preparation for shape measurement. Hereinafter, the details of the first adjustment in the procedure for the shape measurement preparation will be described with reference to FIGS. 1, 2, 14, and 15. Hereinafter, the measurement light emitted from one of the light projecting units 110A and 110B will be referred to as one measurement light, and the measurement light emitted from the other will be referred to as the other measurement light. Here, in the measurement unit 100 according to the present embodiment, the light amounts of the one and the other measurement lights can be independently set. Further, the exposure time of the light receiving unit 120 when the measurement target S is imaged using one measurement light and the exposure time of the light reception unit 120 when the measurement target S is imaged using the other measurement light are Each can be set independently.

まず、使用者は、取得されるライブ画像の明るさを観察に適した明るさにするために、一方の測定光の光量または受光部120の露光時間を仮調整する(ステップS11)。次に、使用者は、表示部400に表示される測定対象物Sのライブ画像の倍率(以下、視野サイズと呼ぶ)を調整する(ステップS12)。具体的には、倍率が異なる複数の受光部120が用いられる場合、使用者は、いずれかの受光部120を選択する。それにより、選択された受光部120により取得されるライブ画像が表示部400に表示される。低倍率の受光部120が選択されるときの視野サイズは、高倍率の受光部120が選択されるときの視野サイズよりも大きくなる。なお、測定部100は、デジタルズーム機能を有してもよい。この場合、使用者は、受光部120により取得されるライブ画像の表示倍率を調整することができる。   First, the user tentatively adjusts the light amount of one measurement light or the exposure time of the light receiving unit 120 in order to make the brightness of the acquired live image suitable for observation (step S11). Next, the user adjusts the magnification of the live image of the measurement object S displayed on the display unit 400 (hereinafter referred to as the field size) (step S12). Specifically, when a plurality of light receiving units 120 having different magnifications are used, the user selects any one of the light receiving units 120. Thereby, the live image acquired by the selected light receiving unit 120 is displayed on the display unit 400. The visual field size when the low-magnification light receiving unit 120 is selected is larger than the visual field size when the high-magnification light receiving unit 120 is selected. The measuring unit 100 may have a digital zoom function. In this case, the user can adjust the display magnification of the live image acquired by the light receiving unit 120.

続いて、使用者は、表示部400に表示されるライブ画像に基づいて、測定対象物Sの位置および姿勢が適切であるか否かを判定する(ステップS13)。ここで、測定対象物Sの計測箇所に影が発生していない場合、使用者は、測定対象物Sの位置および姿勢が適切であると判断する。一方、測定対象物Sの計測箇所に影が発生している場合、使用者は、測定対象物Sの位置および姿勢が適切でないと判断する。   Subsequently, the user determines whether or not the position and orientation of the measuring object S is appropriate based on the live image displayed on the display unit 400 (step S13). Here, when the shadow is not generated at the measurement location of the measurement target S, the user determines that the position and orientation of the measurement target S are appropriate. On the other hand, when a shadow is generated at the measurement location of the measurement object S, the user determines that the position and orientation of the measurement object S are not appropriate.

ステップS13において、測定対象物Sの位置および姿勢が適切でないと判定した場合、使用者は、測定対象物Sの位置および姿勢を調整する(ステップS14)。具体的には、使用者は、回転機構143によってステージ140を回転させる、または手で測定対象物Sを動かすことにより、測定対象物Sの位置および姿勢を調整する。その後、使用者は、ステップS13の処理に戻る。   When it is determined in step S13 that the position and orientation of the measuring object S are not appropriate, the user adjusts the position and orientation of the measuring object S (step S14). Specifically, the user adjusts the position and orientation of the measuring object S by rotating the stage 140 with the rotating mechanism 143 or moving the measuring object S by hand. After that, the user returns to the process of step S13.

一方、ステップS13において、測定対象物Sの位置および姿勢が適切であると判定した場合、使用者は、表示部400に表示されるライブ画像に基づいて、取得されるライブ画像の明るさが観察に適した明るさであるか否か、すなわち測定対象物Sに照射される一方の測定光の光量または受光部120の露光時間が適切であるか否かを判定する(ステップS15)。   On the other hand, when it is determined in step S13 that the position and orientation of the measuring object S are appropriate, the user observes the brightness of the acquired live image based on the live image displayed on the display unit 400. It is determined whether or not the brightness is suitable for the measurement target S, that is, whether or not the light amount of one of the measurement lights applied to the measurement target S or the exposure time of the light receiving unit 120 is appropriate (step S15).

ステップS15において、一方の測定光の光量または受光部120の露光時間が適切でないと判定した場合、使用者は、一方の測定光の光量または受光部120の露光時間を調整する(ステップS16)。その後、使用者は、ステップS15の処理に戻る。   When it is determined in step S15 that the light amount of one measurement light or the exposure time of the light receiving unit 120 is not appropriate, the user adjusts the light amount of one measurement light or the exposure time of the light receiving unit 120 (step S16). Then, the user returns to the process of step S15.

一方、ステップS15において、一方の測定光の光量または受光部120の露光時間が適切であると判定した場合、使用者は、表示部400に表示されたライブ画像から、観察状態が適切であるか否かを判定する(ステップS17)。ステップS17において、観察状態が適切でないと判定した場合、使用者は、ステップS14またはステップS16の処理に戻る。具体的には、観察状態のうち測定対象物Sの位置および姿勢が適切でないと判定した場合、使用者は、ステップS14の処理に戻る。観察状態のうち光(一方の測定光)の光量または受光部120の露光時間が適切でないと判定した場合、使用者は、ステップS16の処理に戻る。   On the other hand, when it is determined in step S15 that the light amount of one of the measurement lights or the exposure time of the light receiving unit 120 is appropriate, the user determines whether the observation state is appropriate from the live image displayed on the display unit 400. It is determined whether or not (step S17). When it is determined in step S17 that the observation state is not appropriate, the user returns to the process of step S14 or step S16. Specifically, when it is determined that the position and orientation of the measuring object S is not appropriate in the observation state, the user returns to the process of step S14. When it is determined that the light amount of the light (one measurement light) or the exposure time of the light receiving unit 120 is not appropriate in the observation state, the user returns to the process of step S16.

一方、ステップS17において、観察状態が適切であると判定した場合、使用者は、一方の測定光の照射を停止するとともに、他方の投光部110Bから測定対象物Sに測定光を照射する(図16のステップS18)。続いて、使用者は、表示部400に表示されたライブ画像を見ながら、取得されるライブ画像の明るさを観察に適した明るさにするために、他方の測定光の光量または受光部120の露光時間の調整を行う(ステップS19)。   On the other hand, when it is determined in step S17 that the observation state is appropriate, the user stops the irradiation of one measurement light and irradiates the measurement target S with the measurement light from the other light projecting unit 110B ( Step S18 of FIG. 16). Subsequently, while viewing the live image displayed on the display unit 400, the user sets the light amount of the other measurement light or the light receiving unit 120 in order to make the brightness of the obtained live image suitable for observation. The exposure time is adjusted (step S19).

その後、使用者は、表示部400に表示されるライブ画像に基づいて、取得されるライブ画像の明るさが観察に適した明るさであるか否か、すなわち他方の測定光の光量または受光部120の露光時間が適切であるか否かを判定する(ステップS20)。ステップS20において、他方の測定光の光量または受光部120の露光時間が適切でないと判定した場合、使用者は、ステップS19の処理に戻る。一方、ステップS20において、他方の測定光の光量または受光部120の露光時間が適切であると判定した場合、使用者は、第1の調整を終了する。第1の調整が行われることにより、立体形状データを生成するために最適な一方および他方の測定光の光量条件、または一方および他方の測定光にそれぞれ対応する受光部120の露光時間の条件が設定される。なお、他方の投光部110Bを使用しない場合には、使用者は、ステップS17の処理の後、ステップS18〜S20の手順を省略して第1の調整を終了してもよい。   Then, based on the live image displayed on the display unit 400, the user determines whether or not the brightness of the acquired live image is suitable for observation, that is, the light amount of the other measurement light or the light receiving unit. It is determined whether the exposure time of 120 is appropriate (step S20). When it is determined in step S20 that the light amount of the other measurement light or the exposure time of the light receiving unit 120 is not appropriate, the user returns to the process of step S19. On the other hand, in step S20, when it is determined that the light amount of the other measurement light or the exposure time of the light receiving unit 120 is appropriate, the user ends the first adjustment. By performing the first adjustment, the optimum light amount condition of the one and the other measurement light for generating the three-dimensional shape data, or the exposure time condition of the light receiving unit 120 corresponding to the one and the other measurement light, respectively, can be obtained. Is set. Note that when the other light projecting unit 110B is not used, the user may omit the procedure of steps S18 to S20 and end the first adjustment after the process of step S17.

(3)第2の調整
図16は、形状測定の準備の手順における第2の調整の詳細を示すフローチャートである。以下、図1、図2および図16を参照しながら形状測定の準備の手順における第2の調整の詳細を説明する。ここで、本実施の形態に係る測定部100においては、照明光の光量を一方および他方の測定光の光量から独立して設定することができる。また、照明光を用いて測定対象物Sを撮像する際の受光部120の露光時間を、一方および他方の測定光を用いて測定対象物Sを撮像する際の受光部120の露光時間から独立して設定することができる。
(3) Second Adjustment FIG. 16 is a flowchart showing the details of the second adjustment in the procedure for the shape measurement preparation. Hereinafter, the details of the second adjustment in the procedure for the shape measurement preparation will be described with reference to FIGS. 1, 2, and 16. Here, in measurement unit 100 according to the present embodiment, the light amount of the illumination light can be set independently of the light amounts of the one and the other measurement lights. Further, the exposure time of the light receiving unit 120 when the measurement object S is imaged using the illumination light is independent of the exposure time of the light receiving unit 120 when the measurement object S is imaged using one or the other measurement light. Can be set.

まず、使用者は、取得されるライブ画像の明るさを観察に適した明るさにするために、照明光の光量または受光部120の露光時間を調整する(ステップS31)。次に、使用者は、表示部400に表示されるライブ画像に基づいて、取得されるライブ画像の明るさが観察に適した明るさであるか否か、すなわち測定対象物Sに照射される照明光の光量または受光部120の露光時間が適切であるか否かを判定する(ステップS32)。   First, the user adjusts the light amount of the illumination light or the exposure time of the light receiving unit 120 in order to make the brightness of the acquired live image suitable for observation (step S31). Next, based on the live image displayed on the display unit 400, the user determines whether or not the brightness of the acquired live image is suitable for observation, that is, the measurement target S is illuminated. It is determined whether the amount of illumination light or the exposure time of the light receiving unit 120 is appropriate (step S32).

ステップS32において、照明光の光量または受光部120の露光時間が適切でないと判定した場合、使用者は、ステップS31の処理に戻る。一方、ステップS32において、照明光の光量または受光部120の露光時間が適切であると判定した場合、使用者は、表示すべきテクスチャ画像の種類を選択し(ステップS33)、第2の調整を終了する。テクスチャ画像の種類は、例えば、通常テクスチャ画像、全焦点テクスチャ画像、HDRテクスチャ画像を含む。第2の調整が行われることにより、テクスチャ画像データを生成するために最適な照明光の光量条件、または照明光に対応する受光部120の露光時間の条件が設定される。   When it is determined in step S32 that the amount of illumination light or the exposure time of the light receiving unit 120 is not appropriate, the user returns to the process of step S31. On the other hand, when it is determined in step S32 that the amount of illumination light or the exposure time of the light receiving unit 120 is appropriate, the user selects the type of texture image to be displayed (step S33) and makes the second adjustment. finish. The types of texture images include, for example, normal texture images, omnifocal texture images, and HDR texture images. By performing the second adjustment, the optimum light amount condition of the illumination light for generating the texture image data or the condition of the exposure time of the light receiving unit 120 corresponding to the illumination light is set.

また、ステップS33において、全焦点テクスチャ画像またはHDRテクスチャ画像が選択された場合には、全焦点テクスチャ画像データまたはHDRテクスチャ画像データを適切に取得するための設定が別途行われてもよい。例えば、全焦点テクスチャ画像が選択された場合には、焦点位置の変化範囲等が設定されてもよい。また、HDRテクスチャ画像データが選択された場合には、撮像条件の詳細等が設定されてもよい。また、これらの設定に基づいて、プレビュー用の全焦点テクスチャ画像またはHDRテクスチャ画像が表示部400に表示されてもよい。   Further, when the omnifocal texture image or the HDR texture image is selected in step S33, the setting for appropriately acquiring the omnifocal texture image data or the HDR texture image data may be separately performed. For example, when the omnifocal texture image is selected, the change range of the focus position may be set. Further, when the HDR texture image data is selected, the details of the imaging condition and the like may be set. Further, an omnifocal texture image for preview or an HDR texture image may be displayed on the display unit 400 based on these settings.

(4)形状測定処理
図13〜図16の形状測定の準備の後、測定対象物Sの形状測定処理が実行される。図17は、形状測定処理の概要を示すフローチャートである。使用者が、CPU210に形状測定処理の開始を指示すると、CPU210は、第1の調整において設定された光量条件または露光時間の条件に従って、投光部110から測定対象物Sに測定光を照射し、測定光のパターンが投影された測定対象物Sの画像データ(パターン画像データ)を取得する(ステップS41)。取得されたパターン画像データは、作業用メモリ230に記憶される。
(4) Shape Measurement Processing After preparation for the shape measurement of FIGS. 13 to 16, the shape measurement processing of the measuring object S is executed. FIG. 17 is a flowchart showing an outline of the shape measuring process. When the user instructs the CPU 210 to start the shape measuring process, the CPU 210 irradiates the measuring object S with the measuring light according to the light amount condition or the exposure time condition set in the first adjustment. The image data (pattern image data) of the measurement target S on which the pattern of the measurement light is projected is acquired (step S41). The acquired pattern image data is stored in the work memory 230.

次に、CPU210は、取得したパターン画像データを所定の計測アルゴリズムで処理することにより、測定対象物Sの立体形状を示す立体形状データを生成する(ステップS42)。生成された立体形状データは、作業用メモリ230に記憶される。ステップS41,S42においては、上記のように、複数の視点に対応するパターン画像データが取得され、それらのパターン画像データから生成される複数の立体形状データが合成されてもよい。それにより、測定対象物Sの広い範囲の立体形状データを生成することができる。   Next, the CPU 210 processes the acquired pattern image data by a predetermined measurement algorithm to generate three-dimensional shape data indicating the three-dimensional shape of the measuring object S (step S42). The generated solid shape data is stored in the work memory 230. In steps S41 and S42, as described above, pattern image data corresponding to a plurality of viewpoints may be acquired, and a plurality of stereoscopic shape data generated from the pattern image data may be combined. Thereby, a wide range of three-dimensional shape data of the measuring object S can be generated.

次に、CPU210は、図16のステップS33で選択されたテクスチャ画像の種類に対応するテクスチャ画像データを取得する(ステップS43)。取得されたテクスチャ画像データは、作業用メモリ230に記憶される。次に、CPU210は、ステップS42で生成された立体形状データとステップS43で取得されたテクスチャ画像データとを合成することにより、テクスチャ付き立体形状データを生成する(ステップS44)。次に、CPU210は、生成された立体形状データまたはテクスチャ付き立体形状データに基づいて、測定対象物Sの立体形状画像を表示部400に表示させる(ステップS45)。この場合、使用者は、表示すべき画像を適宜選択することができる。ステップS45において、測定対象物Sの計測箇所が適切に表示されていない場合、使用者は、図14〜図16の第1および第2の調整を再度行ってもよい。その後、CPU210は、使用者により設定された計測条件に基づいて、計測箇所の計測を実行する(ステップS46)。計測条件の設定については後述する。これにより、形状測定処理を終了する。   Next, the CPU 210 acquires texture image data corresponding to the type of texture image selected in step S33 of FIG. 16 (step S43). The acquired texture image data is stored in the work memory 230. Next, the CPU 210 generates textured solid shape data by synthesizing the solid shape data generated in step S42 and the texture image data acquired in step S43 (step S44). Next, the CPU 210 causes the display section 400 to display a stereoscopic image of the measurement object S based on the generated stereoscopic shape data or textured stereoscopic shape data (step S45). In this case, the user can appropriately select the image to be displayed. In step S45, when the measurement location of the measurement object S is not properly displayed, the user may perform the first and second adjustments in FIGS. 14 to 16 again. After that, the CPU 210 executes the measurement of the measurement location based on the measurement condition set by the user (step S46). The setting of measurement conditions will be described later. This completes the shape measurement process.

[5]立体形状画像
(1)立体投影画像および立体透視画像
図18は、測定対象物Sの一例を示す図である。図19は、図18の測定対象物Sのライブ画像の例を示す図である。図18の測定対象物Sは、基板B1と、その基板B1の上面に実装される素子B2,B3とを含む。また、図18の例では、測定対象物Sの外観の特徴として、素子B2の上面および素子B3の上面に、互いに異なる色が付される。図中においては、色の違いが異なるハッチングで表される。
[5] Stereoscopic shape image (1) Stereoscopic projection image and stereoscopic perspective image FIG. 18 is a diagram showing an example of the measuring object S. FIG. 19 is a diagram showing an example of a live image of the measuring object S of FIG. The measurement object S in FIG. 18 includes a board B1 and elements B2 and B3 mounted on the upper surface of the board B1. Further, in the example of FIG. 18, as a feature of the appearance of the measuring object S, the upper surfaces of the element B2 and the element B3 are colored differently from each other. In the figure, different colors are represented by hatching.

図19に示すように、ライブ画像G1は、測定対象物Sの外観を表す。上記のように、受光部120は一定の画角θ2(図2)を有する。そのため、ライブ画像G1は遠近感を有し、ライブ画像G1に表される測定対象物Sの各部の大きさは、受光部120からの距離に依存する。例えば、基板B1の上面の辺L1,L2の実際の長さは互いに等しいが、ライブ画像G1においては、受光部120により近い位置にある辺L1の長さが、辺L2の長さよりも大きい。   As shown in FIG. 19, the live image G1 represents the appearance of the measuring object S. As described above, the light receiving unit 120 has a constant angle of view θ2 (FIG. 2). Therefore, the live image G1 has a perspective, and the size of each part of the measuring object S represented in the live image G1 depends on the distance from the light receiving unit 120. For example, the actual lengths of the sides L1 and L2 on the upper surface of the substrate B1 are equal to each other, but in the live image G1, the length of the side L1 located closer to the light receiving unit 120 is larger than the length of the side L2.

図20は、立体形状画像について説明するための図である。上記のように、立体形状画像は、立体形状データに基づいて生成される立体形状画像データにより表される。本実施の形態において、立体形状画像データは、投影画法により測定対象物Sを立体投影画像として表す立体投影画像データ、および透視画法により測定対象物Sを立体透視画像として表す立体透視画像データを含む。立体透視画像データは、機器パラメータとして、ステージ140に対する受光部120の位置(座標)、受光部120のレンズ122の画角θ2および焦点位置等を用いて生成される。   FIG. 20 is a diagram for describing a stereoscopic image. As described above, the stereoscopic image is represented by the stereoscopic image data generated based on the stereoscopic data. In the present embodiment, the stereoscopic shape image data is stereoscopic projection image data that represents the measurement target S as a stereoscopic projection image by the projection image method, and stereoscopic perspective image data that represents the measurement target S as a stereoscopic perspective image by the perspective imaging method. including. The stereoscopic perspective image data is generated using the position (coordinates) of the light receiving unit 120 with respect to the stage 140, the angle of view θ2 of the lens 122 of the light receiving unit 120, the focus position, and the like as device parameters.

図20(a)には、図18の測定対象物Sの立体投影画像が示される。図20(b)には、図18の測定対象物Sの立体透視画像が示される。図20(a)に示すように、立体投影画像G2は、遠近感を有さず、測定対象物Sの各部の大きさが受光部120からの距離に依存しない。そのため、測定対象物Sの辺L1の長さと辺L2の長さとが互いに等しい。一方、図20(b)に示すように、立体透視画像G3は、ライブ画像G1と同様に遠近感を有し、測定対象物Sの各部の大きさは、受光部120からの距離に依存する。そのため、図19のライブ画像G1と同様に、辺L1の長さが辺L2の長さよりも大きい。立体投影画像G2および立体透視画像G3は、予め設定された光源からの光による陰影等を含んでもよい。使用者は、立体形状画像として、立体投影画像G2と立体透視画像G3とを選択的に表示部400に表示させることができる。   FIG. 20A shows a stereoscopic projection image of the measuring object S of FIG. FIG. 20B shows a stereoscopic perspective image of the measurement object S of FIG. As shown in FIG. 20A, the stereoscopic projection image G2 has no sense of perspective, and the size of each part of the measuring object S does not depend on the distance from the light receiving part 120. Therefore, the length of the side L1 and the length of the side L2 of the measuring object S are equal to each other. On the other hand, as shown in FIG. 20B, the stereoscopic perspective image G3 has a perspective like the live image G1, and the size of each part of the measuring object S depends on the distance from the light receiving part 120. .. Therefore, similarly to the live image G1 in FIG. 19, the length of the side L1 is larger than the length of the side L2. The stereoscopic projection image G2 and the stereoscopic perspective image G3 may include a shadow or the like caused by light from a preset light source. The user can selectively display the stereoscopic projection image G2 and the stereoscopic perspective image G3 on the display unit 400 as the stereoscopic image.

本実施の形態では、次の第1および第2の条件の少なくとも一方が満たされるように、立体形状画像データが生成される。第1の条件は、立体形状画像の消失点の位置がライブ画像G1の消失点の位置と一致することである。第2の条件は、立体形状画像における測定対象物の向きがライブ画像G1における測定対象物の向きと一致することである。   In the present embodiment, the stereoscopic image data is generated so that at least one of the following first and second conditions is satisfied. The first condition is that the vanishing point position of the stereoscopic image matches the vanishing point position of the live image G1. The second condition is that the orientation of the measuring object in the stereoscopic image matches the orientation of the measuring object in the live image G1.

立体形状画像として立体投影画像G2が表示される場合には、第2の条件が満たされるように、立体投影画像G2における測定対象物Sの向きが、ライブ画像G1における測定対象物Sの向きと一致される。一方、立体形状画像として立体透視画像G3が表示される場合には、第1および第2の条件の両方が満たされることが好ましい。すなわち、立体透視画像G3の消失点の位置が、ライブ画像G1の消失点の位置と一致され、立体透視画像G3における測定対象物Sの向きが、ライブ画像G1における測定対象物Sの向きと一致されることが好ましい。立体透視画像G3が表示される場合には、第1および第2の条件の一方のみが満たされてもよい。   When the stereoscopic projection image G2 is displayed as the stereoscopic image, the orientation of the measuring object S in the stereoscopic projection image G2 is the same as the orientation of the measuring object S in the live image G1 so that the second condition is satisfied. Will be matched. On the other hand, when the stereoscopic perspective image G3 is displayed as the stereoscopic image, it is preferable that both the first and second conditions are satisfied. That is, the position of the vanishing point of the stereoscopic perspective image G3 matches the position of the vanishing point of the live image G1, and the orientation of the measuring object S in the stereoscopic perspective image G3 coincides with the orientation of the measuring object S in the live image G1. Preferably. When the stereoscopic perspective image G3 is displayed, only one of the first and second conditions may be satisfied.

図21は、ライブ画像G1および立体形状画像における測定対象物Sの向きについて説明するための図である。図21(a)の例では、受光部120の光軸に対して垂直に投影面PPが設定される。また、受光部120のレンズ122(図2)と測定対象物Sの表面とを結ぶように複数の投射線PLが設定される。複数の投射線PLに沿って投影面PPに投影された画像が、ライブ画像G1に相当する。投影面PPに対する測定対象物Sの相対的な向きが、ライブ画像G1における測定対象物Sの向きに相当する。   FIG. 21 is a diagram for explaining the orientation of the measuring object S in the live image G1 and the stereoscopic image. In the example of FIG. 21A, the projection plane PP is set perpendicularly to the optical axis of the light receiving unit 120. Further, a plurality of projection lines PL are set so as to connect the lens 122 (FIG. 2) of the light receiving unit 120 and the surface of the measuring object S. The image projected on the projection plane PP along the plurality of projection lines PL corresponds to the live image G1. The relative orientation of the measuring object S with respect to the projection plane PP corresponds to the orientation of the measuring object S in the live image G1.

図21(b)の例では、立体形状データにより表される仮想的な測定対象物Sに対して投影面PPaが設定され、投影面PPaに対して一定の角度(例えば90度)をなすように複数の投射線PLaが設定される。複数の投射線PLaに沿って投影面PPaに投影された画像が、立体投影画像G2に相当する。投影面PPaに対する測定対象物Sの相対的な向きが、立体投影画像G2における測定対象物Sの向きに相当する。   In the example of FIG. 21B, the projection plane PPa is set with respect to the virtual measurement target S represented by the three-dimensional shape data, and the projection plane PPa forms a constant angle (for example, 90 degrees). A plurality of projection lines PLa are set at. The image projected on the projection surface PPa along the plurality of projection lines PLa corresponds to the stereoscopic projection image G2. The relative orientation of the measurement target S with respect to the projection plane PPa corresponds to the orientation of the measurement target S in the stereoscopic projection image G2.

図21(c)の例では、立体形状データにより表される仮想的な測定対象物Sに対して投影面PPbが設定され、共通の視点VPを通りかつ投影面PPbと交差するように複数の投射線PLbが設定される。投影面PPbと視点VPとは一定の位置関係にある。また、測定対象物Sと視点VPとの距離は、受光部120の画角θ2(図2)および焦点距離によって決まる。複数の投射線PLbに沿って投影面PPbに投影された画像が、立体透視画像G3に相当する。投影面PPbに対する測定対象物Sの相対的な向きが、立体透視画像G3における測定対象物Sの向きに相当する。   In the example of FIG. 21C, the projection plane PPb is set with respect to the virtual measurement object S represented by the three-dimensional shape data, and a plurality of projection planes PPb pass through the common viewpoint VP and intersect the projection plane PPb. The projection line PLb is set. The projection plane PPb and the viewpoint VP have a fixed positional relationship. The distance between the measuring object S and the viewpoint VP is determined by the angle of view θ2 (FIG. 2) of the light receiving unit 120 and the focal length. The image projected on the projection surface PPb along the plurality of projection lines PLb corresponds to the stereoscopic perspective image G3. The relative orientation of the measurement target S with respect to the projection plane PPb corresponds to the orientation of the measurement target S in the stereoscopic perspective image G3.

第2の条件は、ライブ画像G1における測定対象物Sの向きと立体形状画像における測定対象物Sの向きとが厳密に一致する場合のみでなく、これらが僅かにずれている場合を含んでもよい。例えば、図21(b)の例における測定対象物Sに対する投射線PLaの方向が、図21(a)の例における測定対象物Sに対する受光部120の光軸の方向と一致する場合、第2の条件が満たされる。また、図21(c)の測定対象物Sに対するいずれかの投射線PLbの方向が、図21(a)の測定対象物Sに対する受光部120の光軸の方向と一致する場合、第2の条件が満たされてもよい。投射線の方向は、測定対象物Sに対する視線の方向に相当する。   The second condition is not limited to the case where the orientation of the measurement object S in the live image G1 and the orientation of the measurement object S in the stereoscopic image are exactly the same, but may include the case where they are slightly deviated. .. For example, when the direction of the projection line PLa with respect to the measurement target S in the example of FIG. 21B matches the direction of the optical axis of the light receiving unit 120 with respect to the measurement target S in the example of FIG. The condition of is satisfied. When the direction of any of the projection lines PLb with respect to the measurement target S of FIG. 21C matches the direction of the optical axis of the light receiving unit 120 with respect to the measurement target S of FIG. The condition may be met. The direction of the projection line corresponds to the direction of the line of sight with respect to the measuring object S.

図22は、消失点の位置について説明するための図である。図22に示すように、ライブ画像G1および立体透視画像G3においては、実際には平行な線が遠近感によって互いに角度をなし、一定の消失点で互いに交差する。図22の例では、3つの消失点VN1,VN2,VN3が存在する。ライブ画像G1の消失点の位置と立体透視画像G3の消失点の位置とが一致する場合、ライブ画像G1の遠近感の程度と立体透視画像G3の遠近感の程度が一致する。   FIG. 22 is a diagram for explaining the position of the vanishing point. As shown in FIG. 22, in the live image G1 and the stereoscopic perspective image G3, the parallel lines actually make an angle with each other due to the perspective and intersect with each other at a certain vanishing point. In the example of FIG. 22, there are three vanishing points VN1, VN2, VN3. When the position of the vanishing point of the live image G1 and the position of the vanishing point of the stereoscopic perspective image G3 match, the degree of perspective of the live image G1 and the degree of perspective of the stereoscopic perspective image G3 match.

なお、第1の条件は、ライブ画像G1の消失点の位置と立体透視画像G3の消失点の位置とが厳密に一致する場合のみでなく、これらが僅かにずれている場合を含んでもよい。   The first condition may include not only the case where the position of the vanishing point of the live image G1 and the position of the vanishing point of the stereoscopic perspective image G3 exactly match, but also the case where they are slightly deviated.

使用者は、ライブ画像G1と立体形状画像(立体投影画像G2もしくは立体透視画像G3)とを選択的にまたは同時に表示部400に表示させることができる。それにより、使用者は、ライブ画像G1と立体形状画像とを見比べることができる。   The user can display the live image G1 and the stereoscopic image (stereoscopic projection image G2 or stereoscopic perspective image G3) selectively or simultaneously on the display unit 400. Thereby, the user can compare the live image G1 with the stereoscopic image.

図23(a)は、ライブ画像G1と立体投影画像G2とが同時に表示される例を示し、図23(b)は、ライブ画像G1と立体透視画像G3とが同時に表示される例を示す。使用者は、立体形状データの生成後、立体形状画像上で測定対象物Sの計測箇所を指定する。その場合、ライブ画像G1と立体形状画像とを見比べることにより、立体形状画像上で測定対象物Sの計測箇所を特定しやすくなる。しかしながら、ライブ画像G1における測定対象物Sの見た目と立体形状画像における測定対象物Sの見た目とが乖離していると、ライブ画像G1と立体形状画像とを見比べたときに違和感が生じ、計測箇所の特定が難しくなることがある。そこで、本実施の形態では、上記の第1および第2の条件の少なくとも一方が満たされるように立体形状画像データが生成される。   23A shows an example in which the live image G1 and the stereoscopic projection image G2 are simultaneously displayed, and FIG. 23B shows an example in which the live image G1 and the stereoscopic perspective image G3 are simultaneously displayed. After generating the three-dimensional shape data, the user specifies the measurement location of the measuring object S on the three-dimensional shape image. In that case, by comparing the live image G1 and the three-dimensional image, it becomes easy to specify the measurement location of the measuring object S on the three-dimensional image. However, if the appearance of the measurement object S in the live image G1 and the appearance of the measurement object S in the three-dimensional shape image are different from each other, discomfort occurs when comparing the live image G1 and the three-dimensional image, and the measurement location Can be difficult to identify. Therefore, in the present embodiment, the stereoscopic image data is generated so that at least one of the first and second conditions described above is satisfied.

図23(a)の例では、立体投影画像G2における測定対象物Sの向きが、ライブ画像G1における測定対象物Sの向きと一致しており、第2の条件が満たされている。図23(b)の例では、立体透視画像G3の消失点の位置が、ライブ画像G1の消失点の位置と一致され、かつ立体透視画像G3における測定対象物Sの向きが、ライブ画像G1における測定対象物Sの向きと一致しており、第1および第2の条件が満たされている。   In the example of FIG. 23A, the orientation of the measuring object S in the stereoscopic projection image G2 matches the orientation of the measuring object S in the live image G1, and the second condition is satisfied. In the example of FIG. 23 (b), the position of the vanishing point of the stereoscopic perspective image G3 matches the position of the vanishing point of the live image G1, and the orientation of the measuring object S in the stereoscopic perspective image G3 is the live image G1. It matches the orientation of the measuring object S, and the first and second conditions are satisfied.

これにより、ライブ画像G1と立体形状画像との間の乖離が小さくなる。したがって、使用者は、違和感なくライブ画像G1と立体形状画像とを見比べることができる。ライブ画像G1と立体形状画像との間の乖離度をさらに低くするため、ライブ画像G1の表示サイズ(表示倍率)と立体形状画像の表示サイズとが一致していることがより好ましい。   As a result, the difference between the live image G1 and the stereoscopic image is reduced. Therefore, the user can compare the live image G1 with the stereoscopic image without any discomfort. In order to further reduce the degree of deviation between the live image G1 and the stereoscopic image, it is more preferable that the display size (display magnification) of the live image G1 and the display size of the stereoscopic image match.

(2)テクスチャ付き立体形状画像
上記のように、立体形状データおよびテクスチャ画像データからテクスチャ付き立体形状データが合成され、テクスチャ付き立体形状データからテクスチャ付き立体形状画像を表す立体形状画像データが生成される。この場合、立体形状画像データとして、立体投影画像データ(以下、テクスチャ付き投影画像データと呼ぶ。)が生成されてもよく、立体透視画像データ(以下、テクスチャ付き透視画像データと呼ぶ。)が生成されてもよい。以下、テクスチャ付き投影画像データにより表されるテクスチャ付き立体形状画像をテクスチャ付き投影画像と呼び、テクスチャ付き透視画像データにより表されるテクスチャ付き立体形状画像をテクスチャ付き透視画像と呼ぶ。
(2) Stereoscopic shape image with texture As described above, stereoscopic shape data with texture is combined from stereoscopic shape data and texture image data, and stereoscopic shape image data representing a stereoscopic shape image with texture is generated from the stereoscopic shape data with texture. It In this case, stereoscopic projection image data (hereinafter referred to as textured projection image data) may be generated as stereoscopic shape image data, and stereoscopic perspective image data (hereinafter referred to as textured perspective image data) may be generated. May be done. Hereinafter, the textured three-dimensional image represented by the textured projection image data is referred to as a textured projection image, and the textured three-dimensional image represented by the textured perspective image data is referred to as a textured perspective image.

図24(a)は、テクスチャ付き投影画像の例を示し、図24(b)は、テクスチャ付き透視画像の例を示す。図24(a)に示すように、テクスチャ付き投影画像G2aは、立体投影画像G2に、測定対象物Sのテクスチャ情報が付与された画像である。また、図24(b)に示すように、テクスチャ付き透視画像G3aは、立体透視画像G3に、測定対象物Sのテクスチャ情報が付与された画像である。本例において、テクスチャ情報は、素子B2,B3の上面の光学的な色彩および明暗情報等である。   FIG. 24A shows an example of a textured projection image, and FIG. 24B shows an example of a textured perspective image. As shown in FIG. 24A, the textured projection image G2a is an image in which the texture information of the measuring object S is added to the stereoscopic projection image G2. Further, as shown in FIG. 24B, the textured perspective image G3a is an image in which the texture information of the measuring object S is added to the stereoscopic perspective image G3. In this example, the texture information is optical color and light / dark information of the upper surfaces of the elements B2 and B3.

テクスチャ付き投影画像G2aは、立体投影画像G2よりもライブ画像G1との近似性が高く、テクスチャ付き透視画像G3aは、立体透視画像G3よりもライブ画像G1との近似性が高い。したがって、使用者は、より違和感なく、ライブ画像G1と立体形状画像とを見比べることができる。   The textured projection image G2a is closer to the live image G1 than the stereoscopic projection image G2, and the textured perspective image G3a is closer to the live image G1 than the stereoscopic perspective image G3. Therefore, the user can compare the live image G1 and the three-dimensional image with less discomfort.

[6]ステージの回転
上記のように、1つの視点に対応する立体形状データが生成された後に、他の視点に対応する立体形状データが追加で取得されることがある。その場合、ユーザは、図1の操作部250を操作してステージ140の回転を指示するか、または図1のステージ操作部145を操作することにより、ステージ140を回転させる。
[6] Rotation of Stage As described above, after the solid shape data corresponding to one viewpoint is generated, the solid shape data corresponding to another viewpoint may be additionally acquired. In that case, the user rotates the stage 140 by operating the operation unit 250 of FIG. 1 to instruct rotation of the stage 140 or by operating the stage operation unit 145 of FIG. 1.

図25は、1つの視点に対応する立体形状データを示す模式図である。図25の立体形状データSDは、図19のライブ画像G1の視点に対応している。立体形状データSDは、測定光が照射されかつ受光部120により撮像される測定対象物Sの表面の部分の位置データを含む。図25の立体形状データSDは、図19のライブ画像G1に現れている測定対象物Sの表面の部分の位置データを含む。一方、図19のライブ画像G1に現れていない測定対象物Sの表面の部分の位置データは、立体形状データSDに含まれない。   FIG. 25 is a schematic diagram showing three-dimensional shape data corresponding to one viewpoint. The three-dimensional shape data SD in FIG. 25 corresponds to the viewpoint of the live image G1 in FIG. The three-dimensional shape data SD includes position data of the surface portion of the measuring object S that is irradiated with the measurement light and is imaged by the light receiving unit 120. The three-dimensional shape data SD of FIG. 25 includes position data of the surface portion of the measuring object S appearing in the live image G1 of FIG. On the other hand, the position data of the surface portion of the measuring object S that does not appear in the live image G1 of FIG. 19 is not included in the three-dimensional shape data SD.

図26は、操作部250(図1)の操作によるステージ140の回転の指示の例について説明するための図である。図26(a)の例では、表示部400にライブ画像G1とともにポインタPTが表示される。本例において、操作部250はマウスを含む。使用者は、マウスのボタンを押下しながら、マウスを移動させてポインタPTを右方向D1または左方向D2に移動させることにより、ステージ140の回転を指示する。例えば、ポインタPTの右方向D1の移動により、反時計周り方向D1aへの回転が指示され、ポインタPTの左方向D2の移動により、時計周り方向D2aへの回転が指示される。この場合、ポインタPTの右方向D1または左方向D2への移動量が、ステージ140の回転角度に対応する。ポインタPTの移動の代わりに、ステージ140の回転方向を指定するためのアイコンが表示部400に表示され、そのアイコンの操作によりステージ140の回転が指示されてもよい。CPU210は、使用者によるステージ140の回転の指示に応答して、図1のステージ駆動部146を制御する。   FIG. 26 is a diagram for describing an example of an instruction to rotate the stage 140 by operating the operation unit 250 (FIG. 1). In the example of FIG. 26A, the pointer PT is displayed on the display unit 400 together with the live image G1. In this example, the operation unit 250 includes a mouse. The user instructs the rotation of the stage 140 by moving the mouse while moving the pointer PT in the right direction D1 or the left direction D2 while pressing the mouse button. For example, movement of the pointer PT in the right direction D1 instructs rotation in the counterclockwise direction D1a, and movement of the pointer PT in the left direction D2 instructs rotation in the clockwise direction D2a. In this case, the amount of movement of the pointer PT in the right direction D1 or the left direction D2 corresponds to the rotation angle of the stage 140. Instead of moving the pointer PT, an icon for designating the rotation direction of the stage 140 may be displayed on the display unit 400, and the rotation of the stage 140 may be instructed by operating the icon. The CPU 210 controls the stage drive unit 146 of FIG. 1 in response to a user's instruction to rotate the stage 140.

図26(b)のライブ画像G1においては、図26(a)のライブ画像G1に表される状態から、測定対象物Sが時計回り方向D2aに90度回転されている。このように、ライブ画像G1を見ながら測定対象物Sの向きを容易に調整することができる。   In the live image G1 of FIG. 26B, the measurement target S is rotated 90 degrees in the clockwise direction D2a from the state shown in the live image G1 of FIG. In this way, the orientation of the measuring object S can be easily adjusted while watching the live image G1.

ライブ画像G1の代わりに、立体形状画像を用いて、ステージ140の回転が指示されてもよい。図27は、立体透視画像G3を用いてステージ140の回転指示を行う例について説明するための図である。立体形状画像を用いてステージ140の回転指示が行われる場合、上記の第2の条件が満たされるように立体形状画像データが生成される。すなわち、立体形状画像における測定対象物Sの向きが、ライブ画像G1における測定対象物Sの向きと一致される。   Instead of the live image G1, a stereoscopic image may be used to instruct the rotation of the stage 140. FIG. 27 is a diagram for describing an example of instructing the rotation of the stage 140 using the stereoscopic perspective image G3. When the rotation instruction of the stage 140 is performed using the stereoscopic image, the stereoscopic image data is generated so that the second condition described above is satisfied. That is, the orientation of the measuring object S in the three-dimensional image matches the orientation of the measuring object S in the live image G1.

使用者は、図26の例と同様にして、立体透視画像G3上でステージ140の回転を指示することができ、その回転指示に基づいて、CPU210がステージ駆動部146を制御する。この場合、ステージ140の回転に追従するように、立体透視画像G3における測定対象物Sの向きが変化される。具体的には、立体形状データおよび使用者による回転指示に基づいて、回転後の測定対象物Sを表すように立体透視画像データが更新され、更新後の立体透視画像データに基づいて立体透視画像G3が表示される。   The user can instruct rotation of the stage 140 on the stereoscopic perspective image G3 in the same manner as the example of FIG. 26, and the CPU 210 controls the stage drive unit 146 based on the rotation instruction. In this case, the orientation of the measuring object S in the stereoscopic perspective image G3 is changed so as to follow the rotation of the stage 140. Specifically, the stereoscopic perspective image data is updated so as to represent the rotated measurement target S based on the stereoscopic shape data and the rotation instruction from the user, and the stereoscopic perspective image is updated based on the updated stereoscopic perspective image data. G3 is displayed.

図27(b)の立体透視画像G3においては、図24(b)の立体透視画像G3により表される状態から、測定対象物Sが時計回り方向D2aに90度回転されている。この場合、ステージ140の回転前の視点に対応する立体形状データしか生成されていないので、立体透視画像G3において、測定対象物Sの一部が欠損している。   In the stereoscopic perspective image G3 of FIG. 27B, the measurement target S is rotated 90 degrees in the clockwise direction D2a from the state represented by the stereoscopic perspective image G3 of FIG. 24B. In this case, since only the stereoscopic shape data corresponding to the viewpoint before the rotation of the stage 140 is generated, a part of the measuring object S is missing in the stereoscopic perspective image G3.

そこで、ステージ140の回転後に新たに立体形状データが生成される。すなわち、測定対象物Sに測定光が照射されつつ測定対象物Sが撮像されることによりパターン画像データが取得され、取得されたパターン画像データに基づいて新たな立体形状データが生成される。新たに生成される立体形状画像データは、図26(b)のライブ画像G1に現れる測定対象物Sの表面の部分の位置データを含む。   Therefore, three-dimensional shape data is newly generated after the rotation of the stage 140. That is, the pattern image data is acquired by imaging the measurement target S while irradiating the measurement target S with the measurement light, and new three-dimensional shape data is generated based on the acquired pattern image data. The newly generated three-dimensional image data includes position data of the surface portion of the measuring object S appearing in the live image G1 of FIG. 26 (b).

図28は、新たに生成された立体形状データに基づいて表示される立体透視画像G3を示す図である。図28の立体透視画像G3においては、図27(b)の立体透視画像G3における測定対象物Sの欠損部分が補われている。このようにして、ステージ140を回転させながら、複数の視点に対応する立体形状データを取得していくことができる。   FIG. 28 is a diagram showing a stereoscopic perspective image G3 displayed based on the newly generated stereoscopic shape data. In the stereoscopic perspective image G3 of FIG. 28, the missing portion of the measuring object S in the stereoscopic perspective image G3 of FIG. 27B is supplemented. In this way, the stereoscopic shape data corresponding to a plurality of viewpoints can be acquired while rotating the stage 140.

立体形状画像を用いてステージ140の回転指示を行う場合、使用者は、立体形状画像を見て、立体形状データの欠損部分を直感的に認識することができる。また、使用者は、立体形状画像を見て、立体形状データの欠損部分を補うためにステージ140を回転させるべき角度を直感的に認識することができる。したがって、測定対象物Sの広い範囲の立体形状データを効率良く生成することができる。   When the rotation instruction of the stage 140 is given using the stereoscopic image, the user can intuitively recognize the missing portion of the stereoscopic data by looking at the stereoscopic image. Further, the user can intuitively recognize the angle at which the stage 140 should be rotated to compensate for the missing portion of the stereoscopic shape data by looking at the stereoscopic image. Therefore, a wide range of three-dimensional shape data of the measuring object S can be efficiently generated.

図27の例では、立体形状画像として立体透視画像G3が用いられるが、立体透視画像G3の代わりに立体投影画像G2、テクスチャ付き投影画像G2aまたはテクスチャ付き透視画像G3aを用いて、同様にステージ140の回転が指示されてもよい。また、立体形状画像とともにライブ画像G1が表示されてもよい。この場合、使用者は、ライブ画像G1と立体形状画像とを見比べることにより、立体形状データの欠損をより具体的に認識することができる。   In the example of FIG. 27, the stereoscopic perspective image G3 is used as the stereoscopic image, but instead of the stereoscopic perspective image G3, the stereoscopic projection image G2, the textured projection image G2a, or the textured perspective image G3a is used, and the stage 140 is similarly used. May be instructed to rotate. Further, the live image G1 may be displayed together with the stereoscopic image. In this case, the user can more specifically recognize the loss of the stereoscopic shape data by comparing the live image G1 and the stereoscopic image.

図29は、ステージ140の回転時におけるCPU210の動作例を示すフローチャートである。図29の例では、ライブ画像G1および立体形状画像が表示された状態で、ステージ140の回転指示が行われる。まず、CPU210は、取得されたライブ画像データに基づいて表示部400にライブ画像G1を表示するとともに、取得された立体形状データに基づいて立体形状画像データを生成し、生成された立体形状画像データに基づいて立体形状画像を表示部400に表示する(ステップS51)。この場合、第2の条件が満たされるように立体形状画像データが生成される。また、立体形状画像として立体透視画像G3が表示される場合には、第2の条件とともに第1の条件が満たされるように、立体透視画像データが生成されることが好ましい。   FIG. 29 is a flowchart showing an operation example of the CPU 210 when the stage 140 rotates. In the example of FIG. 29, the rotation instruction of the stage 140 is performed while the live image G1 and the stereoscopic image are displayed. First, the CPU 210 displays the live image G1 on the display unit 400 based on the acquired live image data, generates stereoscopic image data based on the acquired stereoscopic shape data, and generates the stereoscopic shape image data. The three-dimensional shape image is displayed on the display unit 400 based on (step S51). In this case, the stereoscopic image data is generated so that the second condition is satisfied. Further, when the stereoscopic perspective image G3 is displayed as the stereoscopic image, the stereoscopic perspective image data is preferably generated so that the first condition is satisfied together with the second condition.

次に、CPU210は、操作部250の操作に基づいて、ステージ140の回転指示が有るか否かを判定する(ステップS52)。ステージ140の回転指示が有る場合、CPU210は、回転指示に基づいてステージ140の回転方向および回転角度を特定し(ステップS53)、特定された回転方向に特定された回転角度だけステージ140が回転されるように、ステージ駆動部146を制御する(ステップS54)。   Next, the CPU 210 determines whether or not there is a rotation instruction of the stage 140 based on the operation of the operation unit 250 (step S52). When there is a rotation instruction of the stage 140, the CPU 210 specifies the rotation direction and the rotation angle of the stage 140 based on the rotation instruction (step S53), and the stage 140 is rotated by the rotation angle specified in the specified rotation direction. The stage drive unit 146 is controlled so as to control (step S54).

ステップS52でステージ140の回転指示がない場合、CPU210は、図2のステージ操作部145が操作されたか否かを判定する(ステップS55)。ステージ操作部145が操作された場合、CPU210は、ステージ操作部145の操作または検出センサの出力に基づいて、ステージ140の回転方向および回転角度を検出する(ステップS56)。   When there is no instruction to rotate the stage 140 in step S52, the CPU 210 determines whether or not the stage operation unit 145 of FIG. 2 has been operated (step S55). When the stage operation unit 145 is operated, the CPU 210 detects the rotation direction and the rotation angle of the stage 140 based on the operation of the stage operation unit 145 or the output of the detection sensor (step S56).

次に、CPU210は、ステップS53で特定された回転方向および回転角度、あるいはステップS56で検出された回転方向および回転角度に基づいて、回転後の測定対象物Sを表すように立体形状画像データを更新する(ステップS57)。次に、CPU210は、更新後の立体形状画像データに基づいて、立体透視画像の表示を更新する。その後、ステップS52〜S58の処理が繰り返される。   Next, the CPU 210 generates three-dimensional image data so as to represent the measurement target S after rotation based on the rotation direction and the rotation angle specified in step S53 or the rotation direction and the rotation angle detected in step S56. Update (step S57). Next, the CPU 210 updates the display of the stereoscopic perspective image based on the updated stereoscopic image data. Then, the processes of steps S52 to S58 are repeated.

[7]回転方向の制限
測定対象物Sの広範囲の立体形状データが取得されている場合、表示される立体形状画像における測定対象物Sの向きを任意に変更可能であってもよい。具体的には、使用者により立体形状画像における測定対象物Sの向きの変更が指示されると、立体形状画像データが更新される。更新された立体形状画像データに基づいて立体形状画像の表示が更新される。
[7] Limitation of Rotation Direction When a wide range of three-dimensional shape data of the measurement object S is acquired, the orientation of the measurement object S in the displayed three-dimensional shape image may be arbitrarily changeable. Specifically, when the user instructs to change the orientation of the measuring object S in the stereoscopic image, the stereoscopic image data is updated. The display of the stereoscopic image is updated based on the updated stereoscopic image data.

一方、ライブ画像G1は、実際に受光部120により撮像されているリアルタイムでの測定対象物Sを表すので、ステージ140を回転させることによってライブ画像G1における測定対象物Sの向きを変更することができるが、立体形状画像のように測定対象物Sの向きを任意に変更することはできない。   On the other hand, since the live image G1 represents the measurement target S in real time that is actually captured by the light receiving unit 120, the orientation of the measurement target S in the live image G1 can be changed by rotating the stage 140. However, unlike the stereoscopic image, the direction of the measuring object S cannot be arbitrarily changed.

上記のように、ライブ画像G1と立体形状画像とを見比べる場合には、ライブ画像G1と立体形状画像との間の乖離が小さいことが好ましい。そこで、ライブ画像G1における測定対象物Sの回転方向と、立体形状画像における測定対象物Sの回転方向とが一致するように、立体形状画像における測定対象物Sの回転方向を制限可能であってもよい。   As described above, when comparing the live image G1 and the three-dimensional image, it is preferable that the difference between the live image G1 and the three-dimensional image is small. Therefore, the rotation direction of the measurement object S in the three-dimensional image can be restricted so that the rotation direction of the measurement object S in the live image G1 and the rotation direction of the measurement object S in the three-dimensional image match. Good.

図30は、立体形状画像における測定対象物Sの回転方向の制限について説明するための図である。図30の例では、立体形状画像として立体透視画像G3が表示される。図30に示すように、立体透視画像G3における測定対象物Sの向きは、ステージ140がいずれかの回転位置にあるときに受光部120により実際に撮像される測定対象物Sの向きと一体するように定められる。この場合、ライブ画像G1における測定対象物Sの向きと立体透視画像G3における測定対象物Sの向きとは一致していることが好ましい。この立体透視画像G3において、測定対象物Sは、ステージ140の回転軸Axに対応する仮想的な回転軸Ax’を中心とする方向にのみ回転可能であり、他の方向への回転は禁止される。これにより、ライブ画像G1と立体形状画像との間の乖離を小さくすることができ、使用者は、ライブ画像G1と立体形状画像とを違和感なく見比べることができる。また、一定の自由度で測定対象物Sを回転させることは可能であるので、ライブ画像G1には現れていない測定対象物Sの部分を立体形状画像上で確認することができる。また、上記のように、ライブ画像G1における測定対象物Sの向きを立体形状画像における測定対象物Sの向きと一致させることにより、ライブ画像G1と立体形状画像との違いを容易に把握することができる。そのため、立体形状データの欠損箇所等を容易に把握することができ、立体形状データの追加取得を効率良く行うことができる。   FIG. 30 is a diagram for explaining the restriction on the rotation direction of the measuring object S in the three-dimensional image. In the example of FIG. 30, a stereoscopic perspective image G3 is displayed as a stereoscopic image. As shown in FIG. 30, the orientation of the measuring object S in the stereoscopic perspective image G3 is integrated with the orientation of the measuring object S actually imaged by the light receiving unit 120 when the stage 140 is in any rotation position. Is determined. In this case, it is preferable that the orientation of the measurement target S in the live image G1 and the orientation of the measurement target S in the stereoscopic perspective image G3 match. In this stereoscopic perspective image G3, the measuring object S can be rotated only in the direction around the virtual rotation axis Ax ′ corresponding to the rotation axis Ax of the stage 140, and rotation in other directions is prohibited. It Thereby, the difference between the live image G1 and the stereoscopic image can be reduced, and the user can compare the live image G1 and the stereoscopic image with each other without feeling discomfort. Further, since it is possible to rotate the measuring object S with a certain degree of freedom, it is possible to confirm the portion of the measuring object S that does not appear in the live image G1 on the stereoscopic image. Further, as described above, by making the orientation of the measuring object S in the live image G1 coincide with the orientation of the measuring object S in the stereoscopic image, it is possible to easily grasp the difference between the live image G1 and the stereoscopic image. You can For this reason, it is possible to easily grasp the missing portion of the three-dimensional shape data and the like, and it is possible to efficiently perform additional acquisition of the three-dimensional shape data.

[8]計測値の取得
図17のステップS46において、使用者は、表示部400に表示された立体形状画像を見ながら、計測条件を設定する。計測条件は、計測項目および計測箇所を含む。計測項目は、計測すべきパラメータの種類であり、距離、高さ、直径および面積等を含む。また、計測項目として、計測箇所を特定するための幾何形状(例えば、点、直線、円、面、球、円筒および円錐等)が指定されてもよい。
[8] Acquisition of Measurement Value In step S46 of FIG. 17, the user sets measurement conditions while viewing the stereoscopic image displayed on the display unit 400. The measurement conditions include measurement items and measurement points. The measurement item is the type of parameter to be measured, and includes distance, height, diameter, area, and the like. In addition, a geometric shape (for example, a point, a straight line, a circle, a surface, a sphere, a cylinder, a cone, or the like) for specifying a measurement location may be designated as the measurement item.

計測条件の設定例について説明する。まず、計測の基準となる基準面が設定される。図31は、基準面の設定時におけるCPU210の動作例を示すフローチャートである。   An example of setting measurement conditions will be described. First, a reference plane that is a reference for measurement is set. FIG. 31 is a flowchart showing an operation example of the CPU 210 when setting the reference plane.

使用者は、表示された立体形状画像上で基準面とすべき測定対象物Sの面を指定する。例えば、表示部400に立体形状画像とともにポインタが表示される。使用者は、操作部250を操作してポインタを移動させ、対象の面をポインタにより指定する。CPU210は、基準面とすべき面が指定されたか否かを判定する(ステップS61)。面が指定されていない場合、CPU210は、ステップS61の処理を繰り返す。   The user specifies the surface of the measuring object S to be the reference surface on the displayed three-dimensional image. For example, a pointer is displayed on the display unit 400 together with the stereoscopic image. The user operates the operation unit 250 to move the pointer and designates the target surface with the pointer. The CPU 210 determines whether or not the surface to be the reference surface is designated (step S61). When the surface is not designated, the CPU 210 repeats the process of step S61.

次に、CPU210は、立体形状データに基づいて、指定された面に最も近い平面を抽出し(ステップS62)、抽出された平面を基準面に設定する(ステップS63)。通常、測定対象物Sの各面は、僅かに凹凸を含む、または僅かに湾曲している等、完全な平面ではない。そこで、指定された面と最も一致度が高い仮想的な平面が抽出され、基準面に設定される。次に、CPU210は、設定された基準面が表示部400の画面と平行になるように、表示される立体形状画像を更新する。すなわち、基準面に対して測定対象物Sを垂直に見た2次元的(平面的)な画像(以下、基準面画像と呼ぶ)が表示部400に表示される。   Next, the CPU 210 extracts the plane closest to the specified plane based on the three-dimensional shape data (step S62), and sets the extracted plane as the reference plane (step S63). Usually, each surface of the measuring object S is not a perfect flat surface because it slightly includes irregularities or is slightly curved. Therefore, a virtual plane having the highest degree of coincidence with the designated plane is extracted and set as the reference plane. Next, the CPU 210 updates the displayed stereoscopic image so that the set reference plane is parallel to the screen of the display unit 400. That is, a two-dimensional (planar) image of the measurement object S viewed perpendicularly to the reference surface (hereinafter referred to as a reference surface image) is displayed on the display unit 400.

図32は、基準面画像の例を示す図である。図32の基準面画像G4は、図18の測定対象物Sを平面的に表す。図32の基準面画像G4においては、測定対象物Sの素子B2の上面が指定され、基準面に設定されている。そのため、素子B2の上面が表示部400の画面と略平行である。図33は、計測条件の設定例について説明するための図である。図33の例では、計測項目として、2線間の距離が指定され、計測箇所として、素子B2の互いに平行な2つの辺L1,L2がそれぞれ指定される。計測箇所は基準面上に設定される。計測項目および計測箇所が指定されると、立体形状データに基づいて、指定された計測項目および計測箇所に対応する計測値が算出され、基準面画像G4上に表示される。図30(b)の例では、辺L1,L2の間の距離として、“xx(mm)”が表示される。   FIG. 32 is a diagram showing an example of the reference plane image. The reference plane image G4 of FIG. 32 represents the measurement target S of FIG. 18 in a plan view. In the reference plane image G4 of FIG. 32, the upper surface of the element B2 of the measuring object S is designated and set as the reference plane. Therefore, the upper surface of the element B2 is substantially parallel to the screen of the display section 400. FIG. 33 is a diagram for explaining an example of setting measurement conditions. In the example of FIG. 33, the distance between two lines is designated as a measurement item, and two parallel sides L1 and L2 of the element B2 are designated as measurement points. The measurement point is set on the reference plane. When the measurement item and the measurement point are designated, the measurement value corresponding to the designated measurement item and the measurement point is calculated based on the three-dimensional shape data and displayed on the reference plane image G4. In the example of FIG. 30B, "xx (mm)" is displayed as the distance between the sides L1 and L2.

このように、2次元的な基準面画像G4が用いられることにより、使用者は、測定対象物Sの3次元的な形状を意識することなく、計測条件の設定を直感的に行うことができる。基準面画像G4を表す画像データが、例えば図1の記憶装置240に記憶されてもよい。この場合、任意の時点で基準面画像G4を表示させて計測値を取得することができる。また、複数の基準面が設定され、その複数の基準面に対応する複数の基準面画像G4が同時にまたは選択的に表示されてもよい。また、基準面画像G4と立体形状画像とが同時に表示されてもよく、基準面画像G4と立体形状画像とが任意に切り替えて表示されてもよい。   Thus, by using the two-dimensional reference plane image G4, the user can intuitively set the measurement conditions without being aware of the three-dimensional shape of the measurement target S. .. The image data representing the reference plane image G4 may be stored in the storage device 240 in FIG. 1, for example. In this case, the reference plane image G4 can be displayed at any time to acquire the measurement value. Further, a plurality of reference planes may be set, and a plurality of reference plane images G4 corresponding to the plurality of reference planes may be displayed simultaneously or selectively. Further, the reference plane image G4 and the three-dimensional image may be displayed simultaneously, or the reference plane image G4 and the three-dimensional image may be arbitrarily switched and displayed.

図33の例では、基準面画像G4を用いて計測条件の設定が行われるが、立体形状画像を用いて計測条件が設定されてもよい。例えば、計測項目として2面間の距離が指定される。また、立体形状画像上で、計測箇所として測定対象物Sの2つの面が指定される。この場合、指定された2面間の距離が計測値として算出され、立体形状画像上に表示される。立体形状画像を用いて計測条件が設定される場合には、基準面が設定されなくてもよい。   In the example of FIG. 33, the measurement condition is set using the reference plane image G4, but the measurement condition may be set using a stereoscopic image. For example, the distance between the two surfaces is specified as the measurement item. In addition, two surfaces of the measuring object S are designated as measurement points on the three-dimensional image. In this case, the specified distance between the two surfaces is calculated as a measurement value and displayed on the stereoscopic image. When the measurement conditions are set using the three-dimensional image, the reference plane may not be set.

図34は、基準面画像G4の他の例を示す図である。図34の基準面画像G4においては、測定対象物Sの部分に、基準面に対する高さの差分に応じた色が付される。ここで、高さとは、基準面に対して垂直な方向における基準面からの距離を意味する。図34においては、色の違いがドットパターンの違いで表される。この場合、使用者は、基準面と他の部分との高さの差を容易に認識することができる。基準面画像は、立体形状データまたはテクスチャ付き立体形状データを所定の基準面からの高さで表した高さ画像として機能する。   FIG. 34 is a diagram showing another example of the reference plane image G4. In the reference plane image G4 of FIG. 34, the portion of the measuring object S is colored in accordance with the difference in height with respect to the reference plane. Here, the height means a distance from the reference plane in a direction perpendicular to the reference plane. In FIG. 34, the difference in color is represented by the difference in dot pattern. In this case, the user can easily recognize the difference in height between the reference surface and other portions. The reference plane image functions as a height image in which the three-dimensional shape data or the three-dimensional shape data with texture is represented by the height from a predetermined reference plane.

立体形状データに基づいて、測定対象物Sのプロファイル(断面形状)を表す画像(以下、プロファイル画像と呼ぶ。)が表示されてもよい。図35は、プロファイルを取得すべき箇所の指定について説明するための図であり、図36は、プロファイル画像の例を示す図である。   An image (hereinafter referred to as a profile image) representing the profile (cross-sectional shape) of the measuring object S may be displayed based on the three-dimensional shape data. FIG. 35 is a diagram for explaining the designation of the portion where the profile is to be acquired, and FIG. 36 is a diagram showing an example of the profile image.

図35の例では、基準面画像G4上において、線分LSによりプロファイルを取得すべき測定対象物Sの箇所が指定される。この場合、立体形状データに基づいて、線分LSを通りかつ基準面に垂直な面上における測定対象物Sのプロファイルを表すプロファイルデータが生成される。生成されたプロファイルデータに基づいて、図36のプロファイル画像G5が表示される。プロファイル画像G5は、測定対象物Sのプロファイルを表すプロファイル線PRLを含む。   In the example of FIG. 35, on the reference plane image G4, the line segment LS specifies the location of the measurement object S whose profile is to be acquired. In this case, profile data representing the profile of the measuring object S on the plane that passes through the line segment LS and is perpendicular to the reference plane is generated based on the three-dimensional shape data. The profile image G5 of FIG. 36 is displayed based on the generated profile data. The profile image G5 includes a profile line PRL representing the profile of the measuring object S.

プロファイル画像G5を用いて計測条件が設定されてもよい。図36の例では、計測項目として、2面間の距離が指定され、計測箇所として、プロファイル線PL上の線分L11および線分L12が指定される。線分L11,L12は、測定対象物Sの基板B1の上面および素子B3の上面にそれぞれ対応する。この場合、立体形状データまたはプロファイルデータに基づいて、線分L11と線分L12との間の距離(基板B1の上面と素子B3の上面との間の距離)が計測値として算出される。算出された計測値“yy”は、プロファイル画像G5上に表示される。   The measurement condition may be set using the profile image G5. In the example of FIG. 36, the distance between the two surfaces is designated as the measurement item, and the line segment L11 and the line segment L12 on the profile line PL are designated as the measurement points. The line segments L11 and L12 correspond to the upper surface of the substrate B1 and the upper surface of the element B3 of the measuring object S, respectively. In this case, the distance between the line segment L11 and the line segment L12 (the distance between the upper surface of the substrate B1 and the upper surface of the element B3) is calculated as a measurement value based on the three-dimensional shape data or the profile data. The calculated measurement value "yy" is displayed on the profile image G5.

[9]効果
本実施の形態に係る測定装置500においては、投光部110、受光部120およびステージ140が一体的に設けられているので、使用者は、これらの配置を調整する必要がなく、ステージ140上に測定対象物Sを載置することで、測定対象物Sの立体形状データを得ることができる。また、ステージ140の回転軸Axが受光部120の光軸A1と平行でないので、ステージ140を回転させることにより、受光部120に向けられる測定対象物Sの箇所が変わる。そのため、測定対象物Sの異なる箇所が受光部120により撮像される。したがって、測定対象物Sの広い範囲の立体形状データを容易に生成することができる。
[9] Effects Since the light emitting unit 110, the light receiving unit 120, and the stage 140 are integrally provided in the measuring apparatus 500 according to the present embodiment, the user does not need to adjust their arrangement. By mounting the measuring object S on the stage 140, the three-dimensional shape data of the measuring object S can be obtained. In addition, since the rotation axis Ax of the stage 140 is not parallel to the optical axis A1 of the light receiving unit 120, rotating the stage 140 changes the location of the measurement target S directed toward the light receiving unit 120. Therefore, the light receiving unit 120 images different portions of the measurement target S. Therefore, it is possible to easily generate a wide range of three-dimensional shape data of the measuring object S.

また、ステージ140上に載置された測定対象物Sが受光部120によって一定の画角θ2で撮像されることによりライブ画像データが取得され、取得されたライブ画像データに基づいて、リアルタイムでの測定対象物Sの画像がライブ画像G1として表示される。使用者は、表示されたライブ画像G1を見ながら、測定対象物Sの位置および姿勢を確認することができる。   In addition, live image data is acquired by capturing an image of the measuring object S mounted on the stage 140 at a constant angle of view θ2 by the light receiving unit 120, and in real time, based on the acquired live image data. An image of the measuring object S is displayed as the live image G1. The user can confirm the position and orientation of the measuring object S while viewing the displayed live image G1.

また、立体形状データに基づいて、測定対象物Sの画像を立体画法により平面上に立体形状画像として表す立体形状画像データが生成される。使用者は、立体形状画像上で測定対象物の計測すべき箇所を指定する。立体形状データに基づいて、指定された箇所の計測値が算出される。   Further, based on the stereoscopic shape data, stereoscopic image data representing an image of the measuring object S on a plane as a stereoscopic image is generated by a stereoscopic method. The user designates a position on the three-dimensional image to be measured on the measuring object. Based on the three-dimensional shape data, the measurement value at the designated place is calculated.

この場合、第1および第2の条件の少なくとも一方が満たされるように立体形状画像データが生成される。第1の条件は、測定対象物が透視画法により平面上に立体形状画像として表されかつ当該立体形状画像の消失点の位置がライブ画像G1の消失点の位置と一致することであり、第2の条件は、立体形状画像における測定対象物の向きがライブ画像G1における測定対象物の向きと一致することである。これにより、使用者は、立体形状画像とライブ画像G1とを違和感なく見比べることができる。そのため、使用者は、立体形状画像を見て、測定対象物Sの計測すべき箇所を直感的に認識することができる。したがって、使用者は、立体形状画像上で計測すべき箇所を容易に指定することができる。   In this case, the stereoscopic image data is generated so that at least one of the first condition and the second condition is satisfied. The first condition is that the measurement object is represented as a stereoscopic image on a plane by the perspective drawing method, and the position of the vanishing point of the stereoscopic image matches the vanishing point of the live image G1. The condition 2 is that the orientation of the measurement target in the stereoscopic image matches the orientation of the measurement target in the live image G1. As a result, the user can compare the stereoscopic image and the live image G1 with each other without feeling discomfort. Therefore, the user can intuitively recognize the location of the measurement target S to be measured by looking at the stereoscopic image. Therefore, the user can easily specify the place to be measured on the stereoscopic image.

また、本実施の形態では、受光部120によって測定対象物Sが撮像されることにより、測定対象物Sのテクスチャ情報が取得され、点群データとテクスチャ情報とに基づいて、立体形状画像データとして、テクスチャ情報を含むテクスチャ付き投影画像データおよびテクスチャ付き透視画像データが生成される。これにより、立体形状画像に対する使用者の違和感がより低減される。   In addition, in the present embodiment, the light receiving unit 120 captures an image of the measurement target S to acquire the texture information of the measurement target S, and based on the point cloud data and the texture information, the three-dimensional shape image data is obtained. , Textured projection image data including texture information and textured perspective image data are generated. This further reduces the user's discomfort with respect to the stereoscopic image.

また、本実施の形態では、生成された立体形状データに基づいて計測の基準となる基準面が設定され、設定された基準面に対して垂直に測定対象物を見た基準面画像G4が表示される。この場合、使用者は、基準面画像上で計測箇所を容易に指定することができる。また、基準面を基準として、計測箇所の計測値を容易に算出することができる。   In addition, in the present embodiment, a reference plane serving as a reference for measurement is set based on the generated three-dimensional shape data, and a reference plane image G4 is displayed in which the measurement target is viewed perpendicularly to the set reference plane. To be done. In this case, the user can easily specify the measurement location on the reference plane image. Further, the measurement value at the measurement location can be easily calculated with the reference plane as a reference.

また、本実施の形態では、使用者によるステージ140の回転指示に基づいてステージ140が回転され、ライブ画像G1における測定対象物の向きが変化される。また、ステージの回転指示に基づいて、立体形状画像における測定対象物Sの向きがライブ画像G1における測定対象物Sの向きと一致するように、立体形状画像データが更新される。これにより、ステージ140の回転に伴うライブ画像G1上での測定対象物Aの向きの変化に連動して、立体形状画像における測定対象物Sの向きが変化する。それにより、使用者は、立体形状画像とライブ画像G1とを違和感なく見比べることができ、立体形状画像を見て、測定対象物S1の計測すべき箇所を直感的に認識することができる。   In addition, in the present embodiment, the stage 140 is rotated based on the user's instruction to rotate the stage 140, and the orientation of the measuring object in the live image G1 is changed. Further, based on the instruction to rotate the stage, the stereoscopic shape image data is updated such that the orientation of the measurement object S in the stereoscopic image matches the orientation of the measurement object S in the live image G1. As a result, the orientation of the measuring object S in the stereoscopic image changes along with the change in the orientation of the measuring object A on the live image G1 due to the rotation of the stage 140. Thereby, the user can compare the three-dimensional image and the live image G1 with each other without feeling any discomfort, and can intuitively recognize the position of the measuring object S1 to be measured by looking at the three-dimensional image.

また、本実施の形態では、ステージ140の回転位置を変化させて複数の立体形状データを生成し、生成された複数の立体形状データを合成することができる。これにより、測定対象物Sの広い範囲の立体形状データを生成することができる。   Further, in the present embodiment, it is possible to change the rotational position of the stage 140 to generate a plurality of three-dimensional shape data and combine the generated plurality of three-dimensional shape data. Accordingly, it is possible to generate three-dimensional shape data of a wide range of the measuring object S.

[10]他の実施の形態
上記実施の形態では、受光部120に単眼カメラが用いられるが、単眼カメラに代えてまたは単眼カメラに加えて、複眼カメラが用いられてもよい。また、複数の受光部120が用いられ、ステレオ法によって立体形状データが生成されてもよい。また、上記実施の形態では、2つの投光部110が用いられるが、立体形状データの生成が可能であれば、1つの投光部110のみが用いられてもよく、または3つ以上の投光部110が用いられてもよい。
[10] Other Embodiments In the above embodiments, the monocular camera is used for the light receiving unit 120, but a compound eye camera may be used instead of or in addition to the monocular camera. In addition, a plurality of light receiving units 120 may be used and stereoscopic shape data may be generated by a stereo method. Further, in the above-described embodiment, two light projecting units 110 are used, but if it is possible to generate stereoscopic shape data, only one light projecting unit 110 may be used, or three or more light projecting units 110 may be used. The light unit 110 may be used.

また、投光部110からの均一な測定光を用いてライブ画像データおよびテクスチャ画像データを取得する場合には、照明光出力部130および照明光源320が設けられなくてもよい。また、パターン画像データを合成してテクスチャ画像データを生成することも可能であり、その場合にも照明光出力部130および照明光源320が設けられなくてもよい。   Further, when the live image data and the texture image data are acquired using the uniform measurement light from the light projecting unit 110, the illumination light output unit 130 and the illumination light source 320 may not be provided. It is also possible to generate texture image data by synthesizing pattern image data, and in that case, the illumination light output unit 130 and the illumination light source 320 may not be provided.

また、上記実施の形態では、パターン画像データ、ライブ画像データおよびテクスチャ画像データが共通の受光部120によって取得されるが、立体形状データを取得するための受光部とは別個に、ライブ画像データおよびテクスチャ画像データを取得するために測定対象物Sを撮像する撮像部に設けられてもよい。   Further, in the above embodiment, the pattern image data, the live image data, and the texture image data are acquired by the common light receiving unit 120. However, the live image data and the live image data are acquired separately from the light receiving unit for acquiring the three-dimensional shape data. It may be provided in an image capturing unit that captures the measurement target S in order to acquire texture image data.

また、上記実施の形態では、三角測距法により点群データが生成されるが、TOF(Time Of Flight)法等の他の方法により点群データが生成されてもよい。   Further, in the above embodiment, the point cloud data is generated by the triangulation method, but the point cloud data may be generated by another method such as the TOF (Time Of Flight) method.

また、上記実施の形態では、ステージ駆動部146によりステージ140が回転軸Axの周りで回転可能に構成され、他の方向には移動しないが、本発明はこれに限定されない。   In addition, in the above-described embodiment, the stage driving unit 146 configures the stage 140 to be rotatable about the rotation axis Ax and does not move in other directions, but the present invention is not limited to this.

ステージ140は、例えば回転軸Axの周りで回転可能であるとともに、X方向、Y方向およびZ方向のうち少なくとも一方向に移動可能に構成されてもよい。この場合、ステージ140に対して一定姿勢で測定対象物Sが載置された状態で、ステージ140の回転角度および位置を自在に変更することができる。したがって、より多様な視点で測定対象物Sを撮像することができる。その結果、測定対象物Sのより広い範囲の立体形状データを求めることが可能になる。   The stage 140 may be configured to be rotatable about the rotation axis Ax and movable in at least one of the X direction, the Y direction, and the Z direction, for example. In this case, the rotation angle and the position of the stage 140 can be freely changed while the measurement target S is placed on the stage 140 in a fixed posture. Therefore, the measuring object S can be imaged from various viewpoints. As a result, it is possible to obtain three-dimensional shape data of a wider range of the measuring object S.

[11]請求項の各構成要素と実施の形態の各部との対応関係
以下、請求項の各構成要素と実施の形態の各部との対応の例について説明するが、本発明は下記の例に限定されない。
[11] Correspondence between each component of the claims and each part of the embodiment Hereinafter, an example of the correspondence between each component of the claims and each part of the embodiment will be described. Not limited.

上記実施の形態においては、設置部161がステージ保持部の例であり、ステージ140がステージの例であり、ヘッド部190がヘッド部の例であり、投光部110が投光部の例であり、受光部120が受光部および撮像部の例であり、スタンド部162が連結部の例であり、点群データ生成部501が点群データ生成手段の例であり、立体形状画像データ生成部502が立体形状画像データ生成手段の例であり、計測部503が計測手段の例であり、基準面設定部504が基準面設定手段の例であり、平面画像データ生成部505が平面画像データ生成手段の例であり、第1の回転指示受付部506aが第1の回転指示受付手段の例であり、第2の回転指示受付部506bが第2の回転指示受付手段の例であり、回転制御部507が回転制御手段の例である。   In the above embodiment, the installation unit 161 is an example of a stage holding unit, the stage 140 is an example of a stage, the head unit 190 is an example of a head unit, and the light projecting unit 110 is an example of a light projecting unit. Yes, the light receiving unit 120 is an example of a light receiving unit and an imaging unit, the stand unit 162 is an example of a connecting unit, the point cloud data generation unit 501 is an example of point cloud data generation means, and a stereoscopic shape image data generation unit. Reference numeral 502 is an example of three-dimensional shape image data generation means, measurement unit 503 is an example of measurement means, reference plane setting unit 504 is an example of reference plane setting means, and plane image data generation unit 505 is plane image data generation. The first rotation instruction receiving unit 506a is an example of the first rotation instruction receiving unit, the second rotation instruction receiving unit 506b is an example of the second rotation instruction receiving unit, and the rotation control is performed. The part 507 is an example of the rotation control means.

請求項の各構成要素として、請求項に記載されている構成または機能を有する他の種々の要素を用いることもできる。
[12]参考形態
(1)参考形態に係る測定装置は、ステージ保持部と、ステージ保持部により保持され、測定対象物が載置されるステージと、ステージに載置された測定対象物にパターンを有する測定光を照射する投光部と、測定対象物により反射された測定光を受光して受光量を示す受光信号を出力する受光部と、ステージ上に載置された測定対象物を一定の画角で撮像することによりリアルタイムでの測定対象物の画像をライブ画像として表すライブ画像データを取得する撮像部とを含むヘッド部と、投光部から測定対象物に対して測定光が斜め下方に導かれ、かつ受光部の光軸が測定対象物に向かって斜め下方に延びるように、ヘッド部とステージ保持部とを固定的に連結する連結部と、受光部から出力される受光信号に基づいて、測定対象物の立体形状を表す点群データを生成する点群データ生成手段と、点群データ生成手段により生成された点群データに基づいて、測定対象物の画像を立体画法により平面上に立体形状画像として表す立体形状画像データを生成する立体形状画像データ生成手段と、立体形状画像データ生成手段により生成された立体形状画像データにより表される立体形状画像上で測定対象物の計測すべき箇所の指定を受け付け、点群データ生成手段により生成された点群データに基づいて、指定された箇所の計測値を算出する計測手段とを備え、立体形状画像データ生成手段は、第1および第2の条件の少なくとも一方を満たすように立体形状画像データを生成し、第1の条件は、測定対象物が立体画法のうち透視画法により平面上に立体形状画像として表され、当該立体形状画像の消失点の位置がライブ画像の消失点の位置と一致することであり、第2の条件は、立体形状画像における測定対象物の向きがライブ画像における測定対象物の向きと一致することである。
この測定装置においては、投光部および受光部を含むヘッド部がステージ保持部と固定的に連結される。ステージ保持部により保持されたステージ上に測定対象物が載置され、パターンを有する測定光が投光部から測定対象物に照射される。測定対象物により反射された測定光が受光部により受光され、受光量を表す受光信号が出力される。受光信号に基づいて測定対象物の立体形状を表す点群データが生成される。
この場合、投光部、受光部およびステージが一体的に設けられているので、使用者は、これらの配置を調整する必要がなく、ステージ上に測定対象物を載置することで、測定対象物の点群データを得ることができる。また、投光部から測定対象物に斜め下方に測定光が導かれ、かつ測定対象物に向かって斜め下方に延びる光軸を有する受光部によってその反射光が受光されるので、測定対象物の広い範囲の点群データを効率良く生成することができる。さらに、ステージの回転軸が受光部の光軸と平行でないので、ステージを回転させることにより、受光部に向けられる測定対象物の箇所が変わる。そのため、ステージの回転位置が異なる状態で測定対象物に測定光が照射されることにより、測定対象物の異なる箇所での反射光が受光部によって受光される。したがって、測定対象物の広い範囲の点群データを容易に生成することができる。
また、ステージ上に載置された測定対象物が一定の画角で撮像されることによりリアルタイムでの測定対象物の画像をライブ画像として表すライブ画像データが取得される。使用者は、ライブ画像データにより表されるライブ画像を見ながら、測定対象物の位置および姿勢を確認することができる。
また、点群データに基づいて、測定対象物の画像を立体画法により平面上に立体形状画像として表す立体形状画像データが生成される。立体形状画像データにより表される立体形状画像上で使用者により測定対象物の計測すべき箇所が指定され、点群データに基づいて、指定された箇所の計測値が算出される。
この場合、第1および第2の条件の少なくとも一方が満たされるように立体形状画像データが生成される。第1の条件は、測定対象物が透視画法により平面上に立体形状画像として表されかつ当該立体形状画像の消失点の位置がライブ画像の消失点の位置と一致することであり、第2の条件は、立体形状画像における測定対象物の向きがライブ画像における測定対象物の向きと一致することである。
第1および第2の条件の少なくとも一方が満たされることにより、使用者は、立体形状画像とライブ画像とを違和感なく見比べることができる。そのため、使用者は、立体形状画像を見て、測定対象物の計測すべき箇所を直感的に認識することができる。したがって、使用者は、立体形状画像上で計測すべき箇所を容易に指定することができる。
(2)立体形状画像は、測定対象物を一方向に見た画像であり、第2の条件は、測定対象物に対する一方向が、測定対象物に対する撮像部の光軸の方向と一致することを含んでもよい。
この場合、立体形状画像における測定対象物の向きがライブ画像における測定対象物の向きと一致し、使用者は、立体形状画像とライブ画像とを違和感なく見比べることができる。そのため、使用者は、立体形状画像を見て、測定対象物の計測すべき箇所を直感的に認識することができる。
(3)受光部は、撮像部として機能してもよい。この場合、撮像部が受光部と別個に設けられる場合に比べて、ヘッド部の構成が簡略化される。また、共通の受光部によってライブ画像データおよび点群データがそれぞれ取得されるので、ライブ画像と点群データに基づいて生成される立体形状画像とを近似させやすくなる。
(4)撮像部は、測定対象物を撮像することにより測定対象物の表面状態を表すテクスチャ情報を取得し、立体形状画像データ生成手段は、点群データ生成手段により生成された点群データと受光部により取得されたテクスチャ情報とに基づいて、立体形状画像データを生成してもよい。この場合、テクスチャ情報を含む立体形状画像データを生成することができる。それにより、立体形状画像に対する使用者の違和感がより低減される。
(5)測定装置は、点群データ生成手段により生成された点群データに基づいて、測定対象物の表面の一部に対応しかつ計測の基準となる基準面を設定する基準面設定手段と、点群データ生成手段により生成された点群データに基づいて、基準面設定手段により設定された基準面に対して垂直に測定対象物を見た画像を表す平面画像データを生成する平面画像データ生成手段とをさらに備え、計測手段は、指定された箇所の計測値を基準面設定手段により設定された基準面を基準として算出してもよい。
この場合、基準面が設定されることによって、点群データから計測値を算出することが容易となる。また、生成された平面画像データに基づいて、基準面に対して垂直に測定対象物を見た画像が表示されることにより、使用者は計測箇所の指定を容易に行うことができる。
(6)立体形状画像データ生成手段は、画角および撮像部とステージとの位置関係に基づいて、立体形状画像の消失点の位置がライブ画像の消失点の位置と一致するように、立体形状画像データを生成してもよい。
この場合、撮像部がステージと一体的に設けられているので、画角および撮像部とステージとの位置関係に基づいて、立体形状画像の消失点の位置とライブ画像の消失点の位置とを容易に一致させることができる。
(7)ステージは上下方向の回転軸を中心に回転可能にステージ保持部により保持され、測定装置は、ステージの回転指示を受け付ける回転指示受付手段と、回転指示受付手段により受け付けられた回転指示に基づいて、ステージの回転を制御する回転制御手段とをさらに備え、立体形状画像データ生成手段は、回転指示受付手段により受け付けられた回転指示に基づいて、立体形状画像における測定対象物の向きがライブ画像における測定対象物の向きと一致するように、立体形状画像データを生成してもよい。
この場合、使用者によるステージの回転指示に基づいてステージが回転され、ライブ画像における測定対象物の向きが変化される。一方、ステージの回転指示に基づいて、立体形状画像における測定対象物の向きがライブ画像における測定対象物の向きと一致するように、立体形状画像データが更新される。これにより、ステージの回転に伴うライブ画像上での測定対象物の向きの変化に連動して、立体形状画像における測定対象物の向きが変化する。それにより、使用者は、立体形状画像とライブ画像とを違和感なく見比べることができ、立体形状画像を見て、測定対象物の計測すべき箇所を直感的に認識することができる。
(8)ステージは上下方向の回転軸を中心に回転可能にステージ保持部により保持され、測定装置は、ステージの回転を制御する回転制御手段と、立体形状画像における測定対象物の予め定められた方向の回転指示を受け付ける第2の回転指示受付手段をさらに備え、予め定められた方向は、ステージの回転方向に対応し、立体形状画像データ生成手段は、第2の回転指示受付手段により受け付けられた回転指示に基づいて、立体形状画像における測定対象物が予め定められた方向に回転するように立体形状画像データを生成し、回転制御手段は、第2の回転指示受付手段により受け付けられた回転指示に基づいて、ライブ画像における測定対象物の向きが立体形状画像における測定対象物の向きと一致するように、ステージを回転させてもよい。
この場合、使用者による回転指示に基づいて、立体形状画像における測定対象物が予め定められた方向に回転するように、立体形状画像データが更新される。一方、回転指示に基づいて、ライブ画像における測定対象物の向きが立体形状画像における測定対象物の向きと一致するように、ステージが回転される。これにより、立体形状画像における測定対象物の向きの変化に連動してステージが回転され、ライブ画像上での測定対象物の向きが変化する。それにより、使用者は、立体形状画像とライブ画像とを違和感なく見比べることができる。また、立体形状画像とライブ画像との違いを容易に把握することができるので、立体形状データの欠損箇所を容易に把握することができる。
(9)点群データ生成手段は、ステージが第1の回転位置にあるときに受光部から出力される受光信号に基づいて点群データとして第1の立体形状データを生成し、ステージが第1の回転位置と異なる第2の回転位置にあるときに受光部から出力される受光信号に基づいて点群データとして第2の立体形状データを生成し、生成された第1および第2の立体形状データを合成してもよい。
この場合、ステージの回転位置が異なることによって、測定対象物の異なる箇所での反射光が受光部によって受光される。したがって、受光部により出力される受光信号に基づいて、測定対象物の広い範囲の点群データを生成することができる。
As each constituent element of the claims, various other elements having the configurations or functions described in the claims may be used.
[12] Reference form
(1) A measuring device according to a reference embodiment includes a stage holding unit, a stage held by the stage holding unit, on which a measurement target is placed, and measurement light having a pattern on the measurement target placed on the stage. The projecting unit that emits light, the light receiving unit that receives the measurement light reflected by the measurement target and outputs a light reception signal that indicates the amount of light received, and the measurement target that is placed on the stage is imaged at a fixed angle of view. By including a head unit including an imaging unit that acquires live image data representing a real-time image of the measurement target as a live image, the measurement light is guided obliquely downward from the light projection unit with respect to the measurement target, Also, based on a light receiving signal output from the light receiving unit and a connecting unit that fixedly connects the head unit and the stage holding unit so that the optical axis of the light receiving unit extends obliquely downward toward the measurement target, measurement is performed. Based on the point cloud data generating means for generating the point cloud data representing the three-dimensional shape of the object and the point cloud data generated by the point cloud data generating means, the image of the measuring object is stereoscopically projected on a plane by the stereoscopic method. A three-dimensional shape image data generation unit that generates three-dimensional shape image data represented as a shape image, and a place to be measured on the three-dimensional shape image represented by the three-dimensional shape image data generated by the three-dimensional shape image data generation unit. Of the three-dimensional shape image data generating means, the measuring means calculating the measurement value of the designated place based on the point cloud data generated by the point cloud data generating means. The three-dimensional shape image data is generated so as to satisfy at least one of the conditions, and the first condition is that the measurement object is represented as a three-dimensional shape image on a plane by the perspective drawing method in the three-dimensional drawing method. The second condition is that the orientation of the measuring object in the stereoscopic image matches the orientation of the measuring object in the live image. ..
In this measuring device, the head unit including the light projecting unit and the light receiving unit is fixedly connected to the stage holding unit. The measurement target is placed on the stage held by the stage holding unit, and the measurement light having a pattern is applied to the measurement target from the light projecting unit. The measurement light reflected by the measurement object is received by the light receiving unit, and a light reception signal indicating the amount of received light is output. Point cloud data representing the three-dimensional shape of the measurement target is generated based on the light reception signal.
In this case, since the light projecting unit, the light receiving unit, and the stage are integrally provided, the user does not need to adjust their arrangement, and the object to be measured is placed on the stage to measure the object to be measured. Object point cloud data can be obtained. Further, since the measuring light is guided obliquely downward from the light projecting portion to the measuring object, and the reflected light is received by the light receiving portion having the optical axis extending obliquely downward toward the measuring object, the measuring object is It is possible to efficiently generate a wide range of point cloud data. Further, since the rotation axis of the stage is not parallel to the optical axis of the light receiving section, rotating the stage changes the location of the measurement target pointed at the light receiving section. Therefore, the measurement light is irradiated onto the measurement target in a state where the rotational position of the stage is different, and thus the reflected light at the different position of the measurement target is received by the light receiving unit. Therefore, it is possible to easily generate a wide range of point cloud data of the measurement target.
In addition, live image data representing an image of the measurement object in real time as a live image is acquired by imaging the measurement object placed on the stage at a constant angle of view. The user can confirm the position and orientation of the measurement target while looking at the live image represented by the live image data.
Also, based on the point cloud data, stereoscopic image data representing an image of the measurement object on a plane as a stereoscopic image is generated by the stereoscopic method. A user specifies a measurement target portion of the measurement target on the stereoscopic image represented by the stereoscopic image data, and the measured value of the specified position is calculated based on the point cloud data.
In this case, the stereoscopic image data is generated so that at least one of the first condition and the second condition is satisfied. The first condition is that the object to be measured is represented as a stereoscopic image on a plane by the perspective drawing method, and the position of the vanishing point of the stereoscopic image matches the vanishing point of the live image. The condition is that the orientation of the measurement target in the stereoscopic image matches the orientation of the measurement target in the live image.
By satisfying at least one of the first condition and the second condition, the user can compare the stereoscopic image and the live image with each other without feeling discomfort. Therefore, the user can intuitively recognize the measurement target portion of the measurement target by looking at the three-dimensional image. Therefore, the user can easily specify the place to be measured on the stereoscopic image.
(2) The three-dimensional image is an image in which the measurement target is viewed in one direction, and the second condition is that the one direction with respect to the measurement target matches the direction of the optical axis of the imaging unit with respect to the measurement target. May be included.
In this case, the orientation of the measuring object in the three-dimensional image matches the orientation of the measuring object in the live image, and the user can compare the three-dimensional image and the live image with each other without discomfort. Therefore, the user can intuitively recognize the measurement target portion of the measurement target by looking at the three-dimensional image.
(3) The light receiving section may function as an imaging section. In this case, the configuration of the head unit is simplified as compared with the case where the imaging unit is provided separately from the light receiving unit. Further, since the live image data and the point cloud data are respectively acquired by the common light receiving unit, it becomes easy to approximate the live image and the stereoscopic image generated based on the point cloud data.
(4) The imaging unit acquires the texture information representing the surface state of the measurement target by imaging the measurement target, and the three-dimensional shape image data generation unit uses the point cloud data generated by the point cloud data generation unit. The stereoscopic shape image data may be generated based on the texture information acquired by the light receiving unit. In this case, stereoscopic shape image data including texture information can be generated. This further reduces the user's discomfort with respect to the stereoscopic image.
(5) The measuring device includes a reference plane setting unit that sets a reference plane corresponding to a part of the surface of the object to be measured and serving as a reference for measurement, based on the point cloud data generated by the point cloud data generating unit. Planar image data for generating planar image data representing an image of a measurement object viewed perpendicularly to the reference plane set by the reference plane setting means, based on the point cloud data generated by the point cloud data generating means The measuring unit may further include a generating unit, and the measuring unit may calculate the measured value of the designated location with the reference plane set by the reference plane setting unit as a reference.
In this case, setting the reference plane facilitates calculation of the measurement value from the point cloud data. In addition, based on the generated planar image data, an image of the measurement object viewed perpendicularly to the reference plane is displayed, so that the user can easily specify the measurement location.
(6) The three-dimensional shape image data generation means sets the three-dimensional shape so that the position of the vanishing point of the three-dimensional image matches the position of the vanishing point of the live image based on the angle of view and the positional relationship between the imaging unit and the stage. Image data may be generated.
In this case, since the imaging unit is provided integrally with the stage, the position of the vanishing point of the stereoscopic image and the position of the vanishing point of the live image are determined based on the angle of view and the positional relationship between the imaging unit and the stage. Can be matched easily.
(7) The stage is held by the stage holding unit so as to be rotatable about a vertical rotation axis, and the measuring device is configured to display a rotation instruction receiving unit that receives a rotation instruction of the stage and a rotation instruction received by the rotation instruction receiving unit. Based on the rotation instruction accepted by the rotation instruction acceptance means, the stereoscopic image data generation means further includes a rotation control means for controlling the rotation of the stage based on the rotation instruction. The stereoscopic shape image data may be generated so as to match the orientation of the measurement target in the image.
In this case, the stage is rotated based on the user's instruction to rotate the stage, and the orientation of the measuring object in the live image is changed. On the other hand, based on the instruction to rotate the stage, the stereoscopic shape image data is updated so that the orientation of the measurement object in the stereoscopic image matches the orientation of the measurement object in the live image. As a result, the orientation of the measurement target in the stereoscopic image changes in association with the change in the orientation of the measurement target on the live image due to the rotation of the stage. As a result, the user can compare the three-dimensional image and the live image with each other without a feeling of discomfort, and can see the three-dimensional image and intuitively recognize the place to be measured of the measurement target.
(8) The stage is held by a stage holding unit so as to be rotatable about a vertical rotation axis, and the measuring device has a rotation control means for controlling the rotation of the stage and a predetermined measurement target of a three-dimensional image. Second rotation instruction receiving means for receiving a rotation instruction of a direction is further provided, and the predetermined direction corresponds to the rotation direction of the stage, and the stereoscopic image data generating means is received by the second rotation instruction receiving means. Based on the rotation instruction, the three-dimensional image data is generated so that the measurement object in the three-dimensional image rotates in a predetermined direction, and the rotation control means rotates the rotation received by the second rotation instruction receiving means. Based on the instruction, the stage may be rotated so that the orientation of the measuring object in the live image matches the orientation of the measuring object in the stereoscopic image.
In this case, based on the rotation instruction from the user, the three-dimensional shape image data is updated so that the measurement object in the three-dimensional shape image rotates in a predetermined direction. On the other hand, based on the rotation instruction, the stage is rotated so that the orientation of the measuring object in the live image matches the orientation of the measuring object in the stereoscopic image. As a result, the stage is rotated in association with the change in the orientation of the measurement target in the three-dimensional image, and the orientation of the measurement target on the live image changes. Thereby, the user can compare the stereoscopic image and the live image with each other without feeling discomfort. Further, since it is possible to easily grasp the difference between the stereoscopic shape image and the live image, it is possible to easily grasp the defective portion of the stereoscopic shape data.
(9) The point cloud data generating means generates the first solid shape data as the point cloud data based on the light reception signal output from the light receiving unit when the stage is at the first rotation position, and the stage is the first Second stereoscopic shape data is generated as point group data based on the light reception signal output from the light receiving unit when the second stereoscopic shape is different from the rotation position of the first and second stereoscopic shapes. The data may be combined.
In this case, due to the different rotational positions of the stage, the light receiving section receives the reflected light at different points on the measurement target. Therefore, it is possible to generate the point cloud data of a wide range of the measurement object based on the light reception signal output by the light receiving unit.

本発明は、測定対象物の測定を行う種々の測定装置に利用可能である。   INDUSTRIAL APPLICABILITY The present invention can be used for various measuring devices that measure an object to be measured.

100 測定部
110 投光部
111 測定光源
112 パターン生成部
113,114 レンズ
120 受光部
130 照明光出力部
140 ステージ
150 制御基板
200 PC
210 CPU
220 ROM
230 作業用メモリ
240 記憶装置
250 操作部
300 制御部
320 照明光源
400 表示部
500 測定装置
S 測定対象物
100 measuring unit 110 light emitting unit 111 measuring light source 112 pattern generating unit 113, 114 lens 120 light receiving unit 130 illumination light output unit 140 stage 150 control board 200 PC
210 CPU
220 ROM
230 Working Memory 240 Storage Device 250 Operation Unit 300 Control Unit 320 Illumination Light Source 400 Display Unit 500 Measuring Device S Measurement Object

Claims (9)

ステージ保持部と、
前記ステージ保持部により保持され、測定対象物が載置されるステージと、
前記ステージに載置された測定対象物にパターンを有する測定光を照射する投光部と、前記測定対象物により反射された測定光を受光して受光量を示す受光信号を出力する受光部と、前記ステージ上に載置された測定対象物を一定の画角で撮像することによりリアルタイムでの前記測定対象物の画像をライブ画像として表すライブ画像データを取得する撮像部とを含むヘッド部と、
前記投光部から前記測定対象物に対して測定光が斜め下方に導かれ、かつ前記受光部の光軸が前記測定対象物に向かって斜め下方に延びるように、前記ヘッド部と前記ステージ保持部とを固定的に連結する連結部と、
前記受光部から出力される受光信号に基づいて、前記測定対象物の立体形状を表す点群データを生成する点群データ生成手段と、
前記点群データ生成手段により生成された点群データに基づいて、前記測定対象物の画像を立体画法により平面上に立体形状画像として表す立体形状画像データを生成する立体形状画像データ生成手段と、
前記立体形状画像データ生成手段により生成された立体形状画像データにより表される立体形状画像上で計測すべき箇所の指定を受け付け、前記点群データ生成手段により生成された点群データに基づいて、指定された箇所の計測値を算出する計測手段とを備え、
前記立体形状画像データ生成手段は、前記測定対象物が前記立体画法のうち透視画法により平面上に前記立体形状画像として表され、当該立体形状画像の消失点の位置が前記ライブ画像の消失点の位置と一致するように前記立体形状画像データを生成する、測定装置。
A stage holder,
A stage which is held by the stage holding unit and on which a measurement target is placed,
A light projecting unit that irradiates a measurement light having a pattern on the measurement target placed on the stage, and a light receiving unit that receives the measurement light reflected by the measurement target and outputs a light reception signal indicating a light reception amount. A head unit including an imaging unit that acquires live image data representing a real-time image of the measurement target by capturing the measurement target placed on the stage at a constant angle of view; ,
The head unit and the stage holder are arranged so that the measuring light is guided obliquely downward from the light projecting unit to the measuring object, and the optical axis of the light receiving unit extends obliquely downward toward the measuring object. A connecting portion that fixedly connects the portion,
Point cloud data generation means for generating point cloud data representing a three-dimensional shape of the measurement object based on a light reception signal output from the light receiving unit,
Stereoscopic shape image data generation means for generating stereoscopic shape image data representing an image of the measurement object as a stereoscopic shape image on a plane by a stereoscopic method based on the point cloud data generated by the point cloud data generation means. ,
Accepting designation of a location to be measured on the stereoscopic shape image represented by the stereoscopic shape image data generated by the stereoscopic shape image data generating unit, based on the point cloud data generated by the point cloud data generating unit, With a measuring unit that calculates the measured value of the specified location,
The three-dimensional shape image data generating means, before Symbol measurement object is represented as the three-dimensional shape image on a plane by Toshigaho of the stereoscopic image method, the position of the vanishing point of the three-dimensional shape image of the live image A measuring device that generates the stereoscopic image data so as to match the position of the vanishing point.
前記受光部は、前記撮像部として機能する、請求項記載の測定装置。 The light receiving unit functions as the imaging unit, measuring apparatus according to claim 1. 前記撮像部は、前記測定対象物を撮像することにより前記測定対象物の表面状態を表すテクスチャ情報を取得し、
前記立体形状画像データ生成手段は、前記点群データ生成手段により生成された点群データと前記受光部により取得されたテクスチャ情報とに基づいて、前記立体形状画像データを生成する、請求項1または2記載の測定装置。
The image capturing unit acquires texture information representing a surface state of the measurement target by capturing the measurement target,
The three-dimensional shape image data generating means, based on the obtained texture information by the light receiving unit and the generated point group data by the point group data generating means generates the three-dimensional shape image data, according to claim 1 or 2. The measuring device according to 2 .
前記点群データ生成手段により生成された点群データに基づいて、前記測定対象物の表面の一部に対応しかつ計測の基準となる基準面を設定する基準面設定手段と、
前記点群データ生成手段により生成された点群データに基づいて、前記基準面設定手段により設定された基準面に対して垂直に前記測定対象物を見た画像を表す平面画像データを生成する平面画像データ生成手段とをさらに備え、
前記計測手段は、前記指定された箇所の計測値を前記基準面設定手段により設定された基準面を基準として算出する、請求項1〜のいずれか一項に記載の測定装置。
Based on the point cloud data generated by the point cloud data generating means, a reference plane setting means for setting a reference plane corresponding to a part of the surface of the measurement target and serving as a measurement reference,
A plane for generating plane image data representing an image of the measurement object viewed perpendicularly to the reference plane set by the reference plane setting means, based on the point cloud data generated by the point cloud data generating means. Further comprising image data generating means,
The measuring device according to any one of claims 1 to 5 , wherein the measuring unit calculates the measured value at the designated location with reference to the reference plane set by the reference plane setting unit.
前記立体形状画像データ生成手段は、前記画角に基づいて、前記立体形状画像の消失点の位置が前記ライブ画像の消失点の位置と一致するように、前記立体形状画像データを生成する、請求項1〜4のいずれか一項に記載の測定装置。The stereoscopic shape image data generation unit generates the stereoscopic shape image data based on the angle of view such that the position of the vanishing point of the stereoscopic image matches the position of the vanishing point of the live image. Item 5. The measuring device according to any one of items 1 to 4. 前記立体形状画像データ生成手段は、前記画角に加えて前記撮像部と前記ステージとの位置関係に基づいて、前記立体形状画像の消失点の位置が前記ライブ画像の消失点の位置と一致するように、前記立体形状画像データを生成する、請求項記載の測定装置。 The three-dimensional shape image data generation unit matches the vanishing point position of the three-dimensional image with the vanishing point position of the live image based on the positional relationship between the imaging unit and the stage in addition to the angle of view. 6. The measuring device according to claim 5 , wherein the stereoscopic image data is generated. 前記ステージは上下方向の回転軸を中心に回転可能に前記ステージ保持部により保持され、
前記ステージの回転指示を受け付ける第1の回転指示受付手段と、
前記第1の回転指示受付手段により受け付けられた回転指示に基づいて、前記ステージの回転を制御する回転制御手段とをさらに備え、
前記立体形状画像データ生成手段は、前記第1の回転指示受付手段により受け付けられた回転指示に基づいて、前記立体形状画像における測定対象物の向きが前記ライブ画像における測定対象物の向きと一致するように、前記立体形状画像データを生成する、請求項1〜6のいずれか一項に記載の測定装置。
The stage is held by the stage holder so as to be rotatable about a vertical rotation axis,
First rotation instruction receiving means for receiving a rotation instruction of the stage,
Further comprising a rotation control means for controlling the rotation of the stage based on the rotation instruction accepted by the first rotation instruction acceptance means,
Based on the rotation instruction received by the first rotation instruction receiving unit, the three-dimensional image data generation unit matches the orientation of the measurement object in the three-dimensional image with the orientation of the measurement object in the live image. The measuring apparatus according to any one of claims 1 to 6, which generates the stereoscopic image data as described above.
前記ステージは上下方向の回転軸を中心に回転可能に前記ステージ保持部により保持され、
前記ステージの回転を制御する回転制御手段と、
前記立体形状画像における測定対象物の予め定められた方向の回転指示を受け付ける第2の回転指示受付手段をさらに備え、
前記予め定められた方向は、前記ステージの回転方向に対応し、
前記立体形状画像データ生成手段は、前記第2の回転指示受付手段により受け付けられた回転指示に基づいて、前記立体形状画像における測定対象物が前記予め定められた方向に回転するように前記立体形状画像データを生成し、
前記回転制御手段は、前記第2の回転指示受付手段により受け付けられた回転指示に基づいて、前記ライブ画像における測定対象物の向きが前記立体形状画像における測定対象物の向きと一致するように、前記ステージを回転させる、請求項1〜6のいずれかに記載の測定装置。
The stage is held by the stage holder so as to be rotatable about a vertical rotation axis,
Rotation control means for controlling the rotation of the stage,
Further comprising second rotation instruction receiving means for receiving a rotation instruction of the measurement target in a predetermined direction in the three-dimensional image,
The predetermined direction corresponds to the rotation direction of the stage,
The three-dimensional shape image data generation means is configured to rotate the measurement object in the three-dimensional shape image in the predetermined direction based on the rotation instruction accepted by the second rotation instruction acceptance means. Generate image data,
The rotation control means, based on the rotation instruction received by the second rotation instruction receiving means, so that the orientation of the measurement object in the live image matches the orientation of the measurement object in the three-dimensional image, The measuring device according to claim 1, wherein the stage is rotated.
前記点群データ生成手段は、前記ステージが第1の回転位置にあるときに前記受光部から出力される受光信号に基づいて前記点群データとして第1の立体形状データを生成し、前記ステージが前記第1の回転位置と異なる第2の回転位置にあるときに前記受光部から出力される受光信号に基づいて前記点群データとして第2の立体形状データを生成し、生成された前記第1および第2の立体形状データを合成する、請求項7または8記載の測定装置。

The point cloud data generation means generates first stereoscopic shape data as the point cloud data based on a light reception signal output from the light receiving unit when the stage is at the first rotation position, and the stage is The second stereoscopic shape data is generated as the point cloud data based on the light reception signal output from the light receiving unit when the second rotation position is different from the first rotation position, and the generated first solid shape data is generated. 9. The measuring device according to claim 7, which synthesizes the second solid shape data and the second solid shape data.

JP2016127057A 2016-06-27 2016-06-27 measuring device Active JP6695748B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016127057A JP6695748B2 (en) 2016-06-27 2016-06-27 measuring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016127057A JP6695748B2 (en) 2016-06-27 2016-06-27 measuring device

Publications (2)

Publication Number Publication Date
JP2018004282A JP2018004282A (en) 2018-01-11
JP6695748B2 true JP6695748B2 (en) 2020-05-20

Family

ID=60948968

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016127057A Active JP6695748B2 (en) 2016-06-27 2016-06-27 measuring device

Country Status (1)

Country Link
JP (1) JP6695748B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7090446B2 (en) * 2018-03-22 2022-06-24 株式会社キーエンス Image processing equipment
JP7193308B2 (en) * 2018-11-09 2022-12-20 株式会社キーエンス Profile measuring device
JP7453205B2 (en) 2021-12-10 2024-03-19 株式会社モリタ製作所 3D scanner, its control method, and program

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001101410A (en) * 1999-09-28 2001-04-13 Suzuki Motor Corp Transformation matrix data generating method, correction jig and three-dimensional measuring system
JP5050994B2 (en) * 2008-05-15 2012-10-17 トヨタ自動車株式会社 Stator coil shape inspection method and shape inspection apparatus
US9875574B2 (en) * 2013-12-17 2018-01-23 General Electric Company Method and device for automatically identifying the deepest point on the surface of an anomaly
JP2013228267A (en) * 2012-04-25 2013-11-07 Panasonic Corp Display device, display method, and program
JP6009288B2 (en) * 2012-09-11 2016-10-19 株式会社キーエンス Measurement microscope apparatus, measurement microscope apparatus operation program, and computer-readable recording medium
JP5956932B2 (en) * 2013-01-08 2016-07-27 株式会社キーエンス Shape measuring device, shape measuring method, and shape measuring program

Also Published As

Publication number Publication date
JP2018004282A (en) 2018-01-11

Similar Documents

Publication Publication Date Title
JP6029394B2 (en) Shape measuring device
US10415958B2 (en) Measuring device
US8885176B2 (en) Shape measuring device, shape measuring method, and shape measuring program
US9151600B2 (en) Shape measuring device, shape measuring method, and shape measuring program
US10508902B2 (en) Three-dimensional measurement device
US8743374B2 (en) Shape measuring device, shape measuring method, and shape measuring program
US10262431B2 (en) Three-dimensional measurement device
JP6695746B2 (en) measuring device
JP6736383B2 (en) measuring device
JP6691838B2 (en) measuring device
JP6004851B2 (en) Shape measuring device, shape measuring method, and shape measuring program
JP6161775B2 (en) Shape measuring device, shape measuring method, and shape measuring program
JP6279048B2 (en) Shape measuring device
JP6695748B2 (en) measuring device
JP6161253B2 (en) Shape measuring device, shape measuring method, and shape measuring program
JP2014092491A (en) Shape measurement device, shape measurement method and shape measurement program
JP6476252B2 (en) Shape measuring device, shape measuring method, and shape measuring program
JP2014055814A (en) Shape measuring device, shape measuring method, and shape measuring program
JP7154084B2 (en) Three-dimensional shape measuring device and three-dimensional shape measuring program
JP6695747B2 (en) measuring device
JP6077287B2 (en) Optical microscope and pattern projection measurement method
JP6025466B2 (en) Shape measuring device, shape measuring method, and shape measuring program
JP6046997B2 (en) Optical microscope
JP6025533B2 (en) Optical microscope

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190314

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200121

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200318

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200407

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200422

R150 Certificate of patent or registration of utility model

Ref document number: 6695748

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250