JP6161253B2 - Shape measuring device, shape measuring method, and shape measuring program - Google Patents

Shape measuring device, shape measuring method, and shape measuring program Download PDF

Info

Publication number
JP6161253B2
JP6161253B2 JP2012243904A JP2012243904A JP6161253B2 JP 6161253 B2 JP6161253 B2 JP 6161253B2 JP 2012243904 A JP2012243904 A JP 2012243904A JP 2012243904 A JP2012243904 A JP 2012243904A JP 6161253 B2 JP6161253 B2 JP 6161253B2
Authority
JP
Japan
Prior art keywords
light receiving
receiving unit
light
measurement
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012243904A
Other languages
Japanese (ja)
Other versions
JP2014092490A (en
Inventor
晋也 高橋
晋也 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Keyence Corp
Original Assignee
Keyence Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Keyence Corp filed Critical Keyence Corp
Priority to JP2012243904A priority Critical patent/JP6161253B2/en
Publication of JP2014092490A publication Critical patent/JP2014092490A/en
Application granted granted Critical
Publication of JP6161253B2 publication Critical patent/JP6161253B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、形状測定装置、形状測定方法および形状測定プログラムに関する。   The present invention relates to a shape measuring device, a shape measuring method, and a shape measuring program.

三角測距方式の形状測定装置では、測定対象物の表面に光が照射され、その反射光が1次元または2次元に配列された画素を有する受光素子により受光される。受光素子により得られる受光量分布のピーク位置に基づいて、測定対象物の表面の高さを計測することができる。これにより、測定対象物の形状を測定することができる。   In a triangulation type shape measuring apparatus, light is irradiated on the surface of a measurement object, and the reflected light is received by a light receiving element having pixels arranged one-dimensionally or two-dimensionally. The height of the surface of the measurement object can be measured based on the peak position of the received light amount distribution obtained by the light receiving element. Thereby, the shape of the measurement object can be measured.

非特許文献1においては、符号化された光と位相シフト法とを組み合わせた三角測距方式の形状測定が提案されている。また、非特許文献2においては、符号化された光とストライプ状の光とを組み合わせた三角測距方式の形状測定が提案されている。これらの方式においては、測定対象物の形状測定の精度を向上させることができる。   Non-Patent Document 1 proposes a shape measurement by a triangulation system that combines encoded light and a phase shift method. Further, Non-Patent Document 2 proposes a shape measurement using a triangulation system in which encoded light and striped light are combined. In these methods, the accuracy of the shape measurement of the measurement object can be improved.

Toni F. Schenk, "Remote Sensing and Reconstruction for Three-Dimensional Objects and Scenes", Proceedings of SPIE, Volume 2572, pp. 1-9 (1995)Toni F. Schenk, "Remote Sensing and Reconstruction for Three-Dimensional Objects and Scenes", Proceedings of SPIE, Volume 2572, pp. 1-9 (1995) Sabry F. El-Hakim and Armin Gruen, "Videometrics and Optical Methods for 3D Shape Measurement", Proceedings of SPIE, Volume 4309, pp. 219-231 (2001)Sabry F. El-Hakim and Armin Gruen, "Videometrics and Optical Methods for 3D Shape Measurement", Proceedings of SPIE, Volume 4309, pp. 219-231 (2001)

測定対象物の形状を高い精度で測定するためには、測定対象物を受光部の焦点または受光部により測定可能な範囲内に位置させる必要がある。しかしながら、測定対象物を受光部の焦点または受光部により測定可能な範囲内に適切に位置させることは容易ではない。   In order to measure the shape of the measurement object with high accuracy, it is necessary to position the measurement object within the range that can be measured by the focus of the light receiving unit or the light receiving unit. However, it is not easy to appropriately position the measurement object within the focus of the light receiving unit or the range measurable by the light receiving unit.

本発明の目的は、測定対象物の形状の測定において測定対象物を受光部の焦点または受光部により測定可能な範囲内に適切かつ容易に位置させることが可能な形状測定装置、形状測定方法および形状測定プログラムを提供することである。   An object of the present invention is to provide a shape measuring device, a shape measuring method, and a shape measuring method capable of appropriately and easily positioning a measuring object within a range that can be measured by the focal point of the light receiving unit or the light receiving unit in measuring the shape of the measuring object. It is to provide a shape measurement program.

(1)第1の発明に係る形状測定装置は、測定対象物を載置するステージと、ステージに載置された測定対象物に上方か均一な光量分布を有する照明光を照射するように構成される第1の投光部と、ステージに載置された測定対象物に斜め上方から互いに異なるパターンを有する測定光を複数回照射するように構成される第2の投光部と、ステージの上方に配置され、ステージに載置された測定対象物により反射された光を受光し、受光量を示す受光信号を出力するとともに、ステージに載置された測定対象物を撮像するように構成される受光部と、受光部とステージとの相対的な距離を受光部の光軸方向に変化させることにより、受光部と測定対象物との相対的な距離を変化させる相対距離変化部と、第2の投光部から測定対象物への測定光の照射時に、受光部から出力される受光信号に基づいて、三角測距方式により受光部の光軸方向における測定可能な第1の範囲で測定対象物の少なくとも一部の立体形状を示す主立体形状データを生成する主立体形状データ生成部と、第1の投光部から測定対象物へ照明光が照射されるとともに相対距離変化部により受光部と測定対象物との相対的な距離が変化されつつ受光部による測定対象物の撮像が複数回行われることにより、撮像ごとに受光部から出力される受光信号に基づいて複数の画像データを生成し、生成された複数の画像データに基づいて測定対象物の複数の部分にそれぞれ受光部の焦点が合った状態での受光部と測定対象物との相対的な距離を取得し、取得した距離に基づいて受光部の光軸方向における第1の範囲よりも大きい第2の範囲で測定対象物の立体形状を示す立体形状データを生成することが可能な副立体形状データ生成部と、副立体形状データに基づく測定対象物の画像を合焦点確認用画像として表示する表示部と、主立体形状データの生成前に、立体形状データを生成するように第1の投光部、受光部、相対距離変化部および副立体形状データ生成部を制御し、立体形状データの生成後に、受光部と測定対象物との相対的な距離および生成された立体形状データに基づいて受光部の焦点または受光部の光軸方向における第1の範囲と測定対象物との位置関係を算出し、算出された位置関係を識別可能に合焦点確認用画像を表示するように表示部を制御し、合焦点確認用画像の表示後に、主立体形状データを生成するように第2の投光部、受光部および主立体形状データ生成部を制御する制御部とを備えるものである。 (1) a first shape measuring apparatus according to the invention, to illuminate a stage for placing the measured object, the illumination light having an upper person or al uniform light quantity distribution on the measurement object mounted on the stage a first light projecting portion of the second light projecting portion configured to illuminate a plurality of times a measurement light having a different pattern from the obliquely above the measuring object placed on the stage configured, It is arranged above the stage so as to receive light reflected by the measurement object placed on the stage, output a light reception signal indicating the amount of received light , and image the measurement object placed on the stage. And a relative distance changing unit that changes a relative distance between the light receiving unit and the measurement object by changing a relative distance between the light receiving unit and the stage in the optical axis direction of the light receiving unit. Measurement from the second light projecting part to the measurement object Mainly showing at least a part of the three-dimensional shape of the measurement object in the first range measurable in the optical axis direction of the light receiving unit by the triangulation method based on the light receiving signal output from the light receiving unit during light irradiation The main three-dimensional shape data generating unit that generates the three-dimensional shape data, the illumination light is irradiated from the first light projecting unit to the measurement object, and the relative distance changing unit determines the relative distance between the light receiving unit and the measurement object. The measurement object is imaged a plurality of times by the light receiving unit while being changed, so that a plurality of image data is generated based on a light reception signal output from the light receiving unit for each imaging, and based on the generated plurality of image data each of the plurality of portions of the measuring object by obtaining a relative distance between the light receiving portion in a state in which the focal point of the light receiving portion suits the measurement object Te, first in the direction of the optical axis of the light receiving portion based on the distance obtained From the range of 1 Big and the second sub-three-dimensional shape data showing the three-dimensional shape of the measuring object in the range of capable of generating a sub-three-dimensional shape data generating unit, an image-focus confirmation image of the measuring object based on the sub-three-dimensional shape data And controlling the first light projecting unit, the light receiving unit , the relative distance changing unit, and the sub-stereoscopic shape data generating unit so as to generate the sub- stereoscopic shape data before generating the main stereoscopic shape data , after generation of the sub-three-dimensional shape data, measuring a first range in the optical axis direction of the focus or the light receiving portion of the light receiving portion based on the relative distance and the sub-stereoscopic shape data generated in the measurement object and the light receiving portion Calculates the positional relationship with the object, controls the display unit to display the in-focus confirmation image so that the calculated positional relationship can be identified, and generates the main stereoscopic shape data after displaying the in-focus confirmation image The second floodlight, And a control unit that controls the light receiving unit and the main three-dimensional shape data generation unit.

その形状測定装置においては、主立体形状データの生成前に、照明光が測定対象物に照射され、受光部と測定対象物との相対的な距離が変化された場合に、測定対象物の複数の部分にそれぞれ受光部の焦点が合った状態での受光部と測定対象物との相対的な距離に基づいて、測定対象物の立体形状を示す立体形状データが生成される。 In the shape measuring apparatus, before the main stereoscopic shape data is generated , when the measurement object is irradiated with illumination light and the relative distance between the light receiving unit and the measurement object is changed, a plurality of measurement objects are obtained. Sub- stereoscopic shape data indicating the three-dimensional shape of the measurement target is generated based on the relative distance between the light receiving unit and the measurement target in a state where the light reception unit is focused on each of the portions.

立体形状データの生成後かつ主立体形状データの生成前の時点での受光部と測定対象物との相対的な距離および生成された立体形状データに基づいて受光部の焦点または受光部の光軸方向における測定可能な第1の範囲と測定対象物との位置関係が算出される。算出された位置関係を識別可能に合焦点確認用画像が表示部に表示される。 Based on the relative distance between the light receiving unit and the measurement object after the generation of the sub three-dimensional shape data and before the generation of the main three-dimensional shape data, and the focus of the light receiving unit or the light receiving unit based on the generated sub three-dimensional shape data. The positional relationship between the measurable first range and the measurement object in the optical axis direction is calculated. An in-focus confirmation image is displayed on the display unit so that the calculated positional relationship can be identified.

その後、測定光が測定対象物に照射された状態で受光部から出力される受光信号に基づいて、三角測距方式により高い精度で測定対象物の立体形状を示す立体形状データが生成される。 After that , based on the light reception signal output from the light receiving unit in a state where the measurement object is irradiated with the measurement light , main stereoscopic shape data indicating the three-dimensional shape of the measurement target is generated with high accuracy by the triangulation method. .

この場合、使用者は、主立体形状データの生成前に表示部に表示される合焦点確認用画像を確認しながら測定対象物を受光部の焦点または受光部により測定可能な第1の範囲内に適切かつ容易に位置させることができる。 In this case, the user confirms the in-focus confirmation image displayed on the display unit before generating the main stereoscopic shape data, and the measurement object is within the first range that can be measured by the focus of the light receiving unit or the light receiving unit. Can be positioned appropriately and easily.

(2)制御部は、合焦点確認用画像の表示後時に、測定対象物の複数の部分の一部が受光部の光軸方向における第1の範囲内に位置する状態で立体形状データを生成するように第2の投光部、受光部および主立体形状データ生成部を制御した後、相対距離変化部を制御して受光部と測定対象物との相対的な距離変化させることにより、複数の部分の他部が受光部の光軸方向における第1の範囲内に位置する状態で立体形状データを生成するように第2の投光部、受光部および主立体形状データ生成部を制御し、複数の部分の一部および他部に対応する立体形状データを合成してもよい。 (2) The control unit obtains the main stereoscopic shape data in a state where a part of the plurality of portions of the measurement target is located within the first range in the optical axis direction of the light receiving unit after the in-focus confirmation image is displayed. the second light projecting portion as generated, after controlling the light receiving portion and main stereoscopic shape data generating unit, Rukoto alter the relative distance between the light receiving unit to control the relative distance changing unit and the measurement object The second light projecting unit, the light receiving unit, and the main three-dimensional shape data generation so as to generate the main three-dimensional shape data in a state where the other parts of the plurality of parts are located within the first range in the optical axis direction of the light receiving unit. The main stereoscopic shape data corresponding to a part of the plurality of parts and the other part may be synthesized.

この場合、測定対象物の複数の部分の一部が受光部の光軸方向における測定可能な第1の範囲内に位置する状態で立体形状データが生成される。また、複数の部分の他部が受光部の光軸方向における測定可能な第1の範囲内に位置する状態で立体形状データが生成される。複数の部分の一部および他部に対応する立体形状データが合成される。それにより、受光部の光軸方向における測定対象物の複数の部分の範囲が受光部の光軸方向における測定可能な第1の範囲よりも大きい場合でも、測定対象物の広い範囲に渡って高い精度で測定対象物の立体形状を測定することができる。 In this case, the main three-dimensional shape data is generated in a state where some of the plurality of portions of the measurement object are located within a first measurable range in the optical axis direction of the light receiving unit. Further, the main three-dimensional shape data is generated in a state where the other portions of the plurality of portions are located within a first measurable range in the optical axis direction of the light receiving unit. Main three-dimensional shape data corresponding to some of the plurality of parts and other parts is synthesized. Thereby, even when the range of the plurality of portions of the measuring object in the optical axis direction of the light receiving unit is larger than the first measurable range in the optical axis direction of the light receiving unit, it is high over a wide range of the measuring object. The three-dimensional shape of the measurement object can be measured with high accuracy.

(3)形状測定装置は、立体形状データの生成後に、表示部に表示される合焦点確認用画像上で測定対象物の複数の部分の少なくとも一部を指定するために使用者により操作される指定操作部をさらに備え、制御部は、指定操作部により測定対象物の複数の部分の少なくとも一部が指定された場合に、受光部の光軸方向において指定操作部により指定された部分の範囲が受光部の光軸方向における第1の範囲以下であるか否かを判定し、受光部の光軸方向における指定された部分の範囲が受光部の光軸方向における第1の範囲以下である場合に、指定された部分が受光部の光軸方向における第1の範囲内に位置するように相対距離変化部を制御し、指定された部分が受光部の光軸方向における第1の範囲内に位置する状態で立体形状データを生成するように第2の投光部、受光部および主立体形状データ生成部を制御してもよい。 (3) The shape measuring device is operated by the user to specify at least a part of the plurality of portions of the measurement object on the in-focus confirmation image displayed on the display unit after the generation of the sub stereoscopic shape data. A control unit that controls the portion specified by the specification operation unit in the optical axis direction of the light receiving unit when at least a part of the plurality of parts of the measurement object is specified by the specification operation unit. It is determined whether the range is equal to or less than the first range in the optical axis direction of the light receiving unit, and the range of the specified portion in the optical axis direction of the light receiving unit is equal to or less than the first range in the optical axis direction of the light receiving unit. in some cases, specified portion controls the relative distance changing unit to lie within a first range in the optical axis direction of the light receiving portion, designated portion of the first in the direction of the optical axis of the light receiving portion main stereoscopic shape data in a state located in the range The second light projecting portion so as to generate, it may control the light receiving portion and main stereoscopic shape data generation unit.

この場合、立体形状データの生成後に、表示部に表示される合焦点確認用画像上で測定対象物の複数の部分の少なくとも一部が指定される。受光部の光軸方向において指定された部分の範囲が受光部の光軸方向における測定可能な第1の範囲以下であるか否かが判定される。 In this case, after generating the sub-stereoscopic shape data, at least some of the plurality of portions of the measuring object on the focus confirmation image displayed on the display unit is designated. It is determined whether or not the range of the portion designated in the optical axis direction of the light receiving unit is equal to or less than the first measurable range in the optical axis direction of the light receiving unit.

指定された部分の範囲が受光部の光軸方向における測定可能な第1の範囲以下である場合に、指定された部分が受光部の光軸方向における測定可能な第1の範囲内に位置するように相対距離変化部が制御された後、立体形状データが生成される。それにより、使用者は、指定した部分について高い精度で迅速に測定対象物の立体形状を測定することができる。
(4) 形状測定装置は、受光部とステージとの相対的な距離を変化させるための相対距離変化部の動作指令を受け付ける動作指令受付部をさらに備え、制御部は、合焦点確認用画像の表示時に、動作指令受付部による動作指令の受付に応答して、受光部とステージとの相対的な距離が受け付けられた動作指令に対応する距離分変化するように相対距離変化部を制御可能であるとともに、受光部とステージとの相対的な距離の変化時点の受光部の焦点または受光部の光軸方向における第1の範囲を示す位置関係画像が算出された位置関係として合焦点確認用画像上の対応する位置に表示されるように表示部を制御してもよい。
If the range specified portion is less than a first range measurable in the optical axis direction of the light receiving portion, located in specified portion is within a first range measurable in the optical axis direction of the light receiving portion After the relative distance changing unit is controlled as described above, main stereoscopic shape data is generated. Accordingly, the user can quickly measure the three-dimensional shape of the measurement object with high accuracy for the designated portion.
(4) The shape measuring apparatus further includes an operation command receiving unit that receives an operation command of a relative distance changing unit for changing a relative distance between the light receiving unit and the stage, and the control unit The relative distance changing unit can be controlled so that the relative distance between the light receiving unit and the stage is changed by the distance corresponding to the received operation command in response to the operation command received by the operation command receiving unit. In addition, an in-focus confirmation image as a positional relationship in which a positional relationship image indicating the focal point of the light receiving unit at the time when the relative distance between the light receiving unit and the stage changes or the first range in the optical axis direction of the light receiving unit is calculated. The display unit may be controlled so as to be displayed at the corresponding position above.

(5)第2の発明に係る形状測定装置は、測定対象物を載置するステージと、ステージに載置された測定対象物に上方か均一な光量分布を有する照明光を照射するように構成される第1の投光部と、ステージに載置された測定対象物に斜め上方から互いに異なるパターンを有する測定光を複数回照射するように構成される第2の投光部と、ステージの上方に配置され、ステージに載置された測定対象物により反射された光を受光し、受光量を示す受光信号を出力するとともに、ステージに載置された測定対象物を撮像するように構成される受光部と、受光部とステージとの相対的な距離を受光部の光軸方向に変化させることにより受光部と測定対象物との相対的な距離を変化させる相対距離変化部と、第2の投光部から測定対象物への測定光の照射時に、受光部から出力される受光信号に基づいて、三角測距方式により受光部の光軸方向における測定可能な第1の範囲で測定対象物の少なくとも一部の立体形状を示す主立体形状データを生成する主立体形状データ生成部と、第1の投光部から測定対象物へ照明光が照射されるとともに相対距離変化部により受光部と測定対象物との相対的な距離が変化されつつ受光部による測定対象物の撮像が複数回行われることにより、撮像ごとに受光部から出力される受光信号に基づいて複数の画像データを生成し、生成された複数の画像データに基づいて測定対象物の複数の部分にそれぞれ受光部の焦点が合った状態での受光部と測定対象物との相対的な距離を取得し、取得された距離に基づいて受光部の光軸方向における第1の範囲よりも大きい第2の範囲で測定対象物の立体形状を示す立体形状データを生成することが可能な副立体形状データ生成部と、主立体形状データの生成前に、立体形状データを生成するように第1の投光部、受光部、相対距離変化部および副立体形状データ生成部を制御し、立体形状データの生成後に、受光部と測定対象物との相対的な距離および生成された立体形状データに基づいて受光部の焦点または受光部の光軸方向における第1の範囲と測定対象物との位置関係を算出し、算出された位置関係に基づいて測定対象物の少なくとも一部が受光部の光軸方向における第1の範囲内に位置するように相対距離変化部を制御し、その後、測定対象物の少なくとも一部が受光部の光軸方向における第1の範囲内に位置する状態で立体形状データを生成するように第2の投光部、受光部および主立体形状データ生成部を制御する制御部とを備えるものである。 (5) a second shape measuring apparatus according to the invention, to illuminate a stage for placing the measured object, the illumination light having an upper person or al uniform light quantity distribution on the measurement object mounted on the stage a first light projecting portion of the second light projecting portion configured to illuminate a plurality of times a measurement light having a different pattern from the obliquely above the measuring object placed on the stage configured, It is arranged above the stage so as to receive light reflected by the measurement object placed on the stage, output a light reception signal indicating the amount of received light , and image the measurement object placed on the stage. And a relative distance changing unit that changes a relative distance between the light receiving unit and the measurement object by changing a relative distance between the light receiving unit and the stage in the optical axis direction of the light receiving unit. Measurement from the second light projecting part to the measurement object Mainly showing at least a part of the three-dimensional shape of the measurement object in the first range measurable in the optical axis direction of the light receiving unit by the triangulation method based on the light receiving signal output from the light receiving unit during light irradiation The main three-dimensional shape data generating unit that generates the three-dimensional shape data, the illumination light is irradiated from the first light projecting unit to the measurement object, and the relative distance changing unit determines the relative distance between the light receiving unit and the measurement object. The measurement object is imaged a plurality of times by the light receiving unit while being changed, so that a plurality of image data is generated based on a light reception signal output from the light receiving unit for each imaging, and based on the generated plurality of image data in the relative distance and obtains the optical axis direction of the light receiving portion based on the obtained distance between the light receiving portion and the measuring object in a plurality of states respectively focus the light receiving portion to the portion of the measuring object Te First range A second range in the sub-three-dimensional shape data generating unit that can generate a sub-stereoscopic shape data showing the three-dimensional shape of the measuring object greater, before generating the main stereoscopic shape data to generate a sub-three-dimensional shape data the first light projecting portion as the light receiving unit, to control the relative distance changing unit and the sub-stereoscopic shape data generation unit, after the generation of the sub-three-dimensional shape data, the relative distance and the generation of a measuring object and a light receiving portion It has been based on the sub-three-dimensional shape data to calculate the positional relationship between the first range and the measurement object in the optical axis direction of the focus or the light receiving portion of the light receiving portion, of the measuring object based on the calculated out positional relationship The relative distance changing unit is controlled so that at least a part is located within the first range in the optical axis direction of the light receiving unit, and then at least a part of the measurement object is in the first range in the optical axis direction of the light receiving unit. The main three-dimensional shape data And a control unit for controlling the second light projecting unit, the light receiving unit, and the main three-dimensional shape data generating unit so as to generate the data.

その形状測定装置においては、主立体形状データの生成前に、照明光が測定対象物に照射され、受光部と測定対象物との相対的な距離が変化された場合に、測定対象物の複数の部分にそれぞれ受光部の焦点が合った状態での受光部と測定対象物との相対的な距離に基づいて、測定対象物の立体形状を示す立体形状データが生成される。 In the shape measuring apparatus, before the main stereoscopic shape data is generated , when the measurement object is irradiated with illumination light and the relative distance between the light receiving unit and the measurement object is changed, a plurality of measurement objects are obtained. Sub- stereoscopic shape data indicating the three-dimensional shape of the measurement target is generated based on the relative distance between the light receiving unit and the measurement target in a state where the light reception unit is focused on each of the portions.

立体形状データの生成後かつ主立体形状データの生成前の時点での受光部と測定対象物との相対的な距離および生成された立体形状データに基づいて受光部の焦点または受光部の光軸方向における測定可能な第1の範囲と測定対象物との位置関係が算出される。 Based on the relative distance between the light receiving unit and the measurement object after the generation of the sub three-dimensional shape data and before the generation of the main three-dimensional shape data, and the focus of the light receiving unit or the light receiving unit based on the generated sub three-dimensional shape data. The positional relationship between the measurable first range and the measurement object in the optical axis direction is calculated.

その後、算出された位置関係に基づいて測定対象物の少なくとも一部が受光部の光軸方向における測定可能な第1の範囲内に位置するように相対距離変化部が制御される。測定対象物の少なくとも一部が受光部の光軸方向における測定可能な第1の範囲内に位置しかつ測定光が測定対象物に照射された状態で受光部から出力される受光信号に基づいて、三角測距方式により高い精度で測定対象物の立体形状を示す立体形状データが生成される。 Thereafter, the relative distance changing unit so that at least a portion is located within the first range measurable in the optical axis direction of the light receiving portion of the measuring object based on the calculated out positional relationship is controlled. Based on a light reception signal output from the light receiving unit in a state where at least a part of the measurement target is located within a first measurable range in the optical axis direction of the light receiving unit and the measurement light is irradiated on the measurement target. The main three-dimensional shape data indicating the three-dimensional shape of the measurement object is generated with high accuracy by the triangulation method.

この場合、測定対象物の少なくとも一部が受光部の光軸方向における測定可能な第1の範囲内に位置するように、受光部と測定対象物との相対的な距離が自動的に調整される。したがって、使用者は、測定対象物を受光部の焦点または受光部により測定可能な第1の範囲内に適切かつ容易に位置させることができる。 In this case, the relative distance between the light receiving unit and the measurement target is automatically adjusted so that at least a part of the measurement target is located within the first measurable range in the optical axis direction of the light receiving unit. The Therefore, the user can appropriately and easily position the measurement object within the first range that can be measured by the focal point of the light receiving unit or the light receiving unit.

(6)制御部は、受光部の光軸方向における測定対象物の複数の部分の範囲が受光部の光軸方向における第1の範囲以下であるか否かを判定し、受光部の光軸方向における複数の部分の範囲が受光部の光軸方向における第1の範囲以下である場合に、複数の部分が受光部の光軸方向における第1の範囲内に位置するように相対距離変化部を制御し、複数の部分が受光部の光軸方向における第1の範囲内に位置する状態で立体形状データを生成するように第2の投光部、受光部および主立体形状データ生成部を制御してもよい。 (6) control unit, the light receiving portion range of the plurality of portions of our Keru measuring object in the optical axis direction is equal to or less than a first range in the direction of the optical axis of the light receiving section, the light receiving portion If the range of a plurality of portions in the optical axis direction is less than a first range in the optical axis direction of the light receiving portion, relative to portions of the multiple is located within a first range in the optical axis direction of the light receiving portion The second light projecting unit, the light receiving unit, and the main three-dimensional shape so as to generate the main three-dimensional shape data in a state in which the distance changing unit is controlled and the plurality of portions are located within the first range in the optical axis direction of the light receiving unit. The data generation unit may be controlled.

この場合、受光部の光軸方向において測定対象物の複数の部分の範囲が受光部の光軸方向における測定可能な第1の範囲以下であるか否かが判定される。複数の部分の範囲が受光部の光軸方向における測定可能な第1の範囲以下である場合に、測定対象物の複数の部分が受光部の光軸方向における測定可能な第1の範囲内に位置するように相対距離変化部が制御された後、立体形状データが生成される。それにより、使用者は、測定対象物の複数の部分について高い精度で迅速に測定対象物の立体形状を測定することができる。 In this case, it is determined whether or not the range of the plurality of portions of the measurement object in the optical axis direction of the light receiving unit is equal to or less than the first measurable range in the optical axis direction of the light receiving unit. If the range of the plurality of parts is less than a first range measurable in the optical axis direction of the light receiving portion, a plurality of portions of the measurement object within a first range measurable in the optical axis direction of the light receiving portion After the relative distance changing unit is controlled so as to be located at the position, main stereoscopic shape data is generated. Accordingly, the user can quickly measure the three-dimensional shape of the measurement object with high accuracy for a plurality of portions of the measurement object.

(7)制御部は、受光部の光軸方向における複数の部分の範囲が受光部の光軸方向における第1の範囲よりも大きい場合に、複数の部分の一部が受光部の光軸方向における第1の範囲内に位置するように相対距離変化部を制御し、複数の部分の一部が受光部の光軸方向における第1の範囲内に位置する状態で立体形状データを生成するように第2の投光部、受光部および主立体形状データ生成部を制御し、複数の部分の他部が受光部の光軸方向における第1の範囲内に位置するように相対距離変化部を制御し、複数の部分の他部が受光部の光軸方向における第1の範囲内に位置する状態で立体形状データを生成するように第2の投光部、受光部および主立体形状データ生成部を制御し、複数の部分の一部および他部に対応する立体形状データを合成してもよい。 (7) The control unit, when the range of a plurality of portions in the optical axis direction of the light receiving portion is larger than the first range in the optical axis direction of the light receiving portion, a part of the portion of the multiple optical axis of the light receiving portion The relative distance changing unit is controlled so as to be located within the first range in the direction, and the main three-dimensional shape data is generated in a state where some of the plurality of portions are located within the first range in the optical axis direction of the light receiving unit The second light projecting unit, the light receiving unit, and the main three-dimensional shape data generating unit are controlled to change the relative distance so that the other parts of the plurality of parts are located within the first range in the optical axis direction of the light receiving unit. The second light projecting unit, the light receiving unit, and the main three-dimensional object so as to generate main three-dimensional shape data in a state where the other parts of the plurality of parts are located within the first range in the optical axis direction of the light receiving unit. the main three-dimensional shape by controlling the shape data generation unit corresponds to a part and other part of the plurality of parts The chromatography data may be synthesized.

この場合、測定対象物の複数の部分の範囲が受光部の光軸方向における測定可能な第1の範囲よりも大きい場合に、複数の部分の一部が受光部の光軸方向における測定可能な第1の範囲内に位置するように相対距離変化部が制御され、立体形状データが生成される。また、複数の部分の他部が受光部の光軸方向における測定可能な第1の範囲内に位置するように相対距離変化部が制御され、立体形状データが生成される。複数の部分の一部および他部に対応する立体形状データが合成される。それにより、測定対象物の複数の部分の範囲が受光部の光軸方向における測定可能な第1の範囲よりも大きい場合でも、使用者は、測定対象物の複数の部分の広い範囲に渡って高い精度で迅速に測定対象物の立体形状を測定することができる。 In this case, if the range of the plurality of portions of the measuring object is larger than the first range measurable in the optical axis direction of the light receiving portion, a part of the portion of the multiple can be measured in the optical axis direction of the light receiving portion The relative distance changing unit is controlled so as to be within the first range , and main stereoscopic shape data is generated. In addition, the relative distance changing unit is controlled such that the other part of the plurality of parts is located within the first measurable range in the optical axis direction of the light receiving unit, and main stereoscopic shape data is generated. Main three-dimensional shape data corresponding to some of the plurality of parts and other parts is synthesized. Thereby, even when the range of the plurality of parts of the measurement object is larger than the first range that can be measured in the optical axis direction of the light receiving unit, the user can extend over a wide range of the plurality of parts of the measurement object. The three-dimensional shape of the measurement object can be measured quickly with high accuracy.

(8)形状測定装置は、立体形状データに基づく測定対象物の画像を合焦点確認用画像として表示する表示部と、立体形状データの生成後に、表示部に表示される合焦点確認用画像上で測定対象物の複数の部分の少なくとも一部を指定するために使用者により操作される指定操作部とをさらに備え、制御部は、指定操作部により測定対象物の複数の部分の少なくとも一部が指定された場合に、受光部の光軸方向において指定操作部により指定された部分の範囲が受光部の光軸方向における第1の範囲以下であるか否かを判定し、受光部の光軸方向における指定された部分の範囲が受光部の光軸方向における第1の範囲以下である場合に、指定された部分が受光部の光軸方向における第1の範囲内に位置するように相対距離変化部を制御し、指定された部分が受光部の光軸方向における第1の範囲内に位置する状態で立体形状データを生成するように第2の投光部、受光部および主立体形状データ生成部を制御してもよい。 (8) the shape measuring apparatus includes a display unit displaying an image of the measuring object based on the sub-three-dimensional shape data as the focused check image, after the generation of the sub-three-dimensional shape data, the focal point for confirmation displayed on the display unit A designation operation unit that is operated by a user to designate at least some of the plurality of parts of the measurement object on the image, and the control unit includes at least one of the plurality of parts of the measurement object by the designation operation unit. When a part is designated, it is determined whether the range of the part designated by the designated operation unit in the optical axis direction of the light receiving unit is equal to or less than the first range in the optical axis direction of the light receiving unit , and the light receiving unit range specified portion in the optical axis direction when it is less than the first range in the optical axis direction of the light receiving portion, specified portion is located within a first range in the optical axis direction of the light receiving portion of the Control the relative distance changing part The second light projecting portion as specified portion generates a main stereoscopic shape data in a state located in the first range in the optical axis direction of the light receiving portion, the light receiving unit and controls the main stereoscopic shape data generating unit May be.

この場合、立体形状データの生成後に、生成された立体形状データに基づく測定対象物の画像が合焦点確認用画像として表示部に表示される。表示部に表示される合焦点確認用画像上で測定対象物の複数の部分の少なくとも一部が指定される。受光部の光軸方向において指定された部分の範囲が受光部の光軸方向における測定可能な第1の範囲以下であるか否かが判定される。 In this case, after generating the sub-stereoscopic shape data, an image of the measuring object based on the sub-three-dimensional shape data generated is displayed on the display unit as the focus confirmation image. At least some of the plurality of portions of the measuring object on the focus confirmation image displayed in Table radical 113 is designated. It is determined whether or not the range of the portion designated in the optical axis direction of the light receiving unit is equal to or less than the first measurable range in the optical axis direction of the light receiving unit.

指定された部分の範囲が受光部の光軸方向における測定可能な第1の範囲以下である場合に、指定された部分が受光部の光軸方向における測定可能な第1の範囲内に位置するように相対距離変化部が制御された後、立体形状データが生成される。それにより、使用者は、指定した部分について高い精度で迅速に測定対象物の立体形状を測定することができる。 If the range specified portion is less than a first range measurable in the optical axis direction of the light receiving portion, located in specified portion is within a first range measurable in the optical axis direction of the light receiving portion After the relative distance changing unit is controlled as described above, main stereoscopic shape data is generated. Accordingly, the user can quickly measure the three-dimensional shape of the measurement object with high accuracy for the designated portion.

(9)制御部は、受光部の光軸方向における指定された部分の範囲が受光部の光軸方向における第1の範囲よりも大きい場合に、指定された部分の一部が受光部の光軸方向における第1の範囲内に位置するように相対距離変化部を制御し、指定された部分の一部が受光部の光軸方向における第1の範囲内に位置する状態で主立体形状データを生成するように第2の投光部、受光部および主立体形状データ生成部を制御し、指定された部分の他部が受光部の光軸方向における第1の範囲内に位置するように相対距離変化部を制御し、指定された部分の他部が受光部の光軸方向における第1の範囲内に位置する状態で主立体形状データを生成するように第2の投光部、受光部および主立体形状データ生成部を制御し、指定された部分の一部および他部に対応する主立体形状データを合成してもよい。 (9) When the range of the specified part in the optical axis direction of the light receiving unit is larger than the first range in the optical axis direction of the light receiving unit, the control unit determines that a part of the specified part is light of the light receiving unit. The main three-dimensional shape data in a state in which the relative distance changing unit is controlled so as to be positioned within the first range in the axial direction and a part of the designated portion is positioned within the first range in the optical axis direction of the light receiving unit. The second light projecting unit, the light receiving unit, and the main three-dimensional shape data generating unit are controlled so that the other part of the designated portion is positioned within the first range in the optical axis direction of the light receiving unit. The second light projecting unit and the light receiving unit are configured to control the relative distance changing unit and generate the main three-dimensional shape data in a state where the other part of the designated part is located within the first range in the optical axis direction of the light receiving unit. It controls parts and main stereoscopic shape data generating unit, a part of the specified portion and Main stereoscopic shape data corresponding to the part may be synthesized.

この場合、指定された部分の範囲が受光部の光軸方向における測定可能な第1の範囲よりも大きい場合に、指定された部分の一部が受光部の光軸方向における測定可能な第1の範囲内に位置するように相対距離変化部が制御され、主立体形状データが生成される。また、指定された部分の他部が受光部の光軸方向における測定可能な第1の範囲内に位置するように相対距離変化部が制御され、主立体形状データが生成される。指定された部分の一部および他部に対応する主立体形状データが合成される。それにより、指定された部分の範囲が受光部の光軸方向における測定可能な第1の範囲よりも大きい場合でも、使用者は、指定した部分の広い範囲に渡って高い精度で迅速に測定対象物の立体形状を測定することができる。
(10)形状測定装置は、受光部の光軸方向における第2の範囲を設定する範囲設定部をさらに備えてもよい。
(11)ステージに載置された測定対象物は、受光部の光軸方向に高さを有し、範囲設定部は、副立体形状データの生成時に、受光部の光軸方向における測定対象物の上限から下限までの範囲を含むように第2の範囲を設定してもよい。
(12)制御部は、副立体形状データの生成時に、受光部と測定対象物との相対的な距離が変化することにより測定対象物の全ての部分に対して受光部の焦点が合うように相対距離変化部を制御するとともに、測定対象物の全体の立体形状を示す副立体形状データが生成されるように副立体形状データ生成部を制御してもよい。
(13)副立体形状データ生成部により生成される複数の画像データは、測定対象物の表面の状態を示すテクスチャ画像データであり、制御部は、主立体形状データの生成後に、テクスチャ画像データを生成された主立体形状データに合成することにより、測定対象物の立体形状にその測定対象物の表面の状態が合成された画像を示す合成データを生成してもよい。
(14)制御部は、主立体形状データ生成部により生成された主立体形状データと、副立体形状データ生成部により生成された副立体形状データとに基づいて、生成された主立体形状データのうち測定対象物の形状を正確に測定することができない領域に対応する部分を不良部分として判定し、不良部分と判定されたデータを副立体形状データの対応する部分のデータを用いて置換または補完してもよい。
(15)制御部は、主立体形状データ生成部により生成された主立体形状データと、副立体形状データ生成部により生成された副立体形状データとに基づいて、生成された主立体形状データのうち信頼性が低い部分を信頼性低下部分として判定し、信頼性低下部分と判定されたデータを副立体形状データの対応する部分のデータを用いて置換または補完してもよい。
In this case, when the range of the designated portion is larger than the first measurable range in the optical axis direction of the light receiving unit, a part of the designated portion can be measured in the optical axis direction of the light receiving unit. The relative distance changing unit is controlled so as to be located within the range, and main stereoscopic shape data is generated. In addition, the relative distance changing unit is controlled so that the other part of the designated portion is located within the first measurable range in the optical axis direction of the light receiving unit, and main stereoscopic shape data is generated. Main three-dimensional shape data corresponding to a part of the designated part and the other part is synthesized. Thereby, even when the range of the designated portion is larger than the first measurable range in the optical axis direction of the light receiving unit, the user can quickly measure the measurement target with high accuracy over a wide range of the designated portion. The three-dimensional shape of an object can be measured.
(10) The shape measuring apparatus may further include a range setting unit that sets a second range in the optical axis direction of the light receiving unit.
(11) The measurement object placed on the stage has a height in the optical axis direction of the light receiving unit, and the range setting unit measures the measurement object in the optical axis direction of the light receiving unit when generating the sub three-dimensional shape data. The second range may be set to include a range from the upper limit to the lower limit.
(12) When the sub-stereoscopic shape data is generated, the control unit changes the relative distance between the light receiving unit and the measurement target so that the light receiving unit is focused on all parts of the measurement target. While controlling the relative distance changing unit, the sub-stereoscopic shape data generating unit may be controlled such that sub-stereoscopic shape data indicating the entire three-dimensional shape of the measurement target is generated.
(13) The plurality of image data generated by the sub-stereoscopic shape data generation unit is texture image data indicating the surface state of the measurement object, and the control unit outputs the texture image data after generating the main stereoscopic shape data. By combining with the generated main three-dimensional shape data, composite data indicating an image in which the surface state of the measurement object is combined with the three-dimensional shape of the measurement object may be generated.
(14) The control unit generates the main stereoscopic shape data generated based on the main stereoscopic shape data generated by the main stereoscopic shape data generation unit and the sub stereoscopic shape data generated by the sub stereoscopic shape data generation unit. Of these, the part corresponding to the area where the shape of the measurement object cannot be measured accurately is determined as a defective part, and the data determined as the defective part is replaced or supplemented using the data of the corresponding part of the sub-stereoscopic shape data. May be.
(15) The control unit generates the main stereoscopic shape data generated based on the main stereoscopic shape data generated by the main stereoscopic shape data generation unit and the sub stereoscopic shape data generated by the sub stereoscopic shape data generation unit. the out portion unreliable determined as reliability reducing moiety may be substituted or supplemented with a is determined reliability decreases partial data data of the corresponding portion of the sub-three-dimensional shape data.

(16)第3の発明に係る形状測定方法は、ステージに載置された測定対象物に斜め上方から互いに異なるパターンを有する測定光を複数回照射し、測定対象物により反射された光を受光部により受光し、受光部から出力される受光信号に基づいて、三角測距方式により受光部の光軸方向における測定可能な第1の範囲で測定対象物の少なくとも一部の立体形状を示す主立体形状データを生成するステップと、主立体形状データの生成前に、ステージに載置された測定対象物に上方か均一な光量分布を有する照明光を照射し、受光部とステージとの相対的な距離受光部の光軸方向に変化させつつ受光部による測定対象物の撮像を複数回行うことにより撮像ごとに受光部から出力される受光信号に基づいて複数の画像データを生成し、生成された複数の画像データに基づいて測定対象物の複数の部分にそれぞれ受光部の焦点が合った状態での受光部と測定対象物との相対的な距離を取得し、取得した距離に基づいて受光部の光軸方向における第1の範囲よりも大きい第2の範囲で測定対象物の立体形状を示す立体形状データを生成するステップと、副立体形状データの生成後かつ主立体形状データの生成前に、受光部と測定対象物との相対的な距離および生成された立体形状データに基づいて受光部の焦点または受光部の光軸方向における第1の範囲と測定対象物との位置関係を算出し、算出された位置関係を識別可能に立体形状データに基づく測定対象物の画像を合焦点確認用画像として表示部に表示するステップとを含むものである。 (16) In the shape measuring method according to the third aspect of the invention, the measuring object placed on the stage is irradiated with the measuring light having different patterns from obliquely above a plurality of times, and the light reflected by the measuring object is received. Mainly showing at least a part of the three-dimensional shape of the measurement object in the first range measurable in the optical axis direction of the light receiving unit by the triangulation method based on the light receiving signal output from the light receiving unit and output from the light receiving unit generating a three-dimensional shape data, prior to generating the main stereoscopic shape data is irradiated with illumination light having an upper person or al uniform light quantity distribution on the measurement object mounted on the stages, a light receiving portion and the stage A plurality of image data is generated based on the light reception signal output from the light receiving unit for each imaging by performing imaging of the measurement object by the light receiving unit a plurality of times while changing the relative distance of the light receiving unit in the optical axis direction. And generate Is based on a plurality of image data obtains the relative distance between the measurement object and the light receiving portion in a state in focus were each light receiving portion into a plurality of portions of the measuring object was, based on the distance obtained generating a sub-three-dimensional shape data showing the three-dimensional shape of the measuring object in the second range greater than the first range in the optical axis direction of the light receiving portion, of the product after and main stereoscopic shape data of the sub-three-dimensional shape data Prior to generation , the position of the measurement object and the first range in the optical axis direction of the focal point of the light receiving unit or the light receiving unit based on the relative distance between the light receiving unit and the measurement target and the generated sub- stereoscopic shape data calculating the relationship is the image of the measuring object based on identifiably sub-stereoscopic shape data the calculated positional relationship in which and displaying on the display unit as the focus confirmation image.

その形状測定方法においては、主立体形状データの生成前に、照明光が測定対象物に照射され、受光部と測定対象物との相対的な距離が変化された場合に、測定対象物の複数の部分にそれぞれ受光部の焦点が合った状態での受光部と測定対象物との相対的な距離に基づいて、測定対象物の立体形状を示す立体形状データが生成される。 In the shape measurement method, a plurality of measurement objects are obtained when illumination light is irradiated onto the measurement object and the relative distance between the light receiving unit and the measurement object is changed before the main stereoscopic shape data is generated. Sub- stereoscopic shape data indicating the three-dimensional shape of the measurement target is generated based on the relative distance between the light receiving unit and the measurement target in a state where the light reception unit is focused on each of the portions.

立体形状データの生成後かつ主立体形状データの生成前の時点での受光部と測定対象物との相対的な距離および生成された立体形状データに基づいて受光部の焦点または受光部の光軸方向における測定可能な第1の範囲と測定対象物との位置関係が算出される。算出された位置関係を識別可能に合焦点確認用画像が表示部に表示される。 Based on the relative distance between the light receiving unit and the measurement object after the generation of the sub three-dimensional shape data and before the generation of the main three-dimensional shape data, and the focus of the light receiving unit or the light receiving unit based on the generated sub three-dimensional shape data. The positional relationship between the measurable first range and the measurement object in the optical axis direction is calculated. An in-focus confirmation image is displayed on the display unit so that the calculated positional relationship can be identified.

その後、測定光が測定対象物に照射され、測定対象物により反射された光が受光部により受光される。受光部から出力される受光信号に基づいて、三角測距方式により高い精度で測定対象物の立体形状を示す立体形状データが生成される。 Thereafter , the measurement light is irradiated onto the measurement object, and the light reflected by the measurement object is received by the light receiving unit. Based on the light reception signal output from the light receiving unit, main three-dimensional shape data indicating the three-dimensional shape of the measurement object is generated with high accuracy by the triangulation method.

この場合、使用者は、主立体形状データの生成前に表示部に表示される合焦点確認用画像を確認することにより、測定対象物を受光部の焦点または受光部により測定可能な第1の範囲内に適切かつ容易に位置させることができる。 In this case, the user confirms the in-focus confirmation image displayed on the display unit before generating the main three-dimensional shape data, whereby the measurement object can be measured by the focal point of the light receiving unit or the light receiving unit . It can be positioned appropriately and easily within the range .

(17)第4の発明に係る形状測定方法は、ステージに載置された測定対象物に斜め上方から互いに異なるパターンを有する測定光を複数回照射し、測定対象物により反射された光を受光部により受光し、受光部から出力される受光信号に基づいて、三角測距方式により受光部の光軸方向における測定可能な第1の範囲で測定対象物の少なくとも一部の立体形状を示す主立体形状データを生成するステップと、主立体形状データの生成前に、ステージに載置された測定対象物に上方か均一な光量分布を有する照明光を照射し、受光部とステージとの相対的な距離受光部の光軸方向に変化させつつ受光部による測定対象物の撮像を複数回行うことにより撮像ごとに受光部から出力される受光信号に基づいて複数の画像データを生成し、生成された複数の画像データに基づいて測定対象物の複数の部分にそれぞれ受光部の焦点が合った状態での受光部と測定対象物との相対的な距離を取得し、取得した距離に基づいて受光部の光軸方向における第1の範囲よりも大きい第2の範囲で測定対象物の立体形状を示す立体形状データを生成するステップと、立体形状データの生成後かつ主立体形状データの生成前に、受光部と測定対象物との相対的な距離および生成された立体形状データに基づいて受光部の焦点または受光部の光軸方向における第1の範囲と測定対象物との位置関係を算出するステップとを含み、主立体形状データを生成するステップは、位置関係を算出するステップにより算出された位置関係に基づいて測定対象物の少なくとも一部が受光部の光軸方向における第1の範囲内に位置するように受光部と測定対象物との相対的な距離を調整し、その後、測定対象物の少なくとも一部が受光部の光軸方向における第1の範囲内に位置する状態で、測定光を測定対象物に複数回照射することを含むものである。 (17) In the shape measuring method according to the fourth aspect of the invention, the measuring object placed on the stage is irradiated with the measuring light having different patterns from the oblique upper side a plurality of times, and the light reflected by the measuring object is received. Mainly showing at least a part of the three-dimensional shape of the measurement object in the first range measurable in the optical axis direction of the light receiving unit by the triangulation method based on the light receiving signal output from the light receiving unit and output from the light receiving unit generating a three-dimensional shape data, prior to generating the main stereoscopic shape data is irradiated with illumination light having an upper person or al uniform light quantity distribution on the measurement object mounted on the stages, a light receiving portion and the stage A plurality of image data is generated based on the light reception signal output from the light receiving unit for each imaging by performing imaging of the measurement object by the light receiving unit a plurality of times while changing the relative distance of the light receiving unit in the optical axis direction. And generate Is based on a plurality of image data obtains the relative distance between the measurement object and the light receiving portion in a state in focus were each light receiving portion into a plurality of portions of the measuring object was, based on the distance obtained generating a sub-three-dimensional shape data showing the three-dimensional shape of the measuring object in the second range greater than the first range in the optical axis direction of the light receiving portion, of the product after and main stereoscopic shape data of the sub-three-dimensional shape data Prior to generation , the position of the measurement object and the first range in the optical axis direction of the focal point of the light receiving unit or the light receiving unit based on the relative distance between the light receiving unit and the measurement target and the generated sub- stereoscopic shape data and a step of calculating a relationship, generating a main stereoscopic shape data, at least a portion of the measurement object on the basis of the positional relationship calculated by the step of calculating the positional relationship in the optical axis direction of the light receiving portion Receiving unit so as to be located within one of the ranges as to adjust the relative distance between the measurement object, then at least a portion of the measurement object is positioned within the first range in the optical axis direction of the light receiving portion And irradiating the measurement object with the measurement light a plurality of times .

その形状測定方法においては、主立体形状データの生成前に、照明光が測定対象物に照射され、受光部と測定対象物との相対的な距離が変化された場合に、測定対象物の複数の部分にそれぞれ受光部の焦点が合った状態での受光部と測定対象物との相対的な距離に基づいて、測定対象物の立体形状を示す立体形状データが生成される。 In the shape measurement method, a plurality of measurement objects are obtained when illumination light is irradiated onto the measurement object and the relative distance between the light receiving unit and the measurement object is changed before the main stereoscopic shape data is generated. Sub- stereoscopic shape data indicating the three-dimensional shape of the measurement target is generated based on the relative distance between the light receiving unit and the measurement target in a state where the light reception unit is focused on each of the portions.

立体形状データの生成後かつ主立体形状データの生成前の時点での受光部と測定対象物との相対的な距離および生成された立体形状データに基づいて受光部の焦点または受光部の光軸方向における測定可能な第1の範囲と測定対象物との位置関係が算出される。 Based on the relative distance between the light receiving unit and the measurement object after the generation of the sub three-dimensional shape data and before the generation of the main three-dimensional shape data, and the focus of the light receiving unit or the light receiving unit based on the generated sub three-dimensional shape data. The positional relationship between the measurable first range and the measurement object in the optical axis direction is calculated.

その後、算出された位置関係に基づいて測定対象物の少なくとも一部が受光部の光軸方向における測定可能な第1の範囲内に位置するように受光部と測定対象物との相対的な距離が調整される。測定対象物の少なくとも一部が受光部の光軸方向における測定可能な第1の範囲内に位置する状態で、測定光が測定対象物に照射され、測定対象物により反射された光が受光部により受光される。受光部から出力される受光信号に基づいて、三角測距方式により高い精度で測定対象物の立体形状を示す立体形状データが生成される。 Then, relative to the at least partially a measuring object light receiving unit so as to be located within a first range measurable in the optical axis direction of the light receiving portion of the measuring object based on the calculated out positional relationship The distance is adjusted. In a state where at least a part of the measurement object is located within the first measurable range in the optical axis direction of the light receiving unit, the measurement light is irradiated onto the measurement object, and the light reflected by the measurement object is received by the light receiving unit. Is received. Based on the light reception signal output from the light receiving unit, main three-dimensional shape data indicating the three-dimensional shape of the measurement object is generated with high accuracy by the triangulation method.

この場合、測定対象物の少なくとも一部が受光部の光軸方向における測定可能な第1の範囲内に位置するように、受光部と測定対象物との相対的な距離が自動的に調整される。したがって、使用者は、測定対象物を受光部の焦点または受光部により測定可能な第1の範囲内に適切かつ容易に位置させることができる。 In this case, the relative distance between the light receiving unit and the measurement target is automatically adjusted so that at least a part of the measurement target is located within the first measurable range in the optical axis direction of the light receiving unit. The Therefore, the user can appropriately and easily position the measurement object within the first range that can be measured by the focal point of the light receiving unit or the light receiving unit.

(18)第5の発明に係る形状測定プログラムは、処理装置により実行可能な形状測定プログラムであって、ステージに載置された測定対象物に斜め上方から互いに異なるパターンを有する測定光を複数回照射し、測定対象物により反射された光を受光部により受光し、受光部から出力される受光信号に基づいて、三角測距方式により受光部の光軸方向における測定可能な第1の範囲で測定対象物の少なくとも一部の立体形状を示す主立体形状データを生成する処理と、主立体形状データの生成前に、ステージに載置された測定対象物に上方から均一な光量分布を有する照明光を照射し、受光部とステージとの相対的な距離を受光部の光軸方向に変化させつつ受光部による測定対象物の撮像を複数回行うことにより撮像ごとに受光部から出力される受光信号に基づいて複数の画像データを生成し、生成された複数の画像データに基づいて測定対象物の複数の部分にそれぞれ受光部の焦点が合った状態での受光部と測定対象物との相対的な距離を取得し、取得した距離に基づいて受光部の光軸方向における第1の範囲よりも大きい第2の範囲で測定対象物の立体形状を示す副立体形状データを生成する処理と、副立体形状データの生成後かつ主立体形状データの生成前に、受光部と測定対象物との相対的な距離および生成された副立体形状データに基づいて受光部の焦点または受光部の光軸方向における第1の範囲と測定対象物との位置関係を算出し、算出された位置関係を識別可能に副立体形状データに基づく測定対象物の画像を合焦点確認用画像として表示部に表示する処理とを処理装置に実行させるためのものである。 (18) A shape measurement program according to a fifth invention is a shape measurement program that can be executed by a processing device, and a plurality of measurement beams having different patterns from a diagonally upper side are applied to a measurement object placed on a stage a plurality of times. Irradiated light reflected by the measurement object is received by the light receiving unit, and based on the light reception signal output from the light receiving unit, the first range measurable in the optical axis direction of the light receiving unit by the triangulation method Processing for generating main three-dimensional shape data indicating at least a part of the three-dimensional shape of the measurement object, and illumination having a uniform light amount distribution from above on the measurement object placed on the stage before generating the main three-dimensional shape data Output from the light receiving unit for each imaging by irradiating light and performing imaging of the measurement object by the light receiving unit multiple times while changing the relative distance between the light receiving unit and the stage in the optical axis direction of the light receiving unit A plurality of image data based on the received light signal, and the light receiving unit and the measurement object in a state where the light receiving unit is focused on the plurality of parts of the measurement object based on the generated plurality of image data, respectively. Processing for generating sub-stereoscopic shape data indicating the three-dimensional shape of the measurement object in a second range larger than the first range in the optical axis direction of the light receiving unit based on the acquired distance And after generating the sub three-dimensional shape data and before generating the main three-dimensional shape data, based on the relative distance between the light receiving unit and the measurement object and the generated sub three-dimensional shape data, the focus of the light receiving unit or the light receiving unit A positional relationship between the first range in the optical axis direction and the measurement target is calculated, and an image of the measurement target based on the sub-stereoscopic shape data is displayed on the display unit as an in-focus confirmation image so that the calculated positional relationship can be identified. Process to display It is intended to be executed by the management apparatus.

その形状測定プログラムによれば、主立体形状データの生成前に、照明光が測定対象物に照射され、受光部と測定対象物との相対的な距離が変化された場合に、測定対象物の複数の部分にそれぞれ受光部の焦点が合った状態での受光部と測定対象物との相対的な距離に基づいて、測定対象物の立体形状を示す立体形状データが生成される。 According to the shape measurement program, the illumination object is irradiated with the illumination light and the relative distance between the light receiving unit and the measurement object is changed before the main stereoscopic shape data is generated . Sub- stereoscopic shape data indicating the three-dimensional shape of the measurement target is generated based on the relative distance between the light receiving unit and the measurement target in a state where the light reception unit is focused on each of the plurality of portions.

立体形状データの生成後かつ主立体形状データの生成前の時点での受光部と測定対象物との相対的な距離および生成された立体形状データに基づいて受光部の焦点または受光部の光軸方向における測定可能な第1の範囲と測定対象物との位置関係が算出される。算出された位置関係を識別可能に合焦点確認用画像が表示部に表示される。 Based on the relative distance between the light receiving unit and the measurement object after the generation of the sub three-dimensional shape data and before the generation of the main three-dimensional shape data, and the focus of the light receiving unit or the light receiving unit based on the generated sub three-dimensional shape data. The positional relationship between the measurable first range and the measurement object in the optical axis direction is calculated. An in-focus confirmation image is displayed on the display unit so that the calculated positional relationship can be identified.

その後、測定光が測定対象物に照射され、測定対象物により反射された光が受光部により受光される。受光部から出力される受光信号に基づいて、三角測距方式により高い精度で測定対象物の立体形状を示す立体形状データが生成される。 Thereafter , the measurement light is irradiated onto the measurement object, and the light reflected by the measurement object is received by the light receiving unit. Based on the light reception signal output from the light receiving unit, main three-dimensional shape data indicating the three-dimensional shape of the measurement object is generated with high accuracy by the triangulation method.

この場合、使用者は、主立体形状データの生成前に表示部に表示される合焦点確認用画像を確認することにより、測定対象物を受光部の焦点または受光部により測定可能な第1の範囲内に適切かつ容易に位置させることができる。 In this case, the user confirms the in-focus confirmation image displayed on the display unit before generating the main three-dimensional shape data, whereby the measurement object can be measured by the focal point of the light receiving unit or the light receiving unit . It can be positioned appropriately and easily within the range .

(19)第6の発明に係る形状測定プログラムは、処理装置により実行可能な形状測定プログラムであって、ステージに載置された測定対象物に斜め上方から互いに異なるパターンを有する測定光を複数回照射し、測定対象物により反射された光を受光部により受光し、受光部から出力される受光信号に基づいて、三角測距方式により受光部の光軸方向における測定可能な第1の範囲で測定対象物の少なくとも一部の立体形状を示す主立体形状データを生成する処理と、主立体形状データの生成前に、ステージに載置された測定対象物に上方から均一な光量分布を有する照明光を照射し、受光部とステージとの相対的な距離を受光部の光軸方向に変化させつつ受光部による測定対象物の撮像を複数回行うことにより撮像ごとに受光部から出力される受光信号に基づいて複数の画像データを生成し、生成された複数の画像データに基づいて測定対象物の複数の部分にそれぞれ受光部の焦点が合った状態での受光部と測定対象物との相対的な距離を取得し、取得した距離に基づいて受光部の光軸方向における第1の範囲よりも大きい第2の範囲で測定対象物の立体形状を示す副立体形状データを生成する処理と、副立体形状データの生成後かつ主立体形状データの生成前に、受光部と測定対象物との相対的な距離および生成された副立体形状データに基づいて受光部の焦点または受光部の光軸方向における第1の範囲と測定対象物との位置関係を算出する処理とを処理装置に実行させるための形状測定プログラムであって、主立体形状データを生成する処理は、位置関係を算出する処理により算出された位置関係に基づいて測定対象物の少なくとも一部が受光部の光軸方向における第1の範囲内に位置するように受光部と測定対象物との相対的な距離を調整し、その後、測定対象物の少なくとも一部が受光部の光軸方向における第1の範囲内に位置する状態で、測定光を測定対象物に複数回照射することを含むものである。 (19) A shape measurement program according to a sixth invention is a shape measurement program that can be executed by a processing device, and a plurality of measurement lights having different patterns from a diagonally upper side on a measurement object placed on a stage a plurality of times. Irradiated light reflected by the measurement object is received by the light receiving unit, and based on the light reception signal output from the light receiving unit, the first range measurable in the optical axis direction of the light receiving unit by the triangulation method Processing for generating main three-dimensional shape data indicating at least a part of the three-dimensional shape of the measurement object, and illumination having a uniform light amount distribution from above on the measurement object placed on the stage before generating the main three-dimensional shape data Output from the light receiving unit for each imaging by irradiating light and performing imaging of the measurement object by the light receiving unit multiple times while changing the relative distance between the light receiving unit and the stage in the optical axis direction of the light receiving unit A plurality of image data based on the received light signal, and the light receiving unit and the measurement object in a state where the light receiving unit is focused on the plurality of parts of the measurement object based on the generated plurality of image data, respectively. Processing for generating sub-stereoscopic shape data indicating the three-dimensional shape of the measurement object in a second range larger than the first range in the optical axis direction of the light receiving unit based on the acquired distance And after generating the sub three-dimensional shape data and before generating the main three-dimensional shape data, based on the relative distance between the light receiving unit and the measurement object and the generated sub three-dimensional shape data, the focus of the light receiving unit or the light receiving unit a form measuring program order to execute the processing for calculating the positional relationship between the first range in the optical axis direction and the measurement object to the processing unit, the processing of generating the main stereoscopic shape data, the positional relationship Processing to calculate The relative distance between the light receiving unit and the measurement target is adjusted so that at least a part of the measurement target is positioned within the first range in the optical axis direction of the light receiving unit based on the calculated positional relationship, Thereafter, the measurement object is irradiated with the measurement light a plurality of times in a state where at least a part of the measurement object is located within the first range in the optical axis direction of the light receiving unit.

その形状測定プログラムによれば、主立体形状データの生成前に、照明光が測定対象物に照射され、受光部と測定対象物との相対的な距離が変化された場合に、測定対象物の複数の部分にそれぞれ受光部の焦点が合った状態での受光部と測定対象物との相対的な距離に基づいて、測定対象物の立体形状を示す立体形状データが生成される。 According to the shape measurement program, the illumination object is irradiated with the illumination light and the relative distance between the light receiving unit and the measurement object is changed before the main stereoscopic shape data is generated . Sub- stereoscopic shape data indicating the three-dimensional shape of the measurement target is generated based on the relative distance between the light receiving unit and the measurement target in a state where the light reception unit is focused on each of the plurality of portions.

立体形状データの生成後かつ主立体形状データの生成前の時点での受光部と測定対象物との相対的な距離および生成された立体形状データに基づいて受光部の焦点または受光部の光軸方向における測定可能な第1の範囲と測定対象物との位置関係が算出される。 Based on the relative distance between the light receiving unit and the measurement object after the generation of the sub three-dimensional shape data and before the generation of the main three-dimensional shape data, and the focus of the light receiving unit or the light receiving unit based on the generated sub three-dimensional shape data. The positional relationship between the measurable first range and the measurement object in the optical axis direction is calculated.

その後、算出された位置関係に基づいて測定対象物の少なくとも一部が受光部の光軸方向における測定可能な第1の範囲内に位置するように受光部と測定対象物との相対的な距離が調整される。測定対象物の少なくとも一部が受光部の光軸方向における測定可能な第1の範囲内に位置する状態で、測定光が測定対象物に照射され、測定対象物により反射された光が受光部により受光される。受光部から出力される受光信号に基づいて、三角測距方式により高い精度で測定対象物の立体形状を示す立体形状データが生成される。 Thereafter, relative to at least part of the measuring object light receiving unit so as to be located within a first range measurable in the optical axis direction of the light receiving portion of the measuring object based on the calculated out positional relationship The distance is adjusted. In a state where at least a part of the measurement object is located within the first measurable range in the optical axis direction of the light receiving unit, the measurement light is irradiated onto the measurement object, and the light reflected by the measurement object is received by the light receiving unit. Is received. Based on the light reception signal output from the light receiving unit, main three-dimensional shape data indicating the three-dimensional shape of the measurement object is generated with high accuracy by the triangulation method.

この場合、測定対象物の少なくとも一部が受光部の光軸方向における測定可能な第1の範囲内に位置するように、受光部と測定対象物との相対的な距離が自動的に調整される。したがって、使用者は、測定対象物を受光部の焦点または受光部により測定可能な第1の範囲内に適切かつ容易に位置させることができる。 In this case, the relative distance between the light receiving unit and the measurement target is automatically adjusted so that at least a part of the measurement target is located within the first measurable range in the optical axis direction of the light receiving unit. The Therefore, the user can appropriately and easily position the measurement object within the first range that can be measured by the focal point of the light receiving unit or the light receiving unit.

本発明によれば、測定対象物の形状の測定において測定対象物を受光部の焦点または受光部により測定可能な範囲内に適切かつ容易に位置させることが可能になる。   ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to position a measuring object appropriately and easily in the range which can be measured with the focus of a light-receiving part, or a light-receiving part in the measurement of the shape of a measuring object.

本発明の一実施の形態に係る形状測定装置の構成を示すブロック図である。It is a block diagram which shows the structure of the shape measuring apparatus which concerns on one embodiment of this invention. 図1の形状測定装置の測定部の構成を示す模式図である。It is a schematic diagram which shows the structure of the measurement part of the shape measuring apparatus of FIG. 光が照射された状態の測定対象物の模式図である。It is a schematic diagram of the measuring object in the state irradiated with light. 光が照射された状態の測定対象物の模式図である。It is a schematic diagram of the measuring object in the state irradiated with light. 画像を2画面表示するGUIの一例を示す図である。It is a figure which shows an example of GUI which displays an image on 2 screens. 三角測距方式の原理を説明するための図である。It is a figure for demonstrating the principle of a triangulation system. 測定光の第1のパターンを説明するための図である。It is a figure for demonstrating the 1st pattern of measurement light. 測定光の第2のパターンを説明するための図である。It is a figure for demonstrating the 2nd pattern of measurement light. 測定光の第3のパターンを説明するための図である。It is a figure for demonstrating the 3rd pattern of measurement light. 測定対象物の特定の部分における画像が撮影されたタイミング(番数)と受光された光の強度との関係を示す図である。It is a figure which shows the relationship between the timing (number) by which the image in the specific part of the measuring object was image | photographed, and the intensity | strength of the received light. 測定光の第4のパターンを説明するための図である。It is a figure for demonstrating the 4th pattern of measurement light. 動作モード選択時における表示部のGUIの一例を示す図である。It is a figure which shows an example of GUI of the display part at the time of operation mode selection. 動作モード選択時における表示部のGUIの一例を示す図である。It is a figure which shows an example of GUI of the display part at the time of operation mode selection. 形状測定処理実行後における表示部のGUIの一例を示す図である。It is a figure which shows an example of GUI of the display part after shape measurement processing execution. 全焦点テクスチャ画像を説明するための測定対象物の模式的側面図である。It is a typical side view of a measuring object for explaining an all-focus texture image. 受光部の焦点位置とテクスチャ画像の鮮明度との関係を示す図である。It is a figure which shows the relationship between the focus position of a light-receiving part, and the definition of a texture image. 生成された全焦点テクスチャ画像データに基づく測定対象物の全焦点テクスチャ画像である。It is an omnifocal texture image of the measuring object based on generated omnifocal texture image data. 合成データに基づく測定対象物の合成画像である。It is a synthesized image of the measurement object based on the synthesized data. テクスチャ画像の種類の選択時における表示部のGUIの一例を示す図である。It is a figure which shows an example of the GUI of the display part at the time of selection of the kind of texture image. 副立体形状データによる主立体形状データの補正を説明するための図である。It is a figure for demonstrating correction | amendment of the main solid shape data by substereoscopic shape data. 副立体形状データによる主立体形状データの補正を説明するための図である。It is a figure for demonstrating correction | amendment of the main solid shape data by substereoscopic shape data. 副立体形状データによる主立体形状データの補正を説明するための図である。It is a figure for demonstrating correction | amendment of the main solid shape data by substereoscopic shape data. 形状測定の準備の手順を示すフローチャートである。It is a flowchart which shows the procedure of preparation for shape measurement. 形状測定の準備の手順における第1の調整の詳細を示すフローチャートである。It is a flowchart which shows the detail of the 1st adjustment in the preparation procedure of shape measurement. 形状測定の準備の手順における第1の調整の詳細を示すフローチャートである。It is a flowchart which shows the detail of the 1st adjustment in the preparation procedure of shape measurement. X方向から見た図2の受光部を示す模式図である。It is a schematic diagram which shows the light-receiving part of FIG. 2 seen from the X direction. 形状測定の準備の手順における第2の調整の詳細を示すフローチャートである。It is a flowchart which shows the detail of the 2nd adjustment in the procedure of a preparation for shape measurement. 形状測定の準備の手順における第2の調整の詳細を示すフローチャートである。It is a flowchart which shows the detail of the 2nd adjustment in the procedure of a preparation for shape measurement. 第2の調整の実行時における表示部のGUIの一例を示す図である。It is a figure which shows an example of the GUI of the display part at the time of execution of 2nd adjustment. 形状測定処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of a shape measurement process. 形状測定処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of a shape measurement process. 形状測定処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of a shape measurement process. 焦点調整の補助機能に基づいて使用者が手動で測定対象物の位置を調整する一例を説明するための図である。It is a figure for demonstrating an example which the user adjusts the position of a measurement object manually based on the auxiliary | assistant function of a focus adjustment. 焦点調整の補助機能に基づいて使用者が手動で測定対象物の位置を調整する他の例を説明するための図である。It is a figure for demonstrating the other example in which the user adjusts the position of a measurement object manually based on the auxiliary | assistant function of a focus adjustment. 焦点調整の補助機能に基づいて自動で測定対象物の位置が調整される一例を説明するための図である。It is a figure for demonstrating an example in which the position of a measuring object is adjusted automatically based on the auxiliary | assistant function of focus adjustment. 焦点調整の補助機能に基づいて自動で測定対象物の位置が調整される他の例を説明するための図である。It is a figure for demonstrating the other example by which the position of a measuring object is adjusted automatically based on the auxiliary | assistant function of focus adjustment. (a)は副立体形状三次元画像の一表示例を示す図であり、(b)は副立体形状二次元画像の一表示例を示す図である。(A) is a figure which shows the example of a display of a substereoscopic shape three-dimensional image, (b) is a figure which shows the example of a display of a substereoscopic shape two-dimensional image. (a)は位置関係画像が重畳された副立体形状三次元画像の一表示例を示す図であり、(b)は位置関係画像とともに表示される副立体形状二次元画像の一表示例を示す図である。(A) is a figure which shows the example of a display of the substereoscopic shape three-dimensional image on which the positional relationship image was superimposed, (b) shows the example of a display of the substereoscopic shape two-dimensional image displayed with a positional relationship image. FIG. (a)は図38(a)の表示状態からステージが所定距離下方に移動した後に表示される副立体形状三次元画像および位置関係画像の表示例であり、(b)は図38(b)の表示状態からステージが所定距離下方に移動した後に表示される副立体形状二次元画像および位置関係画像の表示例である。FIG. 38A is a display example of a sub-stereoscopic shape three-dimensional image and a positional relationship image displayed after the stage has moved downward by a predetermined distance from the display state of FIG. 38A, and FIG. This is a display example of a sub-stereoscopic shape two-dimensional image and a positional relationship image displayed after the stage has moved downward by a predetermined distance from the display state. (a)は図38(a)の表示状態からステージが所定距離上方に移動した後に表示される副立体形状三次元画像および位置関係画像の表示例であり、(b)は図38(b)の表示状態からステージが所定距離上方に移動した後に表示される副立体形状二次元画像および位置関係画像の表示例である。(A) is a display example of a sub-stereoscopic shape three-dimensional image and a positional relationship image displayed after the stage has moved upward by a predetermined distance from the display state of FIG. 38 (a), and (b) is a display example of FIG. This is a display example of a sub-stereoscopic shape two-dimensional image and a positional relationship image that are displayed after the stage has moved upward by a predetermined distance from the display state. (a)は位置関係画像が重畳された副立体形状三次元画像の他の表示例を示す図であり、(b)は位置関係画像とともに表示される副立体形状二次元画像の他の表示例を示す図である。(A) is a figure which shows the other display example of the substereoscopic shape three-dimensional image on which the positional relationship image was superimposed, (b) is another display example of the substereoscopic shape two-dimensional image displayed with a positional relationship image. FIG. 位置関係画像とともに表示される全焦点テクスチャ画像の一表示例を示す図である。It is a figure which shows the example of a display of the omnifocal texture image displayed with a positional relationship image. 形状測定前に測定対象物における測定対象部分が指定される場合に表示部に表示される画像の一例を示す図である。It is a figure which shows an example of the image displayed on a display part, when the measurement object part in a measurement object is designated before shape measurement. 形状測定前に測定対象物における測定対象部分が指定される場合に表示部に表示される画像の他の例を示す図である。It is a figure which shows the other example of the image displayed on a display part, when the measurement object part in a measurement object is designated before shape measurement. 測定対象物の適切部分および受光部の焦点を示す画像の一表示例である。It is one display example of the image which shows the suitable part of a measuring object, and the focus of a light-receiving part. 焦点調整の補助機能を用いる場合の形状測定装置の操作手順の一例を示すフローチャートである。It is a flowchart which shows an example of the operation procedure of the shape measuring apparatus in the case of using the auxiliary function of focus adjustment. 使用者の手動操作に基づいて実行される副立体形状データ生成処理の一例を示すフローチャートである。It is a flowchart which shows an example of the sub-stereoscopic shape data generation process performed based on a user's manual operation. 自動的に実行される副立体形状データ生成処理の一例を示すフローチャートである。It is a flowchart which shows an example of the sub-stereoscopic shape data generation process performed automatically. 焦点調整の補助機能を用いた形状測定処理の一例を示すフローチャートである。It is a flowchart which shows an example of the shape measurement process using the auxiliary function of focus adjustment. 焦点調整の補助機能を用いた形状測定処理の一例を示すフローチャートである。It is a flowchart which shows an example of the shape measurement process using the auxiliary function of focus adjustment. 焦点調整の補助機能を用いた形状測定処理の一例を示すフローチャートである。It is a flowchart which shows an example of the shape measurement process using the auxiliary function of focus adjustment.

[1]形状測定装置の構成
図1は、本発明の一実施の形態に係る形状測定装置の構成を示すブロック図である。図2は、図1の形状測定装置500の測定部の構成を示す模式図である。以下、本実施の形態に係る形状測定装置500について、図1および図2を参照しながら説明する。図1に示すように、形状測定装置500は、測定部100、PC(パーソナルコンピュータ)200、制御部300および表示部400を備える。
[1] Configuration of Shape Measuring Device FIG. 1 is a block diagram showing a configuration of a shape measuring device according to an embodiment of the present invention. FIG. 2 is a schematic diagram illustrating a configuration of a measurement unit of the shape measuring apparatus 500 of FIG. Hereinafter, the shape measuring apparatus 500 according to the present embodiment will be described with reference to FIGS. 1 and 2. As shown in FIG. 1, the shape measuring apparatus 500 includes a measuring unit 100, a PC (personal computer) 200, a control unit 300, and a display unit 400.

図1に示すように、測定部100は、例えば顕微鏡であり、投光部110、受光部120、照明光出力部130、ステージ140および制御基板150を含む。投光部110は、測定光源111、パターン生成部112および複数のレンズ113,114,115を含む。受光部120は、カメラ121および複数のレンズ122,123を含む。複数のレンズ122,123により受光部120の光軸が形成される。ステージ140上には、測定対象物Sが載置される。   As illustrated in FIG. 1, the measurement unit 100 is a microscope, for example, and includes a light projecting unit 110, a light receiving unit 120, an illumination light output unit 130, a stage 140, and a control board 150. The light projecting unit 110 includes a measurement light source 111, a pattern generation unit 112, and a plurality of lenses 113, 114, and 115. The light receiving unit 120 includes a camera 121 and a plurality of lenses 122 and 123. The optical axis of the light receiving unit 120 is formed by the plurality of lenses 122 and 123. On the stage 140, the measuring object S is placed.

投光部110は、ステージ140の斜め上方に配置される。測定部100は、複数の投光部110を含んでもよい。図2の例においては、測定部100は2つの投光部110を含む。以下、2つの投光部110を区別する場合は、一方の投光部110を投光部110Aと呼び、他方の投光部110を投光部110Bと呼ぶ。投光部110A,110Bは受光部120の光軸を挟んで対称に配置される。   The light projecting unit 110 is disposed obliquely above the stage 140. The measuring unit 100 may include a plurality of light projecting units 110. In the example of FIG. 2, the measurement unit 100 includes two light projecting units 110. Hereinafter, when distinguishing the two light projecting units 110, one light projecting unit 110 is referred to as a light projecting unit 110A, and the other light projecting unit 110 is referred to as a light projecting unit 110B. The light projecting units 110 </ b> A and 110 </ b> B are arranged symmetrically across the optical axis of the light receiving unit 120.

各投光部110A,110Bの測定光源111は、例えば白色光を出射するハロゲンランプである。測定光源111は、白色光を出射する白色LED(発光ダイオード)等の他の光源であってもよい。測定光源111から出射された光(以下、測定光と呼ぶ)は、レンズ113により適切に集光された後、パターン生成部112に入射する。   The measurement light source 111 of each of the light projecting units 110A and 110B is, for example, a halogen lamp that emits white light. The measurement light source 111 may be another light source such as a white LED (light emitting diode) that emits white light. Light emitted from the measurement light source 111 (hereinafter referred to as measurement light) is appropriately condensed by the lens 113 and then enters the pattern generation unit 112.

パターン生成部112は、例えばDMD(デジタルマイクロミラーデバイス)である。パターン生成部112は、LCD(液晶ディスプレイ)、LCOS(Liquid Crystal on Silicon:反射型液晶素子)またはマスクであってもよい。パターン生成部112に入射した測定光は、予め設定されたパターンおよび予め設定された強度(明るさ)に変換されて出射される。パターン生成部112により出射された測定光は、複数のレンズ114,115により測定対象物Sの寸法よりも大きい径を有する光に変換された後、ステージ140上の測定対象物Sに照射される。   The pattern generation unit 112 is a DMD (digital micromirror device), for example. The pattern generation unit 112 may be an LCD (Liquid Crystal Display), LCOS (Liquid Crystal on Silicon), or a mask. The measurement light incident on the pattern generation unit 112 is converted into a preset pattern and a preset intensity (brightness) and emitted. The measurement light emitted from the pattern generation unit 112 is converted into light having a diameter larger than the dimension of the measurement object S by the plurality of lenses 114 and 115 and then irradiated to the measurement object S on the stage 140. .

受光部120は、ステージ140の上方に配置される。測定対象物Sによりステージ140の上方に反射された測定光は、受光部120の複数のレンズ122,123により集光および結像された後、カメラ121により受光される。   The light receiving unit 120 is disposed above the stage 140. The measurement light reflected above the stage 140 by the measurement object S is collected and imaged by the plurality of lenses 122 and 123 of the light receiving unit 120 and then received by the camera 121.

カメラ121は、例えば撮像素子121aおよびレンズを含むCCD(電荷結合素子)カメラである。撮像素子121aは、例えばモノクロCCD(電荷結合素子)である。撮像素子121aは、CMOS(相補性金属酸化膜半導体)イメージセンサ等の他の撮像素子であってもよい。撮像素子121aの各画素からは、受光量に対応するアナログの電気信号(以下、受光信号と呼ぶ)が制御基板150に出力される。   The camera 121 is, for example, a CCD (Charge Coupled Device) camera including an image sensor 121a and a lens. The image sensor 121a is, for example, a monochrome CCD (charge coupled device). The image sensor 121a may be another image sensor such as a CMOS (complementary metal oxide semiconductor) image sensor. From each pixel of the image sensor 121a, an analog electrical signal (hereinafter referred to as a light reception signal) corresponding to the amount of received light is output to the control board 150.

モノクロCCDには、カラーCCDとは異なり、赤色波長の光を受光する画素、緑色波長の光を受光する画素および青色波長の光を受光する画素を設ける必要がない。そのため、モノクロCCDの計測の分解能はカラーCCDの分解能よりも高くなる。また、モノクロCCDには、カラーCCDとは異なり、各画素にカラーフィルタを設ける必要がない。そのため、モノクロCCDの感度はカラーCCDの感度よりも高くなる。これらの理由により、本例におけるカメラ121にはモノクロCCDが設けられる。   Unlike a color CCD, a monochrome CCD does not need to be provided with pixels that receive red wavelength light, pixels that receive green wavelength light, and pixels that receive blue wavelength light. Therefore, the measurement resolution of the monochrome CCD is higher than the resolution of the color CCD. Further, unlike a color CCD, a monochrome CCD does not require a color filter for each pixel. Therefore, the sensitivity of the monochrome CCD is higher than that of the color CCD. For these reasons, the camera 121 in this example is provided with a monochrome CCD.

本例においては、照明光出力部130は、測定対象物Sに赤色波長の光、緑色波長の光および青色波長の光を時分割で出射する。この構成によれば、モノクロCCDを用いた受光部120により測定対象物Sのカラー画像を撮像することができる。   In this example, the illumination light output unit 130 emits red wavelength light, green wavelength light, and blue wavelength light to the measurement object S in a time-sharing manner. According to this configuration, a color image of the measuring object S can be taken by the light receiving unit 120 using a monochrome CCD.

一方、カラーCCDが十分な分解能および感度を有する場合には、撮像素子121aは、カラーCCDであってもよい。この場合、照明光出力部130は、測定対象物Sに赤色波長の光、緑色波長の光および青色波長の光を時分割で照射する必要はなく、白色光を測定対象物Sに照射する。そのため、照明光源320の構成を単純にすることができる。   On the other hand, when the color CCD has sufficient resolution and sensitivity, the image sensor 121a may be a color CCD. In this case, the illumination light output unit 130 does not need to irradiate the measurement object S with red wavelength light, green wavelength light, and blue wavelength light in a time-sharing manner, and irradiates the measurement object S with white light. Therefore, the configuration of the illumination light source 320 can be simplified.

制御基板150には、図示しないA/D変換器(アナログ/デジタル変換器)およびFIFO(First In First Out)メモリが実装される。カメラ121から出力される受光信号は、制御部300による制御に基づいて、制御基板150のA/D変換器により一定のサンプリング周期でサンプリングされるとともにデジタル信号に変換される。A/D変換器から出力されるデジタル信号は、FIFOメモリに順次蓄積される。FIFOメモリに蓄積されたデジタル信号は画素データとして順次PC200に転送される。   On the control board 150, an A / D converter (analog / digital converter) and a FIFO (First In First Out) memory (not shown) are mounted. The light reception signal output from the camera 121 is sampled at a constant sampling period by the A / D converter of the control board 150 and converted into a digital signal based on control by the control unit 300. Digital signals output from the A / D converter are sequentially stored in the FIFO memory. The digital signals stored in the FIFO memory are sequentially transferred to the PC 200 as pixel data.

図1に示すように、PC200は、CPU(中央演算処理装置)210、ROM(リードオンリメモリ)220、作業用メモリ230、記憶装置240および操作部250を含む。また、操作部250は、キーボードおよびポインティングデバイスを含む。ポインティングデバイスとしては、マウスまたはジョイスティック等が用いられる。   As shown in FIG. 1, the PC 200 includes a CPU (Central Processing Unit) 210, a ROM (Read Only Memory) 220, a work memory 230, a storage device 240, and an operation unit 250. The operation unit 250 includes a keyboard and a pointing device. A mouse or a joystick is used as the pointing device.

ROM220には、システムプログラムが記憶される。作業用メモリ230は、RAM(ランダムアクセスメモリ)からなり、種々のデータの処理のために用いられる。記憶装置240は、ハードディスク等からなる。記憶装置240には、画像処理プログラムおよび形状測定プログラムが記憶される。また、記憶装置240は、制御基板150から与えられる画素データ等の種々のデータを保存するために用いられる。   The ROM 220 stores a system program. The working memory 230 includes a RAM (Random Access Memory), and is used for processing various data. The storage device 240 is composed of a hard disk or the like. The storage device 240 stores an image processing program and a shape measurement program. The storage device 240 is used for storing various data such as pixel data supplied from the control board 150.

CPU210は、制御基板150から与えられる画素データに基づいて画像データを生成する。また、CPU210は、生成した画像データに作業用メモリ230を用いて各種処理を行うとともに、画像データに基づく画像を表示部400に表示させる。さらに、CPU210は、後述するステージ駆動部146に駆動パルスを与える。表示部400は、例えばLCDパネルまたは有機EL(エレクトロルミネッセンス)パネルにより構成される。   The CPU 210 generates image data based on the pixel data given from the control board 150. The CPU 210 performs various processes on the generated image data using the work memory 230 and causes the display unit 400 to display an image based on the image data. Further, the CPU 210 gives a driving pulse to a stage driving unit 146 to be described later. The display unit 400 is configured by, for example, an LCD panel or an organic EL (electroluminescence) panel.

図2において、測定対象物Sが載置されるステージ140上の平面(以下、載置面と呼ぶ)内で互いに直交する2方向をX方向およびY方向と定義し、それぞれ矢印X,Yで示す。ステージ140の載置面に対して直交する方向をZ方向と定義し、矢印Zで示す。Z方向に平行な軸を中心に回転する方向をθ方向と定義し、矢印θで示す。   In FIG. 2, two directions orthogonal to each other within a plane (hereinafter referred to as a placement surface) on the stage 140 on which the measurement object S is placed are defined as an X direction and a Y direction, and arrows X and Y respectively. Show. A direction orthogonal to the mounting surface of the stage 140 is defined as a Z direction and is indicated by an arrow Z. A direction rotating around an axis parallel to the Z direction is defined as a θ direction, and is indicated by an arrow θ.

ステージ140は、X−Yステージ141、Zステージ142、θステージ143およびチルトステージ144を含む。X−Yステージ141は、X方向移動機構およびY方向移動機構を有する。Zステージ142は、Z方向移動機構を有する。θステージ143は、θ方向回転機構を有する。チルトステージ144は、載置面に平行な軸を中心に回転可能な機構(以下、あおり回転機構と呼ぶ)を有する。X−Yステージ141、Zステージ142、θステージ143およびチルトステージ144により、ステージ140が構成される。また、ステージ140は、載置面に測定対象物Sを固定する図示しない固定部材(クランプ)をさらに含む。   The stage 140 includes an XY stage 141, a Z stage 142, a θ stage 143, and a tilt stage 144. The XY stage 141 has an X direction moving mechanism and a Y direction moving mechanism. The Z stage 142 has a Z direction moving mechanism. The θ stage 143 has a θ direction rotation mechanism. The tilt stage 144 has a mechanism that can rotate around an axis parallel to the mounting surface (hereinafter referred to as a tilt rotation mechanism). The XY stage 141, the Z stage 142, the θ stage 143, and the tilt stage 144 constitute a stage 140. The stage 140 further includes a fixing member (clamp) (not shown) that fixes the measuring object S to the placement surface.

ここで、受光部120の焦点に位置しかつ受光部120の光軸に垂直な平面を受光部120の焦点面と呼ぶ。図2に示すように、投光部110A,110B、受光部120およびステージ140の相対的な位置関係は、投光部110Aの光軸、投光部110Bの光軸および受光部120の光軸が受光部120の焦点面で互いに交差するように設定される。本実施の形態では、受光部120の光軸はZ方向と平行な方向に延びる。   Here, a plane located at the focal point of the light receiving unit 120 and perpendicular to the optical axis of the light receiving unit 120 is referred to as a focal plane of the light receiving unit 120. As shown in FIG. 2, the relative positional relationship among the light projecting units 110A and 110B, the light receiving unit 120, and the stage 140 is such that the optical axis of the light projecting unit 110A, the optical axis of the light projecting unit 110B, and the optical axis of the light receiving unit 120. Are set so as to cross each other at the focal plane of the light receiving unit 120. In the present embodiment, the optical axis of the light receiving unit 120 extends in a direction parallel to the Z direction.

また、投光部110の焦点(測定光のパターンが結像する点)に位置しかつ投光部110の光軸に垂直な平面を投光部110の焦点面と呼ぶ。各投光部110A,110Bは、投光部110Aの焦点面および投光部110Bの焦点面が受光部120の焦点を含む位置で交差するように構成される。   A plane that is located at the focal point of the light projecting unit 110 (the point where the pattern of the measurement light is imaged) and is perpendicular to the optical axis of the light projecting unit 110 is referred to as a focal plane of the light projecting unit 110. Each of the light projecting units 110 </ b> A and 110 </ b> B is configured such that the focal plane of the light projecting unit 110 </ b> A and the focal plane of the light projecting unit 110 </ b> B intersect at a position including the focal point of the light receiving unit 120.

θステージ143のθ方向の回転軸の中心は、受光部120の光軸と一致している。そのため、θステージ143をθ方向に回転させた場合に、測定対象物Sを視野から外すことなく、回転軸を中心に視野内で回転させることができる。また、X−Yステージ141、θステージ143およびチルトステージ144は、Zステージ142により支持されている。   The center of the rotation axis of the θ stage 143 in the θ direction coincides with the optical axis of the light receiving unit 120. Therefore, when the θ stage 143 is rotated in the θ direction, the measuring object S can be rotated within the field of view around the rotation axis without removing the measuring object S from the field of view. Further, the XY stage 141, the θ stage 143, and the tilt stage 144 are supported by the Z stage 142.

すなわち、θステージ143をθ方向に回転させるか、またはチルトステージ144をあおり方向に回転させた状態であっても、受光部120の中心軸とZステージ142の移動軸とにずれが生じないように構成されている。ここで、あおり方向とは、載置面に平行な軸を中心とする回転方向である。この構成により、測定対象物Sの位置または姿勢を変化させた状態であっても、Z方向にステージ140を移動させて受光部120の異なる複数の焦点位置においてそれぞれ撮像した複数の画像を合成することが可能となる。   That is, even if the θ stage 143 is rotated in the θ direction or the tilt stage 144 is rotated in the tilt direction, the center axis of the light receiving unit 120 and the movement axis of the Z stage 142 do not shift. It is configured. Here, the tilt direction is a rotation direction about an axis parallel to the placement surface. With this configuration, even when the position or orientation of the measurement object S is changed, the stage 140 is moved in the Z direction to synthesize a plurality of images respectively captured at a plurality of different focal positions of the light receiving unit 120. It becomes possible.

ステージ140のX方向移動機構、Y方向移動機構、Z方向移動機構、θ方向回転機構およびあおり回転機構には、それぞれステッピングモータが用いられる。ステージ140のX方向移動機構、Y方向移動機構、Z方向移動機構、θ方向回転機構およびあおり回転機構は、図1のステージ操作部145またはステージ駆動部146により駆動される。   Stepping motors are used for the X direction moving mechanism, the Y direction moving mechanism, the Z direction moving mechanism, the θ direction rotating mechanism, and the tilt rotating mechanism of the stage 140, respectively. The X direction moving mechanism, the Y direction moving mechanism, the Z direction moving mechanism, the θ direction rotating mechanism, and the tilt rotating mechanism of the stage 140 are driven by the stage operation unit 145 or the stage driving unit 146 in FIG.

使用者は、ステージ操作部145を手動で操作することにより、ステージ140の載置面を受光部120に対して相対的にX方向、Y方向もしくはZ方向に移動させるか、またはθ方向もしくはあおり方向に回転させることができる。ステージ駆動部146は、PC200より与えられる駆動パルスに基づいて、ステージ140のステッピングモータに電流を供給することにより、ステージ140を受光部120に相対的にX方向、Y方向もしくはZ方向に移動させるか、またはθ方向もしくはあおり方向に回転させることができる。   The user manually operates the stage operation unit 145 to move the mounting surface of the stage 140 in the X direction, the Y direction, or the Z direction relative to the light receiving unit 120, or the θ direction or tilt. Can be rotated in the direction. The stage driving unit 146 moves the stage 140 relative to the light receiving unit 120 in the X direction, the Y direction, or the Z direction by supplying current to the stepping motor of the stage 140 based on the driving pulse given from the PC 200. Or can be rotated in the θ direction or the tilt direction.

ステージ140のX方向移動機構、Y方向移動機構、Z方向移動機構、θ方向回転機構およびあおり回転機構の各々に用いられるステッピングモータにはエンコーダが取り付けられている。各エンコーダの出力信号は、例えばCPU210に与えられる。CPU210は、ステージ140の各エンコーダから与えられる信号に基づいて、ステージ140の載置面のX方向の位置(X位置)、Y方向の位置(Y位置)、Z方向の位置(Z位置)、θ方向の回転角(θ回転角)、またはあおり方向の回転角の変化量を算出することができる。   An encoder is attached to a stepping motor used for each of the X direction moving mechanism, Y direction moving mechanism, Z direction moving mechanism, θ direction rotating mechanism, and tilt rotating mechanism of the stage 140. The output signal of each encoder is given to the CPU 210, for example. Based on the signal given from each encoder of the stage 140, the CPU 210 has a position in the X direction (X position), a position in the Y direction (Y position), a position in the Z direction (Z position), The amount of change in the rotation angle in the θ direction (θ rotation angle) or the rotation angle in the tilt direction can be calculated.

なお、本実施の形態では、ステージ140はステッピングモータにより駆動することが可能であるとともに手動により操作することが可能な電動ステージであるが、これに限定されない。ステージ140はステッピングモータでのみ駆動することが可能な電動ステージであってもよいし、手動でのみ操作することが可能な手動ステージであってもよい。   In the present embodiment, stage 140 is an electric stage that can be driven by a stepping motor and can be manually operated, but is not limited thereto. The stage 140 may be an electric stage that can be driven only by a stepping motor, or may be a manual stage that can be operated only manually.

制御部300は、制御基板310および照明光源320を含む。制御基板310には、図示しないCPUが実装される。制御基板310のCPUは、PC200のCPU210からの指令に基づいて、投光部110、受光部120および制御基板150を制御する。   The control unit 300 includes a control board 310 and an illumination light source 320. A CPU (not shown) is mounted on the control board 310. The CPU of the control board 310 controls the light projecting unit 110, the light receiving unit 120, and the control board 150 based on a command from the CPU 210 of the PC 200.

照明光源320は、例えば赤色光、緑色光および青色光を出射する3つのLEDを含む。各LEDから出射される光の輝度を制御することにより、照明光源320から任意の色の光を発生することができる。照明光源320から発生される光(以下、照明光と呼ぶ)は、導光部材(ライトガイド)を通して測定部100の照明光出力部130から出力される。なお、制御部300に照明光源320を設けずに、測定部100に照明光源320を設けてもよい。この場合、測定部100には照明光出力部130が設けられない。   The illumination light source 320 includes, for example, three LEDs that emit red light, green light, and blue light. By controlling the luminance of the light emitted from each LED, light of an arbitrary color can be generated from the illumination light source 320. Light generated from the illumination light source 320 (hereinafter referred to as illumination light) is output from the illumination light output unit 130 of the measurement unit 100 through a light guide member (light guide). Note that the illumination light source 320 may be provided in the measurement unit 100 without providing the illumination light source 320 in the control unit 300. In this case, the illumination light output unit 130 is not provided in the measurement unit 100.

図2の照明光出力部130は、円環形状を有し、受光部120を取り囲むようにステージ140の上方に配置される。これにより、影が発生しないように照明光出力部130から測定対象物Sに照明光が照射される。図3および図4は、光が照射された状態の測定対象物Sの模式図である。図3および図4の例においては、測定対象物Sは上面の略中央に孔Shを有する。また、図3(a),(c)および図4(a)においては、影Ssをハッチングにより表わしている。   The illumination light output unit 130 of FIG. 2 has an annular shape and is disposed above the stage 140 so as to surround the light receiving unit 120. Thereby, illumination light is irradiated to the measuring object S from the illumination light output unit 130 so that no shadow is generated. 3 and 4 are schematic views of the measuring object S in a state irradiated with light. In the example of FIGS. 3 and 4, the measuring object S has a hole Sh at the approximate center of the upper surface. 3A, 3C, and 4A, the shadow Ss is represented by hatching.

図3(a)は図2の一方の投光部110Aからの測定光が照射された状態の測定対象物Sの平面図であり、図3(b)は図3(a)のA−A線断面図である。図3(a),(b)に示すように、一方の投光部110Aから測定光を測定対象物Sに照射した場合、孔Shの深さによっては、孔Shの底部にまで測定光が到達せず、影Ssが発生する。したがって、測定対象物Sの一部を観察することができない。   FIG. 3A is a plan view of the measuring object S in a state irradiated with measurement light from one of the light projecting units 110A in FIG. 2, and FIG. 3B is a cross-sectional view taken along line AA in FIG. It is line sectional drawing. As shown in FIGS. 3A and 3B, when the measurement object S is irradiated with the measurement light from one light projecting unit 110A, the measurement light may reach the bottom of the hole Sh depending on the depth of the hole Sh. The shadow Ss is generated without reaching. Therefore, a part of the measuring object S cannot be observed.

図3(c)は図2の他方の投光部110Bからの測定光が照射された状態の測定対象物Sの平面図であり、図3(d)は図3(c)のB−B線断面図である。図3(c),(d)に示すように、他方の投光部110Bから測定光を測定対象物Sに照射した場合、孔Shの深さによっては、孔Shの底部にまで測定光が到達せず、影Ssが発生する。したがって、測定対象物Sの一部を観察することができない。   FIG. 3C is a plan view of the measuring object S in a state irradiated with the measurement light from the other light projecting unit 110B in FIG. 2, and FIG. 3D is a cross-sectional view taken along line BB in FIG. It is line sectional drawing. As shown in FIGS. 3C and 3D, when the measurement object S is irradiated with the measurement light from the other light projecting unit 110B, the measurement light may reach the bottom of the hole Sh depending on the depth of the hole Sh. The shadow Ss is generated without reaching. Therefore, a part of the measuring object S cannot be observed.

図4(a)は投光部110A,110Bの両方からの測定光が照射された状態の測定対象物Sの平面図であり、図4(b)は図4(a)のC−C線断面図である。図4(a),(b)に示すように、投光部110A,110Bの両方から測定光を測定対象物Sに照射した場合、投光部110A,110Bの一方から測定光を測定対象物Sに照射した場合に比べて、孔Shの底部にまで到達しない測定光が減少するため、発生する影Ssが減少する。したがって、観察することができる測定対象物Sの部分が増加する。   FIG. 4A is a plan view of the measurement object S in a state where measurement light from both the light projecting units 110A and 110B is irradiated, and FIG. 4B is a CC line in FIG. 4A. It is sectional drawing. As shown in FIGS. 4A and 4B, when the measurement object S is irradiated with the measurement light from both the light projecting units 110A and 110B, the measurement light is applied from one of the light projecting units 110A and 110B. Compared with the case where S is irradiated, the measurement light that does not reach the bottom of the hole Sh is reduced, so that the generated shadow Ss is reduced. Therefore, the portion of the measuring object S that can be observed increases.

図4(c)は図2の照明光出力部130からの照明光が照射された状態の測定対象物Sの平面図であり、図4(d)は図4(c)のD−D線断面図である。図4(c),(d)に示すように、照明光は測定対象物Sの略真上から照射されるので、孔Shの深さによらず、孔Shの底部にまで照明光が到達する。したがって、測定対象物Sの大部分を観察することができる。   FIG. 4C is a plan view of the measuring object S in a state irradiated with illumination light from the illumination light output unit 130 in FIG. 2, and FIG. 4D is a DD line in FIG. It is sectional drawing. As shown in FIGS. 4C and 4D, since the illumination light is irradiated from substantially right above the measurement object S, the illumination light reaches the bottom of the hole Sh regardless of the depth of the hole Sh. To do. Therefore, most of the measuring object S can be observed.

一方の投光部110Aから測定光が照射された測定対象物Sの画像と他方の投光部110Bから測定光が照射された測定対象物Sの画像とが並ぶように表示部400に表示(2画面表示)されてもよい。図5は、画像を2画面表示するGUI(Graphical User Interface)の一例を示す図である。   Displayed on the display unit 400 so that the image of the measuring object S irradiated with the measuring light from one light projecting unit 110A and the image of the measuring object S irradiated with the measuring light from the other light projecting unit 110B are aligned ( (2 screen display). FIG. 5 is a diagram illustrating an example of a GUI (Graphical User Interface) that displays an image on two screens.

図5に示すように、表示部400には2つの画像表示領域491,492が並ぶように設けられる。画像を2画面表示する場合には、投光部110A,110Bから測定対象物Sに測定光が切り替わるように交互に照射される。画像表示領域491には、一方の投光部110Aから測定光が照射された場合における測定対象物Sの画像が表示される。画像表示領域492には、他方の投光部110Bから測定光が照射された場合における測定対象物Sの画像が表示される。これにより、使用者は投光部110A,110Bの各々により測定光を照射された場合における測定対象物Sの画像を区別して認識することができる。   As shown in FIG. 5, the display unit 400 is provided with two image display areas 491 and 492 arranged side by side. When displaying two images on the screen, the measurement light is alternately irradiated from the light projecting units 110 </ b> A and 110 </ b> B so that the measurement light S is switched. In the image display area 491, an image of the measurement object S when the measurement light is irradiated from one light projecting unit 110A is displayed. In the image display area 492, an image of the measurement object S when the measurement light is irradiated from the other light projecting unit 110B is displayed. Thereby, the user can distinguish and recognize the image of the measuring object S when each of the light projecting units 110A and 110B is irradiated with the measurement light.

本例においては、投光部110A,110Bからの測定光の切り替えの頻度は、例えば数Hzである。なお、投光部110A,110Bからの測定光の切り替えの頻度は、使用者に切り替えの認識をすることができない値(例えば100Hz)に設定されてもよい。この場合、使用者には、測定部100において両方の投光部110A,110Bから測定対象物Sに測定光が同時に照射されるように観測される。   In this example, the frequency of switching the measurement light from the light projecting units 110A and 110B is, for example, several Hz. Note that the frequency of switching the measurement light from the light projecting units 110A and 110B may be set to a value (for example, 100 Hz) that cannot be recognized by the user. In this case, the user observes that the measuring object 100 is simultaneously irradiated with the measuring light from both the light projecting units 110 </ b> A and 110 </ b> B in the measuring unit 100.

表示部400には2つの光量設定バー493,494が表示される。光量設定バー493は、水平方向に移動可能なスライダ493sを有する。光量設定バー494は、水平方向に移動可能なスライダ494sを有する。以下、一方の投光部110Aから出射される測定光を一方の測定光と呼び、他方の投光部110Bから出射される測定光を他方の測定光と呼ぶ。光量設定バー493上のスライダ493sの位置は、一方の測定光を受光する際の受光部120の光量(以下、一方の測定光の光量と呼ぶ)に対応する。光量設定バー494上のスライダ494sの位置は、他方の測定光を受光する際の受光部120の光量(以下、他方の測定光の光量と呼ぶ)に対応する。   Two light amount setting bars 493 and 494 are displayed on the display unit 400. The light amount setting bar 493 includes a slider 493s that can move in the horizontal direction. The light amount setting bar 494 includes a slider 494s that can move in the horizontal direction. Hereinafter, the measurement light emitted from one light projecting unit 110A is referred to as one measurement light, and the measurement light emitted from the other light projection unit 110B is referred to as the other measurement light. The position of the slider 493s on the light amount setting bar 493 corresponds to the light amount of the light receiving unit 120 when receiving one measurement light (hereinafter referred to as the light amount of one measurement light). The position of the slider 494s on the light amount setting bar 494 corresponds to the light amount of the light receiving unit 120 when receiving the other measurement light (hereinafter referred to as the light amount of the other measurement light).

使用者は、図1のPC200の操作部250を操作して光量設定バー493のスライダ493sを水平方向に移動させることにより、一方の測定光の光量を変更することができる。一方の測定光の光量の変更は、一方の測定光の明るさまたは一方の測定光を受光する際の受光部120の露光時間を変更することにより行われる。同様に、使用者は、操作部250を操作して光量設定バー494のスライダ494sを水平方向に移動させることにより、他方の測定光の光量を変更することができる。他方の測定光の光量の変更は、他方の測定光の明るさまたは他方の測定光を受光する際の受光部120の露光時間を変更することにより行われる。   The user can change the light amount of one measurement light by operating the operation unit 250 of the PC 200 of FIG. 1 and moving the slider 493s of the light amount setting bar 493 in the horizontal direction. The light quantity of one measurement light is changed by changing the brightness of one measurement light or the exposure time of the light receiving unit 120 when receiving one measurement light. Similarly, the user can change the light amount of the other measurement light by operating the operation unit 250 and moving the slider 494s of the light amount setting bar 494 in the horizontal direction. The light quantity of the other measurement light is changed by changing the brightness of the other measurement light or the exposure time of the light receiving unit 120 when receiving the other measurement light.

上記のように、画像表示領域491,492には、投光部110A,110Bの各々により測定光が照射された場合における測定対象物Sの画像が並ぶように表示される。したがって、使用者は、画像表示領域491,492に表示された測定対象物Sの画像を見ながら、光量設定バー493,494のスライダ493s,494sの位置をそれぞれ移動させることにより、一方および他方の測定光の光量を適切に調整することができる。   As described above, in the image display areas 491 and 492, images of the measurement object S when the measurement light is irradiated by each of the light projecting units 110A and 110B are displayed so as to be aligned. Therefore, the user moves the positions of the sliders 493 s and 494 s of the light amount setting bars 493 and 494 while viewing the images of the measurement object S displayed in the image display areas 491 and 492, respectively. The amount of measurement light can be adjusted appropriately.

また、一方および他方の測定光の光量と照明光出力部130から出射される照明光を受光する際の受光部120の光量(以下、照明光の光量と呼ぶ)との間に相関がある場合がある。この場合、一方および他方の測定光の光量は、照明光の光量に基づいて自動的に調整されてもよい。あるいは、照明光の光量に基づいて、一方および他方の測定光の光量を適切にするための調整ガイドが表示部400に表示されてもよい。この場合、使用者は、調整ガイドに基づいて光量設定バー493,494のスライダ493s,494sの位置をそれぞれ移動させることにより、一方および他方の測定光の光量を適切に調整することができる。   In addition, when there is a correlation between the light quantity of one and the other measurement light and the light quantity of the light receiving unit 120 when receiving the illumination light emitted from the illumination light output unit 130 (hereinafter referred to as illumination light quantity) There is. In this case, the light quantity of the one and the other measurement light may be automatically adjusted based on the light quantity of the illumination light. Or based on the light quantity of illumination light, the adjustment guide for making the light quantity of one and the other measurement light suitable may be displayed on the display part 400. FIG. In this case, the user can appropriately adjust the light quantity of one and the other measurement light by moving the positions of the sliders 493s and 494s of the light quantity setting bars 493 and 494 based on the adjustment guide.

光の照射方向が異なれば、光の反射方向も異なる。そのため、測定対象物Sの同一の部分であっても、一方の測定光が照射された部分の画像の明るさと他方の測定光が照射された部分の画像の明るさとは互いに異なる。すなわち、形状測定に適した光量は照射方向によって異なる。   If the light irradiation direction is different, the light reflection direction is also different. Therefore, even in the same portion of the measurement object S, the brightness of the image irradiated with one measurement light is different from the brightness of the image irradiated with the other measurement light. That is, the amount of light suitable for shape measurement varies depending on the irradiation direction.

本実施の形態では、投光部110A、110Bから測定光が照射された際の画像の各々の明るさを個別に調整することができる。そのため、光の照射方向に応じた適切な光量を設定することができる。また、光量の調整中の画像は、画像表示領域491,492に更新されながら表示される。これにより、使用者は、画像を確認しながら光量を調整することができる。   In the present embodiment, it is possible to individually adjust the brightness of each image when the measurement light is irradiated from the light projecting units 110A and 110B. Therefore, it is possible to set an appropriate amount of light according to the light irradiation direction. Further, the image whose light amount is being adjusted is displayed in the image display areas 491 and 492 while being updated. Thereby, the user can adjust the light amount while confirming the image.

この場合において、PC200は、画像中の明るすぎるために白とびが生じている部分または暗すぎるために黒つぶれが生じている部分を識別可能に画像表示領域491,492に表示することができる。これにより、使用者は、適切に光量が調整されているか否かを容易に確認することができる。   In this case, the PC 200 can display, in the image display areas 491 and 492, in an image display area 491 and 492, a portion in which an overexposure occurs because the image is too bright, or a portion where an overexposure occurs because the image is too dark. Thereby, the user can easily confirm whether or not the light amount is appropriately adjusted.

[2]測定対象物の形状測定
(1)三角測距方式による形状測定
測定部100においては、三角測距方式により測定対象物Sの形状が測定される。図6は、三角測距方式の原理を説明するための図である。図6に示すように、投光部110から出射される測定光の光軸と受光部120に入射する測定光の光軸(受光部120の光軸)との間の角度αが予め設定される。角度αは、0度よりも大きく90度よりも小さい。
[2] Shape Measurement of Measurement Object (1) Shape Measurement by Triangular Distance Measurement In the measurement unit 100, the shape of the measurement object S is measured by the triangular distance measurement method. FIG. 6 is a diagram for explaining the principle of the triangulation system. As shown in FIG. 6, an angle α between the optical axis of the measurement light emitted from the light projecting unit 110 and the optical axis of the measurement light incident on the light receiving unit 120 (the optical axis of the light receiving unit 120) is set in advance. The The angle α is larger than 0 degree and smaller than 90 degrees.

ステージ140上に測定対象物Sが載置されない場合、投光部110から出射される測定光は、ステージ140の載置面の点Oにより反射され、受光部120に入射する。一方、ステージ140上に測定対象物Sが載置される場合、投光部110から出射される測定光は、測定対象物Sの表面の点Aにより反射され、受光部120に入射する。   When the measurement object S is not placed on the stage 140, the measurement light emitted from the light projecting unit 110 is reflected by the point O on the placement surface of the stage 140 and enters the light receiving unit 120. On the other hand, when the measuring object S is placed on the stage 140, the measuring light emitted from the light projecting unit 110 is reflected by the point A on the surface of the measuring object S and enters the light receiving unit 120.

点Oと点Aとの間のX方向における距離をdとすると、ステージ140の載置面に対する測定対象物Sの点Aの高さhは、h=d÷tan(α)により与えられる。図1のPC200のCPU210は、制御基板150により与えられる測定対象物Sの画素データに基づいて、X方向における点Oと点Aとの間の距離dを測定する。また、CPU210は、測定された距離dに基づいて、測定対象物Sの表面の点Aの高さhを算出する。測定対象物Sの表面の全ての点の高さを算出することにより、測定対象物Sの三次元的な形状が測定される。   When the distance in the X direction between the point O and the point A is d, the height h of the point A of the measuring object S with respect to the mounting surface of the stage 140 is given by h = d ÷ tan (α). The CPU 210 of the PC 200 in FIG. 1 measures the distance d between the point O and the point A in the X direction based on the pixel data of the measurement object S given by the control board 150. Further, the CPU 210 calculates the height h of the point A on the surface of the measuring object S based on the measured distance d. By calculating the heights of all points on the surface of the measuring object S, the three-dimensional shape of the measuring object S is measured.

測定対象物Sの表面の全ての点に測定光を照射するために、図1の投光部110からは種々のパターンを有する測定光が出射される。測定光のパターンは、図1のパターン生成部112により制御される。以下、測定光のパターンについて説明する。   In order to irradiate measurement light to all points on the surface of the measurement object S, measurement light having various patterns is emitted from the light projecting unit 110 in FIG. The pattern of the measurement light is controlled by the pattern generation unit 112 in FIG. Hereinafter, the pattern of the measurement light will be described.

(2)測定光の第1のパターン
図7は、測定光の第1のパターンを説明するための図である。図7(a)は、ステージ140上の測定対象物Sに投光部110から測定光を照射した状態を示す。図7(b)は、測定光が照射された測定対象物Sの平面図を示す。図7(a)に示すように、第1のパターンとして、Y方向に平行な直線状の断面を有する測定光(以下、ライン状測定光と呼ぶ)が投光部110から出射される。この場合、図7(b)に示すように、ステージ140に照射されたライン状測定光の部分と測定対象物Sの表面に照射されたライン状測定光の部分とは、測定対象物Sの表面の高さhに対応する距離dだけX方向に互いにずれる。したがって、距離dを測定することにより、測定対象物Sの高さhを算出することができる。
(2) First Pattern of Measurement Light FIG. 7 is a diagram for explaining the first pattern of measurement light. FIG. 7A shows a state in which the measuring object S on the stage 140 is irradiated with the measuring light from the light projecting unit 110. FIG. 7B shows a plan view of the measuring object S irradiated with the measuring light. As shown in FIG. 7A, as the first pattern, measurement light having a linear cross section parallel to the Y direction (hereinafter referred to as linear measurement light) is emitted from the light projecting unit 110. In this case, as shown in FIG. 7B, the portion of the line-shaped measurement light irradiated on the stage 140 and the portion of the line-shaped measurement light irradiated on the surface of the measurement object S are the same as those of the measurement object S. They are shifted from each other in the X direction by a distance d corresponding to the height h of the surface. Therefore, the height h of the measuring object S can be calculated by measuring the distance d.

測定対象物Sの表面のY方向に沿った複数の部分が異なる高さを有する場合には、各部分について上記の距離dを測定することにより、Y方向に沿った複数の部分の高さhを算出することができる。   When a plurality of portions along the Y direction on the surface of the measuring object S have different heights, the height h of the plurality of portions along the Y direction is measured by measuring the distance d for each portion. Can be calculated.

また、図1のCPU210は、X方向の一の位置でY方向に沿った複数の部分について距離dを測定した後、Y方向に平行なライン状測定光をX方向に走査することにより、X方向の他の位置でY方向に沿った複数の部分について距離dを測定する。これにより、X方向の複数の位置におけるY方向に沿った測定対象物Sの複数の部分の高さhが算出される。測定対象物SのX方向の寸法よりも広い範囲でライン状測定光をX方向に走査することにより、測定対象物Sの表面の全ての点の高さhを算出することができる。これにより、測定対象物Sの三次元的な形状を測定することができる。   Further, the CPU 210 in FIG. 1 measures the distance d for a plurality of portions along the Y direction at one position in the X direction, and then scans the line-shaped measurement light parallel to the Y direction in the X direction. The distance d is measured for a plurality of portions along the Y direction at other positions in the direction. Thereby, the height h of the several part of the measuring object S along the Y direction in the several position of a X direction is calculated. By scanning the line-shaped measurement light in the X direction in a range wider than the dimension in the X direction of the measurement object S, the height h of all points on the surface of the measurement object S can be calculated. Thereby, the three-dimensional shape of the measuring object S can be measured.

(3)測定光の第2のパターン
図8は、測定光の第2のパターンを説明するための図である。図8に示すように、第2のパターンとして、Y方向に平行な直線状の断面を有しかつX方向に強度が正弦波状に変化するパターンを有する測定光(以下、正弦波状測定光と呼ぶ)が投光部110から複数回(本例においては4回)出射される。
(3) Second Pattern of Measuring Light FIG. 8 is a diagram for explaining the second pattern of measuring light. As shown in FIG. 8, as the second pattern, measurement light having a linear cross section parallel to the Y direction and having a pattern in which the intensity changes sinusoidally in the X direction (hereinafter referred to as sinusoidal measurement light). ) Is emitted from the light projecting unit 110 a plurality of times (in this example, four times).

図8(a)は、1回目に出射される正弦波状測定光を示す。1回目に出射される正弦波状測定光の強度は、測定対象物Sの表面上の任意の部分P0において初期位相φを有する。この正弦波状測定光が出射されることにより、測定対象物Sの表面で反射された光が受光部120により受光される。受光された光の強度が測定対象物Sの画素データに基づいて測定される。測定対象物Sの表面上の部分P0により反射された光の強度をI1とする。   FIG. 8A shows sinusoidal measurement light emitted for the first time. The intensity of the sinusoidal measurement light emitted for the first time has an initial phase φ at an arbitrary portion P0 on the surface of the measurement object S. When the sinusoidal measurement light is emitted, the light reflected by the surface of the measurement object S is received by the light receiving unit 120. The intensity of the received light is measured based on the pixel data of the measuring object S. The intensity of the light reflected by the portion P0 on the surface of the measuring object S is I1.

図8(b)は、2回目に出射される正弦波状測定光を示す。2回目に出射される正弦波状測定光の強度は、測定対象物Sの表面上の部分P0において位相(φ+π/2)を有する。この正弦波状測定光が出射されることにより、測定対象物Sの表面で反射された光が受光部120により受光される。受光された光の強度が測定対象物Sの画素データに基づいて測定される。測定対象物Sの表面上の部分P0により反射された光の強度をI2とする。   FIG. 8B shows sinusoidal measurement light emitted for the second time. The intensity of the sinusoidal measurement light emitted for the second time has a phase (φ + π / 2) at the portion P0 on the surface of the measurement object S. When the sinusoidal measurement light is emitted, the light reflected by the surface of the measurement object S is received by the light receiving unit 120. The intensity of the received light is measured based on the pixel data of the measuring object S. The intensity of the light reflected by the portion P0 on the surface of the measuring object S is I2.

図8(c)は、3回目に出射される正弦波状測定光を示す。3回目に出射される正弦波状測定光の強度は、測定対象物Sの表面上の部分P0において位相(φ+π)を有する。この正弦波状測定光が出射されることにより、測定対象物Sの表面で反射された光が受光部120により受光される。受光された光の強度が測定対象物Sの画素データに基づいて測定される。測定対象物Sの表面上の部分P0により反射された光の強度をI3とする。   FIG. 8C shows sinusoidal measurement light emitted for the third time. The intensity of the sinusoidal measurement light emitted for the third time has a phase (φ + π) at a portion P0 on the surface of the measurement object S. When the sinusoidal measurement light is emitted, the light reflected by the surface of the measurement object S is received by the light receiving unit 120. The intensity of the received light is measured based on the pixel data of the measuring object S. The intensity of the light reflected by the portion P0 on the surface of the measuring object S is I3.

図8(d)は、4回目に出射される正弦波状測定光を示す。4回目の正弦波状測定光の強度は、測定対象物Sの表面上の部分P0において位相(φ+3π/2)を有する。この正弦波状測定光が出射されることにより、測定対象物Sの表面で反射された光が受光部120により受光される。受光された光の強度が測定対象物Sの画素データに基づいて測定される。測定対象物Sの表面上の部分P0により反射された光の強度をI4とする。   FIG. 8D shows sinusoidal measurement light emitted for the fourth time. The intensity of the fourth sinusoidal measurement light has a phase (φ + 3π / 2) at the portion P0 on the surface of the measurement object S. When the sinusoidal measurement light is emitted, the light reflected by the surface of the measurement object S is received by the light receiving unit 120. The intensity of the received light is measured based on the pixel data of the measuring object S. The intensity of the light reflected by the portion P0 on the surface of the measuring object S is assumed to be I4.

初期位相φは、φ=tan−1[(I1−I3)/(I2−I4)]で与えられる。初期位相φから測定対象物Sの任意の部分の高さhが算出される。この方式によれば、4回の光の強度の測定により、測定対象物Sの全ての部分の初期位相φを高速かつ容易に算出することができる。なお、初期位相φは、異なる位相を有する測定光を少なくとも3回出射し、受光される光の強度を測定することにより算出することができる。測定対象物Sの表面上の全ての部分の高さhを算出することにより、測定対象物Sの三次元的な形状を測定することができる。 The initial phase φ is given by φ = tan −1 [(I1−I3) / (I2−I4)]. A height h of an arbitrary portion of the measuring object S is calculated from the initial phase φ. According to this method, the initial phase φ of all portions of the measuring object S can be calculated at high speed and easily by measuring the intensity of light four times. Note that the initial phase φ can be calculated by emitting measurement light having different phases at least three times and measuring the intensity of the received light. By calculating the height h of all the parts on the surface of the measuring object S, the three-dimensional shape of the measuring object S can be measured.

(4)測定光の第3のパターン
図9は、測定光の第3のパターンを説明するための図である。図9に示すように、第3のパターンとして、Y方向に平行でかつX方向に並ぶような直線状の断面を有する測定光(以下、縞状測定光と呼ぶ)が投光部110から複数回(本例においては16回)出射される。
(4) Third Pattern of Measurement Light FIG. 9 is a diagram for explaining the third pattern of measurement light. As shown in FIG. 9, as the third pattern, a plurality of measurement lights having a linear cross section parallel to the Y direction and aligned in the X direction (hereinafter referred to as striped measurement light) are emitted from the light projecting unit 110. It is emitted once (in this example, 16 times).

すなわち、縞状測定光においては、Y方向に平行な直線状の明部分およびY方向に平行な直線状の暗部分がX方向に周期的に配列される。ここで、パターン生成部112がDMDである場合には、マイクロミラーの寸法を1単位とする。縞状測定光の各明部分のX方向の幅は、例えば3単位であり、縞状測定光の各暗部分のX方向の幅は、例えば13単位である。この場合、縞状測定光のX方向の周期は16単位である。なお、明部分および暗部分の単位は、図2のパターン生成部112の構成により異なる。例えば、パターン生成部112が液晶である場合には、1単位は1画素の寸法である。   That is, in the striped measurement light, a linear bright portion parallel to the Y direction and a linear dark portion parallel to the Y direction are periodically arranged in the X direction. Here, when the pattern generation unit 112 is a DMD, the dimension of the micromirror is set to one unit. The width of each bright portion of the striped measurement light in the X direction is, for example, 3 units, and the width of each dark portion of the striped measurement light in the X direction is, for example, 13 units. In this case, the period of the striped measurement light in the X direction is 16 units. The unit of the bright part and the dark part differs depending on the configuration of the pattern generation unit 112 in FIG. For example, when the pattern generation unit 112 is a liquid crystal, one unit is the size of one pixel.

1回目の縞状測定光が出射されることにより、測定対象物Sの表面で反射された光が受光部120により受光される。受光された光の強度が、測定対象物Sの1番目の撮影画像の画素データに基づいて測定される。図9(a)は、1回目の縞状測定光に対応する測定対象物Sの1番目の撮影画像である。   When the first striped measurement light is emitted, the light reflected by the surface of the measurement object S is received by the light receiving unit 120. The intensity of the received light is measured based on the pixel data of the first captured image of the measuring object S. FIG. 9A is a first photographed image of the measuring object S corresponding to the first striped measurement light.

2回目の縞状測定光は、1回目の縞状測定光から明部分および暗部分をX方向に1単位だけ移動させたパターンを有する。2回目の縞状測定光が出射されることにより、測定対象物Sの表面で反射された光が、受光部120により受光される。受光された光の強度が測定対象物Sの2番目の撮影画像の画素データに基づいて測定される。   The second striped measurement light has a pattern in which the bright portion and the dark portion are moved by one unit in the X direction from the first striped measurement light. When the second striped measurement light is emitted, the light reflected by the surface of the measurement object S is received by the light receiving unit 120. The intensity of the received light is measured based on the pixel data of the second captured image of the measuring object S.

3回目の縞状測定光は、2回目の縞状測定光から明部分および暗部分をX方向に1単位だけ移動させたパターンを有する。3回目の縞状測定光が出射されることにより、測定対象物Sの表面で反射された光が受光部120により受光される。受光された光の強度が、測定対象物Sの3番目の撮影画像の画素データに基づいて測定される。   The third striped measurement light has a pattern in which the bright part and the dark part are moved by one unit in the X direction from the second striped measurement light. By emitting the third striped measurement light, the light reflected by the surface of the measuring object S is received by the light receiving unit 120. The intensity of the received light is measured based on the pixel data of the third captured image of the measuring object S.

同様の動作が繰り返されることにより、4〜16回目の縞状測定光に対応する光の強度が、測定対象物Sの4〜16番目の撮影画像の画素データに基づいてそれぞれ測定される。X方向の周期が16単位である縞状測定光が16回出射されることにより、測定対象物Sの表面の全ての部分に縞状測定光が照射される。なお、図9(b)は、7回目の縞状測定光に対応する測定対象物Sの7番目の撮影画像である。図9(c)は、13回目の縞状測定光に対応する測定対象物Sの13番目の撮影画像である。   By repeating the same operation, the intensity of the light corresponding to the 4th to 16th striped measurement light is measured based on the pixel data of the 4th to 16th captured images of the measuring object S, respectively. The striped measurement light whose period in the X direction is 16 units is emitted 16 times, so that the entire surface of the measurement object S is irradiated with the striped measurement light. FIG. 9B is a seventh captured image of the measuring object S corresponding to the seventh striped measurement light. FIG. 9C is a thirteenth captured image of the measuring object S corresponding to the thirteenth striped measurement light.

図10は、測定対象物Sの特定の部分における画像が撮影されたタイミング(番数)と受光された光の強度との関係を示す図である。図10の横軸は画像の順番を示し、縦軸は受光された光の強度を示す。上述のように、測定対象物Sの各部分について、1〜16番目の撮影画像が生成される。また、生成された1〜16番目の撮影画像の各画素に対応する光の強度が測定される。   FIG. 10 is a diagram illustrating the relationship between the timing (number) at which an image of a specific portion of the measurement object S is taken and the intensity of received light. The horizontal axis in FIG. 10 indicates the order of images, and the vertical axis indicates the intensity of received light. As described above, the first to sixteenth captured images are generated for each part of the measuring object S. In addition, the intensity of light corresponding to each pixel of the generated first to sixteenth captured images is measured.

図10に示すように、撮影画像の番号に対応する撮影画像の各画素の光の強度を図示することにより散布図が得られる。得られた散布図に例えばガウシアン曲線、スプライン曲線または放物線をフィッティングさせることにより、光の強度が最大になるときの撮影画像の番号(番数)を1未満の精度で推定することができる。図10の例においては、フィッティングされた点線で示す曲線により、9番目と10番目との間である仮想的な9.38番目の撮影画像において、光の強度が最大になることが推定される。   As shown in FIG. 10, a scatter diagram is obtained by illustrating the light intensity of each pixel of the captured image corresponding to the number of the captured image. For example, by fitting a Gaussian curve, a spline curve, or a parabola to the obtained scatter diagram, the number (number) of the photographed image when the light intensity becomes maximum can be estimated with an accuracy of less than one. In the example of FIG. 10, it is presumed that the light intensity is maximized in the virtual 9.38th photographed image between the ninth and tenth by the curve shown by the fitted dotted line. .

また、フィッティングされた曲線により、光の強度の最大値を推定することができる。測定対象物Sの各部分において推定された光の強度が最大となる撮影画像の番号に基づいて、測定対象物Sの各部分の高さhを算出することができる。この方法によれば、S/N(信号/ノイズ)比が十分に大きい光の強度に基づいて、測定対象物Sの三次元的な形状が測定される。これにより、測定対象物Sの形状測定の精度を向上させることができる。   Further, the maximum value of the light intensity can be estimated from the fitted curve. The height h of each part of the measurement object S can be calculated based on the number of the photographed image that maximizes the light intensity estimated in each part of the measurement object S. According to this method, the three-dimensional shape of the measuring object S is measured based on the intensity of light having a sufficiently large S / N (signal / noise) ratio. Thereby, the precision of the shape measurement of the measuring object S can be improved.

なお、正弦波状測定光または縞状測定光等の周期的なパターン形状を有する測定光を用いた測定対象物Sの形状測定においては、測定対象物Sの表面の各部分の相対的な高さ(高さの相対値)が測定される。これは、パターンを形成するY方向に平行な複数の直線(縞)の各々を識別することができず、複数の直線の1周期(2π)の整数倍に相当する不確かさが存在することにより、絶対位相が求まらないからである。そのため、測定対象物Sの一の部分の高さとその部分に隣接する部分の高さが連続的に変化しているという仮定に基づいて、測定された高さのデータに公知のアンラッピング処理が行われてもよい。   In the measurement of the shape of the measurement object S using measurement light having a periodic pattern shape such as sinusoidal measurement light or striped measurement light, the relative height of each portion of the surface of the measurement object S is measured. (Relative height) is measured. This is because each of a plurality of straight lines (stripes) parallel to the Y direction forming the pattern cannot be identified, and there is an uncertainty corresponding to an integral multiple of one period (2π) of the plurality of straight lines. This is because the absolute phase cannot be obtained. Therefore, a known unwrapping process is performed on the measured height data based on the assumption that the height of one part of the measuring object S and the height of the part adjacent to the part continuously change. It may be done.

(5)測定光の第4のパターン
図11は、測定光の第4のパターンを説明するための図である。図11に示すように、第4のパターンとして、Y方向に平行な直線状の断面を有しかつ明部分と暗部分とがX方向に並ぶ測定光(以下、コード状測定光と呼ぶ)が投光部110から複数回(本例においては4回)出射される。コード状測定光の明部分および暗部分の割合は、それぞれ50%である。
(5) Fourth Pattern of Measurement Light FIG. 11 is a diagram for explaining the fourth pattern of measurement light. As shown in FIG. 11, as the fourth pattern, measurement light having a linear cross section parallel to the Y direction and having a bright portion and a dark portion aligned in the X direction (hereinafter referred to as code-like measurement light) is used. The light is emitted from the light projecting unit 110 a plurality of times (in this example, four times). The ratio of the bright part and the dark part of the code-like measurement light is 50%.

本例においては、測定対象物Sの表面がX方向において複数(図11の例では16)の領域に分割される。以下、複数に分割されたX方向における測定対象物Sの領域をそれぞれ第1〜第16の領域と呼ぶ。   In this example, the surface of the measuring object S is divided into a plurality of regions (16 in the example of FIG. 11) in the X direction. Hereinafter, the areas of the measurement object S in the X direction divided into a plurality of parts are referred to as first to sixteenth areas, respectively.

図11(a)は、1回目に出射されるコード状測定光を示す。1回目に出射されるコード状測定光は、測定対象物Sの第1〜第8の領域に照射される明部分を有する。また、1回目に出射されるコード状測定光は、測定対象物Sの第9〜第16の領域に照射される暗部分を有する。これにより、1回目に出射されるコード状測定光においては、明部分と暗部分とがY方向に平行でかつX方向に並ぶ。また、1回目に出射されるコード状測定光の明部分および暗部分の割合は、それぞれ50%である。   FIG. 11A shows the code-like measurement light emitted for the first time. The code-shaped measurement light emitted for the first time has a bright portion that is irradiated onto the first to eighth regions of the measurement object S. Moreover, the code-shaped measurement light emitted for the first time has a dark part irradiated on the ninth to sixteenth regions of the measuring object S. Thereby, in the code-like measurement light emitted for the first time, the bright portion and the dark portion are parallel to the Y direction and aligned in the X direction. Further, the ratio of the bright part and the dark part of the code-like measurement light emitted for the first time is 50%.

図11(b)は、2回目に出射されるコード状測定光を示す。2回目に出射されるコード状測定光は、測定対象物Sの第5〜第12の領域に照射される明部分を有する。また、2回目に出射されるコード状測定光は、測定対象物Sの第1〜第4および第13〜第16の領域に照射される暗部分を有する。これにより、2回目に出射されるコード状測定光においては、明部分と暗部分とがY方向に平行でかつX方向に並ぶ。また、2回目に出射されるコード状測定光の明部分および暗部分の割合は、それぞれ50%である。   FIG. 11B shows the code-like measurement light emitted for the second time. The code-like measurement light emitted for the second time has a bright portion that is irradiated onto the fifth to twelfth regions of the measurement object S. Moreover, the code-like measurement light emitted for the second time has dark portions that are irradiated to the first to fourth and thirteenth to sixteenth regions of the measuring object S. Thereby, in the code-like measurement light emitted for the second time, the bright part and the dark part are parallel to the Y direction and aligned in the X direction. Moreover, the ratio of the bright part and the dark part of the code-like measurement light emitted for the second time is 50%.

図11(c)は、3回目に出射されるコード状測定光を示す。3回目に出射されるコード状測定光は、測定対象物Sの第1、第2、第7〜第10、第15および第16の領域に照射される明部分を有する。また、3回目に出射されるコード状測定光は、測定対象物Sの第3〜第6および第11〜第14の領域に照射される暗部分を有する。これにより、3回目に出射されるコード状測定光においては、明部分と暗部分とがY方向に平行でかつX方向に並ぶ。また、3回目に出射されるコード状測定光の明部分および暗部分の割合は、それぞれ50%である。   FIG. 11C shows the code-like measurement light emitted for the third time. The code-like measurement light emitted for the third time has bright portions that are irradiated on the first, second, seventh to tenth, fifteenth and sixteenth regions of the measurement object S. Moreover, the code-like measurement light emitted for the third time has dark portions that are irradiated on the third to sixth and the eleventh to fourteenth regions of the measurement object S. Thereby, in the code-like measurement light emitted for the third time, the bright part and the dark part are parallel to the Y direction and aligned in the X direction. Further, the ratio of the bright part and the dark part of the code-like measurement light emitted for the third time is 50%.

図11(d)は、4回目に出射されるコード状測定光を示す。4回目に出射されるコード状測定光は、測定対象物Sの第1、第4、第5、第8、第9、第12、第13および第16の領域に照射される明部分を有する。また、4回目に出射されるコード状測定光は、測定対象物Sの第2、第3、第6、第7、第10、第11、第14および第15の領域に照射される暗部分を有する。これにより、4回目に出射されるコード状測定光においては、明部分と暗部分とがY方向に平行でかつX方向に並ぶ。また、4回目に出射されるコード状測定光の明部分および暗部分の割合は、それぞれ50%である。   FIG. 11D shows the code-like measurement light emitted for the fourth time. The coded measurement light emitted for the fourth time has a bright portion that is irradiated on the first, fourth, fifth, eighth, ninth, twelfth, thirteenth, and sixteenth regions of the measurement object S. . In addition, the coded measurement light emitted for the fourth time is a dark portion irradiated on the second, third, sixth, seventh, tenth, eleventh, fourteenth and fifteenth regions of the measuring object S. Have Thereby, in the code-like measurement light emitted for the fourth time, the bright part and the dark part are parallel to the Y direction and aligned in the X direction. Further, the ratio of the bright part and the dark part of the code-like measurement light emitted for the fourth time is 50%.

コード状測定光の明部分に論理“1”が割り当てられ、コード状測定光の暗部分に論理“0”が割り当てられる。また、測定対象物Sの各領域に照射される1回目〜4回目のコード状測定光の論理の並びを符号と呼ぶ。この場合、測定対象物Sの第1の領域には、符号“1011”のコード状測定光が照射される。これにより、測定対象物Sの第1の領域は、符号“1011”に符号化される。   Logic “1” is assigned to the bright part of the code-like measurement light, and logic “0” is assigned to the dark part of the code-like measurement light. In addition, the logic arrangement of the first to fourth code-like measurement lights irradiated on each region of the measurement object S is referred to as a code. In this case, the first region of the measurement object S is irradiated with the code-shaped measurement light with the code “1011”. As a result, the first region of the measuring object S is encoded to the code “1011”.

測定対象物Sの第2の領域には、符号“1010”のコード状測定光が照射される。これにより、測定対象物Sの第2の領域は、符号“1010”に符号化される。測定対象物Sの第3の領域には、符号“1000”のコード状測定光が照射される。これにより、測定対象物Sの第3の領域は、符号“1000”に符号化される。同様に、測定対象物Sの第16の領域には、符号“0011”のコード状測定光が照射される。これにより、測定対象物Sの第16の領域は、符号“0011”に符号化される。   The second area of the measurement object S is irradiated with code-shaped measurement light with a code “1010”. As a result, the second region of the measuring object S is encoded to the code “1010”. The third region of the measuring object S is irradiated with code-shaped measurement light with a code “1000”. As a result, the third region of the measuring object S is encoded with the code “1000”. Similarly, the 16th region of the measuring object S is irradiated with the code-shaped measurement light with the code “0011”. Thus, the sixteenth region of the measuring object S is encoded with the code “0011”.

このように、測定対象物Sの隣り合う領域の間では、符号のいずれかの桁が“1”のみ異なるようにコード状測定光が測定対象物Sに複数回照射される。すなわち、コード状測定光は、明部分および暗部分がグレイコード状に変化するように、複数回測定対象物Sに照射される。   In this way, between the adjacent regions of the measurement object S, the code-shaped measurement light is irradiated to the measurement object S a plurality of times so that any digit of the code differs by “1”. That is, the code-shaped measurement light is applied to the measurement object S a plurality of times so that the bright portion and the dark portion change into a gray code shape.

測定対象物Sの表面の各領域で反射された光が受光部120により受光される。受光された光の符号を測定することにより、測定対象物Sの領域ごとに、測定対象物Sが存在することにより変化した符号が得られる。得られた符号と領域ごとに測定対象物Sが存在しない場合の符号との差分を求めることにより、図6の距離dに相当する距離を算出することができる。ここで、画像におけるX軸方向には、上記の符号は1回のみ出現するというコード状測定光を用いた測定方法の特徴から、距離dの絶対的な値が算出される。これにより、測定対象物Sのその領域の絶対的な高さ(高さの絶対値)が算出される。測定対象物Sの表面上の全ての領域の高さを算出することにより、測定対象物Sの三次元的な形状を測定することができる。   Light reflected by each region on the surface of the measuring object S is received by the light receiving unit 120. By measuring the sign of the received light, a sign that has changed due to the presence of the measurement object S is obtained for each region of the measurement object S. A distance corresponding to the distance d in FIG. 6 can be calculated by obtaining a difference between the obtained code and the code when the measurement object S does not exist for each region. Here, the absolute value of the distance d is calculated from the feature of the measurement method using the code-like measurement light that the code appears only once in the X-axis direction in the image. Thereby, the absolute height (absolute value of the height) of the region of the measuring object S is calculated. By calculating the height of all regions on the surface of the measuring object S, the three-dimensional shape of the measuring object S can be measured.

上記の説明においては、測定対象物Sの表面がX方向において16の領域に分割され、コード状測定光が投光部110から4回出射されたが、これに限定されない。測定対象物Sの表面がX方向において2の領域(Nは自然数)に分割され、コード状測定光が投光部110からN回出射されてもよい。上記の説明においては、理解を容易にするためにNは4に設定されている。本実施の形態における形状測定処理においては、Nは例えば8に設定される。したがって、測定対象物Sの表面はX方向において256の領域に分割される。 In the above description, the surface of the measuring object S is divided into 16 regions in the X direction, and the code-shaped measurement light is emitted from the light projecting unit 110 four times. However, the present invention is not limited to this. The surface of the measurement object S may be divided into 2 N regions (N is a natural number) in the X direction, and the code-shaped measurement light may be emitted N times from the light projecting unit 110. In the above description, N is set to 4 for easy understanding. In the shape measurement process in the present embodiment, N is set to 8, for example. Therefore, the surface of the measuring object S is divided into 256 regions in the X direction.

コード状測定光を用いた測定対象物Sの形状測定においては、コード状測定光を分離して識別可能な距離、すなわち1画素分に相当する距離が最小の分解能となる。したがって、受光部120のX方向における視野の画素数が1024画素である場合、高さが例えば10mmの測定対象物Sを10mm÷1024≒10μmの分解能で計測することができる。分解能は低いが絶対値を算出可能なコード状測定光を用いた形状測定と絶対値を算出できないが分解能が高い正弦波状測定光または縞状測定光を用いた形状測定とを組み合わせることにより、測定対象物Sの高さの絶対値をより高い分解能で算出することができる。   In the shape measurement of the measuring object S using the code-like measurement light, the distance that can be identified by separating the code-like measurement light, that is, the distance corresponding to one pixel is the minimum resolution. Therefore, when the number of pixels in the field of view in the X direction of the light receiving unit 120 is 1024 pixels, a measurement object S having a height of, for example, 10 mm can be measured with a resolution of 10 mm ÷ 1024≈10 μm. Measurement by combining shape measurement using code-shaped measurement light with low resolution but capable of calculating absolute value and shape measurement using sinusoidal measurement light or striped measurement light that cannot calculate absolute value but has high resolution The absolute value of the height of the object S can be calculated with higher resolution.

特に、図9の縞状測定光を用いた測定対象物Sの形状測定においては、分解能を1/100画素にすることができる。なお、1/100画素の分解能は、受光部120のX方向における視野の画素数が1024画素である場合、測定対象物Sの表面をX方向において約100000の領域に分割すること(すなわちN≒17)に相当する。そのため、コード状測定光を用いた形状測定と縞状測定光を用いた形状測定と組み合わせることにより、測定対象物Sの高さの絶対値をさらに高い分解能で算出することができる。   In particular, in the shape measurement of the measuring object S using the striped measurement light in FIG. 9, the resolution can be 1/100 pixels. The resolution of 1/100 pixels is that the surface of the measuring object S is divided into about 100,000 areas in the X direction when the number of pixels of the field of view in the X direction of the light receiving unit 120 is 1024 pixels (that is, N≈ 17). Therefore, the absolute value of the height of the measuring object S can be calculated with higher resolution by combining the shape measurement using the cord-shaped measurement light and the shape measurement using the striped measurement light.

上述のライン状測定光を測定対象物S上で走査する方法は一般に光切断法と呼ばれる。一方、正弦波状測定光、縞状測定光またはコード状測定光を測定対象物Sに照射する方法は、パターン投影法に分類される。また、パターン投影法の中でも、正弦波状測定光または縞状測定光を測定対象物Sに照射する方法は位相シフト法に分類され、コード状測定光を測定対象物Sに照射する方法は空間コード法に分類される。   A method of scanning the above-described line-shaped measurement light on the measurement object S is generally called a light cutting method. On the other hand, the method of irradiating the measuring object S with sinusoidal measurement light, striped measurement light or code-like measurement light is classified as a pattern projection method. Among the pattern projection methods, the method of irradiating the measuring object S with sinusoidal measuring light or the striped measuring light is classified as a phase shift method, and the method of irradiating the measuring object S with code-like measuring light is a spatial code. Classified into law.

位相シフト法においては、周期的な投影パターンである正弦波状測定光または縞状測定光を出射した際に、測定対象物Sが存在しない場合の基準高さ位置から反射した受光量に基づいて計算された位相と、測定対象物Sが存在する場合の測定対象物S表面から反射した受光量に基づいて計算された位相との位相差から測定対象物Sの高さを求める。位相シフト法においては、個々の周期的な縞が区別できず、縞1周期分(2π)の整数倍に相当する不確かさが存在するため、絶対位相が求まらないという欠点がある。しかしながら、光切断法に比べて取得する画像の枚数が少ないため測定時間が比較的短く、測定分解能が高いという長所がある。   In the phase shift method, when a sinusoidal measurement light or a striped measurement light that is a periodic projection pattern is emitted, the calculation is based on the amount of light received reflected from the reference height position when the measurement object S does not exist. The height of the measuring object S is obtained from the phase difference between the phase thus calculated and the phase calculated based on the received light amount reflected from the surface of the measuring object S when the measuring object S exists. In the phase shift method, individual periodic fringes cannot be distinguished, and there is an uncertainty corresponding to an integer multiple of one fringe period (2π), so that there is a drawback that the absolute phase cannot be obtained. However, since the number of images to be acquired is smaller than that of the light cutting method, the measurement time is relatively short and the measurement resolution is high.

一方、空間コード法おいては、測定対象物Sの領域ごとに、測定対象物Sが存在することによって変化した符号が得られる。得られた符号と測定対象物Sが存在しない場合の符号との差分を領域ごとに求めることにより、測定対象物Sの絶対的な高さを求めることができる。空間コード法においても、比較的少数の画像により測定が可能であり、絶対的な高さを求めることができるという長所がある。しかしながら、位相シフト法に比べると測定分解能に限界がある。 On the other hand, Oite the space code method is, for each area of the measuring object S, the code is obtained which is changed by the measuring object S is present. The absolute height of the measurement object S can be obtained by obtaining the difference between the obtained code and the code when the measurement object S does not exist for each region. The spatial code method also has an advantage that measurement can be performed with a relatively small number of images, and an absolute height can be obtained. However, the measurement resolution is limited compared to the phase shift method.

これらの投影法は、各々短所および長所を有しているが、いずれも三角測量の原理を用いている点は共通である。したがって、測定光が照射されない影の部分の測定はいずれの測定方法でも不可能である。   Each of these projection methods has its advantages and disadvantages, but both use the principle of triangulation. Therefore, it is impossible to measure a shadow portion that is not irradiated with the measurement light by any measurement method.

(6)受光部の測定可能範囲
上記の三角測距方式の形状測定においては、測定対象物Sの表面の位置が受光部120の焦点から光軸方向に遠ざかるほど測定対象物Sから受光部120の撮像素子121aに入射する光のぼけの度合いが大きくなる。同様に、測定対象物Sの表面の位置が受光部120の焦点よりも近接するほど測定対象物Sから受光部120の撮像素子121aに入射する光のぼけの度合いが大きくなる。受光部120の撮像素子121aに入射する光のぼけの度合いは、例えば投光部110および受光部120の少なくとも一部を構成する光学系のレンズの倍率に応じて変化する。
(6) Measurable range of light receiving unit In the shape measurement of the above-described triangulation method, the light receiving unit 120 is moved from the measuring object S as the position of the surface of the measuring object S moves away from the focus of the light receiving unit 120 in the optical axis direction. The degree of blurring of light incident on the imaging element 121a increases. Similarly, as the position of the surface of the measuring object S is closer to the focal point of the light receiving unit 120, the degree of blur of light incident on the image sensor 121a of the light receiving unit 120 from the measuring object S increases. The degree of blurring of light incident on the image sensor 121a of the light receiving unit 120 varies depending on, for example, the magnification of a lens of an optical system that constitutes at least a part of the light projecting unit 110 and the light receiving unit 120.

測定対象物Sから受光部120に入射する光のぼけの度合いが大きくなると、測定対象物Sの表面の高さの測定精度が低下する。そこで、本実施の形態では、測定対象物Sが位置する場合に一定の測定精度を得ることが可能であると考えられる受光部120の光軸方向の範囲が投光部110および受光部120の構成に応じて形状測定装置500ごとに予め定められる。以下の説明では、このようにして予め定められる受光部120のZ方向における範囲を受光部120のZ方向における測定可能範囲と呼ぶ。測定可能範囲は、例えば測定対象物Sの表面に縞状測定光を照射した状態で測定対象物Sを受光部120の光軸方向に移動させた場合に、受光部120の撮像素子121aに入射する光のぼけの度合いが所定のしきい値を超えない範囲に定められる。   When the degree of blur of light incident on the light receiving unit 120 from the measurement object S increases, the measurement accuracy of the height of the surface of the measurement object S decreases. Therefore, in the present embodiment, the range in the optical axis direction of the light receiving unit 120 considered to be able to obtain a certain measurement accuracy when the measuring object S is located is the range of the light projecting unit 110 and the light receiving unit 120. It is predetermined for each shape measuring apparatus 500 according to the configuration. In the following description, the range in the Z direction of the light receiving unit 120 determined in advance in this way is referred to as a measurable range in the Z direction of the light receiving unit 120. The measurable range is incident on the image sensor 121a of the light receiving unit 120, for example, when the measurement target S is moved in the optical axis direction of the light receiving unit 120 while the surface of the measurement target S is irradiated with the striped measurement light. The degree of blurring of the light is determined in a range that does not exceed a predetermined threshold.

[3]顕微鏡モードおよび形状測定モード
本実施の形態に係る形状測定装置500は、顕微鏡モードで動作可能であるとともに形状測定モードで動作可能である。図12および図13は、動作モード選択時における表示部400のGUIの一例を示す図である。図12および図13に示すように、画像表示領域550および設定変更領域570,580が表示部400に表示される。画像表示領域550には、受光部120により撮像された測定対象物Sの画像が表示される。
[3] Microscope Mode and Shape Measurement Mode The shape measurement apparatus 500 according to the present embodiment can operate in the microscope mode and in the shape measurement mode. 12 and 13 are diagrams illustrating an example of the GUI of the display unit 400 when the operation mode is selected. As shown in FIGS. 12 and 13, an image display area 550 and setting change areas 570 and 580 are displayed on the display unit 400. In the image display area 550, an image of the measuring object S captured by the light receiving unit 120 is displayed.

設定変更領域570には、明るさ選択欄571、明るさ設定バー572、表示切換欄573、倍率切換欄574、倍率選択欄575および焦点調整欄576が表示される。明るさ設定バー572は、水平方向に移動可能なスライダ572sを有する。   In the setting change area 570, a brightness selection field 571, a brightness setting bar 572, a display switching field 573, a magnification switching field 574, a magnification selection field 575, and a focus adjustment field 576 are displayed. The brightness setting bar 572 includes a slider 572s that can move in the horizontal direction.

使用者は、明るさ選択欄571において受光部120の露光時間の方式を選択することにより、受光部120の露光時間の方式をオート(自動)と手動との間で切り換えることができる。受光部120の露光時間の方式として手動が選択されている場合、使用者は、PC200の操作部250を操作して明るさ設定バー572のスライダ572sを水平方向に移動させることにより、受光部120の露光時間を調整することができる。使用者は、表示切換欄573から画像の表示の種類を選択することにより、画像の表示の種類をカラーとモノクロとの間で切り換えることができる。   The user can switch the exposure time method of the light receiving unit 120 between auto (automatic) and manual by selecting the exposure time method of the light receiving unit 120 in the brightness selection field 571. When manual is selected as the exposure time method of the light receiving unit 120, the user operates the operation unit 250 of the PC 200 to move the slider 572 s of the brightness setting bar 572 in the horizontal direction, whereby the light receiving unit 120. The exposure time can be adjusted. The user can switch the image display type between color and monochrome by selecting the image display type from the display switching field 573.

後述する図26に示すように、受光部120は、カメラ121としてレンズの倍率が互いに異なるカメラ121Aおよびカメラ121Bを含む。本例においては、例えば一方のカメラ121Aを低倍率カメラと呼び、他方のカメラ121Bを高倍率カメラと呼ぶ。使用者は、倍率切換欄574においてカメラの倍率を選択することにより、受光部120のカメラ121を高倍率カメラと低倍率カメラとの間で切り換えることができる。本実施の形態に係る形状測定装置500においては、高倍率カメラに対応する受光部120の測定可能範囲と低い倍率カメラに対応する受光部120の測定可能範囲とが互いに異なる大きさで個別に定められている。   As shown in FIG. 26 described later, the light receiving unit 120 includes a camera 121A and a camera 121B having different lens magnifications as the camera 121. In this example, for example, one camera 121A is called a low-magnification camera, and the other camera 121B is called a high-magnification camera. The user can switch the camera 121 of the light receiving unit 120 between the high magnification camera and the low magnification camera by selecting the magnification of the camera in the magnification switching field 574. In the shape measuring apparatus 500 according to the present embodiment, the measurable range of the light receiving unit 120 corresponding to the high magnification camera and the measurable range of the light receiving unit 120 corresponding to the low magnification camera are individually determined with different sizes. It has been.

受光部120はデジタルズーム機能を有する。本例においては、2つのカメラ121とデジタルズーム機能とを組み合わせることにより、カメラ121の倍率を実質的に2種類以上に変更することができる。使用者は、倍率選択欄575において倍率を選択することにより、受光部120のカメラ121の倍率を設定することができる。デジタルズーム機能が用いられる際には、カメラの種類(高倍率カメラおよび低倍率カメラ)ごとに定められる測定可能範囲が倍率の変化量に基づいて補正されてもよい。   The light receiving unit 120 has a digital zoom function. In this example, by combining the two cameras 121 and the digital zoom function, the magnification of the camera 121 can be substantially changed to two or more types. The user can set the magnification of the camera 121 of the light receiving unit 120 by selecting the magnification in the magnification selection field 575. When the digital zoom function is used, the measurable range determined for each type of camera (high magnification camera and low magnification camera) may be corrected based on the amount of change in magnification.

使用者は、焦点調整欄576に数値を入力することにより、入力された数値に対応する距離だけZ方向に受光部120の焦点位置を変化させることができる。受光部120の焦点位置の変化は、ステージ140のZステージ142の位置、すなわち受光部120と測定対象物Sとの間のZ方向の相対的な距離を変化させることにより行われる。   The user can change the focus position of the light receiving unit 120 in the Z direction by a distance corresponding to the input numerical value by inputting a numerical value in the focus adjustment field 576. The focus position of the light receiving unit 120 is changed by changing the position of the Z stage 142 of the stage 140, that is, the relative distance in the Z direction between the light receiving unit 120 and the measurement object S.

設定変更領域580には、顕微鏡モード選択タブ580Aおよび形状測定モード選択タブ580Bが表示される。顕微鏡モード選択タブ580Aが選択されている場合には、形状測定装置500は、顕微鏡モードで動作する。顕微鏡モードにおいては、照明光出力部130から照明光が測定対象物Sに照射される。この状態で、測定対象物Sの拡大観察を行うことができる。   In the setting change area 580, a microscope mode selection tab 580A and a shape measurement mode selection tab 580B are displayed. When the microscope mode selection tab 580A is selected, the shape measuring apparatus 500 operates in the microscope mode. In the microscope mode, the measurement object S is irradiated with illumination light from the illumination light output unit 130. In this state, the enlarged observation of the measuring object S can be performed.

図12に示すように、顕微鏡モード選択タブ580Aが選択されている場合、設定変更領域580には、ツール選択欄581および撮影ボタン582が表示される。使用者は、撮影ボタン582を操作することにより、画像表示領域550に表示されている測定対象物Sの画像を撮影(キャプチャ)することができる。   As shown in FIG. 12, when the microscope mode selection tab 580A is selected, a tool selection field 581 and a shooting button 582 are displayed in the setting change area 580. The user can capture (capture) an image of the measurement object S displayed in the image display area 550 by operating the capture button 582.

ツール選択欄581には、複数の実行ツールをそれぞれ選択するための複数のアイコンが表示される。使用者は、ツール選択欄581の複数のアイコンのいずれかを操作することにより、観察されている測定対象物Sの画像の平面測定、画像への目盛りの挿入、深度合成、画像へのコメントの挿入または画像の改善等の実行ツールを実行することができる。   The tool selection field 581 displays a plurality of icons for selecting a plurality of execution tools. The user operates one of the plurality of icons in the tool selection field 581 to perform planar measurement of the image of the measurement object S being observed, insertion of a scale in the image, depth synthesis, and comment on the image. Execution tools such as insertion or image improvement can be executed.

例えば、平面測定の実行が選択されている場合、ツール選択欄581の下方には測定ツール表示欄581aおよび補助ツール表示欄581bが表示される。測定ツール表示欄581aには、2点間の距離の測定、2つの平行線間の距離の測定、円の直径または半径の測定、および2つの直線がなす角度の測定等をそれぞれ実行するための複数のアイコンが表示される。補助ツール表示欄581bには、画像表示領域550の画像に点、線または円等の補助的な描画をそれぞれ実行するための複数のアイコンが表示される。   For example, when execution of plane measurement is selected, a measurement tool display field 581a and an auxiliary tool display field 581b are displayed below the tool selection field 581. The measurement tool display field 581a is used for measuring the distance between two points, measuring the distance between two parallel lines, measuring the diameter or radius of a circle, and measuring the angle formed by two straight lines. Multiple icons are displayed. In the auxiliary tool display field 581b, a plurality of icons for executing auxiliary drawing such as dots, lines or circles on the image in the image display area 550 are displayed.

形状測定モード選択タブ580Bが選択されている場合には、形状測定装置500は、形状測定モードで動作する。図13に示すように、形状測定モード選択タブ580Bが選択されている場合、設定変更領域580には、測定ボタン583が表示される。使用者は、形状測定の準備が終了した後、測定ボタン583を操作することにより、形状測定処理を実行することができる。   When the shape measurement mode selection tab 580B is selected, the shape measurement apparatus 500 operates in the shape measurement mode. As shown in FIG. 13, when the shape measurement mode selection tab 580B is selected, a measurement button 583 is displayed in the setting change area 580. The user can execute the shape measurement process by operating the measurement button 583 after the preparation for the shape measurement is completed.

[4]テクスチャ画像
(1)合成画像
測定部100においては、照明光出力部130からの照明光または投光部110からの均一パターンを有する測定光が照射された状態で、測定対象物Sの表面の状態の画像を示すデータが生成される。表面の状態は、例えば模様または色彩を含む。以下、測定対象物Sの表面の状態の画像をテクスチャ画像と呼び、テクスチャ画像を示すデータをテクスチャ画像データと呼ぶ。
[4] Texture Image (1) Composite Image In the measurement unit 100, the measurement object 100 is irradiated with illumination light from the illumination light output unit 130 or measurement light having a uniform pattern from the light projection unit 110. Data indicating an image of the surface state is generated. The surface state includes, for example, a pattern or a color. Hereinafter, the image of the surface state of the measuring object S is referred to as a texture image, and the data indicating the texture image is referred to as texture image data.

生成されたテクスチャ画像データと形状測定処理において生成された立体形状データとが合成されることにより、合成データが生成される。表示部400には、合成データに基づいて測定対象物Sの立体形状および表面の状態の合成された画像が表示される。以下、形状測定処理において生成された立体形状データを主立体形状データと呼ぶ。また、主立体形状データに基づいて表示される画像を主立体形状の画像と呼ぶ。   The generated texture image data and the 3D shape data generated in the shape measurement process are combined to generate combined data. The display unit 400 displays a combined image of the three-dimensional shape and surface state of the measurement object S based on the combined data. Hereinafter, the solid shape data generated in the shape measurement process is referred to as main solid shape data. An image displayed based on the main stereoscopic shape data is referred to as a main stereoscopic shape image.

図14は、形状測定処理実行後における表示部400のGUIの一例を示す図である。図14に示すように、形状測定処理において生成された合成データに基づいて、測定対象物Sの画像が画像表示領域550に表示される。使用者は、合成画像上で、測定対象物Sの測定結果の確認または簡単な計測を実行することができる。   FIG. 14 is a diagram illustrating an example of the GUI of the display unit 400 after execution of the shape measurement process. As shown in FIG. 14, an image of the measuring object S is displayed in the image display area 550 based on the composite data generated in the shape measurement process. The user can confirm the measurement result of the measurement object S or perform simple measurement on the composite image.

ここで、測定対象物Sの表面全体が受光部120の光軸方向(本実施の形態では、Z方向)の測定可能範囲に位置している場合であっても、測定対象物Sの表面全体が被写界深度の範囲内に位置していない場合、テクスチャ画像の全部または一部が鮮明に表示されない。そのため、測定対象物SのZ方向の寸法が受光部120の被写界深度の範囲よりも大きい場合には、受光部120と測定対象物Sとの間の相対的な距離を変化させつつ、受光部120の被写界深度の範囲内に位置する測定対象物Sのテクスチャ画像データが取得される。取得された複数のテクスチャ画像データを合成することにより、測定対象物Sの表面全体にわたって鮮明に表示可能なテクスチャ画像データ(以下、全焦点テクスチャ画像データと呼ぶ)が生成される。   Here, even if the entire surface of the measuring object S is located in the measurable range in the optical axis direction (in the present embodiment, the Z direction) of the light receiving unit 120, the entire surface of the measuring object S is used. Is not within the range of the depth of field, all or part of the texture image is not clearly displayed. Therefore, when the dimension in the Z direction of the measuring object S is larger than the range of the depth of field of the light receiving unit 120, while changing the relative distance between the light receiving unit 120 and the measuring object S, Texture image data of the measurement object S located within the range of the depth of field of the light receiving unit 120 is acquired. By synthesizing the acquired plurality of texture image data, texture image data (hereinafter referred to as omnifocal texture image data) that can be clearly displayed over the entire surface of the measurement object S is generated.

図15は、全焦点テクスチャ画像を説明するための測定対象物Sの模式的側面図である。図15の測定対象物Sにおいては、回路基板Sb上に電解コンデンサScが実装された構成を有する。また、回路基板Sbの上面および電解コンデンサScには、文字が付されている。図15に示すように、測定対象物SのZ方向の寸法(本例においては、回路基板Sbの下面から電解コンデンサScの上面までの寸法)は、受光部120のZ方向の測定可能範囲よりも小さく、被写界深度の範囲よりも大きい。   FIG. 15 is a schematic side view of the measuring object S for explaining the omnifocal texture image. The measuring object S in FIG. 15 has a configuration in which an electrolytic capacitor Sc is mounted on a circuit board Sb. Further, letters are attached to the upper surface of the circuit board Sb and the electrolytic capacitor Sc. As shown in FIG. 15, the dimension of the measuring object S in the Z direction (in this example, the dimension from the lower surface of the circuit board Sb to the upper surface of the electrolytic capacitor Sc) is larger than the measurable range of the light receiving unit 120 in the Z direction. Is smaller than the range of depth of field.

図16は、受光部120の焦点位置とテクスチャ画像の鮮明度との関係を示す図である。図16(a),(c),(e)は、図15の測定対象物Sの側面図を示す。図16(a)においては、測定対象物Sの電解コンデンサScの上面の位置aに受光部120の焦点が合わされる。図16(b)においては、測定対象物Sの電解コンデンサScの上面と回路基板Sbの上面との中間の位置bに受光部120の焦点が合わされる。図16(c)においては、測定対象物Sの回路基板Sbの上面の位置cに受光部120の焦点が合わされる。   FIG. 16 is a diagram illustrating the relationship between the focal position of the light receiving unit 120 and the sharpness of the texture image. FIGS. 16A, 16C, and 16E are side views of the measuring object S in FIG. In FIG. 16A, the light receiving unit 120 is focused on the position a on the upper surface of the electrolytic capacitor Sc of the measurement object S. In FIG. 16B, the light receiving unit 120 is focused on a position b intermediate between the upper surface of the electrolytic capacitor Sc of the measurement object S and the upper surface of the circuit board Sb. In FIG. 16C, the light receiving unit 120 is focused on the position c of the upper surface of the circuit board Sb of the measurement object S.

図16(b)は、図16(a)の状態において取得されたテクスチャ画像データに基づく測定対象物Sのテクスチャ画像を示す。この場合、電解コンデンサScの上面の位置aが受光部120の被写界深度の範囲内に位置するので、図16(b)に示すように、電解コンデンサScの上面に付された文字が鮮明に表示される。しかしながら、回路基板Sbの上面の位置cは、受光部120の被写界深度の範囲内に位置しない。そのため、回路基板Sbの上面に付された文字が不鮮明に表示される。また、回路基板Sbの上面の位置cは、受光部120のZ方向の測定可能範囲内にも位置していない。したがって、図16(e)の位置にステージ140の高さを合わせると、電解コンデンサScの上面の位置aの高さを算出することができないか、または算出される高さの信頼性が低くなる。   FIG. 16B shows a texture image of the measuring object S based on the texture image data acquired in the state of FIG. In this case, since the position “a” on the upper surface of the electrolytic capacitor Sc is located within the range of the depth of field of the light receiving unit 120, the letters attached to the upper surface of the electrolytic capacitor Sc are clear as shown in FIG. Is displayed. However, the position c on the upper surface of the circuit board Sb is not located within the range of the depth of field of the light receiving unit 120. Therefore, the characters attached to the upper surface of the circuit board Sb are displayed unclearly. Further, the position c on the upper surface of the circuit board Sb is not located within the measurable range of the light receiving unit 120 in the Z direction. Therefore, when the height of the stage 140 is adjusted to the position of FIG. 16E, the height of the position a on the upper surface of the electrolytic capacitor Sc cannot be calculated, or the reliability of the calculated height is lowered. .

図16(d)は、図16(c)の状態において取得されたテクスチャ画像データに基づく測定対象物Sのテクスチャ画像を示す。この場合、電解コンデンサScの上面と回路基板Sbの上面との中間の位置bが受光部120の被写界深度の範囲内に位置する。しかしながら、電解コンデンサScの上面および回路基板Sbの上面が受光部120の被写界深度の範囲外でかつZ方向の測定可能範囲に位置するので、図16(d)に示すように、電解コンデンサScの上面に付された文字および回路基板Sbの上面に付された文字がやや不鮮明に表示される。   FIG. 16D shows a texture image of the measuring object S based on the texture image data acquired in the state of FIG. In this case, an intermediate position b between the upper surface of the electrolytic capacitor Sc and the upper surface of the circuit board Sb is located within the range of the depth of field of the light receiving unit 120. However, since the upper surface of the electrolytic capacitor Sc and the upper surface of the circuit board Sb are located outside the range of the depth of field of the light receiving unit 120 and within the measurable range in the Z direction, as shown in FIG. The characters attached to the top surface of Sc and the characters attached to the top surface of the circuit board Sb are displayed slightly unclear.

図16(f)は、図16(e)の状態において取得されたテクスチャ画像データに基づく測定対象物Sのテクスチャ画像を示す。この場合、回路基板Sbの上面の位置cが受光部120の被写界深度の範囲内に位置するので、図16(f)に示すように、回路基板Sbの上面に付された文字が鮮明に表示される。しかしながら、電解コンデンサScの上面の位置aは、受光部120の被写界深度の範囲内に位置しない。そのため、電解コンデンサScの上面に付された文字が不鮮明に表示される。また、電解コンデンサScの上面の位置aは、受光部120のZ方向の測定可能範囲内にも位置していない。したがって、図16(a)の位置にステージ140の高さを合わせると、回路基板Sbの上面の位置cの高さを算出することができないか、または算出される高さの信頼性が低くなる。   FIG. 16F shows a texture image of the measuring object S based on the texture image data acquired in the state of FIG. In this case, since the position c of the upper surface of the circuit board Sb is located within the range of the depth of field of the light receiving unit 120, the characters attached to the upper surface of the circuit board Sb are clear as shown in FIG. Is displayed. However, the position a on the upper surface of the electrolytic capacitor Sc is not located within the range of the depth of field of the light receiving unit 120. Therefore, characters attached to the upper surface of the electrolytic capacitor Sc are displayed unclearly. Further, the position a of the upper surface of the electrolytic capacitor Sc is not located within the measurable range of the light receiving unit 120 in the Z direction. Accordingly, when the height of the stage 140 is adjusted to the position of FIG. 16A, the height of the position c on the upper surface of the circuit board Sb cannot be calculated, or the reliability of the calculated height is lowered. .

位置a〜cにおけるテクスチャ画像データが合成されることにより全焦点テクスチャ画像データが生成される。図17は、生成された全焦点テクスチャ画像データに基づく測定対象物Sの全焦点テクスチャ画像である。全焦点テクスチャ画像においては、図17に示すように、電解コンデンサScの上面に付された文字が鮮明に表示されるとともに、回路基板Sbの上面に付された文字が鮮明に表示される。   The omnifocal texture image data is generated by synthesizing the texture image data at the positions a to c. FIG. 17 is an omnifocal texture image of the measuring object S based on the generated omnifocal texture image data. In the omnifocal texture image, as shown in FIG. 17, characters attached to the upper surface of the electrolytic capacitor Sc are clearly displayed, and characters attached to the upper surface of the circuit board Sb are clearly displayed.

このように、受光部120とステージ140との相対的なZ方向の位置を変化させることにより、測定対象物Sに対して、受光部120の焦点が合う高さが変化する。そのため、一度に受光部120の被写界深度の範囲内に収めることができない高低差がある測定対象物Sであっても、受光部120の焦点を変化させて撮像した複数のテクスチャ画像を合成することにより、全体に焦点が合った全焦点テクスチャ画像を取得することができる。なお、被写界深度は、受光部120のレンズの倍率によって変化する形状測定装置500の固有の幅を有している。   Thus, by changing the relative position of the light receiving unit 120 and the stage 140 in the Z direction, the height at which the light receiving unit 120 is focused with respect to the measurement object S is changed. Therefore, even if the measurement object S has a height difference that cannot be within the range of the depth of field of the light receiving unit 120 at a time, a plurality of texture images captured by changing the focus of the light receiving unit 120 are combined. By doing so, it is possible to obtain an omnifocal texture image in which the whole is in focus. Note that the depth of field has a unique width of the shape measuring apparatus 500 that varies depending on the magnification of the lens of the light receiving unit 120.

全焦点テクスチャ画像を生成する際には、受光部120とステージ140とのZ方向の相対位置を所定範囲内で、所定の間隔で変化させて複数のテクスチャ画像を取得する。このときの受光部120とステージ140とをZ方向に相対的に移動させる範囲および間隔は、形状測定装置500の固有の値である。ただし、測定対象物Sの形状測定処理を予め実行した場合、または測定対象物Sの形状を示すデータ(例えばCADデータ)を予め保有している場合など、測定対象物Sの形状が既知である場合には、このデータに基づいて最適な移動範囲および間隔を決定してもよい。   When generating an omnifocal texture image, a plurality of texture images are acquired by changing the relative position in the Z direction between the light receiving unit 120 and the stage 140 within a predetermined range at predetermined intervals. The range and interval in which the light receiving unit 120 and the stage 140 are relatively moved in the Z direction at this time are unique values of the shape measuring apparatus 500. However, the shape of the measuring object S is known, for example, when the shape measuring process of the measuring object S is executed in advance or when data indicating the shape of the measuring object S (for example, CAD data) is held in advance. In some cases, the optimal movement range and interval may be determined based on this data.

例えば、測定対象物Sの高さの上限および下限により規定される範囲よりもやや広い範囲を、移動範囲としてもよい。また、測定対象物Sの高さ形状の勾配に応じて間隔を変化させてもよい。全焦点テクスチャ画像を取得する際にステージ140と受光部120との相対的なZ方向の移動を規定する上記のパラメータは使用者により任意に設定可能であってもよい。   For example, a range slightly wider than the range defined by the upper and lower limits of the height of the measuring object S may be set as the movement range. Further, the interval may be changed according to the gradient of the height shape of the measuring object S. When acquiring an all-focus texture image, the above-described parameter that defines the relative movement in the Z direction between the stage 140 and the light receiving unit 120 may be arbitrarily set by the user.

全焦点テクスチャ画像データは、測定対象物Sの全ての部分のうち受光部120の被写界深度の範囲内に含まれている部分についての複数のテクスチャ画像データが合成されることにより生成される。また、測定対象物Sの各部分のテクスチャ画像データの取得の際には、測定対象物Sの複数の部分にそれぞれ受光部120の焦点が合った状態での受光部120と測定対象物Sとの相対的な距離に基づいて測定対象物Sの各部分の高さが算出される。本実施の形態においては、測定対象物Sの複数の部分にそれぞれ受光部120の焦点が合った状態とは、例えば測定対象物Sの複数の部分がそれぞれ受光部120の被写界深度の範囲内に含まれるときの状態をいう。   The all-focus texture image data is generated by synthesizing a plurality of texture image data for the portions included in the depth of field of the light receiving unit 120 among all the portions of the measurement object S. . Further, when acquiring the texture image data of each part of the measurement object S, the light receiving unit 120 and the measurement object S in a state in which the light reception unit 120 is focused on a plurality of parts of the measurement object S, respectively. The height of each part of the measuring object S is calculated on the basis of the relative distance. In the present embodiment, the state in which the light receiving unit 120 is focused on each of the plurality of portions of the measurement target S is, for example, the range of the depth of field of the light reception unit 120 in each of the plurality of portions of the measurement target S. The state when it is included.

測定対象物Sの全ての部分について算出された高さを合成することにより、測定対象物Sの立体的な形状を示すデータが生成される。この測定対象物Sの立体的な形状を示すデータを副立体形状データと呼ぶ。全焦点テクスチャ画像データと主立体形状データとが合成されることにより、合成データが生成される。   By combining the heights calculated for all parts of the measurement object S, data indicating the three-dimensional shape of the measurement object S is generated. Data indicating the three-dimensional shape of the measuring object S is referred to as sub-three-dimensional shape data. The synthesized data is generated by synthesizing the omnifocal texture image data and the main stereoscopic shape data.

図18は、合成データに基づく測定対象物Sの合成画像である。図18(a)は、主立体形状データに基づく測定対象物Sの主立体形状の画像を示す。図18(a)の主立体形状を示す主立体形状データと全焦点テクスチャ画像データとが合成されることにより、合成データが生成される。図18(b)は、生成された合成データに基づく合成画像である。図18(b)に示すように、測定対象物SのZ方向の寸法が受光部120の被写界深度の範囲よりも大きい場合であっても、測定対象物Sの異なる高さを有する部分の表面の状態が鮮明に表示される。   FIG. 18 is a composite image of the measuring object S based on the composite data. FIG. 18A shows an image of the main stereoscopic shape of the measuring object S based on the main stereoscopic shape data. The synthesized data is generated by synthesizing the main stereoscopic shape data indicating the main stereoscopic shape of FIG. 18A and the omnifocal texture image data. FIG. 18B is a composite image based on the generated composite data. As shown in FIG. 18B, even when the dimension of the measurement object S in the Z direction is larger than the range of the depth of field of the light receiving unit 120, the measurement object S has different heights. The state of the surface of is clearly displayed.

主立体形状データの各画素の値は、その画素の位置における高さのデータを示している。一方、全焦点テクスチャ画像データの各画素の値は、その画素の位置における色および輝度を含むテクスチャ情報(表面の状態の情報)を示している。したがって、対応する画素同士の情報を合成することにより、図18(b)に示す合成画像を生成することができる。   The value of each pixel in the main stereoscopic shape data indicates the height data at the position of the pixel. On the other hand, the value of each pixel of the omnifocal texture image data indicates texture information (surface state information) including color and luminance at the position of the pixel. Therefore, the composite image shown in FIG. 18B can be generated by combining the information of corresponding pixels.

なお、詳細については後述するが、測定対象物Sの形状測定は、通常1回の処理で行われる。例えば、図16(a)の例では、回路基板Sbの上面cが受光部120の測定可能範囲内にないため、回路基板Sbの上面cの高さを算出することができない。したがって、図16(c)に示すように、できるだけ測定対象物Sの全体が受光部120のZ方向の測定可能範囲内に収まるように、受光部120とステージ140とのZ方向の相対距離を調整する必要がある。   In addition, although mentioned later for details, the shape measurement of the measuring object S is normally performed by one process. For example, in the example of FIG. 16A, since the upper surface c of the circuit board Sb is not within the measurable range of the light receiving unit 120, the height of the upper surface c of the circuit board Sb cannot be calculated. Therefore, as shown in FIG. 16C, the relative distance in the Z direction between the light receiving unit 120 and the stage 140 is set so that the entire measurement object S is within the measurable range of the light receiving unit 120 in the Z direction as much as possible. It needs to be adjusted.

一方、全焦点テクスチャ画像を生成する処理では、受光部120とステージ140とのZ方向の相対距離を変化させて複数回の撮像を行うので、1回の撮像で測定対象物Sの全体が受光部120の被写界深度の範囲内に収まるように受光部120とステージ140との相対距離を予め調整する必要はない。したがって、使用者は、テクスチャ画像を取得する際の受光部120の被写界深度の範囲ではなく、形状測定処理を行うための受光部120のZ方向の測定可能範囲内に測定対象物Sが収まっているか否かを意識して、受光部120とステージ140とのZ方向の相対距離を調整する。   On the other hand, in the process of generating the omnifocal texture image, imaging is performed a plurality of times by changing the relative distance between the light receiving unit 120 and the stage 140 in the Z direction, so that the entire measurement object S is received by one imaging. It is not necessary to previously adjust the relative distance between the light receiving unit 120 and the stage 140 so as to be within the range of the depth of field of the unit 120. Therefore, the user does not place the measurement object S within the measurable range in the Z direction of the light receiving unit 120 for performing the shape measurement process, not in the range of the depth of field of the light receiving unit 120 when acquiring the texture image. The relative distance in the Z direction between the light receiving unit 120 and the stage 140 is adjusted in consideration of whether or not it is within the range.

図16(a)に示すステージ140の位置で形状測定処理を行う場合、回路基板Sbの上面cの高さの算出ができないか、または算出される高さの信頼性が低くなる。一方、全焦点テクスチャ画像の生成処理においては、受光部120とステージ140とのZ方向の相対距離を変化させて複数回の撮像を行うので、回路基板Sbの上面cに受光部120の焦点が合ったテクスチャ画像を取得することはできる。したがって、テクスチャ画像の一部に高さのデータが欠損していたり、信頼性が低い画素が存在していても、その画素に全焦点テクスチャ画像データのテクスチャ情報を付与することは可能である。   When the shape measurement process is performed at the position of the stage 140 shown in FIG. 16A, the height of the upper surface c of the circuit board Sb cannot be calculated, or the reliability of the calculated height becomes low. On the other hand, in the omnifocal texture image generation process, imaging is performed a plurality of times by changing the relative distance between the light receiving unit 120 and the stage 140 in the Z direction, so that the focus of the light receiving unit 120 is on the upper surface c of the circuit board Sb. A matched texture image can be obtained. Therefore, even if height data is missing in a part of a texture image or a pixel with low reliability exists, it is possible to give texture information of omnifocal texture image data to that pixel.

本発明における三角測距を用いた形状測定処理においては、一般的に受光部120のZ方向の測定可能範囲は、受光部120の被写界深度の範囲よりも広い。これは、三角測距においては、画像に多少のぼけが発生していても、測定対象物Sの形状を測定することが可能だからである。ただし、受光部120の被写界深度の範囲は、使用者にとって焦点が合っているように見える主観的な範囲である。また、受光部120のZ方向の測定可能範囲は、投光部110および受光部120により定まる形状測定装置500の固有の値であるものの、受光部120のZ方向の測定可能範囲内にない測定対象物Sが必ずしも測定不可能になるのではない。   In the shape measurement process using triangulation in the present invention, the measurable range in the Z direction of the light receiving unit 120 is generally wider than the range of the depth of field of the light receiving unit 120. This is because in the triangulation, it is possible to measure the shape of the measuring object S even if some blur occurs in the image. However, the range of the depth of field of the light receiving unit 120 is a subjective range that seems to be in focus for the user. Further, the measurable range in the Z direction of the light receiving unit 120 is a unique value of the shape measuring apparatus 500 determined by the light projecting unit 110 and the light receiving unit 120, but is not within the measurable range in the Z direction of the light receiving unit 120. The object S is not necessarily impossible to measure.

また、測定対象物Sの高低差が大きい場合は、どのように受光部120とステージ140とのZ方向の相対距離を調整しても、測定対象物Sの全体を1度で測定することができない場合がある。その場合は、形状測定処理を行う際にも、受光部120とステージ140とのZ方向の相対距離を変化させて、複数回の形状測定処理を行い、各画素の最も信頼性が高い高さのデータにより構成された立体形状を取得することもできる。この場合は、受光部120のZ方向の測定可能範囲を超えた高低差を有する測定対象物Sの全体の測定が可能になり、大きな高低差を有する測定対象物Sの立体形状全体に対して、テクスチャ情報を付与することが可能である。   Further, when the height difference of the measuring object S is large, the entire measuring object S can be measured at a time, no matter how the relative distance in the Z direction between the light receiving unit 120 and the stage 140 is adjusted. There are cases where it is not possible. In that case, when performing the shape measurement process, the relative distance in the Z direction between the light receiving unit 120 and the stage 140 is changed, and the shape measurement process is performed a plurality of times. It is also possible to acquire a three-dimensional shape constituted by the data. In this case, the entire measurement object S having a height difference exceeding the measurable range in the Z direction of the light receiving unit 120 can be measured, and the entire three-dimensional shape of the measurement object S having a large height difference can be measured. Texture information can be added.

図18の例においては、三次元的に表示された測定対象物Sにテクスチャ画像が合成されるが、これに限定されない。例えば、測定対象物Sの高さを色彩の変化により表現した二次元の画像上にテクスチャ情報を重畳して表示してもよい。この場合、例えば高さを示す二次元の画像とテクスチャ情報との比率を使用者が調整可能にすることで、高さを示す二次元の画像とテクスチャ画像との中間的な色彩および輝度の画像を生成して表示することも可能である。   In the example of FIG. 18, the texture image is synthesized with the measurement object S displayed three-dimensionally, but the present invention is not limited to this. For example, texture information may be superimposed and displayed on a two-dimensional image in which the height of the measuring object S is expressed by a change in color. In this case, for example, by allowing the user to adjust the ratio between the two-dimensional image indicating the height and the texture information, an image having an intermediate color and brightness between the two-dimensional image indicating the height and the texture image. Can also be generated and displayed.

なお、上記の説明においては、理解を容易にするために3つの位置a〜cにおけるテクスチャ画像データおよび高さに基づいて全焦点テクスチャ画像データおよび副立体形状データがそれぞれ生成されるが、これに限定されない。2つ以下の位置または4つ以上の位置におけるテクスチャ画像データおよび高さに基づいて全焦点テクスチャ画像データおよび副立体形状データがそれぞれ生成されてもよい。   In the above description, the omnifocal texture image data and the sub-stereoscopic shape data are respectively generated based on the texture image data and the height at the three positions a to c for easy understanding. It is not limited. The omnifocal texture image data and the sub-stereoscopic shape data may be respectively generated based on the texture image data and the height at two or less positions or four or more positions.

本例においては、測定対象物SのZ方向の位置が、受光部120の被写界深度の範囲よりも小さい間隔で、受光部120のZ方向の測定可能範囲の上限から下限へ向かって、または下限から上限へ向かって変化される。Z方向の各位置におけるテクスチャ画像データおよび高さに基づいて全焦点テクスチャ画像データおよび副立体形状データがそれぞれ生成される。   In this example, the position of the measuring object S in the Z direction is smaller than the range of the depth of field of the light receiving unit 120, toward the lower limit from the upper limit of the measurable range of the light receiving unit 120 in the Z direction. Or it is changed from the lower limit to the upper limit. All-focus texture image data and sub-stereoscopic shape data are generated based on the texture image data and height at each position in the Z direction.

あるいは、全焦点テクスチャ画像データおよび副立体形状データの生成前に測定対象物Sの主立体形状データが生成されている場合には、主立体形状データに基づいて測定対象物SのZ方向の上端および下端を算出することができる。したがって、測定対象物SのZ方向の位置が、受光部120の被写界深度の範囲よりも小さい間隔で、測定対象物SのZ方向の寸法の上端から下端へ向かって、または下端から上端へ向かって変化されてもよい。Z方向の各位置におけるテクスチャ画像データおよび高さに基づいて全焦点テクスチャ画像データおよび副立体形状データがそれぞれ生成される。   Alternatively, when the main stereoscopic shape data of the measuring object S is generated before the generation of the omnifocal texture image data and the sub-stereoscopic shape data, the upper end in the Z direction of the measuring object S based on the main stereoscopic shape data And the lower end can be calculated. Therefore, the position of the measuring object S in the Z direction is smaller than the range of the depth of field of the light receiving unit 120, and the dimension of the measuring object S in the Z direction is from the upper end to the lower end or from the lower end to the upper end. May be changed. All-focus texture image data and sub-stereoscopic shape data are generated based on the texture image data and height at each position in the Z direction.

この場合、測定対象物Sの全焦点テクスチャ画像データおよび副立体形状データを生成するための最小限の範囲でテクスチャ画像データを取得し、高さを算出することができる。これにより、全焦点テクスチャ画像データおよび副立体形状データを高速に生成することができる。   In this case, the texture image data can be acquired in the minimum range for generating the omnifocal texture image data and the sub-stereoscopic shape data of the measurement object S, and the height can be calculated. Thereby, all-focus texture image data and sub-stereoscopic shape data can be generated at high speed.

(2)テクスチャ画像の種類
使用者は、テクスチャ画像データの取得において、テクスチャ画像の種類を選択することができる。テクスチャ画像の種類は、例えば通常のテクスチャ画像、全焦点テクスチャ画像もしくはハイダイナミックレンジ(HDR)テクスチャ画像またはこれらの組み合わせを含む。全焦点テクスチャ画像が選択された場合、上記の全焦点テクスチャ画像データが生成される。HDRテクスチャ画像が選択された場合、公知のハイダイナミックレンジ(HDR)合成が行われたテクスチャ画像データが生成される。
(2) Type of texture image The user can select the type of texture image in acquiring the texture image data. The types of texture images include, for example, normal texture images, omnifocal texture images, high dynamic range (HDR) texture images, or combinations thereof. When an omnifocal texture image is selected, the above omnifocal texture image data is generated. When an HDR texture image is selected, texture image data subjected to a known high dynamic range (HDR) composition is generated.

測定対象物Sの表面の複数の部分の反射率の差または色彩による明るさの差が小さくかつZ方向における測定対象物Sの寸法が受光部120の被写界深度よりも大きい場合、使用者は全焦点テクスチャ画像を選択する。これにより、測定対象物Sの表面状態を鮮明に示すテクスチャ画像データを短時間で生成させることができる。測定対象物Sの表面に反射率が高い部分および低い部分が含まれる場合、または色彩による明るさの差が大きい場合、使用者はHDRテクスチャ画像を選択する。これにより、黒つぶれおよび白とびが含まれない測定対象物Sの表面状態を鮮明に示すテクスチャ画像データを生成させることができる。   When the difference in reflectance of a plurality of portions on the surface of the measuring object S or the difference in brightness due to color is small and the dimension of the measuring object S in the Z direction is larger than the depth of field of the light receiving unit 120, the user Selects an all-focus texture image. Thereby, the texture image data which clearly shows the surface state of the measuring object S can be generated in a short time. When the surface of the measuring object S includes a portion having a high reflectance and a portion having a low reflectance, or when a difference in brightness due to color is large, the user selects an HDR texture image. Thereby, it is possible to generate texture image data that clearly shows the surface state of the measuring object S that does not include blackout and overexposure.

通常のテクスチャ画像においては、テクスチャ画像の合成が行われない。この場合、受光部120の焦点位置を固定した状態で受光部120により出力される受光信号に基づいて一のテクスチャ画像データが生成される。測定対象物Sの表面の複数の部分の反射率の差または色彩による明るさの差が小さくかつZ方向における測定対象物Sの寸法が受光部120の被写界深度の範囲よりも小さい場合、使用者は通常のテクスチャ画像を選択する。これにより、測定対象物Sの表面状態を鮮明に示すテクスチャ画像データをより短時間で生成させることができる。   In a normal texture image, the texture image is not synthesized. In this case, one texture image data is generated based on the light reception signal output from the light receiving unit 120 with the focus position of the light receiving unit 120 fixed. When the difference in reflectance or the brightness difference due to color of a plurality of portions on the surface of the measurement object S is small and the dimension of the measurement object S in the Z direction is smaller than the range of the depth of field of the light receiving unit 120, The user selects a normal texture image. Thereby, the texture image data which clearly shows the surface state of the measuring object S can be generated in a shorter time.

HDRテクスチャ画像が選択された場合、Z方向の一の位置において、異なる撮像条件の下で複数のテクスチャ画像データが生成される。ここで、撮像条件は、受光部120の露光時間を含む。あるいは、撮像条件は、照明光出力部130からの照明光の強度(明るさ)または投光部110からの均一な測定光の強度(明るさ)を含んでもよい。これらの場合、CPU210は、複数の撮像条件で複数のテクスチャ画像データを容易に生成することができる。   When the HDR texture image is selected, a plurality of texture image data is generated under different imaging conditions at one position in the Z direction. Here, the imaging conditions include the exposure time of the light receiving unit 120. Alternatively, the imaging condition may include the intensity (brightness) of illumination light from the illumination light output unit 130 or the intensity (brightness) of uniform measurement light from the light projecting unit 110. In these cases, the CPU 210 can easily generate a plurality of texture image data under a plurality of imaging conditions.

生成された複数のテクスチャ画像データは、そのZ方向の位置におけるテクスチャ画像に黒つぶれおよび白とびが含まれないように合成(HDR合成)される。これにより、テクスチャ画像のダイナミックレンジが拡大される。HDR合成されたテクスチャ画像データ(以下、HDRテクスチャ画像データと呼ぶ)に基づいてHDRテクスチャ画像が表示される。   The plurality of generated texture image data are combined (HDR combined) so that the texture image at the position in the Z direction does not include blackout and overexposure. As a result, the dynamic range of the texture image is expanded. An HDR texture image is displayed based on the HDR synthesized texture image data (hereinafter referred to as HDR texture image data).

全焦点テクスチャ画像とHDRテクスチャ画像との組み合わせ(以下、HDR全焦点テクスチャ画像と呼ぶ。)が選択された場合、測定対象物SのZ方向の位置を変化させつつ、Z方向の各位置について異なる撮像条件における複数のテクスチャ画像データが取得される。Z方向の各位置において取得された複数のテクスチャ画像データが、そのZ方向の位置における画像のダイナミックレンジが拡大されるようにHDR合成されることにより、HDRテクスチャ画像データが生成される。   When a combination of an omnifocal texture image and an HDR texture image (hereinafter referred to as an HDR omnifocal texture image) is selected, the position of the measuring object S is changed for each position in the Z direction while being changed. A plurality of texture image data under the imaging condition is acquired. A plurality of texture image data acquired at each position in the Z direction is HDR-synthesized so that the dynamic range of the image at the position in the Z direction is expanded, thereby generating HDR texture image data.

また、測定対象物Sの全ての部分のうち受光部120の被写界深度の範囲内に含まれている部分についての複数のHDRテクスチャ画像データが合成されることにより、測定対象物Sの表面全体にわたって表示可能なHDRテクスチャ画像データ(以下、HDR全焦点テクスチャ画像データと呼ぶ)が生成される。HDR全焦点テクスチャ画像データに基づいて、HDR全焦点テクスチャ画像が表示される。   Moreover, the surface of the measuring object S is obtained by synthesizing a plurality of HDR texture image data of the parts included in the range of the depth of field of the light receiving unit 120 among all the parts of the measuring object S. HDR texture image data that can be displayed throughout (hereinafter referred to as HDR omnifocal texture image data) is generated. An HDR omnifocal texture image is displayed based on the HDR omnifocal texture image data.

このように、測定対象物Sの表面に反射率が高い部分および低い部分が含まれるかまたは色彩による明るさの差が大きく、かつ測定対象物Sの寸法が受光部の被写界深度よりも大きい場合、使用者はHDR全焦点テクスチャ画像を選択する。これにより、測定対象物Sの表面状態を鮮明に示すテクスチャ画像データを生成させることができる。   As described above, the surface of the measuring object S includes a portion having a high reflectance and a low reflectance, or the brightness difference due to the color is large, and the dimension of the measuring object S is larger than the depth of field of the light receiving unit. If so, the user selects an HDR omnifocal texture image. Thereby, the texture image data which shows the surface state of the measuring object S clearly can be produced | generated.

図19は、テクスチャ画像の種類の選択時における表示部400のGUIの一例を示す図である。図19に示すように、テクスチャ画像の種類の選択時には、表示部400の設定変更領域580にテクスチャ画像選択欄584が表示される。テクスチャ画像選択欄584には、3つのチェックボックス584a,584b,584cが表示される。   FIG. 19 is a diagram illustrating an example of the GUI of the display unit 400 when a texture image type is selected. As shown in FIG. 19, when selecting the type of texture image, a texture image selection field 584 is displayed in the setting change area 580 of the display unit 400. In the texture image selection field 584, three check boxes 584a, 584b and 584c are displayed.

使用者は、チェックボックス584a〜584cを指定することにより、通常のテクスチャ画像、HDRテクスチャ画像および全焦点テクスチャ画像をそれぞれ選択することができる。また、使用者は、チェックボックス584b,584cを指定することにより、HDR全焦点テクスチャ画像を選択することができる。   The user can select a normal texture image, HDR texture image, and omnifocal texture image by designating check boxes 584a to 584c, respectively. Further, the user can select the HDR all-focus texture image by designating the check boxes 584b and 584c.

(3)主立体形状データの補正
副立体形状データの精度は、主立体形状データの精度よりも低い。しかしながら、主立体形状データは三角測距方式に基づいて生成されるので、主立体形状データを生成するためには、受光部120の光軸とは異なる角度から測定対象物Sに光を照射する必要がある。そのため、主立体形状データは、測定対象物Sの形状を正確に測定することができない領域に対応する不良部分を含むことが多い。ここで、不良部分は、画像の影の部分に対応する空白データ、ノイズの部分に対応するノイズデータ、または多重反射等による測定対象物Sの偽の形状の部分に対応する偽形状データを含む。
(3) Correction of main stereoscopic shape data The accuracy of sub stereoscopic shape data is lower than the accuracy of main stereoscopic shape data. However, since the main stereoscopic shape data is generated based on the triangulation method, in order to generate the main stereoscopic shape data, the measurement object S is irradiated with light from an angle different from the optical axis of the light receiving unit 120. There is a need. Therefore, the main stereoscopic shape data often includes a defective portion corresponding to a region where the shape of the measuring object S cannot be accurately measured. Here, the defective portion includes blank data corresponding to the shadow portion of the image, noise data corresponding to the noise portion, or false shape data corresponding to the false shape portion of the measuring object S due to multiple reflection or the like. .

一方で、副立体形状データを生成するためには、受光部120の光軸とは異なる角度から測定対象物Sに光を照射する必要がなく、受光部120の光軸と略等しい角度から測定対象物Sに照射することができる。この場合、副立体形状データは、不良部分をほとんど含まない。したがって、測定対象物Sの略上方に配置される照明光出力部130から出射される照明光を用いることにより、不良部分をほとんど含まない副立体形状データを生成することができる。   On the other hand, in order to generate sub-stereoscopic shape data, it is not necessary to irradiate the measurement object S from an angle different from the optical axis of the light receiving unit 120, and measurement is performed from an angle substantially equal to the optical axis of the light receiving unit 120. The object S can be irradiated. In this case, the sub-stereoscopic shape data includes almost no defective portion. Therefore, by using illumination light emitted from the illumination light output unit 130 disposed substantially above the measurement object S, sub-stereoscopic shape data that hardly includes a defective portion can be generated.

副立体形状データに基づいて主立体形状データの不良部分が判定される。本例においては、同一の測定対象物Sについての副立体形状データと主立体形状データとが比較される。これにより、主立体形状データのうちの不良部分を容易に判定することができる。また、形状測定処理において、測定光のパターンのコントラストが部分的に低下した場合、その部分に対応する主立体形状データの部分の信頼性が低下する。   A defective portion of the main stereoscopic shape data is determined based on the sub stereoscopic shape data. In this example, the sub stereoscopic shape data and the main stereoscopic shape data for the same measurement object S are compared. Thereby, it is possible to easily determine a defective portion in the main stereoscopic shape data. Further, in the shape measurement process, when the contrast of the pattern of the measurement light is partially reduced, the reliability of the part of the main stereoscopic shape data corresponding to that part is lowered.

この場合でも、副立体形状データおよび主立体形状データに基づいて、主立体形状データの信頼性が低い部分を判定することができる。本例においては、副立体形状データと主立体形状データとが比較される。副立体形状データの各部分と主立体形状データの各部分との差分がそれぞれ算出され、その差分が予め定められたしきい値より大きい主立体形状データの部分は信頼性が低いと判定される。   Even in this case, it is possible to determine a portion with low reliability of the main stereoscopic shape data based on the sub stereoscopic shape data and the main stereoscopic shape data. In this example, the sub stereoscopic shape data and the main stereoscopic shape data are compared. The difference between each part of the sub-stereoscopic shape data and each part of the main stereoscopic shape data is calculated, and it is determined that the part of the main stereoscopic shape data whose difference is larger than a predetermined threshold is low in reliability. .

このように、主立体形状データの複数の部分のうち副立体形状データからの乖離がしきい値よりも大きい部分は信頼性が低いと判定される。なお、しきい値は固定値であってもよいし、使用者がスライダ等を操作することにより任意に調整可能な可変値であってもよい。以下、主立体形状データのうちの信頼性が低いと判定された部分を主立体形状データの信頼性低下部分と呼ぶ。   In this way, it is determined that the portion of the plurality of portions of the main stereoscopic shape data whose deviation from the sub stereoscopic shape data is larger than the threshold value has low reliability. The threshold value may be a fixed value or a variable value that can be arbitrarily adjusted by the user operating a slider or the like. Hereinafter, a portion of the main stereoscopic shape data that has been determined to be low in reliability is referred to as a reliability-decreasing portion of the main stereoscopic shape data.

主立体形状データの不良部分または信頼性低下部分は、対応する副立体形状データの部分により置換または補間等の補正がされてもよい。これにより、使用者は、表示部400において外観上不良部分または信頼性低下部分を含まない測定対象物Sの主立体形状の画像または合成画像を観測することができる。また、主立体形状データの信頼性低下部分について、信頼性を向上させることができる。主立体形状データの補正においては、主立体形状データの不良部分または信頼性低下部分がその周囲の主立体形状データの部分により補間されてもよい。   The defective part or the reduced reliability part of the main stereoscopic shape data may be corrected by replacement or interpolation by the corresponding sub stereoscopic shape data part. Thereby, the user can observe an image or a composite image of the main three-dimensional shape of the measuring object S that does not include a defective portion or a reduced reliability portion on the display unit 400. Further, it is possible to improve the reliability of the portion of the main stereoscopic shape data whose reliability is reduced. In the correction of the main stereoscopic shape data, the defective portion or the reduced reliability portion of the main stereoscopic shape data may be interpolated by the surrounding main stereoscopic shape data portion.

図20、図21および図22は、副立体形状データによる主立体形状データの補正を説明するための図である。図20(a),(b)は、測定対象物Sの主立体形状の画像および合成画像をそれぞれ示す。図21(a),(b)は、測定対象物Sの副立体形状画像(後述する副立体形状三次元画像)および合成画像をそれぞれ示す。図22(a),(b)は、測定対象物Sの補正された主立体形状の画像および補正された合成画像をそれぞれ示す。   20, FIG. 21, and FIG. 22 are diagrams for explaining the correction of the main stereoscopic shape data by the sub stereoscopic shape data. FIGS. 20A and 20B show a main stereoscopic image and a composite image of the measuring object S, respectively. FIGS. 21A and 21B show a sub-stereoscopic shape image (sub-stereoscopic shape three-dimensional image described later) and a composite image of the measuring object S, respectively. FIGS. 22A and 22B show a corrected main stereoscopic image and a corrected combined image of the measuring object S, respectively.

図20(a),(b)に示すように、主立体形状の画像および合成画像には、空白データに基づく影Ssが含まれるとともに、偽形状データに基づく偽の形状Spが含まれる。一方、図21(a),(b)に示すように、副立体形状画像および合成画像には、影の影響が出ない。   As shown in FIGS. 20A and 20B, the main stereoscopic image and the composite image include a shadow Ss based on blank data and a false shape Sp based on false shape data. On the other hand, as shown in FIGS. 21A and 21B, the sub-stereoscopic shape image and the composite image are not affected by shadows.

図20(a),(b)の主立体形状の画像および合成画像における影Ssおよび偽の形状Spの部分が、図21(a),(b)の副立体形状画像および全焦点テクスチャ画像の相当する部分により補正される。これにより、図22(a),(b)に示すように、影の影響が出ない主立体形状の画像および合成画像を観測することができる。   The shadow Ss and the false shape Sp in the main stereoscopic shape image and the composite image in FIGS. 20A and 20B are the sub-stereo shape image and the omnifocal texture image in FIGS. 21A and 21B. It is corrected by the corresponding part. As a result, as shown in FIGS. 22A and 22B, it is possible to observe a main stereoscopic image and a synthesized image that are not affected by a shadow.

表示部400に主立体形状の画像またはテクスチャ画像を表示させる際に、主立体形状データの不良部分または信頼性低下部分が補正されず、主立体形状データの不良部分または信頼性低下部分に相当する立体形状の画像またはテクスチャ画像の部分が強調表示されてもよい。あるいは、表示部400に補正された主立体形状の画像を表示させる際に、主立体形状データの不良部分または信頼性低下部分が補正された状態で、主立体形状データの不良部分または信頼性低下部分に相当する補正された立体形状の画像の部分が強調表示されてもよい。これにより、使用者は、主立体形状データの不良部分または信頼性低下部分を容易かつ確実に認識することができる。主立体形状データの不良部分または信頼性低下部分は、形状測定処理における測定位置の計測または解析においては、無効データとして扱われてもよい。   When displaying the main stereoscopic shape image or the texture image on the display unit 400, the defective portion or the reduced reliability portion of the main stereoscopic shape data is not corrected, and corresponds to the defective portion or the reduced reliability portion of the main stereoscopic shape data. A three-dimensional image or texture image portion may be highlighted. Alternatively, when displaying the corrected main stereoscopic shape image on the display unit 400, the defective portion or the reduced reliability of the main stereoscopic shape data in a state where the defective portion or the reduced reliability portion of the main stereoscopic shape data is corrected. A portion of the corrected three-dimensional image corresponding to the portion may be highlighted. As a result, the user can easily and reliably recognize a defective portion or a reduced reliability portion of the main stereoscopic shape data. The defective part or the reduced reliability part of the main stereoscopic shape data may be treated as invalid data in measurement or analysis of the measurement position in the shape measurement process.

形状測定処理において、投光部110A,110Bの両方からの測定光を用いて主立体形状データが生成される場合、投光部110A,110Bの各々からの測定光に基づく主立体形状データが適切な重み付けで合成されることにより主立体形状データが生成される。ここで、一方の測定光に基づく主立体形状データが不良部分または信頼性低下部分を含む場合には、その部分においては、一方の測定光に基づく主立体形状データの合成の重み付けを低減させるとともに、他方の測定光に基づく主立体形状データの合成の重み付けを増加させてもよい。   In the shape measurement process, when the main stereoscopic shape data is generated using measurement light from both the light projecting units 110A and 110B, the main stereoscopic shape data based on the measurement light from each of the light projecting units 110A and 110B is appropriate. The main three-dimensional shape data is generated by combining with appropriate weighting. Here, when the main stereoscopic shape data based on one measurement light includes a defective portion or a reliability reduction portion, the weight of the synthesis of the main stereoscopic shape data based on one measurement light is reduced in that portion. The weight of the synthesis of the main stereoscopic shape data based on the other measurement light may be increased.

(4)形状測定処理の効率化
後述する図30〜図32の形状測定処理において、投光部110から測定対象物Sにコード状測定光(図11参照)が照射されるとともに、縞状測定光(図9参照)が照射される。この場合、コード状測定光に基づいて測定対象物Sの各部分の高さの絶対値が算出されるとともに、縞状測定光に基づいて測定対象物Sの各部分の高さの相対値が高い分解能で算出される。これにより、測定対象物Sの各部分の高さの絶対値が高い分解能で算出される。すなわち、コード状測定光に基づいて算出された高さにより、縞状測定光に基づいて算出された高さの絶対値が決定される。
(4) Efficiency improvement of shape measurement process In the shape measurement process of FIGS. 30 to 32 described later, the measurement light S is irradiated with the code-shaped measurement light (see FIG. 11) and the stripe measurement is performed. Light (see FIG. 9) is irradiated. In this case, the absolute value of the height of each part of the measuring object S is calculated based on the code-shaped measuring light, and the relative value of the height of each part of the measuring object S is calculated based on the striped measuring light. Calculated with high resolution. Thereby, the absolute value of the height of each part of the measuring object S is calculated with high resolution. That is, the absolute value of the height calculated based on the striped measurement light is determined by the height calculated based on the code-shaped measurement light.

これに代えて、副立体形状データにおける各部分の高さにより、縞状測定光に基づいて算出された高さの絶対値が決定されてもよい。この場合、形状測定処理において、投光部110から測定対象物Sにコード状測定光を照射しなくてもよい。これにより、測定対象物Sの各部分の高さの絶対値を高い分解能で算出しつつ形状測定処理を短時間でかつ効率的に実行することができる。   Instead, the absolute value of the height calculated based on the striped measurement light may be determined based on the height of each part in the sub-stereoscopic shape data. In this case, it is not necessary to irradiate the measurement object S from the light projecting unit 110 with the code-shaped measurement light in the shape measurement process. Thereby, the shape measurement process can be executed in a short time and efficiently while calculating the absolute value of the height of each part of the measuring object S with high resolution.

[5]形状測定処理
(1)形状測定の準備
測定対象物Sの形状測定処理を実行する前に、使用者は、形状測定の準備を行う。図23は、形状測定の準備の手順を示すフローチャートである。以下、図1、図2および図23を参照しながら形状測定の準備の手順を説明する。まず、使用者は、測定対象物Sをステージ140上に載置する(ステップS1)。次に、使用者は、照明光出力部130から測定対象物Sに照明光を照射する(ステップS2)。これにより、測定対象物Sの画像が表示部400に表示される。続いて、使用者は、表示部400に表示された測定対象物Sの画像を見ながら、照明光の光量、受光部120の焦点ならびに測定対象物Sの位置および姿勢の調整(以下、第1の調整と呼ぶ)を行う(ステップS3)。
[5] Shape Measurement Processing (1) Preparation for Shape Measurement Before executing the shape measurement processing of the measurement object S, the user prepares for shape measurement. FIG. 23 is a flowchart showing a procedure for preparing for shape measurement. Hereinafter, a procedure for preparing for shape measurement will be described with reference to FIGS. 1, 2, and 23. First, the user places the measuring object S on the stage 140 (step S1). Next, the user irradiates the measurement object S with illumination light from the illumination light output unit 130 (step S2). Thereby, the image of the measuring object S is displayed on the display unit 400. Subsequently, the user adjusts the light amount of the illumination light, the focus of the light receiving unit 120, and the position and orientation of the measurement object S (hereinafter referred to as the first object) while viewing the image of the measurement object S displayed on the display unit 400. Is called (step S3).

次に、使用者は、照明光の照射を停止するとともに、投光部110から測定対象物Sに測定光を照射する(ステップS4)。これにより、測定対象物Sの画像が表示部400に表示される。続いて、使用者は、表示部400に表示された測定対象物Sの画像を見ながら、測定光の光量、受光部120の焦点ならびに測定対象物Sの位置および姿勢の調整(以下、第2の調整と呼ぶ)を行う(ステップS5)。ステップS5において、測定対象物Sの測定したい位置に影が発生していない場合には、使用者は、第2の調整として受光部120の焦点ならびに測定対象物Sの位置および姿勢の調整を行う必要はなく、測定光の光量の調整を行えばよい。   Next, the user stops the irradiation of the illumination light and irradiates the measurement object S with the measurement light from the light projecting unit 110 (step S4). Thereby, the image of the measuring object S is displayed on the display unit 400. Subsequently, the user adjusts the light amount of the measurement light, the focal point of the light receiving unit 120, and the position and orientation of the measurement object S (hereinafter referred to as the second) while viewing the image of the measurement object S displayed on the display unit 400. Is called (step S5). In step S5, when no shadow is generated at the position to be measured of the measurement object S, the user adjusts the focus of the light receiving unit 120 and the position and orientation of the measurement object S as the second adjustment. There is no need to adjust the amount of measurement light.

その後、使用者は、測定光の照射を停止するとともに、再び照明光出力部130から測定対象物Sに照明光を照射する(ステップS6)。これにより、測定対象物Sの画像が表示部400に表示される。次に、使用者は、表示部400に表示された測定対象物Sの画像を確認する(ステップS7)。ここで、使用者は、表示部400に表示された測定対象物Sの画像から、光の光量、受光部120の焦点ならびに測定対象物Sの位置および姿勢(以下、観察状態と呼ぶ)が適切であるか否かを判定する(ステップS8)。   Thereafter, the user stops the irradiation of the measurement light and irradiates the measurement object S from the illumination light output unit 130 again with the illumination light (step S6). Thereby, the image of the measuring object S is displayed on the display unit 400. Next, the user confirms the image of the measuring object S displayed on the display unit 400 (step S7). Here, from the image of the measuring object S displayed on the display unit 400, the user appropriately determines the amount of light, the focus of the light receiving unit 120, and the position and orientation of the measuring object S (hereinafter referred to as an observation state). It is determined whether or not (step S8).

ステップS8において、観察状態が適切でないと判定した場合、使用者は、ステップS2の処理に戻る。一方、ステップS8において、観察状態が適切であると判定した場合、使用者は、形状測定の準備を終了する。   If it is determined in step S8 that the observation state is not appropriate, the user returns to the process in step S2. On the other hand, when it is determined in step S8 that the observation state is appropriate, the user finishes preparation for shape measurement.

なお、上記の説明においては、第1の調整の後に第2の調整が行われるが、これに限定されない。第2の調整の後に第1の調整が行われてもよい。この場合、ステップS6においては照明光ではなく測定光が測定対象物Sに照射される。また、ステップS5において、第2の調整のうち受光部120の焦点ならびに測定対象物Sの位置および姿勢の調整を行わなかった場合には、使用者は、ステップS6〜S8の手順を省略して形状測定の準備を終了してもよい。   In the above description, the second adjustment is performed after the first adjustment, but the present invention is not limited to this. The first adjustment may be performed after the second adjustment. In this case, in step S6, the measurement object S is irradiated with the measurement light instead of the illumination light. In step S5, when the focus of the light receiving unit 120 and the position and orientation of the measurement object S are not adjusted in the second adjustment, the user omits the steps S6 to S8. The preparation for shape measurement may be completed.

(2)第1の調整
図24および図25は、形状測定の準備の手順における第1の調整の詳細を示すフローチャートである。以下、図1、図2、図24および図25を参照しながら形状測定の準備の手順における第1の調整の詳細を説明する。まず、使用者は、照明光の光量を調整する(ステップS11)。照明光の光量の調整は、制御部300の照明光源320から出射される照明光の明るさまたは受光部120の露光時間を調整することにより行われる。次に、使用者は、表示部400に表示される測定対象物Sの画像に基づいて、測定対象物Sに照射される照明光の光量が適切であるか否かを判定する(ステップS12)。
(2) First Adjustment FIGS. 24 and 25 are flowcharts showing details of the first adjustment in the procedure for the preparation for shape measurement. Hereinafter, the details of the first adjustment in the procedure for the preparation of the shape measurement will be described with reference to FIGS. 1, 2, 24 and 25. First, the user adjusts the amount of illumination light (step S11). The adjustment of the amount of illumination light is performed by adjusting the brightness of the illumination light emitted from the illumination light source 320 of the control unit 300 or the exposure time of the light receiving unit 120. Next, the user determines whether or not the amount of illumination light applied to the measurement object S is appropriate based on the image of the measurement object S displayed on the display unit 400 (step S12). .

ステップS12において、照明光の光量が適切でないと判定した場合、使用者は、ステップS11の処理に戻る。一方、ステップS12において、照明光の光量が適切であると判定した場合、使用者は、受光部120の焦点を調整する(ステップS13)。受光部120の焦点の調整は、ステージ140のZステージ142の位置を変化させ、受光部120と測定対象物Sとの間のZ方向の相対的な距離を調整することにより行われる。次に、使用者は、表示部400に表示される測定対象物Sの画像に基づいて、受光部120の焦点が適切であるか否かを判定する(ステップS14)。   If it is determined in step S12 that the amount of illumination light is not appropriate, the user returns to the process in step S11. On the other hand, if it is determined in step S12 that the amount of illumination light is appropriate, the user adjusts the focus of the light receiving unit 120 (step S13). The focus of the light receiving unit 120 is adjusted by changing the position of the Z stage 142 of the stage 140 and adjusting the relative distance in the Z direction between the light receiving unit 120 and the measuring object S. Next, the user determines whether or not the focus of the light receiving unit 120 is appropriate based on the image of the measurement object S displayed on the display unit 400 (step S14).

ステップS14において、受光部120の焦点が適切でないと判定した場合、使用者は、ステップS13の処理に戻る。一方、ステップS14において、受光部120の焦点が適切であると判定した場合、使用者は、測定対象物Sの位置および姿勢を調整する(ステップS15)。測定対象物Sの位置および姿勢の調整は、ステージ140のX−Yステージ141の位置およびθステージ143の角度を変化させることにより行われる。   If it is determined in step S14 that the focus of the light receiving unit 120 is not appropriate, the user returns to the process of step S13. On the other hand, when it determines with the focus of the light-receiving part 120 being appropriate in step S14, a user adjusts the position and attitude | position of the measuring object S (step S15). The position and orientation of the measuring object S are adjusted by changing the position of the XY stage 141 and the angle of the θ stage 143 of the stage 140.

次に、使用者は、表示部400に表示される測定対象物Sの画像に基づいて、測定対象物Sの位置および姿勢が適切であるか否かを判定する(ステップS16)。ここで、測定対象物Sの測定位置が受光部120の視野範囲に含まれている場合、使用者は、測定対象物Sの位置および姿勢が適切であると判断する。一方、測定対象物Sの測定位置が受光部120の視野範囲に含まれていない場合、使用者は、測定対象物Sの位置および姿勢が適切でないと判断する。   Next, the user determines whether or not the position and orientation of the measurement object S are appropriate based on the image of the measurement object S displayed on the display unit 400 (step S16). Here, when the measurement position of the measurement object S is included in the visual field range of the light receiving unit 120, the user determines that the position and orientation of the measurement object S are appropriate. On the other hand, when the measurement position of the measurement object S is not included in the visual field range of the light receiving unit 120, the user determines that the position and orientation of the measurement object S are not appropriate.

ステップS16において、測定対象物Sの位置および姿勢が適切でないと判定した場合、使用者は、ステップS15の処理に戻る。一方、ステップS16において、測定対象物Sの位置および姿勢が適切であると判定した場合、使用者は、視野サイズを調整する(ステップS17)。視野サイズの調整は、例えば受光部120のカメラ121のレンズの倍率を変更することにより行われる。   If it is determined in step S16 that the position and orientation of the measurement object S are not appropriate, the user returns to the process of step S15. On the other hand, if it is determined in step S16 that the position and orientation of the measuring object S are appropriate, the user adjusts the visual field size (step S17). The adjustment of the visual field size is performed by changing the magnification of the lens of the camera 121 of the light receiving unit 120, for example.

次に、使用者は、表示部400に表示される測定対象物Sの画像に基づいて、視野サイズが適切であるか否かを判定する(ステップS18)。ステップS18において、視野サイズが適切でないと判定した場合、使用者は、ステップS17の処理に戻る。一方、ステップS18において、視野サイズが適切であると判定した場合、使用者は、テクスチャ画像の種類を選択し(ステップS19)、第1の調整を終了する。第1の調整が行われることにより、テクスチャ画像データを生成するために最適な照明光の光量条件が設定される。   Next, the user determines whether or not the visual field size is appropriate based on the image of the measurement object S displayed on the display unit 400 (step S18). If it is determined in step S18 that the field of view size is not appropriate, the user returns to the process of step S17. On the other hand, if it is determined in step S18 that the visual field size is appropriate, the user selects the type of texture image (step S19), and the first adjustment is terminated. By performing the first adjustment, an optimal illumination light amount condition for generating texture image data is set.

なお、ステップS17においては、受光部120が、レンズの倍率が互いに異なる複数のカメラ121を含み、カメラ121を切り換えることによりレンズの倍率を変更してもよい。あるいは、レンズの倍率を切り換え可能な一のカメラ121を含み、レンズの倍率を切り換えることによりレンズの倍率を変更してもよい。または、受光部120のデジタルズーム機能により、レンズの倍率を変更することなく視野サイズが調整されてもよい。   In step S <b> 17, the light receiving unit 120 may include a plurality of cameras 121 having different lens magnifications, and the lens magnification may be changed by switching the cameras 121. Alternatively, one lens 121 that can switch the lens magnification may be included, and the lens magnification may be changed by switching the lens magnification. Alternatively, the visual field size may be adjusted by the digital zoom function of the light receiving unit 120 without changing the magnification of the lens.

図26は、X方向から見た図2の受光部120を示す模式図である。図26に示すように、受光部120は、複数のカメラ121としてカメラ121A,121Bを含む。カメラ121Aのレンズの倍率とカメラ121Bのレンズの倍率とは互いに異なる。また、受光部120はハーフミラー124をさらに含む。   FIG. 26 is a schematic diagram showing the light receiving unit 120 of FIG. 2 viewed from the X direction. As shown in FIG. 26, the light receiving unit 120 includes cameras 121 </ b> A and 121 </ b> B as a plurality of cameras 121. The lens magnification of the camera 121A and the lens magnification of the camera 121B are different from each other. The light receiving unit 120 further includes a half mirror 124.

複数のレンズ122,123を通過した光は、ハーフミラー124により2つの光に分離される。一方の光はカメラ121Aにより受光され、他方の光はカメラ121Bにより受光される。図1の制御基板150に受光信号を出力するカメラ121をカメラ121Aとカメラ121Bとの間で切り換えることにより、レンズの倍率を変更することができる。カメラ121Aとカメラ121Bとの間の切り換えは、図13の倍率切換欄574においてカメラの倍率を選択することにより行われる。   The light that has passed through the plurality of lenses 122 and 123 is separated into two lights by the half mirror 124. One light is received by the camera 121A, and the other light is received by the camera 121B. By switching the camera 121 that outputs a light reception signal to the control board 150 in FIG. 1 between the camera 121A and the camera 121B, the magnification of the lens can be changed. Switching between the camera 121A and the camera 121B is performed by selecting the magnification of the camera in the magnification switching field 574 of FIG.

(3)第2の調整
図27および図28は、形状測定の準備の手順における第2の調整の詳細を示すフローチャートである。以下、図1、図2、図27および図28を参照しながら形状測定の準備の手順における第2の調整の詳細を説明する。まず、使用者は、一方の測定光の光量を調整する(ステップS21)。
(3) Second Adjustment FIGS. 27 and 28 are flowcharts showing details of the second adjustment in the procedure for preparing for shape measurement. Hereinafter, the details of the second adjustment in the procedure for the preparation of the shape measurement will be described with reference to FIGS. 1, 2, 27, and 28. First, the user adjusts the amount of one measurement light (step S21).

次に、使用者は、表示部400に表示される測定対象物Sの画像に基づいて、測定対象物Sの位置および姿勢が適切であるか否かを判定する(ステップS22)。ここで、測定対象物Sの測定位置に影が発生していない場合、使用者は、測定対象物Sの位置および姿勢が適切であると判断する。一方、測定対象物Sの測定位置に影が発生している場合、使用者は、測定対象物Sの位置および姿勢が適切でないと判断する。   Next, the user determines whether or not the position and orientation of the measurement object S are appropriate based on the image of the measurement object S displayed on the display unit 400 (step S22). Here, when a shadow is not generated at the measurement position of the measurement object S, the user determines that the position and orientation of the measurement object S are appropriate. On the other hand, when a shadow is generated at the measurement position of the measurement object S, the user determines that the position and orientation of the measurement object S are not appropriate.

ステップS22において、測定対象物Sの位置および姿勢が適切でないと判定した場合、使用者は、測定対象物Sの位置および姿勢を調整する(ステップS23)。測定対象物Sの位置および姿勢の調整は、ステージ140のX−Yステージ141の位置およびθステージ143の角度を変化させることにより行われる。その後、使用者は、ステップS22の処理に戻る。   If it is determined in step S22 that the position and orientation of the measurement object S are not appropriate, the user adjusts the position and orientation of the measurement object S (step S23). The position and orientation of the measuring object S are adjusted by changing the position of the XY stage 141 and the angle of the θ stage 143 of the stage 140. Thereafter, the user returns to the process of step S22.

一方、ステップS22において、測定対象物Sの位置および姿勢が適切であると判定した場合、使用者は、表示部400に表示される測定対象物Sの画像に基づいて、測定対象物Sに照射される一方の測定光の光量が適切であるか否かを判定する(ステップS24)。   On the other hand, when it is determined in step S22 that the position and orientation of the measurement target S are appropriate, the user irradiates the measurement target S based on the image of the measurement target S displayed on the display unit 400. It is determined whether or not the amount of one of the measured light is appropriate (step S24).

ステップS24において、一方の測定光の光量が適切でないと判定した場合、使用者は、一方の測定光の光量を調整する(ステップS25)。その後、使用者は、ステップS24の処理に戻る。   If it is determined in step S24 that the light amount of one measurement light is not appropriate, the user adjusts the light amount of one measurement light (step S25). Thereafter, the user returns to the process of step S24.

一方、ステップS24において、一方の測定光の光量が適切であると判定した場合、使用者は、表示部400に表示される測定対象物Sの画像に基づいて、受光部120の焦点が適切であるか否かを判定する(ステップS26)。   On the other hand, if it is determined in step S24 that the amount of the one measurement light is appropriate, the user is appropriately focused on the light receiving unit 120 based on the image of the measurement object S displayed on the display unit 400. It is determined whether or not there is (step S26).

ステップS26において、受光部120の焦点が適切でないと判定した場合、使用者は、受光部120の焦点を調整する(ステップS27)。受光部120の焦点の調整は、ステージ140のZステージ142の位置を変化させ、受光部120と測定対象物Sとの間のZ方向の相対的な距離を調整することにより行われる。その後、使用者は、ステップS26の処理に戻る。   If it is determined in step S26 that the focus of the light receiving unit 120 is not appropriate, the user adjusts the focus of the light receiving unit 120 (step S27). The focus of the light receiving unit 120 is adjusted by changing the position of the Z stage 142 of the stage 140 and adjusting the relative distance in the Z direction between the light receiving unit 120 and the measuring object S. Thereafter, the user returns to the process of step S26.

一方、ステップS26において、受光部120の焦点が適切であると判定した場合、使用者は、表示部400に表示された測定対象物Sの画像から、観察状態が適切であるか否かを判定する(ステップS28)。   On the other hand, when it is determined in step S26 that the focus of the light receiving unit 120 is appropriate, the user determines whether or not the observation state is appropriate from the image of the measurement object S displayed on the display unit 400. (Step S28).

ステップS28において、観察状態が適切でないと判定した場合、使用者は、ステップS23、ステップS25またはステップS27の処理に戻る。具体的には、観察状態のうち測定対象物Sの位置および姿勢が適切でないと判定した場合、使用者は、ステップS23の処理に戻る。観察状態のうち光(一方の測定光)の光量が適切でないと判定した場合、使用者は、ステップS25の処理に戻る。観察状態のうち受光部120の焦点が適切でないと判定した場合、使用者は、ステップS27の処理に戻る。   If it is determined in step S28 that the observation state is not appropriate, the user returns to the process in step S23, step S25, or step S27. Specifically, when it is determined that the position and orientation of the measurement object S are not appropriate in the observation state, the user returns to the process of step S23. If it is determined that the amount of light (one measurement light) is not appropriate in the observation state, the user returns to the process of step S25. When it is determined that the focus of the light receiving unit 120 is not appropriate in the observation state, the user returns to the process of step S27.

一方、ステップS28において、観察状態が適切であると判定した場合、使用者は、一方の測定光の照射を停止するとともに、他方の投光部110Bから測定対象物Sに測定光を照射する(ステップS29)。これにより、測定対象物Sの画像が表示部400に表示される。続いて、使用者は、表示部400に表示された測定対象物Sの画像を見ながら、他方の測定光の光量の調整を行う(ステップS30)。   On the other hand, when it is determined in step S28 that the observation state is appropriate, the user stops the irradiation of one measurement light and irradiates the measurement object S with the measurement light from the other light projecting unit 110B ( Step S29). Thereby, the image of the measuring object S is displayed on the display unit 400. Subsequently, the user adjusts the light quantity of the other measurement light while viewing the image of the measurement object S displayed on the display unit 400 (step S30).

その後、使用者は、表示部400に表示される測定対象物Sの画像に基づいて、他方の測定光の光量が適切であるか否かを判定する(ステップS31)。ステップS31において、他方の測定光の光量が適切でないと判定した場合、使用者は、ステップS30の処理に戻る。一方、ステップS31において、他方の測定光の光量が適切であると判定した場合、使用者は、第2の調整を終了する。第2の調整が行われることにより、主立体形状データを生成するために最適な一方および他方の測定光の光量条件が設定される。なお、他方の投光部110Bを使用しない場合には、使用者は、ステップS28の処理の後、ステップS29〜S31の手順を省略して第2の調整を終了してもよい。   Thereafter, the user determines whether or not the amount of the other measurement light is appropriate based on the image of the measurement object S displayed on the display unit 400 (step S31). If it is determined in step S31 that the amount of the other measurement light is not appropriate, the user returns to the process of step S30. On the other hand, if it is determined in step S31 that the amount of the other measurement light is appropriate, the user ends the second adjustment. By performing the second adjustment, an optimal light quantity condition for one and the other measurement light is set in order to generate the main stereoscopic shape data. In addition, when not using the other light projection part 110B, the user may abbreviate | omit the procedure of step S29-S31 after the process of step S28, and may complete | finish 2nd adjustment.

図29は、第2の調整の実行時における表示部400のGUIの一例を示す図である。図29に示すように、第2の調整の実行時には、表示部400の設定変更領域580に図5と同様の光量設定バー493,494が表示される。使用者は、操作部250を操作して光量設定バー493のスライダ493sを水平方向に移動させることにより、一方の測定光の光量を変更することができる。同様に、使用者は、操作部250を操作して光量設定バー494のスライダ494sを水平方向に移動させることにより、他方の測定光の光量を変更することができる。   FIG. 29 is a diagram illustrating an example of the GUI of the display unit 400 when the second adjustment is performed. As shown in FIG. 29, when the second adjustment is performed, light amount setting bars 493 and 494 similar to those in FIG. 5 are displayed in the setting change area 580 of the display unit 400. The user can change the light quantity of one measurement light by operating the operation unit 250 and moving the slider 493s of the light quantity setting bar 493 in the horizontal direction. Similarly, the user can change the light amount of the other measurement light by operating the operation unit 250 and moving the slider 494s of the light amount setting bar 494 in the horizontal direction.

第2の調整の実行時には、表示部400に3つの画像表示領域550a,550b,550cが設けられる。画像表示領域550aには、一方および他方の測定光が照射された場合における測定対象物Sの画像が表示される。画像表示領域550bには、一方の測定光が照射された場合における測定対象物Sの画像が表示される。画像表示領域550cには、他方の測定光が照射された場合における測定対象物Sの画像が表示される。   When the second adjustment is performed, the display unit 400 is provided with three image display areas 550a, 550b, and 550c. In the image display area 550a, an image of the measurement object S when one and the other measurement light is irradiated is displayed. In the image display area 550b, an image of the measurement object S when one measurement light is irradiated is displayed. In the image display area 550c, an image of the measurement object S when the other measurement light is irradiated is displayed.

ここで、画像は、明るすぎるために白とびが生じている部分および暗すぎるために黒つぶれが生じている部分を識別可能に、画像表示領域550a〜550cに表示される。図29の例においては、明るすぎるために白とびが生じている部分がドットパターンにより強調表示されている。また、暗すぎるために黒つぶれが生じている部分がハッチングパターンにより強調表示されている。   Here, the image is displayed in the image display areas 550a to 550c so that a portion where overexposure occurs because it is too bright and a portion where blackout occurs because it is too dark can be identified. In the example of FIG. 29, the overexposed part is highlighted by the dot pattern because it is too bright. In addition, a portion that is blackened due to being too dark is highlighted by a hatching pattern.

(4)形状測定処理
図23の形状測定の準備の後、測定対象物Sの形状測定処理が実行される。図30、図31および図32は、形状測定処理の手順を示すフローチャートである。以下、図1、図2および図30〜図32を参照しながら形状測定処理の手順を説明する。使用者は、形状測定の準備の終了後に、CPU210に形状測定処理の開始を指示する。CPU210は、使用者により形状測定処理の開始が指示されたか否かを判定する(ステップS41)。
(4) Shape measurement process After the preparation of the shape measurement of FIG. 23, the shape measurement process of the measuring object S is executed. 30, 31 and 32 are flowcharts showing the procedure of the shape measurement process. Hereinafter, the procedure of the shape measurement process will be described with reference to FIGS. 1, 2, and 30 to 32. The user instructs the CPU 210 to start the shape measurement process after completing the preparation for the shape measurement. The CPU 210 determines whether or not the user has instructed the start of the shape measurement process (step S41).

ステップS41において、形状測定処理の開始が指示されていない場合、CPU210は、形状測定処理の開始が指示されるまで待機する。なお、使用者は、形状測定処理の開始を指示するまで形状測定の準備を行うことができる。一方、ステップS41において、形状測定処理の開始が指示された場合、CPU210は、第2の調整において設定された光量条件に従って投光部110から測定対象物Sに測定光を照射し、測定対象物Sに測定光のパターンが投影された画像(以下、パターン画像と呼ぶ)を取得する(ステップS42)。取得されたパターン画像は、作業用メモリ230に記憶される。   If the start of the shape measurement process is not instructed in step S41, the CPU 210 waits until the start of the shape measurement process is instructed. The user can prepare for shape measurement until instructing the start of the shape measurement process. On the other hand, when the start of the shape measurement process is instructed in step S41, the CPU 210 irradiates the measurement object S with the measurement light from the light projecting unit 110 according to the light amount condition set in the second adjustment, and the measurement object. An image obtained by projecting the measurement light pattern onto S (hereinafter referred to as a pattern image) is acquired (step S42). The acquired pattern image is stored in the work memory 230.

次に、CPU210は、取得したパターン画像を所定の計測アルゴリズムで処理することにより、測定対象物Sの立体形状を示す主立体形状データを生成する(ステップS43)。生成された主立体形状データは、作業用メモリ230に記憶される。続いて、CPU210は、生成した主立体形状データに基づいて測定対象物Sの主立体形状の画像を表示部400に表示する(ステップS44)。   Next, the CPU 210 generates main three-dimensional shape data indicating the three-dimensional shape of the measuring object S by processing the acquired pattern image with a predetermined measurement algorithm (step S43). The generated main stereoscopic shape data is stored in the work memory 230. Subsequently, the CPU 210 displays an image of the main stereoscopic shape of the measuring object S on the display unit 400 based on the generated main stereoscopic shape data (step S44).

その後、CPU210は、使用者の指示に基づいて、測定すべき位置(以下、測定位置と呼ぶ)の立体形状が表示されているか否かを判定する(ステップS45)。使用者は、表示部400に表示されている測定対象物Sの主立体形状の画像を見て、測定位置の立体形状が表示されているか否かをCPU210に指示する。   Thereafter, the CPU 210 determines whether or not a three-dimensional shape of a position to be measured (hereinafter referred to as a measurement position) is displayed based on a user instruction (step S45). The user views the image of the main three-dimensional shape of the measuring object S displayed on the display unit 400 and instructs the CPU 210 whether or not the three-dimensional shape at the measurement position is displayed.

ステップS45において、測定位置の立体形状が表示されていないと判定した場合、CPU210はステップS41の処理に戻る。これにより、CPU210は形状測定処理の開始が指示されるまで待機するとともに、使用者は形状測定処理の開始を再び指示するまで測定位置の立体形状が表示されるように形状測定の準備を行うことができる。一方、ステップS45において、測定位置の立体形状が表示されていると判定した場合、CPU210は、使用者により図25の第1の調整のステップS19で通常のテクスチャ画像が選択されたか否かを判定する(ステップS46)。   If it is determined in step S45 that the three-dimensional shape of the measurement position is not displayed, the CPU 210 returns to the process of step S41. Thus, the CPU 210 waits until the start of the shape measurement process is instructed, and the user prepares for shape measurement so that the three-dimensional shape of the measurement position is displayed until the user instructs the start of the shape measurement process again. Can do. On the other hand, if it is determined in step S45 that the three-dimensional shape of the measurement position is displayed, the CPU 210 determines whether or not a normal texture image has been selected by the user in step S19 of the first adjustment in FIG. (Step S46).

ここで、CPU210は、図19のテクスチャ画像選択欄584のチェックボックス584aが指定された場合、通常のテクスチャ画像が選択されたと判定する。また、CPU210は、図19のテクスチャ画像選択欄584のチェックボックス584a〜584cのいずれも指定されなかった場合にも、CPU210は、通常のテクスチャ画像が選択されたと判定する。   Here, when the check box 584a of the texture image selection field 584 of FIG. 19 is designated, the CPU 210 determines that a normal texture image has been selected. Further, the CPU 210 determines that a normal texture image has been selected even when none of the check boxes 584a to 584c in the texture image selection field 584 of FIG. 19 is designated.

ステップS46において、通常のテクスチャ画像が選択されたと判定した場合、CPU210は、第1の調整において設定された光量条件に従って照明光出力部130から測定対象物Sに照明光を照射し、測定対象物Sの通常のテクスチャ画像データを生成する(ステップS47)。その後、CPU210はステップS55の処理に進む。   If it is determined in step S46 that a normal texture image has been selected, the CPU 210 irradiates the measurement object S with illumination light from the illumination light output unit 130 according to the light amount condition set in the first adjustment, and the measurement object. Normal texture image data of S is generated (step S47). Thereafter, the CPU 210 proceeds to the process of step S55.

ステップS46において、通常のテクスチャ画像が選択されなかったと判定した場合、CPU210は、使用者により図25の第1の調整のステップS19で全焦点テクスチャ画像が選択されたか否かを判定する(ステップS48)。ここで、CPU210は、図19のテクスチャ画像選択欄584のチェックボックス584cが指定された場合、全焦点テクスチャ画像が選択されたと判定する。   If it is determined in step S46 that the normal texture image has not been selected, the CPU 210 determines whether or not the omnifocal texture image has been selected by the user in step S19 of the first adjustment in FIG. 25 (step S48). ). Here, when the check box 584c of the texture image selection field 584 in FIG. 19 is designated, the CPU 210 determines that the omnifocal texture image has been selected.

ステップS48において、全焦点テクスチャ画像が選択されたと判定した場合、CPU210は、第1の調整において設定された光量条件に従って照明光出力部130から測定対象物Sに照明光を照射し、測定対象物Sの全焦点テクスチャ画像データを生成する(ステップS49)。一方、ステップS48において、全焦点テクスチャ画像が選択されなかったと判定した場合、CPU210はステップS50の処理に進む。   If it is determined in step S48 that the omnifocal texture image has been selected, the CPU 210 irradiates the measurement object S with illumination light from the illumination light output unit 130 according to the light amount condition set in the first adjustment, and the measurement object. S omnifocal texture image data is generated (step S49). On the other hand, if it is determined in step S48 that the omnifocal texture image has not been selected, the CPU 210 proceeds to the process of step S50.

次に、CPU210は、使用者により図25の第1の調整のステップS19でHDRテクスチャ画像が選択されたか否かを判定する(ステップS50)。ここで、CPU210は、図19のテクスチャ画像選択欄584のチェックボックス584bが指定された場合、HDRテクスチャ画像が選択されたと判定する。   Next, the CPU 210 determines whether or not the HDR texture image has been selected by the user in the first adjustment step S19 of FIG. 25 (step S50). Here, when the check box 584b of the texture image selection field 584 in FIG. 19 is designated, the CPU 210 determines that the HDR texture image has been selected.

ステップS50において、HDRテクスチャ画像が選択されたと判定した場合、CPU210は、第1の調整において設定された光量条件に従って照明光出力部130から測定対象物Sに照明光を照射し、測定対象物SのHDRテクスチャ画像データを生成する(ステップS51)。なお、ステップS49で全焦点テクスチャ画像データが生成されていた場合には、CPU210は、ステップS51でHDRテクスチャ画像データではなくHDR全焦点テクスチャ画像データを生成する。一方、ステップS50において、HDRテクスチャ画像が選択されなかったと判定した場合、CPU210はステップS52の処理に進む。   If it is determined in step S50 that the HDR texture image has been selected, the CPU 210 irradiates the measurement object S with illumination light from the illumination light output unit 130 according to the light amount condition set in the first adjustment, and the measurement object S HDR texture image data is generated (step S51). If the omnifocal texture image data has been generated in step S49, the CPU 210 generates HDR omnifocal texture image data instead of the HDR texture image data in step S51. On the other hand, if it is determined in step S50 that the HDR texture image has not been selected, the CPU 210 proceeds to the process of step S52.

使用者は、生成されたテクスチャ画像データに基づくテクスチャ画像を表示部400に表示させることをCPU210に指示することができる。CPU210は、テクスチャ画像の表示が指示されたか否かを判定する(ステップS52)。ステップS52において、テクスチャ画像の表示が指示されなかったと判定した場合、CPU210はステップS55の処理に進む。一方、ステップS52において、テクスチャ画像の表示が指示されたと判定した場合、CPU210は生成されたテクスチャ画像データに基づいてテクスチャ画像を表示部400に表示させる(ステップS53)。   The user can instruct the CPU 210 to display a texture image based on the generated texture image data on the display unit 400. CPU 210 determines whether display of a texture image has been instructed (step S52). If it is determined in step S52 that the display of the texture image has not been instructed, the CPU 210 proceeds to the process of step S55. On the other hand, if it is determined in step S52 that display of a texture image has been instructed, the CPU 210 causes the display unit 400 to display a texture image based on the generated texture image data (step S53).

次に、CPU210は、使用者の指示に基づいて、テクスチャ画像が適切であるか否かを判定する(ステップS54)。使用者は、表示部400に表示されているテクスチャ画像を見て、テクスチャ画像が適切であるか否かをCPU210に指示する。   Next, the CPU 210 determines whether or not the texture image is appropriate based on a user instruction (step S54). The user looks at the texture image displayed on the display unit 400 and instructs the CPU 210 whether or not the texture image is appropriate.

ステップS54において、テクスチャ画像が適切でないと判定した場合、CPU210はステップS48の処理に戻る。これにより、テクスチャ画像が適切であると判定されるまで、ステップS48〜S54の処理が繰り返される。使用者は選択するテクスチャ画像の種類を変更することにより、CPU210に適切なテクスチャ画像データを生成させることができる。   If it is determined in step S54 that the texture image is not appropriate, the CPU 210 returns to the process of step S48. Thereby, the processing of steps S48 to S54 is repeated until it is determined that the texture image is appropriate. The user can cause the CPU 210 to generate appropriate texture image data by changing the type of texture image to be selected.

ステップS54において、テクスチャ画像が適切であると判定した場合、CPU210は、合成データを生成する(ステップS55)。合成データは、ステップS47,ステップS49またはステップS51で生成されたテクスチャ画像データとステップS43において生成されたと主立体形状データを合成することにより生成される。   If it is determined in step S54 that the texture image is appropriate, the CPU 210 generates composite data (step S55). The combined data is generated by combining the texture image data generated in step S47, step S49 or step S51 with the main stereoscopic shape data generated in step S43.

続いて、CPU210は、生成された合成データに基づいて測定対象物Sの合成画像を表示部400に表示させる(ステップS56)。その後、CPU210は、使用者の指示に基づいて測定位置の計測または解析を実行する(ステップS57)。これにより、形状測定処理を終了する。このような形状測定処理により、CPU210は、使用者の指示に基づいて合成画像上において測定位置の計測または解析を実行することができる。   Subsequently, the CPU 210 causes the display unit 400 to display a composite image of the measurement object S based on the generated composite data (step S56). Thereafter, the CPU 210 performs measurement or analysis of the measurement position based on a user instruction (step S57). This completes the shape measurement process. With such shape measurement processing, the CPU 210 can perform measurement or analysis of the measurement position on the composite image based on the user's instruction.

上記のステップS42において、投光部110A,110Bの両方から測定対象物Sに測定光が照射される場合、一方の投光部110Aからの測定光に対応する一方のパターン画像が取得されるとともに、他方の投光部110Bからの測定光に対応する他方のパターン画像が取得される。   In step S42 described above, when the measurement object S is irradiated with the measurement object S from both the light projecting units 110A and 110B, one pattern image corresponding to the measurement light from the one light projecting unit 110A is acquired. The other pattern image corresponding to the measurement light from the other light projecting unit 110B is acquired.

ステップS43において、一方の投光部110Aからの測定光に対応する一方の主立体形状データが生成されるとともに、他方の投光部110Bからの測定光に対応する他方の主立体形状データが生成される。一方の主立体形状データと他方の主立体形状データとが適切な重み付けで合成されることにより、一の主立体形状データが生成される。   In step S43, one main stereoscopic shape data corresponding to the measurement light from one light projecting unit 110A is generated, and the other main stereoscopic shape data corresponding to the measurement light from the other light projecting unit 110B is generated. Is done. One main stereoscopic shape data is generated by combining one main stereoscopic shape data and the other main stereoscopic shape data with appropriate weighting.

上記のステップS47,S49,S51において、照明光出力部130から測定対象物Sに照明光が照射されることにより、測定対象物Sのテクスチャ画像データが生成されるが、これに限定されない。ステップS47,S49,S51において、投光部110から測定対象物Sに測定光が照射されることにより、測定対象物Sのテクスチャ画像データが生成されてもよい。この場合、形状測定装置500は照明光出力部130を含まなくてもよいので、形状測定装置500を小型化することができる。また、形状測定装置500の製造コストを低減することができる。   In steps S47, S49, and S51 described above, the illumination light is applied to the measurement object S from the illumination light output unit 130, and the texture image data of the measurement object S is generated. However, the present invention is not limited to this. In steps S47, S49, and S51, texture image data of the measurement object S may be generated by irradiating the measurement object S with the measurement light from the light projecting unit 110. In this case, since the shape measuring apparatus 500 does not need to include the illumination light output unit 130, the shape measuring apparatus 500 can be downsized. Moreover, the manufacturing cost of the shape measuring apparatus 500 can be reduced.

上記の形状測定処理においては、全焦点テクスチャ画像が選択されたか否かが判定された後にHDR画像が選択されたか否かが判定されるが、これに限定されない。HDRテクスチャ画像が選択されたか否かが判定された後に全焦点画像が選択されたか否かが判定されてもよい。   In the shape measurement process described above, it is determined whether an HDR image is selected after it is determined whether an omnifocal texture image is selected, but the present invention is not limited to this. It may be determined whether an omnifocal image has been selected after determining whether an HDR texture image has been selected.

上記の形状測定処理においては、テクスチャ画像データの生成の処理(ステップS46〜S54)が主立体形状データの生成の処理(ステップS42〜S45)の後に実行されるが、これに限定されない。テクスチャ画像データの生成の処理および主立体形状データの生成の処理はいずれが先に実行されてもよく、テクスチャ画像データの生成の処理および主立体形状データの生成の処理の一部が同時に実行されてもよい。   In the shape measurement process, the texture image data generation process (steps S46 to S54) is executed after the main stereoscopic shape data generation process (steps S42 to S45), but the present invention is not limited to this. Either the texture image data generation process or the main stereoscopic shape data generation process may be executed first, and a part of the texture image data generation process and the main stereoscopic shape data generation process are executed simultaneously. May be.

例えば、テクスチャ画像データの生成の処理(ステップS46〜S54)が行われた後に、主立体形状データの生成の処理(ステップS42〜S45)が行われてもよい。この場合でも、CPU210はステップS55の処理において合成データを生成することができる。また、ステップS54において、使用者が表示部400に表示されているテクスチャ画像を見て、テクスチャ画像が適切であるか否かを判断している間に、主立体形状データの生成の処理の一部が実行可能となる。そのため、形状測定処理を短時間でかつ効率的に実行することができる。   For example, after the process of generating texture image data (steps S46 to S54) is performed, the process of generating main stereoscopic shape data (steps S42 to S45) may be performed. Even in this case, the CPU 210 can generate composite data in the process of step S55. In step S54, while the user looks at the texture image displayed on the display unit 400 and determines whether the texture image is appropriate, the process of generating the main stereoscopic shape data is performed. Can be executed. Therefore, the shape measurement process can be executed efficiently in a short time.

また、主立体形状データの生成の処理の前にテクスチャ画像データの生成の処理が行われた場合、副立体形状データに基づいて測定対象物SのZ方向の寸法の上端および下端を算出可能となる。したがって、主立体形状データの生成の処理において、受光部120の焦点を測定対象物SのZ方向の中心に自動的に調整することができる。この場合、主立体形状データの精度をさらに向上させることができる。   In addition, when the texture image data generation process is performed before the main stereoscopic shape data generation process, the upper and lower ends of the dimension in the Z direction of the measuring object S can be calculated based on the sub stereoscopic shape data. Become. Therefore, in the process of generating the main stereoscopic shape data, the focus of the light receiving unit 120 can be automatically adjusted to the center of the measurement object S in the Z direction. In this case, the accuracy of the main stereoscopic shape data can be further improved.

一方、図30〜図32の形状測定処理のようにテクスチャ画像データの生成の処理の前に主立体形状データの生成の処理が行われた場合、主立体形状データに基づいて測定対象物SのZ方向の寸法の上端および下端を算出可能となる。したがって、テクスチャ画像データの生成の処理において、全焦点テクスチャ画像データの生成する際に、受光部120に対するステージ140のZ方向の移動範囲を最小限にしかつ移動間隔を適切に設定することができる。これにより、全焦点テクスチャ画像データを高速に生成することができる。   On the other hand, when the process of generating the main stereoscopic shape data is performed before the process of generating the texture image data as in the shape measurement process of FIGS. 30 to 32, the measurement object S is measured based on the main stereoscopic shape data. It becomes possible to calculate the upper end and the lower end of the dimension in the Z direction. Therefore, in the process of generating the texture image data, when generating the omnifocal texture image data, the movement range of the stage 140 with respect to the light receiving unit 120 in the Z direction can be minimized and the movement interval can be set appropriately. Thereby, omnifocal texture image data can be generated at high speed.

(5)効果
本実施の形態に係る形状測定装置500においては、三角測距方式により測定対象物Sの立体形状を示す主立体形状データが高い精度で生成される。また、測定対象物Sの各部分が受光部120の被写界深度の範囲内に位置する場合における測定対象物Sのテクスチャ画像データが合成されることにより、全焦点テクスチャ画像データが生成される。そのため、全焦点テクスチャ画像データは、測定対象物Sの表面全体にわたる表面状態を鮮明に示す。
(5) Effect In the shape measuring apparatus 500 according to the present embodiment, main three-dimensional shape data indicating the three-dimensional shape of the measuring object S is generated with high accuracy by the triangulation method. Further, the omnifocal texture image data is generated by synthesizing the texture image data of the measurement object S when each part of the measurement object S is located within the range of the depth of field of the light receiving unit 120. . Therefore, the omnifocal texture image data clearly shows the surface state over the entire surface of the measuring object S.

これにより、主立体形状データと全焦点テクスチャ画像データとを合成した合成データは、高い精度で測定された測定対象物Sの立体形状を示しかつ測定対象物Sの表面状態を鮮明に示す。合成データに基づく合成画像が表示部400に表示される。その結果、使用者は、測定対象物Sの形状を高い精度で測定しつつ測定対象物Sの表面状態を鮮明に観測することができる。   Thereby, the synthesized data obtained by synthesizing the main stereoscopic shape data and the omnifocal texture image data shows the stereoscopic shape of the measuring object S measured with high accuracy and clearly shows the surface state of the measuring object S. A composite image based on the composite data is displayed on the display unit 400. As a result, the user can clearly observe the surface state of the measuring object S while measuring the shape of the measuring object S with high accuracy.

また、本実施の形態に係る形状測定装置500においては、主立体形状データを生成するために適した一方および他方の測定光の光量条件とテクスチャ画像データを生成するために適した照明光の光量条件とが個別に設定される。これにより、主立体形状データをより高精度で生成することが可能になるとともに、測定対象物Sの表面全体にわたる表面状態をより鮮明に示すテクスチャ画像データを生成することが可能になる。その結果、測定対象物Sの形状をより高い精度で測定しつつ測定対象物Sの表面状態をより鮮明に観測することができる。   In the shape measuring apparatus 500 according to the present embodiment, the light quantity condition of one and the other measurement light suitable for generating main stereoscopic shape data and the light quantity of illumination light suitable for generating texture image data Conditions are set individually. As a result, it is possible to generate the main stereoscopic shape data with higher accuracy, and it is possible to generate texture image data that shows the surface state over the entire surface of the measuring object S more clearly. As a result, the surface state of the measuring object S can be observed more clearly while measuring the shape of the measuring object S with higher accuracy.

[6]焦点調整の補助機能
(1)焦点調整の補助機能の概要
形状測定の準備における第2の調整において、受光部120の焦点の調整が行われることにより、測定対象物Sは受光部120のZ方向の測定可能範囲内に位置する。これにより、測定対象物Sの形状を正確に測定することができる。ここで、測定対象物Sが受光部120の被写界深度の範囲および受光部120のZ方向の測定可能範囲の中心付近、すなわち受光部120の焦点付近に位置する場合、測定対象物Sの形状をより正確に測定することができる。
[6] Auxiliary Function for Focus Adjustment (1) Outline of Auxiliary Function for Focus Adjustment In the second adjustment in the preparation for shape measurement, the focus of the light receiving unit 120 is adjusted, whereby the measuring object S is received by the light receiving unit 120. It is located within the measurable range in the Z direction. Thereby, the shape of the measuring object S can be measured accurately. Here, when the measuring object S is located near the center of the range of the depth of field of the light receiving unit 120 and the measurable range of the light receiving unit 120 in the Z direction, that is, near the focal point of the light receiving unit 120, The shape can be measured more accurately.

しかしながら、Zステージ142を調整して被写界深度の範囲内において測定対象物SをZ方向に移動させても、表示部400に表示される測定対象物Sの画像はほとんど変化しない。例えば、被写界深度が5mmであり、視野サイズが25mm×25mmであるとする。この場合、被写界深度5mmの全範囲において、測定対象物Sが受光部120の焦点位置にあるように観察される。そのため、焦点の調整においては数mm程度のずれが発生し得ると考えられる。このように、測定対象物Sを受光部120の焦点付近に位置させることは困難である。   However, even when the Z stage 142 is adjusted to move the measuring object S in the Z direction within the range of the depth of field, the image of the measuring object S displayed on the display unit 400 hardly changes. For example, it is assumed that the depth of field is 5 mm and the visual field size is 25 mm × 25 mm. In this case, the measurement object S is observed to be at the focal position of the light receiving unit 120 in the entire range of the depth of field of 5 mm. For this reason, it is considered that a deviation of about several mm may occur in the focus adjustment. Thus, it is difficult to position the measuring object S near the focal point of the light receiving unit 120.

また、測定対象物Sの上面がそれぞれ高さが異なる複数の部分を有する場合には、複数の部分のうち1つの部分が受光部120の焦点に位置しても、他の部分が受光部120のZ方向の測定可能範囲から外れる場合がある。   Further, when the upper surface of the measuring object S has a plurality of portions having different heights, even if one portion of the plurality of portions is located at the focal point of the light receiving unit 120, the other portion is the light receiving unit 120. May be out of the measurable range in the Z direction.

そこで、本実施の形態に係る形状測定装置500には、受光部120の焦点付近に測定対象物Sを適切に位置させることを補助する機能(以下、焦点調整の補助機能と呼ぶ)が設けられる。   Therefore, the shape measuring apparatus 500 according to the present embodiment is provided with a function that assists in appropriately positioning the measuring object S near the focal point of the light receiving unit 120 (hereinafter referred to as an auxiliary function for focus adjustment). .

焦点調整の補助機能においては、受光部120の焦点の調整時に、まずステージ140上の測定対象物Sに図2の照明光出力部130から照明光が照射される。測定対象物Sに照明光が照射された状態で、ステージ140の位置がZ方向に移動することにより、測定対象物Sの複数の部分がそれぞれ受光部120の被写界深度の範囲内に位置する状態でテクスチャ画像データが生成される。このようにして生成される複数のテクスチャ画像データに基づいて、全焦点テクスチャ画像データが生成される。   In the focus adjustment auxiliary function, when the focus of the light receiving unit 120 is adjusted, the measurement object S on the stage 140 is first irradiated with illumination light from the illumination light output unit 130 of FIG. When the measurement object S is irradiated with illumination light, the position of the stage 140 moves in the Z direction, so that a plurality of portions of the measurement object S are positioned within the depth of field of the light receiving unit 120, respectively. In this state, texture image data is generated. Based on the plurality of texture image data generated in this manner, omnifocal texture image data is generated.

測定対象物Sの複数の部分にそれぞれ対応する複数のテクスチャ画像データが生成される際に、測定対象物Sの複数の部分にそれぞれ受光部120の焦点が合った状態での受光部120と測定対象物Sとの相対的な距離に基づいて測定対象物Sの各部分の高さが算出される。測定対象物Sの全ての部分について算出された高さを合成することにより、副立体形状データが生成される。   When a plurality of texture image data respectively corresponding to a plurality of portions of the measurement object S is generated, the light receiving unit 120 and the measurement in a state where the light reception unit 120 is focused on the plurality of portions of the measurement object S, respectively. Based on the relative distance to the object S, the height of each part of the measurement object S is calculated. By substituting the heights calculated for all the parts of the measuring object S, sub-stereoscopic shape data is generated.

上述のように、全焦点テクスチャ画像データによれば、測定対象物Sの上面が互いに異なる高さの複数の部分を有する場合に、それらの全ての部分にそれぞれ焦点が合った全焦点テクスチャ画像を表示部400に表示させることができる。また、副立体形状データによれば、測定対象物Sの複数の部分の高さを示す副立体形状画像を表示部400に表示させることができる。本実施の形態においては、副立体形状画像は、測定対象物Sが三次元的に表された副立体形状三次元画像と、測定対象物Sが二次元的に表された副立体形状二次元画像とを含む。副立体形状三次元画像および副立体形状二次元画像の詳細は後述する。   As described above, according to the omnifocal texture image data, when the upper surface of the measuring object S has a plurality of parts having different heights, the omnifocal texture image in which each of those parts is in focus is obtained. It can be displayed on the display unit 400. Further, according to the sub-stereoscopic shape data, a sub-stereoscopic shape image indicating the heights of the plurality of portions of the measurement object S can be displayed on the display unit 400. In the present embodiment, the sub-stereoscopic shape image includes a sub-stereoscopic shape three-dimensional image in which the measuring object S is three-dimensionally represented and a sub-stereoscopic shape two-dimensional image in which the measuring object S is two-dimensionally represented. Including images. Details of the sub-stereoscopic shape three-dimensional image and the sub-stereoscopic shape two-dimensional image will be described later.

本例の焦点調整の補助機能によれば、使用者は、上記のようにして副立体形状データが生成された後、生成された副立体形状データに基づいて、測定対象物Sの位置を調整することができる。   According to the focus adjustment auxiliary function of this example, the user adjusts the position of the measuring object S based on the generated sub-stereoscopic shape data after the sub-stereoscopic shape data is generated as described above. can do.

図33は、焦点調整の補助機能に基づいて使用者が手動で測定対象物Sの位置を調整する一例を説明するための図である。図33(a),(b)にはステージ140上に載置された測定対象物Sの側面図が示される。   FIG. 33 is a diagram for explaining an example in which the user manually adjusts the position of the measuring object S based on the focus adjustment auxiliary function. FIGS. 33A and 33B are side views of the measuring object S placed on the stage 140. FIG.

図33(a)に示すように、本例の測定対象物Sは階段状に形成された3つの上面SH1,SH2,SH3を有する。上面SH2は上面SH1よりも高く、上面SH3は上面SH2よりも高い。また、最も低い上面SH1と最も高い上面SH3との間の距離、すなわち受光部120の光軸方向における複数の上面SH1〜SH3の範囲MDは、受光部120のZ方向の測定可能範囲DFよりも小さい。 As shown in FIG. 33A, the measuring object S of this example has three upper surfaces SH1, SH2, and SH3 formed in a step shape. The upper surface SH2 is higher than the upper surface SH1, and the upper surface SH3 is higher than the upper surface SH2. Further, the distance between the lowest upper surface SH1 and the highest upper surface SH3, that is, the range MD of the plurality of upper surfaces SH1 to SH3 in the optical axis direction of the light receiving unit 120 is larger than the measurable range DF of the light receiving unit 120 in the Z direction. small.

焦点調整の補助機能によれば、測定対象物Sについて上記の副立体形状データが生成されることにより、生成された副立体形状データおよび受光部120と測定対象物Sとの相対的な距離に基づいて、受光部120の焦点または受光部120のZ方向の測定可能範囲DFと測定対象物Sとの位置関係が算出される。算出された位置関係を識別可能に副立体形状画像が図1の表示部400に表示される。副立体形状画像の表示例については後述する。 According to the auxiliary function of the focus adjustment, the above-described sub-stereoscopic shape data is generated for the measuring object S, so that the generated sub-stereoscopic shape data and the relative distance between the light receiving unit 120 and the measuring object S are set. Based on this, the positional relationship between the focus of the light receiving unit 120 or the measurable range DF of the light receiving unit 120 in the Z direction and the measurement object S is calculated. A sub-stereoscopic shape image is displayed on the display unit 400 of FIG. 1 so that the calculated positional relationship can be identified. A display example of the sub-stereoscopic shape image will be described later.

使用者は表示部400に表示される副立体形状画像を見ながらステージ操作部145を操作する。この場合、表示部400においては、ステージ操作部145が操作され、ステージ140のZ方向の位置が変化するごとに、その変化時点の受光部120のZ方向の測定可能範囲DFと測定対象物Sとの位置関係が識別可能に副立体形状画像が表示される。 The user operates the stage operation unit 145 while viewing the sub-stereoscopic shape image displayed on the display unit 400. In this case, in the display unit 400, whenever the stage operation unit 145 is operated and the position of the stage 140 in the Z direction changes, the measurable range DF in the Z direction of the light receiving unit 120 at the time of change and the measurement object S. The sub-stereoscopic shape image is displayed so that the positional relationship between and can be identified.

それにより、使用者は、図33(b)に示すように、上面SH1,SH2,SH3が受光部120のZ方向の測定可能範囲DF内に位置するようにステージ140をZ方向に移動させる。このようにして、使用者は、測定対象物Sを受光部120の焦点に適切かつ容易に位置させることができる。その後、三角測距方式の形状測定により測定対象物Sの上面全体を高い精度で測定することができる。 Accordingly, the user moves the stage 140 in the Z direction so that the upper surfaces SH1, SH2, and SH3 are located within the measurable range DF in the Z direction of the light receiving unit 120, as shown in FIG. In this way, the user can appropriately and easily position the measuring object S at the focal point of the light receiving unit 120. Thereafter, the entire upper surface of the measuring object S can be measured with high accuracy by measuring the shape of the triangulation method.

図34は、焦点調整の補助機能に基づいて使用者が手動で測定対象物Sの位置を調整する他の例を説明するための図である。図34(a)〜(c)にはステージ140上に載置された測定対象物Sの側面図が示される。   FIG. 34 is a diagram for explaining another example in which the user manually adjusts the position of the measuring object S based on the focus adjustment auxiliary function. 34A to 34C are side views of the measuring object S placed on the stage 140. FIG.

図34(a)に示すように、本例の測定対象物Sは、受光部120の光軸方向における複数の上面SH1〜SH3の範囲MDが受光部120のZ方向の測定可能範囲DFよりも大きい点を除いて図33(a)の測定対象物Sと同じ構成を有する。 As shown in FIG. 34A, the measurement object S of the present example has a range MD of the plurality of upper surfaces SH1 to SH3 in the optical axis direction of the light receiving unit 120 that is larger than the measurable range DF in the Z direction of the light receiving unit 120. Except for the large point, it has the same configuration as the measuring object S of FIG.

本例においても、焦点調整の補助機能により、測定対象物Sについて副立体形状データが生成される。生成された副立体形状データおよび受光部120と測定対象物Sとの相対的な距離に基づいて、受光部120の焦点または受光部120のZ方向の測定可能範囲DFと測定対象物Sとの位置関係が算出される。算出された位置関係を識別可能に副立体形状画像が図1の表示部400に表示される。 Also in this example, the sub-stereoscopic shape data is generated for the measuring object S by the focus adjustment auxiliary function. Based on the generated sub-stereoscopic shape data and the relative distance between the light receiving unit 120 and the measuring object S, the measurable range DF in the Z direction of the focus of the light receiving unit 120 or the light receiving unit 120 and the measuring object S are compared. The positional relationship is calculated. A sub-stereoscopic shape image is displayed on the display unit 400 of FIG. 1 so that the calculated positional relationship can be identified.

この場合、使用者は、表示部400に表示される副立体形状画像を見ることにより、受光部120の光軸方向における複数の上面SH1〜SH3の範囲MDが受光部120のZ方向の測定可能範囲DFよりも大きいことを容易に認識することができる。 In this case, the user can measure the range MD of the plurality of upper surfaces SH1 to SH3 in the optical axis direction of the light receiving unit 120 in the Z direction of the light receiving unit 120 by looking at the sub-stereoscopic shape image displayed on the display unit 400. It can be easily recognized that it is larger than the range DF .

本例のように、受光部120の光軸方向における複数の上面SH1〜SH3の範囲が受光部120のZ方向の測定可能範囲DFよりも大きい場合、一部の上面(例えば上面SH1,SH2)が測定可能範囲DF内に位置するようにステージ140が調整されても、他部の上面(例えば上面SH3)が測定可能範囲DFから外れる。この状態で、三角測距方式の形状測定により測定対象物Sの全ての上面SH1〜SH3を同時に測定しても、測定可能範囲DFから外れる部分についての測定精度は著しく低下する。 As in this example, when the range of the plurality of upper surfaces SH1 to SH3 in the optical axis direction of the light receiving unit 120 is larger than the measurable range DF in the Z direction of the light receiving unit 120, some upper surfaces (for example, upper surfaces SH1 and SH2) Even if the stage 140 is adjusted so as to be positioned within the measurable range DF , the upper surface (for example, the upper surface SH3) of the other part is out of the measurable range DF . In this state, even if all the upper surfaces SH1 to SH3 of the measuring object S are simultaneously measured by the shape measurement of the triangulation method, the measurement accuracy for the portion outside the measurable range DF is significantly lowered.

そこで、使用者は、副立体形状画像を見ながら、例えば図34(b)に示すように、一部の上面(上面SH1,SH2)が受光部120のZ方向の測定可能範囲DF内に位置するようにステージ140をZ方向に移動させる。この状態で、三角測距方式の形状測定により、測定対象物Sの一部の上面を高い精度で測定する。 Therefore, while viewing the sub-stereoscopic shape image, the user locates a part of the upper surface (upper surface SH1, SH2) within the measurable range DF in the Z direction of the light receiving unit 120, for example, as shown in FIG. Then, the stage 140 is moved in the Z direction. In this state, the upper surface of a part of the measuring object S is measured with high accuracy by the shape measurement of the triangulation method.

続いて、使用者は、例えば図34(c)に示すように、他部の上面(上面SH3)が受光部120のZ方向の測定可能範囲DF内に位置するようにステージ140をZ方向に移動させる。この状態で、三角測距方式の形状測定により、測定対象物Sの他部の上面を高い精度で測定する。 Subsequently, the user moves the stage 140 in the Z direction so that the upper surface (upper surface SH3) of the other part is located within the measurable range DF in the Z direction of the light receiving unit 120, for example, as shown in FIG. Move. In this state, the upper surface of the other part of the measuring object S is measured with high accuracy by the shape measurement of the triangulation method.

上記のように、測定対象物Sの一部および他部にそれぞれ対応する複数の主立体形状データが生成される場合には、測定対象物Sの一部および他部にそれぞれ対応する複数の主立体形状データを合成する。   As described above, when a plurality of main three-dimensional shape data respectively corresponding to a part and other parts of the measurement object S are generated, a plurality of main objects respectively corresponding to a part and other parts of the measurement object S are generated. Synthesize 3D shape data.

具体的には、測定対象物Sの一部(上面SH1,SH2)が受光部120のZ方向の測定可能範囲DF内に位置する状態で得られた主立体形状データのうち測定可能範囲DF内に位置する一部に対応するデータを抽出する。また、測定対象物Sの他部(上面SH3)が受光部120のZ方向の測定可能範囲DF内に位置する状態で得られた主立体形状データのうち測定可能範囲DF内に位置する他部に対応するデータを抽出する。抽出されたデータを合成する。それにより、使用者は、上面全体(上面SH1,SH2,SH3)について高い精度で測定された主立体形状データを得ることができる。 Specifically, a part of the measuring object S (upper surface SH1, SH2) is within the measurable range DF of the main stereoscopic shape data obtained in a state located in the measurement range DF in the Z direction of the light receiving portion 120 Extract data corresponding to the part located in. Further, another portion of the other part of the measuring object S (upper surface SH3) is positioned within the measurable range DF of the main stereoscopic shape data obtained in a state located in the measurement range DF in the Z direction of the light receiving portion 120 Extract data corresponding to. Synthesize the extracted data. Thereby, the user can obtain main three-dimensional shape data measured with high accuracy for the entire upper surface (the upper surfaces SH1, SH2, and SH3).

図33および図34に示される測定対象物Sの位置の調整は、自動で行われてもよい。図35は、焦点調整の補助機能に基づいて自動で測定対象物Sの位置が調整される一例を説明するための図である。図35(a)〜(c)にはステージ140上に載置された測定対象物Sの側面図が示される。   The adjustment of the position of the measuring object S shown in FIGS. 33 and 34 may be performed automatically. FIG. 35 is a diagram for explaining an example in which the position of the measuring object S is automatically adjusted based on the focus adjustment auxiliary function. 35A to 35C are side views of the measuring object S placed on the stage 140. FIG.

図35(a)に示すように、本例の測定対象物Sは図33(a)の測定対象物Sと同じ構成を有する。本例においても、焦点調整の補助機能により、測定対象物Sについて副立体形状データが生成される。生成された副立体形状データおよび受光部120と測定対象物Sとの相対的な距離に基づいて、受光部120の焦点または受光部120のZ方向の測定可能範囲DFと測定対象物Sとの位置関係が算出される。 As shown in FIG. 35 (a), the measurement object S of this example has the same configuration as the measurement object S of FIG. 33 (a). Also in this example, the sub-stereoscopic shape data is generated for the measuring object S by the focus adjustment auxiliary function. Based on the generated sub-stereoscopic shape data and the relative distance between the light receiving unit 120 and the measuring object S, the measurable range DF in the Z direction of the focus of the light receiving unit 120 or the light receiving unit 120 and the measuring object S are compared. The positional relationship is calculated.

この場合、図1のCPU210は、三角測距方式の形状測定前に、生成された副立体形状データに基づいて、受光部120の光軸方向における複数の上面SH1〜SH3の範囲MDが受光部120のZ方向の測定可能範囲DF以下であるか否かを判定する。 In this case, the CPU 210 of FIG. 1 determines that the range MD of the plurality of upper surfaces SH1 to SH3 in the optical axis direction of the light receiving unit 120 is based on the generated sub-stereoscopic shape data before measuring the shape of the triangulation method. It is determined whether or not the measurable range DF is 120 or less in the Z direction.

本例のように、複数の上面SH1〜SH3の範囲MDが受光部120のZ方向の測定可能範囲DF以下である場合、CPU210は、図35(b)に示すように、受光部120の光軸方向において測定対象物S上の複数の上面SH1,SH2,SH3の平均位置Zc1を算出する。 When the range MD of the plurality of upper surfaces SH1 to SH3 is equal to or less than the measurable range DF in the Z direction of the light receiving unit 120 as in this example, the CPU 210 performs light of the light receiving unit 120 as illustrated in FIG. An average position Zc1 of the plurality of upper surfaces SH1, SH2, SH3 on the measuring object S in the axial direction is calculated.

続いて、CPU210は、算出された平均位置Zc1および算出された上記の位置関係に基づいて、測定対象物Sの平均位置Zc1が受光部120の焦点に位置するようにステージ140をZ方向に移動させる。その結果、図35(c)に示すように、上面SH1,SH2,SH3が受光部120のZ方向の測定可能範囲DF内に位置する。このようにして、受光部120の焦点に対する測定対象物Sの位置が自動で調整される。その後、三角測距方式の形状測定により測定対象物Sの上面全体を高い精度で測定する。 Subsequently, the CPU 210 moves the stage 140 in the Z direction so that the average position Zc1 of the measuring object S is located at the focal point of the light receiving unit 120 based on the calculated average position Zc1 and the calculated positional relationship. Let As a result, as shown in FIG. 35C, the upper surfaces SH1, SH2, and SH3 are located within the measurable range DF in the Z direction of the light receiving unit 120. In this way, the position of the measuring object S with respect to the focal point of the light receiving unit 120 is automatically adjusted. Thereafter, the entire upper surface of the measuring object S is measured with high accuracy by measuring the shape of the triangulation method.

本例では、測定対象物Sの位置が自動的に調整されるので、副立体形状画像は図1の表示部400に表示されなくてもよい。   In this example, since the position of the measuring object S is automatically adjusted, the sub-stereoscopic shape image may not be displayed on the display unit 400 in FIG.

図36は、焦点調整の補助機能に基づいて自動で測定対象物Sの位置が調整される他の例を説明するための図である。図36(a)〜(d)にはステージ140上に載置された測定対象物Sの側面図が示される。   FIG. 36 is a diagram for explaining another example in which the position of the measuring object S is automatically adjusted based on the focus adjustment auxiliary function. 36A to 36D show side views of the measuring object S placed on the stage 140. FIG.

図36(a)に示すように、本例の測定対象物Sは図34(a)の測定対象物Sと同じ構成を有する。本例においても、焦点調整の補助機能により、測定対象物Sについて副立体形状データが生成される。生成された副立体形状データおよび受光部120と測定対象物Sとの相対的な距離に基づいて、受光部120の焦点または受光部120のZ方向の測定可能範囲DFと測定対象物Sとの位置関係が算出される。 As shown in FIG. 36 (a), the measurement object S of this example has the same configuration as the measurement object S of FIG. 34 (a). Also in this example, the sub-stereoscopic shape data is generated for the measuring object S by the focus adjustment auxiliary function. Based on the generated sub-stereoscopic shape data and the relative distance between the light receiving unit 120 and the measuring object S, the measurable range DF in the Z direction of the focus of the light receiving unit 120 or the light receiving unit 120 and the measuring object S are compared. The positional relationship is calculated.

図35の例と同様に、図1のCPU210は、三角測距方式の形状測定前に、生成された副立体形状データに基づいて、受光部120の光軸方向における複数の上面SH1〜SH3の範囲MDが受光部120のZ方向の測定可能範囲DF以下であるか否かを判定する。 Similar to the example of FIG. 35, the CPU 210 of FIG. 1 determines the plurality of upper surfaces SH1 to SH3 in the optical axis direction of the light receiving unit 120 based on the generated sub-stereoscopic shape data before measuring the shape of the triangulation method. It is determined whether or not the range MD is less than or equal to the measurable range DF in the Z direction of the light receiving unit 120.

本例のように、複数の上面SH1〜SH3の範囲MDが受光部120のZ方向の測定可能範囲DFよりも大きい場合、CPU210は、算出された上記の位置関係に基づいて、例えば測定対象物Sの最低の上面SH1が受光部120の焦点に位置するようにステージ140をZ方向に移動させる。その結果、図36(b)に示すように、一部の上面(上面SH1,SH2)が受光部120のZ方向の測定可能範囲DF内に位置する。この状態で、三角測距方式の形状測定により測定対象物Sを測定する。 As in this example, when the range MD of the plurality of upper surfaces SH1 to SH3 is larger than the measurable range DF in the Z direction of the light receiving unit 120, the CPU 210, for example, based on the calculated positional relationship, The stage 140 is moved in the Z direction so that the lowest upper surface SH1 of S is positioned at the focal point of the light receiving unit 120. As a result, as shown in FIG. 36B, some upper surfaces (upper surfaces SH1 and SH2) are positioned within the measurable range DF in the Z direction of the light receiving unit 120. In this state, the measuring object S is measured by the shape measurement of the triangulation method.

次に、CPU210は、受光部120の焦点または受光部120のZ方向の測定可能範囲DFと測定対象物Sとの位置関係を算出するとともに、算出された位置関係に基づいて測定対象物Sの最高の上面SH3が受光部120のZ方向の測定可能範囲DF内にあるか否かを判定する。 Next, the CPU 210 calculates the positional relationship between the focal point of the light receiving unit 120 or the measurable range DF of the light receiving unit 120 in the Z direction and the measurement target S, and the measurement target S of the measurement target S is calculated based on the calculated positional relationship. It is determined whether or not the highest upper surface SH3 is within the measurable range DF of the light receiving unit 120 in the Z direction.

上面SH3が受光部120のZ方向の測定可能範囲DF内にない場合、CPU210は、予め定められた間隔分ステージ140を下方へ移動させる。それにより、図36(c)に示すように、受光部120のZ方向の測定可能範囲DF内に位置する測定対象物Sの部分が変更される。この状態で、三角測距方式の形状測定により測定対象物Sを測定する。 When the upper surface SH3 is not within the measurable range DF in the Z direction of the light receiving unit 120, the CPU 210 moves the stage 140 downward by a predetermined interval. Thereby, as shown in FIG. 36C, the portion of the measuring object S located within the measurable range DF in the Z direction of the light receiving unit 120 is changed. In this state, the measuring object S is measured by the shape measurement of the triangulation method.

このときステージ140がZ方向に移動する範囲および間隔は、全焦点テクスチャ画像を生成する際に受光部120とステージ140とをZ方向に相対的に移動させる範囲および間隔と同様に、形状測定装置500の固有の値である。ステージ140がZ方向に移動する間隔は、被写界深度の範囲よりも小さい値に設定されてもよい。   At this time, the range and interval in which the stage 140 moves in the Z direction are the same as the range and interval in which the light receiving unit 120 and the stage 140 are relatively moved in the Z direction when generating an all-focus texture image. A unique value of 500. The interval at which the stage 140 moves in the Z direction may be set to a value smaller than the range of the depth of field.

なお、測定対象物Sの形状測定処理を予め実行した場合、または測定対象物Sの形状を示すデータ(例えばCADデータ)を予め保有している場合など、測定対象物Sの形状が既知である場合には、このデータに基づいて最適な移動範囲および間隔を決定してもよい。また、測定対象物Sの高さ形状の勾配に応じて上記の間隔を変化させてもよい。さらに、焦点調整の補助機能においてステージ140と受光部120との相対的なZ方向の移動を規定する上記のパラメータは使用者により任意に設定可能であってもよい。   Note that the shape of the measurement object S is known, for example, when the shape measurement process of the measurement object S is executed in advance or when data indicating the shape of the measurement object S (for example, CAD data) is held in advance. In some cases, the optimal movement range and interval may be determined based on this data. Further, the interval may be changed according to the height-shaped gradient of the measuring object S. Further, in the focus adjustment auxiliary function, the above-mentioned parameter defining the relative movement in the Z direction between the stage 140 and the light receiving unit 120 may be arbitrarily set by the user.

次に、CPU210は、再び受光部120の焦点または受光部120のZ方向の測定可能範囲DFと測定対象物Sとの位置関係を算出するとともに、算出された位置関係に基づいて測定対象物Sの最高の上面SH3が測定可能範囲DF内にあるか否かを判定する。CPU210は、上記の一連の動作を繰り返す。その結果、図36(d)に示すように、上面SH3が受光部120のZ方向の測定可能範囲DF内に位置すると、ステージ140の下方への移動を停止する。 Next, the CPU 210 calculates again the positional relationship between the focus of the light receiving unit 120 or the measurable range DF of the light receiving unit 120 in the Z direction and the measurement target S, and the measurement target S based on the calculated positional relationship. It is determined whether or not the highest upper surface SH3 is within the measurable range DF . The CPU 210 repeats the above series of operations. As a result, as shown in FIG. 36D, when the upper surface SH3 is positioned within the measurable range DF in the Z direction of the light receiving unit 120, the downward movement of the stage 140 is stopped.

その後、CPU210は、ステージ140を複数回移動させることにより生成された複数の主立体形状データを合成する。それにより、使用者は、上面全体(上面SH1,SH2,SH3)について高い精度で生成された主立体形状データを得ることができる。   Thereafter, the CPU 210 synthesizes a plurality of main stereoscopic shape data generated by moving the stage 140 a plurality of times. Thereby, the user can obtain main three-dimensional shape data generated with high accuracy for the entire upper surface (upper surfaces SH1, SH2, SH3).

本例においても、図35の例と同様に、測定対象物Sの位置が自動的に調整されるので、副立体形状画像は図1の表示部400に表示されなくてもよい。   Also in this example, since the position of the measuring object S is automatically adjusted as in the example of FIG. 35, the sub-stereoscopic shape image may not be displayed on the display unit 400 of FIG.

(2)副立体形状画像の表示例
上記のように、例えば使用者が手動で測定対象物Sの位置を調整する場合、受光部120の焦点または受光部120のZ方向の測定可能範囲DFと測定対象物Sとの位置関係が識別可能に副立体形状画像が図1の表示部400に表示される。この場合、表示部400の画面上には、副立体形状画像に重畳されるように、または副立体形状画像とともに、上記の位置関係を示す画像(以下、位置関係画像と呼ぶ。)が表示される。
(2) Display example of sub-stereoscopic shape image As described above, for example, when the user manually adjusts the position of the measuring object S, the focus of the light receiving unit 120 or the measurable range DF in the Z direction of the light receiving unit 120 A sub-stereoscopic shape image is displayed on the display unit 400 in FIG. 1 so that the positional relationship with the measurement object S can be identified. In this case, an image indicating the above positional relationship (hereinafter referred to as a positional relationship image) is displayed on the screen of the display unit 400 so as to be superimposed on the substereoscopic shape image or together with the substereoscopic shape image. The

副立体形状画像の表示例について説明する。図37(a)は、副立体形状三次元画像の一表示例を示す図である。図37(a)の副立体形状三次元画像においては、測定対象物Sの表面形状が高さに応じて互いに異なる複数種類の色で示される。図37(a)の例では、複数種類の色の代わりに、互いに異なる複数種類のハッチングにより測定対象物Sの表面形状の高さが示される。ハッチングの濃度が高い部分ほど測定対象物Sの表面がZ方向において高い位置にあることを示し、ハッチングの濃度が低い部分ほど測定対象物Sの表面がZ方向において低い位置にあることを示す。この場合、使用者は、副立体形状三次元画像を見ることにより、測定対象物Sの表面形状を容易に認識することができる。   A display example of the sub-stereoscopic shape image will be described. FIG. 37A shows a display example of a sub-stereoscopic shape three-dimensional image. In the sub-stereoscopic shape three-dimensional image of FIG. 37A, the surface shape of the measuring object S is indicated by a plurality of different colors depending on the height. In the example of FIG. 37A, the height of the surface shape of the measuring object S is indicated by a plurality of different types of hatching instead of a plurality of types of colors. A portion with a higher hatching density indicates that the surface of the measuring object S is at a higher position in the Z direction, and a part with a lower hatching density indicates that the surface of the measuring object S is at a lower position in the Z direction. In this case, the user can easily recognize the surface shape of the measuring object S by viewing the sub-stereoscopic shape three-dimensional image.

図37(b)は、副立体形状二次元画像の一表示例を示す図である。図37(b)の副立体形状二次元画像においても、測定対象物Sの表面形状が高さに応じて互いに異なる複数種類の色で表示される。図37(b)の例では、図37(a)の例と同様に、複数種類の色の代わりに、互いに異なる複数種類のハッチングにより測定対象物Sの表面形状の高さが示される。使用者は、副立体形状二次元画像を見ることにより、測定対象物Sの表面形状を容易に認識することができる。   FIG. 37B is a diagram illustrating a display example of the sub-stereoscopic shape two-dimensional image. Also in the sub-stereoscopic shape two-dimensional image of FIG. 37B, the surface shape of the measuring object S is displayed in a plurality of different colors depending on the height. In the example of FIG. 37B, as in the example of FIG. 37A, the height of the surface shape of the measuring object S is indicated by a plurality of different types of hatching instead of a plurality of types of colors. The user can easily recognize the surface shape of the measuring object S by viewing the sub-stereoscopic shape two-dimensional image.

図38(a)は、位置関係画像が重畳された副立体形状三次元画像の一表示例を示す図である。図38(a)の副立体形状三次元画像においても、図37(a)の例と同様に、測定対象物Sの表面形状が高さに応じて互いに異なる複数種類の色で表示される。さらに、図38(a)の例では、測定対象物Sの副立体形状三次元画像上に、位置関係画像として上限面ULおよび下限面BLが表示される。   FIG. 38A is a diagram illustrating a display example of the sub-stereoscopic shape three-dimensional image on which the positional relationship image is superimposed. Also in the sub-stereoscopic shape three-dimensional image of FIG. 38A, the surface shape of the measuring object S is displayed in a plurality of different colors depending on the height, as in the example of FIG. Furthermore, in the example of FIG. 38A, the upper limit surface UL and the lower limit surface BL are displayed as the positional relationship image on the sub-stereoscopic shape three-dimensional image of the measurement object S.

上限面ULは、Z方向(受光部120の光軸方向)における受光部120の測定可能範囲DFの上限を表す。また、下限面BLは、Z方向(受光部120の光軸方向)における受光部120の測定可能範囲DFの下限を表す。これにより、図38(a)の副立体形状三次元画像においては、上限面ULから下限面BLまでの範囲が受光部120のZ方向の測定可能範囲DFとして示される。 The upper limit surface UL represents the upper limit of the measurable range DF of the light receiving unit 120 in the Z direction (the optical axis direction of the light receiving unit 120). The lower limit plane BL represents the lower limit of the measurable range DF of the light receiving unit 120 in the Z direction (the optical axis direction of the light receiving unit 120). Thereby, in the sub-stereoscopic shape three-dimensional image of FIG. 38A, the range from the upper limit surface UL to the lower limit surface BL is shown as the measurable range DF in the Z direction of the light receiving unit 120.

使用者は、図38(a)の副立体形状三次元画像を見ることにより、測定対象物Sの表面形状を容易に認識するとともに、受光部120のZ方向の測定可能範囲DFと測定対象物Sとの位置関係を容易に認識することができる。 The user can easily recognize the surface shape of the measuring object S by looking at the sub-stereoscopic shape three-dimensional image of FIG. 38A, and can also measure the measurable range DF in the Z direction of the light receiving unit 120 and the measuring object. The positional relationship with S can be easily recognized.

例えば、使用者は、測定対象物Sの上面全体が受光部120のZ方向の測定可能範囲DF内にあるか否かを容易に認識することができる。または、使用者は、測定対象物Sにおける所望の部分が受光部120のZ方向の測定可能範囲DF内にあるか否かを容易に認識することができる。 For example, the user can easily recognize whether or not the entire upper surface of the measuring object S is within the measurable range DF of the light receiving unit 120 in the Z direction. Alternatively, the user can easily recognize whether or not a desired portion of the measuring object S is within the measurable range DF in the Z direction of the light receiving unit 120.

図38(b)は、位置関係画像とともに表示される副立体形状二次元画像の一表示例を示す図である。図38(b)の例では、表示部400の画面上に第1、第2および第3の表示領域410,420,430が設定される。   FIG. 38B is a diagram illustrating a display example of the sub-stereoscopic shape two-dimensional image displayed together with the positional relationship image. In the example of FIG. 38B, first, second, and third display areas 410, 420, and 430 are set on the screen of the display unit 400.

第1の表示領域410には、副立体形状二次元画像が表示される。本例の副立体形状二次元画像においては、測定対象物Sの表面のうち受光部120のZ方向の測定可能範囲DF内にある部分の形状のみが、高さに応じて互いに異なる複数種類の色で表示される。 In the first display area 410, a sub-stereoscopic shape two-dimensional image is displayed. In the sub-stereoscopic shape two-dimensional image of the present example, only the shape of the portion of the surface of the measuring object S within the measurable range DF in the Z direction of the light receiving unit 120 is different from each other according to the height. Displayed in color.

第2の表示領域420には、測定対象物Sの表面の高さ分布を示すヒストグラムが表示される。第2の表示領域420に表示されるヒストグラムにおいては縦軸が高さを表し、横軸が受光部120の画素数を表す。   In the second display area 420, a histogram indicating the height distribution of the surface of the measuring object S is displayed. In the histogram displayed in the second display area 420, the vertical axis represents the height, and the horizontal axis represents the number of pixels of the light receiving unit 120.

第2の表示領域420のヒストグラムには、位置関係画像として上限カーソルUCおよび下限カーソルBCが表示される。上限カーソルUCは、Z方向(受光部120の光軸方向)における受光部120のZ方向の測定可能範囲DFの上限を表す。下限カーソルBCは、Z方向(受光部120の光軸方向)における受光部120の測定可能範囲DFの下限を表す。これにより、図38(b)の副立体形状二次元画像においては、上限カーソルUCから下限カーソルBCまでの範囲が受光部120のZ方向の測定可能範囲DFとして示される。 In the histogram of the second display area 420, an upper limit cursor UC and a lower limit cursor BC are displayed as positional relationship images. The upper limit cursor UC represents the upper limit of the measurable range DF in the Z direction of the light receiving unit 120 in the Z direction (the optical axis direction of the light receiving unit 120). The lower limit cursor BC represents the lower limit of the measurable range DF of the light receiving unit 120 in the Z direction (the optical axis direction of the light receiving unit 120). Thereby, in the sub-stereoscopic shape two-dimensional image of FIG. 38B, the range from the upper limit cursor UC to the lower limit cursor BC is shown as the measurable range DF in the Z direction of the light receiving unit 120.

本例のヒストグラムにおいては、さらに上限カーソルUCから下限カーソルBCまでの領域上に受光部120のZ方向の測定可能範囲DFを示す彩色が施される。図38(b)の第2の表示領域420では、受光部120のZ方向の測定可能範囲DFがハッチングにより示される。 In the histogram of this example, a color indicating the measurable range DF in the Z direction of the light receiving unit 120 is further applied on the region from the upper limit cursor UC to the lower limit cursor BC. In the second display area 420 of FIG. 38B, the measurable range DF in the Z direction of the light receiving unit 120 is indicated by hatching.

第3の表示領域430は、上限表示部431、中心表示部432、幅表示部433および下限表示部434を含む。上限表示部431には、受光部120のZ方向の測定可能範囲DFの上限に対応する高さの値が表示される。中心表示部432には、受光部120のZ方向の測定可能範囲DFの中心(受光部120の焦点)に対応する高さの値が表示される。幅表示部433には、受光部120のZ方向の測定可能範囲DFの上限から下限までの距離(測定可能範囲DFの大きさ)が表示される。下限表示部434には、受光部120のZ方向の測定可能範囲DFの下限に対応する高さの値が表示される。 The third display area 430 includes an upper limit display unit 431, a center display unit 432, a width display unit 433, and a lower limit display unit 434. The upper limit display unit 431 displays a height value corresponding to the upper limit of the measurable range DF in the Z direction of the light receiving unit 120. The center display unit 432 displays a height value corresponding to the center of the measurable range DF in the Z direction of the light receiving unit 120 (the focal point of the light receiving unit 120). The width display unit 433 displays the distance (the size of the measurable range DF ) from the upper limit to the lower limit of the measurable range DF in the Z direction of the light receiving unit 120. The lower limit display unit 434 displays a height value corresponding to the lower limit of the measurable range DF in the Z direction of the light receiving unit 120.

なお、上限表示部431、中心表示部432および下限表示部434にそれぞれ表示される高さの値は、例えばステージ140のエンコーダから与えられる信号に基づいてCPU210により算出される。   The height values displayed on the upper limit display unit 431, the center display unit 432, and the lower limit display unit 434 are calculated by the CPU 210 based on, for example, a signal provided from the encoder of the stage 140.

使用者は、図38(b)の第1、第2および第3の表示領域410,420,430に表示される画像および情報を見ることにより、測定対象物Sの表面形状を容易に認識するとともに、受光部120のZ方向の測定可能範囲DFと測定対象物Sとの位置関係を容易に認識することができる。 The user easily recognizes the surface shape of the measuring object S by viewing the images and information displayed in the first, second, and third display areas 410, 420, and 430 in FIG. In addition, the positional relationship between the measurable range DF in the Z direction of the light receiving unit 120 and the measurement object S can be easily recognized.

上記のように、本実施の形態においては、使用者は、表示部400に表示される副立体形状画像および位置関係画像を見ながらステージ操作部145を操作して測定対象物Sの位置を調整する。例えば、表示部400に図38(a)または図38(b)の副立体形状画像および位置関係画像が表示された状態で、使用者が図1のステージ操作部145を操作することによりステージ140がZ方向に移動する。この場合、受光部120の焦点または受光部120のZ方向の測定可能範囲DFと測定対象物Sとの位置関係が変化する。すなわち、受光部120のZ方向の測定可能範囲DF内に位置する測定対象物Sの部分が変化する。 As described above, in the present embodiment, the user adjusts the position of the measuring object S by operating the stage operation unit 145 while viewing the sub-stereoscopic shape image and the positional relationship image displayed on the display unit 400. To do. For example, when the sub-stereoscopic shape image and the positional relationship image of FIG. 38A or FIG. 38B are displayed on the display unit 400, the user operates the stage operation unit 145 of FIG. Moves in the Z direction. In this case, the positional relationship between the focus of the light receiving unit 120 or the measurable range DF in the Z direction of the light receiving unit 120 and the measurement object S changes. That is, the part of the measuring object S located within the measurable range DF in the Z direction of the light receiving unit 120 changes.

図39(a)に図38(a)の表示状態からステージ140が所定距離下方に移動した後に表示される副立体形状三次元画像および位置関係画像の表示例が示される。図39(b)に図38(b)の表示状態からステージ140が所定距離下方に移動した後に表示される副立体形状二次元画像および位置関係画像の表示例が示される。   FIG. 39A shows a display example of the sub-stereoscopic shape three-dimensional image and the positional relationship image displayed after the stage 140 moves downward by a predetermined distance from the display state of FIG. FIG. 39B shows a display example of the sub-stereoscopic shape two-dimensional image and the positional relationship image displayed after the stage 140 moves downward by a predetermined distance from the display state of FIG. 38B.

図39(a),(b)の副立体形状画像および位置関係画像によれば、使用者は、ステージ140が移動することにより、受光部120のZ方向の測定可能範囲DF内に位置する測定対象物Sの部分が、測定対象物Sの中央部から測定対象物Sの上部に変化したことを容易に認識することができる。また、使用者は、例えば測定対象物Sの下端部が受光部120のZ方向の測定可能範囲DFから外れたことを容易に認識することができる。 According to the sub-stereoscopic shape image and the positional relationship image in FIGS. 39A and 39B, the user moves the stage 140 and moves the measurement within the measurable range DF in the Z direction of the light receiving unit 120. It can be easily recognized that the part of the object S has changed from the central part of the object S to the upper part of the object S to be measured. Further, the user can easily recognize that, for example, the lower end portion of the measuring object S is out of the measurable range DF of the light receiving unit 120 in the Z direction.

一方、図40(a)に図38(a)の表示状態からステージ140が所定距離上方に移動した後に表示される副立体形状三次元画像および位置関係画像の表示例が示される。図40(b)に図38(b)の表示状態からステージ140が所定距離上方に移動した後に表示される副立体形状二次元画像および位置関係画像の表示例が示される。   On the other hand, FIG. 40A shows a display example of the sub-stereoscopic shape three-dimensional image and the positional relationship image displayed after the stage 140 has moved upward by a predetermined distance from the display state of FIG. FIG. 40B shows a display example of the sub-stereoscopic shape two-dimensional image and the positional relationship image displayed after the stage 140 has moved upward by a predetermined distance from the display state of FIG. 38B.

図40(a),(b)の副立体形状画像および位置関係画像によれば、使用者は、ステージ140が移動することにより、受光部120のZ方向の測定可能範囲DF内に位置する測定対象物Sの部分が、測定対象物Sの中央部から測定対象物Sの下部に変化したことを容易に認識することができる。また、使用者は、例えば測定対象物Sの上端部が受光部120のZ方向の測定可能範囲DFから外れたことを容易に認識することができる。 According to the sub-stereoscopic shape image and the positional relationship image of FIGS. 40A and 40B, the user moves the stage 140 and moves the measurement within the measurable range DF in the Z direction of the light receiving unit 120. It can be easily recognized that the part of the object S has changed from the central part of the measurement object S to the lower part of the measurement object S. Further, the user can easily recognize that, for example, the upper end portion of the measuring object S is out of the measurable range DF of the light receiving unit 120 in the Z direction.

図41(a)は、位置関係画像が重畳された副立体形状三次元画像の他の表示例を示す図である。図41(a)の例では、位置関係画像として、図38(a)の上限面ULおよび下限面BLに加えて焦点面FLが表示される。焦点面FLは、上限面ULと下限面BLとの間に位置し、Z方向(受光部120の光軸方向)における受光部120の焦点の位置を表す。   FIG. 41A is a diagram illustrating another display example of the sub-stereoscopic shape three-dimensional image on which the positional relationship image is superimposed. In the example of FIG. 41A, the focal plane FL is displayed as the positional relationship image in addition to the upper limit plane UL and the lower limit plane BL of FIG. The focal plane FL is located between the upper limit plane UL and the lower limit plane BL and represents the position of the focal point of the light receiving unit 120 in the Z direction (the optical axis direction of the light receiving unit 120).

図41(b)は、位置関係画像とともに表示される副立体形状二次元画像の他の表示例を示す図である。図41(b)の第2の表示領域420では、位置関係画像として、図38(b)の上限カーソルUCおよび下限カーソルBCに加えて焦点線FCが表示される。焦点線FCは、ヒストグラム上の上限カーソルUCと下限カーソルBCとの間に位置し、Z方向(受光部120の光軸方向)における受光部120の焦点の位置を表す。   FIG. 41B is a diagram illustrating another display example of the sub-stereoscopic shape two-dimensional image displayed together with the positional relationship image. In the second display area 420 of FIG. 41B, the focal line FC is displayed as a positional relationship image in addition to the upper limit cursor UC and the lower limit cursor BC of FIG. The focal line FC is located between the upper limit cursor UC and the lower limit cursor BC on the histogram, and represents the position of the focus of the light receiving unit 120 in the Z direction (the optical axis direction of the light receiving unit 120).

図41(a),(b)に示すように、表示部400の画面上に受光部120の焦点の位置を表す指標(焦点面FLおよび焦点線FC)が表示されることにより、使用者は測定対象物Sにおけるどの部分が受光部120の焦点に位置するのかを即座に認識することができる。   As shown in FIGS. 41A and 41B, the index (focal plane FL and focal line FC) indicating the focal position of the light receiving unit 120 is displayed on the screen of the display unit 400, so that the user can It is possible to immediately recognize which part of the measuring object S is located at the focal point of the light receiving unit 120.

表示部400には、上記の全焦点テクスチャ画像とともに、受光部120の焦点または受光部120のZ方向の測定可能範囲DFと測定対象物Sとの位置関係を示す位置関係画像が表示されてもよい。 The display unit 400 displays a positional relationship image indicating the positional relationship between the focus of the light receiving unit 120 or the measurable range DF in the Z direction of the light receiving unit 120 and the measurement object S together with the above-described all-focus texture image. Good.

図42は、位置関係画像とともに表示される全焦点テクスチャ画像の一表示例を示す図である。図42の例では、表示部400の画面上に全焦点テクスチャ画像表示領域440およびプロファイル形状表示領域450が設定される。   FIG. 42 is a diagram illustrating a display example of the omnifocal texture image displayed together with the positional relationship image. In the example of FIG. 42, an omnifocal texture image display area 440 and a profile shape display area 450 are set on the screen of the display unit 400.

全焦点テクスチャ画像表示領域440に全焦点テクスチャ画像が表示される。本例では、全焦点テクスチャ画像上に線分441が表示されている。使用者は、例えば図1のPC200の操作部250を操作することにより全焦点テクスチャ画像上で所望の箇所に線分441を描くことができる。   An omnifocal texture image is displayed in the omnifocal texture image display area 440. In this example, a line segment 441 is displayed on the omnifocal texture image. The user can draw a line segment 441 at a desired location on the omnifocal texture image, for example, by operating the operation unit 250 of the PC 200 of FIG.

プロファイル形状表示領域450には、全焦点テクスチャ画像上の線分441に対応する測定対象物S上の線分の長さを示す横軸、および測定対象物Sの表面の高さを示す縦軸が表示されるとともに、副立体形状画像として線分441に沿った測定対象物Sの表面形状451が表示される。   The profile shape display area 450 includes a horizontal axis indicating the length of the line segment on the measurement object S corresponding to the line segment 441 on the all-focus texture image, and a vertical axis indicating the height of the surface of the measurement object S. Is displayed, and the surface shape 451 of the measuring object S along the line segment 441 is displayed as a sub-stereoscopic shape image.

プロファイル形状表示領域450には、さらに位置関係画像として上限線452、下限線453および焦点線454が表示される。上限線452は、Z方向(受光部120の光軸方向)における受光部120の測定可能範囲DFの上限を表す。下限線453は、Z方向(受光部120の光軸方向)における受光部120の測定可能範囲DFの下限を表す。焦点線454は、上限線452と下限線453との間に位置し、Z方向(受光部120の光軸方向)における受光部120の焦点の位置を表す。 In the profile shape display area 450, an upper limit line 452, a lower limit line 453, and a focal line 454 are further displayed as positional relationship images. The upper limit line 452 represents the upper limit of the measurable range DF of the light receiving unit 120 in the Z direction (the optical axis direction of the light receiving unit 120). A lower limit line 453 represents the lower limit of the measurable range DF of the light receiving unit 120 in the Z direction (the optical axis direction of the light receiving unit 120). The focal line 454 is located between the upper limit line 452 and the lower limit line 453 and represents the position of the focal point of the light receiving unit 120 in the Z direction (the optical axis direction of the light receiving unit 120).

上記のように、プロファイル形状表示領域450に表示される表面形状451の画像データは、副立体形状データおよび全焦点テクスチャ画像上に描かれる線分441の位置に基づいてCPU210により生成される。   As described above, the image data of the surface shape 451 displayed in the profile shape display area 450 is generated by the CPU 210 based on the sub-stereo shape data and the position of the line segment 441 drawn on the omnifocal texture image.

使用者は、図42の全焦点テクスチャ画像を見ることにより測定対象物Sの表面状態を鮮明に観測することができる。また、使用者は、測定対象物Sの表面状態を観測しつつ全焦点テクスチャ画像上の所望の位置に線分441を描くことにより、測定対象物Sにおける所望の部分の表面形状451をプロファイル形状表示領域450上に表示させることができる。   The user can clearly observe the surface state of the measuring object S by viewing the omnifocal texture image of FIG. In addition, the user draws a line segment 441 at a desired position on the omnifocal texture image while observing the surface state of the measurement object S, so that the surface shape 451 of the desired part of the measurement object S is a profile shape. It can be displayed on the display area 450.

さらに、使用者は、プロファイル形状表示領域450上で、測定対象物Sの表面形状451とともに表示される位置関係画像(本例では、上限線452、下限線453および焦点線454)を見ることにより、現在の受光部120のZ方向の測定可能範囲DFと測定対象物Sとの位置関係を容易に認識することができる。 Further, the user views the positional relationship image (upper limit line 452, lower limit line 453, and focal line 454 in this example) displayed together with the surface shape 451 of the measurement object S on the profile shape display area 450. The positional relationship between the current measurable range DF of the light receiving unit 120 in the Z direction and the measurement object S can be easily recognized.

副立体形状データと全焦点テクスチャ画像データとが合成されることにより合成データが生成される場合には、生成されたその合成データに基づく画像とともに位置関係画像が表示部400に表示されてもよい。この場合、使用者は、測定対象物Sの立体形状および表面の状態の合成された画像を見ながら、現在の受光部120のZ方向の測定可能範囲DFと測定対象物Sとの位置関係を容易に認識することができる。 When the composite data is generated by combining the sub-stereoscopic shape data and the omnifocal texture image data, the positional relationship image may be displayed on the display unit 400 together with the image based on the generated composite data. . In this case, the user observes the current positional relationship between the measurable range DF in the Z direction of the light receiving unit 120 and the measuring object S while viewing the synthesized image of the three-dimensional shape and the surface state of the measuring object S. It can be easily recognized.

(3)測定対象物における測定対象部分を指定するための画像
上記のように、測定対象物Sの位置の調整が自動で行われる場合には、測定対象物Sの位置の調整が行われる前に、使用者により測定対象物Sにおける測定対象部分が指定されてもよい。この場合、例えば表示部400に位置関係画像とともに副立体形状画像が表示された後、使用者が測定対象物Sにおける測定対象部分を指定することにより、指定された測定対象部分が受光部120のZ方向の測定可能範囲DF内に位置するように測定対象物Sの位置が自動的に調整されてもよい。
(3) Image for designating the measurement target portion in the measurement target object As described above, when the adjustment of the position of the measurement target object S is automatically performed, the adjustment of the position of the measurement target object S is performed. In addition, the measurement target portion of the measurement target S may be specified by the user. In this case, for example, after the sub-stereoscopic shape image is displayed together with the positional relationship image on the display unit 400, the user designates the measurement target portion in the measurement target S, whereby the designated measurement target portion is the light receiving unit 120. The position of the measuring object S may be automatically adjusted so as to be within the measurable range DF in the Z direction.

図43は、形状測定前に測定対象物Sにおける測定対象部分が指定される場合に表示部400に表示される画像の一例を示す図である。図43(a),(b)に示すように、本例では、表示部400の画面上に対象物表示領域460およびボタン表示領域470が設定される。   FIG. 43 is a diagram illustrating an example of an image displayed on the display unit 400 when a measurement target portion in the measurement target S is designated before shape measurement. As shown in FIGS. 43A and 43B, in this example, an object display area 460 and a button display area 470 are set on the screen of the display unit 400.

図43(a)の例では対象物表示領域460に全焦点テクスチャ画像が表示され、図43(b)の例では対象物表示領域460に副立体形状二次元画像が表示される。また、図43(a),(b)のボタン表示領域470には、複数の指定ボタン471、OKボタン472およびキャンセルボタン473が表示される。   In the example of FIG. 43A, an omnifocal texture image is displayed in the object display area 460, and in the example of FIG. 43B, a sub-stereoscopic shape two-dimensional image is displayed in the object display area 460. Also, a plurality of designation buttons 471, an OK button 472, and a cancel button 473 are displayed in the button display area 470 of FIGS. 43 (a) and 43 (b).

複数の指定ボタン471には、図43(a)の全焦点テクスチャ画像上または図43(b)の副立体形状二次元画像上で測定対象物Sの測定対象部分を指定するための複数種類の方法がそれぞれ割り当てられている。   The plurality of designation buttons 471 are a plurality of types for designating the measurement target portion of the measurement target S on the all-focus texture image of FIG. 43A or the sub-stereoscopic shape two-dimensional image of FIG. 43B. Each method is assigned.

例えば、使用者は、「全領域」が割り当てられた指定ボタン471を操作することにより、測定対象物Sの全体を測定対象部分として指定することができる。また、使用者は、「矩形」が割り当てられた指定ボタン471を操作した後、ドラッグ操作等により全焦点テクスチャ画像上または副立体形状二次元画像上で所望の矩形領域を選択する。それにより、使用者は、選択された矩形領域に対応する測定対象物Sの部分を測定対象部分として指定することができる。図43(a),(b)の例では、全焦点テクスチャ画像上および副立体形状二次元画像上でそれぞれ2つの矩形領域461,462が選択された状態が示される。   For example, the user can designate the entire measurement object S as the measurement object portion by operating the designation button 471 to which “all areas” is assigned. In addition, after the user operates the designation button 471 to which “rectangle” is assigned, the user selects a desired rectangular region on the all-focus texture image or the sub-stereoscopic shape two-dimensional image by a drag operation or the like. Thereby, the user can designate the part of the measuring object S corresponding to the selected rectangular area as the measuring object part. 43A and 43B show a state where two rectangular areas 461 and 462 are selected on the all-focus texture image and the sub-stereoscopic shape two-dimensional image, respectively.

使用者は、測定対象部分の指定後、OKボタン472またはキャンセルボタン473を選択する。OKボタン472が選択されることにより、測定対象部分の指定が完了する。   The user selects the OK button 472 or the cancel button 473 after designating the measurement target portion. When the OK button 472 is selected, the specification of the measurement target portion is completed.

図44は、形状測定前に測定対象物Sにおける測定対象部分が指定される場合に表示部400に表示される画像の他の例を示す図である。図44(a)の例では、表示部400の画面上に副立体形状三次元画像が表示されるとともに2つのカーソルCUが表示される。各カーソルCUの下方には、副立体形状三次元画像上の測定対象物Sの表面に接するように円形の仮想面が表示されている。使用者は、表示部400の画面上で各カーソルCUを操作することにより、各カーソルCUに対応する仮想面を移動させる。それにより、使用者は、仮想面が重なる測定対象物Sの部分を測定対象部分として指定することができる。   FIG. 44 is a diagram illustrating another example of an image displayed on the display unit 400 when a measurement target portion in the measurement target S is designated before shape measurement. In the example of FIG. 44A, a sub-stereoscopic shape three-dimensional image is displayed on the screen of the display unit 400 and two cursors CU are displayed. A circular virtual surface is displayed below each cursor CU so as to be in contact with the surface of the measuring object S on the sub-stereoscopic shape three-dimensional image. The user moves the virtual plane corresponding to each cursor CU by operating each cursor CU on the screen of the display unit 400. Thereby, the user can designate the part of the measuring object S where the virtual planes overlap as the measuring object part.

図44(b)の例では、表示部400の画面上に副立体形状三次元画像が表示されるとともに上限面ULSおよび下限面BLSが表示される。図44(b)の上限面ULSおよび下限面BLSは、それぞれZ方向における測定対象物Sの測定範囲SUの上限および下限を表す。図44(b)の上限面ULSはカーソルUCUを含み、下限面BLSはカーソルBCUを含む。使用者は、表示部400の画面上でカーソルUCU,BCUを操作することにより、上限面ULSおよび下限面BLSをそれぞれ所望の位置に移動させる。それにより、使用者は、上限面ULSから下限面BLSまでの範囲内に位置する測定対象物Sの部分を測定対象部分として指定することができる。   In the example of FIG. 44B, the sub-stereoscopic shape three-dimensional image is displayed on the screen of the display unit 400, and the upper limit surface ULS and the lower limit surface BLS are displayed. The upper limit surface ULS and the lower limit surface BLS in FIG. 44B represent the upper limit and the lower limit of the measurement range SU of the measurement object S in the Z direction, respectively. The upper limit plane ULS in FIG. 44B includes a cursor UCU, and the lower limit plane BLS includes a cursor BCU. The user operates the cursors UCU and BCU on the screen of the display unit 400 to move the upper limit surface ULS and the lower limit surface BLS to desired positions, respectively. Thereby, the user can designate the part of the measuring object S located within the range from the upper limit plane ULS to the lower limit plane BLS as the measurement target part.

上記の例では、使用者により測定対象物Sにおける測定対象部分が指定された後、測定対象物Sの位置の調整が自動で行われる。これに限らず、測定対象部分が指定された場合には、指定された測定対象部分が受光部120のZ方向の測定可能範囲DF内に位置する状態を仮定したときに受光部120の焦点に位置すべき測定対象物Sの部分(以下、適切部分と呼ぶ。)を示す画像と、受光部120の焦点を示す画像とが表示部400に表示されてもよい。測定対象物Sの適切部分は、例えば受光部120の光軸方向における測定対象部分の平均位置である。 In the above example, after the measurement target portion of the measurement target S is specified by the user, the position of the measurement target S is automatically adjusted. Not limited to this, when a measurement target portion is specified, it is assumed that the specified measurement target portion is in the measurable range DF of the light receiving unit 120 in the Z-direction measurable range DF . An image showing a part of the measuring object S to be positioned (hereinafter referred to as an appropriate part) and an image showing the focus of the light receiving unit 120 may be displayed on the display unit 400. The appropriate part of the measurement object S is, for example, the average position of the measurement object part in the optical axis direction of the light receiving unit 120.

図45は、測定対象物Sの適切部分および受光部120の焦点を示す画像の一表示例である。図45(a)の例では、測定対象物Sの副立体形状三次元画像上に、測定対象物Sの適切部分を示す適切面FSと、受光部120の焦点を示す焦点面RSとが示される。この場合、使用者は、図1のステージ操作部145を操作し、適切面FSと焦点面RSとが一致するようにステージ140をZ方向に移動させる。それにより、使用者は、測定対象部分を受光部120のZ方向の測定可能範囲DF内に容易に位置させることができる。 FIG. 45 is a display example of an image showing an appropriate portion of the measuring object S and the focal point of the light receiving unit 120. In the example of FIG. 45A, on the sub-stereoscopic three-dimensional image of the measurement object S, an appropriate surface FS indicating an appropriate part of the measurement object S and a focal plane RS indicating the focus of the light receiving unit 120 are shown. It is. In this case, the user operates the stage operation unit 145 of FIG. 1 and moves the stage 140 in the Z direction so that the appropriate plane FS and the focal plane RS coincide. Accordingly, the user can easily position the measurement target portion within the measurable range DF in the Z direction of the light receiving unit 120.

図45(b)の例では、表示部400上の第1の表示領域410に副立体形状二次元画像が表示されるとともに、第2の表示領域420に表示されるヒストグラム上に、測定対象物Sの適切部分を示す点線TFと、受光部120の焦点を示す実線RFとが示される。この場合、使用者は、図1のステージ操作部145を操作し、点線TFと実線RFとが一致するようにステージ140をZ方向に移動させる。それにより、使用者は、測定対象部分を受光部120のZ方向の測定可能範囲DF内に容易に位置させることができる。 In the example of FIG. 45B, the sub-stereoscopic shape two-dimensional image is displayed in the first display area 410 on the display unit 400, and the measurement object is displayed on the histogram displayed in the second display area 420. A dotted line TF indicating an appropriate portion of S and a solid line RF indicating the focus of the light receiving unit 120 are shown. In this case, the user operates the stage operation unit 145 of FIG. 1 and moves the stage 140 in the Z direction so that the dotted line TF and the solid line RF coincide with each other. Accordingly, the user can easily position the measurement target portion within the measurable range DF in the Z direction of the light receiving unit 120.

(4)焦点調整の補助機能を用いる場合の操作手順
図46は、焦点調整の補助機能を用いる場合の形状測定装置500の操作手順の一例を示すフローチャートである。本フローチャートの初期状態においては、照明光の明るさ、測定光の明るさ、および測定対象物Sの姿勢が予め調整されているものとする。
(4) Operation Procedure when Using Focus Adjustment Auxiliary Function FIG. 46 is a flowchart showing an example of the operation procedure of the shape measuring apparatus 500 when using the focus adjustment auxiliary function. In the initial state of this flowchart, the brightness of the illumination light, the brightness of the measurement light, and the posture of the measurement object S are adjusted in advance.

焦点調整の補助機能により受光部120の焦点を調整する場合、使用者は、例えばPC200の操作部250を操作することにより副立体形状データの生成を指示する(ステップS101)。この場合、CPU210は、使用者による指示に応答して副立体形状データを生成する。その後、CPU210は、例えば図38〜図42に示すように、生成された副立体形状データおよび受光部120と測定対象物Sとの相対的な距離に基づいて副立体形状画像および位置関係画像を表示部400に表示させる。副立体形状データの生成の指示を受けた場合のCPU210の動作の詳細については後述する。   When adjusting the focus of the light receiving unit 120 with the focus adjustment auxiliary function, the user instructs the generation of the sub-stereoscopic shape data by operating the operation unit 250 of the PC 200, for example (step S101). In this case, the CPU 210 generates sub stereoscopic shape data in response to an instruction from the user. Thereafter, for example, as illustrated in FIGS. 38 to 42, the CPU 210 generates the sub-stereoscopic shape image and the positional relationship image based on the generated sub-stereoscopic shape data and the relative distance between the light receiving unit 120 and the measuring object S. It is displayed on the display unit 400. Details of the operation of the CPU 210 when receiving an instruction to generate sub-stereoscopic shape data will be described later.

次に、使用者は、表示部400に表示された副立体形状画像および位置関係画像を確認することにより(ステップS102)、測定対象物Sと受光部120のZ方向の測定可能範囲DFとの関係を認識する。 Next, the user confirms the sub-stereoscopic shape image and the positional relationship image displayed on the display unit 400 (step S102), thereby determining the measurement object S and the measurable range DF in the Z direction of the light receiving unit 120. Recognize relationships.

次に、使用者は、PC200の操作部250を操作することにより測定対象部分を指定するための画像の表示を指示する(ステップS103)。CPU210は、使用者による画像の表示の指示に応答して、例えば図43および図44に示すように、測定対象物Sにおける測定対象部分を指定するための画像を表示部400に表示させる。   Next, the user instructs display of an image for designating a measurement target portion by operating the operation unit 250 of the PC 200 (step S103). In response to an instruction to display an image by the user, the CPU 210 causes the display unit 400 to display an image for designating a measurement target portion in the measurement target S, for example, as shown in FIGS.

次に、使用者は、PC200の操作部250を操作することにより表示部400の画面上で測定対象物Sにおける測定対象部分を指定する(ステップS104)。この場合、CPU210は、使用者により指定された測定対象部分を示す画像を表示部400に表示する。   Next, the user designates a measurement target portion in the measurement target S on the screen of the display unit 400 by operating the operation unit 250 of the PC 200 (step S104). In this case, the CPU 210 displays an image indicating the measurement target portion designated by the user on the display unit 400.

使用者は、表示部400に表示される副立体形状画像、位置関係画像および測定対象部分の画像を見ながらステージ操作部145を操作して測定対象物Sの位置を調整する(ステップS105)。   The user adjusts the position of the measurement object S by operating the stage operation unit 145 while viewing the sub-stereoscopic shape image, the positional relationship image, and the measurement target part image displayed on the display unit 400 (step S105).

続いて、使用者は、測定対象物Sの測定対象部分が受光部120のZ方向の測定可能範囲DF内にあるか否か、すなわち、測定対象物Sの位置が適切か否かを判定する(ステップS106)。使用者はステップS105,S106の操作を繰り返すことにより、測定対象物Sを受光部120の焦点に適切に位置させる。その後、使用者は、PC200の操作部250を操作することにより上記の形状測定処理の実行を指示する。 Subsequently, the user determines whether or not the measurement target portion of the measurement target S is within the measurable range DF of the light receiving unit 120 in the Z direction, that is, whether or not the position of the measurement target S is appropriate. (Step S106). The user repeats the operations of steps S105 and S106, thereby appropriately positioning the measuring object S at the focal point of the light receiving unit 120. Thereafter, the user instructs the execution of the shape measurement process by operating the operation unit 250 of the PC 200.

上記のステップS101の操作に応答して、CPU210は、副立体形状データとともに全焦点テクスチャ画像データを生成してもよい。使用者による上記のステップS103,S104の操作は行われなくてもよい。   In response to the operation in step S101 described above, the CPU 210 may generate omnifocal texture image data together with the sub stereoscopic shape data. The user does not have to perform the operations in steps S103 and S104.

ステップS104において、測定対象物Sにおける測定対象部分が指定された場合、CPU210は、指定された測定対象部分に対応する副立体形状データに基づいて測定対象物Sの適切部分を算出してもよい。また、CPU210は、算出された適切部分を示す画像を、図45に示すように表示部400に表示してもよい。さらに、CPU210は、算出された適切部分が受光部120の焦点に位置するようにステージ駆動部146を制御してステージ140を移動させてもよい。この場合、使用者はステップS105,S106の操作を行う必要がない。   When the measurement target portion in the measurement target S is designated in step S104, the CPU 210 may calculate an appropriate portion of the measurement target S based on the sub-stereoscopic shape data corresponding to the designated measurement target portion. . Further, the CPU 210 may display an image indicating the calculated appropriate part on the display unit 400 as shown in FIG. Further, the CPU 210 may move the stage 140 by controlling the stage driving unit 146 so that the calculated appropriate portion is positioned at the focal point of the light receiving unit 120. In this case, the user does not need to perform the operations of steps S105 and S106.

(5)副立体形状データ生成処理
図46のステップS101において、副立体形状データの生成の指示を受けた場合、CPU210は以下に示す副立体形状データ生成処理により副立体形状データを生成する。
(5) Sub-stereoscopic shape data generation processing In step S101 of FIG. 46, when receiving an instruction to generate sub-stereoscopic shape data, the CPU 210 generates sub-stereoscopic shape data by the following sub-stereoscopic shape data generation processing.

副立体形状データ生成処理は、使用者の手動操作に基づいて実行されてもよいし、CPU210により自動的に実行されてもよい。   The sub-stereoscopic shape data generation process may be executed based on a manual operation by the user, or may be automatically executed by the CPU 210.

図47は、使用者の手動操作に基づいて実行される副立体形状データ生成処理の一例を示すフローチャートである。   FIG. 47 is a flowchart illustrating an example of the sub-stereoscopic shape data generation process executed based on a manual operation by the user.

まず、CPU210は、使用者により測定対象物Sの撮像が指示されたか否かを判定する(ステップS111)。測定対象物Sの撮像が指示されることにより、CPU210は、測定対象物Sに照明光を照射し、測定対象物Sを撮像することによりテクスチャ画像データを生成する(ステップS112)。生成されたテクスチャ画像データは、受光部120の光軸方向における受光部120と測定対象物Sとの相対的な距離の情報とともに図1の作業用メモリ230に記憶される。   First, the CPU 210 determines whether or not the user has instructed imaging of the measurement object S (step S111). When the imaging of the measuring object S is instructed, the CPU 210 irradiates the measuring object S with illumination light and images the measuring object S to generate texture image data (step S112). The generated texture image data is stored in the work memory 230 of FIG. 1 together with information on the relative distance between the light receiving unit 120 and the measuring object S in the optical axis direction of the light receiving unit 120.

次に、CPU210は、使用者により副立体形状データの生成が指示されたか否かを判定する(ステップS113)。副立体形状データの生成が指示されない場合、CPU210は、受光部120の焦点が調整されたか否かを判定する(ステップS114)。具体的には、受光部120は、ステージ140のZ位置が変化したか否かを判定する。受光部120の焦点が調整された場合には、CPU210は、ステップS111の処理に戻る。   Next, the CPU 210 determines whether or not the user has instructed generation of sub-stereoscopic shape data (step S113). When the generation of the sub-stereoscopic shape data is not instructed, the CPU 210 determines whether or not the focus of the light receiving unit 120 has been adjusted (step S114). Specifically, the light receiving unit 120 determines whether or not the Z position of the stage 140 has changed. When the focus of the light receiving unit 120 is adjusted, the CPU 210 returns to the process of step S111.

上記のステップS111〜S114の処理が複数回繰り返されることにより、作業用メモリ230には、Z方向における複数の位置で測定対象物Sが撮像されることにより得られる複数のテクスチャ画像データが、受光部120と測定対象物Sとの相対的な距離の情報とともに記憶される。   By repeating the processes in steps S111 to S114 a plurality of times, the work memory 230 receives a plurality of texture image data obtained by imaging the measurement object S at a plurality of positions in the Z direction. The information is stored together with information on the relative distance between the unit 120 and the measuring object S.

ステップS113において、副立体形状データの生成が指示された場合、CPU210は、作業用メモリ230に記憶された複数のテクスチャ画像データおよび受光部120と測定対象物Sとの相対的な距離の情報に基づいて副立体形状データを生成する(ステップS115)。その後、CPU210は、生成された副立体形状データおよびその時点での受光部120と測定対象物Sとの相対的な距離に基づいて、受光部120の焦点または受光部120のZ方向における測定可能範囲DFと測定対象物Sとの位置関係を算出する(ステップS116)。また、CPU210は、生成された副立体形状データおよび算出された位置関係に基づいて副立体形状画像および位置関係画像を表示部400に表示させる(ステップS117)。 When generation of sub-stereoscopic shape data is instructed in step S <b> 113, the CPU 210 includes a plurality of texture image data stored in the work memory 230 and information on the relative distance between the light receiving unit 120 and the measurement object S. Based on this, sub-stereoscopic shape data is generated (step S115). Thereafter, the CPU 210 can measure the focal point of the light receiving unit 120 or the Z direction of the light receiving unit 120 based on the generated sub-stereoscopic shape data and the relative distance between the light receiving unit 120 and the measurement object S at that time. The positional relationship between the range DF and the measuring object S is calculated (step S116). In addition, the CPU 210 causes the display unit 400 to display the sub-stereoscopic shape image and the positional relationship image based on the generated sub-stereoscopic shape data and the calculated positional relationship (step S117).

なお、受光部120に対する測定対象物Sの位置が、算出された位置関係に基づいて後続の三角測距方式の形状測定前に自動的に調整される場合、ステップS117において、CPU210は副立体形状画像および位置関係画像を表示部400に表示させなくてもよい。   When the position of the measuring object S with respect to the light receiving unit 120 is automatically adjusted before shape measurement by the subsequent triangulation method based on the calculated positional relationship, in step S117, the CPU 210 determines that the sub-solid shape is The image and the positional relationship image may not be displayed on the display unit 400.

図48は、自動的に実行される副立体形状データ生成処理の一例を示すフローチャートである。図48の副立体形状データ生成処理は、CPU210が図46のステップS101で使用者による副立体形状データの生成の指示に応答することにより開始される。副立体形状データ生成処理が一旦開始されると、最初のステップから最終ステップまでの一連の処理が自動的に実行される。   FIG. 48 is a flowchart illustrating an example of sub-stereoscopic shape data generation processing that is automatically executed. The sub-stereoscopic shape data generation process of FIG. 48 is started when the CPU 210 responds to the instruction for generating the sub-stereoscopic shape data by the user in step S101 of FIG. Once the sub-stereoscopic shape data generation processing is started, a series of processing from the first step to the final step is automatically executed.

本例では、副立体形状データ生成処理開始時のステージ140のZ位置が開始位置として予め図1の作業用メモリ230に記憶されている。また、副立体形状データ生成処理終了時のステージ140のZ位置が終了位置として予め図1の作業用メモリ230に記憶されている。さらに、テクスチャ画像データを生成するための測定対象物Sの撮像ごとにステージ140をZ方向に移動させるべき間隔およびステージ140の移動方向が、予め図1の作業用メモリ230に記憶されている。副立体形状データ生成時にステージ140がZ方向に移動する範囲および間隔は、全焦点テクスチャ画像を生成する際に受光部120とステージ140とをZ方向に相対的に移動させる上記の間隔と同様に設定される。   In this example, the Z position of the stage 140 at the start of the sub-stereoscopic shape data generation process is stored in advance in the work memory 230 of FIG. Further, the Z position of the stage 140 at the end of the sub-stereoscopic shape data generation process is stored in advance in the work memory 230 of FIG. 1 as the end position. Further, the interval at which the stage 140 should be moved in the Z direction and the moving direction of the stage 140 for each imaging of the measurement object S for generating texture image data are stored in advance in the work memory 230 of FIG. The range and interval in which the stage 140 moves in the Z direction when generating the sub-stereoscopic shape data is the same as the above-described interval in which the light receiving unit 120 and the stage 140 are relatively moved in the Z direction when generating the omnifocal texture image. Is set.

まず、CPU210は、ステージ140が開始位置にあるか否かを判定する(ステップS121)。ステージ140が開始位置にない場合、CPU210はステージ駆動部146を制御することによりステージ140を開始位置まで移動させる(ステップS122)。   First, the CPU 210 determines whether or not the stage 140 is at the start position (step S121). If the stage 140 is not at the start position, the CPU 210 controls the stage drive unit 146 to move the stage 140 to the start position (step S122).

ステップS121においてステージ140が開始位置にある場合、またはステップS122によりステージ140が開始位置に移動した後、CPU210は、測定対象物Sに照明光を照射し、測定対象物Sを撮像することによりテクスチャ画像データを生成する(ステップS123)。生成されたテクスチャ画像データは、受光部120の光軸方向における受光部120と測定対象物Sとの相対的な距離の情報とともに図1の作業用メモリ230に記憶される。   When the stage 140 is at the start position in step S121, or after the stage 140 is moved to the start position in step S122, the CPU 210 irradiates the measurement object S with illumination light and images the measurement object S to obtain a texture. Image data is generated (step S123). The generated texture image data is stored in the work memory 230 of FIG. 1 together with information on the relative distance between the light receiving unit 120 and the measuring object S in the optical axis direction of the light receiving unit 120.

続いて、CPU210は、ステージ140が終了位置にあるか否かを判定する(ステップS124)。ステージ140が終了位置にない場合、CPU210はステージ駆動部146を制御することにより、記憶された間隔分受光部120の焦点の位置を調整する(ステップS125)。具体的には、受光部120は、ステージ駆動部146を制御することにより予め定められた間隔分、開始位置から終了位置に向かう方向へステージ140のZ位置を変化させ、受光部120の焦点に対する測定対象物Sの位置を調整する。その後、CPU210は、ステップS123の処理に戻る。   Subsequently, the CPU 210 determines whether or not the stage 140 is at the end position (step S124). When the stage 140 is not at the end position, the CPU 210 controls the stage driving unit 146 to adjust the focal position of the light receiving unit 120 by the stored interval (step S125). Specifically, the light receiving unit 120 controls the stage driving unit 146 to change the Z position of the stage 140 from the start position toward the end position by a predetermined interval, and with respect to the focus of the light receiving unit 120. The position of the measuring object S is adjusted. Thereafter, the CPU 210 returns to the process of step S123.

上記のステップS123,S124,S125の処理が複数回繰り返されることにより、作業用メモリ230には、Z方向における複数の位置で測定対象物Sが撮像されることにより得られる複数のテクスチャ画像データが、受光部120と測定対象物Sとの相対的な距離の情報とともに記憶される。   By repeating the processes of steps S123, S124, and S125 a plurality of times, the work memory 230 has a plurality of texture image data obtained by imaging the measurement object S at a plurality of positions in the Z direction. The information is stored together with information on the relative distance between the light receiving unit 120 and the measuring object S.

ステップS124において、ステージ140が終了位置にある場合、CPU210は、作業用メモリ230に記憶された複数のテクスチャ画像データおよび受光部120と測定対象物Sとの相対的な距離の情報に基づいて副立体形状データを生成する(ステップS126)。   In step S124, when the stage 140 is at the end position, the CPU 210 determines that the sub image is based on the plurality of texture image data stored in the work memory 230 and information on the relative distance between the light receiving unit 120 and the measuring object S. Solid shape data is generated (step S126).

その後、CPU210は、生成された副立体形状データおよびその時点での受光部120と測定対象物Sとの相対的な距離に基づいて、受光部120の焦点または受光部120のZ方向の測定可能範囲DFと測定対象物Sとの位置関係を算出する(ステップS127)。また、CPU210は、生成された副立体形状データおよび算出された位置関係に基づいて副立体形状画像および位置関係画像を表示部400に表示させる(ステップS128)。 Thereafter, the CPU 210 can measure the focal point of the light receiving unit 120 or the Z direction of the light receiving unit 120 based on the generated sub-stereoscopic shape data and the relative distance between the light receiving unit 120 and the measurement object S at that time. The positional relationship between the range DF and the measurement object S is calculated (step S127). Further, the CPU 210 causes the display unit 400 to display the sub-stereoscopic shape image and the positional relationship image based on the generated sub-stereoscopic shape data and the calculated positional relationship (step S128).

本例においても、受光部120に対する測定対象物Sの位置が、算出された位置関係に基づいて後続の三角測距方式の形状測定時に自動的に調整される場合、ステップS128において、CPU210は副立体形状画像および位置関係画像を表示部400に表示させなくてもよい。   Also in this example, when the position of the measuring object S with respect to the light receiving unit 120 is automatically adjusted at the time of the subsequent shape measurement by the triangulation method based on the calculated positional relationship, in step S128, the CPU 210 performs the sub-measurement. The three-dimensional shape image and the positional relationship image may not be displayed on the display unit 400.

上記のように、本例では、ステージ140が終了位置にあるか否かに基づいて、副立体形状データの生成タイミング(ステップS126の処理タイミング)が定められる。これに限らず、CPU210は、直前に生成されたテクスチャ画像データに基づいて測定対象物Sの少なくとも一部が受光部120のZ方向の測定可能範囲DF内に位置するか否かを判定し、測定対象物Sの全ての部分が受光部120のZ方向の測定可能範囲DF外にあると判定した場合に、ステップS126の処理を行ってもよい。 As described above, in this example, the sub-stereoscopic shape data generation timing (processing timing in step S126) is determined based on whether or not the stage 140 is at the end position. Not limited to this, the CPU 210 determines whether or not at least a part of the measurement object S is located within the measurable range DF in the Z direction of the light receiving unit 120 based on the texture image data generated immediately before, When it is determined that all parts of the measuring object S are outside the measurable range DF in the Z direction of the light receiving unit 120, the process of step S126 may be performed.

(6)焦点調整の補助機能を用いた形状測定処理
図49〜図51は、焦点調整の補助機能を用いた形状測定処理の一例を示すフローチャートである。本例の形状測定処理においては、図30〜図32の形状測定処理のステップS41〜S45の処理に代えて後述するステップS131〜S138,S141〜S145の少なくとも一部の処理が実行される。
(6) Shape Measurement Process Using Auxiliary Function for Focus Adjustment FIGS. 49 to 51 are flowcharts showing an example of a shape measurement process using the auxiliary function for focus adjustment. In the shape measurement process of this example, at least a part of steps S131 to S138 and S141 to S145 described later is executed instead of the processes of steps S41 to S45 of the shape measurement process of FIGS.

図49に示すように、CPU210は、まず使用者からの指示に応答して図47または図48の副立体形状データ生成処理を実行する(ステップS131)。   As shown in FIG. 49, the CPU 210 first executes the sub-stereoscopic shape data generation process of FIG. 47 or 48 in response to an instruction from the user (step S131).

次に、CPU210は、測定対象物Sにおける測定対象部分の設定を行う(ステップS132)。具体的には、CPU210は、使用者により測定対象部分が指定された場合、指定された測定対象部分ごとにその測定対象部分の受光部120の光軸方向における位置を算出する。使用者により測定対象部分が指定されない場合、CPU210は、測定対象物Sの全体を測定対象部分とし、受光部120の光軸方向における測定対象物Sの全体の範囲を算出してもよい。算出された測定対象部分の範囲は作業用メモリ230に記憶される。   Next, the CPU 210 sets a measurement target portion in the measurement target S (step S132). Specifically, when the measurement target portion is designated by the user, the CPU 210 calculates the position of the measurement target portion in the optical axis direction of the light receiving unit 120 for each designated measurement target portion. When the measurement target portion is not specified by the user, the CPU 210 may calculate the entire range of the measurement target S in the optical axis direction of the light receiving unit 120 using the entire measurement target S as the measurement target portion. The calculated range of the measurement target portion is stored in the work memory 230.

続いて、CPU210は、受光部120の光軸方向における測定対象部分の範囲(複数の測定対象部分が設定された場合には、Z方向において受光部120に最も近い位置からZ方向において受光部120に最も遠い位置までのZ方向の範囲)が受光部120のZ方向の測定可能範囲DF以下であるか否かを判定する(ステップS133)。測定対象部分の範囲が受光部120のZ方向の測定可能範囲DF以下である場合、CPU210は、適切部分の位置として受光部120の光軸方向における測定対象部分の平均位置を算出する(ステップS134)。 Subsequently, the CPU 210 determines the range of the measurement target portion in the optical axis direction of the light receiving unit 120 (when a plurality of measurement target portions are set, the light receiving unit 120 in the Z direction from the position closest to the light receiving unit 120 in the Z direction). It is determined whether or not the range in the Z direction up to the farthest position is within the measurable range DF in the Z direction of the light receiving unit 120 (step S133). When the range of the measurement target part is equal to or less than the measurable range DF in the Z direction of the light receiving unit 120, the CPU 210 calculates the average position of the measurement target part in the optical axis direction of the light receiving unit 120 as the position of the appropriate part (step S134). ).

次に、CPU210は、ステップS131で算出された位置関係(受光部120の焦点または受光部120のZ方向における測定可能範囲DFと測定対象物Sとの位置関係)に基づいて、測定対象物Sの適切部分が受光部120の焦点に位置するようにステージ140を移動させる(ステップS135)。その後、CPU210は、三角測距方式の形状測定を行うことにより主立体形状データを生成する(ステップS136)。生成された主立体形状データは作業用メモリ230に記憶される。続いて、CPU210は、生成した主立体形状データに基づいて測定対象物Sの主立体形状の画像を表示部400に表示する(ステップS137)。 Next, the CPU 210 measures the measurement object S based on the positional relationship calculated in step S131 (the positional relationship between the focus of the light receiving unit 120 or the measurable range DF in the Z direction of the light receiving unit 120 and the measurement target S). The stage 140 is moved so that the appropriate portion of the light is located at the focal point of the light receiving unit 120 (step S135). Thereafter, the CPU 210 generates main stereoscopic shape data by performing shape measurement using a triangulation method (step S136). The generated main stereoscopic shape data is stored in the work memory 230. Subsequently, the CPU 210 displays an image of the main stereoscopic shape of the measuring object S on the display unit 400 based on the generated main stereoscopic shape data (step S137).

その後、CPU210は、使用者の指示に基づいて、測定すべき位置(以下、測定位置と呼ぶ)の立体形状が表示されているか否かを判定する(ステップS138)。使用者は、表示部400に表示されている測定対象物Sの主立体形状の画像を見て、測定位置の立体形状が表示されているか否かをCPU210に指示する。   Thereafter, the CPU 210 determines whether or not a three-dimensional shape of a position to be measured (hereinafter referred to as a measurement position) is displayed based on an instruction from the user (step S138). The user views the image of the main three-dimensional shape of the measuring object S displayed on the display unit 400 and instructs the CPU 210 whether or not the three-dimensional shape at the measurement position is displayed.

ステップS138において、測定位置の立体形状が表示されることにより、CPU210はステップS46の処理に進む。ステップS46〜S57の処理は、図30〜図32の形状測定処理のステップS46〜S57と同様である。   In step S138, the three-dimensional shape of the measurement position is displayed, and the CPU 210 proceeds to the process of step S46. The processing of steps S46 to S57 is the same as steps S46 to S57 of the shape measurement processing of FIGS.

これにより、CPU210は、使用者の指示に基づいて測定位置の計測または解析を実行する(ステップS57)。これにより、形状測定処理を終了する。   Thereby, CPU210 performs measurement or analysis of a measurement position based on a user's directions (Step S57). This completes the shape measurement process.

上記のステップS135において、CPU210は、さらに副立体形状データおよびその時点での受光部120と測定対象物Sとの相対的な距離に基づいて、受光部120の焦点または受光部120のZ方向の測定可能範囲DFと測定対象物Sとの位置関係を再度算出してもよい。 In step S135, the CPU 210 further determines the focal point of the light receiving unit 120 or the Z direction of the light receiving unit 120 based on the sub-stereoscopic shape data and the relative distance between the light receiving unit 120 and the measurement object S at that time. The positional relationship between the measurable range DF and the measuring object S may be calculated again.

ステップS133において、測定対象部分の範囲が受光部120のZ方向の測定可能範囲DFよりも大きい場合、CPU210は、ステップS131で算出された位置関係に基づいて、測定対象部分のうち最低部分(または最高部分)が受光部120の焦点に位置するようにステージ140を移動させるとともに、受光部120の焦点または受光部120のZ方向の測定可能範囲DFと測定対象物Sとの位置関係を再度算出する(ステップS141)。その後、CPU210は、三角測距方式の形状測定を行うことにより主立体形状データを生成する(ステップS142)。生成された主立体形状データは受光部120と測定対象物Sとの相対的な距離の情報とともに作業用メモリ230に記憶される。 In step S133, when the range of the measurement target portion is larger than the measurable range DF in the Z direction of the light receiving unit 120, the CPU 210 determines, based on the positional relationship calculated in step S131, the lowest portion (or the measurement target portion). The stage 140 is moved so that the highest portion is located at the focal point of the light receiving unit 120, and the positional relationship between the focal point of the light receiving unit 120 or the measurable range DF in the Z direction of the light receiving unit 120 and the measuring object S is calculated again. (Step S141). Thereafter, the CPU 210 generates main stereoscopic shape data by performing shape measurement using a triangulation method (step S142). The generated main stereoscopic shape data is stored in the work memory 230 together with information on the relative distance between the light receiving unit 120 and the measurement object S.

次に、CPU210は、測定対象部分のうち受光部120のZ方向の測定可能範囲DF内で形状測定が行われていない部分(以下、未測定部分と呼ぶ。)があるか否かを判定する(ステップS143)。 Next, the CPU 210 determines whether or not there is a portion (hereinafter referred to as an unmeasured portion) where shape measurement is not performed within the measurable range DF in the Z direction of the light receiving unit 120 among the measurement target portions. (Step S143).

未測定部分がある場合、CPU210は、ステップS141で再度算出された位置関係に基づいて、未測定部分のうち最低部分(または最高部分)が受光部120の焦点に位置するようにステージ140を移動させるとともに、受光部120の焦点または受光部120のZ方向の測定可能範囲DFと測定対象物Sとの位置関係を再度算出する(ステップS144)。その後、CPU210は、ステップS142の処理に戻る。 If there is an unmeasured part, the CPU 210 moves the stage 140 so that the lowest part (or highest part) of the unmeasured parts is located at the focal point of the light receiving unit 120 based on the positional relationship calculated again in step S141. In addition, the positional relationship between the focus of the light receiving unit 120 or the measurable range DF of the light receiving unit 120 in the Z direction and the measurement object S is calculated again (step S144). Thereafter, the CPU 210 returns to the process of step S142.

上記のステップS142〜S144の処理が複数回繰り返されることにより、作業用メモリ230には、測定対象物SがZ方向における複数の位置にある状態でそれぞれ生成される複数の主立体形状データが受光部120と測定対象物Sとの相対的な距離の情報とともに記憶される。   By repeating the processes of steps S142 to S144 a plurality of times, the work memory 230 receives a plurality of main stereoscopic shape data respectively generated in a state where the measurement object S is at a plurality of positions in the Z direction. The information is stored together with information on the relative distance between the unit 120 and the measuring object S.

ステップS143において、未測定部分がない場合、CPU210は作業用メモリ230に記憶された複数の主立体形状データを合成する(ステップS145)。合成された主立体形状データは作業用メモリ230に記憶される。その後、CPU210は、上記のステップS137の処理に進む。   If there is no unmeasured portion in step S143, the CPU 210 synthesizes a plurality of main stereoscopic shape data stored in the work memory 230 (step S145). The synthesized main stereoscopic shape data is stored in the work memory 230. Thereafter, the CPU 210 proceeds to the process of step S137 described above.

本例では、CPU210は、ステップS135,S141,S144においてステージ140を自動的に移動させる代わりに、例えば図45に示すように、測定対象物Sを移動させるべき位置を示す画像を表示部400に表示させてもよい。この場合、使用者が手動でステージ140の位置を調整してもよい。   In this example, instead of automatically moving the stage 140 in steps S135, S141, and S144, the CPU 210 displays, on the display unit 400, an image indicating the position to which the measurement object S should be moved, for example, as shown in FIG. It may be displayed. In this case, the user may manually adjust the position of the stage 140.

上述のように、ステップS131の副立体形状データ生成処理時には、1または複数のテクスチャ画像データが、受光部120の光軸方向における受光部120と測定対象物Sとの相対的な距離の情報とともに図1の作業用メモリ230に記憶される。そこで、CPU210は、ステップS47,S49,S51(図31)の処理時に照明光を照射して測定対象物Sを撮像してテクスチャ画像データを生成する代わりに、作業用メモリ230に記憶されたテクスチャ画像データを読み出してもよい。この場合、ステップS47,S49,S51の処理時に、照明光を照射して測定対象物Sを撮像する処理回数を低減することができる。または、ステップS47,S49,S51の処理時に、照明光を照射して測定対象物Sを撮像する必要がなくなる。   As described above, at the time of the sub-stereoscopic shape data generation process in step S131, one or a plurality of texture image data, together with information on the relative distance between the light receiving unit 120 and the measuring object S in the optical axis direction of the light receiving unit 120. It is stored in the work memory 230 of FIG. Therefore, the CPU 210 captures the texture stored in the work memory 230 instead of generating the texture image data by irradiating the illumination light and capturing the measurement object S during the processes of steps S47, S49, and S51 (FIG. 31). Image data may be read out. In this case, at the time of processing of steps S47, S49, and S51, it is possible to reduce the number of times that the measurement object S is imaged by irradiating illumination light. Or it becomes unnecessary to irradiate illumination light and to image the measuring object S at the time of processing of Steps S47, S49, and S51.

(7)効果
(7−1)本実施の形態に係る形状測定装置500においては、形状測定前に、測定対象物Sに照明光が照射され、受光部120の光軸方向において受光部120と測定対象物Sとの相対的な距離が変化される。このとき、測定対象物Sの複数の部分の各々が受光部120のZ方向の測定可能範囲DF内に位置する状態での受光部120と測定対象物Sとの相対的な距離に基づいて、測定対象物Sの立体形状を示す副立体形状データが生成される。
(7) Effects (7-1) In the shape measuring apparatus 500 according to the present embodiment, the illumination light is irradiated to the measurement object S before the shape measurement, and the light receiving unit 120 is connected to the light receiving unit 120 in the optical axis direction of the light receiving unit 120. The relative distance to the measuring object S is changed. At this time, based on the relative distance between the light receiving unit 120 and the measurement target S in a state where each of the plurality of portions of the measurement target S is located within the measurable range DF in the Z direction of the light receiving unit 120, Sub-stereoscopic shape data indicating the three-dimensional shape of the measuring object S is generated.

副立体形状データの生成後かつ形状測定前の時点での受光部120と測定対象物Sとの相対的な距離および生成された副立体形状データに基づいて受光部120の焦点または受光部120のZ方向の測定可能範囲DFと測定対象物Sとの位置関係が算出される。副立体形状データおよび算出された位置関係に基づいて、表示部400の画面上に副立体形状画像および位置関係画像が表示される。 Based on the relative distance between the light receiving unit 120 and the measuring object S after the generation of the sub three-dimensional shape data and before the shape measurement, and the focus of the light receiving unit 120 or the light receiving unit 120 based on the generated sub three-dimensional shape data. The positional relationship between the measurable range DF in the Z direction and the measuring object S is calculated. Based on the sub-stereoscopic shape data and the calculated positional relationship, the sub-stereoscopic shape image and the positional relationship image are displayed on the screen of the display unit 400.

その後、形状測定時に、測定光が測定対象物Sに照射された状態で受光部120から出力される受光信号に基づいて、三角測距方式により高い精度で測定対象物Sの立体形状を示す主立体形状データが生成される。   Thereafter, at the time of shape measurement, based on the light reception signal output from the light receiving unit 120 in a state in which the measurement light is irradiated on the measurement object S, the three-dimensional shape of the measurement object S is shown with high accuracy by the triangulation method. Three-dimensional shape data is generated.

この場合、使用者は、形状測定前に表示部400に表示される副立体形状画像および位置関係画像を確認しながら測定対象物Sを受光部120の焦点または受光部120により測定可能な範囲内に適切かつ容易に位置させることができる。   In this case, the user confirms the sub-stereoscopic shape image and the positional relationship image displayed on the display unit 400 before measuring the shape, and the measurement object S is within a range that can be measured by the focus of the light receiving unit 120 or the light receiving unit 120. Can be positioned appropriately and easily.

(7−2)本実施の形態に係る形状測定装置500においては、形状測定前に、測定対象物Sに照明光が照射され、受光部120の光軸方向において受光部120と測定対象物Sとの相対的な距離が変化される。このとき、測定対象物Sの複数の部分の各々が受光部120のZ方向の測定可能範囲DF内に位置する状態での受光部120と測定対象物Sとの相対的な距離に基づいて、測定対象物Sの立体形状を示す副立体形状データが生成される。 (7-2) In the shape measuring apparatus 500 according to the present embodiment, the illumination light is irradiated onto the measurement object S before the shape measurement, and the light receiving unit 120 and the measurement object S in the optical axis direction of the light receiving unit 120. The relative distance between and is changed. At this time, based on the relative distance between the light receiving unit 120 and the measurement target S in a state where each of the plurality of portions of the measurement target S is located within the measurable range DF in the Z direction of the light receiving unit 120, Sub-stereoscopic shape data indicating the three-dimensional shape of the measuring object S is generated.

副立体形状データの生成後かつ形状測定前の時点での受光部120と測定対象物Sとの相対的な距離および生成された副立体形状データに基づいて受光部120の焦点または受光部120のZ方向の測定可能範囲DFと測定対象物Sとの位置関係が算出される。 Based on the relative distance between the light receiving unit 120 and the measuring object S after the generation of the sub three-dimensional shape data and before the shape measurement, and the focus of the light receiving unit 120 or the light receiving unit 120 based on the generated sub three-dimensional shape data. The positional relationship between the measurable range DF in the Z direction and the measuring object S is calculated.

その後、形状測定時に、算出された位置関係に基づいて測定対象物Sの少なくとも一部が受光部120のZ方向の測定可能範囲DF内に位置するようにステージ140が制御される。測定対象物Sの少なくとも一部が受光部120のZ方向の測定可能範囲DF内に位置しかつ測定光が測定対象物Sに照射された状態で受光部120から出力される受光信号に基づいて、三角測距方式により高い精度で測定対象物Sの立体形状を示す主立体形状データが生成される。 Thereafter, at the time of shape measurement, the stage 140 is controlled so that at least a part of the measuring object S is positioned within the measurable range DF in the Z direction of the light receiving unit 120 based on the calculated positional relationship. Based on a light reception signal output from the light receiving unit 120 in a state where at least a part of the measurement target S is located within the measurable range DF in the Z direction of the light receiving unit 120 and the measurement light is irradiated on the measurement target S. The main three-dimensional shape data indicating the three-dimensional shape of the measuring object S is generated with high accuracy by the triangulation method.

このように、測定対象物Sの少なくとも一部が受光部120のZ方向の測定可能範囲DF内に位置するように、受光部120と測定対象物Sとの相対的な距離が自動的に調整される。したがって、使用者は、測定対象物Sを受光部120の焦点または受光部120により測定可能な範囲内に適切かつ容易に位置させることができる。 In this manner, the relative distance between the light receiving unit 120 and the measurement target S is automatically adjusted so that at least a part of the measurement target S is located within the measurable range DF in the Z direction of the light receiving unit 120. Is done. Therefore, the user can appropriately and easily position the measuring object S within the focus of the light receiving unit 120 or the range measurable by the light receiving unit 120.

[7]他の実施の形態
(1)上記の実施の形態では、ステージ140がZ方向に移動することにより受光部120と測定対象物Sとの相対的な距離が変化する。これに限らず、受光部120と測定対象物Sとの相対的な距離を変化させるために、受光部120がZ方向に移動可能に構成されてもよい。この場合、使用者は、ステージ140をZ方向に移動させる代わりに、受光部120をZ方向に移動させることにより受光部120の焦点に対する測定対象物Sの位置を調整してもよい。
[7] Other Embodiments (1) In the above embodiment, the relative distance between the light receiving unit 120 and the measuring object S changes as the stage 140 moves in the Z direction. In addition to this, in order to change the relative distance between the light receiving unit 120 and the measuring object S, the light receiving unit 120 may be configured to be movable in the Z direction. In this case, the user may adjust the position of the measuring object S with respect to the focal point of the light receiving unit 120 by moving the light receiving unit 120 in the Z direction instead of moving the stage 140 in the Z direction.

(2)上記の実施の形態では、ステージ140のX方向移動機構、Y方向移動機構、Z方向移動機構およびθ方向回転機構に用いられるステッピングモータにエンコーダが取り付けられているが、ステージ140がCPU210の制御によってのみ動作する場合には、ステージ140にエンコーダは設けられなくてもよい。この場合、CPU210は、ステージ140を制御する場合に、ステージ駆動部146に与える駆動パルスに基づいてステージ140のX位置、Y位置、Z位置またはθ回転角の変化量を算出することができる。   (2) In the above embodiment, the encoder is attached to the stepping motor used for the X direction moving mechanism, Y direction moving mechanism, Z direction moving mechanism, and θ direction rotating mechanism of the stage 140, but the stage 140 is the CPU 210. In the case where the operation is performed only by this control, the stage 140 may not be provided with an encoder. In this case, when controlling the stage 140, the CPU 210 can calculate the amount of change in the X position, Y position, Z position, or θ rotation angle of the stage 140 based on the drive pulse applied to the stage drive unit 146.

(3)上記の実施の形態においては副立体形状データの生成時に、照明光が測定対象物Sに照射される。これに限らず、副立体形状データの生成時には、照明光および測定光が同時に測定対象物Sに照射されてもよいし、測定光のみが測定対象物Sに照射されてもよい。   (3) In the above embodiment, the illumination object is irradiated with the illumination light when generating the sub-stereoscopic shape data. However, the measurement object S may be irradiated with the illumination light and the measurement light at the same time, or only the measurement light may be irradiated with the measurement light S.

ただし、照明光が測定対象物Sに照射される場合、測定光が測定対象物Sに照射される場合に比べて発生する影を減少させることができる。したがって、副立体形状データの生成時には、少なくとも照明光を測定対象物Sに照射することが好ましい。   However, when the measurement light S is irradiated with the illumination light, it is possible to reduce the shadows generated compared to the case where the measurement light is irradiated onto the measurement target S. Therefore, it is preferable to irradiate the measuring object S with at least illumination light when generating the sub-stereoscopic shape data.

[8]請求項の各構成要素と実施の形態の各部との対応関係
以下、請求項の各構成要素と実施の形態の各部との対応の例について説明するが、本発明は下記の例に限定されない。
[8] Correspondence between each component of claim and each part of embodiment The following describes an example of a correspondence between each component of the claim and each part of the embodiment. It is not limited.

形状測定装置500が形状測定装置の例であり、測定対象物Sが測定対象物の例であり、照明光が照明光の例であり、測定光が測定光の例であり、受光部120が受光部の例であるAn example of a shape measuring device 500 is the shape measuring apparatus, an example of the measuring object S is a measurement object, an example of the illumination light illuminating light, Ri example der of measurement light measurement light, light receiving portion 120 is an example of a light receiving portion.

また、ステージ140がステージの例であり、照明光出力部130が第1の投光部の例であり、投光部110が第2の投光部の例であり、ステージ駆動部146が相対距離変化部の例であり、表示部400が表示部の例である。 Further, the stage 140 is an example of a stage, the illumination light output unit 130 is an example of a first light projecting unit, the light projecting unit 110 is an example of a second light projecting unit, and the stage driving unit 146 is It is an example of a relative distance change part, and the display part 400 is an example of a display part.

また、CPU210が副立体形状データ生成部、主立体形状データ生成部、制御部、範囲設定部および処理装置の例であり、PC200の操作部250が指定操作部の例である。 The CPU 210 is an example of a sub stereoscopic shape data generation unit, a main stereoscopic shape data generation unit, a control unit , a range setting unit, and a processing device, and the operation unit 250 of the PC 200 is an example of a designation operation unit.

さらに、副立体形状データが立体形状データの例であり、主立体形状データが立体形状データの例であり、副立体形状画像および位置関係画像が合焦点確認用画像の例であり、測定可能範囲DFが第1の範囲の例であり、受光部120の光軸方向において受光部120とステージ140との相対的な位置を変化させることにより副立体形状データの生成される範囲が第2の範囲の例である。また、ステージ操作部145、ステージ駆動部146、表示部400およびPC200の操作部250が動作指令受付部の例であり、位置関係画像が位置関係画像の例である。 Further, the sub-three-dimensional shape data is an example of a sub-three-dimensional shape data, an example of the main stereoscopic shape data main stereoscopic shape data, sub-three-dimensional shape image and the positional relationship image is an example of a focus confirmation image, measured The possible range DF is an example of the first range, and the range in which the sub-stereoscopic shape data is generated by changing the relative position of the light receiving unit 120 and the stage 140 in the optical axis direction of the light receiving unit 120 is the second range. This is an example of the range . Further, the stage operation unit 145, the stage drive unit 146, the display unit 400, and the operation unit 250 of the PC 200 are examples of the operation command receiving unit, and the positional relationship image is an example of the positional relationship image.

請求項の各構成要素として、請求項に記載されている構成または機能を有する他の種々の要素を用いることもできる。
[9]参考形態
(1)第1の参考形態に係る形状測定装置は、測定対象物を載置するステージと、ステージに載置された測定対象物に上方または斜め上方から合焦点確認用の第1の光を照射し、ステージに載置された測定対象物に斜め上方から形状測定用の第2の光を照射するように構成される投光部と、ステージの上方に配置され、ステージに載置された測定対象物により反射された光を受光し、受光量を示す受光信号を出力するように構成される受光部と、受光部とステージとの相対的な距離を受光部の光軸方向に変化させることにより、受光部と測定対象物との相対的な距離を変化させる相対距離変化部と、測定対象物への第1の光の照射時に、相対距離変化部により受光部と測定対象物との相対的な距離が変化された場合に、測定対象物の複数の部分にそれぞれ受光部の焦点が合った状態での受光部と測定対象物との相対的な距離に基づいて測定対象物の立体形状を示す第1の立体形状データを生成する第1のデータ生成部と、測定対象物への第2の光の照射時に、受光部から出力される受光信号に基づいて、三角測距方式により測定対象物の立体形状を示す第2の立体形状データを生成する第2のデータ生成部と、第1の立体形状データに基づく測定対象物の画像を合焦点確認用画像として表示する表示部と、形状測定前に、第1の立体形状データを生成するように第1の投光部、受光部および第1のデータ生成部を制御し、第1の立体形状データの生成後かつ形状測定前の時点での受光部と測定対象物との相対的な距離および生成された第1の立体形状データに基づいて受光部の焦点または受光部の光軸方向における測定可能な範囲と測定対象物との位置関係を算出し、算出された位置関係を識別可能に合焦点確認用画像を表示するように表示部を制御し、形状測定時に、第2の立体形状データを生成するように第2の投光部、受光部および第2のデータ生成部を制御する制御部とを備えるものである。
その形状測定装置においては、形状測定前に、第1の光が測定対象物に照射され、受光部と測定対象物との相対的な距離が変化された場合に、測定対象物の複数の部分にそれぞれ受光部の焦点が合った状態での受光部と測定対象物との相対的な距離に基づいて、測定対象物の立体形状を示す第1の立体形状データが生成される。
第1の立体形状データの生成後かつ形状測定前の時点での受光部と測定対象物との相対的な距離および生成された第1の立体形状データに基づいて受光部の焦点または受光部の光軸方向における測定可能な範囲と測定対象物との位置関係が算出される。算出された位置関係を識別可能に合焦点確認用画像が表示部に表示される。
その後、形状測定時に、第2の光が測定対象物に照射された状態で受光部から出力される受光信号に基づいて、三角測距方式により高い精度で測定対象物の立体形状を示す第2の立体形状データが生成される。
この場合、使用者は、形状測定前に表示部に表示される合焦点確認用画像を確認しながら測定対象物を受光部の焦点または受光部により測定可能な範囲内に適切かつ容易に位置させることができる。
(2)制御部は、形状測定時に、測定対象物の複数の部分の一部が受光部の光軸方向における測定可能な範囲内に位置する状態で第2の立体形状データを生成するように第2の投光部、受光部および第2のデータ生成部を制御した後、相対距離変化部により受光部と測定対象物との相対的な距離が変化されることにより、複数の部分の他部が受光部の光軸方向における測定可能な範囲内に位置する状態で第2の立体形状データを生成するように第2の投光部、受光部および第2のデータ生成部を制御し、複数の部分の一部および他部に対応する第2の立体形状データを合成してもよい。
この場合、測定対象物の複数の部分の一部が受光部の光軸方向における測定可能な範囲内に位置する状態で第2の立体形状データが生成される。また、複数の部分の他部が受光部の光軸方向における測定可能な範囲内に位置する状態で第2の立体形状データが生成される。複数の部分の一部および他部に対応する第2の立体形状データが合成される。それにより、受光部の光軸方向における測定対象物の複数の部分の範囲が受光部の光軸方向における測定可能な範囲よりも大きい場合でも、測定対象物の広い範囲に渡って高い精度で測定対象物の立体形状を測定することができる。
(3)形状測定装置は、第1の立体形状データの生成後かつ形状測定前に、表示部に表示される合焦点確認用画像上で測定対象物の複数の部分の少なくとも一部を指定するために使用者により操作される指定操作部をさらに備え、制御部は、指定操作部により測定対象物の複数の部分の少なくとも一部が指定された場合に、受光部の光軸方向において指定操作部により指定された部分の範囲が受光部の光軸方向における測定可能な範囲以下であるか否かを判定し、指定された部分の範囲が受光部の光軸方向における測定可能な範囲以下である場合に、形状測定時に、指定された部分が受光部の光軸方向における測定可能な範囲内に位置するように相対距離変化部を制御し、指定された部分が受光部の光軸方向における測定可能な範囲内に位置する状態で第2の立体形状データを生成するように第2の投光部、受光部および第2のデータ生成部を制御してもよい。
この場合、第1の立体形状データの生成後かつ形状測定前に、表示部に表示される合焦点確認用画像上で測定対象物の複数の部分の少なくとも一部が指定される。受光部の光軸方向において指定された部分の範囲が受光部の光軸方向における測定可能な範囲以下であるか否かが判定される。
指定された部分の範囲が受光部の光軸方向における測定可能な範囲以下である場合に、形状測定時に、指定された部分が受光部の光軸方向における測定可能な範囲内に位置するように相対距離変化部が制御された後、第2の立体形状データが生成される。それにより、使用者は、指定した部分について高い精度で迅速に測定対象物の立体形状を測定することができる。
(4)制御部は、指定された部分の範囲が受光部の光軸方向における測定可能な範囲よりも大きい場合に、形状測定時に、指定された部分の一部が受光部の光軸方向における測定可能な範囲内に位置するように相対距離変化部を制御し、指定された部分の一部が受光部の光軸方向における測定可能な範囲内に位置する状態で第2の立体形状データを生成するように第2の投光部、受光部および第2のデータ生成部を制御し、指定された部分の他部が受光部の光軸方向における測定可能な範囲内に位置するように相対距離変化部を制御し、指定された部分の他部が受光部の光軸方向における測定可能な範囲内に位置する状態で第2の立体形状データを生成するように第2の投光部、受光部および第2のデータ生成部を制御し、指定された部分の一部および他部に対応する第2の立体形状データを合成してもよい。
この場合、指定された部分の範囲が受光部の光軸方向における測定可能な範囲よりも大きい場合に、形状測定時に、指定された部分の一部が受光部の光軸方向における測定可能な範囲内に位置するように相対距離変化部が制御され、第2の立体形状データが生成される。また、指定された部分の他部が受光部の光軸方向における測定可能な範囲内に位置するように相対距離変化部が制御され、第2の立体形状データが生成される。指定された部分の一部および他部に対応する第2の立体形状データが合成される。それにより、指定された部分の範囲が受光部の光軸方向における測定可能な範囲よりも大きい場合でも、使用者は、指定した部分の広い範囲に渡って高い精度で迅速に測定対象物の立体形状を測定することができる。
(5)第2の参考形態に係る形状測定装置は、測定対象物を載置するステージと、ステージに載置された測定対象物に上方または斜め上方から合焦点確認用の第1の光を照射し、ステージに載置された測定対象物に斜め上方から形状測定用の第2の光を照射するように構成される投光部と、ステージの上方に配置され、ステージに載置された測定対象物により反射された光を受光し、受光量を示す受光信号を出力するように構成される受光部と、受光部とステージとの相対的な距離を受光部の光軸方向に変化させることにより受光部と測定対象物との相対的な距離を変化させる相対距離変化部と、測定対象物への第1の光の照射時に、相対距離変化部により受光部と測定対象物との相対的な距離が変化された場合に、測定対象物の複数の部分にそれぞれ受光部の焦点が合った状態での受光部と測定対象物との相対的な距離に基づいて測定対象物の立体形状を示す第1の立体形状データを生成する第1のデータ生成部と、測定対象物への第2の光の照射時に、受光部から出力される受光信号に基づいて、三角測距方式により測定対象物の立体形状を示す第2の立体形状データを生成するように構成される第2のデータ生成部と、形状測定前に、第1の立体形状データを生成するように第1の投光部、受光部および第1のデータ生成部を制御し、第1の立体形状データの生成後かつ形状測定前の時点での受光部と測定対象物との相対的な距離および生成された第1の立体形状データに基づいて受光部の焦点または受光部の光軸方向における測定可能な範囲と測定対象物との位置関係を算出し、形状測定時に、算出された位置関係に基づいて測定対象物の少なくとも一部が受光部の光軸方向における測定可能な範囲内に位置するように相対距離変化部を制御し、測定対象物の少なくとも一部が受光部の光軸方向における測定可能な範囲内に位置する状態で第2の立体形状データを生成するように第2の投光部、受光部および第2のデータ生成部を制御する制御部とを備えるものである。
その形状測定装置においては、形状測定前に、第1の光が測定対象物に照射され、受光部と測定対象物との相対的な距離が変化された場合に、測定対象物の複数の部分にそれぞれ受光部の焦点が合った状態での受光部と測定対象物との相対的な距離に基づいて、測定対象物の立体形状を示す第1の立体形状データが生成される。
第1の立体形状データの生成後かつ形状測定前の時点での受光部と測定対象物との相対的な距離および生成された第1の立体形状データに基づいて受光部の焦点または受光部の光軸方向における測定可能な範囲と測定対象物との位置関係が算出される。
その後、形状測定時に、算出された位置関係に基づいて測定対象物の少なくとも一部が受光部の光軸方向における測定可能な範囲内に位置するように相対距離変化部が制御される。測定対象物の少なくとも一部が受光部の光軸方向における測定可能な範囲内に位置しかつ第2の光が測定対象物に照射された状態で受光部から出力される受光信号に基づいて、三角測距方式により高い精度で測定対象物の立体形状を示す第2の立体形状データが生成される。
この場合、測定対象物の少なくとも一部が受光部の光軸方向における測定可能な範囲内に位置するように、受光部と測定対象物との相対的な距離が自動的に調整される。したがって、使用者は、測定対象物を受光部の焦点または受光部により測定可能な範囲内に適切かつ容易に位置させることができる。
(6)制御部は、受光部の光軸方向において測定対象物の複数の部分の範囲が受光部の光軸方向における測定可能な範囲以下であるか否かを判定し、複数の部分の範囲が受光部の光軸方向における測定可能な範囲以下である場合に、形状測定時に、複数の部分が受光部の光軸方向における測定可能な範囲内に位置するように相対距離変化部を制御し、複数の部分が受光部の光軸方向における測定可能な範囲内に位置する状態で第2の立体形状データを生成するように第2の投光部、受光部および第2のデータ生成部を制御してもよい。
この場合、受光部の光軸方向において測定対象物の複数の部分の範囲が受光部の光軸方向における測定可能な範囲以下であるか否かが判定される。複数の部分の範囲が受光部の光軸方向における測定可能な範囲以下である場合に、形状測定時に、測定対象物の複数の部分が受光部の光軸方向における測定可能な範囲内に位置するように相対距離変化部が制御された後、第2の立体形状データが生成される。それにより、使用者は、測定対象物の複数の部分について高い精度で迅速に測定対象物の立体形状を測定することができる。
(7)制御部は、複数の部分の範囲が受光部の光軸方向における測定可能な範囲よりも大きい場合に、形状測定時に、複数の部分の一部が受光部の光軸方向における測定可能な範囲内に位置するように相対距離変化部を制御し、複数の部分の一部が受光部の光軸方向における測定可能な範囲内に位置する状態で第2の立体形状データを生成するように第2の投光部、受光部および第2のデータ生成部を制御し、複数の部分の他部が受光部の光軸方向における測定可能な範囲内に位置するように相対距離変化部を制御し、複数の部分の他部が受光部の光軸方向における測定可能な範囲内に位置する状態で第2の立体形状データを生成するように第2の投光部、受光部および第2のデータ生成部を制御し、複数の部分の一部および他部に対応する第2の立体形状データを合成してもよい。
この場合、測定対象物の複数の部分の範囲が受光部の光軸方向における測定可能な範囲よりも大きい場合に、形状測定時に、複数の部分の一部が受光部の光軸方向における測定可能な範囲内に位置するように相対距離変化部が制御され、第2の立体形状データが生成される。また、複数の部分の他部が受光部の光軸方向における測定可能な範囲内に位置するように相対距離変化部が制御され、第2の立体形状データが生成される。複数の部分の一部および他部に対応する第2の立体形状データが合成される。それにより、測定対象物の複数の部分の範囲が受光部の光軸方向における測定可能な範囲よりも大きい場合でも、使用者は、測定対象物の複数の部分の広い範囲に渡って高い精度で迅速に測定対象物の立体形状を測定することができる。
(8)形状測定装置は、第1の立体形状データに基づく測定対象物の画像を合焦点確認用画像として表示する表示部と、第1の立体形状データの生成後かつ形状測定前に、表示部に表示される合焦点確認用画像上で測定対象物の複数の部分の少なくとも一部を指定するために使用者により操作される指定操作部とをさらに備え、制御部は、指定操作部により測定対象物の複数の部分の少なくとも一部が指定された場合に、受光部の光軸方向において指定操作部により指定された部分の範囲が受光部の光軸方向における測定可能な範囲以下であるか否かを判定し、指定された部分の範囲が受光部の光軸方向における測定可能な範囲以下である場合に、形状測定時に、指定された部分が受光部の光軸方向における測定可能な範囲内に位置するように相対距離変化部を制御し、指定された部分が受光部の光軸方向における測定可能な範囲内に位置する状態で第2の立体形状データを生成するように第2の投光部、受光部および第2のデータ生成部を制御してもよい。
この場合、第1の立体形状データの生成後かつ形状測定前に、生成された第1の立体形状データに基づく測定対象物の画像が合焦点確認用画像として表示部に表示される。第1の立体形状データの生成後かつ形状測定前に、表示部に表示される合焦点確認用画像上で測定対象物の複数の部分の少なくとも一部が指定される。受光部の光軸方向において指定された部分の範囲が受光部の光軸方向における測定可能な範囲以下であるか否かが判定される。
指定された部分の範囲が受光部の光軸方向における測定可能な範囲以下である場合に、形状測定時に、指定された部分が受光部の光軸方向における測定可能な範囲内に位置するように相対距離変化部が制御された後、第2の立体形状データが生成される。それにより、使用者は、指定した部分について高い精度で迅速に測定対象物の立体形状を測定することができる。
(9)制御部は、指定された部分の範囲が受光部の光軸方向における測定可能な範囲よりも大きい場合に、形状測定時に、指定された部分の一部が受光部の光軸方向における測定可能な範囲内に位置するように相対距離変化部を制御し、指定された部分の一部が受光部の光軸方向における測定可能な範囲内に位置する状態で第2の立体形状データを生成するように第2の投光部、受光部および第2のデータ生成部を制御し、指定された部分の他部が受光部の光軸方向における測定可能な範囲内に位置するように相対距離変化部を制御し、指定された部分の他部が受光部の光軸方向における測定可能な範囲内に位置する状態で第2の立体形状データを生成するように第2の投光部、受光部および第2のデータ生成部を制御し、指定された部分の一部および他部に対応する第2の立体形状データを合成してもよい。
この場合、指定された部分の範囲が受光部の光軸方向における測定可能な範囲よりも大きい場合に、形状測定時に、指定された部分の一部が受光部の光軸方向における測定可能な範囲内に位置するように相対距離変化部が制御され、第2の立体形状データが生成される。また、指定された部分の他部が受光部の光軸方向における測定可能な範囲内に位置するように相対距離変化部が制御され、第2の立体形状データが生成される。指定された部分の一部および他部に対応する第2の立体形状データが合成される。それにより、指定された部分の範囲が受光部の光軸方向における測定可能な範囲よりも大きい場合でも、使用者は、指定した部分の広い範囲に渡って高い精度で迅速に測定対象物の立体形状を測定することができる。
(10)投光部は、測定対象物に第1の光を照射するように構成される第1の投光部と、測定対象物に第2の光を照射するように構成される第2の投光部とを含み、第1の投光部は、受光部の光軸に平行な方向または受光部の光軸に対して0度よりも大きく90度よりも小さい第1の角度だけ傾斜した方向に均一な光量分布を有する第1の光を出射するように配置され、第2の投光部は、光を出射する測定光源と、測定光源により出射された光を形状測定用のパターンを有する光に変換することにより第2の光を生成するパターン生成部とを含み、受光部の光軸に対して第1の角度よりも大きい第2の角度だけ傾斜した方向に第2の光を出射するように配置されてもよい。
この場合、第2の投光部は、受光部の光軸に対して第1の角度よりも大きい第2の角度だけ傾斜した方向に第2の光を出射する。それにより、測定対象物に第2の光が照射された状態で、三角測距方式により第2の立体形状データを容易に生成することができる。また、第1の投光部は、受光部の光軸に対して第2の角度よりも小さい第1の角度だけ傾斜した方向に第1の光を出射するので、影の発生を抑制しつつ測定対象物に第1の光を照射することができる。
(11)第3の参考形態に係る形状測定方法は、形状測定前に、ステージに載置された測定対象物に上方または斜め上方から合焦点確認用の第1の光を照射し、受光部とステージとの相対的な距離が受光部の光軸方向に変化することにより、受光部と測定対象物との相対的な距離が変化された場合に、測定対象物の複数の部分にそれぞれ受光部の焦点が合った状態での受光部と測定対象物との相対的な距離に基づいて測定対象物の立体形状を示す第1の立体形状データを生成するステップと、第1の立体形状データの生成後かつ形状測定前の時点での受光部と測定対象物との相対的な距離および生成された第1の立体形状データに基づいて受光部の焦点または受光部の光軸方向における測定可能な範囲と測定対象物との位置関係を算出し、算出された位置関係を識別可能に第1の立体形状データに基づく測定対象物の画像を合焦点確認用画像として表示部に表示するステップと、形状測定時に、ステージに載置された測定対象物に斜め上方から形状測定用の第2の光を照射し、測定対象物により反射された光を受光部により受光し、受光部から出力される受光信号に基づいて、三角測距方式により測定対象物の立体形状を示す第2の立体形状データを生成するステップとを備えるものである。
その形状測定方法においては、形状測定前に、第1の光が測定対象物に照射され、受光部と測定対象物との相対的な距離が変化された場合に、測定対象物の複数の部分にそれぞれ受光部の焦点が合った状態での受光部と測定対象物との相対的な距離に基づいて、測定対象物の立体形状を示す第1の立体形状データが生成される。
第1の立体形状データの生成後かつ形状測定前の時点での受光部と測定対象物との相対的な距離および生成された第1の立体形状データに基づいて受光部の焦点または受光部の光軸方向における測定可能な範囲と測定対象物との位置関係が算出される。算出された位置関係を識別可能に合焦点確認用画像が表示部に表示される。
その後、形状測定時に、第2の光が測定対象物に照射され、測定対象物により反射された光が受光部により受光される。受光部から出力される受光信号に基づいて、三角測距方式により高い精度で測定対象物の立体形状を示す第2の立体形状データが生成される。
この場合、使用者は、形状測定前に表示部に表示される合焦点確認用画像を確認することにより、測定対象物を受光部の焦点または受光部により測定可能な範囲内に適切かつ容易に位置させることができる。
(12)第4の参考形態に係る形状測定方法は、形状測定前に、ステージに載置された測定対象物に上方または斜め上方から合焦点確認用の第1の光を照射し、受光部とステージとの相対的な距離が受光部の光軸方向に変化することにより、受光部と測定対象物との相対的な距離が変化された場合に、測定対象物の複数の部分にそれぞれ受光部の焦点が合った状態での受光部と測定対象物との相対的な距離に基づいて測定対象物の立体形状を示す第1の立体形状データを生成するステップと、第1の立体形状データの生成後かつ形状測定前の時点での受光部と測定対象物との相対的な距離および生成された第1の立体形状データに基づいて受光部の焦点または受光部の光軸方向における測定可能な範囲と測定対象物との位置関係を算出し、形状測定時に、算出された位置関係に基づいて測定対象物の少なくとも一部が受光部の光軸方向における測定可能な範囲内に位置するように受光部と測定対象物との相対的な距離を調整し、測定対象物の少なくとも一部が受光部の光軸方向における測定可能な範囲内に位置する状態で、ステージに載置された測定対象物に斜め上方から形状測定用の第2の光を照射し、測定対象物により反射された光を受光部により受光し、受光部から出力される受光信号に基づいて、三角測距方式により測定対象物の立体形状を示す第2の立体形状データを生成するステップとを備えるものである。
その形状測定方法においては、形状測定前に、第1の光が測定対象物に照射され、受光部と測定対象物との相対的な距離が変化された場合に、測定対象物の複数の部分にそれぞれ受光部の焦点が合った状態での受光部と測定対象物との相対的な距離に基づいて、測定対象物の立体形状を示す第1の立体形状データが生成される。
第1の立体形状データの生成後かつ形状測定前の時点での受光部と測定対象物との相対的な距離および生成された第1の立体形状データに基づいて受光部の焦点または受光部の光軸方向における測定可能な範囲と測定対象物との位置関係が算出される。
その後、形状測定時に、算出された位置関係に基づいて測定対象物の少なくとも一部が受光部の光軸方向における測定可能な範囲内に位置するように受光部と測定対象物との相対的な距離が調整される。測定対象物の少なくとも一部が受光部の光軸方向における測定可能な範囲内に位置する状態で、第2の光が測定対象物に照射され、測定対象物により反射された光が受光部により受光される。受光部から出力される受光信号に基づいて、三角測距方式により高い精度で測定対象物の立体形状を示す第2の立体形状データが生成される。
この場合、測定対象物の少なくとも一部が受光部の光軸方向における測定可能な範囲内に位置するように、受光部と測定対象物との相対的な距離が自動的に調整される。したがって、使用者は、測定対象物を受光部の焦点または受光部により測定可能な範囲内に適切かつ容易に位置させることができる。
(13)第5の参考形態に係る形状測定プログラムは、処理装置により実行可能な形状測定プログラムであって、形状測定前に、ステージに載置された測定対象物に上方または斜め上方から合焦点確認用の第1の光を照射し、受光部とステージとの相対的な距離が受光部の光軸方向に変化することにより、受光部と測定対象物との相対的な距離が変化された場合に、測定対象物の複数の部分にそれぞれ受光部の焦点が合った状態での受光部と測定対象物との相対的な距離に基づいて測定対象物の立体形状を示す第1の立体形状データを生成する処理と、第1の立体形状データの生成後かつ形状測定前の時点での受光部と測定対象物との相対的な距離および生成された第1の立体形状データに基づいて受光部の焦点または受光部の光軸方向における測定可能な範囲と測定対象物との位置関係を算出し、算出された位置関係を識別可能に第1の立体形状データに基づく測定対象物の画像を合焦点確認用画像として表示部に表示する処理と、形状測定時に、ステージに載置された測定対象物に斜め上方から形状測定用の第2の光を照射し、測定対象物により反射された光を受光部により受光し、受光部から出力される受光信号に基づいて、三角測距方式により測定対象物の立体形状を示す第2の立体形状データを生成する処理とを処理装置に実行させるものである。
その形状測定プログラムによれば、形状測定前に、第1の光が測定対象物に照射され、受光部と測定対象物との相対的な距離が変化された場合に、測定対象物の複数の部分にそれぞれ受光部の焦点が合った状態での受光部と測定対象物との相対的な距離に基づいて、測定対象物の立体形状を示す第1の立体形状データが生成される。
第1の立体形状データの生成後かつ形状測定前の時点での受光部と測定対象物との相対的な距離および生成された第1の立体形状データに基づいて受光部の焦点または受光部の光軸方向における測定可能な範囲と測定対象物との位置関係が算出される。算出された位置関係を識別可能に合焦点確認用画像が表示部に表示される。
その後、形状測定時に、第2の光が測定対象物に照射され、測定対象物により反射された光が受光部により受光される。受光部から出力される受光信号に基づいて、三角測距方式により高い精度で測定対象物の立体形状を示す第2の立体形状データが生成される。
この場合、使用者は、形状測定前に表示部に表示される合焦点確認用画像を確認することにより、測定対象物を受光部の焦点または受光部により測定可能な範囲内に適切かつ容易に位置させることができる。
(14)第6の参考形態に係る形状測定プログラムは、処理装置により実行可能な形状測定プログラムであって、形状測定前に、ステージに載置された測定対象物に上方または斜め上方から合焦点確認用の第1の光を照射し、受光部とステージとの相対的な距離が受光部の光軸方向に変化することにより、受光部と測定対象物との相対的な距離が変化された場合に、測定対象物の複数の部分にそれぞれ受光部の焦点が合った状態での受光部と測定対象物との相対的な距離に基づいて測定対象物の立体形状を示す第1の立体形状データを生成する処理と、第1の立体形状データの生成後かつ形状測定前の時点での受光部と測定対象物との相対的な距離および生成された第1の立体形状データに基づいて受光部の焦点または受光部の光軸方向における測定可能な範囲と測定対象物との位置関係を算出し、形状測定時に、算出された位置関係に基づいて測定対象物の少なくとも一部が受光部の光軸方向における測定可能な範囲内に位置するように受光部と測定対象物との相対的な距離を調整し、測定対象物の少なくとも一部が受光部の光軸方向における測定可能な範囲内に位置する状態で、ステージに載置された測定対象物に斜め上方から形状測定用の第2の光を照射し、測定対象物により反射された光を受光部により受光し、受光部から出力される受光信号に基づいて、三角測距方式により測定対象物の立体形状を示す第2の立体形状データを生成する処理とを処理装置に実行させるものである。
その形状測定プログラムによれば、形状測定前に、第1の光が測定対象物に照射され、受光部と測定対象物との相対的な距離が変化された場合に、測定対象物の複数の部分にそれぞれ受光部の焦点が合った状態での受光部と測定対象物との相対的な距離に基づいて、測定対象物の立体形状を示す第1の立体形状データが生成される。
第1の立体形状データの生成後かつ形状測定前の時点での受光部と測定対象物との相対的な距離および生成された第1の立体形状データに基づいて受光部の焦点または受光部の光軸方向における測定可能な範囲と測定対象物との位置関係が算出される。
その後、形状測定時に、算出された位置関係に基づいて測定対象物の少なくとも一部が受光部の光軸方向における測定可能な範囲内に位置するように受光部と測定対象物との相対的な距離が調整される。測定対象物の少なくとも一部が受光部の光軸方向における測定可能な範囲内に位置する状態で、第2の光が測定対象物に照射され、測定対象物により反射された光が受光部により受光される。受光部から出力される受光信号に基づいて、三角測距方式により高い精度で測定対象物の立体形状を示す第2の立体形状データが生成される。
この場合、測定対象物の少なくとも一部が受光部の光軸方向における測定可能な範囲内に位置するように、受光部と測定対象物との相対的な距離が自動的に調整される。したがって、使用者は、測定対象物を受光部の焦点または受光部により測定可能な範囲内に適切かつ容易に位置させることができる。
  As each constituent element in the claims, various other elements having configurations or functions described in the claims can be used.
[9] Reference form
(1) The shape measuring apparatus according to the first reference embodiment has a stage on which a measurement object is placed, and first light for in-focus confirmation from above or obliquely above the measurement object placed on the stage. A light projecting unit configured to irradiate and irradiate the measurement target placed on the stage with the second light for shape measurement from obliquely above, and placed on the stage and placed on the stage. The relative distance between the light receiving unit configured to receive the light reflected by the measurement object and output a light reception signal indicating the amount of light received, and the optical axis direction of the light receiving unit is changed. Accordingly, the relative distance changing unit that changes the relative distance between the light receiving unit and the measurement target, and the relative distance changing unit between the light receiving unit and the measurement target when the first light is irradiated onto the measurement target. Multiple parts of the object to be measured when the relative distance is changed A first data generation unit that generates first three-dimensional shape data indicating a three-dimensional shape of the measurement object based on a relative distance between the light reception unit and the measurement object in a state where each of the light reception units is in focus And second solid shape data indicating the three-dimensional shape of the measurement object by the triangulation method based on the light reception signal output from the light receiving unit when the measurement object is irradiated with the second light. The second data generation unit, a display unit that displays an image of the measurement object based on the first three-dimensional shape data as an in-focus confirmation image, and the first three-dimensional shape data so as to generate the first three-dimensional shape data before the shape measurement. 1 light projecting unit, light receiving unit, and first data generating unit are controlled, and the relative distance and generation between the light receiving unit and the measurement object at the time after the generation of the first three-dimensional shape data and before the shape measurement The focus of the light receiving unit based on the first three-dimensional shape data Or, calculate the positional relationship between the measurable range in the optical axis direction of the light receiving unit and the measurement object, and control the display unit to display the in-focus confirmation image so that the calculated positional relationship can be identified, And a control unit that controls the second light projecting unit, the light receiving unit, and the second data generating unit so as to generate second solid shape data at the time of shape measurement.
In the shape measuring apparatus, the first object is irradiated with the first light before the shape measurement, and when the relative distance between the light receiving unit and the measuring object is changed, a plurality of parts of the measuring object are measured. Based on the relative distance between the light receiving unit and the measurement target in a state where the light receiving unit is in focus, first three-dimensional shape data indicating the three-dimensional shape of the measurement target is generated.
Based on the relative distance between the light receiving unit and the measurement object after the generation of the first three-dimensional shape data and before the shape measurement, and the focus of the light receiving unit or the light receiving unit based on the generated first three-dimensional shape data. The positional relationship between the measurable range in the optical axis direction and the measurement object is calculated. An in-focus confirmation image is displayed on the display unit so that the calculated positional relationship can be identified.
After that, during shape measurement, the second shape indicating the three-dimensional shape of the measurement object with high accuracy by the triangulation method based on the light reception signal output from the light receiving unit in a state where the second light is irradiated on the measurement object. The three-dimensional shape data is generated.
In this case, the user appropriately and easily positions the object to be measured within the focus of the light receiving unit or the range measurable by the light receiving unit while checking the in-focus confirmation image displayed on the display unit before measuring the shape. be able to.
(2) At the time of shape measurement, the control unit generates the second three-dimensional shape data in a state where some of the plurality of portions of the measurement object are located within a measurable range in the optical axis direction of the light receiving unit. After the second light projecting unit, the light receiving unit, and the second data generating unit are controlled, the relative distance changing unit changes the relative distance between the light receiving unit and the measurement object, so that other parts Controlling the second light projecting unit, the light receiving unit, and the second data generating unit so as to generate the second three-dimensional shape data in a state where the unit is located within a measurable range in the optical axis direction of the light receiving unit, You may synthesize | combine the 2nd solid-shape data corresponding to a part of several part and another part.
In this case, the second three-dimensional shape data is generated in a state where some of the plurality of portions of the measurement object are located within a measurable range in the optical axis direction of the light receiving unit. Further, the second three-dimensional shape data is generated in a state where the other portions of the plurality of portions are located within a measurable range in the optical axis direction of the light receiving portion. Second solid shape data corresponding to a part of the plurality of parts and the other part is synthesized. As a result, even when the range of multiple parts of the measurement target in the optical axis direction of the light receiving unit is larger than the measurable range in the optical axis direction of the light receiving unit, measurement is performed with high accuracy over a wide range of the measurement target. The three-dimensional shape of the object can be measured.
(3) The shape measuring apparatus designates at least a part of the plurality of portions of the measurement object on the in-focus confirmation image displayed on the display unit after the generation of the first three-dimensional shape data and before the shape measurement. The control unit further includes a designation operation unit operated by the user for the designation operation in the optical axis direction of the light receiving unit when at least a part of the plurality of parts of the measurement object is designated by the designation operation unit. It is determined whether or not the range of the part specified by the light receiving unit is less than or equal to the measurable range in the optical axis direction of the light receiving unit. In some cases, at the time of shape measurement, the relative distance changing unit is controlled so that the specified part is within a measurable range in the optical axis direction of the light receiving unit, and the specified part is in the optical axis direction of the light receiving unit. Position within measurable range That the second light projecting portion to generate a second three-dimensional shape data in the state, may control the light receiving unit and the second data generation unit.
In this case, after the generation of the first three-dimensional shape data and before the shape measurement, at least some of the plurality of portions of the measurement object are designated on the in-focus confirmation image displayed on the display unit. It is determined whether or not the range of the portion designated in the optical axis direction of the light receiving unit is equal to or less than the measurable range in the optical axis direction of the light receiving unit.
When the range of the specified part is less than the measurable range in the optical axis direction of the light receiving unit, the specified part is positioned within the measurable range in the optical axis direction of the light receiving unit when measuring the shape. After the relative distance changing unit is controlled, second solid shape data is generated. Accordingly, the user can quickly measure the three-dimensional shape of the measurement object with high accuracy for the designated portion.
(4) When the range of the specified part is larger than the measurable range in the optical axis direction of the light receiving unit, the control unit may have a part of the specified part in the optical axis direction of the light receiving unit during shape measurement. The relative distance changing unit is controlled so as to be located within the measurable range, and the second three-dimensional shape data is obtained in a state where a part of the designated portion is located within the measurable range in the optical axis direction of the light receiving unit. The second light projecting unit, the light receiving unit, and the second data generating unit are controlled so as to generate, and relative to each other so that the other part of the designated portion is located within a measurable range in the optical axis direction of the light receiving unit. A second light projecting unit configured to control the distance changing unit and generate the second three-dimensional shape data in a state where the other part of the designated part is located within a measurable range in the optical axis direction of the light receiving unit; Control the light receiving unit and the second data generation unit, Second three-dimensional shape data corresponding to the parts and other portions may be synthesized.
In this case, when the range of the specified part is larger than the measurable range in the optical axis direction of the light receiving unit, a part of the specified part can be measured in the optical axis direction of the light receiving unit during shape measurement. The relative distance changing unit is controlled so as to be located inside, and second solid shape data is generated. In addition, the relative distance changing unit is controlled so that the other part of the designated part is located within a measurable range in the optical axis direction of the light receiving unit, and second solid shape data is generated. Second solid shape data corresponding to a part of the designated part and the other part is synthesized. As a result, even when the range of the specified part is larger than the measurable range in the optical axis direction of the light receiving unit, the user can quickly and accurately measure the three-dimensional object to be measured over a wide range of the specified part. The shape can be measured.
(5) The shape measuring apparatus according to the second embodiment is configured to apply a first light for in-focus confirmation from above or obliquely upward to a measurement object placed on the stage and a measurement object placed on the stage. A light projecting unit configured to irradiate and irradiate the measurement target placed on the stage with the second light for shape measurement from obliquely above, and placed on the stage and placed on the stage. The relative distance between the light receiving unit configured to receive the light reflected by the measurement object and output a light reception signal indicating the amount of light received, and the optical axis direction of the light receiving unit is changed. The relative distance changing unit that changes the relative distance between the light receiving unit and the measurement object, and the relative distance changing unit relative to the light receiving unit and the measurement object when the measurement object is irradiated with the first light. Parts of the object to be measured when the general distance is changed A first data generating unit that generates first three-dimensional shape data indicating a three-dimensional shape of the measurement object based on a relative distance between the light receiving unit and the measurement object in a state where the light receiving unit is in focus; The second three-dimensional shape data indicating the three-dimensional shape of the measurement object is generated by the triangulation method based on the light reception signal output from the light receiving unit when the measurement object is irradiated with the second light. A second data generation unit configured to control the first light projecting unit, the light receiving unit, and the first data generation unit so as to generate first three-dimensional shape data before the shape measurement; Based on the relative distance between the light receiving unit and the measurement object at the time after the generation of the three-dimensional shape data and before the shape measurement, and the focal point of the light receiving unit or the optical axis direction of the light receiving unit based on the generated first three-dimensional shape data Calculate the positional relationship between the measurable range and the measurement object. Then, during the shape measurement, the relative distance changing unit is controlled based on the calculated positional relationship so that at least a part of the measurement object is located within a measurable range in the optical axis direction of the light receiving unit, and the measurement object The second light projecting unit, the light receiving unit, and the second data generating unit are configured to generate the second three-dimensional shape data in a state where at least a part of the second solid shape data is located within a measurable range in the optical axis direction of the light receiving unit. And a control unit for controlling.
In the shape measuring apparatus, the first object is irradiated with the first light before the shape measurement, and when the relative distance between the light receiving unit and the measuring object is changed, a plurality of parts of the measuring object are measured. Based on the relative distance between the light receiving unit and the measurement target in a state where the light receiving unit is in focus, first three-dimensional shape data indicating the three-dimensional shape of the measurement target is generated.
Based on the relative distance between the light receiving unit and the measurement object after the generation of the first three-dimensional shape data and before the shape measurement, and the focus of the light receiving unit or the light receiving unit based on the generated first three-dimensional shape data. The positional relationship between the measurable range in the optical axis direction and the measurement object is calculated.
Thereafter, at the time of shape measurement, the relative distance changing unit is controlled so that at least a part of the measurement object is located within a measurable range in the optical axis direction of the light receiving unit based on the calculated positional relationship. Based on a light reception signal output from the light receiving unit in a state where at least a part of the measurement target is located within a measurable range in the optical axis direction of the light receiving unit and the second light is irradiated on the measurement target, Second solid shape data indicating the solid shape of the measurement object is generated with high accuracy by the triangulation method.
In this case, the relative distance between the light receiving unit and the measurement target is automatically adjusted so that at least a part of the measurement target is located within a measurable range in the optical axis direction of the light receiving unit. Therefore, the user can appropriately and easily position the measuring object within the range measurable by the focal point of the light receiving unit or the light receiving unit.
(6) The control unit determines whether or not the range of the plurality of parts of the measurement object in the optical axis direction of the light receiving unit is equal to or less than the measurable range in the optical axis direction of the light receiving unit, and the range of the plurality of parts Is less than or equal to the measurable range in the optical axis direction of the light receiving unit, the relative distance changing unit is controlled so that a plurality of parts are located within the measurable range in the optical axis direction of the light receiving unit when measuring the shape. The second light projecting unit, the light receiving unit, and the second data generating unit are configured to generate the second three-dimensional shape data in a state where the plurality of parts are located within a measurable range in the optical axis direction of the light receiving unit. You may control.
In this case, it is determined whether or not the range of the plurality of portions of the measurement object in the optical axis direction of the light receiving unit is equal to or less than the measurable range in the optical axis direction of the light receiving unit. When the range of the plurality of parts is less than or equal to the measurable range in the optical axis direction of the light receiving unit, the plurality of parts of the measurement object are located within the measurable range in the optical axis direction of the light receiving unit during the shape measurement. Thus, after the relative distance changing unit is controlled, second solid shape data is generated. Accordingly, the user can quickly measure the three-dimensional shape of the measurement object with high accuracy for a plurality of portions of the measurement object.
(7) When the range of multiple parts is larger than the measurable range in the optical axis direction of the light receiving unit, the control unit can measure part of the multiple parts in the optical axis direction of the light receiving unit during shape measurement The relative distance changing unit is controlled so as to be located within a range, and the second three-dimensional shape data is generated in a state where a part of the plurality of portions is located within a measurable range in the optical axis direction of the light receiving unit. The second light projecting unit, the light receiving unit, and the second data generating unit are controlled, and the relative distance changing unit is set so that the other parts of the plurality of parts are located within a measurable range in the optical axis direction of the light receiving unit. And controlling the second light projecting unit, the light receiving unit, and the second light so as to generate the second three-dimensional shape data in a state where other parts of the plurality of parts are located within a measurable range in the optical axis direction of the light receiving unit. Controls the data generation unit and handles part of multiple parts and other parts 2 of the three-dimensional shape data may be synthesized.
In this case, when the range of multiple parts of the measurement object is larger than the measurable range in the optical axis direction of the light receiving unit, some of the multiple parts can be measured in the optical axis direction of the light receiving unit during shape measurement. The relative distance changing unit is controlled so as to be located within the range, and second solid shape data is generated. Further, the relative distance changing unit is controlled such that the other part of the plurality of parts is located within a measurable range in the optical axis direction of the light receiving unit, and second solid shape data is generated. Second solid shape data corresponding to a part of the plurality of parts and the other part is synthesized. Accordingly, even when the range of the plurality of parts of the measurement object is larger than the measurable range in the optical axis direction of the light receiving unit, the user can accurately detect the wide range of the plurality of parts of the measurement object. The three-dimensional shape of the measurement object can be measured quickly.
(8) The shape measurement apparatus displays a display unit that displays an image of the measurement object based on the first three-dimensional shape data as an in-focus confirmation image, and displays the first three-dimensional shape data after the generation and before the shape measurement. And a designation operation unit operated by a user to designate at least a part of the plurality of parts of the measurement object on the in-focus confirmation image displayed on the unit, and the control unit is controlled by the designation operation unit. When at least a part of a plurality of parts of the measurement object is specified, the range of the part specified by the specifying operation unit in the optical axis direction of the light receiving unit is less than the measurable range in the optical axis direction of the light receiving unit. If the range of the specified part is less than or equal to the measurable range in the optical axis direction of the light receiving unit, the specified part can be measured in the optical axis direction of the light receiving unit when measuring the shape. To be within range The second light projecting unit and the light receiving unit are configured to control the relative distance changing unit and generate the second three-dimensional shape data in a state where the designated portion is located within a measurable range in the optical axis direction of the light receiving unit. The second data generation unit may be controlled.
In this case, the image of the measurement object based on the generated first three-dimensional shape data is displayed on the display unit as the in-focus confirmation image after the generation of the first three-dimensional shape data and before the shape measurement. After the generation of the first three-dimensional shape data and before the shape measurement, at least some of the plurality of portions of the measurement object are designated on the in-focus confirmation image displayed on the display unit. It is determined whether or not the range of the portion designated in the optical axis direction of the light receiving unit is equal to or less than the measurable range in the optical axis direction of the light receiving unit.
When the range of the specified part is less than the measurable range in the optical axis direction of the light receiving unit, the specified part is positioned within the measurable range in the optical axis direction of the light receiving unit when measuring the shape. After the relative distance changing unit is controlled, second solid shape data is generated. Accordingly, the user can quickly measure the three-dimensional shape of the measurement object with high accuracy for the designated portion.
(9) When the range of the designated part is larger than the measurable range in the optical axis direction of the light receiving unit, the control unit may have a part of the designated part in the optical axis direction of the light receiving unit during shape measurement. The relative distance changing unit is controlled so as to be located within the measurable range, and the second three-dimensional shape data is obtained in a state where a part of the designated portion is located within the measurable range in the optical axis direction of the light receiving unit. The second light projecting unit, the light receiving unit, and the second data generating unit are controlled so as to generate, and relative to each other so that the other part of the designated portion is located within a measurable range in the optical axis direction of the light receiving unit. A second light projecting unit configured to control the distance changing unit and generate the second three-dimensional shape data in a state where the other part of the designated part is located within a measurable range in the optical axis direction of the light receiving unit; Control the light receiving unit and the second data generation unit, Second three-dimensional shape data corresponding to the parts and other portions may be synthesized.
In this case, when the range of the specified part is larger than the measurable range in the optical axis direction of the light receiving unit, a part of the specified part can be measured in the optical axis direction of the light receiving unit during shape measurement. The relative distance changing unit is controlled so as to be located inside, and second solid shape data is generated. In addition, the relative distance changing unit is controlled so that the other part of the designated part is located within a measurable range in the optical axis direction of the light receiving unit, and second solid shape data is generated. Second solid shape data corresponding to a part of the designated part and the other part is synthesized. As a result, even when the range of the specified part is larger than the measurable range in the optical axis direction of the light receiving unit, the user can quickly and accurately measure the three-dimensional object to be measured over a wide range of the specified part. The shape can be measured.
(10) The light projecting unit is configured to irradiate the measurement object with the first light and the second light source is configured to irradiate the measurement object with the second light. The first light projecting section is inclined by a first angle that is greater than 0 degree and smaller than 90 degrees with respect to the optical axis of the light receiving section or parallel to the optical axis of the light receiving section. The second light projecting unit is arranged so as to emit the first light having a uniform light amount distribution in the measured direction, and the second light projecting unit emits the light and the light emitted from the measurement light source is a pattern for shape measurement. And a pattern generator that generates the second light by converting the light into the second light in a direction inclined by a second angle larger than the first angle with respect to the optical axis of the light receiving unit. May be arranged so as to emit light.
In this case, the second light projecting unit emits the second light in a direction inclined by a second angle larger than the first angle with respect to the optical axis of the light receiving unit. Accordingly, the second three-dimensional shape data can be easily generated by the triangulation method in a state where the second light is irradiated on the measurement object. In addition, the first light projecting unit emits the first light in a direction inclined by a first angle smaller than the second angle with respect to the optical axis of the light receiving unit, thereby suppressing the generation of shadows. The measurement object can be irradiated with the first light.
(11) In the shape measuring method according to the third embodiment, before measuring the shape, the measurement target placed on the stage is irradiated with the first light for confirming the in-focus point from above or obliquely above, and the light receiving unit When the relative distance between the light receiving unit and the measurement target changes due to the relative distance between the stage and the stage changing in the optical axis direction of the light receiving unit, the light is received by multiple parts of the measurement target. Generating first three-dimensional shape data indicating a three-dimensional shape of the measurement object based on a relative distance between the light receiving unit and the measurement object in a state where the unit is in focus, and the first three-dimensional shape data Can be measured in the focal point of the light receiving unit or in the optical axis direction of the light receiving unit based on the relative distance between the light receiving unit and the measurement object and the generated first three-dimensional shape data at the time before the shape measurement and before the shape measurement Calculate the positional relationship between the target range and the measurement object. A step of displaying an image of the measurement object based on the first three-dimensional shape data on the display unit as an in-focus confirmation image so that the determined positional relationship can be identified, and the measurement object placed on the stage at the time of shape measurement The second measuring light is irradiated obliquely from above, the light reflected by the measuring object is received by the light receiving unit, and the measuring object is measured by the triangulation method based on the received light signal output from the light receiving unit. Generating second solid shape data indicating the three-dimensional shape.
In the shape measurement method, a plurality of portions of the measurement object are obtained when the measurement object is irradiated with the first light and the relative distance between the light receiving unit and the measurement object is changed before the shape measurement. Based on the relative distance between the light receiving unit and the measurement target in a state where the light receiving unit is in focus, first three-dimensional shape data indicating the three-dimensional shape of the measurement target is generated.
Based on the relative distance between the light receiving unit and the measurement object after the generation of the first three-dimensional shape data and before the shape measurement, and the focus of the light receiving unit or the light receiving unit based on the generated first three-dimensional shape data. The positional relationship between the measurable range in the optical axis direction and the measurement object is calculated. An in-focus confirmation image is displayed on the display unit so that the calculated positional relationship can be identified.
Thereafter, at the time of shape measurement, the second light is irradiated onto the measurement object, and the light reflected by the measurement object is received by the light receiving unit. Based on the light reception signal output from the light receiving unit, second solid shape data indicating the three-dimensional shape of the measurement object is generated with high accuracy by the triangulation method.
In this case, the user confirms the in-focus confirmation image displayed on the display unit before measuring the shape, so that the measurement object can be appropriately and easily within the range that can be measured by the focus of the light receiving unit or the light receiving unit. Can be positioned.
(12) In the shape measuring method according to the fourth reference embodiment, before measuring the shape, the measurement object placed on the stage is irradiated with the first light for in-focus confirmation from above or obliquely above, and the light receiving unit When the relative distance between the light receiving unit and the measurement target changes due to the relative distance between the stage and the stage changing in the optical axis direction of the light receiving unit, the light is received by multiple parts of the measurement target. Generating first three-dimensional shape data indicating a three-dimensional shape of the measurement object based on a relative distance between the light receiving unit and the measurement object in a state where the unit is in focus, and the first three-dimensional shape data Can be measured in the focal point of the light receiving unit or in the optical axis direction of the light receiving unit based on the relative distance between the light receiving unit and the measurement object and the generated first three-dimensional shape data at the time before the shape measurement and before the shape measurement Calculate the positional relationship between the target range and the object to be measured. During measurement, the relative distance between the light receiving unit and the measurement target is adjusted so that at least a part of the measurement target is located within the measurable range in the optical axis direction of the light receiving unit based on the calculated positional relationship. Then, in a state where at least a part of the measurement object is located within a measurable range in the optical axis direction of the light receiving unit, the second light for shape measurement is applied to the measurement object placed on the stage from obliquely above. Irradiated light reflected by the measuring object is received by the light receiving unit, and second solid shape data indicating the three-dimensional shape of the measuring object is obtained by the triangulation method based on the light reception signal output from the light receiving unit. Generating.
In the shape measurement method, a plurality of portions of the measurement object are obtained when the measurement object is irradiated with the first light and the relative distance between the light receiving unit and the measurement object is changed before the shape measurement. Based on the relative distance between the light receiving unit and the measurement target in a state where the light receiving unit is in focus, first three-dimensional shape data indicating the three-dimensional shape of the measurement target is generated.
Based on the relative distance between the light receiving unit and the measurement object after the generation of the first three-dimensional shape data and before the shape measurement, and the focus of the light receiving unit or the light receiving unit based on the generated first three-dimensional shape data. The positional relationship between the measurable range in the optical axis direction and the measurement object is calculated.
Thereafter, at the time of shape measurement, the relative relationship between the light receiving unit and the measurement target is set so that at least a part of the measurement target is located within the measurable range in the optical axis direction of the light receiving unit based on the calculated positional relationship. The distance is adjusted. In a state where at least a part of the measurement object is located within a measurable range in the optical axis direction of the light receiving unit, the second light is irradiated onto the measurement object, and the light reflected by the measurement object is received by the light receiving unit. Received light. Based on the light reception signal output from the light receiving unit, second solid shape data indicating the three-dimensional shape of the measurement object is generated with high accuracy by the triangulation method.
In this case, the relative distance between the light receiving unit and the measurement target is automatically adjusted so that at least a part of the measurement target is located within a measurable range in the optical axis direction of the light receiving unit. Therefore, the user can appropriately and easily position the measuring object within the range measurable by the focal point of the light receiving unit or the light receiving unit.
(13) The shape measurement program according to the fifth reference embodiment is a shape measurement program that can be executed by the processing device, and is focused on the measurement object placed on the stage from above or obliquely from above before the shape measurement. By irradiating the first light for confirmation, and the relative distance between the light receiving unit and the stage is changed in the optical axis direction of the light receiving unit, the relative distance between the light receiving unit and the measurement object is changed. In this case, the first three-dimensional shape showing the three-dimensional shape of the measurement object based on the relative distance between the light receiving unit and the measurement object in a state where the plurality of parts of the measurement object are respectively in focus. Light reception based on the process of generating data, the relative distance between the light receiving unit and the measurement object at the time after the generation of the first three-dimensional shape data and before the shape measurement, and the generated first three-dimensional shape data In the direction of the focal point of the The positional relationship between the measurable range and the measurement target is calculated, and the image of the measurement target based on the first three-dimensional shape data is displayed on the display unit as the in-focus confirmation image so that the calculated positional relationship can be identified. Processing, and at the time of shape measurement, the measurement object placed on the stage is irradiated with the second light for shape measurement from obliquely above, and the light reflected by the measurement object is received by the light receiving unit. And processing for generating second solid shape data indicating the three-dimensional shape of the measurement object by the triangulation method based on the light reception signal output from the processing unit.
According to the shape measurement program, when the first light is irradiated onto the measurement object before the shape measurement and the relative distance between the light receiving unit and the measurement object is changed, a plurality of measurement objects are measured. Based on the relative distance between the light receiving unit and the measurement target in a state where the light receiving unit is focused on each part, first three-dimensional shape data indicating the three-dimensional shape of the measurement target is generated.
Based on the relative distance between the light receiving unit and the measurement object after the generation of the first three-dimensional shape data and before the shape measurement, and the focus of the light receiving unit or the light receiving unit based on the generated first three-dimensional shape data. The positional relationship between the measurable range in the optical axis direction and the measurement object is calculated. An in-focus confirmation image is displayed on the display unit so that the calculated positional relationship can be identified.
Thereafter, at the time of shape measurement, the second light is irradiated onto the measurement object, and the light reflected by the measurement object is received by the light receiving unit. Based on the light reception signal output from the light receiving unit, second solid shape data indicating the three-dimensional shape of the measurement object is generated with high accuracy by the triangulation method.
In this case, the user confirms the in-focus confirmation image displayed on the display unit before measuring the shape, so that the measurement object can be appropriately and easily within the range that can be measured by the focus of the light receiving unit or the light receiving unit. Can be positioned.
(14) The shape measurement program according to the sixth embodiment is a shape measurement program that can be executed by the processing device, and is focused on the measurement object placed on the stage from above or obliquely from above before the shape measurement. By irradiating the first light for confirmation, and the relative distance between the light receiving unit and the stage is changed in the optical axis direction of the light receiving unit, the relative distance between the light receiving unit and the measurement object is changed. In this case, the first three-dimensional shape showing the three-dimensional shape of the measurement object based on the relative distance between the light receiving unit and the measurement object in a state where the plurality of parts of the measurement object are respectively in focus. Light reception based on the process of generating data, the relative distance between the light receiving unit and the measurement object at the time after the generation of the first three-dimensional shape data and before the shape measurement, and the generated first three-dimensional shape data In the direction of the focal point of the The positional relationship between the measurable range and the measurement object is calculated, and at the time of shape measurement, at least a part of the measurement object is within the measurable range in the optical axis direction of the light receiving unit based on the calculated positional relationship. Adjust the relative distance between the light receiving unit and the measurement target so that it is positioned, and place it on the stage with at least a part of the measurement target positioned within the measurable range in the optical axis direction of the light receiving unit. The measured measurement object is irradiated with the second light for shape measurement obliquely from above, the light reflected by the measurement object is received by the light receiving unit, and the triangulation is performed based on the light reception signal output from the light receiving unit. The processing device executes processing for generating second solid shape data indicating the solid shape of the measurement object by the distance method.
According to the shape measurement program, when the first light is irradiated onto the measurement object before the shape measurement and the relative distance between the light receiving unit and the measurement object is changed, a plurality of measurement objects are measured. Based on the relative distance between the light receiving unit and the measurement target in a state where the light receiving unit is focused on each part, first three-dimensional shape data indicating the three-dimensional shape of the measurement target is generated.
Based on the relative distance between the light receiving unit and the measurement object after the generation of the first three-dimensional shape data and before the shape measurement, and the focus of the light receiving unit or the light receiving unit based on the generated first three-dimensional shape data. The positional relationship between the measurable range in the optical axis direction and the measurement object is calculated.
Thereafter, at the time of shape measurement, the relative relationship between the light receiving unit and the measurement target is set so that at least a part of the measurement target is located within the measurable range in the optical axis direction of the light receiving unit based on the calculated positional relationship. The distance is adjusted. In a state where at least a part of the measurement object is located within a measurable range in the optical axis direction of the light receiving unit, the second light is irradiated onto the measurement object, and the light reflected by the measurement object is received by the light receiving unit. Received light. Based on the light reception signal output from the light receiving unit, second solid shape data indicating the three-dimensional shape of the measurement object is generated with high accuracy by the triangulation method.
In this case, the relative distance between the light receiving unit and the measurement target is automatically adjusted so that at least a part of the measurement target is located within a measurable range in the optical axis direction of the light receiving unit. Therefore, the user can appropriately and easily position the measuring object within the range measurable by the focal point of the light receiving unit or the light receiving unit.

本発明は、種々の形状測定装置、形状測定方法および形状測定プログラムに有効に利用することができる。   The present invention can be effectively used for various shape measuring apparatuses, shape measuring methods, and shape measuring programs.

100 測定部
110,110A,110B 投光部
111 測定光源
112 パターン生成部
113〜115,122,123 レンズ
120 受光部
121,121A,121B カメラ
121a 撮像素子
124 ハーフミラー
130 照明光出力部
140 ステージ
141 X−Yステージ
142 Zステージ
143 θステージ
144 チルトステージ
145 ステージ操作部
146 ステージ駆動部
150,310 制御基板
200 PC
210 CPU
220 ROM
230 作業用メモリ
240 記憶装置
250 操作部
300 制御部
320 照明光源
400 表示部
410 第1の表示領域
420 第2の表示領域
430 第3の表示領域
431 上限表示部
432 中心表示部
433 幅表示部
434 下限表示部
440 全焦点テクスチャ画像表示領域
441 線分
450 プロファイル形状表示領域
451 表面形状
452 上限線
453 下限線
454 焦点線
460 対象物表示領域
470 ボタン表示領域
471 指定ボタン
472 OKボタン
473 キャンセルボタン
491,492 画像表示領域
493,494 光量設定バー
493s,494s,572s スライダ
500 形状測定装置
550 画像表示領域
550a,550b,550c 画像表示領域
570,580 設定変更領域
571 明るさ選択欄
572 明るさ設定バー
573 表示切換欄
574 倍率切換欄
575 倍率選択欄
576 焦点調整欄
572s スライダ
580A 顕微鏡モード選択タブ
580B 形状測定モード選択タブ
581 ツール選択欄
581a 測定ツール表示欄
581b 補助ツール表示欄
582 撮影ボタン
583 測定ボタン
584 テクスチャ画像選択欄
584a,584b,584c チェックボックス
BC 下限カーソル
BL,BLS 下限面
CU,UCU,BCU カーソル
DF 測定可能範囲
FC 焦点線
FL 焦点面
FS 適切面
MD 距離
RS 焦点面
RF 実線
S 測定対象物
SH1,SH2,SH3 上面
Sh 孔
Ss 影
TF 点線
UC 上限カーソル
UL,ULS 上限面
Zc1 平均位置
DESCRIPTION OF SYMBOLS 100 Measurement part 110,110A, 110B Light projection part 111 Measurement light source 112 Pattern generation part 113-115,122,123 Lens 120 Light reception part 121,121A, 121B Camera 121a Image pick-up element 124 Half mirror 130 Illumination light output part 140 Stage 141 X -Y stage 142 Z stage 143 θ stage 144 Tilt stage 145 Stage operation unit 146 Stage drive unit 150, 310 Control board 200 PC
210 CPU
220 ROM
230 Working Memory 240 Storage Device 250 Operation Unit 300 Control Unit 320 Illumination Light Source 400 Display Unit 410 First Display Area 420 Second Display Area 430 Third Display Area 431 Upper Limit Display Unit 432 Center Display Unit 433 Width Display Unit 434 Lower limit display section 440 All-focus texture image display area 441 Line segment 450 Profile shape display area 451 Surface shape 452 Upper limit line 453 Lower limit line 454 Focal line 460 Object display area 470 Button display area 471 Specify button 472 OK button 473 Cancel button 491 492 Image display area 493, 494 Light quantity setting bar 493s, 494s, 572s Slider 500 Shape measuring device 550 Image display area 550a, 550b, 550c Image display area 570, 580 Setting change area 571 Brightness Selection field 572 Brightness setting bar 573 Display switching field 574 Magnification switching field 575 Magnification selection field 576 Focus adjustment field 572s Slider 580A Microscope mode selection tab 580B Shape measurement mode selection tab 581 Tool selection field 581a Measurement tool display field 581b Auxiliary tool display field 582 Shooting button 583 Measurement button 584 Texture image selection field 584a, 584b, 584c Check box BC Lower limit cursor BL, BLS Lower limit plane CU, UCU, BCU cursor
DF measurable range FC focal line FL focal plane FS appropriate plane MD distance RS focal plane RF solid line S measurement object SH1, SH2, SH3 top surface Sh hole Ss shadow TF dotted line UC upper limit cursor UL, ULS upper limit plane Zc1 Average position

Claims (19)

測定対象物を載置するステージと、
前記ステージに載置された測定対象物に上方から均一な光量分布を有する照明光を照射するように構成される第1の投光部と、
前記ステージに載置された測定対象物に斜め上方から互いに異なるパターンを有する測定光を複数回照射するように構成される第2の投光部と、
前記ステージの上方に配置され、前記ステージに載置された測定対象物により反射された光を受光し、受光量を示す受光信号を出力するとともに、前記ステージに載置された測定対象物を撮像するように構成される受光部と、
前記受光部と前記ステージとの相対的な距離を前記受光部の光軸方向に変化させることにより、前記受光部と測定対象物との相対的な距離を変化させる相対距離変化部と、
前記第2の投光部から測定対象物への前記測定光の照射時に、前記受光部から出力される受光信号に基づいて、三角測距方式により前記受光部の光軸方向における測定可能な第1の範囲で測定対象物の少なくとも一部の立体形状を示す主立体形状データを生成する主立体形状データ生成部と、
前記第1の投光部から測定対象物へ前記照明光が照射されるとともに前記相対距離変化部により前記受光部と測定対象物との相対的な距離が変化されつつ前記受光部による測定対象物の撮像が複数回行われることにより、撮像ごとに前記受光部から出力される受光信号に基づいて複数の画像データを生成し、生成された複数の画像データに基づいて測定対象物の複数の部分にそれぞれ前記受光部の焦点が合った状態での前記受光部と測定対象物との相対的な距離を取得し、取得した距離に基づいて前記受光部の光軸方向における前記第1の範囲よりも大きい第2の範囲で測定対象物の立体形状を示す副立体形状データを生成することが可能な副立体形状データ生成部と、
前記副立体形状データに基づく測定対象物の画像を合焦点確認用画像として表示する表示部と、
主立体形状データの生成前に、副立体形状データを生成するように前記第1の投光部、前記受光部、前記相対距離変化部および前記副立体形状データ生成部を制御し、前記副立体形状データの生成後に、前記受光部と測定対象物との相対的な距離および前記生成された副立体形状データに基づいて前記受光部の焦点または前記受光部の光軸方向における前記第1の範囲と測定対象物との位置関係を算出し、算出された位置関係を識別可能に前記合焦点確認用画像を表示するように前記表示部を制御し、前記合焦点確認用画像の表示後に、前記主立体形状データを生成するように前記第2の投光部、前記受光部および前記主立体形状データ生成部を制御する制御部とを備える、形状測定装置。
A stage on which a measurement object is placed;
A first light projecting unit configured to irradiate the measurement object placed on the stage with illumination light having a uniform light amount distribution from above;
A second light projecting unit configured to irradiate the measurement object placed on the stage a plurality of times with measurement light having different patterns from obliquely above;
It receives light reflected by the measurement object placed on the stage and placed on the stage, outputs a received light signal indicating the amount of received light, and images the measurement object placed on the stage. A light receiving portion configured to:
A relative distance changing unit that changes a relative distance between the light receiving unit and the measurement object by changing a relative distance between the light receiving unit and the stage in an optical axis direction of the light receiving unit;
When the measurement light is irradiated from the second light projecting unit to the measurement object, the measurement can be performed in the optical axis direction of the light receiving unit by the triangulation method based on the light reception signal output from the light receiving unit. A main three-dimensional shape data generating unit that generates main three-dimensional shape data indicating at least a part of the three-dimensional shape of the measurement object in a range of 1;
The measurement object by the light receiving unit is irradiated with the illumination light from the first light projecting unit and the relative distance changing unit changes the relative distance between the light receiving unit and the measurement target. Is performed a plurality of times to generate a plurality of image data based on the received light signal output from the light receiving unit for each imaging, and a plurality of portions of the measurement object based on the generated plurality of image data And obtaining a relative distance between the light receiving unit and the measurement object in a state where the light receiving unit is in focus, and based on the acquired distance, the first range in the optical axis direction of the light receiving unit. A sub-stereoscopic shape data generation unit capable of generating sub-stereoscopic shape data indicating the three-dimensional shape of the measurement object in a second range that is greater than
A display unit that displays an image of the measurement object based on the sub-stereoscopic shape data as an in-focus confirmation image;
Before generating the main three-dimensional shape data, the first light projecting unit, the light receiving unit, the relative distance changing unit, and the sub three-dimensional shape data generating unit are controlled so as to generate sub three-dimensional shape data. After the generation of the shape data, the first range in the optical axis direction of the light receiving unit or the focus of the light receiving unit based on the relative distance between the light receiving unit and the measurement object and the generated sub-stereoscopic shape data And calculating the positional relationship between the measurement object and the object to be measured, and controlling the display unit to display the focus confirmation image so that the calculated positional relationship can be identified, and after displaying the focus confirmation image, A shape measuring apparatus comprising: a control unit that controls the second light projecting unit, the light receiving unit, and the main three-dimensional shape data generating unit so as to generate main three-dimensional shape data.
前記制御部は、前記合焦点確認用画像の表示後に、測定対象物の前記複数の部分の一部が前記受光部の光軸方向における前記第1の範囲内に位置する状態で主立体形状データを生成するように前記第2の投光部、前記受光部および前記主立体形状データ生成部を制御した後、前記相対距離変化部を制御して前記受光部と測定対象物との相対的な距離を変化させることにより、前記複数の部分の他部が前記受光部の光軸方向における前記第1の範囲内に位置する状態で主立体形状データを生成するように前記第2の投光部、前記受光部および前記主立体形状データ生成部を制御し、前記複数の部分の一部および他部に対応する主立体形状データを合成する、請求項1記載の形状測定装置。 The controller is configured to display main stereoscopic shape data in a state where a part of the plurality of portions of the measurement object is located within the first range in the optical axis direction of the light receiving unit after the focus confirmation image is displayed. After controlling the second light projecting unit, the light receiving unit, and the main three-dimensional shape data generating unit, the relative distance changing unit is controlled to make the relative relationship between the light receiving unit and the measurement object. By changing the distance, the second light projecting unit generates the main stereoscopic shape data in a state in which the other part of the plurality of parts is located within the first range in the optical axis direction of the light receiving unit. The shape measuring apparatus according to claim 1, wherein the light receiving unit and the main three-dimensional shape data generating unit are controlled to synthesize main three-dimensional shape data corresponding to a part of the plurality of parts and another part. 前記副立体形状データの生成後に、前記表示部に表示される前記合焦点確認用画像上で測定対象物の前記複数の部分の少なくとも一部を指定するために使用者により操作される指定操作部をさらに備え、
前記制御部は、前記指定操作部により測定対象物の前記複数の部分の少なくとも一部が指定された場合に、前記受光部の光軸方向において前記指定操作部により指定された部分の範囲が前記受光部の光軸方向における前記第1の範囲以下であるか否かを判定し、前記受光部の光軸方向における前記指定された部分の範囲が前記受光部の光軸方向における前記第1の範囲以下である場合に、前記指定された部分が前記受光部の光軸方向における前記第1の範囲内に位置するように前記相対距離変化部を制御し、前記指定された部分が前記受光部の光軸方向における前記第1の範囲内に位置する状態で主立体形状データを生成するように前記第2の投光部、前記受光部および前記主立体形状データ生成部を制御する、請求項1または2記載の形状測定装置。
A designation operation unit operated by a user to designate at least a part of the plurality of portions of the measurement target on the in-focus confirmation image displayed on the display unit after the generation of the sub-stereoscopic shape data Further comprising
When at least a part of the plurality of parts of the measurement object is designated by the designation operation unit, the control unit has a range of the part designated by the designation operation unit in the optical axis direction of the light receiving unit. It is determined whether or not it is equal to or less than the first range in the optical axis direction of the light receiving unit, and the range of the specified portion in the optical axis direction of the light receiving unit is the first range in the optical axis direction of the light receiving unit. The relative distance changing unit is controlled so that the specified portion is located within the first range in the optical axis direction of the light receiving unit when the range is equal to or less than the range, and the specified portion is the light receiving unit The second light projecting unit, the light receiving unit, and the main three-dimensional shape data generating unit are controlled so as to generate main three-dimensional shape data in a state of being located within the first range in the optical axis direction of 1 or 2 shape Constant apparatus.
前記受光部と前記ステージとの相対的な距離を変化させるための前記相対距離変化部の動作指令を受け付ける動作指令受付部をさらに備え、
前記制御部は、前記合焦点確認用画像の表示時に、前記動作指令受付部による動作指令の受付に応答して、前記受光部と前記ステージとの相対的な距離が受け付けられた動作指令に対応する距離分変化するように前記相対距離変化部を制御可能であるとともに、前記受光部と前記ステージとの相対的な距離の変化時点の前記受光部の焦点または前記受光部の光軸方向における前記第1の範囲を示す位置関係画像が前記算出された位置関係として前記合焦点確認用画像上の対応する位置に表示されるように前記表示部を制御する、請求項1〜3のいずれか一項に記載の形状測定装置。
An operation command receiving unit that receives an operation command of the relative distance changing unit for changing a relative distance between the light receiving unit and the stage;
The control unit responds to an operation command in which a relative distance between the light receiving unit and the stage is received in response to reception of the operation command by the operation command receiving unit when the in-focus confirmation image is displayed. The relative distance changing unit can be controlled so as to change by the distance to be changed, and the focal point of the light receiving unit or the optical axis direction of the light receiving unit at the time when the relative distance between the light receiving unit and the stage changes. 4. The display unit according to claim 1, wherein the display unit is controlled so that a positional relationship image indicating a first range is displayed at a corresponding position on the in-focus confirmation image as the calculated positional relationship. The shape measuring device according to item.
測定対象物を載置するステージと、
前記ステージに載置された測定対象物に上方から均一な光量分布を有する照明光を照射するように構成される第1の投光部と、
前記ステージに載置された測定対象物に斜め上方から互いに異なるパターンを有する測定光を複数回照射するように構成される第2の投光部と、
前記ステージの上方に配置され、前記ステージに載置された測定対象物により反射された光を受光し、受光量を示す受光信号を出力するとともに、前記ステージに載置された測定対象物を撮像するように構成される受光部と、
前記受光部と前記ステージとの相対的な距離を前記受光部の光軸方向に変化させることにより、前記受光部と測定対象物との相対的な距離を変化させる相対距離変化部と、
前記第2の投光部から測定対象物への前記測定光の照射時に、前記受光部から出力される受光信号に基づいて、三角測距方式により前記受光部の光軸方向における測定可能な第1の範囲で測定対象物の少なくとも一部の立体形状を示す主立体形状データを生成する主立体形状データ生成部と、
前記第1の投光部から測定対象物へ前記照明光が照射されるとともに前記相対距離変化部により前記受光部と測定対象物との相対的な距離が変化されつつ前記受光部による測定対象物の撮像が複数回行われることにより、撮像ごとに前記受光部から出力される受光信号に基づいて複数の画像データを生成し、生成された複数の画像データに基づいて測定対象物の複数の部分にそれぞれ前記受光部の焦点が合った状態での前記受光部と測定対象物との相対的な距離を取得し、取得された距離に基づいて前記受光部の光軸方向における前記第1の範囲よりも大きい第2の範囲で測定対象物の立体形状を示す副立体形状データを生成することが可能な副立体形状データ生成部と、
主立体形状データの生成前に、副立体形状データを生成するように前記第1の投光部、前記受光部、前記相対距離変化部および前記副立体形状データ生成部を制御し、前記副立体形状データの生成後に、前記受光部と測定対象物との相対的な距離および前記生成された副立体形状データに基づいて前記受光部の焦点または前記受光部の光軸方向における前記第1の範囲と測定対象物との位置関係を算出し、算出された位置関係に基づいて測定対象物の少なくとも一部が前記受光部の光軸方向における前記第1の範囲内に位置するように前記相対距離変化部を制御し、その後、測定対象物の少なくとも一部が前記受光部の光軸方向における前記第1の範囲内に位置する状態で主立体形状データを生成するように前記第2の投光部、前記受光部および前記主立体形状データ生成部を制御する制御部とを備える、形状測定装置。
A stage on which a measurement object is placed;
A first light projecting unit configured to irradiate the measurement object placed on the stage with illumination light having a uniform light amount distribution from above;
A second light projecting unit configured to irradiate the measurement object placed on the stage a plurality of times with measurement light having different patterns from obliquely above;
It receives light reflected by the measurement object placed on the stage and placed on the stage, outputs a received light signal indicating the amount of received light, and images the measurement object placed on the stage. A light receiving portion configured to:
A relative distance changing unit that changes a relative distance between the light receiving unit and the measurement object by changing a relative distance between the light receiving unit and the stage in an optical axis direction of the light receiving unit;
When the measurement light is irradiated from the second light projecting unit to the measurement object, the measurement can be performed in the optical axis direction of the light receiving unit by the triangulation method based on the light reception signal output from the light receiving unit. A main three-dimensional shape data generating unit that generates main three-dimensional shape data indicating at least a part of the three-dimensional shape of the measurement object in a range of 1;
The measurement object by the light receiving unit is irradiated with the illumination light from the first light projecting unit and the relative distance changing unit changes the relative distance between the light receiving unit and the measurement target. Is performed a plurality of times to generate a plurality of image data based on the received light signal output from the light receiving unit for each imaging, and a plurality of portions of the measurement object based on the generated plurality of image data The first distance in the optical axis direction of the light receiving unit is acquired based on the acquired distance, and a relative distance between the light receiving unit and the measurement object in a state where each of the light receiving units is in focus is acquired. A sub-stereoscopic shape data generation unit capable of generating sub-stereoscopic shape data indicating the three-dimensional shape of the measurement object in a second range larger than
Before generating the main three-dimensional shape data, the first light projecting unit, the light receiving unit, the relative distance changing unit, and the sub three-dimensional shape data generating unit are controlled so as to generate sub three-dimensional shape data. After the generation of the shape data, the first range in the optical axis direction of the light receiving unit or the focus of the light receiving unit based on the relative distance between the light receiving unit and the measurement object and the generated sub-stereoscopic shape data And the relative distance so that at least a part of the measurement object is located within the first range in the optical axis direction of the light receiving unit based on the calculated positional relation. The second light projection is performed so as to generate the main stereoscopic shape data in a state in which at least a part of the measurement object is located within the first range in the optical axis direction of the light receiving unit. And the light receiving unit And a control unit for controlling the fine the main stereoscopic shape data generation unit, the shape measuring device.
前記制御部は、前記受光部の光軸方向における測定対象物の前記複数の部分の範囲が前記受光部の光軸方向における前記第1の範囲以下であるか否かを判定し、前記受光部の光軸方向における前記複数の部分の範囲が前記受光部の光軸方向における前記第1の範囲以下である場合に、前記複数の部分が前記受光部の光軸方向における前記第1の範囲内に位置するように前記相対距離変化部を制御し、前記複数の部分が前記受光部の光軸方向における前記第1の範囲内に位置する状態で主立体形状データを生成するように前記第2の投光部、前記受光部および前記主立体形状データ生成部を制御する、請求項5記載の形状測定装置。 The control unit determines whether a range of the plurality of portions of the measurement object in the optical axis direction of the light receiving unit is equal to or less than the first range in the optical axis direction of the light receiving unit, and the light receiving unit When the range of the plurality of parts in the optical axis direction is equal to or less than the first range in the optical axis direction of the light receiving unit, the plurality of parts are within the first range in the optical axis direction of the light receiving unit. The relative distance changing unit is controlled so as to be positioned at the second position, and the second three-dimensional shape data is generated in a state where the plurality of portions are positioned within the first range in the optical axis direction of the light receiving unit. The shape measuring device according to claim 5, which controls the light projecting unit, the light receiving unit, and the main three-dimensional shape data generating unit. 前記制御部は、前記受光部の光軸方向における前記複数の部分の範囲が前記受光部の光軸方向における前記第1の範囲よりも大きい場合に、前記複数の部分の一部が前記受光部の光軸方向における前記第1の範囲内に位置するように前記相対距離変化部を制御し、前記複数の部分の一部が前記受光部の光軸方向における前記第1の範囲内に位置する状態で主立体形状データを生成するように前記第2の投光部、前記受光部および前記主立体形状データ生成部を制御し、前記複数の部分の他部が前記受光部の光軸方向における前記第1の範囲内に位置するように前記相対距離変化部を制御し、前記複数の部分の他部が前記受光部の光軸方向における前記第1の範囲内に位置する状態で主立体形状データを生成するように前記第2の投光部、前記受光部および前記主立体形状データ生成部を制御し、前記複数の部分の一部および他部に対応する主立体形状データを合成する、請求項6記載の形状測定装置。 When the range of the plurality of portions in the optical axis direction of the light receiving unit is larger than the first range in the optical axis direction of the light receiving unit, a part of the plurality of portions is the light receiving unit. The relative distance changing unit is controlled so as to be located within the first range in the optical axis direction, and a part of the plurality of portions is located within the first range in the optical axis direction of the light receiving unit. The second light projecting unit, the light receiving unit, and the main three-dimensional shape data generating unit are controlled so as to generate main three-dimensional shape data in a state, and the other parts of the plurality of portions are in the optical axis direction of the light receiving unit. The relative three-dimensional shape is controlled in such a manner that the relative distance changing portion is controlled to be located within the first range, and the other portions of the plurality of portions are located within the first range in the optical axis direction of the light receiving portion. The second light projecting unit so as to generate data; Light unit and controls the main stereoscopic shape data generating unit synthesizes the main stereoscopic shape data corresponding to a part and other part of the plurality of portions, the shape measuring apparatus according to claim 6, wherein. 前記副立体形状データに基づく測定対象物の画像を合焦点確認用画像として表示する表示部と、
前記副立体形状データの生成後に、前記表示部に表示される前記合焦点確認用画像上で測定対象物の前記複数の部分の少なくとも一部を指定するために使用者により操作される指定操作部とをさらに備え、
前記制御部は、前記指定操作部により測定対象物の前記複数の部分の少なくとも一部が指定された場合に、前記受光部の光軸方向において前記指定操作部により指定された部分の範囲が前記受光部の光軸方向における前記第1の範囲以下であるか否かを判定し、前記受光部の光軸方向における前記指定された部分の範囲が前記受光部の光軸方向における前記第1の範囲以下である場合に、前記指定された部分が前記受光部の光軸方向における前記第1の範囲内に位置するように前記相対距離変化部を制御し、前記指定された部分が前記受光部の光軸方向における前記第1の範囲内に位置する状態で主立体形状データを生成するように前記第2の投光部、前記受光部および前記主立体形状データ生成部を制御する、請求項5〜7のいずれか一項に記載の形状測定装置。
A display unit that displays an image of the measurement object based on the sub-stereoscopic shape data as an in-focus confirmation image;
A designation operation unit operated by a user to designate at least a part of the plurality of portions of the measurement target on the in-focus confirmation image displayed on the display unit after the generation of the sub-stereoscopic shape data And further comprising
When at least a part of the plurality of parts of the measurement object is designated by the designation operation unit, the control unit has a range of the part designated by the designation operation unit in the optical axis direction of the light receiving unit. It is determined whether or not it is equal to or less than the first range in the optical axis direction of the light receiving unit, and the range of the specified portion in the optical axis direction of the light receiving unit is the first range in the optical axis direction of the light receiving unit. The relative distance changing unit is controlled so that the specified portion is located within the first range in the optical axis direction of the light receiving unit when the range is equal to or less than the range, and the specified portion is the light receiving unit The second light projecting unit, the light receiving unit, and the main three-dimensional shape data generating unit are controlled so as to generate main three-dimensional shape data in a state of being located within the first range in the optical axis direction of Any one of 5-7 Shape measuring apparatus according.
前記制御部は、前記受光部の光軸方向における前記指定された部分の範囲が前記受光部の光軸方向における前記第1の範囲よりも大きい場合に、前記指定された部分の一部が前記受光部の光軸方向における前記第1の範囲内に位置するように前記相対距離変化部を制御し、前記指定された部分の一部が前記受光部の光軸方向における前記第1の範囲内に位置する状態で主立体形状データを生成するように前記第2の投光部、前記受光部および前記主立体形状データ生成部を制御し、前記指定された部分の他部が前記受光部の光軸方向における前記第1の範囲内に位置するように前記相対距離変化部を制御し、前記指定された部分の他部が前記受光部の光軸方向における前記第1の範囲内に位置する状態で主立体形状データを生成するように前記第2の投光部、前記受光部および前記主立体形状データ生成部を制御し、前記指定された部分の一部および他部に対応する主立体形状データを合成する、請求項3または8記載の形状測定装置。 When the range of the specified portion in the optical axis direction of the light receiving unit is larger than the first range in the optical axis direction of the light receiving unit, the control unit determines that a part of the specified portion is The relative distance changing unit is controlled so as to be located within the first range in the optical axis direction of the light receiving unit, and a part of the designated portion is within the first range in the optical axis direction of the light receiving unit. The second light projecting unit, the light receiving unit, and the main three-dimensional shape data generating unit are controlled so as to generate main three-dimensional shape data in a state of being located at The relative distance changing unit is controlled so as to be located within the first range in the optical axis direction, and the other part of the designated portion is located within the first range in the optical axis direction of the light receiving unit. Before generating the main 3D shape data in the state The second light projecting portion, the light receiving unit and controls the main stereoscopic shape data generating unit synthesizes the main stereoscopic shape data corresponding to a part and other part of the designated portions, according to claim 3 or 8, wherein Shape measuring device. 前記受光部の光軸方向における前記第2の範囲を設定する範囲設定部をさらに備える、請求項1〜9のいずれか一項に記載の形状測定装置。   The shape measuring apparatus according to claim 1, further comprising a range setting unit that sets the second range in the optical axis direction of the light receiving unit. 前記ステージに載置された測定対象物は、前記受光部の光軸方向に高さを有し、
前記範囲設定部は、副立体形状データの生成時に、前記受光部の光軸方向における測定対象物の上限から下限までの範囲を含むように前記第2の範囲を設定する、請求項10記載の形状測定装置。
The measurement object placed on the stage has a height in the optical axis direction of the light receiving unit,
The said range setting part sets the said 2nd range so that the range from the upper limit of the measuring object in the optical axis direction of the said light-receiving part to the minimum may be included at the time of the production | generation of substereoscopic shape data. Shape measuring device.
前記制御部は、前記副立体形状データの生成時に、前記受光部と測定対象物との相対的な距離が変化することにより測定対象物の全ての部分に対して前記受光部の焦点が合うように前記相対距離変化部を制御するとともに、測定対象物の全体の立体形状を示す副立体形状データが生成されるように前記副立体形状データ生成部を制御する、請求項1〜10のいずれか一項に記載の形状測定装置。   When the sub-stereoscopic shape data is generated, the control unit is configured such that the relative distance between the light receiving unit and the measurement target changes, so that the light receiving unit is focused on all parts of the measurement target. The sub-stereoscopic shape data generation unit is controlled such that the sub-stereoscopic shape data indicating the entire three-dimensional shape of the measurement object is generated. The shape measuring apparatus according to one item. 前記副立体形状データ生成部により生成される前記複数の画像データは、測定対象物の表面の状態を示すテクスチャ画像データであり、
前記制御部は、前記主立体形状データの生成後に、前記テクスチャ画像データを生成された主立体形状データに合成することにより、測定対象物の立体形状にその測定対象物の表面の状態が合成された画像を示す合成データを生成する、請求項1〜12のいずれか一項に記載の形状測定装置。
The plurality of image data generated by the sub-stereoscopic shape data generation unit is texture image data indicating a state of the surface of the measurement object,
The controller combines the texture image data with the generated main three-dimensional shape data after generating the main three-dimensional shape data, so that the state of the surface of the measurement object is combined with the three-dimensional shape of the measurement object. The shape measuring device according to any one of claims 1 to 12, which generates composite data indicating a captured image.
前記制御部は、前記主立体形状データ生成部により生成された主立体形状データと、前記副立体形状データ生成部により生成された副立体形状データとに基づいて、前記生成された主立体形状データのうち測定対象物の形状を正確に測定することができない領域に対応する部分を不良部分として判定し、前記不良部分と判定されたデータを前記副立体形状データの対応する部分のデータを用いて置換または補完する、請求項1〜13のいずれか一項に記載の形状測定装置。   The control unit generates the main stereoscopic shape data generated based on the main stereoscopic shape data generated by the main stereoscopic shape data generation unit and the sub stereoscopic shape data generated by the sub stereoscopic shape data generation unit. Among these, the portion corresponding to the region where the shape of the measurement object cannot be measured accurately is determined as a defective portion, and the data determined as the defective portion is used using the data of the corresponding portion of the sub-stereoscopic shape data. The shape measuring apparatus according to claim 1, wherein the shape measuring apparatus is replaced or complemented. 前記制御部は、前記主立体形状データ生成部により生成された主立体形状データと、前記副立体形状データ生成部により生成された副立体形状データとに基づいて、前記生成された主立体形状データのうち信頼性が低い部分を信頼性低下部分として判定し、前記信頼性低下部分と判定されたデータを前記副立体形状データの対応する部分のデータを用いて置換または補完する、請求項1〜14のいずれか一項に記載の形状測定装置。 The control unit generates the main stereoscopic shape data generated based on the main stereoscopic shape data generated by the main stereoscopic shape data generation unit and the sub stereoscopic shape data generated by the sub stereoscopic shape data generation unit. the low reliability portion was determined as reduction in reliability portion of a substituted or complemented with data of the corresponding portion of the is determined that the reliability decreases partial data the sub-stereoscopic shape data, claim 1 The shape measuring device according to claim 14. ステージに載置された測定対象物に斜め上方から互いに異なるパターンを有する測定光を複数回照射し、測定対象物により反射された光を受光部により受光し、前記受光部から出力される受光信号に基づいて、三角測距方式により前記受光部の光軸方向における測定可能な第1の範囲で測定対象物の少なくとも一部の立体形状を示す主立体形状データを生成するステップと、
前記主立体形状データの生成前に、前記ステージに載置された測定対象物に上方から均一な光量分布を有する照明光を照射し、前記受光部と前記ステージとの相対的な距離を前記受光部の光軸方向に変化させつつ前記受光部による測定対象物の撮像を複数回行うことにより撮像ごとに前記受光部から出力される受光信号に基づいて複数の画像データを生成し、生成された複数の画像データに基づいて測定対象物の複数の部分にそれぞれ前記受光部の焦点が合った状態での前記受光部と測定対象物との相対的な距離を取得し、取得した距離に基づいて前記受光部の光軸方向における前記第1の範囲よりも大きい第2の範囲で測定対象物の立体形状を示す副立体形状データを生成するステップと、
前記副立体形状データの生成後かつ前記主立体形状データの生成前に、前記受光部と測定対象物との相対的な距離および前記生成された副立体形状データに基づいて前記受光部の焦点または前記受光部の光軸方向における前記第1の範囲と測定対象物との位置関係を算出し、算出された位置関係を識別可能に前記副立体形状データに基づく測定対象物の画像を合焦点確認用画像として表示部に表示するステップとを含む、形状測定方法。
A light receiving signal output from the light receiving unit by irradiating the measurement target mounted on the stage with measurement light having different patterns from obliquely above a plurality of times, and receiving the light reflected by the measurement target by the light receiving unit. A step of generating main three-dimensional shape data indicating a three-dimensional shape of at least a part of the measurement object in a first range measurable in the optical axis direction of the light receiving unit by a triangulation method;
Before generating the main three-dimensional shape data, the measurement object placed on the stage is irradiated with illumination light having a uniform light amount distribution from above, and the relative distance between the light receiving unit and the stage is received. A plurality of image data are generated based on the light reception signal output from the light receiving unit for each imaging by performing imaging of the measurement object by the light receiving unit a plurality of times while changing in the optical axis direction of the unit. Based on the plurality of image data, obtain a relative distance between the light receiving unit and the measurement target in a state where the light receiving unit is focused on a plurality of parts of the measurement target, and based on the acquired distance Generating sub-stereoscopic shape data indicating the three-dimensional shape of the measurement object in a second range larger than the first range in the optical axis direction of the light receiving unit;
After the generation of the sub stereoscopic shape data and before the generation of the main stereoscopic shape data, based on the relative distance between the light receiving portion and the measurement object and the generated sub stereoscopic shape data, The positional relationship between the first range and the measurement object in the optical axis direction of the light receiving unit is calculated, and the image of the measurement object based on the sub-stereoscopic shape data is confirmed to be in focus so that the calculated positional relationship can be identified And displaying the image on the display unit as an image for use.
ステージに載置された測定対象物に斜め上方から互いに異なるパターンを有する測定光を複数回照射し、測定対象物により反射された光を受光部により受光し、前記受光部から出力される受光信号に基づいて、三角測距方式により前記受光部の光軸方向における測定可能な第1の範囲で測定対象物の少なくとも一部の立体形状を示す主立体形状データを生成するステップと、
前記主立体形状データの生成前に、前記ステージに載置された測定対象物に上方から均一な光量分布を有する照明光を照射し、前記受光部と前記ステージとの相対的な距離を前記受光部の光軸方向に変化させつつ前記受光部による測定対象物の撮像を複数回行うことにより撮像ごとに前記受光部から出力される受光信号に基づいて複数の画像データを生成し、生成された複数の画像データに基づいて測定対象物の複数の部分にそれぞれ前記受光部の焦点が合った状態での前記受光部と測定対象物との相対的な距離を取得し、取得した距離に基づいて前記受光部の光軸方向における前記第1の範囲よりも大きい第2の範囲で測定対象物の立体形状を示す副立体形状データを生成するステップと、
前記副立体形状データの生成後かつ前記主立体形状データの生成前に、前記受光部と測定対象物との相対的な距離および前記生成された副立体形状データに基づいて前記受光部の焦点または前記受光部の光軸方向における前記第1の範囲と測定対象物との位置関係を算出するステップとを含み、
前記主立体形状データを生成するステップは、前記位置関係を算出するステップにより算出された位置関係に基づいて測定対象物の少なくとも一部が前記受光部の光軸方向における前記第1の範囲内に位置するように受光部と測定対象物との相対的な距離を調整し、その後、測定対象物の少なくとも一部が前記受光部の光軸方向における前記第1の範囲内に位置する状態で、前記測定光を測定対象物に複数回照射することを含む、形状測定方法。
A light receiving signal output from the light receiving unit by irradiating the measurement target mounted on the stage with measurement light having different patterns from obliquely above a plurality of times, and receiving the light reflected by the measurement target by the light receiving unit. A step of generating main three-dimensional shape data indicating a three-dimensional shape of at least a part of the measurement object in a first range measurable in the optical axis direction of the light receiving unit by a triangulation method;
Before generating the main three-dimensional shape data, the measurement object placed on the stage is irradiated with illumination light having a uniform light amount distribution from above, and the relative distance between the light receiving unit and the stage is received. A plurality of image data are generated based on the light reception signal output from the light receiving unit for each imaging by performing imaging of the measurement object by the light receiving unit a plurality of times while changing in the optical axis direction of the unit. Based on the plurality of image data, obtain a relative distance between the light receiving unit and the measurement target in a state where the light receiving unit is focused on a plurality of parts of the measurement target, and based on the acquired distance Generating sub-stereoscopic shape data indicating the three-dimensional shape of the measurement object in a second range larger than the first range in the optical axis direction of the light receiving unit;
After the generation of the sub stereoscopic shape data and before the generation of the main stereoscopic shape data, based on the relative distance between the light receiving portion and the measurement object and the generated sub stereoscopic shape data, Calculating the positional relationship between the first range and the measurement object in the optical axis direction of the light receiving unit,
In the step of generating the main stereoscopic shape data, at least a part of the measurement object is within the first range in the optical axis direction of the light receiving unit based on the positional relationship calculated by the step of calculating the positional relationship. Adjusting the relative distance between the light receiving unit and the measurement target so as to be positioned, and then in a state where at least a part of the measurement target is located within the first range in the optical axis direction of the light receiving unit, A shape measurement method comprising irradiating the measurement object with the measurement light a plurality of times.
処理装置により実行可能な形状測定プログラムであって、
ステージに載置された測定対象物に斜め上方から互いに異なるパターンを有する測定光を複数回照射し、測定対象物により反射された光を受光部により受光し、前記受光部から出力される受光信号に基づいて、三角測距方式により前記受光部の光軸方向における測定可能な第1の範囲で測定対象物の少なくとも一部の立体形状を示す主立体形状データを生成する処理と、
前記主立体形状データの生成前に、前記ステージに載置された測定対象物に上方から均一な光量分布を有する照明光を照射し、前記受光部と前記ステージとの相対的な距離を前記受光部の光軸方向に変化させつつ前記受光部による測定対象物の撮像を複数回行うことにより撮像ごとに前記受光部から出力される受光信号に基づいて複数の画像データを生成し、生成された複数の画像データに基づいて測定対象物の複数の部分にそれぞれ前記受光部の焦点が合った状態での前記受光部と測定対象物との相対的な距離を取得し、取得した距離に基づいて前記受光部の光軸方向における前記第1の範囲よりも大きい第2の範囲で測定対象物の立体形状を示す副立体形状データを生成する処理と、
前記副立体形状データの生成後かつ前記主立体形状データの生成前に、前記受光部と測定対象物との相対的な距離および前記生成された副立体形状データに基づいて前記受光部の焦点または前記受光部の光軸方向における前記第1の範囲と測定対象物との位置関係を算出し、算出された位置関係を識別可能に前記副立体形状データに基づく測定対象物の画像を合焦点確認用画像として表示部に表示する処理とを前記処理装置に実行させるための、形状測定プログラム。
A shape measurement program executable by a processing device,
A light receiving signal output from the light receiving unit by irradiating the measurement target mounted on the stage with measurement light having different patterns from obliquely above a plurality of times, and receiving the light reflected by the measurement target by the light receiving unit. A process of generating main three-dimensional shape data indicating a three-dimensional shape of at least a part of the measurement object in a first range measurable in the optical axis direction of the light receiving unit by a triangulation method;
Before generating the main three-dimensional shape data, the measurement object placed on the stage is irradiated with illumination light having a uniform light amount distribution from above, and the relative distance between the light receiving unit and the stage is received. A plurality of image data are generated based on the light reception signal output from the light receiving unit for each imaging by performing imaging of the measurement object by the light receiving unit a plurality of times while changing in the optical axis direction of the unit. Based on the plurality of image data, obtain a relative distance between the light receiving unit and the measurement target in a state where the light receiving unit is focused on a plurality of parts of the measurement target, and based on the acquired distance Processing for generating sub-stereoscopic shape data indicating the three-dimensional shape of the measurement object in a second range larger than the first range in the optical axis direction of the light receiving unit;
After the generation of the sub stereoscopic shape data and before the generation of the main stereoscopic shape data, based on the relative distance between the light receiving portion and the measurement object and the generated sub stereoscopic shape data, The positional relationship between the first range and the measurement object in the optical axis direction of the light receiving unit is calculated, and the image of the measurement object based on the sub-stereoscopic shape data is confirmed to be in focus so that the calculated positional relationship can be identified A shape measurement program for causing the processing device to execute processing for displaying on a display unit as an image for use.
処理装置により実行可能な形状測定プログラムであって、
ステージに載置された測定対象物に斜め上方から互いに異なるパターンを有する測定光を複数回照射し、測定対象物により反射された光を受光部により受光し、前記受光部から出力される受光信号に基づいて、三角測距方式により前記受光部の光軸方向における測定可能な第1の範囲で測定対象物の少なくとも一部の立体形状を示す主立体形状データを生成する処理と、
前記主立体形状データの生成前に、前記ステージに載置された測定対象物に上方から均一な光量分布を有する照明光を照射し、前記受光部と前記ステージとの相対的な距離を前記受光部の光軸方向に変化させつつ前記受光部による測定対象物の撮像を複数回行うことにより撮像ごとに前記受光部から出力される受光信号に基づいて複数の画像データを生成し、生成された複数の画像データに基づいて測定対象物の複数の部分にそれぞれ前記受光部の焦点が合った状態での前記受光部と測定対象物との相対的な距離を取得し、取得した距離に基づいて前記受光部の光軸方向における前記第1の範囲よりも大きい第2の範囲で測定対象物の立体形状を示す副立体形状データを生成する処理と、
前記副立体形状データの生成後かつ前記主立体形状データの生成前に、前記受光部と測定対象物との相対的な距離および前記生成された副立体形状データに基づいて前記受光部の焦点または前記受光部の光軸方向における前記第1の範囲と測定対象物との位置関係を算出する処理とを前記処理装置に実行させるための形状測定プログラムであって
前記主立体形状データを生成する処理は、前記位置関係を算出する処理により算出された位置関係に基づいて測定対象物の少なくとも一部が前記受光部の光軸方向における前記第1の範囲内に位置するように受光部と測定対象物との相対的な距離を調整し、その後、測定対象物の少なくとも一部が前記受光部の光軸方向における前記第1の範囲内に位置する状態で、前記測定光を測定対象物に複数回照射することを含む、形状測定プログラム。
A shape measurement program executable by a processing device,
A light receiving signal output from the light receiving unit by irradiating the measurement target mounted on the stage with measurement light having different patterns from obliquely above a plurality of times, and receiving the light reflected by the measurement target by the light receiving unit. A process of generating main three-dimensional shape data indicating a three-dimensional shape of at least a part of the measurement object in a first range measurable in the optical axis direction of the light receiving unit by a triangulation method;
Before generating the main three-dimensional shape data, the measurement object placed on the stage is irradiated with illumination light having a uniform light amount distribution from above, and the relative distance between the light receiving unit and the stage is received. A plurality of image data are generated based on the light reception signal output from the light receiving unit for each imaging by performing imaging of the measurement object by the light receiving unit a plurality of times while changing in the optical axis direction of the unit. Based on the plurality of image data, obtain a relative distance between the light receiving unit and the measurement target in a state where the light receiving unit is focused on a plurality of parts of the measurement target, and based on the acquired distance Processing for generating sub-stereoscopic shape data indicating the three-dimensional shape of the measurement object in a second range larger than the first range in the optical axis direction of the light receiving unit;
After the generation of the sub stereoscopic shape data and before the generation of the main stereoscopic shape data, based on the relative distance between the light receiving portion and the measurement object and the generated sub stereoscopic shape data, a form measuring program order to execute the processing for calculating the positional relationship between the first range and the measurement object in the optical axis direction of the light receiving portion to the processing unit,
In the process of generating the main three-dimensional shape data, at least a part of the measurement object is within the first range in the optical axis direction of the light receiving unit based on the positional relationship calculated by the process of calculating the positional relationship. Adjusting the relative distance between the light receiving unit and the measurement target so as to be positioned, and then in a state where at least a part of the measurement target is located within the first range in the optical axis direction of the light receiving unit, A shape measurement program comprising irradiating a measurement object with the measurement light a plurality of times.
JP2012243904A 2012-11-05 2012-11-05 Shape measuring device, shape measuring method, and shape measuring program Expired - Fee Related JP6161253B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012243904A JP6161253B2 (en) 2012-11-05 2012-11-05 Shape measuring device, shape measuring method, and shape measuring program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012243904A JP6161253B2 (en) 2012-11-05 2012-11-05 Shape measuring device, shape measuring method, and shape measuring program

Publications (2)

Publication Number Publication Date
JP2014092490A JP2014092490A (en) 2014-05-19
JP6161253B2 true JP6161253B2 (en) 2017-07-12

Family

ID=50936646

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012243904A Expired - Fee Related JP6161253B2 (en) 2012-11-05 2012-11-05 Shape measuring device, shape measuring method, and shape measuring program

Country Status (1)

Country Link
JP (1) JP6161253B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7137345B2 (en) 2018-04-20 2022-09-14 株式会社キーエンス Shape measuring device, shape measuring method, shape measuring program, computer-readable recording medium, and recorded equipment
JP2019190919A (en) * 2018-04-20 2019-10-31 株式会社キーエンス Shape measuring device, shape measuring method, shape measuring program, computer readable recording medium, and recorded apparatus
JP7157546B2 (en) * 2018-04-20 2022-10-20 株式会社キーエンス Shape measuring device, shape measuring method, shape measuring program, computer-readable recording medium, and recorded equipment
JP6982018B2 (en) 2019-02-27 2021-12-17 キヤノンマシナリー株式会社 Three-dimensional shape detection device, three-dimensional shape detection method, and three-dimensional shape detection program
JP7252019B2 (en) * 2019-03-18 2023-04-04 株式会社キーエンス Image measuring device
KR102465143B1 (en) * 2021-12-24 2022-11-10 (주)힉스컴퍼니 Method and apparatus for profiling for user convenience

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10124646A (en) * 1996-10-17 1998-05-15 Minolta Co Ltd Three-dimensional measuring device
JP4380663B2 (en) * 2006-06-08 2009-12-09 コニカミノルタセンシング株式会社 Three-dimensional shape measurement method, apparatus, and focus adjustment method

Also Published As

Publication number Publication date
JP2014092490A (en) 2014-05-19

Similar Documents

Publication Publication Date Title
JP6112807B2 (en) Shape measuring device, shape measuring method, and shape measuring program
JP6091864B2 (en) Shape measuring device, shape measuring method, and shape measuring program
JP6116164B2 (en) Shape measuring device, shape measuring method, and shape measuring program
JP6029394B2 (en) Shape measuring device
JP6004851B2 (en) Shape measuring device, shape measuring method, and shape measuring program
JP6161253B2 (en) Shape measuring device, shape measuring method, and shape measuring program
JP6161775B2 (en) Shape measuring device, shape measuring method, and shape measuring program
JP6691837B2 (en) measuring device
JP6279048B2 (en) Shape measuring device
JP5956911B2 (en) Shape measuring device, shape measuring method, and shape measuring program
JP6009288B2 (en) Measurement microscope apparatus, measurement microscope apparatus operation program, and computer-readable recording medium
JP6736383B2 (en) measuring device
JP2014055814A (en) Shape measuring device, shape measuring method, and shape measuring program
JP5969867B2 (en) Optical microscope
JP6476252B2 (en) Shape measuring device, shape measuring method, and shape measuring program
JP6025466B2 (en) Shape measuring device, shape measuring method, and shape measuring program
JP5956932B2 (en) Shape measuring device, shape measuring method, and shape measuring program
JP6695748B2 (en) measuring device
JP7154084B2 (en) Three-dimensional shape measuring device and three-dimensional shape measuring program
JP2014109452A (en) Optical microscope
JP6695747B2 (en) measuring device
JP2014056059A (en) Optical microscope
JP2014109616A (en) Optical microscope
JP6025533B2 (en) Optical microscope

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150805

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160524

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170110

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170530

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170613

R150 Certificate of patent or registration of utility model

Ref document number: 6161253

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees