JP6004851B2 - Shape measuring device, shape measuring method, and shape measuring program - Google Patents
Shape measuring device, shape measuring method, and shape measuring program Download PDFInfo
- Publication number
- JP6004851B2 JP6004851B2 JP2012199987A JP2012199987A JP6004851B2 JP 6004851 B2 JP6004851 B2 JP 6004851B2 JP 2012199987 A JP2012199987 A JP 2012199987A JP 2012199987 A JP2012199987 A JP 2012199987A JP 6004851 B2 JP6004851 B2 JP 6004851B2
- Authority
- JP
- Japan
- Prior art keywords
- measurement
- light
- unit
- shape
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
Description
本発明は、形状測定装置、形状測定方法および形状測定プログラムに関する。 The present invention relates to a shape measuring device, a shape measuring method, and a shape measuring program.
三角測距方式の形状測定装置では、測定対象物の表面に光が照射され、その反射光が1次元または2次元に配列された画素を有する受光素子により受光される。受光素子により得られる受光量分布のピーク位置に基づいて、測定対象物の表面の高さを計測することができる。これにより、測定対象物の形状を測定することができる。 In a triangulation type shape measuring apparatus, light is irradiated on the surface of a measurement object, and the reflected light is received by a light receiving element having pixels arranged one-dimensionally or two-dimensionally. The height of the surface of the measurement object can be measured based on the peak position of the received light amount distribution obtained by the light receiving element. Thereby, the shape of the measurement object can be measured.
非特許文献1においては、符号化された光と位相シフト法とを組み合わせた三角測距方式の形状測定が提案されている。また、非特許文献2においては、符号化された光とストライプ状の光とを組み合わせた三角測距方式の形状測定が提案されている。これらの方式においては、測定対象物の形状測定の精度を向上させることができる。
Non-Patent
三角測距方式による形状測定においては、影が発生する部分または光の多重反射が発生する部分等の正確な形状測定が不可能または困難な部分を含むことが多い。したがって、形状測定においては、測定対象物の測定すべき位置が測定可能となるように、測定条件を適切に選択しなければならない。しかしながら、測定対象物の形状によっては、測定対象物の測定条件を適切に選択することは容易ではない。 In the shape measurement by the triangulation method, it often includes a portion where accurate shape measurement is impossible or difficult, such as a portion where a shadow occurs or a portion where multiple reflection of light occurs. Therefore, in the shape measurement, the measurement conditions must be appropriately selected so that the position to be measured of the measurement object can be measured. However, depending on the shape of the measurement object, it is not easy to appropriately select the measurement conditions for the measurement object.
本発明の目的は、測定対象物の形状測定前に、測定対象物の測定条件を容易に適切に選択することが可能な形状測定装置、形状測定方法および形状測定プログラムを提供することである。 An object of the present invention is to provide a shape measuring device, a shape measuring method, and a shape measuring program capable of easily and appropriately selecting measurement conditions for a measuring object before measuring the shape of the measuring object.
(1)第1の発明に係る形状測定装置は、測定対象物が載置されるステージと、ステージに載置された測定対象物に斜め上方から光を照射するように構成される投光部と、ステージの上方に配置され、測定対象物により反射された光を受光し、受光量を示す受光信号を出力するように構成される受光部と、受光部により出力された受光信号に基づいて、測定対象物の画像を表示するための画像データを生成するとともに、三角測距方式により測定対象物の立体形状を示す立体形状データを生成するように構成されるデータ生成部と、データ生成部により生成された画像データまたは立体形状データに基づいて、測定対象物の画像を表示するように構成される表示部と、測定条件選択時に、異なる複数の測定条件でそれぞれ複数の画像データまたは複数の立体形状データが生成されるように投光部、受光部およびデータ生成部を制御し、データ生成部により生成された複数の画像データまたは複数の立体形状データに基づいて、複数の測定条件で実行される形状測定において生じる測定対象物の測定困難領域をそれぞれ推定し、複数の測定条件に対応して推定された測定困難領域を認識可能に、複数の測定条件にそれぞれ対応する測定対象物の複数の画像を表示するように表示部を制御する制御部と、測定条件選択時に、表示部に表示された複数の画像に基づいて複数の測定条件のいずれかを選択するために使用者により操作される操作部とを備え、複数の測定条件においては、投光部により照射される光のパターンおよび投光部により照射される光の方向の少なくとも一方が異なり、制御部は、形状測定時に、操作部の操作により選択された測定条件で立体形状データが生成されるように投光部、受光部およびデータ生成部を制御するものである。 (1) A shape measuring apparatus according to a first aspect of the present invention is a stage on which a measurement object is placed, and a light projecting unit configured to irradiate light onto the measurement object placed on the stage obliquely from above. And a light receiving unit disposed above the stage, configured to receive light reflected by the measurement object and output a light reception signal indicating the amount of light received, and based on the light reception signal output by the light reception unit A data generation unit configured to generate image data for displaying an image of the measurement object and to generate solid shape data indicating the three-dimensional shape of the measurement object by a triangulation method; and a data generation unit based on the generated image data or three-dimensional shape data by a configured display unit as an image to view the measurement object, when the measurement conditions selected, a plurality of image data or a plurality of different measurement conditions Projecting unit as the plurality of three-dimensional shape data is generated to control the light receiving unit and the data generating unit, based on a plurality of image data or three-dimensional shape data generated by the data generating unit, a plurality of measurement Measured objects corresponding to multiple measurement conditions can be estimated by estimating the difficult measurement areas of the measurement object that occur in the shape measurement performed under conditions, and recognizing the difficult measurement areas estimated corresponding to multiple measurement conditions. A control unit that controls the display unit to display a plurality of images of an object, and a user to select one of a plurality of measurement conditions based on the plurality of images displayed on the display unit when the measurement condition is selected. and an operation unit operated by, in the plurality of measurement conditions, at least one direction of light emitted by the pattern and the projection portion of the light emitted by the light projecting unit is different Control unit, at the time of shape measurement, projected portion as three-dimensional shape data is generated by the measurement conditions selected by operating the operation unit, and controls the receiving unit and the data generating unit.
この形状測定装置においては、測定条件選択時に、異なる複数の測定条件で投光部によりステージに載置された測定対象物に斜め上方から光が照射され、測定対象物により反射された光がステージの上方で受光部により受光され、受光量を示す受光信号が出力され、受光部により出力された受光信号に基づいて、測定対象物の画像を表示するための複数の画像データまたは複数の立体形状データがそれぞれ生成される。複数の測定条件においては、投光部により照射される光のパターンおよび投光部により照射される光の方向の少なくとも一方が異なる。生成された複数の画像データまたは複数の立体形状データに基づいて、複数の測定条件で実行される形状測定において生じる測定対象物の測定困難領域がそれぞれ推定される。複数の測定条件に対応して推定された測定困難領域を認識可能に、複数の測定条件にそれぞれ対応する測定対象物の複数の画像が表示部に表示される。 In the shape measuring apparatus, when the measurement conditions selected, different light obliquely from above the measuring object mounted on the stage by the light projecting unit in the measurement condition is irradiated, the light reflected by the measurement object A light receiving signal is received above the stage by the light receiving unit and an amount of received light is output. Based on the light receiving signal output by the light receiving unit , a plurality of image data or a plurality of three-dimensional images for displaying an image of the measurement object Each shape data is generated. Under a plurality of measurement conditions, at least one of the pattern of light irradiated by the light projecting unit and the direction of light irradiated by the light projecting unit is different. Based on the generated plurality of image data or the plurality of three-dimensional shape data, the measurement difficulty regions of the measurement object generated in the shape measurement performed under the plurality of measurement conditions are estimated. A plurality of images of the measurement object respectively corresponding to the plurality of measurement conditions are displayed on the display unit so that the measurement difficulty regions estimated corresponding to the plurality of measurement conditions can be recognized.
使用者は、表示部に表示された複数の画像に基づいて複数の測定条件のいずれかを選択することができる。形状測定時に、選択された測定条件で投光部によりステージに載置された測定対象物に斜め上方から光が照射され、測定対象物により反射された光が選択された測定条件でステージの上方で受光部により受光され、受光量を示す受光信号が出力され、受光部により出力された受光信号に基づいて、選択された測定条件で立体形状データが生成される。 The user can select one of a plurality of measurement conditions based on a plurality of images displayed on the display unit. During shape measurement, the light obliquely from above is irradiated to the measured object mounted on the stage by the light projecting unit in the selected measurement condition, the upper stage measurement conditions light reflected is selected by the measurement object The light receiving signal is received by the light receiving unit, and a light receiving signal indicating the amount of received light is output. Based on the light receiving signal output by the light receiving unit, solid shape data is generated under the selected measurement conditions.
この構成によれば、使用者は、形状測定前に、異なる複数の測定条件で実行される形状測定において生じる測定対象物の測定困難領域を認識することができる。これにより、測定対象物の形状測定前に、測定対象物の測定条件を容易に適切に選択することができる。
(2)制御部は、測定条件選択時における各測定条件に対応する画像データまたは立体形状データの生成および測定困難領域の推定に要する時間が形状測定時における形状測定に要する測定時間よりも短くなるように投光部、受光部およびデータ生成部を制御してもよい。
(3)測定困難領域は、測定対象物において影が発生する領域、光の潜り込みまたは多重反射が発生する領域、および高い強度の光の反射が発生する領域の少なくとも1つを含んでもよい。
(4)制御部は、測定困難領域として、各画像データまたは各立体形状データにおけるデータ欠落部分、または受光信号に基づいてデータが不正確であると推定されるデータ不正確部分を認識可能に表示するように表示部を制御してもよい。
According to this configuration, the user can recognize the measurement difficulty region of the measurement object that occurs in the shape measurement performed under a plurality of different measurement conditions before the shape measurement. Thereby, it is possible to easily and appropriately select measurement conditions for the measurement object before measuring the shape of the measurement object.
(2) The control unit takes a shorter time to generate the image data or three-dimensional shape data corresponding to each measurement condition when the measurement condition is selected and to estimate the measurement difficult region than the measurement time required for the shape measurement at the time of the shape measurement. In this manner, the light projecting unit, the light receiving unit, and the data generating unit may be controlled.
(3) The measurement difficulty region may include at least one of a region where a shadow is generated in the measurement object, a region where light stagnation or multiple reflection occurs, and a region where high-intensity light reflection occurs.
(4) The control unit displays the data inaccurate portion in which the data is estimated to be inaccurate based on the light reception signal or the data missing portion in each image data or each three-dimensional shape data as the measurement difficult region. The display unit may be controlled to do so.
(5)制御部は、複数の測定条件における形状測定に要する測定時間を表示するように表示部を制御してもよい。 ( 5 ) The control unit may control the display unit to display the measurement time required for shape measurement under a plurality of measurement conditions.
この場合、使用者は、複数の測定条件における形状測定に要する測定時間を認識することができる。これにより、使用者は、測定対象物の形状測定前に、測定困難領域および測定時間に基づいて測定対象物の測定条件を容易に適切に選択することができる。 In this case, the user can recognize the measurement time required for shape measurement under a plurality of measurement conditions. Accordingly, the user can easily and appropriately select the measurement condition of the measurement object based on the measurement difficulty region and the measurement time before measuring the shape of the measurement object.
(6)複数の測定条件は、形状測定において生じる測定困難領域の種類、位置および面積のうち少なくとも1つが異なる複数の測定条件を含んでもよい。 ( 6 ) The plurality of measurement conditions may include a plurality of measurement conditions in which at least one of the type, position, and area of the measurement difficulty region that occurs in the shape measurement is different.
この場合、使用者は、形状測定前に、形状測定において生じる測定困難領域の種類、位置および面積のうち少なくとも1つが異なる複数の測定条件を認識することができる。これにより、使用者は、測定対象物の形状測定前に、形状測定において生じる測定困難領域の種類、位置および面積のうち少なくとも1つが異なる複数の測定条件のうち、形状測定に適した測定条件を容易に適切に選択することができる。 In this case, before the shape measurement, the user can recognize a plurality of measurement conditions in which at least one of the type, position, and area of the measurement difficulty region that occurs in the shape measurement is different. Accordingly, the user can set measurement conditions suitable for shape measurement among a plurality of measurement conditions in which at least one of the type, position, and area of the measurement difficulty region that occurs in shape measurement is different before measuring the shape of the measurement object. It can be easily selected appropriately.
(7)複数の測定条件は、投光部により照射される光のパターン、投光部による光の照射回数、受光部の露光時間、投光部により測定対象物に照射される光の強度およびデータ処理部による立体形状データの生成方法のうち少なくとも1つが異なる複数の測定モードを含んでもよい。 ( 7 ) The plurality of measurement conditions are: the pattern of light emitted by the light projecting unit, the number of times of light irradiation by the light projecting unit, the exposure time of the light receiving unit, the intensity of light irradiated on the measurement object by the light projecting unit, and A plurality of measurement modes in which at least one of the three-dimensional shape data generation methods by the data processing unit is different may be included.
この場合、使用者は、形状測定前に、異なる複数の測定モードで実行される形状測定において生じる測定対象物の測定困難領域を認識することができる。これにより、測定対象物の形状測定前に、複数の測定モードのうち形状測定に適した測定モードを容易に適切に選択することができる。 In this case, the user can recognize the measurement difficulty region of the measurement object that occurs in the shape measurement performed in different measurement modes before the shape measurement. This makes it possible to easily and appropriately select a measurement mode suitable for shape measurement from among a plurality of measurement modes before measuring the shape of the measurement object.
(8)複数の測定条件は、測定対象物の異なる複数の姿勢もしくは位置または光の異なる複数の照射方向を含んでもよい。 ( 8 ) The plurality of measurement conditions may include a plurality of different postures or positions of the measurement object or a plurality of irradiation directions of different light.
この場合、使用者は、形状測定前に、測定対象物の異なる複数の姿勢もしくは位置または光の異なる複数の照射方向で実行される形状測定において生じる測定対象物の測定困難領域を認識することができる。これにより、測定対象物の形状測定前に、測定対象物の異なる複数の姿勢もしくは位置または光の異なる複数の照射方向のうち形状測定に適した測定対象物の姿勢もしくは位置または光の照射方向を容易に適切に選択することができる。 In this case, before the shape measurement, the user may recognize a measurement difficulty region of the measurement object that occurs in shape measurement performed in a plurality of postures or positions of the measurement object or a plurality of irradiation directions with different light. it can. Thus, before measuring the shape of the measurement object, the posture or position of the measurement object or the light irradiation direction suitable for shape measurement among the plurality of different postures or positions of the measurement object or the plurality of irradiation directions of different light. It can be easily selected appropriately.
(9)制御部は、測定条件選択時の測定困難領域の推定時に、データ生成部により生成された画像データに基づいて、複数の測定条件に対応する測定対象物の複数の画像を表示するように表示部を制御するとともに、投光部により照射される光のパターン、投光部による光の照射回数、受光部の露光時間、投光部により測定対象物に照射される光の強度およびデータ処理部による画像データの生成方法のうち少なくとも1つが異なる複数の状態で、複数の測定条件における測定対象物の測定困難領域をそれぞれ推定し、測定困難領域の推定に要する推定時間が形状測定に要する測定時間よりも短くなるように投光部により照射される光のパターン、投光部による光の照射回数、受光部の露光時間、投光部により測定対象物に照射される光の強度およびデータ処理部による画像データの生成方法のうち少なくとも1つを、形状測定時とは異なるように設定してもよい。 ( 9 ) The control unit displays a plurality of images of the measurement object corresponding to the plurality of measurement conditions based on the image data generated by the data generation unit when estimating the measurement difficulty region when the measurement condition is selected. In addition to controlling the display unit, the light pattern irradiated by the light projecting unit, the number of times of light irradiation by the light projecting unit, the exposure time of the light receiving unit, the intensity and data of the light irradiated to the measurement object by the light projecting unit In a plurality of states in which at least one of the image data generation methods by the processing unit is different, the measurement difficult regions of the measurement object under a plurality of measurement conditions are respectively estimated, and the estimation time required for estimation of the measurement difficult regions is required for the shape measurement. The pattern of light emitted by the light projecting unit so as to be shorter than the measurement time, the number of times of light irradiation by the light projecting unit, the exposure time of the light receiving unit, and the light irradiated on the measurement object by the light projecting unit At least one of the method of generating the image data by the degree and the data processing unit may be set to be different from the time of shape measurement.
この場合、2次元的な複数の画像とともに測定困難領域が表示される。また、測定対象物の形状測定を行う場合に比べて、短時間で測定困難領域が推定される。これにより、使用者は、形状測定前に、2次元的な複数の画像に基づいて測定困難領域を短時間で認識することができる。 In this case, the measurement difficulty region is displayed together with the two-dimensional images. In addition, the measurement difficulty region is estimated in a shorter time than when measuring the shape of the measurement object. Thereby, the user can recognize the measurement difficulty region in a short time based on a plurality of two-dimensional images before measuring the shape.
(10)制御部は、測定条件選択時の測定困難領域の推定時に、データ生成部により生成された立体形状データに基づいて、複数の測定条件に対応する測定対象物の複数の画像を表示するように表示部を制御するとともに、投光部により照射される光のパターン、投光部による光の照射回数、受光部の露光時間、投光部により測定対象物に照射される光の強度およびデータ処理部による立体形状データの生成方法のうち少なくとも1つが異なる複数の状態で、複数の測定条件における測定対象物の測定困難領域をそれぞれ推定し、測定困難領域の推定に要する推定時間が形状測定に要する測定時間よりも短くなるように投光部により照射される光のパターン、投光部による光の照射回数、受光部の露光時間、投光部により測定対象物に照射される光の強度およびデータ処理部による立体形状データの生成方法のうち少なくとも1つを、形状測定時とは異なるように設定してもよい。 ( 10 ) The control unit displays a plurality of images of the measurement object corresponding to the plurality of measurement conditions based on the three-dimensional shape data generated by the data generation unit when estimating the measurement difficulty region at the time of selecting the measurement condition. In this way, the display unit is controlled, the pattern of light emitted by the light projecting unit, the number of times of light irradiation by the light projecting unit, the exposure time of the light receiving unit, the intensity of light irradiated on the measurement object by the light projecting unit, and Estimate the measurement difficulty region of the measurement object under multiple measurement conditions in multiple states with at least one of the three-dimensional shape data generation methods by the data processing unit, and estimate the time required for estimation of the measurement difficulty region The pattern of light irradiated by the light projecting unit, the number of times of light irradiation by the light projecting unit, the exposure time of the light receiving unit, and the light projecting unit At least one of the method for generating three-dimensional shape data according to the intensity and the data processing unit of the light may be set to be different from the time of shape measurement.
この場合、3次元的な複数の画像とともに測定困難領域が表示される。また、測定対象物の形状測定を行う場合に比べて、短時間で測定困難領域が高い精度で推定される。これにより、使用者は、形状測定前に、3次元的な複数の画像に基づいて測定困難領域を短時間で認識することができる。 In this case, the measurement difficulty region is displayed together with a plurality of three-dimensional images. Moreover, compared with the case where the shape of the measurement object is measured, the measurement difficulty region is estimated with high accuracy in a short time. Thereby, the user can recognize the measurement difficulty region in a short time based on a plurality of three-dimensional images before measuring the shape.
(11)投光部に対する測定対象物の向きまたは受光部とステージとの相対的な距離を変化させることにより測定対象物を複数の姿勢または位置に設定する変化部をさらに備え、制御部は、測定条件選択時の測定困難領域の推定時に、変化部により測定対象物が複数の姿勢または位置にそれぞれ設定された状態で複数の測定条件における測定対象物の測定困難領域をそれぞれ推定してもよい。 ( 11 ) The control unit further includes a changing unit that sets the measuring object in a plurality of postures or positions by changing the direction of the measuring object with respect to the light projecting unit or the relative distance between the light receiving unit and the stage. When estimating the measurement difficult region when selecting the measurement condition, the measurement target may be estimated for each measurement target region under a plurality of measurement conditions in a state where the measurement target is set in a plurality of postures or positions by the changing unit. .
この場合、投光部に対する測定対象物の向きまたは受光部とステージとの相対的な距離が変化される。これにより、使用者は、形状測定前に、複数の姿勢または位置において生じる測定対象物の測定困難領域を容易に認識することができる。 In this case, the direction of the measurement object relative to the light projecting unit or the relative distance between the light receiving unit and the stage is changed. Thereby, the user can easily recognize the measurement difficulty region of the measurement object generated in a plurality of postures or positions before the shape measurement.
(12)投光部は、異なる位置から異なる方向において測定対象物にそれぞれ光を照射するように構成され、制御部は、測定条件選択時の測定困難領域の推定時に、投光部によりそれぞれ異なる1または複数の方向において測定対象物に光が照射される状態で、複数の測定条件における測定対象物の測定困難領域をそれぞれ推定してもよい。 ( 12 ) The light projecting unit is configured to irradiate the measurement object with light in different directions from different positions, and the control unit is different depending on the light projecting unit when estimating the measurement difficult region when the measurement condition is selected. The measurement difficulty regions of the measurement object under a plurality of measurement conditions may be estimated in a state where light is irradiated on the measurement object in one or a plurality of directions.
この構成によれば、使用者は、形状測定前に、投光部によりそれぞれ異なる1または複数の方向において測定対象物に光が照射される場合において生じる測定対象物の測定困難領域を確実に認識することができる。 According to this configuration, the user can surely recognize the measurement difficulty region of the measurement object that occurs when the measurement object is irradiated with light in one or more different directions by the light projecting unit before the shape measurement. can do.
(13)投光部は、光を異なる位置から異なる方向において測定対象物にそれぞれ照射する第1および第2の投光部を含み、制御部は、測定条件選択時の測定困難領域の推定時に、第1および第2の投光部の一方により測定対象物に光が照射されるように第1および第2の投光部を制御し、形状測定時に、第1および第2の投光部の両方から測定対象物に光が順次照射されるように第1および第2の投光部を制御してもよい。 ( 13 ) The light projecting unit includes first and second light projecting units that respectively irradiate the measurement object in different directions from different positions, and the control unit is configured to estimate the measurement difficulty region when the measurement condition is selected. The first and second light projecting units are controlled so that the measurement object is irradiated with light by one of the first and second light projecting units, and the first and second light projecting units are measured during shape measurement. The first and second light projecting units may be controlled so that the measurement object is sequentially irradiated with light from both.
この場合、測定困難領域の推定においては、画像データまたは立体形状データの生成の回数が低減されるとともに、データ生成部の処理時間が短縮される。これにより、測定困難領域が短時間で推定される。 In this case, in the estimation of the measurement difficulty region, the number of generations of the image data or the three-dimensional shape data is reduced, and the processing time of the data generation unit is shortened. Thereby, the measurement difficulty region is estimated in a short time.
(14)制御部は、測定条件選択時の測定困難領域の推定時に、間引きされた受光信号を出力するように受光部を制御してもよい。 ( 14 ) The control unit may control the light receiving unit so as to output the thinned light receiving signal when the measurement difficult region is estimated when the measurement condition is selected .
この場合、測定困難領域の推定においては、データ生成部の処理時間が短縮される。これにより、測定困難領域が短時間で推定される。 In this case, the processing time of the data generation unit is shortened in estimating the measurement difficulty region. Thereby, the measurement difficulty region is estimated in a short time.
(15)制御部は、測定対象物における推定された測定困難領域の面積の程度を算出するように構成されてもよい。この場合、測定困難領域の面積の程度を測定条件の選択に利用することができる。 ( 15 ) The control unit may be configured to calculate a degree of the area of the estimated measurement difficulty region in the measurement object. In this case, the extent of the area where measurement is difficult can be used for selecting the measurement conditions.
(16)制御部は、測定対象物における測定困難領域の面積の程度の算出結果を表示するように表示部を制御してもよい。 ( 16 ) The control unit may control the display unit to display a calculation result of the degree of the area of the measurement difficulty region in the measurement object.
この場合、使用者は、測定困難領域の面積の程度を容易に認識することができる。それにより、使用者は、測定困難領域の面積の程度に基づいて適切な測定条件を容易に選択することができる。 In this case, the user can easily recognize the degree of the area of the measurement difficulty region. Thereby, the user can easily select an appropriate measurement condition based on the degree of the area of the measurement difficulty region.
(17)制御部は、測定対象物における測定困難領域の面積の程度の算出結果に基づいて複数の測定条件のうち推奨する測定条件を選択し、選択され測定条件を表示するように表示部を制御してもよい。 ( 17 ) The control unit selects a recommended measurement condition from among a plurality of measurement conditions based on the calculation result of the extent of the measurement difficulty region in the measurement object, and the display unit is configured to display the selected measurement condition. You may control.
この場合、使用者は、推奨された測定条件を考慮しつつ、複数の測定条件から適切な測定条件を選択することができる。 In this case, the user can select an appropriate measurement condition from a plurality of measurement conditions in consideration of the recommended measurement conditions.
(18)操作部は、表示部に表示された測定対象物の画像上の任意の範囲を指定するために使用者により操作され、制御部は、操作部により指定された範囲における推定された測定困難領域の面積の程度を算出してもよい。 ( 18 ) The operation unit is operated by the user to designate an arbitrary range on the image of the measurement object displayed on the display unit, and the control unit performs the estimated measurement in the range designated by the operation unit. The extent of the difficult area may be calculated.
この場合、使用者は、測定対象物の画像上の任意の範囲における推定された測定困難領域の面積の程度を認識することができる。それにより、使用者は、測定すべき領域における測定困難領域の面積の程度に基づいて適切な測定条件を容易に選択することができる。 In this case, the user can recognize the degree of the area of the estimated difficult measurement area in an arbitrary range on the image of the measurement object. Thereby, the user can easily select an appropriate measurement condition based on the degree of the area of the measurement difficulty region in the region to be measured.
(19)第2の発明に係る形状測定方法は、測定条件選択時に、異なる複数の測定条件で投光部によりステージに載置された測定対象物に斜め上方から光を照射し、測定対象物により反射された光をステージの上方で受光部により受光し、受光量を示す受光信号を出力し、受光部により出力された受光信号に基づいて、測定対象物の画像を表示するための複数の画像データまたは複数の立体形状データをそれぞれ生成するステップと、測定条件選択時に、生成された複数の画像データまたは複数の立体形状データに基づいて、複数の測定条件で実行される形状測定において生じる測定対象物の測定困難領域をそれぞれ推定するステップと、測定条件選択時に、複数の測定条件に対応して推定された測定困難領域を認識可能に、複数の測定条件にそれぞれ対応する測定対象物の複数の画像を表示部に表示するステップと、測定条件選択時に、表示部に表示された複数の画像に基づく複数の測定条件のいずれかの選択を受け付けるステップと、形状測定時に、選択された測定条件で投光部によりステージに載置された測定対象物に斜め上方から光を照射し、測定対象物により反射された光を選択された測定条件でステージの上方で受光部により受光し、受光量を示す受光信号を出力し、受光部により出力された受光信号に基づいて、選択された測定条件で立体形状データを生成するステップとを備え、複数の測定条件においては、投光部により照射される光のパターンおよび投光部により照射される光の方向の少なくとも一方が異なるものである。 ( 19 ) In the shape measuring method according to the second aspect of the present invention, when measuring conditions are selected , the measuring object placed on the stage by the light projecting unit is irradiated with light from obliquely above under a plurality of different measuring conditions. the light reflected is received by the light receiving portion above the stage by an object, and outputs a light reception signal indicating the amount of received light, based on the output received signal by the light receiving portion, a plurality for displaying the image of the measuring object image data or three-dimensional shape data and generating respectively, at the time of measurement condition selection of, based on the generated plurality of image data or three-dimensional shape data, occurs in the shape measurements performed at a plurality of measurement conditions estimating measurement difficulty region of the measuring object, respectively, when the measurement conditions selected, recognizably the measurement difficulty region estimated to correspond to a plurality of measurement conditions, a plurality of measurement conditions Each displaying a plurality of images on the display unit of the corresponding measuring object, in measurement condition selection, the steps of receiving a selection of either the plurality of measurement conditions based on a plurality of images displayed on the display unit, during shape measurement, the upper of the selected light is irradiated obliquely from above the measuring object mounted on the stage by the light projecting unit in the measurement conditions, stage measurement conditions selected light reflected by the measurement object Receiving the light by the light receiving unit, outputting a light reception signal indicating the amount of light received, and generating solid shape data under the selected measurement conditions based on the light reception signal output by the light receiving unit , and a plurality of measurement conditions in at least one direction of light emitted by the pattern and the projection portion of the light emitted by the light projecting unit it is different as shall.
この形状測定方法においては、測定条件選択時に、異なる複数の測定条件で投光部によりステージに載置された測定対象物に斜め上方から光が照射され、測定対象物により反射された光がステージの上方で受光部により受光され、受光量を示す受光信号が出力され、受光部により出力された受光信号に基づいて、測定対象物の画像を表示するための複数の画像データまたは複数の立体形状データがそれぞれ生成される。複数の測定条件においては、投光部により照射される光のパターンおよび投光部により照射される光の方向の少なくとも一方が異なる。生成された複数の画像データまたは複数の立体形状データに基づいて、複数の測定条件で実行される形状測定において生じる測定対象物の測定困難領域がそれぞれ推定される。複数の測定条件に対応して推定された測定困難領域を認識可能に、複数の測定条件にそれぞれ対応する測定対象物の複数の画像が表示部に表示される。 In this shape measuring method, when the measurement conditions selected, different light obliquely from above the measuring object mounted on the stage by the light projecting unit in the measurement condition is irradiated, the light reflected by the measurement object A light receiving signal is received above the stage by the light receiving unit and an amount of received light is output. Based on the light receiving signal output by the light receiving unit , a plurality of image data or a plurality of three-dimensional images for displaying an image of the measurement object Each shape data is generated. Under a plurality of measurement conditions, at least one of the pattern of light irradiated by the light projecting unit and the direction of light irradiated by the light projecting unit is different. Based on the generated plurality of image data or the plurality of three-dimensional shape data, the measurement difficulty regions of the measurement object generated in the shape measurement performed under the plurality of measurement conditions are estimated. A plurality of images of the measurement object respectively corresponding to the plurality of measurement conditions are displayed on the display unit so that the measurement difficulty regions estimated corresponding to the plurality of measurement conditions can be recognized.
使用者は、表示部に表示された複数の画像に基づいて複数の測定条件のいずれかを選択することができる。形状測定時に、選択された測定条件で投光部によりステージに載置された測定対象物に斜め上方から光が照射され、測定対象物により反射された光が選択された測定条件でステージの上方で受光部により受光され、受光量を示す受光信号が出力され、受光部により出力された受光信号に基づいて、選択された測定条件で立体形状データが生成される。 The user can select one of a plurality of measurement conditions based on a plurality of images displayed on the display unit. During shape measurement, the light obliquely from above is irradiated to the measured object mounted on the stage by the light projecting unit in the selected measurement condition, the upper stage measurement conditions light reflected is selected by the measurement object The light receiving signal is received by the light receiving unit, and a light receiving signal indicating the amount of received light is output. Based on the light receiving signal output by the light receiving unit, solid shape data is generated under the selected measurement conditions.
この構成によれば、使用者は、形状測定前に、異なる複数の測定条件で実行される形状測定において生じる測定対象物の測定困難領域を認識することができる。これにより、測定対象物の形状測定前に、測定対象物の測定条件を容易に適切に選択することができる。 According to this configuration, the user can recognize the measurement difficulty region of the measurement object that occurs in the shape measurement performed under a plurality of different measurement conditions before the shape measurement. Thereby, it is possible to easily and appropriately select measurement conditions for the measurement object before measuring the shape of the measurement object.
(20)第3の発明に係る形状測定プログラムは、処理装置により実行可能な形状測定プログラムであって、測定条件選択時に、異なる複数の測定条件で投光部によりステージに載置された測定対象物に斜め上方から光を照射し、測定対象物により反射された光をステージの上方で受光部により受光し、受光量を示す受光信号を出力し、受光部により出力された受光信号に基づいて、測定対象物の画像を表示するための複数の画像データまたは複数の立体形状データをそれぞれ生成する処理と、測定条件選択時に、生成された複数の画像データまたは複数の立体形状データに基づいて、複数の測定条件で実行される形状測定において生じる測定対象物の測定困難領域をそれぞれ推定する処理と、測定条件選択時に、複数の測定条件に対応して推定された測定困難領域を認識可能に、複数の測定条件にそれぞれ対応する測定対象物の複数の画像を表示部に表示する処理と、測定条件選択時に、表示部に表示された複数の画像に基づく複数の測定条件のいずれかの選択を受け付ける処理と、形状測定時に、選択された測定条件で投光部によりステージに載置された測定対象物に斜め上方から光を照射し、測定対象物により反射された光を選択された測定条件でステージの上方で受光部により受光し、受光量を示す受光信号を出力し、受光部により出力された受光信号に基づいて、選択された測定条件で立体形状データを生成する処理とを、処理装置に実行させ、複数の測定条件においては、投光部により照射される光のパターンおよび投光部により照射される光の方向の少なくとも一方が異なるものである。 ( 20 ) A shape measurement program according to a third invention is a shape measurement program executable by a processing device, and is a measurement placed on a stage by a light projecting unit under a plurality of different measurement conditions when a measurement condition is selected. light is irradiated obliquely from above to the object, the light reflected by the measurement object is received by the light receiving portion above the stage, and outputs a light reception signal representing the received light amount, based on the output received signal by the light receiving portion Te, a plurality of image data or three-dimensional shape data for displaying an image of the measuring object and generating respectively, when the measurement conditions selected, based on the plurality of generated image data or three-dimensional shape data a process of estimating each measurement difficulty region of the measuring object occurring in the shape measurements performed at a plurality of measurement conditions, when the measurement conditions selected, corresponding to a plurality of measurement conditions Recognizable the estimated measurement difficulty region, a process of displaying a plurality of images of the measuring object corresponding to the plurality of measurement conditions on the display unit, when the measurement conditions selected, the plurality of images displayed on the display unit A process for receiving selection of any of a plurality of measurement conditions based on the measurement object, and at the time of shape measurement, the measurement object placed on the stage by the light projecting unit under the selected measurement condition is irradiated with light obliquely from above, and the measurement object The light reflected by the light is received by the light receiving unit above the stage under the selected measurement conditions, and a light reception signal indicating the amount of light received is output. Based on the light reception signal output by the light receiving unit, the selected measurement conditions A processing device for generating the three-dimensional shape data, and in a plurality of measurement conditions, at least one of a pattern of light irradiated by the light projecting unit and a direction of light irradiated by the light projecting unit There is a shall different.
この形状測定プログラムによれば、測定条件選択時に、異なる複数の測定条件で投光部によりステージに載置された測定対象物に斜め上方から光が照射され、測定対象物により反射された光がステージの上方で受光部により受光され、受光量を示す受光信号が出力され、受光部により出力された受光信号に基づいて、測定対象物の画像を表示するための複数の画像データまたは複数の立体形状データがそれぞれ生成される。複数の測定条件においては、投光部により照射される光のパターンおよび投光部により照射される光の方向の少なくとも一方が異なる。生成された複数の画像データまたは複数の立体形状データに基づいて、複数の測定条件で実行される形状測定において生じる測定対象物の測定困難領域がそれぞれ推定される。複数の測定条件に対応して推定された測定困難領域を認識可能に、複数の測定条件にそれぞれ対応する測定対象物の複数の画像が表示部に表示される。 According to the shape measuring program, upon the measurement conditions selected, the light obliquely from above the measuring object mounted on the stage by the light projecting unit with a plurality of different measurement conditions is irradiated, the light reflected by the measurement object There is received by the light receiving portion above the stage, the output light signal indicating the amount of received light, based on the output received signal by the light receiving portion, the measurement object images in the plurality for displaying image data or a plurality of Three-dimensional shape data is respectively generated. Under a plurality of measurement conditions, at least one of the pattern of light irradiated by the light projecting unit and the direction of light irradiated by the light projecting unit is different. Based on the generated plurality of image data or the plurality of three-dimensional shape data, the measurement difficulty regions of the measurement object generated in the shape measurement performed under the plurality of measurement conditions are estimated. A plurality of images of the measurement object respectively corresponding to the plurality of measurement conditions are displayed on the display unit so that the measurement difficulty regions estimated corresponding to the plurality of measurement conditions can be recognized.
使用者は、表示部に表示された複数の画像に基づいて複数の測定条件のいずれかを選択することができる。形状測定時に、選択された測定条件で投光部によりステージに載置された測定対象物に斜め上方から光が照射され、測定対象物により反射された光が選択された測定条件でステージの上方で受光部により受光され、受光量を示す受光信号が出力され、受光部により出力された受光信号に基づいて、選択された測定条件で立体形状データが生成される。 The user can select one of a plurality of measurement conditions based on a plurality of images displayed on the display unit. During shape measurement, the light obliquely from above is irradiated to the measured object mounted on the stage by the light projecting unit in the selected measurement condition, the upper stage measurement conditions light reflected is selected by the measurement object The light receiving signal is received by the light receiving unit, and a light receiving signal indicating the amount of received light is output. Based on the light receiving signal output by the light receiving unit, solid shape data is generated under the selected measurement conditions.
この構成によれば、使用者は、形状測定前に、異なる複数の測定条件で実行される形状測定において生じる測定対象物の測定困難領域を認識することができる。これにより、測定対象物の形状測定前に、測定対象物の測定条件を容易に適切に選択することができる。 According to this configuration, the user can recognize the measurement difficulty region of the measurement object that occurs in the shape measurement performed under a plurality of different measurement conditions before the shape measurement. Thereby, it is possible to easily and appropriately select measurement conditions for the measurement object before measuring the shape of the measurement object.
本発明によれば、測定対象物の形状測定前に、測定対象物の測定条件を容易に適切に選択することが可能になる。 According to the present invention, it is possible to easily and appropriately select measurement conditions for a measurement object before measuring the shape of the measurement object.
[1]形状測定装置の構成
図1は、本発明の一実施の形態に係る形状測定装置の構成を示すブロック図である。図2は、図1の形状測定装置500の測定部の構成を示す模式図である。以下、本実施の形態に係る形状測定装置500について、図1および図2を参照しながら説明する。図1に示すように、形状測定装置500は、測定部100、PC(パーソナルコンピュータ)200、制御部300および表示部400を備える。
[1] Configuration of Shape Measuring Device FIG. 1 is a block diagram showing a configuration of a shape measuring device according to an embodiment of the present invention. FIG. 2 is a schematic diagram illustrating a configuration of a measurement unit of the
図1に示すように、測定部100は、例えば顕微鏡であり、投光部110、受光部120、照明光出力部130、ステージ140および制御基板150を含む。投光部110は、測定光源111、パターン生成部112および複数のレンズ113,114,115を含む。受光部120は、カメラ121および複数のレンズ122,123を含む。ステージ140上には、測定対象物Sが載置される。
As illustrated in FIG. 1, the
投光部110は、ステージ140の斜め上方に配置される。測定部100は、複数の投光部110を含んでもよい。図2の例においては、測定部100は2つの投光部110を含む。以下、2つの投光部110を区別する場合は、一方の投光部110を投光部110Aと呼び、他方の投光部110を投光部110Bと呼ぶ。投光部110A,110Bは受光部120の光軸を挟んで対称に配置される。
The
各投光部110A,110Bの測定光源111は、例えば白色光を出射するハロゲンランプである。測定光源111は、白色光を出射する白色LED(発光ダイオード)等の他の光源であってもよい。測定光源111から出射された光(以下、測定光と呼ぶ)は、レンズ113により適切に集光された後、パターン生成部112に入射する。
The
パターン生成部112は、例えばDMD(デジタルマイクロミラーデバイス)である。パターン生成部112は、LCD(液晶ディスプレイ)、LCOS(Liquid Crystal on Silicon:反射型液晶素子)またはマスクであってもよい。パターン生成部112に入射した測定光は、予め設定されたパターンおよび予め設定された強度(明るさ)に変換されて出射される。パターン生成部112により出射された測定光は、複数のレンズ114,115により測定対象物Sの寸法よりも大きい径を有する光に変換された後、ステージ140上の測定対象物Sに照射される。
The
受光部120は、ステージ140の上方に配置される。測定対象物Sによりステージ140の上方に反射された測定光は、受光部120の複数のレンズ122,123により集光および結像された後、カメラ121により受光される。
The
カメラ121は、例えば撮像素子121aおよびレンズを含むCCD(電荷結合素子)カメラである。撮像素子121aは、例えばモノクロCCD(電荷結合素子)である。撮像素子121aは、CMOS(相補性金属酸化膜半導体)イメージセンサ等の他の撮像素子であってもよい。撮像素子121aの各画素からは、受光量に対応するアナログの電気信号(以下、受光信号と呼ぶ)が制御基板150に出力される。
The
モノクロCCDには、カラーCCDとは異なり、赤色波長の光を受光する画素、緑色波長の光を受光する画素および青色波長の光を受光する画素を設ける必要がない。そのため、モノクロCCDの計測の分解能はカラーCCDの分解能よりも高くなる。また、モノクロCCDには、カラーCCDとは異なり、各画素にカラーフィルタを設ける必要がない。そのため、モノクロCCDの感度はカラーCCDの感度よりも高くなる。これらの理由により、本例におけるカメラ121にはモノクロCCDが設けられる。
Unlike a color CCD, a monochrome CCD does not need to be provided with pixels that receive red wavelength light, pixels that receive green wavelength light, and pixels that receive blue wavelength light. Therefore, the measurement resolution of the monochrome CCD is higher than the resolution of the color CCD. Further, unlike a color CCD, a monochrome CCD does not require a color filter for each pixel. Therefore, the sensitivity of the monochrome CCD is higher than that of the color CCD. For these reasons, the
本例においては、照明光出力部130は、測定対象物Sに赤色波長の光、緑色波長の光および青色波長の光を時分割で出射する。この構成によれば、モノクロCCDを用いた受光部120により測定対象物Sのカラー画像を撮像することができる。
In this example, the illumination
一方、カラーCCDが十分な分解能および感度を有する場合には、撮像素子121aは、カラーCCDであってもよい。この場合、照明光出力部130は、測定対象物Sに赤色波長の光、緑色波長の光および青色波長の光を時分割で照射する必要はなく、白色光を測定対象物Sに照射する。そのため、照明光源320の構成を単純にすることができる。
On the other hand, when the color CCD has sufficient resolution and sensitivity, the
制御基板150には、図示しないA/D変換器(アナログ/デジタル変換器)およびFIFO(First In First Out)メモリが実装される。カメラ121から出力される受光信号は、制御部300による制御に基づいて、制御基板150のA/D変換器により一定のサンプリング周期でサンプリングされるとともにデジタル信号に変換される。A/D変換器から出力されるデジタル信号は、FIFOメモリに順次蓄積される。FIFOメモリに蓄積されたデジタル信号は画素データとして順次PC200に転送される。
On the
図1に示すように、PC200は、CPU(中央演算処理装置)210、ROM(リードオンリメモリ)220、作業用メモリ230、記憶装置240および操作部250を含む。また、操作部250は、キーボードおよびポインティングデバイスを含む。ポインティングデバイスとしては、マウスまたはジョイスティック等が用いられる。
As shown in FIG. 1, the
ROM220には、システムプログラムが記憶される。作業用メモリ230は、RAM(ランダムアクセスメモリ)からなり、種々のデータの処理のために用いられる。記憶装置240は、ハードディスク等からなる。記憶装置240には、画像処理プログラムおよび形状測定プログラムが記憶される。また、記憶装置240は、制御基板150から与えられる画素データ等の種々のデータを保存するために用いられる。
The
CPU210は、制御基板150から与えられる画素データに基づいて画像データを生成する。また、CPU210は、生成した画像データに作業用メモリ230を用いて各種処理を行うとともに、画像データに基づく画像を表示部400に表示させる。さらに、CPU210は、後述するステージ駆動部146に駆動パルスを与える。表示部400は、例えばLCDパネルまたは有機EL(エレクトロルミネッセンス)パネルにより構成される。
The
図2において、測定対象物Sが載置されるステージ140上の平面(以下、載置面と呼ぶ)内で互いに直交する2方向をX方向およびY方向と定義し、それぞれ矢印X,Yで示す。ステージ140の載置面に対して直交する方向をZ方向と定義し、矢印Zで示す。Z方向に平行な軸を中心に回転する方向をθ方向と定義し、矢印θで示す。
In FIG. 2, two directions orthogonal to each other within a plane (hereinafter referred to as a placement surface) on the
ステージ140は、X−Yステージ141、Zステージ142、θステージ143およびチルトステージ144を含む。X−Yステージ141は、X方向移動機構およびY方向移動機構を有する。Zステージ142は、Z方向移動機構を有する。θステージ143は、θ方向回転機構を有する。チルトステージ144は、載置面に平行な軸を中心に回転可能な機構(以下、あおり回転機構と呼ぶ)を有する。X−Yステージ141、Zステージ142、θステージ143およびチルトステージ144により、ステージ140が構成される。また、ステージ140は、載置面に測定対象物Sを固定する図示しない固定部材(クランプ)をさらに含む。
The
ここで、受光部120の焦点に位置しかつ受光部120の光軸に垂直な平面を受光部120の焦点面と呼ぶ。図2に示すように、投光部110A,110B、受光部120およびステージ140の相対的な位置関係は、投光部110Aの光軸、投光部110Bの光軸および受光部120の光軸が受光部120の焦点面で互いに交差するように設定される。
Here, a plane located at the focal point of the
また、投光部110の焦点(測定光のパターンが結像する点)に位置しかつ投光部110の光軸に垂直な平面を投光部110の焦点面と呼ぶ。各投光部110A,110Bは、投光部110Aの焦点面および投光部110Bの焦点面が受光部120の焦点を含む位置で交差するように構成される。
A plane that is located at the focal point of the light projecting unit 110 (the point where the pattern of the measurement light is imaged) and is perpendicular to the optical axis of the
θステージ143のθ方向の回転軸の中心は、受光部120の光軸と一致している。そのため、θステージ143をθ方向に回転させた場合に、測定対象物Sを視野から外すことなく、回転軸を中心に視野内で回転させることができる。また、X−Yステージ141、θステージ143およびチルトステージ144は、Zステージ142により支持されている。
The center of the rotation axis of the θ stage 143 in the θ direction coincides with the optical axis of the
すなわち、θステージ143をθ方向に回転させるか、またはチルトステージ144をあおり方向に回転させた状態であっても、受光部120の中心軸とZステージ142の移動軸とにずれが生じないように構成されている。ここで、あおり方向とは、載置面に平行な軸を中心とする回転方向である。この構成により、測定対象物Sの位置または姿勢を変化させた状態であっても、Z方向にステージ140を移動させて受光部120の異なる複数の焦点位置においてそれぞれ撮像した複数の画像を合成することが可能となる。
That is, even if the θ stage 143 is rotated in the θ direction or the
ステージ140のX方向移動機構、Y方向移動機構、Z方向移動機構、θ方向回転機構およびあおり回転機構には、それぞれステッピングモータが用いられる。ステージ140のX方向移動機構、Y方向移動機構、Z方向移動機構、θ方向回転機構およびあおり回転機構は、図1のステージ操作部145またはステージ駆動部146により駆動される。
Stepping motors are used for the X direction moving mechanism, the Y direction moving mechanism, the Z direction moving mechanism, the θ direction rotating mechanism, and the tilt rotating mechanism of the
使用者は、ステージ操作部145を手動で操作することにより、ステージ140の載置面を受光部120に対して相対的にX方向、Y方向もしくはZ方向に移動させるか、またはθ方向もしくはあおり方向に回転させることができる。ステージ駆動部146は、PC200より与えられる駆動パルスに基づいて、ステージ140のステッピングモータに電流を供給することにより、ステージ140を受光部120に相対的にX方向、Y方向もしくはZ方向に移動させるか、またはθ方向もしくはあおり方向に回転させることができる。
The user manually operates the
なお、本実施の形態では、ステージ140はステッピングモータにより駆動することが可能であるとともに手動により操作することが可能な電動ステージであるが、これに限定されない。ステージ140はステッピングモータでのみ駆動することが可能な電動ステージであってもよいし、手動でのみ操作することが可能な手動ステージであってもよい。
In the present embodiment,
制御部300は、制御基板310および照明光源320を含む。制御基板310には、図示しないCPUが実装される。制御基板310のCPUは、PC200のCPU210からの指令に基づいて、投光部110、受光部120および制御基板150を制御する。
The
照明光源320は、例えば赤色光、緑色光および青色光を出射する3つのLEDを含む。各LEDから出射される光の輝度を制御することにより、照明光源320から任意の色の光を発生することができる。照明光源320から発生される光(以下、照明光と呼ぶ)は、導光部材(ライトガイド)を通して測定部100の照明光出力部130から出力される。なお、制御部300に照明光源320を設けずに、測定部100に照明光源320を設けてもよい。この場合、測定部100には照明光出力部130が設けられない。
The
図2の照明光出力部130は、円環形状を有し、受光部120を取り囲むようにステージ140の上方に配置される。これにより、影が発生しないように照明光出力部130から測定対象物Sに照明光が照射される。図3および図4は、光が照射された状態の測定対象物Sの模式図である。図3および図4の例においては、測定対象物Sは上面の略中央に孔Shを有する。また、図3(a),(c)および図4(a)においては、影Ssをハッチングにより表わしている。
The illumination
図3(a)は図2の一方の投光部110Aからの測定光が照射された状態の測定対象物Sの平面図であり、図3(b)は図3(a)のA−A線断面図である。図3(a),(b)に示すように、一方の投光部110Aから測定光を測定対象物Sに照射した場合、孔Shの深さによっては、孔Shの底部にまで測定光が到達せず、影Ssが発生する。したがって、測定対象物Sの一部を観察することができない。
FIG. 3A is a plan view of the measuring object S in a state irradiated with measurement light from one of the
図3(c)は図2の他方の投光部110Bからの測定光が照射された状態の測定対象物Sの平面図であり、図3(d)は図3(c)のB−B線断面図である。図3(c),(d)に示すように、他方の投光部110Bから測定光を測定対象物Sに照射した場合、孔Shの深さによっては、孔Shの底部にまで測定光が到達せず、影Ssが発生する。したがって、測定対象物Sの一部を観察することができない。
FIG. 3C is a plan view of the measuring object S in a state irradiated with the measurement light from the other
図4(a)は投光部110A,110Bの両方からの測定光が照射された状態の測定対象物Sの平面図であり、図4(b)は図4(a)のC−C線断面図である。図4(a),(b)に示すように、投光部110A,110Bの両方から測定光を測定対象物Sに照射した場合、投光部110A,110Bの一方から測定光を測定対象物Sに照射した場合に比べて、孔Shの底部にまで到達しない測定光が減少するため、発生する影Ssが減少する。したがって、観察することができる測定対象物Sの部分が増加する。
FIG. 4A is a plan view of the measurement object S in a state where measurement light from both the
図4(c)は図2の照明光出力部130からの照明光が照射された状態の測定対象物Sの平面図であり、図4(d)は図4(c)のD−D線断面図である。図4(c),(d)に示すように、照明光は測定対象物Sの略真上から照射されるので、孔Shの深さによらず、孔Shの底部にまで照明光が到達する。したがって、測定対象物Sの大部分を観察することができる。
FIG. 4C is a plan view of the measuring object S in a state irradiated with illumination light from the illumination
一方の投光部110Aから測定光が照射された測定対象物Sの画像と他方の投光部110Bから測定光が照射された測定対象物Sの画像とが並ぶように表示部400に表示(2画面表示)されてもよい。図5は、画像を2画面表示するGUI(Graphical User Interface)の一例を示す図である。
Displayed on the
図5に示すように、表示部400には2つの画像表示領域410,420が並ぶように設けられる。画像を2画面表示する場合には、投光部110A,110Bから測定対象物Sに測定光が切り替わるように交互に照射される。画像表示領域410には、一方の投光部110Aから測定光が照射された場合における測定対象物Sの画像が表示される。画像表示領域420には、他方の投光部110Bから測定光が照射された場合における測定対象物Sの画像が表示される。これにより、使用者は投光部110A,110Bの各々により測定光を照射された場合における測定対象物Sの画像を区別して認識することができる。
As shown in FIG. 5, the
本例においては、投光部110A,110Bからの測定光の切り替えの頻度は、例えば数Hzである。なお、投光部110A,110Bからの測定光の切り替えの頻度は、使用者に切り替えの認識をすることができない値(例えば100Hz)に設定されてもよい。この場合、使用者には、測定部100において両方の投光部110A,110Bから測定対象物Sに測定光が同時に照射されるように観測される。
In this example, the frequency of switching the measurement light from the
表示部400には2つの光量設定バー430,440が表示される。光量設定バー430は、水平方向に移動可能なスライダ430sを有する。光量設定バー440は、水平方向に移動可能なスライダ440sを有する。以下、一方の投光部110Aから出射される測定光を一方の測定光と呼び、他方の投光部110Bから出射される測定光を他方の測定光と呼ぶ。光量設定バー430上のスライダ430sの位置は、一方の測定光を受光する際の受光部120の光量(以下、一方の測定光の光量と呼ぶ)に対応する。光量設定バー440上のスライダ440sの位置は、他方の測定光を受光する際の受光部120の光量(以下、他方の測定光の光量と呼ぶ)に対応する。
Two light
使用者は、図1のPC200の操作部250を操作して光量設定バー430のスライダ430sを水平方向に移動させることにより、一方の測定光の光量を変更することができる。一方の測定光の光量の変更は、一方の測定光の明るさまたは一方の測定光を受光する際の受光部120の露光時間を変更することにより行われる。同様に、使用者は、操作部250を操作して光量設定バー440のスライダ440sを水平方向に移動させることにより、他方の測定光の光量を変更することができる。他方の測定光の光量の変更は、他方の測定光の明るさまたは他方の測定光を受光する際の受光部120の露光時間を変更することにより行われる。
The user can change the light quantity of one measurement light by operating the
上記のように、画像表示領域410,420には、投光部110A,110Bの各々により測定光が照射された場合における測定対象物Sの画像が並ぶように表示される。したがって、使用者は、画像表示領域410,420に表示された測定対象物Sの画像を見ながら、光量設定バー430,440のスライダ430s,440sの位置をそれぞれ移動させることにより、一方および他方の測定光の光量を適切に調整することができる。
As described above, in the
また、一方および他方の測定光の光量と照明光出力部130から出射される照明光を受光する際の受光部120の光量(以下、照明光の光量と呼ぶ)との間に相関がある場合がある。この場合、一方および他方の測定光の光量は、照明光の光量に基づいて自動的に調整されてもよい。あるいは、照明光の光量に基づいて、一方および他方の測定光の光量を適切にするための調整ガイドが表示部400に表示されてもよい。この場合、使用者は、調整ガイドに基づいて光量設定バー430,440のスライダ430s,440sの位置をそれぞれ移動させることにより、一方および他方の測定光の光量を適切に調整することができる。
In addition, when there is a correlation between the light quantity of one and the other measurement light and the light quantity of the
光の照射方向が異なれば、光の反射方向も異なる。そのため、測定対象物Sの同一の部分であっても、一方の測定光が照射された部分の画像の明るさと他方の測定光が照射された部分の画像の明るさとは互いに異なる。すなわち、形状測定に適した光量は照射方向によって異なる。 If the light irradiation direction is different, the light reflection direction is also different. Therefore, even in the same portion of the measurement object S, the brightness of the image irradiated with one measurement light is different from the brightness of the image irradiated with the other measurement light. That is, the amount of light suitable for shape measurement varies depending on the irradiation direction.
本実施の形態では、投光部110A、110Bから測定光が照射された際の画像の各々の明るさを個別に調整することができる。そのため、光の照射方向に応じた適切な光量を設定することができる。また、光量の調整中の画像は、画像表示領域410,420に更新されながら表示される。これにより、使用者は、画像を確認しながら光量を調整することができる。
In the present embodiment, it is possible to individually adjust the brightness of each image when the measurement light is irradiated from the
この場合において、PC200は、画像中の明るすぎるために白とびが生じている部分または暗すぎるために黒つぶれが生じている部分を識別可能に画像表示領域410,420に表示することができる。これにより、使用者は、適切に光量が調整されているか否かを容易に確認することができる。
In this case, the
[2]測定対象物の形状測定
(1)三角測距方式による形状測定
測定部100においては、三角測距方式により測定対象物Sの形状が測定される。図6は、三角測距方式の原理を説明するための図である。図6に示すように、投光部110から出射される測定光の光軸と受光部120に入射する測定光の光軸(受光部120の光軸)との間の角度αが予め設定される。角度αは、0度よりも大きく90度よりも小さい。
[2] Shape Measurement of Measurement Object (1) Shape Measurement by Triangular Distance Measurement In the
ステージ140上に測定対象物Sが載置されない場合、投光部110から出射される測定光は、ステージ140の載置面の点Oにより反射され、受光部120に入射する。一方、ステージ140上に測定対象物Sが載置される場合、投光部110から出射される測定光は、測定対象物Sの表面の点Aにより反射され、受光部120に入射する。
When the measurement object S is not placed on the
点Oと点Aとの間のX方向における距離をdとすると、ステージ140の載置面に対する測定対象物Sの点Aの高さhは、h=d÷tan(α)により与えられる。図1のPC200のCPU210は、制御基板150により与えられる測定対象物Sの画素データに基づいて、X方向における点Oと点Aとの間の距離dを測定する。また、CPU210は、測定された距離dに基づいて、測定対象物Sの表面の点Aの高さhを算出する。測定対象物Sの表面の全ての点の高さを算出することにより、測定対象物Sの三次元的な形状が測定される。
When the distance in the X direction between the point O and the point A is d, the height h of the point A of the measuring object S with respect to the mounting surface of the
測定対象物Sの表面の全ての点に測定光を照射するために、図1の投光部110からは種々のパターンを有する測定光が出射される。測定光のパターンは、図1のパターン生成部112により制御される。以下、測定光のパターンについて説明する。
In order to irradiate measurement light to all points on the surface of the measurement object S, measurement light having various patterns is emitted from the
(2)測定光の第1のパターン
図7は、測定光の第1のパターンを説明するための図である。図7(a)は、ステージ140上の測定対象物Sに投光部110から測定光を照射した状態を示す。図7(b)は、測定光が照射された測定対象物Sの平面図を示す。図7(a)に示すように、第1のパターンとして、Y方向に平行な直線状の断面を有する測定光(以下、ライン状測定光と呼ぶ)が投光部110から出射される。この場合、図7(b)に示すように、ステージ140に照射されたライン状測定光の部分と測定対象物Sの表面に照射されたライン状測定光の部分とは、測定対象物Sの表面の高さhに対応する距離dだけX方向に互いにずれる。したがって、距離dを測定することにより、測定対象物Sの高さhを算出することができる。
(2) First Pattern of Measurement Light FIG. 7 is a diagram for explaining the first pattern of measurement light. FIG. 7A shows a state in which the measuring object S on the
測定対象物Sの表面のY方向に沿った複数の部分が異なる高さを有する場合には、各部分について上記の距離dを測定することにより、Y方向に沿った複数の部分の高さhを算出することができる。 When a plurality of portions along the Y direction on the surface of the measuring object S have different heights, the height h of the plurality of portions along the Y direction is measured by measuring the distance d for each portion. Can be calculated.
また、図1のCPU210は、X方向の一の位置でY方向に沿った複数の部分について距離dを測定した後、Y方向に平行なライン状測定光をX方向に走査することにより、X方向の他の位置でY方向に沿った複数の部分について距離dを測定する。これにより、X方向の複数の位置におけるY方向に沿った測定対象物Sの複数の部分の高さhが算出される。測定対象物SのX方向の寸法よりも広い範囲でライン状測定光をX方向に走査することにより、測定対象物Sの表面の全ての点の高さhを算出することができる。これにより、測定対象物Sの三次元的な形状を測定することができる。
Further, the
(3)測定光の第2のパターン
図8は、測定光の第2のパターンを説明するための図である。図8に示すように、第2のパターンとして、Y方向に平行な直線状の断面を有しかつX方向に強度が正弦波状に変化するパターンを有する測定光(以下、正弦波状測定光と呼ぶ)が投光部110から複数回(本例においては4回)出射される。
(3) Second Pattern of Measuring Light FIG. 8 is a diagram for explaining the second pattern of measuring light. As shown in FIG. 8, as the second pattern, measurement light having a linear cross section parallel to the Y direction and having a pattern in which the intensity changes sinusoidally in the X direction (hereinafter referred to as sinusoidal measurement light). ) Is emitted from the light projecting unit 110 a plurality of times (in this example, four times).
図8(a)は、1回目に出射される正弦波状測定光を示す。1回目に出射される正弦波状測定光の強度は、測定対象物Sの表面上の任意の部分P0において初期位相φを有する。この正弦波状測定光が出射されることにより、測定対象物Sの表面で反射された光が受光部120により受光される。受光された光の強度が測定対象物Sの画素データに基づいて測定される。測定対象物Sの表面上の部分P0により反射された光の強度をI1とする。
FIG. 8A shows sinusoidal measurement light emitted for the first time. The intensity of the sinusoidal measurement light emitted for the first time has an initial phase φ at an arbitrary portion P0 on the surface of the measurement object S. When the sinusoidal measurement light is emitted, the light reflected by the surface of the measurement object S is received by the
図8(b)は、2回目に出射される正弦波状測定光を示す。2回目に出射される正弦波状測定光の強度は、測定対象物Sの表面上の部分P0において位相(φ+π/2)を有する。この正弦波状測定光が出射されることにより、測定対象物Sの表面で反射された光が受光部120により受光される。受光された光の強度が測定対象物Sの画素データに基づいて測定される。測定対象物Sの表面上の部分P0により反射された光の強度をI2とする。
FIG. 8B shows sinusoidal measurement light emitted for the second time. The intensity of the sinusoidal measurement light emitted for the second time has a phase (φ + π / 2) at the portion P0 on the surface of the measurement object S. When the sinusoidal measurement light is emitted, the light reflected by the surface of the measurement object S is received by the
図8(c)は、3回目に出射される正弦波状測定光を示す。3回目に出射される正弦波状測定光の強度は、測定対象物Sの表面上の部分P0において位相(φ+π)を有する。この正弦波状測定光が出射されることにより、測定対象物Sの表面で反射された光が受光部120により受光される。受光された光の強度が測定対象物Sの画素データに基づいて測定される。測定対象物Sの表面上の部分P0により反射された光の強度をI3とする。
FIG. 8C shows sinusoidal measurement light emitted for the third time. The intensity of the sinusoidal measurement light emitted for the third time has a phase (φ + π) at a portion P0 on the surface of the measurement object S. When the sinusoidal measurement light is emitted, the light reflected by the surface of the measurement object S is received by the
図8(d)は、4回目に出射される正弦波状測定光を示す。4回目の正弦波状測定光の強度は、測定対象物Sの表面上の部分P0において位相(φ+3π/2)を有する。この正弦波状測定光が出射されることにより、測定対象物Sの表面で反射された光が受光部120により受光される。受光された光の強度が測定対象物Sの画素データに基づいて測定される。測定対象物Sの表面上の部分P0により反射された光の強度をI4とする。
FIG. 8D shows sinusoidal measurement light emitted for the fourth time. The intensity of the fourth sinusoidal measurement light has a phase (φ + 3π / 2) at the portion P0 on the surface of the measurement object S. When the sinusoidal measurement light is emitted, the light reflected by the surface of the measurement object S is received by the
初期位相φは、φ=tan−1[(I1−I3)/(I2−I4)]で与えられる。初期位相φから測定対象物Sの任意の部分の高さhが算出される。この方式によれば、4回の光の強度の測定により、測定対象物Sの全ての部分の初期位相φを高速かつ容易に算出することができる。なお、初期位相φは、異なる位相を有する測定光を少なくとも3回出射し、受光される光の強度を測定することにより算出することができる。測定対象物Sの表面上の全ての部分の高さhを算出することにより、測定対象物Sの三次元的な形状を測定することができる。 The initial phase φ is given by φ = tan −1 [(I1−I3) / (I2−I4)]. A height h of an arbitrary portion of the measuring object S is calculated from the initial phase φ. According to this method, the initial phase φ of all portions of the measuring object S can be calculated at high speed and easily by measuring the intensity of light four times. Note that the initial phase φ can be calculated by emitting measurement light having different phases at least three times and measuring the intensity of the received light. By calculating the height h of all the parts on the surface of the measuring object S, the three-dimensional shape of the measuring object S can be measured.
(4)測定光の第3のパターン
図9は、測定光の第3のパターンを説明するための図である。図9に示すように、第3のパターンとして、Y方向に平行でかつX方向に並ぶような直線状の断面を有する測定光(以下、縞状測定光と呼ぶ)が投光部110から複数回(本例においては16回)出射される。
(4) Third Pattern of Measurement Light FIG. 9 is a diagram for explaining the third pattern of measurement light. As shown in FIG. 9, as the third pattern, a plurality of measurement lights having a linear cross section parallel to the Y direction and aligned in the X direction (hereinafter referred to as striped measurement light) are emitted from the
すなわち、縞状測定光においては、Y方向に平行な直線状の明部分およびY方向に平行な直線状の暗部分がX方向に周期的に配列される。ここで、パターン生成部112がDMDである場合には、マイクロミラーの寸法を1単位とする。縞状測定光の各明部分のX方向の幅は、例えば3単位であり、縞状測定光の各暗部分のX方向の幅は、例えば13単位である。この場合、縞状測定光のX方向の周期は16単位である。なお、明部分および暗部分の単位は、図2のパターン生成部112の構成により異なる。例えば、パターン生成部112が液晶である場合には、1単位は1画素の寸法である。
That is, in the striped measurement light, a linear bright portion parallel to the Y direction and a linear dark portion parallel to the Y direction are periodically arranged in the X direction. Here, when the
1回目の縞状測定光が出射されることにより、測定対象物Sの表面で反射された光が受光部120により受光される。受光された光の強度が、測定対象物Sの1番目の撮影画像の画素データに基づいて測定される。図9(a)は、1回目の縞状測定光に対応する測定対象物Sの1番目の撮影画像である。
When the first striped measurement light is emitted, the light reflected by the surface of the measurement object S is received by the
2回目の縞状測定光は、1回目の縞状測定光から明部分および暗部分をX方向に1単位だけ移動させたパターンを有する。2回目の縞状測定光が出射されることにより、測定対象物Sの表面で反射された光が、受光部120により受光される。受光された光の強度が測定対象物Sの2番目の撮影画像の画素データに基づいて測定される。
The second striped measurement light has a pattern in which the bright portion and the dark portion are moved by one unit in the X direction from the first striped measurement light. When the second striped measurement light is emitted, the light reflected by the surface of the measurement object S is received by the
3回目の縞状測定光は、2回目の縞状測定光から明部分および暗部分をX方向に1単位だけ移動させたパターンを有する。3回目の縞状測定光が出射されることにより、測定対象物Sの表面で反射された光が受光部120により受光される。受光された光の強度が、測定対象物Sの3番目の撮影画像の画素データに基づいて測定される。
The third striped measurement light has a pattern in which the bright part and the dark part are moved by one unit in the X direction from the second striped measurement light. By emitting the third striped measurement light, the light reflected by the surface of the measuring object S is received by the
同様の動作が繰り返されることにより、4〜16回目の縞状測定光に対応する光の強度が、測定対象物Sの4〜16番目の撮影画像の画素データに基づいてそれぞれ測定される。X方向の周期が16単位である縞状測定光が16回出射されることにより、測定対象物Sの表面の全ての部分に縞状測定光が照射される。なお、図9(b)は、7回目の縞状測定光に対応する測定対象物Sの7番目の撮影画像である。図9(c)は、13回目の縞状測定光に対応する測定対象物Sの13番目の撮影画像である。 By repeating the same operation, the intensity of the light corresponding to the 4th to 16th striped measurement light is measured based on the pixel data of the 4th to 16th captured images of the measuring object S, respectively. The striped measurement light whose period in the X direction is 16 units is emitted 16 times, so that the entire surface of the measurement object S is irradiated with the striped measurement light. FIG. 9B is a seventh captured image of the measuring object S corresponding to the seventh striped measurement light. FIG. 9C is a thirteenth captured image of the measuring object S corresponding to the thirteenth striped measurement light.
図10は、測定対象物Sの特定の部分における画像が撮影されたタイミング(番数)と受光された光の強度との関係を示す図である。図10の横軸は画像の順番を示し、縦軸は受光された光の強度を示す。上述のように、測定対象物Sの各部分について、1〜16番目の撮影画像が生成される。また、生成された1〜16番目の撮影画像の各画素に対応する光の強度が測定される。 FIG. 10 is a diagram illustrating a relationship between the timing (number) at which an image of a specific portion of the measurement object S is captured and the intensity of received light. The horizontal axis in FIG. 10 indicates the order of images, and the vertical axis indicates the intensity of received light. As described above, the first to sixteenth captured images are generated for each part of the measuring object S. In addition, the intensity of light corresponding to each pixel of the generated first to sixteenth captured images is measured.
図10に示すように、撮影画像の番号に対応する撮影画像の各画素の光の強度を図示することにより散布図が得られる。得られた散布図に例えばガウシアン曲線、スプライン曲線または放物線をフィッティングさせることにより、光の強度が最大になるときの撮影画像の番号(番数)を1未満の精度で推定することができる。図10の例においては、フィッティングされた点線で示す曲線により、9番目と10番目との間である仮想的な9.38番目の撮影画像において、光の強度が最大になることが推定される。 As shown in FIG. 10, a scatter diagram is obtained by illustrating the light intensity of each pixel of the captured image corresponding to the number of the captured image. For example, by fitting a Gaussian curve, a spline curve, or a parabola to the obtained scatter diagram, the number (number) of the photographed image when the light intensity becomes maximum can be estimated with an accuracy of less than one. In the example of FIG. 10, it is presumed that the light intensity is maximized in the virtual 9.38th photographed image between the ninth and tenth by the curve shown by the fitted dotted line. .
また、フィッティングされた曲線により、光の強度の最大値を推定することができる。測定対象物Sの各部分において推定された光の強度が最大となる撮影画像の番号に基づいて、測定対象物Sの各部分の高さhを算出することができる。この方法によれば、S/N(信号/ノイズ)比が十分に大きい光の強度に基づいて、測定対象物Sの三次元的な形状が測定される。これにより、測定対象物Sの形状測定の精度を向上させることができる。 Further, the maximum value of the light intensity can be estimated from the fitted curve. The height h of each part of the measurement object S can be calculated based on the number of the photographed image that maximizes the light intensity estimated in each part of the measurement object S. According to this method, the three-dimensional shape of the measuring object S is measured based on the intensity of light having a sufficiently large S / N (signal / noise) ratio. Thereby, the precision of the shape measurement of the measuring object S can be improved.
なお、正弦波状測定光または縞状測定光等の周期的なパターン形状を有する測定光を用いた測定対象物Sの形状測定においては、測定対象物Sの表面の各部分の相対的な高さ(高さの相対値)が測定される。これは、パターンを形成するY方向に平行な複数の直線(縞)の各々を識別することができず、複数の直線の1周期(2π)の整数倍に相当する不確かさが存在することにより、絶対位相が求まらないからである。そのため、測定対象物Sの一の部分の高さとその部分に隣接する部分の高さが連続的に変化しているという仮定に基づいて、測定された高さのデータに公知のアンラッピング処理が行われてもよい。 In the measurement of the shape of the measurement object S using measurement light having a periodic pattern shape such as sinusoidal measurement light or striped measurement light, the relative height of each portion of the surface of the measurement object S is measured. (Relative height) is measured. This is because each of a plurality of straight lines (stripes) parallel to the Y direction forming the pattern cannot be identified, and there is an uncertainty corresponding to an integral multiple of one period (2π) of the plurality of straight lines. This is because the absolute phase cannot be obtained. Therefore, a known unwrapping process is performed on the measured height data based on the assumption that the height of one part of the measuring object S and the height of the part adjacent to the part continuously change. It may be done.
(5)測定光の第4のパターン
図11は、測定光の第4のパターンを説明するための図である。図11に示すように、第4のパターンとして、Y方向に平行な直線状の断面を有しかつ明部分と暗部分とがX方向に並ぶ測定光(以下、コード状測定光と呼ぶ)が投光部110から複数回(本例においては4回)出射される。コード状測定光の明部分および暗部分の割合は、それぞれ50%である。
(5) Fourth Pattern of Measurement Light FIG. 11 is a diagram for explaining the fourth pattern of measurement light. As shown in FIG. 11, as the fourth pattern, measurement light having a linear cross section parallel to the Y direction and having a bright portion and a dark portion aligned in the X direction (hereinafter referred to as code-like measurement light) is used. The light is emitted from the light projecting unit 110 a plurality of times (in this example, four times). The ratio of the bright part and the dark part of the code-like measurement light is 50%.
本例においては、測定対象物Sの表面がX方向において複数(図11の例では16)の領域に分割される。以下、複数に分割されたX方向における測定対象物Sの領域をそれぞれ第1〜第16の領域と呼ぶ。 In this example, the surface of the measuring object S is divided into a plurality of regions (16 in the example of FIG. 11) in the X direction. Hereinafter, the areas of the measurement object S in the X direction divided into a plurality of parts are referred to as first to sixteenth areas, respectively.
図11(a)は、1回目に出射されるコード状測定光を示す。1回目に出射されるコード状測定光は、測定対象物Sの第1〜第8の領域に照射される明部分を有する。また、1回目に出射されるコード状測定光は、測定対象物Sの第9〜第16の領域に照射される暗部分を有する。これにより、1回目に出射されるコード状測定光においては、明部分と暗部分とがY方向に平行でかつX方向に並ぶ。また、1回目に出射されるコード状測定光の明部分および暗部分の割合は、それぞれ50%である。 FIG. 11A shows the code-like measurement light emitted for the first time. The code-shaped measurement light emitted for the first time has a bright portion that is irradiated onto the first to eighth regions of the measurement object S. Moreover, the code-shaped measurement light emitted for the first time has a dark part irradiated on the ninth to sixteenth regions of the measuring object S. Thereby, in the code-like measurement light emitted for the first time, the bright portion and the dark portion are parallel to the Y direction and aligned in the X direction. Further, the ratio of the bright part and the dark part of the code-like measurement light emitted for the first time is 50%.
図11(b)は、2回目に出射されるコード状測定光を示す。2回目に出射されるコード状測定光は、測定対象物Sの第5〜第12の領域に照射される明部分を有する。また、2回目に出射されるコード状測定光は、測定対象物Sの第1〜第4および第13〜第16の領域に照射される暗部分を有する。これにより、2回目に出射されるコード状測定光においては、明部分と暗部分とがY方向に平行でかつX方向に並ぶ。また、2回目に出射されるコード状測定光の明部分および暗部分の割合は、それぞれ50%である。 FIG. 11B shows the code-like measurement light emitted for the second time. The code-like measurement light emitted for the second time has a bright portion that is irradiated onto the fifth to twelfth regions of the measurement object S. Moreover, the code-like measurement light emitted for the second time has dark portions that are irradiated to the first to fourth and thirteenth to sixteenth regions of the measuring object S. Thereby, in the code-like measurement light emitted for the second time, the bright part and the dark part are parallel to the Y direction and aligned in the X direction. Moreover, the ratio of the bright part and the dark part of the code-like measurement light emitted for the second time is 50%.
図11(c)は、3回目に出射されるコード状測定光を示す。3回目に出射されるコード状測定光は、測定対象物Sの第1、第2、第7〜第10、第15および第16の領域に照射される明部分を有する。また、3回目に出射されるコード状測定光は、測定対象物Sの第3〜第6および第11〜第14の領域に照射される暗部分を有する。これにより、3回目に出射されるコード状測定光においては、明部分と暗部分とがY方向に平行でかつX方向に並ぶ。また、3回目に出射されるコード状測定光の明部分および暗部分の割合は、それぞれ50%である。 FIG. 11C shows the code-like measurement light emitted for the third time. The code-like measurement light emitted for the third time has bright portions that are irradiated on the first, second, seventh to tenth, fifteenth and sixteenth regions of the measurement object S. Moreover, the code-like measurement light emitted for the third time has dark portions that are irradiated on the third to sixth and the eleventh to fourteenth regions of the measurement object S. Thereby, in the code-like measurement light emitted for the third time, the bright part and the dark part are parallel to the Y direction and aligned in the X direction. Further, the ratio of the bright part and the dark part of the code-like measurement light emitted for the third time is 50%.
図11(d)は、4回目に出射されるコード状測定光を示す。4回目に出射されるコード状測定光は、測定対象物Sの第1、第4、第5、第8、第9、第12、第13および第16の領域に照射される明部分を有する。また、4回目に出射されるコード状測定光は、測定対象物Sの第2、第3、第6、第7、第10、第11、第14および第15の領域に照射される暗部分を有する。これにより、4回目に出射されるコード状測定光においては、明部分と暗部分とがY方向に平行でかつX方向に並ぶ。また、4回目に出射されるコード状測定光の明部分および暗部分の割合は、それぞれ50%である。 FIG. 11D shows the code-like measurement light emitted for the fourth time. The coded measurement light emitted for the fourth time has a bright portion that is irradiated on the first, fourth, fifth, eighth, ninth, twelfth, thirteenth, and sixteenth regions of the measurement object S. . In addition, the coded measurement light emitted for the fourth time is a dark portion irradiated on the second, third, sixth, seventh, tenth, eleventh, fourteenth and fifteenth regions of the measuring object S. Have Thereby, in the code-like measurement light emitted for the fourth time, the bright part and the dark part are parallel to the Y direction and aligned in the X direction. Further, the ratio of the bright part and the dark part of the code-like measurement light emitted for the fourth time is 50%.
コード状測定光の明部分に論理“1”が割り当てられ、コード状測定光の暗部分に論理“0”が割り当てられる。また、測定対象物Sの各領域に照射される1回目〜4回目のコード状測定光の論理の並びを符号と呼ぶ。この場合、測定対象物Sの第1の領域には、符号“1011”のコード状測定光が照射される。これにより、測定対象物Sの第1の領域は、符号“1011”に符号化される。 Logic “1” is assigned to the bright part of the code-like measurement light, and logic “0” is assigned to the dark part of the code-like measurement light. In addition, the logic arrangement of the first to fourth code-like measurement lights irradiated on each region of the measurement object S is referred to as a code. In this case, the first region of the measurement object S is irradiated with the code-shaped measurement light with the code “1011”. As a result, the first region of the measuring object S is encoded to the code “1011”.
測定対象物Sの第2の領域には、符号“1010”のコード状測定光が照射される。これにより、測定対象物Sの第2の領域は、符号“1010”に符号化される。測定対象物Sの第3の領域には、符号“1000”のコード状測定光が照射される。これにより、測定対象物Sの第3の領域は、符号“1000”に符号化される。同様に、測定対象物Sの第16の領域には、符号“0011”のコード状測定光が照射される。これにより、測定対象物Sの第16の領域は、符号“0011”に符号化される。 The second area of the measurement object S is irradiated with code-shaped measurement light with a code “1010”. As a result, the second region of the measuring object S is encoded to the code “1010”. The third region of the measuring object S is irradiated with code-shaped measurement light with a code “1000”. As a result, the third region of the measuring object S is encoded with the code “1000”. Similarly, the 16th region of the measuring object S is irradiated with the code-shaped measurement light with the code “0011”. Thus, the sixteenth region of the measuring object S is encoded with the code “0011”.
このように、測定対象物Sの隣り合う領域の間では、符号のいずれかの桁が“1”のみ異なるようにコード状測定光が測定対象物Sに複数回照射される。すなわち、コード状測定光は、明部分および暗部分がグレイコード状に変化するように、複数回測定対象物Sに照射される。 In this way, between the adjacent regions of the measurement object S, the code-shaped measurement light is irradiated to the measurement object S a plurality of times so that any digit of the code differs by “1”. That is, the code-shaped measurement light is applied to the measurement object S a plurality of times so that the bright portion and the dark portion change into a gray code shape.
測定対象物Sの表面の各領域で反射された光が受光部120により受光される。受光された光の符号を測定することにより、測定対象物Sの領域ごとに、測定対象物Sが存在することにより変化した符号が得られる。得られた符号と領域ごとに測定対象物Sが存在しない場合の符号との差分を求めることにより、図6の距離dに相当する距離を算出することができる。ここで、画像におけるX軸方向には、上記の符号は1回のみ出現するというコード状測定光を用いた測定方法の特徴から、距離dの絶対的な値が算出される。これにより、測定対象物Sのその領域の絶対的な高さ(高さの絶対値)が算出される。測定対象物Sの表面上の全ての領域の高さを算出することにより、測定対象物Sの三次元的な形状を測定することができる。
Light reflected by each region on the surface of the measuring object S is received by the
上記の説明においては、測定対象物Sの表面がX方向において16の領域に分割され、コード状測定光が投光部110から4回出射されたが、これに限定されない。測定対象物Sの表面がX方向において2Nの領域(Nは自然数)に分割され、コード状測定光が投光部110からN回出射されてもよい。上記の説明においては、理解を容易にするためにNは4に設定されている。本実施の形態における形状測定処理においては、Nは例えば8に設定される。したがって、測定対象物Sの表面はX方向において256の領域に分割される。
In the above description, the surface of the measuring object S is divided into 16 regions in the X direction, and the code-shaped measurement light is emitted from the
コード状測定光を用いた測定対象物Sの形状測定においては、コード状測定光を分離して識別可能な距離、すなわち1画素分に相当する距離が最小の分解能となる。したがって、受光部120のX方向における視野の画素数が1024画素である場合、高さが例えば10mmの測定対象物Sを10mm÷1024≒10μmの分解能で計測することができる。分解能は低いが絶対値を算出可能なコード状測定光を用いた形状測定と絶対値を算出できないが分解能が高い正弦波状測定光または縞状測定光を用いた形状測定とを組み合わせることにより、測定対象物Sの高さの絶対値をより高い分解能で算出することができる。
In the shape measurement of the measuring object S using the code-like measurement light, the distance that can be identified by separating the code-like measurement light, that is, the distance corresponding to one pixel is the minimum resolution. Therefore, when the number of pixels in the field of view in the X direction of the
特に、図9の縞状測定光を用いた測定対象物Sの形状測定においては、分解能を1/100画素にすることができる。なお、1/100画素の分解能は、受光部120のX方向における視野の画素数が1024画素である場合、測定対象物Sの表面をX方向において約100000の領域に分割すること(すなわちN≒17)に相当する。そのため、コード状測定光を用いた形状測定と縞状測定光を用いた形状測定と組み合わせることにより、測定対象物Sの高さの絶対値をさらに高い分解能で算出することができる。
In particular, in the shape measurement of the measuring object S using the striped measurement light in FIG. 9, the resolution can be 1/100 pixels. The resolution of 1/100 pixels is that the surface of the measuring object S is divided into about 100,000 areas in the X direction when the number of pixels of the field of view in the X direction of the
上述のライン状測定光を測定対象物S上で走査する方法は一般に光切断法と呼ばれる。一方、正弦波状測定光、縞状測定光またはコード状測定光を測定対象物Sに照射する方法は、パターン投影法に分類される。また、パターン投影法の中でも、正弦波状測定光または縞状測定光を測定対象物Sに照射する方法は位相シフト法に分類され、コード状測定光を測定対象物Sに照射する方法は空間コード法に分類される。 A method of scanning the above-described line-shaped measurement light on the measurement object S is generally called a light cutting method. On the other hand, the method of irradiating the measuring object S with sinusoidal measurement light, striped measurement light or code-like measurement light is classified as a pattern projection method. Among the pattern projection methods, the method of irradiating the measuring object S with sinusoidal measuring light or the striped measuring light is classified as a phase shift method, and the method of irradiating the measuring object S with code-like measuring light is a spatial code. Classified into law.
位相シフト法においては、周期的な投影パターンである正弦波状測定光または縞状測定光を出射した際に、測定対象物Sが存在しない場合の基準高さ位置から反射した受光量に基づいて計算された位相と、測定対象物Sが存在する場合の測定対象物S表面から反射した受光量に基づいて計算された位相との位相差から測定対象物Sの高さを求める。位相シフト法においては、個々の周期的な縞が区別できず、縞1周期分(2π)の整数倍に相当する不確かさが存在するため、絶対位相が求まらないという欠点がある。しかしながら、光切断法に比べて取得する画像の枚数が少ないため測定時間が比較的短く、測定分解能が高いという長所がある。 In the phase shift method, when a sinusoidal measurement light or a striped measurement light that is a periodic projection pattern is emitted, the calculation is based on the amount of light received reflected from the reference height position when the measurement object S does not exist. The height of the measuring object S is obtained from the phase difference between the phase thus calculated and the phase calculated based on the received light amount reflected from the surface of the measuring object S when the measuring object S exists. In the phase shift method, individual periodic fringes cannot be distinguished, and there is an uncertainty corresponding to an integral multiple of one fringe period (2π). However, since the number of images to be acquired is smaller than that of the light cutting method, the measurement time is relatively short and the measurement resolution is high.
一方、空間コード法においては、測定対象物Sの領域ごとに、測定対象物Sが存在することによって変化した符号が得られる。得られた符号と測定対象物Sが存在しない場合の符号との差分を領域ごとに求めることにより、測定対象物Sの絶対的な高さを求めることができる。空間コード法においても、比較的少数の画像により測定が可能であり、絶対的な高さを求めることができるという長所がある。しかしながら、位相シフト法に比べると測定分解能に限界がある。 On the other hand, Oite the space code method is, for each area of the measuring object S, the code is obtained which is changed by the measuring object S is present. The absolute height of the measurement object S can be obtained by obtaining the difference between the obtained code and the code when the measurement object S does not exist for each region. The spatial code method also has an advantage that measurement can be performed with a relatively small number of images, and an absolute height can be obtained. However, the measurement resolution is limited compared to the phase shift method.
これらの投影法は、各々短所および長所を有しているが、いずれも三角測量の原理を用いている点は共通である。したがって、測定光が照射されない影の部分の測定はいずれの測定方法でも不可能である。 Each of these projection methods has its advantages and disadvantages, but both use the principle of triangulation. Therefore, it is impossible to measure a shadow portion that is not irradiated with the measurement light by any measurement method.
[3]顕微鏡モードおよび形状測定モード
本実施の形態に係る形状測定装置500は、顕微鏡モードで動作可能であるとともに形状測定モードで動作可能である。図12および図13は、動作モード選択時における表示部400のGUIの一例を示す図である。図12および図13に示すように、画像表示領域450および設定変更領域470,480が表示部400に表示される。画像表示領域450には、受光部120により撮像された測定対象物Sの画像が表示される。
[3] Microscope Mode and Shape Measurement Mode The
設定変更領域470には、明るさ選択欄471、明るさ設定バー472、表示切換欄473、倍率切換欄474、倍率選択欄475および焦点調整欄476が表示される。明るさ設定バー472は、水平方向に移動可能なスライダ472sを有する。
In the setting
使用者は、明るさ選択欄471において受光部120の露光時間の方式を選択することにより、受光部120の露光時間の方式をオート(自動)と手動との間で切り換えることができる。受光部120の露光時間の方式として手動が選択されている場合、使用者は、PC200の操作部250を操作して明るさ設定バー472のスライダ472sを水平方向に移動させることにより、受光部120の露光時間を調整することができる。使用者は、表示切換欄473から画像の表示の種類を選択することにより、画像の表示の種類をカラーとモノクロとの間で切り換えることができる。
The user can switch the exposure time method of the
後述する図26に示すように、受光部120は、カメラ121としてレンズの倍率が互いに異なるカメラ121Aおよびカメラ121Bを含む。本例においては、例えば一方のカメラ121Aを低倍率カメラと呼び、他方のカメラ121Bを高倍率カメラと呼ぶ。使用者は、倍率切換欄474においてカメラの倍率を選択することにより、受光部120のカメラ121を高倍率カメラと低倍率カメラとの間で切り換えることができる。
As shown in FIG. 26 described later, the
受光部120はデジタルズーム機能を有する。本例においては、2つのカメラ121とデジタルズーム機能とを組み合わせることにより、カメラ121の倍率を実質的に2種類以上に変更することができる。使用者は、倍率選択欄475において倍率を選択することにより、受光部120のカメラ121の倍率を設定することができる。
The
使用者は、焦点調整欄476に数値を入力することにより、入力された数値に対応する距離だけZ方向に受光部120の焦点位置を変化させることができる。受光部120の焦点位置の変化は、ステージ140のZステージ142の位置、すなわち受光部120と測定対象物Sとの間のZ方向の相対的な距離を変化させることにより行われる。
The user can change the focus position of the
設定変更領域480には、顕微鏡モード選択タブ480Aおよび形状測定モード選択タブ480Bが表示される。顕微鏡モード選択タブ480Aが選択されている場合には、形状測定装置500は、顕微鏡モードで動作する。顕微鏡モードにおいては、照明光出力部130から照明光が測定対象物Sに照射される。この状態で、測定対象物Sの拡大観察を行うことができる。
In the setting
図12に示すように、顕微鏡モード選択タブ480Aが選択されている場合、設定変更領域480には、ツール選択欄481および撮影ボタン482が表示される。使用者は、撮影ボタン482を操作することにより、画像表示領域450に表示されている測定対象物Sの画像を撮影(キャプチャ)することができる。
As shown in FIG. 12, when the microscope
ツール選択欄481には、複数の実行ツールをそれぞれ選択するための複数のアイコンが表示される。使用者は、ツール選択欄481の複数のアイコンのいずれかを操作することにより、観察されている測定対象物Sの画像の平面測定、画像への目盛りの挿入、深度合成、画像へのコメントの挿入または画像の改善等の実行ツールを実行することができる。
The
例えば、平面測定の実行が選択されている場合、ツール選択欄481の下方には測定ツール表示欄481aおよび補助ツール表示欄481bが表示される。測定ツール表示欄481aには、2点間の距離の測定、2つの平行線間の距離の測定、円の直径または半径の測定、および2つの直線がなす角度の測定等をそれぞれ実行するための複数のアイコンが表示される。補助ツール表示欄481bには、画像表示領域450の画像に点、線または円等の補助的な描画をそれぞれ実行するための複数のアイコンが表示される。
For example, when execution of plane measurement is selected, a measurement
形状測定モード選択タブ480Bが選択されている場合には、形状測定装置500は、形状測定モードで動作する。図13に示すように、形状測定モード選択タブ480Bが選択されている場合、設定変更領域480には、測定ボタン483が表示される。使用者は、形状測定の準備が終了した後、測定ボタン483を操作することにより、形状測定処理を実行することができる。
When the shape measurement
[4]テクスチャ画像
(1)合成画像
測定部100においては、照明光出力部130からの照明光または投光部110からの均一パターンを有する測定光が照射された状態で、測定対象物Sの表面の状態の画像を示すデータが生成される。表面の状態は、例えば模様または色彩を含む。以下、測定対象物Sの表面の状態の画像をテクスチャ画像と呼び、テクスチャ画像を示すデータをテクスチャ画像データと呼ぶ。
[4] Texture Image (1) Composite Image In the
生成されたテクスチャ画像データと形状測定処理において生成された立体形状データとが合成されることにより、合成データが生成される。表示部400には、合成データに基づいて測定対象物Sの立体形状および表面の状態の合成された画像が表示される。以下、形状測定処理において生成された立体形状データを主立体形状データと呼ぶ。また、主立体形状データに基づいて表示される画像を主立体形状の画像と呼ぶ。
The generated texture image data and the 3D shape data generated in the shape measurement process are combined to generate combined data. The
図14は、形状測定処理実行後における表示部400のGUIの一例を示す図である。図14に示すように、形状測定処理において生成された合成データに基づいて、測定対象物Sの画像が画像表示領域450に表示される。使用者は、合成画像上で、測定対象物Sの測定結果の確認または簡単な計測を実行することができる。
FIG. 14 is a diagram illustrating an example of the GUI of the
ここで、測定対象物Sの表面全体が受光部120のZ方向の測定可能範囲に位置している場合であっても、測定対象物Sの表面全体が被写界深度の範囲内に位置していない場合、テクスチャ画像の全部または一部が鮮明に表示されない。そのため、測定対象物SのZ方向の寸法が受光部120の被写界深度の範囲よりも大きい場合には、受光部120と測定対象物Sとの間の相対的な距離を変化させつつ、受光部120の被写界深度の範囲内に位置する測定対象物Sのテクスチャ画像データが取得される。取得された複数のテクスチャ画像データを合成することにより、測定対象物Sの表面全体にわたって鮮明に表示可能なテクスチャ画像データ(以下、全焦点テクスチャ画像データと呼ぶ)が生成される。
Here, even when the entire surface of the measuring object S is located within the measurable range in the Z direction of the
図15は、全焦点テクスチャ画像を説明するための測定対象物Sの模式的側面図である。図15の測定対象物Sにおいては、回路基板Sb上に電解コンデンサScが実装された構成を有する。また、回路基板Sbの上面および電解コンデンサScには、文字が付されている。図15に示すように、測定対象物SのZ方向の寸法(本例においては、回路基板Sbの下面から電解コンデンサScの上面までの寸法)は、受光部120のZ方向の測定可能範囲よりも小さく、被写界深度の範囲よりも大きい。
FIG. 15 is a schematic side view of the measuring object S for explaining the omnifocal texture image. The measuring object S in FIG. 15 has a configuration in which an electrolytic capacitor Sc is mounted on a circuit board Sb. Further, letters are attached to the upper surface of the circuit board Sb and the electrolytic capacitor Sc. As shown in FIG. 15, the dimension of the measuring object S in the Z direction (in this example, the dimension from the lower surface of the circuit board Sb to the upper surface of the electrolytic capacitor Sc) is larger than the measurable range of the
図16は、受光部120の焦点位置とテクスチャ画像の鮮明度との関係を示す図である。図16(a),(c),(e)は、図15の測定対象物Sの側面図を示す。図16(a)においては、測定対象物Sの電解コンデンサScの上面の位置aに受光部120の焦点が合わされる。図16(b)においては、測定対象物Sの電解コンデンサScの上面と回路基板Sbの上面との中間の位置bに受光部120の焦点が合わされる。図16(c)においては、測定対象物Sの回路基板Sbの上面の位置cに受光部120の焦点が合わされる。
FIG. 16 is a diagram illustrating the relationship between the focal position of the
図16(b)は、図16(a)の状態において取得されたテクスチャ画像データに基づく測定対象物Sのテクスチャ画像を示す。この場合、電解コンデンサScの上面の位置aが受光部120の被写界深度の範囲内に位置するので、図16(b)に示すように、電解コンデンサScの上面に付された文字が鮮明に表示される。しかしながら、回路基板Sbの上面の位置cは、受光部120の被写界深度の範囲内に位置しない。そのため、回路基板Sbの上面に付された文字が不鮮明に表示される。また、回路基板Sbの上面の位置cは、受光部120のZ方向の測定可能範囲内にも位置していない。したがって、図16(e)の位置にステージ140の高さを合わせると、電解コンデンサScの上面の位置aの高さを算出することができないか、または算出される高さの信頼性が低くなる。
FIG. 16B shows a texture image of the measuring object S based on the texture image data acquired in the state of FIG. In this case, since the position “a” on the upper surface of the electrolytic capacitor Sc is located within the range of the depth of field of the
図16(d)は、図16(c)の状態において取得されたテクスチャ画像データに基づく測定対象物Sのテクスチャ画像を示す。この場合、電解コンデンサScの上面と回路基板Sbの上面との中間の位置bが受光部120の被写界深度の範囲内に位置する。しかしながら、電解コンデンサScの上面および回路基板Sbの上面が受光部120の被写界深度の範囲外でかつZ方向の測定可能範囲に位置するので、図16(d)に示すように、電解コンデンサScの上面に付された文字および回路基板Sbの上面に付された文字がやや不鮮明に表示される。
FIG. 16D shows a texture image of the measuring object S based on the texture image data acquired in the state of FIG. In this case, an intermediate position b between the upper surface of the electrolytic capacitor Sc and the upper surface of the circuit board Sb is located within the range of the depth of field of the
図16(f)は、図16(e)の状態において取得されたテクスチャ画像データに基づく測定対象物Sのテクスチャ画像を示す。この場合、回路基板Sbの上面の位置cが受光部120の被写界深度の範囲内に位置するので、図16(f)に示すように、回路基板Sbの上面に付された文字が鮮明に表示される。しかしながら、電解コンデンサScの上面の位置aは、受光部120の被写界深度の範囲内に位置しない。そのため、電解コンデンサScの上面に付された文字が不鮮明に表示される。また、電解コンデンサScの上面の位置aは、受光部120のZ方向の測定可能範囲内にも位置していない。したがって、図16(a)の位置にステージ140の高さを合わせると、回路基板Sbの上面の位置cの高さを算出することができないか、または算出される高さの信頼性が低くなる。
FIG. 16F shows a texture image of the measuring object S based on the texture image data acquired in the state of FIG. In this case, since the position c of the upper surface of the circuit board Sb is located within the range of the depth of field of the
位置a〜cにおけるテクスチャ画像データが合成されることにより全焦点テクスチャ画像データが生成される。図17は、生成された全焦点テクスチャ画像データに基づく測定対象物Sの全焦点テクスチャ画像である。全焦点テクスチャ画像においては、図17に示すように、電解コンデンサScの上面に付された文字が鮮明に表示されるとともに、回路基板Sbの上面に付された文字が鮮明に表示される。 The omnifocal texture image data is generated by synthesizing the texture image data at the positions a to c. FIG. 17 is an omnifocal texture image of the measuring object S based on the generated omnifocal texture image data. In the omnifocal texture image, as shown in FIG. 17, characters attached to the upper surface of the electrolytic capacitor Sc are clearly displayed, and characters attached to the upper surface of the circuit board Sb are clearly displayed.
このように、受光部120とステージ140との相対的なZ方向の位置を変化させることにより、測定対象物Sに対して、受光部120の焦点が合う高さが変化する。そのため、一度に受光部120の被写界深度の範囲内に収めることができない高低差がある測定対象物Sであっても、受光部120の焦点を変化させて撮像した複数のテクスチャ画像を合成することにより、全体に焦点が合った全焦点テクスチャ画像を取得することができる。なお、被写界深度は、受光部120のレンズの倍率によって変化する形状測定装置500の固有の幅を有している。
Thus, by changing the relative position of the
全焦点テクスチャ画像を生成する際には、受光部120とステージ140とのZ方向の相対位置を所定範囲内で、所定の間隔で変化させて複数のテクスチャ画像を取得する。このときの受光部120とステージ140とをZ方向に相対的に移動させる範囲および間隔は、形状測定装置500の固有の値である。ただし、測定対象物Sの形状測定処理を予め実行した場合、または測定対象物Sの形状を示すデータ(例えばCADデータ)を予め保有している場合など、測定対象物Sの形状が既知である場合には、このデータに基づいて最適な移動範囲および間隔を決定してもよい。
When generating an omnifocal texture image, a plurality of texture images are acquired by changing the relative position in the Z direction between the
例えば、測定対象物Sの高さの上限および下限により規定される範囲よりもやや広い範囲を、移動範囲としてもよい。また、測定対象物Sの高さ形状の勾配に応じて間隔を変化させてもよい。全焦点テクスチャ画像を取得する際にステージ140と受光部120との相対的なZ方向の移動を規定する上記のパラメータは使用者により任意に設定可能であってもよい。
For example, a range slightly wider than the range defined by the upper and lower limits of the height of the measuring object S may be set as the movement range. Further, the interval may be changed according to the gradient of the height shape of the measuring object S. When acquiring an all-focus texture image, the above-described parameter that defines the relative movement in the Z direction between the
全焦点テクスチャ画像データは、測定対象物Sの全ての部分のうち受光部120の被写界深度の範囲内に含まれている部分についての複数のテクスチャ画像データが合成されることにより生成される。また、測定対象物Sの各部分のテクスチャ画像データの取得の際には、測定対象物Sの各部分が受光部120の被写界深度の範囲内に含まれるときの受光部120と測定対象物Sとの相対的な距離に基づいて測定対象物Sの各部分の高さが算出される。
The all-focus texture image data is generated by synthesizing a plurality of texture image data for the portions included in the depth of field of the
測定対象物Sの全ての部分について算出された高さを合成することにより、測定対象物Sの立体的な形状を示すデータが生成される。この測定対象物Sの立体的な形状を示すデータを副立体形状データと呼ぶ。全焦点テクスチャ画像データと主立体形状データとが合成されることにより、合成データが生成される。 By combining the heights calculated for all parts of the measurement object S, data indicating the three-dimensional shape of the measurement object S is generated. Data indicating the three-dimensional shape of the measuring object S is referred to as sub-three-dimensional shape data. The synthesized data is generated by synthesizing the omnifocal texture image data and the main stereoscopic shape data.
図18は、合成データに基づく測定対象物Sの合成画像である。図18(a)は、主立体形状データに基づく測定対象物Sの主立体形状の画像を示す。図18(a)の主立体形状を示す主立体形状データと全焦点テクスチャ画像データとが合成されることにより、合成データが生成される。図18(b)は、生成された合成データに基づく合成画像である。図18(b)に示すように、測定対象物SのZ方向の寸法が受光部120の被写界深度の範囲よりも大きい場合であっても、測定対象物Sの異なる高さを有する部分の表面の状態が鮮明に表示される。
FIG. 18 is a composite image of the measuring object S based on the composite data. FIG. 18A shows an image of the main stereoscopic shape of the measuring object S based on the main stereoscopic shape data. The synthesized data is generated by synthesizing the main stereoscopic shape data indicating the main stereoscopic shape of FIG. 18A and the omnifocal texture image data. FIG. 18B is a composite image based on the generated composite data. As shown in FIG. 18B, even when the dimension of the measurement object S in the Z direction is larger than the range of the depth of field of the
主立体形状データの各画素の値は、その画素の位置における高さのデータを示している。一方、全焦点テクスチャ画像データの各画素の値は、その画素の位置における色および輝度を含むテクスチャ情報(表面の状態の情報)を示している。したがって、対応する画素同士の情報を合成することにより、図18に示す合成画像を生成することができる。 The value of each pixel in the main stereoscopic shape data indicates the height data at the position of the pixel. On the other hand, the value of each pixel of the omnifocal texture image data indicates texture information (surface state information) including color and luminance at the position of the pixel. Therefore, the synthesized image shown in FIG. 18 can be generated by synthesizing the information of corresponding pixels.
なお、詳細については後述するが、測定対象物Sの形状測定は、通常1回の処理で行われる。例えば、図16(a)の例では、回路基板Sbの上面cが受光部120の測定可能範囲内にないため、回路基板Sbの上面cの高さを算出することができない。したがって、図16(c)に示すように、できるだけ測定対象物Sの全体が受光部120のZ方向の測定可能範囲内に収まるように、受光部120とステージ140とのZ方向の相対距離を調整する必要がある。
In addition, although mentioned later for details, the shape measurement of the measuring object S is normally performed by one process. For example, in the example of FIG. 16A, since the upper surface c of the circuit board Sb is not within the measurable range of the
一方、全焦点テクスチャ画像を生成する処理では、受光部120とステージ140とのZ方向の相対距離を変化させて複数回の撮像を行うので、1回の撮像で測定対象物Sの全体が受光部120の被写界深度の範囲内に収まるように受光部120とステージ140との相対距離を予め調整する必要はない。したがって、使用者は、テクスチャ画像を取得する際の受光部120の被写界深度の範囲ではなく、形状測定処理を行うための受光部120のZ方向の測定可能範囲内に測定対象物Sが収まっているか否かを意識して、受光部120とステージ140とのZ方向の相対距離を調整する。
On the other hand, in the process of generating the omnifocal texture image, imaging is performed a plurality of times by changing the relative distance between the
図16(a)に示すステージ140の位置で形状測定処理を行う場合、回路基板Sbの上面cの高さの算出ができないか、または算出される高さの信頼性が低くなる。一方、全焦点テクスチャ画像の生成処理においては、受光部120とステージ140とのZ方向の相対距離を変化させて複数回の撮像を行うので、回路基板Sbの上面cに受光部120の焦点が合ったテクスチャ画像を取得することはできる。したがって、テクスチャ画像の一部に高さのデータが欠損していたり、信頼性が低い画素が存在していても、その画素に全焦点テクスチャ画像データのテクスチャ情報を付与することは可能である。
When the shape measurement process is performed at the position of the
本発明における三角測距を用いた形状測定処理においては、一般的に受光部120のZ方向の測定可能範囲は、受光部120の被写界深度の範囲よりも広い。これは、三角測距においては、画像に多少のぼけが発生していても、測定対象物Sの形状を測定することが可能だからである。ただし、受光部120の被写界深度の範囲は、使用者にとって焦点が合っているように見える主観的な範囲である。また、受光部120のZ方向の測定可能範囲は、投光部110および受光部120により定まる形状測定装置500の固有の値であるものの、受光部120のZ方向の測定可能範囲内にない測定対象物Sが必ずしも測定不可能になるのではない。
In the shape measurement process using triangulation in the present invention, the measurable range in the Z direction of the
また、測定対象物Sの高低差が大きい場合は、どのように受光部120とステージ140とのZ方向の相対距離を調整しても、測定対象物Sの全体を1度で測定することができない場合がある。その場合は、形状測定処理を行う際にも、受光部120とステージ140とのZ方向の相対距離を変化させて、複数回の形状測定処理を行い、各画素の最も信頼性が高い高さのデータにより構成された立体形状を取得することもできる。この場合は、受光部120のZ方向の測定可能範囲を超えた高低差を有する測定対象物Sの全体の測定が可能になり、大きな高低差を有する測定対象物Sの立体形状全体に対して、テクスチャ情報を付与することが可能である。
Further, when the height difference of the measuring object S is large, the entire measuring object S can be measured at a time, no matter how the relative distance in the Z direction between the
図18の例においては、三次元的に表示された測定対象物Sにテクスチャ画像が合成されるが、これに限定されない。例えば、測定対象物Sの高さを色彩の変化により表現した二次元の画像上にテクスチャ情報を重畳して表示してもよい。この場合、例えば高さを示す二次元の画像とテクスチャ情報との比率を使用者が調整可能にすることで、高さを示す二次元の画像とテクスチャ画像との中間的な色彩および輝度の画像を生成して表示することも可能である。 In the example of FIG. 18, the texture image is synthesized with the measurement object S displayed three-dimensionally, but the present invention is not limited to this. For example, texture information may be superimposed and displayed on a two-dimensional image in which the height of the measuring object S is expressed by a change in color. In this case, for example, by allowing the user to adjust the ratio between the two-dimensional image indicating the height and the texture information, an image having an intermediate color and brightness between the two-dimensional image indicating the height and the texture image. Can also be generated and displayed.
なお、上記の説明においては、理解を容易にするために3つの位置a〜cにおけるテクスチャ画像データおよび高さに基づいて全焦点テクスチャ画像データおよび副立体形状データがそれぞれ生成されるが、これに限定されない。2つ以下の位置または4つ以上の位置におけるテクスチャ画像データおよび高さに基づいて全焦点テクスチャ画像データおよび副立体形状データがそれぞれ生成されてもよい。 In the above description, the omnifocal texture image data and the sub-stereoscopic shape data are respectively generated based on the texture image data and the height at the three positions a to c for easy understanding. It is not limited. The omnifocal texture image data and the sub-stereoscopic shape data may be respectively generated based on the texture image data and the height at two or less positions or four or more positions.
本例においては、測定対象物SのZ方向の位置が、受光部120の被写界深度の範囲よりも小さい間隔で、受光部120のZ方向の測定可能範囲の上限から下限へ向かって、または下限から上限へ向かって変化される。Z方向の各位置におけるテクスチャ画像データおよび高さに基づいて全焦点テクスチャ画像データおよび副立体形状データがそれぞれ生成される。
In this example, the position of the measuring object S in the Z direction is smaller than the range of the depth of field of the
あるいは、全焦点テクスチャ画像データおよび副立体形状データの生成前に測定対象物Sの主立体形状データが生成されている場合には、主立体形状データに基づいて測定対象物SのZ方向の上端および下端を算出することができる。したがって、測定対象物SのZ方向の位置が、受光部120の被写界深度の範囲よりも小さい間隔で、測定対象物SのZ方向の寸法の上端から下端へ向かって、または下端から上端へ向かって変化されてもよい。Z方向の各位置におけるテクスチャ画像データおよび高さに基づいて全焦点テクスチャ画像データおよび副立体形状データがそれぞれ生成される。
Alternatively, when the main stereoscopic shape data of the measuring object S is generated before the generation of the omnifocal texture image data and the sub-stereoscopic shape data, the upper end in the Z direction of the measuring object S based on the main stereoscopic shape data And the lower end can be calculated. Therefore, the position of the measuring object S in the Z direction is smaller than the range of the depth of field of the
この場合、測定対象物Sの全焦点テクスチャ画像データおよび副立体形状データを生成するための最小限の範囲でテクスチャ画像データを取得し、高さを算出することができる。これにより、全焦点テクスチャ画像データおよび副立体形状データを高速に生成することができる。 In this case, the texture image data can be acquired in the minimum range for generating the omnifocal texture image data and the sub-stereoscopic shape data of the measurement object S, and the height can be calculated. Thereby, all-focus texture image data and sub-stereoscopic shape data can be generated at high speed.
(2)テクスチャ画像の種類
使用者は、テクスチャ画像データの取得において、テクスチャ画像の種類を選択することができる。テクスチャ画像の種類は、例えば通常のテクスチャ画像、全焦点テクスチャ画像もしくはハイダイナミックレンジ(HDR)テクスチャ画像またはこれらの組み合わせを含む。全焦点テクスチャ画像が選択された場合、上記の全焦点テクスチャ画像データが生成される。HDRテクスチャ画像が選択された場合、公知のハイダイナミックレンジ(HDR)合成が行われたテクスチャ画像データが生成される。
(2) Type of texture image The user can select the type of texture image in acquiring the texture image data. The types of texture images include, for example, normal texture images, omnifocal texture images, high dynamic range (HDR) texture images, or combinations thereof. When an omnifocal texture image is selected, the above omnifocal texture image data is generated. When an HDR texture image is selected, texture image data subjected to a known high dynamic range (HDR) composition is generated.
測定対象物Sの表面の複数の部分の反射率の差または色彩による明るさの差が小さくかつZ方向における測定対象物Sの寸法が受光部120の被写界深度よりも大きい場合、使用者は全焦点テクスチャ画像を選択する。これにより、測定対象物Sの表面状態を鮮明に示すテクスチャ画像データを短時間で生成させることができる。測定対象物Sの表面に反射率が高い部分および低い部分が含まれる場合、または色彩による明るさの差が大きい場合、使用者はHDRテクスチャ画像を選択する。これにより、黒つぶれおよび白とびが含まれない測定対象物Sの表面状態を鮮明に示すテクスチャ画像データを生成させることができる。
When the difference in reflectance of a plurality of portions on the surface of the measuring object S or the difference in brightness due to color is small and the dimension of the measuring object S in the Z direction is larger than the depth of field of the
通常のテクスチャ画像においては、テクスチャ画像の合成が行われない。この場合、受光部120の焦点位置を固定した状態で受光部120により出力される受光信号に基づいて一のテクスチャ画像データが生成される。測定対象物Sの表面の複数の部分の反射率の差または色彩による明るさの差が小さくかつZ方向における測定対象物Sの寸法が受光部120の被写界深度の範囲よりも小さい場合、使用者は通常のテクスチャ画像を選択する。これにより、測定対象物Sの表面状態を鮮明に示すテクスチャ画像データをより短時間で生成させることができる。
In a normal texture image, the texture image is not synthesized. In this case, one texture image data is generated based on the light reception signal output from the
HDRテクスチャ画像が選択された場合、Z方向の一の位置において、異なる撮像条件の下で複数のテクスチャ画像データが生成される。ここで、撮像条件は、受光部120の露光時間を含む。あるいは、撮像条件は、照明光出力部130からの照明光の強度(明るさ)または投光部110からの均一な測定光の強度(明るさ)を含んでもよい。これらの場合、CPU210は、複数の撮像条件で複数のテクスチャ画像データを容易に生成することができる。
When the HDR texture image is selected, a plurality of texture image data is generated under different imaging conditions at one position in the Z direction. Here, the imaging conditions include the exposure time of the
生成された複数のテクスチャ画像データは、そのZ方向の位置におけるテクスチャ画像に黒つぶれおよび白とびが含まれないように合成(HDR合成)される。これにより、テクスチャ画像のダイナミックレンジが拡大される。HDR合成されたテクスチャ画像データ(以下、HDRテクスチャ画像データと呼ぶ)に基づいてHDRテクスチャ画像が表示される。 The plurality of generated texture image data are combined (HDR combined) so that the texture image at the position in the Z direction does not include blackout and overexposure. As a result, the dynamic range of the texture image is expanded. An HDR texture image is displayed based on the HDR synthesized texture image data (hereinafter referred to as HDR texture image data).
全焦点テクスチャ画像とHDRテクスチャ画像との組み合わせ(以下、HDR全焦点テクスチャ画像と呼ぶ。)が選択された場合、測定対象物SのZ方向の位置を変化させつつ、Z方向の各位置について異なる撮像条件における複数のテクスチャ画像データが取得される。Z方向の各位置において取得された複数のテクスチャ画像データが、そのZ方向の位置における画像のダイナミックレンジが拡大されるようにHDR合成されることにより、HDRテクスチャ画像データが生成される。 When a combination of an omnifocal texture image and an HDR texture image (hereinafter referred to as an HDR omnifocal texture image) is selected, the position of the measuring object S is changed for each position in the Z direction while being changed. A plurality of texture image data under the imaging condition is acquired. A plurality of texture image data acquired at each position in the Z direction is HDR-synthesized so that the dynamic range of the image at the position in the Z direction is expanded, thereby generating HDR texture image data.
また、測定対象物Sの全ての部分のうち受光部120の被写界深度の範囲内に含まれている部分についての複数のHDRテクスチャ画像データが合成されることにより、測定対象物Sの表面全体にわたって表示可能なHDRテクスチャ画像データ(以下、HDR全焦点テクスチャ画像データと呼ぶ)が生成される。HDR全焦点テクスチャ画像データに基づいて、HDR全焦点テクスチャ画像が表示される。
Moreover, the surface of the measuring object S is obtained by synthesizing a plurality of HDR texture image data of the parts included in the range of the depth of field of the
このように、測定対象物Sの表面に反射率が高い部分および低い部分が含まれるかまたは色彩による明るさの差が大きく、かつ測定対象物Sの寸法が受光部の被写界深度よりも大きい場合、使用者はHDR全焦点テクスチャ画像を選択する。これにより、測定対象物Sの表面状態を鮮明に示すテクスチャ画像データを生成させることができる。 As described above, the surface of the measuring object S includes a portion having a high reflectance and a low reflectance, or the brightness difference due to the color is large, and the dimension of the measuring object S is larger than the depth of field of the light receiving unit. If so, the user selects an HDR omnifocal texture image. Thereby, the texture image data which shows the surface state of the measuring object S clearly can be produced | generated.
図19は、テクスチャ画像の種類の選択時における表示部400のGUIの一例を示す図である。図19に示すように、テクスチャ画像の種類の選択時には、表示部400の設定変更領域480にテクスチャ画像選択欄484が表示される。テクスチャ画像選択欄484には、3つのチェックボックス484a,484b,484cが表示される。
FIG. 19 is a diagram illustrating an example of the GUI of the
使用者は、チェックボックス484a〜484cを指定することにより、通常のテクスチャ画像、HDRテクスチャ画像および全焦点テクスチャ画像をそれぞれ選択することができる。また、使用者は、チェックボックス484b,484cを指定することにより、HDR全焦点テクスチャ画像を選択することができる。
The user can select a normal texture image, HDR texture image, and omnifocal texture image by designating
(3)主立体形状データの補正
副立体形状データの精度は、主立体形状データの精度よりも低い。しかしながら、主立体形状データは三角測距方式に基づいて生成されるので、主立体形状データを生成するためには、受光部120の光軸とは異なる角度から測定対象物Sに光を照射する必要がある。そのため、主立体形状データは、測定対象物Sの形状を正確に測定することができない領域に対応する不良部分を含むことが多い。ここで、不良部分は、画像の影の部分に対応する空白データ、ノイズの部分に対応するノイズデータ、または多重反射等による測定対象物Sの偽の形状の部分に対応する偽形状データを含む。
(3) Correction of main stereoscopic shape data The accuracy of sub stereoscopic shape data is lower than the accuracy of main stereoscopic shape data. However, since the main stereoscopic shape data is generated based on the triangulation method, in order to generate the main stereoscopic shape data, the measurement object S is irradiated with light from an angle different from the optical axis of the
一方で、副立体形状データを生成するためには、受光部120の光軸とは異なる角度から測定対象物Sに光を照射する必要がなく、受光部120の光軸と略等しい角度から測定対象物Sに照射することができる。この場合、副立体形状データは、不良部分をほとんど含まない。したがって、測定対象物Sの略上方に配置される照明光出力部130から出射される照明光を用いることにより、不良部分をほとんど含まない副立体形状データを生成することができる。
On the other hand, in order to generate sub-stereoscopic shape data, it is not necessary to irradiate the measurement object S from an angle different from the optical axis of the
副立体形状データに基づいて主立体形状データの不良部分が判定される。本例においては、同一の測定対象物Sについての副立体形状データと主立体形状データとが比較される。これにより、主立体形状データのうちの不良部分を容易に判定することができる。また、形状測定処理において、測定光のパターンのコントラストが部分的に低下した場合、その部分に対応する主立体形状データの部分の信頼性が低下する。 A defective portion of the main stereoscopic shape data is determined based on the sub stereoscopic shape data. In this example, the sub stereoscopic shape data and the main stereoscopic shape data for the same measurement object S are compared. Thereby, it is possible to easily determine a defective portion in the main stereoscopic shape data. Further, in the shape measurement process, when the contrast of the pattern of the measurement light is partially reduced, the reliability of the part of the main stereoscopic shape data corresponding to that part is lowered.
この場合でも、副立体形状データおよび主立体形状データに基づいて、主立体形状データの信頼性が低い部分を判定することができる。本例においては、副立体形状データと主立体形状データとが比較される。副立体形状データの各部分と主立体形状データの各部分との差分がそれぞれ算出され、その差分が予め定められたしきい値より大きい主立体形状データの部分は信頼性が低いと判定される。 Even in this case, it is possible to determine a portion with low reliability of the main stereoscopic shape data based on the sub stereoscopic shape data and the main stereoscopic shape data. In this example, the sub stereoscopic shape data and the main stereoscopic shape data are compared. The difference between each part of the sub-stereoscopic shape data and each part of the main stereoscopic shape data is calculated, and it is determined that the part of the main stereoscopic shape data whose difference is larger than a predetermined threshold is low in reliability. .
このように、主立体形状データの複数の部分のうち副立体形状データからの乖離がしきい値よりも大きい部分は信頼性が低いと判定される。なお、しきい値は固定値であってもよいし、使用者がスライダ等を操作することにより任意に調整可能な可変値であってもよい。以下、主立体形状データのうちの信頼性が低いと判定された部分を主立体形状データの信頼性低下部分と呼ぶ。 In this way, it is determined that the portion of the plurality of portions of the main stereoscopic shape data whose deviation from the sub stereoscopic shape data is larger than the threshold value has low reliability. The threshold value may be a fixed value or a variable value that can be arbitrarily adjusted by the user operating a slider or the like. Hereinafter, a portion of the main stereoscopic shape data that has been determined to be low in reliability is referred to as a reliability-decreasing portion of the main stereoscopic shape data.
主立体形状データの不良部分または信頼性低下部分は、対応する副立体形状データの部分により置換または補間等の補正がされてもよい。これにより、使用者は、表示部400において外観上不良部分または信頼性低下部分を含まない測定対象物Sの主立体形状の画像または合成画像を観測することができる。また、主立体形状データの信頼性低下部分について、信頼性を向上させることができる。主立体形状データの補正においては、主立体形状データの不良部分または信頼性低下部分がその周囲の主立体形状データの部分により補間されてもよい。
The defective part or the reduced reliability part of the main stereoscopic shape data may be corrected by replacement or interpolation by the corresponding sub stereoscopic shape data part. Thereby, the user can observe an image or a composite image of the main three-dimensional shape of the measuring object S that does not include a defective portion or a reduced reliability portion on the
図20、図21および図22は、副立体形状データによる主立体形状データの補正を説明するための図である。図20(a),(b)は、測定対象物Sの主立体形状の画像および合成画像をそれぞれ示す。図21(a),(b)は、測定対象物Sの副立体形状の画像および合成画像をそれぞれ示す。図22(a),(b)は、測定対象物Sの補正された主立体形状の画像および補正された合成画像をそれぞれ示す。 20, FIG. 21, and FIG. 22 are diagrams for explaining the correction of the main stereoscopic shape data by the sub stereoscopic shape data. FIGS. 20A and 20B show a main stereoscopic image and a composite image of the measuring object S, respectively. FIGS. 21A and 21B show a sub-stereoscopic image and a composite image of the measurement object S, respectively. FIGS. 22A and 22B show a corrected main stereoscopic image and a corrected combined image of the measuring object S, respectively.
図20(a),(b)に示すように、主立体形状の画像および合成画像には、空白データに基づく影Ssが含まれるとともに、偽形状データに基づく偽の形状Spが含まれる。一方、図21(a),(b)に示すように、副立体形状の画像および合成画像には、影の影響が出ない。 As shown in FIGS. 20A and 20B, the main stereoscopic image and the composite image include a shadow Ss based on blank data and a false shape Sp based on false shape data. On the other hand, as shown in FIGS. 21A and 21B, the sub-stereoscopic image and the composite image are not affected by the shadow.
図20(a),(b)の主立体形状の画像および合成画像における影Ssおよび偽の形状Spの部分が、図21(a),(b)の副立体形状の画像および全焦点テクスチャ画像の相当する部分により補正される。これにより、図22(a),(b)に示すように、影の影響が出ない主立体形状の画像および合成画像を観測することができる。 The portion of the shadow Ss and the false shape Sp in the main stereoscopic shape image and the composite image of FIGS. 20A and 20B are the sub-stereo shape image and the omnifocal texture image of FIGS. 21A and 21B. It is corrected by the corresponding part. As a result, as shown in FIGS. 22A and 22B, it is possible to observe a main stereoscopic image and a synthesized image that are not affected by a shadow.
表示部400に主立体形状の画像またはテクスチャ画像を表示させる際に、主立体形状データの不良部分または信頼性低下部分が補正されず、主立体形状データの不良部分または信頼性低下部分に相当する立体形状の画像またはテクスチャ画像の部分が強調表示されてもよい。あるいは、表示部400に補正された主立体形状の画像を表示させる際に、主立体形状データの不良部分または信頼性低下部分が補正された状態で、主立体形状データの不良部分または信頼性低下部分に相当する補正された立体形状の画像の部分が強調表示されてもよい。これにより、使用者は、主立体形状データの不良部分または信頼性低下部分を容易かつ確実に認識することができる。主立体形状データの不良部分または信頼性低下部分は、形状測定処理における測定位置の計測または解析においては、無効データとして扱われてもよい。
When displaying the main stereoscopic shape image or the texture image on the
形状測定処理において、投光部110A,110Bの両方からの測定光を用いて主立体形状データが生成される場合、投光部110A,110Bの各々からの測定光に基づく主立体形状データが適切な重み付けで合成されることにより主立体形状データが生成される。ここで、一方の測定光に基づく主立体形状データが不良部分または信頼性低下部分を含む場合には、その部分においては、一方の測定光に基づく主立体形状データの合成の重み付けを低減させるとともに、他方の測定光に基づく主立体形状データの合成の重み付けを増加させてもよい。
In the shape measurement process, when the main stereoscopic shape data is generated using measurement light from both the
(4)形状測定処理の効率化
後述する図30〜図32の形状測定処理において、投光部110から測定対象物Sにコード状測定光(図11参照)が照射されるとともに、縞状測定光(図9参照)が照射される。この場合、コード状測定光に基づいて測定対象物Sの各部分の高さの絶対値が算出されるとともに、縞状測定光に基づいて測定対象物Sの各部分の高さの相対値が高い分解能で算出される。これにより、測定対象物Sの各部分の高さの絶対値が高い分解能で算出される。すなわち、コード状測定光に基づいて算出された高さにより、縞状測定光に基づいて算出された高さの絶対値が決定される。
(4) Efficiency improvement of shape measurement process In the shape measurement process of FIGS. 30 to 32 described later, the measurement light S is irradiated with the code-shaped measurement light (see FIG. 11) and the stripe measurement is performed. Light (see FIG. 9) is irradiated. In this case, the absolute value of the height of each part of the measuring object S is calculated based on the code-shaped measuring light, and the relative value of the height of each part of the measuring object S is calculated based on the striped measuring light. Calculated with high resolution. Thereby, the absolute value of the height of each part of the measuring object S is calculated with high resolution. That is, the absolute value of the height calculated based on the striped measurement light is determined by the height calculated based on the code-shaped measurement light.
これに代えて、副立体形状データにおける各部分の高さにより、縞状測定光に基づいて算出された高さの絶対値が決定されてもよい。この場合、形状測定処理において、投光部110から測定対象物Sにコード状測定光を照射しなくてもよい。これにより、測定対象物Sの各部分の高さの絶対値を高い分解能で算出しつつ形状測定処理を短時間でかつ効率的に実行することができる。
Instead, the absolute value of the height calculated based on the striped measurement light may be determined based on the height of each part in the sub-stereoscopic shape data. In this case, it is not necessary to irradiate the measurement object S from the
[5]形状測定処理
(1)形状測定の準備
測定対象物Sの形状測定処理を実行する前に、使用者は、形状測定の準備を行う。図23は、形状測定の準備の手順を示すフローチャートである。以下、図1、図2および図23を参照しながら形状測定の準備の手順を説明する。まず、使用者は、測定対象物Sをステージ140上に載置する(ステップS1)。次に、使用者は、照明光出力部130から測定対象物Sに照明光を照射する(ステップS2)。これにより、測定対象物Sの画像が表示部400に表示される。続いて、使用者は、表示部400に表示された測定対象物Sの画像を見ながら、照明光の光量、受光部120の焦点ならびに測定対象物Sの位置および姿勢の調整(以下、第1の調整と呼ぶ)を行う(ステップS3)。
[5] Shape Measurement Processing (1) Preparation for Shape Measurement Before executing the shape measurement processing of the measurement object S, the user prepares for shape measurement. FIG. 23 is a flowchart showing a procedure for preparing for shape measurement. Hereinafter, a procedure for preparing for shape measurement will be described with reference to FIGS. 1, 2, and 23. First, the user places the measuring object S on the stage 140 (step S1). Next, the user irradiates the measurement object S with illumination light from the illumination light output unit 130 (step S2). Thereby, the image of the measuring object S is displayed on the
次に、使用者は、照明光の照射を停止するとともに、投光部110から測定対象物Sに測定光を照射する(ステップS4)。これにより、測定対象物Sの画像が表示部400に表示される。続いて、使用者は、表示部400に表示された測定対象物Sの画像を見ながら、測定光の光量、受光部120の焦点ならびに測定対象物Sの位置および姿勢の調整(以下、第2の調整と呼ぶ)を行う(ステップS5)。ステップS5において、測定対象物Sの測定したい位置に影が発生していない場合には、使用者は、第2の調整として受光部120の焦点ならびに測定対象物Sの位置および姿勢の調整を行う必要はなく、測定光の光量の調整を行えばよい。
Next, the user stops the irradiation of the illumination light and irradiates the measurement object S with the measurement light from the light projecting unit 110 (step S4). Thereby, the image of the measuring object S is displayed on the
その後、使用者は、測定光の照射を停止するとともに、再び照明光出力部130から測定対象物Sに照明光を照射する(ステップS6)。これにより、測定対象物Sの画像が表示部400に表示される。次に、使用者は、表示部400に表示された測定対象物Sの画像を確認する(ステップS7)。ここで、使用者は、表示部400に表示された測定対象物Sの画像から、光の光量、受光部120の焦点ならびに測定対象物Sの位置および姿勢(以下、観察状態と呼ぶ)が適切であるか否かを判定する(ステップS8)。
Thereafter, the user stops the irradiation of the measurement light and irradiates the measurement object S from the illumination
ステップS8において、観察状態が適切でないと判定した場合、使用者は、ステップS2の処理に戻る。一方、ステップS8において、観察状態が適切であると判定した場合、使用者は、形状測定の準備を終了する。 If it is determined in step S8 that the observation state is not appropriate, the user returns to the process in step S2. On the other hand, when it is determined in step S8 that the observation state is appropriate, the user finishes preparation for shape measurement.
なお、上記の説明においては、第1の調整の後に第2の調整が行われるが、これに限定されない。第2の調整の後に第1の調整が行われてもよい。この場合、ステップS6においては照明光ではなく測定光が測定対象物Sに照射される。また、ステップS5において、第2の調整のうち受光部120の焦点ならびに測定対象物Sの位置および姿勢の調整を行わなかった場合には、使用者は、ステップS6〜S8の手順を省略して形状測定の準備を終了してもよい。
In the above description, the second adjustment is performed after the first adjustment, but the present invention is not limited to this. The first adjustment may be performed after the second adjustment. In this case, in step S6, the measurement object S is irradiated with the measurement light instead of the illumination light. In step S5, when the focus of the
(2)第1の調整
図24および図25は、形状測定の準備の手順における第1の調整の詳細を示すフローチャートである。以下、図1、図2、図24および図25を参照しながら形状測定の準備の手順における第1の調整の詳細を説明する。まず、使用者は、照明光の光量を調整する(ステップS11)。照明光の光量の調整は、制御部300の照明光源320から出射される照明光の明るさまたは受光部120の露光時間を調整することにより行われる。次に、使用者は、表示部400に表示される測定対象物Sの画像に基づいて、測定対象物Sに照射される照明光の光量が適切であるか否かを判定する(ステップS12)。
(2) First Adjustment FIGS. 24 and 25 are flowcharts showing details of the first adjustment in the procedure for the preparation for shape measurement. Hereinafter, the details of the first adjustment in the procedure for the preparation of the shape measurement will be described with reference to FIGS. 1, 2, 24 and 25. First, the user adjusts the amount of illumination light (step S11). The adjustment of the amount of illumination light is performed by adjusting the brightness of the illumination light emitted from the
ステップS12において、照明光の光量が適切でないと判定した場合、使用者は、ステップS11の処理に戻る。一方、ステップS12において、照明光の光量が適切であると判定した場合、使用者は、受光部120の焦点を調整する(ステップS13)。受光部120の焦点の調整は、ステージ140のZステージ142の位置を変化させ、受光部120と測定対象物Sとの間のZ方向の相対的な距離を調整することにより行われる。次に、使用者は、表示部400に表示される測定対象物Sの画像に基づいて、受光部120の焦点が適切であるか否かを判定する(ステップS14)。
If it is determined in step S12 that the amount of illumination light is not appropriate, the user returns to the process in step S11. On the other hand, if it is determined in step S12 that the amount of illumination light is appropriate, the user adjusts the focus of the light receiving unit 120 (step S13). The focus of the
ステップS14において、受光部120の焦点が適切でないと判定した場合、使用者は、ステップS13の処理に戻る。一方、ステップS14において、受光部120の焦点が適切であると判定した場合、使用者は、測定対象物Sの位置および姿勢を調整する(ステップS15)。測定対象物Sの位置および姿勢の調整は、ステージ140のX−Yステージ141の位置およびθステージ143の角度を変化させることにより行われる。
If it is determined in step S14 that the focus of the
次に、使用者は、表示部400に表示される測定対象物Sの画像に基づいて、測定対象物Sの位置および姿勢が適切であるか否かを判定する(ステップS16)。ここで、測定対象物Sの測定位置が受光部120の視野範囲に含まれている場合、使用者は、測定対象物Sの位置および姿勢が適切であると判断する。一方、測定対象物Sの測定位置が受光部120の視野範囲に含まれていない場合、使用者は、測定対象物Sの位置および姿勢が適切でないと判断する。
Next, the user determines whether or not the position and orientation of the measurement object S are appropriate based on the image of the measurement object S displayed on the display unit 400 (step S16). Here, when the measurement position of the measurement object S is included in the visual field range of the
ステップS16において、測定対象物Sの位置および姿勢が適切でないと判定した場合、使用者は、ステップS15の処理に戻る。一方、ステップS16において、測定対象物Sの位置および姿勢が適切であると判定した場合、使用者は、視野サイズを調整する(ステップS17)。視野サイズの調整は、例えば受光部120のカメラ121のレンズの倍率を変更することにより行われる。
If it is determined in step S16 that the position and orientation of the measurement object S are not appropriate, the user returns to the process of step S15. On the other hand, if it is determined in step S16 that the position and orientation of the measuring object S are appropriate, the user adjusts the visual field size (step S17). The adjustment of the visual field size is performed by changing the magnification of the lens of the
次に、使用者は、表示部400に表示される測定対象物Sの画像に基づいて、視野サイズが適切であるか否かを判定する(ステップS18)。ステップS18において、視野サイズが適切でないと判定した場合、使用者は、ステップS17の処理に戻る。一方、ステップS18において、視野サイズが適切であると判定した場合、使用者は、テクスチャ画像の種類を選択し(ステップS19)、第1の調整を終了する。第1の調整が行われることにより、テクスチャ画像データを生成するために最適な照明光の光量条件が設定される。 Next, the user determines whether or not the visual field size is appropriate based on the image of the measurement object S displayed on the display unit 400 (step S18). If it is determined in step S18 that the field of view size is not appropriate, the user returns to the process of step S17. On the other hand, if it is determined in step S18 that the visual field size is appropriate, the user selects the type of texture image (step S19), and the first adjustment is terminated. By performing the first adjustment, an optimal illumination light amount condition for generating texture image data is set.
なお、ステップS17においては、受光部120が、レンズの倍率が互いに異なる複数のカメラ121を含み、カメラ121を切り換えることによりレンズの倍率を変更してもよい。あるいは、レンズの倍率を切り換え可能な一のカメラ121を含み、レンズの倍率を切り換えることによりレンズの倍率を変更してもよい。または、受光部120のデジタルズーム機能により、レンズの倍率を変更することなく視野サイズが調整されてもよい。
In step S <b> 17, the
図26は、X方向から見た図2の受光部120を示す模式図である。図26に示すように、受光部120は、複数のカメラ121としてカメラ121A,121Bを含む。カメラ121Aのレンズの倍率とカメラ121Bのレンズの倍率とは互いに異なる。また、受光部120はハーフミラー124をさらに含む。
FIG. 26 is a schematic diagram showing the
複数のレンズ122,123を通過した光は、ハーフミラー124により2つの光に分離される。一方の光はカメラ121Aにより受光され、他方の光はカメラ121Bにより受光される。図1の制御基板150に受光信号を出力するカメラ121をカメラ121Aとカメラ121Bとの間で切り換えることにより、レンズの倍率を変更することができる。カメラ121Aとカメラ121Bとの間の切り換えは、図13の倍率切換欄474においてカメラの倍率を選択することにより行われる。
The light that has passed through the plurality of
(3)第2の調整
図27および図28は、形状測定の準備の手順における第2の調整の詳細を示すフローチャートである。以下、図1、図2、図27および図28を参照しながら形状測定の準備の手順における第2の調整の詳細を説明する。まず、使用者は、一方の測定光の光量を調整する(ステップS21)。
(3) Second Adjustment FIGS. 27 and 28 are flowcharts showing details of the second adjustment in the procedure for preparing for shape measurement. Hereinafter, the details of the second adjustment in the procedure for the preparation of the shape measurement will be described with reference to FIGS. 1, 2, 27 and 28. First, the user adjusts the amount of one measurement light (step S21).
次に、使用者は、表示部400に表示される測定対象物Sの画像に基づいて、測定対象物Sの位置および姿勢が適切であるか否かを判定する(ステップS22)。ここで、測定対象物Sの測定位置に影が発生していない場合、使用者は、測定対象物Sの位置および姿勢が適切であると判断する。一方、測定対象物Sの測定位置に影が発生している場合、使用者は、測定対象物Sの位置および姿勢が適切でないと判断する。 Next, the user determines whether or not the position and orientation of the measurement object S are appropriate based on the image of the measurement object S displayed on the display unit 400 (step S22). Here, when a shadow is not generated at the measurement position of the measurement object S, the user determines that the position and orientation of the measurement object S are appropriate. On the other hand, when a shadow is generated at the measurement position of the measurement object S, the user determines that the position and orientation of the measurement object S are not appropriate.
ステップS22において、測定対象物Sの位置および姿勢が適切でないと判定した場合、使用者は、測定対象物Sの位置および姿勢を調整する(ステップS23)。測定対象物Sの位置および姿勢の調整は、ステージ140のX−Yステージ141の位置およびθステージ143の角度を変化させることにより行われる。その後、使用者は、ステップS22の処理に戻る。
If it is determined in step S22 that the position and orientation of the measurement object S are not appropriate, the user adjusts the position and orientation of the measurement object S (step S23). The position and orientation of the measuring object S are adjusted by changing the position of the
一方、ステップS22において、測定対象物Sの位置および姿勢が適切であると判定した場合、使用者は、表示部400に表示される測定対象物Sの画像に基づいて、測定対象物Sに照射される一方の測定光の光量が適切であるか否かを判定する(ステップS24)。
On the other hand, when it is determined in step S22 that the position and orientation of the measurement target S are appropriate, the user irradiates the measurement target S based on the image of the measurement target S displayed on the
ステップS24において、一方の測定光の光量が適切でないと判定した場合、使用者は、一方の測定光の光量を調整する(ステップS25)。その後、使用者は、ステップS24の処理に戻る。 If it is determined in step S24 that the light amount of one measurement light is not appropriate, the user adjusts the light amount of one measurement light (step S25). Thereafter, the user returns to the process of step S24.
一方、ステップS24において、一方の測定光の光量が適切であると判定した場合、使用者は、表示部400に表示される測定対象物Sの画像に基づいて、受光部120の焦点が適切であるか否かを判定する(ステップS26)。
On the other hand, if it is determined in step S24 that the amount of the one measurement light is appropriate, the user is appropriately focused on the
ステップS26において、受光部120の焦点が適切でないと判定した場合、使用者は、受光部120の焦点を調整する(ステップS27)。受光部120の焦点の調整は、ステージ140のZステージ142の位置を変化させ、受光部120と測定対象物Sとの間のZ方向の相対的な距離を調整することにより行われる。その後、使用者は、ステップS26の処理に戻る。
If it is determined in step S26 that the focus of the
一方、ステップS26において、受光部120の焦点が適切であると判定した場合、使用者は、表示部400に表示された測定対象物Sの画像から、観察状態が適切であるか否かを判定する(ステップS28)。
On the other hand, when it is determined in step S26 that the focus of the
ステップS28において、観察状態が適切でないと判定した場合、使用者は、ステップS23、ステップS25またはステップS27の処理に戻る。具体的には、観察状態のうち測定対象物Sの位置および姿勢が適切でないと判定した場合、使用者は、ステップS23の処理に戻る。観察状態のうち光(一方の測定光)の光量が適切でないと判定した場合、使用者は、ステップS25の処理に戻る。観察状態のうち受光部120の焦点が適切でないと判定した場合、使用者は、ステップS27の処理に戻る。
If it is determined in step S28 that the observation state is not appropriate, the user returns to the process in step S23, step S25, or step S27. Specifically, when it is determined that the position and orientation of the measurement object S are not appropriate in the observation state, the user returns to the process of step S23. If it is determined that the amount of light (one measurement light) is not appropriate in the observation state, the user returns to the process of step S25. When it is determined that the focus of the
一方、ステップS28において、観察状態が適切であると判定した場合、使用者は、一方の測定光の照射を停止するとともに、他方の投光部110Bから測定対象物Sに測定光を照射する(ステップS29)。これにより、測定対象物Sの画像が表示部400に表示される。続いて、使用者は、表示部400に表示された測定対象物Sの画像を見ながら、他方の測定光の光量の調整を行う(ステップS30)。
On the other hand, when it is determined in step S28 that the observation state is appropriate, the user stops the irradiation of one measurement light and irradiates the measurement object S with the measurement light from the other
その後、使用者は、表示部400に表示される測定対象物Sの画像に基づいて、他方の測定光の光量が適切であるか否かを判定する(ステップS31)。ステップS31において、他方の測定光の光量が適切でないと判定した場合、使用者は、ステップS30の処理に戻る。一方、ステップS31において、他方の測定光の光量が適切であると判定した場合、使用者は、第2の調整を終了する。第2の調整が行われることにより、主立体形状データを生成するために最適な一方および他方の測定光の光量条件が設定される。なお、他方の投光部110Bを使用しない場合には、使用者は、ステップS28の処理の後、ステップS29〜S31の手順を省略して第2の調整を終了してもよい。
Thereafter, the user determines whether or not the amount of the other measurement light is appropriate based on the image of the measurement object S displayed on the display unit 400 (step S31). If it is determined in step S31 that the amount of the other measurement light is not appropriate, the user returns to the process of step S30. On the other hand, if it is determined in step S31 that the amount of the other measurement light is appropriate, the user ends the second adjustment. By performing the second adjustment, an optimal light quantity condition for one and the other measurement light is set in order to generate the main stereoscopic shape data. In addition, when not using the other
図29は、第2の調整の実行時における表示部400のGUIの一例を示す図である。図29に示すように、第2の調整の実行時には、表示部400の設定変更領域480に図5と同様の光量設定バー430,440が表示される。使用者は、操作部250を操作して光量設定バー430のスライダ430sを水平方向に移動させることにより、一方の測定光の光量を変更することができる。同様に、使用者は、操作部250を操作して光量設定バー440のスライダ440sを水平方向に移動させることにより、他方の測定光の光量を変更することができる。
FIG. 29 is a diagram illustrating an example of the GUI of the
第2の調整の実行時には、表示部400に3つの画像表示領域450a,450b,450cが設けられる。画像表示領域450aには、一方および他方の測定光が照射された場合における測定対象物Sの画像が表示される。画像表示領域450bには、一方の測定光が照射された場合における測定対象物Sの画像が表示される。画像表示領域450cには、他方の測定光が照射された場合における測定対象物Sの画像が表示される。
When the second adjustment is performed, the
ここで、画像は、明るすぎるために白とびが生じている部分および暗すぎるために黒つぶれが生じている部分を識別可能に、画像表示領域450a〜450cに表示される。図29の例においては、明るすぎるために白とびが生じている部分がドットパターンにより強調表示されている。また、暗すぎるために黒つぶれが生じている部分がハッチングパターンにより強調表示されている。
Here, the image is displayed in the
(4)形状測定処理
図23の形状測定の準備の後、測定対象物Sの形状測定処理が実行される。図30、図31および図32は、形状測定処理の手順を示すフローチャートである。以下、図1、図2および図30〜図32を参照しながら形状測定処理の手順を説明する。使用者は、形状測定の準備の終了後に、CPU210に形状測定処理の開始を指示する。CPU210は、使用者により形状測定処理の開始が指示されたか否かを判定する(ステップS41)。
(4) Shape measurement process After the preparation of the shape measurement of FIG. 23, the shape measurement process of the measuring object S is executed. 30, 31 and 32 are flowcharts showing the procedure of the shape measurement process. Hereinafter, the procedure of the shape measurement process will be described with reference to FIGS. 1, 2, and 30 to 32. The user instructs the
ステップS41において、形状測定処理の開始が指示されていない場合、CPU210は、形状測定処理の開始が指示されるまで待機する。なお、使用者は、形状測定処理の開始を指示するまで形状測定の準備を行うことができる。一方、ステップS41において、形状測定処理の開始が指示された場合、CPU210は、第2の調整において設定された光量条件に従って投光部110から測定対象物Sに測定光を照射し、測定対象物Sに測定光のパターンが投影された画像(以下、パターン画像と呼ぶ)を取得する(ステップS42)。取得されたパターン画像は、作業用メモリ230に記憶される。
If the start of the shape measurement process is not instructed in step S41, the
次に、CPU210は、取得したパターン画像を所定の計測アルゴリズムで処理することにより、測定対象物Sの立体形状を示す主立体形状データを生成する(ステップS43)。生成された主立体形状データは、作業用メモリ230に記憶される。続いて、CPU210は、生成した主立体形状データに基づいて測定対象物Sの主立体形状の画像を表示部400に表示する(ステップS44)。
Next, the
その後、CPU210は、使用者の指示に基づいて、測定すべき位置(以下、測定位置と呼ぶ)の立体形状が表示されているか否かを判定する(ステップS45)。使用者は、表示部400に表示されている測定対象物Sの主立体形状の画像を見て、測定位置の立体形状が表示されているか否かをCPU210に指示する。
Thereafter, the
ステップS45において、測定位置の立体形状が表示されていないと判定した場合、CPU210はステップS41の処理に戻る。これにより、CPU210は形状測定処理の開始が指示されるまで待機するとともに、使用者は形状測定処理の開始を再び指示するまで測定位置の立体形状が表示されるように形状測定の準備を行うことができる。一方、ステップS45において、測定位置の立体形状が表示されていると判定した場合、CPU210は、使用者により図25の第1の調整のステップS19で通常のテクスチャ画像が選択されたか否かを判定する(ステップS46)。
If it is determined in step S45 that the three-dimensional shape of the measurement position is not displayed, the
ここで、CPU210は、図19のテクスチャ画像選択欄484のチェックボックス484aが指定された場合、通常のテクスチャ画像が選択されたと判定する。また、CPU210は、図19のテクスチャ画像選択欄484のチェックボックス484a〜484cのいずれも指定されなかった場合にも、CPU210は、通常のテクスチャ画像が選択されたと判定する。
Here, when the
ステップS46において、通常のテクスチャ画像が選択されたと判定した場合、CPU210は、第1の調整において設定された光量条件に従って照明光出力部130から測定対象物Sに照明光を照射し、測定対象物Sの通常のテクスチャ画像データを生成する(ステップS47)。その後、CPU210はステップS55の処理に進む。
If it is determined in step S46 that a normal texture image has been selected, the
ステップS46において、通常のテクスチャ画像が選択されなかったと判定した場合、CPU210は、使用者により図25の第1の調整のステップS19で全焦点テクスチャ画像が選択されたか否かを判定する(ステップS48)。ここで、CPU210は、図19のテクスチャ画像選択欄484のチェックボックス484cが指定された場合、全焦点テクスチャ画像が選択されたと判定する。
If it is determined in step S46 that the normal texture image has not been selected, the
ステップS48において、全焦点テクスチャ画像が選択されたと判定した場合、CPU210は、第1の調整において設定された光量条件に従って照明光出力部130から測定対象物Sに照明光を照射し、測定対象物Sの全焦点テクスチャ画像データを生成する(ステップS49)。一方、ステップS48において、全焦点テクスチャ画像が選択されなかったと判定した場合、CPU210はステップS50の処理に進む。
If it is determined in step S48 that the omnifocal texture image has been selected, the
次に、CPU210は、使用者により図25の第1の調整のステップS19でHDRテクスチャ画像が選択されたか否かを判定する(ステップS50)。ここで、CPU210は、図19のテクスチャ画像選択欄484のチェックボックス484bが指定された場合、HDRテクスチャ画像が選択されたと判定する。
Next, the
ステップS50において、HDRテクスチャ画像が選択されたと判定した場合、CPU210は、第1の調整において設定された光量条件に従って照明光出力部130から測定対象物Sに照明光を照射し、測定対象物SのHDRテクスチャ画像データを生成する(ステップS51)。なお、ステップS49で全焦点テクスチャ画像データが生成されていた場合には、CPU210は、ステップS51でHDRテクスチャ画像データではなくHDR全焦点テクスチャ画像データを生成する。一方、ステップS50において、HDRテクスチャ画像が選択されなかったと判定した場合、CPU210はステップS52の処理に進む。
If it is determined in step S50 that the HDR texture image has been selected, the
使用者は、生成されたテクスチャ画像データに基づくテクスチャ画像を表示部400に表示させることをCPU210に指示することができる。CPU210は、テクスチャ画像の表示が指示されたか否かを判定する(ステップS52)。ステップS52において、テクスチャ画像の表示が指示されなかったと判定した場合、CPU210はステップS55の処理に進む。一方、ステップS52において、テクスチャ画像の表示が指示されたと判定した場合、CPU210は生成されたテクスチャ画像データに基づいてテクスチャ画像を表示部400に表示させる(ステップS53)。
The user can instruct the
次に、CPU210は、使用者の指示に基づいて、テクスチャ画像が適切であるか否かを判定する(ステップS54)。使用者は、表示部400に表示されているテクスチャ画像を見て、テクスチャ画像が適切であるか否かをCPU210に指示する。
Next, the
ステップS54において、テクスチャ画像が適切でないと判定した場合、CPU210はステップS48の処理に戻る。これにより、テクスチャ画像が適切であると判定されるまで、ステップS48〜S54の処理が繰り返される。使用者は選択するテクスチャ画像の種類を変更することにより、CPU210に適切なテクスチャ画像データを生成させることができる。
If it is determined in step S54 that the texture image is not appropriate, the
ステップS54において、テクスチャ画像が適切であると判定した場合、CPU210は、合成データを生成する(ステップS55)。合成データは、ステップS47,ステップS49またはステップS51で生成されたテクスチャ画像データとステップS43において生成されたと主立体形状データを合成することにより生成される。
If it is determined in step S54 that the texture image is appropriate, the
続いて、CPU210は、生成された合成データに基づいて測定対象物Sの合成画像を表示部400に表示させる(ステップS56)。その後、CPU210は、使用者の指示に基づいて測定位置の計測または解析を実行する(ステップS57)。これにより、形状測定処理を終了する。このような形状測定処理により、CPU210は、使用者の指示に基づいて合成画像上において測定位置の計測または解析を実行することができる。
Subsequently, the
上記のステップS42において、投光部110A,110Bの両方から測定対象物Sに測定光が照射される場合、一方の投光部110Aからの測定光に対応する一方のパターン画像が取得されるとともに、他方の投光部110Bからの測定光に対応する他方のパターン画像が取得される。
In step S42 described above, when the measurement object S is irradiated with the measurement object S from both the
ステップS43において、一方の投光部110Aからの測定光に対応する一方の主立体形状データが生成されるとともに、他方の投光部110Bからの測定光に対応する他方の主立体形状データが生成される。一方の主立体形状データと他方の主立体形状データとが適切な重み付けで合成されることにより、一の主立体形状データが生成される。
In step S43, one main stereoscopic shape data corresponding to the measurement light from one
上記のステップS47,S49,S51において、照明光出力部130から測定対象物Sに照明光が照射されることにより、測定対象物Sのテクスチャ画像データが生成されるが、これに限定されない。ステップS47,S49,S51において、投光部110から測定対象物Sに測定光が照射されることにより、測定対象物Sのテクスチャ画像データが生成されてもよい。この場合、形状測定装置500は照明光出力部130を含まなくてもよいので、形状測定装置500を小型化することができる。また、形状測定装置500の製造コストを低減することができる。
In steps S47, S49, and S51 described above, the illumination light is applied to the measurement object S from the illumination
上記の形状測定処理においては、全焦点テクスチャ画像が選択されたか否かが判定された後にHDR画像が選択されたか否かが判定されるが、これに限定されない。HDRテクスチャ画像が選択されたか否かが判定された後に全焦点画像が選択されたか否かが判定されてもよい。 In the shape measurement process described above, it is determined whether an HDR image is selected after it is determined whether an omnifocal texture image is selected, but the present invention is not limited to this. It may be determined whether an omnifocal image has been selected after determining whether an HDR texture image has been selected.
上記の形状測定処理においては、テクスチャ画像データの生成の処理(ステップS46〜S54)が主立体形状データの生成の処理(ステップS42〜S45)の後に実行されるが、これに限定されない。テクスチャ画像データの生成の処理および主立体形状データの生成の処理はいずれが先に実行されてもよく、テクスチャ画像データの生成の処理および主立体形状データの生成の処理の一部が同時に実行されてもよい。 In the shape measurement process, the texture image data generation process (steps S46 to S54) is executed after the main stereoscopic shape data generation process (steps S42 to S45), but the present invention is not limited to this. Either the texture image data generation process or the main stereoscopic shape data generation process may be executed first, and a part of the texture image data generation process and the main stereoscopic shape data generation process are executed simultaneously. May be.
例えば、テクスチャ画像データの生成の処理(ステップS46〜S54)が行われた後に、主立体形状データの生成の処理(ステップS42〜S45)が行われてもよい。この場合でも、CPU210はステップS55の処理において合成データを生成することができる。また、ステップS54において、使用者が表示部400に表示されているテクスチャ画像を見て、テクスチャ画像が適切であるか否かを判断している間に、主立体形状データの生成の処理の一部が実行可能となる。そのため、形状測定処理を短時間でかつ効率的に実行することができる。
For example, after the process of generating texture image data (steps S46 to S54) is performed, the process of generating main stereoscopic shape data (steps S42 to S45) may be performed. Even in this case, the
また、主立体形状データの生成の処理の前にテクスチャ画像データの生成の処理が行われた場合、副立体形状データに基づいて測定対象物SのZ方向の寸法の上端および下端を算出可能となる。したがって、主立体形状データの生成の処理において、受光部120の焦点を測定対象物SのZ方向の中心に自動的に調整することができる。この場合、主立体形状データの精度をさらに向上させることができる。
In addition, when the texture image data generation process is performed before the main stereoscopic shape data generation process, the upper and lower ends of the dimension in the Z direction of the measuring object S can be calculated based on the sub stereoscopic shape data. Become. Therefore, in the process of generating the main stereoscopic shape data, the focus of the
一方、図30〜図32の形状測定処理のようにテクスチャ画像データの生成の処理の前に主立体形状データの生成の処理が行われた場合、主立体形状データに基づいて測定対象物SのZ方向の寸法の上端および下端を算出可能となる。したがって、テクスチャ画像データの生成の処理において、全焦点テクスチャ画像データの生成する際に、受光部120に対するステージ140のZ方向の移動範囲を最小限にしかつ移動間隔を適切に設定することができる。これにより、全焦点テクスチャ画像データを高速に生成することができる。
On the other hand, when the process of generating the main stereoscopic shape data is performed before the process of generating the texture image data as in the shape measurement process of FIGS. 30 to 32, the measurement object S is measured based on the main stereoscopic shape data. It becomes possible to calculate the upper end and the lower end of the dimension in the Z direction. Therefore, in the process of generating the texture image data, when generating the omnifocal texture image data, the movement range of the
(5)効果
本実施の形態に係る形状測定装置500においては、三角測距方式により測定対象物Sの立体形状を示す主立体形状データが高い精度で生成される。また、測定対象物Sの各部分が受光部120の被写界深度の範囲内に位置する場合における測定対象物Sのテクスチャ画像データが合成されることにより、全焦点テクスチャ画像データが生成される。そのため、全焦点テクスチャ画像データは、測定対象物Sの表面全体にわたる表面状態を鮮明に示す。
(5) Effect In the
これにより、主立体形状データと全焦点テクスチャ画像データとを合成した合成データは、高い精度で測定された測定対象物Sの立体形状を示しかつ測定対象物Sの表面状態を鮮明に示す。合成データに基づく合成画像が表示部400に表示される。その結果、使用者は、測定対象物Sの形状を高い精度で測定しつつ測定対象物Sの表面状態を鮮明に観測することができる。
Thereby, the synthesized data obtained by synthesizing the main stereoscopic shape data and the omnifocal texture image data shows the stereoscopic shape of the measuring object S measured with high accuracy and clearly shows the surface state of the measuring object S. A composite image based on the composite data is displayed on the
また、本実施の形態に係る形状測定装置500においては、主立体形状データを生成するために適した一方および他方の測定光の光量条件とテクスチャ画像データを生成するために適した照明光の光量条件とが個別に設定される。これにより、主立体形状データをより高精度で生成することが可能になるとともに、測定対象物Sの表面全体にわたる表面状態をより鮮明に示すテクスチャ画像データを生成することが可能になる。その結果、測定対象物Sの形状をより高い精度で測定しつつ測定対象物Sの表面状態をより鮮明に観測することができる。
In the
[6]測定条件の選択
(1)プレビュー画像
形状測定の準備における第2の調整において、測定対象物Sの姿勢が調整される。図33は、測定対象物Sの姿勢の調整を説明するための図である。図33(a),(c)は、ステージ140上の測定対象物Sに投光部110から測定光を照射した状態を示す。図33(b),(d)は、それぞれ図33(a),(c)の受光部120で測定対象物Sが撮像されることにより表示部400に表示される画像を示す。
[6] Selection of Measurement Condition (1) Preview Image In the second adjustment in the preparation for shape measurement, the posture of the measurement object S is adjusted. FIG. 33 is a diagram for explaining the adjustment of the posture of the measuring object S. FIG. 33A and 33C show a state in which the measuring object S on the
図33の例においては、測定対象物Sは、異なる高さの2段の上面を有する断面L字形状のブロックである。図33(a)の例においては、測定対象物Sの上段の上面により投光部110からの測定光が遮られる。この場合、図33(b)に示すように、測定対象物Sの下段の上面の測定位置に影Ssが発生する。したがって、測定対象物Sの測定位置の形状を測定することができない。
In the example of FIG. 33, the measuring object S is a block having an L-shaped cross section having two upper surfaces having different heights. In the example of FIG. 33A, the measurement light from the
図33(c)の例においては、測定対象物Sの向きを変えることにより測定対象物Sの姿勢が調整される。この場合、図33(d)に示すように、測定対象物Sの下段の上面の測定位置に影Ssが発生しない。これにより、測定対象物Sの測定位置の形状を測定することができる。 In the example of FIG. 33 (c), the posture of the measurement object S is adjusted by changing the direction of the measurement object S. In this case, as shown in FIG. 33 (d), no shadow Ss occurs at the measurement position on the upper surface of the lower stage of the measurement object S. Thereby, the shape of the measurement position of the measuring object S can be measured.
図34は、形状測定処理における測定条件を説明するための測定対象物Sの一例を示す斜視図である。図34に示すように、測定対象物Sにおいては、板状部材Sw上に2つの角柱状部材Sx、1つの板状部材Syおよび1つの板状部材Szが形成される。2つの角柱状部材Sxは、板状部材Sy,Szよりも大きい厚みを有する。この場合、2つの角柱状部材Sxの周囲には影が発生しやすい。したがって、2つの角柱状部材Sxの付近に測定位置がある場合、測定位置における測定対象物Sの形状を正確に測定することができない可能性がある。 FIG. 34 is a perspective view showing an example of the measurement object S for explaining measurement conditions in the shape measurement process. As shown in FIG. 34, in the measuring object S, two prismatic members Sx, one plate member Sy, and one plate member Sz are formed on the plate member Sw. The two prismatic members Sx have a larger thickness than the plate-like members Sy and Sz. In this case, a shadow is likely to occur around the two prismatic members Sx. Therefore, when there is a measurement position in the vicinity of the two prismatic members Sx, there is a possibility that the shape of the measurement object S at the measurement position cannot be measured accurately.
また、板状部材Syは、2つの角柱状部材Sxおよび板状部材Sw,Szよりも高い透過率を有する。この場合、板状部材Syの内部に潜り込んだ測定光および板状部材Syの複数の部分により複数回にわたって反射(多重反射)した測定光が図1の受光部120により受光されやすい。したがって、板状部材Sy上に測定位置がある場合、測定位置における測定対象物Sの形状を正確に測定することができない可能性がある。
The plate-like member Sy has a higher transmittance than the two prismatic members Sx and the plate-like members Sw and Sz. In this case, the measurement light that has entered the inside of the plate-like member Sy and the measurement light that has been reflected (multiple reflection) a plurality of times by a plurality of portions of the plate-like member Sy are easily received by the
さらに、板状部材Szは、2つの角柱状部材Sxおよび板状部材Sw,Syよりも高い反射率を有する。この場合、板状部材Szにより反射された測定光は、2つの角柱状部材Sxまたは板状部材Syにより反射された測定光よりも高い強度を有する。それにより、受光部120が板状部材Szにより反射された測定光を受光した場合、板状部材Szに対応する受光信号の部分が飽和しやすい。したがって、板状部材Sz上に測定位置がある場合、測定位置における測定対象物Sの形状を正確に測定することができない可能性がある。
Furthermore, the plate-like member Sz has a higher reflectance than the two prismatic members Sx and the plate-like members Sw and Sy. In this case, the measurement light reflected by the plate member Sz has higher intensity than the measurement light reflected by the two prismatic members Sx or the plate member Sy. Thereby, when the
一方、測定対象物Sの一部に影が発生すること、光の潜り込みまたは多重反射が発生すること、および高い強度の光の反射が発生することは自然現象である。そのため、測定位置に影、光の潜り込みもしくは多重反射または高い強度の光の反射が発生していても、使用者がそれに気づかないことがある。また、測定対象物Sに影、光の潜り込みもしくは多重反射または高い強度の光の反射が発生するか否かは、測定対象物Sの姿勢、形状または材質により異なる。そのため、使用者が、測定対象物Sの形状測定処理において適切な測定条件を設定することは困難である。 On the other hand, it is a natural phenomenon that a shadow is generated on a part of the measuring object S, light is submerged or multiple reflection occurs, and high-intensity light is reflected. For this reason, even if a shadow, light sneaking or multiple reflection or high intensity light reflection occurs at the measurement position, the user may not notice it. Further, whether or not shadow, light sneak or multiple reflection, or high-intensity light reflection occurs on the measurement object S depends on the posture, shape, or material of the measurement object S. Therefore, it is difficult for the user to set appropriate measurement conditions in the shape measurement process of the measurement object S.
そこで、本実施の形態においては、測定対象物Sの形状測定処理前に、複数の異なる測定条件において影が発生する領域、光の潜り込みもしくは多重反射が発生する領域または高い強度の光の反射が発生する領域がPC200により推定される。測定条件は、測定モード、測定対象物Sの姿勢および位置ならびに測定光の照射方向を含む。また、測定モードは、スタンダードモード、ファインモード、ハレーション除去モードおよびスーパーファインモードを含む。
Therefore, in the present embodiment, before the shape measurement processing of the measuring object S, there are areas where shadows occur under a plurality of different measurement conditions, areas where light stagnation or multiple reflection occurs, or reflection of high intensity light. The generated area is estimated by the
以下、測定対象物Sにおいて正確な形状測定が不可能な領域を測定困難領域と呼ぶ。特に測定対象物Sにおいて影が発生する領域を第1の測定困難領域と呼び、光の潜り込みまたは多重反射が発生する領域を第2の測定困難領域と呼び、高い強度の光の反射が発生する領域を第3の測定困難領域と呼ぶ。測定困難領域は、第1〜第3の測定困難領域を含む。部材の内部へ潜り込んだ光または多重反射された測定光を間接光と呼ぶ。測定困難領域に対応する主立体形状データの部分は、データ欠落部分またはデータ不正確部分等の不良部分となる。 Hereinafter, a region in the measuring object S where accurate shape measurement is impossible is referred to as a measurement difficult region. In particular, a region where a shadow is generated in the measurement object S is referred to as a first measurement difficulty region, and a region where light stagnation or multiple reflection occurs is referred to as a second measurement difficulty region, and high intensity light reflection occurs. The region is referred to as a third measurement difficulty region. The measurement difficulty region includes first to third measurement difficulty regions. Light that has entered the inside of the member or multiple reflected measurement light is called indirect light. The part of the main stereoscopic shape data corresponding to the difficult measurement area becomes a defective part such as a data missing part or a data inaccurate part.
本実施の形態においては、複数の測定条件に対応する複数の画像データ(以下、プレビュー画像データと呼ぶ)が生成される。複数のプレビュー画像データに基づく画像(以下、プレビュー画像と呼ぶ)が、対応する複数の測定条件において推定された測定困難領域を識別可能に表示部400に表示される。また、複数の測定条件で測定対象物Sの形状測定処理を実行する場合において推定される測定時間が、複数のプレビュー画像と対応するように表示部400に表示される。
In the present embodiment, a plurality of image data (hereinafter referred to as preview image data) corresponding to a plurality of measurement conditions is generated. An image based on a plurality of preview image data (hereinafter referred to as a preview image) is displayed on the
使用者は、複数の測定条件における測定困難領域を識別可能に表示部400に表示された複数のプレビュー画像および測定時間を見て、PC200の操作部250を操作することにより適切な測定条件を選択することができる。使用者により選択された測定条件において、測定対象物Sの形状測定処理が実行される。
The user selects an appropriate measurement condition by operating the
(2)画像データに基づく測定困難領域の推定
測定条件として測定モードが設定された場合、測定対象物Sの形状測定処理前に、スタンダードモード、ファインモード、ハレーション除去モードおよびスーパーファインモードの各々における測定困難領域が画像データに基づいて推定される。
(2) Estimation of measurement difficulty region based on image data When measurement mode is set as a measurement condition, before measuring the shape of measurement object S, in each of standard mode, fine mode, halation removal mode, and super fine mode The difficult measurement area is estimated based on the image data.
(a)スタンダードモードにおける測定困難領域の推定
スタンダードモードは標準の測定モードである。スタンダードモードでは、測定対象物Sにおいて影が発生する第1の測定困難領域、光の潜り込みまたは多重反射が発生する第2の測定困難領域、および高い強度の光の反射が発生する第3の測定困難領域が現われる。
(A) Estimation of difficult measurement area in standard mode Standard mode is a standard measurement mode. In the standard mode, a first measurement difficulty region where a shadow is generated on the measurement object S, a second measurement difficulty region where a light stagnation or multiple reflection occurs, and a third measurement where a high intensity light reflection occurs. Difficult areas appear.
スタンダードモードにおける測定困難領域の推定においては、明部分のみからなる測定光が測定対象物Sに照射される。すなわち、投光部110から測定対象物Sの全体に均一な測定光が照射される。この場合、受光部120には測定光および自然光が入射する。受光部120により出力される受光信号に基づいて、画像データ(以下、明画像データと呼ぶ)が生成される。
In the estimation of the difficult measurement area in the standard mode, the measuring object S is irradiated with the measurement light consisting only of the bright part. That is, uniform measurement light is irradiated from the
その後、暗部分のみからなる測定光が測定対象物Sに照射される。すなわち、投光部110から測定対象物Sに測定光は照射されない。この場合、受光部120には自然光のみが入射する。受光部120により出力される受光信号に基づいて、画像データ(以下、暗画像データと呼ぶ)が生成される。
Thereafter, the measuring object S is irradiated with measuring light consisting of only a dark part. That is, the measurement light is not irradiated from the
明画像データの各画素データの値と暗画像データの対応する画素データの値との差がそれぞれ算出される。それにより、自然光の影響が除去される。ここで、測定対象物Sの部分に影が発生している場合には、算出された差が一定値よりも小さくなる。したがって、算出された差が予め設定された値よりも小さい画素データに対応する測定対象物Sの部分が、第1の測定困難領域であると推定される。 A difference between each pixel data value of the bright image data and a corresponding pixel data value of the dark image data is calculated. Thereby, the influence of natural light is removed. Here, when a shadow is generated in the portion of the measuring object S, the calculated difference becomes smaller than a certain value. Therefore, it is estimated that the part of the measuring object S corresponding to pixel data whose calculated difference is smaller than a preset value is the first measurement difficulty region.
また、測定対象物Sの一部分が他の部分に比べて高い反射率を有する場合には、受光信号が飽和することがある。この場合には、明画像データのうち、高い反射率を有する部分に対応する画素データの値がダイナミックレンジの上限値に等しくなる。したがって、明画像データの画素データのうち、ダイナミックレンジの上限に等しい値を有する画素データに対応する測定対象物Sの部分が、第3の測定困難領域であると推定される。 Further, when a part of the measuring object S has a higher reflectance than other parts, the light reception signal may be saturated. In this case, the value of pixel data corresponding to a portion having high reflectance in the bright image data is equal to the upper limit value of the dynamic range. Therefore, it is estimated that the part of the measuring object S corresponding to the pixel data having a value equal to the upper limit of the dynamic range among the pixel data of the bright image data is the third measurement difficulty region.
スタンダードモードにおいては、第2の測定困難領域の推定は行われず、以下のファインモードにおいて推定される第2の測定困難領域がスタンダードモードにおける第2の測定困難領域として採用される。また、スタンダードモードにおける測定困難領域の推定に要する時間とスタンダードモードにおける形状測定処理に要する時間とは相関を有する。したがって、スタンダードモードにおける測定困難領域の推定に要した時間に基づいて、スタンダードモードにおける形状測定処理を実行する場合に要する測定時間が推定される。 In the standard mode, the second measurement difficulty region is not estimated, and the second measurement difficulty region estimated in the following fine mode is adopted as the second measurement difficulty region in the standard mode. In addition, the time required for estimating the difficult measurement area in the standard mode and the time required for the shape measurement process in the standard mode have a correlation. Therefore, based on the time required for estimating the measurement difficulty region in the standard mode, the measurement time required for executing the shape measurement process in the standard mode is estimated.
(b)ファインモードにおける測定困難領域の推定
ファインモードは、光がにじみやすい半透明の樹脂および凹凸を有する金属の測定に適する。ファインモードでは、測定対象物Sにおいて影が発生する第1の測定困難領域および高い強度の光の反射が発生する第3の測定困難領域が現われるが、光の潜り込みまたは多重反射が発生する第2の測定困難領域が現われないように測定が行われる。
(B) Estimation of difficult measurement area in fine mode Fine mode is suitable for the measurement of translucent resin and metal with irregularities that easily bleed light. In the fine mode, a first measurement difficulty region in which a shadow is generated in the measurement object S and a third measurement difficulty region in which high-intensity light is reflected appear, but the second in which light sneak or multiple reflection occurs. The measurement is performed so that the measurement difficult region does not appear.
ファインモードにおける測定困難領域の推定においては、複数種類の測定光が測定対象物Sに順次照射される。測定対象物Sにより反射された測定光が受光部120により順次受光される。受光部120により出力される受光信号に基づいて、複数の画像データが生成される。生成された複数の画像データの画素データの変化に基づいて、間接光が発生する測定対象物Sの部分が第2の困難領域として推定される。また、複数の画像データに基づいて、間接光の影響が除去された画像データ(以下、間接光除去画像データと呼ぶ)が生成される。
In the estimation of the measurement difficulty region in the fine mode, the measurement object S is sequentially irradiated with a plurality of types of measurement light. Measurement light reflected by the measurement object S is sequentially received by the
さらに、暗部分のみからなる測定光が測定対象物Sに照射される。すなわち、投光部110から測定対象物Sに測定光は照射されない。この場合、受光部120には自然光のみが入射する。受光部120により出力される受光信号に基づいて、暗画像データが生成される。
Furthermore, the measuring object S is irradiated with measuring light consisting only of dark portions. That is, the measurement light is not irradiated from the
間接光除去画像データの各画素データの値と暗画像データの対応する画素データの値との差がそれぞれ算出される。それにより、自然光の影響が除去される。この場合、算出された差が予め設定された値よりも小さい画素データに対応する測定対象物Sの部分が、第1の測定困難領域であると推定される。また、間接光除去画像データの画素データの値のうち、ダイナミックレンジの上限値に等しい値を有する画素データに対応する測定対象物Sの部分が、第3の測定困難領域であると推定される。 A difference between each pixel data value of the indirect light removal image data and a corresponding pixel data value of the dark image data is calculated. Thereby, the influence of natural light is removed. In this case, the part of the measuring object S corresponding to the pixel data whose calculated difference is smaller than a preset value is estimated to be the first measurement difficulty region. Further, the portion of the measurement object S corresponding to the pixel data having a value equal to the upper limit value of the dynamic range among the pixel data values of the indirect light removal image data is estimated to be the third measurement difficulty region. .
また、ファインモードにおける測定困難領域の推定に要する時間とファインモードにおける形状測定処理に要する時間とは相関を有する。したがって、ファインモードにおける測定困難領域の推定に要した時間に基づいて、ファインモードにおける形状測定処理を実行する場合に要する測定時間が推定される。 In addition, the time required for estimating the difficult measurement area in the fine mode and the time required for the shape measurement process in the fine mode have a correlation. Therefore, the measurement time required for executing the shape measurement process in the fine mode is estimated based on the time required for estimating the measurement difficult region in the fine mode.
(c)ハレーション除去モードにおける測定困難領域の推定
ハレーション除去モードは、明るい部分と暗い部分との輝度差が大きい測定対象物Sの測定に適する。ハレーション除去モードでは、測定対象物Sにおいて影が発生する第1の測定困難領域、および光の潜り込みまたは多重反射が発生する第2の測定困難領域は現われるが、高い強度の光の反射が発生する第3の測定困難領域は現われないように測定が行われる。
(C) Estimation of measurement difficulty region in halation removal mode The halation removal mode is suitable for measurement of the measuring object S having a large luminance difference between a bright part and a dark part. In the halation removal mode, the first measurement difficulty region in which the shadow is generated in the measurement object S and the second measurement difficulty region in which light stagnation or multiple reflection occurs appear, but high-intensity light reflection occurs. The measurement is performed so that the third measurement difficulty region does not appear.
ハレーション除去モードにおける測定困難領域の推定においては、例えば明部分のみからなる測定光が測定対象物Sに照射される。ここで、受光部120の露光時間が第1の時間に設定された場合において、測定対象物Sにより反射された明部分のみからなる測定光が受光部120により受光される。受光部120により出力される受光信号に基づいて、第1の明画像データが生成される。
In the estimation of the difficult measurement region in the halation removal mode, for example, the measurement object S is irradiated with measurement light including only a bright part. Here, when the exposure time of the
その後、例えば明部分のみからなる測定光が測定対象物Sに照射される。ここで、受光部120の露光時間が第1の時間よりも長い第2の時間に設定された場合において、測定対象物Sにより反射された明部分のみからなる測定光が受光部120により受光される。受光部120により出力される受光信号に基づいて、第2の明画像データが生成される。
Thereafter, for example, the measuring object S is irradiated with measuring light consisting only of a bright part. Here, when the exposure time of the
生成された第1および第2の明画像データが、ダイナミックレンジが拡大されるように合成される。この場合、受光信号の飽和が発生している領域については、第1の明画像データの画素データが選択され、選択された画素データの値に第2の露光時間と第1の露光時間との比が乗算される。受光信号の飽和が発生していない領域については、第2の明画像データの画素データが選択される。乗算により得られた第1の第1の明画像データの画素データと選択された第2の明画像データの画素データとが合成される。これにより、ダイナミックレンジが拡大された画像データ(以下、HDR(ハイダイナミックレンジ)画像データと呼ぶ)が生成される。 The generated first and second bright image data are combined so that the dynamic range is expanded. In this case, for the region where the light reception signal is saturated, the pixel data of the first bright image data is selected, and the value of the selected pixel data includes the second exposure time and the first exposure time. The ratio is multiplied. For the region where the saturation of the light reception signal does not occur, the pixel data of the second bright image data is selected. The pixel data of the first first bright image data obtained by multiplication and the pixel data of the selected second bright image data are synthesized. Thereby, image data with an expanded dynamic range (hereinafter referred to as HDR (high dynamic range) image data) is generated.
また、暗部分のみからなる測定光が測定対象物Sに照射される。すなわち、投光部110から測定対象物Sに測定光は照射されない。この場合、受光部120には自然光のみが入射する。受光部120により出力される受光信号に基づいて、暗画像データが生成される。
Further, the measuring object S is irradiated with measurement light consisting only of a dark part. That is, the measurement light is not irradiated from the
HDR画像データの各画素データの値と暗画像データの対応する画素データの値との差がそれぞれ算出される。算出された差が予め設定された値よりも小さい画素データに対応する測定対象物Sの部分が、第1の測定困難領域であると推定される。また、HDR画像データの画素データのうち、拡大されたダイナミックレンジの上限値に等しい値を有する画素データに対応する測定対象物Sの部分が、第3の測定困難領域であると推定される。 A difference between each pixel data value of the HDR image data and a corresponding pixel data value of the dark image data is calculated. The part of the measuring object S corresponding to the pixel data whose calculated difference is smaller than a preset value is estimated to be the first measurement difficulty region. Moreover, it is estimated that the part of the measuring object S corresponding to the pixel data having a value equal to the upper limit value of the expanded dynamic range among the pixel data of the HDR image data is the third measurement difficulty region.
ハレーション除去モードにおいては、第2の測定困難領域の推定は行われず、上記のファインモードにおいて推定される第2の測定困難領域がハレーション除去モードにおける第2の測定困難領域として採用される。また、ハレーション除去モードにおける測定困難領域の推定に要する時間とハレーション除去モードにおける形状測定処理に要する時間とは相関を有する。したがって、ハレーション除去モードにおける測定困難領域の推定に要した時間に基づいて、ハレーション除去モードにおける形状測定処理を実行する場合に要する測定時間が推定される。 In the halation removal mode, the second measurement difficulty region is not estimated, and the second measurement difficulty region estimated in the fine mode is employed as the second measurement difficulty region in the halation removal mode. In addition, the time required for estimating the measurement difficulty region in the halation removal mode and the time required for the shape measurement process in the halation removal mode have a correlation. Therefore, based on the time required for estimating the measurement difficulty region in the halation removal mode, the measurement time required for executing the shape measurement process in the halation removal mode is estimated.
なお、上記の説明においては、測定光の強度が一定に設定された状態で、受光部120の露光時間が第1の時間に設定されることにより第1の明画像データが生成され、受光部120の露光時間が第2の時間に設定されることにより第2の明画像データが生成されるが、これに限定されない。受光部120の露光時間が一定に設定された状態で、測定光の強度が第1の強度に設定されることにより第1の明画像データが生成され、測定光の強度が第1の強度よりも大きい第2の強度に設定されることにより第2の明画像データが生成されてもよい。以下のスーパーファインモードにおける測定困難領域の推定においても同様である。
In the above description, the first bright image data is generated by setting the exposure time of the
(d)スーパーファインモードにおける測定困難領域の推定
スーパーファインモードによれば、ファインモードの効果とハレーション除去モードの効果とが得られる。スーパーファインモードでは、測定対象物Sにおいて影が発生する第1の測定困難領域は現われるが、光の潜り込みまたは多重反射が発生する第2の測定困難領域および高い強度の光の反射が発生する第3の測定困難領域は現われないように測定が行われる。
(D) Estimation of Difficulty Region in Super Fine Mode According to the super fine mode, the effects of the fine mode and the halation removal mode can be obtained. In the super fine mode, the first measurement difficulty region in which a shadow occurs in the measurement object S appears, but the second measurement difficulty region in which light sneak or multiple reflection occurs and the reflection of high intensity light occur. The measurement is performed so that the
スーパーファインモードにおける測定困難領域の推定においては、受光部120の露光時間が第1の時間に設定される。この状態で、ファインモードにおける測定困難領域の推定と同様に複数種類の測定光が測定対象物Sに順次照射される。これにより、第1の間接光除去画像データが生成される。
In the estimation of the difficult measurement area in the super fine mode, the exposure time of the
また、受光部120の露光時間が第2の時間に設定される。この状態で、ファインモードにおける測定困難領域の推定と同様に複数種類の測定光が測定対象物Sに順次照射される。これにより、第2の間接光除去画像データが生成されるとともに、第2の測定困難領域が推定される。
Further, the exposure time of the
生成された第1および第2の間接光除去画像データが、ハレーション除去モードにおける測定困難領域の推定と同様に、ダイナミックレンジが拡大されるように合成される。これにより、ダイナミックレンジが拡大されかつ間接光の影響が除去された画像データ(以下、HDR間接光除去画像データと呼ぶ)が生成される。 The generated first and second indirect light removal image data are combined so that the dynamic range is expanded, similarly to the estimation of the measurement difficulty region in the halation removal mode. As a result, image data in which the dynamic range is expanded and the influence of indirect light is removed (hereinafter referred to as HDR indirect light removal image data) is generated.
また、暗部分のみからなる測定光が測定対象物Sに照射される。すなわち、投光部110から測定対象物Sに測定光は照射されない。この場合、受光部120には自然光のみが入射する。受光部120により出力される受光信号に基づいて、暗画像データが生成される。
Further, the measuring object S is irradiated with measurement light consisting only of a dark part. That is, the measurement light is not irradiated from the
HDR間接光除去画像データの各画素データの値と暗画像データの各画素データの値との差がそれぞれ算出される。算出された差が予め設定された値よりも小さい画素データに対応する測定対象物Sの部分が、第1の測定困難領域であると推定される。また、HDR間接光除去画像データの画素データのうち、拡大されたダイナミックレンジの上限値に等しい値を有する画素データに対応する測定対象物Sの部分が、第3の測定困難領域であると推定される。 A difference between each pixel data value of the HDR indirect light removal image data and each pixel data value of the dark image data is calculated. The part of the measuring object S corresponding to the pixel data whose calculated difference is smaller than a preset value is estimated to be the first measurement difficulty region. In addition, the portion of the measurement object S corresponding to the pixel data having a value equal to the upper limit value of the expanded dynamic range in the pixel data of the HDR indirect light removal image data is estimated to be the third measurement difficulty region. Is done.
また、スーパーファインモードにおける測定困難領域の推定に要する時間とスーパーファインモードにおける形状測定処理に要する時間とは相関を有する。したがって、スーパーファインモードにおける測定困難領域の推定に要した時間に基づいて、スーパーファインモードにおける形状測定処理を実行する場合に要する測定時間が推定される。 In addition, the time required for estimating the measurement difficulty region in the super fine mode and the time required for the shape measurement process in the super fine mode have a correlation. Therefore, the measurement time required for executing the shape measurement process in the super fine mode is estimated based on the time required for estimating the measurement difficult region in the super fine mode.
上記の説明においては、各測定モードにおける形状測定処理に要する測定時間は、対応する測定モードにおける測定困難領域の推定に要した時間に基づいて推定されるが、これに限定されない。形状測定処理に要する測定時間と測定光の照射回数とは、略線形的に対応する。したがって、各測定モードにおいて測定光の照射回数が予め定められている場合は、測定光の照射回数に基づいて、対応する測定モードにおける形状測定処理に要する測定時間が算出されてもよい。 In the above description, the measurement time required for the shape measurement process in each measurement mode is estimated based on the time required to estimate the measurement difficulty region in the corresponding measurement mode, but is not limited to this. The measurement time required for the shape measurement process and the number of times of measurement light irradiation correspond approximately linearly. Therefore, when the number of times of measurement light irradiation is predetermined in each measurement mode, the measurement time required for the shape measurement process in the corresponding measurement mode may be calculated based on the number of times of measurement light irradiation.
このように、本実施の形態においては、各測定モードでの形状測定処理を実行するために必要な複数のパターンを有する測定光の全てが出射されず、各測定モードにおいて測定困難領域となることになる部分を推定するのに必要な各測定モードに対応した簡易的なパターンを有する測定光が出射される。また、生成された画像データに基づいて測定困難領域が推定され、推定された測定困難領域を認識可能にプレビュー画像が表示部400に表示される。これにより、プレビュー画像の表示に要する時間を大幅に短縮しつつ、各測定モードに対応した測定困難領域を表示することができる。
As described above, in the present embodiment, all of the measurement light having a plurality of patterns necessary for executing the shape measurement process in each measurement mode is not emitted and becomes a measurement difficult region in each measurement mode. Measurement light having a simple pattern corresponding to each measurement mode necessary for estimating the portion to be is emitted. Further, a measurement difficulty region is estimated based on the generated image data, and a preview image is displayed on the
(3)測定モードの選択
図35は、表示部400に表示される複数の測定モードにおける図34の測定対象物Sのプレビュー画像の一例を示す図である。測定条件として測定モードが設定されている場合、図35に示すように、4つの画像表示領域450a,450b,450c,450dおよび測定条件表示領域460が表示部400に表示される。画像表示領域450a〜450dは、略等しいサイズでかつ2行2列で並ぶように配置される。
(3) Selection of Measurement Mode FIG. 35 is a diagram illustrating an example of a preview image of the measurement object S of FIG. 34 in a plurality of measurement modes displayed on the
画像表示領域450aには、スタンダードモードにおいて推定される測定困難領域を識別可能に、第1のプレビュー画像データに基づく第1のプレビュー画像が表示される。図35のスタンダードモードの例においては、2つの角柱状部材Sx間の部分が、第1の測定困難領域であると推定される。第1の測定困難領域であると推定された2つの角柱状部材Sx間の部分は、ハッチングパターンにより強調表示される。
In the
また、板状部材Sy上の部分が、第2の測定困難領域であると推定とされる。第2の測定困難領域であると推定された板状部材Sy上の部分は、第1のドットパターンにより強調表示される。さらに、板状部材Sz上の部分が、第3の測定困難領域であると推定される。第3の測定困難領域であると推定された板状部材Sz上の部分は、第2のドットパターンにより強調表示される。 Moreover, it is estimated that the part on plate-shaped member Sy is a 2nd measurement difficult area | region. The portion on the plate-like member Sy that is estimated to be the second measurement difficulty region is highlighted by the first dot pattern. Furthermore, the part on the plate-like member Sz is estimated to be the third measurement difficulty region. The portion on the plate-like member Sz estimated to be the third measurement difficulty region is highlighted with the second dot pattern.
画像表示領域450bには、ファインモードにおいて推定される測定困難領域を識別可能に、第2のプレビュー画像データに基づく第2のプレビュー画像が表示される。図35のファインモードの例においては、2つの角柱状部材Sx間の部分が、第1の測定困難領域であると推定される。第1の測定困難領域であると推定された2つの角柱状部材Sx間の部分は、ハッチングパターンにより強調表示される。
In the
また、板状部材Sz上の部分が、第3の測定困難領域であると推定される。第3の測定困難領域であると推定された板状部材Sz上の部分は、第2のドットパターンにより強調表示される。なお、ファインモードにおいては、第2の測定困難領域が現われないように測定が行われる。したがって、画像表示領域450bには、第2の測定困難領域は表示されない。
Moreover, it is estimated that the part on the plate-shaped member Sz is a 3rd measurement difficult area | region. The portion on the plate-like member Sz estimated to be the third measurement difficulty region is highlighted with the second dot pattern. In the fine mode, measurement is performed so that the second measurement difficult region does not appear. Therefore, the second measurement difficulty region is not displayed in the
画像表示領域450cには、ハレーション除去モードにおいて推定される測定困難領域を識別可能に、第3のプレビュー画像データに基づく第3のプレビュー画像が表示される。図35のハレーション除去モードの例においては、2つの角柱状部材Sx間の部分が、第1の測定困難領域であると推定される。第1の測定困難領域であると推定された2つの角柱状部材Sx間の部分は、ハッチングパターンにより強調表示される。
In the
また、板状部材Sy上の部分が、第2の測定困難領域である推定とされる。第2の測定困難領域である推定とされた板状部材Sy上の部分は、第1のドットパターンにより強調表示される。なお、ハレーション除去モードにおいては、第3の測定困難領域が現われないように測定が行われる。したがって、画像表示領域450cには、第3の測定困難領域は表示されない。
Moreover, it is estimated that the part on plate-shaped member Sy is a 2nd measurement difficult area | region. The portion on the plate-like member Sy that is estimated to be the second measurement difficult region is highlighted by the first dot pattern. In the halation removal mode, measurement is performed so that the third measurement difficulty region does not appear. Therefore, the third measurement difficulty region is not displayed in the
画像表示領域450dには、スーパーファインモードにおいて推定される測定困難領域を識別可能に、第4のプレビュー画像データに基づく第4のプレビュー画像が表示される。図35のスーパーファインモードの例においては、2つの角柱状部材Sx間の部分が、第1の測定困難領域であると推定される。第1の測定困難領域であると推定された2つの角柱状部材Sx間の部分は、ハッチングパターンにより強調表示される。なお、スーパーファインモードにおいては、第2および第3の測定困難領域は現われないように測定が行われる。したがって、画像表示領域450dには、第2および第3の測定困難領域は表示されない。
In the
このように、画像表示領域450a〜450dには、それぞれスタンダードモード、ファインモード、ハレーション除去モードおよびスーパーファインモードにおけるプレビュー画像が表示される。複数の測定モードにおけるプレビュー画像データの生成においては、複数のプレビュー画像の明るさが互いに略等しくなるように測定光の強度(明るさ)が自動的に調整される。
In this way, preview images in the standard mode, fine mode, halation removal mode, and super fine mode are displayed in the
本例においては、プレビュー画像データは、投光部110から均一な光量分布(均一パターン)を有する測定光が照射された状態で生成された画像データであるが、これに限定されない。プレビュー画像データは、照明光出力部130から照明光が照射された状態で生成された画像データであってもよい。この場合でも使用者は、複数のプレビュー画像を見て各測定条件において測定困難領域がどのように変化するのかを認識することができるので、最適な測定条件を容易に選択することができる。
In this example, the preview image data is image data generated in a state where measurement light having a uniform light amount distribution (uniform pattern) is irradiated from the
測定条件表示領域460には、複数のチェックボックス461a,461b,461c,461dおよび測定時間表示欄462a,462b,462c,462dが表示される。また、測定条件表示領域460には、複数のチェックボックス463a,463b,463cおよび測定時間表示欄464が表示される。さらに、測定条件表示領域460には、更新ボタン466およびOKボタン467が表示される。
In the measurement
チェックボックス461a〜461dのいずれかが指定されることにより、測定モードが選択される。また、チェックボックス463a〜463cのいずれかが指定されることにより、測定光の照射方向が選択される。指定されたチェックボックス461a〜461dに対応するプレビュー画像は、識別可能に表示される。
The measurement mode is selected by designating any of the
図35の例では、チェックボックス461dおよびチェックボックス463cが指定されている。したがって、画像表示領域450dに表示されたスーパーファインモードに対応するプレビュー画像が、太線で囲まれることにより識別可能に表示される。チェックボックス461a〜461dのいずれかが指定されかつチェックボックス463a〜463cのいずれかが指定された状態でOKボタン467が操作されることにより、形状測定処理における測定条件が決定される。
In the example of FIG. 35, a
チェックボックス461aが指定された場合、スタンダードモードが選択される。測定時間表示欄462aには、スタンダードモードで形状測定処理を実行する場合において推定される測定時間が表示される。図35の例においては、スタンダードモードで形状測定処理を実行する場合、測定時間が5秒であると推定される。
When the
チェックボックス461bが指定された場合、ファインモードが選択される。測定時間表示欄462bには、ファインモードで形状測定処理を実行する場合において推定される測定時間が表示される。図35の例においては、ファインモードで形状測定処理を実行する場合、測定時間が15秒であると推定される。
When the
チェックボックス461cが指定された場合、ハレーション除去モードが選択される。測定時間表示欄462cには、ハレーション除去モードで形状測定処理を実行する場合において推定される測定時間が表示される。図35の例においては、ハレーション除去モードで形状測定処理を実行する場合、測定時間が20秒であると推定される。
When the check box 461c is designated, the halation removal mode is selected. The measurement
チェックボックス461dが指定された場合、スーパーファインモードが選択される。測定時間表示欄462dには、スーパーファインモードで形状測定処理を実行する場合において推定される測定時間が表示される。図35の例においては、スーパーファインモードで形状測定処理を実行する場合、測定時間が60秒であると推定される。
When the
チェックボックス463aが指定された場合、一方の投光部110Aから測定対象物Sに測定光が照射される。チェックボックス463bが指定された場合、他方の投光部110Bから測定対象物Sに測定光が照射される。チェックボックス463cが指定された場合、両方の投光部110A,110Bから測定対象物Sに測定光が順次照射される。
When the
測定時間表示欄464には、選択した測定光の照射方向で形状測定処理を実行する場合において推定される測定時間が表示される。また、チェックボックス463a,463bが指定されている場合、測定時間は各測定モードの測定時間と等しい。そのため、測定時間表示欄464には、“測定時間×1”と表示される。一方、チェックボックス463cが指定されている場合、測定時間は各測定モードの測定時間の2倍になる。そのため、測定時間表示欄464には、“測定時間×2”と表示される。本例においては、チェックボックス463cが指定されているので、測定時間表示欄464に表示される時間は、スーパーファインモードにおける形状測定処理の測定時間の2倍の120秒である。
The measurement
測定対象物Sの姿勢が変更された場合には、使用者により更新ボタン466が操作される。これにより、変更された姿勢において測定対象物Sのプレビュー画像データが更新されるとともに、推定される測定困難領域が更新される。なお、プレビュー画像データのデータ量が小さい場合には、プレビュー画像データおよび推定される測定困難領域が一定時間ごとに更新されることにより、画像表示領域450a〜450dにプレビュー画像がライブ画像として表示されてもよい。この構成によれば、測定対象物Sの姿勢が変更された場合でも、使用者は更新ボタン466を操作しなくてもよい。
When the posture of the measuring object S is changed, the
測定光の照射方向が変更された場合には、使用者により更新ボタン466が操作される。これにより、変更された測定光の照射方向においてプレビュー画像データが更新されるとともに、推定される測定困難領域が更新される。なお、測定光の照射方向等の測定条件が変更された場合には、プレビュー画像データおよび推定される測定困難領域が自動的に更新されもよい。この構成によれば、測定光の照射方向が変更された場合でも、使用者は更新ボタン466を操作しなくてもよい。
When the irradiation direction of the measurement light is changed, the
図36は、表示部400に表示される複数の測定モードにおける図34の測定対象物Sのプレビュー画像の他の例を示す図である。図36の表示部400について、図35の表示部400と異なる点を説明する。本例においては、チェックボックス461a〜461dと画像表示領域450a〜450dとがそれぞれ対応している。図36に示すように、チェックボックス461a〜461dのうち指定されたチェックボックスに対応する一の画像表示領域が、拡大された状態で配置される。また、他の画像表示領域は、一の画像表示領域の下方に縮小された状態で並ぶように配置される。
FIG. 36 is a diagram showing another example of the preview image of the measurement object S of FIG. 34 in the plurality of measurement modes displayed on the
図36の例では、チェックボックス461aおよびチェックボックス463cが指定されている。したがって、画像表示領域450aが拡大された状態で配置される。これにより、画像表示領域450aには、スタンダードモードにおけるプレビュー画像が拡大された状態で表示される。なお、この場合、測定時間表示欄464に表示される時間は、スタンダードモードにおける形状測定処理の測定時間の2倍の10秒である。
In the example of FIG. 36, a
一方、画像表示領域450b〜450dは、画像表示領域450aの下方に縮小された状態で並ぶように配置される。これにより、画像表示領域450b〜450dには、それぞれファインモード、ハレーション除去モードおよびスーパーファインモードにおけるプレビュー画像が縮小された状態で表示される。
On the other hand, the
このように、使用者は、形状測定処理の前に、異なる複数の測定モードで実行される形状測定処理において生じる測定対象物Sの測定困難領域を認識することができる。これにより、測定対象物Sの形状測定処理の前に、複数の測定モードのうち形状測定に適した測定モードを容易に適切に選択することができる。 In this way, the user can recognize the measurement difficulty region of the measurement object S that occurs in the shape measurement process executed in a plurality of different measurement modes before the shape measurement process. Thereby, before the shape measurement process of the measuring object S, a measurement mode suitable for shape measurement can be easily and appropriately selected from among a plurality of measurement modes.
(4)各測定モードにおける形状測定処理
(a)スタンダードモードにおける形状測定処理
測定モードとしてスタンダードモードが選択された場合、形状測定処理においてスタンダードモードにおける測定対象物Sの形状測定が行われる。スタンダードモードにおける形状測定処理においては、例えば縞状測定光およびコード状測定光が測定対象物Sに順次照射され、測定対象物Sにより反射された縞状測定光およびコード状測定光が受光部120により順次受光される。縞状測定光の照射時に受光部120により出力される受光信号およびコード状測定光の照射時に受光部120により出力される受光信号に基づいて、スタンダードモードにおける主立体形状データが生成される。
(4) Shape measurement process in each measurement mode (a) Shape measurement process in standard mode When the standard mode is selected as the measurement mode, the shape measurement of the measuring object S in the standard mode is performed in the shape measurement process. In the shape measurement processing in the standard mode, for example, the striped measurement light and the code measurement light are sequentially irradiated onto the measurement object S, and the stripe measurement light and the code measurement light reflected by the measurement object S are received by the
(b)ファインモードにおける形状測定処理
測定モードとしてファインモードが選択された場合、形状測定処理においてファインモードにおける測定対象物Sの形状測定が行われる。ファインモードにおける形状測定処理においては、例えば縞状測定光を複数の異なる形状に変形することにより得られる複数種類の縞状測定光およびコード状測定光を複数の異なる形状に変形することにより得られる複数種類のコード状測定光が用いられる。
(B) Shape measurement process in fine mode When the fine mode is selected as the measurement mode, the shape measurement of the measuring object S in the fine mode is performed in the shape measurement process. In the shape measurement process in the fine mode, for example, it is obtained by deforming a plurality of types of striped measurement light and code-shaped measurement light obtained by transforming the striped measurement light into a plurality of different shapes. A plurality of types of cord-shaped measuring light are used.
一の種類の縞状測定光および一の種類のコード状測定光が測定対象物Sに順次照射され、測定対象物Sにより反射された一の種類の縞状測定光および一の種類のコード状測定光が受光部120により順次受光される。受光部120により出力される受光信号に基づいて、一の主立体形状データが生成される。他の種類の縞状測定光および他の種類のコード状測定光を用いて同様の処理が繰り返される。それにより、複数の主立体形状データが生成される。生成された複数の主立体形状データに基づいて、ファインモードにおける間接光の影響が除去された主立体形状データ(以下、間接光除去立体形状データと呼ぶ)が生成される。
One kind of striped measurement light and one kind of code-like measurement light are sequentially irradiated onto the measuring object S, and one kind of striped measurement light and one kind of code-like light reflected by the measurement object S are reflected. Measurement light is sequentially received by the
(c)ハレーション除去モードにおける形状測定処理
測定モードとしてハレーション除去モードが選択された場合、形状測定処理においてハレーション除去モードにおける測定対象物Sの形状測定が行われる。ハレーション除去モードにおける形状測定処理においては、受光部120の露光時間が所定の時間に設定される。この状態で、例えば縞状測定光およびコード状測定光が測定対象物Sに順次照射され、測定対象物Sにより反射された縞状測定光およびコード状測定光が受光部120により順次受光される。縞状測定光の照射時に受光部120により出力される受光信号およびコード状測定光の照射時に受光部120により出力される受光信号に基づいて、一の主立体形状データが生成される。
(C) Shape measurement process in halation removal mode When the halation removal mode is selected as the measurement mode, the shape measurement of the measurement object S in the halation removal mode is performed in the shape measurement process. In the shape measurement process in the halation removal mode, the exposure time of the
受光部120の露光時間が変更され、同様の処理が繰り返される。それにより、複数の主立体形状データが生成される。生成された複数の主立体形状データが、ダイナミックレンジが拡大されるように合成される。これにより、ハレーション除去モードにおけるダイナミックレンジが拡大された主立体形状データ(以下、HDR立体形状データと呼ぶ)が生成される。
The exposure time of the
なお、上記の説明においては、測定光の強度が一定に設定された状態で、受光部120の露光時間が変更されることにより複数の主立体形状データが生成されるが、これに限定されない。受光部120の露光時間が一定に設定された状態で、測定光の強度が変更されることにより複数の主立体形状データが生成されてもよい。以下のスーパーファインモードにおける形状測定処理においても同様である。
In the above description, a plurality of main stereoscopic shape data is generated by changing the exposure time of the
(d)スーパーファインモードにおける形状測定処理
測定モードとしてスーパーファインモードが選択された場合、形状測定処理においてスーパーファインモードにおける測定対象物Sの形状測定が行われる。スーパーファインモードにおける形状測定処理においては、受光部120の露光時間が所定の時間に設定される。この状態で、ファインモードにおける形状測定処理と同様に、例えば複数種類の縞状測定光および複数種類のコード状測定光を用いて一の間接光除去立体形状データが生成される。
(D) Shape measurement process in super fine mode When the super fine mode is selected as the measurement mode, the shape measurement of the measuring object S in the super fine mode is performed in the shape measurement process. In the shape measurement process in the super fine mode, the exposure time of the
受光部120の露光時間が変更され、同様の処理が繰り返される。それにより、複数の間接光除去立体形状データが生成される。生成された複数の間接光除去立体形状データが、ハレーション除去モードにおける形状測定処理と同様に、ダイナミックレンジが拡大されるように合成される。これにより、スーパーファインモードにおけるダイナミックレンジが拡大されかつ間接光の影響が除去された主立体形状データが生成される。
The exposure time of the
(5)測定対象物の姿勢および位置
図37は、表示部400に表示される複数の姿勢における図34の測定対象物Sのプレビュー画像の一例を示す図である。測定条件として測定対象物Sの姿勢が設定されている場合、図37に示すように、4つの画像表示領域450a〜450dおよび測定条件表示領域460が表示部400に表示される。図37の表示部400について、図35の表示部400と異なる点を説明する。以下の説明においては、スタンダードモードにおける測定困難領域の推定が行われる。
(5) Posture and Position of Measurement Object FIG. 37 is a diagram illustrating an example of a preview image of the measurement object S of FIG. 34 in a plurality of postures displayed on the
画像表示領域450aには、第1の姿勢において推定される測定困難領域を識別可能に、第1のプレビュー画像データに基づく第1のプレビュー画像が表示される。第1の姿勢は、θステージ143の回転角度が例えば初期値(本例においては0度)である場合の測定対象物Sの姿勢である。
In the
図37の第1の姿勢の例においては、2つの角柱状部材Sx間の部分が、第1の測定困難領域であると推定される。第1の測定困難領域であると推定された2つの角柱状部材Sx間の部分は、ハッチングパターンにより強調表示される。 In the example of the 1st attitude | position of FIG. 37, it is estimated that the part between two prismatic members Sx is a 1st measurement difficult area | region. A portion between the two prismatic members Sx estimated to be the first measurement difficulty region is highlighted by a hatching pattern.
また、板状部材Sy上の部分が、第2の測定困難領域であると推定とされる。第2の測定困難領域であると推定された板状部材Sy上の部分は、第1のドットパターンにより強調表示される。さらに、板状部材Sz上の部分が、第3の測定困難領域であると推定される。第3の測定困難領域であると推定された板状部材Sz上の部分は、第2のドットパターンにより強調表示される。 Moreover, it is estimated that the part on plate-shaped member Sy is a 2nd measurement difficult area | region. The portion on the plate-like member Sy that is estimated to be the second measurement difficulty region is highlighted by the first dot pattern. Furthermore, the part on the plate-like member Sz is estimated to be the third measurement difficulty region. The portion on the plate-like member Sz estimated to be the third measurement difficulty region is highlighted with the second dot pattern.
画像表示領域450bには、第2の姿勢において推定される測定困難領域を識別可能に、第2のプレビュー画像データに基づく第2のプレビュー画像が表示される。第2の姿勢は、θステージ143の回転角度が例えば20度である場合の測定対象物Sの姿勢である。
In the
図37の第2の姿勢の例においては、2つの角柱状部材Sx間の部分が、第1の測定困難領域であると推定される。ここで、第1の測定困難領域は、第1の姿勢における第1の測定困難領域よりも小さい。第1の測定困難領域であると推定された2つの角柱状部材Sx間の部分は、ハッチングパターンにより強調表示される。 In the example of the 2nd attitude | position of FIG. 37, it is estimated that the part between two prismatic members Sx is a 1st measurement difficult area | region. Here, the first measurement difficulty region is smaller than the first measurement difficulty region in the first posture. A portion between the two prismatic members Sx estimated to be the first measurement difficulty region is highlighted by a hatching pattern.
また、第1の姿勢の例と同様に、第2の測定困難領域であると推定された板状部材Sy上の部分は、第1のドットパターンにより強調表示される。第3の測定困難領域であると推定された板状部材Sz上の部分は、第2のドットパターンにより強調表示される。 Similarly to the first posture example, the portion on the plate-like member Sy that is estimated to be the second measurement difficulty region is highlighted by the first dot pattern. The portion on the plate-like member Sz estimated to be the third measurement difficulty region is highlighted with the second dot pattern.
画像表示領域450cには、第3の姿勢において推定される測定困難領域を識別可能に、第3のプレビュー画像データに基づく第3のプレビュー画像が表示される。第3の姿勢は、θステージ143の回転角度が例えば50度である場合の測定対象物Sの姿勢である。
In the
図37の第3の姿勢の例においては、2つの角柱状部材Sx間の部分が、第1の測定困難領域であると推定される。ここで、第1の測定困難領域は、第2の姿勢における第1の測定困難領域よりも小さい。第1の測定困難領域であると推定された2つの角柱状部材Sx間の部分は、ハッチングパターンにより強調表示される。 In the example of the third posture in FIG. 37, the portion between the two prismatic members Sx is estimated to be the first measurement difficulty region. Here, the first measurement difficulty region is smaller than the first measurement difficulty region in the second posture. A portion between the two prismatic members Sx estimated to be the first measurement difficulty region is highlighted by a hatching pattern.
また、第1の姿勢の例と同様に、第2の測定困難領域であると推定された板状部材Sy上の部分は、第1のドットパターンにより強調表示される。第3の測定困難領域であると推定された板状部材Sz上の部分は、第2のドットパターンにより強調表示される。 Similarly to the first posture example, the portion on the plate-like member Sy that is estimated to be the second measurement difficulty region is highlighted by the first dot pattern. The portion on the plate-like member Sz estimated to be the third measurement difficulty region is highlighted with the second dot pattern.
画像表示領域450dには、第4の姿勢において推定される測定困難領域を識別可能に、第4のプレビュー画像データに基づく第4のプレビュー画像が表示される。第1の姿勢は、θステージ143の回転角度が例えば90度である場合の測定対象物Sの姿勢である。
In the
図37の第4の姿勢の例においては、2つの角柱状部材Sxが並ぶ方向に直交する両側の方向から測定光が照射される。そのため、第1の測定困難領域は現われない。また、第1の姿勢と同様に、第2の測定困難領域であると推定された板状部材Sy上の部分は、第1のドットパターンにより強調表示される。第3の測定困難領域であると推定された板状部材Sz上の部分は、第2のドットパターンにより強調表示される。 In the example of the 4th attitude | position of FIG. 37, measurement light is irradiated from the direction of the both sides orthogonal to the direction where two prismatic members Sx are located in a line. Therefore, the first measurement difficult region does not appear. Similarly to the first posture, the portion on the plate-like member Sy that is estimated to be the second measurement difficulty region is highlighted by the first dot pattern. The portion on the plate-like member Sz estimated to be the third measurement difficulty region is highlighted with the second dot pattern.
このように、画像表示領域450a〜450dには、それぞれ第1〜第4の姿勢におけるプレビュー画像が表示される。複数の姿勢におけるプレビュー画像データの生成においては、複数のプレビュー画像の明るさが互いに略等しくなるように測定光の明るさが自動的に調整される。
Thus, preview images in the first to fourth postures are displayed in the
図37の測定条件表示領域460には、図35のチェックボックス461a〜461dに代えて、複数のチェックボックス465a,465b,465c,465dが表示される。本例においては、第1〜第4の姿勢で形状測定処理を実行する場合において推定される測定時間は互いに等しいので、測定条件表示領域460に測定時間表示欄が表示されないが、これに限定されない。第1〜第4の姿勢で形状測定処理を実行する場合において推定される測定時間を表示する測定時間表示欄が測定条件表示領域460に表示されてもよい。
In the measurement
チェックボックス465a〜465dが指定された場合、第1〜第4の姿勢がそれぞれ選択される。また、チェックボックス463a〜463cのいずれかが指定されることにより、測定光の照射方向が選択される。指定されたチェックボックス465a〜465dに対応するプレビュー画像は、識別可能に表示される。
When the
なお、図37の例では、チェックボックス465dおよびチェックボックス463cが指定されている。したがって、画像表示領域450dに表示された第4の姿勢に対応するプレビュー画像が、太線で囲まれることにより識別可能に表示される。チェックボックス465a〜465dのいずれかが指定されかつチェックボックス463a〜463cのいずれかが指定された状態でOKボタン467が操作されることにより、形状測定処理における測定条件が決定される。
In the example of FIG. 37, a
測定条件として、第1〜第4の姿勢のいずれかが選択された場合、形状測定処理において選択された姿勢における測定対象物Sの形状測定が行われる。第1〜第4の姿勢における形状測定処理においては、θステージ143の回転角度が例えば0度、20度、50度および90度にそれぞれ設定される。 When any one of the first to fourth postures is selected as the measurement condition, the shape measurement of the measurement object S in the posture selected in the shape measurement process is performed. In the shape measurement processing in the first to fourth postures, the rotation angle of the θ stage 143 is set to 0 degrees, 20 degrees, 50 degrees, and 90 degrees, for example.
この状態で、θステージ143の回転角度が第1〜第4の姿勢のうち選択された姿勢に対応する角度に設定された状態で、例えば縞状測定光およびコード状測定光が測定対象物Sに順次照射される。縞状測定光およびコード状測定光の照射時に受光部120により出力される受光信号に基づいて、選択された姿勢における主立体形状データが生成される。
In this state, in a state where the rotation angle of the θ stage 143 is set to an angle corresponding to the posture selected from the first to fourth postures, for example, the striped measurement light and the code measurement light are measured on the measurement object S. Are sequentially irradiated. Main three-dimensional shape data in the selected posture is generated based on the light reception signal output by the
図37の例においては、測定条件として測定対象物Sの姿勢(θ方向の回転角度)が設定されるが、これに限定されない。測定条件として測定対象物Sの姿勢に代えて測定対象物Sの位置が設定されてもよい。この場合、第1〜第4の位置における測定対象物Sのプレビュー画像データが生成される。また、生成されたプレビュー画像データに基づいて、第1〜第4の位置における測定対象物Sのプレビュー画像が、推定された測定困難領域を識別可能にそれぞれ画像表示領域450a〜450dに表示される。
In the example of FIG. 37, the posture of the measurement object S (the rotation angle in the θ direction) is set as the measurement condition, but the measurement condition is not limited to this. As a measurement condition, the position of the measurement object S may be set instead of the posture of the measurement object S. In this case, preview image data of the measuring object S at the first to fourth positions is generated. Further, based on the generated preview image data, preview images of the measurement object S at the first to fourth positions are displayed in the
また、測定対象物Sの姿勢はθ方向の回転角度ではなくチルトステージ144のあおり方向の回転角度であってもよい。
Further, the posture of the measuring object S may be not the rotation angle in the θ direction but the rotation angle in the tilt direction of the
このように、使用者は、形状測定処理の前に、測定対象物Sの異なる複数の姿勢または位置で実行される形状測定処理において生じる測定対象物Sの測定困難領域を認識することができる。これにより、測定対象物Sの形状測定処理の前に、測定対象物Sの異なる複数の姿勢または位置のうち形状測定に適した測定対象物Sの異なる複数の姿勢または位置を容易に適切に選択することができる。 Thus, the user can recognize the measurement difficulty region of the measurement object S generated in the shape measurement process executed in a plurality of postures or positions of the measurement object S before the shape measurement process. Thereby, before the shape measurement process of the measuring object S, a plurality of different postures or positions of the measuring object S suitable for shape measurement among a plurality of different postures or positions of the measuring object S can be easily and appropriately selected. can do.
(6)測定光の照射方向
図38は、表示部400に表示される測定光の複数の照射方向における図34の測定対象物Sのプレビュー画像の一例を示す図である。測定条件として測定光の照射方向が設定されている場合、図38に示すように、3つの画像表示領域450a〜450cおよび測定条件表示領域460が表示部400に表示される。図38の表示部400について、図35の表示部400と異なる点を説明する。以下の説明においては、スタンダードモードにおける測定困難領域の推定が行われる。
(6) Irradiation direction of measurement light FIG. 38 is a diagram illustrating an example of a preview image of the measurement object S of FIG. 34 in a plurality of irradiation directions of measurement light displayed on the
画像表示領域450aには、第1の照射方向において推定される測定困難領域を識別可能に、第1のプレビュー画像データに基づく第1のプレビュー画像が表示される。第1の照射方向は、両方の投光部110A,110Bから測定対象物Sに測定光が順次照射される方向である。
In the
図38の第1の照射方向の例においては、2つの角柱状部材Sx間の部分が、第1の測定困難領域であると推定される。第1の測定困難領域であると推定された2つの角柱状部材Sx間の部分は、ハッチングパターンにより強調表示される。また、板状部材Sy上の部分が、第2の測定困難領域であると推定とされる。第2の測定困難領域であると推定された板状部材Sy上の部分は、第1のドットパターンにより強調表示される。さらに、板状部材Sz上の部分が、第3の測定困難領域であると推定される。第3の測定困難領域であると推定された板状部材Sz上の部分は、第2のドットパターンにより強調表示される。 In the example of the first irradiation direction in FIG. 38, the portion between the two prismatic members Sx is estimated to be the first measurement difficulty region. A portion between the two prismatic members Sx estimated to be the first measurement difficulty region is highlighted by a hatching pattern. Moreover, it is estimated that the part on plate-shaped member Sy is a 2nd measurement difficult area | region. The portion on the plate-like member Sy that is estimated to be the second measurement difficulty region is highlighted by the first dot pattern. Furthermore, the part on the plate-like member Sz is estimated to be the third measurement difficulty region. The portion on the plate-like member Sz estimated to be the third measurement difficulty region is highlighted with the second dot pattern.
画像表示領域450bには、第2の照射方向において推定される測定困難領域を識別可能に、第2のプレビュー画像データに基づく第2のプレビュー画像が表示される。第2の照射方向は、一方の投光部110Aから測定対象物Sに測定光が照射される方向である。
In the
図38の第2の照射方向の例においては、2つの角柱状部材Sx間の部分ならびに2つの角柱状部材Sxおよび板状部材Syの一方の側方(右側方)の部分が、第1の測定困難領域であると推定される。第1の測定困難領域であると推定された2つの角柱状部材Sx間の部分ならびに2つの角柱状部材Sxおよび板状部材Syの右側方の部分は、ハッチングパターンにより強調表示される。また、第1の方向の例と同様に、第2の測定困難領域であると推定された板状部材Sy上の部分は、第1のドットパターンにより強調表示される。第3の測定困難領域であると推定された板状部材Sz上の部分は、第2のドットパターンにより強調表示される。 In the example of the second irradiation direction in FIG. 38, the portion between the two prismatic members Sx and the one side (right side) portion of the two prismatic members Sx and the plate-like member Sy are the first Estimated to be a difficult measurement area. A portion between the two prismatic members Sx estimated to be the first measurement difficulty region and a right portion of the two prismatic members Sx and the plate-like member Sy are highlighted by a hatching pattern. Similarly to the example of the first direction, the portion on the plate-like member Sy estimated to be the second measurement difficult region is highlighted by the first dot pattern. The portion on the plate-like member Sz estimated to be the third measurement difficulty region is highlighted with the second dot pattern.
画像表示領域450cには、第3の照射方向において推定される測定困難領域を識別可能に、第3のプレビュー画像データに基づく第3のプレビュー画像が表示される。第3の照射方向は、他方の投光部110Bから測定対象物Sに測定光が照射される方向である。
In the
図38の第3の照射方向の例においては、2つの角柱状部材Sx間の部分ならびに2つの角柱状部材Sxおよび板状部材Syの他方の側方(左側方)の部分が、第1の測定困難領域であると推定される。第1の測定困難領域であると推定された2つの角柱状部材Sx間の部分ならびに2つの角柱状部材Sxおよび板状部材Syの左側方の部分は、ハッチングパターンにより強調表示される。また、第1の方向の例と同様に、第2の測定困難領域であると推定された板状部材Sy上の部分は、第1のドットパターンにより強調表示される。第3の測定困難領域であると推定された板状部材Sz上の部分は、第2のドットパターンにより強調表示される。 In the example of the third irradiation direction in FIG. 38, the portion between the two prismatic members Sx and the other side (left side) portion of the two prismatic members Sx and the plate-like member Sy are the first Estimated to be a difficult measurement area. A portion between the two prismatic members Sx estimated to be the first measurement difficulty region and a left portion of the two prismatic members Sx and the plate-like member Sy are highlighted by a hatching pattern. Similarly to the example of the first direction, the portion on the plate-like member Sy estimated to be the second measurement difficult region is highlighted by the first dot pattern. The portion on the plate-like member Sz estimated to be the third measurement difficulty region is highlighted with the second dot pattern.
このように、画像表示領域450a〜450cには、それぞれ第1〜第3の照射方向におけるプレビュー画像が表示される。複数の照射方向におけるプレビュー画像データの生成においては、複数のプレビュー画像の明るさが互いに略等しくなるように測定光の明るさが自動的に調整される。
Thus, preview images in the first to third irradiation directions are displayed in the
測定条件表示領域460には、チェックボックス463a〜463c、更新ボタン466およびOKボタン467が表示される。チェックボックス463c,463a,463bが指定された場合、それぞれ第1〜第3の照射方向が選択される。指定されたチェックボックス463a〜463cに対応するプレビュー画像は、識別可能に表示される。
In the measurement
なお、図38の例では、チェックボックス463cが指定されている。したがって、画像表示領域450aに表示された第1の照射方向に対応するプレビュー画像が、太線で囲まれることにより識別可能に表示される。チェックボックス463a〜463cのいずれかが指定された状態でOKボタン467が操作されることにより、形状測定処理における測定条件が決定される。
In the example of FIG. 38, the
測定条件として、第1〜第3の照射方向のいずれかが選択された場合、形状測定処理において選択された照射方向における測定対象物Sの形状測定が行われる。第1の照射方向における形状測定処理においては、例えば縞状測定光およびコード状測定光が投光部110Aから測定対象物Sに順次照射され、縞状測定光およびコード状測定光が投光部110Bから測定対象物Sに順次照射される。投光部110Aからの縞状光の照射時、投光部110Aからのコード状光の照射時、投光部110Bからの縞状光の照射時および投光部110Bからのコード状光の照射時に受光部120により出力される受光信号に基づいて、第1の照射方向における主立体形状データが生成される。
When any one of the first to third irradiation directions is selected as the measurement condition, the shape measurement of the measurement object S in the irradiation direction selected in the shape measurement process is performed. In the shape measurement process in the first irradiation direction, for example, the stripe-shaped measurement light and the code-shaped measurement light are sequentially irradiated from the
第2の照射方向における形状測定処理においては、例えば縞状測定光およびコード状測定光が一方の投光部110Aから測定対象物Sに順次照射される。投光部110Aからの縞状光の照射時およびコード状光の照射時に受光部120により出力される受光信号に基づいて、第2の照射方向における主立体形状データが生成される。
In the shape measurement process in the second irradiation direction, for example, the stripe-shaped measurement light and the code-shaped measurement light are sequentially irradiated onto the measurement object S from one
第3の照射方向における形状測定処理においては、例えば縞状測定光およびコード状測定光が他方の投光部110Bから測定対象物Sに順次照射される。投光部110Bからの縞状光の照射時およびコード状光の照射時に受光部120により出力される受光信号に基づいて、第3の照射方向における主立体形状データが生成される。
In the shape measurement process in the third irradiation direction, for example, the striped measurement light and the code-shaped measurement light are sequentially irradiated onto the measurement object S from the other
このように、使用者は、形状測定処理の前に、光の異なる複数の照射方向で実行される形状測定処理において生じる測定対象物Sの測定困難領域を認識することができる。これにより、測定対象物Sの形状測定処理の前に、光の異なる複数の照射方向のうち形状測定に適した光の照射方向を容易に適切に選択することができる。 In this way, the user can recognize the measurement difficulty region of the measuring object S generated in the shape measurement process executed in a plurality of irradiation directions with different light before the shape measurement process. Thereby, before the shape measurement process of the measuring object S, the irradiation direction of light suitable for shape measurement can be easily selected appropriately from a plurality of irradiation directions with different light.
また、測定モード、測定対象物Sの姿勢および位置ならびに測定光の照射方向を組み合わせることにより、より複雑な複数の測定条件に対応する測定困難領域を識別可能にプレビュー画像を表示部400に表示させることができる。この場合、使用者は、より複雑な測定条件に対応する複数の測定条件から適切な測定条件を選択することができる。
In addition, by combining the measurement mode, the posture and position of the measurement object S, and the irradiation direction of the measurement light, a preview image is displayed on the
例えば、一方の投光部110Aから測定対象物Sに測定光を照射することにより、4つの測定モードに対応する4つの測定困難領域が推定されるとともに、4つのプレビュー画像データが生成される。同様に、他方の投光部110Bから測定対象物Sに測定光を照射することにより、4つの測定モードに対応する4つの測定困難領域が推定されるとともに、4つのプレビュー画像データが生成される。生成されたプレビュー画像データに基づいて、測定困難領域を識別可能に合計8つのプレビュー画像を表示部400に一覧表示することが可能である。この場合、プレビュー画像の表示に時間を要するものの、使用者は、複数の測定条件を一括で指定できるため、容易に最適な測定条件を設定することができる。
For example, by irradiating the measuring object S with measurement light from one
また、PC200は、複数のプレビュー画像の表示を段階的に行うための誘導を使用者に対して行い、複数の測定条件を順次設定することも可能である(ウィザード形式)。例えば、図37に示すように、測定対象物Sの複数の姿勢についてのプレビュー画像が表示部400に表示される。これにより、使用者は、最適な測定対象物Sの姿勢を選択することができる。
The
次に、選択された姿勢において、図35に示すように、複数の測定モードについてのプレビュー画像が表示部400に表示される。これにより、使用者は、最適な測定モードを選択することができる。続いて、選択された測定モードにおいて、図38に示すように、測定光の複数の照射方向についてのプレビュー画像が表示部400に表示される。これにより、使用者は、最適な測定光の照射方向を選択することができる。このように、プレビュー画像の表示を段階的に行うことで、測定条件を段階的に絞り込むことができる。
Next, in the selected posture, preview images for a plurality of measurement modes are displayed on the
また、測定条件は精度モードを含んでもよい。精度モードは、通常測定モード、簡易測定モードおよび超簡易測定モードを含む。測定条件として精度モードが設定された場合、測定対象物Sの形状測定処理前に、各精度モードにおける測定困難領域、測定時間および測定精度を示す指標が推定される。また、推定された各精度モードにおける測定困難領域、測定時間および測定精度を示す指標を識別可能に、プレビュー画像が表示部400に表示される。
The measurement conditions may include an accuracy mode. The accuracy mode includes a normal measurement mode, a simple measurement mode, and a super simple measurement mode. When the accuracy mode is set as the measurement condition, before the shape measurement process of the measurement object S, an index indicating the measurement difficulty region, the measurement time, and the measurement accuracy in each accuracy mode is estimated. In addition, a preview image is displayed on the
通常測定モードにおいては、コード状測定光および縞状測定光が測定対象物Sに順次照射されることにより、プレビュー画像として主立体形状データが生成される。生成されたプレビュー画像データに基づいて、表示部400の一の画像表示領域に測定対象物Sの立体形状のプレビュー画像が表示される。
In the normal measurement mode, the main three-dimensional shape data is generated as a preview image by sequentially irradiating the measurement object S with the code-shaped measurement light and the striped measurement light. Based on the generated preview image data, a three-dimensional preview image of the measuring object S is displayed in one image display area of the
簡易測定モードにおいては、コード状測定光および縞状測定光が測定対象物Sに照射されることにより、プレビュー画像として主立体形状データが生成される。生成されたプレビュー画像データに基づいて、表示部400の他の画像表示領域に測定対象物Sの立体形状のプレビュー画像が表示される。
In the simple measurement mode, the main three-dimensional shape data is generated as a preview image by irradiating the measurement object S with the code-shaped measurement light and the striped measurement light. Based on the generated preview image data, a three-dimensional preview image of the measuring object S is displayed in another image display area of the
ここで、簡易測定モードにおける縞状測定光の各明部分のX方向の幅およびX方向の移動距離は、通常測定モードにおける縞状測定光の各明部分のX方向の幅およびX方向の移動距離よりもそれぞれ大きく設定される。そのため、簡易測定モードにおける主立体形状データは、通常測定モードにおける主立体形状データよりも小さい。 Here, the width in the X direction and the movement distance in the X direction of each bright portion of the striped measurement light in the simple measurement mode are the width in the X direction and the movement in the X direction of each bright portion of the striped measurement light in the normal measurement mode. Each is set larger than the distance. Therefore, the main stereoscopic shape data in the simple measurement mode is smaller than the main stereoscopic shape data in the normal measurement mode.
超簡易測定モードにおいては、コード状測定光が測定対象物Sに照射されることにより、プレビュー画像として主立体形状データが生成される。生成されたプレビュー画像データに基づいて、表示部400のさらに他の画像表示領域に測定対象物Sの立体形状のプレビュー画像が表示される。超簡易測定モードにおける主立体形状データは、簡易測定モードにおける主立体形状データよりも小さい。
In the ultra-simple measurement mode, the main three-dimensional shape data is generated as a preview image by irradiating the measurement object S with the code-like measurement light. Based on the generated preview image data, a three-dimensional preview image of the measuring object S is displayed in still another image display area of the
複数の精度モードにおいて推定される測定困難領域の大きさは互いに略等しい。しかしながら、複数の精度モードにおいて推定される形状測定処理に要する測定時間および生成される主立体形状データの精度は互いに著しく異なる。したがって、使用者は、表示部400に表示される測定時間および精度を見て、複数の精度モードのうち適切な精度モードを選択することができる。
The sizes of the measurement difficulty regions estimated in the plurality of accuracy modes are substantially equal to each other. However, the measurement time required for the shape measurement process estimated in a plurality of accuracy modes and the accuracy of the generated main stereoscopic shape data are significantly different from each other. Therefore, the user can select an appropriate accuracy mode from among a plurality of accuracy modes by looking at the measurement time and accuracy displayed on the
(7)測定困難領域の他の表示
以下、測定困難領域ではない領域を測定可能領域と呼ぶ。上記実施の形態において、複数のプレビュー画像は、推定された測定困難領域を識別可能に表示部400に表示されるが、これに限定されない。推定された測定困難領域および測定可能領域に関する測定情報として領域の面積の程度が算出され、算出された測定情報を記載した表が表示部400に表示されてもよい。図39は、測定困難領域および測定可能領域に関する測定情報を記載した表を示す図である。
(7) Other Display of Difficult-to-Measure Area Hereinafter, an area that is not the difficult-to-measure area is called a measurable area. In the above embodiment, the plurality of preview images are displayed on the
図39に示すように、表Tの第1〜第3の行には、それぞれプレビュー画像の全領域に占める第1〜第3の測定困難領域の割合が数値で表示されるとともにバーにより視覚的に表示される。表Tの第4の行には、プレビュー画像の全領域に占める測定可能領域の割合が、数値で表示されるとともにバーにより視覚的に表示される。これにより、使用者は、測定困難領域および測定可能領域の測定情報を容易に認識することができる。その結果、使用者は、測定困難領域および測定可能領域の測定情報に基づいて適切な測定条件を容易に選択することができる。 As shown in FIG. 39, in the first to third rows of Table T, the ratios of the first to third measurement difficulty regions occupying the entire region of the preview image are respectively displayed numerically and visually displayed by a bar. Is displayed. In the fourth row of Table T, the ratio of the measurable area to the entire area of the preview image is displayed numerically and visually displayed by a bar. Thereby, the user can easily recognize the measurement information of the measurement difficulty region and the measurable region. As a result, the user can easily select appropriate measurement conditions based on the measurement information of the measurement difficulty region and the measurable region.
また、使用者は、操作部250を用いて表示部400に表示される画像にROI(関心領域)を設定することができる。これにより、ROIが設定されたプレビュー画像が表示部400に表示される。図40は、ROIが設定された表示部400の表示の一例を示す図である。図40に示すように、ROIとして測定位置を示す測定位置指定枠MFが、画像表示領域450a〜450dのプレビュー画像上に表示される。ROIが設定されている場合においては、測定位置指定枠MF内に含まれるプレビュー画像の部分に関して、明るさの調整、測定困難領域の推定、推定された測定困難領域の強調表示または図39の表Tの表示が行われてもよい。
Further, the user can set an ROI (region of interest) in an image displayed on the
この場合、使用者は、測定対象物Sのプレビュー画像上の任意の範囲における推定された測定困難領域および測定可能領域の測定情報を認識することができる。それにより、使用者は、測定位置における測定困難領域および測定可能領域の測定情報に基づいて適切な測定条件を容易に選択することができる。 In this case, the user can recognize the measurement information of the estimated measurement difficulty region and the measurable region in an arbitrary range on the preview image of the measurement object S. Accordingly, the user can easily select an appropriate measurement condition based on the measurement information of the measurement difficulty region and the measurable region at the measurement position.
(8)主立体形状データに基づく測定困難領域の推定
上記の実施の形態においては、三角測距方式による主立体形状データを実際に生成することなく画像データに基づいて各測定モードに対応する測定困難領域が推定されるが、これに限定されない。画像データに基づく測定困難領域の推定を行いかつ三角測距方式による主立体形状データを実際に生成し、主立体形状データに基づいて各測定モードに対応する測定困難領域が推定されてもよい。この場合、測定困難領域をより確実に推定することができる。
(8) Estimation of measurement difficulty region based on main stereoscopic shape data In the above embodiment, measurement corresponding to each measurement mode based on image data without actually generating main stereoscopic shape data by the triangulation method. Although a difficult area is estimated, it is not limited to this. The measurement difficulty region corresponding to each measurement mode may be estimated based on the main stereoscopic shape data by estimating the difficult measurement region based on the image data and actually generating the main stereoscopic shape data by the triangulation method. In this case, the measurement difficulty region can be estimated more reliably.
主立体形状データに基づく測定困難領域の推定においては、プレビュー画像データとして、複数の測定条件で三角測距方式による複数の主立体形状データが生成される。ここで、画像データに基づく測定困難領域の推定において第1の測定困難領域と推定されかつ測定対象物Sの高さを示す主立体形状データが生成されなかった領域が主立体形状データに基づく第1の測定困難領域と推定される。画像データに基づく測定困難領域の推定において第2の測定困難領域と推定されかつ生成された主立体形状データの変化が間接光の発生時に得られる主立体形状データの変化とみなされる領域が主立体形状データに基づく第2の測定困難領域と推定される。画像データに基づく測定困難領域の推定において第3の測定困難領域と推定されかつ生成された主立体形状データの変化が受光信号の飽和時に得られる主立体形状データの変化とみなされる領域が主立体形状データに基づく第3の測定困難領域と推定される。 In the estimation of the difficult measurement area based on the main stereoscopic shape data, a plurality of main stereoscopic shape data by a triangulation method is generated as preview image data under a plurality of measurement conditions. Here, in the estimation of the measurement difficulty region based on the image data, the region that is estimated as the first measurement difficulty region and for which the main stereoscopic shape data indicating the height of the measurement object S has not been generated is the 1 is estimated to be a difficult measurement area. In the estimation of the measurement difficulty region based on the image data, the region that is estimated as the second measurement difficulty region and the generated change in the main stereoscopic shape data is regarded as the change in the main stereoscopic shape data obtained when the indirect light is generated is the main solid. It is estimated as the second measurement difficulty region based on the shape data. In the estimation of the difficult measurement region based on the image data, the region that is estimated as the third measurement difficult region and that the generated change in the main stereoscopic shape data is regarded as the change in the main stereoscopic shape data obtained when the received light signal is saturated is the main solid. It is estimated as the third measurement difficulty region based on the shape data.
各測定条件における主立体形状データに基づく測定困難領域の推定に要する時間と各測定条件における形状測定処理に要する時間とは相関を有する。したがって、各測定条件における主立体形状データに基づく測定困難領域の推定に要した時間に基づいて、各測定条件における形状測定処理を実行する場合に要する測定時間が推定される。 The time required for estimating the measurement difficulty region based on the main stereoscopic shape data under each measurement condition and the time required for the shape measurement process under each measurement condition have a correlation. Therefore, the measurement time required when executing the shape measurement process under each measurement condition is estimated based on the time required for estimating the measurement difficulty region based on the main stereoscopic shape data under each measurement condition.
生成された複数の主立体形状データに基づくプレビュー画像が、対応する複数の測定条件において推定された測定困難領域を識別可能に表示部400に表示される。また、複数の測定条件で測定対象物Sの形状測定処理を実行する場合において推定される測定時間が、複数のプレビュー画像と対応するように表示部400に表示される。
A preview image based on the generated plurality of main stereoscopic shape data is displayed on the
測定困難領域の推定における主立体形状データの分解能は、形状測定処理における主立体形状データの分解能よりも低くてもよい。そのため、測定困難領域の推定における主立体形状データは、形状測定処理における主立体形状データよりも低い精度または小さいデータ量を有するように設定される。これにより、測定困難領域の推定における主立体形状データを形状測定処理における主立体形状データよりも高速に生成することができる。 The resolution of the main stereoscopic shape data in the estimation of the difficult measurement region may be lower than the resolution of the main stereoscopic shape data in the shape measurement process. Therefore, the main stereoscopic shape data in the estimation of the difficult measurement region is set to have a lower accuracy or a smaller data amount than the main stereoscopic shape data in the shape measurement process. Thereby, the main stereoscopic shape data in the estimation of the difficult measurement region can be generated at a higher speed than the main stereoscopic shape data in the shape measurement process.
測定困難領域の推定における主立体形状データの生成の一例として、例えばコード状測定光が測定対象物Sに照射される。コード状光の照射時に受光部120により出力される受光信号に基づいて、主立体形状データが生成される。これに対して、形状測定処理においては、測定対象物Sに縞状測定光およびコード状測定光を照射することにより、選択された測定条件における主立体形状データが生成される。
As an example of generation of the main stereoscopic shape data in the estimation of the difficult measurement area, for example, the measurement light S is irradiated with the code-shaped measurement light. Main three-dimensional shape data is generated based on the light reception signal output by the
この場合、測定困難領域の推定における主立体形状データの精度を形状測定処理における主立体形状データの精度よりも低くすることができる。これにより、測定困難領域の推定においては、主立体形状データの生成のために必要なパターン画像の取得回数が低減され、CPU210の処理時間が短縮されるので、高速に主立体形状データを生成することができる。
In this case, the accuracy of the main stereoscopic shape data in the estimation of the difficult measurement region can be made lower than the accuracy of the main stereoscopic shape data in the shape measurement process. Thereby, in the estimation of the difficult measurement area, the number of pattern image acquisitions necessary for generating the main stereoscopic shape data is reduced, and the processing time of the
測定困難領域の推定における画像データまたは主立体形状データを形状測定処理における主立体形状データよりもさらに高速に生成するために、以下の方式で測定困難領域の推定および形状測定処理が行われてもよい。 In order to generate image data or main 3D shape data in estimation of difficult measurement area faster than main 3D shape data in shape measurement processing, estimation of difficult measurement area and shape measurement processing may be performed by the following method. Good.
測定困難領域の推定の一例として、測定困難領域の推定においては、一方の投光部110Aから測定対象物Sに測定光を照射することにより、画像データまたは主立体形状データが生成される。生成された画像データまたは主立体形状データに基づいて各測定条件における測定困難領域が推定される。これに対して、形状測定処理においては、両方の投光部110A,110Bから測定対象物Sに測定光を順次照射することにより、主立体形状データが生成される。
As an example of estimation of the measurement difficulty region, in the estimation of the measurement difficulty region, image data or main stereoscopic shape data is generated by irradiating the measurement object S with the measurement light from one
この場合、測定困難領域の推定においては、一方の投光部110Aのみから測定対象物Sに測定光が照射されるので、測定困難領域の推定における画像データまたは主立体形状データの精度を形状測定処理における主立体形状データの精度よりも低くすることができる。これにより、測定困難領域の推定においては、画像データまたは主立体形状データの生成の回数が低減され、CPU210の処理時間が短縮されるので、高速に画像データまたは主立体形状データを生成することができる。その結果、測定困難領域を短時間で推定することができる。
In this case, in the estimation of the difficult measurement area, the measurement object S is irradiated with the measurement light S only from one of the
測定困難領域の推定の他の例として、測定困難領域の推定においては、受光部120からの受光信号に対応するY方向の画素データの間引きが行われる。これにより、受光部120のフレームレートを増加させることができるとともに、制御基板150からCPU210への画素データの転送速度を向上させることができる。間引き後の画素データはY方向に引き延ばされるとともに、引き延ばされた画素データに基づいて各測定条件における画像データまたは主立体形状データが生成される。生成された画像データまたは主立体形状データに基づいて各測定条件における測定困難領域が推定される。
As another example of estimation of the difficult measurement region, in the estimation of the difficult measurement region, pixel data in the Y direction corresponding to the light reception signal from the
これに対して、形状測定処理においては、受光部120からの受光信号に対応する画素データの間引きが行われることなく、画素データに基づいて選択された測定条件における主立体形状データが生成される。
On the other hand, in the shape measurement process, the main stereoscopic shape data under the measurement conditions selected based on the pixel data is generated without thinning out the pixel data corresponding to the light reception signal from the
この場合、測定困難領域の推定においては、受光部120のフレームレートが増加するとともに、制御基板150からCPU210への画素データの転送速度が向上するので、CPU210の処理時間が短縮される。また、高速に画像データまたは主立体形状データを生成することができる。
In this case, in estimating the measurement difficulty region, the frame rate of the
さらに、本例においては、測定光はY方向に平行な直線状の断面を有するので、画素データがY方向に間引きされた後、Y方向に引き延ばされた場合でも、画素データの精度はほとんど変化しない。そのため、精度をほとんど低下させることなく画像データまたは主立体形状データを短時間で生成することができる。その結果、測定困難領域を短時間で推定することができる。 Further, in this example, since the measurement light has a linear cross section parallel to the Y direction, even when the pixel data is thinned in the Y direction and then extended in the Y direction, the accuracy of the pixel data is Almost no change. Therefore, image data or main stereoscopic shape data can be generated in a short time with almost no decrease in accuracy. As a result, the measurement difficulty region can be estimated in a short time.
(9)測定条件の選択の手順
(a)全体手順
図41および図42は、測定条件の選択の手順を示すフローチャートである。測定条件の選択の手順は、図23の形状測定処理の準備の後でかつ図30〜図32の形状測定処理の前に行われる。以下、図1、図2、図41および図42を参照しながら測定条件の選択の手順を説明する。
(9) Measurement Condition Selection Procedure (a) Overall Procedure FIGS. 41 and 42 are flowcharts showing the measurement condition selection procedure. The procedure for selecting the measurement conditions is performed after the preparation of the shape measurement process of FIG. 23 and before the shape measurement process of FIGS. Hereinafter, the procedure for selecting the measurement conditions will be described with reference to FIGS. 1, 2, 41, and 42.
CPU210は、使用者によりROIの設定が指示されたか否かを判定する(ステップS61)。使用者は、図23の形状測定処理の準備の後にROIの設定を指示することができる。あるいは、使用者は、形状測定処理の準備におけるステップS3の第1の調整が終了した後に形状測定処理の準備の準備を終了してROIの設定を指示することができる。
The
ステップS61において、ROIの設定が指示されない場合、CPU210はステップS63の処理に進む。一方、ROIの設定が指示された場合、CPU210は使用者の指示に基づいてROIを設定する(ステップS62)。
If the setting of ROI is not instructed in step S61, the
次に、CPU210は、使用者により第1の測定条件におけるプレビュー画像の表示が指示されたか否かを判定する(ステップS63)。本例においては、第1の測定条件は、例えば測定モードである。
Next, the
ステップS63において、第1の測定条件におけるプレビュー画像の表示が指示されていない場合、CPU210は、第1の測定条件におけるプレビュー画像の表示が指示されるまで待機する。一方、ステップS63において、第1の測定条件におけるプレビュー画像の表示が指示された場合、CPU210は、第1の測定条件における測定困難領域を識別可能に複数のプレビュー画像を表示部400に表示する(ステップS64)。表示部400に表示された複数のプレビュー画像のうちの1つが使用者に選択されることにより、対応する一の測定モードが決定される。
If the display of the preview image under the first measurement condition is not instructed in step S63, the
続いて、CPU210は、使用者により第2の測定条件におけるプレビュー画像の表示が指示されたか否かを判定する(ステップS65)。本例においては、第2の測定条件は、例えば測定対象物Sの姿勢である。第2の測定条件は、例えば測定対象物Sの位置であってもよい。
Subsequently, the
ステップS65において、第2の測定条件におけるプレビュー画像の表示が指示されていない場合、CPU210はステップS67の処理に進む。一方、ステップS65において、第2の測定条件におけるプレビュー画像の表示が指示された場合、CPU210は、第2の測定条件における測定困難領域を識別可能に複数のプレビュー画像を表示部400に表示する(ステップS66)。表示部400に表示された複数のプレビュー画像のうちの1つが使用者に選択されることにより、対応する測定対象物Sの一の姿勢が決定される。
If the display of the preview image under the second measurement condition is not instructed in step S65, the
その後、CPU210は、使用者により第3の測定条件におけるプレビュー画像の表示が指示されたか否かを判定する(ステップS67)。本例においては、第3の測定条件は、例えば測定光の照射方向である。
Thereafter, the
ステップS67において、第3の測定条件におけるプレビュー画像の表示が指示されていない場合、CPU210は測定条件の選択の手順を終了する。一方、ステップS65において、第3の測定条件におけるプレビュー画像の表示が指示された場合、CPU210は、第3の測定条件における測定困難領域を識別可能に複数のプレビュー画像を表示部400に表示する(ステップS68)。
If the display of the preview image under the third measurement condition is not instructed in step S67, the
表示部400に表示された複数のプレビュー画像のうちの1つが使用者に選択されることにより、対応する測定光の一の照射方向が決定される。これにより、測定条件の選択の手順が終了する。その後、選択された条件により図30〜図32の形状測定処理が実行される。
When one of the plurality of preview images displayed on the
このように、使用者は、形状測定処理の前に、形状測定処理において生じる測定困難領域の種類、位置および面積のうち少なくとも1つが異なる複数の測定条件を認識することができる。これにより、使用者は、測定対象物Sの形状測定処理の前に、形状測定において生じる測定困難領域の種類、位置および面積のうち少なくとも1つが異なる複数の測定条件のうち、形状測定に適した測定条件を容易に適切に選択することができる。 As described above, the user can recognize a plurality of measurement conditions in which at least one of the type, position, and area of the measurement difficulty region generated in the shape measurement process is different before the shape measurement process. Accordingly, the user is suitable for shape measurement among a plurality of measurement conditions in which at least one of the type, position, and area of the measurement difficult region generated in the shape measurement is different before the shape measurement processing of the measurement object S. Measurement conditions can be easily and appropriately selected.
(b)第1の測定条件におけるプレビュー画像の表示
図43は、測定条件の選択の手順に含まれる第1の測定条件におけるプレビュー画像の表示の詳細を示すフローチャートである。以下、図1、図2および図43を参照しながら第1の測定条件におけるプレビュー画像の表示の詳細を説明する。
(B) Display of Preview Image under First Measurement Condition FIG. 43 is a flowchart showing details of display of a preview image under the first measurement condition included in the measurement condition selection procedure. Hereinafter, details of the display of the preview image under the first measurement condition will be described with reference to FIGS. 1, 2, and 43.
まず、CPU210は、一の測定モードを設定する(ステップS71)。本例においては、初期の測定モードとしてスタンダードモードが設定されている。次に、CPU210は、測定光の明るさを調整する(ステップS72)。
First, the
続いて、CPU210は、投光部110から測定対象物Sに測定光を照射する(ステップS73)。ここで、後述するステップS74において、画像データに基づく測定困難領域の推定が行われる場合には、画像データを生成するための測定光が測定対象物Sに照射される。一方、主立体形状データに基づく測定困難領域の推定が行われる場合には、画像データを生成するための測定光および主立体形状データを生成するための測定光(例えばコード状測定光)が測定対象物Sに順次照射される。
Subsequently, the
その後、CPU210は、画像データまたは主立体形状データに基づく測定困難領域を推定する(ステップS74)。本例においては、CPU210は、画像データに基づく測定困難領域を推定する。また、CPU210は、測定対象物Sに均一パターンを有する測定光を照射することにより、表示部400にプレビュー画像を表示するためのプレビュー画像データを生成する(ステップS75)。
Thereafter, the
次に、CPU210は、全ての測定モードにおける測定困難条件が推定されたか否かを判定する(ステップS76)。ステップS76において、全ての測定モードにおける測定困難条件が推定されていない場合、CPU210は、測定モードを変更する(ステップS77)。
Next, the
本例においては、スタンダードモードにおける測定困難領域が推定された場合には、測定モードはファインモードに変更される。スタンダードモードおよびファインモードにおける測定困難領域が推定された場合には、測定モードはハレーション除去モードに変更される。スタンダードモード、ファインモードおよびハレーション除去モードにおける測定困難領域が推定された場合には、測定モードはスーパーファインモードに変更される。 In this example, when the measurement difficult region in the standard mode is estimated, the measurement mode is changed to the fine mode. When the measurement difficult region in the standard mode and the fine mode is estimated, the measurement mode is changed to the halation removal mode. When the measurement difficult region in the standard mode, the fine mode, and the halation removal mode is estimated, the measurement mode is changed to the super fine mode.
その後、CPU210はステップS72の処理に戻る。全ての測定モードにおける測定困難条件が推定されるまで、ステップS72〜S76の処理が繰り返される。これにより、複数の測定モードにおけるプレビュー画像の明るさが互いに略等しくなる。
Thereafter, the
ステップS76において、全ての測定モードにおける測定困難条件が推定された場合、CPU210は、複数のプレビュー画像を、対応する複数の測定モードにおいて推定された測定困難領域を識別可能に図35の表示部400の画像表示領域450a〜450dにそれぞれ表示する(ステップS78)。
When the measurement difficulty conditions in all the measurement modes are estimated in step S76, the
ここで、CPU210は、複数の測定モードで測定対象物Sの形状測定処理を実行する場合において推定される測定時間を複数のプレビュー画像と対応するように表示部400に表示する。また、CPU210は、複数の測定モードに対応する図39の測定情報を記載した表Tを表示部400に表示してもよい。
Here, the
使用者は、画像表示領域450a〜450dに表示された複数のプレビュー画像および測定時間を見て、適切な測定モードに対応するプレビュー画像を選択する。CPU210は、使用者により選択されたプレビュー画像に基づいて測定モードを決定する(ステップS79)。これにより、第1の測定条件におけるプレビュー画像の表示を終了する。
The user views a plurality of preview images and measurement times displayed in the
ステップS78において、CPU210は、推奨する測定モードを判定し、その測定モードに対応するプレビュー画を識別可能に表示してもよい。この場合、使用者は、推奨された測定モードを考慮しつつ、複数の測定モードから適切な測定モードを選択することができる。
In step S78, the
推奨する測定モードは、測定可能領域の大きさに基づいて判定されてもよいし、ROIが設定されている場合にはROIに含まれる測定可能領域の大きさに基づいて判定されてもよい。あるいは、推奨する測定モードは、測定可能領域の大きさおよび測定時間の短さの兼ね合いに基づいて適切に判定されてもよい。 The recommended measurement mode may be determined based on the size of the measurable area, or may be determined based on the size of the measurable area included in the ROI when the ROI is set. Alternatively, the recommended measurement mode may be appropriately determined based on the balance between the size of the measurable area and the short measurement time.
(c)第2の測定条件におけるプレビュー画像の表示
図44は、測定条件の選択の手順に含まれる第2の測定条件におけるプレビュー画像の表示の詳細を示すフローチャートである。以下、図1、図2および図44を参照しながら第2の測定条件におけるプレビュー画像の表示の詳細を説明する。
(C) Display of Preview Image under Second Measurement Condition FIG. 44 is a flowchart showing details of display of a preview image under the second measurement condition included in the measurement condition selection procedure. Hereinafter, details of the display of the preview image under the second measurement condition will be described with reference to FIGS. 1, 2, and 44.
まず、CPU210は、測定対象物Sの一の姿勢を設定する(ステップS81)。本例においては、初期の姿勢として第1の姿勢が設定されている。次に、CPU210は、測定光の明るさを調整する(ステップS82)。
First, the
続いて、CPU210は、投光部110から測定対象物Sに測定光を照射する(ステップS83)。ここで、後述するステップS84において、画像データに基づく測定困難領域の推定が行われる場合には、画像データを生成するための測定光が測定対象物Sに照射される。一方、主立体形状データに基づく測定困難領域の推定が行われる場合には、画像データを生成するための測定光および主立体形状データを生成するための測定光(例えばコード状測定光)が測定対象物Sに順次照射される。
Subsequently, the
その後、CPU210は、画像データまたは主立体形状データに基づく測定困難領域を推定する(ステップS84)。本例においては、CPU210は、画像データに基づく測定困難領域を推定する。また、CPU210は、測定対象物Sに均一パターンを有する測定光を照射することにより、表示部400にプレビュー画像を表示するためのプレビュー画像データを生成する(ステップS85)。
Thereafter, the
次に、CPU210は、全ての姿勢における測定困難条件が推定されたか否かを判定する(ステップS86)。ステップS86において、全ての姿勢における測定困難条件が推定されていない場合、CPU210は、測定対象物Sの姿勢を変更する(ステップS87)。測定対象物Sの姿勢は、例えばθステージ143が回転することにより行われる。
Next, the
本例においては、第1の姿勢における測定困難領域が推定された場合には、測定対象物Sの姿勢は第2の姿勢に変更される。第1および第2の姿勢における測定困難領域が推定された場合には、測定対象物Sの姿勢は第3の姿勢に変更される。第1〜第3の姿勢における測定困難領域が推定された場合には、測定対象物Sの姿勢は第4の姿勢に変更される。 In this example, when the measurement difficulty region in the first posture is estimated, the posture of the measuring object S is changed to the second posture. When the measurement difficulty region in the first and second postures is estimated, the posture of the measurement object S is changed to the third posture. When the measurement difficulty region in the first to third postures is estimated, the posture of the measurement object S is changed to the fourth posture.
その後、CPU210はステップS82の処理に戻る。全ての姿勢における測定困難条件が推定されるまで、ステップS82〜S86の処理が繰り返される。これにより、第1〜第4の姿勢におけるプレビュー画像の明るさが互いに略等しくなる。
Thereafter, the
ステップS86において、全ての姿勢における測定困難条件が推定された場合、CPU210は、複数のプレビュー画像を、対応する複数の姿勢において推定された測定困難領域を識別可能に図37の表示部400の画像表示領域450a〜450dにそれぞれ表示する(ステップS88)。ここで、CPU210は、測定対象物Sの複数の姿勢に対応する図39の測定情報を記載した表Tを表示部400に表示してもよい。
When the measurement difficulty conditions in all postures are estimated in step S86, the
使用者は、画像表示領域450a〜450dに表示された複数のプレビュー画像を見て、測定対象物Sの適切な姿勢に対応するプレビュー画像を選択する。CPU210は、使用者により選択されたプレビュー画像に基づいて測定対象物Sの姿勢を決定する(ステップS89)。これにより、第2の測定条件におけるプレビュー画像の表示を終了する。
The user views a plurality of preview images displayed in the
ステップS88において、CPU210は、推奨する測定対象物Sの姿勢を判定し、その測定対象物Sの姿勢に対応するプレビュー画を識別可能に表示してもよい。この場合、使用者は、推奨された測定対象物Sの姿勢を考慮しつつ、複数の姿勢から適切な姿勢を選択することができる。
In step S88, the
(d)第3の測定条件におけるプレビュー画像の表示
図45は、測定条件の選択の手順に含まれる第3の測定条件におけるプレビュー画像の表示の詳細を示すフローチャートである。以下、図1、図2および図45を参照しながら第3の測定条件におけるプレビュー画像の表示の詳細を説明する。
(D) Display of Preview Image under Third Measurement Condition FIG. 45 is a flowchart showing details of display of a preview image under the third measurement condition included in the measurement condition selection procedure. Hereinafter, details of the display of the preview image under the third measurement condition will be described with reference to FIGS. 1, 2, and 45.
まず、CPU210は、測定光の一の照射方向を設定する(ステップS91)。本例においては、初期の測定光の照射方向として第1の照射方向が設定されている。次に、CPU210は、測定光の明るさを調整する(ステップS92)。
First, the
続いて、CPU210は、両方の投光部110A,110Bから測定対象物Sに順次測定光を照射する(ステップS93)。ここで、後述するステップS94において、画像データに基づく測定困難領域の推定が行われる場合には、画像データを生成するための測定光が測定対象物Sに照射される。一方、主立体形状データに基づく測定困難領域の推定が行われる場合には、画像データを生成するための測定光および主立体形状データを生成するための測定光(例えばコード状測定光)が測定対象物Sに順次照射される。
Subsequently, the
その後、CPU210は、画像データまたは主立体形状データに基づく測定困難領域を推定する(ステップS94)。本例においては、CPU210は、画像データに基づく測定困難領域を推定する。また、CPU210は、測定対象物Sに均一パターンを有する測定光を照射することにより、表示部400にプレビュー画像を表示するためのプレビュー画像データを生成する(ステップS95)。
Thereafter, the
次に、CPU210は、全ての照射方向における測定困難条件が推定されたか否かを判定する(ステップS96)。ステップS96において、全ての照射方向における測定困難条件が推定されていない場合、CPU210は、測定対象物Sの照射方向を変更する(ステップS97)。
Next, the
本例においては、第1の照射方向における測定困難領域が推定された場合には、照射方向は第2の照射方向に変更される。第1および第2の照射方向における測定困難領域が推定された場合には、照射方向は第3の照射方向に変更される。 In this example, when the measurement difficulty region in the first irradiation direction is estimated, the irradiation direction is changed to the second irradiation direction. When the measurement difficulty region in the first and second irradiation directions is estimated, the irradiation direction is changed to the third irradiation direction.
その後、CPU210はステップS92の処理に戻る。全ての照射方向における測定困難条件が推定されるまで、ステップS92〜S96の処理が繰り返される。これにより、第1〜第3の照射方向におけるプレビュー画像の明るさが互いに略等しくなる。ステップS97において照射方向が第2の照射方向に変更された場合は、ステップS93において一方の投光部110Aから測定対象物Sに測定光が照射される。ステップS97において照射方向が第3の照射方向に変更された場合は、ステップS93において他方の投光部110Bから測定対象物Sに測定光が照射される。
Thereafter, the
ステップS96において、全ての照射方向における測定困難条件が推定された場合、CPU210は、複数のプレビュー画像を、対応する複数の照射方向において推定された測定困難領域を識別可能に図38の表示部400の画像表示領域450a〜450cにそれぞれ表示する(ステップS98)。ここで、CPU210は、測定光の複数の照射方向に対応する図39の測定情報を記載した表Tを表示部400に表示してもよい。
In step S96, when the measurement difficulty conditions in all the irradiation directions are estimated, the
使用者は、画像表示領域450a〜450cに表示された複数のプレビュー画像を見て、適切な照射方向に対応するプレビュー画像を選択する。CPU210は、使用者により選択されたプレビュー画像に基づいて照射方向を決定する(ステップS99)。これにより、第3の測定条件におけるプレビュー画像の表示を終了する。
The user views a plurality of preview images displayed in the
ステップS98において、CPU210は、推奨する照射方向を判定し、その照射方向に対応するプレビュー画を識別可能に表示してもよい。この場合、使用者は、推奨された照射方向を考慮しつつ、複数の照射方向から適切な照射方向を選択することができる。
In step S98, the
(10)効果
本実施の形態に係る形状測定装置500においては、形状測定処理の前に、画像データまたは主立体形状データに基づいて、異なる複数の測定条件で実行される形状測定処理において生じる測定対象物Sの測定困難領域がPC200によりそれぞれ推定される。また、複数の測定条件に対応して推定された測定困難領域を認識可能に、複数の測定条件にそれぞれ対応する測定対象物Sの複数のプレビュー画像が表示部400に表示される。
(10) Effect In
ここで、画像データに基づいて測定対象物Sの測定困難領域が推定された場合には、測定困難領域を識別可能に2次元的な複数のプレビュー画像が表示部400表示される。主立体形状データに基づいて測定対象物Sの測定困難領域が推定された場合には、測定困難領域を識別可能に3次元的な複数のプレビュー画像が表示部400表示される。測定困難領域が推定は、測定対象物Sの形状測定を行う場合に比べて短時間で行われる。
Here, when the measurement difficulty region of the measuring object S is estimated based on the image data, a plurality of two-dimensional preview images are displayed on the
使用者は、表示部400に表示された複数のプレビュー画像に基づいて複数の測定条件のいずれかを選択することができる。使用者により選択された測定条件で形状測定処理が実行される。この構成によれば、使用者は、形状測定処理の前に、2次元的または3次元的な複数のプレビュー画像に基づいて短時間で異なる複数の測定条件で実行される形状測定処理において生じる測定対象物Sの測定困難領域を認識することができる。これにより、測定対象物Sの形状測定処理の前に、測定対象物Sの測定条件を容易に適切に選択することができる。
The user can select one of a plurality of measurement conditions based on a plurality of preview images displayed on the
また、複数の測定モードに対応する測定困難領域の推定に要した推定時間に基づいて、複数の測定モードにおける形状測定処理に要する測定時間がそれぞれ推定される。推定された測定時間が表示部400に表示される。これにより、使用者は、複数の測定モードにおける形状測定処理に要する測定時間を認識することができる。その結果、使用者は、測定対象物Sの形状測定処理の前に、測定困難領域の大きさおよび測定時間の短さの兼ね合いを判断して、測定対象物Sの測定モードを容易に適切に選択することができる。
Further, based on the estimation time required for estimating the measurement difficulty region corresponding to the plurality of measurement modes, the measurement time required for the shape measurement process in the plurality of measurement modes is estimated. The estimated measurement time is displayed on the
[7]請求項の各構成要素と実施の形態の各部との対応関係
以下、請求項の各構成要素と実施の形態の各部との対応の例について説明するが、本発明は下記の例に限定されない。
[7] Correspondence relationship between each constituent element of claim and each part of embodiment The following describes an example of the correspondence between each constituent element of the claim and each part of the embodiment. It is not limited.
測定対象物Sが測定対象物の例であり、ステージ140がステージの例であり、投光部110が投光部の例であり、投光部110Aが第1の投光部の例であり、投光部110Bが第2の投光部の例であり、受光部120が受光部の例である。CPU210がデータ生成部、制御部および処理装置の例であり、表示部400が表示部の例であり、操作部250が操作部の例であり、形状測定装置500が形状測定装置の例であり、ステージ駆動部146が変化部の例である。
The measurement object S is an example of a measurement object, the
請求項の各構成要素として、請求項に記載されている構成または機能を有する他の種々の要素を用いることもできる。 As each constituent element in the claims, various other elements having configurations or functions described in the claims can be used.
本発明は、種々の形状測定装置、形状測定方法および形状測定プログラムに有効に利用することができる。 The present invention can be effectively used for various shape measuring apparatuses, shape measuring methods, and shape measuring programs.
100 測定部
110,110A,110B 投光部
111 測定光源
112 パターン生成部
113〜115,122,123 レンズ
120 受光部
121,121A,121B カメラ
121a 撮像素子
124 ハーフミラー
130 照明光出力部
140 ステージ
141 X−Yステージ
142 Zステージ
143 θステージ
144 チルトステージ
145 ステージ操作部
146 ステージ駆動部
150 制御基板
200 PC
210 CPU
220 ROM
230 作業用メモリ
240 記憶装置
250 操作部
300 制御部
310 制御基板
320 照明光源
400 表示部
410,420,450,450a〜450d 画像表示領域
430,440 光量設定バー
430s,440s,472s スライダ
460 測定条件表示領域
461a〜461d,463a〜463c,465a〜465d,484a〜484c チェックボックス
462a〜462d,464 測定時間表示欄
466 更新ボタン
467 OKボタン
470,480 設定変更領域
471 明るさ選択欄
472 明るさ設定バー
473 表示切換欄
474 倍率切換欄
475 倍率選択欄
476 焦点調整欄
480A 顕微鏡モード選択タブ
480B 形状測定モード選択タブ
481 ツール選択欄
481a 測定ツール表示欄
481b 補助ツール表示欄
482 撮影ボタン
483 測定ボタン
484 テクスチャ画像選択欄
500 形状測定装置
MF 測定位置指定枠
S 測定対象物
Sh 孔
Ss 影
Sw,Sy,Sz 板状部材
Sx 角柱状部材
T 表
DESCRIPTION OF
210 CPU
220 ROM
230
Claims (20)
前記ステージに載置された測定対象物に斜め上方から光を照射するように構成される投光部と、
前記ステージの上方に配置され、測定対象物により反射された光を受光し、受光量を示す受光信号を出力するように構成される受光部と、
前記受光部により出力された受光信号に基づいて、測定対象物の画像を表示するための画像データを生成するとともに、三角測距方式により測定対象物の立体形状を示す立体形状データを生成するように構成されるデータ生成部と、
前記データ生成部により生成された画像データまたは立体形状データに基づいて、測定対象物の画像を表示するように構成される表示部と、
測定条件選択時に、異なる複数の測定条件でそれぞれ複数の画像データまたは複数の立体形状データが生成されるように前記投光部、前記受光部および前記データ生成部を制御し、前記データ生成部により生成された複数の画像データまたは複数の立体形状データに基づいて、前記複数の測定条件で実行される形状測定において生じる測定対象物の測定困難領域をそれぞれ推定し、前記複数の測定条件に対応して推定された測定困難領域を認識可能に、前記複数の測定条件にそれぞれ対応する測定対象物の複数の画像を表示するように前記表示部を制御する制御部と、
測定条件選択時に、前記表示部に表示された前記複数の画像に基づいて前記複数の測定条件のいずれかを選択するために使用者により操作される操作部とを備え、
前記複数の測定条件においては、前記投光部により照射される光のパターンおよび前記投光部により照射される光の方向の少なくとも一方が異なり、
前記制御部は、形状測定時に、前記操作部の操作により選択された測定条件で立体形状データが生成されるように前記投光部、前記受光部および前記データ生成部を制御する、形状測定装置。 A stage on which the measurement object is placed;
A light projecting unit configured to irradiate light on the measurement object placed on the stage obliquely from above;
A light receiving unit arranged above the stage, configured to receive light reflected by the measurement object and output a light reception signal indicating the amount of light received;
Based on the light reception signal output by the light receiving unit, image data for displaying an image of the measurement object is generated, and three-dimensional shape data indicating the three-dimensional shape of the measurement object is generated by a triangulation method. A data generator configured in
A display unit configured to display an image of the measurement object based on the image data or the three-dimensional shape data generated by the data generation unit;
Controlling the light projecting unit, the light receiving unit, and the data generating unit so that a plurality of image data or a plurality of three-dimensional shape data are generated under a plurality of different measurement conditions when the measurement condition is selected , and the data generating unit based on the plurality of image data or three-dimensional shape data generated by the measurement difficulty region of the measuring object occurring in the shape measurement to be performed by the plurality of measurement conditions were estimated respectively, corresponding to the plurality of measurement conditions A control unit that controls the display unit so as to display a plurality of images of the measurement object respectively corresponding to the plurality of measurement conditions, so that the measurement difficult region estimated in the above can be recognized.
During the measurement condition selection, and an operation unit operated by a user to select one of said plurality of measurement conditions on the basis of the displayed plurality of images on the display unit,
In the plurality of measurement conditions, at least one of the pattern of light irradiated by the light projecting unit and the direction of light irradiated by the light projecting unit is different,
The control unit controls the light projecting unit, the light receiving unit, and the data generating unit so that three-dimensional shape data is generated under measurement conditions selected by operating the operation unit during shape measurement. .
前記制御部は、測定条件選択時の測定困難領域の推定時に、前記変化部により測定対象物が複数の姿勢または位置にそれぞれ設定された状態で前記複数の測定条件における測定対象物の測定困難領域をそれぞれ推定する、請求項6〜10のいずれか一項に記載の形状測定装置。 A change unit configured to set the measurement object in a plurality of postures or positions by changing a direction of the measurement object with respect to the light projecting unit or a relative distance between the light receiving unit and the stage;
The control unit, when estimating the measurement difficulty region at the time of measurement condition selection, the measurement target region of the measurement object under the plurality of measurement conditions in a state where the measurement object is set in a plurality of postures or positions by the change unit, respectively The shape measuring device according to any one of claims 6 to 10 , wherein each of the parameters is estimated.
前記制御部は、測定条件選択時の測定困難領域の推定時に、前記投光部によりそれぞれ異なる1または複数の方向において測定対象物に光が照射される状態で、前記複数の測定条件における測定対象物の測定困難領域をそれぞれ推定する、請求項6〜11のいずれか一項に記載の形状測定装置。 The light projecting unit is configured to irradiate the measurement object with light in different directions from different positions,
The control unit is configured to measure the measurement object under the plurality of measurement conditions in a state where the measurement object is irradiated with light in one or a plurality of directions different from each other by the light projecting unit when estimating the measurement difficult region when the measurement condition is selected. The shape measuring device according to any one of claims 6 to 11 , wherein each of the measurement difficulty regions of the object is estimated.
前記制御部は、測定条件選択時の測定困難領域の推定時に、前記第1および第2の投光部の一方により測定対象物に光が照射されるように前記第1および第2の投光部を制御し、形状測定時に、前記第1および第2の投光部の両方から測定対象物に光が順次照射されるように前記第1および第2の投光部を制御する、請求項1〜12のいずれか一項に記載の形状測定装置。 The light projecting unit includes first and second light projecting units that irradiate the measurement object in different directions from different positions,
The control unit is configured to cause the first and second light projections to irradiate the measurement object with one of the first and second light projection units when estimating the measurement difficulty region when the measurement condition is selected. And controlling the first and second light projecting units so that the measurement object is sequentially irradiated with light from both the first and second light projecting units during shape measurement. The shape measuring apparatus according to any one of 1 to 12 .
前記制御部は、前記操作部により指定された範囲における推定された測定困難領域の面積の程度を算出する、請求項15〜17のいずれか一項に記載の形状測定装置。 The operation unit is operated by a user to specify an arbitrary range on the image of the measurement object displayed on the display unit,
The shape measuring device according to any one of claims 15 to 17 , wherein the control unit calculates a degree of an area of the estimated difficult measurement region in a range specified by the operation unit.
測定条件選択時に、生成された複数の画像データまたは複数の立体形状データに基づいて、前記複数の測定条件で実行される形状測定において生じる測定対象物の測定困難領域をそれぞれ推定するステップと、
測定条件選択時に、前記複数の測定条件に対応して推定された測定困難領域を認識可能に、前記複数の測定条件にそれぞれ対応する測定対象物の複数の画像を表示部に表示するステップと、
測定条件選択時に、前記表示部に表示された複数の画像に基づく前記複数の測定条件のいずれかの選択を受け付けるステップと、
形状測定時に、選択された測定条件で前記投光部により前記ステージに載置された測定対象物に斜め上方から光を照射し、測定対象物により反射された光を選択された測定条件で前記ステージの上方で受光部により受光し、受光量を示す受光信号を出力し、前記受光部により出力された受光信号に基づいて、選択された測定条件で立体形状データを生成するステップとを備え、
前記複数の測定条件においては、前記投光部により照射される光のパターンおよび前記投光部により照射される光の方向の少なくとも一方が異なる、形状測定方法。 During the measurement conditions selected, the light is irradiated obliquely from above the measuring object mounted on the stage by the light projecting unit with different measurement conditions, the light receiving portion of the light reflected by the measurement object above said stage received by the generated output a light reception signal indicating the amount of received light, based on the output received signal by the light receiving unit, for displaying the image of the measuring object a plurality of image data or three-dimensional shape data, respectively And steps to
During the measurement conditions selected, the steps based on the generated plurality of image data or three-dimensional shape data, estimates the measurement difficulty region of the measuring object occurring in the shape measurement to be performed by the plurality of measurement conditions, respectively,
During the measurement conditions selected, recognizable measurement difficulty region estimated to correspond to the plurality of measurement conditions, and displaying a plurality of images of the measuring object corresponding to the plurality of measurement conditions on a display unit,
Receiving a selection of any of the plurality of measurement conditions based on the plurality of images displayed on the display unit when the measurement condition is selected ;
At the time of shape measurement, the measurement object placed on the stage by the light projecting unit under the selected measurement condition is irradiated with light obliquely from above, and the light reflected by the measurement object is selected under the selected measurement condition. received by the light receiving portion above the stage, and outputs a light reception signal indicating the amount of received light, on the basis of the outputted light reception signal by the light receiving unit, and a step of generating a three-dimensional shape data in the selected measurement conditions,
Wherein in the plurality of measurement conditions, that Do different at least one direction of light emitted is the pattern and the light projecting unit of the light emitted by the light projecting unit, the shape measuring method.
測定条件選択時に、異なる複数の測定条件で投光部によりステージに載置された測定対象物に斜め上方から光を照射し、測定対象物により反射された光を前記ステージの上方で受光部により受光し、受光量を示す受光信号を出力し、前記受光部により出力された受光信号に基づいて、測定対象物の画像を表示するための複数の画像データまたは複数の立体形状データをそれぞれ生成する処理と、
測定条件選択時に、生成された複数の画像データまたは複数の立体形状データに基づいて、前記複数の測定条件で実行される形状測定において生じる測定対象物の測定困難領域をそれぞれ推定する処理と、
測定条件選択時に、前記複数の測定条件に対応して推定された測定困難領域を認識可能に、前記複数の測定条件にそれぞれ対応する測定対象物の複数の画像を表示部に表示する処理と、
測定条件選択時に、前記表示部に表示された複数の画像に基づく前記複数の測定条件のいずれかの選択を受け付ける処理と、
形状測定時に、選択された測定条件で前記投光部により前記ステージに載置された測定対象物に斜め上方から光を照射し、測定対象物により反射された光を選択された測定条件で前記ステージの上方で受光部により受光し、受光量を示す受光信号を出力し、前記受光部により出力された受光信号に基づいて、選択された測定条件で立体形状データを生成する処理とを、
前記処理装置に実行させ、
前記複数の測定条件においては、前記投光部により照射される光のパターンおよび前記投光部により照射される光の方向の少なくとも一方が異なる、形状測定プログラム。 A shape measurement program executable by a processing device,
During the measurement conditions selected, the light is irradiated obliquely from above the measuring object mounted on the stage by the light projecting unit with different measurement conditions, the light receiving portion of the light reflected by the measurement object above said stage received by the generated output a light reception signal indicating the amount of received light, based on the output received signal by the light receiving unit, for displaying the image of the measuring object a plurality of image data or three-dimensional shape data, respectively Processing to
During the measurement conditions selected, the processing based on the generated plurality of image data or three-dimensional shape data, and estimates the plurality of measurement difficulty region of the measuring object occurring in the shape measurement performed by the measurement conditions, respectively,
A process of displaying a plurality of images of the measurement object respectively corresponding to the plurality of measurement conditions on the display unit so that the measurement difficulty region estimated corresponding to the plurality of measurement conditions can be recognized at the time of measurement condition selection ;
A process of accepting selection of any of the plurality of measurement conditions based on a plurality of images displayed on the display unit when selecting the measurement conditions;
At the time of shape measurement, the measurement object placed on the stage by the light projecting unit under the selected measurement condition is irradiated with light obliquely from above, and the light reflected by the measurement object is selected under the selected measurement condition. received by the light receiving portion above the stage, and outputs a light reception signal indicating the amount of received light, based on the output received signal by the light receiving unit, and a process of generating a three-dimensional shape data in the selected measurement conditions,
Causing the processing device to execute ,
Wherein in the plurality of measurement conditions, the at least one direction of light emitted by the pattern and the light projecting unit of the light emitted by the light projecting unit that Do different shape measurement program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012199987A JP6004851B2 (en) | 2012-09-11 | 2012-09-11 | Shape measuring device, shape measuring method, and shape measuring program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012199987A JP6004851B2 (en) | 2012-09-11 | 2012-09-11 | Shape measuring device, shape measuring method, and shape measuring program |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016173706A Division JP6161775B2 (en) | 2016-09-06 | 2016-09-06 | Shape measuring device, shape measuring method, and shape measuring program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014055815A JP2014055815A (en) | 2014-03-27 |
JP6004851B2 true JP6004851B2 (en) | 2016-10-12 |
Family
ID=50613262
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012199987A Expired - Fee Related JP6004851B2 (en) | 2012-09-11 | 2012-09-11 | Shape measuring device, shape measuring method, and shape measuring program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6004851B2 (en) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6425405B2 (en) * | 2014-04-16 | 2018-11-21 | キヤノン株式会社 | INFORMATION PROCESSING APPARATUS, METHOD, AND PROGRAM |
JP6425406B2 (en) * | 2014-04-18 | 2018-11-21 | キヤノン株式会社 | INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM |
JP6292968B2 (en) * | 2014-05-02 | 2018-03-14 | 日本放送協会 | Pseudo HDR image estimation apparatus and method |
JP6322335B2 (en) * | 2015-04-14 | 2018-05-09 | ヤマハ発動機株式会社 | Appearance inspection device |
JP6027204B1 (en) * | 2015-10-05 | 2016-11-16 | Ckd株式会社 | 3D measuring device |
JP6566832B2 (en) * | 2015-10-16 | 2019-08-28 | Ckd株式会社 | 3D measuring device |
TWI583918B (en) | 2015-11-04 | 2017-05-21 | 澧達科技股份有限公司 | Three dimensional characteristic information sensing system and sensing method |
US20210072019A1 (en) * | 2018-02-27 | 2021-03-11 | Nikon Corporation | Image analysis device, analyis device, shape measurement device, image analysis method, measurement condition determination method, shape measurement method, and program |
JP7164451B2 (en) * | 2019-01-29 | 2022-11-01 | 株式会社キーエンス | Three-dimensional measuring device |
CN114199158A (en) * | 2021-12-13 | 2022-03-18 | 吉林大学 | Screw rod axis spatial bending measurement method based on laser correlation type edge detection |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3893169B2 (en) * | 1996-06-18 | 2007-03-14 | コニカミノルタホールディングス株式会社 | 3D measuring device |
JP4792985B2 (en) * | 2006-01-18 | 2011-10-12 | カシオ計算機株式会社 | Camera device, photographing condition setting method, and program |
JP5532785B2 (en) * | 2009-09-18 | 2014-06-25 | リコーイメージング株式会社 | Imaging device |
-
2012
- 2012-09-11 JP JP2012199987A patent/JP6004851B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2014055815A (en) | 2014-03-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6112807B2 (en) | Shape measuring device, shape measuring method, and shape measuring program | |
JP6116164B2 (en) | Shape measuring device, shape measuring method, and shape measuring program | |
JP6004851B2 (en) | Shape measuring device, shape measuring method, and shape measuring program | |
JP6091864B2 (en) | Shape measuring device, shape measuring method, and shape measuring program | |
JP6161775B2 (en) | Shape measuring device, shape measuring method, and shape measuring program | |
JP6029394B2 (en) | Shape measuring device | |
JP6691837B2 (en) | measuring device | |
JP7137346B2 (en) | Image observation device, image observation method, image observation program, and computer-readable recording medium | |
JP6009288B2 (en) | Measurement microscope apparatus, measurement microscope apparatus operation program, and computer-readable recording medium | |
JP5956911B2 (en) | Shape measuring device, shape measuring method, and shape measuring program | |
JP6161253B2 (en) | Shape measuring device, shape measuring method, and shape measuring program | |
JP6279048B2 (en) | Shape measuring device | |
JP6736383B2 (en) | measuring device | |
JP6476252B2 (en) | Shape measuring device, shape measuring method, and shape measuring program | |
JP2014055814A (en) | Shape measuring device, shape measuring method, and shape measuring program | |
JP5956932B2 (en) | Shape measuring device, shape measuring method, and shape measuring program | |
JP6025466B2 (en) | Shape measuring device, shape measuring method, and shape measuring program | |
JP6695748B2 (en) | measuring device | |
JP7154084B2 (en) | Three-dimensional shape measuring device and three-dimensional shape measuring program | |
JP6077287B2 (en) | Optical microscope and pattern projection measurement method | |
JP6046997B2 (en) | Optical microscope | |
JP6695747B2 (en) | measuring device | |
JP2014056059A (en) | Optical microscope |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150311 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160125 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160202 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160331 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160809 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160906 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6004851 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |