JP6140025B2 - Optical surface shape detection system, surface shape detection method, and surface shape detection program - Google Patents

Optical surface shape detection system, surface shape detection method, and surface shape detection program Download PDF

Info

Publication number
JP6140025B2
JP6140025B2 JP2013159829A JP2013159829A JP6140025B2 JP 6140025 B2 JP6140025 B2 JP 6140025B2 JP 2013159829 A JP2013159829 A JP 2013159829A JP 2013159829 A JP2013159829 A JP 2013159829A JP 6140025 B2 JP6140025 B2 JP 6140025B2
Authority
JP
Japan
Prior art keywords
stylus
data
surface shape
observation object
cross
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013159829A
Other languages
Japanese (ja)
Other versions
JP2015031757A (en
Inventor
潤 田淵
潤 田淵
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Keyence Corp
Original Assignee
Keyence Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Keyence Corp filed Critical Keyence Corp
Priority to JP2013159829A priority Critical patent/JP6140025B2/en
Publication of JP2015031757A publication Critical patent/JP2015031757A/en
Application granted granted Critical
Publication of JP6140025B2 publication Critical patent/JP6140025B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Microscoopes, Condenser (AREA)

Description

本発明は、光学式表面形状検出システム、表面形状検出方法および表面形状検出プログラムに関する。   The present invention relates to an optical surface shape detection system, a surface shape detection method, and a surface shape detection program.

観察対象物の表面形状を検出することが可能な表面形状検出器として、共焦点顕微鏡がある。共焦点顕微鏡では、レーザ光源から出射されたレーザ光が対物レンズにより観察対象物に集光される。観察対象物からの反射光が受光レンズにより集光され、ピンホールを通して受光素子に入射する。レーザ光は観察対象物の表面で二次元的に走査される。また、観察対象物と対物レンズとの間の相対的な距離を変化させることにより受光素子の受光量の分布が変化する。観察対象物の表面に焦点が合ったときに受光量のピークが現れる。   There is a confocal microscope as a surface shape detector capable of detecting the surface shape of an observation object. In the confocal microscope, laser light emitted from a laser light source is condensed on an observation object by an objective lens. The reflected light from the observation object is collected by the light receiving lens and enters the light receiving element through the pinhole. The laser light is scanned two-dimensionally on the surface of the observation object. Further, the distribution of the amount of light received by the light receiving element is changed by changing the relative distance between the observation object and the objective lens. The peak of the amount of light received appears when the surface of the observation object is focused.

受光量分布のピーク強度に基づいて非常に高い焦点深度を有する超深度画像を得ることができる。また、受光量分布のピーク位置に基づいて観察対象物の表面形状を示す高さ画像を得ることができる。このような共焦点顕微鏡を用いることにより、観察対象物の表面形状を高精度で検出することができる(例えば特許文献1参照)。   An ultra-deep image having a very high depth of focus can be obtained based on the peak intensity of the received light amount distribution. Further, a height image showing the surface shape of the observation object can be obtained based on the peak position of the received light amount distribution. By using such a confocal microscope, the surface shape of the observation object can be detected with high accuracy (see, for example, Patent Document 1).

特開2012−155009号公報JP2012-155209A

上記のような光学式顕微鏡では、検出された表面形状に基づいて観察対象物の表面粗さを求めることができる。観察対象物の表面粗さの測定には、上記のように光学的に観察対象物の表面形状を検出するもののほか、触針を用いて観察対象物の表面粗さを検出する触針式の粗さ計が用いられる。触針式の粗さ計においては、触針が観察対象物の表面上で走査される。その触針の動きに基づいて、観察対象物の表面の粗さが測定される。   In the optical microscope as described above, the surface roughness of the observation object can be obtained based on the detected surface shape. For measuring the surface roughness of the observation object, in addition to optically detecting the surface shape of the observation object as described above, a stylus type that detects the surface roughness of the observation object using a stylus is used. A roughness meter is used. In the stylus type roughness meter, the stylus is scanned on the surface of the observation object. Based on the movement of the stylus, the roughness of the surface of the observation object is measured.

上記の光学式顕微鏡により検出される観察対象物の表面粗さは、触針式の粗さ計により検出される観察対象物の表面粗さと異なる。具体的には、触針式の粗さ計では、触針の先端部のサイズに応じて検出限界値が定まり、その検出限界値より小さい凹凸を検出することができない。それに対して、光学式顕微鏡等では、観察対象物に照射する光のスポットの大きさを調整する等により、検出限界値を小さくすることができる。そのため、光学式顕微鏡等により光学的に表面粗さが測定される場合には、触針式の粗さ計により表面粗さが測定される場合に比べて微細な粗さを測定可能であるという利点がある。一方、光学的に表面粗さを測定する場合、触針式の粗さ計と同様の測定結果を得ることはできない。そのため、光学式顕微鏡により得られたデータを触針式の粗さ計により得られたデータと比較および照合することはできない。   The surface roughness of the observation object detected by the optical microscope is different from the surface roughness of the observation object detected by the stylus type roughness meter. Specifically, with a stylus type roughness meter, a detection limit value is determined according to the size of the tip of the stylus, and unevenness smaller than the detection limit value cannot be detected. On the other hand, in an optical microscope or the like, the detection limit value can be reduced by adjusting the size of the spot of light irradiated on the observation object. Therefore, when surface roughness is measured optically with an optical microscope or the like, it is possible to measure finer roughness than when surface roughness is measured with a stylus type roughness meter. There are advantages. On the other hand, when measuring the surface roughness optically, it is impossible to obtain the same measurement result as a stylus type roughness meter. Therefore, the data obtained by the optical microscope cannot be compared and collated with the data obtained by the stylus type roughness meter.

本発明の目的は、触針式の粗さ計により得られたデータと比較および照合することが可能なデータが得られる光学式表面形状検出システム、表面形状検出方法および表面形状検出プログラムを提供することである。   An object of the present invention is to provide an optical surface shape detection system, a surface shape detection method, and a surface shape detection program capable of obtaining data that can be compared and collated with data obtained by a stylus type roughness meter. That is.

(1)第1の発明に係る光学式表面形状検出システムは、観察対象物の表面形状を検出するための光学式表面形状検出システムであって、受光素子と、観察対象物の表面に光を照射するとともに観察対象物に照射された光を受光素子に導く光学系と、受光素子の出力信号に基づいて観察対象物の表面形状を表す表面形状データを生成する表面形状データ生成部と、仮想的に設定された触針の形状を表す触針データを記憶する触針データ記憶部と、表面形状データ生成部により生成された表面形状データおよび触針データ記憶部に記憶される触針データに基づいて、触針が観察対象物の表面を移動する場合の触針の動きに相当する触針検出データを生成する触針検出データ生成部と備え、触針は、基準位置と曲面状の先端部とを有し、触針データは、先端部の曲率に関する曲率情報を含み、触針検出データは、触針が観察対象物の表面を移動する場合における基準位置の軌跡を表すものである。 (1) An optical surface shape detection system according to a first aspect of the invention is an optical surface shape detection system for detecting the surface shape of an observation object, and provides light to the light receiving element and the surface of the observation object. An optical system for irradiating and irradiating the observation object to the light receiving element, a surface shape data generating unit for generating surface shape data representing the surface shape of the observation object based on an output signal of the light receiving element, and a virtual A stylus data storage unit that stores stylus data representing the shape of the stylus that is set automatically, the surface shape data generated by the surface shape data generation unit, and the stylus data stored in the stylus data storage unit And a stylus detection data generation unit that generates stylus detection data corresponding to the movement of the stylus when the stylus moves on the surface of the observation object. The stylus has a reference position and a curved tip. And stylus data Includes curvature information about the curvature of the tip, stylus detection data is representative of the trajectory of the reference position in the case of moving the surface of the stylus is observed object.

この光学式表面形状検出システムにおいては、観察対象物の表面に光が照射されるとともにその照射された光が受光素子に導かれる。受光素子の出力信号に基づいて表面形状データ生成部により観察対象物の表面形状を表す表面形状データが生成される。また、仮想的に設定された触針の形状を表す触針データが触針データ記憶部に記憶される。生成された表面形状データおよび記憶される触針データに基づいて、触針が観察対象物の表面を移動する場合の触針の動きに相当する触針検出データが触針検出データ生成部により生成される。   In this optical surface shape detection system, light is irradiated on the surface of the observation object and the irradiated light is guided to the light receiving element. Surface shape data representing the surface shape of the observation object is generated by the surface shape data generation unit based on the output signal of the light receiving element. Further, stylus data representing the virtually set stylus shape is stored in the stylus data storage unit. Based on the generated surface shape data and stored stylus data, the stylus detection data generation unit generates stylus detection data corresponding to the movement of the stylus when the stylus moves on the surface of the observation object. Is done.

このように、観察対象物の表面形状が光学的に検出されることにより高い精度を有する表面形状データが得られる。また、表面形状データに基づいて、触針を用いて観察対象物の表面形状が検出される場合と等価な触針検出データが得られる。この場合、触針検出データを触針式の粗さ計により得られるデータと同等に扱うことができる。それにより、触針検出データと触針式の粗さ計により得られるデータとの比較および照合が可能となる。したがって、表面形状データおよび触針検出データを選択的に用いることにより、種々のデータの比較および照合を効率よく行うことができる。   Thus, surface shape data having high accuracy can be obtained by optically detecting the surface shape of the observation object. Further, stylus detection data equivalent to the case where the surface shape of the observation object is detected using the stylus is obtained based on the surface shape data. In this case, stylus detection data can be handled in the same way as data obtained by a stylus roughness meter. This makes it possible to compare and collate the stylus detection data with the data obtained from the stylus roughness meter. Therefore, by selectively using the surface shape data and the stylus detection data, it is possible to efficiently compare and collate various data.

また、触針は、基準位置曲面状の先端部を有し、触針データは、先端部の曲率に関する曲率情報を含み、触針検出データは、触針が観察対象物の表面を移動する場合における基準位置の軌跡を表 Also, stylus is moved, and a reference position and a curved tip, stylus data includes a curvature information about the curvature of the tip, stylus detection data, the surface of the probe is observed object to display the trajectory of the reference position in the case of.

これにより、曲率情報に基づいて触針の基準位置の軌跡を求めることができる。 Thereby, the locus | trajectory of the reference | standard position of a stylus can be calculated | required based on curvature information.

)触針は、先端部から連続的に延びるテーパ部をさらに有し、テーパ部は、先端部から遠ざかるにつれて増加する直径を有し、触針データは、テーパ部がなすテーパ角をさらに含んでもよい。 ( 2 ) The stylus further has a taper portion continuously extending from the tip portion, the taper portion has a diameter that increases as the distance from the tip portion increases, and the stylus data further includes a taper angle formed by the taper portion. May be included.

この場合、曲率情報およびテーパ角に基づいて触針の基準位置の軌跡を求めることができる。また、設定される触針の形状が実際の触針の形状と略等しい。そのため、触針検出データを触針式の粗さ計により得られるデータに近づけることができる。   In this case, the locus of the reference position of the stylus can be obtained based on the curvature information and the taper angle. Further, the shape of the set stylus is substantially equal to the actual shape of the stylus. Therefore, stylus detection data can be brought close to data obtained by a stylus type roughness meter.

)触針検出データ生成部は、触針データに含まれる曲率情報に基づいて、先端部が観察対象物の表面に接触しつつ移動する場合の基準位置の軌跡を求め、触針データに含まれるテーパ部のテーパ角に基づいて、求められた軌跡を補正することにより、先端部またはテーパ部のいずれかが観察対象物に接触しつつ移動する場合における基準位置の軌跡を表す触針検出データを生成してもよい。 ( 3 ) Based on the curvature information included in the stylus data, the stylus detection data generation unit obtains the locus of the reference position when the tip moves while contacting the surface of the observation object, and uses the stylus data as the stylus data. A stylus detection that represents the trajectory of the reference position when either the tip or the taper moves while touching the observation object by correcting the obtained trajectory based on the taper angle of the included taper. Data may be generated.

この場合、テーパ部が存在する場合の基準位置の軌跡が直接的に求められる場合に比べて、演算量が大幅に削減される。それにより、処理負荷を増大させることなく迅速に触針検出データを生成することができる。   In this case, the amount of calculation is greatly reduced as compared with the case where the locus of the reference position is directly obtained when the tapered portion is present. Thereby, stylus detection data can be generated quickly without increasing the processing load.

)光学式表面形状検出システムは、曲率情報を設定するために使用者により操作される曲率情報設定部をさらに備えてもよい。 ( 4 ) The optical surface shape detection system may further include a curvature information setting unit operated by a user in order to set curvature information.

この場合、使用者が曲率情報を所望の値に設定することができる。そのため、使用者が、一般的に用いられる触針と一致するように曲率情報を設定することができるとともに、それと異なるように曲率情報を設定することもできる。   In this case, the user can set the curvature information to a desired value. Therefore, the user can set the curvature information so as to coincide with a stylus that is generally used, and the curvature information can be set differently.

)触針検出データ生成部は、表面形状データから高周波ノイズを除去するためにフィルタリング処理を行い、フィルタリング処理後の表面形状データに基づいて触針検出データを生成し、触針データに含まれる曲率情報に基づいてフィルタリング処理における遮断波長を決定してもよい。 ( 5 ) The stylus detection data generation unit performs filtering processing to remove high-frequency noise from the surface shape data, generates stylus detection data based on the surface shape data after the filtering processing, and is included in the stylus data The cut-off wavelength in the filtering process may be determined based on the curvature information.

この場合、フィルタリング処理により表面形状データから高周波ノイズを適正に除去することができる。また、フィルタリング処理後の表面形状データに基づいて触針検出データが生成されるので、触針検出データを触針式の粗さ計により得られるデータにさらに近づけることができる。   In this case, high-frequency noise can be appropriately removed from the surface shape data by the filtering process. In addition, since the stylus detection data is generated based on the surface shape data after the filtering process, the stylus detection data can be made closer to data obtained by a stylus roughness meter.

)先端部は球面形状を有し、曲率情報は曲率半径を含み、触針検出データ生成部は、ガウシアンフィルタまたは移動平均フィルタを用いてフィルタリング処理を行い、フィルタリング処理における遮断波長を先端部の曲率半径の1倍以上8倍以下の値に決定してもよい。 ( 6 ) The tip has a spherical shape, the curvature information includes a radius of curvature, and the stylus detection data generation unit performs a filtering process using a Gaussian filter or a moving average filter, and sets a cutoff wavelength in the filtering process to the tip It may be determined to be a value not less than 1 and not more than 8 times the radius of curvature.

この場合、表面形状データから高周波ノイズを適正に除去することができる。それにより、触針検出データを触針式の粗さ計により得られるデータにさらに近づけることができる。   In this case, high frequency noise can be appropriately removed from the surface shape data. Thereby, the stylus detection data can be made closer to the data obtained by the stylus type roughness meter.

)触針検出データ生成部は、移動平均フィルタを用いてフィルタリング処理を行い、決定された遮断波長に基づいて、移動平均点数を決定してもよい。 ( 7 ) The stylus detection data generation unit may perform a filtering process using a moving average filter, and determine the moving average score based on the determined cutoff wavelength.

この場合、表面形状データから高周波ノイズを適正に除去することができる。それにより、触針検出データを触針式の粗さ計により得られるデータにさらに近づけることができる。   In this case, high frequency noise can be appropriately removed from the surface shape data. Thereby, the stylus detection data can be made closer to the data obtained by the stylus type roughness meter.

)触針検出データ生成部は、メディアンフィルタを用いてフィルタリング処理を行い、フィルタリング処理におけるフィルタサイズを曲率情報に応じて決定してもよい。 ( 8 ) The stylus detection data generation unit may perform a filtering process using a median filter and determine a filter size in the filtering process according to curvature information.

この場合、表面形状データから高周波ノイズを適正に除去することができる。それにより、触針検出データを触針式の粗さ計により得られるデータにさらに近づけることができる。   In this case, high frequency noise can be appropriately removed from the surface shape data. Thereby, the stylus detection data can be made closer to the data obtained by the stylus type roughness meter.

)光学式表面形状検出システムは、フィルタリング処理の強度を設定するために使用者により操作されるフィルタリング強度設定部をさらに備えてもよい。 ( 9 ) The optical surface shape detection system may further include a filtering intensity setting unit operated by a user to set the intensity of the filtering process.

この場合、所望の強度でフィルタリング処理を行うことができる。したがって、触針検出データの精度を調整することができる。   In this case, the filtering process can be performed with a desired intensity. Therefore, the accuracy of the stylus detection data can be adjusted.

10)光学式表面形状検出システムは、表面形状データに基づいて観察対象物の表面形状を表す光学画像データを生成するとともに、触針検出データに基づいて観察対象物の表面形状を表す触針画像データを生成する画像データ生成部と、画像データ生成部により生成された光学画像データおよび触針画像データのうち一方を選択するために使用者により操作される画像選択部と、画像選択部により選択された光学画像データおよび触針画像データのうち一方に基づく画像を表示する表示部とをさらに備えてもよい。 ( 10 ) The optical surface shape detection system generates optical image data representing the surface shape of the observation object based on the surface shape data, and also represents a surface shape of the observation object based on the stylus detection data. An image data generation unit that generates image data, an image selection unit that is operated by a user to select one of optical image data and stylus image data generated by the image data generation unit, and an image selection unit You may further provide the display part which displays the image based on one of the selected optical image data and stylus image data.

この場合、使用者が、表面形状データに基づく観察対象物の表面形状、および触針検出データに基づく観察対象物の表面形状を視覚的に認識することができる。また、使用者が画像選択部を操作することにより、これらの画像を選択的に表示部に表示させることができる。   In this case, the user can visually recognize the surface shape of the observation object based on the surface shape data and the surface shape of the observation object based on the stylus detection data. Further, when the user operates the image selection unit, these images can be selectively displayed on the display unit.

11)第2の発明に係る表面形状検出方法は、観察対象物の表面形状を検出するための表面形状検出方法であって、観察対象物の表面に光を照射するとともに観察対象物に照射された光を受光素子に導くステップと、受光素子の出力信号に基づいて観察対象物の表面形状を表す表面形状データを生成するステップと、仮想的に設定された触針の形状を表す触針データを記憶するステップと、生成された表面形状データおよび記憶される触針データに基づいて、触針が観察対象物の表面を移動する場合の触針の動きに相当する触針検出データを生成するステップと備え、触針は、基準位置と曲面状の先端部とを有し、触針データは、先端部の曲率に関する曲率情報を含み、触針検出データは、触針が観察対象物の表面を移動する場合における基準位置の軌跡を表すものである。 ( 11 ) A surface shape detection method according to a second invention is a surface shape detection method for detecting the surface shape of an observation object, and irradiates the observation object with light while irradiating the surface of the observation object with light. A step of guiding the emitted light to the light receiving element, a step of generating surface shape data representing the surface shape of the observation object based on an output signal of the light receiving element, and a stylus representing a virtually set shape of the stylus Based on the step of storing data and the generated surface shape data and stored stylus data, stylus detection data corresponding to the movement of the stylus when the stylus moves on the surface of the observation object is generated. and a step of, stylus includes a reference position and a curved tip, stylus data includes a curvature information about the curvature of the tip, stylus detection data, the stylus observation target When moving the surface of It illustrates a locus of that reference position.

この表面形状検出方法においては、観察対象物の表面に光が照射されるとともにその照射された光が受光素子に導かれる。受光素子の出力信号に基づいて観察対象物の表面形状を表す表面形状データが生成される。また、仮想的に設定された触針の形状を表す触針データが記憶される。生成された表面形状データおよび記憶される触針データに基づいて、触針が観察対象物の表面を移動する場合の触針の動きに相当する触針検出データが生成される。   In this surface shape detection method, light is irradiated on the surface of the observation object and the irradiated light is guided to the light receiving element. Surface shape data representing the surface shape of the observation object is generated based on the output signal of the light receiving element. In addition, stylus data representing a virtually set stylus shape is stored. Based on the generated surface shape data and stored stylus data, stylus detection data corresponding to the movement of the stylus when the stylus moves on the surface of the observation object is generated.

このように、観察対象物の表面形状が光学的に検出されることにより高い精度を有する表面形状データが得られる。また、表面形状データに基づいて、触針を用いて観察対象物の表面形状が検出される場合と等価な触針検出データが得られる。この場合、触針検出データを触針式の粗さ計により得られるデータと同等に扱うことができる。それにより、触針検出データと触針式の粗さ計により得られるデータとの比較および照合が可能となる。したがって、表面形状データおよび触針検出データを選択的に用いることにより、種々のデータの比較および照合を効率よく行うことができる。
また、触針は、基準位置と曲面状の先端部とを有し、触針データは、先端部の曲率に関する曲率情報を含み、触針検出データは、触針が観察対象物の表面を移動する場合における基準位置の軌跡を表す。これにより、曲率情報に基づいて触針の基準位置の軌跡を求めることができる。
Thus, surface shape data having high accuracy can be obtained by optically detecting the surface shape of the observation object. Further, stylus detection data equivalent to the case where the surface shape of the observation object is detected using the stylus is obtained based on the surface shape data. In this case, stylus detection data can be handled in the same way as data obtained by a stylus roughness meter. This makes it possible to compare and collate the stylus detection data with the data obtained from the stylus roughness meter. Therefore, by selectively using the surface shape data and the stylus detection data, it is possible to efficiently compare and collate various data.
The stylus has a reference position and a curved tip, the stylus data includes curvature information regarding the curvature of the tip, and the stylus detection data indicates that the stylus moves on the surface of the observation object. The locus of the reference position in the case of Thereby, the locus | trajectory of the reference | standard position of a stylus can be calculated | required based on curvature information.

12)第3の発明に係る表面形状検出プログラムは、観察対象物の表面形状を検出するための表面形状検出処理を処理装置に実行させる表面形状検出プログラムであって、観察対象物の表面に光を照射するとともに観察対象物に照射された光を受光素子に導く処理と、受光素子の出力信号に基づいて観察対象物の表面形状を表す表面形状データを生成する処理と、仮想的に設定された触針の形状を表す触針データを記憶する処理と、生成された表面形状データおよび記憶される触針データに基づいて、触針が観察対象物の表面を移動する場合の触針の動きに相当する触針検出データを生成する処理とを、処理装置に実行させ、触針は、基準位置と曲面状の先端部とを有し、触針データは、先端部の曲率に関する曲率情報を含み、触針検出データは、触針が観察対象物の表面を移動する場合における基準位置の軌跡を表すものである。 ( 12 ) A surface shape detection program according to a third aspect of the invention is a surface shape detection program for causing a processing device to execute a surface shape detection process for detecting the surface shape of an observation object, on the surface of the observation object. A process for irradiating light and guiding the light irradiated to the observation target to the light receiving element, a process for generating surface shape data representing the surface shape of the observation target based on the output signal of the light receiving element, and a virtual setting Of the stylus when the stylus moves on the surface of the object to be observed based on the processing for storing the stylus data representing the shape of the stylus and the generated surface shape data and the stored stylus data. The processing device generates processing for generating stylus detection data corresponding to movement , the stylus has a reference position and a curved tip, and the stylus data includes curvature information regarding the curvature of the tip. Including stylus detection Chromatography data is representative of the trajectory of the reference position in the case of moving the surface of the stylus is observed object.

この表面形状検出プログラムによれば、観察対象物の表面に光が照射されるとともにその照射された光が受光素子に導かれる。受光素子の出力信号に基づいて観察対象物の表面形状を表す表面形状データが生成される。また、仮想的に設定された触針の形状を表す触針データが記憶される。生成された表面形状データおよび記憶される触針データに基づいて、触針が観察対象物の表面を移動する場合の触針の動きに相当する触針検出データが生成される。 According to the surface shape detection program, the surface of the observation object is irradiated with light and the irradiated light is guided to the light receiving element. Surface shape data representing the surface shape of the observation object is generated based on the output signal of the light receiving element. In addition, stylus data representing a virtually set stylus shape is stored. Based on the generated surface shape data and stored stylus data, stylus detection data corresponding to the movement of the stylus when the stylus moves on the surface of the observation object is generated.

このように、観察対象物の表面形状が光学的に検出されることにより高い精度を有する表面形状データが得られる。また、表面形状データに基づいて、触針を用いて観察対象物の表面形状が検出される場合と等価な触針検出データが得られる。この場合、触針検出データを触針式の粗さ計により得られるデータと同等に扱うことができる。それにより、触針検出データと触針式の粗さ計により得られるデータとの比較および照合が可能となる。したがって、表面形状データおよび触針検出データを選択的に用いることにより、種々のデータの比較および照合を効率よく行うことができる。
また、触針は、基準位置と曲面状の先端部とを有し、触針データは、先端部の曲率に関する曲率情報を含み、触針検出データは、触針が観察対象物の表面を移動する場合における基準位置の軌跡を表す。これにより、曲率情報に基づいて触針の基準位置の軌跡を求めることができる。
Thus, surface shape data having high accuracy can be obtained by optically detecting the surface shape of the observation object. Further, stylus detection data equivalent to the case where the surface shape of the observation object is detected using the stylus is obtained based on the surface shape data. In this case, stylus detection data can be handled in the same way as data obtained by a stylus roughness meter. This makes it possible to compare and collate the stylus detection data with the data obtained from the stylus roughness meter. Therefore, by selectively using the surface shape data and the stylus detection data, it is possible to efficiently compare and collate various data.
The stylus has a reference position and a curved tip, the stylus data includes curvature information regarding the curvature of the tip, and the stylus detection data indicates that the stylus moves on the surface of the observation object. The locus of the reference position in the case of Thereby, the locus | trajectory of the reference | standard position of a stylus can be calculated | required based on curvature information.

触針式の粗さ計により得られるデータとの比較および照合が可能な触針検出データが得られる。   The stylus detection data that can be compared and collated with the data obtained by the stylus type roughness meter is obtained.

本発明の一実施の形態に係る共焦点顕微鏡システムの構成を示すブロック図である。It is a block diagram which shows the structure of the confocal microscope system which concerns on one embodiment of this invention. X方向、Y方向およびZ方向を定義するための図である。It is a figure for defining an X direction, a Y direction, and a Z direction. 1つの画素において観察対象物のZ方向の位置と受光素子の受光強度との関係を示す図である。It is a figure which shows the relationship between the position of the Z direction of an observation target object, and the light reception intensity | strength of a light receiving element in one pixel. 観察対象物の表面形状を示す図である。It is a figure which shows the surface shape of an observation target object. 断面曲線データの生成時におけるレーザ光の走査方法を示す図である。It is a figure which shows the scanning method of the laser beam at the time of the production | generation of cross-section curve data. 複数の帯状領域における断面曲線データの連結方法を示す図である。It is a figure which shows the connection method of the cross-section curve data in a some strip | belt-shaped area | region. 断面曲線データにより表される断面曲線と触針との関係について説明するための図である。It is a figure for demonstrating the relationship between the cross-section curve represented by cross-section curve data, and a stylus. 断面曲線データにより表される断面曲線と触針との関係について説明するための図である。It is a figure for demonstrating the relationship between the cross-section curve represented by cross-section curve data, and a stylus. 断面曲線データにより表される断面曲線と触針との関係について説明するための図である。It is a figure for demonstrating the relationship between the cross-section curve represented by cross-section curve data, and a stylus. 断面曲線データにより表される断面曲線と触針との関係について説明するための図である。It is a figure for demonstrating the relationship between the cross-section curve represented by cross-section curve data, and a stylus. 断面曲線データにより表される断面曲線と触針との関係について説明するための図である。It is a figure for demonstrating the relationship between the cross-section curve represented by cross-section curve data, and a stylus. スタイラス検出データにより表される断面曲線を示す図である。It is a figure which shows the cross-sectional curve represented by stylus detection data. 触針の形状を表す関数g(x)について説明するための図である。It is a figure for demonstrating the function g (x) showing the shape of a stylus. スタイラス断面曲線を表す式について説明するための図である。It is a figure for demonstrating the type | formula showing a stylus cross-section curve. スタイラス断面曲線を表す式について説明するための図である。It is a figure for demonstrating the type | formula showing a stylus cross-section curve. 断面曲線データにより表される断面曲線の部分拡大図である。It is the elements on larger scale of the cross-sectional curve represented by cross-section curve data. 図16の断面曲線データからスタイラス検出データを生成する過程を示す図である。It is a figure which shows the process which produces | generates stylus detection data from the cross-section curve data of FIG. スタイラス検出データにより表されるスタイラス断面曲線の部分拡大図である。It is the elements on larger scale of the stylus section curve expressed by stylus detection data. 表示部の表示例を示す図である。It is a figure which shows the example of a display of a display part. スタイラス設定画像を示す図である。It is a figure which shows a stylus setting image. 共焦点顕微鏡システムにおける表面形状検出処理を示すフローチャートである。It is a flowchart which shows the surface shape detection process in a confocal microscope system. スタイラス検出データの生成方法の他の例について説明するための図である。It is a figure for demonstrating the other example of the production | generation method of stylus detection data. スタイラス検出データの生成方法の他の例について説明するための図である。It is a figure for demonstrating the other example of the production | generation method of stylus detection data. スタイラス検出データの生成方法の他の例について説明するための図である。It is a figure for demonstrating the other example of the production | generation method of stylus detection data. スタイラス初期設定画像の一例を示す図である。It is a figure which shows an example of a stylus initial setting image. 触針の他の例を示す図である。It is a figure which shows the other example of a stylus. レーザ光の走査方向およびステージの実際の移動方向を示す図である。It is a figure which shows the scanning direction of a laser beam, and the actual moving direction of a stage.

以下、本発明の一実施の形態に係る光学式表面形状検出システムについて図面を参照しながら説明する。本実施の形態では、本発明に係る光学式表面形状検出システムの一例として、共焦点顕微鏡システムについて説明する。   Hereinafter, an optical surface shape detection system according to an embodiment of the present invention will be described with reference to the drawings. In the present embodiment, a confocal microscope system will be described as an example of the optical surface shape detection system according to the present invention.

(1)共焦点顕微鏡システムの基本構成
図1は、本発明の一実施の形態に係る共焦点顕微鏡システム500の構成を示すブロック図である。図1に示すように、共焦点顕微鏡システム500は、測定部100、PC(パーソナルコンピュータ)200、操作部250、制御部300および表示部400を備える。測定部100は、レーザ光源10、X−Yスキャン光学系20、受光素子30、照明用白色光源40、カラーCCD(電荷結合素子)カメラ50およびステージ60を含む。ステージ60上には、観察対象物Sが載置される。
(1) Basic Configuration of Confocal Microscope System FIG. 1 is a block diagram showing a configuration of a confocal microscope system 500 according to an embodiment of the present invention. As shown in FIG. 1, the confocal microscope system 500 includes a measurement unit 100, a PC (personal computer) 200, an operation unit 250, a control unit 300, and a display unit 400. The measurement unit 100 includes a laser light source 10, an XY scan optical system 20, a light receiving element 30, an illumination white light source 40, a color CCD (charge coupled device) camera 50, and a stage 60. An observation object S is placed on the stage 60.

レーザ光源10は、例えば半導体レーザである。レーザ光源10から出射されたレーザ光は、レンズ1により平行光に変換された後、ハーフミラー4を透過してX−Yスキャン光学系20に入射する。なお、レーザ光源10に代えて水銀ランプ等の他の光源が用いられてもよい。この場合、水銀ランプ等の光源とX−Yスキャン光学系20との間に帯域通過フィルタが配置される。水銀ランプ等の光源から出射された光は、帯域通過フィルタを通過することにより単色光となり、X−Yスキャン光学系20に入射する。   The laser light source 10 is a semiconductor laser, for example. The laser light emitted from the laser light source 10 is converted into parallel light by the lens 1, passes through the half mirror 4, and enters the XY scan optical system 20. Instead of the laser light source 10, another light source such as a mercury lamp may be used. In this case, a band pass filter is disposed between the light source such as a mercury lamp and the XY scan optical system 20. Light emitted from a light source such as a mercury lamp passes through a band-pass filter, becomes monochromatic light, and enters the XY scan optical system 20.

X−Yスキャン光学系20は、例えばガルバノミラーである。X−Yスキャン光学系20は、ステージ60上の観察対象物Sの表面上においてレーザ光をX方向およびY方向に走査する機能を有する。X方向、Y方向およびZ方向の定義については後述する。X−Yスキャン光学系20により走査されたレーザ光は、ハーフミラー5により反射された後、ハーフミラー6を透過し、対物レンズ3によりステージ60上の観察対象物Sに集光される。なお、ハーフミラー4〜6に代えて偏光ビームスプリッタが用いられてもよい。   The XY scan optical system 20 is, for example, a galvanometer mirror. The XY scan optical system 20 has a function of scanning a laser beam in the X direction and the Y direction on the surface of the observation object S on the stage 60. The definitions of the X direction, the Y direction, and the Z direction will be described later. The laser beam scanned by the XY scanning optical system 20 is reflected by the half mirror 5, then passes through the half mirror 6, and is focused on the observation object S on the stage 60 by the objective lens 3. Instead of the half mirrors 4 to 6, a polarization beam splitter may be used.

観察対象物Sにより反射されたレーザ光は、対物レンズ3およびハーフミラー6を透過した後、ハーフミラー5により反射され、X−Yスキャン光学系20を透過する。X−Yスキャン光学系20を透過したレーザ光は、ハーフミラー4により反射され、レンズ2により集光され、ピンホール部材7のピンホールおよびND(Neutral Density)フィルタ8を透過して受光素子30に入射する。このように、本実施の形態においては反射型の共焦点顕微鏡システム500が用いられるが、観察対象物Sが細胞等の透明体である場合には、透過型の共焦点顕微鏡システムが用いられてもよい。   The laser light reflected by the observation object S passes through the objective lens 3 and the half mirror 6, then is reflected by the half mirror 5, and passes through the XY scan optical system 20. The laser beam that has passed through the XY scan optical system 20 is reflected by the half mirror 4, collected by the lens 2, and transmitted through the pinhole of the pinhole member 7 and the ND (Neutral Density) filter 8 to receive the light receiving element 30. Is incident on. As described above, the reflection type confocal microscope system 500 is used in the present embodiment, but when the observation object S is a transparent body such as a cell, a transmission type confocal microscope system is used. Also good.

ピンホール部材7のピンホールは、レンズ2の焦点位置に配置される。NDフィルタ8は、受光素子30に入射するレーザ光の強度を減衰させるために用いられる。そのため、レーザ光の強度が十分減衰されている場合には、NDフィルタ8は設けられなくてもよい。   The pinhole of the pinhole member 7 is disposed at the focal position of the lens 2. The ND filter 8 is used to attenuate the intensity of laser light incident on the light receiving element 30. Therefore, when the intensity of the laser beam is sufficiently attenuated, the ND filter 8 may not be provided.

本実施の形態では、受光素子30は光電子増倍管である。受光素子30としてフォトダイオードおよび増幅器を用いてもよい。受光素子30は、受光量に対応するアナログの電気信号(以下、受光信号と呼ぶ)を出力する。制御部300は、2つのA/D変換器(アナログ/デジタル変換器)、FIFO(First In First Out)メモリおよびCPU(中央演算処理装置)を含む。受光素子30から出力される受光信号は、制御部300の1つのA/D変換器により一定のサンプリング周期でサンプリングされるとともにデジタル信号に変換される。A/D変換器から出力されるデジタル信号は、FIFOメモリに順次蓄積される。FIFOメモリに蓄積されたデジタル信号は画素データとして順次PC200に転送される。   In the present embodiment, the light receiving element 30 is a photomultiplier tube. A photodiode and an amplifier may be used as the light receiving element 30. The light receiving element 30 outputs an analog electric signal (hereinafter referred to as a light receiving signal) corresponding to the amount of received light. The control unit 300 includes two A / D converters (analog / digital converter), a FIFO (First In First Out) memory, and a CPU (Central Processing Unit). The light reception signal output from the light receiving element 30 is sampled at a constant sampling period by one A / D converter of the control unit 300 and converted into a digital signal. Digital signals output from the A / D converter are sequentially stored in the FIFO memory. The digital signals stored in the FIFO memory are sequentially transferred to the PC 200 as pixel data.

照明用白色光源40は、例えばハロゲンランプまたは白色LED(発光ダイオード)である。照明用白色光源40により発生された白色光は、ハーフミラー6により反射された後、対物レンズ3によりステージ60上の観察対象物Sに集光される。   The illumination white light source 40 is, for example, a halogen lamp or a white LED (light emitting diode). White light generated by the illuminating white light source 40 is reflected by the half mirror 6 and then condensed by the objective lens 3 onto the observation object S on the stage 60.

観察対象物Sにより反射された白色光は、対物レンズ3、ハーフミラー6およびハーフミラー5を透過してカラーCCDカメラ50に入射する。カラーCCDカメラ50に代えてCMOS(相補性金属酸化膜半導体)イメージセンサ等の撮像素子が用いられてもよい。カラーCCDカメラ50は、受光量に対応する電気信号を出力する。カラーCCDカメラ50の出力信号は、制御部300の他の1つのA/D変換器により一定のサンプリング周期でサンプリングされるとともにデジタル信号に変換される。A/D変換器から出力されるデジタル信号は、カメラデータとして順次PC200に転送される。   White light reflected by the observation object S passes through the objective lens 3, the half mirror 6 and the half mirror 5 and enters the color CCD camera 50. An imaging element such as a CMOS (complementary metal oxide semiconductor) image sensor may be used in place of the color CCD camera 50. The color CCD camera 50 outputs an electrical signal corresponding to the amount of received light. The output signal of the color CCD camera 50 is sampled at a constant sampling period by another A / D converter of the control unit 300 and converted into a digital signal. Digital signals output from the A / D converter are sequentially transferred to the PC 200 as camera data.

制御部300は、画素データおよびカメラデータをPC200に与えるとともに、PC200からの指令に基づいて受光素子30の受光感度(ゲイン)およびカラーCCDカメラ50を制御する。また、制御部300は、PC200からの指令に基づいてX−Yスキャン光学系20を制御することによりレーザ光を観察対象物S上でX方向およびY方向に走査させる。   The control unit 300 supplies pixel data and camera data to the PC 200 and controls the light receiving sensitivity (gain) of the light receiving element 30 and the color CCD camera 50 based on a command from the PC 200. Further, the control unit 300 controls the XY scanning optical system 20 based on a command from the PC 200 to scan the laser light on the observation object S in the X direction and the Y direction.

対物レンズ3は、レンズ駆動部63によりZ方向に移動可能に設けられる。制御部300は、PC200からの指令に基づいてレンズ駆動部63を制御することにより対物レンズ3をZ方向に移動させることができる。これにより、対物レンズ3に対する観察対象物Sの相対的なZ方向の位置を変化させることができる。   The objective lens 3 is provided so as to be movable in the Z direction by the lens driving unit 63. The control unit 300 can move the objective lens 3 in the Z direction by controlling the lens driving unit 63 based on a command from the PC 200. Thereby, the position of the observation target S relative to the objective lens 3 in the Z direction can be changed.

PC200は、CPU(中央演算処理装置)210、ROM(リードオンリメモリ)220、作業用メモリ230および記憶装置240を含む。ROM220には、システムプログラムが記憶される。作業用メモリ230は、RAM(ランダムアクセスメモリ)からなり、種々のデータの処理のために用いられる。記憶装置240は、ハードディスク等からなる。記憶装置240には、表面形状検出プログラムが記憶される。また、記憶装置240は、制御部300から与えられる画素データおよびカメラデータ等の種々のデータを保存するために用いられる。表面形状検出プログラムの詳細は後述する。   The PC 200 includes a CPU (Central Processing Unit) 210, a ROM (Read Only Memory) 220, a work memory 230, and a storage device 240. The ROM 220 stores a system program. The working memory 230 includes a RAM (Random Access Memory), and is used for processing various data. The storage device 240 is composed of a hard disk or the like. The storage device 240 stores a surface shape detection program. The storage device 240 is used for storing various data such as pixel data and camera data given from the control unit 300. Details of the surface shape detection program will be described later.

CPU210は、制御部300から与えられる画素データに基づいて画像データを生成する。以下、画素データに基づいて生成される画像データを共焦点画像データと呼ぶ。また、共焦点画像データに基づいて表示される画像を共焦点画像と呼ぶ。   The CPU 210 generates image data based on the pixel data given from the control unit 300. Hereinafter, the image data generated based on the pixel data is referred to as confocal image data. An image displayed based on the confocal image data is referred to as a confocal image.

CPU210は、制御部300から与えられるカメラデータに基づいて画像データを生成する。以下、カメラデータに基づいて生成される画像データをカメラ画像データと呼ぶ。また、カメラ画像データに基づいて表示される画像をカメラ画像と呼ぶ。   The CPU 210 generates image data based on the camera data given from the control unit 300. Hereinafter, the image data generated based on the camera data is referred to as camera image data. An image displayed based on the camera image data is called a camera image.

CPU210は、生成した共焦点画像データおよびカメラ画像データに作業用メモリ230を用いて各種処理を行うとともに、共焦点画像データに基づく共焦点画像およびカメラ画像データに基づくカメラ画像を表示部400に表示させる。また、CPU210は、後述するステージ駆動部62に駆動パルスを与える。   The CPU 210 performs various processes on the generated confocal image data and camera image data using the work memory 230, and displays a confocal image based on the confocal image data and a camera image based on the camera image data on the display unit 400. Let Further, the CPU 210 gives a driving pulse to the stage driving unit 62 described later.

操作部250は、例えばキーボードおよびマウスにより構成される。表示部400は、例えば液晶ディスプレイパネルまたは有機EL(エレクトロルミネッセンス)パネルにより構成される。   The operation unit 250 is configured by a keyboard and a mouse, for example. The display unit 400 is configured by, for example, a liquid crystal display panel or an organic EL (electroluminescence) panel.

ステージ60は、X方向移動機構、Y方向移動機構およびZ方向移動機構を有する。X方向移動機構、Y方向移動機構およびZ方向移動機構には、ステッピングモータが用いられる。   The stage 60 has an X direction moving mechanism, a Y direction moving mechanism, and a Z direction moving mechanism. Stepping motors are used for the X direction moving mechanism, the Y direction moving mechanism, and the Z direction moving mechanism.

ステージ60のX方向移動機構、Y方向移動機構およびZ方向移動機構は、ステージ操作部61およびステージ駆動部62により駆動される。使用者は、ステージ操作部61を手動で操作することにより、ステージ60を対物レンズ3に対して相対的にX方向、Y方向およびZ方向に移動させることができる。   The X direction moving mechanism, the Y direction moving mechanism, and the Z direction moving mechanism of the stage 60 are driven by a stage operation unit 61 and a stage driving unit 62. The user can move the stage 60 in the X direction, the Y direction, and the Z direction relative to the objective lens 3 by manually operating the stage operation unit 61.

ステージ駆動部62は、PC200より与えられる駆動パルスに基づいて、ステージ60のステッピングモータに電流を供給することにより、ステージ60を対物レンズ3に相対的にX方向、Y方向およびZ方向に移動させることができる。   The stage drive unit 62 moves the stage 60 relative to the objective lens 3 in the X direction, the Y direction, and the Z direction by supplying current to the stepping motor of the stage 60 based on the drive pulse given from the PC 200. be able to.

(2)共焦点画像、超深度画像および高さ画像
共焦点顕微鏡システム500の一動作例について説明する。図2は、X方向、Y方向およびZ方向を定義するための図である。図2に示すように、対物レンズ3により集光されたレーザ光が観察対象物Sに照射される。本実施の形態においては、対物レンズ3の光軸の方向をZ方向と定義する。また、Z方向と直交する面において、互いに直交する二方向をそれぞれX方向およびY方向と定義する。X方向、Y方向およびZ方向を矢印X,Y,Zでそれぞれ示す。
(2) Confocal Image, Ultra Depth Image, and Height Image An operation example of the confocal microscope system 500 will be described. FIG. 2 is a diagram for defining the X direction, the Y direction, and the Z direction. As shown in FIG. 2, the observation object S is irradiated with the laser light condensed by the objective lens 3. In the present embodiment, the direction of the optical axis of the objective lens 3 is defined as the Z direction. Further, two directions orthogonal to each other on the surface orthogonal to the Z direction are defined as an X direction and a Y direction, respectively. The X, Y, and Z directions are indicated by arrows X, Y, and Z, respectively.

Z方向において対物レンズ3に対する観察対象物Sの表面の相対的な位置を観察対象物SのZ方向の位置と呼ぶ。共焦点画像データの生成は、単位領域ごとに行なわれる。単位領域は対物レンズ3の倍率により定まる。   The relative position of the surface of the observation object S with respect to the objective lens 3 in the Z direction is referred to as the position of the observation object S in the Z direction. The confocal image data is generated for each unit area. The unit area is determined by the magnification of the objective lens 3.

観察対象物SのZ方向の位置が一定の状態で、X−Yスキャン光学系20により単位領域内のY方向の端部でレーザ光がX方向に走査される。X方向の走査が終了すると、レーザ光がX−Yスキャン光学系20によりY方向に一定の間隔変移される。この状態でレーザ光がX方向に走査される。このように、各単位領域において、X方向に平行な複数の測定ライン(走査線)上でレーザ光が走査される。次に、対物レンズ3がZ方向に移動される。それにより、対物レンズ3のZ方向の位置が前回と異なる一定の状態で、単位領域のX方向およびY方向の走査が行なわれる。観察対象物SのZ方向の複数の位置で単位領域のX方向およびY方向の走査が行なわれる。   While the position of the observation object S in the Z direction is constant, the XY scanning optical system 20 scans the laser beam in the X direction at the end in the Y direction in the unit region. When the scanning in the X direction is completed, the laser beam is shifted by the XY scanning optical system 20 at a constant interval in the Y direction. In this state, the laser beam is scanned in the X direction. Thus, in each unit region, the laser beam is scanned on a plurality of measurement lines (scanning lines) parallel to the X direction. Next, the objective lens 3 is moved in the Z direction. Thereby, the scanning in the X direction and the Y direction of the unit area is performed in a constant state where the position of the objective lens 3 in the Z direction is different from the previous time. The unit region is scanned in the X and Y directions at a plurality of positions in the Z direction of the observation object S.

観察対象物SのZ方向の位置ごとにX方向およびY方向の走査により共焦点画像データが生成される。これにより、単位領域内でZ方向の位置が異なる複数の共焦点画像データが生成される。   Confocal image data is generated by scanning in the X and Y directions for each position of the observation object S in the Z direction. As a result, a plurality of confocal image data having different positions in the Z direction within the unit region is generated.

ここで、共焦点画像データのX方向の画素数は、X−Yスキャン光学系20によるレーザ光のX方向の走査速度と制御部300のサンプリング周期とにより定まる。1回のX方向の走査(1本の走査線)におけるサンプリング数がX方向の画素数となる。また、単位領域の共焦点画像データのY方向の画素数は、X方向の走査の終了ごとのX−Yスキャン光学系20によるレーザ光のY方向の変移量により定まる。Y方向における走査線の数がY方向の画素数となる。さらに、単位領域の共焦点画像データの数は、観察対象物SのZ方向の移動回数により定まる。単位領域の複数の共焦点画像データに基づいて、後述する方法で超深度画像データおよび高さ画像データが生成される。   Here, the number of pixels in the X direction of the confocal image data is determined by the scanning speed of the laser beam in the X direction by the XY scanning optical system 20 and the sampling period of the control unit 300. The number of samples in one X-direction scan (one scan line) is the number of pixels in the X direction. Further, the number of pixels in the Y direction of the confocal image data in the unit area is determined by the amount of shift in the Y direction of the laser beam by the XY scan optical system 20 at the end of scanning in the X direction. The number of scanning lines in the Y direction is the number of pixels in the Y direction. Furthermore, the number of confocal image data in the unit area is determined by the number of movements of the observation object S in the Z direction. Based on the plurality of confocal image data in the unit area, ultra-depth image data and height image data are generated by a method described later.

図2の例では、まず、ステージ60の最初の位置で単位領域s1における観察対象物Sの複数の共焦点画像データが生成されるとともに単位領域s1の超深度画像データおよび高さ画像データが生成される。続いて、ステージ60が順次移動することにより単位領域s2〜s4における観察対象物Sの複数の共焦点画像データが生成されるとともに単位領域s2〜s4の超深度画像データおよび高さ画像データが生成される。この場合、隣接する単位領域の一部が互いに重なるように、単位領域s1〜s4が設定されてもよい。それにより、パターンマッチングを行うことにより、複数の単位領域s1〜s4の超深度画像データおよび高さ画像データを高い精度で連結することができる。特に、複数の単位領域の合計の面積が後述する画素データの取得範囲よりも大きい場合には、取得範囲からはみ出す部分の面積に相当する部分が重なり部分として設定される。   In the example of FIG. 2, first, a plurality of confocal image data of the observation object S in the unit region s1 is generated at the initial position of the stage 60, and ultra-depth image data and height image data of the unit region s1 are generated. Is done. Subsequently, the stage 60 is sequentially moved to generate a plurality of confocal image data of the observation object S in the unit regions s2 to s4 and to generate ultra-depth image data and height image data of the unit regions s2 to s4. Is done. In this case, the unit regions s1 to s4 may be set so that adjacent unit regions partially overlap each other. Thereby, by performing pattern matching, the ultra-depth image data and the height image data of the plurality of unit regions s1 to s4 can be connected with high accuracy. In particular, when the total area of the plurality of unit regions is larger than the pixel data acquisition range described later, a portion corresponding to the area of the portion that protrudes from the acquisition range is set as an overlapping portion.

図3は、1つの画素において観察対象物SのZ方向の位置と受光素子30の受光強度との関係を示す図である。図1に示したように、ピンホール部材7のピンホールはレンズ2の焦点位置に配置される。そのため、観察対象物Sの表面が対物レンズ3の焦点位置にあるときに、観察対象物Sにより反射されたレーザ光がピンホール部材7のピンホールの位置に集光される。それにより、観察対象物Sにより反射されたレーザ光の大部分がピンホール部材7のピンホールを通過して受光素子30に入射する。この場合、受光素子30の受光強度は最大になる。それにより、受光素子30から出力される受光信号の電圧値は最大となる。   FIG. 3 is a diagram showing the relationship between the position of the observation object S in the Z direction and the light receiving intensity of the light receiving element 30 in one pixel. As shown in FIG. 1, the pinhole of the pinhole member 7 is disposed at the focal position of the lens 2. Therefore, when the surface of the observation object S is at the focal position of the objective lens 3, the laser light reflected by the observation object S is condensed at the pinhole position of the pinhole member 7. Thereby, most of the laser beam reflected by the observation object S passes through the pinhole of the pinhole member 7 and enters the light receiving element 30. In this case, the light receiving intensity of the light receiving element 30 is maximized. As a result, the voltage value of the light reception signal output from the light receiving element 30 is maximized.

一方、観察対象物Sが対物レンズ3の焦点位置が外れた位置にあるときには、観察対象物Sにより反射されたレーザ光はピンホール部材7のピンホールの前または後の位置に集光される。それにより、観察対象物Sにより反射されたレーザ光の多くはピンホール部材7のピンホールの周囲の部分で遮られ、受光素子30の受光強度は低下する。それにより、受光素子30から出力される受光信号の電圧値は低下する。   On the other hand, when the observation object S is at a position out of the focal position of the objective lens 3, the laser light reflected by the observation object S is condensed at a position before or after the pinhole of the pinhole member 7. . Thereby, most of the laser light reflected by the observation object S is blocked by the portion around the pinhole of the pinhole member 7, and the light receiving intensity of the light receiving element 30 is reduced. As a result, the voltage value of the light reception signal output from the light receiving element 30 decreases.

このように、観察対象物Sの表面が対物レンズ3の焦点位置にある状態で受光素子30の受光強度分布にピークが現れる。各単位領域の複数の共焦点画像データから、画素ごとにZ方向における受光強度分布が得られる。それにより、画素ごとに受光強度分布のピーク位置とピーク強度(ピークの受光強度)とが得られる。   Thus, a peak appears in the light reception intensity distribution of the light receiving element 30 in a state where the surface of the observation object S is at the focal position of the objective lens 3. The received light intensity distribution in the Z direction is obtained for each pixel from a plurality of confocal image data of each unit region. Thereby, the peak position and peak intensity (peak received light intensity) of the received light intensity distribution are obtained for each pixel.

各単位領域の複数の画素についてのZ方向におけるピーク位置を表すデータを高さ画像データと呼び、高さ画像データに基づいて表示される画像を高さ画像と呼ぶ。高さ画像は、観察対象物Sの表面形状を表す。また、各単位領域の複数の画素についてのピーク強度を表すデータを超深度画像データと呼び、超深度画像データに基づいて表される画像を超深度画像と呼ぶ。超深度画像は、観察対象物Sの表面のすべての部分にピントが合った状態で得られる画像である。PC200は、制御部300から与えられる単位領域の複数の画素データに基づいて単位領域の複数の共焦点画像データを生成し、複数の共焦点画像データに基づいて単位領域の高さ画像データおよび超深度画像データを生成する。   Data representing peak positions in the Z direction for a plurality of pixels in each unit area is referred to as height image data, and an image displayed based on the height image data is referred to as a height image. The height image represents the surface shape of the observation object S. In addition, data representing the peak intensity for a plurality of pixels in each unit area is referred to as ultra-deep image data, and an image represented based on the ultra-depth image data is referred to as an ultra-depth image. The ultra-deep image is an image obtained in a state where all parts of the surface of the observation object S are in focus. The PC 200 generates a plurality of confocal image data of the unit region based on the plurality of pixel data of the unit region given from the control unit 300, and the height image data and the super image of the unit region based on the plurality of confocal image data. Generate depth image data.

(3)断面曲線
図4は、観察対象物Sの表面形状を示す図である。図4(a)に示すように、観察対象物Sの表面は、起伏が連続する形状を有する。観察対象物Sの表面上を垂直な平面(本例では、XZ平面)で切断したとき、その切断面に現れる観察対象物Sの表面上の曲線を断面曲線と呼ぶ。また、断面曲線を表すデータを断面曲線データと呼ぶ。
(3) Sectional Curve FIG. 4 is a diagram showing the surface shape of the observation object S. As shown in FIG. 4A, the surface of the observation object S has a shape in which undulations continue. When the surface of the observation object S is cut along a vertical plane (in this example, the XZ plane), the curve on the surface of the observation object S that appears on the cut surface is called a cross-sectional curve. Data representing a cross-sectional curve is referred to as cross-sectional curve data.

図4(b)に示すように、観察対象物Sの表面において、起伏の周期が比較的短く、起伏の深さに比べて起伏の間隔が比較的小さい断面形状を粗さと呼ぶ。断面曲線から所定のカットオフ波長λcよりも短い波長を有する成分を抽出することにより得られる曲線を粗さ曲線と呼ぶ。図4(c)に示すように、観察対象物Sの表面において、粗さの起伏の周期よりも長い起伏の周期を有する断面形状をうねりと呼ぶ。断面曲線から所定のカットオフ波長λcよりも長い波長を有する成分を抽出することにより得られる曲線をうねり曲線と呼ぶ。   As shown in FIG. 4B, a cross-sectional shape having a relatively short undulation period and a relatively small undulation interval on the surface of the observation object S is called roughness. A curve obtained by extracting a component having a wavelength shorter than the predetermined cutoff wavelength λc from the cross-sectional curve is called a roughness curve. As shown in FIG. 4C, a cross-sectional shape having a undulation period longer than the roughness undulation period on the surface of the observation object S is called undulation. A curve obtained by extracting a component having a wavelength longer than the predetermined cutoff wavelength λc from the cross-sectional curve is called a waviness curve.

図4(b)の粗さ曲線および図4(c)のうねり曲線は、断面曲線データに基づいて生成されてもよく、後述のスタイラス検出データに基づいて生成されてもよい。   The roughness curve of FIG. 4B and the undulation curve of FIG. 4C may be generated based on the cross-sectional curve data, or may be generated based on stylus detection data described later.

なお、表面形状とは、図4(b)に示されるような表面の粗さを意味してもよく、図4(c)に示されるような表面のうねりを意味してもよい。あるいは、表面形状とは、図4(a)に示されるような粗さおよびうねりの両方を含む形状を意味してもよい。   The surface shape may mean a surface roughness as shown in FIG. 4B, or may mean a surface undulation as shown in FIG. 4C. Alternatively, the surface shape may mean a shape including both roughness and waviness as shown in FIG.

(4)断面曲線データの生成
断面曲線データの生成時における共焦点顕微鏡システム500の動作例について説明する。図5は、断面曲線データの生成時におけるレーザ光の走査方法を示す図である。図6は、複数の帯状領域における断面曲線データの連結方法を示す図である。
(4) Generation of Section Curve Data An example of the operation of the confocal microscope system 500 when generating section curve data will be described. FIG. 5 is a diagram illustrating a laser beam scanning method when generating cross-sectional curve data. FIG. 6 is a diagram illustrating a method of connecting cross-sectional curve data in a plurality of belt-like regions.

図5に示すように、断面曲線データの生成時には、X方向に沿って連続する複数(図5では3つ)の帯状領域s10が画素データの取得範囲として設定される。例えば、観察対象物Sのカメラ画像が表示部400(図1)の画面上に表示され、その画像上で使用者により画素データの取得範囲が設定される。   As shown in FIG. 5, when the cross-sectional curve data is generated, a plurality (three in FIG. 5) of strip-like regions s10 that are continuous along the X direction are set as the pixel data acquisition range. For example, a camera image of the observation object S is displayed on the screen of the display unit 400 (FIG. 1), and a pixel data acquisition range is set on the image by the user.

各帯状領域s10では、X方向に平行な複数の測定ライン上でレーザ光が走査される。それにより、PC200は、複数の測定ラインに基づく画素データを制御部300から取得する。各帯状領域s10の幅は、上記の単位領域のY方向の幅より短くてもよく、または単位領域のY方向の幅と等しくてもよい。各帯状領域s10の幅が単位領域のY方向の幅より短い場合、各帯状領域s10に含まれる測定ライン数は、図2の単位領域に含まれる測定ライン数よりも少ない。各帯状領域s10に含まれる測定ラインの数および各測定ラインの長さは、それぞれ予め定められた一定の値であってもよく、または使用者により適宜設定されてもよい。   In each belt-like region s10, laser light is scanned on a plurality of measurement lines parallel to the X direction. Thereby, the PC 200 acquires pixel data based on a plurality of measurement lines from the control unit 300. The width of each band-like region s10 may be shorter than the width of the unit region in the Y direction, or may be equal to the width of the unit region in the Y direction. When the width of each strip region s10 is shorter than the width of the unit region in the Y direction, the number of measurement lines included in each strip region s10 is smaller than the number of measurement lines included in the unit region of FIG. The number of measurement lines and the length of each measurement line included in each belt-like region s10 may be a predetermined value or may be set as appropriate by the user.

複数の帯状領域s10の全体の長さ(以下、評価長さと呼ぶ)は使用者により設定される。各帯状領域s10の測定ライン数および評価長さに応じて、帯状領域s10の数が決定される。   The total length of the plurality of strip-like regions s10 (hereinafter referred to as evaluation length) is set by the user. The number of strip-like regions s10 is determined according to the number of measurement lines and the evaluation length of each strip-like region s10.

各帯状領域s10において、Z方向の位置が異なる複数の画素データが取得される。取得された複数の画素データに基づいて、各測定ラインのピーク位置が取得される。取得された各測定ラインのピーク位置に基づいて、各測定ラインの断面曲線データが生成される。   In each strip region s10, a plurality of pixel data having different positions in the Z direction are acquired. Based on the obtained plurality of pixel data, the peak position of each measurement line is obtained. Based on the acquired peak position of each measurement line, cross-sectional curve data of each measurement line is generated.

図6に示すように、複数(図6では3つ)の帯状領域s10の断面曲線データが互いに連結される。具体的には、複数の帯状領域s10間で、Y方向における位置が一致する複数の測定ラインの断面曲線データが連結される。これにより、複数の帯状領域s10を含む範囲において、測定ライン数分の断面曲線データが生成される。図6においては、断面曲線データを視覚的に表現するために、各帯状領域s10の断面曲線データに基づいて表示される断面曲線が実線で図示される。   As shown in FIG. 6, cross-sectional curve data of a plurality (three in FIG. 6) of strip-like regions s10 are connected to each other. Specifically, cross-sectional curve data of a plurality of measurement lines whose positions in the Y direction coincide with each other between the plurality of strip-like regions s10. Thereby, cross-sectional curve data for the number of measurement lines is generated in a range including the plurality of strip-like regions s10. In FIG. 6, in order to visually express the cross-section curve data, the cross-section curve displayed based on the cross-section curve data of each band-like region s10 is shown by a solid line.

なお、本例では、X方向に一列に並ぶ複数の帯状領域s10が画素データの取得範囲として設定されるが、これに限らず、X方向に複数列に並ぶ複数の帯状領域s10が画素データの取得範囲として設定されてもよい。   In this example, a plurality of band-like regions s10 arranged in a line in the X direction are set as the pixel data acquisition range. However, the present invention is not limited to this, and a plurality of band-like regions s10 arranged in a plurality of columns in the X direction are set as pixel data. It may be set as an acquisition range.

(5)スタイラス検出データ
触針式の粗さ計では、触針(スタイラス)が観察対象物Sの表面上で走査され、その触針の動きが検出されることにより、観察対象物Sの表面形状を表すデータが得られる。本実施の形態では、上記の断面曲線データに基づいて、触針式の粗さ計により得られるデータと等価のデータ(以下、スタイラス検出データと呼ぶ)が生成される。
(5) Stylus detection data In the stylus type roughness meter, the stylus is scanned on the surface of the observation object S, and the movement of the stylus is detected, whereby the surface of the observation object S is detected. Data representing the shape is obtained. In the present embodiment, data equivalent to data obtained by a stylus roughness meter (hereinafter referred to as stylus detection data) is generated based on the cross-sectional curve data.

ここで、スタイラス検出データについて説明する。図7〜図11は、断面曲線データにより表される断面曲線(以下、光学断面曲線と呼ぶ)と触針との関係とを示す図である。図7〜図11において、実線は光学断面曲線を示し、一点鎖線は仮想的に設定される触針を示す。図7〜図11の光学断面曲線は、後述のフィルタリング処理後の断面曲線データにより表される光学断面曲線であり、観察対象物Sの実際の断面曲線と高い精度で一致する。図12は、スタイラス断面曲線を示す図である。図12において、実線はスタイラス断面曲線を示し、点線は光学断面曲線を示す。   Here, stylus detection data will be described. 7 to 11 are diagrams showing a relationship between a cross-section curve (hereinafter referred to as an optical cross-section curve) represented by the cross-section curve data and a stylus. 7 to 11, a solid line indicates an optical cross-sectional curve, and an alternate long and short dash line indicates a stylus that is virtually set. The optical cross-sectional curves in FIGS. 7 to 11 are optical cross-sectional curves represented by cross-sectional curve data after filtering processing described later, and coincide with the actual cross-sectional curve of the observation object S with high accuracy. FIG. 12 is a diagram showing a stylus cross-sectional curve. In FIG. 12, a solid line shows a stylus cross-section curve, and a dotted line shows an optical cross-section curve.

図7に示すように、触針STの先端部には、下方に向かって漸次小さくなる直径を有するテーパ部TA、およびそのテーパ部TAの下端部に設けられる球面形状の接触部TEが設けられる。なお、図7〜図11では、接触部TEが円形で示される。接触部TEの下端中央に基準点SSが設定される。本実施の形態では、2次元(XZ平面上)での触針STの形状(断面形状)が設定される。触針STの形状は、例えば、テーパ部TAがなす角度(以下、テーパ角と呼ぶ)θおよび接触部TEの曲率半径(以下、先端半径と呼ぶ)TRを含む。設定された触針STの形状は、触針データとして図1の作業用メモリ230または記憶装置240に記憶される。   As shown in FIG. 7, the tip of the stylus ST is provided with a tapered portion TA having a diameter that gradually decreases downward, and a spherical contact portion TE provided at the lower end of the tapered portion TA. . In addition, in FIGS. 7-11, the contact part TE is shown circularly. A reference point SS is set at the center of the lower end of the contact part TE. In the present embodiment, the shape (cross-sectional shape) of the stylus ST in two dimensions (on the XZ plane) is set. The shape of the stylus ST includes, for example, an angle (hereinafter referred to as a taper angle) θ formed by the taper portion TA and a curvature radius (hereinafter referred to as a tip radius) TR of the contact portion TE. The set shape of the stylus ST is stored as stylus data in the work memory 230 or the storage device 240 of FIG.

スタイラス断面曲線SC(図12)は、触針STが観察対象物Sの表面に接触しつつ移動する場合の基準点SSの軌跡に相当する。この場合、テーパ部TAの中心および接触部TEの中心を通る触針STの中心線CLは、Z方向に一致するように設定される。   The stylus cross-section curve SC (FIG. 12) corresponds to the trajectory of the reference point SS when the stylus ST moves while contacting the surface of the observation object S. In this case, the center line CL of the stylus ST passing through the center of the taper part TA and the center of the contact part TE is set to coincide with the Z direction.

基準点SSが観察対象物Sの表面に接触する場合、その表面の部分を表すスタイラス断面曲線SC(図12)は、光学断面曲線DCと一致する。一方、基準点SSが観察対象物Sの表面に接触せずに、接触部TEの他の部分またはテーパ部TAが観察対象物Sの表面に接触する場合、その表面の部分を表すスタイラス断面曲線SCは、光学断面曲線DCと一致しない。この場合、基準点SSが観察対象物Sの上方に位置するので、スタイラス断面曲線SCが光学断面曲線DCの上側に位置する。   When the reference point SS is in contact with the surface of the observation object S, the stylus cross section curve SC (FIG. 12) representing the surface portion coincides with the optical cross section curve DC. On the other hand, when the reference point SS is not in contact with the surface of the observation object S and the other part of the contact part TE or the taper part TA is in contact with the surface of the observation object S, the stylus cross-section curve representing the surface part SC does not coincide with the optical cross section curve DC. In this case, since the reference point SS is located above the observation object S, the stylus sectional curve SC is located above the optical sectional curve DC.

図7〜図11の例では、光学断面曲線DCが、Z方向に垂直な平坦部51、傾斜部52a,52bを有する凸部52、および矩形状の凹部53を含む。図7に示すように、触針STが平坦部51上を移動する場合、触針STの基準点SSが平坦部51に接触する。それにより、図12に示すように、平坦部51を表すスタイラス断面曲線SCの部分は光学断面曲線DCと一致する。   In the example of FIGS. 7 to 11, the optical cross-sectional curve DC includes a flat portion 51 perpendicular to the Z direction, a convex portion 52 having inclined portions 52 a and 52 b, and a rectangular concave portion 53. As shown in FIG. 7, when the stylus ST moves on the flat portion 51, the reference point SS of the stylus ST contacts the flat portion 51. Thereby, as shown in FIG. 12, the portion of the stylus cross section curve SC representing the flat portion 51 coincides with the optical cross section curve DC.

図8に示すように、触針STが凸部52の傾斜部52a上を斜め上方に向かって移動する場合、基準点SSが傾斜部52aから離間する。図9に示すように、触針STが凸部52の上端部(傾斜部52aと傾斜部52bとの境界部)に達すると、基準点SSが凸部52の上端部に接触する。図10に示すように、触針STが凸部52の傾斜部52b上を斜め下方に向かって移動する場合、基準点SSが傾斜部52aから離間する。   As shown in FIG. 8, when the stylus ST moves obliquely upward on the inclined portion 52a of the convex portion 52, the reference point SS is separated from the inclined portion 52a. As shown in FIG. 9, when the stylus ST reaches the upper end portion of the convex portion 52 (the boundary portion between the inclined portion 52 a and the inclined portion 52 b), the reference point SS comes into contact with the upper end portion of the convex portion 52. As shown in FIG. 10, when the stylus ST moves obliquely downward on the inclined portion 52b of the convex portion 52, the reference point SS is separated from the inclined portion 52a.

これにより、図12に示すように、凸部52の傾斜部52a,52bを表すスタイラス断面曲線SCの部分は、光学断面曲線DCと一致せず、凸部52の上端部を表すスタイラス断面曲線SCの部分は、光学断面曲線DCと一致する。また、接触部TEが球面形状を有するので、凸部52の上端部を表す光学断面曲線DCの部分が、角をなすように不連続に変化するのに対して、凸部52の上端部を表すスタイラス断面曲線SCの部分は、円弧を描くように滑らかに変化する。   Accordingly, as shown in FIG. 12, the portion of the stylus sectional curve SC representing the inclined portions 52 a and 52 b of the convex portion 52 does not coincide with the optical sectional curve DC, and the stylus sectional curve SC representing the upper end portion of the convex portion 52. This part corresponds to the optical cross section curve DC. Further, since the contact portion TE has a spherical shape, the portion of the optical cross-section curve DC representing the upper end portion of the convex portion 52 changes discontinuously so as to form a corner, whereas the upper end portion of the convex portion 52 is changed. The portion of the stylus section curve SC that is represented changes smoothly so as to draw an arc.

図11に示すように、触針STが凹部53上を移動する場合、接触部TEの一方側におけるテーパ部TAの部分および接触部TEの他方側におけるテーパ部TAの部分が凹部53の一方の縁部および他方の縁部にそれぞれ接触する。それにより、触針STのZ方向の移動が妨げられ、基準点SSが凹部53の底部53aに到達しない。したがって、凹部53を表すスタイラス断面曲線SCの部分は、光学断面曲線DCと一致しない。   As shown in FIG. 11, when the stylus ST moves on the concave portion 53, the portion of the tapered portion TA on one side of the contact portion TE and the portion of the tapered portion TA on the other side of the contact portion TE are one side of the concave portion 53. It contacts the edge and the other edge, respectively. Thereby, the movement of the stylus ST in the Z direction is hindered, and the reference point SS does not reach the bottom 53 a of the recess 53. Therefore, the portion of the stylus cross section curve SC that represents the recess 53 does not match the optical cross section curve DC.

このように、光学断面曲線DCの細部はスタイラス断面曲線SCに反映されない。また、上記のように、凹部53内への接触部TEの進入が妨げられる場合があるので、Z方向におけるスタイラス断面曲線SCの変位は、Z方向における光学断面曲線DCの変位よりも小さくなる。スタイラス断面曲線SCの精度は、触針STの形状によって異なる。   Thus, the details of the optical cross section curve DC are not reflected in the stylus cross section curve SC. Further, as described above, since the entry of the contact portion TE into the concave portion 53 may be hindered, the displacement of the stylus sectional curve SC in the Z direction is smaller than the displacement of the optical sectional curve DC in the Z direction. The accuracy of the stylus cross-section curve SC varies depending on the shape of the stylus ST.

スタイラス断面曲線SCと触針STの形状との関係について説明する。図13は、触針STの形状を表す関数g(x)について説明するための図である。図13において、x軸はX方向に対応し、z軸はZ方向に対応する。x軸とz軸との交点が基準点SSに設定され、g(0)=0である。関数g(x)に関して、xは有限であってもよく、無限であってもよい。xが無限の場合、テーパ部TAが無限に延びるように設定されてもよい。   The relationship between the stylus sectional curve SC and the shape of the stylus ST will be described. FIG. 13 is a diagram for explaining a function g (x) representing the shape of the stylus ST. In FIG. 13, the x-axis corresponds to the X direction, and the z-axis corresponds to the Z direction. The intersection of the x-axis and the z-axis is set as the reference point SS, and g (0) = 0. Regarding the function g (x), x may be finite or infinite. When x is infinite, the taper portion TA may be set to extend infinitely.

光学断面曲線DCを表す関数をf(x)とすると、スタイラス断面曲線SCは、次式で表される。   If the function representing the optical cross section curve DC is f (x), the stylus cross section curve SC is represented by the following equation.

z(x)=max{f(x+τ)−g(τ)}…(1)
式(1)において、xは、XZ平面におけるX方向の位置(座標)を示し、z(x)は、X方向の位置xにおけるZ方向の位置(座標)を示す。maxは、図13の関数g(x)におけるxの定義域を変数τに与えた場合に取りうる最大値を示す。
z (x) = max {f (x + τ) −g (τ)} (1)
In Expression (1), x represents a position (coordinate) in the X direction on the XZ plane, and z (x) represents a position (coordinate) in the Z direction at the position x in the X direction. max indicates the maximum value that can be taken when the domain of x in the function g (x) in FIG. 13 is given to the variable τ.

図14および図15は、式(1)について説明するための図である。図14において、X方向における触針STの基準点SSの位置はxである。基準点SSからX方向にτ(τは、負の値)だけ離れた位置P1において触針STが光学断面曲線DCに接触する。この場合、位置P1の高さhは、f(x+τ)で表され、位置P1の高さhと基準点SSの高さh1との差Δhは、g(τ)で表される。したがって、基準点SSの高さhは、{f(x+τ)−g(τ)}で表される。 14 and 15 are diagrams for explaining the expression (1). 14, the position of the reference point SS of the stylus ST in the X direction is x 1. The stylus ST contacts the optical cross-sectional curve DC at a position P1 that is separated from the reference point SS in the X direction by τ 11 is a negative value). In this case, the height h 0 of the position P1, f is represented by (x 1 + τ 1), the difference Δh between the height h 1 of the height h 0 and the reference point SS in position P1, g (tau 1) It is represented by Therefore, the height h 1 of the reference point SS is represented by {f (x 1 + τ 1 ) −g (τ 1 )}.

図15に示すように、xの値が維持されつつτの値が変化されることにより、X方向における触針STの位置が一定で、かつ触針STと光学断面曲線DCとの接触位置(交差位置)が異なる場合の基準点SSの高さが求められる。具体的には、基準点SSからX方向にτ(τは、負の値)だけ離れた位置P2において触針STが光学断面曲線DCに交差する場合、基準点SSの高さhは、{f(x+τ)−g(τ)}で表される。基準点SSからX方向にτ(τは、正の値)だけ離れた位置P3において触針STが光学断面曲線DCに交差する場合、基準点SSの高さhは、{f(x+τ)−g(τ)}で表される。基準点SSからX方向にτ(τは、負の値)だけ離れた位置P4において触針STが光学断面曲線DCに交差する場合、基準点SSの高さhは、{f(x+τ)−g(τ)}で表される。この場合、{f(x+τ)−g(τ)}の最大値である{f(x+τ)−g(τ)}が、スタイラス断面曲線SCにより表される値と一致する。 As shown in FIG. 15, by changing the value of τ while maintaining the value of x, the position of the stylus ST in the X direction is constant, and the contact position between the stylus ST and the optical sectional curve DC ( The height of the reference point SS when the (intersection position) is different is obtained. Specifically, when the stylus ST intersects the optical cross-sectional curve DC at a position P2 that is away from the reference point SS in the X direction by τ 22 is a negative value), the height h 2 of the reference point SS. Is represented by {f (x 1 + τ 2 ) −g (τ 2 )}. When the stylus ST intersects the optical cross-sectional curve DC at a position P3 separated from the reference point SS in the X direction by τ 33 is a positive value), the height h 3 of the reference point SS is {f ( x 1 + τ 3 ) −g (τ 3 )}. When the stylus ST intersects the optical cross-sectional curve DC at a position P4 that is separated from the reference point SS in the X direction by τ 44 is a negative value), the height h 4 of the reference point SS is {f ( x 1 + τ 4 ) −g (τ 4 )}. In this case, {f (x 1 + τ 1 ) −g (τ 1 )}, which is the maximum value of {f (x 1 + τ) −g (τ)}, matches the value represented by the stylus section curve SC. .

さらに、xの値が変化されることにより、X方向における触針STの位置が異なる場合の基準点SSの高さが求められ、その最大値がスタイラス断面曲線SCにより表される値と一致する。したがって、X方向の任意の位置におけるスタイラス断面曲線SCの値は、max{f(x+τ)−g(τ)}で表される。   Further, by changing the value of x, the height of the reference point SS when the position of the stylus ST in the X direction is different is obtained, and the maximum value coincides with the value represented by the stylus section curve SC. . Therefore, the value of the stylus cross-section curve SC at an arbitrary position in the X direction is represented by max {f (x + τ) −g (τ)}.

(6)スタイラス検出データの生成
スタイラス検出データの生成方法について説明する。図16は、断面曲線データにより表される断面曲線の部分拡大図である。図17は、図16の断面曲線データからスタイラス検出データを生成する過程を示す図である。図18は、図16の断面曲線データから生成されたスタイラス検出データにより表されるスタイラス断面曲線SCの部分拡大図である。
(6) Generation of Stylus Detection Data A method for generating stylus detection data will be described. FIG. 16 is a partially enlarged view of the cross-sectional curve represented by the cross-sectional curve data. FIG. 17 is a diagram illustrating a process of generating stylus detection data from the cross-sectional curve data of FIG. FIG. 18 is a partially enlarged view of the stylus sectional curve SC represented by the stylus detection data generated from the sectional curve data of FIG.

図16の光学断面曲線DCは、高周波ノイズHNを含む。高周波ノイズHNが含まれたままの断面曲線データDCからスタイラス検出データSCが生成されると、図16に点線で示されるように、スタイラス断面曲線SCの精度が低くなる。   The optical cross section curve DC in FIG. 16 includes high frequency noise HN. When the stylus detection data SC is generated from the cross-sectional curve data DC containing the high-frequency noise HN, the accuracy of the stylus cross-sectional curve SC is lowered as shown by a dotted line in FIG.

そこで、光学断面曲線DCから高周波ノイズHNを除去するため、ローパスフィルタにより断面曲線データのフィルタリング処理が行われる。図17には、フィルタリング処理後の断面曲線データにより表される光学断面曲線DCが示される。上記のように、フィルタリング処理後の光学断面曲線DCは、観察対象物Sの実際の断面曲線と高い精度で一致する。以下、高周波ノイズの除去に用いられるローパスフィルタをノイズフィルタと呼ぶ。ノイズフィルタとして、例えば、ガウシアンフィルタ、単純移動平均フィルタまたはメディアンフィルタが用いられる。   Therefore, in order to remove the high frequency noise HN from the optical cross section curve DC, the cross section curve data is filtered by a low pass filter. FIG. 17 shows an optical cross-sectional curve DC represented by the cross-sectional curve data after the filtering process. As described above, the optical cross-sectional curve DC after the filtering process coincides with the actual cross-sectional curve of the observation object S with high accuracy. Hereinafter, a low-pass filter used for removing high-frequency noise is referred to as a noise filter. As the noise filter, for example, a Gaussian filter, a simple moving average filter, or a median filter is used.

ノイズフィルタの遮断波長(遮断周波数)は、触針STの接触部TEの曲率半径(先端半径)TRまたは直径に応じて決定されることが好ましい。   The cut-off wavelength (cut-off frequency) of the noise filter is preferably determined according to the curvature radius (tip radius) TR or the diameter of the contact portion TE of the stylus ST.

例えば、ノイズフィルタとしてガウシアンフィルタまたは移動平均フィルタが用いられる場合、遮断波長が、接触部TEの直径の0.5倍以上4倍以下に設定されることが好ましい。遮断波長が接触部TEの直径の0.5倍以上であることにより、高周波ノイズを適正に除去することができる。遮断波長が接触部TEの直径の4倍以下であることにより、断面曲線データから高周波ノイズ以外の成分が除去されることが防止される。   For example, when a Gaussian filter or a moving average filter is used as the noise filter, it is preferable that the cutoff wavelength is set to be not less than 0.5 times and not more than 4 times the diameter of the contact part TE. When the cutoff wavelength is 0.5 times or more the diameter of the contact part TE, high frequency noise can be appropriately removed. Since the cutoff wavelength is 4 times or less the diameter of the contact portion TE, components other than high-frequency noise are prevented from being removed from the cross-sectional curve data.

また、移動平均フィルタが用いられる場合、遮断波長が、移動平均点数にサンプリング間隔を乗じるとともにその乗算値を0.443で除した値(移動平均点数×サンプリング間隔/0.443)に略等しくなるように、移動平均点数が設定されることが好ましい。移動平均点数とは、移動平均の算出に用いられるサンプリング点の数である。サンプリング間隔とは、受光素子30から出力される受光信号のサンプリング周期である。   When a moving average filter is used, the cutoff wavelength is approximately equal to a value obtained by multiplying the moving average number by the sampling interval and dividing the multiplied value by 0.443 (moving average number × sampling interval / 0.443). Thus, it is preferable that the moving average score is set. The moving average score is the number of sampling points used for calculating the moving average. The sampling interval is a sampling period of the light reception signal output from the light receiving element 30.

ノイズフィルタとしてメディアンフィルタが用いられる場合、注目点を中心とするフィルタサイズ(点数)が、触針STの接触部TEの曲率半径(先端半径)TRに応じて決定されることが好ましい。例えば、注目点の一方側および他方側の各々における点数が、接触部TEの直径をサンプリング間隔で除した値(2×先端半径TR/サンプリング間隔)の0.5倍以上4倍以下であることが好ましい。上記点数が(2×先端半径TR/サンプリング間隔)の0.5倍以上であることにより、高周波ノイズを適正に除去することができる。上記点数が(2×TR/サンプリング間隔)の4倍以下であることにより、断面曲線データから高周波ノイズ以外の成分が除去されることが防止される。   When a median filter is used as the noise filter, it is preferable that the filter size (score) centered on the point of interest is determined according to the radius of curvature (tip radius) TR of the contact portion TE of the stylus ST. For example, the number of points on one side and the other side of the point of interest is 0.5 times or more and 4 times or less the value obtained by dividing the diameter of the contact portion TE by the sampling interval (2 × tip radius TR / sampling interval). Is preferred. When the above score is 0.5 times or more of (2 × tip radius TR / sampling interval), high frequency noise can be appropriately removed. When the score is 4 times or less of (2 × TR / sampling interval), components other than high-frequency noise are prevented from being removed from the cross-sectional curve data.

次に、フィルタリング処理後の光学断面曲線DCおよび予め設定された触針データに基づいて、図18のスタイラス断面曲線SCを表すスタイラス検出データが生成される。スタイラス検出データの生成には、例えば上式(1)が用いられる。この場合、式(1)のf(x)として、フィルタリング処理後の断面曲線データにより表される光学断面曲線DCを表す関数が用いられる。   Next, stylus detection data representing the stylus cross-section curve SC of FIG. 18 is generated based on the optical cross-section curve DC after filtering and preset stylus data. For example, the above formula (1) is used to generate the stylus detection data. In this case, a function representing the optical cross-sectional curve DC represented by the cross-sectional curve data after the filtering process is used as f (x) in Expression (1).

(7)表示部による表示
断面曲線データにより表される光学断面曲線DCまたはスタイラス検出データにより表されるスタイラス断面曲線SCは、図1の表示部400の画面上に表示される。図19は、表示部400の表示例を示す図である。図19の例では、表示部400の画面上に、画像表示領域410および解析結果表示領域430が表示される。画像表示領域410には、後述の超深度線状データに基づく超深度線状画像が表示される。また、超深度線状画像上に、複数の測定ラインが表示される。表示される測定ラインは、レーザ光が照射される全測定ラインのうちの予め設定された一部または全部である。
(7) Display by Display Unit The optical sectional curve DC represented by the sectional curve data or the stylus sectional curve SC represented by the stylus detection data is displayed on the screen of the display unit 400 of FIG. FIG. 19 is a diagram illustrating a display example of the display unit 400. In the example of FIG. 19, an image display area 410 and an analysis result display area 430 are displayed on the screen of the display unit 400. In the image display area 410, an ultra-deep linear image based on ultra-deep linear data described later is displayed. In addition, a plurality of measurement lines are displayed on the ultradeep linear image. The displayed measurement lines are a part or all of the preset measurement lines of all the measurement lines irradiated with the laser light.

解析結果表示領域430は、断面曲線表示部431、輪郭曲線表示部432、パラメータ設定部433およびパラメータ表示部434を含む。使用者は、操作部250(図1)を操作することにより画像表示領域410に表示される超深度線状画像上の複数の測定ラインの1つを指定する。断面曲線表示部431には、使用者により指定された複数の測定ラインの1つに対応する光学断面曲線またはスタイラス断面曲線が表示される。この場合、断面曲線データに基づいて光学断面曲線に対応する画像データが生成され、その画像データに基づいて光学断面曲線が表示される。また、スタイラス検出データに基づいてスタイラス断面曲線に対応する画像データが生成され、その画像データに基づいてスタイラス断面曲線が表示される。   The analysis result display area 430 includes a cross-section curve display unit 431, a contour curve display unit 432, a parameter setting unit 433, and a parameter display unit 434. The user designates one of a plurality of measurement lines on the ultra-deep linear image displayed in the image display area 410 by operating the operation unit 250 (FIG. 1). The cross-section curve display unit 431 displays an optical cross-section curve or a stylus cross-section curve corresponding to one of a plurality of measurement lines designated by the user. In this case, image data corresponding to the optical cross-sectional curve is generated based on the cross-sectional curve data, and the optical cross-sectional curve is displayed based on the image data. Further, image data corresponding to the stylus cross section curve is generated based on the stylus detection data, and the stylus cross section curve is displayed based on the image data.

輪郭曲線表示部432には、断面曲線表示部431に表示される断面曲線に対応する粗さ曲線またはうねり曲線が表示される。すなわち、断面曲線表示部431に光学断面曲線が表示される場合には、光学断面曲線に対応する粗さ曲線またはうねり曲線が輪郭曲線表示部432に表示される。断面曲線表示部431にスタイラス断面曲線が表示される場合には、スタイラス断面曲線に対応する粗さ曲線またはうねり曲線が輪郭曲線表示部432に表示される。   The contour curve display unit 432 displays a roughness curve or a waviness curve corresponding to the cross-section curve displayed on the cross-section curve display unit 431. That is, when an optical cross-sectional curve is displayed on the cross-sectional curve display unit 431, a roughness curve or a waviness curve corresponding to the optical cross-sectional curve is displayed on the contour curve display unit 432. When the stylus cross-section curve is displayed on the cross-section curve display portion 431, a roughness curve or a waviness curve corresponding to the stylus cross-section curve is displayed on the contour curve display portion 432.

なお、断面曲線表示部431に光学断面曲線が表示される場合、フィルタリング処理後(図17参照)の断面曲線データに基づいて光学断面曲線に対応する画像データが生成されてもよい。さらに、フィルタフィング処理後の断面曲線データに基づいて粗さ曲線およびうねり曲線に対応する画像データが生成されてもよい。   When the optical cross-sectional curve is displayed on the cross-sectional curve display unit 431, image data corresponding to the optical cross-sectional curve may be generated based on the cross-sectional curve data after the filtering process (see FIG. 17). Furthermore, image data corresponding to the roughness curve and the waviness curve may be generated based on the cross-sectional curve data after the filtering process.

使用者は、操作部250(図1)を操作することにより、パラメータ設定部433において粗さ曲線とうねり曲線とを識別するカットオフ波長λc、粗さ曲線の下限波長λsおよびうねり曲線の上限波長λfを設定することができる。また、パラメータ設定部433は、図示しない表示切替部および設定画像表示部を含む。使用者は、操作部250(図1)の操作によってパラメータ設定部433の表示切替部を選択することにより、光学断面曲線およびスタイラス断面曲線を断面曲線表示部431に選択的に表示させることができる。例えば、操作部250のマウスの1クリックによって光学断面曲線およびスタイラス断面曲線の表示の切替が行われる。この場合、光学断面曲線およびスタイラス断面曲線の表示を容易に切り替えることができる。また、使用者は、操作部250(図1)の操作によってパラメータ設定部433の設定画像表示指示部を選択することにより、スタイラス検出データの生成条件を設定するためのスタイラス設定画像を表示部400の画面上に表示させることができる。   The user operates the operation unit 250 (FIG. 1), so that the parameter setting unit 433 discriminates the roughness curve from the undulation curve, the cutoff wavelength λc, the lower limit wavelength λs of the roughness curve, and the upper limit wavelength of the undulation curve. λf can be set. The parameter setting unit 433 includes a display switching unit and a setting image display unit (not shown). The user can selectively display the optical section curve and the stylus section curve on the section curve display section 431 by selecting the display switching section of the parameter setting section 433 by operating the operation section 250 (FIG. 1). . For example, the display of the optical cross section curve and the stylus cross section curve is switched by one click of the mouse of the operation unit 250. In this case, the display of the optical cross section curve and the stylus cross section curve can be easily switched. Further, the user selects a setting image display instruction unit of the parameter setting unit 433 by operating the operation unit 250 (FIG. 1), thereby displaying a stylus setting image for setting the stylus detection data generation condition on the display unit 400. Can be displayed on the screen.

図20は、スタイラス設定画像を示す図である。図20のスタイラス設定画像440は、図19の画像表示領域410および解析結果表示領域430の少なくとも一部と重なるように、表示部400の画面上に表示される。図20に示すように、スタイラス設定画像440は、半径設定部441、角度設定部442およびフィルタ強度設定部443を含む。使用者は、操作部250(図1)を操作することにより、半径設定部441に数値を入力し、触針データとして先端半径TRを設定する。また、使用者は、操作部250(図1)を操作することにより、角度設定部442に数値を入力し、触針データとしてテーパ角θを設定する。テーパ角θは、例えば60度に設定される。   FIG. 20 is a diagram illustrating a stylus setting image. The stylus setting image 440 of FIG. 20 is displayed on the screen of the display unit 400 so as to overlap at least part of the image display area 410 and the analysis result display area 430 of FIG. As shown in FIG. 20, the stylus setting image 440 includes a radius setting unit 441, an angle setting unit 442, and a filter strength setting unit 443. The user operates the operation unit 250 (FIG. 1) to input a numerical value to the radius setting unit 441 and set the tip radius TR as stylus data. Further, the user operates the operation unit 250 (FIG. 1) to input a numerical value to the angle setting unit 442 and set the taper angle θ as stylus data. The taper angle θ is set to 60 degrees, for example.

半径設定部441および角度設定部442において、予め記憶された複数の数値から一の数値が選択されることにより、先端半径TRおよびテーパ角θが設定されてもよい。例えば、先端半径TRとして、ISO(国際標準化機構)等において定められた規格である2μm、5μmおよび10μmが予め記憶され、これらのうち一の数値が選択可能であってもよい。   The radius setting unit 441 and the angle setting unit 442 may set the tip radius TR and the taper angle θ by selecting one value from a plurality of previously stored values. For example, 2 μm, 5 μm, and 10 μm, which are standards determined by ISO (International Organization for Standardization) or the like, are stored in advance as the tip radius TR, and one of these values may be selectable.

使用者は、操作部250(図1)を操作することにより、フィルタ強度設定部443においてノイズフィルタの強度を設定する。例えば、「強」、「中」、「弱」および「なし」のうちのいずれかが選択されることにより、ノイズフィルタの強度が設定される。   The user operates the operation unit 250 (FIG. 1) to set the noise filter strength in the filter strength setting unit 443. For example, the strength of the noise filter is set by selecting any one of “strong”, “medium”, “weak”, and “none”.

例えば、ノイズフィルタとしてメディアンフィルタが用いられる場合、「中」が選択されると、接触部TEの直径をサンプリング間隔で除した値(2×先端半径TR/サンプリング間隔)がフィルタサイズに設定され、「弱」が選択されると、その2分の1の値がフィルタサイズに設定され、「強」が選択されると、その2倍の値がフィルタサイズに設定される。「なし」が選択されると、フィルタリング処理は行われない。   For example, when a median filter is used as the noise filter, when “medium” is selected, a value obtained by dividing the diameter of the contact portion TE by the sampling interval (2 × tip radius TR / sampling interval) is set as the filter size. When “weak” is selected, the half value is set as the filter size, and when “strong” is selected, twice the value is set as the filter size. When “None” is selected, the filtering process is not performed.

スタイラス設定画像440において、ノイズフィルタの種類が選択可能であってもよい。例えば、上記のガウシアンフィルタ、移動平均フィルタおよびメディアンフィルタのうちいずれかが選択可能であってもよい。   In the stylus setting image 440, the type of noise filter may be selectable. For example, any one of the Gaussian filter, the moving average filter, and the median filter may be selectable.

使用者がスタイラス設定画像の「OK」ボタン444を選択することにより、上記の各種設定が入力された値および選択された強度に更新されるとともに、スタイラス設定画像が閉じられる。使用者がスタイラス設定画像の「キャンセル」ボタン445または「×」ボタン446を選択することにより、上記の設定が更新されることなく、スタイラス設定画像が閉じられる。   When the user selects the “OK” button 444 of the stylus setting image, the above various settings are updated to the input value and the selected intensity, and the stylus setting image is closed. When the user selects the “cancel” button 445 or “x” button 446 of the stylus setting image, the stylus setting image is closed without updating the above settings.

パラメータ表示部434には、複数の測定ラインの各々について算出された表面性状パラメータが表示される。表面性状パラメータは、最大山高さRp、最大谷深さRv、最大高さRz、平均高さRcおよび算術平均粗さRa等の種々のパラメータを含む。断面曲線表示部431に光学断面曲線が表示される場合には、断面曲線データに基づいて算出された表面性状パラメータがパラメータ表示部434に表示される。断面曲線表示部431にスタイラス断面曲線が表示される場合には、スタイラス検出データに基づいて算出された表面性状パラメータがパラメータ表示部434に表示される。   The parameter display unit 434 displays the surface texture parameters calculated for each of the plurality of measurement lines. The surface texture parameters include various parameters such as maximum peak height Rp, maximum valley depth Rv, maximum height Rz, average height Rc, and arithmetic average roughness Ra. When the optical cross-sectional curve is displayed on the cross-sectional curve display unit 431, the surface property parameter calculated based on the cross-sectional curve data is displayed on the parameter display unit 434. When the stylus cross section curve is displayed on the cross section curve display section 431, the surface property parameter calculated based on the stylus detection data is displayed on the parameter display section 434.

また、パラメータ表示部434には、複数の測定ラインについて算出された表面性状パラメータの平均値、最大値、最小値、最大値と最小値との差、標準偏差(σ)および3倍された標準偏差(3σ)が表示されてもよい。複数の測定ラインについて算出された表面性状パラメータの平均値を算出することにより、後述する断面曲線データからの不要部分の除去が行われない場合でも、算出される表面性状パラメータの信頼性を向上させることができる。   Further, the parameter display unit 434 includes an average value, a maximum value, a minimum value, a difference between the maximum value and the minimum value, a standard deviation (σ), and a tripled standard of the surface texture parameters calculated for a plurality of measurement lines. A deviation (3σ) may be displayed. By calculating the average value of the surface texture parameters calculated for a plurality of measurement lines, the reliability of the calculated surface texture parameters is improved even when unnecessary portions are not removed from the cross-sectional curve data described later. be able to.

パラメータ表示部434には、表面性状パラメータの平均値等の他に、複数の測定ラインについて算出された表面性状パラメータの中心値が表示されてもよく、中心値周辺の数個の数値の平均値が表示されてもよい。また、パラメータ表示部434には、平均値からの乖離が大きい数値が除去され、残りの数値の平均値が表示されてもよい。   In addition to the average value of the surface property parameters, the parameter display unit 434 may display the center value of the surface property parameters calculated for a plurality of measurement lines, and an average value of several numerical values around the center value. May be displayed. Further, the parameter display unit 434 may display a numerical value having a large deviation from the average value and display an average value of the remaining numerical values.

(8)表面形状検出処理
図21は、共焦点顕微鏡システム500における表面形状検出処理を示すフローチャートである。図1のPC200のCPU210は、記憶装置240に記憶される表面形状検出プログラムに従って表面形状検出処理を実行する。
(8) Surface Shape Detection Processing FIG. 21 is a flowchart showing surface shape detection processing in the confocal microscope system 500. The CPU 210 of the PC 200 in FIG. 1 executes surface shape detection processing according to the surface shape detection program stored in the storage device 240.

上記のように、制御部300は、図1のX−Yスキャン光学系20を制御するとともに対物レンズ3のZ方向の位置を移動させ、受光素子30から出力される受光信号に基づいて画素データをPC200のCPU210に与える。CPU210は、制御部300から一の帯状領域の複数の測定ラインの画素データを取得する(ステップS1)。これにより、一の帯状領域の複数の測定ラインにおいて、Z方向の位置が異なる複数の画素データが取得される。CPU210は、取得した複数の測定ラインの画素データに基づいて帯状領域の複数の断面曲線データを生成し(ステップS2)、作業用メモリ230に記憶する。   As described above, the control unit 300 controls the XY scan optical system 20 of FIG. 1 and moves the position of the objective lens 3 in the Z direction, and pixel data based on the light reception signal output from the light receiving element 30. Is given to the CPU 210 of the PC 200. CPU210 acquires the pixel data of the some measurement line of the one strip | belt-shaped area | region from the control part 300 (step S1). Thereby, a plurality of pixel data having different positions in the Z direction are acquired in a plurality of measurement lines in one band-like region. The CPU 210 generates a plurality of cross-section curve data of the band-like region based on the acquired pixel data of the plurality of measurement lines (step S2) and stores the data in the work memory 230.

この場合、各断面曲線データは、各測定ライン上の複数の画素についてのZ方向におけるピーク位置を表す。また、断面曲線は、測定ライン上の表面形状を表す。このとき、帯状領域の複数の測定ラインに対応する複数の超深度線状データが生成される。超深度線状データは、各測定ライン上の複数の画素についてのピーク強度を表すデータである。超深度線状データに基づいて表示される画像を超深度線状画像と呼ぶ。   In this case, each sectional curve data represents a peak position in the Z direction for a plurality of pixels on each measurement line. The cross-sectional curve represents the surface shape on the measurement line. At this time, a plurality of ultra-deep linear data corresponding to a plurality of measurement lines in the band-like region is generated. The ultra-deep linear data is data representing peak intensities for a plurality of pixels on each measurement line. An image displayed based on the ultra-deep linear data is referred to as an ultra-deep linear image.

次に、CPU210は、全ての帯状領域の断面曲線データを生成したか否かを判定する(ステップS3)。全ての帯状領域の断面曲線データを生成していない場合、CPU210は、ステップS1の処理に戻る。CPU210は、次の帯状領域の断面曲線データの生成が可能な位置にステージ60を移動させ、ステップS1〜S3の処理を繰り返す。これにより、全ての帯状領域の複数の測定ラインにおいて、Z方向の位置が異なる複数の画素データが取得される。CPU210は、取得した複数の測定ラインの画素データに基づいて帯状領域の複数の断面曲線データを生成し、作業用メモリ230に記憶する。   Next, the CPU 210 determines whether or not the cross-sectional curve data for all the strip-like regions has been generated (step S3). When the cross-sectional curve data of all the strip-like regions has not been generated, the CPU 210 returns to the process of step S1. CPU210 moves the stage 60 to the position which can produce | generate the cross-sectional curve data of the following strip | belt-shaped area | region, and repeats the process of step S1-S3. As a result, a plurality of pixel data having different positions in the Z direction are acquired in a plurality of measurement lines in all the band-like regions. The CPU 210 generates a plurality of cross-sectional curve data of the belt-like region based on the acquired pixel data of the plurality of measurement lines, and stores the data in the work memory 230.

次に、CPU210は、複数の帯状領域の断面曲線データを作業用メモリ230を用いて連結する(ステップS4)。これにより、予め設定された取得範囲の断面曲線データが生成される。次に、CPU210は、観察対象物Sに塵埃等が付着している断面曲線データの部分を不要部分として推定し、断面曲線データから推定された不要部分を除去する(ステップS5)。これにより、複数の測定ラインの一部の上に塵埃、傷または穴が存在する場合でも、不要部分が除去された断面曲線データに基づいて観察対象物Sの表面形状をより正確に検出することができる。断面曲線データの不要部分の推定方法については後述する。   Next, the CPU 210 connects the cross-sectional curve data of the plurality of band-like regions using the work memory 230 (step S4). Thereby, cross-section curve data of a preset acquisition range is generated. Next, the CPU 210 estimates a portion of the cross-sectional curve data in which dust or the like is attached to the observation object S as an unnecessary portion, and removes the unnecessary portion estimated from the cross-sectional curve data (step S5). Thereby, even when dust, scratches or holes are present on a part of the plurality of measurement lines, the surface shape of the observation object S can be detected more accurately based on the cross-sectional curve data from which unnecessary portions are removed. Can do. A method for estimating the unnecessary portion of the cross-sectional curve data will be described later.

続いて、CPU210は、各断面曲線データに基づいて粗さ曲線データおよびうねり曲線データを算出するとともに表面性状パラメータを算出する(ステップS6)。次に、CPU210は、各断面曲線データに対してフィルタリング処理を行う(ステップS7)。これにより、各断面曲線データから高周波ノイズが除去される(図17)。   Subsequently, the CPU 210 calculates roughness curve data and waviness curve data based on each cross-section curve data and calculates a surface property parameter (step S6). Next, CPU210 performs a filtering process with respect to each cross-section curve data (step S7). Thereby, high frequency noise is removed from each cross-section curve data (FIG. 17).

次に、CPU210は、フィルタリング処理後の各断面曲線データに基づいてスタイラス検出データを生成する(ステップS8)。次に、CPU210は、生成された各スタイラス検出データに基づいて粗さ曲線データおよびうねり曲線データを算出するとともに表面性状パラメータを算出するとともに表面性状パラメータを算出する(ステップS9)。これにより、CPU210は、表面形状検出処理を終了する。   Next, CPU210 produces | generates stylus detection data based on each cross-section curve data after a filtering process (step S8). Next, the CPU 210 calculates roughness curve data and waviness curve data based on each generated stylus detection data, calculates a surface texture parameter, and calculates a surface texture parameter (step S9). Thereby, the CPU 210 ends the surface shape detection process.

このようにして生成された断面曲線データおよびスタイラス検出データに基づいて、表示部400の画面上に光学断面曲線またはスタイラス断面曲線が表示される(図19)。また、算出された粗さ曲線データおよびうねり曲線データに基づいて、表示部400の画面上に粗さ曲線またはうねり曲線が表示される。さらに、算出された表面性状パラメータが表示部400の画面上に表示される。   Based on the cross-sectional curve data and the stylus detection data generated in this way, an optical cross-sectional curve or a stylus cross-sectional curve is displayed on the screen of the display unit 400 (FIG. 19). Further, based on the calculated roughness curve data and undulation curve data, the roughness curve or the undulation curve is displayed on the screen of the display unit 400. Further, the calculated surface property parameter is displayed on the screen of the display unit 400.

なお、ステップS8におけるスタイラス検出データの生成は、断面曲線データの生成直後に行われてもよく、または使用者によりスタイラス断面曲線の表示が選択された際に行われてもよい。ステップS9における粗さ曲線データ、うねり曲線データおよび表面性状パラメータの算出は、例えば、スタイラス検出データの生成直後に行われる。   The generation of the stylus detection data in step S8 may be performed immediately after the generation of the cross-section curve data, or may be performed when the display of the stylus cross-section curve is selected by the user. The calculation of the roughness curve data, the waviness curve data, and the surface property parameter in step S9 is performed immediately after the generation of the stylus detection data, for example.

(9)実施の形態の効果
本実施の形態に係る共焦点顕微鏡システム500においては、受光素子30の出力信号に基づいて観察対象物Sの断面曲線を表す断面曲線データが生成されるとともに、その断面曲線データに基づいて、スタイラス検出データが生成される。
(9) Effect of Embodiment In the confocal microscope system 500 according to the present embodiment, cross-sectional curve data representing the cross-sectional curve of the observation object S is generated based on the output signal of the light receiving element 30, and the Stylus detection data is generated based on the cross-sectional curve data.

スタイラス検出データは、仮想的に設定された触針STが観察対象物Sの表面に接触しつつ移動する場合の触針STの基準点SSの軌跡を表すので、触針式の粗さ計により得られるデータと等価である。そのため、スタイラス検出データを触針式の粗さ計により得られるデータと同等に扱うことができる。したがって、スタイラス検出データと触針式の粗さ計により得られるデータとの比較および照合が可能となる。また、高精度な断面曲線データとスタイラス検出データとを選択的に用いることにより、種々のデータの比較および照合を効率よく行うことができる。   Since the stylus detection data represents the locus of the reference point SS of the stylus ST when the virtually set stylus ST moves while contacting the surface of the observation object S, the stylus detection data is obtained by using a stylus type roughness meter. It is equivalent to the data obtained. Therefore, stylus detection data can be handled in the same way as data obtained by a stylus type roughness meter. Therefore, it is possible to compare and collate stylus detection data with data obtained by a stylus type roughness meter. Further, by selectively using high-precision cross-section curve data and stylus detection data, various data can be compared and collated efficiently.

また、本実施の形態では、フィルタリング処理により高周波ノイズが除去された後の断面曲線データに基づいてスタイラス検出データが生成される。これにより、スタイラス検出データを触針式の粗さ計により得られるデータに近づけることができる。また、触針STの先端半径TRに基づいてフィルタリング処理における遮断波長が設定されるので、断面曲線データから高周波ノイズを適正に除去することができる。   In the present embodiment, stylus detection data is generated based on the cross-sectional curve data after high-frequency noise is removed by filtering processing. Thereby, stylus detection data can be brought close to data obtained by a stylus type roughness meter. In addition, since the cutoff wavelength in the filtering process is set based on the tip radius TR of the stylus ST, high-frequency noise can be appropriately removed from the cross-sectional curve data.

(10)スタイラス検出データの生成方法の他の例
スタイラス検出データの生成方法の他の例について、図16〜図18の例と異なる点を説明する。図22〜図24は、スタイラス検出データの生成方法の他の例について説明するための図である。
(10) Another Example of Method for Generating Stylus Detection Data Another example of the method for generating stylus detection data will be described with respect to differences from the examples in FIGS. 22-24 is a figure for demonstrating the other example of the production | generation method of stylus detection data.

本例では、フィルタリング処理により光学断面曲線DCから高周波ノイズが除去された後、図22(a)〜(c)に示すように、接触部TEのみが光学断面曲線DCに接触しつつ移動する場合の基準点SSの軌跡がスタイラス断面曲線SCaとして求められる。本例では、接触部TEが球形(2次元では円形)に設定される。   In this example, after high-frequency noise is removed from the optical cross-sectional curve DC by the filtering process, as shown in FIGS. 22A to 22C, only the contact portion TE moves while being in contact with the optical cross-sectional curve DC. The trajectory of the reference point SS is obtained as the stylus section curve SCa. In this example, the contact part TE is set to be spherical (circular in two dimensions).

テーパ部TAが接触することなく触針STが移動する光学断面曲線DCの部分に関しては、スタイラス断面曲線SCaが図18のスタイラス断面曲線SCと一致する。具体的には、図22(a)に示すように、平坦部51および凸部52を表すスタイラス断面曲線SCaの部分は、図18のスタイラス断面曲線SCと一致する。   For the portion of the optical cross section curve DC where the stylus ST moves without the taper portion TA contacting, the stylus cross section curve SCa matches the stylus cross section curve SC of FIG. Specifically, as shown in FIG. 22A, the portion of the stylus sectional curve SCa representing the flat portion 51 and the convex portion 52 coincides with the stylus sectional curve SC of FIG.

一方、テーパ部TAが接触しつつ触針STが移動する光学断面曲線DCの部分に関しては、スタイラス断面曲線SCaが図18のスタイラス断面曲線SCと一致しない。上記のように、触針STが凹部53上を移動する場合、テーパ部TAが凹部53の縁部に接触する(図11)。そのため、凹部53内への接触部TEの進入が妨げられ、基準点SSが凹部53の底部53aに到達しない。それに対して、図22(b)および図22(c)に示すように、テーパ部TAが存在しない場合、接触部TEが凹部53内に進入可能である。そのため、基準点SSが凹部53の底部53aに接触する。したがって、凹部53を表すスタイラス断面曲線SCaの部分は、図18のスタイラス断面曲線SCと一致しない。   On the other hand, the stylus cross-sectional curve SCa does not match the stylus cross-sectional curve SC of FIG. As described above, when the stylus ST moves on the concave portion 53, the tapered portion TA contacts the edge of the concave portion 53 (FIG. 11). For this reason, the contact portion TE is prevented from entering the recess 53, and the reference point SS does not reach the bottom 53a of the recess 53. On the other hand, as shown in FIG. 22B and FIG. 22C, when the taper portion TA does not exist, the contact portion TE can enter the recess 53. Therefore, the reference point SS comes into contact with the bottom 53a of the recess 53. Accordingly, the portion of the stylus cross section curve SCa representing the recess 53 does not coincide with the stylus cross section curve SC of FIG.

次に、触針データとして設定されたテーパ角θに基づいて、スタイラス断面曲線SCaの補正すべき部分が検出される。本例では、テーパ部TAが存在する場合、Z方向に対する基準点SSの軌跡の角度が、Z方向に対するテーパ部TAの角度(θ/2)よりも小さくなることはない。そのため、Z方向に対して角度(θ/2)よりも小さい角度をなすスタイラス断面曲線SCaの部分が補正すべき部分として検出される。   Next, a portion to be corrected of the stylus sectional curve SCa is detected based on the taper angle θ set as the stylus data. In this example, when the taper portion TA exists, the angle of the trajectory of the reference point SS with respect to the Z direction does not become smaller than the angle (θ / 2) of the taper portion TA with respect to the Z direction. Therefore, the portion of the stylus cross-sectional curve SCa that forms an angle smaller than the angle (θ / 2) with respect to the Z direction is detected as a portion to be corrected.

具体的には、図23に示すように、凹部53を表すスタイラス断面曲線SCaの部分PT1,PT2が、Z方向に対して角度(θ/2)よりも小さい角度をなす。したがって、部分PT1,PT2が補正すべき部分として検出される。   Specifically, as shown in FIG. 23, portions PT1 and PT2 of the stylus cross-sectional curve SCa representing the recess 53 form an angle smaller than the angle (θ / 2) with respect to the Z direction. Therefore, the parts PT1 and PT2 are detected as parts to be corrected.

次に、検出されたスタイラス断面曲線SCaの部分PT1,PT2が補正されることにより、テーパ部TAが存在する場合の基準点SSの軌跡と一致するスタイラス断面曲線SCaが求められる。具体的には、図24に示すように、Z方向に対する部分PT1,PT2の角度が、角度(θ/2)とそれぞれ一致するように、部分PT1,PT2が補正される。これにより、図18のスタイラス断面曲線SCと同様のスタイラス断面曲線SCaが得られる。   Next, by correcting the portions PT1 and PT2 of the detected stylus cross-section curve SCa, a stylus cross-section curve SCa that matches the locus of the reference point SS when the taper portion TA exists is obtained. Specifically, as shown in FIG. 24, the portions PT1 and PT2 are corrected so that the angles of the portions PT1 and PT2 with respect to the Z direction coincide with the angle (θ / 2), respectively. Thereby, the stylus cross-sectional curve SCa similar to the stylus cross-sectional curve SC of FIG. 18 is obtained.

本例のように、接触部TEのみが光学断面曲線DC上を移動する場合の基準点SSの軌跡を表すスタイラス断面曲線SCaが求められ、そのスタイラス断面曲線SCaが補正されることにより、演算量が大幅に削減される。   As in this example, a stylus cross-section curve SCa representing the locus of the reference point SS when only the contact portion TE moves on the optical cross-section curve DC is obtained, and the stylus cross-section curve SCa is corrected, thereby calculating the amount of calculation. Is greatly reduced.

(11)スタイラス初期設定画像
上記の例では、図19のパラメータ設定部433において、スタイラス断面曲線の表示の有無が切り替えられる。また、図20のスタイラス設定画像において、スタイラス検出データの生成条件が設定される。これらスタイラス断面曲線の表示の有無およびスタイラス検出データの生成条件の初期設定を行うための初期設定画像(以下、スタイラス初期設定画像と呼ぶ)が表示部400の画面上に別途表示されてもよい。
(11) Stylus initial setting image In the above example, the parameter setting unit 433 in FIG. In addition, in the stylus setting image of FIG. 20, stylus detection data generation conditions are set. An initial setting image (hereinafter referred to as a stylus initial setting image) for performing the initial setting of the presence / absence of the stylus cross-section curve and the generation conditions of the stylus detection data may be separately displayed on the screen of the display unit 400.

図25は、スタイラス初期設定画像の一例を示す図である。図25のスタイラス初期設定画像450は、表示設定部451、半径設定部452、角度設定部453およびフィルタ強度設定部454を含む。   FIG. 25 is a diagram illustrating an example of a stylus initial setting image. The stylus initial setting image 450 of FIG. 25 includes a display setting unit 451, a radius setting unit 452, an angle setting unit 453, and a filter strength setting unit 454.

使用者は、操作部250(図1)を操作することにより、表示設定部451において、図19の断面曲線表示部431におけるスタイラス断面曲線の表示の有無を切り替えることができる。例えば、マウスのクリックで表示設定部451がチェックされることにより、初期設定として、断面曲線表示部431(図19)にスタイラス断面曲線が表示される。表示設定部451がチェックされない場合、初期設定として、断面曲線表示部431(図19)に光学断面曲線が表示される。   The user can switch presence / absence of the display of the stylus cross section curve in the cross section curve display section 431 of FIG. 19 in the display setting section 451 by operating the operation section 250 (FIG. 1). For example, when the display setting unit 451 is checked by clicking the mouse, the stylus cross-section curve is displayed on the cross-section curve display unit 431 (FIG. 19) as an initial setting. When the display setting unit 451 is not checked, an optical cross-sectional curve is displayed on the cross-sectional curve display unit 431 (FIG. 19) as an initial setting.

半径設定部452、角度設定部453およびフィルタ強度設定部454においては、図20の半径設定部441、角度設定部442およびフィルタ強度設定部443と同様に、先端半径TR、テーパ角θおよびノイズフィルタの強度が入力される。その入力内容を初期設定として、スタイラス検出データが生成される。   In the radius setting unit 452, the angle setting unit 453, and the filter strength setting unit 454, as with the radius setting unit 441, the angle setting unit 442, and the filter strength setting unit 443 in FIG. Is input. Stylus detection data is generated with the input content as an initial setting.

(11)触針の他の例
上記の例では、触針STがテーパ部TAおよび接触部TEを有するが、触針STの形状はこれに限定されない。比較および照合すべきデータに応じて、触針STの形状を変更することが好ましい。図26は、触針STの他の例を示す図である。図26(a)および図26(b)の触針STa,STbについて、上記の触針STと異なる点を説明する。
(11) Other examples of stylus In the above example, the stylus ST has the tapered portion TA and the contact portion TE, but the shape of the stylus ST is not limited to this. It is preferable to change the shape of the stylus ST according to the data to be compared and verified. FIG. 26 is a diagram illustrating another example of the stylus ST. Differences between the stylus STa and STb in FIGS. 26A and 26B will be described.

図26(a)の触針STaは、接触部TEおよびテーパ部TAに加えて、側面部TGをさらに含む。側面部TGはZ方向に平行であり、テーパ部TAの上端部から上方に延びるように設けられる。触針STaが用いられる場合、触針データとしてテーパ部TAの長さが設定される。テーパ部TAの長さが有限であることにより、Z方向における接触部TEの移動が許容されやすくなる。そのため、スタイラス検出データの精度が高くなる。   The stylus STa of FIG. 26A further includes a side surface portion TG in addition to the contact portion TE and the taper portion TA. The side surface portion TG is parallel to the Z direction and is provided so as to extend upward from the upper end portion of the taper portion TA. When the stylus STa is used, the length of the tapered portion TA is set as the stylus data. Since the length of the taper portion TA is finite, the movement of the contact portion TE in the Z direction is easily allowed. Therefore, the accuracy of the stylus detection data is increased.

図26(b)の触針STbは、テーパ部TAを含まず、側面部TGを含む。側面部TGは、接触部TEから連続的に延びる。触針STbが用いられる場合、テーパ部TAによってZ方向における接触部TEの移動が妨げられない。そのため、スタイラス検出データの精度がより高くなる。この場合、図23のスタイラス断面曲線SCaを表すスタイラス検出データが得られる。   The stylus STb of FIG. 26B does not include the taper portion TA but includes the side surface portion TG. The side surface part TG continuously extends from the contact part TE. When the stylus STb is used, the taper portion TA does not prevent the movement of the contact portion TE in the Z direction. Therefore, the accuracy of the stylus detection data becomes higher. In this case, stylus detection data representing the stylus section curve SCa of FIG. 23 is obtained.

また、上記の触針ST,STa,STbにおいては、接触部TEが球面形状を有するが、接触部TEが他の曲面形状を有してもよい。その場合、触針データとして、接触部TEの曲率半径の代わりに、接触部TEの曲率に関する他の曲率情報が設定される。   In the stylus ST, STa, and STb described above, the contact portion TE has a spherical shape, but the contact portion TE may have another curved shape. In that case, instead of the curvature radius of the contact portion TE, other curvature information related to the curvature of the contact portion TE is set as the stylus data.

(12)ステージの移動補正
ステージ60の取り付け誤差等のため、図1のX−Yスキャン光学系20によるレーザ光の走査方向とステージ60の実際の移動方向とが完全に一致していない場合がある。そこで、ステージ60の実際の移動方向がレーザ光の走査方向に対して傾いている場合に、ステージ60の移動補正が行われてもよい。
(12) Stage Movement Correction Due to an attachment error of the stage 60, the scanning direction of the laser beam by the XY scanning optical system 20 of FIG. 1 may not completely match the actual movement direction of the stage 60. is there. Therefore, the movement correction of the stage 60 may be performed when the actual movement direction of the stage 60 is inclined with respect to the scanning direction of the laser beam.

図27は、レーザ光の走査方向およびステージ60の実際の移動方向を示す図である。図27(a)には、ステージ60の移動補正が行われない場合のステージ60の移動が示され、図27(b)には、ステージ60の移動補正が行われる場合のステージ60の移動が示される。ここで、レーザ光の走査方向をX方向とし、レーザ光の走査方向に直交する方向をY方向とする。また、ステージ60のX方向への移動指令時にステージ60が実際に移動する方向をX’方向とし、ステージ60のY方向への移動指令時にステージ60が実際に移動する方向をY’方向とする。   FIG. 27 is a diagram showing the scanning direction of the laser beam and the actual moving direction of the stage 60. FIG. 27A shows the movement of the stage 60 when the movement correction of the stage 60 is not performed, and FIG. 27B shows the movement of the stage 60 when the movement correction of the stage 60 is performed. Indicated. Here, the scanning direction of the laser light is defined as the X direction, and the direction orthogonal to the scanning direction of the laser light is defined as the Y direction. The direction in which the stage 60 actually moves when the stage 60 moves in the X direction is the X ′ direction, and the direction in which the stage 60 actually moves when the stage 60 moves in the Y direction is the Y ′ direction. .

図27では、移動前のステージ60を実線で示し、移動後のステージ60を点線で示している。ステージ60の移動前にレーザ光のX方向の走査により始点SP1および終点EP1を有する測定ラインSL1が形成される。また、ステージ60の移動後にレーザ光のX方向の走査により始点SP2および終点EP2を有する測定ラインSL2が形成される。   In FIG. 27, the stage 60 before movement is indicated by a solid line, and the stage 60 after movement is indicated by a dotted line. Before the stage 60 moves, a measurement line SL1 having a start point SP1 and an end point EP1 is formed by scanning the laser beam in the X direction. Further, a measurement line SL2 having a start point SP2 and an end point EP2 is formed by scanning the laser beam in the X direction after the stage 60 is moved.

CPU210は、図1のステージ駆動部62にX方向への移動用の駆動パルスおよびY方向への移動用の駆動パルスの一方または両方を与えることによりステージ60の移動を指令する。CPU210がステージ60のX方向への距離Lx分の移動を指令すると、図27(a)に示すように、ステージ60は実際にはX’方向に距離Lx分移動する。また、ステージ60はX方向の軸からY’方向に距離Ly分移動する。この場合、ステージ60はX方向に移動するとともにY方向にも移動する。そのため、ステージ60の移動前の測定ラインSL1の終点EP1とステージ60の移動後の測定ラインSL2の始点SP2とが一致しない。   The CPU 210 commands the movement of the stage 60 by giving one or both of a driving pulse for movement in the X direction and a driving pulse for movement in the Y direction to the stage driving unit 62 in FIG. When the CPU 210 commands the movement of the stage 60 in the X direction by the distance Lx, the stage 60 actually moves by the distance Lx in the X ′ direction as shown in FIG. The stage 60 moves from the X-direction axis by the distance Ly in the Y ′ direction. In this case, the stage 60 moves in the X direction and also in the Y direction. Therefore, the end point EP1 of the measurement line SL1 before the movement of the stage 60 does not match the start point SP2 of the measurement line SL2 after the movement of the stage 60.

本実施の形態においては、図27(b)に示すように、CPU210は、ステージ60のX方向への距離Lx分の移動を指令するとともに−Y方向への距離Ly分の移動を指令する。それにより、ステージ60は実際にはX’方向に距離Lx分移動するとともに−Y’方向に距離Ly分移動する。この場合、ステージ60はX方向に移動し、Y方向には移動しない。このようなステージ60の移動補正により、ステージ60の移動前の測定ラインSL1の終点EP1とステージ60の移動後の測定ラインSL2の始点SP2とが一致する。   In the present embodiment, as shown in FIG. 27B, the CPU 210 commands the movement of the stage 60 by the distance Lx in the X direction and commands the movement of the distance Ly in the −Y direction. Accordingly, the stage 60 actually moves in the X ′ direction by the distance Lx and moves in the −Y ′ direction by the distance Ly. In this case, the stage 60 moves in the X direction and does not move in the Y direction. By such movement correction of the stage 60, the end point EP1 of the measurement line SL1 before the movement of the stage 60 coincides with the start point SP2 of the measurement line SL2 after the movement of the stage 60.

ステージ60の実際の移動方向がレーザ光の走査方向に対して傾いているか否かは、共焦点顕微鏡システムの製造時に作業者により予め判定されてもよく、または使用者により断面曲線データの生成前に判定されてもよい。移動補正量は、例えば、実際にステージ60が移動された場合のカメラ画像データの変化に基づいて算出される。この場合、ステージ60の移動方向を正確に検出するため、明瞭な目盛または図柄を有するチャートがステージ60上に載置されてもよい。   Whether or not the actual moving direction of the stage 60 is inclined with respect to the scanning direction of the laser light may be determined in advance by an operator at the time of manufacturing the confocal microscope system, or before the generation of the sectional curve data by the user. May be determined. The movement correction amount is calculated based on, for example, a change in camera image data when the stage 60 is actually moved. In this case, in order to accurately detect the moving direction of the stage 60, a chart having a clear scale or design may be placed on the stage 60.

(13)断面曲線データの不要部分の推定方法
図21のステップS5において、断面曲線データの不要部分は、以下に示す種々の方法により推定される。
(13) Method for Estimating Unnecessary Portion of Cross Section Curve Data In step S5 in FIG. 21, the unnecessary portion of the cross sectional curve data is estimated by various methods described below.

(13−1)断面曲線データに基づく推定方法
塵埃等の付着物が存在する観察対象物Sの部分の高さは、付着物が存在しない観察対象物Sの表面の凹凸の高さに比べて高い。そのため、付着物が存在する観察対象物Sの部分に対応する断面曲線データは、付着物が存在しない観察対象物Sの部分に対応する断面曲線データよりも高い値を有する。CPU210は、断面曲線データを適切なしきい値で“1”と“0”とに2値化する。それにより、付着物が存在しない観察対象物Sの部分に対応する2値化データが“0”となり、付着物が存在する観察対象物Sの部分に対応する2値化データが“1”となる。この場合、CPU210は、“1”の2値化データに対応する断面曲線データの部分を不要部分と推定することができる。
(13-1) Estimation Method Based on Cross-Section Curve Data The height of the portion of the observation object S where there is an attachment such as dust is higher than the height of the unevenness on the surface of the observation object S where there is no attachment. high. Therefore, the cross-sectional curve data corresponding to the portion of the observation target S where the deposit is present has a higher value than the cross-section curve data corresponding to the portion of the observation target S where the deposit is not present. The CPU 210 binarizes the cross-section curve data into “1” and “0” with an appropriate threshold value. As a result, the binarized data corresponding to the portion of the observation object S where no deposit is present is “0”, and the binarization data corresponding to the portion of the observation object S where the deposit is present is “1”. Become. In this case, the CPU 210 can estimate the section curve data corresponding to the binarized data “1” as an unnecessary part.

また、観察対象物Sの表面の傷または穴の深さは、観察対象物Sの表面の凹凸の深さに比べて大きい。CPU210は、断面曲線データを適切なしきい値で“1”と“0”とに2値化する。それにより、傷または穴の部分に対応する2値化データが“0”となり、傷または穴が存在しない観察対象物Sの部分に対応する2値化データが“1”となる。この場合、CPU210は、“0”の2値化データに対応する断面曲線データの部分を不要部分と推定することができる。   Further, the depth of the scratch or hole on the surface of the observation object S is larger than the depth of the unevenness on the surface of the observation object S. The CPU 210 binarizes the cross-section curve data into “1” and “0” with an appropriate threshold value. As a result, the binarized data corresponding to the flaw or hole portion is “0”, and the binarized data corresponding to the portion of the observation object S where no flaw or hole is present is “1”. In this case, the CPU 210 can estimate the section curve data corresponding to the binarized data of “0” as an unnecessary part.

(13−2)超深度線状データに基づく推定方法
一般に、金属等からなる観察対象物Sの表面は高い反射率を有するため、塵埃等の付着物が存在しない観察対象物Sの部分に対応する超深度線状データは高い値を有する。一方、塵埃等の付着物が存在する観察対象物Sの部分は金属等よりも低い反射率を有するため、塵埃等の付着物が存在する観察対象物Sの部分に対応する超深度線状データは低い値を有する。CPU210は、超深度線状データを適切なしきい値で“1”と“0”とに2値化する。それにより、付着物が存在しない観察対象物Sの部分に対応する2値化データが“1”となり、付着物が存在する観察対象物Sの部分に対応する2値化データが“0”となる。この場合、CPU210は、“0”の2値化データに対応する断面曲線データの部分を不要部分と推定することができる。
(13-2) Estimation method based on ultra-deep linear data Generally, since the surface of the observation object S made of metal or the like has a high reflectance, it corresponds to a portion of the observation object S where there is no deposit such as dust. The ultra-deep linear data that has a high value. On the other hand, since the portion of the observation object S where the deposits such as dust are present has a lower reflectance than the metal or the like, the ultra-deep linear data corresponding to the portion of the observation target S where the deposits such as dust exist. Has a low value. The CPU 210 binarizes the ultra-deep linear data into “1” and “0” with an appropriate threshold value. As a result, the binarized data corresponding to the portion of the observation target S where no deposit is present is “1”, and the binarization data corresponding to the portion of the observation target S where the deposit is present is “0”. Become. In this case, the CPU 210 can estimate the section curve data corresponding to the binarized data of “0” as an unnecessary part.

(13−3)カメラ画像データに基づく推定方法
断面曲線データおよび超深度線状データに基づく推定の場合と同様に、CPU210がカメラ画像データを適切なしきい値で2値化することにより、断面曲線データの不要部分を推定することができる。
(13-3) Estimation Method Based on Camera Image Data Similar to the case of estimation based on cross-sectional curve data and ultra-deep linear data, the CPU 210 binarizes the camera image data with an appropriate threshold value, so that the cross-sectional curve Unnecessary portions of data can be estimated.

また、CPU210がカメラ画像データの画像処理により塵埃等の付着物、傷および穴等による断面曲線データの不要部分を推定することができる。   In addition, the CPU 210 can estimate an unnecessary portion of the cross-sectional curve data due to adhered matter such as dust, scratches and holes by image processing of the camera image data.

(13−4)その他の推定方法
断面曲線データの不要部分は、上記の推定方法のうち、2つ以上の推定方法を組み合わせることにより推定されてもよい。これにより、より確実に断面曲線データの不要部分を推定することができる。
(13-4) Other Estimation Methods Unnecessary portions of the cross-sectional curve data may be estimated by combining two or more estimation methods among the above estimation methods. Thereby, the unnecessary part of cross-sectional curve data can be estimated more reliably.

また、断面曲線データの不要部分の推定は、使用者の目視により行われてもよい。この場合、図19の画像表示領域410には、断面曲線データに基づく観察対象物Sの断面曲線、超深度線状データに基づく観察対象物Sの超深度線、またはカメラ画像データに基づく観察対象物Sのカメラ画像が表示される。   In addition, the estimation of unnecessary portions of the cross-sectional curve data may be performed by visual observation by the user. In this case, in the image display area 410 in FIG. 19, the cross-sectional curve of the observation object S based on the cross-section curve data, the super-depth line of the observation object S based on the ultra-deep linear data, or the observation object based on the camera image data A camera image of the object S is displayed.

使用者は、操作部250を操作することにより、画像表示領域410に表示される断面曲線、超深度線またはカメラ画像上の不要部分を指示することができる。CPU210は、使用者の指示に基づいて、断面曲線、超深度線またはカメラ画像上の不要部分に対応する断面曲線データの部分を不要部分と推定することができる。   By operating the operation unit 250, the user can instruct a cross-sectional curve, a super-depth line, or an unnecessary portion on the camera image displayed in the image display area 410. Based on the user's instruction, the CPU 210 can estimate the section curve data portion corresponding to the section curve, the ultra-deep line, or the unnecessary section on the camera image as the unnecessary section.

断面曲線データの不要部分の推定が使用者の目視により行われることにより、低い反射率を有する観察対象物Sまたは大きな凹凸もしくは大きな傾斜を含む観察対象物Sについても、適切に断面曲線データの不要部分を推定することができる。   By estimating the unnecessary portion of the cross-section curve data by the user's visual observation, the cross-section curve data is appropriately not required for the observation target S having a low reflectance or the observation target S having large unevenness or large inclination. The part can be estimated.

(14)他の実施の形態
(14−1)
上記実施の形態では、各帯状領域s10が複数の測定ラインを含み、その複数の測定ラインの各々に対応する断面曲線データが生成されるが、これに限らない。各帯状領域s10が一の測定ラインのみを含み、その一の測定ラインに対応する断面曲線データのみが生成されてもよい。この場合、X方向に並ぶ複数の帯状領域s10の断面曲線データが連結されることにより、一の断面曲線データが生成される。
(14) Other embodiments (14-1)
In the above-described embodiment, each band-like region s10 includes a plurality of measurement lines, and the cross-sectional curve data corresponding to each of the plurality of measurement lines is generated. However, the present invention is not limited to this. Each belt-like region s10 may include only one measurement line, and only the cross-sectional curve data corresponding to the one measurement line may be generated. In this case, one section curve data is generated by connecting the section curve data of the plurality of strip-like regions s10 arranged in the X direction.

(14−2)
上記実施の形態では、画素データの取得範囲として複数の帯状領域が設定され、各帯状領域の測定ライン上でレーザ光が走査されることにより、各測定ラインに対応する断面曲線データが生成されるが、断面曲線データの生成方法はこれに限らない。
(14-2)
In the above embodiment, a plurality of band-like areas are set as the pixel data acquisition range, and the laser beam is scanned on the measurement lines in each band-like area, thereby generating cross-sectional curve data corresponding to each measurement line. However, the method of generating the sectional curve data is not limited to this.

例えば、次のようにして断面曲線データが生成されてもよい。図2または図5に示されるように、単位領域または帯状領域毎に複数の共焦点画像データが生成され、その複数の共焦点画像データに基づいて高さ画像データおよび超深度画像データが生成される。生成された高さ画像データまたは超深度画像データに基づいて、高さ画像または超深度画像が表示部400の画面上に表示される。その画像上で、断面曲線データを取得すべき範囲が設定され、設定された範囲に対応する断面曲線データが上記複数の共焦点画像データに基づいて生成される。   For example, the cross-sectional curve data may be generated as follows. As shown in FIG. 2 or 5, a plurality of confocal image data is generated for each unit region or band-like region, and height image data and ultra-depth image data are generated based on the plurality of confocal image data. The Based on the generated height image data or ultra-depth image data, the height image or ultra-depth image is displayed on the screen of the display unit 400. A range in which the cross-sectional curve data is to be acquired is set on the image, and cross-sectional curve data corresponding to the set range is generated based on the plurality of confocal image data.

この場合、予め取得された共焦点画像データに基づいて、所望の範囲の断面曲線データを生成することができ、さらにその断面曲線データに基づいて、スタイラス曲線データを生成することができる。したがって、所望の範囲の光学断面曲線またはスタイラス断面曲線を表示部400の画面上に容易に表示させることができる。また、それらに対応する粗さ曲線、うねり曲線および表面性状パラメータを表示部400の画面上に容易に表示させることができる。   In this case, cross-sectional curve data in a desired range can be generated based on confocal image data acquired in advance, and stylus curve data can be generated based on the cross-sectional curve data. Therefore, an optical cross section curve or stylus cross section curve in a desired range can be easily displayed on the screen of the display unit 400. In addition, the roughness curve, the waviness curve, and the surface property parameter corresponding to them can be easily displayed on the screen of the display unit 400.

(14−3)
上記実施の形態では、スタイラス検出データが観察対象物Sの表面形状を2次元で表すが、これに限らず、スタイラス検出データが観察対象物Sの表面形状を3次元で表してもよい。この場合、触針データとして、触針の形状が3次元で設定される。
(14-3)
In the above embodiment, the stylus detection data represents the surface shape of the observation object S in two dimensions. However, the present invention is not limited to this, and the stylus detection data may represent the surface shape of the observation object S in three dimensions. In this case, the shape of the stylus is set in three dimensions as stylus data.

(14−4)
上記実施の形態において、PC200のCPU210が制御部300の機能を有していてもよい。この場合、制御部300は設けられなくてもよい。
(14-4)
In the above embodiment, the CPU 210 of the PC 200 may have the function of the control unit 300. In this case, the control unit 300 may not be provided.

(14−5)
上記実施の形態において、X−Yスキャン光学系20が制御されることによりレーザ光が観察対象物S上でX方向およびY方向に走査されるが、これに限定されない。ステージ60が移動されることによりレーザ光が観察対象物S上でX’方向およびY’方向に走査されてもよい。
(14-5)
In the above embodiment, the laser beam is scanned on the observation object S in the X direction and the Y direction by controlling the XY scan optical system 20, but the present invention is not limited to this. Laser light may be scanned on the observation object S in the X ′ direction and the Y ′ direction by moving the stage 60.

また、レーザ光としてライン光(例えばX方向に延びる細長い光)が用いられてもよい。この場合、X−Yスキャン光学系20に代えてX方向への走査を行わないYスキャン光学系が用いられる。また、受光素子30に代えて、X方向に対応する方向に配列された複数の受光素子からなるラインCCDカメラ等が用いられる。   Further, line light (for example, elongated light extending in the X direction) may be used as the laser light. In this case, instead of the XY scan optical system 20, a Y scan optical system that does not perform scanning in the X direction is used. Further, instead of the light receiving element 30, a line CCD camera or the like including a plurality of light receiving elements arranged in a direction corresponding to the X direction is used.

(14−6)
上記実施の形態において、対物レンズ3がZ方向に移動されることにより対物レンズ3に対する観察対象物Sの相対的なZ方向の位置が変化されるが、これに限定されない。ステージ60がZ方向に移動されることにより対物レンズ3に対する観察対象物Sの相対的なZ方向の位置が変化されてもよい。
(14-6)
In the above-described embodiment, the relative position of the observation object S with respect to the objective lens 3 in the Z direction is changed by moving the objective lens 3 in the Z direction. However, the present invention is not limited to this. The relative position of the observation object S with respect to the objective lens 3 in the Z direction may be changed by moving the stage 60 in the Z direction.

(14−7)
上記実施の形態において、観察対象物Sに塵埃等が付着している断面曲線データの部分が不要部分として除去されるが、これに限定されない。算出される表面性状パラメータの信頼性が高い場合には、観察対象物Sに塵埃等が付着している断面曲線データの部分が不要部分として除去されなくてもよい。
(14-7)
In the above embodiment, the portion of the cross-sectional curve data in which dust or the like is attached to the observation object S is removed as an unnecessary portion, but the present invention is not limited to this. When the reliability of the calculated surface property parameter is high, the portion of the cross-sectional curve data in which dust or the like is attached to the observation object S may not be removed as an unnecessary portion.

(14−8)
上記実施の形態は、共焦点顕微鏡システムに本発明を適用した例であるが、他の光学式顕微鏡システムに本発明が適用されてもよい。例えば、干渉顕微鏡または三角測距式顕微鏡を含む光学式顕微鏡システムに本発明が適用されてもよい。
(14-8)
The above embodiment is an example in which the present invention is applied to a confocal microscope system, but the present invention may be applied to other optical microscope systems. For example, the present invention may be applied to an optical microscope system including an interference microscope or a triangulation microscope.

また、顕微鏡に限らず、光学的に観察対象物の表面形状を検出可能な他の光学式表面状態検出システムに本発明を適用してもよい。   Further, the present invention may be applied not only to a microscope but also to other optical surface state detection systems that can optically detect the surface shape of an observation object.

(15)請求項の各構成要素と実施の形態の各部との対応関係
以下、請求項の各構成要素と実施の形態の各部との対応の例について説明するが、本発明は下記の例に限定されない。
(15) Correspondence between each component of claim and each part of embodiment The following describes an example of the correspondence between each component of the claim and each part of the embodiment. It is not limited.

上記実施の形態では、共焦点顕微鏡システム500が光学式表面形状検出システムの例であり、受光素子30が受光素子の例であり、レンズ1,2、対物レンズ3およびレーザ光源10が光学系の例であり、断面曲線データが表面形状データの例であり、記憶装置240が触針データ記憶部の例であり、基準点SSが触針の基準位置の例であり、スタイラス検出データが触針検出データの例である。   In the above embodiment, the confocal microscope system 500 is an example of an optical surface shape detection system, the light receiving element 30 is an example of a light receiving element, and the lenses 1, 2, the objective lens 3, and the laser light source 10 are optical systems. For example, the cross-section curve data is an example of surface shape data, the storage device 240 is an example of a stylus data storage unit, the reference point SS is an example of the reference position of the stylus, and the stylus detection data is stylus It is an example of detection data.

また、接触部TEが先端部の例であり、先端半径TRが曲率情報の例であり、テーパ部TAがテーパ部の例であり、テーパ角θがテーパ角の例であり、表示部400が表示部の例である。また、CPU210が表面形状データ生成部、触針検出データ生成部および画像データ生成部の例であり、操作部250が曲率情報設定部、フィルタリング強度設定部および画像選択部の例である。   Further, the contact portion TE is an example of a tip portion, the tip radius TR is an example of curvature information, the taper portion TA is an example of a taper portion, the taper angle θ is an example of a taper angle, and the display unit 400 is It is an example of a display part. The CPU 210 is an example of a surface shape data generation unit, a stylus detection data generation unit, and an image data generation unit, and the operation unit 250 is an example of a curvature information setting unit, a filtering strength setting unit, and an image selection unit.

請求項の各構成要素として、請求項に記載されている構成または機能を有する他の種々の要素を用いることもできる。
(16)参考形態
参考形態に係る光学式表面形状検出システムは、観察対象物の表面形状を検出するための光学式表面形状検出システムであって、受光素子と、観察対象物の表面に光を照射するとともに観察対象物に照射された光を受光素子に導く光学系と、受光素子の出力信号に基づいて観察対象物の表面形状を表す表面形状データを生成する表面形状データ生成部と、仮想的に設定された触針の形状を表す触針データを記憶する触針データ記憶部と、表面形状データ生成部により生成された表面形状データおよび触針データ記憶部に記憶される触針データに基づいて、触針が観察対象物の表面を移動する場合の触針の動きに相当する触針検出データを生成する触針検出データ生成部と備えたものである。
参考形態に係る表面形状検出方法は、観察対象物の表面形状を検出するための表面形状検出方法であって、観察対象物の表面に光を照射するとともに観察対象物に照射された光を受光素子に導くステップと、受光素子の出力信号に基づいて観察対象物の表面形状を表す表面形状データを生成するステップと、仮想的に設定された触針の形状を表す触針データを記憶するステップと、生成された表面形状データおよび記憶される触針データに基づいて、触針が観察対象物の表面を移動する場合の触針の動きに相当する触針検出データを生成するステップとを備えたものである。
参考形態に係る表面形状検出プログラムは、観察対象物の表面形状を検出するための表面形状検出処理を処理装置に実行させる表面形状検出プログラムであって、観察対象物の表面に光を照射するとともに観察対象物に照射された光を受光素子に導く処理と、受光素子の出力信号に基づいて観察対象物の表面形状を表す表面形状データを生成する処理と、仮想的に設定された触針の形状を表す触針データを記憶する処理と、生成された表面形状データおよび記憶される触針データに基づいて、触針が観察対象物の表面を移動する場合の触針の動きに相当する触針検出データを生成する処理とを、処理装置に実行させるものである。
As each constituent element in the claims, various other elements having configurations or functions described in the claims can be used.
(16) Reference form
An optical surface shape detection system according to a reference form is an optical surface shape detection system for detecting a surface shape of an observation object, and irradiates light onto the light receiving element and the surface of the observation object and observes the object. An optical system that guides the light irradiated to the object to the light receiving element, a surface shape data generating unit that generates surface shape data representing the surface shape of the observation object based on the output signal of the light receiving element, and a virtual setting Based on the stylus data storage unit that stores stylus data representing the shape of the stylus, the surface shape data generated by the surface shape data generation unit, and the stylus data stored in the stylus data storage unit Is provided with a stylus detection data generation unit that generates stylus detection data corresponding to the movement of the stylus when moving on the surface of the observation object.
The surface shape detection method according to the reference form is a surface shape detection method for detecting the surface shape of an observation object, and irradiates light on the surface of the observation object and receives light irradiated on the observation object. A step of leading to the device, a step of generating surface shape data representing the surface shape of the observation object based on an output signal of the light receiving device, and a step of storing stylus data representing the shape of the stylus that is virtually set And generating stylus detection data corresponding to the movement of the stylus when the stylus moves on the surface of the observation object based on the generated surface shape data and the stored stylus data. It is a thing.
The surface shape detection program according to the reference form is a surface shape detection program for causing a processing device to execute a surface shape detection process for detecting a surface shape of an observation object, and irradiates light on the surface of the observation object. A process for guiding the light irradiated to the observation object to the light receiving element, a process for generating surface shape data representing the surface shape of the observation object based on the output signal of the light receiving element, and a virtually set of stylus A touch corresponding to the movement of the stylus when the stylus moves on the surface of the observation object based on the processing for storing the stylus data representing the shape, the generated surface shape data, and the stored stylus data. The processing device generates the needle detection data.

本発明は、種々の光学式顕微鏡システム等に有効に利用することができる。   The present invention can be effectively used for various optical microscope systems and the like.

1,2 レンズ
3 対物レンズ
4〜6 ハーフミラー
7 ピンホール部材
8 NDフィルタ
10 レーザ光源
20 X−Yスキャン光学系
30 受光素子
40 照明用白色光源
50 カラーCCDカメラ
60 ステージ
61 ステージ操作部
62 ステージ駆動部
63 レンズ駆動部
100 測定部
200 PC
210 CPU
220 ROM
230 作業用メモリ
240 記憶装置
300 制御部
400 表示部
500 共焦点顕微鏡システム
DC 光学断面曲線
S 観察対象物
s1〜s4 単位領域
s10 帯状領域
SC スタイラス断面曲線
SCa スタイラス断面曲線
SS 基準点
ST,STa,STb 触針
TA テーパ部
TE 接触部
TG 側面部
DESCRIPTION OF SYMBOLS 1, 2 Lens 3 Objective lens 4-6 Half mirror 7 Pinhole member 8 ND filter 10 Laser light source 20 XY scan optical system 30 Light receiving element 40 White light source for illumination 50 Color CCD camera 60 Stage 61 Stage operation part 62 Stage drive Unit 63 lens driving unit 100 measuring unit 200 PC
210 CPU
220 ROM
230 Working Memory 240 Storage Device 300 Control Unit 400 Display Unit 500 Confocal Microscope System DC Optical Section Curve S Observation Object s1 to s4 Unit Area s10 Strip Area SC Stylus Section Curve SCa Stylus Section Curve SS Reference Point ST, STa, STb Stylus TA Taper part TE Contact part TG Side part

Claims (12)

観察対象物の表面形状を検出するための光学式表面形状検出システムであって、
受光素子と、
観察対象物の表面に光を照射するとともに観察対象物に照射された光を前記受光素子に導く光学系と、
前記受光素子の出力信号に基づいて観察対象物の表面形状を表す表面形状データを生成する表面形状データ生成部と、
仮想的に設定された触針の形状を表す触針データを記憶する触針データ記憶部と、
表面形状データ生成部により生成された表面形状データおよび前記触針データ記憶部に記憶される触針データに基づいて、前記触針が観察対象物の表面を移動する場合の前記触針の動きに相当する触針検出データを生成する触針検出データ生成部と備え
前記触針は、基準位置と曲面状の先端部とを有し、
前記触針データは、前記先端部の曲率に関する曲率情報を含み、
前記触針検出データは、前記触針が観察対象物の表面を移動する場合における前記基準位置の軌跡を表す、光学式表面形状検出システム。
An optical surface shape detection system for detecting the surface shape of an observation object,
A light receiving element;
An optical system that irradiates the surface of the observation object with light and guides the light irradiated to the observation object to the light receiving element;
A surface shape data generation unit for generating surface shape data representing the surface shape of the observation object based on an output signal of the light receiving element;
A stylus data storage unit for storing stylus data representing the shape of the virtually set stylus;
Based on the surface shape data generated by the surface shape data generation unit and the stylus data stored in the stylus data storage unit, the movement of the stylus when the stylus moves on the surface of the observation object. With a stylus detection data generation unit for generating corresponding stylus detection data ,
The stylus has a reference position and a curved tip,
The stylus data includes curvature information regarding the curvature of the tip,
The optical surface shape detection system, wherein the stylus detection data represents a locus of the reference position when the stylus moves on the surface of an observation target.
前記触針は、前記先端部から連続的に延びるテーパ部をさらに有し、
前記テーパ部は、前記先端部から遠ざかるにつれて増加する直径を有し、
前記触針データは、前記テーパ部がなすテーパ角をさらに含む、請求項記載の光学式表面形状検出システム。
The stylus further has a tapered portion that continuously extends from the tip portion,
The tapered portion has a diameter that increases as the distance from the tip portion increases.
The stylus data further includes a taper angle of the tapered portion is formed, the optical surface shape detecting system according to claim 1.
前記触針検出データ生成部は、
前記触針データに含まれる前記曲率情報に基づいて、前記先端部が観察対象物の表面に接触しつつ移動する場合の前記基準位置の軌跡を求め、
前記触針データに含まれる前記テーパ部のテーパ角に基づいて、前記求められた軌跡を補正することにより、前記先端部または前記テーパ部のいずれかが観察対象物に接触しつつ移動する場合における前記基準位置の軌跡を表す前記触針検出データを生成する、請求項記載の光学式表面形状検出システム。
The stylus detection data generation unit
Based on the curvature information included in the stylus data, the locus of the reference position when the tip moves while contacting the surface of the observation object,
In the case where either the tip portion or the tapered portion moves while being in contact with the observation object by correcting the obtained locus based on the taper angle of the tapered portion included in the stylus data. The optical surface shape detection system according to claim 2 , wherein the stylus detection data representing a locus of the reference position is generated.
前記曲率情報を設定するために使用者により操作される曲率情報設定部をさらに備えた、請求項のいずれか一項に記載の光学式表面形状検出システム。 The optical surface shape detection system according to any one of claims 1 to 3 , further comprising a curvature information setting unit operated by a user to set the curvature information. 前記触針検出データ生成部は、
前記表面形状データから高周波ノイズを除去するためにフィルタリング処理を行い、前記フィルタリング処理後の表面形状データに基づいて前記触針検出データを生成し、
前記触針データに含まれる前記曲率情報に基づいて前記フィルタリング処理における遮断波長を決定する、請求項1〜のいずれか一項に記載の光学式表面形状検出システム。
The stylus detection data generation unit
Performing a filtering process to remove high frequency noise from the surface shape data, generating the stylus detection data based on the surface shape data after the filtering process,
The optical surface shape detection system according to any one of claims 1 to 4 , wherein a cutoff wavelength in the filtering process is determined based on the curvature information included in the stylus data.
前記先端部は球面形状を有し、
前記曲率情報は曲率半径を含み、
前記触針検出データ生成部は、
ガウシアンフィルタまたは移動平均フィルタを用いて前記フィルタリング処理を行い、
前記フィルタリング処理における遮断波長を前記先端部の曲率半径の1倍以上8倍以下の値に決定する、請求項記載の光学式表面形状検出システム。
The tip has a spherical shape;
The curvature information includes a radius of curvature,
The stylus detection data generation unit
Performing the filtering process using a Gaussian filter or a moving average filter,
The optical surface shape detection system according to claim 5 , wherein a cutoff wavelength in the filtering process is determined to be a value that is 1 to 8 times a radius of curvature of the tip.
前記触針検出データ生成部は、
移動平均フィルタを用いて前記フィルタリング処理を行い、
前記決定された遮断波長に基づいて、移動平均点数を決定する、請求項記載の光学式表面形状検出システム。
The stylus detection data generation unit
Performing the filtering process using a moving average filter,
The optical surface shape detection system according to claim 6 , wherein a moving average score is determined based on the determined cutoff wavelength.
前記触針検出データ生成部は、
メディアンフィルタを用いて前記フィルタリング処理を行い、
前記フィルタリング処理におけるフィルタサイズを前記曲率情報に応じて決定する、請求項記載の光学式表面形状検出システム。
The stylus detection data generation unit
Perform the filtering process using a median filter,
The optical surface shape detection system according to claim 5 , wherein a filter size in the filtering process is determined according to the curvature information.
前記フィルタリング処理の強度を設定するために使用者により操作されるフィルタリング強度設定部をさらに備えた、請求項のいずれか一項に記載の光学式表面形状検出システム。 The optical surface shape detection system according to any one of claims 5 to 8 , further comprising a filtering intensity setting unit operated by a user to set the intensity of the filtering process. 前記表面形状データに基づいて観察対象物の表面形状を表す光学画像データを生成するとともに、前記触針検出データに基づいて観察対象物の表面形状を表す触針画像データを生成する画像データ生成部と、
前記画像データ生成部により生成された前記光学画像データおよび前記触針画像データのうち一方を選択するために使用者により操作される画像選択部と、
前記画像選択部により選択された前記光学画像データおよび前記触針画像データのうち一方に基づく画像を表示する表示部とをさらに備えた、請求項1〜のいずれか一項に記載の光学式表面形状検出システム。
An image data generating unit that generates optical image data representing the surface shape of the observation object based on the surface shape data and generates stylus image data representing the surface shape of the observation object based on the stylus detection data When,
An image selection unit operated by a user to select one of the optical image data and the stylus image data generated by the image data generation unit;
The optical system according to any one of claims 1 to 9 , further comprising: a display unit that displays an image based on one of the optical image data selected by the image selection unit and the stylus image data. Surface shape detection system.
観察対象物の表面形状を検出するための表面形状検出方法であって、
観察対象物の表面に光を照射するとともに観察対象物に照射された光を受光素子に導くステップと、
前記受光素子の出力信号に基づいて観察対象物の表面形状を表す表面形状データを生成するステップと、
仮想的に設定された触針の形状を表す触針データを記憶するステップと、
生成された表面形状データおよび記憶される触針データに基づいて、前記触針が観察対象物の表面を移動する場合の前記触針の動きに相当する触針検出データを生成するステップと備え
前記触針は、基準位置と曲面状の先端部とを有し、
前記触針データは、前記先端部の曲率に関する曲率情報を含み、
前記触針検出データは、前記触針が観察対象物の表面を移動する場合における前記基準位置の軌跡を表す、表面形状検出方法。
A surface shape detection method for detecting a surface shape of an observation object,
Irradiating the surface of the observation object with light and guiding the light irradiated to the observation object to the light receiving element;
Generating surface shape data representing a surface shape of an observation object based on an output signal of the light receiving element;
Storing stylus data representing a virtually set stylus shape;
Based on the probe data generated surface shape data and storage, and a step of generating a stylus detection data corresponding to the movement of the stylus when the stylus moves the surface of the observed object ,
The stylus has a reference position and a curved tip,
The stylus data includes curvature information regarding the curvature of the tip,
The surface shape detection method in which the stylus detection data represents a trajectory of the reference position when the stylus moves on the surface of an observation object .
観察対象物の表面形状を検出するための表面形状検出処理を処理装置に実行させる表面形状検出プログラムであって、
観察対象物の表面に光を照射するとともに観察対象物に照射された光を受光素子に導く処理と、
前記受光素子の出力信号に基づいて観察対象物の表面形状を表す表面形状データを生成する処理と、
仮想的に設定された触針の形状を表す触針データを記憶する処理と、
生成された表面形状データおよび記憶される触針データに基づいて、前記触針が観察対象物の表面を移動する場合の前記触針の動きに相当する触針検出データを生成する処理とを、
前記処理装置に実行させ
前記触針は、基準位置と曲面状の先端部とを有し、
前記触針データは、前記先端部の曲率に関する曲率情報を含み、
前記触針検出データは、前記触針が観察対象物の表面を移動する場合における前記基準位置の軌跡を表す、表面形状検出プログラム。
A surface shape detection program for causing a processing device to execute a surface shape detection process for detecting a surface shape of an observation object,
A process of irradiating the surface of the observation object with light and guiding the light irradiated to the observation object to the light receiving element;
Processing for generating surface shape data representing the surface shape of the observation object based on the output signal of the light receiving element;
Processing to store stylus data representing the shape of the virtually set stylus;
A process of generating stylus detection data corresponding to the movement of the stylus when the stylus moves on the surface of the object to be observed based on the generated surface shape data and stored stylus data;
Causing the processing device to execute ,
The stylus has a reference position and a curved tip,
The stylus data includes curvature information regarding the curvature of the tip,
The stylus detection data is a surface shape detection program that represents a locus of the reference position when the stylus moves on the surface of an observation target .
JP2013159829A 2013-07-31 2013-07-31 Optical surface shape detection system, surface shape detection method, and surface shape detection program Active JP6140025B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013159829A JP6140025B2 (en) 2013-07-31 2013-07-31 Optical surface shape detection system, surface shape detection method, and surface shape detection program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013159829A JP6140025B2 (en) 2013-07-31 2013-07-31 Optical surface shape detection system, surface shape detection method, and surface shape detection program

Publications (2)

Publication Number Publication Date
JP2015031757A JP2015031757A (en) 2015-02-16
JP6140025B2 true JP6140025B2 (en) 2017-05-31

Family

ID=52517143

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013159829A Active JP6140025B2 (en) 2013-07-31 2013-07-31 Optical surface shape detection system, surface shape detection method, and surface shape detection program

Country Status (1)

Country Link
JP (1) JP6140025B2 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07280540A (en) * 1994-04-05 1995-10-27 Mitsutoyo Corp Non-contact type surface shape measuring apparatus
JP4891629B2 (en) * 2006-02-22 2012-03-07 株式会社ミツトヨ Surface texture measuring machine, shape analysis program and recording medium
JP5043629B2 (en) * 2007-12-17 2012-10-10 オリンパス株式会社 Laser scanning microscope and measuring method of surface shape thereof

Also Published As

Publication number Publication date
JP2015031757A (en) 2015-02-16

Similar Documents

Publication Publication Date Title
JP6239232B2 (en) High performance edge focus tool
US9329024B2 (en) Dimension measuring apparatus, dimension measuring method, and program for dimension measuring apparatus
JP5043629B2 (en) Laser scanning microscope and measuring method of surface shape thereof
JP5972563B2 (en) Edge detection using structured illumination
EP2977720A1 (en) A method for measuring a high accuracy height map of a test surface
JP6001305B2 (en) Inspection of potential interfering elements in machine vision systems
JP6412710B2 (en) Optical interference measurement device
JP6009005B2 (en) Confocal microscope system, image processing method and image processing program
JP2012155010A (en) Microscope system, surface state observation method, and surface state observation program
JP5663428B2 (en) Microscope system, object observation method, and object observation program
JP5700797B2 (en) Confocal microscope system, image processing method and image processing program
JP6140025B2 (en) Optical surface shape detection system, surface shape detection method, and surface shape detection program
JP6979885B2 (en) 3D shape auto trace method and measuring machine
JP7430597B2 (en) white interference microscope
TW201809592A (en) Automated 3-D measurement
JP2007071716A (en) Confocal scanning microscope
JP4791155B2 (en) Focusing method, focusing device, and measuring apparatus using the same
JP6202875B2 (en) Image measuring apparatus and control program therefor
JP5042791B2 (en) Film thickness measuring device
JP4878708B2 (en) Confocal scanning microscope, alignment method thereof, program, and storage medium
JP5957063B2 (en) Microscope system
JP5847282B2 (en) Confocal microscope system
JP6856145B2 (en) Scanning probe microscope and analysis method
JP2019190851A (en) Scanning probe microscope
JP5010897B2 (en) Confocal laser microscope

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160328

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170314

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170418

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170428

R150 Certificate of patent or registration of utility model

Ref document number: 6140025

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250