JP2020148894A - Method for recognizing magnification of lens and measuring apparatus - Google Patents
Method for recognizing magnification of lens and measuring apparatus Download PDFInfo
- Publication number
- JP2020148894A JP2020148894A JP2019046057A JP2019046057A JP2020148894A JP 2020148894 A JP2020148894 A JP 2020148894A JP 2019046057 A JP2019046057 A JP 2019046057A JP 2019046057 A JP2019046057 A JP 2019046057A JP 2020148894 A JP2020148894 A JP 2020148894A
- Authority
- JP
- Japan
- Prior art keywords
- lens
- intensity distribution
- image circle
- lens magnification
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Microscoopes, Condenser (AREA)
Abstract
Description
本発明はレンズ倍率認識方法及び測定装置に係り、特にレンズの切り替えが可能な測定装置においてレンズ倍率を認識する方法に関する。 The present invention relates to a lens magnification recognition method and a measuring device, and particularly relates to a method of recognizing a lens magnification in a measuring device capable of switching lenses.
被測定物の形状、表面粗さ等を測定する際には、顕微鏡(例えば、白色干渉顕微鏡)を用いて被測定物の被測定面の画像を拡大表示させて観察する場合がある。一般に、白色干渉顕微鏡は、被測定物に合わせた測定視野及び測定分解能を得るために、倍率が異なる複数の干渉対物レンズを備えている。この複数の干渉対物レンズは、例えば、ターレットに切り替え可能に取り付けられる。 When measuring the shape, surface roughness, etc. of the object to be measured, an image of the surface to be measured of the object to be measured may be magnified and observed using a microscope (for example, a white interference microscope). In general, a white interference microscope includes a plurality of interference objective lenses having different magnifications in order to obtain a measurement field of view and measurement resolution suitable for the object to be measured. The plurality of interference objective lenses are, for example, switchably attached to a turret.
倍率が異なる複数の干渉対物レンズは、レンズ特性がそれぞれ異なる。そのため、被測定物の被測定面の形状、表面粗さ等を測定する際には、表示画面を校正する画素単位に被測定物の実寸法を対応させる校正作業が行われる。この校正作業では、作業者は測定に使用した干渉対物レンズのレンズ倍率を信号処理装置に入力する必要がある。 A plurality of interference objective lenses having different magnifications have different lens characteristics. Therefore, when measuring the shape, surface roughness, etc. of the surface to be measured of the object to be measured, a calibration operation is performed in which the actual size of the object to be measured is made to correspond to each pixel for calibrating the display screen. In this calibration operation, the operator needs to input the lens magnification of the interference objective lens used for the measurement to the signal processing device.
この校正作業において、干渉対物レンズを切り替えるごとに作業者がレンズ倍率を手動で入力するようにした場合、測定作業が著しく非効率となり、また、作業者のミスも生じ得る。このため、レンズ倍率を自動的に認識する方法が提案されている(例えば、特許文献1から3)。 In this calibration work, if the operator manually inputs the lens magnification each time the interference objective lens is switched, the measurement work becomes extremely inefficient and the operator may make a mistake. Therefore, a method of automatically recognizing the lens magnification has been proposed (for example, Patent Documents 1 to 3).
特許文献1に記載のマイクロスコープには、ズーム倍率を検出するための発信素子及び受信素子が複数対配置されている。特許文献1では、この複数対の発信素子及び受信素子により、ズームレンズの回転駆動筒から複数の反射信号を検出し、この反射信号の組み合わせに基づいて、演算器によりズーム倍率を演算するようになっている。特許文献1では、発信素子及び受信素子を複数対設けることになるため、装置の構成が複雑かつ高価になるという問題がある。 In the microscope described in Patent Document 1, a plurality of pairs of transmitting elements and receiving elements for detecting the zoom magnification are arranged. In Patent Document 1, a plurality of reflected signals are detected from the rotation drive cylinder of the zoom lens by the plurality of pairs of transmitting elements and receiving elements, and the zoom magnification is calculated by the arithmetic unit based on the combination of the reflected signals. It has become. In Patent Document 1, since a plurality of pairs of transmitting elements and receiving elements are provided, there is a problem that the configuration of the device becomes complicated and expensive.
特許文献2に記載のレンズ倍率認識方法では、レンズ倍率認識用パターンをテーブルの面上に貼付して、このパターンの寸法をあらかじめ測定しておき、この測定の結果を利用して被測定物の測定開始時にレンズ倍率を算出するようになっている。しかしながら、白色干渉顕微鏡では、レンズ焦点近傍で干渉縞が観察されるため、レンズ倍率認識用パターンの識別が困難となる。このため、白色干渉顕微鏡には、特許文献2に記載の方法を適用することはできない。 In the lens magnification recognition method described in Patent Document 2, a lens magnification recognition pattern is attached on the surface of a table, the dimensions of this pattern are measured in advance, and the result of this measurement is used to measure an object to be measured. The lens magnification is calculated at the start of measurement. However, in a white interference microscope, interference fringes are observed near the focal point of the lens, which makes it difficult to identify the pattern for recognizing the lens magnification. Therefore, the method described in Patent Document 2 cannot be applied to a white interference microscope.
さらに、特許文献3に記載のレンズ識別方法では、識別対象のレンズを用いて得られたカメラ装置の出力及び光源出力制御レベルに基づく被検データと、レンズ識別校正データとを比較して、識別対象のレンズを識別するようになっている。特許文献3では、レンズを識別する際のZ軸高さは、レンズ識別校正データの取得に用いた基準設定のZ軸高さとすることが好ましいとされている。また、光源の数及び対象物等についても、Z軸高さと同様に、レンズ識別校正データの取得に用いたものと同じにすることが好ましいとされている。このように、特許文献3に記載の方法は、レンズ識別を行うときの制約が多く、汎用性が低いという問題があった。 Further, in the lens identification method described in Patent Document 3, the test data based on the output and light source output control level of the camera device obtained by using the lens to be identified is compared with the lens identification calibration data for identification. It is designed to identify the target lens. In Patent Document 3, it is preferable that the Z-axis height when identifying the lens is the Z-axis height of the reference setting used for acquiring the lens identification calibration data. Further, it is preferable that the number of light sources, the object, and the like are the same as those used for acquiring the lens identification calibration data as well as the Z-axis height. As described above, the method described in Patent Document 3 has a problem that there are many restrictions when identifying lenses and the versatility is low.
本発明はこのような事情に鑑みてなされたもので、白色干渉顕微鏡におけるレンズ倍率の認識を自動的かつ簡便に実施することが可能なレンズ倍率認識方法及び測定装置を提供することを目的とする。 The present invention has been made in view of such circumstances, and an object of the present invention is to provide a lens magnification recognition method and a measuring device capable of automatically and easily recognizing a lens magnification in a white interference microscope. ..
上記課題を解決するために、本発明の第1の態様に係るレンズ倍率認識方法は、認識対象のレンズを用いて得られた画像を撮像部により撮像するステップと、撮像した画像のイメージサークルを検出するステップと、イメージサークルにおける受光強度分布を取得し、イメージサークルにおける受光強度分布を、レンズ倍率が異なるレンズを用いて撮像された受光強度分布から取得された参照データと比較することにより、認識対象のレンズのレンズ倍率を認識するレンズ倍率認識ステップとを含む。 In order to solve the above problems, the lens magnification recognition method according to the first aspect of the present invention includes a step of capturing an image obtained by using a lens to be recognized by an imaging unit and an image circle of the captured image. Recognition by acquiring the detection step and the light-receiving intensity distribution in the image circle, and comparing the light-receiving intensity distribution in the image circle with the reference data obtained from the light-receiving intensity distribution imaged using lenses with different lens magnifications. It includes a lens magnification recognition step of recognizing the lens magnification of the target lens.
本発明の第2の態様に係るレンズ倍率認識方法は、第1の態様において、参照データは、レンズ倍率が異なるレンズを用いて撮像された受光強度分布から取得された1次元強度分布に関する情報を含んでおり、レンズ倍率認識ステップは、イメージサークルからイメージサークルのエッジ部を含む方向に沿う1次元強度分布を取得するステップと、1次元強度分布を、参照データと比較することにより、認識対象のレンズのレンズ倍率を認識するステップとを含む。 In the lens magnification recognition method according to the second aspect of the present invention, in the first aspect, the reference data includes information on a one-dimensional intensity distribution acquired from a light receiving intensity distribution imaged using lenses having different lens magnifications. The lens magnification recognition step includes a step of acquiring a one-dimensional intensity distribution along the direction including the edge portion of the image circle from the image circle, and a step of comparing the one-dimensional intensity distribution with the reference data to recognize the object. It includes a step of recognizing the lens magnification of the lens.
本発明の第3の態様に係るレンズ倍率認識方法は、第1の態様において、参照データは、レンズ倍率が異なるレンズを用いて撮像された受光強度分布において、イメージサークル内で1次元強度分布の変化の割合が変化する折れ曲がり点の位置に関する情報を含んでおり、レンズ倍率認識ステップは、イメージサークルからイメージサークルのエッジ部を含む方向に沿う1次元強度分布を取得するステップと、イメージサークルから取得された1次元強度分布において、イメージサークル内で1次元強度分布の変化の割合が変化する折れ曲がり点の位置を算出する折れ曲がり点算出ステップと、算出した折れ曲がり点の位置を、参照データに含まれる折れ曲がり点の位置と比較することにより、認識対象のレンズのレンズ倍率を認識するステップとを含む。 In the lens magnification recognition method according to the third aspect of the present invention, in the first aspect, the reference data is a one-dimensional intensity distribution in the image circle in the light receiving intensity distribution imaged using lenses having different lens magnifications. It contains information about the position of the bend point where the rate of change changes, and the lens magnification recognition step is to acquire the one-dimensional intensity distribution from the image circle along the direction including the edge of the image circle and from the image circle. In the one-dimensional intensity distribution, the bending point calculation step for calculating the position of the bending point at which the rate of change of the one-dimensional intensity distribution changes in the image circle and the calculated bending point position are included in the reference data. It includes a step of recognizing the lens magnification of the lens to be recognized by comparing with the position of the point.
本発明の第4の態様に係るレンズ倍率認識方法は、第3の態様において、折れ曲がり点算出ステップは、1次元強度分布において、イメージサークルの中心側領域及びエッジ部側領域の強度分布の近似直線をそれぞれ算出するステップと、近似直線の交点の位置を折れ曲がり点の位置として算出するステップとを含む。 In the lens magnification recognition method according to the fourth aspect of the present invention, in the third aspect, the bending point calculation step is an approximate straight line of the intensity distribution of the central region and the edge region of the image circle in the one-dimensional intensity distribution. Each of the steps is included, and the step of calculating the position of the intersection of the approximate straight lines as the position of the bending point is included.
本発明の第5の態様に係るレンズ倍率認識方法は、第1の態様において、参照データは、レンズ倍率ごとの受光強度分布におけるエッジ部の位置に関する情報を含んでおり、レンズ倍率認識ステップは、イメージサークルのエッジ部を検出するステップと、イメージサークルから検出したエッジ部の位置を、参照データに含まれるエッジ部の位置と比較することにより、認識対象のレンズのレンズ倍率を認識するステップとを含む。 In the lens magnification recognition method according to the fifth aspect of the present invention, in the first aspect, the reference data includes information regarding the position of the edge portion in the light receiving intensity distribution for each lens magnification, and the lens magnification recognition step includes information on the position of the edge portion. The step of detecting the edge portion of the image circle and the step of recognizing the lens magnification of the lens to be recognized by comparing the position of the edge portion detected from the image circle with the position of the edge portion included in the reference data. Including.
本発明の第6の態様に係る測定装置は、認識対象のレンズを用いて得られた画像を撮像する撮像部と、撮像した画像のイメージサークルを検出するイメージサークル検出部と、イメージサークルにおける受光強度分布を取得し、イメージサークルにおける受光強度分布を、レンズ倍率が異なるレンズを用いて撮像された受光強度分布から作成された参照データと比較することにより、認識対象のレンズのレンズ倍率を認識するレンズ倍率認識部とを備える。 The measuring device according to the sixth aspect of the present invention includes an image pickup unit that captures an image obtained by using a lens to be recognized, an image circle detection unit that detects an image circle of the captured image, and light reception in the image circle. The lens magnification of the lens to be recognized is recognized by acquiring the intensity distribution and comparing the light receiving intensity distribution in the image circle with the reference data created from the light receiving intensity distribution imaged using lenses having different lens magnifications. It is equipped with a lens magnification recognition unit.
本発明によれば、イメージサークルにおける光の1次元強度分布又は2次元強度分布を、レンズ倍率ごとの参照データと比較することにより、レンズ倍率の認識を自動的かつ簡便に実施することが可能となる。 According to the present invention, it is possible to automatically and easily recognize the lens magnification by comparing the one-dimensional intensity distribution or the two-dimensional intensity distribution of light in the image circle with the reference data for each lens magnification. Become.
以下、添付図面に従って本発明に係るレンズ倍率認識方法及び測定装置の実施の形態について説明する。 Hereinafter, embodiments of the lens magnification recognition method and the measuring device according to the present invention will be described with reference to the accompanying drawings.
[測定装置の構成]
図1は、本発明の一実施形態に係る測定装置を示すブロック図である。
[Measuring device configuration]
FIG. 1 is a block diagram showing a measuring device according to an embodiment of the present invention.
図1に示すように、本実施形態に係る測定装置1は、被測定物Wの形状、表面粗さ等の測定を行うための白色干渉顕微鏡50と、制御装置10とを含んでいる。以下の説明では、被測定物Wが載置されるステージ78に沿う平面をXY平面とする3次元直交座標系を用いて説明する。 As shown in FIG. 1, the measuring device 1 according to the present embodiment includes a white interference microscope 50 for measuring the shape, surface roughness, etc. of the object to be measured W, and a control device 10. In the following description, a three-dimensional Cartesian coordinate system in which the plane along the stage 78 on which the object W to be measured is placed is the XY plane will be described.
制御装置10は、白色干渉顕微鏡50の各部の制御を行い、白色干渉顕微鏡50による測定の結果を処理する装置であり、制御部12、入出力部14及び信号処理部16を含んでいる。制御装置10は、例えば、パーソナルコンピュータ、ワークステーション等の汎用のコンピュータによって実現可能である。 The control device 10 is a device that controls each part of the white interference microscope 50 and processes the result of measurement by the white interference microscope 50, and includes a control unit 12, an input / output unit 14, and a signal processing unit 16. The control device 10 can be realized by a general-purpose computer such as a personal computer or a workstation.
制御装置10は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)及びストレージデバイス(例えば、HDD(Hard Disk Drive)等)を含んでいる。制御装置10では、ROM又はストレージデバイスに記憶されている制御プログラム等の各種プログラムがRAMに展開され、RAMに展開されたプログラムがCPUによって実行されることにより、制御装置10の各部の機能が実現される。 The control device 10 includes a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and a storage device (for example, an HDD (Hard Disk Drive)). In the control device 10, various programs such as a control program stored in the ROM or the storage device are expanded in the RAM, and the programs expanded in the RAM are executed by the CPU to realize the functions of each part of the control device 10. Will be done.
制御部12は、入出力部14を介してオペレーターから操作入力を受け付けて、制御装置10の各部を制御する。また、制御部12は、白色干渉顕微鏡50の光源部52の出力制御を行って、被測定物Wに照射される照明光の光量等を調整する。制御部12は、ステージ駆動部80の駆動制御を行ってステージ78を移動させて、被測定物Wの観察対象位置(測定位置)の調整等を行う。制御部12は、本発明のイメージサークル検出部及びレンズ倍率認識部の一例である。 The control unit 12 receives an operation input from the operator via the input / output unit 14 and controls each unit of the control device 10. Further, the control unit 12 controls the output of the light source unit 52 of the white interference microscope 50 to adjust the amount of illumination light radiated to the object W to be measured. The control unit 12 controls the drive of the stage drive unit 80 to move the stage 78 to adjust the observation target position (measurement position) of the object W to be measured. The control unit 12 is an example of the image circle detection unit and the lens magnification recognition unit of the present invention.
入出力部14は、作業者の操作入力を受け付けるための操作部材(例えば、キーボード、ポインティングデバイス等)と、白色干渉顕微鏡50による被測定物Wの測定の結果等を表示するための表示部(例えば、液晶ディスプレイ等)とを含んでいる。 The input / output unit 14 is an operation member (for example, a keyboard, a pointing device, etc.) for receiving an operation input of an operator, and a display unit (for example, a display unit (for example)) for displaying the measurement result of the object W to be measured by the white interference microscope 50. For example, a liquid crystal display, etc.) is included.
信号処理部16は、白色干渉顕微鏡50の検出器76から検出信号を取得して、この検出信号に対して後述の信号処理を行い、被測定物Wの測定に用いられる干渉対物レンズ66の倍率の認識を行う。 The signal processing unit 16 acquires a detection signal from the detector 76 of the white interference microscope 50, performs signal processing described later on the detection signal, and magnifies the interference objective lens 66 used for measuring the object W to be measured. To recognize.
白色干渉顕微鏡50は、光源部52、ライトガイド54及び鏡筒56を含んでいる。鏡筒56の下端部にはターレット62が取り付けられており、鏡筒56の上端部には検出器76が取り付けられている。ターレット62には、複数(図1に示す例では3個)の対物部64が取り付けられている。複数の対物部64は、相互にレンズ倍率が異なる干渉対物レンズ66を含んでおり、ターレット62を回転させることにより、被測定物Wの測定に使用する干渉対物レンズ66を切り替えることが可能となっている。 The white interference microscope 50 includes a light source unit 52, a light guide 54, and a lens barrel 56. A turret 62 is attached to the lower end of the lens barrel 56, and a detector 76 is attached to the upper end of the lens barrel 56. A plurality of (three in the example shown in FIG. 1) objective portions 64 are attached to the turret 62. The plurality of objective units 64 include interference objective lenses 66 having different lens magnifications from each other, and by rotating the turret 62, it is possible to switch the interference objective lens 66 used for measuring the object W to be measured. ing.
光源部52は、白色光を出力する光源であり、例えば、ハロゲンランプ、レーザー光源又はLED(Light Emitting Diode)光源等である。ここで、白色光とは、可視光領域(波長約400nm〜約720nm)の波長の可視光線を混ぜ合わせた光であり、例えば、赤、緑及び青の3色(3原色)の光を適切な比率で混合した光であってもよい。 The light source unit 52 is a light source that outputs white light, and is, for example, a halogen lamp, a laser light source, an LED (Light Emitting Diode) light source, or the like. Here, the white light is light obtained by mixing visible light having a wavelength in the visible light region (wavelength of about 400 nm to about 720 nm), and for example, light of three colors (three primary colors) of red, green and blue is appropriate. The light may be mixed at various ratios.
ライトガイド54は、光源部52から出力された白色光を鏡筒56に伝播する光路を形成する部材であり、例えば、光ファイバである。 The light guide 54 is a member that forms an optical path that propagates white light output from the light source unit 52 to the lens barrel 56, and is, for example, an optical fiber.
鏡筒56は、同軸落射型の照明光学系を有している。鏡筒56には、照明用レンズ58、ビームスプリッター60、結像レンズ72及び絞り74が配置されている。 The lens barrel 56 has a coaxial epi-illumination optical system. An illumination lens 58, a beam splitter 60, an imaging lens 72, and an aperture 74 are arranged in the lens barrel 56.
照明用レンズ58は、ライトガイド54を介して鏡筒56に入射した白色光(照明光)を干渉対物レンズ66の瞳位置に導光する(結像させる)光学系を有する。照明用レンズ58から出力された照明光は、ビームスプリッター60によって反射されて干渉対物レンズ66に導光される。 The illumination lens 58 has an optical system that guides (images) white light (illumination light) incident on the lens barrel 56 to the pupil position of the interference objective lens 66 via the light guide 54. The illumination light output from the illumination lens 58 is reflected by the beam splitter 60 and guided to the interference objective lens 66.
ビームスプリッター60を介して導光された照明光は、干渉対物レンズ66により対物部64の出射側に導光される。対物部64の出射側に導光された照明光のうちハーフミラー68を透過した成分は、ステージ78に載置された被測定物Wに導光され、被測定物Wの被測定面で反射される。そして、被測定物Wの被測定面からの反射光は、ハーフミラー68を透過して結像レンズ72に到達する。 The illumination light guided through the beam splitter 60 is guided to the exit side of the objective unit 64 by the interference objective lens 66. Of the illumination light guided to the exit side of the objective unit 64, the component transmitted through the half mirror 68 is guided to the object to be measured W placed on the stage 78 and reflected by the surface to be measured of the object W to be measured. Will be done. Then, the reflected light from the surface to be measured of the object W to be measured passes through the half mirror 68 and reaches the imaging lens 72.
一方、対物部64の出射側に導光された照明光のうちハーフミラー68に反射された成分は、参照ミラー70に導光されて反射される。参照ミラー70からの反射光は、ハーフミラー68に反射されて結像レンズ72に到達する。ここで、ハーフミラー68と参照ミラー70との間の距離は固定とする。 On the other hand, of the illumination light guided to the exit side of the objective unit 64, the component reflected by the half mirror 68 is guided by the reference mirror 70 and reflected. The reflected light from the reference mirror 70 is reflected by the half mirror 68 and reaches the imaging lens 72. Here, the distance between the half mirror 68 and the reference mirror 70 is fixed.
結像レンズ72は、被測定物Wの被測定面からの反射光と、参照ミラー70からの反射光とを検出器76の光検出面に結像させる光学系を有する。 The imaging lens 72 has an optical system that forms an image of the reflected light from the measured surface of the object W to be measured and the reflected light from the reference mirror 70 on the photodetector surface of the detector 76.
絞り74は、結像レンズ72と検出器76との間に設けられており、結像レンズ72から検出器76に導光される反射光の一部を遮光する。 The diaphragm 74 is provided between the imaging lens 72 and the detector 76, and blocks a part of the reflected light guided from the imaging lens 72 to the detector 76.
検出器76は、例えば、CCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)等の光検出アレイ素子(以下、イメージセンサーという。)を含んでいる。検出器76は、イメージセンサーの各受光素子が検出した光強度を示すアナログ又はデジタルの検出信号を生成し、信号処理部16に出力する。検出器76は、本発明の撮像部の一例である。 The detector 76 includes, for example, a photodetector array element (hereinafter, referred to as an image sensor) such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor). The detector 76 generates an analog or digital detection signal indicating the light intensity detected by each light receiving element of the image sensor, and outputs the analog or digital detection signal to the signal processing unit 16. The detector 76 is an example of the imaging unit of the present invention.
検出器76は、被測定物Wの被測定面の形状、表面粗さ等の測定を行う場合に、被測定物Wの被測定面からの第1の反射光L1、及び参照ミラー70からの第2の反射光L2を受光して検出信号を生成し、信号処理部16に出力する。 When the detector 76 measures the shape, surface roughness, etc. of the surface to be measured of the object W to be measured, the first reflected light L1 from the surface to be measured of the object W to be measured and the reference mirror 70 are used. The second reflected light L2 is received, a detection signal is generated, and the detection signal is output to the signal processing unit 16.
被測定物Wの被測定面とハーフミラー68との間の距離と、参照ミラー70とハーフミラー68との間の距離が変化すると、第1の反射光L1と第2の反射光L2との間に位相差が生じる。そして、この位相差に応じて干渉縞が変化する。例えば、被測定物Wの被測定面とハーフミラー68との間の距離と、参照ミラー70とハーフミラー68との間の距離が等しい場合には、第1の反射光L1と第2の反射光L2との間に位相差が生じないため、干渉縞の振幅が最大になる。 When the distance between the measured surface of the object W to be measured and the half mirror 68 and the distance between the reference mirror 70 and the half mirror 68 change, the first reflected light L1 and the second reflected light L2 There is a phase difference between them. Then, the interference fringes change according to this phase difference. For example, when the distance between the measured surface of the object W to be measured and the half mirror 68 and the distance between the reference mirror 70 and the half mirror 68 are equal, the first reflected light L1 and the second reflection Since no phase difference is generated with the light L2, the amplitude of the interference fringes is maximized.
信号処理部16は、検出器76から入力された検出信号に基づいて、干渉縞の形状及び振幅等を算出する。 The signal processing unit 16 calculates the shape and amplitude of the interference fringes based on the detection signal input from the detector 76.
制御部12は、干渉対物レンズ66を高さ方向(Z方向)に走査させたときに、信号処理部16によって算出された干渉縞の形状及び振幅等に基づいて、被測定物Wの被測定面の形状、表面粗さ等の測定を行う。制御部12は、例えば、信号処理部16によって算出された干渉縞の振幅が最大になるときの干渉対物レンズ66の高さ方向(Z方向)の位置を取得する。そして、制御部12は、この干渉対物レンズ66の位置に基づいて、被測定物Wの被測定面の位置を算出し、被測定物Wの被測定面の形状、表面粗さ等の測定を行う。制御部12は、この測定の結果をストレージデバイスに格納したり、入出力部14の表示部に表示させることが可能となっている。 When the interference objective lens 66 is scanned in the height direction (Z direction), the control unit 12 measures the object W to be measured based on the shape and amplitude of the interference fringes calculated by the signal processing unit 16. Measure the shape of the surface, surface roughness, etc. The control unit 12 acquires, for example, the position in the height direction (Z direction) of the interference objective lens 66 when the amplitude of the interference fringes calculated by the signal processing unit 16 is maximized. Then, the control unit 12 calculates the position of the surface to be measured of the object W to be measured based on the position of the interference objective lens 66, and measures the shape of the surface to be measured, the surface roughness, etc. of the object W to be measured. Do. The control unit 12 can store the result of this measurement in the storage device or display it on the display unit of the input / output unit 14.
ステージ駆動部80は、ステージ78をXY方向に移動させるための駆動機構(例えば、アクチュエータ等)を備えている。被測定物Wにおける光の照射位置(観察対象位置)は、ステージ駆動部80によりステージ78をXY方向に移動させることにより変更可能となっている。なお、本実施形態では、ステージ78をXY方向に移動可能としたが、ステージ78を固定として鏡筒56をXY方向に移動可能としてもよいし、鏡筒56及びステージ78の両方を移動可能としてもよい。 The stage drive unit 80 includes a drive mechanism (for example, an actuator or the like) for moving the stage 78 in the XY directions. The light irradiation position (observation target position) of the object W to be measured can be changed by moving the stage 78 in the XY direction by the stage drive unit 80. In the present embodiment, the stage 78 is movable in the XY direction, but the stage 78 may be fixed and the lens barrel 56 may be movable in the XY direction, or both the lens barrel 56 and the stage 78 may be movable. May be good.
(干渉対物レンズのレンズ倍率の認識の手順)
次に、干渉対物レンズ66のレンズ倍率を認識する手順について説明する。
(Procedure for recognizing the lens magnification of the interference objective lens)
Next, a procedure for recognizing the lens magnification of the interference objective lens 66 will be described.
上記のように、干渉対物レンズ66によって被測定物Wの被測定面に結像されて反射された反射光L1は、結像レンズ72及び絞り74を経て検出器76のイメージセンサーに結像する。この反射光L1がイメージセンサーにおいて結像する領域(以下、イメージサークルという。図2参照。)は、干渉対物レンズ66のレンズ倍率に応じて異なる。本実施形態では、干渉対物レンズ66のレンズ倍率とイメージサークルにおける受光強度分布との関係を利用して、干渉対物レンズ66のレンズ倍率を認識する。 As described above, the reflected light L1 imaged and reflected on the measured surface of the object W to be measured by the interference objective lens 66 is imaged on the image sensor of the detector 76 through the imaging lens 72 and the aperture 74. .. The region in which the reflected light L1 is imaged in the image sensor (hereinafter referred to as an image circle; see FIG. 2) differs depending on the lens magnification of the interference objective lens 66. In the present embodiment, the lens magnification of the interference objective lens 66 is recognized by utilizing the relationship between the lens magnification of the interference objective lens 66 and the light receiving intensity distribution in the image circle.
(1次元強度分布に基づくレンズ倍率の認識)
まず、1次元強度分布に基づくレンズ倍率の認識について説明する。
(Recognition of lens magnification based on one-dimensional intensity distribution)
First, recognition of the lens magnification based on the one-dimensional intensity distribution will be described.
図2は、イメージサークルの例を示す画像である。図2において、センサー領域VFは、検出器76のイメージセンサーの受光面であって、画素が形成された領域を示している。図2に示す例では、センサー領域VFは矩形であるが、センサー領域VFの平面形状はこれに限定されない。 FIG. 2 is an image showing an example of an image circle. In FIG. 2, the sensor region VF is a light receiving surface of the image sensor of the detector 76 and indicates a region in which pixels are formed. In the example shown in FIG. 2, the sensor region VF is rectangular, but the planar shape of the sensor region VF is not limited to this.
本実施形態では、イメージサークルCの外縁部(エッジ部)がセンサー領域VFの中に含まれるように、イメージセンサーのサイズとイメージサークルCとの関係が調整される。図2に示す例では、図2の対角線DL上にイメージサークルCのエッジ部が検出される。 In the present embodiment, the relationship between the size of the image sensor and the image circle C is adjusted so that the outer edge portion (edge portion) of the image circle C is included in the sensor region VF. In the example shown in FIG. 2, the edge portion of the image circle C is detected on the diagonal DL of FIG.
図3は、イメージサークルにおける受光強度分布(1次元強度分布)を示すグラフ(理論値)である。図4及び図5は、図3の一部を拡大して示すグラフである。図3から図5では、センサー領域VFの中心の画素位置をゼロとする。図3から図5において、符号T1からT3は、それぞれレンズ倍率が10倍、50倍及び100倍の干渉対物レンズ66を用いた場合のイメージサークルCの1次元強度分布を示している。図3から図5は、図2の対角線DLに沿う1次元強度分布を示しており、説明の便宜上、イメージサークルCの中心とセンサー領域VFの中心(画素位置=0)が一致しているものとする。 FIG. 3 is a graph (theoretical value) showing the light receiving intensity distribution (one-dimensional intensity distribution) in the image circle. 4 and 5 are graphs showing a part of FIG. 3 in an enlarged manner. In FIGS. 3 to 5, the pixel position at the center of the sensor region VF is set to zero. 3 to 5, reference numerals T1 to T3 indicate one-dimensional intensity distributions of the image circle C when the interference objective lenses 66 having lens magnifications of 10 times, 50 times, and 100 times are used, respectively. 3 to 5 show a one-dimensional intensity distribution along the diagonal DL of FIG. 2, and for convenience of explanation, the center of the image circle C and the center of the sensor region VF (pixel position = 0) coincide with each other. And.
図3から図5は、被測定物Wの被測定面からの反射光L1の光強度が被測定面のどの場所でも一様であると仮定した場合の理論値を示している。このため、図3に示すように、イメージサークルCの1次元強度分布(T1からT3)では、センサー領域VF内の画素位置によらず光強度が略一定となっており、イメージサークルCのエッジ部近傍において光強度が低下する。このため、図3の1次元強度分布(T1からT3)は略台形状となっている。図3の1次元強度分布(T1からT3)において、光強度がゼロになる点を結ぶ線分(下底)の長さがイメージサークルCの直径に相当する。 3 to 5 show theoretical values assuming that the light intensity of the reflected light L1 from the surface to be measured of the object W to be measured is uniform at any place on the surface to be measured. Therefore, as shown in FIG. 3, in the one-dimensional intensity distribution (T1 to T3) of the image circle C, the light intensity is substantially constant regardless of the pixel position in the sensor region VF, and the edge of the image circle C. The light intensity decreases in the vicinity of the part. Therefore, the one-dimensional intensity distribution (T1 to T3) in FIG. 3 has a substantially trapezoidal shape. In the one-dimensional intensity distribution (T1 to T3) of FIG. 3, the length of the line segment (lower base) connecting the points where the light intensity becomes zero corresponds to the diameter of the image circle C.
干渉対物レンズ66のレンズ倍率が低いほど、反射光L1のうち絞り74によって遮光される成分が少なくなる。このため、図3に示すように、レンズ倍率が低いほど、イメージサークルCの直径が大きくなる。 The lower the lens magnification of the interference objective lens 66, the smaller the component of the reflected light L1 that is blocked by the aperture 74. Therefore, as shown in FIG. 3, the lower the lens magnification, the larger the diameter of the image circle C.
さらに、図4及び図5に示すように、1次元強度分布(T1からT3)において、イメージサークルCのエッジ部近傍から光強度が徐々に低下して、エッジ部において光強度がゼロになっている。この光強度が低下し始める点の位置、すなわち、台形状の1次元強度分布(T1からT3)の上底の両端部は、干渉対物レンズ66のレンズ倍率に応じて異なっている。 Further, as shown in FIGS. 4 and 5, in the one-dimensional intensity distribution (T1 to T3), the light intensity gradually decreases from the vicinity of the edge portion of the image circle C, and the light intensity becomes zero at the edge portion. There is. The position of the point where the light intensity starts to decrease, that is, both ends of the upper bottom of the trapezoidal one-dimensional intensity distribution (T1 to T3) are different depending on the lens magnification of the interference objective lens 66.
実際の測定では、検出器76のイメージセンサーのノイズフロアの影響により、イメージサークルCのエッジ部近傍の光強度が弱い部分を検出することは困難である。このため、本実施形態では、イメージサークルCの1次元強度分布(T1からT3)のうちエッジ部近傍において光強度が比較的強い部分、特に、エッジ部近傍において光強度が低下し始める上底の両端部の点の位置の違いを利用してレンズ倍率の認識を行う。 In the actual measurement, it is difficult to detect the portion where the light intensity is weak near the edge portion of the image circle C due to the influence of the noise floor of the image sensor of the detector 76. Therefore, in the present embodiment, in the one-dimensional intensity distribution (T1 to T3) of the image circle C, the portion where the light intensity is relatively strong near the edge portion, particularly, the upper bottom where the light intensity starts to decrease near the edge portion. The lens magnification is recognized by using the difference in the positions of the points at both ends.
図6は、イメージサークルにおける受光強度分布(1次元強度分布)を示すグラフ(実測値)である。図7及び図8は、図6の一部を拡大して示すグラフである。図6から図8において、符号D1からD3は、それぞれレンズ倍率が10倍、50倍及び100倍の干渉対物レンズ66を用いて得られたイメージサークルCの1次元強度分布を示している。図6から図8は、図2の対角線DLに沿う1次元強度分布を示しており、説明の便宜上、イメージサークルCの中心とセンサー領域VFの中心(画素位置=0)が一致しているものとする。 FIG. 6 is a graph (measured value) showing the light receiving intensity distribution (one-dimensional intensity distribution) in the image circle. 7 and 8 are graphs showing a part of FIG. 6 in an enlarged manner. 6 to 8, reference numerals D1 to D3 indicate one-dimensional intensity distributions of the image circle C obtained by using the interference objective lenses 66 having lens magnifications of 10 times, 50 times, and 100 times, respectively. 6 to 8 show a one-dimensional intensity distribution along the diagonal DL of FIG. 2, and for convenience of explanation, the center of the image circle C and the center of the sensor region VF (pixel position = 0) coincide with each other. And.
図6から図8は、被測定物Wの被測定面からの反射光L1の光強度が被測定面の場所によらず略一様とした場合の1次元強度分布の実測値を示している。図6に示すように、各1次元強度分布D1からD3は、イメージサークルCの中心P0における光強度が一致するように規格化されている。 6 to 8 show measured values of the one-dimensional intensity distribution when the light intensity of the reflected light L1 from the surface to be measured of the object W to be measured is substantially uniform regardless of the location of the surface to be measured. .. As shown in FIG. 6, each one-dimensional intensity distribution D1 to D3 is standardized so that the light intensities at the center P0 of the image circle C match.
1次元強度分布D1からD3は、イメージサークルCの中心で光強度が最大となっており、エッジ部側に向かって略線形に光強度が低下している。そして、1次元強度分布D1からD3のエッジ部の近傍では、光強度が低下するときの傾きの絶対値が大きくなっている。さらに、イメージサークルCの外側では、ノイズフロアの影響により、光強度がゼロより大きい略一定値となっている。 In the one-dimensional intensity distributions D1 to D3, the light intensity is maximum at the center of the image circle C, and the light intensity decreases substantially linearly toward the edge portion side. Then, in the vicinity of the edge portions of the one-dimensional intensity distributions D1 to D3, the absolute value of the inclination when the light intensity decreases is large. Further, outside the image circle C, the light intensity is a substantially constant value larger than zero due to the influence of the noise floor.
本実施形態では、レンズ倍率ごとに1次元強度分布D1からD3をあらかじめ測定しておく。そして、被測定物Wの被測定面の測定を行う際に得られた1次元強度分布とあらかじめ測定しておいた1次元強度分布とを比較することにより、レンズ倍率の認識を行う。 In the present embodiment, the one-dimensional intensity distributions D1 to D3 are measured in advance for each lens magnification. Then, the lens magnification is recognized by comparing the one-dimensional intensity distribution obtained when measuring the surface to be measured of the object W to be measured with the one-dimensional intensity distribution measured in advance.
以下、1次元強度分布D1からD3に基づいてレンズ倍率の認識を行う場合の例について具体的に説明する。 Hereinafter, an example in which the lens magnification is recognized based on the one-dimensional intensity distributions D1 to D3 will be specifically described.
まず、信号処理部16により、被測定物Wの被測定面からの反射光L1の光強度被測定面の場所によらず略一様とした場合の1次元強度分布D1からD3をあらかじめ測定する。 First, the signal processing unit 16 measures in advance the one-dimensional intensity distributions D1 to D3 when the light intensity of the light L1 reflected from the surface to be measured of the object W to be measured is substantially uniform regardless of the location of the surface to be measured. ..
次に、制御部12は、図7に示すように、1次元強度分布D3に対して、中心側領域A3Oとエッジ部側領域A3Iを設定する。そして、制御部12は、1次元強度分布D3のうちの中心側領域A3Oにおける光強度のデータを用いて近似直線F3Oを算出し、エッジ部側領域A3Iにおける光強度のデータを用いて近似直線F3Iを算出する。近似直線F3O及びF3Iは、それぞれ中心側領域A3O及びエッジ部側領域A3Iにおける光強度のデータを最小二乗近似することにより算出することが可能である。 Next, as shown in FIG. 7, the control unit 12 sets the central region A3 O and the edge region A3 I with respect to the one-dimensional intensity distribution D3. Then, the control unit 12 calculates an approximate straight line F3 O using the light intensity data in the central region A3 O of the one-dimensional intensity distribution D3, and uses the light intensity data in the edge region A3 I. Calculate the approximate straight line F3 I. The approximate straight lines F3 O and F3 I can be calculated by performing a least squares approximation of the light intensity data in the central region A3 O and the edge region A3 I , respectively.
ここで、中心側領域A3Oは、イメージサークルCの中心P0から、1次元強度分布D3のエッジ部近傍の変化の割合(傾き)が変化する点(以下、折れ曲がり点という。)の近傍までの領域である。中心側領域A3Oは、例えば、折れ曲がり点の周囲の領域(例えば、折れ曲がり点の周囲の所定の画素数分の領域)M1を除いた領域とすることができる。なお、中心側領域A3Oは、例えば、中心側領域A3Oにおける光強度データの相関係数が所定値以上になるように設定してもよい。 Here, the central region A3 O extends from the center P0 of the image circle C to the vicinity of the point where the rate of change (slope) in the vicinity of the edge portion of the one-dimensional intensity distribution D3 changes (hereinafter referred to as a bending point). It is an area. The central region A3 O can be, for example, a region excluding the region around the bend point (for example, the region for a predetermined number of pixels around the bend point) M1. The center-side region A3 O is, for example, the correlation coefficient of the light intensity data may be set to be equal to or greater than the predetermined value in the center side region A3 O.
また、エッジ部側領域A3Iは、折れ曲がり点からイメージサークルCのエッジ部までの領域である。エッジ部側領域A3Iは、折れ曲がり点の周囲の領域M1と、イメージサークルCの外側の領域M2とを除外した領域としてもよい。なお、エッジ部側領域A3Iは、例えば、エッジ部側領域A3Iにおける光強度データの相関係数が所定値以上になるように設定してもよい。 Further, the edge portion side region A3 I is an region from the bending point to the edge portion of the image circle C. The edge portion side region A3 I may be a region excluding the region M1 around the bending point and the region M2 outside the image circle C. Incidentally, the edge portion side region A3 I are, for example, the correlation coefficient of the light intensity data in the edge portion region A3 I may be equal to or higher than a predetermined value.
次に、制御部12は、近似直線F3Iと近似直線F3Oの交点P3の座標を求める。そして、1次元強度分布D1及びD2についても同様にして、中心側領域及びエッジ部側領域の近似直線の交点P1及びP2をそれぞれ算出する。これにより、ターレット62に取り付けられた各干渉対物レンズ66を用いて取得された1次元強度分布に関する情報(より具体的には、イメージサークル内で1次元強度分布の変化の割合が変化する折れ曲がり点の位置に関する情報)が得られる。 Next, the control unit 12 obtains the coordinates of the intersection P3 of the approximate straight line F3 I and the approximate straight line F3 O. Then, the intersections P1 and P2 of the approximate straight lines of the central region and the edge region are calculated in the same manner for the one-dimensional intensity distributions D1 and D2, respectively. As a result, information on the one-dimensional intensity distribution acquired by using each interference objective lens 66 attached to the turret 62 (more specifically, a bending point at which the rate of change of the one-dimensional intensity distribution changes in the image circle). Information about the location of) is obtained.
認識対象の干渉対物レンズ66を用いて被測定物Wの被測定面の測定を行う際には、制御部12は、認識対象の干渉対物レンズ66により得られた1次元強度分布(以下、測定データという。)を取得する。次に、制御部12は、あらかじめ測定しておいたレンズ倍率ごとの1次元強度分布(以下、参照データという。)と、測定データとを比較する。そして、制御部12は、参照データ及び測定データにおける交点の座標を比較して、測定時の干渉対物レンズ66のレンズ倍率を認識する。 When measuring the surface to be measured of the object W to be measured by using the interference objective lens 66 to be recognized, the control unit 12 determines the one-dimensional intensity distribution (hereinafter, measurement) obtained by the interference objective lens 66 to be recognized. Data) is acquired. Next, the control unit 12 compares the one-dimensional intensity distribution for each lens magnification (hereinafter referred to as reference data) measured in advance with the measurement data. Then, the control unit 12 compares the coordinates of the intersections in the reference data and the measurement data, and recognizes the lens magnification of the interference objective lens 66 at the time of measurement.
上記の例によれば、イメージサークルCにおける光強度の1次元強度分布を利用することにより、白色干渉顕微鏡50における干渉対物レンズ66のレンズ倍率の認識を自動的かつ簡便に実施することが可能となる。 According to the above example, by using the one-dimensional intensity distribution of the light intensity in the image circle C, it is possible to automatically and easily recognize the lens magnification of the interference objective lens 66 in the white interference microscope 50. Become.
なお、本実施形態では、図7に示す1次元強度分布(D1からD3)の画素位置が負の部分の光強度データを用いて近似直線の交点(P1からP3)を算出してレンズ倍率の認識を行ったが、本発明はこれに限定されない。例えば、図8に示す画素位置が正の部分の光強度データを用いて近似直線の交点を算出してレンズ倍率の認識を行ってもよいし、左右両側の交点の座標に基づいてレンズ倍率の認識を行ってもよい。 In the present embodiment, the intersection of approximate straight lines (P1 to P3) is calculated using the light intensity data of the portion where the pixel position of the one-dimensional intensity distribution (D1 to D3) shown in FIG. 7 is negative, and the lens magnification is increased. Although recognized, the present invention is not limited to this. For example, the intersection of the approximate straight lines may be calculated using the light intensity data of the portion where the pixel position shown in FIG. 8 is positive to recognize the lens magnification, or the lens magnification may be recognized based on the coordinates of the intersections on both the left and right sides. Recognition may be performed.
また、上記の例では、イメージサークルCのエッジ部が検出器76の受光素子のセンサー領域VFに含まれるように、イメージセンサーのサイズとイメージサークルCとの関係が調整される。図9から図14は、イメージセンサーのサイズとイメージサークルとの関係の例を示す図である。 Further, in the above example, the relationship between the size of the image sensor and the image circle C is adjusted so that the edge portion of the image circle C is included in the sensor region VF of the light receiving element of the detector 76. 9 to 14 are diagrams showing an example of the relationship between the size of the image sensor and the image circle.
図9に示す例では、イメージセンサーのセンサー領域VF1が正方形であり、イメージサークルC1の直径φ1がイメージセンサーの各辺H1及びV1よりも長くなっている(φ1>H1=V1)。この場合、イメージサークルCのエッジ部は、センサー領域VF1の2本の対角線DL1上に検出される。 In the example shown in FIG. 9, the sensor region VF1 of the image sensor is square, and the diameter φ1 of the image circle C1 is longer than each side H1 and V1 of the image sensor (φ1> H1 = V1). In this case, the edge portion of the image circle C is detected on the two diagonal lines DL1 of the sensor region VF1.
図10に示す例では、イメージセンサーのセンサー領域VF2が正方形であり、イメージサークルC2の直径φ2がイメージセンサーの各辺H2及びV2よりも短くなっている(φ2<H2=V2)。この場合、イメージサークルCのエッジ部は、センサー領域VF2の2本の対角線DL2上と、センサー領域VF2の対向する辺の中点同士を結ぶ2本の線分HL2及びVL2上に検出される。 In the example shown in FIG. 10, the sensor region VF2 of the image sensor is square, and the diameter φ2 of the image circle C2 is shorter than each side H2 and V2 of the image sensor (φ2 <H2 = V2). In this case, the edge portion of the image circle C is detected on the two diagonal lines DL2 of the sensor area VF2 and on the two line segments HL2 and VL2 connecting the midpoints of the opposite sides of the sensor area VF2.
図11に示す例では、イメージセンサーのセンサー領域VF3が長方形であり、イメージサークルC3の直径φ3がイメージセンサーの長辺V3よりも長くなっている(φ3>V3>H3)。この場合、イメージサークルCのエッジ部は、センサー領域VF3の2本の対角線DL3上に検出される。 In the example shown in FIG. 11, the sensor region VF3 of the image sensor is rectangular, and the diameter φ3 of the image circle C3 is longer than the long side V3 of the image sensor (φ3> V3> H3). In this case, the edge portion of the image circle C is detected on the two diagonal lines DL3 of the sensor region VF3.
図12に示す例では、イメージセンサーのセンサー領域VF4が長方形であり、イメージサークルC4の直径φ4がイメージセンサーの長辺V4よりも短く、短辺H4よりも長くなっている(V4>φ4>H4)。この場合、イメージサークルCのエッジ部は、センサー領域VF4の2本の対角線DL4上と、センサー領域VF4の対向する短辺H4の中点同士を結ぶ線分VL4上に検出される。 In the example shown in FIG. 12, the sensor area VF4 of the image sensor is rectangular, and the diameter φ4 of the image circle C4 is shorter than the long side V4 of the image sensor and longer than the short side H4 (V4> φ4> H4). ). In this case, the edge portion of the image circle C is detected on the two diagonal lines DL4 of the sensor area VF4 and on the line segment VL4 connecting the midpoints of the opposite short sides H4 of the sensor area VF4.
図13に示す例では、イメージセンサーのセンサー領域VF5が長方形であり、イメージサークルC5の直径φ5がイメージセンサーの長辺H5よりも長くなっている(φ5>H5>V5)。この場合、イメージサークルCのエッジ部は、センサー領域VF5の2本の対角線DL5上に検出される。 In the example shown in FIG. 13, the sensor region VF5 of the image sensor is rectangular, and the diameter φ5 of the image circle C5 is longer than the long side H5 of the image sensor (φ5> H5> V5). In this case, the edge portion of the image circle C is detected on the two diagonal lines DL5 of the sensor region VF5.
図14に示す例では、イメージセンサーのセンサー領域VF6が長方形であり、イメージサークルC6の直径φ6がイメージセンサーの長辺H6よりも短く、短辺V6よりも長くなっている(H6>φ6>V6)。この場合、イメージサークルCのエッジ部は、センサー領域VF6の2本の対角線DL6上と、センサー領域VF6の対向する短辺V6の中点同士を結ぶ線分HL6上に検出される。 In the example shown in FIG. 14, the sensor area VF6 of the image sensor is rectangular, and the diameter φ6 of the image circle C6 is shorter than the long side H6 of the image sensor and longer than the short side V6 (H6> φ6> V6). ). In this case, the edge portion of the image circle C is detected on the two diagonal lines DL6 of the sensor area VF6 and on the line segment HL6 connecting the midpoints of the opposite short sides V6 of the sensor area VF6.
本実施形態では、イメージセンサーのサイズとイメージサークルに応じて、エッジ部が存在する1次元強度分布(対角線DL1からDL6、線分VL2、HL2、VL4又はHL6に沿う1次元強度分布)を求める。そして、図7に示した例と同様に、1次元強度分布の近似直線の交点の座標を算出し、あらかじめ測定しておいたレンズ倍率ごとの1次元強度分布における交点の座標と比較することにより、レンズ倍率の認識を行うことが可能である。 In the present embodiment, the one-dimensional intensity distribution (diagonal DL1 to DL6, line segment VL2, HL2, VL4 or HL6 along the diagonal lines DL1 to DL6, the one-dimensional intensity distribution along the HL6) is obtained according to the size of the image sensor and the image circle. Then, as in the example shown in FIG. 7, the coordinates of the intersections of the approximate straight lines of the one-dimensional intensity distribution are calculated and compared with the coordinates of the intersections in the one-dimensional intensity distribution for each lens magnification measured in advance. , It is possible to recognize the lens magnification.
なお、イメージセンサーのサイズとイメージサークルCとの関係は、図9から図14に限定されるものではない。例えば、イメージサークルCの中心とセンサー領域VFの中心が一致していなくてもよく、センサー領域VF内にイメージサークルCのエッジ部が少なくとも1つ含まれるようにすればよい。 The relationship between the size of the image sensor and the image circle C is not limited to FIGS. 9 to 14. For example, the center of the image circle C and the center of the sensor region VF do not have to coincide with each other, and the sensor region VF may include at least one edge portion of the image circle C.
また、本実施形態では、1次元強度分布D1からD3をそれぞれ中心側領域及びエッジ部側領域に分けてそれぞれの近似直線を算出するようにしたが、本発明はこれに限定されない。例えば、領域分けを行わずに、1次元強度分布D1からD3を近似した区分線形関数をそれぞれ算出し、その区分線形関数の区分点(折れ曲がり点)の座標を算出し、区分点の座標を比較することによりレンズ倍率の認識を行うようにしてもよい。また、1次元強度分布D1からD3を2次以上の関数で近似し、近似関数の形状又はその折れ曲がり点の座標を比較することによりレンズ倍率の認識を行うようにしてもよい。 Further, in the present embodiment, the one-dimensional intensity distributions D1 to D3 are divided into a central region and an edge region, respectively, and their approximate straight lines are calculated, but the present invention is not limited to this. For example, without performing region division, each piecewise linear function that approximates the one-dimensional intensity distributions D1 to D3 is calculated, the coordinates of the piecewise linear function (bending point) are calculated, and the coordinates of the piecewise linear functions are compared. By doing so, the lens magnification may be recognized. Further, the one-dimensional intensity distributions D1 to D3 may be approximated by a function of a second order or higher, and the lens magnification may be recognized by comparing the shape of the approximating function or the coordinates of the bending point thereof.
(2次元強度分布に基づくレンズ倍率の認識)
上記の例では、1次元強度分布に基づいて干渉対物レンズ66のレンズ倍率を認識するようにしたが、2次元のイメージサークルCのエッジ部の位置に基づいて、干渉対物レンズ66のレンズ倍率を認識することも可能である。
(Recognition of lens magnification based on two-dimensional intensity distribution)
In the above example, the lens magnification of the interference objective lens 66 is recognized based on the one-dimensional intensity distribution, but the lens magnification of the interference objective lens 66 is determined based on the position of the edge portion of the two-dimensional image circle C. It is also possible to recognize.
この場合、信号処理部16により、各干渉対物レンズ66を使用したときのイメージサークルCの画像(2次元強度分布)をあらかじめ撮影する。そして、制御部12により、イメージサークルCのエッジ部の検出を行う。これにより、レンズ倍率ごとの受光強度分布におけるエッジ部の位置に関する情報を含む参照データが得られる。 In this case, the signal processing unit 16 captures in advance an image (two-dimensional intensity distribution) of the image circle C when each interference objective lens 66 is used. Then, the control unit 12 detects the edge portion of the image circle C. As a result, reference data including information on the position of the edge portion in the light receiving intensity distribution for each lens magnification can be obtained.
次に、被測定物Wの被測定面の測定を行う際には、制御部12は、あらかじめ測定しておいたレンズ倍率ごとの2次元強度分布と、被測定物Wの測定時に使用する干渉対物レンズ66により得られた2次元強度分布とを比較する。そして、制御部12は、これらの2次元強度分布におけるエッジ部の値に基づいて、測定時の干渉対物レンズ66のレンズ倍率を認識する。 Next, when measuring the surface to be measured of the object W to be measured, the control unit 12 has a two-dimensional intensity distribution for each lens magnification measured in advance and interference used when measuring the object W to be measured. Compare with the two-dimensional intensity distribution obtained by the objective lens 66. Then, the control unit 12 recognizes the lens magnification of the interference objective lens 66 at the time of measurement based on the value of the edge portion in these two-dimensional intensity distributions.
ここで、2次元強度分布からエッジ部を検出する方法としては、例えば、2次元強度分布の1次微分をとる方法(例えば、ロバート法)又は2次微分をとる方法(例えば、ラプラシアンフィルターを用いる方法)を適用することが可能である。ロバート法では、2次元強度分布の1次微分を算出し、1次微分の大きさ(絶対値)が極大となる点(画素位置)をエッジ部として検出する。ラプラシアンフィルターを用いる方法では、2次元強度分布の2次微分を算出し、2次微分のゼロ点(画素位置)をエッジ部として検出する。 Here, as a method of detecting the edge portion from the two-dimensional intensity distribution, for example, a method of taking the first derivative of the two-dimensional intensity distribution (for example, the Robert method) or a method of taking the second derivative (for example, a Laplacian filter is used. Method) can be applied. In the Robert method, the first derivative of the two-dimensional intensity distribution is calculated, and the point (pixel position) at which the magnitude (absolute value) of the first derivative is maximized is detected as the edge portion. In the method using the Laplacian filter, the second derivative of the two-dimensional intensity distribution is calculated, and the zero point (pixel position) of the second derivative is detected as the edge portion.
図15は、イメージサークルの2次元強度分布において1次微分をとる場合に用いるフィルター(ロバーツフィルター)の例を示す図である。 FIG. 15 is a diagram showing an example of a filter (Roberts filter) used when taking a first derivative in a two-dimensional intensity distribution of an image circle.
図9から図14に示すセンサー領域(VF1からVF6)では、対角線(DL1からDL6)上にエッジ部がある。このため、センサー領域(VF1からVF6)の斜め方向における2次元強度分布の1次微分を算出し、1次微分の大きさ(絶対値)が極大となる点(画素位置)をエッジ部として検出する。この場合、図15に示すフィルターRF10を用いて、センサー領域(VF1からVF6)の右上から左下方向の差分をとることにより、エッジ部の検出を行うことが可能である。また、フィルターRF12を用いて、センサー領域(VF1からVF6)の左上から右下方向の差分をとることにより、エッジ部の検出を行うことも可能である。 In the sensor region (VF1 to VF6) shown in FIGS. 9 to 14, there is an edge portion on the diagonal line (DL1 to DL6). Therefore, the first derivative of the two-dimensional intensity distribution in the diagonal direction of the sensor region (VF1 to VF6) is calculated, and the point (pixel position) where the magnitude (absolute value) of the first derivative is maximized is detected as the edge portion. To do. In this case, the edge portion can be detected by taking the difference from the upper right to the lower left of the sensor region (VF1 to VF6) using the filter RF10 shown in FIG. It is also possible to detect the edge portion by taking the difference from the upper left to the lower right of the sensor region (VF1 to VF6) using the filter RF12.
ここで、2次元強度分布をf(H,V)とすると、画素位置(H,V)=(i,j)における1次微分の大きさg(i,j)を差分を用いて表すと式(1)が得られる。そして、g(i,j)が極大となる画素位置を求めることにより、エッジ部を検出することができる。 Here, assuming that the two-dimensional intensity distribution is f (H, V), the magnitude g (i, j) of the first derivative at the pixel position (H, V) = (i, j) is expressed using the difference. Equation (1) is obtained. Then, the edge portion can be detected by finding the pixel position where g (i, j) is maximized.
g(i,j) = [{f(i,j) - f(i+1,j-1)}2 + {f(i,j) - f(i-1,j-1)}2]1/2...(1)
また、図10及び図12に示すセンサー領域(VF2及びVF4)では、V方向の線分(VL2及びVL4)上にもエッジ部がある。このため、図15に示すフィルターRF14を用いて、V方向の差分をとることにより、エッジ部の検出を行うことが可能である。
g (i, j) = [{f (i, j) --f (i + 1, j-1)} 2 + {f (i, j) --f (i-1, j-1)} 2 ] 1/2 ... (1)
Further, in the sensor regions (VF2 and VF4) shown in FIGS. 10 and 12, there are also edge portions on the line segments (VL2 and VL4) in the V direction. Therefore, it is possible to detect the edge portion by taking the difference in the V direction using the filter RF14 shown in FIG.
また、図10及び図14に示すセンサー領域(VF2及びVF6)では、H方向の線分(HL2及びHL6)上にもエッジ部がある。このため、図15に示すフィルターRF16を用いて、H方向の差分をとることにより、エッジ部の検出を行うことが可能である。 Further, in the sensor regions (VF2 and VF6) shown in FIGS. 10 and 14, there are also edge portions on the line segments (HL2 and HL6) in the H direction. Therefore, it is possible to detect the edge portion by taking the difference in the H direction using the filter RF16 shown in FIG.
図16は、イメージサークルの2次元強度分布において2次微分をとる場合に用いるフィルター(ラプラシアンフィルター)の例を示す図である。 FIG. 16 is a diagram showing an example of a filter (Laplacian filter) used when taking a second derivative in a two-dimensional intensity distribution of an image circle.
図16のフィルターLF20は、中心の画素(注目画素)に対して±V方向及び±H方向の4画素の2次微分をとるためのフィルター(4近傍ラプラシアンフィルター)である。また、フィルターLF22は、注目画素に対して±V方向、±H方向及び斜め方向の8画素の2次微分をとるためのフィルター(8近傍ラプラシアンフィルター)である。これらのフィルターを用いることにより、エッジ部の検出を行うことが可能である。 The filter LF20 of FIG. 16 is a filter (4 neighborhood Laplacian filter) for taking the second derivative of 4 pixels in the ± V direction and ± H direction with respect to the central pixel (the pixel of interest). Further, the filter LF22 is a filter (8-neighborhood Laplacian filter) for taking the second derivative of 8 pixels in the ± V direction, ± H direction and the oblique direction with respect to the pixel of interest. By using these filters, it is possible to detect the edge portion.
上記の例によれば、イメージサークルCにおける光強度の2次元強度分布のエッジ部を検出することにより、白色干渉顕微鏡50における干渉対物レンズ66のレンズ倍率の認識を自動的かつ簡便に実施することが可能となる。 According to the above example, the lens magnification of the interference objective lens 66 in the white interference microscope 50 is automatically and easily recognized by detecting the edge portion of the two-dimensional intensity distribution of the light intensity in the image circle C. Is possible.
なお、2次元強度分布においてエッジ部を検出する方法は上記に限定されるものではなく、ほかのエッジ検出方法(フィルター)を適用することも可能である。 The method for detecting the edge portion in the two-dimensional intensity distribution is not limited to the above, and another edge detection method (filter) can be applied.
(レンズ倍率認識方法)
次に、レンズ倍率認識方法について説明する。図17は、本発明の一実施形態に係るレンズ倍率認識方法を示すフローチャートである。
(Lens magnification recognition method)
Next, the lens magnification recognition method will be described. FIG. 17 is a flowchart showing a lens magnification recognition method according to an embodiment of the present invention.
まず、オペレーターによりターレット62が回転操作されて干渉対物レンズ66がセットされた後(ステップS10)、検出器76のイメージセンサーにより画像が撮像される(ステップS12)。ステップS12では、センサー領域VF内にイメージサークルCのエッジ部が少なくとも1か所含まれるように、画角又は絞り74が調整される。 First, the operator rotates the turret 62 to set the interference objective lens 66 (step S10), and then the image sensor of the detector 76 captures an image (step S12). In step S12, the angle of view or the aperture 74 is adjusted so that at least one edge portion of the image circle C is included in the sensor region VF.
次に、信号処理部16は、検出器76のイメージセンサーを用いて得られた画像からイメージサークルCを検出する(ステップS14)。制御部12は、信号処理部16によるイメージサークルCの検出結果に基づいて、イメージサークルCの受光強度分布を取得する(ステップS16)。 Next, the signal processing unit 16 detects the image circle C from the image obtained by using the image sensor of the detector 76 (step S14). The control unit 12 acquires the light receiving intensity distribution of the image circle C based on the detection result of the image circle C by the signal processing unit 16 (step S16).
次に、制御部12は、イメージサークルCの受光強度分布に基づいて、被測定物Wの測定に用いる干渉対物レンズ66のレンズ倍率を認識する(ステップS18)。 Next, the control unit 12 recognizes the lens magnification of the interference objective lens 66 used for measuring the object W to be measured based on the light receiving intensity distribution of the image circle C (step S18).
次に、1次元強度分布に基づくレンズ倍率認識ステップについて、図18を参照して説明する。図18は、1次元強度分布に基づくレンズ倍率認識ステップを示すフローチャートである。 Next, the lens magnification recognition step based on the one-dimensional intensity distribution will be described with reference to FIG. FIG. 18 is a flowchart showing a lens magnification recognition step based on a one-dimensional intensity distribution.
まず、制御部12は、イメージサークルCの受光強度分布から、エッジ部が含まれる方向(例えば、対角線方向)の1次元強度分布を作成し、参照データと同様に、強度の最大値に基づいて規格化する(ステップS30)。 First, the control unit 12 creates a one-dimensional intensity distribution in the direction including the edge portion (for example, the diagonal direction) from the light receiving intensity distribution of the image circle C, and based on the maximum value of the intensity as in the reference data. Standardize (step S30).
次に、制御部12は、規格化後の1次元強度分布に中心側領域及びエッジ部側領域を設定し、中心側領域及びエッジ部側領域の強度分布のデータからそれぞれ近似直線を算出する(ステップS32)。そして、制御部12は、中心側領域及びエッジ部側領域の近似直線の交点を算出する(ステップS34:折れ曲がり点算出ステップ)。 Next, the control unit 12 sets the central region and the edge region in the standardized one-dimensional intensity distribution, and calculates approximate straight lines from the intensity distribution data of the central region and the edge region, respectively ( Step S32). Then, the control unit 12 calculates the intersection of the approximate straight lines of the center side region and the edge portion side region (step S34: bending point calculation step).
次に、制御部12は、ステップS34において算出した交点の座標を参照データと比較して(ステップS36)、比較結果に基づいて干渉対物レンズ66のレンズ倍率を認識する(ステップS38)。 Next, the control unit 12 compares the coordinates of the intersection calculated in step S34 with the reference data (step S36), and recognizes the lens magnification of the interference objective lens 66 based on the comparison result (step S38).
次に、2次元強度分布に基づくレンズ倍率認識ステップについて、図19を参照して説明する。図19は、2次元強度分布に基づくレンズ倍率認識ステップを示すフローチャートである。 Next, the lens magnification recognition step based on the two-dimensional intensity distribution will be described with reference to FIG. FIG. 19 is a flowchart showing a lens magnification recognition step based on a two-dimensional intensity distribution.
まず、制御部12は、イメージサークルCの受光強度分布から2次元強度分布を作成し、エッジ検出を行ってエッジ部を検出し、エッジ部の座標(画素位置)を算出する(ステップS50)。 First, the control unit 12 creates a two-dimensional intensity distribution from the light receiving intensity distribution of the image circle C, performs edge detection to detect the edge portion, and calculates the coordinates (pixel position) of the edge portion (step S50).
次に、制御部12は、ステップS50において算出したエッジ部の座標を参照データと比較して(ステップS52)、比較結果に基づいて干渉対物レンズ66のレンズ倍率を認識する(ステップS54)。 Next, the control unit 12 compares the coordinates of the edge portion calculated in step S50 with the reference data (step S52), and recognizes the lens magnification of the interference objective lens 66 based on the comparison result (step S54).
本実施形態によれば、イメージサークルCにおける光強度の1次元強度分布又は2次元強度分布を、レンズ倍率ごとの参照データと比較することにより、白色干渉顕微鏡50における干渉対物レンズ66のレンズ倍率の認識を自動的かつ簡便に実施することが可能となる。 According to the present embodiment, by comparing the one-dimensional intensity distribution or the two-dimensional intensity distribution of the light intensity in the image circle C with the reference data for each lens magnification, the lens magnification of the interference objective lens 66 in the white interference microscope 50 It becomes possible to carry out recognition automatically and easily.
1…測定装置、10…制御装置、12…制御部、14…入出力部、16…信号処理部、50…白色干渉顕微鏡、52…光源部、54…ライトガイド、56…鏡筒、58…照明用レンズ、60…ビームスプリッター、62…ターレット、64…対物部、66…干渉対物レンズ、68…ハーフミラー、70…参照ミラー、72…結像レンズ、74…絞り、76…検出器、78…ステージ、80…ステージ駆動部 1 ... Measuring device, 10 ... Control device, 12 ... Control unit, 14 ... Input / output unit, 16 ... Signal processing unit, 50 ... White interference microscope, 52 ... Light source unit, 54 ... Light guide, 56 ... Lens barrel, 58 ... Illumination lens, 60 ... beam splitter, 62 ... turret, 64 ... objective, 66 ... interference objective lens, 68 ... half mirror, 70 ... reference mirror, 72 ... imaging lens, 74 ... aperture, 76 ... detector, 78 ... stage, 80 ... stage drive unit
Claims (6)
前記撮像した画像のイメージサークルを検出するステップと、
前記イメージサークルにおける受光強度分布を取得し、前記イメージサークルにおける受光強度分布を、レンズ倍率が異なるレンズを用いて撮像された受光強度分布から取得された参照データと比較することにより、前記認識対象のレンズのレンズ倍率を認識するレンズ倍率認識ステップと、
を含むレンズ倍率認識方法。 The step of capturing an image obtained by using the lens to be recognized by the imaging unit, and
The step of detecting the image circle of the captured image and
By acquiring the light receiving intensity distribution in the image circle and comparing the light receiving intensity distribution in the image circle with the reference data acquired from the light receiving intensity distribution imaged using lenses having different lens magnifications, the recognition target The lens magnification recognition step that recognizes the lens magnification of the lens and
Lens magnification recognition method including.
前記レンズ倍率認識ステップは、
前記イメージサークルから前記イメージサークルのエッジ部を含む方向に沿う1次元強度分布を取得するステップと、
前記1次元強度分布を、前記参照データと比較することにより、前記認識対象のレンズのレンズ倍率を認識するステップと、
を含む請求項1記載のレンズ倍率認識方法。 The reference data includes information on a one-dimensional intensity distribution acquired from a light receiving intensity distribution imaged using lenses having different lens magnifications.
The lens magnification recognition step is
A step of acquiring a one-dimensional intensity distribution from the image circle along the direction including the edge portion of the image circle, and
A step of recognizing the lens magnification of the lens to be recognized by comparing the one-dimensional intensity distribution with the reference data.
The lens magnification recognition method according to claim 1.
前記レンズ倍率認識ステップは、
前記イメージサークルから前記イメージサークルのエッジ部を含む方向に沿う1次元強度分布を取得するステップと、
前記イメージサークルから取得された前記1次元強度分布において、前記イメージサークル内で前記1次元強度分布の変化の割合が変化する折れ曲がり点の位置を算出する折れ曲がり点算出ステップと、
前記算出した折れ曲がり点の位置を、前記参照データに含まれる折れ曲がり点の位置と比較することにより、前記認識対象のレンズのレンズ倍率を認識するステップと、
を含む請求項1記載のレンズ倍率認識方法。 The reference data includes information regarding the position of a bending point in which the rate of change of the one-dimensional intensity distribution changes in the image circle in the light receiving intensity distribution imaged using lenses having different lens magnifications.
The lens magnification recognition step is
A step of acquiring a one-dimensional intensity distribution from the image circle along the direction including the edge portion of the image circle, and
In the one-dimensional intensity distribution acquired from the image circle, a bending point calculation step for calculating the position of a bending point in which the rate of change of the one-dimensional intensity distribution changes in the image circle, and a bending point calculation step.
A step of recognizing the lens magnification of the lens to be recognized by comparing the calculated position of the bending point with the position of the bending point included in the reference data.
The lens magnification recognition method according to claim 1.
前記1次元強度分布において、前記イメージサークルの中心側領域及びエッジ部側領域の強度分布の近似直線をそれぞれ算出するステップと、
前記近似直線の交点の位置を前記折れ曲がり点の位置として算出するステップと、
を含む請求項3記載のレンズ倍率認識方法。 The bending point calculation step is
In the one-dimensional intensity distribution, the step of calculating the approximate straight line of the intensity distribution of the central region and the edge region of the image circle, respectively,
The step of calculating the position of the intersection of the approximate straight lines as the position of the bending point, and
3. The lens magnification recognition method according to claim 3.
前記レンズ倍率認識ステップは、
前記イメージサークルのエッジ部を検出するステップと、
前記イメージサークルから検出したエッジ部の位置を、前記参照データに含まれるエッジ部の位置と比較することにより、前記認識対象のレンズのレンズ倍率を認識するステップと、
を含む請求項1記載のレンズ倍率認識方法。 The reference data includes information regarding the position of the edge portion in the light receiving intensity distribution for each lens magnification.
The lens magnification recognition step is
The step of detecting the edge portion of the image circle and
A step of recognizing the lens magnification of the lens to be recognized by comparing the position of the edge portion detected from the image circle with the position of the edge portion included in the reference data.
The lens magnification recognition method according to claim 1.
前記撮像した画像のイメージサークルを検出するイメージサークル検出部と、
前記イメージサークルにおける受光強度分布を取得し、前記イメージサークルにおける受光強度分布を、レンズ倍率が異なるレンズを用いて撮像された受光強度分布から作成された参照データと比較することにより、前記認識対象のレンズのレンズ倍率を認識するレンズ倍率認識部と、
を備える測定装置。 An imaging unit that captures an image obtained using the lens to be recognized,
An image circle detection unit that detects the image circle of the captured image, and
By acquiring the light-receiving intensity distribution in the image circle and comparing the light-receiving intensity distribution in the image circle with reference data created from the light-receiving intensity distribution imaged using lenses having different lens magnifications, the recognition target A lens magnification recognition unit that recognizes the lens magnification of the lens,
A measuring device provided with.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019046057A JP7170204B2 (en) | 2019-03-13 | 2019-03-13 | Lens magnification recognition method and measuring device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019046057A JP7170204B2 (en) | 2019-03-13 | 2019-03-13 | Lens magnification recognition method and measuring device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020148894A true JP2020148894A (en) | 2020-09-17 |
JP7170204B2 JP7170204B2 (en) | 2022-11-14 |
Family
ID=72432006
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019046057A Active JP7170204B2 (en) | 2019-03-13 | 2019-03-13 | Lens magnification recognition method and measuring device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7170204B2 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004157534A (en) * | 2002-10-31 | 2004-06-03 | Mitsutoyo Corp | Lens identifying method and image processing device capable of performing lens identifying method |
JP2012215631A (en) * | 2011-03-31 | 2012-11-08 | Fujifilm Corp | Imaging device and imaging method |
-
2019
- 2019-03-13 JP JP2019046057A patent/JP7170204B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004157534A (en) * | 2002-10-31 | 2004-06-03 | Mitsutoyo Corp | Lens identifying method and image processing device capable of performing lens identifying method |
JP2012215631A (en) * | 2011-03-31 | 2012-11-08 | Fujifilm Corp | Imaging device and imaging method |
Also Published As
Publication number | Publication date |
---|---|
JP7170204B2 (en) | 2022-11-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10788318B2 (en) | Three-dimensional shape measurement apparatus | |
JP5547105B2 (en) | Dimension measuring apparatus, dimension measuring method and program for dimension measuring apparatus | |
JP6462823B2 (en) | Image inspection device | |
US10120163B2 (en) | Auto-focus method for a coordinate-measuring apparatus | |
US11493331B2 (en) | Three-dimensional shape measuring apparatus, three-dimensional shape measuring method, three-dimensional shape measuring computer-readable storage medium, and three-dimensional shape measuring computer-readable storage device | |
JP7093915B2 (en) | Surface shape measurement method | |
KR101754108B1 (en) | System for measuring vignetting caused by camera lenz | |
US7791008B2 (en) | Single spot focus control | |
US11954766B2 (en) | Method for carrying out a shading correction and optical observation device system | |
JP2008039750A (en) | Device for height measuring | |
US10197781B2 (en) | Vertical chromatic confocal scanning method and system | |
JP2010216864A (en) | Photometric apparatus | |
JP2023176026A (en) | Method for determining scan range | |
JP7170204B2 (en) | Lens magnification recognition method and measuring device | |
JP2018146496A (en) | Surface shape measurement method | |
US8994957B2 (en) | Detection method and detection apparatus | |
JP2008046361A (en) | Optical system and its control method | |
JPH07208917A (en) | Automatic focusing method and device | |
JP7304513B2 (en) | SURFACE PROFILE MEASURING DEVICE AND SURFACE PROFILE MEASURING METHOD | |
US20230032656A1 (en) | Chromatic range sensor system including camera | |
JP2011095512A (en) | Confocal microscope | |
WO2010014069A1 (en) | Single spot focus control | |
JP2020159759A (en) | Image processing method and measuring device | |
JP4665125B2 (en) | Method for measuring height and apparatus therefor | |
JP2003035525A (en) | Method and device for surface inspection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220225 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220930 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220930 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221013 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7170204 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |