JP2017090327A - Wavefront sensor and wavefront processing method - Google Patents

Wavefront sensor and wavefront processing method Download PDF

Info

Publication number
JP2017090327A
JP2017090327A JP2015222732A JP2015222732A JP2017090327A JP 2017090327 A JP2017090327 A JP 2017090327A JP 2015222732 A JP2015222732 A JP 2015222732A JP 2015222732 A JP2015222732 A JP 2015222732A JP 2017090327 A JP2017090327 A JP 2017090327A
Authority
JP
Japan
Prior art keywords
wavefront
image
aberration
unit
optical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015222732A
Other languages
Japanese (ja)
Other versions
JP6391550B2 (en
Inventor
佳史 三輪
Yoshifumi Miwa
佳史 三輪
鈴木 二郎
Jiro Suzuki
二郎 鈴木
貴雄 遠藤
Takao Endo
貴雄 遠藤
俊行 安藤
Toshiyuki Ando
俊行 安藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2015222732A priority Critical patent/JP6391550B2/en
Publication of JP2017090327A publication Critical patent/JP2017090327A/en
Application granted granted Critical
Publication of JP6391550B2 publication Critical patent/JP6391550B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a wavefront sensor with which it is possible to efficiently eliminate the effect of unnecessary light components even when unnecessary light is included in an incident beam.SOLUTION: A wavefront sensor 1 includes a feature value extraction unit for calculating, for a wavefront to be measured, comparison data that indicates the result of comparison of the image component of a first wavefront image outputted from an image-capturing unit 20 when in an aberration-free state with the image component of the output image of the image-capturing unit 20 when in an aberration-free state; correcting the image component of the first wavefront image by a correction amount that corresponds to the result of comparison of the comparison data with reference data; and outputting feature value data that indicates the result of the correction. A measurement error of the wavefront to be measured is calculated using the feature value data.SELECTED DRAWING: Figure 1

Description

本発明は、光学系で透過または反射した光束の波面を計測する技術に関する。   The present invention relates to a technique for measuring the wavefront of a light beam transmitted or reflected by an optical system.

波面センサは、光学レンズ、光反射面または生体の眼球などの光学系で透過または反射などした光束の波面形状を計測することができる。波面センサとしては、シャックハルトマン(Shack−Hartmann)型波面センサが広く使用されており、シャックハルトマン型波面センサは、たとえば、特許文献1(特表2004−524053号公報)及び下記の非特許文献1に開示されている。   The wavefront sensor can measure the wavefront shape of a light beam transmitted or reflected by an optical system such as an optical lens, a light reflecting surface, or a living eyeball. As the wavefront sensor, a Shack-Hartmann type wavefront sensor is widely used. For example, Patent Document 1 (Japanese Patent Publication No. 2004-524053) and the following Non-Patent Document 1 are used as the Shack-Hartmann type wavefront sensor. Is disclosed.

特許文献1に開示されているシャックハルトマン型波面センサは、ピンホールアレイまたはレンズレットアレイにより形成された複数の光スポットを検出するCCD(Charge Coupled Device)アレイと、その検出結果を示すCCD画像に基づいてそれら光スポットの重心位置を算出し、当該重心位置の基準点からのシフト量に基づいて波面形状を算出するプロセッサとを備えている。このプロセッサは、所定のプロファイルを有する空間フィルタを用いて当該CCD画像をフィルタリングすることにより、非一様な背景ノイズが除去されたフィルタ画像を生成することができ、そのフィルタ画像に基づいて波面形状を算出している。   The Shack-Hartmann wavefront sensor disclosed in Patent Document 1 includes a CCD (Charge Coupled Device) array that detects a plurality of light spots formed by a pinhole array or a lenslet array, and a CCD image indicating the detection result. And a processor for calculating a wavefront shape based on a shift amount from the reference point of the barycentric position. This processor can generate a filter image from which non-uniform background noise is removed by filtering the CCD image using a spatial filter having a predetermined profile, and a wavefront shape based on the filter image. Is calculated.

また、非特許文献1には、レンズレットアレイにより形成された結像画像と基準画像との相互相関を演算し、その演算結果を用いて波面形状を計測する相関シャックハルトマン波面センサ(Correlating Shack−Hartmann wavefront sensor)が開示されている。   In Non-Patent Document 1, a correlation Shack-Hartmann wavefront sensor (Correlating Shack-) that calculates a cross-correlation between an image formed by a lenslet array and a reference image and measures a wavefront shape using the calculation result. Hartmann wavefront sensor) is disclosed.

特表2004−524053号公報Special table 2004-524053 gazette

Living Reviews in Solar Physics, 8, (2011),2.Living Reviews in Solar Physics, 8, (2011), 2.

測定対象である被検光学系の出射光束は、理想的な光源の光だけでなく、散乱光などの迷光または外乱光を含むことがある。この場合、その迷光または外乱光といった、波面計測に不要な光(以下「不要光」という。)が波面センサの計測精度を低下させるという問題がある。上述の通り、特許文献1のシャックハルトマン型波面センサは、空間フィルタを用いてCCD画像中の非一様な背景ノイズを除去することができる。しかしながら、空間フィルタのプロファイルに適合しない想定外の不要光成分がCCD画像に含まれていると、空間フィルタを用いてその種の不要光成分の影響を排除することが難しい。   The emitted light beam of the test optical system to be measured may include stray light such as scattered light or disturbance light as well as light from an ideal light source. In this case, there is a problem that light unnecessary for wavefront measurement (hereinafter referred to as “unnecessary light”) such as stray light or disturbance light reduces the measurement accuracy of the wavefront sensor. As described above, the Shack-Hartmann wavefront sensor of Patent Document 1 can remove non-uniform background noise in a CCD image using a spatial filter. However, if an unexpected unnecessary light component that does not conform to the profile of the spatial filter is included in the CCD image, it is difficult to eliminate the influence of that type of unnecessary light component using the spatial filter.

また、非特許文献1の相関シャックハルトマン波面センサでは、レンズレットアレイにより形成された結像画像に不要光成分が含まれていると、当該結像画像と基準画像との間の相互相関に基づいて波面が計測されるため、不要光成分の影響を排除することが難しい。   Further, in the correlation Shack-Hartmann wavefront sensor of Non-Patent Document 1, when an unnecessary light component is included in the formed image formed by the lenslet array, it is based on the cross-correlation between the formed image and the reference image. Therefore, it is difficult to eliminate the influence of unnecessary light components.

上記に鑑みて本発明の目的は、迷光または外乱光などの不要光が入射光束に含まれる場合でも、不要光成分の影響を効率良く排除することができる波面センサ及び波面処理方法を提供する点にある。   In view of the above, an object of the present invention is to provide a wavefront sensor and a wavefront processing method capable of efficiently eliminating the influence of unnecessary light components even when unnecessary light such as stray light or disturbance light is included in an incident light beam. It is in.

本発明の一態様による波面センサは、入射された光の波面を空間的に分割して複数のスポット光学像を形成するレンズレットアレイと、前記複数のスポット光学像を撮像する撮像部と、前記レンズレットアレイへの入射光の光路に既知の光学収差量が付与される既知収差状態と当該光路に前記既知の光学収差量が付与されない無収差状態とを発生させる既知収差発生部と、前記レンズレットアレイに入射された基準波面について、前記無収差状態のときに前記撮像部から出力された第1の基準波面画像の画像成分と前記既知収差状態のときに前記撮像部から出力された第2の基準波面画像の画像成分との比較結果を示す基準データが記憶されているデータ記憶部と、前記レンズレットアレイに入射された被測定波面について、前記無収差状態のときに前記撮像部から出力された第1の波面画像の画像成分と前記既知収差状態のときに前記撮像部から出力された第2の波面画像の画像成分との比較結果を示す比較データを算出し、当該比較データと前記基準データとの比較結果に応じた補正量で前記第1の波面画像の当該画像成分を補正し、更にその補正結果を示す特徴量データを出力する特徴量抽出部と、前記特徴量データを用いて前記被測定波面の計測誤差を推定する波面計測部とを備えることを特徴とする。   A wavefront sensor according to an aspect of the present invention includes a lenslet array that spatially divides a wavefront of incident light to form a plurality of spot optical images, an imaging unit that captures the plurality of spot optical images, A known aberration generating unit that generates a known aberration state in which a known optical aberration amount is imparted to an optical path of incident light to the lenslet array and a non-aberration state in which the known optical aberration amount is not imparted to the optical path; and the lens For the reference wavefront incident on the let array, the image component of the first reference wavefront image output from the imaging unit in the non-aberration state and the second output from the imaging unit in the known aberration state A data storage unit storing reference data indicating a comparison result with an image component of the reference wavefront image of the reference wavefront, and the measured wavefront incident on the lenslet array in the non-aberration state Sometimes, comparison data indicating a comparison result between the image component of the first wavefront image output from the imaging unit and the image component of the second wavefront image output from the imaging unit in the known aberration state is calculated. A feature amount extraction unit that corrects the image component of the first wavefront image with a correction amount according to a comparison result between the comparison data and the reference data, and further outputs feature amount data indicating the correction result; And a wavefront measuring unit that estimates a measurement error of the wavefront to be measured using the feature amount data.

本発明の他の態様による波面処理方法は、入射された光の波面を空間的に分割して複数のスポット光学像を形成するレンズレットアレイと、前記複数のスポット光学像を撮像する撮像部と、前記レンズレットアレイへの入射光の光路に既知の光学収差量が付与される既知収差状態と当該光路に前記既知の光学収差量が付与されない無収差状態とを発生させる既知収差発生部と、前記レンズレットアレイに入射された基準波面について前記無収差状態のときに前記撮像部から出力された第1の基準波面画像の画像成分と前記既知収差状態のときに前記撮像部から出力された第2の基準波面画像の画像成分との比較結果を示す基準データが記憶されているデータ記憶部とを備えた波面センサにおいて実行される波面処理方法であって、前記レンズレットアレイに入射された被測定波面について、前記無収差状態のときに前記撮像部から出力された第1の波面画像の画像成分と前記既知収差状態のときに前記撮像部から出力された第2の波面画像の画像成分との比較結果を示す比較データを算出するステップと、当該比較データと前記基準データとの比較結果に応じた補正量で前記第1の波面画像の当該画像成分を補正し、その補正結果を示す特徴量データを出力するステップと、前記特徴量データを用いて前記被測定波面の計測誤差を推定するステップとを備えることを特徴とする。   A wavefront processing method according to another aspect of the present invention includes a lenslet array that spatially divides a wavefront of incident light to form a plurality of spot optical images, and an imaging unit that images the plurality of spot optical images. A known aberration generation unit that generates a known aberration state in which a known optical aberration amount is imparted to the optical path of incident light to the lenslet array and a non-aberration state in which the known optical aberration amount is not imparted to the optical path; The image component of the first reference wavefront image output from the imaging unit when the reference wavefront incident on the lenslet array is in the non-aberration state and the first output from the imaging unit when in the known aberration state. A wavefront processing method executed in a wavefront sensor comprising a data storage unit storing reference data indicating a comparison result with image components of two reference wavefront images, the lens For the wavefront to be measured that is incident on the array, the image component of the first wavefront image output from the imaging unit in the non-aberration state and the second output from the imaging unit in the known aberration state Calculating comparison data indicating a comparison result with the image component of the wavefront image, correcting the image component of the first wavefront image with a correction amount according to the comparison result between the comparison data and the reference data, The method includes a step of outputting feature amount data indicating the correction result, and a step of estimating a measurement error of the wavefront to be measured using the feature amount data.

本発明によれば、迷光または外乱光などの不要光が入射光束に含まれる場合でも、不要光成分の影響を効率良く排除することができる。したがって、信頼性の高い計測誤差を算出することができる。   According to the present invention, even when unnecessary light such as stray light or disturbance light is included in an incident light beam, the influence of unnecessary light components can be efficiently eliminated. Therefore, a highly reliable measurement error can be calculated.

本発明に係る実施の形態1の波面センサの概略構成を示す図である。It is a figure which shows schematic structure of the wavefront sensor of Embodiment 1 which concerns on this invention. レンズレットアレイの概略図である。It is the schematic of a lenslet array. 図3A及び図3Bは、基準波面測定モード時に取得された基準波面画像の例を示す図である。3A and 3B are diagrams illustrating examples of reference wavefront images acquired in the reference wavefront measurement mode. 図3A及び図3Bにそれぞれ示した基準波面画像を重ね合わせて得られる合成画像を示す図である。It is a figure which shows the synthesized image obtained by superimposing the reference wavefront image shown in FIG. 3A and FIG. 3B, respectively. 実施の形態1に係る基準波面測定の処理手順の一例を示すフローチャートである。6 is a flowchart illustrating an example of a processing procedure of reference wavefront measurement according to the first embodiment. 図6A及び図6Bは、被測定波面処理モード時に取得された画像の例を示す図である。6A and 6B are diagrams illustrating examples of images acquired in the measured wavefront processing mode. 図6A及び図6Bにそれぞれ示した撮像画像を重ね合わせて得られる合成画像を示す図である。It is a figure which shows the synthesized image obtained by superimposing the captured image respectively shown to FIG. 6A and 6B. 被測定波面処理の手順の一例を示すフローチャートである。It is a flowchart which shows an example of the procedure of a to-be-measured wavefront process. 図9A及び図9Bは、特徴量算出方法の方法を説明するための図である。9A and 9B are diagrams for explaining the method of the feature amount calculation method. 図10A〜図10Cは、特徴量算出方法の方法を説明するための図である。10A to 10C are diagrams for explaining a method of a feature amount calculation method. 実施の形態1の波面処理部のハードウェア構成例を示すブロック図である。FIG. 3 is a block diagram illustrating a hardware configuration example of a wavefront processing unit according to the first embodiment. 実施の形態1の波面処理部の他のハードウェア構成例を示すブロック図である。FIG. 6 is a block diagram illustrating another hardware configuration example of the wavefront processing unit according to the first embodiment. 本発明に係る実施の形態2の波面センサの概略構成を示す図である。It is a figure which shows schematic structure of the wavefront sensor of Embodiment 2 which concerns on this invention. 本発明に係る実施の形態3の波面センサの概略構成を示す図である。It is a figure which shows schematic structure of the wavefront sensor of Embodiment 3 which concerns on this invention.

以下、図面を参照しつつ、本発明に係る実施の形態について詳細に説明する。なお、図面全体において同一符号を付された構成要素は、同一構成及び同一機能を有するものとする。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In addition, the component to which the same code | symbol was attached | subjected in the whole drawing shall have the same structure and the same function.

実施の形態1.
図1は、本発明に係る実施の形態1の波面センサ1の概略構成を示す図である。この波面センサ1は、光源LSから被検光学系OJTを介して伝搬した光束を受光するように配置されている。光源LSの出射光束は、被検光学系OJTで透過もしくは反射、または透過及び反射の双方をした後に波面センサ1に入射される。図1に示されるように、本実施の形態の波面センサ1は、可変絞り機構10、既知収差発生部11、コリメータレンズ12、レンズレットアレイ13、撮像部20及び波面処理部25を備える。
Embodiment 1 FIG.
FIG. 1 is a diagram showing a schematic configuration of a wavefront sensor 1 according to Embodiment 1 of the present invention. The wavefront sensor 1 is arranged so as to receive a light beam that has propagated from the light source LS via the optical system OJT. The emitted light beam of the light source LS is transmitted or reflected by the optical system OJT, or both transmitted and reflected, and then enters the wavefront sensor 1. As shown in FIG. 1, the wavefront sensor 1 of the present embodiment includes a variable diaphragm mechanism 10, a known aberration generator 11, a collimator lens 12, a lenslet array 13, an imaging unit 20, and a wavefront processor 25.

可変絞り機構10は、波面センサ1に入射された光束が通過する開口部を有している。この可変絞り機構10は、波面処理部25からの絞り制御信号Caに応じて開口部の大きさを変更することができる。この可変絞り機構10は、後述するように、波面収差の無い球面波を出力するピンホール部を形成するために使用される。なお、可変絞り機構10に代えて、スライド機構付きのピンホール板を使用してもよい。   The variable aperture mechanism 10 has an opening through which the light beam incident on the wavefront sensor 1 passes. The variable aperture mechanism 10 can change the size of the opening according to the aperture control signal Ca from the wavefront processing unit 25. As will be described later, the variable aperture mechanism 10 is used to form a pinhole portion that outputs a spherical wave having no wavefront aberration. Instead of the variable aperture mechanism 10, a pinhole plate with a slide mechanism may be used.

既知収差発生部11は、波面処理部25からの収差制御信号Cnに応じて、可変絞り機構10とコリメータレンズ12との間の光路に既知の光学収差量(以下「既知収差量」という。)が付与される既知収差状態と、この光路に光学収差が付与されない無収差状態とを選択的に発生させるモジュールである。既知収差発生部11は、たとえば、光軸方向またはこれに垂直な方向に移動自在な光学レンズ(図示せず)と、この光学レンズを駆動する電動ステージまたはアクチュエータ(図示せず)とを用いて構成されればよい。この光学レンズを光軸方向に垂直な方向に変位させることでコマ収差または非点収差を発生させることができる。また、この光学レンズを光軸方向に沿って変位させることでデフォーカス状態による光学収差を発生させることも可能である。この構成により、既知収差状態と無収差状態との間を切り替えることができる。なお、後述する実施の形態3の既知収差発生部50(図14)を用いて既知収差発生部11の構成を実現してもよい。   The known aberration generating unit 11 responds to the aberration control signal Cn from the wavefront processing unit 25 and has a known optical aberration amount (hereinafter referred to as “known aberration amount”) in the optical path between the variable aperture mechanism 10 and the collimator lens 12. Is a module that selectively generates a known aberration state in which no optical aberration is applied to the optical path. The known aberration generator 11 uses, for example, an optical lens (not shown) that is movable in the optical axis direction or a direction perpendicular thereto, and an electric stage or actuator (not shown) that drives the optical lens. What is necessary is just to be comprised. By displacing this optical lens in a direction perpendicular to the optical axis direction, coma or astigmatism can be generated. It is also possible to generate an optical aberration due to a defocused state by displacing the optical lens along the optical axis direction. With this configuration, it is possible to switch between a known aberration state and a non-aberration state. The configuration of the known aberration generator 11 may be realized using the known aberration generator 50 (FIG. 14) of the third embodiment described later.

コリメータレンズ12は、入射光を平行光に変換してレンズレットアレイ13に入射させる。レンズレットアレイ13は、光軸に垂直な方向に2次元配列された多数のマイクロレンズ(レンズレットとも呼ばれる。)で構成されている。図2は、光軸方向から視たときのレンズレットアレイ13の一例を示す図である。レンズレットアレイ13は、多数のマイクロレンズL,L,…,L,…の配列からなり、入射された光学像を空間的に分割して撮像部20の撮像面に複数のスポット光学像(以下「スポット像」ともいう。)を形成する機能を有している。 The collimator lens 12 converts incident light into parallel light and makes it incident on the lenslet array 13. The lenslet array 13 includes a large number of microlenses (also referred to as lenslets) that are two-dimensionally arranged in a direction perpendicular to the optical axis. FIG. 2 is a diagram illustrating an example of the lenslet array 13 when viewed from the optical axis direction. The lenslet array 13 is composed of an array of a large number of microlenses L 1 , L 2 ,..., L i ,. It has a function of forming an image (hereinafter also referred to as “spot image”).

撮像部20は、CCD(Charge−Coupled Device)イメージセンサまたはCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどの撮像素子21と、撮像素子21の出力信号に信号処理を施して画像信号ISを出力する信号処理部22とで構成されている。この撮像部20は、撮像素子21の撮像面上に形成された複数のスポット光学像を撮像することができる。   The imaging unit 20 performs signal processing on the output signal of the imaging element 21 such as a CCD (Charge-Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor, and a signal that outputs an image signal IS. And a processing unit 22. The imaging unit 20 can capture a plurality of spot optical images formed on the imaging surface of the image sensor 21.

波面処理部25は、図1に示されるように、特徴量抽出部31、画像比較部32、画像変位検出部33、波面演算部34、誤差推定部35、動作制御部36及びデータ記憶部37を備えて構成されている。この波面処理部25の構成のうち、画像比較部32、画像変位検出部33、波面演算部34及び誤差推定部35によって、被測定波面の収差を計測し且つ被測定波面の計測誤差を推定する波面計測部が構成され得る。   As shown in FIG. 1, the wavefront processing unit 25 includes a feature amount extraction unit 31, an image comparison unit 32, an image displacement detection unit 33, a wavefront calculation unit 34, an error estimation unit 35, an operation control unit 36, and a data storage unit 37. It is configured with. Of the configuration of the wavefront processing unit 25, the image comparison unit 32, the image displacement detection unit 33, the wavefront calculation unit 34, and the error estimation unit 35 measure the aberration of the measured wavefront and estimate the measurement error of the measured wavefront. A wavefront measuring unit may be configured.

動作制御部36は、絞り制御信号Caを可変絞り機構10に供給して可変絞り機構10の絞りを制御することができ、収差制御信号Cnを既知収差発生部11に供給して上記した既知収差状態及び無収差状態を選択的に発生させることができる。また、動作制御部36は、動作モード制御信号Swを特徴量抽出部31、画像比較部32、画像変位検出部33及び波面演算部34に供給することにより、波面処理部25の動作モードを基準波面処理モード及び被測定波面処理モードのうちの一方から他方へ切り替えることができる。基準波面処理モード時には、動作制御部36は、絞り制御信号Caにより可変絞り機構10の開口部をピンホールにする。これにより、可変絞り機構10は、波面収差の無い基準波面を有する球面波を既知収差発生部11に出射することができる。   The operation control unit 36 can supply the aperture control signal Ca to the variable aperture mechanism 10 to control the aperture of the variable aperture mechanism 10, and can supply the aberration control signal Cn to the known aberration generation unit 11 to perform the known aberration described above. A state and an aberration-free state can be selectively generated. Further, the operation control unit 36 supplies the operation mode control signal Sw to the feature amount extraction unit 31, the image comparison unit 32, the image displacement detection unit 33, and the wavefront calculation unit 34, thereby setting the operation mode of the wavefront processing unit 25 as a reference. One of the wavefront processing mode and the measured wavefront processing mode can be switched to the other. In the reference wavefront processing mode, the operation control unit 36 uses the aperture control signal Ca to make the opening of the variable aperture mechanism 10 a pinhole. Thereby, the variable aperture mechanism 10 can emit a spherical wave having a reference wavefront having no wavefront aberration to the known aberration generating unit 11.

また、基準波面処理モード時には、動作制御部36は、絞り制御信号Caの供給により可変絞り機構10に基準波面を発生させる。また、動作制御部36は、収差制御信号Cnの供給により既知収差発生部11に無収差状態と既知収差状態とを順次発生させる。図1に示される画像変位検出部33は、基準波面処理モード時に動作する画像変位検出部33Rを有している。この基準変位検出部33Rは、基準波面について、無収差状態のときの撮像部20の出力画像(以下「第1の基準波面画像」)IMG1の画像成分と既知収差状態のときの撮像部20の出力画像(以下「第2の基準波面画像」)IMG2の画像成分とを互いに比較し、その比較結果を示す基準データを算出する。たとえば、第1の基準波面画像IMG1に対する第2の基準波面画像IMG2の局所変位量Δ(iは、マイクロレンズLに対応する局所領域画像の番号である。)を基準データとして算出すればよい。 In the reference wavefront processing mode, the operation control unit 36 generates a reference wavefront in the variable aperture mechanism 10 by supplying the aperture control signal Ca. Further, the operation control unit 36 causes the known aberration generation unit 11 to sequentially generate a non-aberration state and a known aberration state by supplying the aberration control signal Cn. The image displacement detection unit 33 illustrated in FIG. 1 includes an image displacement detection unit 33R that operates in the reference wavefront processing mode. The reference displacement detection unit 33R is configured to output an image component of the output image (hereinafter referred to as “first reference wavefront image”) IMG1 in the non-aberration state with respect to the reference wavefront and the imaging unit 20 in the known aberration state. Output image (hereinafter, “second reference wavefront image”) IMG2 image components are compared with each other, and reference data indicating the comparison result is calculated. For example, if the local displacement amount Δ i of the second reference wavefront image IMG2 with respect to the first reference wavefront image IMG1 (i is the number of the local region image corresponding to the microlens L i ) is calculated as reference data. Good.

図3A及び図3Bは、基準波面処理モード時における第1の基準波面画像IMG1及び第2の基準波面画像IMG2の例を模式的に示す図である。図3Aに示される第1の基準波面画像IMG1では、複数のスポット像の中心(重心位置)が記号「+」で示されており、図3Bに示される第2の基準波面画像IMG2では、既知収差により局所的に変位した複数のスポット像の中心(重心位置)が記号「×」で示されている。図4Aは、図3A及び図3Bに示した第1及び第2の基準波面画像IMG1,IMG2を互いに重畳して得られる合成画像IMG3を示す図であり、図4Bは、i番目のマイクロレンズLにより形成された2個のスポット像を有する局所領域画像sを示す図である。 3A and 3B are diagrams schematically illustrating examples of the first reference wavefront image IMG1 and the second reference wavefront image IMG2 in the reference wavefront processing mode. In the first reference wavefront image IMG1 shown in FIG. 3A, the center (center of gravity) of the plurality of spot images is indicated by the symbol “+”, and in the second reference wavefront image IMG2 shown in FIG. The center (center of gravity position) of a plurality of spot images displaced locally due to aberration is indicated by the symbol “x”. 4A is a diagram showing a composite image IMG3 obtained by superimposing the first and second reference wavefront images IMG1 and IMG2 shown in FIGS. 3A and 3B, and FIG. 4B shows an i-th microlens L. is a diagram showing a local region image s i having two spot images formed by i.

図4Bの例に示されるように、基準変位検出部33Rは、次式(1)によりベクトル量である局所変位量Δを算出することができる。

Figure 2017090327
As shown in the example of FIG. 4B, the reference displacement detector 33R is the following equation (1) can be calculated local displacement delta i is a vector quantity.

Figure 2017090327

ここで、Δxは、水平画素方向の変位量を示し、Δyは、垂直画素方向の変位量を示している。局所変位量Δは、第1の基準波面画像IMG1の各スポット像の中心を原点とする局所的な座標値で特定される量である。局所変位量ΔのデータTd(以下、「基準データTd」ともいう。)は、データ記憶部37に格納される。 Here, Δx i indicates the amount of displacement in the horizontal pixel direction, and Δy i indicates the amount of displacement in the vertical pixel direction. The local displacement amount Δ i is an amount specified by a local coordinate value with the center of each spot image of the first reference wavefront image IMG1 as the origin. Data Td of the local displacement amount Δ i (hereinafter also referred to as “reference data Td”) is stored in the data storage unit 37.

また、図1に示される波面演算部34は、基準波面処理モード時に動作する既知収差量演算部34Nを有している。この既知収差量演算部34Nは、局所変位量Δを基準波面の局所勾配に相当するものとして、既知収差量ΔW(X,Y)を算出することができる。ここで、X,Yは、撮像部20の出力画像全体における座標位置を指定する値であり、Xは、水平画素方向における座標値を、Yは、垂直画素方向における座標値をそれぞれ示している。 The wavefront calculation unit 34 shown in FIG. 1 has a known aberration amount calculation unit 34N that operates in the reference wavefront processing mode. The known aberration amount calculating section 34N as equivalent to the local gradient of the reference wavefront local displacement delta i, can be calculated known aberration ΔW (X, Y). Here, X and Y are values that specify coordinate positions in the entire output image of the imaging unit 20, X is a coordinate value in the horizontal pixel direction, and Y is a coordinate value in the vertical pixel direction. .

具体的には、次式(2)に基づいて基準波面の局所勾配を求めることができる。

Figure 2017090327
Specifically, the local gradient of the reference wavefront can be obtained based on the following equation (2).

Figure 2017090327

ここで、fLAは、レンズレットアレイ13の各マイクロレンズの焦点距離である。 Here, f LA is a focal length of each microlens of the lenslet array 13.

そして、既知収差量演算部34Nは、式(2)により得られた局所勾配を、公知のゼルニケ多項式(Zernike polynomial)などの関数でフィッティングすることにより、既知収差量ΔW(X,Y)を算出することができる。このフィッティングは、たとえば公知の最小自乗法を用いて実行可能である。既知収差量ΔW(X,Y)のデータTwは、データ記憶部37に格納される。   Then, the known aberration amount calculation unit 34N calculates the known aberration amount ΔW (X, Y) by fitting the local gradient obtained by the equation (2) with a function such as a known Zernike polynomial (Zernike polynomial). can do. This fitting can be performed using, for example, a known least square method. Data Tw of the known aberration amount ΔW (X, Y) is stored in the data storage unit 37.

図5は、基準波面処理の手順の一例を概略的に示す図である。図5に示されるように、動作制御部36は、絞り制御信号Caを可変絞り機構10に供給して基準波面を発生させる(ステップST1)。次いで、動作制御部36は、収差制御信号Cnを既知収差発生部11に供給して既知収差をゼロにする(ステップST2)。そして、画像変位検出部33は、撮像部20の出力画像ISをサンプリングすることで第1の基準波面画像IMG1を取得する(ステップST3)。その後、動作制御部36は、収差制御信号Cnを既知収差発生部11に供給して既知収差を発生させる(ステップST4)。そして、画像変位検出部33は、撮像部20の出力画像ISをサンプリングすることで第2の基準波面画像IMG2を取得する(ステップST5)。   FIG. 5 is a diagram schematically showing an example of the procedure of the reference wavefront processing. As shown in FIG. 5, the operation control unit 36 supplies the aperture control signal Ca to the variable aperture mechanism 10 to generate a reference wavefront (step ST1). Next, the operation control unit 36 supplies the aberration control signal Cn to the known aberration generating unit 11 to make the known aberration zero (step ST2). Then, the image displacement detection unit 33 acquires the first reference wavefront image IMG1 by sampling the output image IS of the imaging unit 20 (step ST3). Thereafter, the operation controller 36 supplies the aberration control signal Cn to the known aberration generator 11 to generate a known aberration (step ST4). Then, the image displacement detection unit 33 acquires the second reference wavefront image IMG2 by sampling the output image IS of the imaging unit 20 (step ST5).

次に、基準変位検出部33Rは、上述したように、第1及び第2の基準波面画像IMG1,IMG2間の局所変位量Δを算出し(ステップST6)、これら局所変位量Δを示す基準データTdをメモリすなわちデータ記憶部37に記録する(ステップST7)。その後、既知収差量演算部34Nは、上述したように、局所変位量Δに基づいて既知収差量ΔW(X,Y)を算出し(ステップST8)、これら既知収差量ΔW(X,Y)を示すデータTwをメモリすなわちデータ記憶部37に記録する(ステップST9)。 Next, as described above, the reference displacement detector 33R calculates the local displacement amount Δ i between the first and second reference wavefront images IMG1 and IMG2 (step ST6), and indicates these local displacement amounts Δ i . The reference data Td is recorded in the memory, that is, the data storage unit 37 (step ST7). Thereafter, known aberration amount calculating section 34N, as described above, to calculate a known amount of aberration [Delta] W (X, Y) based on the local displacement delta i (step ST8), these known aberration [Delta] W (X, Y) Is recorded in the memory, that is, the data storage unit 37 (step ST9).

次に、被測定波面処理モードについて説明する。このとき、動作制御部36は、絞り制御信号Caにより可変絞り機構10の開口部を開放する。これにより、可変絞り機構10は、被検光学系OJTで生じた被測定波面を有する光束を既知収差発生部11に出射する。   Next, the measured wavefront processing mode will be described. At this time, the operation control unit 36 opens the opening of the variable aperture mechanism 10 by the aperture control signal Ca. As a result, the variable aperture mechanism 10 emits a light beam having a wavefront to be measured generated in the optical system OJT to the known aberration generator 11.

また、被測定波面処理モード時には、動作制御部36は、収差制御信号Cnの供給により既知収差発生部11に無収差状態と既知収差状態とを順次発生させる。図6A及び図6Bは、無収差状態のときの撮像部20の出力画像(以下「第1の波面画像」)IMG4と既知収差状態のときの撮像部20の出力画像(以下「第2の波面画像」)IMG5とを例示する図である。図6Aに示される第1の波面画像IMG4では、複数のスポット像の中心(重心位置)が記号「○」で示されており、図6Bに示される第2の波面画像IMG5では、既知収差により局所的に変位した複数のスポット像の中心(重心位置)が記号「△」で示されている。図7は、図6A及び図6Bに示した第1及び第2の波面画像IMG4,IMG5を互いに重畳して得られる合成画像IMG6を示す図である。   In the measured wavefront processing mode, the operation controller 36 causes the known aberration generator 11 to sequentially generate a non-aberration state and a known aberration state by supplying the aberration control signal Cn. 6A and 6B show an output image of the imaging unit 20 in the non-aberration state (hereinafter, “first wavefront image”) IMG4 and an output image of the imaging unit 20 in the known aberration state (hereinafter, “second wavefront”). FIG. 2 is a diagram illustrating an image “) IMG5. In the first wavefront image IMG4 shown in FIG. 6A, the center (center of gravity position) of the plurality of spot images is indicated by the symbol “◯”, and in the second wavefront image IMG5 shown in FIG. The center (center of gravity position) of a plurality of spot images displaced locally is indicated by the symbol “Δ”. FIG. 7 is a diagram showing a composite image IMG6 obtained by superimposing the first and second wavefront images IMG4 and IMG5 shown in FIGS. 6A and 6B.

図1に示される画像比較部32は、被測定波面処理モード時に動作する第1画像比較部32A及び第2画像比較部32Bを有し、画像変位検出部33は、被測定波面処理モード時に動作する第1変位検出部33A及び第2変位検出部33Bを有している。また、波面演算部34は、被測定波面処理モード時に動作する第1相対波面演算部34A、第2相対波面演算部34B及び被測定波面演算部34Cを有する。誤差推定部35も、被測定波面処理モード時に動作する。   The image comparison unit 32 shown in FIG. 1 has a first image comparison unit 32A and a second image comparison unit 32B that operate in the measured wavefront processing mode, and the image displacement detection unit 33 operates in the measured wavefront processing mode. The first displacement detector 33A and the second displacement detector 33B are provided. The wavefront calculation unit 34 includes a first relative wavefront calculation unit 34A, a second relative wavefront calculation unit 34B, and a measured wavefront calculation unit 34C that operate in the measured wavefront processing mode. The error estimation unit 35 also operates in the measured wavefront processing mode.

以下、図8を参照しつつ、被測定波面処理について説明する。図8は、被測定波面処理の手順の一例を示す図である。   Hereinafter, the measured wavefront process will be described with reference to FIG. FIG. 8 is a diagram illustrating an example of the procedure of the measured wavefront process.

図8を参照すると、動作制御部36は、収差制御信号Cnを既知収差発生部11に供給して既知収差をゼロにする(ステップST11)。次に、特徴量抽出部31は、撮像部20の出力画像ISをサンプリングすることで第1の波面画像IMG4を取得する(ステップST12)。その後、動作制御部36は、収差制御信号Cnを既知収差発生部11に供給して既知収差を発生させる(ステップST13)。次に、特徴量抽出部31は、撮像部20の出力画像ISをサンプリングすることで第2の波面画像IMG5を取得する(ステップST14)。ここで、第1の波面画像IMG4及び第2の波面画像IMG5は、第1画像比較部32A及び第2画像比較部32Bの処理でも使用されるため、画像メモリ(図示せず)に格納される。   Referring to FIG. 8, the operation control unit 36 supplies the aberration control signal Cn to the known aberration generation unit 11 to make the known aberration zero (step ST11). Next, the feature quantity extraction unit 31 acquires the first wavefront image IMG4 by sampling the output image IS of the imaging unit 20 (step ST12). Thereafter, the operation controller 36 supplies the aberration control signal Cn to the known aberration generator 11 to generate a known aberration (step ST13). Next, the feature quantity extraction unit 31 acquires the second wavefront image IMG5 by sampling the output image IS of the imaging unit 20 (step ST14). Here, the first wavefront image IMG4 and the second wavefront image IMG5 are stored in an image memory (not shown) because they are also used in the processing of the first image comparison unit 32A and the second image comparison unit 32B. .

その後、特徴量抽出部31は、第1の波面画像IMG4及び第2の波面画像IMG5に基づいて第1の波面画像IMG4の特徴量(光源LSの特徴量も含む。)を検出し(ステップST15)、その特徴量のデータTcをメモリすなわちデータ記憶部37に記録する(ステップST16)。   Thereafter, the feature quantity extraction unit 31 detects the feature quantity of the first wavefront image IMG4 (including the feature quantity of the light source LS) based on the first wavefront image IMG4 and the second wavefront image IMG5 (step ST15). ), The feature amount data Tc is recorded in the memory, that is, the data storage unit 37 (step ST16).

以下、特徴量算出方法の例について説明する。この例においては、特徴量抽出部31は、先ず、第1の波面画像IMG4の画像成分と第2の波面画像IMG5の画像成分とを互いに比較し、その比較結果を示す比較データを算出する。画像成分の一種である位相成分に着目すれば、特徴量抽出部31は、第1の波面画像IMG4の位相成分と第2の波面画像IMG5の位相成分との間の差分を比較データとして算出することができる。次に、特徴量抽出部31は、そのような比較データを基準データTdと比較し、その比較結果に応じた補正量で第1の波面画像IMG4の画像成分を補正し、その補正結果を特徴量として出力することができる。これにより、後述するように第1の波面画像IMG4の不要光成分を低減させることが可能となる。   Hereinafter, an example of a feature amount calculation method will be described. In this example, the feature quantity extraction unit 31 first compares the image component of the first wavefront image IMG4 and the image component of the second wavefront image IMG5, and calculates comparison data indicating the comparison result. If attention is paid to a phase component which is a kind of image component, the feature amount extraction unit 31 calculates a difference between the phase component of the first wavefront image IMG4 and the phase component of the second wavefront image IMG5 as comparison data. be able to. Next, the feature amount extraction unit 31 compares such comparison data with the reference data Td, corrects the image component of the first wavefront image IMG4 with a correction amount according to the comparison result, and characterizes the correction result. Can be output as a quantity. This makes it possible to reduce unnecessary light components of the first wavefront image IMG4 as will be described later.

今、無収差状態での第1の波面画像IMG4におけるi番目のマイクロレンズLに対応する局所領域画像をsi,a(x,y)とし、既知収差状態での第2の波面画像IMG5におけるi番目のマイクロレンズLに対応する局所領域画像をsi,b(x,y)とする。特徴量抽出部31は、次式(3)に示されるように、局所領域画像si,a(x,y)に離散フーリエ変換Fを施すことで、空間周波数成分Si,a(k,k)を得る。

Figure 2017090327
Now, i-th microlens L i corresponding local region image to s i in the first wavefront image IMG4 in aplanatic state, a (x, y) and then, the second wavefront image at a known aberration state IMG5 Let s i, b (x, y) be the local region image corresponding to the i-th microlens L i at. The feature quantity extraction unit 31 applies the discrete Fourier transform F to the local region image s i, a (x, y), as shown in the following equation (3), so that the spatial frequency component S i, a (k x , K y ).

Figure 2017090327

ここで、W,Wは、次式(4)で定義される。

Figure 2017090327
Here, W N and W M are defined by the following equation (4).

Figure 2017090327

また、特徴量抽出部31は、次式(5)に示されるように、局所領域画像si,b(x,y)に離散フーリエ変換Fを施すことで、空間周波数成分Si,b(k,k)を得る。

Figure 2017090327
Further, as shown in the following equation (5), the feature amount extraction unit 31 performs a discrete Fourier transform F on the local region image s i, b (x, y), thereby obtaining a spatial frequency component S i, b ( k x , k y ).

Figure 2017090327

特徴量抽出部31は、上式(3),(5)に現れる位相成分の差θi,a(k,k)−θi,b(k,k)を比較データとして算出し、上記基準データTd(局所変位量Δ)と比較することができる。具体的には、特徴量抽出部31は、次式(6)の位相差パラメータΔθ(k,k)に基づいてその比較を行うことが可能である。

Figure 2017090327
The feature quantity extraction unit 31 calculates the difference θ i, a (k x , k y ) −θ i, b (k x , k y ) between the phase components appearing in the above equations (3) and (5) as comparison data. Then, it can be compared with the reference data Td (local displacement amount Δ i ). Specifically, the feature quantity extraction unit 31 can perform the comparison based on the phase difference parameter Δθ i (k x , k y ) of the following equation (6).

Figure 2017090327

不要光が発生しない理想的な状況では、位相差パラメータΔθ(k,k)の値は略ゼロになる。ところで、上式(3),(5)に現れる強度成分同士の比較は、次式(7)の強度残差パラメータΔA(k,k)で与えられる。

Figure 2017090327
In an ideal situation where unnecessary light is not generated, the value of the phase difference parameter Δθ i (k x , k y ) is substantially zero. By the way, the comparison between the intensity components appearing in the above equations (3) and (5) is given by the intensity residual parameter ΔA i (k x , k y ) of the following equation (7).

Figure 2017090327

ここで、gi,a、gi,bは、オフセット成分Ai,a(0,0)、Ai,b(0,0)をゼロにし、オフセット成分以外の強度成分が同等の大きさとなるように調整された一様なゲインである。また不要光が発生しない理想的な状況では、強度残差パラメータΔA(k,k)の値が略ゼロとなるように、ゲインgi,a、gi,bの値が調整されている。 Here, g i, a , g i, b have offset components A i, a (0,0) and A i, b (0,0) set to zero, and intensity components other than the offset components have the same magnitude. It is a uniform gain adjusted to be. In an ideal situation where unnecessary light is not generated, the values of the gains g i, a , g i, b are adjusted so that the value of the intensity residual parameter ΔA i (k x , k y ) becomes substantially zero. ing.

次式(8)に示されるように、位相差パラメータΔθ(k,k)と強度残差パラメータΔA(k,k)とを独立変数とする重みD(k,k)を定めることができる。

Figure 2017090327
As shown in the following equation (8), the weights D i (k x , k y, ) having the phase difference parameter Δθ i (k x , k y ) and the intensity residual parameter ΔA i (k x , k y ) as independent variables. k y ) can be defined.

Figure 2017090327

また、次式(9),(10)に示されるように、重みD(k,k)及びゲインgi,aを用いて、第1の波面画像IMG4の空間周波数成分Si,a(k,k)を補正して空間周波数成分Pi,a(k,k)を算出することができる。

Figure 2017090327
Figure 2017090327
Further, as shown in the following equations (9) and (10), using the weights D i (k x , k y ) and the gains g i, a , the spatial frequency components S i, a (k x, k y) spatial frequency components P i to correct, a (k x, k y ) can be calculated.

Figure 2017090327
Figure 2017090327

特徴量抽出部31は、この補正された空間周波数成分Pi,a(k,k)を特徴量として算出することができる。重みD(k,k)は、位相差パラメータΔθ(k,k)の絶対値が大きいほど小さい値となり、且つ、強度残差パラメータΔA(k,k)の絶対値が大きいほど小さい値となるように設定される。不要光成分が大きいほど、位相差パラメータΔθ(k,k)が大きくなり、あるいは、不要光成分が大きいほど、強度残差パラメータΔA(k,k)が大きくなると考えられるため、式(10)に示した空間周波数成分Pi,a(k,k)は、不要光成分が低減された第1の波面画像(以下「補正波面画像」という。)の空間周波数成分と考えることができる。 The feature quantity extraction unit 31 can calculate the corrected spatial frequency component P i, a (k x , k y ) as a feature quantity. The weight D i (k x , k y ) decreases as the absolute value of the phase difference parameter Δθ i (k x , k y ) increases, and the weight residual parameter ΔA i (k x , k y ) increases. The absolute value is set to be smaller as the absolute value is larger. It is considered that the phase difference parameter Δθ i (k x , k y ) increases as the unnecessary light component increases, or the intensity residual parameter ΔA i (k x , k y ) increases as the unnecessary light component increases. Therefore, the spatial frequency component P i, a (k x , k y ) shown in Expression (10) is the spatial frequency of the first wavefront image (hereinafter referred to as “corrected wavefront image”) in which the unnecessary light component is reduced. Can be considered an ingredient.

次に、図8を参照すると、上記ステップST16の後は、図1の第1画像比較部32A及び第1変位検出部33Aは、特徴量データTcに基づいて第1の波面画像IMG4の局所変位量Δp,a(p=1,2,3,…)を検出し(ステップST17)、第2画像比較部32B及び第2変位検出部33Bは、特徴量データTcに基づいて第2の波面画像IMG5の局所変位量Δp,b(p=1,2,3,…)を検出する(ステップST18)。 Next, referring to FIG. 8, after step ST16, the first image comparison unit 32A and the first displacement detection unit 33A in FIG. 1 perform local displacement of the first wavefront image IMG4 based on the feature amount data Tc. The amount Δ p, a (p = 1, 2, 3,...) Is detected (step ST17), and the second image comparison unit 32B and the second displacement detection unit 33B perform the second wavefront based on the feature amount data Tc. A local displacement amount Δp, b (p = 1, 2, 3,...) Of the image IMG5 is detected (step ST18).

具体的には、第1画像比較部32Aは、画像メモリ(図示せず)から第1の波面画像IMG4を読み出し、上記特徴量データTcと第1の波面画像IMG4の画像成分とを互いに比較する。第1変位検出部33Aは、その比較結果に基づいて第1の波面画像IMG4の局所変位量Δp,aを算出することができる(ステップST17)。第2画像比較部32Bも、画像メモリ(図示せず)から第2の波面画像IMG5を読み出し、上記特徴量データTcと第2の波面画像IMG5の画像成分とを互いに比較する。第2変位検出部33Bは、その比較結果に基づいて第2の波面画像IMG5の局所変位量Δp,bを算出することができる(ステップST18)。 Specifically, the first image comparison unit 32A reads the first wavefront image IMG4 from an image memory (not shown), and compares the feature amount data Tc with the image components of the first wavefront image IMG4. . The first displacement detector 33A can calculate the local displacement amount Δp, a of the first wavefront image IMG4 based on the comparison result (step ST17). The second image comparison unit 32B also reads the second wavefront image IMG5 from the image memory (not shown), and compares the feature amount data Tc with the image components of the second wavefront image IMG5. The second displacement detector 33B can calculate the local displacement amount Δp, b of the second wavefront image IMG5 based on the comparison result (step ST18).

より具体的に説明すると、第1画像比較部32Aは、次式(11)に示されるように補正波面画像の空間周波数成分である特徴量Pi,a(k,k)と、第1の波面画像IMG4のp番目の局所領域画像sp,aの空間周波数成分Ki,a(k,k)との相互相関値、すなわち相互パワースペクトルRp,a(k,k)を算出することができる。

Figure 2017090327
More specifically, the first image comparison unit 32A has a feature quantity P i, a (k x , k y ) that is a spatial frequency component of the corrected wavefront image and The cross-correlation value with the spatial frequency components K i, a (k x , k y ) of the p-th local region image sp p, a of one wavefront image IMG4, that is, the mutual power spectrum R p, a (k x , k y ) can be calculated.

Figure 2017090327

ここで、iは、特定の番号であり、pは、全ての局所領域画像の番号(=1,2,3,…)をとり得るものとする。また、第1画像比較部32Aは、次式(12)に示されるように、相互パワースペクトルRp,a(k,k)に逆離散フーリエ変換F−1を施すことで、相関関数rp,a(x,y)を算出することができる。

Figure 2017090327
Here, i is a specific number, and p can be the number of all local area images (= 1, 2, 3,...). In addition, the first image comparison unit 32A performs an inverse discrete Fourier transform F −1 on the mutual power spectrum R p, a (k x , k y ), as shown in the following equation (12), thereby obtaining a correlation function. r p, a (x, y) can be calculated.

Figure 2017090327

相関関数rp,a(x,y)のピーク位置は、補正波面画像に対する第1の波面画像IMG4の局所変位量Δp,aを示すので、第1変位検出部33Aは、相関関数rp,a(x,y)のピーク位置に基づいて次式(13)の局所変位量Δp,aを算出することができる(ステップST17)。

Figure 2017090327
Since the peak position of the correlation function r p, a (x, y) indicates the local displacement amount Δ p, a of the first wavefront image IMG4 with respect to the corrected wavefront image, the first displacement detector 33A uses the correlation function r p. , A (x, y) based on the peak position, the local displacement Δp, a in the following equation (13) can be calculated (step ST17).

Figure 2017090327

なお、式(11)に代えて、位相成分のみを用いる次式(14)を使用してもよい。

Figure 2017090327
Instead of the equation (11), the following equation (14) using only the phase component may be used.

Figure 2017090327

同様に、第2画像比較部32Bは、次式(15)に示されるように補正波面画像の空間周波数成分である特徴量Pi,a(k,k)と、第2の波面画像IMG5のp番目の局所領域画像sp,bの空間周波数成分Ki,b(k,k)との相互相関値、すなわち相互パワースペクトルRp,b(k,k)を算出することができる。

Figure 2017090327
Similarly, the second image comparison unit 32B, as shown in the following equation (15), the feature quantity P i, a (k x , k y ), which is the spatial frequency component of the corrected wave front image, and the second wave front image. A cross-correlation value with the spatial frequency components K i, b (k x , k y ) of the p-th local region image sp p, b of the IMG 5, that is, a mutual power spectrum R p, b (k x , k y ) is calculated. can do.

Figure 2017090327

ここでも、iは、特定の番号であり、pは、全ての局所領域画像の番号(=1,2,3,…)をとり得るものとする。また、第2画像比較部32Bは、次式(16)に示されるように、相互パワースペクトルRp,b(k,k)に逆離散フーリエ変換F−1を施すことで、相関関数rp,b(x,y)を算出することができる。

Figure 2017090327
Here, i is a specific number, and p can be the number of all local area images (= 1, 2, 3,...). In addition, the second image comparison unit 32B performs an inverse discrete Fourier transform F −1 on the mutual power spectrum R p, b (k x , k y ), as shown in the following equation (16), whereby a correlation function is obtained. r p, b (x, y) can be calculated.

Figure 2017090327

第2変位検出部33Bは、相関関数rp,b(x,y)のピーク位置に基づいて次式(17)の局所変位量Δp,bを算出することが可能である(ステップST18)。

Figure 2017090327
The second displacement detector 33B can calculate the local displacement Δp, b of the following equation (17) based on the peak position of the correlation function r p, b (x, y) (step ST18). .

Figure 2017090327

なお、式(15)に代えて、位相成分のみを用いる次式(18)を使用してもよい。

Figure 2017090327
Instead of the equation (15), the following equation (18) using only the phase component may be used.

Figure 2017090327

上記ステップST18の後は、被測定波面演算部34Cは、被検光学系OJTの波面収差を算出する(ステップST19)。すなわち、被測定波面演算部34Cは、前記第1の波面画像の局所変位量Δp,aに基づいて被測定波面の収差量W(X,Y)を計測し、その計測データWFを出力する。 After step ST18, the measured wavefront calculator 34C calculates the wavefront aberration of the optical system OJT to be measured (step ST19). That is, the measured wavefront calculator 34C measures the aberration amount W (X, Y) of the measured wavefront based on the local displacement amount Δp, a of the first wavefront image, and outputs the measurement data WF. .

具体的には、被測定波面演算部34Cは、第1の波面画像IMG4の局所変位量Δp,a(p=1,2,3,…)のうち当該第1の波面画像IMG4の画像中心位置における局所変位量Δκ,a(p=κ)に着目し、次式(19)に示されるように、この局所変位量Δκ,aで、当該第1の波面画像IMG4の全ての局所変位量Δp,aをオフセットすることで、局所変位量Δp,cを算出することができる。

Figure 2017090327
Specifically, the measured wavefront calculator 34C calculates the image center of the first wavefront image IMG4 from the local displacement amounts Δp, a (p = 1, 2, 3,...) Of the first wavefront image IMG4. local displacement at position delta kappa, focused on a (p = kappa), as shown in the following equation (19), in the local displacement delta kappa, a, all the local of the first wavefront image IMG4 By offsetting the displacement amount Δp, a , the local displacement amount Δp, c can be calculated.

Figure 2017090327

次いで、被測定波面演算部34Cは、次式(20)に基づいて被測定波面の局所勾配を求めることができる。

Figure 2017090327
Next, the measured wavefront computing unit 34C can obtain the local gradient of the measured wavefront based on the following equation (20).

Figure 2017090327

そして、被測定波面演算部34Cは、式(20)により得られた局所勾配を、公知のゼルニケ多項式などの関数でフィッティングすることにより、波面収差量W(X,Y)を算出することができる(ステップST19)。   Then, the measured wavefront calculator 34C can calculate the wavefront aberration amount W (X, Y) by fitting the local gradient obtained by the equation (20) with a function such as a known Zernike polynomial. (Step ST19).

ステップST19の後は、第1相対波面演算部34Aは、次式(21)に基づいて第1の波面画像IMG4の局所勾配を求め、これら局所勾配を公知のゼルニケ多項式などの関数でフィッティングすることにより、相対波面分布W(X,Y)を算出する(ステップST20)。

Figure 2017090327
After step ST19, the first relative wavefront computing unit 34A obtains local gradients of the first wavefront image IMG4 based on the following equation (21), and fits these local gradients with a function such as a known Zernike polynomial. Thus, the relative wavefront distribution W a (X, Y) is calculated (step ST20).

Figure 2017090327

また、第2相対波面演算部34Bは、次式(22)に基づいて第2の波面画像IMG5の局所勾配を求め、これら局所勾配を公知のゼルニケ多項式などの関数でフィッティングすることにより、相対波面分布W(X,Y)を算出する(ステップST21)。

Figure 2017090327
Further, the second relative wavefront calculation unit 34B obtains local gradients of the second wavefront image IMG5 based on the following equation (22), and fits these local gradients with a function such as a known Zernike polynomial to thereby obtain a relative wavefront. Distribution W b (X, Y) is calculated (step ST21).

Figure 2017090327

そして、誤差推定部35は、次式(23)により、被測定波面の計測誤差Er(X,Y)を算出し、そのデータErを出力する(ステップST22)。以上で、被測定波面処理は完了する。

Figure 2017090327
Then, the error estimation unit 35 calculates the measurement error Er (X, Y) of the wavefront to be measured by the following equation (23) and outputs the data Er (step ST22). Thus, the measured wavefront process is completed.

Figure 2017090327

計測誤差Er(X,Y)からは、波面精度に関する様々な情報を得ることができる。たとえば、波面収差量W(X,Y)のRMS(Root Mean Square:二乗平均平方根)の誤差を、計測誤差Er(X,Y)のRMS値で推定することができる。このRMS値は、計測誤差Er(X,Y)を二乗して得られる値の平均の平方根である。また、計測誤差Er(X,Y)のRMS値を21/2で除算することで不偏推定量という統計量を得ることができる。更に、上述の通り、既知収差量ΔW(X,Y)と相対波面分布W(X,Y),W(X,Y)とは、それぞれゼルニケ多項式展開で表現され得ることから、計測誤差Er(X,Y)もゼルニケ多項式展開で表現することができる。このため、計測誤差Er(X,Y)を表現するゼルニケ多項式の各次数の項から、特定の波面収差成分(たとえば、非点収差成分またはコマ収差成分)の計測誤差を得ることが可能である。 Various information regarding the wavefront accuracy can be obtained from the measurement error Er (X, Y). For example, the RMS (Root Mean Square) error of the wavefront aberration amount W (X, Y) can be estimated by the RMS value of the measurement error Er (X, Y). This RMS value is an average square root of values obtained by squaring the measurement error Er (X, Y). Further, a statistic called an unbiased estimated amount can be obtained by dividing the RMS value of the measurement error Er (X, Y) by . Furthermore, as described above, the known aberration amount ΔW (X, Y) and the relative wavefront distributions W a (X, Y), W b (X, Y) can be expressed by Zernike polynomial expansion, respectively. Er (X, Y) can also be expressed by Zernike polynomial expansion. For this reason, it is possible to obtain a measurement error of a specific wavefront aberration component (for example, an astigmatism component or a coma aberration component) from each order term of the Zernike polynomial that expresses the measurement error Er (X, Y). .

なお、上記ステップST11,ST12の組とステップST13,ST14の組とは、この順番で実行される必要はなく、逆の順番であるいは同時並行に実行されてもよい。また、上記ステップST17,ST18も、この順番で実行される必要はなく、逆の順番であるいは同時並行に実行されてよい。更に、上記ステップST20,ST21も、この順番で実行される必要はなく、逆の順番であるいは同時並行に実行されてよい。   The set of steps ST11 and ST12 and the set of steps ST13 and ST14 do not need to be executed in this order, and may be executed in the reverse order or simultaneously. Also, the above steps ST17 and ST18 need not be executed in this order, and may be executed in the reverse order or concurrently. Further, the steps ST20 and ST21 do not need to be executed in this order, and may be executed in the reverse order or concurrently.

ところで、上記ステップST15での特徴量算出処理を別の方法で行い、この方法で得られた特徴量を用いて、上記ステップST17,ST18の方法とは異なる方法で局所変位量Δp,a,Δp,bの算出を行うことも可能である。以下、この方法について説明する。 By the way, the feature amount calculation process in step ST15 is performed by another method, and the local displacement amount Δ p, a , by a method different from the method in steps ST17 and ST18 using the feature amount obtained by this method. It is also possible to calculate Δp, b . Hereinafter, this method will be described.

特徴量抽出部31は、無収差状態で得た第1の波面画像IMG4の局所領域画像si,aから、基準値以上の明るさ(輝度)を持つ画像成分を有するスポット領域PA,…,PA(Kは正整数)を抽出し、これらスポット領域PA,…,PAにそれぞれ識別番号を付ける。次に、特徴量抽出部31は、これらスポット領域PA,…,PAの光量分布に基づいてそれぞれの対応する重心座標を算出する。同様に、特徴量抽出部31は、既知収差状態で得た第2の波面画像IMG5の局所領域画像si,bから、基準値以上の明るさ(輝度)を持つ画像成分を有するスポット領域PB,…,PB(Qは正整数)を抽出し、これらスポット領域PB,…,PBにそれぞれ識別番号を付ける。次に、特徴量抽出部31は、これらスポット領域PB,…,PBの光量分布に基づいてそれぞれの対応する重心座標を算出する。
図9A及び図9Bは、第1の波面画像IMG4の局所領域画像si,a内のスポット領域PA〜PAの例、及び、第2の波面画像IMG5の局所領域画像si,b内のスポット領域PB〜PBの例をそれぞれ示す図である。図9Aに示されるスポット領域PA〜PAは、図1の光源LSをなす複数の点光源のスポット像を表すスポット領域と、不要光を表す偽のスポット領域とが混在したものである。図9Bに示されるスポット領域PB〜PBも同様である。
The feature quantity extraction unit 31 uses a spot area PA 1 ,... Having an image component having a brightness (luminance) equal to or higher than a reference value from the local area image s i, a of the first wavefront image IMG4 obtained in an aberration-free state. , PA K (K is a positive integer) to extract, these spot area PA 1, ..., put each identification number to PA K. Next, the feature extraction unit 31, these spot area PA 1, ..., and calculates the respective corresponding barycentric coordinates based on the light amount distribution of PA K. Similarly, the feature amount extraction unit 31 uses a local region image s i, b of the second wavefront image IMG5 obtained in a known aberration state to have a spot region PB having an image component having brightness (luminance) equal to or higher than a reference value. 1, ..., PB Q (Q is a positive integer) to extract, these spot area PB 1, ..., put each identification number PB Q. Next, the feature amount extraction unit 31 calculates the corresponding barycentric coordinates based on the light amount distribution of the spot regions PB 1 ,..., PB Q.
9A and 9B show examples of spot regions PA 1 to PA 4 in the local region image s i, a of the first wavefront image IMG4 and in the local region image s i, b of the second wavefront image IMG5. of an example of a spot region PB 1 ~PB 5 illustrates respectively. Spot areas PA 1 to PA 4 shown in FIG. 9A are a mixture of spot areas representing spot images of a plurality of point light sources forming light source LS in FIG. 1 and false spot areas representing unnecessary light. The same applies to the spot regions PB 1 to PB 5 shown in FIG. 9B.

次に、特徴量抽出部31は、局所領域画像si,a内のスポット領域PA,…,PAと局所領域画像si,b内のスポット領域PB,…,PBとを互いに比較し、その比較結果を示す差分ベクトルを比較データとして算出する。具体的には、特徴量抽出部31は、第1の波面画像IMG4と第2の波面画像IMG5との間で重心座標が一致または近接するスポット領域同士を関連付け、これら関連付けられたスポット領域の重心座標間の差分ベクトルを算出する。今、局所領域画像si,a内のスポット領域PAに対する局所領域画像si,b内のスポット領域PBの差分ベクトルをδ(u,v)で表すとき、この差分ベクトルδ(u,v)は次式で与えられる。
δ(u,v)=(x−x,y−y
Next, the feature extraction unit 31, the local region image s i, spot area PA 1 in a, ..., PA K and the local region image s i, spot area PB 1 in b, ..., and PB Q together The comparison is performed, and a difference vector indicating the comparison result is calculated as comparison data. Specifically, the feature amount extraction unit 31 associates the spot areas whose centroid coordinates match or are close to each other between the first wavefront image IMG4 and the second wavefront image IMG5, and centroids of these associated spot areas A difference vector between coordinates is calculated. Now, local region image s i, when expressed in the local region image s i to the spotted area PA u in a, the difference vector of the spot region PB v in b δ i (u, v) , the difference vector [delta] i ( u, v) is given by:
δ i (u, v) = (x v -x u, y v -y u)

ここで、(x,y)は、u番目のスポット領域PAの重心座標を表し、(x,y)は、v番目のスポット領域PBの重心座標を表している。 Here, (x u , y u ) represents the barycentric coordinates of the u-th spot area PA u , and (x v , y v ) represents the barycentric coordinates of the v-th spot area PB v .

次に、特徴量抽出部31は、上記差分ベクトルδ(u,v)を上記基準データTd(局所変位量Δ)と比較し、上記差分ベクトルδ(u,v)の中から、ベクトル空間内で局所変位量Δと一致または近接する差分ベクトルを選択する。具体的には、特徴量抽出部31は、差分ベクトルδ(u,v)と局所変位量Δとの間の差分の大きさが一定範囲内にある差分ベクトルのみを選択することができる。更に、特徴量抽出部31は、局所領域画像si,a内のスポット領域PA,…,PAの中から、当該選択された差分ベクトルを構成しないスポット領域を除外する。
図10Aは、図9Aの局所領域画像si,aからスポット領域の一部を除外して得られる局所領域画像zi,aの一例を示す図である。図10Aの局所領域画像zi,aでは、図9Aのスポット領域PAは、不要光を表す偽のスポット領域であるとして除外されている。よって、局所領域画像zi,aは、図9Aの局所領域画像si,a中の不要光成分を低減させたものとみることができる。
Next, the feature amount extraction unit 31 compares the difference vector δ i (u, v) with the reference data Td (local displacement amount Δ i ), and from the difference vector δ i (u, v), A difference vector that matches or is close to the local displacement amount Δ i in the vector space is selected. Specifically, the feature amount extraction unit 31 can select only a difference vector in which the magnitude of the difference between the difference vector δ i (u, v) and the local displacement amount Δ i is within a certain range. . Furthermore, the feature extraction unit 31, the local region image s i, spot area PA 1 in a, ..., from the PA K, excluding spot region that does not constitute the selected difference vector.
Figure 10A is a diagram showing an example of a local region image z i, a obtained by excluding a portion the local region image s i, from a spot area of Figure 9A. In the local area image z i, a in FIG. 10A, the spot area PA 4 in FIG. 9A is excluded as a false spot area representing unnecessary light. Therefore, the local area image z i, a can be regarded as a reduced unnecessary light component in the local area image s i, a in FIG. 9A.

次に、特徴量抽出部31は、不要光成分が低減された局所領域画像zi,aの中のスポット領域間の相対位置ベクトルを特徴量として算出する。局所領域画像zi,a内の任意のスポット領域PA,PA間の相対位置ベクトルVi,a(t,u)は、次式で与えられる。
i,a(t,u)=(x−x,y−y
Next, the feature amount extraction unit 31 calculates a relative position vector between spot regions in the local region image zi , a in which unnecessary light components are reduced as a feature amount. A relative position vector V i, a (t, u) between arbitrary spot areas PA t , PA u in the local area image z i, a is given by the following equation.
V i, a (t, u ) = (x u -x t, y u -y t)

そして、特徴量抽出部31は、相対位置ベクトルVi,a(t,u)を示す特徴量データTcをデータ記憶部37に記録する。図10Aの例では、3つの相対位置ベクトルVi,a(1,2),Vi,a(2,3),Vi,a(1,3)が特徴量として算出される。このような相対位置ベクトルV(t,u)は、光源LSをなす単数または複数の光源の特徴を表すものであり、第1の波面画像IMG4を構成する全ての局所領域画像s1,a,s2,a,…において共通の特徴量とみなすことができる。よって、相対位置ベクトルV(t,u)は、第1の波面画像IMG4を構成する局所領域画像s1,a,s2,a,…のうちの特定の1つの局所領域画像si,aについて算出されていればよい。 Then, the feature quantity extraction unit 31 records the feature quantity data Tc indicating the relative position vector V i, a (t, u) in the data storage unit 37. In the example of FIG. 10A, three relative position vectors V i, a (1,2), V i, a (2,3), V i, a (1,3) are calculated as feature amounts. Such a relative position vector V i (t, u) represents the characteristics of one or more light sources forming the light source LS, and all the local region images s 1, a constituting the first wavefront image IMG4. , S 2, a ,... Can be regarded as a common feature amount. Therefore, the relative position vector V i (t, u) is a specific local region image s i, of the local region images s 1, a , s 2, a ,... Constituting the first wavefront image IMG4 . What is necessary is just to be calculated about a .

その後、第1画像比較部32Aは、特徴量データTcと、他の局所領域画像sp,a(p≠i)内のスポット領域間の相対位置ベクトルとを互いに比較し、第1変位検出部33Aは、その比較結果に基づいて第1の波面画像IMG4の局所変位量Δp,a(p=1,2,3,…)を検出する。同様に、第2画像比較部32Bは、特徴量データTcと、局所領域画像sp,b(p=1,2,3,…)内のスポット領域間の相対位置ベクトルとを互いに比較し、第2変位検出部33Bは、その比較結果に基づいて第2の波面画像IMG5の局所変位量Δp,b(p=1,2,3,…)を検出する。 Thereafter, the first image comparison unit 32A compares the feature amount data Tc with the relative position vectors between the spot regions in the other local region images sp , a (p ≠ i), and the first displacement detection unit 33A detects the local displacement amount Δ p, a (p = 1, 2, 3,...) Of the first wavefront image IMG4 based on the comparison result. Similarly, the second image comparison unit 32B compares the feature amount data Tc with the relative position vectors between the spot regions in the local region image sp , b (p = 1, 2, 3,...), The second displacement detector 33B detects the local displacement amount Δ p, b (p = 1, 2, 3,...) Of the second wavefront image IMG5 based on the comparison result.

具体的には、第1画像比較部32Aは、他の局所領域画像sp,a(p≠i)のスポット領域間の相対位置ベクトルVp,a(t,u)を算出し、当該相対位置ベクトルVp,a(t,u)のうち、ベクトル空間内で特徴量データTcと一致または近接する相対位置ベクトルのみを選択してその選択結果を第1変位検出部33Aに通知する。第1画像比較部32Aは、相対位置ベクトルVp,a(t,u)と特徴量データTcとの間の差分の大きさが一定範囲内にある相対位置ベクトルのみを選択することができる。第1変位検出部33Aは、当該他の局所領域画像sp,a(p≠i)内のスポット領域のうち、当該選択された相対位置ベクトルを構成するスポット領域のみを選択する。そして、第1変位検出部33Aは、局所領域画像zi,a内のスポット領域の重心の平均座標に対する、当該他の局所領域画像sp,a(p≠i)内の選択されたスポット領域の重心の平均座標の相対位置を局所変位量Δp,a(p=1,2,3,…)として算出することができる。
図10Bは、当該他の局所領域画像sp,a内のスポット領域PP〜PPの例を示す図である。この場合、スポット領域PPは、不要光を表すものとして選択されない。よって、第1変位検出部33Aは、図10Aのスポット領域PA〜PAの重心の平均座標に対する、図10Bのスポット領域PP〜PPの重心の平均座標の相対位置を局所変位量Δp,aとして算出する。
Specifically, the first image comparison unit 32A calculates a relative position vector V p, a (t, u) between the spot areas of the other local area images sp , a (p ≠ i), and calculates the relative Of the position vectors V p, a (t, u), only the relative position vector that matches or is close to the feature data Tc in the vector space is selected, and the selection result is notified to the first displacement detector 33A. The first image comparison unit 32A can select only the relative position vector in which the magnitude of the difference between the relative position vector V p, a (t, u) and the feature amount data Tc is within a certain range. 33 A of 1st displacement detection parts select only the spot area | region which comprises the said selected relative position vector among the spot area | regions in the said other local area | region image sp , a (p ≠ i). Then, the first displacement detection unit 33A selects the selected spot area in the other local area image sp , a (p ≠ i) with respect to the average coordinates of the center of gravity of the spot area in the local area image zi , a . The relative position of the average coordinate of the center of gravity can be calculated as the local displacement amount Δ p, a (p = 1, 2, 3,...).
Figure 10B is a diagram showing an example of the other local region image s p, spot area PP 1 ~PP 4 in a. In this case, the spot area PP 4 is not selected as representative of unwanted light. Therefore, the first displacement detection unit 33A determines the relative position of the average coordinates of the centroids of the spot areas PP 1 to PP 3 in FIG. 10B with respect to the average coordinates of the centroids of the spot areas PA 1 to PA 3 in FIG. 10A. Calculate as p, a .

同様に、第2画像比較部32Bは、第2の波面画像IMG5の局所領域画像sp,b(p=1,2,3,…)のスポット領域間の相対位置ベクトルVp,b(t,u)を算出し、当該相対位置ベクトルVp,b(t,u)のうち、ベクトル空間内で特徴量データTcと一致または近接する相対位置ベクトルのみを選択してその選択結果を第2変位検出部33Bに通知する。次に、第2変位検出部33Bは、当該局所領域画像sp,b内のスポット領域のうち、当該選択された相対位置ベクトルを構成するスポット領域のみを選択する。そして、第2変位検出部33Bは、局所領域画像zi,a内のスポット領域の重心の平均座標に対する、当該局所領域画像sp,b内の選択されたスポット領域の重心の平均座標の相対位置を局所変位量Δp,b(p=1,2,3,…)として算出することができる。
図10Cは、当該局所領域画像sp,b内のスポット領域PB〜PBの例を示す図である。この場合、スポット領域PB,PBは、不要光を表すものとして選択されない。よって、第2変位検出部33Bは、図10Aのスポット領域PA〜PAの重心の平均座標に対する、図10Cのスポット領域PB〜PBの重心の平均座標の相対位置を局所変位量Δp,bとして算出することとなる。
Similarly, the second image comparison unit 32B calculates the relative position vector V p, b (t (t) between the spot areas of the local area image sp , b (p = 1, 2, 3,...) Of the second wavefront image IMG5. , U), and from the relative position vector V p, b (t, u), only the relative position vector that matches or is close to the feature amount data Tc in the vector space is selected, and the selection result is obtained as the second result. Notify the displacement detector 33B. Next, the second displacement detection unit 33B selects only the spot region that constitutes the selected relative position vector from the spot regions in the local region image sp , b . The second displacement detector 33B then compares the average coordinate of the center of gravity of the selected spot area in the local area image sp , b with respect to the average coordinate of the center of gravity of the spot area in the local area image zi , a . The position can be calculated as a local displacement amount Δ p, b (p = 1, 2, 3,...).
FIG. 10C is a diagram illustrating an example of the spot regions PB 1 to PB 5 in the local region image sp , b . In this case, the spot areas PB 4 and PB 5 are not selected as representing unnecessary light. Accordingly, the second displacement detecting unit 33B is to the average coordinates of the center of gravity of the spot area PA 1 ~PA 3 in FIG. 10A, the local displacement of the relative position of the average coordinates of the center of gravity of the spot area PB 1 ~PB 3 in FIG. 10C delta It is calculated as p and b .

以上に説明した波面処理部25のハードウェア構成は、たとえば、ワークステーションまたはメインフレームなどの、CPU(Central Processing Unit)内蔵のコンピュータで実現可能である。あるいは、上記波面処理部25のハードウェア構成は、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)またはFPGA(Field−Programmable Gate Array)などのLSI(Large Scale Integrated circuit)により実現されてもよい。   The hardware configuration of the wavefront processing unit 25 described above can be realized by a computer with a built-in CPU (Central Processing Unit) such as a workstation or a mainframe. Alternatively, the hardware configuration of the wavefront processor 25 may be an LSI (Large Realized Gate Array) such as DSP (Digital Signal Processor), ASIC (Application Specific Integrated Circuit), or FPGA (Field-Programmable Gate Array). Good.

図11は、LSIなどの信号処理回路を用いて構成される波面処理部25のハードウェア構成例を示すブロック図である。図11の例では、波面処理部25は、信号処理回路70、入力インタフェース部71、出力インタフェース部72、記録媒体73及びバスなどの信号路74により構成されている。記録媒体73は、データ記憶部37、及び、画像信号ISを一時的に記憶する画像メモリとして利用され得る。記録媒体73としては、たとえば、SDRAM(Synchronous DRAM)などの揮発性メモリ、HDD(ハードディスクドライブ)またはSSD(ソリッドステートドライブ)を使用することが可能である。   FIG. 11 is a block diagram illustrating a hardware configuration example of the wavefront processing unit 25 configured using a signal processing circuit such as an LSI. In the example of FIG. 11, the wavefront processing unit 25 includes a signal processing circuit 70, an input interface unit 71, an output interface unit 72, a recording medium 73, and a signal path 74 such as a bus. The recording medium 73 can be used as a data storage unit 37 and an image memory that temporarily stores the image signal IS. As the recording medium 73, for example, a volatile memory such as SDRAM (Synchronous DRAM), HDD (Hard Disk Drive) or SSD (Solid State Drive) can be used.

一方、図12は、コンピュータを用いて構成される波面処理部25のハードウェア構成例を示すブロック図である。図12の例では、波面処理部25は、CPU80cを内蔵するプロセッサ80、RAM(Random Access Memory)81、ROM(Read Only Memory)82、入力インタフェース部83、出力インタフェース部84、記録媒体85及びバスなどの信号路86により構成されている。記録媒体85は、データ記憶部37、及び、画像信号ISを一時的に記憶する画像メモリとして利用され得る。記録媒体85としては、たとえば、SDRAMなどの揮発性メモリ、HDDまたはSSDを使用することが可能である。   On the other hand, FIG. 12 is a block diagram illustrating a hardware configuration example of the wavefront processing unit 25 configured using a computer. In the example of FIG. 12, the wavefront processing unit 25 includes a processor 80 incorporating a CPU 80c, a RAM (Random Access Memory) 81, a ROM (Read Only Memory) 82, an input interface unit 83, an output interface unit 84, a recording medium 85, and a bus. The signal path 86 is configured as follows. The recording medium 85 can be used as a data storage unit 37 and an image memory that temporarily stores the image signal IS. As the recording medium 85, for example, a volatile memory such as SDRAM, an HDD, or an SSD can be used.

以上に説明したように実施の形態1の波面センサ1は、不要光成分の影響が低減された特徴量データTcを用いて被検光学系OJTの波面収差量W(X,Y)を計測し、被測定波面の計測誤差Er(X,Y)を推定している。したがって、迷光または外乱光などの不要光が入射光束に含まれる場合でも、不要光成分の影響を効率良く排除して高い精度で波面収差量W(X,Y)を計測し、信頼性の高い計測誤差Er(X,Y)を推定することができる。   As described above, the wavefront sensor 1 of the first embodiment measures the wavefront aberration amount W (X, Y) of the optical system OJT using the feature amount data Tc in which the influence of the unnecessary light component is reduced. The measurement error Er (X, Y) of the wavefront to be measured is estimated. Therefore, even when unnecessary light such as stray light or disturbance light is included in the incident light beam, the influence of the unnecessary light component is efficiently removed and the wavefront aberration amount W (X, Y) is measured with high accuracy, and the reliability is high. The measurement error Er (X, Y) can be estimated.

実施の形態2.
次に、本発明に係る実施の形態2について説明する。図13は、本発明に係る実施の形態2の波面センサ2の概略構成を示す図である。図13に示されるように波面センサ2は、波長選択フィルタ41及び接合レンズ42からなる既知収差発生部40と、撮像部20Cとを備える点を除いて、上記実施の形態1の波面センサ1と同様の構成を有している。
Embodiment 2. FIG.
Next, a second embodiment according to the present invention will be described. FIG. 13 is a diagram showing a schematic configuration of the wavefront sensor 2 according to the second embodiment of the present invention. As shown in FIG. 13, the wavefront sensor 2 is the same as the wavefront sensor 1 of the first embodiment except that the wavefront sensor 2 includes a known aberration generator 40 including a wavelength selection filter 41 and a cemented lens 42 and an imaging unit 20C. It has the same configuration.

既知収差発生部40は、入射光のうち第1波長域λ1及び第2波長域λ2の光を選択的に透過させる波長選択フィルタ41と、入射光の第1波長域λ1に対して上記の無収差状態を発生させると同時に入射光の第2波長域λ2に対しては上記の既知収差状態を発生させる接合レンズ42とを有する。接合レンズ42は、正のパワーを有する第1のレンズと負のパワーを有する第2のレンズとを貼り合わせて構成される色収差発生レンズである。接合レンズ42は、たとえば、フリントガラスの凸レンズと、クラウンガラスの凹レンズとを貼り合わせて構成されればよい。この接合レンズ42は、クラウンガラスの凸レンズとフリントガラスの凹レンズとを貼り合わせて構成される公知の色消しレンズとは光学的に逆の構成を有するので、単レンズよりも大きな色収差を発生することができる。   The known aberration generator 40 includes a wavelength selection filter 41 that selectively transmits light in the first wavelength region λ1 and the second wavelength region λ2 of the incident light, and the above-described absence of light for the first wavelength region λ1 of the incident light. A cemented lens 42 that generates the above-mentioned known aberration state for the second wavelength band λ2 of incident light at the same time as generating the aberration state. The cemented lens 42 is a chromatic aberration generating lens configured by bonding a first lens having a positive power and a second lens having a negative power. For example, the cemented lens 42 may be configured by bonding a convex lens made of flint glass and a concave lens made of crown glass. The cemented lens 42 has a configuration optically opposite to a known achromatic lens formed by bonding a convex lens made of crown glass and a concave lens made of flint glass, and therefore generates larger chromatic aberration than a single lens. Can do.

また、撮像部20Cは、カラー撮像素子21Cと、このカラー撮像素子21Cの出力を信号処理する信号処理部22Cとを備えている。信号処理部22Cは、レンズレットアレイ13により形成された複数のスポット光学像のうち第1波長域λ1の光学像群を検出して第1画像信号ISaを出力すると同時に、複数のスポット光学像のうち第2波長域λ2の光学像群を検出して第2画像信号ISbを出力することができる。   The imaging unit 20C includes a color imaging element 21C and a signal processing unit 22C that performs signal processing on the output of the color imaging element 21C. The signal processing unit 22C detects the optical image group in the first wavelength region λ1 from the plurality of spot optical images formed by the lenslet array 13 and outputs the first image signal ISa. Among them, it is possible to detect the optical image group in the second wavelength region λ2 and output the second image signal ISb.

カラー撮像素子21Cとしては、たとえば、第1波長域λ1の色の光を透過させるフィルタと第2波長域λ2の色の光を透過させるフィルタとの配列からなるカラーフィルタ素子と、単一撮像面とを有する単板式の撮像素子を使用することができる。あるいは、第1波長域λ1の色の光を検出する撮像面と、第2波長域λ2の色の光を検出する撮像面とを有する複数板式の撮像素子を撮像素子21Cとして使用してもよい。これら撮像素子には、CCDイメージセンサまたはCMOSイメージセンサを使用可能である。   As the color image sensor 21C, for example, a color filter element composed of an array of a filter that transmits light of the first wavelength band λ1 and a filter that transmits light of the second wavelength band λ2, and a single imaging surface Can be used. Alternatively, a multi-plate type imaging device having an imaging surface for detecting light of the color in the first wavelength range λ1 and an imaging surface for detecting light of the color in the second wavelength range λ2 may be used as the imaging device 21C. . A CCD image sensor or a CMOS image sensor can be used for these image sensors.

波面処理部25Cは、上記実施の形態1の波面処理部25と同様に、特徴量抽出部31、画像比較部32、画像変位検出部33、波面演算部34、誤差推定部35及びデータ記憶部37を有している。また、波面処理部25Cは、動作制御部36Cを有しており、この動作制御部36Cは、上記実施の形態1の動作制御部36と同様に、絞り制御信号Caを可変絞り機構10に供給して可変絞り機構10の絞りを制御する機能と、動作モード制御信号Swを特徴量抽出部31、画像比較部32、画像変位検出部33及び波面演算部34に供給して動作モードを切り替える機能とを有する。   Similarly to the wavefront processing unit 25 of the first embodiment, the wavefront processing unit 25C is a feature amount extraction unit 31, an image comparison unit 32, an image displacement detection unit 33, a wavefront calculation unit 34, an error estimation unit 35, and a data storage unit. 37. The wavefront processing unit 25C includes an operation control unit 36C, and the operation control unit 36C supplies the aperture control signal Ca to the variable aperture mechanism 10 in the same manner as the operation control unit 36 of the first embodiment. The function of controlling the diaphragm of the variable diaphragm mechanism 10 and the function of switching the operation mode by supplying the operation mode control signal Sw to the feature amount extraction unit 31, the image comparison unit 32, the image displacement detection unit 33, and the wavefront calculation unit 34 And have.

このような構成により、基準波面処理モード時には、波面処理部25Cは、第1画像信号ISaに基づいて上記した第1の基準波面画像IMG1を取得し、第2画像信号ISbに基づいて上記した第2の基準波面画像IMG2を取得することができる。また、被測定波面処理モード時には、波面処理部25Cは、第1画像信号ISaに基づいて上記した第1の波面画像IMG4を取得し、第2画像信号ISbに基づいて上記した第2の波面画像IMG5を取得することができる。よって、本実施の形態の波面処理部25Cも、上記実施の形態1の波面処理部25と同様に、高い精度で波面収差量W(X,Y)を計測し、信頼性の高い計測誤差Er(X,Y)を推定することができる。したがって、本実施の形態においても、上記実施の形態1と同様の効果を奏することが可能である。   With such a configuration, in the reference wavefront processing mode, the wavefront processing unit 25C acquires the above-described first reference wavefront image IMG1 based on the first image signal ISa and the above-described first reference wavefront image IMG1 based on the second image signal ISb. Two reference wavefront images IMG2 can be acquired. In the measured wavefront processing mode, the wavefront processing unit 25C acquires the first wavefront image IMG4 described above based on the first image signal ISa, and the second wavefront image described above based on the second image signal ISb. IMG5 can be acquired. Therefore, the wavefront processing unit 25C according to the present embodiment also measures the wavefront aberration amount W (X, Y) with high accuracy in the same manner as the wavefront processing unit 25 according to the first embodiment, and has a highly reliable measurement error Er. (X, Y) can be estimated. Therefore, the present embodiment can achieve the same effects as those of the first embodiment.

本実施の形態の構成は、被検光学系OJTが反射型光学系などである場合に当該被検光学系OJTの色収差を無視することができる場合に適した構成である。また、上記実施の形態1の場合と比べると、本実施の形態の構成は、既知収差状態と無収差状態との間の切り替えに可動部品を必要としないため、長寿命化と高信頼性とを確保することができる。   The configuration of the present embodiment is suitable for a case where the chromatic aberration of the test optical system OJT can be ignored when the test optical system OJT is a reflective optical system or the like. Compared to the case of the first embodiment, the configuration of the present embodiment does not require a movable part for switching between the known aberration state and the no-aberration state. Can be secured.

実施の形態3.
次に、本発明に係る実施の形態3について説明する。本実施の形態は上記実施の形態1の変形例である。すなわち、図14に示されるように、本実施の形態の波面センサ3の構成は、既知収差発生部50を除いて、上記実施の形態1の波面センサ1の構成と同様である。
Embodiment 3 FIG.
Next, a third embodiment according to the present invention will be described. This embodiment is a modification of the first embodiment. That is, as shown in FIG. 14, the configuration of the wavefront sensor 3 of the present embodiment is the same as the configuration of the wavefront sensor 1 of the first embodiment except for the known aberration generator 50.

既知収差発生部50は、可変絞り機構10からの入射光を第1光束と第2光束とに分割するビームスプリッタ51と、既知収差発生光学系55、反射ミラー56及びシャッタ57を含む第1の光路と、対照光学系52、反射ミラー53及びシャッタ54を含む第2の光路と、これら第1の光路と第2の光路とが合流する位置に配置される光合波器58とを有している。光合波器58は、第1の光路を伝搬した光束と第2の光路を伝搬した光束とを合波してコリメータレンズ12に出力する。図14に示されるように、対照光学系52を含む第2の光路では無収差状態が発生し、第1の光路では既知収差発生光学系55が既知収差状態(たとえば色収差)を発生させる。また、シャッタ54,57の開閉状態によって、第1の光路または第2の光路のいずれか一方を遮蔽することができる。   The known aberration generator 50 includes a beam splitter 51 that divides incident light from the variable aperture mechanism 10 into a first light beam and a second light beam, a first aberration generating optical system 55, a reflection mirror 56, and a shutter 57. An optical path, a second optical path including a reference optical system 52, a reflection mirror 53, and a shutter 54, and an optical multiplexer 58 disposed at a position where the first optical path and the second optical path merge. Yes. The optical multiplexer 58 combines the light beam propagated through the first optical path and the light beam propagated through the second optical path, and outputs the combined light to the collimator lens 12. As shown in FIG. 14, a non-aberration state occurs in the second optical path including the reference optical system 52, and the known aberration generation optical system 55 generates a known aberration state (for example, chromatic aberration) in the first optical path. Further, either the first optical path or the second optical path can be blocked by the open / close state of the shutters 54 and 57.

このような構成により、一方のシャッタ57を閉状態にして第1の光路を遮光し且つ他方のシャッタ54を開状態にして第2の光路を開放することにより、撮像部20は、無収差状態時の画像信号ISを波面処理部25に供給することができる。また、一方のシャッタ57を開状態にして第1の光路を開放し且つ他方のシャッタ54を閉状態にして第2の光路を遮光することにより、撮像部20は、既知収差状態時の画像信号ISを波面処理部25に供給することができる。したがって、本実施の形態の波面処理部25も、上記実施の形態1の波面処理部25と同様に、高い精度で波面収差量W(X,Y)を計測し、信頼性の高い計測誤差Er(X,Y)を推定することができる。   With such a configuration, the imaging unit 20 is in an aberration-free state by closing one shutter 57 to block the first optical path and opening the other shutter 54 to open the second optical path. The time image signal IS can be supplied to the wavefront processing unit 25. Further, the imaging unit 20 is configured to open an image signal in a known aberration state by opening one shutter 57 to open the first optical path and closing the other shutter 54 to block the second optical path. The IS can be supplied to the wavefront processing unit 25. Therefore, similarly to the wavefront processing unit 25 of the first embodiment, the wavefront processing unit 25 of the present embodiment also measures the wavefront aberration amount W (X, Y) with high accuracy, and has a highly reliable measurement error Er. (X, Y) can be estimated.

本実施の形態の構成は、被検光学系OJTが屈折型光学系などである場合に当該被検光学系OJTの色収差が無視することができない場合に適した構成である。また、シャッタ54,57を同時に開放することで、干渉計により既知収差量ΔW(X,Y)を精密に評価し調整することができるという利点がある。更に、収差発生量が可動部品の運動精度に依存しないため、収差発生量をメンテナンスフリーで長期間一定に保つ必要がある用途にも本実施の形態の構成は適している。   The configuration of the present embodiment is suitable for a case where the chromatic aberration of the optical system OJT cannot be ignored when the optical system OJT is a refractive optical system or the like. Further, by simultaneously opening the shutters 54 and 57, there is an advantage that the known aberration amount ΔW (X, Y) can be accurately evaluated and adjusted by the interferometer. Furthermore, since the aberration generation amount does not depend on the motion accuracy of the movable part, the configuration of the present embodiment is also suitable for applications in which the aberration generation amount needs to be maintained for a long time without maintenance.

また、実施の形態3の変形例として、撮像部20及び波面処理部25の組み合わせに代えて、上記実施の形態2の撮像部20C及び波面処理部25Cの組み合わせを使用する形態もあり得る。この場合、非波長選択型のビームスプリッタ51に代えて、波長選択型ビームスプリッタを使用することが可能である。この変形例では、波長選択型ビームスプリッタは、入射光のうち第1波長域λ1の光を対照光学系52の方向に出射するが、その他の波長域の光を対照光学系52の方向に出射しない。また、波長選択型ビームスプリッタは、入射光のうち第2波長域λ2の光を既知収差発生光学系55の方向に出射するが、その他の波長域の光を既知収差発生光学系55の方向に出射しない。このような構成により、シャッタ54,57が共に開放状態にあるときには、撮像部20Cは、上記実施の形態2の撮像部20Cと同様に第1画像信号ISa及び第2画像信号ISbを波面処理部25Cに出力することができる。したがって、この変形例の波面処理部25Cも、上記実施の形態2の波面処理部25Cと同様に、高い精度で波面収差量W(X,Y)を計測し、信頼性の高い計測誤差Er(X,Y)を推定することができる。   As a modification of the third embodiment, a combination of the imaging unit 20C and the wavefront processing unit 25C of the second embodiment may be used instead of the combination of the imaging unit 20 and the wavefront processing unit 25. In this case, it is possible to use a wavelength selective beam splitter instead of the non-wavelength selective beam splitter 51. In this modification, the wavelength selective beam splitter emits light in the first wavelength region λ1 of incident light in the direction of the reference optical system 52, but emits light in other wavelength regions in the direction of the reference optical system 52. do not do. The wavelength selective beam splitter emits light in the second wavelength region λ2 of the incident light in the direction of the known aberration generating optical system 55, but emits light in other wavelength regions in the direction of the known aberration generating optical system 55. Does not emit. With such a configuration, when both the shutters 54 and 57 are in the open state, the imaging unit 20C outputs the first image signal ISa and the second image signal ISb to the wavefront processing unit in the same manner as the imaging unit 20C of the second embodiment. 25C can be output. Therefore, similarly to the wavefront processing unit 25C of the second embodiment, the wavefront processing unit 25C of this modification also measures the wavefront aberration amount W (X, Y) with high accuracy, and has a highly reliable measurement error Er ( X, Y) can be estimated.

以上、図面を参照して本発明に係る種々の実施の形態について述べたが、これら実施の形態は本発明の例示であり、これら実施の形態以外の様々な形態を採用することができる。   Although various embodiments according to the present invention have been described above with reference to the drawings, these embodiments are examples of the present invention, and various forms other than these embodiments can be adopted.

なお、本発明の範囲内において、上記実施の形態1〜3の自由な組み合わせ、各実施の形態の任意の構成要素の変形、または各実施の形態の任意の構成要素の省略が可能である。   In addition, within the scope of the present invention, the above-described first to third embodiments can be freely combined, any constituent element of each embodiment can be modified, or any constituent element of each embodiment can be omitted.

本発明は、被検光学系で透過または反射した光の波面形状を計測する任意の機器に適用可能なものである。たとえば、天体観測機器、眼球の波面収差測定機器、または半導体ウエハの平面度を測定する機器に本発明を適用することができる。   The present invention is applicable to any device that measures the wavefront shape of light transmitted or reflected by a test optical system. For example, the present invention can be applied to astronomical observation equipment, eyeball wavefront aberration measurement equipment, or equipment for measuring the flatness of a semiconductor wafer.

OJT 被検光学系、LS 光源、1〜3 波面センサ、10 可変絞り機構、11 既知収差発生部、20 撮像部、21 撮像素子、22 信号処理部、25 波面処理部、31 特徴量抽出部、32 画像比較部、33 画像変位検出部、34 波面演算部、35 誤差推定部、36 動作制御部、37 データ記憶部、40 既知収差発生部、41 波長選択フィルタ、42 接合レンズ、50 既知収差発生部、51 ビームスプリッタ、52 対照光学系、53 反射ミラー、54 シャッタ、55 既知収差発生光学系、56 反射ミラー、57 シャッタ、58 光合波器。   OJT optical system to be tested, LS light source, 1 to 3 wavefront sensor, 10 variable aperture mechanism, 11 known aberration generator, 20 imaging unit, 21 imaging element, 22 signal processing unit, 25 wavefront processing unit, 31 feature quantity extraction unit, 32 image comparison unit, 33 image displacement detection unit, 34 wavefront calculation unit, 35 error estimation unit, 36 operation control unit, 37 data storage unit, 40 known aberration generation unit, 41 wavelength selection filter, 42 cemented lens, 50 generation of known aberration Part, 51 beam splitter, 52 contrast optical system, 53 reflecting mirror, 54 shutter, 55 known aberration generating optical system, 56 reflecting mirror, 57 shutter, 58 optical multiplexer.

Claims (17)

入射された光の波面を空間的に分割して複数のスポット光学像を形成するレンズレットアレイと、
前記複数のスポット光学像を撮像する撮像部と、
前記レンズレットアレイへの入射光の光路に既知の光学収差量が付与される既知収差状態と当該光路に前記既知の光学収差量が付与されない無収差状態とを発生させる既知収差発生部と、
前記レンズレットアレイに入射された基準波面について、前記無収差状態のときに前記撮像部から出力された第1の基準波面画像の画像成分と前記既知収差状態のときに前記撮像部から出力された第2の基準波面画像の画像成分との比較結果を示す基準データが記憶されているデータ記憶部と、
前記レンズレットアレイに入射された被測定波面について、前記無収差状態のときに前記撮像部から出力された第1の波面画像の画像成分と前記既知収差状態のときに前記撮像部から出力された第2の波面画像の画像成分との比較結果を示す比較データを算出し、当該比較データと前記基準データとの比較結果に応じた補正量で前記第1の波面画像の当該画像成分を補正し、更にその補正結果を示す特徴量データを出力する特徴量抽出部と、
前記特徴量データを用いて前記被測定波面の計測誤差を推定する波面計測部と
を備えることを特徴とする波面センサ。
A lenslet array that spatially divides the wavefront of the incident light to form a plurality of spot optical images;
An imaging unit for imaging the plurality of spot optical images;
A known aberration generating unit that generates a known aberration state in which a known optical aberration amount is imparted to the optical path of incident light to the lenslet array and a non-aberration state in which the known optical aberration amount is not imparted to the optical path;
The reference wavefront incident on the lenslet array is output from the imaging unit in the known aberration state and the image component of the first reference wavefront image output from the imaging unit in the non-aberration state. A data storage unit storing reference data indicating a comparison result with the image component of the second reference wavefront image;
The measured wavefront incident on the lenslet array was output from the imaging unit in the first wavefront image output from the imaging unit in the non-aberration state and in the known aberration state. Comparing data indicating the comparison result with the image component of the second wavefront image is calculated, and the image component of the first wavefront image is corrected with a correction amount according to the comparison result between the comparison data and the reference data. Further, a feature amount extraction unit that outputs feature amount data indicating the correction result; and
A wavefront sensor comprising: a wavefront measurement unit that estimates a measurement error of the wavefront to be measured using the feature amount data.
請求項1記載の波面センサであって、
前記波面計測部は、
前記特徴量データと前記第1の波面画像の画像成分とを互いに比較し、且つ前記特徴量データと前記第2の波面画像の画像成分とを互いに比較する画像比較部と、
前記画像比較部による比較結果に基づいて、前記第1の波面画像の局所変位量と前記第2の波面画像の局所変位量とを検出する画像変位検出部と、
前記第1の波面画像の局所変位量に基づいて第1の相対波面分布を算出し、且つ前記第2の波面画像の局所変位量に基づいて第2の相対波面分布を算出する波面演算部と、
前記第1の相対波面分布、前記第2の相対波面分布及び前記既知の光学収差量に基づいて前記計測誤差を算出する誤差推定部と
を含むことを特徴とする波面センサ。
The wavefront sensor according to claim 1,
The wavefront measuring unit is
An image comparison unit that compares the feature quantity data and the image component of the first wavefront image with each other and compares the feature quantity data with the image component of the second wavefront image; and
An image displacement detection unit that detects a local displacement amount of the first wavefront image and a local displacement amount of the second wavefront image based on a comparison result by the image comparison unit;
A wavefront computing unit that calculates a first relative wavefront distribution based on the local displacement amount of the first wavefront image and calculates a second relative wavefront distribution based on the local displacement amount of the second wavefront image; ,
A wavefront sensor comprising: an error estimation unit that calculates the measurement error based on the first relative wavefront distribution, the second relative wavefront distribution, and the known optical aberration amount.
請求項2記載の波面センサであって、前記波面演算部は、前記第1の波面画像の局所変位量に基づいて前記被測定波面の収差を計測することを特徴とする波面センサ。   3. The wavefront sensor according to claim 2, wherein the wavefront calculation unit measures an aberration of the wavefront to be measured based on a local displacement amount of the first wavefront image. 請求項2または請求項3記載の波面センサであって、前記画像比較部は、前記補正波面画像と前記第1の波面画像との相互相関を演算することにより前記補正波面画像と前記第1の波面画像とを互いに比較し、且つ前記補正波面画像と前記第2の波面画像との相互相関を演算することにより前記補正波面画像と前記第2の波面画像とを互いに比較することを特徴とする波面センサ。   4. The wavefront sensor according to claim 2, wherein the image comparison unit calculates a cross-correlation between the corrected wavefront image and the first wavefront image, thereby calculating the corrected wavefront image and the first wavefront sensor. Comparing the corrected wavefront image with the second wavefront image by comparing the corrected wavefront image with each other and calculating the cross-correlation between the corrected wavefront image and the second wavefront image. Wavefront sensor. 請求項1から請求項4のうちのいずれか1項記載の波面センサであって、前記基準データは、前記第1の基準波面画像に対する前記第2の基準波面画像の局所変位量を示すデータであることを特徴とする波面センサ。   5. The wavefront sensor according to claim 1, wherein the reference data is data indicating a local displacement amount of the second reference wavefront image with respect to the first reference wavefront image. 6. A wavefront sensor characterized by being. 請求項1から請求項5のうちのいずれか1項記載の波面センサであって、前記既知収差発生部は、前記既知収差状態と前記無収差状態とを選択的に発生させることを特徴とする波面センサ。   6. The wavefront sensor according to claim 1, wherein the known aberration generation unit selectively generates the known aberration state and the non-aberration state. 7. Wavefront sensor. 請求項1から請求項5のうちのいずれか1項記載の波面センサであって、
前記既知収差発生部は、前記入射光の第1波長域に対して前記無収差状態を発生させると同時に前記入射光の第2波長域に対して前記既知収差状態を発生させ、
前記撮像部は、前記複数のスポット光学像のうち前記第1波長域の光学像群を検出して前記第1の波面画像を出力し、且つ、前記複数のスポット光学像のうち前記第2波長域の光学像群を検出して前記第2の波面画像を出力する、
ことを特徴とする波面センサ。
The wavefront sensor according to any one of claims 1 to 5,
The known aberration generating unit generates the non-aberration state for the first wavelength range of the incident light and simultaneously generates the known aberration state for the second wavelength range of the incident light;
The imaging unit detects an optical image group in the first wavelength region among the plurality of spot optical images and outputs the first wavefront image, and the second wavelength among the plurality of spot optical images. Detecting an optical image group of the region and outputting the second wavefront image;
A wavefront sensor characterized by that.
請求項7記載の波面センサであって、前記既知収差発生部は、前記光路に色収差を付与して前記既知収差状態を発生させる光学素子を含むことを特徴とする波面センサ。   8. The wavefront sensor according to claim 7, wherein the known aberration generating unit includes an optical element that generates chromatic aberration in the optical path to generate the known aberration state. 請求項8記載の波面センサであって、前記光学素子は、正のパワーを有する第1のレンズと負のパワーを有する第2のレンズとを含む接合レンズであることを特徴とする波面センサ。   9. The wavefront sensor according to claim 8, wherein the optical element is a cemented lens including a first lens having a positive power and a second lens having a negative power. 請求項1から請求項5のうちのいずれか1項記載の波面センサであって、
前記既知収差発生部は、
前記入射光を第1光束と第2光束とに分割するビームスプリッタと、
前記第1光束が伝搬する第1の光路と、
前記第2光束が伝搬する第2の光路と、
前記第1の光路と前記第2の光路とが合流する位置に配置される光合波器とを含み、
前記第1の光路は前記既知収差状態を発生させ、前記第2の光路は前記無収差状態を発生させることを特徴とする波面センサ。
The wavefront sensor according to any one of claims 1 to 5,
The known aberration generator is
A beam splitter that splits the incident light into a first light flux and a second light flux;
A first optical path through which the first light flux propagates;
A second optical path through which the second light flux propagates;
An optical multiplexer disposed at a position where the first optical path and the second optical path merge;
The wavefront sensor wherein the first optical path generates the known aberration state and the second optical path generates the non-aberration state.
請求項10記載の波面センサであって、前記第1の光路及び前記第2の光路のうちの一方の光路を遮断し、他方の光路を開放するシャッタ機構を更に備えることを特徴とする波面センサ。   11. The wavefront sensor according to claim 10, further comprising a shutter mechanism that blocks one of the first optical path and the second optical path and opens the other optical path. . 請求項1から請求項11のうちのいずれか1項記載の波面センサであって、前記基準波面を持つ球面波を発生させる絞り機構を更に備えることを特徴とする波面センサ。   12. The wavefront sensor according to claim 1, further comprising a diaphragm mechanism that generates a spherical wave having the reference wavefront. 請求項1から請求項12のうちのいずれか1項記載の波面センサであって、前記波面計測部は、前記特徴量データが出力される前に、前記基準データを算出して前記データ記憶部に記憶することを特徴とする波面センサ。   13. The wavefront sensor according to claim 1, wherein the wavefront measurement unit calculates the reference data and outputs the reference data before the feature amount data is output. A wavefront sensor characterized by memorizing. 請求項1から請求項13のうちのいずれか1項記載の波面センサであって、前記波面計測部は、前記基準データに基づいて前記既知の光学収差量を算出する既知収差量演算部を含むことを特徴とする波面センサ。   14. The wavefront sensor according to claim 1, wherein the wavefront measurement unit includes a known aberration amount calculation unit that calculates the known optical aberration amount based on the reference data. A wavefront sensor characterized by that. 入射された光の波面を空間的に分割して複数のスポット光学像を形成するレンズレットアレイと、前記複数のスポット光学像を撮像する撮像部と、前記レンズレットアレイへの入射光の光路に既知の光学収差量が付与される既知収差状態と当該光路に前記既知の光学収差量が付与されない無収差状態とを発生させる既知収差発生部と、前記レンズレットアレイに入射された基準波面について前記無収差状態のときに前記撮像部から出力された第1の基準波面画像の画像成分と前記既知収差状態のときに前記撮像部から出力された第2の基準波面画像の画像成分との比較結果を示す基準データが記憶されているデータ記憶部とを備えた波面センサにおいて実行される波面処理方法であって、
前記レンズレットアレイに入射された被測定波面について、前記無収差状態のときに前記撮像部から出力された第1の波面画像の画像成分と前記既知収差状態のときに前記撮像部から出力された第2の波面画像の画像成分との比較結果を示す比較データを算出するステップと、
当該比較データと前記基準データとの比較結果に応じた補正量で前記第1の波面画像の当該画像成分を補正し、その補正結果を示す特徴量データを出力するステップと、
前記特徴量データを用いて前記被測定波面の計測誤差を推定するステップと
を備えることを特徴とする波面処理方法。
A lenslet array that spatially divides a wavefront of incident light to form a plurality of spot optical images, an imaging unit that captures the plurality of spot optical images, and an optical path of incident light to the lenslet array The known aberration generation unit that generates a known aberration state to which a known optical aberration amount is applied and a non-aberration state in which the known optical aberration amount is not applied to the optical path, and the reference wavefront that is incident on the lenslet array Comparison result between the image component of the first reference wavefront image output from the imaging unit in the non-aberration state and the image component of the second reference wavefront image output from the imaging unit in the known aberration state A wavefront processing method executed in a wavefront sensor provided with a data storage unit in which reference data indicating
The measured wavefront incident on the lenslet array was output from the imaging unit in the first wavefront image output from the imaging unit in the non-aberration state and in the known aberration state. Calculating comparison data indicating a comparison result with an image component of the second wavefront image;
Correcting the image component of the first wavefront image with a correction amount according to a comparison result between the comparison data and the reference data, and outputting feature amount data indicating the correction result;
And a step of estimating a measurement error of the wavefront to be measured using the feature amount data.
請求項15記載の波面処理方法であって、
前記特徴量データと前記第1の波面画像の画像成分とを互いに比較し、且つ前記特徴量データと前記第2の波面画像とを互いに比較するステップと、
当該比較結果に基づいて、前記第1の波面画像の局所変位量と前記第2の波面画像の局所変位量とを検出するステップと、
前記第1の波面画像の局所変位量に基づいて第1の相対波面分布を算出するステップと、
前記第2の波面画像の局所変位量に基づいて第2の相対波面分布を算出するステップとを更に備え、
前記計測誤差は、前記第1の相対波面分布、前記第2の相対波面分布及び前記既知の光学収差量に基づいて算出されることを特徴とする波面処理方法。
The wavefront processing method according to claim 15,
Comparing the feature quantity data and the image components of the first wavefront image with each other and comparing the feature quantity data with the second wavefront image with each other;
Detecting a local displacement amount of the first wavefront image and a local displacement amount of the second wavefront image based on the comparison result;
Calculating a first relative wavefront distribution based on a local displacement amount of the first wavefront image;
Calculating a second relative wavefront distribution based on a local displacement amount of the second wavefront image,
The wavefront processing method, wherein the measurement error is calculated based on the first relative wavefront distribution, the second relative wavefront distribution, and the known optical aberration amount.
請求項16記載の波面処理方法であって、前記第1の波面画像の局所変位量に基づいて前記被測定波面の収差を計測するステップを更に備えることを特徴とする波面処理方法。   17. The wavefront processing method according to claim 16, further comprising a step of measuring aberration of the measured wavefront based on a local displacement amount of the first wavefront image.
JP2015222732A 2015-11-13 2015-11-13 Wavefront sensor and wavefront processing method Active JP6391550B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015222732A JP6391550B2 (en) 2015-11-13 2015-11-13 Wavefront sensor and wavefront processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015222732A JP6391550B2 (en) 2015-11-13 2015-11-13 Wavefront sensor and wavefront processing method

Publications (2)

Publication Number Publication Date
JP2017090327A true JP2017090327A (en) 2017-05-25
JP6391550B2 JP6391550B2 (en) 2018-09-19

Family

ID=58767843

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015222732A Active JP6391550B2 (en) 2015-11-13 2015-11-13 Wavefront sensor and wavefront processing method

Country Status (1)

Country Link
JP (1) JP6391550B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111860104A (en) * 2020-05-14 2020-10-30 中国人民解放军空军预警学院 Stray light estimation method based on Zernike polynomial

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003121300A (en) * 2001-10-16 2003-04-23 Canon Inc Wavefront aberration measurement method and device of optical system
US7390999B1 (en) * 2005-06-22 2008-06-24 University Of Central Florida Research Foundation, Inc. Differential Shack-Hartmann curvature sensor
JP2009075090A (en) * 2007-08-27 2009-04-09 Nikon Corp Wavefront aberration measuring device and method and wavefront aberration adjusting method
JP2009192411A (en) * 2008-02-15 2009-08-27 Nikon Corp Wave front measuring device and program
JP2010286367A (en) * 2009-06-12 2010-12-24 Nikon Corp Apparatus and method for measurement of wavefront shape
JP2013088432A (en) * 2011-10-14 2013-05-13 Canon Inc Apparatus and method for estimating optical wavefront parameter
JP2016211933A (en) * 2015-05-07 2016-12-15 キヤノン株式会社 Surface shape measurement device, surface shape measurement method, processing device, and optical element processed by the same

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003121300A (en) * 2001-10-16 2003-04-23 Canon Inc Wavefront aberration measurement method and device of optical system
US7390999B1 (en) * 2005-06-22 2008-06-24 University Of Central Florida Research Foundation, Inc. Differential Shack-Hartmann curvature sensor
JP2009075090A (en) * 2007-08-27 2009-04-09 Nikon Corp Wavefront aberration measuring device and method and wavefront aberration adjusting method
JP2009192411A (en) * 2008-02-15 2009-08-27 Nikon Corp Wave front measuring device and program
JP2010286367A (en) * 2009-06-12 2010-12-24 Nikon Corp Apparatus and method for measurement of wavefront shape
JP2013088432A (en) * 2011-10-14 2013-05-13 Canon Inc Apparatus and method for estimating optical wavefront parameter
JP2016211933A (en) * 2015-05-07 2016-12-15 キヤノン株式会社 Surface shape measurement device, surface shape measurement method, processing device, and optical element processed by the same

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111860104A (en) * 2020-05-14 2020-10-30 中国人民解放军空军预警学院 Stray light estimation method based on Zernike polynomial

Also Published As

Publication number Publication date
JP6391550B2 (en) 2018-09-19

Similar Documents

Publication Publication Date Title
CN105283118B (en) For the method for the wavefront aberration data for determining optical system to be tested
TW529927B (en) Method and apparatus for measuring wavefront aberrations
JP5774734B2 (en) Optical coherence tomography using dynamic focus sweep and window averaging
US20060033933A1 (en) Method and device for wave-front sensing
US10681259B2 (en) Imaging apparatus, imaging method, and imaging system
EP3416366B1 (en) Image pickup apparatus and image pickup method
TW201241547A (en) System, device and method for acquiring depth image
JP2007330558A (en) Spectral fundus measuring apparatus and its measuring method
US20150073752A1 (en) Wavefront measuring apparatus, wavefront measuring method, method of manufacturing optical element, and assembly adjustment apparatus of optical system
EP2718684B1 (en) Method for locating valid light spots for optical measurement and optical measurement instrument employing method of locating valid light spots
TW201719136A (en) Optical wavefront measuring device and method
JP6114289B2 (en) Blur calibration system for electro-optic sensor and method using moving multi-focus multi-target constellation
EP3730917A1 (en) Wavefront measurement device and wavefront measurement system
AU2012268101A1 (en) Method of locating valid light spots for optical measurement and optical measurement instrument employing method of locating valid light spots
JP6391550B2 (en) Wavefront sensor and wavefront processing method
JP2012058228A (en) Surface shape inspection device and surface shape inspection method
JP5857887B2 (en) Wavefront measuring device
JP2007025503A (en) Deformation method for deformable mirror, optical device using same, and fundus observation device
JP6831506B2 (en) Light measuring device and light measuring method
Yoon Wavefront sensing and diagnostic uses
US9971137B2 (en) Image generation apparatus and image generation method
KR20190072020A (en) Apparatus and Method For Detecting Defects
WO2010052497A1 (en) Correction of aberrations
US20190302444A1 (en) Endoscopic device, method of determining switching of optical system in the same, and recording medium
JP6494885B1 (en) Wavefront measuring apparatus, wavefront measuring method, moving object observing apparatus, moving object observing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171020

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180629

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180724

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180821

R150 Certificate of patent or registration of utility model

Ref document number: 6391550

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250