JP2010261810A - Wavefront sensor - Google Patents

Wavefront sensor Download PDF

Info

Publication number
JP2010261810A
JP2010261810A JP2009112737A JP2009112737A JP2010261810A JP 2010261810 A JP2010261810 A JP 2010261810A JP 2009112737 A JP2009112737 A JP 2009112737A JP 2009112737 A JP2009112737 A JP 2009112737A JP 2010261810 A JP2010261810 A JP 2010261810A
Authority
JP
Japan
Prior art keywords
array
coordinate
axis
dimensional coordinate
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009112737A
Other languages
Japanese (ja)
Other versions
JP5289173B2 (en
Inventor
Jiro Suzuki
二郎 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2009112737A priority Critical patent/JP5289173B2/en
Publication of JP2010261810A publication Critical patent/JP2010261810A/en
Application granted granted Critical
Publication of JP5289173B2 publication Critical patent/JP5289173B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Testing Of Optical Devices Or Fibers (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a wavefront sensor which performs association processing between the coordinates of a light converging point and an individual lenslet at high speed and easily and reduces costs. <P>SOLUTION: A coordinate axis array generation means 102 sorts the two-dimensional coordinates of light converging points to generate a coordinates value array. A differential value calculation means 103 calculates the difference between two successive elements for the coordinates value array. An array number detection means 104 calculates the total number of elements exceeding a threshold. An associating means 105 determines the association relationship between the two-dimensional coordinates group and the individual lenslet 5 on the basis of the two-dimensional coordinates group and the array number detected by the array number detection means 104. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、光波の波面歪を検出するシャック・ハルトマン方式の波面センサに関し、特にその信号処理に関するものである。   The present invention relates to a Shack-Hartmann wavefront sensor for detecting wavefront distortion of a light wave, and more particularly to signal processing thereof.

シャック・ハルトマン方式の波面センサは、多数の小レンズ(レンズレット)を格子状に配列したレンズレットアレイによって光波を結像し、その結像パターンから波面分布を計測する。当該装置の信号処理において、多数の結像点の一つ一つがどのレンズレットによりもたらされたのかを識別する必要がある。以下、この処理を対応付け処理という。対応付け処理の実装として典型的には事前の操作により、特定のレンズレットと画像上の特定領域を1対1に対応させる処理テーブルを持っておくという方式が用いられる。この方式では、任意のレンズレットは自身に対応しない特定領域に結像点を侵入させてはならない、という前提条件を設ける必要がある。この前提条件により計測できる波面歪のダイナミックレンジが制限される。このような問題に対し、例えば、特許文献1では、駆動機構を用いて光学倍率を変化させることにより、ダイナミックレンジを向上させる方法が開示されている。また、特許文献2では、倍率の異なる2組のレンズレットアレイを設けてダイナミックレンジを向上させる方法が開示されている。   The Shack-Hartmann wavefront sensor forms an image of a light wave by a lenslet array in which a large number of small lenses (lenslets) are arranged in a lattice pattern, and measures the wavefront distribution from the image pattern. In the signal processing of the device, it is necessary to identify which lenslet has caused each of the many imaging points. Hereinafter, this process is referred to as an association process. As a method for implementing the association processing, a method is typically used in which a processing table is provided that associates a specific lenslet with a specific area on an image in a one-to-one correspondence by a prior operation. In this method, it is necessary to provide a precondition that an arbitrary lenslet should not enter an image point into a specific area that does not correspond to itself. This precondition limits the dynamic range of wavefront distortion that can be measured. For example, Patent Document 1 discloses a method for improving the dynamic range by changing the optical magnification using a drive mechanism. Patent Document 2 discloses a method of improving dynamic range by providing two sets of lenslet arrays having different magnifications.

特表2001−524662号公報JP-T-2001-524661 特開2004−113405号公報JP 2004-113405 A

従来の波面センサは以上述べたように構成されているため、所定のダイナミックレンジで波面を計測することが可能である。しかしながら、以下に示す課題があった。
第一に、事前の操作により特定のレンズレットと画像上の特定領域を1対1に対応させる処理テーブルをもつ必要があったが、この処理テーブルを作成するためには複雑な処理が必要であり、場合によっては人の判断を要し、手間と時間がかかる。従って、例えば、装置に熟知しないユーザーによってレンズレットアレイを異なる仕様に交換する、といった操作において、簡便性を損なうという課題があった。
第二に、ダイナミックレンジ向上のためのハードウェアを付加する必要があったが、対応付け処理を、処理テーブルを用いずに行うことができれば不要な構成要素であり、すなわち装置の大型化、重量増加、コスト増大化、並びに測定時間の増加などを招くという課題があった。
Since the conventional wavefront sensor is configured as described above, it is possible to measure the wavefront with a predetermined dynamic range. However, there are the following problems.
First, it is necessary to have a processing table that associates a specific lenslet with a specific area on an image in a one-to-one correspondence in advance, but complicated processing is necessary to create this processing table. In some cases, it requires human judgment and takes time and effort. Therefore, for example, in the operation of exchanging the lenslet array with a different specification by a user who is not familiar with the apparatus, there is a problem that the convenience is impaired.
Secondly, it was necessary to add hardware for improving the dynamic range. However, if the association process can be performed without using a processing table, it is an unnecessary component, that is, the size and weight of the apparatus are increased. There has been a problem of increasing the cost, increasing the cost, and increasing the measurement time.

この発明は上記のような課題を解決するためになされたもので、集光点の座標と個々のレンズレットとの対応付け処理を高速かつ容易に行うことができると共に、低コスト化を図ることのできる波面センサを得ることを目的とする。   The present invention has been made to solve the above-described problems, and can perform the process of associating the coordinates of the condensing points with the individual lenslets at high speed and at a low cost. It is an object to obtain a wavefront sensor capable of performing

この発明に係る波面センサは、入射した光波の波面形状に応じた多数の集光点パターンを生成するレンズレットアレイと、レンズレットアレイが結像する多数の集光点パターンを撮像して画像信号に変換する二次元検出器と、二次元検出器の画像信号から光波の波面形状あるいは波面形状に対応する特徴量を演算出力する演算装置を備えた波面センサであって、演算装置は、画像上に定義した二軸の直交座標系において、個々の集光点の二次元座標群を演算する二次元座標群抽出手段と、直交座標系の第一軸および第二軸における二次元座標群の座標値を抽出してその大小関係についてソートし、座標値配列を生成する座標軸配列生成手段と、座標軸配列生成手段による座標値配列について、連続する二要素の差を演算する差分値演算手段と、差分値演算手段による連続する二要素の差に対し、しきい値を超える要素の総数を演算する配列数検出手段と、二次元座標群抽出手段で抽出された二次元座標群と、配列数検出手段で検出された第一軸および第二軸の配列数に基づき、二次元座標群と個々のレンズレットとの対応関係を決定する対応付け手段とを備えたものである。   The wavefront sensor according to the present invention images a lenslet array that generates a large number of condensing point patterns according to the wavefront shape of an incident light wave, and images a large number of condensing point patterns formed by the lenslet array. A wavefront sensor comprising: a two-dimensional detector for converting to a wavefront; and a calculation device for calculating and outputting a wavefront shape of a light wave or a feature quantity corresponding to the wavefront shape from an image signal of the two-dimensional detector. In the two-axis orthogonal coordinate system defined in (2), the two-dimensional coordinate group extraction means for calculating the two-dimensional coordinate group of each focal point, and the coordinates of the two-dimensional coordinate group on the first and second axes of the orthogonal coordinate system A coordinate axis array generating unit that extracts values and sorts them according to the magnitude relationship, and generates a coordinate value array; and a difference value calculating unit that calculates a difference between two consecutive elements for the coordinate value array by the coordinate axis array generating unit; For the difference between two consecutive elements by the difference value calculation means, the array number detection means for calculating the total number of elements exceeding the threshold, the two-dimensional coordinate group extracted by the two-dimensional coordinate group extraction means, and the number of arrays detection Corresponding means for determining a correspondence relationship between the two-dimensional coordinate group and each lenslet based on the number of arrangements of the first axis and the second axis detected by the means.

この発明の波面センサは、集光点の二次元座標をソートして座標値配列を生成し、この座標軸配列の連続する二要素の差分値としきい値とを比較して、しきい値を超える要素の総数に基づいて二次元座標群とレンズレットとの対応関係を決定するようにしたので、集光点の座標と個々のレンズレットとの対応付け処理を高速かつ容易に行うことができると共に、低コスト化を図ることができる。   The wavefront sensor according to the present invention sorts the two-dimensional coordinates of the focal points to generate a coordinate value array, compares the difference value of two consecutive elements of this coordinate axis array with a threshold value, and exceeds the threshold value Since the correspondence between the two-dimensional coordinate group and the lenslet is determined based on the total number of elements, it is possible to quickly and easily perform the process of associating the focal point coordinates with the individual lenslets. Cost reduction can be achieved.

この発明の実施の形態1の波面センサを示す構成図である。It is a block diagram which shows the wavefront sensor of Embodiment 1 of this invention. この発明の実施の形態1の波面センサにおける集光点パターン画像を示す説明図である。It is explanatory drawing which shows the condensing point pattern image in the wavefront sensor of Embodiment 1 of this invention. この発明の実施の形態1の波面センサにおける処理テーブルを模式的に示す説明図である。It is explanatory drawing which shows typically the process table in the wavefront sensor of Embodiment 1 of this invention. この発明の実施の形態1の波面センサにおける信号処理内容を示すフローチャートである。It is a flowchart which shows the signal processing content in the wavefront sensor of Embodiment 1 of this invention. この発明の実施の形態1の波面センサにおける配列数検出手段の処理内容を示す説明図である。It is explanatory drawing which shows the processing content of the arrangement | sequence number detection means in the wavefront sensor of Embodiment 1 of this invention. この発明の実施の形態1の波面センサにおける対応付け処理用の処理テーブルを示す説明図である。It is explanatory drawing which shows the process table for the matching process in the wavefront sensor of Embodiment 1 of this invention. この発明の実施の形態3の波面センサにおける信号処理内容を示すフローチャートである。It is a flowchart which shows the signal processing content in the wavefront sensor of Embodiment 3 of this invention. この発明の実施の形態4の波面センサにおける演算装置の構成図である。It is a block diagram of the arithmetic unit in the wavefront sensor of Embodiment 4 of this invention. この発明の実施の形態4の波面センサが処理対象とする集光点パターンの一例を示す説明図である。It is explanatory drawing which shows an example of the condensing point pattern made into the process target by the wavefront sensor of Embodiment 4 of this invention. この発明の実施の形態4の波面センサにおける対応付け処理の説明図である。It is explanatory drawing of the matching process in the wavefront sensor of Embodiment 4 of this invention.

実施の形態1.
図1は、この発明の実施の形態1による波面センサを示す構成図である。
図1に示す波面センサは、その光学系を簡略化して示しており、開口マスク1、レンズレットアレイ2、CCD(Charge Coupled Device)3からなる。また、図中、部分光波4は計測対象光波の一部を示し、レンズレット5は部分光波4が入射する任意のレンズレットを拡大して示している。また、集光スポット6は、レンズレット5によりCCD3上に生成される集光点を示している。演算装置100は、コンピュータを用いて実現されており、二次元座標群抽出手段101、座標軸配列生成手段102、差分値演算手段103、配列数検出手段104、対応付け手段105を備えている。
Embodiment 1 FIG.
1 is a block diagram showing a wavefront sensor according to Embodiment 1 of the present invention.
The wavefront sensor shown in FIG. 1 has a simplified optical system, and includes an aperture mask 1, a lenslet array 2, and a CCD (Charge Coupled Device) 3. Further, in the figure, a partial light wave 4 shows a part of the measurement target light wave, and a lenslet 5 shows an enlarged arbitrary lenslet on which the partial light wave 4 is incident. A condensing spot 6 indicates a condensing point generated on the CCD 3 by the lenslet 5. The arithmetic device 100 is realized using a computer, and includes a two-dimensional coordinate group extraction unit 101, a coordinate axis array generation unit 102, a difference value calculation unit 103, an array number detection unit 104, and an association unit 105.

開口マスク1は光学系において光の一部が遮断されることを模式的に表わしたものであり、図1では典型的な反射望遠鏡、すなわち、副鏡と副鏡の支持機構による遮蔽が存在する円形開口を模している。レンズレットアレイ2は正方形開口のレンズレット5を正方格子状に(等間隔に)配列したレンズレットアレイである。図では部分光波4、レンズレット5と集光スポット6との対応をわかりやすくするために、それぞれ一つのみを図示しているが、実際はレンズレットアレイ2上に射影された開口マスク1の透過部に対応するレンズレット全てが各1個の集光点をCCD3上に生成する。尚、レンズレット5は正方形開口に限定されず、どのような開口形状でもよい。また、レンズレットアレイ2にレンズレット5を配列するパターンは、縦横のアスペクト比が異なる長方形格子状であってもよい。また、CCD3は二次元検出器を構成するものであるが、二次元検出器はCCD以外であってもよい。   The aperture mask 1 schematically represents that a part of light is blocked in the optical system. In FIG. 1, there is a typical reflection telescope, that is, shielding by a support mechanism of the secondary mirror and the secondary mirror. Simulates a circular opening. The lenslet array 2 is a lenslet array in which lenslets 5 having square openings are arranged in a square lattice pattern (at equal intervals). In the figure, in order to make it easy to understand the correspondence between the partial light wave 4, the lenslet 5 and the focused spot 6, only one of each is shown. All the lenslets corresponding to the unit generate one condensing point on the CCD 3. The lenslet 5 is not limited to a square opening and may have any opening shape. Further, the pattern in which the lenslets 5 are arranged in the lenslet array 2 may be a rectangular lattice having different aspect ratios. The CCD 3 constitutes a two-dimensional detector, but the two-dimensional detector may be other than the CCD.

演算装置100は、CCD3の出力信号から光波の波面形状あるいは波面形状に対応する特徴量を演算出力する装置である。二次元座標群抽出手段101は、画像上に定義した二軸の直交座標系において、個々の集光点の二次元座標群を演算する手段である。座標軸配列生成手段102は、直交座標系の第一軸および第二軸における二次元座標群の座標値を抽出してその大小関係についてソートし、座標値配列を生成する手段である。差分値演算手段103は、座標軸配列生成手段102による座標値配列について、連続する二要素の差を演算する手段である。配列数検出手段104は、差分値演算手段103による連続する二要素の差に対し、しきい値を超える要素の総数を検出する手段である。対応付け手段105は、二次元座標群抽出手段101で抽出された二次元座標群と、配列数検出手段104で検出された第一軸および第二軸の配列数に基づき、二次元座標群と個々のレンズレット5との対応関係を決定する手段である。   The computing device 100 is a device that computes and outputs a wavefront shape of a light wave or a feature amount corresponding to the wavefront shape from an output signal of the CCD 3. The two-dimensional coordinate group extraction unit 101 is a unit that calculates a two-dimensional coordinate group of each focal point in a two-axis orthogonal coordinate system defined on the image. The coordinate axis array generation means 102 is a means for generating a coordinate value array by extracting the coordinate values of the two-dimensional coordinate group on the first axis and the second axis of the orthogonal coordinate system and sorting the coordinate values. The difference value calculation unit 103 is a unit that calculates a difference between two consecutive elements in the coordinate value array by the coordinate axis array generation unit 102. The array number detection means 104 is a means for detecting the total number of elements that exceed a threshold with respect to the difference between two consecutive elements by the difference value calculation means 103. The associating means 105 is based on the two-dimensional coordinate group extracted by the two-dimensional coordinate group extracting means 101 and the number of arrangements of the first axis and the second axis detected by the arrangement number detecting means 104. This is a means for determining the correspondence with each lenslet 5.

尚、これら二次元座標群抽出手段101〜対応付け手段105は、それぞれの機能に対応したソフトウェアと、これらソフトウェアを実行するためのCPUやメモリといったハードウェアから構成されている。あるいは、これら二次元座標群抽出手段101〜対応付け手段105を専用のハードウェアで構成してもよい。   The two-dimensional coordinate group extraction unit 101 to the association unit 105 are configured by software corresponding to each function and hardware such as a CPU and a memory for executing the software. Or you may comprise these two-dimensional coordinate group extraction means 101-association means 105 with exclusive hardware.

次に、このように構成された波面センサにおける対応付け処理について説明する。
図2はCCD3で撮像された集光点パターン画像の例である。仮想枠3aは、CCD3の撮像領域に対応する領域を示しており、画像7の集光点パターン8は、集光スポット6のパターンである。尚、画像7は説明の都合上白黒を反転させている。
Next, association processing in the wavefront sensor configured as described above will be described.
FIG. 2 is an example of a condensing point pattern image captured by the CCD 3. The virtual frame 3 a indicates an area corresponding to the imaging area of the CCD 3, and the condensing point pattern 8 of the image 7 is a pattern of the condensing spot 6. The image 7 is reversed in black and white for convenience of explanation.

図3は波面センサの対応付け処理に用いられる処理テーブルを模式的に示した説明図である。図3において、仮想枠3a内の検出領域9は、レンズレット5に対応付けられた領域を示し、インデックス10hは検出領域9の水平方向のインデックス、インデックス10vは検出領域9の垂直方向のインデックスである。
ここで、インデックス10h,10vにより参照される検出領域9は個々のレンズレット5と事前操作により対応付けられており、検出領域9の内側に存在する座標点は対応するレンズレット5により生成されたものである、という判断により対応付け処理を行う。
FIG. 3 is an explanatory diagram schematically showing a processing table used for the wavefront sensor association processing. In FIG. 3, the detection area 9 in the virtual frame 3 a indicates an area associated with the lenslet 5, the index 10 h is the horizontal index of the detection area 9, and the index 10 v is the vertical index of the detection area 9. is there.
Here, the detection areas 9 referred to by the indexes 10 h and 10 v are associated with the individual lenslets 5 by a prior operation, and the coordinate points existing inside the detection areas 9 are generated by the corresponding lenslets 5. Correspondence processing is performed based on the determination that it is a thing.

レンズレットアレイ2の隣接するレンズレット5の間隔を知らずとも、集光点の欠損がなければ集光点パターン8からレンズレット間隔を推定し、検出領域9を定義し、インデックス10h、10vを付する処理は比較的容易である。本実施の形態1によれば、開口マスク1による集光点欠損が存在し、かつどのインデックス参照検出領域9に対して集光点欠損が生じるか事前情報を知らなくとも図2のような集光点パターンから図3の処理テーブルを生成する信号処理アルゴリズムを提供する。   Without knowing the distance between adjacent lenslets 5 in the lenslet array 2, if there is no missing focal point, the lenslet distance is estimated from the focal point pattern 8, the detection area 9 is defined, and the indices 10 h and 10 v are assigned. The process to do is relatively easy. According to the first embodiment, a condensing point defect due to the aperture mask 1 exists, and for which index reference detection region 9 the condensing point defect occurs without knowing prior information as shown in FIG. A signal processing algorithm for generating the processing table of FIG. 3 from the light spot pattern is provided.

先ず、前提条件について述べる
(1)レンズレットアレイ2における格子配列の縦横の方向は画像の水平、垂直方向と一致している。
(2)波面歪はデフォーカス、ティルトが支配的であり、非点や3次以上の波面収差は比較的小さい。
First, preconditions will be described. (1) The vertical and horizontal directions of the lattice arrangement in the lenslet array 2 coincide with the horizontal and vertical directions of the image.
(2) Defocus and tilt are dominant in wavefront distortion, and astigmatism and third-order or higher wavefront aberration are relatively small.

図4は、実施の形態1の波面センサにおける演算装置100の信号処理内容を示すフローチャートである。
図において、ステップST1〜ST6はそれぞれ演算ステップであり、ステップST2a、ST2b、ST2cは演算ステップST2のサブ演算ステップ、ステップST3a、ST3b、ST3cは演算ステップST3のサブ演算ステップである。尚、演算ステップST1は二次元座標群抽出手段101で実行され、以下、サブ演算ステップST2aは座標軸配列生成手段102で、サブ演算ステップST2bは差分値演算手段103で、サブ演算ステップST2cは配列数検出手段104で実行される。また、演算ステップST4〜ST6は対応付け手段105によって実行される。
FIG. 4 is a flowchart showing signal processing contents of the arithmetic device 100 in the wavefront sensor according to the first embodiment.
In the figure, steps ST1 to ST6 are calculation steps, steps ST2a, ST2b and ST2c are sub-calculation steps of calculation step ST2, and steps ST3a, ST3b and ST3c are sub-calculation steps of calculation step ST3. The calculation step ST1 is executed by the two-dimensional coordinate group extraction means 101. Hereinafter, the sub calculation step ST2a is the coordinate axis array generation means 102, the sub calculation step ST2b is the difference value calculation means 103, and the sub calculation step ST2c is the number of arrays. This is executed by the detecting means 104. The calculation steps ST4 to ST6 are executed by the association unit 105.

以下、図4における各演算ステップの処理内容を詳細に説明する。
演算ステップST1において、二次元座標群抽出手段101は、集光点パターン8を記録した画像信号から全ての集光スポット6の二次元座標を抽出する。ここで、二次元座標は画像の水平方向にX軸、垂直方向にY軸とした直交座標系上の座標である。図2の例では45個の集光点があるので、演算ステップST1の演算の結果45個のX,Y座標値が生成される。ここでは一般化し、N個(N:4以上の整数)のX,Y座標値が検出された場合を説明する。
Hereinafter, the processing content of each calculation step in FIG. 4 will be described in detail.
In the calculation step ST1, the two-dimensional coordinate group extraction unit 101 extracts the two-dimensional coordinates of all the focused spots 6 from the image signal in which the focused spot pattern 8 is recorded. Here, the two-dimensional coordinates are coordinates on an orthogonal coordinate system with the X axis in the horizontal direction and the Y axis in the vertical direction. In the example of FIG. 2, since there are 45 condensing points, 45 X and Y coordinate values are generated as a result of the calculation in the calculation step ST1. Here, a general case will be described in which N (N: integer of 4 or more) X, Y coordinate values are detected.

次に、演算ステップST2について説明する。サブ演算ステップである演算ステップST2aでは、座標軸配列生成手段102により、N個のX座標値を昇順にソートして、要素数N個の配列に格納する。以下配列の要素を、インデックスi(i=0〜N−1)を付した変数Xiで参照する。
次に、演算ステップST2bでは、差分値演算手段103により、配列Xiの隣接する要素間の差を演算し、新たな配列DXi(i=0〜N−2)に格納する。具体的には以下の数式(1)による。
DXi=X(i+1)−Xi (1)
Next, the calculation step ST2 will be described. In calculation step ST2a, which is a sub calculation step, the coordinate axis array generation unit 102 sorts the N X coordinate values in ascending order and stores them in an array having N elements. Hereinafter, the elements of the array are referred to by a variable Xi with an index i (i = 0 to N-1).
Next, in the calculation step ST2b, the difference value calculation means 103 calculates the difference between adjacent elements of the array Xi and stores it in a new array DXi (i = 0 to N-2). Specifically, according to the following formula (1).
DXi = X (i + 1) -Xi (1)

次に、配列数検出手段104による演算ステップST2cの処理を図面を用いて説明する。図5は演算ステップST2cの処理内容を説明するための説明図である。図において、配列DXi(20)は、横軸にインデックスiをとってプロットした配列を示し、しきい値Th(21)は、プログラムまたはユーザ定義によるしきい値である。演算ステップ2cでは全てのDXiとしきい値Thとの大小関係を比較し、しきい値Thより大きい要素の数を抽出する。図5では8個の要素がこの処理により抽出される。図のようにインデックスiを0から順にたどってDXiを参照していったときに、前記要素が抽出されると、インデックス10hがインクリメントされたと判別できる。従って、インクリメント回数に1を足した数がインデックス10hの処理テーブルのサイズHであると判別できる。   Next, the processing of the calculation step ST2c by the arrangement number detection means 104 will be described with reference to the drawings. FIG. 5 is an explanatory diagram for explaining the processing content of the calculation step ST2c. In the figure, an array DXi (20) indicates an array plotted with an index i on the horizontal axis, and a threshold Th (21) is a threshold defined by a program or a user. In the calculation step 2c, the magnitude relation between all DXi and the threshold value Th is compared, and the number of elements larger than the threshold value Th is extracted. In FIG. 5, eight elements are extracted by this process. As shown in the figure, when the index i is sequentially traced from 0 to refer to DXi, if the element is extracted, it can be determined that the index 10h has been incremented. Therefore, it can be determined that the number obtained by adding 1 to the number of increments is the size H of the processing table of the index 10h.

この判別基準が有効である理由は上述した前提条件(1)、(2)で説明できる。この前提条件により、同じインデックス10h、例えば“A”に属する3点のX座標(X0,X1,X2)はほぼ等しく、従ってそれらの要素間差分(DX0,DX1)は0に近い。しかし、インデックス“A”に属する座標(X2)と、インデックス“B”に属する座標(X3)との間の差分(DX2)は、前記要素間差分と比べてはるかに大きい。従って、適当なしきい値Thを用いてインデックスをまたがる要素間差分を検出することが容易に可能である。以上により、インデックス10hのサイズHを検出することができる。   The reason why this discrimination criterion is effective can be explained by the preconditions (1) and (2) described above. With this precondition, the X coordinates (X0, X1, X2) of the three points belonging to the same index 10h, for example, “A” are substantially equal, and therefore the difference (DX0, DX1) between these elements is close to zero. However, the difference (DX2) between the coordinates (X2) belonging to the index “A” and the coordinates (X3) belonging to the index “B” is much larger than the inter-element difference. Therefore, it is possible to easily detect an inter-element difference across indexes using an appropriate threshold value Th. As described above, the size H of the index 10h can be detected.

演算ステップST3では、上記演算ステップST2の説明で述べたのと同等のアルゴリズムをY座標について適用し、インデックス10vのサイズVを検出する。   In calculation step ST3, an algorithm equivalent to that described in the description of calculation step ST2 is applied to the Y coordinate, and the size V of the index 10v is detected.

演算ステップST4では、対応付け手段105により、画像データ上に配列サイズH×Vの対応付け処理用の処理テーブルを定義する。図6はこの演算ステップST4で定義する処理テーブルの説明図である。図6において、30xはX座標の最小値X0、31xはX座標の最大値X(N−1)、30yはY座標の最小値Y0、31yはY座標の最大値Y(N−1)、32は検出領域である。この処理テーブルの1要素である検出領域32は、図3の検出領域9と同等の役割を果たすものであり、インデックス10hとインデックス10vで参照される長方形の部分画像領域である。この処理テーブルの位置、及び大きさの定義方法は簡単には以下の方法で決定される。   In calculation step ST4, the association means 105 defines a processing table for association processing of array size H × V on the image data. FIG. 6 is an explanatory diagram of the processing table defined in the calculation step ST4. In FIG. 6, 30x is the minimum value X0 of the X coordinate, 31x is the maximum value X (N-1) of the X coordinate, 30y is the minimum value Y0 of the Y coordinate, 31y is the maximum value Y (N-1) of the Y coordinate, Reference numeral 32 denotes a detection area. The detection area 32 which is one element of this processing table plays a role equivalent to that of the detection area 9 in FIG. 3 and is a rectangular partial image area referred to by the index 10h and the index 10v. The definition method of the position and size of the processing table is simply determined by the following method.

代表としてX座標に関するサイズ、位置の求め方を説明する。この処理では、全ての検出領域32のサイズを等しく、位置を均等に配置する。第一に、X座標の最大値31xと最小値30xとの差分(X(N-1)−X0)を要素数から1を引いた数(H−1)で除して、検出領域32の幅とする。第二に、左右両端の検出領域の中心をX座標の最大値31x(X(N-1))、及び最小値30x(X0)に等しく設定する。第三に残りの検出領域の中心を前記両端の処理テーブル要素を基準として等間隔に配置していく。
また、検出領域32のY座標に関する位置、サイズについても同様に決定していく。
As a representative, how to obtain the size and position regarding the X coordinate will be described. In this process, all the detection areas 32 have the same size and are arranged at the same position. First, the difference (X (N-1) -X0) between the maximum value 31x and the minimum value 30x of the X coordinate is divided by the number obtained by subtracting 1 from the number of elements (H-1), and Width. Second, the centers of the detection areas at the left and right ends are set equal to the maximum value 31x (X (N-1)) of the X coordinate and the minimum value 30x (X0). Thirdly, the centers of the remaining detection areas are arranged at equal intervals with reference to the processing table elements at both ends.
Further, the position and size regarding the Y coordinate of the detection area 32 are similarly determined.

演算ステップST5では、検出領域32を用いて、対応付け処理を行う。具体的には、N個の二次元座標点をインデックス10h、10vで参照される二次元配列に格納する。   In calculation step ST5, association processing is performed using the detection region 32. Specifically, N two-dimensional coordinate points are stored in a two-dimensional array referenced by indexes 10h and 10v.

演算ステップST6では、仮決めした検出領域32の修正を行う。修正項目、内容は以下の3点である。
(1)検出領域32の中心を対応する二次元座標点で置き換える。
(2)対応する二次元座標点が見つからなかった検出領域32に対し無効フラグを付する。
(3)隣接する二つの検出領域32が共に有効であった場合、その中間に検出領域32の境界がくるようにサイズを修正する。
In the calculation step ST6, the temporarily determined detection area 32 is corrected. The correction items and contents are the following three points.
(1) Replace the center of the detection area 32 with the corresponding two-dimensional coordinate point.
(2) An invalid flag is attached to the detection area 32 in which the corresponding two-dimensional coordinate point is not found.
(3) If two adjacent detection areas 32 are both valid, the size is corrected so that the boundary of the detection area 32 is in the middle.

実施の形態1による波面センサは以上説明したように構成されているため、以下に示す効果を奏する。
第一に、処理テーブルを1枚の集光点パターン画像から自動で生成することが可能である。従って、レンズレットアレイ2の仕様が不明であっても、自動的な処理に支障がなく、簡便性が向上する。
第二に、集光点の欠損があっても自動的な処理に支障がなく、簡便性が向上する。
第三に、1枚の集光点パターン画像から自動で簡単な処理で処理テーブルを生成できるので、事前操作による処理テーブル生成が不要である。従って、計測を高速化でき、かつ、ダイナミックレンジの広い波面センサが実現可能である。
Since the wavefront sensor according to the first embodiment is configured as described above, the following effects can be obtained.
First, it is possible to automatically generate a processing table from a single condensing point pattern image. Therefore, even if the specification of the lenslet array 2 is unknown, there is no hindrance to automatic processing and the convenience is improved.
Secondly, even if a condensing point is missing, there is no hindrance to automatic processing and convenience is improved.
Thirdly, since a processing table can be generated automatically and easily from a single condensing point pattern image, it is not necessary to generate a processing table by prior operation. Therefore, it is possible to realize a wavefront sensor that can speed up measurement and has a wide dynamic range.

以上説明したように、実施の形態1の波面センサによれば、入射した光波の波面形状に応じた多数の集光点パターンを生成するレンズレットアレイ2と、レンズレットアレイ2が結像する多数の集光点パターンを撮像して画像信号に変換するCCD3と、CCD3の画像信号から光波の波面形状あるいは波面形状に対応する特徴量を演算出力する演算装置100を備えた波面センサであって、演算装置100は、画像上に定義した二軸の直交座標系において、個々の集光点の二次元座標群を演算する二次元座標群抽出手段101と、直交座標系の第一軸および第二軸における二次元座標群の座標値を抽出してその大小関係についてソートし、座標値配列を生成する座標軸配列生成手段102と、座標軸配列生成手段102による座標値配列について、連続する二要素の差を演算する差分値演算手段103と、差分値演算手段103による連続する二要素の差に対し、しきい値を超える要素の総数を検出する配列数検出手段104と、二次元座標群抽出手段101で抽出された二次元座標群と、配列数検出手段104で検出された第一軸および第二軸の配列数に基づき、二次元座標群と個々のレンズレットとの対応関係を決定する対応付け手段105とを備えたので、集光点の座標と個々のレンズレットとの対応付け処理を高速かつ容易に行うことができ、また、波面センサとしての低コスト化を図ることができる。   As described above, according to the wavefront sensor of the first embodiment, the lenslet array 2 that generates a number of condensing point patterns according to the wavefront shape of the incident light wave, and the number of images formed by the lenslet array 2 are imaged. A wavefront sensor comprising: a CCD 3 that picks up a light-condensing point pattern and converts it into an image signal; and a computing device 100 that computes and outputs a wavefront shape of a light wave from the image signal of the CCD 3 or a feature quantity corresponding to the wavefront shape; The arithmetic device 100 includes a two-dimensional coordinate group extraction unit 101 that calculates a two-dimensional coordinate group of each focal point in a two-axis orthogonal coordinate system defined on the image, and a first axis and a second axis of the orthogonal coordinate system. The coordinate values of the two-dimensional coordinate group on the axis are extracted and sorted according to the magnitude relationship, and the coordinate axis array generating unit 102 for generating the coordinate value array and the coordinate value array by the coordinate axis array generating unit 102 A difference value calculating means 103 for calculating a difference between two consecutive elements, and an array number detecting means 104 for detecting the total number of elements exceeding a threshold with respect to the difference between the two consecutive elements by the difference value calculating means 103; Based on the two-dimensional coordinate group extracted by the two-dimensional coordinate group extraction means 101 and the number of arrangements of the first axis and the second axis detected by the arrangement number detection means 104, the two-dimensional coordinate group and individual lenslets Since the correspondence means 105 for determining the correspondence relationship is provided, the correspondence processing between the coordinates of the focal point and each lenslet can be performed quickly and easily, and the cost of the wavefront sensor can be reduced. Can be achieved.

実施の形態2.
上記実施の形態1において、演算ステップST2c,ST3cにおけるDXi(DYi)と比較するしきい値Thは既知情報として定義することも可能であるが、より簡便性を高めるためには集光点パターン画像より検出することが望ましい。なんらかの統計値に基づく様々な方法が考えられる。簡単にはDXi(DYi)の最大値の二分の1に設定することでも有効である。また標準偏差を求め、適当な係数αを乗じてThとする方法など、統計的手法を用いた公知の手法を適用可能である。
Embodiment 2. FIG.
In the first embodiment, the threshold value Th to be compared with DXi (DYi) in the calculation steps ST2c and ST3c can be defined as known information. It is desirable to detect more. Various methods based on some statistical value can be considered. For simplicity, it is also effective to set it to one half of the maximum value of DXi (DYi). Further, a known method using a statistical method such as a method of obtaining a standard deviation and multiplying by an appropriate coefficient α to obtain Th can be applied.

このように、実施の形態2による波面センサは以上説明したように構成されているため、次のような効果を奏する。すなわち、しきい値Thを、既知情報を用いずに簡単な処理で決定可能である。従って、高速計測が行え、かつ、利便性の高い波面センサが実現可能である。   Thus, since the wavefront sensor according to the second embodiment is configured as described above, the following effects can be obtained. That is, the threshold value Th can be determined by simple processing without using known information. Therefore, it is possible to realize a wavefront sensor that can perform high-speed measurement and is highly convenient.

実施の形態3.
実施の形態1では、集光点パターンの対応付け(演算ステップST5)を行うと共に、対応付け処理のための処理テーブルを生成する方法を説明したが、単に対応付けのみを行うことも当然可能である。尚、実施の形態3における波面センサの図面上の構成は実施の形態1の図1と同様であるため、図1の構成を援用して説明する。
Embodiment 3 FIG.
In the first embodiment, the method of generating the processing table for the association process while performing the association of the condensing point patterns (calculation step ST5) has been described, but it is naturally possible to perform only the association. is there. In addition, since the structure on the drawing of the wavefront sensor in Embodiment 3 is the same as that of FIG. 1 of Embodiment 1, it demonstrates using the structure of FIG.

図7は、実施の形態3による波面センサの信号処理内容を示すフローチャートである。図7のフローチャートにおいて、図4とフローチャートと同様の処理については同一のステップ番号は付してその説明を省略する。図7の演算ステップST2、及びST3には新たに演算ステップST2d,ST3dが追加されている。この演算ステップST2d,ST3dおよび後述する演算ステップST7の演算は対応付け手段105により行われるものである。以下、先ず、演算ステップST2dの処理内容を説明する。   FIG. 7 is a flowchart showing signal processing contents of the wavefront sensor according to the third embodiment. In the flowchart of FIG. 7, the same steps as those in the flowchart of FIG. 4 are denoted by the same step numbers and description thereof is omitted. Calculation steps ST2d and ST3d are newly added to the calculation steps ST2 and ST3 in FIG. The calculation steps ST2d and ST3d and the calculation step ST7 described later are performed by the association means 105. Hereinafter, the processing content of the calculation step ST2d will be described first.

既に述べたように、演算ステップST2cでは図5で説明されるアルゴリズムでDXiから配列サイズHを検出するが、演算ステップST2dではDXiからXiのインデックス10hを付する。図5で説明されるように、配列DXiをインデックスiの順に参照すると、しきい値Thを超える要素DXiが出現するたびにインデックス10hがインクリメントされる。これを利用し、配列DXiのインデックスiとインデックス10hとの対応付けが可能である。配列DXiのインデックスiは配列Xiのインデックスiと式(1)で示した関係があり、前記操作により座標値Xiとインデックス10hとの対応付けがなされたことになる。
演算ステップST3dでは演算ステップST2dと同様の処理を配列DYi、Yiについて行い、座標値Yiとインデックス10vとの対応付けを行う。
演算ステップST7では、演算ステップST2d、ST3dの結果をもとに二次元座標群(X、Y)をインデックス10h、10vを付された二次元配列へ格納する。
尚、しきい値Thについては、既知情報として定義するか、あるいは、実施の形態2で説明したように、統計的手法を用いて決定してもよい。
As already described, in the calculation step ST2c, the array size H is detected from DXi by the algorithm described in FIG. 5, but in the calculation step ST2d, an index 10h from DXi to Xi is added. As illustrated in FIG. 5, when the array DXi is referred to in the order of the index i, the index 10h is incremented each time an element DXi exceeding the threshold Th appears. Using this, it is possible to associate the index i of the array DXi with the index 10h. The index i of the array DXi has the relationship shown by the expression (1) with the index i of the array Xi, and the coordinate value Xi and the index 10h are associated by the above operation.
In the calculation step ST3d, the same processing as in the calculation step ST2d is performed on the arrays DYi and Yi, and the coordinate value Yi and the index 10v are associated.
In the calculation step ST7, the two-dimensional coordinate group (X, Y) is stored in the two-dimensional array with the indexes 10h and 10v based on the results of the calculation steps ST2d and ST3d.
Note that the threshold value Th may be defined as known information or may be determined using a statistical method as described in the second embodiment.

以上説明したように、実施の形態3の波面センサでは、1枚の集光点パターン画像から自動で簡単な処理でかつ、処理テーブルの生成を伴わずに、対応付けが可能である。従って、高速でダイナミックレンジの広い波面センサが実現可能である。   As described above, in the wavefront sensor according to the third embodiment, it is possible to perform an automatic and simple process from a single condensing point pattern image and without generating a processing table. Therefore, a wavefront sensor having a high speed and a wide dynamic range can be realized.

実施の形態4.
上記各実施の形態では前提条件として高次波面歪が小さく、従って集光点パターンが概ね正方格子の格子点近くに存在しているという前提条件が必要であった。これに対し、実施の形態4ではこの制限を緩和するものである。
図8は、実施の形態4の波面センサの演算装置100aを示す構成図である。
実施の形態4における演算装置100aは、二次元座標群抽出手段101、座標軸配列生成手段102、差分値演算手段103、配列数検出手段104、対応付け手段105、領域外対応付け手段106を備えている。二次元座標群抽出手段101〜対応付け手段105は基本的な構成は、図1に示した二次元座標群抽出手段101〜対応付け手段105と同様であるが、対象とする領域が後述する関心領域である点が異なる点である。また、領域外対応付け手段106は、対応付け手段105の処理結果に基づいて、関心領域外に属する二次元座標群に対して個々のレンズレット5との対応付けを行う手段である。
Embodiment 4 FIG.
In each of the above-described embodiments, a high-order wavefront distortion is small as a precondition, and therefore a precondition that the condensing point pattern exists almost near the lattice point of a square lattice is necessary. On the other hand, in Embodiment 4, this restriction is relaxed.
FIG. 8 is a configuration diagram illustrating the wavefront sensor arithmetic device 100a according to the fourth embodiment.
The arithmetic device 100a according to the fourth embodiment includes a two-dimensional coordinate group extraction unit 101, a coordinate axis array generation unit 102, a difference value calculation unit 103, an array number detection unit 104, an association unit 105, and an out-of-region association unit 106. Yes. The basic configuration of the two-dimensional coordinate group extracting unit 101 to the associating unit 105 is the same as that of the two-dimensional coordinate group extracting unit 101 to the associating unit 105 shown in FIG. The difference is that it is a region. Further, the out-of-region association unit 106 is a unit that associates each lenslet 5 with a two-dimensional coordinate group belonging to the outside of the region of interest based on the processing result of the association unit 105.

以下、実施の形態4の波面センサの動作について説明する。
図9は、実施の形態4による波面センサの演算装置100aが処理対象とする集光点パターンの一例を示す説明図である。
図9において、二次元座標群50は、集光点パターンから抽出した座標群であり、51a、51bは二次元座標(X,Y)を示している。図9に示す例は、9×9の集光点パターンが欠損なく検出された場合を示し、高次波面歪により正方格子配列から大きくはずれている。これにより、例えば二次元座標51a、51bは異なるインデックス10hを付されるべきであるにもかかわらず、X座標が近接しているため図5で示したアルゴリズムではこのインデックスを検出できないエラーが生じる。実施の形態4ではこのような演算エラーを回避する方法を示すものである。
The operation of the wavefront sensor according to the fourth embodiment will be described below.
FIG. 9 is an explanatory diagram illustrating an example of a condensing point pattern to be processed by the wavefront sensor arithmetic device 100a according to the fourth embodiment.
In FIG. 9, a two-dimensional coordinate group 50 is a coordinate group extracted from the condensing point pattern, and 51a and 51b indicate two-dimensional coordinates (X, Y). The example shown in FIG. 9 shows a case where a 9 × 9 condensing point pattern is detected without loss, and is greatly deviated from the square lattice arrangement due to higher-order wavefront distortion. Thereby, for example, although the two-dimensional coordinates 51a and 51b should be assigned different indexes 10h, the X coordinate is close to each other, so that an error cannot be detected by the algorithm shown in FIG. Embodiment 4 shows a method for avoiding such calculation errors.

図10は、実施の形態4による波面センサの演算装置100aにおける対応付け処理の説明図である。
実施の形態4では、先ず、画像の一部分に関心領域を設ける。図10(a)はこれを示すもので、部分領域52はこの関心領域を示している。そして、部分領域52内の二次元座標群へのインデックス付与のため、先ず、二次元座標群50のうち部分領域52内にある二次元座標群を処理対象として抽出する。
FIG. 10 is an explanatory diagram of the association processing in the wavefront sensor arithmetic device 100a according to the fourth embodiment.
In the fourth embodiment, first, a region of interest is provided in a part of an image. FIG. 10A shows this, and the partial region 52 indicates this region of interest. In order to assign an index to the two-dimensional coordinate group in the partial region 52, first, the two-dimensional coordinate group in the partial region 52 of the two-dimensional coordinate group 50 is extracted as a processing target.

次に、図10(b)のように、部分領域52内の二次元座標群に対し、実施の形態1で説明した演算ステップST2〜ST6を適用する。部分領域52内の二次元座標は比較的収差が小さい範囲であり、従って演算ステップST2〜ST6はエラーなく完了する。   Next, as shown in FIG. 10B, the calculation steps ST2 to ST6 described in the first embodiment are applied to the two-dimensional coordinate group in the partial region 52. The two-dimensional coordinates in the partial region 52 are in a range where the aberration is relatively small, and therefore the calculation steps ST2 to ST6 are completed without error.

次に、領域外対応付け手段106により、図10(c)において、同じインデックス10hに属する二次元座標点群に対し近似曲線を演算する。例えば、図10(c)において、近似曲線53はインデックス10hが“A”に属する二次元座標点の近似曲線である。次に、図10(c)において上側(Y座標が小さい側)から下側に向けて近似曲線53に沿って近傍を探索し、インデックス10vを見つかった順に1ずつ加算して付す。同時に、インデックス10hについては“A”を付す。他の近似曲線についても同様の操作を行う。これにより、部分領域52外の二次元座標(図10(c)におけるインデックス10vが1,2,8,9の二次元座標)についても対応付けを行うことができる。   Next, the out-of-region association unit 106 calculates an approximate curve for the two-dimensional coordinate point group belonging to the same index 10h in FIG. For example, in FIG. 10C, an approximate curve 53 is an approximate curve of a two-dimensional coordinate point whose index 10h belongs to “A”. Next, in FIG. 10C, the vicinity is searched along the approximate curve 53 from the upper side (the side where the Y coordinate is small) to the lower side, and the index 10v is added one by one in the order found. At the same time, “A” is attached to the index 10h. The same operation is performed for other approximate curves. Thereby, it is possible to associate the two-dimensional coordinates outside the partial region 52 (two-dimensional coordinates with the index 10v of 1, 2, 8, 9 in FIG. 10C).

次に、図10(d)において、領域外対応付け手段106は、同じインデックス10vに属する二次元座標点群に対し近似曲線を演算する。例えば、図10(d)において近似曲線54は、インデックス10vが“1”に属する二次元座標点の近似曲線である。次に、図10(d)において左側(X座標が小さい側)から右側に向けて近似曲線54に沿って近傍を探索し、インデックス10hを見つかった順に1ずつ加算して付す。同時に、インデックス10vについては“1”を付す。他の近似曲線についても同様の操作を行う。これにより、部分領域52外の二次元座標(図10(d)におけるインデックス10hがA,B,H,Iの二次元座標)についても対応付けを行うことができる。
以上の操作により、二次元座標群50への対応付け処理が完了する。
Next, in FIG. 10D, the out-of-region association means 106 calculates an approximate curve for the two-dimensional coordinate point group belonging to the same index 10v. For example, in FIG. 10D, the approximate curve 54 is an approximate curve of a two-dimensional coordinate point whose index 10v belongs to “1”. Next, in FIG. 10 (d), the vicinity is searched along the approximate curve 54 from the left side (side where the X coordinate is small) to the right side, and the index 10h is added one by one in the order found. At the same time, “1” is assigned to the index 10v. The same operation is performed for other approximate curves. Thereby, it is possible to associate the two-dimensional coordinates outside the partial region 52 (two-dimensional coordinates with the index 10h in FIG. 10D of A, B, H, and I).
With the above operation, the association process with the two-dimensional coordinate group 50 is completed.

以上説明したように、実施の形態4の波面センサによれば、画像の一部分に関心領域を設け、二次元座標群抽出手段101、座標軸配列生成手段102、差分値演算手段103、配列数検出手段104および対応付け手段105は、関心領域に対して処理を行うと共に、対応付け手段105の処理結果に基づいて、関心領域外に属する二次元座標群に対して個々のレンズレットとの対応付けを行う領域外対応付け手段106を備えたので、高次収差の大きい波面でも対応付け処理が可能である。従って、ダイナミックレンジの広い波面センサが実現可能である。   As described above, according to the wavefront sensor of the fourth embodiment, a region of interest is provided in a part of an image, a two-dimensional coordinate group extraction unit 101, a coordinate axis array generation unit 102, a difference value calculation unit 103, an array number detection unit. 104 and the association unit 105 perform processing on the region of interest and, based on the processing result of the association unit 105, associate the two-dimensional coordinate group belonging to outside the region of interest with each lenslet. Since the out-of-region associating means 106 is provided, the associating process can be performed even on a wavefront having a high order aberration. Therefore, a wavefront sensor with a wide dynamic range can be realized.

1 開口マスク、2 レンズレットアレイ、3 CCD、3a 仮想枠、4 部分光波、5 レンズレット、6 集光スポット、7 画像、8 集光点パターン、9 検出領域、10h,10v インデックス、20 配列、21 しきい値、30x X座標の最小値、30y Y座標の最小値、31x X座標の最大値、31y Y座標の最大値、32 検出領域、50 二次元座標群、51a,51b 二次元座標、52 部分領域、53,54 近似曲線、100,100a 演算装置、101 二次元座標群抽出手段、102 座標軸配列生成手段、103 差分値演算手段、104 配列数検出手段、105 対応付け手段、106 領域外対応付け手段。   1 aperture mask, 2 lenslet array, 3 CCD, 3a virtual frame, 4 partial light wave, 5 lenslet, 6 focused spot, 7 image, 8 focused spot pattern, 9 detection area, 10h, 10v index, 20 array, 21 threshold value, minimum value of 30x X coordinate, minimum value of 30y Y coordinate, maximum value of 31x X coordinate, maximum value of 31y Y coordinate, 32 detection area, 50 two-dimensional coordinate group, 51a, 51b two-dimensional coordinate, 52 partial area, 53, 54 approximation curve, 100, 100a arithmetic unit, 101 two-dimensional coordinate group extraction means, 102 coordinate axis array generation means, 103 difference value calculation means, 104 array number detection means, 105 association means, 106 out of area Association means.

Claims (3)

入射した光波の波面形状に応じた多数の集光点パターンを生成するレンズレットアレイと、当該レンズレットアレイが結像する多数の集光点パターンを撮像して画像信号に変換する二次元検出器と、当該二次元検出器の画像信号から光波の波面形状あるいは波面形状に対応する特徴量を演算出力する演算装置を備えた波面センサであって、
前記演算装置は、
画像上に定義した二軸の直交座標系において、個々の集光点の二次元座標群を演算する二次元座標群抽出手段と、
前記直交座標系の第一軸および第二軸における前記二次元座標群の座標値を抽出してその大小関係についてソートし、座標値配列を生成する座標軸配列生成手段と、
前記座標軸配列生成手段による座標値配列について、連続する二要素の差を演算する差分値演算手段と、
前記差分値演算手段による連続する二要素の差に対し、しきい値を超える要素の総数を検出する配列数検出手段と、
前記二次元座標群抽出手段で抽出された二次元座標群と、前記配列数検出手段で検出された第一軸および第二軸の配列数に基づき、前記二次元座標群と個々のレンズレットとの対応関係を決定する対応付け手段とを備えた波面センサ。
A lenslet array that generates a large number of condensing point patterns according to the wavefront shape of the incident light wave, and a two-dimensional detector that images a large number of condensing point patterns formed by the lenslet array and converts them into image signals And a wavefront sensor provided with an arithmetic device that calculates and outputs a feature quantity corresponding to the wavefront shape or wavefront shape of the light wave from the image signal of the two-dimensional detector,
The arithmetic unit is:
In a two-axis orthogonal coordinate system defined on the image, a two-dimensional coordinate group extraction means for calculating a two-dimensional coordinate group of each focal point;
A coordinate axis array generating means for extracting the coordinate values of the two-dimensional coordinate group in the first axis and the second axis of the orthogonal coordinate system and sorting the magnitude values, and generating a coordinate value array;
For the coordinate value array by the coordinate axis array generation means, difference value calculation means for calculating the difference between two consecutive elements;
With respect to the difference between two consecutive elements by the difference value calculation means, the array number detection means for detecting the total number of elements exceeding the threshold value;
Based on the two-dimensional coordinate group extracted by the two-dimensional coordinate group extraction means and the number of arrangements of the first axis and the second axis detected by the arrangement number detection means, the two-dimensional coordinate group and individual lenslets, A wavefront sensor provided with an association means for determining the correspondence relationship between
しきい値は、座標値配列における連続する二要素の差の統計量に基づいて決定されることを特徴とする請求項1記載の波面センサ。   The wavefront sensor according to claim 1, wherein the threshold value is determined based on a statistic of a difference between two consecutive elements in the coordinate value array. 画像の一部分に関心領域を設け、二次元座標群抽出手段、座標軸配列生成手段、差分値演算手段、配列数検出手段および対応付け手段は、前記関心領域に対して処理を行うと共に、
前記対応付け手段の処理結果に基づいて、前記関心領域外に属する二次元座標群に対して個々のレンズレットとの対応付けを行う領域外対応付け手段を備えたことを特徴とする請求項1または請求項2記載の波面センサ。
A region of interest is provided in a part of the image, and a two-dimensional coordinate group extraction unit, a coordinate axis array generation unit, a difference value calculation unit, an array number detection unit, and an association unit perform processing on the region of interest,
2. An out-of-region association unit that associates a two-dimensional coordinate group belonging to the outside of the region of interest with each lenslet based on a processing result of the association unit. Alternatively, the wavefront sensor according to claim 2.
JP2009112737A 2009-05-07 2009-05-07 Wavefront sensor Active JP5289173B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009112737A JP5289173B2 (en) 2009-05-07 2009-05-07 Wavefront sensor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009112737A JP5289173B2 (en) 2009-05-07 2009-05-07 Wavefront sensor

Publications (2)

Publication Number Publication Date
JP2010261810A true JP2010261810A (en) 2010-11-18
JP5289173B2 JP5289173B2 (en) 2013-09-11

Family

ID=43360007

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009112737A Active JP5289173B2 (en) 2009-05-07 2009-05-07 Wavefront sensor

Country Status (1)

Country Link
JP (1) JP5289173B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014196450A1 (en) * 2013-06-06 2014-12-11 浜松ホトニクス株式会社 Correspondence relation specifying method for adaptive optics system, wavefront distortion compensation method, adaptive optics system, and storage medium storing program for adaptive optics system
WO2014196449A1 (en) * 2013-06-06 2014-12-11 浜松ホトニクス株式会社 Correspondence relation specifying method for adaptive optics system, adaptive optics system, and storage medium storing program for adaptive optics system
WO2014196448A1 (en) * 2013-06-06 2014-12-11 浜松ホトニクス株式会社 Adjustment method for adaptive optics system, adaptive optics system, and storage medium storing program for adaptive optics system
JP2019100724A (en) * 2017-11-28 2019-06-24 キヤノン株式会社 Measurement method, adjustment method, optical element manufacturing method, program, and measuring device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0518719A (en) * 1991-07-11 1993-01-26 Mitsubishi Electric Corp Apparatus for measuring shape of mirror finished surface
JP2000283853A (en) * 1999-03-31 2000-10-13 Mitsubishi Electric Corp Wavefront sensor
JP2005509469A (en) * 2001-11-13 2005-04-14 アルコン,インコーポレイティド Range expansion system, spatial filter and related method for high quality Hartman-Shack images
JP2007260336A (en) * 2006-03-30 2007-10-11 Topcon Corp Ocular optical characteristic measuring apparatus

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0518719A (en) * 1991-07-11 1993-01-26 Mitsubishi Electric Corp Apparatus for measuring shape of mirror finished surface
JP2000283853A (en) * 1999-03-31 2000-10-13 Mitsubishi Electric Corp Wavefront sensor
JP2005509469A (en) * 2001-11-13 2005-04-14 アルコン,インコーポレイティド Range expansion system, spatial filter and related method for high quality Hartman-Shack images
JP2007260336A (en) * 2006-03-30 2007-10-11 Topcon Corp Ocular optical characteristic measuring apparatus

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014196450A1 (en) * 2013-06-06 2014-12-11 浜松ホトニクス株式会社 Correspondence relation specifying method for adaptive optics system, wavefront distortion compensation method, adaptive optics system, and storage medium storing program for adaptive optics system
WO2014196449A1 (en) * 2013-06-06 2014-12-11 浜松ホトニクス株式会社 Correspondence relation specifying method for adaptive optics system, adaptive optics system, and storage medium storing program for adaptive optics system
WO2014196448A1 (en) * 2013-06-06 2014-12-11 浜松ホトニクス株式会社 Adjustment method for adaptive optics system, adaptive optics system, and storage medium storing program for adaptive optics system
JP2014236795A (en) * 2013-06-06 2014-12-18 浜松ホトニクス株式会社 Method for specifying correspondence relationship of compensating optical system, compensating optical system and program for compensating optical system
US9519141B2 (en) 2013-06-06 2016-12-13 Hamamatsu Photonics K.K. Correspondence relation specifying method for adaptive optics system, adaptive optics system, and storage medium storing program for adaptive optics system
JPWO2014196448A1 (en) * 2013-06-06 2017-02-23 浜松ホトニクス株式会社 ADJUSTING OPTICAL SYSTEM ADJUSTING METHOD, COMPENSATING OPTICAL SYSTEM, AND RECORDING MEDIUM FOR STORING PROGRAM FOR COMPENSATING OPTICAL SYSTEM
JPWO2014196450A1 (en) * 2013-06-06 2017-02-23 浜松ホトニクス株式会社 Corresponding relationship identification method for adaptive optics system, wavefront distortion compensation method, adaptive optics system, and recording medium for storing adaptive optics system program
US9594245B2 (en) 2013-06-06 2017-03-14 Hamamatsu Photonics K.K. Adjustment method for adaptive optics system, adaptive optics system, and storage medium storing program for adaptive optics system
US9927608B2 (en) 2013-06-06 2018-03-27 Hamamatsu Photonics K.K. Correspondence relation specifying method for adaptive optics system, wavefront distortion compensation method, adaptive optics system, and storage medium storing program for adaptive optics system
JP2019100724A (en) * 2017-11-28 2019-06-24 キヤノン株式会社 Measurement method, adjustment method, optical element manufacturing method, program, and measuring device

Also Published As

Publication number Publication date
JP5289173B2 (en) 2013-09-11

Similar Documents

Publication Publication Date Title
JP6643122B2 (en) Range image apparatus, imaging apparatus, and range image correction method
JP5899041B2 (en) Method for determining an image reconstructed using a particle optical device
JP5289173B2 (en) Wavefront sensor
JP6115214B2 (en) Pattern processing apparatus, pattern processing method, and pattern processing program
JP2012191607A (en) Image processing system, image processing method and program
JP2009288042A (en) Distance measuring device
JP2011229080A (en) Image matching point detection device, image matching point detection method, and recording medium
US20180322329A1 (en) Image processing device, imaging device, microscope device, image processing method, and image processing program
CN110634137A (en) Bridge deformation monitoring method, device and equipment based on visual perception
JP2004317245A (en) Distance detection device, distance detection method and distance detection program
JP5493900B2 (en) Imaging device
CN110108230B (en) Binary grating projection defocus degree evaluation method based on image difference and LM iteration
JP2012147281A (en) Image processing apparatus
JP2008298589A (en) Device and method for detecting positions
CN117555123A (en) Automatic focusing method and device for electron microscope
JP5224976B2 (en) Image correction apparatus, image correction method, program, and recording medium
US20150077583A1 (en) Systems and methods for digital correction of aberrations produced by tilted plane-parallel plates or optical wedges
WO2016104342A1 (en) Exposure condition evaluation device
JP2015088029A (en) Radial distortion correction device, road environment recognition device, radial distortion correction method, and program
JP6362070B2 (en) Image processing apparatus, imaging apparatus, image processing method, program, and storage medium
JP2011053378A5 (en)
CN111866354A (en) Image processing device and method based on optics and electronic equipment
JP6334243B2 (en) Charged particle beam equipment
JP6639155B2 (en) Image processing apparatus and image processing method
JP6882097B2 (en) How to verify operating parameters of scanning electron microscope

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130423

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130507

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130604

R150 Certificate of patent or registration of utility model

Ref document number: 5289173

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250