JP2023090248A - Phase image generation device, phase image generation method, and defocus distance determination method - Google Patents

Phase image generation device, phase image generation method, and defocus distance determination method Download PDF

Info

Publication number
JP2023090248A
JP2023090248A JP2021205122A JP2021205122A JP2023090248A JP 2023090248 A JP2023090248 A JP 2023090248A JP 2021205122 A JP2021205122 A JP 2021205122A JP 2021205122 A JP2021205122 A JP 2021205122A JP 2023090248 A JP2023090248 A JP 2023090248A
Authority
JP
Japan
Prior art keywords
phase
defocus distance
size
distribution
calculated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021205122A
Other languages
Japanese (ja)
Inventor
葵 大西
Aoi Onishi
佳祐 加藤
Keisuke Kato
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Screen Holdings Co Ltd
Original Assignee
Screen Holdings Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Screen Holdings Co Ltd filed Critical Screen Holdings Co Ltd
Priority to JP2021205122A priority Critical patent/JP2023090248A/en
Publication of JP2023090248A publication Critical patent/JP2023090248A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of Optical Distance (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Microscoopes, Condenser (AREA)

Abstract

To provide a technique capable of generating a phase image by a defocus distance corresponding to a size of an object.SOLUTION: A phase image generation device 1 comprises an illumination section 3, an imaging optical system 4, a detector 5, an acquisition section 9, and a control section 7. The illumination section 3 irradiates an object 8 with illumination light. The imaging optical system 4 includes an objective lens 41 opposed to the object 8. The detector 5 detects light incident from the object 8 through the imaging optical system 4. The acquisition section 9 acquires a size parameter for a size of the object 8. The control section 7 detects the light from the object 8 in at least two positions apart from each other in an optical axis direction by a defocus distance determined on the basis of the size parameter using the detector 5 and generates a phase image for the object 8 by a solution method of an intensity transport equation using the defocus distance and intensity distribution of the light detected by the detector.SELECTED DRAWING: Figure 3

Description

本開示は、位相画像生成装置、位相画像生成方法およびデフォーカス距離決定方法に関する。 The present disclosure relates to a phase image generation device, a phase image generation method, and a defocus distance determination method.

透明な対象物を観察することは困難である。なぜなら、対象物を透過する光の強度分布の均一性は高く、その差異を視認しにくいからである。一方、光が対象物を透過すると、その位相分布は対象物の屈折率および厚みに応じて変化するので、対象物からの光の位相分布は対象物の形状を反映する。そこで、位相分布で対象物を観察する手法が、従来から提案されている。 Observing transparent objects is difficult. This is because the uniformity of the intensity distribution of the light that passes through the object is high, and it is difficult to visually recognize the difference. On the other hand, when light passes through an object, its phase distribution changes according to the refractive index and thickness of the object, so the phase distribution of light from the object reflects the shape of the object. Therefore, a method of observing an object by phase distribution has been conventionally proposed.

位相分布を得る具体的な手法としては、強度輸送方程式を利用して光の位相分布を算出する手法が提案されている(例えば特許文献1および非特許文献1)。これらの文献では、対象物に照明光を照射し、対物レンズを通じてカメラで対象物を撮像する。そして、対象物の観察面を示す撮像画像と、観察面から光軸上にずれた複数の位置ずれ面を示す複数の撮像画像とを取得し、これらの撮像画像を用いた強度輸送方程式の解法により、観察面における位相画像を生成している。 As a specific method of obtaining the phase distribution, a method of calculating the phase distribution of light using an intensity transport equation has been proposed (for example, Patent Document 1 and Non-Patent Document 1). In these documents, an object is irradiated with illumination light, and an image of the object is captured by a camera through an objective lens. Then, a captured image showing the observation plane of the object and a plurality of captured images showing a plurality of displaced planes shifted from the observation plane on the optical axis are obtained, and a method of solving the intensity transport equation using these captured images. generates a phase image on the viewing plane.

特開2021-39119号公報Japanese Patent Application Laid-Open No. 2021-39119

白井智宏,“強度分布に隠された位相情報”,光学,2009年,第38巻,p.496-502Tomohiro Shirai, "Phase Information Hidden in Intensity Distribution", Optics, Vol.38, pp.496-502, 2009

特許文献1では、観察面と位置ずれ面との間隔(以下、デフォーカス距離と呼ぶ)を、照明光の波長、対物レンズと対象物との間の屈折率および対物レンズの開口数に基づいて設定している。 In Patent Document 1, the distance between the observation surface and the displacement surface (hereinafter referred to as the defocus distance) is determined based on the wavelength of the illumination light, the refractive index between the objective lens and the object, and the numerical aperture of the objective lens. have set.

しかしながら、特許文献1の技術では、サイズの異なる対象物を観察するに際して、デフォーカス距離は変わらない。このため、対象物のサイズによっては、デフォーカス距離が適切な範囲から外れる場合がある。この場合、位相画像の精度が低下するという問題があった。 However, with the technique of Patent Document 1, the defocus distance does not change when observing objects of different sizes. Therefore, depending on the size of the object, the defocus distance may deviate from the appropriate range. In this case, there is a problem that the accuracy of the phase image is lowered.

そこで、本開示は、対象物のサイズに応じたデフォーカス距離で位相画像を生成できる技術を提供することを目的とする。 Therefore, an object of the present disclosure is to provide a technique capable of generating a phase image with a defocus distance according to the size of the target object.

第1の態様は、強度輸送方程式を用いて位相画像を生成する位相画像生成装置であって、対象物に照明光を照射する照明部と、前記対象物に対向する対物レンズを含む結像光学系と、前記対象物から前記結像光学系を通じて入射された光を検出する検出器と、前記対象物のサイズについてのサイズパラメータを取得する取得部と、前記サイズパラメータに基づいて決定されたデフォーカス距離だけ光軸方向において互いに離れた少なくとも2つの位置における前記対象物からの光を、前記検出器を用いて検出し、前記デフォーカス距離と、前記検出器によって検出された光の強度分布とを用いた強度輸送方程式の解法により、前記対象物についての位相画像を生成する制御部とを備える。 A first aspect is a phase image generating device that generates a phase image using an intensity transport equation, and includes an illumination unit that irradiates an object with illumination light, and an imaging optical system that includes an objective lens that faces the object. a detector that detects light incident from the object through the imaging optical system; an acquisition unit that acquires a size parameter about the size of the object; and a value determined based on the size parameter. Light from the object at at least two positions separated from each other in the optical axis direction by a focus distance is detected using the detector, and the defocus distance and the intensity distribution of the light detected by the detector are detected. a controller for generating a phase image of the object by solving an intensity transport equation using .

第2の態様は、第1の態様にかかる位相画像生成装置であって、前記取得部は、前記サイズパラメータとして、第1サイズを示す第1サイズパラメータと、前記第1サイズよりも大きい第2サイズを示す第2サイズパラメータを取得し、前記制御部は、前記第1サイズパラメータに基づいて前記デフォーカス距離の推奨範囲の上限値を決定し、前記第2サイズパラメータに基づいて前記デフォーカス距離の前記推奨範囲の下限値を決定し、前記デフォーカス距離を前記推奨範囲内の値に決定する。 A second aspect is the phase image generating device according to the first aspect, wherein the acquisition unit includes, as the size parameters, a first size parameter indicating a first size and a second size larger than the first size. A second size parameter indicating a size is obtained, the control unit determines an upper limit value of a recommended range of the defocus distance based on the first size parameter, and determines the defocus distance based on the second size parameter. is determined, and the defocus distance is set to a value within the recommended range.

第3の態様は、第2の態様にかかる位相画像生成装置であって、前記制御部は、前記位相画像の生成に用いられる前記デフォーカス距離を、前記下限値と前記上限値との和の半値に決定する。 A third aspect is the phase image generating device according to the second aspect, wherein the control unit sets the defocus distance used for generating the phase image to the sum of the lower limit value and the upper limit value. Decide on half value.

第4の態様は、第2または第3の態様にかかる位相画像生成装置であって、前記サイズおよび前記デフォーカス距離についての対応関係情報を記憶する記憶部をさらに備え、前記制御部は、前記第1サイズパラメータと前記対応関係情報に基づいて前記上限値を決定し、前記第2サイズパラメータと前記対応関係情報に基づいて前記下限値を決定する。 A fourth aspect is the phase image generating device according to the second or third aspect, further comprising a storage unit that stores correspondence information about the size and the defocus distance, wherein the control unit includes the The upper limit is determined based on the first size parameter and the correspondence information, and the lower limit is determined based on the second size parameter and the correspondence information.

第5の態様は、第4の態様にかかる位相画像生成装置であって、前記対応関係情報は、前記第1サイズおよび前記第2サイズを含む複数のサイズの各々についての、前記デフォーカス距離と、前記位相画像の算出精度を示す指標との対応関係を含む。 A fifth aspect is the phase image generating device according to the fourth aspect, wherein the correspondence information includes the defocus distance and , and an index indicating the calculation accuracy of the phase image.

第6の態様は、第5の態様にかかる位相画像生成装置であって、前記算出精度の指標は、シミュレーションによって算出された仮想計測面における算出位相分布の最大位相の情報を含み、前記シミュレーションにおいて、前記仮想計測面におけるモデル位相分布を設定し、前記仮想計測面から前記光軸方向にずれた仮想位置ずれ面における算出強度分布を前記モデル位相分布に基づいて算出し、前記デフォーカス距離および前記算出強度分布を用いた強度輸送方程式の解法により前記算出位相分布を算出する。 A sixth aspect is the phase image generating device according to the fifth aspect, wherein the index of calculation accuracy includes information on the maximum phase of the calculated phase distribution on the virtual measurement plane calculated by simulation, and in the simulation setting a model phase distribution on the virtual measurement plane; calculating a calculated intensity distribution on a virtual misalignment plane shifted in the optical axis direction from the virtual measurement plane based on the model phase distribution; The calculated phase distribution is calculated by solving the intensity transport equation using the calculated intensity distribution.

第7の態様は、第2または第3の態様にかかる位相画像生成装置であって、前記制御部は、前記第1サイズパラメータに対応した仮想計測面におけるモデル位相分布である第1モデル位相分布、および、前記第2サイズパラメータに対応した前記モデル位相分布である第2モデル位相分布を設定する第1工程と、前記デフォーカス距離の候補値だけ前記仮想計測面から前記光軸方向にずれた仮想位置ずれ面における第1算出強度分布を前記第1モデル位相分布に基づいて算出し、前記仮想位置ずれ面における第2算出強度分布を前記第2モデル位相分布に基づいて算出する第2工程と、前記デフォーカス距離および前記第1算出強度分布を用いた強度輸送方程式を解くことにより、前記仮想計測面における第1算出位相分布を算出し、前記デフォーカス距離および前記第2算出強度分布を用いた強度輸送方程式を解くことにより、前記仮想計測面における第2算出位相分布を算出する第3工程と、前記候補値を変更しながら前記第2工程および前記第3工程を繰り返し行って前記候補値ごとの前記第1算出位相分布および前記第2算出位相分布を求める第4工程と、前記候補値ごとの前記第1算出位相分布に基づいて前記推奨範囲の下限値を決定し、前記候補値ごとの前記第2算出位相分布に基づいて前記推奨範囲の上限値を決定する第5工程とを実行する。 A seventh aspect is the phase image generating device according to the second or third aspect, wherein the control unit includes a first model phase distribution which is a model phase distribution on a virtual measurement plane corresponding to the first size parameter and a first step of setting a second model phase distribution that is the model phase distribution corresponding to the second size parameter; a second step of calculating a first calculated intensity distribution on the virtual misalignment plane based on the first model phase distribution, and calculating a second calculated intensity distribution on the virtual misalignment plane based on the second model phase distribution; , calculating a first calculated phase distribution in the virtual measurement plane by solving an intensity transport equation using the defocus distance and the first calculated intensity distribution, and using the defocus distance and the second calculated intensity distribution; A third step of calculating a second calculated phase distribution on the virtual measurement plane by solving the intensity transport equation, and repeating the second step and the third step while changing the candidate value to obtain the candidate value A fourth step of obtaining the first calculated phase distribution and the second calculated phase distribution for each, and determining the lower limit value of the recommended range based on the first calculated phase distribution for each candidate value, and determining the lower limit value of the recommended range for each candidate value and a fifth step of determining an upper limit value of the recommended range based on the second calculated phase distribution of.

第8の態様は、第6または第7の態様にかかる位相画像生成装置であって、前記モデル位相分布は、正弦波形状を有する。 An eighth aspect is the phase image generating device according to the sixth or seventh aspect, wherein the model phase distribution has a sinusoidal shape.

第9の態様は、第1から第8のいずれか一つの態様にかかる位相画像生成装置であって、前記取得部は、前記検出器によって検出された前記強度分布に基づいて、前記対象物のサイズを取得する。 A ninth aspect is the phase image generation device according to any one of the first to eighth aspects, wherein the acquisition unit detects the intensity distribution of the object based on the intensity distribution detected by the detector. get the size.

第10の態様は、強度輸送方程式を用いて位相画像を生成する位相画像生成方法であって、対象物のサイズについてのサイズパラメータに基づいてデフォーカス距離を決定する工程と、前記対象物に照明光を照射し、前記対象物に対向する対物レンズを含む結像光学系を通じて入射された光を検出する検出器を用いて、光軸方向において前記デフォーカス距離で互いに離れた少なくとも2つの位置における前記対象物からの光を、前記検出器を用いて検出し、前記デフォーカス距離と、前記検出器によって検出された光の強度分布とを用いた強度輸送方程式の解法により、前記対象物についての位相画像を生成する工程とを備える。 A tenth aspect is a phase image generation method for generating a phase image using an intensity transport equation, comprising the steps of determining a defocus distance based on a size parameter for the size of an object; At least two positions separated from each other by the defocus distance in the optical axis direction using a detector that irradiates light and detects the light that is incident through an imaging optical system that includes an objective lens facing the object. Light from the object is detected using the detector, and by solving an intensity transport equation using the defocus distance and the intensity distribution of light detected by the detector, and generating a phase image.

第11の態様は、位相画像を生成するための強度輸送方程式の解法に用いられるデフォーカス距離の決定方法であって、対象物のサイズに基づいて仮想計測面におけるモデル位相分布を設定する工程と、前記デフォーカス距離の候補値を変更しながら、前記仮想計測面から光軸方向にずれた仮想位置ずれ面における算出強度分布を、前記モデル位相分布に基づいて算出し、前記算出強度分布を用いた強度輸送方程式の解法により、前記仮想計測面における算出位相分布を求める工程と、前記算出位相分布に基づいて、前記位相画像を生成するための前記強度輸送方程式の解法に用いられる前記デフォーカス距離を決定する工程とを備える。 An eleventh aspect is a method for determining a defocus distance used in solving an intensity transport equation for generating a phase image, comprising the steps of setting a model phase distribution in a virtual measurement plane based on the size of the object. calculating a calculated intensity distribution on a virtual misalignment plane shifted in the optical axis direction from the virtual measurement plane while changing the defocus distance candidate value based on the model phase distribution, and using the calculated intensity distribution; obtaining a calculated phase distribution on the virtual measurement plane by solving the intensity transport equation; and the defocus distance used for solving the intensity transport equation for generating the phase image based on the calculated phase distribution. and determining.

第1および第10の態様によれば、対象物のサイズに応じたデフォーカス距離で位相画像を生成できる。 According to the first and tenth aspects, a phase image can be generated with a defocus distance according to the size of the object.

第2の態様によれば、第1サイズ以上かつ第2サイズ以下のサイズを有する対象物についての位相画像を高い精度で生成することができる。 According to the second aspect, it is possible to generate a phase image of an object having a size equal to or larger than the first size and equal to or smaller than the second size with high accuracy.

第3の態様によれば、より確実に高い精度で位相分布を算出できる。 According to the third aspect, the phase distribution can be calculated more reliably and with high accuracy.

第4の態様によれば、簡易な処理でデフォーカス距離の推奨範囲を決定することができる。よって、制御部の負荷を軽減することができる。 According to the fourth aspect, it is possible to determine the recommended range of the defocus distance with simple processing. Therefore, the load on the controller can be reduced.

第5の態様によれば、必要な算出精度が変化しても、これに応じて適切なデフォーカス距離を決定することができる。 According to the fifth aspect, even if the required calculation accuracy changes, it is possible to determine an appropriate defocus distance accordingly.

第6の態様によれば、シミュレーションで算出精度の指標を求めるので、対応関係情報を容易に生成できる。 According to the sixth aspect, since the index of calculation accuracy is obtained by simulation, correspondence information can be easily generated.

第7の態様によれば、事前に対応関係情報を作成する必要がない。 According to the seventh aspect, there is no need to create correspondence information in advance.

第8の態様によれば、簡易な計算手法で算出位相分布を算出できる。 According to the eighth aspect, the calculated phase distribution can be calculated with a simple calculation method.

第11の態様によれば、適切なデフォーカス距離の設定に資する。 According to the eleventh aspect, it helps to set an appropriate defocus distance.

対象物の一例を概略的に示す図である。It is a figure which shows an example of a target object roughly. 計測面および位置ずれ面の一例を模式的に示す図である。FIG. 4 is a diagram schematically showing an example of a measurement plane and a displacement plane; 位相画像生成装置の構成の一例を概略的に示す図である。It is a figure which shows roughly an example of a structure of a phase image generation apparatus. 制御部のハードウェア構成の一例を概略的に示すブロック図である。It is a block diagram which shows roughly an example of the hardware constitutions of a control part. シミュレーションの流れの一例を示すフローチャートである。4 is a flowchart showing an example of the flow of simulation; モデル位相分布の一例を示す図である。It is a figure which shows an example of model phase distribution. モデル位相分布の一例を示す図である。It is a figure which shows an example of model phase distribution. デフォーカス距離と算出精度の指標との対応関係の一例を示すグラフである。7 is a graph showing an example of a correspondence relationship between a defocus distance and an index of calculation accuracy; デフォーカス距離と算出精度の指標との対応関係の一例を示すグラフである。7 is a graph showing an example of a correspondence relationship between a defocus distance and an index of calculation accuracy; デフォーカス距離を決定する構成の第1実施例を概略的に示す機能ブロック図である。1 is a functional block diagram schematically showing a first example of a configuration for determining a defocus distance; FIG. 位相画像生成装置の動作の一例を示すフローチャートである。It is a flowchart which shows an example of operation|movement of a phase image generation apparatus. デフォーカス距離を決定する構成の第2実施例を概略的に示す機能ブロック図である。FIG. 7 is a functional block diagram schematically showing a second example of a configuration for determining a defocus distance; デフォーカス距離決定部の動作の一例を示すフローチャートである。5 is a flow chart showing an example of the operation of a defocus distance determination unit; デフォーカス距離を決定する構成の第3実施例を概略的に示す機能ブロック図である。FIG. 11 is a functional block diagram schematically showing a third embodiment of a configuration for determining a defocus distance; 取得部の構成の一例を概略的に示す図である。4 is a diagram schematically showing an example of the configuration of an acquisition unit; FIG.

以下、添付の図面を参照しながら、実施の形態について説明する。なお、この実施の形態に記載されている構成要素はあくまでも例示であり、本開示の範囲をそれらのみに限定する趣旨のものではない。図面においては、理解容易のため、必要に応じて各部の寸法または数が誇張または簡略化して図示されている場合がある。 Embodiments will be described below with reference to the accompanying drawings. Note that the components described in this embodiment are merely examples, and the scope of the present disclosure is not intended to be limited to them. In the drawings, for ease of understanding, the dimensions or number of each part may be exaggerated or simplified as necessary.

相対的または絶対的な位置関係を示す表現(例えば「一方向に」「一方向に沿って」「平行」「直交」「中心」「同心」「同軸」など)が用いられる場合、該表現は、特に断らない限り、その位置関係を厳密に表すのみならず、公差もしくは同程度の機能が得られる範囲で相対的に角度または距離に関して変位された状態も表すものとする。等しい状態であることを示す表現(例えば「同一」「等しい」「均質」など)が用いられる場合、該表現は、特に断らない限り、定量的に厳密に等しい状態を表すのみならず、公差もしくは同程度の機能が得られる差が存在する状態も表すものとする。形状を示す表現(例えば、「四角形状」または「円筒形状」など)が用いられる場合、該表現は、特に断らない限り、幾何学的に厳密にその形状を表すのみならず、同程度の効果が得られる範囲で、例えば凹凸または面取りなどを有する形状も表すものとする。一の構成要素を「備える」「具える」「具備する」「含む」または「有する」という表現が用いられる場合、該表現は、他の構成要素の存在を除外する排他的表現ではない。「A,BおよびCの少なくともいずれか一つ」という表現が用いられる場合、該表現は、Aのみ、Bのみ、Cのみ、A,BおよびCのうち任意の2つ、ならびに、A,BおよびCの全てを含む。 When expressions indicating relative or absolute positional relationships are used (e.g., "in one direction", "along one direction", "parallel", "perpendicular", "centered", "concentric", "coaxial", etc.), the expressions are , unless otherwise specified, not only the positional relationship is strictly expressed, but also the relatively displaced state in terms of angle or distance within the range of tolerance or equivalent function. When expressions indicating equality (e.g., “same”, “equal”, “homogeneous”, etc.) are used, unless otherwise specified, the expressions not only express quantitatively strictly equality, but also tolerances or It shall also represent the situation where there is a difference in obtaining the same degree of function. When an expression indicating a shape (e.g., "square" or "cylindrical") is used, the expression is not only a geometrically exact representation of the shape, but also a similar effect, unless otherwise specified. In the range in which is obtained, for example, a shape having unevenness or chamfering is also represented. When the expression "comprising", "comprises", "comprises", "includes" or "has" is used, the expression is not an exclusive expression excluding the presence of other elements. When the expression "at least one of A, B and C" is used, the expression includes A only, B only, C only, any two of A, B and C, and A, B and all of C.

また図では、適宜にxyz直交座標系が示されている。以下では、z方向に沿う一方向を+z方向と呼び、その反対方向を-z方向と呼ぶ。x方向およびy方向も同様である。 Also, in the drawing, an xyz orthogonal coordinate system is shown as appropriate. Hereinafter, one direction along the z direction will be called the +z direction, and the opposite direction will be called the -z direction. The same is true for the x and y directions.

<位相画像の生成手法>
まず、強度輸送方程式を用いて位相画像を生成する手法の一例について説明する。図1は、観察対象である対象物8の一例を概略的に示す図である。対象物8は例えば透明であり、具体的な一例として、培養細胞などの細胞を含む。図1の例では、対象物8は、その中央部が-z方向に盛り上がった湾曲凸状形状を有している。
<Phase image generation method>
First, an example of a method of generating a phase image using an intensity transport equation will be described. FIG. 1 is a diagram schematically showing an example of an object 8 to be observed. The object 8 is transparent, for example, and contains cells such as cultured cells as a specific example. In the example of FIG. 1, the object 8 has a curved convex shape with its central portion raised in the -z direction.

図1に例示されるように、照明光L1は+z方向に沿って対象物8に入射する。図1の例では、対象物8に入射する前の照明光L1の波面はz軸に垂直となっている。つまり、対象物8よりも前のxy平面上の各位置における照明光L1の位相は互いに同一である。なお、図1では、照明光L1の波面が破線で示されている。またここでは、対象物8よりも前のxy平面上の各位置における照明光L1の強度(振幅)も互いに同一であるものとする。 As illustrated in FIG. 1, the illumination light L1 is incident on the object 8 along the +z direction. In the example of FIG. 1, the wavefront of the illumination light L1 before entering the object 8 is perpendicular to the z-axis. That is, the illumination light L1 has the same phase at each position on the xy plane in front of the object 8 . In addition, in FIG. 1, the wavefront of the illumination light L1 is indicated by a broken line. Also, here, the intensity (amplitude) of the illumination light L1 at each position on the xy plane in front of the object 8 is assumed to be the same.

対象物8が照明光L1に対して高い透過率を有していれば、図1に例示するように、照明光L1の振幅は対象物8の透過によっても変化しにくい。一方で、対象物8の屈折率分布は周囲の屈折率と相違するので、照明光L1の波面(位相)は対象物8の形状に応じて比較的大きく変化する。このように照明光L1の振幅の変化の割合が比較的に小さく、位相の変化の割合が比較的に大きい物体は、位相物体とも呼ばれる。 If the object 8 has a high transmittance with respect to the illumination light L1, the amplitude of the illumination light L1 is less likely to change due to the transmission of the object 8, as illustrated in FIG. On the other hand, since the refractive index distribution of the object 8 is different from the surrounding refractive index, the wavefront (phase) of the illumination light L1 changes relatively greatly according to the shape of the object 8 . Such an object in which the rate of change in the amplitude of the illumination light L1 is relatively small and the rate of change in phase is relatively large is also called a phase object.

以上のように、照明光L1の位相分布は対象物8の形状を反映するので、該位相分布を求めることができれば、該位相分布を示す位相画像から透明な対象物8を観察することができる。 As described above, since the phase distribution of the illumination light L1 reflects the shape of the object 8, if the phase distribution can be obtained, the transparent object 8 can be observed from the phase image showing the phase distribution. .

ここで、対象物8内の断面を含む計測面S0を導入する。計測面S0は、z軸(光軸)に垂直な仮想的な面であり、観察面である。計測面S0における照明光L1の位相分布φ(x,y)は以下の強度輸送方程式で表される。この強度輸送方程式はヘルムホルツ方程式を近軸近似することで導かれる。 Here, a measurement plane S0 including a cross section within the object 8 is introduced. The measurement plane S0 is a virtual plane perpendicular to the z-axis (optical axis) and an observation plane. The phase distribution φ z (x, y) of the illumination light L1 on the measurement plane S0 is represented by the following intensity transport equation. This intensity transport equation is derived by paraxial approximation of the Helmholtz equation.

Figure 2023090248000002
Figure 2023090248000002

ここで、λは照明光L1の波長を示し、∇は二次元の勾配演算子を示し、Iは計測面S0における照明光L1の強度を示す。ここでは、計測面S0上の各位置における照明光L1の強度は互いに同じあり、強度Iである。 Here, λ indicates the wavelength of the illumination light L1, ∇ indicates a two-dimensional gradient operator, and I0 indicates the intensity of the illumination light L1 on the measurement plane S0. Here, the intensity of the illumination light L1 at each position on the measurement surface S0 is the same as that of the intensity I0 .

式(1)における右辺は、照明光L1の伝搬方向(つまり+z方向)に対する強度分布I(x,y)の微分を含んでいる。この微分は、計測面S0からz方向にずれた複数の位置ずれ面S1における強度分布を用いて近似され得る。図2は、計測面S0および位置ずれ面S1の一例を模式的に示す図である。式(1)の右辺の微分は、例えば、以下の式で近似される。 The right side of Equation (1) includes the differential of the intensity distribution I z (x, y) with respect to the propagation direction (that is, +z direction) of the illumination light L1. This differentiation can be approximated using intensity distributions on a plurality of displaced planes S1 shifted in the z-direction from the measurement plane S0. FIG. 2 is a diagram schematically showing an example of the measurement plane S0 and the displacement plane S1. The differentiation on the right side of Equation (1) is approximated by, for example, the following equation.

Figure 2023090248000003
Figure 2023090248000003

ここで、Iz-Δz(x,y)は、計測面S0から距離(以下、デフォーカス距離と呼ぶ)Δzだけ-z方向にずれた位置ずれ面S11における照明光L1の強度分布を示し、Iz+Δz(x,y)は、計測面S0からデフォーカス距離Δzだけ+z方向にずれた位置ずれ面S12における照明光L1の強度分布を示している。なお、位置ずれ面S1はデフォーカス面とも呼ばれ得る。 Here, I z−Δz (x, y) denotes the intensity distribution of the illumination light L1 on the displacement plane S11 shifted in the −z direction by a distance (hereinafter referred to as defocus distance) Δz from the measurement plane S0, I z+Δz (x, y) represents the intensity distribution of the illumination light L1 on the displacement plane S12 shifted in the +z direction by the defocus distance Δz from the measurement plane S0. Note that the misalignment surface S1 can also be called a defocus surface.

微分の近似としては、必ずしも式(2)を採用する必要はない。例えば前進差分近似、後退差分近似および多項式近似などの公知の近似式を採用することができる。近似に必要な位置ずれ面S1の数も2つに限らず、近似式に応じた適切な数を採用するとよい。要するに、光軸方向において互いに離れた少なくとも2つの位置における光の強度分布に基づいて、微分を求めればよい。以下では、簡単のために式(2)を用いた態様について説明する。 As the approximation of differentiation, it is not always necessary to employ equation (2). For example, known approximation formulas such as forward difference approximation, backward difference approximation and polynomial approximation can be employed. The number of misaligned surfaces S1 required for approximation is not limited to two, and an appropriate number may be adopted according to the approximation formula. In short, differentiation should be obtained based on the intensity distribution of light at at least two positions separated from each other in the optical axis direction. In the following, for the sake of simplification, an embodiment using Equation (2) will be described.

フーリエ変換に基づく方法により、式(1)を変形すると、以下の式が導かれる。 Transforming equation (1) by a method based on Fourier transform leads to the following equation.

Figure 2023090248000004
Figure 2023090248000004

ここで、kは波数(2π/λ)を示し、FT[・・・]はフーリエ演算子を示し、IFT[・・・]は逆フーリエ演算子を示す。また、μおよびνはそれぞれx方向およびy方向に沿う空間周波数成分を示し、αは正則化パラメータを示す。正則化パラメータαは例えば予め設定される。 Here, k indicates a wavenumber (2π/λ), FT[...] indicates a Fourier operator, and IFT[...] indicates an inverse Fourier operator. Also, μ and ν denote spatial frequency components along the x and y directions, respectively, and α denotes a regularization parameter. The regularization parameter α is preset, for example.

式(2)および式(3)から理解できるように、強度分布I(x,y)(=I),Iz-Δz(x,y),Iz+Δz(x,y)を得ることができれば、計測面S0における位相分布φ(x,y)を求めることができる。言い換えれば、計測面S0における位相分布φ(x,y)を示す位相画像を生成することができる。 As can be seen from equations (2) and (3), obtaining the intensity distributions I z (x, y) (=I 0 ), I z -Δz (x, y), I z +Δz (x, y) can be obtained, the phase distribution φ z (x, y) on the measurement plane S0 can be obtained. In other words, a phase image showing the phase distribution φ z (x, y) on the measurement plane S0 can be generated.

<位相画像生成装置の全体構成>
次に、位相画像を生成する位相画像生成装置1の構成の一例を説明する。図3は、位相画像生成装置1の構成の一例を概略的に示す図である。位相画像生成装置1は、強度輸送方程式を用いて対象物8についての位相画像を生成する装置である。この位相画像生成装置1は定量位相顕微鏡とも呼ばれ得る。また、位相画像は定量位相画像とも呼ばれ得る。
<Overall Configuration of Phase Image Generating Device>
Next, an example of the configuration of the phase image generation device 1 that generates a phase image will be described. FIG. 3 is a diagram schematically showing an example of the configuration of the phase image generating device 1. As shown in FIG. The phase image generation device 1 is a device that generates a phase image of an object 8 using an intensity transport equation. This phase image generating device 1 can also be called a quantitative phase microscope. A phase image may also be referred to as a quantitative phase image.

図3の例では、位相画像生成装置1は保持部2と照明部3と結像光学系4と検出器5と制御部7とを含む。以下では、まず各構成の概要を説明し、その後、各構成の詳細の一例を説明する。 In the example of FIG. 3, the phase image generating device 1 includes a holding section 2, an illumination section 3, an imaging optical system 4, a detector 5 and a control section . Below, an outline of each configuration will be described first, and then an example of details of each configuration will be described.

保持部2は対象物8を保持する。対象物8が培養細胞などの細胞を含む場合には、対象物8は例えば持ち運び可能なプレート(例えばウェルプレート)上に滴下される。ユーザは該プレートを保持部2の上に載置する。保持部2は、例えば、照明光L1を透過する透明なステージであり、該プレートは該ステージの上に載置される。対象物8には、サイズの異なる複数の細胞が含まれていてもよい。 The holding part 2 holds the object 8 . If the object 8 contains cells such as cultured cells, the object 8 is dropped onto, for example, a portable plate (eg, well plate). The user places the plate on the holder 2 . The holding unit 2 is, for example, a transparent stage that transmits the illumination light L1, and the plate is placed on the stage. Object 8 may contain a plurality of cells of different sizes.

照明部3は対象物8に照明光L1を照射する。結像光学系4は、対象物8を検出器5の検出面に結像させる。検出器5は検出面に受光素子を有し、検出面に入射する光を検出する。検出器5は例えばカメラを含む。検出器5は、検出した光の強度分布(つまり撮像画像)を制御部7に出力する。 The illumination unit 3 irradiates the object 8 with illumination light L1. The imaging optical system 4 forms an image of the object 8 on the detection surface of the detector 5 . The detector 5 has a light receiving element on its detection surface and detects light incident on the detection surface. Detector 5 includes, for example, a camera. The detector 5 outputs the intensity distribution of the detected light (that is, the captured image) to the controller 7 .

検出器5は、計測面S0および位置ずれ面S1における強度分布I(x,y),Iz-Δz(x,y),Iz+Δz(x,y)を検出することができる。図3の例では、駆動部6が設けられている。駆動部6は保持部2をz方向に沿って移動させることで、計測面S0および位置ずれ面S1における像を順次に検出器5の検出面に形成させる。これにより、検出器5は強度分布I(x,y),Iz-Δz(x,y),Iz+Δz(x,y)を順次に検出することができる。制御部7は、検出器5から入力された強度分布I(x,y),Iz-Δz(x,y),Iz+Δz(x,y)に基づいて、式(2)および式(3)から、計測面S0における位相分布φ(x,y)を示す位相画像を生成する。 The detector 5 can detect intensity distributions I z (x, y), I z−Δz (x, y), and I z+Δz (x, y) on the measurement plane S0 and the displacement plane S1. In the example of FIG. 3, a driving section 6 is provided. The drive unit 6 moves the holding unit 2 along the z-direction to sequentially form images on the measurement surface S0 and the displacement surface S1 on the detection surface of the detector 5 . Thereby, the detector 5 can sequentially detect the intensity distributions I z (x, y), I z -Δz (x, y), and I z +Δz (x, y). Based on the intensity distributions I z (x, y), I z -Δz (x, y), and I z +Δz (x, y) input from the detector 5, the control unit 7 calculates equations (2) and ( From 3), a phase image representing the phase distribution φ z (x, y) on the measurement plane S0 is generated.

<照明部>
照明部3は照明光L1を対象物8に照射する。照明部3は、例えば、波面がその進行方向(z方向)に垂直な平面となる照明光L1を、対象物8に照射する。照明光L1は例えば可視光である。図3の例では、照明部3は光源31と照明光学系32とを含む。
<Lighting section>
The illumination unit 3 irradiates the object 8 with the illumination light L1. The illumination unit 3 irradiates the object 8 with illumination light L1 whose wavefront is a plane perpendicular to the traveling direction (z direction), for example. The illumination light L1 is, for example, visible light. In the example of FIG. 3 , the illumination section 3 includes a light source 31 and an illumination optical system 32 .

光源31は照明光を照明光学系32に出射する。光源31は特に限定されないものの、パルスレーザおよび連続発振レーザなどのコヒーレント光源を含む。光源31がコヒーレント光源である場合には、空間的にコヒーレントな照明光を出射する。 A light source 31 emits illumination light to an illumination optical system 32 . The light source 31 includes, but is not limited to, coherent light sources such as pulsed lasers and continuous wave lasers. When the light source 31 is a coherent light source, it emits spatially coherent illumination light.

照明光は照明光学系32を透過し、照明光L1として対象物8に伝搬する。照明光学系32は、例えば、照明光の波長帯域および波面の少なくともいずれか一方を光学的に調整する。図3の例では、照明光学系32はバンドパスフィルタ321とコレクタレンズ322と視野絞り323と開口絞り324とコンデンサレンズ325とを含む。光源31から出射された照明光は、コレクタレンズ322、視野絞り323、バンドパスフィルタ321、開口絞り324およびコンデンサレンズ325をこの順に通過した後、照明光L1として対象物8に照射される。 The illumination light passes through the illumination optical system 32 and propagates to the object 8 as illumination light L1. The illumination optical system 32, for example, optically adjusts at least one of the wavelength band and wavefront of the illumination light. In the example of FIG. 3, illumination optical system 32 includes bandpass filter 321 , collector lens 322 , field stop 323 , aperture stop 324 and condenser lens 325 . Illumination light emitted from the light source 31 passes through a collector lens 322, a field stop 323, a bandpass filter 321, an aperture stop 324 and a condenser lens 325 in this order, and then illuminates the object 8 as illumination light L1.

バンドパスフィルタ321は、所定の狭波長帯を通過帯域とするバンドパスフィルタである。バンドパスフィルタ321には、例えば、誘電体多層膜フィルタ、フィルタガラスおよび液晶チューナブルフィルタなどのフィルタが用いられる。なお、照明光の波長帯域が狭帯域である場合には、バンドパスフィルタ321は不要である。 The bandpass filter 321 is a bandpass filter having a pass band of a predetermined narrow wavelength band. A filter such as a dielectric multilayer filter, filter glass, or liquid crystal tunable filter is used for the band-pass filter 321, for example. Note that the bandpass filter 321 is unnecessary when the wavelength band of the illumination light is narrow.

コレクタレンズ322は、光源31から出射された照明光の向きを調整するレンズである。視野絞り323は、保持部2における照明領域を調節する。開口絞り324は、照明光学系32の開口数を調整する。コンデンサレンズ325は、波面が光軸に垂直となるように照明光を屈折させる。 The collector lens 322 is a lens that adjusts the direction of illumination light emitted from the light source 31 . A field stop 323 adjusts the illumination area on the holding part 2 . An aperture stop 324 adjusts the numerical aperture of the illumination optical system 32 . The condenser lens 325 refracts the illumination light so that the wavefront is perpendicular to the optical axis.

なお、対象物8に照射する照明光L1は必ずしも可視光に限らず、例えば、紫外線および赤外線などの不可視光であってもよい。また、照明光L1の波面は必ずしも光軸に垂直である必要はなく、波面の形状が既知であればよい。例えば、照明光L1の波面は球面であってもよい。 The illumination light L1 that irradiates the object 8 is not necessarily limited to visible light, and may be, for example, invisible light such as ultraviolet rays and infrared rays. Further, the wavefront of the illumination light L1 does not necessarily have to be perpendicular to the optical axis, and the shape of the wavefront may be known. For example, the wavefront of the illumination light L1 may be spherical.

<結像光学系>
結像光学系4は対象物8を検出器5の検出面に結像させる。結像光学系4は対象物8と検出器5との間に設けられる。図3の例では、結像光学系4は対物レンズ41と開口絞り42と結像レンズ43とを含んでいる。対物レンズ41は、観察対象の対象物8を拡大して像を映し出すためのレンズである。対物レンズ41は、その前側焦点が対象物8に位置するように、対象物8に対向して設けられる。開口絞り42は結像光学系4の開口数を調整する。結像レンズ43は検出器5の検出面に対象物8の像を結像させる。つまり、結像レンズ43は、その後側焦点が検出器5の検出面に位置するように設けられる。
<Imaging optical system>
An imaging optical system 4 images the object 8 onto the detection plane of the detector 5 . An imaging optical system 4 is provided between the object 8 and the detector 5 . In the example of FIG. 3, the imaging optical system 4 includes an objective lens 41, an aperture stop 42 and an imaging lens 43. FIG. The objective lens 41 is a lens for projecting an image by enlarging the object 8 to be observed. The objective lens 41 is provided facing the object 8 so that its front focal point is located on the object 8 . An aperture stop 42 adjusts the numerical aperture of the imaging optical system 4 . The imaging lens 43 forms an image of the object 8 on the detection surface of the detector 5 . That is, the imaging lens 43 is provided so that its rear focal point is positioned on the detection surface of the detector 5 .

対象物8を透過した光は、対物レンズ41、開口絞り42および結像レンズ43を通じて進み、検出器5の検出面に入射する。 Light transmitted through the object 8 travels through the objective lens 41 , the aperture stop 42 and the imaging lens 43 and enters the detection surface of the detector 5 .

<検出器>
検出器5は、結像光学系4を通じて入射された光を検出し、その検出結果を制御部7に出力する。検出器5は、例えば、CCD(Charge Coupled Device)イメージセンサおよびCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどのイメージセンサを含む、いわゆるカメラである。検出器5は、検出面に入射する光の二次元の強度分布を示す撮像画像を生成する。
<Detector>
The detector 5 detects light incident through the imaging optical system 4 and outputs the detection result to the controller 7 . The detector 5 is, for example, a so-called camera including an image sensor such as a CCD (Charge Coupled Device) image sensor and a CMOS (Complementary Metal Oxide Semiconductor) image sensor. The detector 5 generates a captured image showing a two-dimensional intensity distribution of light incident on the detection surface.

駆動部6は、例えば、保持部2および対物レンズ41の少なくともいずれか一つ(図3の例では、保持部2)をz方向(例えば対物レンズ41の光軸方向)に沿って移動させる。駆動部6は例えばボールねじ機構とモータとを含む。 The drive unit 6, for example, moves at least one of the holding unit 2 and the objective lens 41 (the holding unit 2 in the example of FIG. 3) along the z direction (for example, the optical axis direction of the objective lens 41). The drive unit 6 includes, for example, a ball screw mechanism and a motor.

駆動部6は保持部2を光軸方向に沿って移動させることにより、対物レンズ41の前側焦点を対象物8の計測面S0に位置させる。このとき、検出器5は、計測面S0における強度分布I(x,y)を検出することができる。また、駆動部6は保持部2を光軸方向に沿って移動させて、対物レンズ41の前側焦点を位置ずれ面S11に位置させる。このとき、検出器5は、位置ずれ面S11における強度分布Iz-Δz(x,y)を検出することができる。また、駆動部6は保持部2を光軸方向に沿って移動させて、対物レンズ41の前側焦点を位置ずれ面S12に位置させる。このとき、検出器5は、位置ずれ面S12における強度分布Iz+Δz(x,y)を検出することができる。検出器5は強度分布I(x,y),Iz-Δz(x,y),Iz+Δz(x,y)を制御部7に出力する。 The drive unit 6 positions the front focal point of the objective lens 41 on the measurement surface S0 of the object 8 by moving the holding unit 2 along the optical axis direction. At this time, the detector 5 can detect the intensity distribution I z (x, y) on the measurement plane S0. Further, the drive unit 6 moves the holding unit 2 along the optical axis direction to position the front focal point of the objective lens 41 on the displacement surface S11. At this time, the detector 5 can detect the intensity distribution I z-Δz (x, y) on the displacement surface S11. Further, the drive unit 6 moves the holding unit 2 along the optical axis direction to position the front focal point of the objective lens 41 on the displacement surface S12. At this time, the detector 5 can detect the intensity distribution I z+Δz (x, y) on the displacement surface S12. The detector 5 outputs intensity distributions I z (x, y), I z−Δz (x, y), and I z+Δz (x, y) to the controller 7 .

なお、計測面S0の像が検出器5の検出面に形成されている状態では、検出器5の検出面を計測面S0とみなすことができるので、駆動部6は検出器5をz方向(例えば結像レンズ43の光軸方向)に沿って移動させてもよい。これによっても、計測面S0および位置ずれ面S1の強度分布を得ることができる。 When the image of the measurement surface S0 is formed on the detection surface of the detector 5, the detection surface of the detector 5 can be regarded as the measurement surface S0. For example, it may be moved along the optical axis direction of the imaging lens 43 . This also makes it possible to obtain the intensity distributions of the measurement surface S0 and the displacement surface S1.

<制御部7>
制御部7は光源31、検出器5および駆動部6にそれぞれ制御信号を出力し、これらを制御することができる。
<Control unit 7>
The control unit 7 can output control signals to the light source 31, the detector 5 and the drive unit 6 to control them.

また、図3に例示するように、制御部7はデフォーカス距離決定部7aと位相分布算出部7bとを含む。デフォーカス距離決定部7aは後に詳述するように、対象物8のサイズに基づいてデフォーカス距離Δzを決定する。位相分布算出部7bは、デフォーカス距離決定部7aによって決定されたデフォーカス距離Δzと、検出器5によって検出された強度分布I(x,y),Iz-Δz(x,y),Iz+Δz(x,y)とに基づいて、式(2)および式(3)の強度輸送方程式を解くことにより、計測面S0における位相分布φ(x,y)を算出する。言い換えれば、制御部7は、位相分布φ(x,y)を示す位相画像を生成する。 Further, as illustrated in FIG. 3, the control section 7 includes a defocus distance determination section 7a and a phase distribution calculation section 7b. The defocus distance determination unit 7a determines the defocus distance Δz based on the size of the object 8, as will be described in detail later. The phase distribution calculator 7b calculates the defocus distance Δz determined by the defocus distance determiner 7a and the intensity distributions I z (x, y), I z−Δz (x, y), The phase distribution φ z (x, y) on the measurement plane S0 is calculated by solving the intensity transport equations (2) and (3) based on I z +Δz (x, y). In other words, the controller 7 generates a phase image showing the phase distribution φ z (x, y).

図4は、制御部7のハードウェア構成の一例を概略的に示すブロック図である。制御部7は電子回路であって、例えばデータ処理部701および記憶部702を有している。図4の具体例では、データ処理部701と記憶部702とはバス70を介して相互に接続されている。データ処理部701は例えばCPU(Central Processor Unit)などの演算処理装置であってもよい。記憶部702は非一時的な記憶部(例えばROM(Read Only Memory)またはハードディスク)703および一時的な記憶部(例えばRAM(Random Access Memory))704を有していてもよい。非一時的な記憶部703には、例えば制御部7が実行する処理を規定するプログラムが記憶されていてもよい。データ処理部701がこのプログラムを実行することにより、制御部7が、プログラムに規定された処理を実行することができる。もちろん、制御部7が実行する処理の一部または全部が専用の論理回路などのハードウェアによって実行されてもよい。 FIG. 4 is a block diagram schematically showing an example of the hardware configuration of the controller 7. As shown in FIG. The control unit 7 is an electronic circuit and has, for example, a data processing unit 701 and a storage unit 702 . In the specific example of FIG. 4, the data processing section 701 and the storage section 702 are interconnected via the bus 70 . The data processing unit 701 may be an arithmetic processing device such as a CPU (Central Processor Unit). The storage unit 702 may have a non-temporary storage unit (eg, ROM (Read Only Memory) or hard disk) 703 and a temporary storage unit (eg, RAM (Random Access Memory)) 704 . The non-temporary storage unit 703 may store, for example, a program that defines processing to be executed by the control unit 7 . By the data processing unit 701 executing this program, the control unit 7 can execute the processing specified in the program. Of course, part or all of the processing executed by the control unit 7 may be executed by hardware such as a dedicated logic circuit.

図3の例では、制御部7には表示部71が電気的に接続されている。表示部71は、液晶ディスプレイなどのディスプレイである。表示部71は制御部7から位相画像を受け取り、位相画像を表示する。ユーザは、表示部71によって表示された位相画像を視認することにより、対象物8を観察することができる。 In the example of FIG. 3 , a display section 71 is electrically connected to the control section 7 . The display unit 71 is a display such as a liquid crystal display. The display unit 71 receives the phase image from the control unit 7 and displays the phase image. The user can observe the object 8 by viewing the phase image displayed by the display unit 71 .

図3の例では、制御部7には入力部72が電気的に接続されている。入力部72は、ユーザによる入力を受け付ける装置であり、例えば、キーボード、マウス、タッチパネルおよびマイクの少なくともいずれか一つを含む。入力部72は対象物8のサイズについてのサイズパラメータの入力を受け付けてもよい。ユーザは対象物8のサイズについてのサイズパラメータを入力部72に入力し、入力部72はそのサイズパラメータを制御部7に出力する。制御部7のデフォーカス距離決定部7aは、後に詳述するように、このサイズパラメータに基づいてデフォーカス距離Δzを決定する。 In the example of FIG. 3, an input section 72 is electrically connected to the control section 7 . The input unit 72 is a device that receives user input, and includes at least one of a keyboard, mouse, touch panel, and microphone, for example. The input unit 72 may accept input of size parameters for the size of the object 8 . The user inputs a size parameter about the size of the object 8 to the input section 72 , and the input section 72 outputs the size parameter to the control section 7 . The defocus distance determination unit 7a of the control unit 7 determines the defocus distance Δz based on this size parameter, as will be detailed later.

<デフォーカス距離Δzと位相分布の算出精度>
対象物8のサイズに基づいたデフォーカス距離Δzの決定方法を説明するにあたって、まず、対象物8のサイズ、デフォーカス距離Δzと式(2)の近似精度との対応関係を説明する。本実施の形態では、該対応関係を後述のシミュレーションにより明らかにする。
<Calculation Accuracy of Defocus Distance Δz and Phase Distribution>
Before explaining the method of determining the defocus distance Δz based on the size of the object 8, first, the relationship between the size of the object 8, the defocus distance Δz, and the approximation accuracy of Equation (2) will be explained. In the present embodiment, the correspondence relationship will be clarified by a simulation which will be described later.

図5は、シミュレータが行うシミュレーションの流れの一例を示すフローチャートである。このシミュレータは制御部7によって実現されてもよく、他の演算回路によって実現されてもよい。 FIG. 5 is a flow chart showing an example of the flow of simulation performed by the simulator. This simulator may be implemented by the control unit 7 or may be implemented by another arithmetic circuit.

ここでは、対象物8をモデル化した仮想対象物を導入し、該仮想対象物を透過する光の仮想計測面における位相分布をモデル位相分布φmz(x,y)として設定する(ステップST1)。仮想計測面は、シミュレーションにおいて用いられる仮想的な観察面であり、z軸(光軸)に垂直な仮想的な面である。図6および図7は、モデル位相分布φmz(x,y)の一例を概略的に示す図である。図6(a)および図7(a)は、モデル位相分布φmz(x,y)の平面図を示し、図6(b)は、図6(a)のA-Aラインにおけるモデル位相分布φmz(x,y)を示し、図7(b)は、図7(a)のA-Aラインにおけるモデル位相分布φmz(x,y)を示す。A-Aラインは一周期に相当するラインである。なお、図6(b)では、後述の算出位相分布φcz(x,y)の例が破線で示されている。 Here, a virtual object that is a model of the object 8 is introduced, and the phase distribution on the virtual measurement plane of the light that passes through the virtual object is set as the model phase distribution φ mz (x, y) (step ST1). . The virtual measurement plane is a virtual observation plane used in the simulation, and is a virtual plane perpendicular to the z-axis (optical axis). 6 and 7 are diagrams schematically showing an example of the model phase distribution φ mz (x, y). 6(a) and 7(a) show plan views of the model phase distribution φ mz (x, y), and FIG. 6(b) shows the model phase distribution on line AA in FIG. 6(a). φ mz (x, y), and FIG. 7(b) shows the model phase distribution φ mz (x, y) on line AA in FIG. 7(a). AA line is a line corresponding to one cycle. Note that in FIG. 6B, an example of a calculated phase distribution φ cz (x, y), which will be described later, is indicated by a dashed line.

図6(b)および図7(b)の例では、モデル位相分布φmz(x,y)は、x方向の位置を変数とした正弦波形状を有している。つまり、ここでは、対象物8の形状を基本周波数成分のみでモデル化している。このモデル位相分布φmz(x,y)のx方向の空間周波数は各仮想対象物のサイズを反映する。図6では単一の仮想対象物が想定されており、図7では複数の仮想対象物がx方向に並んだ状態が想定されている。空間周波数が高いほど、仮想対象物は小さい。具体的な例として、図6の仮想対象物のx方向のサイズは800μmであり、図7の仮想対象物のx方向のサイズは40μmである。またここでは、モデル位相分布φmz(x,y)の最大位相φm_maxを2πに設定した。 In the examples of FIGS. 6B and 7B, the model phase distribution φ mz (x, y) has a sinusoidal shape with the position in the x direction as a variable. That is, here, the shape of the object 8 is modeled using only the fundamental frequency component. The spatial frequency of this model phase distribution φ mz (x,y) in the x direction reflects the size of each virtual object. A single virtual object is assumed in FIG. 6, and a state in which a plurality of virtual objects are arranged in the x direction is assumed in FIG. The higher the spatial frequency, the smaller the virtual object. As a specific example, the x-direction size of the virtual object in FIG. 6 is 800 μm, and the x-direction size of the virtual object in FIG. 7 is 40 μm. Also, here, the maximum phase φ m_max of the model phase distribution φ mz (x, y) is set to 2π.

ここでは、異なるサイズの仮想対象物についてシミュレーションを行う。具体的には、モデル位相分布φmz(x,y)の空間周波数fについて候補値f1,f2が設定され、候補値f1,f2に対して順に後述のシミュレーションを行う。候補値f1は、仮想対象物のサイズがより小さい第1サイズ(例えば40μm)であるときの空間周波数であり、候補値f2は、仮想対象物のサイズが第1サイズよりも大きい第2サイズ(例えば800μm)であるときの空間周波数である。 Here, simulations are performed for virtual objects of different sizes. Specifically, candidate values f1 and f2 are set for the spatial frequency f of the model phase distribution φ mz (x, y), and the candidate values f1 and f2 are sequentially subjected to the simulation described later. The candidate value f1 is the spatial frequency when the size of the virtual object is a smaller first size (for example, 40 μm), and the candidate value f2 is the second size (for example, 40 μm) larger than the first size of the virtual object. for example, 800 μm).

まず、シミュレータは候補値f1の空間周波数でモデル位相分布φmz(x,y)を設定する(ステップST1)。このモデル位相分布φmz(x,y)は例えば図7のモデル位相分布φmz(x,y)であり、仮想対象物のサイズは例えば40μmである。 First, the simulator sets the model phase distribution φ mz (x, y) at the spatial frequency of the candidate value f1 (step ST1). This model phase distribution φ mz (x, y) is, for example, the model phase distribution φ mz (x, y) in FIG. 7, and the size of the virtual object is, for example, 40 μm.

次に、シミュレータはデフォーカス距離Δzを設定する(ステップST2)。より具体的には、シミュレータは、デフォーカス距離Δzとして想定される複数の候補値Δz1,・・・,Δznのうち最小の候補値Δz1を採用する。候補値Δz1としては、例えば1μmを採用することができ、最大の候補値Δznとしては、例えば300μmを採用することができる。 Next, the simulator sets the defocus distance Δz (step ST2). More specifically, the simulator adopts the smallest candidate value Δz1 among a plurality of candidate values Δz1, . . . , Δzn assumed as the defocus distance Δz. For example, 1 μm can be used as the candidate value Δz1, and 300 μm, for example, can be used as the maximum candidate value Δzn.

次に、シミュレータは、次に説明する仮想位置ずれ面における強度分布(以下、算出強度分布と呼ぶ)を、モデル位相分布φmz(x,y)に基づいた公知の光伝搬計算手法により算出する(ステップST3)。仮想位置ずれ面とは、ステップST2において設定されたデフォーカス距離Δzで仮想計測面からz方向にずれた仮想面である。例えばシミュレータは、デフォーカス距離Δzだけ仮想計測面から-z方向にずれた仮想位置ずれ面における算出強度分布Icz-Δz(x,y)と、+z方向にずれた仮想位置ずれ面における算出強度分布Icz+Δz(x,y)とを算出する。 Next, the simulator calculates the intensity distribution (hereinafter referred to as the calculated intensity distribution) on the virtual misalignment plane described below by a known light propagation calculation method based on the model phase distribution φ mz (x, y). (Step ST3). The virtual misalignment plane is a virtual plane shifted in the z direction from the virtual measurement plane by the defocus distance Δz set in step ST2. For example, the simulator calculates the calculated intensity distribution I cz−Δz (x, y) on the virtual misalignment plane shifted in the −z direction from the virtual measurement surface by the defocus distance Δz, and the calculated intensity distribution I cz−Δz (x, y) on the virtual misalignment plane shifted in the +z direction. Calculate the distribution Icz +Δz (x,y).

光伝搬計算手法としては、例えば、フレネル回折計算および角スペクトル法などの回折計算手法を採用する。なお、仮想計測面における仮想的な強度分布(以下、モデル強度分布と呼ぶ)Imz(x,y)としては、均一な強度分布を採用した。つまり、仮想計測面上の各位置の強度は互いに同じであるものとした。また、シミュレーションで用いる波長には、照明光L1の波長を採用した。またここでは、光伝搬計算においては、光が空気中を伝搬するものとして計算した。 As the light propagation calculation method, for example, diffraction calculation methods such as Fresnel diffraction calculation and angular spectrum method are employed. A uniform intensity distribution was adopted as the virtual intensity distribution (hereinafter referred to as a model intensity distribution) Imz (x, y) on the virtual measurement plane. In other words, the intensity at each position on the virtual measurement plane was assumed to be the same. Also, the wavelength of the illumination light L1 was adopted as the wavelength used in the simulation. Also, in the light propagation calculation, the light propagates through the air.

次に、シミュレータはデフォーカス距離Δz、モデル強度分布Imz(x,y)および算出強度分布Icz-Δz(x,y),Icz+Δz(x,y)に基づいて、仮想計測面における位相分布(以下、算出位相分布と呼ぶ)φcz(x,y)を算出する(ステップST4)。 Next , the simulator calculates the phase A distribution (hereinafter referred to as a calculated phase distribution) φ cz (x, y) is calculated (step ST4).

より具体的には、まず、シミュレータは、モデル強度分布Imz(x,y)および算出強度分布Icz-Δz(x,y),Icz+Δz(x,y)を、検出器5のビット数で量子化する。ここでいう検出器5のビット数とは、例えば、検出器5の撮像画像の各画素値のビット数であり、具体的な一例としては8ビットである。 More specifically, the simulator first converts the model intensity distribution I mz (x, y) and the calculated intensity distributions I cz−Δz (x, y), I cz+Δz (x, y) to the number of bits of the detector 5. Quantize with The number of bits of the detector 5 here is, for example, the number of bits of each pixel value of the captured image of the detector 5, and as a specific example, it is 8 bits.

なお、シミュレータは、位相画像生成装置1の光学系の収差、電気系の熱雑音などのノイズを模したランダムノイズを、量子化前のモデル強度分布Imz(x,y)および算出強度分布Icz-Δz(x,y),Icz+Δz(x,y)に掛け合わせてもよい。 Note that the simulator generates random noise imitating noise such as aberration of the optical system of the phase image generation device 1 and thermal noise of the electrical system by using the model intensity distribution I mz (x, y) before quantization and the calculated intensity distribution I cz−Δz (x, y) and I cz+Δz (x, y) may be multiplied.

そして、シミュレータは、量子化後のモデル強度分布Imz(x,y)および算出強度分布Icz-Δz(x,y),Icz+Δz(x,y)に基づいて、式(2)および式(3)の強度輸送方程式の解法により、算出位相分布φcz(x,y)を算出する。 Then, based on the model intensity distribution I mz (x, y) after quantization and the calculated intensity distributions I cz−Δz (x, y) and I cz+Δz (x, y), the simulator uses equation (2) and equation A calculated phase distribution φ cz (x, y) is calculated by solving the intensity transport equation of (3).

以上のように、シミュレータはモデル位相分布φmz(x,y)およびデフォーカス距離Δzを設定し、このモデル位相分布φmz(x,y)およびデフォーカス距離Δzを用いて算出位相分布φcz(x,y)を算出する。この算出位相分布φcz(x,y)がモデル位相分布φmz(x,y)に類似するほど、適切に位相分布を再現しているといえるので、算出精度は高いことになる。そして、この算出精度が高ければ、その算出位相分布φcz(x,y)の算出に用いられたデフォーカス距離Δzは適切であるといえる。 As described above, the simulator sets the model phase distribution φ mz (x, y) and the defocus distance Δz, and uses the model phase distribution φ mz (x, y) and the defocus distance Δz to calculate the phase distribution φ cz Calculate (x, y). The more similar the calculated phase distribution φ cz (x, y) to the model phase distribution φ mz (x, y), the more appropriately the phase distribution is reproduced, and the higher the calculation accuracy. If the calculation accuracy is high, it can be said that the defocus distance Δz used to calculate the calculated phase distribution φ cz (x, y) is appropriate.

そこで、シミュレータは、算出精度を示す指標を算出する(ステップST5)。当該指標については、後に詳述する。 Therefore, the simulator calculates an index indicating calculation accuracy (step ST5). The indicator will be detailed later.

次に、シミュレータは、デフォーカス距離Δzの候補値Δz1,・・・,Δznの全てについて算出精度の指標を算出したか否かを判断する(ステップST6)。全ての候補値Δz1,・・・,Δznに対する指標の算出が未だ完了していないときには、シミュレータはステップST2においてデフォーカス距離Δzを次の候補値に設定して、再びステップST3からステップST5を順に実行する。 Next, the simulator determines whether or not the index of calculation accuracy has been calculated for all the candidate values Δz1, . . . , Δzn of the defocus distance Δz (step ST6). If the calculation of indices for all the candidate values Δz1, . Execute.

全ての候補値Δz1,・・・,Δznに対する指標の算出が完了すると、デフォーカス距離Δzと算出精度との対応関係を得ることができる。図8は、デフォーカス距離Δzと算出精度の指標との対応関係の一例を示すグラフである。算出精度の指標については後に詳述する。 When the index calculations for all the candidate values Δz1, . FIG. 8 is a graph showing an example of a correspondence relationship between the defocus distance Δz and an index of calculation accuracy. The index of calculation accuracy will be described in detail later.

次に、シミュレータは空間周波数fの候補値f1,f2の全てについて上記対応関係を算出したか否かを判断する(ステップST7)。全ての候補値f1,f2に対する上記対応関係の算出が未だ完了していないときには、シミュレータはステップST1において空間周波数fの次の候補値f2でモデル位相分布φmz(x,y)を設定する。このモデル位相分布φmz(x,y)は例えば図6のモデル位相分布φmz(x,y)であり、仮想対象物のサイズは例えば800μmである。そして、シミュレータは再びステップST2からステップST6を順に実行する。 Next, the simulator judges whether or not the above correspondence relationship has been calculated for all the candidate values f1 and f2 of the spatial frequency f (step ST7). When the calculation of the correspondence relationship for all the candidate values f1 and f2 has not yet been completed, the simulator sets the model phase distribution φ mz (x, y) at the next candidate value f2 of the spatial frequency f in step ST1. This model phase distribution φ mz (x, y) is, for example, the model phase distribution φ mz (x, y) in FIG. 6, and the size of the virtual object is, for example, 800 μm. Then, the simulator sequentially executes steps ST2 to ST6 again.

全ての候補値f1,f2に対する上記対応関係の算出が完了すると、シミュレータは処理を終了する。これにより、デフォーカス距離Δzと算出精度の指標との対応関係を空間周波数fの候補値f1,f2ごと、つまり仮想対象物のサイズごとに得ることができる。図9は、デフォーカス距離Δzと算出精度の指標との対応関係の一例を示すグラフである。 When the calculation of the correspondence relationship for all the candidate values f1 and f2 is completed, the simulator ends the processing. Thereby, the correspondence relationship between the defocus distance Δz and the index of the calculation accuracy can be obtained for each of the candidate values f1 and f2 of the spatial frequency f, that is, for each size of the virtual object. FIG. 9 is a graph showing an example of a correspondence relationship between the defocus distance Δz and an index of calculation accuracy.

ここで、算出精度の指標の一例について説明する。該指標としては、図6を参照して、算出位相分布φcz(x,y)内の所定領域における最大位相φc_maxを採用できる。図6では、異なるデフォーカス距離Δzに対応した算出位相分布φcz(x,y)が模式的に破線で示されている。所定領域としては、例えば、仮想計測面におけるA-Aラインを採用することができる。図6および図7の例では、A-Aラインは仮想計測面における位相分布の一周期分のラインに相当する。なお、所定領域は位相分布の全領域であってもよい。また、位相分布における最小位相は実質的に0であるので、該指標は、最大位相と最小位相の差(位相レンジ)を示しているといえる。 Here, an example of the index of calculation accuracy will be described. As the index, referring to FIG. 6, the maximum phase φ c_max in a predetermined region within the calculated phase distribution φ cz (x, y) can be used. In FIG. 6, the calculated phase distributions φ cz (x, y) corresponding to different defocus distances Δz are schematically indicated by dashed lines. For example, the AA line on the virtual measurement plane can be used as the predetermined area. In the examples of FIGS. 6 and 7, the AA line corresponds to one cycle line of the phase distribution on the virtual measurement plane. Note that the predetermined area may be the entire area of the phase distribution. Also, since the minimum phase in the phase distribution is substantially 0, it can be said that the index indicates the difference (phase range) between the maximum phase and the minimum phase.

図8は、仮想対象物のサイズが40μmと比較的に小さい場合のデフォーカス距離Δzと最大位相φc_maxとの対応関係(以下、第1対応関係と呼ぶ)を示している。図8から理解できるように、仮想対象物が小さい場合には、デフォーカス距離Δzが短い範囲内において、最大位相φc_maxはその真値である最大位相φm_maxに近い。一方で、デフォーカス距離Δzが長い範囲内においては、最大位相φc_maxはデフォーカス距離Δzの増加に応じて低下し、最大位相φm_maxから徐々に遠ざかる。つまり、デフォーカス距離Δzの増加に応じて近似精度が低下する。 FIG. 8 shows the correspondence (hereinafter referred to as the first correspondence) between the defocus distance Δz and the maximum phase φc_max when the virtual object has a relatively small size of 40 μm. As can be understood from FIG. 8, when the virtual object is small, the maximum phase φ c_max is close to its true value, the maximum phase φ m_max , within a short range of the defocus distance Δz. On the other hand, within a range where the defocus distance Δz is long, the maximum phase φ c_max decreases as the defocus distance Δz increases, and gradually moves away from the maximum phase φ m_max . That is, the approximation accuracy decreases as the defocus distance Δz increases.

このような第1対応関係が成立する理由は次のように考察される。そもそも、デフォーカス距離Δzが長い場合、式(2)の近似が粗くなるので、その近似精度は低下する。そして、この精度低下は、特に強度分布Iz(x,y)の空間周波数が高いほど顕著となる。仮想対象物の厚みが同じ場合には、平面視における仮想対象物のサイズが小さいほど、光の波面(図1の凸状の波面も参照)の曲率は小さくなるので、高空間周波数成分が大きくなる傾向にある。よって、仮想対象物が小さくなるほど、デフォーカス距離Δzを長く設定したときの式(2)の近似精度の低下が顕著となる。 The reason why such a first correspondence is established is considered as follows. In the first place, when the defocus distance Δz is long, the approximation of equation (2) becomes rough, and the approximation accuracy decreases. This decrease in accuracy becomes more pronounced as the spatial frequency of the intensity distribution Iz(x, y) increases. When the thickness of the virtual object is the same, the smaller the size of the virtual object in plan view, the smaller the curvature of the wavefront of light (see also the convex wavefront in FIG. 1). tend to become Therefore, as the virtual object becomes smaller, the decrease in the approximation accuracy of Equation (2) becomes more pronounced when the defocus distance Δz is set longer.

図9は、仮想対象物が800μmと比較的大きい場合の対応関係(以下、第2対応関係と呼ぶ)を実線で示している。図9から理解できるように、仮想対象物が大きい場合、最大位相φc_maxは、デフォーカス距離Δzが短い範囲内において、デフォーカス距離Δzの変化に伴って大幅に変動する。一方で、デフォーカス距離Δzが長い範囲内においては、最大位相φc_maxの変動幅は小さく、最大位相φc_maxはその真値である最大位相φm_maxに近い。 In FIG. 9, solid lines indicate the correspondence (hereinafter referred to as the second correspondence) when the virtual object is relatively large at 800 μm. As can be understood from FIG. 9, when the virtual object is large, the maximum phase φc_max varies significantly with changes in the defocus distance Δz within a short range of the defocus distance Δz. On the other hand, within a range where the defocus distance Δz is long, the variation width of the maximum phase φ c_max is small, and the maximum phase φ c_max is close to its true value, the maximum phase φ m_max .

このような対応関係が成立する理由は次のように考察される。すなわち、仮想対象物の平面視におけるサイズが大きい場合には、低周波数成分が大きくなるので、式(2)の右辺の変化量は小さくなる。よって、光学系の収差、電気系の熱雑音、および、検出器5による量子化などの諸要因によって生じるノイズが、式(2)の右辺の変化量に対して相対的に大きくなり、ノイズの影響が大きくなる。そして、位置ずれ面S11,S12の間隔(=デフォーカス距離Δzの2倍)が狭くなれば、強度分布Iz+Δz(x,y),Iz-Δz(x,y)の差はますます小さくなるので、デフォーカス距離Δzを短く設定したときのノイズの影響が顕著となるものと考察される。つまり、仮想対象物のサイズが大きい場合には、デフォーカス距離Δzを短く設定するほど、ノイズ耐性が低くなる。 The reason why such correspondence is established is considered as follows. That is, when the size of the virtual object in plan view is large, the amount of change in the right side of Equation (2) is small because the low frequency components are large. Therefore, noise caused by various factors such as aberration of the optical system, thermal noise of the electrical system, and quantization by the detector 5 becomes relatively large with respect to the amount of change on the right side of the equation (2). influence becomes greater. Then, when the interval between the misaligned surfaces S11 and S12 (=twice the defocus distance Δz) becomes narrower, the difference between the intensity distributions I z + Δz (x, y) and I z - Δz (x, y) becomes smaller. Therefore, it is considered that the influence of noise becomes remarkable when the defocus distance Δz is set short. That is, when the size of the virtual object is large, the shorter the defocus distance Δz is set, the lower the noise immunity.

以上のように、デフォーカス距離Δzと算出精度の指標との対応関係は、仮想対象物のサイズに大きく依存する。そこで、本実施の形態にかかる位相画像生成装置1は、計測(観察)対象となる対象物8のサイズに応じてデフォーカス距離Δzを決定する。以下に、具体的な例について説明する。 As described above, the correspondence relationship between the defocus distance Δz and the index of calculation accuracy greatly depends on the size of the virtual object. Therefore, the phase image generation device 1 according to the present embodiment determines the defocus distance Δz according to the size of the object 8 to be measured (observed). A specific example will be described below.

<デフォーカス距離の決定の考え方>
図8から理解できるように、対象物8が小さい場合、デフォーカス距離Δzを長くするほど算出精度が低下する傾向にある。よって、デフォーカス距離Δzの推奨範囲R1の上限値は、対象物8のサイズとして想定された最小サイズに基づいて決定されるとよい。一方、図9から理解できるように、対象物8が大きい場合、デフォーカス距離Δzを短くするほど、算出精度がデフォーカス距離Δzの変化に対して大幅に変動する。このような算出精度の変動幅が大きい範囲内の値をデフォーカス距離Δzとして採用することは好ましくない。よって、デフォーカス距離Δzの推奨範囲R1の下限値は、対象物8のサイズとして想定された最大サイズに基づいて決定されるとよい。デフォーカス距離Δzをこの推奨範囲R1内の値に決定すれば、想定内のサイズを有する対象物8の位相画像をより高い精度で検出することができる。
<Concept of determination of defocus distance>
As can be understood from FIG. 8, when the object 8 is small, the calculation accuracy tends to decrease as the defocus distance Δz increases. Therefore, the upper limit of the recommended range R1 of the defocus distance Δz should be determined based on the assumed minimum size of the object 8 . On the other hand, as can be understood from FIG. 9, when the object 8 is large, the shorter the defocus distance Δz, the more the calculation accuracy fluctuates with respect to changes in the defocus distance Δz. It is not preferable to adopt a value within such a range where the fluctuation width of the calculation accuracy is large as the defocus distance Δz. Therefore, the lower limit value of the recommended range R1 of the defocus distance Δz should be determined based on the maximum size assumed as the size of the target object 8 . If the defocus distance Δz is set to a value within this recommended range R1, the phase image of the object 8 having an expected size can be detected with higher accuracy.

<対応関係情報>
図10は、デフォーカス距離Δzを決定する構成の第1実施例を概略的に示す機能ブロック図である。図10の例では、デフォーカス距離決定部7aには入力部72および記憶部73が接続されている。
<correspondence information>
FIG. 10 is a functional block diagram schematically showing a first embodiment of a configuration for determining the defocus distance Δz. In the example of FIG. 10, an input section 72 and a storage section 73 are connected to the defocus distance determining section 7a.

入力部72は、対象物8の第1サイズ(例えば最小サイズ)を示す第1サイズパラメータ、および、対象物8の第1サイズよりも大きな第2サイズ(例えば最大サイズ)を示す第2サイズパラメータの入力を受け付ける。第1サイズパラメータおよび第2サイズパラメータは対象物8のサイズそのものであってもよく、あるいは、空間周波数であってもよい。例えば対象物8が複数の単位対象物(例えば細胞)を含む場合、ユーザはその単位対象物のサイズのうち最も小さいと想定される第1サイズを第1サイズパラメータとして入力部72に入力し、最も大きいと想定される第2サイズを第2サイズパラメータとして入力部72に入力する。入力部72は、入力された第1サイズパラメータおよび第2サイズパラメータをデフォーカス距離決定部7aに出力する。 The input unit 72 inputs a first size parameter indicating a first size (for example, minimum size) of the object 8 and a second size parameter indicating a second size (for example, maximum size) larger than the first size of the object 8. accepts the input of The first size parameter and the second size parameter may be the size of the object 8 itself, or may be spatial frequencies. For example, when the object 8 includes a plurality of unit objects (eg, cells), the user inputs the first size assumed to be the smallest among the sizes of the unit objects to the input unit 72 as a first size parameter, A second size assumed to be the largest is input to the input unit 72 as a second size parameter. The input unit 72 outputs the input first size parameter and second size parameter to the defocus distance determination unit 7a.

記憶部73は例えばメモリなどの非一時的な記憶部であり、対応関係情報Dを記憶している。対応関係情報Dは、対象物8のサイズおよびデフォーカス距離Δzについての情報を含んでいる。より具体的な一例として、対応関係情報Dは、第1サイズごとのデフォーカス距離Δzと算出精度の指標との第1対応関係、および、第2サイズごとのデフォーカス距離Δzと算出精度の指標との第2対応関係を含んでいる。つまり、対応関係情報Dには、図8と同様の第1対応関係が第1サイズごとに複数含まれ、図9の実線グラフと同様の第2対応関係が第2サイズごとに複数含まれる。この対応関係情報Dは、上述のシミュレーションによって作成される。 The storage unit 73 is a non-temporary storage unit such as a memory, and stores the correspondence relationship information D. FIG. The correspondence information D includes information about the size of the object 8 and the defocus distance Δz. As a more specific example, the correspondence information D includes the first correspondence between the defocus distance Δz for each first size and the index of calculation accuracy, and the defocus distance Δz for each second size and the index of calculation accuracy. contains a second correspondence with That is, the correspondence information D includes a plurality of first correspondences for each first size similar to FIG. 8, and a plurality of second correspondences for each second size similar to the solid line graph in FIG. This correspondence information D is created by the simulation described above.

デフォーカス距離決定部7aは、入力部72からの第1サイズパラメータおよび第2サイズパラメータと、記憶部73に記憶された対応関係情報Dとに基づいて、デフォーカス距離Δzを決定する。具体的な一例として、まずデフォーカス距離決定部7aは、第1サイズパラメータに対応した第1対応関係(図8を参照)を対応関係情報Dから特定する。デフォーカス距離決定部7aは、次に説明するデフォーカス距離Δzの第1範囲R11の上限値を、デフォーカス距離Δzの推奨範囲R1の上限値に決定する。第1範囲R11とは、第1対応関係において、最大位相φm_max(つまり、真値)と最大位相φc_maxとの誤差Δφが安定的に規定のしきい値Ref1以下となるデフォーカス距離Δzの範囲である。ここでいう「安定的」とは、デフォーカス距離Δzが若干変化しても、その変化範囲内において、誤差Δφが常にしきい値Ref1以下となることをいう。 The defocus distance determination unit 7 a determines the defocus distance Δz based on the first size parameter and the second size parameter from the input unit 72 and the correspondence information D stored in the storage unit 73 . As a specific example, first, the defocus distance determining unit 7a identifies from the correspondence information D the first correspondence (see FIG. 8) corresponding to the first size parameter. The defocus distance determination unit 7a determines the upper limit value of the first range R11 of the defocus distance Δz described below as the upper limit value of the recommended range R1 of the defocus distance Δz. The first range R11 is the defocus distance Δz at which the error Δφ between the maximum phase φ m_max (that is, the true value) and the maximum phase φ c_max is stably equal to or less than the prescribed threshold value Ref1 in the first correspondence relationship. Range. The term "stable" as used herein means that the error .DELTA..phi. is always less than or equal to the threshold value Ref1 within the range of change even if the defocus distance .DELTA.z changes slightly.

次に、デフォーカス距離決定部7aは、第2サイズパラメータに対応した第2対応関係(図9を参照)を対応関係情報Dから特定し、該第2対応関係において、誤差Δφが安定的にしきい値Ref1以下となるデフォーカス距離Δzの第2範囲R12の下限値を、推奨範囲R1の下限値に決定する。 Next, the defocus distance determining unit 7a identifies a second correspondence (see FIG. 9) corresponding to the second size parameter from the correspondence information D, and stabilizes the error Δφ in the second correspondence. The lower limit of the second range R12 of the defocus distance Δz that is equal to or less than the threshold Ref1 is determined as the lower limit of the recommended range R1.

次に、デフォーカス距離決定部7aはデフォーカス距離Δzを推奨範囲R1内の値に決定する。より具体的な一例として、デフォーカス距離決定部7aはデフォーカス距離Δzを推奨範囲R1の中央値(つまり、下限値と上限値の和の半値)に決定する。 Next, the defocus distance determination unit 7a determines the defocus distance Δz to be a value within the recommended range R1. As a more specific example, the defocus distance determination unit 7a determines the defocus distance Δz to be the median value of the recommended range R1 (that is, the half value of the sum of the lower limit value and the upper limit value).

なお、入力された第1サイズパラメータに対応した第1対応関係が対応関係情報Dに含まれていない場合には、デフォーカス距離決定部7aは、適宜に、線形補間などの補間手法により、入力された第1サイズパラメータに対応した第1対応関係を算出してもよい。第2対応関係についても同様である。 Note that when the first correspondence corresponding to the input first size parameter is not included in the correspondence information D, the defocus distance determination unit 7a appropriately uses an interpolation method such as linear interpolation to perform the input A first correspondence corresponding to the obtained first size parameter may be calculated. The same applies to the second correspondence.

<位相画像生成装置の動作>
図11は、位相画像生成装置1の動作の一例を示すフローチャートである。まず、対象物8のサイズを取得する(ステップST10)。具体的な一例として、ユーザは、想定された対象物8の最小サイズ(第1サイズ)を第1サイズパラメータとして入力部72に入力し、想定された対象物8の最大サイズ(第2サイズ)を第2サイズパラメータとして入力部72に入力する。入力部72は第1サイズパラメータおよび第2サイズパラメータを制御部7に出力する。なお、表示部71はサイズパラメータの入力画面に、第1サイズ(最小サイズ)および第2サイズ(最大サイズ)の入力を促す情報を表示してもよい。
<Operation of phase image generating device>
FIG. 11 is a flowchart showing an example of the operation of the phase image generating device 1. FIG. First, the size of the object 8 is obtained (step ST10). As a specific example, the user inputs the assumed minimum size (first size) of the target object 8 to the input unit 72 as a first size parameter, and the assumed maximum size (second size) of the target object 8 is input to the input unit 72 as a second size parameter. The input section 72 outputs the first size parameter and the second size parameter to the control section 7 . The display unit 71 may display information prompting the input of the first size (minimum size) and the second size (maximum size) on the size parameter input screen.

次に、デフォーカス距離決定部7aは第1サイズパラメータ、第2サイズパラメータおよび対応関係情報Dに基づいて、上述のように、デフォーカス距離Δzを決定する(ステップST11)。 Next, the defocus distance determination unit 7a determines the defocus distance Δz based on the first size parameter, the second size parameter and the correspondence information D as described above (step ST11).

次に、制御部7は、計測面S0および位置ずれ面S11,S12における強度分布I(x,y),Iz-Δz(x,y),Iz+Δz(x,y)を取得する(ステップST12)。具体的な一例として、照明部3が照明光L1を照射した状態で、駆動部6が保持部2を光軸方向に沿って移動させて、対物レンズ41の前側焦点を計測面S0に位置させる。これにより、検出器5の検出面には計測面S0の像が形成される。検出器5は検出面における強度分布I(x,y)を検出し、これを制御部7に出力する。同様にして、駆動部6が、ステップST11にて決定されたデフォーカス距離Δzだけ保持部2を-z方向に沿って移動させる。これにより、検出器5の検出面には位置ずれ面S11の像が形成される。検出器5が検出面における強度分布Iz-Δz(x,y)を検出し、これを制御部7に出力する。同様にして、位置ずれ面S12における強度分布Iz+Δz(x,y)が制御部7に入力される。 Next, the control unit 7 acquires intensity distributions I z (x, y), I z−Δz (x, y), and I z+Δz (x, y) on the measurement surface S0 and the displacement surfaces S11 and S12 ( step ST12). As a specific example, while the illumination unit 3 is emitting the illumination light L1, the driving unit 6 moves the holding unit 2 along the optical axis direction to position the front focal point of the objective lens 41 on the measurement surface S0. . As a result, an image of the measurement surface S0 is formed on the detection surface of the detector 5. FIG. The detector 5 detects the intensity distribution I z (x, y) on the detection plane and outputs it to the controller 7 . Similarly, the driving section 6 moves the holding section 2 along the -z direction by the defocus distance Δz determined in step ST11. As a result, an image of the displacement surface S11 is formed on the detection surface of the detector 5. FIG. The detector 5 detects the intensity distribution I z-Δz (x, y) on the detection plane and outputs it to the controller 7 . Similarly, the intensity distribution I z+Δz (x, y) on the misaligned surface S12 is input to the controller 7 .

次に、位相分布算出部7bはデフォーカス距離Δzおよび強度分布I(x,y),Iz-Δz(x,y),Iz+Δz(x,y)に基づいて位相分布φ(x,y)を算出する(ステップST13)。言い換えれば、位相分布算出部7bは位相画像を生成する。 Next , the phase distribution calculator 7b calculates the phase distribution φ z ( x , y) are calculated (step ST13). In other words, the phase distribution calculator 7b generates a phase image.

制御部7は適宜に該位相画像を表示部71に出力し、表示部71に位相画像を表示させる。これにより、ユーザは対象物8を観察することができる。 The control unit 7 appropriately outputs the phase image to the display unit 71 and causes the display unit 71 to display the phase image. This allows the user to observe the object 8 .

以上のように、デフォーカス距離決定部7aは対象物8のサイズに応じてデフォーカス距離Δzを決定する。検出器5は、計測面S0の強度分布と、このデフォーカス距離Δzによって規定された位置ずれ面S1の強度分布を検出し、位相分布算出部7bはこのデフォーカス距離Δzおよびこれらの強度分布を用いて位相分布φ(x,y)を算出する。このため、対象物8のサイズに応じたより高い精度で位相分布φ(x,y)を算出することができる。言い換えれば、高い精度で位相画像を生成することができる。 As described above, the defocus distance determination unit 7a determines the defocus distance Δz according to the size of the object 8. FIG. The detector 5 detects the intensity distribution of the measurement surface S0 and the intensity distribution of the misaligned surface S1 defined by the defocus distance Δz, and the phase distribution calculator 7b calculates the defocus distance Δz and these intensity distributions. is used to calculate the phase distribution φ z (x, y). Therefore, the phase distribution φ z (x, y) can be calculated with higher accuracy according to the size of the object 8 . In other words, a phase image can be generated with high accuracy.

しかも上述の例では、対象物8の第1サイズ(例えば最小サイズ)に基づいて推奨範囲R1の上限値が決定され、対象物8の第2サイズ(例えば最大サイズ)に基づいて推奨範囲R1の下限値が決定され、デフォーカス距離Δzが推奨範囲R1内の値に決定される。したがって、位相画像生成装置1は第1サイズ以上かつ第2サイズ以下の対象物8についての位相画像を、より確実に高い精度で生成することができる。また、対象物8に、第1サイズ以上かつ第2サイズ以下の範囲で複数の単位対象物(例えば細胞)が含まれていても、位相画像生成装置1は複数の単位対象物の各々について、高い精度で位相分布を算出することができる。 Moreover, in the above example, the upper limit of the recommended range R1 is determined based on the first size (for example, the minimum size) of the object 8, and the recommended range R1 is determined based on the second size (for example, the maximum size) of the object 8. A lower limit value is determined, and the defocus distance Δz is determined to be a value within the recommended range R1. Therefore, the phase image generation device 1 can more reliably generate a phase image of the object 8 having the first size or more and the second size or less with high accuracy. In addition, even if the object 8 includes a plurality of unit objects (for example, cells) in a range of the first size or more and the second size or less, the phase image generation device 1 may A phase distribution can be calculated with high accuracy.

また上述の例では、予め記憶部73に記憶された対応関係情報Dを用いている。このため、位相画像生成装置1は、対応関係を算出するためのシミュレーションを対象物8の位相画像生成時には行う必要がない。したがって、制御部7の処理負荷を軽減することができる。 Further, in the above example, the correspondence information D stored in advance in the storage unit 73 is used. Therefore, the phase image generation device 1 does not need to perform a simulation for calculating the correspondence when generating the phase image of the object 8 . Therefore, the processing load on the control unit 7 can be reduced.

また上述の例では、対応関係情報Dはデフォーカス距離Δzと算出精度の指標との対応関係を含んでいる。よって、たとえ算出精度の要求が変化しても、デフォーカス距離決定部7aが算出精度についてのしきい値Ref1を要求精度に応じて設定することで、その変化に対応した適切なデフォーカス距離Δzを決定することができる。 In the above example, the correspondence information D includes the correspondence between the defocus distance Δz and the index of calculation accuracy. Therefore, even if the calculation accuracy requirement changes, the defocus distance determining unit 7a sets the threshold value Ref1 for the calculation accuracy according to the required accuracy, so that an appropriate defocus distance Δz corresponding to the change can be obtained. can be determined.

また、対応関係情報Dはシミュレーションによって生成されるので、実験に比べて、より容易に対応関係情報Dを生成することができる。 Further, since the correspondence information D is generated by simulation, the correspondence information D can be generated more easily than by experiment.

<モデル位相分布について>
上述の例では、対応関係情報Dを生成するためのシミュレーションにおいて、モデル位相分布φmz(x,y)として、基本周波数成分のみの正弦波を採用した(図6および図7も参照)。これによれば、より簡易な計算で対応関係情報Dを生成することができる。
<Regarding model phase distribution>
In the above example, in the simulation for generating the correspondence information D, a sine wave with only fundamental frequency components was adopted as the model phase distribution φ mz (x, y) (see also FIGS. 6 and 7). According to this, the correspondence information D can be generated by simpler calculation.

また図6および図7の例では、モデル位相分布φmz(x,y)のy方向分布を均一に設定している。つまり、対象物8を一方向(ここではx方向)の基本周波数成分のみの正弦波でモデル化している。これによっても、より簡易な計算手法で対応関係情報Dを生成することができる。 Also, in the examples of FIGS. 6 and 7, the y-direction distribution of the model phase distribution φ mz (x, y) is set to be uniform. That is, the object 8 is modeled with a sine wave of only the fundamental frequency component in one direction (here, x direction). This also makes it possible to generate the correspondence information D with a simpler calculation method.

また上述の例では、モデル位相分布φmz(x,y)の最大位相φm_maxを2πに設定している。つまり、仮想対象物の厚みを大きく想定している。 Also, in the above example, the maximum phase φ m_max of the model phase distribution φ mz (x, y) is set to 2π. That is, the thickness of the virtual object is assumed to be large.

ところで、最大位相φm_maxを大きく設定するほど、シミュレーションで算出される最大位相φm_maxと最大位相φc_maxとの誤差Δφが大きくなる傾向にある。よって、誤差Δφが最も大きくなるように、最大位相φm_maxを2πに設定して誤差Δφがしきい値Ref1以下となるようにデフォーカス距離Δzを決定するとよい。これによれば、決定されたデフォーカス距離Δzを用いることで、設定値以下の最大位相φm_maxでも誤差Δφをしきい値Ref1以下とすることができる。つまり、想定厚み以下の厚みを有する対象物8についての位相画像を高い精度で検出することができる。 By the way, the larger the maximum phase φm_max is set, the larger the error Δφ between the maximum phase φm_max and the maximum phase φc_max calculated by simulation. Therefore, it is preferable to set the maximum phase φm_max to 2π so as to maximize the error Δφ and determine the defocus distance Δz so that the error Δφ is equal to or less than the threshold value Ref1. According to this, by using the determined defocus distance Δz, the error Δφ can be made equal to or less than the threshold value Ref1 even when the maximum phase φm_max is equal to or less than the set value. That is, it is possible to detect the phase image of the object 8 having a thickness equal to or less than the assumed thickness with high accuracy.

<算出精度の指標>
上述の例では、算出精度の指標として、仮想対象物の厚みに相当する最大位相φc_maxを採用している。本実施の形態では、厚みを有する対象物8の位相画像を高い精度で生成することを目的としているので、最大位相φc_maxは算出精度の指標として好適である。しかも、最大位相φc_maxの算出は簡易であるので、算出精度の指標をより簡易に得ることができる。
<Index of calculation accuracy>
In the above example, the maximum phase φ c_max corresponding to the thickness of the virtual object is used as an index of calculation accuracy. Since the present embodiment aims to generate a phase image of the object 8 having thickness with high accuracy, the maximum phase φc_max is suitable as an index of calculation accuracy. Moreover, since the calculation of the maximum phase φc_max is simple, an index of calculation accuracy can be obtained more easily.

<対応関係情報D>
上述の例では、対応関係情報Dは、デフォーカス距離Δzと算出精度の指標との対応関係を含んでいる。しかしながら、必ずしもこれに限らない。図9から理解できるように、しきい値Ref1を設定すれば、第1サイズに対応した適切な推奨範囲R1の上限値および第2サイズに対応した適切な推奨範囲R1の下限値を事前に決定することが可能である。したがって、対応関係情報Dは、第1サイズとデフォーカス距離Δzの上限値との対応関係、および、第2サイズとデフォーカス距離Δzの下限値との対応関係を含んでいてもよい(表1参照)。
<Correspondence information D>
In the above example, the correspondence information D includes the correspondence between the defocus distance Δz and the index of calculation accuracy. However, it is not necessarily limited to this. As can be understood from FIG. 9, if the threshold value Ref1 is set, the upper limit value of the appropriate recommended range R1 corresponding to the first size and the lower limit value of the appropriate recommended range R1 corresponding to the second size are determined in advance. It is possible to Therefore, the correspondence information D may include the correspondence between the first size and the upper limit of the defocus distance Δz, and the correspondence between the second size and the lower limit of the defocus distance Δz (Table 1 reference).

Figure 2023090248000005
Figure 2023090248000005

この場合、デフォーカス距離決定部7aは最大位相φc_maxとしきい値Ref1との比較処理を行わなくてよいので、第1サイズパラメータ、第2サイズパラメータおよび対応関係情報Dに基づいて、より簡易にデフォーカス距離Δzを決定することができる。つまり、制御部7の処理負荷を軽減することができる。 In this case, the defocus distance determination unit 7a does not have to perform the comparison processing between the maximum phase φc_max and the threshold value Ref1. A defocus distance Δz can be determined. That is, the processing load on the control unit 7 can be reduced.

<演算>
上述の例では、対応関係情報Dが記憶部73に記憶されているものの、必ずしもこれに限らない。制御部7の処理負荷を軽減する必要がない場合などでは、制御部7はサイズパラメータに応じたシミュレーションを行ってデフォーカス距離Δzを決定してもよい。
<Calculation>
Although the correspondence information D is stored in the storage unit 73 in the above example, it is not necessarily limited to this. When it is not necessary to reduce the processing load of the control unit 7, the control unit 7 may perform a simulation according to the size parameter to determine the defocus distance Δz.

図12は、デフォーカス距離Δzを決定する構成の第2実施例を概略的に示す機能ブロック図である。図12の例では、デフォーカス距離決定部7aはモデル設定部71aとデフォーカス距離設定部72aと強度分布算出部73aと位相分布算出部74aと精度算出部75aとを含んでいる。このデフォーカス距離決定部7aは、入力部72からの第1サイズパラメータおよび第2サイズパラメータに基づいて、シミュレーションにより、第1対応関係(図8参照)および第2対応関係(図9)を算出し、第1対応関係および第2対応関係に基づいてデフォーカス距離Δzを決定する。 FIG. 12 is a functional block diagram schematically showing a second embodiment of the configuration for determining the defocus distance Δz. In the example of FIG. 12, the defocus distance determination unit 7a includes a model setting unit 71a, a defocus distance setting unit 72a, an intensity distribution calculation unit 73a, a phase distribution calculation unit 74a, and an accuracy calculation unit 75a. The defocus distance determination unit 7a calculates the first correspondence (see FIG. 8) and the second correspondence (FIG. 9) by simulation based on the first size parameter and the second size parameter from the input unit 72. Then, the defocus distance Δz is determined based on the first correspondence and the second correspondence.

図13は、デフォーカス距離決定部7aの動作の一例を示すフローチャートである。まず、モデル設定部71aは、入力部72からのサイズパラメータに基づいてモデル位相分布φmz(x,y)を設定する(ステップST21)。具体的には、まず、モデル設定部71aは、入力部72からの第1サイズパラメータに基づいてモデル位相分布φmz(x,y)を設定する。モデル強度分布Imz(x,y)は例えば均一な分布で設定される。 FIG. 13 is a flow chart showing an example of the operation of the defocus distance determining section 7a. First, the model setting unit 71a sets the model phase distribution φ mz (x, y) based on the size parameter from the input unit 72 (step ST21). Specifically, first, the model setting unit 71 a sets the model phase distribution φ mz (x, y) based on the first size parameter from the input unit 72 . The model intensity distribution I mz (x, y) is set with a uniform distribution, for example.

次に、デフォーカス距離設定部72aは、ステップST2と同様に、デフォーカス距離Δzの候補値を設定する(ステップST22)。ここでは、デフォーカス距離設定部72aはデフォーカス距離Δzの候補値を例えば候補値Δz1に設定する。 Next, the defocus distance setting unit 72a sets a candidate value for the defocus distance Δz (step ST22), as in step ST2. Here, the defocus distance setting unit 72a sets the candidate value of the defocus distance Δz to, for example, the candidate value Δz1.

次に、強度分布算出部73aは、ステップST3と同様に、仮想位置ずれ面における算出強度分布Icz-Δz(x,y),Icz+Δz(x,y)をモデル位相分布φmz(x,y)に基づいて算出する(ステップST23)。 Next, similarly to step ST3, the intensity distribution calculator 73a converts the calculated intensity distributions I cz−Δz (x, y) and I cz+Δz (x, y) on the virtual misalignment plane into the model phase distribution φ mz (x, y) (step ST23).

次に、位相分布算出部74aは、ステップST4と同様に、仮想計測面における算出位相分布φcz(x,y)を算出する(ステップST24)。具体的には、位相分布算出部74aは、設定されたデフォーカス距離Δzの候補値、モデル強度分布Imz(x,y)および算出強度分布Icz-Δz(x,y),Icz+Δz(x,y)に基づいて、強度輸送方程式の解法により、算出位相分布φcz(x,y)を算出する。 Next, the phase distribution calculator 74a calculates the calculated phase distribution φ cz (x, y) on the virtual measurement plane, similarly to step ST4 (step ST24). Specifically, the phase distribution calculator 74a calculates the set candidate value of the defocus distance Δz, the model intensity distribution I mz (x, y), and the calculated intensity distributions I cz−Δz (x, y), I cz+Δz ( x, y), the calculated phase distribution φ cz (x, y) is calculated by solving the intensity transport equation.

次に、デフォーカス距離決定部7aは、全ての候補値Δz1,・・・,Δznについて算出位相分布φcz(x,y)を算出したかを判断する(ステップST25)。全ての候補値Δz1,・・・,Δznに対する算出が未だ完了していないときには、デフォーカス距離決定部7aはステップST22においてデフォーカス距離Δzを次の候補値に設定して、再びステップST23およびステップST24を順に実行する。 Next, the defocus distance determination unit 7a determines whether the calculated phase distribution φ cz (x, y) has been calculated for all the candidate values Δz1, . . . , Δzn (step ST25). , Δzn are not yet completed, the defocus distance determining unit 7a sets the defocus distance Δz to the next candidate value in step ST22, and repeats step ST23 and step ST23. ST24 is executed in order.

要するに、デフォーカス距離決定部7aはステップST22からステップST25によって、デフォーカス距離Δzの候補値を変更しながら、仮想計測面から光軸方向にずれた仮想位置ずれ面における算出強度分布Icz-Δz(x,y),Icz+Δz(x,y)、および、強度輸送方程式の解法による算出位相分布φcz(x,y)の算出を順に行う。 In short, the defocus distance determination unit 7a changes the candidate value of the defocus distance Δz from step ST22 to step ST25, and determines the calculated intensity distribution I cz−Δz on the virtual displacement plane shifted in the optical axis direction from the virtual measurement plane. (x, y), I cz+Δz (x, y), and the calculated phase distribution φ cz (x, y) by solving the intensity transport equation are calculated in order.

全ての候補値Δz1,・・・,Δznに対する算出が完了すると、デフォーカス距離決定部7aは、全てのモデル位相分布φmz(x,y)についての算出が完了したか否かを判断する(ステップST26)。該算出が未だ完了していないときには、モデル設定部71aはステップST21において第2サイズパラメータに基づいてモデル位相分布φmz(x,y)を設定する。そして、デフォーカス距離決定部7aは再びステップST22からステップST25を順に実行する。 When the calculations for all the candidate values Δz1, . step ST26). If the calculation has not yet been completed, the model setting section 71a sets the model phase distribution φ mz (x, y) based on the second size parameter in step ST21. Then, the defocus distance determining section 7a again sequentially executes steps ST22 to ST25.

第2サイズパラメータのモデル位相分布φmz(x,y)についての算出が完了すると、デフォーカス距離決定部7aは、算出した複数の算出位相分布φcz(x,y)に基づいてデフォーカス距離Δzを決定する(ステップST27)。具体的には、デフォーカス距離決定部7aは上述のように、第1サイズパラメータの第1対応関係に基づいて推奨範囲R1の上限値を決定し、第2サイズパラメータの第2対応関係に基づいて推奨範囲R1の下限値を決定し、デフォーカス距離Δzを推奨範囲R1内の値に決定する。 When the calculation of the model phase distribution φ mz (x, y) of the second size parameter is completed, the defocus distance determination unit 7a calculates the defocus distance based on the calculated multiple phase distributions φ cz (x, y). Δz is determined (step ST27). Specifically, as described above, the defocus distance determination unit 7a determines the upper limit value of the recommended range R1 based on the first correspondence relationship of the first size parameter, and determines the upper limit value of the recommended range R1 based on the second correspondence relationship of the second size parameter. , the lower limit of the recommended range R1 is determined, and the defocus distance Δz is set to a value within the recommended range R1.

以上のように、第2実施例によっても、対象物8のサイズに応じた適切なデフォーカス距離Δzで位相画像を生成することができる。したがって、位相画像生成装置1は、高い精度で位相画像を生成することができる。また、第2実施例によれば、対応関係情報Dを事前に作成する必要がない。 As described above, according to the second embodiment as well, a phase image can be generated with an appropriate defocus distance Δz according to the size of the object 8 . Therefore, the phase image generation device 1 can generate a phase image with high accuracy. Moreover, according to the second embodiment, there is no need to create the correspondence information D in advance.

ここで、ステップST21からステップST27を、課題を解決する手段の欄における第1工程から第5工程に対応付けておく。 Here, steps ST21 to ST27 are associated with the first to fifth steps in the column of means for solving problems.

ステップST21は第1サイズパラメータおよび第2サイズパラメータに応じて2回実行され、第1サイズパラメータおよび第2サイズパラメータについてそれぞれモデル位相分布φmz(x,y)を設定する。よって、ステップST21は、第1サイズパラメータに対応した仮想計測面におけるモデル位相分布φmz(x,y)である第1モデル位相分布、および、第2サイズパラメータに対応したモデル位相分布φmz(x,y)である第2モデル位相分布を設定する第1工程に相当する。 Step ST21 is executed twice according to the first size parameter and the second size parameter to set the model phase distribution φ mz (x, y) for the first size parameter and the second size parameter, respectively. Therefore, in step ST21, the first model phase distribution, which is the model phase distribution φ mz (x, y) on the virtual measurement plane corresponding to the first size parameter, and the model phase distribution φ mz ( x, y) corresponds to the first step of setting the second model phase distribution.

ステップST22は、第1サイズパラメータおよび第2サイズパラメータについて実行され、その各々において算出強度分布Icz-Δz(x,y),Icz+Δz(x,y)を算出する。よって、ステップST23は、デフォーカス距離Δzの候補値だけ仮想計測面から光軸方向にずれた仮想位置ずれ面における第1算出強度分布を第1モデル位相分布に基づいて算出し、仮想位置ずれ面における第2算出強度分布を第2モデル位相分布に基づいて算出する第2工程に相当する。 Step ST22 is executed for the first size parameter and the second size parameter to calculate the calculated intensity distributions I cz−Δz (x, y) and I cz+Δz (x, y) respectively. Therefore, in step ST23, the first calculated intensity distribution on the virtual misalignment plane shifted in the optical axis direction from the virtual measurement plane by the candidate value of the defocus distance Δz is calculated based on the first model phase distribution, and the virtual misalignment plane corresponds to the second step of calculating the second calculated intensity distribution in based on the second model phase distribution.

ステップST23は、第1サイズパラメータおよび第2サイズパラメータについて実行され、その各々において算出位相分布φcz(x,y)を算出する。よって、ステップST23は、デフォーカス距離Δzおよび第1算出強度分布を用いた強度輸送方程式を解くことにより、仮想計測面における第1算出位相分布を算出し、デフォーカス距離Δzおよび第2算出強度分布を用いた強度輸送方程式を解くことにより、仮想計測面における第2算出位相分布を算出する第3工程に相当する。 Step ST23 is executed for the first size parameter and the second size parameter to calculate the calculated phase distribution φ cz (x, y) for each. Therefore, in step ST23, by solving the intensity transport equation using the defocus distance Δz and the first calculated intensity distribution, the first calculated phase distribution on the virtual measurement plane is calculated, and the defocus distance Δz and the second calculated intensity distribution are calculated. This corresponds to the third step of calculating the second calculated phase distribution on the virtual measurement plane by solving the intensity transport equation using .

ステップST22からステップST24は、第1サイズパラメータおよび第2サイズパラメータの各々において繰り返し実行され、デフォーカス距離Δzの候補値ごとの算出位相分布φcz(x,y)を算出する。よって、ステップST22からステップST24は、デフォーカス距離Δzの候補値を変更しながら第2工程および第3工程を行って候補値ごとの第1算出位相分布および第2算出位相分布を求める第4工程に相当する。 Steps ST22 to ST24 are repeatedly executed for each of the first size parameter and the second size parameter to calculate the calculated phase distribution φ cz (x, y) for each candidate value of the defocus distance Δz. Therefore, steps ST22 to ST24 are a fourth step of obtaining the first calculated phase distribution and the second calculated phase distribution for each candidate value by performing the second step and the third step while changing the candidate value of the defocus distance Δz. corresponds to

ステップST27は、候補値ごとの第1算出位相分布に基づいて推奨範囲R1の下限値を決定し、候補値ごとの第2算出位相分布に基づいて推奨範囲R1の上限値を決定する第5工程に相当する。 A step ST27 is a fifth step of determining the lower limit value of the recommended range R1 based on the first calculated phase distribution for each candidate value and determining the upper limit value of the recommended range R1 based on the second calculated phase distribution for each candidate value. corresponds to

<ユーザによるデフォーカスの決定>
上述の例では、デフォーカス距離決定部7aが自動的にデフォーカス距離Δzを決定しているものの、必ずしもこれに限らない。例えば、デフォーカス距離決定部7aがデフォーカス距離Δzと算出精度の指標との第1対応関係および第2対応関係をユーザに通知し、最終的な判断をユーザに委ねてもよい。
<Defocus decision by user>
In the above example, the defocus distance determination unit 7a automatically determines the defocus distance Δz, but this is not necessarily the case. For example, the defocus distance determining unit 7a may notify the user of the first correspondence and the second correspondence between the defocus distance Δz and the index of the calculation accuracy, and leave the final decision to the user.

図14は、デフォーカス距離Δzを決定する構成の第3実施例を概略的に示す機能ブロック図である。デフォーカス距離決定部7aは表示指示部76aを含む。デフォーカス距離決定部7aは、入力部72からの第1サイズパラメータおよび第2サイズパラメータにそれぞれ応じた第1対応関係(図8参照)および第2対応関係(図9の実線グラフ参照)を例えば対応関係情報Dに基づいて生成し、表示指示部76aは第1対応関係および第2対応関係を表示部71に表示させる。 FIG. 14 is a functional block diagram schematically showing a third embodiment of the configuration for determining the defocus distance Δz. The defocus distance determination unit 7a includes a display instruction unit 76a. The defocus distance determining unit 7a determines, for example, It is generated based on the correspondence information D, and the display instructing section 76a causes the display section 71 to display the first correspondence and the second correspondence.

表示部71が第1対応関係および第2対応関係を表示することにより、ユーザはデフォーカス距離Δzについての好ましい数値範囲を判断することができる。そして、ユーザはデフォーカス距離Δzの値を入力部72に入力する。入力部72はその入力情報(値)を制御部7に出力する。デフォーカス距離決定部7aは、入力部72から入力された入力情報(値)をデフォーカス距離Δzに決定する。 Displaying the first correspondence and the second correspondence on the display unit 71 allows the user to determine a preferable numerical range for the defocus distance Δz. Then, the user inputs the value of the defocus distance Δz to the input unit 72 . The input section 72 outputs the input information (value) to the control section 7 . The defocus distance determination unit 7a determines the input information (value) input from the input unit 72 as the defocus distance Δz.

あるいは、デフォーカス距離決定部7aが、デフォーカス距離Δzの推奨範囲R1を決定し、表示指示部76aが推奨範囲R1を表示部71に表示させてもよい。表示部71が推奨範囲R1を表示することにより、ユーザはデフォーカス距離Δzについての好ましい推奨範囲R1をより適切に認識することができる。そして、ユーザは、推奨範囲R1内の値を入力部72に入力する。入力部72はその入力情報(値)を制御部7に出力する。デフォーカス距離決定部7aは、入力部72から入力された入力情報(値)をデフォーカス距離Δzに決定する。 Alternatively, the defocus distance determination unit 7a may determine the recommended range R1 of the defocus distance Δz, and the display instruction unit 76a may cause the display unit 71 to display the recommended range R1. By displaying the recommended range R1 on the display unit 71, the user can more appropriately recognize the preferable recommended range R1 for the defocus distance Δz. The user then inputs a value within the recommended range R1 into the input unit 72 . The input section 72 outputs the input information (value) to the control section 7 . The defocus distance determination unit 7a determines the input information (value) input from the input unit 72 as the defocus distance Δz.

以上のように、第3実施例によれば、ユーザがデフォーカス距離Δzを決定することができるので、ユーザビリティを向上させることができる。 As described above, according to the third embodiment, the user can determine the defocus distance Δz, so usability can be improved.

<取得部>
上述の例では、ユーザが対象物8のサイズパラメータを入力部72に入力した。この場合、入力部72は、対象物8のサイズについてのサイズパラメータを取得する取得部9の一例である。しかしながら、取得部9は必ずしもこれに限らない。
<Acquisition unit>
In the example above, the user entered the size parameter of the object 8 into the input unit 72 . In this case, the input unit 72 is an example of the acquisition unit 9 that acquires the size parameter regarding the size of the object 8 . However, the acquisition unit 9 is not necessarily limited to this.

図15は、取得部9の一例を概略的に示す図である。図15の例では、取得部9は検出器5および制御部7によって構成される。検出器5は上述のように対象物8の撮像画像(強度分布)を取得し、その撮像画像を制御部7に出力する。撮像画像内の強度分布は比較的に均一であるものの、わずかに強度差が生じ得る。このような撮像画像から対象物8の正確な像を観察することは困難であるものの、対象物8の想定サイズを取得することはできる。 FIG. 15 is a diagram schematically showing an example of the acquisition unit 9. As shown in FIG. In the example of FIG. 15, the acquisition unit 9 is composed of the detector 5 and the control unit 7. FIG. The detector 5 acquires a captured image (intensity distribution) of the object 8 as described above, and outputs the captured image to the control unit 7 . Although the intensity distribution in the captured image is relatively uniform, slight intensity differences may occur. Although it is difficult to observe an accurate image of the object 8 from such a captured image, an assumed size of the object 8 can be obtained.

図15の例では、制御部7はサイズ算出部7cを含む。サイズ算出部7cは、撮像画像に含まれる対象物8のサイズを画像処理によって算出する。画像処理としては、特に制限されないものの、例えば、二値化処理、ラベリング処理、エッジ強調処理、およびテンプレートマッチングなどの処理が適宜に採用され得る。例えば、サイズ算出部7cはエッジ強調処理後の画像から、連続するエッジを抽出して、対象物8の輪郭を特定し、そのサイズを算出する。具体的には、サイズ算出部7cは、複数の単位対象物(例えば細胞)のサイズのうち最小のサイズを第1サイズパラメータとして算出し、最大のサイズを第2サイズパラメータとして算出するとよい。 In the example of FIG. 15, the controller 7 includes a size calculator 7c. The size calculator 7c calculates the size of the object 8 included in the captured image by image processing. Although the image processing is not particularly limited, for example, processing such as binarization processing, labeling processing, edge enhancement processing, and template matching may be employed as appropriate. For example, the size calculator 7c extracts continuous edges from the image after edge enhancement processing, specifies the contour of the object 8, and calculates its size. Specifically, the size calculator 7c preferably calculates the smallest size among the sizes of a plurality of unit objects (for example, cells) as a first size parameter, and calculates the largest size as a second size parameter.

デフォーカス距離決定部7aは、サイズ算出部7cによって算出された第1サイズパラメータおよび第2サイズパラメータに基づいて上述のようにデフォーカス距離Δzを決定する。 The defocus distance determination unit 7a determines the defocus distance Δz as described above based on the first size parameter and the second size parameter calculated by the size calculation unit 7c.

これによれば、ユーザが対象物8のサイズを入力する必要がないので、ユーザの手間を低減させることができる。 According to this, the user does not need to input the size of the target object 8, so the user's trouble can be reduced.

以上のように、位相画像生成装置1、位相画像生成方法およびデフォーカス距離決定方法は詳細に説明されたが、上記の説明は、全ての局面において、例示であって、これらがそれに限定されるものではない。例示されていない無数の変形例が、この開示の範囲から外れることなく想定され得るものと解される。上記各実施形態および各変形例で説明した各構成は、相互に矛盾しない限り適宜組み合わせたり、省略したりすることができる。 As described above, the phase image generation device 1, the phase image generation method, and the defocus distance determination method have been described in detail. not a thing It is understood that numerous variations not illustrated can be envisioned without departing from the scope of this disclosure. Each configuration described in each of the above embodiments and modifications can be appropriately combined or omitted as long as they do not contradict each other.

上述の具体例では、第1サイズパラメータおよび第2サイズパラメータに基づいてデフォーカス距離Δzを決定しているものの、必ずしもこれに限らない。対象物8が単一の物体である場合、取得部9は対象物8のサイズとして一つのサイズパラメータを取得してもよい。そして、デフォーカス距離決定部7aは該サイズパラメータに対応する対応関係に基づいて、デフォーカス距離Δzを決定してもよい。例えば対象物8のサイズが800μmである場合、デフォーカス距離決定部7aは例えば図9の実線グラフの対応関係に基づいてデフォーカス距離Δzを約30μm以上の値に決定する。 In the above specific example, the defocus distance Δz is determined based on the first size parameter and the second size parameter, but this is not necessarily the case. If the object 8 is a single object, the acquisition unit 9 may acquire one size parameter as the size of the object 8 . Then, the defocus distance determination unit 7a may determine the defocus distance Δz based on the correspondence relationship corresponding to the size parameter. For example, when the size of the object 8 is 800 μm, the defocus distance determination unit 7a determines the defocus distance Δz to be approximately 30 μm or more based on the correspondence relationship of the solid line graph in FIG. 9, for example.

また、上述の具体例では、算出精度の指標(例えば最大位相φc_max)を真値(例えば最大位相φm_max)と比較して、誤差Δφが小さくなるようにデフォーカス距離Δzを決定した。しかしながら、誤差Δφはデフォーカス距離Δzとは別のパラメータにも依存する。このパラメータが不適切に設定されていると、デフォーカス距離Δzを変化させても誤差Δφがしきい値Ref1以下とならない場合もあり得る。 In the above-described specific example, the defocus distance Δz is determined so that the error Δφ becomes small by comparing the calculation accuracy index (eg maximum phase φ c_max ) with the true value (eg maximum phase φ m_max ) . However, the error Δφ also depends on parameters other than the defocus distance Δz. If this parameter is set inappropriately, the error Δφ may not be less than or equal to the threshold value Ref1 even if the defocus distance Δz is changed.

そこで、最大位相φc_maxを規格化し、その規格化した規格値を予め設定したしきい値と比較してもよい。具体的な一例として、デフォーカス距離Δzが変化しても最大位相φc_maxが一定値の近傍で変化する範囲内の平均値で各最大位相φc_maxを規格化する。そして、その規格値が1を含む所定範囲(例えば0.9以上1.1以下の範囲)内となるように、デフォーカス距離Δzを決定してもよい。これによれば、別のパラメータの影響を回避して、適切にデフォーカス距離Δzを決定することができる。 Therefore, the maximum phase φc_max may be normalized and the normalized value may be compared with a preset threshold value. As a specific example, each maximum phase φc_max is normalized by an average value within a range in which the maximum phase φc_max changes in the vicinity of a constant value even when the defocus distance Δz changes. Then, the defocus distance Δz may be determined so that the standard value is within a predetermined range including 1 (for example, a range of 0.9 or more and 1.1 or less). According to this, the defocus distance Δz can be appropriately determined while avoiding the influence of other parameters.

また上述の例では、検出器5は対象物8を透過した光を検出しているものの、必ずしもこれに限らない。照明部3および検出器5が対象物8に対して同じ側に設けられ、検出器5が対象物8の表面で反射・散乱した光を検出してもよい。 Also, in the above example, the detector 5 detects light that has passed through the object 8, but this is not necessarily the case. The illumination unit 3 and the detector 5 may be provided on the same side of the object 8 , and the detector 5 may detect the light reflected and scattered by the surface of the object 8 .

また、上述の例では、対象物8のサイズについてのサイズパラメータが制御部7のデフォーカス距離決定部7aに与えられるものの、必ずしもこれに限らない。事前に作業員が上記手法により対象物8のサイズに応じて上述のようにデフォーカス距離Δzを決定し、該デフォーカス距離Δzの値を入力部72に入力してもよい。 Also, in the above example, the size parameter about the size of the object 8 is given to the defocus distance determination unit 7a of the control unit 7, but this is not necessarily the case. A worker may determine the defocus distance Δz according to the size of the object 8 in advance by the above method, and input the value of the defocus distance Δz to the input unit 72 .

1 位相画像生成装置
3 照明部
4 結像光学系
41 対物レンズ
5 検出器
7 制御部
71 表示部
72 入力部
73 記憶部
8 対象物
9 取得部
D 対応関係情報
L1 照明光
ST10~ST13 工程(ステップ)
ST21 第1工程(ステップ)
ST23 第2工程(ステップ)
ST24 第3工程(ステップ)
ST27 第5工程(ステップ)
1 phase image generation device 3 illumination unit 4 imaging optical system 41 objective lens 5 detector 7 control unit 71 display unit 72 input unit 73 storage unit 8 object 9 acquisition unit D correspondence information L1 illumination light ST10 to ST13 process (step )
ST21 First step (step)
ST23 Second process (step)
ST24 Third process (step)
ST27 Fifth process (step)

Claims (11)

強度輸送方程式を用いて位相画像を生成する位相画像生成装置であって、
対象物に照明光を照射する照明部と、
前記対象物に対向する対物レンズを含む結像光学系と、
前記対象物から前記結像光学系を通じて入射された光を検出する検出器と、
前記対象物のサイズについてのサイズパラメータを取得する取得部と、
前記サイズパラメータに基づいて決定されたデフォーカス距離だけ光軸方向において互いに離れた少なくとも2つの位置における前記対象物からの光を、前記検出器を用いて検出し、前記デフォーカス距離と、前記検出器によって検出された光の強度分布とを用いた強度輸送方程式の解法により、前記対象物についての位相画像を生成する制御部と
を備える、位相画像生成装置。
A phase image generator that generates a phase image using an intensity transport equation,
an illumination unit that irradiates an object with illumination light;
an imaging optical system including an objective lens facing the object;
a detector that detects light incident from the object through the imaging optical system;
an acquisition unit that acquires a size parameter for the size of the object;
using the detector to detect light from the object at at least two positions separated from each other in the optical axis direction by a defocus distance determined based on the size parameter, the defocus distance and the detection; and a controller for generating a phase image of the object by solving an intensity transport equation using the light intensity distribution detected by the detector.
請求項1に記載の位相画像生成装置であって、
前記取得部は、前記サイズパラメータとして、第1サイズを示す第1サイズパラメータと、前記第1サイズよりも大きい第2サイズを示す第2サイズパラメータを取得し、
前記制御部は、前記第1サイズパラメータに基づいて前記デフォーカス距離の推奨範囲の上限値を決定し、前記第2サイズパラメータに基づいて前記デフォーカス距離の前記推奨範囲の下限値を決定し、前記デフォーカス距離を前記推奨範囲内の値に決定する、位相画像生成装置。
The phase image generating device according to claim 1,
The acquisition unit acquires, as the size parameters, a first size parameter indicating a first size and a second size parameter indicating a second size larger than the first size,
The control unit determines an upper limit value of the recommended range of the defocus distance based on the first size parameter, determines a lower limit value of the recommended range of the defocus distance based on the second size parameter, A phase image generating device, wherein the defocus distance is determined to be a value within the recommended range.
請求項2に記載の位相画像生成装置であって、
前記制御部は、前記位相画像の生成に用いられる前記デフォーカス距離を、前記下限値と前記上限値との和の半値に決定する、位相画像生成装置。
The phase image generating device according to claim 2,
The phase image generating device, wherein the control unit determines the defocus distance used for generating the phase image to be a half value of the sum of the lower limit value and the upper limit value.
請求項2または請求項3に記載の位相画像生成装置であって、
前記サイズおよび前記デフォーカス距離についての対応関係情報を記憶する記憶部をさらに備え、
前記制御部は、前記第1サイズパラメータと前記対応関係情報に基づいて前記上限値を決定し、前記第2サイズパラメータと前記対応関係情報に基づいて前記下限値を決定する、位相画像生成装置。
The phase image generating device according to claim 2 or 3,
Further comprising a storage unit that stores correspondence information about the size and the defocus distance,
The phase image generation device, wherein the control unit determines the upper limit based on the first size parameter and the correspondence information, and determines the lower limit based on the second size parameter and the correspondence information.
請求項4に記載の位相画像生成装置であって、
前記対応関係情報は、前記第1サイズおよび前記第2サイズを含む複数のサイズの各々についての前記デフォーカス距離と、前記位相画像の算出精度を示す指標との対応関係を含む、位相画像生成装置。
The phase image generating device according to claim 4,
The phase image generation device, wherein the correspondence relationship information includes a correspondence relationship between the defocus distance for each of a plurality of sizes including the first size and the second size and an index indicating calculation accuracy of the phase image. .
請求項5に記載の位相画像生成装置であって、
前記算出精度の指標は、シミュレーションによって算出された仮想計測面における算出位相分布の最大位相の情報を含み、
前記シミュレーションにおいて、前記仮想計測面におけるモデル位相分布を設定し、前記仮想計測面から前記光軸方向にずれた仮想位置ずれ面における算出強度分布を前記モデル位相分布に基づいて算出し、前記デフォーカス距離および前記算出強度分布を用いた強度輸送方程式の解法により前記算出位相分布を算出する、位相画像生成装置。
The phase image generating device according to claim 5,
The index of calculation accuracy includes information on the maximum phase of the calculated phase distribution on the virtual measurement plane calculated by simulation,
In the simulation, a model phase distribution on the virtual measurement plane is set, a calculated intensity distribution on a virtual misalignment plane shifted in the optical axis direction from the virtual measurement plane is calculated based on the model phase distribution, and the defocus A phase image generating device for calculating the calculated phase distribution by solving an intensity transport equation using the distance and the calculated intensity distribution.
請求項2または請求項3に記載の位相画像生成装置であって、
前記制御部は、
前記第1サイズパラメータに対応した仮想計測面におけるモデル位相分布である第1モデル位相分布、および、前記第2サイズパラメータに対応した前記モデル位相分布である第2モデル位相分布を設定する第1工程と、
前記デフォーカス距離の候補値だけ前記仮想計測面から前記光軸方向にずれた仮想位置ずれ面における第1算出強度分布を前記第1モデル位相分布に基づいて算出し、前記仮想位置ずれ面における第2算出強度分布を前記第2モデル位相分布に基づいて算出する第2工程と、
前記デフォーカス距離および前記第1算出強度分布を用いた強度輸送方程式を解くことにより、前記仮想計測面における第1算出位相分布を算出し、前記デフォーカス距離および前記第2算出強度分布を用いた強度輸送方程式を解くことにより、前記仮想計測面における第2算出位相分布を算出する第3工程と、
前記候補値を変更しながら前記第2工程および前記第3工程を繰り返し行って前記候補値ごとの前記第1算出位相分布および前記第2算出位相分布を求める第4工程と、
前記候補値ごとの前記第1算出位相分布に基づいて前記推奨範囲の下限値を決定し、前記候補値ごとの前記第2算出位相分布に基づいて前記推奨範囲の上限値を決定する第5工程と
を実行する、位相画像生成装置。
The phase image generating device according to claim 2 or 3,
The control unit
A first step of setting a first model phase distribution, which is a model phase distribution on a virtual measurement plane corresponding to the first size parameter, and a second model phase distribution, which is the model phase distribution corresponding to the second size parameter. and,
calculating a first calculated intensity distribution on a virtual misalignment plane shifted in the optical axis direction from the virtual measurement plane by the candidate value of the defocus distance based on the first model phase distribution; 2 a second step of calculating a calculated intensity distribution based on the second model phase distribution;
By solving the intensity transport equation using the defocus distance and the first calculated intensity distribution, the first calculated phase distribution in the virtual measurement plane is calculated, and the defocus distance and the second calculated intensity distribution are used. a third step of calculating a second calculated phase distribution in the virtual measurement plane by solving an intensity transport equation;
a fourth step of obtaining the first calculated phase distribution and the second calculated phase distribution for each candidate value by repeatedly performing the second step and the third step while changing the candidate value;
A fifth step of determining a lower limit value of the recommended range based on the first calculated phase distribution for each candidate value and determining an upper limit value of the recommended range based on the second calculated phase distribution for each candidate value. and a phase image generator.
請求項6または請求項7に記載の位相画像生成装置であって、
前記モデル位相分布は、正弦波形状を有する、位相画像生成装置。
The phase image generating device according to claim 6 or claim 7,
The phase image generator, wherein the model phase distribution has a sinusoidal shape.
請求項1から請求項8のいずれか一つに記載の位相画像生成装置であって、
前記取得部は、前記検出器によって検出された前記強度分布に基づいて、前記対象物のサイズを取得する、位相画像生成装置。
The phase image generation device according to any one of claims 1 to 8,
The phase image generation device, wherein the acquisition unit acquires the size of the object based on the intensity distribution detected by the detector.
強度輸送方程式を用いて位相画像を生成する位相画像生成方法であって、
対象物のサイズについてのサイズパラメータに基づいてデフォーカス距離を決定する工程と、
前記対象物に照明光を照射し、前記対象物に対向する対物レンズを含む結像光学系を通じて入射された光を検出する検出器を用いて、光軸方向において前記デフォーカス距離で互いに離れた少なくとも2つの位置における前記対象物からの光を、前記検出器を用いて検出し、前記デフォーカス距離と、前記検出器によって検出された光の強度分布とを用いた強度輸送方程式の解法により、前記対象物についての位相画像を生成する工程と
を備える、位相画像生成方法。
A phase image generation method for generating a phase image using an intensity transport equation, comprising:
determining a defocus distance based on a size parameter for the size of the object;
Using a detector that irradiates the object with illumination light and detects light incident through an imaging optical system including an objective lens facing the object, separated from each other at the defocus distance in the optical axis direction detecting light from the object at at least two positions using the detector, and solving an intensity transport equation using the defocus distance and the intensity distribution of the light detected by the detector, and generating a phase image of said object.
位相画像を生成するための強度輸送方程式の解法に用いられるデフォーカス距離の決定方法であって、
対象物のサイズに基づいて仮想計測面におけるモデル位相分布を設定する工程と、
前記デフォーカス距離の候補値を変更しながら、前記仮想計測面から光軸方向にずれた仮想位置ずれ面における算出強度分布を、前記モデル位相分布に基づいて算出し、前記算出強度分布を用いた強度輸送方程式の解法により、前記仮想計測面における算出位相分布を求める工程と、
前記算出位相分布に基づいて、前記位相画像を生成するための前記強度輸送方程式の解法に用いられる前記デフォーカス距離を決定する工程と
を備える、デフォーカス距離決定方法。
A method for determining a defocus distance for use in solving an intensity transport equation for generating a phase image, comprising:
setting a model phase distribution in a virtual measurement plane based on the size of the object;
While changing the candidate value of the defocus distance, a calculated intensity distribution on a virtual misalignment plane shifted in the optical axis direction from the virtual measurement plane is calculated based on the model phase distribution, and the calculated intensity distribution is used. obtaining a calculated phase distribution in the virtual measurement plane by solving an intensity transport equation;
determining the defocus distance to be used in solving the intensity transfer equation to generate the phase image based on the calculated phase distribution.
JP2021205122A 2021-12-17 2021-12-17 Phase image generation device, phase image generation method, and defocus distance determination method Pending JP2023090248A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021205122A JP2023090248A (en) 2021-12-17 2021-12-17 Phase image generation device, phase image generation method, and defocus distance determination method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021205122A JP2023090248A (en) 2021-12-17 2021-12-17 Phase image generation device, phase image generation method, and defocus distance determination method

Publications (1)

Publication Number Publication Date
JP2023090248A true JP2023090248A (en) 2023-06-29

Family

ID=86937177

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021205122A Pending JP2023090248A (en) 2021-12-17 2021-12-17 Phase image generation device, phase image generation method, and defocus distance determination method

Country Status (1)

Country Link
JP (1) JP2023090248A (en)

Similar Documents

Publication Publication Date Title
Schaffer et al. High-speed pattern projection for three-dimensional shape measurement using laser speckles
Yi et al. Visual method for measuring the roughness of a grinding piece based on color indices
JP2012521005A (en) Optical gauge and three-dimensional surface profile measuring method
Vladimirov Speckle metrology of dynamic macro-and microprocesses in deformable media
Zhang et al. Accuracy improvement in laser stripe extraction for large-scale triangulation scanning measurement system
Mériaudeau et al. Review and comparison of non-conventional imaging systems for three-dimensional digitization of transparent objects
Lee et al. Three-dimensional sensing methodology combining stereo vision and phase-measuring profilometry based on dynamic programming
Li et al. Optimal wavelength selection strategy in temporal phase unwrapping with projection distance minimization
TWI428569B (en) Distance measurement method and system, and processing software thereof
Wu et al. Direct particle depth displacement measurement in DHPTV using spatial correlation of focus metric curves
Tu et al. Laser stripe matching algorithm with coplanar constraint in underwater laser scanning systems
JP2023090248A (en) Phase image generation device, phase image generation method, and defocus distance determination method
Peng et al. Volume monitoring of the milling tool tip wear and breakage based on multi-focus image three-dimensional reconstruction
Schaffer et al. Statistical patterns: an approach for high-speed and high-accuracy shape measurements
Csencsics et al. Efficient framework for the simulation of translational and rotational laser speckle displacement in optical sensor assemblies
JP2023090216A (en) Phase image generation device, phase image generation method, and regularization parameter determination method
Lertrusdachakul et al. Dynamic (de) focused projection for three-dimensional reconstruction
Heikkinen Defocused speckle imaging for remote surface motion measurements
Heist et al. BRDF-dependent accuracy of array-projection-based 3D sensors
Csencsics et al. Speckle simulation tool for the design of laser-based displacement sensors
Shao et al. Experimental investigation of strain errors in stereo-digital image correlation due to camera calibration
Hyun et al. High-speed 3D surface measurement with mechanical projector
Cui et al. Biprism-based monocular stereovision system parameter optimization
Meguenani et al. Deflectometry based on light-field imaging
Marin et al. Design of three-dimensional structured-light sensory systems for microscale measurements

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240617