JP6264715B2 - Microscope system - Google Patents

Microscope system Download PDF

Info

Publication number
JP6264715B2
JP6264715B2 JP2016140165A JP2016140165A JP6264715B2 JP 6264715 B2 JP6264715 B2 JP 6264715B2 JP 2016140165 A JP2016140165 A JP 2016140165A JP 2016140165 A JP2016140165 A JP 2016140165A JP 6264715 B2 JP6264715 B2 JP 6264715B2
Authority
JP
Japan
Prior art keywords
subject
illumination
light
wavelength
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016140165A
Other languages
Japanese (ja)
Other versions
JP2016181010A (en
Inventor
大木 裕史
裕史 大木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2016140165A priority Critical patent/JP6264715B2/en
Publication of JP2016181010A publication Critical patent/JP2016181010A/en
Application granted granted Critical
Publication of JP6264715B2 publication Critical patent/JP6264715B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、観察に適した照明光の強度分布を導き出して形成する顕微鏡システムに関する。   The present invention relates to a microscope system that derives and forms an intensity distribution of illumination light suitable for observation.

明視野顕微鏡では、照明光の強度分布の調整を円形の絞りを可変させて調整する。また、観察者の判断で絞りの形状を選択して使用することもあった。位相差顕微鏡では、リング絞り及び位相リングが照明光の強度分布を形成している。   In the bright field microscope, the intensity distribution of the illumination light is adjusted by changing the circular aperture. In some cases, the shape of the diaphragm is selected and used at the discretion of the observer. In the phase contrast microscope, the ring diaphragm and the phase ring form an intensity distribution of illumination light.

照明光の強度分布は被検体の観察像に大きな影響を及ぼすため、円形の絞り、リング絞り及び位相リング等に改良を加えて被検体の観察画像をより良いものにするような工夫がされている。例えば、特許文献1では位相リングのリング状に設けられたリング領域を取り囲むように変調部を設け、変調部と変調部以外の領域との透過軸の方向が異なるように形成することによりコントラストを連続可変可能な位相差顕微鏡が示されている。   Since the intensity distribution of the illumination light has a large effect on the observation image of the subject, improvements have been made to improve the observation image of the subject by improving the circular diaphragm, ring diaphragm, phase ring, etc. Yes. For example, in Patent Document 1, a modulation unit is provided so as to surround a ring region provided in a ring shape of a phase ring, and the contrast is obtained by forming the modulation unit and the region other than the modulation unit so that the directions of the transmission axes are different. A continuously variable phase contrast microscope is shown.

特開2009−237109号公報JP 2009-237109 A

第1観点の顕微鏡システムは、照明光を被検体に照射する照明光源と、被検体の透過光又は反射光を結像する結像光学系と、結像光学系の瞳の共役位置における照明光の強度分布を変化させる第1空間光変調素子を有し、照明光源からの光を被検体に照射する照明光学系と、結像光学系を介した光を検出するイメージセンサと、第1空間光変調素子で照明光の強度分布を変化させるごとに、照明光の強度分布を変化させた後にイメージセンサで検出される出力データと照明光の強度分布を変化させる前にイメージセンサで検出された出力データとを比較し、被検体の観察に適した照明光の強度分布を逐次的に求める計算部と、を備える。   A microscope system according to a first aspect includes an illumination light source that irradiates a subject with illumination light, an imaging optical system that forms an image of transmitted light or reflected light of the subject, and illumination light at a conjugate position of a pupil of the imaging optical system. An illumination optical system that irradiates the subject with light from the illumination light source, an image sensor that detects light via the imaging optical system, and a first space Each time the intensity distribution of the illumination light is changed by the light modulation element, the output data detected by the image sensor after changing the intensity distribution of the illumination light and detected by the image sensor before changing the intensity distribution of the illumination light. A calculation unit that sequentially compares the output data and obtains the intensity distribution of illumination light suitable for observation of the subject.

顕微鏡システム100の概略構成図である。1 is a schematic configuration diagram of a microscope system 100. FIG. (a)は、第1空間光変換素子90が液晶パネル93である場合の概略構成図である。 (b)は、第1空間光変換素子90がデジタルマイクロミラーデバイス(DMD)94である場合の概略構成図である。(A) is a schematic block diagram in case the 1st spatial light conversion element 90 is the liquid crystal panel 93. FIG. FIG. 6B is a schematic configuration diagram when the first spatial light conversion element 90 is a digital micromirror device (DMD) 94. 適した照明領域91を見つける山登り法のフローチャートであるIt is a flowchart of the hill-climbing method for finding a suitable illumination area 91 表示部21の領域設定部22及びパラメータ設定部23の図である。4 is a diagram of an area setting unit 22 and a parameter setting unit 23 of the display unit 21. FIG. 第1空間光変換素子90の照明領域91を設定する場合の表示部21の図である。It is a figure of the display part 21 in the case of setting the illumination area 91 of the 1st spatial light conversion element 90. FIG. 第1空間光変換素子90で形成された照明領域91概略平面図である。6 is a schematic plan view of an illumination area 91 formed by a first spatial light conversion element 90. FIG. 遺伝的アルゴリズムを用いたフローチャートである。It is a flowchart using a genetic algorithm. (a)は、大きな直径の円状の照明領域91を有する第1空間光変換素子90の概略平面図である。 (b)は、小さな直径の円状の照明領域91を有する第1空間光変換素子90の概略平面図である。 (c)は、円環状の照明領域91を有する第1空間光変換素子90の概略平面図である。 (d)は、4つの小さな円形の照明領域91が光軸に対して軸対称に配置された照明領域91を有する第1空間光変換素子90の概略平面図である。 (e)は、2つの四角形の照明領域91を有し、光軸に対して軸対称に配置された照明領域91を有する第1空間光変換素子90の概略平面図である。 (f)は、照明領域91が非軸対称に形成されている第1空間光変換素子90の概略平面図である。(A) is a schematic plan view of the first spatial light conversion element 90 having a circular illumination area 91 having a large diameter. (B) is a schematic plan view of the first spatial light conversion element 90 having a circular illumination region 91 having a small diameter. (C) is a schematic plan view of the first spatial light conversion element 90 having an annular illumination area 91. (D) is a schematic plan view of a first spatial light conversion element 90 having an illumination area 91 in which four small circular illumination areas 91 are arranged axially symmetrically with respect to the optical axis. (E) is a schematic plan view of a first spatial light conversion element 90 having two rectangular illumination areas 91 and having illumination areas 91 arranged symmetrically about the optical axis. (F) is a schematic plan view of the first spatial light conversion element 90 in which the illumination region 91 is formed non-axisymmetrically. (a)は、図7(a)と図7(b)との組み合わせ例を示した図である。 (b)は、図7(a)と図7(d)との組み合わせ例を示した図である。(A) is the figure which showed the example of a combination of Fig.7 (a) and FIG.7 (b). (B) is the figure which showed the example of a combination of Fig.7 (a) and FIG.7 (d). 被検体60の位相情報の推定方法1のフローチャートである。3 is a flowchart of a method 1 for estimating phase information of a subject 60; 表示部21のパラメータ設定部23に示された物体情報取得画面23dの図である。It is a figure of the object information acquisition screen 23d shown by the parameter setting part 23 of the display part 21. FIG. 被検体60の微細構造情報の推定方法のフローチャートである。4 is a flowchart of a method for estimating fine structure information of a subject 60. 被検体60の照明光の波長に対する性質の情報の推定方法を示したフローチャートである。5 is a flowchart illustrating a method for estimating information on properties of a subject 60 with respect to the wavelength of illumination light. 被検体60の位相情報の推定方法2のフローチャートである。10 is a flowchart of a method 2 for estimating phase information of a subject 60; 第1空間光変換素子90の概略図が示された表示部21の図である。It is the figure of the display part 21 by which the schematic of the 1st spatial light conversion element 90 was shown. 顕微鏡システム200の概略構成図である。1 is a schematic configuration diagram of a microscope system 200. FIG. 物体の空間周波数情報検出方法のフローチャートである。It is a flowchart of the spatial frequency information detection method of an object. (a)は、被検体60が集積回路(IC)である場合の第2イメージセンサ280で検出された瞳273の像の画像が示された表示部21の図である。 (b)は、被検体60が生体である場合の第2イメージセンサ280で検出された瞳273の像の画像が示された表示部21の図である。 (c)は、被検体60が生体である場合の第2イメージセンサ280で検出された赤・青・緑の各波長における瞳273の像の画像が示された表示部21の図である。(A) is the figure of the display part 21 in which the image of the image of the pupil 273 detected by the 2nd image sensor 280 in case the test subject 60 is an integrated circuit (IC) is shown. (B) is the figure of the display part 21 in which the image of the image of the pupil 273 detected by the 2nd image sensor 280 in case the subject 60 is a biological body is shown. (C) is the figure of the display part 21 in which the image of the image of the pupil 273 in each wavelength of red, blue, and green detected by the 2nd image sensor 280 when the subject 60 is a living body is shown. (a)は、顕微鏡システム300の概略構成図である。 (b)は、第1空間光変調素子390の平面図である。 (c)は、第2空間光変調素子396の平面図である。(A) is a schematic block diagram of the microscope system 300. FIG. FIG. 7B is a plan view of the first spatial light modulator 390. (C) is a plan view of the second spatial light modulator 396.

特許文献1のような顕微鏡では、絞りの形状がある程度決まっており、照明光の強度分布の調整には制限があった。また、絞りの形状を選ぶ場合も観察者の判断又は経験を元にして選ぶため、必ずしも絞りの形状が観察中の物体の像を最良の状態で観察できる形状になっているわけではなかった。さらに位相差顕微鏡では、リング絞りと位相リングの位置は固定されているために形状を自由に選ぶことができず、観察中の物体の像を最適の状態で観察することが困難であった。
そこで、被検体を観察するために適した照明光の強度分布を導き出して形成する顕微鏡システムを提供する。
(第1実施例)
第1実施例として、絞りの形状を自由に変えることができ、さらに観察中の物体の像を良い状態で観察するために適した照明光の強度分布を導き出して自動的に調整される顕微鏡システム100について説明する。
In a microscope such as Patent Document 1, the shape of the diaphragm is determined to some extent, and there is a limitation in adjusting the intensity distribution of illumination light. Further, since the diaphragm shape is selected based on the judgment or experience of the observer, the shape of the diaphragm is not necessarily a shape that allows the image of the object being observed to be observed in the best condition. Further, in the phase contrast microscope, since the positions of the ring stop and the phase ring are fixed, the shape cannot be freely selected, and it is difficult to observe the image of the object under observation in an optimum state.
Therefore, a microscope system that derives and forms an intensity distribution of illumination light suitable for observing a subject is provided.
(First embodiment)
As a first embodiment, a microscope system that can freely change the shape of the aperture and automatically adjust the intensity distribution of illumination light that is suitable for observing the image of the object under observation in good condition. 100 will be described.

<顕微鏡システム100>
図1は、顕微鏡システム100の概略構成図である。顕微鏡システム100は主に、照明光源30と、照明光学系40と、ステージ50と、結像光学系70と、イメージセンサ80と、計算部20と、を有している。以下、照明光源30から射出される光束の中心軸をZ軸方向とし、Z軸に垂直で互いに直交する方向をX軸方向及びY軸方向として説明する。
<Microscope system 100>
FIG. 1 is a schematic configuration diagram of a microscope system 100. The microscope system 100 mainly includes an illumination light source 30, an illumination optical system 40, a stage 50, an imaging optical system 70, an image sensor 80, and a calculation unit 20. Hereinafter, the central axis of the light beam emitted from the illumination light source 30 will be referred to as the Z-axis direction, and the directions perpendicular to the Z-axis and perpendicular to each other will be described as the X-axis direction and the Y-axis direction.

照明光源30は、例えば被検体60に白色の照明光を照射する。照明光学系40は、第1コンデンサレンズ41、波長フィルタ44、第1空間光変調素子90及び第2コンデンサレンズ42を備えている。また、結像光学系70は対物レンズ71を備えている。ステージ50は、例えば細胞組織等の未知の構造を有する被検体60を載置してXY軸方向に移動可能である。また、結像光学系70は、被検体60の透過光又は反射光をイメージセンサ80に結像させる。   The illumination light source 30 irradiates the subject 60 with white illumination light, for example. The illumination optical system 40 includes a first condenser lens 41, a wavelength filter 44, a first spatial light modulator 90, and a second condenser lens 42. The imaging optical system 70 includes an objective lens 71. The stage 50 is capable of moving in the XY axis direction by placing a subject 60 having an unknown structure such as a cell tissue. The imaging optical system 70 causes the image sensor 80 to form an image of the transmitted light or reflected light of the subject 60.

照明光学系40の第1空間光変調素子90は、例えば照明光学系40の中の結像光学系70の瞳の位置に対して共役となる位置に配置され、結像光学系70の瞳の共役位置における照明光の強度分布を可変することができる。また、第1空間光変調素子90は自由に形状及び大きさを変化させることができる照明領域91を有しており、照明領域91の大きさ又は形状を変えて、照明光の強度分布を任意に可変させることができる。また波長フィルタ44は、透過する光束の波長を特定の範囲内に制限する。波長フィルタ44には、例えば特定範囲の波長の光のみを透過するバンドパスフィルタが用いられる。波長フィルタ44は脱着が可能であり、複数のそれぞれ異なる波長の光を透過するバンドパスフィルタを用意してその入れ替えを行うことにより波長フィルタ44を透過する光の波長を制御することができる。   The first spatial light modulation element 90 of the illumination optical system 40 is disposed at a position conjugate to the position of the pupil of the imaging optical system 70 in the illumination optical system 40, for example. The intensity distribution of illumination light at the conjugate position can be varied. Further, the first spatial light modulator 90 has an illumination area 91 whose shape and size can be freely changed, and the intensity distribution of illumination light can be arbitrarily changed by changing the size or shape of the illumination area 91. Can be varied. The wavelength filter 44 limits the wavelength of the transmitted light beam within a specific range. As the wavelength filter 44, for example, a band pass filter that transmits only light in a specific range of wavelengths is used. The wavelength filter 44 is detachable, and the wavelength of the light transmitted through the wavelength filter 44 can be controlled by preparing and replacing a plurality of band pass filters that transmit light of different wavelengths.

計算部20は、イメージセンサ80で検出される出力データを受信してモニター等の表示部21に表示させる。さらに出力データを解析し、被検体60の観察に適した照明光の強度分布を計算する。また、計算部20は、第1空間光変調素子90の照明領域91の制御及び駆動等及び波長フィルタ44を透過する光束の波長範囲の制御を行うことができる。   The calculation unit 20 receives the output data detected by the image sensor 80 and displays it on the display unit 21 such as a monitor. Further, the output data is analyzed, and the intensity distribution of illumination light suitable for observation of the subject 60 is calculated. In addition, the calculation unit 20 can control and drive the illumination area 91 of the first spatial light modulator 90 and control the wavelength range of the light beam that passes through the wavelength filter 44.

図1では、照明光源30から射出された光が点線で示されている。照明光源30から射出された光LW11は第1コンデンサレンズ41で平行な光LW12に変換される。光LW12は、波長フィルタ44を透過することにより波長の範囲が特定されて第1空間光変調素子90に入射する。第1空間光変調素子90の照明領域91を通過した光LW13は第2コンデンサレンズ42を透過して光LW14になり、ステージ50に向かう。ステージ50を透過した光LW15は結像光学系70を透過して光LW16となり、イメージセンサ80に被検体60の像を形成する。   In FIG. 1, the light emitted from the illumination light source 30 is indicated by a dotted line. The light LW11 emitted from the illumination light source 30 is converted into parallel light LW12 by the first condenser lens 41. The light LW 12 passes through the wavelength filter 44, has a wavelength range specified, and enters the first spatial light modulator 90. The light LW 13 that has passed through the illumination area 91 of the first spatial light modulator 90 passes through the second condenser lens 42 to become light LW 14, and travels toward the stage 50. The light LW15 that has passed through the stage 50 passes through the imaging optical system 70 to become light LW16, and forms an image of the subject 60 on the image sensor 80.

イメージセンサ80で検出された被検体60の像は出力データとして計算部20に送られる。計算部20は、イメージセンサ80から得られた出力データ、波長フィルタ44の透過波長及び第1空間光変調素子90により形成される照明領域91の形状データに基づいて被検体60の構造を推定し、被検体60の観察に適した照明形状、つまり照明光の強度分布を計算する。そして、計算された被検体60の観察に適した形状は第1空間光変調素子90に送信され、照明領域91は被検体60の観察に適した照明形状に整形される。また同様に、被検体60の観察に適した照明光の波長も計算部20により計算されて、波長フィルタ44に被検体60の観察に最適なバンドパスフィルタが選択される。   The image of the subject 60 detected by the image sensor 80 is sent to the calculation unit 20 as output data. The calculation unit 20 estimates the structure of the subject 60 based on the output data obtained from the image sensor 80, the transmission wavelength of the wavelength filter 44, and the shape data of the illumination region 91 formed by the first spatial light modulator 90. The illumination shape suitable for observation of the subject 60, that is, the intensity distribution of the illumination light is calculated. Then, the calculated shape suitable for observation of the subject 60 is transmitted to the first spatial light modulator 90, and the illumination area 91 is shaped into an illumination shape suitable for observation of the subject 60. Similarly, the wavelength of illumination light suitable for observing the subject 60 is also calculated by the calculation unit 20, and a bandpass filter optimal for observing the subject 60 is selected as the wavelength filter 44.

<照明光学系40>
第1空間光変換素子90には、液晶パネル93及びデジタルマイクロミラーデバイス(DMD)94等を用いることができる。これらを用いた場合の第1空間光変換素子90について図2を用いて説明する。
<Illumination optical system 40>
As the first spatial light conversion element 90, a liquid crystal panel 93, a digital micromirror device (DMD) 94, or the like can be used. The first spatial light conversion element 90 using these will be described with reference to FIG.

図2(a)は、第1空間光変換素子90が液晶パネル93である場合の概略構成図である。液晶パネル93は、例えば、液晶フィルム93aと第1偏光フィルム93bと第2偏光フィルム93cとにより構成される。液晶フィルム93aには液晶材が充填され薄膜トランジスタ(TFT)等の電極が形成されており液晶フィルム93aの任意の箇所に電圧をかけることができる。照明光源30から発せられた光LW11は第1コンデンサレンズ41で平行な光LW12に変換され、波長フィルタ44により波長の範囲が特定されて、第1偏光フィルム93bで一方向に偏光された光LW12aのみに制限される。光LW12aは液晶フィルム93aで、液晶フィルム93aに電圧がかけられて90度偏光された光LW12cと、液晶フィルム93aに電圧がかけられずに偏光されない光LW12bとに変換される。第2偏光フィルム93cは第1偏光フィルム93bを透過する光の90度偏光された光のみを透過するように配置されている。そのため、第2偏光フィルム93cは光LW12cのみが第2偏光フィルム93cを透過して光LW13が透過される。液晶パネル93では、液晶フィルム93aの電圧をかける位置を制御することにより照明領域91が任意の形状に形成される。   FIG. 2A is a schematic configuration diagram when the first spatial light conversion element 90 is a liquid crystal panel 93. The liquid crystal panel 93 includes, for example, a liquid crystal film 93a, a first polarizing film 93b, and a second polarizing film 93c. The liquid crystal film 93a is filled with a liquid crystal material to form an electrode such as a thin film transistor (TFT), and a voltage can be applied to any part of the liquid crystal film 93a. The light LW11 emitted from the illumination light source 30 is converted into parallel light LW12 by the first condenser lens 41, the wavelength range is specified by the wavelength filter 44, and the light LW12a polarized in one direction by the first polarizing film 93b Limited to only. The light LW12a is a liquid crystal film 93a, and is converted into light LW12c that is polarized by 90 degrees by applying a voltage to the liquid crystal film 93a and light LW12b that is not polarized without being applied to the liquid crystal film 93a. The second polarizing film 93c is disposed so as to transmit only the 90-degree polarized light of the light transmitted through the first polarizing film 93b. Therefore, only the light LW12c is transmitted through the second polarizing film 93c and the light LW13 is transmitted through the second polarizing film 93c. In the liquid crystal panel 93, the illumination area 91 is formed in an arbitrary shape by controlling the position where the voltage of the liquid crystal film 93a is applied.

図2(b)は、第1空間光変換素子90がデジタルマイクロミラーデバイス(DMD)94である場合の概略構成図である。DMD94の表面には小さい複数の可動反射ミラー(不図示)の集合体により形成されており、各ミラーはそれぞれ独立に動かすことができる。照明光源30から発せられた光LW11は第1コンデンサレンズ41で平行な光LW12に変換され、波長フィルタ44により波長の範囲が特定されて、DMD94の全体に照射される。DMD94の領域94aに配置されている可動反射ミラーを光LW11が被検体60に反射される向きに向けられた場合、光LW13aが被検体60に照射される。第1空間光変換素子90にDMD94を使用する場合には、どの位置の可動反射ミラーを動かすかを制御することにより、被検体60に対して任意の形状に光を照射することができる。これは、図1に示された第1空間変調素子90の照明領域91が任意の形状に形成されることに相当する。   FIG. 2B is a schematic configuration diagram when the first spatial light conversion element 90 is a digital micromirror device (DMD) 94. The surface of the DMD 94 is formed by an aggregate of a plurality of small movable reflecting mirrors (not shown), and each mirror can be moved independently. The light LW11 emitted from the illumination light source 30 is converted into parallel light LW12 by the first condenser lens 41, the wavelength range is specified by the wavelength filter 44, and the entire DMD 94 is irradiated. When the movable reflecting mirror disposed in the region 94a of the DMD 94 is directed in the direction in which the light LW11 is reflected by the subject 60, the light LW13a is irradiated to the subject 60. When the DMD 94 is used for the first spatial light conversion element 90, the object 60 can be irradiated with light in an arbitrary shape by controlling which position of the movable reflection mirror is moved. This corresponds to the illumination area 91 of the first spatial modulation element 90 shown in FIG. 1 being formed in an arbitrary shape.

第1空間光変換素子90には、エレクトロクロミック素子を使用してもよい。エレクトロクロミック素子は主に、TFT等の透明電極とエレクトロクロミック層とを組み合わせた積層構造から成っている。エレクトロクロミック層は、電圧が印加されるとその電圧が印加された領域には可逆的に電解酸化または還元反応が起こり、光を透過する状態及び光を透過しない状態を可逆的に変化させることができる。そのため、エレクトロクロミック素子では、エレクトロクロミック層の電圧をかける位置を制御することにより照明領域91が任意の形状に形成される。エレクトロクロミック素子の構造や動作の詳細は、例えば特開平8−220568に開示されている。   An electrochromic element may be used for the first spatial light conversion element 90. The electrochromic element mainly has a laminated structure in which a transparent electrode such as a TFT and an electrochromic layer are combined. When a voltage is applied to an electrochromic layer, an electrolytic oxidation or reduction reaction occurs reversibly in a region where the voltage is applied, and the state of transmitting light and the state of not transmitting light can be reversibly changed. it can. Therefore, in the electrochromic element, the illumination region 91 is formed in an arbitrary shape by controlling the position where the voltage of the electrochromic layer is applied. Details of the structure and operation of the electrochromic element are disclosed in, for example, Japanese Patent Application Laid-Open No. 8-220568.

また第1空間光変換素子90には、電気刺激の印加によって透過率等の特定の光学特性が変化する電気活性材料が封入され、TFT等の電極が形成された複数の空間を有する光学素子を用いても良い。この光学素子は密封封止されアレイ状に形成されたセルを有しており、各セルには電気活性材料が封入されている。各セルには電極が形成されてセルごとに独立に電圧をかけることができるようになっており、セルにかかる電圧を制御することによりセルを光が透過する状態及び光を透過しない状態を可逆的に変化させることができる。この光学素子では、どのセルに電圧をかけるかを制御することにより照明領域91が任意の形状に形成される。この光学素子の構造や動作の詳細は、例えば特表2010−507119に開示されている。   The first spatial light conversion element 90 includes an optical element having a plurality of spaces in which an electroactive material whose specific optical characteristics such as transmittance are changed by application of electrical stimulation is encapsulated and electrodes such as TFTs are formed. It may be used. This optical element has cells that are hermetically sealed and formed in an array, and each cell is filled with an electroactive material. An electrode is formed in each cell so that a voltage can be applied independently for each cell. By controlling the voltage applied to each cell, the state where light is transmitted through the cell and the state where light is not transmitted are reversible. Can be changed. In this optical element, the illumination region 91 is formed in an arbitrary shape by controlling which cell is applied with voltage. Details of the structure and operation of this optical element are disclosed in, for example, JP-T-2010-507119.

波長フィルタ44は図1では第1コンデンサレンズ41と第1空間光変調素子90との間に配置されているが、イメージセンサ80で特定の波長の光を検出することが目的であるため照明光源30とイメージセンサ80との間のどの位置に配置されていても良い。   Although the wavelength filter 44 is disposed between the first condenser lens 41 and the first spatial light modulator 90 in FIG. 1, the purpose is to detect light of a specific wavelength by the image sensor 80, so that the illumination light source 30 and the image sensor 80 may be arranged at any position.

また、波長フィルタ44及び照明光源30に白色の照明光を照射する光源を用いる代わりに、照明光源30にLED(発光ダイオード)等を用いても良い。照明光源30がLEDにより構成される場合は、例えば赤、青、緑の各波長の光を発するLEDの組み合わせにより構成されることができる。各波長のLEDの点灯及び消灯を計算部20によって制御することにより照明光源30が発する光の波長を制御する。このようにして、LED光源を波長フィルタ44と白色の照明光源との組み合わせの代わりとすることができる。さらに、イメージセンサ80にCCD及びCMOS等の受光波長の異なる受光素子を複数有している撮像素子を用いてもよい。この場合は、例えば赤の波長を有する光を受光する受光素子の信号のみを取り出すことにより、被検体60を透過した赤の波長の透過光を得ることができる。   Further, instead of using a light source for irradiating the wavelength filter 44 and the illumination light source 30 with white illumination light, an LED (light emitting diode) or the like may be used for the illumination light source 30. When the illumination light source 30 is comprised by LED, it can be comprised by the combination of LED which emits the light of each wavelength of red, blue, and green, for example. The wavelength of the light emitted from the illumination light source 30 is controlled by controlling the lighting and extinguishing of the LED of each wavelength by the calculation unit 20. In this way, the LED light source can be substituted for the combination of the wavelength filter 44 and the white illumination light source. Furthermore, an image sensor having a plurality of light receiving elements having different light receiving wavelengths, such as a CCD and a CMOS, may be used as the image sensor 80. In this case, for example, by extracting only a signal from a light receiving element that receives light having a red wavelength, transmitted light having a red wavelength that has passed through the subject 60 can be obtained.

<<照明形状(照明光の強度分布)導出方法>>
被検体60の観察に適した照明形状を計算する方法を以下に説明する。計算方法は焼きなまし法、タブーサーチなど幾つかある。以下、山登り法(最急勾配法)と遺伝的アルゴリズムを用いた方法との2つの方法について説明する。
<< Method for deriving illumination shape (intensity distribution of illumination light) >>
A method for calculating an illumination shape suitable for observation of the subject 60 will be described below. There are several calculation methods, such as annealing method and tabu search. Hereinafter, two methods, a hill-climbing method (steepest gradient method) and a method using a genetic algorithm will be described.

<山登り法>
山登り法は、最初に設定された照明形状を少しずつ変化させていき、変化ごとに画像の出力データを取得して、この出力データが観察者によって設定された条件に最も近くなる条件を探していく方法である。図3を参照しながら以下に説明する。
<Mountain climbing method>
In the hill-climbing method, the illumination shape that was initially set is changed little by little, and the output data of the image is acquired for each change, and the condition that this output data is closest to the condition set by the observer is searched. It is a way to go. This will be described below with reference to FIG.

図3は、照明形状を少しずつ変化させて適した照明形状を見つける山登り法のフローチャートである。
ステップS101では、まず第1空間光変換素子90の照明領域91が初期設定の大きさ及び形状に設定される。例えば初期設定の照明領域91は円形で最大口径である。その状態で、被検体60の像がイメージセンサ80で検出される。被検体60の像の検出は、照明領域91の形状及び大きさを調整する前に、基準となる画像の取得が目的である。イメージセンサ80で検出された被検体60の像の画像の出力データは計算部20に送られ、計算部20に接続されたモニター等の表示部21に被検体60の画像が映し出される。
FIG. 3 is a flowchart of a hill-climbing method for finding a suitable illumination shape by gradually changing the illumination shape.
In step S101, first, the illumination area 91 of the first spatial light conversion element 90 is set to an initial size and shape. For example, the default illumination area 91 is circular and has a maximum aperture. In this state, an image of the subject 60 is detected by the image sensor 80. The purpose of detecting the image of the subject 60 is to acquire a reference image before adjusting the shape and size of the illumination area 91. The output data of the image of the subject 60 detected by the image sensor 80 is sent to the calculation unit 20, and the image of the subject 60 is displayed on the display unit 21 such as a monitor connected to the calculation unit 20.

ステップS102は、表示部21上の領域設定部22(図4A参照)で観察像の観察領域24(図4A参照)が設定される。ステップS101により、領域設定部22には被検体60の画像が映し出される。領域設定部22及び観察領域24の詳細は図4Aで説明される。   In step S102, the observation region 24 (see FIG. 4A) of the observation image is set by the region setting unit 22 (see FIG. 4A) on the display unit 21. In step S101, the region setting unit 22 displays an image of the subject 60. Details of the region setting unit 22 and the observation region 24 will be described with reference to FIG. 4A.

ステップS103では、被検体60の観察像を形成するためのパラメータが設定される。パラメータ設定部23(図4A参照)において、観察者は、被検体60の観察像に関する観察者の要望及び許容される観察条件を入力するためのパラメータを設定することができる。以下、図4Aを参照して表示部21の表示例について説明する。   In step S103, parameters for forming an observation image of the subject 60 are set. In the parameter setting unit 23 (see FIG. 4A), the observer can set parameters for inputting the observer's desires and allowable observation conditions regarding the observation image of the subject 60. Hereinafter, a display example of the display unit 21 will be described with reference to FIG. 4A.

図4Aは、表示部21の領域設定部22及びパラメータ設定部23の図である。表示部21は、マウス及びタッチバッド等により入力を行うGUI(グラフィカルユーザインターフェース)により形成されることが望ましい。GUIは観察者が感覚的に操作を行うことができて操作が容易である。表示部21は、例えば領域設定部22とパラメータ設定部23とを表示することができる。領域設定部22には被検体60の像が表示され、観察者が希望する観察領域を設定することができる。また、パラメータ設定部23では、観察者が希望する観察条件の設定等を入力することができる。例えば、パラメータ設定部23には観察条件設定項目表示画面23aが表示される。観察条件設定項目表示画面23aでは、例えば領域設定、空間周波数帯域設定、波長帯域設定等の項目が表示される。領域設定が選択された場合、表示部21の画面は領域設定画面22aに切り替わる。また、空間周波数帯域設定および波長帯域設定が選択された場合、表示部21の画面はそれぞれ空間周波数帯域設定画面23b及び波長帯域設定画面23cに切り替わる。   FIG. 4A is a diagram of the area setting unit 22 and the parameter setting unit 23 of the display unit 21. The display unit 21 is preferably formed by a GUI (graphical user interface) that performs input using a mouse, a touch pad, or the like. The GUI is easy to operate because the observer can operate it sensuously. The display unit 21 can display, for example, an area setting unit 22 and a parameter setting unit 23. An image of the subject 60 is displayed on the region setting unit 22 and an observation region desired by the observer can be set. Further, the parameter setting unit 23 can input setting of observation conditions desired by the observer. For example, the parameter setting unit 23 displays an observation condition setting item display screen 23a. On the observation condition setting item display screen 23a, items such as region setting, spatial frequency band setting, wavelength band setting, and the like are displayed. When the region setting is selected, the screen of the display unit 21 is switched to the region setting screen 22a. When the spatial frequency band setting and the wavelength band setting are selected, the screen of the display unit 21 is switched to the spatial frequency band setting screen 23b and the wavelength band setting screen 23c, respectively.

領域設定部22は、例えば領域設定画面22aのように表わされる。領域設定部22には、ステップS101で検出された被検体60の画像が表示される。観察者は被検体60の観察像の観察領域24を設定することができる。例えば観察者は被検体60の全体を観察領域24として設定してもよいし、被検体60の一部のみを設定してもよい。さらに、領域設定部22では、一度に2以上の観察領域24が設定されてもよい。また、領域設定部22は、観察者が観察領域24を設定しやすいように、光学的でなく電気的に被検体60を拡大させて表示させてもよいし、被検体60の画像を縮小して被検体60の全体像を表示させても良い。また、観察領域24は、パラメータ設定部23で設定されたパラメータを反映させる領域として設定される。   The area setting unit 22 is represented as an area setting screen 22a, for example. The area setting unit 22 displays an image of the subject 60 detected in step S101. The observer can set the observation area 24 of the observation image of the subject 60. For example, the observer may set the entire subject 60 as the observation region 24 or may set only a part of the subject 60. Further, the region setting unit 22 may set two or more observation regions 24 at a time. In addition, the region setting unit 22 may display the subject 60 in an enlarged manner, not optically, so that the observer can easily set the observation region 24, or reduce the image of the subject 60. The entire image of the subject 60 may be displayed. The observation area 24 is set as an area that reflects the parameters set by the parameter setting unit 23.

また、観察領域24は計算部20により自動で設定されても良い。例えばステップS101において取得した画像出力データのコントラストを求め、コントラストが高い領域及び低い領域を大別する。そして、図4Aの領域設定画面22aにおいてコントラストが低い領域が観察領域24として自動的に設定され、この観察領域24において観察条件を最適化していくことができる。この例では、コントラストは高い領域及び低い領域に大別したが、この2つに限らずコントラストの閾値を適時設定してコントラストが中程度の領域を含む3つ以上の領域に分けるようにしても良い。またこの例ではコントラストが低い領域が観察領域24として設定されたが、これに代えてコントラストが高い領域又は中程度の領域が設定されても良い。さらに、観察領域24の設定はコントラストに基づく方法に限らない。例えば、後述する物体の空間周波数情報の検出方法により導かれる空間周波数等に基づいて観察領域24が自動的に設定されても良い。   The observation area 24 may be automatically set by the calculation unit 20. For example, the contrast of the image output data acquired in step S101 is obtained, and a region having a high contrast and a region having a low contrast are roughly classified. Then, in the region setting screen 22a of FIG. 4A, a region with low contrast is automatically set as the observation region 24, and the observation conditions can be optimized in this observation region 24. In this example, the contrast is roughly divided into a high region and a low region. However, the present invention is not limited to these two, and a threshold value for contrast may be set as appropriate to divide the region into three or more regions including a medium contrast region. good. In this example, an area with low contrast is set as the observation area 24, but instead, an area with high contrast or an intermediate area may be set. Furthermore, the setting of the observation area 24 is not limited to a method based on contrast. For example, the observation region 24 may be automatically set based on a spatial frequency or the like derived by a method for detecting spatial frequency information of an object described later.

空間周波数帯域設定画面23bでは、観察者が希望する被検体60の空間周波数帯域を設定することができる。空間周波数帯域の設定は図4Aに示すように、観察者が数値を入力することによって行っても良いし、複数の選択肢の中から観察者が希望する空間周波数帯域を選択できるようにしても良い。また波長帯域設定画面23cでは、観察者が使用したい又は観察したい光の波長帯域を設定することができる。例えば、後述する物体情報の推定方法1において被検体60の観察に適した波長が推測されている場合には、波長帯域設定画面23cでその波長を設定することができる。波長帯域の設定は図4Aに示すように、観察者が数値を入力することによって行っても良いし、複数の選択肢の中、例えば赤、緑、青等の中から観察者が希望する波長帯域を選択できるようにしても良い。   On the spatial frequency band setting screen 23b, the spatial frequency band of the subject 60 desired by the observer can be set. As shown in FIG. 4A, the spatial frequency band may be set by the observer inputting a numerical value, or the observer may select a desired spatial frequency band from a plurality of options. . In the wavelength band setting screen 23c, the wavelength band of light that the observer wants to use or wants to observe can be set. For example, when a wavelength suitable for observation of the subject 60 is estimated in the object information estimation method 1 described later, the wavelength can be set on the wavelength band setting screen 23c. As shown in FIG. 4A, the wavelength band may be set by the observer inputting a numerical value, or the wavelength band desired by the observer from among a plurality of options, for example, red, green, blue, etc. May be selected.

なお、観察者が観察領域24の設定を望まない場合には、ステップS102をスキップしてもよい。この場合には、イメージセンサ80で検出される被検体60の像全体が観察領域24として設定される。   If the observer does not want to set the observation area 24, step S102 may be skipped. In this case, the entire image of the subject 60 detected by the image sensor 80 is set as the observation region 24.

パラメータは、観察者の要望する条件又は観察者の許容する条件を、図4Aに示したように観察者が表示部21のパラメータ設定部23を使って設定する。設定されるパラメータは、例えば、高いコントラストで観察したい被検体60の特定の場所もしくは被検体60の特定の空間周波数領域等がある。例えば、ステップS102で設定された観察領域24を濃淡(明暗)をつけて観察したい又は観察領域24を細かい像まではっきりを観察したいと要望した場合には、観察者は波長帯域及び空間周波数帯域を設定することができる。   The parameters are set by the observer using the parameter setting unit 23 of the display unit 21 as shown in FIG. 4A. The parameter to be set includes, for example, a specific location of the subject 60 to be observed with high contrast or a specific spatial frequency region of the subject 60. For example, when it is desired to observe the observation region 24 set in step S102 with light and shade (light / dark) or to observe the observation region 24 clearly up to a fine image, the observer sets the wavelength band and the spatial frequency band. Can be set.

さらに観察者は1つのパラメータとして、照明領域91を初期設定することもできる。例えば後述するステップS104において初めに使用する照明領域91の形状を初期設定することができる。また、ステップS101において、被検体60に好ましい照明領域91の形状が推測できる場合等は、その照明領域91の形状を初期設定として使用してもよい。照明領域91の形状を初期設定することにより、照明領域91の形状を最終的に決定するまでの時間を短縮することができる。観察者が照明領域91を初期設定する場合の例を、図4Bを参照して説明する。   Furthermore, the observer can also initially set the illumination area 91 as one parameter. For example, the shape of the illumination area 91 used first in step S104 described later can be initialized. In step S101, when the shape of the illumination area 91 preferable for the subject 60 can be estimated, the shape of the illumination area 91 may be used as an initial setting. By initializing the shape of the illumination area 91, the time until the shape of the illumination area 91 is finally determined can be shortened. An example in which the observer initially sets the illumination area 91 will be described with reference to FIG. 4B.

図4Bは、第1空間光変換素子90の照明領域91を初期設定する場合の表示部21の図である。図4Bには、表示部21の右側と左側との2カ所にパラメータ設定部23が形成されている。右側のパラメータ設定部23には点線で第1空間光変換素子90の平面図が表示されている。また、図4Bには斜線で遮光部92と遮光部92内に形成されている照明領域91とが示されている。さらに図4Bには第1空間光変換素子90の中心軸が認識できるように、座標線97が示されている。観察者は、第1空間光変換素子90の照明領域91の形状を自由に初期設定することができる。照明領域91の形成は、例えば、図4Bの左側のパラメータ設定部23に照明領域91の形状サンプルを示しておいてその中から好きな照明領域91を選択しても良いし、好きな照明領域91を自由に描画して形成しても良い。また、この照明領域91は、第1空間光変換素子90の中心軸に配置される必要はない。つまり、観察者は、図4Bに示されるように、照明領域91を中心軸から離れた位置に設定してもよい。さらに、一度に2以上の照明領域91が設定されてもよい。   FIG. 4B is a diagram of the display unit 21 when the illumination area 91 of the first spatial light conversion element 90 is initially set. In FIG. 4B, parameter setting units 23 are formed at two locations on the right side and the left side of the display unit 21. In the parameter setting unit 23 on the right side, a plan view of the first spatial light conversion element 90 is displayed with a dotted line. In FIG. 4B, the light shielding portion 92 and the illumination area 91 formed in the light shielding portion 92 are indicated by oblique lines. Further, FIG. 4B shows a coordinate line 97 so that the central axis of the first spatial light conversion element 90 can be recognized. The observer can freely initialize the shape of the illumination area 91 of the first spatial light conversion element 90. For example, the illumination area 91 may be formed by displaying a shape sample of the illumination area 91 in the parameter setting unit 23 on the left side of FIG. 4B and selecting a desired illumination area 91 from the shape sample. 91 may be freely drawn and formed. Further, the illumination area 91 does not need to be arranged on the central axis of the first spatial light conversion element 90. That is, the observer may set the illumination region 91 at a position away from the central axis as shown in FIG. 4B. Furthermore, two or more illumination areas 91 may be set at a time.

図4A又は図4Bに示された画面は、ウィンドウ表示で選択的に表示部21に表示される。また、表示部21は領域設定部22またはパラメータ設定部23のみを表示させても良い。   The screen shown in FIG. 4A or 4B is selectively displayed on the display unit 21 in a window display. Further, the display unit 21 may display only the region setting unit 22 or the parameter setting unit 23.

図3に戻って、ステップS104は、計算部20が第1空間光変換素子90の照明領域91の大きさを変化させる。ステップS103で観察者が照明領域91を設定した場合には、計算部20は、その設定された照明領域91を初期設定値として、照明領域91の大きさを変化させる。ステップS103で照明領域91が設定されなかった場合には、計算部20は、ステップS101で設定した初期設定値の照明領域91の大きさをわずかに変化させる。つまり照明光の強度分布をわずかに変化させる。   Returning to FIG. 3, in step S <b> 104, the calculation unit 20 changes the size of the illumination area 91 of the first spatial light conversion element 90. When the observer sets the illumination area 91 in step S103, the calculation unit 20 changes the size of the illumination area 91 using the set illumination area 91 as an initial setting value. When the illumination area 91 is not set in step S103, the calculation unit 20 slightly changes the size of the illumination area 91 having the initial setting value set in step S101. That is, the intensity distribution of the illumination light is slightly changed.

図5を参照して、照明光の強度分布の変化を説明する。図5は、第1空間光変換素子90の概略平面図である。図5では、第1空間光変換素子90の遮光部92の中心部に円形の照明領域91が形成されている。図5は、ステップS103で照明領域91が第1空間光変換素子90の中央部に直径がW13の円として初期設定された場合の例である。   With reference to FIG. 5, a change in the intensity distribution of the illumination light will be described. FIG. 5 is a schematic plan view of the first spatial light conversion element 90. In FIG. 5, a circular illumination area 91 is formed at the center of the light shielding portion 92 of the first spatial light conversion element 90. FIG. 5 shows an example in which the illumination area 91 is initially set as a circle having a diameter of W13 at the center of the first spatial light conversion element 90 in step S103.

遮光部92の直径はW11であり、初期設定の照明領域91の直径はW13である。そしてステップS104で照明領域91の大きさが僅かに変化され、照明領域91の直径はW12になっている。図5の例では、計算部20は、照明領域91の直径を直径W13から直径W13よりも僅かに大きい直径W12へ変化させ、照明光の強度分布を相似のまま変化させている。   The diameter of the light shielding portion 92 is W11, and the diameter of the default illumination area 91 is W13. In step S104, the size of the illumination area 91 is slightly changed, and the diameter of the illumination area 91 is W12. In the example of FIG. 5, the calculation unit 20 changes the diameter of the illumination region 91 from the diameter W13 to a diameter W12 slightly larger than the diameter W13, and changes the intensity distribution of the illumination light while being similar.

ステップS105では、イメージセンサ80はで被検体60の像が検出される。例えば、図5において、直径W12に変化した照明領域91の条件下で、被検体60の像をイメージセンサ80で検出し出力データを計算部20に送る。   In step S105, the image sensor 80 detects an image of the subject 60. For example, in FIG. 5, the image of the subject 60 is detected by the image sensor 80 under the condition of the illumination region 91 changed to the diameter W12, and output data is sent to the calculation unit 20.

ステップS106では、今回計算部20に送られてきた出力データが前回の出力データよりも悪いか否かを判断する。例えば、図4(a)に示した表示部21の領域設定部22で観察領域24を設定し、この観察領域24のコントラストを上げたい旨の設定をパラメータ設定部23で行ったと仮定する。今回得られた出力データ(例えば照明領域91が直径W12の場合)に基づいて計算されたコントラストが、前回得られた出力データ(例えば照明領域91が直径W13の場合)に基づいて計算されたコントラストよりも悪いかを比較する。悪くなっていなければステップS104に戻り照明領域91の直径を変化させ、その出力データを検出する(ステップS105)。つまり、観察領域24のコントラストが上がっているためステップS104に戻って照明領域91の大きさを更に変化させる。一方、コントラストが前回より今回が悪くなっていれば、前回の照明領域91の直径のときが最もコントラストが高いことになる。そこで次のステップS107に進む。   In step S106, it is determined whether or not the output data sent to the calculation unit 20 this time is worse than the previous output data. For example, it is assumed that the observation region 24 is set by the region setting unit 22 of the display unit 21 illustrated in FIG. 4A, and the parameter setting unit 23 is set to increase the contrast of the observation region 24. Contrast calculated based on output data obtained this time (for example, when the illumination area 91 has a diameter W12) is calculated based on output data obtained last time (for example, when the illumination area 91 has a diameter W13). Compare what is worse. If not, the process returns to step S104, the diameter of the illumination area 91 is changed, and the output data is detected (step S105). That is, since the contrast of the observation area 24 is increased, the process returns to step S104 to further change the size of the illumination area 91. On the other hand, if the contrast is worse than the previous time, the contrast is highest when the diameter of the illumination area 91 is the previous time. Therefore, the process proceeds to the next step S107.

ステップS107は、被検体60の観察に適した照明形状が選択される。つまり、観察領域24のコントラストが悪くなる直前に使用された照明形状が被検体60の観察に適した照明形状であるとして、被検体60の観察に使用される。   In step S107, an illumination shape suitable for observation of the subject 60 is selected. That is, the illumination shape used immediately before the contrast of the observation region 24 is deteriorated is used for observation of the subject 60, assuming that the illumination shape is suitable for observation of the subject 60.

上記フローチャートのステップS104において、照明領域91の大きさは相似形で変化した。しかし相似形に変えるのみではなく、形状自体を変化させることにより行っても良い。例えば、円形の照明領域91を最終的に三角形になるように少しずつ形状させたり、円形の照明領域91を最終的に所定幅の円環状になるように少しずつ形状させたりすることもできる。   In step S104 of the flowchart, the size of the illumination area 91 changed in a similar shape. However, it may be performed not only by changing to a similar shape but also by changing the shape itself. For example, the circular illumination area 91 can be formed little by little so that it finally becomes a triangle, or the circular illumination area 91 can be formed little by little so that it finally becomes an annular shape with a predetermined width.

<遺伝的アルゴリズムを用いた方法>
次に遺伝的アルゴリズムを用いた方法について説明する。遺伝的アルゴリズムは、あらかじめ用意された複数の照明形状のそれぞれについて画像データを取得し、その中で被検体60の観察に適した照明形状同士の組み合わせを行うことにより照明形状を探していく方法である。
<Method using genetic algorithm>
Next, a method using a genetic algorithm will be described. The genetic algorithm is a method in which image data is acquired for each of a plurality of illumination shapes prepared in advance, and the illumination shape is searched for by combining the illumination shapes suitable for observation of the subject 60 therein. is there.

図6は、遺伝的アルゴリズムを用いたフローチャートである。
まず、ステップS201で、まず第1空間光変換素子90の照明領域91が初期設定の大きさ及び形状に設定される。例えば初期設定の照明領域91は円形で最大口径である。その状態で、被検体60の像がイメージセンサ80で検出される。
FIG. 6 is a flowchart using a genetic algorithm.
First, in step S201, the illumination area 91 of the first spatial light conversion element 90 is first set to an initial size and shape. For example, the default illumination area 91 is circular and has a maximum aperture. In this state, an image of the subject 60 is detected by the image sensor 80.

ステップS202は、領域設定部22で観察像の観察領域24を設定する。ステップS201により、領域設定部22には被検体60の像の画像が映し出される。   In step S202, the region setting unit 22 sets the observation region 24 of the observation image. By step S201, the image of the subject 60 is displayed on the region setting unit 22.

ステップS203は、被検体60の観察像を形成するためのパラメータが設定される。パラメータ設定部23において、観察者は、被検体60の観察像に関する観察者の要望及び許容される観察条件を入力するためのパラメータを設定することができる。図4Aに示されたパラメータと同じように、設定されるパラメータは、例えば、被検体60の特定の場所、被検体60の空間周波数帯域及び波長帯域等がある。しかし、図4Bのように、観察者が第1空間光変換素子90の照明領域91を設定することはない。計算部20が任意に照明領域91を初期設定する。   In step S203, parameters for forming an observation image of the subject 60 are set. In the parameter setting unit 23, the observer can set parameters for inputting the observer's desire regarding the observation image of the subject 60 and allowable observation conditions. Similar to the parameters shown in FIG. 4A, the set parameters include, for example, a specific location of the subject 60, a spatial frequency band and a wavelength band of the subject 60, and the like. However, as shown in FIG. 4B, the observer does not set the illumination area 91 of the first spatial light conversion element 90. The calculation unit 20 arbitrarily sets the illumination area 91 arbitrarily.

ステップS204では、2以上の複数の初期照明形状を用いて被検体60の像がイメージセンサ80で検出される。そして、計算部20は、複数の照明形状を用いて被検体60を測定した像の画像の各出力データを入手する。図7を参照して複数の照明形状の例を説明する。   In step S <b> 204, the image sensor 80 detects an image of the subject 60 using two or more initial illumination shapes. Then, the calculation unit 20 obtains each output data of an image of an image obtained by measuring the subject 60 using a plurality of illumination shapes. An example of a plurality of illumination shapes will be described with reference to FIG.

図7には、第1空間光変換素子90の様々な照明形状の図を示している。図7では、白抜きの部分が照明領域91、斜線領域が遮光領域92として示されている。
図7(a)は、大きな直径の円状の照明形状を有する第1空間光変換素子90の概略平面図である。第1空間光変換素子90の照明形状は、図7(a)に示すように、照明光学系の光軸に対して軸対称な円形であることができる。図7(b)は、小さな直径の円状の照明形状を示した第1空間光変換素子90の概略平面図である。図7(b)は図7(a)と照明形状の大きさのみが異なる照明光学系40の光軸に対して軸対称な円形である。第1空間光変換素子90の照明形状は、図7(b)に示すように他の図形と相似な形状の図形を含んでいても良い。図7(c)は、大きな円環状の照明形状を有する第1空間光変換素子90の概略平面図である。図7(c)は、図7(a)の大きな円状の照明形状において中心部分が遮光されている。
FIG. 7 shows various illumination shapes of the first spatial light conversion element 90. In FIG. 7, a white portion is shown as an illumination area 91 and a shaded area is shown as a light shielding area 92.
FIG. 7A is a schematic plan view of the first spatial light conversion element 90 having a circular illumination shape with a large diameter. As shown in FIG. 7A, the illumination shape of the first spatial light conversion element 90 can be a circle that is axially symmetric with respect to the optical axis of the illumination optical system. FIG. 7B is a schematic plan view of the first spatial light conversion element 90 showing a circular illumination shape with a small diameter. FIG. 7B shows a circular shape that is axisymmetric with respect to the optical axis of the illumination optical system 40 that differs from FIG. 7A only in the size of the illumination shape. The illumination shape of the first spatial light conversion element 90 may include a figure having a shape similar to other figures as shown in FIG. FIG. 7C is a schematic plan view of the first spatial light conversion element 90 having a large annular illumination shape. In FIG. 7C, the central portion is shielded from light in the large circular illumination shape of FIG.

また、図7(d)は、4つの小さな直径の円形の照明領域91が光軸に対して軸対称に配置された照明形状を有する第1空間光変換素子90の概略平面図である。図7(e)は、2つの四角形の照明領域91を有し、光軸に対して軸対称に配置された照明形状を有する第1空間光変換素子90の概略平面図である。   FIG. 7D is a schematic plan view of a first spatial light conversion element 90 having an illumination shape in which four circular illumination areas 91 having a small diameter are arranged symmetrically with respect to the optical axis. FIG. 7E is a schematic plan view of a first spatial light conversion element 90 having two rectangular illumination areas 91 and having an illumination shape arranged symmetrically with respect to the optical axis.

図7(f)は、照明領域91が光軸に対して非軸対称に形成されている第1空間光変換素子90の概略平面図である。図7(f)では、第1空間光変換素子90の照明形状が三日月形に形成されており、光軸に対して非軸対称になっている。通常、非軸対称の照明領域91は傾斜照明になることが多いため被検体60のコントラストを上げることができる。しかし、非軸対称の照明領域91は物体の一部のみのコントラストを上げて偏った画像となり、被検体60の全体の観察には適さないことがある。そのため、遺伝的アルゴリズム用に、図4(a)に示した表示部21のパラメータ設定部23において、非軸対称の開口の使用の有無を選択できるようになっていることが望ましい。   FIG. 7F is a schematic plan view of the first spatial light conversion element 90 in which the illumination area 91 is formed non-axisymmetrically with respect to the optical axis. In FIG.7 (f), the illumination shape of the 1st spatial light conversion element 90 is formed in the crescent moon shape, and is non-axisymmetric with respect to the optical axis. Normally, the non-axisymmetric illumination area 91 is often inclined illumination, so that the contrast of the subject 60 can be increased. However, the non-axisymmetric illumination area 91 becomes a biased image by increasing the contrast of only a part of the object, and may not be suitable for the entire observation of the subject 60. Therefore, it is desirable for the genetic algorithm to be able to select whether or not a non-axisymmetric opening is used in the parameter setting unit 23 of the display unit 21 shown in FIG.

図6に戻って、ステップS205では、ステップS204で入手した被検体60の画像の各出力データを比較し、この中で最も設定したパラメータに適した照明形状により形成される第1照明光強度分布と2番目に適した照明形状により形成される第2照明光強度分布とが選択される。   Returning to FIG. 6, in step S205, the output data of the image of the subject 60 obtained in step S204 are compared, and the first illumination light intensity distribution formed by the illumination shape suitable for the most set parameter among these is set. And the second illumination light intensity distribution formed by the second most suitable illumination shape are selected.

ステップS206では、計算部20が、遺伝的アルゴリズムの交叉又は突然変異の手法によって第1照明強度分布と第2照明強度分布とから次世代の照明光強度分布を有する照明形状を形成する。次世代の照明光強度分布を有する照明形状の形成例を、図8を参照して説明する。   In step S206, the calculation unit 20 forms an illumination shape having a next-generation illumination light intensity distribution from the first illumination intensity distribution and the second illumination intensity distribution using a genetic algorithm crossover or mutation technique. An example of forming an illumination shape having a next-generation illumination light intensity distribution will be described with reference to FIG.

図8(a)は、図7(a)と図7(b)との第1空間光変換素子90の組み合わせ例を示した図である。ステップS205において、第1照明光強度分布が図7(a)に示した大きな直径の円状の照明形状であり、第2照明光強度分布が図7(b)に示した小さな直径の円状の照明形状であった場合である。計算部20はこの2つを交叉(組み合わせ)させることにより複数の新たな照明形状を形成することができる。形成された照明形状は、例えば図7(a)の照明領域91よりも僅かに小さい直径の照明領域91を有する第1空間光変換素子90a、図7(b)の照明領域91よりも僅かに大きい直径の照明領域91を有する第1空間光変換素子90b、照明領域91が楕円状に形成されている第1空間光変換素子90c等がある。   FIG. 8A is a diagram showing a combination example of the first spatial light conversion elements 90 in FIGS. 7A and 7B. In step S205, the first illumination light intensity distribution is a circular illumination shape having a large diameter as shown in FIG. 7A, and the second illumination light intensity distribution is a circle having a small diameter as shown in FIG. 7B. This is the case of the illumination shape. The calculation unit 20 can form a plurality of new illumination shapes by crossing (combining) the two. The formed illumination shapes are, for example, a first spatial light conversion element 90a having an illumination region 91 having a slightly smaller diameter than the illumination region 91 in FIG. 7A, and slightly more than the illumination region 91 in FIG. 7B. There are a first spatial light conversion element 90b having an illumination area 91 with a large diameter, a first spatial light conversion element 90c in which the illumination area 91 is formed in an elliptical shape, and the like.

図8(b)は、図7(a)と図7(d)との第1空間光変換素子90の組み合わせ例を示した図である。ステップS205において、第1照明光強度分布が図7(a)に示した大きな直径を円状の照明形状であり、第2照明光強度分布が図7(d)に示した4つの小さな円形の照明領域91が光軸に対して軸対称に配置された照明形状であった場合である。計算部20はこの2つを交叉(組み合わせ)させることにより、例えば4つの円環の一部が光軸に対して軸対称に配置された照明領域91を有する第1空間光変換素子90d、照明領域91が「×」の形状に形成された第1空間光変換素子90e等が形成されることができる。   FIG. 8B is a diagram showing a combination example of the first spatial light conversion elements 90 in FIGS. 7A and 7D. In step S205, the first illumination light intensity distribution has a circular shape with a large diameter shown in FIG. 7A, and the second illumination light intensity distribution has four small circular shapes shown in FIG. 7D. This is a case where the illumination region 91 has an illumination shape arranged symmetrically with respect to the optical axis. The calculation unit 20 crosses (combines) the two so that, for example, a first spatial light conversion element 90d having an illumination region 91 in which a part of four circular rings are arranged in axial symmetry with respect to the optical axis, illumination The first spatial light conversion element 90e or the like in which the region 91 is formed in the shape of “x” can be formed.

図8(a)及び図8(b)は、組み合わせの一つの例である。実際は第1空間光変換素子90の形状はランダムに形成されるため、新たに形成される照明領域91の形状は無数に存在する。新たに形成される照明領域91の形状の数は幾つでも良い。また、他の方法で組み合わせることも可能である。例えば、第1空間光変換素子90を細かい複数の領域に分けて、各領域対して組み換え及び突然変異等の操作を行っても良い。また独自の関数を作成し、その関数に従って組み合わせを行っても良い。   FIG. 8A and FIG. 8B are examples of combinations. Actually, since the shape of the first spatial light conversion element 90 is randomly formed, there are an infinite number of newly formed illumination regions 91. Any number of the illumination areas 91 may be newly formed. It is also possible to combine them by other methods. For example, the first spatial light conversion element 90 may be divided into a plurality of fine regions, and operations such as recombination and mutation may be performed on each region. Also, an original function may be created and combined according to the function.

図6に戻って、ステップS207では、第1照明強度分布、第2照明強度分布及び次世代の照明強度分布から新たに被検体60の観察に最適な第1照明強度分布と2番目に最適な第2照明強度分布とが選択される。   Returning to FIG. 6, in step S207, the first illumination intensity distribution that is newly optimal for observation of the subject 60 and the second optimum illumination intensity are newly determined from the first illumination intensity distribution, the second illumination intensity distribution, and the next-generation illumination intensity distribution. A second illumination intensity distribution is selected.

ステップS208では、所定の世代、例えば1000世代まで交叉又は突然変異が行われたかを判断する。所定の世代まで交叉等が行われていない場合はステップS206に戻ってより被検体の観察に適した照明強度分布を探索していく。所定の世代まで交叉等が行われればステップS209に進む。   In step S208, it is determined whether crossover or mutation has been performed up to a predetermined generation, for example, 1000 generations. If crossover or the like has not been performed until a predetermined generation, the process returns to step S206 to search for an illumination intensity distribution suitable for observation of the subject. If crossover or the like is performed up to a predetermined generation, the process proceeds to step S209.

ステップS209では、所定の世代、例えば1000世代までの交叉等で得られた照明領域91から、観察者が要望した条件に近い世代の照明形状が選択される。以降、その世代の照明形状の第1空間光変換素子90が被検体60の観察に使用される。   In step S209, an illumination shape of a generation close to the condition desired by the observer is selected from the illumination area 91 obtained by crossing up to a predetermined generation, for example, up to 1000 generations. Thereafter, the first spatial light conversion element 90 having the illumination shape of that generation is used for observation of the subject 60.

<<物体情報の推定方法1>>
被検体60の構造又は性質が未知の場合には、被検体60に最適な照明形状を導出する前に被検体60の構造又は性質の情報を取得しておくことが望ましい。被検体60の構造又は性質を最適な観察条件を推定する場合の参考とすることで、より短時間で確実に最適な観察条件を求めることができるためである。以下に被検体60の位相情報、微細構造の情報、及び照明光の波長に対する性質の情報の推定方法を説明する。
<< Object Information Estimation Method 1 >>
When the structure or property of the subject 60 is unknown, it is desirable to obtain information on the structure or property of the subject 60 before deriving an optimal illumination shape for the subject 60. This is because the optimum observation condition can be reliably obtained in a shorter time by using the structure or property of the subject 60 as a reference when estimating the optimum observation condition. Hereinafter, a method for estimating the phase information of the subject 60, the information on the fine structure, and the property information with respect to the wavelength of the illumination light will be described.

<物体の位相情報の推定方法1>
第1空間光変換素子90の照明領域91の形状を変えて被検体60を観察することにより、被検体60がコントラストが高い強度物体であるか、コントラストが低い位相物体であるかを推定することができる。被検体60が位相物体であるか強度物体であるか否かはコヒーレンスファクタ(σ)値が異なる光を被検体60に照射することにより推定することができる。σ値は、σ=NA’/NAにより定義される。NA’は照明光学系40の開口数であり、NAは対物レンズ71の開口数である。照明光学系40の開口数NA’は第1空間光変調素子90の照明領域91の形状を変えることにより制御することができる。NA’は、照明領域91を点形状にする(以下、点光源という。)ことによってσ値は0とみなすことができる。また、第1空間光変調素子90の照明領域91を直径の大きな円形状としたときにNA’は1となる。
<Method 1 for Estimating Object Phase Information>
By observing the subject 60 by changing the shape of the illumination area 91 of the first spatial light conversion element 90, it is estimated whether the subject 60 is a high-contrast intensity object or a low-contrast phase object. Can do. Whether the subject 60 is a phase object or an intensity object can be estimated by irradiating the subject 60 with light having different coherence factor (σ) values. The σ value is defined by σ = NA ′ / NA. NA ′ is the numerical aperture of the illumination optical system 40, and NA is the numerical aperture of the objective lens 71. The numerical aperture NA ′ of the illumination optical system 40 can be controlled by changing the shape of the illumination area 91 of the first spatial light modulator 90. NA ′ can be regarded as having a σ value of 0 by making the illumination area 91 point-shaped (hereinafter referred to as a point light source). In addition, NA ′ is 1 when the illumination area 91 of the first spatial light modulator 90 is circular with a large diameter.

図9Aは、被検体60の位相情報の推定方法1のフローチャートである。
まず、ステップS301で、観察者が、図9Bの表示部21に示された物体情報取得画面23eの位相情報を選択する。
FIG. 9A is a flowchart of the method 1 for estimating the phase information of the subject 60.
First, in step S301, the observer selects phase information on the object information acquisition screen 23e shown on the display unit 21 in FIG. 9B.

図9Bは、物体情報の推定方法を行う場合の表示部21の領域設定部22及びパラメータ設定部23の図である。まず、表示部21のパラメータ設定部23には物体情報取得画面23dが表示される。観察者は、物体情報取得画面23dで物体の位相情報の推定方法1を行う場合は物体情報検出1を選択し、後述する物体の位相情報の推定方法2を行う場合は物体情報検出2を選択し、物体の位相情報の推定方法1及び物体の位相情報の推定方法2の両方を行う場合は一括測定を選択する。物体の位相情報の推定方法1が選択された場合は物体情報取得画面23eに切り替わり、物体の位相情報の推定方法2が選択された場合は物体情報取得画面23fに切り替わる。さらに、物体情報取得画面23gは、物体情報取得画面23eから切り替わる画面である。   FIG. 9B is a diagram of the area setting unit 22 and the parameter setting unit 23 of the display unit 21 when performing the object information estimation method. First, an object information acquisition screen 23 d is displayed on the parameter setting unit 23 of the display unit 21. The observer selects object information detection 1 when performing object phase information estimation method 1 on the object information acquisition screen 23d, and selects object information detection 2 when performing object phase information estimation method 2 described later. When both the object phase information estimation method 1 and the object phase information estimation method 2 are performed, batch measurement is selected. When the object phase information estimation method 1 is selected, the screen is switched to the object information acquisition screen 23e, and when the object phase information estimation method 2 is selected, the screen is switched to the object information acquisition screen 23f. Furthermore, the object information acquisition screen 23g is a screen that is switched from the object information acquisition screen 23e.

物体情報取得画面23eでは、位相情報1、微細構造、波長に対する性質及び一括測定の項目が表示されている。ここで、位相情報1が選択された場合は計算部20は物体の位相情報の推定方法1を行い、微細構造が選択された場合は計算部20は物体の微細構造の情報の推定方法を行い、波長に対する性質が選択された場合は計算部20は物体の波長に対する性質の情報の推定方法を行う。また、一括測定が選択された場合は、これらの項目の全ての推定が計算部20によって行われる。各選択項目が選択された後は、自動で選択された項目の情報が取得される。   On the object information acquisition screen 23e, items of phase information 1, fine structure, wavelength property and batch measurement are displayed. Here, when the phase information 1 is selected, the calculation unit 20 performs the estimation method 1 of the phase information of the object, and when the fine structure is selected, the calculation unit 20 performs the estimation method of the information of the fine structure of the object. When the property with respect to the wavelength is selected, the calculation unit 20 performs a property information estimation method with respect to the wavelength of the object. If batch measurement is selected, all of these items are estimated by the calculation unit 20. After each selection item is selected, information on the automatically selected item is acquired.

図9Aに戻って、ステップS302で、第1空間光変調素子90の照明領域91の形状が点光源(σ≒0)に形成され、その点光源の照明による被検体60の像がイメージセンサ80で検出される。照射光がコヒーレントな状態の場合は、被検体60が位相物体であっても強度物体であっても被検体60にコントラストが観察される。   Returning to FIG. 9A, in step S302, the shape of the illumination area 91 of the first spatial light modulator 90 is formed as a point light source (σ≈0), and an image of the subject 60 by illumination of the point light source is image sensor 80. Is detected. When the irradiation light is in a coherent state, contrast is observed on the subject 60 regardless of whether the subject 60 is a phase object or an intensity object.

次に、ステップS303で、第1空間光変調素子90の照明領域91の形状が直径の大きな円形状(σ≒1)に形成され、その大きな円形状の照明による被検体60の像がイメージセンサ80で検出される。照射光がインコヒーレントな状態の場合は、被検体60が強度物体であるときは被検体60にコントラストがあって観察できるが、被検体60が位相物体であるときは被検体60にはコントラストがなく観察することができない。   Next, in step S303, the shape of the illumination area 91 of the first spatial light modulator 90 is formed into a circular shape with a large diameter (σ≈1), and the image of the subject 60 by the large circular illumination is an image sensor. 80 detected. When the irradiation light is incoherent, the subject 60 can be observed with contrast when the subject 60 is an intense object, but the subject 60 has contrast when the subject 60 is a phase object. Cannot be observed.

次に、ステップS304で、被検体60が位相物体であるか強度物体であるかが推定される。ステップS302で検出されたコヒーレントな光による像と、ステップS303で検出されたインコヒーレントな光による像とに変化が無い場合は、被検体60は強度物体であると推定される。ステップS302で検出されたコヒーレントな光による像と、ステップS303で検出されたインコヒーレントな光による像とが異なる場合は、被検体60は位相物体であると推定される。   Next, in step S304, it is estimated whether the subject 60 is a phase object or an intensity object. If there is no change between the image by the coherent light detected in step S302 and the image by the incoherent light detected in step S303, the subject 60 is estimated to be an intense object. If the image by the coherent light detected in step S302 is different from the image by the incoherent light detected in step S303, it is estimated that the subject 60 is a phase object.

次に、ステップS305で、被検体60の観察に適した照明領域91の形状が推定される。位相物体に対しては、計算部20は、第1空間光変調素子90の照明領域91の形状照明領域91の形状を小さく又は傾斜照明(例えば図7(f)参照)とする。被検体60が位相物体であると、照明領域91の形状を小さく又は傾斜照明が被検体60の観察に適しているからである。また、被検体60が強度物体であった場合には、計算部20は、第1空間光変調素子90の照明領域91の円の直径が大きくする。光量が多い方が強度物体は観察しやすいからである。   Next, in step S305, the shape of the illumination region 91 suitable for observation of the subject 60 is estimated. For the phase object, the calculation unit 20 sets the shape of the illumination area 91 of the first spatial light modulator 90 to a small or inclined illumination (see, for example, FIG. 7F). This is because when the subject 60 is a phase object, the shape of the illumination region 91 is reduced or inclined illumination is suitable for observation of the subject 60. When the subject 60 is an intense object, the calculation unit 20 increases the diameter of the circle of the illumination area 91 of the first spatial light modulator 90. This is because a stronger object is easier to observe when the amount of light is larger.

<物体の微細構造情報の推定方法>
被検体60に微細な構造が含まれているか否かに関しても、第1空間光変換素子90の照明領域91の形状を変えて被検体60を観察することにより推定することができる。
<Method for estimating fine structure information of an object>
Whether or not the subject 60 includes a fine structure can also be estimated by observing the subject 60 while changing the shape of the illumination region 91 of the first spatial light conversion element 90.

図9Cは、被検体60の微細構造情報の推定方法のフローチャートである。まず、ステップS311で、観察者が、図9Bの表示部21に示された物体情報取得画面23eの微細構造情報を選択する。   FIG. 9C is a flowchart of a method for estimating fine structure information of the subject 60. First, in step S311, the observer selects fine structure information on the object information acquisition screen 23e shown on the display unit 21 in FIG. 9B.

次に、ステップS312で、第1空間光変調素子90の照明領域91の形状が点光源に形成され、被検体60の像がイメージセンサ80で検出される。第1空間光変調素子90の照明領域91の形状が点光源(σ=0)である場合は、被検体60が微細構造を含んでいた場合でもその微細構造は被検体60の像に表れない。   Next, in step S <b> 312, the shape of the illumination area 91 of the first spatial light modulator 90 is formed as a point light source, and the image of the subject 60 is detected by the image sensor 80. When the shape of the illumination area 91 of the first spatial light modulator 90 is a point light source (σ = 0), even if the subject 60 includes a fine structure, the fine structure does not appear in the image of the subject 60. .

次に、ステップS313で、第1空間光変換素子90の照明領域91の形状が円環形状に形成され、被検体60の像がイメージセンサ80で検出される。このときの円環形状の外形は大きい方が好ましい。照明領域91の形状が円環形状である場合は、被検体60が微細構造を含んでいた場合にその微細構造が検出される。   Next, in step S313, the shape of the illumination region 91 of the first spatial light conversion element 90 is formed in an annular shape, and the image of the subject 60 is detected by the image sensor 80. At this time, it is preferable that the outer shape of the annular shape is large. When the shape of the illumination area 91 is an annular shape, the fine structure is detected when the subject 60 includes a fine structure.

次に、ステップS314で、被検体60が微細構造を含んでいるか否かが推定される。計算部20は、照明領域91を点光源にした場合と円環形状にした場合とで被検体60の像が変わらない場合には被検体60に微細構造が含まれていないと判断する。一方、計算部20は、照明領域91が点光源の場合と円環形状の場合とで被検体60の像の出力データが異なり、照明領域91が円環形状にして被検体60の像が検出される場合には被検体60に微細構造が含まれると判断する。   Next, in step S314, it is estimated whether or not the subject 60 includes a fine structure. The calculation unit 20 determines that the subject 60 does not include a fine structure when the image of the subject 60 does not change between when the illumination region 91 is a point light source and when the illumination region 91 is an annular shape. On the other hand, the calculation unit 20 detects the image of the subject 60 with the illumination region 91 having an annular shape, depending on whether the illumination region 91 is a point light source or an annular shape. If so, it is determined that the subject 60 includes a fine structure.

次に、ステップS315で、被検体60の観察に適した照明領域91の形状が推定される。例えば、被検体60が微細構造を有している場合は、照明領域91を円環形状等が好ましい。   Next, in step S315, the shape of the illumination area 91 suitable for observation of the subject 60 is estimated. For example, when the subject 60 has a fine structure, the illumination area 91 preferably has an annular shape.

<物体の照明光の波長に対する性質の情報の推定方法>
被検体60は、照明光の波長を変化させた場合に、被検体60の構造及び性質に起因して異なる出力データが示される場合がある。そのため、被検体60の照明光の波長に対する性質を把握しておくことが望ましい。
<Method for estimating property information with respect to wavelength of illumination light of object>
The subject 60 may show different output data due to the structure and properties of the subject 60 when the wavelength of the illumination light is changed. Therefore, it is desirable to grasp the property of the subject 60 with respect to the wavelength of the illumination light.

図9Dは、被検体60の照明光の波長に対する性質の情報の推定方法を示したフローチャートである。
まず、ステップS321で、観察者が、図9Bの表示部21に示された物体情報取得画面23eの波長に対する性質の情報を選択する。
FIG. 9D is a flowchart illustrating a method for estimating property information with respect to the wavelength of illumination light of the subject 60.
First, in step S321, the observer selects property information with respect to the wavelength on the object information acquisition screen 23e shown in the display unit 21 of FIG. 9B.

次に、ステップS322で、被検体60に照射される照明光が単色光にされ、被検体60の像がイメージセンサ80で検出される。例えば、照明光源30に赤、青、緑の3色の光源を有するLEDが使用されているとして説明する。この場合は、例えば緑のLEDのみが点灯され、他の波長のLEDは消灯される。そして、被検体60の像がイメージセンサ80で検出される。   Next, in step S <b> 322, the illumination light applied to the subject 60 is changed to monochromatic light, and the image of the subject 60 is detected by the image sensor 80. For example, a description will be given assuming that the illumination light source 30 is an LED having three color light sources of red, blue, and green. In this case, for example, only the green LED is turned on, and the LEDs of other wavelengths are turned off. Then, the image of the subject 60 is detected by the image sensor 80.

次に、ステップS323で、全ての波長で被検体60の像が検出されたかが判別される。例えば、赤、青、緑の各波長で被検体60の像を検出していた場合はステップS325に向かう。まだ被検体60の像を検出していない波長がある場合はステップS324に向かう。   Next, in step S323, it is determined whether images of the subject 60 have been detected at all wavelengths. For example, if an image of the subject 60 is detected at each of red, blue, and green wavelengths, the process proceeds to step S325. If there is a wavelength for which an image of the subject 60 has not yet been detected, the process proceeds to step S324.

次に、ステップS324で、照明光源30の波長に、まだ被検体60の像を取得していない波長が選択され、被検体60の像がイメージセンサ80で検出される。例えば、緑の波長による被検体60の像のみが取得されていた場合は、赤又は青のどちらかのみを点灯させ、他の波長のLEDは消灯される。この状態で、被検体60の像がイメージセンサ80で検出される。この後、またステップS323に戻って、全ての波長で被検体60の像が検出されたか否かが確認される。   Next, in step S 324, a wavelength for which the image of the subject 60 has not yet been acquired is selected as the wavelength of the illumination light source 30, and the image of the subject 60 is detected by the image sensor 80. For example, when only the image of the subject 60 with a green wavelength has been acquired, only one of red and blue is turned on, and the LEDs of other wavelengths are turned off. In this state, an image of the subject 60 is detected by the image sensor 80. Thereafter, the process returns to step S323 to check whether or not the image of the subject 60 has been detected at all wavelengths.

ステップS325では、被検体60の照明光の波長に対する性質が推定される。上記のステップS322及びステップS324で検出された被検体60の像が比較される。例えば、計算部20は、青の波長で検出された被検体60の像が他の波長の被検体60の像よりもコントラストが良かった場合、被検体60は青の波長に対してコントラストが良いという判断する。   In step S325, the property of the subject 60 with respect to the wavelength of the illumination light is estimated. The images of the subject 60 detected in steps S322 and S324 are compared. For example, if the image of the subject 60 detected at the blue wavelength has a better contrast than the image of the subject 60 at other wavelengths, the calculation unit 20 has a better contrast with respect to the blue wavelength. Judge that.

次に、ステップS326では、計算部20は、被検体60の観察に最適な波長の照明光が推定する。例えば、被検体60を最もコントラストを付けて観察したい場合であり、ステップS325において青の波長を用いた場合に、他の波長で検出された被検体60の像よりもコントラストが付いて観察された場合には、計算部20は、被検体60の観察には青の波長の照明光が適していると判断する。   Next, in step S <b> 326, the calculation unit 20 estimates illumination light having a wavelength that is optimal for observation of the subject 60. For example, when the subject 60 is desired to be observed with the highest contrast, when the blue wavelength is used in step S325, the subject 60 was observed with a contrast higher than that of the image of the subject 60 detected at other wavelengths. In this case, the calculation unit 20 determines that the illumination light with the blue wavelength is suitable for observing the subject 60.

この物体の照明光の波長に対する性質の情報の推定方法では、照明領域91の形状は任意の形状で良いが、上述された物体の位相情報の推定方法1及び物体の微細構造情報の推定方法と共に用いることにより、更に確実に物体の位相情報及び微細構造情報を推定することができる場合がある。この場合は、図9Bに示される物体情報取得画面23eで位相情報又は微細構造情報が選択された後に図9Bに示される物体情報取得画面23gに切り替わるようにようにして、波長を変化させるか波長を変化させないかを選択できるようにしても良い。   In this method of estimating the property information with respect to the wavelength of the illumination light of the object, the shape of the illumination region 91 may be any shape, but together with the above-described method 1 of estimating the phase information of the object and the method of estimating the fine structure information of the object In some cases, the phase information and fine structure information of the object can be estimated more reliably. In this case, after the phase information or the fine structure information is selected on the object information acquisition screen 23e shown in FIG. 9B, the wavelength is changed so as to switch to the object information acquisition screen 23g shown in FIG. 9B. It may be possible to select whether or not to change.

以上に示された物体情報の推定方法1を前述の照明形状導出方法の前に行うことで、照明形状の導出時間を短くすることもできる。   By performing the object information estimation method 1 shown above before the illumination shape deriving method described above, the illumination shape deriving time can be shortened.

<<物体情報の推定方法2>>
図3及び図6に示したフローチャートではステップS103及びステップS203で被検体60の観察像を形成するためのパラメータが設定された。半導体の集積回路等の線幅のように、予め被検体60の物体情報が得られている場合は、その情報から観察者はパラメータを設定することができる。しかし、被検体60が生体等の場合は被検体60の物体情報が得られていない場合が多く、観察者はどのようにパラメータを設定すれば良いか分からない場合がある。また、物体情報の推定方法1により得られた情報ではまだ不足している場合もある。そのような場合は、照明形状を決める前にさらに詳しく物体情報を調べておいてもよい。以下に、物体の位相情報の推定方法2及び物体の空間周波数情報の検出方法を説明する。
<< Object Information Estimation Method 2 >>
In the flowcharts shown in FIGS. 3 and 6, parameters for forming an observation image of the subject 60 are set in steps S103 and S203. If the object information of the subject 60 is obtained in advance, such as the line width of a semiconductor integrated circuit or the like, the observer can set parameters from that information. However, when the subject 60 is a living body or the like, the object information of the subject 60 is often not obtained, and the observer may not know how to set the parameters. Further, the information obtained by the object information estimation method 1 may still be insufficient. In such a case, the object information may be examined in more detail before determining the illumination shape. Hereinafter, the method 2 for estimating the phase information of the object and the method for detecting the spatial frequency information of the object will be described.

物体情報の推定方法2は、観察者が図9Bの物体情報取得画面23dで物体情報検出2を選択することにより行われる。物体情報検出2が選択された後に、画面は物体情報取得画面23fに切り替わる。物体情報取得画面23fでは、位相情報2、空間周波数情報及び一括測定の項目が表示されている。ここで、位相情報2が選択された場合は物体の位相情報の推定方法2が行われ、物体の空間周波数情報の検出方法が行われる。また、一括測定が選択された場合は、これらの項目の全ての推定が行われる。各選択項目が選択された後は、自動で選択された項目の情報が取得される。   The object information estimation method 2 is performed when the observer selects the object information detection 2 on the object information acquisition screen 23d in FIG. 9B. After the object information detection 2 is selected, the screen is switched to the object information acquisition screen 23f. On the object information acquisition screen 23f, items of phase information 2, spatial frequency information, and batch measurement are displayed. Here, when the phase information 2 is selected, the object phase information estimation method 2 is performed, and the object spatial frequency information detection method is performed. In addition, when batch measurement is selected, all of these items are estimated. After each selection item is selected, information on the automatically selected item is acquired.

<物体の位相情報の推定方法2>
物体の位相情報は、第1空間光変調素子90の照明領域91が点光源となるように大きさを極小に設定し、照明光を単色光にして被検体60を測定することにより推定することができる。この単色光の波長は、物体情報の推定方法1等により被検体60の観察に最適な波長が推測されている場合には、その波長を照明光の波長とすることが望ましい。
<Object Phase Information Estimation Method 2>
The phase information of the object is estimated by measuring the subject 60 by setting the size to a minimum so that the illumination area 91 of the first spatial light modulator 90 becomes a point light source and using the illumination light as monochromatic light. Can do. As for the wavelength of this monochromatic light, when the optimum wavelength for observation of the subject 60 is estimated by the object information estimation method 1 or the like, it is desirable that the wavelength be the wavelength of the illumination light.

物体の位相情報の推定方法2は、図9Bの物体情報取得画面23fで位相情報2が選択されることにより行われる。以下に、図10Aを用いて被検体60の位相情報の推定方法2について説明する。   The phase information estimation method 2 of the object is performed by selecting the phase information 2 on the object information acquisition screen 23f of FIG. 9B. Hereinafter, the phase information estimation method 2 of the subject 60 will be described with reference to FIG. 10A.

図10Aは、被検体60の位相情報の推定方法2のフローチャートである。
まず、ステップS401で、観察者が図9Bの物体情報取得画面23fで位相情報2を選択する。その後、表示部21は後述する図10Bに示される画面に切り替わる。
FIG. 10A is a flowchart of the phase information estimation method 2 of the subject 60.
First, in step S401, the observer selects phase information 2 on the object information acquisition screen 23f of FIG. 9B. Thereafter, the display unit 21 is switched to a screen shown in FIG. 10B described later.

まず、ステップS402で、観察者が図10Bの表示部21に示された画面を通して点光源の数及び各点光源の形成位置を指定する。以下に、図10Bを参照して点光源の数及び各点光源の形成位置の例を示す。   First, in step S402, the observer designates the number of point light sources and the formation position of each point light source through the screen shown in the display unit 21 of FIG. 10B. Below, with reference to FIG. 10B, the number of point light sources and the example of the formation position of each point light source are shown.

図10Bは、第1空間光変換素子90の概略図が示された表示部21の図である。図10Bは、表示部21の領域設定部22に点線で示した円31によって、第1空間光変換素子90を透過する光が最大口径になった状態が示されている。被検体60の位相情報の推定に用いられる点光源(σ≒0)は点光源または点光源と見なせる大きさに整形される。つまり、計算部20は点線で示した円31の内側に、第1空間光変換素子90に点状の照明領域91を形成させる。図10Bでは、表示部21のパラメータ設定部23で測定する点光源の数及び使用する光の波長を設定できるようになっている。点光源の数を5点とした場合、例えば円31の中心点(光軸上)とX軸及びY軸の正負の最大値を取る点とに計5点の点光源が形成される。また、光の波長は波長を入力することができるようになっている。波長は1つの波長のみが入力されても良いし、複数の波長が入力された場合は各波長についてそれぞれ5点の点光源の測定を行う。   FIG. 10B is a diagram of the display unit 21 in which a schematic diagram of the first spatial light conversion element 90 is shown. FIG. 10B shows a state in which the light transmitted through the first spatial light conversion element 90 has a maximum aperture by a circle 31 indicated by a dotted line in the region setting unit 22 of the display unit 21. The point light source (σ≈0) used for estimating the phase information of the subject 60 is shaped to a size that can be regarded as a point light source or a point light source. That is, the calculation unit 20 causes the first spatial light conversion element 90 to form the dotted illumination region 91 inside the circle 31 indicated by the dotted line. In FIG. 10B, the number of point light sources measured by the parameter setting unit 23 of the display unit 21 and the wavelength of light to be used can be set. When the number of point light sources is five, for example, a total of five point light sources are formed at the center point (on the optical axis) of the circle 31 and the point where the positive and negative values of the X and Y axes are taken. Further, the wavelength of light can be input. Only one wavelength may be input, or when a plurality of wavelengths are input, five point light sources are measured for each wavelength.

円31の中心点の点光源を点光源32a、X軸の正負の最大値を取る点の点光源をそれぞれ点光源32b及び32d、Y軸の正負の最大値を取る点の点光源をそれぞれ点光源32c及び32eとして黒点で示されている。点光源は円31の最外周部付近に形成された点光源を含んでいることが望ましい。これは、被検体60に様々な角度からコヒーレントな光を入射することができ、斜め照明時の回折光を得ることができるためである。   Point light source 32a is the point light source at the center of the circle 31, point light sources are the point light sources 32b and 32d that take the maximum positive and negative values on the X axis, and point light sources are the point light sources that take the maximum positive and negative values on the Y axis. The light sources 32c and 32e are indicated by black dots. The point light source preferably includes a point light source formed near the outermost peripheral portion of the circle 31. This is because coherent light can be incident on the subject 60 from various angles, and diffracted light during oblique illumination can be obtained.

なお、観察者が点光源の数及び各点光源の位置を設定するのではなく、計算部20が自動的に図10Bに示された点光源の数を5点に設定するようにしてもよい。   Instead of setting the number of point light sources and the position of each point light source by the observer, the calculation unit 20 may automatically set the number of point light sources shown in FIG. 10B to 5 points. .

次に、ステップS403では、照明光の波長が単色にされ、第1空間光変換素子90が所定の位置で点光源を形成する。単色の照明光は、例えば白色の照明光源30に特定の波長の光のみを透過する波長フィルタ44により形成される。また、第1空間光変換素子90が図10Bに示されるような1つの点光源の大きさの照明領域91が形成される。点光源かつ単色波長の光はコヒーレントな状態にあり干渉性が高くなるため、被検体60の位相情報を推定するためには都合が良い。   Next, in step S403, the wavelength of the illumination light is changed to a single color, and the first spatial light conversion element 90 forms a point light source at a predetermined position. The monochromatic illumination light is formed by a wavelength filter 44 that transmits only light of a specific wavelength to the white illumination light source 30, for example. Further, the first spatial light conversion element 90 is formed with an illumination area 91 having the size of one point light source as shown in FIG. 10B. Since the point light source and monochromatic wavelength light are coherent and have high coherence, it is convenient for estimating the phase information of the subject 60.

ステップS404では、点光源かつ単色波長の光による被検体60の像がイメージセンサ80で検出される。
ステップS405では、計算部20は全ての点光源位置かつ単色波長の光による画像を取得したか否かが判断される。例えば、図10Bに示した5点の点光源の全てで測定されていない場合はステップS406に進む。指定した点光源の全てで測定された場合はステップS407に進む。
In step S <b> 404, the image sensor 80 detects an image of the subject 60 with a point light source and monochromatic wavelength light.
In step S405, the calculation unit 20 determines whether images with all point light source positions and light having a monochromatic wavelength have been acquired. For example, if measurement has not been performed with all of the five point light sources shown in FIG. 10B, the process proceeds to step S406. If all the specified point light sources have been measured, the process proceeds to step S407.

ステップS406で、計算部20は点光源となる照明領域91の位置が変えられる。例えば、ステップS404で図10Bの点光源32aを測定し、点光源32bを測定していない場合は、照明領域91の位置を点光源32bの位置のみに形成する。その後、ステップS404に進む。   In step S406, the calculation unit 20 changes the position of the illumination area 91 serving as a point light source. For example, when the point light source 32a of FIG. 10B is measured in step S404 and the point light source 32b is not measured, the position of the illumination area 91 is formed only at the position of the point light source 32b. Thereafter, the process proceeds to step S404.

ステップS407で、計算部20は被検体60の回折光を解析する。例えば、解析した回折光情報から、観察領域24に特定の空間周波数成分をもたらしている回折光の分布を知ることができ、それによってより効率的に観察に適した照明形状を探すことができる。   In step S407, the calculation unit 20 analyzes the diffracted light of the subject 60. For example, from the analyzed diffracted light information, it is possible to know the distribution of diffracted light that causes a specific spatial frequency component in the observation region 24, and thereby to find an illumination shape suitable for observation more efficiently.

ステップS408で、計算部20により適した照明条件が設定される。また解析された回折光情報は表示部21に表示され、観察者はこの回折光情報を参考にして被検体60の位相情報を推定する。観察者は推定された位相情報から図3のステップS102及びステップS103、図6のステップS202及びステップS203で、観察領域24及びパラメータを設定することができる。   In step S408, a more suitable illumination condition is set by the calculation unit 20. The analyzed diffracted light information is displayed on the display unit 21, and the observer estimates phase information of the subject 60 with reference to the diffracted light information. The observer can set the observation region 24 and parameters in steps S102 and S103 in FIG. 3 and steps S202 and S203 in FIG. 6 from the estimated phase information.

上記に示した被検体60の位相情報の推定方法2では、複数の波長についてそれぞれ測定されても良い。そのため図10Aに示されたフローチャートの中に図10Bで設定された全ての波長を測定したか否かを確認するステップが形成されても良い。   In the above-described method 2 for estimating the phase information of the subject 60, a plurality of wavelengths may be measured. Therefore, a step of confirming whether or not all the wavelengths set in FIG. 10B have been measured may be formed in the flowchart shown in FIG. 10A.

<物体の空間周波数情報の検出方法>
空間周波数は、被検体60の単位長さの繰り返しの周期を示している。つまり、同じ空間周波数が集まっている場所には似たような構造体が集まっている可能性が高い。そのため、被検体60の空間周波数の情報は、図3のステップS102及びステップS103、図6のステップS202及びステップS203における観察領域24及びパラメータの設定の参考になる。被検体60の空間周波数情報の検出は、結像光学系70の瞳の画像の出力データを取得することにより行う。また、被検体60の位相情報の推定方法2で述べたような単色波長の点光源を用いて被検体60を測定する。以下に、図11及び図12を用いて被検体60の空間周波数情報の検出方法について説明する。
<Detection method of spatial frequency information of object>
The spatial frequency indicates a repetition cycle of the unit length of the subject 60. That is, there is a high possibility that similar structures are gathered at a place where the same spatial frequency is gathered. Therefore, the spatial frequency information of the subject 60 is a reference for setting the observation region 24 and parameters in steps S102 and S103 in FIG. 3 and steps S202 and S203 in FIG. Detection of spatial frequency information of the subject 60 is performed by acquiring output data of a pupil image of the imaging optical system 70. In addition, the subject 60 is measured using a monochromatic wavelength point light source as described in the method 2 for estimating the phase information of the subject 60. Hereinafter, a method for detecting spatial frequency information of the subject 60 will be described with reference to FIGS. 11 and 12.

図11は、顕微鏡システム200の概略構成図である。以下、図1で説明した顕微鏡システム100と同じ部材については同じ番号を付し、その部材の説明は省略する。   FIG. 11 is a schematic configuration diagram of the microscope system 200. Hereinafter, the same members as those in the microscope system 100 described in FIG. 1 are denoted by the same reference numerals, and the description of the members is omitted.

顕微鏡システム200は、顕微鏡システム100の瞳273の位置またはその近辺にビームスプリッター272が配置されている。また、顕微鏡システム200は、分岐された光LW21をリレーするリレーレンズ243及び瞳273の位置に共役な位置に配置された第2イメージセンサ280を有している。ビームスプリッター272は結像光学系70からの光を分岐する。分岐された光LW21はリレーレンズ243によって第2イメージセンサ280に入射する。光LW21は、リレーレンズ243を透過して光LW22となり、光LW22は第2イメージセンサ280上に瞳273の像を形成する。第2イメージセンサ280上に形成された瞳273の像の情報は計算部20に送られて解析される。   In the microscope system 200, a beam splitter 272 is disposed at or near the position of the pupil 273 of the microscope system 100. In addition, the microscope system 200 includes a second image sensor 280 disposed at a position conjugate to the position of the relay lens 243 and the pupil 273 that relays the branched light LW21. The beam splitter 272 branches the light from the imaging optical system 70. The branched light LW21 enters the second image sensor 280 through the relay lens 243. The light LW21 passes through the relay lens 243 to become the light LW22, and the light LW22 forms an image of the pupil 273 on the second image sensor 280. Information on the image of the pupil 273 formed on the second image sensor 280 is sent to the calculation unit 20 and analyzed.

図12は、被検体60の空間周波数情報の検出方法のフローチャートである。
まず、ステップS501で、観察者が図9Bの物体情報取得画面23fで空間周波数情報を選択する。その後、表示部21は図10Bに示される画面に切り替わる。
FIG. 12 is a flowchart of a method for detecting spatial frequency information of the subject 60.
First, in step S501, the observer selects spatial frequency information on the object information acquisition screen 23f of FIG. 9B. Thereafter, the display unit 21 is switched to the screen shown in FIG. 10B.

次に、ステップS502で、観察者が表示部21を通して点光源(σ=0)の数及び各点光源の形成位置を指定する。
次に、ステップS503で、照明光の波長が単色にされ、所定の位置で点光源に近い大きさの開口が形成される。
Next, in step S502, the observer designates the number of point light sources (σ = 0) and the formation position of each point light source through the display unit 21.
Next, in step S503, the wavelength of the illumination light is changed to a single color, and an opening having a size close to a point light source is formed at a predetermined position.

ステップS502及びステップS503は、図10AのステップS402及びステップS403と同様である。また、形成する点光源も図10Bと同様に5つの点光源を形成する例を説明する。   Steps S502 and S503 are the same as steps S402 and S403 in FIG. 10A. Further, an example in which five point light sources are formed as in the case of FIG. 10B will be described.

ステップS504で、瞳273における被検体60の像を第2イメージセンサ280で検出する。例えば、ステップS503で図10Bに示された点光源32aが指定されたとすると、点光源32aのみを照明光源として被検体60の画像を第2イメージセンサ280で検出する。   In step S <b> 504, the image of the subject 60 on the pupil 273 is detected by the second image sensor 280. For example, if the point light source 32a shown in FIG. 10B is designated in step S503, the second image sensor 280 detects the image of the subject 60 using only the point light source 32a as an illumination light source.

図13(a)は、被検体60が集積回路(IC)である場合の第2イメージセンサ280で検出された瞳273の像の画像が示された表示部21の図である。画像は、例えば、表示部21の領域設定部22に表示される。図13(a)の中の点線で示した円233は、光の通過可能な範囲であるとする。第2イメージセンサ280で検出された画像データは、瞳273における光の強度分布である。光の強度分布は、例えば、図13の点234のように示すことができる。点234の位置は信号の検出位置であり、その大きさは点光源の大きさを反映している。図13(a)では、黒い点234は検出された信号が強く、白い点234は検出された信号が弱く、灰色の点234は検出された信号は黒い点234と白い点234との中間の強度であることを示している。点234は、実際は小さく表示されて大きさをほとんど持っていない。しかし、図13(a)では説明のために点234が大きさを持ち、その信号の強度を示すために点234の色が変えて示されている。図13(a)では、画像の右上の領域には黒い点234が集まっており、画面の左下の部分は白い点234が集まっている。これは、画面の右上の部分の空間周波数は大きく、左下の部分の空間周波数は小さいことを示している。またICは周期的な構造をしているため、第2イメージセンサ280で検出される点234は周期的に検出されやすい。   FIG. 13A is a diagram of the display unit 21 on which an image of the image of the pupil 273 detected by the second image sensor 280 when the subject 60 is an integrated circuit (IC). For example, the image is displayed on the area setting unit 22 of the display unit 21. A circle 233 indicated by a dotted line in FIG. 13A is assumed to be a range through which light can pass. Image data detected by the second image sensor 280 is a light intensity distribution in the pupil 273. The light intensity distribution can be shown as a point 234 in FIG. 13, for example. The position of the point 234 is a signal detection position, and its size reflects the size of the point light source. In FIG. 13A, the black point 234 has a strong detected signal, the white point 234 has a weak detected signal, and the gray point 234 has a detected signal intermediate between the black point 234 and the white point 234. It shows strength. The point 234 is actually displayed small and has almost no size. However, in FIG. 13A, for the purpose of explanation, the point 234 has a size, and the color of the point 234 is changed to indicate the intensity of the signal. In FIG. 13A, black dots 234 are gathered in the upper right area of the image, and white dots 234 are gathered in the lower left part of the screen. This indicates that the spatial frequency in the upper right part of the screen is large and the spatial frequency in the lower left part is small. Further, since the IC has a periodic structure, the points 234 detected by the second image sensor 280 are easily detected periodically.

図13(b)は、被検体60が生体である場合の第2イメージセンサ280で検出された瞳273の像の画像が示された表示部21の図である。図13(b)では、第2イメージセンサ280で検出された点234が表示部21に示されている。図13(b)では、点234が大きさを持たない点として示されている。図13(b)に示されている点234は、図13(a)と同じように各点で異なる強度の信号を有している。被検体60が生体である場合は、図13(b)の点234で示されるように、点234が周期性を有しおらず、ランダムに示されることが多い。これは、図13(a)に示された周期的な構造を有するICよりも、生体には周期性を有する構造が少ないためである。   FIG. 13B is a diagram of the display unit 21 on which an image of the image of the pupil 273 detected by the second image sensor 280 when the subject 60 is a living body. In FIG. 13B, a point 234 detected by the second image sensor 280 is shown on the display unit 21. In FIG. 13B, the point 234 is shown as a point having no size. A point 234 shown in FIG. 13B has a signal having a different intensity at each point as in FIG. When the subject 60 is a living body, as indicated by a point 234 in FIG. 13B, the point 234 does not have periodicity and is often shown randomly. This is because the living body has fewer structures having periodicity than the IC having the periodic structure shown in FIG.

ステップS505で、全ての点光源の位置、例えば5点の光強度の情報を取得したか否かが判断される。全ての点光源の光強度の情報を取得していない場合はステップS506に向かう。全ての点光源の光強度の情報を取得した場合はステップS507に向かう。   In step S505, it is determined whether or not the information of the positions of all point light sources, for example, the light intensity information of five points, has been acquired. If information on the light intensity of all point light sources has not been acquired, the process proceeds to step S506. If the information on the light intensities of all point light sources has been acquired, the process proceeds to step S507.

ステップS506で、点光源となる照明領域91の位置が変えられる。例えば、ステップS504で図10Bの点光源32aを測定し、点光源32bを測定していない場合は、照明領域91の位置を、点光源32bの位置のみに形成する。その後、ステップS504に進む。   In step S506, the position of the illumination area 91 to be a point light source is changed. For example, when the point light source 32a of FIG. 10B is measured in step S504 and the point light source 32b is not measured, the position of the illumination area 91 is formed only at the position of the point light source 32b. Thereafter, the process proceeds to step S504.

ステップS507で、被検体60のフーリエスペクトルを測定し、被検体60の空間周波数分布を求める。空間周波数分布は、図13に示されるように光の強度分布として示されても良いし、光の強度分布を空間周波数に変換して表示部21に示されても良い。被検体60の空間周波数分布から被検体60の構造の周期性が計算される。図13(b)で示されるように、被検体60の空間周波数分布がランダムである場合には、被検体60の構造の周期性が計算できない状態である。   In step S507, the Fourier spectrum of the subject 60 is measured, and the spatial frequency distribution of the subject 60 is obtained. The spatial frequency distribution may be shown as a light intensity distribution as shown in FIG. 13, or may be shown on the display unit 21 by converting the light intensity distribution into a spatial frequency. The periodicity of the structure of the subject 60 is calculated from the spatial frequency distribution of the subject 60. As shown in FIG. 13B, when the spatial frequency distribution of the subject 60 is random, the periodicity of the structure of the subject 60 cannot be calculated.

ステップS508で、計算部20は被検体60の観察に適した照明条件が設定される。また、表示部21に結果を表示してもよい。観察者は、解析された被検体60の空間周波数情報に基づいて、表示部21でパラメータを設定したり観察領域24を設定したりすることができる(図4を参照)。図3のステップS102及びステップS103、図6のステップS202及びステップS203において、観察者はパラメータを設定したり観察領域24を設定したりする。例えば、特定の空間周波数の集まりは、同一の構造体を示す場合がある。この構造体のみを観察したい場合は、表示部21のパラメータ設定部23で、観察したい構造体の空間周波数を設定することにより、その空間周波数に合わせて被検体60の観察像を調整することができる。   In step S508, the calculation unit 20 sets illumination conditions suitable for observation of the subject 60. Further, the result may be displayed on the display unit 21. The observer can set parameters or set the observation region 24 on the display unit 21 based on the analyzed spatial frequency information of the subject 60 (see FIG. 4). In step S102 and step S103 in FIG. 3, and in step S202 and step S203 in FIG. 6, the observer sets parameters and sets the observation region 24. For example, a collection of specific spatial frequencies may indicate the same structure. When it is desired to observe only this structure, the parameter setting unit 23 of the display unit 21 sets the spatial frequency of the structure to be observed, thereby adjusting the observation image of the subject 60 according to the spatial frequency. it can.

以上のような方法により、被検体60情報を検出し、計算部20は被検体の観察に適した照明形状を自動的に設定することができるが、実施例には更に様々な変更を加えることができる。   Although the subject 60 information is detected by the method as described above, the calculation unit 20 can automatically set an illumination shape suitable for observation of the subject, but various modifications are added to the embodiment. Can do.

例えば、図11に示した顕微鏡システム200では、2つのイメージセンサを同時に使用することにより結像面の像と瞳273の像との2つの情報を同時に取得することができるが、瞳273とイメージセンサ80との間に脱着可能なリレーレンズを挿入してイメージセンサ80上に瞳273に共役な像を形成することにより、一つのイメージセンサのみの使用で被検体60の空間周波数情報を取得することができる。   For example, in the microscope system 200 shown in FIG. 11, two information of the image of the imaging plane and the image of the pupil 273 can be acquired simultaneously by using two image sensors at the same time. By inserting a detachable relay lens between the sensor 80 and forming a conjugate image on the pupil 273 on the image sensor 80, the spatial frequency information of the subject 60 can be acquired by using only one image sensor. be able to.

また、顕微鏡システム200では、顕微鏡システム200に干渉計を組んで瞳の干渉像を取得するような構成にすることで、瞳の振幅情報を調べ、被検体60の位相情報を取得することも可能である。干渉計は、被検体60を透過した物体光と、被検体60を透過していない参照光とを互いに干渉させて第2イメージセンサ280で干渉像を測定することにより物体のフーリエスペクトルを得ることができるため、物体の位相情報を取得することができる。干渉計を形成する場合は、照明光源30にレーザー等を使用することが望ましい。レーザーを使用することにより、単色の強い光を得ることができ、そのため点光源の大きさをより小さくできる。また、複数の照射方向から物体光の回折光と参照光との干渉像をイメージセンサ80で検出することにより、被検体60の三次元画像を形成することも可能である。干渉計を使用した顕微鏡の詳細は、例えば再表2008/123408に開示されている。   Further, in the microscope system 200, it is also possible to check the amplitude information of the pupil and acquire the phase information of the subject 60 by constructing an interferometer in the microscope system 200 to acquire an interference image of the pupil. It is. The interferometer obtains the Fourier spectrum of the object by causing the second image sensor 280 to measure the interference image by causing the object light transmitted through the subject 60 and the reference light not transmitted through the subject 60 to interfere with each other. Therefore, the phase information of the object can be acquired. In the case of forming an interferometer, it is desirable to use a laser or the like for the illumination light source 30. By using a laser, strong light of a single color can be obtained, so that the size of the point light source can be further reduced. Further, it is also possible to form a three-dimensional image of the subject 60 by detecting an interference image between the diffracted light of the object light and the reference light from a plurality of irradiation directions by the image sensor 80. Details of a microscope using an interferometer are disclosed, for example, in Table 2008/123408.

また、図10Bに示した点光源は、第1空間光変調素子90の代わりに点開口を有するマスクを用いて形成しても良い。   Further, the point light source shown in FIG. 10B may be formed using a mask having a point opening instead of the first spatial light modulator 90.

さらに、図10Bに示された点光源は、円31の外周部に沿って更に多く形成されることにより被検体60をより多くの方向から斜め照明をあてた場合の回折光又は空間周波数の情報を得ることができる。また、図10Bに示した複数の点光源を、複数の単一波長、例えば赤、青、緑のそれぞれの波長で測定しても良い。図10Bに示した各点光源を、赤、青、緑のそれぞれで測定した場合を、図13(c)を参照して説明する。   Further, the point light sources shown in FIG. 10B are formed more along the outer periphery of the circle 31 so that diffracted light or spatial frequency information when the subject 60 is illuminated obliquely from more directions is formed. Can be obtained. Further, the plurality of point light sources shown in FIG. 10B may be measured at a plurality of single wavelengths, for example, red, blue, and green wavelengths. A case where each point light source shown in FIG. 10B is measured in red, blue, and green will be described with reference to FIG.

図13(c)は、被検体60が生体である場合の第2イメージセンサ280で検出された赤・青・緑の各波長における瞳273の像の画像が示された表示部21の図である。図13(c)は、例えば図10Bの点光源32bで、赤、青、緑のそれぞれの波長を用いて被検体60が測定された場合の図である。実際の測定では、点光源32aから点光源32eの全てで瞳273の像が測定される。図13(c)では、赤の波長で検出された像234a、青の波長で検出された像234b、緑の画像で検出された像234cが同一画面上に示されている。空間周波数は波長に反比例するため、瞳273における被検体60の像を光の波長ごとに測定することにより、より正確に被検体60の空間周波数分布を調べることができる。図13(c)では、赤の波長で検出された画像234aが示されている領域は比較的空間周波数が小さく、青の波長で検出された画像234bが示されている領域は比較的空間周波数が大きい構造体の存在が推測される。
第1実施例によれば、観察中の物体の像を良い状態で観察するために適した照明光の強度分布を導き出して形成する顕微鏡システムが提供される。
FIG. 13C is a diagram of the display unit 21 on which images of the pupil 273 at red, blue, and green wavelengths detected by the second image sensor 280 when the subject 60 is a living body are shown. is there. FIG. 13C is a diagram in the case where the subject 60 is measured using, for example, the red, blue, and green wavelengths with the point light source 32b of FIG. 10B. In actual measurement, the image of the pupil 273 is measured with all of the point light sources 32a to 32e. In FIG. 13C, an image 234a detected with a red wavelength, an image 234b detected with a blue wavelength, and an image 234c detected with a green image are shown on the same screen. Since the spatial frequency is inversely proportional to the wavelength, the spatial frequency distribution of the subject 60 can be examined more accurately by measuring the image of the subject 60 on the pupil 273 for each wavelength of light. In FIG. 13C, the region where the image 234a detected at the red wavelength is shown has a relatively small spatial frequency, and the region where the image 234b detected at the blue wavelength is shown is a relatively spatial frequency. The existence of a large structure is estimated.
According to the first embodiment, there is provided a microscope system that derives and forms an intensity distribution of illumination light suitable for observing an image of an object under observation in a good state.

(第2実施例)
第1実施例では明視野顕微鏡を有する顕微鏡システム100について説明したが、第2実施例では、位相差顕微鏡を有する顕微鏡システム300について説明する。
(Second embodiment)
In the first embodiment, the microscope system 100 having a bright field microscope has been described. In the second embodiment, a microscope system 300 having a phase contrast microscope will be described.

<顕微鏡システム300>
図14(a)は、顕微鏡システム300の概略構成図である。顕微鏡システム300は、被検体60を観察するための光学式の顕微鏡システムである。顕微鏡システム300は主に、照明光源30と、照明光学系40と、結像光学系70と、イメージセンサ80と、計算部20とにより構成されている。また照明光学系40は、第1コンデンサレンズ、波長フィルタ44、第1空間光変調素子390及び第2コンデンサレンズ42を備えており、結像光学系70は対物レンズ71及び第2空間光変調素子396を含んでいる。また、照明光学系40と結像光学系70との間にはステージ50が配置され、ステージ50には被検体60が設置される。
<Microscope system 300>
FIG. 14A is a schematic configuration diagram of the microscope system 300. The microscope system 300 is an optical microscope system for observing the subject 60. The microscope system 300 mainly includes an illumination light source 30, an illumination optical system 40, an imaging optical system 70, an image sensor 80, and a calculation unit 20. The illumination optical system 40 includes a first condenser lens, a wavelength filter 44, a first spatial light modulation element 390, and a second condenser lens 42. The imaging optical system 70 includes an objective lens 71 and a second spatial light modulation element. 396. A stage 50 is disposed between the illumination optical system 40 and the imaging optical system 70, and the subject 60 is disposed on the stage 50.

第2空間光変調素子396は、結像光学系70の瞳の位置又はその近傍に配置される。また、第1空間光変調素子390は、照明光学系40の中の結像光学系70の瞳に共役となる位置に配置される。第1空間光変調素子390は透過する光の強度分布を任意に可変することができる素子であり、液晶パネル又はDMD等により構成される。第2空間光変調素子396は、位相を変えることができる素子である液晶パネル等により構成される。また、第2空間光変調素子は、位相と共に光の強度分布も自由に変えられるような構成とすることが望ましい。   The second spatial light modulator 396 is disposed at or near the pupil position of the imaging optical system 70. Further, the first spatial light modulation element 390 is disposed at a position conjugate with the pupil of the imaging optical system 70 in the illumination optical system 40. The first spatial light modulator 390 is an element that can arbitrarily change the intensity distribution of transmitted light, and is configured by a liquid crystal panel, DMD, or the like. The second spatial light modulator 396 is configured by a liquid crystal panel or the like that is an element capable of changing the phase. Further, it is desirable that the second spatial light modulation element has a configuration in which the light intensity distribution can be freely changed with the phase.

図14(a)では、照明光源30から射出された光が点線で示されている。照明光源30から射出された照明光LW31は第1コンデンサレンズ41で光LW32になる。光LW32は、第1空間光変調素子390に入射する。第1空間光変調素子390を透過した光LW33は第2コンデンサレンズ42を透過して光LW34となり、被検体60に向かう。被検体60を通過した光LW35は、対物レンズ71を透過して光LW36となり第2空間光変調素子396に入射する。光LW36は第2空間光変調素子396を通過して光LW37となり、イメージセンサ80に結像する。イメージセンサ80に結像した画像の出力データは計算部20に送られる。計算部20では、イメージセンサ80から得られた画像の出力データと、第1空間光変調素子390により形成される開口391の形状データと、第2空間光変調素子396の形状データとに基づいて、被検体60に最適な照明形状が計算される。そして、計算された被検体60の観察に適した照明形状は第1空間光変調素子390及び第2空間光変調素子396に送信される。なお、波長フィルタ44が配置される場合には波長フィルタ44を透過して特定の波長の光のみが第1空間光変調素子390に入射する。   In FIG. 14A, the light emitted from the illumination light source 30 is indicated by a dotted line. The illumination light LW31 emitted from the illumination light source 30 is converted into light LW32 by the first condenser lens 41. The light LW32 is incident on the first spatial light modulator 390. The light LW33 that has passed through the first spatial light modulator 390 passes through the second condenser lens 42 to become the light LW34, and travels toward the subject 60. The light LW35 that has passed through the subject 60 passes through the objective lens 71 to become light LW36 and enters the second spatial light modulation element 396. The light LW 36 passes through the second spatial light modulator 396 and becomes the light LW 37 and forms an image on the image sensor 80. Output data of the image formed on the image sensor 80 is sent to the calculation unit 20. In the calculation unit 20, based on the output data of the image obtained from the image sensor 80, the shape data of the opening 391 formed by the first spatial light modulator 390, and the shape data of the second spatial light modulator 396. The optimal illumination shape for the subject 60 is calculated. Then, the calculated illumination shape suitable for observation of the subject 60 is transmitted to the first spatial light modulation element 390 and the second spatial light modulation element 396. When the wavelength filter 44 is disposed, only light having a specific wavelength is transmitted through the wavelength filter 44 and is incident on the first spatial light modulator 390.

図14(b)は、第1空間光変調素子390の平面図である。第1空間光変調素子390には、リング状に光の透過領域(照明領域)391が形成されており、透過領域391以外の領域は遮光領域392となっている。   FIG. 14B is a plan view of the first spatial light modulator 390. In the first spatial light modulator 390, a light transmission region (illumination region) 391 is formed in a ring shape, and a region other than the transmission region 391 is a light shielding region 392.

図14(c)は第2空間光変調素子396の平面図である。第2空間光変調素子396にはリング状に位相変調領域397が形成されており、この位相変調領域397を透過する光は位相が4分の1波長だけずらされる。位相変調領域397以外の領域である回折光透過領域398を透過する光は、位相がそのままである。位相変調領域397は、第1空間光変調素子390の透過領域391と共役になるように形成されている。   FIG. 14C is a plan view of the second spatial light modulator 396. A phase modulation region 397 is formed in a ring shape in the second spatial light modulation element 396, and the phase of light transmitted through the phase modulation region 397 is shifted by a quarter wavelength. The light transmitted through the diffracted light transmission region 398 other than the phase modulation region 397 has the same phase. The phase modulation region 397 is formed so as to be conjugate with the transmission region 391 of the first spatial light modulation element 390.

顕微鏡システム300の0次光(透過光)は、第1空間光変調素子390の透過領域391を透過し、第2空間光変調素子396の位相変調領域397を透過してイメージセンサ80に至る。また、被検体60から発せられた回折光は、第2空間光変調素子396の回折光透過領域398を透過してイメージセンサ80に至る。そして、0次光と回折光とがイメージセンサ80上に像を形成する。一般に0次光は回折光に比べて光の強度が強いので、位相変調領域397の光の強度を調節するフィルタが形成されることが望ましい。このフィルタは、例えばセルのアレイを備える電気的に制御可能な光学素子(例えば特表2010−507119)に示すような透過率の空間分布を自由に可変することができる光学素子等を第2空間変調素子396に付加することにより形成することができる。   The zero-order light (transmitted light) of the microscope system 300 passes through the transmission region 391 of the first spatial light modulation element 390, passes through the phase modulation region 397 of the second spatial light modulation element 396, and reaches the image sensor 80. Further, the diffracted light emitted from the subject 60 passes through the diffracted light transmission region 398 of the second spatial light modulator 396 and reaches the image sensor 80. Then, the zero-order light and the diffracted light form an image on the image sensor 80. In general, since the 0th-order light has a higher light intensity than the diffracted light, it is desirable to form a filter for adjusting the light intensity in the phase modulation region 397. This filter includes, for example, an optical element that can freely vary the spatial distribution of transmittance as shown in an electrically controllable optical element (for example, Japanese Translation of PCT International Application No. 2010-507119) including an array of cells in the second space. It can be formed by adding to the modulation element 396.

第1空間光変調素子390及び第2空間光変調素子396は、その透過領域391及び位相変調領域397の大きさ、形状を自由に変えることができる。例えば第1空間光変調素子390の透過領域391の直径を上げると透過光の開口数が上がるため解像度を上げることができる。また、第1実施例で示した照明形状の導出方法等を用いることにより第1空間光変調素子390の透過領域391の形状を最適化してもよい。第2空間光変調素子396のリング状の領域397は常に第1空間光変調素子390の透過領域391と共役になるように形成される。そのため、透過領域391とリング状の領域397とは同期して形状が変化することが望ましい。
第2実施例によれば、観察中の物体の像を良い状態で観察するために適した照明光の強度分布を導き出して形成する顕微鏡システムが提供される。
The first spatial light modulation element 390 and the second spatial light modulation element 396 can freely change the size and shape of the transmission region 391 and the phase modulation region 397. For example, when the diameter of the transmission region 391 of the first spatial light modulator 390 is increased, the numerical aperture of the transmitted light is increased, so that the resolution can be increased. Further, the shape of the transmission region 391 of the first spatial light modulator 390 may be optimized by using the illumination shape deriving method shown in the first embodiment. The ring-shaped region 397 of the second spatial light modulator 396 is always formed so as to be conjugate with the transmission region 391 of the first spatial light modulator 390. Therefore, it is desirable that the transmission region 391 and the ring-shaped region 397 change in shape in synchronization.
According to the second embodiment, a microscope system that derives and forms an intensity distribution of illumination light suitable for observing an image of an object under observation in a good state is provided.

以上、本発明の最適な実施形態について説明したが、当業者に明らかなように、本発明はその技術的範囲内において実施例に様々な変更を加えて実施することができる。   The optimum embodiment of the present invention has been described above, but as will be apparent to those skilled in the art, the present invention can be implemented with various modifications within the technical scope thereof.

20 … 計算部
21 … 表示部
22 … 領域設定部
23 … パラメータ設定部
23a〜23g … 物体情報取得画面
24 … 観察領域
30 … 照明光源
32 … 点光源
40 … 照明光学系
41 … 第1コンデンサレンズ、 42 … 第2コンデンサレンズ
44 … 波長フィルタ
50 … ステージ
60 … 被検体
70 … 結像光学系、 71 … 対物レンズ
80 … イメージセンサ
90、390 … 第1空間光変調素子
91 … 照明領域
92 … 遮光部
93 … 液晶パネル
94 … デジタルマイクロミラーディバイス(DMD)
100、200、300 … 顕微鏡システム
242 … リレーレンズ
272 … ビームスプリッター
273 … 瞳
280 … 第2イメージセンサ
396 … 第2空間光変調素子
397 … 位相変調領域
398 … 回折光透過領域
DESCRIPTION OF SYMBOLS 20 ... Calculation part 21 ... Display part 22 ... Area setting part 23 ... Parameter setting part 23a-23g ... Object information acquisition screen 24 ... Observation area 30 ... Illumination light source 32 ... Point light source 40 ... Illumination optical system 41 ... 1st condenser lens, DESCRIPTION OF SYMBOLS 42 ... 2nd condenser lens 44 ... Wavelength filter 50 ... Stage 60 ... Subject 70 ... Imaging optical system, 71 ... Objective lens 80 ... Image sensor 90, 390 ... 1st spatial light modulator 91 ... Illumination area 92 ... Light-shielding part 93 ... Liquid crystal panel 94 ... Digital micromirror device (DMD)
DESCRIPTION OF SYMBOLS 100, 200, 300 ... Microscope system 242 ... Relay lens 272 ... Beam splitter 273 ... Pupil 280 ... 2nd image sensor 396 ... 2nd spatial light modulation element 397 ... Phase modulation area | region 398 ... Diffracted light transmission area | region

Claims (5)

照明光を被検体に照射する照明光源と、
前記被検体の透過光又は反射光を結像する結像光学系と、
前記結像光学系の瞳の共役位置における前記照明光の強度分布を変化させる第1空間光変調素子を有し、前記照明光源からの光を前記被検体に照射する照明光学系と、
前記結像光学系を介した光を検出するイメージセンサと、
前記第1空間光変調素子で前記照明光の強度分布を点光源(σ=0)と円環形状とに変化させて、前記点光源(σ=0)の強度分布に変化させた後に前記イメージセンサで検出される出力データと前記円環形状の強度分布に変化させた後に前記イメージセンサで検出された出力データとを比較し、前記被検体が微細構造を含むか否かを判断し、前記被検体に適した前記照明光の強度分布を計算する計算部と、
を備える顕微鏡システム。
An illumination light source for illuminating the subject with illumination light;
An imaging optical system that forms an image of transmitted light or reflected light of the subject;
An illumination optical system having a first spatial light modulation element that changes an intensity distribution of the illumination light at a conjugate position of a pupil of the imaging optical system, and irradiating the subject with light from the illumination light source;
An image sensor for detecting light via the imaging optical system;
After the intensity distribution of the illumination light is changed to a point light source (σ = 0) and an annular shape by the first spatial light modulator, the intensity distribution of the point light source (σ = 0) is changed to the image. Comparing the output data detected by the sensor with the output data detected by the image sensor after changing to the intensity distribution of the annular shape, determining whether the subject includes a fine structure , A calculation unit for calculating the intensity distribution of the illumination light suitable for the subject ;
A microscope system comprising:
前記被検体が微細構造を含むと推定した場合、前記計算部は、前記照明光の強度分布を円環形状にする請求項1に記載の顕微鏡システム。 The microscope system according to claim 1 , wherein when the object is estimated to include a fine structure, the calculation unit makes the intensity distribution of the illumination light an annular shape . 前記計算部は、前記点光源(σ=0)の強度分布に変化させた後に前記イメージセンサで検出される出力データと前記円環形状の強度分布に変化させる後に前記イメージセンサで検出された出力データとが異なる場合に、前記被検体が微細構造を含むと推定し、前記点光源(σ=0)の強度分布に変化させた後に前記イメージセンサで検出される出力データと前記円環形状の強度分布に変化させる後に前記イメージセンサで検出された出力データとが同じ場合に、前記被検体が微細構造を含まないと推定する請求項1又は請求項2に記載の顕微鏡システム。 The calculation unit outputs the output data detected by the image sensor after changing to the intensity distribution of the point light source (σ = 0) and the output detected by the image sensor after changing to the intensity distribution of the annular shape. When the data is different, it is estimated that the subject includes a fine structure, the output data detected by the image sensor after changing to the intensity distribution of the point light source (σ = 0), and the annular shape The microscope system according to claim 1 or 2, wherein when the output data detected by the image sensor after changing to an intensity distribution is the same, the object is estimated not to include a fine structure. 前記計算部、さらに前記被検体が波長に対する性質を判断する請求項1から請求項3のいずれか一項に記載の顕微鏡システム。
Said computing unit, the microscope system according to any one of claims 1 to 3, further wherein the subject to determine the nature versus wavelength.
前記照明光源は、第1波長の照明光と前記第1波長とは異なる第2波長の照明光とを照射することができ、
前記イメージセンサは、前記第1波長の照明光及び前記第2波長の照明光で照射した前記被写体を検出し、
前記計算部は、前記第1波長の照明光を照射して前記イメージセンサで検出される出力データと前記第2波長の照明光を照射して前記イメージセンサで検出された出力データとのコントラストを比較し、前記被検体が前記第1波長の照明光のコントラストがよいと判断し、前記被検体には前記第1波長の照明光が適していると推定する請求項4に記載の顕微鏡システム。
The illumination light source can irradiate illumination light of a first wavelength and illumination light of a second wavelength different from the first wavelength,
The image sensor detects the subject irradiated with illumination light of the first wavelength and illumination light of the second wavelength,
The calculation unit calculates a contrast between output data detected by the image sensor by irradiating the illumination light of the first wavelength and output data detected by the image sensor by irradiating the illumination light of the second wavelength. 5. The microscope system according to claim 4 , wherein the subject determines that the contrast of the illumination light of the first wavelength is good and estimates that the illumination light of the first wavelength is suitable for the subject .
JP2016140165A 2016-07-15 2016-07-15 Microscope system Active JP6264715B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016140165A JP6264715B2 (en) 2016-07-15 2016-07-15 Microscope system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016140165A JP6264715B2 (en) 2016-07-15 2016-07-15 Microscope system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015070899A Division JP5971621B2 (en) 2015-03-31 2015-03-31 Microscope system

Publications (2)

Publication Number Publication Date
JP2016181010A JP2016181010A (en) 2016-10-13
JP6264715B2 true JP6264715B2 (en) 2018-01-24

Family

ID=57131080

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016140165A Active JP6264715B2 (en) 2016-07-15 2016-07-15 Microscope system

Country Status (1)

Country Link
JP (1) JP6264715B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3194620B2 (en) * 1992-06-24 2001-07-30 オリンパス光学工業株式会社 Microscope aperture stop setting device
JP4020714B2 (en) * 2001-08-09 2007-12-12 オリンパス株式会社 microscope
JP4615886B2 (en) * 2004-04-01 2011-01-19 オリンパス株式会社 Scanning optical microscope
DE102010042351B4 (en) * 2010-10-12 2014-02-13 Leica Microsystems Cms Gmbh Microscope illumination system, microscope and oblique incident illumination method

Also Published As

Publication number Publication date
JP2016181010A (en) 2016-10-13

Similar Documents

Publication Publication Date Title
JP5721042B2 (en) Microscope system
US9599808B2 (en) Microscope apparatus
US20170156588A1 (en) Location Indicator for Optical Coherence Tomography in Ophthalmic Visualization
JP2008154941A (en) Optical image measuring apparatus and program for controlling optical image measuring apparatus
JP2008203246A (en) Optical image measuring device
KR20120135422A (en) Optical tomographic imaging apparatus
JP5757458B2 (en) Microscope system, server and program
JP2012222672A (en) Imaging apparatus and program
JP6762810B2 (en) Image processing device and image processing method
JP7246541B2 (en) Apparatus and method for measuring tear film thickness
JP2015100583A (en) Laser treatment system
US20210010796A1 (en) Optical coherence tomographic apparatus and optical coherence tomographic method
JP6234072B2 (en) Nonlinear optical microscope
JP2008237724A (en) Optical image measurement device
JP6025411B2 (en) Shape measuring apparatus and shape measuring method
JP5971621B2 (en) Microscope system
JP6264715B2 (en) Microscope system
WO2016158281A1 (en) Image display device, processing method, detecting method, and processing device
US7589330B2 (en) Ultraviolet microscope apparatus
JP2016022312A (en) Ophthalmologic imaging apparatus and control method for the same
JP2017195944A (en) Ophthalmologic imaging device
JP2016118615A (en) Microscope device and light irradiation method
WO2021095826A1 (en) Image processing device, image processing method, and program
JP2019078866A (en) Microscope system, observation method, and observation program
JP2022066299A (en) Ophthalmology imaging apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160715

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170719

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170913

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171002

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171127

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171210

R150 Certificate of patent or registration of utility model

Ref document number: 6264715

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250