JP5471715B2 - Focusing device, focusing method, focusing program, and microscope - Google Patents

Focusing device, focusing method, focusing program, and microscope Download PDF

Info

Publication number
JP5471715B2
JP5471715B2 JP2010078204A JP2010078204A JP5471715B2 JP 5471715 B2 JP5471715 B2 JP 5471715B2 JP 2010078204 A JP2010078204 A JP 2010078204A JP 2010078204 A JP2010078204 A JP 2010078204A JP 5471715 B2 JP5471715 B2 JP 5471715B2
Authority
JP
Japan
Prior art keywords
image
recording
sample
imaging range
range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010078204A
Other languages
Japanese (ja)
Other versions
JP2011209573A (en
Inventor
隆司 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2010078204A priority Critical patent/JP5471715B2/en
Publication of JP2011209573A publication Critical patent/JP2011209573A/en
Application granted granted Critical
Publication of JP5471715B2 publication Critical patent/JP5471715B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は合焦装置、合焦方法、合焦プログラム及び顕微鏡に関し、例えば組織切片を観察する場合に好適なものである。   The present invention relates to a focusing device, a focusing method, a focusing program, and a microscope, and is suitable for, for example, observing a tissue section.

病理診では、組織切片はスライドガラスに固定され、染色過程及び封入過程を経てプレパラートとして作製される。一般に、プレパラートの保管期間が長期間となると、生体サンプルの劣化や退色等によりプレパラートに対する顕微鏡での視認性が悪くなる。また、プレパラートはそれを作製した病院等の施設以外の施設で鏡検されることもあるが、該プレパラートの受け渡しは一般に郵送であり、一定の時間を要する。   In a pathological diagnosis, a tissue section is fixed to a glass slide and prepared as a preparation through a staining process and an encapsulation process. In general, when the preparation is stored for a long period of time, the visibility of the preparation with a microscope deteriorates due to deterioration or fading of the biological sample. In addition, the preparation may be microscopically examined at facilities other than the facility where the preparation is made, but delivery of the preparation is generally mailed and requires a certain amount of time.

このような実情等に鑑み、生体サンプルを画像データとして保存する装置が提案されている(例えば特許文献1参照)。この装置では、撮像画像のコントラストに基づいて焦点を合わせる合焦技術が採用される。   In view of such circumstances and the like, an apparatus for storing a biological sample as image data has been proposed (see, for example, Patent Document 1). This apparatus employs a focusing technique for focusing based on the contrast of the captured image.

特開2009−175334公報JP 2009-175334 A

しかしながら上述の合焦技術の場合、撮影範囲の奥行き方向(光軸方向)へ所定間隔ごとに焦点をずらし、これら焦点での撮像画像のコントラストに基づいて最適な焦点位置を探索する処理が必要となる。   However, in the case of the above-described focusing technique, it is necessary to shift the focus at predetermined intervals in the depth direction (optical axis direction) of the shooting range and to search for an optimum focus position based on the contrast of the captured image at these focus points. Become.

一般に、スライドガラスの製造時に生じる厚みの違いや、プレパラートの作製時に生じる封入材の量の違いなどの要因によって、光軸方向の探索距離がおおよそ200[μm]前後となる。例えば、生体サンプルに集光する光学レンズの被写界深度が1[μm]である場合、0.5[μm]の精度で最適な合焦位置を検出するには、400枚程度の撮像画像から探索する処理が必要となる。   In general, the search distance in the optical axis direction is approximately 200 [μm] due to factors such as a difference in thickness that occurs during the manufacture of a slide glass and a difference in the amount of encapsulating material that occurs during the preparation of a slide. For example, when the depth of field of an optical lens that focuses on a biological sample is 1 [μm], in order to detect an optimum in-focus position with an accuracy of 0.5 [μm], about 400 captured images Processing to search from is required.

この探索処理は、生体サンプルに対して割り当てられる撮影範囲ごとに実行されるため、最適な焦点位置の検出に要する時間は莫大となり、この結果、生体サンプル全体を画像データとして取得する効率が著しく低下することになる。   Since this search process is executed for each imaging range assigned to the biological sample, the time required to detect the optimum focal position is enormous, and as a result, the efficiency of acquiring the entire biological sample as image data is significantly reduced. Will do.

本発明は以上の点を考慮してなされたもので、合焦に要する時間を短縮させ得る合焦装置、合焦方法、合焦プログラム及び顕微鏡を提案しようとするものである。   The present invention has been made in view of the above points, and intends to propose a focusing device, a focusing method, a focusing program, and a microscope that can shorten the time required for focusing.

かかる課題を解決するため本発明は、合焦装置であって、対物レンズの視界よりも小さい記録用の撮影範囲に結像される像に対応する像が結像され、該対物レンズの視界よりも大きい焦点探索用の撮影範囲が、サンプルに対して割り当てられ、それら焦点探索用の撮影範囲内にあるサンプル部位の像を所定間隔ごとに取得する取得手段と、サンプル部位の像を用いて、該像に対応するサンプル部位の像が結像される記録用の撮影範囲における焦点位置を決定する決定手段と、サンプル部位の像のうち、対物レンズの視界内で記録用の撮影範囲の外側となる領域を用いて、焦点位置が未決定となる記録用の撮影範囲における焦点位置を予測する予測手段とを有する。   In order to solve such a problem, the present invention is a focusing device, in which an image corresponding to an image formed in a recording photographing range smaller than the field of view of the objective lens is formed, and from the field of view of the objective lens A larger focus search imaging range is assigned to the sample, and using the acquisition means for acquiring the image of the sample site within the focus search imaging range at predetermined intervals, and the sample site image, Determining means for determining a focal position in a recording photographing range where an image of a sample portion corresponding to the image is formed; and out of the recording photographing range in the field of view of the objective lens among the images of the sample portion And a predicting means for predicting the focus position in the recording photographing range where the focus position is undetermined.

また本発明は、合焦方法であって、対物レンズの視界よりも小さい記録用の撮影範囲に結像される像に対応する像が結像され、該対物レンズの視界よりも大きい焦点探索用の撮影範囲が、サンプルに対して割り当てられ、それら焦点探索用の撮影範囲内にあるサンプル部位の像を所定間隔ごとに取得する取得ステップと、サンプル部位の像を用いて、該像に対応するサンプル部位の像が結像される記録用の撮影範囲における焦点位置を決定する決定ステップと、サンプル部位の像のうち、対物レンズの視界内で記録用の撮影範囲の外側となる領域を用いて、焦点位置が未決定となる記録用の撮影範囲における焦点位置を予測する予測ステップとを有する。   Further, the present invention is a focusing method, in which an image corresponding to an image formed in a recording photographing range smaller than the field of view of the objective lens is formed, and the focus search is larger than the field of view of the objective lens. The imaging range is assigned to the sample, and an acquisition step for acquiring an image of the sample part within the focus search imaging range at predetermined intervals and the image of the sample part are used to correspond to the image. A determination step for determining a focal position in an imaging range for recording on which an image of the sample site is formed, and an area outside the imaging range for recording in the field of view of the objective lens in the image of the sample site And a prediction step of predicting the focal position in the recording photographing range in which the focal position is undetermined.

また本発明は、合焦プログラムであって、コンピュータに対して、対物レンズの視界よりも小さい記録用の撮影範囲に結像される像に対応する像が結像され、該対物レンズの視界よりも大きい焦点探索用の撮影範囲が、サンプルに対して割り当てられ、それら焦点探索用の撮影範囲内にあるサンプル部位の像を所定間隔ごとに取得すること、サンプル部位の像を用いて、該像に対応するサンプル部位の像が結像される記録用の撮影範囲における焦点位置を決定すること、サンプル部位の像のうち、対物レンズの視界内で記録用の撮影範囲の外側となる領域を用いて、焦点位置が未決定となる記録用の撮影範囲における焦点位置を予測することを実行させる。   Further, the present invention is a focusing program, wherein an image corresponding to an image formed in a recording photographing range smaller than the field of view of the objective lens is formed on the computer. An imaging range for the focal point search that is larger than that is assigned to the sample, and an image of the sample part within the imaging range for the focal point search is obtained at predetermined intervals. Determining the focal position in the recording imaging range where the image of the sample region corresponding to the image is formed, and using the region outside the recording imaging range in the field of view of the objective lens in the sample site image Thus, prediction of the focal position in the recording photographing range where the focal position is undetermined is executed.

また本発明は、顕微鏡であって、対物レンズの視界よりも小さい撮影範囲をもつ記録用の撮像素子と、対物レンズの視界よりも大きい撮影範囲をもち、記録用の撮像素子の撮影範囲に結像される像に対応する像が結像される焦点探索用の撮像素子と、サンプルに対して焦点探索用の撮像素子の撮影範囲が割り当てられ、それら撮影範囲内のサンプル部位の像を所定間隔ごとに取得する取得手段と、サンプル部位の像を用いて、該像に対応するサンプル部位の像が結像される記録用の撮像素子の撮影範囲における焦点位置を決定する決定手段と、サンプル部位の像のうち、対物レンズの視界内で記録用の撮像素子の外側となる領域を用いて、焦点位置が未決定となる記録用の撮像素子の撮影範囲における焦点位置を予測する予測手段とを有する。   Further, the present invention is a microscope having a recording imaging element having a photographing range smaller than the field of view of the objective lens and a photographing range larger than the field of view of the objective lens, and is connected to the photographing range of the recording image sensor. An imaging element for focus search on which an image corresponding to the image to be imaged is formed, and an imaging range of the imaging element for focus search is assigned to the sample, and images of the sample parts within the imaging range are set at predetermined intervals. An acquisition means for acquiring each image, a determination means for determining a focal position in an imaging range of a recording imaging element on which an image of a sample part corresponding to the image is formed, and a sample part Predicting means for predicting the focal position in the imaging range of the recording image sensor for which the focal position is undetermined, using a region outside the recording image sensor in the field of view of the objective lens. Have

本発明は、焦点探索用の撮影範囲から所定間隔ごとに取得した像だけで、サンプルに対して割り当てられる記録用の撮影範囲よりも広範囲の面積に対応した焦点位置が得られるため、焦点探索に用いるべきサンプルに対する撮影枚数が大幅に低減される。かくして合焦に要する時間を短縮させ得る合焦装置、合焦方法、合焦プログラム及び顕微鏡が実現される。   In the present invention, a focus position corresponding to a wider area than the recording imaging range assigned to the sample can be obtained with only images acquired at predetermined intervals from the imaging range for focus searching. The number of shots for the sample to be used is greatly reduced. Thus, a focusing device, a focusing method, a focusing program, and a microscope that can shorten the time required for focusing are realized.

顕微鏡の構成を示す概略図である。It is the schematic which shows the structure of a microscope. 撮像素子における撮影範囲の説明に供する概略図である。It is the schematic where it uses for description of the imaging range in an image sensor. 記録対象に用いられるべき組織切片の像と、焦点探索に用いられるべき組織切片の位相差像を示す写真である。It is a photograph which shows the image of the tissue slice which should be used for a record object, and the phase contrast image of the tissue slice which should be used for a focus search. 統括制御部の構成を示す概略図である。It is the schematic which shows the structure of a comprehensive control part. 合焦プログラムに基づくCPUの機能的な構成を示す概略図である。It is the schematic which shows the functional structure of CPU based on a focusing program. 位相差像の取得対象とされる生体サンプル例を示す概略図である。It is the schematic which shows the example of the biological sample used as the acquisition object of a phase difference image. 生体サンプルの凹凸状態の説明に供する概略図である。It is the schematic where it uses for description of the uneven | corrugated state of a biological sample. 位相差像の一方の像に対する他方の像の画素ごとの距離(視差)を示す概略図である。It is the schematic which shows the distance (parallax) for every pixel of the other image with respect to one image of a phase difference image. 余白領域の説明に供する概略図である。It is the schematic where it uses for description of a blank area. 余白領域を用いたサンプル部位の奥行幅の予測の説明に供する概略図である。It is the schematic where it uses for description of prediction of the depth width of the sample site | part using a blank area | region. 合焦位置の決定の説明に供する概略図である。It is the schematic where it uses for description of determination of a focus position. 合焦処理手順を示すフローチャートである。It is a flowchart which shows a focusing process procedure. X−Z方向における各画素の視差(凹凸分布)に最も近似する直線の検出の説明に供する概略図である。It is a schematic diagram used for explanation of detection of a straight line that most closely approximates the parallax (unevenness distribution) of each pixel in the XZ direction. 他の実施の形態における奥行幅の分割例の説明に供する概略図である。It is the schematic where it uses for description of the example of a division | segmentation of the depth width in other embodiment.

以下、発明を実施するための形態について説明する。なお、説明は以下の順序とする。
<1.実施の形態>
[1−1.顕微鏡の構成]
[1−2.統括制御部の機能的な構成]
[1−3.合焦処理の具体的内容]
[1−4.合焦処理手順]
[1−5.効果等]
<2.他の実施の形態>
Hereinafter, modes for carrying out the invention will be described. The description will be in the following order.
<1. Embodiment>
[1-1. Microscope configuration]
[1-2. Functional configuration of overall control unit]
[1-3. Specific contents of focusing process]
[1-4. Focusing procedure]
[1-5. Effect]
<2. Other embodiments>

<1.実施の形態>
[1−1.顕微鏡の構成]
図1において、本一実施の形態である顕微鏡1の構成を示す。この顕微鏡1は、プレパラートPRTを配置可能なステージ(以下、これをプレパラートステージとも呼ぶ)11を有する。
<1. Embodiment>
[1-1. Microscope configuration]
In FIG. 1, the structure of the microscope 1 which is this one Embodiment is shown. The microscope 1 has a stage 11 on which a preparation PRT can be placed (hereinafter also referred to as a preparation stage) 11.

プレパラートPRTは、血液等の結合組織、上皮組織又はそれらの双方の組織などにおけるサンプル(以下、これを生体サンプルとも呼ぶ)を、所定の固定手法によりスライドガラスに固定したものであり、該生体サンプルには必要に応じて染色が施される。染色には、HE(ヘマトキシリン・エオジン)染色、ギムザ染色又はパパニコロウ染色等に代表される一般染色と呼ばれる染色のみならず、FISH(Fluorescence In-Situ Hybridization)や酵素抗体法等の特殊染色と呼ばれる染色が含まれる。   The preparation PRT is obtained by fixing a sample (hereinafter also referred to as a biological sample) in a connective tissue such as blood, epithelial tissue, or both tissues to a slide glass by a predetermined fixing method. Is dyed as necessary. Staining includes not only general staining such as HE (hematoxylin and eosin) staining, Giemsa staining or Papanicolaou staining, but also special staining such as FISH (Fluorescence In-Situ Hybridization) and enzyme antibody method. Is included.

プレパラートステージ11のうち、プレパラートPRTが配される面(以下、これをプレパラート配置面とも呼ぶ)とは逆の面側には光源12が配される。光源12は、一般染色が施された生体サンプルを照明する光(以下、これを明視野照明光とも呼ぶ)を照射可能なものとされる。また、プレパラート配置面側には、特殊染色が施された生体サンプルを照明する光(以下、これを暗視野照明光とも呼ぶ)を照射可能な光源(図示せず)が配される。   The light source 12 is arranged on the surface side of the preparation stage 11 opposite to the surface on which the preparation PRT is arranged (hereinafter also referred to as a preparation arrangement surface). The light source 12 can irradiate light that illuminates a biological sample that has been subjected to general staining (hereinafter also referred to as bright-field illumination light). A light source (not shown) capable of irradiating light for illuminating a biological sample subjected to special staining (hereinafter also referred to as dark field illumination light) is disposed on the preparation arrangement surface side.

プレパラートステージ11と光源12との間には、プレパラート配置面における基準位置の法線を光軸LXとするコンデンサレンズ13が配される。   A condenser lens 13 is disposed between the preparation stage 11 and the light source 12 with the normal line of the reference position on the preparation arrangement surface as the optical axis LX.

プレパラートステージ11のプレパラート配置面側には、該プレパラート配置面における基準位置の法線を光軸LXとする対物レンズ14が配される。   On the preparation arrangement surface side of the preparation stage 11, an objective lens 14 having the normal line of the reference position on the preparation arrangement surface as the optical axis LX is disposed.

対物レンズ14の後方には、対物レンズ14から入射する光を透過光と反射光とに分割するハーフミラー15が配される。   Behind the objective lens 14 is a half mirror 15 that splits the light incident from the objective lens 14 into transmitted light and reflected light.

ハーフミラー15の透過側の後方には、CCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)等の撮像素子16が配される。この撮像素子16は、記録対象とすべき像の撮影に用いられる。図2に示すように、この撮像素子16における撮影範囲FSC1は、対物レンズ14の視界FOVに内接する矩形の範囲とされ、対物レンズ14の光軸LXを中心として位置される。ちなみに撮影範囲は、実際に画素として撮影に用いられる受光素子部分である。   An imaging element 16 such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor) is disposed behind the transmission side of the half mirror 15. The image sensor 16 is used for capturing an image to be recorded. As shown in FIG. 2, the imaging range FSC1 of the imaging device 16 is a rectangular range that is inscribed in the field of view FOV of the objective lens 14, and is positioned around the optical axis LX of the objective lens 14. Incidentally, the photographing range is a light receiving element portion that is actually used for photographing as a pixel.

一方、ハーフミラー15の反射側の後方には、該反射側に投影される対物レンズ14の被写体像を後方(予定される結像面)にリレーするフィールドレンズ17が配される。このフィールドレンズ17では、ハーフミラー15において反射される被写体光が集められるので視野周辺における明度の低下が抑制される。   On the other hand, a field lens 17 that relays the subject image of the objective lens 14 projected on the reflection side to the rear (scheduled imaging plane) is disposed behind the reflection side of the half mirror 15. In the field lens 17, the subject light reflected by the half mirror 15 is collected, so that a decrease in brightness around the field of view is suppressed.

フィールドレンズ17の後方には絞りマスク18が配される。絞りマスク18は、フィールドレンズ17の光軸と直交する面のうちその光軸を境界として対称となる位置に一対の開口18A、18Bを有する。絞りマスク18は、これら開口18A、18Bによって、フィールドレンズ17から入射する被写体光束を分割する。分割光束は、被写体光束の結像面で交差し、該結像面の前後で位置関係が入れ換わる光束となる。   A diaphragm mask 18 is disposed behind the field lens 17. The aperture mask 18 has a pair of openings 18A and 18B at positions symmetrical to each other with respect to the optical axis of the surface orthogonal to the optical axis of the field lens 17. The aperture mask 18 divides the subject luminous flux incident from the field lens 17 through the openings 18A and 18B. The split light beams intersect with each other on the imaging surface of the subject light beam, and become a light beam whose positional relationship is switched before and after the imaging surface.

一対の開口18A、18Bの後方にはそれぞれセパレータレンズ19A、19Bが配される。セパレータレンズ19A、19Bは、対応する開口18A、18Bによって分割される分割光束をアオリ結像(シフト)させ、フィールドレンズ17によってリレーされる予定結像面に対して、視点の異なる1対の像(以下、これを位相差像とも呼ぶ)を形成する。   Separator lenses 19A and 19B are disposed behind the pair of openings 18A and 18B, respectively. Separator lenses 19A, 19B cause a split light beam divided by corresponding openings 18A, 18B to undergo an oblique image formation (shift), and a pair of images having different viewpoints with respect to a planned image formation surface relayed by field lens 17 (Hereinafter also referred to as a phase difference image).

なお、セパレータレンズ19A、19Bがフィールドレンズ17の口径蝕(ケラレ)に掛かると、分割光束の一部が欠損する。このためセパレータレンズ19A、19Bは、口径蝕に掛からないようフィールドレンズ17の中央側に寄せて配置される。またセパレータレンズ19A、19Bの被写界深度は、対物レンズ14の被写界深度よりも広く設定される。このセパレータレンズ19A、19Bの被写界深度の設定は、例えば絞りマスク18における開口18A、18Bの大きさを可変することにより行われる。   When the separator lenses 19A and 19B are subjected to vignetting (vignetting) of the field lens 17, a part of the divided light flux is lost. For this reason, the separator lenses 19A and 19B are arranged close to the center side of the field lens 17 so as not to suffer from vignetting. Further, the depth of field of the separator lenses 19 </ b> A and 19 </ b> B is set wider than the depth of field of the objective lens 14. The setting of the depth of field of the separator lenses 19A and 19B is performed by changing the sizes of the openings 18A and 18B in the aperture mask 18, for example.

セパレータレンズ19A、19Bの後方には、焦点の探索対象に用いるべき像を取得するための撮像素子20が配される。図2に示したように、撮像素子20の撮影範囲FSC2は、撮像素子16の撮影範囲FSC1よりも大きい範囲とされ、対物レンズ14の光軸LXを中心として位置される。すなわち撮像素子20は、ラインセンサーではなくエリアセンサーである。   An imaging element 20 for obtaining an image to be used as a focus search target is disposed behind the separator lenses 19A and 19B. As shown in FIG. 2, the imaging range FSC2 of the image sensor 20 is larger than the imaging range FSC1 of the image sensor 16, and is positioned around the optical axis LX of the objective lens 14. In other words, the image sensor 20 is not a line sensor but an area sensor.

この顕微鏡1における信号処理系には、ステージ駆動制御部31、照明制御部32、撮像制御部33、撮像制御部34及び画像処理部35が含まれる。   The signal processing system in the microscope 1 includes a stage drive control unit 31, an illumination control unit 32, an imaging control unit 33, an imaging control unit 34, and an image processing unit 35.

ステージ駆動制御部31は、光軸と直交する方向(すなわちプレパラート配置面に対して平行となる方向)にプレパラートステージ11を移動させる。具体的には図2に示したように、プレパラートPRTに配される生体サンプルSPLに対して撮像素子16の撮影範囲FSC1が割り当てられるよう、プレパラートステージ11が走査される。   The stage drive control unit 31 moves the preparation stage 11 in a direction orthogonal to the optical axis (that is, a direction parallel to the preparation arrangement surface). Specifically, as shown in FIG. 2, the preparation stage 11 is scanned so that the imaging range FSC1 of the imaging device 16 is assigned to the biological sample SPL arranged in the preparation PRT.

ちなみに図2に示す例では、生体サンプルSPLに割り当てられる撮影範囲FSC1が重ならない態様となっているが、当該撮影範囲FSC1の一部が重なる態様であってもよい。   Incidentally, in the example illustrated in FIG. 2, the imaging ranges FSC1 assigned to the biological sample SPL are not overlapped. However, the imaging ranges FSC1 may be partially overlapped.

またステージ駆動制御部31は、生体サンプルSPLに割り当てるべき撮影範囲FSC1が変更されるたびに、光軸方向(すなわちプレパラート配置面に対して直交する方向)にプレパラートステージ11を移動させる。具体的には、対物レンズ14の光軸方向のずれ量を示すデータに基づいて、生体サンプルSPLに割り当てられる撮影範囲FSC1内に存在するサンプル部位に対物レンズ14の焦点が合うよう、プレパラートステージ11が調整される。   The stage drive control unit 31 moves the preparation stage 11 in the optical axis direction (that is, the direction orthogonal to the preparation arrangement surface) every time the imaging range FSC1 to be assigned to the biological sample SPL is changed. Specifically, based on the data indicating the amount of deviation of the objective lens 14 in the optical axis direction, the preparation stage 11 is set so that the objective lens 14 is focused on the sample region existing in the imaging range FSC1 assigned to the biological sample SPL. Is adjusted.

照明制御部32は、明視野像を取得すべきモード(以下、これを明視野モードとも呼ぶ)又は暗視野像を取得すべきモード(以下、これを暗視野モードとも呼ぶ)に応じたパラメータを光源12又は図示しない光源に設定し、照明光を照射させる。このパラメータは例えば照明光の強度や光源種類の選択などである。   The illumination control unit 32 sets parameters according to a mode for acquiring a bright field image (hereinafter also referred to as a bright field mode) or a mode for acquiring a dark field image (hereinafter also referred to as a dark field mode). The light source 12 or a light source (not shown) is set, and illumination light is irradiated. This parameter is, for example, selection of illumination light intensity or light source type.

なお、明視野モードにおける照射光は一般に可視光とされる。一方、暗視野モードにおける照射光は、特殊染色で用いられる蛍光マーカーを励起する波長を含む光とされる。また暗視野モードでは蛍光マーカーに対する背景部分はカットアウトされる。   Note that the irradiation light in the bright field mode is generally visible light. On the other hand, the irradiation light in the dark field mode is light including a wavelength that excites a fluorescent marker used in special staining. In the dark field mode, the background portion with respect to the fluorescent marker is cut out.

光源12から照明光が照射された場合、コンデンサレンズ13によって、プレパラートステージ11におけるプレパラート配置面の基準位置に集められる。そして、撮影範囲FSC1として割り当てられるサンプル部位の像は対物レンズ14によって拡大され、撮像素子16上に結像される。一方、撮影範囲FSC2として割り当てられるサンプル部位の像は対物レンズ14によって拡大され、セパレータレンズ19A、19Bによって位相差像として形成され、撮像素子20上に結像される。   When illumination light is irradiated from the light source 12, the light is collected by the condenser lens 13 at the reference position on the preparation arrangement surface of the preparation stage 11. Then, the image of the sample portion assigned as the imaging range FSC1 is enlarged by the objective lens 14 and formed on the image sensor 16. On the other hand, the image of the sample portion assigned as the imaging range FSC2 is enlarged by the objective lens 14, formed as a phase difference image by the separator lenses 19A and 19B, and formed on the image sensor 20.

ここで、記録対象に用いるべきとして撮像素子16に結像される組織切片の像と、焦点の探索対象に用いるべきとして撮像素子20に結像される組織切片の位相差像との写真を図3に示す。この図3からも分かるように、撮影範囲FSC1として割り当てられるサンプル部位の像は撮像素子16上に結像される一方、撮影範囲FSC2として割り当てられるサンプル部位の像は位相差像として撮像素子20上に結像される。   Here, a photograph of a tissue section image formed on the image sensor 16 to be used as a recording target and a phase difference image of the tissue section imaged on the image sensor 20 as a focus search target is illustrated. 3 shows. As can be seen from FIG. 3, the image of the sample part assigned as the imaging range FSC1 is formed on the image sensor 16, while the image of the sample part assigned as the imaging range FSC2 is formed on the image sensor 20 as a phase difference image. Is imaged.

撮像制御部33は、明視野モード又は暗視野モードに応じたパラメータを撮像素子16に設定し、撮影範囲FSC1として割り当てられる被写体像のデータを取得する。このパラメータは例えば露光の開始タイミング及び終了タイミングなどである。   The imaging control unit 33 sets a parameter corresponding to the bright field mode or the dark field mode in the imaging element 16, and acquires subject image data assigned as the imaging range FSC1. This parameter is, for example, the exposure start timing and end timing.

撮像制御部34は、明視野モード又は暗視野モードに応じたパラメータを撮像素子20に設定し、撮影範囲FSC2として割り当てられる位相差像のデータを取得する。このパラメータは例えば露光の開始タイミング及び終了タイミングなどである。   The imaging control unit 34 sets parameters according to the bright field mode or the dark field mode in the imaging element 20 and acquires phase difference image data allocated as the imaging range FSC2. This parameter is, for example, the exposure start timing and end timing.

画像処理部35は、撮像素子16から出力される被写体像のデータに対して各種の画像処理を施す。   The image processing unit 35 performs various types of image processing on the subject image data output from the image sensor 16.

画像処理には、例えば、生体サンプルSPLに対して割り当てられる撮影範囲FSC1内に存在するサンプル部位の像を、所定の連結アルゴリズムを用いて連結して生体サンプル像(対物レンズ14の倍率によって拡大された生体サンプルSPL全体の像)を生成する処理がある。また別例として、所定の画面生成アルゴリズムを用いて、表示命令で指定される拡大像の表示画面を生成する処理がある。   In the image processing, for example, the images of the sample parts existing in the imaging range FSC1 assigned to the biological sample SPL are connected using a predetermined connection algorithm, and the biological sample image (enlarged by the magnification of the objective lens 14). And an image of the entire biological sample SPL). As another example, there is a process of generating a magnified image display screen specified by a display command using a predetermined screen generation algorithm.

また画像処理部35は、生体サンプル像を生成した場合、該生体サンプル像を被験者単位で記憶媒体に記憶するようになっている。   In addition, when a biological sample image is generated, the image processing unit 35 stores the biological sample image in a storage medium in units of subjects.

ところで、ステージ駆動制御部31、照明制御部32、撮像制御部33、撮像制御部34及び画像処理部35には、これら制御部を統括する制御部(以下、これを統括制御部とも呼ぶ)40が接続される。   Incidentally, the stage drive control unit 31, the illumination control unit 32, the imaging control unit 33, the imaging control unit 34, and the image processing unit 35 include a control unit (hereinafter also referred to as a general control unit) 40 that controls these control units. Is connected.

[1−2.統括制御部の構成]
統括制御部40は、図4に示すように、CPU(Central Processing Unit)41に対して各種ハードウェアを接続することにより構成される。
[1-2. Configuration of general control unit]
As shown in FIG. 4, the overall control unit 40 is configured by connecting various hardware to a CPU (Central Processing Unit) 41.

具体的にはROM(Read Only Memory)42、CPU41のワークメモリとなるRAM(Random Access Memory)43、ユーザの操作に応じた命令を入力する操作入力部44、インターフェイス45、表示部46及び記憶部47がバス48を介して接続される。   Specifically, a ROM (Read Only Memory) 42, a RAM (Random Access Memory) 43 serving as a work memory of the CPU 41, an operation input unit 44 for inputting commands according to user operations, an interface 45, a display unit 46, and a storage unit 47 is connected via the bus 48.

ROM42には、各種の処理を実行させるプログラムが格納される。インターフェイス45には、ステージ駆動制御部31、照明制御部32、撮像制御部33、撮像制御部34及び画像処理部35がそれぞれ接続される。   The ROM 42 stores programs for executing various processes. The interface 45 is connected to the stage drive control unit 31, the illumination control unit 32, the imaging control unit 33, the imaging control unit 34, and the image processing unit 35, respectively.

表示部46には、液晶ディスプレイ、EL(Electro Luminescence)ディスプレイ又はプラズマディスプレイ等が適用される。また記憶部47には、HD(Hard Disk)に代表される磁気ディスクもしくは半導体メモリ又は光ディスク等が適用される。USB(Universal Serial Bus)メモリやCF(Compact
Flash)メモリ等のように可搬型メモリが適用されてもよい。
A liquid crystal display, an EL (Electro Luminescence) display, a plasma display, or the like is applied to the display unit 46. For the storage unit 47, a magnetic disk represented by HD (Hard Disk), a semiconductor memory, an optical disk, or the like is applied. USB (Universal Serial Bus) memory and CF (Compact)
A portable memory such as a Flash memory may be applied.

CPU41は、ROM42に格納される複数のプログラムのうち、操作入力部44などから与えられる命令に対応するプログラムをRAM43に展開し、展開したプログラムにしたがって、表示部46及び記憶部47を適宜制御する。   The CPU 41 develops, in the RAM 43, a program corresponding to a command given from the operation input unit 44 among the plurality of programs stored in the ROM 42, and appropriately controls the display unit 46 and the storage unit 47 according to the developed program. .

またCPU41は、展開したプログラムにしたがって、インターフェイス45を介してステージ駆動制御部31、照明制御部32、撮像制御部33、撮像制御部34又は画像処理部35での制御条件を指定するなど処理を実行するようになされている。   Further, the CPU 41 performs processing such as designating control conditions in the stage drive control unit 31, the illumination control unit 32, the imaging control unit 33, the imaging control unit 34, or the image processing unit 35 via the interface 45 in accordance with the developed program. It is made to run.

[1−3.合焦処理の具体的内容]
CPU41は、合焦位置を探索すべき旨の開始命令を受けた場合、その命令に対応するプログラムをRAM43に展開する。この場合、CPU41は、展開したプログラムにしたがって、図5に示すように、位相差像取得部51、視差算出部52、合焦位置決定部53及び合焦位置予測部54として機能する。
[1-3. Specific contents of focusing process]
When the CPU 41 receives a start command to search for the in-focus position, the CPU 41 develops a program corresponding to the command in the RAM 43. In this case, the CPU 41 functions as a phase difference image acquisition unit 51, a parallax calculation unit 52, a focus position determination unit 53, and a focus position prediction unit 54, as shown in FIG.

位相差像取得部51は、生体サンプルSPLに対して、撮影範囲FCS1と同様に割り当てられる撮影範囲FSC2内のサンプル部位の位相差像を、例えば図6に示すように、1つの撮影範囲FSC2をあけて交互(図6の太い破線で囲まれる部分)に取得する。   The phase difference image acquisition unit 51 obtains a phase difference image of a sample part in the imaging range FSC2 assigned to the biological sample SPL in the same manner as the imaging range FCS1, for example, as shown in FIG. Opening alternately (portions surrounded by thick broken lines in FIG. 6).

視差算出部52は、位相差像取得部51によって取得される位相差像を用いて、基準とすべき一方の像(以下、これを基準像とも呼ぶ)に対する他方の像(以下、これを参照像とも呼ぶ)の距離を画素単位で算出する。   The parallax calculation unit 52 uses the phase difference image acquired by the phase difference image acquisition unit 51 and uses the other image (hereinafter referred to as “reference image”) for one image (hereinafter also referred to as a reference image) as a reference. (Also called an image) is calculated in pixel units.

具体的には、例えば、位相差像における基準像における各画素が、注目対象の画素(以下、これを注目画素と呼ぶ)として順に選択される。そして、注目画素が選択されるたびに、その注目画素に対応する画素(以下、これを相対画素と呼ぶ)が、位相差像における参照像から検出され、該注目画素に対する相対画素の距離が算出される。   Specifically, for example, each pixel in the reference image in the phase difference image is sequentially selected as a target pixel (hereinafter referred to as a target pixel). Each time a target pixel is selected, a pixel corresponding to the target pixel (hereinafter referred to as a relative pixel) is detected from the reference image in the phase difference image, and the distance of the relative pixel to the target pixel is calculated. Is done.

なお、相対画素の検出手法には、例えば、注目画素を中心とする注目ブロックの画素値と最も類似度が高いブロックを、参照すべき位相差像の他方の像から正規化相関法により探索し、該ブロックの中心を相対画素とする手法が適用される。   As a relative pixel detection method, for example, a block having the highest similarity with the pixel value of the target block centered on the target pixel is searched from the other image of the phase difference image to be referred to by the normalized correlation method. A method is adopted in which the center of the block is a relative pixel.

視差算出部52によって算出される距離は視差に相当する。この距離(視差)は小さいほど対物レンズ14の焦点が後方に位置し、これに対して大きいほど前方に位置する関係にある。したがって、基準像の各画素に対する参照像の相対画素の距離は、図7に示すように、対物レンズ14の視界に映るサンプル部位の凹凸状態を示す情報に相当するものとなる。   The distance calculated by the parallax calculation unit 52 corresponds to parallax. The smaller the distance (parallax) is, the closer the focal point of the objective lens 14 is to the rear, and the larger the distance (parallax), the more forward the position is. Therefore, the distance of the relative pixel of the reference image with respect to each pixel of the standard image corresponds to information indicating the unevenness state of the sample portion reflected in the field of view of the objective lens 14, as shown in FIG.

ここで、図3に示した生体サンプルの位相差像における基準像の各画素の位置と、当該画素に対する参照像の相対画素の距離との関係をグラフとして図8に示す。この図8におけるグラフの薄い部分は表側を、濃い部分は裏側を示すものである。この図8から、対物レンズ14の視界に映るサンプル部位の凹凸状態が反映されていることが分かる。ちなみに、この図8におけるサンプル部位の端はまくれた状態となっている。   Here, the relationship between the position of each pixel of the reference image in the phase difference image of the biological sample shown in FIG. 3 and the distance of the relative pixel of the reference image with respect to the pixel is shown in FIG. 8 as a graph. The thin part of the graph in FIG. 8 indicates the front side, and the dark part indicates the back side. It can be seen from FIG. 8 that the uneven state of the sample portion reflected in the field of view of the objective lens 14 is reflected. Incidentally, the end of the sample region in FIG. 8 is turned up.

合焦位置決定部53は、視差算出部52によって視差(基準像の各画素に対する参照像の相対画素の距離)が算出された場合、第1段階として、該視差に基づいて、位相差像取得部51で取得対象とされた撮影範囲FSC2内のサンプル部位の奥行幅を算出する。   When the parallax (distance of the relative pixel of the reference image with respect to each pixel of the reference image) is calculated by the parallax calculation unit 52, the in-focus position determination unit 53 obtains a phase difference image based on the parallax as a first step. The depth width of the sample region within the imaging range FSC2 that is the acquisition target in the unit 51 is calculated.

具体的には、基準像の各画素に対する参照像の相対画素の距離のうち、最大となる距離と最小となる距離の差が奥行幅として算出される。すなわち、プレパラートPRTの一方の面側に最も近い位置を通る水平面と、他方の面側に最も近い位置を通る水平面との距離が奥行幅とされる。   Specifically, the difference between the maximum distance and the minimum distance among the relative pixel distances of the reference image with respect to each pixel of the reference image is calculated as the depth width. That is, the depth width is the distance between the horizontal plane passing through the position closest to one surface side of the preparation PRT and the horizontal plane passing through the position closest to the other surface side.

上述したようにセパレータレンズ19A,19Bの被写界深度は対物レンズ14よりも広く調整されている。例えば、撮像素子16上に結像される撮影範囲FSC1のサンプル部位の被写界深度が1[μm]程度で設定され、撮像素子20上に結像される撮影範囲FSC2のサンプル部位の被写界深度が200[μm]程度で設定されているものとする。この撮像素子16で撮影される画像を用いて焦点位置を探索する場合、光軸方向へ±100[μm]程度の範囲でサンプルステージ11を動かしながら多数の画像を取得する必要がある。これに対し、撮像素子20で撮影される画像を用いて焦点位置を探索する場合、撮像素子16で撮影される画像を用いて焦点位置を探索する範囲と同等の探索範囲を、サンプルステージ11を動かすことなく1回の撮影で取得可能となる。   As described above, the depth of field of the separator lenses 19 </ b> A and 19 </ b> B is adjusted wider than that of the objective lens 14. For example, the depth of field of the sample region of the imaging range FSC1 imaged on the image sensor 16 is set to about 1 [μm], and the image of the sample region of the imaging range FSC2 imaged on the image sensor 20 is set. It is assumed that the depth of field is set to about 200 [μm]. When searching for a focal position using an image captured by the image sensor 16, it is necessary to acquire a large number of images while moving the sample stage 11 in a range of about ± 100 [μm] in the optical axis direction. On the other hand, when searching for a focal position using an image captured by the image sensor 20, a search range equivalent to a range for searching for a focal position using an image captured by the image sensor 16 is selected using the sample stage 11. It can be acquired by one shooting without moving.

したがって、合焦位置決定部53は、撮像素子20の像(位相差像)を用いることで、撮像素子16の像を用いる場合に比べて、撮影枚数を抑えつつも、対物レンズ14の視界に映る被写体像の奥行幅を正確に算出できる。   Therefore, the in-focus position determination unit 53 uses the image (phase difference image) of the image sensor 20 to reduce the number of images to be taken in the field of view of the objective lens 14 compared to the case of using the image of the image sensor 16. The depth of the subject image can be accurately calculated.

合焦位置決定部53は、サンプル部位の奥行幅を算出した場合、第2段階として、サンプル部位の奥行幅に基づいて、撮影範囲FSC1において合わせるべき対物レンズ14の焦点位置(以下、これを合焦位置とも呼ぶ)を決定する。ちなみに撮影範囲FSC1は、位相差像取得部51において取得対象とされた撮影範囲FSC2に対応する撮影範囲である。   When the focus position determination unit 53 calculates the depth width of the sample part, as a second stage, the focus position of the objective lens 14 to be adjusted in the imaging range FSC1 (hereinafter referred to as the focus position) based on the depth width of the sample part. (Also called the focal position). Incidentally, the imaging range FSC1 is an imaging range corresponding to the imaging range FSC2 that is the acquisition target in the phase difference image acquisition unit 51.

この実施の形態における焦点位置の具体的な決定手法は、まず、サンプル部位の奥行幅を、該奥行幅に対して設定される閾値以上であるか否か判断する。閾値は、対物レンズ14に対する絞りの開口に対して設定される開口量等のように、対物レンズ14の被写界深度に相当する値とされる。   The specific method for determining the focal position in this embodiment first determines whether the depth width of the sample region is equal to or greater than a threshold set for the depth width. The threshold value is a value corresponding to the depth of field of the objective lens 14, such as an aperture amount set for the aperture of the diaphragm with respect to the objective lens 14.

ここで、例えば図9(A)に示すように、サンプル部位の奥行幅が閾値未満となる場合、その奥行幅の中間を合焦位置として決定する。一方、サンプル部位の奥行幅が閾値以上となる場合、例えば図9(B)に示すように、その奥行幅を、対物レンズ14の被写界深度に納まる複数の層(以下、これを撮影層とも呼ぶ)に分割し、それら撮影層それぞれにおける奥行き方向の中間を合焦位置として決定する。   Here, for example, as shown in FIG. 9A, when the depth width of the sample region is less than the threshold value, the middle of the depth width is determined as the in-focus position. On the other hand, when the depth width of the sample region is equal to or larger than the threshold, for example, as shown in FIG. 9B, a plurality of layers (hereinafter referred to as imaging layers) whose depth width falls within the depth of field of the objective lens 14 are used. Also, the middle of the depth direction in each of the photographing layers is determined as the focus position.

このように合焦位置決定部53は、サンプル部位の奥行幅が対物レンズ14の被写界深度未満である場合にはその奥行幅に応じて合焦位置を決定し、被写界深度以上となる場合には被写界深度に納まる撮影層ごとに合焦位置を決定する。つまり合焦位置決定部53は、対物レンズ14の被写界深度に応じて焦点位置及びその数を決定する。   As described above, when the depth width of the sample part is less than the depth of field of the objective lens 14, the in-focus position determining unit 53 determines the in-focus position according to the depth width of the sample part 14, and the depth is more than the depth of field. In this case, the in-focus position is determined for each imaging layer that falls within the depth of field. That is, the focus position determination unit 53 determines the focus position and the number thereof according to the depth of field of the objective lens 14.

したがってこの合焦位置決定部53は、例えば傾斜した状態又はまくれた状態としてサンプル部位が存在する場合であっても、そのサンプル部位の一部が欠落又はぼけるといった撮影状態を回避させることができる。   Therefore, the in-focus position determination unit 53 can avoid an imaging state in which a part of the sample part is missing or blurred even when the sample part exists in an inclined state or a turned-up state.

合焦位置決定部53は、合焦位置を決定した場合、第3段階として、該合焦位置までのサンプルステージ11の移動量(以下、これをデフォーカス量)を算出し、これをステージ駆動制御部31に与える。   When determining the in-focus position, the in-focus position determining unit 53 calculates the amount of movement of the sample stage 11 to the in-focus position (hereinafter referred to as the defocus amount) as a third stage, and drives the stage. This is given to the control unit 31.

ところで位相差像取得部51では、図6に示したように、撮影範囲FSC2が割り当てられるサンプル部位全ての位相差像が取得されるのではなく、1つの撮影範囲FSC2をあけて交互に取得される。   By the way, as shown in FIG. 6, the phase difference image acquisition unit 51 does not acquire the phase difference images of all the sample parts to which the imaging range FSC2 is assigned, but alternately acquires it by opening one imaging range FSC2. The

このため、位相差像の取得対象として除外される撮影範囲FSC2に対応する撮影範囲FSC1では、合わせるべき焦点位置(合焦位置)が決定されないことになる。   For this reason, in the imaging range FSC1 corresponding to the imaging range FSC2 that is excluded as a phase difference image acquisition target, the focus position (focus position) to be adjusted is not determined.

しかしながらこの実施の形態の場合、焦点の探索対象に用いるべき像を取得するための撮像素子20の撮影範囲FSC2は、図2に示したように、記録対象に用いるべき像を取得するための撮像素子16の撮影範囲FSC1よりも大きい範囲とされる。したがって、図10に示すように、撮影範囲FSC2のうち、対物レンズ14の視界FOV内であり撮影範囲FSC1よりも外側となる領域(以下、これを余白領域とも呼ぶ)MAR1〜MAR4が存在する。   However, in the case of this embodiment, the imaging range FSC2 of the imaging device 20 for acquiring an image to be used as a focus search target is an image pickup for acquiring an image to be used as a recording target, as shown in FIG. The range is larger than the imaging range FSC1 of the element 16. Therefore, as shown in FIG. 10, there are areas (hereinafter also referred to as blank areas) MAR1 to MAR4 in the field of view FOV of the objective lens 14 and outside the field of view FSC1 in the field of view FSC2.

この余白領域MARには、図11に示すように、位相差像の取得対象として除外されるサンプル部位P2の一部が、該サンプル部位P2に対してプレパラートPRTの長方向に隣接するサンプル部位P1又はP3の位相差像に含まれる。また図示はしていないが、サンプル部位P2に対してプレパラートPRTの短方向に隣接するサンプル部位の位相差像にも含まれる。   In this blank area MAR, as shown in FIG. 11, a part of the sample part P2 to be excluded as a phase difference image acquisition target is adjacent to the sample part P2 in the longitudinal direction of the preparation PRT. Alternatively, it is included in the phase difference image of P3. Although not shown, it is also included in the phase difference image of the sample part adjacent to the sample part P2 in the short direction of the preparation PRT.

合焦位置予測部54は、サンプル部位P2に隣接する余白領域MAR1〜MAR4に基づいて、焦点位置が未決定とされた撮影範囲FSC1における合焦位置を予測する。   The in-focus position predicting unit 54 predicts the in-focus position in the imaging range FSC1 in which the focal position has not been determined, based on the blank areas MAR1 to MAR4 adjacent to the sample part P2.

具体的には、余白領域MAR1〜MAR4における基準像の各画素に対する参照像の相対画素の距離の最大値の平均と、最小値の平均との差が、焦点位置が未決定とされた撮影範囲FSC1内にあるサンプル部位の奥行幅として予測される。そしてその奥行幅に応じて、合焦位置決定部53と同様に合焦位置及びその数が予測される。   Specifically, in the blank areas MAR1 to MAR4, the difference between the average value of the relative distances of the relative pixels of the reference image with respect to the respective pixels of the reference image is the photographing range in which the focal position is undetermined. Predicted as the depth width of the sample site in FSC1. Then, in accordance with the depth width, the in-focus positions and the number thereof are predicted as in the in-focus position determination unit 53.

合焦位置予測部54は、サンプル部位の合焦位置を予測した場合、該合焦位置に対するサンプルステージ11の移動量(デフォーカス量)を算出し、これをステージ駆動制御部31に与える。   When the in-focus position predicting unit 54 predicts the in-focus position of the sample part, the in-focus position calculating unit 54 calculates the movement amount (defocus amount) of the sample stage 11 with respect to the in-focus position, and supplies this to the stage drive control unit 31.

[1−4.合焦処理手順]
次に、CPU41における合焦処理手順を図12に示すフローチャートを用いて説明する。ただし、この図12では、図6に示したように、位相差像を用いて焦点位置を決定すべき撮影範囲FSC2と、余白領域MARを用いて焦点位置を予測すべき撮影範囲FSC2とを交互に指定すべき設定内容が、統括制御部40及びステージ駆動制御部31に設定されている場合を示している。
[1-4. Focusing procedure]
Next, the focusing process procedure in the CPU 41 will be described with reference to the flowchart shown in FIG. However, in FIG. 12, as shown in FIG. 6, the imaging range FSC2 whose focal position should be determined using the phase difference image and the imaging range FSC2 whose focal position should be predicted using the margin area MAR are alternately displayed. The setting content to be specified in is shown in the case where the overall control unit 40 and the stage drive control unit 31 are set.

CPU41は、合焦位置を探索すべき旨の開始命令を受けた場合、合焦処理手順を開始し、第1ステップSP1に進む。CPU41は、第1ステップSP1では、合焦位置を探索すべきサンプル部位に対して、記録用の撮影範囲FSC1を割り当てたことを示すデータを待ち受ける。   When the CPU 41 receives a start command to search for the in-focus position, the CPU 41 starts the in-focus processing procedure and proceeds to the first step SP1. In the first step SP1, the CPU 41 waits for data indicating that the recording imaging range FSC1 has been assigned to the sample region for which the in-focus position is to be searched.

CPU41は、第1ステップSP1で受けるべきデータが例えばステージ駆動制御部31から与えられた場合、第2ステップSP2に進む。CPU41は、第2ステップSP2では、記録用の撮影範囲FSC1に対応する焦点探索用の撮影範囲FSC2から位相差像を取得すべきか否かを判断する。   When the data to be received in the first step SP1 is given from the stage drive control unit 31, for example, the CPU 41 proceeds to the second step SP2. In the second step SP2, the CPU 41 determines whether or not a phase difference image should be acquired from the focus search shooting range FSC2 corresponding to the recording shooting range FSC1.

ここで、位相差像を取得すべきであると判断した場合、CPU41は、第3ステップSP3に進んで、焦点探索用の撮影範囲FSC2に結像される位相差像を用いて視差(基準像の各画素に対する参照像の相対画素の距離)を算出する。そしてCPU41は、第4ステップSP4に進んで、第3ステップSP3で算出した視差を用いて、記録用の撮影範囲FSC1に対する合焦位置とその数を決定する。またCPU41は、第5ステップSP5に進んで、第4ステップSP4で算出した合焦位置に基づいてデフォーカス量を算出し、これをステージ駆動制御部31に与える。さらにCPU41は、第6ステップSP6に進んで、生体サンプルSPLに対して記録用の撮影範囲FSC1の割り当てが終了したことを示すデータを受け取っているか否か判断する。   If it is determined that a phase difference image should be acquired, the CPU 41 proceeds to the third step SP3 and uses the phase difference image formed in the focus search photographing range FSC2 to perform parallax (reference image). Relative pixel distance of the reference image with respect to each of the pixels. Then, the CPU 41 proceeds to the fourth step SP4, and uses the parallax calculated in the third step SP3 to determine the in-focus position and the number thereof with respect to the recording shooting range FSC1. Further, the CPU 41 proceeds to the fifth step SP5, calculates the defocus amount based on the in-focus position calculated in the fourth step SP4, and gives this to the stage drive control unit 31. Further, the CPU 41 proceeds to the sixth step SP6, and determines whether or not data indicating that the allocation of the imaging range FSC1 for recording has been completed for the biological sample SPL has been received.

一方、第2ステップSP2で位相差像を取得すべきではないと判断した場合、CPU41は、第3ステップSP3から第5ステップSP5までの各処理を経ることなく、第6ステップSP6に進む。   On the other hand, when determining that the phase difference image should not be acquired in the second step SP2, the CPU 41 proceeds to the sixth step SP6 without going through the respective processes from the third step SP3 to the fifth step SP5.

このようにCPU41は、第6ステップSP6において生体サンプルSPLに対して記録用の撮影範囲FSC1の割り当てが終了したことを示すデータを受け取るまで、上述の第1ステップSP1から第6ステップSP6までの処理を繰り返す。   As described above, the CPU 41 performs the processing from the first step SP1 to the sixth step SP6 until it receives data indicating that the allocation of the recording range FSC1 for recording to the biological sample SPL in the sixth step SP6. repeat.

これに対してCPU41は、第6ステップSP6において生体サンプルSPLに対して記録用の撮影範囲FSC1の割り当てが終了したことを示すデータを受け取った場合、第7ステップSP7に進む。   On the other hand, if the CPU 41 receives data indicating that the recording range FSC1 for recording has been assigned to the biological sample SPL in the sixth step SP6, the CPU 41 proceeds to the seventh step SP7.

CPU41は、第7ステップSP7では、記録用の撮影範囲FSC1のうち合焦位置が未決定となる撮影範囲FSC1の合焦位置とその数を、該撮影範囲FSC1の周囲に位置する撮影範囲FSC1に対応する焦点探索用の撮影範囲FSC2の余白領域MARを用いて予測し、第8ステップSP8に進む。CPU41は、第8ステップSP8では、第7ステップSP7で算出した合焦位置に基づいてデフォーカス量を算出し、これをステージ駆動制御部31に与えた後、この合焦処理手順を終了する。   In the seventh step SP7, the CPU 41 sets the in-focus position and the number of the image-capturing range FSC1 in which the in-focus position is not determined in the image-recording range FSC1 to the image-capturing range FSC1 located around the image-capturing range FSC1. Prediction is performed using the margin area MAR of the corresponding focus search imaging range FSC2, and the process proceeds to the eighth step SP8. In the eighth step SP8, the CPU 41 calculates a defocus amount based on the in-focus position calculated in the seventh step SP7, gives this to the stage drive control unit 31, and then ends this focusing processing procedure.

[1−5.効果等]
以上の構成において、この顕微鏡1は、記録用の撮影範囲FSC1に対応する焦点探索用の撮影範囲FSC2から位相差像を交互に取得し(図2,図6参照)、当該位相差像を用いて、記録用の撮影範囲FSC1における焦点位置を決定する(図9参照)。
[1-5. Effect]
In the above configuration, the microscope 1 alternately obtains phase difference images from the focus search imaging range FSC2 corresponding to the recording imaging range FSC1 (see FIGS. 2 and 6), and uses the phase difference image. Thus, the focal position in the recording range FSC1 for recording is determined (see FIG. 9).

またこの顕微鏡1は、位相差像のうち、対物レンズ14の視界内で記録用の撮影範囲FSC1の外側となる余白領域MAR用いて、焦点位置が未決定となる記録用の撮影範囲FSC1内における焦点位置を予測する(図10,図11参照)。   Further, the microscope 1 uses a blank area MAR outside the recording imaging range FSC1 within the field of view of the objective lens 14 in the phase difference image, and uses the blank area MAR within the recording imaging range FSC1 where the focal position is undetermined. The focal position is predicted (see FIGS. 10 and 11).

したがって、この顕微鏡1では、焦点探索用の撮影範囲FSC2から交互に取得した位相差像だけで、生体サンプルSPLに対して割り当てられる記録用の撮影範囲FSC1すべてにおける焦点位置が得られるため、焦点探索に用いるべき生体サンプルSPLに対する撮影枚数が大幅に低減される。   Therefore, in this microscope 1, since the focal position is obtained in all the recording imaging ranges FSC1 assigned to the biological sample SPL only by the phase difference images obtained alternately from the imaging range FSC2 for focus search, the focus search is performed. The number of images taken with respect to the biological sample SPL to be used is greatly reduced.

なお、像のコントラストに基づいて焦点位置を探索する場合、一般には、1つの撮像素子における撮影範囲が生体サンプルに割り当てられ、これら撮影範囲内の像が焦点探索用としても記録用としても用いられる。この場合、焦点位置を探索するためには、生体サンプルに対して割り当てられる撮影範囲すべての像を得ることが必須となる。   When searching for a focal position based on the contrast of an image, generally, an imaging range in one image sensor is assigned to a biological sample, and an image within these imaging ranges is used for focus search and recording. . In this case, in order to search for the focal position, it is essential to obtain an image of the entire imaging range assigned to the biological sample.

したがって、像のコントラストに基づいて焦点位置を探索する場合に比べても、焦点探索に用いるべき生体サンプルSPLに対する撮影枚数が大幅に低減される。   Therefore, compared with the case where the focal position is searched based on the contrast of the image, the number of images taken for the biological sample SPL to be used for the focal point search is greatly reduced.

ところで、像のコントラストに基づいて焦点位置を探索する場合、生体サンプルに割り当てられる撮影範囲のなかで代表とすべき一部分を探索対象とすることで、最適な焦点位置を検出するまでに要する時間の短縮化を図るといったことが考えられる。しかしこの場合、探索対象以外の部分が多くなるほど焦点位置の検出精度が悪くなる。つまり、像のコントラストに基づいて焦点位置を探索する場合、最適な焦点位置を検出するまでの時間短縮と、該焦点位置の検出精度とが二律背反の関係となり、一方を犠牲にしない限り他方の効果が期待できないことになる。   By the way, when searching for a focal position based on the contrast of an image, the time required to detect the optimum focal position is determined by selecting a representative part of the imaging range assigned to the biological sample as a search target. It may be possible to shorten the time. However, in this case, as the portion other than the search target increases, the detection accuracy of the focal position becomes worse. In other words, when searching for the focal position based on the contrast of the image, the reduction in time until the optimal focal position is detected and the detection accuracy of the focal position are in a trade-off relationship, and the effect of the other is not affected unless one is sacrificed. Will not be expected.

これに対し焦点探索用の撮影範囲FSC2から交互に取得される像は、取得対象である撮影範囲FSC2に対応する記録用の撮影範囲FSC1の全体のみならず、未取得対象である撮影範囲FSC2に対応する記録用の撮影範囲FSC1の一部を含むものとなる。つまり、像のコントラストに基づいて焦点位置を探索する場合に比べて、焦点位置の決定又は予測に用いる観測範囲の割合が大きくなる。したがって、像のコントラストに基づいて焦点位置を探索する場合に比べて、焦点位置の検出精度が向上しつつも、焦点探索に用いるべき生体サンプルSPLに対する撮影枚数が大幅に低減する。   On the other hand, the images acquired alternately from the focus search shooting range FSC2 are not only the entire recording shooting range FSC1 corresponding to the shooting range FSC2 to be acquired but also the shooting range FSC2 that is not to be acquired. A part of the corresponding recording photographing range FSC1 is included. That is, the ratio of the observation range used for determining or predicting the focal position is larger than when searching for the focal position based on the contrast of the image. Therefore, compared with the case where the focal position is searched based on the contrast of the image, the detection accuracy of the focal position is improved, but the number of images taken for the biological sample SPL to be used for the focal search is greatly reduced.

またこの実施の形態の場合、焦点探索用の撮影範囲FSC2に対する被写界深度は、記録用の撮影範囲FSC1よりも大きく設定される。したがって、焦点探索用の撮影範囲FSC2での凹凸状態は、記録用の撮影範囲FSC1よりも詳細に反映した像であり(図8参照)、この顕微鏡1では、該凹凸状態に基づいて焦点位置が決定又は予測される。したがって、撮影範囲FSC1のコントラストに基づいて焦点位置を探索する場合に比べて、より一段と正確に合焦位置を決定又は予測することが可能となる。   In the case of this embodiment, the depth of field with respect to the shooting range FSC2 for focus search is set to be larger than the shooting range FSC1 for recording. Therefore, the uneven state in the shooting range FSC2 for focus search is an image reflected in more detail than the shooting range FSC1 for recording (see FIG. 8). In the microscope 1, the focal position is based on the uneven state. Determined or predicted. Therefore, it is possible to determine or predict the in-focus position more accurately than in the case where the focus position is searched based on the contrast of the imaging range FSC1.

さらに焦点探索用の撮影範囲FSC2に位相差像を結像するレンズの被写体深度は、記録用の撮影範囲FSC1に像を結像するレンズの被写体深度よりも広く調整されている。このため、コントラストに基づいて焦点位置を探索する場合に比べて、焦点探索に用いるべき撮影範囲あたりの撮影枚数が格段に低減される。   Further, the subject depth of the lens that forms the phase difference image in the focus search photographing range FSC2 is adjusted to be wider than the subject depth of the lens that forms an image in the recording photographing range FSC1. For this reason, compared with the case where the focus position is searched based on the contrast, the number of shots per shooting range to be used for the focus search is significantly reduced.

以上の構成によれば、焦点探索に用いるべき生体サンプルSPLに対する撮影枚数を大幅に低減できるようにしたことにより、合焦に要する時間を短縮させ得る顕微鏡1を実現できる。   According to the above configuration, the microscope 1 that can reduce the time required for focusing can be realized by greatly reducing the number of images taken for the biological sample SPL to be used for the focus search.

<2.他の実施の形態>
上述の実施の形態では組織切片が生体サンプルSPLとされた。しかしながら生体サンプルSPLはこの実施の形態に限定されるものではない。例えば塗抹細胞や染色体等が生体サンプルSPLとして適用可能である。また例えば半導体素子等のように、生体(生物体)以外のサンプルであってもよい。
<2. Other embodiments>
In the above embodiment, the tissue section is the biological sample SPL. However, the biological sample SPL is not limited to this embodiment. For example, smear cells and chromosomes can be applied as the biological sample SPL. Further, for example, a sample other than a living body (organism) such as a semiconductor element may be used.

また上述の実施の形態では、生体サンプルSPLの位相差像が撮像素子20から取得された。しかしながら取得先は撮像素子20に限定されるものではない。例えば、統括制御部40に接続される記憶媒体から取得するようにしてもよい。また顕微鏡1の外部から、ローカルエリアネットワークやインターネット等の有線又は無線の通信媒体を通じて取得するようにしてもよい。   In the above-described embodiment, the phase difference image of the biological sample SPL is acquired from the image sensor 20. However, the acquisition source is not limited to the image sensor 20. For example, it may be acquired from a storage medium connected to the overall control unit 40. Further, it may be acquired from outside the microscope 1 through a wired or wireless communication medium such as a local area network or the Internet.

また上述の実施の形態では、取得すべき像が位相差像とされた。しかしながら取得像は位相差像に限定されるものではない。例えば、フィールドレンズ17、開口18A,18B及びセパレータレンズ19A,19Bを経ない撮像素子20であってもよい。この場合、撮像素子20には、ハーフミラー15の反射側の後方に配される1又は複数のレンズもしくは開口などを介して、撮像素子16に相当する像が結像される。   In the above-described embodiment, the image to be acquired is a phase difference image. However, the acquired image is not limited to the phase difference image. For example, the imaging element 20 may not pass through the field lens 17, the openings 18A and 18B, and the separator lenses 19A and 19B. In this case, an image corresponding to the image sensor 16 is formed on the image sensor 20 via one or a plurality of lenses or openings arranged behind the reflection side of the half mirror 15.

また、当該像を用いて合焦位置を決定する手法には、例えば、当該撮影範囲FSC2での奥行位置を所定間隔ごとに変更し、それら奥行位置での像のコントラスが最も大きい奥行位置を合焦位置として決定する手法が採用可能である。さらに、当該像の余白領域MARを用いて合焦位置を予測する手法には、例えば、余白領域MAR1〜MAR4におけるコントラスが最も大きい奥行位置の平均を合焦位置として予測する手法が採用可能である。   Further, as a method for determining the in-focus position using the image, for example, the depth position in the imaging range FSC2 is changed at predetermined intervals, and the depth position having the largest image contrast at the depth position is adjusted. A method of determining the focal position can be employed. Furthermore, as a method for predicting the in-focus position using the margin area MAR of the image, for example, a technique for predicting, as the in-focus position, the average of the depth positions with the largest contrast in the margin areas MAR1 to MAR4 can be employed. .

また上述の実施の形態では、サンプル部位P2に隣接する余白領域MAR1〜MAR4に基づいて合焦位置が予測された。しかしながら合焦位置の予測に用いるべき余白領域MARはすべての領域に限定されるものではない。例えば、余白領域MAR1とMAR2、もしくは、余白領域MAR3とMAR4、又は、余白領域MAR1とMAR3等、一部の領域のみであってもよい。ただし、余白領域MAR1又はMAR2に比べて、結像される像のゆがみの程度が小さい余白領域MAR3又はMAR4のほうが、予測精度の観点では望ましい。   In the above-described embodiment, the in-focus position is predicted based on the blank areas MAR1 to MAR4 adjacent to the sample site P2. However, the margin area MAR to be used for prediction of the in-focus position is not limited to all areas. For example, only a part of the margin areas MAR1 and MAR2, the margin areas MAR3 and MAR4, or the margin areas MAR1 and MAR3 may be used. However, the blank area MAR3 or MAR4 in which the degree of distortion of the image to be formed is smaller than that of the blank area MAR1 or MAR2 is preferable from the viewpoint of prediction accuracy.

また上述の実施の形態では、焦点位置が未決定とされた撮影範囲FSC1内にあるサンプル部位の奥行幅が、該撮影範囲FSC1近傍の撮影範囲FSC2から取得された位相差像の余白領域MARにおける視差の最大値の平均と、最小値の平均との差(距離)として予測された。しかしながら奥行幅の予測手法はこれに限定されるものではない。   In the above-described embodiment, the depth width of the sample portion in the imaging range FSC1 in which the focal position is undetermined is in the blank area MAR of the phase difference image acquired from the imaging range FSC2 near the imaging range FSC1. The difference (distance) between the average of the maximum parallax and the average of the minimum was predicted. However, the depth width prediction method is not limited to this.

例えば、余白領域MAR内にあるサンプル部位の傾斜角度を用いて予測することができる。傾斜角度の算出手法は、例えば、図13に示すように、X―Z方向における画素ごとの視差分布に最も近似する直線SLを、Y方向における各列Y0,Y1,……,Ynについて、例えば最小二乗法によって検出する。そして各Y列の直線を最も多く通る平面を、例えば水平面に対する各直線の角度平均により決定する。すなわち、サンプル部位は、X―Z方向からみたときの凹凸状態に最も近い平面に近似される。この平面と水平面とのなす角度が、サンプル部位の傾斜角度として算出される。   For example, the prediction can be performed using the inclination angle of the sample portion in the blank area MAR. For example, as shown in FIG. 13, the inclination angle is calculated using a straight line SL that most closely approximates the parallax distribution for each pixel in the XZ direction, for each column Y0, Y1,. Detect by least squares method. Then, the plane that passes through the most straight lines in each Y row is determined by, for example, averaging the angles of the respective straight lines with respect to the horizontal plane. That is, the sample region is approximated to a plane closest to the uneven state when viewed from the XZ direction. The angle formed by this plane and the horizontal plane is calculated as the inclination angle of the sample region.

また傾斜角度に基づく奥行幅の予測手法は、例えば、傾斜角度に割り当てられる奥行幅を、所定の関数又は記憶媒体に記憶されるデータベースを用いて取得する。なお、この傾斜角度と、余白領域MARにおける基準像の各画素に対する参照像の相対画素の距離の最大値の平均と最小値の平均との差との双方を用いて、奥行幅が予測されてもよい。   The depth width prediction method based on the inclination angle acquires, for example, the depth width assigned to the inclination angle using a predetermined function or a database stored in a storage medium. The depth width is predicted by using both the inclination angle and the difference between the average of the maximum value and the average of the minimum values of the relative pixels of the reference image relative to the pixels of the reference image in the blank area MAR. Also good.

また上述の実施の形態では、焦点位置が未決定とされた撮影範囲FSC1における合焦位置が、撮影範囲FSC1近傍の撮影範囲FSC2から取得された位相差像の余白領域MARにあるサンプル部位の奥行幅に基づいて予測された。   In the above-described embodiment, the depth of the sample part in the blank area MAR of the phase difference image acquired from the imaging range FSC2 in the vicinity of the imaging range FSC1 is the in-focus position in the imaging range FSC1 in which the focal position is undetermined. Predicted based on width.

しかしながら合焦位置の予測対象とすべきパラメータはサンプル部位の奥行幅に限定されるものではない。例えば、サンプル部位の傾斜角度に基づいて合焦位置が予測されてもよい。具体的には、傾斜角度に割り当てられる合焦位置を、所定の関数又は記憶媒体に記憶されるデータベースを用いて取得する。   However, the parameter to be predicted for the in-focus position is not limited to the depth width of the sample part. For example, the in-focus position may be predicted based on the inclination angle of the sample part. Specifically, the in-focus position assigned to the tilt angle is acquired using a predetermined function or a database stored in a storage medium.

なお、余白領域MARにあるサンプル部位から予測される奥行幅又は傾斜角度は、合焦位置を予測すべきか、あるいは、位相差像を取得して合焦位置を決定すべきかを判断するパラメータとしても用いることができる。   Note that the depth width or the inclination angle predicted from the sample region in the margin area MAR may be a parameter for determining whether the in-focus position should be predicted or whether the in-focus position should be determined by acquiring a phase difference image. Can be used.

また上述の実施の形態では、位相差像の取得対象が、図6に示したように、1つの撮影範囲FSC2をあけて交互とされた。しかしながら2以上の撮影範囲FSC2をあけて交互としてもよく、交互でなくともよい。要は、余白領域MARにおけるサンプル部位を用いることが可能な程度で、所定間隔ごとに像が取得されればよい。ただし、交互としたほうが、交互としない場合に比べて、予測に用いることが可能な余白領域MARの数が多いので、予測精度の観点では望ましい。   Further, in the above-described embodiment, the acquisition target of the phase difference image is alternated with one shooting range FSC2 as shown in FIG. However, two or more photographing ranges FSC2 may be opened and alternated or may not be alternated. In short, it is only necessary to acquire images at predetermined intervals to the extent that the sample region in the blank area MAR can be used. However, it is more desirable in the viewpoint of prediction accuracy because the number of blank areas MAR that can be used for prediction is larger than in the case of not alternating.

また上述の実施の形態では、焦点位置に対する対物レンズ14の焦点の移動量(デフォーカス量)が、統括制御部40で算出された。しかしながらデフォーカス量の算出場所はこの実施の形態に代えて、ステージ駆動制御部31とすることができる。   In the above-described embodiment, the movement amount (defocus amount) of the focal point of the objective lens 14 with respect to the focal position is calculated by the overall control unit 40. However, the defocus amount calculation place can be the stage drive control unit 31 instead of this embodiment.

また上述の実施の形態では、対物レンズ14における被写界深度は固定とされたが可変としてもよい。また対物レンズ14は上述の実施の形態では1つとされたが、倍率の異なる複数の対物レンズのなかからレンズ切換機構により電動又は手動で選択されるようにしてもよい。   In the above-described embodiment, the depth of field in the objective lens 14 is fixed, but may be variable. Although the number of objective lenses 14 is one in the above-described embodiment, the objective lens 14 may be electrically or manually selected from a plurality of objective lenses having different magnifications by a lens switching mechanism.

また上述の実施の形態では、基準像の各画素に対する参照像の相対画素の距離(視差)における最大値と最小値との差が閾値以上となる場合、奥行幅が、対物レンズ14の被写界深度に納まる層(撮影層)に分割された。しかしながら分割態様はこの実施の形態に限定されるものではない。   Further, in the above-described embodiment, when the difference between the maximum value and the minimum value in the distance (parallax) of the relative pixel of the reference image with respect to each pixel of the reference image is equal to or greater than the threshold value, the depth width is the object image of the objective lens 14. Divided into layers that fit within the depth of field (photographing layer). However, the division mode is not limited to this embodiment.

例えば図14に示すように、奥行幅のうち、サンプル部位において奥行方向に途切れた部分以外を、撮影層に分割するようにしてもよい。このようにすれば、途切れた部分に対して焦点を合わせて撮影する処理が除かれるため、被写体像の取得効率をより一段と向上させさせることが可能となる。ちなみに、途切れた部分は、基準像の各画素に対する参照像の相対画素の距離(視差)から容易に検出可能である。   For example, as shown in FIG. 14, the portion other than the portion that is interrupted in the depth direction in the sample portion in the depth width may be divided into imaging layers. In this way, since the process of focusing and shooting for the discontinuous portion is eliminated, it is possible to further improve the subject image acquisition efficiency. Incidentally, the discontinuous portion can be easily detected from the distance (parallax) of the relative pixel of the reference image with respect to each pixel of the reference image.

また上述の実施の形態では2枚のセパレータレンズ44A,44Bが用いられた。しかしながらセパレータレンズ44の数はこの実施の形態に限定されるものではない。1対のセパレータレンズ44A,44Bを単位(組)として、複数枚のセパレータレンズ44を用いることができる。なおこの場合、絞りマスク43に対して各組のセパレータレンズ44に対応する開口を設けることを要する。   In the above-described embodiment, two separator lenses 44A and 44B are used. However, the number of separator lenses 44 is not limited to this embodiment. A plurality of separator lenses 44 can be used with one pair of separator lenses 44A and 44B as a unit (set). In this case, it is necessary to provide openings corresponding to each set of separator lenses 44 in the aperture mask 43.

また上述の実施の形態では、セパレータレンズ44A,44Bによって位相差像が形成されたが、当該形成手法はこの実施の形態に必ずしも限定されるものではなく、他の既知のものが採用されてもよい。   In the above-described embodiment, the phase difference image is formed by the separator lenses 44A and 44B. However, the forming method is not necessarily limited to this embodiment, and other known ones may be adopted. Good.

また上述の実施の形態では、明視野照明光を照明する光源と、暗視野照明光を照明する光源とが別々に配された。しかしながら、明視野照明光又は暗視野照明光を切換可能な1つの光源が配されてもよい。なお、光源は、波長が異なる単一の光源素子で実現してもよく、互いに異なる中心波長をもつ複数の光源素子で実現してもよい。   In the above-described embodiment, the light source that illuminates the bright field illumination light and the light source that illuminates the dark field illumination light are separately provided. However, one light source capable of switching between bright field illumination light or dark field illumination light may be provided. The light source may be realized by a single light source element having different wavelengths, or may be realized by a plurality of light source elements having different center wavelengths.

なお、他の実施の形態として述べた事項以外であっても、本発明の趣旨を逸脱しない程度において様々な形態を幅広く採用することができる。   It should be noted that various forms can be widely adopted without departing from the spirit of the present invention, even if other than the matters described as other embodiments.

本発明は、遺伝子実験、医薬の創製又は患者の経過観察などのバイオ産業上において利用することができる。   The present invention can be used in the bio-industry such as genetic experiments, creation of medicines, or patient follow-up.

1……顕微鏡、11……プレパラートステージ、12……光源、13……コンデンサレンズ、14……対物レンズ14……ハーフミラー、16,20……撮像素子、17……フィールドレンズ、18……絞りマスク、18A,18B……開口、19A,19B……セパレータレンズ、31……ステージ駆動制御部、32……照明制御部、33,34……撮像制御部、35……画像処理部、40……統括制御部、41……CPU、42……ROM、43……RAM、44……操作入力部、45……インターフェイス、46……表示部、47記憶部、51……位相差像取得部、52……視差算出部、53……合焦位置決定部、54……合焦位置予測部、FSC1,FSC2……撮影範囲、FOV……視界、PRT……プレパラート、SPL……生体サンプル。   DESCRIPTION OF SYMBOLS 1 ... Microscope, 11 ... Preparation stage, 12 ... Light source, 13 ... Condenser lens, 14 ... Objective lens 14 ... Half mirror, 16, 20 ... Image sensor, 17 ... Field lens, 18 ... Aperture mask, 18A, 18B ... Aperture, 19A, 19B ... Separator lens, 31 ... Stage drive control unit, 32 ... Illumination control unit, 33,34 ... Imaging control unit, 35 ... Image processing unit, 40 ...... General control unit, 41 ... CPU, 42 ... ROM, 43 ... RAM, 44 ... operation input unit, 45 ... interface, 46 ... display unit, 47 storage unit, 51 ... retardation , 52... Parallax calculation unit, 53... In-focus position determination unit, 54... In-focus position prediction unit, FSC 1, FSC 2 .. Shooting range, FOV ... Field of view, PRT ... Preparation slide, SPL. Sample.

Claims (6)

対物レンズの視界よりも小さい記録用の撮影範囲に結像される像に対応する像が結像され、該対物レンズの視界よりも大きい焦点探索用の撮影範囲が、サンプルに対して割り当てられ、それら焦点探索用の撮影範囲内にあるサンプル部位の像を所定間隔ごとに取得する取得手段と、
上記サンプル部位の像を用いて、該像に対応するサンプル部位の像が結像される記録用の撮影範囲における焦点位置を決定する決定手段と、
上記サンプル部位の像のうち、上記対物レンズの視界内で上記記録用の撮影範囲の外側となる領域を用いて、上記焦点位置が未決定となる記録用の撮影範囲における焦点位置を予測する予測手段と
を有する合焦装置。
An image corresponding to an image formed in a recording shooting range smaller than the field of view of the objective lens is formed, and a shooting range for focus search larger than the field of view of the objective lens is assigned to the sample, An acquisition means for acquiring an image of a sample part within the imaging range for focus search at predetermined intervals;
Determining means for determining a focal position in an imaging range for recording in which an image of the sample part corresponding to the image is formed using the image of the sample part;
Prediction for predicting a focal position in a recording imaging range in which the focal position is undetermined using an area outside the recording imaging range in the field of view of the objective lens in the image of the sample part And a focusing device.
上記焦点探索用の撮影範囲には、
上記記録用の撮影範囲に結像される像に対応する像として、視点の異なる1組の像が結像され、
上記決定手段は、
上記視点の異なる1組の像における一方の像に対する他方の像の距離を画素単位で算出し、当該距離を用いて焦点位置とその数を決定する
請求項1に記載の合焦装置。
The shooting range for focus search is
As an image corresponding to the image formed in the photographing range for recording, a set of images having different viewpoints is formed,
The determination means is
The focusing apparatus according to claim 1, wherein a distance between one image and the other image in the set of images having different viewpoints is calculated in units of pixels, and the focal position and the number thereof are determined using the distance.
上記予測手段は、
上記領域における上記距離を用いて、上記焦点位置が未決定となる記録用の撮影範囲における焦点位置を予測する
請求項2に記載の合焦装置。
The prediction means is
The focusing device according to claim 2, wherein the focal position in the recording photographing range in which the focal position is undetermined is predicted using the distance in the region.
対物レンズの視界よりも小さい記録用の撮影範囲に結像される像に対応する像が結像され、該対物レンズの視界よりも大きい焦点探索用の撮影範囲が、サンプルに対して割り当てられ、それら焦点探索用の撮影範囲内にあるサンプル部位の像を所定間隔ごとに取得する取得ステップと、
上記サンプル部位の像を用いて、該像に対応するサンプル部位の像が結像される記録用の撮影範囲における焦点位置を決定する決定ステップと、
上記サンプル部位の像のうち、上記対物レンズの視界内で上記記録用の撮影範囲の外側となる領域を用いて、上記焦点位置が未決定となる記録用の撮影範囲における焦点位置を予測する予測ステップと
を有する合焦方法。
An image corresponding to an image formed in a recording shooting range smaller than the field of view of the objective lens is formed, and a shooting range for focus search larger than the field of view of the objective lens is assigned to the sample, An acquisition step of acquiring an image of a sample part within the imaging range for the focus search at predetermined intervals;
A determination step of determining a focal position in an imaging range for recording on which an image of the sample portion corresponding to the image is formed using the image of the sample portion;
Prediction for predicting a focal position in a recording imaging range in which the focal position is undetermined using an area outside the recording imaging range in the field of view of the objective lens in the image of the sample part A focusing method having steps.
コンピュータに対して、
対物レンズの視界よりも小さい記録用の撮影範囲に結像される像に対応する像が結像され、該対物レンズの視界よりも大きい焦点探索用の撮影範囲が、サンプルに対して割り当てられ、それら焦点探索用の撮影範囲内にあるサンプル部位の像を所定間隔ごとに取得すること、
上記サンプル部位の像を用いて、該像に対応するサンプル部位の像が結像される記録用の撮影範囲における焦点位置を決定すること、
上記サンプル部位の像のうち、上記対物レンズの視界内で上記記録用の撮影範囲の外側となる領域を用いて、上記焦点位置が未決定となる記録用の撮影範囲における焦点位置を予測すること
を実行させる合焦プログラム。
Against the computer,
An image corresponding to an image formed in a recording shooting range smaller than the field of view of the objective lens is formed, and a shooting range for focus search larger than the field of view of the objective lens is assigned to the sample, Obtaining images of sample parts within the imaging range for focus search at predetermined intervals;
Using the image of the sample part to determine a focal position in a recording photographing range where an image of the sample part corresponding to the image is formed;
Predicting a focal position in a recording imaging range in which the focal position is undetermined using an area outside the recording imaging range within the field of view of the objective lens in the image of the sample part Focusing program to execute.
対物レンズの視界よりも小さい撮影範囲をもつ記録用の撮像素子と、
上記対物レンズの視界よりも大きい撮影範囲をもち、上記記録用の撮像素子の撮影範囲に結像される像に対応する像が結像される焦点探索用の撮像素子と、
サンプルに対して上記焦点探索用の撮像素子の撮影範囲が割り当てられ、それら撮影範囲内のサンプル部位の像を所定間隔ごとに取得する取得手段と、
上記サンプル部位の像を用いて、該像に対応するサンプル部位の像が結像される記録用の撮像素子の撮影範囲における焦点位置を決定する決定手段と、
上記サンプル部位の像のうち、上記対物レンズの視界内で上記記録用の撮像素子の外側となる領域を用いて、上記焦点位置が未決定となる記録用の撮像素子の撮影範囲における焦点位置を予測する予測手段と
を有する顕微鏡。
An image sensor for recording having a photographing range smaller than the field of view of the objective lens;
An imaging device for focus search having an imaging range larger than the field of view of the objective lens, and an image corresponding to an image formed in the imaging range of the recording imaging device;
An acquisition unit that assigns an imaging range of the imaging device for focus search to the sample and acquires an image of a sample part within the imaging range at predetermined intervals;
Determining means for determining a focal position in an imaging range of a recording image sensor on which an image of a sample part corresponding to the image is formed using the image of the sample part;
Of the image of the sample part, using the region outside the recording image sensor within the field of view of the objective lens, the focal position in the imaging range of the recording image sensor for which the focal position is undetermined is determined. A microscope having a predicting means for predicting.
JP2010078204A 2010-03-30 2010-03-30 Focusing device, focusing method, focusing program, and microscope Active JP5471715B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010078204A JP5471715B2 (en) 2010-03-30 2010-03-30 Focusing device, focusing method, focusing program, and microscope

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010078204A JP5471715B2 (en) 2010-03-30 2010-03-30 Focusing device, focusing method, focusing program, and microscope

Publications (2)

Publication Number Publication Date
JP2011209573A JP2011209573A (en) 2011-10-20
JP5471715B2 true JP5471715B2 (en) 2014-04-16

Family

ID=44940691

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010078204A Active JP5471715B2 (en) 2010-03-30 2010-03-30 Focusing device, focusing method, focusing program, and microscope

Country Status (1)

Country Link
JP (1) JP5471715B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5927973B2 (en) * 2012-02-16 2016-06-01 ソニー株式会社 Imaging apparatus, imaging control program, and imaging method
JP5979982B2 (en) * 2012-05-28 2016-08-31 キヤノン株式会社 Imaging method, program, and imaging apparatus
CN112697792A (en) 2014-12-26 2021-04-23 希森美康株式会社 Cell imaging device, cell imaging method, and sample cell
JPWO2021167044A1 (en) * 2020-02-20 2021-08-26

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04110810A (en) * 1990-08-30 1992-04-13 Dainippon Screen Mfg Co Ltd Image pickup system
JP3863993B2 (en) * 1998-03-18 2006-12-27 オリンパス株式会社 microscope
JP2007218846A (en) * 2006-02-20 2007-08-30 Omron Corp Dimensional measurement method, imaging device, controller, and dimensional measuring device
JP2011170297A (en) * 2010-02-22 2011-09-01 Nikon Corp Microscope, substrate sticking device, method for manufacturing laminated semiconductor device, and the laminated semiconductor device

Also Published As

Publication number Publication date
JP2011209573A (en) 2011-10-20

Similar Documents

Publication Publication Date Title
JP5672688B2 (en) Focusing device, focusing method, focusing program, and microscope
JP6899963B2 (en) Real-time autofocus scanning
JP6100813B2 (en) Whole slide fluorescent scanner
JP5504881B2 (en) Arithmetic apparatus, arithmetic method, arithmetic program, and microscope
US11156823B2 (en) Digital microscope apparatus, method of searching for in-focus position thereof, and program
JP6985506B2 (en) Real-time autofocus focusing algorithm
JP6940696B2 (en) Two-dimensional and three-dimensional fixed Z-scan
JP5471715B2 (en) Focusing device, focusing method, focusing program, and microscope
JP5581690B2 (en) Thickness information acquisition device, thickness information acquisition method, thickness information acquisition program, and microscope
JP2021512346A (en) Impact rescanning system
JP6945737B2 (en) Dual processor image processing

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140120

R151 Written notification of patent or utility model registration

Ref document number: 5471715

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250