JP2014240888A - Image acquisition apparatus and focusing method for the image acquisition apparatus - Google Patents

Image acquisition apparatus and focusing method for the image acquisition apparatus Download PDF

Info

Publication number
JP2014240888A
JP2014240888A JP2013122960A JP2013122960A JP2014240888A JP 2014240888 A JP2014240888 A JP 2014240888A JP 2013122960 A JP2013122960 A JP 2013122960A JP 2013122960 A JP2013122960 A JP 2013122960A JP 2014240888 A JP2014240888 A JP 2014240888A
Authority
JP
Japan
Prior art keywords
image
optical path
sample
imaging
optical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013122960A
Other languages
Japanese (ja)
Other versions
JP6010506B2 (en
Inventor
英資 大石
Hideyori Oishi
英資 大石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hamamatsu Photonics KK
Original Assignee
Hamamatsu Photonics KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hamamatsu Photonics KK filed Critical Hamamatsu Photonics KK
Priority to JP2013122960A priority Critical patent/JP6010506B2/en
Priority to PCT/JP2014/055988 priority patent/WO2014174920A1/en
Publication of JP2014240888A publication Critical patent/JP2014240888A/en
Application granted granted Critical
Publication of JP6010506B2 publication Critical patent/JP6010506B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Microscoopes, Condenser (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image acquisition apparatus capable of securing the amount of light during imaging and accurately detecting a focal position of a sample, and a focusing method for the same.SOLUTION: An image acquisition apparatus M can form an optical path length difference of a second optical image without branching of light in a second optical path L2, by the use of an optical path difference generating member 21. Thus, the amount of light to the optical path L2, needed to acquire information on a focal position, is suppressed to secure the amount of light during imaging with a first imaging device 18. The image acquisition apparatus M forms, on an imaging surface 20a of a second imaging device 20, a first incident area 24A which the second optical image causing an optical path difference enters and a second incident area 24B which the second optical image causing no optical path difference enters, by the use of the optical path difference generating member 21. Accordingly, a focal point calculation unit 37 can select, depending on the situation, a second image used for analysis of focal point information, and can accurately calculate the focal point information.

Description

本発明は、画像取得装置及び画像取得装置のフォーカス方法に関する。   The present invention relates to an image acquisition device and a focus method of the image acquisition device.

従来の画像取得装置として、例えば特許文献1に記載の装置がある。この装置では、被検物からの光をハーフプリズムで分割し、CCDエリアセンサ等の2次元撮像素子からなる光電変換素子で受光する。光電変換素子の制御回路は、受光面を2次元的に走査する2つの走査領域を任意に設定可能な走査領域設定部を有している。そして、走査領域設定部によって設定された2つの走査領域で受光した光の合焦ずれ信号に基づいて合焦制御を実行する。   As a conventional image acquisition apparatus, for example, there is an apparatus described in Patent Document 1. In this apparatus, light from a test object is divided by a half prism and received by a photoelectric conversion element formed of a two-dimensional imaging element such as a CCD area sensor. The control circuit of the photoelectric conversion element has a scanning area setting unit that can arbitrarily set two scanning areas for two-dimensionally scanning the light receiving surface. Then, focusing control is executed based on the focusing error signal of the light received in the two scanning areas set by the scanning area setting unit.

特開平8−320430号公報JP-A-8-320430

上述した従来の装置では、ハーフプリズムを用いて被検物からの光を分割している。このため、光電変換素子での光量の確保が難しく、試料の焦点位置の検出精度が低下してしまうおそれがある。また、焦点位置の検出用の光の光量を増大させると、被検物の撮像用の光の光量が減少することとなり、撮像の際の光量の確保が困難となるおそれがある。   In the conventional apparatus described above, the light from the test object is divided using a half prism. For this reason, it is difficult to ensure the amount of light in the photoelectric conversion element, and the detection accuracy of the focal position of the sample may be reduced. Further, when the light amount of the focus position detection light is increased, the light amount of the imaging light of the test object is decreased, and it may be difficult to secure the light amount at the time of imaging.

本発明は、上記課題の解決のためになされたものであり、撮像の際の光量を確保でき、かつ試料の焦点位置を精度良く検出できる画像取得装置及びそのフォーカス方法を提供することを目的とする。   The present invention has been made to solve the above-described problems, and an object of the present invention is to provide an image acquisition apparatus that can secure a light amount during imaging and can accurately detect the focal position of a sample and a focusing method thereof. To do.

上記課題の解決のため、本発明に係る画像取得装置は、試料が載置されるステージと、試料に向けて光を照射する光源と、ステージ上の試料と対峙するように配置された対物レンズ、及び試料の光像を画像取得用の第1の光路及び焦点制御用の第2の光路に分岐する光分岐手段を含む導光光学系と、第1の光路に分岐された第1の光像による第1の画像を取得する第1の撮像手段と、第2の光路に分岐された第2の光像による第2の画像を取得する第2の撮像手段と、第2の画像を解析し、その解析結果に基づいて試料の合焦点情報を算出する合焦点算出手段と、第2の撮像手段の撮像面の面内方向に沿って第2の光像に光路差を生じさせる光路差生成部材と、を備え、光路差生成部材は、第2の撮像手段の撮像面に、光路差が生じた第2の光像が入射する第1の入射領域と、光路差が生じない第2の光像が入射する第2の入射領域とが形成されるように第2の光路に配置され、合焦点算出手段は、第1の入射領域で取得された第2の画像、及び第2の入射領域で取得された第2の画像のいずれか一方を、解析に用いる第2の画像として選択することを特徴としている。   In order to solve the above problems, an image acquisition apparatus according to the present invention includes a stage on which a sample is placed, a light source that irradiates light toward the sample, and an objective lens that is disposed so as to face the sample on the stage. , And a light guide optical system including a light branching unit that branches the optical image of the sample into the first optical path for image acquisition and the second optical path for focus control, and the first light branched into the first optical path First imaging means for acquiring a first image by an image, second imaging means for acquiring a second image by a second optical image branched into a second optical path, and analyzing the second image And a focal point calculation unit that calculates focal point information of the sample based on the analysis result, and an optical path difference that causes an optical path difference in the second optical image along the in-plane direction of the imaging surface of the second imaging unit. An optical path difference generating member, wherein the optical path difference generating member has a second optical path difference on the imaging surface of the second imaging means. The in-focus calculation means is arranged in the second optical path so as to form a first incident area where the image is incident and a second incident area where the second optical image where no optical path difference is incident is formed. One of the second image acquired in the first incident area and the second image acquired in the second incident area is selected as a second image used for analysis.

この画像取得装置では、光路差生成部材の配置により、焦点制御用の第2の光路での光の分岐を行わずに第2の光像の光路長差を形成できる。したがって、焦点位置の情報を得るために必要な第2の光路への光量が抑えられ、第1の撮像手段で撮像を行う際の光量を確保できる。また、この画像取得装置では、光路差生成部材の配置により、第2の撮像手段の撮像面に、光路差が生じた第2の光像が入射する第1の入射領域と、光路差が生じない第2の光像が入射する第2の入射領域とが形成される。これにより、合焦点算出手段において、第1の入射領域に入射した第2の画像及び第2の入射領域に入射した第2の画像のいずれを解析に用いるかを選択することが可能となり、例えば試料の凹凸の程度等に応じて最適な合焦点情報の算出方式を選択できるので、合焦点情報を精度良く算出できる。   In this image acquisition device, the optical path length difference of the second optical image can be formed without branching the light in the second optical path for focus control by arranging the optical path difference generating member. Therefore, the amount of light to the second optical path necessary for obtaining the focal position information can be suppressed, and the amount of light when the first imaging unit performs imaging can be ensured. Further, in this image acquisition device, due to the arrangement of the optical path difference generating member, an optical path difference is generated between the first incident area where the second optical image having the optical path difference is incident on the imaging surface of the second imaging unit. And a second incident region on which no second light image is incident. Thereby, in the focal point calculation means, it becomes possible to select which of the second image incident on the first incident area and the second image incident on the second incident area is used for the analysis. Since an optimum focal point information calculation method can be selected according to the degree of unevenness of the sample, the focal point information can be calculated with high accuracy.

また、光路差生成部材及び第2の撮像手段は、試料における第1の撮像手段での撮像位置からの光が第2の入射領域に入射するように第2の光路に配置されていることが好ましい。この場合、合焦点算出手段による合焦点算出の算出処理を簡単化できる。   In addition, the optical path difference generating member and the second imaging unit may be arranged in the second optical path so that light from the imaging position of the first imaging unit in the sample enters the second incident region. preferable. In this case, the calculation process of the focal point calculation by the focal point calculation means can be simplified.

また、第1の撮像手段で取得された第1の画像を評価する画像評価手段を更に備え、合焦点算出手段は、画像評価手段による第1の画像の評価結果に基づいて、第1の入射領域で取得された第2の画像、及び第2の入射領域で取得された第2の画像のいずれか一方を選択することが好ましい。合焦点情報の算出方式によっては、例えば試料の凹凸の程度等に起因して合焦点情報の算出の精度が低下する場合が考えられる。こうした場合に、第1の画像の評価結果に基づいて、第1の入射領域で取得された第2の画像、及び第2の入射領域で取得された第2の画像のいずれを解析に用いるかを選択することで、合焦点情報の精度を担保できる。   Further, the image processing apparatus further includes an image evaluation unit that evaluates the first image acquired by the first imaging unit, and the in-focus calculation unit performs the first incidence based on the evaluation result of the first image by the image evaluation unit. It is preferable to select one of the second image acquired in the region and the second image acquired in the second incident region. Depending on the calculation method of the in-focus information, there may be a case where the accuracy of calculating the in-focus information decreases due to, for example, the degree of unevenness of the sample. In such a case, which of the second image acquired in the first incident region and the second image acquired in the second incident region is used for the analysis based on the evaluation result of the first image. By selecting, the accuracy of the in-focus information can be secured.

また、試料に対する対物レンズの視野位置を移動させる視野駆動手段を更に備え、光路差生成部材は、視野駆動手段による対物レンズの視野位置の移動に伴う第2の撮像手段の撮像面上での第2の光像の移動方向に沿って連続的に厚さが変化する第1の部分と、厚さが一定の第2の部分とを有し、第1の部分が撮像面に第1の入射領域を形成し、第2の部分が撮像面に第2の入射領域を形成することが好ましい。この場合、簡単な光路差生成部材の構成で、第2の撮像手段の撮像面に第1の入射領域及び第2の入射領域を形成できる。   The optical path difference generating member further includes a visual field driving means for moving the visual field position of the objective lens with respect to the sample, and the optical path difference generating member is a second one on the imaging surface of the second imaging means as the visual field driving means moves the visual lens position. 2 has a first portion whose thickness continuously changes along the moving direction of the optical image, and a second portion having a constant thickness, and the first portion is incident on the imaging surface as a first incident. Preferably, the region is formed, and the second portion forms the second incident region on the imaging surface. In this case, the first incident region and the second incident region can be formed on the imaging surface of the second imaging unit with a simple configuration of the optical path difference generating member.

また、第2の撮像手段は、複数の画素列を有すると共にローリング読み出しが可能な二次元撮像素子を有し、視野駆動手段による対物レンズの視野位置の移動と同期して各画素列のローリング読み出しを行うことによって第2の画像を取得することが好ましい。この場合、第2の光路に光路差生成部材が配置されていることにより、各画素列からの画像データには、試料の同一部位において対物レンズの焦点位置が変更されたときと等価のコントラスト情報が含まれる。したがって、当該コントラスト情報に基づいて合焦点情報を迅速かつ精度良く算出できる。   The second imaging means has a two-dimensional imaging device having a plurality of pixel rows and capable of rolling readout, and rolling readout of each pixel row in synchronization with the movement of the visual field position of the objective lens by the visual field driving means. It is preferable to acquire a 2nd image by performing. In this case, since the optical path difference generating member is arranged in the second optical path, the image data from each pixel row includes contrast information equivalent to that when the focal position of the objective lens is changed in the same part of the sample. Is included. Therefore, the in-focus information can be calculated quickly and accurately based on the contrast information.

また、合焦点算出手段は、第1の入射領域で取得された第2の画像を解析に用いる場合には、二次元撮像素子の各画素列のうち、少なくとも2つの画素列で読み出された画像データのコントラスト値の差分に基づいて、試料の合焦点情報を算出することが好ましい。   Further, when the second image acquired in the first incident region is used for analysis, the in-focus calculation means is read out by at least two pixel columns among the pixel columns of the two-dimensional image sensor. It is preferable to calculate the focal point information of the sample based on the difference between the contrast values of the image data.

また、合焦点算出手段は、第2の入射領域で取得された第2の画像を解析に用いる場合には、算出した合焦点情報に基づいてフォーカスマップを作成することが好ましい。この場合、フォーカスマップを精度良く作成することができる。   Moreover, when using the 2nd image acquired by the 2nd incident area for an analysis, it is preferable that a focus calculation means produces a focus map based on the calculated focus information. In this case, the focus map can be created with high accuracy.

また、本発明に係る画像取得装置のフォーカス方法は、試料が載置されるステージと、試料に向けて光を照射する光源と、ステージ上の試料と対峙するように配置された対物レンズ、及び試料の光像を画像取得用の第1の光路及び焦点制御用の第2の光路に分岐する光分岐手段を含む導光光学系と、第1の光路に分岐された第1の光像による第1の画像を取得する第1の撮像手段と、第2の光路に分岐された第2の光像による第2の画像を取得する第2の撮像手段と、第2の画像を解析し、その解析結果に基づいて試料の合焦点情報を算出する合焦点算出手段と、第2の撮像手段の撮像面の面内方向に沿って第2の光像に光路差を生じさせる光路差生成部材と、を備えた画像取得装置のフォーカス方法であって、第2の撮像手段の撮像面に、光路差が生じた第2の光像が入射する第1の入射領域と、光路差が生じない第2の光像が入射する第2の入射領域とが形成されるように、光路差生成部材を第2の光路に配置し、第1の入射領域で取得された第2の画像、及び第2の入射領域で取得された前記第2の画像のいずれか一方を、解析に用いる第2の画像として合焦点算出手段に選択させることを特徴としている。   Further, the focus method of the image acquisition apparatus according to the present invention includes a stage on which a sample is placed, a light source that irradiates light toward the sample, an objective lens that is disposed so as to face the sample on the stage, and By a light guide optical system including a light branching unit that branches a light image of a sample into a first light path for image acquisition and a second light path for focus control, and a first light image branched into the first light path A first imaging means for acquiring a first image, a second imaging means for acquiring a second image based on a second optical image branched into a second optical path, and analyzing the second image, A focal point calculation unit that calculates focal point information of the sample based on the analysis result, and an optical path difference generation member that generates an optical path difference in the second optical image along the in-plane direction of the imaging surface of the second imaging unit. And a focusing method of an image acquisition apparatus comprising: an imaging surface of a second imaging unit; An optical path difference generating member is formed so that a first incident area where a second optical image in which a path difference has occurred enters and a second incident area in which a second optical image without an optical path difference enters. Is arranged in the second optical path, and the second image acquired in the first incident region and the second image acquired in the second incident region are used for the analysis. It is characterized by having the in-focus calculation means select it as an image.

この画像取得装置のフォーカス方法では、光路差生成部材の配置により、焦点制御用の第2の光路での光の分岐を行わずに第2の光像の光路長差を形成できる。したがって、焦点位置の情報を得るために必要な第2の光路への光量が抑えられ、第1の撮像手段で撮像を行う際の光量を確保できる。また、この画像取得装置のフォーカス方法では、光路差生成部材の配置により、第2の撮像手段の撮像面に、光路差が生じた第2の光像が入射する第1の入射領域と、光路差が生じない第2の光像が入射する第2の入射領域とを形成する。これにより、合焦点算出手段において、第1の入射領域に入射した第2の画像及び第2の入射領域に入射した第2の画像のいずれを解析に用いるかを選択することが可能となり、例えば試料の凹凸の程度等に応じて最適な合焦点情報の算出方式を選択できるので、合焦点情報を精度良く算出できる。   In this focusing method of the image acquisition device, the optical path length difference of the second optical image can be formed without splitting the light in the second optical path for focus control by arranging the optical path difference generating member. Therefore, the amount of light to the second optical path necessary for obtaining the focal position information can be suppressed, and the amount of light when the first imaging unit performs imaging can be ensured. Further, in the focusing method of the image acquisition device, the first incident region where the second optical image in which the optical path difference has occurred is incident on the imaging surface of the second imaging unit by the arrangement of the optical path difference generating member, and the optical path And a second incident region on which a second optical image that does not cause a difference is incident. Thereby, in the focal point calculation means, it becomes possible to select which of the second image incident on the first incident area and the second image incident on the second incident area is used for the analysis. Since an optimum focal point information calculation method can be selected according to the degree of unevenness of the sample, the focal point information can be calculated with high accuracy.

本発明によれば、撮像の際の光量を確保でき、かつ試料の焦点位置を精度良く検出できる。   According to the present invention, it is possible to secure the amount of light at the time of imaging and to accurately detect the focal position of the sample.

本発明に係る画像取得装置を構成するマクロ画像取得装置の一実施形態を示す図である。It is a figure which shows one Embodiment of the macro image acquisition apparatus which comprises the image acquisition apparatus which concerns on this invention. 本発明に係る画像取得装置を構成するミクロ画像取得装置の一実施形態を示す図である。It is a figure which shows one Embodiment of the micro image acquisition apparatus which comprises the image acquisition apparatus which concerns on this invention. 第2の撮像装置の一例を示す図である。It is a figure which shows an example of a 2nd imaging device. 光路差生成部材及び第2の撮像装置の組み合わせの一例を示す図である。It is a figure which shows an example of the combination of an optical path difference production | generation member and a 2nd imaging device. 画像取得装置の機能的な構成要素を示すブロック図である。It is a block diagram which shows the functional component of an image acquisition apparatus. 試料に対する対物レンズの視野のスキャンの一例を示す図である。It is a figure which shows an example of the scanning of the visual field of the objective lens with respect to a sample. 対物レンズの視野内での試料の所定部位の移動と第2の撮像装置のローリング読み出しとの同期の様子を示す図であり、(a)は対物レンズの視野と分割領域との位置関係、(b)各画素列に対する試料の所定部位と撮像素子の露光及び読み出しのタイミングを示す。It is a figure which shows the mode of the synchronization of the movement of the predetermined site | part of the sample within the visual field of an objective lens, and the rolling reading of a 2nd imaging device, (a) is the positional relationship of the visual field of an objective lens, and a division area, ( b) The predetermined part of the sample for each pixel column and the timing of exposure and readout of the image sensor are shown. 図7の後続の状態を示す図である。It is a figure which shows the subsequent state of FIG. 図8の後続の状態を示す図である。It is a figure which shows the subsequent state of FIG. 試料の表面までの距離が対物レンズの焦点距離に一致している場合のコントラスト値の解析結果を示す図である。It is a figure which shows the analysis result of the contrast value in case the distance to the surface of a sample corresponds with the focal distance of an objective lens. 試料の表面までの距離が対物レンズの焦点距離よりも長い場合のコントラスト値の解析結果を示す図である。It is a figure which shows the analysis result of the contrast value in case the distance to the surface of a sample is longer than the focal distance of an objective lens. 試料の表面までの距離が対物レンズの焦点距離よりも短い場合のコントラスト値の解析結果を示す図である。It is a figure which shows the analysis result of the contrast value in case the distance to the surface of a sample is shorter than the focal distance of an objective lens. フォーカスマップの一例を示す図である。It is a figure which shows an example of a focus map. 対物レンズの視野と焦点情報取得位置との関係の一例を示す図である。It is a figure which shows an example of the relationship between the visual field of an objective lens, and a focus information acquisition position. 合焦点算出部で処理されるコントラスト情報の一例を示す図である。It is a figure which shows an example of the contrast information processed with a focusing calculation part. 対物レンズの視野と焦点情報取得位置との関係の他の例を示す図である。It is a figure which shows the other example of the relationship between the visual field of an objective lens, and a focus information acquisition position. 図1及び図2に示した画像取得装置において、ダイナミックプレフォーカスを行う場合の動作を示すフローチャートである。3 is a flowchart showing an operation when dynamic prefocus is performed in the image acquisition apparatus shown in FIGS. 1 and 2. 図1及び図2に示した画像取得装置において、フォーカスマップを作成する場合の動作を示すフローチャートである。3 is a flowchart showing an operation when a focus map is created in the image acquisition device shown in FIGS. 1 and 2. 光路差生成部材の変形例を示す図である。It is a figure which shows the modification of an optical path difference production | generation member. 光路差生成部材の別の変形例を示す図である。It is a figure which shows another modification of an optical path difference production | generation member.

以下、図面を参照しながら、本発明に係る画像取得装置及び画像取得装置のフォーカス方法の好適な実施形態について詳細に説明する。   DESCRIPTION OF EMBODIMENTS Hereinafter, preferred embodiments of an image acquisition device and a focus method of the image acquisition device according to the present invention will be described in detail with reference to the drawings.

図1は、本発明に係る画像取得装置を構成するマクロ画像取得装置の一実施形態を示す図である。また、図2は、本発明に係る画像取得装置を構成するミクロ画像取得装置の一実施形態を示す図である。図1及び図2に示すように、画像取得装置Mは、試料Sのマクロ画像を取得するマクロ画像取得装置M1と、試料Sのミクロ画像を取得するミクロ画像取得装置M2とによって構成されている。画像取得装置Mは、マクロ画像取得装置M1で取得したマクロ画像に対して例えばライン状の複数の分割領域40(図6参照)を設定し、各分割領域40をミクロ画像取得装置M2で高倍率に取得して合成することにより、デジタル画像であるバーチャルスライド画像を生成する装置である。   FIG. 1 is a diagram showing an embodiment of a macro image acquisition device constituting an image acquisition device according to the present invention. FIG. 2 is a diagram showing an embodiment of a micro image acquisition device constituting the image acquisition device according to the present invention. As shown in FIGS. 1 and 2, the image acquisition device M includes a macro image acquisition device M1 that acquires a macro image of the sample S and a micro image acquisition device M2 that acquires a micro image of the sample S. . The image acquisition device M sets, for example, a plurality of line-shaped divided regions 40 (see FIG. 6) with respect to the macro image acquired by the macro image acquisition device M1, and each divided region 40 is subjected to high magnification by the micro image acquisition device M2. It is a device that generates a virtual slide image that is a digital image by acquiring and synthesizing.

マクロ画像取得装置M1は、図1に示すように、試料Sが載置されるステージ1を備えている。ステージ1は、例えばステッピングモータ(パルスモータ)或いはピエゾアクチュエータなどのモータやアクチュエータによって水平方向に駆動するXYステージである。画像取得装置Mで観察する試料Sは、例えば細胞などの生体サンプルであり、スライドガラスに密封された状態でステージ1に載置される。このステージ1をXY面内で駆動させることにより、試料Sに対する撮像位置を移動させることができる。   As shown in FIG. 1, the macro image acquisition apparatus M1 includes a stage 1 on which a sample S is placed. The stage 1 is an XY stage that is driven in the horizontal direction by a motor or actuator such as a stepping motor (pulse motor) or a piezoelectric actuator. The sample S to be observed with the image acquisition device M is a biological sample such as a cell, for example, and is placed on the stage 1 in a state of being sealed with a slide glass. By driving the stage 1 in the XY plane, the imaging position with respect to the sample S can be moved.

ステージ1は、マクロ画像取得装置M1とミクロ画像取得装置M2との間を往復可能となっており、両装置間で試料Sを搬送する機能を有している。なお、マクロ画像取得においては、試料Sの全体画像を1度の撮像で取得してもよく、試料Sを複数の領域に分割して撮像してもよい。また、ステージ1は、マクロ画像取得装置M1及びミクロ画像取得装置M2の双方にそれぞれ設けておいてもよい。   The stage 1 can reciprocate between the macro image acquisition device M1 and the micro image acquisition device M2, and has a function of transporting the sample S between both devices. In macro image acquisition, the entire image of the sample S may be acquired by one imaging, or the sample S may be divided into a plurality of regions and imaged. The stage 1 may be provided in both the macro image acquisition device M1 and the micro image acquisition device M2.

ステージ1の底面側には、試料Sに向けて光を照射する光源2と、光源2からの光を試料Sに集光する集光レンズ3とが配置されている。光源2は、試料Sに向けて斜めに光を照射するように配置されていてもよい。また、ステージ1の上面側には、試料Sからの光像を導光する導光光学系4と、試料Sの光像を撮像する撮像装置5とが配置されている。導光光学系4は、試料Sからの光像を撮像装置5の撮像面に結像させる結像レンズ6を有している。また、撮像装置5は、例えば2次元画像を取得可能なエリアセンサである。撮像装置5は、導光光学系4を経て撮像面に入射した試料Sの光像の全体画像を取得し、後述のバーチャルスライド画像格納部39に格納する。   A light source 2 that irradiates light toward the sample S and a condenser lens 3 that condenses the light from the light source 2 onto the sample S are disposed on the bottom side of the stage 1. The light source 2 may be arranged so as to irradiate light obliquely toward the sample S. A light guide optical system 4 that guides a light image from the sample S and an imaging device 5 that captures a light image of the sample S are disposed on the upper surface side of the stage 1. The light guide optical system 4 includes an imaging lens 6 that forms an optical image from the sample S on the imaging surface of the imaging device 5. The imaging device 5 is an area sensor that can acquire a two-dimensional image, for example. The imaging device 5 acquires the entire image of the light image of the sample S incident on the imaging surface via the light guide optical system 4 and stores it in a virtual slide image storage unit 39 described later.

ミクロ画像取得装置M2は、図2に示すように、ステージ1の底面側にマクロ画像取得装置M1と同様の光源12及び集光レンズ13を有している。また、ステージ1の上面側には、試料Sからの光像を導光する導光光学系14が配置されている。光源12からの光を試料Sに照射させる光学系には、試料Sに励起光を照射するための励起光照射光学系や試料Sの暗視野画像を取得するための暗視野照明光学系を採用してもよい。   As shown in FIG. 2, the micro image acquisition device M2 has a light source 12 and a condenser lens 13 similar to those of the macro image acquisition device M1 on the bottom surface side of the stage 1. A light guide optical system 14 that guides a light image from the sample S is disposed on the upper surface side of the stage 1. The optical system that irradiates the sample S with light from the light source 12 employs an excitation light irradiation optical system for irradiating the sample S with excitation light and a dark field illumination optical system for acquiring a dark field image of the sample S. May be.

導光光学系4は、試料Sと対峙して配置された対物レンズ15と、対物レンズ15の後段に配置されたビームスプリッタ(光分岐手段)16とを有している。対物レンズ15には、対物レンズ15の光軸方向に沿ったZ方向に対物レンズ15を駆動するステッピングモータ(パルスモータ)或いはピエゾアクチュエータなどのモータやアクチュエータが設けられている。これらの駆動手段によって対物レンズ15のZ方向の位置を変えることにより、試料Sの画像取得における撮像の焦点位置が調整可能になっている。なお、焦点位置の調整は、ステージ1のZ方向の位置を変えることで実施してもよく、対物レンズ15及びステージ1の双方のZ方向の位置を変えることによって実施してもよい。いずれの形態においても、対物レンズ15とステージ1との間隔を調整できる。   The light guide optical system 4 includes an objective lens 15 disposed so as to face the sample S, and a beam splitter (light branching means) 16 disposed at a subsequent stage of the objective lens 15. The objective lens 15 is provided with a motor or actuator such as a stepping motor (pulse motor) or a piezoelectric actuator that drives the objective lens 15 in the Z direction along the optical axis direction of the objective lens 15. By changing the position of the objective lens 15 in the Z direction by these driving means, the focal position of the imaging in the image acquisition of the sample S can be adjusted. The focus position may be adjusted by changing the position of the stage 1 in the Z direction, or by changing the positions of both the objective lens 15 and the stage 1 in the Z direction. In any form, the distance between the objective lens 15 and the stage 1 can be adjusted.

ビームスプリッタ16は、試料Sの光像を画像取得用の第1の光路L1と焦点制御用の第2の光路L2とに分岐する部分である。このビームスプリッタ16は、光源12からの光軸に対しておよそ45度の角度で配置されており、図2において、ビームスプリッタ16を通過する光路が第1の光路L1となっており、ビームスプリッタ16で反射する光路が第2の光路となっている。   The beam splitter 16 is a part that branches the optical image of the sample S into a first optical path L1 for image acquisition and a second optical path L2 for focus control. The beam splitter 16 is disposed at an angle of about 45 degrees with respect to the optical axis from the light source 12. In FIG. 2, the optical path passing through the beam splitter 16 is the first optical path L1, and the beam splitter 16 The optical path reflected by 16 is the second optical path.

第1の光路L1には、ビームスプリッタ16を通過した試料Sの光像(第1の光像)を結像させる結像レンズ17と、結像レンズ17の結像位置に撮像面を配置した第1の撮像装置(第1の撮像手段)18とが配置されている。第1の撮像装置18は、試料Sの第1の光像による1次元画像(第1の画像)を取得可能な装置であり、例えばTDI(Time Delay Integration)駆動が可能な2次元CCDイメージセンサやラインセンサなどのラインスキャンイメージセンサが用いられる。また、ステージ1を一定の速度で制御しながら、試料Sの画像を順次取得する方式であれば、第1の撮像装置18は、CMOSセンサやCCDセンサなどの2次元画像を取得可能な装置であってもよい。第1の撮像装置18で撮像された第1の画像は、レーンバッファなどの一時保存メモリに順次保存された後、圧縮されて後述の画像生成部38に出力される。   In the first optical path L 1, an imaging lens 17 that forms an optical image (first optical image) of the sample S that has passed through the beam splitter 16, and an imaging surface is disposed at the imaging position of the imaging lens 17. A first imaging device (first imaging means) 18 is arranged. The first imaging device 18 is a device that can acquire a one-dimensional image (first image) based on a first light image of the sample S. For example, a two-dimensional CCD image sensor capable of TDI (Time Delay Integration) driving. A line scan image sensor such as a line sensor is used. Further, if the method of sequentially acquiring the images of the sample S while controlling the stage 1 at a constant speed, the first imaging device 18 is a device that can acquire a two-dimensional image such as a CMOS sensor or a CCD sensor. There may be. The first images picked up by the first image pickup device 18 are sequentially stored in a temporary storage memory such as a lane buffer, and then compressed and output to an image generation unit 38 to be described later.

一方、第2の光路L2には、ビームスプリッタ16で反射した試料の光像(第2の光像)を縮小する視野調整レンズ19と、第2の撮像装置(第2の撮像手段)20とが配置されている。また、第2の撮像装置20の前段には、第2の光像に光路差を生じさせる光路差生成部材21が配置されている。視野調整レンズ19は、第2の光像が第1の光像と同程度の大きさで第2の撮像装置20に結像するように構成されていることが好ましい。   On the other hand, in the second optical path L2, a field adjustment lens 19 for reducing the optical image (second optical image) of the sample reflected by the beam splitter 16, a second imaging device (second imaging means) 20, and Is arranged. In addition, an optical path difference generation member 21 that causes an optical path difference in the second optical image is disposed in the front stage of the second imaging device 20. The field adjustment lens 19 is preferably configured so that the second light image is formed on the second imaging device 20 with the same size as the first light image.

第2の撮像装置20は、試料Sの第2の光像による2次元画像(第2の画像)を取得可能な装置である。第2の撮像装置20は、複数の画素列を有すると共にローリング読み出しが可能な二次元撮像素子を有している。このような二次元撮像素子としては、例えばCMOSイメージセンサが挙げられる。第2の撮像装置20の撮像面20aは、第2の光路L2に直交するXZ面と略一致するように配置されている。第2の撮像装置20の撮像面20aには、図3(a)に示すように、読み出し方向に垂直な方向に複数の画素が配列されてなる画素列20bが読み出し方向に複数配列されている。   The second imaging device 20 is a device that can acquire a two-dimensional image (second image) based on the second optical image of the sample S. The second imaging device 20 has a two-dimensional imaging device that has a plurality of pixel columns and can perform rolling readout. An example of such a two-dimensional imaging device is a CMOS image sensor. The imaging surface 20a of the second imaging device 20 is disposed so as to substantially coincide with the XZ plane orthogonal to the second optical path L2. On the imaging surface 20a of the second imaging device 20, as shown in FIG. 3A, a plurality of pixel columns 20b in which a plurality of pixels are arranged in a direction perpendicular to the readout direction are arranged in the readout direction. .

第2の撮像装置20では、図3(b)に示すように、駆動クロックの駆動周期に基づいて、リセット信号、読み出し開始信号、及び読み出し終了信号が出力されることで、画素列20b毎に露光及び読み出しが制御される。一の画素列20bの露光期間は、リセット信号に伴う電荷の排出から読み出し開始信号に伴う電荷の読み出しまでの期間である。また、一の画素列20bの読み出し期間は、読み出し開始信号に伴う電荷の読み出し開始から読み出し終了信号に伴う電荷の読み出し終了までの期間である。なお、次の画素列に対する読み出し開始信号を読み出し終了信号として用いることもできる。   In the second imaging device 20, as shown in FIG. 3B, a reset signal, a readout start signal, and a readout end signal are output based on the drive cycle of the drive clock, so that each pixel column 20b is output. Exposure and readout are controlled. The exposure period of one pixel column 20b is a period from discharge of charge accompanying a reset signal to reading of charge accompanying a read start signal. In addition, the readout period of one pixel column 20b is a period from the start of charge readout accompanying the readout start signal to the end of charge readout accompanying the readout end signal. Note that a read start signal for the next pixel column can also be used as a read end signal.

ローリング読み出しでは、画素列20b毎に出力する読み出し開始信号が所定の時間差で順次出力される。ローリング読み出しにおける読み出し速度は、各画素列20bを読み出すための読み出し開始信号の時間間隔によって制御される。読み出し開始信号の時間間隔を短くすると読み出し速度は早くなり、読み出し開始信号の時間間隔を長くすると読み出し速度は遅くなる。隣接する画素列20b,20b間での読み出し間隔の調整は、例えば駆動クロックの周波数の調整、読み出し期間中の遅延期間の設定、読み出し開始信号を規定するクロック数の変更といった手法によって実施できる。   In rolling readout, readout start signals output for each pixel column 20b are sequentially output at a predetermined time difference. The reading speed in the rolling reading is controlled by the time interval of the reading start signal for reading each pixel column 20b. If the time interval of the read start signal is shortened, the read speed is increased, and if the time interval of the read start signal is increased, the read speed is decreased. The adjustment of the reading interval between the adjacent pixel columns 20b and 20b can be performed, for example, by adjusting the frequency of the driving clock, setting the delay period during the reading period, and changing the number of clocks that define the reading start signal.

光路差生成部材21は、撮像面20aの面内方向に沿って第2の光像に光路差を生じさせるガラス部材である。図4(a)に示す例では、光路差生成部材21は、断面直角三角形のプリズム状をなす第1の部材22と、平板状の第2の部材23とを組み合わせて構成されている。第1の部材22は、撮像面20aの面内方向、すなわち、試料Sの走査に伴う撮像面20a上での第2の光像の移動方向(Z方向)に沿って連続的に厚さが増加するように、撮像面20aの一端側領域(上半分領域)に対応して配置されている。また、第2の部材23、厚さが一定となっており、撮像面20aの他端側領域(下半分領域)に対応して配置されている。   The optical path difference generating member 21 is a glass member that generates an optical path difference in the second optical image along the in-plane direction of the imaging surface 20a. In the example shown in FIG. 4A, the optical path difference generating member 21 is configured by combining a first member 22 having a prism shape with a right-angled triangular section and a flat plate-like second member 23. The first member 22 has a thickness continuously along the in-plane direction of the imaging surface 20a, that is, the moving direction (Z direction) of the second optical image on the imaging surface 20a accompanying the scanning of the sample S. It arrange | positions corresponding to the one end side area | region (upper half area | region) of the imaging surface 20a so that it may increase. The second member 23 has a constant thickness and is disposed corresponding to the other end side region (lower half region) of the imaging surface 20a.

光路差生成部材21及び第2の撮像装置20は、試料Sにおける第1の撮像装置18での撮像予定位置(これから撮像される位置)からの光が撮像面20aの一端側領域(上半分領域)に入射するように配置されている。また、光路差生成部材21及び第2の撮像装置20は、試料Sにおける第1の撮像装置18での撮像位置からの光が撮像面20aの他端側領域(下半分領域)に入射するように配置されている。   In the optical path difference generating member 21 and the second imaging device 20, the light from the planned imaging position (position to be imaged) in the first imaging device 18 in the sample S is one end side region (upper half region) of the imaging surface 20a. ). The optical path difference generating member 21 and the second imaging device 20 are configured such that light from the imaging position of the sample S in the first imaging device 18 enters the other end side region (lower half region) of the imaging surface 20a. Is arranged.

このような光路差生成部材21の配置により、第2の撮像装置20の撮像面20aには、図4(b)に示すように、光路差が生じた第2の光像が入射する第1の入射領域24Aと、光路差が生じない第2の光像が入射する第2の入射領域24Bとが形成される。第1の入射領域24Aでは、撮像面20aに入射する第2の光像は、上端側から中央側に向かうほど光路が長くなる。第2の入射領域24Bでは、撮像面20aに入射する第2の光像は、いずれの位置においても光路が同一となる。なお、第1の部材22及び第2の部材23は、第2の撮像装置20と対向する面が第2の撮像装置の撮像面20aと平行となるように配置されることが好ましい。これにより、第2の撮像装置20と対向する面による光の屈折を低減でき、第2の撮像装置20で受光する光量を確保することができる。   With such an arrangement of the optical path difference generating member 21, the first optical image in which the optical path difference occurs is incident on the imaging surface 20a of the second imaging device 20 as shown in FIG. 4B. The incident region 24A and the second incident region 24B on which the second light image that does not cause an optical path difference is formed. In the first incident region 24A, the second optical image incident on the imaging surface 20a has a longer optical path from the upper end side toward the center side. In the second incident region 24B, the second optical image incident on the imaging surface 20a has the same optical path at any position. The first member 22 and the second member 23 are preferably arranged so that the surface facing the second imaging device 20 is parallel to the imaging surface 20a of the second imaging device. Thereby, refraction of light by the surface facing the second imaging device 20 can be reduced, and the amount of light received by the second imaging device 20 can be ensured.

光路差生成部材21において、第2の部材23の厚みは、フォーカス中心に対応する画素列20bの位置での第1の部材22の厚みと等しくなっていることが好適である。これにより、第2の入射領域24Bに入射する第2の光像の光路長が、第1の撮像装置18に入射する第1の光像の光路長と等しくなるので、合焦点算出部37での合焦点情報の算出処理を簡単化できる。   In the optical path difference generating member 21, the thickness of the second member 23 is preferably equal to the thickness of the first member 22 at the position of the pixel row 20b corresponding to the focus center. As a result, the optical path length of the second optical image incident on the second incident area 24B becomes equal to the optical path length of the first optical image incident on the first imaging device 18, so that the in-focus calculation unit 37 The calculation process of the in-focus information can be simplified.

図5は、画像取得装置の機能的な構成要素を示すブロック図である。同図に示すように、画像取得装置Mは、CPU、メモリ、通信インタフェイス、ハードディスクといった格納部、キーボードなどの操作部31、モニタ32等を備えたコンピュータシステムを備えている。また、画像取得装置Mは、制御部33の機能的な構成要素として、ステージ駆動部34と、対物レンズ駆動部35と、動作制御部36と、合焦点算出部37と、画像生成部38と、バーチャルスライド画像格納部39と、画像評価部41と、とを備えている。   FIG. 5 is a block diagram illustrating functional components of the image acquisition apparatus. As shown in the figure, the image acquisition apparatus M includes a computer system including a CPU, a memory, a communication interface, a storage unit such as a hard disk, an operation unit 31 such as a keyboard, a monitor 32, and the like. Further, the image acquisition apparatus M includes, as functional components of the control unit 33, a stage driving unit 34, an objective lens driving unit 35, an operation control unit 36, a focal point calculation unit 37, and an image generation unit 38. The virtual slide image storage unit 39 and the image evaluation unit 41 are provided.

ステージ駆動部34は、試料Sに対する対物レンズ15の視野位置を移動させる視野駆動手段として機能する部分である。ステージ駆動部34は、例えばステッピングモータ(パルスモータ)或いはピエゾアクチュエータといったモータやアクチュエータによって構成されている。ステージ駆動部34は、動作制御部36による制御に基づいて、ステージ2を対物レンズ15の光軸の直交面に対して所定の角度(例えば90度)を有する面についてXY方向に移動させる。これにより、ステージ2に固定された試料Sが対物レンズ15の光軸に対して移動し、試料Sに対する対物レンズ15の視野位置が移動する。   The stage driving unit 34 is a part that functions as a visual field driving unit that moves the visual field position of the objective lens 15 with respect to the sample S. The stage drive unit 34 is configured by a motor or actuator such as a stepping motor (pulse motor) or a piezoelectric actuator, for example. The stage drive unit 34 moves the stage 2 in the XY directions with respect to a plane having a predetermined angle (for example, 90 degrees) with respect to a plane orthogonal to the optical axis of the objective lens 15 based on the control by the operation control unit 36. Thereby, the sample S fixed to the stage 2 moves with respect to the optical axis of the objective lens 15, and the visual field position of the objective lens 15 with respect to the sample S moves.

より具体的には、ステージ駆動部34は、動作制御部36による制御に基づき、試料Sが載置されたステージ1を所定の速度で走査させる。このステージ1の走査により、第1の撮像装置18及び第2の撮像装置20での試料Sの撮像視野が相対的に順次移動する。試料Sの全体を撮像するために、画像取得装置Mでは、動作制御部36が複数の分割領域40から構成される撮像ラインLn(nは自然数)に沿ったスキャン方向に試料Sに対する対物レンズ15の視野位置を移動させるように制御する。隣接する撮像ラインLn間での試料Sに対する対物レンズ15の視野位置の移動は、例えば図6に示すように、隣り合う撮像ラインLn間でスキャン方向が同方向となる一方向スキャンが採用される。   More specifically, the stage driving unit 34 scans the stage 1 on which the sample S is placed at a predetermined speed based on the control by the operation control unit 36. The scanning of the stage 1 relatively sequentially moves the imaging field of the sample S in the first imaging device 18 and the second imaging device 20. In order to image the entire sample S, in the image acquisition apparatus M, the operation control unit 36 has the objective lens 15 for the sample S in the scanning direction along the imaging line Ln (n is a natural number) composed of a plurality of divided regions 40. Control to move the visual field position. For the movement of the visual field position of the objective lens 15 with respect to the sample S between the adjacent imaging lines Ln, for example, as shown in FIG. 6, a unidirectional scan in which the scanning direction is the same between the adjacent imaging lines Ln is adopted. .

また、画像取得の間のステージ1の走査速度は一定であるが、実際には走査の開始直後にステージ1の振動等の影響によって走査速度が不安定な期間が存在する。このため、分割領域40よりも長い走査幅を設定し、ステージ1が加速する加速期間、ステージ1の走査速度が安定化するまでの安定化期間、及びステージ1が減速する減速期間のそれぞれが、分割領域40よりも外側を走査しているときに生じるようにすることが好ましい。これにより、ステージ1の走査速度が一定となる一定速度期間に合わせて画像取得を行うことが可能となる。なお、安定化期間中に撮像を開始し、画像取得後に安定化期間中に取得したデータ部分を削除するようにしてもよい。このような手法は、データの空読みが必要な撮像装置を用いる場合に好適である。   Further, although the scanning speed of the stage 1 during image acquisition is constant, there is actually a period in which the scanning speed is unstable due to the influence of vibration of the stage 1 immediately after the start of scanning. For this reason, each of the acceleration period in which the scanning width longer than that of the divided region 40 is set, the stage 1 is accelerated, the stabilization period until the scanning speed of the stage 1 is stabilized, and the deceleration period in which the stage 1 is decelerated is It is preferable that this occurs when scanning outside the divided area 40. Thereby, it is possible to acquire an image in accordance with a constant speed period in which the scanning speed of the stage 1 is constant. Note that imaging may be started during the stabilization period, and the data portion acquired during the stabilization period after image acquisition may be deleted. Such a method is suitable when using an imaging device that requires idle reading of data.

対物レンズ駆動部35は、ステージ駆動部34と同様に、例えばステッピングモータ(パルスモータ)或いはピエゾアクチュエータといったモータやアクチュエータによって構成されている。対物レンズ駆動部35は、動作制御部36による制御に基づいて、対物レンズ15の光軸に沿ったZ方向に対物レンズ15を移動させる。これにより、試料Sに対する対物レンズ15の焦点位置が移動する。   Similar to the stage drive unit 34, the objective lens drive unit 35 is configured by a motor or actuator such as a stepping motor (pulse motor) or a piezoelectric actuator. The objective lens driving unit 35 moves the objective lens 15 in the Z direction along the optical axis of the objective lens 15 based on the control by the operation control unit 36. Thereby, the focal position of the objective lens 15 with respect to the sample S moves.

なお、対物レンズ駆動部35は、合焦点算出部37による焦点位置の解析中は対物レンズ15の駆動は行わず、また、次の焦点位置の解析が開始されるまで、対物レンズ15をZ方向に沿って一方向にのみ駆動させることが好ましい。この場合、試料Sの走査中は、焦点位置の解析期間と、解析結果に基づく対物レンズ駆動期間とが交互に生じることとなる。焦点位置の解析中に対物レンズ15と試料Sとの位置関係を変化させないことで、焦点位置の解析精度を担保できる。   The objective lens driving unit 35 does not drive the objective lens 15 during the analysis of the focal position by the in-focus calculation unit 37, and moves the objective lens 15 in the Z direction until the analysis of the next focal position is started. It is preferable to drive only along one direction. In this case, during the scanning of the sample S, the analysis period of the focal position and the objective lens driving period based on the analysis result occur alternately. By not changing the positional relationship between the objective lens 15 and the sample S during the analysis of the focal position, the analysis accuracy of the focal position can be ensured.

動作制御部36は、第2の撮像装置20及びステージ駆動部34の動作を制御する部分である。より具体的には、動作制御部36は、試料Sにおける所定部位の光像が第2の撮像装置20の各画素列20bで露光されるように、ステージ駆動部34による対物レンズ15の視野V内での試料Sの所定部位の移動と第2の撮像装置20のローリング読み出しとを同期させる。   The operation control unit 36 is a part that controls the operations of the second imaging device 20 and the stage driving unit 34. More specifically, the operation control unit 36 has a visual field V of the objective lens 15 by the stage driving unit 34 so that an optical image of a predetermined part in the sample S is exposed by each pixel row 20b of the second imaging device 20. The movement of the predetermined portion of the sample S in the inside and the rolling readout of the second imaging device 20 are synchronized.

動作制御部36は、図7(a)に示すように、対物レンズ15の視野Vが一の分割領域40を移動する際、対物レンズ15の視野V内での試料Sの移動が一定速度となるようにステージ駆動部34を制御する。また、動作制御部36は、図7(b)に示すように、第2の撮像装置20の撮像面20aにおける試料Sの光像の結像Sbの移動方向と、撮像面20aの各画素列20bの読み出し方向とが一致するようにステージ駆動部34及び第2の撮像装置20を制御する。なお、ローリング読出しの読出し速度を可変に設定できる撮像素子を用いる場合、動作制御部36は、対物レンズ15の視野V内での試料Sの移動速度に基づいて、ローリング読出しの読出し速度を変更してもよい。   As shown in FIG. 7A, the operation control unit 36 moves the sample S within the visual field V of the objective lens 15 at a constant speed when the visual field V of the objective lens 15 moves in one divided region 40. The stage drive unit 34 is controlled so that Further, as illustrated in FIG. 7B, the operation control unit 36 moves the imaging Sb of the optical image of the sample S on the imaging surface 20 a of the second imaging device 20 and each pixel column on the imaging surface 20 a. The stage drive unit 34 and the second imaging device 20 are controlled so that the reading direction of 20b matches. When using an imaging device that can variably set the reading speed for rolling reading, the operation control unit 36 changes the reading speed for rolling reading based on the moving speed of the sample S within the field of view V of the objective lens 15. May be.

また、各画素列20bにおける露光時間は、少なくとも試料Sの所定部位Saのスキャン方向における幅及び対物レンズ15の視野V内での試料Sの所定部位Saの移動速度に基づいて設定される。より好ましくは、対物レンズ15及び視野調整レンズ19の倍率も考慮する。これにより、各画素列20bにより、試料Sの所定部位Saの光像を露光することができる。   The exposure time in each pixel row 20b is set based on at least the width of the predetermined portion Sa of the sample S in the scanning direction and the moving speed of the predetermined portion Sa of the sample S within the field of view V of the objective lens 15. More preferably, the magnifications of the objective lens 15 and the field adjustment lens 19 are also considered. Thereby, the optical image of the predetermined part Sa of the sample S can be exposed by each pixel row 20b.

時間T1において、図7(b)に示すように、第2の撮像装置20の撮像面20aにおける試料Sの所定部位Saからの光の結像Sbが撮像領域の第1列目の画素列20bに到達すると、この第1列目の画素列20bの露光が開始される。時間T2に移ると、図8(a)に示すように、対物レンズ15の視野V内での試料Sの所定部位Saの位置が移動する。このとき、図8(b)に示すように、試料Sの所定部位Saからの光の結像Sbが撮像領域の第2列目の画素列20bに到達し、第2列目の画素列20bの露光が開始される。また、試料Sの所定部位Saからの光の結像Sbが第1列目の画素列20bを通過するタイミングで、第1列目の画素列20bの読み出しが開始される。   At time T1, as shown in FIG. 7B, the imaging Sb of light from the predetermined portion Sa of the sample S on the imaging surface 20a of the second imaging device 20 is the first pixel row 20b in the imaging region. Is reached, exposure of the first pixel row 20b is started. At time T2, as shown in FIG. 8A, the position of the predetermined portion Sa of the sample S within the field of view V of the objective lens 15 is moved. At this time, as shown in FIG. 8B, the image Sb of light from the predetermined portion Sa of the sample S reaches the second pixel row 20b in the imaging region, and the second pixel row 20b. The exposure is started. Further, at the timing when the image Sb of light from the predetermined portion Sa of the sample S passes through the first pixel row 20b, reading of the first pixel row 20b is started.

さらに、時間T3に移ると、図9(a)に示すように、対物レンズ15の視野V内での試料Sの所定部位Saの位置がスキャン方向に更に移動する。このとき、図9(b)に示すように、試料Sの所定部位Saからの光の結像Sbが撮像領域の第3列目の画素列20bに到達し、第3列目の画素列20bの露光が開始される。また、試料Sの所定部位Saからの光の結像Sbが第2列目の画素列20bを通過するタイミングで、第2列目の画素列20bの読み出しが開始される。さらに、第2列目の画素列20bの読み出しと同時に第1列目の画素列20bの読み出しが終了する。   Further, at time T3, as shown in FIG. 9A, the position of the predetermined portion Sa of the sample S in the field of view V of the objective lens 15 further moves in the scanning direction. At this time, as shown in FIG. 9B, the imaging Sb of the light from the predetermined portion Sa of the sample S reaches the third pixel row 20b of the imaging region, and the third pixel row 20b. The exposure is started. Further, reading of the second pixel row 20b is started at the timing when the image Sb of light from the predetermined portion Sa of the sample S passes through the second pixel row 20b. Furthermore, the reading of the first pixel column 20b is completed simultaneously with the reading of the second pixel column 20b.

以下、所定の画素列数に到達するまで、同様の手順で対物レンズ15の視野V内での試料Sの所定部位Saの移動と、画素列20bでのローリング読み出しとが実施される。各画素列20bから読み出される画像データは、いずれも試料Sの同一部位についての画像データとなる。また、第2の光路L2に光路差生成部材21が配置されていることにより、各画素列20bから読み出される画像データは、それぞれ試料Sの同一部位について対物レンズ15の焦点位置が変更されたときと等価のコントラスト情報が含まれる。各画素列20bで読み出された画像データは、合焦点算出部37に順次出力される。   Thereafter, the movement of the predetermined portion Sa of the sample S within the field of view V of the objective lens 15 and the rolling readout in the pixel column 20b are performed in the same procedure until the predetermined number of pixel columns is reached. The image data read from each pixel row 20b is all image data for the same part of the sample S. Further, since the optical path difference generating member 21 is arranged in the second optical path L2, the image data read from each pixel row 20b is obtained when the focal position of the objective lens 15 is changed for the same part of the sample S, respectively. Contrast information equivalent to is included. The image data read by each pixel row 20b is sequentially output to the in-focus calculation unit 37.

対物レンズ駆動部35が対物レンズ15を含む導光光学系14をXY方向に移動させることが可能な場合、動作制御部36は、試料Sにおける所定部位の光像が第2の撮像装置20の各画素列20bで露光されるように、対物レンズ駆動部35による対物レンズ15の視野V内での試料Sの所定部位の移動と第2の撮像装置20のローリング読み出しとを同期させてもよい。この場合、対物レンズ駆動部35は、試料Sに対する対物レンズ15の視野位置を移動させる視野駆動手段として機能する。   When the objective lens driving unit 35 can move the light guide optical system 14 including the objective lens 15 in the X and Y directions, the operation control unit 36 determines that the optical image of the predetermined part in the sample S is the second imaging device 20. The movement of a predetermined portion of the sample S within the field of view V of the objective lens 15 by the objective lens driving unit 35 and the rolling readout of the second imaging device 20 may be synchronized so that each pixel row 20b is exposed. . In this case, the objective lens driving unit 35 functions as a visual field driving unit that moves the visual field position of the objective lens 15 with respect to the sample S.

合焦点算出部37は、第2の撮像装置20で取得された第2の画像を解析し、その解析結果に基づいて試料Sの合焦点情報を算出する部分である。合焦点算出部37は、画像評価部41からの指示情報に基づき、撮像面20aにおける第1の入射領域24Aに属する画素列20bから読み出された画像データ、及び第2の入射領域24Bに属する画素列20bから読み出された画像データのいずれか一方を、解析に用いる第2の画像として選択する。   The focal point calculation unit 37 is a part that analyzes the second image acquired by the second imaging device 20 and calculates the focal point information of the sample S based on the analysis result. Based on the instruction information from the image evaluation unit 41, the in-focus calculation unit 37 belongs to the image data read from the pixel row 20b belonging to the first incident area 24A on the imaging surface 20a and the second incident area 24B. One of the image data read from the pixel row 20b is selected as a second image used for analysis.

第1の入射領域24Aに属する画素列20bから読み出された画像データを解析に用いる場合、画像取得装置Mでは、次に撮像される分割領域40における試料Sの合焦点情報の取得を第1の撮像装置18による撮像の直前に行うダイナミックプレフォーカスを実行する。この場合、合焦点算出部37では、合焦点情報の算出方式として例えば前ピン・後ピン方式が用いられる。   When image data read from the pixel row 20b belonging to the first incident area 24A is used for analysis, the image acquisition apparatus M first acquires in-focus information of the sample S in the divided area 40 to be imaged next. Dynamic prefocus performed immediately before imaging by the imaging device 18 is executed. In this case, the focal point calculation unit 37 uses, for example, a front pin / rear pin method as a method for calculating the focal point information.

前ピン・後ピン方式を用いる場合、合焦点算出部37は、第2の撮像装置20の各画素列20bのうち、少なくとも2つの画素列20bの画素列20bを選択する。上述したように、第2の光路L2には、試料Sの走査に伴う撮像面20a上での第2の光像の移動方向(Z方向)に沿って連続的に厚さが増加するように光路差生成部材21が配置されており、第2の撮像装置20における撮像面20aの第1の入射領域24Aには、光路差が生じた第2の光像が入射する。したがって、第1の入射領域24Aでは、選択する2つの画素列20bの位置に基づいて、第1の撮像装置18に入射する第1の光像よりも前に焦点が合った光像(前ピン)と、後に焦点が合った光像(後ピン)とを取得できる。合焦点算出部37は。選択された画素列20bで読み出された画像データのコントラスト値同士の差分を求める。   When the front pin / rear pin method is used, the in-focus calculation unit 37 selects the pixel column 20b of at least two pixel columns 20b among the pixel columns 20b of the second imaging device 20. As described above, in the second optical path L2, the thickness continuously increases along the moving direction (Z direction) of the second optical image on the imaging surface 20a accompanying the scanning of the sample S. The optical path difference generating member 21 is arranged, and the second light image in which the optical path difference has occurred enters the first incident area 24A of the imaging surface 20a of the second imaging device 20. Therefore, in the first incident region 24A, based on the positions of the two pixel columns 20b to be selected, a light image (front pin) focused before the first light image incident on the first imaging device 18 is selected. ) And a focused optical image (rear pin) later. The focal point calculation unit 37. The difference between the contrast values of the image data read by the selected pixel row 20b is obtained.

図10に示すように、試料Sの表面に対して対物レンズ15の焦点位置が合っている場合、前ピンの画像コントラスト値と後ピンの画像コントラスト値とが略一致し、これらの差分値はほぼゼロとなる。一方、図11に示すように、試料Sの表面までの距離が対物レンズ15の焦点距離よりも長い場合、前ピンの画像コントラスト値よりも後ピンの画像コントラスト値の方が大きくなり、これらの差分値はプラスとなる。この場合、合焦点算出部37は、対物レンズ駆動部35に対し、対物レンズ15を試料Sに近づける向きに駆動する旨の指示情報を出力する。また、図12に示すように、試料Sの表面までの距離が対物レンズ15の焦点距離よりも短い場合、前ピンの画像コントラスト値よりも後ピンの画像コントラスト値の方が小さくなり、これらの差分値はマイナスとなる。この場合、合焦点算出部37は、対物レンズ駆動部35に対し、対物レンズ15を試料Sに遠ざける向きに駆動する旨の指示情報を出力する。   As shown in FIG. 10, when the focal position of the objective lens 15 is in alignment with the surface of the sample S, the image contrast value of the front pin and the image contrast value of the rear pin substantially coincide, and the difference between these values is Nearly zero. On the other hand, as shown in FIG. 11, when the distance to the surface of the sample S is longer than the focal length of the objective lens 15, the image contrast value of the rear pin becomes larger than the image contrast value of the front pin. The difference value is positive. In this case, the focal point calculation unit 37 outputs instruction information to the effect that the objective lens 15 is driven in a direction approaching the sample S to the objective lens driving unit 35. In addition, as shown in FIG. 12, when the distance to the surface of the sample S is shorter than the focal length of the objective lens 15, the image contrast value of the rear pin is smaller than the image contrast value of the front pin. The difference value is negative. In this case, the focal point calculation unit 37 outputs instruction information indicating that the objective lens 15 is driven in a direction away from the sample S to the objective lens driving unit 35.

前ピン・後ピン方式を用いる場合、合焦点算出部37では、フォーカス中心に対応する画素列20bを挟んで対称となるように、前ピンに相当する画素列20bと後ピンに相当する画素列20bとを選択する。フォーカス中心に対応する画素列20bとは、第1の撮像装置18で撮像される試料Sの光像の光路長と一致する光路長で第2の光路L2及び光路差生成部材21を通った試料Sの光像が入射する画素列20bを指す。合焦点算出部37は、例えばフォーカス中心に対応する画素列20bが第k列目の画素列20bである場合、第(k−m)列目の画素列20bと第(k+m)列目の画素列20bとをそれぞれ選択する。試料Sの凹凸の度合いに応じてmを設定することで、合焦点情報の精度を向上できる。   When the front pin / rear pin method is used, the in-focus calculation unit 37 has a pixel column 20b corresponding to the front pin and a pixel column corresponding to the rear pin so as to be symmetrical with respect to the pixel column 20b corresponding to the focus center. 20b is selected. The pixel row 20b corresponding to the focus center is a sample that passes through the second optical path L2 and the optical path difference generation member 21 with an optical path length that matches the optical path length of the optical image of the sample S imaged by the first imaging device 18. This refers to the pixel row 20b on which the S light image is incident. For example, when the pixel column 20b corresponding to the focus center is the kth pixel column 20b, the in-focus calculation unit 37, for example, the (k−m) th pixel column 20b and the (k + m) th pixel. Each of the columns 20b is selected. By setting m according to the degree of unevenness of the sample S, the accuracy of the in-focus information can be improved.

第2の入射領域24Bに属する画素列20bから読み出された画像データを解析に用いる場合、画像取得装置Mでは、試料Sの撮像を行う前に、試料Sの複数個所についての合焦点情報を予め取得し、フォーカスマップを作成する。この場合、画像取得装置Mでは、マクロ画像取得装置M1によって取得された試料Sのマクロ画像に基づき、試料Sの全体が含まれるように画像取得領域Pを設定する。画像取得領域の設定後、例えば図13に示すように、等間隔で離間する複数の焦点情報取得位置Qを格子状に画像取得領域P内に設定する。画像取得領域Pの間隔は、試料Sの寸法等に応じて適宜設定される。画像取得領域Pの間隔は、等間隔でなくともよく、ランダムに設定してもよい。   When the image data read from the pixel row 20b belonging to the second incident area 24B is used for analysis, the image acquisition device M obtains in-focus information on a plurality of locations of the sample S before imaging the sample S. Obtain a focus map in advance. In this case, the image acquisition device M sets the image acquisition region P so that the entire sample S is included based on the macro image of the sample S acquired by the macro image acquisition device M1. After the image acquisition area is set, for example, as shown in FIG. 13, a plurality of focus information acquisition positions Q that are spaced at equal intervals are set in the image acquisition area P in a grid pattern. The interval between the image acquisition regions P is appropriately set according to the size of the sample S and the like. The interval between the image acquisition regions P may not be equal and may be set at random.

フォーカスマップの作成にあたって、合焦点算出部37では、合焦点情報の算出方式として例えばコントラスト分布方式が用いられる。この場合、例えば図14に示すように、焦点情報取得位置Qの近傍に対物レンズ15の視野Vを設定する。次に、ステージ駆動部34によってステージ1を駆動させ、対物レンズ15の視野Vを焦点情報取得位置Qに向かって一定速度で移動させる。   In creating the focus map, the in-focus calculation unit 37 uses, for example, a contrast distribution method as the in-focus information calculation method. In this case, for example, as shown in FIG. 14, the visual field V of the objective lens 15 is set in the vicinity of the focus information acquisition position Q. Next, the stage 1 is driven by the stage drive unit 34, and the visual field V of the objective lens 15 is moved toward the focus information acquisition position Q at a constant speed.

コントラスト分布方式を用いる場合、合焦点算出部37は、第2の撮像装置20の複数の画素列20bからの画像データのコントラスト情報を取得する。図15に示す例では、第2の撮像装置20における第1列目の画素列20bから第n列目の画素列20bまでの画像データのコントラスト値が示されており、第i列目の画素列20bにおける画像データのコントラスト値がピーク値となっている。この場合、合焦点算出部37は、第i列目の画素列20bで試料Sの所定部位Saの露光を行ったときの対物レンズ15の焦点位置が合焦点位置であるとして合焦点情報を生成する。なお、コントラスト値は、各画素列20bに含まれる画素のうちの特定の画素におけるコントラスト値を用いてもよく、各画素列20bに含まれる画素の全体又は一部のコントラスト値の平均値を用いてもよい。   When the contrast distribution method is used, the focal point calculation unit 37 acquires the contrast information of the image data from the plurality of pixel columns 20 b of the second imaging device 20. In the example illustrated in FIG. 15, the contrast value of the image data from the first pixel column 20 b to the n-th pixel column 20 b in the second imaging device 20 is illustrated, and the pixel in the i-th column. The contrast value of the image data in the column 20b is a peak value. In this case, the in-focus calculation unit 37 generates in-focus information assuming that the focus position of the objective lens 15 is the in-focus position when the predetermined portion Sa of the sample S is exposed in the i-th pixel row 20b. To do. The contrast value may be a contrast value in a specific pixel among the pixels included in each pixel column 20b, or an average value of contrast values of all or a part of the pixels included in each pixel column 20b. May be.

フォーカスマップの作成にあたって、例えば図16に示すように、焦点情報取得位置Qを含むように対物レンズ15の視野Vを設定してもよい。この場合、ステージ駆動部34によるステージ1の駆動は行わず、対物レンズ駆動部35によって対物レンズ15の焦点位置を焦点深度分だけ移動させながら、第2の撮像装置20による第2の画像の取得を行う。この場合、合焦点算出部37は、取得した各画像データのうち、最もコントラスト値が大きい画像データを取得したときの対物レンズ15の焦点位置が合焦点位置であるとして合焦点情報を生成する。   In creating the focus map, for example, as shown in FIG. 16, the field of view V of the objective lens 15 may be set so as to include the focus information acquisition position Q. In this case, the stage 1 is not driven by the stage driving unit 34, and the second imaging device 20 acquires the second image while the objective lens driving unit 35 moves the focal position of the objective lens 15 by the focal depth. I do. In this case, the in-focus calculation unit 37 generates in-focus information assuming that the focus position of the objective lens 15 is the in-focus position when the image data having the largest contrast value is acquired among the acquired image data.

画像生成部38は、取得した画像を合成してバーチャルスライド画像を生成する部分である。画像生成部38は、第1の撮像装置18から出力される第1の画像、すなわち、各分割領域40の画像を順次受け取り、これらを合成して試料Sの全体の画像を合成する。そして、この合成画像に基づいてこれよりも低い解像度の画像を作成し、高解像度の画像と低解像度の画像とを関連付けてバーチャルスライド画像格納部39に格納する。バーチャルスライド画像格納部39では、マクロ画像取得装置M1で取得した画像も更に関連付けてもよい。バーチャルスライド画像は、1枚の画像として格納してもよく、複数に分割された画像として格納してもよい。   The image generation unit 38 is a part that combines the acquired images to generate a virtual slide image. The image generation unit 38 sequentially receives the first image output from the first imaging device 18, that is, the image of each divided region 40, and synthesizes them to synthesize the entire image of the sample S. Then, an image having a lower resolution than this is created based on the composite image, and the high resolution image and the low resolution image are associated with each other and stored in the virtual slide image storage unit 39. In the virtual slide image storage unit 39, an image acquired by the macro image acquisition device M1 may be further associated. The virtual slide image may be stored as a single image, or may be stored as a plurality of divided images.

画像評価部41は、第1の撮像装置18で取得された第1の画像を評価する部分である。画像評価部41は、画像取得装置Mが第1の入射領域24Aで取得された第2の画像を用いて合焦点情報の算出を行っている場合に、当該合焦点情報に基づいて第1の撮像装置18で取得された第1の画像のコントラスト値を取得する。画像評価部41は、第1の画像のコントラスト値が所定の閾値以上である場合には、第1の入射領域24Aに属する画素列20bから読み出された画像データを解析に用いるように指示する指示情報を合焦点算出部37に出力する。また、画像評価部41は、第1の画像のコントラスト値が所定の閾値未満である場合には、第2の入射領域24Bに属する画素列20bから読み出された画像データを解析に用いるように指示する指示情報を合焦点算出部37に出力する。   The image evaluation unit 41 is a part that evaluates the first image acquired by the first imaging device 18. When the image acquisition device M calculates the focal point information using the second image acquired in the first incident area 24A, the image evaluation unit 41 performs the first evaluation based on the focal point information. The contrast value of the first image acquired by the imaging device 18 is acquired. When the contrast value of the first image is equal to or greater than a predetermined threshold, the image evaluation unit 41 instructs the image data read from the pixel row 20b belonging to the first incident area 24A to be used for analysis. The instruction information is output to the in-focus calculation unit 37. Further, when the contrast value of the first image is less than the predetermined threshold, the image evaluation unit 41 uses the image data read from the pixel row 20b belonging to the second incident area 24B for analysis. The instruction information to be instructed is output to the in-focus calculation unit 37.

続いて、上述した画像取得装置Mにおけるフォーカシング動作について説明する。   Subsequently, a focusing operation in the above-described image acquisition apparatus M will be described.

画像取得装置Mでは、通常、画像取得装置Mが第1の入射領域24Aで取得された第2の画像を用いて合焦点情報の算出が行われ、次に撮像される分割領域40における試料Sの合焦点情報の取得を第1の撮像装置18による撮像の直前に行うダイナミックプレフォーカスが実行される。この場合、図17に示すように、ステージ駆動部34によるステージ1の移動が開始すると、一の撮像ラインLnに沿って対物レンズ15の視野Vが移動する(ステップS11)。また、試料Sにおける所定部位Saからの光像の結像Sbが第2の撮像装置20の各画素列20bで露光されるように、対物レンズ15の視野V内での試料Sの所定部位Saの移動と第2の撮像装置20のローリング読み出しとが同期する(ステップS12)。   In the image acquisition device M, usually, the focal point information is calculated using the second image acquired by the image acquisition device M in the first incident region 24A, and the sample S in the divided region 40 to be imaged next. The dynamic prefocus is performed in which the in-focus information is acquired immediately before the image capturing by the first image capturing device 18. In this case, as shown in FIG. 17, when the movement of the stage 1 is started by the stage driving unit 34, the field of view V of the objective lens 15 moves along one imaging line Ln (step S11). Further, the predetermined portion Sa of the sample S in the field of view V of the objective lens 15 is formed so that the image Sb of the light image from the predetermined portion Sa in the sample S is exposed in each pixel row 20b of the second imaging device 20. Is synchronized with the rolling readout of the second imaging device 20 (step S12).

そして、前ピン・後ピンに対応する画素列20bで取得した画像データのコントラスト値に基づいて分割領域40における合焦点情報を算出し(ステップS13)、算出した合焦点情報に基づいて対物レンズ15の焦点位置が調整され、分割領域40の撮像が行われる(ステップS14)。その後、所望の撮像ラインLnについて合焦点情報の算出の取得が完了したか否かが判断され(ステップS15)、合焦点情報の算出の取得が完了していない場合には、次の撮像ラインLnに対物レンズ15の視野Vが移動し(ステップS16)、ステップS11〜S15の処理が繰り返し実行される。   Then, the focal point information in the divided region 40 is calculated based on the contrast value of the image data acquired by the pixel row 20b corresponding to the front pin and the rear pin (step S13), and the objective lens 15 is based on the calculated focal point information. Is adjusted, and the divided region 40 is imaged (step S14). Thereafter, it is determined whether or not the calculation of the focal point information has been completed for the desired imaging line Ln (step S15). If the acquisition of the focal point information has not been completed, the next imaging line Ln is determined. The field of view V of the objective lens 15 is moved (step S16), and the processes of steps S11 to S15 are repeatedly executed.

また、画像取得装置Mでは、画像評価部41によって、第1の撮像装置18で撮像された第1の画像のコントラスト値が所定の閾値未満であると評価された場合には、第2の入射領域24Bに属する画素列20bから読み出された画像データを解析に用いるように処理の切り替えが行われ、試料Sの撮像を行う前に試料Sのフォーカスマップが作成される。この場合、図18に示すように、ステージ駆動部34によるステージ1の移動が開始すると、一の撮像ラインLnに沿って対物レンズ15の視野Vが移動する(ステップS21)。また、試料Sにおける所定部位Saからの光像の結像Sbが第2の撮像装置20の各画素列20bで露光されるように、対物レンズ15の視野V内での試料Sの所定部位Saの移動と第2の撮像装置20のローリング読み出しとが同期する(ステップS22)。そして、各画素列20bで取得した画像データのコントラスト値のピークに基づいて焦点情報取得位置Qにおける合焦点情報が算出される(ステップS23)。   Further, in the image acquisition device M, when the image evaluation unit 41 evaluates that the contrast value of the first image captured by the first imaging device 18 is less than a predetermined threshold value, the second incident is performed. Processing is switched so that image data read from the pixel row 20b belonging to the region 24B is used for analysis, and a focus map of the sample S is created before the sample S is imaged. In this case, as shown in FIG. 18, when the movement of the stage 1 by the stage driving unit 34 is started, the visual field V of the objective lens 15 moves along one imaging line Ln (step S21). Further, the predetermined portion Sa of the sample S in the field of view V of the objective lens 15 is formed so that the image Sb of the light image from the predetermined portion Sa in the sample S is exposed in each pixel row 20b of the second imaging device 20. Is synchronized with the rolling readout of the second imaging device 20 (step S22). Then, focus information at the focus information acquisition position Q is calculated based on the contrast value peak of the image data acquired at each pixel row 20b (step S23).

合焦点情報の算出がなされた後、所望の撮像ラインLnについて合焦点情報の算出の取得が完了したか否かが判断され(ステップS24)、合焦点情報の算出の取得が完了していない場合には、次の撮像ラインLnに対物レンズ15の視野Vが移動し(ステップS25)、ステップS21〜S24の処理が繰り返し実行される。合焦点情報の算出の取得が完了した場合には、各焦点情報取得位置Qにおける合焦点情報に基づき、フォーカスマップが作成される(ステップS26)。   After the focal point information is calculated, it is determined whether or not the calculation of the focal point information has been completed for the desired imaging line Ln (step S24), and the acquisition of the focal point information has not been completed. First, the field of view V of the objective lens 15 moves to the next imaging line Ln (step S25), and the processes of steps S21 to S24 are repeatedly executed. When the acquisition of the in-focus information is completed, a focus map is created based on the in-focus information at each focus information acquisition position Q (step S26).

以上説明したように、画像取得装置Mでは、光路差生成部材21の配置により、焦点制御用の第2の光路L2での光の分岐を行わずに第2の光像の光路長差を形成できる。したがって、焦点位置の情報を得るために必要な第2の光路L2への光量が抑えられ、第1の撮像装置18で撮像を行う際の光量を確保できる。また、画像取得装置Mでは、光路差生成部材21の配置により、第2の撮像装置20の撮像面20aに、光路差が生じた第2の光像が入射する第1の入射領域24Aと、光路差が生じない第2の光像が入射する第2の入射領域24Bとが形成される。これにより、合焦点算出部37において、第1の入射領域24Aに入射した第2の画像及び第2の入射領域24Bに入射した第2の画像のいずれを解析に用いるかを選択することが可能となり、例えば試料Sの凹凸の程度等に応じて最適な合焦点情報の算出方式を選択できるので、合焦点情報を精度良く算出できる。   As described above, in the image acquisition device M, the optical path length difference of the second optical image is formed by the arrangement of the optical path difference generating member 21 without branching the light in the second optical path L2 for focus control. it can. Therefore, the amount of light to the second optical path L2 necessary for obtaining the focal position information is suppressed, and the amount of light when the first imaging device 18 performs imaging can be secured. Further, in the image acquisition device M, due to the arrangement of the optical path difference generation member 21, a first incident region 24A where the second optical image in which the optical path difference has occurred is incident on the imaging surface 20a of the second imaging device 20, and A second incident region 24B on which a second light image that does not cause an optical path difference is formed. Accordingly, the in-focus calculation unit 37 can select which of the second image incident on the first incident area 24A and the second image incident on the second incident area 24B is used for the analysis. Thus, for example, since an optimum focal point information calculation method can be selected according to the degree of unevenness of the sample S, the focal point information can be calculated with high accuracy.

画像取得装置Mは、第1の撮像装置18で取得された第1の画像を評価する画像評価部41を更に備えている。合焦点算出部37では、画像評価部41による第1の画像のコントラスト値が所定の閾値以上である場合に、第1の入射領域24Aで取得された第2の画像の解析によってダイナミックプレフォーカスを実行し、画像評価部41による第1の画像のコントラスト値が所定の閾値未満である場合に、第1の入射領域24Bで取得された第2の画像の解析によってフォーカスマップの作成を行う。第1の画像の評価結果に基づいて、第1の入射領域24Aで取得された第2の画像、及び第2の入射領域24Bで取得された第2の画像のいずれを解析に用いるかを選択することで、合焦点情報の精度を担保できる。   The image acquisition device M further includes an image evaluation unit 41 that evaluates the first image acquired by the first imaging device 18. The in-focus calculation unit 37 performs dynamic prefocusing by analyzing the second image acquired in the first incident region 24A when the contrast value of the first image by the image evaluation unit 41 is equal to or greater than a predetermined threshold. When the contrast value of the first image by the image evaluation unit 41 is less than a predetermined threshold value, a focus map is created by analyzing the second image acquired in the first incident area 24B. Select which of the second image acquired in the first incident area 24A and the second image acquired in the second incident area 24B is used for the analysis based on the evaluation result of the first image By doing so, the accuracy of the in-focus information can be secured.

また、画像取得装置Mでは、試料Sに対する対物レンズ15の視野位置を移動させるステージ駆動部34を更に備え、光路差生成部材21は、ステージ駆動部34による対物レンズ15の視野位置の移動に伴う第2の撮像装置20の撮像面20a上での第2の光像の移動方向に沿って連続的に厚さが変化する第1の部材22と、厚さが一定の第2の部材23とを有し、第1の部材22が撮像面20aに第1の入射領域24Aを形成し、第2の部材23が撮像面20aに第2の入射領域24Bを形成している。これにより、簡単な光路差生成部材21の構成で、第2の撮像装置20の撮像面20aに第1の入射領域24A及び第2の入射領域24Bを形成できる。   The image acquisition apparatus M further includes a stage driving unit 34 that moves the visual field position of the objective lens 15 with respect to the sample S, and the optical path difference generating member 21 is accompanied by the movement of the visual field position of the objective lens 15 by the stage driving unit 34. A first member 22 whose thickness continuously changes along the moving direction of the second optical image on the imaging surface 20a of the second imaging device 20, and a second member 23 having a constant thickness. The first member 22 forms a first incident region 24A on the imaging surface 20a, and the second member 23 forms a second incident region 24B on the imaging surface 20a. Accordingly, the first incident region 24A and the second incident region 24B can be formed on the imaging surface 20a of the second imaging device 20 with a simple configuration of the optical path difference generating member 21.

また、画像取得装置Mでは、第2の撮像装置20が複数の画素列20bを有すると共にローリング読み出しが可能な二次元撮像素子を有し、ステージ駆動部34による対物レンズ15の視野位置の移動と同期して各画素列20bのローリング読み出しを行うことによって第2の画像を取得する。第2の光路L2に光路差生成部材21が配置されていることにより、各画素列20bからの画像データには、試料Sの同一部位において対物レンズ15の焦点位置が変更されたときと等価のコントラスト情報が含まれる。したがって、当該コントラスト情報に基づいて合焦点情報を迅速かつ精度良く算出できる。フォーカスマップを作成する場合においても、対物レンズ15の焦点位置を移動させる必要がないので、焦点情報取得位置Qでの合焦点情報の迅速な算出が可能となる。   Further, in the image acquisition device M, the second imaging device 20 has a plurality of pixel rows 20b and a two-dimensional imaging device capable of rolling readout, and the stage drive unit 34 moves the visual field position of the objective lens 15. A second image is acquired by performing rolling readout of each pixel row 20b in synchronization. Since the optical path difference generating member 21 is arranged in the second optical path L2, the image data from each pixel row 20b is equivalent to the case where the focal position of the objective lens 15 is changed in the same part of the sample S. Contrast information is included. Therefore, the in-focus information can be calculated quickly and accurately based on the contrast information. Even when the focus map is created, it is not necessary to move the focal position of the objective lens 15, so that the in-focus information at the focal information acquisition position Q can be quickly calculated.

本発明は、上記実施形態に限られるものではない。例えば上記実施形態では、第2の光像の移動方向に沿って連続的に厚さが変化する第1の部材22と、厚さが一定の第2の部材23とを組み合わせて光路差生成部材21を構成しているが、光路差生成部材は、第2の撮像装置20の撮像面20aに、光路差が生じた第2の光像が入射する第1の入射領域24Aと、光路差が生じない第2の光像が入射する第2の入射領域24Bとが形成されるのであれば、他の態様であってもよい。例えば図19(a)に示すように、第1の部材22のみからなる光路差生成部材51を用いてもよい。この場合においても、第2の撮像装置20の撮像面20aには、図19(b)に示すように、第1の部材22に対応して第1の入射領域24Aが形成され、光路差生成部材51の配置されない部分に対応して第2の入射領域24Bが形成される。   The present invention is not limited to the above embodiment. For example, in the above embodiment, the optical path difference generating member is formed by combining the first member 22 whose thickness continuously changes along the moving direction of the second optical image and the second member 23 having a constant thickness. 21, the optical path difference generating member has a first incident area 24 </ b> A where the second optical image in which the optical path difference has occurred is incident on the imaging surface 20 a of the second imaging device 20, and the optical path difference is Other forms may be used as long as the second incident region 24B into which the second optical image that does not occur is incident is formed. For example, as shown in FIG. 19A, an optical path difference generating member 51 composed only of the first member 22 may be used. Also in this case, as shown in FIG. 19B, the first incident region 24A corresponding to the first member 22 is formed on the imaging surface 20a of the second imaging device 20 to generate the optical path difference. A second incident region 24B is formed corresponding to a portion where the member 51 is not disposed.

また、上記実施形態では、試料Sの走査に伴う撮像面20a上での第2の光像の移動方向(Z方向)に沿って、撮像面20aの上半分領域に第1の入射領域24Aが形成され、下半分領域に第2の入射領域24Bが形成されているが、撮像面20aにおける第1の入射領域24A及び第2の入射領域24Bの形成位置はこれに限られない。例えば図20(a)に示す光路差生成部材61のように、断面直角三角形のプリズム状をなす第1の部材62と、平板状の第2の部材63とを画素列20bの長手方向に組み合わせてもよい。この場合、図20(b)に示すように、第1の入射領域24Aが撮像面20aの左半分領域に形成され、第2の入射領域24Bが撮像面20aの右半分領域に形成される。このような構成においても、上記実施形態と同様の作用効果が得られる。   In the above embodiment, the first incident region 24A is provided in the upper half region of the imaging surface 20a along the moving direction (Z direction) of the second optical image on the imaging surface 20a accompanying the scanning of the sample S. The second incident region 24B is formed in the lower half region, but the positions where the first incident region 24A and the second incident region 24B are formed on the imaging surface 20a are not limited to this. For example, as in the optical path difference generating member 61 shown in FIG. 20A, a first member 62 having a prism shape with a right-angled cross section and a flat plate-like second member 63 are combined in the longitudinal direction of the pixel row 20b. May be. In this case, as shown in FIG. 20B, the first incident region 24A is formed in the left half region of the imaging surface 20a, and the second incident region 24B is formed in the right half region of the imaging surface 20a. Even in such a configuration, the same effects as those of the above embodiment can be obtained.

1…ステージ、12…光源、14…導光光学系、15…対物レンズ、16…ビームスプリッタ(光分岐手段)、18…第1の撮像装置(第1の撮像手段)、20…第2の撮像装置(第2の撮像手段)、20a…撮像面、20b…画素列、21,51,61…光路差生成部材、22,62…第1の部材(第1の部分)、23,63…第2の部材(第2の部分)、24A…第1の入射領域、24B…第2の入射領域、34…ステージ駆動部(視野駆動手段)、36…動作制御部(動作制御手段)、37…合焦点算出部(合焦点算出手段)、40…画像評価部(画像評価手段)、L1…第1の光路、L2…第2の光路、M…画像取得装置、M1…マクロ画像取得装置、M2…ミクロ画像取得装置、S…試料、Sa…所定部位、V…対物レンズの視野。   DESCRIPTION OF SYMBOLS 1 ... Stage, 12 ... Light source, 14 ... Light guide optical system, 15 ... Objective lens, 16 ... Beam splitter (light branching means), 18 ... 1st imaging device (1st imaging means), 20 ... 2nd Imaging device (second imaging means), 20a ... imaging surface, 20b ... pixel array, 21, 51, 61 ... optical path difference generating member, 22,62 ... first member (first part), 23,63 ... 2nd member (2nd part), 24A ... 1st incident area | region, 24B ... 2nd incident area | region, 34 ... Stage drive part (visual field drive means), 36 ... Operation control part (operation control means), 37 In-focus calculation unit (in-focus calculation means) 40 Image evaluation unit (image evaluation means) L1 First optical path L2 Second optical path M Image acquisition device M1 Macro image acquisition device M2 ... Micro image acquisition device, S ... Sample, Sa ... Predetermined part, V ... Field of view of objective lens

Claims (8)

試料が載置されるステージと、
前記試料に向けて光を照射する光源と、
前記ステージ上の前記試料と対峙するように配置された対物レンズ、及び前記試料の光像を画像取得用の第1の光路及び焦点制御用の第2の光路に分岐する光分岐手段を含む導光光学系と、
前記第1の光路に分岐された第1の光像による第1の画像を取得する第1の撮像手段と、
前記第2の光路に分岐された第2の光像による第2の画像を取得する第2の撮像手段と、
前記第2の画像を解析し、その解析結果に基づいて前記試料の合焦点情報を算出する合焦点算出手段と、
前記第2の撮像手段の撮像面の面内方向に沿って前記第2の光像に光路差を生じさせる光路差生成部材と、を備え、
前記光路差生成部材は、前記第2の撮像手段の撮像面に、光路差が生じた前記第2の光像が入射する第1の入射領域と、光路差が生じない前記第2の光像が入射する第2の入射領域とが形成されるように前記第2の光路に配置され、
前記合焦点算出手段は、前記第1の入射領域で取得された前記第2の画像、及び前記第2の入射領域で取得された前記第2の画像のいずれか一方を、解析に用いる前記第2の画像として選択することを特徴とする画像取得装置。
A stage on which the sample is placed;
A light source that emits light toward the sample;
An objective lens disposed so as to face the sample on the stage, and a light branching unit that branches the optical image of the sample into a first optical path for image acquisition and a second optical path for focus control. Optical optics,
First imaging means for acquiring a first image by a first optical image branched into the first optical path;
A second imaging means for acquiring a second image by a second optical image branched into the second optical path;
In-focus calculation means for analyzing the second image and calculating in-focus information of the sample based on the analysis result;
An optical path difference generating member that generates an optical path difference in the second optical image along the in-plane direction of the imaging surface of the second imaging means,
The optical path difference generating member includes a first incident area where the second optical image in which an optical path difference has occurred is incident on an imaging surface of the second imaging means, and the second optical image in which no optical path difference is generated. Is disposed in the second optical path so as to form a second incident region on which is incident,
The in-focus calculation means uses the second image acquired in the first incident area and the second image acquired in the second incident area for the analysis. An image acquisition apparatus, wherein the second image is selected as the second image.
前記光路差生成部材及び前記第2の撮像手段は、前記試料における前記第1の撮像手段での撮像位置からの光が前記第2の入射領域に入射するように前記第2の光路に配置されていることを特徴とする請求項1記載の画像取得装置。   The optical path difference generating member and the second imaging unit are arranged in the second optical path so that light from the imaging position of the first imaging unit in the sample is incident on the second incident region. The image acquisition apparatus according to claim 1, wherein: 前記第1の撮像手段で取得された前記第1の画像を評価する画像評価手段を更に備え、
前記合焦点算出手段は、前記画像評価手段による前記第1の画像の評価結果に基づいて、前記第1の入射領域で取得された前記第2の画像、及び前記第2の入射領域で取得された前記第2の画像のいずれか一方を選択することを特徴とする請求項1又は2記載の画像取得装置。
Image evaluation means for evaluating the first image acquired by the first imaging means;
The focus calculation means is acquired in the second image acquired in the first incident area and the second incident area based on the evaluation result of the first image by the image evaluation means. 3. The image acquisition apparatus according to claim 1, wherein any one of the second images is selected.
前記試料に対する前記対物レンズの視野位置を移動させる視野駆動手段を更に備え、
前記光路差生成部材は、前記視野駆動手段による前記対物レンズの視野位置の移動に伴う前記第2の撮像手段の撮像面上での前記第2の光像の移動方向に沿って連続的に厚さが変化する第1の部分と、厚さが一定の第2の部分とを有し、
前記第1の部分が前記撮像面に前記第1の入射領域を形成し、前記第2の部分が前記撮像面に前記第2の入射領域を形成することを特徴とする請求項1〜3のいずれか一項記載の画像取得装置。
Visual field driving means for moving the visual field position of the objective lens relative to the sample;
The optical path difference generating member has a continuous thickness along the moving direction of the second optical image on the imaging surface of the second imaging unit as the visual field driving unit moves the field position of the objective lens. A first portion having a variable thickness and a second portion having a constant thickness,
The first portion forms the first incident region on the imaging surface, and the second portion forms the second incident region on the imaging surface. The image acquisition apparatus as described in any one of Claims.
前記第2の撮像手段は、複数の画素列を有すると共にローリング読み出しが可能な二次元撮像素子を有し、前記視野駆動手段による前記対物レンズの視野位置の移動と同期して各画素列のローリング読み出しを行うことによって前記第2の画像を取得する請求項4記載の画像取得装置。   The second imaging means has a two-dimensional imaging device having a plurality of pixel rows and capable of rolling readout, and rolling each pixel row in synchronization with the movement of the visual field position of the objective lens by the visual field driving means. The image acquisition apparatus according to claim 4, wherein the second image is acquired by performing reading. 前記合焦点算出手段は、前記第1の入射領域で取得された前記第2の画像を解析に用いる場合には、前記二次元撮像素子の各画素列のうち、少なくとも2つの画素列で読み出された画像データのコントラスト値の差分に基づいて、前記試料の合焦点情報を算出することを特徴とする請求項5記載の画像取得装置。   In the case where the second image acquired in the first incident region is used for analysis, the in-focus calculation unit reads out at least two pixel columns out of the pixel columns of the two-dimensional image sensor. The image acquisition apparatus according to claim 5, wherein the focal point information of the sample is calculated based on a difference in contrast value of the obtained image data. 前記合焦点算出手段は、前記第2の入射領域で取得された前記第2の画像を解析に用いる場合には、算出した合焦点情報に基づいてフォーカスマップを作成することを特徴とする請求項5記載の画像取得装置。   The focus calculation means creates a focus map based on the calculated focus information when using the second image acquired in the second incident region for analysis. 5. The image acquisition device according to 5. 試料が載置されるステージと、
前記試料に向けて光を照射する光源と、
前記ステージ上の前記試料と対峙するように配置された対物レンズ、及び前記試料の光像を画像取得用の第1の光路及び焦点制御用の第2の光路に分岐する光分岐手段を含む導光光学系と、
前記第1の光路に分岐された第1の光像による第1の画像を取得する第1の撮像手段と、
前記第2の光路に分岐された第2の光像による第2の画像を取得する第2の撮像手段と、
前記第2の画像を解析し、その解析結果に基づいて前記試料の合焦点情報を算出する合焦点算出手段と、
前記第2の撮像手段の撮像面の面内方向に沿って前記第2の光像に光路差を生じさせる光路差生成部材と、を備えた画像取得装置のフォーカス方法であって、
前記第2の撮像手段の撮像面に、光路差が生じた前記第2の光像が入射する第1の入射領域と、光路差が生じない前記第2の光像が入射する第2の入射領域とが形成されるように、前記光路差生成部材を前記第2の光路に配置し、
前記第1の入射領域で取得された前記第2の画像、及び前記第2の入射領域で取得された前記第2の画像のいずれか一方を、解析に用いる前記第2の画像として前記合焦点算出手段に選択させることを特徴とする画像取得装置のフォーカス方法。
A stage on which the sample is placed;
A light source that emits light toward the sample;
An objective lens disposed so as to face the sample on the stage, and a light branching unit that branches the optical image of the sample into a first optical path for image acquisition and a second optical path for focus control. Optical optics,
First imaging means for acquiring a first image by a first optical image branched into the first optical path;
A second imaging means for acquiring a second image by a second optical image branched into the second optical path;
In-focus calculation means for analyzing the second image and calculating in-focus information of the sample based on the analysis result;
An optical path difference generating member that generates an optical path difference in the second optical image along an in-plane direction of an imaging surface of the second imaging unit,
A first incident area where the second optical image in which an optical path difference has occurred is incident on an imaging surface of the second imaging means, and a second incident in which the second optical image without an optical path difference is incident. The optical path difference generating member is disposed in the second optical path so that a region is formed,
One of the second image acquired in the first incident area and the second image acquired in the second incident area is used as the second image used for analysis. A focus method for an image acquisition apparatus, characterized by causing a calculation means to select.
JP2013122960A 2013-04-26 2013-06-11 Image acquisition device and focus method of image acquisition device Active JP6010506B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013122960A JP6010506B2 (en) 2013-06-11 2013-06-11 Image acquisition device and focus method of image acquisition device
PCT/JP2014/055988 WO2014174920A1 (en) 2013-04-26 2014-03-07 Image acquisition device and focusing method for image acquisition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013122960A JP6010506B2 (en) 2013-06-11 2013-06-11 Image acquisition device and focus method of image acquisition device

Publications (2)

Publication Number Publication Date
JP2014240888A true JP2014240888A (en) 2014-12-25
JP6010506B2 JP6010506B2 (en) 2016-10-19

Family

ID=52140176

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013122960A Active JP6010506B2 (en) 2013-04-26 2013-06-11 Image acquisition device and focus method of image acquisition device

Country Status (1)

Country Link
JP (1) JP6010506B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005114293A1 (en) * 2004-05-24 2005-12-01 Hamamatsu Photonics K.K. Microscope
JP2008507719A (en) * 2004-07-23 2008-03-13 ジーイー・ヘルスケア・ナイアガラ・インク Confocal fluorescence microscopy and equipment
WO2012002893A1 (en) * 2010-06-30 2012-01-05 Ge Healthcare Bio-Sciences Corp A system for synchronization in a line scanning imaging microscope
JP2012073285A (en) * 2010-09-27 2012-04-12 Olympus Corp Imaging method and microscope device
JP2012108184A (en) * 2010-11-15 2012-06-07 Sony Corp Focal position information detector, microscope device and focal position information detection method
JP2012138068A (en) * 2010-12-08 2012-07-19 Canon Inc Image generation apparatus

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005114293A1 (en) * 2004-05-24 2005-12-01 Hamamatsu Photonics K.K. Microscope
JP2008507719A (en) * 2004-07-23 2008-03-13 ジーイー・ヘルスケア・ナイアガラ・インク Confocal fluorescence microscopy and equipment
JP2012212155A (en) * 2004-07-23 2012-11-01 Ge Healthcare Niagara Inc Method and apparatus for fluorescent confocal microscopy
WO2012002893A1 (en) * 2010-06-30 2012-01-05 Ge Healthcare Bio-Sciences Corp A system for synchronization in a line scanning imaging microscope
JP2012073285A (en) * 2010-09-27 2012-04-12 Olympus Corp Imaging method and microscope device
JP2012108184A (en) * 2010-11-15 2012-06-07 Sony Corp Focal position information detector, microscope device and focal position information detection method
JP2012138068A (en) * 2010-12-08 2012-07-19 Canon Inc Image generation apparatus

Also Published As

Publication number Publication date
JP6010506B2 (en) 2016-10-19

Similar Documents

Publication Publication Date Title
JP6266601B2 (en) Image acquisition device, method and system for creating focus map of sample
JP5941395B2 (en) Image acquisition device and focus method of image acquisition device
WO2014174919A1 (en) Image acquisition device and focusing method for image acquisition device
US9667858B2 (en) Image acquisition device and image acquisition device focusing method
JP6433888B2 (en) Image acquisition apparatus, method and system for acquiring in-focus information of sample
US20200033564A1 (en) Image capturing apparatus and focusing method thereof
JP5848596B2 (en) Image acquisition device and focus method of image acquisition device
JP5301642B2 (en) Image acquisition device and focus method of image acquisition device
JP5296861B2 (en) Image acquisition device and focus method of image acquisition device
JP6076205B2 (en) Image acquisition device and focus method of image acquisition device
WO2014174920A1 (en) Image acquisition device and focusing method for image acquisition device
US9860437B2 (en) Image capturing apparatus and focusing method thereof
JP6010506B2 (en) Image acquisition device and focus method of image acquisition device
US9971140B2 (en) Image capturing apparatus and focusing method thereof
JP5770958B1 (en) Image acquisition apparatus and imaging apparatus
JP5986041B2 (en) Image acquisition device and focus method of image acquisition device
JP6023012B2 (en) Image acquisition device and focus method of image acquisition device
JP6240056B2 (en) Image acquisition apparatus and imaging apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160530

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160913

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160916

R150 Certificate of patent or registration of utility model

Ref document number: 6010506

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150