JP2016051168A - Image acquisition device and control method therefor - Google Patents

Image acquisition device and control method therefor Download PDF

Info

Publication number
JP2016051168A
JP2016051168A JP2015105482A JP2015105482A JP2016051168A JP 2016051168 A JP2016051168 A JP 2016051168A JP 2015105482 A JP2015105482 A JP 2015105482A JP 2015105482 A JP2015105482 A JP 2015105482A JP 2016051168 A JP2016051168 A JP 2016051168A
Authority
JP
Japan
Prior art keywords
imaging
region
range
specimen
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015105482A
Other languages
Japanese (ja)
Inventor
剛志 岩佐
Tsuyoshi Iwasa
剛志 岩佐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015105482A priority Critical patent/JP2016051168A/en
Priority to PCT/JP2015/004204 priority patent/WO2016031214A1/en
Publication of JP2016051168A publication Critical patent/JP2016051168A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/36Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/24Base structure
    • G02B21/26Stages; Adjusting means therefor
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements

Abstract

PROBLEM TO BE SOLVED: To provide an image acquisition device capable of rapidly and accurately determining an image capturing range using a simple configuration.SOLUTION: An image acquisition device divides a sample into multiple areas to capture an image comprising multiple layers with different focal positions in an optical axis direction or a single layer in each area and is configured as follows. The image acquisition device has image capturing means. The image acquisition device also includes specimen information acquisition means that uses a single- or multi-layered image of a first area of a sample captured by the image capturing means to estimate a presence range or the most in-focus position, in the optical axis direction, of a specimen included in a second area of the sample other than the first area, and sets an image capturing range in the optical axis direction for the second area based on a result of the estimation.SELECTED DRAWING: Figure 1A

Description

本発明は、画像取得装置およびその制御方法に関する。 The present invention relates to an image acquisition device and a control method thereof.

近年、病理学の分野において、組織片等の病理標本の顕微鏡像をデジタル画像として取得するバーチャルスライドシステム等の画像取得装置が注目されている。病理診断画像のデジタル化により、データ管理の効率化や遠隔診断等が可能となる。 In recent years, in the field of pathology, an image acquisition device such as a virtual slide system that acquires a microscopic image of a pathological specimen such as a tissue piece as a digital image has attracted attention. By digitizing the pathological diagnosis image, it becomes possible to improve the efficiency of data management, remote diagnosis, and the like.

装置の撮像対象となる試料はスライド(プレパラートともいう)であり、数〜数十[um]程度に薄くスライスされた組織片が、封入剤を介してスライドグラスとカバーグラスの間に固定されている。一般に、組織片はその厚みが一定であるとは限らず、また表面が凸凹を有していることに加えて組織片自体も略平面形状とは限らずにうねりを有している。したがって、組織片の厚み方向の存在範囲即ち光軸方向の撮像層の範囲を装置の撮像野である撮像範囲毎に適切に設定する必要がある。高解像度であるが故に被写界深度が0.5〜1[um]程度と浅い病理観察用顕微鏡の光学系を介して組織片の厚み方向全域の合焦画像を取得するためである。 A sample to be imaged by the apparatus is a slide (also called a preparation), and a tissue piece sliced thinly to several to several tens [um] is fixed between a slide glass and a cover glass via an encapsulant. Yes. In general, the thickness of a tissue piece is not always constant, and in addition to the surface having irregularities, the tissue piece itself does not necessarily have a substantially planar shape but has undulations. Therefore, it is necessary to appropriately set the existence range in the thickness direction of the tissue piece, that is, the range of the imaging layer in the optical axis direction for each imaging range that is an imaging field of the apparatus. This is because a focused image of the entire tissue piece in the thickness direction is acquired through the optical system of the pathological observation microscope, which has a shallow depth of field of about 0.5 to 1 [um] because of high resolution.

こうした課題に対して隣接する撮像範囲との重複部分の画素データに基づいて算出された合焦位置を、隣接する撮像範囲の撮像開始位置とし、そこから光軸方向に沿って上下それぞれにスキャンする。そうすることで必要な撮像範囲を決定する方法が提案されている(特許文献1)。 For such a problem, the in-focus position calculated based on the pixel data of the overlapping portion with the adjacent imaging range is set as the imaging start position of the adjacent imaging range, and then scanned up and down along the optical axis direction from there. . A method for determining a necessary imaging range by doing so has been proposed (Patent Document 1).

また、位相差像を結像及び撮像する系を別途設けることで被写体の凹凸を検出し、検出した凹凸範囲と被写界深度との関係に基づいて、光軸方向の探索処理を行わずに撮像層の範囲を決定する方法が提案されている(特許文献2)。 In addition, by providing a system for imaging and imaging a phase difference image separately, the unevenness of the subject is detected, and the search process in the optical axis direction is not performed based on the relationship between the detected unevenness range and the depth of field. A method for determining the range of the imaging layer has been proposed (Patent Document 2).

特開2013−029551号公報JP2013-029551A 特開2011−090222号公報JP 2011-090222 A

しかしながら、上記のような従来の画像取得装置では、次のような課題があった。すなわち、特許文献1のような撮像範囲毎に光軸方向にスキャン処理を行う方法では、光軸方向における撮像層の範囲を決定するのに時間を要し、スループットを向上させることが困難であった。 However, the conventional image acquisition apparatus as described above has the following problems. That is, in the method of performing scanning processing in the optical axis direction for each imaging range as in Patent Document 1, it takes time to determine the imaging layer range in the optical axis direction, and it is difficult to improve throughput. It was.

また、特許文献2のように合焦専用の光学系及び撮像素子を設ける方法では、高速な処理が期待できるが、装置の大型化及び高コスト化を回避することは困難であった。 Further, in the method of providing an optical system dedicated to focusing and an imaging element as in Patent Document 2, high-speed processing can be expected, but it is difficult to avoid the increase in size and cost of the apparatus.

本出願に係る発明はこのような事情に鑑みてなされたものであり、簡易な構成で高速かつ高精度に撮像範囲を決定することのできる画像取得装置を提供することを目的とする。 The invention according to the present application has been made in view of such circumstances, and an object thereof is to provide an image acquisition apparatus capable of determining an imaging range with high speed and high accuracy with a simple configuration.

上記課題を達成するため、本発明は以下の構成を採用する。すなわち、試料を複数の領域に分けて、各領域について光軸方向に焦点位置の異なる複数層または単層の画像を撮像す
る画像取得装置であって、前記試料を撮像する撮像手段と、前記撮像手段により撮像された前記試料の第1領域の単層または複数層の画像に基づいて前記第1領域と異なる前記試料の第2領域に含まれる検体の前記光軸方向の存在範囲または最合焦位置を推定し、その推定結果に基づいて前記第2領域の前記光軸方向の撮像範囲を設定する検体情報取得手段とを備える画像取得装置である。
また本発明は以下の構成を採用する。すなわち、試料を複数の領域に分けて、各領域について光軸方向に焦点位置の異なる複数層または単層の画像を撮像する画像取得装置の制御方法であって、前記試料の第1領域の単層または複数層の画像を撮像するステップと、前記撮像された前記試料の第1領域の単層または複数層の画像に基づいて前記第1領域と異なる前記試料の第2領域に含まれる検体の前記光軸方向の存在範囲または最合焦位置を推定するステップと、前記推定の結果に基づいて前記第2領域の前記光軸方向の撮像範囲を設定するステップとを有する画像取得装置の制御方法である。
In order to achieve the above object, the present invention adopts the following configuration. That is, an image acquisition device that divides a sample into a plurality of regions and captures images of a plurality of layers or single layers having different focal positions in the optical axis direction for each region, the imaging unit that images the sample, and the imaging The presence range or the most in-focus in the optical axis direction of the specimen contained in the second region of the sample different from the first region based on the single-layer or multi-layer image of the first region of the sample imaged by the means An image acquisition apparatus comprising: a sample information acquisition unit configured to estimate a position and set an imaging range of the second region in the optical axis direction based on the estimation result.
The present invention adopts the following configuration. That is, a method of controlling an image acquisition apparatus that divides a sample into a plurality of regions and captures images of a plurality of layers or single layers having different focal positions in the optical axis direction for each region, Imaging a layer or a plurality of layers, and a sample contained in a second region of the sample different from the first region based on the imaged single layer or a plurality of layers of the first region of the sample A method for controlling an image acquisition apparatus, comprising: estimating an existence range or a most in-focus position in the optical axis direction; and setting an imaging range in the optical axis direction of the second region based on the estimation result. It is.

以上説明したように、本発明によれば、簡易な構成で高速かつ高精度に撮像範囲を決定することのできる画像取得装置を提供できる。 As described above, according to the present invention, it is possible to provide an image acquisition device capable of determining an imaging range with high speed and high accuracy with a simple configuration.

本発明の画像取得装置の実施例1を示すブロック図(実施例1)Block diagram showing a first embodiment of the image acquisition apparatus of the present invention (first embodiment) 実施例1における画像取得装置のスライドを示す断面図Sectional drawing which shows the slide of the image acquisition apparatus in Example 1 実施例1における画像取得装置の撮像プロセスを示すフローチャート6 is a flowchart illustrating an imaging process of the image acquisition apparatus according to the first embodiment. 実施例1におけるXY撮像範囲の算出方法を示す模式図Schematic diagram illustrating a method of calculating the XY imaging range in the first embodiment 実施例1におけるZ方向の多層撮像を示す模式図Schematic diagram showing multilayer imaging in the Z direction in the first embodiment. 実施例1におけるZスタック撮像のフローチャートFlow chart of Z stack imaging in the first embodiment 実施例1におけるZ探索撮像を示すフローチャートA flowchart showing Z search imaging in the first embodiment. 実施例1におけるZスタック範囲の設定方法を示す図The figure which shows the setting method of the Z stack range in Example 1 本発明の画像処理装置の実施例2を示すフローチャート(実施例2)Flowchart showing a second embodiment of the image processing apparatus of the present invention (second embodiment) 実施例2におけるZスタック撮像の追加撮像を示す図The figure which shows the additional imaging of Z stack imaging in Example 2 本発明の画像取得装置の実施例3を示す斜視図(実施例3)3 is a perspective view showing a third embodiment of the image acquisition device of the present invention (third embodiment). FIG. 本発明の画像取得装置の実施例4を示す斜視図(実施例4)The perspective view which shows Example 4 of the image acquisition apparatus of this invention (Example 4).

以下、図面を用いて本発明の実施の形態について説明する。なお、以下の実施例は特許請求の範囲に係る発明を限定するものでなく、また実施例で説明されている特長の組み合わせの全てが発明の解決手段に必須のものとは限らない。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. The following embodiments do not limit the invention according to the claims, and all combinations of features described in the embodiments are not necessarily essential to the solution means of the invention.

<実施例1>
(装置構成)
図1Aは、本発明の画像取得装置の実施例1を示すブロック図である。画像取得装置1(以下「装置1」と略称する)は、本撮像を行う本撮像装置200(撮像手段に対応する)、本撮像に先立って予備撮像を行う広域撮像装置300(広域撮像手段に対応する)、装置の動作制御や画像処理等を行う本体統括部100とで構成される。図中、破線矢印は画像情報に係るデータ信号を示し、実線矢印は制御指令信号やステータス信号等を示す。まず、これらの概要について説明する。また、これ以外にも図示しないものもあるが、それらについては適宜後述する。
<Example 1>
(Device configuration)
FIG. 1A is a block diagram illustrating a first embodiment of an image acquisition device according to the present invention. The image acquisition device 1 (hereinafter abbreviated as “device 1”) includes a main imaging device 200 (corresponding to the imaging unit) that performs the main imaging, and a wide-area imaging device 300 (for the wide-area imaging unit) that performs preliminary imaging prior to the main imaging. Corresponding), and a main body control unit 100 that performs operation control of the apparatus, image processing, and the like. In the figure, broken line arrows indicate data signals relating to image information, and solid line arrows indicate control command signals, status signals, and the like. First, an outline of these will be described. There are other things that are not shown, but these will be described later as appropriate.

本撮像装置200は、組織片等の検体を封入した試料であるスライド10の顕微鏡像を撮像するものである。そして、本撮像装置200は、スライド10に光を照射する照明部210、スライド10の位置決めを行うとともにスライド10すなわち試料を支持するステージ220を有する。さらに、スライド10からの光を集光及び結像する結像光学系であ
るレンズ部230、結像された光を電気信号に変換する撮像素子240を有する。なお、本実施例では、図1Aに示す通り、レンズ部230の光軸方向をZ方向、光軸方向に直交する水平面方向をXY方向と規定する。撮像方法としては、後述する小区画毎(各領域毎)に、後述する検体14の多層画像(Zスタック画像)を取得する。以下、この多層画像をZスタック画像と記す。このZスタック画像とは光軸方向に焦点位置を少しずつ変えながら被写体を撮像し、その撮像結果として得られた複数枚の2次元画像を指す。すなわち焦点位置毎に撮像した結果として得られた画像である。また、Zスタック撮像とは光軸方向に焦点位置を少しずつ変えながら被写体を撮像することで、複数枚の2次元画像を得る処理を指す。また、Zスタック画像を構成する、各焦点位置での2次元画像をレイヤー画像という。
The imaging apparatus 200 captures a microscopic image of a slide 10 that is a sample in which a specimen such as a tissue piece is enclosed. The imaging apparatus 200 includes an illumination unit 210 that irradiates light to the slide 10 and a stage 220 that positions the slide 10 and supports the slide 10, that is, the sample. Furthermore, it has a lens unit 230 that is an imaging optical system for condensing and imaging light from the slide 10, and an imaging device 240 for converting the imaged light into an electrical signal. In the present embodiment, as shown in FIG. 1A, the optical axis direction of the lens unit 230 is defined as the Z direction, and the horizontal plane direction orthogonal to the optical axis direction is defined as the XY direction. As an imaging method, a multilayer image (Z stack image) of the specimen 14 described later is acquired for each small section (each area) described later. Hereinafter, this multilayer image is referred to as a Z stack image. The Z stack image refers to a plurality of two-dimensional images obtained as a result of imaging a subject while changing the focal position little by little in the optical axis direction. That is, it is an image obtained as a result of imaging for each focal position. Z stack imaging refers to processing for obtaining a plurality of two-dimensional images by imaging a subject while gradually changing the focal position in the optical axis direction. In addition, a two-dimensional image at each focal position constituting the Z stack image is referred to as a layer image.

広域撮像装置300は、スライド10を上から見た全体像を撮像するもので、スライド10を設置する試料載置部310、スライド10の撮像を行う広域撮像部320とで構成される。ここで取得された画像は、スライド10のサムネイル画像の作成、後述する小区画801の分割生成、スライド10にバーコードや2次元コード等の試料識別情報の記載がある場合にはその取得などに用いられる。 The wide-area imaging device 300 captures an entire image of the slide 10 as viewed from above, and includes a sample placement unit 310 that installs the slide 10 and a wide-area imaging unit 320 that images the slide 10. The acquired image is used to create a thumbnail image of the slide 10, to divide and generate a small section 801, which will be described later, and to acquire sample identification information such as a barcode or a two-dimensional code on the slide 10. Used.

本体統括部100は、装置1の動作制御及び図示しない外部装置との通信を行う制御部110、広域撮像部320や撮像素子240の撮像データに対する画像処理及び図示しない外部装置への画像データ出力を行う画像処理部120を有する。さらに、合焦に関する演算を行う演算部130(検体情報取得手段に対応する)を有する。なお、図では便宜上機能毎にブロックを分けているが実現手段としてはCPUやDSP上で動作するソフトウェアとして、或いはASICやFPGA等のハードウェアとして実装しても良く、その切り分けも適宜設計すれば良い。図示しない外部装置としては、装置1と使用者との間のユーザーインターフェースや画像ビューワとして機能するPCワークステーション、画像データの保存管理等を行う外部記憶装置や画像管理システム等が挙げられる。この他、装置1に含まれる図示しないものとして、多数のスライド10をセットするスライドストッカ、スライド10を載置台すなわち試料載置部310やステージ220へと搬送する試料搬送手段等が挙げられる。これら図示しないものについては詳細な説明を省略する。 The main unit 100 controls the operation of the apparatus 1 and communicates with an external device (not shown), image processing on image data of the wide-area imaging unit 320 and the image sensor 240, and output of image data to an external device (not shown). An image processing unit 120 is provided. Furthermore, it has the calculating part 130 (it respond | corresponds to a sample information acquisition means) which performs the calculation regarding a focus. In the figure, the blocks are divided for each function for convenience. However, the implementation means may be implemented as software operating on a CPU or DSP, or hardware such as an ASIC or FPGA, and the separation may be designed appropriately. good. Examples of the external device (not shown) include a user interface between the device 1 and the user, a PC workstation that functions as an image viewer, an external storage device that performs image data storage management, an image management system, and the like. In addition, examples of the apparatus 1 that are not shown include a slide stocker that sets a large number of slides 10, a sample transport unit that transports the slides 10 to a mounting table, that is, a sample mounting unit 310 and a stage 220. Detailed descriptions of those not shown are omitted.

上記各構成要素についてさらに説明する。照明部210は、光を照射する光源と、光をスライド10に対して集光するための光学系とで構成される。光源としては、ハロゲンランプやLED等を用いる。ステージ220は、スライド10を保持してXYZ各方向に精密に移動させる位置制御機構を有し、これはモータとボールネジの組合せやピエゾ素子等の駆動機構によって実現される。また、ステージ移動時の加速度によるスライド10の位置ずれ防止のため、バキューム等スライドの保持固定機構を備える。レンズ部230は、対物レンズと結像レンズとで構成され、照明部210から照射されたスライド10の透過光を撮像素子240の受光面上に結像させる。レンズとして、物体側のFOV(Field
of View:視野、撮像範囲)が略1[mm]四方且つ被写界深度が0.5[um]程度のものが望ましい。撮像素子240は、CCD(電荷結合素子)やCMOS(相補性金属酸化膜半導体)等によるイメージセンサである。制御部110からの制御信号に基づいて設定された露光時間やセンサゲイン、露光開始タイミング等に従って受光した光を光電変換して電気信号とし、それを画像処理部120や演算部130に出力する。試料載置部310は、スライド10を載置するための台である。台には、スライド10のXY位置を試料載置部310に対して位置決めできるよう突き当て機構が設けられている。なお、図1Aの構成に限られず、試料載置部310をステージ220が兼ねても良く、その場合はステージ220のXY可動範囲を広げることで構成できる。
Each of the above components will be further described. The illumination unit 210 includes a light source that emits light and an optical system that collects the light with respect to the slide 10. As the light source, a halogen lamp, an LED, or the like is used. The stage 220 has a position control mechanism that holds the slide 10 and moves it precisely in each of the XYZ directions. This is realized by a driving mechanism such as a combination of a motor and a ball screw or a piezo element. In addition, a slide holding and fixing mechanism such as a vacuum is provided to prevent displacement of the slide 10 due to acceleration during stage movement. The lens unit 230 includes an objective lens and an imaging lens, and forms an image of the transmitted light of the slide 10 irradiated from the illumination unit 210 on the light receiving surface of the image sensor 240. As a lens, the object side FOV (Field
of view: field of view, imaging range) of approximately 1 [mm] square and a depth of field of about 0.5 [um] is desirable. The image sensor 240 is an image sensor such as a CCD (charge coupled device) or a CMOS (complementary metal oxide semiconductor). The light received in accordance with the exposure time, sensor gain, exposure start timing, etc. set based on the control signal from the control unit 110 is photoelectrically converted into an electrical signal, which is output to the image processing unit 120 and the calculation unit 130. The sample mounting unit 310 is a table for mounting the slide 10. The table is provided with an abutment mechanism so that the XY position of the slide 10 can be positioned with respect to the sample placement unit 310. The stage 220 may also serve as the sample placement unit 310 without being limited to the configuration of FIG. 1A, and in that case, the stage 220 can be configured by widening the XY movable range.

広域撮像部320は、試料載置部310に載置されたスライド10に照明光を照射する図示しない照明部と、レンズや撮像素子等から成る図示しないカメラ部とで構成される。制
御部110からの制御信号に基づいて露光時間やセンサゲイン、露光開始タイミング、照明量等が設定され、撮像されたデータは画像処理部120に出力される。なお、レンズ周囲に設けたリング照明による暗視野照明を行い、一回の撮像でスライド10の全体像を撮像できるよう倍率や位置等が構成されている。カメラ部の解像度は、検体14の存在範囲のラフ検出を行えるよう本撮像装置200における撮像範囲程度、或いは2次元コードが識別できる程度の低解像度または低分解能でよいため低コストに構成できる。
The wide area imaging unit 320 includes an illumination unit (not shown) that irradiates the slide 10 placed on the sample placement unit 310 with illumination light, and a camera unit (not shown) that includes a lens, an imaging element, and the like. Based on the control signal from the control unit 110, the exposure time, sensor gain, exposure start timing, illumination amount, and the like are set, and the captured data is output to the image processing unit 120. Note that magnification, position, and the like are configured so that dark field illumination using ring illumination provided around the lens is performed, and the entire image of the slide 10 can be captured by a single imaging. The resolution of the camera unit can be configured at low cost because it may be about the imaging range in the imaging apparatus 200 or low resolution or low resolution that can identify the two-dimensional code so that rough detection of the existence range of the specimen 14 can be performed.

制御部110は、後述の動作プロセスに基づいて装置1の各構成要素の動作制御を行う。具体的には動作条件の設定や動作タイミングの指示等を行う。広域撮像部320に対しては、露光時間やセンサゲイン、露光開始タイミング、照明光量等の設定及び制御を行う。照明部210に対しては、光量、絞り、カラーフィルタの切替等の指示を行う。ステージ220に対しては、演算部130の出力結果や後述の小区画801に関する情報、図示しないエンコーダ等によりステージの現在位置情報等に基づいて、ステージをXYZ方向に移動させてスライド10の所望の部位を撮像できるよう制御する。撮像素子240に対しては、露光時間やセンサゲイン、露光開始タイミング等の設定及び制御を行う。画像処理部120との間では、動作モードやタイミングの設定及び制御、小区画やバーコードに関する情報等の広域撮像データの処理結果の受信を行う。さらに、制御部110は、図示しない外部装置と通信を行う。具体的には、使用者が外部装置を介して設定した動作条件の取得や、装置の動作スタート/ストップの制御、画像処理部120への画像データの出力指示等を行う。 The control unit 110 controls the operation of each component of the device 1 based on an operation process described later. Specifically, setting of operation conditions, instruction of operation timing, and the like are performed. The wide area imaging unit 320 is set and controlled for exposure time, sensor gain, exposure start timing, illumination light quantity, and the like. The illumination unit 210 is instructed to switch the light amount, the aperture, and the color filter. For the stage 220, the stage 10 is moved in the XYZ directions based on the output result of the arithmetic unit 130, information on the small section 801 described later, the current position information of the stage by an encoder (not shown), and the like. It controls so that a site | part can be imaged. The image sensor 240 is set and controlled for exposure time, sensor gain, exposure start timing, and the like. Between the image processing unit 120, the setting and control of the operation mode and timing, and the processing result of the wide area imaging data such as information on the small section and the barcode are received. Further, the control unit 110 communicates with an external device (not shown). Specifically, acquisition of operation conditions set by the user via an external device, control of operation start / stop of the device, instruction to output image data to the image processing unit 120, and the like are performed.

画像処理部120は、主に二つの機能を有する。一つ目は、広域撮像部320から受信するスライド10の広域撮像データの処理である。広域撮像データを解析し、バーコード情報の読取、検体14のXY方向における存在範囲のラフ(粗)検出および小区画801群の分割生成、サムネイル画像の生成を行う。ここでいう「ラフ」とは上記のようにたとえば広域撮像部320の分解能または解像度は本撮像装置200の分解能または解像度に比べて低いということである。また、本撮像装置200の結像光学系が拡大光学系であるのに対し、広域撮像部320の結像光学系は縮小光学系である。このように構成することで広域撮像部320を安価に構成することができるとともに画像処理の際に計算量が低減されるので画像処理の速度が速くなる。ここで制御部110は、生成された小区画801群の情報(座標、枚数等)に基づいて、本撮像装置200を用いた本撮像処理を制御する。なお、小区画801群の分割生成に関して、「実施例1におけるXY方向撮像範囲の算出」の項で詳述する。二つ目は、撮像素子240から受信したスライド10の本撮像データの処理である。本撮像データに対し、RGB間の感度差やγカーブ等の各種補正処理、必要に応じたデータ圧縮処理、プロトコル変換処理等を施した上で、制御部110の指示に基づいてビューワや画像保存装置等の外部装置へデータ伝送を行う。 The image processing unit 120 mainly has two functions. The first is processing of wide area imaging data of the slide 10 received from the wide area imaging unit 320. Wide-area imaging data is analyzed, barcode information is read, rough (rough) detection of the existence range of the specimen 14 in the XY directions, division of the small sections 801, and generation of thumbnail images are performed. “Rough” as used herein means that, for example, the resolution or resolution of the wide-area imaging unit 320 is lower than the resolution or resolution of the imaging apparatus 200 as described above. The imaging optical system of the imaging apparatus 200 is an enlargement optical system, whereas the imaging optical system of the wide area imaging unit 320 is a reduction optical system. With this configuration, the wide-area imaging unit 320 can be configured at a low cost, and the amount of calculation is reduced during image processing, so that the speed of image processing increases. Here, the control unit 110 controls the main imaging process using the imaging apparatus 200 based on the information (coordinates, number of sheets, etc.) of the generated small section 801 group. The division generation of the small section 801 group will be described in detail in the section “Calculation of XY direction imaging range in the first embodiment”. The second is processing of the main image data of the slide 10 received from the image sensor 240. The main image data is subjected to various correction processes such as sensitivity differences between RGB and γ curves, data compression processing as necessary, protocol conversion processing, etc., and a viewer and image storage based on instructions from the control unit 110 Data is transmitted to an external device such as a device.

演算部130は、分布算出部131、検体推定部132、設定部133とで構成される。演算部130は、撮像素子240から受信した本撮像データに基づいて、合焦に関する演算を行い、その演算結果に基づいてZスタック範囲を決定する。なお、Zスタック範囲とは、Zスタック撮像の、最初の撮像時の焦点位置(Z方向の位置)から最後の撮像時の焦点位置(Z方向の位置)までの範囲のことである。なお、Zスタック撮像とは、上記Zスタック範囲内(撮像範囲内)で、光軸方向に焦点位置を少しずつ変えながら被写体を撮像することで、複数枚の2次元画像を得る処理のことである。そして、その決定したZスタック範囲を制御部110に出力する。分布算出部131は、本撮像装置200が各レイヤーごとに本撮像して取得した本撮像データの各画素の合焦評価指標(例えばコントラスト値)の2次元分布を算出し、その各レイヤーの2次元分布を組み合わせて検体14の合焦評価指標の3次元分布を算出する。検体推定部132は、分布算出部131からの3次元分布を入力し、その入力した3次元分布に基づいて、この小区画801に隣接し、次に撮像する小区画801の検体14の合焦評価指標の3次元分布を推定する。設定部133は
、検体推定部132から推定された3次元分布を入力する。その入力した3次元分布に基づいて次に撮像する小区画801のZスタック範囲を、検体14が存在すると推定される範囲が過不足なく含まれるように設定し、この設定結果を制御部110に出力する。なお、演算部の動作については、「Z方向撮像範囲の算出」の項で詳述する。
The calculation unit 130 includes a distribution calculation unit 131, a sample estimation unit 132, and a setting unit 133. The calculation unit 130 performs a calculation related to focusing based on the main imaging data received from the imaging element 240 and determines the Z stack range based on the calculation result. The Z stack range is a range from the focal position at the first imaging (position in the Z direction) to the focal position at the last imaging (position in the Z direction) in Z stack imaging. Z stack imaging is a process of obtaining a plurality of two-dimensional images by imaging a subject within the Z stack range (within the imaging range) while gradually changing the focal position in the optical axis direction. is there. Then, the determined Z stack range is output to the control unit 110. The distribution calculating unit 131 calculates a two-dimensional distribution of the focus evaluation index (for example, contrast value) of each pixel of the main imaging data acquired by the main imaging for each layer by the imaging apparatus 200, and 2 of each layer. A three-dimensional distribution of the focus evaluation index of the specimen 14 is calculated by combining the dimensional distributions. The sample estimation unit 132 inputs the three-dimensional distribution from the distribution calculation unit 131, and based on the input three-dimensional distribution, the sample estimation unit 132 is adjacent to the small section 801 and focused on the sample 14 in the small section 801 to be imaged next. Estimate the three-dimensional distribution of the evaluation index. The setting unit 133 inputs the three-dimensional distribution estimated from the sample estimation unit 132. Based on the inputted three-dimensional distribution, the Z stack range of the small section 801 to be imaged next is set so that the range in which the specimen 14 is estimated to be included is included without excess or deficiency, and the setting result is sent to the control unit 110. Output. The operation of the calculation unit will be described in detail in the section “Calculation of Z-direction imaging range”.

なお、本発明の実施は本実施例に限るものではない。例えば、複数の撮像素子を有し、各々が光軸方向に移動することで異なるZ位置に合焦した複数の画像を同時に取得する構成としても良い。この場合、多層画像を得るのに必要な撮像回数が低減されるため、装置のスループットの向上が期待できる。また、光学的な共役関係が上記説明した構成と不変であるならば、例えば試料を載置台に固定して、撮像素子並びにレンズ部をステージ等によって位置制御する構成としても良い。 In addition, implementation of this invention is not restricted to a present Example. For example, it is good also as a structure which has a some image pick-up element and acquires the several image focused on different Z positions simultaneously by each moving to an optical axis direction. In this case, since the number of imaging required to obtain a multilayer image is reduced, an improvement in the throughput of the apparatus can be expected. Further, if the optical conjugate relationship is the same as the above-described configuration, for example, the configuration may be such that the sample is fixed to the mounting table and the position of the imaging element and the lens unit is controlled by a stage or the like.

図1Bは、実施例1における画像取得装置のスライドを示す断面図である。スライド10では、撮像対象である組織片等の検体14が、スライドの土台となるスライドグラス12と保護膜であるカバーグラス11との間に封入剤13を介して固定されている。 FIG. 1B is a cross-sectional view illustrating the slide of the image acquisition device according to the first embodiment. In the slide 10, a specimen 14 such as a tissue piece to be imaged is fixed between a slide glass 12 serving as a base of the slide and a cover glass 11 serving as a protective film via an encapsulant 13.

(撮像プロセス)
図2は、実施例1における画像取得装置の撮像プロセスを示すフローチャートである。撮像プロセスは、ステップS101〜S103の予備撮像(広域撮像)、ステップS104〜S108の初回Z探索、ステップS104、S105、S109〜S113の本撮像という三つのステップに大別される。
(Imaging process)
FIG. 2 is a flowchart illustrating an imaging process of the image acquisition apparatus according to the first embodiment. The imaging process is roughly divided into three steps: preliminary imaging (wide area imaging) in steps S101 to S103, initial Z search in steps S104 to S108, and main imaging in steps S104, S105, and S109 to S113.

フローは、試料載置部310にスライド10を設置されることにより開始する。この設置は、画像の取得の準備段階であり、スライドストッカから試料搬送手段によって自動処理されても良いし、人手によって行っても良い。ステップS101で、広域撮像装置300が、スライド10の全域を一括撮像する。ステップS102で、画像処理部120がこの撮像データに基づいて後述するXY平面上における検体14の存在範囲を粗く検出する。この検出の精度は本撮像装置200のFOV即ち撮像範囲に略一致する程度で良い。すなわち、広域撮像装置300により撮像された全体像の画像の1画素の大きさが本撮像装置200の撮像野(撮像範囲)以下であれば足りる。画像処理部120は、この全体像の画像に基づいてXY平面上における検体14の存在範囲を検出する。ステップS103で、演算部130が、検体14の存在範囲のすべてをカバーするように後述する複数の小区画801に分割する処理を行う。なお、ステップS102、S103の具体的な処理方法については、「XY方向撮像範囲の算出」で詳述する。なお、ステップS102、S103と並行して、広域撮像を終えたスライド10は、ステージ220に載置するとともに固定される。このスライド移動処理は前述の通り、人手で行っても良いし、搬送機構によって自動で行っても良い。或いは、ステージ220が試料載置部310を兼ねることで移動処理を省略できる構成としても良い。予備撮像であるステップS101〜ステップS103が終了するとステップS104に移行する。 The flow starts when the slide 10 is placed on the sample placement unit 310. This installation is a preparation stage of image acquisition, and may be automatically processed from the slide stocker by the sample transport means or may be performed manually. In step S <b> 101, the wide area imaging device 300 captures the entire area of the slide 10. In step S102, the image processing unit 120 roughly detects the existence range of the specimen 14 on the XY plane described later based on the imaging data. The accuracy of this detection may be approximately the same as the FOV of the imaging apparatus 200, that is, the imaging range. That is, it is sufficient if the size of one pixel of the whole image captured by the wide-area imaging device 300 is equal to or smaller than the imaging field (imaging range) of the imaging device 200. The image processing unit 120 detects the existence range of the specimen 14 on the XY plane based on the whole image. In step S103, the calculation unit 130 performs a process of dividing into a plurality of small sections 801, which will be described later, so as to cover the entire existence range of the specimen 14. A specific processing method in steps S102 and S103 will be described in detail in “Calculation of XY-direction imaging range”. In parallel with steps S102 and S103, the slide 10 that has undergone wide-area imaging is placed on the stage 220 and fixed. As described above, this slide movement process may be performed manually or automatically by a transport mechanism. Alternatively, the stage 220 may serve as the sample placement unit 310 so that the movement process can be omitted. When steps S101 to S103, which are preliminary imaging, are completed, the process proceeds to step S104.

ステップS104で、スライド10を載置したステージ220は、本撮像装置200による最初の撮像を行う小区画801がレンズ部230が有するレンズ直下に位置するように制御部110により移動される。最初に撮像する小区画801は任意に決められるが、全小区画を一筆書きのように移動しつつ撮像できるような位置にあるものを選択することが望ましい。ステップS105で、この時点では初回探索処理は行われていないためNOへ進みステップS106へ移行する。すなわち、ステップS105は始めの一度だけNOに進み、二度目からはスライド10に対する全ての撮像処理が終了するまでYESにしか進まない。ステップS106で、本撮像装置200が、初回撮像区画でのみ行う後述のZ探索のための撮像処理を行う。ステップS107で、分布算出部131が、ステップS106で取得されたZ方向における多層撮像データ(Zスタック画像データ)に基づいて合焦
評価指標の算出を行い、後述するZ方向における検体14の存在範囲を算出する。ステップS108で、演算部130が、この算出された存在範囲をカバーするように本撮像を行うためにZスタック範囲を設定する。ステップS106〜S108のZ探索は、光軸方向における検体存在範囲の検出のための撮像処理であり、「Z方向撮像範囲の探索」で詳述する。
In step S <b> 104, the stage 220 on which the slide 10 is placed is moved by the control unit 110 so that the small section 801 that performs the first imaging by the imaging apparatus 200 is positioned directly below the lens included in the lens unit 230. The small section 801 to be imaged first can be arbitrarily determined, but it is desirable to select one that is in a position where it can be imaged while moving all the small sections like a single stroke. In step S105, since the initial search process is not performed at this time, the process proceeds to NO, and the process proceeds to step S106. That is, step S105 proceeds to NO only once at the beginning, and from the second time, it proceeds only to YES until all imaging processes for the slide 10 are completed. In step S <b> 106, the imaging apparatus 200 performs imaging processing for a Z search, which will be described later, performed only in the first imaging section. In step S107, the distribution calculation unit 131 calculates a focus evaluation index based on the multilayer imaging data (Z stack image data) in the Z direction acquired in step S106, and the existence range of the specimen 14 in the Z direction to be described later. Is calculated. In step S108, the calculation unit 130 sets a Z stack range in order to perform main imaging so as to cover the calculated existence range. The Z search in steps S106 to S108 is an imaging process for detecting the specimen existing range in the optical axis direction, and will be described in detail in “Search for Z direction imaging range”.

最初に撮像する小区画801に対してのみ行うZ探索が終了すると、ステップS109で、この小区画801に対して本撮像装置200が、Z方向の連続多層撮像(Zスタック撮像)を行う。ステップS109については「Z方向の連続多層撮像」で詳述する。ステップS110で、分布算出部131が、ステップS109で取得された連続多層撮像データに基づいて合焦評価指標の3次元分布の算出を行う。ステップS111で、演算部130が、最後に本撮像した小区画801が最終小区画か否かの判定を行う。ここでは最終小区画ではないためNOへ進みステップS112へ移行する。ステップS112で、分布算出部131により算出された合焦評価指標の3次元分布が検体推定部132に入力される。そして、検体推定部132が、その3次元分布に基づいて次に撮像する隣接した小区画801の合焦評価指標の3次元分布(検体14の存在範囲)を推定する。そして、ステップS113で、設定部133が、検体推定部132からの推定された3次元分布を入力してこの推定された検体14の合焦評価指標の3次元分布の全てを含むように、次に撮像する小区画801におけるZスタック範囲を設定する。そして、再びステップS104へ移行する。なお、ステップS110、S112〜S113については、「Z方向撮像範囲の設定」で詳述する。ステップS104で、次に撮像する隣接した小区画801までステージがXY移動する。後は、ステップS104、S105、S109〜S113で表す本撮像処理を全ての小区画について撮像し終えるまで反復し、最後の小区画撮像時におけるステップS111でYESに進み、フローを終了する。 When the Z search performed only for the small section 801 to be imaged first is completed, the imaging apparatus 200 performs continuous multilayer imaging in the Z direction (Z stack imaging) for the small section 801 in step S109. Step S109 will be described in detail in “Continuous multilayer imaging in the Z direction”. In step S110, the distribution calculation unit 131 calculates a three-dimensional distribution of the focus evaluation index based on the continuous multilayer imaging data acquired in step S109. In step S111, the arithmetic unit 130 determines whether or not the last small section 801 that has been finally imaged is the last small section. Here, since it is not the last small section, it progresses to NO and transfers to step S112. In step S 112, the three-dimensional distribution of the focus evaluation index calculated by the distribution calculation unit 131 is input to the specimen estimation unit 132. The specimen estimation unit 132 then estimates the three-dimensional distribution (existing range of the specimen 14) of the focus evaluation index of the adjacent small section 801 to be imaged next based on the three-dimensional distribution. Then, in step S113, the setting unit 133 inputs the estimated three-dimensional distribution from the sample estimation unit 132 and includes all of the estimated three-dimensional distributions of the focus evaluation indexes of the sample 14. The Z stack range in the small section 801 to be imaged is set. And it transfers to step S104 again. Steps S110 and S112 to S113 will be described in detail in “Setting of Z-direction imaging range”. In step S104, the stage moves XY to the adjacent small section 801 to be imaged next. After that, the main imaging process represented by steps S104, S105, and S109 to S113 is repeated until all the small sections have been imaged, and the process proceeds to YES in step S111 at the time of the last small section imaging, and the flow ends.

(XY方向撮像範囲の算出)
図3は、実施例1におけるXY撮像範囲の算出方法を示す模式図である。これは演算部130がスライド10内の検体14を全て含むように、複数の小区画801に分割した様子を示す。広域撮像装置300がスライド10の全域を広域撮像して得た広域撮像データから検体14の存在範囲を検出する画像処理方法としては、画像のコントラストの二値化によって高コントラスト領域を判別するものが代表的である。これは、スライド10内の細胞や組織片等は周囲の封入剤13と区別するため染色し、その結果としてコントラストが高く描出されることを利用している。その他にも、コントラストの変化に着目して検体14のエッジを検出し、その内側を検体14の存在範囲とする方法も挙げられる。すなわち、スライドに稀に付着したゴミや埃等を検体14と誤検知することを防止或いは除去し、検体14のみを撮像対象とするようなアルゴリズムとすることが望ましい。小区画801は、広域撮像装置300の一画素の大きさに略等しいか、或いは広域撮像装置300の複数の画素データを平均化等してその大きさを本撮像装置200のFOV即ち撮像範囲に略一致させたものである。なお、後段の画像処理で隣接する区画の画像をズレや歪みなくつなげるために、実際の撮像範囲(小区画)は図3に示すものよりも若干大きい。そのため実際には隣り合う小区画同士はその四辺が若干重なるようにする。
(Calculation of XY direction imaging range)
FIG. 3 is a schematic diagram illustrating a method for calculating the XY imaging range in the first embodiment. This shows a state where the calculation unit 130 is divided into a plurality of small sections 801 so as to include all the specimens 14 in the slide 10. As an image processing method for detecting the existence range of the specimen 14 from the wide-area imaging data obtained by the wide-area imaging device 300 imaging the entire area of the slide 10, a method of discriminating a high-contrast area by binarizing the contrast of the image. Representative. This utilizes the fact that cells, tissue fragments, etc. in the slide 10 are stained to distinguish them from the surrounding encapsulant 13, and as a result, the contrast is rendered high. In addition, there is a method in which the edge of the specimen 14 is detected by paying attention to the change in contrast and the inside of the specimen 14 is set as the existence range of the specimen 14. That is, it is desirable to prevent or remove dust, dust, or the like that rarely adheres to the slide from being erroneously detected as the specimen 14 and to make an algorithm that targets only the specimen 14 as an imaging target. The small section 801 is substantially equal to the size of one pixel of the wide-area imaging device 300 or a plurality of pixel data of the wide-area imaging device 300 is averaged, and the size is set to the FOV, that is, the imaging range of the imaging device 200. It is a thing that is almost matched. Note that the actual imaging range (small section) is slightly larger than that shown in FIG. 3 in order to connect the images of the adjacent sections without displacement or distortion in the subsequent image processing. Therefore, in actuality, adjacent small sections are arranged so that their four sides slightly overlap.

(Z方向撮像範囲の探索)
図4は、実施例1におけるZ方向の多層撮像を示す模式図である。図4(a)は、スライド10の横断面図であり、図4(b)は、図4(a)における一点鎖線領域901を拡大し、最初に撮像する小区画801に対してのみ実施されるZ探索撮像処理であるステップS106の方法を併せて示したものである。撮像範囲802は、XY方向の撮像範囲(小区画)とZ方向の被写界深度とで決まるものであり、一回の露光で撮像できる3次元領域である。図4(b)中、Z方向に一定の間隔dで複数の撮像範囲802が配置されている。領域901上端即ちカバーグラス11下端近傍から、領域901下端即ちスライドグラ
ス12上端に至るまで撮像範囲802を配置する。そして、撮像範囲802同士の間隔dを薄い検体厚程度(数um程度)とすることで、検体14が存在する可能性のある範囲を全て含めることができる。このように配置すれば検体14の歪等により検体14といずれかの撮像範囲802とが重なる領域ができる。そのため検体14が存在する可能性のある範囲を全て含めることができる。
(Search for Z direction imaging range)
FIG. 4 is a schematic diagram illustrating multilayer imaging in the Z direction according to the first embodiment. FIG. 4A is a cross-sectional view of the slide 10, and FIG. 4B is an enlargement of the alternate long and short dash line region 901 in FIG. The method of step S106 which is the Z search imaging process is also shown. The imaging range 802 is determined by the imaging range (small section) in the XY direction and the depth of field in the Z direction, and is a three-dimensional region that can be imaged by one exposure. In FIG. 4B, a plurality of imaging ranges 802 are arranged at a constant interval d in the Z direction. An imaging range 802 is arranged from the upper end of the area 901, that is, near the lower end of the cover glass 11, to the lower end of the area 901, that is, the upper end of the slide glass 12. Then, by setting the interval d between the imaging ranges 802 to be about a thin specimen thickness (about several um), it is possible to include all the ranges where the specimen 14 may exist. With this arrangement, an area where the specimen 14 and any imaging range 802 overlap due to distortion of the specimen 14 or the like is formed. Therefore, it is possible to include all ranges in which the specimen 14 may exist.

図4(c)は、図4(b)におけるa−a’断面(撮像範囲右端)の線上における合焦評価指標の分布を模式的に示した図である。図4(b)で8枚ある撮像範囲802で本撮像装置200が本撮像して得た撮像データを分布算出部131が入力し、その分布算出部131が、その撮像データに対してZ方向に内挿補間して、合焦評価指標の分布を算出する(S107)。合焦評価指標としては、画像のコントラストや輝度を用いることができる。そして演算部130は、検体存在範囲Rを全て含むようZスタック範囲を設定する(S108)。検体存在範囲Rとは、予め設定した所定の閾値Th以上の合焦評価指標のZ方向の幅Rである。さらに、Z方向における検体14の存在範囲Rは検体14の厚みとみなすことができるため、範囲Rは検体厚と判定できる。本撮像プロセスにより過不足なく検体14の多層画像を取得することができる。 FIG. 4C is a diagram schematically illustrating the distribution of the focus evaluation index on the line of the a-a ′ cross section (the right end of the imaging range) in FIG. In FIG. 4B, the distribution calculation unit 131 inputs imaging data obtained by the main imaging apparatus 200 in the imaging range 802 having eight images, and the distribution calculation unit 131 performs the Z direction with respect to the imaging data. Then, the interpolation evaluation index distribution is calculated by interpolation (S107). As the focus evaluation index, the contrast or brightness of the image can be used. Then, the calculation unit 130 sets the Z stack range so as to include the entire specimen presence range R (S108). The specimen presence range R is a width R in the Z direction of a focus evaluation index that is equal to or greater than a predetermined threshold Th set in advance. Further, since the existence range R of the specimen 14 in the Z direction can be regarded as the thickness of the specimen 14, the range R can be determined as the specimen thickness. By this imaging process, a multilayer image of the specimen 14 can be acquired without excess or deficiency.

図6は、実施例1におけるZ探索撮像を示すフローチャートである。即ちステップS106のサブルーチンを示すフローである。以下、図6を用いて上記Z探索撮像を説明する。上記のように図2のステップS105でNOが選択され、ステップS106へ移行することでフローを開始する。ステップS301で、最初に間隔dを検体14の厚み程度に設定する。ステップS302で、最初の撮像層(図4(b)のカバーグラス下端に最も近い側の撮像範囲802が含まれる層)であるカバーグラス下端近傍を撮像できる状態となるようにステージ220をZ移動し、ステップS303で撮像する。ステップS304で、撮像層(図4(b)のカバーグラス下端に最も遠い側の撮像範囲802が含まれる層)が最後のスライドグラス上端に達したか否かの判定を行う。ステップS305で、間隔dだけステージをZ方向にステップ移動させて次の撮像層を撮像できる状態にする。以後、ステップS303〜S305を反復し、撮像層が最後のスライドグラス上端に達した時点のステップS304でYESに進み、フローすなわちZ探索撮像の処理を終了する。なお、Zステップ移動方向、即ちステップS302の撮像開始Z位置とステップS304の撮像終了Z位置は、この順である必要はない。 FIG. 6 is a flowchart illustrating Z search imaging in the first embodiment. That is, it is a flow showing a subroutine of step S106. Hereinafter, the Z search imaging will be described with reference to FIG. As described above, NO is selected in step S105 of FIG. 2, and the flow is started by moving to step S106. In step S301, first, the interval d is set to about the thickness of the specimen 14. In step S302, the stage 220 is moved in the Z direction so that the vicinity of the lower end of the cover glass, which is the first imaging layer (the layer including the imaging range 802 closest to the lower end of the cover glass in FIG. 4B), can be imaged. In step S303, an image is captured. In step S304, it is determined whether the imaging layer (the layer including the imaging range 802 farthest from the lower end of the cover glass in FIG. 4B) has reached the upper end of the last slide glass. In step S305, the stage is moved stepwise in the Z direction by an interval d so that the next imaging layer can be imaged. Thereafter, steps S303 to S305 are repeated, and the process proceeds to YES in step S304 when the imaging layer reaches the upper end of the last slide glass, and the flow, that is, the Z search imaging process ends. Note that the Z step moving direction, that is, the imaging start Z position in step S302 and the imaging end Z position in step S304 need not be in this order.

(Z方向の連続多層撮像)
図4(d)は、図4(a)に示すスライド10の横断面像における一点鎖線領域902を拡大し、本撮像プロセスにおけるZスタック撮像(S109)の方法を併せて示したものである。Z探索撮像(S106、図4(b))と異なるのは、ステップS108で演算部130により設定されたZスタック範囲に隙間なく撮像範囲802を配置する点である。このときの撮像範囲802同士の間隔すなわち撮像系のZ方向におけるステップ移動の間隔は、被写界深度に等しいかそれより小さくする。
図5は、実施例1におけるZスタック撮像のフローチャートであり、ステップS109のサブルーチンの中身を具体的に示したものである。まず、ステップS201で、Z方向における撮像間隔即ち撮像範囲802同士の間隔を、撮像系の被写界深度に等しく設定する。ステップS202で、最初の撮像層であるZスタック撮像最上層を撮像できる状態となるようステージ220をZ方向に移動する。ステップS203で、現在の撮像層を撮像する。ステップS204で、最後の撮像層であるZスタック範囲の最下層に達したか否かの判定を行う。最後の撮像層でない場合はNOに進み、ステップS205に移行する。ステップS205で、ステップS201で決められた間隔だけステージをZ方向にステップ移動させて次の撮像層を撮像できる状態にする。以後、S203〜S205を反復し、撮像層が最後のZスタック範囲最下層に達した時点のステップS204ではYESに進み、Zスタック撮像のフローを終了する。なお、Zステップ移動の方向、即ちステップS202
の撮像開始Z位置とステップS204の撮像終了Z位置は、この順である必要はない。
(Continuous multilayer imaging in the Z direction)
FIG. 4D is an enlarged view of the alternate long and short dash line region 902 in the cross-sectional image of the slide 10 shown in FIG. 4A, and also shows the method of Z stack imaging (S109) in the main imaging process. The difference from the Z search imaging (S106, FIG. 4B) is that the imaging range 802 is arranged without a gap in the Z stack range set by the calculation unit 130 in step S108. The interval between the imaging ranges 802 at this time, that is, the interval of step movement in the Z direction of the imaging system is equal to or smaller than the depth of field.
FIG. 5 is a flowchart of Z stack imaging in the first embodiment, and specifically shows the contents of the subroutine of step S109. First, in step S201, the imaging interval in the Z direction, that is, the interval between the imaging ranges 802 is set equal to the depth of field of the imaging system. In step S202, the stage 220 is moved in the Z direction so that the uppermost layer of the Z stack imaging that is the first imaging layer can be imaged. In step S203, the current imaging layer is imaged. In step S204, it is determined whether or not the lowest layer of the Z stack range that is the last imaging layer has been reached. When it is not the last imaging layer, it progresses to NO and transfers to step S205. In step S205, the stage is moved stepwise in the Z direction by the interval determined in step S201 so that the next imaging layer can be imaged. Thereafter, S203 to S205 are repeated, and the process proceeds to YES in step S204 when the imaging layer reaches the bottom layer of the last Z stack range, and the Z stack imaging flow ends. The direction of Z step movement, that is, step S202.
The imaging start Z position in step S204 and the imaging end Z position in step S204 need not be in this order.

(Z方向撮像範囲の設定)
図7は、実施例1におけるZスタック範囲の設定方法を示す図である。図7(a)は、ある小区画801aにおいてZスタック撮像(S109)および合焦評価指標の算出(S110)が完了した状態を示す。即ち、撮像範囲802がZ方向に隙間なく複数連続することで検体14を過不足なく含んだ複数層(図7では8層)の画像データが本撮像装置200により取得される。その後、これに基づいて分布算出部131が、合焦評価指標の3次元分布を算出し、予め定めた所定の閾値以上の合焦評価指標の値を示す領域を検体存在範囲として判定する。図7(a)では、太実線部701,702はそれぞれ上記のようにして判定した検体存在範囲の上端面701及び検体存在範囲の下端面702を示す。なお、面701、702とも上記の通り3次元空間における曲面であるものの、図7がY軸に垂直なXZ平面における横断面図のため、図中では面701、702は線として描出されている。ステップS112で、検体推定部132が既に撮像された上記小区画801における合焦評価指標の3次元分布に外挿演算を施し、すでに撮像された小区画801aに隣接した小区画801bにおける合焦評価指標の3次元分布を推定する。そして、設定部133が、推定された3次元分布に基づいて次に撮像する小区画801bのZスタック範囲を設定する。
(Setting of Z direction imaging range)
FIG. 7 is a diagram illustrating a method of setting the Z stack range in the first embodiment. FIG. 7A shows a state in which Z stack imaging (S109) and calculation of a focus evaluation index (S110) are completed in a certain small section 801a. That is, a plurality of layers (eight layers in FIG. 7) of image data including the specimen 14 is acquired by the imaging apparatus 200 by a plurality of imaging ranges 802 being continuous in the Z direction without gaps. Thereafter, based on this, the distribution calculation unit 131 calculates a three-dimensional distribution of the focus evaluation index, and determines an area indicating the value of the focus evaluation index equal to or greater than a predetermined threshold as a specimen presence range. In FIG. 7A, thick solid line portions 701 and 702 respectively indicate the upper end surface 701 of the sample presence range and the lower end surface 702 of the sample presence range determined as described above. Although both the surfaces 701 and 702 are curved surfaces in the three-dimensional space as described above, the surfaces 701 and 702 are depicted as lines in the drawing because FIG. 7 is a cross-sectional view in the XZ plane perpendicular to the Y axis. . In step S112, the specimen estimation unit 132 performs an extrapolation operation on the three-dimensional distribution of the focus evaluation index in the small section 801 that has already been captured, and the focus evaluation in the small section 801b that is adjacent to the already captured small section 801a. Estimate the three-dimensional distribution of indices. Then, the setting unit 133 sets the Z stack range of the small section 801b to be imaged next based on the estimated three-dimensional distribution.

図7(b)は、次に撮像する小区画801bのZスタック範囲が設定された様子を示す。図7(b)中の太点線部751,752は、それぞれ上記のようにして推定した検体存在範囲の上端面751及び検体存在範囲の下端面752を示す。なお、面751、752とも実際には上記の通り3次元空間における曲面であるものの、図7はXZ平面で上記検体存在範囲及び画像データを仮想的に切断した横断面図を示すため、図中では面751、752は線として描出される。図中細点線で示した領域851は、次に撮像するZスタック範囲を示しており、面751と面752で挟まれた検体が存在すると推定された範囲を全て撮像領域に含む。既に撮像された小区画801aにおけるコントラスト値等の合焦評価指標の3次元分布から、小区画801aの周囲に隣接した8つの小区画801bにおける検体の存在範囲を推定する方法として、本実施例では外挿法を用いる。 FIG. 7B shows a state in which the Z stack range of the small section 801b to be imaged next is set. Thick dotted line portions 751 and 752 in FIG. 7B indicate the upper end surface 751 and the lower end surface 752 of the sample presence range estimated as described above, respectively. Although the surfaces 751 and 752 are actually curved surfaces in the three-dimensional space as described above, FIG. 7 shows a cross-sectional view obtained by virtually cutting the specimen existing range and image data on the XZ plane. Then, the surfaces 751 and 752 are drawn as lines. A region 851 indicated by a thin dotted line in the drawing indicates a Z stack range to be imaged next, and includes all the ranges in which the specimen sandwiched between the surface 751 and the surface 752 is estimated to exist. In this embodiment, as a method for estimating the existence range of the specimen in the eight small sections 801b adjacent to the periphery of the small section 801a from the three-dimensional distribution of the focus evaluation index such as the contrast value in the small section 801a already captured. Use extrapolation.

上記外挿演算として具体的には以下の3つが挙げられる。第1の方法は、小区画801aの合焦評価指標の3次元分布そのものを外挿する方法である。これは3次元分布を形成する合焦評価指標のすべての値について外挿演算をする方法である。第2の方法は、小区画801aの上端面701を検出し、上端面701を外挿演算することにより小区画801bの上端面751を推定する。同様にして小区画801aの下端面702を検出し、その下端面702を外挿演算することにより小区画801bの下端面752を推定する。そして小区画801bにおいて、推定された上端面751と下端面752との間には検体が存在しているとみなすのである。第3の方法は、まず小区画801aにおける合焦評価指標の3次元分布から検体が存在していることを表す所定の値を超える合焦評価指標を検出する。そして、所定の値を超える合焦評価指標の分布の形状を検出する。そして、その形状を外挿演算することで小区画801bの合焦評価指標の3次元分布を推定する方法である。なお、外挿演算は公知の技術であり、様々な方法が知られている。検体14の形状は単純な板状のものとは限らず複雑な形状を有する場合があるため、線形外挿では推定誤差が大きくなる可能性がある。よって、できるだけ高次のスプライン関数等を用いた外挿を行うことが望ましい。 Specific examples of the extrapolation calculation include the following three. The first method is a method of extrapolating the three-dimensional distribution itself of the focus evaluation index of the small section 801a. This is a method of performing extrapolation calculation for all values of the focus evaluation index forming the three-dimensional distribution. In the second method, the upper end surface 701 of the small section 801a is detected, and the upper end surface 701 of the small section 801b is estimated by extrapolating the upper end surface 701. Similarly, the lower end surface 702 of the small section 801a is detected, and the lower end surface 702 of the small section 801b is estimated by extrapolating the lower end surface 702. In the small section 801b, it is considered that the specimen exists between the estimated upper end surface 751 and lower end surface 752. In the third method, first, a focus evaluation index exceeding a predetermined value representing the presence of the specimen is detected from the three-dimensional distribution of the focus evaluation index in the small section 801a. Then, the shape of the distribution of the focus evaluation index exceeding a predetermined value is detected. And it is a method of estimating the three-dimensional distribution of the focus evaluation index of the small section 801b by extrapolating the shape. The extrapolation calculation is a known technique, and various methods are known. Since the shape of the specimen 14 is not limited to a simple plate shape and may have a complicated shape, an estimation error may increase in linear extrapolation. Therefore, it is desirable to perform extrapolation using a higher-order spline function or the like as much as possible.

なお、本実施例では、既に撮像された一つの小区画801aにおける合焦評価指標の3次元分布に外挿演算を施すことで、直前に本撮像した小区画801aの周囲に隣接した小区画801bの合焦評価指標の3次元分布を推定する方法を示した。しかしながら、精度向上のため、既に撮像された二つ以上の小区画801における合焦評価指標の3次元分布の
データに外挿補間を施すことも望ましい。外挿演算に用いる3次元分布データのデータ量が多い程、外挿精度の向上が期待できる。また、既に撮像された一つの小区画801に隣接する小区画801の内、既に撮像されて合焦評価指標の3次元分布が算出されている小区画801については、再び演算を行う必要がない。これにより、演算時間を短縮できる。
In this embodiment, an extrapolation operation is performed on the three-dimensional distribution of the focus evaluation index in one small section 801a that has already been captured, so that the small section 801b adjacent to the periphery of the small section 801a that has been captured immediately before is captured. A method for estimating the three-dimensional distribution of the in-focus evaluation index is shown. However, in order to improve accuracy, it is also desirable to perform extrapolation on the data of the three-dimensional distribution of the focus evaluation index in two or more small sections 801 that have already been imaged. The greater the amount of three-dimensional distribution data used for extrapolation calculation, the better the extrapolation accuracy can be expected. In addition, among the small sections 801 adjacent to one small section 801 that has already been imaged, it is not necessary to perform the calculation again for the small section 801 that has already been captured and the three-dimensional distribution of the focus evaluation index is calculated. . Thereby, calculation time can be shortened.

以上のように、既に撮像された一つ以上の小区画801における合焦評価指標の3次元分布を取得する。その取得した3次元分布に外挿演算を施して上記小区画801に隣接した小区画801の合焦評価指標の3次元分布を推定する。そして推定した3次元分布に基づいて、次に撮像する小区画801並びにZスタック範囲を設定する。そうすることで、位相差AF装置等特別な合焦装置機構を追加することなく検体14の多層画像を取得することができる。更には、Z探索撮像のプロセス(図2のステップS106〜S108)を初回に撮像する小区画801に対して以外は省略することができ、装置のスループットを向上させることができる。 As described above, the three-dimensional distribution of the focus evaluation index in one or more small sections 801 that have already been imaged is acquired. Extrapolation is performed on the acquired three-dimensional distribution to estimate the three-dimensional distribution of the focus evaluation index of the small section 801 adjacent to the small section 801. Then, based on the estimated three-dimensional distribution, a small section 801 and a Z stack range to be imaged next are set. By doing so, a multilayer image of the specimen 14 can be acquired without adding a special focusing device mechanism such as a phase difference AF device. Furthermore, the Z search imaging process (steps S106 to S108 in FIG. 2) can be omitted except for the small section 801 that performs imaging for the first time, and the throughput of the apparatus can be improved.

<実施例2>
図8は、本発明の画像処理装置の実施例2を示すフローチャートである。本発明の画像処理装置の実施例2は、本撮像処理の一部に撮像対象となる層を検証して追加するための処理を追加した以外は実施例1と同様であるため、その同様な部分については詳細な説明は省略する。図8は、図2におけるステップS109〜S111の区間を抜粋し、本実施例に特有の部分を太線と太枠で追加したものである。実施例1と同様にステップS109で、本撮像装置200が、小区画801のZスタック撮像を行い、複数層の画像データ(Zスタック画像データ)を取得する。ステップS110で、分布算出部131が、Zスタック画像データから合焦評価指標の3次元分布を算出する。ステップS401では、分布算出部131が、ステップS110で算出された3次元分布に基づき当該小区画801における検体14の実際の存在範囲を検出する。そして、ステップS109で撮像したZスタック範囲が検体14の実際の存在範囲を包含しているかをチェックする。Zスタック範囲が検体14の実際の存在範囲を包含していれば(S401;Yes)、当該小区画801に存在する検体14の画像は漏れなく取得できているので、最終小区画判定(S111)の処理に移行する。一方、検体14の実際の存在範囲がZスタック範囲から外れている、つまりZスタック範囲が検体14の実際の存在範囲より狭いか、ずれている場合には、ステップS109で撮像したZスタック画像データに不足がある(ステップS401;No)。その場合は、ステップS402で、設定部133が不足分を補うべく追加で撮像すべき層(追加撮像対象層)の焦点位置の設定を行い、再びステップS109へ移行する。ステップS109で、本撮像装置200により追加撮像対象層の撮像が行われ、追加撮像データが元のZスタック画像データに追加される。なお、追加後のZスタック画像データにおいても未だ不足がある場合には、ステップS401、S402、S109の処理が繰り返される。
<Example 2>
FIG. 8 is a flowchart showing the second embodiment of the image processing apparatus of the present invention. The second embodiment of the image processing apparatus of the present invention is the same as the first embodiment except that a process for verifying and adding a layer to be imaged is added to a part of the main imaging process. Detailed description of the portion is omitted. FIG. 8 is an excerpt of the sections of steps S109 to S111 in FIG. 2, and a portion specific to this embodiment is added with a thick line and a thick frame. Similar to the first embodiment, in step S109, the imaging apparatus 200 performs Z stack imaging of the small section 801, and acquires a plurality of layers of image data (Z stack image data). In step S110, the distribution calculation unit 131 calculates a three-dimensional distribution of the focus evaluation index from the Z stack image data. In step S401, the distribution calculation unit 131 detects the actual existence range of the specimen 14 in the small section 801 based on the three-dimensional distribution calculated in step S110. Then, it is checked whether or not the Z stack range imaged in step S109 includes the actual existence range of the specimen 14. If the Z stack range includes the actual existence range of the specimen 14 (S401; Yes), since the image of the specimen 14 existing in the small section 801 can be acquired without omission, the final small section determination (S111). Move on to processing. On the other hand, if the actual existence range of the specimen 14 is out of the Z stack range, that is, if the Z stack range is narrower than the actual existence range of the specimen 14 or deviates, the Z stack image data captured in step S109. (Step S401; No). In that case, in step S402, the setting unit 133 sets the focal position of a layer (additional imaging target layer) to be additionally imaged to compensate for the shortage, and the process proceeds to step S109 again. In step S109, the additional imaging target layer is imaged by the imaging apparatus 200, and the additional imaging data is added to the original Z stack image data. If there is still a shortage in the added Z stack image data, the processes of steps S401, S402, and S109 are repeated.

図9(a)を参照して、上記のような追加撮像が必要となる例を説明する。小区画801aのZスタック画像データから検出された検体14の存在範囲に基づいて、隣の小区画801bにおける検体14のZ方向の存在範囲を推定した場合に、推定結果と実際の検体14の存在範囲との間にずれ(誤差)が生じる可能性がある。例えば、図9(a)では、小区画801aで検出された検体存在範囲(上端面701、下端面702)に基づき、小区画801bにおける検体存在範囲(上端面761、下端面752)が推定されている。ここで、推定した上端面761は検体14の実際の上端面(細実線)に比べてやや低い位置にある。そのため、推定した存在範囲(上端面761から下端面752の範囲)に基づき小区画801bのZスタック範囲852aを設定すると、検体14の右上端部がZスタック範囲852aから外れてしまうこととなる。 With reference to Fig.9 (a), the example which requires the above additional imaging is demonstrated. Based on the existence range of the specimen 14 detected from the Z stack image data of the small section 801a, when the existence range in the Z direction of the specimen 14 in the adjacent small section 801b is estimated, the estimation result and the existence of the actual specimen 14 Deviations (errors) may occur between the range. For example, in FIG. 9A, the specimen existence range (upper end face 761, lower end face 752) in the small section 801b is estimated based on the specimen existence range (upper end face 701, lower end face 702) detected in the small section 801a. ing. Here, the estimated upper end surface 761 is slightly lower than the actual upper end surface (thin solid line) of the specimen 14. Therefore, when the Z stack range 852a of the small section 801b is set based on the estimated existence range (range from the upper end surface 761 to the lower end surface 752), the upper right end portion of the specimen 14 is out of the Z stack range 852a.

図9(b)に、小区画801bに対するZスタック撮像の結果と追加撮像の様子を模式的に示す。まず、本撮像装置200では、推定された検体存在範囲に基づきZスタック範囲852bが設定され、小区画801bのZスタック撮像が行われる(S109)。その後、分布算出部131が、その撮像データに基づいて小区画801b内の検体14の実際の存在範囲を検出する(S110、S401)。符号711、712がそれぞれ検出された検体存在範囲の上端面と下端面を示している。分布算出部131は、検出した検体存在範囲とZスタック範囲852bとを比較し、その比較結果に基づいてZスタック範囲852bが検体存在範囲を包含しているかチェックする(S401)。この例では、検体存在範囲の上端面711がZスタック範囲852bの上端を超えているため、撮像データに不足あり(S401;No)と判断され、追加撮像対象層853が追加される。その後、追加撮像対象層853の本撮像が行われ、Zスタック画像データに追加されることで、小区画801b内の検体14を包含するZスタック画像データが取得できる。 FIG. 9B schematically shows the result of Z stack imaging for the small section 801b and the state of additional imaging. First, in the imaging apparatus 200, the Z stack range 852b is set based on the estimated specimen presence range, and Z stack imaging of the small section 801b is performed (S109). Thereafter, the distribution calculation unit 131 detects the actual existence range of the specimen 14 in the small section 801b based on the imaging data (S110, S401). Reference numerals 711 and 712 respectively indicate the upper end surface and the lower end surface of the detected specimen presence range. The distribution calculation unit 131 compares the detected specimen presence range with the Z stack range 852b, and checks whether the Z stack range 852b includes the specimen presence range based on the comparison result (S401). In this example, since the upper end surface 711 of the specimen presence range exceeds the upper end of the Z stack range 852b, it is determined that the imaging data is insufficient (S401; No), and the additional imaging target layer 853 is added. Thereafter, main imaging of the additional imaging target layer 853 is performed and added to the Z stack image data, whereby Z stack image data including the specimen 14 in the small section 801b can be acquired.

なお、追加で撮像すべき層の要否判断(S401)はいかなる方法を用いてもよい。たとえば、以下の2つが挙げられる。第1の方法は、Zスタック範囲の最上層(又は最下層)における検体領域の面積を比べる方法である。小区画801bにおける実際に本撮像して得られた合焦評価指標の3次元分布に基づき、最上層の画像中で合焦評価指標が所定の値を超える画素の個数N1を取得する。個数N1は最上層における検体領域の面積に相当する。また、推定して得られた小区画801bの合焦評価指標の3次元分布からも同様に、最上層の画像中で合焦評価指標が所定の値を超える画素の個数M1を取得する。そして、個数N1と個数M2とを比較する。そしてその比較の結果、個数N1のほうが個数M2よりも多い(つまり、実際の検体領域の面積の方が大きい)と判定されるときは本撮像された最上層の上にさらに追加撮像対象層853を設定する方法である。その結果、Zスタック範囲の結像光学系に近い側の検体14を漏れなく撮像することができる。なお、Zスタック範囲の結像光学系に遠い側(最下層側)についても同じように判断することができる。第2の方法は、検体存在範囲の上端面(又は下端面)の高さを比べる方法である。まず、小区画801bにおける実際に本撮像して得た上端面711の高さと、推定して得た上端面761の高さとを比較する。そして、その比較の結果、上端面711のほうが高いと判定されるときは、本撮像された最上層の上にさらに追加撮像対象層853を設定する方法である。その結果、Zスタック範囲の結像光学系に近い側の検体14を漏れなく撮像することができる。なお、第2の方法については、以下の構成をさらに採用しても良い。すなわち、下端面752と下端面712とを比較する。そして、下端面752の高さが下端面712の高さよりも高いと判定されるときは、本撮像された最下層の下にさらに追加撮像対象層を設定する。そうすることで追加撮像対象層を結像光学系に遠い側にも設けることができる。その結果、Zスタック範囲の結像光学系に近い側と遠い側の検体14を漏れなく撮像することができる。 Note that any method may be used for determining whether or not a layer to be additionally imaged is necessary (S401). For example, there are the following two. The first method is a method of comparing the area of the specimen region in the uppermost layer (or lowermost layer) of the Z stack range. Based on the three-dimensional distribution of the focus evaluation index actually obtained by actual imaging in the small section 801b, the number N1 of pixels in which the focus evaluation index exceeds a predetermined value in the uppermost layer image is acquired. The number N1 corresponds to the area of the specimen region in the uppermost layer. Similarly, from the three-dimensional distribution of the focus evaluation index of the small section 801b obtained by estimation, the number M1 of pixels in which the focus evaluation index exceeds a predetermined value in the uppermost image is acquired. Then, the number N1 and the number M2 are compared. As a result of the comparison, when it is determined that the number N1 is larger than the number M2 (that is, the area of the actual specimen region is larger), an additional imaging target layer 853 is further formed on the uppermost layer that is actually imaged. Is a method of setting. As a result, the specimen 14 on the side close to the imaging optical system in the Z stack range can be imaged without omission. The same determination can be made on the side farthest from the imaging optical system in the Z stack range (lowermost layer side). The second method is a method of comparing the heights of the upper end surface (or lower end surface) of the specimen presence range. First, the height of the upper end surface 711 actually obtained by actual imaging in the small section 801b is compared with the height of the upper end surface 761 obtained by estimation. As a result of the comparison, when it is determined that the upper end surface 711 is higher, the additional imaging target layer 853 is further set on the uppermost layer that has been actually imaged. As a result, the specimen 14 on the side close to the imaging optical system in the Z stack range can be imaged without omission. In addition, about the 2nd method, you may further employ | adopt the following structures. That is, the lower end surface 752 and the lower end surface 712 are compared. Then, when it is determined that the height of the lower end surface 752 is higher than the height of the lower end surface 712, an additional imaging target layer is further set below the lowest imaged image. By doing so, the additional imaging target layer can be provided on the side far from the imaging optical system. As a result, the specimen 14 on the side close to and far from the imaging optical system in the Z stack range can be imaged without omission.

なお、上記追加撮像に関する処理を有効とするか否かの動作モードを、使用者が不図示の外部装置であるPCワークステーション等を介して、装置1に対して設定することができる。有効とした場合は撮像データの取得範囲に対する精度が優先され、無効とした場合はスループットが優先される。 Note that the user can set an operation mode for determining whether to enable the processing related to the additional imaging to the apparatus 1 via a PC workstation or the like, which is an external apparatus (not shown). When enabled, priority is given to the accuracy with respect to the acquisition range of imaging data, and when disabled, throughput is given priority.

以上説明したように、Zスタック撮像データの不足判定および追加撮像のプロセスを有する。そうすることで、外挿演算による合焦評価指標の3次元分布推定に有意な誤差が生じた場合にも、最小限のダウンタイムで検体14の多層画像(Zスタック画像)を不足なく取得することができる。 As described above, it has the process of determining the lack of Z stack imaging data and performing additional imaging. By doing so, even when a significant error occurs in the estimation of the three-dimensional distribution of the focus evaluation index by extrapolation, a multilayer image (Z-stack image) of the specimen 14 is acquired without a shortage with a minimum downtime. be able to.

<実施例3>
図10は、本発明の画像取得装置の実施例3を示す斜視図である。実施例1と共通の構成については同一の番号を付して説明を省略する。分布算出部131におけるZスタック撮
像により取得された画像データに基づいた合焦評価指標の3次元分布の算出処理、及び検体推定部132における上記3次元分布の外挿演算処理の演算量は、撮像素子240の画素数にも依る。したがって、Zスタック撮像により取得された画像データの全画素分のデータを用いる場合は演算量が多くなる。本実施例では、上記各処理において全画素分のデータを用いるのではなく、所定の間隔で抽出された複数の点または領域のデータのみを用いる。すなわち、実施例1〜3では全画素に対してコントラスト値または輝度値を計算するが実施例3では全画素に対してではなくそのうちのいくつかの画素に対して上記計算を施す。
<Example 3>
FIG. 10 is a perspective view showing Embodiment 3 of the image acquisition apparatus of the present invention. Constituent elements common to those in the first embodiment are denoted by the same reference numerals and description thereof is omitted. The calculation amount of the calculation process of the three-dimensional distribution of the focus evaluation index based on the image data acquired by the Z stack imaging in the distribution calculation unit 131 and the extrapolation calculation process of the three-dimensional distribution in the specimen estimation unit 132 are as follows: It also depends on the number of pixels of the element 240. Therefore, the amount of calculation increases when data for all pixels of image data acquired by Z stack imaging is used. In the present embodiment, data for all pixels is not used in each of the above processes, but only data of a plurality of points or regions extracted at a predetermined interval is used. That is, in the first to third embodiments, the contrast value or the luminance value is calculated for all the pixels, but in the third embodiment, the above calculation is performed for some of the pixels, not for all the pixels.

図10(a)は、小区画801と検体14の関係を示す図である。細実線枠を持つ小区画801一つあたり、細点線によって六つの小領域に区切ることで、隣接する小区画801との境界線上も含め、格子点が12点存在する。図10(b)は、検体存在範囲の3次元プロットを示す図である。すなわち、その太実線群は後述する複数の一次元分布に基づいて判定した検体存在範囲を3次元プロットしたものである。すなわちその一次元分布とは、既に取得された左下の小区画801におけるZスタック撮像により取得された画像データの内(画像中に対応する)、格子点を通りZ軸に平行な直線上に存在するデータを用いて算出した合焦評価指標の複数の一次元分布である。太実線部701が検体存在範囲の上端面701、太実線部702が同下端面702である。図10(b)の太点線群は、上記の合焦評価指標の複数の一次元分布に外挿演算を施して、周囲にある小区画801の格子点上における同分布を推定して求めた検体存在範囲を示したものである。なお、簡単化のため図示する範囲を限定し、既に撮像された小区画801と、周囲に隣接する8つの小区画の内、次に撮像する領域に設定された小区画801との、2つの小区画のみとしている。太点線部751が推定された検体存在範囲上端面751、太点線部752が同下端面752である。ここで、実際にデータが存在するのは、図中の黒点を含む、格子点を通りZ軸に平行な直線上のみであり、太線群は描画の便宜上、面を表すために黒点間を線形補間したものである。このようにして推定した右側の小区画801における検体存在範囲を全て撮像範囲に含むよう、Zスタック範囲を設定する。なお、本実施例では簡単のため小区画801を六分割したが、これに限定されるものではなく、格子点が多いほど演算精度は高い。 FIG. 10A shows the relationship between the small section 801 and the sample 14. By dividing a small section 801 having a thin solid line frame into six small areas by thin dotted lines, there are 12 grid points including the boundary line with the adjacent small section 801. FIG. 10B is a diagram showing a three-dimensional plot of the specimen presence range. That is, the thick solid line group is a three-dimensional plot of the specimen presence range determined based on a plurality of one-dimensional distributions described later. That is, the one-dimensional distribution exists on a straight line that passes through the lattice points and is parallel to the Z axis, among the image data acquired by Z stack imaging in the lower left small section 801 that has already been acquired (corresponding to the image). It is a plurality of one-dimensional distribution of the focus evaluation index calculated using the data to be. The thick solid line portion 701 is the upper end surface 701 of the specimen presence range, and the thick solid line portion 702 is the lower end surface 702. The thick dotted line group in FIG. 10B is obtained by extrapolating a plurality of one-dimensional distributions of the above-described focus evaluation indexes and estimating the same distribution on the lattice points of the surrounding small sections 801. It shows the specimen presence range. For simplification, the range shown in the figure is limited, and two sub-sections 801 that have already been imaged and a sub-section 801 that is set as a region to be imaged next among the eight sub-sections adjacent to the surrounding area. Only small parcels. The specimen existing range upper end surface 751 in which the thick dotted line portion 751 is estimated and the thick dotted line portion 752 are the lower end surface 752. Here, the data actually exists only on a straight line including the black dots in the figure and passing through the lattice points and parallel to the Z axis, and the thick line group is linear between the black dots to represent the surface for convenience of drawing. Interpolated. The Z stack range is set so that the entire sample existence range in the right small section 801 estimated in this way is included in the imaging range. In the present embodiment, the small section 801 is divided into six for the sake of simplicity. However, the present invention is not limited to this, and the calculation accuracy increases as the number of grid points increases.

以上説明したように、合焦評価指標の3次元分布の算出処理に用いるZスタック撮像により取得された画像データを、所定の間隔で抽出した点または領域のデータのみ用いることで、演算量を低減することができる。 As described above, the amount of calculation is reduced by using only the data of the points or regions extracted at predetermined intervals from the image data acquired by the Z stack imaging used for the calculation processing of the three-dimensional distribution of the focus evaluation index. can do.

<実施例4>
図11は、本発明の画像取得装置の実施例4を示す斜視図である。実施例1と共通の構成については同一の番号を付して説明を省略する。本実施例は、検体存在範囲の内、最もフォーカスの良い(最合焦位置での)単層画像を効率よく得るための撮像方法についてのものである。なお、この撮像方法は、小区画801の全てでZスタック撮像を行うものではない。図11(a)は、これまで説明したZスタック撮像の様子を示したものである。縦横2つずつの小区画801においてZスタック撮像が行われ、合焦評価指標の演算が行われる。その演算の結果、撮像範囲802群のうち網目が施されたものが最合焦位置であるとされる。そして、これらに基づいて外挿演算が行われ、次に撮像されるZスタック範囲851が設定される。本実施例においても、撮像開始後の数タイルは、図11(a)のようにこれまでと同様の撮像が行われる。最初のタイルでは、Z探索撮像が必要だからである。また、撮像開始直後において、単層撮像のみを用いる場合には、原理的に最合焦位置の外挿演算による推定精度が低くなるからである。
<Example 4>
FIG. 11 is a perspective view showing Embodiment 4 of the image acquisition apparatus of the present invention. Constituent elements common to those in the first embodiment are denoted by the same reference numerals and description thereof is omitted. The present embodiment relates to an imaging method for efficiently obtaining a single-layer image with the best focus (at the most focused position) within the specimen presence range. Note that this imaging method does not perform Z stack imaging in all of the small sections 801. FIG. 11A shows the Z-stack imaging described so far. Z stack imaging is performed in two vertical and horizontal small sections 801, and a focus evaluation index is calculated. As a result of the calculation, the imaged range 802 group to which the mesh is applied is the most in-focus position. Based on these, extrapolation is performed, and a Z stack range 851 to be imaged next is set. Also in the present embodiment, the same imaging as before is performed on several tiles after the start of imaging as shown in FIG. This is because the first tile requires Z search imaging. In addition, when only single-layer imaging is used immediately after the start of imaging, the estimation accuracy by extrapolation calculation of the most in-focus position is reduced in principle.

図11(b)は、既に単層撮像した複数の小区画801における最合焦位置の分布から、次に撮像される小区画801の最合焦位置が外挿演算により推定され、次の撮像範囲87
1として設定された様子を模式的に示したものである。図11(b)では、説明の簡便化のため、小区画801や最合焦位置の配置等を図11(a)のものと揃えている。図11(b)は、4枚の小区画801の最合焦位置から次に撮像する小区画801における最合焦位置を推定する場合を示している。次に撮像する最合焦位置の推定精度は、原理的に推定元となる小区画801の枚数が多いほど高くなる。このため、撮像の推定精度は、初期のものから後のものになるほど高くなるものである。したがって、この推定元となる小区画801の枚数の少ない初期の撮像では、推定精度を確保するため図11(a)のように複数層の撮像が行われ、合焦評価指標の三次元分布が演算されるようにすることが望ましい。これにより、初期の撮像での推定精度を十分に確保可能である。また、撮像過程におけるどの時点で単層撮像に切り替えるか、また一気に切り替えるのか徐々に切り替えるのか等の装置のシステム構成は、システムに要求されるスループットや精度に応じて、実験的に最適な設計値を求めることで構成しても良い。
In FIG. 11B, the most in-focus position of the next sub-section 801 to be imaged is estimated by extrapolation from the distribution of the most in-focus position in the plurality of sub-sections 801 that have already been captured in a single layer, and the next imaging Range 87
The state set as 1 is schematically shown. In FIG. 11B, the arrangement of the small sections 801, the most in-focus positions, and the like are aligned with those in FIG. FIG. 11B shows a case where the most in-focus position in the small section 801 to be imaged next is estimated from the most in-focus position of the four small sections 801. The estimation accuracy of the most in-focus position to be imaged next increases in principle as the number of small sections 801 as an estimation source increases. For this reason, the estimation accuracy of imaging becomes higher from the initial one to the later one. Therefore, in the initial imaging with a small number of small sections 801 serving as the estimation source, imaging of a plurality of layers is performed as shown in FIG. 11A in order to ensure estimation accuracy, and the three-dimensional distribution of the focus evaluation index is obtained. It is desirable to be calculated. Thereby, it is possible to sufficiently ensure the estimation accuracy in the initial imaging. In addition, the system configuration of the device, such as when to switch to single-layer imaging at the point in the imaging process, whether to switch at once, or gradually, depends on the throughput and accuracy required for the system, and it is an experimentally optimal design value You may comprise by calculating | requiring.

以上説明したように、既に撮像した領域における最合焦位置の分布から次に撮像される領域における最合焦位置が外挿演算により求められて撮像位置に設定されるようにする。これにより、検体の単層画像が効率よく取得される。なお、本実施例の撮像方法は、他の本発明における各種撮像方法と組み合わせてもよく、何ら限定されるものではない。例えば、次の撮像範囲871の撮像データから合焦評価指標が算出されるようにする。そして、その算出された合焦評価指標が最合焦位置から外れているか否かが判断されるようにする。そして、外れていると判断される場合、隣接する層が追加撮像され、最合焦位置の撮像データが更新されるようにする。この場合、追加撮像された複数層の合焦評価指標分布が、その後に撮像される領域の最合焦位置の推定に用いられるようにする。これにより、更なる撮像精度の向上を実現することができる。また、最合焦位置に相当する撮像領域802のXY座標は、小区画801の中心としても良いし、小区画801内で最も合焦評価指標が高い点の座標としても良い。後者は、次の撮像範囲871の推定精度を向上させるものである。 As described above, the most in-focus position in the area to be imaged next is obtained by extrapolation from the distribution of the most in-focus position in the already imaged area, and is set as the imaging position. Thereby, a single-layer image of the specimen is efficiently acquired. In addition, the imaging method of a present Example may be combined with the various imaging methods in other this invention, and is not limited at all. For example, the focus evaluation index is calculated from the imaging data of the next imaging range 871. Then, it is determined whether or not the calculated focus evaluation index is out of the most focused position. If it is determined that the image is out of position, the adjacent layer is additionally imaged, and the imaging data at the most in-focus position is updated. In this case, the plurality of layers of focus evaluation index distributions that have been additionally imaged are used to estimate the most in-focus position of the area that is subsequently imaged. Thereby, further improvement in imaging accuracy can be realized. Further, the XY coordinates of the imaging region 802 corresponding to the most in-focus position may be the center of the small section 801, or may be the coordinates of the point with the highest focus evaluation index in the small section 801. The latter improves the estimation accuracy of the next imaging range 871.

<実施例5>
また、本発明の目的は、以下によって達成される。すなわち、前述した実施例の機能を実現するソフトウェアのプログラムコードを格納した記憶媒体(または記録媒体)を、システムあるいは装置に供給する。そして、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行する。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施例の機能を実現することになり、そのプログラムコードを格納した記憶媒体は本発明を構成することになる。また、コンピュータが読み出したプログラムコードを実行することにより、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行う。その処理によって前述した実施例の機能が実現される場合も、本発明の範囲に含まれる。さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれたとする。その後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も、本発明の範囲に含まれる。本発明を上記記憶媒体に適用する場合、その記憶媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。
<Example 5>
The object of the present invention is achieved by the following. That is, a storage medium (or recording medium) storing software program codes for realizing the functions of the above-described embodiments is supplied to a system or apparatus. Then, the computer (or CPU or MPU) of the system or apparatus reads and executes the program code stored in the storage medium. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention. Further, by executing the program code read by the computer, an operating system (OS) or the like running on the computer performs part or all of the actual processing based on the instruction of the program code. The case where the functions of the above-described embodiments are realized by the processing is also included in the scope of the present invention. Furthermore, it is assumed that the program code read from the storage medium is written in a memory provided in a function expansion card inserted into the computer or a function expansion unit connected to the computer. Thereafter, based on the instruction of the program code, the CPU of the function expansion card or function expansion unit performs part or all of the actual processing, and the function of the above-described embodiment is realized by the processing. It is included in the scope of the present invention. When the present invention is applied to the storage medium, the storage medium stores program codes corresponding to the flowcharts described above.

<その他の実施例>
上記各実施例における様々な技術を適宜組み合わせて新たなシステムを構成することは当業者であれば容易に相当し得るものであるので、このような様々な組み合わせによるシステムもまた、本発明の範疇に属するものである。また、本発明の種々の実施は上記に説明した実施例に限るものではない。
<Other examples>
A person skilled in the art can easily correspond to constructing a new system by appropriately combining various technologies in the above-described embodiments. Therefore, a system based on such various combinations is also within the scope of the present invention. Belongs to. Further, various implementations of the present invention are not limited to the embodiments described above.

10 スライド、120 画像処理部、130 演算部、200 本撮像装置、220ステージ 10 slides, 120 image processing unit, 130 calculation unit, 200 imaging device, 220 stage

Claims (13)

試料を複数の領域に分けて、各領域について光軸方向に焦点位置の異なる複数層または単層の画像を撮像する画像取得装置であって、
前記試料を撮像する撮像手段と、
前記撮像手段により撮像された前記試料の第1領域の単層または複数層の画像に基づいて前記第1領域と異なる前記試料の第2領域に含まれる検体の前記光軸方向の存在範囲または最合焦位置を推定し、その推定結果に基づいて前記第2領域の前記光軸方向の撮像範囲を設定する検体情報取得手段とを備える画像取得装置。
An image acquisition device that divides a sample into a plurality of regions and captures images of a plurality of layers or single layers having different focal positions in the optical axis direction for each region,
Imaging means for imaging the sample;
Based on the single-layer or multi-layer image of the first region of the sample imaged by the imaging means, the existence range or the maximum in the optical axis direction of the specimen included in the second region of the sample different from the first region An image acquisition apparatus comprising: a specimen information acquisition unit that estimates a focus position and sets an imaging range of the second region in the optical axis direction based on the estimation result.
前記検体情報取得手段は前記第1領域の単層または複数層の画像から前記第1領域の前記検体の存在範囲、最合焦位置、または前記最合焦位置の分布を求め、前記第1領域の前記検体の存在範囲、最合焦位置、または前記最合焦位置の分布に基づいて前記第2領域に含まれる前記検体の前記光軸方向の存在範囲または最合焦位置を推定する請求項1に記載の画像取得装置。 The specimen information acquisition means obtains the specimen existing range, the most in-focus position, or the distribution of the most in-focus position in the first area from the single-layer or multiple-layer images of the first area, and the first area The existence range or the most in-focus position of the specimen included in the second region is estimated based on the existence range, the most in-focus position, or the distribution of the most in-focus position. 2. The image acquisition device according to 1. 前記第1領域の前記検体の存在範囲は前記第1領域の複数層の画像から求めた合焦評価指標の3次元分布である請求項2に記載の画像取得装置。 The image acquisition apparatus according to claim 2, wherein the existence range of the specimen in the first region is a three-dimensional distribution of a focus evaluation index obtained from images of a plurality of layers in the first region. 前記検体情報取得手段は前記設定された前記第2領域の撮像範囲にしたがって前記撮像手段により撮像された前記第2領域の単層または複数層の画像から、前記第2領域の実際の検体の存在範囲または合焦評価指標を求め、前記設定された前記第2領域の撮像範囲が、前記第2領域の実際の前記検体の存在範囲または最合焦位置を包含するか否かを判定する請求項3に記載の画像取得装置。 The specimen information acquisition unit is configured to detect the presence of an actual specimen in the second region from a single-layer or multi-layer image of the second region captured by the imaging unit in accordance with the set imaging range of the second region. A range or a focus evaluation index is obtained, and it is determined whether or not the set imaging range of the second region includes the actual presence range or the most in-focus position of the sample in the second region. 4. The image acquisition device according to 3. 前記検体情報取得手段は前記設定された前記第2領域の撮像範囲が、前記第2領域の実際の前記検体の存在範囲または最合焦位置を包含しないと判定した場合は、前記第2領域について追加で撮像すべき層を設定する請求項4に記載の画像取得装置。 When the specimen information acquisition means determines that the set imaging range of the second area does not include the actual specimen existing range or the most in-focus position of the second area, The image acquisition apparatus according to claim 4, wherein an additional layer to be imaged is set. 前記合焦評価指標はコントラスト値または輝度値である請求項3乃至5のいずれか1項に記載の画像取得装置。 The image acquisition apparatus according to claim 3, wherein the focus evaluation index is a contrast value or a luminance value. 前記第1領域と前記第2領域とは隣り合う請求項3乃至6のいずれか1項に記載の画像取得装置。 The image acquisition apparatus according to claim 3, wherein the first area and the second area are adjacent to each other. 前記検体情報取得手段は前記第1領域の単層または複数層の画像中の一部の画素から前記合焦評価指標の3次元分布または最合焦位置の分布を取得する請求項3乃至7のいずれか1項に記載の画像取得装置。 8. The specimen information acquisition unit acquires a three-dimensional distribution of the focus evaluation index or a distribution of the most in-focus positions from a part of pixels in a single layer image or a plurality of layers of the first region. The image acquisition device according to any one of the above. 前記検体情報取得手段は前記第2領域における合焦評価指標の3次元分布を推定することにより、前記第2領域に含まれる前記検体の前記光軸方向の存在範囲を算出する請求項3乃至8のいずれか1項に記載の画像取得装置。 9. The specimen information acquisition unit calculates a presence range in the optical axis direction of the specimen included in the second area by estimating a three-dimensional distribution of a focus evaluation index in the second area. The image acquisition device according to any one of the above. 前記検体情報取得手段は前記第1領域における合焦評価指標の3次元分布を外挿演算することにより、前記第2領域における合焦評価指標の3次元分布を推定する請求項9に記載の画像取得装置。 The image according to claim 9, wherein the specimen information acquisition unit estimates the three-dimensional distribution of the focus evaluation index in the second region by extrapolating the three-dimensional distribution of the focus evaluation index in the first region. Acquisition device. 前記検体情報取得手段は前記第1領域における最合焦位置の分布を外挿演算することにより、前記第2領域における最合焦位置を推定する請求項3乃至8のいずれか1項に記載の画像取得装置。 The said sample information acquisition means estimates the most in-focus position in the said 2nd area | region by extrapolating the distribution of the most in-focus position in the said 1st area | region. Image acquisition device. 試料を複数の領域に分けて、各領域について光軸方向に焦点位置の異なる複数層または単層の画像を撮像する画像取得装置の制御方法であって、
前記試料の第1領域の複数層の画像を撮像するステップと、
前記撮像された前記試料の第1領域の単層または複数層の画像に基づいて前記第1領域と異なる前記試料の第2領域に含まれる検体の前記光軸方向の存在範囲または最合焦位置を推定するステップと、
前記推定の結果に基づいて前記第2領域の前記光軸方向の撮像範囲を設定するステップとを有する画像取得装置の制御方法。
A method for controlling an image acquisition device that divides a sample into a plurality of regions and captures images of a plurality of layers or single layers having different focal positions in the optical axis direction for each region,
Capturing images of multiple layers of the first region of the sample;
The existence range or the most in-focus position of the specimen included in the second region of the sample different from the first region based on the single-layer or multiple-layer image of the first region of the sample that has been imaged Estimating
And a step of setting an imaging range in the optical axis direction of the second region based on the estimation result.
請求項12記載の画像取得装置の制御方法の各ステップをコンピュータに実行させるプログラム。 A program for causing a computer to execute each step of the control method of the image acquisition device according to claim 12.
JP2015105482A 2014-08-29 2015-05-25 Image acquisition device and control method therefor Pending JP2016051168A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015105482A JP2016051168A (en) 2014-08-29 2015-05-25 Image acquisition device and control method therefor
PCT/JP2015/004204 WO2016031214A1 (en) 2014-08-29 2015-08-21 Image acquisition apparatus and control method thereof

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014175943 2014-08-29
JP2014175943 2014-08-29
JP2015105482A JP2016051168A (en) 2014-08-29 2015-05-25 Image acquisition device and control method therefor

Publications (1)

Publication Number Publication Date
JP2016051168A true JP2016051168A (en) 2016-04-11

Family

ID=55399129

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015105482A Pending JP2016051168A (en) 2014-08-29 2015-05-25 Image acquisition device and control method therefor

Country Status (2)

Country Link
JP (1) JP2016051168A (en)
WO (1) WO2016031214A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018533070A (en) * 2015-10-19 2018-11-08 モレキュラー デバイシーズ, エルエルシー Microscope system with transillumination-based automatic focusing for photoluminescence imaging
JP2022044688A (en) * 2015-10-19 2022-03-17 モレキュラー デバイシーズ, エルエルシー Microscope system with transillumination-based autofocusing for photoluminescence imaging

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114764180B (en) * 2020-12-31 2023-10-27 深圳中科飞测科技股份有限公司 Focusing method and focusing system for object to be measured, device and storage medium

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3631304B2 (en) * 1995-10-24 2005-03-23 オリンパス株式会社 Microscope automatic focusing device
JP5043629B2 (en) * 2007-12-17 2012-10-10 オリンパス株式会社 Laser scanning microscope and measuring method of surface shape thereof
JP5090188B2 (en) * 2008-01-10 2012-12-05 オリンパス株式会社 Microscope equipment
JP5255968B2 (en) * 2008-09-19 2013-08-07 株式会社日立国際電気 Height measuring device and measuring method
JP5499732B2 (en) * 2009-06-23 2014-05-21 ソニー株式会社 Biological sample image acquisition apparatus, biological sample image acquisition method, and biological sample image acquisition program
JP5663428B2 (en) * 2011-07-26 2015-02-04 株式会社キーエンス Microscope system, object observation method, and object observation program
JP5941395B2 (en) * 2012-10-31 2016-06-29 浜松ホトニクス株式会社 Image acquisition device and focus method of image acquisition device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018533070A (en) * 2015-10-19 2018-11-08 モレキュラー デバイシーズ, エルエルシー Microscope system with transillumination-based automatic focusing for photoluminescence imaging
JP2022044688A (en) * 2015-10-19 2022-03-17 モレキュラー デバイシーズ, エルエルシー Microscope system with transillumination-based autofocusing for photoluminescence imaging
JP7248833B2 (en) 2015-10-19 2023-03-29 モレキュラー デバイシーズ, エルエルシー A Microscope System with Transillumination-Based Autofocusing for Photoluminescence Imaging

Also Published As

Publication number Publication date
WO2016031214A1 (en) 2016-03-03

Similar Documents

Publication Publication Date Title
US20200264423A1 (en) Information processing apparatus, information processing method, and information processing program
US9088729B2 (en) Imaging apparatus and method of controlling same
JP6100813B2 (en) Whole slide fluorescent scanner
US11156823B2 (en) Digital microscope apparatus, method of searching for in-focus position thereof, and program
JP2013517460A (en) Cell characterization using multiple focal planes
JP2008542800A (en) Method and apparatus for scanning a sample by evaluating contrast
JP7024736B2 (en) Image processing equipment, image processing method, and program
JP2012042669A (en) Microscope control device and optical distortion correction method
JP2019505836A (en) Method and system for autofocus for digital imaging using multispectral trajectories
JP2016051167A (en) Image acquisition device and control method therefor
JP2016051168A (en) Image acquisition device and control method therefor
CN109001902A (en) Microscope focus method based on image co-registration
JP2020021126A (en) Image processing device and control method thereof, distance detection device, imaging device, program
JP2009109682A (en) Automatic focus adjusting device and automatic focus adjusting method
JP6399817B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP5648366B2 (en) Microscope control apparatus and region determination method
JP5927973B2 (en) Imaging apparatus, imaging control program, and imaging method
WO2016056205A1 (en) Image acquisition device, image acquisition method, and program
EP2947487A1 (en) Image acquisition device and focus method for image acquisition device
WO2013099140A1 (en) Image processing device, image processing method, and program
JP2013174709A (en) Microscope device and virtual microscope device
WO2016047220A1 (en) Imaging device and imaging method
JP2023535038A (en) Whole slide imaging method for microscopy
JP6066765B2 (en) Imaging device, control method thereof, and control program
JP2016091005A (en) Image acquisition device, image acquisition method, and program