JP2015156011A - Image acquisition device and method for controlling the same - Google Patents

Image acquisition device and method for controlling the same Download PDF

Info

Publication number
JP2015156011A
JP2015156011A JP2014203059A JP2014203059A JP2015156011A JP 2015156011 A JP2015156011 A JP 2015156011A JP 2014203059 A JP2014203059 A JP 2014203059A JP 2014203059 A JP2014203059 A JP 2014203059A JP 2015156011 A JP2015156011 A JP 2015156011A
Authority
JP
Japan
Prior art keywords
imaging
image
image acquisition
sample
interval
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014203059A
Other languages
Japanese (ja)
Inventor
齋藤 裕
Yutaka Saito
裕 齋藤
直人 布施
Naoto Fuse
直人 布施
智朗 川上
Tomoaki Kawakami
智朗 川上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014203059A priority Critical patent/JP2015156011A/en
Priority to PCT/JP2015/000042 priority patent/WO2015107872A1/en
Publication of JP2015156011A publication Critical patent/JP2015156011A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/18Arrangements with more than one light path, e.g. for comparing two specimens
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/24Base structure
    • G02B21/241Devices for focusing
    • G02B21/245Devices for focusing using auxiliary sources, detectors
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • G02B21/361Optical details, e.g. image relay to the camera or image sensor
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • G02B21/365Control or image processing arrangements for digital or video microscopes
    • G02B21/367Control or image processing arrangements for digital or video microscopes providing an output produced by processing a plurality of individual source images, e.g. image tiling, montage, composite images, depth sectioning, image comparison
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/10Beam splitting or combining systems
    • G02B27/14Beam splitting or combining systems operating by reflection only
    • G02B27/145Beam splitting or combining systems operating by reflection only having sequential partially reflecting surfaces
    • G02B27/146Beam splitting or combining systems operating by reflection only having sequential partially reflecting surfaces with a tree or branched structure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/236Image signal generators using stereoscopic image cameras using a single 2D image sensor using varifocal lenses or mirrors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Microscoopes, Condenser (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technique capable of efficiently executing processing for acquiring an image of a plurality of layers from a sample.
SOLUTION: An image acquisition device includes an optical system which condenses light from the sample, division means which divides an optical path from the optical system into a plurality of optical paths, a plurality of imaging means which have light-receiving surfaces on the plurality of optical paths respectively, control means which performs first processing and second processing by using the plurality of imaging means, and changing means which changes the interval of a plurality of reference surfaces which are surfaces on the side of the sample optically conjugate with the light-receiving surfaces of the plurality of imaging means. The changing means changes the interval of the plurality of reference surfaces between a case where the plurality of imaging means perform imaging for the first processing and a case where the plurality of imaging means perform imaging for the second processing.
COPYRIGHT: (C)2015,JPO&INPIT

Description

本発明は、画像取得装置に関し、特に、試料の多層の画像を高速で取得するための画像取得装置に関する。   The present invention relates to an image acquisition apparatus, and more particularly to an image acquisition apparatus for acquiring a multilayer image of a sample at high speed.

病理学の分野等で、光学顕微鏡の代替として、試料を撮像することによりデジタル画像を取得する画像取得装置が注目されている。この装置においては、取得した画像データを用いて、医師による病状診断を可能とする。この種の装置は、デジタル顕微鏡システム、スライドスキャナ、バーチャルスライドシステムなどと呼ばれる。病理診断画像のデジタル化により、例えば細胞の形状把握や個数算出、細胞質と核の面積比を算出することで、病理診断に有用な種々の情報の提示も可能となる。   In the field of pathology and the like, as an alternative to an optical microscope, an image acquisition apparatus that acquires a digital image by imaging a sample has attracted attention. In this apparatus, a medical condition diagnosis by a doctor is made possible using the acquired image data. This type of apparatus is called a digital microscope system, a slide scanner, a virtual slide system, or the like. By digitizing a pathological diagnosis image, for example, it is possible to present various information useful for pathological diagnosis by grasping the shape of a cell, calculating the number of cells, and calculating the area ratio of cytoplasm and nucleus.

一方で、細胞には厚みがあるため、医師は、厚み方向(Z方向)に細胞核等の構造物がどのように分布しているかも総合して病理診断を行う必要がある。このため、顕微鏡のような焦点深度の浅い光学系を有する画像取得装置においては、例えば、試料を載せたステージをZ方向に移動させながら構造物を検出し、画像を取得すべきZ範囲(高さ範囲)を決定する。そして、ステージの高さを微小移動させながら、そのZ範囲内の複数層の画像を取得する。こうして撮像した複数の画像から、全ての領域で焦点が合った全焦点画像や、厚み方向の構造物の分布が把握できる三次元画像を構築することが行われる。各層の画像はレイヤー画像、複数層のレイヤー画像群はZスタック画像とも呼ばれる。   On the other hand, since the cells are thick, the doctor needs to make a pathological diagnosis comprehensively as to how structures such as cell nuclei are distributed in the thickness direction (Z direction). For this reason, in an image acquisition apparatus having an optical system with a shallow depth of focus, such as a microscope, for example, a structure is detected while moving a stage on which a sample is placed in the Z direction, and a Z range in which an image is to be acquired (high Range). Then, images of a plurality of layers within the Z range are acquired while finely moving the height of the stage. From the plurality of images thus captured, an omnifocal image in which all regions are in focus and a three-dimensional image in which the distribution of structures in the thickness direction can be grasped are constructed. The image of each layer is also called a layer image, and the layer image group of a plurality of layers is also called a Z stack image.

ところが、観察すべき構造物は、試料内のどの高さに分布しているか未知であるため、試料内の広域を探索する必要があり、探索に時間を要することがあった。一方で、高さ方向に高分解能の画像を取得するためには、ステージ高さの移動を狭ピッチで制御する必要があり、対象層の画像取得に更に時間を要した。病理診断用のスライドスキャナ等の大量の試料の画像取得を行う装置で、このように時間を要すると、経時変化の影響で、最初の方に取得した画像と最後の方に取得した画像との相関が担保できず、正確な比較診断の妨げとなることがある。例えば、病理診断においては、同一の試料に対して、照射する光の波長等の条件を複数変えて画像取得し、それらを比較して診断を行うことがある。その際に、観察された差異が、照射条件の違いによって観察された症状なのか、経時変化(例えば光源の温度変動)によって違って現れた誤差なのかが判別困難となる。   However, since it is unknown at which height the structure to be observed is distributed in the sample, it is necessary to search a wide area in the sample, and the search may take time. On the other hand, in order to acquire a high-resolution image in the height direction, it is necessary to control the movement of the stage height at a narrow pitch, and it takes more time to acquire an image of the target layer. In a device that acquires images of a large number of samples such as a slide scanner for pathological diagnosis, if time is required in this way, the image acquired in the first and the image acquired in the last will be affected by the change over time. Correlation cannot be ensured and may interfere with accurate comparative diagnosis. For example, in pathological diagnosis, diagnosis may be performed by acquiring images by changing a plurality of conditions such as the wavelength of light to be irradiated on the same sample and comparing them. At this time, it is difficult to determine whether the observed difference is a symptom observed due to a difference in irradiation conditions or an error that appears differently due to a change with time (for example, temperature fluctuation of the light source).

特許文献1には、被写体からの光を複数の光に分割し、光軸に沿って配設位置が互いに異なるようにされた複数の撮像素子で受光することで、フォーカス位置が互いに異なる複数の画像信号を記録できる画像信号記録装置が開示されている。この構成によって、複数層の画像を取得する時間を、従来よりも削減できる。   In Patent Document 1, light from a subject is divided into a plurality of lights and received by a plurality of imaging elements whose arrangement positions are different from each other along the optical axis, whereby a plurality of focus positions are different from each other. An image signal recording apparatus capable of recording an image signal is disclosed. With this configuration, it is possible to reduce the time for acquiring a multi-layer image compared to the conventional technique.

また、特許文献2には、顕微鏡と対象物の距離を順次変化させ、コントラストが最大となる距離を求める粗調整手段と、粗調整手段で求めた距離付近を微移動し、コントラストが最大となる距離を更に求める微調整手段とを備える画像処理装置が開示されている。この方法を用いれば、コントラストが最大となる距離から遠い距離付近での微移動が割愛できるので、画像を取得すべきZ範囲の探索時間を、従来よりも削減できる。   In Patent Document 2, the distance between the microscope and the object is sequentially changed, and the coarse adjustment means for obtaining the distance at which the contrast is maximized, and the vicinity of the distance obtained by the coarse adjustment means are finely moved to maximize the contrast. An image processing apparatus including fine adjustment means for further obtaining a distance is disclosed. If this method is used, the fine movement near the distance far from the distance where the contrast is maximum can be omitted, so the search time for the Z range in which an image is to be acquired can be reduced as compared with the conventional method.

しかしながら、多層画像の取得と試料内の探索のように、異なる目的の複数の処理に対して、トータルの処理時間を削減するための方法に関しては、いずれの文献にも開示されていない。なお、多層画像の取得を行う撮像系と、試料内の探索を行う撮像系を分け、並列に処理を行うことでトータルの処理時間を削減することも考えられるが、この場合は装
置の大型化とコスト増を招くため、好ましくない。
However, none of the documents discloses a method for reducing the total processing time for a plurality of processes having different purposes such as acquisition of a multilayer image and search in a sample. In addition, it is possible to reduce the total processing time by separating the imaging system that acquires multilayer images and the imaging system that searches within the sample, and processing in parallel. This increases the cost and is not preferable.

また、別の課題として、カラー画像の取得に関する課題が挙げられる。病理診断の対象となる標本は染色されていることがほとんどのため、病理診断を行う上でカラー画像の取得は必須である。しかしながら、ベイヤー配列の撮像素子を用いる構成では、高精細化を実現することが難しい。一方、高精細化のために、光源の色をR,G,Bに切り替えながら撮像する方法もあるが、この構成は装置の大型化を招くとともに、3回の照明・撮像を行う必要があり撮像時間がかかるという難点がある。   Another problem is a problem related to acquisition of a color image. Since most specimens to be pathologically diagnosed are stained, it is essential to obtain a color image when performing pathological diagnosis. However, it is difficult to achieve high definition in a configuration using an image sensor with a Bayer array. On the other hand, for high definition, there is a method of imaging while switching the color of the light source to R, G, B, but this configuration leads to an increase in the size of the apparatus and requires illumination and imaging three times. There is a drawback that it takes imaging time.

特開平10−257369号公報JP-A-10-257369 特開平8−021950号公報JP-A-8-021950

本発明はこのような事情に鑑みてなされたもので、試料から複数層の画像を取得する処理を効率的に実行することのできる技術を提供することを目的とする。また、本発明の他の目的は、一つの撮像系で、目的の異なる複数の処理に応じた画像取得を効率的に実行することのできる技術を提供することにある。   This invention is made | formed in view of such a situation, and it aims at providing the technique which can perform efficiently the process which acquires the image of several layers from a sample. Another object of the present invention is to provide a technique capable of efficiently executing image acquisition according to a plurality of processes having different purposes with a single imaging system.

本発明の第1態様は、試料からの光を集光する光学系と、前記光学系からの光路を複数の光路に分割する分割手段と、前記複数の光路上にそれぞれ受光面を有する複数の撮像手段と、前記複数の撮像手段を用いて第一の処理および第二の処理を行う制御手段と、前記複数の撮像手段の受光面と光学的に共役な試料側の面である複数の基準面の間隔を変更する変更手段と、を有し、前記変更手段は、前記複数の撮像手段が前記第一の処理のための撮像を行う場合と前記第二の処理のための撮像を行う場合とで、前記複数の基準面の間隔を変えることを特徴とする画像取得装である。   According to a first aspect of the present invention, there is provided an optical system that collects light from a sample, a dividing unit that divides an optical path from the optical system into a plurality of optical paths, and a plurality of light receiving surfaces respectively on the plurality of optical paths. An imaging means; a control means for performing a first process and a second process using the plurality of imaging means; and a plurality of references that are surfaces on the sample side optically conjugate with the light receiving surfaces of the plurality of imaging means. Changing means for changing the interval between the surfaces, wherein the changing means performs imaging for the first processing and imaging for the second processing when the plurality of imaging means perform imaging for the first processing. The image acquisition apparatus is characterized in that the interval between the plurality of reference planes is changed.

本発明の第2態様は、試料からの光を集光する光学系と、前記光学系からの光路を複数の光路に分割する分割手段と、前記複数の光路上にそれぞれ受光面を有する複数の撮像手段と、を有する画像取得装置の制御方法であって、前記複数の基準面の間隔を第一の間隔に設定する工程と、前記第一の間隔に設定された前記複数の撮像手段を用いて第一の処理を行う工程と、前記複数の基準面の間隔を前記第一の間隔よりも小さい第二の間隔に設定する工程と、前記第二の間隔に設定された前記複数の撮像手段を用いて第二の処理を行う工程と、を含むことを特徴とする画像取得装置の制御方法である。   According to a second aspect of the present invention, there is provided an optical system that condenses light from a sample, a dividing unit that divides an optical path from the optical system into a plurality of optical paths, and a plurality of light receiving surfaces respectively on the plurality of optical paths. An image acquisition device control method comprising: an image acquisition device comprising: a step of setting an interval between the plurality of reference planes to a first interval; and the plurality of image pickup units set to the first interval. Performing the first process, setting the interval between the plurality of reference planes to a second interval smaller than the first interval, and the plurality of imaging means set to the second interval And a step of performing a second process using the image processing method.

本発明によれば、試料から複数層の画像を取得する処理を効率的に実行することができる。また、本発明によれば、一つの撮像系で、目的の異なる複数の処理に応じた画像取得を効率的に実行することができる。   According to the present invention, it is possible to efficiently execute a process of acquiring a plurality of layers of images from a sample. Further, according to the present invention, it is possible to efficiently execute image acquisition according to a plurality of different purposes with a single imaging system.

第1実施形態に係る画像取得装置の概略図。1 is a schematic diagram of an image acquisition apparatus according to a first embodiment. 画像取得装置のユニット配置図。The unit arrangement | positioning figure of an image acquisition apparatus. 制御ユニットの機能ブロック図。The functional block diagram of a control unit. 制御ユニットのハードウェア構成図。The hardware block diagram of a control unit. Z範囲探索処理と多層画像取得処理との関係を説明するための図。The figure for demonstrating the relationship between a Z range search process and a multilayer image acquisition process. 評価指標のプロファイル例。An example of an evaluation index profile. 画像取得装置の処理全体を表すフローチャート。The flowchart showing the whole process of an image acquisition apparatus. Z範囲探索処理を表すフローチャート。The flowchart showing Z range search processing. 多層画像取得処理を表すフローチャート。The flowchart showing a multilayer image acquisition process. 第2実施形態に係る画像取得装置の概略図。Schematic of the image acquisition apparatus which concerns on 2nd Embodiment. 画像取得装置のユニット配置図。The unit arrangement | positioning figure of an image acquisition apparatus. Z範囲探索処理とカラー画像取得処理との関係を説明するための図。The figure for demonstrating the relationship between a Z range search process and a color image acquisition process. 評価指標のプロファイル例。An example of an evaluation index profile. 画像取得装置の処理全体を表すフローチャート。The flowchart showing the whole process of an image acquisition apparatus. カラー画像取得処理を表すフローチャート。5 is a flowchart showing color image acquisition processing. 第2実施形態に係る画像取得装置の変形例を示す概略図。Schematic which shows the modification of the image acquisition apparatus which concerns on 2nd Embodiment.

以下、図面を参照しながら本発明の実施の形態を説明する。本実施形態の説明においては、画像取得装置としてデジタル顕微鏡(スライドスキャナ)を、画像取得の対象となる試料としてスライド(プレパラートとも呼ばれる。)を好ましい例として提示するが、本発明の範囲は特にこれらに限定されない。また、説明を具体化するために例示する数値も、特に言及しない限りは、本発明の範囲を限定するものではない。
なお、各図において、同一の部材については同一の参照番号を付し、重複する説明は省略する。
Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the description of this embodiment, a digital microscope (slide scanner) is presented as an image acquisition device, and a slide (also referred to as a preparation) is presented as a sample from which images are to be obtained. It is not limited to. Further, numerical values exemplified for embodying the description are not intended to limit the scope of the present invention unless otherwise specified.
In addition, in each figure, the same reference number is attached | subjected about the same member and the overlapping description is abbreviate | omitted.

<第1実施形態>
本発明の第1実施形態に係る画像取得装置について、図1を用いて説明する。
<First Embodiment>
An image acquisition apparatus according to a first embodiment of the present invention will be described with reference to FIG.

(画像取得装置の構成)
図1は、第1実施形態に係る画像取得装置100の構成を示す図である。図1に基づいて、画像取得装置100の構成について説明する。以下の説明においては、Z方向を光学系である対物レンズ102の光軸方向、XY方向をその光軸に垂直な方向と定義する。Z方向は、試料の高さ方向(厚み方向)とも一致する。
(Configuration of image acquisition device)
FIG. 1 is a diagram illustrating a configuration of an image acquisition apparatus 100 according to the first embodiment. The configuration of the image acquisition device 100 will be described with reference to FIG. In the following description, the Z direction is defined as the optical axis direction of the objective lens 102 that is an optical system, and the XY direction is defined as a direction perpendicular to the optical axis. The Z direction also coincides with the height direction (thickness direction) of the sample.

画像取得装置100は、対物レンズ102、光路分割ユニット103、撮像ユニット104A〜104D、撮像ユニット移動機構108A〜108D、ステージ105、制御ユニット106、表示ユニット107を有する。対物レンズ102は、試料であるスライド101からの光(透過光または反射光)を集光する光学系である。光路分割ユニット103は、対物レンズ102からの光束を4つの光路に分割する分割手段である。撮像ユニット104A〜104Dは、分割光路それぞれの光軸上に配置された複数の撮像手段である。撮像ユニット移動機構108A〜108Dは、撮像ユニット104A〜104Dをそれぞれ光軸方向に移動させる変更手段である。ステージ105は、スライド101を保持し移動させる第二の変更手段である。制御ユニット106は、画像取得装置100を制御して表示用画像データを生成する制御手段である。表示ユニット107は、デジタル画像を表示する表示手段である。スライド101のXYZ位置がステージ105によって移動制御され、スライド101内の高さの異なる4つの層が、対物レンズ102、光路分割ユニット103を介して、撮像ユニット104A〜104Dによって同時に撮像される。   The image acquisition apparatus 100 includes an objective lens 102, an optical path dividing unit 103, imaging units 104A to 104D, imaging unit moving mechanisms 108A to 108D, a stage 105, a control unit 106, and a display unit 107. The objective lens 102 is an optical system that collects light (transmitted light or reflected light) from the slide 101 as a sample. The optical path splitting unit 103 is a splitting unit that splits the light beam from the objective lens 102 into four optical paths. The imaging units 104A to 104D are a plurality of imaging means arranged on the optical axes of the divided optical paths. The imaging unit moving mechanisms 108A to 108D are changing units that move the imaging units 104A to 104D in the optical axis direction, respectively. The stage 105 is a second changing unit that holds and moves the slide 101. The control unit 106 is control means for controlling the image acquisition apparatus 100 to generate display image data. The display unit 107 is display means for displaying a digital image. The movement of the XYZ position of the slide 101 is controlled by the stage 105, and four layers having different heights in the slide 101 are simultaneously imaged by the imaging units 104A to 104D via the objective lens 102 and the optical path dividing unit 103.

スライド101は、スライドグラス上に試料(組織切片等の生体サンプルなど)を配置し、封入剤およびカバーグラスで試料を固定した、プレパラート標本である。   The slide 101 is a preparation specimen in which a sample (a biological sample such as a tissue section) is placed on a slide glass and the sample is fixed with an encapsulant and a cover glass.

対物レンズ102は、レンズ及びミラーの組み合わせで構成され、不図示の本体フレームおよび鏡筒によって保持される。対物レンズ102は、光路分割ユニット103とともに、スライド101の光像を撮像ユニット104A〜104Dの受光面に結像させるための結像光学系を構成する。また、対物レンズ102は、スライド101の光像を所定の倍
率で拡大し、撮像ユニット104A〜104Dのいずれの受光面においても同じ拡大率で投影する。対物レンズ102の被写界深度は、約1um(マイクロメートル)から数umと非常に狭い。
The objective lens 102 is composed of a combination of a lens and a mirror, and is held by a main body frame and a lens barrel (not shown). The objective lens 102 and the optical path dividing unit 103 constitute an imaging optical system for forming an optical image of the slide 101 on the light receiving surfaces of the imaging units 104A to 104D. In addition, the objective lens 102 enlarges the optical image of the slide 101 at a predetermined magnification, and projects it at the same magnification on any light receiving surface of the imaging units 104A to 104D. The depth of field of the objective lens 102 is very narrow, about 1 μm (micrometer) to several um.

光路分割ユニット103は、不図示の本体フレームあるいは対物レンズ102の鏡筒によって保持され、対物レンズ102からの光束を、撮像ユニット104A〜104Dに向けて4分割するための光学系である。光路分割ユニット103は、対物レンズ102の視野全域が各撮像ユニット104A〜104Dの受光面に投影されるように構成・配置される。   The optical path splitting unit 103 is an optical system that is held by a body frame (not shown) or a lens barrel of the objective lens 102 and divides the light beam from the objective lens 102 into four toward the imaging units 104A to 104D. The optical path dividing unit 103 is configured and arranged so that the entire field of view of the objective lens 102 is projected onto the light receiving surfaces of the imaging units 104A to 104D.

撮像ユニット104A〜104Dは、不図示の本体フレームあるいは対物レンズ102の鏡筒によって保持され、CCDやCMOSセンサ等の(2次元)撮像素子により構成される。高画素センサを使用することで、広域かつ高空間分解能画像の一括取得が可能となる。本実施形態においては、6.4um(マイクロメートル)ピッチのフルサイズCMOSを光学25.6倍の対物レンズ102と組み合わせることによって、1.4mm×0.9mm領域からの0.25um/pixelの画像一括取得を実現する。本明細書では、対物レンズ102に対して、各撮像ユニット104A〜104Dの受光面と光学的に共役な位置にある試料側(物体側)の面を「基準面」と呼ぶ。4つの撮像ユニット104A〜104Dに対応する4つの基準面のZ方向(光軸方向)の位置を異ならせることで、スライド101内の異なるZ位置の層を同時に撮像できる。撮像ユニット104A〜104Dからの出力データの取り込みは、制御ユニット106によって制御される。   The imaging units 104A to 104D are held by a body frame (not shown) or a lens barrel of the objective lens 102, and are configured by (two-dimensional) imaging elements such as a CCD and a CMOS sensor. By using a high pixel sensor, it is possible to collectively acquire a wide area and high spatial resolution image. In this embodiment, by combining a full-size CMOS of 6.4 um (micrometer) pitch with the objective lens 102 of optical 25.6 times, an image of 0.25 um / pixel from a 1.4 mm × 0.9 mm region. Realize batch acquisition. In this specification, the surface on the sample side (object side) that is optically conjugate with the light receiving surfaces of the imaging units 104A to 104D with respect to the objective lens 102 is referred to as a “reference surface”. By varying the positions of the four reference planes corresponding to the four imaging units 104A to 104D in the Z direction (optical axis direction), layers at different Z positions in the slide 101 can be imaged simultaneously. Acquisition of output data from the imaging units 104 </ b> A to 104 </ b> D is controlled by the control unit 106.

撮像ユニット移動機構108A〜108Dは、制御ユニット106から出力される制御目標値に応じて、撮像ユニット104A〜104Dをそれぞれ光軸方向に移動させる。撮像ユニット移動機構108A〜108Dは、後述するZステージの位置決め精度に対し、対物レンズ102の光学倍率の2乗程度の位置決め精度で駆動可能であれば良い。該移動機構は、リニアモータ、直動ガイドを用いたステージ、直動ボールネジを用いたDCモータ、パルスモータ、VCMなどで駆動する直動システム、板バネなどの弾性変形を利用した案内機構とピエゾアクチュエータを用いた機構などで構成することができる。   The imaging unit moving mechanisms 108 </ b> A to 108 </ b> D move the imaging units 104 </ b> A to 104 </ b> D in the optical axis direction according to the control target value output from the control unit 106. The imaging unit moving mechanisms 108 </ b> A to 108 </ b> D only need to be able to be driven with a positioning accuracy of about the square of the optical magnification of the objective lens 102 with respect to the positioning accuracy of the Z stage described later. The moving mechanism includes a linear motor, a stage using a linear motion guide, a DC motor using a linear motion ball screw, a linear motor system driven by a pulse motor, a VCM, etc., a guide mechanism and a piezo using elastic deformation such as a leaf spring. A mechanism using an actuator can be used.

撮像ユニット104A〜104Dが移動することで、4つの基準面同士のZ方向の間隔(ピッチ)が変更され、任意の高さにある複数(4つ)の層が同時に撮像可能となる。本実施形態においては、後述するZ範囲探索処理(第一の処理)と多層画像取得処理(第二の処理)との間で、4つの基準面同士の間隔を変更させる。なお、本実施形態では4つの基準面を等間隔に配置するが、試料に合わせて、あるいは、画像取得の目的に合わせて、基準面同士の間隔を不等間隔に設定することもできる。   By moving the imaging units 104A to 104D, the interval (pitch) in the Z direction between the four reference planes is changed, and a plurality of (four) layers at an arbitrary height can be simultaneously imaged. In the present embodiment, the interval between the four reference planes is changed between a Z range search process (first process) and a multilayer image acquisition process (second process) described later. In the present embodiment, the four reference planes are arranged at equal intervals. However, the intervals between the reference planes can be set at unequal intervals according to the sample or according to the purpose of image acquisition.

本実施形態では、すべての撮像ユニット104A〜104Dが移動する構成としたが、1つの撮像ユニットを固定し(撮像ユニット移動機構を設置しない)、他の撮像ユニットの相対位置を移動させる構成としてもよい。これにより、撮像ユニット移動機構の数が減り、構成が簡易になる。   In this embodiment, all the imaging units 104A to 104D are configured to move. However, a configuration in which one imaging unit is fixed (the imaging unit moving mechanism is not installed) and the relative position of the other imaging units is moved is also possible. Good. Thereby, the number of imaging unit moving mechanisms is reduced, and the configuration is simplified.

また、本実施形態では、一例として、撮像ユニット104A〜104Dをそれぞれ光軸方向に移動させることで4つの基準面同士の間隔を変更する構成とした。この構成に限らず、分割光路上それぞれに複数のミラーやリレーレンズを配置し、それらを移動させることで分割光路の光路長を変更し、4つの基準面同士の間隔を変更する構成としても良い。   In the present embodiment, as an example, the interval between the four reference planes is changed by moving the imaging units 104A to 104D in the optical axis direction. Not limited to this configuration, a configuration may be adopted in which a plurality of mirrors and relay lenses are arranged on each of the divided optical paths, and the optical path length of the divided optical path is changed by moving them to change the interval between the four reference planes. .

ステージ105は、スライド101を保持する保持部と、制御ユニット106から出力される制御目標値に応じて、保持部をXY方向に移動させるXYステージと、保持部をZ方向に移動させるZステージを含む(いずれも不図示)。XYステージは、特に、25m
m以上の広範囲に駆動可能なものが好ましい。XYステージは、リニアモータや、直動ガイドを用いたステージ、直動ボールネジを用いたDCモータ、パルスモータ、VCMなどで駆動する直動システムなどで構成することができる。一方、Zステージは、特に、0.1um以下の位置決め精度で駆動可能なものが好ましい。Zステージは、リニアモータや、直動ガイドを用いたステージ、直動ボールネジを用いたDCモータ、パルスモータ、VCMなどで駆動する直動システムや、板バネ案内機構とピエゾアクチュエータを用いた機構などで構成することができる。
The stage 105 includes a holding unit that holds the slide 101, an XY stage that moves the holding unit in the XY direction according to a control target value output from the control unit 106, and a Z stage that moves the holding unit in the Z direction. Included (both not shown). XY stage is especially 25m
Those that can be driven over a wide range of m or more are preferable. The XY stage can be configured by a linear motor, a stage using a linear motion guide, a DC motor using a linear motion ball screw, a pulse motor, a linear motion system driven by a VCM, or the like. On the other hand, the Z stage is preferably one that can be driven with a positioning accuracy of 0.1 μm or less. The Z stage is a linear motor, a stage using a linear motion guide, a DC motor using a linear motion ball screw, a pulse motor, a linear motion system driven by a VCM, a mechanism using a leaf spring guide mechanism and a piezoelectric actuator, etc. Can be configured.

XYステージが移動することで、スライド101と対物レンズ102とのXY相対位置が変更され、スライド101の所望の領域の分割画像が取得可能となる。また、XY移動を連続して制御しながら分割画像の取得を繰り返すことで、スライド101の広域を撮像することができる。広域から画像取得するためのXY移動順序は、XY取得対象範囲に基づいて決定する。XY取得対象範囲は、画像を取得すべき試料内のXY範囲(領域の広がり)を定義する情報である。XY取得対象範囲は、不図示の予備計測系によって予め計測した、試料のXY形状情報に基づいて決定しても良いし、必要に応じてユーザからの指示に基づいても良い。XY取得対象範囲の設定によって、病理診断などに必要な領域の画像データを選択的に生成することができ、例えば試料の存在しない領域等を削除して表示用画像データの容量を小さくし、データのハンドリングを容易にできる。なお、通常は、検出した試料の存在領域と等しくなるようにXY取得対象領域を決定する。   By moving the XY stage, the XY relative position between the slide 101 and the objective lens 102 is changed, and a divided image of a desired region of the slide 101 can be acquired. Further, by repeatedly acquiring the divided images while continuously controlling the XY movement, the wide area of the slide 101 can be imaged. The XY movement order for acquiring images from a wide area is determined based on the XY acquisition target range. The XY acquisition target range is information that defines an XY range (expansion of a region) in a sample from which an image is to be acquired. The XY acquisition target range may be determined based on the XY shape information of the sample measured in advance by a preliminary measurement system (not shown), or may be based on an instruction from the user as necessary. By setting the XY acquisition target range, image data of an area necessary for pathological diagnosis can be selectively generated. For example, an area where a sample does not exist is deleted to reduce the capacity of the display image data, and the data Can be handled easily. Normally, the XY acquisition target area is determined so as to be equal to the detected area of the sample.

一方、Zステージが移動することで、スライド101と4つの基準面とのZ相対位置が変更され、スライド101内の異なる高さ(深さ)の4層分の画像が同時に取得可能となる。また、Z移動を連続して制御しながら画像の取得を繰り返すことで、同じXY領域に対し4層以上の画像の取得が可能となる。この処理を多層画像取得処理とよぶ。多層画像取得処理におけるZ移動順序は、Z取得対象範囲に基づいて決定する。Z取得対象範囲は、多層の画像を取得すべき試料内のZ範囲(高さ範囲)を定義する情報であり、後述するZ範囲探索処理の結果に基づいて決定する。なお、本実施形態では、一例として、Zステージが移動することでスライド101と対物レンズ102の4つの基準面とのZ相対位置を変更する構成としたが、対物レンズ102または撮像ユニット104A〜104Dが移動する構成としても良い。   On the other hand, when the Z stage moves, the Z relative positions of the slide 101 and the four reference planes are changed, and images of four layers having different heights (depths) in the slide 101 can be simultaneously acquired. Further, by repeatedly acquiring images while continuously controlling the Z movement, it is possible to acquire four or more layers of images for the same XY region. This process is called a multilayer image acquisition process. The Z movement order in the multilayer image acquisition process is determined based on the Z acquisition target range. The Z acquisition target range is information that defines a Z range (height range) in a sample from which a multilayer image is to be acquired, and is determined based on a result of a Z range search process to be described later. In the present embodiment, as an example, the Z relative position between the slide 101 and the four reference surfaces of the objective lens 102 is changed by moving the Z stage. However, the objective lens 102 or the imaging units 104A to 104D is used. It is good also as a structure which moves.

制御ユニット106は、CPU、メモリ、ハードディスクなどを含む演算処理の高速な汎用のコンピュータやワークステーション、専用のグラフィックボード、あるいはこれらの組み合わせによって構成される。制御ユニット106は、ステージ105、撮像ユニット104A〜104D、撮像ユニット移動機構108A〜108D、表示ユニット107との間で、制御情報や画像データの入出力を行うためのインターフェースを備える。また、制御ユニット106は、画像取得装置100の設定を変更するためのインターフェース、試料の位置情報や形状情報を入力するためのインターフェースを備えても良い。後述する制御ユニット106の機能は、ハードディスクなどの記憶媒体に格納されたプログラムをメモリにロードし、CPUが実行することにより実現されるものである。   The control unit 106 is configured by a general-purpose computer or workstation with high-speed arithmetic processing including a CPU, memory, hard disk, etc., a dedicated graphic board, or a combination thereof. The control unit 106 includes an interface for inputting / outputting control information and image data to / from the stage 105, the imaging units 104A to 104D, the imaging unit moving mechanisms 108A to 108D, and the display unit 107. Further, the control unit 106 may include an interface for changing the setting of the image acquisition apparatus 100 and an interface for inputting the position information and shape information of the sample. The function of the control unit 106 to be described later is realized by loading a program stored in a storage medium such as a hard disk into a memory and executing it by the CPU.

表示ユニット107は、画像取得装置100の生成した表示用画像データに基づいて、病理診断に適した観察用画像を表示する機能を有する。CRTや液晶等のモニタにより表示ユニット107を構成することができる。   The display unit 107 has a function of displaying an observation image suitable for pathological diagnosis based on the display image data generated by the image acquisition device 100. The display unit 107 can be configured by a monitor such as a CRT or a liquid crystal.

(光路の分割)
図2は、4つの基準面を撮像するための、対物レンズ102、光路分割ユニット103、撮像ユニット104A〜104Dの配置図である。光路分割ユニット103は、対物レンズ102の像側に配置した3つのビームスプリッタ31〜33から構成される。
(Division of optical path)
FIG. 2 is a layout diagram of the objective lens 102, the optical path dividing unit 103, and the imaging units 104A to 104D for imaging four reference planes. The optical path splitting unit 103 includes three beam splitters 31 to 33 arranged on the image side of the objective lens 102.

図2に示すように、対物レンズ102の4つの基準面を、対物レンズ102に近い側からOSa〜OSdとする。撮像ユニット104A〜104Dの受光面の位置は、それぞれ基準面OSa〜OSdの位置と光学的共役となるように配置されている。すなわち、基準面OSaからの光束LFaは、ビームスプリッタ31で反射され、ビームスプリッタ33を透過して、撮像ユニット104Aの受光面に結像する。基準面OSbからの光束LFbは、ビームスプリッタ31とビームスプリッタ33でそれぞれ反射され、撮像ユニット104Bの受光面に結像する。基準面OScからの光束LFcは、ビームスプリッタ31とビームスプリッタ32を透過し、撮像ユニット104Cの受光面に結像する。基準面OSdからの光束LFdは、ビームスプリッタ31を透過し、ビームスプリッタ32で反射され、撮像ユニット104Dの受光面に結像する。各撮像ユニット104A〜104Dは、制御ユニット106からの制御指令に応じて、それぞれ撮像データDa〜Ddを出力する。   As shown in FIG. 2, the four reference surfaces of the objective lens 102 are OSa to OSd from the side close to the objective lens 102. The positions of the light receiving surfaces of the imaging units 104A to 104D are arranged so as to be optically conjugate with the positions of the reference surfaces OSa to OSd, respectively. That is, the light beam LFa from the reference surface OSa is reflected by the beam splitter 31, passes through the beam splitter 33, and forms an image on the light receiving surface of the imaging unit 104A. The light beam LFb from the reference surface OSb is reflected by the beam splitter 31 and the beam splitter 33, and forms an image on the light receiving surface of the imaging unit 104B. The light beam LFc from the reference plane OSc passes through the beam splitter 31 and the beam splitter 32 and forms an image on the light receiving surface of the imaging unit 104C. The light beam LFd from the reference surface OSd passes through the beam splitter 31, is reflected by the beam splitter 32, and forms an image on the light receiving surface of the imaging unit 104D. Each of the imaging units 104A to 104D outputs imaging data Da to Dd in response to a control command from the control unit 106, respectively.

ステージ105によって、試料内の所望の層のZ位置を最上位の基準面OSaに一致させることで、その層に合焦した撮像データDaを撮像ユニット104Aから得られる。これと同時に、その層からそれぞれ所定距離(基準面OSb〜OSdの基準面OSaからの距離)離れた3層の撮像データDb〜Ddが、撮像ユニット104B〜104Dから得られる。   By making the Z position of a desired layer in the sample coincide with the uppermost reference plane OSa by the stage 105, imaging data Da focused on that layer can be obtained from the imaging unit 104A. At the same time, three layers of imaging data Db to Dd are obtained from the imaging units 104B to 104D, respectively, which are separated from the layer by a predetermined distance (distance from the reference plane OSa of the reference planes OSb to OSd).

後述するように、本実施形態では、試料内を探索し画像を取得すべきZ範囲を決定するZ範囲探索処理(第一の処理)と、そのZ範囲について多層の画像を取得する多層画像取得処理(第二の処理)とを実行する。Z範囲探索処理では、基準面OSa〜OSdの間隔が対物レンズ102の被写界深度よりも大きく(例えば数倍)となるようにすることが好ましい。こうすることで、Zステージの移動回数を削減することが可能となる。一方、多層画像取得処理では、基準面OSa〜OSdの間隔が対物レンズ102の被写界深度以下となるようにすることが好ましい。こうすることで、試料内の構造物にピントの合った画像がいずれかの撮像ユニットで必ず得られることを保証でき、高さ方向に高分解能な多層の画像が取得可能となる。本実施形態では、Z範囲探索処理時の基準面OSa〜OSdの間隔(第一の間隔)を対物レンズ102の被写界深度の4倍とし、多層画像取得処理時の基準面OSa〜OSdの間隔(第二の間隔)を対物レンズ102の被写界深度と等しくする。   As will be described later, in the present embodiment, a Z range search process (first process) for searching a sample and determining a Z range in which an image is to be acquired, and a multilayer image acquisition for acquiring a multilayer image for the Z range The process (second process) is executed. In the Z range search process, it is preferable that the interval between the reference planes OSa to OSd be larger (for example, several times) than the depth of field of the objective lens 102. By doing so, it is possible to reduce the number of movements of the Z stage. On the other hand, in the multilayer image acquisition process, it is preferable that the interval between the reference planes OSa to OSd be equal to or smaller than the depth of field of the objective lens 102. By doing so, it is possible to ensure that an image focused on the structure in the sample is always obtained by any of the imaging units, and it is possible to acquire a multi-resolution image with high resolution in the height direction. In the present embodiment, the interval (first interval) between the reference planes OSa to OSd during the Z range search process is set to four times the depth of field of the objective lens 102, and the reference planes OSa to OSd during the multilayer image acquisition process are set. The interval (second interval) is made equal to the depth of field of the objective lens 102.

また、本実施形態では、一例として、3個のビームスプリッタおよび4個の撮像ユニットによって4つの層を同時撮像できる構成としたが、これに限定するものではない。例えば、1個のビームスプリッタおよび2個の撮像ユニットによって2つの層を同時撮像する構成とできる。あるいは、1個のダイクロイックミラーおよび3個の撮像ユニットによって3つの層を同時撮像する構成とできる。5つ以上の層を同時撮像する構成を採ることもできる。このように、対物レンズ102の焦点深度や光路分割ユニット103の形状・構成などによって適宜決定できる。   In the present embodiment, as an example, four layers can be simultaneously imaged by three beam splitters and four imaging units. However, the present invention is not limited to this. For example, two layers can be simultaneously imaged by one beam splitter and two imaging units. Or it can be set as the structure which images three layers simultaneously with one dichroic mirror and three imaging units. A configuration in which five or more layers are simultaneously imaged can also be employed. Thus, it can be determined as appropriate depending on the depth of focus of the objective lens 102 and the shape and configuration of the optical path dividing unit 103.

(制御ユニットの機能)
図3は、制御ユニット106の機能ブロック図である。図3に示すように、制御ユニット106は、主制御部60、ステージ位置制御部61、撮像ユニット位置制御部62、撮像制御部63、データ処理部64から構成される。
(Function of control unit)
FIG. 3 is a functional block diagram of the control unit 106. As shown in FIG. 3, the control unit 106 includes a main control unit 60, a stage position control unit 61, an imaging unit position control unit 62, an imaging control unit 63, and a data processing unit 64.

主制御部60は、画像取得装置100を構成する各部の動作を統括的に制御する。例えば、主制御部60は、試料の多層の画像を取得し、全焦点画像データや三次元画像データもしくはそれらの合成画像データを生成し、表示用画像データとして出力するための同期制御を行う。また、主制御部60は、不図示の光源の調光制御や各種光学素子の切り換え等、試料の画像取得に伴う画像取得装置100の各部の調整を行うとともに、各部の状態
を適宜ユーザに通知可能とする。
The main control unit 60 controls the operation of each unit constituting the image acquisition apparatus 100 in an integrated manner. For example, the main control unit 60 acquires a multi-layer image of the sample, generates omnifocal image data, three-dimensional image data, or composite image data thereof, and performs synchronous control for outputting as display image data. In addition, the main control unit 60 adjusts each part of the image acquisition apparatus 100 associated with sample image acquisition such as dimming control of a light source (not shown) and switching of various optical elements, and notifies the user of the state of each part as appropriate. Make it possible.

ステージ位置制御部61は、ステージ105のXY移動およびZ移動を、出力インターフェースを介して制御し、スライド101の所望の領域の所望の層を基準面OSa〜OSdのいずれかの位置に送り込ませる。また、ステージ位置制御部61は、ステージ105のXYZ位置座標を入力インターフェースを介して取得する。   The stage position control unit 61 controls the XY movement and the Z movement of the stage 105 via the output interface, and sends a desired layer in a desired area of the slide 101 to any one of the reference planes OSa to OSd. Further, the stage position control unit 61 acquires the XYZ position coordinates of the stage 105 via the input interface.

ステージ位置制御部61は更に、Z範囲探索処理時および多層画像取得処理時のZ移動順序(ステージ105をZ移動させる制御目標値)を決定する。本実施形態では、最初に探索範囲又はZ取得対象範囲の上端(又は下端)に基準面の上端(又は下端)が合うようにステージ105を移動させた後、1ステップずつ同じ方向(下方向又は上方向)にステージ105をシフト移動させていく。これによりステージ移動および位置合わせを効率化でき、時間短縮を図ることができる。ここで、1ステップの移動量(変更量)は、Z範囲探索処理と多層画像取得処理とで変えるとよい。好ましくは、1ステップの移動量は基準面の間隔の4倍に設定するとよい。これにより探索範囲又はZ取得対象範囲を等間隔で撮像でき、効率良い画像取得が可能となる。本実施形態の場合は、対物レンズ102の被写界深度をdとして、1ステップの移動量が、Z範囲探索処理時においては16×d、多層画像取得処理においては4×dに設定される。   The stage position control unit 61 further determines the Z movement order (control target value for moving the stage 105 Z) during the Z range search process and the multilayer image acquisition process. In the present embodiment, after the stage 105 is first moved so that the upper end (or lower end) of the reference plane is aligned with the upper end (or lower end) of the search range or the Z acquisition target range, the same direction (downward or The stage 105 is shifted and moved upward. As a result, stage movement and alignment can be made more efficient, and the time can be reduced. Here, the movement amount (change amount) in one step may be changed between the Z range search process and the multilayer image acquisition process. Preferably, the amount of movement in one step is set to 4 times the interval between the reference planes. As a result, the search range or the Z acquisition target range can be imaged at equal intervals, and efficient image acquisition is possible. In the case of the present embodiment, assuming that the depth of field of the objective lens 102 is d, the amount of movement in one step is set to 16 × d in the Z range search process and 4 × d in the multilayer image acquisition process. .

撮像ユニット位置制御部62は、撮像ユニット移動機構108A〜108Dによる撮像ユニット104A〜104Dの光軸方向の移動を出力インターフェースを介して制御し、基準面OSa〜OSd同士の間隔(相対距離)を変更する。本実施形態では、Z範囲探索処理時には基準面の間隔を4×dに設定し、多層画像取得処理時には基準面の間隔をdに設定する。また、撮像ユニット位置制御部62は、撮像ユニット104A〜104Dの光軸方向の座標を、入力インターフェースを介して取得し、基準面OSa〜OSdのZ位置を算出する。ここで、基準面OSa〜OSdのZ位置は、撮像ユニット104A〜104Dから対物レンズ102の像側焦点位置までの光路長、対物レンズ102の光学倍率に基づいて算出すれば良い。   The imaging unit position control unit 62 controls the movement of the imaging units 104A to 104D in the optical axis direction by the imaging unit moving mechanisms 108A to 108D via the output interface, and changes the interval (relative distance) between the reference planes OSa to OSd. To do. In this embodiment, the reference plane interval is set to 4 × d during the Z range search process, and the reference plane interval is set to d during the multilayer image acquisition process. Further, the imaging unit position control unit 62 acquires the coordinates in the optical axis direction of the imaging units 104A to 104D via the input interface, and calculates the Z positions of the reference planes OSa to OSd. Here, the Z positions of the reference planes OSa to OSd may be calculated based on the optical path length from the imaging units 104A to 104D to the image side focal position of the objective lens 102 and the optical magnification of the objective lens 102.

撮像制御部63は、ステージ105および撮像ユニット104A〜104Dの移動完了に同期して、撮像ユニット104A〜104Dによる撮像を、入出力インターフェースを介して制御し、撮像データ群Da〜Ddを入力する。Z範囲探索処理時には、高空間分解能な撮像データを必要としないため、撮像ユニット104A〜104Dに対し、撮像データを間引くように制御してもよい。これによりZ範囲探索処理を高速化できる。また、撮像制御部63は、撮像データと関連付けて、位置情報を取得する。位置情報とは、各撮像素ユニットがスライド101のどの分割領域(XY位置)、およびどの層(Z位置)を撮像したものかを表す情報である。例えば、ステージ105の、制御目標としたXYZ位置座標や移動完了後のXYZ位置座標および基準面のZ位置より取得することができる。また、関連付ける方法としては、例えば、撮像データと位置情報データに同じヘッダ情報を付加すれば良い。ヘッダ情報は、タイムスタンプ等のユニークな情報であることが好ましい。あるいは、関連付けたい位置情報を、撮像データのヘッダ情報に含めても良い。この位置情報を参照することで、撮像データがスライド101のどの分割領域(XY位置)のどの層(Z位置)の画像であるかを識別できる。以下の説明では、撮像データに関連付けられた位置情報で表されるスライド101上のXY位置やZ位置のことを、単に、撮像データのXY位置やZ位置と記す。   The imaging control unit 63 controls the imaging by the imaging units 104A to 104D via the input / output interface in synchronization with the completion of the movement of the stage 105 and the imaging units 104A to 104D, and inputs the imaging data groups Da to Dd. At the time of the Z range search process, since imaging data with high spatial resolution is not required, the imaging units 104A to 104D may be controlled to thin out the imaging data. This can speed up the Z range search process. In addition, the imaging control unit 63 acquires position information in association with imaging data. The position information is information indicating which divided area (XY position) and which layer (Z position) of the slide 101 each image pickup unit has imaged. For example, it can be acquired from the XYZ position coordinates as the control target of the stage 105, the XYZ position coordinates after the movement is completed, and the Z position of the reference plane. Moreover, as a method of associating, for example, the same header information may be added to the imaging data and the position information data. The header information is preferably unique information such as a time stamp. Alternatively, position information to be associated may be included in the header information of the imaging data. By referring to this position information, it is possible to identify which layer (Z position) of which divided area (XY position) of the slide 101 is the imaging data. In the following description, the XY position and the Z position on the slide 101 represented by the position information associated with the imaging data are simply referred to as the XY position and the Z position of the imaging data.

データ処理部64は、Z範囲探索処理において、撮像制御部63を介して撮像データ群Da〜Ddを受け取り、Z取得対象範囲の算出を行う。例えば、データ処理部64は、得られた撮像データ群を用いて、最大コントラストの画像が得られるZ位置を推定(検出)し、そのZ位置を基準に(Z位置を含むように)Z取得対象範囲を設定するとよい。高コ
ントラストな画像が得られるZ位置を検出する方法には、カメラにおけるパッシブ方式のオートフォーカスの技術を利用することができる。
In the Z range search process, the data processing unit 64 receives the imaging data groups Da to Dd via the imaging control unit 63 and calculates the Z acquisition target range. For example, the data processing unit 64 estimates (detects) the Z position at which the image with the maximum contrast is obtained using the obtained imaging data group, and acquires the Z based on the Z position (including the Z position). It is good to set the target range. As a method for detecting a Z position where a high-contrast image can be obtained, a passive autofocus technique in a camera can be used.

具体的に、本実施形態のデータ処理部64は、撮像データごとに、各画素についてそれぞれ近傍の画素との輝度の微分値又は差分値を算出し、その値を全画素分合計して評価指標を算出する。この評価指標は画像のコントラストを表している。次にデータ処理部64は、各撮像データの評価指標及びZ位置から、評価指標のプロファイル(Z位置に対する評価指標の変化(コントラスト分布))を作成し、評価指標がピークを示すピークZ位置を求める。このピークZ位置を基準にZ取得対象範囲を決定する。Z取得対象範囲の決定方法としては、例えば、ピークZ位置を中心とする所定のZ範囲をZ取得対象範囲としてもよいし、評価指標プロファイルの半値幅に基づいてZ取得対象範囲を設定してもよい。あるいは、評価指標を算出する単位領域を設定(例えば全領域の1/16)して領域ごとにピークZ位置を求め、ピークZ位置の最小値から最大値までをZ取得対象範囲とすると良い。   Specifically, the data processing unit 64 of the present embodiment calculates, for each imaging data, a luminance differential value or a difference value with a neighboring pixel for each pixel, and sums the values for all pixels to evaluate the index. Is calculated. This evaluation index represents the contrast of the image. Next, the data processing unit 64 creates an evaluation index profile (change in the evaluation index with respect to the Z position (contrast distribution)) from the evaluation index and the Z position of each imaging data, and determines the peak Z position where the evaluation index shows a peak. Ask. The Z acquisition target range is determined based on the peak Z position. As a determination method of the Z acquisition target range, for example, a predetermined Z range centered on the peak Z position may be set as the Z acquisition target range, or the Z acquisition target range is set based on the half width of the evaluation index profile. Also good. Alternatively, a unit region for calculating the evaluation index is set (for example, 1/16 of the entire region), the peak Z position is obtained for each region, and the range from the minimum value to the maximum value of the peak Z position is set as the Z acquisition target range.

また、データ処理部64は、Z取得対象範囲内の画像取得完了に同期して、撮像データ群とそのZ位置情報に基づいて、分割領域内の全ての箇所で焦点が合った全焦点画像データおよび/または厚み方向の形状分布が把握できる三次元画像データを生成する。全焦点画像データは、例えば、分割画像における各画素についてそれぞれ近傍の画素との輝度の微分値や差分値を算出し、この値を評価値とする。そして、Z取得対象範囲内から取得した他の画像データの評価値と比較し、最も評価値の高い画素をその画素位置における焦点のデータとみなして構築する。三次元画像データは、焦点とみなした各画素のZ座標をもとに構築することができる。あるいは、撮像データ群の各画素をボクセル空間にマッピングすることで三次元画像データを生成してもよい。あるいは、表示処理の際に、ユーザの指定したXYZ位置の画像に切り替えて表示できるように、複数層の画像データとXYZ位置と関連付けたもの(Zスタック画像)でも良い。   In addition, the data processing unit 64 synchronizes with the completion of image acquisition within the Z acquisition target range, and based on the imaging data group and the Z position information thereof, the omnifocal image data focused at all points in the divided region. And / or 3D image data that can grasp the shape distribution in the thickness direction is generated. For the omnifocal image data, for example, for each pixel in the divided image, a luminance differential value or a difference value with a neighboring pixel is calculated, and this value is used as an evaluation value. Then, it is compared with the evaluation value of other image data acquired from within the Z acquisition target range, and the pixel having the highest evaluation value is regarded as the focus data at the pixel position. The three-dimensional image data can be constructed based on the Z coordinate of each pixel regarded as the focal point. Alternatively, the three-dimensional image data may be generated by mapping each pixel of the imaging data group to the voxel space. Alternatively, the display data may be an image associated with a plurality of layers of image data and XYZ positions (Z stack image) so that the images can be switched to and displayed at the XYZ positions designated by the user.

更に、データ処理部64は、XY取得対象範囲内の画像取得完了に同期して、分割領域ごとの全焦点画像データおよび/または三次元画像データとそのXY位置に基づいて、合成画像データを生成する。合成画像データは、スライド101のXY取得対象範囲の全域を表す画像データであり、各分割領域の画像データを位置合わせし接続することで生成される。接続方法には、繋ぎ合わせ(タイリング)、重畳(隣接画像間の重なり部分をブレンド)、補間処理により滑らかに繋げるなど、どのような方法を用いてもよい。   Further, the data processing unit 64 generates composite image data based on the omnifocal image data and / or 3D image data for each divided region and its XY position in synchronization with the completion of image acquisition within the XY acquisition target range. To do. The composite image data is image data representing the entire range of the XY acquisition target range of the slide 101, and is generated by aligning and connecting the image data of each divided region. As a connection method, any method may be used such as joining (tiling), superimposing (blending overlapping portions between adjacent images), and smoothly connecting by interpolation processing.

こうして、データ処理部64は、撮像データ群を用いて、全焦点画像データ、三次元画像データ、合成画像データなどの表示用画像データ(観察用画像データ)を生成する。データ処理部64は、これらの表示用画像データを出力インターフェースを介して出力し、表示ユニット107において表示可能とする。なお、全焦点画像データまたは三次元画像データの生成、合成画像データの生成順序は逆でも良い。つまり、各分割領域の撮像データを接続して各層の合成画像データを生成した後、複数層の合成画像データから全焦点画像データや三次元画像データを生成することもできる。なお、上述した表示用画像データの生成方法は一例であり、他の画像処理法を用いてもよい。また、データ処理部64が上記以外の表示用画像データ、例えば、観察や診断に有益な画像特徴を強調ないし抽出した画像データ、視線方向(観察方向)を変更した画像データなどを生成することもできる。   In this way, the data processing unit 64 generates display image data (observation image data) such as omnifocal image data, three-dimensional image data, and composite image data using the imaging data group. The data processing unit 64 outputs these display image data via the output interface, and allows the display unit 107 to display them. Note that the generation order of the omnifocal image data or the three-dimensional image data and the generation order of the composite image data may be reversed. That is, it is possible to generate the omnifocal image data and the three-dimensional image data from the composite image data of a plurality of layers after connecting the imaging data of each divided region to generate the composite image data of each layer. The display image data generation method described above is merely an example, and other image processing methods may be used. In addition, the data processing unit 64 may generate display image data other than the above, for example, image data in which image features useful for observation or diagnosis are emphasized or extracted, image data in which the line-of-sight direction (observation direction) is changed, and the like. it can.

(制御ユニットのハードウェア構成)
図4は、制御ユニット106のハードウェア構成を示すブロック図である。
(Hardware configuration of control unit)
FIG. 4 is a block diagram showing a hardware configuration of the control unit 106.

制御ユニット106としては、例えばパーソナルコンピュータ(PC)200が用いられる。PC200は、CPU(Central Processing Unit)201、HDD(Hard Disk D
rive)202、RAM(Random Access Memory)203、入出力I/F204、及びこれらを互いに接続するバス205を備える。
As the control unit 106, for example, a personal computer (PC) 200 is used. The PC 200 includes a CPU (Central Processing Unit) 201 and an HDD (Hard Disk D).
rive) 202, a RAM (Random Access Memory) 203, an input / output I / F 204, and a bus 205 for connecting them together.

CPU201は、必要に応じてRAM203等にアクセスし、各種演算処理を行いながらPC200全体を統括的に制御する。HDD202は、CPU201に実行させるプログラムや各種パラメータなどが記憶されている補助記憶装置である。撮像ユニットから取得した撮像データや生成した全焦点画像データ、三次元画像データ、合成画像データ、表示用データなどをHDD202に記憶させることもできる。RAM203は、CPU201の作業用領域等として用いられ、実行中の各種プログラム、制御ユニット106において処理の対象となる各種データを一時的に保持する。   The CPU 201 accesses the RAM 203 and the like as necessary, and comprehensively controls the entire PC 200 while performing various arithmetic processes. The HDD 202 is an auxiliary storage device that stores programs to be executed by the CPU 201 and various parameters. Imaging data acquired from the imaging unit, generated omnifocal image data, three-dimensional image data, composite image data, display data, and the like can be stored in the HDD 202. The RAM 203 is used as a work area for the CPU 201 and temporarily holds various programs being executed and various data to be processed in the control unit 106.

入出力I/F204は、光通信、Gigabit Ethernet(登録商標)、USB(Universal Serial Bus)、PCIe(Peripheral Component Interconnect Express)(登録商標)
、DVI(Digital Visual Interface)等を使用した汎用インターフェースで構成できる。入出力I/F204には、ステージ105、撮像ユニット104A〜104D、撮像ユニット移動機構108A〜108D、表示ユニット107、および不図示の入力装置等が接続される。生成した表示用データや各種データを記憶させる画像サーバを入出力I/F204に接続することもできる。図1では、表示ユニット107が外部装置として接続される形態を想定しているが、表示装置と一体化したPCを用いて制御ユニット106と表示ユニット107を一つの装置で構成しても良い。入力装置は、例えばマウス等のポインティングデバイス、キーボード、タッチパネル、その他の操作入力装置である。タッチパネルディスプレイのように表示ユニット107と入力装置を兼ねるデバイスを用いることもできる。
The input / output I / F 204 includes optical communication, Gigabit Ethernet (registered trademark), USB (Universal Serial Bus), and PCIe (Peripheral Component Interconnect Express) (registered trademark).
, A general-purpose interface using DVI (Digital Visual Interface) or the like. The input / output I / F 204 is connected to a stage 105, imaging units 104A to 104D, imaging unit moving mechanisms 108A to 108D, a display unit 107, an input device (not shown), and the like. An image server for storing the generated display data and various data can be connected to the input / output I / F 204. In FIG. 1, it is assumed that the display unit 107 is connected as an external device. However, the control unit 106 and the display unit 107 may be configured as a single device using a PC integrated with the display device. The input device is, for example, a pointing device such as a mouse, a keyboard, a touch panel, and other operation input devices. A device that doubles as the display unit 107 and an input device such as a touch panel display can also be used.

(Z範囲探索処理と多層画像取得処理との関係)
(1)Z範囲探索処理
図5は、Z範囲探索処理および多層画像取得処理における、4つの基準面の間隔の違いについて示した図である。横軸は時間tを示している。
(Relationship between Z range search processing and multilayer image acquisition processing)
(1) Z Range Search Process FIG. 5 is a diagram showing the difference in the interval between the four reference planes in the Z range search process and the multilayer image acquisition process. The horizontal axis indicates time t.

T0は、取得対象とした分割領域が、XYステージによって対物レンズ102の視野内に送り込まれ、Z範囲探索処理を開始した時の状態を表す。この時、基準面OSa〜OSdの間隔は広く設定される(例えば、対物レンズ102の被写界深度の4倍)。この設定により、粗い間隔で4つの層が同時撮像される。1回目の探索では、試料の上端(これより上には画像取得したい層は存在しない位置:例えばカバーグラス上面)が、基準面OSaのZ位置に一致するようにステージ105が制御される。この状態で、出力された撮像データ群Da〜Ddに基づいて、Z取得対象範囲の最上位層LTおよび最下位層LBが決定される。   T0 represents a state when the divided area to be acquired is sent into the field of view of the objective lens 102 by the XY stage and the Z range search process is started. At this time, the interval between the reference planes OSa to OSd is set wide (for example, four times the depth of field of the objective lens 102). With this setting, four layers are simultaneously imaged at a rough interval. In the first search, the stage 105 is controlled so that the upper end of the sample (the position above which no layer for which an image is to be acquired exists, for example, the upper surface of the cover glass) coincides with the Z position of the reference plane OSa. In this state, the uppermost layer LT and the lowermost layer LB of the Z acquisition target range are determined based on the output imaging data groups Da to Dd.

図6を参照してZ取得対象範囲の決定方法を説明する。図6は、上述したデータ処理部64で算出された評価指標プロファイルであり、横軸がZ位置、縦軸が評価指標を表す。撮像データ群Da〜Ddから算出された評価指標がそれぞれDCa〜DCdである。このプロファイルから、評価指標がピークとなるピークZ位置ZPを推定する。ピークの推定方法としては、図6のように所定のプロファイル形状モデルをDCa〜DCdにマッピングすることでピークを推定する方法でも良いし、単純にDCa〜DCdのうちの最大のものをピークに選ぶ方法でも良い。そして、推定されたピークZ位置ZPを中心とする所定のZ範囲をZ取得対象範囲とし、最上位層LTのZ位置ZTと最下位層LBのZ位置ZBとを決定する。ピークZ位置ZP、Z位置ZT、ZBはZステージの上面からの相対値として求めるとよい。   A method of determining the Z acquisition target range will be described with reference to FIG. FIG. 6 is an evaluation index profile calculated by the data processing unit 64 described above, with the horizontal axis representing the Z position and the vertical axis representing the evaluation index. Evaluation indexes calculated from the imaging data groups Da to Dd are DCa to DCd, respectively. From this profile, the peak Z position ZP at which the evaluation index reaches a peak is estimated. As a peak estimation method, a method of estimating a peak by mapping a predetermined profile shape model to DCa to DCd as shown in FIG. 6 may be used, or the maximum one of DCa to DCd is simply selected as a peak. The method is fine. Then, a predetermined Z range centered on the estimated peak Z position ZP is set as a Z acquisition target range, and the Z position ZT of the uppermost layer LT and the Z position ZB of the lowermost layer LB are determined. The peak Z position ZP, Z position ZT, and ZB may be obtained as relative values from the upper surface of the Z stage.

評価指標プロファイルからピークが推定できない場合には、基準面OSa〜OSdの範
囲内に観察すべき構造物が含まれていない、もしくは基準面OSa〜OSdの範囲以上に観察すべき構造物が広がっていると判断し、ステージ105のZ位置を1ステップ移動させた後に、上記と同様の処理を実行するとよい。この時、ステージ105のZ位置を1ステップ移動させる前のDCa〜DCdも使用してピークを推定することが望ましい。
When the peak cannot be estimated from the evaluation index profile, the structure to be observed is not included in the range of the reference planes OSa to OSd, or the structure to be observed extends beyond the range of the reference planes OSa to OSd. After moving the Z position of the stage 105 by one step, the same processing as described above may be executed. At this time, it is desirable to estimate the peak using DCa to DCd before moving the Z position of the stage 105 by one step.

ここで、試料の上端から下端までZ範囲探索処理を行ってもピークが推定できない場合がある。試料の上端とは、これより上には画像取得したい層は存在しない位置であり、例えばカバーグラス上面である。また、試料の下端とは、これより下には画像取得したい層は存在しない位置であり、例えばスライドグラス上面である。ピークが推定できないケースとしては、評価指標がいずれも小さい値である場合、評価指標がいずれも大きい値である場合、評価指標が不連続に変化する場合などがある。例えば、ある閾値(ピークとみなす下限値)を超える評価指標が一つもない場合には、評価指標がいずれも小さいと判定でき、逆に全部又はほとんどの評価指標がその閾値を超えていた場合は、評価指標がいずれも大きいと判定できる。評価指標が不連続に変化する場合とは、一つの評価指標のみが突出して大きい場合や、二つ以上のピークが現れている場合などである。これらは、例えば、隣の評価指標との差分(評価指標の傾き)の大きさや符号の変化を評価することで判定できる。   Here, the peak may not be estimated even if the Z range search process is performed from the upper end to the lower end of the sample. The upper end of the sample is a position above which no layer for image acquisition is present, for example, the upper surface of the cover glass. Further, the lower end of the sample is a position where there is no layer from which an image is to be acquired, for example, the upper surface of the slide glass. Cases where the peak cannot be estimated include a case where the evaluation indices are all small values, a case where the evaluation indices are all large values, and a case where the evaluation indices change discontinuously. For example, if there is no evaluation index that exceeds a certain threshold value (the lower limit value regarded as a peak), it can be determined that all of the evaluation indices are small, and conversely if all or most of the evaluation indices exceed the threshold value , It can be determined that both evaluation indices are large. The case where the evaluation index changes discontinuously is a case where only one evaluation index protrudes and is large, or a case where two or more peaks appear. These can be determined, for example, by evaluating the magnitude of the difference (slope of the evaluation index) and the change in the sign from the adjacent evaluation index.

上記のような試料の上端から下端までZ範囲探索処理を行ってもピークが推定できない場合には、基準面OSa〜OSdの間隔を、ピーク位置が推定できなかった初回の探索(第一の処理)時とは変更して再探索(第二の処理)すると良い。例えば、評価指標の変化が連続的でない場合、試料に対して探索が粗すぎ、ピーク位置が推定しにくくなっている可能性がある。この場合、基準面OSa〜OSdの間隔を狭くし、初回の評価指標プロファイルで最大値を示したZ位置のあたりに基準面OSa〜OSdが配置されるようにステージ105を制御する。そして、再び撮像ユニット104A〜104Dで撮像を行い、評価指標プロファイルからピーク推定を実行する。この方法によれば、初回の探索結果を元に、ピーク位置の可能性が高い付近を再探索するので、ピーク位置(観察すべき構造物が存在するZ位置)を正確に検出することが可能になる。   If the peak cannot be estimated even if the Z range search process is performed from the upper end to the lower end of the sample as described above, the interval between the reference planes OSa to OSd is searched for the first time when the peak position cannot be estimated (first process). ) Change the time and re-search (second process). For example, when the change in the evaluation index is not continuous, the search may be too rough for the sample, and the peak position may be difficult to estimate. In this case, the interval between the reference planes OSa to OSd is narrowed, and the stage 105 is controlled so that the reference planes OSa to OSd are arranged around the Z position that shows the maximum value in the initial evaluation index profile. Then, imaging is performed again by the imaging units 104A to 104D, and peak estimation is executed from the evaluation index profile. According to this method, based on the first search result, the vicinity where the possibility of the peak position is high is re-searched, so that the peak position (Z position where the structure to be observed exists) can be accurately detected. become.

あるいは、対物レンズ102のNA(開口数)を異なる値に設定して再探索処理を行うと良い。例えば、評価指標がいずれも小さい値である場合、いずれのステージ位置においても基準面OSa〜OSdとピーク位置とが離れており、いずれの撮像ユニット104A〜104Dにもボケた像が入射され、ピーク位置が推定しにくくなっている可能性がある。この場合、低NA(広焦点深度)に設定することによって、相対的に基準面OSa〜OSdの間隔を狭くしたのと同様の状態とすることができる。こうして、比較的ピーク位置に近い基準面に相当する撮像ユニットに入射される像のボケを小さくし、算出される評価指標の値を大きくすることができる。一方で、評価指標がいずれも大きい値である場合、いずれの基準面OSa〜OSdもピーク位置に十分近く、いずれの撮像ユニット104A〜104Dにもボケの大きな像は入射されず、ピーク位置が推定しにくくなっている可能性がある。この場合、高NA(狭焦点深度)に設定することによって、相対的に基準面OSa〜OSdの間隔を広くしたのと同様の状態とすることができる。こうして、比較的ピーク位置に遠い基準面に相当する撮像ユニットに入射される像のボケを大きくし、算出される評価指標の値を小さくすることができる。対物レンズ102のNAを調整する構成としては、複数の異なる開口の視野遮蔽板を用途に応じて配置するNA絞りや、複数の視野遮蔽羽根からなる虹彩絞りなどを用いることができる。   Alternatively, the re-search process may be performed by setting the NA (numerical aperture) of the objective lens 102 to a different value. For example, when the evaluation indices are all small values, the reference planes OSa to OSd and the peak positions are separated from each other at any stage position, and a blurred image is incident on any of the imaging units 104A to 104D. The position may be difficult to estimate. In this case, by setting to a low NA (wide focal depth), it is possible to achieve a state similar to that in which the intervals between the reference surfaces OSa to OSd are relatively narrow. In this way, the blur of the image incident on the imaging unit corresponding to the reference plane relatively close to the peak position can be reduced, and the calculated evaluation index value can be increased. On the other hand, when the evaluation indices are all large values, any of the reference planes OSa to OSd is sufficiently close to the peak position, and no blurred image is incident on any of the imaging units 104A to 104D, and the peak position is estimated. May be difficult to do. In this case, by setting to a high NA (narrow focal depth), it is possible to obtain a state similar to the case where the intervals between the reference planes OSa to OSd are relatively wide. In this way, it is possible to increase the blur of the image incident on the imaging unit corresponding to the reference plane that is relatively far from the peak position, and to reduce the value of the calculated evaluation index. As a configuration for adjusting the NA of the objective lens 102, an NA diaphragm in which a plurality of field-shielding plates with different openings are arranged according to the application, an iris diaphragm including a plurality of field-shielding blades, or the like can be used.

(2)多層画像取得処理
T1は、Z範囲探索処理で決定したZ取得対象範囲の多層画像取得処理を開始した時の状態を表す。この時、基準面OSa〜OSdの間隔は、対物レンズ102の被写界深度と同じ(又はそれ以下)に設定される。また、Z取得対象範囲の最上位層LTが、基準面O
SaのZ位置に一致するようにステージ105が制御される。この状態で、Z取得対象範囲内の最上位層LTから基準面OSdのZ位置に相当する層までの範囲が、撮像ユニット104A〜104Dにより撮像される。この状態で、Z取得対象範囲内の最下位層LBが、基準面OSa〜OSdのいずれの被写界深度からも外れていた場合には、ステージ105のZ位置を1ステップ移動させ、画像取得を繰り返す。
(2) Multilayer image acquisition process T1 represents a state when the multilayer image acquisition process of the Z acquisition target range determined in the Z range search process is started. At this time, the interval between the reference planes OSa to OSd is set to be the same as (or less than) the depth of field of the objective lens 102. In addition, the uppermost layer LT in the Z acquisition target range is the reference plane O.
The stage 105 is controlled so as to coincide with the Z position of Sa. In this state, the range from the uppermost layer LT in the Z acquisition target range to the layer corresponding to the Z position of the reference plane OSd is imaged by the imaging units 104A to 104D. In this state, when the lowest layer LB within the Z acquisition target range is out of any depth of field of the reference planes OSa to OSd, the Z position of the stage 105 is moved by one step to acquire an image. repeat.

(画像取得の方法)
本実施形態における画像取得装置100の画像取得方法について、図7に示すフローチャートを用いて説明する。
(Image acquisition method)
The image acquisition method of the image acquisition apparatus 100 in the present embodiment will be described with reference to the flowchart shown in FIG.

まずステップS601では、主制御部60が、画像取得装置100の処理条件(XY取得対象範囲等)を取得する。更に、主制御部60は、XY取得対象範囲に基づいてステージのXY移動順序(XYステージ制御目標値テーブル)を算出する。このテーブルには、スライド101上の複数の分割領域を順に撮像するために、各分割領域を対物レンズ102の視野内に移動させるためのXYステージの制御目標値が記述されている。なお、各分割領域の大きさは、撮像ユニットの有効撮像領域を対物レンズ102の物体側に投影した大きさに対応する。   First, in step S601, the main control unit 60 acquires processing conditions (such as an XY acquisition target range) of the image acquisition apparatus 100. Further, the main control unit 60 calculates the XY movement order (XY stage control target value table) of the stage based on the XY acquisition target range. In this table, control target values of the XY stage for moving each divided area within the field of view of the objective lens 102 in order to sequentially capture a plurality of divided areas on the slide 101 are described. Note that the size of each divided area corresponds to the size of the effective imaging area of the imaging unit projected onto the object side of the objective lens 102.

次のステップS602では、主制御部60が、XY移動順序に基づいて(例えば、XYステージ制御目標値テーブルから、1番上の行に記載の目標値を読み出して)、ステージ位置制御部61を介してステージ105を制御する。また、移動後のステージ105のXY位置座標を取得する。更に、主制御部60が、撮像ユニット位置制御部62を介して撮像ユニット移動機構108A〜108Dを制御し、撮像ユニット104A〜104Dを光軸方向に移動させる。そして、基準面OSa〜OSd同士の間隔をZ範囲探索処理時の第一の間隔(例えば、対物レンズ102の被写界深度の4倍)に設定する。   In the next step S602, the main control unit 60 moves the stage position control unit 61 based on the XY movement order (for example, by reading the target value described in the top row from the XY stage control target value table). The stage 105 is controlled via Further, the XY position coordinates of the stage 105 after movement are acquired. Further, the main control unit 60 controls the imaging unit moving mechanisms 108A to 108D via the imaging unit position control unit 62 to move the imaging units 104A to 104D in the optical axis direction. Then, the interval between the reference planes OSa to OSd is set to the first interval (for example, four times the depth of field of the objective lens 102) during the Z range search process.

次のステップS603では、主制御部60が、ステージ位置制御部61、撮像制御部63、データ処理部64を介してZ範囲探索処理を実行し、Z取得対象範囲を決定する。このステップの詳細は、図8で後述する。   In the next step S603, the main control unit 60 executes a Z range search process via the stage position control unit 61, the imaging control unit 63, and the data processing unit 64, and determines a Z acquisition target range. Details of this step will be described later with reference to FIG.

次のステップS604では、主制御部60が、撮像ユニット位置制御部62を介して撮像ユニット移動機構108A〜108Dを制御し、撮像ユニット104A〜104Dを光軸方向に移動させる。そして、基準面OSa〜OSd同士の間隔を多層画像取得処理時の第二の間隔(例えば、対物レンズ102の被写界深度以下)に設定する。   In the next step S604, the main control unit 60 controls the imaging unit moving mechanisms 108A to 108D via the imaging unit position control unit 62 to move the imaging units 104A to 104D in the optical axis direction. Then, the interval between the reference planes OSa to OSd is set to the second interval (for example, the depth of field of the objective lens 102 or less) at the time of the multilayer image acquisition process.

次のステップS605では、主制御部60が、ステージ位置制御部61、撮像制御部63、データ処理部64を介して多層画像取得処理を実行し、Z取得対象範囲内の複数の観察対象層の画像を取得する。このステップの詳細は、図9で後述する。   In the next step S605, the main control unit 60 executes a multilayer image acquisition process via the stage position control unit 61, the imaging control unit 63, and the data processing unit 64, and sets a plurality of observation target layers within the Z acquisition target range. Get an image. Details of this step will be described later with reference to FIG.

次のステップS606では、主制御部60が、XY取得対象範囲内の画像取得が完了したか(XYステージ制御目標値テーブルの最後の行まで実行したか)否かを判断する。完了したと判断した場合、ステップS607へ移行する。一方、未完であると判断した場合、ステップS602へ移行し、XYステージ制御目標値テーブルから読み出す行を1つ進め、ステージ位置制御部61を介したステージ105の制御を続ける。   In the next step S606, the main control unit 60 determines whether image acquisition within the XY acquisition target range has been completed (has been executed up to the last row of the XY stage control target value table). If it is determined that the process has been completed, the process proceeds to step S607. On the other hand, if it is determined that the process is incomplete, the process proceeds to step S602, where one line read from the XY stage control target value table is advanced, and the control of the stage 105 via the stage position control unit 61 is continued.

次のステップS607では、主制御部60が、データ処理部64を介して表示用画像データを生成制御し、画像取得を完了する。   In the next step S607, the main control unit 60 generates and controls display image data via the data processing unit 64 and completes image acquisition.

(Z範囲探索処理)
Z範囲探索処理の詳細について、図8に示すフローチャートを用いて説明する。
(Z range search process)
Details of the Z range search processing will be described with reference to the flowchart shown in FIG.

まずステップS611では、ステージ位置制御部61が、ステージ105のZ移動の目標位置を決定し、ステージ105を制御する。また、ステージ位置制御部61が、移動後のステージ105のZ位置座標を取得する。   First, in step S <b> 611, the stage position control unit 61 determines a target position for the Z movement of the stage 105 and controls the stage 105. Further, the stage position control unit 61 acquires the Z position coordinates of the stage 105 after the movement.

ステージ移動と撮像を複数回繰り返す場合、ステップS611におけるZ移動の目標位置の決定処理の内容は、1回目の場合と、2回目以降の場合とで異なる。1回目には、探索範囲の上端又は下端のうちの近い方に基準面が合うようにZステージの移動を行う。例えば、ステージ位置制御部61は、試料の上端と基準面OSaのZ位置の差と、試料の下端と基準面OSdのZ位置の差を比較する。試料の上端とは、これより上には画像取得したい層は存在しない位置であり、例えばカバーグラス上面である。また、試料の下端とは、これより下には画像取得したい層は存在しない位置であり、例えばスライドグラス上面である。カバーグラス上面およびスライドグラス上面の位置は、予めメモリに記憶しておいた所定値(例えば、観察対象として想定されるサンプルのカバーグラス上面の最高値およびスライドグラス上面の最低値)や、別途用意した計測手段による計測値、ユーザによる指定値等をステップS601において処理条件と同時に取得しておけば良い。前者が小さかった場合、試料の上端と基準面OSaのZ位置が一致するようにZステージを移動させ、2回目以降のZステージの移動方向を「上」に設定する。後者が小さかった場合、試料の下端と基準面OSdのZ位置が一致するようにZステージを移動させ、2回目以降のZステージの移動方向を「下」に設定する。2回目以降のステップS611では、設定された移動方向にZステージを1ステップ(基準面OSa〜OSd同士の間隔の4倍)シフト移動させる。   When the stage movement and the imaging are repeated a plurality of times, the content of the determination process of the target position for the Z movement in step S611 differs between the first time and the second and subsequent times. In the first time, the Z stage is moved so that the reference plane is closer to the upper end or lower end of the search range. For example, the stage position control unit 61 compares the difference between the Z position of the upper end of the sample and the reference plane OSa and the difference of the Z position of the lower end of the sample and the reference plane OSd. The upper end of the sample is a position above which no layer for image acquisition is present, for example, the upper surface of the cover glass. Further, the lower end of the sample is a position where there is no layer from which an image is to be acquired, for example, the upper surface of the slide glass. The positions of the upper surface of the cover glass and the upper surface of the slide glass are prepared in advance in a predetermined value (for example, the maximum value of the upper surface of the cover glass and the lowest value of the upper surface of the slide glass, which are supposed to be observed), or prepared separately. The measured value obtained by the measuring means, the value designated by the user, etc. may be acquired at the same time as the processing conditions in step S601. If the former is small, the Z stage is moved so that the upper end of the sample and the Z position of the reference plane OSa coincide with each other, and the second and subsequent Z stage movement directions are set to “up”. When the latter is small, the Z stage is moved so that the lower end of the sample and the Z position of the reference surface OSd coincide with each other, and the movement direction of the second and subsequent Z stages is set to “down”. In the second and subsequent steps S611, the Z stage is shifted by one step (four times the interval between the reference planes OSa to OSd) in the set moving direction.

本実施形態では、上記のような判定を行い、1回目のZ位置と2回目以降のステージ移動方向を決定することで、ステージの移動量を最小にでき、Z範囲探索処理の時間短縮を図ることができる。ただし、ステージ移動の時間が問題とならない場合には、こうした判定を行わず、予め決められた移動方向あるいはユーザから指示された移動方向で制御してもよい。   In the present embodiment, the determination as described above is performed, and the first Z position and the second and subsequent stage movement directions are determined, whereby the amount of stage movement can be minimized and the time required for the Z range search process can be shortened. be able to. However, when the stage moving time does not matter, the determination may be performed without using such a determination, and the control may be performed in a predetermined moving direction or a moving direction instructed by the user.

次のステップS612では、撮像制御部63が、撮像ユニット104A〜104Dによる撮像を制御し、撮像データ群Da〜Ddを取得する。また、撮像制御部63は、撮像データと関連付けて、取得した画像の位置情報を取得する。ここで、Z範囲探索処理時には、高空間分解能な撮像データを必要としないため、撮像ユニット104A〜104Dに対し、撮像データを間引くように制御することで、高速化できる。   In the next step S612, the imaging control unit 63 controls imaging by the imaging units 104A to 104D, and acquires imaging data groups Da to Dd. Further, the imaging control unit 63 acquires positional information of the acquired image in association with the imaging data. Here, at the time of the Z range search process, imaging data with high spatial resolution is not required. Therefore, it is possible to increase the speed by controlling the imaging units 104A to 104D to thin out the imaging data.

次のステップS613では、データ処理部64が、撮像データ群Da〜Ddから、評価指標DCa〜DCdを算出する。また、データ処理部64が、この評価指標と撮像データに関連付けられたスライド101上のZ位置情報とから、評価指標のプロファイルを作成し、評価指標がピークを示す(Zステージ上面基準の)ピークZ位置を推定する。このピークZ位置に基づいてZ取得対象範囲を決定する。   In the next step S613, the data processing unit 64 calculates evaluation indices DCa to DCd from the imaging data groups Da to Dd. Further, the data processing unit 64 creates a profile of the evaluation index from the evaluation index and the Z position information on the slide 101 associated with the imaging data, and the evaluation index shows a peak (based on the Z stage top surface). Estimate the Z position. A Z acquisition target range is determined based on the peak Z position.

次のステップS614では、主制御部60が、Z範囲探索が完了したか否かを判断する。判断方法としては、評価指標がピークとなる(Zステージ上面基準の)ピークZ位置を推定できたか否かとする。完了したと判断した場合、Z範囲探索処理を終了する。一方、未完であると判断した場合、ステップS611へ移行し、ステージ位置制御部61を介してステージ105を制御する。ここで、ピークZ位置を推定できないまま、試料の上端もしくは下端に到達してしまった場合に、前述した再探索処理を行うと良い。   In the next step S614, the main control unit 60 determines whether or not the Z range search is completed. As a determination method, it is determined whether or not the peak Z position (based on the upper surface of the Z stage) at which the evaluation index is a peak can be estimated. If it is determined that the process has been completed, the Z range search process is terminated. On the other hand, if it is determined that it is incomplete, the process proceeds to step S611, and the stage 105 is controlled via the stage position control unit 61. Here, when the peak Z position cannot be estimated and the sample reaches the upper end or the lower end of the sample, the above-described re-search process may be performed.

(多層画像取得処理)
多層画像取得処理の詳細について、図9に示すフローチャートを用いて説明する。
(Multilayer image acquisition processing)
Details of the multilayer image acquisition processing will be described with reference to the flowchart shown in FIG.

まずステップS621では、ステージ位置制御部61が、ステージ105のZ移動の目標位置を決定し、ステージ105を制御する。また、ステージ位置制御部61が、移動後のステージ105のZ位置座標を取得する。   First, in step S <b> 621, the stage position control unit 61 determines a target position for Z movement of the stage 105 and controls the stage 105. Further, the stage position control unit 61 acquires the Z position coordinates of the stage 105 after the movement.

ステージ移動と撮像を複数回繰り返す場合、ステップS621におけるZ移動の目標位置の決定処理の内容は、1回目の場合と、2回目以降の場合とで異なる。1回目には、Z取得対象範囲の上端(最上位層LT)又は下端(最下位層LB)のうちの近い方に基準面が合うようにZステージの移動を行う。例えば、ステージ位置制御部61は、Z取得対象範囲の最上位層LTと基準面OSaのZ位置の差と、Z取得対象範囲の最下位層LBと基準面OSdのZ位置の差を比較する。前者が小さかった場合、最上位層LTと基準面OSaのZ位置が一致するようにZステージを移動させ、2回目以降のZステージの移動方向を「上」に設定する。後者が小さかった場合、最下位層LBと基準面OSdのZ位置が一致するようにZステージを移動させ、2回目以降のZステージの移動方向を「下」に設定する。2回目以降のステップS621では、設定された移動方向にZステージを1ステップ(基準面OSa〜OSd同士の間隔の4倍)シフト移動させる。   When stage movement and imaging are repeated a plurality of times, the content of the Z movement target position determination process in step S621 differs between the first time and the second and subsequent times. In the first time, the Z stage is moved so that the reference plane is closer to the upper end (uppermost layer LT) or lower end (lowermost layer LB) of the Z acquisition target range. For example, the stage position control unit 61 compares the difference between the Z positions of the uppermost layer LT and the reference plane OSa in the Z acquisition target range and the difference between the Z positions of the lowermost layer LB and the reference plane OSd in the Z acquisition target range. . When the former is small, the Z stage is moved so that the Z positions of the uppermost layer LT and the reference surface OSa coincide with each other, and the second and subsequent Z stage moving directions are set to “up”. When the latter is small, the Z stage is moved so that the Z positions of the lowest layer LB and the reference plane OSd coincide with each other, and the movement direction of the second and subsequent Z stages is set to “down”. In step S621 after the second time, the Z stage is shifted by one step (four times the interval between the reference planes OSa to OSd) in the set moving direction.

本実施形態では、上記のような判定を行い、1回目のZ位置と2回目以降のステージ移動方向を決定することで、ステージの移動量を最小にでき、多層画像取得処理の時間短縮を図ることができる。ただし、ステージ移動の時間が問題とならない場合には、こうした判定を行わず、予め決められた移動方向あるいはユーザから指示された移動方向で制御してもよい。   In the present embodiment, the determination as described above is performed, and the first Z position and the second and subsequent stage movement directions are determined, whereby the amount of stage movement can be minimized and the time required for multilayer image acquisition processing can be shortened. be able to. However, when the stage moving time does not matter, the determination may be performed without using such a determination, and the control may be performed in a predetermined moving direction or a moving direction instructed by the user.

次のステップS622では、撮像制御部63が、撮像ユニット104A〜104Dによる撮像を制御し、撮像データ群Da〜Ddを入力する。また、撮像制御部63は、撮像データと関連付けて、取得した画像の位置情報を取得する。   In the next step S622, the imaging control unit 63 controls imaging by the imaging units 104A to 104D, and inputs imaging data groups Da to Dd. Further, the imaging control unit 63 acquires positional information of the acquired image in association with the imaging data.

次のステップS623では、主制御部60が、Z取得対象範囲内の画像取得が完了したか否かを判断する。判断方法としては、Z取得対象範囲の最下位層LBのZ位置(2回目以降のZステージの移動方向が「上」の場合)もしくはZ取得対象範囲の最上位層LBのZ位置(2回目以降のZステージの移動方向が「下」の場合)が基準面OSa〜OSdのいずれかの被写界深度内に入っているかどうかで判断する。完了したと判断した場合、ステップS624へ移行する。一方、未完であると判断した場合、ステップS621へ移行し、ステージ位置制御部61を介してステージ105を制御する。   In the next step S623, the main control unit 60 determines whether image acquisition within the Z acquisition target range is completed. As a determination method, the Z position of the lowest layer LB in the Z acquisition target range (when the movement direction of the second and subsequent Z stages is “up”) or the Z position of the uppermost layer LB in the Z acquisition target range (second time) Judgment is made based on whether or not the subsequent Z stage moving direction is “down”) is within the depth of field of any of the reference planes OSa to OSd. If it is determined that the process has been completed, the process proceeds to step S624. On the other hand, if it is determined that it is incomplete, the process proceeds to step S621, and the stage 105 is controlled via the stage position control unit 61.

次のステップS624では、主制御部60が、データ処理部64を介して、撮像データ群とそのZ位置情報に基づいて、分割領域内の全ての箇所で焦点が合った全焦点画像データおよび/または厚み方向の形状分布が把握できる三次元画像データを生成する。そして、Z取得対象範囲内の多層画像取得処理を完了する。   In the next step S624, the main control unit 60, through the data processing unit 64, based on the imaging data group and the Z position information thereof, the omnifocal image data and / Alternatively, three-dimensional image data that can grasp the shape distribution in the thickness direction is generated. Then, the multilayer image acquisition process within the Z acquisition target range is completed.

(本実施形態の利点)
以上述べた本実施形態の構成によれば、複数の撮像ユニットそれぞれの基準面が試料内の異なる高さ(Z位置)にあり、かつ、目的とする処理に応じて基準面同士の間隔を変えることができる。これにより、例えばZ範囲探索処理のように試料内の広いZ範囲を観察(分析)する必要があるときは、基準面の間隔を広めにとるなど、効率(処理時間の短縮)を重視した設定にできる。また、多層画像取得処理のように試料内の限られたZ範囲を高い分解能で観察(分析)する必要があるときは、基準面の間隔を狭くし、画像品質を重視した設定にできる。このように、目的とする処理に応じて適応的に基準面の間隔を制御することで、全体としての処理の効率化及び処理時間の短縮を図ることが可能となる。加えて、一つの撮像系でZ範囲探索処理と多層画像取得処理のような目的の異なる処理に柔
軟に対応できるため、装置全体の小型化と低コストを図ることもできる。
(Advantages of this embodiment)
According to the configuration of the present embodiment described above, the reference planes of the plurality of imaging units are at different heights (Z positions) in the sample, and the interval between the reference planes is changed according to the target processing. be able to. As a result, when it is necessary to observe (analyze) a wide Z range in the sample, for example, as in the Z range search process, a setting that emphasizes efficiency (reduction of processing time) such as increasing the interval between the reference planes. Can be. In addition, when it is necessary to observe (analyze) a limited Z range in the sample with high resolution as in the multi-layer image acquisition process, the interval between the reference planes can be narrowed to set the image quality as important. As described above, the interval between the reference planes is adaptively controlled in accordance with the target process, whereby the efficiency of the process as a whole and the reduction of the processing time can be achieved. In addition, since a single imaging system can flexibly cope with different purposes such as Z range search processing and multilayer image acquisition processing, the entire apparatus can be reduced in size and cost.

<第2実施形態>
次に、本発明の第2実施形態の画像取得装置について説明する。第1実施形態では、Z範囲探索処理と多層画像取得処理とで基準面の間隔を変更したのに対し、第2実施形態では、Z範囲探索処理とカラー画像取得処理とで基準面の間隔を変更する。
Second Embodiment
Next, an image acquisition apparatus according to a second embodiment of the present invention will be described. In the first embodiment, the reference plane interval is changed between the Z range search process and the multilayer image acquisition process. In the second embodiment, the reference plane interval is changed between the Z range search process and the color image acquisition process. change.

(画像取得装置の構成)
図10は、第2実施形態に係る画像取得装置300の構成を示す図である。図10に基づいて、画像取得装置300の構成について説明する。以下の説明においては、Z方向を結像光学系302の光軸方向、XY方向をその光軸に垂直な方向と定義する。Z方向は、試料の高さ方向(厚み方向)とも一致する。
(Configuration of image acquisition device)
FIG. 10 is a diagram illustrating a configuration of an image acquisition apparatus 300 according to the second embodiment. The configuration of the image acquisition device 300 will be described based on FIG. In the following description, the Z direction is defined as the optical axis direction of the imaging optical system 302 and the XY direction is defined as the direction perpendicular to the optical axis. The Z direction also coincides with the height direction (thickness direction) of the sample.

画像取得装置300は、結像光学系302、光源309、光路色分割ユニット303、撮像ユニット304A〜304C、撮像ユニット移動機構308A〜308C、ステージ305、制御ユニット306、表示ユニット307を有する。結像光学系302は、試料であるスライド301から入射される光を集光する光学系である。光源309は、スライド301に光を当てる照明である。光路色分割ユニット303は、光路分割と色分割の機能をもつ光学部材であり、結像光学系302からの光束を3つの光路および色に分割する分割手段である。撮像ユニット304A〜304Cは、分割光路それぞれの光軸上に配置された複数の撮像手段である。撮像ユニット移動機構308A〜308Cは、撮像ユニット304A〜304Cをそれぞれ光軸方向に移動させる変更手段である。ステージ305は、スライド301を保持し移動させる第二の変更手段である。制御ユニット306は、画像取得装置300を制御して表示用画像データを生成する制御手段である。表示ユニット307は、デジタル画像を表示する表示手段である。   The image acquisition apparatus 300 includes an imaging optical system 302, a light source 309, an optical path color division unit 303, imaging units 304A to 304C, imaging unit moving mechanisms 308A to 308C, a stage 305, a control unit 306, and a display unit 307. The imaging optical system 302 is an optical system that collects light incident from the slide 301 as a sample. The light source 309 is illumination that applies light to the slide 301. The optical path color splitting unit 303 is an optical member having functions of optical path splitting and color splitting, and splitting means for splitting the light beam from the imaging optical system 302 into three optical paths and colors. The imaging units 304A to 304C are a plurality of imaging units disposed on the optical axes of the divided optical paths. The imaging unit moving mechanisms 308A to 308C are changing units that move the imaging units 304A to 304C in the optical axis direction, respectively. The stage 305 is a second changing unit that holds and moves the slide 301. The control unit 306 is control means for controlling the image acquisition device 300 to generate display image data. The display unit 307 is display means for displaying a digital image.

スライド301の位置がステージ305によって移動制御され、スライド301の同一又は異なる層が、結像光学系302、光路色分割ユニット303を介して、撮像ユニット304A〜304Cによって同時に撮像される。光路色分割ユニット303によって、撮像ユニット304A、304B、304Cは夫々異なる色の画像を撮像する。本実施形態においては一例として、撮像ユニット304AはRを、撮像ユニット304BはGを、撮像ユニット304CはBを撮像するように設定されている。すなわち、本実施形態の画像取得装置300は、1ショット(1回の露光・撮像)で3つの層の単色画像を取得することもできるし、1つの層のRGBの高精細カラー画像を取得することもできる。   The position of the slide 301 is moved and controlled by the stage 305, and the same or different layers of the slide 301 are simultaneously imaged by the imaging units 304A to 304C via the imaging optical system 302 and the optical path color dividing unit 303. By the optical path color division unit 303, the imaging units 304A, 304B, and 304C capture images of different colors. In this embodiment, as an example, the imaging unit 304A is set to capture R, the imaging unit 304B is set to G, and the imaging unit 304C is set to capture B. That is, the image acquisition apparatus 300 according to the present embodiment can acquire a single layer image of three layers by one shot (one exposure and imaging), or can acquire an RGB high-definition color image of one layer. You can also.

スライド301は、本実施形態の画像取得装置300の画像取得対象物であり、カバーグラスと試料とスライドグラスを含んで構成される。具体的には、スライドグラス上に配置された試料(組織切片等の生体サンプルなど)が、カバーグラス及び封入剤で密封されている。   The slide 301 is an image acquisition target of the image acquisition apparatus 300 of the present embodiment, and includes a cover glass, a sample, and a slide glass. Specifically, a sample (such as a biological sample such as a tissue section) placed on a slide glass is sealed with a cover glass and an encapsulant.

結像光学系302は、対物レンズ、結像レンズ、ミラーなどの光学部品の組み合わせで構成される光学系であり、不図示の本体フレームおよび鏡筒によって保持される。結像光学系302は、光路色分割ユニット303との組み合わせで、スライド301の像を撮像ユニット304A〜304Cの受光面に結像させる。また、結像光学系302は、スライド301の光像を所定の倍率で拡大し、撮像ユニット304A〜304Cのいずれの受光面においても同じ拡大率で投影する。更に、結像光学系302は、その光軸に垂直な3つの基準面と撮像ユニット304A〜304Cの受光面それぞれとが互いに光学的共役となるように配置されており、物体側が基準面に相当し、像側が受光面(撮像面)に相当する。   The imaging optical system 302 is an optical system composed of a combination of optical components such as an objective lens, an imaging lens, and a mirror, and is held by a main body frame and a lens barrel (not shown). The imaging optical system 302 forms an image of the slide 301 on the light receiving surfaces of the imaging units 304A to 304C in combination with the optical path color dividing unit 303. In addition, the imaging optical system 302 enlarges the optical image of the slide 301 at a predetermined magnification, and projects the light image on any light receiving surface of the imaging units 304A to 304C at the same magnification. Further, the imaging optical system 302 is arranged such that three reference surfaces perpendicular to the optical axis and the light receiving surfaces of the imaging units 304A to 304C are optically conjugate with each other, and the object side corresponds to the reference surface. The image side corresponds to the light receiving surface (imaging surface).

光路色分割ユニット303は、不図示の本体フレームあるいは結像光学系302の鏡筒によって保持され、結像光学系302から入射された光路を、撮像ユニット304A〜304Cに向けて3分割するための光学系である。光路色分割ユニット303には、例えば、ダイクロイックプリズムなどを適用することができる。光路色分割ユニット303は、結像光学系302の視野全域が各撮像ユニット304A〜304Cの受光面に投影されるように構成・配置される。   The optical path color division unit 303 is held by a body frame (not shown) or a lens barrel of the imaging optical system 302, and divides the optical path incident from the imaging optical system 302 into three toward the imaging units 304A to 304C. It is an optical system. For the optical path color dividing unit 303, for example, a dichroic prism or the like can be applied. The optical path color division unit 303 is configured and arranged so that the entire field of view of the imaging optical system 302 is projected onto the light receiving surfaces of the imaging units 304A to 304C.

ここでは、共役関係となる基準面(物体面)と受光面(撮像面)のペアが色別にかつ離散的に(空間的に離れて)複数組存在することが重要である。本実施形態の画像取得装置300では、結像光学系302と光路色分割ユニット303の組み合わせからなる光学系によってそれが実現されているが、この光学系に限定するものではない。例えば、図16に示すように、光路色分割ユニット303後段の各光路上にそれぞれ結像レンズ310A〜310Cを配置してもよい。ここで、光路色分割ユニット303上で分割される光は、色分岐する面において所望の入射角の範囲に収まっており、撮像ユニット304A〜304Cの各々で、色別の像を取得する。   Here, it is important that a plurality of pairs of reference planes (object planes) and light receiving planes (imaging planes) having a conjugate relationship exist for each color and discretely (spaced apart). In the image acquisition apparatus 300 of this embodiment, this is realized by an optical system composed of a combination of the imaging optical system 302 and the optical path color dividing unit 303, but the present invention is not limited to this optical system. For example, as shown in FIG. 16, the imaging lenses 310 </ b> A to 310 </ b> C may be arranged on each optical path subsequent to the optical path color dividing unit 303. Here, the light split on the optical path color splitting unit 303 falls within a desired incident angle range on the color splitting surface, and each of the image pickup units 304A to 304C acquires an image for each color.

撮像ユニット304A〜304Cは、不図示の本体フレームあるいは結像光学系302の鏡筒によって保持され、CCDやCMOSセンサ等の(2次元)撮像素子により構成される。高画素センサを使用することで、広域からの高空間分解能画像の一括取得を可能とする。また、結像光学系302の視野全域が投影されるように、撮像ユニット304A〜304Cが構成・配置される。各撮像ユニット304A〜304Cの受光面と光学的に共役な位置にある試料側(物体側)の面を「基準面」と呼ぶ。3つの撮像ユニット304A〜304Cに対応する3つの基準面のZ方向(光軸方向)の位置を一致させれば、スライド301内のある層のR画像、G画像、B画像を同時に撮像できる。一方、3つの基準面のZ方向の位置を異ならせることで、スライド301内の異なるZ位置の3つの層の画像を同時に撮像できる。撮像ユニット304A〜304Cからの出力データの取り込みは、制御ユニット306によって制御される。   The imaging units 304A to 304C are held by a body frame (not shown) or a lens barrel of the imaging optical system 302, and are configured by (two-dimensional) imaging elements such as a CCD and a CMOS sensor. By using a high pixel sensor, it is possible to collect high spatial resolution images from a wide area. Further, the imaging units 304A to 304C are configured and arranged so that the entire field of view of the imaging optical system 302 is projected. A surface on the sample side (object side) at a position optically conjugate with the light receiving surfaces of the imaging units 304A to 304C is referred to as a “reference surface”. By matching the positions of the three reference planes corresponding to the three imaging units 304A to 304C in the Z direction (optical axis direction), an R image, a G image, and a B image of a certain layer in the slide 301 can be simultaneously captured. On the other hand, by varying the positions of the three reference planes in the Z direction, images of three layers at different Z positions in the slide 301 can be taken simultaneously. Capture of output data from the imaging units 304 </ b> A to 304 </ b> C is controlled by the control unit 306.

撮像ユニット移動機構308A〜308Cは、制御ユニット306から出力される制御目標値に応じて、撮像ユニット304A〜304Cをそれぞれ光軸方向に移動させる。撮像ユニット移動機構308A〜308Cは、後述するZステージの位置決め精度に対し、結像光学系302の光学倍率の2乗程度の位置決め精度で駆動可能であれば良い。該移動機構は、リニアモータ、直動ガイドを用いたステージ、直動ボールネジを用いたDCモータ、パルスモータ、VCMなどで駆動する直動システムや、板バネなどの弾性変形を利用した案内機構とピエゾアクチュエータを用いた機構などで構成できる。   The imaging unit moving mechanisms 308A to 308C move the imaging units 304A to 304C in the optical axis direction according to the control target value output from the control unit 306, respectively. The imaging unit moving mechanisms 308 </ b> A to 308 </ b> C only need to be able to be driven with a positioning accuracy of about the square of the optical magnification of the imaging optical system 302 with respect to the positioning accuracy of the Z stage described later. The moving mechanism includes a linear motor, a stage using a linear motion guide, a DC motor using a linear motion ball screw, a pulse motor, a linear motion system driven by a VCM, a guide mechanism using elastic deformation of a leaf spring, and the like. A mechanism using a piezo actuator can be used.

撮像ユニット304A〜304Cが移動することで、3つの基準面同士のZ方向の間隔(ピッチ)が変更され、任意の高さにある複数(3つ)の層が同時に撮像可能となる。本実施形態においては、後述するZ範囲探索処理(第一の処理)と探索したZ範囲のカラー画像取得処理(第二の処理)との間で、3つの基準面同士のZ相対位置を変更させる。この構成によって、各撮像ユニットは、Z範囲探索処理時の位置とカラー画像取得処理時の位置との、2ポジションの移動で済むため、比較的簡易な機構によって構成可能となる。   By moving the imaging units 304A to 304C, the interval (pitch) in the Z direction between the three reference planes is changed, and a plurality of (three) layers at an arbitrary height can be simultaneously imaged. In the present embodiment, the Z relative positions of the three reference planes are changed between a Z range search process (first process) described later and a color image acquisition process (second process) of the searched Z range. Let With this configuration, each imaging unit can be configured with a relatively simple mechanism because it only needs to move two positions, the position during the Z range search process and the position during the color image acquisition process.

本実施形態では、すべての撮像ユニット304A〜304Cが移動する構成としたが、1つの撮像ユニットを固定し(撮像ユニット移動機構を設置しない)、他の撮像ユニットの相対位置を移動させる構成としてもよい。これにより、撮像ユニット移動機構の数が減り、構成が簡易になる。   In the present embodiment, all the imaging units 304A to 304C move. However, one imaging unit may be fixed (the imaging unit moving mechanism is not installed) and the relative position of the other imaging units may be moved. Good. Thereby, the number of imaging unit moving mechanisms is reduced, and the configuration is simplified.

また、本実施形態では、一例として、撮像ユニット304A〜304Cをそれぞれ光軸方向に移動させることで3つの基準面間のZ相対位置を変更する構成とした。この構成に
限らず、分割光路上それぞれに複数のミラーやリレーレンズを配置し、それらを移動させることで分割光路の光路長を変更し、3つ以上の基準面間のZ相対位置を変更する構成としても良い。
In the present embodiment, as an example, the Z relative position between the three reference planes is changed by moving the imaging units 304A to 304C in the optical axis direction. In addition to this configuration, a plurality of mirrors and relay lenses are arranged on each divided optical path, and the optical path length of the divided optical path is changed by moving them, and the Z relative position between three or more reference planes is changed. It is good also as a structure.

ステージ305は、スライド301を保持する保持部と、制御ユニット306から出力される制御目標値に応じて、保持部をXY方向に移動させるXYステージと、保持部をZ方向に移動させるZステージを含む(いずれも不図示)。XYステージは、特に、一般的なスライドサイズの76mm×26mm以上の広範囲に駆動可能なものが好ましい。XYステージは、リニアモータ、直動ガイドを用いたステージ、直動ボールネジを用いたDCモータ、パルスモータ、VCMなどで駆動する直動システムなどで構成することができる。一方、Zステージは、特に、0.1um以下の位置決め精度で駆動可能なものが好ましい。Zステージは、リニアモータや、直動ガイドを用いたステージ、直動ボールネジを用いたDCモータ、パルスモータ、VCMなどで駆動する直動システムや、板バネ案内機構とピエゾアクチュエータを用いた機構などで構成することができる。   The stage 305 includes a holding unit that holds the slide 301, an XY stage that moves the holding unit in the XY direction according to a control target value output from the control unit 306, and a Z stage that moves the holding unit in the Z direction. Included (both not shown). In particular, the XY stage is preferably capable of being driven over a wide range of a general slide size of 76 mm × 26 mm or more. The XY stage can be configured by a linear motor, a stage using a linear motion guide, a DC motor using a linear motion ball screw, a pulse motor, a linear motion system driven by a VCM, or the like. On the other hand, the Z stage is preferably one that can be driven with a positioning accuracy of 0.1 μm or less. The Z stage is a linear motor, a stage using a linear motion guide, a DC motor using a linear motion ball screw, a pulse motor, a linear motion system driven by a VCM, a mechanism using a leaf spring guide mechanism and a piezoelectric actuator, etc. Can be configured.

XYステージが移動することで、スライド301と結像光学系302とのXY相対位置が変更され、スライド301の所望の領域の分割画像が取得可能となる。また、XY移動を連続して制御することで、スライド301の広域からの分割画像の取得が可能となる。広域から画像取得するためのXY移動順序は、XY取得対象範囲に基づいて決定する。XY取得対象範囲は、不図示の予備計測系によって予め計測した、試料のXY形状情報に基づいて決定しても良いし、必要に応じてユーザからの指示に基づいても良い。XY取得対象範囲の設定によって、病理診断などに必要な領域の画像データを選択的に生成することができ、例えば試料の存在しない領域等を排除して表示用画像データの容量を小さくし、データのハンドリングを容易にできる。なお、通常は、検出した試料の存在領域と等しくなるようにXY取得対象領域を決定する。   By moving the XY stage, the XY relative position between the slide 301 and the imaging optical system 302 is changed, and a divided image of a desired region of the slide 301 can be acquired. In addition, by continuously controlling the XY movement, it is possible to acquire a divided image from a wide area of the slide 301. The XY movement order for acquiring images from a wide area is determined based on the XY acquisition target range. The XY acquisition target range may be determined based on the XY shape information of the sample measured in advance by a preliminary measurement system (not shown), or may be based on an instruction from the user as necessary. By setting the XY acquisition target range, it is possible to selectively generate image data of a region necessary for pathological diagnosis and the like. Can be handled easily. Normally, the XY acquisition target area is determined so as to be equal to the detected area of the sample.

一方、Zステージが移動することで、スライド301と結像光学系302の3つの基準面とのZ相対位置が変更され、スライド301内の所望の観察対象層を被写界深度内とした複数層の画像が同時に取得可能となる。また、Z移動を連続して制御しながら画像の取得を繰り返すことで、スライド301の同じXY領域に対し多層の画像の取得が可能となる。この処理を多層画像取得処理とよぶ。多層画像取得処理におけるZ移動順序は、Z取得対象範囲に基づいて決定する。なお、本実施形態では、一例として、Zステージが移動することでスライド301と結像光学系302の3つの基準面とのZ相対位置を変更する構成としたが、結像光学系302または撮像ユニット304A〜304Cが移動する構成としても良い。   On the other hand, when the Z stage moves, the Z relative position between the slide 301 and the three reference planes of the imaging optical system 302 is changed, and a plurality of desired observation target layers in the slide 301 are within the depth of field. Layer images can be acquired simultaneously. Further, by repeatedly acquiring images while continuously controlling the Z movement, it is possible to acquire multilayer images for the same XY area of the slide 301. This process is called a multilayer image acquisition process. The Z movement order in the multilayer image acquisition process is determined based on the Z acquisition target range. In this embodiment, as an example, the Z relative position between the slide 301 and the three reference planes of the imaging optical system 302 is changed by moving the Z stage. The units 304A to 304C may be configured to move.

制御ユニット306は、CPU、メモリ、ハードディスクなどを含む演算処理の高速な汎用のコンピュータやワークステーション、専用のグラフィックボード、あるいはこれらの組み合わせによって構成される。制御ユニット306は、ステージ305、撮像ユニット304A〜304C、撮像ユニット移動機構308A〜308Cの制御情報を入出力するためのインターフェースを備える。また制御ユニット306は、表示ユニット307に表示用画像データを出力するため、画像取得装置300の設定を変更するためのインターフェースを備える。更に、試料の位置情報や形状情報を入力するためのインターフェースを備えても良い。制御ユニット306の機能は、ハードディスクなどの記憶媒体に格納されたプログラムをメモリにロードし、CPUが実行することにより実現されるものである。   The control unit 306 is configured by a general-purpose computer or workstation with high-speed arithmetic processing including a CPU, memory, hard disk, etc., a dedicated graphic board, or a combination thereof. The control unit 306 includes an interface for inputting and outputting control information of the stage 305, the imaging units 304A to 304C, and the imaging unit moving mechanisms 308A to 308C. In addition, the control unit 306 includes an interface for changing the setting of the image acquisition device 300 in order to output display image data to the display unit 307. Furthermore, an interface for inputting position information and shape information of the sample may be provided. The function of the control unit 306 is realized by loading a program stored in a storage medium such as a hard disk into a memory and executing it by the CPU.

制御ユニット306によって、ステージ305、撮像ユニット304A〜304C、撮像ユニット移動機構308A〜308Cが順次制御される。そして、撮像ユニット304A〜304Cから出力される撮像データからZ取得対象範囲が算出され、その結果に基づ
いて、スライド301の複数観察対象層を被写界深度内とした分割画像が取得される。
The control unit 306 sequentially controls the stage 305, the imaging units 304A to 304C, and the imaging unit moving mechanisms 308A to 308C. Then, the Z acquisition target range is calculated from the imaging data output from the imaging units 304A to 304C, and based on the result, a divided image in which the multiple observation target layers of the slide 301 are within the depth of field is acquired.

その後、画像合成処理によって分割画像ごとに全焦点画像データや三次元画像データが生成される。更に、全焦点画像データや三次元画像データ、もしくはそれらを広域に表示するための合成画像データが、表示用画像データとして出力される。   Thereafter, omnifocal image data and three-dimensional image data are generated for each divided image by image composition processing. Further, omnifocal image data, three-dimensional image data, or composite image data for displaying them in a wide area is output as display image data.

表示ユニット307は、画像取得装置300の生成した表示用画像データに基づいて、病理診断に適した観察用画像を表示する機能を有する。CRTや液晶等のモニタにより表示ユニット307を構成することができる。   The display unit 307 has a function of displaying an observation image suitable for pathological diagnosis based on the display image data generated by the image acquisition device 300. The display unit 307 can be configured by a monitor such as a CRT or a liquid crystal.

(光路の分割)
図11は、画像取得装置300における、3つの基準面を撮像するための、結像光学系302、光路色分割ユニット303、撮像ユニット304A〜304Cの配置図である。
(Division of optical path)
FIG. 11 is a layout diagram of the imaging optical system 302, the optical path color division unit 303, and the imaging units 304A to 304C for imaging three reference planes in the image acquisition device 300.

結像光学系302から入射する光束は、光路色分割ユニット303によって3つの光束に分割される。本実施形態では、入射光束のうちRの波長帯域の光は撮像ユニット304A側へ反射され、Gの波長帯域の光は光路色分割ユニット303を透過して撮像ユニット304Bへ導かれ、Bの波長帯域の光は撮像ユニット304C側へ反射される。このように、光路色分割ユニット303は、スライド301からの光束の光路分割と色分割を行う。   The light beam incident from the imaging optical system 302 is divided into three light beams by the optical path color dividing unit 303. In the present embodiment, light in the R wavelength band of the incident light beam is reflected to the imaging unit 304A side, and light in the G wavelength band is transmitted through the optical path color division unit 303 and guided to the imaging unit 304B. The band light is reflected toward the imaging unit 304C. As described above, the optical path color division unit 303 performs optical path division and color division of the light flux from the slide 301.

図11に示すように、結像光学系302の3つの基準面を、結像光学系302に近い側からOSa〜OScとする。撮像ユニット304A〜304Cの受光面(撮像面)の位置は、それぞれ基準面OSa〜OScの位置と光学的共役となるように配置されている。したがって、基準面OSaからの光束のうちのRの波長帯域の光LFaが、撮像ユニット304Aの受光面に結像する。また、基準面OSbからの光束のうちのGの波長帯域の光LFbが撮像ユニット304Bの受光面に結像し、基準面OScからの光束のうちのBの波長帯域の光LFcが撮像ユニット304Cの受光面に結像する。   As shown in FIG. 11, the three reference surfaces of the imaging optical system 302 are OSa to OSc from the side close to the imaging optical system 302. The positions of the light receiving surfaces (imaging surfaces) of the imaging units 304A to 304C are arranged so as to be optically conjugate with the positions of the reference surfaces OSa to OSc, respectively. Accordingly, the light LFa in the R wavelength band of the light flux from the reference surface OSa forms an image on the light receiving surface of the imaging unit 304A. The light LFb in the G wavelength band of the light flux from the reference plane OSb forms an image on the light receiving surface of the imaging unit 304B, and the light LFc in the B wavelength band of the light flux from the reference plane OSc is the imaging unit 304C. An image is formed on the light receiving surface.

撮像ユニット304Aは、制御ユニット306からの制御指令に応じて、受光面に結像した光像を取り込み、撮像データDaを出力する。同様に、撮像ユニット304B、304Cは、制御ユニット306からの制御指令に応じて、それぞれ撮像データDb、Dcを出力する。本実施形態において、撮像データDaはR単色の画像データ、撮像データDbはG単色の画像データ、撮像データDcはB単色の画像データとなっている。   In response to a control command from the control unit 306, the imaging unit 304A takes in a light image formed on the light receiving surface and outputs imaging data Da. Similarly, the imaging units 304B and 304C output imaging data Db and Dc, respectively, in response to a control command from the control unit 306. In this embodiment, the imaging data Da is R monochrome image data, the imaging data Db is G monochrome image data, and the imaging data Dc is B monochrome image data.

後述するZ範囲探索処理時の撮像ユニット304A〜304Cの光軸方向の配置は、基準面OSa〜OScの間隔が結像光学系302の被写界深度よりも大きく(例えば数倍)となるようにすることが好ましい。こうすることで、Z範囲を探索する際のZステージの移動回数を削減することが可能となる。   The arrangement in the optical axis direction of the imaging units 304A to 304C during the Z range search process described later is such that the interval between the reference planes OSa to OSc is larger (for example, several times) than the depth of field of the imaging optical system 302. It is preferable to make it. By doing so, it is possible to reduce the number of movements of the Z stage when searching for the Z range.

また、本実施形態では、一例として、1個のダイクロイックプリズムおよび3個の撮像ユニットによって3つの層を異なる色で同時撮像できる構成としたが、これに限定するものではない。例えば、2個の平板型のダイクロイックミラーを光軸上に配置し、入射した光束をRの光束、Gの光束、Bの光束に分割し、それぞれを3個の撮像ユニットに導いてもよい。あるいは、2枚のハーフミラーを光軸上に配置し、入射した光束を3方向に分割し、ハーフミラーと撮像ユニットの間にR,G,Bのカラーフィルタを配置してもよい。また、図16に示したように、結像レンズを分割されたR,G,Bそれぞれの光路上に配置してもよい。このように、結像光学系302の焦点深度や光路色分割ユニット303の形状・構成などによって適宜決定できる。   In the present embodiment, as an example, three layers can be simultaneously imaged with different colors using one dichroic prism and three imaging units. However, the present invention is not limited to this. For example, two flat dichroic mirrors may be arranged on the optical axis, and the incident light beam may be divided into an R light beam, a G light beam, and a B light beam, and each may be guided to three imaging units. Alternatively, two half mirrors may be arranged on the optical axis, an incident light beam may be divided in three directions, and R, G, and B color filters may be arranged between the half mirror and the imaging unit. Further, as shown in FIG. 16, the imaging lens may be arranged on each of the divided R, G, and B optical paths. Thus, it can be determined as appropriate depending on the depth of focus of the imaging optical system 302 and the shape and configuration of the optical path color dividing unit 303.

(制御ユニットの機能)
次に、制御ユニット306の機能について説明する。制御ユニット306は、図3に示した第1実施形態の制御ユニット106と基本的に同じ構成のため、以下、図3と同じ符号を参照して説明を行う。制御ユニット306は、主制御部60、ステージステージ位置制御部61、撮像ユニット位置制御部62、撮像制御部63、データ処理部64から構成される。
(Function of control unit)
Next, the function of the control unit 306 will be described. Since the control unit 306 has basically the same configuration as the control unit 106 of the first embodiment shown in FIG. 3, the following description will be made with reference to the same reference numerals as those in FIG. The control unit 306 includes a main control unit 60, a stage stage position control unit 61, an imaging unit position control unit 62, an imaging control unit 63, and a data processing unit 64.

主制御部60は、画像取得装置300を構成する各部の動作を統括的に制御する。具体的には、主制御部60は、試料の多層において、各層の単色の画像を取得し、それらを合成してカラー画像を取得する。そして、多層から取得したカラー画像もしくは単色の画像から、全焦点画像データや三次元画像データもしくはそれらの合成画像データを、表示用画像データとして出力するための同期制御を行う。また、主制御部60は、光源309の調光制御や各種光学素子の切り換え等、試料の画像取得に伴う画像取得装置300の各部の調整を行うとともに、各部の状態を適宜ユーザに通知可能とする。   The main control unit 60 controls the operation of each unit constituting the image acquisition apparatus 300 in an integrated manner. Specifically, the main control unit 60 acquires a monochrome image of each layer in a multilayer of samples, and combines them to acquire a color image. Then, synchronous control is performed for outputting omnifocal image data, three-dimensional image data, or composite image data thereof as display image data from a color image or a single color image acquired from multiple layers. In addition, the main control unit 60 can adjust each part of the image acquisition apparatus 300 accompanying the sample image acquisition, such as dimming control of the light source 309 and switching of various optical elements, and can appropriately notify the state of each part to the user. To do.

ステージ位置制御部61は、ステージ305のXY移動およびZ移動を、出力インターフェースを介して制御する。そして、スライド301の所望の分割領域の層を基準面位置に送り込ませる。また、ステージ305のXYZ位置座標を、入力インターフェースを介して取得する。   The stage position control unit 61 controls XY movement and Z movement of the stage 305 via an output interface. Then, the layer of the desired divided area of the slide 301 is sent to the reference plane position. Also, the XYZ position coordinates of the stage 305 are acquired via the input interface.

ステージ位置制御部61は更に、試料のZ取得対象範囲と、Zステージの現在のZ位置に基づいて、Z範囲探索処理時およびカラー画像取得処理時のZ移動順序(ステージ305をZ移動させる制御目標値)を決定する。本実施形態では、最初にZ取得対象範囲の上端(又は下端)に基準面の上端(又は下端)が合うようにステージ305を移動させた後、1ステップずつ同じ方向(下方向又は上方向)にステージ305をシフト移動させていく。これによりステージ移動および位置合わせを効率化でき、時間短縮を図ることができる。   The stage position control unit 61 further controls the Z movement order during Z range search processing and color image acquisition processing (control to move the stage 305 in Z based on the Z acquisition target range of the sample and the current Z position of the Z stage. Target value). In this embodiment, the stage 305 is first moved so that the upper end (or lower end) of the reference plane is aligned with the upper end (or lower end) of the Z acquisition target range, and then the same direction (downward or upward) step by step. Next, the stage 305 is shifted. As a result, stage movement and alignment can be made more efficient, and the time can be reduced.

撮像ユニット位置制御部62は、撮像ユニット移動機構308A〜308Cによる撮像ユニット304A〜304Cの光軸方向の移動を、出力インターフェースを介して制御し、処理に応じて、基準面OSa〜OSc同士の間隔(相対距離)を適宜変更する。これにより、試料内の粗い間隔の層を同時撮像してZ取得対象範囲を決定する「Z範囲探索処理」と、Z取得対象範囲内の複数層のカラー画像を取得する「カラー画像取得処理」を可能とする。それぞれの処理での基準面の設定は図12(a)を参照して後述する。また、撮像ユニット位置制御部62は、撮像ユニット304A〜304Cの光軸方向の座標を、入力インターフェースを介して取得し、基準面OSa〜OScのZ位置を算出する。ここで、基準面OSa〜OScのZ位置は、撮像ユニット304A〜304Cから結像光学系302の像側焦点位置までの光路長、結像光学系302の光学倍率に基づいて算出すれば良い。もしくは、撮像ユニット304A〜304Cと光学的に共役となる基準面OSa〜OScのZ位置を、計測によってあらかじめ取得しておいてもよい。   The imaging unit position control unit 62 controls movement of the imaging units 304A to 304C in the optical axis direction by the imaging unit moving mechanisms 308A to 308C via the output interface, and the interval between the reference planes OSa to OSc according to processing. Change (relative distance) as appropriate. Thereby, a “Z range search process” for simultaneously capturing images of coarsely spaced layers in the sample and determining a Z acquisition target range, and a “color image acquisition process” for acquiring a plurality of layers of color images within the Z acquisition target range. Is possible. The setting of the reference plane in each process will be described later with reference to FIG. In addition, the imaging unit position control unit 62 acquires the coordinates in the optical axis direction of the imaging units 304A to 304C via the input interface, and calculates the Z positions of the reference planes OSa to OSc. Here, the Z positions of the reference planes OSa to OSc may be calculated based on the optical path length from the imaging units 304A to 304C to the image side focal position of the imaging optical system 302 and the optical magnification of the imaging optical system 302. Alternatively, the Z positions of the reference planes OSa to OSc that are optically conjugate with the imaging units 304A to 304C may be acquired in advance by measurement.

撮像制御部63及びデータ処理部64の機能については、第1実施形態のものと同様のため、ここでは説明を割愛する。   Since the functions of the imaging control unit 63 and the data processing unit 64 are the same as those of the first embodiment, description thereof is omitted here.

制御ユニット306のハードウェア構成については、第1実施形態の制御ユニット106(図4参照)と同様のため、ここでは説明を割愛する。   Since the hardware configuration of the control unit 306 is the same as that of the control unit 106 (see FIG. 4) of the first embodiment, the description thereof is omitted here.

(Z範囲探索処理とカラー画像取得処理との関係)
(1)Z範囲探索処理
図12(a)は、Z範囲探索処理およびカラー画像取得処理における、スライド301
内の試料と3つの基準面との関係について示した図である。
(Relationship between Z range search processing and color image acquisition processing)
(1) Z Range Search Process FIG. 12A shows a slide 301 in the Z range search process and the color image acquisition process.
It is the figure shown about the relationship between the inside sample and three reference planes.

T0は、取得対象とした分割領域が、XYステージによって結像光学系302の視野内に送り込まれ、Z範囲探索処理を開始した時の状態を表す。この時、基準面OSa〜OScの間隔(相対距離)d0は広い間隔(例えば、結像光学系302の被写界深度の数倍程度)に設定される。この設定により、粗い間隔で試料内の3つの層が同時に撮像され、撮像データDa〜Dcが得られる。最初の探索では、試料の上端(これより上には画像取得したい層は存在しない位置:例えばカバーグラス上面)が、基準面OSaのZ位置に一致するようにステージ305が制御される。必要に応じて複数回の探索を行う場合、2回目以降の探索では、基準面OSa〜OScの間隔を維持したまま、Zステージを1ステップ分移動する。1ステップの移動量は例えば3×d0に設定される。   T0 represents a state when the divided area to be acquired is sent into the visual field of the imaging optical system 302 by the XY stage and the Z range search process is started. At this time, the interval (relative distance) d0 between the reference surfaces OSa to OSc is set to a wide interval (for example, about several times the depth of field of the imaging optical system 302). With this setting, three layers in the sample are simultaneously imaged at rough intervals, and imaging data Da to Dc are obtained. In the first search, the stage 305 is controlled so that the upper end of the sample (the position above which no layer for which image acquisition is desired exists, for example, the upper surface of the cover glass) coincides with the Z position of the reference plane OSa. When performing a plurality of searches as necessary, in the second and subsequent searches, the Z stage is moved by one step while maintaining the interval between the reference planes OSa to OSc. The amount of movement in one step is set to 3 × d0, for example.

このようにして1回ないし複数回の探索で得られた撮像データ群Da〜Dcに基づいて、Z取得対象範囲の最上位層LTおよび最下位層LBが決定される。   The uppermost layer LT and the lowermost layer LB of the Z acquisition target range are determined based on the imaging data groups Da to Dc obtained by one or more searches in this way.

図13は、上述したデータ処理部64で算出された評価指標プロファイルであり、横軸がZ位置、縦軸が評価指標を表す。撮像データ群Da〜Dcから算出された評価指標がそれぞれDCa〜DCcである。図13は、2回の探索で得られた6枚の撮像データからそれぞれ6個の評価指標が得られた例である。   FIG. 13 shows an evaluation index profile calculated by the data processing unit 64 described above, where the horizontal axis represents the Z position and the vertical axis represents the evaluation index. Evaluation indexes calculated from the imaging data groups Da to Dc are DCa to DCc, respectively. FIG. 13 shows an example in which six evaluation indices are obtained from six pieces of imaging data obtained by two searches.

評価指数は、撮像データごとに、各画素についてそれぞれ近傍の画素との輝度の微分値もしくは差分値を算出して得る。評価指標としては、例えば、近傍の画素との差を二乗して画像全体で加算するブレナー微分がある。ブレナー微分Bは以下の式で表すことができる。

Figure 2015156011

ここで、I(i,j)は撮像データであり、(i,j)に位置する画素の画素値を表す。mは対象とする近傍画素との間隔であり、例えば2が使われる。N,Mは撮像データのX方向、Y方向の画素数である。 The evaluation index is obtained by calculating a differential value or a difference value of luminance with neighboring pixels for each pixel for each imaging data. As an evaluation index, for example, there is a Brenner differentiation in which a difference from neighboring pixels is squared and added over the entire image. The Brenner derivative B can be expressed by the following equation.
Figure 2015156011

Here, I (i, j) is imaging data and represents the pixel value of the pixel located at (i, j). m is an interval with a target neighboring pixel, and for example, 2 is used. N and M are the numbers of pixels in the X direction and Y direction of the imaging data.

撮像データDa〜Dcは、光路色分割ユニット303により色分割された光を撮像したデータであるため、互いに色の異なる単色の画像データとなっている。データ処理部64は、これらの色の異なる単色のデータから、評価指標プロファイルを算出する。評価指標プロファイルを算出する際に、色間補正などを行うことが望ましい。例えば、軸上色収差が発生している(例えばBの共役位置がR・Gに対してずれている)場合では、それによる色別の像(光学倍率)の変化をあらかじめ計測等で取得しておき、その分だけ図13に示す横軸Zを補正する。   Since the imaging data Da to Dc are data obtained by imaging the light color-divided by the optical path color dividing unit 303, the imaging data Da to Dc are single-color image data having different colors. The data processing unit 64 calculates an evaluation index profile from these single color data having different colors. It is desirable to perform correction between colors when calculating the evaluation index profile. For example, when axial chromatic aberration occurs (for example, the conjugate position of B is deviated with respect to R / G), the change in the image (optical magnification) for each color is obtained by measurement or the like in advance. The horizontal axis Z shown in FIG. 13 is corrected accordingly.

データ処理部64は、この算出したプロファイルから、評価指標がピークとなるピークZ位置ZPを推定し、最上位LTおよび最下位LBそれぞれのZ位置ZT,ZBを決定する。ZP、ZT、ZBのZ位置は、Zステージの上面を基準(例えば上面のZ=0)として求める。ピークZ位置ZPの推定では、例えば、各Z位置における評価指標を次式のローレンツ関数B(Z)で近似し、近似式のピーク値を位置ZPとしてもよい。

Figure 2015156011

また、最上位LTおよび最下位LBは、近似式のピーク値に対して特定割合となる閾値で決定してもよい(例えば、ピーク値の30%を閾値と定め、上記近似式の値が閾値以上となるZ範囲の上端と下端をそれぞれLT,LBとする)。 The data processing unit 64 estimates the peak Z position ZP where the evaluation index is a peak from the calculated profile, and determines the Z positions ZT and ZB of the uppermost LT and the lowermost LB, respectively. The Z positions of ZP, ZT, and ZB are obtained using the upper surface of the Z stage as a reference (for example, Z = 0 on the upper surface). In the estimation of the peak Z position ZP, for example, the evaluation index at each Z position may be approximated by the Lorentz function B (Z) of the following equation, and the peak value of the approximate equation may be set as the position ZP.
Figure 2015156011

Further, the most significant LT and the least significant LB may be determined by a threshold value that is a specific ratio with respect to the peak value of the approximate expression (for example, 30% of the peak value is set as the threshold value, and the value of the approximate expression is the threshold value). The upper end and the lower end of the Z range as described above are LT and LB, respectively).

一回の探索で得られた3枚の撮像データ群Da〜Dcからピーク位置が推定できなかった場合、図12(a)に示すように、ステージ305のZ位置を1ステップ移動させて、ピーク位置の推定を繰り返す。この時、前回までの探索で得られた撮像データ群Da〜Dcも使用してピークを推定することが望ましい。試料の上端から下端までZ範囲探索処理を行ってもピークが推定できない場合には、第1実施形態で述べたのと同様、結像光学系のNAを変更したり、基準面の間隔(相対距離)を変更して、Z範囲探索処理を行うとよい。   When the peak position cannot be estimated from the three image data groups Da to Dc obtained by one search, the Z position of the stage 305 is moved by one step as shown in FIG. Repeat position estimation. At this time, it is desirable to estimate the peak using the imaging data groups Da to Dc obtained in the previous search. If the peak cannot be estimated even if the Z range search process is performed from the upper end to the lower end of the sample, the NA of the imaging optical system is changed or the distance between the reference planes (relative to the first embodiment) as described in the first embodiment. The Z range search process may be performed by changing the (distance).

(2)カラー画像取得処理
T1は、T0でのZ範囲探索処理で決定した、Z取得対象範囲のカラー画像取得処理時の状態を表す。本実施形態においては、カラー画像取得処理時は、基準面OSa〜OScの間隔(相対距離)をゼロに設定し、3つの撮像ユニット304A〜304Cで試料内の同じZ位置を撮像する。基準面のZ位置を一致させて撮像された撮像データDa、Db、Dcは、試料内の同じZ位置(深さ)の層のR、G、Bそれぞれの単色の画像データとなっている。それらの単色画像データを合成することで、そのZ位置でのカラー画像データを取得することができる。
(2) Color Image Acquisition Processing T1 represents a state at the time of color image acquisition processing of the Z acquisition target range determined by the Z range search processing at T0. In this embodiment, during the color image acquisition process, the interval (relative distance) between the reference planes OSa to OSc is set to zero, and the same Z position in the sample is imaged by the three imaging units 304A to 304C. Imaging data Da, Db, and Dc that are imaged with the Z position of the reference plane matched are monochrome image data of R, G, and B of the same Z position (depth) layer in the sample. By combining these monochrome image data, the color image data at the Z position can be acquired.

例えば、初回のカラー画像取得処理時には、Z取得対象範囲の最上位LTが、基準面OSa〜OScのZ位置に一致するようにステージ305が制御される。その後、ステージ305のZ位置をステップ量d1で順に移動しながら、カラー画像取得処理を繰り返す。Z取得対象範囲の最下位LBのZ位置またはそれより下の層まで撮像したら、カラー画像取得処理を終了する。これにより、Z取得対象範囲の複数層のカラー画像が取得される。この時、ステップ量d1は、結像光学系102の被写界深度と同等か若しくは小さいことが望ましく、前述のT0時における基準面OSa〜OScの間隔d0よりも小さいことが望ましい。   For example, in the first color image acquisition process, the stage 305 is controlled so that the uppermost LT of the Z acquisition target range matches the Z position of the reference planes OSa to OSc. Thereafter, the color image acquisition process is repeated while sequentially moving the Z position of the stage 305 by the step amount d1. When the image is captured up to the Z position of the lowest LB of the Z acquisition target range or a layer below it, the color image acquisition process is terminated. As a result, multiple layers of color images in the Z acquisition target range are acquired. At this time, the step amount d1 is preferably equal to or smaller than the depth of field of the imaging optical system 102, and is preferably smaller than the interval d0 between the reference planes OSa to OSc at the time T0 described above.

図12(b)は、カラー画像取得処理の別の実施形態を示している。T11〜T18は、図12(a)におけるT0でのZ範囲探索処理で決定した、Z取得対象範囲のカラー画像取得処理時の状態を表す。図12(b)に示す方法では、基準面OSa〜OScの間隔(相対距離)をd2に設定し、3つの撮像ユニット304A〜304Cで試料内の異なるZ位置を撮像する。この時の間隔(相対距離)d2は、結像光学系102の被写界深度と同等か若しくは小さいことが望ましく、前述のT0時における間隔(相対距離)d0よりも小さいことが望ましい。   FIG. 12B shows another embodiment of the color image acquisition process. T11 to T18 represent states at the time of color image acquisition processing of the Z acquisition target range determined by the Z range search processing at T0 in FIG. In the method shown in FIG. 12B, the interval (relative distance) between the reference planes OSa to OSc is set to d2, and different Z positions in the sample are imaged by the three imaging units 304A to 304C. The distance (relative distance) d2 at this time is preferably equal to or smaller than the depth of field of the imaging optical system 102, and is preferably smaller than the distance (relative distance) d0 at the time T0 described above.

撮像手順としては、まず、時刻T11において、基準面OScがZ取得対象範囲の最上位LTに位置するように、ステージ305のZ位置を調整し、撮像を行う。これにより、LT層のB色画像が撮像される。次に時刻T12において、基準面の相対距離d2と同じ量だけステージ305を移動し、基準面OScのZ位置をL1層に一致させ撮像を行う。このとき、基準面OSbはLT層に一致しており、これにより、L1層のB色画像およびLT層のG色画像が撮像される。次に時刻T13において、基準面の相対距離d2と同じ量だけステージ305を移動し、基準面OScのZ位置をL2層に一致させ撮像を行う。
このとき、基準面OSbはL1層に一致しており、基準面OSaはLT層に一致している。これにより、L2層のB色画像、L1層のG色画像、およびLT層のR色画像が撮像される。この時点で、LT層はRGBの3色の画像が揃ったことになり、この3色の画像を合成することで、LT層のカラー画像を取得することができる。このようにして、順次ステージ305を移動していき、L5層までのカラー画像を取得していく。この時、L5層はZ取得対象範囲の最下位LBと同じもしくはそれよりも下の層となっている。
As an imaging procedure, first, at time T11, the Z position of the stage 305 is adjusted so that the reference plane OSc is positioned at the uppermost LT of the Z acquisition target range, and imaging is performed. Thereby, a B color image of the LT layer is captured. Next, at time T12, the stage 305 is moved by the same amount as the relative distance d2 of the reference plane, and imaging is performed with the Z position of the reference plane OSc aligned with the L1 layer. At this time, the reference plane OSb coincides with the LT layer, and thereby, a B color image of the L1 layer and a G color image of the LT layer are captured. Next, at time T13, the stage 305 is moved by the same amount as the relative distance d2 of the reference plane, and imaging is performed with the Z position of the reference plane OSc aligned with the L2 layer.
At this time, the reference plane OSb matches the L1 layer, and the reference plane OSa matches the LT layer. Thereby, the B color image of the L2 layer, the G color image of the L1 layer, and the R color image of the LT layer are captured. At this point, the LT layer has RGB three-color images, and by synthesizing these three-color images, a color image of the LT layer can be acquired. In this way, the stage 305 is sequentially moved to acquire color images up to the L5 layer. At this time, the L5 layer is the same or lower than the lowest LB of the Z acquisition target range.

(画像取得の方法)
本実施形態における画像取得装置300の画像取得方法について、図14に示すフローチャートを用いて説明する。
(Image acquisition method)
An image acquisition method of the image acquisition apparatus 300 in the present embodiment will be described with reference to a flowchart shown in FIG.

まずステップS1601では、主制御部60が、画像取得装置300の処理条件(XY取得対象範囲等)を取得する。更に、主制御部60は、XY取得対象範囲に基づいてステージのXY移動順序(XYステージ制御目標値テーブル)を算出する。このテーブルには、スライド301上の複数の分割領域を順に撮像するために、各分割領域を結像光学系302の視野内に移動させるためのXYステージの制御目標値が記述されている。なお、各分割領域の大きさは、撮像ユニットの有効撮像領域を結像光学系302の物体側に投影した大きさに対応する。   First, in step S1601, the main control unit 60 acquires processing conditions (such as an XY acquisition target range) of the image acquisition device 300. Further, the main control unit 60 calculates the XY movement order (XY stage control target value table) of the stage based on the XY acquisition target range. In this table, control target values of the XY stage for moving each divided region into the field of view of the imaging optical system 302 in order to sequentially capture a plurality of divided regions on the slide 301 are described. Note that the size of each divided area corresponds to the size of the effective imaging area of the imaging unit projected onto the object side of the imaging optical system 302.

次のステップS1602では、主制御部60が、XY移動順序に基づいて(例えば、XYステージ制御目標値テーブルから、1番上の行に記載の目標値を読み出して)、ステージ位置制御部61を介してステージ305を制御する。また、移動後のステージ305のXY位置座標を取得する。更に、主制御部60が、撮像ユニット位置制御部62を介して撮像ユニット移動機構308A〜308Cを制御し、撮像ユニット304A〜304Cを光軸方向に移動させる。そして、基準面OSa〜OSc同士の間隔をZ範囲探索処理時の第一の間隔(例えば、結像光学系302の被写界深度の4倍)に設定する。   In the next step S1602, the main control unit 60 moves the stage position control unit 61 based on the XY movement order (for example, by reading the target value described in the top row from the XY stage control target value table). The stage 305 is controlled via Further, the XY position coordinates of the stage 305 after movement are acquired. Further, the main control unit 60 controls the imaging unit moving mechanisms 308A to 308C via the imaging unit position control unit 62, and moves the imaging units 304A to 304C in the optical axis direction. Then, the interval between the reference planes OSa to OSc is set to the first interval (for example, four times the depth of field of the imaging optical system 302) during the Z range search process.

次のステップS1603では、主制御部60が、ステージ位置制御部61、撮像制御部63、データ処理部64を介してZ範囲探索処理を実行し、Z取得対象範囲を決定する。Z範囲探索処理の詳細は、第1実施形態の図8に示したものと基本的に同じである。(ただし、基準面の数および1回の探索で取得できる撮像データの数が3つである点、2回目以降の探索を行う場合のステップ量がd0×3である点などが、第1実施形態と異なる。)
次のステップS1604では、主制御部60が、撮像ユニット位置制御部62を介して撮像ユニット移動機構308A〜308Cを制御し、撮像ユニット304A〜304Cを光軸方向に移動させる。そして、図12(a)および図12(b)で示したように、基準面OSa〜OSc同士の間隔をカラー画像取得処理時の第二の間隔(間隔=ゼロ、又は、間隔≦結像光学系302の被写界深度)に設定する。
In the next step S1603, the main control unit 60 performs a Z range search process via the stage position control unit 61, the imaging control unit 63, and the data processing unit 64, and determines a Z acquisition target range. The details of the Z range search process are basically the same as those shown in FIG. 8 of the first embodiment. (However, the first implementation is that the number of reference planes and the number of imaging data that can be acquired in one search are three, and the step amount in the second and subsequent searches is d0 × 3). Different from form.)
In the next step S1604, the main control unit 60 controls the imaging unit moving mechanisms 308A to 308C via the imaging unit position control unit 62 to move the imaging units 304A to 304C in the optical axis direction. Then, as shown in FIGS. 12A and 12B, the interval between the reference planes OSa to OSc is set to the second interval (interval = zero or interval ≦ imaging optics) in the color image acquisition process. To the depth of field of the system 302).

次のステップS1605では、主制御部60が、ステージ位置制御部61、撮像制御部63、データ処理部64を介してカラー画像取得処理を実行し、Z取得対象範囲内の複数の観察対象層のカラー画像を取得する。このステップの詳細は、図15で後述する。   In the next step S1605, the main control unit 60 executes a color image acquisition process via the stage position control unit 61, the imaging control unit 63, and the data processing unit 64, and sets a plurality of observation target layers within the Z acquisition target range. Get a color image. Details of this step will be described later with reference to FIG.

次のステップS1606では、主制御部60が、XY取得対象範囲内の画像取得が完了したか(XYステージ制御目標値テーブルの最後の行まで実行したか)否かを判断する。完了したと判断した場合、ステップS1607へ移行する。一方、未完であると判断した場合、ステップS1602へ移行し、XYステージ制御目標値テーブルから読み出す行を1つ進め、ステージ位置制御部61を介したステージ305の制御を続ける。   In the next step S1606, the main control unit 60 determines whether image acquisition within the XY acquisition target range has been completed (has been executed up to the last row of the XY stage control target value table). If it is determined that the process has been completed, the process proceeds to step S1607. On the other hand, if it is determined that the process is incomplete, the process proceeds to step S1602, and the line read from the XY stage control target value table is advanced by one, and the control of the stage 305 via the stage position control unit 61 is continued.

次のステップS1607では、主制御部60が、データ処理部64を介して表示用画像
データを生成制御し、画像取得を完了する。
In the next step S 1607, the main control unit 60 generates and controls display image data via the data processing unit 64 and completes image acquisition.

(カラー画像取得処理)
カラー画像取得処理の詳細について、図15に示すフローチャートを用いて説明する。
(Color image acquisition processing)
Details of the color image acquisition process will be described with reference to the flowchart shown in FIG.

まずステップS1621では、ステージ位置制御部61が、ステージ305のZ移動の目標位置を決定し、ステージ305を制御する。また、ステージ位置制御部61が、移動後のステージ305のZ位置座標を取得する。   First, in step S1621, the stage position control unit 61 determines a target position for the Z movement of the stage 305 and controls the stage 305. Further, the stage position control unit 61 acquires the Z position coordinates of the stage 305 after the movement.

ステージ移動と撮像を複数回繰り返す場合、ステップS1621におけるZ移動の目標位置の決定処理の内容は、1回目の場合と、2回目以降の場合とで異なる。図12(a)に示した実施形態の場合、1回目では、Z取得対象範囲の上端(最上位層LT)又は下端(最下位層LB)のうちの近い方に基準面OSa〜OSc(全て同じZ位置)が合うようにZステージの移動を行う。例えば、ステージ位置制御部61は、Z取得対象範囲の最上位層LTと基準面OSa〜OScのZ位置の差と、Z取得対象範囲の最下位層LBと基準面OSa〜OScのZ位置の差を比較する。前者が小さかった場合、最上位層LTと基準面OSa〜OSc(全て同じZ位置)のZ位置が一致するようにZステージを移動させ、2回目以降のZステージの移動方向を「上(+Z方向)」に設定する。後者が小さかった場合、最下位層LBと基準面OSa〜OSc(全て同じZ位置)のZ位置が一致するようにZステージを移動させ、2回目以降のZステージの移動方向を「下(−Z方向)」に設定する。2回目以降のステップS1621では、設定された移動方向にZステージを1ステップ(図12(a)におけるd1)シフト移動させる。   When the stage movement and the imaging are repeated a plurality of times, the content of the determination process of the target position for the Z movement in step S1621 is different between the first time and the second and subsequent times. In the case of the embodiment shown in FIG. 12A, at the first time, the reference planes OSa to OSc (all of them are closer to the upper end (uppermost layer LT) or lower end (lowermost layer LB) of the Z acquisition target range. The Z stage is moved so that the same Z position matches. For example, the stage position controller 61 determines the difference between the Z position of the uppermost layer LT in the Z acquisition target range and the reference planes OSa to OSc, and the Z position of the lowermost layer LB of the Z acquisition target range and the reference planes OSa to OSc. Compare the differences. When the former is small, the Z stage is moved so that the Z positions of the uppermost layer LT and the reference planes OSa to OSc (all the same Z positions) coincide with each other, and the movement direction of the second and subsequent Z stages is set to “Up (+ Z Direction) ”. When the latter is small, the Z stage is moved so that the Z position of the lowest layer LB and the reference planes OSa to OSc (all the same Z positions) coincide with each other. Z direction) ”. In step S1621 after the second time, the Z stage is shifted by one step (d1 in FIG. 12A) in the set moving direction.

また、図12(b)に示した実施形態の場合、1回目では、ステージ位置制御部61は、Z取得対象範囲の最上位層LTと基準面OSaのZ位置の差と、Z取得対象範囲の最下位層LBと基準面OScのZ位置の差を比較する。前者が小さかった場合、最上位層LTと基準面OScのZ位置が一致するようにZステージを移動させ、2回目以降のZステージの移動方向を「上(+Z方向)」に設定する。後者が小さかった場合、最下位層LBと基準面OSaのZ位置が一致するようにZステージを移動させ、2回目以降のZステージの移動方向を「下(−Z方向)」に設定する。2回目以降のステップS1621では、設定された移動方向にZステージを1ステップ(図12(b)におけるd2)シフト移動させる。   In the embodiment shown in FIG. 12B, in the first time, the stage position control unit 61 determines the difference between the Z position of the top layer LT in the Z acquisition target range and the reference plane OSa, and the Z acquisition target range. The difference in the Z position between the lowest layer LB and the reference plane OSc is compared. If the former is small, the Z stage is moved so that the Z positions of the uppermost layer LT and the reference plane OSc coincide with each other, and the movement direction of the second and subsequent Z stages is set to “up (+ Z direction)”. If the latter is smaller, the Z stage is moved so that the Z position of the lowest layer LB and the reference plane OSa coincide, and the second and subsequent Z stage movement directions are set to “down (−Z direction)”. In the second and subsequent steps S1621, the Z stage is shifted by one step (d2 in FIG. 12B) in the set moving direction.

本実施形態では、上記のような判定を行い、1回目のZ位置と2回目以降のステージ移動方向を決定することで、ステージの移動量を最小にでき、カラー画像取得処理の時間短縮を図ることができる。ただし、ステージ移動の時間が問題とならない場合には、こうした判定を行わず、予め決められた移動方向あるいはユーザから指示された移動方向で制御してもよい。   In the present embodiment, the determination as described above is performed, and the first Z position and the second and subsequent stage movement directions are determined, whereby the amount of movement of the stage can be minimized and the time for color image acquisition processing can be shortened. be able to. However, when the stage moving time does not matter, the determination may be performed without using such a determination, and the control may be performed in a predetermined moving direction or a moving direction instructed by the user.

次のステップS1622では、撮像制御部63が、撮像ユニット304A〜304Cによる撮像を制御し、撮像データ群Da〜Dcを入力する。また、撮像制御部63は、撮像データと関連付けて、取得した画像の位置情報を取得する。   In the next step S1622, the imaging control unit 63 controls imaging by the imaging units 304A to 304C and inputs imaging data groups Da to Dc. Further, the imaging control unit 63 acquires positional information of the acquired image in association with the imaging data.

次のステップS1623では、主制御部60が、Z取得対象範囲内の画像取得が完了したか否かを判断する。完了したと判断した場合、ステップS1624へ移行する。一方、未完であると判断した場合、ステップS1621へ移行し、ステージ位置制御部61を介してステージ305を制御する。   In the next step S <b> 1623, the main control unit 60 determines whether image acquisition within the Z acquisition target range is completed. If it is determined that the process has been completed, the process proceeds to step S1624. On the other hand, if it is determined that the process is not completed, the process proceeds to step S1621, and the stage 305 is controlled via the stage position control unit 61.

次のステップS1624では、主制御部60が、データ処理部64を介して、撮像データ群とそのZ位置情報に基づいて、試料内の各Z位置に対応するRGBカラー画像を生成
する。このとき、同じZ位置で撮像されたR色画像データである撮像データDa、G色画像データである撮像データDb、B色画像データである撮像データDcを合成することで、RGBカラー画像が生成される。
In the next step S <b> 1624, the main control unit 60 generates an RGB color image corresponding to each Z position in the sample based on the imaging data group and its Z position information via the data processing unit 64. At this time, an RGB color image is generated by synthesizing imaging data Da that is R color image data captured at the same Z position, imaging data Db that is G color image data, and imaging data Dc that is B color image data. Is done.

次のステップS1625では、主制御部60が、データ処理部64を介して、RGBカラー画像データ群とそのZ位置情報に基づいて、全焦点画像データおよび/または厚み方向の形状分布が把握できる三次元画像データを生成する。そして、Z取得対象範囲内の観察対象層のカラー画像取得を完了する。   In the next step S1625, the main control unit 60 can obtain the omnifocal image data and / or the shape distribution in the thickness direction based on the RGB color image data group and its Z position information via the data processing unit 64. Generate original image data. Then, the color image acquisition of the observation target layer within the Z acquisition target range is completed.

(本実施形態の利点)
以上述べた本実施形態の構成によれば、互いに異なる色(波長帯域)の画像データを撮像可能な複数の撮像ユニットを有し、目的とする処理に応じて各撮像ユニットの基準面同士の間隔(相対距離)を変えることができる。これにより、例えばZ範囲探索処理のように試料内の広いZ範囲を観察(分析)する必要があるときは、基準面の間隔を広めにとるなど、効率(処理時間の短縮)を重視した設定にできる。一方、カラー画像取得処理のように高解像度のカラー画像を取得する必要があるときは、図12(a)のように基準面の間隔をゼロにして1ショットでカラー画像を取得するか、図12(b)のように1ステップずつ基準面をずらしてカラー画像を取得する。このように、目的とする処理に応じて適応的に基準面の間隔を制御することで、全体としての処理の効率化及び処理時間の短縮を図ることが可能となる。また、試料の多層から高速に高解像度のカラー画像を取得できるため、病理診断等で正確に比較診断できるようになる。加えて、一つの撮像系でZ範囲探索処理とカラー画像取得処理のような目的の異なる処理に柔軟に対応できるため、装置全体の小型化と低コストを図ることもできる。
(Advantages of this embodiment)
According to the configuration of the present embodiment described above, there are a plurality of imaging units capable of imaging image data of different colors (wavelength bands), and the interval between the reference planes of each imaging unit according to the target processing (Relative distance) can be changed. As a result, when it is necessary to observe (analyze) a wide Z range in the sample, for example, as in the Z range search process, a setting that emphasizes efficiency (reduction of processing time) such as increasing the interval between the reference planes. Can be. On the other hand, when it is necessary to acquire a high-resolution color image as in the color image acquisition process, the color image is acquired in one shot with the reference plane interval set to zero as shown in FIG. A color image is acquired by shifting the reference plane step by step as in 12 (b). As described above, the interval between the reference planes is adaptively controlled in accordance with the target process, whereby the efficiency of the process as a whole and the reduction of the processing time can be achieved. In addition, since a high-resolution color image can be acquired at a high speed from multiple layers of samples, a comparative diagnosis can be performed accurately in pathological diagnosis or the like. In addition, since the single imaging system can flexibly cope with different purposes such as the Z range search process and the color image acquisition process, the entire apparatus can be reduced in size and cost.

<第3実施形態>
本発明の画像取得方法は、前述した実施形態の機能の全部または一部を実現するソフトウェアのプログラムコードを記録した記録媒体(または記憶媒体)の形態で、システムあるいは装置に供給することができる。そして、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行することで達成可能である。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。
<Third Embodiment>
The image acquisition method of the present invention can be supplied to a system or apparatus in the form of a recording medium (or storage medium) that records software program codes that implement all or part of the functions of the above-described embodiments. This can be achieved by reading and executing the program code stored in the recording medium by the computer (or CPU or MPU) of the system or apparatus. In this case, the program code itself read from the recording medium realizes the functions of the above-described embodiment, and the recording medium on which the program code is recorded constitutes the present invention.

また、コンピュータが、読み出したプログラムコードを実行することにより、コンピュータ上で稼働しているオペレーティングシステム(OS)などが、実際の処理の一部または全部を行う。その処理によって前述した実施形態の機能が実現される場合も本発明に含まれる。   Further, when the computer executes the read program code, an operating system (OS) or the like running on the computer performs part or all of the actual processing. The case where the functions of the above-described embodiment are realized by the processing is also included in the present invention.

更に、記録媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれたとする。その後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も本発明に含まれる。   Furthermore, it is assumed that the program code read from the recording medium is written in a memory provided in a function expansion card inserted into the computer or a function expansion unit connected to the computer. Thereafter, the CPU of the function expansion card or function expansion unit performs part or all of the actual processing based on the instruction of the program code, and the functions of the above-described embodiments are realized by the processing. Included in the invention.

なお、本発明を上記記録媒体に適用する場合、その記録媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。   When the present invention is applied to the recording medium, program code corresponding to the flowchart described above is stored in the recording medium.

<その他の実施形態>
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形および変更が可能である。また、第1から第3
の実施形態で説明してきた構成は、お互いに組み合わせて使用できる。従って、上記各実施形態における様々な技術を適宜組み合わせて新たなシステムを構成することは当業者であれば容易に想到し得るものであり、そのような様々な組み合わせによるシステムも本発明の範疇に属する。
<Other embodiments>
As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary. Also, from the first to the third
The configurations described in the embodiments can be used in combination with each other. Therefore, a person skilled in the art can easily conceive that a new system is configured by appropriately combining various technologies in the above-described embodiments, and a system based on such various combinations is also within the scope of the present invention. Belongs.

例えば、病理診断における細胞診のように、比較的厚い試料の多層の画像を取得したい場合等、Z取得対象範囲がスライドの高さ方向のほぼ全域であるような場合、取得画像のデータが膨大となってしまう。このような場合、Z範囲探索処理で取得した撮像データをそのまま分割領域の画像データとして記録し、全焦点画像データや三次元画像データや合成画像データの生成に利用してもよい。Z範囲探索処理で得られる画像データだけでは高さ方向(Z方向)の分解能が低いので、多層画像取得処理では、Z範囲探索処理で得られた画像データの間を補完するための画像取得を行う。言い換えると、粗い間隔で試料内の複数層の画像を取得する第一の処理を行った後、第一の処理で取得した画像の間を補完するために、第一の処理よりも狭い間隔で試料内の複数層の画像を取得する第二の処理を行うのである。このとき、Z取得対象範囲の全域について補完してもよいが、特に高さ方向の分解能が必要な層の周辺だけに多層画像取得処理を実施してもよい。高さ方向の分解能が必要な層は、ユーザが指定してもよいし、Z範囲探索処理で計算した評価指標に基づいて決定してもよい(例えば、高コントラストな画像が得られる層の周辺を補完するなど)。   For example, when the Z acquisition target range is almost the entire region in the height direction of the slide, such as when it is desired to acquire a multilayer image of a relatively thick sample as in cytodiagnosis in pathological diagnosis, the acquired image data is enormous. End up. In such a case, the imaging data acquired by the Z range search process may be recorded as it is as the image data of the divided area, and may be used to generate omnifocal image data, three-dimensional image data, or composite image data. Since the resolution in the height direction (Z direction) is low only with the image data obtained by the Z range search process, in the multilayer image acquisition process, image acquisition for complementing between the image data obtained by the Z range search process is performed. Do. In other words, after performing the first process of acquiring images of a plurality of layers in the sample at a rough interval, in order to complement between the images acquired in the first process, at a narrower interval than the first process A second process for acquiring images of a plurality of layers in the sample is performed. At this time, the entire area of the Z acquisition target range may be supplemented, but the multilayer image acquisition process may be performed only on the periphery of the layer that particularly requires the resolution in the height direction. The layer that requires the resolution in the height direction may be specified by the user or may be determined based on the evaluation index calculated by the Z range search process (for example, the periphery of the layer from which a high-contrast image is obtained) Etc.).

100:画像取得装置、101:スライド、102:対物レンズ、103:光路分割ユニット、104A〜104D:撮像ユニット、105:ステージ、106:制御ユニット、108A〜108D:撮像ユニット移動機構   100: Image acquisition device, 101: Slide, 102: Objective lens, 103: Optical path division unit, 104A to 104D: Imaging unit, 105: Stage, 106: Control unit, 108A to 108D: Imaging unit moving mechanism

Claims (23)

試料からの光を集光する光学系と、
前記光学系からの光路を複数の光路に分割する分割手段と、
前記複数の光路上にそれぞれ受光面を有する複数の撮像手段と、
前記複数の撮像手段を用いて第一の処理および第二の処理を行う制御手段と、
前記複数の撮像手段の受光面と光学的に共役な試料側の面である複数の基準面の間隔を変更する変更手段と、を有し、
前記変更手段は、前記複数の撮像手段が前記第一の処理のための撮像を行う場合と前記第二の処理のための撮像を行う場合とで、前記複数の基準面の間隔を変える
ことを特徴とする画像取得装置。
An optical system for collecting light from the sample;
Splitting means for splitting the optical path from the optical system into a plurality of optical paths;
A plurality of imaging means each having a light receiving surface on the plurality of optical paths;
Control means for performing a first process and a second process using the plurality of imaging means;
Changing means for changing the interval between a plurality of reference surfaces that are optically conjugate with the light receiving surfaces of the plurality of imaging means,
The changing unit may change the interval between the plurality of reference planes when the plurality of imaging units perform imaging for the first processing and when imaging for the second processing. A characteristic image acquisition device.
前記第一の処理は、前記複数の基準面を前記試料内の異なる高さに配置して前記複数の撮像手段により得られた画像データに基づき、前記試料内で画像を取得すべき層の高さを決定する処理であり、
前記第二の処理は、前記第一の処理のときよりも前記複数の基準面の間隔を小さくし、前記第一の処理で決定された高さを基準とする範囲から、前記複数の撮像手段により前記試料の複数層の撮像を行う処理である
ことを特徴とする請求項1に記載の画像取得装置。
In the first process, the plurality of reference planes are arranged at different heights in the sample, and based on the image data obtained by the plurality of imaging means, the height of the layer from which an image is to be acquired in the sample Is a process for determining
In the second process, the plurality of imaging units are selected from a range based on the height determined in the first process by making the interval between the plurality of reference surfaces smaller than in the first process. The image acquisition apparatus according to claim 1, wherein the image acquisition process is a process of imaging a plurality of layers of the sample.
前記第二の処理では、前記複数の基準面の間隔をゼロにする
ことを特徴とする請求項2に記載の画像取得装置。
The image acquisition apparatus according to claim 2, wherein in the second process, the interval between the plurality of reference surfaces is set to zero.
前記複数の撮像手段は、互いに異なる色の単色画像データを撮像するものであり、
前記第二の処理では、前記複数層のそれぞれについて、前記複数の撮像手段により得られた複数の色の単色画像データを合成してカラー画像データが生成される
ことを特徴とする請求項2又は3に記載の画像取得装置。
The plurality of imaging means are for imaging monochrome image data of different colors,
The color image data is generated by synthesizing single-color image data of a plurality of colors obtained by the plurality of imaging units for each of the plurality of layers in the second processing. 4. The image acquisition device according to 3.
前記第一の処理では、前記複数の基準面を前記試料内の異なる高さに配置して前記複数の撮像手段により得られた画像データに基づき、最大コントラストの画像が得られる高さを推定し、前記推定された高さを含むように前記画像を取得すべき層の高さを選ぶ
ことを特徴とする請求項2〜4のうちいずれか1項に記載の画像取得装置。
In the first process, the plurality of reference planes are arranged at different heights in the sample, and a height at which a maximum contrast image is obtained is estimated based on image data obtained by the plurality of imaging units. The image acquisition apparatus according to claim 2, wherein a height of a layer from which the image is to be acquired is selected so as to include the estimated height.
前記第一の処理は、前記複数の基準面を前記試料内の異なる高さに配置して前記複数の撮像手段により前記試料の複数層の撮像を行う処理であり、
前記第二の処理は、前記第一の処理とは前記複数の基準面の間隔を変更した前記複数の撮像手段により、前記第一の処理で撮像した前記複数層のあいだを補完する層を撮像する処理である
ことを特徴とする請求項1に記載の画像取得装置。
The first process is a process of imaging the plurality of layers of the sample by the plurality of imaging units by arranging the plurality of reference planes at different heights in the sample,
In the second process, the layers that complement the gap between the plurality of layers imaged in the first process are imaged by the plurality of imaging units in which the intervals of the plurality of reference planes are changed from the first process. The image acquisition apparatus according to claim 1, wherein the image acquisition apparatus performs the processing.
前記第一の処理は、前記複数の基準面を前記試料内の異なる高さに配置して前記複数の撮像手段により得られた画像データに基づき、前記試料内で画像を取得すべき層の高さを決定する処理であり、
前記第二の処理は、前記第一の処理において前記画像を取得すべき層の高さを決定できなかった場合に、前記第一の処理のときよりも前記複数の基準面の間隔を小さくして前記複数の撮像手段により得られた画像データに基づき、前記試料内で画像を取得すべき層の高さを決定する処理である
ことを特徴とする請求項1に記載の画像取得装置。
In the first process, the plurality of reference planes are arranged at different heights in the sample, and based on the image data obtained by the plurality of imaging means, the height of the layer from which an image is to be acquired in the sample Is a process for determining
In the second process, when the height of the layer from which the image is to be acquired cannot be determined in the first process, the interval between the plurality of reference planes is made smaller than that in the first process. The image acquisition apparatus according to claim 1, wherein the image acquisition apparatus is a process of determining a height of a layer from which an image is to be acquired in the sample based on image data obtained by the plurality of imaging units.
前記試料と前記複数の基準面との高さ方向の相対位置を変更する第二の変更手段をさら
に備え、
前記第二の変更手段による前記試料と前記複数の基準面の高さ方向の相対位置の変更と、前記複数の撮像手段による撮像とを複数回繰り返すことにより、前記基準面の数よりも多くの層の画像データを取得可能である
ことを特徴とする請求項1〜7のうちいずれか1項に記載の画像取得装置。
A second changing means for changing a relative position in the height direction between the sample and the plurality of reference planes;
By changing the relative position in the height direction of the sample and the plurality of reference planes by the second changing unit and imaging by the plurality of imaging units a plurality of times, more than the number of the reference planes The image acquisition apparatus according to claim 1, wherein the image data of the layer can be acquired.
前記第二の変更手段は、前記複数の撮像手段が前記第一の処理のための撮像を行う場合と前記第二の処理のための撮像を行う場合とで、前記試料と前記複数の基準面の高さ方向の相対位置の変更量を変える
ことを特徴とする請求項8に記載の画像取得装置。
The second changing unit includes the sample and the plurality of reference planes when the plurality of imaging units perform imaging for the first processing and when imaging for the second processing is performed. The image acquisition apparatus according to claim 8, wherein the amount of change in the relative position in the height direction of the image is changed.
前記第二の変更手段は、前記試料と前記複数の基準面の高さ方向の相対位置の変更量を、前記複数の基準面の間隔に前記基準面の数を掛けた値に設定する
ことを特徴とする請求項9に記載の画像取得装置。
The second changing means sets the change amount of the relative position in the height direction of the sample and the plurality of reference surfaces to a value obtained by multiplying the interval between the plurality of reference surfaces by the number of the reference surfaces. The image acquisition apparatus according to claim 9, wherein the apparatus is an image acquisition apparatus.
前記第二の変更手段は、1回目に、前記試料のうち画像データを取得すべき範囲の上端又は下端に前記複数の基準面のいずれかが合うように、前記試料と前記複数の基準面の高さ方向の相対位置を変更し、2回目以降、前記試料と前記複数の基準面の相対位置を同じ方向に変更する
ことを特徴とする請求項8〜10のうちいずれか1項に記載の画像取得装置。
The second changing means is configured such that, at a first time, the sample and the plurality of reference planes are aligned with an upper end or a lower end of a range in which image data is to be acquired. The relative position in the height direction is changed, and after the second time, the relative positions of the sample and the plurality of reference surfaces are changed in the same direction. Image acquisition device.
前記第二の変更手段は、前記試料を保持し光軸方向に移動するステージである
ことを特徴とする請求項8〜11のうちいずれか1項に記載の画像取得装置。
The image acquisition apparatus according to claim 8, wherein the second changing unit is a stage that holds the sample and moves in the optical axis direction.
前記変更手段は、前記第二の処理のための撮像を行う場合の前記複数の基準面の間隔を、前記光学系の被写界深度以下に設定する
ことを特徴とする請求項1〜12のうちいずれか1項に記載の画像取得装置。
The said change means sets the space | interval of these reference surfaces in the case of imaging for said 2nd process to be below the depth of field of the said optical system, It is characterized by the above-mentioned. The image acquisition apparatus of any one of them.
前記変更手段は、前記複数の撮像手段の受光面の光軸方向の位置を変更することにより、前記複数の基準面の間隔を変更する
ことを特徴とする請求項1〜13のうちいずれか1項に記載の画像取得装置。
The change unit changes the interval between the plurality of reference surfaces by changing the position of the light receiving surfaces of the plurality of image pickup units in the optical axis direction. The image acquisition device according to item.
前記複数の撮像手段のうち1つの撮像手段の受光面が固定されており、
前記変更手段は、他の撮像手段の受光面の位置を変更する
ことを特徴とする請求項14に記載の画像取得装置。
The light receiving surface of one of the plurality of imaging means is fixed,
The image acquisition apparatus according to claim 14, wherein the changing unit changes a position of a light receiving surface of another imaging unit.
前記制御手段は、前記撮像手段の画像データと、対応する基準面の高さの情報との関連付けを行う
ことを特徴とする請求項1〜15のうちいずれか1項に記載の画像取得装置。
The image acquisition apparatus according to claim 1, wherein the control unit associates image data of the imaging unit with information on a height of a corresponding reference surface.
前記制御手段は、前記第二の処理で得られた前記複数層の画像データを用いて、前記試料の観察に用いるための画像データを生成する
ことを特徴とする請求項2〜5のうちいずれか1項に記載の画像取得装置。
The control unit generates image data to be used for observation of the sample by using the image data of the plurality of layers obtained in the second process. The image acquisition device according to claim 1.
試料からの光を集光する光学系と、
前記光学系からの光路を複数の光路に分割する分割手段と、
前記複数の光路上にそれぞれ受光面を有する複数の撮像手段と、を有する画像取得装置の制御方法であって、
前記複数の基準面の間隔を第一の間隔に設定する工程と、
前記第一の間隔に設定された前記複数の撮像手段を用いて第一の処理を行う工程と、
前記複数の基準面の間隔を前記第一の間隔よりも小さい第二の間隔に設定する工程と、
前記第二の間隔に設定された前記複数の撮像手段を用いて第二の処理を行う工程と、を含む
ことを特徴とする画像取得装置の制御方法。
An optical system for collecting light from the sample;
Splitting means for splitting the optical path from the optical system into a plurality of optical paths;
A plurality of image pickup means each having a light receiving surface on the plurality of optical paths,
Setting the interval between the plurality of reference planes to a first interval;
Performing a first process using the plurality of imaging means set to the first interval;
Setting the interval between the plurality of reference surfaces to a second interval smaller than the first interval;
And a step of performing a second process using the plurality of imaging means set at the second interval.
前記第一の処理は、前記複数の基準面を前記試料内の異なる高さに配置して前記複数の撮像手段により得られた画像データに基づき、前記試料内で画像を取得すべき層の高さを決定する処理であり、
前記第二の処理は、前記第一の処理で決定された高さを基準とする範囲から、前記複数の撮像手段により前記試料の複数層の撮像を行う処理である
ことを特徴とする請求項18に記載の画像取得装置の制御方法。
In the first process, the plurality of reference planes are arranged at different heights in the sample, and based on the image data obtained by the plurality of imaging means, the height of the layer from which an image is to be acquired in the sample Is a process for determining
The second process is a process of imaging a plurality of layers of the sample by the plurality of imaging units from a range based on the height determined in the first process. 18. A method for controlling the image acquisition device according to 18.
前記第二の処理では、前記複数の基準面の間隔をゼロにする
ことを特徴とする請求項19に記載の画像取得装置の制御方法。
The method of controlling an image acquisition apparatus according to claim 19, wherein in the second process, the interval between the plurality of reference planes is set to zero.
前記第一の処理では、前記複数の基準面を前記試料内の異なる高さに配置して前記複数の撮像手段により得られた画像データに基づき、最大コントラストの画像が得られる高さを推定し、前記推定された高さを含むように前記画像を取得すべき層の高さを選ぶことを特徴とする請求項19又は20に記載の画像取得装置の制御方法。   In the first process, the plurality of reference planes are arranged at different heights in the sample, and a height at which a maximum contrast image is obtained is estimated based on image data obtained by the plurality of imaging units. 21. The method of controlling an image acquisition apparatus according to claim 19, wherein a height of a layer from which the image is to be acquired is selected so as to include the estimated height. 前記複数の撮像手段の受光面の光軸方向の位置を変更することにより、前記基準面同士の間隔を変更する
ことを特徴とする請求項18〜21のうちいずれか1項に記載の画像取得装置の制御方法。
The image acquisition according to any one of claims 18 to 21, wherein an interval between the reference surfaces is changed by changing a position of a light receiving surface of the plurality of imaging units in an optical axis direction. Control method of the device.
前記第二の間隔が、前記光学系の被写界深度以下に設定される
ことを特徴とする請求項18〜22のうちいずれか1項に記載の画像取得装置の制御方法。
The method of controlling an image acquisition apparatus according to any one of claims 18 to 22, wherein the second interval is set to be equal to or less than a depth of field of the optical system.
JP2014203059A 2014-01-15 2014-10-01 Image acquisition device and method for controlling the same Pending JP2015156011A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014203059A JP2015156011A (en) 2014-01-15 2014-10-01 Image acquisition device and method for controlling the same
PCT/JP2015/000042 WO2015107872A1 (en) 2014-01-15 2015-01-07 Image acquisition apparatus and control method thereof

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014005401 2014-01-15
JP2014005401 2014-01-15
JP2014203059A JP2015156011A (en) 2014-01-15 2014-10-01 Image acquisition device and method for controlling the same

Publications (1)

Publication Number Publication Date
JP2015156011A true JP2015156011A (en) 2015-08-27

Family

ID=53542769

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014203059A Pending JP2015156011A (en) 2014-01-15 2014-10-01 Image acquisition device and method for controlling the same

Country Status (2)

Country Link
JP (1) JP2015156011A (en)
WO (1) WO2015107872A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017156443A (en) * 2016-02-29 2017-09-07 富士フイルム株式会社 Cell observation device and method
JP2018082416A (en) * 2016-03-18 2018-05-24 パナソニックIpマネジメント株式会社 Image creating device, image creating method, and program
JP2019204009A (en) * 2018-05-24 2019-11-28 オリンパス株式会社 Microscope system

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10149844B2 (en) 2015-09-16 2018-12-11 Philip Morris Products S.A. Inhalable nicotine formulations, and methods of making and using thereof
KR20230143408A (en) * 2022-04-05 2023-10-12 주식회사 뷰웍스 Image acquisition device and image acquisition method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10257369A (en) * 1997-03-13 1998-09-25 Sony Corp Image signal recorder, recording and reproducing device and recording method
JP2004170637A (en) * 2002-11-19 2004-06-17 Olympus Corp Optical device
US8760756B2 (en) * 2008-10-14 2014-06-24 Burnham Institute For Medical Research Automated scanning cytometry using chromatic aberration for multiplanar image acquisition

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017156443A (en) * 2016-02-29 2017-09-07 富士フイルム株式会社 Cell observation device and method
WO2017149880A1 (en) * 2016-02-29 2017-09-08 富士フイルム株式会社 Cell observation device and method
KR20180104041A (en) * 2016-02-29 2018-09-19 후지필름 가부시키가이샤 Cell observation apparatus and method
KR102066807B1 (en) * 2016-02-29 2020-01-15 후지필름 가부시키가이샤 Cell observation apparatus and method
US11061214B2 (en) 2016-02-29 2021-07-13 Fujifilm Corporation Cell observation apparatus and method
JP2018082416A (en) * 2016-03-18 2018-05-24 パナソニックIpマネジメント株式会社 Image creating device, image creating method, and program
JP2019204009A (en) * 2018-05-24 2019-11-28 オリンパス株式会社 Microscope system

Also Published As

Publication number Publication date
WO2015107872A1 (en) 2015-07-23

Similar Documents

Publication Publication Date Title
US7456377B2 (en) System and method for creating magnified images of a microscope slide
US8350905B2 (en) Microscope system, image generating method, and program for practicing the same
JP2015156011A (en) Image acquisition device and method for controlling the same
JP2013201530A (en) Imaging device and control method of the same
CN107850754A (en) The image-forming assembly focused on automatically with quick sample
WO2004010380A3 (en) Measuring 3d deformations of an object by comparing focusing conditions for sharp capturing of said object before and after deformation
JP2011085594A (en) Multi-axis integration system and method
JP2005017557A (en) Three-dimensional microscope system and image display method
JP2015230393A (en) Control method of imaging apparatus, and imaging system
CN111429562A (en) Wide-field color light slice microscopic imaging method based on deep learning
TWI500963B (en) An image capturing device and method
US11163145B2 (en) Observation device, observation method, and observation device control program
US10429632B2 (en) Microscopy system, microscopy method, and computer-readable recording medium
JP2015187705A (en) Image acquisition device and method for controlling the same
CN112992336A (en) Intelligent pathological diagnosis system
JP5508214B2 (en) System and method for creating magnified image of microscope slide
JP6861842B2 (en) Observation device and method and observation device control program
Li et al. Rapid whole slide imaging via learning-based two-shot virtual autofocusing
TW202020728A (en) Method, apparatus and system for cell detection
JP2015220625A (en) Image acquisition device and image acquisition method
CN111279242B (en) Dual processor image processing
CN203117515U (en) High-definition automatic identification comparison microscope
US20140363095A1 (en) Image processing device, image processing method, and program
JP2014142213A (en) Photographing parameter determination device and control method of the same
EP4235568A1 (en) Analysis method and analysis apparatus