JP2016166941A - Focusing position detection device, focusing position detection method and imaging system - Google Patents

Focusing position detection device, focusing position detection method and imaging system Download PDF

Info

Publication number
JP2016166941A
JP2016166941A JP2015046103A JP2015046103A JP2016166941A JP 2016166941 A JP2016166941 A JP 2016166941A JP 2015046103 A JP2015046103 A JP 2015046103A JP 2015046103 A JP2015046103 A JP 2015046103A JP 2016166941 A JP2016166941 A JP 2016166941A
Authority
JP
Japan
Prior art keywords
focus position
imaging
color
image data
focus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015046103A
Other languages
Japanese (ja)
Inventor
知彦 高山
Tomohiko Takayama
知彦 高山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015046103A priority Critical patent/JP2016166941A/en
Publication of JP2016166941A publication Critical patent/JP2016166941A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Microscoopes, Condenser (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technology for stable and quick detection of a focusing position of a pathological sample.SOLUTION: A focusing position detection device detects a focused position of a sample photographed while changing the focus position in an optical axis with respect to the sample using image data of a plurality of layers in the sample, in which the image data is color image data composed of data of a plurality of color planes, and the focusing position detection device includes: selection means that selects the color plane corresponding to a color largest in absorption by the sample of the plurality of color planes as the color plane for detection of the focused position; and focused position determination means that evaluates a degree of focusing of the data of the color plane for the detection of the focused position of each of the plurality of layers to thereby determine the focused position of the sample.SELECTED DRAWING: Figure 15

Description

本発明は、合焦位置検出装置、合焦位置検出方法、撮像システムに関する。   The present invention relates to a focus position detection device, a focus position detection method, and an imaging system.

スライド内の染色された生体試料をデジタル顕微鏡で撮像することでバーチャル・スライド画像データを取得し、これをモニターに表示して観察することが可能なバーチャル・スライドシステムが注目されている(特許文献1)。
また、厚みのある生体試料を撮像する場合に、デジタル顕微鏡を用いて光軸方向の焦点位置を変えながら、試料内の異なる深さにピントを合わせた複数のレイヤー画像データを取得する技術が知られている(特許文献2)。複数のレイヤー画像データで構成される3次元画像データはZスタック画像データと呼ばれる。
また、顕微鏡の合焦位置を安定して検出する技術が知られている(特許文献3)。
また、実質的に透明である無染色細胞等の位相物体の合焦位置を決定する技術が知られている(特許文献4)。
Attention has been focused on a virtual slide system capable of acquiring virtual slide image data by imaging a stained biological sample in a slide with a digital microscope and displaying the image on a monitor for observation (Patent Literature). 1).
In addition, when imaging a thick biological sample, there is a technology for acquiring multiple layer image data focused on different depths in the sample while changing the focal position in the optical axis direction using a digital microscope. (Patent Document 2). Three-dimensional image data composed of a plurality of layer image data is called Z stack image data.
In addition, a technique for stably detecting a focus position of a microscope is known (Patent Document 3).
In addition, a technique for determining a focus position of a phase object such as an unstained cell that is substantially transparent is known (Patent Document 4).

特開2011−118107号公報JP 2011-118107 A 特開2010−191000号公報JP 2010-191000 A 特開平10−232343号公報JP-A-10-232343 特開2008−20498号公報JP 2008-20498 A

従来、顕微鏡やバーチャル・スライドシステムの合焦位置検出では、生体試料や病理標本の複数のZスタック画像データそれぞれからコントラスト値を算出し、最大コントラスト値のZ位置を合焦位置としていた。   Conventionally, in focus position detection of a microscope or a virtual slide system, a contrast value is calculated from each of a plurality of Z stack image data of a biological sample or a pathological specimen, and the Z position of the maximum contrast value is set as the focus position.

しかし、無染色細胞ではなく、染色された生体試料や病理標本であっても、細胞核や細胞質、細胞膜などの構成要素ごとに屈折率が異なるために、合焦位置以外でコントラストが極大となる現象が発生する場合があることを、本発明者が鋭意検討して発見した。更に、当該現象のために染色された生体試料や病理標本では合焦位置の検出が不安定になる、という課題を本発明者が発見した。   However, even if it is a stained biological sample or pathological specimen, not a non-stained cell, the refractive index differs for each component such as the cell nucleus, cytoplasm, cell membrane, etc. The present inventor has intensively studied and found out that there is a case in which the above occurs. Furthermore, the present inventor has found a problem that the detection of the in-focus position becomes unstable in a biological sample or a pathological specimen stained for the phenomenon.

特許文献3で示された合焦検出技術では、光透過率が変化する物体の合焦位置を安定して検出することができる。しかし、屈折率分布を有する生体試料や病理標本に対して安定して合焦位置を検出する技術は開示されていない。
特許文献4で示された合焦検出技術では、実質的に透明である無染色細胞等の位相物体の合焦位置を検出できる。これは2つのZスタック画像データの差分画像データを利用する方法である。Zスタック画像データのデータメモリへの蓄積を前提とするため、高速化には不向きである。
With the focus detection technique disclosed in Patent Document 3, it is possible to stably detect the focus position of an object whose light transmittance changes. However, a technique for stably detecting a focus position on a biological sample or a pathological specimen having a refractive index distribution is not disclosed.
The focus detection technique disclosed in Patent Document 4 can detect the focus position of a phase object such as an unstained cell that is substantially transparent. This is a method of using difference image data of two Z stack image data. Since it is premised on the accumulation of Z stack image data in the data memory, it is not suitable for speeding up.

そこで、本発明は、屈折率分布を有する病理標本(染色細胞や染色生体試料)に対して、安定、且つ、高速に合焦位置を検出する技術を提供することを目的とする。   Therefore, an object of the present invention is to provide a technique for detecting a focus position stably and at high speed with respect to a pathological specimen (stained cell or stained biological sample) having a refractive index distribution.

本発明の第一態様は、標本に対する光軸方向の焦点位置を変えながら撮像された、前記
標本内の複数のレイヤーの画像データを用いて、前記標本の合焦位置を検出する合焦位置検出装置であって、前記画像データは、複数のカラープレーンのデータから構成される、カラー画像データであり、前記合焦位置検出装置は、前記複数のカラープレーンのうち前記標本による吸収が最も大きい色に対応するカラープレーンを、合焦位置検出用のカラープレーンとして選択する選択手段と、前記複数のレイヤーそれぞれの前記合焦位置検出用のカラープレーンのデータの合焦度合いを評価することによって、前記標本の合焦位置を決定する合焦位置決定手段と、を有することを特徴とする合焦位置検出装置を提供する。
A first aspect of the present invention is a focus position detection for detecting a focus position of the specimen using image data of a plurality of layers in the specimen, which is imaged while changing a focal position in the optical axis direction with respect to the specimen. The image data is color image data composed of data of a plurality of color planes, and the in-focus position detection device is a color having the largest absorption by the sample among the plurality of color planes. Selecting a color plane corresponding to the color plane for detecting the in-focus position, and evaluating the in-focus degree of the data of the in-focus position color plane for each of the plurality of layers, An in-focus position detecting device comprising: an in-focus position determining means for determining an in-focus position of a sample is provided.

本発明の第二態様は、前記標本を撮像する撮像ユニットと、前記撮像ユニットを制御する制御ユニットと、本発明に係る合焦位置検出装置と、を有する撮像装置であって、前記制御ユニットは、前記合焦位置検出装置によって決定された合焦位置の情報を取得し、前記撮像ユニットにより前記合焦位置での前記標本の画像データを取得する制御を行うことを特徴とする撮像装置を提供する。   A second aspect of the present invention is an imaging apparatus including an imaging unit that images the specimen, a control unit that controls the imaging unit, and a focus position detection device according to the present invention, wherein the control unit includes: An imaging apparatus is provided, wherein control is performed to acquire information on a focus position determined by the focus position detection apparatus and to acquire image data of the sample at the focus position by the imaging unit. To do.

本発明の第三態様は、標本に対する光軸方向の焦点位置を変えながら撮像された、前記標本内の複数のレイヤーの画像データを用いて、前記標本の合焦位置を検出する合焦位置検出方法であって、前記画像データは、複数のカラープレーンのデータから構成される、カラー画像データであり、前記合焦位置検出方法は、前記複数のカラープレーンのうち前記標本による吸収が最も大きい色に対応するカラープレーンを、合焦位置検出用のカラープレーンとして選択するステップと、前記複数のレイヤーそれぞれの前記合焦位置検出用のカラープレーンのデータの合焦度合いを評価することによって、前記標本の合焦位置を決定するステップと、を有することを特徴とする合焦位置検出方法を提供する。   The third aspect of the present invention is a focus position detection for detecting a focus position of the specimen using image data of a plurality of layers in the specimen, which is imaged while changing a focal position in the optical axis direction with respect to the specimen. The image data is color image data composed of data of a plurality of color planes, and the in-focus position detection method is a color having the largest absorption by the sample among the plurality of color planes. Selecting the color plane corresponding to the in-focus position detection color plane, and evaluating the in-focus degree of the data of the in-focus position color plane data of each of the plurality of layers. And a step of determining an in-focus position.

本発明の第四態様は、本発明に係る撮像装置と、前記撮像装置で取得された画像を処理する画像処理装置と、を有することを特徴とする撮像システムを提供する。   According to a fourth aspect of the present invention, there is provided an imaging system comprising: an imaging apparatus according to the present invention; and an image processing apparatus that processes an image acquired by the imaging apparatus.

本発明により、病理標本の合焦位置を安定、且つ、高速に検出する技術を提供することができる。   According to the present invention, it is possible to provide a technique for detecting a focused position of a pathological specimen stably and at high speed.

撮像システムの装置構成の全体図。1 is an overall view of a device configuration of an imaging system. 画像表示アプリケーションの表示例。A display example of an image display application. 撮像システムにおける撮像装置の機能ブロック図。The functional block diagram of the imaging device in an imaging system. 画像処理装置のハードウェア構成図。The hardware block diagram of an image processing apparatus. 標本(生体試料)が載置されたスライドを示す模式図。The schematic diagram which shows the slide in which the sample (biological sample) was mounted. 染色標本(生体試料)を説明する模式図。The schematic diagram explaining a dyeing | staining specimen (biological sample). Z軸符号を説明する模式図。The schematic diagram explaining a Z-axis code | symbol. レイヤーとカラープレーンデータを説明する模式図。FIG. 6 is a schematic diagram for explaining layer and color plane data. 顕微鏡の基本構造を説明する模式図。Schematic diagram illustrating the basic structure of the microscope. 撮像ユニットの機能ブロック図。The functional block diagram of an imaging unit. 照明ユニットの機能ブロック図。The functional block diagram of a lighting unit. 屈折率分布を有する物体のコントラスト特性を説明する模式図。The schematic diagram explaining the contrast characteristic of the object which has refractive index distribution. 屈折率分布を有する物体のコントラスト特性。Contrast characteristics of an object having a refractive index distribution. 第1の合焦位置検出方法に関する機能ブロック図。The functional block diagram regarding the 1st focus position detection method. 第1の合焦位置検出方法に関するフローチャート。The flowchart regarding the 1st focus position detection method. 第2の合焦位置検出方法に関する機能ブロック図。The functional block diagram regarding the 2nd focus position detection method. 第2の合焦位置検出方法に関するフローチャート。The flowchart regarding the 2nd focus position detection method. 第2の合焦位置検出方法に関するテーブルを説明する模式図。The schematic diagram explaining the table regarding the 2nd focus position detection method. 撮像システムにおける撮像装置の別の構成例。6 is another configuration example of an imaging device in an imaging system. 撮像システムにおける撮像装置の別の構成例。6 is another configuration example of an imaging device in an imaging system. 屈折率分布を有する物体の合焦指標値を説明する模式図。The schematic diagram explaining the focus index value of the object which has refractive index distribution.

以下、図面を参照しながら本発明の実施の形態を説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

<実施例1>
(撮像システムの装置構成)
本発明の実施形態に係る合焦位置検出装置は、撮像装置と表示装置を備えた撮像システムにおいて用いることができる。この撮像システムの構成を、図1を用いて説明する。撮像システムは、撮像装置(デジタル顕微鏡装置、またはバーチャル・スライド・スキャナ)101、画像処理装置102、表示装置103、データサーバ104から構成され、撮像対象となる標本の2次元画像を取得し表示する機能を有するシステムである。撮像装置101と画像処理装置102との間は、専用もしくは汎用I/Fのケーブル105で接続され、画像処理装置102と表示装置103の間は、汎用I/Fのケーブル106で接続される。データサーバ104と画像処理装置102との間は、ネットワーク107を介して、汎用I/FのLANケーブル108で接続される。
<Example 1>
(Device configuration of the imaging system)
The focus position detection device according to the embodiment of the present invention can be used in an imaging system including an imaging device and a display device. The configuration of this imaging system will be described with reference to FIG. The imaging system includes an imaging apparatus (digital microscope apparatus or virtual slide scanner) 101, an image processing apparatus 102, a display apparatus 103, and a data server 104, and acquires and displays a two-dimensional image of a specimen to be imaged. It is a system with functions. The imaging apparatus 101 and the image processing apparatus 102 are connected by a dedicated or general-purpose I / F cable 105, and the image processing apparatus 102 and the display apparatus 103 are connected by a general-purpose I / F cable 106. The data server 104 and the image processing apparatus 102 are connected by a general-purpose I / F LAN cable 108 via a network 107.

撮像装置101は、光軸方向(Z軸方向)に焦点位置の異なる複数枚の2次元画像データ(レイヤー画像データ)を取得し、デジタル画像を出力する機能を持つバーチャル・スライド・スキャナである。2次元画像の取得にはCCD(Charge Coupled
Device)やCMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子が用いられる。なお、バーチャル・スライド・スキャナの代わりに、通常の光学顕微鏡の接眼部にデジタルカメラを取り付けたデジタル顕微鏡装置により、撮像装置101を構成することもできる。
The imaging device 101 is a virtual slide scanner having a function of acquiring a plurality of two-dimensional image data (layer image data) having different focal positions in the optical axis direction (Z-axis direction) and outputting a digital image. CCD (Charge Coupled) is used to acquire 2D images.
A solid-state imaging device such as a device or a CMOS (Complementary Metal Oxide Semiconductor) is used. Note that, instead of the virtual slide scanner, the imaging apparatus 101 can be configured by a digital microscope apparatus in which a digital camera is attached to an eyepiece of a normal optical microscope.

画像処理装置102は、撮像装置101から取得した複数枚の原画像データ(レイヤー画像データ)から、表示装置103に表示するデータを、ユーザからの要求に応じて生成する機能等を持つ装置である。画像処理装置102は、CPU(中央演算処理装置)、RAM、記憶装置、操作部、各種I/Fなどのハードウェア資源を備えた、汎用のコンピュータやワークステーションで構成される。記憶装置は、ハードディスクドライブなどの大容量情報記憶装置であり、後述する各処理を実現するためのプログラムやデータ、OS(オペレーティングシステム)などが格納されている。後述する各機能は、CPUが記憶装置からRAMに必要なプログラムおよびデータをロードし、当該プログラムを実行することにより実現される。操作部は、キーボードやマウスなどにより構成され、ユーザが各種の指示を入力するために利用される。   The image processing apparatus 102 is an apparatus having a function of generating data to be displayed on the display apparatus 103 from a plurality of original image data (layer image data) acquired from the imaging apparatus 101 in response to a request from the user. . The image processing apparatus 102 is configured by a general-purpose computer or workstation including hardware resources such as a CPU (Central Processing Unit), a RAM, a storage device, an operation unit, and various I / Fs. The storage device is a large-capacity information storage device such as a hard disk drive, and stores programs, data, OS (operating system) and the like for realizing each processing described later. Each function described later is realized by the CPU loading a necessary program and data from the storage device to the RAM and executing the program. The operation unit includes a keyboard, a mouse, and the like, and is used by the user to input various instructions.

表示装置103は、画像処理装置102が演算処理した結果である観察用画像データを表示するディスプレイであり、液晶ディスプレイ等により構成される。
データサーバ104は、画像処理装置102が演算処理した結果である観察用画像データが格納されているサーバである。
The display device 103 is a display that displays observation image data that is a result of the arithmetic processing performed by the image processing device 102, and includes a liquid crystal display or the like.
The data server 104 is a server that stores image data for observation, which is a result of arithmetic processing performed by the image processing apparatus 102.

図1の例では、撮像装置101、画像処理装置102、表示装置103とデータサーバ104の4つの装置により撮像システムが構成されているが、本発明の構成はこの構成に限定されるものではない。例えば、表示装置と一体化した画像処理装置を用いてもよいし、画像処理装置の機能を撮像装置に組み込んでもよい。また撮像装置、画像処理装置、表示装置、データサーバの機能を1つの装置で実現することもできる。また逆に、画像処理装置等の機能を分割して複数の装置によって実現しても良い。   In the example of FIG. 1, the imaging system is configured by four devices, that is, the imaging device 101, the image processing device 102, the display device 103, and the data server 104, but the configuration of the present invention is not limited to this configuration. . For example, an image processing device integrated with a display device may be used, or the function of the image processing device may be incorporated in the imaging device. Further, the functions of the imaging device, the image processing device, the display device, and the data server can be realized by a single device. Conversely, the functions of the image processing apparatus or the like may be divided and realized by a plurality of apparatuses.

(表示画面)
図2は、予め撮影した染色標本(生体試料)の画像データを、画像表示アプリケーションを通じて、表示装置103に表示した場合の一例である。
(Display screen)
FIG. 2 shows an example in which image data of a stained specimen (biological sample) photographed in advance is displayed on the display device 103 through an image display application.

図2は画像表示アプリケーションの画面レイアウトの基本構成である。表示画面の全体ウィンドウ201内に、表示や操作のステータスと各種画像の情報を示す情報エリア202、観察対象の標本の全体画像203、標本画像データの詳細観察用の表示領域205、表示領域205の倍率表示領域206、が配置されている。全体画像203上に描画された枠線204は、詳細観察用の表示領域205に拡大表示している領域の位置および大きさを示している。この全体画像203と枠線204によって、ユーザは標本画像データ全体中のどの部分を観察しているのかを容易に把握できる。   FIG. 2 shows the basic configuration of the screen layout of the image display application. In the entire window 201 of the display screen, there are an information area 202 indicating the status of display and operation and information on various images, an entire image 203 of a specimen to be observed, a display area 205 for detailed observation of specimen image data, and a display area 205 A magnification display area 206 is arranged. A frame line 204 drawn on the entire image 203 indicates the position and size of the area that is enlarged and displayed in the display area 205 for detailed observation. With the whole image 203 and the frame line 204, the user can easily grasp which part of the whole specimen image data is being observed.

詳細観察用の表示領域205に表示される画像データは、入力操作デバイスによる移動指示や拡大・縮小指示に対応して更新される。例えば、移動は画面上でのマウスのドラッグ操作により、拡大縮小はマウスホイールの回転等によって実現できる(例えば、ホイールの前方回転を拡大、後方回転を縮小に割り当てる)。また、焦点位置の異なる画像データへの切り替えは、所定のキー(例えばCtrlキー)を押しながらのマウスホイールの回転等で実現できる(例えば、ホイールの前方回転を奥行きが深い画像への移動に、後方回転を奥行きが浅い画像への移動に割り当てる)。上記のようなユーザの表示画像データの変更操作に伴い、表示領域205、倍率表示領域206内の表示倍率、全体画像203内の枠線204が更新される。このようにして、ユーザは所望する面内位置、奥行き位置、倍率の画像データを観察できる。   The image data displayed in the detailed observation display area 205 is updated in response to a movement instruction or an enlargement / reduction instruction from the input operation device. For example, the movement can be realized by dragging the mouse on the screen, and the enlargement / reduction can be realized by rotating the mouse wheel or the like (for example, the forward rotation of the wheel is enlarged and the backward rotation is assigned to reduction). In addition, switching to image data with a different focal position can be realized by rotating a mouse wheel or the like while pressing a predetermined key (for example, the Ctrl key) (e.g., moving the wheel forward to moving to a deep image, Assign backward rotation to move to a shallower image). As the user changes the display image data as described above, the display area 205, the display magnification in the magnification display area 206, and the frame line 204 in the entire image 203 are updated. In this way, the user can observe the desired in-plane position, depth position, and magnification image data.

(撮像装置の機能構成)
図3は、撮像装置101の機能構成を示すブロック図である。撮像装置101は、概略、照明ユニット301、ステージ302、ステージ制御ユニット305、結像光学系307、撮像ユニット310を有する。また、撮像装置101は、現像処理ユニット319、プレ計測ユニット320、メイン制御ユニット321、I/Fユニット323、合焦位置検出ユニット324を有する。
(Functional configuration of imaging device)
FIG. 3 is a block diagram illustrating a functional configuration of the imaging apparatus 101. The imaging apparatus 101 generally includes an illumination unit 301, a stage 302, a stage control unit 305, an imaging optical system 307, and an imaging unit 310. Further, the imaging apparatus 101 includes a development processing unit 319, a pre-measurement unit 320, a main control unit 321, an I / F unit 323, and a focus position detection unit 324.

照明ユニット301は、ステージ302上に配置されたスライド306に対して均一に光を照射する手段である。照明ユニット301の構成要素、機能ブロックは、図9、及び、図11で説明する。   The illumination unit 301 is a unit that uniformly irradiates light onto the slide 306 disposed on the stage 302. Components and functional blocks of the lighting unit 301 will be described with reference to FIGS. 9 and 11.

ステージ302は、ステージ制御ユニット305によって駆動制御され、XYZの3軸方向への移動が可能である。
スライド306は、観察対象となる組織の切片をスライドグラス上に貼り付け、封入剤とともにカバーグラスの下に固定した部材である。
ステージ制御ユニット305は、駆動制御系303とステージ駆動機構304を有する。駆動制御系303は、メイン制御ユニット321の指示を受け、ステージ302の駆動制御を行う。ステージ302の移動方向、移動量などは、プレ計測ユニット320によって計測した標本の位置情報および厚み情報(距離情報)と、必要に応じてユーザからの指示とに基づいて決定される。ステージ駆動機構304は、駆動制御系303の指示に従い、ステージ302を駆動する。
The stage 302 is driven and controlled by the stage control unit 305, and can move in the three-axis directions of XYZ.
The slide 306 is a member in which a section of tissue to be observed is attached on a slide glass and fixed under the cover glass together with an encapsulant.
The stage control unit 305 has a drive control system 303 and a stage drive mechanism 304. The drive control system 303 receives an instruction from the main control unit 321 and performs drive control of the stage 302. The moving direction, moving amount, and the like of the stage 302 are determined based on the position information and thickness information (distance information) of the sample measured by the pre-measurement unit 320 and an instruction from the user as necessary. The stage drive mechanism 304 drives the stage 302 in accordance with instructions from the drive control system 303.

結像光学系307は、スライド306の標本の光学像を撮像センサ308へ結像するためのレンズ群である。結像光学系307の光学構成は図9で説明する。   The imaging optical system 307 is a lens group for forming an optical image of the specimen on the slide 306 on the imaging sensor 308. The optical configuration of the imaging optical system 307 will be described with reference to FIG.

撮像ユニット310は、撮像センサ308とアナログフロントエンド(AFE)309を有する。撮像センサ308は、2次元の光学像を光電変換によって電気的な物理量へ変える1次元もしくは2次元のイメージセンサであり、例えば、CCDやCMOSデバイス
が用いられる。1次元センサの場合、走査方向へ電気的にスキャンするとともに、副走査方向へステージ302を移動させることで2次元画像が得られる。撮像センサ308からは、光の強度に応じた電圧値をもつ電気信号が出力される。撮像画像データとしてカラー画像データが所望される場合は、例えば、Bayer配列のカラーフィルタが取り付けられた単板のイメージセンサを用いたり、RGBの三板式のイメージセンサを用いたりすればよい。撮像ユニット310は、ステージ302をXY軸方向に駆動させることにより、標本の分割画像データを取得する。AFE309は、撮像センサ308の動作を制御する回路、及び、撮像センサ308から出力されたアナログ信号をデジタル信号へ変換する回路である。AFE309は、H/Vドライバ、CDS(Correlated Double Sampling)、アンプ、AD変換器およびタイミングジェネレータによって構成される。H/Vドライバは、撮像センサ308を駆動するための垂直同期信号および水平同期信号を、センサ駆動に必要な電位に変換する。CDSは、固定パターンのノイズを除去する相関2重サンプリング回路である。アンプは、CDSでノイズ除去されたアナログ信号のゲインを調整するアナログアンプである。AD変換器は、アナログ信号をデジタル信号に変換する。撮像装置最終段での出力が8ビットの場合、後段の処理を考慮して、AD変換器はアナログ信号を10ビットから16ビット程度に量子化されたデジタルデータへ変換し、出力する。変換されたセンサ出力データはRAWデータと呼ばれる。RAWデータは後段の現像処理ユニット319で現像処理される。タイミングジェネレータは、撮像センサ308のタイミングおよび後段の現像処理ユニット319のタイミングを調整する信号を生成する。撮像センサ308としてCCDを用いる場合、上記AFE309は必須となるが、デジタル出力可能なCMOSイメージセンサの場合は、上記AFE309の機能をセンサに内包することになる。図3の撮像ユニット310では撮像した画像データの流れを説明するのに必要最小限の機能ブロックのみを示した。撮像ユニット310のその他の構成要素、機能ブロックは図9、及び、図10で説明する。
The imaging unit 310 includes an imaging sensor 308 and an analog front end (AFE) 309. The imaging sensor 308 is a one-dimensional or two-dimensional image sensor that changes a two-dimensional optical image into an electrical physical quantity by photoelectric conversion, and for example, a CCD or a CMOS device is used. In the case of a one-dimensional sensor, a two-dimensional image is obtained by electrically scanning in the scanning direction and moving the stage 302 in the sub-scanning direction. An electric signal having a voltage value corresponding to the intensity of light is output from the image sensor 308. When color image data is desired as the captured image data, for example, a single-plate image sensor to which a Bayer array color filter is attached may be used, or an RGB three-plate image sensor may be used. The imaging unit 310 acquires the divided image data of the specimen by driving the stage 302 in the XY axis direction. The AFE 309 is a circuit that controls the operation of the image sensor 308 and a circuit that converts an analog signal output from the image sensor 308 into a digital signal. The AFE 309 includes an H / V driver, a CDS (Correlated Double Sampling), an amplifier, an AD converter, and a timing generator. The H / V driver converts a vertical synchronizing signal and a horizontal synchronizing signal for driving the image sensor 308 into potentials necessary for driving the sensor. CDS is a correlated double sampling circuit that removes fixed pattern noise. The amplifier is an analog amplifier that adjusts the gain of an analog signal from which noise has been removed by CDS. The AD converter converts an analog signal into a digital signal. When the output at the final stage of the imaging apparatus is 8 bits, the AD converter converts the analog signal into digital data quantized from about 10 bits to about 16 bits and outputs it in consideration of subsequent processing. The converted sensor output data is called RAW data. The RAW data is developed by a subsequent development processing unit 319. The timing generator generates a signal for adjusting the timing of the image sensor 308 and the timing of the development processing unit 319 at the subsequent stage. When a CCD is used as the image sensor 308, the AFE 309 is indispensable. However, in the case of a CMOS image sensor capable of digital output, the function of the AFE 309 is included in the sensor. In the imaging unit 310 of FIG. 3, only the minimum functional blocks necessary for explaining the flow of captured image data are shown. Other components and functional blocks of the imaging unit 310 will be described with reference to FIGS. 9 and 10.

現像処理ユニット319は、黒補正部311、デモザイキング処理部312、ホワイトバランス調整部313、画像合成処理部314、フィルタ処理部316、ガンマ補正部317を有する。黒補正部311は、RAWデータの各画素の値から、バックグラウンド(遮光時に得られた黒補正データ)を減算する処理を行う。デモザイキング処理部312は、Bayer配列のRAWデータから、RGB各色の画像データを生成する処理を行う。デモザイキング処理部312は、RAWデータにおける周辺画素(同色の画素と他色の画素を含む)の値を補間することによって、注目画素のRGB各色の値を計算する。また、デモザイキング処理部312は、欠陥画素の補正処理(補間処理)も実行する。なお、撮像センサ308がカラーフィルタを有しておらず、単色の画像データが得られている場合、デモザイキング処理は不要となり、欠陥画素の補正処理を実行する。三板式の撮像センサ308を用いた場合もデモザイキング処理は不要である。ホワイトバランス調整部313は、照明ユニット301の光の色温度に応じて、RGB各色のゲインを調整することによって、望ましい白色を再現する処理を行う。画像合成処理部314は、撮像センサ308によって分割して撮像された複数の分割画像データをつなぎ合わせて所望の撮像範囲の大サイズ画像データを生成する処理を行う。一般に、既存のイメージセンサによって1回の撮像で取得できる撮像範囲より標本の存在範囲が広いため、1枚の2次元画像データを分割された画像データのつなぎ合わせによって生成する。1回の撮像で画像が取得される領域を「タイル」、タイルの分割画像データを「タイル画像」とも称す。例えば、0.25μmの分解能でスライド306上の10mm角の範囲を撮像すると仮定した場合、一辺の画素数は10mm/0.25μmの4万画素となり、トータルの画素数はその自乗である16億画素となる。10M(1000万)の画素数を持つ撮像センサ308を用いて16億画素の画像データを取得するには、160個(=16億/1000万)のタイルに分割して撮像を行う必要がある。なお、複数のタイル画像をつなぎ合わせる方法としては、ステージ302の位置情報に基づいて位置合わせをしてつなぐ方法や、複数のタイル画像の対応する点または線を対応させてつなぐ方法などがある。つなぎ合わせの際、0次補間
、線形補間、高次補間等の補間処理により滑らかにつなげることができる。フィルタ処理部316は、画像に含まれる高周波成分の抑制、ノイズ除去、解像感強調を実現するデジタルフィルタである。ガンマ補正部317は、画像に一般的な表示デバイスの階調表現特性の逆特性を付加する処理を実行したり、高輝度部の階調圧縮や暗部処理によって人間の視覚特性に合わせた階調変換を実行したりする。本実施例では形態観察を目的とした画像取得のため、後段の合成処理や表示処理に適した階調変換が画像データに対して適用される。
The development processing unit 319 includes a black correction unit 311, a demosaicing processing unit 312, a white balance adjustment unit 313, an image composition processing unit 314, a filter processing unit 316, and a gamma correction unit 317. The black correction unit 311 performs a process of subtracting the background (black correction data obtained at the time of light shielding) from the value of each pixel of the RAW data. The demosaicing processing unit 312 performs processing for generating image data of each color of RGB from RAW data in the Bayer array. The demosaicing processing unit 312 calculates the value of each color of RGB of the target pixel by interpolating the values of peripheral pixels (including pixels of the same color and other colors) in the RAW data. In addition, the demosaicing processing unit 312 also performs defective pixel correction processing (interpolation processing). Note that when the image sensor 308 does not have a color filter and single-color image data is obtained, the demosaicing process is not necessary, and the defective pixel correction process is executed. The demosaicing process is unnecessary even when the three-plate image sensor 308 is used. The white balance adjustment unit 313 performs a process of reproducing a desired white color by adjusting the gain of each RGB color according to the color temperature of the light of the illumination unit 301. The image composition processing unit 314 performs a process of generating a large size image data in a desired imaging range by connecting a plurality of divided image data captured by the imaging sensor 308. In general, since the existence range of the specimen is wider than the imaging range that can be acquired by one imaging with an existing image sensor, one piece of two-dimensional image data is generated by joining the divided image data. A region where an image is acquired by one imaging is also referred to as a “tile”, and tile divided image data is also referred to as a “tile image”. For example, assuming that a 10 mm square range on the slide 306 is imaged with a resolution of 0.25 μm, the number of pixels on one side is 40,000 pixels of 10 mm / 0.25 μm, and the total number of pixels is 1.6 billion, which is the square. It becomes a pixel. In order to acquire image data of 1.6 billion pixels by using the image sensor 308 having 10M (10 million) pixels, it is necessary to divide the image into 160 (= 1,600,000,000) tiles and perform imaging. . Note that as a method of connecting a plurality of tile images, there are a method of connecting by aligning based on position information of the stage 302, a method of connecting corresponding points or lines of a plurality of tile images, and the like. At the time of joining, it can be smoothly connected by interpolation processing such as zero-order interpolation, linear interpolation, and high-order interpolation. The filter processing unit 316 is a digital filter that realizes suppression of high-frequency components included in an image, noise removal, and resolution enhancement. The gamma correction unit 317 executes processing for adding an inverse characteristic of the gradation expression characteristic of a general display device to an image, or gradation that matches human visual characteristics by gradation compression or dark part processing of a high luminance part. Or perform a conversion. In this embodiment, in order to acquire an image for the purpose of morphological observation, gradation conversion suitable for the subsequent synthesis processing and display processing is applied to the image data.

プレ計測ユニット320は、スライド306上の標本の位置情報、所望の焦点位置までの距離情報、および標本厚みに起因する光量調整用のパラメータを算出するための事前計測を行うユニットである。本計測(撮像画像データの取得)の前にプレ計測ユニット320によって情報を取得することで、無駄のない撮像を実施することが可能となる。2次元平面の位置情報取得には、撮像センサ308より解像度の小さい2次元撮像センサが用いられる。プレ計測ユニット320は、取得した画像データから標本のXY平面上での位置を把握する。距離情報および厚み情報の取得には、レーザー変位計などの計測器が用いられる。また、スライド306上のラベル(図5参照)に記録されている(又はラベルに紐付けされている)標本の情報を読み取るラベル読取装置を含む。標本の情報とは、患者ID、標本ID、標本の属性(部位、染色情報など)などの情報である。   The pre-measurement unit 320 is a unit that performs pre-measurement to calculate the position information of the specimen on the slide 306, the distance information to the desired focal position, and the parameter for adjusting the amount of light caused by the specimen thickness. By acquiring information by the pre-measurement unit 320 before the main measurement (acquisition of captured image data), it is possible to perform image capturing without waste. A two-dimensional image sensor having a resolution smaller than that of the image sensor 308 is used for acquiring position information on the two-dimensional plane. The pre-measurement unit 320 grasps the position of the sample on the XY plane from the acquired image data. A measuring instrument such as a laser displacement meter is used to acquire distance information and thickness information. Also included is a label reader that reads information on the specimen recorded on (or linked to) the label (see FIG. 5) on the slide 306. Specimen information is information such as patient ID, specimen ID, specimen attributes (parts, staining information, etc.).

メイン制御ユニット321は、これまで説明してきた各種ユニットの制御を行う機能である。メイン制御ユニット321および現像処理ユニット319の制御機能は、CPUとROMとRAMを有する制御回路により実現される。すなわち、ROM内にプログラムおよびデータが格納されており、CPUがRAMをワークメモリとして使いプログラムを実行することで、メイン制御ユニット321および現像処理ユニット319の機能が実現される。ROMには例えばEEPROMやフラッシュメモリなどのデバイスが用いられ、RAMには例えばDDR3などのDRAMデバイスが用いられる。なお、現像処理ユニット319の機能を専用のハードウェアデバイスとしてASIC化したもので置き換えても良い。   The main control unit 321 is a function for controlling the various units described so far. The control functions of the main control unit 321 and the development processing unit 319 are realized by a control circuit having a CPU, a ROM, and a RAM. That is, the program and data are stored in the ROM, and the functions of the main control unit 321 and the development processing unit 319 are realized by the CPU executing the program using the RAM as a work memory. For example, a device such as an EEPROM or a flash memory is used as the ROM, and a DRAM device such as DDR3 is used as the RAM. Note that the function of the development processing unit 319 may be replaced with an ASIC implemented as a dedicated hardware device.

I/Fユニット323は、現像処理ユニット319によって生成された画像データに圧縮処理を行い、圧縮処理された画像データを画像処理装置102に送信する。圧縮処理部318は、大容量の2次元画像データの伝送の効率化および保存する際の容量削減が目的で行われる圧縮の符号化処理を実行する。静止画像の圧縮手法として、JPEG(Joint Photographic Experts Group)、JPEGを改良、進化させたJPEG2000やJPEG XR等の規格化された符号化方式が広く一般に知られている。外部装置I/F322は、圧縮処理された画像データを画像処理装置102に送るためのインターフェースである。撮像装置101と画像処理装置102とは、光通信のケーブルにより接続される。あるいは、USBやGigabitEthernet(登録商標)等の汎用インターフェースが使用される。   The I / F unit 323 performs compression processing on the image data generated by the development processing unit 319 and transmits the compressed image data to the image processing apparatus 102. The compression processing unit 318 executes an encoding process of compression performed for the purpose of improving the efficiency of transmission of large-capacity two-dimensional image data and reducing the capacity when storing the data. As a still image compression technique, standardized encoding methods such as JPEG (Joint Photographic Experts Group) and JPEG 2000 and JPEG XR improved and evolved from JPEG are widely known. The external device I / F 322 is an interface for sending the compressed image data to the image processing device 102. The imaging apparatus 101 and the image processing apparatus 102 are connected by an optical communication cable. Alternatively, a general-purpose interface such as USB or Gigabit Ethernet (registered trademark) is used.

合焦位置検出ユニット324は、合焦位置の検出を行う機能を有する合焦位置検出装置である。合焦位置検出ユニットの処理内容は後述する(第1の合焦位置検出方法は図14と図15で説明し、第2の合焦位置検出方法は図16と図17、図18で説明する。)。   The focus position detection unit 324 is a focus position detection device having a function of detecting the focus position. The processing contents of the focus position detection unit will be described later (the first focus position detection method will be described with reference to FIGS. 14 and 15, and the second focus position detection method will be described with reference to FIGS. 16, 17 and 18). .)

(画像処理装置のハードウェア構成)
図4は、本発明の画像処理装置102のハードウェア構成を示すブロック図である。画像処理を行う装置として、例えばPC(Personal Computer)が用いられる。PCは、CPU401、メインメモリ402、演算処理ボード403、グラフィックスボード404、これらを互いに接続する内部バス405を備える。またPCは、LAN I/F406、記憶装置I/F407、外部装置I/F409、操作I/F410、
入出力I/F413を備える。
(Hardware configuration of image processing device)
FIG. 4 is a block diagram showing a hardware configuration of the image processing apparatus 102 according to the present invention. For example, a PC (Personal Computer) is used as an apparatus for performing image processing. The PC includes a CPU 401, a main memory 402, an arithmetic processing board 403, a graphics board 404, and an internal bus 405 for connecting them together. The PC includes a LAN I / F 406, a storage device I / F 407, an external device I / F 409, an operation I / F 410,
An input / output I / F 413 is provided.

CPU401は、必要に応じてメインメモリ402に格納されているプログラムやデータを用いてPCの各ブロック全体を統括的に制御する。メインメモリ402はRAM(Randam Access Memory)により構成される。メインメモリ402は、CPU401の作業用領域等として用いられ、OS、実行中の各種プログラム、表示用データの生成など処理の対象となる各種データを一時的に保持する。また、メインメモリ402は、画像データの格納領域としても用いられる。CPU401のDMA(Direct Memory Access)機能により、メインメモリ402とグラフィックスボード404の間の画像データの高速転送を実現できる。グラフィックスボード404は、表示装置103に画像処理結果を出力する。表示装置103は、例えば液晶、EL(Electro−Luminescence)等を用いた表示デバイスである。当該表示装置103は、外部装置として接続される形態を想定しているが、表示装置と一体化したPCを想定してもよい。例えばノートPCがこれに該当する。演算処理ボード403は、画像処理など特定の演算機能が強化されたプロセッサおよびバッファメモリ(不図示)を備えている。以降の説明では各種演算処理、データ処理にはCPU401を、メモリ領域としてメインメモリ402を用いるとして説明するが、演算処理ボード内のプロセッサやバッファメモリを用いることも可能であり、これも本発明の範疇とする。   The CPU 401 comprehensively controls the entire blocks of the PC using programs and data stored in the main memory 402 as necessary. The main memory 402 is configured by a RAM (Randam Access Memory). The main memory 402 is used as a work area for the CPU 401, and temporarily stores various data to be processed such as an OS, various programs being executed, and display data generation. The main memory 402 is also used as a storage area for image data. A high-speed transfer of image data between the main memory 402 and the graphics board 404 can be realized by a DMA (Direct Memory Access) function of the CPU 401. The graphics board 404 outputs the image processing result to the display device 103. The display device 103 is a display device using, for example, liquid crystal, EL (Electro-Luminescence), or the like. Although the display device 103 is assumed to be connected as an external device, a PC integrated with the display device may be assumed. For example, a notebook PC corresponds to this. The arithmetic processing board 403 includes a processor and a buffer memory (not shown) in which specific arithmetic functions such as image processing are enhanced. In the following description, the CPU 401 is used for various arithmetic processes and data processes, and the main memory 402 is used as a memory area. However, a processor or a buffer memory in the arithmetic processing board can also be used. Category.

入出力I/F413には、LAN I/F406を介してデータサーバ104が、記憶装置I/F407を介して記憶装置408が、外部装置I/F409を介して撮像装置101が、操作I/F410を介してキーボード411やマウス412が接続される。記憶装置408は、CPU401に実行させるOS、プログラム、ファームウェアや、各種パラメータなどの情報を固定的に記憶している補助記憶装置である。また、記憶装置408は、撮像装置101から送られてきた画像データの格納領域としても用いられる。HDD(Hard Disk Drive)等の磁気ディスクドライブや、SSD(Solid
State Drive)、Flashメモリ等の半導体デバイスが用いられる。操作I/F410との接続デバイスとしてキーボード411やマウス412等のポインティングデバイスを想定しているが、タッチパネル等、表示装置103の画面が直接入力デバイスとなる構成を取ることも可能である。その場合、タッチパネルは表示装置103と一体となり得る。
The input / output I / F 413 includes a data server 104 via a LAN I / F 406, a storage device 408 via a storage device I / F 407, an imaging device 101 via an external device I / F 409, and an operation I / F 410. A keyboard 411 and a mouse 412 are connected via the terminal. The storage device 408 is an auxiliary storage device that permanently stores information such as an OS, a program, firmware, and various parameters that are executed by the CPU 401. The storage device 408 is also used as a storage area for image data sent from the imaging device 101. Magnetic disk drives such as HDD (Hard Disk Drive), SSD (Solid)
A semiconductor device such as a state drive) or a flash memory is used. Although a pointing device such as a keyboard 411 and a mouse 412 is assumed as a connection device with the operation I / F 410, a configuration in which the screen of the display device 103 directly serves as an input device such as a touch panel may be employed. In that case, the touch panel can be integrated with the display device 103.

(スライド)
図5は、標本(生体試料)501が載置されたスライド306を示す模式図である。病理標本のスライドでは、スライドグラス502上に載置した標本501が封入剤(不図示)とその上に載せるカバーグラス503によって封入されている。標本501の大きさや厚みは検体毎によって異なっている。更にスライドグラス502上には標本に関する情報が記録されたラベルエリア504が存在する。ラベルエリア504への情報の記録は、ペンによる記入でもよいし、バーコードや2次元コードの印刷でもよい。また電気的、磁気的、または光学的な方法により情報を記憶可能な記憶媒体をラベルエリア504に設けてもよい。以降の実施形態では、被写体として図5に示す病理標本のスライドを例に説明する。
(slide)
FIG. 5 is a schematic diagram showing a slide 306 on which a specimen (biological sample) 501 is placed. In a pathological specimen slide, a specimen 501 placed on a slide glass 502 is enclosed by an encapsulating agent (not shown) and a cover glass 503 placed thereon. The size and thickness of the specimen 501 vary depending on the specimen. Further, a label area 504 in which information related to the specimen is recorded exists on the slide glass 502. Information can be recorded in the label area 504 by pen entry or printing of a barcode or a two-dimensional code. In addition, a storage medium that can store information by an electrical, magnetic, or optical method may be provided in the label area 504. In the following embodiments, the pathological specimen slide shown in FIG. 5 will be described as an example of the subject.

(染色標本)
図6は、染色標本(生体試料)を説明する模式図である。病理標本では、標本(生体試料)501は厚さ4〜5μm程度で、2〜3inchのスライドに収まる程度の大きさである。標本(生体試料)501を拡大すると組織に応じた細胞601の配列が観察できる。細胞601は核602と細胞質603とで構成される。組織に応じて細胞の配列や大きさ、細胞を構成する核の形・大きさなどは異なる。例えば、肝細胞であれば細胞直径は約20μm、核の大きさは約5〜15μmである。生体試料は無色透明であり、そのまま観
察したのでは組織構造が分かりにくい。そのため、標本の組織構造を観察しやすくするために、病理標本では染色が行われる。病理組織診では、基本的にはHE(ヘマトキシリン・エオシン)染色が行われるが、診断目的に応じて免疫染色、FISH(蛍光 in situ
ハイブリダイゼーション)法なども行われる。本実施の形態では、病理組織診で一般的に行われるHE染色を例に説明する。HE染色では核内のクロマチンを濃青色に、細胞質を淡赤色に染め分ける。
(Stained specimen)
FIG. 6 is a schematic diagram for explaining a stained specimen (biological sample). In the pathological specimen, the specimen (biological sample) 501 has a thickness of about 4 to 5 μm and is large enough to fit on a 2 to 3 inch slide. When the specimen (biological sample) 501 is enlarged, the arrangement of the cells 601 corresponding to the tissue can be observed. A cell 601 is composed of a nucleus 602 and a cytoplasm 603. Depending on the tissue, the arrangement and size of cells and the shape and size of the nuclei that make up the cells vary. For example, in the case of hepatocytes, the cell diameter is about 20 μm, and the nucleus size is about 5 to 15 μm. The biological sample is colorless and transparent, and the tissue structure is difficult to understand if observed directly. Therefore, in order to make it easy to observe the tissue structure of the specimen, the pathological specimen is stained. In histopathological examination, HE (hematoxylin and eosin) staining is basically performed, but depending on the purpose of diagnosis, immunostaining and FISH (fluorescence in situ) are performed.
A hybridization method is also performed. In the present embodiment, HE staining generally performed in histopathological diagnosis will be described as an example. In HE staining, the chromatin in the nucleus is dyed dark blue and the cytoplasm is dyed light red.

(焦点位置とZ軸符号)
図7(a)〜図7(c)は、焦点位置とZ軸符号を説明する模式図である。本実施の形態では、Z軸は光源側(照明ユニット301側)を負(−)方向、対物レンズ側(結像光学系307側)を正(+)方向とする。また、焦点位置701とは、撮像センサ308の撮像面と光学的共役な関係にある面の位置とする。
(Focus position and Z-axis code)
Fig.7 (a)-FIG.7 (c) are the schematic diagrams explaining a focus position and a Z-axis code | symbol. In the present embodiment, the Z-axis has a light source side (illumination unit 301 side) as a negative (−) direction and an objective lens side (imaging optical system 307 side) as a positive (+) direction. The focal position 701 is the position of a surface that is optically conjugate with the imaging surface of the imaging sensor 308.

図7(a)は、焦点位置701に対して標本(生体試料)501の厚み中心のZ位置が+側にある様子を示している。半透明な標本(生体試料)であれば、ネガティブ(ブライト)コントラストを有するネガティブ(ブライト)像が得られる。ネガティブ(ブライト)像とは、屈折率が高い領域が明るく、屈折率が低い領域が暗く結像された像である。図7(b)は、焦点位置701に標本(生体試料)501の厚み中心のZ位置がある様子を示している。屈折率変化が小さい標本(生体試料)であれば、像はほとんど得られない。図7(c)は、焦点位置701に対して標本(生体試料)501の厚み中心のZ位置が−側にある様子を示している。半透明な標本(生体試料)であれば、ポジティブ(ダーク)コントラストを有するポジティブ(ダーク)像が得られる。ポジティブ(ダーク)像とは、屈折率が高い領域が暗く、屈折率が低い領域が明るく結像された像である。   FIG. 7A shows a state where the Z position of the thickness center of the specimen (biological sample) 501 is on the + side with respect to the focal position 701. In the case of a translucent specimen (biological sample), a negative (bright) image having a negative (bright) contrast is obtained. A negative (bright) image is an image in which a region with a high refractive index is bright and a region with a low refractive index is dark. FIG. 7B shows that the Z position at the center of the thickness of the specimen (biological sample) 501 is at the focal position 701. If the sample has a small change in refractive index (biological sample), an image is hardly obtained. FIG. 7C shows a state where the Z position of the thickness center of the specimen (biological sample) 501 is on the negative side with respect to the focal position 701. If it is a translucent specimen (biological sample), a positive (dark) image having a positive (dark) contrast is obtained. A positive (dark) image is an image in which a region having a high refractive index is dark and a region having a low refractive index is brightly imaged.

ここで、Z軸方向の位置を示す用語をまとめる。焦点位置701とは、撮像センサ308の撮像面と光学的共役な関係にある面の位置である。合焦位置とは、観察すべき物体(核など)が標本の厚み中心のZ位置に存在すると仮定し、標本の厚み中心が焦点位置に一致する位置である。デフォーカス量d=0の位置とは、標本の厚み中心が焦点位置に一致する位置であり、合焦位置のことである。デフォーカス量d>0は、標本の厚み中心と焦点位置の関係が図7(a)の状態であることを意味する。デフォーカス量d<0は、標本の厚み中心と焦点位置の関係が図7(c)の状態であることを意味する。   Here, the terms indicating the position in the Z-axis direction are summarized. The focal position 701 is a position of a surface that is optically conjugate with the imaging surface of the imaging sensor 308. The in-focus position is a position where an object to be observed (such as a nucleus) is present at the Z position of the thickness center of the sample and the thickness center of the sample matches the focal position. The position of the defocus amount d = 0 is a position where the thickness center of the sample coincides with the focal position, and is the in-focus position. A defocus amount d> 0 means that the relationship between the thickness center of the sample and the focal position is in the state shown in FIG. The defocus amount d <0 means that the relationship between the thickness center of the specimen and the focal position is in the state shown in FIG.

(レイヤーとカラープレーンデータ)
図8は、レイヤーとカラープレーンデータを説明する模式図である。像側のレイヤーとカラープレーンデータの光軸方向(Z軸方向)の位置関係を示す図である。標本内の光軸方向(Z軸方向)の特定の層をレイヤーと呼ぶ。レイヤーに含まれ、且つ、光軸方向(Z軸方向)の特定の位置で取得した2次元画像データがレイヤー画像データである。カラー画像データを取得する場合には、各カラーのレイヤー画像データ取得時の像側の光軸方向(Z軸方向)の位置は同一位置に限る必要はない。例えば、RGBそれぞれのレイヤー画像データを取得する場合に、軸上色収差を補正するために各カラーで撮像面の光軸方向(Z軸方向)の位置を異ならせることがある。本明細書では、カラーのレイヤー画像データを特に指し示す場合にはカラープレーンデータと呼称し、カラーに限定されない場合には単純にレイヤー画像データと呼称する。
(Layer and color plane data)
FIG. 8 is a schematic diagram illustrating layers and color plane data. It is a figure which shows the positional relationship of the image side layer and the optical axis direction (Z-axis direction) of color plane data. A specific layer in the specimen in the optical axis direction (Z-axis direction) is called a layer. Two-dimensional image data included in a layer and acquired at a specific position in the optical axis direction (Z-axis direction) is layer image data. When acquiring color image data, the position in the optical axis direction (Z-axis direction) on the image side when acquiring layer image data for each color need not be limited to the same position. For example, when acquiring RGB layer image data, the position of the imaging surface in the optical axis direction (Z-axis direction) may be different for each color in order to correct axial chromatic aberration. In this specification, when color layer image data is particularly indicated, it is referred to as color plane data, and when not limited to color, it is simply referred to as layer image data.

(顕微鏡の光学系の基本構造)
図9は、顕微鏡の光学系の基本構造を説明する模式図である。顕微鏡の光学系の基本構造は、照明ユニット301、結像光学系307、撮像ユニット310を有する。照明ユニット301はケーラー照明系であり、光源面901上の面光源、フィルタホイールA909、照明レンズ903A〜903C、視野絞り907、開口絞り908を有する。光源面901に、光源面901と光軸902の交点を中心とする面光源が設けられる。結像光学
系307は、対物レンズ904、瞳面905、結像レンズ906、フィルタホイールB910を有する。結像光学系307により、標本(生体試料)501の像が像面911に形成される。フィルタホイールA909、及び、フィルタホイールB910は、カラー画像データを取得する場合にカラーフィルタを挿入するための構成要素である。そのため、フィルタホイールA909、フィルタホイールB910のいずれかにカラーフィルタが挿入されていれば良い。
(Basic structure of microscope optical system)
FIG. 9 is a schematic diagram for explaining a basic structure of an optical system of a microscope. The basic structure of the optical system of the microscope includes an illumination unit 301, an imaging optical system 307, and an imaging unit 310. The illumination unit 301 is a Kohler illumination system, and includes a surface light source on the light source surface 901, a filter wheel A909, illumination lenses 903A to 903C, a field stop 907, and an aperture stop 908. A surface light source centered on the intersection of the light source surface 901 and the optical axis 902 is provided on the light source surface 901. The imaging optical system 307 includes an objective lens 904, a pupil plane 905, an imaging lens 906, and a filter wheel B910. An image of the specimen (biological sample) 501 is formed on the image plane 911 by the imaging optical system 307. The filter wheel A909 and the filter wheel B910 are components for inserting a color filter when acquiring color image data. Therefore, it is only necessary that a color filter is inserted into either the filter wheel A909 or the filter wheel B910.

(撮像ユニット)
図10は、撮像ユニットの機能ブロック図である。撮像ユニット310は、撮像センサ308とアナログフロントエンド(AFE)309、フィルタホイールB910、撮像カラーフィルタ変更部1001、撮像センサ制御部1002を有する。撮像センサ308とアナログフロントエンド(AFE)309での処理と撮像した画像データの流れについては図3で説明した通りである。モノクロの撮像センサ308でRGBのカラープレーンデータを取得する場合には、フィルタホイールB910にRGBのカラーフィルタを挿入する。撮像カラーフィルタ変更部1001がフィルタホイールを制御してカラーフィルタを切り替え、RGB3種類のカラープレーンデータを取得する。所謂、時分割カラー撮像方式である。撮像カラーフィルタ変更部1001は、メイン制御ユニット321からの指示に基づきフィルタホイールを制御する。撮像センサ制御部1002は、撮像センサ308の撮像タイミング、撮像時間を制御する。
(Imaging unit)
FIG. 10 is a functional block diagram of the imaging unit. The imaging unit 310 includes an imaging sensor 308, an analog front end (AFE) 309, a filter wheel B910, an imaging color filter changing unit 1001, and an imaging sensor control unit 1002. The processing in the image sensor 308 and the analog front end (AFE) 309 and the flow of captured image data are as described in FIG. When RGB color plane data is acquired by the monochrome imaging sensor 308, RGB color filters are inserted into the filter wheel B910. The imaging color filter changing unit 1001 controls the filter wheel to switch the color filters, and acquires RGB three types of color plane data. This is a so-called time-division color imaging system. The imaging color filter changing unit 1001 controls the filter wheel based on an instruction from the main control unit 321. The imaging sensor control unit 1002 controls the imaging timing and imaging time of the imaging sensor 308.

(照明ユニット)
図11は、照明ユニットの機能ブロック図である。照明ユニット301は、面光源1101、フィルタホイールA909、照明レンズA903A、視野絞り907、照明レンズB903B、開口絞り908、照明レンズC903Cを有する。さらに照明ユニット301は、光源制御部1102、照明カラーフィルタ変更部1103、視野絞り変更部1104、開口絞り変更部1105を有する。モノクロの撮像センサ308でRGBのカラープレーンデータを取得する場合には、フィルタホイールA909にRGBのカラーフィルタを挿入する。照明カラーフィルタ変更部1103がフィルタホイールを制御してカラーフィルタを切り替え、RGB3種類のカラープレーンデータを取得する。所謂、時分割カラー撮像方式である。照明カラーフィルタ変更部1103は、メイン制御ユニット321からの指示に基づきフィルタホイールを制御する。光源制御部1102は、面光源1101の発光タイミング、発光時間を制御する。視野絞り変更部1104は、標本の観察範囲に照明光が当たるように視野絞り907を制御する。開口絞り変更部1105は、観察像のコントラストと解像力がバランスするように開口絞り908を制御する。開口絞り908は、一般的に、対物レンズ904の瞳の直径の7割から8割程度に設定する。
(Lighting unit)
FIG. 11 is a functional block diagram of the lighting unit. The illumination unit 301 includes a surface light source 1101, a filter wheel A909, an illumination lens A903A, a field stop 907, an illumination lens B903B, an aperture stop 908, and an illumination lens C903C. The illumination unit 301 further includes a light source control unit 1102, an illumination color filter change unit 1103, a field stop change unit 1104, and an aperture stop change unit 1105. When RGB color plane data is acquired by the monochrome imaging sensor 308, RGB color filters are inserted into the filter wheel A909. The illumination color filter changing unit 1103 controls the filter wheel to switch color filters, and acquires RGB three types of color plane data. This is a so-called time-division color imaging system. The illumination color filter changing unit 1103 controls the filter wheel based on an instruction from the main control unit 321. The light source control unit 1102 controls the light emission timing and the light emission time of the surface light source 1101. The field stop changing unit 1104 controls the field stop 907 so that the illumination light falls on the observation range of the specimen. The aperture stop changing unit 1105 controls the aperture stop 908 so that the contrast and resolution of the observation image are balanced. The aperture stop 908 is generally set to about 70% to 80% of the diameter of the pupil of the objective lens 904.

(撮像ユニットと照明ユニットの関係性)
撮像ユニット310と照明ユニット301は同期して撮像動作を実行する必要がある。そのため、撮像タイミングと照明タイミングが同期するように、メイン制御ユニット321は撮像センサ制御部1002と光源制御部1102に対して動作指示を行う。また、RGBのカラープレーンデータを取得するためのカラーフィルタは、撮像ユニット310、もしくは、照明ユニット301のいずれか一方に挿入すれば良い。そのため、フィルタホイールB910、フィルタホイールA909のいずれかが撮像装置101に組み込まれていれば良い。
(Relationship between imaging unit and lighting unit)
The imaging unit 310 and the illumination unit 301 need to execute an imaging operation in synchronization. Therefore, the main control unit 321 issues an operation instruction to the imaging sensor control unit 1002 and the light source control unit 1102 so that the imaging timing and the illumination timing are synchronized. A color filter for acquiring RGB color plane data may be inserted into either the imaging unit 310 or the illumination unit 301. Therefore, any one of the filter wheel B910 and the filter wheel A909 may be incorporated in the imaging device 101.

(コントラスト特性)
図12(a)〜図12(c)は、屈折率分布を有する物体のコントラスト特性を説明する模式図である。領域A1201は、半透明物体で相対的に屈折率が高い領域を模擬的に示している。一方、領域B1202は、半透明物体で相対的に屈折率が低い領域を模擬的に示している。例えば、領域A1201の屈折率が1.39、領域Bの屈折率が1.37
で、その他の領域の屈折率が1.38と考えれば良い。図12(a)は、焦点位置701に対して標本(半透明物体)の厚み中心のZ位置が+側にある場合の観察像である。図12(a)の焦点位置701と標本(半透明物体)の位置関係は図7(a)に対応する。相対的に屈折率の高い領域A1201が明るくなり、相対的に屈折率の低い領域B1202が暗くなる。図12(b)は合焦位置での観察像である。図12(b)の焦点位置701と標本(半透明物体)の位置関係は図7(b)に対応する。合焦位置では、屈折率変化が小さい半透明物体であれば、像はほとんど得られない。図12(c)は、焦点位置701に対して標本(半透明物体)の厚み中心のZ位置が−側にある場合の観察像である。図12(c)の焦点位置701と標本(半透明物体)の位置関係は図7(c)に対応する。相対的に屈折率の高い領域A1201が暗くなり、相対的に屈折率の低い領域B1202が明るくなる。
(Contrast characteristics)
FIG. 12A to FIG. 12C are schematic diagrams for explaining the contrast characteristics of an object having a refractive index distribution. A region A1201 schematically shows a semi-transparent object and a region having a relatively high refractive index. On the other hand, a region B1202 schematically shows a semi-transparent object having a relatively low refractive index. For example, the refractive index of the region A1201 is 1.39, and the refractive index of the region B is 1.37.
Therefore, the refractive index of other regions may be considered as 1.38. FIG. 12A is an observation image when the Z position of the thickness center of the specimen (semi-transparent object) is on the + side with respect to the focal position 701. The positional relationship between the focal position 701 and the specimen (semi-transparent object) in FIG. 12A corresponds to FIG. A region A1201 having a relatively high refractive index becomes bright, and a region B1202 having a relatively low refractive index becomes dark. FIG. 12B is an observation image at the in-focus position. The positional relationship between the focal position 701 and the specimen (semi-transparent object) in FIG. 12B corresponds to FIG. At the in-focus position, an image is hardly obtained if the object is a translucent object with a small change in refractive index. FIG. 12C is an observation image when the Z position of the thickness center of the specimen (semi-transparent object) is on the − side with respect to the focal position 701. The positional relationship between the focal position 701 and the specimen (semi-transparent object) in FIG. 12C corresponds to FIG. A region A1201 having a relatively high refractive index becomes dark, and a region B1202 having a relatively low refractive index becomes bright.

図12(a)〜図12(c)では、屈折率分布を有する物体のコントラスト特性を分かりやすく説明するために、半透明物体を想定している。病理標本では染色されているが、特に染色の薄い領域では図12(a)〜図12(c)で説明したコントラスト特性を示す。   In FIGS. 12A to 12C, a translucent object is assumed in order to easily explain the contrast characteristics of an object having a refractive index distribution. Although it is stained in the pathological specimen, the contrast characteristics described with reference to FIGS.

図13に屈折率分布を有する物体のコントラスト特性を示す。縦軸はコントラスト、横軸はデフォーカス量dである。1301は透過率分布の影響によるコントラスト特性である。デフォーカス量d=0でコントラストが最大となり、デフォーカス量の絶対値が大きくなるにつれてコントラストは低下する。病理標本で特に濃く染まる領域、例えばHE(ヘマトキシリン・エオシン)のヘマトキシリンに染まる核内のクロマチン、が1301に近い特性を示す。1302は屈折率分布の影響によるコントラスト特性である。デフォーカス量d=|d’|である2箇所でコントラストの絶対値が最大となる。病理標本で特に薄く染まる領域、例えばHE(ヘマトキシリン・エオシン)のエオシンに染まる細胞質、が1302に近い特性を示す。   FIG. 13 shows the contrast characteristics of an object having a refractive index distribution. The vertical axis is the contrast, and the horizontal axis is the defocus amount d. Reference numeral 1301 denotes a contrast characteristic due to the influence of the transmittance distribution. The contrast becomes maximum when the defocus amount d = 0, and the contrast decreases as the absolute value of the defocus amount increases. A region that is particularly deeply stained in a pathological specimen, for example, chromatin in the nucleus stained with hematoxylin in HE (hematoxylin and eosin), shows characteristics close to 1301. Reference numeral 1302 denotes contrast characteristics due to the influence of the refractive index distribution. The absolute value of the contrast is maximized at two locations where the defocus amount d = | d ′ |. A region that is stained lightly in a pathological specimen, for example, cytoplasm stained with eosin of HE (hematoxylin and eosin), shows characteristics close to 1302.

図13に示すコントラスト特性は、コヒーレントファクタ(照明レンズ903CのNAと対物レンズ904のNAの比)にも影響される。コヒーレントファクタが0に近づくほど1302のコントラスト特性の影響が大きくなり、コヒーレントファクタが1に近づくほど1301のコントラスト特性の影響は小さくなる。なお、顕微鏡では、一般に、観察像のコントラストと解像力がバランスするようにコヒーレントファクタを0.7から0.8程度に設定する。   The contrast characteristics shown in FIG. 13 are also affected by a coherent factor (ratio of NA of the illumination lens 903C and NA of the objective lens 904). As the coherent factor approaches 0, the influence of the contrast characteristic of 1302 increases, and as the coherent factor approaches 1, the influence of the contrast characteristic of 1301 decreases. In a microscope, the coherent factor is generally set to about 0.7 to 0.8 so that the contrast and resolution of the observation image are balanced.

(屈折率分布の影響による課題)
HE(ヘマトキシリン・エオシン)染色の病理標本のコントラスト特性は、図13に示す2つのコントラスト特性が混在した状態にある。濃く染まって透過率が低い領域は1301に近いコントラスト特性となる。代表例としてはヘマトキシリンに染まる核内のクロマチンである。薄く染まって透過率が高い領域は1302に近いコントラスト特性となる。代表例としてはエオシンに染まる細胞質である。
(Problems due to the influence of refractive index distribution)
The contrast characteristics of a pathological specimen stained with HE (hematoxylin and eosin) are in a state where the two contrast characteristics shown in FIG. 13 are mixed. A region that is darkly dyed and has low transmittance has a contrast characteristic close to 1301. A typical example is nuclear chromatin stained with hematoxylin. A region that is lightly dyed and has a high transmittance has a contrast characteristic close to 1302. A typical example is the cytoplasm stained with eosin.

本実施形態では、観察者が核に着目すると想定し、合焦操作としてはヘマトキシリンに染まる核内のクロマチンに焦点を合わせる。すなわち、図13の1301に示す透過率分布の影響によるコントラスト(以降、「振幅コントラスト」と呼ぶ)が最大となる位置を合焦位置とする。観察すべき物体(核)が標本の厚み中心のZ位置に存在すると仮定すると、標本の厚み中心が焦点位置に一致する位置が合焦位置である。ただし、合焦位置の考え方はこれに限らない。観察すべき物体(核)の標本の厚み中心からずれたZ位置に存在する場合もある。その場合は、観察すべき物体(核)のZ位置が焦点位置に一致する位置を合焦位置とすれば良い。   In this embodiment, it is assumed that the observer pays attention to the nucleus, and the focusing operation focuses on the chromatin in the nucleus stained with hematoxylin. That is, a position at which the contrast (hereinafter referred to as “amplitude contrast”) due to the influence of the transmittance distribution indicated by 1301 in FIG. Assuming that the object (nucleus) to be observed exists at the Z position of the thickness center of the specimen, the position where the thickness center of the specimen coincides with the focal position is the focus position. However, the concept of the in-focus position is not limited to this. In some cases, the object (nucleus) to be observed exists at a Z position shifted from the thickness center of the specimen. In that case, a position where the Z position of the object (nucleus) to be observed coincides with the focal position may be set as the in-focus position.

本実施形態では、図13の1302に示す屈折率分布の影響によるコントラスト(以降、「位相コントラスト」と呼ぶ)はアーチファクトとして扱う。すなわち、位相コントラスト1302の絶対値ピーク位置(デフォーカス量d=|d’|となる2箇所)は合焦位置として検出する対象ではない。本実施形態は、位相コントラスト1302によるピーク位置が存在するために振幅コントラスト1301のピーク位置検出が不安定となる課題に対する解決策を提供する。   In the present embodiment, the contrast (hereinafter referred to as “phase contrast”) due to the influence of the refractive index distribution indicated by 1302 in FIG. 13 is treated as an artifact. That is, the absolute value peak position of the phase contrast 1302 (two places where the defocus amount d = | d ′ |) is not a target to be detected as the focus position. The present embodiment provides a solution to the problem that the peak position detection of the amplitude contrast 1301 becomes unstable because the peak position due to the phase contrast 1302 exists.

ここでは着目物体を核としたが、核に限られるものではない。胃の炎症を調べる際にギムザ染色した標本を用いることがあるが、この染色ではピロリ菌が青色に染まる。この場合にはピロリ菌が着目物体となる。病理の観察目的によって着目物体は異なる。   Although the object of interest is a nucleus here, it is not limited to the nucleus. When examining stomach inflammation, Giemsa-stained specimens are sometimes used, but this stain stains H. pylori blue. In this case, H. pylori is the object of interest. The object of interest varies depending on the purpose of pathology observation.

(第1の合焦位置検出方法における撮像フロー)
図14、図15(a)、図15(b)で説明する合焦位置検出は、大きく2つの段階からなる。1つはプレ計測での合焦位置検出に用いるカラープレーンの選択である。これを「合焦に関わるプレ計測処理」と呼称する。もう1つは、本撮像での合焦位置検出である。これを「合焦に関わる本撮像処理」と呼称する。ここで本撮像とは、所望の撮像範囲の大サイズ画像データを生成するために撮像センサ308によって複数の分割画像データを取得する処理のことである。
(Imaging flow in the first focus position detection method)
The in-focus position detection described with reference to FIGS. 14, 15A, and 15B mainly includes two stages. One is selection of a color plane used for in-focus position detection in pre-measurement. This is referred to as “pre-measurement processing related to focusing”. The other is focus position detection in actual imaging. This is referred to as “main imaging processing related to focusing”. Here, the main imaging is processing for acquiring a plurality of divided image data by the imaging sensor 308 in order to generate large-size image data in a desired imaging range.

撮像フローとしては、「合焦に関わるプレ計測処理」が実行され、それぞれの分割画像データに対して「合焦に関わる本撮像処理」と「本撮像処理」が逐次実行される。これを、「逐次撮像フロー」と呼称する。また、別の撮像フローとしては、「合焦に関わるプレ計測処理」が実行され、次に「合焦に関わる本撮像処理」が実行され、最後に「本撮像処理」が一括実行される。これを、「一括撮像フロー」と呼称する。   As the imaging flow, “pre-measurement processing related to focusing” is executed, and “main imaging processing related to focusing” and “main imaging processing” are sequentially executed for each divided image data. This is referred to as a “sequential imaging flow”. As another imaging flow, “pre-measurement processing related to focusing” is executed, then “main imaging processing related to focusing” is executed, and finally “main imaging processing” is executed collectively. This is referred to as a “collective imaging flow”.

図14、図15(a)、図15(b)では、「合焦に関わるプレ計測処理」と「合焦に関わる本撮像処理」について説明する。   With reference to FIGS. 14, 15A, and 15B, the “pre-measurement process related to focusing” and the “main imaging process related to focusing” will be described.

(第1の合焦位置検出方法における合焦位置検出ユニット)
図14は、第1の合焦位置検出方法における合焦位置検出ユニットの機能ブロック図である。合焦位置検出ユニット324は、吸収判定部1402、合焦カラープレーン選択部1403、合焦位置決定部1404を有する。吸収判定部1402と合焦カラープレーン選択部1403は、「合焦に関わるプレ計測処理」に関連する機能ブロックである。合焦位置決定部1404は、「合焦に関わる本撮像処理」に関連する機能ブロックである。
(Focus position detection unit in the first focus position detection method)
FIG. 14 is a functional block diagram of the focus position detection unit in the first focus position detection method. The focus position detection unit 324 includes an absorption determination unit 1402, a focus color plane selection unit 1403, and a focus position determination unit 1404. The absorption determination unit 1402 and the in-focus color plane selection unit 1403 are functional blocks related to “pre-measurement processing related to in-focus”. The in-focus position determination unit 1404 is a functional block related to “main imaging processing related to in-focus”.

吸収判定部1402は、プレ計測ユニット320から全てのカラープレーンデータを取得し、カラープレーンの光透過率を比較する。カラープレーンデータの積算輝度値が大きいカラープレーンを光透過率が大きい(対象とするカラーの標本での吸収が小さい)と判定し、積算輝度値が小さいカラープレーンを光透過率が小さい(対象とするカラーの標本での吸収が大きい)と判定する。積算輝度値とは、カラープレーンデータの画素の値(画素値そのもの、又は画素値から換算した輝度値)の合計値又はそれに相当する値(例えば合計値を所定の値で規格化した値など)である。積算輝度値の計算には全てのレイヤーのデータを用いてもよいし、一部のレイヤー(例えば標本の厚み中心のレイヤー)のデータだけを用いてもよい。また、積算輝度値の計算には、カラープレーンデータの全ての画素の値を用いてもよいし、一部の画素(例えば、背景に該当する高輝度画素以外の画素)の値だけを用いてもよい。判定結果(各カラープレーンデータの積算輝度値、もしくは、吸収の大小関係)を合焦カラープレーン選択部1403に送信する。   The absorption determination unit 1402 acquires all color plane data from the pre-measurement unit 320 and compares the light transmittance of the color planes. A color plane with a large integrated luminance value of color plane data is determined to have a high light transmittance (absorption at a target color sample is small), and a color plane with a low integrated luminance value has a low light transmittance (target It is determined that there is a large absorption in the color sample. The integrated luminance value is a total value of pixel values of the color plane data (the pixel value itself or a luminance value converted from the pixel value) or a value corresponding thereto (for example, a value obtained by normalizing the total value with a predetermined value). It is. For calculation of the integrated luminance value, data of all layers may be used, or only data of a part of layers (for example, a layer at the center of the thickness of the sample) may be used. In addition, for the calculation of the integrated luminance value, the values of all the pixels of the color plane data may be used, or only the values of some pixels (for example, pixels other than the high luminance pixels corresponding to the background) are used. Also good. The determination result (the integrated luminance value of each color plane data or the magnitude relationship of absorption) is transmitted to the in-focus color plane selection unit 1403.

合焦カラープレーン選択部1403は、吸収判定部1402の判定結果から、合焦位置検出に用いるカラープレーンを選択する。判定結果が各カラープレーンデータの積算輝度
値の場合には、積算輝度値が最も小さいカラープレーンを合焦位置検出用カラープレーンに選択する。判定結果が吸収の大小関係の場合には、吸収が最も大きいカラープレーンを合焦位置検出用カラープレーンに選択する。
The in-focus color plane selection unit 1403 selects a color plane to be used for in-focus position detection from the determination result of the absorption determination unit 1402. If the determination result is the integrated luminance value of each color plane data, the color plane with the smallest integrated luminance value is selected as the focus position detection color plane. If the determination result is related to the magnitude of absorption, the color plane having the greatest absorption is selected as the focus position detection color plane.

合焦位置決定部1404は、撮像センサ308によって取得した標本内の複数レイヤーの画像データから合焦位置検出用のカラープレーンデータを抽出し、各カラープレーンデータの合焦度合いの評価を行う。具体的には、合焦位置決定部1404は、各カラープレーンデータの合焦指標値を算出し、合焦指標値の光軸方向(深さ方向)の分布(変化)を得る。そして、合焦指標値が極値をとるZ位置を合焦位置と解釈し、合焦位置であるZ位置を撮像装置101(メイン制御ユニット321)に送信する(逐次撮像フロー)。または、合焦位置決定部1404は、合焦位置であるZ位置をメモリに格納する(一括撮像フロー)。なお、合焦位置決定部1404は、複数タイルの分割画像データのそれぞれについて、合焦位置検出処理を行う。   The focus position determination unit 1404 extracts color plane data for focus position detection from the image data of a plurality of layers in the sample acquired by the imaging sensor 308, and evaluates the degree of focus of each color plane data. Specifically, the focus position determination unit 1404 calculates the focus index value of each color plane data, and obtains the distribution (change) of the focus index value in the optical axis direction (depth direction). Then, the Z position at which the focus index value takes an extreme value is interpreted as the focus position, and the Z position that is the focus position is transmitted to the imaging apparatus 101 (main control unit 321) (sequential imaging flow). Alternatively, the focus position determination unit 1404 stores the Z position, which is the focus position, in the memory (collective imaging flow). Note that the focus position determination unit 1404 performs focus position detection processing for each of the divided image data of a plurality of tiles.

図15(a)は、第1の合焦位置検出方法における合焦位置検出フローを示すフローチャートである。
ステップS1501では、プレ計測ユニット320からカラープレーンデータを取得する。プレ計測でベイヤー配列の2次元撮像センサが用いられる場合には、デモザイキング処理を行って、RGBのカラープレーンデータを取得する。
FIG. 15A is a flowchart showing a focus position detection flow in the first focus position detection method.
In step S1501, color plane data is acquired from the pre-measurement unit 320. When a two-dimensional imaging sensor with a Bayer array is used in the pre-measurement, a demosaicing process is performed to obtain RGB color plane data.

ステップS1502では、カラープレーンの光透過率比較を行う。カラープレーンデータの積算輝度値が大きいカラープレーンを光透過率が大きいと判定し、積算輝度値が小さいカラープレーンを光透過率が小さいと判定する。このステップS1502は図14の吸収判定部1402で実行される処理である。   In step S1502, the light transmittance of the color plane is compared. A color plane having a large integrated luminance value of the color plane data is determined to have a high light transmittance, and a color plane having a small integrated luminance value is determined to have a low light transmittance. Step S1502 is a process executed by the absorption determination unit 1402 of FIG.

ステップS1503では、合焦位置検出に用いるカラープレーンの選択(合焦カラープレーン選択)を行う。ステップS1502で光透過率が最も小さいと判定されたカラープレーンを、合焦位置検出に用いるカラープレーンとする。光透過率が小さいカラープレーンからは、図13に示した透過率分布の影響によるコントラスト1301(振幅コントラスト)が得られやすく、屈折率分布の影響によるコントラスト1302(位相コントラスト)の影響を受けにくいためである。このステップS1503は図14の合焦カラープレーン選択部1403で実行される処理である。   In step S1503, a color plane used for focus position detection is selected (focus color plane selection). The color plane determined to have the smallest light transmittance in step S1502 is set as the color plane used for in-focus position detection. A color plane having a small light transmittance can easily obtain the contrast 1301 (amplitude contrast) due to the influence of the transmittance distribution shown in FIG. 13, and is hardly affected by the contrast 1302 (phase contrast) due to the influence of the refractive index distribution. It is. Step S1503 is a process executed by the in-focus color plane selection unit 1403 in FIG.

ステップS1504、S1505では、特定のZ位置のカラープレーンデータを取得し(S1504)て、合焦指標値の算出を行う(S1505)処理を繰り返す。ここで用いるカラープレーンデータのカラープレーンはステップS1503で選択した合焦位置検出用のカラープレーンである。また、カラープレーンデータは、撮像センサ308によって撮像される1つの分割画像データのカラープレーンデータである。   In steps S1504 and S1505, the color plane data at a specific Z position is acquired (S1504), and the process of calculating the focus index value (S1505) is repeated. The color plane of the color plane data used here is the in-focus position detection color plane selected in step S1503. The color plane data is color plane data of one divided image data imaged by the imaging sensor 308.

合焦指標値とは、画像の合焦度合いを数値化した指標である。合焦指標値の算出には、どのようなアルゴリズムを用いてよい。例えば、コントラストや正規化自乗強度和などのアルゴリズム、自己相関や正規化分散などの統計アルゴリズム、Brenner微分、Vollath−5などの微分アルゴリズム、エントロピーなどのヒストグラムを利用するアルゴリズムを用いることができる。合焦指標値の光軸方向(深さ方向)の分布形状は図22で説明する。   The focus index value is an index that quantifies the degree of focus of an image. Any algorithm may be used to calculate the focus index value. For example, algorithms such as contrast and normalized square intensity sum, statistical algorithms such as autocorrelation and normalized variance, differential algorithms such as Brenner differentiation and Volath-5, and algorithms using histograms such as entropy can be used. The distribution shape of the focus index value in the optical axis direction (depth direction) will be described with reference to FIG.

ループ回数は合焦指標値の分布形状(近似曲線)が描ける最低限の回数にすることが望ましい。処理速度と合焦位置(振幅コントラストのピーク)の検出精度がバランスするようにループ回数を設定する。ループ回数は数回から数十回程度になる。   It is desirable that the number of loops be the minimum number of times that the distribution shape (approximate curve) of the focus index value can be drawn. The number of loops is set so that the processing speed and the detection accuracy of the focus position (amplitude contrast peak) are balanced. The number of loops is several to several tens.

ステップS1506では、合焦度合いの評価を行う。合焦度合いの評価の処理内容は、図15(b)で説明する。
ステップS1504、S1505、S1506は図14の合焦位置決定部1404で実行される処理である。
In step S1506, the degree of focus is evaluated. The details of the focus degree evaluation will be described with reference to FIG.
Steps S1504, S1505, and S1506 are processes executed by the focus position determination unit 1404 in FIG.

図15(b)は、第1の合焦位置検出方法における合焦度合いの評価を説明するフローチャートである。
ステップS1507では、合焦指標値の分布から極値の検出を行う。極値検出には、1階微分の符号が反転する位置を極値とする、などの一般的な手法が適用できる。合焦指標値が不安定で滑らかな曲線ではない場合には複数の極値が検出されるが、極値の最大値を選択するなどの決めごとにより一意に極値を検出することができる。合焦位置決定部1404は、ステップS1507で検出した極値のZ位置を合焦位置に決定する。
FIG. 15B is a flowchart for explaining the evaluation of the degree of focus in the first focus position detection method.
In step S1507, extreme values are detected from the distribution of the focus index values. For the extreme value detection, a general method such as setting the extreme value at the position where the sign of the first-order derivative is inverted can be applied. If the focus index value is unstable and not a smooth curve, a plurality of extreme values are detected. However, the extreme values can be uniquely detected by each decision such as selecting the maximum extreme value. The focus position determination unit 1404 determines the extreme Z position detected in step S1507 as the focus position.

ステップS1508では、ステップS1507で検出した極値が閾値内にあるかどうかを判定する閾値判定処理を行う。撮像センサ308によって複数の分割画像データが取得されるが、それぞれの分割画像データから得られる合焦指標値の極値は、ある範囲内に存在すると仮定し、その範囲を閾値として設定する。例えば、隣り合う分割画像データから得られる合焦指標値の極値は2マイクロメートル以内にある、などと設定する。閾値判定処理により極値が閾値内にないと判定された場合(ステップS1508:NO)には、当該極値を除いてステップS1507にて再び極値検出を行う。閾値判定処理により極値が閾値内に収まると判定された場合(ステップS1508:YES)にはステップS1509に進む。   In step S1508, threshold determination processing is performed to determine whether the extreme value detected in step S1507 is within the threshold. A plurality of pieces of divided image data are acquired by the image sensor 308. The extreme value of the focus index value obtained from each piece of divided image data is assumed to exist within a certain range, and the range is set as a threshold value. For example, the extreme value of the focus index value obtained from adjacent divided image data is set to be within 2 micrometers. If it is determined by the threshold determination process that the extreme value is not within the threshold (step S1508: NO), the extreme value is detected again in step S1507, excluding the extreme value. If it is determined by the threshold determination process that the extreme value falls within the threshold (step S1508: YES), the process proceeds to step S1509.

ステップS1509では、合焦位置検出ユニット324が、ステップS1507で検出した極値(合焦位置のZ位置)を合焦位置情報としてメイン制御ユニット321に順次送信する。あるいは、1つの標本を複数のタイルに分けて撮像する場合は、合焦位置検出ユニット324が各タイルの分割撮像データから得られた合焦位置情報を一時的にメモリに格納し、複数のタイルの合焦位置情報をまとめて撮像装置101へ送信してもよい。タイルごとの合焦位置情報を順次送信する場合は、分割画像データの合焦位置判定と合焦位置での画像取得(本撮像)を連続して実行する処理となる(逐次撮像フロー)。複数タイルの合焦位置情報をメモリ格納する場合は、全てのタイルの合焦位置判定の後にまとめて合焦位置での画像取得を実行する処理となる(一括撮像フロー)。いずれの処理方法を用いても良い。後者の処理方法の場合には、全てのタイルの合焦位置情報(合焦指標値の極値)がメモリに格納された後に、外れ値の除去、平滑化処理などを実施して複数の合焦位置で構成される合焦面を滑らかな面とする後処理を実行しても良い。   In step S1509, the focus position detection unit 324 sequentially transmits the extreme value (Z position of the focus position) detected in step S1507 to the main control unit 321 as focus position information. Alternatively, when one sample is divided into a plurality of tiles for imaging, the focusing position detection unit 324 temporarily stores in-focus position information obtained from the divided imaging data of each tile in the memory, and the plurality of tiles The in-focus position information may be collectively transmitted to the imaging apparatus 101. When the in-focus position information for each tile is sequentially transmitted, the in-focus position determination of the divided image data and the image acquisition (main image capturing) at the in-focus position are sequentially executed (sequential image capturing flow). When the in-focus position information of a plurality of tiles is stored in the memory, the image acquisition at the in-focus position is performed collectively after determining the in-focus positions of all the tiles (collective imaging flow). Any processing method may be used. In the case of the latter processing method, after the in-focus position information (extreme value of the in-focus index value) of all tiles is stored in the memory, outlier removal, smoothing processing, etc. are performed to perform a plurality of in-focus operations. You may perform the post-process which makes the in-focus surface comprised by a focus position a smooth surface.

図15(a)、図15(b)で説明した合焦位置検出フローは、撮像センサ308によって撮像された1つの分割画像データに対する処理である。ステップS1504からS1509までの処理は、全てのタイルの分割画像データに対して実行される。また、図15(a)、図15(b)で説明した合焦位置検出フローでは、1つの分割画像データのレイヤー画像データ(カラープレーンデータ)から1つの合焦指標値を算出した。しかしこれに限られるものではなく、分割画像データを更に複数のサブタイルに分割して、レイヤー画像データ(カラープレーンデータ)内のサブタイルごとに合焦指標値を算出しても良い。   The focus position detection flow described with reference to FIGS. 15A and 15B is processing for one piece of divided image data captured by the image sensor 308. The processing from step S1504 to S1509 is executed for the divided image data of all tiles. In the focus position detection flow described with reference to FIGS. 15A and 15B, one focus index value is calculated from the layer image data (color plane data) of one divided image data. However, the present invention is not limited to this, and the divided image data may be further divided into a plurality of subtiles, and the focus index value may be calculated for each subtile in the layer image data (color plane data).

(コヒーレントファクタの制御による合焦位置検出)
更に、「合焦に関わる本撮像処理」と「本撮像処理」とでコヒーレントファクタを異ならせることで、合焦位置検出の精度を高めることができる。図13で説明したが、コヒーレントファクタが1に近づくほど、屈折率分布の影響によるコントラスト1302(位相コントラスト)は表出し難くなる。「本撮像処理」でのコヒーレントファクタは0.7か
ら0.8程度に設定するため、「合焦に関わる本撮像処理」でのコヒーレントファクタを「本撮像処理」でのそれよりも大きくする。これにより、アーチファクトである屈折率分布の影響によるコントラスト1302(位相コントラスト)の影響を抑制することができる。すなわち、より安定した合焦位置検出が可能となる。コヒーレントファクタの制御を可能とするために、本実施形態ではコヒーレントファクタを変更可能な照明ユニット(照明光学系)を用いる。具体的には、コヒーレントファクタの制御は、開口絞り変更部1105により開口絞り908を制御することで実現できる。
(Focus position detection by coherent factor control)
Furthermore, the accuracy of in-focus position detection can be increased by making the coherent factors different between the “main imaging process related to focusing” and the “main imaging process”. As described with reference to FIG. 13, as the coherent factor approaches 1, the contrast 1302 (phase contrast) due to the influence of the refractive index distribution becomes difficult to express. Since the coherent factor in the “main imaging process” is set to about 0.7 to 0.8, the coherent factor in the “main imaging process related to focusing” is set larger than that in the “main imaging process”. Thereby, the influence of the contrast 1302 (phase contrast) due to the influence of the refractive index distribution which is an artifact can be suppressed. That is, more stable in-focus position detection is possible. In order to enable control of the coherent factor, an illumination unit (illumination optical system) capable of changing the coherent factor is used in the present embodiment. Specifically, the control of the coherent factor can be realized by controlling the aperture stop 908 by the aperture stop changing unit 1105.

(第2の合焦位置検出方法における撮像フロー)
図16、図17で説明する合焦位置検出は、前述と同様に、大きく2つの段階からなる。1つはプレ計測での合焦位置検出に用いるカラープレーンの選択である(合焦に関わるプレ計測処理)。もう1つは、本撮像での合焦位置検出である(合焦に関わる本撮像処理)。
(Imaging flow in the second focus position detection method)
The in-focus position detection described with reference to FIGS. 16 and 17 is roughly composed of two stages as described above. One is selection of a color plane used for focus position detection in pre-measurement (pre-measurement processing related to focus). The other is focus position detection in actual imaging (main imaging processing related to focusing).

撮像フローとしては、前述と同様に、逐次撮像フローと一括撮像フローの2つがある。図16、図17では、「合焦に関わるプレ計測処理」と「合焦に関わる本撮像処理」について説明する。   There are two imaging flows, a sequential imaging flow and a batch imaging flow, as described above. 16 and 17, “pre-measurement process related to focusing” and “main imaging process related to focusing” will be described.

図14、図15(a)では、カラープレーンの光透過率比較をプレ計測で取得した画像データを用いて実施したが、図16、図17では、カラープレーンの光透過率比較をプレ計測で取得したラベル情報(染色情報)を用いて実施する。第2の合焦位置検出方法における撮像フローでは、画像データを取得する必要がなく、より単純で簡便な撮像フローとなる。   In FIG. 14 and FIG. 15A, the light transmittance comparison of the color plane is performed using the image data acquired by the pre-measurement. In FIGS. 16 and 17, the light transmittance comparison of the color plane is performed by the pre-measurement. This is performed using the acquired label information (staining information). In the imaging flow in the second focus position detection method, it is not necessary to acquire image data, and the imaging flow is simpler and simpler.

(第2の合焦位置検出方法における合焦位置検出ユニット)
図16は、第2の合焦位置検出方法における合焦位置検出ユニットの機能ブロック図である。合焦位置検出ユニット324は、染色取得部1401、吸収判定部1402、合焦カラープレーン選択部1403、合焦位置決定部1404を有する。染色取得部1401、吸収判定部1402と合焦カラープレーン選択部1403は、「合焦に関わるプレ計測処理」に関連する機能ブロックである。合焦位置決定部1404は、「合焦に関わる本撮像処理」に関連する機能ブロックである。
(Focus position detection unit in the second focus position detection method)
FIG. 16 is a functional block diagram of the focus position detection unit in the second focus position detection method. The focus position detection unit 324 includes a staining acquisition unit 1401, an absorption determination unit 1402, a focus color plane selection unit 1403, and a focus position determination unit 1404. The staining acquisition unit 1401, the absorption determination unit 1402, and the in-focus color plane selection unit 1403 are functional blocks related to “pre-measurement processing related to in-focus”. The in-focus position determination unit 1404 is a functional block related to “main imaging processing related to in-focus”.

染色取得部1401は、メイン制御ユニット321から染色情報を取得する。染色情報は、標本に施された染色(例えば、HE(ヘマトキシリン・エオシン)染色など)を特定する情報である。   The staining acquisition unit 1401 acquires staining information from the main control unit 321. The staining information is information for specifying staining (for example, HE (hematoxylin / eosin) staining) applied to the specimen.

吸収判定部1402は、染色取得部1401から染色情報を取得し、カラープレーンの光透過率を比較する。吸収判定部1402は、染色方法とカラーフィルタの透過率を対応付けたテーブル(図18参照)を予め保持しており、そのテーブルに従って、カラープレーンでの光透過率の大小関係を判定する。判定結果(カラープレーンでの光透過率の大小関係)を合焦カラープレーン選択部1403に送信する。ただし、第2の合焦位置検出方法においては、吸収判定部1402は必須の構成ではない。(図18に示すテーブルではなく、)染色方法と選択すべきカラープレーンとを対応付けたテーブルを保持しておけば、染色取得部1401で取得した染色情報を基に、合焦カラープレーン選択部1403で合焦カラープレーンを選択することができる。   The absorption determination unit 1402 acquires staining information from the staining acquisition unit 1401 and compares the light transmittances of the color planes. The absorption determination unit 1402 holds in advance a table (see FIG. 18) in which the staining method and the transmittance of the color filter are associated with each other, and determines the magnitude relationship of the light transmittance on the color plane according to the table. The determination result (relationship between light transmittances in the color plane) is transmitted to the in-focus color plane selection unit 1403. However, in the second focus position detection method, the absorption determination unit 1402 is not an essential configuration. If a table in which the staining method is associated with the color plane to be selected (not the table shown in FIG. 18) is held, the in-focus color plane selection unit is based on the staining information acquired by the staining acquisition unit 1401. At 1403, the in-focus color plane can be selected.

合焦カラープレーン選択部1403は、吸収判定部1402の判定結果から、合焦位置検出に用いるカラープレーンを選択する。光透過率が最も小さい(対象とするカラーの標本での吸収が大きい)と判定されたカラープレーンを、合焦位置検出用のカラープレーンとする。合焦位置決定部1404の機能は、第1の合焦位置検出方法のものと同じである
The in-focus color plane selection unit 1403 selects a color plane to be used for in-focus position detection from the determination result of the absorption determination unit 1402. The color plane that is determined to have the lowest light transmittance (the absorption of the target color sample is large) is taken as the color plane for detecting the in-focus position. The function of the focus position determination unit 1404 is the same as that of the first focus position detection method.

図17は、第2の合焦位置検出方法における合焦位置検出フローを示すフローチャートである。
ステップS1701では、メイン制御ユニット321から染色情報を取得する。プレ計測において、プレ計測ユニット320がラベルエリア504から染色情報を読み取り、それをメイン制御ユニット321に送信する。その染色情報を、メイン制御ユニット321が合焦位置検出ユニット324に送信する。染色情報の実体データがラベルエリア504でなく外部サーバなどのデータベースに格納されている場合には、例えば、ラベルエリア504からID情報を読み取り、そのID情報を基にデータベースから染色情報を取得することもあり得る。または、ユーザが画像処理装置102を介して染色情報(例えば、HE染色)を入力し、その染色情報を取得することもあり得る。または、ユーザが画像処理装置102を介してID情報を入力し、そのID情報を基にデータベースから染色情報を取得することもあり得る。
FIG. 17 is a flowchart showing a focus position detection flow in the second focus position detection method.
In step S1701, staining information is acquired from the main control unit 321. In the pre-measurement, the pre-measurement unit 320 reads the staining information from the label area 504 and transmits it to the main control unit 321. The main control unit 321 transmits the staining information to the focus position detection unit 324. When the actual data of the staining information is stored in a database such as an external server instead of the label area 504, for example, the ID information is read from the label area 504, and the staining information is acquired from the database based on the ID information. There is also a possibility. Alternatively, the user may input staining information (for example, HE staining) via the image processing apparatus 102 and acquire the staining information. Alternatively, the user may input ID information via the image processing apparatus 102 and acquire staining information from a database based on the ID information.

ステップS1702では、カラープレーンの光透過率比較を行う。染色方法とカラーフィルタの透過率を対応付けたテーブル(図18参照)にしたがって、カラープレーンでの光透過率の大小関係を判定する。このステップS1702は図16の吸収判定部1402で実行される処理である。ただし、本ステップS1702は必須の構成ではない。(図18に示すテーブルではなく、)染色方法と選択すべきカラープレーンの情報とを対応付けたテーブルを保持しておけばよい。このようなテーブルを用いれば、ステップS1701で取得した染色情報を基に、ステップS1703で合焦カラープレーンを選択することができる。   In step S1702, the light transmittance of the color plane is compared. The magnitude relationship between the light transmittances in the color plane is determined according to a table (see FIG. 18) in which the staining method and the color filter transmittance are associated with each other. Step S1702 is a process executed by the absorption determination unit 1402 of FIG. However, this step S1702 is not an essential configuration. What is necessary is just to hold | maintain the table which matched the dyeing | staining method and the information of the color plane which should be selected (not the table shown in FIG. 18). If such a table is used, a focused color plane can be selected in step S1703 based on the staining information acquired in step S1701.

ステップS1703では、合焦位置検出に用いるカラープレーンの選択(合焦カラープレーン選択)を行う。ステップS1702で光透過率が最も小さいと判定されたカラープレーンを、合焦位置検出に用いるカラープレーンとする。光透過率が小さいカラープレーンからは、図13に示した透過率分布の影響によるコントラスト1301(振幅コントラスト)が得られやすく、屈折率分布の影響によるコントラスト1302(位相コントラスト)の影響を受けにくいためである。このステップS1703は図16の合焦カラープレーン選択部1403で実行される処理である。
ステップS1504、S1505、S1506は、図15(a)、図15(b)で説明した内容と同一である。
In step S1703, selection of a color plane used for focus position detection (focus color plane selection) is performed. The color plane determined to have the smallest light transmittance in step S1702 is set as a color plane used for focus position detection. A color plane having a small light transmittance can easily obtain the contrast 1301 (amplitude contrast) due to the influence of the transmittance distribution shown in FIG. 13, and is hardly affected by the contrast 1302 (phase contrast) due to the influence of the refractive index distribution. It is. This step S1703 is processing executed by the in-focus color plane selection unit 1403 in FIG.
Steps S1504, S1505, and S1506 are the same as those described with reference to FIGS. 15A and 15B.

なお、図17の処理フローは、染色情報に基づいて合焦位置検出用のカラープレーンを選択する方法の一例である。例えば、染色方法と選択すべきカラープレーンとを対応付けたテーブル、染色方法と染色標本が通常有する色もしくは色相とを対応付けたテーブル、染色方法と選択すべきカラーフィルタを対応付けたテーブルなどを用いてもよい。合焦カラープレーン選択部1403の処理としては、染色情報によって標本の染色を特定し、その染色が施された標本が通常有する色に最も色相が近いカラープレーンを選択する処理であれば、どのようなものでもよい。   Note that the processing flow in FIG. 17 is an example of a method for selecting a color plane for detecting a focus position based on staining information. For example, a table associating a staining method with a color plane to be selected, a table associating a staining method with a color or hue that a staining specimen normally has, a table associating a staining method with a color filter to be selected, etc. It may be used. As the processing of the in-focus color plane selection unit 1403, what is the processing that specifies the staining of the specimen based on the staining information and selects the color plane that has the closest hue to the normal color of the stained specimen It may be anything.

(吸収判定のテーブル)
図18は、第2の合焦位置検出方法における吸収判定部で用いるテーブルを説明する模式図である。このテーブルは、染色方法(染色の種類)とカラーフィルタの透過率とを対応付けたテーブルである。カラーフィルタの透過率は、例えば、多数の染色標本の透過率をRGB毎に測定し、平均値を求めることにより定めることができる。HE染色標本の場合、R(中心波長0.7000μm)、G(中心波長0.5461μm)、B(中心波長0.4358μm)に対する任意領域の透過率は、それぞれ、96%程度、73%程度、97%程度である。染色方法にはHE染色、マッソントリクローム染色、ギムザ染色など
がある。テーブルには、各染色方法について、R,G,Bそれぞれのカラーフィルタの透過率が記載されている。
(Absorption determination table)
FIG. 18 is a schematic diagram illustrating a table used in the absorption determination unit in the second focus position detection method. This table is a table in which the staining method (staining type) and the color filter transmittance are associated with each other. The transmittance of the color filter can be determined, for example, by measuring the transmittance of a large number of stained specimens for each RGB and obtaining an average value. In the case of a HE-stained specimen, the transmittances in arbitrary regions with respect to R (center wavelength 0.7000 μm), G (center wavelength 0.5461 μm), and B (center wavelength 0.4358 μm) are about 96% and about 73%, respectively. It is about 97%. Examples of the staining method include HE staining, Masson trichrome staining, Giemsa staining, and the like. In the table, the transmittance of each color filter of R, G, B is described for each staining method.

(異なる染色を施されたスライドの処理)
第1、及び、第2の合焦位置検出方法はスライドごとに実施することができる。そのため、異なる染色を施された複数のスライドに対しては、当該染色の合焦位置検出に適したカラーのカラープレーンを選択することで合焦位置検出を行うことができる。
(Treatment of slides with different staining)
The first and second focus position detection methods can be performed for each slide. Therefore, for a plurality of slides subjected to different staining, it is possible to perform in-focus position detection by selecting a color plane of a color suitable for detecting the in-focus position of the staining.

(コヒーレントファクタの制御による合焦位置検出)
ここまでは、合焦位置検出に適したカラーのカラープレーンを用いることを前提としたが、それを前提とせず、「合焦に関わる本撮像処理」と「本撮像処理」とでコヒーレントファクタを異ならせることで、合焦位置検出の精度を高めることができる。例えば、コヒーレントファクタの制御は、開口絞り変更部1105により開口絞り908を制御することで実現できる。
(Focus position detection by coherent factor control)
Up to this point, it was assumed that a color plane of a color suitable for focus position detection was used, but this was not premised, and the coherent factor was determined by `` main imaging processing related to focusing '' and `` main imaging processing ''. By making it different, the accuracy of in-focus position detection can be increased. For example, the control of the coherent factor can be realized by controlling the aperture stop 908 by the aperture stop changing unit 1105.

(撮像装置の別の構成例)
図19、及び、図20は、撮像システムにおける撮像装置の別の構成例である。第1、及び、第2の合焦位置検出方法では、合焦位置検出に用いる画像データは、「本撮像処理」と同様に撮像センサ308で取得する構成である。ここでは、別の構成例として、合焦位置検出に用いる画像データを、「本撮像処理」の撮像センサ308とは別の合焦撮像ユニットで取得する構成について説明する。
(Another configuration example of the imaging device)
19 and 20 show another configuration example of the imaging apparatus in the imaging system. In the first and second in-focus position detection methods, image data used for in-focus position detection is acquired by the image sensor 308 in the same manner as the “main imaging process”. Here, as another configuration example, a configuration will be described in which image data used for focus position detection is acquired by a focusing imaging unit that is different from the imaging sensor 308 of “main imaging processing”.

図19は、図3の撮像装置に合焦撮像ユニット1901が追加された構成である。合焦撮像ユニット1901(第2の撮像ユニット)は、本撮像に用いる撮像ユニット310(第1の撮像ユニット)と現像処理ユニット319の機能を合わせ持つユニットである。合焦位置検出に用いる画像データを合焦撮像ユニット1901で取得する構成であり、センサ機能を合焦位置検出用に特化することができる。例えば、センサの解像度(画素数)を「本撮像処理」の撮像センサ308よりも小さくすることで高速化を行うことができる。また、「本撮像処理」と「合焦位置検出用の撮像処理」とで用いる光学系が異なる(照明ユニット301から撮像ユニット310までの光学系を第1の光学系、照明ユニット301から合焦撮像ユニット1901までの光学系を第2の光学系と称す。)。したがって、第1の光学系に比べて第2の光学系のコヒーレントファクタを大きくする構成が採れる。このように、「合焦位置検出用の撮像処理」と「本撮像処理」とでコヒーレントファクタをそれぞれ最適化することで、安定した合焦位置検出と、コントラストと解像力がバランスした観察像の取得ができる。   FIG. 19 shows a configuration in which a focusing imaging unit 1901 is added to the imaging apparatus of FIG. The in-focus imaging unit 1901 (second imaging unit) is a unit that combines the functions of the imaging unit 310 (first imaging unit) and the development processing unit 319 used for actual imaging. The image data used for focus position detection is acquired by the focus imaging unit 1901, and the sensor function can be specialized for focus position detection. For example, it is possible to increase the speed by making the resolution (number of pixels) of the sensor smaller than that of the imaging sensor 308 of the “main imaging process”. Also, the optical systems used in the “main imaging process” and the “imaging process for detecting the focus position” are different (the optical system from the illumination unit 301 to the imaging unit 310 is focused from the first optical system and the illumination unit 301). The optical system up to the imaging unit 1901 is referred to as a second optical system). Therefore, a configuration in which the coherent factor of the second optical system is increased as compared with the first optical system can be adopted. In this way, by optimizing the coherent factors for “imaging processing for in-focus position detection” and “main imaging processing”, stable in-focus position detection and observation image that balances contrast and resolving power are acquired. Can do.

図20は、図3の撮像装置に合焦撮像ユニット1901及び照明ユニット301Aが追加された構成である。図19はハーフミラーで光路分割する構成だが、図20は合焦位置検出と「本撮像処理」の光学構成がそれぞれ独立する構成である。この場合、照明ユニット301から撮像ユニット310までの光学系が第1の光学系、照明ユニット301Aから合焦撮像ユニット1901までの光学系が第2の光学系となる。本構成でも、図19の構成と同様の利点がある。また、「合焦位置検出用の撮像処理」と「本撮像処理」とでコヒーレントファクタをそれぞれ最適化することで、安定した合焦位置検出と、コントラストと解像力がバランスした観察像の取得ができる。さらに、機械的に開口絞り908の変更が必要でないという利点がある。   FIG. 20 shows a configuration in which a focusing imaging unit 1901 and an illumination unit 301A are added to the imaging apparatus of FIG. FIG. 19 shows a configuration in which the optical path is divided by a half mirror. FIG. 20 shows a configuration in which the in-focus position detection and the “main imaging processing” optical configurations are independent of each other. In this case, the optical system from the illumination unit 301 to the imaging unit 310 is the first optical system, and the optical system from the illumination unit 301A to the in-focus imaging unit 1901 is the second optical system. This configuration has the same advantages as the configuration of FIG. Also, by optimizing the coherent factors for “imaging processing for in-focus position detection” and “main imaging processing”, stable in-focus position detection and observation images that balance contrast and resolution can be acquired. . Furthermore, there is an advantage that it is not necessary to change the aperture stop 908 mechanically.

(効果)
図21(a)、図21(b)は、屈折率分布を有する物体の合焦指標値を説明する模式図である。図13には屈折率分布を有する物体の理想的なコントラスト特性を示したが、画像データ取得時の機械誤差や電気的ノイズのために、画像データからこの理想的なコン
トラスト特性を取得することは困難である。そのため、特定のアルゴリズムにより、理想的なコントラスト特性の代用となる合焦指標値を取得する。本実施形態における合焦指標値とは、画像の合焦度合いを示す指標であり、一般的な意味での(広義の)コントラストと同義である。アルゴリズムの例は、コントラストや正規化自乗強度和などのアルゴリズム、自己相関や正規化分散などの統計アルゴリズム、Brenner微分、Vollath−5などの微分アルゴリズム、エントロピーなどのヒストグラムを利用するアルゴリズムである。列挙したそれぞれのアルゴリズムから取得できるのは、狭義のコントラストである。図21(a)は、屈折率分布の影響によるコントラスト1302(位相コントラスト)をあるアルゴリズムで取得した場合の合焦指標値である。図21(b)は、透過率分布の影響によるコントラスト1301(振幅コントラスト)をあるアルゴリズムで取得した場合の合焦指標値である。これまでに説明したように、合焦位置検出に用いる画像データのカラーフィルタを適切に選択することなどで、図13の屈折率分布の影響によるコントラスト1302(位相コントラスト)を抑制することができる。すなわち、合焦指標値の形状は図21(a)ではなく図21(b)に近い形状となる。
(effect)
FIG. 21A and FIG. 21B are schematic diagrams for explaining the focus index value of an object having a refractive index distribution. FIG. 13 shows an ideal contrast characteristic of an object having a refractive index distribution, but it is not possible to acquire this ideal contrast characteristic from image data due to mechanical errors and electrical noise at the time of image data acquisition. Have difficulty. For this reason, a focus index value serving as a substitute for an ideal contrast characteristic is acquired by a specific algorithm. The focus index value in the present embodiment is an index indicating the degree of focus of an image, and is synonymous with contrast (in a broad sense) in a general sense. Examples of algorithms are algorithms such as contrast and normalized square strength sum, statistical algorithms such as autocorrelation and normalized variance, differential algorithms such as Brenner differentiation and Volath-5, and algorithms using histograms such as entropy. What can be obtained from each of the listed algorithms is a narrow sense of contrast. FIG. 21A shows a focus index value when the contrast 1302 (phase contrast) due to the influence of the refractive index distribution is acquired by a certain algorithm. FIG. 21B shows the focus index value when the contrast 1301 (amplitude contrast) due to the influence of the transmittance distribution is acquired by a certain algorithm. As described above, the contrast 1302 (phase contrast) due to the influence of the refractive index distribution in FIG. 13 can be suppressed by appropriately selecting the color filter of the image data used for in-focus position detection. That is, the shape of the focus index value is a shape close to FIG. 21B instead of FIG.

ここで注意すべきは、本発明では標本による吸収が最も大きい色に対応するカラープレーンデータを合焦位置検出に用いるが、そのカラープレーンデータの合焦指標値が他のカラープレーンデータの合焦指標値に比べて常に大きいわけではない、という点である。すなわち、標本での吸収が大きい色に対応するカラープレーンデータから求めた合焦指標値が、その他のカラープレーンデータから求めた合焦指標値より小さいこともあり得る。標本での吸収が大きい色を選択する理由は、標本の位相差の影響を受けにくい(図13の1302のような双峰のコントラストになりにくい)という理由であり、合焦指標値(コントラスト)が大きい、という理由ではない。本発明は、合焦指標値(コントラスト)が大きいカラープレーンデータで合焦位置検出を行うことで合焦位置を安定して検出する、という従来の考えとは異なる。本発明は、標本の位相差の影響を抑制することで合焦位置を安定して検出する、という考えに基づく発明である。   It should be noted here that in the present invention, the color plane data corresponding to the color having the greatest absorption by the sample is used for focus position detection, but the focus index value of the color plane data is the focus of other color plane data. The point is that it is not always larger than the index value. That is, the focus index value obtained from the color plane data corresponding to a color having a large absorption in the sample may be smaller than the focus index value obtained from the other color plane data. The reason why a color having a large absorption in the sample is selected is that it is not easily affected by the phase difference of the sample (it is difficult to achieve a bimodal contrast such as 1302 in FIG. 13), and the focus index value (contrast). It is not the reason that is big. The present invention is different from the conventional idea that the focus position is stably detected by detecting the focus position with color plane data having a large focus index value (contrast). The present invention is based on the idea that the in-focus position is stably detected by suppressing the influence of the phase difference of the specimen.

(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other examples)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

101:撮像装置
324:合焦位置検出ユニット
501:標本
1403:合焦カラープレーン選択部
1404:合焦位置決定部
101: Imaging device 324: Focus position detection unit 501: Sample 1403: Focus color plane selection unit 1404: Focus position determination unit

Claims (16)

標本に対する光軸方向の焦点位置を変えながら撮像された、前記標本内の複数のレイヤーの画像データを用いて、前記標本の合焦位置を検出する合焦位置検出装置であって、
前記画像データは、複数のカラープレーンのデータから構成される、カラー画像データであり、
前記合焦位置検出装置は、
前記複数のカラープレーンのうち前記標本による吸収が最も大きい色に対応するカラープレーンを、合焦位置検出用のカラープレーンとして選択する選択手段と、
前記複数のレイヤーそれぞれの前記合焦位置検出用のカラープレーンのデータの合焦度合いを評価することによって、前記標本の合焦位置を決定する合焦位置決定手段と、
を有することを特徴とする合焦位置検出装置。
An in-focus position detecting device that detects an in-focus position of the sample using image data of a plurality of layers in the sample, which is imaged while changing a focal position in the optical axis direction with respect to the sample,
The image data is color image data composed of data of a plurality of color planes,
The in-focus position detecting device is
A selection unit that selects a color plane corresponding to a color that is most absorbed by the sample among the plurality of color planes as a color plane for in-focus position detection;
An in-focus position determining means for determining the in-focus position of the sample by evaluating the in-focus degree of the data of the color plane for detecting the in-focus position of each of the plurality of layers;
An in-focus position detecting device comprising:
前記合焦位置決定手段は、前記複数のレイヤーそれぞれの前記合焦位置検出用のカラープレーンのデータから合焦指標値を算出し、前記合焦指標値の分布において前記合焦指標値が極値をとる光軸方向の位置を、合焦位置として決定する
ことを特徴とする請求項1に記載の合焦位置検出装置。
The focus position determination unit calculates a focus index value from data of the focus plane detection color plane of each of the plurality of layers, and the focus index value is an extreme value in the distribution of the focus index value. The focus position detection apparatus according to claim 1, wherein a position in the optical axis direction that takes the position is determined as a focus position.
前記合焦指標値は、前記合焦位置検出用のカラープレーンのデータのコントラストである
ことを特徴とする請求項2に記載の合焦位置検出装置。
The in-focus position detecting device according to claim 2, wherein the in-focus index value is a contrast of data of the color plane for detecting the in-focus position.
前記複数のレイヤーの画像データの各カラープレーンの輝度値に基づいて、前記複数のカラープレーンのそれぞれに対応する複数の色のうち、前記標本による吸収が最も大きい色を判定する吸収判定手段をさらに有する
ことを特徴とする請求項1〜3のうちいずれか1項に記載の合焦位置検出装置。
Absorption determination means for determining a color having the greatest absorption by the sample from a plurality of colors corresponding to each of the plurality of color planes based on luminance values of the color planes of the image data of the plurality of layers. The in-focus position detecting device according to claim 1, wherein the in-focus position detecting device is provided.
前記吸収判定手段は、前記複数のレイヤーの画像データの各カラープレーンの積算輝度値を算出し、積算輝度値が最も小さいカラープレーンに対応する色を前記標本による吸収が最も大きい色と判定する
ことを特徴とする請求項4に記載の合焦位置検出装置。
The absorption determination unit calculates an integrated luminance value of each color plane of the image data of the plurality of layers, and determines a color corresponding to a color plane having the smallest integrated luminance value as a color having the largest absorption by the sample. The in-focus position detecting device according to claim 4.
前記標本に施された染色を特定する染色情報を取得する染色取得手段をさらに有し、
前記選択手段は、前記染色情報に基づいて、前記複数のカラープレーンのうちから前記合焦位置検出用のカラープレーンを選択する
ことを特徴とする請求項1〜3のうちいずれか1項に記載の合焦位置検出装置。
Further comprising staining acquisition means for acquiring staining information for specifying staining performed on the specimen;
The said selection means selects the color plane for the said focus position detection from these color planes based on the said dyeing | staining information, The any one of Claims 1-3 characterized by the above-mentioned. In-focus position detection device.
前記選択手段は、前記染色情報で特定される染色が施された標本に最も色相が近いカラープレーンを、前記合焦位置検出用のカラープレーンとして選択する
ことを特徴とする請求項6に記載の合焦位置検出装置。
7. The selection unit according to claim 6, wherein the selection unit selects a color plane having a hue closest to a sample subjected to staining specified by the staining information as the color plane for detecting the in-focus position. In-focus position detection device.
前記標本は、スライドグラス上に載置されており、
前記染色情報は、前記スライドグラスに設けられているラベルに記録されているか、又は、前記ラベルに記録されている情報に基づきデータベースから取得される
ことを特徴とする請求項6又は7に記載の合焦位置検出装置。
The specimen is placed on a slide glass,
The dyeing information is recorded on a label provided on the slide glass, or is acquired from a database based on information recorded on the label. In-focus position detection device.
前記標本を撮像する撮像ユニットと、
前記撮像ユニットを制御する制御ユニットと、
請求項1〜8のうちいずれか1項に記載の合焦位置検出装置と、を有する撮像装置であって、
前記制御ユニットは、前記合焦位置検出装置によって決定された合焦位置の情報を取得し、前記撮像ユニットにより前記合焦位置での前記標本の画像データを取得する制御を行う
ことを特徴とする撮像装置。
An imaging unit for imaging the specimen;
A control unit for controlling the imaging unit;
An in-focus position detecting device according to any one of claims 1 to 8, comprising:
The control unit acquires information on a focus position determined by the focus position detection device, and performs control for acquiring image data of the sample at the focus position by the imaging unit. Imaging device.
前記合焦位置での前記標本の画像データを取得する制御が行われる前に、
前記制御ユニットは、前記撮像ユニットにより前記標本内の複数のレイヤーの画像データを取得する制御を行い、
前記合焦位置検出装置は、前記撮像ユニットにより取得された前記複数のレイヤーの画像データを用いて前記標本の合焦位置を決定する
ことを特徴とする請求項9に記載の撮像装置。
Before the control to acquire the image data of the specimen at the in-focus position is performed,
The control unit performs control to acquire image data of a plurality of layers in the sample by the imaging unit,
The imaging apparatus according to claim 9, wherein the in-focus position detecting apparatus determines an in-focus position of the specimen using image data of the plurality of layers acquired by the imaging unit.
コヒーレントファクタを変更可能な光学系を有し、
前記制御ユニットは、前記合焦位置検出装置が用いる前記標本内の前記複数のレイヤーの画像データを取得する場合のコヒーレントファクタが、前記合焦位置での前記標本の画像データを取得する場合のコヒーレントファクタよりも大きくなるよう、前記光学系を制御する
ことを特徴とする請求項9又は10に記載の撮像装置。
It has an optical system that can change the coherent factor,
The control unit is coherent when the image data of the plurality of layers in the sample used by the in-focus position detection device acquires image data of the sample at the in-focus position. The image pickup apparatus according to claim 9 or 10, wherein the optical system is controlled to be larger than a factor.
第1の光学系と、前記第1の光学系よりもコヒーレントファクタの大きい第2の光学系を有し、
前記合焦位置検出装置が用いる前記標本内の前記複数のレイヤーの画像データを取得する場合は、前記第2の光学系が用いられ、
前記合焦位置での前記標本の画像データを取得する場合は、前記第1の光学系が用いられる
ことを特徴とする請求項9又は10に記載の撮像装置。
A first optical system and a second optical system having a coherent factor larger than that of the first optical system,
When acquiring image data of the plurality of layers in the specimen used by the in-focus position detection device, the second optical system is used,
The imaging apparatus according to claim 9 or 10, wherein the first optical system is used when acquiring image data of the specimen at the in-focus position.
前記撮像ユニットは、第1の撮像ユニットと、前記第1の撮像ユニットよりも解像度が小さい第2の撮像ユニットを含み、
前記合焦位置検出装置が用いる前記標本内の前記複数のレイヤーの画像データを取得する場合は、前記第2の撮像ユニットが用いられ、
前記合焦位置での前記標本の画像データを取得する場合は、前記第1の撮像ユニットが用いられる
ことを特徴とする請求項9〜12のうちいずれか1項に記載の撮像装置。
The imaging unit includes a first imaging unit and a second imaging unit having a resolution smaller than that of the first imaging unit,
When acquiring image data of the plurality of layers in the specimen used by the in-focus position detection device, the second imaging unit is used,
The imaging apparatus according to any one of claims 9 to 12, wherein the first imaging unit is used when acquiring image data of the specimen at the in-focus position.
前記撮像装置は顕微鏡である
ことを特徴とする請求項9〜13のうちいずれか1項に記載の撮像装置。
The imaging apparatus according to claim 9, wherein the imaging apparatus is a microscope.
標本に対する光軸方向の焦点位置を変えながら撮像された、前記標本内の複数のレイヤーの画像データを用いて、前記標本の合焦位置を検出する合焦位置検出方法であって、
前記画像データは、複数のカラープレーンのデータから構成される、カラー画像データであり、
前記合焦位置検出方法は、
前記複数のカラープレーンのうち前記標本による吸収が最も大きい色に対応するカラープレーンを、合焦位置検出用のカラープレーンとして選択するステップと、
前記複数のレイヤーそれぞれの前記合焦位置検出用のカラープレーンのデータの合焦度合いを評価することによって、前記標本の合焦位置を決定するステップと、
を有することを特徴とする合焦位置検出方法。
An in-focus position detection method for detecting the in-focus position of the sample using image data of a plurality of layers in the sample, which is imaged while changing the focal position in the optical axis direction with respect to the sample,
The image data is color image data composed of data of a plurality of color planes,
The in-focus position detection method is:
Selecting a color plane corresponding to a color having the largest absorption by the sample among the plurality of color planes as a color plane for in-focus position detection;
Determining the in-focus position of the sample by evaluating the in-focus degree of the color plane data for detecting the in-focus position of each of the plurality of layers;
A focus position detection method characterized by comprising:
請求項9〜14のうちいずれか1項に記載の撮像装置と、
前記撮像装置で取得された画像を処理する画像処理装置と、
を有することを特徴とする撮像システム。
The imaging device according to any one of claims 9 to 14,
An image processing device for processing an image acquired by the imaging device;
An imaging system comprising:
JP2015046103A 2015-03-09 2015-03-09 Focusing position detection device, focusing position detection method and imaging system Pending JP2016166941A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015046103A JP2016166941A (en) 2015-03-09 2015-03-09 Focusing position detection device, focusing position detection method and imaging system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015046103A JP2016166941A (en) 2015-03-09 2015-03-09 Focusing position detection device, focusing position detection method and imaging system

Publications (1)

Publication Number Publication Date
JP2016166941A true JP2016166941A (en) 2016-09-15

Family

ID=56898422

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015046103A Pending JP2016166941A (en) 2015-03-09 2015-03-09 Focusing position detection device, focusing position detection method and imaging system

Country Status (1)

Country Link
JP (1) JP2016166941A (en)

Similar Documents

Publication Publication Date Title
US9224193B2 (en) Focus stacking image processing apparatus, imaging system, and image processing system
US10269103B2 (en) Image processing apparatus, image processing method, and image processing system
JP6576921B2 (en) Autofocus method and system for multispectral imaging
US10444486B2 (en) Systems and methods for detection of blank fields in digital microscopes
US20150153559A1 (en) Image processing apparatus, imaging system, and image processing system
US20140015933A1 (en) Image processing apparatus, imaging system, and image processing system
WO2013100025A1 (en) Image processing device, image processing system, image processing method, and image processing program
US20140333751A1 (en) Image processing apparatus and system, method for processing image, and program
JP2013200640A (en) Image processing device, image processing system, image processing method and program
EP2800053A1 (en) Image processing device, image display system, image processing method, and image processing program
JP2012237693A (en) Image processing device, image processing method and image processing program
JP2014130221A (en) Image processing apparatus, control method thereof, image processing system, and program
US20140306992A1 (en) Image processing apparatus, image processing system and image processing method
US20160042122A1 (en) Image processing method and image processing apparatus
US20130265322A1 (en) Image processing apparatus, image processing system, image processing method, and image processing program
WO2013100029A1 (en) Image processing device, image display system, image processing method, and image processing program
US10429632B2 (en) Microscopy system, microscopy method, and computer-readable recording medium
JP2015035782A (en) Image processing device, imaging device, microscope system, image processing method, and image processing program
US10721413B2 (en) Microscopy system, microscopy method, and computer readable recording medium
CN104423027A (en) Microscope
JP2016206228A (en) Focused position detection device, focused position detection method, imaging device and imaging system
JP5818828B2 (en) Image processing apparatus, imaging system, and image processing system
JP2016166941A (en) Focusing position detection device, focusing position detection method and imaging system
JP2015191362A (en) Image data generation apparatus and image data generation method
JP2013232757A (en) Imaging apparatus, image processing apparatus, image processing method, and program