JP2016166941A - Focusing position detection device, focusing position detection method and imaging system - Google Patents
Focusing position detection device, focusing position detection method and imaging system Download PDFInfo
- Publication number
- JP2016166941A JP2016166941A JP2015046103A JP2015046103A JP2016166941A JP 2016166941 A JP2016166941 A JP 2016166941A JP 2015046103 A JP2015046103 A JP 2015046103A JP 2015046103 A JP2015046103 A JP 2015046103A JP 2016166941 A JP2016166941 A JP 2016166941A
- Authority
- JP
- Japan
- Prior art keywords
- focus position
- imaging
- color
- image data
- focus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Microscoopes, Condenser (AREA)
- Automatic Focus Adjustment (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、合焦位置検出装置、合焦位置検出方法、撮像システムに関する。 The present invention relates to a focus position detection device, a focus position detection method, and an imaging system.
スライド内の染色された生体試料をデジタル顕微鏡で撮像することでバーチャル・スライド画像データを取得し、これをモニターに表示して観察することが可能なバーチャル・スライドシステムが注目されている(特許文献1)。
また、厚みのある生体試料を撮像する場合に、デジタル顕微鏡を用いて光軸方向の焦点位置を変えながら、試料内の異なる深さにピントを合わせた複数のレイヤー画像データを取得する技術が知られている(特許文献2)。複数のレイヤー画像データで構成される3次元画像データはZスタック画像データと呼ばれる。
また、顕微鏡の合焦位置を安定して検出する技術が知られている(特許文献3)。
また、実質的に透明である無染色細胞等の位相物体の合焦位置を決定する技術が知られている(特許文献4)。
Attention has been focused on a virtual slide system capable of acquiring virtual slide image data by imaging a stained biological sample in a slide with a digital microscope and displaying the image on a monitor for observation (Patent Literature). 1).
In addition, when imaging a thick biological sample, there is a technology for acquiring multiple layer image data focused on different depths in the sample while changing the focal position in the optical axis direction using a digital microscope. (Patent Document 2). Three-dimensional image data composed of a plurality of layer image data is called Z stack image data.
In addition, a technique for stably detecting a focus position of a microscope is known (Patent Document 3).
In addition, a technique for determining a focus position of a phase object such as an unstained cell that is substantially transparent is known (Patent Document 4).
従来、顕微鏡やバーチャル・スライドシステムの合焦位置検出では、生体試料や病理標本の複数のZスタック画像データそれぞれからコントラスト値を算出し、最大コントラスト値のZ位置を合焦位置としていた。 Conventionally, in focus position detection of a microscope or a virtual slide system, a contrast value is calculated from each of a plurality of Z stack image data of a biological sample or a pathological specimen, and the Z position of the maximum contrast value is set as the focus position.
しかし、無染色細胞ではなく、染色された生体試料や病理標本であっても、細胞核や細胞質、細胞膜などの構成要素ごとに屈折率が異なるために、合焦位置以外でコントラストが極大となる現象が発生する場合があることを、本発明者が鋭意検討して発見した。更に、当該現象のために染色された生体試料や病理標本では合焦位置の検出が不安定になる、という課題を本発明者が発見した。 However, even if it is a stained biological sample or pathological specimen, not a non-stained cell, the refractive index differs for each component such as the cell nucleus, cytoplasm, cell membrane, etc. The present inventor has intensively studied and found out that there is a case in which the above occurs. Furthermore, the present inventor has found a problem that the detection of the in-focus position becomes unstable in a biological sample or a pathological specimen stained for the phenomenon.
特許文献3で示された合焦検出技術では、光透過率が変化する物体の合焦位置を安定して検出することができる。しかし、屈折率分布を有する生体試料や病理標本に対して安定して合焦位置を検出する技術は開示されていない。
特許文献4で示された合焦検出技術では、実質的に透明である無染色細胞等の位相物体の合焦位置を検出できる。これは2つのZスタック画像データの差分画像データを利用する方法である。Zスタック画像データのデータメモリへの蓄積を前提とするため、高速化には不向きである。
With the focus detection technique disclosed in
The focus detection technique disclosed in Patent Document 4 can detect the focus position of a phase object such as an unstained cell that is substantially transparent. This is a method of using difference image data of two Z stack image data. Since it is premised on the accumulation of Z stack image data in the data memory, it is not suitable for speeding up.
そこで、本発明は、屈折率分布を有する病理標本(染色細胞や染色生体試料)に対して、安定、且つ、高速に合焦位置を検出する技術を提供することを目的とする。 Therefore, an object of the present invention is to provide a technique for detecting a focus position stably and at high speed with respect to a pathological specimen (stained cell or stained biological sample) having a refractive index distribution.
本発明の第一態様は、標本に対する光軸方向の焦点位置を変えながら撮像された、前記
標本内の複数のレイヤーの画像データを用いて、前記標本の合焦位置を検出する合焦位置検出装置であって、前記画像データは、複数のカラープレーンのデータから構成される、カラー画像データであり、前記合焦位置検出装置は、前記複数のカラープレーンのうち前記標本による吸収が最も大きい色に対応するカラープレーンを、合焦位置検出用のカラープレーンとして選択する選択手段と、前記複数のレイヤーそれぞれの前記合焦位置検出用のカラープレーンのデータの合焦度合いを評価することによって、前記標本の合焦位置を決定する合焦位置決定手段と、を有することを特徴とする合焦位置検出装置を提供する。
A first aspect of the present invention is a focus position detection for detecting a focus position of the specimen using image data of a plurality of layers in the specimen, which is imaged while changing a focal position in the optical axis direction with respect to the specimen. The image data is color image data composed of data of a plurality of color planes, and the in-focus position detection device is a color having the largest absorption by the sample among the plurality of color planes. Selecting a color plane corresponding to the color plane for detecting the in-focus position, and evaluating the in-focus degree of the data of the in-focus position color plane for each of the plurality of layers, An in-focus position detecting device comprising: an in-focus position determining means for determining an in-focus position of a sample is provided.
本発明の第二態様は、前記標本を撮像する撮像ユニットと、前記撮像ユニットを制御する制御ユニットと、本発明に係る合焦位置検出装置と、を有する撮像装置であって、前記制御ユニットは、前記合焦位置検出装置によって決定された合焦位置の情報を取得し、前記撮像ユニットにより前記合焦位置での前記標本の画像データを取得する制御を行うことを特徴とする撮像装置を提供する。 A second aspect of the present invention is an imaging apparatus including an imaging unit that images the specimen, a control unit that controls the imaging unit, and a focus position detection device according to the present invention, wherein the control unit includes: An imaging apparatus is provided, wherein control is performed to acquire information on a focus position determined by the focus position detection apparatus and to acquire image data of the sample at the focus position by the imaging unit. To do.
本発明の第三態様は、標本に対する光軸方向の焦点位置を変えながら撮像された、前記標本内の複数のレイヤーの画像データを用いて、前記標本の合焦位置を検出する合焦位置検出方法であって、前記画像データは、複数のカラープレーンのデータから構成される、カラー画像データであり、前記合焦位置検出方法は、前記複数のカラープレーンのうち前記標本による吸収が最も大きい色に対応するカラープレーンを、合焦位置検出用のカラープレーンとして選択するステップと、前記複数のレイヤーそれぞれの前記合焦位置検出用のカラープレーンのデータの合焦度合いを評価することによって、前記標本の合焦位置を決定するステップと、を有することを特徴とする合焦位置検出方法を提供する。 The third aspect of the present invention is a focus position detection for detecting a focus position of the specimen using image data of a plurality of layers in the specimen, which is imaged while changing a focal position in the optical axis direction with respect to the specimen. The image data is color image data composed of data of a plurality of color planes, and the in-focus position detection method is a color having the largest absorption by the sample among the plurality of color planes. Selecting the color plane corresponding to the in-focus position detection color plane, and evaluating the in-focus degree of the data of the in-focus position color plane data of each of the plurality of layers. And a step of determining an in-focus position.
本発明の第四態様は、本発明に係る撮像装置と、前記撮像装置で取得された画像を処理する画像処理装置と、を有することを特徴とする撮像システムを提供する。 According to a fourth aspect of the present invention, there is provided an imaging system comprising: an imaging apparatus according to the present invention; and an image processing apparatus that processes an image acquired by the imaging apparatus.
本発明により、病理標本の合焦位置を安定、且つ、高速に検出する技術を提供することができる。 According to the present invention, it is possible to provide a technique for detecting a focused position of a pathological specimen stably and at high speed.
以下、図面を参照しながら本発明の実施の形態を説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
<実施例1>
(撮像システムの装置構成)
本発明の実施形態に係る合焦位置検出装置は、撮像装置と表示装置を備えた撮像システムにおいて用いることができる。この撮像システムの構成を、図1を用いて説明する。撮像システムは、撮像装置(デジタル顕微鏡装置、またはバーチャル・スライド・スキャナ)101、画像処理装置102、表示装置103、データサーバ104から構成され、撮像対象となる標本の2次元画像を取得し表示する機能を有するシステムである。撮像装置101と画像処理装置102との間は、専用もしくは汎用I/Fのケーブル105で接続され、画像処理装置102と表示装置103の間は、汎用I/Fのケーブル106で接続される。データサーバ104と画像処理装置102との間は、ネットワーク107を介して、汎用I/FのLANケーブル108で接続される。
<Example 1>
(Device configuration of the imaging system)
The focus position detection device according to the embodiment of the present invention can be used in an imaging system including an imaging device and a display device. The configuration of this imaging system will be described with reference to FIG. The imaging system includes an imaging apparatus (digital microscope apparatus or virtual slide scanner) 101, an
撮像装置101は、光軸方向(Z軸方向)に焦点位置の異なる複数枚の2次元画像データ(レイヤー画像データ)を取得し、デジタル画像を出力する機能を持つバーチャル・スライド・スキャナである。2次元画像の取得にはCCD(Charge Coupled
Device)やCMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子が用いられる。なお、バーチャル・スライド・スキャナの代わりに、通常の光学顕微鏡の接眼部にデジタルカメラを取り付けたデジタル顕微鏡装置により、撮像装置101を構成することもできる。
The
A solid-state imaging device such as a device or a CMOS (Complementary Metal Oxide Semiconductor) is used. Note that, instead of the virtual slide scanner, the
画像処理装置102は、撮像装置101から取得した複数枚の原画像データ(レイヤー画像データ)から、表示装置103に表示するデータを、ユーザからの要求に応じて生成する機能等を持つ装置である。画像処理装置102は、CPU(中央演算処理装置)、RAM、記憶装置、操作部、各種I/Fなどのハードウェア資源を備えた、汎用のコンピュータやワークステーションで構成される。記憶装置は、ハードディスクドライブなどの大容量情報記憶装置であり、後述する各処理を実現するためのプログラムやデータ、OS(オペレーティングシステム)などが格納されている。後述する各機能は、CPUが記憶装置からRAMに必要なプログラムおよびデータをロードし、当該プログラムを実行することにより実現される。操作部は、キーボードやマウスなどにより構成され、ユーザが各種の指示を入力するために利用される。
The
表示装置103は、画像処理装置102が演算処理した結果である観察用画像データを表示するディスプレイであり、液晶ディスプレイ等により構成される。
データサーバ104は、画像処理装置102が演算処理した結果である観察用画像データが格納されているサーバである。
The
The
図1の例では、撮像装置101、画像処理装置102、表示装置103とデータサーバ104の4つの装置により撮像システムが構成されているが、本発明の構成はこの構成に限定されるものではない。例えば、表示装置と一体化した画像処理装置を用いてもよいし、画像処理装置の機能を撮像装置に組み込んでもよい。また撮像装置、画像処理装置、表示装置、データサーバの機能を1つの装置で実現することもできる。また逆に、画像処理装置等の機能を分割して複数の装置によって実現しても良い。
In the example of FIG. 1, the imaging system is configured by four devices, that is, the
(表示画面)
図2は、予め撮影した染色標本(生体試料)の画像データを、画像表示アプリケーションを通じて、表示装置103に表示した場合の一例である。
(Display screen)
FIG. 2 shows an example in which image data of a stained specimen (biological sample) photographed in advance is displayed on the
図2は画像表示アプリケーションの画面レイアウトの基本構成である。表示画面の全体ウィンドウ201内に、表示や操作のステータスと各種画像の情報を示す情報エリア202、観察対象の標本の全体画像203、標本画像データの詳細観察用の表示領域205、表示領域205の倍率表示領域206、が配置されている。全体画像203上に描画された枠線204は、詳細観察用の表示領域205に拡大表示している領域の位置および大きさを示している。この全体画像203と枠線204によって、ユーザは標本画像データ全体中のどの部分を観察しているのかを容易に把握できる。
FIG. 2 shows the basic configuration of the screen layout of the image display application. In the
詳細観察用の表示領域205に表示される画像データは、入力操作デバイスによる移動指示や拡大・縮小指示に対応して更新される。例えば、移動は画面上でのマウスのドラッグ操作により、拡大縮小はマウスホイールの回転等によって実現できる(例えば、ホイールの前方回転を拡大、後方回転を縮小に割り当てる)。また、焦点位置の異なる画像データへの切り替えは、所定のキー(例えばCtrlキー)を押しながらのマウスホイールの回転等で実現できる(例えば、ホイールの前方回転を奥行きが深い画像への移動に、後方回転を奥行きが浅い画像への移動に割り当てる)。上記のようなユーザの表示画像データの変更操作に伴い、表示領域205、倍率表示領域206内の表示倍率、全体画像203内の枠線204が更新される。このようにして、ユーザは所望する面内位置、奥行き位置、倍率の画像データを観察できる。
The image data displayed in the detailed
(撮像装置の機能構成)
図3は、撮像装置101の機能構成を示すブロック図である。撮像装置101は、概略、照明ユニット301、ステージ302、ステージ制御ユニット305、結像光学系307、撮像ユニット310を有する。また、撮像装置101は、現像処理ユニット319、プレ計測ユニット320、メイン制御ユニット321、I/Fユニット323、合焦位置検出ユニット324を有する。
(Functional configuration of imaging device)
FIG. 3 is a block diagram illustrating a functional configuration of the
照明ユニット301は、ステージ302上に配置されたスライド306に対して均一に光を照射する手段である。照明ユニット301の構成要素、機能ブロックは、図9、及び、図11で説明する。
The
ステージ302は、ステージ制御ユニット305によって駆動制御され、XYZの3軸方向への移動が可能である。
スライド306は、観察対象となる組織の切片をスライドグラス上に貼り付け、封入剤とともにカバーグラスの下に固定した部材である。
ステージ制御ユニット305は、駆動制御系303とステージ駆動機構304を有する。駆動制御系303は、メイン制御ユニット321の指示を受け、ステージ302の駆動制御を行う。ステージ302の移動方向、移動量などは、プレ計測ユニット320によって計測した標本の位置情報および厚み情報(距離情報)と、必要に応じてユーザからの指示とに基づいて決定される。ステージ駆動機構304は、駆動制御系303の指示に従い、ステージ302を駆動する。
The
The
The
結像光学系307は、スライド306の標本の光学像を撮像センサ308へ結像するためのレンズ群である。結像光学系307の光学構成は図9で説明する。
The imaging
撮像ユニット310は、撮像センサ308とアナログフロントエンド(AFE)309を有する。撮像センサ308は、2次元の光学像を光電変換によって電気的な物理量へ変える1次元もしくは2次元のイメージセンサであり、例えば、CCDやCMOSデバイス
が用いられる。1次元センサの場合、走査方向へ電気的にスキャンするとともに、副走査方向へステージ302を移動させることで2次元画像が得られる。撮像センサ308からは、光の強度に応じた電圧値をもつ電気信号が出力される。撮像画像データとしてカラー画像データが所望される場合は、例えば、Bayer配列のカラーフィルタが取り付けられた単板のイメージセンサを用いたり、RGBの三板式のイメージセンサを用いたりすればよい。撮像ユニット310は、ステージ302をXY軸方向に駆動させることにより、標本の分割画像データを取得する。AFE309は、撮像センサ308の動作を制御する回路、及び、撮像センサ308から出力されたアナログ信号をデジタル信号へ変換する回路である。AFE309は、H/Vドライバ、CDS(Correlated Double Sampling)、アンプ、AD変換器およびタイミングジェネレータによって構成される。H/Vドライバは、撮像センサ308を駆動するための垂直同期信号および水平同期信号を、センサ駆動に必要な電位に変換する。CDSは、固定パターンのノイズを除去する相関2重サンプリング回路である。アンプは、CDSでノイズ除去されたアナログ信号のゲインを調整するアナログアンプである。AD変換器は、アナログ信号をデジタル信号に変換する。撮像装置最終段での出力が8ビットの場合、後段の処理を考慮して、AD変換器はアナログ信号を10ビットから16ビット程度に量子化されたデジタルデータへ変換し、出力する。変換されたセンサ出力データはRAWデータと呼ばれる。RAWデータは後段の現像処理ユニット319で現像処理される。タイミングジェネレータは、撮像センサ308のタイミングおよび後段の現像処理ユニット319のタイミングを調整する信号を生成する。撮像センサ308としてCCDを用いる場合、上記AFE309は必須となるが、デジタル出力可能なCMOSイメージセンサの場合は、上記AFE309の機能をセンサに内包することになる。図3の撮像ユニット310では撮像した画像データの流れを説明するのに必要最小限の機能ブロックのみを示した。撮像ユニット310のその他の構成要素、機能ブロックは図9、及び、図10で説明する。
The
現像処理ユニット319は、黒補正部311、デモザイキング処理部312、ホワイトバランス調整部313、画像合成処理部314、フィルタ処理部316、ガンマ補正部317を有する。黒補正部311は、RAWデータの各画素の値から、バックグラウンド(遮光時に得られた黒補正データ)を減算する処理を行う。デモザイキング処理部312は、Bayer配列のRAWデータから、RGB各色の画像データを生成する処理を行う。デモザイキング処理部312は、RAWデータにおける周辺画素(同色の画素と他色の画素を含む)の値を補間することによって、注目画素のRGB各色の値を計算する。また、デモザイキング処理部312は、欠陥画素の補正処理(補間処理)も実行する。なお、撮像センサ308がカラーフィルタを有しておらず、単色の画像データが得られている場合、デモザイキング処理は不要となり、欠陥画素の補正処理を実行する。三板式の撮像センサ308を用いた場合もデモザイキング処理は不要である。ホワイトバランス調整部313は、照明ユニット301の光の色温度に応じて、RGB各色のゲインを調整することによって、望ましい白色を再現する処理を行う。画像合成処理部314は、撮像センサ308によって分割して撮像された複数の分割画像データをつなぎ合わせて所望の撮像範囲の大サイズ画像データを生成する処理を行う。一般に、既存のイメージセンサによって1回の撮像で取得できる撮像範囲より標本の存在範囲が広いため、1枚の2次元画像データを分割された画像データのつなぎ合わせによって生成する。1回の撮像で画像が取得される領域を「タイル」、タイルの分割画像データを「タイル画像」とも称す。例えば、0.25μmの分解能でスライド306上の10mm角の範囲を撮像すると仮定した場合、一辺の画素数は10mm/0.25μmの4万画素となり、トータルの画素数はその自乗である16億画素となる。10M(1000万)の画素数を持つ撮像センサ308を用いて16億画素の画像データを取得するには、160個(=16億/1000万)のタイルに分割して撮像を行う必要がある。なお、複数のタイル画像をつなぎ合わせる方法としては、ステージ302の位置情報に基づいて位置合わせをしてつなぐ方法や、複数のタイル画像の対応する点または線を対応させてつなぐ方法などがある。つなぎ合わせの際、0次補間
、線形補間、高次補間等の補間処理により滑らかにつなげることができる。フィルタ処理部316は、画像に含まれる高周波成分の抑制、ノイズ除去、解像感強調を実現するデジタルフィルタである。ガンマ補正部317は、画像に一般的な表示デバイスの階調表現特性の逆特性を付加する処理を実行したり、高輝度部の階調圧縮や暗部処理によって人間の視覚特性に合わせた階調変換を実行したりする。本実施例では形態観察を目的とした画像取得のため、後段の合成処理や表示処理に適した階調変換が画像データに対して適用される。
The
プレ計測ユニット320は、スライド306上の標本の位置情報、所望の焦点位置までの距離情報、および標本厚みに起因する光量調整用のパラメータを算出するための事前計測を行うユニットである。本計測(撮像画像データの取得)の前にプレ計測ユニット320によって情報を取得することで、無駄のない撮像を実施することが可能となる。2次元平面の位置情報取得には、撮像センサ308より解像度の小さい2次元撮像センサが用いられる。プレ計測ユニット320は、取得した画像データから標本のXY平面上での位置を把握する。距離情報および厚み情報の取得には、レーザー変位計などの計測器が用いられる。また、スライド306上のラベル(図5参照)に記録されている(又はラベルに紐付けされている)標本の情報を読み取るラベル読取装置を含む。標本の情報とは、患者ID、標本ID、標本の属性(部位、染色情報など)などの情報である。
The
メイン制御ユニット321は、これまで説明してきた各種ユニットの制御を行う機能である。メイン制御ユニット321および現像処理ユニット319の制御機能は、CPUとROMとRAMを有する制御回路により実現される。すなわち、ROM内にプログラムおよびデータが格納されており、CPUがRAMをワークメモリとして使いプログラムを実行することで、メイン制御ユニット321および現像処理ユニット319の機能が実現される。ROMには例えばEEPROMやフラッシュメモリなどのデバイスが用いられ、RAMには例えばDDR3などのDRAMデバイスが用いられる。なお、現像処理ユニット319の機能を専用のハードウェアデバイスとしてASIC化したもので置き換えても良い。
The
I/Fユニット323は、現像処理ユニット319によって生成された画像データに圧縮処理を行い、圧縮処理された画像データを画像処理装置102に送信する。圧縮処理部318は、大容量の2次元画像データの伝送の効率化および保存する際の容量削減が目的で行われる圧縮の符号化処理を実行する。静止画像の圧縮手法として、JPEG(Joint Photographic Experts Group)、JPEGを改良、進化させたJPEG2000やJPEG XR等の規格化された符号化方式が広く一般に知られている。外部装置I/F322は、圧縮処理された画像データを画像処理装置102に送るためのインターフェースである。撮像装置101と画像処理装置102とは、光通信のケーブルにより接続される。あるいは、USBやGigabitEthernet(登録商標)等の汎用インターフェースが使用される。
The I /
合焦位置検出ユニット324は、合焦位置の検出を行う機能を有する合焦位置検出装置である。合焦位置検出ユニットの処理内容は後述する(第1の合焦位置検出方法は図14と図15で説明し、第2の合焦位置検出方法は図16と図17、図18で説明する。)。
The focus
(画像処理装置のハードウェア構成)
図4は、本発明の画像処理装置102のハードウェア構成を示すブロック図である。画像処理を行う装置として、例えばPC(Personal Computer)が用いられる。PCは、CPU401、メインメモリ402、演算処理ボード403、グラフィックスボード404、これらを互いに接続する内部バス405を備える。またPCは、LAN I/F406、記憶装置I/F407、外部装置I/F409、操作I/F410、
入出力I/F413を備える。
(Hardware configuration of image processing device)
FIG. 4 is a block diagram showing a hardware configuration of the
An input / output I /
CPU401は、必要に応じてメインメモリ402に格納されているプログラムやデータを用いてPCの各ブロック全体を統括的に制御する。メインメモリ402はRAM(Randam Access Memory)により構成される。メインメモリ402は、CPU401の作業用領域等として用いられ、OS、実行中の各種プログラム、表示用データの生成など処理の対象となる各種データを一時的に保持する。また、メインメモリ402は、画像データの格納領域としても用いられる。CPU401のDMA(Direct Memory Access)機能により、メインメモリ402とグラフィックスボード404の間の画像データの高速転送を実現できる。グラフィックスボード404は、表示装置103に画像処理結果を出力する。表示装置103は、例えば液晶、EL(Electro−Luminescence)等を用いた表示デバイスである。当該表示装置103は、外部装置として接続される形態を想定しているが、表示装置と一体化したPCを想定してもよい。例えばノートPCがこれに該当する。演算処理ボード403は、画像処理など特定の演算機能が強化されたプロセッサおよびバッファメモリ(不図示)を備えている。以降の説明では各種演算処理、データ処理にはCPU401を、メモリ領域としてメインメモリ402を用いるとして説明するが、演算処理ボード内のプロセッサやバッファメモリを用いることも可能であり、これも本発明の範疇とする。
The
入出力I/F413には、LAN I/F406を介してデータサーバ104が、記憶装置I/F407を介して記憶装置408が、外部装置I/F409を介して撮像装置101が、操作I/F410を介してキーボード411やマウス412が接続される。記憶装置408は、CPU401に実行させるOS、プログラム、ファームウェアや、各種パラメータなどの情報を固定的に記憶している補助記憶装置である。また、記憶装置408は、撮像装置101から送られてきた画像データの格納領域としても用いられる。HDD(Hard Disk Drive)等の磁気ディスクドライブや、SSD(Solid
State Drive)、Flashメモリ等の半導体デバイスが用いられる。操作I/F410との接続デバイスとしてキーボード411やマウス412等のポインティングデバイスを想定しているが、タッチパネル等、表示装置103の画面が直接入力デバイスとなる構成を取ることも可能である。その場合、タッチパネルは表示装置103と一体となり得る。
The input / output I /
A semiconductor device such as a state drive) or a flash memory is used. Although a pointing device such as a
(スライド)
図5は、標本(生体試料)501が載置されたスライド306を示す模式図である。病理標本のスライドでは、スライドグラス502上に載置した標本501が封入剤(不図示)とその上に載せるカバーグラス503によって封入されている。標本501の大きさや厚みは検体毎によって異なっている。更にスライドグラス502上には標本に関する情報が記録されたラベルエリア504が存在する。ラベルエリア504への情報の記録は、ペンによる記入でもよいし、バーコードや2次元コードの印刷でもよい。また電気的、磁気的、または光学的な方法により情報を記憶可能な記憶媒体をラベルエリア504に設けてもよい。以降の実施形態では、被写体として図5に示す病理標本のスライドを例に説明する。
(slide)
FIG. 5 is a schematic diagram showing a
(染色標本)
図6は、染色標本(生体試料)を説明する模式図である。病理標本では、標本(生体試料)501は厚さ4〜5μm程度で、2〜3inchのスライドに収まる程度の大きさである。標本(生体試料)501を拡大すると組織に応じた細胞601の配列が観察できる。細胞601は核602と細胞質603とで構成される。組織に応じて細胞の配列や大きさ、細胞を構成する核の形・大きさなどは異なる。例えば、肝細胞であれば細胞直径は約20μm、核の大きさは約5〜15μmである。生体試料は無色透明であり、そのまま観
察したのでは組織構造が分かりにくい。そのため、標本の組織構造を観察しやすくするために、病理標本では染色が行われる。病理組織診では、基本的にはHE(ヘマトキシリン・エオシン)染色が行われるが、診断目的に応じて免疫染色、FISH(蛍光 in situ
ハイブリダイゼーション)法なども行われる。本実施の形態では、病理組織診で一般的に行われるHE染色を例に説明する。HE染色では核内のクロマチンを濃青色に、細胞質を淡赤色に染め分ける。
(Stained specimen)
FIG. 6 is a schematic diagram for explaining a stained specimen (biological sample). In the pathological specimen, the specimen (biological sample) 501 has a thickness of about 4 to 5 μm and is large enough to fit on a 2 to 3 inch slide. When the specimen (biological sample) 501 is enlarged, the arrangement of the
A hybridization method is also performed. In the present embodiment, HE staining generally performed in histopathological diagnosis will be described as an example. In HE staining, the chromatin in the nucleus is dyed dark blue and the cytoplasm is dyed light red.
(焦点位置とZ軸符号)
図7(a)〜図7(c)は、焦点位置とZ軸符号を説明する模式図である。本実施の形態では、Z軸は光源側(照明ユニット301側)を負(−)方向、対物レンズ側(結像光学系307側)を正(+)方向とする。また、焦点位置701とは、撮像センサ308の撮像面と光学的共役な関係にある面の位置とする。
(Focus position and Z-axis code)
Fig.7 (a)-FIG.7 (c) are the schematic diagrams explaining a focus position and a Z-axis code | symbol. In the present embodiment, the Z-axis has a light source side (
図7(a)は、焦点位置701に対して標本(生体試料)501の厚み中心のZ位置が+側にある様子を示している。半透明な標本(生体試料)であれば、ネガティブ(ブライト)コントラストを有するネガティブ(ブライト)像が得られる。ネガティブ(ブライト)像とは、屈折率が高い領域が明るく、屈折率が低い領域が暗く結像された像である。図7(b)は、焦点位置701に標本(生体試料)501の厚み中心のZ位置がある様子を示している。屈折率変化が小さい標本(生体試料)であれば、像はほとんど得られない。図7(c)は、焦点位置701に対して標本(生体試料)501の厚み中心のZ位置が−側にある様子を示している。半透明な標本(生体試料)であれば、ポジティブ(ダーク)コントラストを有するポジティブ(ダーク)像が得られる。ポジティブ(ダーク)像とは、屈折率が高い領域が暗く、屈折率が低い領域が明るく結像された像である。
FIG. 7A shows a state where the Z position of the thickness center of the specimen (biological sample) 501 is on the + side with respect to the
ここで、Z軸方向の位置を示す用語をまとめる。焦点位置701とは、撮像センサ308の撮像面と光学的共役な関係にある面の位置である。合焦位置とは、観察すべき物体(核など)が標本の厚み中心のZ位置に存在すると仮定し、標本の厚み中心が焦点位置に一致する位置である。デフォーカス量d=0の位置とは、標本の厚み中心が焦点位置に一致する位置であり、合焦位置のことである。デフォーカス量d>0は、標本の厚み中心と焦点位置の関係が図7(a)の状態であることを意味する。デフォーカス量d<0は、標本の厚み中心と焦点位置の関係が図7(c)の状態であることを意味する。
Here, the terms indicating the position in the Z-axis direction are summarized. The
(レイヤーとカラープレーンデータ)
図8は、レイヤーとカラープレーンデータを説明する模式図である。像側のレイヤーとカラープレーンデータの光軸方向(Z軸方向)の位置関係を示す図である。標本内の光軸方向(Z軸方向)の特定の層をレイヤーと呼ぶ。レイヤーに含まれ、且つ、光軸方向(Z軸方向)の特定の位置で取得した2次元画像データがレイヤー画像データである。カラー画像データを取得する場合には、各カラーのレイヤー画像データ取得時の像側の光軸方向(Z軸方向)の位置は同一位置に限る必要はない。例えば、RGBそれぞれのレイヤー画像データを取得する場合に、軸上色収差を補正するために各カラーで撮像面の光軸方向(Z軸方向)の位置を異ならせることがある。本明細書では、カラーのレイヤー画像データを特に指し示す場合にはカラープレーンデータと呼称し、カラーに限定されない場合には単純にレイヤー画像データと呼称する。
(Layer and color plane data)
FIG. 8 is a schematic diagram illustrating layers and color plane data. It is a figure which shows the positional relationship of the image side layer and the optical axis direction (Z-axis direction) of color plane data. A specific layer in the specimen in the optical axis direction (Z-axis direction) is called a layer. Two-dimensional image data included in a layer and acquired at a specific position in the optical axis direction (Z-axis direction) is layer image data. When acquiring color image data, the position in the optical axis direction (Z-axis direction) on the image side when acquiring layer image data for each color need not be limited to the same position. For example, when acquiring RGB layer image data, the position of the imaging surface in the optical axis direction (Z-axis direction) may be different for each color in order to correct axial chromatic aberration. In this specification, when color layer image data is particularly indicated, it is referred to as color plane data, and when not limited to color, it is simply referred to as layer image data.
(顕微鏡の光学系の基本構造)
図9は、顕微鏡の光学系の基本構造を説明する模式図である。顕微鏡の光学系の基本構造は、照明ユニット301、結像光学系307、撮像ユニット310を有する。照明ユニット301はケーラー照明系であり、光源面901上の面光源、フィルタホイールA909、照明レンズ903A〜903C、視野絞り907、開口絞り908を有する。光源面901に、光源面901と光軸902の交点を中心とする面光源が設けられる。結像光学
系307は、対物レンズ904、瞳面905、結像レンズ906、フィルタホイールB910を有する。結像光学系307により、標本(生体試料)501の像が像面911に形成される。フィルタホイールA909、及び、フィルタホイールB910は、カラー画像データを取得する場合にカラーフィルタを挿入するための構成要素である。そのため、フィルタホイールA909、フィルタホイールB910のいずれかにカラーフィルタが挿入されていれば良い。
(Basic structure of microscope optical system)
FIG. 9 is a schematic diagram for explaining a basic structure of an optical system of a microscope. The basic structure of the optical system of the microscope includes an
(撮像ユニット)
図10は、撮像ユニットの機能ブロック図である。撮像ユニット310は、撮像センサ308とアナログフロントエンド(AFE)309、フィルタホイールB910、撮像カラーフィルタ変更部1001、撮像センサ制御部1002を有する。撮像センサ308とアナログフロントエンド(AFE)309での処理と撮像した画像データの流れについては図3で説明した通りである。モノクロの撮像センサ308でRGBのカラープレーンデータを取得する場合には、フィルタホイールB910にRGBのカラーフィルタを挿入する。撮像カラーフィルタ変更部1001がフィルタホイールを制御してカラーフィルタを切り替え、RGB3種類のカラープレーンデータを取得する。所謂、時分割カラー撮像方式である。撮像カラーフィルタ変更部1001は、メイン制御ユニット321からの指示に基づきフィルタホイールを制御する。撮像センサ制御部1002は、撮像センサ308の撮像タイミング、撮像時間を制御する。
(Imaging unit)
FIG. 10 is a functional block diagram of the imaging unit. The
(照明ユニット)
図11は、照明ユニットの機能ブロック図である。照明ユニット301は、面光源1101、フィルタホイールA909、照明レンズA903A、視野絞り907、照明レンズB903B、開口絞り908、照明レンズC903Cを有する。さらに照明ユニット301は、光源制御部1102、照明カラーフィルタ変更部1103、視野絞り変更部1104、開口絞り変更部1105を有する。モノクロの撮像センサ308でRGBのカラープレーンデータを取得する場合には、フィルタホイールA909にRGBのカラーフィルタを挿入する。照明カラーフィルタ変更部1103がフィルタホイールを制御してカラーフィルタを切り替え、RGB3種類のカラープレーンデータを取得する。所謂、時分割カラー撮像方式である。照明カラーフィルタ変更部1103は、メイン制御ユニット321からの指示に基づきフィルタホイールを制御する。光源制御部1102は、面光源1101の発光タイミング、発光時間を制御する。視野絞り変更部1104は、標本の観察範囲に照明光が当たるように視野絞り907を制御する。開口絞り変更部1105は、観察像のコントラストと解像力がバランスするように開口絞り908を制御する。開口絞り908は、一般的に、対物レンズ904の瞳の直径の7割から8割程度に設定する。
(Lighting unit)
FIG. 11 is a functional block diagram of the lighting unit. The
(撮像ユニットと照明ユニットの関係性)
撮像ユニット310と照明ユニット301は同期して撮像動作を実行する必要がある。そのため、撮像タイミングと照明タイミングが同期するように、メイン制御ユニット321は撮像センサ制御部1002と光源制御部1102に対して動作指示を行う。また、RGBのカラープレーンデータを取得するためのカラーフィルタは、撮像ユニット310、もしくは、照明ユニット301のいずれか一方に挿入すれば良い。そのため、フィルタホイールB910、フィルタホイールA909のいずれかが撮像装置101に組み込まれていれば良い。
(Relationship between imaging unit and lighting unit)
The
(コントラスト特性)
図12(a)〜図12(c)は、屈折率分布を有する物体のコントラスト特性を説明する模式図である。領域A1201は、半透明物体で相対的に屈折率が高い領域を模擬的に示している。一方、領域B1202は、半透明物体で相対的に屈折率が低い領域を模擬的に示している。例えば、領域A1201の屈折率が1.39、領域Bの屈折率が1.37
で、その他の領域の屈折率が1.38と考えれば良い。図12(a)は、焦点位置701に対して標本(半透明物体)の厚み中心のZ位置が+側にある場合の観察像である。図12(a)の焦点位置701と標本(半透明物体)の位置関係は図7(a)に対応する。相対的に屈折率の高い領域A1201が明るくなり、相対的に屈折率の低い領域B1202が暗くなる。図12(b)は合焦位置での観察像である。図12(b)の焦点位置701と標本(半透明物体)の位置関係は図7(b)に対応する。合焦位置では、屈折率変化が小さい半透明物体であれば、像はほとんど得られない。図12(c)は、焦点位置701に対して標本(半透明物体)の厚み中心のZ位置が−側にある場合の観察像である。図12(c)の焦点位置701と標本(半透明物体)の位置関係は図7(c)に対応する。相対的に屈折率の高い領域A1201が暗くなり、相対的に屈折率の低い領域B1202が明るくなる。
(Contrast characteristics)
FIG. 12A to FIG. 12C are schematic diagrams for explaining the contrast characteristics of an object having a refractive index distribution. A region A1201 schematically shows a semi-transparent object and a region having a relatively high refractive index. On the other hand, a region B1202 schematically shows a semi-transparent object having a relatively low refractive index. For example, the refractive index of the region A1201 is 1.39, and the refractive index of the region B is 1.37.
Therefore, the refractive index of other regions may be considered as 1.38. FIG. 12A is an observation image when the Z position of the thickness center of the specimen (semi-transparent object) is on the + side with respect to the
図12(a)〜図12(c)では、屈折率分布を有する物体のコントラスト特性を分かりやすく説明するために、半透明物体を想定している。病理標本では染色されているが、特に染色の薄い領域では図12(a)〜図12(c)で説明したコントラスト特性を示す。 In FIGS. 12A to 12C, a translucent object is assumed in order to easily explain the contrast characteristics of an object having a refractive index distribution. Although it is stained in the pathological specimen, the contrast characteristics described with reference to FIGS.
図13に屈折率分布を有する物体のコントラスト特性を示す。縦軸はコントラスト、横軸はデフォーカス量dである。1301は透過率分布の影響によるコントラスト特性である。デフォーカス量d=0でコントラストが最大となり、デフォーカス量の絶対値が大きくなるにつれてコントラストは低下する。病理標本で特に濃く染まる領域、例えばHE(ヘマトキシリン・エオシン)のヘマトキシリンに染まる核内のクロマチン、が1301に近い特性を示す。1302は屈折率分布の影響によるコントラスト特性である。デフォーカス量d=|d’|である2箇所でコントラストの絶対値が最大となる。病理標本で特に薄く染まる領域、例えばHE(ヘマトキシリン・エオシン)のエオシンに染まる細胞質、が1302に近い特性を示す。
FIG. 13 shows the contrast characteristics of an object having a refractive index distribution. The vertical axis is the contrast, and the horizontal axis is the defocus amount d.
図13に示すコントラスト特性は、コヒーレントファクタ(照明レンズ903CのNAと対物レンズ904のNAの比)にも影響される。コヒーレントファクタが0に近づくほど1302のコントラスト特性の影響が大きくなり、コヒーレントファクタが1に近づくほど1301のコントラスト特性の影響は小さくなる。なお、顕微鏡では、一般に、観察像のコントラストと解像力がバランスするようにコヒーレントファクタを0.7から0.8程度に設定する。
The contrast characteristics shown in FIG. 13 are also affected by a coherent factor (ratio of NA of the
(屈折率分布の影響による課題)
HE(ヘマトキシリン・エオシン)染色の病理標本のコントラスト特性は、図13に示す2つのコントラスト特性が混在した状態にある。濃く染まって透過率が低い領域は1301に近いコントラスト特性となる。代表例としてはヘマトキシリンに染まる核内のクロマチンである。薄く染まって透過率が高い領域は1302に近いコントラスト特性となる。代表例としてはエオシンに染まる細胞質である。
(Problems due to the influence of refractive index distribution)
The contrast characteristics of a pathological specimen stained with HE (hematoxylin and eosin) are in a state where the two contrast characteristics shown in FIG. 13 are mixed. A region that is darkly dyed and has low transmittance has a contrast characteristic close to 1301. A typical example is nuclear chromatin stained with hematoxylin. A region that is lightly dyed and has a high transmittance has a contrast characteristic close to 1302. A typical example is the cytoplasm stained with eosin.
本実施形態では、観察者が核に着目すると想定し、合焦操作としてはヘマトキシリンに染まる核内のクロマチンに焦点を合わせる。すなわち、図13の1301に示す透過率分布の影響によるコントラスト(以降、「振幅コントラスト」と呼ぶ)が最大となる位置を合焦位置とする。観察すべき物体(核)が標本の厚み中心のZ位置に存在すると仮定すると、標本の厚み中心が焦点位置に一致する位置が合焦位置である。ただし、合焦位置の考え方はこれに限らない。観察すべき物体(核)の標本の厚み中心からずれたZ位置に存在する場合もある。その場合は、観察すべき物体(核)のZ位置が焦点位置に一致する位置を合焦位置とすれば良い。 In this embodiment, it is assumed that the observer pays attention to the nucleus, and the focusing operation focuses on the chromatin in the nucleus stained with hematoxylin. That is, a position at which the contrast (hereinafter referred to as “amplitude contrast”) due to the influence of the transmittance distribution indicated by 1301 in FIG. Assuming that the object (nucleus) to be observed exists at the Z position of the thickness center of the specimen, the position where the thickness center of the specimen coincides with the focal position is the focus position. However, the concept of the in-focus position is not limited to this. In some cases, the object (nucleus) to be observed exists at a Z position shifted from the thickness center of the specimen. In that case, a position where the Z position of the object (nucleus) to be observed coincides with the focal position may be set as the in-focus position.
本実施形態では、図13の1302に示す屈折率分布の影響によるコントラスト(以降、「位相コントラスト」と呼ぶ)はアーチファクトとして扱う。すなわち、位相コントラスト1302の絶対値ピーク位置(デフォーカス量d=|d’|となる2箇所)は合焦位置として検出する対象ではない。本実施形態は、位相コントラスト1302によるピーク位置が存在するために振幅コントラスト1301のピーク位置検出が不安定となる課題に対する解決策を提供する。
In the present embodiment, the contrast (hereinafter referred to as “phase contrast”) due to the influence of the refractive index distribution indicated by 1302 in FIG. 13 is treated as an artifact. That is, the absolute value peak position of the phase contrast 1302 (two places where the defocus amount d = | d ′ |) is not a target to be detected as the focus position. The present embodiment provides a solution to the problem that the peak position detection of the
ここでは着目物体を核としたが、核に限られるものではない。胃の炎症を調べる際にギムザ染色した標本を用いることがあるが、この染色ではピロリ菌が青色に染まる。この場合にはピロリ菌が着目物体となる。病理の観察目的によって着目物体は異なる。 Although the object of interest is a nucleus here, it is not limited to the nucleus. When examining stomach inflammation, Giemsa-stained specimens are sometimes used, but this stain stains H. pylori blue. In this case, H. pylori is the object of interest. The object of interest varies depending on the purpose of pathology observation.
(第1の合焦位置検出方法における撮像フロー)
図14、図15(a)、図15(b)で説明する合焦位置検出は、大きく2つの段階からなる。1つはプレ計測での合焦位置検出に用いるカラープレーンの選択である。これを「合焦に関わるプレ計測処理」と呼称する。もう1つは、本撮像での合焦位置検出である。これを「合焦に関わる本撮像処理」と呼称する。ここで本撮像とは、所望の撮像範囲の大サイズ画像データを生成するために撮像センサ308によって複数の分割画像データを取得する処理のことである。
(Imaging flow in the first focus position detection method)
The in-focus position detection described with reference to FIGS. 14, 15A, and 15B mainly includes two stages. One is selection of a color plane used for in-focus position detection in pre-measurement. This is referred to as “pre-measurement processing related to focusing”. The other is focus position detection in actual imaging. This is referred to as “main imaging processing related to focusing”. Here, the main imaging is processing for acquiring a plurality of divided image data by the
撮像フローとしては、「合焦に関わるプレ計測処理」が実行され、それぞれの分割画像データに対して「合焦に関わる本撮像処理」と「本撮像処理」が逐次実行される。これを、「逐次撮像フロー」と呼称する。また、別の撮像フローとしては、「合焦に関わるプレ計測処理」が実行され、次に「合焦に関わる本撮像処理」が実行され、最後に「本撮像処理」が一括実行される。これを、「一括撮像フロー」と呼称する。 As the imaging flow, “pre-measurement processing related to focusing” is executed, and “main imaging processing related to focusing” and “main imaging processing” are sequentially executed for each divided image data. This is referred to as a “sequential imaging flow”. As another imaging flow, “pre-measurement processing related to focusing” is executed, then “main imaging processing related to focusing” is executed, and finally “main imaging processing” is executed collectively. This is referred to as a “collective imaging flow”.
図14、図15(a)、図15(b)では、「合焦に関わるプレ計測処理」と「合焦に関わる本撮像処理」について説明する。 With reference to FIGS. 14, 15A, and 15B, the “pre-measurement process related to focusing” and the “main imaging process related to focusing” will be described.
(第1の合焦位置検出方法における合焦位置検出ユニット)
図14は、第1の合焦位置検出方法における合焦位置検出ユニットの機能ブロック図である。合焦位置検出ユニット324は、吸収判定部1402、合焦カラープレーン選択部1403、合焦位置決定部1404を有する。吸収判定部1402と合焦カラープレーン選択部1403は、「合焦に関わるプレ計測処理」に関連する機能ブロックである。合焦位置決定部1404は、「合焦に関わる本撮像処理」に関連する機能ブロックである。
(Focus position detection unit in the first focus position detection method)
FIG. 14 is a functional block diagram of the focus position detection unit in the first focus position detection method. The focus
吸収判定部1402は、プレ計測ユニット320から全てのカラープレーンデータを取得し、カラープレーンの光透過率を比較する。カラープレーンデータの積算輝度値が大きいカラープレーンを光透過率が大きい(対象とするカラーの標本での吸収が小さい)と判定し、積算輝度値が小さいカラープレーンを光透過率が小さい(対象とするカラーの標本での吸収が大きい)と判定する。積算輝度値とは、カラープレーンデータの画素の値(画素値そのもの、又は画素値から換算した輝度値)の合計値又はそれに相当する値(例えば合計値を所定の値で規格化した値など)である。積算輝度値の計算には全てのレイヤーのデータを用いてもよいし、一部のレイヤー(例えば標本の厚み中心のレイヤー)のデータだけを用いてもよい。また、積算輝度値の計算には、カラープレーンデータの全ての画素の値を用いてもよいし、一部の画素(例えば、背景に該当する高輝度画素以外の画素)の値だけを用いてもよい。判定結果(各カラープレーンデータの積算輝度値、もしくは、吸収の大小関係)を合焦カラープレーン選択部1403に送信する。
The
合焦カラープレーン選択部1403は、吸収判定部1402の判定結果から、合焦位置検出に用いるカラープレーンを選択する。判定結果が各カラープレーンデータの積算輝度
値の場合には、積算輝度値が最も小さいカラープレーンを合焦位置検出用カラープレーンに選択する。判定結果が吸収の大小関係の場合には、吸収が最も大きいカラープレーンを合焦位置検出用カラープレーンに選択する。
The in-focus color
合焦位置決定部1404は、撮像センサ308によって取得した標本内の複数レイヤーの画像データから合焦位置検出用のカラープレーンデータを抽出し、各カラープレーンデータの合焦度合いの評価を行う。具体的には、合焦位置決定部1404は、各カラープレーンデータの合焦指標値を算出し、合焦指標値の光軸方向(深さ方向)の分布(変化)を得る。そして、合焦指標値が極値をとるZ位置を合焦位置と解釈し、合焦位置であるZ位置を撮像装置101(メイン制御ユニット321)に送信する(逐次撮像フロー)。または、合焦位置決定部1404は、合焦位置であるZ位置をメモリに格納する(一括撮像フロー)。なお、合焦位置決定部1404は、複数タイルの分割画像データのそれぞれについて、合焦位置検出処理を行う。
The focus
図15(a)は、第1の合焦位置検出方法における合焦位置検出フローを示すフローチャートである。
ステップS1501では、プレ計測ユニット320からカラープレーンデータを取得する。プレ計測でベイヤー配列の2次元撮像センサが用いられる場合には、デモザイキング処理を行って、RGBのカラープレーンデータを取得する。
FIG. 15A is a flowchart showing a focus position detection flow in the first focus position detection method.
In step S1501, color plane data is acquired from the
ステップS1502では、カラープレーンの光透過率比較を行う。カラープレーンデータの積算輝度値が大きいカラープレーンを光透過率が大きいと判定し、積算輝度値が小さいカラープレーンを光透過率が小さいと判定する。このステップS1502は図14の吸収判定部1402で実行される処理である。
In step S1502, the light transmittance of the color plane is compared. A color plane having a large integrated luminance value of the color plane data is determined to have a high light transmittance, and a color plane having a small integrated luminance value is determined to have a low light transmittance. Step S1502 is a process executed by the
ステップS1503では、合焦位置検出に用いるカラープレーンの選択(合焦カラープレーン選択)を行う。ステップS1502で光透過率が最も小さいと判定されたカラープレーンを、合焦位置検出に用いるカラープレーンとする。光透過率が小さいカラープレーンからは、図13に示した透過率分布の影響によるコントラスト1301(振幅コントラスト)が得られやすく、屈折率分布の影響によるコントラスト1302(位相コントラスト)の影響を受けにくいためである。このステップS1503は図14の合焦カラープレーン選択部1403で実行される処理である。
In step S1503, a color plane used for focus position detection is selected (focus color plane selection). The color plane determined to have the smallest light transmittance in step S1502 is set as the color plane used for in-focus position detection. A color plane having a small light transmittance can easily obtain the contrast 1301 (amplitude contrast) due to the influence of the transmittance distribution shown in FIG. 13, and is hardly affected by the contrast 1302 (phase contrast) due to the influence of the refractive index distribution. It is. Step S1503 is a process executed by the in-focus color
ステップS1504、S1505では、特定のZ位置のカラープレーンデータを取得し(S1504)て、合焦指標値の算出を行う(S1505)処理を繰り返す。ここで用いるカラープレーンデータのカラープレーンはステップS1503で選択した合焦位置検出用のカラープレーンである。また、カラープレーンデータは、撮像センサ308によって撮像される1つの分割画像データのカラープレーンデータである。
In steps S1504 and S1505, the color plane data at a specific Z position is acquired (S1504), and the process of calculating the focus index value (S1505) is repeated. The color plane of the color plane data used here is the in-focus position detection color plane selected in step S1503. The color plane data is color plane data of one divided image data imaged by the
合焦指標値とは、画像の合焦度合いを数値化した指標である。合焦指標値の算出には、どのようなアルゴリズムを用いてよい。例えば、コントラストや正規化自乗強度和などのアルゴリズム、自己相関や正規化分散などの統計アルゴリズム、Brenner微分、Vollath−5などの微分アルゴリズム、エントロピーなどのヒストグラムを利用するアルゴリズムを用いることができる。合焦指標値の光軸方向(深さ方向)の分布形状は図22で説明する。 The focus index value is an index that quantifies the degree of focus of an image. Any algorithm may be used to calculate the focus index value. For example, algorithms such as contrast and normalized square intensity sum, statistical algorithms such as autocorrelation and normalized variance, differential algorithms such as Brenner differentiation and Volath-5, and algorithms using histograms such as entropy can be used. The distribution shape of the focus index value in the optical axis direction (depth direction) will be described with reference to FIG.
ループ回数は合焦指標値の分布形状(近似曲線)が描ける最低限の回数にすることが望ましい。処理速度と合焦位置(振幅コントラストのピーク)の検出精度がバランスするようにループ回数を設定する。ループ回数は数回から数十回程度になる。 It is desirable that the number of loops be the minimum number of times that the distribution shape (approximate curve) of the focus index value can be drawn. The number of loops is set so that the processing speed and the detection accuracy of the focus position (amplitude contrast peak) are balanced. The number of loops is several to several tens.
ステップS1506では、合焦度合いの評価を行う。合焦度合いの評価の処理内容は、図15(b)で説明する。
ステップS1504、S1505、S1506は図14の合焦位置決定部1404で実行される処理である。
In step S1506, the degree of focus is evaluated. The details of the focus degree evaluation will be described with reference to FIG.
Steps S1504, S1505, and S1506 are processes executed by the focus
図15(b)は、第1の合焦位置検出方法における合焦度合いの評価を説明するフローチャートである。
ステップS1507では、合焦指標値の分布から極値の検出を行う。極値検出には、1階微分の符号が反転する位置を極値とする、などの一般的な手法が適用できる。合焦指標値が不安定で滑らかな曲線ではない場合には複数の極値が検出されるが、極値の最大値を選択するなどの決めごとにより一意に極値を検出することができる。合焦位置決定部1404は、ステップS1507で検出した極値のZ位置を合焦位置に決定する。
FIG. 15B is a flowchart for explaining the evaluation of the degree of focus in the first focus position detection method.
In step S1507, extreme values are detected from the distribution of the focus index values. For the extreme value detection, a general method such as setting the extreme value at the position where the sign of the first-order derivative is inverted can be applied. If the focus index value is unstable and not a smooth curve, a plurality of extreme values are detected. However, the extreme values can be uniquely detected by each decision such as selecting the maximum extreme value. The focus
ステップS1508では、ステップS1507で検出した極値が閾値内にあるかどうかを判定する閾値判定処理を行う。撮像センサ308によって複数の分割画像データが取得されるが、それぞれの分割画像データから得られる合焦指標値の極値は、ある範囲内に存在すると仮定し、その範囲を閾値として設定する。例えば、隣り合う分割画像データから得られる合焦指標値の極値は2マイクロメートル以内にある、などと設定する。閾値判定処理により極値が閾値内にないと判定された場合(ステップS1508:NO)には、当該極値を除いてステップS1507にて再び極値検出を行う。閾値判定処理により極値が閾値内に収まると判定された場合(ステップS1508:YES)にはステップS1509に進む。
In step S1508, threshold determination processing is performed to determine whether the extreme value detected in step S1507 is within the threshold. A plurality of pieces of divided image data are acquired by the
ステップS1509では、合焦位置検出ユニット324が、ステップS1507で検出した極値(合焦位置のZ位置)を合焦位置情報としてメイン制御ユニット321に順次送信する。あるいは、1つの標本を複数のタイルに分けて撮像する場合は、合焦位置検出ユニット324が各タイルの分割撮像データから得られた合焦位置情報を一時的にメモリに格納し、複数のタイルの合焦位置情報をまとめて撮像装置101へ送信してもよい。タイルごとの合焦位置情報を順次送信する場合は、分割画像データの合焦位置判定と合焦位置での画像取得(本撮像)を連続して実行する処理となる(逐次撮像フロー)。複数タイルの合焦位置情報をメモリ格納する場合は、全てのタイルの合焦位置判定の後にまとめて合焦位置での画像取得を実行する処理となる(一括撮像フロー)。いずれの処理方法を用いても良い。後者の処理方法の場合には、全てのタイルの合焦位置情報(合焦指標値の極値)がメモリに格納された後に、外れ値の除去、平滑化処理などを実施して複数の合焦位置で構成される合焦面を滑らかな面とする後処理を実行しても良い。
In step S1509, the focus
図15(a)、図15(b)で説明した合焦位置検出フローは、撮像センサ308によって撮像された1つの分割画像データに対する処理である。ステップS1504からS1509までの処理は、全てのタイルの分割画像データに対して実行される。また、図15(a)、図15(b)で説明した合焦位置検出フローでは、1つの分割画像データのレイヤー画像データ(カラープレーンデータ)から1つの合焦指標値を算出した。しかしこれに限られるものではなく、分割画像データを更に複数のサブタイルに分割して、レイヤー画像データ(カラープレーンデータ)内のサブタイルごとに合焦指標値を算出しても良い。
The focus position detection flow described with reference to FIGS. 15A and 15B is processing for one piece of divided image data captured by the
(コヒーレントファクタの制御による合焦位置検出)
更に、「合焦に関わる本撮像処理」と「本撮像処理」とでコヒーレントファクタを異ならせることで、合焦位置検出の精度を高めることができる。図13で説明したが、コヒーレントファクタが1に近づくほど、屈折率分布の影響によるコントラスト1302(位相コントラスト)は表出し難くなる。「本撮像処理」でのコヒーレントファクタは0.7か
ら0.8程度に設定するため、「合焦に関わる本撮像処理」でのコヒーレントファクタを「本撮像処理」でのそれよりも大きくする。これにより、アーチファクトである屈折率分布の影響によるコントラスト1302(位相コントラスト)の影響を抑制することができる。すなわち、より安定した合焦位置検出が可能となる。コヒーレントファクタの制御を可能とするために、本実施形態ではコヒーレントファクタを変更可能な照明ユニット(照明光学系)を用いる。具体的には、コヒーレントファクタの制御は、開口絞り変更部1105により開口絞り908を制御することで実現できる。
(Focus position detection by coherent factor control)
Furthermore, the accuracy of in-focus position detection can be increased by making the coherent factors different between the “main imaging process related to focusing” and the “main imaging process”. As described with reference to FIG. 13, as the coherent factor approaches 1, the contrast 1302 (phase contrast) due to the influence of the refractive index distribution becomes difficult to express. Since the coherent factor in the “main imaging process” is set to about 0.7 to 0.8, the coherent factor in the “main imaging process related to focusing” is set larger than that in the “main imaging process”. Thereby, the influence of the contrast 1302 (phase contrast) due to the influence of the refractive index distribution which is an artifact can be suppressed. That is, more stable in-focus position detection is possible. In order to enable control of the coherent factor, an illumination unit (illumination optical system) capable of changing the coherent factor is used in the present embodiment. Specifically, the control of the coherent factor can be realized by controlling the
(第2の合焦位置検出方法における撮像フロー)
図16、図17で説明する合焦位置検出は、前述と同様に、大きく2つの段階からなる。1つはプレ計測での合焦位置検出に用いるカラープレーンの選択である(合焦に関わるプレ計測処理)。もう1つは、本撮像での合焦位置検出である(合焦に関わる本撮像処理)。
(Imaging flow in the second focus position detection method)
The in-focus position detection described with reference to FIGS. 16 and 17 is roughly composed of two stages as described above. One is selection of a color plane used for focus position detection in pre-measurement (pre-measurement processing related to focus). The other is focus position detection in actual imaging (main imaging processing related to focusing).
撮像フローとしては、前述と同様に、逐次撮像フローと一括撮像フローの2つがある。図16、図17では、「合焦に関わるプレ計測処理」と「合焦に関わる本撮像処理」について説明する。 There are two imaging flows, a sequential imaging flow and a batch imaging flow, as described above. 16 and 17, “pre-measurement process related to focusing” and “main imaging process related to focusing” will be described.
図14、図15(a)では、カラープレーンの光透過率比較をプレ計測で取得した画像データを用いて実施したが、図16、図17では、カラープレーンの光透過率比較をプレ計測で取得したラベル情報(染色情報)を用いて実施する。第2の合焦位置検出方法における撮像フローでは、画像データを取得する必要がなく、より単純で簡便な撮像フローとなる。 In FIG. 14 and FIG. 15A, the light transmittance comparison of the color plane is performed using the image data acquired by the pre-measurement. In FIGS. 16 and 17, the light transmittance comparison of the color plane is performed by the pre-measurement. This is performed using the acquired label information (staining information). In the imaging flow in the second focus position detection method, it is not necessary to acquire image data, and the imaging flow is simpler and simpler.
(第2の合焦位置検出方法における合焦位置検出ユニット)
図16は、第2の合焦位置検出方法における合焦位置検出ユニットの機能ブロック図である。合焦位置検出ユニット324は、染色取得部1401、吸収判定部1402、合焦カラープレーン選択部1403、合焦位置決定部1404を有する。染色取得部1401、吸収判定部1402と合焦カラープレーン選択部1403は、「合焦に関わるプレ計測処理」に関連する機能ブロックである。合焦位置決定部1404は、「合焦に関わる本撮像処理」に関連する機能ブロックである。
(Focus position detection unit in the second focus position detection method)
FIG. 16 is a functional block diagram of the focus position detection unit in the second focus position detection method. The focus
染色取得部1401は、メイン制御ユニット321から染色情報を取得する。染色情報は、標本に施された染色(例えば、HE(ヘマトキシリン・エオシン)染色など)を特定する情報である。
The
吸収判定部1402は、染色取得部1401から染色情報を取得し、カラープレーンの光透過率を比較する。吸収判定部1402は、染色方法とカラーフィルタの透過率を対応付けたテーブル(図18参照)を予め保持しており、そのテーブルに従って、カラープレーンでの光透過率の大小関係を判定する。判定結果(カラープレーンでの光透過率の大小関係)を合焦カラープレーン選択部1403に送信する。ただし、第2の合焦位置検出方法においては、吸収判定部1402は必須の構成ではない。(図18に示すテーブルではなく、)染色方法と選択すべきカラープレーンとを対応付けたテーブルを保持しておけば、染色取得部1401で取得した染色情報を基に、合焦カラープレーン選択部1403で合焦カラープレーンを選択することができる。
The
合焦カラープレーン選択部1403は、吸収判定部1402の判定結果から、合焦位置検出に用いるカラープレーンを選択する。光透過率が最も小さい(対象とするカラーの標本での吸収が大きい)と判定されたカラープレーンを、合焦位置検出用のカラープレーンとする。合焦位置決定部1404の機能は、第1の合焦位置検出方法のものと同じである
。
The in-focus color
図17は、第2の合焦位置検出方法における合焦位置検出フローを示すフローチャートである。
ステップS1701では、メイン制御ユニット321から染色情報を取得する。プレ計測において、プレ計測ユニット320がラベルエリア504から染色情報を読み取り、それをメイン制御ユニット321に送信する。その染色情報を、メイン制御ユニット321が合焦位置検出ユニット324に送信する。染色情報の実体データがラベルエリア504でなく外部サーバなどのデータベースに格納されている場合には、例えば、ラベルエリア504からID情報を読み取り、そのID情報を基にデータベースから染色情報を取得することもあり得る。または、ユーザが画像処理装置102を介して染色情報(例えば、HE染色)を入力し、その染色情報を取得することもあり得る。または、ユーザが画像処理装置102を介してID情報を入力し、そのID情報を基にデータベースから染色情報を取得することもあり得る。
FIG. 17 is a flowchart showing a focus position detection flow in the second focus position detection method.
In step S1701, staining information is acquired from the
ステップS1702では、カラープレーンの光透過率比較を行う。染色方法とカラーフィルタの透過率を対応付けたテーブル(図18参照)にしたがって、カラープレーンでの光透過率の大小関係を判定する。このステップS1702は図16の吸収判定部1402で実行される処理である。ただし、本ステップS1702は必須の構成ではない。(図18に示すテーブルではなく、)染色方法と選択すべきカラープレーンの情報とを対応付けたテーブルを保持しておけばよい。このようなテーブルを用いれば、ステップS1701で取得した染色情報を基に、ステップS1703で合焦カラープレーンを選択することができる。
In step S1702, the light transmittance of the color plane is compared. The magnitude relationship between the light transmittances in the color plane is determined according to a table (see FIG. 18) in which the staining method and the color filter transmittance are associated with each other. Step S1702 is a process executed by the
ステップS1703では、合焦位置検出に用いるカラープレーンの選択(合焦カラープレーン選択)を行う。ステップS1702で光透過率が最も小さいと判定されたカラープレーンを、合焦位置検出に用いるカラープレーンとする。光透過率が小さいカラープレーンからは、図13に示した透過率分布の影響によるコントラスト1301(振幅コントラスト)が得られやすく、屈折率分布の影響によるコントラスト1302(位相コントラスト)の影響を受けにくいためである。このステップS1703は図16の合焦カラープレーン選択部1403で実行される処理である。
ステップS1504、S1505、S1506は、図15(a)、図15(b)で説明した内容と同一である。
In step S1703, selection of a color plane used for focus position detection (focus color plane selection) is performed. The color plane determined to have the smallest light transmittance in step S1702 is set as a color plane used for focus position detection. A color plane having a small light transmittance can easily obtain the contrast 1301 (amplitude contrast) due to the influence of the transmittance distribution shown in FIG. 13, and is hardly affected by the contrast 1302 (phase contrast) due to the influence of the refractive index distribution. It is. This step S1703 is processing executed by the in-focus color
Steps S1504, S1505, and S1506 are the same as those described with reference to FIGS. 15A and 15B.
なお、図17の処理フローは、染色情報に基づいて合焦位置検出用のカラープレーンを選択する方法の一例である。例えば、染色方法と選択すべきカラープレーンとを対応付けたテーブル、染色方法と染色標本が通常有する色もしくは色相とを対応付けたテーブル、染色方法と選択すべきカラーフィルタを対応付けたテーブルなどを用いてもよい。合焦カラープレーン選択部1403の処理としては、染色情報によって標本の染色を特定し、その染色が施された標本が通常有する色に最も色相が近いカラープレーンを選択する処理であれば、どのようなものでもよい。
Note that the processing flow in FIG. 17 is an example of a method for selecting a color plane for detecting a focus position based on staining information. For example, a table associating a staining method with a color plane to be selected, a table associating a staining method with a color or hue that a staining specimen normally has, a table associating a staining method with a color filter to be selected, etc. It may be used. As the processing of the in-focus color
(吸収判定のテーブル)
図18は、第2の合焦位置検出方法における吸収判定部で用いるテーブルを説明する模式図である。このテーブルは、染色方法(染色の種類)とカラーフィルタの透過率とを対応付けたテーブルである。カラーフィルタの透過率は、例えば、多数の染色標本の透過率をRGB毎に測定し、平均値を求めることにより定めることができる。HE染色標本の場合、R(中心波長0.7000μm)、G(中心波長0.5461μm)、B(中心波長0.4358μm)に対する任意領域の透過率は、それぞれ、96%程度、73%程度、97%程度である。染色方法にはHE染色、マッソントリクローム染色、ギムザ染色など
がある。テーブルには、各染色方法について、R,G,Bそれぞれのカラーフィルタの透過率が記載されている。
(Absorption determination table)
FIG. 18 is a schematic diagram illustrating a table used in the absorption determination unit in the second focus position detection method. This table is a table in which the staining method (staining type) and the color filter transmittance are associated with each other. The transmittance of the color filter can be determined, for example, by measuring the transmittance of a large number of stained specimens for each RGB and obtaining an average value. In the case of a HE-stained specimen, the transmittances in arbitrary regions with respect to R (center wavelength 0.7000 μm), G (center wavelength 0.5461 μm), and B (center wavelength 0.4358 μm) are about 96% and about 73%, respectively. It is about 97%. Examples of the staining method include HE staining, Masson trichrome staining, Giemsa staining, and the like. In the table, the transmittance of each color filter of R, G, B is described for each staining method.
(異なる染色を施されたスライドの処理)
第1、及び、第2の合焦位置検出方法はスライドごとに実施することができる。そのため、異なる染色を施された複数のスライドに対しては、当該染色の合焦位置検出に適したカラーのカラープレーンを選択することで合焦位置検出を行うことができる。
(Treatment of slides with different staining)
The first and second focus position detection methods can be performed for each slide. Therefore, for a plurality of slides subjected to different staining, it is possible to perform in-focus position detection by selecting a color plane of a color suitable for detecting the in-focus position of the staining.
(コヒーレントファクタの制御による合焦位置検出)
ここまでは、合焦位置検出に適したカラーのカラープレーンを用いることを前提としたが、それを前提とせず、「合焦に関わる本撮像処理」と「本撮像処理」とでコヒーレントファクタを異ならせることで、合焦位置検出の精度を高めることができる。例えば、コヒーレントファクタの制御は、開口絞り変更部1105により開口絞り908を制御することで実現できる。
(Focus position detection by coherent factor control)
Up to this point, it was assumed that a color plane of a color suitable for focus position detection was used, but this was not premised, and the coherent factor was determined by `` main imaging processing related to focusing '' and `` main imaging processing ''. By making it different, the accuracy of in-focus position detection can be increased. For example, the control of the coherent factor can be realized by controlling the
(撮像装置の別の構成例)
図19、及び、図20は、撮像システムにおける撮像装置の別の構成例である。第1、及び、第2の合焦位置検出方法では、合焦位置検出に用いる画像データは、「本撮像処理」と同様に撮像センサ308で取得する構成である。ここでは、別の構成例として、合焦位置検出に用いる画像データを、「本撮像処理」の撮像センサ308とは別の合焦撮像ユニットで取得する構成について説明する。
(Another configuration example of the imaging device)
19 and 20 show another configuration example of the imaging apparatus in the imaging system. In the first and second in-focus position detection methods, image data used for in-focus position detection is acquired by the
図19は、図3の撮像装置に合焦撮像ユニット1901が追加された構成である。合焦撮像ユニット1901(第2の撮像ユニット)は、本撮像に用いる撮像ユニット310(第1の撮像ユニット)と現像処理ユニット319の機能を合わせ持つユニットである。合焦位置検出に用いる画像データを合焦撮像ユニット1901で取得する構成であり、センサ機能を合焦位置検出用に特化することができる。例えば、センサの解像度(画素数)を「本撮像処理」の撮像センサ308よりも小さくすることで高速化を行うことができる。また、「本撮像処理」と「合焦位置検出用の撮像処理」とで用いる光学系が異なる(照明ユニット301から撮像ユニット310までの光学系を第1の光学系、照明ユニット301から合焦撮像ユニット1901までの光学系を第2の光学系と称す。)。したがって、第1の光学系に比べて第2の光学系のコヒーレントファクタを大きくする構成が採れる。このように、「合焦位置検出用の撮像処理」と「本撮像処理」とでコヒーレントファクタをそれぞれ最適化することで、安定した合焦位置検出と、コントラストと解像力がバランスした観察像の取得ができる。
FIG. 19 shows a configuration in which a focusing
図20は、図3の撮像装置に合焦撮像ユニット1901及び照明ユニット301Aが追加された構成である。図19はハーフミラーで光路分割する構成だが、図20は合焦位置検出と「本撮像処理」の光学構成がそれぞれ独立する構成である。この場合、照明ユニット301から撮像ユニット310までの光学系が第1の光学系、照明ユニット301Aから合焦撮像ユニット1901までの光学系が第2の光学系となる。本構成でも、図19の構成と同様の利点がある。また、「合焦位置検出用の撮像処理」と「本撮像処理」とでコヒーレントファクタをそれぞれ最適化することで、安定した合焦位置検出と、コントラストと解像力がバランスした観察像の取得ができる。さらに、機械的に開口絞り908の変更が必要でないという利点がある。
FIG. 20 shows a configuration in which a focusing
(効果)
図21(a)、図21(b)は、屈折率分布を有する物体の合焦指標値を説明する模式図である。図13には屈折率分布を有する物体の理想的なコントラスト特性を示したが、画像データ取得時の機械誤差や電気的ノイズのために、画像データからこの理想的なコン
トラスト特性を取得することは困難である。そのため、特定のアルゴリズムにより、理想的なコントラスト特性の代用となる合焦指標値を取得する。本実施形態における合焦指標値とは、画像の合焦度合いを示す指標であり、一般的な意味での(広義の)コントラストと同義である。アルゴリズムの例は、コントラストや正規化自乗強度和などのアルゴリズム、自己相関や正規化分散などの統計アルゴリズム、Brenner微分、Vollath−5などの微分アルゴリズム、エントロピーなどのヒストグラムを利用するアルゴリズムである。列挙したそれぞれのアルゴリズムから取得できるのは、狭義のコントラストである。図21(a)は、屈折率分布の影響によるコントラスト1302(位相コントラスト)をあるアルゴリズムで取得した場合の合焦指標値である。図21(b)は、透過率分布の影響によるコントラスト1301(振幅コントラスト)をあるアルゴリズムで取得した場合の合焦指標値である。これまでに説明したように、合焦位置検出に用いる画像データのカラーフィルタを適切に選択することなどで、図13の屈折率分布の影響によるコントラスト1302(位相コントラスト)を抑制することができる。すなわち、合焦指標値の形状は図21(a)ではなく図21(b)に近い形状となる。
(effect)
FIG. 21A and FIG. 21B are schematic diagrams for explaining the focus index value of an object having a refractive index distribution. FIG. 13 shows an ideal contrast characteristic of an object having a refractive index distribution, but it is not possible to acquire this ideal contrast characteristic from image data due to mechanical errors and electrical noise at the time of image data acquisition. Have difficulty. For this reason, a focus index value serving as a substitute for an ideal contrast characteristic is acquired by a specific algorithm. The focus index value in the present embodiment is an index indicating the degree of focus of an image, and is synonymous with contrast (in a broad sense) in a general sense. Examples of algorithms are algorithms such as contrast and normalized square strength sum, statistical algorithms such as autocorrelation and normalized variance, differential algorithms such as Brenner differentiation and Volath-5, and algorithms using histograms such as entropy. What can be obtained from each of the listed algorithms is a narrow sense of contrast. FIG. 21A shows a focus index value when the contrast 1302 (phase contrast) due to the influence of the refractive index distribution is acquired by a certain algorithm. FIG. 21B shows the focus index value when the contrast 1301 (amplitude contrast) due to the influence of the transmittance distribution is acquired by a certain algorithm. As described above, the contrast 1302 (phase contrast) due to the influence of the refractive index distribution in FIG. 13 can be suppressed by appropriately selecting the color filter of the image data used for in-focus position detection. That is, the shape of the focus index value is a shape close to FIG. 21B instead of FIG.
ここで注意すべきは、本発明では標本による吸収が最も大きい色に対応するカラープレーンデータを合焦位置検出に用いるが、そのカラープレーンデータの合焦指標値が他のカラープレーンデータの合焦指標値に比べて常に大きいわけではない、という点である。すなわち、標本での吸収が大きい色に対応するカラープレーンデータから求めた合焦指標値が、その他のカラープレーンデータから求めた合焦指標値より小さいこともあり得る。標本での吸収が大きい色を選択する理由は、標本の位相差の影響を受けにくい(図13の1302のような双峰のコントラストになりにくい)という理由であり、合焦指標値(コントラスト)が大きい、という理由ではない。本発明は、合焦指標値(コントラスト)が大きいカラープレーンデータで合焦位置検出を行うことで合焦位置を安定して検出する、という従来の考えとは異なる。本発明は、標本の位相差の影響を抑制することで合焦位置を安定して検出する、という考えに基づく発明である。 It should be noted here that in the present invention, the color plane data corresponding to the color having the greatest absorption by the sample is used for focus position detection, but the focus index value of the color plane data is the focus of other color plane data. The point is that it is not always larger than the index value. That is, the focus index value obtained from the color plane data corresponding to a color having a large absorption in the sample may be smaller than the focus index value obtained from the other color plane data. The reason why a color having a large absorption in the sample is selected is that it is not easily affected by the phase difference of the sample (it is difficult to achieve a bimodal contrast such as 1302 in FIG. 13), and the focus index value (contrast). It is not the reason that is big. The present invention is different from the conventional idea that the focus position is stably detected by detecting the focus position with color plane data having a large focus index value (contrast). The present invention is based on the idea that the in-focus position is stably detected by suppressing the influence of the phase difference of the specimen.
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other examples)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
101:撮像装置
324:合焦位置検出ユニット
501:標本
1403:合焦カラープレーン選択部
1404:合焦位置決定部
101: Imaging device 324: Focus position detection unit 501: Sample 1403: Focus color plane selection unit 1404: Focus position determination unit
Claims (16)
前記画像データは、複数のカラープレーンのデータから構成される、カラー画像データであり、
前記合焦位置検出装置は、
前記複数のカラープレーンのうち前記標本による吸収が最も大きい色に対応するカラープレーンを、合焦位置検出用のカラープレーンとして選択する選択手段と、
前記複数のレイヤーそれぞれの前記合焦位置検出用のカラープレーンのデータの合焦度合いを評価することによって、前記標本の合焦位置を決定する合焦位置決定手段と、
を有することを特徴とする合焦位置検出装置。 An in-focus position detecting device that detects an in-focus position of the sample using image data of a plurality of layers in the sample, which is imaged while changing a focal position in the optical axis direction with respect to the sample,
The image data is color image data composed of data of a plurality of color planes,
The in-focus position detecting device is
A selection unit that selects a color plane corresponding to a color that is most absorbed by the sample among the plurality of color planes as a color plane for in-focus position detection;
An in-focus position determining means for determining the in-focus position of the sample by evaluating the in-focus degree of the data of the color plane for detecting the in-focus position of each of the plurality of layers;
An in-focus position detecting device comprising:
ことを特徴とする請求項1に記載の合焦位置検出装置。 The focus position determination unit calculates a focus index value from data of the focus plane detection color plane of each of the plurality of layers, and the focus index value is an extreme value in the distribution of the focus index value. The focus position detection apparatus according to claim 1, wherein a position in the optical axis direction that takes the position is determined as a focus position.
ことを特徴とする請求項2に記載の合焦位置検出装置。 The in-focus position detecting device according to claim 2, wherein the in-focus index value is a contrast of data of the color plane for detecting the in-focus position.
ことを特徴とする請求項1〜3のうちいずれか1項に記載の合焦位置検出装置。 Absorption determination means for determining a color having the greatest absorption by the sample from a plurality of colors corresponding to each of the plurality of color planes based on luminance values of the color planes of the image data of the plurality of layers. The in-focus position detecting device according to claim 1, wherein the in-focus position detecting device is provided.
ことを特徴とする請求項4に記載の合焦位置検出装置。 The absorption determination unit calculates an integrated luminance value of each color plane of the image data of the plurality of layers, and determines a color corresponding to a color plane having the smallest integrated luminance value as a color having the largest absorption by the sample. The in-focus position detecting device according to claim 4.
前記選択手段は、前記染色情報に基づいて、前記複数のカラープレーンのうちから前記合焦位置検出用のカラープレーンを選択する
ことを特徴とする請求項1〜3のうちいずれか1項に記載の合焦位置検出装置。 Further comprising staining acquisition means for acquiring staining information for specifying staining performed on the specimen;
The said selection means selects the color plane for the said focus position detection from these color planes based on the said dyeing | staining information, The any one of Claims 1-3 characterized by the above-mentioned. In-focus position detection device.
ことを特徴とする請求項6に記載の合焦位置検出装置。 7. The selection unit according to claim 6, wherein the selection unit selects a color plane having a hue closest to a sample subjected to staining specified by the staining information as the color plane for detecting the in-focus position. In-focus position detection device.
前記染色情報は、前記スライドグラスに設けられているラベルに記録されているか、又は、前記ラベルに記録されている情報に基づきデータベースから取得される
ことを特徴とする請求項6又は7に記載の合焦位置検出装置。 The specimen is placed on a slide glass,
The dyeing information is recorded on a label provided on the slide glass, or is acquired from a database based on information recorded on the label. In-focus position detection device.
前記撮像ユニットを制御する制御ユニットと、
請求項1〜8のうちいずれか1項に記載の合焦位置検出装置と、を有する撮像装置であって、
前記制御ユニットは、前記合焦位置検出装置によって決定された合焦位置の情報を取得し、前記撮像ユニットにより前記合焦位置での前記標本の画像データを取得する制御を行う
ことを特徴とする撮像装置。 An imaging unit for imaging the specimen;
A control unit for controlling the imaging unit;
An in-focus position detecting device according to any one of claims 1 to 8, comprising:
The control unit acquires information on a focus position determined by the focus position detection device, and performs control for acquiring image data of the sample at the focus position by the imaging unit. Imaging device.
前記制御ユニットは、前記撮像ユニットにより前記標本内の複数のレイヤーの画像データを取得する制御を行い、
前記合焦位置検出装置は、前記撮像ユニットにより取得された前記複数のレイヤーの画像データを用いて前記標本の合焦位置を決定する
ことを特徴とする請求項9に記載の撮像装置。 Before the control to acquire the image data of the specimen at the in-focus position is performed,
The control unit performs control to acquire image data of a plurality of layers in the sample by the imaging unit,
The imaging apparatus according to claim 9, wherein the in-focus position detecting apparatus determines an in-focus position of the specimen using image data of the plurality of layers acquired by the imaging unit.
前記制御ユニットは、前記合焦位置検出装置が用いる前記標本内の前記複数のレイヤーの画像データを取得する場合のコヒーレントファクタが、前記合焦位置での前記標本の画像データを取得する場合のコヒーレントファクタよりも大きくなるよう、前記光学系を制御する
ことを特徴とする請求項9又は10に記載の撮像装置。 It has an optical system that can change the coherent factor,
The control unit is coherent when the image data of the plurality of layers in the sample used by the in-focus position detection device acquires image data of the sample at the in-focus position. The image pickup apparatus according to claim 9 or 10, wherein the optical system is controlled to be larger than a factor.
前記合焦位置検出装置が用いる前記標本内の前記複数のレイヤーの画像データを取得する場合は、前記第2の光学系が用いられ、
前記合焦位置での前記標本の画像データを取得する場合は、前記第1の光学系が用いられる
ことを特徴とする請求項9又は10に記載の撮像装置。 A first optical system and a second optical system having a coherent factor larger than that of the first optical system,
When acquiring image data of the plurality of layers in the specimen used by the in-focus position detection device, the second optical system is used,
The imaging apparatus according to claim 9 or 10, wherein the first optical system is used when acquiring image data of the specimen at the in-focus position.
前記合焦位置検出装置が用いる前記標本内の前記複数のレイヤーの画像データを取得する場合は、前記第2の撮像ユニットが用いられ、
前記合焦位置での前記標本の画像データを取得する場合は、前記第1の撮像ユニットが用いられる
ことを特徴とする請求項9〜12のうちいずれか1項に記載の撮像装置。 The imaging unit includes a first imaging unit and a second imaging unit having a resolution smaller than that of the first imaging unit,
When acquiring image data of the plurality of layers in the specimen used by the in-focus position detection device, the second imaging unit is used,
The imaging apparatus according to any one of claims 9 to 12, wherein the first imaging unit is used when acquiring image data of the specimen at the in-focus position.
ことを特徴とする請求項9〜13のうちいずれか1項に記載の撮像装置。 The imaging apparatus according to claim 9, wherein the imaging apparatus is a microscope.
前記画像データは、複数のカラープレーンのデータから構成される、カラー画像データであり、
前記合焦位置検出方法は、
前記複数のカラープレーンのうち前記標本による吸収が最も大きい色に対応するカラープレーンを、合焦位置検出用のカラープレーンとして選択するステップと、
前記複数のレイヤーそれぞれの前記合焦位置検出用のカラープレーンのデータの合焦度合いを評価することによって、前記標本の合焦位置を決定するステップと、
を有することを特徴とする合焦位置検出方法。 An in-focus position detection method for detecting the in-focus position of the sample using image data of a plurality of layers in the sample, which is imaged while changing the focal position in the optical axis direction with respect to the sample,
The image data is color image data composed of data of a plurality of color planes,
The in-focus position detection method is:
Selecting a color plane corresponding to a color having the largest absorption by the sample among the plurality of color planes as a color plane for in-focus position detection;
Determining the in-focus position of the sample by evaluating the in-focus degree of the color plane data for detecting the in-focus position of each of the plurality of layers;
A focus position detection method characterized by comprising:
前記撮像装置で取得された画像を処理する画像処理装置と、
を有することを特徴とする撮像システム。 The imaging device according to any one of claims 9 to 14,
An image processing device for processing an image acquired by the imaging device;
An imaging system comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015046103A JP2016166941A (en) | 2015-03-09 | 2015-03-09 | Focusing position detection device, focusing position detection method and imaging system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015046103A JP2016166941A (en) | 2015-03-09 | 2015-03-09 | Focusing position detection device, focusing position detection method and imaging system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016166941A true JP2016166941A (en) | 2016-09-15 |
Family
ID=56898422
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015046103A Pending JP2016166941A (en) | 2015-03-09 | 2015-03-09 | Focusing position detection device, focusing position detection method and imaging system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016166941A (en) |
-
2015
- 2015-03-09 JP JP2015046103A patent/JP2016166941A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9224193B2 (en) | Focus stacking image processing apparatus, imaging system, and image processing system | |
US10269103B2 (en) | Image processing apparatus, image processing method, and image processing system | |
JP6576921B2 (en) | Autofocus method and system for multispectral imaging | |
US10444486B2 (en) | Systems and methods for detection of blank fields in digital microscopes | |
US20150153559A1 (en) | Image processing apparatus, imaging system, and image processing system | |
US20140015933A1 (en) | Image processing apparatus, imaging system, and image processing system | |
WO2013100025A1 (en) | Image processing device, image processing system, image processing method, and image processing program | |
US20140333751A1 (en) | Image processing apparatus and system, method for processing image, and program | |
JP2013200640A (en) | Image processing device, image processing system, image processing method and program | |
EP2800053A1 (en) | Image processing device, image display system, image processing method, and image processing program | |
JP2012237693A (en) | Image processing device, image processing method and image processing program | |
JP2014130221A (en) | Image processing apparatus, control method thereof, image processing system, and program | |
US20140306992A1 (en) | Image processing apparatus, image processing system and image processing method | |
US20160042122A1 (en) | Image processing method and image processing apparatus | |
US20130265322A1 (en) | Image processing apparatus, image processing system, image processing method, and image processing program | |
WO2013100029A1 (en) | Image processing device, image display system, image processing method, and image processing program | |
US10429632B2 (en) | Microscopy system, microscopy method, and computer-readable recording medium | |
JP2015035782A (en) | Image processing device, imaging device, microscope system, image processing method, and image processing program | |
US10721413B2 (en) | Microscopy system, microscopy method, and computer readable recording medium | |
CN104423027A (en) | Microscope | |
JP2016206228A (en) | Focused position detection device, focused position detection method, imaging device and imaging system | |
JP5818828B2 (en) | Image processing apparatus, imaging system, and image processing system | |
JP2016166941A (en) | Focusing position detection device, focusing position detection method and imaging system | |
JP2015191362A (en) | Image data generation apparatus and image data generation method | |
JP2013232757A (en) | Imaging apparatus, image processing apparatus, image processing method, and program |