JP2016173511A - Image acquisition device, and image acquisition method using the same - Google Patents
Image acquisition device, and image acquisition method using the same Download PDFInfo
- Publication number
- JP2016173511A JP2016173511A JP2015054060A JP2015054060A JP2016173511A JP 2016173511 A JP2016173511 A JP 2016173511A JP 2015054060 A JP2015054060 A JP 2015054060A JP 2015054060 A JP2015054060 A JP 2015054060A JP 2016173511 A JP2016173511 A JP 2016173511A
- Authority
- JP
- Japan
- Prior art keywords
- image
- imaging
- unit
- acquisition
- subject
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Microscoopes, Condenser (AREA)
Abstract
Description
本発明は、画像取得装置およびこれを用いた画像取得方法、システムに関する。本発明は、WSI(Whole Slide Imaging)及びWSI装置に好適に用いられる。 The present invention relates to an image acquisition device and an image acquisition method and system using the same. The present invention is suitably used for WSI (Whole Slide Imaging) and WSI devices.
従来、癌検査などにおいて、患者から採取した組織(検体)をプレパラートにし、光学顕微鏡で観察して、病変の種類や状態を見分ける病理診断が行われている。これに対し、プレパラートをデジタル撮像し、画像とするWSI装置を用いることで、ディスプレイに表示される画像を用いて診断を行うことが可能となる。 Conventionally, in cancer examinations and the like, pathological diagnosis has been performed in which a tissue (specimen) collected from a patient is prepared and observed with an optical microscope to identify the type and state of a lesion. On the other hand, by using a WSI device that digitally images a slide and uses it as an image, it is possible to make a diagnosis using an image displayed on the display.
WSI装置には、スライド全面の画像取得に際して、被写体の撮像範囲を小領域に分割して画像を取得し、合成して大領域の被写体の画像を生成する方法を用いるものがある。なお、これ以降、撮像範囲を小領域に分割した分割領域をタイル、各タイルにおいて撮像を行い取得した画像データをタイル画像と称する。 Some WSI apparatuses use a method of acquiring an image of a subject in a large area by acquiring the image by dividing the imaging range of the subject into small areas when acquiring the image of the entire slide surface. Hereinafter, a divided area obtained by dividing the imaging range into small areas is referred to as a tile, and image data acquired by imaging in each tile is referred to as a tile image.
このようなタイル画像を合成して被写体の画像を生成するWSI装置において、画像を取得する撮像素子801と、撮像対象である検体804との間で相対的な傾きを持つ場合がある。その一例として、図7(a)に検体804と撮像素子801とが平行でない状態で、複数のタイル画像を取得した場合を示す。このような場合では、タイル数が増加するに従い、タイル画像を取得する際の焦点面が検体からはずれることがある。これにより、合成後の画像内で光軸方向の位置の異なる領域が存在するアーチファクトが発生していた。
In a WSI apparatus that generates an image of a subject by combining such tile images, there may be a relative inclination between the
また、各タイル画像を合成する際に、隣接するタイル同士の継ぎ目部分において、タイル画像毎に光軸方向の位置が異なりアーチファクトが発生することがあった。これはステージの一般的な駆動精度の一つである、ステージの走り平行度が影響している。ステージの走り平行度の影響の概念図を図7(b)に示す。走り平行度の影響により、光軸と垂直な平面(XY平面)方向に駆動した際に、意図しない対物レンズ802の光軸方向(Z軸方向)への変位が発生することがある。もう一つの原因として、撮像素子801と検体804との間に相対的な傾きが存在し、ステージの移動方向、すなわち検体804の移動方向と焦点面の傾き方向とが異なることが挙げられる。これは、図7(c)の概念図に示すように、タイル内での光軸方向の位置が、タイル右端とタイル左端で異なるために発生する。
In addition, when combining tile images, the position in the optical axis direction differs for each tile image at the joint portion between adjacent tiles, and artifacts may occur. This is influenced by the parallelism of the stage, which is one of the general driving accuracy of the stage. A conceptual diagram of the influence of the running parallelism of the stage is shown in FIG. Due to the influence of the running parallelism, an unintended displacement of the
上述のようなアーチファクトは、デジタル画像を用いた診断の効率低下の原因となっていた。アーチファクトを低減するために、特許文献1では、検体上の複数の位置で取得した焦点面の位置情報より、検体の光軸方向の位置の変化を求め、この変化を、各々のタイル画像を取得する際の焦点面の位置を決定するときに反映することが開示されている。この方法によれば、上述の画像を取得する際に、焦点面が検体からはずれることによるアーチファクトを低減できる。
Artifacts as described above have caused a reduction in the efficiency of diagnosis using digital images. In order to reduce artifacts, in
特許文献2では、各々のタイル位置において光軸方向に異なる位置において取得したタイル画像のコントラストを評価し、コントラストが最大となる光軸方向の位置で取得した画像を合焦した画像とすることが開示されている。この方法の様に、各タイルにおいて所謂オートフォーカスを実行すれば、上述の焦点面が検体からはずれることと、ステージ走り平行度の影響による焦点面の変動によるアーチファクトを低減できる。また、特許文献3には、被写体の平面方向に異なる複数の位置で合焦位置を取得して、取得した合焦位置と撮像センサの受光面とが共役になるように検体の位置を補正することが開示されている。 In Patent Document 2, the contrast of tile images acquired at different positions in the optical axis direction at each tile position is evaluated, and the image acquired at the position in the optical axis direction where the contrast is maximized is set as a focused image. It is disclosed. If so-called auto-focusing is performed on each tile as in this method, the above-described focal plane deviates from the specimen, and artifacts due to focal plane fluctuations due to the influence of the stage running parallelism can be reduced. Japanese Patent Laid-Open No. 2004-133867 acquires in-focus positions at a plurality of different positions in the plane direction of the subject, and corrects the position of the specimen so that the acquired in-focus position and the light receiving surface of the imaging sensor are conjugate. It is disclosed.
しかしながら、特許文献1で開示されている方法では、ステージの走り平行度の影響で焦点面がタイルごとに意図せず変動してしまうという点には対処できない。つまり、特許文献1の方法によって設定された焦点面の位置と実際にタイル画像が取得される焦点面の位置とが変わってしまうことがあった。また、特許文献2で開示されている方法では、焦点面の傾きによって発生するアーチファクトに対応できない。さらに、各タイルでそれぞれにオートフォーカスを実行するため、検体内の構造(例えば、核の位置等)によっては、隣接するタイル間で合焦位置が大きく異なる可能性がある。結果として合成時した際の継ぎ目で焦点面の光軸方向の位置の違いによりアーチファクトが発生することがあった。また、特許文献3で開示されている方法では、タイル画像間における光軸方向の位置の差については考慮していないため、隣接するタイル同士の継ぎ目部分にアーチファクトが発生することがある。
However, the method disclosed in
本発明は、前記課題に鑑みてなされたものであり、アーチファクトが低減された画像を効率的に取得できる画像取得装置及び画像取得方法を提供することを目的とする。 The present invention has been made in view of the above problems, and an object thereof is to provide an image acquisition apparatus and an image acquisition method that can efficiently acquire an image with reduced artifacts.
本発明の一側面としての画像取得装置は、被写体を複数の領域ごとに撮像することにより前記被写体の画像を取得する画像取得装置であって、前記被写体からの光を結像する結像光学部と、前記被写体の像を撮像する撮像部と、前記撮像部の撮像面と共役な焦点面と前記被写体との前記結像光学部の光軸方向の相対位置を変更する変更部と、前記被写体の複数の位置それぞれにおける前記被写体の中の検体の前記光軸方向の位置を用いて想定取得面を生成する面生成部と、第1の領域と隣接する第2の領域内の1つ又は複数の位置における前記第2の領域を撮像したときの前記焦点面の前記光軸方向の位置を用いて、前記第1の領域内の1つ又は複数の位置における前記焦点面の予想位置を取得する位置取得部と、前記想定取得面の前記光軸方向の位置と前記予想位置との差を取得し、前記差と前記結像光学部の被写界深度とを比較した結果に基づいて、前記焦点面が前記想定取得面から前記被写界深度の範囲内になるように前記相対位置を補正するための補正量を取得する補正量取得部と、を有することを特徴とする。 An image acquisition device according to one aspect of the present invention is an image acquisition device that acquires an image of a subject by imaging the subject for each of a plurality of regions, and an imaging optical unit that forms an image of light from the subject An imaging unit that captures an image of the subject, a focal plane that is conjugate with an imaging surface of the imaging unit, and a change unit that changes a relative position of the imaging optical unit in the optical axis direction of the subject, and the subject A surface generation unit that generates an assumed acquisition surface using the position in the optical axis direction of the specimen in the subject at each of the plurality of positions, and one or more in a second region adjacent to the first region The predicted position of the focal plane at one or more positions in the first area is acquired using the position of the focal plane in the optical axis direction when the second area is imaged at the position A position acquisition unit and the optical axis of the assumed acquisition surface; Obtaining the difference between the orientation position and the predicted position, and comparing the difference with the depth of field of the imaging optical unit, the focal plane from the assumed acquisition surface to the depth of field And a correction amount acquisition unit that acquires a correction amount for correcting the relative position so as to fall within the range.
また、本発明の別の一側面としての画像取得装置は、被写体を複数の領域ごとに撮像することにより前記被写体の画像を取得する画像取得装置であって、前記被写体からの光を結像する結像光学部と、前記被写体の像を撮像する撮像部と、前記撮像部の撮像面と共役な焦点面と前記被写体との前記結像光学部の光軸方向における相対位置を変更する変更部と、前記被写体の複数の異なる位置それぞれにおける前記被写体の中の検体の前記光軸方向における位置を用いて想定取得面を生成する面生成部と、前記第1の領域の前記光軸方向に異なる複数の位置を前記撮像部で撮像することにより取得した複数の画像から、前記複数の画像それぞれを撮像した時の前記焦点面が前記想定取得面から前記結像光学部の被写界深度の範囲内に含まれ、且つ、前記第1の領域と隣接する第2の領域から前記被写界深度の範囲内に含まれる画像又は前記複数の画像の一部を抽出する抽出部と、を有することを特徴とする。 An image acquisition apparatus according to another aspect of the present invention is an image acquisition apparatus that acquires an image of a subject by imaging the subject for each of a plurality of regions, and forms an image of light from the subject. An imaging optical unit, an imaging unit that captures an image of the subject, and a changing unit that changes a relative position in the optical axis direction of the imaging optical unit between a focal plane conjugate with an imaging surface of the imaging unit and the subject. A surface generation unit that generates an assumed acquisition surface using positions in the optical axis direction of the specimen in the subject at each of a plurality of different positions of the subject, and differs in the optical axis direction of the first region. The range of the depth of field of the imaging optical unit from the assumed acquisition plane when the plurality of images are captured from the plurality of images acquired by imaging a plurality of positions with the imaging unit. Included in and , And having a extraction unit for extracting a portion of the first region and the image or the plurality of images included from a second region adjacent to the range of the depth of field.
本発明の一側面としての画像取得装置及び画像取得方法によれば、アーチファクトが低減された画像を効率的に取得できる。 According to the image acquisition device and the image acquisition method as one aspect of the present invention, an image with reduced artifacts can be acquired efficiently.
(第1の実施形態)
<WSI装置システム構成>
本実施形態の画像取得装置としてのWSI装置システムについて、図1を参照して説明する。図1は、WSI装置システムの装置構成を説明する図である。このWSI装置システムは、被写体208となるプレパラート上の被検試料の光学顕微鏡像を高解像かつ大サイズ(広画角)のデジタル画像として取得するためのシステムである。
(First embodiment)
<WSI device system configuration>
A WSI apparatus system as an image acquisition apparatus of the present embodiment will be described with reference to FIG. FIG. 1 is a diagram for explaining a device configuration of a WSI device system. This WSI apparatus system is a system for acquiring an optical microscope image of a test sample on a preparation serving as a
WSI装置システムは、顕微鏡装置101(以下、「装置101」と呼ぶ)と画像処理装置102(以下、「装置102」と呼ぶ)、コンピュータ103、表示装置104を有する。装置102は専用処理ボードとしてコンピュータ103に組み込まれている。装置101とコンピュータ103との間は、専用もしくは汎用I/Fのケーブル105で接続され、コンピュータ103と表示装置104の間は、汎用のI/Fのケーブル106で接続される。本実施形態では図に示すシステム構成をとっているが、例えば、装置101に装置102を組み込んでもよいし、コンピュータ103と表示装置104とを一体としたノートPC、または、すべてを一体とした装置を用いて構成してもよい。
The WSI apparatus system includes a microscope apparatus 101 (hereinafter referred to as “
続いて、装置101、102の構成について図2を参照して説明する。図2は、装置101、102の構成を説明する図である。
Next, the configuration of the
<顕微鏡装置>
装置101は、平面内の直交する二軸に沿った複数の異なる位置でカラーフィルターを切換えつつ、タイル画像のデータを取得する。装置101は、照明部201、フィルタホイール部202、照明光学部203、ステージ204、ステージ制御系205、結像光学部209、撮像部213、メイン制御系214から構成される。
<Microscope device>
The
照明部201は、照明光学部203と合わせて用いて、ステージ204上に配置された被写体(プレパラート)208に対して均一に光を照射する手段であり、光源、および光源駆動の制御系から構成される。なお、プレパラート208は、観察対象となる組織の切片や塗抹した細胞(以後、「検体804」と称する)をスライドグラス上に貼り付け、封入剤とともにカバーグラスの下に固定した部材である。フィルタホイール部202は、複数のカラーフィルターと、それらを切換えるためのフィルタホイール、切換えを制御するフィルタホイール制御系から構成される。
The illumination unit 201 is a unit that illuminates the subject (preparation) 208 disposed on the
ステージ204は、焦点面と被写体208との結像光学部209の光軸方向及び光軸方向と垂直な方向における相対位置を変更する変更部である。ステージ204は、ステージ制御系205によって駆動制御され、XYZの三軸方向への移動が可能である。ステージ制御系205は、ステージ204を駆動制御する部分で、駆動制御系206とステージ駆動機構207を有する。駆動制御系206は、メイン制御系214からの指示を受け、ステージ204の駆動制御を行う。ステージ駆動機構207は、駆動制御系206からの指示に従い、ステージ204を駆動する。結像光学部209は、被写体208の光学像を撮像ユニット213内の撮像センサ受光素子面へ結像するためのレンズ群である。
The
なお、本明細書における「焦点面」は、結像光学部209を介して撮像部213の撮像センサ231の撮像面(受光面)と光学的に共役な面のことである。また、焦点位置は、結像光学部209によって被写体208の光学像が結像する位置と共役な位置のことで、焦点面は焦点位置を含む。さらに、被写体208の中の検体と撮像センサ231の受光面とが光学的に共役となっていることを「合焦」という。
Note that the “focal plane” in this specification is a plane optically conjugate with the imaging surface (light receiving surface) of the
撮像部213は、撮像センサ231、アナログフロントエンド(AFE)232、黒調整部233を有する。撮像部213は、ステージ204が結像光学部214の光軸方向に直交する平面をXY平面として、XY平面方向に駆動することにより、被写体208の像を撮像し、タイル画像のデータを取得する。撮像部213によって取得するタイル画像のデータを、これより、原画像データと称する。
The
撮像センサ213は、二次元の光学像を光電変換によって電気的な物理量へ変える二次元のイメージセンサであり、例えば、CCDやCMOSデバイス等が用いられる。撮像センサ231からは、光の強度に応じた電気信号が出力される。撮像部213は、ステージ204がXY平面方向に駆動されることにより、検体のタイル画像を撮像する。AFE232は、撮像センサ231から出力されたアナログ信号をデジタル信号へ変換する回路である。CMOSを用いたイメージセンサの場合、AFE232の機能が撮像センサに一体化される構成であっても良い。黒補正部233は、撮像センサ231およびAFE232によって取得されたタイル画像のデータの各画素から、遮光時に得られた黒補正データを減算する処理を行う。
The
メイン制御系214は、装置102内のサブ制御系228から取得した制御指示や、指示を判断するための情報を用いて、これまで説明してきた各構成の制御を行う。
The
<画像処理装置>
装置102は、装置101から取得した原画像データから、焦点面の位置を補正するための補正量を算出する。また、原画像データを基にユーザの要求に応じて、表示装置104に表示するための表示データを生成する。装置102は、ユーザ情報取得部215(以下「取得部215」と呼ぶ)、面生成部217(以下「生成部217」と呼ぶ)、焦点位置補正部216(以下「補正部216」と呼ぶ)、及び画像位置補正部220(以下「補正部220」と呼ぶ)を有する。また、装置102は、現像処理部221、表示データ生成部227(以下、「生成部224」と呼ぶ)及びサブ制御系228を有する。
<Image processing device>
The
補正部216は、位置取得部218(以下、「取得部218」と呼ぶ)、補正量取得部219(以下、「取得部219」と呼ぶ)を有する。現像処理部221は、ゲイン調整部222(以下、「調整部222」と呼ぶ)、画像合成処理部223(以下、「処理部223」と呼ぶ)、及び色再現画像生成部224(以下、「生成部224」と呼ぶ)を有する。さらに、現像処理部221は、デジタルフィルター処理部225(以下、「処理部225」と呼ぶ)、圧縮処理部226(以下、「処理部226」と呼ぶ)を有する。
The
取得部215は、コンピュータ103内の記憶装置上から、装置101の撮像条件情報、現像処理部221による色再現画像データを生成する際の色再現情報を取得する。撮像条件情報、色再現情報は事前にUI等を介してユーザによって入力され、記憶装置に保持されている。または、プリセットされたものを使用したり、サブ制御系228に自動的に判断させたりしても良い。一例として、撮像範囲であれば、プレパラートの縮小画像を表示し、GUIで撮像範囲をユーザに指定させる。同様に、色再現情報の取得の一例としては、等色関数の候補等を表示してユーザに選択させる。取得した情報の内、撮像条件情報はサブ制御系228を通じてメイン制御系214及び現像処理部221に、色再現情報は現像処理部221に送る。
The
補正部216では、検体から検出した焦点面の位置情報を基に、想定取得面と予想焦点面を取得し、タイル画像取得時の焦点面の位置を補正するための補正量を算出する。焦点面の位置情報の取得や、算出した補正量はサブ制御系228を介して行われる。本実施形態では、補正量はステージの高さ方向(光軸方向)の移動量となる。補正部216の各機能ブロックにおける詳細な処理工程は後述する。想定取得面とは、被写体208のうち撮像により画像を取得したい面のことで、被写体208の中の検体が存在する位置を撮像できるように生成される。
The
生成部217は、検体の位置を検出するステージXY位置を決定し、ステージXY位置にて検体の位置を検出し記録する。記録した検体の位置に基づいて想定取得面を生成する。取得部218は、サブ制御系228を通して、撮像センサ231とステージ204との相対的な傾き(撮像センサ231の焦点面の傾き)パラメータを取得する。次いで、タイル画像の取得を行ったタイルと隣接するタイル間でのステージ走り平行度の影響による焦点面の位置変動を補正する。その後、前述の傾きパラメータと合わせて、隣接タイル内の任意のXY位置での予想位置を算出する。取得部219は、想定取得面と予想位置を基に、タイル画像撮像時の焦点面の位置の補正量を算出する。
The
補正部220は、装置101から取得した複数の原画像データ間の位置ずれを補正する。
The
現像処理部221では、装置101で取得した原画像データを用いて、表示装置104に表示する色再現画像データを生成する。
The
調整部222は、装置101において、各色のフィルターに対する画像データのゲインを調整することによって、露光量の差を補正する。処理部223は、原画像データを継ぎ合わせて、撮像条件情報に基づく大領域の被写体の画像のデータを生成する。生成部224は、処理部223で生成された画像データをXYZ色度座標値に変換する。この変換されたタイル画像のデータを、XYZ画像データと称する。処理部225は、XYZ画像データに含まれる高周波成分の抑制、ノイズ除去、解像感強調を実現するデジタルフィルターの機能を有する。
The
処理部226は、大領域の被写体の二次元画像のデータの伝送の効率化および保存する際のデータ容量削減が目的で行われる静止画像圧縮の符号化処理である。静止画像の圧縮手法として、JPEG(Joint Photographic Experts Group)、JPEGを改良、進化させたJPEG2000やJPEG XR等の規格化された符号化方式が広く一般に知られている。圧縮された画像のデータはコンピュータ103内の記憶装置に送られ、蓄えられる。生成部227は現像処理部221で生成されたXYZ画像データを、ルックアップテーブルを用いて、表示装置104で表示可能なRGB表色系に変換する。
The
サブ制御系228は、装置102内のこれまで説明してきた各種ユニットの制御を行い、メイン制御系214を通じて装置101の制御に関する情報を送受信する。また必要に応じて、取得部215に入力された情報や、記憶装置上に蓄えられた撮像に関する情報を用いて、撮像条件等を自動的に判断、決定する。
The
図3は、コンピュータ103のハードウェア構成を示すブロック図である。本実施形態では、一般的なPC(Personal Computer)に専用処理ボードである装置102を組み込んでいる。コンピュータ103は、CPU(Central Processing Unit)301、RAM(Random Access Memory)302、記憶装置303、データ入出力I/F305、およびこれらを互いに接続する内部バス304を備える。
FIG. 3 is a block diagram illustrating a hardware configuration of the
CPU301は、必要に応じてRAM302等に適宜アクセスし、各種演算処理を行いながらPCの各ブロック全体を統括的に制御する。RAM302は、CPU301の作業用領域等として用いられ、OS、実行中の各種プログラム、各種データを一時的に保持する。RAM302には、図4(a)から図4(g)のフローチャートに対応するプログラムが記憶されており、CPU301がそれを読み込んで実行することで各処理が行われる。
The
記憶装置303は、CPU301に実行させるOS、プログラムや各種パラメータなどのファームウェアが固定的に記憶されている情報を記録し読み出す補助記憶装置である。HDD(Hard Disk Drive)等の磁気ディスクドライブもしくはFlashメモリを用いたやSSD(Solid State Disk)等の半導体デバイスが用いられる。
The
データ入出力I/F305には、専用処理ボードである装置102と、ネットワークに接続するためのLAN I/F306、グラフィクスボード307、外部装置I/F308、操作I/F309が接続される。さらに、グラフィクスボード307に表示装置104、外部装置I/F308に装置101、操作I/F309にキーボード310やマウス311が、それぞれ接続される。
The data input / output I /
<表示装置>
表示装置104は、例えば液晶、EL(Electro−Luminescence)、CRT(Cathode Ray Tube)等を用いた表示デバイスである。WSI装置システムの概略構成で述べたように、表示装置104とコンピュータ103とが一体化したノートPCを想定してもよい。操作I/F409との接続デバイスとしてキーボード410やマウス411等のポインティングデバイスを想定している。タッチパネル等表示装置104の画面が直接入力デバイスとなる構成を取ることも可能である。その場合、タッチパネルは表示装置104と一体となり得る。
<Display device>
The
<画像取得工程>
本実施形態の装置101及び装置102での画像データ取得工程について図8も用いて説明する。本実施形態では画像データの取得時に焦点面の位置補正を行う。
<Image acquisition process>
The image data acquisition process in the
画像データの取得にあたっては、タイル画像の撮像を開始する前に、まず、検体上の少なくとも3点で検体の位置検出を行う。この位置検出を行う点は、ステージ走り平行度の影響を低減するため、後述するキャリブレーションデータの存在する位置にて取得する。 When acquiring image data, before starting to capture a tile image, first, the position of the sample is detected at at least three points on the sample. The point where this position detection is performed is acquired at a position where calibration data, which will be described later, exists in order to reduce the influence of the stage running parallelism.
ここで、キャリブレーションデータとは、事前にステージ204のXY方向における複数の特定の位置のそれぞれで位置検出をして取得したデータである。このキャリブレーションデータを用いれば、ステージの走り平行度の影響による焦点面の位置変動を補正して、ステージの走り平行度による影響を低減する方法も考えらえる。しかしながら、この方法は、キャリブレーションデータを取得した位置でしか補正が実行できない。そのため、検体が入れ替えられ、撮像範囲の位置や大きさが変更になる度に、キャリブレーションデータを取得する必要がある。さもなければ、撮像範囲の位置や大きさ、上述した撮像範囲に対するタイルの割り付けが固定化されるために柔軟性に欠けることとなり、余分に検体の存在しない領域を撮像する必要が出てしまう可能性がある。
Here, the calibration data is data obtained by performing position detection at each of a plurality of specific positions in the XY direction of the
位置検出は、ステージ204の位置を光軸方向(高さ方向、Z軸方向)に変化させた際に撮像センサ231で撮像される画像のコントラストを評価し、最もコントラストが高くなるステージ位置を合焦位置とする。もちろんこの方法に限らず、別光学系を用いる方法や、位相差を検知する方法等、一般的にオートフォーカスを行う方法を使用可能である。位置検出を行ったら、位置検出を行った点を含む想定取得面901を生成する(図8(a))。生成した想定取得面901はタイル画像の撮像時の焦点面の位置を算出するための指標として用いる。この想定取得面901を使用することにより上述した、撮像センサ231とステージ204の積載面、撮像対象である検体910との間での相対的な傾きの影響で画像を取得する際の焦点面が検体910からはずれていくという課題に対応する。
Position detection is performed by evaluating the contrast of an image captured by the
続いて、タイル画像の撮像は、撮像とステージ移動とを含むステップ動作を繰り返しながら行う。この時、図8(b)に示したように、あるステップで撮像したタイルを基準タイル(第2の領域)920、基準タイル920を撮像して取得したタイル画像を基準タイル画像とする。さらに、他のステップで撮像する、基準タイル920と隣接するタイルを被補正タイル(第1の領域)921、被補正タイル921を撮像して取得したタイル画像を被補正タイル画像とする。
Subsequently, the tile image is captured while repeating a step operation including imaging and stage movement. At this time, as shown in FIG. 8B, a tile captured in a certain step is set as a reference tile (second region) 920, and a tile image acquired by imaging the
基準タイル画像と被補正タイル画像のそれぞれから、基準タイル920と被補正タイル921の重複領域内(重複領域922内)における焦点面の位置をそれぞれ検出し、重複領域922での焦点面の位置が同じになるように補正量を求める。基準タイル920と被補正タイル921との間での焦点面の位置補正を行うことで、上述したステージ走り平行度の影響による焦点面の位置変動と、焦点面の傾きによる焦点位置のズレに対応する。
From each of the reference tile image and the corrected tile image, the position of the focal plane in the overlapping area (in the overlapping area 922) of the
しかし、このままでは、多数のタイル画像を継ぎ合わせると、焦点面の傾きによるタイル画像の端部での焦点面の位置の違いが蓄積されていく。このため、取得した画像の焦点面が検体910から乖離した状態になる可能性がある。そこで、被補正タイル921において、基準タイル920と被補正タイル921との間での焦点面の位置の補正を行った後の焦点面の位置に、撮像センサ231の焦点面傾きを加味したものを予想焦点面931として算出する(図8(c))。この予想焦点面931を、基準タイル920から結像光学部209の被写界深度以内の範囲で、想定取得面901に近づける(図8(d))。なお、本明細書における「被写界深度(Depth of field:D.O.F)」は、±D.O.F=±λ/{2(NA)2}という式で表されるものと定義する。ここで、λは光の波長、NAは撮像光学系102の開口数である。
However, if a large number of tile images are joined together, the difference in focal plane position at the end of the tile image due to the tilt of the focal plane is accumulated. For this reason, there is a possibility that the focal plane of the acquired image deviates from the
このように、隣接タイル同士の重複領域923において焦点面の位置を揃え、撮像センサ231の焦点面として予想焦点面931を取得する。この予想焦点面931を、被写界深度の範囲で想定取得面901に近づけることによって、焦点面が検体から乖離することを防ぎ、アーチファクトを低減した画像の取得を行う。
In this way, the position of the focal plane is aligned in the overlapping area 923 between adjacent tiles, and the predicted
画像取得工程の詳細について図4(a)から図4(g)のフローチャートを用いて説明する。ステップS401では、メイン制御系214が、装置101の初期化を行う。装置101の初期化に係る工程を図4(b)のフローチャートに示す。
The details of the image acquisition process will be described with reference to the flowcharts of FIGS. In step S401, the
ステップS415では、ユーザが、プレパラート208上の撮像範囲、撮像センサ231の露光時間、撮像に使用するフィルターやそれらの透過波長帯、結像光学部209の倍率等の撮像条件情報を、コンピュータ103を介して装置102に入力する。この際、必要に応じて、等色関数などの色再現情報も入力する。入力された情報は一度、記憶装置303に蓄えられ、その後取得部215が取得する。撮像条件情報はユーザが入力する他に、プリセットされた値からユーザが選択しても良いし、サブ制御系228等に自動的に判断させても良い。ステップS416では、メイン制御系214が、ステップS415で入力された情報を、サブ制御系228を通して、取得部215より取得する。
In step S415, the user uses the
ステップS417では、メイン制御系214が、ステップS416で取得した条件に従い、対物レンズの被写界深度の計算、撮像範囲のタイルへの分割、タイル分割結果に基づくステージ204の移動距離の計算と、移動順の決定を行う。また、移動順に従って、各タイルにID番号を振り、ステージ204におけるXY位置と関連づける。同時に、撮像センサ231、ステージ204、照明部201の光源等の初期化を行う。なお、撮像範囲のタイルへの分割に際しては、各々のタイル間で重複領域を持つように分割を行う(図7、図8(b)を参照)。また、本ステップで求めた被写界深度や移動順、ID番号とステージXY位置情報はRAM302または、記憶装置303に蓄えられ、後述する工程で適宜読みだして使用する。
In step S417, the
ステップS402では、メイン制御系214が、撮像センサ231とステージ204との相対的な傾きによって生じる、撮像センサ231の焦点面のステージ204に対する傾きを表すパラメータ(傾きパラメータ)を取得する。傾きパラメータは、一様に平坦で画像による焦点検出が可能なチャートやターゲットパターンを備えた校正用スライドを用いて撮像した画像内の焦点面の位置を基に算出する。位置検出は、例えば撮像した画像のコントラスト等を評価することで自動的に行う。他に、測距装置などを使用して算出することも可能である。
In step S <b> 402, the
傾きパラメータの算出は、ステップS402の工程に到達した時点で開始しても良いし、装置起動時等、事前に算出しても良い。この場合、算出した結果を記憶装置303に蓄えておき、適宜読みだして使用することとなる。また、焦点面傾きパラメータは、一般的な三次元空間内の面を表す式で表しても良いし、焦点面内の任意の位置での光軸方向の位置をテーブルとして記録したものを用いても良い。
The calculation of the slope parameter may be started when the process of step S402 is reached, or may be calculated in advance such as when the apparatus is activated. In this case, the calculated result is stored in the
ステップS403では、生成部217が、想定取得面901の生成を行う。想定取得面901の生成に係る各ステップを図4(c)のフローチャートに示す。
In step S403, the
ステップS418では、生成部217が、想定取得面の生成を行う際に使用する位置と前記位置を取得するステージXY平面上の位置(焦点検出XY位置)を決定する。焦点検出XY位置の決定に係る工程を図4(d)のフローチャートに示す。
In step S418, the
ステップS421では、生成部217が、上述したキャリブレーションデータの生成又は取得を行う。キャリブレーションデータは、ステージ204のXY座標ごとのステージ高さ方向の変動、すなわち検体910に対する焦点面の位置変動を記録したテーブルである。焦点面の位置の変動は、例えば、ステージ204のXY方向における原点位置で検出した焦点位置を基準として変位量で表される。変位量は、上述した焦点面の傾きパラメータ同様に、校正用スライドを用いて撮像した画像内の焦点位置を基に算出することや、レーザー変位計等を用いて変位量を検出することで求めることができる。
In step S421, the
キャリブレーションデータは、ステップS421の工程に到達した時点で生成しても良いが、撮像工程の実行時間を考慮すると、装置起動時等に生成し、記憶装置303に蓄えていたものを取得することが望ましい。後述するように、焦点検出XY位置はキャリブレーションデータの存在する位置にて設定する。そのため、キャリブレーションデータに上述したような撮像範囲の位置や大きさに対しての柔軟性を持たせる必要はない。
The calibration data may be generated when the process of step S421 is reached. However, taking into account the execution time of the imaging process, the calibration data is generated when the apparatus is activated, and the data stored in the
ステップS422では、生成部217が、焦点検出XY位置の数を設定する。焦点検出XY位置の数は、撮像範囲に応じてサブ制御系228に判断させてもよいし、ユーザに入力させても良い。ただし、少なくとも2点(この場合は、この2点を通る直線を含む平面の傾きを指定する必要がある)、または3点以上設定する必要がある。この時、点同士の距離は、各タイルの長さより長くなるように設定する。ステップS423では、ステップS416で取得した撮像範囲と、S421で取得したキャリブレーションデータを比較し、撮像範囲内のXY位置におけるキャリブレーションデータを調べる。
In step S422, the
ステップS424では、生成部217が、ステップS423で比較した結果を基に、焦点検出XY位置を仮決定する。仮決定する位置は、一度も焦点検出XY位置が決定されていない場合、撮像範囲内のXY位置におけるキャリブレーションデータの内、撮像範囲の外周部に相当するタイルの内部に設定する。既に他の焦点検出XY位置が決定されている場合は、決定済みの焦点検出XY位置から、最も遠い位置に存在するタイルの内部に設定する。後段のステップS425で、仮決定した位置に検体910が存在しないことが判明している場合は、仮決定の際に選択したタイルに隣接するタイルを新たに選択する。
In step S424, the
ステップS425では、生成部217が、ステップS424で仮決定したXY位置に検体910が存在するか判断する。検体910が存在していればステップS426へ、存在していなければステップS424へ移行する。ステップS426では、ステップS424で仮決定したXY位置を焦点検出XY位置として想定取得面生成テーブルに記録する。ステップS427では、ステップS422で取得した数だけ焦点検出XY位置が決定したか判断する。決定していればステップS419へ、決定していなければステップS424へ移行する。
In step S425, the
なお、本実施形態においては自動的に焦点検出XY位置を決定するために、ステップS424からステップS427の工程を実行するが、ユーザがマニュアルで焦点検出XY位置を指定することも可能である。その場合は、ステップS424からステップS427の工程を実行しなくとも良い。また、ステップS424からステップS427の工程の実行によって決定した焦点検出XY位置を、候補としてユーザに提示し、焦点検出XY位置として採用するかをユーザに判断させても良い。 In this embodiment, in order to automatically determine the focus detection XY position, the processes from step S424 to step S427 are executed. However, the user can manually specify the focus detection XY position. In that case, the process from step S424 to step S427 may not be executed. Further, the focus detection XY position determined by the execution of steps S424 to S427 may be presented to the user as a candidate, and the user may be determined whether to adopt it as the focus detection XY position.
ステップS419では、生成部217が、ステップS418で決定した焦点検出XY位置において位置検出を行い、結果を想定取得面生成テーブルに記録する。位置検出は、上述した方法で自動的に検出させるが、必要に応じてユーザがマニュアルで行っても良い。位置検出を画像のコントラスト等を評価して行う場合、検体910内に例えば核等のコントラストがはっきり出る構造が存在することによって、検出される焦点面の位置が最適な位置から外れる可能性がある。この可能性を軽減するため、焦点検出XY位置を含むある程度の大きさ(タイルサイズ等)の範囲を定め、その範囲内にいくつかの小さな位置(パッチ)を設ける。各パッチで位置検出した結果を平均化する等して統計的に処理し、焦点検出XY位置における焦点面の位置とする。パッチを一つとし、パッチ範囲を大きく取ることでも同様に効果を奏する。
In step S419, the
ステップS420では、生成部217が、想定取得面生成テーブルの記録に基づいて、想定取得面901を生成する。想定取得面901の生成に当たっては、一般的な三次元空間内の平面を規定する式を用いることができる。また、必要に応じて、平面ではなく多次元関数等、関数を使用して曲面を規定しても良い。本実施形態では想定取得面は三次元空間内の平面とする。
In step S420, the
ステップS404では、ステージ制御系205が、ステップS401で決定した移動順に従って、最初に撮像するタイルにステージ204を移動する。その後、装置101は、ステップS403で生成した想定取得面901に従って、プレパラート208の検体910内の組織にフォーカスを合わせる。この際、ステップS421で取得したキャリブレーションデータを用いて、焦点面の位置の調整を行うことが望ましい。その後、撮像部213が、タイル画像を撮像し、画像データを記憶装置303に蓄える。画像データにはタイル画像を撮像した際の焦点面の位置情報をヘッダ部に記録しておく。もしくは画像データと関連付けて別個に記憶装置303に記録してしても良い。
In step S404, the
ステップS405では、ステージ制御系205が、ステップS401で決定した移動順に従って、ステージ204を駆動させ、次に撮像するタイルへ移動する。移動後のタイル、つまりこれからタイル画像の撮像を試みるタイルを以後、現在位置タイルと称する。なお、これは、後述の焦点面の位置補正の工程において、上述の被補正タイル(第1の領域)921に相当する。
In step S405, the
ステップS406では、取得部218が、タイル画像のデータを取得済みのタイルの内、現在位置タイルに隣接しているタイル全ての中に、現在位置タイルとの重複領域922内に検体910が存在しているものがあるかを判断する。検体910が存在しているタイルがあればステップS408へ、1つもなければステップS407へ移行する。
In step S406, the
ステップS407では、取得部218が、現在位置タイルのIDをスキップリストに登録する。ステップS406で重複領域922に検体なしと判断されたタイルは、焦点面の位置変動を補正できない。そこで現工程ステップでのタイル画像の撮像は行わず、スキップリストに登録し、後段の工程にてタイル画像の撮像を再度試みる。
In step S407, the
ステップS408では、取得部218が、予想位置を取得する。予想位置の取得に係る工程を図4(e)のフローチャートに示す。
In step S408, the
ステップS428では、取得部218が、ステップS406で判断した重複領域922内に検体910が存在するタイルを基準タイル920(第2の領域)として設定する。重複領域922内に検体910が存在するタイルが複数ある場合は、補正誤差の蓄積を低減するために、時系列的に最も過去に撮像したタイルを基準タイル920として設定する。
In step S428, the
ステップS429では、取得部218は、ステップS428で設定した基準タイル920と被補正タイル921との重複領域922内の同一点における光軸方向の位置をそれぞれ取得又は検出し、比較する。この比較により、ステージ走り平行度の影響で発生する焦点面の位置変動の変動量を算出する。基準タイル920における焦点面の位置は、タイル画像を撮像した際の焦点面の位置の情報を画像のデータのヘッダ部または記憶装置303から読みだすことで取得することが処理速度の面から望ましい。
In step S429, the
ステップS430では、取得部218が、ステップS429で算出した変動量と、ステップS402で取得した焦点面の傾きパラメータと、を用いて予想位置を算出する。予想位置は、焦点面の位置変動を補正し、かつ焦点面の傾きの影響を加味した場合の被補正タイル921における予想焦点面931内の任意の位置における位置である。
In step S430, the
ステップS409では、取得部219が、実際に撮像センサ231で撮像する撮像位置を補正するための処理を行う。撮像位置の調整に係る工程を図4(f)のフローチャートに示す。
In step S409, the acquisition unit 219 performs a process for correcting the imaging position where the
ステップS431では、取得部219は、ステップS403で生成部217が生成した想定取得面901とステップS408で取得部281が取得した予想位置との比較を行い、互いのズレ量を算出する。ズレ量の算出は、任意のXY位置での予想位置と、同じXY位置での想定取得面901によって構成される焦点面の位置との差を取る。補正精度を上げるため、複数のXY位置で差を取ることが望ましい。複数の差を取る場合、焦点面の傾きの影響を確実に捉えるために、被補正タイル921の外周部について行うことが望ましい。例えば、被補正タイル921が矩形であれば、その四隅で行うことが望ましい。取得した複数の差の中で最大のものをズレ量とする。
In step S431, the acquisition unit 219 compares the assumed
ステップS432では、取得部219は、ステップS431で算出したズレ量を、結像光学部209の被写界深度と比較する。ズレ量が被写界深度より小さければステップS433へ、大きければステップS434へ移行する。
In step S432, the acquisition unit 219 compares the amount of deviation calculated in step S431 with the depth of field of the imaging
ステップS433では、取得部219は、ステップS432で算出したズレ量に基づいて、予想位置をズレ量の分だけ想定取得面901に近づけた位置にステージ204を駆動し、タイル画像撮像時の焦点面の位置の変更を行う。
In step S433, the acquisition unit 219 drives the
ステップS434では、取得部219は、ステップ428で基準タイル920の画像のデータから取得した重複領域922における焦点面の位置から被写界深度の分だけ、予想位置を想定取得面901に近づけた場合の位置を算出する。この位置の算出結果をもって予想位置の更新を行う。
In step S434, the acquisition unit 219 brings the predicted position closer to the assumed
ステップS435では、取得部219は、ステップS434で更新した予想位置の全てが、想定取得面901を中心とした被写界深度の範囲内に収まるように、被補正タイル921のXY位置を変更して重複領域922を拡大する。なお、重複領域922の拡大においては、タイルサイズの変更は行わず、被補正タイル921のXY位置の平行移動で行う。取得部219は、この際の平行移動による焦点面の位置の変更量を補正量として取得する。すなわち、取得部219は、ステップS434、S435において、予想位置が被写界深度の範囲内となるように、光軸方向及び光軸方向と垂直な方向に被補正タイル921を移動するためのステージ204の位置の変更量を補正量とする。
In step S435, the acquisition unit 219 changes the XY position of the corrected
ステップS436では、取得部219は、ステップS435で算出したタイルXY位置の平行移動量に基づいて、ステップS416で設定した撮像範囲のタイル分割状況を更新する。この際、タイルのXY位置の変更によって、撮像範囲内にタイルが割り当てられていない領域、つまり撮像されない領域(欠落領域)が発生する場合、欠落領域に新たにタイルを割り当てる。新たなタイルは、タイルサイズを他のタイルと同一とし、他のタイルとの重複領域の大きさを調整することで欠落領域をカバーさせる。 In step S436, the acquisition unit 219 updates the tile division state of the imaging range set in step S416 based on the parallel movement amount of the tile XY position calculated in step S435. At this time, if an area where no tile is assigned within the imaging range, that is, an area where no image is captured (missing area) occurs due to a change in the XY position of the tile, a new tile is allocated to the missing area. The new tile has the same tile size as the other tiles, and covers the missing area by adjusting the size of the overlapping area with the other tiles.
ステップS437では、ステージ制御系205が、ステップS434、S435の算出結果に基づいて、ステージ204を駆動させ、ステージ204は、XY位置又は焦点位置を変更する。
In step S437, the
ステップS410では、撮像センサ231が被補正タイルを撮像してタイル画像のデータを取得する。ステップS404と同様に、画像データを記憶装置303に蓄える。画像データにはタイル画像を撮像した際の焦点面の位置の情報をヘッダ部に記録しておく。もしくは画像データと関連付けて別個に記憶装置303に記録してしても良い。ステップS411では、サブ制御系208が、スキップリストに登録したタイル以外のすべてのタイルについて撮像を行ったか判断する。すべてのタイルで撮像を行っていればステップS412へ、まだ撮像を行っていないタイルがあればステップS405へ移行する。
In step S410, the
ステップS412では、装置101が、ステップS407でスキップリストに登録されたタイル(スキップタイル)の再撮像を行う。スキップタイルの再撮像に係る工程を図4(g)のフローチャートに示す。
In step S412, the
ステップS438では、スキップリストよりスキップタイルのXY位置を読み込み、ステージ制御系205が、ステージXY位置を変更する。この際、時系列的に新しく登録されたタイルから撮像されるようにすること(いわゆるLast In First Out)が、ステージ204の移動にかかる時間を短縮できるため、望ましい。ステップS439はステップS406と同様に、取得部218が、タイル画像撮像済みのタイルの内、現在位置タイルに隣接しているタイルについて、現在位置タイルとの重複領域に検体910が存在しているものがあるか判断する。検体910があればステップS408へ、1つもなければステップS440へ移行する。
In step S438, the XY position of the skip tile is read from the skip list, and the
ステップS408、S409は上述したステップと同様、補正部216が、タイル画像の撮像位置の補正のための処理を行う。ただし、欠落領域が発生し、新たにタイルを割り当てた場合、サブ制御系228は、ステップS436においてタイルの分割状況の更新を行い、また、新たなタイルのXY位置をスキップリストに追加する。
In steps S <b> 408 and S <b> 409, the
ステップS440では、取得部218が、現在位置タイル内に検体910が存在するか判断する。検体910が存在しない場合、現在位置タイルは空白タイルとみなす。この場合、隣接タイルとのつながりを考慮する必要がないため、撮像位置調整を行わずにステップS410へ移行する。検体910が存在する場合、ステップS441へ移行する。
In step S440, the
現在位置タイル内の検体910は、すべての隣接タイルとの重複領域には検体910が存在しないことから、タイルサイズ未満の大きさであり、かつ周囲の検体910から孤立した状態であるとみなせる。そのため、隣接タイルとのつながりを考慮する必要がないため、ステップS441では、個別に上述の方法を用いて位置検出を行い、焦点面の位置にステージ204を移動する。
The
ステップS410では、撮像センサ231は、現在位置タイルを撮像する。ステップS442では、サブ制御系228は、スキップリストに登録したすべてのタイルにおいて撮像を行ったか判断する。すべてのタイルで撮像を行っていればステップS413へ、まだ撮像を行っていないタイルがあればステップS438へ移行する。
In step S410, the
以降のステップは、補正部220、処理部221並びに生成部227での処理となる。ステップS413では、まず、補正部220が記憶装置303より各タイル画像のデータを取得する。タイル画像のデータに対し、コーナー検出法(Harris法など)又はSURF(Speeded Up Robust Features)法等の公知な方法によって、タイル画像間のXY方向の位置ずれを補正する。位置ずれを補正したタイル画像のデータに対し、調整部222がゲイン調整を施す。次に、ゲイン調整されたタイル画像のデータを理部223でつなぎ合わせる。その後、つなぎ合わせて生成された被写体208の画像のデータをもとに、生成部224が色再現画像の生成を行う。生成部224は、ステップS401でユーザによって入力された色再現情報か、あらかじめ記憶装置303に蓄えられていた色再現情報に基づいて色再現画像を生成する。さらに、処理部225で処理を行い、色再現画像のデータを生成する。
The subsequent steps are processing in the
ステップS414では、処理部226が、ステップS415で生成した色再現画像のデータを圧縮し、圧縮したデータを生成部227及び記憶装置303に送る。生成部227は、圧縮したデータを用いて表示データを生成し、表示装置104へ出力する。処理部226における処理と処理部227における処理とは同時並行で進めてもよい。
In step S414, the
以上のように、本実施形態では、ステージ204移動時の焦点面の位置の変化を隣接するタイル同士の重複領域における焦点面の位置の差から補正しつつ、想定取得面901に焦点面を近づけることができる。これにより、ステージ走り平行度の影響による焦点面の位置変動や、ステージ204と撮像センサ231との間の相対的な傾きによって発生する焦点面の検体からの乖離及びタイル画像同士の継ぎ目におけるアーチファクトを低減できる。結果として、タイル画像合成時の継ぎ目に発生するアーチファクトが抑制された高品質な画像を効率的にかつ精度よく取得することができる。
As described above, in this embodiment, the focal plane is brought closer to the assumed
(第2の実施形態)
本実施形態の画像取得装置の構成は、第1の実施形態と同様である。本実施形態の画像取得方法は、第1の実施形態の画像取得方法に、プレ撮像を行うステップを加えるものである。また、タイル画像の取得の際に、光軸方向に異なる複数の位置で撮像を行い、複数のタイル画像のデータを取得する。第1の実施形態の画像取得方法と異なる点についてのみ説明する。
(Second Embodiment)
The configuration of the image acquisition apparatus of this embodiment is the same as that of the first embodiment. The image acquisition method of this embodiment adds a step of performing pre-imaging to the image acquisition method of the first embodiment. Further, when acquiring tile images, imaging is performed at a plurality of positions different in the optical axis direction, and data of a plurality of tile images is acquired. Only differences from the image acquisition method of the first embodiment will be described.
本実施形態では、第1の実施形態におけるタイル画像の撮像を開始する前、具体的にはステップS401に、結像光学部209として撮像範囲全体を捉えられるような低倍率の対物レンズを用いて、被写体208の撮像範囲全体を撮像するプレ撮像を組み込む。プレ撮像によって得られた撮像範囲全体の画像のデータを用いることで、想定取得面901の生成における焦点検出XY位置の決定において、検体910の存在の判定を行うステップ(S423、S424、S425)等を削減できる。また、第1の実施形態では逐次行っていた基準タイル920の設定(S428)、およびスキップリストへの登録(S407)を撮像開始前に一括して行うことが可能となる。以上の様に、プレ撮像を組み込むことによって、より高速に画像を取得することが可能となる。
In the present embodiment, before starting the imaging of the tile image in the first embodiment, specifically, in step S401, a low-magnification objective lens that can capture the entire imaging range as the imaging
また、第1の実施形態では、想定取得面901と予想位置とのズレを任意のXY一での予想位置と、同じXY位置での想定取得面901によって構成される焦点面の位置との差を取ることが行った。本実施形態では、ズレを想定取得面と予想位置によって構成される面とがなす角の大きさを用いて算出する。この場合、想定取得面と予想位置とがなす角の大きさをパラメータとして保持しておけばよい。これにより、想定取得面と予想位置それぞれの焦点面の位置を常時保持しておく必要が無くなり、焦点面の位置の情報を格納する例えばRAM302等の記憶媒体の容量を節約できる。この方法は特に、想定取得面の面積及びタイルの面積が大きくなるほど効果を発揮する。
In the first embodiment, the difference between the expected
さらに、第1の実施形態では、想定取得面901と予想位置とに被写界深度以上のズレが存在する場合、被補正タイル921のXY位置を移動して、重複領域922の面積を調整する。これにより、予想位置が想定取得面901から被写界深度内に収まるようにしていた。本実施形態では、この被写界深度以上のズレへの対応方法として、光軸方向に異なる複数の位置において複数のタイル画像(Zスタック画像)を取得する。取得した複数のタイル画像から、ズレが被写界深度以下のものを抽出する。この方法では、第1の実施形態のように欠落領域を無くすために撮像画像の分割状況の更新及び新たに割り当てたタイル画像の取得を行う必要がない。そのため、検体910が前記被写界深度以上のズレが多数発生するようなうねりの強いものであっても、取得するタイル画像のデータが最終的に低減でき、より高速に画像を取得することが可能となる。
Further, in the first embodiment, when there is a shift greater than the depth of field between the assumed
本実施形態では、第1の実施形態のように、ステージ204移動時の焦点面の位置の変化を隣接するタイル同士の重複領域における焦点面の位置の差から補正しつつ、想定取得面901に焦点面を近づけることができる。これにより、アーチファクトを低減した画像を効率的に取得できる。
In the present embodiment, as in the first embodiment, the change in the position of the focal plane when the
(第3の実施形態)
本実施形態のWSI装置システムについて図5を参照して説明する。図5は、本実施形態のWSI装置システムの構成を説明する図である。このスライドスキャナシステムは、ネットワークを介して、顕微鏡装置501(以下、「装置501」と呼ぶ)と、専用処理ボードである画像処理装置502(以下、「装置502」と呼ぶ)を備えたコンピュータ503と、を接続する。被写体となるプレパラート208上の検体910の顕微鏡像を高解像かつ大サイズ(広画角)のデジタル画像として、取得するためのシステム構成である。
(Third embodiment)
The WSI apparatus system of this embodiment will be described with reference to FIG. FIG. 5 is a diagram for explaining the configuration of the WSI apparatus system of the present embodiment. The slide scanner system includes a microscope apparatus 501 (hereinafter referred to as “
WSI装置システムは、装置501、装置502、コンピュータ503、及び、表示装置104によって構成される。装置501とコンピュータ503との間は、ネットワーク504を介して、専用もしくは汎用I/FのLANケーブル505で接続され、コンピュータ503と表示装置104の間は、汎用のI/Fのケーブル106で接続される。
The WSI device system includes a
装置601は、第1の実施形態における装置101と同様の形態をとるが、ネットワーク接続用のLAN I/Fを備える点で異なる。装置502及び表示装置104の装置構成は第1の実施形態と同様である。コンピュータ503のハードウェア構成も第1の実施形態と同様であるが、LAN I/Fとネットワークを介して装置501と接続されている点で異なる。
The
本実施形態の装置501及び装置502における焦点面の位置補正について図9を参照して説明する。本実施形態では、検体910が存在する範囲から定めた撮像範囲1010を複数のタイル1011に分割して撮像する。各タイル1011において光軸方向(Z軸方向)に異なる複数の位置で撮像したタイル画像を用いて、タイル画像を合成した際に全面で焦点の合った画像を取得する。なおこれ以降、各タイル1011における光軸方向の位置それぞれをZレイヤー1001、各Zレイヤーで取得した画像をZレイヤー画像、複数のZレイヤーをまとめてZスタック1002、複数のZレイヤー画像をまとめたものをZスタック画像と呼ぶ。装置501の補正部216は、タイル画像を合成した際に、全面で焦点の合った画像を取得できるように、Zスタック画像から画像の合成に用いるZレイヤー画像又はZレイヤー画像の一部を抽出する抽出部である。
The focal plane position correction in the
本実施形態では、第1の実施形態と補正部216における処理が異なる。具体的には、補正部216は、タイル画像撮像時ではなく、上述したZスタック画像を用いて、タイル画像の合成時に補正を実行する。各タイル1011におけるZスタック画像は装置501にて、あらかじめ撮像し、記憶装置303等に蓄えておく。なお、Zスタック画像の取得に係る工程の詳細な説明は割愛する。
In the present embodiment, processing in the
次に、装置502は、撮像済みのZスタック画像を取得する。補正部216は、Zスタック画像を撮像した際のタイル1011のステージXY位置情報とZスタック画像より検出した焦点面の位置情報を用いて、想定取得面901を生成する。続いて、補正部216は、生成した想定取得面901の光軸方向に、対物レンズの被写界深度分の幅を持たせ、想定取得範囲とする。Zスタック画像を構成している光軸方向に異なる複数の位置それぞれで撮像されたZレイヤー画像について、焦点面が想定取得範囲に収まっているZレイヤー画像又は画像の一部を抽出する。これを各タイル1011について行い、抽出した画像を合成して、上述したように全面に焦点の合った画像を取得する。
Next, the
Zスタック画像を用いた焦点面の位置補正に係る工程を図6(a)から図6(e)のフローチャートを用いて説明する。なお、本実施形態のRAM302には、図6(a)から図6(e)のフローチャートに対応するプログラムが記憶されており、CPU301がそれを読み込んで実行することで各処理が行われる。
A process related to focal plane position correction using a Z stack image will be described with reference to the flowcharts of FIGS. Note that a program corresponding to the flowcharts of FIGS. 6A to 6E is stored in the
ステップS601では、メイン制御系214が、Zスタック画像を撮像した際の撮像条件を取得する。撮像条件は、例えば、プレパラート208上の撮像範囲、タイルの分割状況、上述したタイルID番号と、ID番号に関連付けられたステージXY位置情報、撮像時の焦点面の位置情報などである。また、撮像センサの露光時間、撮像に使用するフィルターやそれらの透過波長帯、等色関数などの色再現情報を含めても良い。これら撮像条件は、メイン制御系214が、記憶装置303等から、サブ制御系228を通して取得する。その他にネットワーク504を介して、遠隔地にあるサーバー等から取得しても良い。
In step S601, the
ステップS602では、補正部216が、記憶装置303等からZスタック画像のデータを取得する。上述した撮像条件の取得と同様に、ネットワーク504を介して、遠隔地にあるサーバー等から取得しても良い。ステップS402では、メイン制御系214が、焦点面の傾きパラメータを取得する。第1の実施形態と同様であるので説明は省略する。ステップS603では、生成部217が、想定取得面の生成を行う。想定取得面の生成に係る工程を図6(b)のフローチャートに示す。
In step S602, the
ステップS608では、生成部217が、想定取得面の生成を行う際に使用する焦点面の位置と前記位置を取得するXY位置(焦点検出XY位置)を決定する。焦点検出XY位置の決定に係る工程を図6(c)のフローチャートに示す。
In step S608, the
ステップS611では、生成部217が、第1の実施形態と同様に、焦点検出XY位置の点数を設定する。ステップS612では、生成部217が、ステップS602で取得したタイルのZスタック画像に対して、焦点検出を行うタイルを仮決定する。仮決定するタイルは、第1の実施形態と同様の方法で決定する。ステップS613では、生成部217が、ステップS612で仮決定したタイルに検体910が存在するか判断する。検体910が存在していればステップS614へ、存在していなければステップS612へ移行する。
In step S611, the
ステップS614では、生成部217が、ステップS612で仮決定したタイルに対し、検体910が存在する領域に位置検出を行うためのタイル内焦点検出XY位置を設定する。タイル内焦点検出XY位置と、タイルを撮像した際のステージXY位置情報と、を用いて、焦点検出XY位置を求め想定取得面生成テーブルに記録する。
In step S614, the
ステップS615では、生成部217が、ステップS611で取得した点数だけ焦点検出XY位置が決定したか判断する。決定していればステップS604へ、決定していなければステップS609へ移行する。
In step S615, the
ステップS609では、生成部217が、ステップS608で決定した焦点検出XY位置において位置検出を行い、その結果を想定取得面生成テーブルに記録する。位置検出は、第1の実施形態と同様、パッチを用いて行う。ステップS610では、生成部217が、第1の実施形態と同様の方法で、想定取得面生成テーブルの記録に基づいて、想定取得面901を計算する。
In step S609, the
ステップS604では、補正部216が、ステップS610で生成した想定取得面901に対し、光軸方向に結像光学部209の被写界深度分の幅を持たせた三次元空間における立体的な範囲を想定取得範囲として生成する。ステップS605では、補正部216が、1つのタイルについて取得したZスタック画像から、想定取得範囲に収まるZレイヤー画像を抽出する。Zレイヤー画像の抽出に係る工程を図6(d)のフローチャートに示す。
In step S604, the
ステップS616では、補正部216が、ステップS601で取得した撮像時の焦点面の位置情報とステップS402で取得した焦点面の傾きパラメータとに基づいて、各Zレイヤー画像内の任意の位置における焦点面の位置(Zレイヤー焦点位置)を算出する。ステップS617では、補正部216が、ステップS616の算出結果と想定取得範囲とを比較し、各Zレイヤー画像を撮像した時の焦点面全体が想定取得範囲内に収まるZレイヤー画像が存在するかを判断する。存在すればステップS618へ、存在しなければステップS619へ移行する。
In step S616, based on the focal plane position information at the time of imaging acquired in step S601 and the focal plane tilt parameter acquired in step S402, the
ステップS618では、ステップS617での比較結果に基づいて、該当するZレイヤー画像を抽出する。ステップS619では、補正部216が、各Zレイヤー画像を撮像した際の焦点面が想定取得範囲内に収まっている面積が最も大きいZレイヤー画像から、想定取得範囲に収まっている部分の画像(部分画像1)のデータを抽出する。
In step S618, the corresponding Z layer image is extracted based on the comparison result in step S617. In step S619, the
ステップS620では、補正部216が、ステップS619で部分画像1のデータの抽出に用いたZレイヤー画像の1つ上もしくは1つ下、またはその両方の)Zレイヤー画像から想定取得範囲に収まっている部分の画像(部分画像2)のデータを抽出する。必要であれば、さらに光軸方向に異なる位置で取得したZレイヤー画像部分画像のデータを抽出する。この際、後段のステップS621における合成処理を効率的に行うため、部分画像1の一部分と部分画像2の一部分とが重複するように抽出すると良い。
In step S620, the
ステップS621では、処理部223が、ステップS619、S620で抽出された画像を合成する。合成する際の継ぎ合わせ処理は、上述した部分画像同士の重複領域を用いて、第1の実施形態で説明したタイル画像の継ぎ合わせ処理と同様の処理を行う。この合成画像を、ステップS618で抽出したZレイヤー画像に相当するものとして後段の処理を行う。
In step S621, the
ステップS606では、サブ制御系228が、ステップS601で取得した撮像条件に基づいて、すべてのタイルにてステップS605のZレイヤー画像の抽出が行われたか判断する。抽出が行われていればステップS413へ、行われていなければステップS607へ移行する。
In step S606, the
ステップS607では、サブ制御系228が、ステップS601で取得した撮像条件に基づいて、まだZレイヤーの抽出が行われていないタイルを参照する。その後、参照したタイルについて、ステップS605の処理を行う。なお、本実施形態では、ステップS605からステップS607で1つずつのタイルについてZレイヤー抽出を行うシリアルな処理としたが、ステップS605をパラレル(複数のタイル1011について同時)に行っても良い。以降のステップS413、S414については、第1の実施形態と同様であるので説明を省略する。
In step S607, the
以上のように、本実施形態では、あらかじめ撮像したZスタック画像より、想定取得範囲に収まるZレイヤー画像を抽出し、大画像を合成する。これにより、アーチファクトが抑制された高品質な画像を、効率的に取得できる。 As described above, in this embodiment, a Z layer image that falls within the assumed acquisition range is extracted from a Z stack image captured in advance, and a large image is synthesized. Thereby, it is possible to efficiently acquire a high-quality image in which artifacts are suppressed.
(その他の実施形態)
上述の実施形態では装置102を専用ボードとしてコンピュータ103に組み込む構成としたが、同様の機能をコンピュータ103上で実行するソフトウェアで実現してもよい。
(Other embodiments)
In the above-described embodiment, the
また、第3の実施形態では、装置501で取得したZスタック画像データを、ネットワーク504上に配置したサーバーに記憶させておいてもよい。その場合、サーバー内のZスタック画像データを用いて、装置502並びにコンピュータ503で色再現画像を生成するシステム構成をとってもよい。
In the third embodiment, the Z stack image data acquired by the
上述の実施形態では、ステージ204の光軸方向における位置及び光軸方向と垂直な方向における位置を変更することにより、焦点面の位置と被写体との相対位置を変更した。しかし、これに限らず、撮像センサ及び結像光学部209の移動によって相対位置を変更することによって実現してもよい。また、焦点面と被写体との光軸方向における相対位置と、光軸方向と垂直な方向における相対位置と、を異なる変更部と用いて変更してもよい。
In the above-described embodiment, the relative position between the position of the focal plane and the subject is changed by changing the position of the
また、上述の実施形態では、焦点面の位置を決定する際の画像の評価方法として、コントラストを用いている。評価方法はこれに限らず、各画素の勾配ベクトルを用いるTenenbaum Gradient法や、画像の情報量を用いるエントロピー法等の公知のオートフォーカスアルゴリズムで使用される評価手法を使用してもよい。 In the above-described embodiment, contrast is used as an image evaluation method for determining the position of the focal plane. The evaluation method is not limited to this, and an evaluation method used in a known autofocus algorithm such as a Tenenbaum Gradient method using a gradient vector of each pixel or an entropy method using an information amount of an image may be used.
タイル画像撮像時の焦点面の位置情報を、画像データのヘッダ部分に記録したが、別ファイルとして記憶装置やネットワーク上のリンク情報として格納してもよい。 Although the focal plane position information at the time of capturing the tile image is recorded in the header portion of the image data, it may be stored as a separate file as link information on a storage device or a network.
本発明の目的を、これまで説明してきた上述の各実施形態並びに、上述したその他の実施形態を組み合わせて実現してもよい。例えば、第1の実施形態において、装置101と装置102とは、第3の実施形態のようにネットワークを介して接続されていてもよい。また、各実施形態における様々な技術を適宜組み合わせることで得られる構成も本発明の範疇に属する。
The object of the present invention may be realized by combining the above-described embodiments described above and the other embodiments described above. For example, in the first embodiment, the
また、本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 Further, the present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus execute the program. It can also be realized by a process of reading and executing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
209 結像光学部
213 撮像部
217 面生成部
216 焦点位置補正部、抽出部
218 位置取得部
219 補正量取得部
209 Imaging
Claims (18)
前記被写体からの光を結像する結像光学部と、
前記被写体の像を撮像する撮像部と、
前記撮像部の撮像面と共役な焦点面と前記被写体との前記結像光学部の光軸方向における相対位置を変更する変更部と、
前記被写体の複数の位置それぞれにおける前記被写体の中の検体の前記光軸方向の位置を用いて想定取得面を生成する面生成部と、
第1の領域と隣接する第2の領域内の1つ又は複数の位置における前記第2の領域を撮像したときの前記焦点面の前記光軸方向の位置を用いて、前記第1の領域内の1つ又は複数の位置における前記焦点面の予想位置を取得する位置取得部と、
前記想定取得面の前記光軸方向の位置と前記予想位置との差を取得し、前記差と前記結像光学部の被写界深度とを比較した結果に基づいて、前記焦点面が前記想定取得面から前記被写界深度の範囲内になるように前記相対位置を補正するための補正量を取得する補正量取得部と、を有する
ことを特徴とする画像取得装置。 An image acquisition device that acquires an image of the subject by imaging the subject for each of a plurality of regions,
An imaging optical unit for imaging light from the subject;
An imaging unit that captures an image of the subject;
A changing unit that changes a relative position in the optical axis direction of the imaging optical unit between the imaging plane of the imaging unit and a focal plane conjugate with the subject;
A surface generation unit that generates an assumed acquisition surface using the position in the optical axis direction of the specimen in the subject at each of a plurality of positions of the subject;
In the first region, using the position of the focal plane in the optical axis direction when the second region is imaged at one or more positions in the second region adjacent to the first region. A position acquisition unit that acquires an expected position of the focal plane at one or a plurality of positions;
Based on the result of obtaining the difference between the position of the assumed acquisition surface in the optical axis direction and the expected position and comparing the difference with the depth of field of the imaging optical unit, the focal plane is assumed to be the assumed surface. An image acquisition apparatus comprising: a correction amount acquisition unit that acquires a correction amount for correcting the relative position so as to be within the range of the depth of field from an acquisition surface.
ことを特徴とする請求項1に記載の画像取得装置。 The image acquisition according to claim 1, wherein the expected position is within the range of the depth of field from the position in the optical axis direction of the focal plane when the second region is imaged. apparatus.
ことを特徴とする請求項1に記載の画像取得装置。 The position in the optical axis direction of the focal plane when the predicted position and the second area are imaged is acquired at the same point in the overlapping area of the first area and the second area. The image acquisition apparatus according to claim 1.
ことを特徴とする請求項1乃至3のいずれか一項に記載の画像取得装置。 The position acquisition unit acquires the predicted position using information regarding the position of the focal plane in the optical axis direction and the tilt of the focal plane when the second region is imaged. Item 4. The image acquisition device according to any one of Items 1 to 3.
前記補正量取得部は、前記差と前記被写界深度とを比較し、前記差が前記被写界深度以下の場合は、前記差を前記補正量とする
ことを特徴とする請求項1乃至4のいずれか一項に記載の画像取得装置。 The difference is a difference between the position in the optical axis direction of the assumed acquisition surface at the one or more positions and the expected position at the one or more positions,
The correction amount acquisition unit compares the difference with the depth of field, and if the difference is equal to or less than the depth of field, the difference is used as the correction amount. 5. The image acquisition device according to any one of 4.
(i)前記補正量取得部は、前記差が前記被写界深度以下となるように前記光軸方向及び前記光軸方向と垂直な方向における前記相対位置を変更する変更量を前記補正量とする、又は、
(ii)前記撮像部は、前記光軸方向に異なる複数の位置で前記第1の領域を撮像して複数の画像を取得し、前記補正量取得部は、前記複数の画像から前記想定取得面との差が前記被写界深度以下となる画像を抽出する
ことを特徴とする請求項5に記載の画像取得装置。 If the difference is greater than the depth of field,
(I) The correction amount acquisition unit sets a change amount for changing the relative position in the optical axis direction and the direction perpendicular to the optical axis direction as the correction amount so that the difference is equal to or less than the depth of field. Or
(Ii) The imaging unit captures the first region at a plurality of different positions in the optical axis direction to acquire a plurality of images, and the correction amount acquisition unit acquires the assumed acquisition surface from the plurality of images. The image acquisition apparatus according to claim 5, wherein an image in which a difference between the two is less than the depth of field is extracted.
ことを特徴とする請求項1乃至4のいずれか一項に記載の画像取得装置。 5. The difference according to claim 1, wherein the difference is acquired using a magnitude of an angle formed between an expected focal plane including a plurality of the expected positions and the assumed acquisition plane. Image acquisition device.
前記被写体からの光を結像する結像光学部と、
前記被写体の像を撮像する撮像部と、
前記撮像部の撮像面と共役な焦点面と前記被写体との前記結像光学部の光軸方向における相対位置を変更する変更部と、
前記被写体の複数の異なる位置それぞれにおける前記被写体の中の検体の前記光軸方向における位置を用いて想定取得面を生成する面生成部と、
前記第1の領域の前記光軸方向に異なる複数の位置を前記撮像部で撮像することにより取得した複数の画像から、前記複数の画像それぞれを撮像した時の前記焦点面が前記想定取得面から前記結像光学部の被写界深度の範囲内に含まれ、且つ、前記第1の領域と隣接する第2の領域から前記被写界深度の範囲内に含まれる画像又は前記複数の画像の一部を抽出する抽出部と、を有する
ことを特徴とする画像取得装置。 An image acquisition device that acquires an image of the subject by imaging the subject for each of a plurality of regions,
An imaging optical unit for imaging light from the subject;
An imaging unit that captures an image of the subject;
A changing unit that changes a relative position in the optical axis direction of the imaging optical unit between the imaging plane of the imaging unit and a focal plane conjugate with the subject;
A surface generation unit that generates an assumed acquisition surface using positions in the optical axis direction of the specimen in the subject at each of a plurality of different positions of the subject;
From the plurality of images acquired by imaging the plurality of different positions in the optical axis direction of the first region by the imaging unit, the focal plane when each of the plurality of images is captured from the assumed acquisition plane. An image included in the range of depth of field of the imaging optical unit, and an image included in the range of depth of field from the second region adjacent to the first region, or the plurality of images An image acquisition apparatus comprising: an extraction unit that extracts a part.
ことを特徴とする請求項8に記載の画像取得装置。 The extraction unit extracts an image when the entire focal plane when each of the plurality of images is captured is included in a range of the depth of field from the assumed acquisition plane, and extracts the entire focal plane If there is no image included in the range of depth of field from the assumed acquisition plane, a portion in which the focal plane is included in the range of depth of field from the assumed acquisition plane from the plurality of images. The image acquisition apparatus according to claim 8, wherein the image acquisition apparatus extracts and combines.
前記2つの点のそれぞれは、前記撮像部と前記検体とが共役となる位置で、且つ、前記2つの点同士の距離は、前記複数の領域それぞれの長さより長い
ことを特徴とする請求項1乃至9のいずれか一項に記載の画像取得装置。 The assumed acquisition plane is a plane including a straight line connecting two points within a range where the specimen in the subject exists.
2. Each of the two points is a position where the imaging unit and the specimen are conjugate, and the distance between the two points is longer than the length of each of the plurality of regions. The image acquisition apparatus as described in any one of thru | or 9.
ことを特徴とする請求項10に記載の画像取得装置。 The image acquisition apparatus according to claim 10, wherein the two points are arranged at relatively the same position in each of the regions where the two points are arranged.
前記3つ以上の点のそれぞれは、前記撮像部と前記検体とが共役となる位置で、且つ、前記3つ以上の点同士の距離は、前記複数の領域それぞれの長さより長い
ことを特徴とする請求項1乃至9のいずれか一項に記載の画像取得装置。 The assumed acquisition plane is a plane including three or more points within a range where the specimen in the subject exists.
Each of the three or more points is a position where the imaging unit and the specimen are conjugate, and the distance between the three or more points is longer than the length of each of the plurality of regions. The image acquisition device according to any one of claims 1 to 9.
ことを特徴とする請求項12に記載の画像取得装置。 The image acquisition apparatus according to claim 12, wherein the three points are arranged at relatively the same position in each of the regions where the three points are arranged.
ことを特徴とする請求項1乃至13のいずれか一項に記載の画像取得装置。 The position of the specimen in the optical axis direction is a position in which the surface generation unit corrects a variation in the position of the focal plane in the optical axis direction due to a stage parallelism using calibration data. The image acquisition device according to any one of claims 1 to 13.
ことを特徴とする請求項1乃至13のいずれか一項に記載の画像取得装置。 The positions of the specimen in the optical axis direction are obtained by acquiring the positions of the specimen in the optical axis direction within a range including a plurality of different positions of the subject, and the positions of the plurality of specimens in the optical axis direction. The image acquisition device according to claim 1, wherein the image acquisition device is a position acquired by statistically processing the image.
前記被写体の複数の異なる位置それぞれにおける前記被写体の中の検体の前記結像光学部の光軸方向における位置を用いて想定取得面を生成する面生成ステップと、
第1の領域と隣接する第2の領域内の1つ又は複数の位置における前記第2の領域を撮像したときの前記焦点面の前記光軸方向の位置を用いて、前記第1の領域内の1つ又は複数の位置における前記撮像部の撮像面と共役な焦点面の予想位置を取得する位置取得ステップと、
前記想定取得面の前記光軸方向の位置と前記予想位置との差を取得し、前記差と前記結像光学部の被写界深度とを比較した結果に基づいて、前記焦点面が前記想定取得面から前記被写界深度の範囲内になるように前記相対位置を補正するための補正量を取得する補正量取得ステップと、を有する
ことを特徴とする画像取得方法。 An image of the subject is obtained by imaging the subject for each of a plurality of regions using an imaging device having an imaging optical unit that images light from the subject and an imaging unit that captures an image of the subject. An image acquisition method,
A surface generation step of generating an assumed acquisition surface using a position in the optical axis direction of the imaging optical unit of the specimen in the subject at each of a plurality of different positions of the subject;
In the first region, using the position of the focal plane in the optical axis direction when the second region is imaged at one or more positions in the second region adjacent to the first region. A position acquisition step of acquiring an expected position of a focal plane conjugate with an imaging surface of the imaging unit at one or a plurality of positions;
Based on the result of obtaining the difference between the position of the assumed acquisition surface in the optical axis direction and the expected position and comparing the difference with the depth of field of the imaging optical unit, the focal plane is assumed to be the assumed surface. A correction amount acquisition step of acquiring a correction amount for correcting the relative position so as to be within the range of the depth of field from the acquisition plane.
前記被写体の複数の異なる位置それぞれにおける前記被写体の中の検体の前記結像光学部の光軸方向における位置を用いて想定取得面を生成する面生成ステップと、
前記第1の領域の前記光軸方向に異なる複数の位置を前記撮像部で撮像することにより取得した複数の画像から、前記複数の画像それぞれを撮像した時の前記焦点面が前記想定取得面から前記結像光学部の被写界深度の範囲内に含まれ、且つ、前記第1の領域と隣接する第2の領域から前記被写界深度の範囲内に含まれる画像又は前記複数の画像の一部を抽出する抽出ステップと、を有する
ことを特徴とする画像取得方法。 An image of the subject is obtained by imaging the subject for each of a plurality of regions using an imaging device having an imaging optical unit that images light from the subject and an imaging unit that captures an image of the subject. An image acquisition method,
A surface generation step of generating an assumed acquisition surface using a position in the optical axis direction of the imaging optical unit of the specimen in the subject at each of a plurality of different positions of the subject;
From the plurality of images acquired by imaging the plurality of different positions in the optical axis direction of the first region by the imaging unit, the focal plane when each of the plurality of images is captured from the assumed acquisition plane. An image included in the range of depth of field of the imaging optical unit, and an image included in the range of depth of field from the second region adjacent to the first region, or the plurality of images An image acquisition method comprising: an extraction step of extracting a part.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015054060A JP2016173511A (en) | 2015-03-17 | 2015-03-17 | Image acquisition device, and image acquisition method using the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015054060A JP2016173511A (en) | 2015-03-17 | 2015-03-17 | Image acquisition device, and image acquisition method using the same |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016173511A true JP2016173511A (en) | 2016-09-29 |
Family
ID=57009010
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015054060A Pending JP2016173511A (en) | 2015-03-17 | 2015-03-17 | Image acquisition device, and image acquisition method using the same |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016173511A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019088034A1 (en) * | 2017-11-06 | 2019-05-09 | 富士フイルム株式会社 | Observation area setting device, imaging control device, method for operating observation area setting device, and observation area setting program |
CN116643393A (en) * | 2023-07-27 | 2023-08-25 | 南京木木西里科技有限公司 | Microscopic image deflection-based processing method and system |
CN118014913A (en) * | 2024-04-10 | 2024-05-10 | 中汽智联技术有限公司 | Intelligent driving camera image rapid correction method |
-
2015
- 2015-03-17 JP JP2015054060A patent/JP2016173511A/en active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019088034A1 (en) * | 2017-11-06 | 2019-05-09 | 富士フイルム株式会社 | Observation area setting device, imaging control device, method for operating observation area setting device, and observation area setting program |
JPWO2019088034A1 (en) * | 2017-11-06 | 2020-11-19 | 富士フイルム株式会社 | Observation area setting device, imaging control device, operation method of observation area setting device, and observation area setting program |
CN116643393A (en) * | 2023-07-27 | 2023-08-25 | 南京木木西里科技有限公司 | Microscopic image deflection-based processing method and system |
CN116643393B (en) * | 2023-07-27 | 2023-10-27 | 南京木木西里科技有限公司 | Microscopic image deflection-based processing method and system |
CN118014913A (en) * | 2024-04-10 | 2024-05-10 | 中汽智联技术有限公司 | Intelligent driving camera image rapid correction method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9088729B2 (en) | Imaging apparatus and method of controlling same | |
US20120002032A1 (en) | Information processing apparatus, stage-undulation correcting method, program therefor | |
CN109417602B (en) | Image processing method, image processing apparatus, image capturing apparatus, and image capturing method | |
JP6414050B2 (en) | Information processing apparatus, information processing method, and information processing program | |
US20140098213A1 (en) | Imaging system and control method for same | |
JP6102749B2 (en) | Information processing apparatus, imaging control method, program, digital microscope system, display control apparatus, display control method, and program | |
JP2011124948A (en) | Information processor, method of processing information, program and image pickup device with optical microscope mounted thereon | |
US20120288157A1 (en) | Image processing apparatus, image processing method, and image processing program | |
WO2013099141A1 (en) | Image processing apparatus and system, method for processing image, and program | |
JP6147080B2 (en) | Microscope system, method for determining bonded area, and program | |
JP2016125913A (en) | Image acquisition device and control method of image acquisition device | |
US20140267675A1 (en) | Digital microscope apparatus, imaging method therefor, and program | |
US20130016919A1 (en) | Information processing apparatus, information processing method, and program | |
JP2012042669A (en) | Microscope control device and optical distortion correction method | |
JP2016173511A (en) | Image acquisition device, and image acquisition method using the same | |
WO2013100029A1 (en) | Image processing device, image display system, image processing method, and image processing program | |
JP2015104105A (en) | Image acquisition apparatus and image acquisition method | |
JP6029293B2 (en) | Scanning electron microscope image processing apparatus and scanning method | |
WO2013175816A1 (en) | Distance measurement apparatus | |
JP2016051167A (en) | Image acquisition device and control method therefor | |
JP2005164707A (en) | Cell measurement support system and cell observation apparatus | |
JP2016051168A (en) | Image acquisition device and control method therefor | |
JP5730696B2 (en) | Image processing apparatus and image display system | |
JP2017083790A (en) | Image acquisition device and image acquisition method using the same | |
JP2014149381A (en) | Image acquisition apparatus and image acquisition method |