JP2016173511A - Image acquisition device, and image acquisition method using the same - Google Patents

Image acquisition device, and image acquisition method using the same Download PDF

Info

Publication number
JP2016173511A
JP2016173511A JP2015054060A JP2015054060A JP2016173511A JP 2016173511 A JP2016173511 A JP 2016173511A JP 2015054060 A JP2015054060 A JP 2015054060A JP 2015054060 A JP2015054060 A JP 2015054060A JP 2016173511 A JP2016173511 A JP 2016173511A
Authority
JP
Japan
Prior art keywords
image
imaging
unit
acquisition
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015054060A
Other languages
Japanese (ja)
Inventor
健一 明石
Kenichi Akashi
健一 明石
佐々木 亨
Toru Sasaki
亨 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015054060A priority Critical patent/JP2016173511A/en
Publication of JP2016173511A publication Critical patent/JP2016173511A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Microscoopes, Condenser (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image acquisition device and image acquisition method capable of efficiently acquiring an image obtained by reducing an artifact.SOLUTION: An image acquisition device includes: an imaging optical part 209; an imaging part 213; a change part 204; a plane generation part 217 for generating an assumption acquisition plane by using positions in an optical axis direction of an analyte in a subject at each of a plurality of different positions of the subject 208; a position acquisition part 218 for acquiring an estimated position of a focal plane at one or more positions in a first area by using the position in the optical axis direction of the focal plane when imaging a second area at one or more positions in the second area adjacent to the first area; and a correction amount acquisition part 219 for acquiring a difference between the position in the optical axis direction of the assumption acquisition plane and the estimated position, and acquiring a correction amount on the basis of a result of comparing the difference with the depth of field of the imaging optical part.SELECTED DRAWING: Figure 2

Description

本発明は、画像取得装置およびこれを用いた画像取得方法、システムに関する。本発明は、WSI(Whole Slide Imaging)及びWSI装置に好適に用いられる。   The present invention relates to an image acquisition device and an image acquisition method and system using the same. The present invention is suitably used for WSI (Whole Slide Imaging) and WSI devices.

従来、癌検査などにおいて、患者から採取した組織(検体)をプレパラートにし、光学顕微鏡で観察して、病変の種類や状態を見分ける病理診断が行われている。これに対し、プレパラートをデジタル撮像し、画像とするWSI装置を用いることで、ディスプレイに表示される画像を用いて診断を行うことが可能となる。   Conventionally, in cancer examinations and the like, pathological diagnosis has been performed in which a tissue (specimen) collected from a patient is prepared and observed with an optical microscope to identify the type and state of a lesion. On the other hand, by using a WSI device that digitally images a slide and uses it as an image, it is possible to make a diagnosis using an image displayed on the display.

WSI装置には、スライド全面の画像取得に際して、被写体の撮像範囲を小領域に分割して画像を取得し、合成して大領域の被写体の画像を生成する方法を用いるものがある。なお、これ以降、撮像範囲を小領域に分割した分割領域をタイル、各タイルにおいて撮像を行い取得した画像データをタイル画像と称する。   Some WSI apparatuses use a method of acquiring an image of a subject in a large area by acquiring the image by dividing the imaging range of the subject into small areas when acquiring the image of the entire slide surface. Hereinafter, a divided area obtained by dividing the imaging range into small areas is referred to as a tile, and image data acquired by imaging in each tile is referred to as a tile image.

このようなタイル画像を合成して被写体の画像を生成するWSI装置において、画像を取得する撮像素子801と、撮像対象である検体804との間で相対的な傾きを持つ場合がある。その一例として、図7(a)に検体804と撮像素子801とが平行でない状態で、複数のタイル画像を取得した場合を示す。このような場合では、タイル数が増加するに従い、タイル画像を取得する際の焦点面が検体からはずれることがある。これにより、合成後の画像内で光軸方向の位置の異なる領域が存在するアーチファクトが発生していた。   In a WSI apparatus that generates an image of a subject by combining such tile images, there may be a relative inclination between the image sensor 801 that acquires the image and the sample 804 that is the imaging target. As an example, FIG. 7A shows a case where a plurality of tile images are acquired in a state where the specimen 804 and the image sensor 801 are not parallel. In such a case, as the number of tiles increases, the focal plane when acquiring the tile image may deviate from the specimen. As a result, an artifact in which regions having different positions in the optical axis direction exist in the combined image has occurred.

また、各タイル画像を合成する際に、隣接するタイル同士の継ぎ目部分において、タイル画像毎に光軸方向の位置が異なりアーチファクトが発生することがあった。これはステージの一般的な駆動精度の一つである、ステージの走り平行度が影響している。ステージの走り平行度の影響の概念図を図7(b)に示す。走り平行度の影響により、光軸と垂直な平面(XY平面)方向に駆動した際に、意図しない対物レンズ802の光軸方向(Z軸方向)への変位が発生することがある。もう一つの原因として、撮像素子801と検体804との間に相対的な傾きが存在し、ステージの移動方向、すなわち検体804の移動方向と焦点面の傾き方向とが異なることが挙げられる。これは、図7(c)の概念図に示すように、タイル内での光軸方向の位置が、タイル右端とタイル左端で異なるために発生する。   In addition, when combining tile images, the position in the optical axis direction differs for each tile image at the joint portion between adjacent tiles, and artifacts may occur. This is influenced by the parallelism of the stage, which is one of the general driving accuracy of the stage. A conceptual diagram of the influence of the running parallelism of the stage is shown in FIG. Due to the influence of the running parallelism, an unintended displacement of the objective lens 802 in the optical axis direction (Z-axis direction) may occur when driven in a plane (XY plane) direction perpendicular to the optical axis. Another cause is that there is a relative tilt between the image sensor 801 and the sample 804, and the moving direction of the stage, that is, the moving direction of the sample 804 and the tilt direction of the focal plane are different. This occurs because the position in the optical axis direction in the tile is different between the right end of the tile and the left end of the tile, as shown in the conceptual diagram of FIG.

上述のようなアーチファクトは、デジタル画像を用いた診断の効率低下の原因となっていた。アーチファクトを低減するために、特許文献1では、検体上の複数の位置で取得した焦点面の位置情報より、検体の光軸方向の位置の変化を求め、この変化を、各々のタイル画像を取得する際の焦点面の位置を決定するときに反映することが開示されている。この方法によれば、上述の画像を取得する際に、焦点面が検体からはずれることによるアーチファクトを低減できる。   Artifacts as described above have caused a reduction in the efficiency of diagnosis using digital images. In order to reduce artifacts, in Patent Document 1, a change in the position of the specimen in the optical axis direction is obtained from focal plane position information obtained at a plurality of positions on the specimen, and each tile image is obtained from this change. It is disclosed that it is reflected when the position of the focal plane is determined. According to this method, when the above-described image is acquired, artifacts due to the focal plane deviating from the specimen can be reduced.

特許文献2では、各々のタイル位置において光軸方向に異なる位置において取得したタイル画像のコントラストを評価し、コントラストが最大となる光軸方向の位置で取得した画像を合焦した画像とすることが開示されている。この方法の様に、各タイルにおいて所謂オートフォーカスを実行すれば、上述の焦点面が検体からはずれることと、ステージ走り平行度の影響による焦点面の変動によるアーチファクトを低減できる。また、特許文献3には、被写体の平面方向に異なる複数の位置で合焦位置を取得して、取得した合焦位置と撮像センサの受光面とが共役になるように検体の位置を補正することが開示されている。   In Patent Document 2, the contrast of tile images acquired at different positions in the optical axis direction at each tile position is evaluated, and the image acquired at the position in the optical axis direction where the contrast is maximized is set as a focused image. It is disclosed. If so-called auto-focusing is performed on each tile as in this method, the above-described focal plane deviates from the specimen, and artifacts due to focal plane fluctuations due to the influence of the stage running parallelism can be reduced. Japanese Patent Laid-Open No. 2004-133867 acquires in-focus positions at a plurality of different positions in the plane direction of the subject, and corrects the position of the specimen so that the acquired in-focus position and the light receiving surface of the imaging sensor are conjugate. It is disclosed.

特開2013−83925号公報JP2013-83925A 特開2012−37861号公報JP 2012-37861 A 特開2004−191959号公報JP 2004-191959 A

しかしながら、特許文献1で開示されている方法では、ステージの走り平行度の影響で焦点面がタイルごとに意図せず変動してしまうという点には対処できない。つまり、特許文献1の方法によって設定された焦点面の位置と実際にタイル画像が取得される焦点面の位置とが変わってしまうことがあった。また、特許文献2で開示されている方法では、焦点面の傾きによって発生するアーチファクトに対応できない。さらに、各タイルでそれぞれにオートフォーカスを実行するため、検体内の構造(例えば、核の位置等)によっては、隣接するタイル間で合焦位置が大きく異なる可能性がある。結果として合成時した際の継ぎ目で焦点面の光軸方向の位置の違いによりアーチファクトが発生することがあった。また、特許文献3で開示されている方法では、タイル画像間における光軸方向の位置の差については考慮していないため、隣接するタイル同士の継ぎ目部分にアーチファクトが発生することがある。   However, the method disclosed in Patent Document 1 cannot cope with the fact that the focal plane fluctuates unintentionally for each tile due to the influence of the running parallelism of the stage. In other words, the position of the focal plane set by the method of Patent Document 1 may change from the position of the focal plane where the tile image is actually acquired. Further, the method disclosed in Patent Document 2 cannot cope with artifacts caused by the tilt of the focal plane. Furthermore, since auto-focusing is executed for each tile, the in-focus position may be greatly different between adjacent tiles depending on the structure in the specimen (for example, the position of the nucleus). As a result, artifacts may occur due to the difference in the position of the focal plane in the optical axis direction at the joint when combined. In addition, the method disclosed in Patent Document 3 does not consider the difference in the position in the optical axis direction between tile images, and therefore an artifact may occur at the joint between adjacent tiles.

本発明は、前記課題に鑑みてなされたものであり、アーチファクトが低減された画像を効率的に取得できる画像取得装置及び画像取得方法を提供することを目的とする。   The present invention has been made in view of the above problems, and an object thereof is to provide an image acquisition apparatus and an image acquisition method that can efficiently acquire an image with reduced artifacts.

本発明の一側面としての画像取得装置は、被写体を複数の領域ごとに撮像することにより前記被写体の画像を取得する画像取得装置であって、前記被写体からの光を結像する結像光学部と、前記被写体の像を撮像する撮像部と、前記撮像部の撮像面と共役な焦点面と前記被写体との前記結像光学部の光軸方向の相対位置を変更する変更部と、前記被写体の複数の位置それぞれにおける前記被写体の中の検体の前記光軸方向の位置を用いて想定取得面を生成する面生成部と、第1の領域と隣接する第2の領域内の1つ又は複数の位置における前記第2の領域を撮像したときの前記焦点面の前記光軸方向の位置を用いて、前記第1の領域内の1つ又は複数の位置における前記焦点面の予想位置を取得する位置取得部と、前記想定取得面の前記光軸方向の位置と前記予想位置との差を取得し、前記差と前記結像光学部の被写界深度とを比較した結果に基づいて、前記焦点面が前記想定取得面から前記被写界深度の範囲内になるように前記相対位置を補正するための補正量を取得する補正量取得部と、を有することを特徴とする。   An image acquisition device according to one aspect of the present invention is an image acquisition device that acquires an image of a subject by imaging the subject for each of a plurality of regions, and an imaging optical unit that forms an image of light from the subject An imaging unit that captures an image of the subject, a focal plane that is conjugate with an imaging surface of the imaging unit, and a change unit that changes a relative position of the imaging optical unit in the optical axis direction of the subject, and the subject A surface generation unit that generates an assumed acquisition surface using the position in the optical axis direction of the specimen in the subject at each of the plurality of positions, and one or more in a second region adjacent to the first region The predicted position of the focal plane at one or more positions in the first area is acquired using the position of the focal plane in the optical axis direction when the second area is imaged at the position A position acquisition unit and the optical axis of the assumed acquisition surface; Obtaining the difference between the orientation position and the predicted position, and comparing the difference with the depth of field of the imaging optical unit, the focal plane from the assumed acquisition surface to the depth of field And a correction amount acquisition unit that acquires a correction amount for correcting the relative position so as to fall within the range.

また、本発明の別の一側面としての画像取得装置は、被写体を複数の領域ごとに撮像することにより前記被写体の画像を取得する画像取得装置であって、前記被写体からの光を結像する結像光学部と、前記被写体の像を撮像する撮像部と、前記撮像部の撮像面と共役な焦点面と前記被写体との前記結像光学部の光軸方向における相対位置を変更する変更部と、前記被写体の複数の異なる位置それぞれにおける前記被写体の中の検体の前記光軸方向における位置を用いて想定取得面を生成する面生成部と、前記第1の領域の前記光軸方向に異なる複数の位置を前記撮像部で撮像することにより取得した複数の画像から、前記複数の画像それぞれを撮像した時の前記焦点面が前記想定取得面から前記結像光学部の被写界深度の範囲内に含まれ、且つ、前記第1の領域と隣接する第2の領域から前記被写界深度の範囲内に含まれる画像又は前記複数の画像の一部を抽出する抽出部と、を有することを特徴とする。   An image acquisition apparatus according to another aspect of the present invention is an image acquisition apparatus that acquires an image of a subject by imaging the subject for each of a plurality of regions, and forms an image of light from the subject. An imaging optical unit, an imaging unit that captures an image of the subject, and a changing unit that changes a relative position in the optical axis direction of the imaging optical unit between a focal plane conjugate with an imaging surface of the imaging unit and the subject. A surface generation unit that generates an assumed acquisition surface using positions in the optical axis direction of the specimen in the subject at each of a plurality of different positions of the subject, and differs in the optical axis direction of the first region. The range of the depth of field of the imaging optical unit from the assumed acquisition plane when the plurality of images are captured from the plurality of images acquired by imaging a plurality of positions with the imaging unit. Included in and , And having a extraction unit for extracting a portion of the first region and the image or the plurality of images included from a second region adjacent to the range of the depth of field.

本発明の一側面としての画像取得装置及び画像取得方法によれば、アーチファクトが低減された画像を効率的に取得できる。   According to the image acquisition device and the image acquisition method as one aspect of the present invention, an image with reduced artifacts can be acquired efficiently.

WSI装置システム構成を説明する図The figure explaining WSI apparatus system configuration 顕微鏡装置及び画像処理装置の構成を説明する図The figure explaining the structure of a microscope apparatus and an image processing apparatus 画像処理装置のハードウェア構成のブロック図Block diagram of hardware configuration of image processing apparatus 第1の実施形態に係る画像取得工程のフローチャートThe flowchart of the image acquisition process which concerns on 1st Embodiment. 第2の実施形態に係るWSI装置システム構成を説明する図The figure explaining the WSI apparatus system configuration concerning a 2nd embodiment 第2の実施形態に係る画像取得工程のフローチャートFlowchart of an image acquisition process according to the second embodiment 本発明の課題を説明図Explanatory drawing of the problem of the present invention 第1の実施形態に係る画像取得工程を説明する図The figure explaining the image acquisition process which concerns on 1st Embodiment. タイルとZレイヤー、Zスタックの関係を説明する図Diagram explaining the relationship between tile, Z layer, and Z stack

(第1の実施形態)
<WSI装置システム構成>
本実施形態の画像取得装置としてのWSI装置システムについて、図1を参照して説明する。図1は、WSI装置システムの装置構成を説明する図である。このWSI装置システムは、被写体208となるプレパラート上の被検試料の光学顕微鏡像を高解像かつ大サイズ(広画角)のデジタル画像として取得するためのシステムである。
(First embodiment)
<WSI device system configuration>
A WSI apparatus system as an image acquisition apparatus of the present embodiment will be described with reference to FIG. FIG. 1 is a diagram for explaining a device configuration of a WSI device system. This WSI apparatus system is a system for acquiring an optical microscope image of a test sample on a preparation serving as a subject 208 as a high-resolution and large-size (wide angle of view) digital image.

WSI装置システムは、顕微鏡装置101(以下、「装置101」と呼ぶ)と画像処理装置102(以下、「装置102」と呼ぶ)、コンピュータ103、表示装置104を有する。装置102は専用処理ボードとしてコンピュータ103に組み込まれている。装置101とコンピュータ103との間は、専用もしくは汎用I/Fのケーブル105で接続され、コンピュータ103と表示装置104の間は、汎用のI/Fのケーブル106で接続される。本実施形態では図に示すシステム構成をとっているが、例えば、装置101に装置102を組み込んでもよいし、コンピュータ103と表示装置104とを一体としたノートPC、または、すべてを一体とした装置を用いて構成してもよい。   The WSI apparatus system includes a microscope apparatus 101 (hereinafter referred to as “apparatus 101”), an image processing apparatus 102 (hereinafter referred to as “apparatus 102”), a computer 103, and a display apparatus 104. The apparatus 102 is incorporated in the computer 103 as a dedicated processing board. The device 101 and the computer 103 are connected by a dedicated or general-purpose I / F cable 105, and the computer 103 and the display device 104 are connected by a general-purpose I / F cable 106. In the present embodiment, the system configuration shown in the figure is adopted. For example, the device 102 may be incorporated in the device 101, a notebook PC in which the computer 103 and the display device 104 are integrated, or a device in which all are integrated. You may comprise using.

続いて、装置101、102の構成について図2を参照して説明する。図2は、装置101、102の構成を説明する図である。   Next, the configuration of the apparatuses 101 and 102 will be described with reference to FIG. FIG. 2 is a diagram illustrating the configuration of the apparatuses 101 and 102.

<顕微鏡装置>
装置101は、平面内の直交する二軸に沿った複数の異なる位置でカラーフィルターを切換えつつ、タイル画像のデータを取得する。装置101は、照明部201、フィルタホイール部202、照明光学部203、ステージ204、ステージ制御系205、結像光学部209、撮像部213、メイン制御系214から構成される。
<Microscope device>
The apparatus 101 acquires tile image data while switching color filters at a plurality of different positions along two orthogonal axes in a plane. The apparatus 101 includes an illumination unit 201, a filter wheel unit 202, an illumination optical unit 203, a stage 204, a stage control system 205, an imaging optical unit 209, an imaging unit 213, and a main control system 214.

照明部201は、照明光学部203と合わせて用いて、ステージ204上に配置された被写体(プレパラート)208に対して均一に光を照射する手段であり、光源、および光源駆動の制御系から構成される。なお、プレパラート208は、観察対象となる組織の切片や塗抹した細胞(以後、「検体804」と称する)をスライドグラス上に貼り付け、封入剤とともにカバーグラスの下に固定した部材である。フィルタホイール部202は、複数のカラーフィルターと、それらを切換えるためのフィルタホイール、切換えを制御するフィルタホイール制御系から構成される。   The illumination unit 201 is a unit that illuminates the subject (preparation) 208 disposed on the stage 204 uniformly using the illumination optical unit 203, and includes a light source and a light source drive control system. Is done. The preparation 208 is a member in which a section of tissue to be observed and smeared cells (hereinafter referred to as “specimen 804”) are attached on a slide glass and fixed under the cover glass together with an encapsulant. The filter wheel unit 202 includes a plurality of color filters, a filter wheel for switching them, and a filter wheel control system for controlling switching.

ステージ204は、焦点面と被写体208との結像光学部209の光軸方向及び光軸方向と垂直な方向における相対位置を変更する変更部である。ステージ204は、ステージ制御系205によって駆動制御され、XYZの三軸方向への移動が可能である。ステージ制御系205は、ステージ204を駆動制御する部分で、駆動制御系206とステージ駆動機構207を有する。駆動制御系206は、メイン制御系214からの指示を受け、ステージ204の駆動制御を行う。ステージ駆動機構207は、駆動制御系206からの指示に従い、ステージ204を駆動する。結像光学部209は、被写体208の光学像を撮像ユニット213内の撮像センサ受光素子面へ結像するためのレンズ群である。   The stage 204 is a changing unit that changes the relative position of the focal plane and the subject 208 in the optical axis direction of the imaging optical unit 209 and the direction perpendicular to the optical axis direction. The stage 204 is driven and controlled by the stage control system 205, and can move in the three-axis directions of XYZ. The stage control system 205 is a part that drives and controls the stage 204, and includes a drive control system 206 and a stage drive mechanism 207. The drive control system 206 receives an instruction from the main control system 214 and performs drive control of the stage 204. The stage drive mechanism 207 drives the stage 204 in accordance with instructions from the drive control system 206. The imaging optical unit 209 is a lens group for forming an optical image of the subject 208 on the imaging sensor light receiving element surface in the imaging unit 213.

なお、本明細書における「焦点面」は、結像光学部209を介して撮像部213の撮像センサ231の撮像面(受光面)と光学的に共役な面のことである。また、焦点位置は、結像光学部209によって被写体208の光学像が結像する位置と共役な位置のことで、焦点面は焦点位置を含む。さらに、被写体208の中の検体と撮像センサ231の受光面とが光学的に共役となっていることを「合焦」という。   Note that the “focal plane” in this specification is a plane optically conjugate with the imaging surface (light receiving surface) of the imaging sensor 231 of the imaging unit 213 via the imaging optical unit 209. Further, the focal position is a position conjugate with the position where the optical image of the subject 208 is formed by the imaging optical unit 209, and the focal plane includes the focal position. Furthermore, the fact that the sample in the subject 208 and the light receiving surface of the imaging sensor 231 are optically conjugate is referred to as “focusing”.

撮像部213は、撮像センサ231、アナログフロントエンド(AFE)232、黒調整部233を有する。撮像部213は、ステージ204が結像光学部214の光軸方向に直交する平面をXY平面として、XY平面方向に駆動することにより、被写体208の像を撮像し、タイル画像のデータを取得する。撮像部213によって取得するタイル画像のデータを、これより、原画像データと称する。   The imaging unit 213 includes an imaging sensor 231, an analog front end (AFE) 232, and a black adjustment unit 233. The imaging unit 213 captures an image of the subject 208 and acquires tile image data by driving the stage 204 in the XY plane direction with the plane orthogonal to the optical axis direction of the imaging optical unit 214 as the XY plane. . The tile image data acquired by the imaging unit 213 is hereinafter referred to as original image data.

撮像センサ213は、二次元の光学像を光電変換によって電気的な物理量へ変える二次元のイメージセンサであり、例えば、CCDやCMOSデバイス等が用いられる。撮像センサ231からは、光の強度に応じた電気信号が出力される。撮像部213は、ステージ204がXY平面方向に駆動されることにより、検体のタイル画像を撮像する。AFE232は、撮像センサ231から出力されたアナログ信号をデジタル信号へ変換する回路である。CMOSを用いたイメージセンサの場合、AFE232の機能が撮像センサに一体化される構成であっても良い。黒補正部233は、撮像センサ231およびAFE232によって取得されたタイル画像のデータの各画素から、遮光時に得られた黒補正データを減算する処理を行う。   The imaging sensor 213 is a two-dimensional image sensor that changes a two-dimensional optical image into an electrical physical quantity by photoelectric conversion. For example, a CCD or a CMOS device is used. An electrical signal corresponding to the intensity of light is output from the image sensor 231. The imaging unit 213 captures a sample tile image by driving the stage 204 in the XY plane direction. The AFE 232 is a circuit that converts an analog signal output from the image sensor 231 into a digital signal. In the case of an image sensor using a CMOS, a configuration in which the function of the AFE 232 is integrated with the imaging sensor may be employed. The black correction unit 233 performs a process of subtracting the black correction data obtained at the time of shading from each pixel of the tile image data acquired by the imaging sensor 231 and the AFE 232.

メイン制御系214は、装置102内のサブ制御系228から取得した制御指示や、指示を判断するための情報を用いて、これまで説明してきた各構成の制御を行う。   The main control system 214 performs control of each configuration described so far using the control instruction acquired from the sub-control system 228 in the apparatus 102 and information for determining the instruction.

<画像処理装置>
装置102は、装置101から取得した原画像データから、焦点面の位置を補正するための補正量を算出する。また、原画像データを基にユーザの要求に応じて、表示装置104に表示するための表示データを生成する。装置102は、ユーザ情報取得部215(以下「取得部215」と呼ぶ)、面生成部217(以下「生成部217」と呼ぶ)、焦点位置補正部216(以下「補正部216」と呼ぶ)、及び画像位置補正部220(以下「補正部220」と呼ぶ)を有する。また、装置102は、現像処理部221、表示データ生成部227(以下、「生成部224」と呼ぶ)及びサブ制御系228を有する。
<Image processing device>
The apparatus 102 calculates a correction amount for correcting the position of the focal plane from the original image data acquired from the apparatus 101. Further, display data to be displayed on the display device 104 is generated in response to a user request based on the original image data. The apparatus 102 includes a user information acquisition unit 215 (hereinafter referred to as “acquisition unit 215”), a surface generation unit 217 (hereinafter referred to as “generation unit 217”), and a focal position correction unit 216 (hereinafter referred to as “correction unit 216”). And an image position correction unit 220 (hereinafter referred to as “correction unit 220”). Further, the apparatus 102 includes a development processing unit 221, a display data generation unit 227 (hereinafter referred to as “generation unit 224”), and a sub control system 228.

補正部216は、位置取得部218(以下、「取得部218」と呼ぶ)、補正量取得部219(以下、「取得部219」と呼ぶ)を有する。現像処理部221は、ゲイン調整部222(以下、「調整部222」と呼ぶ)、画像合成処理部223(以下、「処理部223」と呼ぶ)、及び色再現画像生成部224(以下、「生成部224」と呼ぶ)を有する。さらに、現像処理部221は、デジタルフィルター処理部225(以下、「処理部225」と呼ぶ)、圧縮処理部226(以下、「処理部226」と呼ぶ)を有する。   The correction unit 216 includes a position acquisition unit 218 (hereinafter referred to as “acquisition unit 218”) and a correction amount acquisition unit 219 (hereinafter referred to as “acquisition unit 219”). The development processing unit 221 includes a gain adjustment unit 222 (hereinafter referred to as “adjustment unit 222”), an image composition processing unit 223 (hereinafter referred to as “processing unit 223”), and a color reproduction image generation unit 224 (hereinafter referred to as “ A generation unit 224 "). Further, the development processing unit 221 includes a digital filter processing unit 225 (hereinafter referred to as “processing unit 225”) and a compression processing unit 226 (hereinafter referred to as “processing unit 226”).

取得部215は、コンピュータ103内の記憶装置上から、装置101の撮像条件情報、現像処理部221による色再現画像データを生成する際の色再現情報を取得する。撮像条件情報、色再現情報は事前にUI等を介してユーザによって入力され、記憶装置に保持されている。または、プリセットされたものを使用したり、サブ制御系228に自動的に判断させたりしても良い。一例として、撮像範囲であれば、プレパラートの縮小画像を表示し、GUIで撮像範囲をユーザに指定させる。同様に、色再現情報の取得の一例としては、等色関数の候補等を表示してユーザに選択させる。取得した情報の内、撮像条件情報はサブ制御系228を通じてメイン制御系214及び現像処理部221に、色再現情報は現像処理部221に送る。   The acquisition unit 215 acquires imaging condition information of the apparatus 101 and color reproduction information when generating color reproduction image data by the development processing unit 221 from a storage device in the computer 103. Imaging condition information and color reproduction information are input by a user in advance via a UI or the like and held in a storage device. Alternatively, a preset one may be used, or the sub-control system 228 may automatically determine. As an example, if it is an imaging range, a reduced image of the slide is displayed, and the user is allowed to specify the imaging range using a GUI. Similarly, as an example of obtaining color reproduction information, color matching function candidates and the like are displayed and selected by the user. Among the acquired information, the imaging condition information is sent to the main control system 214 and the development processing unit 221 through the sub-control system 228, and the color reproduction information is sent to the development processing unit 221.

補正部216では、検体から検出した焦点面の位置情報を基に、想定取得面と予想焦点面を取得し、タイル画像取得時の焦点面の位置を補正するための補正量を算出する。焦点面の位置情報の取得や、算出した補正量はサブ制御系228を介して行われる。本実施形態では、補正量はステージの高さ方向(光軸方向)の移動量となる。補正部216の各機能ブロックにおける詳細な処理工程は後述する。想定取得面とは、被写体208のうち撮像により画像を取得したい面のことで、被写体208の中の検体が存在する位置を撮像できるように生成される。   The correction unit 216 acquires the assumed acquisition plane and the expected focal plane based on the focal plane position information detected from the specimen, and calculates a correction amount for correcting the focal plane position at the time of tile image acquisition. Acquisition of the focal plane position information and the calculated correction amount are performed via the sub-control system 228. In the present embodiment, the correction amount is the amount of movement in the height direction (optical axis direction) of the stage. Detailed processing steps in each functional block of the correction unit 216 will be described later. The assumed acquisition surface is a surface of the subject 208 for which an image is to be acquired by imaging, and is generated so that the position in the subject 208 where the specimen exists can be imaged.

生成部217は、検体の位置を検出するステージXY位置を決定し、ステージXY位置にて検体の位置を検出し記録する。記録した検体の位置に基づいて想定取得面を生成する。取得部218は、サブ制御系228を通して、撮像センサ231とステージ204との相対的な傾き(撮像センサ231の焦点面の傾き)パラメータを取得する。次いで、タイル画像の取得を行ったタイルと隣接するタイル間でのステージ走り平行度の影響による焦点面の位置変動を補正する。その後、前述の傾きパラメータと合わせて、隣接タイル内の任意のXY位置での予想位置を算出する。取得部219は、想定取得面と予想位置を基に、タイル画像撮像時の焦点面の位置の補正量を算出する。   The generation unit 217 determines the stage XY position for detecting the position of the specimen, and detects and records the position of the specimen at the stage XY position. An assumed acquisition surface is generated based on the recorded position of the specimen. The acquisition unit 218 acquires a relative inclination (inclination of the focal plane of the image sensor 231) parameter between the image sensor 231 and the stage 204 through the sub-control system 228. Next, the positional variation of the focal plane due to the influence of the parallelism of the stage running between the tile from which the tile image has been acquired and the adjacent tile is corrected. Thereafter, an expected position at an arbitrary XY position in the adjacent tile is calculated together with the inclination parameter described above. The acquisition unit 219 calculates a correction amount of the focal plane position at the time of capturing the tile image based on the assumed acquisition plane and the expected position.

補正部220は、装置101から取得した複数の原画像データ間の位置ずれを補正する。   The correction unit 220 corrects misalignment between a plurality of original image data acquired from the apparatus 101.

現像処理部221では、装置101で取得した原画像データを用いて、表示装置104に表示する色再現画像データを生成する。   The development processing unit 221 generates color reproduction image data to be displayed on the display device 104 using the original image data acquired by the device 101.

調整部222は、装置101において、各色のフィルターに対する画像データのゲインを調整することによって、露光量の差を補正する。処理部223は、原画像データを継ぎ合わせて、撮像条件情報に基づく大領域の被写体の画像のデータを生成する。生成部224は、処理部223で生成された画像データをXYZ色度座標値に変換する。この変換されたタイル画像のデータを、XYZ画像データと称する。処理部225は、XYZ画像データに含まれる高周波成分の抑制、ノイズ除去、解像感強調を実現するデジタルフィルターの機能を有する。   The adjustment unit 222 corrects the difference in exposure amount by adjusting the gain of the image data for each color filter in the apparatus 101. The processing unit 223 joins the original image data and generates image data of a large area subject based on the imaging condition information. The generation unit 224 converts the image data generated by the processing unit 223 into XYZ chromaticity coordinate values. The converted tile image data is referred to as XYZ image data. The processing unit 225 has a function of a digital filter that realizes suppression of high-frequency components included in XYZ image data, noise removal, and resolution enhancement.

処理部226は、大領域の被写体の二次元画像のデータの伝送の効率化および保存する際のデータ容量削減が目的で行われる静止画像圧縮の符号化処理である。静止画像の圧縮手法として、JPEG(Joint Photographic Experts Group)、JPEGを改良、進化させたJPEG2000やJPEG XR等の規格化された符号化方式が広く一般に知られている。圧縮された画像のデータはコンピュータ103内の記憶装置に送られ、蓄えられる。生成部227は現像処理部221で生成されたXYZ画像データを、ルックアップテーブルを用いて、表示装置104で表示可能なRGB表色系に変換する。   The processing unit 226 is a still image compression encoding process performed for the purpose of improving the efficiency of transmission of data of a two-dimensional image of a large area subject and reducing the data capacity when storing the data. As a still image compression technique, standardized encoding methods such as JPEG (Joint Photographic Experts Group) and JPEG 2000 and JPEG XR improved and evolved from JPEG are widely known. The compressed image data is sent to a storage device in the computer 103 and stored. The generation unit 227 converts the XYZ image data generated by the development processing unit 221 into an RGB color system that can be displayed on the display device 104 using a lookup table.

サブ制御系228は、装置102内のこれまで説明してきた各種ユニットの制御を行い、メイン制御系214を通じて装置101の制御に関する情報を送受信する。また必要に応じて、取得部215に入力された情報や、記憶装置上に蓄えられた撮像に関する情報を用いて、撮像条件等を自動的に判断、決定する。   The sub control system 228 controls various units described so far in the apparatus 102 and transmits / receives information related to the control of the apparatus 101 through the main control system 214. If necessary, the imaging conditions and the like are automatically determined and determined using information input to the acquisition unit 215 and information related to imaging stored in the storage device.

図3は、コンピュータ103のハードウェア構成を示すブロック図である。本実施形態では、一般的なPC(Personal Computer)に専用処理ボードである装置102を組み込んでいる。コンピュータ103は、CPU(Central Processing Unit)301、RAM(Random Access Memory)302、記憶装置303、データ入出力I/F305、およびこれらを互いに接続する内部バス304を備える。   FIG. 3 is a block diagram illustrating a hardware configuration of the computer 103. In the present embodiment, a device 102 that is a dedicated processing board is incorporated in a general PC (Personal Computer). The computer 103 includes a CPU (Central Processing Unit) 301, a RAM (Random Access Memory) 302, a storage device 303, a data input / output I / F 305, and an internal bus 304 that connects these components to each other.

CPU301は、必要に応じてRAM302等に適宜アクセスし、各種演算処理を行いながらPCの各ブロック全体を統括的に制御する。RAM302は、CPU301の作業用領域等として用いられ、OS、実行中の各種プログラム、各種データを一時的に保持する。RAM302には、図4(a)から図4(g)のフローチャートに対応するプログラムが記憶されており、CPU301がそれを読み込んで実行することで各処理が行われる。   The CPU 301 appropriately accesses the RAM 302 or the like as necessary, and performs overall control of the entire blocks of the PC while performing various arithmetic processes. The RAM 302 is used as a work area for the CPU 301 and temporarily holds the OS, various programs being executed, and various data. A program corresponding to the flowcharts of FIGS. 4A to 4G is stored in the RAM 302, and each process is performed by the CPU 301 reading and executing the program.

記憶装置303は、CPU301に実行させるOS、プログラムや各種パラメータなどのファームウェアが固定的に記憶されている情報を記録し読み出す補助記憶装置である。HDD(Hard Disk Drive)等の磁気ディスクドライブもしくはFlashメモリを用いたやSSD(Solid State Disk)等の半導体デバイスが用いられる。   The storage device 303 is an auxiliary storage device that records and reads information in which firmware such as an OS, a program, and various parameters executed by the CPU 301 is fixedly stored. A semiconductor device such as an SSD (Solid State Disk) or a magnetic disk drive such as an HDD (Hard Disk Drive) or a flash memory is used.

データ入出力I/F305には、専用処理ボードである装置102と、ネットワークに接続するためのLAN I/F306、グラフィクスボード307、外部装置I/F308、操作I/F309が接続される。さらに、グラフィクスボード307に表示装置104、外部装置I/F308に装置101、操作I/F309にキーボード310やマウス311が、それぞれ接続される。   The data input / output I / F 305 is connected to a device 102 that is a dedicated processing board, a LAN I / F 306 for connecting to a network, a graphics board 307, an external device I / F 308, and an operation I / F 309. Further, the display device 104 is connected to the graphics board 307, the device 101 is connected to the external device I / F 308, and the keyboard 310 and the mouse 311 are connected to the operation I / F 309.

<表示装置>
表示装置104は、例えば液晶、EL(Electro−Luminescence)、CRT(Cathode Ray Tube)等を用いた表示デバイスである。WSI装置システムの概略構成で述べたように、表示装置104とコンピュータ103とが一体化したノートPCを想定してもよい。操作I/F409との接続デバイスとしてキーボード410やマウス411等のポインティングデバイスを想定している。タッチパネル等表示装置104の画面が直接入力デバイスとなる構成を取ることも可能である。その場合、タッチパネルは表示装置104と一体となり得る。
<Display device>
The display device 104 is a display device using, for example, liquid crystal, EL (Electro-Luminescence), CRT (Cathode Ray Tube), or the like. As described in the schematic configuration of the WSI device system, a notebook PC in which the display device 104 and the computer 103 are integrated may be assumed. As a connection device with the operation I / F 409, a pointing device such as a keyboard 410 and a mouse 411 is assumed. It is also possible to adopt a configuration in which the screen of the display device 104 such as a touch panel directly serves as an input device. In that case, the touch panel can be integrated with the display device 104.

<画像取得工程>
本実施形態の装置101及び装置102での画像データ取得工程について図8も用いて説明する。本実施形態では画像データの取得時に焦点面の位置補正を行う。
<Image acquisition process>
The image data acquisition process in the apparatus 101 and the apparatus 102 of this embodiment will be described with reference to FIG. In the present embodiment, the position of the focal plane is corrected when image data is acquired.

画像データの取得にあたっては、タイル画像の撮像を開始する前に、まず、検体上の少なくとも3点で検体の位置検出を行う。この位置検出を行う点は、ステージ走り平行度の影響を低減するため、後述するキャリブレーションデータの存在する位置にて取得する。   When acquiring image data, before starting to capture a tile image, first, the position of the sample is detected at at least three points on the sample. The point where this position detection is performed is acquired at a position where calibration data, which will be described later, exists in order to reduce the influence of the stage running parallelism.

ここで、キャリブレーションデータとは、事前にステージ204のXY方向における複数の特定の位置のそれぞれで位置検出をして取得したデータである。このキャリブレーションデータを用いれば、ステージの走り平行度の影響による焦点面の位置変動を補正して、ステージの走り平行度による影響を低減する方法も考えらえる。しかしながら、この方法は、キャリブレーションデータを取得した位置でしか補正が実行できない。そのため、検体が入れ替えられ、撮像範囲の位置や大きさが変更になる度に、キャリブレーションデータを取得する必要がある。さもなければ、撮像範囲の位置や大きさ、上述した撮像範囲に対するタイルの割り付けが固定化されるために柔軟性に欠けることとなり、余分に検体の存在しない領域を撮像する必要が出てしまう可能性がある。   Here, the calibration data is data obtained by performing position detection at each of a plurality of specific positions in the XY direction of the stage 204 in advance. If this calibration data is used, a method of correcting the focal plane position fluctuation due to the influence of the stage running parallelism and reducing the influence of the stage running parallelism can be considered. However, this method can execute correction only at the position where the calibration data is acquired. Therefore, it is necessary to acquire calibration data every time the sample is replaced and the position and size of the imaging range are changed. Otherwise, the position and size of the imaging range, and the tile assignment for the imaging range described above are fixed, so that flexibility is lacking, and it may be necessary to image an extra area where no specimen exists. There is sex.

位置検出は、ステージ204の位置を光軸方向(高さ方向、Z軸方向)に変化させた際に撮像センサ231で撮像される画像のコントラストを評価し、最もコントラストが高くなるステージ位置を合焦位置とする。もちろんこの方法に限らず、別光学系を用いる方法や、位相差を検知する方法等、一般的にオートフォーカスを行う方法を使用可能である。位置検出を行ったら、位置検出を行った点を含む想定取得面901を生成する(図8(a))。生成した想定取得面901はタイル画像の撮像時の焦点面の位置を算出するための指標として用いる。この想定取得面901を使用することにより上述した、撮像センサ231とステージ204の積載面、撮像対象である検体910との間での相対的な傾きの影響で画像を取得する際の焦点面が検体910からはずれていくという課題に対応する。   Position detection is performed by evaluating the contrast of an image captured by the image sensor 231 when the position of the stage 204 is changed in the optical axis direction (height direction, Z-axis direction), and matching the stage position where the contrast becomes the highest. The focus position. Of course, the method is not limited to this method, and a method of performing autofocus, such as a method of using another optical system or a method of detecting a phase difference, can be used. If position detection is performed, the assumption acquisition surface 901 including the point which performed position detection is produced | generated (FIG. 8 (a)). The generated assumed acquisition plane 901 is used as an index for calculating the position of the focal plane when the tile image is captured. By using this assumed acquisition plane 901, the focal plane when acquiring an image due to the influence of the relative tilt between the imaging sensor 231 and the stage 204 loading surface and the specimen 910 that is the imaging target described above is used. The problem of moving away from the specimen 910 is addressed.

続いて、タイル画像の撮像は、撮像とステージ移動とを含むステップ動作を繰り返しながら行う。この時、図8(b)に示したように、あるステップで撮像したタイルを基準タイル(第2の領域)920、基準タイル920を撮像して取得したタイル画像を基準タイル画像とする。さらに、他のステップで撮像する、基準タイル920と隣接するタイルを被補正タイル(第1の領域)921、被補正タイル921を撮像して取得したタイル画像を被補正タイル画像とする。   Subsequently, the tile image is captured while repeating a step operation including imaging and stage movement. At this time, as shown in FIG. 8B, a tile captured in a certain step is set as a reference tile (second region) 920, and a tile image acquired by imaging the reference tile 920 is set as a reference tile image. Furthermore, a tile adjacent to the reference tile 920 that is imaged in another step is a corrected tile (first region) 921, and a tile image acquired by imaging the corrected tile 921 is a corrected tile image.

基準タイル画像と被補正タイル画像のそれぞれから、基準タイル920と被補正タイル921の重複領域内(重複領域922内)における焦点面の位置をそれぞれ検出し、重複領域922での焦点面の位置が同じになるように補正量を求める。基準タイル920と被補正タイル921との間での焦点面の位置補正を行うことで、上述したステージ走り平行度の影響による焦点面の位置変動と、焦点面の傾きによる焦点位置のズレに対応する。   From each of the reference tile image and the corrected tile image, the position of the focal plane in the overlapping area (in the overlapping area 922) of the reference tile 920 and the corrected tile 921 is detected, and the position of the focal plane in the overlapping area 922 is determined. The correction amount is obtained so as to be the same. By correcting the focal plane position between the reference tile 920 and the tile to be corrected 921, the focal plane position variation due to the influence of the stage running parallelism and the focal position shift due to the focal plane tilt described above can be handled. To do.

しかし、このままでは、多数のタイル画像を継ぎ合わせると、焦点面の傾きによるタイル画像の端部での焦点面の位置の違いが蓄積されていく。このため、取得した画像の焦点面が検体910から乖離した状態になる可能性がある。そこで、被補正タイル921において、基準タイル920と被補正タイル921との間での焦点面の位置の補正を行った後の焦点面の位置に、撮像センサ231の焦点面傾きを加味したものを予想焦点面931として算出する(図8(c))。この予想焦点面931を、基準タイル920から結像光学部209の被写界深度以内の範囲で、想定取得面901に近づける(図8(d))。なお、本明細書における「被写界深度(Depth of field:D.O.F)」は、±D.O.F=±λ/{2(NA)}という式で表されるものと定義する。ここで、λは光の波長、NAは撮像光学系102の開口数である。 However, if a large number of tile images are joined together, the difference in focal plane position at the end of the tile image due to the tilt of the focal plane is accumulated. For this reason, there is a possibility that the focal plane of the acquired image deviates from the specimen 910. Therefore, in the corrected tile 921, the focal plane position after the correction of the focal plane position between the reference tile 920 and the corrected tile 921 is added to the focal plane inclination of the image sensor 231. The predicted focal plane 931 is calculated (FIG. 8C). The expected focal plane 931 is brought close to the assumed acquisition plane 901 within a range within the depth of field of the imaging optical unit 209 from the reference tile 920 (FIG. 8D). In the present specification, “depth of field (DOF)” is ± D. O. It is defined as represented by the formula F = ± λ / {2 (NA) 2 }. Here, λ is the wavelength of light, and NA is the numerical aperture of the imaging optical system 102.

このように、隣接タイル同士の重複領域923において焦点面の位置を揃え、撮像センサ231の焦点面として予想焦点面931を取得する。この予想焦点面931を、被写界深度の範囲で想定取得面901に近づけることによって、焦点面が検体から乖離することを防ぎ、アーチファクトを低減した画像の取得を行う。   In this way, the position of the focal plane is aligned in the overlapping area 923 between adjacent tiles, and the predicted focal plane 931 is acquired as the focal plane of the image sensor 231. By bringing the predicted focal plane 931 closer to the assumed acquisition plane 901 in the range of the depth of field, the focal plane is prevented from being separated from the specimen, and an image with reduced artifacts is acquired.

画像取得工程の詳細について図4(a)から図4(g)のフローチャートを用いて説明する。ステップS401では、メイン制御系214が、装置101の初期化を行う。装置101の初期化に係る工程を図4(b)のフローチャートに示す。   The details of the image acquisition process will be described with reference to the flowcharts of FIGS. In step S401, the main control system 214 initializes the apparatus 101. A process related to the initialization of the apparatus 101 is shown in the flowchart of FIG.

ステップS415では、ユーザが、プレパラート208上の撮像範囲、撮像センサ231の露光時間、撮像に使用するフィルターやそれらの透過波長帯、結像光学部209の倍率等の撮像条件情報を、コンピュータ103を介して装置102に入力する。この際、必要に応じて、等色関数などの色再現情報も入力する。入力された情報は一度、記憶装置303に蓄えられ、その後取得部215が取得する。撮像条件情報はユーザが入力する他に、プリセットされた値からユーザが選択しても良いし、サブ制御系228等に自動的に判断させても良い。ステップS416では、メイン制御系214が、ステップS415で入力された情報を、サブ制御系228を通して、取得部215より取得する。   In step S415, the user uses the computer 103 to acquire imaging condition information such as the imaging range on the slide 208, the exposure time of the imaging sensor 231, the filters used for imaging and their transmission wavelength bands, and the magnification of the imaging optical unit 209. To the device 102. At this time, color reproduction information such as a color matching function is also input as necessary. The input information is once stored in the storage device 303 and then acquired by the acquisition unit 215. In addition to being input by the user, the imaging condition information may be selected by a user from preset values, or may be automatically determined by the sub-control system 228 or the like. In step S 416, the main control system 214 acquires the information input in step S 415 from the acquisition unit 215 through the sub control system 228.

ステップS417では、メイン制御系214が、ステップS416で取得した条件に従い、対物レンズの被写界深度の計算、撮像範囲のタイルへの分割、タイル分割結果に基づくステージ204の移動距離の計算と、移動順の決定を行う。また、移動順に従って、各タイルにID番号を振り、ステージ204におけるXY位置と関連づける。同時に、撮像センサ231、ステージ204、照明部201の光源等の初期化を行う。なお、撮像範囲のタイルへの分割に際しては、各々のタイル間で重複領域を持つように分割を行う(図7、図8(b)を参照)。また、本ステップで求めた被写界深度や移動順、ID番号とステージXY位置情報はRAM302または、記憶装置303に蓄えられ、後述する工程で適宜読みだして使用する。   In step S417, the main control system 214 calculates the depth of field of the objective lens, divides the imaging range into tiles, calculates the moving distance of the stage 204 based on the tile division results, according to the conditions acquired in step S416. Determine the order of movement. Further, according to the moving order, an ID number is assigned to each tile and associated with the XY position on the stage 204. At the same time, initialization of the image sensor 231, the stage 204, the light source of the illumination unit 201, and the like is performed. Note that when the imaging range is divided into tiles, the tiles are divided so as to have overlapping regions between the tiles (see FIGS. 7 and 8B). In addition, the depth of field, movement order, ID number, and stage XY position information obtained in this step are stored in the RAM 302 or the storage device 303, and are appropriately read and used in a process described later.

ステップS402では、メイン制御系214が、撮像センサ231とステージ204との相対的な傾きによって生じる、撮像センサ231の焦点面のステージ204に対する傾きを表すパラメータ(傾きパラメータ)を取得する。傾きパラメータは、一様に平坦で画像による焦点検出が可能なチャートやターゲットパターンを備えた校正用スライドを用いて撮像した画像内の焦点面の位置を基に算出する。位置検出は、例えば撮像した画像のコントラスト等を評価することで自動的に行う。他に、測距装置などを使用して算出することも可能である。   In step S <b> 402, the main control system 214 acquires a parameter (inclination parameter) representing the inclination of the focal plane of the image sensor 231 with respect to the stage 204 caused by the relative inclination between the image sensor 231 and the stage 204. The tilt parameter is calculated based on the position of the focal plane in the image captured using a calibration slide having a chart or target pattern that is uniformly flat and capable of focus detection by the image. The position detection is automatically performed, for example, by evaluating the contrast of the captured image. In addition, it is possible to calculate using a distance measuring device or the like.

傾きパラメータの算出は、ステップS402の工程に到達した時点で開始しても良いし、装置起動時等、事前に算出しても良い。この場合、算出した結果を記憶装置303に蓄えておき、適宜読みだして使用することとなる。また、焦点面傾きパラメータは、一般的な三次元空間内の面を表す式で表しても良いし、焦点面内の任意の位置での光軸方向の位置をテーブルとして記録したものを用いても良い。   The calculation of the slope parameter may be started when the process of step S402 is reached, or may be calculated in advance such as when the apparatus is activated. In this case, the calculated result is stored in the storage device 303, and is read and used as appropriate. Further, the focal plane tilt parameter may be expressed by an expression representing a plane in a general three-dimensional space, or by using a table in which the position in the optical axis direction at an arbitrary position in the focal plane is recorded. Also good.

ステップS403では、生成部217が、想定取得面901の生成を行う。想定取得面901の生成に係る各ステップを図4(c)のフローチャートに示す。   In step S403, the generation unit 217 generates the assumed acquisition surface 901. Each step relating to the generation of the assumed acquisition plane 901 is shown in the flowchart of FIG.

ステップS418では、生成部217が、想定取得面の生成を行う際に使用する位置と前記位置を取得するステージXY平面上の位置(焦点検出XY位置)を決定する。焦点検出XY位置の決定に係る工程を図4(d)のフローチャートに示す。   In step S418, the generation unit 217 determines a position used when generating the assumed acquisition surface and a position on the stage XY plane (focus detection XY position) from which the position is acquired. A process related to the determination of the focus detection XY position is shown in the flowchart of FIG.

ステップS421では、生成部217が、上述したキャリブレーションデータの生成又は取得を行う。キャリブレーションデータは、ステージ204のXY座標ごとのステージ高さ方向の変動、すなわち検体910に対する焦点面の位置変動を記録したテーブルである。焦点面の位置の変動は、例えば、ステージ204のXY方向における原点位置で検出した焦点位置を基準として変位量で表される。変位量は、上述した焦点面の傾きパラメータ同様に、校正用スライドを用いて撮像した画像内の焦点位置を基に算出することや、レーザー変位計等を用いて変位量を検出することで求めることができる。   In step S421, the generation unit 217 generates or acquires the calibration data described above. The calibration data is a table in which the variation in the stage height direction for each XY coordinate of the stage 204, that is, the focal plane position variation with respect to the specimen 910 is recorded. The variation in the position of the focal plane is represented by a displacement amount with reference to the focal position detected at the origin position in the XY direction of the stage 204, for example. Similar to the focal plane tilt parameter described above, the displacement is calculated based on the focal position in the image captured using the calibration slide, or is detected by detecting the displacement using a laser displacement meter or the like. be able to.

キャリブレーションデータは、ステップS421の工程に到達した時点で生成しても良いが、撮像工程の実行時間を考慮すると、装置起動時等に生成し、記憶装置303に蓄えていたものを取得することが望ましい。後述するように、焦点検出XY位置はキャリブレーションデータの存在する位置にて設定する。そのため、キャリブレーションデータに上述したような撮像範囲の位置や大きさに対しての柔軟性を持たせる必要はない。   The calibration data may be generated when the process of step S421 is reached. However, taking into account the execution time of the imaging process, the calibration data is generated when the apparatus is activated, and the data stored in the storage device 303 is acquired. Is desirable. As will be described later, the focus detection XY position is set at a position where calibration data exists. Therefore, it is not necessary for the calibration data to have flexibility with respect to the position and size of the imaging range as described above.

ステップS422では、生成部217が、焦点検出XY位置の数を設定する。焦点検出XY位置の数は、撮像範囲に応じてサブ制御系228に判断させてもよいし、ユーザに入力させても良い。ただし、少なくとも2点(この場合は、この2点を通る直線を含む平面の傾きを指定する必要がある)、または3点以上設定する必要がある。この時、点同士の距離は、各タイルの長さより長くなるように設定する。ステップS423では、ステップS416で取得した撮像範囲と、S421で取得したキャリブレーションデータを比較し、撮像範囲内のXY位置におけるキャリブレーションデータを調べる。   In step S422, the generation unit 217 sets the number of focus detection XY positions. The number of focus detection XY positions may be determined by the sub-control system 228 according to the imaging range, or may be input by the user. However, at least two points (in this case, it is necessary to specify the inclination of a plane including a straight line passing through these two points), or three or more points need to be set. At this time, the distance between the points is set to be longer than the length of each tile. In step S423, the imaging range acquired in step S416 is compared with the calibration data acquired in S421, and the calibration data at the XY position in the imaging range is examined.

ステップS424では、生成部217が、ステップS423で比較した結果を基に、焦点検出XY位置を仮決定する。仮決定する位置は、一度も焦点検出XY位置が決定されていない場合、撮像範囲内のXY位置におけるキャリブレーションデータの内、撮像範囲の外周部に相当するタイルの内部に設定する。既に他の焦点検出XY位置が決定されている場合は、決定済みの焦点検出XY位置から、最も遠い位置に存在するタイルの内部に設定する。後段のステップS425で、仮決定した位置に検体910が存在しないことが判明している場合は、仮決定の際に選択したタイルに隣接するタイルを新たに選択する。   In step S424, the generation unit 217 provisionally determines the focus detection XY position based on the result of comparison in step S423. If the focus detection XY position has never been determined, the temporarily determined position is set inside the tile corresponding to the outer peripheral portion of the imaging range in the calibration data at the XY position in the imaging range. If another focus detection XY position has already been determined, the position is set inside the tile that is farthest from the determined focus detection XY position. If it is determined in the subsequent step S425 that the sample 910 does not exist at the tentatively determined position, a tile adjacent to the tile selected at the tentative determination is newly selected.

ステップS425では、生成部217が、ステップS424で仮決定したXY位置に検体910が存在するか判断する。検体910が存在していればステップS426へ、存在していなければステップS424へ移行する。ステップS426では、ステップS424で仮決定したXY位置を焦点検出XY位置として想定取得面生成テーブルに記録する。ステップS427では、ステップS422で取得した数だけ焦点検出XY位置が決定したか判断する。決定していればステップS419へ、決定していなければステップS424へ移行する。   In step S425, the generation unit 217 determines whether the sample 910 exists at the XY position provisionally determined in step S424. If the sample 910 exists, the process proceeds to step S426, and if not, the process proceeds to step S424. In step S426, the XY position temporarily determined in step S424 is recorded in the assumed acquisition surface generation table as the focus detection XY position. In step S427, it is determined whether focus detection XY positions are determined by the number acquired in step S422. If it is determined, the process proceeds to step S419. If it is not determined, the process proceeds to step S424.

なお、本実施形態においては自動的に焦点検出XY位置を決定するために、ステップS424からステップS427の工程を実行するが、ユーザがマニュアルで焦点検出XY位置を指定することも可能である。その場合は、ステップS424からステップS427の工程を実行しなくとも良い。また、ステップS424からステップS427の工程の実行によって決定した焦点検出XY位置を、候補としてユーザに提示し、焦点検出XY位置として採用するかをユーザに判断させても良い。   In this embodiment, in order to automatically determine the focus detection XY position, the processes from step S424 to step S427 are executed. However, the user can manually specify the focus detection XY position. In that case, the process from step S424 to step S427 may not be executed. Further, the focus detection XY position determined by the execution of steps S424 to S427 may be presented to the user as a candidate, and the user may be determined whether to adopt it as the focus detection XY position.

ステップS419では、生成部217が、ステップS418で決定した焦点検出XY位置において位置検出を行い、結果を想定取得面生成テーブルに記録する。位置検出は、上述した方法で自動的に検出させるが、必要に応じてユーザがマニュアルで行っても良い。位置検出を画像のコントラスト等を評価して行う場合、検体910内に例えば核等のコントラストがはっきり出る構造が存在することによって、検出される焦点面の位置が最適な位置から外れる可能性がある。この可能性を軽減するため、焦点検出XY位置を含むある程度の大きさ(タイルサイズ等)の範囲を定め、その範囲内にいくつかの小さな位置(パッチ)を設ける。各パッチで位置検出した結果を平均化する等して統計的に処理し、焦点検出XY位置における焦点面の位置とする。パッチを一つとし、パッチ範囲を大きく取ることでも同様に効果を奏する。   In step S419, the generation unit 217 performs position detection at the focus detection XY position determined in step S418, and records the result in the assumed acquisition surface generation table. The position detection is automatically detected by the method described above, but may be performed manually by the user if necessary. When position detection is performed by evaluating image contrast or the like, the position of the focal plane to be detected may deviate from the optimum position due to the presence of a clear structure such as a nucleus in the specimen 910. . In order to reduce this possibility, a range of a certain size (tile size or the like) including the focus detection XY position is defined, and several small positions (patches) are provided in the range. The results of position detection in each patch are statistically processed by averaging or the like, and are set as the focal plane position at the focus detection XY position. The same effect can be achieved by using one patch and increasing the patch range.

ステップS420では、生成部217が、想定取得面生成テーブルの記録に基づいて、想定取得面901を生成する。想定取得面901の生成に当たっては、一般的な三次元空間内の平面を規定する式を用いることができる。また、必要に応じて、平面ではなく多次元関数等、関数を使用して曲面を規定しても良い。本実施形態では想定取得面は三次元空間内の平面とする。   In step S420, the generation unit 217 generates the assumed acquisition surface 901 based on the record of the assumed acquisition surface generation table. In generating the assumed acquisition plane 901, an expression that defines a plane in a general three-dimensional space can be used. Moreover, you may prescribe | regulate a curved surface using functions, such as a multidimensional function instead of a plane, as needed. In the present embodiment, the assumed acquisition plane is a plane in the three-dimensional space.

ステップS404では、ステージ制御系205が、ステップS401で決定した移動順に従って、最初に撮像するタイルにステージ204を移動する。その後、装置101は、ステップS403で生成した想定取得面901に従って、プレパラート208の検体910内の組織にフォーカスを合わせる。この際、ステップS421で取得したキャリブレーションデータを用いて、焦点面の位置の調整を行うことが望ましい。その後、撮像部213が、タイル画像を撮像し、画像データを記憶装置303に蓄える。画像データにはタイル画像を撮像した際の焦点面の位置情報をヘッダ部に記録しておく。もしくは画像データと関連付けて別個に記憶装置303に記録してしても良い。   In step S404, the stage control system 205 moves the stage 204 to the tile to be imaged first in accordance with the movement order determined in step S401. Thereafter, the apparatus 101 focuses on the tissue in the specimen 910 of the preparation 208 according to the assumed acquisition surface 901 generated in step S403. At this time, it is desirable to adjust the position of the focal plane using the calibration data acquired in step S421. Thereafter, the imaging unit 213 captures a tile image and stores the image data in the storage device 303. In the image data, the position information of the focal plane when the tile image is captured is recorded in the header portion. Alternatively, it may be recorded separately in the storage device 303 in association with the image data.

ステップS405では、ステージ制御系205が、ステップS401で決定した移動順に従って、ステージ204を駆動させ、次に撮像するタイルへ移動する。移動後のタイル、つまりこれからタイル画像の撮像を試みるタイルを以後、現在位置タイルと称する。なお、これは、後述の焦点面の位置補正の工程において、上述の被補正タイル(第1の領域)921に相当する。   In step S405, the stage control system 205 drives the stage 204 according to the movement order determined in step S401, and moves to the next tile to be imaged. Hereinafter, the tile after movement, that is, the tile from which a tile image is to be captured will be referred to as a current position tile. This corresponds to the above-described corrected tile (first region) 921 in the focal plane position correction process described later.

ステップS406では、取得部218が、タイル画像のデータを取得済みのタイルの内、現在位置タイルに隣接しているタイル全ての中に、現在位置タイルとの重複領域922内に検体910が存在しているものがあるかを判断する。検体910が存在しているタイルがあればステップS408へ、1つもなければステップS407へ移行する。   In step S406, the acquisition unit 218 includes the sample 910 in the overlapping area 922 with the current position tile among all the tiles that have acquired the tile image data and are adjacent to the current position tile. Determine what you have. If there is a tile in which the sample 910 exists, the process proceeds to step S408, and if there is no tile, the process proceeds to step S407.

ステップS407では、取得部218が、現在位置タイルのIDをスキップリストに登録する。ステップS406で重複領域922に検体なしと判断されたタイルは、焦点面の位置変動を補正できない。そこで現工程ステップでのタイル画像の撮像は行わず、スキップリストに登録し、後段の工程にてタイル画像の撮像を再度試みる。   In step S407, the acquisition unit 218 registers the ID of the current position tile in the skip list. The tile determined to have no specimen in the overlapping area 922 in step S406 cannot correct the focal plane position fluctuation. Therefore, the tile image is not captured in the current process step, but is registered in the skip list, and the tile image is retried in the subsequent process.

ステップS408では、取得部218が、予想位置を取得する。予想位置の取得に係る工程を図4(e)のフローチャートに示す。   In step S408, the acquisition unit 218 acquires the predicted position. The process for obtaining the predicted position is shown in the flowchart of FIG.

ステップS428では、取得部218が、ステップS406で判断した重複領域922内に検体910が存在するタイルを基準タイル920(第2の領域)として設定する。重複領域922内に検体910が存在するタイルが複数ある場合は、補正誤差の蓄積を低減するために、時系列的に最も過去に撮像したタイルを基準タイル920として設定する。   In step S428, the acquisition unit 218 sets a tile in which the sample 910 exists in the overlapping area 922 determined in step S406 as a reference tile 920 (second area). When there are a plurality of tiles in which the specimen 910 exists in the overlapping area 922, the tile that has been imaged most recently in time series is set as the reference tile 920 in order to reduce the accumulation of correction errors.

ステップS429では、取得部218は、ステップS428で設定した基準タイル920と被補正タイル921との重複領域922内の同一点における光軸方向の位置をそれぞれ取得又は検出し、比較する。この比較により、ステージ走り平行度の影響で発生する焦点面の位置変動の変動量を算出する。基準タイル920における焦点面の位置は、タイル画像を撮像した際の焦点面の位置の情報を画像のデータのヘッダ部または記憶装置303から読みだすことで取得することが処理速度の面から望ましい。   In step S429, the acquisition unit 218 acquires or detects and compares the positions in the optical axis direction at the same point in the overlapping area 922 of the reference tile 920 and the corrected tile 921 set in step S428. By this comparison, the fluctuation amount of the positional fluctuation of the focal plane that occurs due to the influence of the stage running parallelism is calculated. It is desirable from the viewpoint of processing speed that the position of the focal plane in the reference tile 920 is obtained by reading information on the position of the focal plane when the tile image is captured from the header portion of the image data or the storage device 303.

ステップS430では、取得部218が、ステップS429で算出した変動量と、ステップS402で取得した焦点面の傾きパラメータと、を用いて予想位置を算出する。予想位置は、焦点面の位置変動を補正し、かつ焦点面の傾きの影響を加味した場合の被補正タイル921における予想焦点面931内の任意の位置における位置である。   In step S430, the acquisition unit 218 calculates the predicted position using the variation amount calculated in step S429 and the focal plane tilt parameter acquired in step S402. The predicted position is a position at an arbitrary position in the predicted focal plane 931 on the corrected tile 921 when the focal plane position variation is corrected and the influence of the focal plane tilt is taken into consideration.

ステップS409では、取得部219が、実際に撮像センサ231で撮像する撮像位置を補正するための処理を行う。撮像位置の調整に係る工程を図4(f)のフローチャートに示す。   In step S409, the acquisition unit 219 performs a process for correcting the imaging position where the imaging sensor 231 actually captures an image. The process for adjusting the imaging position is shown in the flowchart of FIG.

ステップS431では、取得部219は、ステップS403で生成部217が生成した想定取得面901とステップS408で取得部281が取得した予想位置との比較を行い、互いのズレ量を算出する。ズレ量の算出は、任意のXY位置での予想位置と、同じXY位置での想定取得面901によって構成される焦点面の位置との差を取る。補正精度を上げるため、複数のXY位置で差を取ることが望ましい。複数の差を取る場合、焦点面の傾きの影響を確実に捉えるために、被補正タイル921の外周部について行うことが望ましい。例えば、被補正タイル921が矩形であれば、その四隅で行うことが望ましい。取得した複数の差の中で最大のものをズレ量とする。   In step S431, the acquisition unit 219 compares the assumed acquisition surface 901 generated by the generation unit 217 in step S403 with the predicted position acquired by the acquisition unit 281 in step S408, and calculates the amount of deviation. The shift amount is calculated by taking the difference between the predicted position at an arbitrary XY position and the position of the focal plane formed by the assumed acquisition surface 901 at the same XY position. In order to increase the correction accuracy, it is desirable to take a difference at a plurality of XY positions. In the case of taking a plurality of differences, it is desirable to carry out the outer peripheral portion of the corrected tile 921 in order to reliably capture the influence of the focal plane tilt. For example, if the tile to be corrected 921 is rectangular, it is desirable to perform it at the four corners. The largest difference among the acquired differences is taken as the amount of deviation.

ステップS432では、取得部219は、ステップS431で算出したズレ量を、結像光学部209の被写界深度と比較する。ズレ量が被写界深度より小さければステップS433へ、大きければステップS434へ移行する。   In step S432, the acquisition unit 219 compares the amount of deviation calculated in step S431 with the depth of field of the imaging optical unit 209. If the amount of deviation is smaller than the depth of field, the process proceeds to step S433, and if larger, the process proceeds to step S434.

ステップS433では、取得部219は、ステップS432で算出したズレ量に基づいて、予想位置をズレ量の分だけ想定取得面901に近づけた位置にステージ204を駆動し、タイル画像撮像時の焦点面の位置の変更を行う。   In step S433, the acquisition unit 219 drives the stage 204 to a position where the expected position is brought closer to the assumed acquisition plane 901 by the amount of deviation based on the amount of deviation calculated in step S432, and the focal plane at the time of capturing the tile image. Change the position of.

ステップS434では、取得部219は、ステップ428で基準タイル920の画像のデータから取得した重複領域922における焦点面の位置から被写界深度の分だけ、予想位置を想定取得面901に近づけた場合の位置を算出する。この位置の算出結果をもって予想位置の更新を行う。   In step S434, the acquisition unit 219 brings the predicted position closer to the assumed acquisition plane 901 by the depth of field from the focal plane position in the overlapping area 922 acquired from the image data of the reference tile 920 in step 428. The position of is calculated. The predicted position is updated based on the calculation result of this position.

ステップS435では、取得部219は、ステップS434で更新した予想位置の全てが、想定取得面901を中心とした被写界深度の範囲内に収まるように、被補正タイル921のXY位置を変更して重複領域922を拡大する。なお、重複領域922の拡大においては、タイルサイズの変更は行わず、被補正タイル921のXY位置の平行移動で行う。取得部219は、この際の平行移動による焦点面の位置の変更量を補正量として取得する。すなわち、取得部219は、ステップS434、S435において、予想位置が被写界深度の範囲内となるように、光軸方向及び光軸方向と垂直な方向に被補正タイル921を移動するためのステージ204の位置の変更量を補正量とする。   In step S435, the acquisition unit 219 changes the XY position of the corrected tile 921 so that all of the predicted positions updated in step S434 are within the range of the depth of field around the assumed acquisition surface 901. The overlapping area 922 is enlarged. Note that the enlargement of the overlapping area 922 is not performed by changing the tile size, but by the parallel movement of the XY position of the corrected tile 921. The acquisition unit 219 acquires the amount of change of the focal plane position due to the parallel movement at this time as a correction amount. In other words, in steps S434 and S435, the acquisition unit 219 moves the corrected tile 921 in the optical axis direction and the direction perpendicular to the optical axis direction so that the predicted position is within the range of the depth of field. The amount of change in position 204 is set as a correction amount.

ステップS436では、取得部219は、ステップS435で算出したタイルXY位置の平行移動量に基づいて、ステップS416で設定した撮像範囲のタイル分割状況を更新する。この際、タイルのXY位置の変更によって、撮像範囲内にタイルが割り当てられていない領域、つまり撮像されない領域(欠落領域)が発生する場合、欠落領域に新たにタイルを割り当てる。新たなタイルは、タイルサイズを他のタイルと同一とし、他のタイルとの重複領域の大きさを調整することで欠落領域をカバーさせる。   In step S436, the acquisition unit 219 updates the tile division state of the imaging range set in step S416 based on the parallel movement amount of the tile XY position calculated in step S435. At this time, if an area where no tile is assigned within the imaging range, that is, an area where no image is captured (missing area) occurs due to a change in the XY position of the tile, a new tile is allocated to the missing area. The new tile has the same tile size as the other tiles, and covers the missing area by adjusting the size of the overlapping area with the other tiles.

ステップS437では、ステージ制御系205が、ステップS434、S435の算出結果に基づいて、ステージ204を駆動させ、ステージ204は、XY位置又は焦点位置を変更する。   In step S437, the stage control system 205 drives the stage 204 based on the calculation results of steps S434 and S435, and the stage 204 changes the XY position or the focal position.

ステップS410では、撮像センサ231が被補正タイルを撮像してタイル画像のデータを取得する。ステップS404と同様に、画像データを記憶装置303に蓄える。画像データにはタイル画像を撮像した際の焦点面の位置の情報をヘッダ部に記録しておく。もしくは画像データと関連付けて別個に記憶装置303に記録してしても良い。ステップS411では、サブ制御系208が、スキップリストに登録したタイル以外のすべてのタイルについて撮像を行ったか判断する。すべてのタイルで撮像を行っていればステップS412へ、まだ撮像を行っていないタイルがあればステップS405へ移行する。   In step S410, the image sensor 231 captures the tile to be corrected and acquires tile image data. Similar to step S <b> 404, the image data is stored in the storage device 303. In the image data, information on the position of the focal plane when the tile image is captured is recorded in the header portion. Alternatively, it may be recorded separately in the storage device 303 in association with the image data. In step S411, the sub-control system 208 determines whether all tiles other than the tiles registered in the skip list have been imaged. If all tiles have been imaged, the process proceeds to step S412. If there is a tile that has not yet been imaged, the process proceeds to step S405.

ステップS412では、装置101が、ステップS407でスキップリストに登録されたタイル(スキップタイル)の再撮像を行う。スキップタイルの再撮像に係る工程を図4(g)のフローチャートに示す。   In step S412, the apparatus 101 performs re-imaging of the tile (skip tile) registered in the skip list in step S407. A process related to re-imaging of the skip tile is shown in the flowchart of FIG.

ステップS438では、スキップリストよりスキップタイルのXY位置を読み込み、ステージ制御系205が、ステージXY位置を変更する。この際、時系列的に新しく登録されたタイルから撮像されるようにすること(いわゆるLast In First Out)が、ステージ204の移動にかかる時間を短縮できるため、望ましい。ステップS439はステップS406と同様に、取得部218が、タイル画像撮像済みのタイルの内、現在位置タイルに隣接しているタイルについて、現在位置タイルとの重複領域に検体910が存在しているものがあるか判断する。検体910があればステップS408へ、1つもなければステップS440へ移行する。   In step S438, the XY position of the skip tile is read from the skip list, and the stage control system 205 changes the stage XY position. At this time, it is desirable to capture an image from a newly registered tile in time series (so-called Last In First Out), because the time required for moving the stage 204 can be shortened. In step S439, as in step S406, the acquisition unit 218 has a sample 910 in the overlapping area with the current position tile of tiles that have been captured by the tile image and that are adjacent to the current position tile. Determine if there is. If there is a sample 910, the process proceeds to step S408. If there is no sample 910, the process proceeds to step S440.

ステップS408、S409は上述したステップと同様、補正部216が、タイル画像の撮像位置の補正のための処理を行う。ただし、欠落領域が発生し、新たにタイルを割り当てた場合、サブ制御系228は、ステップS436においてタイルの分割状況の更新を行い、また、新たなタイルのXY位置をスキップリストに追加する。   In steps S <b> 408 and S <b> 409, the correction unit 216 performs processing for correcting the imaging position of the tile image as in the above-described steps. However, if a missing area occurs and a new tile is assigned, the sub-control system 228 updates the division status of the tile in step S436, and adds the XY position of the new tile to the skip list.

ステップS440では、取得部218が、現在位置タイル内に検体910が存在するか判断する。検体910が存在しない場合、現在位置タイルは空白タイルとみなす。この場合、隣接タイルとのつながりを考慮する必要がないため、撮像位置調整を行わずにステップS410へ移行する。検体910が存在する場合、ステップS441へ移行する。   In step S440, the acquisition unit 218 determines whether the sample 910 exists in the current position tile. When the sample 910 does not exist, the current position tile is regarded as a blank tile. In this case, since it is not necessary to consider the connection with adjacent tiles, the process proceeds to step S410 without adjusting the imaging position. If the sample 910 exists, the process proceeds to step S441.

現在位置タイル内の検体910は、すべての隣接タイルとの重複領域には検体910が存在しないことから、タイルサイズ未満の大きさであり、かつ周囲の検体910から孤立した状態であるとみなせる。そのため、隣接タイルとのつながりを考慮する必要がないため、ステップS441では、個別に上述の方法を用いて位置検出を行い、焦点面の位置にステージ204を移動する。   The sample 910 in the current position tile has a size smaller than the tile size and can be regarded as being isolated from the surrounding samples 910 because the sample 910 does not exist in the overlapping area with all adjacent tiles. Therefore, since it is not necessary to consider the connection with adjacent tiles, in step S441, the position is individually detected using the above-described method, and the stage 204 is moved to the position of the focal plane.

ステップS410では、撮像センサ231は、現在位置タイルを撮像する。ステップS442では、サブ制御系228は、スキップリストに登録したすべてのタイルにおいて撮像を行ったか判断する。すべてのタイルで撮像を行っていればステップS413へ、まだ撮像を行っていないタイルがあればステップS438へ移行する。   In step S410, the image sensor 231 images the current position tile. In step S442, the sub-control system 228 determines whether imaging has been performed for all tiles registered in the skip list. If all tiles have been imaged, the process proceeds to step S413. If there is a tile that has not yet been imaged, the process proceeds to step S438.

以降のステップは、補正部220、処理部221並びに生成部227での処理となる。ステップS413では、まず、補正部220が記憶装置303より各タイル画像のデータを取得する。タイル画像のデータに対し、コーナー検出法(Harris法など)又はSURF(Speeded Up Robust Features)法等の公知な方法によって、タイル画像間のXY方向の位置ずれを補正する。位置ずれを補正したタイル画像のデータに対し、調整部222がゲイン調整を施す。次に、ゲイン調整されたタイル画像のデータを理部223でつなぎ合わせる。その後、つなぎ合わせて生成された被写体208の画像のデータをもとに、生成部224が色再現画像の生成を行う。生成部224は、ステップS401でユーザによって入力された色再現情報か、あらかじめ記憶装置303に蓄えられていた色再現情報に基づいて色再現画像を生成する。さらに、処理部225で処理を行い、色再現画像のデータを生成する。   The subsequent steps are processing in the correction unit 220, the processing unit 221, and the generation unit 227. In step S413, first, the correction unit 220 acquires data of each tile image from the storage device 303. The tile image data is corrected for positional deviation in the XY direction between tile images by a known method such as a corner detection method (such as the Harris method) or a SURF (Speeded Up Robust Features) method. The adjustment unit 222 performs gain adjustment on the tile image data in which the positional deviation is corrected. Next, the data of the tile images whose gains have been adjusted are connected by the logic unit 223. After that, the generation unit 224 generates a color reproduction image based on the image data of the subject 208 generated by joining. The generation unit 224 generates a color reproduction image based on the color reproduction information input by the user in step S401 or the color reproduction information stored in the storage device 303 in advance. Further, the processing unit 225 performs processing to generate color reproduction image data.

ステップS414では、処理部226が、ステップS415で生成した色再現画像のデータを圧縮し、圧縮したデータを生成部227及び記憶装置303に送る。生成部227は、圧縮したデータを用いて表示データを生成し、表示装置104へ出力する。処理部226における処理と処理部227における処理とは同時並行で進めてもよい。   In step S414, the processing unit 226 compresses the color reproduction image data generated in step S415, and sends the compressed data to the generation unit 227 and the storage device 303. The generation unit 227 generates display data using the compressed data and outputs the display data to the display device 104. The processing in the processing unit 226 and the processing in the processing unit 227 may proceed in parallel.

以上のように、本実施形態では、ステージ204移動時の焦点面の位置の変化を隣接するタイル同士の重複領域における焦点面の位置の差から補正しつつ、想定取得面901に焦点面を近づけることができる。これにより、ステージ走り平行度の影響による焦点面の位置変動や、ステージ204と撮像センサ231との間の相対的な傾きによって発生する焦点面の検体からの乖離及びタイル画像同士の継ぎ目におけるアーチファクトを低減できる。結果として、タイル画像合成時の継ぎ目に発生するアーチファクトが抑制された高品質な画像を効率的にかつ精度よく取得することができる。   As described above, in this embodiment, the focal plane is brought closer to the assumed acquisition plane 901 while the change in the focal plane position when the stage 204 is moved is corrected from the difference in focal plane position in the overlapping area between adjacent tiles. be able to. As a result, the focal plane position variation due to the influence of the parallelism of the stage running, the deviation of the focal plane from the specimen caused by the relative inclination between the stage 204 and the imaging sensor 231, and the artifacts at the joint between the tile images are eliminated. Can be reduced. As a result, it is possible to efficiently and accurately acquire a high-quality image in which artifacts generated at the joints at the time of tile image synthesis are suppressed.

(第2の実施形態)
本実施形態の画像取得装置の構成は、第1の実施形態と同様である。本実施形態の画像取得方法は、第1の実施形態の画像取得方法に、プレ撮像を行うステップを加えるものである。また、タイル画像の取得の際に、光軸方向に異なる複数の位置で撮像を行い、複数のタイル画像のデータを取得する。第1の実施形態の画像取得方法と異なる点についてのみ説明する。
(Second Embodiment)
The configuration of the image acquisition apparatus of this embodiment is the same as that of the first embodiment. The image acquisition method of this embodiment adds a step of performing pre-imaging to the image acquisition method of the first embodiment. Further, when acquiring tile images, imaging is performed at a plurality of positions different in the optical axis direction, and data of a plurality of tile images is acquired. Only differences from the image acquisition method of the first embodiment will be described.

本実施形態では、第1の実施形態におけるタイル画像の撮像を開始する前、具体的にはステップS401に、結像光学部209として撮像範囲全体を捉えられるような低倍率の対物レンズを用いて、被写体208の撮像範囲全体を撮像するプレ撮像を組み込む。プレ撮像によって得られた撮像範囲全体の画像のデータを用いることで、想定取得面901の生成における焦点検出XY位置の決定において、検体910の存在の判定を行うステップ(S423、S424、S425)等を削減できる。また、第1の実施形態では逐次行っていた基準タイル920の設定(S428)、およびスキップリストへの登録(S407)を撮像開始前に一括して行うことが可能となる。以上の様に、プレ撮像を組み込むことによって、より高速に画像を取得することが可能となる。   In the present embodiment, before starting the imaging of the tile image in the first embodiment, specifically, in step S401, a low-magnification objective lens that can capture the entire imaging range as the imaging optical unit 209 is used. In addition, pre-imaging that captures the entire imaging range of the subject 208 is incorporated. Steps for determining the presence of the specimen 910 in determining the focus detection XY position in generating the assumed acquisition plane 901 by using image data of the entire imaging range obtained by pre-imaging (S423, S424, S425), etc. Can be reduced. In addition, the setting of the reference tile 920 (S428) and the registration to the skip list (S407), which were sequentially performed in the first embodiment, can be performed collectively before the start of imaging. As described above, by incorporating pre-imaging, an image can be acquired at a higher speed.

また、第1の実施形態では、想定取得面901と予想位置とのズレを任意のXY一での予想位置と、同じXY位置での想定取得面901によって構成される焦点面の位置との差を取ることが行った。本実施形態では、ズレを想定取得面と予想位置によって構成される面とがなす角の大きさを用いて算出する。この場合、想定取得面と予想位置とがなす角の大きさをパラメータとして保持しておけばよい。これにより、想定取得面と予想位置それぞれの焦点面の位置を常時保持しておく必要が無くなり、焦点面の位置の情報を格納する例えばRAM302等の記憶媒体の容量を節約できる。この方法は特に、想定取得面の面積及びタイルの面積が大きくなるほど効果を発揮する。   In the first embodiment, the difference between the expected acquisition plane 901 and the expected position is the difference between the expected position at an arbitrary XY position and the position of the focal plane formed by the assumed acquisition plane 901 at the same XY position. Went to take. In the present embodiment, the deviation is calculated using the size of the angle formed between the assumed acquisition surface and the surface constituted by the expected position. In this case, the size of the angle formed between the assumed acquisition surface and the expected position may be held as a parameter. As a result, it is not necessary to always hold the focal plane positions of the assumed acquisition plane and the expected position, and the capacity of a storage medium such as the RAM 302 for storing the focal plane position information can be saved. This method is particularly effective as the area of the assumed acquisition surface and the area of the tile increase.

さらに、第1の実施形態では、想定取得面901と予想位置とに被写界深度以上のズレが存在する場合、被補正タイル921のXY位置を移動して、重複領域922の面積を調整する。これにより、予想位置が想定取得面901から被写界深度内に収まるようにしていた。本実施形態では、この被写界深度以上のズレへの対応方法として、光軸方向に異なる複数の位置において複数のタイル画像(Zスタック画像)を取得する。取得した複数のタイル画像から、ズレが被写界深度以下のものを抽出する。この方法では、第1の実施形態のように欠落領域を無くすために撮像画像の分割状況の更新及び新たに割り当てたタイル画像の取得を行う必要がない。そのため、検体910が前記被写界深度以上のズレが多数発生するようなうねりの強いものであっても、取得するタイル画像のデータが最終的に低減でき、より高速に画像を取得することが可能となる。   Further, in the first embodiment, when there is a shift greater than the depth of field between the assumed acquisition surface 901 and the predicted position, the area of the overlapping region 922 is adjusted by moving the XY position of the corrected tile 921. . As a result, the expected position falls within the depth of field from the assumed acquisition surface 901. In the present embodiment, as a method for dealing with the shift beyond the depth of field, a plurality of tile images (Z stack images) are acquired at a plurality of positions different in the optical axis direction. From the acquired plurality of tile images, those whose deviation is equal to or smaller than the depth of field are extracted. In this method, it is not necessary to update the division state of the captured image and acquire a newly assigned tile image in order to eliminate the missing area as in the first embodiment. Therefore, even if the specimen 910 has a strong undulation that causes many deviations beyond the depth of field, the data of the tile image to be acquired can be finally reduced, and the image can be acquired at a higher speed. It becomes possible.

本実施形態では、第1の実施形態のように、ステージ204移動時の焦点面の位置の変化を隣接するタイル同士の重複領域における焦点面の位置の差から補正しつつ、想定取得面901に焦点面を近づけることができる。これにより、アーチファクトを低減した画像を効率的に取得できる。   In the present embodiment, as in the first embodiment, the change in the position of the focal plane when the stage 204 is moved is corrected from the difference in the focal plane position in the overlapping area between adjacent tiles, while the assumption acquisition plane 901 is displayed. The focal plane can be brought closer. As a result, an image with reduced artifacts can be efficiently acquired.

(第3の実施形態)
本実施形態のWSI装置システムについて図5を参照して説明する。図5は、本実施形態のWSI装置システムの構成を説明する図である。このスライドスキャナシステムは、ネットワークを介して、顕微鏡装置501(以下、「装置501」と呼ぶ)と、専用処理ボードである画像処理装置502(以下、「装置502」と呼ぶ)を備えたコンピュータ503と、を接続する。被写体となるプレパラート208上の検体910の顕微鏡像を高解像かつ大サイズ(広画角)のデジタル画像として、取得するためのシステム構成である。
(Third embodiment)
The WSI apparatus system of this embodiment will be described with reference to FIG. FIG. 5 is a diagram for explaining the configuration of the WSI apparatus system of the present embodiment. The slide scanner system includes a microscope apparatus 501 (hereinafter referred to as “apparatus 501”) and an image processing apparatus 502 (hereinafter referred to as “apparatus 502”), which is a dedicated processing board, via a network. And connect. This is a system configuration for acquiring a microscope image of the specimen 910 on the preparation 208 serving as a subject as a high-resolution and large-size (wide angle of view) digital image.

WSI装置システムは、装置501、装置502、コンピュータ503、及び、表示装置104によって構成される。装置501とコンピュータ503との間は、ネットワーク504を介して、専用もしくは汎用I/FのLANケーブル505で接続され、コンピュータ503と表示装置104の間は、汎用のI/Fのケーブル106で接続される。   The WSI device system includes a device 501, a device 502, a computer 503, and a display device 104. The device 501 and the computer 503 are connected by a dedicated or general-purpose I / F LAN cable 505 via the network 504, and the computer 503 and the display device 104 are connected by a general-purpose I / F cable 106. Is done.

装置601は、第1の実施形態における装置101と同様の形態をとるが、ネットワーク接続用のLAN I/Fを備える点で異なる。装置502及び表示装置104の装置構成は第1の実施形態と同様である。コンピュータ503のハードウェア構成も第1の実施形態と同様であるが、LAN I/Fとネットワークを介して装置501と接続されている点で異なる。   The apparatus 601 takes the same form as the apparatus 101 in the first embodiment, but differs in that it includes a LAN I / F for network connection. The device configurations of the device 502 and the display device 104 are the same as those in the first embodiment. The hardware configuration of the computer 503 is the same as that of the first embodiment, but is different in that the computer 503 is connected to the device 501 via a LAN I / F and a network.

本実施形態の装置501及び装置502における焦点面の位置補正について図9を参照して説明する。本実施形態では、検体910が存在する範囲から定めた撮像範囲1010を複数のタイル1011に分割して撮像する。各タイル1011において光軸方向(Z軸方向)に異なる複数の位置で撮像したタイル画像を用いて、タイル画像を合成した際に全面で焦点の合った画像を取得する。なおこれ以降、各タイル1011における光軸方向の位置それぞれをZレイヤー1001、各Zレイヤーで取得した画像をZレイヤー画像、複数のZレイヤーをまとめてZスタック1002、複数のZレイヤー画像をまとめたものをZスタック画像と呼ぶ。装置501の補正部216は、タイル画像を合成した際に、全面で焦点の合った画像を取得できるように、Zスタック画像から画像の合成に用いるZレイヤー画像又はZレイヤー画像の一部を抽出する抽出部である。   The focal plane position correction in the apparatus 501 and the apparatus 502 of the present embodiment will be described with reference to FIG. In the present embodiment, the imaging range 1010 determined from the range in which the sample 910 exists is divided into a plurality of tiles 1011 and imaged. Using tile images captured at a plurality of positions different in the optical axis direction (Z-axis direction) in each tile 1011, an image focused on the entire surface when the tile images are combined is acquired. From this point onward, each position in the optical axis direction of each tile 1011 is a Z layer 1001, images acquired by each Z layer are Z layer images, a plurality of Z layers are combined, a Z stack 1002, and a plurality of Z layer images are combined. Things are called Z-stack images. The correction unit 216 of the apparatus 501 extracts a Z layer image or a part of the Z layer image used for image synthesis from the Z stack image so that when the tile images are synthesized, an image focused on the entire surface can be acquired. This is an extraction unit.

本実施形態では、第1の実施形態と補正部216における処理が異なる。具体的には、補正部216は、タイル画像撮像時ではなく、上述したZスタック画像を用いて、タイル画像の合成時に補正を実行する。各タイル1011におけるZスタック画像は装置501にて、あらかじめ撮像し、記憶装置303等に蓄えておく。なお、Zスタック画像の取得に係る工程の詳細な説明は割愛する。   In the present embodiment, processing in the correction unit 216 is different from that in the first embodiment. Specifically, the correction unit 216 uses the above-described Z stack image to perform correction at the time of tile image synthesis, not at the time of tile image capture. The Z stack image in each tile 1011 is captured in advance by the device 501 and stored in the storage device 303 or the like. A detailed description of the process related to acquisition of the Z stack image is omitted.

次に、装置502は、撮像済みのZスタック画像を取得する。補正部216は、Zスタック画像を撮像した際のタイル1011のステージXY位置情報とZスタック画像より検出した焦点面の位置情報を用いて、想定取得面901を生成する。続いて、補正部216は、生成した想定取得面901の光軸方向に、対物レンズの被写界深度分の幅を持たせ、想定取得範囲とする。Zスタック画像を構成している光軸方向に異なる複数の位置それぞれで撮像されたZレイヤー画像について、焦点面が想定取得範囲に収まっているZレイヤー画像又は画像の一部を抽出する。これを各タイル1011について行い、抽出した画像を合成して、上述したように全面に焦点の合った画像を取得する。   Next, the apparatus 502 acquires a captured Z stack image. The correction unit 216 generates the assumed acquisition plane 901 using the stage XY position information of the tile 1011 when the Z stack image is captured and the focal plane position information detected from the Z stack image. Subsequently, the correcting unit 216 gives a width corresponding to the depth of field of the objective lens in the optical axis direction of the generated assumed acquisition surface 901 to obtain an assumed acquisition range. For a Z layer image captured at each of a plurality of positions different in the optical axis direction constituting the Z stack image, a Z layer image or a part of the image whose focal plane is within the assumed acquisition range is extracted. This is performed for each tile 1011 and the extracted images are combined to obtain an image focused on the entire surface as described above.

Zスタック画像を用いた焦点面の位置補正に係る工程を図6(a)から図6(e)のフローチャートを用いて説明する。なお、本実施形態のRAM302には、図6(a)から図6(e)のフローチャートに対応するプログラムが記憶されており、CPU301がそれを読み込んで実行することで各処理が行われる。   A process related to focal plane position correction using a Z stack image will be described with reference to the flowcharts of FIGS. Note that a program corresponding to the flowcharts of FIGS. 6A to 6E is stored in the RAM 302 of the present embodiment, and each process is performed by the CPU 301 reading and executing the program.

ステップS601では、メイン制御系214が、Zスタック画像を撮像した際の撮像条件を取得する。撮像条件は、例えば、プレパラート208上の撮像範囲、タイルの分割状況、上述したタイルID番号と、ID番号に関連付けられたステージXY位置情報、撮像時の焦点面の位置情報などである。また、撮像センサの露光時間、撮像に使用するフィルターやそれらの透過波長帯、等色関数などの色再現情報を含めても良い。これら撮像条件は、メイン制御系214が、記憶装置303等から、サブ制御系228を通して取得する。その他にネットワーク504を介して、遠隔地にあるサーバー等から取得しても良い。   In step S601, the main control system 214 acquires imaging conditions when a Z stack image is captured. The imaging conditions include, for example, the imaging range on the slide 208, the tile division status, the tile ID number, the stage XY position information associated with the ID number, and the focal plane position information at the time of imaging. Further, color reproduction information such as an exposure time of the image sensor, filters used for imaging, transmission wavelength bands thereof, and color matching functions may be included. These imaging conditions are acquired by the main control system 214 from the storage device 303 or the like through the sub control system 228. In addition, it may be acquired from a server or the like at a remote location via the network 504.

ステップS602では、補正部216が、記憶装置303等からZスタック画像のデータを取得する。上述した撮像条件の取得と同様に、ネットワーク504を介して、遠隔地にあるサーバー等から取得しても良い。ステップS402では、メイン制御系214が、焦点面の傾きパラメータを取得する。第1の実施形態と同様であるので説明は省略する。ステップS603では、生成部217が、想定取得面の生成を行う。想定取得面の生成に係る工程を図6(b)のフローチャートに示す。   In step S602, the correction unit 216 acquires Z stack image data from the storage device 303 or the like. Similar to the acquisition of the imaging condition described above, it may be acquired from a remote server or the like via the network 504. In step S402, the main control system 214 acquires a focal plane tilt parameter. Since it is the same as that of 1st Embodiment, description is abbreviate | omitted. In step S603, the generation unit 217 generates an assumed acquisition surface. The process related to the generation of the assumed acquisition surface is shown in the flowchart of FIG.

ステップS608では、生成部217が、想定取得面の生成を行う際に使用する焦点面の位置と前記位置を取得するXY位置(焦点検出XY位置)を決定する。焦点検出XY位置の決定に係る工程を図6(c)のフローチャートに示す。   In step S608, the generation unit 217 determines the position of the focal plane used when generating the assumed acquisition plane and the XY position (focus detection XY position) for acquiring the position. A process related to the determination of the focus detection XY position is shown in the flowchart of FIG.

ステップS611では、生成部217が、第1の実施形態と同様に、焦点検出XY位置の点数を設定する。ステップS612では、生成部217が、ステップS602で取得したタイルのZスタック画像に対して、焦点検出を行うタイルを仮決定する。仮決定するタイルは、第1の実施形態と同様の方法で決定する。ステップS613では、生成部217が、ステップS612で仮決定したタイルに検体910が存在するか判断する。検体910が存在していればステップS614へ、存在していなければステップS612へ移行する。   In step S611, the generation unit 217 sets the number of focus detection XY positions as in the first embodiment. In step S612, the generation unit 217 provisionally determines a tile for focus detection with respect to the Z stack image of the tile acquired in step S602. The tile to be provisionally determined is determined by the same method as in the first embodiment. In step S613, the generation unit 217 determines whether the sample 910 exists in the tile provisionally determined in step S612. If the sample 910 exists, the process proceeds to step S614, and if not, the process proceeds to step S612.

ステップS614では、生成部217が、ステップS612で仮決定したタイルに対し、検体910が存在する領域に位置検出を行うためのタイル内焦点検出XY位置を設定する。タイル内焦点検出XY位置と、タイルを撮像した際のステージXY位置情報と、を用いて、焦点検出XY位置を求め想定取得面生成テーブルに記録する。   In step S614, the generation unit 217 sets an in-tile focus detection XY position for performing position detection in the region where the sample 910 exists, with respect to the tile provisionally determined in step S612. Using the in-tile focus detection XY position and the stage XY position information when the tile is imaged, the focus detection XY position is obtained and recorded in the assumed acquisition plane generation table.

ステップS615では、生成部217が、ステップS611で取得した点数だけ焦点検出XY位置が決定したか判断する。決定していればステップS604へ、決定していなければステップS609へ移行する。   In step S615, the generation unit 217 determines whether the focus detection XY position has been determined by the number of points acquired in step S611. If determined, the process proceeds to step S604, and if not determined, the process proceeds to step S609.

ステップS609では、生成部217が、ステップS608で決定した焦点検出XY位置において位置検出を行い、その結果を想定取得面生成テーブルに記録する。位置検出は、第1の実施形態と同様、パッチを用いて行う。ステップS610では、生成部217が、第1の実施形態と同様の方法で、想定取得面生成テーブルの記録に基づいて、想定取得面901を計算する。   In step S609, the generation unit 217 performs position detection at the focus detection XY position determined in step S608, and records the result in the assumed acquisition surface generation table. The position detection is performed using a patch as in the first embodiment. In step S610, the generation unit 217 calculates the assumed acquisition surface 901 based on the record of the assumed acquisition surface generation table by the same method as in the first embodiment.

ステップS604では、補正部216が、ステップS610で生成した想定取得面901に対し、光軸方向に結像光学部209の被写界深度分の幅を持たせた三次元空間における立体的な範囲を想定取得範囲として生成する。ステップS605では、補正部216が、1つのタイルについて取得したZスタック画像から、想定取得範囲に収まるZレイヤー画像を抽出する。Zレイヤー画像の抽出に係る工程を図6(d)のフローチャートに示す。   In step S604, the correction unit 216 has a three-dimensional range in a three-dimensional space in which the assumption acquisition plane 901 generated in step S610 has a width corresponding to the depth of field of the imaging optical unit 209 in the optical axis direction. Is generated as an assumed acquisition range. In step S605, the correction unit 216 extracts a Z layer image that falls within the assumed acquisition range from the Z stack image acquired for one tile. The process related to the extraction of the Z layer image is shown in the flowchart of FIG.

ステップS616では、補正部216が、ステップS601で取得した撮像時の焦点面の位置情報とステップS402で取得した焦点面の傾きパラメータとに基づいて、各Zレイヤー画像内の任意の位置における焦点面の位置(Zレイヤー焦点位置)を算出する。ステップS617では、補正部216が、ステップS616の算出結果と想定取得範囲とを比較し、各Zレイヤー画像を撮像した時の焦点面全体が想定取得範囲内に収まるZレイヤー画像が存在するかを判断する。存在すればステップS618へ、存在しなければステップS619へ移行する。   In step S616, based on the focal plane position information at the time of imaging acquired in step S601 and the focal plane tilt parameter acquired in step S402, the correction unit 216 has a focal plane at an arbitrary position in each Z layer image. Position (Z layer focal position) is calculated. In step S617, the correction unit 216 compares the calculation result of step S616 with the assumed acquisition range, and determines whether there is a Z layer image in which the entire focal plane when each Z layer image is captured is within the assumed acquisition range. to decide. If it exists, the process proceeds to step S618, and if it does not exist, the process proceeds to step S619.

ステップS618では、ステップS617での比較結果に基づいて、該当するZレイヤー画像を抽出する。ステップS619では、補正部216が、各Zレイヤー画像を撮像した際の焦点面が想定取得範囲内に収まっている面積が最も大きいZレイヤー画像から、想定取得範囲に収まっている部分の画像(部分画像1)のデータを抽出する。   In step S618, the corresponding Z layer image is extracted based on the comparison result in step S617. In step S619, the correction unit 216 captures an image of a portion that falls within the assumed acquisition range from the Z layer image in which the focal plane when each Z layer image is captured is within the assumed acquisition range (part Extract data of image 1).

ステップS620では、補正部216が、ステップS619で部分画像1のデータの抽出に用いたZレイヤー画像の1つ上もしくは1つ下、またはその両方の)Zレイヤー画像から想定取得範囲に収まっている部分の画像(部分画像2)のデータを抽出する。必要であれば、さらに光軸方向に異なる位置で取得したZレイヤー画像部分画像のデータを抽出する。この際、後段のステップS621における合成処理を効率的に行うため、部分画像1の一部分と部分画像2の一部分とが重複するように抽出すると良い。   In step S620, the correction unit 216 is within the assumed acquisition range from the Z layer image (one above, one below, or both) of the Z layer image used for extracting the data of the partial image 1 in step S619. Data of the partial image (partial image 2) is extracted. If necessary, data of Z layer image partial images acquired at different positions in the optical axis direction is further extracted. At this time, in order to efficiently perform the synthesizing process in the subsequent step S621, it is preferable to extract so that a part of the partial image 1 and a part of the partial image 2 overlap.

ステップS621では、処理部223が、ステップS619、S620で抽出された画像を合成する。合成する際の継ぎ合わせ処理は、上述した部分画像同士の重複領域を用いて、第1の実施形態で説明したタイル画像の継ぎ合わせ処理と同様の処理を行う。この合成画像を、ステップS618で抽出したZレイヤー画像に相当するものとして後段の処理を行う。   In step S621, the processing unit 223 combines the images extracted in steps S619 and S620. The joining process at the time of combining is performed by using the overlapping area between the partial images described above, and performing the same process as the joining process of tile images described in the first embodiment. Subsequent processing is performed assuming that this composite image corresponds to the Z layer image extracted in step S618.

ステップS606では、サブ制御系228が、ステップS601で取得した撮像条件に基づいて、すべてのタイルにてステップS605のZレイヤー画像の抽出が行われたか判断する。抽出が行われていればステップS413へ、行われていなければステップS607へ移行する。   In step S606, the sub-control system 228 determines whether or not the extraction of the Z layer image in step S605 has been performed for all tiles based on the imaging conditions acquired in step S601. If extraction has been performed, the process proceeds to step S413, and if not, the process proceeds to step S607.

ステップS607では、サブ制御系228が、ステップS601で取得した撮像条件に基づいて、まだZレイヤーの抽出が行われていないタイルを参照する。その後、参照したタイルについて、ステップS605の処理を行う。なお、本実施形態では、ステップS605からステップS607で1つずつのタイルについてZレイヤー抽出を行うシリアルな処理としたが、ステップS605をパラレル(複数のタイル1011について同時)に行っても良い。以降のステップS413、S414については、第1の実施形態と同様であるので説明を省略する。   In step S607, the sub-control system 228 refers to a tile for which a Z layer has not yet been extracted based on the imaging conditions acquired in step S601. Thereafter, the process of step S605 is performed on the referenced tile. In this embodiment, the Z layer extraction is performed for each tile in steps S605 to S607. However, step S605 may be performed in parallel (simultaneously for a plurality of tiles 1011). Since subsequent steps S413 and S414 are the same as those in the first embodiment, description thereof will be omitted.

以上のように、本実施形態では、あらかじめ撮像したZスタック画像より、想定取得範囲に収まるZレイヤー画像を抽出し、大画像を合成する。これにより、アーチファクトが抑制された高品質な画像を、効率的に取得できる。   As described above, in this embodiment, a Z layer image that falls within the assumed acquisition range is extracted from a Z stack image captured in advance, and a large image is synthesized. Thereby, it is possible to efficiently acquire a high-quality image in which artifacts are suppressed.

(その他の実施形態)
上述の実施形態では装置102を専用ボードとしてコンピュータ103に組み込む構成としたが、同様の機能をコンピュータ103上で実行するソフトウェアで実現してもよい。
(Other embodiments)
In the above-described embodiment, the apparatus 102 is incorporated in the computer 103 as a dedicated board. However, the same function may be realized by software executed on the computer 103.

また、第3の実施形態では、装置501で取得したZスタック画像データを、ネットワーク504上に配置したサーバーに記憶させておいてもよい。その場合、サーバー内のZスタック画像データを用いて、装置502並びにコンピュータ503で色再現画像を生成するシステム構成をとってもよい。   In the third embodiment, the Z stack image data acquired by the apparatus 501 may be stored in a server arranged on the network 504. In that case, a system configuration in which the device 502 and the computer 503 generate a color reproduction image using the Z stack image data in the server may be adopted.

上述の実施形態では、ステージ204の光軸方向における位置及び光軸方向と垂直な方向における位置を変更することにより、焦点面の位置と被写体との相対位置を変更した。しかし、これに限らず、撮像センサ及び結像光学部209の移動によって相対位置を変更することによって実現してもよい。また、焦点面と被写体との光軸方向における相対位置と、光軸方向と垂直な方向における相対位置と、を異なる変更部と用いて変更してもよい。   In the above-described embodiment, the relative position between the position of the focal plane and the subject is changed by changing the position of the stage 204 in the optical axis direction and the position in the direction perpendicular to the optical axis direction. However, the present invention is not limited to this, and the relative position may be changed by moving the imaging sensor and the imaging optical unit 209. Further, the relative position of the focal plane and the subject in the optical axis direction and the relative position in the direction perpendicular to the optical axis direction may be changed using different changing units.

また、上述の実施形態では、焦点面の位置を決定する際の画像の評価方法として、コントラストを用いている。評価方法はこれに限らず、各画素の勾配ベクトルを用いるTenenbaum Gradient法や、画像の情報量を用いるエントロピー法等の公知のオートフォーカスアルゴリズムで使用される評価手法を使用してもよい。   In the above-described embodiment, contrast is used as an image evaluation method for determining the position of the focal plane. The evaluation method is not limited to this, and an evaluation method used in a known autofocus algorithm such as a Tenenbaum Gradient method using a gradient vector of each pixel or an entropy method using an information amount of an image may be used.

タイル画像撮像時の焦点面の位置情報を、画像データのヘッダ部分に記録したが、別ファイルとして記憶装置やネットワーク上のリンク情報として格納してもよい。   Although the focal plane position information at the time of capturing the tile image is recorded in the header portion of the image data, it may be stored as a separate file as link information on a storage device or a network.

本発明の目的を、これまで説明してきた上述の各実施形態並びに、上述したその他の実施形態を組み合わせて実現してもよい。例えば、第1の実施形態において、装置101と装置102とは、第3の実施形態のようにネットワークを介して接続されていてもよい。また、各実施形態における様々な技術を適宜組み合わせることで得られる構成も本発明の範疇に属する。   The object of the present invention may be realized by combining the above-described embodiments described above and the other embodiments described above. For example, in the first embodiment, the device 101 and the device 102 may be connected via a network as in the third embodiment. A configuration obtained by appropriately combining various techniques in each embodiment also belongs to the category of the present invention.

また、本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。   Further, the present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus execute the program. It can also be realized by a process of reading and executing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

209 結像光学部
213 撮像部
217 面生成部
216 焦点位置補正部、抽出部
218 位置取得部
219 補正量取得部
209 Imaging optical unit 213 Imaging unit 217 Surface generation unit 216 Focus position correction unit, extraction unit 218 Position acquisition unit 219 Correction amount acquisition unit

Claims (18)

被写体を複数の領域ごとに撮像することにより前記被写体の画像を取得する画像取得装置であって、
前記被写体からの光を結像する結像光学部と、
前記被写体の像を撮像する撮像部と、
前記撮像部の撮像面と共役な焦点面と前記被写体との前記結像光学部の光軸方向における相対位置を変更する変更部と、
前記被写体の複数の位置それぞれにおける前記被写体の中の検体の前記光軸方向の位置を用いて想定取得面を生成する面生成部と、
第1の領域と隣接する第2の領域内の1つ又は複数の位置における前記第2の領域を撮像したときの前記焦点面の前記光軸方向の位置を用いて、前記第1の領域内の1つ又は複数の位置における前記焦点面の予想位置を取得する位置取得部と、
前記想定取得面の前記光軸方向の位置と前記予想位置との差を取得し、前記差と前記結像光学部の被写界深度とを比較した結果に基づいて、前記焦点面が前記想定取得面から前記被写界深度の範囲内になるように前記相対位置を補正するための補正量を取得する補正量取得部と、を有する
ことを特徴とする画像取得装置。
An image acquisition device that acquires an image of the subject by imaging the subject for each of a plurality of regions,
An imaging optical unit for imaging light from the subject;
An imaging unit that captures an image of the subject;
A changing unit that changes a relative position in the optical axis direction of the imaging optical unit between the imaging plane of the imaging unit and a focal plane conjugate with the subject;
A surface generation unit that generates an assumed acquisition surface using the position in the optical axis direction of the specimen in the subject at each of a plurality of positions of the subject;
In the first region, using the position of the focal plane in the optical axis direction when the second region is imaged at one or more positions in the second region adjacent to the first region. A position acquisition unit that acquires an expected position of the focal plane at one or a plurality of positions;
Based on the result of obtaining the difference between the position of the assumed acquisition surface in the optical axis direction and the expected position and comparing the difference with the depth of field of the imaging optical unit, the focal plane is assumed to be the assumed surface. An image acquisition apparatus comprising: a correction amount acquisition unit that acquires a correction amount for correcting the relative position so as to be within the range of the depth of field from an acquisition surface.
前記予想位置は、前記第2の領域を撮像したときの前記焦点面の前記光軸方向における前記位置から前記被写界深度の範囲内である
ことを特徴とする請求項1に記載の画像取得装置。
The image acquisition according to claim 1, wherein the expected position is within the range of the depth of field from the position in the optical axis direction of the focal plane when the second region is imaged. apparatus.
前記予想位置及び前記第2の領域を撮像したときの前記焦点面の前記光軸方向の前記位置は、前記第1の領域と前記第2の領域との重複領域内の同一点における取得される
ことを特徴とする請求項1に記載の画像取得装置。
The position in the optical axis direction of the focal plane when the predicted position and the second area are imaged is acquired at the same point in the overlapping area of the first area and the second area. The image acquisition apparatus according to claim 1.
前記位置取得部は、前記第2の領域を撮像したときの前記焦点面の前記光軸方向の前記位置及び前記焦点面の傾きに関する情報を用いて前記予想位置を取得する
ことを特徴とする請求項1乃至3のいずれか一項に記載の画像取得装置。
The position acquisition unit acquires the predicted position using information regarding the position of the focal plane in the optical axis direction and the tilt of the focal plane when the second region is imaged. Item 4. The image acquisition device according to any one of Items 1 to 3.
前記差は、前記1つ又は複数の位置における前記想定取得面の前記光軸方向の位置と、前記1つ又は複数の位置における前記予想位置との差であり、
前記補正量取得部は、前記差と前記被写界深度とを比較し、前記差が前記被写界深度以下の場合は、前記差を前記補正量とする
ことを特徴とする請求項1乃至4のいずれか一項に記載の画像取得装置。
The difference is a difference between the position in the optical axis direction of the assumed acquisition surface at the one or more positions and the expected position at the one or more positions,
The correction amount acquisition unit compares the difference with the depth of field, and if the difference is equal to or less than the depth of field, the difference is used as the correction amount. 5. The image acquisition device according to any one of 4.
前記差が前記被写界深度より大きい場合は、
(i)前記補正量取得部は、前記差が前記被写界深度以下となるように前記光軸方向及び前記光軸方向と垂直な方向における前記相対位置を変更する変更量を前記補正量とする、又は、
(ii)前記撮像部は、前記光軸方向に異なる複数の位置で前記第1の領域を撮像して複数の画像を取得し、前記補正量取得部は、前記複数の画像から前記想定取得面との差が前記被写界深度以下となる画像を抽出する
ことを特徴とする請求項5に記載の画像取得装置。
If the difference is greater than the depth of field,
(I) The correction amount acquisition unit sets a change amount for changing the relative position in the optical axis direction and the direction perpendicular to the optical axis direction as the correction amount so that the difference is equal to or less than the depth of field. Or
(Ii) The imaging unit captures the first region at a plurality of different positions in the optical axis direction to acquire a plurality of images, and the correction amount acquisition unit acquires the assumed acquisition surface from the plurality of images. The image acquisition apparatus according to claim 5, wherein an image in which a difference between the two is less than the depth of field is extracted.
前記差は、複数の前記予想位置を含む予想焦点面と前記想定取得面とがなす角の大きさを用いて取得される
ことを特徴とする請求項1乃至4のいずれか一項に記載の画像取得装置。
5. The difference according to claim 1, wherein the difference is acquired using a magnitude of an angle formed between an expected focal plane including a plurality of the expected positions and the assumed acquisition plane. Image acquisition device.
被写体を複数の領域ごとに撮像することにより前記被写体の画像を取得する画像取得装置であって、
前記被写体からの光を結像する結像光学部と、
前記被写体の像を撮像する撮像部と、
前記撮像部の撮像面と共役な焦点面と前記被写体との前記結像光学部の光軸方向における相対位置を変更する変更部と、
前記被写体の複数の異なる位置それぞれにおける前記被写体の中の検体の前記光軸方向における位置を用いて想定取得面を生成する面生成部と、
前記第1の領域の前記光軸方向に異なる複数の位置を前記撮像部で撮像することにより取得した複数の画像から、前記複数の画像それぞれを撮像した時の前記焦点面が前記想定取得面から前記結像光学部の被写界深度の範囲内に含まれ、且つ、前記第1の領域と隣接する第2の領域から前記被写界深度の範囲内に含まれる画像又は前記複数の画像の一部を抽出する抽出部と、を有する
ことを特徴とする画像取得装置。
An image acquisition device that acquires an image of the subject by imaging the subject for each of a plurality of regions,
An imaging optical unit for imaging light from the subject;
An imaging unit that captures an image of the subject;
A changing unit that changes a relative position in the optical axis direction of the imaging optical unit between the imaging plane of the imaging unit and a focal plane conjugate with the subject;
A surface generation unit that generates an assumed acquisition surface using positions in the optical axis direction of the specimen in the subject at each of a plurality of different positions of the subject;
From the plurality of images acquired by imaging the plurality of different positions in the optical axis direction of the first region by the imaging unit, the focal plane when each of the plurality of images is captured from the assumed acquisition plane. An image included in the range of depth of field of the imaging optical unit, and an image included in the range of depth of field from the second region adjacent to the first region, or the plurality of images An image acquisition apparatus comprising: an extraction unit that extracts a part.
前記抽出部は、前記複数の画像それぞれを撮像した時の前記焦点面全体が前記想定取得面から前記被写界深度の範囲内に含まれる画像がある場合は画像を抽出し、前記焦点面全体が前記想定取得面から前記被写界深度の範囲内に含まれる画像がない場合は、前記複数の画像から前記焦点面が前記想定取得面から前記被写界深度の範囲内に含まれる部分を抽出して合成する
ことを特徴とする請求項8に記載の画像取得装置。
The extraction unit extracts an image when the entire focal plane when each of the plurality of images is captured is included in a range of the depth of field from the assumed acquisition plane, and extracts the entire focal plane If there is no image included in the range of depth of field from the assumed acquisition plane, a portion in which the focal plane is included in the range of depth of field from the assumed acquisition plane from the plurality of images. The image acquisition apparatus according to claim 8, wherein the image acquisition apparatus extracts and combines.
前記想定取得面は、前記被写体の中の検体が存在する範囲内における2つの点を結ぶ直線を含む平面であり、
前記2つの点のそれぞれは、前記撮像部と前記検体とが共役となる位置で、且つ、前記2つの点同士の距離は、前記複数の領域それぞれの長さより長い
ことを特徴とする請求項1乃至9のいずれか一項に記載の画像取得装置。
The assumed acquisition plane is a plane including a straight line connecting two points within a range where the specimen in the subject exists.
2. Each of the two points is a position where the imaging unit and the specimen are conjugate, and the distance between the two points is longer than the length of each of the plurality of regions. The image acquisition apparatus as described in any one of thru | or 9.
前記2つの点は、前記2つの点それぞれが配置されている領域それぞれにおいて、相対的に同一の位置に配置されている
ことを特徴とする請求項10に記載の画像取得装置。
The image acquisition apparatus according to claim 10, wherein the two points are arranged at relatively the same position in each of the regions where the two points are arranged.
前記想定取得面は、前記被写体の中の検体が存在する範囲内における3つ以上の点を含む平面であり、
前記3つ以上の点のそれぞれは、前記撮像部と前記検体とが共役となる位置で、且つ、前記3つ以上の点同士の距離は、前記複数の領域それぞれの長さより長い
ことを特徴とする請求項1乃至9のいずれか一項に記載の画像取得装置。
The assumed acquisition plane is a plane including three or more points within a range where the specimen in the subject exists.
Each of the three or more points is a position where the imaging unit and the specimen are conjugate, and the distance between the three or more points is longer than the length of each of the plurality of regions. The image acquisition device according to any one of claims 1 to 9.
前記3つの点は、前記3つの点それぞれが配置されている領域それぞれにおいて、相対的に同一の位置に配置されている
ことを特徴とする請求項12に記載の画像取得装置。
The image acquisition apparatus according to claim 12, wherein the three points are arranged at relatively the same position in each of the regions where the three points are arranged.
前記検体の前記光軸方向における位置は、前記面生成部が、キャリブレーションデータを用いてステージの走り平行度による前記焦点面の前記光軸方向の位置の変動を補正した位置である
ことを特徴とする請求項1乃至13のいずれか一項に記載の画像取得装置。
The position of the specimen in the optical axis direction is a position in which the surface generation unit corrects a variation in the position of the focal plane in the optical axis direction due to a stage parallelism using calibration data. The image acquisition device according to any one of claims 1 to 13.
前記検体の前記光軸方向における位置は、前記被写体の複数の異なる位置を含む範囲内で複数の前記検体の前記光軸方向における位置を取得し、前記複数の前記検体の前記光軸方向における位置を統計的に処理して取得した位置である
ことを特徴とする請求項1乃至13のいずれか一項に記載の画像取得装置。
The positions of the specimen in the optical axis direction are obtained by acquiring the positions of the specimen in the optical axis direction within a range including a plurality of different positions of the subject, and the positions of the plurality of specimens in the optical axis direction. The image acquisition device according to claim 1, wherein the image acquisition device is a position acquired by statistically processing the image.
被写体からの光を結像する結像光学部と前記被写体の像を撮像する撮像部とを有する撮像装置を用いて、前記被写体を複数の領域ごとに撮像することにより前記被写体の画像を取得する画像取得方法であって、
前記被写体の複数の異なる位置それぞれにおける前記被写体の中の検体の前記結像光学部の光軸方向における位置を用いて想定取得面を生成する面生成ステップと、
第1の領域と隣接する第2の領域内の1つ又は複数の位置における前記第2の領域を撮像したときの前記焦点面の前記光軸方向の位置を用いて、前記第1の領域内の1つ又は複数の位置における前記撮像部の撮像面と共役な焦点面の予想位置を取得する位置取得ステップと、
前記想定取得面の前記光軸方向の位置と前記予想位置との差を取得し、前記差と前記結像光学部の被写界深度とを比較した結果に基づいて、前記焦点面が前記想定取得面から前記被写界深度の範囲内になるように前記相対位置を補正するための補正量を取得する補正量取得ステップと、を有する
ことを特徴とする画像取得方法。
An image of the subject is obtained by imaging the subject for each of a plurality of regions using an imaging device having an imaging optical unit that images light from the subject and an imaging unit that captures an image of the subject. An image acquisition method,
A surface generation step of generating an assumed acquisition surface using a position in the optical axis direction of the imaging optical unit of the specimen in the subject at each of a plurality of different positions of the subject;
In the first region, using the position of the focal plane in the optical axis direction when the second region is imaged at one or more positions in the second region adjacent to the first region. A position acquisition step of acquiring an expected position of a focal plane conjugate with an imaging surface of the imaging unit at one or a plurality of positions;
Based on the result of obtaining the difference between the position of the assumed acquisition surface in the optical axis direction and the expected position and comparing the difference with the depth of field of the imaging optical unit, the focal plane is assumed to be the assumed surface. A correction amount acquisition step of acquiring a correction amount for correcting the relative position so as to be within the range of the depth of field from the acquisition plane.
被写体からの光を結像する結像光学部と前記被写体の像を撮像する撮像部とを有する撮像装置を用いて、前記被写体を複数の領域ごとに撮像することにより前記被写体の画像を取得する画像取得方法であって、
前記被写体の複数の異なる位置それぞれにおける前記被写体の中の検体の前記結像光学部の光軸方向における位置を用いて想定取得面を生成する面生成ステップと、
前記第1の領域の前記光軸方向に異なる複数の位置を前記撮像部で撮像することにより取得した複数の画像から、前記複数の画像それぞれを撮像した時の前記焦点面が前記想定取得面から前記結像光学部の被写界深度の範囲内に含まれ、且つ、前記第1の領域と隣接する第2の領域から前記被写界深度の範囲内に含まれる画像又は前記複数の画像の一部を抽出する抽出ステップと、を有する
ことを特徴とする画像取得方法。
An image of the subject is obtained by imaging the subject for each of a plurality of regions using an imaging device having an imaging optical unit that images light from the subject and an imaging unit that captures an image of the subject. An image acquisition method,
A surface generation step of generating an assumed acquisition surface using a position in the optical axis direction of the imaging optical unit of the specimen in the subject at each of a plurality of different positions of the subject;
From the plurality of images acquired by imaging the plurality of different positions in the optical axis direction of the first region by the imaging unit, the focal plane when each of the plurality of images is captured from the assumed acquisition plane. An image included in the range of depth of field of the imaging optical unit, and an image included in the range of depth of field from the second region adjacent to the first region, or the plurality of images An image acquisition method comprising: an extraction step of extracting a part.
請求項16又は17に記載の画像取得方法の各ステップをコンピュータに実行させるプログラム。   A program for causing a computer to execute each step of the image acquisition method according to claim 16 or 17.
JP2015054060A 2015-03-17 2015-03-17 Image acquisition device, and image acquisition method using the same Pending JP2016173511A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015054060A JP2016173511A (en) 2015-03-17 2015-03-17 Image acquisition device, and image acquisition method using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015054060A JP2016173511A (en) 2015-03-17 2015-03-17 Image acquisition device, and image acquisition method using the same

Publications (1)

Publication Number Publication Date
JP2016173511A true JP2016173511A (en) 2016-09-29

Family

ID=57009010

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015054060A Pending JP2016173511A (en) 2015-03-17 2015-03-17 Image acquisition device, and image acquisition method using the same

Country Status (1)

Country Link
JP (1) JP2016173511A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019088034A1 (en) * 2017-11-06 2019-05-09 富士フイルム株式会社 Observation area setting device, imaging control device, method for operating observation area setting device, and observation area setting program
CN116643393A (en) * 2023-07-27 2023-08-25 南京木木西里科技有限公司 Microscopic image deflection-based processing method and system
CN118014913A (en) * 2024-04-10 2024-05-10 中汽智联技术有限公司 Intelligent driving camera image rapid correction method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019088034A1 (en) * 2017-11-06 2019-05-09 富士フイルム株式会社 Observation area setting device, imaging control device, method for operating observation area setting device, and observation area setting program
JPWO2019088034A1 (en) * 2017-11-06 2020-11-19 富士フイルム株式会社 Observation area setting device, imaging control device, operation method of observation area setting device, and observation area setting program
CN116643393A (en) * 2023-07-27 2023-08-25 南京木木西里科技有限公司 Microscopic image deflection-based processing method and system
CN116643393B (en) * 2023-07-27 2023-10-27 南京木木西里科技有限公司 Microscopic image deflection-based processing method and system
CN118014913A (en) * 2024-04-10 2024-05-10 中汽智联技术有限公司 Intelligent driving camera image rapid correction method

Similar Documents

Publication Publication Date Title
US9088729B2 (en) Imaging apparatus and method of controlling same
US20120002032A1 (en) Information processing apparatus, stage-undulation correcting method, program therefor
CN109417602B (en) Image processing method, image processing apparatus, image capturing apparatus, and image capturing method
JP6414050B2 (en) Information processing apparatus, information processing method, and information processing program
US20140098213A1 (en) Imaging system and control method for same
JP6102749B2 (en) Information processing apparatus, imaging control method, program, digital microscope system, display control apparatus, display control method, and program
JP2011124948A (en) Information processor, method of processing information, program and image pickup device with optical microscope mounted thereon
US20120288157A1 (en) Image processing apparatus, image processing method, and image processing program
WO2013099141A1 (en) Image processing apparatus and system, method for processing image, and program
JP6147080B2 (en) Microscope system, method for determining bonded area, and program
JP2016125913A (en) Image acquisition device and control method of image acquisition device
US20140267675A1 (en) Digital microscope apparatus, imaging method therefor, and program
US20130016919A1 (en) Information processing apparatus, information processing method, and program
JP2012042669A (en) Microscope control device and optical distortion correction method
JP2016173511A (en) Image acquisition device, and image acquisition method using the same
WO2013100029A1 (en) Image processing device, image display system, image processing method, and image processing program
JP2015104105A (en) Image acquisition apparatus and image acquisition method
JP6029293B2 (en) Scanning electron microscope image processing apparatus and scanning method
WO2013175816A1 (en) Distance measurement apparatus
JP2016051167A (en) Image acquisition device and control method therefor
JP2005164707A (en) Cell measurement support system and cell observation apparatus
JP2016051168A (en) Image acquisition device and control method therefor
JP5730696B2 (en) Image processing apparatus and image display system
JP2017083790A (en) Image acquisition device and image acquisition method using the same
JP2014149381A (en) Image acquisition apparatus and image acquisition method