JP2013238483A - Virtual slide device - Google Patents

Virtual slide device Download PDF

Info

Publication number
JP2013238483A
JP2013238483A JP2012111498A JP2012111498A JP2013238483A JP 2013238483 A JP2013238483 A JP 2013238483A JP 2012111498 A JP2012111498 A JP 2012111498A JP 2012111498 A JP2012111498 A JP 2012111498A JP 2013238483 A JP2013238483 A JP 2013238483A
Authority
JP
Japan
Prior art keywords
region
image
sample
standard data
composition distribution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012111498A
Other languages
Japanese (ja)
Inventor
Yasuhiro Fukunaga
康弘 福永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2012111498A priority Critical patent/JP2013238483A/en
Publication of JP2013238483A publication Critical patent/JP2013238483A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To enable color correction to be performed with higher accuracy.SOLUTION: An imaging element 107 picks up an image formed on a first plane and acquires imaged data of an image of a first region. A color sensor 109 acquires spectral information of light guided to a second plane. A composition distribution detection unit 113 acquires composition distribution information of a sample 101 included in the first region and included in a third region including a second region on the basis of the image data acquired by the imaging element 107. A storage unit 114 stores a plurality of types of standard data items used in color correction of the image data. A standard data selection unit 115 selects a standard data item used in color correction from among the standard data items stored in the storage unit 114 on the basis of the composition distribution information of the sample 101 acquired by the composition distribution detection unit 113. An image file generation unit 111 performs color correction of the image data on the basis of the standard data item selected by the standard data selection unit 115 and the spectral information acquired by the color sensor 109.

Description

本発明は、バーチャルスライド装置に関する。   The present invention relates to a virtual slide device.

病理標本のスライド画像をデジタル撮影するバーチャルスライド装置において、色再現性を向上させる技術が特許文献1に記載されている。以下、特許文献1に記載のバーチャルスライド装置について説明する。   Patent Document 1 describes a technique for improving color reproducibility in a virtual slide device that digitally captures a slide image of a pathological specimen. Hereinafter, the virtual slide device described in Patent Document 1 will be described.

図3は、従来知られているバーチャルスライド装置1000の構成を示した概略図である。図示する例では、光源1001の光は、ステージ1005の上に配置されたサンプル1002を透過して、対物レンズ1003を透過して、ハーフミラー1009で分岐し、一方は視野範囲選択手段1011を通してカラーセンサ1010に入射する。また、ハーフミラー1009で分岐したもう一方の光は、デジタル撮影装置1004に入射する。   FIG. 3 is a schematic diagram illustrating a configuration of a conventionally known virtual slide apparatus 1000. In the illustrated example, the light from the light source 1001 passes through the sample 1002 disposed on the stage 1005, passes through the objective lens 1003, and is branched by the half mirror 1009. Incident on sensor 1010. The other light branched by the half mirror 1009 is incident on the digital photographing apparatus 1004.

撮影制御手段1006は、サンプル1002の部分画像撮影のために、ステージ1005と、デジタル撮影装置1004と、カラーセンサ1010とを制御する。具体的には、撮影制御手段1006は、ステージ1005を移動させながらデジタル撮影装置1004が画像を撮影し、同時にカラーセンサ1010がスペクトル情報を取得するように制御する。なお、撮影制御手段1006は、タイリング間ののりしろができるようにステージ1005(サンプル1002)を移動しながらデジタル撮影装置1004が画像を撮像するように制御する。   The photographing control unit 1006 controls the stage 1005, the digital photographing device 1004, and the color sensor 1010 for photographing a partial image of the sample 1002. Specifically, the image capturing control unit 1006 controls the digital image capturing apparatus 1004 to capture an image while moving the stage 1005, and at the same time, the color sensor 1010 acquires spectrum information. Note that the imaging control unit 1006 controls the digital imaging apparatus 1004 to capture an image while moving the stage 1005 (sample 1002) so that a margin between tilings can be made.

画像の貼り合わせ情報生成手段1007は、デジタル撮影装置1004から入力される部分画像の画像処理を行ってのりしろ部を認識し、画像の貼り合わせ情報を生成する。画像ファイル生成手段1008は、カラーセンサ1010の出力値と、予め保持している標準データとに基づいて、デジタル撮影装置1004が撮影した画像の色を補正する。例えば、病理サンプルの色は、染色液の染まり具合などによってサンプルごとにばらつく可能性がある。そこで、カラーセンサ1010の出力値と標準データとを用いて色補正を行うことによって、デジタル撮影装置1004が撮影した画像の色を適正に補正することができる。   The image combining information generating unit 1007 performs image processing on the partial image input from the digital photographing apparatus 1004 to recognize the margin, and generates image combining information. The image file generation unit 1008 corrects the color of the image captured by the digital image capturing device 1004 based on the output value of the color sensor 1010 and the standard data stored in advance. For example, the color of the pathological sample may vary from sample to sample depending on the degree of staining liquid staining. Therefore, by performing color correction using the output value of the color sensor 1010 and standard data, the color of the image captured by the digital imaging device 1004 can be corrected appropriately.

特開2011−99823号公報JP 2011-99823 A

しかしながら、従来知られているバーチャルスライド装置が備えるカラーセンサのスペクトル情報取得視野は、病理サンプルの細胞核や細胞質、腔などのスペクトル情報を分離して取得するために、デジタル撮影手段の撮像領域の例えば数%程度と小さい。さらに、カラーセンサのスペクトル情報取得視野は、例えばデジタル撮影装置の画像の中心付近に固定されており、病理サンプルに含まれる特定の組織のスペクトル情報を任意に選択して取得できるものではない。そのため、取得されたスペクトル情報から色補正をする際に、サンプルによっては色補正の精度が十分ではないという問題がある。   However, the spectral information acquisition visual field of the color sensor included in the conventionally known virtual slide device is, for example, an imaging region of the digital imaging means in order to separately acquire spectral information such as the cell nucleus, cytoplasm, and cavity of the pathological sample. As small as a few percent. Furthermore, the spectral information acquisition visual field of the color sensor is fixed, for example, in the vicinity of the center of the image of the digital imaging apparatus, and it is not possible to arbitrarily select and acquire the spectral information of a specific tissue included in the pathological sample. Therefore, when performing color correction from the acquired spectrum information, there is a problem that the accuracy of color correction is not sufficient depending on the sample.

本発明は上記の問題を解決するためになされたものであり、より高精度に色補正を行うことができるバーチャルスライド装置を提供することを目的とする。   The present invention has been made to solve the above problems, and an object thereof is to provide a virtual slide device capable of performing color correction with higher accuracy.

本発明は、サンプルを設置し、撮影領域に前記サンプルを順次提示するステージと、前記サンプルを照明する光源と、前記サンプルの全体領域に含まれる第1の領域の像を第1の平面に結像させ、前記第1の領域に含まれる第2の領域からの光を第2の平面に導入させる光学系と、前記第1の平面に結像された像を撮像し、前記第1の領域の像の画像データを取得する撮像素子と、前記第2の平面に導入された光のスペクトル情報を取得するカラーセンサと、前記撮像素子が取得した前記画像データに基づいて、前記第1の領域に含まれ前記第2の領域を含む第3の領域に含まれる前記サンプルの組成分布情報を取得する組成分布取得部と、前記組成の分布状態に対応した、前記画像データの色補正に用いる標準データを複数種類記憶する記憶部と、前記組成分布取得部が取得した前記サンプルの組成分布情報に基づいて、前記記憶部が記憶する前記標準データのうち前記色補正に用いる前記標準データを選択する標準データ選択部と、前記標準データ選択部が選択した前記標準データと前記カラーセンサが取得した前記スペクトル情報とに基づいて前記画像データの色補正を行う補正処理部と、を備えることを特徴とするバーチャルスライド装置である。   According to the present invention, a stage on which a sample is set and the sample is sequentially presented in an imaging region, a light source that illuminates the sample, and an image of a first region included in the entire region of the sample are connected to a first plane. An optical system configured to image and introduce light from a second region included in the first region into a second plane; and an image formed on the first plane is captured; and the first region An image sensor that acquires image data of the image of the image, a color sensor that acquires spectral information of light introduced into the second plane, and the first region based on the image data acquired by the image sensor. A composition distribution acquisition unit for acquiring composition distribution information of the sample included in the third region including the second region, and a standard used for color correction of the image data corresponding to the distribution state of the composition Memorize multiple types of data A standard data selection unit that selects the standard data used for the color correction among the standard data stored in the storage unit, based on the composition distribution information of the sample acquired by the component distribution acquisition unit, A virtual slide device comprising: a correction processing unit that performs color correction of the image data based on the standard data selected by a standard data selection unit and the spectral information acquired by the color sensor.

また、本発明のバーチャルスライド装置において、前記組成分布取得部は、前記撮像素子が取得した前記画像データから所定の画素を間引いた間引き画像データに基づいて前記第1の領域に含まれ前記第2の領域を含む第3の領域に含まれる前記サンプルの組成分布情報を取得することを特徴とする。   In the virtual slide device of the present invention, the composition distribution acquisition unit is included in the first region based on thinned image data obtained by thinning predetermined pixels from the image data acquired by the imaging element. The composition distribution information of the sample included in the third region including the region is acquired.

また、本発明のバーチャルスライド装置において、前記撮像素子は赤色の光を検出するR画素と、緑色の光を検出するG画素と、青色の光を検出するB画素とを含み、前記組成分布取得部は、前記R画素と、前記G画素と、前記B画素とのうちいずれかの画素の出力に基づいて前記第1の領域に含まれ前記第2の領域を含む第3の領域に含まれる前記サンプルの組成分布情報を取得することを特徴とする。   In the virtual slide device of the present invention, the imaging element includes an R pixel that detects red light, a G pixel that detects green light, and a B pixel that detects blue light, and obtains the composition distribution. The unit is included in the third region including the second region and included in the first region based on the output of any one of the R pixel, the G pixel, and the B pixel. The composition distribution information of the sample is acquired.

また、本発明のバーチャルスライド装置において、前記第3の領域は、前記第1の領域と同一の領域であることを特徴とする。   In the virtual slide device of the present invention, the third area is the same area as the first area.

また、本発明のバーチャルスライド装置において、前記記憶部は、前記サンプルに細胞核が分布している状態に対応した前記標準データと、前記サンプルに細胞質が分布している状態に対応した前記標準データと、前記サンプルに組織が分布していない状態に対応した前記標準データとのうち、少なくとも1つの前記標準データを記憶することを特徴とする。   In the virtual slide device of the present invention, the storage unit includes the standard data corresponding to a state where cell nuclei are distributed in the sample, and the standard data corresponding to a state where cytoplasm is distributed in the sample. In addition, at least one standard data among the standard data corresponding to a state in which no tissue is distributed in the sample is stored.

本発明によれば、ステージは、サンプルを設置し、撮影領域にサンプルを順次提示する。また、光源は、サンプルを照明する。また、光学系は、サンプルの全体領域に含まれる第1の領域の像を第1の平面に結像させ、第1の領域に含まれる第2の領域からの光を第2の平面に導入させる。また、撮像素子は、第1の平面に結像された像を撮像し、第1の領域の像の画像データを取得する。また、カラーセンサは、第2の平面に導入された光のスペクトル情報を取得する。また、組成分布取得部は、撮像素子が取得した画像データに基づいて、第1の領域に含まれ第2の領域を含む第3の領域に含まれるサンプルの組成分布情報を取得する。また、記憶部は、組成の分布状態に対応した、画像データの色補正に用いる標準データを複数種類記憶する。また、標準データ選択部は、組成分布取得部が取得したサンプルの組成分布情報に基づいて、記憶部が記憶する標準データのうち色補正に用いる前記標準データを選択する。また、補正処理部は、標準データ選択部が選択した標準データとカラーセンサが取得したスペクトル情報とに基づいて画像データの色補正を行う。   According to the present invention, the stage installs samples and sequentially presents the samples in the imaging area. The light source illuminates the sample. The optical system forms an image of the first region included in the entire region of the sample on the first plane, and introduces light from the second region included in the first region into the second plane. Let The imaging device captures an image formed on the first plane and acquires image data of the image in the first region. Further, the color sensor acquires spectral information of light introduced into the second plane. The composition distribution acquisition unit acquires the composition distribution information of the sample included in the third region that is included in the first region and includes the second region, based on the image data acquired by the imaging element. The storage unit stores a plurality of types of standard data used for color correction of image data corresponding to the distribution state of the composition. The standard data selection unit selects the standard data used for color correction from the standard data stored in the storage unit based on the sample composition distribution information acquired by the composition distribution acquisition unit. The correction processing unit performs color correction of the image data based on the standard data selected by the standard data selection unit and the spectrum information acquired by the color sensor.

これにより、サンプルの組成分布に応じた標準データとカラーセンサが取得したスペクトル情報とに基づいて画像データの色補正を行うことができるため、より高精度に色補正を行うことができる。   Thereby, since color correction of image data can be performed based on the standard data corresponding to the composition distribution of the sample and the spectrum information acquired by the color sensor, color correction can be performed with higher accuracy.

本発明の一実施形態におけるバーチャルスライド装置の構成を示した概略図である。It is the schematic which showed the structure of the virtual slide apparatus in one Embodiment of this invention. 本実施形態において、間引き画像生成部が生成する間引き画像データの例を示した概略図である。In this embodiment, it is the schematic which showed the example of the thinning image data which a thinning image production | generation part produces | generates. 従来知られているバーチャルスライド装置の構成を示した概略図である。It is the schematic which showed the structure of the conventionally known virtual slide apparatus.

以下、本発明の一実施形態について図面を参照して説明する。図1は、本実施形態におけるバーチャルスライド装置1の構成を示した概略図である。図示する例では、バーチャルスライド装置1は、ステージ102と、ステージ駆動部103と、光源104と、対物レンズ105と、ハーフミラー106と、撮像素子107(撮像部)と、視野領域変更部108と、カラーセンサ109と、撮像制御部110と、画像ファイル生成部111(補正処理部)と、間引き画像生成部112と、組成分布検出部113(組成分布取得部)と、記憶部114と、標準データ選択部115と、貼り合わせ情報生成部116とを備える。なお、例えば、対物レンズ105とハーフミラー106とが、請求項に係る光学系に相当する。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a schematic diagram illustrating a configuration of a virtual slide device 1 according to the present embodiment. In the illustrated example, the virtual slide device 1 includes a stage 102, a stage driving unit 103, a light source 104, an objective lens 105, a half mirror 106, an imaging element 107 (imaging unit), and a visual field region changing unit 108. , Color sensor 109, imaging control unit 110, image file generation unit 111 (correction processing unit), thinned image generation unit 112, composition distribution detection unit 113 (composition distribution acquisition unit), storage unit 114, standard A data selection unit 115 and a bonding information generation unit 116 are provided. For example, the objective lens 105 and the half mirror 106 correspond to the optical system according to the claims.

ステージ102は、スライドガラス上にサンプル101を載置した試料を載置するための台である。ステージ駆動部103は、撮像制御部110の制御に基づいて、ステージ102を、撮像素子107の撮像面と水平な方向及び垂直な方向(三次元方向)に駆動させる。光源104は、サンプル101を照射する光を発生する。   The stage 102 is a stage for placing a sample on which a sample 101 is placed on a slide glass. The stage driving unit 103 drives the stage 102 in a horizontal direction and a vertical direction (three-dimensional direction) with respect to the imaging surface of the imaging element 107 based on the control of the imaging control unit 110. The light source 104 generates light that irradiates the sample 101.

対物レンズ105は、サンプル101の部分領域(第1の領域)の画像(部分画像)を拡大して撮像するために用いる対物レンズである。また、対物レンズ105は、サンプル101に対向するように配置されており、サンプル101の所定領域からの光束を集光させ、集光させた光をハーフミラー106に対して照射する。ハーフミラー106は、対物レンズ105からの光の一部を視野領域変更部108の方向に反射し、一部を透過する。   The objective lens 105 is an objective lens used for enlarging and capturing an image (partial image) of a partial region (first region) of the sample 101. The objective lens 105 is disposed so as to face the sample 101, collects a light beam from a predetermined region of the sample 101, and irradiates the collected light to the half mirror 106. The half mirror 106 reflects a part of the light from the objective lens 105 in the direction of the visual field region changing unit 108 and transmits a part thereof.

撮像素子107は、ハーフミラー106が透過した光を受光する位置に配置され、受光した光の強度に応じた電気信号に光電変換することで画像を撮像し、画像データを取得する。撮像素子107に入射する光はサンプル101の部分領域の光であるため、撮像素子107が取得する画像データはサンプル101の部分領域(第1の領域)の画像データである。なお、撮像素子107は、ベイヤ配列のカラーフィルタを備えている。これにより、撮像素子107が有する画素のうち、赤色の光を透過するカラーフィルタが配置された画素(R画素)は赤色の光を検出する。また、撮像素子107が有する画素のうち、緑色の光を透過するカラーフィルタが配置された画素(G画素)は緑色の光を検出する。また、撮像素子107が有する画素のうち、青色の光を透過するカラーフィルタが配置された画素(B画素)は青色の光を検出する。   The image sensor 107 is disposed at a position for receiving the light transmitted through the half mirror 106, captures an image by photoelectric conversion into an electrical signal corresponding to the intensity of the received light, and acquires image data. Since the light incident on the image sensor 107 is a partial region of the sample 101, the image data acquired by the image sensor 107 is image data of the partial region (first region) of the sample 101. The image sensor 107 includes a Bayer array color filter. Thereby, among the pixels of the image sensor 107, the pixel (R pixel) in which the color filter that transmits red light is arranged detects red light. Of the pixels included in the image sensor 107, a pixel (G pixel) in which a color filter that transmits green light is disposed detects green light. Of the pixels included in the image sensor 107, a pixel (B pixel) in which a color filter that transmits blue light is disposed detects blue light.

視野領域変更部108は、ハーフミラー106とカラーセンサ109との間に配置されており、ハーフミラー106からの光のうち、一部の領域の光を遮り、一部の領域(第2の領域)の光を透過する。視野領域変更部108を透過した光は、カラーセンサ109に入射する。この構成により、カラーセンサ109の視野範囲は第2の領域となる。   The field-of-view area changing unit 108 is disposed between the half mirror 106 and the color sensor 109, and blocks a part of the light from the half mirror 106, and a part of the area (second area). ). The light that has passed through the visual field region changing unit 108 enters the color sensor 109. With this configuration, the visual field range of the color sensor 109 becomes the second region.

カラーセンサ109は、サンプル101からの光のうち、視野領域変更部108を透過した光のスペクトル情報を検出する。すなわち、カラーセンサ109は、第2の領域のスペクトル情報を検出する。なお、第2の領域は、第1の領域に含まれる領域である。撮像制御部110は、ステージ駆動部103と、対物レンズ105と、撮像素子107と、カラーセンサ109との制御を行い、サンプル101の第1の領域の画像データおよび第2の領域のスペクトル情報を取得する。具体的には、撮像制御部110は、ステージ駆動部103を制御してステージ102を移動させながら撮像素子107が画像を撮影し、同時にカラーセンサ109がスペクトル情報を取得するように制御する。なお、撮影制御部110は、タイリング間ののりしろができるようにステージ102(サンプル101)を移動しながら撮像素子107が画像(部分画像)を撮像するように制御する。   The color sensor 109 detects spectral information of light transmitted through the visual field region changing unit 108 out of light from the sample 101. That is, the color sensor 109 detects the spectrum information of the second region. The second area is an area included in the first area. The imaging control unit 110 controls the stage driving unit 103, the objective lens 105, the imaging element 107, and the color sensor 109, and obtains image data of the first region of the sample 101 and spectral information of the second region. get. Specifically, the imaging control unit 110 controls the stage driving unit 103 to move the stage 102 so that the imaging element 107 captures an image, and at the same time, the color sensor 109 acquires spectral information. The imaging control unit 110 controls the imaging element 107 to capture an image (partial image) while moving the stage 102 (sample 101) so that a margin between tilings is possible.

間引き画像生成部112は、撮像素子107が撮像した画像データから一部の画素の情報を間引き、間引き画像データを生成する。例えば、間引き画像生成部112は、撮像素子107が撮像した画像データの周辺部分の領域に含まれる画素の情報を間引き、中心部分(カラーセンサ109の視野範囲の近傍)の領域に含まれる画素の情報のみを含んだ間引き画像データを生成してもよい。また、例えば、間引き画像生成部112は、撮像素子107が撮像した画像データから所定間隔で画素の情報を間引き、画像データの全体の情報を含みつつ、画像データの情報量を削減した間引き画像データを生成してもよい。   The thinned image generation unit 112 thins out information on some pixels from the image data captured by the image sensor 107 and generates thinned image data. For example, the thinned-out image generation unit 112 thins out information on pixels included in the peripheral area of the image data captured by the image sensor 107, and the pixels included in the central area (near the visual field range of the color sensor 109). Thinned image data including only information may be generated. In addition, for example, the thinned image generation unit 112 thins out pixel information from the image data captured by the image sensor 107 at predetermined intervals, and includes the entire information of the image data, while reducing the information amount of the image data. May be generated.

また、間引き画像生成部112は、例えば、R画素が出力する信号と、G画素が出力する信号と、B画素が出力する信号とのうち一部の画素が出力する信号を間引き、一部の画像が出力する信号のみを含んだ間引き画像データを生成してもよい。具体的には、撮像素子107がベイヤ配列のカラーフィルタを有している場合、例えば、R画素が出力する信号とB画素が出力する信号とを間引き、G画素が出力する信号のみを用いて間引き画像データを生成してもよい。   In addition, the thinned-out image generation unit 112 thins out signals output from some pixels among signals output from R pixels, signals output from G pixels, and signals output from B pixels, for example. Thinned image data including only a signal output from the image may be generated. Specifically, when the image sensor 107 has a Bayer array color filter, for example, the signal output from the R pixel and the signal output from the B pixel are thinned out, and only the signal output from the G pixel is used. Thinned image data may be generated.

また、間引き画像生成部112は、例えば、R画素とG画素とB画素とが出力する信号とを加算平均し、加算平均した信号を用いて間引き画像データを生成してもよい。具体的には、撮像素子107がベイヤ配列のカラーフィルタを有している場合、例えば、ベイヤ配列の単位画素格子4画素(R画素、G画素、G画素、B画素)の画素値を加算平均して1画素の値とする方法で間引き画像データを生成してもよい。また、間引き画像生成部112は、上記の複数の方法を組み合わせて間引き画像データを生成してもよい。   In addition, the thinned image generation unit 112 may average the signals output from the R pixel, the G pixel, and the B pixel, and generate thinned image data using the signal obtained by the averaging. Specifically, when the image sensor 107 has a Bayer array color filter, for example, the pixel values of four pixel arrays (R pixel, G pixel, G pixel, B pixel) of the Bayer array are added and averaged. Then, the thinned image data may be generated by a method of setting the value of one pixel. Further, the thinned image generation unit 112 may generate thinned image data by combining the above-described plurality of methods.

図2は、本実施形態において、間引き画像生成部112が生成する間引き画像データの例を示した概略図である。図2(1)は、撮像素子107が撮像した画像データの例を示した概略図である。図示する例では、撮像素子107が撮像した画像データは、R画素が出力する信号と、G画素が出力する信号と、B画素が出力する信号とを含んでいる。図2(2)は、間引き画像生成部112が、R画素が出力する信号とB画素が出力する信号とを間引き、G画素が出力する信号のみを用いて生成した間引き画像データを示した概略図である。図示する例では、間引き画像生成部112が生成した間引き画像データは、G画素が出力する信号のみを含んでいる。また、図2(2)に示した間引き画像データの領域は、撮像素子107が撮像した画像データの領域と同様の領域である。   FIG. 2 is a schematic diagram illustrating an example of the thinned image data generated by the thinned image generation unit 112 in the present embodiment. FIG. 2A is a schematic diagram illustrating an example of image data captured by the image sensor 107. In the example illustrated, the image data captured by the image sensor 107 includes a signal output from the R pixel, a signal output from the G pixel, and a signal output from the B pixel. FIG. 2B is a schematic diagram illustrating the thinned image data generated by the thinned image generation unit 112 using only the signal output from the G pixel by thinning out the signal output from the R pixel and the signal output from the B pixel. FIG. In the illustrated example, the thinned image data generated by the thinned image generation unit 112 includes only a signal output from the G pixel. Further, the area of the thinned image data illustrated in FIG. 2B is the same area as the area of the image data captured by the image sensor 107.

図2(3)は、間引き画像生成部112が、撮像素子107が撮像した画像データの周辺部分の領域に含まれる画素の情報と、R画素が出力する信号とB画素が出力する信号とを間引き、中心部分(カラーセンサ109の視野範囲の近傍)の領域に含まれるG画素の情報のみを用いて生成した間引き画像データを示した概略図である。図示する例では、間引き画像生成部112が生成した間引き画像データは、G画素が出力する信号のみを含んでいる。また、図2(2)に示した間引き画像データの領域は、撮像素子107が撮像した画像データの領域のうち中心部分の領域である。   In FIG. 2 (3), the thinned image generation unit 112 displays information on pixels included in the peripheral area of the image data captured by the image sensor 107, a signal output from the R pixel, and a signal output from the B pixel. It is the schematic which showed the thinning image data produced | generated using only the information of G pixel contained in the area | region of the thinning | decimation and the center part (near the visual field range of the color sensor 109). In the illustrated example, the thinned image data generated by the thinned image generation unit 112 includes only a signal output from the G pixel. In addition, the area of the thinned image data illustrated in FIG. 2B is a central area of the image data area captured by the image sensor 107.

以下、図1の説明に戻る。組成分布検出部113は、間引き画像生成部112が生成した間引き画像データに基づいて、サンプル101の部分領域(第1の領域)に含まれ、カラーセンサ109の視野範囲(第2の領域)を含む領域である第3の領域に含まれる組織の分布(組成分布)を検出する。以下、組成分布の検出方法について説明する。   Returning to the description of FIG. The composition distribution detection unit 113 is included in the partial region (first region) of the sample 101 based on the thinned image data generated by the thinned image generation unit 112, and the visual field range (second region) of the color sensor 109. A tissue distribution (composition distribution) included in the third region, which is the included region, is detected. Hereinafter, a method for detecting the composition distribution will be described.

(1)サンプル101に含まれる組織の形状に基づいて組成分布を検出する方法
間引き画像生成部112が生成した間引き画像データに基づいて、間引き画像のコントラスト値を算出し、コントラスト値が高ければ細胞核が分布していると判定し、コントラスト値が中程度であれば細胞質が分布していると判定し、コントラスト値が低ければ腔か背景(スライド)が分布していると判定する。
(1) Method of detecting composition distribution based on the shape of tissue included in sample 101 Based on the thinned image data generated by the thinned image generating unit 112, the contrast value of the thinned image is calculated. If the contrast value is medium, it is determined that the cytoplasm is distributed. If the contrast value is low, it is determined that the cavity or the background (slide) is distributed.

(2)サンプル101に含まれる組織の色に基づいて組成分布を検出する方法
間引き画像生成部112が生成した間引き画像データに基づいて、間引き画像の色が赤に近ければ血管もしくは血液が分布していると判定し、濃い紫に近ければ細胞核が分布していると判定し、ピンクに近ければ細胞質が分布していると判定し、色がなく透明に近ければ背景か腔が分布していると判定する。なお、この方法を用いる場合、間引き画像生成部112が生成する間引き画像データは、色情報が間引かれていない間引き画像データである。
(2) Method of detecting composition distribution based on tissue color included in sample 101 Based on the thinned image data generated by the thinned image generation unit 112, blood vessels or blood are distributed if the color of the thinned image is close to red. If it is close to dark purple, it is determined that cell nuclei are distributed, if it is close to pink, it is determined that cytoplasm is distributed, and if it is close to no color and transparent, the background or cavity is distributed. Is determined. When this method is used, the thinned image data generated by the thinned image generation unit 112 is thinned image data in which color information is not thinned.

(3)サンプル101に含まれる組織のテクスチャ(色と形状の両方)に基づいて組成分布を検出する方法
A)癌などの組織の病状の変化を検出する
a)癌の細胞は、細胞核の円形度が失われて歪な形になる。さらに通常の細胞核の色より黒ずんだ濃い色になる。そこで、間引き画像生成部112が生成した間引き画像の画素値の色情報の分布(ヒストグラム)と細胞核の円形度をパターン認識で算出し、正常な細胞が分布しているか癌細胞が分布しているか判定する。
b)組成分布の異常性に基づいて、正常な細胞が分布しているか癌細胞が分布しているか判定する。具体的には、間引き画像生成部112が生成した間引き画像に基づいてパターン認識処理を行い、間引き画像に含まれる細胞核の数を算出する。そして、一定面積内の細胞核の数が正常な場合には正常な細胞が分布していると判定し、細胞核の数が異常な場合には癌細胞が分布していると判定する。
B)肝臓、脾臓、肺などの病理サンプルの特徴に基づいて検出する
肝臓は、細胞核と細胞質が疎でもなく密でもなく腔はほとんどなく、色はピンクに近い。脾臓は、細胞核が集中する傾向があり、濃い紫の色に近い。肺は、腔が多く細胞質は少なく、白っぽい色になる傾向がある。そこで、間引き画像生成部112が生成した間引き画像に基づいて、細胞核と細胞質の分布の様子をパターン認識で抽出し、さらに色情報を取得し、分布している組織(組成分布)を判定する。
(3) Method of detecting composition distribution based on tissue texture (both color and shape) contained in sample 101 A) Detecting changes in pathology of tissues such as cancer a) Cancer cells are circular in nucleus The degree is lost and becomes distorted. Furthermore, it becomes darker and darker than the normal cell nucleus color. Therefore, the color information distribution (histogram) of the pixel values of the thinned image generated by the thinned image generation unit 112 and the circularity of the cell nucleus are calculated by pattern recognition, and whether normal cells or cancer cells are distributed. judge.
b) Based on the abnormality of the composition distribution, it is determined whether normal cells or cancer cells are distributed. Specifically, pattern recognition processing is performed based on the thinned image generated by the thinned image generation unit 112, and the number of cell nuclei included in the thinned image is calculated. When the number of cell nuclei within a certain area is normal, it is determined that normal cells are distributed, and when the number of cell nuclei is abnormal, it is determined that cancer cells are distributed.
B) Detecting based on characteristics of pathological samples such as liver, spleen, lung, etc. The liver has a cell nucleus and cytoplasm that are not sparse and dense, has almost no cavity, and has a color close to pink. The spleen tends to concentrate cell nuclei and is close to a deep purple color. The lungs tend to be whitish with more cavities and less cytoplasm. Therefore, based on the thinned image generated by the thinned image generating unit 112, the state of distribution of cell nuclei and cytoplasm is extracted by pattern recognition, color information is acquired, and distributed tissue (composition distribution) is determined.

以下、図1の説明に戻る。記憶部114は、分布している組織(組成分布)に基づいた標準データを複数種類記憶している。染色として例えばHE染色液などが一般に使用されるが、H染色液とE染色液の比率や量、病理サンプルの厚みの違いなどで色が変化する。そのため、条件によって染色時の色が異なっている場合においても標準的な染色状態に補正するために、各条件(部位、組成、病状など)で分類したものに対応して、事前にある病理サンプルで取得したスペクトル情報を標準データとして保存しておく。そして、バーチャルスライド装置1で画像を撮像する際に、サンプル101の組成分布情報に基づいて、記憶部114が記憶する標準データのうち色補正に用いる標準データを選択し、最も近い標準データのスペクトル情報に合うように画像の色補正を行う。記憶部114は、例えば、細胞核が分布している場合の標準データと、細胞質が分布している場合の標準データと、腔か背景(スライド)が分布している(組織が分布していない)場合の標準データとを記憶している。なお、記憶部114が記憶する標準データはこれに限らず、どのような組成分布に基づいた標準データを記憶していてもよい。また、記憶部114は予め複数種類の標準データを記憶していてもよく、記憶部114に任意に標準データを追記できるようにしてもよい。   Returning to the description of FIG. The storage unit 114 stores a plurality of types of standard data based on the distributed tissue (composition distribution). For example, an HE staining solution is generally used as the staining, but the color changes depending on the ratio and amount of the H staining solution and the E staining solution, the thickness of the pathological sample, and the like. Therefore, in order to correct the standard staining state even when the color at the time of staining varies depending on the conditions, there is a pathological sample in advance corresponding to those classified by each condition (site, composition, disease state, etc.) The spectrum information acquired in step 1 is stored as standard data. When the virtual slide device 1 captures an image, based on the composition distribution information of the sample 101, the standard data used for color correction is selected from the standard data stored in the storage unit 114, and the spectrum of the closest standard data is selected. Image color correction is performed to match the information. In the storage unit 114, for example, standard data when cell nuclei are distributed, standard data when cytoplasm is distributed, and cavity or background (slide) are distributed (tissue is not distributed). Standard data of the case is stored. The standard data stored in the storage unit 114 is not limited to this, and standard data based on any composition distribution may be stored. Further, the storage unit 114 may store a plurality of types of standard data in advance, and may arbitrarily add standard data to the storage unit 114.

標準データ選択部115は、組成分布検出部113が検出し組成分布に基づいて、記憶部114が記憶する複数種類の標準データのうち、画像データの補正に用いる標準データを選択する。具体的には、例えば、組成分布検出部113が検出した組成分布が細胞質である場合、標準データ選択部115は細胞質に基づいた標準データを選択する。   The standard data selection unit 115 selects standard data used for image data correction from among a plurality of types of standard data stored in the storage unit 114 based on the composition distribution detected by the composition distribution detection unit 113. Specifically, for example, when the composition distribution detected by the composition distribution detection unit 113 is cytoplasm, the standard data selection unit 115 selects standard data based on the cytoplasm.

貼り合わせ情報生成部116は、撮像素子107が撮像した複数枚の部分画像それぞれに対して隣接する部分画像を認識し、さらに、隣接する部分画像同士ののりしろ部を認識し、認識した結果に基づいて全ての部分画像を貼り合わせて一枚の全体画像を生成するために用いる貼り合わせ情報を生成する。   The pasting information generation unit 116 recognizes adjacent partial images for each of the plurality of partial images captured by the image sensor 107, further recognizes a margin between adjacent partial images, and based on the recognized result. Then, all the partial images are combined to generate the combined information used for generating one whole image.

画像ファイル生成部111は、カラーセンサ109が取得したスペクトル情報と、標準データ選択部115が選択した標準データとに基づいて、撮像素子107が撮像した部分画像の色補正を行う。以下、部分画像の色補正方法について説明する。   The image file generation unit 111 performs color correction of the partial image captured by the image sensor 107 based on the spectrum information acquired by the color sensor 109 and the standard data selected by the standard data selection unit 115. Hereinafter, a color correction method for partial images will be described.

(1)標準データ選択部115が選択した標準データと、カラーセンサ109が取得したスペクトル情報との色の差で補正値を算出する方法
画像ファイル生成部111は、カラーセンサ109が取得したスペクトル情報と、標準データのスペクトル情報の差分を計算して補正値を算出する。そして、画像ファイル生成部111は、撮像素子107が撮像した画像データを、算出した補正値を用いて補正する。これにより、画像ファイル生成部111は、撮像素子107が撮像した画像データの色をより正確に補正することができる。
なお、スペクトル情報と標準データとの差分を用いて補正値を算出する方法は、例えば特開2011−99823号広報に記載されている方法と同様の方法を用いる。
(1) A method for calculating a correction value based on a color difference between the standard data selected by the standard data selection unit 115 and the spectrum information acquired by the color sensor 109. Then, the correction value is calculated by calculating the difference of the spectrum information of the standard data. Then, the image file generation unit 111 corrects the image data captured by the image sensor 107 using the calculated correction value. Thereby, the image file generation unit 111 can correct the color of the image data captured by the image sensor 107 more accurately.
In addition, the method similar to the method described in Unexamined-Japanese-Patent No. 2011-99823 public information is used for the method of calculating a correction value using the difference of spectrum information and standard data, for example.

(2)標準データ選択部115が選択した標準データと、カラーセンサ109が取得したスペクトル情報に基づいて判定した染色液の種類とに基づいて補正値を算出する方法
例えば、HE染色のように病理診断で代表的に使用される染色液はH(ヘマトキシリン)、E(イオジン)と色の分布が標準的に決まっている。染色液の色の分布をそれぞれの状態に合わせて標準データとして記憶しており、カラーセンサ109が取得したスペクトル情報と標準データとを比較することで補正値を算出する。そして、画像ファイル生成部111は、撮像素子107が撮像した画像データを、算出した補正値を用いて補正する。これにより、画像ファイル生成部111は、撮像素子107が撮像した画像データの色をより正確に補正することができる。
(2) A method for calculating a correction value based on the standard data selected by the standard data selection unit 115 and the type of staining liquid determined based on the spectrum information acquired by the color sensor 109. For example, pathology such as HE staining. The color distribution of a staining solution typically used in diagnosis is determined as H (hematoxylin) and E (iodine) as standard. The color distribution of the staining liquid is stored as standard data according to each state, and the correction value is calculated by comparing the spectrum information acquired by the color sensor 109 with the standard data. Then, the image file generation unit 111 corrects the image data captured by the image sensor 107 using the calculated correction value. Thereby, the image file generation unit 111 can correct the color of the image data captured by the image sensor 107 more accurately.

また、画像ファイル生成部111は、貼り合わせ情報生成部116が生成した貼り合わせ情報に基づいて、色補正を行った全ての部分画像を貼り合わせて一枚のサンプル画像を生成する。なお、画像ファイル生成部111は、貼り合わせ情報生成部116が生成した貼り合わせ情報に基づいて、部分画像を貼り合わせて一枚のサンプル画像を生成した後に、色補正を行ってもよい。   In addition, the image file generation unit 111 generates a single sample image by combining all the partial images subjected to color correction based on the combination information generated by the combination information generation unit 116. Note that the image file generation unit 111 may perform color correction after generating a single sample image by combining partial images based on the combination information generated by the combination information generation unit 116.

上述した通り、本実施形態によれば、撮像素子107はサンプル101の画像データを生成する。また、間引き画像生成部112は、撮像素子107が撮像した画像データに基づいて間引き画像データを生成する。また、組成分布検出部113は、間引き画像データに基づいて、画像データに含まれる組成分布を検出する。また、標準データ選択部115は、組成分布検出部113が検出した組成分布に基づいて、画像データの補正に最適な標準データを選択する。また、画像ファイル生成部111は、標準データ選択部115が選択した標準データと、カラーセンサ109が取得したスペクトル情報とに基づいて、撮像素子107が撮像した画像データの色補正を行う。   As described above, according to the present embodiment, the image sensor 107 generates image data of the sample 101. In addition, the thinned image generation unit 112 generates thinned image data based on the image data captured by the image sensor 107. Further, the composition distribution detection unit 113 detects the composition distribution included in the image data based on the thinned image data. In addition, the standard data selection unit 115 selects standard data that is optimal for image data correction based on the composition distribution detected by the composition distribution detection unit 113. In addition, the image file generation unit 111 performs color correction of the image data captured by the image sensor 107 based on the standard data selected by the standard data selection unit 115 and the spectrum information acquired by the color sensor 109.

これにより、サンプル101の組成分布に応じた標準データと、カラーセンサ109が取得したスペクトル情報とに基づいて画像データの色補正を行うことができるため、より高精度に色補正を行うことができる。   As a result, the color correction of the image data can be performed based on the standard data corresponding to the composition distribution of the sample 101 and the spectrum information acquired by the color sensor 109, so that the color correction can be performed with higher accuracy. .

以上、この発明の一実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。   Although one embodiment of the present invention has been described in detail with reference to the drawings, the specific configuration is not limited to this embodiment, and includes design and the like within a scope not departing from the gist of the present invention.

1・・・バーチャルスライド装置、101・・・サンプル、102・・・ステージ、103・・・ステージ駆動部、104・・・光源、105・・・対物レンズ、106・・・ハーフミラー、107・・・撮像素子、108・・・視野領域変更部、109・・・カラーセンサ、110・・・撮像制御部、111・・・画像ファイル生成部、112・・・間引き画像生成部、113・・・組成分布検出部、114・・・記憶部、115・・・標準データ選択部、116・・・貼り合わせ情報生成部   DESCRIPTION OF SYMBOLS 1 ... Virtual slide apparatus, 101 ... Sample, 102 ... Stage, 103 ... Stage drive part, 104 ... Light source, 105 ... Objective lens, 106 ... Half mirror, 107 ... Image sensor 108... Field of view region changing unit 109... Color sensor 110... Imaging control unit 111 ... Image file generating unit 112. Composition distribution detection unit, 114 ... storage unit, 115 ... standard data selection unit, 116 ... bonding information generation unit

Claims (5)

サンプルを設置し、撮影領域に前記サンプルを順次提示するステージと、
前記サンプルを照明する光源と、
前記サンプルの全体領域に含まれる第1の領域の像を第1の平面に結像させ、前記第1の領域に含まれる第2の領域からの光を第2の平面に導入させる光学系と、
前記第1の平面に結像された像を撮像し、前記第1の領域の像の画像データを取得する撮像素子と、
前記第2の平面に導入された光のスペクトル情報を取得するカラーセンサと、
前記撮像素子が取得した前記画像データに基づいて、前記第1の領域に含まれ前記第2の領域を含む第3の領域に含まれる前記サンプルの組成分布情報を取得する組成分布取得部と、
前記組成の分布状態に対応した、前記画像データの色補正に用いる標準データを複数種類記憶する記憶部と、
前記組成分布取得部が取得した前記サンプルの組成分布情報に基づいて、前記記憶部が記憶する前記標準データのうち前記色補正に用いる前記標準データを選択する標準データ選択部と、
前記標準データ選択部が選択した前記標準データと前記カラーセンサが取得した前記スペクトル情報とに基づいて前記画像データの色補正を行う補正処理部と、
を備えることを特徴とするバーチャルスライド装置。
A stage for installing the sample and sequentially presenting the sample in the imaging area;
A light source for illuminating the sample;
An optical system for forming an image of a first region included in the entire region of the sample on a first plane, and introducing light from the second region included in the first region into the second plane; ,
An image sensor that captures an image formed on the first plane and acquires image data of the image of the first region;
A color sensor for acquiring spectral information of light introduced into the second plane;
Based on the image data acquired by the imaging device, a composition distribution acquisition unit that acquires the composition distribution information of the sample included in the third region included in the first region and including the second region;
A storage unit that stores a plurality of types of standard data used for color correction of the image data corresponding to the distribution state of the composition;
Based on the composition distribution information of the sample acquired by the composition distribution acquisition unit, a standard data selection unit that selects the standard data used for the color correction among the standard data stored by the storage unit;
A correction processing unit that performs color correction of the image data based on the standard data selected by the standard data selection unit and the spectrum information acquired by the color sensor;
A virtual slide device comprising:
前記組成分布取得部は、前記撮像素子が取得した前記画像データから所定の画素を間引いた間引き画像データに基づいて前記第1の領域に含まれ前記第2の領域を含む第3の領域に含まれる前記サンプルの組成分布情報を取得する
ことを特徴とする請求項1に記載のバーチャルスライド装置。
The composition distribution acquisition unit is included in a third region that is included in the first region and includes the second region based on thinned image data obtained by thinning predetermined pixels from the image data acquired by the image sensor. The virtual slide device according to claim 1, wherein composition distribution information of the sample is acquired.
前記撮像素子は赤色の光を検出するR画素と、緑色の光を検出するG画素と、青色の光を検出するB画素とを含み、
前記組成分布取得部は、前記R画素と、前記G画素と、前記B画素とのうちいずれかの画素の出力に基づいて前記第1の領域に含まれ前記第2の領域を含む第3の領域に含まれる前記サンプルの組成分布情報を取得する
ことを特徴とする請求項1に記載のバーチャルスライド装置。
The imaging device includes an R pixel that detects red light, a G pixel that detects green light, and a B pixel that detects blue light,
The composition distribution acquisition unit includes a third region that is included in the first region and includes the second region based on an output of any one of the R pixel, the G pixel, and the B pixel. The virtual slide device according to claim 1, wherein composition distribution information of the sample included in a region is acquired.
前記第3の領域は、前記第1の領域と同一の領域である
ことを特徴とする請求項1に記載のバーチャルスライド装置。
The virtual slide device according to claim 1, wherein the third region is the same region as the first region.
前記記憶部は、前記サンプルに細胞核が分布している状態に対応した前記標準データと、前記サンプルに細胞質が分布している状態に対応した前記標準データと、前記サンプルに組織が分布していない状態に対応した前記標準データとのうち、少なくとも1つの前記標準データを記憶する
ことを特徴とする請求項1に記載のバーチャルスライド装置。
The storage unit includes the standard data corresponding to a state in which cell nuclei are distributed in the sample, the standard data corresponding to a state in which a cytoplasm is distributed in the sample, and a tissue not distributed in the sample. The virtual slide apparatus according to claim 1, wherein at least one of the standard data corresponding to a state is stored.
JP2012111498A 2012-05-15 2012-05-15 Virtual slide device Pending JP2013238483A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012111498A JP2013238483A (en) 2012-05-15 2012-05-15 Virtual slide device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012111498A JP2013238483A (en) 2012-05-15 2012-05-15 Virtual slide device

Publications (1)

Publication Number Publication Date
JP2013238483A true JP2013238483A (en) 2013-11-28

Family

ID=49763641

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012111498A Pending JP2013238483A (en) 2012-05-15 2012-05-15 Virtual slide device

Country Status (1)

Country Link
JP (1) JP2013238483A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10416469B2 (en) 2017-08-30 2019-09-17 JVC Kenwood Corporation Imaging scanner

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10416469B2 (en) 2017-08-30 2019-09-17 JVC Kenwood Corporation Imaging scanner

Similar Documents

Publication Publication Date Title
US9224193B2 (en) Focus stacking image processing apparatus, imaging system, and image processing system
JP4921978B2 (en) Cell culture device, image processing device, and cell detection system
US20160014328A1 (en) Image processing device, endoscope apparatus, information storage device, and image processing method
US20160328848A1 (en) Methods and systems for laser speckle imaging of tissue using a color image sensor
EP2979607A1 (en) Image processing device, endoscopic device, program and image processing method
EP3333609A1 (en) Image pickup apparatus, solid-state image pickup device, and image pickup method
US8854448B2 (en) Image processing apparatus, image display system, and image processing method and program
US8237785B2 (en) Automatic focusing apparatus for use in a microscope in which fluorescence emitted from a cell is captured so as to acquire a cell image, and automatic focusing method therefor
US11025812B2 (en) Imaging apparatus, imaging method, and imaging system
US20200341252A1 (en) Image processing apparatus and image processing method
US9916665B2 (en) Cell tracking device and method, and storage medium non-transitory storing computer-readable cell tracking programs
JP2009219096A (en) Image processing device, imaging device, correction coefficient calculating method, and image processing program
JP5943393B2 (en) Imaging device
JP5698489B2 (en) Inspection device
US9406118B2 (en) Stain image color correcting apparatus, method, and system
EP3700195A1 (en) Information processing device, information processing method, imaging device and program
CA2932985A1 (en) Medical imaging
JP2016051167A (en) Image acquisition device and control method therefor
JP2015035782A (en) Image processing device, imaging device, microscope system, image processing method, and image processing program
JP2013238483A (en) Virtual slide device
US20200074628A1 (en) Image processing apparatus, imaging system, image processing method and computer readable recoding medium
CN111007020B (en) Double-frame four-spectrum imaging method and application
JP2009053116A (en) Image processor and image processing program
CN105359517B (en) Image processing apparatus and image processing method
JP2013130686A (en) Imaging apparatus