JP2010156612A - Image processing device, image processing program, image processing method, and virtual microscope system - Google Patents

Image processing device, image processing program, image processing method, and virtual microscope system Download PDF

Info

Publication number
JP2010156612A
JP2010156612A JP2008335122A JP2008335122A JP2010156612A JP 2010156612 A JP2010156612 A JP 2010156612A JP 2008335122 A JP2008335122 A JP 2008335122A JP 2008335122 A JP2008335122 A JP 2008335122A JP 2010156612 A JP2010156612 A JP 2010156612A
Authority
JP
Japan
Prior art keywords
spectrum
estimation
teacher data
image
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008335122A
Other languages
Japanese (ja)
Inventor
Takeshi Otsuka
武 大塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2008335122A priority Critical patent/JP2010156612A/en
Publication of JP2010156612A publication Critical patent/JP2010156612A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To estimate a spectrum of a dyeing sample accurately without preparing beforehand a teacher data table wherein a dyeing state is assumed. <P>SOLUTION: A spectrum estimation part 142 estimates as a first spectrum, a spectrum (spectral transmittance) at a sample point on an object sample image corresponding to an estimation object pixel constituting the object sample image, by using standard teacher data 154 which are teacher data prepared beforehand. An adaptive teacher data generation part 143 generates adaptive teacher data based on the first spectrum. The spectrum estimation part 142 estimates as a second spectrum, a spectrum at the sample point on the object sample image corresponding to the estimation object pixel, by using the adaptive teacher data. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、染色標本を撮像した染色標本画像から染色標本のスペクトルを推定する画像処理装置、画像処理プログラム、画像処理方法およびバーチャル顕微鏡システムに関する。   The present invention relates to an image processing apparatus, an image processing program, an image processing method, and a virtual microscope system that estimate a spectrum of a stained specimen from a stained specimen image obtained by imaging the stained specimen.

被写体に固有の物理的性質を表す物理量の一つに分光透過率スペクトルがある。分光透過率は、各波長における入射光に対する透過光の割合を表す物理量であり、RGB値等の照明光の変化に依存する色情報とは異なり、外因的影響によって値が変化しない物体固有の情報である。このため、分光透過率は、被写体自体の色を再現するための情報として様々な分野で利用されている。例えば、生体組織標本、特に病理標本を用いた病理診断の分野では、標本を撮像した画像の解析に分光特性値の一例として分光透過率が利用されている。   One of the physical quantities representing physical properties inherent to the subject is a spectral transmittance spectrum. Spectral transmittance is a physical quantity that represents the ratio of transmitted light to incident light at each wavelength. Unlike color information that depends on changes in illumination light such as RGB values, object-specific information whose value does not change due to external influences. It is. For this reason, the spectral transmittance is used in various fields as information for reproducing the color of the subject itself. For example, in the field of pathological diagnosis using a biological tissue specimen, particularly a pathological specimen, spectral transmittance is used as an example of a spectral characteristic value for analysis of an image obtained by imaging the specimen.

病理診断では、臓器摘出によって得たブロック標本や針生検によって得た病理標本を厚さ数ミクロン程度に薄切した後、様々な所見を得るために顕微鏡を用いて拡大観察することが広く行われている。中でも光学顕微鏡を用いた透過観察は、機材が比較的安価で取り扱いが容易である上、歴史的に古くから行われてきたこともあって、最も普及している観察方法の一つである。この場合、薄切された標本は光を殆ど吸収および散乱せず無色透明に近いため、観察に先立って色素による染色を施すのが一般的である。   In pathological diagnosis, block specimens obtained by organ excision and pathological specimens obtained by needle biopsy are sliced to several microns in thickness, and are then widely observed using a microscope to obtain various findings. ing. In particular, transmission observation using an optical microscope is one of the most popular observation methods because the equipment is relatively inexpensive and easy to handle, and has been performed for a long time. In this case, since the sliced specimen hardly absorbs and scatters light and is almost colorless and transparent, it is general to stain with a dye prior to observation.

染色手法としては種々のものが提案されており、その総数は100種類以上にも達するが、特に病理標本に関しては、色素として青紫色のヘマトキシリンと赤色のエオジンの2つを用いるヘマトキシリン−エオジン染色(以下、「H&E染色」と称す。)が標準的に用いられている。   Various dyeing methods have been proposed, and the total number thereof reaches 100 or more. Particularly, regarding pathological specimens, hematoxylin-eosin staining using two of blue-violet hematoxylin and red eosin as pigments ( Hereinafter, “H & E staining” is used as a standard.

ヘマトキシリンは植物から採取された天然の物質であり、それ自身には染色性はない。しかし、その酸化物であるヘマチンは好塩基性の色素であり、負に帯電した物質と結合する。細胞核に含まれるデオキシリボ核酸(DNA)は、構成要素として含むリン酸基によって負に帯電しているため、ヘマチンと結合して青紫色に染色される。なお、前述の通り、染色性を有するのはヘマトキシリンでは無く、その酸化物であるヘマチンであるが、色素の名称としてはヘマトキシリンを用いるのが一般的であるため、以下それに従う。一方エオジンは、好酸性の色素であり、正に帯電した物質と結合する。アミノ酸やタンパク質が正負どちらに帯電するかはpH環境に影響を受け、酸性下では正に帯電する傾向が強くなる。このため、エオジン溶液に酢酸を加えて用いることがある。細胞質に含まれるタンパク質は、エオジンと結合して赤から薄赤に染色される。   Hematoxylin is a natural substance collected from plants and itself has no dyeability. However, its oxide, hematin, is a basophilic dye and binds to a negatively charged substance. Since deoxyribonucleic acid (DNA) contained in the cell nucleus is negatively charged by a phosphate group contained as a constituent element, it binds to hematin and is stained blue-violet. As described above, it is not hematoxylin that has a staining property but hematin, which is an oxide thereof. However, since it is common to use hematoxylin as a name of a pigment, the following is followed. On the other hand, eosin is an acidophilic dye and binds to a positively charged substance. Whether amino acids or proteins are charged positively or negatively is affected by the pH environment, and the tendency to be positively charged under acidic conditions becomes stronger. For this reason, acetic acid may be added to the eosin solution. Proteins contained in the cytoplasm are stained from red to light red by binding to eosin.

H&E染色後の標本(染色標本)では、細胞核や骨組織等が青紫色に、細胞質や結合組織、赤血球等が赤色に染色され、容易に視認できるようになる。この結果、観察者は、細胞核等の組織を構成する要素の大きさや位置関係等を把握でき、標本の状態を形態学的に判断することが可能となる。   In a specimen (stained specimen) after H & E staining, cell nuclei, bone tissue, etc. are stained blue-purple, and cytoplasm, connective tissue, erythrocytes, etc. are stained red, so that they can be easily visually recognized. As a result, the observer can grasp the size and positional relationship of the elements constituting the tissue such as the cell nucleus, and can judge the state of the specimen morphologically.

標本の観察は、観察者の目視によるものの他、この標本をマルチバンド撮像して外部装置の表示画面に表示することによっても行われている。表示画面に表示する場合には、撮像したマルチバンド画像から標本の分光透過率を推定する処理や、推定した分光透過率をもとに標本を染色している色素の色素量を推定する処理、推定した色素量をもとに画像の色を補正する処理等が行われ、カメラの特性や染色状態のばらつき等が補正されて、表示用の標本のRGB画像である表示画像が合成される。色素量の推定を適切に行えば、濃く染色された標本や薄く染色された標本を、適切に染色された標本と同等の色を有する画像に補正することができる。   In addition to visual observation by an observer, the specimen is observed by performing multiband imaging of the specimen and displaying it on a display screen of an external device. When displaying on the display screen, the process of estimating the spectral transmittance of the sample from the captured multiband image, the process of estimating the amount of dye dyeing the sample based on the estimated spectral transmittance, A process for correcting the color of the image based on the estimated amount of pigment is performed, and the characteristics of the camera, the variation in the staining state, and the like are corrected, and a display image that is an RGB image of the display sample is synthesized. If the amount of pigment is appropriately estimated, it is possible to correct a darkly stained sample or a lightly stained sample to an image having a color equivalent to that of a properly stained sample.

標本のマルチバンド画像から標本の分光透過率を推定する手法としては、例えば、主成分分析による推定法(例えば、非特許文献1参照)や、ウィナー(Wiener)推定による推定法(例えば、非特許文献2参照)等が挙げられる。ウィナー推定は、ノイズの重畳された観測信号から原信号を推定する線形フィルタ手法の一つとして広く知られており、観測対象の統計的性質とノイズ(観測ノイズ)の特性とを考慮して誤差の最小化を行う手法である。カメラからの信号には何らかのノイズが含まれるため、ウィナー推定は原信号を推定する手法として極めて有用である。   Examples of methods for estimating the spectral transmittance of a specimen from a multiband image of the specimen include, for example, an estimation method based on principal component analysis (see, for example, Non-Patent Document 1) and an estimation method based on Wiener estimation (eg, non-patent). Reference 2). Wiener estimation is widely known as one of the linear filter methods for estimating the original signal from the observed signal with superimposed noise, and takes into account the statistical properties of the observation target and the characteristics of the noise (observation noise). This is a method for minimizing. Since some noise is included in the signal from the camera, the Wiener estimation is extremely useful as a method for estimating the original signal.

ここで、標本のマルチバンド画像から表示画像を合成する方法について説明する。直、詳細な手法については、例えば特許文献1や特許文献2等に開示されている。先ず、標本のマルチバンド画像を撮像する。例えば、特許文献1に開示されている技術を用い、16枚のバンドパスフィルタをフィルタホイールで回転させて切り替えながら、面順次方式でマルチバンド画像を撮像する。これにより、標本上の各点において16バンドの画素値を有するマルチバンド画像が得られる。なお、色素は、本来観察対象となる標本内に3次元的に分布しているが、通常の透過観察系ではそのまま3次元像として捉えることはできず、標本内を透過した照明光をカメラの撮像素子上に投影した2次元像として観察される。したがって、ここでいう各点は、投影された撮像素子の各画素に対応する標本上の点(標本点)を意味している。   Here, a method for synthesizing a display image from a multiband image of a specimen will be described. The detailed method is disclosed in, for example, Patent Document 1 and Patent Document 2. First, a multiband image of a specimen is taken. For example, using the technique disclosed in Patent Document 1, a multiband image is picked up in a frame sequential manner while 16 band pass filters are switched by rotating with a filter wheel. Thereby, a multiband image having 16-band pixel values at each point on the sample is obtained. The dye is originally distributed three-dimensionally in the specimen to be observed. However, in a normal transmission observation system, it cannot be regarded as a three-dimensional image as it is, and the illumination light transmitted through the specimen is not captured by the camera. It is observed as a two-dimensional image projected on the image sensor. Therefore, each point here means a point on the sample (sample point) corresponding to each pixel of the projected image sensor.

撮像されたマルチバンド画像の任意の標本点(画素)xについて、バンドbにおける画素値g(x,b)と、対応する標本点の分光透過率t(x,λ)との間には、カメラの応答システムに基づく次式(1)の関係が成り立つ。

Figure 2010156612
λは波長、f(b,λ)はb番目のフィルタの分光透過率、s(λ)はカメラの分光感度特性、e(λ)は照明の分光放射特性、n(b)はバンドbにおける観測ノイズをそれぞれ表す。bはバンドを識別する通し番号であり、ここでは1≦b≦16を満たす整数値である。 For any sample point (pixel) x of the captured multiband image, between the pixel value g (x, b) in band b and the spectral transmittance t (x, λ) of the corresponding sample point, The relationship of the following formula (1) based on the camera response system is established.
Figure 2010156612
λ is the wavelength, f (b, λ) is the spectral transmittance of the b-th filter, s (λ) is the spectral sensitivity characteristic of the camera, e (λ) is the spectral radiation characteristic of the illumination, and n (b) is in the band b. Represents each observation noise. b is a serial number for identifying a band, and here is an integer value satisfying 1 ≦ b ≦ 16.

実際の計算では、式(1)を波長方向に離散化した次式(2)を用いる。
G(x)=FSET(x)+N ・・・(2)
波長方向のサンプル点数をD、バンド数をBとすれば(ここではB=16)、G(x)は、位置xにおける画素値g(x,b)に対応するB行1列の行列である。同様に、T(x)は、t(x,λ)に対応するD行1列の行列、Fは、f(b,λ)に対応するB行D列の行列である。一方、Sは、D行D列の対角行列であり、対角要素がs(λ)に対応している。同様に、Eは、D行D列の対角行列であり、対角要素がe(λ)に対応している。Nは、n(b)に対応するB行1列の行列である。なお、式(2)では、行列を用いて複数のバンドに関する式を集約しているため、バンドを表す変数bが陽に記述されていない。また、波長λに関する積分は行列の積に置き換えられている。
In actual calculation, the following formula (2) obtained by discretizing the formula (1) in the wavelength direction is used.
G (x) = FSET (x) + N (2)
If the number of sample points in the wavelength direction is D and the number of bands is B (here, B = 16), G (x) is a matrix of B rows and 1 column corresponding to the pixel value g (x, b) at the position x. is there. Similarly, T (x) is a D × 1 matrix corresponding to t (x, λ), and F is a B × D matrix corresponding to f (b, λ). On the other hand, S is a diagonal matrix of D rows and D columns, and the diagonal elements correspond to s (λ). Similarly, E is a diagonal matrix of D rows and D columns, and the diagonal element corresponds to e (λ). N is a matrix of B rows and 1 column corresponding to n (b). In Expression (2), since the expressions related to a plurality of bands are aggregated using a matrix, the variable b representing the band is not explicitly described. In addition, the integration with respect to the wavelength λ is replaced with a matrix product.

ここで、表記を簡単にするため、次式(3)で定義される行列Hを導入する。Hはシステム行列とも呼ばれる。
H=FSE ・・・(3)
Here, in order to simplify the notation, a matrix H defined by the following equation (3) is introduced. H is also called a system matrix.
H = FSE (3)

よって、式(3)は、次式(4)に置き換えられる。
G(x)=HT(x)+N ・・・(4)
Therefore, Expression (3) is replaced with the following Expression (4).
G (x) = HT (x) + N (4)

次に、ウィナー推定を用いて、撮像したマルチバンド画像から標本上の標本点における分光透過率を推定する。分光透過率の推定値T^(x)は、次式(5)で計算することができる。なお、T^は、Tの上に推定値を表す記号「^(ハット)」が付いていることを示す。

Figure 2010156612
Next, the spectral transmittance at the sample point on the specimen is estimated from the captured multiband image using Wiener estimation. The estimated value T ^ (x) of the spectral transmittance can be calculated by the following equation (5). T ^ indicates that a symbol "^ (hat)" representing an estimated value is attached on T.
Figure 2010156612

ここで、Wは次式(6)で表され、「ウィナー推定行列」あるいは「ウィナー推定に用いる推定オペレータ」と呼ばれる。以下の説明では、Wを単に「推定オペレータ」と称す。

Figure 2010156612
SSは、D行D列の行列であり、標本の分光透過率の自己相関行列を表す。また、RNNは、B行B列の行列であり、撮像に使用するカメラのノイズの自己相関行列を表す。 Here, W is expressed by the following equation (6), and is called “a winner estimation matrix” or “an estimation operator used for winner estimation”. In the following description, W is simply referred to as “estimated operator”.
Figure 2010156612
R SS is a matrix of D rows and D columns, and represents an autocorrelation matrix of the spectral transmittance of the sample. R NN is a matrix of B rows and B columns, and represents an autocorrelation matrix of camera noise used for imaging.

このようにして分光透過率T^(x)を推定したならば、次に、このT^(x)をもとに対応する標本上の標本点における色素量を推定する。推定の対象とする色素は、ヘマトキシリン、細胞質を染色したエオジン、赤血球を染色したエオジンまたは染色されていない赤血球本来の色素の3種類であり、それぞれ色素H,色素E,色素Rと略記する。なお、厳密には、染色を施さない状態であっても赤血球はそれ自身特有の色を有しており、H&E染色後は、赤血球自身の色と染色過程において変化したエオジンの色が重畳して観察される。このため、正確には両者を併せたものを色素Rと呼称する。   Once the spectral transmittance T ^ (x) is estimated in this way, the dye amount at the sample point on the corresponding sample is estimated based on T ^ (x). There are three types of pigments to be estimated: hematoxylin, eosin stained with cytoplasm, eosin stained with erythrocytes, or original pigments of unstained erythrocytes, and are abbreviated as pigment H, pigment E, and pigment R, respectively. Strictly speaking, erythrocytes have their own unique color even without staining, and after H & E staining, the color of erythrocytes and the color of eosin changed in the staining process are superimposed. Observed. For this reason, the combination of both is called dye R.

一般に、光を透過する物質では、波長λ毎の入射光の強度I0(λ)と射出光の強度I(λ)との間に、次式(7)で表されるランベルト・ベール(Lambert-Beer)の法則が成り立つことが知られている。

Figure 2010156612
k(λ)は波長に依存して決まる物質固有の値、dは物質の厚さをそれぞれ表す。 In general, in a material that transmits light, a Lambert bale (Lambert) expressed by the following equation (7) between the intensity I 0 (λ) of incident light and the intensity I (λ) of emitted light for each wavelength λ. -Beer) law is known to hold.
Figure 2010156612
k (λ) is a material-specific value determined depending on the wavelength, and d represents the thickness of the material.

ここで、式(7)の左辺は分光透過率t(λ)を意味しており、式(7)は次式(8)に置き換えられる。

Figure 2010156612
Here, the left side of the equation (7) means the spectral transmittance t (λ), and the equation (7) is replaced by the following equation (8).
Figure 2010156612

また、分光吸光度a(λ)は次式(9)で表される。

Figure 2010156612
The spectral absorbance a (λ) is expressed by the following equation (9).
Figure 2010156612

よって、式(8)は次式(10)に置き換えられる。

Figure 2010156612
Therefore, Expression (8) is replaced with the following Expression (10).
Figure 2010156612

H&E染色された標本が、色素H,色素E,色素Rの3種類の色素で染色されている場合、ランベルト・ベールの法則により各波長λにおいて次式(11)が成立する。

Figure 2010156612
H(λ),kE(λ),kR(λ)は、それぞれ色素H,色素E,色素Rに対応するk(λ)を表し、例えば、標本を染色している各色素の色素スペクトル(以下、「基準色素スペクトル」と称す。)である。またdH,dE,dRは、マルチバンド画像の各画像位置に対応する標本点における色素H,色素E,色素Rの仮想的な厚さを表す。本来色素は、標本中に分散して存在するため、厚さという概念は正確ではないが、標本が単一の色素で染色されていると仮定した場合と比較して、どの程度の量の色素が存在しているかを表す相対的な色素量の指標となる。すなわち、dH,dE,dRはそれぞれ色素H,色素E,色素Rの色素量を表しているといえる。なお、kH(λ),kE(λ),kR(λ)は、色素H,色素E,色素Rを用いてそれぞれ個別に染色した標本を予め用意し、その分光透過率を分光計で測定することによって、ランベルト・ベールの法則から容易に求めることができる。 When the H & E-stained specimen is stained with three types of dyes, dye H, dye E, and dye R, the following equation (11) is established at each wavelength λ according to Lambert-Beer's law.
Figure 2010156612
k H (λ), k E (λ), and k R (λ) represent k (λ) corresponding to the dye H, the dye E, and the dye R, respectively. For example, the dye of each dye that stains the specimen Spectrum (hereinafter referred to as “reference dye spectrum”). Further, d H , d E , and d R represent virtual thicknesses of the dye H, the dye E, and the dye R at the sample point corresponding to each image position of the multiband image. Since the dye is inherently dispersed in the specimen, the concept of thickness is not accurate, but how much dye is compared to the assumption that the specimen is stained with a single dye. It is an indicator of the relative amount of pigment that indicates whether or not the selenium is present. That is, it can be said that d H , d E , and d R represent the dye amounts of the dye H, the dye E, and the dye R, respectively. For k H (λ), k E (λ), and k R (λ), specimens individually dyed with the dye H, the dye E, and the dye R are prepared in advance, and the spectral transmittance is measured by the spectrometer. Can be easily obtained from the Lambert-Beer law.

ここで、位置xにおける分光透過率をt(x,λ)とし、分光吸光度をa(x,λ)とすると、式(9)は次式(12)に置き換えられる。

Figure 2010156612
Here, when the spectral transmittance at the position x is t (x, λ) and the spectral absorbance is a (x, λ), the equation (9) is replaced by the following equation (12).
Figure 2010156612

そして、式(5)を用いて推定された分光透過率T^(x)の波長λにおける推定分光透過率をt^(x,λ)、推定吸光度をa^(x,λ)とすると、式(12)は次式(13)に置き換えられる。なお、t^は、tの上に記号「^」が付いていることを示し、a^は、aの上に記号「^」が付いていることを示す。

Figure 2010156612
Then, assuming that the estimated spectral transmittance at the wavelength λ of the spectral transmittance T ^ (x) estimated using the equation (5) is t ^ (x, λ) and the estimated absorbance is a ^ (x, λ), Expression (12) is replaced with the following expression (13). Here, t ^ indicates that a symbol "^" is attached on t, and a ^ indicates that a symbol "^" is attached on a.
Figure 2010156612

式(13)において未知変数はdH,dE,dRの3つであるから、少なくとも3つの異なる波長λについて式(13)を連立させれば、これらを解くことができる。より精度を高めるために、4つ以上の異なる波長λに対して式(13)を連立させ、重回帰分析を行ってもよい。例えば、3つの波長λ1,λ2,λ3について式(13)を連立させた場合、次式(14)のように行列表記できる。

Figure 2010156612
Since there are three unknown variables d H , d E , and d R in equation (13), these equations can be solved if equation (13) is combined for at least three different wavelengths λ. In order to further improve the accuracy, the multiple regression analysis may be performed by simultaneous equations (13) for four or more different wavelengths λ. For example, when Equation (13) is made simultaneous for three wavelengths λ 1 , λ 2 , and λ 3 , the matrix can be expressed as the following Equation (14).
Figure 2010156612

ここで、式(14)を次式(15)に置き換える。

Figure 2010156612
波長方向のサンプル点数をDとすれば、A^(x)は、a^(x,λ)に対応するD行1列の行列であり、Kは、k(λ)に対応するD行3列の行列、d(x)は、位置xにおけるdH,dE,dRに対応する3行1列の行列である。なお、A^は、Aの上に記号「^」が付いていることを示す。 Here, the equation (14) is replaced with the following equation (15).
Figure 2010156612
Assuming that the number of sample points in the wavelength direction is D, A ^ (x) is a matrix of D rows and 1 column corresponding to a ^ (x, λ), and K is D rows 3 corresponding to k (λ). A matrix of columns, d (x), is a 3 × 1 matrix corresponding to d H , d E , d R at position x. A ^ indicates that the symbol "^" is attached on A.

そして、式(15)に従い、最小二乗法を用いて色素量dH,dE,dRを算出する。最小二乗法とは単回帰式において誤差の二乗和を最小にするようにd(x)を決定する方法であり、次式(16)で算出できる。

Figure 2010156612
d^(x)は、推定された色素量である。 Then, the dye amounts d H , d E , and d R are calculated using the least square method according to the equation (15). The least square method is a method of determining d (x) so as to minimize the sum of squares of errors in a single regression equation, and can be calculated by the following equation (16).
Figure 2010156612
d ^ (x) is the estimated pigment amount.

色素H,色素E,色素Rについて色素量d^H,d^E,d^Rを推定し、式(12)に代入すれば、復元した復元分光吸光度a(x,λ)は次式(17)で求められる。なお、d^は、dの上に記号「^」が付いていることを示し、aは、aの上に記号「〜」が付いていることを示す。

Figure 2010156612
Dye H, the dye E, the dye amount d ^ H, d ^ E, the d ^ R estimates for dye R, by substituting the equation (12), restored restored spectral absorbance a ~ (x, lambda) is the following formula It is calculated | required by (17). In addition, d ^ is, indicates that with a symbol "^" on top of the d, a ~ shows that with a symbol "~" on top of a.
Figure 2010156612

ここで、色素量推定における推定誤差e(λ)は、推定分光吸光度a^(x,λ)と復元分光吸光度a(x,λ)とをもとに、次式(18)で求められる。

Figure 2010156612
Here, the estimated error e in the dye amount estimation (lambda), the estimated spectral absorbance a ^ (x, lambda) and restoring spectral absorbance a ~ (x, lambda) and on the basis of obtained by the following equation (18) .
Figure 2010156612

そして、推定分光吸光度a^(x,λ)は、式(17),(18)から次式(19)で表すことができる。

Figure 2010156612
The estimated spectral absorbance a ^ (x, λ) can be expressed by the following equation (19) from the equations (17) and (18).
Figure 2010156612

ランベルト・ベールの法則は、屈折や散乱がないと仮定した場合に半透明物体を透過する光の減衰を定式化したものである。しかしながら、実際の標本では屈折や散乱が起こり得る。このため、標本による光の減衰をランベルト・ベールの法則のみでモデル化した場合、この屈折や散乱に起因する誤差が生じる。しかしながら、屈折や散乱を含めたモデルの構築は極めて困難である。そこで、屈折や散乱の影響を含めたモデル化の誤差である推定誤差e(λ)を考慮することで、物理モデルによる不自然な色変動を引き起こさないようにすることができる。   Lambert-Beer's law formulates the attenuation of light transmitted through a translucent object, assuming no refraction or scattering. However, refraction and scattering can occur in an actual specimen. For this reason, when the attenuation of light by the sample is modeled only by the Lambert-Beer law, errors due to refraction and scattering occur. However, it is extremely difficult to construct a model including refraction and scattering. Therefore, by taking into account an estimation error e (λ) that is a modeling error including the effects of refraction and scattering, it is possible to prevent unnatural color variation due to the physical model.

以上のようにして、色素量d^H,d^E,d^Rが求まれば、これを修正する事で、標本における色素量の変化をシミュレートする事ができる。ここで、染色法によって染色された色素量d^H,d^Eを修正する。赤血球本来の色であるd^Rは修正しない。すなわち、補正色素量d^H *,d^E *は、適当な色素量補正係数αH,αEを用いて次式(20),(21)で求められる。

Figure 2010156612
If the dye amounts d ^ H , d ^ E , d ^ R are obtained as described above, it is possible to simulate changes in the dye amount in the sample by correcting them. Here, the dye amounts d ^ H and d ^ E stained by the staining method are corrected. D ^ R, which is the original color of red blood cells, is not corrected. That is, corrected dye amount d ^ H *, d ^ E * , the following equation using an appropriate dye-amount correction coefficient alpha H, alpha E (20), obtained by (21).
Figure 2010156612

求めた補正色素量d^H *,d^E *を式(12)に代入すれば、次式(22)によって、分光吸光度a〜*(x,λ)が得られる。なお、a〜*は、a*の上に記号「〜」が付いていることを示す。

Figure 2010156612
By substituting the calculated corrected dye amounts d ^ H * and d ^ E * into the equation (12), the spectral absorbances a to * (x, λ) are obtained by the following equation (22). Note that a˜ * indicates that the symbol “˜” is added on a * .
Figure 2010156612

また、推定誤差e(λ)を含める場合には、新たな分光吸光度a^*(x,λ)は、式(23)によって求められる。なお、a^*は、a*の上に記号「^」が付いていることを示す。

Figure 2010156612
When the estimation error e (λ) is included, a new spectral absorbance a ^ * (x, λ) is obtained by the equation (23). Here, a ^ * indicates that the symbol “^” is attached on a * .
Figure 2010156612

この分光吸光度a〜*(x,λ)または分光吸光度a^*(x,λ)を式(10)に代入すれば、式(24)によって、新たな分光透過率t*(x,λ)が得られる。分光吸光度a*(x,λ)は、分光吸光度a〜*(x,λ)または分光吸光度a^*(x,λ)のいずれかの値である。

Figure 2010156612
By substituting this spectral absorbance a˜ * (x, λ) or spectral absorbance a ^ * (x, λ) into equation (10), a new spectral transmittance t * (x, λ) is obtained by equation (24). Is obtained. The spectral absorbance a * (x, λ) is one of the spectral absorbances a to * (x, λ) or the spectral absorbance a ^ * (x, λ).
Figure 2010156612

そして、式(24)を式(1)に代入すれば、新たな画素値g*(x,b)は、次式(25)によって求めることができる。この場合、観測ノイズn(b)をゼロとして計算してよい。

Figure 2010156612
Then, by substituting equation (24) into equation (1), a new pixel value g * (x, b) can be obtained by the following equation (25). In this case, the observation noise n (b) may be calculated as zero.
Figure 2010156612

ここで、式(4)を、次式(26)に置き換える。
*(x)=HT*(x)・・・(26)
*(x)は、g*(x,b)に対応するB行1列の行列であり、T*(x)は、t*(x,λ)に対応するD行1列の行列である。これによって、色素量を仮想的に変化させた標本の画素値G*(x)を合成することができる。
Here, the equation (4) is replaced with the following equation (26).
G * (x) = HT * (x) (26)
G * (x) is a B × 1 matrix corresponding to g * (x, b), and T * (x) is a D × 1 matrix corresponding to t * (x, λ). is there. Thereby, the pixel value G * (x) of the sample in which the pigment amount is virtually changed can be synthesized.

以上説明したように、マルチバンド画像の任意の位置xにおける色素量を推定して標本上の標本点における色素量を仮想的に調整し、調整後の標本の画像を合成することによって、標本の色素量を補正することができる。このとき、自動的に色正規化処理を行い、標本各点における色素量を適正な染色状態に調整することも可能である。また、適当なユーザインターフェースを用意すれば、ユーザは、この色素量の調整を手動で行うことができる。表示用に合成された表示画像は、例えば表示装置に画面表示され、医師等による病理診断等に利用される。これによれば、標本に染色ばらつきがあったとしても、適正な染色状態に調整された画像を観察することが可能となる。   As described above, the amount of dye at an arbitrary position x in the multiband image is estimated, the amount of dye at the sample point on the sample is virtually adjusted, and the image of the sample after adjustment is synthesized, The amount of dye can be corrected. At this time, it is also possible to automatically perform color normalization processing and adjust the dye amount at each point of the sample to an appropriate staining state. In addition, if an appropriate user interface is prepared, the user can manually adjust the dye amount. The display image synthesized for display is displayed on a screen of a display device, for example, and used for pathological diagnosis by a doctor or the like. According to this, even if there is a staining variation in the specimen, it is possible to observe an image adjusted to an appropriate staining state.

ところで、非特許文献1に開示されている手法に従い、推定オペレータWを用いてマルチバンド画像から標本各点の分光透過率(スペクトル)を推定する場合、式(5)で示したシステム行列Hを構成する光学フィルタの分光透過率F、カメラの分光感度特性Sおよび照明の分光放射特性Eと、観測対象の統計的性質を表す項RSSと、撮像ノイズの特性を表す項RNNとを事前に取得しておく必要がある。このうち、観測対象の統計的性質を表す項である自己相関行列RSSは、例えばヘマトキシリンおよびエオジンによって標準的に染色された典型的な標本(標準染色標本)を用意し、分光計によって複数の点のスペクトルを測定して自己相関行列を求めることによって得られる。 By the way, when estimating the spectral transmittance (spectrum) of each point of the sample from the multiband image using the estimation operator W according to the method disclosed in Non-Patent Document 1, the system matrix H shown in Expression (5) is calculated. The spectral transmittance F of the optical filter, the spectral sensitivity characteristic S of the camera, and the spectral emission characteristic E of the illumination, the term R SS representing the statistical properties of the observation object, and the term R NN representing the characteristics of the imaging noise It is necessary to get to. Among these, the autocorrelation matrix R SS , which is a term representing the statistical properties of the observation target, is prepared by preparing a typical specimen (standard stained specimen) that is standardly stained with, for example, hematoxylin and eosin, It is obtained by measuring the spectrum of a point to obtain an autocorrelation matrix.

しかしながら、標本の染色を均一に行うことは難しく、同じ染色方法であっても、標本を染色する施設によって、あるいは染色を施す技師によって染色状態(染色の程度)が異なる場合がある。また、標本の厚さの違いによって染色状態が変わってしまう場合もある。このため、分光特性を推定する染色標本の染色状態が、自己相関行列RSSの算出時に使用した標準染色標本の染色状態と異なるといった事態が生じてしまい、スペクトルの推定精度が低下するという問題があった。 However, it is difficult to uniformly stain the specimen, and even with the same staining method, the staining state (degree of staining) may vary depending on the facility that stains the specimen or the technician who performs the staining. Moreover, the staining state may change depending on the thickness of the specimen. For this reason, there is a problem that the staining state of the stained sample for estimating the spectral characteristics is different from the staining state of the standard stained sample used when calculating the autocorrelation matrix R SS , and the spectrum estimation accuracy is lowered. there were.

この種の問題を解決するための技術として、例えば特許文献3には、被写体の色を推定する際に用いる複数の分光反射率の統計データを予め用意しておき、被写体撮影信号に応じて推定に用いる分光反射率の統計データを切り換える手法が開示されている。   As a technique for solving this type of problem, for example, in Patent Document 3, statistical data of a plurality of spectral reflectances used when estimating the color of a subject is prepared in advance and estimated according to the subject photographing signal. A method of switching statistical data of spectral reflectance used in the above is disclosed.

特開平7−120324号公報JP-A-7-120324 特開2008−51654号公報JP 2008-51654 A 特開2001−8220号公報JP 2001-8220 A “Development of support systems for pathology using spectral transmittance - The quantification method of stain conditions”,Proceedings of SPIE,Vol.4684,2002,p.1516-1523“Development of support systems for pathology using spectral transmittance-The quantification method of stain conditions”, Proceedings of SPIE, Vol.4684, 2002, p.1516-1523 “Color Correction of Pathological Images Based on Dye Amount Quantification”,OPTICAL REVIEW,Vol.12,No.4,2005,p.293-300“Color Correction of Pathological Images Based on Dye Amount Quantification”, OPTICAL REVIEW, Vol.12, No.4, 2005, p.293-300

特許文献3の技術を適用し、事前に自己相関行列RSSを算出するための教師データを染色状態毎に生成しておけば、スペクトルを推定する画素毎に教師データを切り換えて用いることができ、精度良くスペクトルを推定できる。しかしながら、教師データを生成するためには、該当する染色状態で染色した標準染色標本を用意しなければならないため、実際に全ての染色状態を想定して教師データを用意しておくのは困難である。このため、染色標本の染色状態と教師データを生成する際に用いた標準染色標本の染色状態とが異なるといった事態が生じてしまい、スペクトルの推定精度が低下するという問題があった。 If the technique of Patent Document 3 is applied and teacher data for calculating the autocorrelation matrix R SS is generated for each staining state in advance, the teacher data can be switched for each pixel for estimating the spectrum. The spectrum can be estimated with high accuracy. However, in order to generate teacher data, it is necessary to prepare standard stained specimens dyed in the corresponding staining state, so it is difficult to prepare the teacher data in consideration of all staining states. is there. For this reason, there arises a problem that the staining state of the stained sample and the staining state of the standard stained sample used when generating the teacher data are different, and the estimation accuracy of the spectrum is lowered.

本発明は、上記した従来の問題点に鑑みて為されたものであり、染色状態を想定した教師データテーブルを予め用意することなく精度良く染色標本のスペクトルを推定することができる画像処理装置、画像処理プログラム、画像処理方法およびバーチャル顕微鏡システムを提供することを目的とする。   The present invention has been made in view of the above-described conventional problems, and an image processing apparatus capable of accurately estimating a spectrum of a stained specimen without preparing a teacher data table assuming a staining state in advance, An object is to provide an image processing program, an image processing method, and a virtual microscope system.

上記した課題を解決し、目的を達成するための、本発明のある態様にかかる画像処理装置は、染色標本を撮像した染色標本画像から前記染色標本のスペクトルを推定する画像処理装置であって、前記染色標本画像を構成する推定対象画素の画素値をもとに、予め設定される標準教師データを用いて前記推定対象画素に対応する前記染色標本上の標本点におけるスペクトルを第1のスペクトルとして推定する第1のスペクトル推定手段と、前記第1のスペクトルをもとに、前記推定対象画素に適応する適応教師データを生成する教師データ生成手段と、前記推定対象画素の画素値をもとに、前記適応教師データを用いて前記標本点におけるスペクトルを第2のスペクトルとして推定する第2のスペクトル推定手段と、を備えることを特徴とする。   In order to solve the above-described problems and achieve the object, an image processing apparatus according to an aspect of the present invention is an image processing apparatus that estimates a spectrum of the stained specimen from a stained specimen image obtained by imaging the stained specimen, Based on the pixel value of the estimation target pixel constituting the stained sample image, the spectrum at the sample point on the stained sample corresponding to the estimation target pixel is set as the first spectrum using preset standard teacher data. Based on the first spectrum estimating means for estimating, the teacher data generating means for generating adaptive teacher data adapted to the estimation target pixel based on the first spectrum, and the pixel value of the estimation target pixel And a second spectrum estimation means for estimating a spectrum at the sample point as a second spectrum using the adaptive teacher data.

この態様にかかる画像処理装置によれば、染色標本画像を構成する推定対象画素の画素値をもとに、予め設定される標準教師データを用いて推定対象画素に対応する染色標本上の標本点における第1のスペクトルを推定し、推定した第1のスペクトルをもとに、前記推定対象画素に適応する適応教師データを生成することができる。そして、推定対象画素の画素値をもとに、適応教師データを用いて標本点における第2のスペクトルを推定することができる。したがって、推定対象画素の画素値をもとに、推定対象画素に適応するのに適切な教師データをその都度動的に生成することができる。これによれば、染色標本のあらゆる染色状態を事前に想定して教師データを用意しておくことなくスペクトルの推定誤差を低減でき、精度良くかつ簡単に染色標本のスペクトルを推定することができるという効果を奏する。   According to the image processing apparatus according to this aspect, the sample point on the stained sample corresponding to the estimation target pixel using the preset standard teacher data based on the pixel value of the estimation target pixel constituting the stained sample image 1 can be estimated, and adaptive teacher data adapted to the estimation target pixel can be generated based on the estimated first spectrum. Then, based on the pixel value of the estimation target pixel, the second spectrum at the sample point can be estimated using adaptive teacher data. Therefore, based on the pixel value of the estimation target pixel, it is possible to dynamically generate teacher data appropriate for adaptation to the estimation target pixel each time. According to this, it is possible to reduce the estimation error of the spectrum without preparing teacher data assuming all staining states of the stained specimen in advance, and it is possible to estimate the spectrum of the stained specimen accurately and easily. There is an effect.

また、本発明の別の態様にかかる画像処理プログラムは、コンピュータに、染色標本を撮像した染色標本画像から前記染色標本のスペクトルを推定させるための画像処理プログラムであって、前記染色標本画像を構成する推定対象画素の画素値をもとに、予め設定される標準教師データを用い、前記推定対象画素に対応する前記染色標本上の標本点におけるスペクトルを第1のスペクトルとして推定する第1のスペクトル推定ステップと、前記第1のスペクトルをもとに、前記推定対象画素に適応する適応教師データを生成する教師データ生成ステップと、前記推定対象画素の画素値をもとに、前記適応教師データを用いて前記標本点におけるスペクトルを第2のスペクトルとして推定する第2のスペクトル推定ステップと、を前記コンピュータに実行させることを特徴とする。   An image processing program according to another aspect of the present invention is an image processing program for causing a computer to estimate a spectrum of the stained specimen from a stained specimen image obtained by imaging the stained specimen, and configures the stained specimen image. A first spectrum for estimating, as a first spectrum, a spectrum at a sample point on the stained sample corresponding to the estimation target pixel using preset standard teacher data based on the pixel value of the estimation target pixel An estimation step; a teacher data generation step for generating adaptive teacher data adapted to the estimation target pixel based on the first spectrum; and the adaptive teacher data based on a pixel value of the estimation target pixel. And a second spectrum estimation step for estimating a spectrum at the sample point as a second spectrum. Characterized in that to execute the data.

また、本発明の別の態様にかかる画像処理方法は、染色標本を撮像した染色標本画像から前記染色標本のスペクトルを推定する画像処理方法であって、前記染色標本画像を構成する推定対象画素の画素値をもとに、予め設定される標準教師データを用い、前記推定対象画素に対応する前記染色標本上の標本点におけるスペクトルを第1のスペクトルとして推定する第1のスペクトル推定工程と、前記第1のスペクトルをもとに、前記推定対象画素に適応する適応教師データを生成する教師データ生成工程と、前記推定対象画素の画素値をもとに、前記適応教師データを用いて前記標本点におけるスペクトルを第2のスペクトルとして推定する第2のスペクトル推定工程と、を含むことを特徴とする。   An image processing method according to another aspect of the present invention is an image processing method for estimating a spectrum of the stained specimen from a stained specimen image obtained by imaging a stained specimen, and includes an estimation target pixel constituting the stained specimen image. A first spectrum estimation step of estimating a spectrum at a sample point on the stained sample corresponding to the estimation target pixel as a first spectrum using standard teacher data set in advance based on the pixel value; A teacher data generation step for generating adaptive teacher data adapted to the estimation target pixel based on the first spectrum, and the sample points using the adaptive teacher data based on the pixel value of the estimation target pixel And a second spectrum estimation step of estimating the spectrum at as a second spectrum.

また、本発明の別の態様にかかるバーチャル顕微鏡システムは、顕微鏡を用い、染色標本を撮像して染色標本画像を取得する画像取得手段と、前記染色標本画像を構成する推定対象画素の画素値をもとに、予め設定される標準教師データを用いて前記推定対象画素に対応する前記染色標本上の標本点におけるスペクトルを第1のスペクトルとして推定する第1のスペクトル推定手段と、前記第1のスペクトルをもとに、前記推定対象画素に適応する適応教師データを生成する教師データ生成手段と、前記推定対象画素の画素値をもとに、前記適応教師データを用いて前記標本点におけるスペクトルを第2のスペクトルとして推定する第2のスペクトル推定手段と、を備えることを特徴とする。   In addition, a virtual microscope system according to another aspect of the present invention uses a microscope to capture an image of a stained specimen and acquire a stained specimen image, and a pixel value of an estimation target pixel constituting the stained specimen image. First, a first spectrum estimation unit that estimates a spectrum at a sample point on the stained sample corresponding to the estimation target pixel as a first spectrum using preset standard teacher data, and the first spectrum Based on the spectrum, teacher data generation means for generating adaptive teacher data adapted to the estimation target pixel, and based on the pixel value of the estimation target pixel, the spectrum at the sample point is obtained using the adaptive teacher data. And a second spectrum estimation means for estimating as a second spectrum.

本発明によれば、染色状態を想定した教師データテーブルを予め用意することなく精度良く染色標本のスペクトルを推定することができる。   According to the present invention, it is possible to accurately estimate the spectrum of a stained specimen without preparing in advance a teacher data table that assumes a stained state.

以下、図面を参照し、本発明の好適な実施の形態について詳細に説明する。本実施の形態では、H&E染色された生体組織標本(染色標本)を撮像対象としてマルチバンド撮像し、得られたマルチバンド画像をもとに、染色標本の各点(標本点)のスペクトルとして分光透過率を推定する場合を例にとって説明する。なお、この実施の形態によって本発明が限定されるものではない。また、図面の記載において、同一部分には同一の符号を付して示している。   DESCRIPTION OF EMBODIMENTS Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings. In this embodiment, multiband imaging is performed using a biological tissue specimen (stained specimen) that has been subjected to H & E staining as an imaging target, and the spectrum of each point (specimen point) of the stained specimen is spectroscopic based on the obtained multiband image. A case where the transmittance is estimated will be described as an example. Note that the present invention is not limited to the embodiments. Moreover, in description of drawing, the same code | symbol is attached | subjected and shown to the same part.

図1〜図3は、本実施の形態における染色標本のスペクトル推定原理を説明する図である。本実施の形態のスペクトル推定では先ず、図1に示すように、染色標本をマルチバンド撮像した6バンドのマルチバンド画像11をもとに、予め用意される標準的な教師データ12を用いてスペクトル推定を行い、染色標本の第1のスペクトル13を推定する。   1 to 3 are diagrams for explaining the spectrum estimation principle of the stained specimen in the present embodiment. In the spectrum estimation according to the present embodiment, first, as shown in FIG. 1, a spectrum is prepared by using standard teacher data 12 prepared in advance based on a 6-band multiband image 11 obtained by imaging a stained specimen. Estimation is performed to estimate the first spectrum 13 of the stained specimen.

続いて、図2に示すように、第1のスペクトルをもとに色素量推定を行い、染色標本を染色している色素H,色素E,色素Rの推定色素量14を得る。続いて、推定色素量をもとに1つ以上の近傍色素量を算出する。例えば、色素Hの推定色素量の値を中心とした矢印AHで示す所定範囲の値を色素Hについての近傍色素量とし、色素Eの推定色素量の値を中心とした矢印AEで示す所定範囲の値を色素Eについての近傍色素量とし、色素Rの推定色素量の値を中心とした矢印ARで示す所定範囲の値を色素Rについての近傍色素量とする。そして、算出した近傍色素量をもとにスペクトルを合成することによって、適応教師データ15を動的に生成する。 Subsequently, as shown in FIG. 2, the amount of dye is estimated based on the first spectrum, and an estimated amount of dye 14 of the dye H, dye E, and dye R staining the stained specimen is obtained. Subsequently, one or more neighboring pigment amounts are calculated based on the estimated pigment amount. For example, a value in a predetermined range indicated by an arrow A H centering on an estimated dye amount value of the dye H is set as a neighboring dye amount for the dye H, and indicated by an arrow A E centering on the estimated dye amount value of the dye E. the value of the predetermined range and the vicinity dye amounts for pigments E, the value of the predetermined range indicated by the arrow a R around the value of the estimated dye amount of the dye R and vicinity dye amounts for R dye. Then, the adaptive teacher data 15 is dynamically generated by synthesizing the spectrum based on the calculated neighboring pigment amount.

続いて、図3に示すように、染色標本をマルチバンド撮像した6バンドのマルチバンド画像11をもとに、生成した適応教師データ15を用いて再度スペクトル推定を行い、染色標本の第2のスペクトル16を推定する。   Subsequently, as shown in FIG. 3, spectrum estimation is performed again using the generated adaptive teacher data 15 based on the 6-band multiband image 11 obtained by multiband imaging of the stained specimen, and the second of the stained specimen is obtained. The spectrum 16 is estimated.

(実施の形態1)
先ず、実施の形態1について説明する。図4は、実施の形態1の画像処理装置1の機能構成を示すブロック図である。画像処理装置1は、パソコン等のコンピュータで構成され、染色標本のマルチバンド画像を取得する画像取得部110を備える。
(Embodiment 1)
First, the first embodiment will be described. FIG. 4 is a block diagram illustrating a functional configuration of the image processing apparatus 1 according to the first embodiment. The image processing apparatus 1 includes a computer such as a personal computer, and includes an image acquisition unit 110 that acquires a multiband image of a stained specimen.

画像取得部110は、スペクトル(分光透過率)の推定対象の染色標本(以下、「対象標本」と称す。)を撮像して6バンドのマルチバンド画像を取得する。図5は、画像取得部110の構成を示す模式図である。図5に示すように、画像取得部110は、画像取得動作を行って対象標本Sを撮像し、6バンドのマルチバンド画像を取得する。この画像取得部110は、CCD等の撮像素子等を備えたRGBカメラ111、対象標本Sが載置される標本保持部113、標本保持部113上の対象標本Sを透過照明する照明部115、対象標本Sからの透過光を集光して結像させる光学系117、結像する光の波長帯域を所定範囲に制限するためのフィルタ部119等を備える。   The image acquisition unit 110 captures a stained sample (hereinafter referred to as “target sample”) whose spectrum (spectral transmittance) is to be estimated, and acquires a 6-band multiband image. FIG. 5 is a schematic diagram illustrating the configuration of the image acquisition unit 110. As illustrated in FIG. 5, the image acquisition unit 110 performs an image acquisition operation to capture the target specimen S, and acquires a 6-band multiband image. The image acquisition unit 110 includes an RGB camera 111 including an imaging device such as a CCD, a sample holding unit 113 on which the target sample S is placed, an illumination unit 115 that transmits and illuminates the target sample S on the sample holding unit 113, An optical system 117 for condensing the transmitted light from the target sample S to form an image, a filter unit 119 for limiting the wavelength band of the imaged light to a predetermined range, and the like are provided.

RGBカメラ111は、デジタルカメラ等で広く用いられているものであり、モノクロの撮像素子上にモザイク状にRGBのカラーフィルタを配置したものである。このRGBカメラ111は、撮像される画像の中心が照明光の光軸上に位置するように設置される。図6は、カラーフィルタの配列例およびRGB各バンドの画素配列を模式的に示す図である。この場合、各画素はR,G,Bいずれかの成分しか撮像することはできないが、近傍の画素値を利用することで、不足するR,G,B成分が補間される。この手法は、例えば特許第3510037号公報で開示されている。なお、3CCDタイプのカメラを使用すれば、最初から各画素におけるR,G,B成分を取得できる。本実施の形態では、いずれの撮像方式を用いても構わないが、以下ではRGBカメラ111で撮像された画像の各画素においてR,G,B成分が取得できているものとする。   The RGB camera 111 is widely used in digital cameras and the like, and has RGB color filters arranged in a mosaic pattern on a monochrome image sensor. The RGB camera 111 is installed so that the center of the image to be captured is positioned on the optical axis of the illumination light. FIG. 6 is a diagram schematically illustrating an arrangement example of color filters and a pixel arrangement of each RGB band. In this case, each pixel can image only one of R, G, and B components, but by using neighboring pixel values, the insufficient R, G, and B components are interpolated. This technique is disclosed in, for example, Japanese Patent No. 3510037. If a 3CCD type camera is used, R, G and B components in each pixel can be acquired from the beginning. In this embodiment, any imaging method may be used. In the following, it is assumed that R, G, and B components can be acquired in each pixel of an image captured by the RGB camera 111.

フィルタ部119は、それぞれ異なる分光透過率特性を有する2枚の光学フィルタ1191a,1191bを具備しており、これらが回転式の光学フィルタ切替部1193に保持されて構成されている。図7は、一方の光学フィルタ1191aの分光透過率特性を示す図であり、図8は、他方の光学フィルタ1191bの分光透過率特性を示す図である。例えば先ず、光学フィルタ1191aを用いて第1の撮像を行う。次いで、光学フィルタ切替部1193の回転によって使用する光学フィルタを光学フィルタ1191bに切り替え、光学フィルタ1191bを用いて第2の撮像を行う。この第1の撮像および第2の撮像によって、それぞれ3バンドの画像が得られ、両者の結果を合わせることによって6バンドのマルチバンド画像が得られる。なお、光学フィルタの数は2枚に限定されるものではなく、3枚以上の光学フィルタを用いることができる。取得された対象標本Sのマルチバンド画像(以下、「対象標本画像」と称す。)は、マルチバンド画像データ152として画像処理装置1の記憶部150に格納される。   The filter unit 119 includes two optical filters 1191 a and 1191 b each having different spectral transmittance characteristics, and these are held by a rotary optical filter switching unit 1193. FIG. 7 is a diagram showing the spectral transmittance characteristics of one optical filter 1191a, and FIG. 8 is a diagram showing the spectral transmittance characteristics of the other optical filter 1191b. For example, first, first imaging is performed using the optical filter 1191a. Next, the optical filter to be used is switched to the optical filter 1191b by the rotation of the optical filter switching unit 1193, and the second imaging is performed using the optical filter 1191b. By the first imaging and the second imaging, a 3-band image is obtained, and a 6-band multiband image is obtained by combining both results. Note that the number of optical filters is not limited to two, and three or more optical filters can be used. The acquired multiband image of the target specimen S (hereinafter referred to as “target specimen image”) is stored in the storage unit 150 of the image processing apparatus 1 as multiband image data 152.

この画像取得部110において、照明部115によって照射された照明光は、標本保持部113上に載置された対象標本Sを透過する。そして、対象標本Sを透過した透過光は、光学系117および光学フィルタ1191a,1191bを経由した後、RGBカメラ111の撮像素子上に結像する。光学フィルタ1191a,1191bを具備するフィルタ部119は、照明部115からRGBカメラ111に至る光路上のいずれかの位置に設置されていればよい。照明部115からの照明光を、光学系117を介してRGBカメラ111で撮像する際の、R,G,B各バンドの分光感度の例を、図9に示す。   In the image acquisition unit 110, the illumination light irradiated by the illumination unit 115 passes through the target sample S placed on the sample holding unit 113. The transmitted light that has passed through the target specimen S passes through the optical system 117 and the optical filters 1191a and 1191b, and then forms an image on the image sensor of the RGB camera 111. The filter unit 119 including the optical filters 1191 a and 1191 b may be installed at any position on the optical path from the illumination unit 115 to the RGB camera 111. An example of spectral sensitivities of each of the R, G, and B bands when the illumination light from the illumination unit 115 is imaged by the RGB camera 111 via the optical system 117 is shown in FIG.

また、図4に示すように、画像処理装置1は、入力部120と、表示部130と、演算部140、記憶部150と、装置各部を制御する制御部160とを備える。   As shown in FIG. 4, the image processing apparatus 1 includes an input unit 120, a display unit 130, a calculation unit 140, a storage unit 150, and a control unit 160 that controls each unit of the apparatus.

入力部120は、例えば、キーボードやマウス、タッチパネル、各種スイッチ等の各種入力装置によって実現されるものであり、操作入力に応じた入力信号を制御部160に出力する。表示部130は、LCDやELディスプレイ、CRTディスプレイ等の表示装置によって実現されるものであり、制御部160から入力される表示信号をもとに各種画面を表示する。   The input unit 120 is realized by various input devices such as a keyboard, a mouse, a touch panel, and various switches, and outputs an input signal corresponding to an operation input to the control unit 160. The display unit 130 is realized by a display device such as an LCD, an EL display, or a CRT display, and displays various screens based on display signals input from the control unit 160.

演算部140は、CPU等のハードウェアによって実現される。この演算部140は、推定オペレータ算出手段としての推定オペレータ算出部141と、第1のスペクトル推定手段および第2のスペクトル推定手段としてのスペクトル推定部142と、教師データ生成手段としての適応教師データ生成部143と、スペクトル評価手段としてのスペクトル評価部147とを含む。推定オペレータ算出部141は、予め用意される教師データである標準教師データまたはその都度適応的に生成される教師データである適応教師データを用いて推定オペレータWを算出する。スペクトル推定部142は、対象標本画像を構成する推定対象画素に対応する対象標本画像上の標本点におけるスペクトルとして、分光透過率を推定する。適応教師データ生成部143は、色素量推定手段としての色素量推定部144と、近傍色素量算出手段としての近傍色素量算出部145と、スペクトル合成手段としてのスペクトル合成部146とを含み、適応教師データを生成する。色素量推定部144は、推定対象画素について推定した第1のスペクトルをもとに、対応する標本点の色素量(推定色素量)を推定する。近傍色素量算出部145は、推定色素量をもとに、各色素H、色素E,色素Rそれぞれの近傍色素量を算出する。スペクトル合成部146は、色素H、色素Eおよび色素Rの近傍色素量をもとにスペクトルを合成する。以下、スペクトル合成部146によって合成されるスペクトルを「合成スペクトル」と称す。スペクトル評価部147は、適応教師データを用いて行ったスペクトル(第2のスペクトル)の推定精度を評価する。   The calculation unit 140 is realized by hardware such as a CPU. The calculation unit 140 includes an estimation operator calculation unit 141 as an estimation operator calculation unit, a spectrum estimation unit 142 as a first spectrum estimation unit and a second spectrum estimation unit, and adaptive teacher data generation as a teacher data generation unit. Part 143 and spectrum evaluation part 147 as spectrum evaluation means. The estimation operator calculation unit 141 calculates the estimation operator W using standard teacher data that is teacher data prepared in advance or adaptive teacher data that is adaptively generated each time. The spectrum estimation unit 142 estimates the spectral transmittance as the spectrum at the sample point on the target sample image corresponding to the estimation target pixel constituting the target sample image. The adaptive teacher data generation unit 143 includes a pigment amount estimation unit 144 as a pigment amount estimation unit, a neighborhood pigment amount calculation unit 145 as a neighborhood pigment amount calculation unit, and a spectrum synthesis unit 146 as a spectrum synthesis unit. Generate teacher data. The pigment amount estimation unit 144 estimates the pigment amount (estimated pigment amount) of the corresponding sample point based on the first spectrum estimated for the estimation target pixel. The near dye amount calculation unit 145 calculates the near dye amount of each of the dye H, the dye E, and the dye R based on the estimated dye amount. The spectrum synthesizer 146 synthesizes a spectrum based on the amount of dye in the vicinity of the dye H, the dye E, and the dye R. Hereinafter, the spectrum synthesized by the spectrum synthesizing unit 146 is referred to as a “synthesized spectrum”. The spectrum evaluation unit 147 evaluates the estimation accuracy of the spectrum (second spectrum) performed using the adaptive teacher data.

記憶部150は、更新記憶可能なフラッシュメモリ等のROMやRAMといった各種ICメモリ、内蔵あるいはデータ通信端子で接続されたハードディスク、CD−ROM等の情報記憶媒体およびその読取装置等によって実現されるものである。この記憶部150には、画像処理装置10を動作させ、この画像処理装置10が備える種々の機能を実現するためのプログラムや、このプログラムの実行中に使用されるデータ等が格納される。   The storage unit 150 is realized by various IC memories such as ROM and RAM such as flash memory that can be updated and stored, a built-in hard disk connected by a data communication terminal, an information storage medium such as a CD-ROM, and a reading device thereof. It is. The storage unit 150 stores a program for operating the image processing apparatus 10 and realizing various functions of the image processing apparatus 10, data used during execution of the program, and the like.

例えば、記憶部150には、画像処理プログラム151と、マルチバンド画像データ152と、スペクトル推定用データ153とが格納される。画像処理プログラム151は、対象標本画像から対象標本のスペクトルを推定する処理を実現するためのプログラムである。マルチバンド画像データ152は、画像取得部110によって取得された対象標本画像の画像データである。スペクトル推定用データ153は、標準教師データ154と、フィルタ分光透過率(F)155と、カメラ分光感度特性(S)156と、照明分光放射特性(E)157と、基準色素スペクトル(色素H,E,R)158とを含む。   For example, the storage unit 150 stores an image processing program 151, multiband image data 152, and spectrum estimation data 153. The image processing program 151 is a program for realizing processing for estimating the spectrum of the target specimen from the target specimen image. The multiband image data 152 is image data of the target specimen image acquired by the image acquisition unit 110. The spectrum estimation data 153 includes standard teacher data 154, filter spectral transmittance (F) 155, camera spectral sensitivity characteristic (S) 156, illumination spectral radiation characteristic (E) 157, reference dye spectrum (dye H, E, R) 158.

標準教師データ154は、ヘマトキシリンおよびエオジンによって標準的に染色された典型的な標本(標準染色標本)を用意して取得した標準染色標本のスペクトルデータと色データとを記憶する。スペクトルデータは、標準染色標本上の例えば複数の点について分光計で測定したスペクトル(分光透過率)のデータである。色データは、例えば、標準染色標本をマルチバンド撮像した標準標本画像から取得した色のデータであり、1つの画素値であってもよいし、複数の画素の画素値、例えば前述の複数の点に対応する画素の画素値の平均値や最大値、最小値、分光情報等であってもよい。この他、記憶部150には、適応教師データ生成部143によって生成される適応教師データ等が格納される。   The standard teacher data 154 stores spectrum data and color data of a standard stained specimen obtained by preparing a typical specimen (standard stained specimen) that is standardly stained with hematoxylin and eosin. The spectrum data is data of a spectrum (spectral transmittance) measured with a spectrometer at, for example, a plurality of points on the standard stained specimen. The color data is, for example, color data acquired from a standard specimen image obtained by multiband imaging of a standard stained specimen, and may be one pixel value, or pixel values of a plurality of pixels, for example, the plurality of points described above. May be an average value, a maximum value, a minimum value, spectral information, or the like of pixel values of pixels corresponding to. In addition, the storage unit 150 stores adaptive teacher data generated by the adaptive teacher data generation unit 143 and the like.

制御部160は、CPU等のハードウェアによって実現される。この制御部160は、入力部120から入力される入力信号や画像取得部110から入力される画像データ、記憶部150に格納されるプログラムやデータ等をもとに画像処理装置10を構成する各部への指示やデータの転送等を行い、画像処理装置10全体の動作を統括的に制御する。また、制御部160は、マルチバンド画像取得制御部161を含む。マルチバンド画像取得制御部161は、画像取得部110の動作を制御して対象標本画像を取得する。   The control unit 160 is realized by hardware such as a CPU. The control unit 160 is a component that configures the image processing apparatus 10 based on input signals input from the input unit 120, image data input from the image acquisition unit 110, programs and data stored in the storage unit 150, and the like. The operation of the image processing apparatus 10 as a whole is controlled in an integrated manner. The control unit 160 includes a multiband image acquisition control unit 161. The multiband image acquisition control unit 161 acquires the target specimen image by controlling the operation of the image acquisition unit 110.

図10は、実施の形態1の画像処理装置1が行う処理手順を示すフローチャートである。なお、ここで説明する処理は、記憶部150に格納された画像処理プログラム151に従って画像処理装置1の各部が動作することによって実現される。また、以下では、対象標本画像の任意の位置xを推定対象画素とし、この推定対象画素に着目した処理として説明するが、対象標本画像上の全ての画素についてスペクトルを推定する場合には、各画素を順次推定対象画素として処理を行えばよい。   FIG. 10 is a flowchart illustrating a processing procedure performed by the image processing apparatus 1 according to the first embodiment. Note that the processing described here is realized by the operation of each unit of the image processing apparatus 1 in accordance with the image processing program 151 stored in the storage unit 150. Further, in the following, an arbitrary position x of the target specimen image is set as an estimation target pixel and described as processing focusing on the estimation target pixel. However, when estimating the spectrum for all the pixels on the target specimen image, Processing may be performed sequentially with pixels as pixels to be estimated.

図10に示すように、先ず、マルチバンド画像取得制御部161が画像取得部110の動作を制御して対象標本をマルチバンド撮像し、対象標本画像を取得する(ステップs1)。取得した対象標本画像の画像データは、記憶部150に格納される。   As shown in FIG. 10, first, the multiband image acquisition control unit 161 controls the operation of the image acquisition unit 110 to perform multiband imaging of the target sample and acquire the target sample image (step s1). The acquired image data of the target specimen image is stored in the storage unit 150.

続いて、推定オペレータ算出部141が、標準教師データ154を用いて自己相関行列RSSを算出する(ステップs3)。ここで、ある染色状態に含まれるスペクトルが1つの場合、自己相関行列RSSは次式(27)に従って算出できる。行列式Vは、スペクトルの平均ベクトルを表す。また、Tは行列式の転置を表す。

Figure 2010156612
Subsequently, the estimation operator calculation unit 141 calculates the autocorrelation matrix R SS using the standard teacher data 154 (step s3). Here, when there is one spectrum included in a certain staining state, the autocorrelation matrix R SS can be calculated according to the following equation (27). The determinant V represents the average vector of the spectrum. T represents transposition of the determinant.
Figure 2010156612

実際には、標準教師データ154は、標準染色標本上の例えば複数の点について分光計で測定したスペクトル(分光透過率)のデータであり、複数のスペクトルが含まれる。このため、標準染色標本の染色状態と対象標本の染色状態との類似度diをもとに、次式(28)に示す重み付き平均ベクトルV´を算出する。iは、標準教師データ154に含まれるスペクトルの識別番号を表す。

Figure 2010156612
Actually, the standard teacher data 154 is, for example, spectrum (spectral transmittance) data measured by a spectrometer at a plurality of points on the standard stained specimen, and includes a plurality of spectra. Therefore, a weighted average vector V ′ shown in the following equation (28) is calculated based on the similarity d i between the staining state of the standard staining sample and the staining state of the target sample. i represents the identification number of the spectrum included in the standard teacher data 154.
Figure 2010156612

ここで、類似度diは、例えば次のように算出する。すなわち、先ず、対象標本画像の色データを取得する。例えば、推定対象画素の画素値を色データとして取得する。そして、標準教師データ154の色データと取得した対象標本画像の色データとを特徴空間に写像し、各写像点間の距離を算出して類似度diとする。 Here, the similarity d i is calculated as follows, for example. That is, first, the color data of the target specimen image is acquired. For example, the pixel value of the estimation target pixel is acquired as color data. Then, the color data of the standard teacher data 154 and the acquired color data of the target specimen image are mapped to the feature space, and the distance between the mapping points is calculated to obtain the similarity d i .

続いて、算出した重み付き平均ベクトルV´を用い、次式(29)に従って自己相関行列RSSを算出する。

Figure 2010156612
Subsequently, the autocorrelation matrix R SS is calculated according to the following equation (29) using the calculated weighted average vector V ′.
Figure 2010156612

以上のようにして自己相関行列RSSを算出したならば、図10に示すように、推定オペレータ算出部141は、位置x(スペクトルの推定対象画素)の画素値をもとに、算出した自己相関行列RSSを用いて推定オペレータWを算出する(ステップs5)。具体的には、推定オペレータWは、背景技術で示した次式(6)に従って算出する。

Figure 2010156612
When the autocorrelation matrix R SS is calculated as described above, as shown in FIG. 10, the estimation operator calculation unit 141 calculates the calculated self based on the pixel value of the position x (spectrum estimation target pixel). An estimation operator W is calculated using the correlation matrix R SS (step s5). Specifically, the estimation operator W is calculated according to the following equation (6) shown in the background art.
Figure 2010156612

ここで、背景技術で示したように、次式(3)で定義されるシステム行列Hを導入する。
H=FSE ・・・(3)
Here, as shown in the background art, a system matrix H defined by the following equation (3) is introduced.
H = FSE (3)

なお、光学フィルタ1191a,1191bの分光透過率F、RGBカメラ111の分光感度特性Sおよび単位時間当たりの照明の分光放射特性E(^)の各値は、画像取得部110を構成する各部に用いる機器を選定した後、分光計等を用いて測定しておく。そして、フィルタ分光透過率(F)155、カメラ分光感度特性(S)156、照明分光放射特性(E)157として記憶部150に格納しておく。また、RGBカメラ111のノイズの自己相関行列RNNについては、推定対象画素の画素値を用いて算出する。すなわち、予め標本を設置せずに標本無しの状態で画像取得部110によってマルチバンド画像を取得しておく。そして、得られたマルチバンド画像の各バンドについて画素値に対する画素値の分散を求め、この画素値と画素値の分散とから近似式を算出する。そして、算出した近似式を用いて推定対象画素の画素値に対する画素値の分散を求め、これを対角成分とする行列を生成することによって、ノイズの自己相関行列RNNを算出する。ただし、バンド間でノイズの相関は無いと仮定している。ここで算出した推定オペレータWは、第1の推定オペレータとして記憶部150に格納される。 Note that the values of the spectral transmittance F of the optical filters 1191a and 1191b, the spectral sensitivity characteristic S of the RGB camera 111, and the spectral radiation characteristic E (^) of illumination per unit time are used for each part of the image acquisition unit 110. After selecting the equipment, measure using a spectrometer. The filter spectral transmittance (F) 155, camera spectral sensitivity characteristic (S) 156, and illumination spectral radiation characteristic (E) 157 are stored in the storage unit 150. Also, the noise autocorrelation matrix R NN of the RGB camera 111 is calculated using the pixel value of the estimation target pixel. That is, a multiband image is acquired by the image acquisition unit 110 without a sample in advance and without a sample. Then, for each band of the obtained multiband image, the variance of the pixel value with respect to the pixel value is obtained, and an approximate expression is calculated from the pixel value and the variance of the pixel value. Then, the noise autocorrelation matrix R NN is calculated by obtaining the variance of the pixel value with respect to the pixel value of the estimation target pixel using the calculated approximate expression and generating a matrix having this as a diagonal component. However, it is assumed that there is no noise correlation between the bands. The estimated operator W calculated here is stored in the storage unit 150 as the first estimated operator.

続いて、図10に示すように、スペクトル推定部142が、ステップs5で算出した第1の推定オペレータを用いて、推定対象画素に対応する対象標本上の標本点における第1のスペクトルを推定する(ステップs7)。具体的には、背景技術で示した次式(5)に従い、推定対象画素である対象標本画像の位置xにおける画素の画素値の行列表現G(x)から、対応する標本点におけるスペクトルT^(x)を算出する。得られたスペクトルT^(x)は、第1のスペクトルとして記憶部150に格納される。

Figure 2010156612
Subsequently, as shown in FIG. 10, the spectrum estimation unit 142 estimates the first spectrum at the sample point on the target sample corresponding to the estimation target pixel using the first estimation operator calculated in step s5. (Step s7). Specifically, according to the following equation (5) shown in the background art, from the matrix representation G (x) of the pixel value of the pixel at the position x of the target sample image that is the estimation target pixel, the spectrum T ^ at the corresponding sample point (X) is calculated. The obtained spectrum T ^ (x) is stored in the storage unit 150 as the first spectrum.
Figure 2010156612

続いて、適応教師データの算出に移る。すなわち、図10に示すように先ず、適応教師データ生成部143の色素量推定部144が、第1のスペクトルをもとに、予め測定されて記憶部150に格納されている色素H,色素E,色素Rの基準色素スペクトルを用いて対象標本の色素量を推定する(ステップs9)。ここで、色素H,色素E,色素Rの基準色素スペクトルは、予め算出しておく。そして、基準色素スペクトル(色素H,E,R)158として記憶部150に格納しておく。   Subsequently, the process proceeds to calculation of adaptive teacher data. That is, as illustrated in FIG. 10, first, the pigment amount estimation unit 144 of the adaptive teacher data generation unit 143 measures the pigment H and pigment E that are measured in advance and stored in the storage unit 150 based on the first spectrum. The amount of pigment in the target sample is estimated using the reference pigment spectrum of the pigment R (step s9). Here, the reference dye spectra of the dye H, the dye E, and the dye R are calculated in advance. Then, it is stored in the storage unit 150 as a reference dye spectrum (dyes H, E, R) 158.

具体的には、推定対象画素である染色標本画像の位置xの第1のスペクトルをもとに、対応する標本点に固定された色素H,色素E,色素Rそれぞれの色素量(推定色素量)を推定する。ここで推定の対象とする色素は、ヘマトキシリン(色素H)と、細胞質を染色したエオジン(色素E)と、染色されていない赤血球の色(色素R)である。すなわち、背景技術で示した次式(16)に従って、d^H,d^E,d^Rについて解く。推定された推定色素量d^H,d^E,d^Rは、記憶部150に格納される。

Figure 2010156612
Specifically, based on the first spectrum at the position x of the stained specimen image that is the estimation target pixel, the dye amounts (estimated dye amounts) of the dye H, the dye E, and the dye R that are fixed to the corresponding sample points. ). The pigments to be estimated here are hematoxylin (dye H), eosin stained with cytoplasm (dye E), and unstained red blood cell color (dye R). That is, d ^ H , d ^ E , d ^ R are solved according to the following equation (16) shown in the background art. The estimated estimated pigment amounts d ^ H , d ^ E , d ^ R are stored in the storage unit 150.
Figure 2010156612

なお、本実施の形態ではH&E染色された染色標本を対象としているため、ここでは色素H,色素E,色素Rの色素量を推定した。これに対し、他の染色色素で染色された標本を対象とする場合も、同様の処理を適用することでその色素量を推定できる。また、標本自体が有する固有の色についても同様に扱うことができる。例えばここでは、赤血球が有する色である色素Rが該当する。   In the present embodiment, since dyed specimens subjected to H & E staining are targeted, the dye amounts of dye H, dye E, and dye R are estimated here. On the other hand, even when a specimen stained with another staining pigment is used as an object, the amount of the pigment can be estimated by applying the same processing. The unique color of the specimen itself can be handled in the same way. For example, here, dye R, which is a color of red blood cells, corresponds.

続いて、図10に示すように、近傍色素量算出部145が、ステップs9で推定した推定色素量d^H,d^E,d^Rをもとに近傍色素量を算出する(ステップs11)。例えば、色素H,色素E,色素Rそれぞれについて、推定色素量d^H,d^E,d^Rの値を中心とした所定範囲の値を近傍色素量として算出する。具体的には、近傍色素量は、所定の色素量補正係数を用いた補正色素量として算出できる。すなわち、色素量d^H,d^Eと色素量補正係数αH,αEとから、背景技術で示した次式(20),(21)に従って色素H,色素Eの補正色素量(すなわち近傍色素量)d^H *,d^E *を算出するとともに、色素量d^Rと色素量補正係数αRとから、次式(30)に従って色素Rの近傍色素量d^R *を算出する。

Figure 2010156612
Subsequently, as shown in FIG. 10, the neighboring pigment amount calculation unit 145 calculates the neighboring pigment amount based on the estimated pigment amounts d ^ H , d ^ E , d ^ R estimated in step s9 (step s11). ). For example, for each of the dye H, the dye E, and the dye R, a value in a predetermined range centered on the estimated dye amounts d ^ H , d ^ E , d ^ R is calculated as the neighboring dye amount. Specifically, the near dye amount can be calculated as a corrected dye amount using a predetermined dye amount correction coefficient. That is, the dye amount d ^ H, d ^ E and the dye amount correction coefficient alpha H, and a alpha E, the following equation described in the background art (20), corrected dye amount of the dye H, the dye E in accordance with (21) (i.e. near dye amount) d ^ H *, and calculates a d ^ E *, and a dye amount d ^ R and the dye amount correction coefficient alpha R, the neighborhood dye amount d ^ R * dye R according to the following equation (30) calculate.
Figure 2010156612

より詳細にはこのとき、近傍色素量算出部145は、次式(31),(32),(33)に従って色素量補正係数αH,αE,αRを算出する。

Figure 2010156612
More specifically, at this time, the nearby dye amount calculation unit 145 calculates the dye amount correction coefficients α H , α E , and α R according to the following equations (31), (32), and (33).
Figure 2010156612

stepαH,stepαE,stepαEは、各色素量補正係数αH,αE,αRの刻み幅を表し、例えばそれぞれ“0.1”が設定される。この刻み幅は、予め固定値として設定しておく構成としてもよいし、ユーザ操作に従って可変に設定する構成としてもよい。また、indexαH,indexαE,indexαEは、近傍色素量の各データを識別するための識別番号を表し、例えばそれぞれに{−3,−2,−1, 0,1,2,3}が設定される。このindexαH,indexαE,indexαEは、算出する近傍色素量の数に応じて適宜設定すればよく、ここでは、推定色素量d^H,d^E,d^Rを中心とした7個の近傍色素量(推定色素量d^H,d^E,d^Rを含む)が算出される。算出した近傍色素量d^H *,d^E *,d^R *は、記憶部150に格納される。 stepα H, stepα E, stepα E, each dye-amount correction coefficient alpha H, alpha E, represents the step size of the alpha R, is set, for example, are "0.1". The step size may be set in advance as a fixed value, or may be set variably in accordance with a user operation. Also, indexα H , indexα E , and indexα E represent identification numbers for identifying each data of neighboring pigment amounts. For example, {−3, −2, −1, 0, 1, 2, 3} Is set. The index α H , index α E , and index α E may be set as appropriate according to the number of neighboring pigment amounts to be calculated. Here, seven index α H , d ^ E , and d ^ R are used as the centers. (Including estimated pigment amounts d ^ H , d ^ E , d ^ R ). The calculated neighborhood pigment amounts d ^ H * , d ^ E * , d ^ R * are stored in the storage unit 150.

なお、近傍色素量d^H *,d^E *,d^R *の算出は、式(20),(21),(30)に示す推定色素量d^H,d^E,d^Rに色素量補正係数αH,αE,αRを乗じる形式に限定されるものではなく、これらを加算あるいは減算して算出することとしてもよい。また、推定色素量d^H,d^E,d^Rを近傍色素量として以下説明する後段の処理を行うこととしてもよい。 The calculation of the neighboring pigment amounts d ^ H * , d ^ E * , d ^ R * is performed by estimating the estimated pigment amounts d ^ H , d ^ E , d ^ shown in the equations (20), (21), and (30). The present invention is not limited to the form in which R is multiplied by the dye amount correction coefficients α H , α E , and α R, and may be calculated by adding or subtracting them. Further, the subsequent processing described below may be performed using the estimated pigment amounts d ^ H , d ^ E , d ^ R as the neighboring pigment amounts.

続いて、図10に示すように、スペクトル合成部146が、ステップs11で算出した近傍色素量毎に、色素H,色素E,色素Rの基準色素スペクトルを用いてスペクトル(合成スペクトル)を合成する(ステップs13)。具体的には、先ず、近傍色素量d^H *,d^E *,d^R *をもとに、背景技術で示した式(22)と同様の算出式である次式(34)に従って分光吸光度a〜*(x,λ)を求める。kH(λ),kE(λ),kR(λ)は、各色素H,色素E,色素Rの基準色素スペクトルである。

Figure 2010156612
Subsequently, as shown in FIG. 10, the spectrum synthesizer 146 synthesizes a spectrum (synthetic spectrum) using the reference dye spectra of the dye H, the dye E, and the dye R for each of the nearby dye amounts calculated in step s11. (Step s13). Specifically, first, the following expression (34), which is a calculation expression similar to the expression (22) shown in the background art, based on the neighboring dye amounts d ^ H * , d ^ E * , d ^ R *. The spectral absorbances a to * (x, λ) are obtained according to k H (λ), k E (λ), and k R (λ) are reference dye spectra of the dye H, the dye E, and the dye R, respectively.
Figure 2010156612

続いて、背景技術で示した次式(24)に従い、求めた分光吸光度a〜*(x,λ)から位置xにおける新たな分光透過率t*(x,λ)を求める。

Figure 2010156612
Subsequently, a new spectral transmittance t * (x, λ) at the position x is obtained from the obtained spectral absorbances a to * (x, λ) according to the following equation (24) shown in the background art.
Figure 2010156612

そして、波長方向にD回繰り返して分光透過率t*(x,λ)を求め、合成スペクトルT*(x)を得る。合成スペクトルT*(x)は、t*(x,λ)に対応するD行1列の行列である。 Then, the spectral transmittance t * (x, λ) is obtained D times in the wavelength direction to obtain a combined spectrum T * (x). The combined spectrum T * (x) is a D × 1 matrix corresponding to t * (x, λ).

そして、図10に示すように、適応教師データ生成部143が、ステップs13で合成した合成スペクトルT*(x)をもとに適応教師データを生成する(ステップs15)。生成した適応教師データは、記憶部150に格納される。例えば、適応教師データ生成部143は、近傍色素量毎の合成スペクトルT*(x)から色データを取得する。そして、近傍色素量毎の合成スペクトルT*(x)をスペクトルデータとし、このスペクトルと取得した色データとを適応教師データとする。色データは、例えば近傍色素量毎の合成スペクトルT*(x)をそれぞれRGB値に変換する処理を行い、画素値を算出することで取得する。具体的には、背景技術で示した次式(26)に従って新しい画素値G*(x)を算出し、各合成スペクトルT*(x)に対応する色データとする。
*(x)=HT*(x) ・・・(26)
Then, as shown in FIG. 10, the adaptive teacher data generation unit 143 generates adaptive teacher data based on the combined spectrum T * (x) synthesized in step s13 (step s15). The generated adaptive teacher data is stored in the storage unit 150. For example, the adaptive teacher data generation unit 143 acquires color data from the combined spectrum T * (x) for each neighboring pigment amount. Then, the combined spectrum T * (x) for each adjacent pigment amount is set as spectrum data, and this spectrum and the acquired color data are set as adaptive teacher data. The color data is obtained by, for example, performing a process of converting the combined spectrum T * (x) for each neighboring pigment amount into an RGB value and calculating a pixel value. Specifically, a new pixel value G * (x) is calculated according to the following equation (26) shown in the background art, and is set as color data corresponding to each combined spectrum T * (x).
G * (x) = HT * (x) (26)

続いて、図10に示すように、推定オペレータ算出部141が、ステップs15で生成した適応教師データを用いて自己相関行列RSSを算出する(ステップs17)。算出手順は、ステップs3と同様に行う。すなわち、次式(28)に示す重み付き平均ベクトルV´を算出する。iは、適応教師データに含まれる合成スペクトルT*(x)の識別番号を表す。

Figure 2010156612
Subsequently, as illustrated in FIG. 10, the estimation operator calculation unit 141 calculates the autocorrelation matrix R SS using the adaptive teacher data generated in step s15 (step s17). The calculation procedure is performed in the same manner as in step s3. That is, the weighted average vector V ′ shown in the following equation (28) is calculated. i represents the identification number of the combined spectrum T * (x) included in the adaptive teacher data.
Figure 2010156612

このときの類似度diは、例えば次のように算出する。すなわち、先ず、対象標本画像の色データとして推定対象画素の画素値を取得する。そして、適応教師データの色データと取得した対象標本画像の色データとを特徴空間に写像し、各写像点間の距離を算出して類似度diとする。 The degree of similarity d i at this time is calculated as follows, for example. That is, first, the pixel value of the estimation target pixel is acquired as the color data of the target specimen image. Then, the color data of the adaptive teacher data and the acquired color data of the target specimen image are mapped to the feature space, and the distance between the mapping points is calculated to obtain the similarity d i .

続いて、算出した重み付き平均ベクトルV´を用い、次式(29)に従って自己相関行列RSSを算出する。

Figure 2010156612
Subsequently, the autocorrelation matrix R SS is calculated according to the following equation (29) using the calculated weighted average vector V ′.
Figure 2010156612

以上のようにして自己相関行列RSSを算出したならば、続いて図10に示すように、推定オペレータ算出部141は、位置x(スペクトルの推定対象画素)の画素値をもとに、算出した自己相関行列RSSを用いて推定オペレータWを算出する(ステップs19)。具体的には、推定オペレータWは、背景技術で示した次式(6)に従って算出する。ここで算出した推定オペレータWは、第2の推定オペレータとして記憶部150に格納される。

Figure 2010156612
When the autocorrelation matrix R SS is calculated as described above, the estimation operator calculation unit 141 subsequently calculates based on the pixel value at the position x (spectrum estimation target pixel) as shown in FIG. The estimated operator W is calculated using the autocorrelation matrix R SS (step s19). Specifically, the estimation operator W is calculated according to the following equation (6) shown in the background art. The estimated operator W calculated here is stored in the storage unit 150 as the second estimated operator.
Figure 2010156612

続いて、図10に示すように、スペクトル推定部142が、ステップs19で算出した第2の推定オペレータを用いて、推定対象画素に対応する対象標本上の標本点における第2のスペクトルを推定する(ステップs21)。具体的には、背景技術で示した次式(5)に従い、推定対象画素である対象標本画像の任意の位置xにおける画素の画素値の行列表現G(x)から、対応する標本点におけるスペクトルT^(x)を算出する。得られたスペクトルT^(x)は、第2のスペクトルとして記憶部150に格納される。

Figure 2010156612
Subsequently, as shown in FIG. 10, the spectrum estimation unit 142 estimates the second spectrum at the sample point on the target sample corresponding to the estimation target pixel using the second estimation operator calculated in step s19. (Step s21). Specifically, according to the following equation (5) shown in the background art, the spectrum at the corresponding sample point is obtained from the matrix representation G (x) of the pixel value of the pixel at an arbitrary position x of the target sample image that is the estimation target pixel. T ^ (x) is calculated. The obtained spectrum T ^ (x) is stored in the storage unit 150 as the second spectrum.
Figure 2010156612

続いて、スペクトル評価部147が、第1のスペクトルと第2のスペクトルとの差分をもとに第2のスペクトルの推定精度を評価し(ステップs23)、第2のスペクトルの推定精度の評価結果が終了条件を満足するか否かを判定する(ステップs25)。例えば先ず、次式(34)に従って第1のスペクトルと第2のスペクトルとの差分Tdiffを算出する。

Figure 2010156612
Subsequently, the spectrum evaluation unit 147 evaluates the estimation accuracy of the second spectrum based on the difference between the first spectrum and the second spectrum (step s23), and the evaluation result of the estimation accuracy of the second spectrum Whether or not satisfies the termination condition (step s25). For example, first, the difference T diff between the first spectrum and the second spectrum is calculated according to the following equation (34).
Figure 2010156612

続いて、次式(35)に従って、算出した第1のスペクトルと第2のスペクトルとの差分Tdiffの変動量を求め、この値が収束しているか否かを判定する。diffthresholdは閾値を表し、適当な値が設定される。なお、閾値diffthresholdの値は、固定値として設定しておく構成としてもよいし、例えばユーザ操作に従って可変に設定する構成としてもよい。また、nは、第2のスペクトルを推定した回数(試行数)を表す。

Figure 2010156612
Subsequently, according to the following equation (35), a fluctuation amount of the difference T diff between the calculated first spectrum and the second spectrum is obtained, and it is determined whether or not this value has converged. Diff threshold represents a threshold value, and an appropriate value is set. Note that the value of the threshold diff threshold may be set as a fixed value, or may be set variably according to a user operation, for example. Further, n represents the number of times (number of trials) that the second spectrum is estimated.
Figure 2010156612

そして、図10に示すように、スペクトル評価部147は、式(35)を満たした場合、すなわち第1のスペクトルと第2のスペクトルとの差分Tdiffが収束している場合に終了条件を満たすと判定し(ステップs25:Yes)、処理を終える。一方、式(35)を満たさない場合、すなわち第1のスペクトルと第2のスペクトルとの差分Tdiffが収束していない場合は終了条件を満たさないと判定する(ステップs25:No)。この場合には、演算部140が、第1のスペクトルを第2のスペクトルで更新し(ステップs27)、再推定処理手段として、ステップs9からの処理を再度行わせる。ここでの処理によって、更新した第1のスペクトルから新たに適応教師データが生成され、生成された適応教師データをもとに再度第2のスペクトルが推定される。 As shown in FIG. 10, the spectrum evaluation unit 147 satisfies the termination condition when the expression (35) is satisfied, that is, when the difference T diff between the first spectrum and the second spectrum has converged. (Step s25: Yes), and the process ends. On the other hand, when Expression (35) is not satisfied, that is, when the difference T diff between the first spectrum and the second spectrum has not converged, it is determined that the termination condition is not satisfied (step s25: No). In this case, the calculation unit 140 updates the first spectrum with the second spectrum (step s27), and causes the process from step s9 to be performed again as a re-estimation processing unit. Through this processing, adaptive teacher data is newly generated from the updated first spectrum, and the second spectrum is estimated again based on the generated adaptive teacher data.

なお、ここでは、第2のスペクトルの評価結果をもとに適応教師データの生成および第2のスペクトルの推定を再度行うか否かを判定することとしたが、予め処理の繰り返し数を設定しておき、この繰り返し数に従って適応教師データの生成および第2のスペクトルの推定を繰り返し行う構成としてもよい。また、ここでの処理は必須ではなく、第2のスペクトルの評価や再推定を行わない構成としてもよい。すなわち、図10のステップs23〜ステップs27の処理を行わない構成としてもよい。   Here, it is determined whether to regenerate adaptive teacher data and estimate the second spectrum based on the evaluation result of the second spectrum. However, the number of repetitions of the process is set in advance. A configuration may be adopted in which adaptive teacher data generation and second spectrum estimation are repeated according to the number of repetitions. Further, the processing here is not essential, and the second spectrum may not be evaluated or re-estimated. That is, it is good also as a structure which does not perform the process of step s23-step s27 of FIG.

以上のようにして推定されたスペクトル(分光透過率)は、例えば、対象標本を染色している色素の色素量の推定に用いられる。そして、推定された色素量に基づいて画像の色が補正され、カメラの特性や染色状態のばらつき等が補正されて、表示用のRGB画像が合成される。このRGB画像は、表示部130に画面表示されて病理診断に利用される。   The spectrum (spectral transmittance) estimated as described above is used, for example, for estimating the amount of the dye that is staining the target specimen. Then, the color of the image is corrected based on the estimated pigment amount, the camera characteristics and the variation in the staining state are corrected, and the display RGB image is synthesized. This RGB image is displayed on the screen of the display unit 130 and used for pathological diagnosis.

この実施の形態1によれば、先ず、予め用意される標準的な教師データを用いて自己相関行列RSSを算出し、第1の推定オペレータを算出する。そして、この第1の推定オペレータを用いてスペクトル推定を行い、得られたスペクトルを第1のスペクトルとして適応教師データを生成することができる。そして、生成した適応教師データを用いて自己相関行列RSSを算出し、第2の推定オペレータを算出する。そして、この第2の推定オペレータを用いてスペクトル推定を行うことができる。したがって、推定対象画素の画素値をもとに、推定対象画素に適応するのに適切な教師データをその都度動的に生成し、スペクトル推定に用いることができる。これによれば、染色標本のあらゆる染色状態を事前に想定して教師データを用意しておくことなくスペクトルの推定誤差を低減でき、精度良くかつ簡単に染色標本のスペクトルを推定することができるという効果を奏する。 According to the first embodiment, first, the autocorrelation matrix R SS is calculated using standard teacher data prepared in advance, and the first estimation operator is calculated. Then, spectrum estimation is performed using the first estimation operator, and adaptive teacher data can be generated using the obtained spectrum as the first spectrum. Then, an autocorrelation matrix R SS is calculated using the generated adaptive teacher data, and a second estimation operator is calculated. Then, spectrum estimation can be performed using the second estimation operator. Therefore, based on the pixel value of the estimation target pixel, it is possible to dynamically generate teacher data suitable for adaptation to the estimation target pixel each time and use it for spectrum estimation. According to this, it is possible to reduce the estimation error of the spectrum without preparing teacher data assuming all staining states of the stained specimen in advance, and it is possible to estimate the spectrum of the stained specimen accurately and easily. There is an effect.

また、第2のスペクトルを評価し、評価結果が終了条件を満たすまで適応教師データの生成および第2のスペクトルの推定を繰り返し行うことができるので、適応教師データを最適化でき、スペクトルの推定精度をより向上させることができる。   In addition, since the second spectrum is evaluated and adaptive teacher data generation and second spectrum estimation can be repeatedly performed until the evaluation result satisfies the termination condition, the adaptive teacher data can be optimized, and the spectrum estimation accuracy can be optimized. Can be further improved.

なお、上記した実施の形態1では、第1のスペクトルと第2のスペクトルとの差分の変動量を求めて第2のスペクトルを評価する場合を例示したが、第1のスペクトルから推定した色素量と第2のスペクトルから推定した色素量との差分の変動量を求めて第2のスペクトルを評価することとしてもよい。   In the first embodiment described above, the case where the second spectrum is evaluated by obtaining the amount of change in the difference between the first spectrum and the second spectrum is exemplified. However, the amount of pigment estimated from the first spectrum It is also possible to evaluate the second spectrum by obtaining the amount of change in the difference between the amount of the pigment estimated from the second spectrum and the pigment amount estimated from the second spectrum.

図11は、本変形例において画像処理装置1が行う処理手順を示すフローチャートである。なお、図11では、実施の形態1と同様の処理工程には、同一の符号を付している。   FIG. 11 is a flowchart illustrating a processing procedure performed by the image processing apparatus 1 in the present modification. In FIG. 11, the same reference numerals are assigned to the same processing steps as those in the first embodiment.

実施の形態2では、図11に示すように、ステップs7でスペクトル推定部142が第1のスペクトルを推定した後、色素量推定部144が、実施の形態1と同様にして、第1のスペクトルをもとに対象標本の色素量を推定し、第1の推定色素量とする(ステップs10)。その後、ステップs11に移る。   In the second embodiment, as shown in FIG. 11, after the spectrum estimation unit 142 estimates the first spectrum in step s7, the pigment amount estimation unit 144 performs the first spectrum in the same manner as in the first embodiment. Based on the above, the amount of pigment in the target specimen is estimated to be the first estimated pigment amount (step s10). Then, it moves to step s11.

そして、ステップs21でスペクトル推定部142が第2のスペクトルを推定した後、続いて色素量推定部144が、第2のスペクトルをもとに対象標本の色素量を推定し、第2の推定色素量とする(ステップs22)。色素量の推定手法は、第1の推定色素量の推定(実施の形態1で図10のステップs9に示して説明した色素量の推定)と同様の処理で実現できる。   Then, after the spectrum estimation unit 142 estimates the second spectrum in step s21, the pigment amount estimation unit 144 subsequently estimates the pigment amount of the target sample based on the second spectrum, and the second estimation pigment. The amount is set (step s22). The estimation method of the pigment amount can be realized by the same process as the estimation of the first pigment amount (estimation of the pigment amount described in the first embodiment shown in step s9 in FIG. 10).

続いて、スペクトル評価部147が、第1の推定色素量と第2の推定色素量との差分をもとに第2のスペクトルの推定精度を評価し(ステップs24)、第2のスペクトルの推定精度の評価結果が終了条件を満足するか否かを判定する(ステップs26)。例えば、第1の推定色素量と第2の推定色素量との差分を算出し、算出した第1の推定色素量と第2の推定色素量との差分の変動量を求め、この値が収束しているか否かを判定する。   Subsequently, the spectrum evaluation unit 147 evaluates the estimation accuracy of the second spectrum based on the difference between the first estimated dye amount and the second estimated dye amount (step s24), and estimates the second spectrum. It is determined whether or not the accuracy evaluation result satisfies the termination condition (step s26). For example, the difference between the first estimated pigment amount and the second estimated pigment amount is calculated, the amount of variation in the difference between the calculated first estimated pigment amount and the second estimated pigment amount is obtained, and this value converges It is determined whether or not.

そして、スペクトル評価部147は、第1の推定色素量と第2の推定色素量との差分が収束している場合に終了条件を満たすと判定し(ステップs26:Yes)、処理を終える。一方、第1の推定色素量と第2の推定色素量との差分が収束していない場合は終了条件を満たさないと判定する(ステップs26:No)。この場合には、演算部140が、第1のスペクトルを第2のスペクトルで更新し(ステップs27)、再推定処理手段として、ステップs10からの処理を再度行わせる。ここでの処理によって、更新した第1のスペクトルから新たに適応教師データが生成され、生成された適応教師データをもとに再度第2のスペクトルが推定される。   Then, the spectrum evaluation unit 147 determines that the end condition is satisfied when the difference between the first estimated dye amount and the second estimated dye amount has converged (step s26: Yes), and ends the process. On the other hand, when the difference between the first estimated pigment amount and the second estimated pigment amount has not converged, it is determined that the termination condition is not satisfied (step s26: No). In this case, the calculation unit 140 updates the first spectrum with the second spectrum (step s27) and causes the process from step s10 to be performed again as a re-estimation processing unit. Through this processing, adaptive teacher data is newly generated from the updated first spectrum, and the second spectrum is estimated again based on the generated adaptive teacher data.

なお、本変形例では、第1の推定色素量と第2の推定色素量との差分の変動量を求めて第2のスペクトルを評価する場合を例示した。また、上記した実施の形態1では、第1のスペクトルと第2のスペクトルとの差分の変動量を求めて第2のスペクトルを評価する場合を例示したが、これに限定されるものではない。例えば、第1のスペクトルと第2のスペクトルとの差分を閾値処理して第2のスペクトルの推定精度を評価する構成としてもよいし、第1の推定色素量と第2の推定色素量との差分を閾値処理して第2のスペクトルの推定精度を評価する構成としてもよい。あるいは、第2のスペクトルをもとに2次的に算出されるその他の値を適宜評価に用いることができる。例えば、第1のスペクトルと第2のスペクトルとの2乗差を求めて閾値処理し、第2のスペクトルの推定精度を評価する構成としてもよい。   In addition, in this modification, the case where the variation amount of the difference between the first estimated dye amount and the second estimated dye amount is obtained and the second spectrum is evaluated is illustrated. In the first embodiment described above, the case where the second spectrum is evaluated by obtaining the amount of change in the difference between the first spectrum and the second spectrum is exemplified, but the present invention is not limited to this. For example, the difference between the first spectrum and the second spectrum may be thresholded to evaluate the estimation accuracy of the second spectrum, or the first estimated dye amount and the second estimated dye amount It is good also as a structure which evaluates the estimation precision of a 2nd spectrum by threshold-processing a difference. Alternatively, other values that are secondarily calculated based on the second spectrum can be appropriately used for the evaluation. For example, a configuration may be adopted in which a square difference between the first spectrum and the second spectrum is obtained, threshold processing is performed, and the estimation accuracy of the second spectrum is evaluated.

(実施の形態2)
次に、実施の形態2について説明する。図12は、実施の形態2の画像処理装置10bの機能構成を示すブロック図である。なお、実施の形態1で説明した構成と同一の構成については、同一の符号を付する。図12に示すように、画像処理装置10bは、画像取得部110と、入力部120と、表示部130と、演算部140bと、記憶部150bと、装置各部を制御する制御部160とを備える。
(Embodiment 2)
Next, a second embodiment will be described. FIG. 12 is a block diagram illustrating a functional configuration of the image processing apparatus 10b according to the second embodiment. In addition, the same code | symbol is attached | subjected about the structure same as the structure demonstrated in Embodiment 1. FIG. As shown in FIG. 12, the image processing apparatus 10b includes an image acquisition unit 110, an input unit 120, a display unit 130, a calculation unit 140b, a storage unit 150b, and a control unit 160 that controls each unit of the apparatus. .

演算部140bは、推定オペレータ算出部141と、スペクトル推定部142と、適応教師データ生成部143bと、スペクトル評価部147とを含む。実施の形態2では、適応教師データ生成部143bは、色素量推定部144と、近傍色素量算出部145と、スペクトル合成部146bとを含み、スペクトル合成部146bは、差分スペクトル算出手段としての差分スペクトル算出部148bを含む。差分スペクトル算出部148bは、第1のスペクトルと、近傍色素量をもとに合成した合成スペクトルとの差分スペクトルを算出する。   The calculation unit 140b includes an estimation operator calculation unit 141, a spectrum estimation unit 142, an adaptive teacher data generation unit 143b, and a spectrum evaluation unit 147. In the second embodiment, the adaptive teacher data generation unit 143b includes a pigment amount estimation unit 144, a neighboring pigment amount calculation unit 145, and a spectrum synthesis unit 146b. The spectrum synthesis unit 146b uses a difference as a difference spectrum calculation unit. A spectrum calculation unit 148b is included. The difference spectrum calculation unit 148b calculates a difference spectrum between the first spectrum and a synthesized spectrum synthesized based on the amount of the nearby pigment.

図13は、実施の形態2の画像処理装置1bが行う処理手順を示すフローチャートである。なお、図13では、実施の形態1と同様の処理工程には、同一の符号を付している。   FIG. 13 is a flowchart illustrating a processing procedure performed by the image processing apparatus 1b according to the second embodiment. In FIG. 13, the same reference numerals are assigned to the same processing steps as those in the first embodiment.

実施の形態2では、ステップs11において近傍色素量算出部145が近傍色素量d^H *,d^E *,d^R *を算出した後、スペクトル合成部146bの差分スペクトル算出部148bが、近傍色素量d^H *,d^E *,d^R *から分光吸光度を算出し、標準教師データ154を用いてステップs7で算出した第1のスペクトルの推定吸光度との差分スペクトルを算出する(ステップs131)。 In the second embodiment, after the neighboring dye amount calculation unit 145 calculates the neighboring dye amounts d ^ H * , d ^ E * , d ^ R * in step s11, the difference spectrum calculation unit 148b of the spectrum synthesis unit 146b Spectral absorbance is calculated from neighboring dye amounts d ^ H * , d ^ E * , d ^ R *, and a difference spectrum from the estimated absorbance of the first spectrum calculated in step s7 is calculated using the standard teacher data 154. (Step s131).

すなわち先ず、差分スペクトル算出部148bは、近傍色素量d^H *,d^E *,d^R *をもとに、次式(34)に従って分光吸光度a〜*(x,λ)を求める。

Figure 2010156612
That is, first, the difference spectrum calculation unit 148b obtains the spectral absorbances a to * (x, λ) according to the following equation (34) based on the neighboring dye amounts d ^ H * , d ^ E * , d ^ R *. .
Figure 2010156612

続いて、差分スペクトル算出部148bは、背景技術で推定誤差と称して説明したe(λ)の算出手順と同様に、次式(35)に従って、第1のスペクトルの推定吸光度a^と算出した分光吸光度a〜*(x,λ)との差分スペクトルを算出する。以下、e(λ)を「差分スペクトル」と称す。

Figure 2010156612
Subsequently, the difference spectrum calculation unit 148b calculates the estimated absorbance a ^ of the first spectrum according to the following equation (35), similarly to the calculation procedure of e (λ) described as an estimation error in the background art. A difference spectrum from the spectral absorbance a to * (x, λ) is calculated. Hereinafter, e (λ) is referred to as “difference spectrum”.
Figure 2010156612

ここで、第1のスペクトルの推定吸光度a^(x,λ)は、背景技術で示した次式(13)に従って算出される。

Figure 2010156612
Here, the estimated absorbance a ^ (x, λ) of the first spectrum is calculated according to the following equation (13) shown in the background art.
Figure 2010156612

そして、図13に示すように、スペクトル合成部146bは、上記のようにして近傍色素量毎に算出した差分スペクトルを用いてスペクトルを合成し(ステップs133)、ステップs15に移る。すなわち先ず、スペクトル合成部146bは、次式(36)に従って、ステップs131で算出した差分スペクトルe(λ)を加えて分光吸光度a〜*(x,λ)を再度算出する。

Figure 2010156612
And as shown in FIG. 13, the spectrum synthetic | combination part 146b synthesize | combines a spectrum using the difference spectrum calculated for every adjacent pigment | dye amount as mentioned above (step s133), and moves to step s15. That is, first, the spectrum synthesizer 146b adds the difference spectrum e (λ) calculated in step s131 according to the following equation (36) to calculate the spectral absorbances a to * (x, λ) again.
Figure 2010156612

その後は、上記した実施の形態1と同様に、スペクトル合成部146bは、背景技術で示した次式(24)に従い、求めた分光吸光度a〜*(x,λ)から位置xにおける新たな分光透過率t*(x,λ)を求める。

Figure 2010156612
Thereafter, as in the first embodiment, the spectrum synthesizer 146b performs a new spectral analysis at the position x from the obtained spectral absorbances a to * (x, λ) according to the following equation (24) shown in the background art. The transmittance t * (x, λ) is obtained.
Figure 2010156612

そして、スペクトル合成部146bは、波長方向にD回繰り返して分光透過率t*(x,λ)を求め、合成スペクトルT*(x)を得る。合成スペクトルT*(x)は、t*(x,λ)に対応するD行1列の行列である。 Then, the spectrum synthesis unit 146b repeats D times in the wavelength direction to obtain the spectral transmittance t * (x, λ), and obtains the synthesized spectrum T * (x). Composite spectrum T * (x) is t * (x, λ) D rows and one column corresponding to the matrix.

実施の形態2によれば、実施の形態1と同様の効果を奏する。また、第1のスペクトルと合成スペクトルとの差分スペクトルを算出し、この差分スペクトルを用いて適応教師データを生成することができる。   According to the second embodiment, the same effects as those of the first embodiment are obtained. Also, a difference spectrum between the first spectrum and the combined spectrum can be calculated, and adaptive teacher data can be generated using the difference spectrum.

なお、上記した実施の形態1では、第1のスペクトルをもとに色素量を推定してスペクトルを合成し、適応教師データを生成することとした。また、実施の形態2では、第1のスペクトルと合成スペクトルとの差分スペクトルを算出し、この差分スペクトルを合成スペクトルに加えて適応教師データを生成することとした。これに対し、第1のスペクトルの全バンドに対してランダムに発生させたノイズを加えてスペクトルデータとし、適応教師データを生成することとしてもよい。これによれば、色素量を推定する必要がなく、処理負荷を軽減できる。   In Embodiment 1 described above, the amount of pigment is estimated based on the first spectrum, the spectrum is synthesized, and adaptive teacher data is generated. In the second embodiment, a difference spectrum between the first spectrum and the synthesized spectrum is calculated, and adaptive teacher data is generated by adding the difference spectrum to the synthesized spectrum. On the other hand, adaptive teacher data may be generated by adding randomly generated noise to all bands of the first spectrum to obtain spectrum data. According to this, it is not necessary to estimate the pigment amount, and the processing load can be reduced.

(実施の形態3)
顕微鏡を用いて標本を観察する場合、1度に観察可能な範囲(視野範囲)は、主に対物レンズの倍率によって決定される。ここで、対物レンズの倍率が高いほど高精細な画像が得られる反面、視野範囲が狭くなる。この種の問題を解決するため、従来から、標本を載置する電動ステージを動かす等して視野範囲を移動させながら倍率の高い対物レンズを用いて標本像を部分毎に撮像し、撮像した部分毎の画像を繋ぎ合わせることによって高精細でかつ広視野の標本画像を生成するといったことが行われており、バーチャル顕微鏡システムと呼ばれている。以下、バーチャル顕微鏡システムで生成される標本画像を、「VS画像」と称す。このバーチャル顕微鏡システムによれば、実際に標本が存在しない環境であっても観察が行える。
(Embodiment 3)
When observing a specimen using a microscope, the range (field of view range) that can be observed at a time is mainly determined by the magnification of the objective lens. Here, as the magnification of the objective lens is increased, a high-definition image can be obtained, but the field of view is narrowed. In order to solve this type of problem, conventionally, a sample image is taken for each part using a high-magnification objective lens while moving the visual field range by moving an electric stage on which the specimen is placed, etc. A high-definition and wide-field specimen image is generated by joining the images, and this is called a virtual microscope system. Hereinafter, a specimen image generated by the virtual microscope system is referred to as a “VS image”. According to this virtual microscope system, observation can be performed even in an environment where no specimen actually exists.

実施の形態3は、本発明を上記したバーチャル顕微鏡システムに適用したものである。図14は、実施の形態3のバーチャル顕微鏡システム2の概観例を示す概略斜視図である。図14に示すように、バーチャル顕微鏡システム2は、顕微鏡装置20とホストシステム40とがデータの送受可能に接続されて構成されている。ホストシステム40は、例えばキーボードやマウス等の入力部41と、表示部42とを備えている。   In the third embodiment, the present invention is applied to the virtual microscope system described above. FIG. 14 is a schematic perspective view showing an example of an overview of the virtual microscope system 2 of the third embodiment. As shown in FIG. 14, the virtual microscope system 2 is configured by connecting a microscope apparatus 20 and a host system 40 so that data can be transmitted and received. The host system 40 includes an input unit 41 such as a keyboard and a mouse, and a display unit 42.

図15は、実施の形態3のバーチャル顕微鏡システム2の全体構成例を示す模式図である。また、図16は、実施の形態3のホストシステム40の機能構成を示すブロック図である。ここで、図15に示す対物レンズ27の光軸方向をZ方向とし、Z方向と垂直な平面をXY平面として定義する。   FIG. 15 is a schematic diagram illustrating an example of the overall configuration of the virtual microscope system 2 according to the third embodiment. FIG. 16 is a block diagram illustrating a functional configuration of the host system 40 according to the third embodiment. Here, the optical axis direction of the objective lens 27 shown in FIG. 15 is defined as the Z direction, and a plane perpendicular to the Z direction is defined as the XY plane.

顕微鏡装置20は、対象標本Sが載置される電動ステージ21と、側面視略コの字状を有し、電動ステージ21を支持するとともにレボルバ26を介して対物レンズ27を保持する顕微鏡本体24と、顕微鏡本体24の底部後方(図15の右方)に配設された光源28と、顕微鏡本体24の上部に載置された鏡筒29とを備える。また、鏡筒29には、対象標本Sの標本像を目視観察するための双眼部31と、対象標本Sの標本像を撮像するためのTVカメラ32が取り付けられている。なお、対象標本Sは、実施の形態1と同様に、H&E染色された生体組織標本(染色標本)である。   The microscope apparatus 20 has an electric stage 21 on which the target specimen S is placed and a substantially U-shaped side view, and supports the electric stage 21 and holds an objective lens 27 via a revolver 26. A light source 28 disposed behind the bottom of the microscope main body 24 (to the right in FIG. 15), and a lens barrel 29 placed on the top of the microscope main body 24. Further, a binocular unit 31 for visually observing a sample image of the target sample S and a TV camera 32 for capturing the sample image of the target sample S are attached to the lens barrel 29. The target specimen S is a biological tissue specimen (stained specimen) that has been subjected to H & E staining, as in the first embodiment.

電動ステージ21は、XYZ方向に移動自在に構成されている。すなわち、電動ステージ21は、モータ221およびこのモータ221の駆動を制御するXY駆動制御部223によってXY平面内で移動自在である。XY駆動制御部223は、顕微鏡コントローラ33の制御のもと、図示しないXY位置の原点センサによって電動ステージ21のXY平面における所定の原点位置を検知し、この原点位置を基点としてモータ221の駆動量を制御することによって、対象標本S上の観察箇所を移動させる。そして、XY駆動制御部223は、観察時の電動ステージ21のX位置およびY位置を適宜顕微鏡コントローラ33に出力する。また、電動ステージ21は、モータ231およびこのモータ231の駆動を制御するZ駆動制御部233によってZ方向に移動自在である。Z駆動制御部233は、顕微鏡コントローラ33の制御のもと、図示しないZ位置の原点センサによって電動ステージ21のZ方向における所定の原点位置を検知し、この原点位置を基点としてモータ231の駆動量を制御することによって、所定の高さ範囲内の任意のZ位置に対象標本Sを焦準移動させる。そして、Z駆動制御部233は、観察時の電動ステージ21のZ位置を適宜顕微鏡コントローラ33に出力する。   The electric stage 21 is configured to be movable in the XYZ directions. That is, the electric stage 21 is movable in the XY plane by the motor 221 and the XY drive control unit 223 that controls the driving of the motor 221. Under the control of the microscope controller 33, the XY drive control unit 223 detects a predetermined origin position on the XY plane of the electric stage 21 by an XY position origin sensor (not shown), and the driving amount of the motor 221 with this origin position as a base point. Is controlled to move the observation location on the target specimen S. Then, the XY drive control unit 223 outputs the X position and Y position of the electric stage 21 during observation to the microscope controller 33 as appropriate. The electric stage 21 is movable in the Z direction by a motor 231 and a Z drive control unit 233 that controls driving of the motor 231. Under the control of the microscope controller 33, the Z drive control unit 233 detects a predetermined origin position in the Z direction of the electric stage 21 by an origin sensor (not shown) of the Z position, and the driving amount of the motor 231 is based on this origin position. Is controlled to move the target sample S to an arbitrary Z position within a predetermined height range. Then, the Z drive control unit 233 appropriately outputs the Z position of the electric stage 21 at the time of observation to the microscope controller 33.

レボルバ26は、顕微鏡本体24に対して回転自在に保持され、対物レンズ27を対象標本Sの上方に配置する。対物レンズ27は、レボルバ26に対して倍率(観察倍率)の異なる他の対物レンズとともに交換自在に装着されており、レボルバ26の回転に応じて観察光の光路上に挿入されて対象標本Sの観察に用いる対物レンズ27が択一的に切り換えられるようになっている。   The revolver 26 is rotatably held with respect to the microscope main body 24, and the objective lens 27 is disposed above the target sample S. The objective lens 27 is interchangeably mounted together with other objective lenses having different magnifications (observation magnifications) with respect to the revolver 26, and is inserted into the optical path of the observation light according to the rotation of the revolver 26, so The objective lens 27 used for observation is selectively switched.

顕微鏡本体24は、底部において対象標本Sを透過照明するための照明光学系を内設している。この照明光学系は、光源28から射出された照明光を集光するコレクタレンズ251、照明系フィルタユニット252、視野絞り253、開口絞り254、照明光の光路を対物レンズ27の光軸に沿って偏向させる折曲げミラー255、コンデンサ光学素子ユニット256、トップレンズユニット257等が、照明光の光路に沿って適所に配置されて構成される。光源28から射出された照明光は、照明光学系によって対象標本Sに照射され、観察光として対物レンズ27に入射する。   The microscope main body 24 has an illumination optical system for transmitting and illuminating the target specimen S at the bottom. The illumination optical system includes a collector lens 251 that collects illumination light emitted from the light source 28, an illumination system filter unit 252, a field stop 253, an aperture stop 254, and an optical path of the illumination light along the optical axis of the objective lens 27. A bending mirror 255 to be deflected, a condenser optical element unit 256, a top lens unit 257, and the like are arranged at appropriate positions along the optical path of the illumination light. Illumination light emitted from the light source 28 is irradiated onto the target specimen S by the illumination optical system and enters the objective lens 27 as observation light.

また、顕微鏡本体24は、その上部においてフィルタユニット30を内設している。フィルタユニット30は、標本像として結像する光の波長帯域を所定範囲に制限するための2枚以上の光学フィルタ303を回転自在に保持し、この光学フィルタ303を、適宜対物レンズ27後段において観察光の光路上に挿入する。このフィルタユニット30は、図5に示して説明したフィルタ部119と同様に構成される。なお、ここでは、光学フィルタ303を対物レンズ27の後段に配置する場合を例示したが、これに限定されずるものではなく、光源28からTVカメラ32に至る光路上のいずれかの位置に配置することとしてよい。対物レンズ27を経た観察光は、このフィルタユニット30を経由して鏡筒29に入射する。   The microscope main body 24 has a filter unit 30 in the upper part thereof. The filter unit 30 rotatably holds two or more optical filters 303 for limiting the wavelength band of light to be imaged as a specimen image to a predetermined range, and these optical filters 303 are appropriately observed after the objective lens 27. Insert into the light path. The filter unit 30 is configured similarly to the filter unit 119 described with reference to FIG. Here, the case where the optical filter 303 is disposed at the subsequent stage of the objective lens 27 is illustrated, but the present invention is not limited to this, and is disposed at any position on the optical path from the light source 28 to the TV camera 32. That's good. Observation light that has passed through the objective lens 27 enters the lens barrel 29 via the filter unit 30.

鏡筒29は、フィルタユニット30を経た観察光の光路を切り換えて双眼部31またはTVカメラ32へと導くビームスプリッタ291を内設している。対象標本Sの標本像は、このビームスプリッタ291によって双眼部31内に導入され、接眼レンズ311を介して検鏡者に目視観察される。あるいはTVカメラ32によって撮像される。TVカメラ32は、標本像(詳細には対物レンズ27の視野範囲の標本像)を結像するCCDやCMOS等の撮像素子を備えて構成され、標本像を撮像し、標本像の画像データをホストシステム40に出力する。   The lens barrel 29 includes a beam splitter 291 that switches the optical path of the observation light that has passed through the filter unit 30 and guides it to the binocular unit 31 or the TV camera 32. The sample image of the target sample S is introduced into the binocular unit 31 by the beam splitter 291 and visually observed by the spectroscope through the eyepiece 311. Alternatively, the image is taken by the TV camera 32. The TV camera 32 includes an image sensor such as a CCD or a CMOS that forms a sample image (specifically, a sample image in the field of view of the objective lens 27), images the sample image, and outputs image data of the sample image. Output to the host system 40.

そして、顕微鏡装置20は、顕微鏡コントローラ33とTVカメラコントローラ34とを備える。顕微鏡コントローラ33は、ホストシステム40の制御のもと、顕微鏡装置20を構成する各部の動作を統括的に制御する。例えば、顕微鏡コントローラ33は、レボルバ26を回転させて観察光の光路上に配置する対物レンズ27を切り換える処理や、切り換えた対物レンズ27の倍率等に応じた光源28の調光制御や各種光学素子の切り換え、あるいはXY駆動制御部223やZ駆動制御部233に対する電動ステージ21の移動指示等、対象標本Sの観察に伴う顕微鏡装置20の各部の調整を行うとともに、各部の状態を適宜ホストシステム40に通知する。TVカメラコントローラ34は、ホストシステム40の制御のもと、自動ゲイン制御のON/OFF切換、ゲインの設定、自動露出制御のON/OFF切換、露光時間の設定等を行ってTVカメラ32を駆動し、TVカメラ32の撮像動作を制御する。   The microscope apparatus 20 includes a microscope controller 33 and a TV camera controller 34. Under the control of the host system 40, the microscope controller 33 comprehensively controls the operation of each part constituting the microscope apparatus 20. For example, the microscope controller 33 rotates the revolver 26 to switch the objective lens 27 arranged on the optical path of the observation light, dimming control of the light source 28 according to the magnification of the switched objective lens 27, and various optical elements. Switching, or an instruction to move the electric stage 21 to the XY drive control unit 223 or the Z drive control unit 233, etc., and adjustment of each part of the microscope apparatus 20 accompanying observation of the target specimen S, and the state of each part is appropriately set in the host system 40. Notify Under the control of the host system 40, the TV camera controller 34 drives the TV camera 32 by performing automatic gain control ON / OFF switching, gain setting, automatic exposure control ON / OFF switching, exposure time setting, and the like. Then, the imaging operation of the TV camera 32 is controlled.

一方、図16に示すように、ホストシステム40は、入力部41と、表示部42と、演算部43と、記憶部50と、装置各部を制御する制御部54とを備える。なお、図16では、ホストシステム40の機能構成を示したが、実際のホストシステム40は、CPUやビデオボード、メインメモリ(RAM)等の主記憶装置、ハードディスクや各種記憶媒体等の外部記憶装置、通信装置、表示装置や印刷装置等の出力装置、入力装置、各部を接続し、あるいは外部入力を接続するインターフェース装置等を備えた公知のハードウェア構成で実現でき、例えばワークステーションやパソコン等の汎用コンピュータを利用することができる。   On the other hand, as shown in FIG. 16, the host system 40 includes an input unit 41, a display unit 42, a calculation unit 43, a storage unit 50, and a control unit 54 that controls each unit of the apparatus. 16 shows the functional configuration of the host system 40, the actual host system 40 includes a CPU, a video board, a main storage device such as a main memory (RAM), and an external storage device such as a hard disk and various storage media. It can be realized by a known hardware configuration including an output device such as a communication device, a display device or a printing device, an input device, an interface device for connecting each part or an external input, such as a workstation or a personal computer. A general-purpose computer can be used.

ここで、実施の形態3のバーチャル顕微鏡システム2は、実施の形態1の画像処理装置1の構成をもとに構成したものであり、演算部43は、推定オペレータ算出部45と、スペクトル推定部46と、適応教師データ生成部47と、スペクトル評価部48と、画像合成部49とを含むVS画像生成部44を備える。なお、実施の形態1の変形例や実施の形態2の構成を適用することも可能である。   Here, the virtual microscope system 2 of the third embodiment is configured based on the configuration of the image processing apparatus 1 of the first embodiment, and the calculation unit 43 includes an estimation operator calculation unit 45, a spectrum estimation unit, and the like. 46, an adaptive teacher data generation unit 47, a spectrum evaluation unit 48, and an VS image generation unit 44 including an image synthesis unit 49. Note that the modification of the first embodiment and the configuration of the second embodiment can also be applied.

VS画像生成部44は、顕微鏡装置20が対象標本Sを部分的にマルチバンド撮像することによって得られる複数の対象標本画像をそれぞれ処理し、VS画像を生成する。ここで、VS画像とは、顕微鏡装置20によってマルチバンド撮像した1枚以上の画像を繋ぎ合せて生成した画像のことである。実施の形態3でいうVS画像とは、例えば高倍率の対物レンズを用いて対象標本Sを部分毎に撮像した複数の高解像画像を繋ぎ合せて生成した画像であって、対象標本Sの全域を映した広視野で且つ高精細のマルチバンド画像のことをいう。   The VS image generation unit 44 processes each of a plurality of target specimen images obtained by the multi-band imaging of the target specimen S by the microscope apparatus 20, and generates a VS image. Here, the VS image is an image generated by connecting one or more images taken by the microscope device 20 with multiband imaging. The VS image referred to in Embodiment 3 is an image generated by connecting a plurality of high-resolution images obtained by capturing the target specimen S for each part using, for example, a high-magnification objective lens. A wide-field and high-definition multiband image that reflects the entire area.

推定オペレータ算出部45は、実施の形態1の推定オペレータ算出部141と同様の要領で、標準教師データまたは適応教師データを用いて推定オペレータWを算出する。スペクトル推定部46は、実施の形態1のスペクトル推定部142と同様の要領で、対象標本画像を構成する各画素に対応する対象標本画像上の標本点におけるスペクトルとして、分光透過率を推定する。適応教師データ生成部47は、色素量推定部471と、近傍色素量算出部472と、スペクトル合成部473とを含み、実施の形態1の適応教師データ生成部143bと同様の要領で適応教師データを生成する。すなわち、色素量推定部471は、各画素について推定した第1のスペクトルをもとに対応する各標本点の色素量(第1の推定色素量)を推定するとともに、第2のスペクトルをもとに対応する各標本点の色素量(第2の推定色素量)を推定する。近傍色素量算出部472は、推定色素量をもとに、各色素H、色素E,色素Rそれぞれの近傍色素量を算出する。スペクトル合成部473は、色素H、色素Eおよび色素Rの近傍色素量または第2の推定色素量をもとにスペクトルを合成する。スペクトル評価部48は、適応教師データを用いて行ったスペクトル(第2のスペクトル)の推定精度を評価する。また、画像合成部49は、第2の推定色素量をもとに各画素について合成したスペクトルを用いて画素値を算出し、対象標本画像(VS画像)の表示用のRGB画像(表示画像)を合成する。   The estimation operator calculation unit 45 calculates the estimation operator W using standard teacher data or adaptive teacher data in the same manner as the estimation operator calculation unit 141 of the first embodiment. The spectrum estimation unit 46 estimates the spectral transmittance as the spectrum at the sample point on the target sample image corresponding to each pixel constituting the target sample image in the same manner as the spectrum estimation unit 142 of the first embodiment. The adaptive teacher data generation unit 47 includes a pigment amount estimation unit 471, a neighboring pigment amount calculation unit 472, and a spectrum synthesis unit 473, and is similar to the adaptive teacher data generation unit 143b of Embodiment 1 in the manner of adaptation teacher data. Is generated. That is, the pigment amount estimation unit 471 estimates the pigment amount (first estimated pigment amount) at each sample point based on the first spectrum estimated for each pixel, and based on the second spectrum. The amount of pigment at each sample point corresponding to (second estimated pigment amount) is estimated. The near dye amount calculation unit 472 calculates the near dye amount of each of the dye H, the dye E, and the dye R based on the estimated dye amount. The spectrum synthesizer 473 synthesizes a spectrum based on the amount of the pigment near the pigment H, the pigment E, and the pigment R or the second estimated pigment amount. The spectrum evaluation unit 48 evaluates the estimation accuracy of the spectrum (second spectrum) performed using the adaptive teacher data. In addition, the image composition unit 49 calculates a pixel value using a spectrum synthesized for each pixel based on the second estimated pigment amount, and displays an RGB image (display image) for displaying the target specimen image (VS image). Is synthesized.

記憶部50は、更新記憶可能なフラッシュメモリ等のROMやRAMといった各種ICメモリ、内蔵あるいはデータ通信端子で接続されたハードディスク、CD−ROM等の情報記憶媒体およびその読取装置等によって実現されるものである。この記憶部50には、ホストシステム40を動作させ、このホストシステム40が備える種々の機能を実現するためのプログラムや、このプログラムの実行中に使用されるデータ等が格納される。   The storage unit 50 is realized by various IC memories such as ROM and RAM such as flash memory that can be updated and stored, information storage media such as a built-in or data communication terminal, a hard disk connected by a data communication terminal, a CD-ROM, and a reading device thereof. It is. The storage unit 50 stores a program for operating the host system 40 and realizing various functions of the host system 40, data used during execution of the program, and the like.

例えば、記憶部50には、画像処理プログラム511を含むVS画像生成プログラム51と、VS画像データ(マルチバンド画像データ)52と、スペクトル推定用データ53とが格納される。VS画像生成プログラム51は、対象標本のVS画像を生成する処理を実現するためのプログラムであり、画像処理プログラム511は、対象標本画像から対象標本のスペクトルを推定する処理を実現するためのプログラムである。VS画像データは、例えば、顕微鏡装置20によって部分毎に取得された対象標本画像の画像データを繋ぎ合せて生成した対象標本Sの全域の画像データである。スペクトル推定用データ53は、標準教師データ531と、フィルタ分光透過率(F)532と、カメラ分光感度特性(S)533と、照明分光放射特性(E)534と、基準色素スペクトル(色素H,E,R)535とを含む。   For example, the storage unit 50 stores a VS image generation program 51 including an image processing program 511, VS image data (multiband image data) 52, and spectrum estimation data 53. The VS image generation program 51 is a program for realizing a process of generating a VS image of the target specimen, and the image processing program 511 is a program for realizing a process of estimating the spectrum of the target specimen from the target specimen image. is there. The VS image data is, for example, image data of the entire area of the target specimen S generated by connecting the image data of the target specimen images acquired for each part by the microscope apparatus 20. The spectrum estimation data 53 includes standard teacher data 531, filter spectral transmittance (F) 532, camera spectral sensitivity characteristic (S) 533, illumination spectral radiation characteristic (E) 534, and reference dye spectrum (dye H, E, R) 535.

制御部54は、CPU等のハードウェアによって実現される。この制御部54は、入力部41から入力される入力信号や、顕微鏡コントローラ33から入力される顕微鏡装置20各部の状態、TVカメラ32から入力される画像データ、記憶部50に記録されるプログラムやデータ等をもとにホストシステム40を構成する各部への指示やデータの転送等を行い、あるいは顕微鏡コントローラ33やTVカメラコントローラ34に対する顕微鏡装置20各部の動作指示を行い、バーチャル顕微鏡システム2全体の動作を統括的に制御する。また、制御部54は、画像取得手段としてのマルチバンド画像取得制御部55を含む。マルチバンド画像取得制御部55は、顕微鏡装置20各部の動作指示を行って対象標本Sを部分毎に撮像した対象標本画像を取得する。   The control unit 54 is realized by hardware such as a CPU. The control unit 54 receives input signals input from the input unit 41, states of each unit of the microscope apparatus 20 input from the microscope controller 33, image data input from the TV camera 32, programs recorded in the storage unit 50, Based on the data and the like, instructions to each part constituting the host system 40, data transfer, etc., or operation instructions of each part of the microscope apparatus 20 to the microscope controller 33 and the TV camera controller 34 are performed, and the entire virtual microscope system 2 is controlled. Control the overall operation. The control unit 54 includes a multiband image acquisition control unit 55 as image acquisition means. The multiband image acquisition control unit 55 issues an operation instruction for each part of the microscope apparatus 20 and acquires a target sample image obtained by imaging the target sample S for each part.

この実施の形態3によれば、実施の形態1と同様の効果を奏することができるバーチャル顕微鏡システムが実現できる。   According to the third embodiment, a virtual microscope system that can achieve the same effects as the first embodiment can be realized.

なお、上記の実施の形態では、染色標本を撮像したマルチバンド画像から分光透過率のスペクトル特徴値を推定する場合について説明したが、分光反射率や吸光度等のスペクトル特徴値を推定する場合にも同様に適用できる。   In the above embodiment, the case where the spectral feature value of the spectral transmittance is estimated from the multiband image obtained by imaging the stained specimen has been described, but the case where the spectral feature value such as the spectral reflectance and the absorbance is estimated is also described. The same applies.

また、上記した実施の形態では、H&E染色された染色標本をスペクトルの推定対象として説明したが、他の染色色素で染色された染色標本を扱う場合にも同様に適用できる。   In the above-described embodiment, the H & E-stained stained sample has been described as a spectrum estimation target. However, the present invention can be similarly applied to a case where a stained sample stained with another staining pigment is handled.

染色標本のスペクトル推定原理を説明する図である。It is a figure explaining the spectrum estimation principle of a stained specimen. 染色標本のスペクトル推定原理を説明する他の図である。It is another figure explaining the spectrum estimation principle of a stained specimen. 染色標本のスペクトル推定原理を説明する他の図である。It is another figure explaining the spectrum estimation principle of a stained specimen. 実施の形態1の画像処理装置の機能構成を示すブロック図である。2 is a block diagram illustrating a functional configuration of the image processing apparatus according to Embodiment 1. FIG. 画像取得部の構成を示す模式図である。It is a schematic diagram which shows the structure of an image acquisition part. 画像取得部を構成するRGBカメラのカラーフィルタの配列例およびRGB各バンドの画素配列を模式的に示す図である。It is a figure which shows typically the example of a color filter arrangement | sequence of the RGB camera which comprises an image acquisition part, and the pixel arrangement | sequence of each RGB band. 画像取得部を構成する一方の光学フィルタの分光透過率特性を示す図である。It is a figure which shows the spectral transmittance characteristic of one optical filter which comprises an image acquisition part. 画像取得部を構成する他方の光学フィルタの分光透過率特性を示す図である。It is a figure which shows the spectral transmittance characteristic of the other optical filter which comprises an image acquisition part. R,G,B各バンドの分光感度の例を示す図である。It is a figure which shows the example of the spectral sensitivity of each band of R, G, B. 実施の形態1の画像処理装置が行う処理手順を示すフローチャートである。3 is a flowchart illustrating a processing procedure performed by the image processing apparatus according to the first embodiment. 変形例の画像処理装置が行う処理手順を示すフローチャートである。It is a flowchart which shows the process sequence which the image processing apparatus of a modification is performed. 実施の形態2の画像処理装置の機能構成を示すブロック図である。6 is a block diagram illustrating a functional configuration of an image processing apparatus according to Embodiment 2. FIG. 実施の形態2の画像処理装置が行う処理手順を示すフローチャートである。10 is a flowchart illustrating a processing procedure performed by the image processing apparatus according to the second embodiment. 実施の形態3のバーチャル顕微鏡システムの概観例を示す概略斜視図である。FIG. 10 is a schematic perspective view illustrating an example of an overview of a virtual microscope system according to a third embodiment. 実施の形態3のバーチャル顕微鏡システムの全体構成例を示す模式図である。FIG. 10 is a schematic diagram illustrating an example of the overall configuration of a virtual microscope system according to a third embodiment. 実施の形態3のホストシステムの機能構成を示すブロック図である。FIG. 10 is a block diagram illustrating a functional configuration of a host system according to a third embodiment.

符号の説明Explanation of symbols

10,10b 画像処理装置
110 画像取得部
120 入力部
130 表示部
140,140b 演算部
141 推定オペレータ算出部
142 スペクトル推定部
143,143b 適応教師データ生成部
144 色素量推定部
145 近傍色素量推定部
146,146b スペクトル合成部
147 スペクトル評価部
148b 差分スペクトル算出部
150,150b 記憶部
151,151b 画像処理プログラム
152 マルチバンド画像データ
153 スペクトル推定用データ
154 標準教師データ
155 フィルタ分光透過率(F)
156 カメラ分光感度特性(S)
157 照明分光放射特性(E)
158 基準色素スペクトル(色素H,E,R)
160 制御部
161 マルチバンド画像取得制御部
2 バーチャル顕微鏡システム
20 顕微鏡装置
40 ホストシステム
DESCRIPTION OF SYMBOLS 10,10b Image processing apparatus 110 Image acquisition part 120 Input part 130 Display part 140,140b Operation part 141 Estimation operator calculation part 142 Spectrum estimation part 143,143b Adaptive teacher data generation part 144 Dye quantity estimation part 145 Neighboring pigment quantity estimation part 146 , 146b Spectrum synthesis unit 147 Spectrum evaluation unit 148b Difference spectrum calculation unit 150, 150b Storage unit 151, 151b Image processing program 152 Multiband image data 153 Spectrum estimation data 154 Standard teacher data 155 Filter spectral transmittance (F)
156 Camera spectral sensitivity characteristics (S)
157 Illumination spectral radiation characteristics (E)
158 Reference dye spectrum (Dye H, E, R)
160 Control Unit 161 Multiband Image Acquisition Control Unit 2 Virtual Microscope System 20 Microscope Device 40 Host System

Claims (14)

染色標本を撮像した染色標本画像から前記染色標本のスペクトルを推定する画像処理装置であって、
前記染色標本画像を構成する推定対象画素の画素値をもとに、予め設定される標準教師データを用いて前記推定対象画素に対応する前記染色標本上の標本点におけるスペクトルを第1のスペクトルとして推定する第1のスペクトル推定手段と、
前記第1のスペクトルをもとに、前記推定対象画素に適応する適応教師データを生成する教師データ生成手段と、
前記推定対象画素の画素値をもとに、前記適応教師データを用いて前記標本点におけるスペクトルを第2のスペクトルとして推定する第2のスペクトル推定手段と、
を備えることを特徴とする画像処理装置。
An image processing apparatus for estimating a spectrum of the stained specimen from a stained specimen image obtained by imaging the stained specimen,
Based on the pixel value of the estimation target pixel constituting the stained sample image, the spectrum at the sample point on the stained sample corresponding to the estimation target pixel is set as the first spectrum using preset standard teacher data. First spectrum estimating means for estimating;
Teacher data generation means for generating adaptive teacher data adapted to the estimation target pixel based on the first spectrum;
Second spectrum estimation means for estimating a spectrum at the sample point as a second spectrum using the adaptive teacher data based on the pixel value of the estimation target pixel;
An image processing apparatus comprising:
前記教師データ生成手段は、前記第1のスペクトルをもとに前記標本点における色素量を推定する色素量推定手段を有し、前記色素量推定手段によって推定された色素量から前記適応教師データを生成することを特徴とする請求項1に記載の画像処理装置。   The teacher data generation means includes dye amount estimation means for estimating the dye amount at the sample point based on the first spectrum, and the adaptive teacher data is obtained from the dye amount estimated by the dye amount estimation means. The image processing apparatus according to claim 1, wherein the image processing apparatus generates the image processing apparatus. 前記教師データ生成手段は、前記色素量推定手段によって推定された色素量をもとにスペクトルを合成するスペクトル合成手段を有し、前記スペクトル合成手段によって合成されたスペクトルを前記適応教師データとすることを特徴とする請求項2に記載の画像処理装置。   The teacher data generation unit includes a spectrum synthesis unit that synthesizes a spectrum based on the pigment amount estimated by the pigment amount estimation unit, and uses the spectrum synthesized by the spectrum synthesis unit as the adaptive teacher data. The image processing apparatus according to claim 2. 前記教師データ生成手段は、前記色素量推定手段によって推定された色素量をもとに1つ以上の近傍色素量を算出する近傍色素量算出手段を有し、
前記スペクトル合成手段は、前記近傍色素量毎にスペクトルを合成して前記適応教師データとすることを特徴とする請求項3に記載の画像処理装置。
The teacher data generating means includes a neighboring dye amount calculating means for calculating one or more neighboring dye amounts based on the dye amount estimated by the dye amount estimating means,
The image processing apparatus according to claim 3, wherein the spectrum synthesizing unit synthesizes a spectrum for each of the neighboring pigment amounts to form the adaptive teacher data.
前記教師データ生成手段は、前記第1のスペクトルと前記合成スペクトルとの差分スペクトルを算出する差分スペクトル算出手段を有し、前記合成スペクトルに前記差分スペクトルを加算して前記適応教師データとすることを特徴とする請求項3または4に記載の画像処理装置。   The teacher data generation means includes difference spectrum calculation means for calculating a difference spectrum between the first spectrum and the combined spectrum, and adds the difference spectrum to the combined spectrum to obtain the adaptive teacher data. The image processing apparatus according to claim 3 or 4, wherein the image processing apparatus is characterized in that: 前記第2のスペクトルを前記第1のスペクトルに置き換え、前記教師データ生成手段による前記適応教師データの生成および前記第2のスペクトル推定手段による前記第2のスペクトルの推定を再度行わせる再推定処理手段を備えることを特徴とする請求項1〜5のいずれか1つに記載の画像処理装置。   Re-estimation processing means for replacing the second spectrum with the first spectrum, and re-establishing generation of the adaptive teacher data by the teacher data generation means and estimation of the second spectrum by the second spectrum estimation means The image processing apparatus according to claim 1, further comprising: 前記第2のスペクトルの推定精度を評価するスペクトル評価手段を備え、
前記再推定処理手段は、前記スペクトル評価手段による評価結果をもとに、前記適応教師データの生成および前記第2のスペクトルの推定を再度行わせるか否かを判定することを特徴とする請求項6に記載の画像処理装置。
Spectrum evaluation means for evaluating the estimation accuracy of the second spectrum;
The re-estimation processing unit determines whether or not to generate the adaptive teacher data and estimate the second spectrum again based on an evaluation result by the spectrum evaluation unit. 6. The image processing apparatus according to 6.
前記スペクトル評価手段は、前記第1のスペクトルと前記第2のスペクトルとの差分をもとに前記第2のスペクトルの推定精度を評価することを特徴とする請求項7に記載の画像処理装置。   The image processing apparatus according to claim 7, wherein the spectrum evaluation unit evaluates estimation accuracy of the second spectrum based on a difference between the first spectrum and the second spectrum. 前記スペクトル評価手段は、前記第1のスペクトルと前記第2のスペクトルとの差分の変動量をもとに前記第2のスペクトルの推定精度を評価することを特徴とする請求項7に記載の画像処理装置。   The image according to claim 7, wherein the spectrum evaluation unit evaluates an estimation accuracy of the second spectrum based on a variation amount of a difference between the first spectrum and the second spectrum. Processing equipment. 前記スペクトル評価手段は、前記色素量推定手段によって推定された色素量をもとに前記第2のスペクトルの推定精度を評価することを特徴とする請求項7に記載の画像処理装置。   The image processing apparatus according to claim 7, wherein the spectrum evaluation unit evaluates the estimation accuracy of the second spectrum based on the pigment amount estimated by the pigment amount estimation unit. 前記第2のスペクトル推定手段は、前記適応教師データを用いて自己相関行列を算出し、該算出した自己相関行列をもとに推定オペレータを算出する推定オペレータ算出手段を有し、前記推定オペレータ算出手段によって算出された推定オペレータを用いて前記第2のスペクトルを推定することを特徴とする請求項1〜10のいずれか1つに記載の画像処理装置。   The second spectrum estimation means includes an estimation operator calculation means for calculating an autocorrelation matrix using the adaptive teacher data and calculating an estimation operator based on the calculated autocorrelation matrix, and calculating the estimation operator The image processing apparatus according to claim 1, wherein the second spectrum is estimated using an estimation operator calculated by a unit. コンピュータに、染色標本を撮像した染色標本画像から前記染色標本のスペクトルを推定させるための画像処理プログラムであって、
前記染色標本画像を構成する推定対象画素の画素値をもとに、予め設定される標準教師データを用い、前記推定対象画素に対応する前記染色標本上の標本点におけるスペクトルを第1のスペクトルとして推定する第1のスペクトル推定ステップと、
前記第1のスペクトルをもとに、前記推定対象画素に適応する適応教師データを生成する教師データ生成ステップと、
前記推定対象画素の画素値をもとに、前記適応教師データを用いて前記標本点におけるスペクトルを第2のスペクトルとして推定する第2のスペクトル推定ステップと、
を前記コンピュータに実行させることを特徴とする画像処理プログラム。
An image processing program for causing a computer to estimate a spectrum of the stained specimen from a stained specimen image obtained by imaging the stained specimen,
Based on the pixel values of the estimation target pixels constituting the stained specimen image, using standard teacher data set in advance, the spectrum at the sample point on the stained specimen corresponding to the estimation target pixel is set as the first spectrum. A first spectral estimation step to estimate;
Teacher data generation step for generating adaptive teacher data adapted to the estimation target pixel based on the first spectrum;
A second spectrum estimation step of estimating a spectrum at the sample point as a second spectrum using the adaptive teacher data based on the pixel value of the estimation target pixel;
An image processing program for causing the computer to execute.
染色標本を撮像した染色標本画像から前記染色標本のスペクトルを推定する画像処理方法であって、
前記染色標本画像を構成する推定対象画素の画素値をもとに、予め設定される標準教師データを用い、前記推定対象画素に対応する前記染色標本上の標本点におけるスペクトルを第1のスペクトルとして推定する第1のスペクトル推定工程と、
前記第1のスペクトルをもとに、前記推定対象画素に適応する適応教師データを生成する教師データ生成工程と、
前記推定対象画素の画素値をもとに、前記適応教師データを用いて前記標本点におけるスペクトルを第2のスペクトルとして推定する第2のスペクトル推定工程と、
を含むことを特徴とする画像処理装置。
An image processing method for estimating a spectrum of the stained specimen from a stained specimen image obtained by imaging the stained specimen,
Based on the pixel values of the estimation target pixels constituting the stained specimen image, using standard teacher data set in advance, the spectrum at the sample point on the stained specimen corresponding to the estimation target pixel is set as the first spectrum. A first spectral estimation step to estimate;
Teacher data generation step of generating adaptive teacher data adapted to the estimation target pixel based on the first spectrum;
A second spectrum estimation step of estimating a spectrum at the sample point as a second spectrum using the adaptive teacher data based on a pixel value of the estimation target pixel;
An image processing apparatus comprising:
顕微鏡を用い、染色標本を撮像して染色標本画像を取得する画像取得手段と、
前記染色標本画像を構成する推定対象画素の画素値をもとに、予め設定される標準教師データを用いて前記推定対象画素に対応する前記染色標本上の標本点におけるスペクトルを第1のスペクトルとして推定する第1のスペクトル推定手段と、
前記第1のスペクトルをもとに、前記推定対象画素に適応する適応教師データを生成する教師データ生成手段と、
前記推定対象画素の画素値をもとに、前記適応教師データを用いて前記標本点におけるスペクトルを第2のスペクトルとして推定する第2のスペクトル推定手段と、
を備えることを特徴とするバーチャル顕微鏡システム。
An image acquisition means for acquiring a stained specimen image by imaging a stained specimen using a microscope;
Based on the pixel value of the estimation target pixel constituting the stained sample image, the spectrum at the sample point on the stained sample corresponding to the estimation target pixel is set as the first spectrum using preset standard teacher data. First spectrum estimating means for estimating;
Teacher data generation means for generating adaptive teacher data adapted to the estimation target pixel based on the first spectrum;
Second spectrum estimation means for estimating a spectrum at the sample point as a second spectrum using the adaptive teacher data based on the pixel value of the estimation target pixel;
A virtual microscope system comprising:
JP2008335122A 2008-12-26 2008-12-26 Image processing device, image processing program, image processing method, and virtual microscope system Withdrawn JP2010156612A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008335122A JP2010156612A (en) 2008-12-26 2008-12-26 Image processing device, image processing program, image processing method, and virtual microscope system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008335122A JP2010156612A (en) 2008-12-26 2008-12-26 Image processing device, image processing program, image processing method, and virtual microscope system

Publications (1)

Publication Number Publication Date
JP2010156612A true JP2010156612A (en) 2010-07-15

Family

ID=42574635

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008335122A Withdrawn JP2010156612A (en) 2008-12-26 2008-12-26 Image processing device, image processing program, image processing method, and virtual microscope system

Country Status (1)

Country Link
JP (1) JP2010156612A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012073912A1 (en) * 2010-11-29 2012-06-07 オリンパス株式会社 Image processing device, image processing method, image processing program, and virtual microscope system
CN102788751A (en) * 2011-05-20 2012-11-21 精工爱普生株式会社 Feature value estimation device and corresponding method, and spectral image processing device and corresponding method
JP2013092884A (en) * 2011-10-25 2013-05-16 Nippon Telegr & Teleph Corp <Ntt> Image processing device, method, and program
WO2013179581A1 (en) * 2012-05-30 2013-12-05 パナソニック株式会社 Image measurement device, image measurement method and image measurement system
WO2020075226A1 (en) * 2018-10-09 2020-04-16 オリンパス株式会社 Image processing device operation method, image processing device, and image processing device operation program
WO2021095236A1 (en) * 2019-11-15 2021-05-20 オリンパス株式会社 Image processing device, image processing program, image processing method, and program
JP2021528861A (en) * 2018-06-28 2021-10-21 アプライド マテリアルズ インコーポレイテッドApplied Materials,Incorporated Generation of training spectra for machine learning systems for spectroscopic image monitoring

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012073912A1 (en) * 2010-11-29 2012-06-07 オリンパス株式会社 Image processing device, image processing method, image processing program, and virtual microscope system
JP2012117844A (en) * 2010-11-29 2012-06-21 Olympus Corp Image processing device, image processing method, image processing program and virtual microscope system
US9406118B2 (en) 2010-11-29 2016-08-02 Olympus Corporation Stain image color correcting apparatus, method, and system
US9041928B2 (en) 2011-05-20 2015-05-26 Seiko Epson Corporation Feature value estimation device and corresponding method, and spectral image processing device and corresponding method
JP2012242270A (en) * 2011-05-20 2012-12-10 Seiko Epson Corp Feature value estimation device and method thereof, spectroscopic image processing device and method thereof, and computer program
CN102788751A (en) * 2011-05-20 2012-11-21 精工爱普生株式会社 Feature value estimation device and corresponding method, and spectral image processing device and corresponding method
CN102788751B (en) * 2011-05-20 2016-12-14 精工爱普生株式会社 Characteristic quantity estimation unit and method thereof and spectral image processing means and method thereof
JP2013092884A (en) * 2011-10-25 2013-05-16 Nippon Telegr & Teleph Corp <Ntt> Image processing device, method, and program
WO2013179581A1 (en) * 2012-05-30 2013-12-05 パナソニック株式会社 Image measurement device, image measurement method and image measurement system
US9418414B2 (en) 2012-05-30 2016-08-16 Panasonic Intellectual Property Management Co., Ltd. Image measurement apparatus, image measurement method and image measurement system
JP2021528861A (en) * 2018-06-28 2021-10-21 アプライド マテリアルズ インコーポレイテッドApplied Materials,Incorporated Generation of training spectra for machine learning systems for spectroscopic image monitoring
WO2020075226A1 (en) * 2018-10-09 2020-04-16 オリンパス株式会社 Image processing device operation method, image processing device, and image processing device operation program
JPWO2020075226A1 (en) * 2018-10-09 2021-09-02 オリンパス株式会社 Image processing device operation method, image processing device, and image processing device operation program
JP7090171B2 (en) 2018-10-09 2022-06-23 オリンパス株式会社 Image processing device operation method, image processing device, and image processing device operation program
WO2021095236A1 (en) * 2019-11-15 2021-05-20 オリンパス株式会社 Image processing device, image processing program, image processing method, and program

Similar Documents

Publication Publication Date Title
JP5498129B2 (en) Virtual microscope system
JP5738564B2 (en) Image processing system
US20100272334A1 (en) Microscope System, Specimen Observation Method, and Computer Program Product
JP4740068B2 (en) Image processing apparatus, image processing method, and image processing program
JP5075648B2 (en) Image processing apparatus, image processing program, and image processing method
JP2011002341A (en) Microscopic system, specimen observation method, and program
JP2010156612A (en) Image processing device, image processing program, image processing method, and virtual microscope system
JP5178226B2 (en) Image processing apparatus and image processing program
JP5117274B2 (en) Image processing apparatus and image processing program
JP2010169596A (en) Image processing system, image processing apparatus, and imaging processing terminal
US9406118B2 (en) Stain image color correcting apparatus, method, and system
JP2010169467A (en) Image processing apparatus, data set forming device, image processing program, and data set forming program
JP5137481B2 (en) Image processing apparatus, image processing program, and image processing method
JP5305618B2 (en) Image processing apparatus and image processing program
WO2018131091A1 (en) Image processing device, image processing method, and image processing program
JP5752985B2 (en) Image processing apparatus, image processing method, image processing program, and virtual microscope system
WO2020075226A1 (en) Image processing device operation method, image processing device, and image processing device operation program
CN112601950B (en) Image processing device, imaging system, method for operating image processing device, and program for operating image processing device
JP5687541B2 (en) Image processing apparatus, image processing method, image processing program, and virtual microscope system
JP2009025147A (en) Device and program for image processing
WO2018193635A1 (en) Image processing system, image processing method, and image processing program

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20120306