JP6740573B2 - Image processing apparatus, image processing method, and image processing program - Google Patents

Image processing apparatus, image processing method, and image processing program Download PDF

Info

Publication number
JP6740573B2
JP6740573B2 JP2015142095A JP2015142095A JP6740573B2 JP 6740573 B2 JP6740573 B2 JP 6740573B2 JP 2015142095 A JP2015142095 A JP 2015142095A JP 2015142095 A JP2015142095 A JP 2015142095A JP 6740573 B2 JP6740573 B2 JP 6740573B2
Authority
JP
Japan
Prior art keywords
image
cell
image processing
cell distribution
estimated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015142095A
Other languages
Japanese (ja)
Other versions
JP2017027138A (en
Inventor
勇介 三村
勇介 三村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2015142095A priority Critical patent/JP6740573B2/en
Publication of JP2017027138A publication Critical patent/JP2017027138A/en
Application granted granted Critical
Publication of JP6740573B2 publication Critical patent/JP6740573B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、画像処理装置、画像処理方法、および画像処理用のプログラムに関し、特に、細胞の形態を捉えた画像において細胞の特定部位が捉えられているものと推定される領域の分布を示す画像を取得するための画像処理技術に関する。 The present invention relates to an image processing device, an image processing method, and a program for image processing, and particularly to an image showing a distribution of regions in which it is estimated that a specific part of a cell is captured in an image capturing the morphology of the cell. Image processing technology for acquiring

医療の現場では、人や動物等の生体から採取された組織切片を顕微鏡で観察して病変の有無および病変の種類等について診断する、いわゆる病理診断が盛んに行われている。この病理診断では、診断の対象となる組織切片は、固定、包理、薄切および染色と言った処理がこの順で施された後に顕微鏡による観察に供されるのが一般的である。 In the field of medical care, so-called pathological diagnosis is actively performed by observing a tissue section collected from a living body such as a person or an animal with a microscope to diagnose the presence or absence of a lesion, the type of the lesion, and the like. In this pathological diagnosis, a tissue section to be diagnosed is generally subjected to processing such as fixing, embedding, thin sectioning and staining in this order, and then subjected to observation with a microscope.

この顕微鏡による観察については、例えば、組織切片に蛍光標識材料およびHE(ヘマトキシリン−エオジン)による染色を施し、励起光の組織切片への照射によって発生させた蛍光の撮像によって、組織切片における組織の形態および特定の抗原の分布に係る情報を同時に得る技術が提案されている(例えば、特許文献1等)。ここで、蛍光標識材料は、例えば、特定の抗原を認識する抗体と該抗体に結合した複数の蛍光物質を内包するナノ粒子とを構成要素に含む。また、この技術では、例えば、組織切片における特定の抗原の発現状態を定量的に表す特徴量として、例えば、細胞に属している輝点の数、および/または細胞に属している輝点の輝度値の平均輝度等が算出され得る。 Regarding the observation by the microscope, for example, the tissue section is stained with a fluorescent labeling material and HE (hematoxylin-eosin), and the morphology of the tissue in the tissue section is obtained by imaging the fluorescence generated by irradiation of the tissue section with excitation light. Also, a technique for simultaneously obtaining information on the distribution of a specific antigen has been proposed (for example, Patent Document 1). Here, the fluorescent labeling material contains, for example, an antibody that recognizes a specific antigen and nanoparticles containing a plurality of fluorescent substances bound to the antibody as constituent elements. In addition, in this technique, for example, as the feature amount that quantitatively expresses the expression state of a specific antigen in a tissue section, for example, the number of bright spots belonging to a cell and/or the brightness of bright spots belonging to a cell. The average brightness of the values or the like can be calculated.

特開2012−208106号公報JP2012-208106A

しかしながら、組織切片における細胞を含む組織の形態が捉えられた画像を対象とした画像処理によって、細胞核等の特定部位が検出される際には、特定部位が捉えられているものと推定される推定領域が正確に検出されない誤検出が生じ得る。この誤検出には、例えば、推定領域についての、[1]検出の漏れ、[2]不要な検出、[3]過大な検出、[4]過小な検出、および[5]複数の推定領域からなる一塊の推定領域(未分割の推定領域)の検出、等と言った種々の態様のものが含まれ得る。 However, when a specific portion such as a cell nucleus is detected by image processing for an image in which the morphology of the tissue including cells in the tissue section is captured, it is estimated that the specific portion is captured. False positives can occur where regions are not accurately detected. This erroneous detection includes, for example, [1] omission of detection, [2] unnecessary detection, [3] excessive detection, [4] underdetection, and [5] multiple estimated areas for the estimated area. It is possible to include various aspects such as detection of a block of estimated regions (estimated regions that have not been divided).

このような種々の誤検出の修正を画像処理のみで行うことは容易でない。このため、誤検出をユーザーがタッチパネル等を用いた手作業によって修正する態様が考えられる。但し、手作業による修正の対象となる箇所が多過ぎると、ユーザーに対する負担が過大となり、処理に要する時間も長くなり過ぎると言った種々の不具合が生じ得る。 It is not easy to correct such various false detections only by image processing. Therefore, a mode in which the user corrects the erroneous detection manually by using a touch panel or the like can be considered. However, if there are too many areas to be manually corrected, the burden on the user becomes excessive and the time required for the processing becomes too long, which may cause various problems.

本発明は、上記課題に鑑みてなされたものであり、細胞の形態を捉えた画像において細胞の特定部位が捉えられた領域の分布が示された画像を効率良く得ることが可能な技術を提供することを目的とする。 The present invention has been made in view of the above problems, and provides a technique capable of efficiently obtaining an image showing a distribution of regions in which a specific part of a cell is captured in an image in which the morphology of the cell is captured. The purpose is to

上記課題を解決するために、第1の態様に係る画像処理装置は、細胞の形態を捉えた細胞形態画像に画像処理を施すことで、該細胞形態画像において細胞の特定部位が捉えられているものと推定される推定領域の分布が1以上の細胞表示要素で示されている細胞分布画像を生成する生成部と、前記生成部によって相互に異なる2以上の条件に従って前記細胞形態画像に以上の画像処理が施されることで生成された2以上の細胞分布画像を表示部に表示させる表示制御部と、ユーザーの動作に応じて、前記表示部に表示されている前記2以上の細胞分布画像のうちの1つの細胞分布画像を指定する指定部と、ユーザーの動作に応じて、前記指定部で指定された前記1つの細胞分布画像の少なくとも一部を修正する修正部と、を備え、前記生成部が、前記細胞形態画像に複数の画像処理を時間順次に段階的に施、前記複数の画像処理のうちの段階的に施される2以上の画像処理における異なる複数の段階の画像処理のそれぞれまでを前記細胞形態画像に施すことで前記2以上の細胞分布画像を生成し、前記表示制御部が、前記生成部によって前記細胞形態画像に前記異なる複数の段階の画像処理のそれぞれまでが施されることで生成された前記2以上の細胞分布画像を前記表示部に同時に表示させることを特徴とする。 In order to solve the above-mentioned problems, the image processing apparatus according to the first aspect performs image processing on a cell morphology image that captures the morphology of cells to capture a specific portion of the cell in the cell morphology image. a generation unit distribution of the estimated area is estimated that things to produce a cell distribution image shown in one or more cells display element 2 above the cell form image according to the two or more conditions that are different from each other by the generating unit A display control unit for displaying on the display unit two or more cell distribution images generated by performing the image processing of 1. and the two or more cell distributions displayed on the display unit according to a user's operation. A specifying unit that specifies one cell distribution image of the images, and a correcting unit that corrects at least a part of the one cell distribution image specified by the specifying unit according to a user's operation , before Symbol generation section, the cell morphology image to image processing several times sequentially stepwise facilities, the different stages in a stepwise manner two or more image processing to be performed among the plurality of image processing The two or more cell distribution images are generated by performing each of the image processing up to the cell morphology image, and the display control unit causes the generation unit to perform the image processing of the plurality of different stages. It is characterized in that the two or more cell distribution images generated by performing the above are simultaneously displayed on the display unit.

第2の態様に係る画像処理装置は、第1の態様に係る画像処理装置であって、前記異なる複数の段階の画像処理は、前記細胞形態画像に複数の画像処理を時間順次に段階的に施す際に、前記複数の画像処理のうちの段階的に施される2以上の画像処理における異なる複数の段階の画像処理を含む。 The image processing apparatus according to a second aspect, there is provided an image processing apparatus according to the first aspect, the image processing before Symbol different stages sequentially stepwise time a plurality of image processing in the cell morphology image when applied to, including image processing of a plurality of different stages in image processing on 2 or more that is applied stepwise in the image processing of the multiple.

第3の態様に係る画像処理装置は、第1または第2の態様に係る画像処理装置であって、前記指定部が、ユーザーの動作に応じて、第1画像領域と、前記表示部に表示されている前記2以上の細胞分布画像のうちの第1細胞分布画像との第1組合せ、および前記第1画像領域とは異なる第2画像領域と、前記表示部に表示されている前記2以上の細胞分布画像のうちの前記第1細胞分布画像とは異なる第2細胞分布画像との第2組合せを指定し、前記修正部が、ユーザーの動作に応じて、前記第1細胞分布画像のうちの前記第1画像領域に対応する部分、および前記第2細胞分布画像のうちの前記第2画像領域に対応する部分を修正し、前記画像処理装置が、前記指定部によって指定された前記第1組合せおよび前記第2組合せに従って、前記修正部による修正前および修正後の少なくとも一方の状態にある、前記第1細胞分布画像と前記第2細胞分布画像とを合成することで、1つの細胞分布画像を生成する合成部、をさらに備える。 An image processing apparatus according to a third aspect is the image processing apparatus according to the first or second aspect, wherein the designating unit displays the first image area and the display unit according to a user's operation. A first combination with a first cell distribution image of the two or more cell distribution images being displayed, a second image region different from the first image region, and the two or more being displayed on the display unit. A second combination with a second cell distribution image different from the first cell distribution image of the first cell distribution image, and the correction unit selects one of the first cell distribution images according to the user's action. The portion corresponding to the first image area and the portion of the second cell distribution image corresponding to the second image area are corrected, and the image processing apparatus is configured to specify the first portion designated by the designation unit. One cell distribution image by combining the first cell distribution image and the second cell distribution image in at least one of the state before and after the correction by the correction unit according to the combination and the second combination. And a synthesizing unit for generating.

第4の態様に係る画像処理装置は、第1から第3の何れか1つの態様に係る画像処理装置であって、前記生成部が、前記以上の画像処理のうちの少なくとも1つの種類の画像処理において、1種類以上のパラメータそれぞれについての少なくとも2つの基準値に従って前記細胞形態画像から前記推定領域をそれぞれ検出することで、前記2以上の細胞分布画像のうちの少なくとも2つの細胞分布画像を生成する。 An image processing apparatus according to a fourth aspect is the image processing apparatus according to any one of the first to third aspects, wherein the generation unit is at least one of the two or more image processing types. In the image processing, at least two cell distribution images of the two or more cell distribution images are detected by detecting the estimated region from the cell morphology image according to at least two reference values for each of one or more parameters. To generate.

第5の態様に係る画像処理装置は、第4の態様に係る画像処理装置であって、前記1種類以上のパラメータが、前記細胞形態画像における領域についての、外観上の1種類以上の特徴に係るパラメータ、分割の度合いに係るパラメータ、および膨張収縮処理の度合いに係るパラメータのうちの少なくとも1種類のパラメータを含む。 An image processing apparatus according to a fifth aspect is the image processing apparatus according to the fourth aspect, wherein the one or more kinds of parameters are one or more appearance characteristics of a region in the cell morphology image. At least one kind of parameter is included among the parameter, the parameter relating to the degree of division, and the parameter relating to the degree of expansion/contraction processing.

第6の態様に係る画像処理装置は、第5の態様に係る画像処理装置であって、前記外観上の1種類以上の特徴が、大きさ、濃さおよび形状のうちの少なくとも1種類の特徴を含む。 An image processing apparatus according to a sixth aspect is the image processing apparatus according to the fifth aspect, wherein the one or more types of features in appearance are features of at least one type of size, density and shape. including.

第7の態様に係る画像処理装置は、第6の態様に係る画像処理装置であって、前記大きさに係る特徴が、面積、周囲の長さ、長軸の長さおよび短軸の長さのうちの1種類以上の特徴を含み、前記濃さに係る特徴が、色相、明度、彩度、輝度、色差および各色の輝度のうちの1種類以上の特徴を含み、前記形状に係る特徴が、円形度、扁平率およびアスペクト比のうちの1種類以上の特徴を含む。 An image processing apparatus according to a seventh aspect is the image processing apparatus according to the sixth aspect, wherein the features related to the size are area, perimeter length, major axis length and minor axis length. The characteristics relating to the density include one or more characteristics among hue, brightness, saturation, luminance, color difference and luminance of each color, and the characteristics relating to the shape are , Circularity, oblateness, and aspect ratio.

第8の態様に係る画像処理装置は、第4から第7の何れか1つの態様に係る画像処理装置であって、前記生成部が、前記少なくとも1種類の画像処理のうちの少なくとも2種類の画像処理において、2種類以上のパラメータの間における2組以上の基準値の組合せに従って前記細胞形態画像から前記推定領域をそれぞれ検出することで、前記2以上の細胞分布画像のうちの前記少なくとも2つの細胞分布画像を生成する。 The image processing apparatus according to the eighth aspect, the fourth An image processing apparatus according to a seventh any one aspect of the previous SL generation unit, at least two of the at least one image processing In the image processing described above, each of the at least two of the two or more cell distribution images is detected by detecting the estimated region from the cell morphology image according to a combination of two or more sets of reference values between two or more types of parameters. Generate two cell distribution images.

第9の態様に係る画像処理装置は、第1から第3の何れか1つの態様に係る画像処理装置であって、前記生成部が、前記細胞形態画像における領域の外観上の1種類以上の特徴に対応するための複数のパターンの画像処理によって、前記細胞形態画像から前記推定領域をそれぞれ検出することで、前記2以上の細胞分布画像のうちの少なくとも2つの細胞分布画像を生成する。 An image processing apparatus according to a ninth aspect is the image processing apparatus according to any one of the first to third aspects, in which the generation unit includes at least one type of appearance of an area in the cell morphology image. At least two cell distribution images out of the two or more cell distribution images are generated by detecting the estimated regions from the cell morphology image by image processing of a plurality of patterns corresponding to the features.

第10の態様に係る画像処理装置は、第9の態様に係る画像処理装置であって、前記複数のパターンの画像処理が、外観上の2種類以上の特徴の間における複数組の特徴の組合せにそれぞれ応じた画像処理を含む。
第11の態様に係る画像処理装置は、細胞の形態を捉えた細胞形態画像に画像処理を施すことで、該細胞形態画像において細胞の特定部位が捉えられているものと推定される推定領域の分布が1以上の細胞表示要素で示されている細胞分布画像を生成する生成部と、前記生成部によって相互に異なる2以上の条件に従って前記細胞形態画像に1種類以上の画像処理が施されることで生成された2以上の細胞分布画像を表示部に表示させる表示制御部と、ユーザーの動作に応じて、前記表示部に表示されている前記2以上の細胞分布画像のうちの1つの細胞分布画像を指定する指定部と、ユーザーの動作に応じて、前記指定部で指定された前記1つの細胞分布画像の少なくとも一部を修正する修正部と、を備え、前記生成部が、前記細胞形態画像における領域の外観上の1種類以上の特徴に対応するための複数のパターンの画像処理によって、前記細胞形態画像から前記推定領域をそれぞれ検出することで、前記2以上の細胞分布画像のうちの少なくとも2つの細胞分布画像を生成し、前記複数のパターンの画像処理が、外観上の2種類以上の特徴の間における複数組の特徴の組合せにそれぞれ応じた画像処理を含むことを特徴とする。
The image processing apparatus according to a tenth aspect, in the image processing apparatus according to the ninth aspect, the image processing before Symbol plurality of patterns, a plurality of sets of features between two or more features on the Appearance The image processing corresponding to each combination is included.
An image processing apparatus according to an eleventh aspect performs image processing on a cell morphology image that captures the morphology of cells, thereby estimating a specific region of cells in the cell morphology image. One or more types of image processing are performed on the cell morphology image according to a generation unit that generates a cell distribution image whose distribution is indicated by one or more cell display elements and two or more conditions that are different from each other by the generation unit. A display control unit that causes the display unit to display the two or more cell distribution images generated by the above, and one cell of the two or more cell distribution images that is displayed on the display unit according to the user's operation. A generating unit that corrects at least a part of the one cell distribution image specified by the specifying unit according to a user's operation; Of the two or more cell distribution images, each of the two or more cell distribution images is detected by detecting the estimated region from the cell morphology image by image processing of a plurality of patterns to correspond to one or more types of features on the appearance of the region in the morphology image. at least generates two cell distribution image, the image processing before Symbol plurality of patterns, comprising the image processing corresponding respectively to a combination of a plurality of sets of features between two or more features on the appearance of And

12の態様に係る画像処理装置は、第10または第11の態様に係る画像処理装置であって、前記外観上の2種類以上の特徴が、濃さおよび密集度合に係る特徴を含み、前記複数のパターンの画像処理のそれぞれが、濃さに係る特徴に応じた各色の輝度についての閾値を用いた閾値処理および輪郭の抽出処理のうちの少なくとも1つの処理、ならびに密集度合いに係る特徴に応じた領域の分割度合いを用いた領域の分割処理を含む。 An image processing apparatus according to a twelfth aspect is the image processing apparatus according to the tenth or eleventh aspect, wherein the two or more types of features on the appearance include features related to density and density, Each of the image processes of the plurality of patterns corresponds to at least one of a threshold value process and a contour extraction process using a threshold value for the brightness of each color according to the feature related to the darkness, and the feature related to the degree of congestion. Area division processing using the degree of area division is included.

第13の態様に係る画像処理装置は、第2の態様に係る画像処理装置であって、前記生成部が、前記複数の画像処理のうちの段階的に施される2以上の画像処理のうちの最後に施される画像処理を除く残余の画像処理に含まれる少なくとも1種類の画像処理において、前記細胞形態画像に対して領域毎に異なる条件に従った処理を施す。
第14の態様に係る画像処理装置は、細胞の形態を捉えた細胞形態画像に画像処理を施すことで、該細胞形態画像において細胞の特定部位が捉えられているものと推定される推定領域の分布が1以上の細胞表示要素で示されている細胞分布画像を生成する生成部と、前記生成部によって相互に異なる2以上の条件に従って前記細胞形態画像に1種類以上の画像処理が施されることで生成された2以上の細胞分布画像を表示部に表示させる表示制御部と、ユーザーの動作に応じて、前記表示部に表示されている前記2以上の細胞分布画像のうちの1つの細胞分布画像を指定する指定部と、ユーザーの動作に応じて、前記指定部で指定された前記1つの細胞分布画像の少なくとも一部を修正する修正部と、を備え、前記生成部が、前記以上の画像処理のうちの少なくとも1つの種類の画像処理において、1種類以上のパラメータそれぞれについての少なくとも2つの基準値に従って前記細胞形態画像から前記推定領域をそれぞれ検出することで、前記2以上の細胞分布画像のうちの少なくとも2つの細胞分布画像を生成し、前記生成部が、前記少なくとも1種類の画像処理のうちの少なくとも2種類の画像処理において、2種類以上のパラメータの間における2組以上の基準値の組合せに従って前記細胞形態画像から前記推定領域をそれぞれ検出することで、前記2以上の細胞分布画像のうちの前記少なくとも2つの細胞分布画像を生成することを特徴とする。
The image processing apparatus according to a thirteenth aspect, in the image processing apparatus according to the second aspect, the generating unit, the image processing on the two or more that is applied stepwise among the plurality of image processing In at least one type of image processing included in the remaining image processing except the image processing performed last, the cell morphological image is processed according to different conditions for each region.
An image processing apparatus according to a fourteenth aspect performs image processing on a cell morphology image that captures the morphology of cells, thereby estimating an estimated region in which a specific part of a cell is captured in the cell morphology image. One or more types of image processing are performed on the cell morphology image according to a generation unit that generates a cell distribution image whose distribution is indicated by one or more cell display elements and two or more conditions that are different from each other by the generation unit. A display control unit that causes the display unit to display the two or more cell distribution images generated by the above, and one cell of the two or more cell distribution images that is displayed on the display unit according to the user's operation. a designation unit which designates a distribution image, according to the user's operation, and a correction unit for correcting at least a portion of the designated said one cell distribution image by the designation unit, the generation unit, the 2 In at least one type of image processing of the above image processing, by detecting the estimated region from the cell morphological image according to at least two reference values for each of one or more types of parameters, the two or more cells are detected. generating at least two cell distribution image of the distribution image, before Symbol generation section, at least two kinds of image processing of the at least one image processing, two or more sets between two or more parameters The at least two cell distribution images of the two or more cell distribution images are generated by detecting the estimated regions from the cell morphology image in accordance with the combination of the reference values.

第15の態様に係る画像処理方法は、(a)生成部によって、相互に異なる2以上の条件に従って、細胞の形態を捉えた細胞形態画像に2以上の画像処理を施すことで、前記細胞形態画像において細胞の特定部位が捉えられているものと推定される推定領域の分布が少なくとも1つの細胞表示要素で示されている、2以上の細胞分布画像をそれぞれ生成するステップと、(b)表示制御部によって、前記ステップ(a)において生成された前記2以上の細胞分布画像を表示部に表示させるステップと、(c)指定部によって、ユーザーの動作に応じて、前記表示部に表示されている前記2以上の細胞分布画像のうちの1つの細胞分布画像を指定するステップと、(d)修正部によって、ユーザーの動作に応じて、前記ステップ(c)において指定された前記1つの細胞分布画像の少なくとも一部を修正するステップと、を備え、前記ステップ(a)において、前記細胞形態画像に複数の画像処理を時間順次に段階的に施、前記複数の画像処理のうちの段階的に施される2以上の画像処理における異なる複数の段階の画像処理のそれぞれまでを前記細胞形態画像に施すことで前記2以上の細胞分布画像を生成し、前記ステップ(b)において、前記表示制御部によって、前記ステップ(a)において前記細胞形態画像に前記異なる複数の段階の画像処理のそれぞれまでが施されることで生成された前記2以上の細胞分布画像を前記表示部に同時に表示させることを特徴とする。

In the image processing method according to the fifteenth aspect, (a) the cell morphology is obtained by performing two or more image processing on a cell morphology image capturing a cell morphology according to two or more mutually different conditions by the generation unit. Generating two or more cell distribution images in which the distribution of the estimated region in which it is estimated that a specific part of a cell is captured in the image is indicated by at least one cell display element, and (b) display A step of displaying the two or more cell distribution images generated in the step (a) on the display section by the control section, and (c) a display section displaying the two or more cell distribution images on the display section according to the user's operation. The step of designating one cell distribution image of the two or more cell distribution images that are present, and (d) the one cell distribution designated in step (c) according to the operation of the user by the correction unit. comprising a step of modifying at least a portion of the image, and in the previous SL step (a), said cells form the image to image processing several times sequentially stepwise facilities to, among the plurality of image processing The two or more cell distribution images are generated by subjecting the cell morphology image to each of a plurality of different stages of image processing in two or more image processing performed stepwise, and in the step (b), The display controller simultaneously displays the two or more cell distribution images generated by subjecting the cell morphology image to each of the plurality of different stages of image processing in step (a). It is characterized in that

16の態様に係る画像処理用のプログラムは、情報処理装置に含まれる制御部において実行されることで、該情報処理装置を第1から第14の何れか1つの態様に係る画像処理装置として機能させることを特徴とする。 The image processing program according to the sixteenth aspect is executed by a control unit included in the information processing apparatus, so that the information processing apparatus serves as the image processing apparatus according to any one of the first to fourteenth aspects. It is characterized by making it function.

本発明によれば、細胞の形態を捉えた画像に対する異なる条件の画像処理によってそれぞれ生成され、且つ細胞の特定部位が捉えられているものと推定される領域の分布が示されている2以上の画像において、ユーザーが修正を加える対象となる画像を指定することが出来る。これにより、細胞の形態を捉えた画像において細胞の特定部位が捉えられた領域の分布が示された画像が効率良く得られる。 According to the present invention, a distribution of regions that are each generated by image processing under different conditions for an image in which a cell morphology is captured and in which it is estimated that a specific part of the cell is captured is shown. In the image, the user can specify the image to be modified. As a result, it is possible to efficiently obtain an image in which the distribution of the region in which the specific part of the cell is captured is shown in the image in which the morphology of the cell is captured.

参考例に係る画像処理フローの一例を示す流れ図である。9 is a flowchart illustrating an example of an image processing flow according to a reference example. 推定領域が適正状態で検出されている一例を示す図である。It is a figure which shows an example in which the estimation area|region is detected in the proper state. 推定領域が不適正状態で検出されている一例を示す図である。It is a figure which shows an example in which the estimation area|region is detected in the improper state. 推定領域が不適正状態で検出されている一例を示す図である。It is a figure which shows an example in which the estimation area|region is detected in the improper state. 推定領域が不適正状態で検出されている一例を示す図である。It is a figure which shows an example in which the estimation area|region is detected in the improper state. 推定領域が不適正状態で検出されている一例を示す図である。It is a figure which shows an example in which the estimation area|region is detected in the improper state. 推定領域が不適正状態で検出されている一例を示す図である。It is a figure which shows an example in which the estimation area|region is detected in the improper state. 参考例に係る特定部位の検出に係る動作フローの一例を示す流れ図である。9 is a flowchart showing an example of an operation flow related to detection of a specific portion according to a reference example. 細胞形態画像の一例を示す図である。It is a figure which shows an example of a cell morphology image. 細胞分布画像の一例を示す図である。It is a figure which shows an example of a cell distribution image. 適正状態で検出された推定領域を示す細胞表示要素を例示する図である。It is a figure which illustrates the cell display element which shows the estimated area|region detected in the appropriate state. 過剰分割状態で検出された推定領域を示す細胞表示要素を例示する図である。It is a figure which illustrates the cell display element which shows the estimated area|region detected in the excessive division state. 未分割状態で検出された推定領域を示す細胞表示要素を例示する図である。It is a figure which illustrates the cell display element which shows the estimated area|region detected in the undivided state. 細胞表示要素群を統合する統合処理の一例を示す図である。It is a figure which shows an example of the integration process which integrates a cell display element group. 未分割の細胞表示要素を分割する分割処理の一例を示す図である。It is a figure which shows an example of the division process which divides an undivided cell display element. 検出処理の進行と不適正状態で検出された推定領域の数との関係を例示する図である。It is a figure which illustrates the relationship between the progress of a detection process and the number of the estimation areas detected in the improper state. 検出処理の進行と不適正状態で検出された推定領域の数との関係を例示する図である。It is a figure which illustrates the relationship between the progress of a detection process and the number of the estimation areas detected in the improper state. 第1細胞形態画像を例示する図である。It is a figure which illustrates a 1st cell morphology image. 第1段階における細胞分布画像を例示する図である。It is a figure which illustrates the cell distribution image in the 1st step. 第2段階における細胞分布画像を例示する図である。It is a figure which illustrates the cell distribution image in the 2nd step. 第3段階における細胞分布画像を例示する図である。It is a figure which illustrates the cell distribution image in the 3rd step. 第2細胞形態画像を例示する図である。It is a figure which illustrates a 2nd cell morphology image. 第1段階における細胞分布画像を例示する図である。It is a figure which illustrates the cell distribution image in the 1st step. 第2段階における細胞分布画像を例示する図である。It is a figure which illustrates the cell distribution image in the 2nd step. 第3段階における細胞分布画像を例示する図である。It is a figure which illustrates the cell distribution image in the 3rd step. 実施形態に係る病理診断支援システムの概略的な構成を例示する図である。It is a figure which illustrates the schematic structure of the pathological diagnosis support system which concerns on embodiment. 細胞形態画像の一例を示す図である。It is a figure which shows an example of a cell morphology image. 蛍光画像の一例を示す図である。It is a figure which shows an example of a fluorescence image. 情報処理装置の機能的な構成を概略的に示すブロック図である。It is a block diagram which shows roughly the functional structure of an information processing apparatus. 制御部で実現される機能的な構成を例示するブロック図である。It is a block diagram which illustrates the functional composition realized by the control part. 画像処理装置の動作フローを例示する流れ図である。6 is a flowchart illustrating an operation flow of the image processing apparatus. 特定部位を捉えた推定領域を検出する動作フローを例示する流れ図である。It is a flow chart which illustrates the operation flow which detects the presumed field which caught the specific part. 細胞形態画像の一例を示す図である。It is a figure which shows an example of a cell morphology image. 輝点分布画像の模式的な一例を示す図である。It is a figure which shows a typical example of a bright spot distribution image. 第1段階の細胞分布画像を例示する図である。It is a figure which illustrates the cell distribution image of the 1st step. 第2段階の細胞分布画像を例示する図である。It is a figure which illustrates the cell distribution image of the 2nd step. 第3段階の細胞分布画像を例示する図である。It is a figure which illustrates the cell distribution image of the 3rd step. 画像指定画面の一例を示す図である。It is a figure which shows an example of an image designation screen. 制御部で実現される他の機能的な構成を例示するブロック図である。It is a block diagram which illustrates another functional structure implement|achieved by a control part. 画像処理装置の動作フローの他の一例を示す流れ図である。9 is a flowchart showing another example of the operation flow of the image processing apparatus. 領域毎に細胞分布画像を指定する動作フローを例示する流れ図である。It is a flowchart which illustrates the operation|movement flow which designates a cell distribution image for every area|region. 細胞形態画像の一例を示す図である。It is a figure which shows an example of a cell morphology image. 領域画像指定画面の表示例を示す図である。It is a figure which shows the example of a display of an area|region image designation screen. 細胞形態画像がマークによって区分けされる様子を例示する図である。It is a figure which illustrates a mode that a cell morphology image is divided by a mark. 領域画像指定画面の表示例を示す図である。It is a figure which shows the example of a display of an area|region image designation screen. 領域画像指定画面の表示例を示す図である。It is a figure which shows the example of a display of an area|region image designation screen. 領域毎に指定された細胞分布画像が合成された画像を例示する図である。It is a figure which illustrates the image which the cell distribution image designated for every area|region was synthesize|combined. 領域毎に細胞分布画像を指定する動作フローの一例を示す流れ図である。It is a flowchart which shows an example of the operation|movement flow which designates a cell distribution image for every area|region. 領域画像指定画面の表示例を示す図である。It is a figure which shows the example of a display of an area|region image designation screen. 領域画像指定画面の表示例を示す図である。It is a figure which shows the example of a display of an area|region image designation screen. 領域画像指定画面の表示例を示す図である。It is a figure which shows the example of a display of an area|region image designation screen. 第1および第2画像領域が指定されている様子を例示する図である。It is a figure which illustrates a mode that the 1st and 2nd image area is specified. 領域画像指定画面の表示例を示す図である。It is a figure which shows the example of a display of an area|region image designation screen. パラメータの種類毎の複数の基準値を例示する図である。It is a figure which illustrates the some reference value for every kind of parameter. 複数種類の外観上の特徴についての条件の組合せを例示する図である。It is a figure which illustrates the combination of the conditions about several types of external features. 外観上の特徴と推定領域の検出処理の内容との関係を例示する図である。It is a figure which illustrates the relationship between the external feature and the content of the detection process of an estimation area|region. 外観上の特徴と推定領域の検出処理の内容との関係を例示する図である。It is a figure which illustrates the relationship between the external feature and the content of the detection process of an estimation area|region. 第4変形例に係る推定領域の検出処理のフローを例示する流れ図である。It is a flowchart which illustrates the flow of the detection process of the estimation area|region which concerns on a 4th modification. 細胞形態画像を区分けするための2値画像を例示する図である。It is a figure which illustrates the binary image for dividing a cell morphology image. 細胞形態画像が区分けされる様子を例示する図である。It is a figure which illustrates a mode that a cell morphological image is divided. 領域毎に異なる条件で推定領域が検出された結果を例示する図である。It is a figure which illustrates the result which the estimation area|region was detected on the conditions which differ for every area|region.

<(1)本発明の概要>
<(1−1)参考例に係る画像処理とその問題点>
図1は、参考例に係る画像処理のフローを示す流れ図である。図1で示されているように、参考例に係る画像処理では、例えば、ステップS101〜S105の処理が順に行われる。
<(1) Outline of the present invention>
<(1-1) Image processing according to reference example and its problems>
FIG. 1 is a flowchart showing a flow of image processing according to the reference example. As illustrated in FIG. 1, in the image processing according to the reference example, for example, the processing of steps S101 to S105 is sequentially performed.

ステップS101では、顕微鏡画像が取得される。顕微鏡画像には、例えば、同一視野についての細胞形態画像および蛍光画像が含まれる。細胞形態画像は、細胞の形態が捉えられた画像である。つまり、細胞形態画像には、細胞の形態に係る情報(細胞形態情報とも言う)が含まれる。蛍光画像は、特定の生体物質(特定の抗原)に結合した粒子に内包される蛍光物質の発光が捉えられた画像である。つまり、蛍光画像には、特定の生体物質の分布状態が捉えられており、該蛍光画像には、特定の生体物質の分布状態に係る情報(物質分布情報とも言う)が含まれる。なお、顕微鏡画像として、例えば、細胞形態情報および物質分布情報の双方を有する1つの画像が採用される態様も考えられる。 In step S101, a microscope image is acquired. The microscope image includes, for example, a cell morphology image and a fluorescence image for the same visual field. The cell morphology image is an image in which the morphology of cells is captured. That is, the cell morphology image includes information related to cell morphology (also referred to as cell morphology information). The fluorescence image is an image in which the emission of a fluorescent substance included in particles bound to a specific biological substance (specific antigen) is captured. That is, the fluorescence image captures the distribution state of a specific biological substance, and the fluorescence image includes information (also referred to as substance distribution information) related to the distribution state of the specific biological substance. Note that, as the microscope image, for example, a mode in which one image having both cell morphology information and substance distribution information is adopted is also conceivable.

ステップS102では、蛍光画像における蛍光輝点が検出される。このとき、例えば、蛍光画像における特定波長に係る蛍光輝点の分布を示す画像(輝点分布画像とも言う)が取得される。 In step S102, fluorescent bright spots in the fluorescent image are detected. At this time, for example, an image (also referred to as a bright spot distribution image) showing the distribution of fluorescent bright spots associated with a specific wavelength in the fluorescent image is acquired.

ステップS103では、細胞形態画像に画像処理が施されることで、特定部位が捉えられているものと推定される領域(推定領域とも言う)が検出される。このとき、推定領域の分布が複数の要素(細胞表示要素とも言う)で示されている画像(細胞分布画像とも言う)が得られる。なお、特定部位としては、例えば、特定部位等が採用され得る。本実施形態では、特定部位が、細胞核である例について説明する。 In step S103, a region (also referred to as an estimated region) estimated to capture a specific portion is detected by performing image processing on the cell morphology image. At this time, an image (also called a cell distribution image) in which the distribution of the estimated region is shown by a plurality of elements (also called a cell display element) is obtained. As the specific portion, for example, a specific portion or the like can be adopted. In the present embodiment, an example in which the specific portion is the cell nucleus will be described.

図2から図7は、特定部位に係る推定領域が検出される例をそれぞれ示す図である。図2は、特定部位に係る推定領域が適正な状態(適正状態とも言う)で検出される一例を示す図である。図3から図7の各図は、特定部位に係る推定領域が適正でない状態(不適正状態とも言う)で検出されている例を示す図である。なお、図2から図7の各図では、左方に細胞形態画像の一部の画像領域が示されており、右方に該一部の画像領域で検出された推定領域を示す細胞表示要素が該一部の画像領域上に重畳された態様で示されている。ここでは、細胞表示要素が、濃い灰色で描かれている。また、図2から図7では、右方に示される画像領域上に特定部位が実際に捉えられた領域の輪郭を示す細線が描かれている。 2 to 7 are diagrams each showing an example in which an estimated region related to a specific part is detected. FIG. 2 is a diagram illustrating an example in which the estimated region related to the specific portion is detected in an appropriate state (also referred to as an appropriate state). Each of FIGS. 3 to 7 is a diagram showing an example in which the estimated region related to the specific portion is detected in an improper state (also referred to as an improper state). In each of FIGS. 2 to 7, a partial image area of the cell morphological image is shown on the left side, and a cell display element showing an estimated area detected in the partial image area on the right side. Are shown superimposed on the part of the image area. Here, the cell display element is drawn in dark gray. Further, in FIGS. 2 to 7, a thin line is drawn on the image region shown on the right side, which shows the outline of the region in which the specific portion is actually captured.

具体的には、例えば、図2で示されるように、推定領域A101が検出されて、該推定領域A101が細胞表示要素E101で示され得る。ここで、細胞表示要素E101は、細胞形態画像で捉えられた種々の部位と区別可能な特定の態様で示され得る。特定の態様としては、例えば、特定の色および特定の模様等が付されている態様等が考えられる。 Specifically, for example, as shown in FIG. 2, the estimated area A101 can be detected and the estimated area A101 can be shown by the cell display element E101. Here, the cell display element E101 can be shown in a specific mode that can be distinguished from various parts captured in the cell morphology image. As the specific mode, for example, a mode in which a specific color, a specific pattern, or the like is attached can be considered.

ところで、細胞形態画像に画像処理が施されることで特定部位に対応する推定領域が検出される際には、該推定領域の誤検出が生じ得る。該誤検出には、例えば、推定領域についての、[1]検出の漏れ(図3)、[2]不要な検出(図4)、[3]過大な検出(図5)、[4]過小な検出(図6)、および[5]複数の特定部位に対応する一塊の未分割の推定領域の検出(図7)、等と言った種々の態様のものが含まれ得る。図3から図7で示された右方の画像領域では、細胞形態画像に対して画像処理が施されることで検出された推定領域が濃い灰色の細胞表示要素で示されており、実際に特定部位が捉えられている領域の輪郭が細線で示されている。つまり、濃い灰色の細胞表示要素が、細線で囲まれた実際に特定部位が捉えられた領域を示すように修正されるべき状態が示されている。 By the way, when an estimated region corresponding to a specific part is detected by performing image processing on the cell morphology image, erroneous detection of the estimated region may occur. The erroneous detection includes, for example, [1] omission of detection (FIG. 3), [2] unnecessary detection (FIG. 4), [3] excessive detection (FIG. 5), and [4] underestimation of the estimated region. Detection (FIG. 6) and [5] detection of a block of undivided estimated regions corresponding to a plurality of specific parts (FIG. 7), and the like. In the image region on the right side shown in FIGS. 3 to 7, the estimated region detected by performing the image processing on the cell morphology image is shown by the dark gray cell display element. The outline of the region where the specific portion is captured is indicated by a thin line. In other words, the dark gray cell display element is shown to be corrected so as to indicate the area surrounded by the thin line where the specific portion is actually captured.

ステップS104では、上記ステップS103で取得された細胞分布画像が修正される。ここでは、ユーザーの動作に応じて上記誤検出が修正される。例えば、タッチパネルに細胞分布画像を表示させ、該細胞分布画像に対してユーザーがスタイラスペン等によって修正を加える態様が考えられる。具体的には、例えば、検出の漏れを補うために、未検出の特定部位の輪郭に沿って閉曲線が描かれて、細胞表示要素が追加される態様、不要な検出に係る細胞表示要素の全部が削除される態様、過大な検出に係る細胞表示要素の一部が削除される態様、過小に検出された特定部位を示す細胞表示要素が拡大される態様、ならびに複数の特定部位が一塊の部分として示されている細胞表示要素が分割される態様等が考えられる。これにより、推定領域の分布が複数の細胞表示要素で示されている細胞分布画像の生成が完了する。 In step S104, the cell distribution image acquired in step S103 is corrected. Here, the erroneous detection is corrected according to the operation of the user. For example, a mode in which a cell distribution image is displayed on the touch panel and the user corrects the cell distribution image with a stylus pen or the like can be considered. Specifically, for example, in order to compensate for the omission of detection, a closed curve is drawn along the contour of an undetected specific part, a mode in which cell display elements are added, and all cell display elements related to unnecessary detection. Is deleted, a part of the cell display element relating to the excessive detection is deleted, a mode in which the cell display element showing the specific region under-detected is enlarged, and a part in which a plurality of specific regions are one block A mode or the like in which the cell display element shown as is divided is considered. As a result, the generation of the cell distribution image in which the distribution of the estimated region is shown by the plurality of cell display elements is completed.

ステップS105では、ステップS104で生成された細胞分布画像と、ステップS102で得られた輝点分布画像とに基づいて、診断支援情報が生成される。診断支援情報としては、例えば、細胞形態画像で捉えられている特定部位における特定の生体物質の存在状態に係る解析値等が挙げられる。解析値には、例えば、細胞の特定部位の単位面積当たりの蛍光輝点の数、および1つの細胞領域当たりの蛍光輝点の数等と言った各種統計値が含まれ得る。 In step S105, diagnostic assistance information is generated based on the cell distribution image generated in step S104 and the bright spot distribution image acquired in step S102. Examples of the diagnosis support information include an analysis value related to the existence state of a specific biological substance in a specific region captured in a cell morphological image. The analyzed value may include various statistical values such as the number of fluorescent bright spots per unit area of a specific portion of a cell and the number of fluorescent bright spots per one cell region.

以上のような画像処理のフローにおいて、より正確な診断支援情報を生成するためには、細胞分布画像が取得される際に生じた誤検出を適正な状態に修正する必要がある。但し、誤検出の修正に煩雑な作業と多大な時間を要してしまう。したがって、誤検出の修正を容易に行うことが可能な技術、すなわち細胞分布画像が効率良く得られる技術が望まれる。 In the above-described image processing flow, in order to generate more accurate diagnosis support information, it is necessary to correct the erroneous detection that occurs when the cell distribution image is acquired. However, correction of erroneous detection requires complicated work and a great deal of time. Therefore, a technique capable of easily correcting erroneous detection, that is, a technique capable of efficiently obtaining a cell distribution image is desired.

ここで、上述した誤検出が生じる推定領域の検出処理(図1のステップS103)における具体的な処理内容について説明する。 Here, the specific processing content in the detection processing (step S103 in FIG. 1) of the estimation area in which the above-described erroneous detection occurs will be described.

図8は、参考例に係る推定領域の検出処理の動作フローを示す流れ図である。図8で示されるように、参考例に係る推定領域の検出処理では、ステップS201〜S211の処理が行われる。 FIG. 8 is a flow chart showing an operation flow of detection processing of an estimated region according to the reference example. As shown in FIG. 8, in the estimation region detection process according to the reference example, the processes of steps S201 to S211 are performed.

ステップS201では、細胞形態画像に対して前処理が施される。該前処理には、例えば、各種フィルター等を用いてノイズを除去する処理等が含まれ得る。 In step S201, preprocessing is performed on the cell morphology image. The pre-processing may include, for example, processing for removing noise using various filters or the like.

ステップS202では、ステップS201で前処理が施された細胞形態画像に対して推定領域を検出する処理(領域検出処理とも言う)が施される。領域検出処理においては、例えば、第1領域検出処理(ステップS2021)と第2領域検出処理(ステップS2022)とが順に行われる。 In step S202, a process of detecting an estimated region (also referred to as a region detection process) is performed on the cell morphology image preprocessed in step S201. In the area detection processing, for example, the first area detection processing (step S2021) and the second area detection processing (step S2022) are sequentially performed.

第1領域検出処理では、細胞形態画像において比較的明瞭な態様で捉えられた特定部位に係る推定領域(第1推定領域とも言う)が検出される。これにより、第1推定領域の分布が1以上の細胞表示要素で示されている細胞分布画像(第1段階の細胞分布画像とも言う)が取得され得る。ここでは、例えば、二値化およびクラスタリング等によって、細胞形態画像において特定部位が捉えられている第1推定領域が検出され得る。また、第1領域検出処理では、例えば、多数種の画像の特徴量を用いた機械学習で得た学習内容によって、細胞形態画像から第1推定領域が検出されても良いし、一旦検出された領域のうち、外観上の基準を満たす領域が第1推定領域として検出されても良い。 In the first area detection process, an estimated area (also referred to as a first estimated area) related to a specific portion captured in a relatively clear manner in the cell morphological image is detected. As a result, a cell distribution image (also referred to as a first-stage cell distribution image) in which the distribution of the first estimated region is shown by one or more cell display elements can be acquired. Here, the first estimation region in which the specific portion is captured in the cell morphology image can be detected by, for example, binarization and clustering. Further, in the first region detection processing, for example, the first estimated region may be or may not be detected from the cell morphological image according to the learning content obtained by machine learning using the feature amounts of many types of images. Of the regions, a region that satisfies the appearance standard may be detected as the first estimated region.

第2領域検出処理では、細胞形態画像において比較的明瞭でない態様で捉えられた特定部位に係る推定領域(第2推定領域とも言う)が検出される。これにより、第1および第2推定領域の分布が2以上の細胞表示要素で示されている細胞分布画像(第2段階の細胞分布画像とも言う)が取得され得る。ここでは、例えば、第1領域検出処理のものとは条件が異なる二値化、およびエッジ抽出による閉領域の認識等によって第2推定領域が検出され得る。さらに、第2領域検出処理においても、例えば、一旦検出された第2推定領域のうち、外観上の基準を満たす領域が第2推定領域として検出されても良い。 In the second area detection processing, an estimated area (also referred to as a second estimated area) related to a specific portion captured in a relatively unclear form in the cell morphology image is detected. As a result, a cell distribution image (also referred to as a second-stage cell distribution image) in which the distributions of the first and second estimated regions are shown by two or more cell display elements can be acquired. Here, for example, the second estimation region can be detected by binarization under different conditions from those of the first region detection processing, recognition of a closed region by edge extraction, and the like. Further, also in the second region detection processing, for example, of the second estimated regions that have been once detected, a region that satisfies the appearance criterion may be detected as the second estimated region.

図9は、細胞形態画像G102aの一例を示す図である。図10は、図9で示された細胞形態画像G102aから第1および第2領域検出処理によって取得される第2段階の細胞分布画像G102bの一例を示す図である。図10には、例えば、第1および第2推定領域が白色の細胞表示要素で示され、残余の領域が黒色で示された第2段階の細胞分布画像が例示されている。なお、図11から図13は、第2段階の細胞分布画像における具体的な細胞表示要素Ex1〜Ex3を例示する図である。図11は、適正な状態(適正状態とも言う)で検出された推定領域を示す細胞表示要素Ex1の一例を示す図である。図12は、過剰に分割された状態(過剰分割状態とも言う)で検出された推定領域を示す細胞表示要素Ex2の一例を示す図である。図13は、未分割の状態(未分割状態とも言う)で検出された推定領域を示す細胞表示要素Ex3の一例を示す図である。 FIG. 9 is a diagram showing an example of the cell morphology image G102a. FIG. 10 is a diagram showing an example of a second-stage cell distribution image G102b acquired by the first and second region detection processing from the cell morphology image G102a shown in FIG. FIG. 10 illustrates, for example, a second-stage cell distribution image in which the first and second estimated regions are shown by white cell display elements and the remaining regions are shown in black. 11 to 13 are diagrams illustrating specific cell display elements Ex1 to Ex3 in the cell distribution image in the second stage. FIG. 11: is a figure which shows an example of the cell display element Ex1 which shows the estimated area|region detected in the appropriate state (it is also called an appropriate state). FIG. 12 is a diagram showing an example of a cell display element Ex2 showing an estimated region detected in an excessively divided state (also referred to as an excessively divided state). FIG. 13 is a diagram illustrating an example of the cell display element Ex3 indicating the estimated region detected in the undivided state (also referred to as the undivided state).

ステップS203では、ステップS202の領域検出処理で取得された検出結果が分類される。ここでは、ステップS202で検出された推定領域が、適正状態、過剰分割状態および未分割状態の何れの状態で検出された推定領域であるのか分類される。 In step S203, the detection results acquired in the area detection process of step S202 are classified. Here, it is classified whether the estimated region detected in step S202 is the estimated region detected in the proper state, the excessively divided state, or the undivided state.

例えば、推定領域を示す細胞表示要素の大きさ、形状および密集度等に基づいて、適正状態、過剰分割状態および未分割状態の何れの状態で検出された推定領域であるのか分類され得る。このとき、例えば、過剰分割状態とされた複数の細胞表示要素については、1つの推定領域を示す一群の細胞表示要素(細胞表示要素群とも言う)として認識され得る。ここで、適正状態で検出された推定領域を示す細胞表示要素の数と、過剰分割状態で検出された推定領域を示す細胞表示要素群の数と、未分割状態で検出された推定領域を示す細胞領域の数との総和(総数)がI個(Iは自然数)であるものとする。このとき、適正状態および未分割状態に係る細胞表示要素、ならびに過剰分割状態に係る細胞表示要素群に対して、例えば、1〜Iの番号が識別情報として付される。 For example, it can be classified based on the size, the shape, the density, etc. of the cell display element indicating the estimated region, which state is the estimated region detected in the proper state, the excessively divided state, or the undivided state. At this time, for example, a plurality of cell display elements in the excessively divided state can be recognized as a group of cell display elements (also referred to as a cell display element group) indicating one estimated region. Here, the number of cell display elements indicating the estimated region detected in the proper state, the number of cell display element groups indicating the estimated region detected in the excessively divided state, and the estimated region detected in the undivided state are shown. It is assumed that the total number (total number) with the number of cell regions is I (I is a natural number). At this time, for example, numbers 1 to I are given as identification information to the cell display elements in the proper state and the undivided state and the cell display element group in the excessively divided state.

ステップS204では、判定の対象(判定対象とも言う)が何番目の推定領域に係る細胞表示要素または細胞表示要素群であるのかを示す自然数iが1に設定される。 In step S204, a natural number i indicating which number of the estimated region the cell display element or cell display element group in which the determination target (also referred to as the determination target) is is set to 1.

ステップS205では、ステップS202で検出された推定領域に係る細胞表示要素のうちのi番目の細胞表示要素または細胞表示要素群が判定対象として指定される。 In step S205, the i-th cell display element or cell display element group of the cell display elements related to the estimated region detected in step S202 is designated as the determination target.

ステップS206では、ステップS205で判定対象として指定されたi番目の細胞表示要素または細胞表示要素群が、ステップS203において適正状態で検出された推定領域に分類された推定領域を示す細胞表示要素であるのか否かが判定される。ここで、i番目の細胞表示要素が適正状態で検出された推定領域を示すものであれば、ステップS210に進み、i番目の細胞表示要素または細胞表示要素群が適正状態で検出された推定領域を示すものでなければ、ステップS207に進む。 In step S206, the i-th cell display element or cell display element group designated as the determination target in step S205 is a cell display element indicating an estimated area classified into the estimated area detected in the proper state in step S203. Is determined. Here, if the i-th cell display element indicates the estimated region detected in the proper state, the process proceeds to step S210, and the estimated region in which the i-th cell display element or the cell display element group is detected in the proper state is detected. If not, the process proceeds to step S207.

ステップS207では、ステップS205で判定対象として指定されたi番目の細胞表示要素または細胞表示要素群が、ステップS203において過剰分割状態で検出された推定領域に分類された推定領域を示す細胞表示要素であるのか否かが判定される。ここで、ステップS205で指定された判定対象が、細胞表示要素群であれば、ステップS208に進み、ステップS205で指定された判定対象が、細胞表示要素群でなければ、ステップS209に進む。 In step S207, the i-th cell display element or cell display element group designated as the determination target in step S205 is a cell display element indicating the estimated area classified into the estimated area detected in the excessively divided state in step S203. It is determined whether there is any. If the determination target specified in step S205 is the cell display element group, the process proceeds to step S208. If the determination target specified in step S205 is not the cell display element group, the process proceeds to step S209.

ステップS208では、過剰分割状態で検出された推定領域に分類された推定領域を示すi番目の細胞表示要素群が統合される処理(統合処理とも言う)が施される。統合処理では、例えば、細胞形態画像のうちの細胞表示要素群に対応する部分を包含する領域に対するエッジを抽出する処理(エッジ抽出処理とも言う)によって得られるエッジ情報が用いられて、一塊の推定領域が認識され得る。図14は、細胞表示要素群に対して統合処理が施される様子を例示する図である。図14では、統合処理によって、左方の細胞表示要素群が統合されて、右方の細胞表示要素が形成され得る。 In step S208, a process of integrating the i-th cell display element group indicating the estimated region classified into the estimated region detected in the excessive division state (also referred to as an integration process) is performed. In the integration process, for example, edge information obtained by a process of extracting an edge of a region including a portion corresponding to a cell display element group in a cell morphology image (also referred to as edge extraction process) is used to estimate a block. The area can be recognized. FIG. 14 is a diagram illustrating a state in which the integration process is performed on the cell display element group. In FIG. 14, the cell display element group on the left side may be integrated by the integration process to form the cell display element on the right side.

ステップS209では、未分割状態で検出された推定領域に分類された推定領域を示すi番目の判定対象としての細胞表示要素に対して複数の細胞表示要素に分割する処理(分割処理とも言う)が実行される。分割処理では、例えば、細胞形態画像のうちの細胞表示要素に対応する部分を包含する領域に対するエッジ抽出処理によって得られるエッジ情報が用いられて、複数の推定領域が認識され得る。また、公知のWatershed法等によって細胞表示要素が分割されても良い。図15は、未分割の細胞表示要素に対して分割処理が施される様子を例示する図である。図15では、分割処理によって、左方の細胞表示要素が分割されて、右方の複数の細胞表示要素が形成され得る。 In step S209, a process of dividing the cell display element as the i-th determination target indicating the estimated region classified into the estimated region detected in the undivided state into a plurality of cell display elements (also referred to as division process) is performed. To be executed. In the division processing, for example, the edge information obtained by the edge extraction processing for the area including the portion corresponding to the cell display element in the cell morphology image can be used to recognize the plurality of estimated areas. Further, the cell display element may be divided by a known Watershed method or the like. FIG. 15 is a diagram exemplifying how division processing is applied to an undivided cell display element. In FIG. 15, the cell display element on the left side may be divided by the dividing process to form a plurality of cell display elements on the right side.

ステップS210では、自然数iが自然数Iに到達しているか否かが判定される。ここでは、自然数iが自然数Iに到達していなければ、ステップS211に進み、自然数iが自然数Iに到達していれば、ステップS212に進む。 In step S210, it is determined whether or not the natural number i has reached the natural number I. Here, if the natural number i has not reached the natural number I, the process proceeds to step S211, and if the natural number i has reached the natural number I, the process proceeds to step S212.

ステップS211では、自然数iが1増加されて、ステップS205に進む。このため、自然数iが自然数Iに到達するまで、ステップS205〜S211の処理が適宜繰り返される。 In step S211, the natural number i is incremented by 1, and the process proceeds to step S205. Therefore, the processes of steps S205 to S211 are appropriately repeated until the natural number i reaches the natural number I.

ステップS212では、適正状態に係る細胞表示要素と、統合後の細胞表示要素と、分割後の複数の細胞表示要素とが合成されることで、推定領域の分布が複数の細胞表示要素で示されている1つの細胞分布画像(第3段階の細胞分布画像とも言う)が取得される。すなわち、一連の処理によって、細胞形態画像から1つの細胞分布画像が取得される。 In step S212, the cell display element relating to the proper state, the cell display element after integration, and the plurality of cell display elements after division are combined, so that the distribution of the estimated region is shown by the plurality of cell display elements. One cell distribution image (also referred to as a third stage cell distribution image) is acquired. That is, one cell distribution image is acquired from the cell morphology image by a series of processes.

図16は、検出処理の動作フローの進行と不適正状態で検出されている推定領域の数との関係を模式的に示す図である。図16では、横軸が、検出処理の動作フローにおけるタイミングを示し、縦軸が、不適正状態で検出されている推定領域の数を示している。 FIG. 16 is a diagram schematically showing the relationship between the progress of the operation flow of the detection process and the number of estimated regions detected in the improper state. In FIG. 16, the horizontal axis represents the timing in the operation flow of the detection processing, and the vertical axis represents the number of estimated regions detected in the improper state.

上述したように、検出処理の開始タイミングからタイミングT1に至るまでの期間に行われる第1領域検出処理では、細胞形態画像において比較的明瞭な態様で捉えられた特定部位に係る第1推定領域が検出され、タイミングT1〜T2の期間に行われる第2領域検出処理では、細胞形態画像において比較的明瞭でない態様で捉えられた特定部位に係る第2推定領域が検出される。 As described above, in the first region detection process performed in the period from the start timing of the detection process to the timing T1, the first estimated region related to the specific portion captured in the cell morphology image in a relatively clear manner is detected. In the second region detection processing that is detected and performed in the period of timings T1 and T2, the second estimated region related to the specific portion captured in a relatively unclear manner in the cell morphology image is detected.

このため、図16で示されるように、検出処理の開始タイミングからタイミングT2に至るまでの期間に不適正状態で検出される推定領域の数が徐々に増加する。タイミングT2〜T3の期間に行われる検出結果の分類の処理では、細胞表示要素の分布が変化しないため、不適正状態で検出される推定領域の数は殆ど変化しない。そして、タイミングT3〜T4の期間に行われる過剰分割状態に係る細胞表示要素群に対する統合処理および未分割状態に係る細胞表示要素に対する分割処理によって、不適正状態で検出される推定領域の数が増加し得る。また、このような不適正状態で検出される推定領域の数は、細胞形態画像で捉えられている特定部位の状態によって左右される。 Therefore, as shown in FIG. 16, the number of estimated regions detected in an improper state gradually increases during the period from the start timing of the detection process to the timing T2. In the process of classifying the detection results performed in the period of timings T2 to T3, the distribution of the cell display elements does not change, so the number of estimated regions detected in the improper state hardly changes. Then, the number of estimated regions detected in the improper state increases due to the integration processing for the cell display element group related to the excessively divided state and the division processing for the cell display element related to the undivided state performed in the period of timings T3 to T4. You can In addition, the number of estimated regions detected in such an improper state depends on the state of a specific portion captured in the cell morphology image.

<(1−2)本発明の主要なポイント>
図17は、検出処理の動作フローの進行と不適正状態で検出された推定領域の数との関係を模式的に示す図である。図17では、図16と同様に、横軸が、検出処理の動作フローにおけるタイミングを示し、縦軸が、不適正状態で検出された推定領域の数を示している。
<(1-2) Main points of the present invention>
FIG. 17 is a diagram schematically showing the relationship between the progress of the operation flow of the detection process and the number of estimated regions detected in the improper state. In FIG. 17, as in FIG. 16, the horizontal axis represents the timing in the operation flow of the detection processing, and the vertical axis represents the number of estimated regions detected in the improper state.

図18は、ある細胞形態画像(第1細胞形態画像とも言う)G1を例示する図である。図19から図21は、該第1細胞形態画像G1に対して、第1領域検出処理、第2領域検出処理、ならびに統合処理および分割処理がそれぞれ施されることで生成される第1〜3段階の細胞分布画像G1a〜G1cを例示する図である。また、図22は、他の細胞形態画像(第2細胞形態画像とも言う)G2を例示する図である。図23から図25は、該第2細胞形態画像G2に対して、第1領域検出処理、第2領域検出処理、ならびに統合処理および分割処理がそれぞれ施されることで生成される第1〜3段階の細胞分布画像G2a〜G2cを例示する図である。図19から図21および図23から図25の各図では、図2等と同様に、細胞表示要素が濃い灰色で描かれている。 FIG. 18 is a diagram illustrating a certain cell morphology image (also referred to as a first cell morphology image) G1. 19 to 21 show first to third regions generated by subjecting the first cell morphological image G1 to a first region detection process, a second region detection process, and an integration process and a division process, respectively. It is a figure which illustrates the cell distribution images G1a-G1c of a step. In addition, FIG. 22 is a diagram illustrating another cell morphology image (also referred to as a second cell morphology image) G2. 23 to 25, the first to third regions generated by subjecting the second cell morphology image G2 to the first region detection process, the second region detection process, and the integration process and the division process, respectively. It is a figure which illustrates the cell distribution images G2a-G2c of a step. In each of FIGS. 19 to 21 and FIGS. 23 to 25, the cell display element is drawn in dark gray as in FIG. 2 and the like.

図18で示される第1細胞形態画像G1では、1つ1つの特定部位が比較的歪みの少ないシンプルな形状で且つ比較的明瞭な態様で捉えられている。このため、第1〜3段階の細胞分布画像G1a〜G1c(図19から図21)では、比較的適正に推定領域が検出され得る。そして、図17の太い実線の折れ線で描かれるように、検出処理の進行とともに検出される推定領域の数が増加しても、不適正状態で検出される推定領域の数が比較的増加し難い。このようなケースでは、第1〜3段階の細胞分布画像G1a〜G1cのうち、検出処理が最後まで施されることで得られる最終の検出結果を示す第3段階の細胞分布画像G1cには誤検出に係る推定領域を示す細胞表示要素が比較的少量しか存在しない。よって、第3段階の細胞分布画像G1cに対して修正が施されるようにすれば、ユーザーは、誤検出に係る推定領域を示す細胞表示要素を比較的容易に修正することができる。すなわち、細胞分布画像が効率良く取得され得る。 In the first cell morphology image G1 shown in FIG. 18, each specific site is captured in a simple shape with relatively little distortion and in a relatively clear manner. Therefore, in the cell distribution images G1a to G1c at the first to third stages (FIGS. 19 to 21), the estimated region can be detected relatively appropriately. Then, as depicted by the thick solid polygonal line in FIG. 17, even if the number of estimated regions detected with the progress of the detection process increases, the number of estimated regions detected in an improper state is relatively difficult to increase. .. In such a case, among the cell distribution images G1a to G1c of the first to third stages, the third stage cell distribution image G1c showing the final detection result obtained by performing the detection process is erroneous. There is only a relatively small amount of cell display elements that indicate the estimated area of detection. Therefore, if the correction is applied to the cell distribution image G1c in the third stage, the user can relatively easily correct the cell display element indicating the estimated region related to the erroneous detection. That is, the cell distribution image can be efficiently acquired.

これに対して、図22で示される第2細胞形態画像G2では、複数の特定部位が比較的複雑な形状で且つ比較的不明瞭な態様で捉えられている。このような複数の特定部位が比較的複雑な形状を有する状態は、癌細胞の存在ならびに針生検等における組織切片の採取時に生じ得る歪み等によって発生し得る。このため、第1〜3段階の細胞分布画像G2a〜G2c(図23から図25)では、比較的適正に推定領域を検出することは難しい。そして、図17の破線の折れ線で描かれるように、検出処理の進行とともに検出される推定領域の数が増加するにつれて、不適正状態で検出される推定領域の数が増加し易い。このようなケースでは、第3段階の細胞分布画像G2cには誤検出に係る推定領域を示す細胞表示要素が比較的多数存在し、途中の第2段階の細胞分布画像G2bには誤検出に係る推定領域を示す細胞表示要素が比較的少量しか存在しない。よって、第3段階の細胞分布画像G2cよりも第2段階の細胞分布画像G2bに対して修正が施されるようにすれば、ユーザーは、誤検出に係る推定領域を示す細胞表示要素を比較的容易に修正することができる。すなわち、細胞分布画像が効率良く取得され得る。 On the other hand, in the second cell morphological image G2 shown in FIG. 22, a plurality of specific parts are captured in a relatively complex shape and in a relatively unclear form. Such a state in which the plurality of specific sites have a relatively complicated shape may occur due to the presence of cancer cells, strain that may occur when a tissue section is collected in a needle biopsy, or the like. Therefore, in the cell distribution images G2a to G2c at the first to third stages (FIGS. 23 to 25), it is difficult to detect the estimated region relatively appropriately. Then, as depicted by the broken line in FIG. 17, as the number of estimated regions detected increases with the progress of the detection process, the number of estimated regions detected in the improper state tends to increase. In such a case, the cell distribution image G2c of the third stage has a relatively large number of cell display elements indicating the estimated region related to the erroneous detection, and the cell distribution image G2b of the second stage in the middle is erroneously detected. There are relatively few cell display elements that represent the putative region. Therefore, if the correction is applied to the cell distribution image G2b of the second stage rather than the cell distribution image G2c of the third stage, the user relatively displays the cell display element indicating the estimated region related to the false detection. It can be easily modified. That is, the cell distribution image can be efficiently acquired.

このように、検出処理によって最終的に得られる細胞分布画像であっても、不適正状態で検出された推定領域の数が少ないものもあるが、逆に不適正状態で検出された推定領域の数が多いものもある。 As described above, even in the cell distribution image finally obtained by the detection process, there are some cases where the number of estimated regions detected in the improper state is small, but conversely, in the estimated region detected in the improper state, Some have a large number.

そこで、本発明では、検出処理で最終的に得られる1つの細胞分布画像に加えて、検出処理の途中段階で得られる細胞分布画像等と言った該1つの細胞分布画像とは異なる条件の処理で得られた他の細胞分布画像も修正の対象として選択可能な態様で表示される。つまり、細胞形態画像に対する異なる条件の画像処理によって生成され且つ細胞の特定部位が捉えられているものと推定される推定領域の分布が示されている2以上の細胞分布画像の中から、ユーザーが修正の対象となる細胞分布画像を指定することが出来る。このため、ユーザーが修正し易い細胞分布画像を選ぶことが出来る。その結果、修正時間の短縮化等によって、細胞形態画像において細胞の特定部位が捉えられた領域の分布を示す細胞分布画像が効率良く得られる。 Therefore, in the present invention, in addition to one cell distribution image finally obtained by the detection processing, processing of conditions different from the one cell distribution image such as a cell distribution image obtained in the middle of the detection processing is performed. The other cell distribution image obtained in step 1 is also displayed in a manner selectable as a correction target. In other words, the user selects from two or more cell distribution images that show the distribution of the estimated regions that are generated by image processing of the cell morphology image under different conditions and are estimated to capture a specific part of the cell. The cell distribution image to be corrected can be specified. Therefore, the user can select a cell distribution image that is easy to correct. As a result, the cell distribution image showing the distribution of the region where the specific portion of the cell is captured in the cell morphology image can be efficiently obtained by shortening the correction time.

以下、本発明の一実施形態および各種変形例を図面に基づいて説明する。なお、図面においては同様な構成および機能を有する部分については同じ符号が付されており、下記説明では重複説明が省略される。また、図面は模式的に示されたものであり、各図における各種構成のサイズおよび位置関係等は適宜変更され得る。 Hereinafter, an embodiment and various modifications of the present invention will be described with reference to the drawings. In the drawings, parts having similar configurations and functions are designated by the same reference numerals, and redundant description will be omitted in the following description. Further, the drawings are shown schematically, and the sizes and positional relationships of various components in each drawing may be appropriately changed.

<(2)一実施形態>
<(2−1)病理診断支援システムの概要>
図26は、一実施形態に係る病理診断支援システム100の概略的な一構成例を示す図である。病理診断支援システム100は、例えば、所定の染色試薬で染色された生体の組織切片が捉えられた顕微鏡画像を取得し、該顕微鏡画像に対して各種画像処理を施した後に、組織切片における特定の生体物質の存在状態に係る解析値を算出する解析処理を行う。
<(2) One embodiment>
<(2-1) Outline of pathological diagnosis support system>
FIG. 26 is a diagram showing a schematic configuration example of the pathological diagnosis support system 100 according to the embodiment. The pathological diagnosis support system 100 acquires, for example, a microscopic image of a tissue section of a living body stained with a predetermined staining reagent, performs various image processing on the microscopic image, and then identifies a specific section of the tissue section. An analysis process of calculating an analysis value related to the existence state of the biological substance is performed.

ここで、顕微鏡画像には、例えば、生体の組織切片における細胞の形態が捉えられた細胞形態画像および生体の組織切片に存在する特定の生体物質の存在状態に対応する画像が含まれる。生体には、例えば、人体またはヒトを除く動物等が含まれ、また、人体およびヒトを除く動物の双方を含む広義の意味での動物が含まれても良い。各種画像処理には、例えば、解析処理において特定の生体物質の存在状態に係る解析値が顕微鏡画像から高精度で求められるように該顕微鏡画像に施される処理が含まれる。 Here, the microscopic image includes, for example, a cell morphology image in which the morphology of cells in a tissue section of a living body is captured and an image corresponding to the presence state of a specific biological substance existing in the tissue section of the living body. The living body includes, for example, a human body or animals other than humans, and may also include animals in a broad sense including both human bodies and animals other than humans. The various image processing includes, for example, processing performed on the microscope image so that an analysis value related to the existence state of a specific biological substance in the analysis processing can be obtained from the microscope image with high accuracy.

図26で示されるように、病理診断支援システム100は、顕微鏡画像取得装置1、画像処理装置2、および通信回線3を備えている。通信回線3は、顕微鏡画像取得装置1と画像処理装置2とをデータの送受信が可能な態様で接続している。ここで、通信回線3は、例えば、ケーブル等の有線方式の回線であっても良いし、無線方式の回線であっても良い。具体的には、通信回線3として、例えば、有線方式または無線方式の少なくとも一方の方式が採用されたLAN(Local Area Network)が採用され得る。また、顕微鏡画像取得装置1と画像処理装置2との間におけるデータの授受は、記憶媒体等の各種メディアを用いた受け渡しによって実施されても良い。 As shown in FIG. 26, the pathological diagnosis support system 100 includes a microscope image acquisition device 1, an image processing device 2, and a communication line 3. The communication line 3 connects the microscope image acquisition device 1 and the image processing device 2 in a manner capable of transmitting and receiving data. Here, the communication line 3 may be a wired line such as a cable or a wireless line. Specifically, as the communication line 3, for example, a LAN (Local Area Network) in which at least one of a wired system and a wireless system is adopted can be adopted. Data may be exchanged between the microscope image acquisition apparatus 1 and the image processing apparatus 2 by delivery using various media such as a storage medium.

<(2−2)顕微鏡画像取得装置>
顕微鏡画像取得装置1は、例えば、公知のカメラ付きの光学顕微鏡である。顕微鏡画像取得装置1では、ステージ上に配置されたスライドガラス上の組織切片の光像が撮像される。これにより、組織切片の拡大像に係る画像(顕微鏡画像)のデータ(顕微鏡画像データとも言う)が取得され、該顕微鏡画像データが、顕微鏡画像取得装置1から画像処理装置2に送信される。なお、以下では、顕微鏡画像データおよび顕微鏡画像を「顕微鏡画像」と総称する。
<(2-2) Microscope image acquisition device>
The microscope image acquisition device 1 is, for example, a known optical microscope with a camera. The microscope image acquisition apparatus 1 captures an optical image of a tissue section on a slide glass placed on the stage. As a result, data (also referred to as microscope image data) of an image (microscope image) related to the enlarged image of the tissue section is acquired, and the microscope image data is transmitted from the microscope image acquisition device 1 to the image processing device 2. Note that, hereinafter, the microscope image data and the microscope image are collectively referred to as “microscope image”.

具体的には、顕微鏡画像取得装置1は、例えば、照射部、結像部、撮像部、通信I/F等を備えている。照射部は、例えば、光源、フィルター等を有しており、ステージ上に配置されたスライドガラス上の組織切片に光を照射する。結像部は、例えば、接眼レンズおよび対物レンズ等を有しており、スライド上の組織切片に対する光の照射に応じて、該組織切片から発せられる透過光、反射光または蛍光を結像する。撮像部は、例えば、CCD(Charge Coupled Device)センサー等を備えているカメラであり、結像部によって結像面に結像される組織切片の光像を撮像して顕微鏡画像を取得する。通信I/Fは、該顕微鏡画像を画像処理装置2に送信する。 Specifically, the microscope image acquisition device 1 includes, for example, an irradiation unit, an imaging unit, an imaging unit, a communication I/F, and the like. The irradiation unit has, for example, a light source, a filter, and the like, and irradiates the tissue section on the slide glass arranged on the stage with light. The image forming unit has, for example, an eyepiece lens, an objective lens, and the like, and forms an image of transmitted light, reflected light, or fluorescence emitted from the tissue section according to the irradiation of the tissue section on the slide with light. The imaging unit is, for example, a camera equipped with a CCD (Charge Coupled Device) sensor or the like, and captures a microscopic image by capturing an optical image of a tissue section imaged on the imaging surface by the imaging unit. The communication I/F transmits the microscope image to the image processing device 2.

また、顕微鏡画像取得装置1は、例えば、明視野観察に適した照射部および結像部が組み合わされた明視野ユニットと、蛍光観察に適した照射部および結像部が組み合わされた蛍光ユニットとを備えている。この場合、明視野ユニットおよび蛍光ユニットの間で使用されるユニットが切り替えられることで、顕微鏡画像取得装置1の観察のモードが明視野観察を行うモードと蛍光観察を行うモードとの間で切り替えられる。これにより、顕微鏡画像取得装置1で取得される顕微鏡画像には、例えば、明視野観察における撮像で得られる明視野画像と、蛍光観察における撮像で得られる蛍光画像とが含まれる。 Further, the microscope image acquisition apparatus 1 includes, for example, a bright field unit in which an irradiation unit and an image forming unit suitable for bright field observation are combined, and a fluorescence unit in which an irradiation unit and an image forming unit suitable for fluorescence observation are combined. Equipped with. In this case, by switching the unit used between the bright field unit and the fluorescence unit, the observation mode of the microscope image acquisition apparatus 1 is switched between the bright field observation mode and the fluorescence observation mode. .. Thereby, the microscope image acquired by the microscope image acquisition device 1 includes, for example, a bright field image obtained by imaging in bright field observation and a fluorescence image obtained by imaging in fluorescence observation.

「明視野画像」は、所定の染色試薬で染色された組織切片を、顕微鏡画像取得装置1において明視野で拡大結像および撮像することで得られる顕微鏡画像である。ここで、所定の染色試薬としては、例えば、ヘマトキシリン染色試薬(H染色試薬)およびヘマトキシリン−エオジン染色試薬(HE染色試薬)が採用され得る。ヘマトキシリン(H)は、青紫色の色素であり、細胞核、骨組織、軟骨組織の一部および漿液成分等(好塩基性の組織等)を染色する。エオジン(E)は、赤〜ピンク色の色素であり、細胞質、軟部組織の結合組織、赤血球、線維素および内分泌顆粒等(好酸性の組織等)を染色する。つまり、本実施形態では、例えば、明視野画像は、所定の染色試薬によって染色された生体の組織切片における細胞の形態を捉えた細胞形態画像である。図27は、細胞形態画像Gb1の一例を示す図である。 The “bright field image” is a microscope image obtained by magnifying and imaging a tissue section stained with a predetermined staining reagent in the bright field in the microscope image acquisition apparatus 1. Here, as the predetermined staining reagent, for example, a hematoxylin-staining reagent (H staining reagent) and a hematoxylin-eosin staining reagent (HE staining reagent) can be adopted. Hematoxylin (H) is a blue-violet pigment and stains a part of cell nucleus, bone tissue, cartilage tissue, serous component and the like (basophil tissue and the like). Eosin (E) is a red to pink pigment that stains cytoplasm, connective tissue of soft tissues, erythrocytes, fibrin, endocrine granules and the like (eosinophilic tissue and the like). That is, in the present embodiment, for example, the bright field image is a cell morphology image that captures the morphology of cells in a tissue section of a living body stained with a predetermined staining reagent. FIG. 27 is a diagram showing an example of the cell morphology image Gb1.

「蛍光画像」は、所定の蛍光染色試薬を用いて染色された組織切片に対し、顕微鏡画像取得装置1において所定波長の励起光を照射して蛍光発光を生じさせ、この蛍光を拡大結像および撮像することで得られる顕微鏡画像である。ここで、蛍光染色試薬としては、例えば、特定の生体物質と特異的に結合および/または反応する生体物質認識部位が結合した蛍光物質内包ナノ粒子を含んだ蛍光標識材料を有する染色試薬が採用される。蛍光物質内包ナノ粒子は、蛍光物質を内包したナノ粒子である。蛍光観察で現れる蛍光は、蛍光染色試薬の蛍光物質内包ナノ粒子(具体的には、蛍光物質)が励起されて発せられたものであり、組織切片における、生体物質認識部位に対応する特定の生体物質の発現を示すものである。特に、蛍光物質を内包した蛍光物質内包ナノ粒子(蛍光粒子ともいう)が採用されると、特定の生体物質の発現量が、蛍光粒子の輝度だけでなく粒子数としても算出可能となり、精度良く定量され得る。つまり、本実施形態では、例えば、蛍光画像は、特定の生体物質が蛍光染色試薬で染色された生体の組織切片が捉えられた画像であり、生体の組織切片に存在する特定の生体物質の分布状態に係る物質分布情報を有する画像である。図28は、蛍光画像Gd1の一例を示す図である。 The “fluorescence image” is obtained by irradiating a tissue section stained with a predetermined fluorescence staining reagent with excitation light having a predetermined wavelength in the microscope image acquisition apparatus 1 to generate fluorescence emission, and enlarging and forming this fluorescence. It is a microscope image obtained by imaging. Here, as the fluorescent staining reagent, for example, a staining reagent having a fluorescent labeling material containing fluorescent substance-encapsulating nanoparticles having a biological substance recognition site that specifically binds and/or reacts with a specific biological substance is adopted. It The fluorescent substance-containing nanoparticles are nanoparticles containing a fluorescent substance. The fluorescence appearing in the fluorescence observation is generated by exciting the fluorescent substance-encapsulating nanoparticles (specifically, the fluorescent substance) of the fluorescent staining reagent, and the specific living body corresponding to the biological substance recognition site in the tissue section. It shows the expression of a substance. In particular, when fluorescent substance-encapsulating nanoparticles (also referred to as fluorescent particles) encapsulating a fluorescent substance are adopted, the expression level of a specific biological substance can be calculated not only as the brightness of fluorescent particles but also as the number of particles. Can be quantified. That is, in the present embodiment, for example, the fluorescence image is an image in which a tissue section of a living body in which a specific biological material is stained with a fluorescent staining reagent is captured, and a distribution of the specific biological material existing in the tissue section of the living body. It is an image having substance distribution information relating to a state. FIG. 28 is a diagram showing an example of the fluorescence image Gd1.

<(2−2−1)蛍光画像の取得方法>
ここで、蛍光画像の取得方法について、この蛍光画像の取得に際して用いられる蛍光染色試薬、および該蛍光染色試薬による組織切片の染色方法等も含めて説明する。
<(2-2-1) Method for acquiring fluorescence image>
Here, a method for acquiring a fluorescence image will be described including a fluorescent staining reagent used for acquiring the fluorescence image, a method for staining a tissue section with the fluorescent staining reagent, and the like.

<(2−2−1−1)蛍光染色試薬>
1)蛍光物質.
蛍光染色試薬に用いられる蛍光物質として、例えば、蛍光有機色素および量子ドット(半導体粒子)等が採用され得る。この蛍光物質としては、例えば、200〜700nmの範囲内の波長の紫外光から近赤外光によって励起されたときに、400〜1100nmの範囲内の波長の可視光から近赤外光の発光を呈するものが採用され得る。
<(2-2-1-1) Fluorescent staining reagent>
1) Fluorescent substance.
As the fluorescent substance used for the fluorescent dyeing reagent, for example, a fluorescent organic dye and quantum dots (semiconductor particles) can be adopted. As the fluorescent substance, for example, when excited by near-infrared light from ultraviolet light having a wavelength in the range of 200 to 700 nm, it emits visible light to near-infrared light having a wavelength in the range of 400 to 1100 nm. What to present can be adopted.

なお、組織およびエオジンは、例えば、350nmの励起波長の光が照射されると、自家蛍光によって、約400〜600nmにわたる(約440nmにピークを有する)波長の蛍光を発する。また、組織およびエオジンは、例えば、490nmの励起波長の光が照射されると、自家蛍光によって、約500〜650nmにわたる(約540nmにピークを有する)波長の蛍光を発する。したがって、同じ波長の励起光を照射したときに組織およびエオジンの自家蛍光と波長が重複する蛍光を発するものが、蛍光染色試薬に用いられる蛍光物質として選択されれば、共通のカットフィルターが用いられて、同一視野において、それらの蛍光が観察され得る。この場合、蛍光粒子が発する蛍光は、高輝度であるため、組織等の自家蛍光に埋もれることなく識別され得る。組織等が発する自家蛍光の強度および蛍光物質内包ナノ粒子が発する蛍光の強度は、それらの蛍光波長の重なり具合が好ましいものとなるような励起光の波長や蛍光物質が選択されることによって、適切なバランスを有するものとなるように調整され得る。 Note that, for example, when tissue and eosin are irradiated with light having an excitation wavelength of 350 nm, the tissue and eosin emit fluorescence of wavelengths ranging from about 400 to 600 nm (having a peak at about 440 nm) by autofluorescence. Further, when the tissue and eosin are irradiated with light having an excitation wavelength of 490 nm, for example, the tissue and eosin emit fluorescence of wavelengths ranging from about 500 to 650 nm (having a peak at about 540 nm) by autofluorescence. Therefore, if a fluorescent substance that emits fluorescence that overlaps with the autofluorescence of tissue and eosin when irradiated with excitation light of the same wavelength is selected as the fluorescent substance used for the fluorescent staining reagent, a common cut filter is used. Thus, their fluorescence can be observed in the same field of view. In this case, since the fluorescence emitted by the fluorescent particles has high brightness, it can be identified without being buried in the autofluorescence of the tissue or the like. The intensity of autofluorescence emitted by the tissue and the intensity of fluorescence emitted by the fluorescent substance-encapsulating nanoparticles are appropriately selected by selecting the wavelength of the excitation light or the fluorescent substance such that the degree of overlap of the fluorescent wavelengths is preferable. Can be adjusted to have a proper balance.

蛍光有機色素として、例えば、フルオレセイン系色素分子、ローダミン系色素分子、Alexa Fluor(登録商標、インビトロジェン社製)系色素分子、BODIPY(登録商標、インビトロジェン社製)系色素分子、カスケード系色素分子、クマリン系色素分子、エオジン系色素分子、NBD系色素分子、ピレン系色素分子、Texas Red(登録商標)系色素分子、シアニン系色素分子、ペリレン系色素分子、および/またはオキサジン系色素分子等が採用され得る。 Examples of fluorescent organic dyes include fluorescein dye molecules, rhodamine dye molecules, Alexa Fluor (registered trademark, manufactured by Invitrogen) dye molecules, BODIPY (registered trademark, manufactured by Invitrogen) dye molecules, cascade dye molecules, coumarin. -Based dye molecules, eosin-based dye molecules, NBD-based dye molecules, pyrene-based dye molecules, Texas Red (registered trademark)-based dye molecules, cyanine-based dye molecules, perylene-based dye molecules, and/or oxazine-based dye molecules obtain.

具体的には、例えば、5−カルボキシ−フルオレセイン、6−カルボキシ−フルオレセイン、5,6−ジカルボキシ−フルオレセイン、6−カルボキシ−2’,4,4’,5’,7,7’−ヘキサクロロフルオレセイン、6−カルボキシ−2’,4,7,7’−テトラクロロフルオレセイン、6−カルボキシ−4’,5’−ジクロロ−2’,7’−ジメトキシフルオレセイン、ナフトフルオレセイン、5−カルボキシ−ローダミン、6−カルボキシ−ローダミン、5,6−ジカルボキシ−ローダミン、ローダミン 6G、テトラメチルローダミン、X−ローダミン、及びAlexa Fluor 350,Alexa Fluor 405、Alexa Fluor 430、Alexa Fluor 488、Alexa Fluor 500、Alexa Fluor 514、Alexa Fluor 532、Alexa Fluor 546、Alexa Fluor 555、Alexa Fluor 568、Alexa Fluor 594、Alexa Fluor 610、Alexa Fluor 633、Alexa Fluor 635、Alexa Fluor 647、Alexa Fluor 660、Alexa Fluor 680、Alexa Fluor 700、Alexa Fluor 750、BODIPY FL,BODIPY TMR、BODIPY 493/503、BODIPY 530/550、BODIPY 558/568、BODIPY 564/570、BODIPY 576/589、BODIPY 581/591、BODIPY 630/650、BODIPY 650/665(以上インビトロジェン社製)、メトキシクマリン、エオジン、NBD、ピレン、Cy5、Cy5.5およびCy7等のうちの1種の蛍光有機色素、または2種以上の蛍光有機色素が混合されたものが採用され得る。 Specifically, for example, 5-carboxy-fluorescein, 6-carboxy-fluorescein, 5,6-dicarboxy-fluorescein, 6-carboxy-2',4,4',5',7,7'-hexachlorofluorescein. , 6-carboxy-2',4,7,7'-tetrachlorofluorescein, 6-carboxy-4',5'-dichloro-2',7'-dimethoxyfluorescein, naphthofluorescein, 5-carboxy-rhodamine, 6 -Carboxy-rhodamine, 5,6-dicarboxy-rhodamine, rhodamine 6G, tetramethylrhodamine, X-rhodamine, and Alexa Fluor 350, Alexa Fluor 405, Alexa Fluor 430, Alexa Fluor 488, Alexa Fluor 500, Alexa Fluor 514, 514. Alexa Fluor 532, Alexa Fluor 546, Alexa Fluor 555, Alexa Fluor 568, Alexa Fluor 594, Alexa Fluor 700, Alexa Fluor 633, Alexa Fluor 633, Alexa Fluor 6 750, BODIPY FL, BODIPY TMR, BODIPY 493/503, BODIPY 530/550, BODIPY 558/568, BODIPY 564/570, BODIPY 576/589, BODIPY 581/591, BODIPY 650/630, 650/650, BODIPY 630/650, 650/650. (Manufactured by Mfg. Co., Ltd.), methoxycoumarin, eosin, NBD, pyrene, Cy5, Cy5.5, Cy7 and the like, or a mixture of two or more kinds of fluorescent organic dyes may be employed.

また、量子ドットとして、例えば、II−VI族化合物を成分として含有する量子ドット(II−VI族量子ドットとも言う)、III−V族化合物を成分として含有する量子ドット(III−V族量子ドットとも言う)およびIV族元素を成分として含有する量子ドット(IV族量子ドットとも言う)のうち、1つの量子ドットまたは2以上の量子ドットが混合されたものが採用され得る。 As the quantum dots, for example, quantum dots containing II-VI group compounds as components (also referred to as II-VI group quantum dots), quantum dots containing III-V group compounds as components (III-V group quantum dots). (Also referred to as “) and a quantum dot containing a group IV element as a component (also referred to as a group IV quantum dot), one quantum dot or a mixture of two or more quantum dots may be employed.

具体的には、例えば、CdSe、CdS、CdTe、ZnSe、ZnS、ZnTe、InP、InN、InAs、InGaP、GaP、GaAs、SiおよびGeのうちの1種の量子ドット、または2種以上の量子ドットが混合されたものが採用され得る。なお、上記量子ドットがコアとされ、その上にシェルが設けられた量子ドットが採用されても良い。なお、本明細書では、シェルを有する量子ドットは、コアがCdSe、シェルがZnSの場合、CdSe/ZnSと表記される。そして、例えば、CdSe/ZnS、CdS/ZnS、InP/ZnS、InGaP/ZnS、Si/SiO、Si/ZnS、Ge/GeOおよびGe/ZnS等が採用され得る。 Specifically, for example, one type of quantum dot among CdSe, CdS, CdTe, ZnSe, ZnS, ZnTe, InP, InN, InAs, InGaP, GaP, GaAs, Si and Ge, or two or more types of quantum dots. Can be used as a mixture. A quantum dot in which the above-mentioned quantum dot serves as a core and a shell is provided on the core may be adopted. In the present specification, a quantum dot having a shell is described as CdSe/ZnS when the core is CdSe and the shell is ZnS. Then, for example, CdSe/ZnS, CdS/ZnS, InP/ZnS, InGaP/ZnS, Si/SiO 2 , Si/ZnS, Ge/GeO 2 and Ge/ZnS can be adopted.

量子ドットについては、必要に応じて、有機ポリマー等によって表面処理が施されているものが用いられても良い。例えば、表面カルボキシル基を有するCdSe/ZnS(インビトロジェン社製)、表面アミノ基を有するCdSe/ZnS(インビトロジェン社製)等が挙げられる。 As the quantum dots, those subjected to a surface treatment with an organic polymer or the like may be used as necessary. For example, CdSe/ZnS having a surface carboxyl group (manufactured by Invitrogen), CdSe/ZnS having a surface amino group (manufactured by Invitrogen) and the like can be mentioned.

2)蛍光物質内包ナノ粒子.
蛍光物質内包ナノ粒子(蛍光粒子)では、蛍光物質がナノ粒子の内部に分散されており、蛍光物質とナノ粒子自体とが化学的に結合していても、結合していなくても良い。ナノ粒子を構成する素材としては、例えば、ポリスチレン、ポリ乳酸、シリカおよびメラミン等が採用され得る。このような蛍光物質内包ナノ粒子は、例えば、公知の方法に従って作製され得る。
2) Fluorescent substance-encapsulated nanoparticles.
In the fluorescent substance-containing nanoparticles (fluorescent particles), the fluorescent substance is dispersed inside the nanoparticles, and the fluorescent substance and the nanoparticles themselves may or may not be chemically bonded. As the material forming the nanoparticles, for example, polystyrene, polylactic acid, silica, melamine and the like can be adopted. Such fluorescent substance-encapsulated nanoparticles can be produced, for example, according to a known method.

具体的には、蛍光有機色素を内包したシリカナノ粒子は、例えば、ラングミュア 8巻 2921ページ(1992)に記載されているFITC内包シリカ粒子の合成方法を参考にして合成され得る。なお、FITCの代わりに所望の蛍光有機色素が用いられることで種々の蛍光有機色素を内包したシリカナノ粒子が合成され得る。また、蛍光有機色素を内包したポリスチレンナノ粒子は、米国特許4326008(1982)に記載されている重合性官能基をもつ有機色素を用いた共重合法、または米国特許5326692(1992)に記載されているポリスチレンナノ粒子への蛍光有機色素の含浸法等を用いて作製され得る。 Specifically, the silica nanoparticles encapsulating the fluorescent organic dye can be synthesized with reference to, for example, the synthesis method of FITC-encapsulating silica particles described in Langmuir Vol. 8, page 2921 (1992). By using a desired fluorescent organic dye instead of FITC, silica nanoparticles containing various fluorescent organic dyes can be synthesized. Further, the polystyrene nanoparticles encapsulating a fluorescent organic dye are described in US Pat. No. 4,326,008 (1982), which is a copolymerization method using an organic dye having a polymerizable functional group, or US Pat. No. 5,326,692 (1992). It can be prepared by a method of impregnating existing polystyrene nanoparticles with a fluorescent organic dye.

また、量子ドットを内包したシリカナノ粒子は、例えば、ニュー・ジャーナル・オブ・ケミストリー33巻561ページ(2009)に記載されているCdTe内包シリカナノ粒子の合成方法を参考にして合成され得る。また、量子ドットを内包したポリマーナノ粒子は、例えば、ネイチャー・バイオテクノロジー19巻631ページ(2001)に記載されているポリスチレンナノ粒子への量子ドットの含浸法を用いて作製され得る。 Further, the silica nanoparticles encapsulating the quantum dots can be synthesized with reference to, for example, the method for synthesizing CdTe-encapsulating silica nanoparticles described in New Journal of Chemistry, Vol. 33, page 561 (2009). Moreover, the polymer nanoparticle encapsulating the quantum dot can be produced, for example, by the method of impregnating the polystyrene nanoparticle with the quantum dot, which is described in Nature Biotechnology, Vol. 19, p. 631 (2001).

蛍光物質内包ナノ粒子の平均粒径としては、例えば、抗原へのアクセスのし易さ、および蛍光粒子の信号がバックグラウンドノイズ(カメラのノイズおよび細胞の自家蛍光等)に埋もれないように、通常は30〜800nm程度であれば良い。また、蛍光物質内包ナノ粒子の粒径のばらつきを示す変動係数としては、例えば、通常は20%以下であれば良い。なお、平均粒径については、例えば、走査型電子顕微鏡(SEM)を用いた撮影で得られる多数の粒子の断面を捉えた画像から、1000個の粒子の断面積が計測され、各計測値を円の面積としたときの円の直径が粒径とされ、その算術平均が平均粒径として算出され得る。変動係数は、測定された粒径分布から算出され得る値(100×(粒径の標準偏差)/(平均粒径))である。 As the average particle size of the fluorescent substance-encapsulated nanoparticles, for example, the accessibility to the antigen and the signal of the fluorescent particle are usually set so as not to be buried in background noise (camera noise, cell autofluorescence, etc.). Is about 30 to 800 nm. The coefficient of variation showing the variation in the particle diameter of the fluorescent substance-containing nanoparticles is usually 20% or less, for example. Regarding the average particle size, for example, the cross-sectional area of 1000 particles is measured from an image capturing the cross-sections of a large number of particles obtained by photographing using a scanning electron microscope (SEM), and each measured value is The diameter of the circle when the area of the circle is defined as the particle diameter, and the arithmetic mean thereof can be calculated as the average particle diameter. The coefficient of variation is a value (100×(standard deviation of particle size)/(average particle size)) that can be calculated from the measured particle size distribution.

3)生体物質認識部位.
生体物質認識部位は、目的とする生体物質と特異的に結合および/または反応する部位である。目的とする生体物質としては、例えば、代表的にはタンパク質(ペプチド)および核酸(オリゴヌクレオチド、ポリヌクレオチド)および抗体等が採用され得る。つまり、このような目的とする生体物質に結合する物質としては、上記タンパク質を抗原として認識する抗体、上記タンパク質に特異的に結合する他のタンパク質等、および上記核酸にハイブリタイズする塩基配列を有する核酸等が採用され得る。
3) Biomaterial recognition site.
The biological substance recognition site is a site that specifically binds and/or reacts with a target biological substance. As the target biological substance, for example, proteins (peptides) and nucleic acids (oligonucleotides, polynucleotides) and antibodies can be typically used. That is, such a substance that binds to a target biological substance has an antibody that recognizes the protein as an antigen, another protein that specifically binds to the protein, and a base sequence that hybridizes to the nucleic acid. Nucleic acid and the like can be adopted.

具体的には、目的とする生体物質に結合する物質として、細胞表面に存在するタンパク質であるHER2に特異的に結合する抗HER2抗体、細胞核に存在するエストロゲン受容体(ER)に特異的に結合する抗ER抗体および細胞骨格を形成するアクチンに特異的に結合する抗アクチン抗体等が採用され得る。それらの中でも抗HER2抗体および抗ER抗体が蛍光物質内包ナノ粒子に結合されたものは、乳癌の投薬選定に用いられ得る。 Specifically, as a substance that binds to a target biological substance, an anti-HER2 antibody that specifically binds to HER2, which is a protein present on the cell surface, and an estrogen receptor (ER) that exists in the cell nucleus, are specifically bound. Anti-ER antibody, an anti-actin antibody that specifically binds to actin forming a cytoskeleton, and the like can be used. Among them, those in which the anti-HER2 antibody and the anti-ER antibody are bound to the fluorescent substance-encapsulating nanoparticles can be used for selecting a dosage for breast cancer.

生体物質認識部位と蛍光物質内包ナノ粒子の結合の態様としては、例えば、共有結合、イオン結合、水素結合、配位結合、物理吸着および/または化学吸着等が採用され得る。共有結合等の結合力の強い結合であれば、結合が安定し得る。また、生体物質認識部位と蛍光物質内包ナノ粒子とが有機分子によって連結されても良い。この有機分子としては、例えば、生体物質との非特異的吸着を抑制するために、ポリエチレングリコール鎖、またはThermo Scientific社製SM(PEG)12が採用されても良い。 As a mode of binding the biological substance recognition site and the fluorescent substance-encapsulated nanoparticles, for example, covalent bond, ionic bond, hydrogen bond, coordinate bond, physical adsorption and/or chemical adsorption can be adopted. If the bond has a strong binding force such as a covalent bond, the bond can be stable. Further, the biological substance recognition site and the fluorescent substance-encapsulating nanoparticles may be connected by an organic molecule. As this organic molecule, for example, a polyethylene glycol chain or SM (PEG) 12 manufactured by Thermo Scientific may be adopted in order to suppress non-specific adsorption with a biological substance.

蛍光物質内包シリカナノ粒子に生体物質認識部位が結合される場合、蛍光物質が蛍光有機色素および量子ドットの何れであっても、同様の手順が適用され得る。例えば、当該結合には、無機物と有機物とを結合させるために広く用いられている化合物であるシランカップリング剤が採用され得る。このシランカップリング剤は、分子の一端に、加水分解でシラノール基を与えるアルコキシシリル基を有し、他端に、官能基(例えば、カルボキシル基、アミノ基、エポキシ基およびアルデヒド基等)を有する化合物であり、上記シラノール基の酸素原子を介して無機物と結合する。具体的には、このようなシランカップリング剤として、メルカプトプロピルトリエトキシシラン、グリシドキシプロピルトリエトキシシラン、アミノプロピルトリエトキシシラン、ポリエチレングリコール鎖を有するシランカップリング剤(例えば、Gelest社製PEG−silane no.SIM6492.7)等が採用される。シランカップリング剤が用いられる場合には、例えば、2種以上のシランカップリング剤が併用されても良い。 When the biological substance recognition site is bound to the fluorescent substance-encapsulated silica nanoparticles, the same procedure can be applied regardless of whether the fluorescent substance is a fluorescent organic dye or a quantum dot. For example, a silane coupling agent, which is a compound widely used for binding an inorganic substance and an organic substance, can be used for the binding. This silane coupling agent has an alkoxysilyl group that gives a silanol group by hydrolysis at one end of the molecule and a functional group (eg, carboxyl group, amino group, epoxy group, aldehyde group, etc.) at the other end. It is a compound and binds to an inorganic substance through the oxygen atom of the silanol group. Specifically, as such a silane coupling agent, mercaptopropyltriethoxysilane, glycidoxypropyltriethoxysilane, aminopropyltriethoxysilane, a silane coupling agent having a polyethylene glycol chain (for example, PEG manufactured by Gelest Co., Ltd. -Silane no.SIM6492.7) and the like are adopted. When the silane coupling agent is used, for example, two or more kinds of silane coupling agents may be used together.

ここで、蛍光有機色素内包シリカナノ粒子とシランカップリング剤との反応手順としては、公知の手順が採用され得る。例えば、まず、得られた蛍光有機色素内包シリカナノ粒子を純水中に分散させ、アミノプロピルトリエトキシシランを添加し、室温で12時間反応させる。反応終了後、遠心分離またはろ過によって表面がアミノプロピル基で修飾された蛍光有機色素内包シリカナノ粒子が取得され得る。続いて、アミノ基と抗体中のカルボキシル基とを反応させることで、アミド結合を介して抗体を蛍光有機色素内包シリカナノ粒子と結合させることが出来る。必要に応じて、EDC(1-Ethyl-3-[3-Dimethylaminopropyl]carbodiimide Hydrochloride:Pierce(登録商標)社製)のような縮合剤が用いられても良い。 Here, as a reaction procedure between the silica nanoparticles containing the fluorescent organic dye and the silane coupling agent, a known procedure can be adopted. For example, first, the obtained silica nanoparticles containing a fluorescent organic dye are dispersed in pure water, aminopropyltriethoxysilane is added, and the mixture is reacted at room temperature for 12 hours. After the completion of the reaction, the fluorescent organic dye-encapsulated silica nanoparticles having the surface modified with an aminopropyl group can be obtained by centrifugation or filtration. Then, by reacting the amino group with the carboxyl group in the antibody, the antibody can be bonded to the fluorescent organic dye-encapsulated silica nanoparticles through an amide bond. If necessary, a condensing agent such as EDC (1-Ethyl-3-[3-Dimethylaminopropyl]carbodiimide Hydrochloride: manufactured by Pierce (registered trademark)) may be used.

また、必要に応じて、有機分子で修飾された蛍光有機色素内包シリカナノ粒子と直接結合し得る部位と、分子標的物質と結合し得る部位とを有するリンカー化合物が採用されても良い。具体例として、アミノ基と選択的に反応する部位とメルカプト基と選択的に反応する部位の両方を有するsulfo-SMCC(Sulfosuccinimidyl 4[N-maleimidomethyl]-cyclohexane-1-carboxylate:Pierce(登録商標)社製)が用いられると、アミノプロピルトリエトキシシランで修飾された蛍光有機色素内包シリカナノ粒子のアミノ基と、抗体中のメルカプト基とが結合されることで、抗体結合した蛍光有機色素内包シリカナノ粒子が取得され得る。 Further, if necessary, a linker compound having a site capable of directly binding to the fluorescent organic dye-encapsulated silica nanoparticles modified with an organic molecule and a site capable of binding to a molecular target substance may be employed. As a specific example, sulfo-SMCC (Sulfosuccinimidyl 4 [N-maleimidomethyl]-cyclohexane-1-carboxylate: Pierce (registered trademark)) having both a site that selectively reacts with an amino group and a site that selectively reacts with a mercapto group Manufactured by the company) is used, the amino group of the fluorescent organic dye-encapsulated silica nanoparticles modified with aminopropyltriethoxysilane and the mercapto group in the antibody are bound to each other, thereby binding the antibody-conjugated fluorescent organic dye-encapsulated silica nanoparticles. Can be obtained.

蛍光物質内包ポリスチレンナノ粒子に生体物質認識部位を結合させる場合、蛍光物質が蛍光有機色素および量子ドットの何れであっても、同様の手順が適用され得る。すなわち、アミノ基等の官能基を有するポリスチレンナノ粒子に蛍光有機色素や量子ドットを含浸させることで、官能基を有する蛍光物質内包ポリスチレンナノ粒子が取得され得る。以降、EDCまたはsulfo-SMCCが用いられることで、抗体結合した蛍光物質内包ポリスチレンナノ粒子が取得され得る。 When the biological substance recognition site is bound to the fluorescent substance-encapsulated polystyrene nanoparticles, the same procedure can be applied regardless of whether the fluorescent substance is a fluorescent organic dye or a quantum dot. That is, by impregnating the polystyrene nanoparticles having a functional group such as an amino group with the fluorescent organic dye or the quantum dots, the fluorescent substance-encapsulating polystyrene nanoparticles having a functional group can be obtained. Thereafter, antibody-bound fluorescent substance-encapsulated polystyrene nanoparticles can be obtained by using EDC or sulfo-SMCC.

蛍光物質内包メラミンナノ粒子に生体物質認識部位を結合させる場合、蛍光物質内包シリカナノ粒子に生体物質認識部位を結合させる場合と同様の手順が適用され得る。また、より反応性を向上させるため、メラミンナノ粒子と多官能性アミン化合物とを予め反応させて表面アミノ基数が増やされても良い。 In the case of binding the biological substance recognition site to the fluorescent substance-encapsulated melamine nanoparticles, the same procedure as in the case of binding the biological substance recognition site to the fluorescent substance-encapsulated silica nanoparticles can be applied. Further, in order to further improve the reactivity, the number of surface amino groups may be increased by previously reacting the melamine nanoparticles with the polyfunctional amine compound.

特定抗原を認識する抗体としては、例えば、M.アクチン、M.S.アクチン、S.M.アクチン、ACTH、Alk-1、α1-アンチキモトリプシン、α1-アンチトリプシン、AFP、bcl-2、bcl-6、β-カテニン、BCA 225、CA19-9、CA125、カルシトニン、カルレチニン、CD1a、CD3、CD4、CD5、CD8、CD10、CD15、CD20、CD21、CD23、CD30、CD31、CD34、CD43、CD45、CD45R、CD56、CD57、CD61、CD68、CD79a、CD99、MIC2、CD138、クロモグラニン、c-KIT、c-MET、コラーゲン タイプIV、Cox-2、サイクリンD1、ケラチン、サイトケラチン(高分子量)、パンケラチン、パンケラチン、サイトケラチン5/6、サイトケラチン 7、サイトケラチン 8、サイトケラチン8/18、サイトケラチン 14、サイトケラチン 19、サイトケラチン 20、CMV、E-カドヘリン、EGFR、ER、EMA、EBV、第VIII因子関連抗原、ファッシン、FSH、ガレクチン-3、ガストリン、GFAP、グルカゴン、グリコフォリン A、グランザイムB、hCG、hGH、ヘリコバクターピロリ、HBc 抗原、HBs 抗原、ヘパトサイト特異抗原、HER2、HSV -I、HSV -II、HHV-8、IgA、IgG、IgM、IGF-1R、インヒビン、インスリン、カッパ L鎖、Ki67、ラムダ L鎖、LH、リゾチーム、マクロファージ、メランA、MLH-1、MSH-2、ミエロパーオキシダーゼ、ミオゲニン、ミオグロビン、ミオシン、ニューロフィラメント、NSE、p27 (Kip1)、p53、p53、P63、PAX 5、PLAP、ニューモシスティス カリニ、ポドプラニン(D2-40)、PGR、プロラクチン、PSA、前立腺酸性フォスファターゼ、Renal Cell Carcinoma、S100、ソマトスタチン、スペクトリン、シナプトフィジン、TAG-72、TdT、サイログロブリン、TSH、TTF-1、TRAcP、トリプターゼ、ビリン、ビメンチン、WT1、Zap-70等が挙げられる。 Examples of antibodies that recognize specific antigens include M. actin, MS actin, SM actin, ACTH, Alk-1, α1-antichymotrypsin, α1-antitrypsin, AFP, bcl-2, bcl-6, β-catenin. , BCA 225, CA19-9, CA125, calcitonin, calretinin, CD1a, CD3, CD4, CD5, CD8, CD10, CD15, CD20, CD21, CD23, CD30, CD31, CD34, CD43, CD45, CD45R, CD56, CD57, CD61, CD68, CD79a, CD99, MIC2, CD138, chromogranin, c-KIT, c-MET, collagen type IV, Cox-2, cyclin D1, keratin, cytokeratin (high molecular weight), pankeratin, pankeratin, cytokeratin 5/6, cytokeratin 7, cytokeratin 8, cytokeratin 8/18, cytokeratin 14, cytokeratin 19, cytokeratin 20, CMV, E-cadherin, EGFR, ER, EMA, EBV, factor VIII-related antigen, Fascin, FSH, galectin-3, gastrin, GFAP, glucagon, glycophorin A, granzyme B, hCG, hGH, Helicobacter pylori, HBc antigen, HBs antigen, hepatocyte-specific antigen, HER2, HSV-I, HSV-II, HHV- 8, IgA, IgG, IgM, IGF-1R, inhibin, insulin, kappa L chain, Ki67, lambda L chain, LH, lysozyme, macrophage, melanin A, MLH-1, MSH-2, myeloperoxidase, myogenin, myoglobin , Myosin, neurofilament, NSE, p27 (Kip1), p53, p53, P63, PAX 5, PLAP, Pneumocystis carinii, podoplanin (D2-40), PGR, prolactin, PSA, prostatic acid phosphatase, Renal Cell Carcinoma, S100, somatostatin, spectrin, synaptophysin, TAG-72, TdT, thyroglobulin, TSH, TTF-1, TRAcP, tryptase, villin, vimentin, WT1, Zap-70 and the like can be mentioned.

<(2−2−1−2)組織切片の染色方法>
ここで、組織切片の染色方法について述べる。ここでは、染色の対象物が、組織切片に係る組織標本である場合について述べるが、これに限られず、例えば、基板上に固定した細胞等の各種標本であっても良い。また、以下に説明する染色方法が適用可能な組織標本は、例えば、公知の方法によって作製され得る。例えば、組織標本としてパラフィン包埋切片が用いられる場合には、次のような、脱パラフィン処理、賦活化処理および染色処理が順に行われる処理手順に沿って染色が行われ得る。
<(2-2-1-2) Method of staining tissue section>
Here, a method of staining a tissue section will be described. Here, the case where the object to be stained is a tissue specimen related to a tissue section is described, but the object to be stained is not limited to this, and may be various specimens such as cells fixed on a substrate. A tissue specimen to which the staining method described below can be applied can be produced by, for example, a known method. For example, when a paraffin-embedded section is used as a tissue sample, staining can be performed according to the following processing procedure in which deparaffinization processing, activation processing, and staining processing are sequentially performed.

1)脱パラフィン処理.
キシレンを入れた容器に組織標本が浸漬され、パラフィンが除去される。このとき、処理温度は、例えば、室温等の適温であれば良く、浸漬時間は、例えば、3分以上で且つ30分以下であれば良い。また、必要に応じて浸漬の途中でキシレンが交換されても良い。
1) Deparaffinization treatment.
The tissue specimen is immersed in a container containing xylene to remove paraffin. At this time, the treatment temperature may be an appropriate temperature such as room temperature, and the immersion time may be 3 minutes or more and 30 minutes or less. Further, xylene may be exchanged during the immersion, if necessary.

次に、エタノールを入れた容器に組織標本が浸漬され、キシレンが除去される。このとき、処理温度は、例えば、室温等の適温であれば良く、浸漬時間は、例えば、3分以上で且つ30分以下であれば良い。また、必要に応じて浸漬の途中でエタノールが交換されても良い。 Next, the tissue specimen is immersed in a container containing ethanol to remove xylene. At this time, the treatment temperature may be an appropriate temperature such as room temperature, and the immersion time may be 3 minutes or more and 30 minutes or less. Further, ethanol may be exchanged during the immersion, if necessary.

その次に、水を入れた容器に組織標本が浸漬され、エタノールが除去される。このとき、処理温度は、例えば、室温等の適温であれば良く、浸漬時間は、例えば、3分以上で且つ30分以下であれば良い。また、必要に応じて浸漬の途中で水が交換されても良い。 Then, the tissue specimen is immersed in a container containing water to remove ethanol. At this time, the treatment temperature may be an appropriate temperature such as room temperature, and the immersion time may be 3 minutes or more and 30 minutes or less. Further, water may be exchanged during the immersion, if necessary.

2)賦活化処理.
公知の方法に倣って、目的とする生体物質の賦活化処理が行われる。賦活化処理では、賦活液として、0.01Mクエン酸緩衝液(pH6.0)、1mM EDTA溶液(pH8.0)、5%尿素、0.1Mトリス塩酸緩衝液等が用いられ得る。このとき、加熱機器として、オートクレーブ、マイクロウェーブ、圧力鍋またはウォーターバス等が採用され得る。処理温度は、例えば、室温等の適温であれば良い。具体的には、処理温度が50〜130℃であり、処理時間が、5〜30分である条件が採用され得る。
2) Activation treatment.
According to a known method, the target biological substance is activated. In the activation treatment, 0.01 M citrate buffer solution (pH 6.0), 1 mM EDTA solution (pH 8.0), 5% urea, 0.1 M Tris-hydrochloric acid buffer solution, etc. can be used as the activation solution. At this time, an autoclave, a microwave, a pressure cooker, a water bath, or the like can be adopted as the heating device. The treatment temperature may be an appropriate temperature such as room temperature. Specifically, a condition that the treatment temperature is 50 to 130° C. and the treatment time is 5 to 30 minutes can be adopted.

次に、PBS(Phosphate Buffered Saline:リン酸緩衝生理食塩水)を入れた容器に、賦活化処理後の組織標本が浸漬され、洗浄が行われる。このとき、処理温度は、例えば、室温等の適温であれば良く、浸漬時間は、例えば、3分以上で且つ30分以下であれば良い。また、必要に応じて浸漬の途中でPBSが交換されても良い。 Next, the tissue sample after the activation treatment is immersed in a container containing PBS (Phosphate Buffered Saline) and washed. At this time, the treatment temperature may be an appropriate temperature such as room temperature, and the immersion time may be 3 minutes or more and 30 minutes or less. Further, the PBS may be replaced during the immersion if necessary.

3)染色処理.
生体物質認識部位が結合された蛍光物質内包ナノ粒子のPBS分散液を組織標本に載せ、目的とする生体物質と反応させる。蛍光物質内包ナノ粒子と結合されている生体物質認識部位が変えられることで、さまざまな生体物質に対応した染色が可能となる。数種類の生体物質認識部位が結合された蛍光物質内包ナノ粒子が採用される場合には、それぞれの蛍光物質内包ナノ粒子PBS分散液が、予め混合されておいても良いし、別々に順次に組織標本に載せられても良い。このとき、処理温度は、例えば、室温等の適温であれば良く、浸漬時間は、例えば、30分以上で且つ24時間以下であれば良い。ここで、蛍光物質内包ナノ粒子による染色が行われる前に、例えば、BSA含有PBS等、公知のブロッキング剤が組織標本に対して滴下されても良い。
3) Staining treatment.
A PBS dispersion of fluorescent substance-encapsulated nanoparticles having a biological substance recognition site bound thereto is placed on a tissue sample and reacted with a target biological substance. By changing the biomaterial recognition site bound to the fluorescent substance-encapsulated nanoparticles, it becomes possible to stain various biomaterials. When fluorescent substance-encapsulating nanoparticles to which several types of biological substance-recognizing sites are bound are used, the respective fluorescent substance-encapsulating nanoparticles in PBS may be mixed in advance, or they may be separately and sequentially tissue-treated. May be placed on the specimen. At this time, the treatment temperature may be an appropriate temperature such as room temperature, and the immersion time may be 30 minutes or more and 24 hours or less. Here, a known blocking agent such as PBS containing BSA may be dropped onto the tissue sample before staining with the nanoparticles encapsulating the fluorescent substance.

次に、PBSを入れた容器に、染色後の組織標本が浸漬され、未反応の蛍光物質内包ナノ粒子が除去される。このとき、処理温度は、例えば、室温等の適温であれば良く、浸漬時間は、例えば、3分以上で且つ30分以下であれば良い。また、必要に応じて浸漬の途中でPBSが交換されても良い。 Next, the stained tissue sample is immersed in a container containing PBS to remove unreacted fluorescent substance-encapsulated nanoparticles. At this time, the treatment temperature may be an appropriate temperature such as room temperature, and the immersion time may be 3 minutes or more and 30 minutes or less. Further, the PBS may be replaced during the immersion if necessary.

なお、例えば、細胞または組織自体が発する自家蛍光を利用してそれらの形態観察が行われる場合には、その他の染色液等が用いられる必要はないが、光学顕微鏡による組織観察において汎用されているHE(ヘマトキシリン−エオジン)染色が併せて行われても良い。ここで、エオジンは、自家蛍光を発し得る。このため、蛍光標識材料による染色とともにHE染色が行われる場合は、励起光が照射されると、組織等が発する自家蛍光とともに細胞質等を染色したエオジンが自家蛍光を発し得る。このような構成が採用されると、一つの視野を対象とした撮像によって、細胞または組織の形態に関する情報がより取得し易くなる。 Note that, for example, when morphological observation is performed by utilizing autofluorescence emitted by cells or tissues themselves, it is not necessary to use other staining solution, etc., but it is generally used in tissue observation by an optical microscope. HE (hematoxylin-eosin) staining may be performed together. Here, eosin can emit autofluorescence. Therefore, when HE staining is performed together with the staining with the fluorescent labeling material, when irradiating with excitation light, eosin that stains the cytoplasm and the like can emit the autofluorescence along with the autofluorescence emitted from the tissue and the like. When such a configuration is adopted, it becomes easier to obtain information on the morphology of cells or tissues by imaging one visual field.

染色処理の後に、染色後の組織標本にカバーガラスが載せられることで、組織標本が封入される。このとき、必要に応じて市販の封入剤が使用されても良い。 After the staining process, a cover glass is placed on the stained tissue sample to encapsulate the tissue sample. At this time, a commercially available mounting medium may be used if necessary.

<(2−2−1−3)蛍光画像の取得>
染色された組織切片としての組織標本に対して、顕微鏡画像取得装置1が用いられて、広視野の顕微鏡画像としての蛍光画像が取得される。このとき、顕微鏡画像取得装置1では、染色試薬に用いた蛍光物質の吸収極大波長および蛍光波長に対応した、励起光源および蛍光検出用光学フィルターが選択される。
<(2-2-1-3) Acquisition of fluorescence image>
The microscope image acquisition apparatus 1 is used for a tissue sample as a stained tissue section to acquire a fluorescence image as a wide-field microscope image. At this time, in the microscope image acquisition apparatus 1, the excitation light source and the fluorescence detection optical filter corresponding to the absorption maximum wavelength and the fluorescence wavelength of the fluorescent substance used for the staining reagent are selected.

ここで、例えば、染色された組織標本に励起光が照射されることで、組織およびエオジンの自家蛍光に基づいて細胞形態情報が取得されるとともに、蛍光標識材料の蛍光に基づいて物質分布情報が取得されても良い。つまり、このとき取得される顕微鏡画像としての蛍光画像は、細胞形態情報および物質分布情報の双方の情報を含む画像(蛍光形態画像とも言う)である。つまり、蛍光形態画像は、細胞形態画像としての役割および通常の蛍光画像としての役割の双方を有する。 Here, for example, by irradiating a stained tissue specimen with excitation light, cell morphology information is obtained based on the autofluorescence of the tissue and eosin, and the substance distribution information is obtained based on the fluorescence of the fluorescent labeling material. May be acquired. That is, the fluorescence image as a microscope image acquired at this time is an image (also referred to as a fluorescence morphology image) including both cell morphology information and substance distribution information. That is, the fluorescence morphology image has both a role as a cell morphology image and a role as a normal fluorescence image.

この場合、蛍光形態画像が取得される際には、励起光は、組織および必要に応じて用いられるエオジンによって所望の波長の自家蛍光を発生させ、且つ蛍光標識材料中の蛍光物質によって所望の波長の蛍光を発生させるような適切な波長を有するものが採用され得る。エオジンは、蛍光物質であり、エオジンの蛍光は、細胞形態情報の視認性向上に寄与する。但し、エオジンによる励起光の吸収および蛍光の強度(蛍光強度とも発光強度とも言う)が大きくなるにつれて、蛍光標識材料からの蛍光の視認性が落ちてしまう。そこで、励起光の波長は、例えば、エオジン自体の過度の発光を抑制するとともに蛍光標識材料の視認性を向上させるために、エオジンおよび蛍光標識材料から発せられる光の光量の差が確保され、両者の区別が認識可能となり得る波長に設定され得る。 In this case, when the fluorescence morphology image is acquired, the excitation light generates autofluorescence of a desired wavelength by the tissue and eosin used as necessary, and the desired wavelength by the fluorescent substance in the fluorescent labeling material. Those having an appropriate wavelength to generate the fluorescence of the above can be adopted. Eosin is a fluorescent substance, and the fluorescence of eosin contributes to improving the visibility of cell morphology information. However, as the absorption of excitation light by eosin and the intensity of fluorescence (also called fluorescence intensity or emission intensity) increase, the visibility of fluorescence from the fluorescent labeling material decreases. Therefore, the wavelength of the excitation light, for example, to suppress the excessive emission of eosin itself and improve the visibility of the fluorescent labeling material, a difference in the amount of light emitted from eosin and the fluorescent labeling material is secured, Can be set to a wavelength that can be discernible.

例えば、励起光の波長が、エオジン自体が励起光を吸収しないか、または励起光を吸収し難いような波長に設定される態様が考えられる。このような条件では、顕微鏡画像取得装置1によって、細胞形態情報および物質分布情報が、同一視野で取得され得る。換言すれば、一枚の染色切片から得られる、組織の自家蛍光および蛍光標識材料が発する蛍光の両方が、同一の視野に含まれるようにしつつも、それらが区別して認識され、それぞれに基づいて細胞形態情報および物質分布情報が取得され得る。 For example, a mode in which the wavelength of the excitation light is set to a wavelength at which eosin itself does not absorb the excitation light or hardly absorbs the excitation light is conceivable. Under such conditions, the cell morphology information and the substance distribution information can be acquired in the same visual field by the microscope image acquisition device 1. In other words, both autofluorescence of the tissue and fluorescence emitted by the fluorescent labeling material obtained from one stained section are included in the same visual field, but they are recognized separately and based on each. Cell morphology information and substance distribution information can be obtained.

なお、必要に応じて、例えば、組織の自家蛍光または蛍光標識材料が発する蛍光の一方が十分に低減され得る適切なフィルターが用いられることで、細胞形態情報および物質分布情報のうち、細胞形態情報のみが取得され得る態様、および物質分布情報のみが取得され得る態様が採用されても良い。 Note that, if necessary, for example, by using an appropriate filter that can sufficiently reduce one of the tissue autofluorescence and the fluorescence emitted by the fluorescent labeling material, among the cell morphology information and the substance distribution information, the cell morphology information A mode in which only substance distribution information can be acquired and a mode in which only substance distribution information can be acquired may be adopted.

<(2−3)画像処理装置>
画像処理装置2は、顕微鏡画像取得装置1から送信された顕微鏡画像を受信して、該顕微鏡画像に画像処理を施す。該画像処理装置2は、情報処理装置において所定のプログラムが実行されることで実現される。本実施形態では、顕微鏡画像取得装置1から画像処理装置2に送信される顕微鏡画像が、細胞形態情報を有する細胞形態画像、および物質分布情報を有する蛍光画像である例を挙げて説明する。
<(2-3) Image processing device>
The image processing device 2 receives the microscope image transmitted from the microscope image acquisition device 1 and performs image processing on the microscope image. The image processing device 2 is realized by executing a predetermined program in the information processing device. In the present embodiment, an example in which the microscope image transmitted from the microscope image acquisition device 1 to the image processing device 2 is a cell morphology image having cell morphology information and a fluorescence image having substance distribution information will be described.

<(2−3−1)情報処理装置の機能的な構成>
図29は、画像処理装置2の機能を実現する情報処理装置の機能的な構成を概略的に示すブロック図である。図29で示されるように、情報処理装置は、例えば、制御部21、入力部22、表示部23、通信I/F24、記憶部25等を備えている。そして、各部21〜25は、バス26を介して相互にデータの送受信が可能に接続されている。
<(2-3-1) Functional configuration of information processing device>
FIG. 29 is a block diagram schematically showing a functional configuration of an information processing device that realizes the functions of the image processing device 2. As shown in FIG. 29, the information processing device includes, for example, a control unit 21, an input unit 22, a display unit 23, a communication I/F 24, a storage unit 25, and the like. The respective units 21 to 25 are connected to each other via a bus 26 so that data can be transmitted and received between them.

制御部21は、プロセッサーおよびメモリー等を備えた電気回路である。ここで、プロセッサーとしては、例えば、中央処理装置(CPU:Central Processing Unit)等が採用され得る。メモリーとしては、揮発性のメモリーであるRAM(Random Access Memory)等が採用され得る。プロセッサーおよびメモリーは、それぞれ1個ずつ設けられていても良いし、複数個ずつ設けられていても良いし、一方が1個設けられて他方が複数個設けられていても良い。すなわち、制御部21は、1以上のプロセッサーおよび1以上のメモリーを備えた電気回路であれば良い。制御部21は、記憶部25に記憶されている画像処理用のプログラムP1(図30)を実行することで、情報処理装置を画像処理装置2として機能させる。 The control unit 21 is an electric circuit including a processor and a memory. Here, as the processor, for example, a central processing unit (CPU) can be adopted. A volatile memory such as a RAM (Random Access Memory) may be used as the memory. One processor and one memory may be provided, or a plurality of processors and memories may be provided, or one may be provided and one may be provided in a plurality. That is, the control unit 21 may be an electric circuit including one or more processors and one or more memories. The control unit 21 causes the information processing device to function as the image processing device 2 by executing the image processing program P1 (FIG. 30) stored in the storage unit 25.

入力部22は、画像処理装置2を用いるユーザーとしての作業者の動作に応じた信号を入力する。ここで、入力部22は、例えば、ユーザーによる操作に応じた信号(操作信号とも言う)が入力される操作部であっても良いし、ユーザーによる発声に応じた信号(音声信号とも言う)が入力される音声入力部であっても良い。操作部には、文字入力キー、数字入力キーおよび各種機能キー等を含むキーボードと、マウスやタッチペン等のポインティングデバイスとが含まれ得る。操作部によれば、例えば、キーボードにおけるキーの押し下げに応じた操作信号と、ポインティングデバイスの操作に応じた操作信号とが、制御部21に入力され得る。 The input unit 22 inputs a signal according to the operation of an operator as a user who uses the image processing apparatus 2. Here, the input unit 22 may be, for example, an operation unit to which a signal (also referred to as an operation signal) according to an operation by the user is input, or a signal according to a user's utterance (also referred to as a voice signal) may be input. It may be a voice input unit for inputting. The operation unit may include a keyboard including character input keys, number input keys, various function keys, and the like, and a pointing device such as a mouse and a touch pen. According to the operation unit, for example, an operation signal corresponding to the depression of a key on the keyboard and an operation signal corresponding to the operation of the pointing device can be input to the control unit 21.

表示部23は、制御部21から入力される信号に従って、各種画像を表示させる。表示部23には、例えば、CRT(Cathode Ray Tube)またはLCD(Liquid Crystal Display)等の表示デバイスが含まれる。ここで、表示部23に、タッチパネル等が採用されれば、後述する細胞分布画像の修正が容易に実行可能となり得る。なお、表示部23には、1つの表示デバイスが含まれる構成だけでなく、例えば、2以上の表示デバイスが含まれる構成が適用されても良い。 The display unit 23 displays various images according to the signal input from the control unit 21. The display unit 23 includes, for example, a display device such as a CRT (Cathode Ray Tube) or an LCD (Liquid Crystal Display). Here, if a touch panel or the like is adopted as the display unit 23, the correction of the cell distribution image described later can be easily executed. Note that the display unit 23 may be applied not only to a configuration including one display device but also to a configuration including, for example, two or more display devices.

通信I/F24は、画像処理装置2の外部に位置する外部機器との間でデータの送受信を行なうためのインターフェースである。外部機器には、例えば、顕微鏡画像取得装置1が含まれる。このため、通信I/F24は、例えば、顕微鏡画像取得装置1から細胞形態画像および蛍光画像等の顕微鏡画像を受信する受信部として機能する。なお、例えば、画像処理装置2が、LANアダプターおよびルーター等を備え、LAN等の通信ネットワークを介して外部機器と接続される構成が採用され得る。 The communication I/F 24 is an interface for transmitting/receiving data to/from an external device located outside the image processing apparatus 2. The external device includes, for example, the microscope image acquisition device 1. Therefore, the communication I/F 24 functions as a receiving unit that receives a microscope image such as a cell morphology image and a fluorescence image from the microscope image acquisition device 1, for example. Note that, for example, a configuration may be adopted in which the image processing device 2 includes a LAN adapter, a router, and the like, and is connected to an external device via a communication network such as a LAN.

記憶部25は、各種プログラムおよび各種データ等を記憶する。該記憶部25は、例えば、HDD(Hard Disk Drive)または不揮発性の半導体メモリー等で構成され得る。 The storage unit 25 stores various programs and various data. The storage unit 25 may be composed of, for example, an HDD (Hard Disk Drive) or a non-volatile semiconductor memory.

<(2−3−2)画像処理装置の機能的な構成>
図30は、画像処理装置2の制御部21で実現される機能的な構成を例示するブロック図である。図30で示されるように、画像処理装置2は、制御部21において実現される機能的な構成として、取得部211、生成部212、表示制御部213、指定部214、修正部215および算出部216を備える。
<(2-3-2) Functional configuration of image processing device>
FIG. 30 is a block diagram illustrating a functional configuration realized by the control unit 21 of the image processing device 2. As shown in FIG. 30, the image processing device 2 has an acquisition unit 211, a generation unit 212, a display control unit 213, a designation unit 214, a correction unit 215, and a calculation unit as a functional configuration realized by the control unit 21. 216 is provided.

取得部211は、顕微鏡画像としての細胞形態画像および蛍光画像を取得する。ここでは、取得部211によって、顕微鏡画像取得装置1から送信される細胞形態画像および蛍光画像が、通信I/F24を介して取得される。 The acquisition unit 211 acquires a cell morphology image and a fluorescence image as a microscope image. Here, the acquisition unit 211 acquires the cell morphology image and the fluorescence image transmitted from the microscope image acquisition device 1 via the communication I/F 24.

また、取得部211では、所定の画像処理によって、輝点分布画像が取得される。輝点分布画像は、特定の生体物質が蛍光染色試薬で染色された生体の組織切片が捉えられた蛍光画像における特定波長に係る蛍光輝点の分布を示す画像である。所定の画像処理としては、例えば、蛍光画像から蛍光輝点の特定波長に応じた色成分が抽出されて、色成分が抽出された後の蛍光画像に濃さに係る閾値未満の部分が削除される閾値処理が施されて二値画像が生成される処理が採用され得る。ここで、例えば、蛍光粒子から発せられる光の波長が550nmであれば、その波長成分を有する蛍光輝点のみが画像として抽出され得る。ここで生成される二値画像が、輝点分布画像に相当する。なお、所定の画像処理においては、例えば、閾値処理が行われる前に、細胞の自家蛍光および他の不要な信号成分等のノイズ成分が除去される処理が行われても良い。 In addition, the acquisition unit 211 acquires a bright spot distribution image by predetermined image processing. The bright spot distribution image is an image showing a distribution of fluorescent bright spots at a specific wavelength in a fluorescence image in which a tissue section of a living body in which a specific biological substance is stained with a fluorescent staining reagent is captured. As the predetermined image processing, for example, a color component corresponding to a specific wavelength of the fluorescent bright spot is extracted from the fluorescence image, and a portion of the fluorescence image after the color component is extracted, which is less than the threshold value related to the depth, is deleted. It is possible to employ a process in which a binary image is generated by performing a threshold value process. Here, for example, if the wavelength of the light emitted from the fluorescent particles is 550 nm, only the fluorescent bright spot having the wavelength component can be extracted as an image. The binary image generated here corresponds to the bright spot distribution image. In the predetermined image processing, for example, processing for removing noise components such as autofluorescence of cells and other unnecessary signal components may be performed before the threshold processing is performed.

輝点分布画像では、例えば、蛍光画像について、特定波長に係る蛍光輝点が捉えられている領域の分布と、特定波長に係る蛍光輝点が捉えられていない残余の領域の分布とが区別可能な態様で示される。具体的には、例えば、蛍光輝点が捉えられていて、特定物質が存在しているものと推定される領域(蛍光輝点領域とも言う)に対応する部分が第1の色または第1のハッチングが付された表示要素(輝点表示要素とも言う)で示され、それ以外の残余の部分が背景として輝点表示要素とは異なる第2の色または第2のハッチングが付されて描かれる。ここで、第1の色として、例えば、赤色等が採用され、第2の色として、例えば、白色または黒色等が採用され得る。なお、ここでは、顕微鏡画像取得装置1から蛍光画像が得られたが、これに限られず、例えば、画像処理装置2では、他の外部の装置または記憶媒体から輝点分布画像が得られても良い。 In the bright spot distribution image, for example, in a fluorescent image, it is possible to distinguish the distribution of the region in which the fluorescent bright points of the specific wavelength are captured and the distribution of the remaining region in which the fluorescent bright spots of the specific wavelength are not captured. In a different manner. Specifically, for example, a portion corresponding to a region (also referred to as a fluorescent bright spot region) in which a fluorescent bright spot is captured and a specific substance is estimated to be present is the first color or the first It is shown by a hatched display element (also called a bright spot display element), and the remaining portion other than that is drawn as a background with a second color or second hatch different from that of the bright spot display element. .. Here, for example, red or the like can be adopted as the first color, and white or black or the like can be adopted as the second color. Although the fluorescence image is obtained from the microscope image acquisition device 1 here, the present invention is not limited to this, and for example, in the image processing device 2, even if a bright spot distribution image is obtained from another external device or storage medium. good.

生成部212は、細胞形態画像に1種類以上の画像処理を施すことで、細胞分布画像を生成する。該細胞分布画像では、細胞形態画像において細胞の特定部位が捉えられているものと推定される推定領域の分布が1以上の細胞表示要素で示されている。生成部212では、例えば、相互に異なる2以上の条件に従って、細胞形態画像に1種類以上の画像処理のうちの少なくとも1種類の画像処理が施されることで、2以上の細胞分布画像が生成される。2以上の細胞分布画像における各細胞分布画像では、細胞形態画像における推定領域の分布が少なくとも1つの細胞表示要素で示されている。 The generation unit 212 generates a cell distribution image by performing one or more types of image processing on the cell morphology image. In the cell distribution image, the distribution of the estimated region in which it is estimated that the specific part of the cell is captured in the cell morphology image is shown by one or more cell display elements. In the generation unit 212, for example, two or more cell distribution images are generated by performing at least one type of image processing of one or more types of image processing on the cell morphology image according to two or more mutually different conditions. To be done. In each cell distribution image in two or more cell distribution images, the distribution of the estimated region in the cell morphology image is shown by at least one cell display element.

ここで、2以上の条件には、2種類以上の画像処理のうちの何番目までの画像処理を施すのかを規定する条件、および/または1種類の画像処理における異なる処理条件等が含まれ得る。このため、生成部212で生成される細胞分布画像には、生成部212における1種類以上の画像処理の途中の画像処理まで施された処理結果としての細胞分布画像(中間細胞分布画像とも言う)および最終の画像処理まで施された処理結果としての細胞分布画像(最終細胞分布画像とも言う)が含まれ得る。 Here, the two or more conditions may include conditions that define up to which of the two or more types of image processing are to be performed, and/or different processing conditions in one type of image processing. .. Therefore, in the cell distribution image generated by the generation unit 212, a cell distribution image (also referred to as an intermediate cell distribution image) as a processing result that has been subjected to image processing in the middle of one or more types of image processing in the generation unit 212. Further, a cell distribution image (also referred to as a final cell distribution image) as a processing result obtained by performing the final image processing may be included.

なお、細胞分布画像では、例えば、細胞形態画像について、特定部位が捉えられているものと推定される推定領域の分布と、特定部位が捉えられていないものと推定される残余の領域の分布とが区別可能な態様で示される。具体的には、例えば、推定領域に対応する部分が第3の色または第3のハッチングが付された細胞表示要素で示され、それ以外の残余の部分が背景として細胞表示要素とは異なる第4の色または第4のハッチングが付されて描かれる。ここで、第3の色として、例えば、青色または灰色等が採用され、第4の色として、例えば、白色または黒色等が採用され得る。 In the cell distribution image, for example, with respect to the cell morphology image, a distribution of estimated regions in which it is estimated that a specific region is captured and a distribution of residual regions in which it is estimated that a specific region is not captured Are shown in a distinguishable manner. Specifically, for example, a portion corresponding to the estimated region is indicated by a cell display element with a third color or a third hatching, and the remaining portion other than that is displayed as a background different from the cell display element. It is drawn with four colors or a fourth hatching. Here, for example, blue or gray or the like may be adopted as the third color, and white or black or the like may be adopted as the fourth color.

具体的には、例えば、図22で示される細胞形態画像G2に複数の画像処理が順次に施されることで、第1〜3段階の細胞分布画像G2a〜G2c(図23から図25)が生成され、該第1〜3段階の細胞分布画像G2a〜G2cが、表示部23に表示され得る。この場合には、第1および第2段階の細胞分布画像G2a,G2bが中間細胞分布画像であり、第3段階の細胞分布画像G2cが最終細胞分布画像である。 Specifically, for example, a plurality of image processes are sequentially performed on the cell morphology image G2 shown in FIG. 22, so that the cell distribution images G2a to G2c at the first to third stages (FIGS. 23 to 25) are obtained. The generated cell distribution images G2a to G2c of the first to third stages can be displayed on the display unit 23. In this case, the first and second stage cell distribution images G2a and G2b are intermediate cell distribution images, and the third stage cell distribution image G2c is the final cell distribution image.

表示制御部213は、各種画像を表示部23に表示させる。ここでは、例えば、表示制御部213から各種画像に係るデータが表示部23に出力されることで、各種画像が表示部23に表示され得る。ここで、各種画像には、例えば、取得部211で取得される細胞形態画像および生成部212で生成される細胞分布画像等が含まれ得る。具体的には、表示制御部213は、生成部212によって相互に異なる2以上の条件に従って細胞形態画像に1種類以上の画像処理のうちの少なくとも1種類の画像処理が施されることでそれぞれ生成される2以上の細胞分布画像を表示部23に表示させる。該2以上の細胞分布画像は、例えば、ユーザーが適宜選択可能な複数の選択肢の態様で表示される。 The display control unit 213 causes the display unit 23 to display various images. Here, for example, various images can be displayed on the display unit 23 by outputting data relating to various images from the display control unit 213 to the display unit 23. Here, the various images may include, for example, a cell morphology image acquired by the acquisition unit 211, a cell distribution image generated by the generation unit 212, and the like. Specifically, the display control unit 213 generates each by performing at least one type of image processing of one or more types of image processing on the cell morphology image according to two or more conditions different from each other by the generation unit 212. The two or more cell distribution images to be displayed are displayed on the display unit 23. The two or more cell distribution images are displayed, for example, in the form of a plurality of options that the user can appropriately select.

指定部214は、ユーザーの動作に応じて、表示部23に表示されている複数の選択肢としての2以上の細胞分布画像のうちの1つの細胞分布画像を指定する。例えば、ユーザーによって入力部22を介して入力された信号に応じて、指定部214によって、2以上の細胞分布画像のうちの1つの細胞分布画像が指定される。これにより、誤検出の修正が行われる対象としての1つの細胞分布画像が指定され得る。 The designation unit 214 designates one cell distribution image of the two or more cell distribution images displayed on the display unit 23 as a plurality of options according to the user's operation. For example, one of the two or more cell distribution images is designated by the designating unit 214 according to a signal input by the user via the input unit 22. As a result, one cell distribution image can be designated as a target for which correction of erroneous detection is performed.

修正部215は、ユーザーの動作に応じて、指定部214で指定された1つの細胞分布画像の少なくとも一部を修正する。これにより、細胞分布画像の誤検出が修正されて、細胞分布画像の生成が完了し得る。 The correction unit 215 corrects at least a part of one cell distribution image designated by the designation unit 214 according to the operation of the user. Thereby, the erroneous detection of the cell distribution image can be corrected, and the generation of the cell distribution image can be completed.

算出部216は、修正部215で生成された細胞分布画像と、取得部211で取得された輝点分布画像とに基づいて、細胞形態画像で捉えられている特定部位における特定の生体物質の存在状態に係る解析値を算出する。ここで算出される解析値としては、例えば、単位領域当たりの蛍光輝点の数(輝点数とも言う)等と言った統計的な値(すなわち統計値)が採用され得る。単位領域としては、例えば、細胞領域の単位面積、および1つの細胞領域が採用され得る。この場合、例えば、単位面積当たりの輝点数、および1つの細胞領域当たりの輝点数等が解析値として算出され得る。ここでは、例えば、同一視野についての細胞分布画像と輝点分布画像とが重畳されることで、細胞領域と蛍光輝点との関係が認識され得る。なお、細胞領域は、例えば、特定部位としての細胞核であっても良いし、細胞核を基準とした所定の範囲の領域として設定され得る。 The calculation unit 216, based on the cell distribution image generated by the correction unit 215 and the bright spot distribution image acquired by the acquisition unit 211, the presence of a specific biological substance at a specific site captured in the cell morphology image. Calculate the analysis value related to the state. As the analysis value calculated here, for example, a statistical value (that is, a statistical value) such as the number of fluorescent bright spots per unit area (also referred to as the number of bright spots) can be adopted. As the unit area, for example, a unit area of the cell area and one cell area can be adopted. In this case, for example, the number of bright spots per unit area, the number of bright spots per cell region, and the like can be calculated as analysis values. Here, for example, the relationship between the cell region and the fluorescent bright spot can be recognized by superimposing the cell distribution image and the bright spot distribution image in the same visual field. The cell region may be, for example, a cell nucleus as a specific portion, or may be set as a region in a predetermined range with the cell nucleus as a reference.

<(2−3−3)画像処理装置の動作フロー>
図31および図32は、画像処理装置2の動作フローを例示する流れ図である。ここでは、顕微鏡画像としての細胞形態画像および蛍光画像が、画像処理装置2に入力される例が示されている。図31で示されるように、画像処理装置2では、例えば、ステップS1〜S7の処理が時間順次に行われる。
<(2-3-3) Operation flow of image processing device>
31 and 32 are flowcharts illustrating the operation flow of the image processing apparatus 2. Here, an example is shown in which a cell morphology image and a fluorescence image as a microscope image are input to the image processing device 2. As shown in FIG. 31, in the image processing device 2, for example, the processes of steps S1 to S7 are performed in time sequence.

ステップS1では、取得部211によって、顕微鏡画像が取得される。顕微鏡画像には、細胞形態画像および蛍光画像が含まれる。例えば、顕微鏡画像取得装置1によって取得された顕微鏡画像が、通信I/F24を介して制御部21に入力されることで、取得部211によって取得される。図33は、ここで得られる細胞形態画像G3の一例を示す図である。 In step S1, the acquisition unit 211 acquires a microscope image. Microscopic images include cell morphology images and fluorescence images. For example, the microscope image acquired by the microscope image acquisition device 1 is input to the control unit 21 via the communication I/F 24 and is acquired by the acquisition unit 211. FIG. 33 is a diagram showing an example of the cell morphology image G3 obtained here.

ステップS2では、取得部211によって、ステップS1で取得された蛍光画像における特定波長に係る蛍光輝点の分布を示す輝点分布画像が取得される。図34は、ここで取得される輝点分布画像G3dの一例を模式的に示す図である。 In step S2, the acquisition unit 211 acquires a bright spot distribution image showing the distribution of fluorescent bright spots associated with a specific wavelength in the fluorescent image acquired in step S1. FIG. 34 is a diagram schematically showing an example of the bright spot distribution image G3d acquired here.

ステップS3では、生成部212によって、細胞形態画像における推定領域が検出されることで、細胞分布画像が生成される。ここでは、生成部212によって、相互に異なる2以上の条件に従って、細胞形態画像に少なくとも1種類の画像処理が施されることで、2以上の細胞分布画像がそれぞれ生成される。2以上の細胞分布画像では、細胞形態画像において細胞の特定部位が捉えられているものと推定される推定領域の分布が少なくとも1つの細胞表示要素で示されている。 In step S3, the generation unit 212 detects the estimated region in the cell morphology image, thereby generating a cell distribution image. Here, the generation unit 212 performs at least one type of image processing on the cell morphology image according to two or more mutually different conditions, thereby generating two or more cell distribution images. In two or more cell distribution images, at least one cell display element shows the distribution of the estimated region in which it is estimated that the specific portion of the cell is captured in the cell morphology image.

本実施形態では、生成部212において細胞分布画像を生成するために細胞形態画像に施される1種類以上の画像処理が、複数種類の画像処理を含んでおり、生成部212によって、細胞形態画像に複数種類の画像処理が時間順次に施される。なお、2以上の条件については、2種類以上の画像処理のうちの何番目までの画像処理を施すのかを規定する条件である一例が示されている。このため、生成部212によって生成される2以上の細胞分布画像には、例えば、2種類以上の画像処理のうちの2以上の各段階までの画像処理が施されることでそれぞれ生成される細胞分布画像が含まれる。すなわち、生成部212によって、細胞形態画像に複数種類の画像処理が時間順次に施される際に、複数種類の画像処理のうちの2種類以上の画像処理のそれぞれまでが細胞形態画像に施されることで2以上の細胞分布画像が生成される。 In the present embodiment, the one or more types of image processing performed on the cell morphology image to generate the cell distribution image in the generation unit 212 includes a plurality of types of image processing. Then, a plurality of types of image processing are sequentially performed. It should be noted that as for the two or more conditions, an example is shown which is a condition that defines up to which of the two or more types of image processing is to be performed. For this reason, the two or more cell distribution images generated by the generation unit 212 are, for example, cells generated by performing image processing up to two or more stages of two or more types of image processing. A distribution image is included. That is, when the generation unit 212 performs a plurality of types of image processing on the cell morphology image in time sequence, each of the two or more types of image processing of the plurality of types of image processing is performed on the cell morphology image. By doing so, two or more cell distribution images are generated.

そして、このステップS3では、具体的には、図32で示される動作フローに沿った処理が実行される。 Then, in step S3, specifically, the process according to the operation flow shown in FIG. 32 is executed.

図32のステップS31では、ステップS1で取得された細胞形態画像に対して前処理が施される。前処理には、例えば、ローパスフィルター、ガウシアンフィルターおよびメディアンフィルター等の各種フィルター等を用いたノイズを除去する処理等が含まれる。 In step S31 of FIG. 32, preprocessing is performed on the cell morphology image acquired in step S1. The preprocessing includes, for example, processing for removing noise using various filters such as a low-pass filter, a Gaussian filter, and a median filter.

ステップS32では、ステップS31で前処理が施された細胞形態画像に対して推定領域を検出する領域検出処理が施される。領域検出処理では、例えば、第1領域検出処理(ステップS321)と第2領域検出処理(ステップS322)とが順に行われる。 In step S32, a region detection process for detecting an estimated region is performed on the cell morphology image subjected to the preprocessing in step S31. In the area detection processing, for example, the first area detection processing (step S321) and the second area detection processing (step S322) are sequentially performed.

第1領域検出処理では、細胞形態画像において比較的明瞭な態様で特定部位が捉えられているものと推定される推定領域(第1推定領域とも言う)が検出される。これにより、第1推定領域の分布が1以上の細胞表示要素で示されている第1段階の細胞分布画像が取得され得る。ここでは、例えば、二値化およびクラスタリング等によって、細胞形態画像において推定領域が検出され得る。二値化には、例えば、判別分析法およびPタイル法等を用いた二値化が含まれ得る。クラスタリングには、例えば、k平均法およびEMアルゴリズム等を用いたクラスタリングが含まれ得る。また、第1領域検出処理では、例えば、多数種の画像の特徴量を用いた機械学習で得た学習内容によって、細胞形態画像から推定領域が検出されても良い。さらに、第1領域検出処理では、例えば、一旦検出された推定領域のうち、外観上の基準を満たす推定領域が第1推定領域として検出され、残余の推定領域が除外されても良い。外観上の基準には、例えば、大きさおよび円形度等が含まれ得る。 In the first region detection process, an estimated region (also referred to as a first estimated region) in which the specific portion is estimated to be captured in a relatively clear manner in the cell morphological image is detected. Thereby, the first-stage cell distribution image in which the distribution of the first estimated region is shown by one or more cell display elements can be acquired. Here, the estimated region can be detected in the cell morphology image by, for example, binarization and clustering. The binarization may include, for example, binarization using the discriminant analysis method and the P-tile method. Clustering may include, for example, clustering using the k-means method, the EM algorithm, or the like. Further, in the first region detection processing, for example, the estimated region may be detected from the cell morphology image based on the learning content obtained by machine learning using the feature amounts of many types of images. Further, in the first region detection processing, for example, of the estimated regions once detected, an estimated region that satisfies the appearance criterion may be detected as the first estimated region, and the remaining estimated regions may be excluded. Appearance criteria may include, for example, size and circularity.

図35は、図33で示されるような細胞形態画像G3から第1推定領域が検出されることで取得される第1段階の細胞分布画像G3aを例示する図である。図35で示される第1段階の細胞分布画像G3aは、細胞形態画像G3上に第1推定領域を示す細胞表示要素D1aが重畳された態様を有している。ここで、細胞表示要素D1aは、例えば、細胞形態画像G3で捉えられた種々の部位と区別可能な特定の要素で示される。図35では、特定の要素は、濃い灰色で描かれた要素である。 FIG. 35: is a figure which illustrates the cell distribution image G3a of the 1st step acquired by detecting a 1st estimation area|region from the cell morphology image G3 as shown in FIG. The first-stage cell distribution image G3a shown in FIG. 35 has a mode in which the cell display element D1a indicating the first estimated region is superimposed on the cell morphology image G3. Here, the cell display element D1a is shown by, for example, a specific element that can be distinguished from various parts captured in the cell morphology image G3. In FIG. 35, the specific element is an element drawn in dark gray.

第2領域検出処理では、細胞形態画像において比較的明瞭でない態様で特定部位が捉えられているものと推定される推定領域(第2推定領域とも言う)が検出される。これにより、第1および第2推定領域の分布が2以上の細胞表示要素で示されている第2段階の細胞分布画像が取得され得る。ここでは、例えば、第1領域検出処理とは条件が異なる二値化、およびエッジ抽出による閉領域の認識等によって推定領域が抽出され得る。さらに、第2領域検出処理においても、例えば、一旦検出された推定領域のうち、外観上の基準を満たす推定領域が第2推定領域として検出され、残余の推定領域が除外されても良い。外観上の基準には、例えば、大きさ、濃淡、色彩および円形度等が含まれ得る。色彩としては、例えば、細胞形態画像のうちの第2領域検出処理において一旦検出された推定領域における色彩が採用され得る。 In the second area detection process, an estimated area (also referred to as a second estimated area) in which it is estimated that the specific portion is captured in a relatively unclear manner in the cell morphology image is detected. As a result, a second-stage cell distribution image in which the distributions of the first and second estimated regions are shown by two or more cell display elements can be acquired. Here, for example, the estimation region can be extracted by binarization under different conditions from the first region detection process, recognition of a closed region by edge extraction, or the like. Further, also in the second region detection processing, for example, of the estimated regions once detected, the estimated region that satisfies the appearance criterion may be detected as the second estimated region, and the remaining estimated regions may be excluded. Appearance criteria may include, for example, size, shade, color and circularity. As the color, for example, the color in the estimated region once detected in the second region detection processing in the cell morphology image can be adopted.

図36は、図35で示されるような第1段階の細胞分布画像G3aから第2推定領域が検出されることで取得される第2段階の細胞分布画像G3bを例示する図である。図36で示される第2段階の細胞分布画像G3bは、細胞形態画像G3上に第1推定領域および第2推定領域を示す細胞表示要素D1bが重畳された態様を有している。ここで、細胞表示要素D1bは、細胞表示要素D1aと同様に、例えば、細胞形態画像G3で捉えられた種々の部位と区別可能な特定の要素で示される。図36では、図35と同様に、特定の要素は、濃い灰色で描かれた要素である。 FIG. 36: is a figure which illustrates the cell distribution image G3b of the 2nd step acquired by detecting a 2nd estimation area|region from the cell distribution image G3a of the 1st step as shown in FIG. The second-stage cell distribution image G3b shown in FIG. 36 has a mode in which the cell display element D1b indicating the first estimation region and the second estimation region is superimposed on the cell morphology image G3. Here, like the cell display element D1a, the cell display element D1b is indicated by, for example, a specific element that can be distinguished from various regions captured in the cell morphological image G3. In FIG. 36, as in FIG. 35, the specific element is an element drawn in dark gray.

ステップS33では、ステップS32の領域検出処理によって取得された検出結果が分類される。ここでは、ステップS32で検出された推定領域が、適正状態、過剰分割状態および未分割状態の何れの状態で検出された推定領域であるのか分類される。 In step S33, the detection results acquired by the area detection process of step S32 are classified. Here, it is classified whether the estimated region detected in step S32 is the estimated region detected in the proper state, the excessively divided state, or the undivided state.

具体的には、例えば、各推定領域が、推定領域を示す細胞表示要素の大きさ、形状および密集度等に基づいて、適正状態、過剰分割状態および未分割状態の何れの状態で検出された推定領域であるのか分類され得る。 Specifically, for example, each estimated region is detected in any state of an appropriate state, an excessively divided state, and an undivided state based on the size, shape, and density of the cell display element indicating the estimated region. It can be classified as an estimated region.

より具体的には、例えば、ステップS32で検出された推定領域の大きさおよび形状それぞれを示す数値が、全て予め設定された許容範囲に含まれていれば、該推定領域が、適正状態で検出された推定領域であるものとして分類され得る。ここで、推定領域の大きさを示す数値としては、例えば、面積等が挙げられ、推定領域の形状を示す数値としては、例えば、円形度および面積凸包比等が挙げられる。面積は、例えば、推定領域を構成する画素の数等によって算出され得る。円形度Dcは、例えば、面積Sと周囲の長さLとが用いられた、Dc=4π×S/Lの式によって算出され得る。面積凸包比は、例えば、一塊の推定領域の面積が、該一塊の推定領域の面積と該一塊の推定領域が有する全ての凹部の面積との和で除されることで算出され得る。また、ここで、面積の許容範囲は、例えば、特定部位としての細胞核の一般的な大きさに従って予め適宜設定され得る。円形度の許容範囲は、例えば、所定値以上の値域に予め設定され得る。面積凸包比の許容範囲は、例えば、所定の閾値以上の値域に予め設定され得る。 More specifically, for example, if all the numerical values indicating the size and shape of the estimated region detected in step S32 are included in the preset allowable range, the estimated region is detected in an appropriate state. Can be classified as being the estimated region. Here, the numerical value indicating the size of the estimated region is, for example, the area, and the numerical value indicating the shape of the estimated region is, for example, the circularity and the area convex hull ratio. The area can be calculated by, for example, the number of pixels forming the estimated region. The circularity Dc can be calculated by, for example, an equation of Dc=4π×S/L 2 in which the area S and the circumference length L are used. The area convex hull ratio can be calculated, for example, by dividing the area of the one block of the estimation region by the sum of the area of the one block of the estimation region and the area of all the recesses of the one block of the estimation region. Here, the allowable range of the area can be appropriately set in advance, for example, according to the general size of the cell nucleus as the specific site. The allowable range of the circularity can be set in advance, for example, in a range of a predetermined value or more. The permissible range of the area convex hull ratio can be set in advance to a value range equal to or larger than a predetermined threshold value, for example.

また、例えば、ステップS32で検出された推定領域の大きさおよび密集度をそれぞれ示す数値が、全て予め設定された値域(基準値域とも言う)に含まれていれば、該推定領域が、過剰分割状態で検出された推定領域であるものとして分類され得る。ここで、推定領域の大きさを示す数値としては、例えば、面積等が挙げられ、推定領域の密集度を示す数値としては、例えば、単位面積当たりの推定領域の個数等が挙げられる。また、ここで、面積の基準値域は、例えば、適正状態で検出された推定領域に係る許容範囲未満の値域に予め設定され得る。単位面積は、例えば、特定部位としての細胞核の一般的な大きさに対応する面積等に予め設定され得る。この場合、単位面積当たりの推定領域の個数に係る基準値域は、例えば、2以上の個数を示す値域に予め設定され得る。 Further, for example, if all of the numerical values indicating the size and the density of the estimated region detected in step S32 are included in the preset range (also referred to as the reference range), the estimated region is over-divided. It can be classified as being the estimated region detected in the state. Here, the numerical value indicating the size of the estimated region includes, for example, the area, and the numerical value indicating the density of the estimated region includes, for example, the number of the estimated regions per unit area. Further, here, the reference value range of the area may be set in advance to, for example, a value range less than the permissible range of the estimated area detected in the proper state. The unit area can be set in advance, for example, to an area corresponding to the general size of the cell nucleus as the specific portion. In this case, the reference value range related to the number of estimated regions per unit area can be set in advance to a value range indicating two or more, for example.

また、例えば、ステップS32で検出された推定領域の大きさおよび形状をそれぞれ示す数値が、全て予め設定された値域(基準値域)に含まれていれば、該推定領域が、未分割状態で検出された推定領域であるものと判定され得る。ここで、推定領域の大きさを示す数値としては、例えば、面積等が挙げられ、推定領域の形状を示す数値としては、例えば、円形度および面積凸包比等が挙げられる。また、ここで、面積の基準値域は、例えば、適正状態で検出された推定領域に係る許容範囲を超える値域に予め設定され得る。円形度の基準値域は、例えば、所定値未満の値域に予め設定され得る。面積凸包比の基準値域は、例えば、所定の閾値未満の値域に予め設定され得る。なお、面積凸包比が基準値域に含まれているか否かの代わりに、例えば、凹部の有無が指標として採用されも良い。 Further, for example, if all the numerical values indicating the size and the shape of the estimated region detected in step S32 are included in the preset value range (reference value range), the estimated region is detected in the undivided state. Can be determined to be the estimated region. Here, the numerical value indicating the size of the estimated region is, for example, the area, and the numerical value indicating the shape of the estimated region is, for example, the circularity and the area convex hull ratio. Further, here, the reference value range of the area may be set in advance, for example, to a value range that exceeds the allowable range related to the estimated region detected in the proper state. The reference range of the circularity can be set in advance to a range below a predetermined value, for example. The reference range of the area convex hull ratio may be set in advance to a range below a predetermined threshold, for example. Note that, instead of whether the area convex hull ratio is included in the reference value range, for example, the presence or absence of a recess may be used as an index.

そして、ステップS33では、例えば、過剰分割状態で検出された複数の細胞表示要素については、1つの推定領域を示す一群の細胞表示要素(細胞表示要素群)として認識され得る。また、ここで、適正状態で検出された推定領域を示す細胞表示要素の数と、過剰分割状態で検出された推定領域を示す細胞表示要素群の数と、未分割状態で検出された推定領域を示す細胞領域の数との総和(総数)がM個(Mは自然数)であるものとする。このとき、適正状態および未分割状態に係る細胞表示要素、ならびに過剰分割状態に係る細胞表示要素群に対して、例えば、1〜Mの番号が識別情報として付される。 Then, in step S33, for example, the plurality of cell display elements detected in the excessive division state can be recognized as a group of cell display elements (cell display element group) indicating one estimated region. In addition, here, the number of cell display elements indicating the estimated region detected in the proper state, the number of cell display element groups indicating the estimated region detected in the excessively divided state, and the estimated region detected in the undivided state It is assumed that the total (total number) with the number of cell regions indicating M is M (M is a natural number). At this time, for example, numbers 1 to M are assigned as identification information to the cell display elements in the proper state and the undivided state and the cell display element group in the excessively divided state.

ステップS34では、判定対象が何番目の推定領域に係る細胞表示要素または細胞表示要素群であるのかを示す自然数mが1に設定される。 In step S34, a natural number m indicating which cell display element or cell display element group the determination target belongs to is set to 1.

ステップS35では、ステップS32で検出された推定領域に係る細胞表示要素のうちのm番目の細胞表示要素または細胞表示要素群が判定対象として指定される。 In step S35, the m-th cell display element or cell display element group of the cell display elements related to the estimated region detected in step S32 is designated as the determination target.

ステップS36では、ステップS35で判定対象として指定されたm番目の細胞表示要素または細胞表示要素群が、ステップS33において適正状態で検出された推定領域に分類された推定領域を示す細胞表示要素であるのか否かが判定される。ここで、m番目の細胞表示要素が適正状態で検出された推定領域を示すものであれば、ステップS40に進み、m番目の細胞表示要素または細胞表示要素群が適正状態で検出された推定領域でなければ、ステップS37に進む。 In step S36, the m-th cell display element or cell display element group designated as the determination target in step S35 is a cell display element indicating an estimated area classified into the estimated area detected in the proper state in step S33. Is determined. Here, if the m-th cell display element indicates the estimated region detected in the proper state, the process proceeds to step S40, and the estimated region in which the m-th cell display element or the cell display element group is detected in the proper state is detected. If not, the process proceeds to step S37.

ステップS37では、ステップS35で判定対象として指定されたm番目の細胞表示要素または細胞表示要素群が、ステップS33において過剰分割状態で検出された推定領域に分類された推定領域を示す細胞表示要素群であるのか否かが判定される。ここで、m番目の細胞表示要素群が過剰分割状態で検出された推定領域を示すものであれば、ステップS38に進み、m番目の細胞表示要素が過剰分割状態で検出された推定領域を示すものでなければ、ステップS39に進む。なお、ここでは、例えば、m番目の判定対象が細胞表示要素群であれば、ステップS38に進み、m番目の判定対象が細胞表示要素であれば、ステップS39に進むようにしても良い。 In step S37, the m-th cell display element or cell display element group designated as the determination target in step S35 is a cell display element group indicating an estimated area classified into the estimated area detected in the excessively divided state in step S33. Is determined. Here, if the m-th cell display element group indicates the estimated region detected in the excessive division state, the process proceeds to step S38, and the m-th cell display element indicates the estimated region detected in the excessive division state. If not, the process proceeds to step S39. Here, for example, if the m-th determination target is the cell display element group, the process proceeds to step S38, and if the m-th determination target is the cell display element, the process may proceed to step S39.

ステップS38では、ステップS37において過剰分割状態で検出された推定領域に分類された推定領域を示す細胞表示要素群であるものと判定されたm番目の細胞表示要素群が統合される統合処理が施される。統合処理では、例えば、図14で示されたように、図14の左方の細胞表示要素群が統合されて、図14の右方の細胞表示要素が形成され得る。統合処理としては、例えば、次の処理A1〜A5が順に行われる一連の処理等が採用され得る。 In step S38, an integration process is performed in which the m-th cell display element group determined to be the cell display element group indicating the estimated region classified into the estimated region detected in the excessively divided state in step S37 is integrated. To be done. In the integration process, for example, as shown in FIG. 14, the cell display element group on the left side of FIG. 14 can be integrated to form the cell display element on the right side of FIG. 14. As the integration process, for example, a series of processes in which the following processes A1 to A5 are sequentially performed can be adopted.

[処理A1]細胞形態画像のうち、判定対象としての細胞表示要素群に対応する過剰分割状態で検出された推定領域を包含する領域について、エッジを抽出するエッジ抽出処理が施される。なお、該エッジ抽出処理は、例えば、Sobelフィルター、Cannyフィルターおよび微分画像等を用いた処理によって実現され得る。 [Processing A1] In the cell morphology image, an edge extraction process of extracting an edge is performed on a region including the estimated region detected in the excessively divided state corresponding to the cell display element group as the determination target. The edge extraction process can be realized by, for example, a process using a Sobel filter, a Canny filter, a differential image, or the like.

[処理A2]処理A1のエッジ抽出処理で抽出された曲線状のエッジの曲率から、エッジが成す円弧の中心点の推定点(推定中心点とも言う)が求められる。 [Process A2] An estimated point (also referred to as an estimated center point) of the center point of the arc formed by the edge is obtained from the curvature of the curved edge extracted by the edge extraction process of the process A1.

[処理A3]処理A1のエッジ抽出処理で抽出されたエッジのうち、次の3条件(条件A3a〜A3c)を満たすエッジが、特定部位としての細胞核の輪郭を捉えたものとして認識される。 [Processing A3] Among the edges extracted by the edge extracting process of the process A1, the edge satisfying the following three conditions (conditions A3a to A3c) is recognized as the one that captures the contour of the cell nucleus as the specific portion.

・条件A3a)エッジが成す円弧が、処理A2で求められた推定中心点とは逆方向に凸の形状を有している。 Condition A3a) The arc formed by the edge has a convex shape in the opposite direction to the estimated center point obtained in the process A2.

・条件A3b)エッジ上を一方向に移動する点と処理A2で求められた推定中心点とを結ぶ線分と、エッジ上の基準点と推定中心点とを結ぶ線(基準線とも言う)とが成す角度が連続的に変化している。 Condition A3b) a line segment connecting a point moving in one direction on the edge and the estimated center point obtained in the process A2, and a line connecting the reference point on the edge and the estimated center point (also referred to as a reference line). The angle formed by is continuously changing.

・条件A3c)エッジが成す円弧の曲率が略同一である。 -Condition A3c) The curvatures of the arcs formed by the edges are substantially the same.

[処理A4]処理A3で認識された細胞核の輪郭を捉えたエッジによって形成される閉領域が一塊の推定領域を示すものとして決定される。 [Processing A4] The closed region formed by the edge capturing the contour of the cell nucleus recognized in the process A3 is determined as indicating a single estimated region.

[処理A5]判定対象としての細胞表示要素群が、処理A4で決定された一塊の推定領域を示す一塊の細胞表示要素に置換される。これにより、判定対象としての細胞表示要素群が、実質的に統合されることになる。 [Processing A5] The cell display element group as the determination target is replaced with a cell display element of a block indicating the estimated region of the cell determined in the process A4. As a result, the cell display element group as the determination target is substantially integrated.

なお、上記処理A1において、閉領域を形成する1本の連続した曲線状のエッジが抽出されず、2本以上の曲線状のエッジの形態で細胞形態画像からエッジが抽出される場合がある。この場合には、例えば、処理A2において、2本以上の曲線状のエッジについて、概ね共通する推定中心点が求められる。次に、例えば、処理A3において、該2本以上の曲線状のエッジが、上記条件A3a〜A3cを満たす1つの略円状の仮想的な曲線の一部を構成するものであれば、細胞核の輪郭を捉えたものとして認識される。このとき、例えば、処理A4において、2本以上の曲線状のエッジが、推定中心点を中心とした2本以上の略円弧状の曲線(接続曲線とも言う)によって1つの略円状の曲線を形成するように接続される。これにより、該1つの略円状の曲線によって形成される閉領域が一塊の推定領域を示すものとして決定され得る。 In the process A1, one continuous curved edge forming the closed region may not be extracted, and an edge may be extracted from the cell morphology image in the form of two or more curved edges. In this case, for example, in the process A2, a generally common estimated center point is obtained for two or more curved edges. Next, for example, in the process A3, if the two or more curved edges constitute a part of one substantially circular virtual curve that satisfies the above conditions A3a to A3c, Recognized as capturing the outline. At this time, for example, in the process A4, two or more curved edges form one substantially circular curve by two or more substantially arc-shaped curves (also referred to as connection curves) centered on the estimated center point. Connected to form. Thereby, the closed region formed by the one substantially circular curve can be determined as indicating a block of estimated regions.

ステップS39では、ステップS37において未分割状態で検出された推定領域に分類された推定領域を示す細胞表示要素であるものと判定されたm番目の細胞表示要素が分割される分割処理が施される。分割処理では、例えば、図15で示されたように、図15の左方の細胞表示要素が分割されて、図15の右方の複数の細胞表示要素が形成され得る。分割処理としては、例えば、次の処理B1〜B4が順に行われる一連の処理等が採用され得る。 In step S39, division processing is performed in which the m-th cell display element determined to be the cell display element indicating the estimated region classified into the estimated region detected in the undivided state in step S37 is divided. .. In the division processing, for example, as shown in FIG. 15, the cell display element on the left side of FIG. 15 may be divided to form a plurality of cell display elements on the right side of FIG. 15. As the division process, for example, a series of processes in which the following processes B1 to B4 are sequentially performed can be adopted.

[処理B1]細胞形態画像のうち、判定対象としての細胞表示要素に対応する未分割状態で検出された推定領域を包含する領域について、エッジ抽出処理が施される。該エッジ抽出処理は、処理A1と同様に、例えば、Sobelフィルター、Cannyフィルターおよび微分画像等を用いた処理によって実現され得る。 [Process B1] The edge extraction process is performed on the region including the estimated region detected in the undivided state corresponding to the cell display element as the determination target in the cell morphology image. The edge extraction process can be realized by a process using, for example, a Sobel filter, a Canny filter, a differential image, or the like, similar to the process A1.

[処理B2]処理B1のエッジ抽出処理で抽出された曲線状のエッジの曲率から、エッジが成す円弧の中心点の推定点(推定中心点とも言う)が求められる。ここでは、処理A1において抽出された2本以上のエッジそれぞれについて、推定中心点が求められる。 [Process B2] An estimated point (also referred to as an estimated center point) of the center point of the arc formed by the edge is obtained from the curvature of the curved edge extracted by the edge extraction process of the process B1. Here, the estimated center point is obtained for each of the two or more edges extracted in the process A1.

[処理B3]処理B2で2本以上のエッジに係る2以上の推定中心点が求められ、2本の円弧状のエッジが、それぞれの推定中心点とは逆方向において相互に対向していれば、異なる推定領域の輪郭に対応するエッジであるものと認識される。 [Process B3] In process B2, two or more estimated center points related to two or more edges are obtained, and two arc-shaped edges are opposed to each other in opposite directions to the respective estimated center points. , Are recognized as edges corresponding to the contours of different estimation regions.

[処理B4]処理B3で認識された異なる推定領域の輪郭に対応する2つの円弧状のエッジの間において、判定対象としてのm番目の細胞表示要素が分割される。なお、分割処理としては、例えば、公知のWatershed法等によって判定対象としてのm番目の細胞表示要素に対して境界線が引かれて、該細胞表示要素が分割される処理が採用され得る。 [Process B4] The m-th cell display element to be determined is divided between the two arc-shaped edges corresponding to the contours of the different estimation regions recognized in process B3. As the division process, for example, a process of dividing the cell display element by drawing a boundary line on the m-th cell display element to be determined by a known Watershed method or the like can be adopted.

ステップS40では、自然数mが自然数Mに到達しているか否かが判定される。ここでは、自然数mが自然数Mに到達していなければ、ステップS41に進み、自然数mが自然数Mに到達していれば、ステップS42に進む。 In step S40, it is determined whether or not the natural number m has reached the natural number M. Here, if the natural number m has not reached the natural number M, the process proceeds to step S41, and if the natural number m has reached the natural number M, the process proceeds to step S42.

ステップS41では、自然数mが1増加されて、ステップS35に進む。このため、自然数mが自然数Mに到達するまで、ステップS35〜S41の処理が適宜繰り返される。 In step S41, the natural number m is incremented by 1, and the process proceeds to step S35. Therefore, the processes of steps S35 to S41 are appropriately repeated until the natural number m reaches the natural number M.

ステップS42では、適正状態に係る細胞表示要素と、統合後の細胞表示要素と、分割後の複数の細胞表示要素とが合成されることで、推定領域の分布が複数の細胞表示要素で示されている1つの第3段階の細胞分布画像が取得される。 In step S42, the cell display element related to the proper state, the cell display element after integration, and the plurality of cell display elements after division are combined to show the distribution of the estimated region by the plurality of cell display elements. One third stage cell distribution image is acquired.

図37は、図36で示されるような第2段階の細胞分布画像G3bについて統合処理および/または分割処理が行われた上で複数の推定領域を示す複数の細胞表示要素が合成されることで取得される第3段階の細胞分布画像G3cを例示する図である。図37で示される第3段階の細胞分布画像G3cは、細胞形態画像G3上に第1推定領域および第2推定領域を示し且つ分割処理および統合処理等が施された後の細胞表示要素D1cが重畳された態様を有している。ここで、細胞表示要素D1cは、細胞表示要素D1a,D1bと同様に、例えば、細胞形態画像G3で捉えられた種々の部位と区別可能な特定の要素で示される。図37では、図35および図36と同様に、特定の要素は、濃い灰色で描かれた要素である。 FIG. 37 shows that the cell distribution image G3b at the second stage as shown in FIG. 36 is subjected to integration processing and/or division processing, and then a plurality of cell display elements indicating a plurality of estimated regions are combined. It is a figure which illustrates the acquired cell distribution image G3c of the 3rd step. The cell distribution image G3c at the third stage shown in FIG. 37 shows the first estimation region and the second estimation region on the cell morphology image G3, and the cell display element D1c after the division process and the integration process is performed. It has a superimposed aspect. Here, the cell display element D1c is shown as a specific element that can be distinguished from various parts captured in the cell morphological image G3, like the cell display elements D1a and D1b. In FIG. 37, as in FIGS. 35 and 36, the specific element is an element drawn in dark gray.

つまり、第1領域検出処理(ステップS321)、第2領域検出処理(ステップS322)、統合処理(ステップS38)、分割処理(ステップS39)および合成処理(ステップS42)等を含む一連の処理が実行される。このとき、例えば、細胞形態画像G3から1つの細胞分布画像としての第3段階の細胞分布画像G3cが取得される。これにより、ステップS3における細胞分布画像の生成が完了する。 That is, a series of processes including the first region detection process (step S321), the second region detection process (step S322), the integration process (step S38), the division process (step S39), and the combination process (step S42) are executed. To be done. At this time, for example, a third-stage cell distribution image G3c as one cell distribution image is acquired from the cell morphology image G3. This completes the generation of the cell distribution image in step S3.

図31のステップS4では、表示制御部213によって、ステップS3において生成された2以上の細胞分布画像が表示部23に表示される。このとき、ステップS3において複数種類の画像処理のうちの2種類以上の画像処理のそれぞれまでが細胞形態画像に施されることで生成される2以上の細胞分布画像が表示制御部213によって表示部23に表示される。例えば、第1〜3段階の細胞分布画像G3a〜G3c(図35から図37)が選択肢として並べられた状態で提示される態様が考えられる。さらに、例えば、第1〜3段階の細胞分布画像G3a〜G3cのもととなった細胞形態画像G3(図33)が表示されることで、ユーザーは、細胞形態画像G3と第1〜3段階の細胞分布画像G3a〜G3cとを見比べることが出来る。 In step S4 of FIG. 31, the display control unit 213 causes the display unit 23 to display the two or more cell distribution images generated in step S3. At this time, the display control unit 213 causes the display control unit 213 to display two or more cell distribution images generated by subjecting the cell morphology image to each of two or more types of image processing of the plurality of types of image processing in step S3. 23 is displayed. For example, a mode in which the cell distribution images G3a to G3c (FIGS. 35 to 37) of the first to third stages are presented in a state where they are arranged as options can be considered. Furthermore, for example, by displaying the cell morphology image G3 (FIG. 33) that is the source of the cell distribution images G3a to G3c in the first to third stages, the user can select the cell morphology image G3 and the first to third stages. Can be compared with the cell distribution images G3a to G3c.

図38は、細胞形態画像G3および第1〜3段階の細胞分布画像G3a〜G3cが並べて表示されている画面(画像指定画面とも言う)Gs1を例示する図である。画像指定画面Gs1では、例えば、ユーザーの動作に応じて、第1〜3段階の細胞分布画像G3a〜G3cのうちの所望の1つの細胞分布画像が指定され得る。なお、図38では、1つの選択肢としての第2段階の細胞分布画像G3bが指定されて、該第2段階の細胞分布画像G3bが太線の枠で囲まれている状態が示されている。なお、この状態で、確定ボタンB1が押下されると、細胞分布画像の指定が確定される。一方、クリアボタンB2が押下されると、細胞分布画像の指定が最初からやり直される。 FIG. 38 is a diagram illustrating a screen (also referred to as an image designation screen) Gs1 in which the cell morphology image G3 and the cell distribution images G3a to G3c in the first to third stages are displayed side by side. In the image designation screen Gs1, for example, one desired cell distribution image among the cell distribution images G3a to G3c in the first to third stages can be designated in accordance with the user's operation. Note that FIG. 38 shows a state in which the second-stage cell distribution image G3b is designated as one option and the second-stage cell distribution image G3b is surrounded by a bold frame. When the confirm button B1 is pressed in this state, the designation of the cell distribution image is confirmed. On the other hand, when the clear button B2 is pressed, the cell distribution image is designated again from the beginning.

ステップS5では、指定部214によって、ユーザーの動作に応じて、表示部23に表示されている2以上の細胞分布画像のうちの1つの細胞分布画像が指定される。このとき、例えば、表示部23に表示されている第1〜3段階の細胞分布画像G3a〜G3cのうちの1つの細胞分布画像が指定される態様が考えられる。このとき、例えば、選択肢としての第1〜3段階の細胞分布画像G3a〜G3cとともに細胞形態画像G3が表示されれば、ユーザーは、細胞形態画像G3と第1〜3段階の細胞分布画像G3a〜G3cとを見比べて、1つの細胞分布画像を指定することが出来る。これにより、ユーザーにとって修正し易い細胞分布画像がユーザーによって選択的に指定され得る。 In step S5, the designation unit 214 designates one cell distribution image of the two or more cell distribution images displayed on the display unit 23 according to the user's operation. At this time, for example, a mode in which one of the cell distribution images G3a to G3c of the first to third stages displayed on the display unit 23 is designated can be considered. At this time, for example, if the cell morphology image G3 is displayed together with the cell distribution images G3a to G3c of the first to third stages as options, the user can select the cell morphology image G3 and the cell distribution images G3a of the first to third stages. One cell distribution image can be designated by comparing with G3c. This allows the user to selectively designate a cell distribution image that is easy for the user to correct.

ステップS6では、修正部215によって、ユーザーの動作に応じて、ステップS5において指定された1つの細胞分布画像の少なくとも一部が修正される。これにより、細胞分布画像の生成が完了し得る。 In step S6, the correction unit 215 corrects at least a part of the one cell distribution image designated in step S5 according to the user's operation. Thereby, the generation of the cell distribution image can be completed.

ステップS7では、算出部216によって、ステップS6で生成された細胞分布画像と、ステップS2で取得された輝点分布画像とに基づいて、診断支援情報が生成される。診断支援情報としては、例えば、細胞形態画像で捉えられている特定部位における特定の生体物質の存在状態に係る解析値等が挙げられる。解析値には、例えば、細胞の特定部位の単位面積当たりの蛍光輝点の数、および1つの細胞領域当たりの蛍光輝点の数等と言った各種統計値が含まれ得る。 In step S7, the calculation unit 216 generates diagnostic assistance information based on the cell distribution image generated in step S6 and the bright spot distribution image acquired in step S2. Examples of the diagnosis support information include an analysis value related to the existence state of a specific biological substance in a specific region captured in a cell morphological image. The analyzed value may include various statistical values such as the number of fluorescent bright spots per unit area of a specific portion of a cell and the number of fluorescent bright spots per one cell region.

<(2−4)まとめ>
以上のように、一実施形態に係る画像処理装置2によれば、細胞の形態を捉えた細胞形態画像に対する異なる条件の画像処理によって、細胞の特定部位が捉えられているものと推定される領域の分布がそれぞれ示される2以上の細胞分布画像が生成されて、表示される。そして、2以上の細胞分布画像のうち、修正を加える対象として細胞分布画像がユーザーによって指定される。これにより、修正を容易に加えることが可能な細胞分布画像をユーザーが選択的に指定することが可能である。その結果、細胞の形態を捉えた細胞形態画像において細胞の特定部位が捉えられた領域の分布が示された細胞分布画像が効率良く得られる。
<(2-4) Summary>
As described above, according to the image processing device 2 according to the embodiment, a region in which a specific portion of a cell is estimated to be captured by image processing under different conditions for a cell morphological image capturing a cell morphology Two or more cell distribution images each showing the distribution of are generated and displayed. Then, of the two or more cell distribution images, the cell distribution image is designated by the user as a correction target. This allows the user to selectively designate a cell distribution image that can be easily modified. As a result, it is possible to efficiently obtain a cell distribution image in which the distribution of the region in which the specific portion of the cell is captured is shown in the cell morphology image in which the cell morphology is captured.

そして、例えば、画像処理に係る異なる条件が、2種類以上の画像処理の何番目の画像処理まで施すのかを規定するものであれば、段階的に施される2種類以上の画像処理における途中段階から最終段階までの複数段階で得られる複数の細胞分布画像が表示され得る。これにより、細胞の形態を捉えた細胞形態画像において細胞の特定部位が捉えられているものと推定される領域の分布が相互に異なる態様で示された複数の細胞分布画像が容易に取得され得る。その結果、細胞分布画像が容易且つ効率良く取得され得る。 Then, for example, if different conditions related to image processing define up to what number of image processing of two or more types of image processing is performed, an intermediate step in the two or more types of image processing performed stepwise To a final stage, a plurality of cell distribution images obtained in a plurality of stages can be displayed. This makes it possible to easily obtain a plurality of cell distribution images in which the distributions of regions presumed to capture a specific portion of a cell in a cell morphology image capturing the morphology of cells are different from each other. .. As a result, the cell distribution image can be easily and efficiently acquired.

<(3)変形例>
なお、本発明は、上述の一実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更、改良等を加えることが可能である。
<(3) Modification>
The present invention is not limited to the above-described embodiment, and various modifications, improvements, etc. can be added without departing from the scope of the present invention.

<(3−1)第1変形例>
上記一実施形態では、ユーザーによって、2以上の細胞分布画像のうちの1つの細胞分布画像が指定され、該1つの細胞分布画像の少なくとも一部が修正されることで、1つの細胞分布画像の生成が完了されたが、これに限られない。
<(3-1) First Modification>
In the above-described one embodiment, the user specifies one cell distribution image of the two or more cell distribution images, and at least a part of the one cell distribution image is corrected so that one cell distribution image The generation has been completed, but is not limited to this.

例えば、細胞の歪み度合いおよび細胞核の密集度が、器官の種類、癌の種類および悪性度、ならびに組織切片の採取方法に応じて種々相違し得る。このため、1つの細胞形態画像が、領域毎に異なる特徴を有するケースが発生し得る。 For example, the degree of strain of cells and the density of cell nuclei may vary depending on the type of organ, the type and malignancy of cancer, and the method of collecting tissue sections. Therefore, a case may occur in which one cell morphological image has different characteristics for each region.

このようなケースを想定して、例えば、領域毎に異なる細胞分布画像がベースとされて、それらの細胞分布画像の少なくとも一部が修正されることで、1つの細胞分布画像の生成が完了され得るような構成が採用されても良い。このような構成が採用されれば、細胞形態画像が領域毎に異なる特徴を有していても、ユーザーが領域毎に修正を加えるのに適した細胞分布画像を指定することが出来る。その結果、細胞分布画像が効率良く生成され得る。以下、本変形例に係る構成および動作の具体例を挙げて説明する。 Assuming such a case, for example, a cell distribution image that is different for each region is used as a base, and at least a part of these cell distribution images is corrected to complete the generation of one cell distribution image. A configuration that obtains may be adopted. If such a configuration is adopted, even if the cell morphology image has different characteristics for each region, the user can specify a cell distribution image suitable for making corrections for each region. As a result, the cell distribution image can be efficiently generated. Hereinafter, a specific example of the configuration and operation according to this modification will be described.

図39は、画像処理装置2の制御部21において記憶部25に格納されたプログラムP1Aが読み込まれて実行されることで実現される第1変形例に係る機能的な構成を例示するブロック図である。図39で示されるように、画像処理装置2は、制御部21において実現される機能的な構成として、取得部211、生成部212、表示制御部213、指定部214A、修正部215Aおよび算出部216に加えて、合成部217Aをさらに備える。 FIG. 39 is a block diagram illustrating a functional configuration according to the first modification realized by reading and executing the program P1A stored in the storage unit 25 in the control unit 21 of the image processing apparatus 2. is there. As shown in FIG. 39, the image processing device 2 has an acquisition unit 211, a generation unit 212, a display control unit 213, a designation unit 214A, a correction unit 215A, and a calculation unit as a functional configuration realized by the control unit 21. In addition to 216, a synthesis unit 217A is further provided.

指定部214Aは、ユーザーの動作に応じて、細胞形態画像の全領域または該全領域に対応する画像領域のうちの第1画像領域および第2画像領域について、第1画像領域と第1細胞分布画像との組合せ(第1組合せとも言う)、および第2画像領域と第2細胞分布画像との組合せ(第2組合せとも言う)を指定する。第1細胞分布画像および第2細胞分布画像は、表示部23に表示されている2以上の細胞分布画像を構成する画像である。 The designation unit 214A determines the first image area and the first cell distribution for the first image area and the second image area of the entire area of the cell morphology image or the image area corresponding to the entire area according to the user's operation. A combination with an image (also called a first combination) and a combination of a second image area and a second cell distribution image (also called a second combination) are designated. The first cell distribution image and the second cell distribution image are images that form two or more cell distribution images displayed on the display unit 23.

ここで、第1画像領域および第2画像領域については、例えば、ユーザーの動作に応じて任意に指定されても良いし、予め設定されていても良い。 Here, the first image area and the second image area may be arbitrarily designated, for example, according to a user's operation, or may be preset.

ユーザーの動作に応じて任意に第1画像領域および第2画像領域が指定される態様としては、例えば、ユーザーの動作に応じて、細胞形態画像に対して任意に区分けする印が描かれる態様等が挙げられる。印としては、例えば、直線および曲線の少なくとも一方からなる線、ならびに領域の外縁を規定する線および半透明な図形等が挙げられる。また、例えば、細胞形態画像が多数の小領域に予め区分けされていて、ユーザーの動作に応じて、それぞれ複数の小領域からなる第1画像領域および第2画像領域が指定されても良い。 As an aspect in which the first image area and the second image area are arbitrarily designated according to the user's action, for example, an aspect in which a mark that arbitrarily divides the cell morphological image is drawn according to the user's action, etc. Is mentioned. The mark includes, for example, a line formed of at least one of a straight line and a curved line, a line defining the outer edge of the region, and a semitransparent figure. Further, for example, the cell morphology image may be divided into a large number of small regions in advance, and the first image region and the second image region, each of which is composed of a plurality of small regions, may be designated according to the user's operation.

また、第1組合せおよび第2組合せが指定される態様については、例えば、次の態様[C1]〜[C4]が考えられる。 As for the aspect in which the first combination and the second combination are designated, for example, the following aspects [C1] to [C4] can be considered.

[C1]第1および第2画像領域に対して、それぞれ1つの細胞分布画像が指定される態様。この態様では、例えば、第1および第2画像領域は、ユーザーの動作に応じて指定されても良いし、予め設定されていても良い。 [C1] A mode in which one cell distribution image is designated for each of the first and second image regions. In this aspect, for example, the first and second image areas may be designated according to a user's operation, or may be preset.

[C2]第1画像領域と第1細胞分布画像との第1組合せが指定された後に、第2画像領域と第2細胞分布画像との第2組合せが指定される態様。 [C2] A mode in which, after the first combination of the first image area and the first cell distribution image is specified, the second combination of the second image area and the second cell distribution image is specified.

[C3]第1細胞分布画像および第2細胞分布画像が指定された後に、第1画像領域および第2画像領域が指定される態様。 [C3] A mode in which the first image area and the second image area are specified after the first cell distribution image and the second cell distribution image are specified.

[C4]第1細胞分布画像が指定され、該第1細胞分布画像の一部の画像領域が第2画像領域として指定されることで、該第2画像領域以外の残余の少なくとも一部の領域が第1画像領域として指定される態様。この態様では、例えば、第1細胞分布画像のうちの第2画像領域以外の残余の全ての領域が第1領域とされ得る。また、例えば、第1および第2画像領域を含む3以上の画像領域が設定される場合には、第1細胞分布画像に対して、3以上の画像領域のうちの第1画像領域以外の2以上の画像領域が指定されることで、該2以上の画像領域以外の残余の領域が第1画像領域として指定され得る。なお、第2細胞分布画像の指定については、例えば、第2画像領域の指定前および指定後の何れのタイミングで行われても良い。 [C4] A first cell distribution image is designated, and a partial image region of the first cell distribution image is designated as a second image region, so that at least a part of the remaining region other than the second image region is designated. Is designated as the first image area. In this aspect, for example, all the remaining regions of the first cell distribution image other than the second image region may be the first region. Further, for example, when three or more image areas including the first and second image areas are set, two or more image areas other than the first image area out of the three or more image areas are set for the first cell distribution image. By designating the above image regions, the remaining regions other than the two or more image regions can be designated as the first image region. The designation of the second cell distribution image may be performed, for example, at any timing before or after the designation of the second image area.

なお、本実施形態では、第1画像領域および第2画像領域と言った2つの画像領域を指定する一態様を挙げて説明するが、これに限られず、例えば、第1画像領域および第2画像領域を含む3以上の画像領域が指定される構成が採用されても良い。この場合には、例えば、画像領域毎に、画像領域と細胞分布画像との組合せが指定されれば良い。このような指定の態様には、例えば、2以上の画像領域からなる画像領域群と細胞分布画像との組合せが指定される態様も含まれる。 It should be noted that, in the present embodiment, an aspect in which two image areas such as the first image area and the second image area are designated will be described, but the present invention is not limited to this, and for example, the first image area and the second image area. A configuration in which three or more image areas including the area are designated may be adopted. In this case, for example, a combination of the image area and the cell distribution image may be designated for each image area. Such a designation mode includes, for example, a mode in which a combination of an image region group including two or more image regions and a cell distribution image is designated.

修正部215Aは、ユーザーの動作に応じて、第1細胞分布画像のうちの第1画像領域に対応する部分、および第2細胞分布画像のうちの第2画像領域に対応する部分を修正する。これにより、効率良く画像が修正され得る。 The correction unit 215A corrects a portion of the first cell distribution image corresponding to the first image area and a portion of the second cell distribution image corresponding to the second image area according to the operation of the user. Thereby, the image can be efficiently corrected.

合成部217Aは、指定部214Aによって指定された第1組合せおよび第2組合せに従って、修正部215Aによる修正前および修正後の少なくとも一方の状態にある、第1細胞分布画像と第2細胞分布画像とを合成することで、1つの細胞分布画像を生成する。 The synthesizing unit 217A, in accordance with the first combination and the second combination designated by the designating unit 214A, displays the first cell distribution image and the second cell distribution image in at least one state before and after the correction by the correcting unit 215A. To generate one cell distribution image.

ここで、修正部215Aによる第1および第2細胞分布画像の修正のタイミングとしては、例えば、次の態様[D1]〜[D4]が考えられる。 Here, as the timing of the correction of the first and second cell distribution images by the correction unit 215A, for example, the following modes [D1] to [D4] can be considered.

[D1]第1および第2組合せに従って、第1および第2細胞分布画像が合成されて1つの細胞分布画像(合成細胞分布画像とも言う)とされた後に、ユーザーの動作に応じて、該合成細胞分布画像に対して修正が加えられる態様。 [D1] After the first and second cell distribution images are combined into one cell distribution image (also referred to as a synthetic cell distribution image) according to the first and second combinations, the combination is performed according to the user's operation. A mode in which a correction is applied to the cell distribution image.

[D2]ユーザーの動作に応じて、第1細胞分布画像の第1画像領域に対応する部分および第2細胞分布画像の第2画像領域に対応する部分が修正された後に、第1および第2組合せに従って修正後の第1および第2細胞分布画像が合成される態様。 [D2] After the portion corresponding to the first image area of the first cell distribution image and the portion corresponding to the second image area of the second cell distribution image are corrected according to the user's action, the first and second portions are corrected. A mode in which the modified first and second cell distribution images are combined according to the combination.

[D3]ユーザーの動作に応じて第1細胞分布画像の第1画像領域に対応する部分が修正された後に、第1および第2組合せに従って、修正後の第1細胞分布画像と修正前の第2細胞分布画像とが合成された上で、第2細胞分布画像の第2画像領域に対応する部分が修正される態様。 [D3] After the portion corresponding to the first image region of the first cell distribution image is corrected according to the user's action, the corrected first cell distribution image and the uncorrected first cell distribution image are changed according to the first and second combinations. A mode in which the portion corresponding to the second image region of the second cell distribution image is corrected after the two-cell distribution image is combined.

[D4]ユーザーの動作に応じて第2細胞分布画像の第2画像領域に対応する部分が修正された後に、第1および第2組合せに従って、修正前の第1細胞分布画像と修正後の第2細胞分布画像とが合成された上で、第1細胞分布画像の第1画像領域に対応する部分が修正される態様。 [D4] After the portion corresponding to the second image area of the second cell distribution image is corrected according to the user's action, the first cell distribution image before correction and the first cell distribution image after correction are corrected according to the first and second combinations. A mode in which the portion corresponding to the first image area of the first cell distribution image is corrected after the two-cell distribution image is combined.

図40および図41は、画像処理装置2の第1変形例に係る動作フローを例示する流れ図である。ここでは、顕微鏡画像としての細胞形態画像および蛍光画像が、画像処理装置2に入力され、細胞形態画像の全領域に対して2つの画像領域(第1および第2画像領域)が指定される一例が示されている。図40で示されるように、画像処理装置2では、例えば、ステップS1〜S4,S5A〜S7Aの処理が時間順次に行われる。ステップS1〜S4については、上記一実施形態と同様な処理が行われる。 40 and 41 are flowcharts illustrating an operation flow according to the first modification of the image processing apparatus 2. Here, an example in which a cell morphology image and a fluorescence image as a microscope image are input to the image processing device 2 and two image regions (first and second image regions) are designated for the entire region of the cell morphology image It is shown. As shown in FIG. 40, in the image processing apparatus 2, for example, the processes of steps S1 to S4 and S5A to S7A are performed in time sequence. Regarding steps S1 to S4, the same processing as in the above-described embodiment is performed.

ステップS5Aでは、指定部214Aによって、ユーザーの動作に応じて、第1画像領域と第1細胞分布画像との第1組合せ、および第2画像領域と第2細胞分布画像との第2組合せが指定される。第1および第2細胞分布画像は、ステップS4において表示部23に表示された画像である。 In step S5A, the designation unit 214A designates a first combination of the first image region and the first cell distribution image and a second combination of the second image region and the second cell distribution image according to the user's action. To be done. The first and second cell distribution images are the images displayed on the display unit 23 in step S4.

図41は、ステップS5Aにおける処理の一動作フローを例示する流れ図である。図41では、上記態様[C1]に沿った一動作フローが示されている。図41で示されるように、ステップS5Aでは、例えば、ステップS51A,S52Aの処理が時間順次に行われる。ここでは、ステップS1において、細胞形態画像G4(図42)が取得され、ステップS4において、表示部23上に、ステップS1で取得された細胞形態画像G4(図42)が表示されるとともに、ステップS3において生成された第1〜3段階の細胞分布画像G4a〜G4c(図43)が選択肢として表示されているものとする。図43は、細胞形態画像G4および第1〜3段階の細胞分布画像G4a〜G4cが並べて表示されている画面(領域画像指定画面とも言う)Gs2を例示する図である。 FIG. 41 is a flow chart exemplifying one operation flow of the processing in step S5A. FIG. 41 shows an operation flow according to the above-mentioned aspect [C1]. As shown in FIG. 41, in step S5A, for example, the processes of steps S51A and S52A are performed in time sequence. Here, the cell morphological image G4 (FIG. 42) is acquired in step S1, the cell morphological image G4 (FIG. 42) acquired in step S1 is displayed on the display unit 23 in step S4, and the step It is assumed that the first to third stage cell distribution images G4a to G4c (FIG. 43) generated in S3 are displayed as options. FIG. 43 is a diagram illustrating a screen (also referred to as a region image designation screen) Gs2 in which the cell morphology image G4 and the cell distribution images G4a to G4c in the first to third stages are displayed side by side.

図41のステップS51Aでは、ユーザーの動作に応じて第1および第2画像領域が指定される。例えば、領域画像指定画面Gs2(図43)上において、図44で示されるように、細胞形態画像G4を区分けするマークとしての曲線状の破線L1がユーザーの動作に応じて描かれる。これにより、例えば、破線L1の左方が第1画像領域A1として指定され、破線L1の右方が第2画像領域A2として指定される。このとき、領域画像指定画面Gs2には、例えば、図45で示されるように、第1および第2画像領域がユーザーによって識別可能となるように、第1画像領域A1に表示要素D1が付され、第2画像領域A2に表示要素D2が付される。そして、破線L1が描かれた上で確定ボタンB1が押下されると、第1および第2画像領域A1,A2の指定が確定されて、ステップS52Aに進む。 In step S51A of FIG. 41, the first and second image areas are designated according to the operation of the user. For example, on the area image designation screen Gs2 (FIG. 43), as shown in FIG. 44, a curved broken line L1 as a mark for dividing the cell morphology image G4 is drawn according to the user's operation. Thereby, for example, the left side of the broken line L1 is designated as the first image area A1, and the right side of the broken line L1 is designated as the second image area A2. At this time, on the area image designation screen Gs2, for example, as shown in FIG. 45, the display element D1 is attached to the first image area A1 so that the first and second image areas can be identified by the user. , And the display element D2 is attached to the second image area A2. When the confirm button B1 is pressed after the broken line L1 is drawn, the designation of the first and second image areas A1 and A2 is confirmed, and the process proceeds to step S52A.

ステップS52Aでは、ユーザーの動作に応じて、第1および第2画像領域それぞれに対して組み合わされる細胞分布画像が指定される。図45および図46には、領域画像指定画面Gs2において細胞分布画像が指定される様子が示されている。例えば、領域画像指定画面Gs2において、第1画像領域A1に係る表示要素D1が指定によって反転表示された状態で、第1〜3段階の細胞分布画像G4a〜G4cのうちの所望の1つの細胞分布画像が第1画像領域A1に対して指定され得る。このとき、例えば、図46で示されるように、領域画像指定画面Gs2において、第1画像領域A1に対して指定された細胞分布画像が太線の枠で囲まれた上に「エリア1」と言う表示要素が付された状態とされ、第2画像領域A2に対して指定された細胞分布画像が太線の枠で囲まれた上に「エリア2」と言う表示要素が付された状態とされる。そして、確定ボタンB1が押下されると、第1および第2画像領域それぞれに対して組み合わされている細胞分布画像の指定が確定される。図46で示されている領域画像指定画面Gs2の状態で、確定ボタンB1が押下されると、第1画像領域A1と第3段階の細胞分布画像との第1組合せ、および第2画像領域A2と第1段階の細胞分布画像との第2組合せの指定が確定される。なお、領域画像指定画面Gs2において、クリアボタンB2が押下されると、細胞分布画像の指定が最初からやり直される。 In step S52A, a cell distribution image to be combined with each of the first and second image regions is designated according to the user's operation. 45 and 46 show how a cell distribution image is designated on the area image designation screen Gs2. For example, in the area image designation screen Gs2, a desired one cell distribution of the cell distribution images G4a to G4c in the first to third stages in a state where the display element D1 related to the first image area A1 is highlighted by designation. An image may be designated for the first image area A1. At this time, for example, as shown in FIG. 46, in the area image specifying screen Gs2, the cell distribution image specified for the first image area A1 is surrounded by a thick frame and is referred to as “area 1”. A display element is added, and a cell distribution image designated for the second image area A2 is surrounded by a thick frame and a display element called "area 2" is added. .. Then, when the confirm button B1 is pressed, the designation of the cell distribution image combined with each of the first and second image regions is confirmed. When the confirm button B1 is pressed in the state of the area image designation screen Gs2 shown in FIG. 46, the first combination of the first image area A1 and the cell distribution image of the third stage, and the second image area A2. The designation of the second combination of the first stage cell distribution image and the second stage cell distribution image is confirmed. When the clear button B2 is pressed on the area image designation screen Gs2, the cell distribution image is designated again from the beginning.

次に、図40のステップS6Aでは、合成部217Aによって、指定部214Aによって指定された第1および第2組合せに従って、第1細胞分布画像と第2細胞分布画像とが合成されることで、1つの合成細胞分布画像が生成される。図47は、合成細胞分布画像G4dを例示する図である。ここで、合成細胞分布画像G4dは、第1画像領域A1に第3段階の細胞分布画像G4cが適用され、第2画像領域A2に第1段階の細胞分布画像G4aが適用されることで、第1段階の細胞分布画像G4aと第3段階の細胞分布画像G4cとが合成されることで生成される。また、ステップS6Aでは、修正部215Aによって、ユーザーの動作に応じて、ここで生成された1つの合成細胞分布画像G4dの少なくとも一部が修正される。これにより、細胞分布画像の生成が完了し得る。 Next, in step S6A of FIG. 40, the synthesizing unit 217A synthesizes the first cell distribution image and the second cell distribution image according to the first and second combinations designated by the designating unit 214A, thereby Two synthetic cell distribution images are generated. FIG. 47 is a diagram illustrating a synthetic cell distribution image G4d. Here, in the synthetic cell distribution image G4d, the third-stage cell distribution image G4c is applied to the first image area A1, and the first-stage cell distribution image G4a is applied to the second image area A2. It is generated by synthesizing the cell distribution image G4a of the first stage and the cell distribution image G4c of the third stage. Further, in step S6A, at least a part of one synthetic cell distribution image G4d generated here is corrected by the correction unit 215A according to the operation of the user. Thereby, the generation of the cell distribution image can be completed.

ステップS7Aでは、上記一実施形態に係るステップS7と同様に、算出部216によって、ステップS6Aで生成された細胞分布画像と、ステップS2で取得された輝点分布画像とに基づいて、細胞領域に対する特定の生体物質の存在状態に係る解析値が算出される。 In step S7A, similar to step S7 according to the above-described embodiment, the calculation unit 216 determines a cell region based on the cell distribution image generated in step S6A and the bright spot distribution image acquired in step S2. An analysis value related to the existence state of the specific biological substance is calculated.

また、図48は、図41のステップS5Aにおける処理の代わりに実施されるステップSP5Aにおける処理の一動作フローを例示する流れ図である。図48では、上記態様[C4]に沿った一動作フローが示されている。図48で示されるように、ステップSP5Aでは、例えば、ステップSP51A〜SP53Aの処理が時間順次に行われる。ここでは、ステップS1において、細胞形態画像G4(図42)が取得され、ステップS4において、表示部23上に、ステップS1で取得された細胞形態画像G4(図42)が表示されるとともに、ステップS3において生成された第1〜3段階の細胞分布画像G4a〜G4c(図43)が選択肢として表示されているものとする。図49は、細胞形態画像G4および第1〜3段階の細胞分布画像G4a〜G4cが並べて表示されている画面(領域画像指定画面とも言う)Gs3を例示する図である。 Further, FIG. 48 is a flow chart exemplifying one operation flow of the process in step SP5A which is performed instead of the process in step S5A of FIG. FIG. 48 shows one operation flow along the above-mentioned aspect [C4]. As shown in FIG. 48, in step SP5A, for example, the processing of steps SP51A to SP53A is performed in time sequence. Here, the cell morphological image G4 (FIG. 42) is acquired in step S1, the cell morphological image G4 (FIG. 42) acquired in step S1 is displayed on the display unit 23 in step S4, and the step It is assumed that the first to third stage cell distribution images G4a to G4c (FIG. 43) generated in S3 are displayed as options. FIG. 49 is a diagram illustrating a screen (also referred to as a region image designation screen) Gs3 in which the cell morphology image G4 and the cell distribution images G4a to G4c in the first to third stages are displayed side by side.

図48のステップSP51Aでは、ユーザーの動作に応じて、1つ目の細胞分布画像が第1細胞分布画像として指定される。例えば、図49および図50には、領域画像指定画面Gs3において第1細胞分布画像が指定される様子が示されている。例えば、図49で示される領域画像指定画面Gs3において、第1〜3段階の細胞分布画像G4a〜G4cのうちの所望の1つの細胞分布画像が第1細胞分布画像として指定される。このとき、例えば、図50で示されるように、第1細胞分布画像として指定された細胞分布画像が太線の枠で囲まれた上に「エリア1」と言う表示要素が付された状態とされる。そして、確定ボタンB1が押下されると、第1画像領域に対して組み合わされる細胞分布画像の指定が確定される。例えば、図50で示されている領域画像指定画面Gs3の状態で、確定ボタンB1が押下されると、第1画像領域A1と第3段階の細胞分布画像G4cとの第1組合せの指定が確定される。この場合、図51で示されるように、画像領域の指定が可能な状態に遷移する。なお、領域画像指定画面Gs3において、例えば、クリアボタンB2が押下されると、細胞分布画像の指定が最初からやり直される。 In step SP51A of FIG. 48, the first cell distribution image is designated as the first cell distribution image according to the user's operation. For example, FIGS. 49 and 50 show a state in which the first cell distribution image is designated on the area image designation screen Gs3. For example, in the area image designation screen Gs3 shown in FIG. 49, a desired one cell distribution image among the cell distribution images G4a to G4c in the first to third stages is designated as the first cell distribution image. At this time, for example, as shown in FIG. 50, the cell distribution image designated as the first cell distribution image is surrounded by a thick frame and a display element called "Area 1" is added to the cell distribution image. It Then, when the confirm button B1 is pressed, the designation of the cell distribution image to be combined with the first image region is confirmed. For example, when the confirm button B1 is pressed in the state of the region image designation screen Gs3 shown in FIG. 50, designation of the first combination of the first image region A1 and the third-stage cell distribution image G4c is confirmed. To be done. In this case, as shown in FIG. 51, the state transits to a state in which the image area can be designated. In the area image designation screen Gs3, for example, when the clear button B2 is pressed, the cell distribution image is designated again from the beginning.

次に、ステップSP52Aでは、ユーザーの動作に応じて、ステップS51Aで指定された第1細胞分布画像の一部の画像領域が第2画像領域A2として指定される。このとき、例えば、第1細胞分布画像のうちの該第2画像領域A2を除く領域が第1画像領域A1として確定される。ここでは、領域画像指定画面Gs3(図51)上において、図52で示されるように、第1細胞分布画像としての第3段階の細胞分布画像G4cに対して、第2画像領域A2を指定するマークとしての破線L2がユーザーの動作に応じて描かれる。これにより、例えば、破線L2で囲まれた領域が第2画像領域A2として指定され、破線L2で囲まれていない残余の部分が第1画像領域A1として指定される。このとき、例えば、第1細胞分布画像としての第3段階の細胞分布画像G4cに対して、第1画像領域A1を指定するマークとしての太線がユーザーの動作に応じて描かれる。そして、例えば、太線および破線L2が描かれた上で確定ボタンB1が押下されると、第1および第2画像領域A1,A2の指定が確定されて、ステップSP53Aに進む。 Next, in step SP52A, a part of the image area of the first cell distribution image specified in step S51A is specified as the second image area A2 according to the user's operation. At this time, for example, the area excluding the second image area A2 in the first cell distribution image is determined as the first image area A1. Here, on the region image designation screen Gs3 (FIG. 51), as shown in FIG. 52, the second image region A2 is designated with respect to the third-stage cell distribution image G4c as the first cell distribution image. A broken line L2 as a mark is drawn according to the user's action. Thereby, for example, the area surrounded by the broken line L2 is designated as the second image area A2, and the remaining portion not surrounded by the broken line L2 is designated as the first image area A1. At this time, for example, a thick line as a mark designating the first image area A1 is drawn according to the user's operation on the cell distribution image G4c at the third stage as the first cell distribution image. Then, for example, when the confirm button B1 is pressed after drawing the thick line and the broken line L2, the designation of the first and second image areas A1 and A2 is confirmed, and the process proceeds to step SP53A.

次に、ステップSP53Aでは、ユーザーの動作に応じて、第1細胞分布画像の一部の画像領域としての第2画像領域A2に対して組み合わされる細胞分布画像が指定される。図53には、領域画像指定画面Gs3において第2画像領域A2に対する細胞分布画像が指定される様子が示されている。例えば、領域画像指定画面Gs3において、第1細胞分布画像上において第2画像領域A2が指定された状態で、第1〜3段階の細胞分布画像G4a〜G4cのうちの所望の1つの細胞分布画像が第2画像領域A2に対して指定され得る。このとき、例えば、図53で示されるように、領域画像指定画面Gs3が、第2画像領域A2に対して指定された細胞分布画像に、第2画像領域A2を囲むように規定する破線の輪郭線および「エリア2」と言う表示要素が付された状態となる。そして、確定ボタンB1が押下されると、第1および第2画像領域A1,A2それぞれに対して組み合わされる細胞分布画像の指定が確定される。図53で示されている領域画像指定画面Gs3の状態で、確定ボタンB1が押下されると、第1画像領域A1と第3段階の細胞分布画像G4cとの第1組合せ、および第2画像領域A2と第1段階の細胞分布画像G4aとの第2組合せの指定が確定される。 Next, in step SP53A, a cell distribution image to be combined with the second image area A2 as a partial image area of the first cell distribution image is designated according to the user's operation. FIG. 53 shows how the cell distribution image for the second image region A2 is designated on the region image designation screen Gs3. For example, in the area image designation screen Gs3, in the state where the second image area A2 is designated on the first cell distribution image, a desired one cell distribution image among the cell distribution images G4a to G4c in the first to third stages Can be specified for the second image area A2. At this time, for example, as shown in FIG. 53, the area image designation screen Gs3 defines a contour of a broken line that defines the cell distribution image designated for the second image area A2 so as to surround the second image area A2. A line and a display element called "area 2" are attached. Then, when the confirm button B1 is pressed, the designation of the cell distribution image to be combined with each of the first and second image areas A1 and A2 is confirmed. When the confirm button B1 is pressed in the state of the area image designation screen Gs3 shown in FIG. 53, the first combination of the first image area A1 and the cell distribution image G4c of the third stage, and the second image area. The designation of the second combination of A2 and the first-stage cell distribution image G4a is confirmed.

<(3−2)第2変形例>
上記一実施形態および上記第1変形例では、時間順次に施される複数種類の画像処理のうちの2種類以上の画像処理のそれぞれまでが細胞形態画像に施されることで2以上の細胞分布画像が生成され、該2以上の細胞分布画像が選択肢として表示された。しかしながら、これに限られない。
<(3-2) Second Modification>
In the above-mentioned one embodiment and the above-mentioned 1st modification, two or more cell distribution is performed by performing up to each of two or more types of image processing of a plurality of types of image processing performed time-sequentially on a cell morphology image. An image was generated and the two or more cell distribution images were displayed as options. However, it is not limited to this.

例えば、癌の種類および悪性度ならびに器官の種類等に応じて、特定部位としての細胞核の外観上の特徴等が相違し得る。外観上の特徴には、例えば、大きさ、密集度、色彩および形状等に係る特徴が含まれ得る。つまり、細胞形態画像における、特定部位としての細胞核の外観上の特徴等が種々異なり得る。このため、細胞形態画像から特定部位に係る推定領域を精度良く検出するための画像処理の条件が変動し得る。 For example, the appearance characteristics of the cell nucleus as a specific site may differ depending on the type and malignancy of cancer, the type of organ, and the like. Appearance features may include, for example, features related to size, density, color, shape, and the like. That is, the appearance feature of the cell nucleus as the specific portion in the cell morphological image may be different. Therefore, the condition of the image processing for accurately detecting the estimated region related to the specific portion from the cell morphology image may change.

このようなケースを想定して、例えば、同一の画像処理において、処理条件を規定するパラメータの異なる2以上の基準値に従って細胞形態画像から推定領域が検出されることで、少なくとも2つの細胞分布画像が生成されても良い。そして、該少なくとも2つの細胞分布画像を含む2以上の細胞分布画像が選択肢として表示されても良い。このような構成によれば、様々な特徴を有する細胞形態画像から細胞分布画像を生成する場合であっても、ユーザーが修正を加えるのに適した細胞分布画像を指定することが出来る。その結果、細胞分布画像が効率良く生成され得る。以下、第2変形例に係る構成および動作の具体例を挙げて説明する。 Assuming such a case, for example, in the same image processing, at least two cell distribution images are detected by detecting an estimated region from a cell morphology image according to two or more reference values with different parameters that define processing conditions. May be generated. Then, two or more cell distribution images including the at least two cell distribution images may be displayed as options. With such a configuration, even when the cell distribution image is generated from the cell morphology images having various characteristics, the user can specify the cell distribution image suitable for correction. As a result, the cell distribution image can be efficiently generated. Hereinafter, a specific example of the configuration and operation according to the second modification will be described.

本変形例では、図30で示されるように、画像処理装置2の制御部21において記憶部25に格納されたプログラムP1Bが読み込まれて実行されることで本変形例に係る機能的な構成が実現される。本変形例では、画像処理装置2は、制御部21において実現される機能的な構成として、取得部211、生成部212B、表示制御部213B、指定部214、修正部215および算出部216を備える。 In this modification, as shown in FIG. 30, the control unit 21 of the image processing apparatus 2 reads and executes the program P1B stored in the storage unit 25 so that the functional configuration according to this modification is realized. Will be realized. In this modification, the image processing apparatus 2 includes an acquisition unit 211, a generation unit 212B, a display control unit 213B, a designation unit 214, a correction unit 215, and a calculation unit 216 as a functional configuration realized by the control unit 21. ..

生成部212Bは、1種類以上の画像処理のうちの少なくとも1つの種類の画像処理について、1種類以上のパラメータのそれぞれについての少なくとも2つの基準値に従って細胞形態画像から推定領域をそれぞれ検出する。その結果、選択肢として表示させるための2以上の細胞分布画像のうちの少なくとも2つの細胞分布画像が生成される。このような構成によれば、細胞形態画像の特徴に拘わらず、該細胞形態画像から種々の態様の細胞分布画像が生成され得る。生成部212Bでは、例えば、各パラメータの2以上の基準値それぞれについて、1種類以上の画像処理のうちの最終の画像処理まで施された処理結果としての最終細胞分布画像のみが選択肢として表示されるために生成され得る。さらに、生成部212Bでは、例えば、各パラメータの2以上の基準値それぞれについて、1種類以上の画像処理のうちの途中の画像処理まで施された処理結果としての中間細胞分布画像が選択肢として表示されるために生成されても良い。 The generation unit 212B detects an estimated region from the cell morphology image according to at least two reference values for each of the one or more types of parameters for at least one type of the one or more types of image processing. As a result, at least two cell distribution images of the two or more cell distribution images to be displayed as options are generated. With such a configuration, regardless of the characteristics of the cell morphology image, cell distribution images of various aspects can be generated from the cell morphology image. In the generation unit 212B, for example, for each of two or more reference values of each parameter, only the final cell distribution image as a processing result performed up to the final image processing of one or more types of image processing is displayed as an option. Can be generated for. Further, in the generation unit 212B, for example, for each of two or more reference values of each parameter, an intermediate cell distribution image as a processing result obtained by performing image processing in the middle of one or more types of image processing is displayed as an option. May be generated for.

ここで、1種類以上のパラメータには、例えば、細胞形態画像における推定領域についての、外観上の1種類以上の特徴に係るパラメータ、分割の度合いに係るパラメータ、および膨張収縮処理の度合いに係るパラメータのうちの少なくとも1種類のパラメータが含まれ得る。これにより、細胞形態画像から細胞分布画像が生成される際に、種々の特徴の変動に対応することが可能となる。 Here, the one or more types of parameters include, for example, a parameter relating to one or more types of appearance features, a parameter relating to the degree of division, and a parameter relating to the degree of expansion/contraction processing of the estimated region in the cell morphology image. At least one of the parameters may be included. Thereby, when a cell distribution image is generated from a cell morphology image, it becomes possible to deal with various characteristic changes.

さらに、外観上の1種類以上の特徴が、例えば、大きさ、濃さおよび形状のうちの少なくとも1種類の特徴を含んでいれば、外観上の特徴が、定量的な値で容易に表され得る。そして、大きさに係る特徴には、例えば、面積、周囲の長さ、長軸の長さおよび短軸の長さのうちの1種類以上の特徴が含まれ得る。濃さに係る特徴には、例えば、色相、明度、彩度、輝度、色差および各色の輝度のうちの1種類以上の特徴が含まれ得る。形状に係る特徴には、例えば、円形度、扁平率およびアスペクト比のうちの1種類以上の特徴が含まれ得る。これにより、外観上の特徴が、定量的な値で比較的容易に精度良く表され得る。 Furthermore, if the one or more appearance features include, for example, at least one of size, density, and shape, the appearance features are easily represented by a quantitative value. obtain. The size-related feature may include, for example, one or more types of features of area, perimeter length, major axis length, and minor axis length. The characteristics related to the depth may include, for example, one or more kinds of characteristics among hue, brightness, saturation, luminance, color difference, and luminance of each color. The shape-related features may include, for example, one or more features of circularity, flatness, and aspect ratio. This allows the appearance feature to be relatively easily and accurately expressed with a quantitative value.

ここで、生成部212Bにおいて、例えば、推定領域の大きさ、濃さおよび形状に係るパラメータの値が基準値未満であれば、適正状態で検出された推定領域ではないものと判定される構成が採用され得る。 Here, in the generation unit 212B, for example, if the values of the parameters related to the size, density, and shape of the estimated region are less than the reference values, it is determined that the estimated region is not detected in the proper state. Can be adopted.

図54は、パラメータの種類毎の複数の基準値を例示する図である。 FIG. 54 is a diagram illustrating a plurality of reference values for each type of parameter.

図54で示されるように、推定領域の大きさを示すパラメータとして、例えば、面積についての基準値が、“大きな値、中程度の値および小さな値”の3つの値の間で選択的に設定される場合が考えられる。また、分割の度合いを示すパラメータとして、例えば、面積についての基準値が、“大きな値、中程度の値および小さな値”の3つの値の間で選択的に設定される場合も考えられる。ここでは、判定対象としての推定領域が、適正状態ではなく未分割状態で検出されたものであるとの判定がなされる際に、推定領域の大きさを示すパラメータとして面積等が採用される場合が考えられる。なお、推定領域の面積が画素数で表現されれば、例えば、小さな面積が1000ピクセル、中程度の面積が2000ピクセル、および大きな面積が3000ピクセル等と言った値に設定され得る。 As shown in FIG. 54, as a parameter indicating the size of the estimated region, for example, a reference value for the area is selectively set between three values of “large value, medium value, and small value”. It is possible that Further, as a parameter indicating the degree of division, for example, a case where the reference value for the area is selectively set among three values of “large value, medium value, and small value” can be considered. Here, when the estimated region as the determination target is determined not to be in the proper state but to be detected in the undivided state, the area or the like is used as the parameter indicating the size of the estimated region. Is possible. If the area of the estimated region is expressed by the number of pixels, for example, a small area may be set to 1000 pixels, a medium area to 2000 pixels, and a large area to 3000 pixels.

また、例えば、画像処理によって一旦検出された推定領域に対して一様に膨張処理または収縮処理が施される構成であれば、図54で示されるように、膨張・収縮の度合いを示すパラメータとして、複数段階の膨張率または収縮率等が設定される場合が考えられる。ここで、膨張・収縮の度合いを示すパラメータとして、例えば、膨張率が3つの基準値の間で選択的に設定される場合が考えられる。なお、膨張率に係る3つの基準値は、例えば、−20%、+20%および+50%等と言った値に設定され得る。 Further, for example, in the case where the estimated region once detected by the image processing is uniformly expanded or contracted, the parameter indicating the degree of expansion or contraction is set as shown in FIG. It is conceivable that a plurality of stages of expansion rates or contraction rates are set. Here, as a parameter indicating the degree of expansion/contraction, for example, the expansion rate may be selectively set between three reference values. The three reference values related to the expansion rate can be set to values such as -20%, +20%, and +50%.

また、図54で示されるように、推定領域の形状を示すパラメータとして、例えば、円形度についての基準値が、“高い値、中程度の値および低い値”の3つの値の間で選択的に設定される場合が考えられる。ここで、真円の円形度が1となるように、円形度Dcが、面積Sおよび周囲の長さLを用いたDc=4π×S/Lの式によって算出される場合には、例えば、円形度の低い値が0.4、円形度の中程度の値が0.6、および円形度の高い値が0.8等と言った値に設定され得る。 Further, as shown in FIG. 54, as the parameter indicating the shape of the estimated region, for example, the reference value for the circularity is selectively set between three values of “high value, medium value and low value”. It may be set to. Here, when the circularity Dc is calculated by the equation of Dc=4π×S/L 2 using the area S and the peripheral length L so that the circularity of the perfect circle becomes 1, for example, , A low circularity value of 0.4, a medium circularity value of 0.6, a high circularity value of 0.8, and so on.

また、図54で示されるように、濃さを示すパラメータとして、例えば、各色の輝度についての基準値が、“大きな値、中程度の値および小さな値”の3つの値の間で選択的に設定される場合が考えられる。ここで、輝度が256段階の階調で表される場合には、例えば、輝度値の大きな値が150、輝度値の中程度の値が100、および輝度値の小さな値が50等と言った値に設定され得る。 Further, as shown in FIG. 54, as the parameter indicating the darkness, for example, the reference value for the luminance of each color is selectively set between three values of “large value, medium value and small value”. It may be set. Here, when the brightness is represented by 256 gradations, for example, a large brightness value is 150, a medium brightness value is 100, and a small brightness value is 50. Can be set to a value.

表示制御部213Bは、生成部212Bによって相互にパラメータの基準値が異なる少なくとも1種類の画像処理を含む1以上の画像処理によって得られた少なくとも2つの細胞分布画像を表示部23に表示させる。少なくとも2つの細胞分布画像には、例えば、パラメータが相互に異なる少なくとも1種類の画像処理を含む1種類以上の画像処理が細胞形態画像に対して施されることで得られる少なくとも2つの最終細胞分布画像が含まれ得る。さらに、少なくとも2つの細胞分布画像には、例えば、細胞形態画像に対して、パラメータが相互に異なる少なくとも1種類の画像処理を含む1種類以上の画像処理のうちの途中の画像処理まで施されることで得られる少なくとも2つの中間細胞分布画像が含まれても良い。 The display control unit 213B causes the display unit 23 to display at least two cell distribution images obtained by one or more image processings including at least one type of image processing in which the reference values of the parameters are mutually different by the generation unit 212B. At least two final cell distributions obtained by subjecting at least two cell distribution images to, for example, one or more types of image processing including at least one type of image processing having mutually different parameters Images may be included. Further, at least two cell distribution images are subjected to, for example, image processing in the middle of one or more types of image processing including at least one type of image processing having mutually different parameters with respect to the cell morphology image. At least two intermediate cell distribution images obtained by the above may be included.

さらに、本変形例では、例えば、1以上の画像処理において、処理条件を規定する2種類以上のパラメータの間における2組以上の基準値の組合せに従って、細胞形態画像から推定領域が検出されることで、少なくとも2つの細胞分布画像が生成されても良い。そして、該少なくとも2つの細胞分布画像を含む2以上の細胞分布画像が選択肢として表示されても良い。このような構成によれば、種々の特徴を有する細胞形態画像から細胞分布画像を生成する場合であっても、ユーザーが修正を加えるのに適した細胞分布画像が選択肢として提示され得る。その結果、細胞分布画像が効率良く生成され得る。 Furthermore, in the present modification, for example, in one or more image processes, the estimated region is detected from the cell morphology image according to a combination of two or more sets of reference values between two or more types of parameters that define the processing conditions. Thus, at least two cell distribution images may be generated. Then, two or more cell distribution images including the at least two cell distribution images may be displayed as options. According to such a configuration, even when the cell distribution image is generated from the cell morphological images having various characteristics, the cell distribution image suitable for the user to correct can be presented as an option. As a result, the cell distribution image can be efficiently generated.

このような構成が採用される場合には、生成部212Bは、1種類以上の画像処理に含まれる少なくとも1種類の画像処理のうちの少なくとも2種類の画像処理について、2種類以上のパラメータの間における2組以上の基準値の組合せに従って細胞形態画像から推定領域をそれぞれ検出する。その結果、選択肢として表示させるための2以上の細胞分布画像のうちの少なくとも2つの細胞分布画像が生成される。このような構成によっても、細胞形態画像の特徴に拘わらず、該細胞形態画像から種々の態様の細胞分布画像が生成され得る。 When such a configuration is adopted, the generation unit 212B determines that at least two types of image processing of at least one type of image processing included in one or more types of image processing are performed between two or more types of parameters. Each estimated region is detected from the cell morphology image according to the combination of two or more reference values in. As a result, at least two cell distribution images of the two or more cell distribution images to be displayed as options are generated. With such a configuration, cell distribution images of various aspects can be generated from the cell morphology image regardless of the characteristics of the cell morphology image.

なお、上記構成が採用される場合、生成部212Bでは、例えば、2種類以上のパラメータの間における2組以上の基準値の組合せそれぞれについて、2種類以上の画像処理のうちの最終の画像処理まで施された処理結果としての最終細胞分布画像のみが選択肢として表示させるために生成され得る。さらに、生成部212Bでは、例えば、2種類以上のパラメータの間における2組以上の基準値の組合せそれぞれについて、2種類以上の画像処理のうちの途中の画像処理まで施された処理結果としての中間細胞分布画像が選択氏として表示させるために生成されても良い。 In the case where the above configuration is adopted, the generation unit 212B, for example, for each combination of two or more sets of reference values between two or more types of parameters, up to the final image processing of the two or more types of image processing. Only the final cell distribution image as a result of the applied processing may be generated for display as an option. Further, in the generation unit 212B, for example, for each combination of two or more sets of reference values between two or more types of parameters, an intermediate image processing result obtained by performing image processing in the middle of two or more types of image processing. A cell distribution image may be generated for display as the selection.

<(3−3)第3変形例>
上記第2変形例では、同一の画像処理において、処理条件を規定するパラメータの異なる2以上の基準値に従って細胞形態画像から推定領域が検出されることで、少なくとも2つの細胞分布画像が生成されたが、これに限られない。
<(3-3) Third Modification>
In the second modified example, in the same image processing, at least two cell distribution images are generated by detecting the estimated region from the cell morphology image according to two or more reference values having different parameters that define the processing conditions. However, it is not limited to this.

例えば、細胞形態画像については、同じ臓器や器官が捉えられたものであっても、癌腫の有無、癌腫の種類および組織切片の採取方法等によって、細胞形態画像における外観上の特徴が大きく異なる。そこで、例えば、癌の状態がパターン化されて、各パターンに応じた推定領域の検出に適した画像処理が事前に準備され、細胞形態画像に対して複数のパターンの画像処理がそれぞれ施されることで得られる複数の細胞分布画像が選択肢として表示されても良い。 For example, regarding the cell morphology image, even if the same organ or the same organ is captured, the appearance characteristics of the cell morphology image greatly differ depending on the presence or absence of a carcinoma, the type of the carcinoma, the method of collecting the tissue section, and the like. Therefore, for example, the cancer state is patterned, image processing suitable for detection of an estimated region corresponding to each pattern is prepared in advance, and image processing of a plurality of patterns is performed on the cell morphology image, respectively. A plurality of cell distribution images obtained by doing so may be displayed as options.

具体的には、例えば、細胞形態画像における外観上の1種類以上の特徴に対応するための複数のパターンの画像処理によって、細胞形態画像から推定領域をそれぞれ検出することで、少なくとも2つの細胞分布画像が生成されても良い。そして、該少なくとも2つの細胞分布画像を含む2以上の細胞分布画像が選択肢として表示されても良い。このような構成によれば、種々の特徴を有する細胞形態画像から細胞分布画像を生成する場合であっても、ユーザーが修正を加えるのに適した細胞分布画像が選択肢として提示され得る。その結果、細胞分布画像が効率良く生成され得る。以下、第3変形例に係る構成および動作の具体例を挙げて説明する。 Specifically, for example, by performing image processing of a plurality of patterns to correspond to one or more types of appearance features in the cell morphology image, each of the estimated regions is detected from the cell morphology image, so that at least two cell distributions are obtained. An image may be generated. Then, two or more cell distribution images including the at least two cell distribution images may be displayed as options. According to such a configuration, even when the cell distribution image is generated from the cell morphological images having various characteristics, the cell distribution image suitable for the user to correct can be presented as an option. As a result, the cell distribution image can be efficiently generated. Hereinafter, a specific example of the configuration and operation according to the third modification will be described.

本変形例では、図30で示されるように、画像処理装置2の制御部21において記憶部25に格納されたプログラムP1Cが読み込まれて実行されることで本変形例に係る機能的な構成が実現される。本変形例では、画像処理装置2は、制御部21において実現される機能的な構成として、取得部211、生成部212C、表示制御部213C、指定部214、修正部215および算出部216を備える。 In the present modification, as shown in FIG. 30, the control unit 21 of the image processing apparatus 2 reads and executes the program P1C stored in the storage unit 25, whereby the functional configuration according to the present modification is achieved. Will be realized. In this modification, the image processing apparatus 2 includes an acquisition unit 211, a generation unit 212C, a display control unit 213C, a designation unit 214, a correction unit 215, and a calculation unit 216 as a functional configuration realized by the control unit 21. ..

生成部212Cは、細胞形態画像における推定領域の外観上の1種類以上の特徴に対応するための複数のパターンの画像処理によって、細胞形態画像から推定領域をそれぞれ検出することで、2以上の細胞分布画像のうちの少なくとも2つの細胞分布画像を生成する。そして、このとき、表示制御部213Cは、生成部212Cによって相互に異なるパターンの画像処理によって得られた少なくとも2つの細胞分布画像を表示部23に表示させる。 The generation unit 212C detects each estimated region from the cell morphological image by performing image processing of a plurality of patterns to correspond to one or more types of features on the appearance of the estimated region in the cell morphological image, thereby generating two or more cells. At least two cell distribution images among the distribution images are generated. Then, at this time, the display control unit 213C causes the display unit 23 to display at least two cell distribution images obtained by the image generation processing of the patterns different from each other by the generation unit 212C.

このような構成によっても、細胞形態画像の特徴に拘わらず、該細胞形態画像から種々の態様の細胞分布画像が生成され得る。生成部212Cでは、例えば、各パターンの画像処理について、1種類以上の画像処理のうちの最終の画像処理まで施された処理結果としての最終細胞分布画像のみが選択肢として表示させるために生成され得る。さらに、生成部212Cでは、例えば、各パターンの画像処理について、1種類以上の画像処理のうちの途中の画像処理まで施された処理結果としての中間細胞分布画像が選択肢として表示させるために生成されても良い。 With such a configuration, cell distribution images of various aspects can be generated from the cell morphology image regardless of the characteristics of the cell morphology image. In the generation unit 212C, for example, for the image processing of each pattern, only the final cell distribution image as a processing result performed up to the final image processing of one or more types of image processing can be generated to be displayed as options. .. Further, in the generation unit 212C, for example, for the image processing of each pattern, an intermediate cell distribution image as a processing result performed up to image processing in the middle of one or more types of image processing is generated to be displayed as an option. May be.

ここで、外観上の1種類以上の特徴には、例えば、大きさ、濃さおよび形状のうちの少なくとも1種類の特徴が含まれ得る。これにより、細胞形態画像から細胞分布画像が生成される際に、特徴の様々な変動に対応することが可能となる。 Here, the one or more appearance features may include, for example, at least one feature of size, density, and shape. Thereby, when a cell distribution image is generated from a cell morphology image, it becomes possible to deal with various variations in characteristics.

また、本変形例において、例えば、外観上の1種類以上の特徴には、外観上の2種類以上の特徴が含まれていれば、複数のパターンの画像処理には、例えば、外観上の2種類以上の特徴の間における複数組の特徴の組合せにそれぞれ応じた画像処理が含まれ得る。これにより、細胞形態画像から、2種類以上の特徴の変動に応じた細胞分布画像が生成され得る。 Further, in the present modification, for example, if one or more types of external features include two or more types of external features, image processing of a plurality of patterns may result in, for example, two external features. Image processing may be included depending on a combination of a plurality of types of features among types of features or more. As a result, a cell distribution image can be generated from the cell morphology image according to changes in two or more types of features.

また、例えば、外観上の2種類以上の特徴に、濃さおよび密集度合いに係る特徴が含まれ、複数のパターンの画像処理のそれぞれが、濃さに係る特徴に対応するための処理、および密集度合いに係る特徴に対応するための分割処理を含む態様が採用されても良い。ここで、濃さに係る特徴に対応するための処理には、例えば、濃さに係る特徴に応じた、各色の輝度についての閾値を用いた閾値処理および輪郭の抽出処理のうちの少なくとも1つの処理が含まれ得る。また、密集度合いに係る特徴に応じた分割処理には、例えば、密集度合いに係る特徴に応じた領域の分割度合いを用いた領域の分割処理が含まれ得る。これにより、細胞形態画像から、外観上の2種類以上の特徴としての濃さおよび密集度合いに係る特徴に応じた細胞分布画像が生成され得る。 Further, for example, two or more types of features on the appearance include features relating to the density and the degree of congestion, and each of the plurality of patterns of image processing corresponds to the feature relating to the concentration, and A mode that includes a division process for dealing with the feature related to the degree may be adopted. Here, the processing for dealing with the characteristic relating to the darkness includes, for example, at least one of a threshold value processing using a threshold value for the luminance of each color and a contour extracting processing according to the characteristic relating to the darkness. Processing may be included. Further, the division processing according to the feature related to the degree of congestion may include area division processing using the degree of division of the region according to the feature related to the degree of congestion. As a result, a cell distribution image can be generated from the cell morphology image according to the characteristics relating to the density and the degree of congestion as the two or more types of external appearance characteristics.

図55は、細胞形態画像における複数種類の外観上の特徴についての条件の組合せを例示する図である。図55では、複数種類の外観上の特徴の一例として、特定部位としての細胞核の染色の状態および密集度が挙げられている。図55で示されるように、特定部位の染色の状態には、例えば、濃い状態、濃さにムラがある状態(ムラ状態とも言う)、薄い状態、および輪郭が濃くてその内部が非常に薄い状態(中抜け状態とも言う)等が含まれ得る。つまり、特定部位の染色の状態は、特定部位が捉えられているものと推定される推定領域の濃さに係る特徴に含まれ得る。また、特定部位の密集度には、例えば、低い密集度、中程度の密集度および高い密集度が含まれ得る。そして、図55には、3種類の密集度の状態と4種類の染色の状態との組合せによる合計で12種類の外観上の特徴が挙げられている。このとき、12種類の外観上の特徴の組合せに対応するパターンの画像処理が、細胞形態画像に対して行われる。 FIG. 55 is a diagram exemplifying a combination of conditions for a plurality of types of appearance features in a cell morphology image. In FIG. 55, as an example of a plurality of types of appearance characteristics, the state of staining of cell nuclei as a specific portion and the density are listed. As shown in FIG. 55, the state of dyeing a specific portion includes, for example, a dark state, a state in which the density is uneven (also referred to as an uneven state), a thin state, and a dark outline with a very thin interior. A state (also referred to as a hollow state) may be included. That is, the dyeing state of the specific region may be included in the characteristics related to the density of the estimated region in which the specific region is estimated to be captured. Further, the density of the specific portion may include, for example, low density, medium density and high density. In FIG. 55, a total of 12 appearance features are listed by combining three types of denseness states and four types of dyeing states. At this time, image processing of a pattern corresponding to a combination of twelve types of appearance features is performed on the cell morphology image.

図56および図57は、外観上の特徴と推定領域の検出処理の内容との関係を例示する図である。 56 and 57 are diagrams illustrating the relationship between the appearance feature and the content of the estimation region detection process.

図56で示されるように、例えば、推定領域の密集度に応じた分割の度合いに従った分割処理が設定される。具体的には、例えば、低い密集度に対応する低い分割の度合い、中程度の密集度に対応する中程度の分割の度合い、および高い密集度に対応する高い分割の度合いが設定される。ここで、分割処理が、例えば、上記処理B1〜B4が順に行われる一連の処理である場合には、例えば、エッジ抽出処理において、どの程度の濃さのエッジまで抽出されるのかを決める閾値が変更されることで、分割処理における分割の度合いが変更され得る。このとき、例えば、高い密集度に対応する薄いエッジの検出が実行されることで、該薄いエッジが特定部位の輪郭であるものとして、分割処理が行われ得る。 As shown in FIG. 56, for example, division processing is set according to the degree of division according to the density of estimated regions. Specifically, for example, a low degree of division corresponding to low density, a degree of medium division corresponding to medium degree of congestion, and a high degree of division corresponding to high degree of congestion are set. Here, when the division process is, for example, a series of processes in which the processes B1 to B4 are sequentially performed, for example, in the edge extraction process, a threshold value that determines how thick an edge is extracted is By being changed, the degree of division in the division processing can be changed. At this time, for example, by performing the detection of the thin edge corresponding to the high density, the division processing can be performed assuming that the thin edge is the contour of the specific portion.

また、図57で示されるように、例えば、染色の状態に応じた推定領域の検出処理の内容が設定される。具体的には、例えば、濃い状態の染色の状態に対応する推定領域の検出処理として、通常の閾値が基準とされた閾値処理(2値化処理)が設定される。また、例えば、ムラ状態の染色の状態に対応する推定領域の検出処理として、前処理としてローパスフィルター等を用いた平滑化処理が施された後に、通常の閾値が基準とされた閾値処理(2値化処理)が設定される。また、例えば、薄い状態の染色の状態に対応する推定領域の検出処理として、通常の閾値よりも低い閾値が基準とされた閾値処理(2値化処理)およびエッジ抽出処理で検出されたエッジ内の空隙を推定領域として穴埋めする処理が設定される。また、例えば、中抜き状態の染色の状態に対応する推定領域の検出処理として、ダウンサンプリング処理および背景の検出によって認識される背景以外の領域を推定領域として穴埋めする処理が設定される。なお、エッジ抽出処理は、例えば、Sobelフィルターおよび/またはCannyフィルターを用いたフィルター処理、および微分画像を用いた処理等によって実現され得る。 Further, as shown in FIG. 57, for example, the content of the estimation region detection processing according to the staining state is set. Specifically, for example, a threshold process (binarization process) using a normal threshold as a reference is set as the detection process of the estimated region corresponding to the deeply stained state. In addition, for example, as a detection process of an estimated region corresponding to a stain state of an uneven state, a smoothing process using a low-pass filter or the like is performed as a preprocess, and then a threshold process using a normal threshold as a reference (2 (Value processing) is set. In addition, for example, as the detection processing of the estimated region corresponding to the stained state of the light state, the inside of the edge detected by the threshold processing (binarization processing) and the edge extraction processing in which the threshold lower than the normal threshold is used as a reference. A process for filling in the voids as estimated regions is set. Further, for example, as the detection processing of the estimated area corresponding to the dyeing state of the hollow state, the processing of filling the area other than the background recognized by the downsampling processing and the detection of the background as the estimated area is set. The edge extraction processing can be realized by, for example, filter processing using a Sobel filter and/or Canny filter, processing using a differential image, and the like.

<(3−4)第4変形例>
上記一実施形態および上記第1変形例では、例えば、細胞形態画像について、2種類以上の画像処理の途中の画像処理まで施されて得られる中間細胞分布画像および最終の画像処理まで施されて得られる最終細胞分布画像が選択肢として表示された。しかしながら、これに限られない。例えば、さらに、推定領域の検出処理における2種類以上の画像処理のうちの最後に施される画像処理を除く残余の画像処理に含まれる少なくとも1種類の画像処理において、細胞形態画像に対して領域毎に異なる条件に従った処理が施されても良い。このとき、中間細胞分布画像および最終細胞分布画像は、それぞれ領域毎に異なる条件に従った画像処理によって得られた画像が合成されることで生成され得る。これにより、細胞形態画像において相互に異なる特徴を有する領域が併存する場合であっても、修正が容易な細胞分布画像を含む複数の細胞分布画像が生成され易い。
<(3-4) Fourth Modification>
In the above-mentioned one embodiment and the above-mentioned 1st modification, for example, regarding a cell morphology image, an intermediate cell distribution image obtained by performing image processing in the middle of two or more types of image processing and a final image processing may be performed. The final cell distribution image displayed was displayed as an option. However, it is not limited to this. For example, further, in at least one type of image processing included in the remaining image processing other than the image processing performed last among the two or more types of image processing in the detection processing of the estimated area, the area is added to the cell morphology image. Processing may be performed according to different conditions. At this time, the intermediate cell distribution image and the final cell distribution image can be generated by synthesizing the images obtained by the image processing according to the conditions different for each region. As a result, even when regions having mutually different characteristics coexist in the cell morphology image, a plurality of cell distribution images including a cell distribution image that can be easily corrected are easily generated.

本変形例では、図30で示されるように、画像処理装置2の制御部21において記憶部25に格納されたプログラムP1Dが読み込まれて実行されることで本変形例に係る機能的な構成が実現される。本変形例では、画像処理装置2は、制御部21において実現される機能的な構成として、取得部211、生成部212D、表示制御部213D、指定部214、修正部215および算出部216を備える。 In this modification, as shown in FIG. 30, the control unit 21 of the image processing apparatus 2 reads the program P1D stored in the storage unit 25 and executes the program P1D, whereby the functional configuration according to this modification is achieved. Will be realized. In this modification, the image processing apparatus 2 includes an acquisition unit 211, a generation unit 212D, a display control unit 213D, a designation unit 214, a correction unit 215, and a calculation unit 216 as a functional configuration realized by the control unit 21. ..

生成部212Dは、推定領域の検出処理における2種類以上の画像処理のうちの最後に施される画像処理を除く残余の画像処理に含まれる少なくとも1種類の画像処理において、細胞形態画像に対して領域毎に異なる条件に従った処理を施す。これにより、2以上の細胞分布画像のうちの少なくとも2つの細胞分布画像が生成される。そして、このとき、表示制御部213Dは、生成部212Dによって生成された少なくとも2つの細胞分布画像を表示部23に表示させる。 The generation unit 212D processes the cell morphology image in at least one type of image processing included in the remaining image processing other than the last image processing performed in the two or more types of image processing in the estimation region detection processing. Processing is performed according to different conditions for each area. As a result, at least two cell distribution images of the two or more cell distribution images are generated. Then, at this time, the display control unit 213D causes the display unit 23 to display at least two cell distribution images generated by the generation unit 212D.

このような構成によっても、細胞形態画像で捉えられている特定部位の態様が不均一であっても、修正が容易な細胞分布画像を含む複数の細胞分布画像が生成され易い。 Even with such a configuration, even if the aspect of the specific portion captured in the cell morphology image is not uniform, a plurality of cell distribution images including a cell distribution image that can be easily corrected are easily generated.

図58は、図31のステップS3の代わりに実行される第4変形例に係るステップS3Dにおける処理の動作フローの一例を示す流れ図である。このステップS3Dでは、例えば、ステップST31〜ST48の処理が行われる。これらの処理のうち、ステップST31,ST35〜ST45では、上述したステップS31,S32〜S42と同様な処理が実行される。このため、ここでは、ステップST32〜ST34およびステップS46〜S48の処理について説明する。 FIG. 58 is a flowchart showing an example of the operation flow of the process in step S3D according to the fourth modification, which is executed instead of step S3 in FIG. In this step S3D, for example, the processes of steps ST31 to ST48 are performed. Among these processes, in steps ST31, ST35 to ST45, the same processes as those in steps S31 and S32 to S42 described above are executed. Therefore, the processes of steps ST32 to ST34 and steps S46 to S48 will be described here.

ステップST32では、生成部212Dによって、ステップST31で前処理が施された細胞形態画像に対して区分け処理が行われる。区分け処理は、例えば、細胞形態画像が、1種類以上の外観上の特徴に応じて複数の画像領域に区分けされる処理である。1種類以上の外観上の特徴には、例えば、特定部位についての大きさ、密集度、色彩および形状等に係る特徴が含まれ得る。具体的には、区分け処理としては、例えば、細胞形態画像が単純な閾値処理によって2値画像に変換され、その2値画像における1以上の推定領域の外観上の特徴に応じて、細胞形態画像が区分けされる処理が採用され得る。ここでは、細胞形態画像が、N個(Nは2以上の自然数)の領域に区分けされ、N個の領域に、1〜Nの番号が識別情報として付される具体例を挙げて説明する。 In step ST32, the generation unit 212D performs segmentation processing on the cell morphology image subjected to the preprocessing in step ST31. The segmentation process is, for example, a process in which the cell morphology image is segmented into a plurality of image regions according to one or more types of appearance features. The one or more types of appearance characteristics may include, for example, characteristics relating to the size, the density, the color, the shape, etc. of the specific part. Specifically, as the classification processing, for example, the cell morphology image is converted into a binary image by a simple thresholding process, and the cell morphology image is converted according to the appearance feature of one or more estimated regions in the binary image. Can be adopted. Here, the cell morphology image is divided into N (N is a natural number of 2 or more) regions, and specific examples in which the numbers 1 to N are assigned to the N regions as identification information will be described.

図59は、区分け処理用の2値画像G5aを例示する図であり、図60は、細胞形態画像が区分けされる様子を例示する図である。なお、図59で示される2値画像G5aは、図42で示された細胞形態画像G4に対して閾値処理が施されることで取得され得る。そして、例えば、2値画像G5aのうち、中央から左方にかけた領域よりも右方の領域において、推定領域の密集度が相対的に高い。このとき、例えば、図60で示されるように、細胞形態画像G4が、太い破線よりも左方に位置する領域Ar1と、該太い破線よりも右方に位置する領域Ar2とに区分けされる。 FIG. 59 is a diagram illustrating a binary image G5a for a segmentation process, and FIG. 60 is a diagram illustrating a manner in which a cell morphology image is segmented. The binary image G5a shown in FIG. 59 can be obtained by performing threshold processing on the cell morphological image G4 shown in FIG. Then, for example, in the binary image G5a, the density of the estimated region is relatively high in the region on the right side of the region extending from the center to the left. At this time, for example, as shown in FIG. 60, the cell morphology image G4 is divided into a region Ar1 located to the left of the thick broken line and a region Ar2 located to the right of the thick broken line.

なお、外観上の特徴としての密集度の高低は、例えば、推定領域が繋がっている度合いによって変化する一塊の推定領域の大きさ等によって自動的に判定されても良いし、2値画像G5aを視認したユーザーによって判定されても良い。そして、例えば、外観上の特徴が自動的に判定される場合には、細胞形態画像の区分けは自動で行われ、外観上の特徴がユーザーによって判定される場合には、細胞形態画像の区分けは手動で行われ得る。 It should be noted that the level of density as a feature of appearance may be automatically determined by, for example, the size of a block of estimated regions that changes depending on the degree of connection of estimated regions, or the binary image G5a may be determined. It may be determined by the user who visually recognizes it. Then, for example, when the appearance feature is automatically determined, the cell morphology image is automatically segmented, and when the appearance feature is determined by the user, the cell morphology image is segmented. It can be done manually.

次に、ステップST33では、画像処理の対象が何番目の区分けされた領域であるのかを示す自然数nが1に設定される。 Next, in step ST33, a natural number n indicating which number of divided regions the image processing target is is set to 1.

次に、ステップST34では、n番目の領域が画像処理の対象として指定される。このとき、例えば、n番目の領域の外観上の特徴に応じた画像処理の内容が設定される態様が考えられる。例えば、密集度に応じて、分割処理における分割の度合いを大きくする等と言った画像処理の内容の設定が考えられる。具体的には、例えば、図60で示されるようなケースでは、細胞形態画像G4のうちの領域Ar1よりも領域Ar2において、分割の度合いが大きく設定される。 Next, in step ST34, the n-th area is designated as a target for image processing. At this time, for example, a mode is conceivable in which the content of the image processing is set according to the external feature of the n-th area. For example, it is conceivable to set the content of the image processing such as increasing the degree of division in the division processing according to the density. Specifically, for example, in the case as shown in FIG. 60, the degree of division is set to be larger in the area Ar2 than in the area Ar1 in the cell morphology image G4.

そして、ステップST35〜ST45では、上述したステップS32〜S42と同様な処理が行われる。ここで、例えば、ステップST351,ST352において、n番目の領域の外観上の特徴に応じた内容の画像処理が実行される。 Then, in steps ST35 to ST45, the same processes as in steps S32 to S42 described above are performed. Here, for example, in steps ST351 and ST352, image processing of content according to the external feature of the n-th region is executed.

ステップST46では、自然数nが自然数Nに到達しているか否かが判定される。ここでは、自然数nが自然数Nに到達していなければ、ステップST47に進み、自然数nが自然数Nに到達していれば、ステップST48に進む。 In step ST46, it is determined whether or not the natural number n has reached the natural number N. Here, if the natural number n has not reached the natural number N, the process proceeds to step ST47, and if the natural number n has reached the natural number N, the process proceeds to step ST48.

ステップST47では、自然数nが1増加されて、ステップST34に進む。このため、自然数nが自然数Nに到達するまで、ステップST34〜ST47の処理が適宜繰り返される。 In step ST47, the natural number n is incremented by 1, and the process proceeds to step ST34. Therefore, the processes of steps ST34 to ST47 are appropriately repeated until the natural number n reaches the natural number N.

ステップST48では、区分けされた領域毎に異なる画像処理が施されることで得られた細胞分布画像が合成される。ここでは、ステップST351の第1領域検出処理まで、ステップST352の第2領域検出処理まで、およびステップST45の合成処理まで、の3段階について、領域毎に異なる画像処理が施されることで得られた細胞分布画像が合成される。これにより、3段階の細胞分布画像が取得され得る。図61は、ステップST48における合成によって取得され得る細胞分布画像G5cの一例を示す図である。 In step ST48, a cell distribution image obtained by performing different image processing for each divided area is combined. Here, it is obtained by performing different image processing for each region in the three stages up to the first region detection process of step ST351, up to the second region detection process of step ST352, and up to the combining process of step ST45. The cell distribution image is synthesized. As a result, a three-step cell distribution image can be acquired. FIG. 61 is a diagram showing an example of the cell distribution image G5c that can be obtained by the synthesis in step ST48.

<(3−5)その他の変形例>
例えば、上記一実施形態および上記各変形例では、顕微鏡画像取得装置1から画像処理装置2に送信される顕微鏡画像が、細胞形態情報を有する細胞形態画像、および物質分布情報を有する蛍光画像であったが、これに限られない。例えば、顕微鏡画像取得装置1から画像処理装置2に送信される顕微鏡画像が、細胞形態情報および物質分布情報の双方の情報を含む蛍光形態画像であっても良い。このとき、例えば、蛍光形態画像から、特定波長の蛍光輝点の分布を示す輝点分布画像が得られ、蛍光形態画像から輝点分布画像の成分が除かれることで、細胞形態画像が取得され得る。
<(3-5) Other modifications>
For example, in the above-mentioned one embodiment and each modification, the microscope image transmitted from the microscope image acquisition device 1 to the image processing device 2 is a cell morphology image having cell morphology information and a fluorescence image having substance distribution information. However, it is not limited to this. For example, the microscope image transmitted from the microscope image acquisition apparatus 1 to the image processing apparatus 2 may be a fluorescence morphology image including both cell morphology information and substance distribution information. At this time, for example, from the fluorescence morphology image, a bright spot distribution image showing the distribution of fluorescent bright spots of a specific wavelength is obtained, and by removing the components of the bright spot distribution image from the fluorescence morphology image, a cell morphology image is obtained. obtain.

また、上記一実施形態および上記各変形例では、細胞分布画像がユーザーによる手動によって修正されたが、これに限られない。例えば、細胞分布画像に対して、大きさ、色や濃さ、形状等と言った外観上の基準を満たさない細胞表示要素が削除される等と言った、外観上の基準に従った自動的な修正が施されても良い。 Further, in the above-described one embodiment and each of the modifications, the cell distribution image is manually corrected by the user, but the present invention is not limited to this. For example, the cell distribution image is automatically deleted according to the appearance standard, such as cell display elements that do not meet the appearance criteria such as size, color, darkness, and shape are deleted. May be modified.

また、上記一実施形態および上記各変形例では、表示部23は、CRTやLCD等の表示デバイスであったが、これに限られず、例えば、画像が投影されるスクリーン等の有形の領域、または画像が投影される液体等の流体や空間等の無形の領域であっても良い。このような構成が採用される場合には、例えば、プロジェクター等の技術によって有形の物体または無形の流体に画像が表示されても良いし、3次元(3D)のホログラム等の技術によって、無形の空間的な領域に画像が表示されても良い。そして、例えば、有形または無形の領域に画像を投影させる投影装置が、表示制御部213(213B〜213D)によって制御される構成が採用され得る。 Further, in the above-described one embodiment and each modification, the display unit 23 is a display device such as a CRT or LCD, but the present invention is not limited to this. For example, a tangible area such as a screen onto which an image is projected, or It may be a fluid such as a liquid onto which an image is projected or an intangible region such as a space. When such a configuration is adopted, for example, an image may be displayed on a tangible object or an intangible fluid by a technique such as a projector, or an intangible image may be displayed by a technique such as a three-dimensional (3D) hologram. The image may be displayed in a spatial area. Then, for example, a configuration may be adopted in which a projection device that projects an image on a tangible or intangible region is controlled by the display control unit 213 (213B to 213D).

なお、上記一実施形態および上記各変形例をそれぞれ構成する全部または一部を、適宜、矛盾しない範囲で組み合わせ可能であることは、言うまでもない。 It is needless to say that all or part of each of the above-described one embodiment and each of the modified examples can be appropriately combined in a consistent range.

1 顕微鏡画像取得装置
2 画像処理装置
21 制御部
22 入力部
23 表示部
25 記憶部
100 病理診断支援システム
211 取得部
212,212B,212C,212D 生成部
213,213B,213C,213D 表示制御部
214,214A 指定部
215,215A 修正部
216 算出部
217A 合成部
A1 第1画像領域
A2 第2画像領域
D1a,D1b,D1c 細胞表示要素
E101,Ex1,Ex2,Ex3 細胞表示要素
G1〜G4,G102,Gb11 細胞形態画像
G1a〜G1c 第1〜3段階の細胞分布画像
G2a〜G2c 第1〜3段階の細胞分布画像
G3a〜G3c 第1〜3段階の細胞分布画像
G4a〜G4c 第1〜3段階の細胞分布画像
G4d 合成細胞分布画像
G5c 細胞分布画像
Gd1 輝点分布画像
P1,P1A〜P1D プログラム
DESCRIPTION OF SYMBOLS 1 Microscopic image acquisition device 2 Image processing device 21 Control part 22 Input part 23 Display part 25 Storage part 100 Pathological diagnosis support system 211 Acquisition part 212,212B,212C,212D Generation part 213,213B,213C,213D Display control part 214, 214A Designating part 215, 215A Modifying part 216 Calculating part 217A Synthesizing part A1 First image area A2 Second image area D1a, D1b, D1c Cell display element E101, Ex1, Ex2, Ex3 Cell display element G1 to G4, G102, Gb11 cell Morphological image G1a to G1c First to third stage cell distribution image G2a to G2c First to third stage cell distribution image G3a to G3c First to third stage cell distribution image G4a to G4c First to third stage cell distribution image G4d synthetic cell distribution image G5c cell distribution image Gd1 bright spot distribution image P1, P1A to P1D program

Claims (16)

細胞の形態を捉えた細胞形態画像に画像処理を施すことで、該細胞形態画像において細胞の特定部位が捉えられているものと推定される推定領域の分布が1以上の細胞表示要素で示されている細胞分布画像を生成する生成部と、
前記生成部によって相互に異なる2以上の条件に従って前記細胞形態画像に以上の画像処理が施されることで生成された2以上の細胞分布画像を表示部に表示させる表示制御部と、
ユーザーの動作に応じて、前記表示部に表示されている前記2以上の細胞分布画像のうちの1つの細胞分布画像を指定する指定部と、
ユーザーの動作に応じて、前記指定部で指定された前記1つの細胞分布画像の少なくとも一部を修正する修正部と、
を備え
記生成部が、
前記細胞形態画像に複数の画像処理を時間順次に段階的に施、前記複数の画像処理のうちの段階的に施される2以上の画像処理における異なる複数の段階の画像処理のそれぞれまでを前記細胞形態画像に施すことで前記2以上の細胞分布画像を生成し、
前記表示制御部が、前記生成部によって前記細胞形態画像に前記異なる複数の段階の画像処理のそれぞれまでが施されることで生成された前記2以上の細胞分布画像を前記表示部に同時に表示させることを特徴とする画像処理装置。
By performing image processing on a cell morphology image that captures the morphology of cells, one or more cell display elements show the distribution of estimated regions in which it is estimated that specific parts of cells are captured in the cell morphology image. A generation unit that generates a cell distribution image
A display control unit that causes a display unit to display two or more cell distribution images generated by performing two or more image processes on the cell morphology image according to two or more mutually different conditions by the generation unit;
A designation unit for designating one cell distribution image of the two or more cell distribution images displayed on the display unit according to a user's action;
A correction unit that corrects at least a part of the one cell distribution image designated by the designation unit according to a user operation;
Equipped with
Before Symbol generation unit,
The cell morphology image to image processing several times sequentially stepwise facilities in each until a plurality of stages of image processing which is different in stepwise two or more image processing to be performed among the plurality of image processing Is generated on the cell morphology image to generate the two or more cell distribution images,
The display control unit causes the display unit to simultaneously display the two or more cell distribution images generated by subjecting the cell morphology image to each of the plurality of different stages of image processing by the generation unit. An image processing device characterized by the above.
請求項1に記載の画像処理装置であって
記異なる複数の段階の画像処理は、
前記細胞形態画像に複数の画像処理を時間順次に段階的に施す際に、前記複数の画像処理のうちの段階的に施される2以上の画像処理における異なる複数の段階の画像処理を含むことを特徴とする画像処理装置。
The image processing apparatus according to claim 1 , wherein
Image processing prior Symbol different stages,
In making the cell morphology image into a plurality of image processing time sequential stepwise, the image processing of a plurality of different stages in image processing on 2 or more that is applied stepwise in the image processing of the multiple An image processing device comprising:
請求項1または請求項2に記載の画像処理装置であって、
前記指定部が、
ユーザーの動作に応じて、第1画像領域と、前記表示部に表示されている前記2以上の細胞分布画像のうちの第1細胞分布画像との第1組合せ、および前記第1画像領域とは異なる第2画像領域と、前記表示部に表示されている前記2以上の細胞分布画像のうちの前記第1細胞分布画像とは異なる第2細胞分布画像との第2組合せを指定し、
前記修正部が、
ユーザーの動作に応じて、前記第1細胞分布画像のうちの前記第1画像領域に対応する部分、および前記第2細胞分布画像のうちの前記第2画像領域に対応する部分を修正し、
前記画像処理装置が、
前記指定部によって指定された前記第1組合せおよび前記第2組合せに従って、前記修正部による修正前および修正後の少なくとも一方の状態にある、前記第1細胞分布画像と前記第2細胞分布画像とを合成することで、1つの細胞分布画像を生成する合成部、
をさらに備えることを特徴とする画像処理装置。
The image processing apparatus according to claim 1 or 2, wherein
The designated section is
The first combination of the first image area and the first cell distribution image of the two or more cell distribution images displayed on the display unit according to the user's action, and the first image area A second combination of a different second image area and a second cell distribution image different from the first cell distribution image of the two or more cell distribution images displayed on the display unit is designated,
The correction unit,
Depending on the user's action, a portion of the first cell distribution image corresponding to the first image area and a portion of the second cell distribution image corresponding to the second image area are corrected,
The image processing device,
According to the first combination and the second combination designated by the designation unit, the first cell distribution image and the second cell distribution image in at least one state before and after the correction by the correction unit are displayed. A synthesizing unit that generates one cell distribution image by synthesizing,
An image processing apparatus further comprising:
請求項1から請求項3の何れか1つの請求項に記載の画像処理装置であって、
前記生成部が、
前記以上の画像処理のうちの少なくとも1つの種類の画像処理において、1種類以上のパラメータそれぞれについての少なくとも2つの基準値に従って前記細胞形態画像から前記推定領域をそれぞれ検出することで、前記2以上の細胞分布画像のうちの少なくとも2つの細胞分布画像を生成することを特徴とする画像処理装置。
An image processing apparatus according to any one of claims 1 to 3, wherein:
The generation unit,
In at least one type of image processing of the two or more image processing, by detecting the estimated region from the cell morphology image according to at least two reference values for each of the one or more types of parameters, the two or more An image processing apparatus, which generates at least two cell distribution images among the cell distribution images.
請求項4に記載の画像処理装置であって、
前記1種類以上のパラメータが、
前記細胞形態画像における領域についての、外観上の1種類以上の特徴に係るパラメータ、分割の度合いに係るパラメータ、および膨張収縮処理の度合いに係るパラメータのうちの少なくとも1種類のパラメータを含むことを特徴とする画像処理装置。
The image processing apparatus according to claim 4, wherein
The one or more parameters are
It is characterized by including at least one kind of parameter related to one or more kinds of appearance features, a parameter related to degree of division, and a parameter related to degree of expansion/contraction processing, regarding the region in the cell morphology image. Image processing device.
請求項5に記載の画像処理装置であって、
前記外観上の1種類以上の特徴が、
大きさ、濃さおよび形状のうちの少なくとも1種類の特徴を含むことを特徴とする画像処理装置。
The image processing apparatus according to claim 5, wherein
One or more characteristics of the appearance,
An image processing apparatus including at least one type of characteristics of size, density, and shape.
請求項6に記載の画像処理装置であって、
前記大きさに係る特徴が、
面積、周囲の長さ、長軸の長さおよび短軸の長さのうちの1種類以上の特徴を含み、
前記濃さに係る特徴が、
色相、明度、彩度、輝度、色差および各色の輝度のうちの1種類以上の特徴を含み、
前記形状に係る特徴が、
円形度、扁平率およびアスペクト比のうちの1種類以上の特徴を含むことを特徴とする画像処理装置。
The image processing apparatus according to claim 6,
The characteristics related to the size are
Including one or more features of area, perimeter length, major axis length and minor axis length,
The characteristics related to the depth are
Including one or more features of hue, brightness, saturation, luminance, color difference and luminance of each color,
Features related to the shape,
An image processing apparatus comprising one or more features of circularity, flatness, and aspect ratio.
請求項4から請求項7の何れか1つの請求項に記載の画像処理装置であって
記生成部が、
前記少なくとも1種類の画像処理のうちの少なくとも2種類の画像処理において、2種類以上のパラメータの間における2組以上の基準値の組合せに従って前記細胞形態画像から前記推定領域をそれぞれ検出することで、前記2以上の細胞分布画像のうちの前記少なくとも2つの細胞分布画像を生成することを特徴とする画像処理装置。
An image processing apparatus according to any one of claims 4 to 7 , wherein:
Before Symbol generation unit,
In at least two types of image processing of the at least one type of image processing, by respectively detecting the estimated region from the cell morphology image according to a combination of two or more sets of reference values between two or more types of parameters, An image processing apparatus, which generates the at least two cell distribution images of the two or more cell distribution images.
請求項1から請求項3の何れか1つの請求項に記載の画像処理装置であって、
前記生成部が、
前記細胞形態画像における領域の外観上の1種類以上の特徴に対応するための複数のパターンの画像処理によって、前記細胞形態画像から前記推定領域をそれぞれ検出することで、前記2以上の細胞分布画像のうちの少なくとも2つの細胞分布画像を生成することを特徴とする画像処理装置。
An image processing apparatus according to any one of claims 1 to 3, wherein:
The generation unit,
Each of the two or more cell distribution images is detected by detecting each of the estimated regions from the cell morphology image by image processing of a plurality of patterns to correspond to one or more types of features on the appearance of the region in the cell morphology image. An image processing apparatus, which generates a cell distribution image of at least two of the above.
請求項9に記載の画像処理装置であって
記複数のパターンの画像処理が、
観上の2種類以上の特徴の間における複数組の特徴の組合せにそれぞれ応じた画像処理を含むことを特徴とする画像処理装置。
The image processing apparatus according to claim 9 ,
Image processing prior Symbol plurality of patterns,
The image processing apparatus characterized by comprising an image processing corresponding respectively to a combination of a plurality of sets of features between two or more features on the appearance.
細胞の形態を捉えた細胞形態画像に画像処理を施すことで、該細胞形態画像において細胞の特定部位が捉えられているものと推定される推定領域の分布が1以上の細胞表示要素で示されている細胞分布画像を生成する生成部と、
前記生成部によって相互に異なる2以上の条件に従って前記細胞形態画像に1種類以上の画像処理が施されることで生成された2以上の細胞分布画像を表示部に表示させる表示制御部と、
ユーザーの動作に応じて、前記表示部に表示されている前記2以上の細胞分布画像のうちの1つの細胞分布画像を指定する指定部と、
ユーザーの動作に応じて、前記指定部で指定された前記1つの細胞分布画像の少なくとも一部を修正する修正部と、
を備え、
前記生成部が、
前記細胞形態画像における領域の外観上の1種類以上の特徴に対応するための複数のパターンの画像処理によって、前記細胞形態画像から前記推定領域をそれぞれ検出することで、前記2以上の細胞分布画像のうちの少なくとも2つの細胞分布画像を生成し
記複数のパターンの画像処理が、
観上の2種類以上の特徴の間における複数組の特徴の組合せにそれぞれ応じた画像処理を含むことを特徴とする画像処理装置。
By performing image processing on a cell morphology image that captures the morphology of cells, one or more cell display elements show the distribution of estimated regions in which it is estimated that specific parts of cells are captured in the cell morphology image. A generation unit that generates a cell distribution image
A display control unit for displaying on the display unit two or more cell distribution images generated by subjecting the cell morphology image to one or more types of image processing according to two or more mutually different conditions by the generation unit;
A designation unit for designating one cell distribution image of the two or more cell distribution images displayed on the display unit according to a user's action;
A correction unit that corrects at least a part of the one cell distribution image designated by the designation unit according to a user operation;
Equipped with
The generation unit,
Each of the two or more cell distribution images is detected by detecting each of the estimated regions from the cell morphology image by image processing of a plurality of patterns to correspond to one or more types of features on the appearance of the region in the cell morphology image. Generate at least two of the cell distribution images ,
Image processing prior Symbol plurality of patterns,
The image processing apparatus characterized by comprising an image processing corresponding respectively to a combination of a plurality of sets of features between two or more features on the appearance.
請求項10または請求項11に記載の画像処理装置であって、
前記外観上の2種類以上の特徴が、
濃さおよび密集度合に係る特徴を含み、
前記複数のパターンの画像処理のそれぞれが、
濃さに係る特徴に応じた各色の輝度についての閾値を用いた閾値処理および輪郭の抽出処理のうちの少なくとも1つの処理、ならびに密集度合いに係る特徴に応じた領域の分割度合いを用いた領域の分割処理を含むことを特徴とする画像処理装置。
The image processing device according to claim 10 or 11, wherein
The above two or more features in appearance are
Including features related to density and density,
Each of the image processing of the plurality of patterns,
At least one of a threshold value process and a contour extraction process that uses a threshold value for the brightness of each color according to the feature related to the darkness, and a region using the degree of division of the region according to the feature related to the degree of congestion. An image processing apparatus comprising division processing.
請求項2に記載の画像処理装置であって、
前記生成部が、
前記複数の画像処理のうちの段階的に施される2以上の画像処理のうちの最後に施される画像処理を除く残余の画像処理に含まれる少なくとも1種類の画像処理において、前記細胞形態画像に対して領域毎に異なる条件に従った処理を施すことを特徴とする画像処理装置。
The image processing apparatus according to claim 2, wherein
The generation unit,
In at least one image processing included in the image processing of the remaining except the last image processing performed among the stepwise image processing on the 2 or more that is applied among the plurality of image processing, the cell morphology An image processing apparatus, which processes an image according to different conditions for each area.
細胞の形態を捉えた細胞形態画像に画像処理を施すことで、該細胞形態画像において細胞の特定部位が捉えられているものと推定される推定領域の分布が1以上の細胞表示要素で示されている細胞分布画像を生成する生成部と、
前記生成部によって相互に異なる2以上の条件に従って前記細胞形態画像に1種類以上の画像処理が施されることで生成された2以上の細胞分布画像を表示部に表示させる表示制御部と、
ユーザーの動作に応じて、前記表示部に表示されている前記2以上の細胞分布画像のうちの1つの細胞分布画像を指定する指定部と、
ユーザーの動作に応じて、前記指定部で指定された前記1つの細胞分布画像の少なくとも一部を修正する修正部と、
を備え、
前記生成部が、
前記以上の画像処理のうちの少なくとも1つの種類の画像処理において、1種類以上のパラメータそれぞれについての少なくとも2つの基準値に従って前記細胞形態画像から前記推定領域をそれぞれ検出することで、前記2以上の細胞分布画像のうちの少なくとも2つの細胞分布画像を生成し
記生成部が、
前記少なくとも1種類の画像処理のうちの少なくとも2種類の画像処理において、2種類以上のパラメータの間における2組以上の基準値の組合せに従って前記細胞形態画像から前記推定領域をそれぞれ検出することで、前記2以上の細胞分布画像のうちの前記少なくとも2つの細胞分布画像を生成することを特徴とする画像処理装置。
By performing image processing on a cell morphology image that captures the morphology of cells, one or more cell display elements show the distribution of estimated regions in which it is estimated that specific parts of cells are captured in the cell morphology image. A generation unit that generates a cell distribution image
A display control unit for displaying on the display unit two or more cell distribution images generated by subjecting the cell morphology image to one or more types of image processing according to two or more mutually different conditions by the generation unit;
A designation unit for designating one cell distribution image of the two or more cell distribution images displayed on the display unit according to a user's action;
A correction unit that corrects at least a part of the one cell distribution image designated by the designation unit according to a user operation;
Equipped with
The generation unit,
In at least one type of image processing of the two or more image processing, by detecting the estimated region from the cell morphology image according to at least two reference values for each of the one or more types of parameters, the two or more At least two cell distribution image of the cellular distribution image to generate a,
Before Symbol generation unit,
In at least two types of image processing of the at least one type of image processing, by respectively detecting the estimated region from the cell morphology image according to a combination of two or more sets of reference values between two or more types of parameters, An image processing apparatus, which generates the at least two cell distribution images of the two or more cell distribution images.
(a)生成部によって、相互に異なる2以上の条件に従って、細胞の形態を捉えた細胞形態画像に2以上の画像処理を施すことで、前記細胞形態画像において細胞の特定部位が捉えられているものと推定される推定領域の分布が少なくとも1つの細胞表示要素で示されている、2以上の細胞分布画像をそれぞれ生成するステップと、
(b)表示制御部によって、前記ステップ(a)において生成された前記2以上の細胞分布画像を表示部に表示させるステップと、
(c)指定部によって、ユーザーの動作に応じて、前記表示部に表示されている前記2以上の細胞分布画像のうちの1つの細胞分布画像を指定するステップと、
(d)修正部によって、ユーザーの動作に応じて、前記ステップ(c)において指定された前記1つの細胞分布画像の少なくとも一部を修正するステップと、
を備え
記ステップ(a)において、
前記細胞形態画像に複数の画像処理を時間順次に段階的に施、前記複数の画像処理のうちの段階的に施される2以上の画像処理における異なる複数の段階の画像処理のそれぞれまでを前記細胞形態画像に施すことで前記2以上の細胞分布画像を生成し、
前記ステップ(b)において、
前記表示制御部によって、前記ステップ(a)において前記細胞形態画像に前記異なる複数の段階の画像処理のそれぞれまでが施されることで生成された前記2以上の細胞分布画像を前記表示部に同時に表示させることを特徴とする画像処理方法。
(a) The generation unit performs two or more image processes on a cell morphology image that captures the morphology of a cell according to two or more mutually different conditions, thereby capturing a specific portion of the cell in the cell morphology image. Generating two or more cell distribution images in which the distribution of the estimated region estimated to be one is indicated by at least one cell display element,
(b) causing the display control unit to display the two or more cell distribution images generated in step (a) on the display unit;
(c) a step of designating one cell distribution image of the two or more cell distribution images displayed on the display unit by the designating unit according to a user's operation;
(d) a step of correcting at least a part of the one cell distribution image designated in step (c) according to a user's operation by a correction unit,
Equipped with
In the previous Symbol step (a),
The cell morphology image to image processing several times sequentially stepwise facilities in each until a plurality of stages of image processing which is different in stepwise two or more image processing to be performed among the plurality of image processing Is generated on the cell morphology image to generate the two or more cell distribution images,
In the step (b),
At the same time, the display control unit simultaneously displays the two or more cell distribution images generated by subjecting the cell morphology image to each of the different stages of image processing in step (a). An image processing method characterized by displaying.
情報処理装置に含まれる制御部において実行されることで、該情報処理装置を請求項1から請求項14の何れか1つの請求項に記載の画像処理装置として機能させることを特徴とする画像処理用のプログラム。 Image processing characterized by being executed by a control unit included in the information processing device, thereby causing the information processing device to function as the image processing device according to any one of claims 1 to 14. Program for.
JP2015142095A 2015-07-16 2015-07-16 Image processing apparatus, image processing method, and image processing program Active JP6740573B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015142095A JP6740573B2 (en) 2015-07-16 2015-07-16 Image processing apparatus, image processing method, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015142095A JP6740573B2 (en) 2015-07-16 2015-07-16 Image processing apparatus, image processing method, and image processing program

Publications (2)

Publication Number Publication Date
JP2017027138A JP2017027138A (en) 2017-02-02
JP6740573B2 true JP6740573B2 (en) 2020-08-19

Family

ID=57950510

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015142095A Active JP6740573B2 (en) 2015-07-16 2015-07-16 Image processing apparatus, image processing method, and image processing program

Country Status (1)

Country Link
JP (1) JP6740573B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7181000B2 (en) * 2018-05-24 2022-11-30 日本電子株式会社 BIOLOGICAL TISSUE IMAGE PROCESSING APPARATUS AND METHOD
JP7181001B2 (en) * 2018-05-24 2022-11-30 日本電子株式会社 BIOLOGICAL TISSUE IMAGE PROCESSING SYSTEM AND MACHINE LEARNING METHOD
JP7200040B2 (en) * 2019-04-26 2023-01-06 株式会社日立ハイテク Information processing device, image analysis method
JP7311142B2 (en) * 2019-08-23 2023-07-19 ライトタッチテクノロジー株式会社 Biological tissue identification device and biological tissue identification program
JP7188420B2 (en) * 2020-07-10 2022-12-13 トヨタ自動車株式会社 Information processing device, information processing method, and information processing program

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006155063A (en) * 2004-11-26 2006-06-15 Seiko Epson Corp Image correction device, image correction method, and computer program
JP5097018B2 (en) * 2008-06-03 2012-12-12 キヤノン株式会社 Image processing apparatus, imaging apparatus, control method for image processing apparatus, control method for imaging apparatus, program, and recording medium
JP5531636B2 (en) * 2010-01-18 2014-06-25 株式会社ニコン Image processing program and image processing apparatus
JP5865658B2 (en) * 2011-10-04 2016-02-17 株式会社キーエンス Image processing apparatus and image processing program
JP2014063019A (en) * 2012-09-21 2014-04-10 Keyence Corp Image capturing and analyzing device, method of controlling the same, and program for the same

Also Published As

Publication number Publication date
JP2017027138A (en) 2017-02-02

Similar Documents

Publication Publication Date Title
JP6443450B2 (en) Image processing apparatus, image processing method, and program
JP6763305B2 (en) Image processing equipment and image processing program
JP6350527B2 (en) Image processing apparatus, pathological diagnosis support system, image processing program, and pathological diagnosis support method
JP6740573B2 (en) Image processing apparatus, image processing method, and image processing program
JP5892238B2 (en) Medical image processing apparatus and program
JP6635108B2 (en) Image processing apparatus, image processing method, and image processing program
JP5804194B2 (en) Medical image processing apparatus and program
JP2021513065A (en) Conversion of digital pathological images
JP6763407B2 (en) Image processing equipment and programs
JP6597316B2 (en) Image processing apparatus and program
JP7173034B2 (en) Image processing device, focus position specifying method and focus position specifying program
JP6493398B2 (en) Diagnosis support information generation method, image processing apparatus, diagnosis support information generation system, and image processing program
JP7235036B2 (en) Image processing method, image processing apparatus and program
JPWO2018143406A1 (en) Image processing device and program
JP6375925B2 (en) Image processing apparatus, image processing system, image processing program, and image processing method
JP6702339B2 (en) Image processing device and program
JP6405985B2 (en) Image processing apparatus, image processing system, image processing program, and image processing method
JP6801653B2 (en) Image processing equipment, image processing methods, and programs for image processing

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190322

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190903

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191101

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200407

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200605

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200623

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200706

R150 Certificate of patent or registration of utility model

Ref document number: 6740573

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150