WO2012011579A1 - 病理組織画像の領域分割画像データ作成システム及び病理組織画像の特徴抽出システム - Google Patents

病理組織画像の領域分割画像データ作成システム及び病理組織画像の特徴抽出システム Download PDF

Info

Publication number
WO2012011579A1
WO2012011579A1 PCT/JP2011/066744 JP2011066744W WO2012011579A1 WO 2012011579 A1 WO2012011579 A1 WO 2012011579A1 JP 2011066744 W JP2011066744 W JP 2011066744W WO 2012011579 A1 WO2012011579 A1 WO 2012011579A1
Authority
WO
WIPO (PCT)
Prior art keywords
image data
pathological tissue
region
mask
image
Prior art date
Application number
PCT/JP2011/066744
Other languages
English (en)
French (fr)
Inventor
博和 野里
坂無 英徳
村川 正宏
小林 匠
樋口 哲也
展之 大津
Original Assignee
独立行政法人産業技術総合研究所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 独立行政法人産業技術総合研究所 filed Critical 独立行政法人産業技術総合研究所
Priority to US13/807,135 priority Critical patent/US9031294B2/en
Priority to JP2012525453A priority patent/JP5825641B2/ja
Publication of WO2012011579A1 publication Critical patent/WO2012011579A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2135Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/36Applying a local operator, i.e. means to operate on image points situated in the vicinity of a given point; Non-linear local filtering operations, e.g. median filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/695Preprocessing, e.g. image segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30024Cell structures in vitro; Tissue sections in vitro
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/467Encoded features or binary features, e.g. local binary patterns [LBP]

Definitions

  • the present invention relates to a pathological tissue image region division image data creation system and a pathological tissue image feature extraction system and method.
  • cancer in this specification, “cancer” is used to indicate an entire malignant tumor, and “cancer” is used to indicate a malignant tumor derived from an epithelial tissue such as a stomach biopsy tissue).
  • a pathological diagnosis performed as a definitive diagnosis a pathological specimen (hereinafter referred to as a pathologist) having specialized knowledge and experience is used to observe a pathological specimen of a tissue collected from a patient's body by surgery or examination under a microscope. has been implemented.
  • Non-Patent Document 1 a technique for extracting cell nuclei and cell features from a pathological tissue image and performing automatic diagnosis has been proposed [see Non-Patent Document 1 and Non-Patent Document 2].
  • the information obtained by the methods shown in Non-Patent Documents 1 and 2 has a problem that it is greatly influenced by the accuracy of the cell nucleus cut-out process.
  • Non-Patent Document 3 a pathological diagnosis support technique using a higher-order local auto-correlation (HLAC) feature
  • Non-Patent Document 4 a pathological diagnosis support technique using a higher-order local auto-correlation (HLAC) feature
  • HLAC local auto-correlation
  • Patent Document 1 typical color information of cell nuclei is stored in advance using a number of pathological tissue images, and the color of the color in the pathological tissue image to be examined is stored.
  • JP 2009-9290 A Patent Document 2
  • a saturation (S) component and a lightness (V) component obtained by HSV color space conversion of a pathological tissue image are binarized by discriminant analysis, and logical product is obtained.
  • the zero area is determined as the background.
  • cell nuclei are extracted by binarizing the V component by discriminant analysis.
  • the histogram of the area ratio of the cytoplasm and cell nucleus for every cell is employ
  • Non-Patent Documents 5 and 6 the number of samples not unusual in non-cancer image to be recognized as a normal has been a recognized erroneously detected as abnormal indicating the suspicion of cancer. In order to effectively reduce the burden on the doctor by this method, it is necessary to suppress this erroneous detection as much as possible.
  • An object of the present invention is to provide region-division image data of a pathological tissue image that can generate region-division image data necessary for generating a region-division image in which a background region, a cytoplasm region, and a cell nucleus region are clearer than before.
  • Another object of the present invention is to provide a feature extraction system and method for a pathological tissue image that can improve the image recognition accuracy as compared with the prior art using higher-order local autocorrelation features.
  • the present application proposes a region division image data creation system for a pathological tissue image that creates region division image data for suppressing erroneous detection in abnormality detection from a pathological tissue image, and the present application provides a pathologist who performs diagnosis at the time of diagnosis.
  • This paper proposes a feature extraction system and method for a pathological tissue image that makes use of the importance of the tissue as a clue and the characteristics peculiar to the pathological tissue image for feature extraction.
  • a pathological tissue image is divided into three regions, a cell nucleus region, a cytoplasm region, and a background region, and each region is ternarized by a level value obtained by quantifying the importance of each tissue.
  • HLAC feature extraction considering rotation and inversion is performed from the pathological tissue image to extract the feature of the pathological tissue image.
  • the first invention of the present application provides region-divided image data necessary for generating a region-divided image in which the background region, the cytoplasmic region, and the cell-nuclear region are clear from the pathological tissue image data including the background, cytoplasm, and cell nucleus.
  • the present invention is intended for a region division image data creation system for a pathological tissue image to be created.
  • the pathological tissue image data is composed of pixel data for a plurality of pixels displaying the background, cytoplasm, and cell nucleus.
  • the region-division image data creation system for a pathological tissue image includes a first binarized image data creation unit, a second binarized image data creation unit, and a ternary image data creation unit.
  • the first binarized image data creation unit creates first binarized image data from which the cell nucleus region and other regions can be distinguished from the pathological tissue image data.
  • the second binarized image data creation unit creates second binarized image data from which the background region and other regions can be distinguished from the pathological tissue image data.
  • the ternarized image data creation unit discriminates the cytoplasm region by taking the negative OR of the first binarized image data and the second binarized image data, and the ternary image data that becomes the region-divided image data Creating data
  • the negative logic of the first binarized image data in which the cell nucleus region and other regions can be distinguished and the second binarized image data in which the background region and other regions can be distinguished.
  • the ternary image data serving as the divided region image data is generated by summing up the cytoplasm regions, it is possible to generate a divided region image in which the background region, the cytoplasm region, and the cell nucleus region are clear.
  • two types of binarized image data with different types of regions created by a distinction method that matches two types of distinctive regions one by one according to the features are divided when distinguishing three types of regions.
  • a region portion with unclear characteristics for distinction becomes clear, and it becomes possible to output three types of regions in a clear state by combining with a clear region portion already divided. It is.
  • the first binarized image data creation unit separates the R component from the RGB image data of the pathological tissue image, for example, and binarizes the separated R component by the discriminating binarization method to obtain the cell nucleus region and the other
  • the first binarized image data that can be distinguished from the region can be created.
  • the RGB image data is image data expressed by a method of expressing a color by three elements of a red component signal (R), a green component signal (G), and a blue component signal (B).
  • the B component is subtracted from the R component on the RGB color space in all the pixels of the pathological tissue image, and the pixel value when the subtraction result is smaller than 0 is obtained.
  • Redundant component-removed RGB image data that has been subjected to redundant component removal that is zero can be used. By performing such redundant component removal, it is possible to remove pixel information that contains a large amount of B component that hinders extraction of the cell nucleus region. Further, when the value obtained by subtracting the R component from the B component in the RGB color space is larger than a predetermined value in all the pixels included in the RGB data removed from the redundant component, the value obtained by subtracting the R component from the B component is a predetermined value.
  • the B component that has been subjected to the clipping process for setting the B component within a predetermined region so as to be a value may be used as image data for obtaining the first binarized image data.
  • clipping it is possible to significantly reduce the influence of noise in the pathological specimen image and staining unevenness in the pathological specimen image.
  • the second binarized image data creation unit separates the V component from the YUV image data of the pathological tissue image, and binarizes the separated V component by the discriminating binarization method.
  • the second binarized image data that can distinguish the background area from other areas is created.
  • the YUV image data is image data expressed by a method of expressing a color by three elements of a luminance signal (Y), a blue component difference signal (U), and a red component difference signal (V). is there.
  • the second binarized image data creation unit may be configured to project the entire pixel data of the YUV image data onto the V axis in the YUV color space and separate the V component.
  • the first and second binarized image data obtained from two types of image data, RGB image data and YUV image data of different data types, contain components that clarify the cell nucleus region and the background region, respectively. Therefore, the cytoplasm region can be clarified by the ternary data creation unit.
  • the second binarized image data creation unit may be configured to create second binarized image data capable of distinguishing the background region from other regions by principal component analysis of the pathological tissue image data. Good.
  • the second binarized image data creation unit projects all pixel data of the pathological tissue image data onto any one of the plurality of principal component axes obtained by the principal component analysis. What is necessary is just to comprise so that 2nd binarized image data may be produced by binarizing the normalized data by the discrimination binarization method.
  • the first binarized image data obtained by projecting and normalizing all pixel data of the pathological tissue image data onto the first principal component axis obtained by the principal component analysis is binarized by the discriminating binarization method.
  • the second binarized image data creation unit is capable of distinguishing the background region from the other regions based on the analysis result of the second principal component axis obtained by principal component analysis of CIE uv image data of the pathological tissue image. It can be configured to create binary image data.
  • the CIE uv image data is image data expressed in the CIE uv color system defined by the International Lighting Commission (Commission Internationale de l'Eclairage).
  • the CIELV color system is a uniform color space designed so that the distance on the color space is close to a perceptual color difference by humans. Therefore, it is possible to perform processing with the same color identification feeling as that of a human (pathologist) to distinguish the regions.
  • RGB color system data is converted to XYZ color system data, an L value is calculated based on the Y value, and u and U based on the XYZ value and the L value are calculated. v is calculated.
  • the feature extraction system for a pathological tissue image includes a higher-order local autocorrelation calculation unit, an element feature vector calculation unit, and a feature extraction unit.
  • the higher-order local autocorrelation calculation unit applies a predetermined local pattern mask to the pathological tissue image created by the region-divided image data creation system of the pathological tissue image, and applies a plurality of mask candidates in the mask range of the local pattern mask. Multiply a certain pixel value. Then, while scanning the local pattern mask over the entire image, the multiplication values of the pixel values are integrated to obtain the product sum value of the entire pathological tissue image.
  • the pathological tissue image may be divided into a plurality of blocks, and a pixel pattern multiplication value may be obtained while scanning the local pattern mask for each block, and the sum of the plurality of block integration values may be calculated as a product sum value. Good.
  • the product sum value obtained at this time is referred to as a feature value in the present application.
  • a local pattern mask when m and n are integers, a range of a grid composed of (2m + 1) ⁇ (2n + 1) cells is set as a mask range, and (2m + 1) ⁇ (2n + 1) cells are defined as a plurality of mask candidates. To do.
  • a local pattern mask is configured by selecting a mask candidate located at the center of the mask range as a central mask among a plurality of mask candidates, and further selecting an arbitrary number of mask candidates of 0 or more from the mask range.
  • 818 includes ⁇ (m, 0), (m, n), (0, n), (- m, n), (- m, 0), (- m, -n), located in (0, -n), (m, -n) ⁇
  • a plurality of local pattern masks configured by selecting either 0, 1 or 2 from 8 are recommended. As described above, it is a feature of HLAC to calculate the correlation of a plurality of mask candidates for pixels in the local mask candidates limited by the mask range. By scanning the entire image or a partial area with such a plurality of local pattern masks, it is possible to extract high-quality features.
  • the position (coordinates) of mask candidates that can be selected other than the central mask at this time can be defined as having integer coordinates closest to the intersection of the following two formulas.
  • the element feature vector generation unit concatenates feature quantities that are product-sum values obtained for each of a plurality of local pattern masks by the higher-order local autocorrelation calculation unit to obtain an element feature vector.
  • the element feature vector generation unit divides a plurality of local pattern masks that can be regarded as equivalent when a plurality of local pattern masks are rotated and / or inverted, respectively, into a plurality of invariant feature groups, respectively.
  • a linear sum of feature amounts obtained from all local pattern masks belonging to the group is calculated, and an element feature vector is obtained by connecting the linear sums obtained for each invariant feature group.
  • the rotation angle may be 45 °, 90 °, 180 °, or the like.
  • the inversion may include inversion in the vertical direction (X axis symmetry), left and right direction (Y axis symmetry) and oblique direction (origin symmetry), or a combination thereof.
  • the feature extraction unit combines a plurality of element feature vectors obtained from a plurality of local pattern mask sets having different sizes of mask ranges obtained by changing the values of m and n described above to obtain a final feature vector. Is generated.
  • the mask range of the local pattern mask set is defined by the above (m, n) binomial set. That is, by preparing a plurality of (m, n) binomial sets (in this case, p) such as (m1, n1), (m2, n2), (mp, np), a plurality ( In this case, p element feature vectors are generated, and the length of the finally obtained feature vector is p times that of each element feature vector.
  • a doctor in a pathological diagnosis based on a pathological tissue image, a doctor is not conscious of directionality and not conscious of the front and back, so that a plurality of local pattern masks are rotated and rotated by 45 ° respectively.
  • the image recognition accuracy can be improved as compared with the conventional technique even if the feature amount as a basis for the determination is reduced. This is because the features of the pathological tissue are aggregated into a small amount of features without being dispersed into a plurality of features derived when rotation / inversion is distinguished.
  • HLAC feature calculation method As the simplest HLAC feature calculation method, if the calculation method using the pixel value as it is for multiplication is used, the difference in the influence of the large value pixel and the small pixel on the feature value becomes large, so the quality of the image feature is degraded. There is a case to let you. Therefore, instead of using the pixel value at the mask position as it is for the multiplication, what is called a CILAC feature is that the frequency of occurrence (number of times) of the combination of the pixel value at the mask position is integrated over the entire image (or partial area). Can also be used.
  • the CILAC feature even a pixel having a small value has the same effect as a pixel value having a large value, so that a feature that better indicates the essence of the target can be extracted regardless of the brightness of the image. As a result, when the CILAC feature is used, the determination accuracy can be improved as compared with the case where the HLAC feature is used.
  • the local pattern mask that is, the case where the background is included in the local pattern mask is ignored. 29, the local pattern with a circle indicating the background is not used.
  • the feature extraction method for a pathological tissue image performs the following steps.
  • a plurality of local mask patterns belonging to one invariant feature group are divided into a plurality of invariant feature groups, each of which is regarded as equivalent when the plurality of local mask patterns are rotated by 45 ° and inverted, respectively.
  • the order of high-order correlation is either 0, 1 or 2
  • the displacement direction is 9 directions around the reference point (no direction / up / down / left / right / upper right / upper left) -35 local pattern masks limited to the lower right and lower left) can be used.
  • the vertical and horizontal distances between the reference points that is, the image correlation width
  • the image correlation width can be arbitrarily determined by the user according to the purpose. For example, when the length and width are both 1, the correlation of pixels in a narrow area of 3 ⁇ 3 pixels is obtained. It is this vertical / horizontal image correlation width that defines the local pattern mask set.
  • a plurality of element feature vectors are generated using a plurality of local pattern mask sets, such as a local pattern mask set (vertical, horizontal) of (1, 1) and a local pattern mask set of (2, 2). These can be combined into a final feature vector.
  • FIG. 2 is a block diagram illustrating a configuration of a pathological diagnosis apparatus including a pathological tissue image region division image data creation system, a pathological tissue image feature extraction system, and a diagnosis unit. It is a flowchart which shows the algorithm of the program used when implement
  • step ST13 of FIG. It is a detailed flowchart of step ST14 of FIG. It is a figure which shows the data set used by verification experiment.
  • A) And (B) is a figure which shows a non-cancer image and a cancer image. It is a figure which shows the method used in the comparative experiment in order to verify the effectiveness of a ternary method.
  • (A) to (D) are an original image, a gray scale image, a binarized image, and a region divided image obtained in the present embodiment. It is a figure which shows a verification experiment result.
  • A) And (B) is a figure which shows a verification experiment result. It is a block diagram which shows the structure of another pathological diagnosis apparatus.
  • FIG. 20 It is a flowchart which shows the algorithm in the case of implementing the ternarization used by the structure of FIG. 20 with software. It is a figure which shows a principal component analysis result notionally. It is a figure which shows the image processing of embodiment of FIG. 20 with an image. It is a block diagram which shows the structure of the area division
  • (A) is an original grayscale image
  • (B) is an extracted image obtained in the embodiment of FIG. 1
  • (C) is an extracted image obtained in the embodiment of FIG. ) Is an extracted image obtained in the embodiment of FIG. (A) shows different mask candidates (black blocks and shaded blocks) for creating a local pattern mask
  • (B) is a table showing the determination results of the mask candidates in coordinates. It is a figure which shows the example of the 3 * 3 local pattern mask of CILAC to 1st order.
  • the present embodiment aims to suppress false detection in abnormality detection from a pathological tissue image, and uses the importance of the tissue that the pathologist focuses at the time of diagnosis and the characteristics specific to the pathological tissue image for feature extraction.
  • a technique for extracting local autocorrelation features (hereinafter abbreviated as HLAC features) is proposed. Specifically, the pathological tissue image is divided into three regions of cell nucleus, cytoplasm, and background, and each region is ternarized by a level value obtained by quantifying the importance of each tissue. Further, since the pathological tissue image has no directional feature, HLAC feature extraction considering rotation and inversion is performed from the pathological tissue image.
  • FIG. 1 is a region divided image data creation system 1 of the pathological tissue image of the present invention, it is a block diagram showing a configuration of the pathological diagnosis apparatus and a diagnosis unit 5 and the characteristic extraction system 3 of the pathological tissue image.
  • FIG. 2 is a flowchart showing an algorithm of a program used when the pathological diagnosis apparatus of FIG. 1 is realized using a computer.
  • FIG. 3 is a flowchart showing an algorithm of a program for realizing the region-division image data creation system 1 for a pathological tissue image.
  • the pathological tissue image region-division image data creation system 1 includes an RGB image data generation unit 11, a first binarized image data generation unit 12, a YUV image data generation unit 13, and a second binarized image data.
  • the pathological tissue image feature extraction system 3 includes a higher-order local autocorrelation calculation unit 31, an element feature vector calculation unit 32, and a feature extraction unit 33.
  • the diagnosis unit 5 performs pathological diagnosis based on the output of the feature extraction system 3 of the pathological tissue image.
  • a pathological diagnosis is performed by executing a learning process configured by steps ST1 to ST7 and a test process configured by steps ST8 to ST14.
  • a normal subspace is formed by learning using non-cancerous pathological tissue images as teacher data.
  • step ST1 first, a non-cancerous pathological tissue image is read as teacher data (pathological tissue image teacher data) (step ST1).
  • step ST2 the histological image (pathological tissue image teacher data) is ternarized (step ST2), and HLAC features are extracted from the ternary image (step ST3).
  • step ST4 the rotation / inversion invariant HLAC feature is reconstructed (step ST4), and then a feature vector is generated from the reconstructed feature (step ST5). Then, a normal subspace representing a non-cancerous pathological tissue image is formed (step ST7) by principal component analysis of the feature vector (step ST6).
  • test data pathological tissue image test data
  • pathological tissue image test data including a cancer pathological tissue image is read (step ST8).
  • the pathological tissue image pathological tissue image test data
  • step ST9 the pathological tissue image (pathological tissue image test data) is ternarized (step ST9), and HLAC features are extracted from the ternary image (step ST10).
  • reconstruction to rotation / inversion invariant HLAC features is performed (step ST11). After that, a feature vector is generated from the reconstructed features (step ST12). Then, the degree of deviation from the normal subspace formed in the learning process is calculated for the feature vector, and abnormality detection is performed (steps ST13 and
  • the pathological tissue image segmentation image data creation system 1 and the pathological tissue image feature extraction system 3 in FIG. 1 execute the above-described learning process and test process steps ST1 to ST12, and the diagnosis unit 5 performs the steps in FIG. ST13 and ST14 are executed.
  • the region-division image data creation system 1 for a pathological tissue image particularly performs the ternarization of steps ST2 and ST9. Therefore, the first binarized image data creation unit 12 can distinguish the cell nucleus region and other regions from, for example, non-cancerous pathological tissue image teacher data and pathological tissue image test data (hereinafter referred to as pathological tissue image data).
  • pathological tissue image data pathological tissue image data
  • the first binarized image data creation unit 12 takes in RGB image data of a pathological tissue image from the RGB image data generation unit 11.
  • the RGB image data is image data that reproduces an image in a wide range of colors by mixing three primary colors of red (Red), green (Green), and blue (Blue).
  • First binarized image data that separates the R component from the RGB image data of the pathological tissue image and binarizes the separated R component by the discriminating binarization method to distinguish the cell nucleus region from other regions Create
  • the separation of the R component can be performed, for example, by projecting all pixel data of the RGB image data onto the R axis in the RGB color space.
  • PI of FIG. 4 shows an example of a pathological tissue image
  • PI1 is a first binarized image in which a cell nucleus region created by the first binarized image data creation unit 12 can be distinguished from other regions. It is the 1st binarized image based on data.
  • the histopathological image PI was stained (HE stained) with hematoxylin that dyes the cell nucleus region in blue-purple and eosin that dyes the cytoplasm, fibers, erythrocytes, etc. other than the cell nucleus in various shades of red according to their properties. A pathological specimen is shown.
  • the second binarized image data creation unit 14 reads the YUV image data of the pathological tissue image PI from the YUV image data generation unit 13.
  • YUV image data is a kind of color space, and is an image for expressing a color by three elements of a luminance signal (Y), a blue component difference signal (U), and a red component difference signal (V). It is data.
  • the second binarized image data creating unit 14 creates second binarized image data that can distinguish the background region and other regions from the pathological tissue image data. Specifically, the second binarized image data creation unit 14 separates the V component from the YUV image data, binarizes the separated V component by the discriminating binarization method, and obtains the background region and the others. Second binarized image data that can be distinguished from the first region is created. More specifically, the second binarized image data generator 14, all the pixel data of the YUV image data projected to the V axis in the YUV color space to separate the V component. PI2 in FIG. 4 indicates a binarized image based on the second binarized image data.
  • 3-valued image data creation unit 15 creates a 3-valued image data to be the first binarized image data and taking the NOR logic of the second binarized image data area divided image data.
  • the cell binary of the first binarized image data is “true 1”, the others are “false”, the background of the second binarized image data is “true 2”, and the others are “false”.
  • the “true / false” of the first binarized image data and the second binarized image data becomes the cell nucleus
  • the “binary” of the first binarized image data and the second binarized image data is “ “Fake true” becomes the background
  • “false false” of the first binarized image data and the second binarized image data becomes the cytoplasm.
  • the fourth is a ternary image based on the ternary image data.
  • the first and second binarized image data obtained from two types of image data of RGB image data and YUV image data having different types of feature amounts have components for clarifying the cell nucleus region and the background region, respectively. Since it is included, the obtained ternary image data is a clarified background region, cytoplasm region, and cell nucleus region.
  • the pathological tissue image is first converted into the cell nucleus / cytoplasm / background.
  • the area is divided into three areas, and then a level value obtained by quantifying the importance of each organization is set in each area.
  • the cell nucleus region stained in purple by HE staining has a large difference in the R component value when compared with the region other than the cell nucleus in the RGB color space.
  • the R component of the pathological tissue image (PI in FIG. 4) is separated (step ST22), and only this R component is binarized using the binarization method of Otsu. (Step ST23).
  • the cell nucleus area (white) and the area other than the cell nucleus (black), which have been stained blue-purple, are divided.
  • the background area is an area that is not stained by HE staining, showing white with the highest luminance value, and little color information.
  • the color information of the area other than the background is mainly the red component.
  • the background region is extracted using the V component of the YUV color space, which is the difference between the luminance and the red component (steps ST24 and ST25).
  • the same binarization process is performed on the V component of the pathological tissue image by Otsu's binarization method (step ST26).
  • the background area (black) that has not been stained by HE staining is divided.
  • the two images PI1 and PI2 divided into the cell nucleus and others, the background and others are integrated, and as shown in PI3 of FIG. 4, there are three images of the nucleus (white), cytoplasm (ash), and background (black).
  • a pathological tissue image divided into regions is synthesized. That is, in step ST27, an area other than the extracted cell nucleus and the background image is defined as the cytoplasm.
  • an image in which predetermined level values are set for the pixels included in the cell nucleus region, cytoplasm region, and background region divided in step ST28 is generated. That is, a level value obtained by quantifying the importance of each tissue is set to the pixels included in each region of the pathological tissue image divided into regions.
  • a level value obtained by quantifying the importance of each tissue is set to the pixels included in each region of the pathological tissue image divided into regions.
  • the diagnosis of a pathologist mainly information on the cell nucleus and cytoplasm is comprehensively diagnosed, but the most important information is information on the nucleus such as the size and arrangement of the cell nuclei.
  • appropriate level values are set for the pixels corresponding to the cell nucleus, cytoplasm, and background divided into regions, and the importance of each feature is reflected in each region.
  • the background level value is fixed to 0 (that is, the pixel value included in the background region is 0)
  • the cytoplasm level value is fixed to 2 (that is, the pixel value included in the cytoplasm region is 2)
  • the level value of the cell nucleus is set to 14 (that is, the cell nucleus region) as the level value that can most distinguish non-cancer from cancer.
  • the level value of the cytoplasm is 2 (ie, the value of the pixel contained in the cytoplasm region is 2), the level value of the background is 0 (ie, the value of the pixel contained in the background region is 0)
  • the level value of the background is 0 (ie, the value of the pixel contained in the background region is 0)
  • the pathological tissue image feature extraction system 3 includes a higher-order local autocorrelation calculation unit 31, an element feature vector calculation unit 32, and a feature extraction unit 33.
  • the higher-order local autocorrelation calculation unit 31 executes steps ST3 and ST10 in FIG. Therefore, the higher-order local autocorrelation calculation unit 31 uses the above-described 35 kinds of predetermined local pattern masks shown in FIG. 6 as the ternary pathological tissue image PI3 created by the above-described region-division image data creation system 1 for pathological tissue images. Are individually used for scanning, and a product-sum value (HLAC feature value) is calculated for each local pattern mask.
  • the element feature vector calculation unit 32 executes steps ST4 and ST11 of FIG.
  • the feature extraction unit 33 executes steps ST5 and ST12 in FIG. 2, and combines element feature vectors obtained from a plurality of local pattern mask sets to generate a final feature vector.
  • the feature amount obtained from each local pattern mask is the Nth-order autocorrelation function with respect to the displacement direction (a1..., AN), where f (r) is a ternary target pathological tissue image.
  • the order N of the higher-order autocorrelation function coefficient is 0, 1 or 2
  • the next displacement direction a is ⁇ no direction, right, upper right, upper, upper left
  • a 35-dimensional vector xi (i 1,..., 35) calculated from 35 local pattern masks as shown in FIG. Calculate as HLAC features.
  • the arrangement of mask candidates in nine directions centered on one mask candidate is the basis for configuring the local pattern mask.
  • the central mask is a reference point, and all mask candidates located at the inner edge of the mask range in the nine surrounding directions can be correlated points located in all displacement directions.
  • all mask candidates can be mask candidates for constituting a local pattern mask.
  • the center mask is the reference point, and the two left and right mask candidates are the correlation partner points.
  • the middle mask is a reference point, and the center mask is one correlation partner. For example, if 5 is set as the pixel value of a reference point in the target image, 5 ⁇ 5 is the feature amount at that reference point.
  • the center mask is a reference point, and the center mask is a point of two correlation partners. No.
  • the numbers in the mask indicate powers corresponding to the number of correlation partners.
  • the element feature vector calculator 32 implements steps ST4 and ST11 in FIG.
  • the element feature vector calculation unit 32 generates an element feature vector by connecting a plurality of HLAC feature quantities obtained by scanning an image with a plurality of local mask patterns.
  • Element feature vectors may be generated by combining linear sums of feature quantities obtained from local pattern masks belonging to each group.
  • a plurality of mask patterns that can be regarded as equivalent when rotated by a specific angle or / and inverted are respectively a plurality of invariant features. Divided into groups. For example, 45 ° is used as the rotation angle, but it may be 90 ° or 180 °.
  • Inversion includes inversion in the vertical direction (X-axis symmetry), left-right direction (Y-axis symmetry), and oblique direction (origin symmetry).
  • the local pattern mask of FIG. 6 is divided into eight invariant feature groups.
  • the central mask of the mask range composed of 3 ⁇ 3 cells is the reference pixel position and the 0th-order local mask pattern is used
  • the linear sum is calculated as a feature value.
  • the multiplication values of pixel values of reference pixels (pixels located in the center mask) point and pixels whose positions are designated by mask candidates other than the center mask are integrated. Then, this process is integrated over the entire image (or partial area) to obtain the feature amount of the local mask pattern.
  • “ ⁇ ” means that the pixel value in the pixel designated by the mask candidate is squared
  • the triple circle means that the pixel value in the pixel designated by the mask candidate is cubed. means.
  • a plurality of local mask patterns belonging to one invariant feature group (in the table of FIG. 7, there are zero invariant one invariant feature group, first in two invariant feature groups, and second in five invariant feature groups),
  • the linear sum of product sum values (features) obtained by scanning with local pattern masks belonging to each of the eight invariant feature groups is calculated as one feature amount as in the rightmost pattern shown in FIG. . That is, for example, in one invariant feature group to which four local pattern masks belong, the sum of all feature amounts obtained by scanning images with the four local pattern masks is the feature amount of the one invariant feature group. .
  • any orientation of the cells and cell nuclei in the pathological tissue image can be regarded as having the same properties as long as they have the same shape, and the image recognition accuracy is dramatically improved.
  • the extracted HLAC features are reconstructed as rotation / inversion invariant HLAC features.
  • inversion invariance is also considered.
  • the local pattern mask No. in FIG. 6 is a local pattern mask No. 7, No. 8, no. Since it is rotationally symmetric with respect to 9, one rotation / inversion invariant feature amount is calculated by a linear sum of these four feature amounts.
  • the 8-dimensional rotation / inversion invariant feature yj (j 1,..., 8) shown in FIG.
  • the element feature vector calculation unit 32 generates feature element vectors by combining these after obtaining the feature quantities of the invariant feature groups.
  • the feature extraction unit 33 combines a plurality of element feature vectors obtained from a plurality of local pattern mask sets having different sizes of mask ranges to generate a final feature vector.
  • the mask range of the local pattern mask set is defined by the above (m, n) binomial set. That is, by preparing a plurality of (m, n) binomial sets (in this case, p) like (m1, n1), (m2, n2), ..., (mp, np), A plurality of (p in this case) element feature vectors are generated, and the length of the finally obtained feature vector is p times that of each element feature vector.
  • FIG. 10A is a flowchart showing details of steps ST3 to ST5 and ST10 to ST12 in FIG. 2, and FIG. 10B is a diagram used for explaining the determination of the image correlation width.
  • a plurality of local pattern masks when m and n are integers, a center mask (black block) among mask candidates in a mask range in which (2m + 1) ⁇ (2n + 1) cells are arranged in a lattice pattern
  • One or more mask candidates selected from a plurality of mask candidates located within a predetermined mask range centering on is set as a mask (eight blocks with diagonal lines).
  • the “predetermined mask range” corresponds to 9 ⁇ 9 vertical and horizontal lattices.
  • the Euclidean distance between the mask candidate located at the corner of the predetermined mask range and the central mask is longer than the Euclidean distance between the central mask candidate on the inner edge side of the predetermined mask range and the central mask. Therefore, the “image correlation width of a predetermined mask range” is determined as including the difference between both distances. If the coordinates of the center mask are (0, 0), the coordinates of the eight masks are as shown in FIG.
  • step ST31 of FIG. 10 (A) 1 is set to the variable i.
  • scanning is performed with the i-th image correlation width set to a predetermined value among a plurality of image correlation widths prepared in advance.
  • setting the first image correlation width to a predetermined value means that the first image correlation width is determined for a plurality of (m, n) prepared in advance in order to determine a mask range when scanning a pathological tissue image. It means selecting m and n.
  • step ST33 an element feature vector is calculated based on the above-described equation (1) using the local pattern mask of FIG. That is, element feature vectors are calculated by combining and vectorizing feature quantities obtained by scanning an image with each local pattern mask.
  • step ST34 it is checked whether or not the value of i is equal to a predetermined value p. If they are not equal, 1 is added to i in step T35, and the processes of steps T32 and ST33 are re-executed. If the value of i is equal to the predetermined value p, in step T36, the element feature vectors generated so far are combined, a final feature vector is generated, and the process ends.
  • Step ST33 corresponds to steps ST3 and ST4 and steps ST10 and ST12 in FIG.
  • the normal subspace formation (step ST7) using the principal component analysis (step ST6) of FIG. 2 will be described.
  • a normal subspace is formed using principal component analysis.
  • the formation of the normal partial space is described in detail in Non-Patent Document 6.
  • the normal subspace is a subspace formed by the main components of the feature vector extracted from the learning non-cancer image.
  • the distance between the normal subspace and the feature of the test pathological tissue image is calculated as a deviation degree.
  • step ST14 when the degree of deviation is calculated to be large, it means that it is different from the feature of the non-cancer image, so that it can be recognized as an abnormality indicating a suspected cancer.
  • FIG. 11 shows a detailed flowchart of normal subspace formation steps ST6 and ST7
  • FIG. 12 shows a detailed flowchart of deviation degree calculation step ST13 of FIG. 2
  • FIG. 13 shows the abnormality detection of FIG.
  • the detailed flowchart of step ST14 of this is shown.
  • step ST61 a set of feature vectors (rotation / inversion invariant feature vectors) is read.
  • step ST62 principal component analysis is applied to the rotation / inversion invariant feature vector yj to obtain a principal component vector that forms a normal subspace.
  • This principal component vector can be obtained by solving the eigenvalue problem of the autocorrelation matrix Ry of the feature vector set ⁇ yj ⁇ .
  • a normalized feature vector obtained by normalizing each feature vector may be used.
  • U is a matrix having eigenvectors as columns
  • is a diagonal matrix having eigenvalues as diagonal elements.
  • the eigenvector corresponds to a principal component vector
  • the eigenvalue corresponds to a contribution rate indicating how much each principal component has the ability to explain the entire data. Therefore, the eigenvectors are rearranged in descending order of contribution rate (step ST71). ).
  • the dimension number K corresponding to the number forming the normal subspace is determined from the principal component vectors (that is, the eigenvectors).
  • the number of dimensions K is the following cumulative contribution ratio that quantifies how much the principal component contributes to expressing the information of the analyzed data.
  • the normal subspace eigenvectors U K ⁇ u 1 to dimension K which satisfies the cumulative contribution ratio eta K ⁇ C,. . . , U K ⁇ is a space defined as a basis vector (step ST72).
  • C is the cumulative contribution rate condition
  • ⁇ i is the contribution rate of the principal component vector u i
  • M is the total number of eigenvalues.
  • step ST13 and ST14 of FIG. 2 The deviation calculation and abnormality detection in steps ST13 and ST14 of FIG. 2 will be described.
  • the distance between the feature vector extracted from the test pathological tissue image and the normal subspace is used as an abnormality detection index.
  • This degree of deviation can be calculated as a projection component of the normal subspace onto the orthogonal complement space as follows (steps ST13A and 13B in FIG. 12). Projector P to normal subspace is given by
  • U K T is a transposed matrix of U K and K is the number of dimensions.
  • y is a feature vector of the test pathological tissue image
  • y T is a transposed matrix of y.
  • d ⁇ is compared with a threshold value H that preset, it is possible to abnormality detecting suspected cancerous (step ST14A and ST14B shown in FIG. 13).
  • Figure 14 shows the data set used in the verification experiment.
  • the learning teacher data using the 250 samples diagnosed as non-cancerous by pathologists, the test data were used another non-cancer data 50 samples and cancer data 24 samples from the learning data.
  • the histopathological images used in the experiment were taken at a microscope magnification of 20 times, such as a non-cancer image shown in FIG. 15A and a cancer image shown in FIG. 15B, and a jpeg with a size of 1280 pixels ⁇ 960 pixels. It is an image saved in the format.
  • Verification experiment 1 Verification of effectiveness of ternary method
  • a comparative experiment was performed using the three methods shown in FIG.
  • rotation / inversion invariant features were not reconstructed, and the results of the best condition in each method were compared among the three conditions of cumulative contribution ratio C of 0.999, 0.9999, and 0.99999.
  • FIG. 17 shows the original image (FIG. 17A) and the area-divided image of each method converted to gray scale for visual comparison.
  • the cell nuclei, cytoplasm, and background pixel values are displayed as 255, 127, and 0, respectively.
  • the gray scale (FIG. 17B) is closest to the original image, and the structure of the tissue is clearly visible.
  • binarization FIGG. 17C
  • most of the cytoplasm portion is included in the background region.
  • the cell nucleus, cytoplasm, and background can be appropriately divided into regions.
  • Fig. 18 shows the results of verification experiments using each method.
  • the number of false detections (FP (1 ⁇ )) is the smallest in the method of the present embodiment, and the effectiveness of the method of the present embodiment has been confirmed.
  • the number of false detections is increased because the number of gradations of pixels is small with respect to the gray scale, and the amount of information representing the characteristics of the pathological tissue is reduced.
  • the number of false detections is reduced despite the fact that the number of gradations of pixels is reduced to ternary with respect to 256 values of grayscale.
  • Fig. 19 shows the results of the verification experiment.
  • the average + standard deviation ( ⁇ ) set as the threshold is set as 1 ⁇
  • the average + 2 ⁇ standard deviation ( ⁇ ) is set as 2 ⁇ in the graph.
  • FIG. 20 shows a pathological tissue image region segmented image data creation system 101, a pathological tissue image feature extraction system 103, and a diagnosis unit 105, which have different configurations from the pathological tissue image region segmented image data creation system 1 shown in FIG. It is a block diagram which shows another structure of the other pathological diagnosis apparatus provided with these.
  • FIG. 21 is a flowchart showing an algorithm when the ternarization used in the configuration of FIG. 20 is implemented by software.
  • the second binarized image data creation unit 114 performs the principal component analysis on all the pixel values of the pathological tissue image data to distinguish between the background region and the other regions.
  • This embodiment is different from the embodiment of FIG. 1 in that an image data configured to be used is used.
  • Other points are the same as in the embodiment of FIG. Accordingly, with respect to the other points, the constituent elements shown in FIG. 20 are given the same reference numerals as the constituent elements shown in FIG.
  • the second binarized image data creation unit 114 used in the present embodiment has all pixel data of the pathological tissue image data on the first principal component axis obtained by principal component analysis of all pixel values. Is normalized by projecting and binarized by a discriminating binarization method to generate second binarized image data.
  • the second binary data obtained by projecting and normalizing all pixel data of the pathological tissue image data with respect to the other principal component axes instead of the first principal component axis is binarized by the discriminant binarization method.
  • the converted image data may be created.
  • all pixel data of the pathological tissue image data is projected and normalized with respect to a plurality of principal component axes, and a logical product operation is performed on a plurality of binarized image data obtained by binarization by a discrimination binarization method.
  • the second binarized image data may be created.
  • other operations such as logical sum may be used in addition to the logical product operation.
  • the binarized image data creation unit 115 performs the second binarization by binarizing the first binarized image data obtained by binarizing the R component and the result using the principal component analysis.
  • a cytological region is distinguished by taking a negative OR of the image data, and ternary image data serving as region divided image data is created.
  • the second binarized image data is obtained by performing principal component analysis of the pathological tissue image data as in the present embodiment
  • the second binarized image data is obtained from the YUV image data as shown in FIG. Tests have shown that the background and cytoplasm regions can be clarified more than in the case. This is because the distinction between the background and the other is largely related to the relative color density, and therefore, in a pathological tissue image with weak staining, the overlap of the pixels belonging to the background and the cytoplasmic distribution with only the V component of the YUV image. This is because the principal component analysis requires a direction that maximizes the variance, that is, a direction that minimizes the overlap of the distributions, and can separate the background and others well.
  • FIG. 23 shows the processing of the present embodiment as an image.
  • the background region, the cytoplasm region, and the cell nucleus region are different from the region-divided image shown in FIG. 4 obtained in the embodiment of FIG. 1. More clearly divided.
  • an image based on the HLAC feature is obtained by weighting the image divided into the background region, the cytoplasm region, and the cell nucleus region according to the degree of attention of the doctor in the pathological diagnosis.
  • Recognition accuracy can be increased. For example, when the values (level values) given to the pixels belonging to the background region and the cytoplasm region are fixed to 0 and 2, respectively, the value (level value) given to the pixels belonging to the cell nucleus region is set to 14 to obtain the best recognition result. Is obtained.
  • FIG. 24 shows a pathological tissue image region segmented image data creation system 201, a pathological tissue image feature extraction system 203, and a diagnosis unit 205 that have different configurations from the pathological tissue image region segmented image data creation system 1 shown in FIG. It is a block diagram which shows another structure of the other pathological diagnosis apparatus provided with these.
  • FIG. 25 is a flowchart showing an algorithm when the ternarization used in the configuration of FIG. 24 is implemented by software.
  • principal component analysis is used to divide a pathological tissue image into regions such as the background, cytoplasm, and cell nucleus without depending on the staining state of the specimen.
  • Pathological specimens are stained with hematoxylin and eosin. Since the cell nucleus area is stained with hematoxylin with a blue-violet dye, the B component is higher than the other components compared to the other areas when compared with each component in the RGB color space even if the staining density is different. This decrease is a fact that the pathological specimen image stained with hematoxylin and eosin does not change even if the staining condition is different.
  • a cell scale region can be extracted by creating a gray scale image in which the difference value between the B component and the R component in the RGB color space is emphasized and binarizing. Therefore, in the present embodiment, the first binarized image data creation unit 212 performs redundant component removal (step ST222A), clipping (step ST222B), and binarization in order to extract a cell nucleus region. Further, the second binarized image data generating unit 214 can perform principal component analysis on CIE uv image data output from the CIE uv image data generating unit 213 to distinguish a background region from other regions. It differs from the embodiment of FIG. 1 in that it is configured to create data.
  • the higher-order local autocorrelation calculation unit 231 of the pathological tissue image feature extraction system 203 scans with a plurality of local pattern masks, and the color index (for example, the color number) of the reference point and the displacement direction. calculating the co-occurrence of color index point correlation partners (eg color number) is close to the point of using a so-called CILAC, it differs from the embodiment FIG. Other points are the same as in the embodiment of FIG. Thus in other regards, the steps shown in the components and 25 shown in FIG. 24 are denoted by the sign of plus the number of 200 to the reference numerals to the components shown in FIGS. 1 and 3 The description is omitted.
  • the first binarized image data creation unit 212 performs redundant component removal in step ST222A for color information reduction in FIG.
  • the cell nucleus region is stained with hematoxylin with a blue-violet pigment. Therefore, when compared with each component of the RGB color space, the B component is more than the other components even if the staining concentration is different. high. Therefore, in order to reduce redundant components unrelated to the cell nucleus region, the pixel value is set to 0 when the result of subtracting the B component from the R component in the RGB color space is larger than 0 in all the pixels of the pathological tissue image. By performing such redundant component removal, it is possible to remove pixel information that contains a large amount of B component that hinders extraction of the cell nucleus region.
  • step ST223 thus the B 'obtained by clipping for each pixel, is regarded as image data for determining the first binarized image data, performs binarization.
  • clipping is performed, it is possible to significantly reduce the influence of noise in the pathological specimen image and staining unevenness in the pathological specimen image.
  • FIG. 26 shows an image used to confirm the effects of redundancy removal and clipping. From FIG. 26, it is understood that the glandular cavity A, which is the background, is erroneously extracted as a cell nucleus when neither redundancy removal nor clipping is performed, or when only clipping is performed. Moreover, the glandular cavities that are the background cannot be extracted only by removing the redundancy, but the size of the cell nucleus region is reduced. On the other hand, it can be seen that when redundant part removal and clipping are used in combination, the glandular cavity A is not extracted, and at the same time, the cell nucleus region B can be more accurately extracted.
  • the second binarized image data creation unit 214 used in the present embodiment uses a second principal component axis analysis result obtained by performing principal component analysis on CIE uv image data of a pathological tissue image, and a background region and other regions.
  • the second binarized image data that can be distinguished from each other is created.
  • the CIE uv image data is image data expressed in the CIE color system defined by the International Lighting Committee (Eclairage).
  • the CIELV color system is a uniform color space designed so that the distance on the color space is close to a perceptual color difference by humans.
  • all pixel data of the pathological tissue image is converted into the CIELV color system, and all pixel data is projected onto the second principal component axis obtained by the principal component analysis, and the result is determined by the discriminating binarization method.
  • Binarization is performed to create second binarized image data. The reason why only the second principal component axis is used is that it has been visually confirmed through experiments that the background is extracted most faithfully compared to the case where other principal component axes are used.
  • the normalized binarization method is obtained by projecting and normalizing all pixel data of the pathological tissue image data with respect to the other principal component axes instead of the second principal component axis.
  • binarization may be used to create second binarized image data.
  • all pixel data of the pathological tissue image data is projected and normalized with respect to a plurality of principal component axes, and a logical product operation is performed on a plurality of binarized image data obtained by binarization by a discrimination binarization method.
  • the second binarized image data may be created.
  • other operations such as logical sum may be used in addition to the logical product operation when generating the second binarized image data.
  • the binarized image data obtained by processing the V component in the YUV color space by the discriminating binarization technique as used in the first embodiment is used. May be.
  • all pixel data of the pathological tissue image data is projected onto the first principal component axis obtained by performing principal component analysis on all pixel data in the RGB color space.
  • the second binarized image data may be created by binarizing the normalized data by the discrimination binarization method.
  • the second binarization is performed by binarizing the pixel data of the pathological tissue image data, which is not the first principal component axis, but by normalizing by projecting all the pixel data of the pathological tissue image data by the discrimination binarization method.
  • image data may be created.
  • all pixel data of the pathological tissue image data is projected and normalized with respect to a plurality of principal component axes, and a logical product operation is performed on a plurality of binarized image data obtained by binarization by a discrimination binarization method.
  • the second binarized image data may be created.
  • other operations such as logical sum may be used in addition to the logical product operation when generating the second binarized image data.
  • FIG. 27A shows an original grayscale image.
  • B is an extracted image obtained in the embodiment of FIG. 1, and the cytoplasm region is also partially extracted white.
  • C is an extracted image obtained in the embodiment of FIG. 20, and most of the cytoplasmic region is extracted white as in the background.
  • D is an extracted image obtained in the present embodiment, and a white background is extracted so as not to include a cytoplasm region.
  • the ternary image data creation unit 215 in FIG. 24 will be described.
  • the third binary image data the cytoplasm region and a part of the cell nucleus are distinguished from other regions.
  • an arbitrary pixel value A is set for the pixels belonging to the cell nucleus region of the first binary image data, and 0 is set for the other pixel values.
  • an arbitrary pixel value B is set for the pixels belonging to the background area of the second binary image data, and 0 is set for the other pixel values.
  • the third image data an arbitrary value C is set to pixels corresponding to a part of the cytoplasm region and the cell nucleus, and 0 is set to other pixel values.
  • the three binary images are overlaid by the following procedure. That is, the pixel value B is set so as to be overwritten also on the third image data for the pixel at the position where the pixel value B is set in the second binary image data.
  • the third image data has a value B set for pixels belonging to the background area, a value C set for pixels corresponding to part of the cytoplasmic region and the cell nucleus, and a state where 0 is set for pixels corresponding to the remaining part of the cell nucleus. Become.
  • the pixel value A in the first binary image data is set so as to overwrite the pixel value A on the third image data as well.
  • the third image data is in a state where the value B is set for the pixels belonging to the background area, the value C is set for the pixels belonging to the cytoplasm area, and the value A is set for the pixels belonging to the cell nucleus area.
  • an appropriate level value for example, 0 for the background region, 2 for the cytoplasm region, and 14 for the cell nucleus region
  • is set for the pixels in each region thereby generating a ternary image.
  • FIG. 28A shows mask candidates (black blocks and shaded blocks) for creating a local pattern mask used in this embodiment
  • FIG. 28B shows the position of the mask candidate. It is a table
  • the eight mask candidates in the mask range have the coordinates of the intersection of the following two formulas Is defined as
  • FIG. 28B shows the coordinates of mask candidates. The effect of such a local pattern mask composed of eight mask candidates and a center mask will be described by comparing FIG. 10 (B) and FIG. 28 (A). In the local pattern mask of FIG.
  • the mask arrangement shown in FIG. 10B may be used for the local pattern mask, as was done in the first embodiment.
  • the mask pixel value multiplication unit 231 uses the color index of the reference point (for example, the color number) as a result of scanning with a plurality of local pattern masks and the color index of the correlated partner located in the displacement direction (for example, a feature extraction method called CILAC (Color Index Local Auto-Correlation) that calculates the co-occurrence of color numbers) is used.
  • CILAC Color Index Local Auto-Correlation
  • ⁇ Co-occurrence is a property that shows the tendency of different events to appear at the same time.
  • the relationship between adjacent pixels specified by the local mask pattern is expressed by a combination of three classes (cell nucleus, cytoplasm, background), and the occurrence frequency (or occurrence probability) of all combinations is a feature. It becomes possible to extract.
  • the CILAC feature is expressed as a vector obtained by concatenating 0th, 1st, and 2nd order autocorrelations when the order of higher order correlation is 0, 1 or 2.
  • r is a reference pixel
  • a and b are displacement vectors from r
  • f i (x) is a function that is 1 when pixel x
  • D 3
  • color labels 1, 2, and 3 are label values given to pixels belonging to the cell nucleus region, label values given to pixels belonging to the cytoplasm region, and label values given to pixels belonging to the background region
  • the displacement vectors a and b are defined by the positions of nine mask candidates included in the local pattern mask.
  • the zero-order correlation R 0 (i) is a vector of length 3 because i can take three types of values (color labels). Since the primary correlation R 1 (i, j, a) can take three values (color labels) for i and j and eight directions for the displacement vector, a vector of length 3 ⁇ 3 ⁇ 8 Become.
  • the local pattern mask composed of the three values of the cell nucleus, cytoplasm, and background in CILAC Only those showing the relationship between the cell nucleus and the cytoplasm can be used.
  • FIG. 29 shows an example of a CILAC 3 ⁇ 3 local pattern mask up to the first order. If it is a basic scanning method, all the local pattern masks of FIG. 29 are used. However, if the local pattern mask is limited to only cell nuclei and those showing the relationship between cell nuclei and cytoplasm, only the local pattern mask in which the cells are colored in FIG. 29 is used. Considering the mask number up to second order, the number of all types of local pattern mask is 1587, the number of invariant feature group even when the reconstitution with rotation reversal invariance is 63.
  • the number of local pattern masks is 153, and the number of invariant feature groups when reconstructing by rotation inversion is constant is 15. is there.
  • HLAC features may be extracted not from CILAC feature values but from pathological tissue images that are divided into regions and set with level values, as in the first embodiment. Of course, it is not necessary to reconstruct the feature quantity based on the rotation / inversion invariant feature group.
  • the overdetection rate (number of overdetections / number of normal samples) when performing cross-validation in a sample experiment of cancer tissue was 15.7%. From this result, in the feature extraction of pathological tissue images, the CILAC extraction method is superior to HLAC, and over-detection can be suppressed by limiting the local pattern mask to only the cell nucleus and showing the relationship between the cell nucleus and the cytoplasm. Was confirmed.
  • the present invention does not require detailed definition of cancer characteristics in advance, and it is possible to detect abnormalities of unknown lesions that have not yet been discovered by learning the characteristics of normal tissue images collected so far. is there.
  • the first binary image data in which the cell nucleus region and other regions can be distinguished from each other and the second binary image data in which the background region and other regions can be distinguished are subjected to a negative OR operation. Since the ternary image data serving as the region divided image data is created by distinguishing the cytoplasm region, it is possible to generate a region divided image in which the background region, the cytoplasm region, and the cell nucleus region are clearer than in the past.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Nonlinear Science (AREA)
  • Biomedical Technology (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Investigating Or Analysing Biological Materials (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)

Abstract

 領域分割画像を生成するために必要な領域分割画像データを作成することができる病理組織画像の領域分割画像データ作成システムを提供する。第1の2値化画像データ作成部12は、病理組織画像データから細胞核領域とその他の領域とが区別できる第1の2値化画像データを作成する。第2の2値化画像データ作成部14は、病理組織画像データから背景領域とその他の領域とが区別できる第2の2値化画像データを作成する。そして3値化画像データ作成部15は、第1の2値化画像データと第2の2値化画像データの否定論理和をとって細胞質領域を区別し、領域分割画像データとなる3値化画像データを作成する。

Description

病理組織画像の領域分割画像データ作成システム及び病理組織画像の特徴抽出システム
 本発明は、病理組織画像の領域分割画像データ作成システム並びに病理組織画像の特徴抽出システム及び方法に関するものである。
 現在、がん( 本明細書では、悪性腫瘍全体を示す際には「がん」と表記し、胃生検組織など上皮組織由来の悪性腫瘍を示す際には「癌」と表記する)の確定診断として行われている病理診断では、専門の知識と経験を有する病理専門医(以下、病理医とする)により、患者の体から手術や検査によって採取された組織の病理標本を顕微鏡観察することにより実施されている。
 しかし、近年のがん患者の増加や医師不足などにより、病理医への負担増加が深刻な社会問題となりつつある。国立がんセンターがん対策情報センターの発表によれば、日本では、1998年以降、毎年50万人以上が新たにがん患者と診断され、2004年には1975年の約3倍である約65万人が新たにがん患者と診断されている。今後もがん患者はさらに増加する見込みで、このままでは病理医への負担がさらに増加するものと懸念されている。しかし、病理医不足が解消するめどは立っておらず、病理医の負担を軽減するための技術開発が求められている。
 この問題を解決する技術として、病理組織画像から細胞核や細胞の特徴を抽出し、自動診断を行う手法が提案されている[非特許文献1及び非特許文献2参照]。しかし、非特許文献1及び2に示される手法で得られる情報は、細胞核の切り出し処理の正確性に大きく影響されるという問題がある。
 そこで発明者等は、この問題を克服する別のアプローチとして、高次局所自己相関(Higher-order Local Auto-Correlation:HLAC)特徴[非特許文献3]を用いた病理診断支援技術[非特許文献4及び非特許文献5]を提案した。この手法では、細胞核や細胞の輪郭を切り出すことなく病理組織画像の特徴抽出を行うことが可能である。この提案では、胃生検病理組織画像に対し、まず、非癌の正常病理組織画像から抽出したHLAC特徴の主成分分析により、正常部分空間[非特許文献6参照]の形成を行い、癌を含む病理組織画像から抽出したHLAC特徴に対し、この正常部分空間からの逸脱度を算出して異常検出を行った。実験の結果、学習した非癌の正常病理組織画像と比較して、癌を含む病理組織画像を異常として認識し、自動診断への適用可能性があることは確認できた。
 また特開2006-153742号公報(特許文献1)には、事前に多数の病理組織画像を使って細胞核の典型的な色情報を記憶しておき、検査対象である病理組織画像におけるその色の分布状態を調べ、高く分布している箇所を細胞核の中心と見なして所定サイズを切り出し、それらにおける色情報などを、対象とする病理組織画像の特徴量として採用している。
 また特開2009-9290号公報(特許文献2)には、病理組織画像をHSV色空間変換して得られる彩度(S)成分と明度(V)成分を判別分析で2値化し、論理積を取って、ゼロの領域を背景と判定している。さらに背景以外の領域について、V成分を判別分析で2値化して細胞核を抽出している。そしてこの従来技術では、細胞毎の細胞質と細胞核の面積比のヒストグラムを特徴量として採用している。
特開2006-153742号公報 特開2009-9290号公報
C.Demir and B. Yener,"Automated cancer diagnosis based on histpathological images: a stystematic survey,"Technical Report, TR-05-09, Rensselaer Polytechnic Institute, Mar.2005. E. Cosatto, M. Miller, H.P. Graf and J. S. Meyer, "Grading Nuclear Pleomorphism on Histological Micrographs," Proc. of the 19th International Conference on Pattern Recognition (ICPR2008), pp.1-4, Tampa, USA, Dec.2008. N.Otsu and T.Kurita,"A new scheme for practical flexible and intelligent vision systems," Proc. IAPR Workshop on Compiter Vision, pp.431-435, Tokyo, Japan, Oct.1988. 野里博和,坂無英徳,村川正宏,樋口哲也,大津展之,寺井謙介,蛭田啓之,亀田典章,"高次局所自己相関特徴を用いた病理組織診断支援技術の研究,"情報処理学会研究報告 MPS-73,vol.2009,no.19,pp.161-164,Mar.2009. 栗原司,野里博和,坂無英徳,村川正宏,古谷立美,樋口哲也,大津展之,寺井謙介,蛭田啓之,亀田典章,"高次局所自己相関特徴を用いた病理組織画像からの異常検出,"2009年映像情報メディア学会冬季大会講演予稿集,p.5-2,Dec.2009 Takuya Nanri and Nobuyuki Otsu,"Unsupervised Abnormality Detection in Video Surveillance," Proc. IAPR Conf. on Machine Vision Application (MVA2005),pp.574-577, Tsukuba, Japan, May.2005.
 非特許文献5及び6に記載の手法では、正常として認識されるべき非癌画像においても少なくない数のサンプルが、癌の疑いを示す異常と認識され誤検出となっていた。この手法により医師の負担を効果的に軽減するためには、この誤検出をなるべく抑えることが必要である。
 また特許文献1に記載の技術では、組織標本の染色状態は一定ではないため、検査対象における細胞核の色と事前に求めた典型的な細胞核の色とが一致しない恐れがあり、細胞核検出精度が低下する。また特許文献1の技術で得られる情報は、細胞核の切り出し処理の正確性に大きく影響されるという問題がある。
 特許文献2に記載の技術では、組織標本の染色状態が薄い場合、画像全体のSおよびV成分の分散が小さくなるため、正確な2値化が難しくなる恐れがある。また一定面積における細胞質と細胞核の面積比のヒストグラムを特徴量として採用しているが、面積比には細胞や細胞核の形に関する情報が含まれないため、病理組織標本の性質を適切に表現しているとは言えない問題がある。
 本発明の目的は、背景領域、細胞質領域及び細胞核領域が従来よりも明確になった領域分割画像を生成するために必要な領域分割画像データを作成することができる病理組織画像の領域分割画像データ作成システムを提供することにある。
 本発明の他の目的は、高次局所自己相関特徴を用いて、従来よりも画像認識精度を高めることができる病理組織画像の特徴抽出システム及び方法を提供することにある。
 本出願は、病理組織画像からの異常検出における誤検出を抑えるための領域分割画像データを作成する病理組織画像の領域分割画像データ作成システムを提案し、且つ本出願は、病理医が診断時の手掛かりとする組織の重要度と病理組織画像特有の性質を特徴抽出に活かした、病理組織画像の特徴抽出システム及び方法を提案する。まず病理組織画像を細胞核領域・細胞質領域・背景領域の3つの領域に分割し、各領域をそれぞれの組織の重要度を数値化したレベル値によって3値化する。また、病理組織画像は方向的特徴がないので、病理組織画像から回転や反転を考慮したHLAC特徴抽出を行って病理組織画像の特徴を抽出する。
 本出願の第1の発明は、背景、細胞質及び細胞核を含む病理組織画像データから、背景領域、細胞質領域及び細胞核領域が明確になった領域分割画像を生成するために必要な領域分割画像データを作成する病理組織画像の領域分割画像データ作成システムを対象とする。ここで病理組織画像データは、背景、細胞質及び細胞核を表示する複数の画素についての画素データによって構成されている。病理組織画像の領域分割画像データ作成システムは、第1の2値化画像データ作成部と、第2の2値化画像データ作成部と、3値化画像データ作成部とから構成される。第1の2値化画像データ作成部は、例えば、病理組織画像データから細胞核領域とその他の領域とが区別できる第1の2値化画像データを作成する。第2の2値化画像データ作成部は、病理組織画像データから背景領域とその他の領域とが区別できる第2の2値化画像データを作成する。そして3値化画像データ作成部は、第1の2値化画像データと第2の2値化画像データの否定論理和をとって細胞質領域を区別し、領域分割画像データとなる3値化画像データを作成する
 本発明のように、細胞核領域とその他の領域とが区別できる第1の2値化画像データと背景領域とその他の領域とが区別できる第2の2値化画像データの否定論理和をとって細胞質領域を区別し、領域分割画像データとなる3値化画像データを作成すると、背景領域、細胞質領域及び細胞核領域が明確になった領域分割画像を生成することができる。これは、3種類の領域を区別して領域分割する場合、特徴的な2種類の領域を1種類ずつその特徴に合わせた区別方法により作成した領域の種類が異なる2種類の2値化画像データの否定論理和を取ることにより、区別するための特徴が不明瞭な領域部分が明瞭になり、既に分割した明瞭な領域部分と組み合わせることで3種類の領域を明瞭な状態で出力できるようになるためである。
 なお第1の2値化画像データ作成部は、例えば病理組織画像のRGB画像データからR成分を分離し、分離したR成分を判別2値化法により2値化処理して、細胞核領域とその他の領域とが区別できる第1の2値化画像データを作成するように構成することができる。ここでRGB画像データとは、赤色成分の信号(R)と、緑色成分の信号(G)と青色成分の信号(B)の3要素によって色を表現する方式で表現された画像データである。
 第1の2値化画像データ作成部で使用する画像データとして、病理組織画像のすべての画素においてRGB色空間上のR成分からB成分を減算し、減算結果が0より小さい場合の画素値を0とする冗長成分除去を行った冗長成分除去RGB画像データを用いることができる。このような冗長成分除去を行うと、細胞核領域の抽出に障害となるB成分を多く含んだ画素情報を除去できる。さらに冗長成分除去RGBデータに含まれるすべての画素においてRGB色空間上のB成分からR成分を減算した値が、所定の値より大きい場合には、B成分からR成分を減算した値が所定の値となるようにB成分を予め定めた領域内のものとするクリッピング処理をした後のB成分を、第1の2値化画像データを求めるための画像データとして用いてもよい。このようなクリッピングをすると、病理標本画像に写るノイズや病理標本画像内の染色むらによる影響を大幅に低減できる。
 そして第2の2値化画像データ作成部は、具体的には、例えば、病理組織画像のYUV画像データからV成分を分離し、分離したV成分を判別2値化法により2値化処理して、背景領域とその他の領域とが区別できる第2の2値化画像データを作成するように構成されている。ここでYUV画像データとは、輝度信号(Y)と、青色成分の差分信号(U)、赤色成分の差分信号(V)の3要素によって色を表現する方式のことで表現された画像データである。この場合、第2の2値化画像データ作成部は、より具体的にはYUV画像データの全画素データをYUV色空間におけるV軸に射影してV成分を分離するように構成すればよい。データの種類が異なるRGB画像データとYUV画像データの2種類の画像データから得た第1及び第2の2値化画像データには、それぞれ細胞核領域、背景領域を個々に明確にする成分が含まれることになるため、上記3値化データ作成部により細胞質領域を明確化することが可能となる。
 また第2の2値化画像データ作成部として、病理組織画像データを主成分分析して背景領域とその他の領域とが区別できる第2の2値化画像データを作成するように構成してもよい。この場合、第2の2値化画像データ作成部は、より具体的には主成分分析により得た複数の主成分軸のいずれか一つに、病理組織画像データの全画素データを射影して正規化したものを、判別2値化法により2値化して第2の2値化画像データを作成するように構成すればよい。たとえば主成分分析により得た第1主成分軸に、病理組織画像データの全画素データを射影して正規化したものを、判別2値化法により2値化して第2の2値化画像データを作成する。上記の処理を異なる軸に対しても同様に行って得られる複数の2値化画像データに対して論理和や論理積演算をおこなって、新たに1つの2値化画像データを作成してもよい。第2の2値化画像データを、病理組織画像データを主成分分析して得ると、YUV画像データから第2の2値化画像データを得る場合よりも、背景領域、細胞質領域をより明確化できることが試験により判っている。これは、色空間において画素データの分散を極大化する軸に沿って量子化を行うことによって、背景領域とその他領域とをよく分離できるためである。
 また第2の2値化画像データ作成部は、病理組織画像のCIELuv画像データを主成分分析して得た第2主成分軸の分析結果から背景領域とその他の領域とが区別できる第2の2値化画像データを作成するように構成することができる。ここでCIELuv画像データとは、国際照明委員会 (Commission Internationale de l'Eclairage)が定めたCIELuv表色系で表現される画像データである。CIELuv表色系は、色空間上の距離が、人間による知覚的な色の差に近くなるように設計された均等色空間である。そのため人間(病理医)と同様の色識別感覚で処理を行い、領域を区別することが可能となる。
 なおRGB表色系からCIELuv表色系への変換については、たとえば「太田登,“色彩工学,”電機大出版局,1993.」に記載の方法を用いる事ができる。この公知の変換技術では、RGB表色系のデータをXYZ表色系のデータに変換し、Yの値に基づいてLの値を算出し、XYZの値及び前記Lの値に基づいてuとvを算出する。
 本出願の第2の発明の病理組織画像の特徴抽出システムは、高次局所自己相関計算部と、要素特徴ベクトル計算部と、特徴抽出部とから構成する。
 高次局所自己相関計算部は、病理組織画像の領域分割画像データ作成システムにより作成した病理組織画像に、予め定めた局所パターンマスクを当てはめて、局所パターンマスクのマスク範囲にある複数のマスク候補にある画素値を乗算する。そして、画像全体にわたって局所パターンマスクを走査しながら、画素値の乗算値を積算して、病理組織画像全体の積和値とする。あるいは、病理組織画像を複数のブロックに分け、ブロックごとに局所パターンマスクを走査しながら画素値の乗算値の積算値を求め、複数のブロックの積算値の和を積和値として計算してもよい。このとき得られる積和値のことを、本出願では特徴量と呼ぶ。
  局所パターンマスクは、m及びnを整数としたときに、(2m+1)×(2n+1)のセルからなる格子の範囲をマスク範囲とし、(2m+1)×(2n+1)個のセルを複数のマスク候補とする。そして複数のマスク候補のうち、マスク範囲の中心に位置するマスク候補を中心マスクとして選択し、さらにマスク範囲から0以上の任意個数のマスク候補を選択することで局所パターンマスクは構成される。「大津展之, パターン認識における特徴抽出に関する数理的研究, 電子技術総合研究所研究報告, 第818号」には、中心マスクであるマスク候補以外に、マスク範囲内の{(m,0),(m,n),(0,n),(-m,n),(-m,0),(-m,-n),(0,-n),(m,-n)}に位置する8個から、0個または1個または2個のいずれかを選択する事で構成される複数の局所パターンマスクを用いるのがよいとされている。このように、マスク範囲で限定された局所的なマスク候補中の画素について、複数個のマスク候補の相関を計算することがHLACの特徴である。このような複数の局所パターンマスクで画像全体もしくは一部領域を走査することで品質の良い特徴を抽出することができる。
 なお、マスク範囲からのマスク候補の選択方法について上記文献「パターン認識における特徴抽出に関する数理的研究」に一応の指針は掲載されている。しかし目的に応じて任意にマスク候補を選択することが可能である。特に複数の局所パターンマスクをそれぞれ複数の回転不変特徴グループに分ける場合には、各マスク候補に関して、中心マスクまでの距離がそれぞれできるだけ等しくなるように選択することが、回転不変性を高めるために望ましく、より品質の高い特徴を抽出することができる。
 このときの中心マスク以外選択可能なマスク候補の位置(座標)は、下記の2式の交点に最も近い整数の座標を有するものとして定義できる。
  (x2/n2)+(y2/m2)=1
   y=±(m/n)xあるいはy=0あるいはx=0
 要素特徴ベクトル生成部は、高次局所自己相関計算部により複数の局所パターンマスク毎に得られる積和値である特徴量を連結(concatenate)して要素特徴ベクトルを得る。
 さらに、要素特徴ベクトル生成部は、複数の局所パターンマスクをそれぞれ回転あるいは反転、もしくはその両方を行ったときに等価とみなせる複数の局所パターンマスクをそれぞれ複数の不変特徴グループに分け、1つの不変特徴グループに属する全ての局所パターンマスクから得られる特徴量の線形和を計算し、不変特徴グループ毎に得られる線形和を連結して要素特徴ベクトルを得る。ここで、回転角度としては、45°、90°、180°などが考えられる。また反転には、上下方向(X軸対称)、左右方向(Y軸対称)及び斜め方向(原点対称)の反転、あるいはこれらの組合せを含めてもよい。
 特徴抽出部は、前述のmとnの値を変えて得られる、異なる大きさのマスク範囲を有する複数の局所パターンマスク集合から得られる複数の要素特徴ベクトルを結合して、最終的な特徴ベクトルを生成する。局所パターンマスク集合のマスク範囲は、上記(m,n)の二項組により規定される。すなわち、(m1,n1)、(m2,n2)、(mp,np)のように、(m,n)の二項組を複数(この場合はp個)用意しておくことで、複数(この場合はp個)の要素特徴ベクトルが生成され、最終的に得られる特徴ベクトルの長さは、個々の要素特徴ベクトルのp倍となる。
 本発明によれば、病理組織画像に基づく病理診断において、医師は方向性を意識せず且つ表裏を意識しないという特徴から、複数の局所パターンマスクをそれぞれ45°ずつ回転させたとき及び反転させたときに等価とみなせる複数の局所パターンマスクをそれぞれ複数の不変特徴グループに分けることにより、判断の基礎とする特徴量を少なくしても、従来よりも画像認識精度を高めることができる。これは、病理組織の特徴が回転・反転を区別した場合に派生する複数の特徴量に分散することなく、少ない特徴量に集約されるためである。
 最もシンプルなHLAC特徴の計算方法として、画素値をそのまま乗算に用いる計算方法を用いると、値の大きな画素と小さな画素が特徴量に与える影響の差が大きくなるため、画像特徴としての品質を劣化させる場合がある。そこで、マスク位置にある画素値をそのまま乗算に用いるのではなく、マスク位置にある画素値の組合せの発生頻度(回数)を画像全体(もしくは部分領域)に亘って積算する、CILAC特徴と呼ばれるものを用いることもできる。CILAC特徴では、値の小さな画素であっても、大きな値の画素値と同程度の影響を持つため、画像の明るさ等によらず対象の本質をよりよく示す特徴を抽出することができる。その結果、CILAC特徴を用いると、HLAC特徴を用いる場合よりも判定精度を高めることができる。
 またCILAC特徴を計算するとき、局所パターンマスクとして、細胞核のみと、細胞核と細胞質の関係を示すものだけを使用する(すなわち局所パターンマスクに背景が含まれる場合を無視する。具体的には、後述する図29において背景を示す○印がある局所パターンを使用しない。)と、病理組織画像中の背景の面積による影響を排除できるため、病理組織の特徴をよりよく抽出できるようになる。
 本発明の病理組織画像の特徴抽出方法は、以下のステップを実施する。病理組織画像を、予め定めた複数の局所パターンマスク集合に属する複数種類の局所パターンマスクを個々に用いて走査して、局所パターンマスク毎に積和値(特徴量)を計算するステップ。複数の局所マスクパターンをそれぞれ45°ずつ回転させたとき及び反転させたときに等価とみなせる複数の局所マスクパターンをそれぞれ複数の不変特徴グループに分け、1つの不変特徴グループに属する複数の局所マスクパターンを一つの特徴とみなして、各不変特徴グループに属する前記局所パターンマスクによる走査で得られた積和値(特徴量)の線形和を計算するステップ。個々の線形和を連結してベクトル化して得られる要素特徴ベクトルを生成するステップ。複数の局所パターンマスク集合から得られる要素特徴ベクトルを連結して最終的な特徴ベクトルを生成し、病理組織画像の特徴を抽出するステップ。
 なお複数の局所マスクパターンとしては、高次相関の次数を0,1または2のいずれかとし、変位方向を参照点の周囲の9方向(方向なし・上・下・左・右・右上・左上・右下・左下)に限定した35個の局所パターンマスクを用いることができる。そしてこの場合には、不変特徴グループが8個となる。なお、参照点間の縦および横方向の距離すなわち画像相関幅は利用者が目的に応じて任意に決めることができる。たとえば、縦・横ともに1の場合は、3×3画素の狭い領域における画素の相関関係が求められる。局所パターンマスク集合を規定するのは、この縦・横の画像相関幅である。すなわち、(縦,横)が(1,1)の局所パターンマスク集合と、(2,2)の局所パターンマスク集合など、複数の局所パターンマスク集合を用いて、複数の要素特徴ベクトルを生成し、これを結合して最終的な特徴ベクトルとすることができる。
病理組織画像の領域分割画像データ作成システムと、病理組織画像の特徴抽出システムと診断部とを備えた病理診断装置の構成を示すブロック図である。 図1の病理診断装置をコンピュータを用いて実現する場合に用いるプログラムのアルゴリズムを示すフローチャートである。 病理組織画像の領域分割画像データ作成システムを実現するためのプログラムのアルゴリズムを示すフローチャートである。 病理組織画像の3値化を画像で示す図である。 最適な細胞核のレベル値の検証結果を示す図である。 局所パターンマスクの例を示す図である。 2次までの変位パターン及びそれら変位パターンからの回転反転不変パターンの再構成を示す図である。 病理組織画像には上下・左右・反転といった方向的な特徴がないことを示す図である。 HLAC特徴量からの回転・反転不変HLAC特徴量の再構成を示す図である。 (A)は図2のステップST3~ST5及びST10~ST12の詳細を示すフローチャートであり、(B)は画像相関幅を決定することの説明に用いる図であり、(C)は決定結果を座標で示す表である。 図2のステップST6及びST7の詳細フローチャートである。 図2のステップST13の詳細フローチャートである。 図2のステップST14の詳細フローチャートである。 検証実験で用いたデータセットを示す図である。 (A)及び(B)は、非癌画像と癌画像を示す図である。 3値化手法の有効性を検証するために、比較実験で使用した手法を示す図である。 (A)~(D)は、原画像、グレースケール画像、2値化画像及び本実施の形態で得た領域分割画像である。 検証実験結果を示す図である。 (A)及び(B)は、検証実験結果を示す図である。 他の病理診断装置の構成を示すブロック図である。 図20の構成で使用する3値化をソフトウエアで実施する場合のアルゴリズムを示すフローチャートである。 主成分分析結果を概念的に示す図である。 図20の実施の形態の画像処理を画像によって示す図である。 図1に示した病理組織画像の領域分割画像データ作成システムとは構成の異なる他の実施の形態の病理組織画像の領域分割画像データ作成システムの構成を示すブロック図である。 図24の構成で使用する3値化をソフトウエアで実施する場合のアルゴリズムを示すフローチャートである。 冗長成分除去とクリッピングの効果を確認するために用いた画像である。 (A)はオリジナルグレースケールの画像であり、(B)は図1の実施の形態で得られる抽出画像であり、(C)は図20の実施の形態で得られる抽出画像であり、(D)は図24の実施の形態で得られた抽出画像である。 (A)は局所パターンマスクを作成するための異なるマスク候補(黒塗りのブロックと斜線を付したブロック)を示しており、(B)はマスク候補の決定結果を座標で示す表である。 1次までのCILACの3×3の局所パターンマスクの例を示す図である。
 以下図面を参照して本発明の実施の形態を詳細に説明する。本実施の形態は、病理組織画像からの異常検出における誤検出を抑えることを目的として、病理医が診断時に着目する組織の重要度と病理組織画像特有の性質を特徴抽出に活かした、高次局所自己相関特徴(以下HLAC特徴と略す)の抽出技術を提案するものである。具体的には、病理組織画像を細胞核・細胞質・背景の3つの領域に分割し、各領域をそれぞれの組織の重要度を数値化したレベル値によって3値化する。また、病理組織画像は方向的特徴がないので、病理組織画像から回転や反転を考慮したHLAC特徴抽出を行う。
 図1は、本願発明の病理組織画像の領域分割画像データ作成システム1と、病理組織画像の特徴抽出システム3と診断部5とを備えた病理診断装置の構成を示すブロック図である。図2は図1の病理診断装置をコンピュータを用いて実現する場合に用いるプログラムのアルゴリズムを示すフローチャートである。図3は、病理組織画像の領域分割画像データ作成システム1を実現するためのプログラムのアルゴリズムを示すフローチャートである。病理組織画像の領域分割画像データ作成システム1は、RGB画像データ生成部11と、第1の2値化画像データ作成部12と、YUV画像データ生成部13と、第2の2値化画像データ作成部14と、3値化画像データ作成部15とから構成される。また病理組織画像の特徴抽出システム3は、高次局所自己相関計算部31と、要素特徴ベクトル計算部32と、特徴抽出部33とから構成される。図1において、診断部5は、病理組織画像の特徴抽出システム3の出力に基づいて、病理診断を行うものである。
 図2のフローチャートに示すように、本実施の形態では、ステップST1~ST7によって構成される学習過程と、ステップST8~ST14によって構成されるテスト過程を実行して病理診断を行う。学習過程では、非がん病理組織画像を教師データとした学習により、正常部分空間の形成を行う。そこでステップST1でまず、非がん病理組織画像を教師データ(病理組織画像教師データ)として読み込む(ステップST1)。次に病理組織画像(病理組織画像教師データ)の3値化を行い(ステップST2)、その3値画像からHLAC特徴を抽出する(ステップST3)。次に、回転・反転不変HLAC特徴への再構成を行い(ステップST4)、その後再構成された特徴から特徴ベクトルを生成する(ステップST5)。そして特徴ベクトルの主成分分析により(ステップST6)、非がん病理組織画像を表す正常部分空間を形成する(ステップST7)。一方、テスト過程では、がん病理組織画像を含むテストデータ(病理組織画像テストデータ)を読み込む(ステップST8)。そして次に病理組織画像(病理組織画像テストデータ)の3値化を行い(ステップST9)、その3値画像からHLAC特徴を抽出する(ステップST10)。次に、回転・反転不変HLAC特徴への再構成を行い(ステップST11)。の後再構成された特徴から特徴ベクトルを生成する(ステップST12)。そして次に、特徴ベクトルに対し、学習過程で形成された正常部分空間からの逸脱度を算出し異常検出を行う(ステップST13及びST14)。
 図1の病理組織画像の領域分割画像データ作成システム1と病理組織画像の特徴抽出システム3は、前述の学習過程とテスト過程のステップST1~ST12を実行し、診断部5は、図2のステップST13及びST14を実行する。病理組織画像の領域分割画像データ作成システム1は、特にステップST2及びST9の3値化を実行する。そこで第1の2値化画像データ作成部12は、例えば、非がん病理組織画像教師データ及び病理組織画像テストデータ(以下病理組織画像データと言う)から細胞核領域とその他の領域とが区別できる第1の2値化画像データを作成する。具体的には、第1の2値化画像データ作成部12は、RGB画像データ生成部11から病理組織画像のRGB画像データを取り込む。ここでRGB画像データとは、赤(Red)、緑(Green)、青(Blue) の三つの原色を混ぜて幅広い色で画像を再現する画像データである。病理組織画像のRGB画像データからR成分を分離し、分離したR成分を判別2値化法により2値化処理して、細胞核領域とその他の領域とが区別できる第1の2値化画像データを作成する。R成分の分離は、例えば、RGB画像データの全画素データをRGB色空間におけるR軸に射影して行うことができる。そして判別2値化法としては、例えば、「大津展之,“判別および最小2乗基準に基づく自動しきい値選定法,”電子通信学会論文誌,vol.J63-D,no.4,pp.349-356,Apr.1980.」に記載された2値化方法(大津の2値化手法)を用いることができる。図4のPIは、病理組織画像の一例を示しており、PI1は第1の2値化画像データ作成部12により作成された細胞核領域とその他の領域とが区別できる第1の2値化画像データに基づく第1の2値化画像である。なお病理組織画像PIには、細胞核領域を青紫色に染めるヘマトキシリンと、細胞核以外の細胞質、繊維、赤血球などをそれぞれの性質に応じた濃淡各種の赤色に染めるエオジンとによって染色(HE染色)された病理標本が写っている。
 第2の2値化画像データ作成部14は、病理組織画像PIのYUV画像データをYUV画像データ生成部13から読み込む。ここでYUV画像データとは、色空間の一種で、輝度信号(Y)と、青色成分の差分信号(U)、赤色成分の差分信号(V)の3要素によって色を表現するもための画像データである。
 そして第2の2値化画像データ作成部14は、病理組織画像データから背景領域とその他の領域とが区別できる第2の2値化画像データを作成する。具体的には、第2の2値化画像データ作成部14は、YUV画像データからV成分を分離し、分離したV成分を判別2値化法により2値化処理して、背景領域とその他の領域とが区別できる第2の2値化画像データを作成する。より具体的には、第2の2値化画像データ作成部14は、YUV画像データの全画素データをYUV色空間におけるV軸に射影してV成分を分離する。図4のPI2は、第2の2値化画像データに基づく2値化画像を示している。
 3値化画像データ作成部15は、第1の2値化画像データと第2の2値化画像データの否定論理和をとって領域分割画像データとなる3値化画像データを作成する。第1の2値化画像データの細胞核が「真1」となり、その他が「偽」となり、第2の2値化画像データの背景が「真2」となり、その他が「偽」とする。このようにすると、第1の2値化画像データと第2の2値化画像データの「真偽」は細胞核となり、第1の2値化画像データと第2の2値化画像データの「偽真」は背景となり、第1の2値化画像データと第2の2値化画像データの「偽偽」は細胞質となる。
 図4のPI3は、3値化画像データに基づく3値化画像である。特徴量の種類が異なるRGB画像データとYUV画像データの2種類の画像データから得た第1及び第2の2値化画像データには、それぞれ細胞核領域、背景領域を個々に明確にする成分が含まれるため、得られる3値化画像データは、背景領域、細胞質領域及び細胞核領域をより明確化されたものとなる。
 図3に示すフローチャートに従って組織の重要度に対応した病理組織画像の3値化について説明する。本実施の形態における3値化では、病理医が診断時の手掛かりとする組織の重要度と病理組織画像特有の性質を特徴抽出に活かすために、まず、病理組織画像を細胞核・細胞質・背景の3つの領域に分割し、次に、各領域にそれぞれの組織の重要度を数値化したレベル値を設定する。まず、HE染色により青紫色に染色されている細胞核の領域は、細胞核以外の領域とRGB色空間において比較すると、R成分の値に大きな差があることが予備実験にて判明した。そこで、細胞核の領域を抽出するために、病理組織画像(図4のPI)のR成分を分離し(ステップST22)、このR成分だけを大津の2値化手法を用いて2値化処理を行った(ステップST23)。この処理により、図4のPI1に示すように、青紫色に染まっていた細胞核の領域(白)と細胞核以外の領域(黒)とに分割する。
 次に、背景の領域はHE染色によって染色されない領域で、最も輝度値が高い白色を示しており、色情報は少ない。一方、背景以外の領域の色情報は赤色成分が主体となっている。以上のことから背景の領域を、輝度と赤色成分の差であるYUV色空間のV成分を用いて抽出する(ステップST24及びST25)。そして大津の2値化手法により、病理組織画像のV成分に対し同様の2値化処理を行う(ステップST26)。この処理により、図4のPI2に示すように、HE染色で染まっていなかった背景領域(黒)を分割する。最後に、細胞核とその他、背景とその他に分割された2つの画像PI1及びPI2を統合し、図4のPI3に示すように、細胞核(白)・細胞質(灰)・背景(黒)の3つの領域に分割された病理組織画像を合成する。すなわちステップST27において、抽出された細胞核と背景画像以外の領域を細胞質として定義する。
 そしてステップST28で分割された細胞核領域、細胞質領域、背景領域に含まれる画素に所定のレベル値を設定した画像を生成する。すなわち領域分割された病理組織画像の各領域に含まれる画素にそれぞれの組織の重要度を数値化したレベル値を設定する。病理医の診断では、主に細胞核や細胞質の情報を総合的に診断しているが、もっとも重要な情報は、細胞核の大きさや並びといった核の情報である。この病理医の視点を反映させるために、領域分割された細胞核・細胞質・背景に相当する画素に適切なレベル値を設定し、各領域にそれぞれの特徴の重要度を反映する。本実施の形態では、背景のレベル値を0(すなわち背景領域に含まれる画素の値を0)、細胞質のレベル値を2(すなわち細胞質領域に含まれる画素の値を2)と固定し、核領域に含まれる画素値を様々なレベル値に設定して予備実験を行った結果(図5)から、非癌と癌を最も区別できたレベル値として、細胞核のレベル値を14(すなわち細胞核領域に含まれる画素の値を14)、細胞質のレベル値を2(すなわち細胞質領域に含まれる画素の値を2)、背景のレベル値を0(すなわち背景領域に含まれる画素の値を0)とする組み合わせを採用することとした。
 図1に戻って、病理組織画像の特徴抽出システム3は、高次局所自己相関計算部31と、要素特徴ベクトル計算部32と、特徴抽出部33から構成される。高次局所自己相関計算部31は、図2のステップST3及びST10を実行するものである。そこで高次局所自己相関計算部31は、前述の病理組織画像の領域分割画像データ作成システム1により作成した3値化した病理組織画像PI3を図6に示した予め定めた35種類の局所パターンマスクを個々に用いて走査し、局所パターンマスク毎に積和値(HLAC特徴量)を計算する。要素特徴ベクトル計算部32は、図2のステップST4及びST11を実行するもので、それらHLAC特徴量を連結してベクトル化することで要素特徴ベクトルを求める。特徴抽出部33は、図2のステップST5及びST12を実行するもので、複数の局所パターンマスク集合から得られる要素特徴ベクトルを結合して、最終的な特徴ベクトルを生成する。
 各局所パターンマスクから得られる特徴量は、3値化された対象病理組織画像をf(r)とすると、変位方向(a1・・・、aN)に対して、N次自己相関関数
Figure JPOXMLDOC01-appb-M000001
で定義される。
 本実施の形態では、1つの対象画像に対し、高次自己相関関数係数の次数Nを0,1または2のいずれかとし、次変位方向aを{方向無し、右、右上、上、左上、左、左下、下、右下}の9方向に限定することで、図6に示すような35個の局所パターンマスクから算出した35次元のベクトルxi(i=1,...,35)をHLAC特徴として計算する。なお3×3のセルからなるマスク範囲において、1つのマスク候補を中心とした9方向のマスク候補の配置が、局所パターンマスクを構成する基礎となるものである。中心マスクが参照点となり、その周囲の9方向でマスク範囲の内縁に位置する全てのマスク候補が、すべての変位方向に位置する相関相手の点となり得る。したがってこの例では、すべてのマスク候補が局所パターンマスクを構成するためのマスク候補となり得る。例えば、図6のNo.6の局所パターンマスクでは、中心マスクが参照点であり、その左右の2つのマスク候補が相関相手の点となる。No.26の局所パターンマスクでは、中マスクが参照点であり、且つ中心マスクが1つの相関相手となるものである。例えば対象画像内のある参照点の画素値として5が設定されているとすると、5×5がその参照点における特徴量となる。さらにNo.27の局所パターンマスクでは、中心マスクが参照点であり、且つ中心マスクが2つの相関相手の点となるものである。No.27の局所パターンマスクでは、例えば対象画像内のある参照点の画素値として5が設定されているとすると、5×5×5がその参照点における特徴量となる。図6において、マスクの中の数字は相関相手の数に応じたべき乗数を示している。
 要素特徴ベクトル計算部32は、図2のステップST4及びST11を実現するものである。要素特徴ベクトル計算部32では、複数の局所マスクパターンで画像を走査して得られる複数のHLAC特徴量を連結して要素特徴ベクトルを生成する。
 さらに、要素特徴ベクトル計算部32では、複数の局所マスクパターンのうち、それぞれ特定の角度だけ回転させたときまたは/及び反転させたときに等価とみなせる局所マスクパターン同士を同一グループと見なして、同一グループ毎にそれに属する局所パターンマスクから得られる特徴量の線形和を結合して要素特徴ベクトルを生成しても良い。この場合、要素特徴ベクトル計算部32では、複数の局所マスクパターンのうち、それぞれ特定の角度だけ回転させたときまたは/及び反転させたときに等価とみなせる複数のマスクパターンが、それぞれ複数の不変特徴グループに分けられる。回転角としては例えば45°が用いられるが、90°や180°でもよい。反転には、上下方向(X軸対称)、左右方向(Y軸対称)及び斜め方向(原点対称)の反転が含まれている。
 すなわち図7に示す表に従って図6の局所パターンマスクを8個の不変特徴グループに分ける。図7において、3×3のセルからなるマスク範囲の中心マスクが参照画素位置であり、0次の局所マスクパターンを用いる場合には、ステップST28によりレベル値を割り当てられた画素の持つ画素値の線形和を特徴量として計算する。1次および2次の局所マスクパターンを用いる場合には、参照画素(中心マスクに位置する画素)点と中心マスク以外のマスク候補により位置が指定される画素の持つ画素値の乗算値を積算し、この処理を画像全体(もしくは部分領域)にわたって積算することにより、その局所マスクパターンの特徴量とする。図7において、◎印は、そのマスク候補により指定される画素における画素値を二乗することを意味し、3重丸印は、そのマスク候補により指定される画素における画素値を三乗することを意味する。
 1つの不変特徴グループ(図7の表では、0次に1つの不変特徴グループ、1次に2つの不変特徴グループ、2次に5つの不変特徴グループがある)に属する複数の局所マスクパターンを、図7に示す最右列のパターンのように一つの特徴量とみなして、8つの不変特徴グループにそれぞれ属する局所パターンマスクによる走査で得られた積和値(特徴量)の線形和を計算する。すなわち例えば4つの局所パターンマスクが属する1つの不変特徴グループでは、4つの局所パターンマスクで画像をそれぞれ走査して得た特徴量をすべて合計したものを、その1つの不変特徴グループの特徴量とする。これによって、病理組織画像中の細胞や細胞核がどのような向きであっても、形が同じであれば同一の性質を有するものとして捉えることが可能となり、画像認識精度が飛躍的に向上する。
 具体的に説明すると、図8に示すように、病理組織画像には上下・左右・反転といった方向的な特徴がないことから、抽出したHLAC特徴を回転・反転不変HLAC特徴として再構成を行う。図6の局所パターンマスクを用いる本実施の形態では、抽出された35次元のHLAC特徴xi(i = 1 ... 35)から、回転や反転を考慮すると同じ相関関係と見なすことができる特徴の線形和によって、8次元の回転・反転不変特徴yj(j = 1 ... 8)を再構成する。対象とする病理組織画像の生体組織が主に円や曲線状に構成されていることから、3×3画素の局所パターンマスクで表現可能なπ/4ラジアン(=45°)での回転不変を考慮する。また、病理組織画像では反転の区別もないことから反転不変についても考慮する。例えば図6の局所パターンマスクNo.6は、局所パターンマスクNo.7、No.8、No.9と回転対称なので、これら4つの特徴量の線形和によって1つの回転・反転不変特徴量を算出する。
 「梅山伸二,栗田多喜夫,“高次自己相関特徴を用いた図形の回転不変特徴量の構成,”情報処理学会第45回(平成4年後期)全国大会講演論文集,2,pp.323-324,Mar.1993.」に示される報告では、π/2ラジアン(=90°)の回転不変を考慮した従来手法として、2値画像での25次元のHLAC特徴から9次元の不変特徴量の再構成について報告されている。また特開2004-58737号公報には、π/4ラジアン(=45°)での回転不変を考慮した従来手法として、2値画像での25次元のHLAC特徴から9次元の不変特徴量の再構成について示されている。しかしながらこれらの公知文献には、病理組織画像には上下・左右・反転といった方向的な特徴がないことから、抽出したHLAC特徴を回転・反転不変HLAC特徴として再構成を行うという思想は開示されていない。本実施の形態では、病理組織画像の構造に最適なπ/4ラジアン(=45°)での回転・反転不変特徴として、35次元のHLAC特徴 xi(i=1,...,35)から、図9に示す8次元の回転・反転不変特徴 yj (j =1,...,8)を再構成する。
 要素特徴ベクトル計算部32では、各不変特徴グループの特徴量が得られた後には、これらを結合して要素特徴ベクトルを生成する。特徴抽出部33では、異なる大きさのマスク範囲を有する複数の局所パターンマスク集合から得られる複数の要素特徴ベクトルを結合して、最終的な特徴ベクトル生成する。局所パターンマスク集合のマスク範囲は、上記(m,n)の二項組により規定される。すなわち、(m1,n1)、(m2,n2)、…、(mp,np)のように、(m,n)の二項組を複数(この場合はp個)用意しておくことで、複数(この場合はp個)の要素特徴ベクトルが生成され、最終的に得られる特徴ベクトルの長さは、個々の要素特徴ベクトルのp倍となる。
 図10(A)は図2のステップST3~ST5及びST10~ST12の詳細を示すフローチャートであり、図10(B)は画像相関幅を決定することの説明に用いる図であり、図10(C)は決定結果を座標で示す表である。複数の局所パターンマスクは、m及びnを整数としたときに、(2m+1)×(2n+1)のセルが格子状に配列されているマスク範囲中のマスク候補のうち、中心マスク(黒色のブロック)を中心として予め定めたマスク範囲内に位置する複数のマスク候補から選択した1以上のマスク候補を、マスク(斜線が付された8個のブロック)として設定する。図10(B)では、m=4で、n=4である。そして「予め定めたマスク範囲」は、縦横格子9×9個分である。予め定めたマスク範囲の角に位置するマスク候補と中心マスクとの間のユークリッド距離は、予め定めたマスク範囲の内縁の辺の中央のマスク候補と中心マスクとの間のユークリッド距離よりも長くなるので、「予め定めたマスク範囲の画像相関幅」は両距離の差を包含するものとして定められている。中心マスクの座標を(0,0)とすると、8個のマスクの座標は、図10(C)に示すようになる。
 図10(A)のステップST31では、変数iに1をセットする。ST32においては、あらかじめ用意した複数の画像相関幅のうち、i番目の画像相関幅を所定値に設定して走査をする。ここで1番目の画像相関幅を所定値に設定するとは、病理組織画像を走査する際の、マスク範囲を決定するために、あらかじめ用意されている複数の(m,n)について、1番目のmとnとを選択することを意味する。そしてステップST33では、図6の局所パターンマスクを使って前述の式(1)に基づいて要素特徴ベクトルを算出する。すなわち各局所パターンマスクによる画像の走査で得られる特徴量を結合してベクトル化して要素特徴ベクトルが算出される。ステップST34ではiの値が、所定の値pと等しいかどうかを調べる。もし等しくなければ、ステップT35においてiに1を加算し、ステップT32及びST33の処理を再実行する。もしiの値が所定の値pと等しければ、ステップT36において、これまでに生成された要素特徴ベクトルを結合し、最終的な特徴ベクトルを生成して、終了する。なおステップST33が、図2のステップST3及びST4並びにステップST10及びST12に相当する。
 図2の主成分分析(ステップST6)を用いた正常部分空間形成(ステップST7)について説明する。本実施の形態では、がん画像を異常として検出するために、主成分分析を用いて正常部分空間を形成する。正常部分空間を形成することについては、非特許文献6に詳しく説明されている。正常部分空間とは、学習用非がん画像から抽出した特徴ベクトルの主成分で形成される部分空間である。そしてステップST13では、この正常部分空間とテスト病理組織画像の特徴との距離を逸脱度として算出する。ステップST14では、逸脱度が大きく算出された場合は、非癌画像の特徴とは異なることを意味するので、がんの疑いを示す異常として認識できる。
 図11には、正常部分空間の形成ステップST6およびST7の詳細フローチャートを示しており、図12は図2の逸脱度算出のステップST13の詳細フローチャートを示しており、図13は図2の異常検知のステップST14の詳細フローチャートを示している。まず、ステップST61で特徴ベクトル(回転・反転不変特徴ベクトル)の集合を読み込む。そしてステップST62で、回転・反転不変特徴ベクトルyjに主成分分析を適用し、正常部分空間を形成する主成分ベクトルを求める。この主成分ベクトルは、特徴ベクトル集合{yj}の自己相関行列Ryの固有値問題を解くことにより求めることができる。特徴ベクトルの代わりに、各特徴ベクトルを正規化して得られる正規化特徴ベクトルを用いてもよい。
Figure JPOXMLDOC01-appb-M000002
 ここで、Uは固有ベクトルを列とする行列であり、Λは固有値を対角要素とする対角行列である。ここで、固有ベクトルは主成分ベクトル、固有値は各主成分がデータ全体のどの程度を説明する能力を持っているのかを示す寄与率に対応するので、寄与率の大きい順に固有ベクトルを並べ替える(ステップST71)。
 次に、主成分ベクトル(すなわち上記固有ベクトル)の中から正常部分空間を形成する個数に対応する次元数Kを決定する。次元数Kは、主成分がどれだけ分析したデータの情報を表現することに寄与しているかを数値化した下記の累積寄与率
Figure JPOXMLDOC01-appb-M000003
によって決定される。このとき、正常部分空間は、累積寄与率ηK≦Cを満たす次元Kまでの固有ベクトルUK={u1,...,uK}を基底ベクトルとして定義される空間とする(ステップST72)。ここでCは累積寄与率条件であり、λiは主成分ベクトルuiの寄与率であり、Mは固有値の総数である。
 図2のステップST13及びST14における逸脱度算出と異常検出について説明する。本実施の形態では、学習過程において得られた正常部分空間を用いて、テスト病理組織画像から抽出した特徴ベクトルと正常部分空間との距離を逸脱度として異常検出の指標とする。この逸脱度は、正常部分空間の直交補空間への射影成分として次のように算出することができる(図12のステップST13A及び13B)。正常部分空間への射影子Pは、下記の式
Figure JPOXMLDOC01-appb-M000004
として表される。上記式で、UK TはUKの転置行列であり、Kは次元数である。
それに対する直交補空間への射影子Pは、単位行列をIとすると、
Figure JPOXMLDOC01-appb-M000005
と表せる。このとき、直交補空間への射影成分の距離dは、
Figure JPOXMLDOC01-appb-M000006
と表すことができる。上記式でyはテスト病理組織画像の特徴ベクトル、yTはyの転置行列である。ただし、正常部分空間を計算する時、特徴ベクトルの代わりに正規化特徴ベクトルを用いた場合は、ここでのyも必ず正規化する必要がある。この距離dを逸脱度として、予め設定する閾値Hと比較することで、癌の疑いを異常検出することが可能となる(図13のステップST14A及びST14B)。
 以下本実施の形態の有効性を確認した検証実験について説明する。実験では、実際の胃生検病理組織画像を用いて、以下の2種類の検証実験を行った。
 実験1 提案する3値化の有効性検証 
 実験2 提案する回転・反転不変の有効性検証
[実験データ]
 検証実験により、非癌病理組織画像の学習により、癌病理組織画像がきちんと異常検出できるかどうかの確認を行うために、予め病理医により診断されている明らかな非癌データと明らかな癌データを用いた実験を行った。
 検証実験で用いたデータセットを図14に示す。学習用教師データとして、病理医によって非癌と診断された250サンプルを用い、テスト用データには、学習用データとは別の非癌データ50サンプルと癌データ24サンプルを用いた。実験に用いた病理組織画像は、図15(A)に示す非癌画像と図15(B)に示す癌画像のような顕微鏡倍率20倍で撮影され、1280ピクセル×960ピクセルの大きさのjpeg形式で保存された画像である。
[検証実験の評価方法]
 検証実験では、学習データを用いて正常部分空間を生成した後に、各学習データの正常部分空間に対する逸脱度を計測し、その平均+標準偏差(σ)を閾値とした評価方法を用いた。テストデータに対し、この閾値を越えた逸脱度の場合を、癌の疑いを示す異常として検出する。
 本実験の評価では、非癌テストデータがこの閾値を越えた場合を誤検出(False Positive:FP)としてカウントし、誤検出数の比較により提案手法の評価を行った。また、病理診断における「癌の見落としはあってはならない」という前提条件を満たすために、癌テストデータがこの閾値を下回った場合を未検出(False Negative:FN)としてカウントし、癌の検出精度の評価も行った。
 [検証実験1:3値化手法の有効性検証]
 本実施の形態で用いる3値化手法の有効性を検証するために、図16に示す3手法で比較実験を行った。本検証実験では、回転・反転不変特徴の再構成は行わず、累積寄与率条件のCは、0.999、0.9999、0.99999の3条件のうち各手法において最も良い条件の結果を比較した。
 図17に原画像(図17(A))と、目視による比較を行うためグレースケールに変換した各手法の領域分割画像を示す。なお、提案手法の画像では、細胞核、細胞質、背景の画素値をそれぞれ255、127、0として表示している。グレースケール(図17(B))は、原画像に最も近く、見た目でも組織の構造などがはっきりしている。2値化(図17(C))は、細胞質部分の多くが背景領域に含まれてしまっている。一方、本実施の形態で用いる手法(図17(D))では、細胞核・細胞質・背景を適切に領域分割できている。
 図18に各手法を用いた検証実験結果を示す。誤検出数(FP(1σ))は、本実施の形態の手法が最も少なく、本実施の形態の手法の有効性を確認できた。2値化では、グレースケールに対して画素の階調数が少なく、病理組織の特徴を現す情報量が落ちたため誤検出数が増えたと考えられる。その一方で、本実施の形態の手法も同様に、グレースケールの256値に対して画素の階調数が3値に減少しているにも拘わらず、誤検出数は減少した。これは、提案手法による細胞核・細胞質・背景の領域分割および各領域へのレベル値の設定が有効に機能したことと考えられる。また、未検出数(FN(1σ))を比較すると、グレースケールでは、癌データの未検出があったが、提案手法ではすべて検出することができ、癌の検出精度も向上したことがわかった。
[検証実験2:回転・反転不変の有効性検証]
 回転・反転不変を考慮した提案手法による有効性を検証するために、再構成前の35次元HLAC特徴での異常検出結果と、再構成後の8次元回転・反転不変HLAC特徴での異常検出結果を比較した。なお、本検証実験での累積寄与率条件のCは、0.999、0.9999、0.99999の3条件のうち各手法において最も良い条件の結果を比較した。
 図19に検証実験結果を示す。この結果では、閾値として設定した平均+標準偏差(σ)を1σとして、また、平均+2×標準偏差(σ)を2σとして、グラフ中に示している。
 実験結果のグラフから、再構成前HLAC(図19(A))では、1σを閾値とした場合、癌テストデータにおける最小の逸脱度と閾値の間の余裕が非常に小さく、閾値を2σにした場合、見落としとなる未検出数が4となってしまうことがわかる。一方、回転・反転不変を考慮した再構成後HLAC(図19(B))では、1σの閾値と癌テストデータにおける最小の逸脱度の間には十分な余裕があり、2σに閾値を設定した場合でも、未検出は0となった。この結果から、回転・反転不変を考慮したことによって、非癌テストデータと癌テストデータの逸脱度に大きな差が生じ、癌の異常検出精度を、余裕を持って確保できることを確認した。
 図20は、図1に示した病理組織画像の領域分割画像データ作成システム1とは構成の異なる病理組織画像の領域分割画像データ作成システム101と、病理組織画像の特徴抽出システム103と診断部105とを備えた他の病理診断装置の別の構成を示すブロック図である。図21は、図20の構成で使用する3値化をソフトウエアで実施する場合のアルゴリズムを示すフローチャートである。
 図20の実施の形態では、標本の染色状態に依存せず、病理組織画像を背景・細胞質・細胞核などの領域に分割するため、主成分分析を利用する。そこで本実施の形態では、第2の2値化画像データ作成部114が、病理組織画像データの全画素値を主成分分析して背景領域とその他の領域とが区別できる第2の2値化画像データを作成するように構成されたものを用いる点で、図1の実施の形態と相違する。その他の点は、図1の実施の形態と同様である。したがってその他の点については、図20に示す構成要素に、図1に示した構成要素に付した符号の数に100の数を加えた数の符号を付して説明を省略する。
 本実施の形態で用いる第2の2値化画像データ作成部114は、より具体的には全画素値を主成分分析して得た第一主成分軸に、病理組織画像データの全画素データを射影して正規化したものを、判別2値化法により2値化して第2の2値化画像データを作成するように構成してある。なお第一主成分軸ではなく、その他の主成分軸に対して病理組織画像データの全画素データを射影して正規化したものを、判別2値化法により2値化して第2の2値化画像データを作成するようにしてもよいのは勿論である。さらに、複数の主成分軸に対して病理組織画像データの全画素データを射影して正規化して判別2値化法により2値化して得られる複数の2値化画像データの論理積演算を行うことで第2の2値化画像データを作成するようにしてもよい。第2の2値化画像データを作成する際には、論理積演算以外に、論理和など他の演算を用いてもよい。
 図22に示すように、3次元のRGB色空間における画素分布に対して、全画素を対象として主成分分析(ステップST24′)して得られる第一主成分方向が、その方向軸に全画素データを射影したときの分散が最大となる方向であり、最も色の薄い画素分布(背景)と濃い画素分布(細胞質及び細胞核)とを、最もよく分離できる。そこで、全画素をその軸に射影して正規化することで得られるグレースケール画像を判別2値化法(大津の二値化法)により2値化することで(ステップST25′及びST26′)、背景を正確に切り出すことが可能となる。
 本実施の形態でも、3値化画像データ作成部115は、R成分を2値化した第1の2値化画像データと主成分分析を利用した結果を2値化した第2の2値化画像データの否定論理和をとって細胞質領域を区別し、領域分割画像データとなる3値化画像データを作成する。
 本実施の形態のように、第2の2値化画像データを、病理組織画像データを主成分分析して得ると、図1のようにYUV画像データから第2の2値化画像データを得る場合よりも、背景領域、細胞質領域をより明確化できることが試験により判っている。これは、背景とその他との区別が主に相対的な色の濃度に大きく関係しているため、染色が弱い病理組織画像においてYUV画像のV成分だけでは背景に属する画素と細胞質の分布の重なりが大きくなってしまうが、主成分分析では分散を最大化する方向、すなわち分布の重なりを最小にする方向が求められ、背景とその他をよく分離できるためである。図23は、本実施の形態の処理を画像によって示したものである。図23と図4とを対比すると判るように、本実施の形態によれば、図1の実施の形態で得られる図4に示した領域分割画像よりも、背景領域、細胞質領域及び細胞核領域がより明確に分割されている。
 なお背景を切り出した後、それ以外の細胞質+細胞核の領域に対して、細胞質と細胞核を分離して抽出することも可能である。細胞質+細胞核の領域のR成分を判別2値化法(大津の2値化法)で2値化することにより、より簡便に核領域を切り出すことも可能である。
 さらに、最初の実施の形態と同様に、背景領域・細胞質領域・細胞核領域に領域分割された画像に対して、病理診断における医師の注目度に応じて重み付けすることにより、HLAC特徴に基づいた画像認識精度を高めることができる。たとえば、背景領域と細胞質領域に属する画素に与える値(レベル値)をそれぞれ0と2に固定したとき、細胞核領域に属する画素に与える値(レベル値)を14に設定することで最良の認識結果が得られる。
 図24は、図1に示した病理組織画像の領域分割画像データ作成システム1とは構成の異なる病理組織画像の領域分割画像データ作成システム201と、病理組織画像の特徴抽出システム203と診断部205とを備えた他の病理診断装置の別の構成を示すブロック図である。図25は、図24の構成で使用する3値化をソフトウエアで実施する場合のアルゴリズムを示すフローチャートである。
 図24の実施の形態では、標本の染色状態に依存せず、病理組織画像を背景・細胞質・細胞核などの領域に分割するため、主成分分析を利用する。病理標本はヘマトキシリンとエオジンとによって染色されている。細胞核領域は、ヘマトキシリンによって青紫色の色素によって染色されるため、染色濃度が違っていてもRGB色空間の各成分で比べると、他の領域に比べてB成分が他の成分よりも高くなる。この減少は、ヘマトキシリンとエオジンで染色された病理標本画像ならば、染色具合が異なっていても変わらない事実である。そこで、病理標本画像から細胞核領域を抽出するために、RGB色空間のB成分とR成分の差分値を強調したグレースケール画像を作成し、2値化を行うことで、細胞核領域を抽出できる。そこで本実施の形態では、第1の2値化画像データ作成部212が、細胞核領域の抽出のために、冗長成分除去(ステップST222A)とクリッピング(ステップST222B)と2値化とを実施する。また第2の2値化画像データ作成部214が、CIELuv画像データ生成部213から出力されるCIELuv画像データを主成分分析して背景領域とその他の領域とが区別できる第2の2値化画像データを作成するように構成されたものを用いる点で、図1の実施の形態と相違する。さらに本実施の形態では、病理組織画像の特徴抽出システム203の高次局所自己相関計算部231が、複数の局所パターンマスクにより走査した結果の参照点のカラーインデックス(例えば色の番号)と変位方向に位置する相関相手の点のカラーインデックス(例えば色の番号)の共起性を計算する、いわゆるCILACと呼ばれるものを用いる点で、図1の実施の形態と相違する。その他の点は、図1の実施の形態と同様である。したがってその他の点については、図24に示す構成要素及び図25に示すステップに、図1および図3に示した構成要素に付した符号の数に200の数を加えた数の符号を付して説明を省略する。CILACの具体的手続きについては、たとえば「Takumi Kobayashi, et al., Color Image Feature Extraction Using Color Index Local Auto-Correlations, 2009 IEEE International Conference on Acoustics, Speech and Signal Processing, pp.1057-1060, 2009」において、詳しく説明されている。
 第1の2値化画像データ作成部212は、図25の色情報の削減のステップST222Aにおいて、冗長成分除去を行う。病理標本において、細胞核領域はヘマトキシリンによって青紫色の色素によって染色されるため、RGB色空間の各成分で比べると、染色濃度が違っていても他の領域に比べてB成分が他の成分よりも高い。そこで、細胞核領域と関係のない冗長成分を削減するため、病理組織画像のすべての画素においてRGB色空間上のR成分からB成分を減算した結果が0より大きい場合の画素値を0とする。このような冗長成分除去を行うと、細胞核領域の抽出に障害となるB成分を多く含んだ画素情報を除去できる。
 次にクリッピングのステップST222Bでは、細胞核領域を強調した画像を作成するために、冗長成分が除去された病理組織画像のすべての画素においてRGB色空間上でB成分からR成分を減算した値B’を算出する。病理標本画像に写るノイズや病理標本画像内の染色ムラなどを考慮して、B’値が所定値以上になった場合は、B’に所定値を代入し、B’が所定値以下となるようにクリッピング処理を行う。この所定値として、たとえば予備実験により定められた値である30を用いる。染色の状況等に応じて適宜変更しても良い。ステップST223では、このようにしてクリッピングして各画素毎に得られるB’を、第1の2値化画像データを求めるための画像データと見なして、2値化を行う。このようなクリッピングをすると、病理標本画像に写るノイズや病理標本画像内の染色むらによる影響を大幅に低減できる。
 図26は、冗長性分除去とクリッピングの効果を確認するために用いた画像を示している。図26からは、冗長性分除去もクリッピングも行わない場合、及びクリッピングだけを行った場合には、背景である腺腔Aが誤って細胞核として抽出されていることが分かる。また冗長性分除去だけでも背景である腺腔は抽出されなくなるが、細胞核領域の大きさが小さくなってしまう。これに対し、冗長性分除去とクリッピングを併用すると、腺腔Aを抽出せず、同時に細胞核領域Bをより正確に抽出することができることが分かる。
 なお、第1の2値画像データとして、第1の実施例にて行われていたように、RGB色空間におけるR成分を判別2値化手法により処理して得られる2値化画像データを用いてもよい。本実施の形態で用いる第2の2値化画像データ作成部214は、病理組織画像のCIELuv画像データを主成分分析して得た第2主成分軸の分析結果から背景領域とその他の領域とが区別できる第2の2値化画像データを作成するように構成されている。ここでCIELuv画像データとは、国際照明委員会 (Commission Internationale de l'Eclairage)が定めたCIE表色系で表現される画像データである。CIELuv表色系は、色空間上の距離が、人間による知覚的な色の差に近くなるように設計された均等色空間である。そのため人間(病理医)と同様の色識別感覚で処理を行い、領域を区別することが可能となる。なおRGB表色系からCIELuv表色系への変換については、たとえば「太田登,“色彩工学,”電機大出版局,1993.」に記載の方法を用いる事ができる。
 より具体的には、病理組織画像の全画素データをCIELuv表色系に変換し、主成分分析により得た第2主成分軸に全画素データを射影し、その結果を判別2値化法により2値化して第2の2値化画像データを作成する。なお第2主成分軸のみを用いるのは、他の主成分軸を用いた場合と比較して、背景が最も忠実に抽出されていることが実験により目視で確認されたためである。なお、病理画像の染色状態に応じて、第2主成分軸ではなく、その他の主成分軸に対して病理組織画像データの全画素データを射影して正規化したものを、判別2値化法により2値化して第2の2値化画像データを作成するようにしてもよいのは勿論である。さらに、複数の主成分軸に対して病理組織画像データの全画素データを射影して正規化して判別2値化法により2値化して得られる複数の2値化画像データの論理積演算を行うことで第2の2値化画像データを作成するようにしてもよい。なお第2の2値化画像データを作成する際に、論理積演算以外に、論理和などの他の演算を用いてもよいのは勿論である。
 なお、第2の2値画像データとして、第1の実施例にて行われていたように、YUV色空間におけるV成分を判別2値化手法により処理して得られる2値化画像データを用いてもよい。
 同様に、第2の実施例にて行われていたように、RGB色空間において全画素データを主成分分析して得た第一主成分軸に、病理組織画像データの全画素データを射影して正規化したものを、判別2値化法により2値化して第2の2値化画像データを作成してもよい。第一主成分軸ではなく、その他の主成分軸に対して病理組織画像データの全画素データを射影して正規化したものを、判別2値化法により2値化して第2の2値化画像データを作成するようにしてもよいのは勿論である。さらに、複数の主成分軸に対して病理組織画像データの全画素データを射影して正規化して判別2値化法により2値化して得られる複数の2値化画像データの論理積演算を行うことで第2の2値化画像データを作成するようにしてもよい。なお第2の2値化画像データを作成する際に、論理積演算以外に、論理和などの他の演算を用いてもよいのは勿論である。
 図27(A)はオリジナルのグレースケール画像である。そして(B)は図1の実施の形態で得られる抽出画像であり、細胞質領域も一部白く抽出されている。(C)は図20の実施の形態で得られる抽出画像であり、細胞質領域のほとんどが背景と同様に白く抽出されている。(D)は本実施の形態で得られた抽出画像であり、細胞質領域が含まれないように背景が白く抽出されている。
 図24の3値化画像データ作成部215について説明する。3値化画像データ作成部215は、第1の2値化画像データと、第2の2値化画像データの否定論理和演算を行って、新たな第3の2値化画像データを生成する。第3の2値画像データに細胞質領域と細胞核の一部分とが、その他の領域と区別されている。次に、第1の2値画像データの細胞核領域に属する画素に任意の画素値A、その他の画素値に0をセットする。同様に、第2の2値画像データの背景領域に属する画素に任意の画素値B、その他の画素値に0をセットする。第3の画像データの、細胞質領域と細胞核の一部分に該当する画素に任意の値C、その他の画素値に0をセットする。そして、3つの2値画像を下記の手順で重ね合わせる。すなわち、第2の2値画像データにおいて画素値Bがセットされている位置の画素について、第3の画像データ上でも画素値Bを上書きする形でセットする。これによって、第3の画像データは、背景領域に属する画素に値B、細胞質領域と細胞核の一部に該当する画素に値C、細胞核の残る部分に該当する画素に0がセットされた状態となる。続いて、第1の2値画像データにおいて画素値Aがセットされている位置の画素について、第3の画像データ上でも画素値Aを上書きする形でセットする。これによって、第3の画像データは、背景領域に属する画素に値B、細胞質領域に属する画素に値C、細胞核領域に属する画素に値Aがセットされた状態となる。その後、各領域の画素に対して、適切なレベル値(たとえば背景領域を0、細胞質領域を2、細胞核領域を14)を設定することで、3値化画像が生成される。
 図28(A)は、本実施の形態で使用する局所パターンマスクを作成するマスク候補(黒塗りのブロックと斜線を付したブロック)を示しており、図28(B)はマスク候補の位置の決定結果を座標で示す表である。
 このマスク候補は、中心マスク(黒色ブロック)の座標を(0,0)としてxy座標を仮想したときに、マスク範囲中の8個のマスク候補が、下記の2式の交点の座標を有するものとして定義される。
  (x2/n2)+(y2/m2)=1
   y=±(m/n)xあるいはy=0あるいはx=0
 特にmとnとを等しくすると(実施例ではm=n=4)、8個のマスク候補は、図28(A)に示すように中心マスクを中心とする八角形の頂点に位置することになる。図28(B)は、マスク候補の座標を示している。このような8個のマスク候補と中心マスクにより構成される局所パターンマスクの効果について、図10(B)と図28(A)を比較しながら説明する。図10(B)の局所パターンマスクにおいて、マスク範囲の角に位置するマスクと中心マスクとの間のユークリッド距離と、マスク範囲の内縁の辺の中央のマスクと中心マスクとの間のユークリッド距離との差の絶対値をΔD1とする。一方、図28(A)の局所パターンマスクにおいて、中心マスクの右上(左上、右下、左下でもよい)方向に位置するマスクと中心マスクとの間のユークリッド距離と、マスク範囲の内縁の辺の中央のマスクと中心マスクとの間のユークリッド距離との差の絶対値をΔD2とする。図より、ΔD2≦ΔD1であることは明らかである。ここで、複数の局所マスクパターンのうち、それぞれ45°回転させたときに等価とみなせるもの同士を同一グループと見なして、回転不変要素特徴ベクトルを生成する手続きについて考慮すると、図28(A)に基づく局所パターンマスクの方が、不変性が高いことは明らかであり、より品質の高い病理組織画像の特徴ベクトルを抽出できると考えられる。
 なお、局所パターンマスクについて、第1の実施例にて行われていたように、図10(B)に示されるマスク配置を使用してもよいのは勿論である。
 前の実施の形態で採用されているHLACでもそれなりの判定精度は得られている。しかしHLAC特徴量を画素値の積和によって求めるのでは、画素値に与えられるレベル値の設定の適否の影響が判定精度に大きく現れる傾向がある。そこで本実施の形態では、マスク画素値乗算部231において、複数の局所パターンマスクにより走査した結果の参照点のカラーインデックス(例えば色の番号)と変位方向に位置する相関相手の点のカラーインデックス(例えば色の番号)の共起性を計算する、いわゆるCILAC(Color Index Local Auto-Correlation)と呼ばれる特徴抽出法を用いる。なおCILACの詳細については、2009年4月19日~24日に台湾の台北で開催された「Acoustics, Speech and Signal Processing, 2009.ICASSP 2009, IEEE International Conference 」のための論文集の1057頁~1060頁に、Kobayashi,T及びOtsu,Nの両名が「Color image feature extraction using color index local auto-correlations」と題して発表している。
 共起性とは、異なる事象が同時に出現する傾向を示す性質のことである。すなわち、病理組織画像において、局所マスクパターンにより指定される近接画素の関係性を、3クラス(細胞核・細胞質・背景)の組み合わせにより表現し、全ての組み合わせの発生頻度(あるいは発生確率)を特徴として抽出することが可能となる。
 CILAC特徴は、高次相関の次数を0,1または2のいずれかとするとき、0次、1次、2次の自己相関を連結して得られるベクトルとして表現される。0次、1次、2次の自己相関R0(i), R1(i,j,a)、R2(i,j,k,a,b)は下式で表される:
  R0(i)=Σrfi(r)
  R1(i,j,a)= Σrfi(r)fj(r+a)
  R2(i,j,k,a,b)= Σrfi(r)fj(r+a)fk(r+b)
  ここで、rは参照画素、aとbはrからの変位ベクトル、f(x)は画素xが色ラベルiをとるときに1、それ以外のときに0とする関数、i∈{1, ..., D}、j∈{1, ..., D}、k∈{1, ..., D}は色ラベルである。本実施例においてD=3とし、色ラベル1、2、3は、細胞核領域に属する画素に与えられるラベル値、細胞質領域に属する画素に与えられるラベル値、背景領域に属する画素に与えられるラベル値であるものとする。また、変位ベクトルaとbは局所パターンマスクに含まれる9個のマスク候補の位置により規定される。0次相関R0(i)は、iが3種類の値(色ラベル)を取り得るため、長さ3のベクトルとなる。1次相関R1(i,j,a)は、iとjがそれぞれ3種類の値(色ラベル)、変位ベクトルが8種類の方向をとり得るため、長さ3×3×8のベクトルとなる。2次相関R2(i,j,k,a,b)は、iとjとkがそれぞれ3種類の値(色ラベル)、変位ベクトルが8種類の方向から2方向をとり得るため、長さ3×3×3×8×7のベクトルとなる。したがって、2次相関まで全てを連結すると1587次元となる。さらに,本実施の形態ではCILAC特徴についても、前述の実施の形態と同様に回転・反転不変特徴への再構築を行うので、CILAC特徴xiは63次元の回転・反転不変特徴yj(j = 1, …, 63)へ再構成される。
 CILACを用いた特徴抽出を実施すると、診断対象とする病理組織画像の性質に合わせた各領域(細胞核、細胞質、背景)に属する画素にレベル値を付与する必要がなくなり、不適切なレベル値を付与することによる異常検出精度低下のリスクがなくなるため、より安定的な病理組織診断支援が可能となる。
 さらに発展して、特徴抽出において、細胞核の情報と、細胞核と細胞質の関係性を重要視するため、CILACにおける、細胞核・細胞質・背景の3値により構成される局所パターンマスクのうち、細胞核のみと、細胞核と細胞質の関係を示すものだけを使用することができる。
 図29は、1次までのCILACの3×3の局所パターンマスクの例を示している。基本的な走査方法であれば、図29の局所パターンマスクをすべて使用する。しかし局所パターンマスクを、細胞核のみと、細胞核と細胞質の関係を示すものに限定すると、図29においてセルに色を付した局所パターンマスクのみを使用することになる。2次までのマスク数で考えると、全ての局所パターンマスクの種類の数は1587であり、回転反転不変による再構成をした場合でも不変特徴グループの数は63である。これに対して細胞核のみと、細胞核と細胞質の関係を示す局所パターンマスクに限定すると、局所パターンマスクの数は153であり、回転反転不変による再構成をした場合の不変特徴グループの数は15である。
 なお、CILAC特徴量ではなく、実施例1と同様に、領域分割されレベル値を設定された病理組織画像からHLAC特徴を抽出してもよい。また、回転・反転不変特徴グループに基づく特徴量の再構成を行わなくてよいことは勿論である。
 局所パターンマスクの数を限定した場合において、使用する局所パターンマスクとして、図28(A)に示したように8個のマスク候補が中心マスクを中心とする八角形の頂点に位置する局所パターンマスクを用いて、癌組織のサンプル実験における交差検定を行ったときの過検出率(過検出数/正常サンプル数)は8.3%であった。ちなみHLACを特徴抽出法として用いた前述の実施の形態で、図28(A)に示したようにマスク候補が中心マスクを中心とする八角形の頂点に位置する局所パターンマスクを用いた場合の癌組織のサンプル実験における交差検定を行ったときの過検出率(過検出数/正常サンプル数)は、15.7%であった。この結果から、病理組織画像の特徴抽出においては、HLACよりCILACの抽出法が優れており、しかも局所パターンマスクを細胞核のみと、細胞核と細胞質の関係を示すものに限定すると、過検出を抑制できることが確認された。
 本発明は、予めがんの特徴を細かく定義する必要がなく、これまでに集められた正常組織画像の特徴を学習することで、まだ発見されていない未知の病変を異常検出することも可能である。
 本発明によれば、細胞核領域とその他の領域とが区別できる第1の2値化画像データと背景領域とその他の領域とが区別できる第2の2値化画像データの否定論理和をとって細胞質領域を区別し、領域分割画像データとなる3値化画像データを作成するので、従来よりも、背景領域、細胞質領域及び細胞核領域が明確になった領域分割画像を生成することができる。
 1,101 病理組織画像の領域分割画像データ作成システム
 3,103 病理組織画像の特徴抽出システム
 5,105 診断部
 11,111 RGB画像データ生成部
 12,112 第1の2値化画像データ作成部
 13 YUV 画像データ生成部
 14,114 第2の2値化画像データ作成部
 15,115 3値化画像データ作成部
 31,131 高次局所自己相関計算部
 231 マスク画素値計算部
 32,132 要素特徴ベクトル計算部
 33,133 特徴抽出部

Claims (20)

  1.  背景、細胞質及び細胞核を含む病理組織画像データから、背景領域、細胞質領域及び細胞核領域が明確になった領域分割画像を生成するために必要な領域分割画像データを作成する病理組織画像の領域分割画像データ作成システムと、
     前記病理組織画像の領域分割画像データ作成システムにより作成した病理組織画像を予め定めた複数の局所パターンマスクを個々に用いて走査し、前記局所パターンマスク毎に高次局所自己相関特徴を計算する高次局所自己相関計算部と、
     前記複数の局所パターンマスクをそれぞれ45°ずつ回転させたとき及び反転させたときに等価とみなせる複数の局所パターンマスクをそれぞれ複数の不変特徴グループに分け、1つの前記不変特徴グループに属する複数の前記局所パターンマスクを一つの特徴量とみなして、各不変特徴グループに属する前記局所パターンマスクによる走査で得られた前記高次局所自己相関特徴の線形和を計算する要素特徴ベクトル計算部と、
      前記高次局所自己相関特徴の線形和値に基づいて、前記病理組織画像の特徴を抽出する特徴抽出部とを具備し、
     前記病理組織画像の領域分割画像データ作成システムが、
     前記病理組織画像データから前記細胞核領域とその他の領域とが区別できる第1の2値化画像データを作成する第1の2値化画像データ作成部と、
     前記病理組織画像データから前記背景領域とその他の領域とが区別できる第2の2値化画像データを作成する第2の2値化画像データ作成部と、
     前記第1の2値化画像データと前記第2の2値化画像データの否定論理和をとって細胞質領域を明確にし、前記領域分割画像データとなる3値化画像データを作成する3値化画像データ作成部とを備えていることを特徴とする病理組織画像の特徴抽出システム。
  2.  背景、細胞質及び細胞核を含む病理組織画像データから、背景領域、細胞質領域及び細胞核領域が明確になった領域分割画像を生成するために必要な領域分割画像データを作成する病理組織画像の領域分割画像データ作成システムであって、
     前記病理組織画像データから前記細胞核領域とその他の領域とが区別できる第1の2値化画像データを作成する第1の2値化画像データ作成部と、
     前記病理組織画像データから前記背景領域とその他の領域とが区別できる第2の2値化画像データを作成する第2の2値化画像データ作成部と、
     前記第1の2値化画像データと前記第2の2値化画像データの否定論理和をとって細胞質領域を明確にし、前記領域分割画像データとなる3値化画像データを作成する3値化画像データ作成部とを備えていることを特徴とする病理組織画像の領域分割画像データ作成システム。
  3.  前記第1の2値化画像データ作成部は、前記病理組織画像のRGB画像データからR成分を分離し、分離したR成分を判別2値化法により2値化処理して、前記細胞核領域とその他の領域とが区別できる第1の2値化画像データを作成するように構成されている請求項2に記載の病理組織画像の領域分割画像データ作成システム。
  4.  前記第1の2値化画像データ作成部は、前記RGB画像データの全画素データをRGB色空間におけるR軸に射影して前記R成分を分離することを特徴とする請求項3に記載の病理組織画像の領域分割画像データ作成システム。
  5.  前記RGB画像データが、前記病理組織画像のすべての画素においてRGB色空間上のR成分からB成分を減算し、減算結果が0より小さい場合の画素値を0とする冗長成分除去を行った冗長成分除去情報削減RGB画像データである請求項3または4に記載の病理組織画像の領域分割画像データ作成システム。
  6.  前記RGB画像データが、前記冗長成分除去情報削減RGBデータに含まれるすべての画素においてRGB色空間上のB成分からR成分を減算した値が、所定の値より大きい場合には、B成分からR成分を減算した値が前記所定の値となるようにB成分を予め定めた領域内のものとするクリッピングをしたクリッピングRGB画像データである請求項5に記載の病理組織画像の領域分割画像データ作成システム。
  7.  前記第2の2値化画像データ作成部は、前記病理組織画像のYUV画像データからV成分を分離し、分離したV成分を判別2値化法により2値化処理して、前記背景領域とその他の領域とが区別できる第2の2値化画像データを作成するように構成されている請求項2に記載の病理組織画像の領域分割画像データ作成システム。
  8.  前記第2の2値化画像データ作成部は、前記YUV画像データの全画素データをYUV色空間におけるV軸に射影して前記V成分を分離することを特徴とする請求項7に記載の病理組織画像の領域分割画像データ作成システム。
  9.  前記第2の2値化画像データ作成部は、前記第2の2値化画像データを、前記病理組織画像データを主成分分析して得ることを特徴とする請求項2に記載の病理組織画像の領域分割画像データ作成システム。
  10.  前記第2の2値化画像データ作成部は、前記病理組織画像のCIELuv画像データの全画素データを主成分分析し、全画素データの第2主成分スコアを判別2値化法により2値化処理して、前記背景領域とその他の領域とが区別できる第2の2値化画像データを作成するように構成されている請求項9に記載の病理組織画像の領域分割画像データ作成システム。
  11.  前記CIELuv画像データは、前記病理組織画像のRGB画像データをXYZ画像データに変換し、Yの値に基づいてLの値を算出し、XYZの値及び前記Lの値に基づいてuとvを算出することにより、RGB画像データから変換されたものである請求項10に記載の病理組織画像の領域分割画像データ作成システム。
  12.  前記第2の2値化画像データ作成部は、前記病理組織画像データの全画素データを主成分分析して、全画素データの第1主成分スコアを判別2値化法により2値化処理して、前記背景領域とその他の領域とが区別できる第2の2値化画像データを作成するように構成されている請求項2に記載の病理組織画像の領域分割画像データ作成システム。
  13.  請求項3乃至12のいずれか1項に記載の病理組織画像の領域分割画像データ作成システムにより作成した病理組織画像を、予め定めた複数の局所パターンマスクを個々に用いて走査し、前記局所パターンマスク毎に高次局所自己相関特徴を計算する高次局所自己相関計算部と、
     前記複数の局所パターンマスクをそれぞれ45°ずつ回転させたとき及び反転させたときに等価とみなせる複数の局所パターンマスクをそれぞれ複数の不変特徴グループに分け、1つの前記不変特徴グループに属する複数の前記局所パターンマスクを一つの特徴量とみなして、各不変特徴グループに属する前記局所パターンマスクによる走査で得られた前記高次局所自己相関特徴の線形和を計算する要素特徴ベクトル計算部と、
     前記高次局所自己相関特徴の線形和値に基づいて、前記病理組織画像の特徴を抽出する特徴抽出部とからなる病理組織画像の特徴抽出システム。
  14.  前記複数の局所パターンマスクは、m及びnを整数としたときに、(2m+1)×(2n+1)のセルからなるマスク範囲に格子状に配列した複数のマスク候補のうち、マスク範囲の中心に位置するマスク候補を選択し、さらにマスク範囲から0以上の任意個数のマスク候補を選択する事で構成されている請求項13に記載の病理組織画像の特徴抽出システム。
  15.  前記中心マスク候補以外のマスク候補が、中心マスクまでの距離が等しくなるように選択された請求項14に記載の病理組織画像の特徴抽出システム。
  16.  前記中心マスクの座標を(0,0)としてxy座標を仮想したときに、前記中心マスク候補以外の複数のマスク候補が、
      (x2/n2)+(y2/m2)=1
       y=(m/n)x または y=-(m/n)x または y=0 または x=0
     上記2式の交点の座標を有する請求項14に記載の病理組織画像の特徴抽出システム。
  17.  前記mと前記nが等しく、
     前記局所パターンマスクとして使用できる前記複数のマスク候補が前記中心マスク候補以外に8個ある請求項16に記載の病理組織画像の特徴抽出システム。
  18.  前記局所パターンマスクとして、細胞核のみと、細胞核と細胞質の関係を示すものだけを使用する請求項13乃至17のいずれか1項に記載の病理組織画像の特徴抽出システム。
  19.  病理組織画像を、予め定めた複数の局所パターンマスクを個々に用いて走査し、前記局所パターンマスク毎に高次局所自己相関特徴を計算する走査して、前記局所パターンマスク毎に高次局所自己相関特徴を計算するステップと、
     前記複数のマスクパターンをそれぞれ45°ずつ回転させたとき及び反転させたときに等価とみなせる複数のマスクパターンをそれぞれ複数の不変特徴グループに分け、1つの前記不変特徴グループに属する複数の前記マスクパターンを一つの特徴量とみなして、各不変特徴グループに属する前記局所パターンマスクによる走査で得られた前記高次局所自己相関特徴の線形和を計算するステップと、
     前記高次局所自己相関特徴の線形和値に基づいて、前記病理組織画像の特徴を抽出するステップとからなる病理組織画像の特徴抽出方法。
  20.  前記局所パターンマスクとして、細胞核のみと、細胞核と細胞質の関係を示すものだけを使用する請求項19に記載の病理組織画像の特徴抽出方法。
PCT/JP2011/066744 2010-07-23 2011-07-22 病理組織画像の領域分割画像データ作成システム及び病理組織画像の特徴抽出システム WO2012011579A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US13/807,135 US9031294B2 (en) 2010-07-23 2011-07-22 Region segmented image data creating system and feature extracting system for histopathological images
JP2012525453A JP5825641B2 (ja) 2010-07-23 2011-07-22 病理組織画像の特徴抽出システム及び病理組織画像の特徴抽出方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010-166496 2010-07-23
JP2010166496 2010-07-23

Publications (1)

Publication Number Publication Date
WO2012011579A1 true WO2012011579A1 (ja) 2012-01-26

Family

ID=45496996

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/066744 WO2012011579A1 (ja) 2010-07-23 2011-07-22 病理組織画像の領域分割画像データ作成システム及び病理組織画像の特徴抽出システム

Country Status (3)

Country Link
US (1) US9031294B2 (ja)
JP (1) JP5825641B2 (ja)
WO (1) WO2012011579A1 (ja)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013161155A1 (ja) * 2012-04-23 2013-10-31 日本電気株式会社 画像計測装置、画像計測方法、および、画像計測用プログラム
WO2013179581A1 (ja) * 2012-05-30 2013-12-05 パナソニック株式会社 画像計測装置、画像計測方法及び画像計測システム
CN103902998A (zh) * 2012-12-27 2014-07-02 核工业北京地质研究院 一种用于绿泥石信息提取的高光谱影像处理方法
JP2015052581A (ja) * 2013-01-08 2015-03-19 キヤノン株式会社 生体組織画像の再構成方法及び装置並びに該生体組織画像を用いた画像表示装置
JP5789786B2 (ja) * 2012-11-27 2015-10-07 パナソニックIpマネジメント株式会社 画像計測装置および画像計測方法
WO2016084315A1 (en) * 2014-11-28 2016-06-02 Canon Kabushiki Kaisha Data processing apparatus, spectral information acquisition apparatus, data processing method, program, and storage medium
KR20170082630A (ko) 2014-12-01 2017-07-14 고쿠리츠켄큐카이하츠호진 상교기쥬츠 소고켄큐쇼 초음파 검사 시스템 및 초음파 검사 방법
US9721184B2 (en) 2013-11-05 2017-08-01 Fanuc Corporation Apparatus and method for picking up article randomly piled using robot
JP2018091685A (ja) * 2016-12-01 2018-06-14 国立研究開発法人産業技術総合研究所 検査装置および検査方法
JP2018132309A (ja) * 2017-02-13 2018-08-23 株式会社Ihi 探索方法及び探索システム
JP2018535471A (ja) * 2015-09-23 2018-11-29 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 正規化及びアーチファクト補正のための画像処理方法及び画像処理装置
WO2019044579A1 (ja) 2017-08-31 2019-03-07 国立大学法人大阪大学 病理診断装置、画像処理方法及びプログラム
JP2019045514A (ja) * 2013-05-30 2019-03-22 キヤノン株式会社 分光画像データ処理装置および2次元分光装置
CN109859218A (zh) * 2019-02-25 2019-06-07 北京邮电大学 病理图关键区域确定方法、装置、电子设备及存储介质
WO2020137222A1 (ja) * 2018-12-28 2020-07-02 オムロン株式会社 欠陥検査装置、欠陥検査方法、及びそのプログラム
JP2021508373A (ja) * 2017-11-27 2021-03-04 デシフェックス 正常モデルの分析による組織病理学検査用組織サンプルの自動スクリーニング
CN114240958A (zh) * 2021-12-23 2022-03-25 西安交通大学 一种应用于病理学组织分割的对比学习方法

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9031294B2 (en) * 2010-07-23 2015-05-12 National Institute Of Advanced Industrial Science And Technology Region segmented image data creating system and feature extracting system for histopathological images
US9230161B2 (en) 2013-12-06 2016-01-05 Xerox Corporation Multiple layer block matching method and system for image denoising
EP3124956B1 (en) * 2014-03-27 2018-12-26 Konica Minolta, Inc. Image processing device and image processing program
WO2016120442A1 (en) * 2015-01-30 2016-08-04 Ventana Medical Systems, Inc. Foreground segmentation and nucleus ranking for scoring dual ish images
JP6626783B2 (ja) * 2016-06-02 2019-12-25 Hoya株式会社 画像処理装置および電子内視鏡システム
US11195313B2 (en) * 2016-10-14 2021-12-07 International Business Machines Corporation Cross-modality neural network transform for semi-automatic medical image annotation
KR20180060257A (ko) * 2016-11-28 2018-06-07 삼성전자주식회사 객체 인식 방법 및 장치
WO2019025514A2 (en) * 2017-08-04 2019-02-07 Ventana Medical Systems, Inc. METHODS AND AUTOMATED SYSTEMS FOR DETECTING CELLS IN IMAGES OF COLORED SAMPLES
JP6943295B2 (ja) 2017-12-14 2021-09-29 日本電気株式会社 学習装置、学習方法、および学習プログラム
JP7184801B2 (ja) 2017-12-14 2022-12-06 日本電気株式会社 学習装置、学習方法、および学習プログラム
WO2019116497A1 (ja) * 2017-12-14 2019-06-20 日本電気株式会社 識別装置、識別方法、および記憶媒体
CN110246567B (zh) * 2018-03-07 2023-07-25 中山大学 一种医学图像预处理方法
JP7057433B6 (ja) * 2018-10-01 2022-05-16 株式会社日立産機システム 印字検査装置
CN113222928B (zh) * 2021-05-07 2023-09-19 北京大学第一医院 一种尿细胞学人工智能尿路上皮癌识别系统
CN114240859B (zh) * 2021-12-06 2024-03-19 柳州福臻车体实业有限公司 一种基于图像处理的模具研合率检测方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5068592A (ja) * 1973-10-22 1975-06-07
JPS59134846A (ja) * 1983-01-21 1984-08-02 Fujitsu Ltd 電子ビ−ム装置
JPS63144257A (ja) * 1986-12-08 1988-06-16 Nippon Koden Corp 細胞分類装置
JP2004058737A (ja) * 2002-07-25 2004-02-26 National Institute Of Advanced Industrial & Technology 駅ホームにおける安全監視装置
JP2004286666A (ja) * 2003-03-24 2004-10-14 Olympus Corp 病理診断支援装置および病理診断支援プログラム
JP2008216066A (ja) * 2007-03-05 2008-09-18 Kddi Corp 類似画像検索装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4045655A (en) 1973-10-15 1977-08-30 Hitachi, Ltd. Automatic cyto-screening device
JP4496943B2 (ja) 2004-11-30 2010-07-07 日本電気株式会社 病理診断支援装置、病理診断支援プログラム、病理診断支援装置の作動方法、及び病理診断支援システム
US8280132B2 (en) * 2006-08-01 2012-10-02 Rutgers, The State University Of New Jersey Malignancy diagnosis using content-based image retreival of tissue histopathology
JP5154844B2 (ja) * 2007-06-14 2013-02-27 オリンパス株式会社 画像処理装置および画像処理プログラム
JP4947589B2 (ja) 2007-06-27 2012-06-06 Kddi株式会社 類似画像検索装置
JP4558047B2 (ja) * 2008-01-23 2010-10-06 オリンパス株式会社 顕微鏡システム、画像生成方法、及びプログラム
US8488863B2 (en) * 2008-11-06 2013-07-16 Los Alamos National Security, Llc Combinational pixel-by-pixel and object-level classifying, segmenting, and agglomerating in performing quantitative image analysis that distinguishes between healthy non-cancerous and cancerous cell nuclei and delineates nuclear, cytoplasm, and stromal material objects from stained biological tissue materials
US9031294B2 (en) * 2010-07-23 2015-05-12 National Institute Of Advanced Industrial Science And Technology Region segmented image data creating system and feature extracting system for histopathological images
US8699769B2 (en) * 2011-07-12 2014-04-15 Definiens Ag Generating artificial hyperspectral images using correlated analysis of co-registered images

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5068592A (ja) * 1973-10-22 1975-06-07
JPS59134846A (ja) * 1983-01-21 1984-08-02 Fujitsu Ltd 電子ビ−ム装置
JPS63144257A (ja) * 1986-12-08 1988-06-16 Nippon Koden Corp 細胞分類装置
JP2004058737A (ja) * 2002-07-25 2004-02-26 National Institute Of Advanced Industrial & Technology 駅ホームにおける安全監視装置
JP2004286666A (ja) * 2003-03-24 2004-10-14 Olympus Corp 病理診断支援装置および病理診断支援プログラム
JP2008216066A (ja) * 2007-03-05 2008-09-18 Kddi Corp 類似画像検索装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
SHINJI UMEYAMA: "Rotation invariant features based on higher-order autocorrelations", DAI 45 KAI PROCEEDINGS OF THE NATIONAL MEETING OF INFORMATION PROCESSING SOCIETY OF JAPAN, vol. 45, no. 2, 28 September 1992 (1992-09-28), pages 323 - 324 *

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9390313B2 (en) 2012-04-23 2016-07-12 Nec Corporation Image measurement apparatus and image measurment method measuring the cell neclei count
JPWO2013161155A1 (ja) * 2012-04-23 2015-12-21 日本電気株式会社 画像計測装置、画像計測方法、および、画像計測用プログラム
WO2013161155A1 (ja) * 2012-04-23 2013-10-31 日本電気株式会社 画像計測装置、画像計測方法、および、画像計測用プログラム
JP5576993B2 (ja) * 2012-05-30 2014-08-20 パナソニック株式会社 画像計測装置、画像計測方法及び画像計測システム
JPWO2013179581A1 (ja) * 2012-05-30 2016-01-18 パナソニック株式会社 画像計測装置、画像計測方法及び画像計測システム
WO2013179581A1 (ja) * 2012-05-30 2013-12-05 パナソニック株式会社 画像計測装置、画像計測方法及び画像計測システム
US9418414B2 (en) 2012-05-30 2016-08-16 Panasonic Intellectual Property Management Co., Ltd. Image measurement apparatus, image measurement method and image measurement system
US9558551B2 (en) 2012-11-27 2017-01-31 Panasonic Intellectual Property Management Co., Ltd. Image measurement apparatus and image measurement method for determining a proportion of positive cell nuclei among cell nuclei included in a pathologic examination specimen
JP5789786B2 (ja) * 2012-11-27 2015-10-07 パナソニックIpマネジメント株式会社 画像計測装置および画像計測方法
CN103902998A (zh) * 2012-12-27 2014-07-02 核工业北京地质研究院 一种用于绿泥石信息提取的高光谱影像处理方法
JP2015052581A (ja) * 2013-01-08 2015-03-19 キヤノン株式会社 生体組織画像の再構成方法及び装置並びに該生体組織画像を用いた画像表示装置
JP2019045514A (ja) * 2013-05-30 2019-03-22 キヤノン株式会社 分光画像データ処理装置および2次元分光装置
JP2020101564A (ja) * 2013-05-30 2020-07-02 キヤノン株式会社 分光画像データ処理装置および2次元分光装置
US9721184B2 (en) 2013-11-05 2017-08-01 Fanuc Corporation Apparatus and method for picking up article randomly piled using robot
WO2016084315A1 (en) * 2014-11-28 2016-06-02 Canon Kabushiki Kaisha Data processing apparatus, spectral information acquisition apparatus, data processing method, program, and storage medium
US10786227B2 (en) 2014-12-01 2020-09-29 National Institute Of Advanced Industrial Science And Technology System and method for ultrasound examination
KR20170082630A (ko) 2014-12-01 2017-07-14 고쿠리츠켄큐카이하츠호진 상교기쥬츠 소고켄큐쇼 초음파 검사 시스템 및 초음파 검사 방법
KR102014104B1 (ko) 2014-12-01 2019-08-26 고쿠리츠켄큐카이하츠호진 상교기쥬츠 소고켄큐쇼 초음파 검사 시스템 및 초음파 검사 방법
JP2018535471A (ja) * 2015-09-23 2018-11-29 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 正規化及びアーチファクト補正のための画像処理方法及び画像処理装置
JP2018091685A (ja) * 2016-12-01 2018-06-14 国立研究開発法人産業技術総合研究所 検査装置および検査方法
JP2018132309A (ja) * 2017-02-13 2018-08-23 株式会社Ihi 探索方法及び探索システム
WO2019044579A1 (ja) 2017-08-31 2019-03-07 国立大学法人大阪大学 病理診断装置、画像処理方法及びプログラム
JP2021508373A (ja) * 2017-11-27 2021-03-04 デシフェックス 正常モデルの分析による組織病理学検査用組織サンプルの自動スクリーニング
JP7220017B2 (ja) 2017-11-27 2023-02-09 デシフェックス 正常モデルの分析による組織病理学検査用組織サンプルの自動スクリーニング
WO2020137222A1 (ja) * 2018-12-28 2020-07-02 オムロン株式会社 欠陥検査装置、欠陥検査方法、及びそのプログラム
JP2020106467A (ja) * 2018-12-28 2020-07-09 オムロン株式会社 欠陥検査装置、欠陥検査方法、及びそのプログラム
US11830174B2 (en) 2018-12-28 2023-11-28 Omron Corporation Defect inspecting device, defect inspecting method, and storage medium
CN109859218A (zh) * 2019-02-25 2019-06-07 北京邮电大学 病理图关键区域确定方法、装置、电子设备及存储介质
CN114240958A (zh) * 2021-12-23 2022-03-25 西安交通大学 一种应用于病理学组织分割的对比学习方法
CN114240958B (zh) * 2021-12-23 2024-04-05 西安交通大学 一种应用于病理学组织分割的对比学习方法

Also Published As

Publication number Publication date
US20130094733A1 (en) 2013-04-18
JPWO2012011579A1 (ja) 2013-09-09
US9031294B2 (en) 2015-05-12
JP5825641B2 (ja) 2015-12-02

Similar Documents

Publication Publication Date Title
JP5825641B2 (ja) 病理組織画像の特徴抽出システム及び病理組織画像の特徴抽出方法
JP6710135B2 (ja) 細胞画像の自動分析方法及びシステム
Chekkoury et al. Automated malignancy detection in breast histopathological images
Schwartz et al. Visual material traits: Recognizing per-pixel material context
Hervé et al. Statistical color texture descriptors for histological images analysis
CN108109140A (zh) 基于深度学习的低级别脑胶质瘤柠檬酸脱氢酶无损预测方法及系统
Xu et al. Computerized classification of prostate cancer gleason scores from whole slide images
CN114140445B (zh) 基于重点关注区域提取的乳腺癌病理图像识别方法
Akhtar et al. Optical character recognition (OCR) using partial least square (PLS) based feature reduction: an application to artificial intelligence for biometric identification
CN112990214A (zh) 一种医学图像特征识别预测模型
CN115775226B (zh) 基于Transformer的医学图像分类方法
Chatterjee et al. A novel method for IDC prediction in breast cancer histopathology images using deep residual neural networks
Jonnalagedda et al. [regular paper] mvpnets: Multi-viewing path deep learning neural networks for magnification invariant diagnosis in breast cancer
Di Leo et al. Towards an automatic diagnosis system for skin lesions: estimation of blue-whitish veil and regression structures
WO2014006421A1 (en) Identification of mitotic cells within a tumor region
Moradi et al. Multi-class segmentation of skin lesions via joint dictionary learning
Albashish et al. Ensemble learning of tissue components for prostate histopathology image grading
Rathore et al. A novel approach for ensemble clustering of colon biopsy images
CN113361407B (zh) 基于PCANet的空谱特征联合高光谱海冰图像分类方法
Sertel et al. Computer-aided prognosis of neuroblastoma: classification of stromal development on whole-slide images
Fetisov et al. Unsupervised prostate cancer histopathology image segmentation via meta-learning
CN115018820A (zh) 基于纹理加强的乳腺癌多分类方法
CN114155399A (zh) 基于多特征融合递进式判别的乳腺病理全切片分类方法
Alomari et al. Localization of tissues in high-resolution digital anatomic pathology images
CN113902013A (zh) 一种基于三维卷积神经网络与超像素分割的高光谱分类方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11809749

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 13807135

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2012525453

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11809749

Country of ref document: EP

Kind code of ref document: A1