WO2013161155A1 - 画像計測装置、画像計測方法、および、画像計測用プログラム - Google Patents

画像計測装置、画像計測方法、および、画像計測用プログラム Download PDF

Info

Publication number
WO2013161155A1
WO2013161155A1 PCT/JP2013/001449 JP2013001449W WO2013161155A1 WO 2013161155 A1 WO2013161155 A1 WO 2013161155A1 JP 2013001449 W JP2013001449 W JP 2013001449W WO 2013161155 A1 WO2013161155 A1 WO 2013161155A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
region
measurement
mask
tissue
Prior art date
Application number
PCT/JP2013/001449
Other languages
English (en)
French (fr)
Inventor
真貴 佐野
慶子 吉原
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to JP2014512308A priority Critical patent/JP5924406B2/ja
Priority to US14/395,583 priority patent/US9390313B2/en
Publication of WO2013161155A1 publication Critical patent/WO2013161155A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N15/00Investigating characteristics of particles; Investigating permeability, pore-volume or surface-area of porous materials
    • G01N15/10Investigating individual particles
    • G01N15/14Optical investigation techniques, e.g. flow cytometry
    • G01N15/1429Signal processing
    • G01N15/1433Signal processing using image recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/695Preprocessing, e.g. image segmentation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N15/00Investigating characteristics of particles; Investigating permeability, pore-volume or surface-area of porous materials
    • G01N15/10Investigating individual particles
    • G01N2015/1006Investigating individual particles for cytology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30024Cell structures in vitro; Tissue sections in vitro
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30221Sports video; Sports image
    • G06T2207/30224Ball; Puck
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30242Counting objects in image

Definitions

  • the present invention relates to an image measurement apparatus, an image measurement method, and an image measurement program for measuring information on an object included in a tissue from a stained tissue specimen image.
  • the number of cell nuclei contained in a target region is measured from an image of an immunostained pathological tissue specimen (IHC (Immuno-histochemistry) specimen).
  • IHC immunostained pathological tissue specimen
  • a system for measuring an image measures the number of cell nuclei in the designated region for each staining intensity.
  • Non-Patent Document 1 describes a method of automatically recognizing a cell nucleus equivalent to a learned cell nucleus from the entire tissue region of a specimen.
  • Non-Patent Document 2 describes a method for determining the staining intensity and calculating the number of cell nuclei for each staining intensity for cell nuclei automatically recognized by the method described in Non-Patent Document 1.
  • FIG. 5 is an explanatory diagram showing the recognition result of the measurement object by the method described in Non-Patent Document 1.
  • FIG. 5 shows that the result of recognizing the designated measurement target tissue is displayed individually.
  • Patent Document 1 describes a breast cancer pathological image diagnosis support system that calculates a staining positive cell content rate.
  • the system described in Patent Document 1 matches a tumor region acquired from an HE (Hematoxylin and Eosin stain) stained image with a tumor region in an IHC image, and based on information on the tumor region in the specified IHC image, The staining positive cell content in the tumor area is calculated.
  • HE Hematoxylin and Eosin stain
  • the numerical values such as staining intensity or positive / negative of individual cell nuclei obtained as a calculation result are summed over the entire tissue region. It will be used as a single value. In this case, for example, the staining heterogeneity of each region showing cancer cannot be observed as a numerical value.
  • Non-Patent Document 1 by referring to the recognition result by the method described in Non-Patent Document 1, it is possible to grasp the distribution of individual cell nuclei to be measured from the image of the IHC sample. However, it is difficult for the user to understand what the recognized area to be measured has, such as the dyeability of the area, only by the information shown in FIG.
  • an object of the present invention is to provide an image measurement device, an image measurement method, and an image measurement program that can measure the content indicated by the region of the object in an aspect that is easy for the user to understand from the image representing the tissue specimen.
  • An image measuring apparatus includes a tissue region recognizing unit for recognizing a tissue region from an image obtained by staining a tissue including a measurement object and a non-measurement object, and a constant magnification having a predetermined size from the tissue region.
  • a partial image extracting means for extracting the image of the image
  • a mask generating means for generating a mask for removing the non-measurement target area, which is an area where the non-measurement target exists, from the tissue area for each extracted image, and for each image
  • a global mask generation that generates a temporary global mask that integrates the generated masks and generates a global mask that includes one or more target areas by combining adjacent parts of the temporary global mask that are not masked.
  • An image measurement method recognizes a tissue region from an image obtained by staining a tissue including a measurement object and a non-measurement object, and extracts an image with a predetermined size and a predetermined magnification from the tissue region. For each extracted image, generate a mask to remove the non-measurement target area, which is the area where the non-measurement target exists, from the tissue area, and generate a temporary whole mask that integrates the mask generated for each image. A whole mask is generated by combining the adjacent unmasked parts of the temporary whole mask into one or more target areas, and the measurement target included in the image is extracted for each image extracted from the tissue area. Information on the object is measured, and information on the measurement object is calculated for each target region from the measured information and the entire mask.
  • the program for image measurement is a computer program for tissue region recognition processing for recognizing a tissue region from an image obtained by staining a tissue including a measurement object and a non-measurement object, and a predetermined size from the tissue region.
  • Partial image extraction process for extracting an image at a constant magnification
  • mask generation process for generating a mask for removing a non-measurement target area, which is an area where a non-measurement target exists, from a tissue area for each extracted image
  • image An overall mask that generates a temporary overall mask that integrates the masks generated for each of the masks, and generates an overall mask that includes one or more target regions by combining adjacent portions of the temporary overall mask that are not masked.
  • a measurement process for measuring information on the measurement object included in the image, and the measurement And a broadcast and entire mask characterized in that to execute the region information calculating process for calculating information related to the measurement object for each target area.
  • the present invention it is possible to measure the content indicated by the region of the object from the image representing the tissue specimen in a manner that is easy for the user to understand.
  • FIG. 1 is a block diagram showing an embodiment of an image measuring apparatus according to the present invention.
  • the image measurement apparatus according to the present embodiment includes an image storage unit 1, a tissue region recognition unit 2, a tissue region segmentation unit 3, a mask generation unit 4, a mask integration unit 5, a cell nucleus count measurement unit 6, and a result display. Part 7.
  • the image storage unit 1 stores an image S001 obtained by scanning a tissue specimen.
  • the image obtained by scanning the tissue specimen is, for example, an image of an immunostained pathological tissue specimen.
  • the tissue specimen image includes various structures. Examples of structures include cancer areas (cancer areas that do not distinguish between the presence or absence of invasion), cancer areas with invasion, cancer areas without invasion, benign disease areas, normal areas that are not lesions, gland duct areas, blood vessel areas, Examples include a lymphatic region, an epithelial region, a stromal region, a lymphocyte, an artifact region, a necrotic region, and a fat region. However, the structure is not limited to these contents.
  • a measurement target structure hereinafter referred to as a measurement target
  • a non-measurement target structure hereinafter referred to as a non-measurement target
  • a “cancer area without invasion” can be a measurement object or a non-measurement object depending on the purpose of the system.
  • the image storage unit 1 is realized by, for example, a magnetic disk.
  • the image measurement device includes the image storage unit 1
  • the image measurement device may receive an image obtained by imaging a tissue specimen from another device. In this case, the image measurement device may not include the image storage unit 1.
  • the tissue region recognition unit 2 recognizes the entire tissue region S002 (also referred to as a tissue region) from the image S001 stored in the image storage unit 1.
  • a tissue specimen image includes a region that is not a tissue specimen image (for example, a slide glass) in addition to the above-described measurement object and non-measurement object. Therefore, the tissue region recognition unit 2 may recognize the tissue region by removing a portion that is not a tissue specimen image from the image S001.
  • the tissue region cutout unit 3 cuts out the image of the entire tissue region S002 recognized by the tissue region recognition unit 2 into an image S003 having a fixed size and a constant magnification. Specifically, the tissue region cutout unit 3 extracts an image S003 having a predetermined size and a predetermined magnification from the tissue region.
  • the mask generation unit 4 recognizes a region where a non-measurement target exists (hereinafter, referred to as a non-measurement target region) for each image cut out by the tissue region cut-out unit 3 (that is, the image S003), and sets the mask S004. calculate. Specifically, the mask generation unit 4 generates a mask S004 for removing the non-measurement target region from the tissue region for each of the cut out images. For example, when the stromal cell is a non-measurement target, the mask generation unit 4 may recognize a region including the stromal cell for each image S003 and calculate the mask.
  • the mask generation unit 4 converts the tissue specimen image into a gray scale image.
  • the mask generation unit 4 performs a smoothing process such as a Gaussian filter on the converted grayscale image.
  • a smoothing process such as a Gaussian filter
  • the density difference decreases in the area of the measurement object, and the whole becomes one lump.
  • the stained discrete stromal cell nucleus changes to a high luminance value under the influence of surrounding pixels having a high luminance value.
  • the mask generation unit 4 generates a luminance value histogram of the smoothed image, and calculates a threshold value for separating the interstitial region from the measurement target region.
  • the mask generation unit 4 may calculate the threshold value by, for example, dynamic programming.
  • the mask generation unit 4 generates a mask by performing binarization processing based on this threshold value.
  • the method of generating the mask is not limited to the above method. As long as it is a method that can identify a region where a non-measurement target included in a tissue specimen image (tissue region) exists, the mask generation unit 4 may generate a mask using another method.
  • the mask integration unit 5 generates an overall mask S005 corresponding to the entire tissue region by integrating the entire mask calculated for each cut-out image.
  • the mask integration unit 5 integrates the masks generated for each extracted image.
  • this integrated mask is referred to as a temporary whole mask.
  • the mask integration unit 5 generates an overall mask that includes one or more target regions by combining adjacent portions of the unmasked portion of the temporary overall mask.
  • the part that is not masked corresponds to the part to be measured in the tissue specimen image. Therefore, grouping adjacent unmasked parts means grouping adjacent measurement target parts in the tissue specimen image. In this way, the measurement targets in the tissue specimen image are collected into several target areas. In other words, it can be said that the mask integration unit 5 collects the tissue specimen images for each meaningful region by generating such a target region.
  • the mask integration unit 5 performs image processing on the temporary whole mask so as to generate the target region described above.
  • the mask integration unit 5 may generate each target region by performing image processing such as expansion processing, reduction processing, closing processing, opening processing, hole filling processing, and small region deletion processing on the temporary whole mask. Good. By doing in this way, the measurement object in the tissue specimen image can be collected into a meaningful area such as a cancer area, for example.
  • the cell nucleus number measurement unit 6 measures the number of cell nuclei for each staining intensity for each image cut out by the tissue region cutout unit 3 (ie, image S003).
  • information indicating the number of cell nuclei for each staining intensity measured by the cell nuclei counting unit 6 is referred to as cell nuclei count information S006.
  • the number of cell nuclei for each staining intensity is an example of information measured by the cell nuclei counting unit 6.
  • the cell nucleus number measurement unit 6 may measure other information related to the measurement object included in the image cut out by the tissue region cutout unit 3.
  • the result display unit 7 outputs a result for each measurement target area such as cancer. Specifically, the result display unit 7 calculates information on the measurement object for each target region from the information measured by the cell nucleus number measurement unit 6 and the entire mask.
  • the result display unit 7 calculates, for each cancer region, the measurement result and the positive rate of the number of cell nuclei for each staining intensity based on, for example, the entire mask S005 corresponding to the entire tissue region and the cell nucleus count measurement information S006. . Then, the result display unit 7 displays a result image S007 indicating the calculation result.
  • the result display unit 7 may output information related to the measurement object for each target region, for example, by superimposing the target region on an image S001 obtained by scanning a tissue specimen.
  • FIG. 2 is an explanatory diagram showing an example of an output result image S007 by the result display unit 7. As shown in FIG. In the example illustrated in FIG. 2, there are two measurement target objects (for example, cancer) target areas, and a positive rate is displayed in association with each target area and the entire area.
  • two measurement target objects for example, cancer
  • the measurement objects are grouped into meaningful areas. Therefore, by displaying the number of cell nuclei and the positive rate by staining intensity for each region, it becomes possible to observe the staining heterogeneity for each cancer region in the entire tissue region.
  • the area distribution (histogram) of the positive rate can be obtained only for the measurement target region in the entire tissue region.
  • the tissue region recognition unit 2, the tissue region cutout unit 3, the mask generation unit 4, the mask integration unit 5, the cell nucleus number measurement unit 6, and the result display unit 7 operate according to a program (an image measurement program).
  • a program an image measurement program
  • the program is stored in a storage unit (not shown) of the image measurement device, and the CPU reads the program, and in accordance with the program, the tissue region recognition unit 2, the tissue region segmentation unit 3, the mask generation unit 4, and the mask integration
  • the unit 5, the cell nucleus number measurement unit 6, and the result display unit 7 may be operated.
  • the tissue region recognition unit 2, the tissue region segmentation unit 3, the mask generation unit 4, the mask integration unit 5, the cell nucleus count measurement unit 6, and the result display unit 7 are each realized by dedicated hardware. May be.
  • FIG. 3 is an explanatory diagram illustrating an example of an operation for displaying a positive rate for each region indicating a measurement target from an image obtained by scanning a tissue specimen.
  • the tissue region recognition unit 2 recognizes the tissue region S002 from the image S001.
  • the tissue region cutout unit 3 extracts an image S003 having a predetermined size and a predetermined magnification from the tissue region S002.
  • the mask generation unit 4 generates a mask S004 for each extracted image S003.
  • the mask integration unit 5 integrates the mask S004 generated for each image S003 to generate a temporary overall mask S008.
  • the mask integration unit 5 generates an overall mask S005 as one or more target areas S009 by collecting adjacent portions of the temporary overall mask S008 that are not masked.
  • each target region S009 is a region generated by performing image processing such as expansion processing on the portion shown in white in the temporary overall mask S008, and is included in the overall mask S005.
  • the cell nucleus number measurement unit 6 measures information related to the measurement object included in each image S003. For example, the cell nucleus number measurement unit 6 measures the number of cell nuclei for each staining intensity included in each image S003 to generate cell nucleus number measurement information S006.
  • the result display unit 7 calculates information on a measurement target (for example, cancer) for each target region S009 from the measured information (cell nucleus count measurement information S006) and the entire mask S005.
  • the result display unit 7 calculates, for example, the measurement result of the number of cell nuclei for each staining intensity and the positive rate for each target region S009. Then, the output result unit 7 outputs the calculation result.
  • the tissue region recognition unit 2 recognizes the tissue region S002 from the image S001 (for example, an IHC sample image) obtained by scanning the tissue sample, and the tissue region cutout unit 3 An image S003 having a predetermined size and a predetermined magnification is extracted from the region S002.
  • the mask generation unit 4 generates a mask S004 for removing the non-measurement object region from the tissue region, and the mask integration unit 5 generates a temporary entire mask S008 that integrates the mask S004. To do.
  • the mask integration unit 5 generates an overall mask S005 that combines the adjacent portions of the unmasked portions in the temporary overall mask S008 into one or more target regions S009.
  • the cell nucleus number measurement unit 6 measures information S006 (for example, the number of cell nuclei for each staining intensity) related to the measurement object (for example, cancer) included in the image.
  • the result display unit 7 calculates information on the measurement object (for example, the measurement result and the positive rate of the cell nuclei for each staining intensity) for each target region S009 from the measured information S006 and the entire mask S005.
  • the image measuring apparatus of the present embodiment it is not necessary to select a region to be measured in advance, so that it is possible to save the user's trouble.
  • the staining heterogeneity for each cancer region can be clearly shown on the IHC specimen, and the area distribution (histogram) of the positive rate for only the cancer region in the entire tissue region can be calculated. Can help determine.
  • the unit of the region is too fine to display the cell nucleus number and the positive rate, so it is difficult for the user to understand the contents. Therefore, as a result, even though the region (distribution) to be measured can be referred to, the number of cell nuclei and the positive rate are practically only one value for the whole specimen or the entire designated region. I can't.
  • FIG. 4 is a block diagram showing an outline of an image measuring apparatus according to the present invention.
  • An image measurement apparatus recognizes a tissue region from an image (for example, an image of an IHC specimen) obtained by staining a tissue including a measurement target (for example, cancer) and a non-measurement target.
  • Means 81 for example, tissue region recognition unit 2), partial image extraction unit 82 (for example, tissue region segmentation unit 3) for extracting an image of a predetermined magnification having a predetermined size from the tissue region, and each extracted image
  • the mask generation unit 83 for example, the mask generation unit 4 that generates a mask for removing the non-measurement target region, which is a region where the non-measurement target exists, from the tissue region and the mask generated for each image are integrated.
  • information for example, the number of cell nuclei for each staining intensity
  • Information calculation means 86 (result display section 7).
  • the measuring means 85 may measure the number of cell nuclei for each staining intensity for each image extracted by the partial image extracting means 82. Then, the region information calculation unit 86 may calculate the measurement result of the number of cell nuclei for each staining intensity for each target region from the measured number of cell nuclei for each staining intensity and the entire mask.
  • the region information calculation means 86 may calculate a positive rate for each target region from the measured number of cell nuclei for each staining intensity and the entire mask.
  • the image measuring apparatus outputs information related to the measurement object for each target region calculated by the region information calculating unit 86 together with an image obtained by staining the tissue and outputting the information in association with the target region (for example, A result display unit 7) may be provided.
  • the present invention is suitably applied to an image measuring apparatus that measures information on an object contained in a tissue from a stained tissue specimen image.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Immunology (AREA)
  • Dispersion Chemistry (AREA)
  • Medical Informatics (AREA)
  • Quality & Reliability (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Investigating Or Analysing Biological Materials (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

 部分画像抽出手段82は、組織領域から予め定めた大きさの一定倍率の画像を抽出する。マスク生成手段83は、抽出された画像ごとに、非計測対象領域を組織領域から除くためのマスクを生成する。計測手段85は、画像ごとに生成されたマスクを統合した仮全体マスクを生成し、仮全体マスクにおけるマスクされていない部分のうち近接する部分をまとめて1つ以上の対象領域とした全体マスクを生成する全体マスク生成手段84と、部分画像抽出手段82によって抽出された画像ごとに、その画像に含まれる計測対象物に関する情報を計測する。領域情報算出手段86は、計測された情報と全体マスクとから、対象領域ごとに計測対象物に関する情報を算出する。

Description

画像計測装置、画像計測方法、および、画像計測用プログラム
 本発明は、染色された組織標本の画像から、組織に含まれる対象物の情報を計測する画像計測装置、画像計測方法、および、画像計測用プログラムに関する。
 免疫染色病理組織標本(IHC(Immuno-histochemistry )標本)の画像から、対象(例えば、癌など)とする領域に含まれる細胞核数を計測することが行われている。一般に、技師や病理医などのユーザが、IHC標本の画像から計測対象の領域を指定すると、画像を計測するシステムが、例えば、指定された領域内の細胞核数を染色強度別に計測する。
 非特許文献1には、学習した細胞核と同等の細胞核を標本の組織領域全域から自動で認識する方法が記載されている。また、非特許文献2には、非特許文献1に記載された方法によって自動で認識した細胞核に対し、染色強度を判断し染色強度別の細胞核数を算出する方法が記載されている。
 図5は、非特許文献1に記載された方法による計測対象の認識結果を示す説明図である。図5は、指定された計測対象の組織を認識した結果が個々に表示されていることを示す。
 なお、特許文献1には、染色陽性細胞含有率を算出する乳癌病理画像診断支援システムが記載されている。特許文献1に記載されたシステムは、HE(Hematoxylin and Eosin stain )染色画像から取得された腫瘍領域とIHC画像における腫瘍領域とをマッチングさせ、特定されたIHC画像における腫瘍領域の情報に基づいて、腫瘍領域内の染色陽性細胞含有率を算出する。
国際公開WO2008/108059号公報
Aperio, "GENIE TISSUE PATTERN RECOGNITION", [online], [平成24年4月10日検索], インターネット〈URL:http://www.aperio.com/imageanalysis/Genie-Histology.asp〉 Kate Lillard-Wetherell, Ph.D.,"Automated selection and analysis of tumor regions in breast sections stained with nuclear IHC biomarkers", APERIO, APERIO APPLICATION NOTE, October 2008.
 一般的な方法では、例えば、対象とする領域内の細胞核数を計測する場合、ユーザがIHC標本の画像から計測対象を認識し、その計測対象の領域を指定しなければならず、手間がかかるという課題がある。
 また、非特許文献2に記載された方法を用いて組織領域全体を計測対象として指定した場合、算出結果として得られる細胞核個々の染色強度もしくは陽性・陰性などの数値は、組織領域全体で合計された1つの値として利用されることになる。この場合、例えば、癌を示す各領域の染色不均一性(heterogeneity)を数値として観察することはできない。
 例えば、非特許文献1に記載された方法による認識結果を参照することで、IHC標本の画像から計測対象の細胞核個々の分布を把握することは可能である。しかし、図5に示す情報だけでは、領域の染色性など、認識された計測対象の領域がどのような意味をもつかをユーザが理解することは困難である。
 そこで、本発明は、組織標本を表す画像から、ユーザにとって理解しやすい態様で対象物の領域が示す内容を計測できる画像計測装置、画像計測方法、および、画像計測用プログラムを提供することを目的とする。
 本発明による画像計測装置は、計測対象物と非計測対象物とを含む組織を染色して撮像した画像から組織領域を認識する組織領域認識手段と、組織領域から予め定めた大きさの一定倍率の画像を抽出する部分画像抽出手段と、抽出された画像ごとに、非計測対象物が存在する領域である非計測対象領域を組織領域から除くためのマスクを生成するマスク生成手段と、画像ごとに生成されたマスクを統合した仮全体マスクを生成し、その仮全体マスクにおけるマスクされていない部分のうち近接するその部分をまとめて1つ以上の対象領域とした全体マスクを生成する全体マスク生成手段と、部分画像抽出手段によって抽出された画像ごとに、その画像に含まれる計測対象物に関する情報を計測する計測手段と、計測された情報と全体マスクとから、対象領域ごとに計測対象物に関する情報を算出する領域情報算出手段とを備えたことを特徴とする。
 本発明による画像計測方法は、計測対象物と非計測対象物とを含む組織を染色して撮像した画像から組織領域を認識し、組織領域から予め定めた大きさの一定倍率の画像を抽出し、抽出された画像ごとに、非計測対象物が存在する領域である非計測対象領域を組織領域から除くためのマスクを生成し、画像ごとに生成されたマスクを統合した仮全体マスクを生成し、仮全体マスクにおけるマスクされていない部分のうち近接するその部分をまとめて1つ以上の対象領域とした全体マスクを生成し、組織領域から抽出された画像ごとに、その画像に含まれる計測対象物に関する情報を計測し、計測された情報と全体マスクとから、対象領域ごとに計測対象物に関する情報を算出することを特徴とする。
 本発明による画像計測用プログラムは、コンピュータに、計測対象物と非計測対象物とを含む組織を染色して撮像した画像から組織領域を認識する組織領域認識処理、組織領域から予め定めた大きさの一定倍率の画像を抽出する部分画像抽出処理、抽出された画像ごとに、非計測対象物が存在する領域である非計測対象領域を組織領域から除くためのマスクを生成するマスク生成処理、画像ごとに生成されたマスクを統合した仮全体マスクを生成し、その仮全体マスクにおけるマスクされていない部分のうち近接するその部分をまとめて1つ以上の対象領域とした全体マスクを生成する全体マスク生成処理、部分画像抽出処理で抽出された画像ごとに、その画像に含まれる計測対象物に関する情報を計測する計測処理、および、計測された情報と全体マスクとから、対象領域ごとに計測対象物に関する情報を算出する領域情報算出処理を実行させることを特徴とする。
 本発明によれば、組織標本を表す画像から、ユーザにとって理解しやすい態様で対象物の領域が示す内容を計測できる。
本発明による画像計測装置の一実施形態を示すブロック図である。 結果表示部による出力結果の一例を示す説明図である。 計測対象を示す領域ごとに陽性率を表示する動作の例を示す説明図である。 本発明による画像計測装置の概要を示すブロック図である。 非特許文献1に記載された方法による計測対象の認識結果を示す説明図である。
 以下、本発明の実施形態を図面を参照して説明する。
 図1は、本発明による画像計測装置の一実施形態を示すブロック図である。本実施形態の画像計測装置は、画像蓄積部1と、組織領域認識部2と、組織領域切り出し部3と、マスク生成部4と、マスク統合部5と、細胞核数計測部6と、結果表示部7とを備えている。
 画像蓄積部1は、組織標本をスキャンした画像S001を記憶する。組織標本をスキャンした画像は、例えば、免疫染色病理組織標本の画像などである。組織標本画像には、様々な構造物が含まれる。構造物の例としては、癌領域(浸潤の有無を区別しない癌領域)、浸潤のある癌領域、浸潤のない癌領域、良性疾患領域、病変ではない正常の領域、腺管領域、血管領域、リンパ管領域、上皮領域、間質領域、リンパ球、アーチファクト領域、壊死領域、脂肪領域などが挙げられる。ただし、構造物は、これらの内容に限定されない。
 これらの構造物のうち、システムの目的によって、計測対象の構造物(以下、計測対象物と記す。)と、非計測対象の構造物(以下、非計測対象物と記す。)とが予め定められる。例えば、「浸潤のない癌領域」が、システムの目的に応じて計測対象物にもなり、非計測対象物にもなる。画像蓄積部1は、例えば、磁気ディスク等により実現される。
 本実施形態では、画像計測装置が画像蓄積部1を備える場合を例に説明する。なお、画像計測装置が他の装置から組織標本を撮像した画像を受信するようにしてもよい。この場合、画像計測装置は、画像蓄積部1を備えていなくてもよい。
 組織領域認識部2は、画像蓄積部1に記憶された画像S001から、組織全領域S002(組織領域と記すこともある。)を認識する。一般に、組織標本画像には、上述する計測対象物と非計測対象物以外にも、組織標本画像ではない領域(例えば、スライドグラスなど)を含む。そこで、組織領域認識部2は、画像S001から組織標本画像ではない部分を除くことで、組織領域を認識してもよい。
 組織領域切り出し部3は、組織領域認識部2が認識した組織全領域S002の画像を、固定サイズの一定倍率の画像S003に切り出す。具体的には、組織領域切り出し部3は、組織領域から予め定めたサイズで一定倍率の画像S003を抽出する。
 マスク生成部4は、組織領域切り出し部3が切り出した画像(すなわち、画像S003)ごとに非計測対象物が存在する領域(以下、非計測対象領域と記す。)を認識して、マスクS004を算出する。具体的には、マスク生成部4は、切り出された画像ごとに、組織領域から非計測対象領域を除くためのマスクS004を生成する。例えば、間質細胞が非計測対象物である場合、マスク生成部4は、画像S003ごとに間質細胞を含む領域を認識してマスクを算出してもよい。
 以下、切り出された画像ごとにマスクを生成する方法を、間質細胞が非計測対象物である場合を例に説明する。一般に、組織標本画像は、カラー画像である場合が多い。そこで、マスク生成部4は、組織標本画像をグレースケール画像に変換する。マスク生成部4は、変換されたグレースケール画像に対して、ガウシアンフィルタなどの平滑化処理を行う。これにより、計測対象物の領域では濃度差が減少して、全体が1つの塊になる。一方、間質領域では、輝度値の高い周囲の画素の影響を受けて、染色された離散する間質細胞核が高い輝度値に変化する。
 マスク生成部4は、平滑化処理された画像の輝度値ヒストグラムを生成し、間質領域と計測対象物の領域を分離するための閾値を算出する。マスク生成部4は、例えば、動的計画法により閾値を算出してもよい。マスク生成部4は、この閾値に基づいて2値化処理を行うことでマスクを生成する。
 なお、マスクを生成する方法は、上記方法に限定されない。組織標本画像(組織領域)に含まれる非計測対象が存在する領域を特定可能な方法であれば、マスク生成部4は、他の方法を用いてマスクを生成してもよい。
 マスク統合部5は、切り出した画像ごとに算出したマスク全体を統合することにより、組織全領域に対応した全体マスクS005を生成する。
 具体的には、マスク統合部5は、切り出された画像ごとに生成されたマスクを統合する。以下、この統合されたマスクを仮全体マスクと記す。マスク統合部5は、仮全体マスクの中のマスクされていない部分のうち、近接する部分をまとめて1つ以上の対象領域とした全体マスクを生成する。
 マスクされていない部分は、組織標本画像では計測対象の部分に相当する。そのため、近接するマスクされていない部分をまとめることは、組織標本画像において近接する計測対象の部分をまとめること意味する。このようにして、組織標本画像の中の計測対象が、いくつかの対象領域にまとめられることになる。言い換えると、マスク統合部5は、このような対象領域を生成することにより、組織標本画像を意味ある領域ごとにまとめていると言うことができる。
 マスク統合部5は、上述する対象領域を生成するように、仮全体マスクに対する画像処理を行う。マスク統合部5は、例えば、仮全体マスクに対して、膨張処理、縮小処理、クロージング処理、オープニング処理、穴埋め処理、小領域削除処理などの画像処理を行うことで各対象領域を生成してもよい。このようにすることで、組織標本画像中の計測対象を、例えば、癌領域などの意味ある領域にまとめることができる。
 細胞核数計測部6は、組織領域切り出し部3が切り出した画像(すなわち、画像S003)ごとに、染色強度別の細胞核数を計測する。以下、細胞核数計測部6が計測した染色強度別の細胞核数を示す情報を、細胞核数計測情報S006と記す。なお、染色強度別の細胞核数は、細胞核数計測部6が計測する情報の一例である。細胞核数計測部6は、組織領域切り出し部3が切り出した画像に含まれる計測対象物に関する他の情報を計測してもよい。
 結果表示部7は、癌などの計測対象領域ごとに結果を出力する。具体的には、結果表示部7は、細胞核数計測部6が計測した情報と全体マスクとから、対象領域ごとに計測対象物に関する情報を算出する
 結果表示部7は、例えば、組織全領域に対応する全体マスクS005と、細胞核数計測情報S006とをもとに、染色強度別の細胞核数の計測結果と陽性率とを癌領域ごとに算出する。そして、結果表示部7は、算出結果を示す結果画像S007を表示する。結果表示部7は、対象領域ごとの計測対象物に関する情報を、例えば、組織標本をスキャンした画像S001に対象領域を重畳させて出力してもよい。
 図2は、結果表示部7による出力結果画像S007の一例を示す説明図である。図2に示す例では、計測対象物(例えば、癌)の対象領域が2つ存在し、それぞれの対象領域ごとおよび全体領域について陽性率を対応づけて表示した例を示している。
 このように、本実施形態では、計測対象が意味のある領域にまとめられる。そのため、領域ごとに、染色強度別細胞核数や陽性率を表示することで、組織全領域における癌領域ごとの染色不均一性(heterogeneity)を観察することが可能になる。また、本実施形態では、計測対象領域の大きさが特定されるため、組織全領域中の計測対象領域のみについて、陽性率の面積分布(ヒストグラム)を得ることができる。
 組織領域認識部2と、組織領域切り出し部3と、マスク生成部4と、マスク統合部5と、細胞核数計測部6と、結果表示部7とは、プログラム(画像計測用プログラム)に従って動作するコンピュータのCPUによって実現される。例えば、プログラムは、画像計測装置の記憶部(図示せず)に記憶され、CPUは、そのプログラムを読み込み、プログラムに従って、組織領域認識部2、組織領域切り出し部3、マスク生成部4、マスク統合部5、細胞核数計測部6および結果表示部7として動作してもよい。また、組織領域認識部2と、組織領域切り出し部3と、マスク生成部4と、マスク統合部5と、細胞核数計測部6と、結果表示部7とは、それぞれが専用のハードウェアで実現されていてもよい。
 次に、本実施形態の画像計測装置の動作を説明する。図3は、組織標本をスキャンした画像から計測対象を示す領域ごとに陽性率を表示する動作の例を示す説明図である。
 スキャンした画像S001が入力されると、組織領域認識部2は、画像S001から組織領域S002を認識する。
 組織領域切り出し部3は、組織領域S002から予め定めた大きさの一定倍率の画像S003を抽出する。
 マスク生成部4は、抽出された画像S003ごとにマスクS004を生成する。
 マスク統合部5は、画像S003ごとに生成されたマスクS004を統合して仮全体マスクS008を生成する。マスク統合部5は、仮全体マスクS008のマスクされていない近接する部分をまとめて、1つ以上の対象領域S009とした全体マスクS005を生成する。言い換えると、各対象領域S009は、仮全体マスクS008において白く示された部分に対し膨張処理などの画像処理を行って生成された領域であり、全体マスクS005に含まれる。
 一方、細胞核数計測部6は、各画像S003に含まれる計測対象物に関する情報を計測する。細胞核数計測部6は、例えば、各画像S003に含まれる染色強度別の細胞核数を計測して、細胞核数計測情報S006を生成する。
 結果表示部7は、計測された情報(細胞核数計測情報S006)と、全体マスクS005とから、対象領域S009ごとに、計測対象物(例えば、癌など)に関する情報を算出する。結果表示部7は、例えば、染色強度別の細胞核数の計測結果と陽性率とを対象領域S009ごとに算出する。そして、出力結果部7は、算出結果を出力する。
 以上のように、本実施形態によれば、組織領域認識部2が、組織標本をスキャンした画像S001(例えば、IHC標本の画像)から組織領域S002を認識し、組織領域切り出し部3が、組織領域S002から予め定めた大きさの一定倍率の画像S003を抽出する。マスク生成部4は、抽出された画像S003ごとに、組織領域から非計測対象物領域を除くためのマスクS004を生成し、マスク統合部5が、そのマスクS004を統合した仮全体マスクS008を生成する。
 また、マスク統合部5は、仮全体マスクS008におけるマスクされていない部分のうち近接する部分をまとめて1つ以上の対象領域S009とした全体マスクS005を生成する。
 一方、細胞核数計測部6は、組織領域から抽出された画像S003ごとに、その画像に含まれる計測対象物(例えば、癌など)に関する情報S006(例えば、染色強度別の細胞核数)を計測し、結果表示部7が、計測された情報S006と全体マスクS005とから、対象領域S009ごとに計測対象物に関する情報(例えば、染色強度別の細胞核数の計測結果および陽性率)を算出する。
 以上のような構成により、組織標本を表す画像から、ユーザにとって理解しやすい態様で対象物の領域が示す内容を計測できる。
 具体的には、本実施形態の画像計測装置を用いることで、計測したい領域を事前に選ぶ必要がないため、ユーザの手間を省くことができる。また、ユーザ間で計測対象領域に差がなくなるため、判定のぶれがなくなり、対象物の定量的な計測が可能になる。また、癌領域ごとの染色不均一性(heterogeneity)をIHC標本上に明示できるとともに、組織全領域中で癌領域のみについて陽性率の面積分布(ヒストグラム)を算出できるので、病理医が治療法を判断する支援をすることができる。
 例えば、図5に示すような結果の場合、細胞核数や陽性率を表示するには領域の単位が細かすぎるため、ユーザにとっては、その内容を理解することが困難である。そのため、結果として、計測対象の領域(分布)は参照できても、細胞核数や陽性率は、実質的には、1枚の標本全体もしくは指定した領域全体を対象とした1つの値しか利用することができない。
 しかし、本実施形態では、図2に例示する画像を表示することが可能である。このように、本実施形態では、組織標本を表す画像から、ユーザにとって理解しやすい態様で対象物の領域が示す内容を表示することができる。
 次に、本発明の概要を説明する。図4は、本発明による画像計測装置の概要を示すブロック図である。本発明による画像計測装置は、計測対象物(例えば、癌など)と非計測対象物とを含む組織を染色して撮像した画像(例えば、IHC標本の画像)から組織領域を認識する組織領域認識手段81(例えば、組織領域認識部2)と、組織領域から予め定めた大きさの一定倍率の画像を抽出する部分画像抽出手段82(例えば、組織領域切り出し部3)と、抽出された画像ごとに、非計測対象物が存在する領域である非計測対象領域を組織領域から除くためのマスクを生成するマスク生成手段83(例えば、マスク生成部4)と、画像ごとに生成されたマスクを統合した仮全体マスクを生成し、その仮全体マスクにおけるマスクされていない部分のうち近接する部分をまとめて1つ以上の対象領域とした全体マスクを生成する全体マスク生成手段84(例えば、マスク統合部5)と、部分画像抽出手段82によって抽出された画像ごとに、その画像に含まれる計測対象物に関する情報(例えば、染色強度別の細胞核数)を計測する計測手段85(例えば、細胞核数計測部6)と、計測された情報と全体マスクとから、対象領域ごとに計測対象物に関する情報(例えば、染色強度別の細胞核数の計測結果および陽性率)を算出する領域情報算出手段86(結果表示部7)とを備えている。
 そのような構成により、組織標本を表す画像から、ユーザにとって理解しやすい態様で対象物の領域が示す内容を計測できる。
 また、計測手段85は、部分画像抽出手段82によって抽出された画像ごとに、染色強度別の細胞核数を計測してもよい。そして、領域情報算出手段86は、計測された染色強度別の細胞核数と全体マスクとから、対象領域ごとに染色強度別の細胞核数の計測結果を算出してもよい。
 さらに、領域情報算出手段86は、計測された染色強度別の細胞核数と全体マスクとから、対象領域ごとに陽性率を算出してもよい。
 また、画像計測装置は、領域情報算出手段86により算出された対象領域ごとの計測対象物に関する情報を、組織を染色して撮像した画像とともに、対象領域に対応づけて出力する出力手段(例えば、結果表示部7)を備えていてもよい。
 以上、実施形態及び実施例を参照して本願発明を説明したが、本願発明は上記実施形態および実施例に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 この出願は、2012年4月23日に出願された日本特許出願2012-097561を基礎とする優先権を主張し、その開示の全てをここに取り込む。
 本発明は、染色された組織標本の画像から、組織に含まれる対象物の情報を計測する画像計測装置に好適に適用される。
 1 画像蓄積部
 2 組織領域認識部
 3 組織領域切り出し部
 4 マスク生成部
 5 マスク統合部
 6 細胞核数計測部
 7 結果表示部

Claims (10)

  1.  計測対象物と非計測対象物とを含む組織を染色して撮像した画像から組織領域を認識する組織領域認識手段と、
     前記組織領域から予め定めた大きさの一定倍率の画像を抽出する部分画像抽出手段と、
     抽出された画像ごとに、前記非計測対象物が存在する領域である非計測対象領域を前記組織領域から除くためのマスクを生成するマスク生成手段と、
     前記画像ごとに生成されたマスクを統合した仮全体マスクを生成し、当該仮全体マスクにおけるマスクされていない部分のうち近接する当該部分をまとめて1つ以上の対象領域とした全体マスクを生成する全体マスク生成手段と、
     前記部分画像抽出手段によって抽出された画像ごとに、当該画像に含まれる計測対象物に関する情報を計測する計測手段と、
     計測された情報と前記全体マスクとから、前記対象領域ごとに計測対象物に関する情報を算出する領域情報算出手段とを備えた
     ことを特徴とする画像計測装置。
  2.  計測手段は、部分画像抽出手段によって抽出された画像ごとに、染色強度別の細胞核数を計測し、
     領域情報算出手段は、計測された染色強度別の細胞核数と全体マスクとから、対象領域ごとに染色強度別の細胞核数の計測結果を算出する
     請求項1記載の画像計測装置。
  3.  計測手段は、部分画像抽出手段によって抽出された画像ごとに、染色強度別の細胞核数を計測し、
     領域情報算出手段は、計測された染色強度別の細胞核数と全体マスクとから、対象領域ごとに陽性率を算出する
     請求項1または請求項2記載の画像計測装置。
  4.  領域情報算出手段により算出された対象領域ごとの計測対象物に関する情報を、組織を染色して撮像した画像とともに、前記対象領域に対応づけて出力する出力手段を備えた
     請求項1から請求項3のうちのいずれか1項に記載の画像計測装置。
  5.  計測対象物と非計測対象物とを含む組織を染色して撮像した画像から組織領域を認識し、
     前記組織領域から予め定めた大きさの一定倍率の画像を抽出し、
     抽出された画像ごとに、前記非計測対象物が存在する領域である非計測対象領域を前記組織領域から除くためのマスクを生成し、
     前記画像ごとに生成されたマスクを統合した仮全体マスクを生成し、
     前記仮全体マスクにおけるマスクされていない部分のうち近接する当該部分をまとめて1つ以上の対象領域とした全体マスクを生成し、
     組織領域から抽出された前記画像ごとに、当該画像に含まれる計測対象物に関する情報を計測し、
     計測された情報と前記全体マスクとから、前記対象領域ごとに計測対象物に関する情報を算出する
     ことを特徴とする画像計測方法。
  6.  組織領域から抽出された画像ごとに、染色強度別の細胞核数を計測し、
     計測された染色強度別の細胞核数と全体マスクとから、対象領域ごとに染色強度別の細胞核数の計測結果を算出する
     請求項5記載の画像計測方法。
  7.  組織領域から抽出された画像ごとに、染色強度別の細胞核数を計測し、
     計測された染色強度別の細胞核数と全体マスクとから、対象領域ごとに陽性率を算出する
     請求項5または請求項6記載の画像計測装置。
  8.  コンピュータに、
     計測対象物と非計測対象物とを含む組織を染色して撮像した画像から組織領域を認識する組織領域認識処理、
     前記組織領域から予め定めた大きさの一定倍率の画像を抽出する部分画像抽出処理、
     抽出された画像ごとに、前記非計測対象物が存在する領域である非計測対象領域を前記組織領域から除くためのマスクを生成するマスク生成処理、
     前記画像ごとに生成されたマスクを統合した仮全体マスクを生成し、当該仮全体マスクにおけるマスクされていない部分のうち近接する当該部分をまとめて1つ以上の対象領域とした全体マスクを生成する全体マスク生成処理、
     前記部分画像抽出処理で抽出された画像ごとに、当該画像に含まれる計測対象物に関する情報を計測する計測処理、および、
     計測された情報と前記全体マスクとから、前記対象領域ごとに計測対象物に関する情報を算出する領域情報算出処理
     を実行させるための画像計測用プログラム。
  9.  コンピュータに、
     計測処理で、部分画像抽出処理で抽出された画像ごとに、染色強度別の細胞核数を計測させ、
     領域情報算出処理で、計測された染色強度別の細胞核数と全体マスクとから、対象領域ごとに染色強度別の細胞核数の計測結果を算出させる
     請求項8記載の画像計測用プログラム。
  10.  コンピュータに、
     計測処理で、部分画像抽出処理で抽出された画像ごとに、染色強度別の細胞核数を計測させ、
     領域情報算出処理で、計測された染色強度別の細胞核数と全体マスクとから、対象領域ごとに陽性率を算出させる
     請求項8または請求項9記載の画像計測用プログラム。
PCT/JP2013/001449 2012-04-23 2013-03-07 画像計測装置、画像計測方法、および、画像計測用プログラム WO2013161155A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014512308A JP5924406B2 (ja) 2012-04-23 2013-03-07 画像計測装置、画像計測方法、および、画像計測用プログラム
US14/395,583 US9390313B2 (en) 2012-04-23 2013-03-07 Image measurement apparatus and image measurment method measuring the cell neclei count

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012-097561 2012-04-23
JP2012097561 2012-04-23

Publications (1)

Publication Number Publication Date
WO2013161155A1 true WO2013161155A1 (ja) 2013-10-31

Family

ID=49482513

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/001449 WO2013161155A1 (ja) 2012-04-23 2013-03-07 画像計測装置、画像計測方法、および、画像計測用プログラム

Country Status (3)

Country Link
US (1) US9390313B2 (ja)
JP (1) JP5924406B2 (ja)
WO (1) WO2013161155A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105654173A (zh) * 2016-01-06 2016-06-08 大连海洋大学 工业螺母区域标定与个数检测方法
JP2018512072A (ja) * 2015-01-31 2018-05-10 ベンタナ メディカル システムズ, インコーポレイテッド 自動化スライド全域解析の品質管理

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09138854A (ja) * 1995-11-15 1997-05-27 Nec Corp 画像の領域抽出方法及び装置
JP2004532410A (ja) * 2001-04-20 2004-10-21 イェール ユニバーシティ 細胞および組織の自動分析のためのシステムおよび方法
JP2005530138A (ja) * 2002-06-18 2005-10-06 ライフスパン バイオサイエンス,インク. 組織標本の中の重要な構造のコンピュータを利用した画像捕捉
JP2009508200A (ja) * 2005-09-09 2009-02-26 キネティック リミテッド 画像領域の自動選定
JP2010281636A (ja) * 2009-06-03 2010-12-16 Nec Corp 病理組織画像解析装置、病理組織画像解析方法、病理組織画像解析プログラム
JP2011210156A (ja) * 2010-03-30 2011-10-20 Nec Corp 画像処理装置、画像読取装置、画像処理方法及び画像処理プログラム
WO2012011579A1 (ja) * 2010-07-23 2012-01-26 独立行政法人産業技術総合研究所 病理組織画像の領域分割画像データ作成システム及び病理組織画像の特徴抽出システム
WO2012043498A1 (ja) * 2010-09-30 2012-04-05 日本電気株式会社 情報処理装置、情報処理システム、情報処理方法、プログラム及び記録媒体

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07262355A (ja) * 1994-03-18 1995-10-13 Fuji Electric Co Ltd 画像監視装置
US6259807B1 (en) * 1997-05-14 2001-07-10 Applied Imaging Corp. Identification of objects of interest using multiple illumination schemes and finding overlap of features in corresponding multiple images
JP2006095223A (ja) * 2004-09-30 2006-04-13 Pola Chem Ind Inc 角層細胞の鑑別法
EP1978485A1 (en) * 2005-05-13 2008-10-08 Tripath Imaging, Inc. Methods of chromogen separation-based image analysis
JP5663873B2 (ja) * 2007-03-01 2015-02-04 日本電気株式会社 乳癌病理画像診断支援システム、乳癌病理画像診断支援方法、乳癌病理画像診断支援プログラム、及び、乳癌病理画像診断支援プログラムを記録した記録媒体
JP5245424B2 (ja) * 2008-01-25 2013-07-24 日本電気株式会社 病理組織画像撮影システム、病理組織画像撮影方法、および病理組織画像撮影プログラム
EP2438186A4 (en) * 2009-06-01 2012-11-28 Targeted Molecular Diagnostics Llc PROCESS FOR PTEN DETECTION AND QUANTIFICATION
PT2779089T (pt) * 2010-07-30 2019-02-19 Fund D Anna Sommer Champalimaud E Dr Carlos Montez Champalimaud Sistemas e métodos para segmentação e processamento de imagens de tecidos e extração de características dos mesmos para tratar, diagnosticar ou prever condições médicas
WO2012096988A2 (en) * 2011-01-10 2012-07-19 Rutgers, The State University Of New Jersey Method and apparatus for shape based deformable segmentation of multiple overlapping objects
US20130338016A1 (en) * 2012-04-17 2013-12-19 Vala Sciences, Inc. Method For Integrated Pathology Diagnosis And Digital Biomarker Pattern Analysis

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09138854A (ja) * 1995-11-15 1997-05-27 Nec Corp 画像の領域抽出方法及び装置
JP2004532410A (ja) * 2001-04-20 2004-10-21 イェール ユニバーシティ 細胞および組織の自動分析のためのシステムおよび方法
JP2005530138A (ja) * 2002-06-18 2005-10-06 ライフスパン バイオサイエンス,インク. 組織標本の中の重要な構造のコンピュータを利用した画像捕捉
JP2009508200A (ja) * 2005-09-09 2009-02-26 キネティック リミテッド 画像領域の自動選定
JP2010281636A (ja) * 2009-06-03 2010-12-16 Nec Corp 病理組織画像解析装置、病理組織画像解析方法、病理組織画像解析プログラム
JP2011210156A (ja) * 2010-03-30 2011-10-20 Nec Corp 画像処理装置、画像読取装置、画像処理方法及び画像処理プログラム
WO2012011579A1 (ja) * 2010-07-23 2012-01-26 独立行政法人産業技術総合研究所 病理組織画像の領域分割画像データ作成システム及び病理組織画像の特徴抽出システム
WO2012043498A1 (ja) * 2010-09-30 2012-04-05 日本電気株式会社 情報処理装置、情報処理システム、情報処理方法、プログラム及び記録媒体

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018512072A (ja) * 2015-01-31 2018-05-10 ベンタナ メディカル システムズ, インコーポレイテッド 自動化スライド全域解析の品質管理
US11328420B2 (en) 2015-01-31 2022-05-10 Ventana Medical Systems, Inc. Quality control of automated whole-slide analyses
CN105654173A (zh) * 2016-01-06 2016-06-08 大连海洋大学 工业螺母区域标定与个数检测方法
CN105654173B (zh) * 2016-01-06 2018-04-17 大连海洋大学 工业螺母区域标定与个数检测方法

Also Published As

Publication number Publication date
JPWO2013161155A1 (ja) 2015-12-21
JP5924406B2 (ja) 2016-05-25
US9390313B2 (en) 2016-07-12
US20150131854A1 (en) 2015-05-14

Similar Documents

Publication Publication Date Title
US10395091B2 (en) Image processing apparatus, image processing method, and storage medium identifying cell candidate area
JP6772066B2 (ja) 画像を処理して解析するための検査装置
EP3391283A1 (en) Methods and systems for assessing cell morphology
JP5442542B2 (ja) 病理診断支援装置、病理診断支援方法、病理診断支援のための制御プログラムおよび該制御プログラムを記録した記録媒体
JP2009115599A (ja) 評価システム、評価方法および評価プログラム
JP5995215B2 (ja) 癌細胞領域抽出装置、方法、及びプログラム
WO2017221592A1 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP6168426B2 (ja) 疾患分析装置、制御方法、及びプログラム
JP5771513B2 (ja) 病理診断支援装置、病理診断支援方法、及び病理診断支援プログラム
US10591402B2 (en) Image processing apparatus, image processing method, and image processing program
JPWO2017150194A1 (ja) 画像処理装置、画像処理方法及びプログラム
JP2016514869A (ja) スペクトル画像による生物試料の分析方法およびシステム
JP5789786B2 (ja) 画像計測装置および画像計測方法
JP7156361B2 (ja) 画像処理方法、画像処理装置及びプログラム
JP5924406B2 (ja) 画像計測装置、画像計測方法、および、画像計測用プログラム
JP2014134517A (ja) 病理組織画像解析方法、病理組織画像解析装置及び病理組織画像解析プログラム
Tewary et al. SmartIHC-Analyzer: smartphone assisted microscopic image analytics for automated Ki-67 quantification in breast cancer evaluation
CN111028219B (zh) 一种结肠图像识别方法、装置以及相关设备
Xu et al. Segmentation of digitized histological sections for quantification of the muscularized vasculature in the mouse hind limb
US20210301246A1 (en) Image processing device, image processing method, program, and evaluation method
Perdigão et al. Okapi-EM: A napari plugin for processing and analyzing cryogenic serial focused ion beam/scanning electron microscopy images
JP6811874B2 (ja) 画像作成装置、画像作成方法、画像作成プログラム
Perdigão et al. Okapi-EM–a napari plugin for processing and analysing cryogenic serial FIB/SEM images
JPWO2013118436A1 (ja) 生体画像解析システム、生体画像解析方法および生体画像解析プログラム
WO2021070371A1 (ja) 細胞画像解析方法及び細胞解析装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13782209

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2014512308

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14395583

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13782209

Country of ref document: EP

Kind code of ref document: A1