WO2017010397A1 - 画像解析装置、画像解析方法、画像解析システム、画像解析プログラム、および記録媒体 - Google Patents

画像解析装置、画像解析方法、画像解析システム、画像解析プログラム、および記録媒体 Download PDF

Info

Publication number
WO2017010397A1
WO2017010397A1 PCT/JP2016/070143 JP2016070143W WO2017010397A1 WO 2017010397 A1 WO2017010397 A1 WO 2017010397A1 JP 2016070143 W JP2016070143 W JP 2016070143W WO 2017010397 A1 WO2017010397 A1 WO 2017010397A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
image analysis
binarization
unit
tissue
Prior art date
Application number
PCT/JP2016/070143
Other languages
English (en)
French (fr)
Inventor
直正 河口
和昭 中根
晃弘 瀧山
Original Assignee
国立大学法人大阪大学
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 国立大学法人大阪大学 filed Critical 国立大学法人大阪大学
Priority to US15/743,808 priority Critical patent/US10475183B2/en
Priority to CN201680041412.7A priority patent/CN107850586B/zh
Priority to JP2017528642A priority patent/JP6483826B2/ja
Priority to EP16824377.2A priority patent/EP3324183B1/en
Publication of WO2017010397A1 publication Critical patent/WO2017010397A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N33/00Investigating or analysing materials by specific methods not covered by groups G01N1/00 - G01N31/00
    • G01N33/48Biological material, e.g. blood, urine; Haemocytometers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N33/00Investigating or analysing materials by specific methods not covered by groups G01N1/00 - G01N31/00
    • G01N33/48Biological material, e.g. blood, urine; Haemocytometers
    • G01N33/483Physical analysis of biological material
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N33/00Investigating or analysing materials by specific methods not covered by groups G01N1/00 - G01N31/00
    • G01N33/48Biological material, e.g. blood, urine; Haemocytometers
    • G01N33/483Physical analysis of biological material
    • G01N33/4833Physical analysis of biological material of solid biological material, e.g. tissue samples, cell cultures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30024Cell structures in vitro; Tissue sections in vitro
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Definitions

  • the present invention relates to an image analysis apparatus and an image analysis method for analyzing an image obtained by imaging a tissue and outputting information for determining the structure of the tissue.
  • Pathological diagnosis provides important information for deciding treatment policy.
  • pathological diagnosis it is preferable to apply a double check system in order to avoid the occurrence of diagnostic errors.
  • This double check system is a system that performs a diagnosis by pathologist B in addition to a diagnosis by pathologist A, and determines a pathological diagnosis result based on the findings of both.
  • the absolute number of pathologists who perform pathological diagnosis is lacking except in some developed countries.
  • pathologists are ubiquitous in hospitals in large cities, and many hospitals do not have full-time pathologists. Therefore, it is not easy to secure a plurality of pathologists and perform pathological diagnosis promptly not only in Japan but also worldwide.
  • the average number of tissue slides observed in a pathological diagnosis performed by a pathologist in Japan for one year in Japan is about 10,000, which increases the burden on each pathologist.
  • Pathologists are required to make objective judgments based on morphological findings of tissues and cells by microscopic observation in pathological diagnosis.
  • lesions that are difficult to classify and distinguish correctly based on morphological findings alone, which may cause pathological diagnosis errors such as oversight of lesions.
  • pathological diagnosis based on subjective judgment based on the experience of a pathologist, there is a possibility that the diagnosis result may be different for each pathologist, leading to a decrease in the reliability of the pathological diagnosis.
  • Patent Document 1 discloses an image analysis apparatus that extracts a cancer lesion part based on a pathological image.
  • the image analysis apparatus described in Patent Document 1 determines whether each region is a region of interest (for example, a region including a cancer lesion) by calculating the homology per unit area in the pathological image for each region. To do.
  • Non-Patent Document 1 describes a method of classifying liver lesions by analyzing an image obtained by imaging the liver by applying the concept of persistent homology.
  • the “degree of differentiation” of the cancer is defined based on the findings of the pathologist regarding the tissue / cell morphology.
  • colorectal cancer is described as “(high / medium / low) differentiated cancer” according to its degree of differentiation.
  • the form code “8140/3” is adopted.
  • the “differentiation degree” of cancer (adenoma) is defined by adding numbers 1 to 3 indicating the differentiation degree after 8140/3.
  • the characteristics of tissue cells are lost in the order of normal ⁇ adenocarcinoma (highly differentiated) ⁇ adenocarcinoma (intermediately differentiated) ⁇ adenocarcinoma (poorly differentiated).
  • the pathological diagnosis includes determination of the degree of differentiation of cancer.
  • the importance of understanding the physical properties and structure of a tissue and determining its configuration is not limited to determining cancer in a living tissue, but also applies to various tissues.
  • An object of the present invention was made to solve the above-described problems, and the object is to generate an image analysis apparatus capable of generating information for appropriately evaluating the relationship between components constituting an organization. Etc. is to provide.
  • the image analysis apparatus performs binarization processing a plurality of times while varying a binarization reference value for one captured image obtained by imaging a tissue.
  • a binarization unit that generates a plurality of binarized images, and a space number calculation unit that calculates the number of hole-shaped regions for each of the plurality of binarized images generated by the binarization unit,
  • a specifying unit that specifies the number of features that characterizes the correspondence between the plurality of binarization reference values and the number of hole-shaped regions, and output information that corresponds to the number of features specified by the specifying unit And an output information generation unit.
  • An image analysis method is an image analysis method in an image analysis apparatus that analyzes a captured image obtained by imaging a tissue in order to solve the above-described problem.
  • a binarization process for generating a plurality of binarized images by performing binarization processing a plurality of times while changing the reference value of the binarization, and a plurality of binarizations generated in the binarization process.
  • a space number calculation step for calculating the number of hole-shaped regions for each of the images, and a specification for identifying the number of features that characterize the correspondence between the plurality of binarization reference values and the number of hole-shaped regions
  • a process and an output information generating process for generating output information corresponding to the number of features specified in the specifying process.
  • the present invention produces an effect that it is possible to objectively and appropriately evaluate that the relationship between the structural elements of the tissue is different by analyzing the tissue image.
  • FIG. 1 It is a block diagram which shows an example of a structure of the image analysis apparatus which concerns on Example 1 of this invention. It is a figure explaining the number of one-dimensional vetches applicable to the image analysis device concerning the present invention. It is a flowchart which shows an example of the flow of a process in the image analysis apparatus which concerns on Example 1 of this invention. It is a flowchart which shows an example of the flow of a process which produces
  • (A) is the original tissue image (the maximum value of the pixel value of B is 171), and (b), (c), and (d) are the maximum values of the B pixel value of 1, 0.7, and 0, respectively.
  • FIGS. 1 shows an example of the image for determination. It is a block diagram which shows an example of a structure of the image analysis apparatus which concerns on Example 2 of this invention. It is the schematic which shows the structural example of the image analysis system containing the image analysis apparatus which concerns on this invention.
  • A is a figure which shows the molecular structure of the silicone gel gelatinized on acidic conditions
  • (b) is the image which imaged the silicone gel gelatinized on acidic conditions using the transmission electron microscope
  • (c Is a diagram showing the molecular structure of a silicone gelled under basic conditions
  • (d) is an image obtained by imaging a silicone gel gelled under basic conditions using a transmission electron microscope.
  • FIGS. 14A to 14G are binarized images obtained by binarizing the image of FIG. 14B while changing the binarization reference value.
  • FIGS. 14A to 14G are binarized images obtained by binarizing the image of FIG. 14D while changing the binarization reference value. It is a figure which shows an example of the result of having analyzed the structure of the silicone gel.
  • An object of the present invention is to output information useful for discriminating the degree of differentiation of a cancer shown in the captured image by analyzing the captured image obtained by imaging the tissue.
  • the inventor of the present invention examined a captured image obtained by imaging a tissue specimen, and compared and examined in detail the size, shape, and positional relationship of each cell associated with canceration. As a result, the binarization process is performed multiple times while differentiating the binarization reference value for the tissue image showing the tissue containing cancer, the changed binarization reference value, and the reference It has been found that the degree of differentiation of cancer can be determined based on the relationship with the one-dimensional Betch number indicated by the tissue image included in the image binarized using the value.
  • the image analysis apparatus 1 can be applied to analysis of various types of tissue structures such as biological tissue, mineral tissue, and resin product tissue.
  • “Organization” means a structural unit in which a plurality of types of components are assembled in a predetermined pattern.
  • the tissue to be analyzed in the present invention is a biological tissue composed of a collection of cells and the like, a mineral tissue composed of a collection of crystal grains, and a tissue of a resin product composed of a collection of resin materials such as silicone. It may be.
  • the image analysis apparatus 1 that outputs information useful for determining the degree of differentiation of cancer that has occurred in a living tissue will be described as an example, but the analysis target of the present invention is not limited to the living tissue.
  • ⁇ Degree of cancer differentiation> As cancer cells generated in a certain tissue abnormally proliferate, the shape of the cells becomes distorted, the original structure of the tissue is lost, and the cancer cells are dispersed in a disorderly manner.
  • the “degree of differentiation” of cancer is defined based on the morphological findings of such tissues and cells.
  • a living tissue has cells having a specific form and function as components.
  • the organization exhibits the functions of the organization when the components cooperate with each other. Therefore, the components of the normal part have a strong connection with each other in order to perform the function of the tissue.
  • the concept of homology which is a mathematical concept that represents the contact of components, can be obtained from a binarized image by setting an appropriate binarization reference value (also referred to as a binarization parameter) in a pathological image. By calculating the number of one-dimensional vetches per area, it is possible to evaluate the degree of contact between components of the tissue.
  • the number of vetches is irrelevant to the shape of the figure (component), and is a topological suggestion number related only to the contact and separation of the figure.
  • the homology group is divided into a direct sum of a free abel group and a finite abel group.
  • This class of free Abelian groups is called the Betch number.
  • the number of 0-dimensional vetches is the number of connected components
  • the number of one-dimensional vetches is the number of spaces (hole-shaped regions) surrounded by the connected components as outer edges, that is, “ The number of “holes”.
  • the one-dimensional Betch number is mathematically defined as follows. In general, if a figure (one-dimensional complex) K formed by connecting a finite number of line segments is removed from the figure K, an appropriate r number of one-dimensional single bodies (line segments) not including both ends are removed. The number of connected components does not increase, but when a one-dimensional simple unit (line segment) that does not include any (r + 1) ends is removed from K, when the number of connected components of K increases by one, the figure K The one-dimensional Betch number of r is r.
  • FIG. 2 is a diagram for explaining the number of vetches applicable to the image analysis apparatus 1 according to the present invention.
  • the ring C1 and the ring C2 intersect each other. This figure has three “holes”.
  • the one-dimensional number of vetches of this figure is calculated as 3. That is, calculating the one-dimensional number of vetches for a certain figure is equivalent to counting the number of “holes” that the figure has.
  • Embodiment 1 (Configuration of image analysis apparatus 1)
  • the configuration of the image analysis apparatus 1 will be described with reference to FIG.
  • FIG. 1 is a block diagram illustrating an example of a configuration of an image analysis apparatus 1 according to the first embodiment of the present invention.
  • the image analysis device 1 includes an image acquisition unit 2 (reception unit), a storage unit 3, an image analysis unit 4 (image analysis device), a display control unit 5, and a primary storage unit 7.
  • the image analysis device 1 may be configured to include the display device 6 (presentation unit), or may be configured to be connected to a plurality of display devices 6 by wireless / wired.
  • the image acquisition unit 2 acquires and acquires a captured image (hereinafter referred to as a tissue image) obtained by imaging a tissue from an external device 8 (for example, an imaging device connected to a microscope, a storage device that can store image data).
  • the obtained tissue image is stored in the storage unit 3.
  • the tissue image is an image obtained by imaging the tissue at an appropriate magnification. Note that the imaging magnification of the tissue image may be appropriately set by those skilled in the art according to the tissue to be analyzed. Further, the tissue image may be an image obtained by imaging the tissue as it is, or an image obtained by imaging the tissue after appropriate staining.
  • the method for staining the tissue is not particularly limited.
  • HE Hematoxylin-Eosin staining or the like can be used.
  • HE-stained tissue the cell nucleus and cytoplasm are stained, which is suitable for observing the relationship between cells constituting the tissue.
  • the storage unit 3 includes (1) a control program for each unit, (2) an OS program, (3) an application program, and (4) these programs, which are executed by the image analysis unit 4 together with the tissue image acquired by the image acquisition unit 2 Various data to be read when executing is recorded.
  • the storage unit 3 is configured by a nonvolatile storage device such as a hard disk or a flash memory.
  • the primary storage unit 7 is used as a work area for temporarily storing data in the course of executing the various programs described above, and is configured by a volatile storage device such as a RAM (Random Access Memory).
  • a RAM Random Access Memory
  • the display control unit 5 controls the display device 6 to display an image (output information) indicating the analysis result output from the image analysis unit 4 on the display device 6.
  • the display device 6 is a display device that displays output information and the like output from the image analysis unit 4, and is, for example, a liquid crystal display.
  • the image analysis device 1 may be configured to include a dedicated display device 6.
  • the touch sensor may be superimposed on the display screen of the display device 6, and the display device 6 may detect a touch operation on the display surface by the user.
  • the image analysis unit 4 analyzes the tissue image acquired by the image acquisition unit 2 to output information indicating the degree of differentiation of the cancer tissue included in the tissue image.
  • the image analyzing unit 4 includes a binarizing unit 41 (dividing unit), a bet number calculating unit 42 (space number calculating unit), a function specifying unit 43 (specifying unit), and an output information generating unit 44.
  • the binarization unit 41 converts a pixel having a pixel value larger than the binarization reference value into a white pixel and has a pixel value equal to or less than the binarization reference value To black pixels. At this time, the binarization unit 41 performs a plurality of binarization processes on a single tissue image obtained by imaging the tissue while changing the binarization reference value, thereby obtaining a plurality of binarized images. Generate.
  • An example of a method for determining a binarization reference value is as follows. Based on the distribution data (histogram) of the pixel values of the predetermined color component included in the tissue image, the binarization unit 41 sets the pixel value having the highest frequency (contained most) as the standard pixel. Identifies as a value. Then, a value obtained by multiplying the standard pixel value by a predetermined range of magnification (for example, 0.55 to 0.72) is determined as a binarization reference value.
  • a predetermined range of magnification for example, 0.55 to 0.72
  • the binarization unit 41 performs binarization processing on the grayscale image of the tissue image using a plurality of binarization reference values determined as described above, and generates a plurality of binarized images. .
  • the reference value for binarizing the tissue image is important in detecting the outer edges of the constituent elements included in the tissue image and determining the relationship between the constituent elements.
  • a pixel having a pixel value larger than the binarization reference value is white, and a pixel having a pixel value smaller than the binarization reference value is black, so if the binarization reference value is set too large, In the binarized tissue image, the boundary line is excessively emphasized, and the image becomes dark.
  • the binarization reference value is set too small, the binarized tissue image becomes a whitish image with few boundary lines (see FIG. 5). The binarization process performed on the tissue image will be described in detail later.
  • the binarization unit 41 divides the tissue image acquired by the image acquisition unit 2 into divided regions of a predetermined size (hereinafter, also referred to as “divided images”) (image dividing unit (dividing unit)).
  • the function may be provided.
  • the image analyzing unit 4 may further include an image dividing unit (not shown) in addition to the binarizing unit 41, the bet number calculating unit 42, the function specifying unit 43, and the output information generating unit 44.
  • the binarization unit 41 can also binarize by determining a range in which the binarization reference value is changed for each divided region. However, when comparing each divided region and determining a region of interest shown in the tissue image, binarization processing is performed on all divided regions with a common range for changing the binarization reference value. It is desirable to do so.
  • the number-of-betch calculation unit 42 For the plurality of binarized images generated by the binarization unit 41, the number-of-betch calculation unit 42 includes a hole surrounded by outer edges of a plurality of constituent components each having a closed outer edge included in the binarized image. The number (the number of hole-shaped regions) is calculated. In other words, the number-of-betch calculation unit 42 calculates the number of one-dimensional vectors for the tissue images respectively included in the plurality of binarized images.
  • the above-mentioned hole is an opening having at least a part of the outer edge of one or more constituent components (in the case of one constituent component, the entire outer edge of the constituent component) as the outer edge.
  • the holes surrounded by the outer edges of the constituent components are (1) a hole that one constituent component has inside thereof, and (2) a hole that is surrounded by outer edges each of the plural constituent components connected to each other. are categorized.
  • An existing program may be used as the number-of-betch calculation unit 42.
  • An example of such a program is CHomP.
  • ChomP is freeware compliant with GNU (General Public License) and can be downloaded from the homepage (http://chomp.rutgers.edu/). Any program other than CHomP may be used as long as it can calculate the number of one-dimensional vetches related to an image.
  • the function specifying unit 43 specifies a numerical value (feature number) that characterizes the correspondence between a plurality of binarization reference values and the number of holes. This numerical value may be specified at least one.
  • the function specifying unit 43 derives an expression representing a function (approximation function) that approximately indicates the relationship between a plurality of binarization reference values and the number of holes, and the coefficient included in the derived expression At least one may be specified as the number of features.
  • the function specifying unit 43 calculates (specifies) one or a plurality of numerical values (feature numbers) representing the feature of the function that approximately indicates the change in the number of holes accompanying the change in the binarization reference value.
  • a function that approximately represents a change in the number of holes accompanying a change in the binarization reference value
  • a function that can be expressed by an arbitrary relational expression may be used. It may be a function (n ⁇ 1) (including linear approximation and logarithmic approximation), an exponential function (power approximation), a trigonometric function, and the like.
  • the function specifying unit 43 includes an n-order function (n-order expression) included in an expression (n-order expression) of an n-order function (n ⁇ 1) that approximately indicates a change in the number of holes due to a change in the binarization reference value
  • n-order expression included in an expression (n-order expression) of an n-order function (n ⁇ 1) that approximately indicates a change in the number of holes due to a change in the binarization reference value
  • the function specifying unit 43 may be configured to specify a plurality of feature numbers that characterize the correspondence between a plurality of binarization reference values and the number of holes without deriving an approximate function. .
  • the function identification unit 43 applies a technique such as deep learning (deep learning). Also good.
  • the function specifying unit 43 binarizes a typical image (such as a tissue image) having a predetermined characteristic (such as the degree of cancer differentiation) and a plurality of binarization reference values for the image.
  • Deep learning is performed using a plurality of combinations of the number of features corresponding to the correspondence relationship between the binarization reference value when the processing is performed and the number of holes indicated by the binarized image as learning data.
  • the number of features that can be used as learning data may be any number corresponding to the correspondence relationship between the binarization reference value and the number of holes, and indicates, for example, the degree of differentiation of cancer (tissue). It may be an arbitrary numerical value (for example, 1 for a high degree of differentiation, 2 for a medium degree of differentiation, 3 for a low degree of differentiation, etc.).
  • the function specifying unit 43 specifies an appropriate number of features without deriving an expression indicating a function that approximately indicates the relationship between the binarization reference value and the number of holes. can do.
  • the output information generation unit 44 generates output information corresponding to at least one of the plurality of feature numbers (for example, coefficients of the approximate function) calculated by the function specifying unit 43.
  • the output information for example, a plurality of coefficients calculated by the function specifying unit 43 in a coordinate space formed by a plurality of coordinate axes, one of which corresponds to each of the plurality of coefficients calculated by the function specifying unit 43.
  • Information (output information) reflecting the position of a point having a coordinate (referred to as a coordinate point).
  • the output information generation unit 44 generates an image for determination indicating the divided area as output information, and presents the divided area in the determination image according to the position of the coordinate point for the divided area in the captured image. May be different (see FIG. 11B). For example, the division area containing poorly differentiated cancer is shown in red, the division area containing adenoma is shown in orange, and the division area containing well-differentiated cancer is shown in yellow. May be displayed.
  • the output information generation unit 44 outputs, as output information, (1) a combination of a plurality of numerical values indicating the coordinate points, and (2) a graph indicating the coordinate points (for example, the distribution shown in FIG. 10B). (3) Information (characters, numerical values, color information, etc.) indicating the degree of differentiation of cancer determined based on the position of the coordinate point may be generated.
  • Information characters, numerical values, color information, etc.
  • FIG. 3 is a flowchart illustrating an example of a processing flow in the image analysis apparatus 1.
  • a description will be given assuming that the tissue image is already stored in the storage unit 3.
  • an example including processing for dividing a tissue image to generate a divided region is shown.
  • the binarization unit 41 acquires a tissue image from the storage unit 3, and generates a divided region by dividing the acquired tissue image into regions of a predetermined size (S1).
  • the divided areas are areas when the original tissue image is divided into 3 ⁇ 3, 5 ⁇ 5, and the like.
  • the binarization unit 41 performs binarization processing while changing the binarization reference value, and generates a plurality of binarized images from one tissue image (S2: binarization step).
  • tissue image is demonstrated later.
  • Image data uses many small squares called pixels, and expresses various figures by determining the light intensity on the squares (bitmap format). Binarization means black (recognized as 1 by a computer) if the light intensity is greater than a certain value, and white (recognized as 0 by a computer) if the light intensity is less than a certain value.
  • the binarization unit 41 sends the generated binarized image to the vetch number calculation unit 42.
  • the vetch number calculating unit 42 calculates a one-dimensional vetch number for each divided region indicated by the received binarized image (S3: space number calculating step).
  • the number-of-betch calculating section 42 outputs the calculated one-dimensional number of vetches to the function specifying section 43.
  • the function specifying unit 43 calculates a plurality of coefficients included in the relational expression indicating the relationship between the one-dimensional number of vetches output from the vetch number calculating unit 42 and the binarization reference value (S4: function specifying step).
  • the function specifying unit 43 outputs the calculated plurality of coefficients to the output information generating unit 44 in association with information for specifying the divided areas.
  • the output information generation unit 44 specifies the position in the coordinate space of the coordinate point having the plurality of coefficients calculated by the function specifying unit 43 as coordinates, and outputs information corresponding to the specified position (for example, the above-described output information) Determination image) is generated (S5: output information generation step).
  • the output information generation unit 44 outputs the generated output information to the display control unit 5.
  • the display control unit 5 causes the display device 6 to display the output information output from the output information generation unit 44 (S6).
  • FIG. 4 is a flowchart illustrating an example of a flow of processing for generating a binarized image in the image analysis apparatus 1 according to the first embodiment of the present invention.
  • the binarization unit 41 acquires pixel values for each color component (for example, RGB) of pixels included in the image data of the tissue image, and determines a standard pixel value for setting a binarization reference value ( S11). For example, when the tissue image is an image obtained by imaging a section of tissue stained with HE, a standard pixel value is determined based on a blue (B) pixel value among RGB color components. A specific example of this standard pixel value determination method will be described below.
  • the cell nucleus is stained blue.
  • tissue staining is performed, uneven staining may occur. Therefore, it is preferable to determine a binarization reference value based on a standard stained portion. For this reason, among the B pixel values constituting the tissue image, the B pixel value included at the highest frequency is determined as the standard pixel value.
  • the number of standard pixels that is the pixel value at which the number of pixels is maximized Is identified. That is, the standard pixel number is a pixel value that is included at the highest frequency among the B pixel values constituting the tissue image. If there are a plurality of B pixel values having the maximum appearance frequency, the pixel value having the larger maximum value may be selected.
  • a reference value for binarization may be determined by specifying a pixel value of (R) or green (G).
  • the binarization unit 41 uses a value obtained by multiplying the standard pixel value determined in S11 by various magnifications within a predetermined range as a binarization reference value, and a grayscale image of the tissue image. Then, a binarized image is generated (S12). Accordingly, a plurality of binarized images can be generated from one tissue image while varying the binarization reference value in various ways. Note that the magnification used to calculate a binarization reference value for generating a plurality of binarized images from one tissue image can be appropriately changed according to the configuration of the tissue to be analyzed.
  • the binarization reference value is set too large, the binarized tissue image will have an excessively emphasized boundary and become a blackish image. On the other hand, if the binarization reference value is set too small, the binarized tissue image becomes a whitish image with few boundary lines. This will be described with reference to FIG.
  • (A) in FIG. 5 is the original tissue image.
  • the pixel value (standard pixel value) having the maximum appearance frequency (maximum) in the distribution data of the B pixel value is 171.
  • (B), (c), and (d) of FIG. 5 are binarized by using values obtained by multiplying the standard pixel value of B by 1, 0.7, and 0.5, respectively, as binarization reference values.
  • FIG. 5B is an image when the magnification is set to 0.7, and is an image suitable for evaluating the relationship between the constituent elements of the tissue.
  • the number of one-dimensional vetches is calculated to be extremely low, and a value indicating the relationship between the constituent elements is not calculated appropriately.
  • the magnification for multiplying the pixel value may be selected from the range of 0.55 to 0.72.
  • the processing speed of the image analysis apparatus 1 can be improved.
  • the method for determining the binarization reference value can be changed as appropriate according to the type of tissue and staining method.
  • the color component that specifies the standard pixel value may be a color component other than B, and the multiplication factor may be a value in an appropriate range.
  • a method may be applied in which the binarization unit 41 determines a binarization reference value for binarizing the tissue image as a common (fixed) threshold value for all pixels, or for each pixel.
  • a method of determining as a variable threshold may be applied.
  • the following methods (1) to (4) are known.
  • (1) After the image to be binarized is converted into a grayscale image using the luminance information of the image, the pixel value having the maximum (maximum) appearance frequency in the pixel value distribution data in the grayscale image ( A method for determining a binarization reference value from a peak value.
  • the RGB image is subjected to H (hue) S (saturation) V (brightness) conversion or H (hue) L (lightness) S (saturation) conversion to obtain V (luminance), S (saturation), etc.
  • the pixel value having the maximum appearance frequency (maximum) in the distribution data of pixel values is not directly used as a threshold value, but the bimodality of the distribution data is analyzed to obtain a solution with the maximum degree of separation.
  • the method of determining the binarization reference value with for example, the threshold of Otsu).
  • a method of determining a binarization reference value by designating a ratio of the number of pixels of the region to be binarized in the entire binarized image to the entire image by a ratio such as a percentage (example: P tile method) .
  • FIGS. 6 to 8 are diagrams illustrating an example of a result of analysis performed by the image analysis apparatus 1.
  • FIG. 6 is an analysis example of a normal tissue
  • FIGS. 7 and 8 are analysis examples of a tissue including cancer.
  • the standard pixel value relating to B is multiplied by a value of 0.55 to 0.72 by 0.01.
  • the value obtained in this manner was used as a reference value for binarization.
  • a plurality of binarized images were generated from the grayscale image of the tissue image, and the one-dimensional Betch number was calculated for each binarized image.
  • FIG. 6B shows a graph in which changes in the number of one-dimensional vetches in the divided area A and the divided area B when the binarization reference values are made different are plotted.
  • the horizontal axis represents the magnification obtained by multiplying the standard pixel value relating to B
  • the vertical axis represents the number of holes (that is, the number of one-dimensional vetches).
  • the number of holes for the magnification for each of the divided areas A and B is approximated using a quadratic function (dotted line in the figure) as an approximate expression (approximate function expression). It was possible.
  • the correlation coefficients (R 2 ) indicating the degree of approximation are all higher than 0.99, indicating that this approximation is an approximation with very good accuracy.
  • FIG. 7B shows a graph in which changes in the number of one-dimensional vetches in the divided regions C and D when the binarization reference values are made different are plotted. As shown in FIG. 7B, the number of holes with respect to the magnification for the divided regions C and D can also be approximated with very good accuracy using a quadratic function (dotted line in the figure). there were.
  • tissue image segmented regions EG shown in FIG. 8A are regions including cancer.
  • FIG. 8B shows a graph in which the change in the one-dimensional Betch number in the divided regions E to G when the binarization reference value is varied is plotted. As shown in FIG. 8B, the number of holes with respect to the magnification for the divided regions E to G can also be approximated with very good accuracy using a quadratic function (dotted line in the figure). .
  • FIG. 9 is a graph showing the positive / negative ratio of the quadratic coefficient of the approximate expression.
  • the secondary coefficient did not become negative except for one case.
  • the state of the tissue image was poor and the cell nucleus was crushed.
  • the second-order coefficient of the approximate expression is negative, it is more common in adenomas and well-differentiated cancers, and when the second-order coefficient of the approximate expression is negative in moderately or poorly differentiated cancers, it is mostly observed. I found it impossible.
  • 10 shows the expression of the quadratic function used as the approximate expression
  • (b) shows the logarithm (Log a) of the quadratic coefficient a of the approximate expression
  • b indicating the position of the axis of the approximate expression. It is the distribution map which plotted the coordinate point which has as a coordinate.
  • the base of the logarithm may be 10 or a natural number e.
  • the logarithm is used for convenience because the value of the secondary coefficient a of the approximate expression is large, but the logarithm may not be used.
  • the coordinate points for an image including moderately differentiated and poorly differentiated cancers are gathered and distributed at positions where both the value on the vertical axis and the value on the horizontal axis are large.
  • the coordinate points are distributed within a region with a unique slope (the region indicated by an ellipse in the figure). It turned out that the inclination tends to become loose in the order of the tissues.
  • an index indicating the degree of differentiation of the cancer shown in the tissue image (or divided image) that led to the calculation of the coordinate points is calculated. Based on this index, a tissue image (determination image) in which a region that should be noted by a doctor in cancer determination can be generated as output information. This output information is useful information for determining the degree of differentiation of cancer.
  • FIG. 11 is a diagram illustrating an example of a determination image.
  • 11A shows a tissue image to be analyzed
  • FIG. 11B shows a determination image in which the divided images are color-coded according to the degree of differentiation of the cancer shown in the tissue image.
  • the divided areas included in the area H and the area I included in FIG. 11A are color-coded according to the analysis result of the divided areas (positions of the coordinate points). ing. For example, red for areas that may contain poorly differentiated cancer, orange for areas that may contain adenomas, and yellow for areas that may contain well-differentiated cancers. May be indicated. Further, when the degree of differentiation cannot be specified as one (for example, in the case of FIG. 10B where coordinate points exist in areas where broken line areas overlap each other), the degree of differentiation may be displayed by gradation.
  • the quadratic coefficient of the approximate expression may be negative.
  • the secondary coefficient of the approximate expression is negative, it cannot be plotted on a graph as shown in FIG.
  • the output information generation unit 44 may generate output information based on the real number of holes in a predetermined binarized image.
  • the number-of-betch calculation unit 42 is a plurality of binary values generated by multiplying a standard pixel value related to B by a value of 0.55 to 0.72 as a binarization reference value. A one-dimensional number of vetches is calculated for each of the digitized images.
  • the function specifying unit 43 calculates a plurality of coefficients including a secondary coefficient included in a quadratic approximate expression indicating the relationship between the binarization reference value and the number of holes.
  • the output information generation unit 44 compares the real number of the number of holes with a predetermined criterion value, and determines the degree of cancer differentiation based on the comparison result.
  • a determination image as described above for determination may be generated as output information.
  • the number of holes in the binarized image generated by using the standard pixel value multiplied by 0.72 as the binarization reference value Focus on the real number. For example, in normal tissues without cancer, the number of holes averaged 1035, whereas in adenomas, the number of holes increased to an average of 2550, and well differentiated cancers increased to an average of 6255. The real difference in the number of holes in normal, adenoma, and well-differentiated cancers was statistically significant.
  • FIG. 11 is a block diagram illustrating an example of the configuration of the image analysis apparatus 1a according to the second embodiment of the present invention.
  • the image analysis device 1 a is different from the image analysis device 1 in that an analysis result transmission unit 9 (transmission unit) is provided instead of the display control unit 5.
  • the analysis result transmission unit 9 acquires the result of analyzing the captured image indicated by the image data received from the external device 8 from the output information generation unit 44 and transmits it to the presentation device 10.
  • FIG. 12 is a schematic diagram illustrating a configuration example of the image analysis systems 100 and 100a including the image analysis apparatus 1a according to the present invention.
  • FIG. 12A shows an example in which the external device 8 and the presentation device 10 are installed at a distance
  • FIG. 12B shows an example in which the presentation device 10 is connected to the external device 8a. Show.
  • the image analysis system 100 includes an external device 8, an image analysis device 1a, and a presentation device 10.
  • the external device 8, the image analysis device 1a, and the presentation device 10 are connected to an information communication network 50 such as the Internet and can transmit and receive data to and from each other.
  • the external device 8 may be, for example, a device such as a microscope having a function of imaging a tissue, or a server (electronic medical record server, microscope image data server, etc.) that collects and manages images captured of the tissue. May be.
  • a device such as a microscope having a function of imaging a tissue
  • a server electronic medical record server, microscope image data server, etc.
  • the presentation device 10 may be a device having a function of presenting the result of image analysis to the user.
  • the presentation device 10 is a display device including a display.
  • it may be a communication terminal device such as a tablet terminal carried by medical personnel.
  • Image data of a captured image obtained by imaging the tissue is transmitted from the external device 8 to the image analysis apparatus 1a.
  • the image analysis unit 4 analyzes the image, and the output information generated by the output information generation unit 44 is transmitted from the analysis result transmission unit 9 to the presentation device 10 or the external device 8.
  • the image analysis system 100a includes an external device 8a, an image analysis device 1a, and a presentation device 10.
  • the external device 8a and the image analysis device 1a are connected to an information communication network 50 such as the Internet, and can transmit and receive data to and from each other.
  • the presentation device 10 is connected to the external device 8a.
  • the image analysis device 1a receives an image captured at a remote location from the external device 8, performs image analysis, and outputs at least one of output information and a determination image as an analysis result to the presentation device 10 and 10a.
  • the presentation devices 10 and 10a may be devices connected to the external device 8, or may be devices independent of the image analysis device 1a and the external device 8.
  • the present invention is not limited to the determination of cancer in a living tissue, but can be applied to the analysis of the structure of a tissue in another tissue.
  • an analysis example of the configuration of the silicone gel (tissue) will be described with reference to FIGS.
  • Silicone gel is an amorphous material containing silicon atoms (Si) and oxygen atoms (O) as constituent elements. It is known that silicone gels have different patterns (configurations) of bonds (relationships) between molecules when gelled under acidic conditions and when gelled under basic conditions. Below, an example of the result of having analyzed the bond between molecules in a silicone gel using image analysis devices 1 and 1a of the present invention is shown.
  • FIG. 14 is a figure which shows the molecular structure of the silicone gel gelatinized on acidic conditions
  • (b) is the image (structure
  • C) is a diagram showing the molecular structure of a silicone gel gelled under basic conditions
  • (d) is a diagram showing a silicone gel gelled under basic conditions using a transmission electron microscope It is the image (tissue image, captured image) imaged using.
  • white portions indicate that oxygen atoms are present.
  • a scale bar indicating 1 nm is drawn in the images of FIGS. 15B and 15D.
  • the imaging magnification may be appropriately set by those skilled in the art according to the tissue to be analyzed.
  • the image acquisition unit 2 acquires an image obtained by imaging the silicone gel from an external device 8 such as a transmission electron microscope.
  • the acquired image is stored in the storage unit 3.
  • the binarization unit 41 reads the image of FIG. 15B from the storage unit 3, and generates a binarized image from the image while binarizing while changing the binarization reference value.
  • FIG. 15 is a binarized image obtained by binarizing the image of FIG. 14B while changing the binarization reference value.
  • FIG. 16 is a binarized image obtained by binarizing the image of FIG. 14D while changing the binarization reference value.
  • the image of the silicone gel does not include color components such as RGB. Therefore, in the present embodiment, the binarization unit 41 determines a predetermined pixel value as a binarization reference value.
  • the binarized image shown in (a) has an excessively large reference value for binarization, while (f) and (g) In the binarized image shown, the binarization reference value is set too small.
  • the bet number calculation unit 42 calculates the number of holes (the number of hole-shaped regions) for each of the binarized images (b) to (e) in FIGS.
  • the portions displayed in white in the images shown in FIGS. 14B and 14D are portions that indicate the presence of oxygen atoms. Therefore, calculating the number of holes in the binarized image is a process of counting the number of oxygen atoms in the region included in the binarized image, or in the region included in the binarized image. It can be said that this corresponds to a process for examining the statistical distribution of oxygen atoms.
  • the calculated numbers of holes are 59, 45, 38, and 29 for (b), (c), (d), and (e) of FIG. 15, respectively, and (b), (c) of FIG. ), (D), and (e) were 162, 137, 52, and 6, respectively.
  • FIG. 17 is a diagram illustrating an example of a result of analyzing the configuration of the silicone gel, in which the number of holes is plotted on the vertical axis and the binarization reference value is plotted on the horizontal axis.
  • the function specifying unit 43 calculates a linear coefficient (number of features) of a linear function that approximately represents each of the data L and the data K.
  • the function specifying unit 43 may calculate the value (number of features) of the constant term in addition to the coefficient of the primary term of the linear function.
  • the linear coefficient (number of features) indicating the characteristics of the linear function specified by the function specifying unit 43 is clearly determined depending on whether the silicone gel is gelled under acidic conditions or gelled under basic conditions. It was different.
  • the output information generation unit 44 generates output information indicating the determination result determined based on the primary coefficient indicating the characteristic of the primary function specified by the function specifying unit 43. Thereby, the user can discriminate
  • the present invention is not limited to this.
  • the image analysis apparatuses 1 and 1a according to the present invention it is possible to evaluate the connection (relationship) between a plurality of components constituting the tissue with high accuracy for an arbitrary tissue.
  • control blocks (particularly the binarization unit 41, the bet number calculation unit 42, the function specifying unit 43, and the output information generation unit 44) of the image analysis apparatuses 1 and 1a are logic circuits formed in an integrated circuit (IC chip) or the like. (Hardware) or software using a CPU (Central Processing Unit).
  • the image analysis apparatuses 1 and 1a include a CPU that executes instructions of a program, which is software that implements each function, and a ROM (Read Only) in which the program and various data are recorded so as to be readable by the computer (or CPU).
  • Memory or a storage device (these are referred to as “recording media”), a RAM (Random Access Memory) for expanding the program, and the like.
  • the objective of this invention is achieved when a computer (or CPU) reads the said program from the said recording medium and runs it.
  • a “non-temporary tangible medium” such as a tape, a disk, a card, a semiconductor memory, a programmable logic circuit, or the like can be used.
  • the program may be supplied to the computer via an arbitrary transmission medium (such as a communication network or a broadcast wave) that can transmit the program.
  • a transmission medium such as a communication network or a broadcast wave
  • the present invention can also be realized in the form of a data signal embedded in a carrier wave in which the program is embodied by electronic transmission.
  • the image analysis apparatuses 1 and 1a perform a plurality of binarization processes on a single captured image obtained by imaging a tissue by performing binarization processing a plurality of times while varying a binarization reference value.
  • the binarization unit 41 that generates a binarized image and a space number calculation unit (Betch number calculation) that calculates the number of hole-shaped regions for each of a plurality of binarized images generated by the binarization unit.
  • Part 42 a specifying part (function specifying part 43) that specifies the number of features that characterize the correspondence between the plurality of binarization reference values and the number of hole-shaped regions, and the specifying part specified
  • an output information generation unit 44 that generates output information corresponding to the number of features.
  • the image analysis apparatus generates a plurality of binaries generated by performing binarization processing a plurality of times while changing a binarization reference value for one captured image obtained by imaging a tissue.
  • the number of hole-shaped regions is calculated for each of the digitized images.
  • the hole-shaped region is a space (hole) in a captured image that is a two-dimensional plane.
  • a process for calculating the number of hole-shaped regions a process for obtaining the one-dimensional number of vetches for each of the plurality of binarized images may be performed.
  • a program for calculating the number of vetches from an image is known, and a device that executes the program may be used as the space number calculation unit.
  • the image analysis apparatus identifies the number of features that characterizes the correspondence between a plurality of binarization reference values and the number of the hole-shaped regions. Then, the image analysis device generates output information corresponding to the specified number of features. Note that at least one feature number may be specified.
  • tissue as used herein means a structural unit in which one or a plurality of types of components are gathered in a certain pattern. It may be a mineral structure composed of, and a resin product structure composed of a collection of molecules of resin material such as silicone.
  • the image analysis apparatus is the image analysis apparatus according to Aspect 1, wherein the specifying unit is a function characteristic that approximately indicates a relationship between the plurality of binarization reference values and the number of hole-shaped regions. You may specify at least 1 among the some feature number showing.
  • the image analysis apparatus performs a plurality of binarization processes by performing binarization processing a plurality of times while varying a binarization reference value for one captured image obtained by imaging a tissue.
  • a binarization unit 41 that generates an image, and a space number calculation unit (betch number calculation unit 42) that calculates the number of hole-shaped regions for each of a plurality of binarized images generated by the binarization unit;
  • a function specifying unit 43 that specifies a plurality of feature numbers representing a feature of a function that approximately indicates a relationship between the plurality of binarization reference values and the number of hole-shaped regions, and the function specifying unit specifies
  • an output information generation unit 44 that generates output information corresponding to at least one of the plurality of feature numbers.
  • a plurality of feature numbers representing the features of a function that approximately indicate the relationship between a plurality of binarization reference values and the number of hole-shaped regions are converted into the plurality of binarization reference values and the hole shape. It can be used as a plurality of feature numbers that characterize the correspondence with the number of regions.
  • the image analysis apparatus is the image analysis apparatus according to aspect 1 or 2, wherein the output information generation unit has coordinates defined by a plurality of coordinate axes, one for each of the plurality of features. Output information corresponding to the position of a point (coordinate point) having a plurality of feature numbers specified by the specifying unit in the space as coordinates may be generated.
  • the differentiation degree of cancer in the living tissue may be determined based on the position of the coordinate point in the coordinate space.
  • output information corresponding to the position of the coordinate point can be generated, and by providing this output information to the pathologist, the pathologist can appropriately support the determination of the degree of differentiation of cancer. can do.
  • An image analysis apparatus further includes a dividing unit (binarization unit 41) that divides the captured image into divided regions of a predetermined size in any one of the aspects 1 to 3.
  • the space number calculating unit calculates the number of the hole-shaped regions for each divided region generated by the dividing unit, the specifying unit specifies the plurality of feature numbers for each divided region, and generates the output information
  • the unit may generate the output information for each of the divided regions.
  • the dividing unit divides the captured image of the tissue into divided regions of a predetermined size, and the space number calculating unit calculates the number of hole-shaped regions for each divided region generated by the dividing unit.
  • the specifying unit specifies a plurality of feature numbers representing the features of the function for each divided region from the number of hole-shaped regions calculated by the space number calculating unit for each divided region. Output information corresponding to the position of a point having the number of features specified for each as coordinates is generated.
  • the output information generation unit generates an image for determination including the divided area as the output information, and a plurality of divided areas in the captured image are obtained. For each, an image of the divided region in the determination image may be generated in a manner corresponding to the plurality of feature numbers.
  • the image analysis device may determine the binarization reference value based on a pixel value of a pixel included in the captured image in any of the above aspects 1 to 5.
  • a binarization reference value for generating a binarized image can be appropriately determined according to the dye used for tissue staining.
  • the B pixel value included with the highest frequency is determined as the standard pixel value, and based on this standard pixel value
  • the binarization reference value may be determined.
  • the image analysis apparatus is the image analysis apparatus according to any one of Aspects 1 to 6, wherein the specifying unit is an n-th order expression indicating a relationship between the binarization reference value and the number of the hole-shaped regions.
  • the specifying unit is an n-th order expression indicating a relationship between the binarization reference value and the number of the hole-shaped regions.
  • a plurality of coefficients including an n-th order coefficient included in (n ⁇ 1) may be specified.
  • the change in the number of hole-shaped regions when the binarization reference value is changed is an n-order function. It can be approximated by That is, the relationship between the binarization reference value and the number of the hole-shaped regions is often approximated by an n-order function equation.
  • a plurality of coefficients including an n-th order coefficient are specified.
  • the relationship between the binarization reference value and the number of the hole-shaped regions can be extracted based on an objective and simple mathematical process.
  • the calculated coefficient can be regarded as a plurality of feature numbers representing the features of the function.
  • An image analysis system includes an image analysis device according to any one of the first to seventh aspects, an external device that transmits image data of the captured image to the image analysis device, and the image analysis. And a presentation device that obtains the output information generated in the device and presents the output information.
  • a captured image captured using a remote device at a remote location can be received and analyzed, and the captured image and output information can be presented to a remote user.
  • An image analysis method is an image analysis method in the image analysis apparatus 1 or 1a for analyzing a captured image obtained by imaging a tissue in order to solve the above-described problem.
  • a binarization step (S2) for generating a plurality of binarized images by performing binarization processing a plurality of times while changing the binarization reference value for the image, and the binarization step Space number calculation step (S3) for calculating the number of hole-shaped regions for each of the plurality of binarized images generated in step (b), the plurality of binarization reference values, and the number of hole-shaped regions,
  • a specifying step (S4) for specifying the number of features characterizing the correspondence relationship, and an output information generating step (S5) for generating output information corresponding to the number of features specified in the specifying step.
  • an image analysis program for operating an image analysis apparatus an image analysis program for causing a computer to function as each of the above-described units, and a computer-readable recording medium on which the image analysis program is recorded are also included in the technical scope of the present invention. include.
  • Image analysis device 1a Image analysis device 2 Image acquisition unit (reception unit) 4 Image analysis unit (image analysis device) 5 Display control unit 6 Display device (presentation unit) 8 External equipment 9 Analysis result transmitter (transmitter) 10 Presentation device 41 Binarization unit (dividing unit) 42 Vetch number calculation unit (space number calculation unit) 43 Function identification part (specific part) 44 output information generation unit 100, 100a image analysis system S2 binarization step S3 space number calculation step S4 identification step S5 output information generation step

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Pathology (AREA)
  • Immunology (AREA)
  • Biochemistry (AREA)
  • Molecular Biology (AREA)
  • Medicinal Chemistry (AREA)
  • Food Science & Technology (AREA)
  • Urology & Nephrology (AREA)
  • Hematology (AREA)
  • Biophysics (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Image Analysis (AREA)
  • Investigating Or Analysing Biological Materials (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Image Processing (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

組織の構成要素間の関係を客観的かつ適切に評価する。組織を撮像した1つの撮像画像に対して、二値化の基準値を異ならせながら複数の二値化画像を生成し、当該二値化画像のそれぞれに含まれる穴の数を算出するベッチ数算出部(42)と、二値化の基準値と穴の数との対応関係を特徴づける特徴数を特定する関数特定部(43)と、特徴数に対応した出力情報を生成する出力情報生成部(44)とを備えている。

Description

画像解析装置、画像解析方法、画像解析システム、画像解析プログラム、および記録媒体
 本発明は、組織を撮像した画像を解析して、組織の構成を判定するための情報を出力する画像解析装置および画像解析方法に関する。
 病理診断は治療方針を決定するための重要な情報を提供する。病理診断において、診断の誤りの発生を回避するためには、二重チェックシステムを適用することが好ましいとされている。この二重チェックシステムとは、病理医Aによる診断に加え、病理医Bによる診断も行い、両者の所見に基づいて病理診断の結果を決定するシステムである。しかし、現状では、一部の先進国を除いて病理診断を行う病理医の絶対数は不足している。また、病理医は大都市部などの病院に偏在しており、常勤の病理医を持たない病院も多い。それゆえ、複数の病理医を常に確保して迅速に病理診断を実施することは、日本のみならず世界的にも容易ではない。その上、日本において病理医1人が1年間に行う病理診断において観察する組織スライドの枚数は平均約1万枚ともいわれており、各病理医の負担も大きくなっている。このような現状に鑑み、病理診断において病理医が担う役割を計算機技術が代行することによって、病理診断を支援する技術の開発が望まれている。
 病理医は、病理診断において顕微鏡観察による組織・細胞の形態学的所見に基づいた客観的な判断が求められる。しかし、形態学的所見のみからでは正しく分類し、峻別することが困難な病変もあり得るため、病変の看過など病理診断の誤りを生じる虞がある。また、病理医の経験に基づいた主観的な判断に基づいた病理診断の場合、病理医ごとに診断結果が異なる可能性があり、病理診断の信頼性を損ねることに繋がる。診断ミスを生じさせることが無く、かつ客観的な診断基準を提供できることが、病理診断を支援する技術には要求される。
 病理診断に用いられる組織スライドなどの画像を、計算機技術を用いて解析するために、位相幾何学的な考え方の導入が提案されている。病理診断を支援する技術の例として、特許文献1には、病理画像に基づいて癌病変部を抽出する画像解析装置が開示されている。特許文献1に記載の画像解析装置は、病理画像における単位面積当たりのホモロジーを領域ごとに算出することにより、各領域が注目領域(例えば、癌病変部を含む領域)であるか否かを判断する。
 また、非特許文献1には、肝臓を撮像した画像を、パーシステントホモロジー(persistent homology)の概念を適用して解析し、肝臓の病変を分類する方法について記載されている。
WO2010/087112号(2010年 8月 5日公開)
Aaron Adcock et al.,「Classification of Hepatic Lesions using the Matching Metric」,Computer Vision and Image Understanding, Vol. 121, p.36-42,2014.
 組織を構成する構成要素間の関係を適切に評価することは、当該組織の物性および構造を理解し、その組織の構成を判定する上で重要である。
 例えば、生体組織の場合、生体組織に生じた癌の診断に有効な画像解析の場合を例に挙げれば、ある組織に生じた癌細胞が異常増殖するに伴い、細胞の形状は歪になり、組織が有している本来の構成は失われ、癌細胞が無秩序に散在する状態へと推移する。病理診断では、このような組織・細胞の形態に関する病理医の所見に基づいて癌の「分化度」が規定されている。
 国際疾病分類、腫瘍学、第3版(ICD-O-3)では、大腸癌はその分化度に応じて「(高・中・低)分化癌」と表記されている場合、「腺癌」として扱われ、形態コード「8140/3」が採用される。そして癌(腺腫)の「分化度」は、例えば腺癌の場合、8140/3の後ろに分化度を示す数字1~3を付して規定される。なお、従来同様、正常→腺癌(高分化)→腺癌(中分化)→腺癌(低分化)の順に、組織の細胞が有している特徴が失われた状態を示している。
腺癌(高分化):8140/31
腺癌(中分化):8140/32
腺癌(低分化):8140/33。
 病理診断には、癌の分化度の判別が含まれる。組織の物性や構造を理解し、その構成を判定することが重要であることは、生体組織の癌を判定する場合に限らず、さまざまな組織においても同様である。
 本発明の目的は、上記の問題点を解決するためになされたもので、その目的は、組織を構成する構成要素間の関係を適切に評価するための情報を生成することができる画像解析装置等を提供することである。
 本発明に係る画像解析装置は、上記の課題を解決するために、組織を撮像した1つの撮像画像に対して、二値化の基準値を異ならせながら複数回の二値化処理を行うことにより、複数の二値化画像を生成する二値化部と、上記二値化部が生成した複数の二値化画像のそれぞれについて、穴形状の領域の数を算出する空間数算出部と、上記複数の二値化の基準値と上記穴形状の領域の数との対応関係を特徴づける特徴数を特定する特定部と、上記特定部が特定した上記特徴数に対応した出力情報を生成する出力情報生成部とを備えている。
 また、本発明に係る画像解析方法は、上記の課題を解決するために、組織を撮像した撮像画像を解析する画像解析装置における画像解析方法であって、1つの上記撮像画像に対して、二値化の基準値を異ならせながら複数回の二値化処理を行うことにより、複数の二値化画像を生成する二値化工程と、上記二値化工程にて生成した複数の二値化画像のそれぞれについて、穴形状の領域の数を算出する空間数算出工程と、上記複数の二値化の基準値と上記穴形状の領域の数との対応関係を特徴づける特徴数を特定する特定工程と、上記特定工程にて特定した上記特徴数に対応した出力情報を生成する出力情報生成工程とを含んでいる。
 本発明は、組織の画像を解析することにより、当該組織の構成要素間の関係が異なることを客観的かつ適切に評価できるという効果を奏する。
本発明の実施例1に係る画像解析装置の構成の一例を示すブロック図である。 本発明に係る画像解析装置に適用可能な1次元ベッチ数について説明する図である。 本発明の実施例1に係る画像解析装置における処理の流れの一例を示すフローチャートである。 本発明の実施例1に係る画像解析装置における二値化画像を生成する処理の流れの一例を示すフローチャートである。 (a)は元の組織画像(Bの画素値の最大値は171)であり、(b)、(c)、(d)はBの画素値の最大値にそれぞれ1、0.7、0.5を乗算した値を用いて二値化された組織画像の一例を示す図である。 画像解析装置によって解析した結果の一例を示す図である。 画像解析装置によって解析した結果の一例を示す図である。 画像解析装置によって解析した結果の一例を示す図である。 近似式の二次の係数aの正/負の割合を示すグラフである。 (a)は近似式として二次関数の式を用いる場合の近似式の一例を示し、(b)は近似式の二次の係数の対数と、近似式の軸の位置を示すbとを座標として有する点をプロットした分布図である。 判定用画像の一例を示す図である。 本発明の実施例2に係る画像解析装置の構成の一例を示すブロック図である。 本発明に係る画像解析装置を含む画像解析システムの構成例を示す概略図である。 (a)は酸性条件でゲル化したシリコーンゲルの分子構造を示す図であり、(b)は酸性条件でゲル化したシリコーンゲルを、透過型電子顕微鏡を用いて撮像した画像であり、(c)は塩基性条件でゲル化したシリコーンゲルの分子構造を示す図であり、(d)は塩基性条件でゲル化したシリコーンゲルを、透過型電子顕微鏡を用いて撮像した画像である。 (a)~(g)は、図14の(b)の画像を、二値化の基準値を異ならせながら二値化した二値化画像である。 (a)~(g)は、図14の(d)の画像を、二値化の基準値を異ならせながら二値化した二値化画像である。 シリコーンゲルの構成を解析した結果の一例を示す図である。
 以下、本発明の実施の一形態について、図1~10を用いて説明すれば、以下の通りである。
 (本発明の技術思想)
 まず、本発明の技術思想について以下に説明する。本発明の目的は、組織を撮像した撮像画像を解析することにより、当該撮像画像に写っている癌の分化度を判別するために有用な情報を出力することである。
 本発明の発明者は、組織標本を撮像した撮像画像を調べ、癌化に伴う癌細胞の大きさ、形状、または各細胞の位置関係を詳細に比較・検討した。その結果、癌を含む組織が写っている組織画像に対して、二値化の基準値を異ならせながら複数回の二値化処理を行い、変化させた二値化の基準値と、当該基準値を用いて二値化された画像に含まれる組織の像が示す1次元ベッチ数との関係に基づいて、癌の分化度を判別することが可能となることを見出した。
 なお、本発明に係る画像解析装置1は、生体組織、鉱物組織、および樹脂製品の組織など、さまざまな種類の組織の構成の分析に適用することができる。「組織」とは、複数種類の構成要素が、所定のパターンで集合した構造単位を意味している。本発明の解析対象となる組織は、細胞などの集まりから構成される生体組織、結晶粒などの集まりから構成される鉱物組織、およびシリコーンなどの樹脂材料の集まりから構成される樹脂製品の組織などであってもよい。
 以下では、生体組織に生じた癌の分化度を判別するために有用な情報を出力する画像解析装置1を例に挙げて説明するが、本発明の解析対象は、生体組織に限定されない。
 <癌の分化度>
 ある組織に生じた癌細胞が異常増殖するに伴い、細胞の形状は歪になり、組織が有している本来の構成は失われ、癌細胞が無秩序に散在する状態へと推移する。病理診断では、このような組織・細胞の形態学的所見に基づいて癌の「分化度」が規定されている。
 生体組織は構成要素として、特定の形態および機能を有する細胞などを有している。組織は構成要素が互いに連携することによって、当該組織が有する機能を発揮する。それゆえ、正常部の構成要素は、組織の機能を発揮するために、互いに強い結びつきを有している。
 一方、組織が腫瘍化・癌化している部位では、不純物の存在が増加したり、細胞が異常増加したりするために、構成要素間の関係の強さが正常部より弱くなる。さらに、組織の癌化が進めば、組織の構成が失われた、いわゆる脱分化した状態(低分化、中分化)となる。
 <構成要素間の関係を定量化するための数学的表現>
 組織の構成要素間の関係を定量化するために、本発明の発明者らは、ホモロジーの概念、特にパーシステントホモロジーの適用を試みた。ホモロジーとは、図形の形態上の性質を代数的に置き換えて、図形の結合などの解析を容易にする数学の一分野である。本発明の発明者らは、ホモロジーの概念の中でも1次元ベッチ数の利用に着目した。
 構成要素の接触を表す数学的な概念であるホモロジーの概念は、病理画像において、適切な二値化の基準値(二値化パラメータともいう)を設定すれば、二値化された画像から単位面積当たりの1次元ベッチ数を算出することにより、その組織の構成要素同士の接触の程度の評価が可能である。
 ベッチ数とは、図形(構成要素)の形状には無関係であり、図形の接触と分離とにのみ関係するトポロジカルな示唆数である、q次元特異ホモロジー群が有限生成のとき、このq次特異ホモロジー群は、自由アーベル群と有限アーベル群との直和に分けられる。この自由アーベル群の階級をベッチ数という。2次元の場合、0次元ベッチ数は連結成分の数であり、1次元ベッチ数は当該連結成分が外縁となって囲んだ空間(穴形状の領域)の数、すなわち連結成分中に存在する「穴」の数である。
 <1次元ベッチ数>
 1次元ベッチ数は、数学的には以下のように定義される。一般に有限個の線分を繋ぎ合わせて成る図形(1次元複体)Kに対して、適当なr個の、両端を含まない1次元単体(線分)を図形Kから取り去っても図形Kの連結成分の個数は増加しないが、任意の(r+1)個の両端を含まない1次元単体(線分)をKから取り去った場合にはKの連結成分の個数が1つ増加するとき、図形Kの1次元ベッチ数はrである。
 図2に示す図形を用いて、1次元ベッチ数について説明する。図2は、本発明に係る画像解析装置1に適用可能なベッチ数について説明する図である。図2に示す図は、環C1と環C2が互いに交わっている。この図形が有している「穴」の数は3つである。一方、この図形の1次元ベッチ数は3と算出される。すなわち、ある図形について1次元ベッチ数を算出するということは、当該図形が有している「穴」の数を数えていることに等しい。
 〔実施形態1〕
 (画像解析装置1の構成)
 ここでは、画像解析装置1の構成について図1を用いて説明する。図1は、本発明の実施例1に係る画像解析装置1の構成の一例を示すブロック図である。図示のように、画像解析装置1は、画像取得部2(受信部)、記憶部3、画像解析部4(画像解析装置)、表示制御部5、および一次記憶部7を備えている。なお、画像解析装置1が別体として設けられた表示装置6(提示部)と接続されている例を図示しているが、これに限定されない。例えば、画像解析装置1が表示装置6(提示部)を内蔵する構成であってもよいし、複数の表示装置6と無線/有線で接続された構成であってもよい。
 画像取得部2は、外部機器8(例えば、顕微鏡に接続された撮像装置、画像データを保存可能な記憶装置など)から組織を撮像した撮像画像(以下、組織画像と称する)を取得し、取得した組織画像を記憶部3に格納する。上記組織画像は、組織を適当な倍率で撮像した画像である。なお、組織画像の撮像倍率は、解析の対象となる組織に応じて、当業者によって適宜設定されればよい。また、組織画像は、組織をそのまま撮像した画像であってもよいし、適当な染色を施した後の組織を撮像した画像であってもよい。
 組織を染色する方法は、特に限定されず、例えば、生体組織の場合には、HE(Hematoxylin-Eosin)染色などを用いることができる。HE染色された組織では、細胞核および細胞質が染色されるため、組織を構成する細胞間の関係を観察することに適している。
 記憶部3は、画像取得部2が取得した組織画像とともに、画像解析部4が実行する(1)各部の制御プログラム、(2)OSプログラム、(3)アプリケーションプログラム、および、(4)これらプログラムを実行するときに読み出す各種データを記録するものである。記憶部3は、ハードディスク、フラッシュメモリなどの不揮発性の記憶装置によって構成される。
 一次記憶部7は、上述の各種プログラムを実行する過程でデータを一時的に保持するための作業領域として使用されるものであり、RAM(Random Access Memory)などの揮発性の記憶装置によって構成される。
 表示制御部5は、表示装置6を制御することにより、画像解析部4から出力される解析結果を示す画像(出力情報)等を表示装置6に表示する。
 表示装置6は、画像解析部4から出力される出力情報等を表示する表示装置であり、例えば液晶ディスプレイである。なお、画像解析装置1が専用の表示装置6を備える構成であってもよい。なお、表示装置6の表示画面にタッチセンサが重畳されており、ユーザによる表示面へのタッチ操作を表示装置6が検出できる構成であってもよい。
 (画像解析部4の構成)
 画像解析部4は、画像取得部2が取得した組織画像を解析することにより、当該組織画像に含まれる癌組織の分化度を示す情報を出力する。この画像解析部4は、二値化部41(分割部)、ベッチ数算出部42(空間数算出部)、関数特定部43(特定部)、および出力情報生成部44を備えている。
 二値化部41は、組織画像の二値化処理において、二値化の基準値よりも大きい画素値を有する画素を白色の画素に変換し二値化の基準値以下の画素値を有する画素を黒色の画素に変換する。このとき二値化部41は、組織を撮像した1つの組織画像に対して、二値化の基準値を異ならせながら複数回の二値化処理を行うことにより、複数の二値化画像を生成する。
 二値化の基準値の決定方法の一例を説明すれば以下の通りである。二値化部41は、組織画像に含まれる所定の色成分の画素値についての分布データ(ヒストグラム)に基づいて当該色成分の最も頻度が高い(最も多く含まれている)画素値を標準画素値として特定する。そして、該標準画素値に所定の範囲の倍率(例えば、0.55~0.72)を乗算した値を、二値化の基準値として決定する。
 二値化部41は、組織画像のグレースケール画像に対して、上述のように決定した複数の二値化の基準値を用いて二値化処理を行い、複数の二値化画像を生成する。
 なお、組織画像を二値化するための基準値は、組織画像に含まれる構成要素の外縁を検出して、構成要素間の関係を判断する上で重要である。二値化の基準値より大きい画素値を有する画素は白になり、二値化の基準値より小さい画素値を有する画素は黒になるため、二値化の基準値を大きく設定し過ぎると、二値化された組織画像は境界線が過度に強調され、黒っぽい画像になる。一方、二値化の基準値を小さく設定し過ぎると、二値化された組織画像は、境界線の少ない白っぽい画像になる(図5参照)。組織画像に対して行う二値化処理については、後に詳述する。
 また、二値化部41が、画像取得部2が取得した組織画像を所定の大きさの分割領域(以下において、「分割画像」と表す場合もある)に分割する画像分割部(分割部)としての機能を備えてもよい。あるいは、画像解析部4が、二値化部41、ベッチ数算出部42、関数特定部43、および出力情報生成部44に加え、画像分割部(図示せず)をさらに備える構成であってもよい。二値化部41は、分割領域ごとに二値化の基準値を変化させる範囲を決定して二値化することも可能である。しかし、各分割領域を比較して、組織画像に写っている注目領域を判別する場合には、二値化の基準値を変化させる範囲を共通にしてすべての分割領域の二値化処理を行うようにすることが望ましい。
 ベッチ数算出部42は、二値化部41が生成した複数の二値化画像について、当該二値化画像に含まれる、閉じた外縁をそれぞれ有する複数の構成成分の外縁によって囲まれた穴の数(穴形状の領域の数)を算出する。すなわち、ベッチ数算出部42は、複数の二値化画像にそれぞれ含まれる組織の像について、1次元ベッチ数を算出する。
 上記穴は、1つ以上の構成成分の外縁の少なくとも一部(構成成分が1つの場合には、その構成成分の外縁の全部)をその外縁として有している開口部である。換言すれば、構成成分の外縁によって囲まれた穴は、(1)1つの構成成分がその内部に有する穴と、(2)互いに連結した複数の構成成分がそれぞれ有する外縁によって囲まれた穴とに分類される。
 ベッチ数算出部42として、既存のプログラムを用いてもよい。このようなプログラムの一例としてCHomPを挙げることができる。CHomPは、GNU(General PublicLicense)に準拠したフリーウェアであり、ホームページ(http://chomp.rutgers.edu/)からダウンロードできる。画像に関する1次元ベッチ数を算出できるプログラムであれば、CHomP以外のプログラムを用いてもよい。
 関数特定部43は、複数の二値化の基準値と穴の数との対応関係を特徴づける数値(特徴数)を特定する。この数値は少なくとも1つ特定されればよい。例えば、関数特定部43は、複数の二値化の基準値と穴の数との関係を近似的に示す関数(近似関数)を表す式を導出して、該導出した式に含まれる係数の少なくとも1つを特徴数として特定してもよい。この場合、関数特定部43は、二値化の基準値の変化に伴う穴の数の変化を近似的に示す関数の特徴を表す1または複数の数値(特徴数)を算出(特定)する。ここで、二値化の基準値の変化に伴う穴の数の変化を近似的に示す関数(近似関数)としては、任意の関係式で表記可能な関数であってもよく、例えば、n次関数(n≧1)(線形近似および対数近似を含む)、指数関数(累乗近似)、および三角関数などであってもよい。以下では、関数特定部43は、二値化の基準値の変化に伴う穴の数の変化を近似的に示すn次関数(n≧1)の式(n次式)に含まれる、n次の係数(特徴数)を含む複数の係数を算出する場合を例に挙げて説明する。
 なお、関数特定部43は、複数の二値化の基準値と穴の数との対応関係を特徴づける複数の特徴数を、近似関数を導出することなく特定するように構成されていてもよい。例えば、複数の二値化の基準値と穴の数との対応関係を特徴づける特徴数を特定するために、関数特定部43が深層学習(ディープラーニング)などの手法を適用する構成であってもよい。例えば、関数特定部43は、所定の特徴(癌の分化度など)を有する典型的な画像(組織画像等)と、当該画像に対して複数の二値化の基準値を用いて二値化処理を行ったときの二値化の基準値と上記二値化処理された画像が示す穴の数との対応関係に対応する特徴数との複数の組み合わせを学習データとして用いた深層学習を施されていてもよい。ここで、学習データとして用いることが可能な特徴数は、上記二値化の基準値と穴の数との対応関係に対応する数であればよく、例えば、癌(組織)の分化度を示す任意の数値(例えば、高分化度の場合は1、中分化度の場合は2、低分化度の場合は3など)であってもよい。このような深層学習を採用した場合、関数特定部43は、二値化の基準値と穴の数との関係を近似的に示す関数を示す式を導出することなく、適切な特徴数を特定することができる。
 出力情報生成部44は、関数特定部43が算出した複数の特徴数(例えば、近似関数の係数)のうちの少なくとも1つに対応した出力情報を生成する。上記出力情報としては、例えば、関数特定部43が算出した複数の係数のそれぞれに1つずつが対応している複数の座標軸によって形成される座標空間における、関数特定部43が算出した複数の係数を座標として有する点(座標点と称する)の位置を反映した情報(出力情報)が挙げられる。また、出力情報生成部44は、出力情報として、分割領域が示された判定用画像を生成し、撮像画像における分割領域についての座標点の位置に応じて、判定用画像における分割領域の提示態様を異ならせてもよい(図11の(b)参照)。例えば、低分化の癌を含む分割領域を赤色、腺腫を含む分割領域をオレンジ色、高分化の癌を含む分割領域を黄色で示すなど、癌を含まない正常な分割領域との差を明確にして表示してもよい。
 なお、出力情報生成部44は、出力情報として、(1)上記座標点を示す複数の数値の組み合わせ、(2)上記座標点が示されたグラフ(例えば、図10の(b)に示す分布図)、(3)上記座標点の位置に基づいて判定された癌の分化度を示す情報(文字、数値、色情報など)を生成してもよい。分割領域が複数存在する場合には、これらの出力情報に、解析対象となった分割領域を特定する情報を含めることが好ましい。
 (画像解析装置1の処理の流れ)
 次に、画像解析装置1における処理の流れの一例について図3を用いて説明する。図3は、画像解析装置1における処理の流れの一例を示すフローチャートである。ここでは、組織画像は既に記憶部3に格納されているものとして説明する。また、ここでは、組織画像を分割して分割領域を生成する処理を含む例を示す。
 まず、二値化部41は、記憶部3から組織画像を取得し、取得した組織画像を所定の大きさの領域に分割することにより分割領域を生成する(S1)。分割領域は、元の組織画像を縦3×横3、縦5×横5などに分割した場合の各領域である。
 続いて、二値化部41は、二値化の基準値を変化させながら二値化処理を行い、1つの組織画像から複数の二値化画像を生成する(S2:二値化工程)。なお、二値化部41が組織画像から二値化画像を生成する処理については、後に説明する。
 画像データは画素(ピクセル:pixel)と呼ばれる微小な正方形を多数用いて、その正方形上の光強度を決めることで各種図形を表現している(ビットマップ形式)。二値化するとは、この光強度がある値より大きければ黒(計算機では1と認識)、ある値以下であるならば白(計算機では0と認識)することである。
 二値化部41は、生成した二値化画像をベッチ数算出部42に送る。
 ベッチ数算出部42は、受け取った二値化画像が示す分割領域ごとに1次元ベッチ数を算出する(S3:空間数算出工程)。ベッチ数算出部42は、算出した1次元ベッチ数を関数特定部43へ出力する。
 関数特定部43は、ベッチ数算出部42から出力された1次元ベッチ数と二値化の基準値との関係を示す関係式に含まれる複数の係数を算出する(S4:関数特定工程)。関数特定部43は、算出した複数の係数を、分割領域を特定する情報と対応付けて出力情報生成部44へ出力する。
 出力情報生成部44は、分割領域ごとに、関数特定部43が算出した複数の係数を座標として有する座標点の座標空間における位置を特定し、特定した位置に対応した出力情報(例えば、上述の判定用画像)を生成する(S5:出力情報生成工程)。出力情報生成部44は、生成した出力情報を表示制御部5へ出力する。
 表示制御部5は、出力情報生成部44から出力された出力情報を表示装置6に表示させる(S6)。
 (二値化画像を生成する処理の流れ)
 次に、二値化部41が組織画像から二値化画像を生成する処理について、図4を用いて説明する。図4は、本発明の実施例1に係る画像解析装置1における二値化画像を生成する処理の流れの一例を示すフローチャートである。
 二値化部41は、組織画像の画像データに含まれる画素の色成分(例えば、RGB)ごとの画素値を取得し、二値化の基準値を設定するための標準画素値を決定する(S11)。例えば、組織画像がHE染色された組織の切片を撮像した画像である場合、RGBの各色成分のうち青(B)の画素値に基づいて標準画素値を決定する。この標準画素値の決定方法の具体例について以下に説明する。
 画素値HE染色されている組織の場合、細胞核が青く染まる。核に着目して組織画像を画像解析する場合にはBの画素値に基づいて二値化の基準値を決定することが適している。組織染色を行った場合には、染色ムラが発生することがあるため、標準的に染色された部分を基準として二値化の基準値を決定することが好ましい。そのため、組織画像を構成するBの画素値のうち、最も高い頻度で含まれているBの画素値を標準画素値として決定する。このように二値化の基準値を決定することにより、染色の度合いが異なる複数の組織についての複数の撮像画像を用いる場合に、染色度合いを標準化することができる。
 具体的には、組織画像における、Bの画素値と、当該画素値を有する画素の個数(画素数)との関係を示す分布データにおいて、上記画素数が極大となる画素値である標準画素数を特定する。すなわち、標準画素数とは、組織画像を構成するBの画素値のうち、最も高い頻度で含まれている画素値である。なお、出現頻度が極大となるBの画素値が複数存在する場合には、極大値が大きい方の画素値を選択すればよい。
 ここでは、Bの画素値に基づいて二値化の基準値を決定する場合について説明するが、組織画像の色成分の分布や染色に用いた色素の色調によっては、RGBの各色成分のうち赤(R)または緑(G)の画素値を特定して二値化の基準値を決定してもよい。
 続けて、二値化部41は、S11で決定した標準画素値に、所定の範囲内の様々な倍率を乗算して得られる値を二値化の基準値として、当該組織画像のグレースケール画像から二値化画像を生成する(S12)。これにより、二値化の基準値をさまざまに異ならせながら、1つの組織画像から複数の二値化画像を生成することができる。なお、1つの組織画像から複数の二値化画像を生成するための二値化の基準値を算出するために用いる倍率は、解析対象である組織の構成に応じて適宜変更し得る。
 ただし、二値化の基準値を大きく設定し過ぎると、二値化された組織画像は境界線が過度に強調され、黒っぽい画像になる。一方、二値化の基準値を小さく設定し過ぎると、二値化された組織画像は、境界線の少ない白っぽい画像になる。このことを、図5を用いて説明する。
 図5の(a)は元の組織画像である。この組織画像では、Bの画素値の分布データにおいて出現頻度が最大となる(極大となる)画素値(標準画素値)は171である。図5の(b)、(c)、および(d)はBの標準画素値にそれぞれ1、0.7、0.5を乗算した値を二値化の基準値として用いて二値化された組織画像の一例を示す図である。Bに関する標準画素値をそのまま二値化の基準値に用いて(すなわち、倍率=1)二値化処理をすると、図5の(a)に示すように、画像が黒っぽくなり、構成要素間の関係を評価するには不適な画像である。
 一方、倍率を0.5にすると、図5の(c)に示すような白っぽい画像となり、この場合も構成要素間の関係を評価するには不適な画像である。図5の(b)は、倍率を0.7にしたときの画像であるが、組織の構成要素間の関係を評価するには適した画像である。黒っぽくなり過ぎたり、白っぽくなり過ぎたりした二値化画像では、1次元ベッチ数が極端に低く算出されてしまい、構成要素間の関係を示す値が適切に算出されない。
 このように様々な倍率について二値化画像の適不適を検討した結果、HE染色された生体組織の組織画像を解析して、当該組織における癌の分化度を判別するためには、Bに関する標準画素値に乗算する倍率を0.55以上0.72以下の範囲内から選択すればよいことがわかった。
 このように、二値化の基準値を変化させる範囲を好ましい範囲に限定することにより、画像解析装置1の処理速度を向上させることができる。
 なお、組織の種類や染色方法などに応じて、この二値化の基準値の決め方は適宜変更し得る。標準画素値を特定する色成分はB以外の色成分であってもよいし、これに乗算する倍率も適当な範囲の値を用いればよい。
 なお、二値化部41が組織画像を二値化するための二値化の基準値を、すべての画素について共通の(固定の)閾値として決定する方法を適用してもよいし、画素ごとに可変の閾値として決定する方法を適用してもよい。二値化の基準値をすべての画素について共通の(固定の)閾値として決定する方法としては、例えば、以下の(1)~(4)に示す方法が知られている。
(1)二値化対象の画像を、当該画像の輝度情報を用いてグレースケール画像に変換した後、当該グレースケール画像における画素値の分布データにおいて出現頻度が最大(極大)となる画素値(ピーク値)から、二値化の基準値を決定する方法。
(2)RGB画像を、H(色相)S(彩度)V(輝度)変換あるいはH(色相)L(明度)S(彩度)変換を行い、V(輝度)、S(彩度)等のヒストグラムに基づいて、二値化の基準値を決定する方法。
(3)画素値の分布データにおいて出現頻度が最大(極大)となる画素値をそのまま閾値とするのではなく、当該分布データの双峰性を解析し、分離度が最大になる解を求めることで二値化の基準値を決定する方法(例えば、大津の閾値)。
(4)二値化対象の画像の、二値化したい領域の画素数の画像全体に占める割合をパーセント等の比率で指定し、二値化基準値を決定する方法(例:Pタイル法)。
 (組織画像の解析例)
 続いて、本発明の画像解析装置1を用いて生体組織の組織画像を解析した例を、図6~図8を用いて説明する。図6~図8は、画像解析装置1によって解析した結果の一例を示す図であり、図6は正常な組織、図7および図8は癌を含む組織の解析例である。
 図6の(a)に示す組織画像を二値化して二値化画像を生成するために、Bに関する標準画素値に、0.55~0.72の値を0.01ずつ変更して乗算して得られた値を二値化の基準値とした。こうして得られた二値化の基準値を用いて、組織画像のグレースケール画像から複数の二値化画像を生成し、それぞれの二値化画像について1次元ベッチ数を算出した。
 図6の(a)に示す組織画像の分割領域Aおよび分割領域Bは、癌を含まない正常な領域である。二値化の基準値を異ならせたときの分割領域Aおよび分割領域Bの1次元ベッチ数の変化をプロットしたグラフを図6の(b)に示す。なお、図6~図8の(b)において、横軸はBに関する標準画素値に乗算した倍率であり、縦軸は穴の数(すなわち、1次元ベッチ数)である。図6の(b)に示すように、分割領域Aおよび分割領域Bについて倍率に対する穴の数はいずれも近似式(近似関数の式)として二次関数(図中の点線)を用いて近似することが可能であった。近似の程度を示す相関係数(R)はいずれも0.99より高く、この近似が非常に良い精度の近似であることを示している。
 なお、ここでは近似式として二次関数を用いる例を説明したがこれに限定されず、3次関数、4次関数などの高次関数を用いて近似してもよい。また、組織によっては、1次関数を用いて近似してもよい。回帰曲線の描画および近似式の導出には、マイクロソフト社製のExcel(登録商標)に組み込まれたアルゴリズムなど、任意のソフトウェアを用いればよい。
 次に、癌を含む領域の解析例を示す。図7の(a)に示す組織画像の分割領域Cおよび分割領域Dは、癌を含む領域である。二値化の基準値を異ならせたときの分割領域Cおよび分割領域Dの1次元ベッチ数の変化を、プロットしたグラフを図7の(b)に示す。図7の(b)に示すように、分割領域Cおよび分割領域Dについて倍率に対する穴の数もまた、二次関数(図中の点線)を用いて非常に良い精度で近似することが可能であった。
 また、図8の(a)に示す組織画像の分割領域E~Gは、癌を含む領域である。二値化の基準値を異ならせたときの分割領域E~Gの1次元ベッチ数の変化を、プロットしたグラフを図8の(b)に示す。図8の(b)に示すように、分割領域E~Gについて倍率に対する穴の数もまた、二次関数(図中の点線)を用いて非常に良い精度で近似することが可能であった。
 (二次の係数が負になる場合について)
 ここでは、二次関数の二次の係数が負になる場合について、図9を用いて説明する。多くの組織画像において、二次関数の二次の係数は正であったが、分割領域Eのように、二次関数の二次の係数が負となる場合も見られた。
 図9は、近似式の二次の係数の正/負の割合を示すグラフである。図示のように、正常な組織、腺腫および高分化の癌において、二次の係数が負となる例が確認された。一方、中分化および低分化の癌では、1例を除き、二次の係数が負となることはなかった。しかも、二次の係数が負になっていた低分化の癌の1例では、組織画像の状態が悪く、細胞核が潰れていた。すなわち、近似式の二次の係数が負になる場合は、腺腫および高分化の癌に多く見られ、中分化・低分化の癌では近似式の二次の係数が負になる場合はほとんど見られないことが分かった。
 (癌の分化度の判別への適用例)
 画像解析装置1を用いて生体組織の組織画像を解析し、癌の分化度を判別するための情報を抽出する例について説明する。近似式の複数の係数に関する複数の座標軸によって形成される座標空間に、解析された組織画像(あるいは各分割画像)についての近似式の複数の係数を座標として有する点(座標点)をプロットしたグラフの一例を図10に示す。図10の(a)は近似式として用いた二次関数の式を示し、(b)は近似式の二次の係数aの対数(Log a)と、近似式の軸の位置を示すbとを座標として有する座標点をプロットした分布図である。対数の底は10でもよいし、自然数eでもよい。なお、ここでは近似式の二次の係数aの値が大きいため便宜上対数を用いているが、対数を用いなくてもよい。
 図10の(b)に示すように、中分化および低分化の癌を含む画像についての座標点は、縦軸の値および横軸の値が共に大きい位置に、集まって分布している。一方、高分化の癌、腺腫、正常の組織では、座標点は、それぞれ固有の傾きを有する領域(図中の楕円で示した領域)内に分布しており、高分化の癌、腺腫、正常の組織の順にその傾きが緩くなる傾向があることがわかった。
 この座標点の分布の傾向に基づいて、当該座標点を算出するに至った組織画像(または分割画像)に写っている癌がどのような分化度の癌であるか、を表す指標を算出して、この指標に基づいて、癌の判定において医師が注目すべき領域が明示された組織画像(判定用画像)を出力情報として生成することができる。この出力情報は、癌の分化度を判別するために有用な情報である。
 (判定用画像について)
 ここでは、判定用画像について、図11を用いて説明する。図11は判定用画像の一例を示す図である。図11の(a)は解析対象の組織画像、図11の(b)は当該組織画像に写っている癌の分化度に応じて、分割画像を色分けした判定用画像をそれぞれ示している。
 例えば、図11の(b)において、図11の(a)に含まれる領域Hおよび領域Iに含まれる各分割領域が、当該分割領域の解析結果(上記座標点の位置)に応じて色分けされている。例えば、低分化の癌を含んでいる可能性のある分割領域を赤色、腺腫を含んでいる可能性のある分割領域をオレンジ色、高分化の癌を含んでいる可能性のある分割領域を黄色で示してもよい。また、分化度を1つに特定できない場合(例えば、図10の(b)において、破線領域が互いに重なっている領域に座標点が存在する場合)、グラデーションによって分化度を表示してもよい。
 (二次の係数が負の中分化・高分化の癌の判別について)
 なお、前述したように、中分化・高分化の癌については、近似式の二次の係数が負になる場合がある。近似式の二次の係数が負である場合、図10の(b)に示すようなグラフにプロットすることができない。
 そこで、関数特定部43が算出した2次の係数が負である場合、出力情報生成部44は、所定の二値化画像における穴の数の実数に基づいて出力情報を生成してもよい。
 具体的には、ベッチ数算出部42は、Bに関する標準画素値に0.55~0.72の値を乗算して得られた値を二値化の基準値として生成された複数の二値化画像のそれぞれについて1次元ベッチ数を算出する。次に、関数特定部43は、二値化の基準値と穴の数との関係を示す二次の近似式に含まれる、二次の係数を含む複数の係数を算出する。出力情報生成部44は、二次の係数の符号が正の場合には、穴の数の実数と、予め定められた判別基準値とを比較して、比較結果に基づいて癌の分化度の判別するための上述のような判定用画像を出力情報として生成してもよい。
 例えば、近似式の二次の係数が負になる場合には、標準画素値に0.72を乗算して得られる値を二値化の基準値として生成した二値化画像における、穴の数の実数に着目する。例えば、癌を含まない正常な組織では、穴の数は平均1035であるのに対し、腺腫では穴の数は平均2550に増え、高分化の癌ではさらに平均6255にまで増えた。正常、腺腫、および高分化の癌における穴の数の実数の差異は統計学的に有意であった。
 このことから、近似式の二次の係数が負になる場合には、二値化画像における穴の数の実数に基づいて、癌の分化度の判別を行うために有用な情報を提供することができることが分かった。
 〔実施形態2〕
 (画像解析装置1aの構成)
 次に、図11を用いて、画像解析装置1aの構成について説明する。図11は、本発明の実施例2に係る画像解析装置1aの構成の一例を示すブロック図である。画像解析装置1aは、表示制御部5の代わりに解析結果送信部9(送信部)を備えている点で、画像解析装置1と異なっている。解析結果送信部9は、外部機器8から受信した画像データが示す撮像画像を解析した結果を出力情報生成部44から取得し、提示装置10に送信する。
 なお、外部機器8および提示装置10の数は複数であってもよい。
 (画像解析システム)
 ここでは、画像解析装置1aを含む画像解析システム100および100aの構成例について、図12を用いて説明する。図12は、本発明に係る画像解析装置1aを含む画像解析システム100および100aの構成例を示す概略図である。図12の(a)は、外部機器8と提示装置10とが離れた場所に設置されている例を示しており、(b)は、提示装置10が外部機器8aに接続されている例を示している。
 画像解析システム100は、外部機器8、画像解析装置1a、および提示装置10を有している。外部機器8、画像解析装置1a、および提示装置10は、インターネットなどの情報通信ネットワーク50に接続されており、相互にデータの送受信が可能である。
 外部機器8は、例えば、組織を撮像する機能を備える顕微鏡などの機器であってもよいし、組織を撮像した画像を集約して管理するサーバ(電子カルテサーバ、顕微鏡画像データサーバなど)であってもよい。
 提示装置10は、ユーザに画像解析の結果を提示する機能を有する装置であればよく、例えば、提示装置10はディスプレイを備える表示装置である。あるいは、医療関係者が携帯するタブレット端末などの通信端末機器であってもよい。
 組織を撮像した撮像画像の画像データは、外部機器8から画像解析装置1aへと送信される。画像データを受信した画像解析装置1aは、画像解析部4が該画像を解析し、出力情報生成部44が生成した出力情報を解析結果送信部9から提示装置10または外部機器8に送信する。
 画像解析システム100aは、外部機器8a、画像解析装置1a、および提示装置10を有している。外部機器8aおよび画像解析装置1aは、インターネットなどの情報通信ネットワーク50に接続されており、相互にデータの送受信が可能である。提示装置10は、外部機器8aに接続されている。
 すなわち、画像解析装置1aは、遠隔地で撮像された画像を外部機器8から受信して、画像解析を行い、解析結果である出力情報および判定用画像の少なくともいずれか一方を、提示装置10および10aに送信することができる。提示装置10および10aは、外部機器8に接続された装置であってもよいし、画像解析装置1aおよび外部機器8と独立している装置であってもよい。
 〔実施形態3〕
 本発明は、生体組織における癌の判定に限らず、他の組織における組織の構成の解析に適用できる。その一例として、本実施形態では、シリコーンゲル(組織)における構成の解析例について、図14~図17を用いて説明する。
 (シリコーンゲルの構成および画像)
 シリコーンゲルは、ケイ素原子(Si)と酸素原子(O)とを構成要素として含む非晶質材料である。シリコーンゲルは、酸性条件でゲル化させた場合と、塩基性条件でゲル化させた場合とで、分子間の結合(関係)のパターン(構成)が異なることが知られている。以下では、シリコーンゲルにおける分子間の結合を、本発明の画像解析装置1、1aを用いて解析した結果の一例を示す。
 まず、図14を用いて、シリコーンゲルのゲル化条件に依存した分子構造(シリコーンゲルを構成する分子間の結合パターン)の違いについて説明する。図14の(a)は酸性条件でゲル化したシリコーンゲルの分子構造を示す図であり、(b)は酸性条件でゲル化したシリコーンゲルを、透過型電子顕微鏡を用いて撮像した画像(組織画像、撮像画像)であり、(c)は塩基性条件でゲル化したシリコーンゲルの分子構造を示す図であり、(d)は塩基性条件でゲル化したシリコーンゲルを、透過型電子顕微鏡を用いて撮像した画像(組織画像、撮像画像)である。なお、図14の(b)および(d)に示す画像において、白く表示される部分は酸素原子が存在していることを示している。ここでは、図15の(b)および(d)の画像中に1nmを示すスケールバーを描画している。撮像倍率は解析の対象となる組織に応じて、当業者によって適宜設定されればよい。
 画像取得部2は、透過型電子顕微鏡などの外部機器8から、シリコーンゲルを撮像した画像を取得する。取得した画像は、記憶部3に格納される。
 (シリコーンゲルを撮像した画像の二値化)
 まず、二値化部41は、記憶部3から図15の(b)の画像を読み出して、当該画像から、二値化の基準値を異ならせながら二値化した二値化画像を生成する。図15は、図14の(b)の画像を、二値化の基準値を異ならせながら二値化した二値化画像である。また、図16は、図14の(d)の画像を、二値化の基準値を異ならせながら二値化した二値化画像である。
 ここで、上述の実施形態と異なり、シリコーンゲルの画像はRGBなどの色成分を含んでいない。そのため、本実施形態では、二値化部41は、所定の画素値を二値化の基準値として決定する。
 図15および図16では、(a)200、(b)175、(c)150、(d)125、(e)100、(f)75、(g)50を二値化の基準値としてそれぞれ設定した場合に生成される二値化画像を示す。
 図15および図16に示す複数の二値化画像のうち、(a)に示す二値化画像は二値化の基準値が大きく設定し過ぎており、一方、(f)および(g)に示す二値化画像は二値化の基準値を小さく設定し過ぎている。
 (シリコーンゲルの二値化画像における穴の数を算出)
 そこで、本実施形態では、ベッチ数算出部42は、図15および図16の二値化画像(b)~(e)のそれぞれについて穴の数(穴形状の領域の数)を算出した。図14の(b)および(d)に示す画像において白く表示される部分は、酸素原子が存在していることを示す部分である。それゆえ、二値化画像について穴の数を算出することは、当該二値化画像に含まれる領域内の酸素原子の数を数えている処理、あるいは当該二値化画像に含まれる領域内に酸素原子が統計的にどの程度分布しているかを調べる処理に相当しているということができる。
 算出された穴の数は、図15の(b)、(c)、(d)、および(e)についてはそれぞれ、59、45、38、29であり、図16の(b)、(c)、(d)、および(e)についてはそれぞれ、162、137、52、6であった。
 (二値化の基準値の変化に応じた穴の数の変化を近似する関数の特定)
 次に、関数特定部43は、二値化の基準値の変化に伴う穴の数の変化を近似的に示す関数の特徴を表す数値を算出する。図17は、シリコーンゲルの構成を解析した結果の一例を示す図であり、縦軸に穴の数、横軸に二値化の基準値をプロットしたグラフである。
 図17に示すように、図15の(b)~(e)、および図16の(b)~(e)について、二値化の基準値に対する穴の数の変化はいずれも近似式(近似関数)として一次関数(図中の点線)を用いて近似することが可能であった。図17において、図15の(b)~(e)に対応するデータのプロットはデータL、図16の(b)~(e)に対応するデータのプロットはデータKでそれぞれ示す。このことは、酸性条件および塩基性条件でゲル化させたシリコーンゲルにはいずれも一定の割合で酸素原子が含まれていることを示している。なお、近似の程度を示す相関係数(R)はいずれも0.98より高く、この近似が非常に良い精度の近似であることを示していた。
 関数特定部43は、データLおよびデータKのそれぞれを近似的に示す一次関数の一次の係数(特徴数)を算出する。なお、関数特定部43は、一次関数の一次の項の係数に加えて、定数項の値(特徴数)を算出してもよい。
 関数特定部43が特定した一次関数の特徴を示す一次の係数(特徴数)は、シリコーンゲルが酸性条件でゲル化されたものか、あるいは塩基性条件でゲル化されたものかによって、明確に異なっていた。
 (シリコーンゲルの判定)
 このことは、関数特定部43が特定した一次関数の特徴を示す一次の係数に基づいて、シリコーンゲルの分子間の結合のパターン(構成)を判別することが可能であることを示している。
 そこで、出力情報生成部44は、関数特定部43が特定した一次関数の特徴を示す一次の係数に基づいて判定した判定結果を示す出力情報を生成する。これにより、ユーザは、表示装置6の画面において提示される出力情報に基づいて、シリコーンゲルの分子構造を判別することができる。
 なお、シリコーンゲルの分子構造を判別する場合を例に挙げて説明したが、これに限定されない。本発明に係る画像解析装置1、1aを用いれば、任意の組織について、該組織を構成する複数の構成要素間の結びつき(関係)を、高い精度で評価することが可能である。
 〔ソフトウェアによる実現例〕
 画像解析装置1、1aの制御ブロック(特に二値化部41、ベッチ数算出部42、関数特定部43、および出力情報生成部44)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
 後者の場合、画像解析装置1、1aは、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、上記プログラムおよび各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、上記プログラムを展開するRAM(Random Access Memory)などを備えている。そして、コンピュータ(またはCPU)が上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
 本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
〔まとめ〕
 本発明の態様1に係る画像解析装置1、1aは、組織を撮像した1つの撮像画像に対して、二値化の基準値を異ならせながら複数回の二値化処理を行うことにより、複数の二値化画像を生成する二値化部41と、上記二値化部が生成した複数の二値化画像のそれぞれについて、穴形状の領域の数を算出する空間数算出部(ベッチ数算出部42)と、上記複数の二値化の基準値と上記穴形状の領域の数との対応関係を特徴づける特徴数を特定する特定部(関数特定部43)と、上記特定部が特定した上記特徴数に対応した出力情報を生成する出力情報生成部44とを備えている。
 この構成によれば、画像解析装置は、組織を撮像した1つの撮像画像に対して、二値化の基準値を異ならせながら複数回の二値化処理を行うことにより生成した複数の二値化画像のそれぞれについて、穴形状の領域の数を算出する。ここで、穴形状の領域とは、二次元平面である撮像画像における空間(穴)である。穴形状の領域の数を算出する処理としては、上記複数の二値化画像の各々について1次元ベッチ数を求める処理を行ってもよい。なお、画像からベッチ数を算出するためのプログラムは公知であり、そのプログラムを実行する装置を空間数算出部として用いればよい。
 次に、画像解析装置は、複数の二値化の基準値と上記穴形状の領域の数との対応関係を特徴づける特徴数を特定する。そして、画像解析装置は、特定した上記特徴数に対応した出力情報を生成する。なお、特徴数は少なくとも1つ特定されればよい。
 それゆえ、構成要素間の関係を数理的に表現した情報を出力情報として生成することができ、さまざまな組織の構成を判別することが可能となる。なお、ここでいう「組織」とは、1または複数種類の構成要素が、一定のパターンで集合した構造単位を意味しており、細胞などの集まりから構成される生体組織、結晶粒などの集まりから構成される鉱物組織、およびシリコーンなどの樹脂材料の分子の集まりから構成される樹脂製品の組織などであってもよい。
 例えば、生体組織に生じた癌の分化度を判定する場合、生体組織を構成する構成要素間の関係(結びつきの強さ)が変化するため、この構成要素間の関係を数値化することにより、癌の分化度を判別するために有用な情報を抽出することができる。
 本発明の態様2に係る画像解析装置は、上記態様1において、上記特定部は、上記複数の二値化の基準値と上記穴形状の領域の数との関係を近似的に示す関数の特徴を表す複数の特徴数のうち少なくとも1つを特定してもよい。
 すなわち、本態様に係る画像解析装置は、組織を撮像した1つの撮像画像に対して、二値化の基準値を異ならせながら複数回の二値化処理を行うことにより、複数の二値化画像を生成する二値化部41と、上記二値化部が生成した複数の二値化画像のそれぞれについて、穴形状の領域の数を算出する空間数算出部(ベッチ数算出部42)と、上記複数の二値化の基準値と上記穴形状の領域の数との関係を近似的に示す関数の特徴を表す複数の特徴数を特定する関数特定部43と、上記関数特定部が特定した上記複数の特徴数のうちの少なくとも1つに対応した出力情報を生成する出力情報生成部44とを備えていてもよい。
 これにより、複数の二値化の基準値と穴形状の領域の数との関係を近似的に示す関数の特徴を表す複数の特徴数を、当該複数の二値化の基準値と穴形状の領域の数との対応関係を特徴づける複数の特徴数として利用することができる。
 本発明の態様3に係る画像解析装置は、上記態様1または2において、上記出力情報生成部は、上記複数の特徴数のそれぞれに1つずつが対応している複数の座標軸によって規定される座標空間における、上記特定部が特定した複数の特徴数を座標として有する点(座標点)の位置に対応した出力情報を生成してもよい。
 これにより、組織の構成要素間の関係を高い精度で評価するために有用な情報を出力することができる。
 解析対象が生体組織の場合、上記座標空間における上記座標点の位置によって、当該生体組織における癌の分化度を判定することができる可能性があることを本発明の発明者は見出した。
 上記のように構成すれば、上記座標点の位置に対応した出力情報を生成することができ、この出力情報を病理医に提示することにより、病理医による癌の分化度の判定を適切にサポートすることができる。
 本発明の態様4に係る画像解析装置は、上記態様1から3のいずれかにおいて、上記撮像画像を所定の大きさの分割領域に分割する分割部(二値化部41)をさらに備え、上記空間数算出部は、上記分割部が生成した分割領域毎に上記穴形状の領域の数を算出し、上記特定部は、上記分割領域毎に上記複数の特徴数を特定し、上記出力情報生成部は、上記分割領域毎に上記出力情報を生成してもよい。
 上記の構成によれば、分割部は、組織の撮像画像を所定の大きさの分割領域に分割し、空間数算出部は、分割部が生成した分割領域ごとに穴形状の領域の数を算出する。そして、特定部は、各分割領域に関して空間数算出部が算出した穴形状の領域の数から分割領域ごとに、関数の特徴を表す複数の特徴数を特定し、出力情報生成部は、分割領域ごとに特定された特徴数を座標として有する点の位置に対応した出力情報を生成する。
 それゆえ、組織の撮像画像全体を解析する場合よりも組織の構成要素間の関係を数値化する精度を高めることができるとともに、撮像画像のどの分割領域が注目すべき領域であるかを特定することができる。
 本発明の態様5に係る画像解析装置は、上記態様4において、上記出力情報生成部は、上記出力情報として、上記分割領域を含む判定用画像を生成し、上記撮像画像における複数の分割領域のそれぞれについて、上記複数の特徴数に応じた態様で、上記判定用画像における当該分割領域の画像を生成してもよい。
 これにより、ユーザに対して、組織の構成を判定するために必要な情報を含み、かつ直観的で利便性の高い判定用画像を提示することができる。
 本発明の態様6に係る画像解析装置は、上記態様1から5のいずれかにおいて、上記撮像画像に含まれる画素の画素値に基づいて上記二値化の基準値を決定してもよい。
 これにより、組織を撮像した撮像画像に写っている構成要素間の関係をより明確に特定できる画素値に基づいて、二値化画像を生成する際の二値化の基準値を決定することができる。
 なお、生体組織の場合、多くは染色された組織を切片化して撮像される。組織の染色に用いた色素に応じて、二値化画像を生成するための二値化の基準値を適切に決定することができる。この場合、撮像画像を構成する所定の色(例えば青色(B))の画素値のうち、最も高い頻度で含まれているBの画素値を標準画素値として決定し、この標準画素値に基づいて二値化の基準値を決定すればよい。
 本発明の態様7に係る画像解析装置は、上記態様1から6のいずれかにおいて、上記特定部は、上記二値化の基準値と上記穴形状の領域の数との関係を示すn次式(n≧1)に含まれる、n次の係数を含む複数の係数を特定してもよい。
 二値化の基準値と穴形状の領域の数とを座標として有する点をグラフにプロットした場合、二値化の基準値を変えたときの穴形状の領域の数の変化は、n次関数の式で近似することができる。すなわち、二値化の基準値と上記穴形状の領域の数との関係性はn次関数の式で近似できることが多い。
 上記の構成によれば、n次式の係数を含む複数の係数を特定する。これにより、二値化の基準値と上記穴形状の領域の数との関係を、客観的で簡便な数学的処理に基づいて抽出することができる。この場合、算出される係数は関数の特徴を表す複数の特徴数と捉えることができる。
 本発明の態様8に係る画像解析システムは、上記態様1から7のいずれかに記載の画像解析装置と、上記撮像画像の画像データを、上記画像解析装置へ送信する外部機器と、上記画像解析装置において生成された上記出力情報を取得して、該出力情報を提示する提示装置とを含んでいる。
 これにより、例えば遠隔地の外部機器を用いて撮像された撮像画像を受信して、当該画像を解析することができ、かつ撮像画像および出力情報を遠隔地のユーザに提示することができる。
 また、本発明の態様9に係る画像解析方法は、上記の課題を解決するために、組織を撮像した撮像画像を解析する画像解析装置1、1aにおける画像解析方法であって、1つの上記撮像画像に対して、二値化の基準値を異ならせながら複数回の二値化処理を行うことにより、複数の二値化画像を生成する二値化工程(S2)と、上記二値化工程にて生成した複数の二値化画像のそれぞれについて、穴形状の領域の数を算出する空間数算出工程(S3)と、上記複数の二値化の基準値と上記穴形状の領域の数との対応関係を特徴づける特徴数を特定する特定工程(S4)と、上記特定工程にて特定した上記特徴数に対応した出力情報を生成する出力情報生成工程(S5)とを含んでいる。この構成によれば、上記態様1と同様の効果を奏する。
 また、画像解析装置を動作させるための画像解析プログラムであって、コンピュータを上記各部として機能させるための画像解析プログラムおよび当該画像解析プログラムを記録したコンピュータ読み取り可能な記録媒体も本発明の技術的範囲に含まれる。
1、1a 画像解析装置
   2 画像取得部(受信部)
   4 画像解析部(画像解析装置)
   5 表示制御部
   6 表示装置(提示部)
   8 外部機器
   9 解析結果送信部(送信部)
  10 提示装置
  41 二値化部(分割部)
  42 ベッチ数算出部(空間数算出部)
  43 関数特定部(特定部)
  44 出力情報生成部
100、100a 画像解析システム
  S2 二値化工程
  S3 空間数算出工程
  S4 特定工程
  S5 出力情報生成工程

Claims (11)

  1.  組織を撮像した1つの撮像画像に対して、二値化の基準値を異ならせながら複数回の二値化処理を行うことにより、複数の二値化画像を生成する二値化部と、
     上記二値化部が生成した複数の二値化画像のそれぞれについて、穴形状の領域の数を算出する空間数算出部と、
     上記複数の二値化の基準値と上記穴形状の領域の数との対応関係を特徴づける特徴数を特定する特定部と、
     上記特定部が特定した上記特徴数に対応した出力情報を生成する出力情報生成部とを備えることを特徴とする画像解析装置。
  2.  上記特定部は、上記複数の二値化の基準値と上記穴形状の領域の数との関係を近似的に示す関数の特徴を表す複数の特徴数のうち少なくとも1つを特定することを特徴とする請求項1に記載の画像解析装置。
  3.  上記出力情報生成部は、上記複数の特徴数のそれぞれに1つずつが対応している複数の座標軸によって規定される座標空間における、上記特定部が算出した複数の特徴数を座標として有する点の位置に対応した出力情報を生成することを特徴とする請求項1または2に記載の画像解析装置。
  4.  上記撮像画像を所定の大きさの分割領域に分割する分割部をさらに備え、
     上記空間数算出部は、上記分割部が生成した分割領域毎に上記穴形状の領域の数を算出し、
     上記特定部は、上記分割領域毎に上記複数の特徴数を算出し、
     上記出力情報生成部は、上記分割領域毎に上記出力情報を生成することを特徴とする請求項1から3のいずれか1項に記載の画像解析装置。
  5.  上記出力情報生成部は、上記出力情報として、上記分割領域を含む判定用画像を生成し、
     上記撮像画像における複数の分割領域のそれぞれについて、上記複数の特徴数に応じた態様で、上記判定用画像における当該分割領域の画像を生成することを特徴とする請求項4に記載の画像解析装置。
  6.  上記二値化部は、上記撮像画像に含まれる画素の画素値に基づいて上記二値化の基準値を決定することを特徴とする請求項1から5のいずれか1項に記載の画像解析装置。
  7.  上記特定部は、上記二値化の基準値と上記穴形状の領域の数との関係を示すn次式(n≧1)に含まれる、n次の係数を含む複数の係数を算出することを特徴とする請求項1から6のいずれか1項に記載の画像解析装置。
  8.  請求項1から7のいずれか1項に記載の画像解析装置と、
     上記撮像画像の画像データを、上記画像解析装置へ送信する外部機器と、
     上記画像解析装置において生成された上記出力情報を取得して、該出力情報を提示する提示装置とを含むことを特徴とする画像解析システム。
  9.  組織を撮像した撮像画像を解析する画像解析装置における画像解析方法であって、
     1つの上記撮像画像に対して、二値化の基準値を異ならせながら複数回の二値化処理を行うことにより、複数の二値化画像を生成する二値化工程と、
     上記二値化工程にて生成した複数の二値化画像のそれぞれについて、穴形状の領域の数を算出する空間数算出工程と、
     上記複数の二値化の基準値と上記穴形状の領域の数との対応関係を特徴づける特徴数を特定する特定工程と、
     上記特定工程にて特定した上記特徴数に対応した出力情報を生成する出力情報生成工程とを含むことを特徴とする画像解析方法。
  10.  請求項1に記載の画像解析装置としてコンピュータを機能させるための画像解析プログラムであって、上記二値化部、上記空間数算出部、上記特定部、および上記出力情報生成部としてコンピュータを機能させるための画像解析プログラム。
  11.  請求項10に記載の画像解析プログラムを記録したコンピュータ読み取り可能な記録媒体。
PCT/JP2016/070143 2015-07-15 2016-07-07 画像解析装置、画像解析方法、画像解析システム、画像解析プログラム、および記録媒体 WO2017010397A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US15/743,808 US10475183B2 (en) 2015-07-15 2016-07-07 Image analysis device, image analysis method, image analysis system, and recording medium
CN201680041412.7A CN107850586B (zh) 2015-07-15 2016-07-07 图像解析装置、图像解析方法、图像解析系统、以及存储介质
JP2017528642A JP6483826B2 (ja) 2015-07-15 2016-07-07 画像解析装置、画像解析方法、画像解析システム、画像解析プログラム、および記録媒体
EP16824377.2A EP3324183B1 (en) 2015-07-15 2016-07-07 Image analysis device, image analysis method, image analysis system, image analysis program, and recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015141673 2015-07-15
JP2015-141673 2015-07-15

Publications (1)

Publication Number Publication Date
WO2017010397A1 true WO2017010397A1 (ja) 2017-01-19

Family

ID=57757363

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/070143 WO2017010397A1 (ja) 2015-07-15 2016-07-07 画像解析装置、画像解析方法、画像解析システム、画像解析プログラム、および記録媒体

Country Status (5)

Country Link
US (1) US10475183B2 (ja)
EP (1) EP3324183B1 (ja)
JP (1) JP6483826B2 (ja)
CN (1) CN107850586B (ja)
WO (1) WO2017010397A1 (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019159821A1 (ja) * 2018-02-15 2019-08-22 国立大学法人新潟大学 高頻度変異型癌の判別システム、プログラム及び方法
JP2019200738A (ja) * 2018-05-18 2019-11-21 ヤフー株式会社 情報処理装置、情報処理方法、および情報処理プログラム
WO2020067481A1 (ja) * 2018-09-28 2020-04-02 国立大学法人東北大学 画像解析装置、画像解析システム、画像解析方法、コンピュータプログラム及び非一時的記録媒体
WO2020241178A1 (ja) * 2019-05-29 2020-12-03 国立大学法人九州大学 肺がん評価装置及び肺がん評価方法
JP2021033378A (ja) * 2019-08-15 2021-03-01 キヤノン株式会社 情報処理装置、情報処理方法
WO2021112205A1 (ja) * 2019-12-05 2021-06-10 国立大学法人大阪大学 画像解析方法、画像解析装置、画像解析システム、制御プログラム、記録媒体
WO2021153633A1 (ja) 2020-01-29 2021-08-05 Jfeスチール株式会社 金属組織の相の分類方法、金属組織の相の分類装置、金属組織の相の学習方法、金属組織の相の学習装置、金属材料の材料特性予測方法および金属材料の材料特性予測装置
JP2021525913A (ja) * 2018-05-30 2021-09-27 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. デジタルパソロジーのための感度分析
WO2021199937A1 (ja) 2020-03-31 2021-10-07 Jfeスチール株式会社 金属組織の撮影条件決定方法、金属組織の撮影方法、金属組織の相分類方法、金属組織の撮影条件決定装置、金属組織の撮影装置、金属組織の相分類装置、金属材料の材料特性予測方法および金属材料の材料特性予測装置
WO2022079847A1 (ja) * 2020-10-14 2022-04-21 Genomedia株式会社 情報処理システム、情報処理方法及びプログラム
WO2022176665A1 (ja) * 2021-02-18 2022-08-25 株式会社APSAM Imaging 画像解析方法、画像解析装置、分類装置、分類システム、制御プログラム、記録媒体

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11515004B2 (en) * 2015-05-22 2022-11-29 Csts Health Care Inc. Thermodynamic measures on protein-protein interaction networks for cancer therapy
JP6962534B2 (ja) * 2016-07-25 2021-11-05 学校法人同志社 病態診断支援システム、病態診断データ生成システム、および病態診断支援方法
WO2019102829A1 (ja) * 2017-11-24 2019-05-31 国立大学法人大阪大学 画像解析方法、画像解析装置、画像解析システム、画像解析プログラム、記録媒体
JP7040065B2 (ja) * 2018-01-31 2022-03-23 富士通株式会社 検出プログラム、検出方法および検出装置
CN109063747A (zh) * 2018-07-16 2018-12-21 武汉大学人民医院(湖北省人民医院) 基于深度学习的肠道病理切片图像识别分析系统及方法
JP7131351B2 (ja) * 2018-12-06 2022-09-06 富士通株式会社 学習方法、学習プログラムおよび学習装置
JP7450942B2 (ja) * 2019-03-26 2024-03-18 国立大学法人大阪大学 画像解析方法、画像解析プログラム、記録媒体、画像解析装置、画像解析システム
JP7122017B2 (ja) * 2020-12-28 2022-08-19 株式会社APSAM Imaging 画像解析方法、推定装置、推定システム、制御プログラム、記録媒体
JP7414753B2 (ja) 2021-02-16 2024-01-16 株式会社日立製作所 組織画像解析装置及び組織画像解析方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010087112A1 (ja) * 2009-01-27 2010-08-05 国立大学法人大阪大学 画像解析装置、画像解析方法、画像解析プログラムおよび記録媒体
JP2011065253A (ja) * 2009-09-15 2011-03-31 Utsunomiya Univ ボケの抽出方法、位置決め方法及びマイクロマニピュレーションシステム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7991221B1 (en) * 2006-03-06 2011-08-02 Kling Daniel H Data processing system utilizing topological methods to manipulate and categorize n-dimensional datasets
US8103115B2 (en) * 2007-02-26 2012-01-24 Sony Corporation Information processing apparatus, method, and program
JP2010042065A (ja) * 2008-08-08 2010-02-25 Toshiba Corp 医用画像処理装置、処理方法
WO2012098842A1 (ja) 2011-01-20 2012-07-26 パナソニック株式会社 特徴抽出装置、特徴抽出方法、特徴抽出プログラム、および、画像処理装置
JP7069581B2 (ja) * 2017-07-07 2022-05-18 富士通株式会社 分析方法、分析装置及び分析プログラム
JP6950504B2 (ja) * 2017-12-08 2021-10-13 富士通株式会社 異常候補抽出プログラム、異常候補抽出方法および異常候補抽出装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010087112A1 (ja) * 2009-01-27 2010-08-05 国立大学法人大阪大学 画像解析装置、画像解析方法、画像解析プログラムおよび記録媒体
JP2011065253A (ja) * 2009-09-15 2011-03-31 Utsunomiya Univ ボケの抽出方法、位置決め方法及びマイクロマニピュレーションシステム

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
KAZUAKI NAKANE: "Kaiso Homology ni yoru Daichogan Bunkado Bunruiho ni Tsuite", THE 14TH GENERAL MEETING OF THE JAPANESE SOCIETY OF DIGITAL PATHOLOGY PROGRAM SHOROKUSHU, vol. 28, 10 September 2015 (2015-09-10), pages GO-14, XP009504605 *
NAKANE KAZUAKI ET AL.: "A simple mathematical model utilizing topological invariants for automatic detection of tumor areas in digital tissue images", DIAGNOSTIC PATHOLOGY, vol. 8, no. Suppl 1, 30 September 2013 (2013-09-30), pages S27, XP021160847 *
NAKANE KAZUAKI ET AL.: "Homology-based method for detecting regions of interest in colonic digital images", DIAGNOSTIC PATHOLOGY, vol. 10, 24 April 2015 (2015-04-24), pages 36, XP021223131 *
See also references of EP3324183A4 *

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11295447B2 (en) 2018-02-15 2022-04-05 Niigata University System, program, and method for determining hypermutated tumor
JP7292685B2 (ja) 2018-02-15 2023-06-19 国立大学法人 新潟大学 高頻度変異型癌の判別システム、プログラム及び方法
JPWO2019159821A1 (ja) * 2018-02-15 2021-03-04 国立大学法人 新潟大学 高頻度変異型癌の判別システム、プログラム及び方法
US11869190B2 (en) 2018-02-15 2024-01-09 Niigata University System, program, and method for determining hypermutated tumor
WO2019159821A1 (ja) * 2018-02-15 2019-08-22 国立大学法人新潟大学 高頻度変異型癌の判別システム、プログラム及び方法
JP2019200738A (ja) * 2018-05-18 2019-11-21 ヤフー株式会社 情報処理装置、情報処理方法、および情報処理プログラム
JP7071213B2 (ja) 2018-05-18 2022-05-18 ヤフー株式会社 情報処理装置、情報処理方法、および情報処理プログラム
JP7431753B2 (ja) 2018-05-30 2024-02-15 コーニンクレッカ フィリップス エヌ ヴェ デジタルパソロジーのための感度分析
JP2021525913A (ja) * 2018-05-30 2021-09-27 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. デジタルパソロジーのための感度分析
WO2020067481A1 (ja) * 2018-09-28 2020-04-02 国立大学法人東北大学 画像解析装置、画像解析システム、画像解析方法、コンピュータプログラム及び非一時的記録媒体
WO2020241178A1 (ja) * 2019-05-29 2020-12-03 国立大学法人九州大学 肺がん評価装置及び肺がん評価方法
JP2021033378A (ja) * 2019-08-15 2021-03-01 キヤノン株式会社 情報処理装置、情報処理方法
JP7324086B2 (ja) 2019-08-15 2023-08-09 キヤノン株式会社 情報処理装置、情報処理方法
JPWO2021112205A1 (ja) * 2019-12-05 2021-06-10
WO2021112205A1 (ja) * 2019-12-05 2021-06-10 国立大学法人大阪大学 画像解析方法、画像解析装置、画像解析システム、制御プログラム、記録媒体
JP7265805B2 (ja) 2019-12-05 2023-04-27 国立大学法人大阪大学 画像解析方法、画像解析装置、画像解析システム、制御プログラム、記録媒体
WO2021153633A1 (ja) 2020-01-29 2021-08-05 Jfeスチール株式会社 金属組織の相の分類方法、金属組織の相の分類装置、金属組織の相の学習方法、金属組織の相の学習装置、金属材料の材料特性予測方法および金属材料の材料特性予測装置
WO2021199937A1 (ja) 2020-03-31 2021-10-07 Jfeスチール株式会社 金属組織の撮影条件決定方法、金属組織の撮影方法、金属組織の相分類方法、金属組織の撮影条件決定装置、金属組織の撮影装置、金属組織の相分類装置、金属材料の材料特性予測方法および金属材料の材料特性予測装置
KR20220156044A (ko) 2020-03-31 2022-11-24 제이에프이 스틸 가부시키가이샤 금속 조직의 촬영 조건 결정 방법, 금속 조직의 촬영 방법, 금속 조직의 상 분류 방법, 금속 조직의 촬영 조건 결정 장치, 금속 조직의 촬영 장치, 금속 조직의 상 분류 장치, 금속 재료의 재료 특성 예측 방법 및 금속 재료의 재료 특성 예측 장치
WO2022079847A1 (ja) * 2020-10-14 2022-04-21 Genomedia株式会社 情報処理システム、情報処理方法及びプログラム
WO2022176665A1 (ja) * 2021-02-18 2022-08-25 株式会社APSAM Imaging 画像解析方法、画像解析装置、分類装置、分類システム、制御プログラム、記録媒体

Also Published As

Publication number Publication date
JP6483826B2 (ja) 2019-03-13
JPWO2017010397A1 (ja) 2018-04-19
EP3324183A1 (en) 2018-05-23
EP3324183B1 (en) 2019-03-13
CN107850586A (zh) 2018-03-27
US10475183B2 (en) 2019-11-12
CN107850586B (zh) 2019-11-12
US20180204324A1 (en) 2018-07-19
EP3324183A4 (en) 2018-05-23

Similar Documents

Publication Publication Date Title
JP6483826B2 (ja) 画像解析装置、画像解析方法、画像解析システム、画像解析プログラム、および記録媒体
JP6222584B2 (ja) 細胞ベースの組織解析
Olugbara et al. Segmentation of melanoma skin lesion using perceptual color difference saliency with morphological analysis
US9946953B2 (en) Apparatus and method for processing images of tissue samples
US9842391B2 (en) Method and apparatus for processing an image of a tissue sample
US10169641B2 (en) Apparatus and method for visualization of region of interest
JP6299594B2 (ja) 画像処理装置、画像処理方法、プログラムおよび画像処理システム
CN108629761B (zh) 一种乳腺癌图像识别方法、装置和用户终端
Ali et al. Towards the automatic detection of skin lesion shape asymmetry, color variegation and diameter in dermoscopic images
US10565706B2 (en) Method and apparatus for tissue recognition
US10671832B2 (en) Method and apparatus for tissue recognition
Casanova et al. Texture analysis using fractal descriptors estimated by the mutual interference of color channels
AU2013343577B2 (en) Skin image analysis
WO2020195258A1 (ja) 画像解析方法、画像解析プログラム、記録媒体、画像解析装置、画像解析システム
KR20180045473A (ko) 이미지 분석을 이용한 흑색종 검사 시스템, 방법 및 컴퓨터 프로그램
JP2006507579A (ja) 核多形性の組織学的評価
WO2017051195A1 (en) Pattern driven image processing method & apparatus for tissue recognition
Fernández-Carrobles et al. Frequential versus spatial colour textons for breast TMA classification
US20230005148A1 (en) Image analysis method, image analysis device, image analysis system, control program, and recording medium
Furizal et al. Analysis of the Influence of Number of Segments on Similarity Level in Wound Image Segmentation Using K-Means Clustering Algorithm
Sadeghi et al. Pigment network detection and analysis
GB2478133A (en) A method of Image classification based on duct and nuclei parameters
Kumar et al. Spectral Analysis for Diagnosing of Melanoma through Digital Image Processing
Bouzid-Daho et al. Etude Statistique de Bio-Images dans le but de Détecter les Cellules Sanguines Anormales
Primkhajeepong et al. Performance Evaluation of AutomatedAlgorithm for Breast Cancer Cell Counting

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16824377

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017528642

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 15743808

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2016824377

Country of ref document: EP