WO2019102829A1 - 画像解析方法、画像解析装置、画像解析システム、画像解析プログラム、記録媒体 - Google Patents

画像解析方法、画像解析装置、画像解析システム、画像解析プログラム、記録媒体 Download PDF

Info

Publication number
WO2019102829A1
WO2019102829A1 PCT/JP2018/040977 JP2018040977W WO2019102829A1 WO 2019102829 A1 WO2019102829 A1 WO 2019102829A1 JP 2018040977 W JP2018040977 W JP 2018040977W WO 2019102829 A1 WO2019102829 A1 WO 2019102829A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
image analysis
binarization
tissue
unit
Prior art date
Application number
PCT/JP2018/040977
Other languages
English (en)
French (fr)
Inventor
和昭 中根
瑞穂 西尾
Original Assignee
国立大学法人大阪大学
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 国立大学法人大阪大学 filed Critical 国立大学法人大阪大学
Priority to US16/766,333 priority Critical patent/US11321841B2/en
Priority to JP2019556166A priority patent/JP7264486B2/ja
Publication of WO2019102829A1 publication Critical patent/WO2019102829A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5294Devices using data or image processing specially adapted for radiation diagnosis involving using additional data, e.g. patient information, image labeling, acquisition parameters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30061Lung
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Definitions

  • the present invention relates to an image analysis method, an image analysis apparatus, and the like that analyze an image obtained by imaging a tissue and output information for evaluating the degree of change in the tissue.
  • Computed tomography is an indispensable technique in medical image diagnosis.
  • the lung is one of the organs in which image diagnosis using a CT image is mainly used.
  • a chest CT image obtained by imaging the chest of a subject is used.
  • COPD chronic obstructive pulmonary disease
  • one of the quantitative indexes used in diagnosis of a lesion such as COPD produced in the lung, emphysema, and lung cancer by image analysis of a chest CT image is LAA%.
  • a low absorption lung area where the X-ray absorptivity is low CT value is -950 HU or less
  • the proportion occupied by (low-attenuation lung area) is used as an index.
  • Pulmonary emphysema is a condition in which the alveoli expand, the alveolar wall that absorbs X-rays atrophy disappears, and the lungs expand continuously. Therefore, in the CT image of the lung, the area where emphysema has occurred is a darker area than the image of the normal lung.
  • LAA% is applied, for example, a lung region included in a chest CT image is extracted, and a CT value is binarized using -950 HU or the like as a threshold. Then, the ratio (%) of the number of pixels of the low absorption lung region (that is, the region where the pixel value is 0 as a result of binarization) to the total pixel number of the lung region is calculated. This ratio is known as a value that correlates with the severity of emphysema.
  • Radiologists and respiratory physicians who diagnose lung CT images point out that pulmonary emphysema is a risk factor for lung cancer.
  • LAA% As described in Non-Patent Documents 1 and 2, it is effective to apply LAA% as a quantitative index for detecting pulmonary emphysema.
  • LAA% often can not accurately assess the severity of emphysema. Therefore, it is pointed out that it is difficult to evaluate the risk of developing lung cancer based on the determination of the severity of pulmonary emphysema using LAA%.
  • One aspect of the present invention has been made to solve the above-mentioned problems, and its object is to accurately evaluate the degree of change in tissue like a doctor by analyzing the image of tissue. It is an object of the present invention to realize an image analysis method, an image analysis apparatus and the like for outputting information to be used.
  • an image analysis method is a method of analyzing a captured image obtained by capturing a tissue, and a plurality of binarization reference values are different from the captured image.
  • a first feature number indicating the number of connected areas formed by connecting pixels of one pixel value after binarization for each of the plurality of binarized images and a binarization step of generating a binarized image Relating to a change occurring in the tissue based on a result of comparing the first pattern indicating the relationship between the calculation step of calculating the reference value of the binarization and the number of the first features with a predetermined reference pattern. Determining the information.
  • an image analysis apparatus is an image analysis apparatus that analyzes a captured image obtained by capturing a tissue, and a plurality of binarized images different in reference value of binarization from the captured image.
  • a calculating unit configured to calculate a first number of features indicating the number of connected areas formed by connecting pixels of one pixel value after binarization for each of the plurality of binarized images to be generated;
  • a comparison unit that compares a first pattern indicating the relationship between the binarization reference value and the first feature number with a predetermined reference pattern, and a change that occurs in the tissue based on the result of the comparison.
  • a determination unit that determines information related to
  • An image analysis system acquires the image analysis device, an external device that transmits image data of the captured image to the image analysis device, and information determined by the image analysis device. And a presentation device for presenting the information.
  • the present invention by analyzing an image of a tissue, information for accurately evaluating the degree of change in the tissue can be output.
  • FIG.2 S1 It is a functional block diagram which shows the structural example of the image-analysis apparatus based on Embodiment 1 of this invention. It is a flow chart which shows an example of the flow of processing of the image analysis method concerning one mode of the present invention. It is a flowchart which shows an example of the process in FIG.2 S1. It is a figure which shows the example of the chest CT image used for learning. It is a figure which shows the example of the binarized image which cut out the CT image of the lung from the chest CT image, and was generate
  • Embodiment 1 Hereinafter, an embodiment of the present invention will be described in detail.
  • the object of the present invention is useful for accurately determining the presence or absence of a lesion produced in a tissue appearing in a captured image and the degree of possibility of canceration by analyzing the captured image obtained by imaging the tissue. It is to output information.
  • the inventor of the present invention examined computed tomography (CT) images obtained by imaging the chest of a subject, and compared and examined in detail the relationship between the severity of emphysema and the possibility of canceration. Specifically, a plurality of binarized images having different binarization reference values were generated with respect to a region of the chest CT image in which the lungs are captured. Then, according to the binarization reference value, the zero-dimensional bech number (b 0 , the first feature number) calculated for the lung CT image included in each image after binarization, and the one-dimensional vetch number (b 0 ) We examined how b 1 , the number of second features) changed.
  • CT computed tomography
  • the binarization reference value is set based on the CT value of each pixel. That is, the reference value for binarization is set in the range of CT value -1000 to -700 HU which is generally set in a chest CT image for lung imaging. For example, when the reference value for binarization is set to -900 HU, the pixel value of a pixel having a CT value of -900 HU or less is 0, and the pixel value of a pixel having a CT value higher than -900 is 1.
  • an image analysis apparatus 1 that outputs information useful for analyzing the X-ray CT image and determining the severity of pulmonary emphysema in the lung will be described as an example, but the analysis target of the present invention is Not limited to the lungs. Further, the present invention is not limited to X-ray CT images.
  • the image analysis apparatus 1 is applicable to any medical image, and, for example, (1) images such as liver and breast imaged in a roentgen (including mammography) examination, (2) Images of brain and pancreas imaged by MRI (magnetic resonance imaging, magnetic resonance imaging) examination, (3) PET (positron emission tomography), RI examination (also called isotope examination)
  • the present invention can also be suitably applied to analysis of an image to be captured.
  • ⁇ CT image of lung> For example, in a CT image of the lungs, a normal lung is displayed as a pale opalescent dark area with pale opalitis, whereas in a site suffering from emphysema, the alveolar wall is atrophic and disappears, and the dull black area It will be displayed as
  • alveolar destruction and fusion is initially detected as a low-absorbing lung area surrounded by normal lungs. Often there is no clear wall at the boundary between normal lung area and low absorption lung area, but in the early stages of emphysema, low absorption areas about 1 cm in diameter become scattered and become severe As the low absorption areas fuse and increase, normal lungs decrease.
  • LAA% calculates the percentage (%) of the low-attenuation lung area in the whole lung area in the CT image of the lung, and determines the severity of pulmonary emphysema based on this percentage.
  • the degree of severity is intended for the degree of change in the lung, and refers to the degree of progression of a lesion not present in a healthy lung.
  • a visual score divided into multiple stages is determined according to the severity of pulmonary emphysema occurring in the imaged lung It corresponds to a chest CT image as information.
  • ⁇ Mathematical expression for analyzing lung CT images> In order to quantify the changes that occurred in the tissue, the inventors of the present invention attempted to apply the concept of homology, in particular persistent homology. Homology is a field of mathematics that algebraically replaces the morphological properties of figures to facilitate analysis such as combining of figures. Among the concepts of homology, the inventors of the present invention focused on the use of 0-dimensional and 1-dimensional betches in a two-dimensional image.
  • the concept of homology is a mathematical concept representing the connection and contact of components.
  • an appropriate binarization reference value also referred to as a binarization parameter
  • the number of zero-dimensional betches per unit area and the number of one-dimensional betches are calculated.
  • the calculated 0-dimensional and 1-dimensional betches it is possible to evaluate the degree of connection between the components of the tissue and the degree of contact between the components.
  • the Vetch number is irrelevant to the shape of a figure (for example, a component of a tissue), and is a topological suggestion number related only to the contact and separation of the figures, and the q-dimensional singular homology group is finitely generated Then, this qth-order singular homology group is divided into a direct sum of a free abelian group and a finite abelian group.
  • the class of this free abelian group is called the Betti number.
  • the zero-dimensional vetch number is the number of connected components
  • the one-dimensional vetch number is a space (hereinafter, may be referred to as a “hole-shaped area”) surrounded by the connected components as an outer edge. It is a number.
  • the number of hole-shaped areas is thus the number of "holes" present in the connected component.
  • the zero-dimensional vetch number is mathematically defined as follows.
  • the number of connected components of a figure (also referred to as a one-dimensional complex) K formed by connecting a finite number of line segments is referred to as a zero-dimensional Betch number.
  • a figure in which a finite number of points are connected by a finite number of line segments is a connection means that it can be reached by tracing the edge of this figure from any vertex of this figure to any other vertex Do.
  • one pixel value after binarization (for example, the pixel value as a result of binarization)
  • the number of connected areas formed by connecting pixels of 0) is a zero-dimensional vetch number. Therefore, it can be said that the zero-dimensional vetch number corresponds to the number of low absorption lung regions in the CT image of the lung.
  • the one-dimensional vetch number is mathematically defined as follows. If the following conditions (1) and (2) are satisfied, the one-dimensional vetch number of the figure K is r. (1) For a figure (connected one-dimensional complex) K formed by connecting a finite number of line segments, appropriate r open (one-sided) single-dimensional simplex (for example, line segments) Is removed from the figure K, the number of connected components of the figure K does not increase. (2) If an arbitrary (r + 1) open one-dimensional simple substance is removed from K, K is not connected (that is, the number of connected components of K increases by one).
  • one pixel value after binarization (for example, the pixel value as a result of binarization)
  • the number of hole-shaped areas surrounded by pixels of 0) is a one-dimensional vetch number. Therefore, it can be said that the one-dimensional vetch number corresponds to the number of normal lung areas surrounded by the low absorption lung area in the CT image of the lung.
  • an image analysis method is a method of analyzing a captured image obtained by capturing an image of a subject, and determining and outputting information about a change that has occurred in a tissue being captured.
  • An outline of an image analysis method according to an aspect of the present invention will be described with reference to FIG.
  • FIG. 2 is a flowchart showing an example of the flow of processing in the image analysis method according to an aspect of the present invention.
  • a process performed by the image analysis device 1 that analyzes a chest CT image of a subject and outputs information on the degree of severity such as pulmonary emphysema etc. will be described as an example.
  • the structure which calculates a zero-dimensional bet number and a one-dimensional bet number is demonstrated below, the structure which calculates and utilizes any one may be sufficient.
  • the characteristics of the change occurring in the tissue are various and the features appearing in the captured image are also various, it is desirable to calculate the zero-dimensional and the one-dimensional betches. This is because, in addition to detecting changes in tissue as changes in the number of connected regions in a captured image, a configuration that detects as changes in the number of hole shapes also determines a more accurate prediction score. Because you can do it.
  • step S1 machine learning using a chest CT image obtained by imaging a subject examined in the past by a doctor etc., wherein the severity of emphysema and the risk for progression to lung cancer have already been evaluated by a doctor etc. Is performed (step S1).
  • step S1 a chest CT image obtained by imaging a subject examined in the past is analyzed in the same manner as the analysis performed on the CT image to be analyzed in step S3. Then, the correlation between the feature value obtained by analyzing the lung CT image and the visual score already determined is learned.
  • the feature amount is a numerical value indicating a change in the 0-dimensional betches number and the 1-dimensional betches number according to the binarization reference value for a CT image, an increase / decrease pattern represented in a graph plotting the change, and It may be a coefficient value of a function that approximately expresses the graph.
  • the visual score of pulmonary emphysema is determined as the prediction score
  • the scope of application of the present invention is not limited to the determination of the visual score.
  • Any indicator of clinical significance includes, for example, risk of canceration, severity of cancer (eg, staging such as TNM staging), and prognosis of cancer.
  • the image analysis apparatus 1 can analyze the image of the subject and output information on any clinically relevant index.
  • the “predicted score” is an index (score) that follows a visual score determined by a doctor, and is obtained as a result of analyzing a lung CT image, the severity of emphysema and progression to lung cancer Available score for risk assessment.
  • the detailed process of step S1 will be described later by taking a specific example (see FIG. 3).
  • a chest CT image of the subject is input (step S2).
  • step S3 the input chest CT image is analyzed to determine the severity of emphysema and a predictive score that can be used for risk assessment for progression to lung cancer.
  • the detailed process of step S3 will be described later by taking a specific example (see FIG. 7).
  • step S4 the predicted score determined in step S3 is output (step S4).
  • the aspect which outputs a prediction score should just be shown to the user who desires utilization of a prediction score, and is not specifically limited. For example, it may be displayed on the display device 5, or may be output from a printer (not shown) or a speaker (not shown).
  • FIG. 1 is a block diagram showing an example of the configuration of an image analysis apparatus 1 according to a first embodiment of the present invention.
  • the flow of data related to step S1 in FIG. 2 is indicated by a broken line
  • the flow of data related to steps S2 to S4 in FIG. 2 is indicated by a solid line.
  • the image analysis device 1 includes an image acquisition unit 2 (reception unit), a storage unit 3, and a control unit 4. At least a CT image 31 and a reference pattern 32 are stored in the storage unit 3.
  • the image analysis device 1 may be configured to incorporate the display device 5 (presentation unit), or may be configured to be connected to a plurality of display devices 5 wirelessly / wiredly.
  • the image acquisition unit 2 acquires a captured image (hereinafter referred to as a CT image) obtained by imaging a tissue from the external device 8, and stores the acquired CT image in the storage unit 3. Alternatively, the image acquisition unit 2 may output the acquired CT image to the binarization unit 41.
  • the external device 8 is, for example, a personal computer connected to a CT apparatus, a storage device capable of storing image data, or the like.
  • the CT image is a CT image obtained by imaging the chest of the subject with an appropriate contrast.
  • the contrast of the CT image may be appropriately set according to the X-ray absorptivity of the tissue to be analyzed.
  • the image acquisition unit 2 acquires at least three chest CT images including the upper, middle, and lower cross sections of the lung as one set. It is desirable to do.
  • the image acquisition unit 2 acquires a combination of a CT image and a visual score thereof, which is determined by a doctor and whose visual score related to tissue is associated beforehand as finalization information, and stores the combination in the storage unit 3.
  • the CT image to which the visual score (determination information) is associated in advance is used as learning data input in the machine learning of the prediction score determination unit 44.
  • the storage unit 3 performs (1) control program of each unit (2) OS program, which the control unit 4 executes. (3) Application programs, and (4) Various data read out when these programs are executed are recorded.
  • the storage unit 3 is configured of a non-volatile storage device such as a hard disk or a flash memory.
  • the storage device is used as a work area for temporarily holding data in the process of executing the various programs described above, and volatile storage such as RAM (Random Access Memory) A device may be provided.
  • the display device 5 is a display device that displays output information and the like output from the control unit 4 and is, for example, a liquid crystal display.
  • the image analysis device 1 may be configured to include the dedicated display device 5.
  • the touch sensor may be superimposed on the display screen of the display device 5, and the display device 5 may detect a touch operation on the display surface by the user.
  • the control unit 4 analyzes the CT image acquired by the image acquisition unit 2 to output information indicating the severity of COPD such as pulmonary emphysema included in the CT image.
  • the control unit 4 further includes a binarization unit 41 (binarization unit, area extraction unit), a bech number calculation unit 42 (calculation unit), a pattern identification unit 43, and a prediction score determination unit 44 (comparison unit, determination unit). , A display control unit 45, and a learning control unit 46.
  • the binarization unit 41 cuts out (extracts) a region corresponding to the lung of the subject from the chest CT image acquired by the image acquisition unit 2 as a CT image of the lung, and performs two extractions on the extracted CT image of the lung Perform the digitization process. That is, the binarization unit 41 also has a function as a region extraction unit (not shown). The region corresponding to the lungs of the subject can be extracted from the chest CT image using a known image processing method that utilizes the low X-ray absorption rate of the lungs. In addition, a region extraction unit that cuts out a region corresponding to the lung of the subject as a lung CT image and outputs the cut CT image of the lung to the binarization unit 41 separately from the binarization unit 41 It is also good.
  • FIG. 1 illustrates the configuration in which the binarization unit 41 retrieves a chest CT image from the storage unit 3, the configuration is not limited thereto.
  • the chest CT image to be an analysis target acquired by the image acquisition unit 2 may be output to the binarization unit 41 without being stored in the storage unit 3.
  • the binarization unit 41 converts pixels having a CT value larger than the binarization reference value into white pixels, and blacks pixels having a CT value smaller than the binarization reference value. Convert to the pixel of.
  • the binarization unit 41 performs binarization processing on one CT image obtained by imaging the lung each time the binarization reference value is changed, and generates a plurality of binarized images. That is, the binarization unit 41 generates a plurality of binarized images with different reference values of binarization for the CT image of the lung.
  • pixels having a pixel value after binarization of 0 are connected to each other for the plurality of binarized images generated by the binarization unit 41.
  • the number of hole-shaped areas surrounded by pixels whose pixel value after binarization is 0 is calculated. That is, the betch number calculation unit 42 calculates the number of zero-dimensional betches and the number of one-dimensional betches for images of tissues included in the plurality of binarized images.
  • connection area is an area where pixels having a pixel value of 0 are adjacently gathered. Each connected region is surrounded by pixels whose pixel value is 1 and is independent of each other.
  • the hole is an opening having at least a portion of the outer edge of one or more components (in the case of one component, the entire outer edge of that component) as its outer edge.
  • the hole surrounded by the outer edge of the component includes the hole which one component has inside and the hole which is surrounded by the outer edge which each has a plurality of components connected to each other.
  • An existing program may be used as the Vetch number calculation unit 42.
  • One example of such a program is CHomP.
  • CHomP is freeware compliant with GNU (General Public License) and can be downloaded from the homepage (http://chomp.rutgers.edu/).
  • GNU General Public License
  • the program is not limited to this, and any program other than CHomP may be used as long as it is a program that can calculate the 0-dimensional betches and the 1-dimensional bets of an image.
  • the pattern specifying unit 43 selects a pattern of change in the zero-dimensional vetch number (first pattern) according to the reference value for binarization, and a pattern of change in the one-dimensional vetch number according to the reference value for binarization (second pattern Identify at least one of the patterns). For example, the pattern specifying unit 43 sets at least the number of zero-dimensional betches and the number of one-dimensional vetch numbers calculated in the binarized image generated by setting the binarization reference value with respect to the binarization reference value. Generate a graph that plots either. In this case, the graph generated for the change in the zero-dimensional vetch number is the first pattern, and the graph generated for the change in the one-dimensional vetch number is the second pattern.
  • the pattern specifying unit 43 may specify a function that approximately indicates changes in the 0-dimensional betches and the 1-dimensional bets in accordance with the change in the binarization reference value.
  • the pattern identification unit 43 may output the coefficient or the like of the identified function as a change pattern of the 0-dimensional betches and the 1-dimensional betches.
  • a function that approximately indicates changes in the 0-dimensional vetch number and the 1-dimensional vetch number
  • a function that can be expressed by any relational expression may be used as a function (approximate function) that approximately indicates changes in the 0-dimensional vetch number and the 1-dimensional vetch number.
  • n ( 1) including linear approximation and log approximation
  • exponential function power approximation
  • trigonometric function and the like.
  • the prediction score determination unit 44 compares the first pattern identified by the pattern identification unit 43 with the reference pattern 32 stored in the storage unit 3 and determines information on a change occurring in the lung based on the comparison result. Do.
  • the reference pattern 32 is a feature amount generated by the pattern generation unit by analyzing, for each visual score, a chest CT image that has been examined by a doctor or the like in the past and for which the visual score has already been determined. It is.
  • the reference pattern 32 is generated by learning in step S1 of FIG.
  • the reference pattern 32 is a graph in which changes in the 0-dimensional betches and the 1-dimensional bets according to the reference values for binarization generated by the pattern specification unit 43 are plotted.
  • the reference pattern 32 may be generated at each step if the visual score is divided into a plurality of steps.
  • the prediction score determination unit 44 compares the first pattern identified by the pattern identification unit 43 with the reference pattern 32 generated at each stage of the visual score, and predicts the same score as the reference pattern 32 that is most similar. Determined as a score.
  • FIG. 3 is a flow chart showing an example of the flow of processing in the learning step S1.
  • the image acquisition unit 2 acquires, from the external device 8, a chest CT image in which a diagnosis result such as a visual score is determined (step S11).
  • the image acquisition unit 2 stores the acquired chest CT image in the storage unit 3.
  • FIG. 4 shows an example of a chest CT image used for learning.
  • the learning control unit 46 selects one chest CT image from the CT image 31 and sends it to the binarization unit 41.
  • the chest CT image is associated with a predetermined visual score.
  • the binarization unit 41 cuts out (extracts) a CT image of the lung corresponding to the lung (step S12: extraction step). Furthermore, the binarization unit 41 generates a plurality of binarized images from the lung CT images while changing the reference value of the binarization for the lung CT images (step S13).
  • FIG. 5 is a diagram showing an example of a binarized image generated by cutting out a lung CT image from a chest CT image and using different binarization reference values. Note that FIG. 5 shows an image in which white and black are reversed in order to clearly show the lung region.
  • (A) of FIG. 5 is the same as the chest CT image shown in (C) of FIG. 4, and (B) to (E) show the reference value of binarization from the image of (A).
  • An example of a binarized image generated when setting to 975HU to -900HU is shown.
  • the betch number calculation unit 42 calculates a zero-dimensional betches number (b 0 ) and a one-dimensional betches number (b 1 ) for each binarized image (step S14).
  • the pattern specifying unit 43 generates a graph indicating the relationship between the binarization reference value and the 0-dimensional betches number, and a graph indicating the relationship between the binarization reference values and the one-dimensional betches number (step S15). ). That is, a graph showing a change in the value of the zero-dimensional Betch number with respect to a change in the reference value of the binarization, and a graph showing a change in the value of the one-dimensional Betch number with respect to the change in the reference value of the binarization.
  • FIG. 6 is a graph plotting how the 0-dimensional betches and the 1-dimensional betches change with respect to the binarization reference value.
  • the horizontal axis plots the CT value (HU) with the binarization reference value (that is, the value set as the binarization threshold value), and the vertical axis plots the zero-dimensional vetch number Is a graph.
  • all the graphs shown on the right side of FIG. 6 are graphs in which a horizontal axis is plotted with a CT value (HU) as a binarization reference value, and a vertical axis is plotted with a one-dimensional vetch number.
  • 6A to 6C are graphs respectively generated for binarized images generated from the chest CT images shown in FIGS. 4A to 4C.
  • the value obtained by normalizing the value of the zero-dimensional vetch number or the one-dimensional vetch number with the total number of pixels in the lung region is plotted on the vertical axis, but it is not limited thereto.
  • normalization is not an essential process. The inventor of the present invention has confirmed that it is possible to improve the prediction accuracy by intentionally not performing normalization in learning.
  • the learning control unit 46 acquires the graph generated from the pattern specifying unit 43 and sends it to the prediction score determination unit 44 together with the diagnosis result (for example, the visual score) associated with the chest CT image.
  • the learning control unit 46 causes the prediction score determination unit 44 to perform learning with the graph as an input variable and the visual score as a target variable (step S16).
  • any algorithm for machine learning can be applied as this learning algorithm.
  • An example of such an algorithm is "random forest".
  • the pattern of change in the value of the zero-dimensional vetch number or the one-dimensional vetch number according to the reference value of binarization is pulmonary emphysema It depends on the degree of severity. For example, looking at the binarization reference value giving the maximum value of the graph of the 0-dimensional vetch number, it can be understood that the tendency of pulmonary emphysema tends to decrease as the emphysema becomes severe. On the other hand, looking at the peak width of the graph, it can be seen that the emphysema tends to become wider as the emphysema gets worse.
  • the learning control unit 46 causes the prediction score determination unit 44 to perform learning with the feature of such a graph as an input variable and the visual score as a target variable.
  • the learning control unit 46 repeats steps S12 to S16 until all of the CT images 31 stored for learning are selected (step S17).
  • the learning control unit 46 sets the graph generated by the pattern specification unit 43 as a graph of the reference pattern, and sets the reference pattern 32 for each visual score. Store.
  • FIG. 7 is a flowchart illustrating an example of a process flow of determining a prediction score from a chest CT image to be analyzed.
  • step S31 the binarization unit 41 acquires one chest CT image from the storage unit 3 and cuts out a CT image of the lung corresponding to the lung of the subject (step S31). Furthermore, the binarization unit 41 generates a plurality of binarized images from the lung CT image while changing the reference value of the binarization with respect to the lung CT image (step S32: binarization step) ).
  • the betch number calculation unit 42 calculates a zero-dimensional betches number (b 0 ) and a one-dimensional betches number (b 1 ) for each binarized image (step S33: calculating step).
  • the pattern specifying unit 43 generates a graph in which the 0-dimensional betches and the 1-dimensional betches change in accordance with the reference value for binarization (step S34).
  • the prediction score determination unit 44 compares the graph generated by the pattern specification unit 43 with the graph of the reference pattern 32 obtained by learning in advance and plotting how the 0-dimensional betches number and the 1-dimensional betches change. The prediction score is determined based on the comparison result.
  • the prediction score determination unit 44 compares the graph of the reference pattern 32 giving the maximum value of the graph, the peak width, the presence or absence of the inflection point, etc. with the graph of the reference pattern 32, for example.
  • the visual score associated with the graph of the similar reference pattern 32 is determined as the prediction score (step S35: determination step).
  • a doctor or the like determines the presence and severity of a disease such as pulmonary emphysema based on a captured image (for example, a CT image) obtained by imaging a lung, for example, features such as the following (1) and (2) It is used as (1) In mild emphysema, there are scattered low absorption areas about 1 cm in diameter. (2) In severe emphysema, areas of low absorption fuse and increase while areas of normal lung decrease.
  • FIGS. 2 and 7 allow accurate determination of information regarding the presence or absence and degree of change in tissue. For example, by presenting the determined information to a doctor, it is possible to appropriately support the determination of the presence or absence and degree of change in the tissue.
  • FIG. 8 is a block diagram showing an example of the configuration of an image analysis apparatus 1a according to a second embodiment of the present invention.
  • the image analysis device 1 a differs from the image analysis device 1 in that the image analysis device 1 a includes the communication unit 6.
  • the communication unit 6 acquires, from the prediction score determination unit 44, the prediction score determined based on the analysis result of the captured image indicated by the image data received from the external device 8 and transmits the prediction score to the presentation device 7.
  • the number of external devices 8 and presentation devices 7 is not limited to one, and may be more than one.
  • FIG. 9 is a schematic view showing a configuration example of the image analysis systems 100 and 100a including the image analysis device 1a according to the present invention.
  • a of FIG. 9 shows an example in which the external device 8 and the presentation device 7 are installed at a distance
  • (b) shows an example in which the presentation device 7 is connected to the external device 8a. It shows.
  • the image analysis system 100 includes an external device 8, an image analysis device 1 a, and a presentation device 7.
  • the external device 8, the image analysis device 1a, and the presentation device 7 are connected to an information communication network 50 such as the Internet, and can mutually transmit and receive data.
  • the external device 8 may be, for example, a personal computer connected to a CT apparatus, or may be a server (electronic medical record server, CT image data server, etc.) that collects and manages images obtained by imaging tissue. .
  • the presentation device 7 may be any device having a function of presenting the result of image analysis to the user.
  • the presentation device 7 is a display device provided with a display.
  • the presentation device 7 may be a communication terminal device such as a tablet terminal carried by a medical person or the like.
  • Image data of a captured image obtained by imaging a tissue is transmitted from the external device 8 to the image analysis device 1a.
  • the image analysis device 1a that has received the image data analyzes the image, and transmits the prediction score determined by the prediction score determination unit 44 to the presentation device 7 via the communication unit 6.
  • the image analysis system 100a includes an external device 8a, an image analysis device 1a, and a presentation device 7.
  • the external device 8a and the image analysis device 1a are connected to an information communication network 50 such as the Internet, and can mutually transmit and receive data.
  • the presentation device 7 is connected to the external device 8a.
  • the image analysis device 1a can receive an image captured at a remote place from the external device 8 or 8a, perform image analysis, and transmit a prediction score that is an analysis result to the presentation device 7.
  • the prediction score may be transmitted to the presentation device 7 in association with the CT image subjected to analysis.
  • the presentation device 7 may be a device connected to the external device 8 a or a device independent of the image analysis device 1 a and the external device 8.
  • the image analysis systems 100 and 100a can receive the captured image from the remote device 8 and 8a, can analyze the image, and the captured image and the determined information Can be presented to remote users. Therefore, it is possible to provide highly accurate image diagnosis results even to remote users who are absent or lacking a doctor.
  • control block (particularly, the control unit 4) of the image analysis device 1, 1a may be realized by a logic circuit (hardware) formed in an integrated circuit (IC chip) or the like, or may be realized by software.
  • the image analysis device 1 or 1a includes a computer that executes instructions of a program that is software that implements each function.
  • the computer includes, for example, one or more processors, and a computer readable recording medium storing the program.
  • the processor reads the program from the recording medium and executes the program to achieve the object of the present invention.
  • a CPU Central Processing Unit
  • the above-mentioned recording medium a tape, a disk, a card, a semiconductor memory, a programmable logic circuit or the like can be used besides “a non-temporary tangible medium”, for example, a ROM (Read Only Memory).
  • a RAM Random Access Memory
  • the program may be supplied to the computer via any transmission medium (communication network, broadcast wave, etc.) capable of transmitting the program.
  • any transmission medium communication network, broadcast wave, etc.
  • one aspect of the present invention can also be realized in the form of a data signal embedded in a carrier wave in which the program is embodied by electronic transmission.
  • FIG. 10 compares the accuracy when a patient suffering from lung cancer is evaluated by applying the image analysis method according to an aspect of the present invention to a chest CT image with the accuracy of a prediction method to which another index is applied. Table.
  • the prediction methods compared in FIG. 10 are four types of methods: (1) method using the Brinkman index, (2) lung area, (3) LAA%, and (4) image analysis method according to the present invention .
  • the Brinkman index is also called a smoking index, and is an index that digitizes the patient's smoking history and the like.
  • CT value -950 HU
  • CT value -910 HU
  • the image analysis method according to the present invention is not based on the pattern of change in the number of 0-dimensional betches according to the reference value for binarization and the pattern of change in the number of 1-dimensional betches, but based on a predetermined binarization
  • the values of the zero-dimensional betches and the one-dimensional betches in the binarized image generated by the values may be adopted as the index.
  • FIG. 10 shows the result of predicting the presence or absence of lung cancer using a single index.
  • predictor variable such as age, gender, and Brinkman index (see FIG. 11).
  • FIG. 11 shows the result of a case where the risk of lung cancer is evaluated by combining a plurality of indices.
  • FIG. 11 shows (1) a prediction model using a basic index such as age, sex and smoking history (Brinkman index), (2) a prediction model using LAA% as an index in addition to the basic index, and (3 2.) It is a table showing the results of comparing the prediction accuracy of lung cancer in a prediction model using the vetch number as an index in addition to the basic index.
  • a basic index such as age, sex and smoking history (Brinkman index)
  • LAA% as an index in addition to the basic index
  • the prediction model using LAA% as an index did not improve the accuracy of the risk assessment of lung cancer.
  • AIC Akaike Information Criterion
  • the difference in AIC is about 1.5 to 2, it is considered to be a statistically significant difference.
  • the AIC of the prediction model using only the basic index was 785.9.
  • the AIC of the prediction model using LAA% as an index in addition to the basic index was 786.2, and no effect was seen when LAA% was added to the index.
  • the AIC in the case of using a one-dimensional Betti number b 1 as an index in addition to the indicators of the base is 779.8, it was 6.1 lower than the case of using only an indication of the base.
  • a prediction model using a one-dimensional vetch number b 1 as an index has a lower AIC compared to other prediction models compared, and it is used as a prediction model for risk assessment of lung cancer. It was shown to be the most accurate forecasting model.
  • An image analysis method is a method of analyzing a captured image obtained by capturing a tissue, and generating a plurality of binarized images having different reference values of binarization from the captured image.
  • a plurality of binarized images having different binarization reference values are generated from the captured image obtained by imaging the object, and the pixels of one pixel value after binarization are connected. Based on a comparison between a first pattern indicating the relationship between the number of connected regions and the binarization reference value and a predetermined reference pattern, information on a change occurring in the tissue is determined.
  • the “connected area” is a connected component in a captured image that is a two-dimensional plane.
  • a process of calculating the number of connected areas a process of obtaining a zero-dimensional bech number as the first feature number may be performed for each of the plurality of binarized images. It is to be noted that a program for calculating the Vetch number from an image is known, and an apparatus that executes the program may be used as the calculation unit.
  • tissue refers to a structural unit in which one or more types of components are gathered in a certain pattern, and includes an organ that is a living tissue composed of a collection of cells and the like.
  • the change in the tissue utilizes the presence or absence and the degree of a finding different from that of normal tissue.
  • imaging diagnosis is automated, it is important how to accurately detect and quantify features that are key to evaluating the degree of change in tissue.
  • a doctor or the like determines the presence or absence and severity of a disease such as pulmonary emphysema based on a captured image (for example, a CT image) obtained by imaging the lung, for example, features such as the following (1) and (2) It is assumed. (1) In mild emphysema, there are scattered low absorption areas about 1 cm in diameter. (2) In severe emphysema, areas of low absorption fuse and increase while areas of normal lung decrease.
  • the inventor of the present invention detects and quantifies the features indicated by the change produced in the tissue such as (1) and (2) from the tissue image by applying the above-described method, and the degree of the change is highly accurate. It was found that it could be evaluated.
  • a second feature indicating the number of hole-shaped areas consisting of pixels of the other pixel value surrounded by pixels of the one pixel value for each of the plurality of binarized images generated in the binarization step Calculating the number, and in the determination step, comparing the second pattern in which the second feature number changes with the change in the binarization reference value, to the tissue based on the result of comparison with a predetermined reference pattern Information about the changes that occurred may be determined.
  • the characteristics of the change that has occurred in the tissue vary, and the features that appear in the captured image also vary. Therefore, it may be more appropriate to detect a change in tissue as a change in the number of hole shapes than to detect a change in the number of connected regions in a captured image.
  • a plurality of binarized images having different binarization reference values are generated from the captured image obtained by imaging the object, and the image is surrounded by pixels of one pixel value after binarization. Based on the comparison between the change pattern of the number of hole-shaped areas and the predetermined reference pattern, information on the change occurring in the tissue is determined. This makes it possible to detect and quantify various changes occurring in the tissue with high accuracy in a two-dimensional planar image. Therefore, the change which arose in various tissues can be applied to the imaged image which imaged.
  • the “hole-shaped area” is a space (hole) in a captured image that is a two-dimensional plane.
  • a process of calculating the number of hole-shaped areas a process of obtaining a one-dimensional bech number as the second feature number may be performed on each of the plurality of binarized images.
  • a program for calculating the vetch number from an image is known as described above, and an apparatus that executes the program may be used as the calculation unit.
  • the machined image is acquired by acquiring the captured image in which definite information on a change occurring in the tissue is associated in advance, and learning data including a combination of the first pattern of the imaged image and the definite information.
  • the method may further include a learning step (S1) of generating the reference pattern.
  • “Confirmed information” is information related to a change that has occurred in a tissue, which has been evaluated and determined in advance by a doctor, and is information that indicates, for example, the presence or absence and the severity of a disease that has occurred in the tissue.
  • learning is performed on the correlation between the first pattern of the captured image and the determination information in which the determination information on the tissue is associated in advance. This makes it possible to determine information related to a change in tissue from the first pattern of the captured image to be analyzed, in accordance with the learned correlation.
  • the determination information includes information on a plurality of stages according to the degree of change occurring in the tissue, the reference pattern is generated for each stage, and the change occurring in the tissue is determined in the determining step. It may be determined which of the above steps corresponds to.
  • the method may further include an extraction step of extracting an area corresponding to a tissue to be analyzed from the captured image.
  • An image obtained by imaging a tissue may also include a region corresponding to a site not to be analyzed.
  • An image analysis apparatus (1, 1a) is an image analysis apparatus that analyzes a captured image obtained by capturing a tissue, and a plurality of binary values having different reference values of binarization from the captured image.
  • a first feature number indicating the number of connected areas formed by connecting pixels of one pixel value after binarization for each of a plurality of binarized images, and a binarization unit (41) that generates a binarized image Calculating unit (Betch number calculating unit 42) for calculating the first pattern, and comparing unit for comparing the first pattern indicating the relationship between the reference value of the binarization and the first feature number with a predetermined reference pattern (pattern identification And a determination unit (prediction score determination unit 44) configured to determine information related to a change occurring in the tissue based on a result of the comparison.
  • the same effect as the above method can be obtained that the information regarding the presence or absence and the degree of the change can be accurately determined based on the feature matching the characteristic of the change generated in the tissue.
  • the calculation unit is configured to calculate, for each of the plurality of binarized images generated by the binarization unit, the number of hole-shaped areas including pixels of the other pixel value surrounded by the pixels of the one pixel value. Calculating the second feature number indicating the second feature, and the comparison unit compares the second pattern in which the second feature number changes with the predetermined reference pattern according to the change in the binarization reference value, and the determination is made.
  • the unit may be configured to determine information on a change that has occurred in the tissue based on a comparison result.
  • the present invention can be applied to captured images obtained by capturing various tissues.
  • the machined image is acquired by acquiring the captured image in which definite information on a change occurring in the tissue is associated in advance, and learning data including a combination of the first pattern of the imaged image and the definite information.
  • the information processing apparatus may further include a learning control unit (46) that causes the comparison unit to generate the reference pattern.
  • learning is performed on the correlation between the first pattern of the captured image and the determination information in which the determination information on the tissue is associated in advance. This makes it possible to determine information related to a change in tissue from the first pattern of the captured image to be analyzed, in accordance with the learned correlation.
  • the determination information includes information for dividing the degree of change in the tissue into a plurality of steps, the reference pattern is generated for each of the steps, and the determination unit determines the change in the tissue. It may be configured to determine which of the above steps corresponds to.
  • the degree of change in the tissue can be determined from the first pattern of the captured image to be analyzed.
  • the configuration may further include a region extraction unit (binarization unit 41) that extracts a region corresponding to a tissue to be analyzed from the captured image.
  • a region extraction unit binarization unit 41
  • An image analysis system (100, 100a) includes the image analysis device (1, 1a), and an external device (8, 8a) that transmits image data of the captured image to the image analysis device. And a presentation device (7) for acquiring the information determined in the image analysis device and presenting the information.
  • a captured image captured using an external device at a remote location can be received, the image can be analyzed, and the captured image and the determined information can be presented to the user at the remote location.
  • the image analysis device may be realized by a computer.
  • the computer is operated as each unit (software element) included in the image analysis device, and the image analysis device is transmitted to the computer
  • An image analysis program to be realized and a computer readable recording medium recording the same also fall within the scope of the present invention.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Biophysics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Physiology (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Analysis (AREA)

Abstract

組織に生じた変化の程度を精度良く評価する。組織を撮像した1つの撮像画像に対して、二値化の基準値が異なる複数の二値化画像を生成し、複数の二値化画像のそれぞれについて、二値化後の一方の画素値の画素が連結して成る連結領域の数を示す第1特徴数を算出するベッチ数算出部(42)と、二値化の基準値と第1特徴数との関係性を示すパターンを所定の基準パターンと比較した結果に基づいて、組織に生じた変化に関する情報を決定する予測スコア決定部(44)とを備える。

Description

画像解析方法、画像解析装置、画像解析システム、画像解析プログラム、記録媒体
 本発明は組織を撮像した画像を解析して、組織に生じた変化の程度を評価するための情報を出力する画像解析方法および画像解析装置等に関する。
 CT(computed tomography)は、医療画像診断において必要不可欠な技術である。CT画像を用いた画像診断が主に用いられている臓器の一つとして肺が挙げられる。肺に生じた疾患を診断する場合、被検体の胸部を撮像した胸部CT画像が用いられる。
 従来、医師などが視覚的に診断を行っていたが、近年では、胸部CT画像を解析した結果に基づいた診断が行われている。例えば、肺のCT画像のスクリーニングは、慢性閉塞性肺疾患(Chronic obstructive pulmonary disease (COPD)、以後、「COPD」と略記する)などを早期に発見・診断し、治療を行うことを可能にしており、日本のみならず世界全体において健康寿命を維持する上で重要な技術である。
 例えば、胸部CT画像の画像解析によって肺に生じたCOPD、肺気腫、および肺癌などの病変について診断する場合に用いられている定量指標の1つにLAA%が挙げられる。LAA%を用いた画像診断では、胸部CT画像に含まれる肺の上部、中部、および下部の3領域において、X線の吸収率が低い(CT値が-950HU以下)領域である低吸収肺領域(low-attenuation lung area)が占める割合が指標として用いられる。
 肺気腫は、肺胞が拡大して、X線を吸収する肺胞壁が萎縮消失し、肺が持続的に拡張する状態である。そのため、肺のCT画像において、肺気腫が生じた領域は正常な肺の画像に比べてより黒い領域となる。LAA%を適用する場合、例えば、胸部CT画像に含まれる肺の領域が抽出され、CT値が-950HUなどを閾値として二値化される。そして、肺の領域の総画素数に占める低吸収肺領域(すなわち、二値化の結果、画素値が0の領域)のピクセル数の割合(%)を算出する。この割合は、肺気腫の重症度に相関性が認められる値として知られている。
 肺のCT画像を診断する放射線医および呼吸器内科医などは、肺気腫が肺癌のリスク要因であることを指摘している。非特許文献1および2に記載されているように、肺気腫検出のための定量指標としてLAA%を適用することは有効である。しかし、LAA%は肺気腫の重症度を正確に評価できていない場合も多い。それゆえ、LAA%を用いた肺気腫の重症度判定に基づいて肺癌に進行するリスクを評価することは難しい、との指摘がなされている。
Smith BM et al., 「Emphysema detected on computed tomographyand risk of lung cancer: a systematic review and meta-analysis」 Lung Cancer, Vol.77(1), p58-63, 2012 Wille MMW et al., 「Visual assessment of early emphysema andinterstitial abnormalities on CT is useful in lung cancer risk analysis」 Eur Radiol. Vol.26(2), p487-494, 2016
 医師が肺のCT画像を視覚的に診断して肺気腫から肺癌へ進行するリスクを評価できるのと同様に、肺気腫から肺癌に進行するリスクを評価することが可能な画像解析技術が求められている。
 一般に、画像診断では、多くの場合、癌化のリスクに関する評価が重要である。そのため、画像解析技術としては、組織に生じた病変について構造上の特性を捉えて、その病変がさらに重症度の疾患へと進行する可能性を判定するための情報を提供することが重要である。肺気腫から肺癌に進行するリスクを評価する場合に限らず、さまざまな臓器および組織においても同様である。
 本発明の一態様は、上記の問題点を解決するためになされたものであり、その目的は、組織の画像を解析することにより、組織に生じた変化の程度を医師のように精度良く評価するための情報を出力する画像解析方法および画像解析装置等を実現することを目的とする。
 上記の課題を解決するために、本発明の一態様に係る画像解析方法は、組織を撮像した撮像画像を解析する方法であって、前記撮像画像から、二値化の基準値が異なる複数の二値化画像を生成する二値化ステップと、複数の前記二値化画像のそれぞれについて、二値化後の一方の画素値の画素が連結して成る連結領域の数を示す第1特徴数を算出する算出ステップと、前記二値化の基準値と前記第1特徴数との関係性を示す第1パターンを、所定の基準パターンと比較した結果に基づいて、前記組織に生じた変化に関する情報を決定する決定ステップと、を含む。
 また、本発明の一態様に係る画像解析装置は、組織を撮像した撮像画像を解析する画像解析装置であって、前記撮像画像から、二値化の基準値が異なる複数の二値化画像を生成する二値化部と、複数の二値化画像のそれぞれについて、二値化後の一方の画素値の画素が連結して成る連結領域の数を示す第1特徴数を算出する算出部と、前記二値化の基準値と前記第1特徴数との関係性を示す第1パターンを、所定の基準パターンと比較する比較部と、前記比較の結果に基づいて、前記組織に生じた変化に関する情報を決定する決定部と、を備える。
 また、本発明の一態様に係る画像解析システムは、前記の画像解析装置と、前記撮像画像の画像データを前記画像解析装置へ送信する外部機器と、前記画像解析装置において決定された情報を取得して該情報を提示する提示装置と、を含む。
 本発明の一態様によれば、組織の画像を解析することにより、組織に生じた変化の程度を精度良く評価するための情報を出力することができる。
本発明の実施形態1に係る画像解析装置の構成例を示す機能ブロック図である。 本発明の一態様に係る画像解析方法の処理の流れの一例を示すフローチャートである。 図2のステップS1における処理の一例を示すフローチャートである。 学習に用いる胸部CT画像の例を示す図である。 胸部CT画像から肺のCT画像を切り出して、異なる二値化の基準値を用いて生成された二値化画像の例を示す図である。 二値化の基準値に対して、0次元ベッチ数および1次元ベッチ数が変化する様子をプロットしたグラフである。 解析対象の胸部CT画像から予測スコアを決定する処理の流れの一例を示すフローチャートである。 本発明の実施形態2に係る画像解析装置の構成例を示す機能ブロック図である。 本発明に係る画像解析装置を含む画像解析システムの概略構成の例を示す図である。 本発明の一態様に係る画像解析方法を胸部CT画像に適用して、肺癌に罹患している患者を評価した場合の精度を、他の指標を適用した場合の精度と比較した表である。 年齢・性別・喫煙履歴(ブリンクマン指数)という基本の指標を用いた場合、基本の指標に加えてLAA%を指標として用いた場合、および基本の指標に加えてベッチ数を指標として用いた場合における、肺癌の予測精度を比較した結果を示す表である。
 〔実施形態1〕
 以下、本発明の一実施形態について、詳細に説明する。
 (本発明の技術思想)
 まず、本発明の技術思想について以下に説明する。本発明の目的は、組織を撮像した撮像画像を解析することにより、当該撮像画像に写っている組織に生じた病変の有無、および癌化の可能性の程度を精度良く判別するために有用な情報を出力することである。
 本発明の発明者は、被検体の胸部を撮像したCT(computed tomography)画像を調べ、肺気腫の重症度と癌化の可能性との関係を詳細に比較・検討した。具体的には、胸部CT画像のうち、肺が写っている領域に対して、二値化の基準値が異なる複数の二値化画像を生成した。そして、二値化の基準値に応じて、二値化後の各画像に含まれる肺のCT画像について算出された0次元ベッチ数(b、第1特徴数)、および1次元ベッチ数(b、第2特徴数)がどのように変化するかを調べた。その結果、肺のCT画像において、二値化の基準値を変化させたことに伴う、0次元ベッチ数および1次元ベッチ数の変化はいずれも、肺気腫の重症度を判別したり、癌化の可能性を評価したりするための指標として利用することが可能であることを見出した。
 ところで、0次元ベッチ数と1次元ベッチ数のいずれか一方を利用する構成であってもよいが、以下では、0次元ベッチ数と1次元ベッチ数の双方を利用する構成を採用した場合について説明する。0次元ベッチ数と1次元ベッチ数の双方を利用することにより、より精度の高い情報を出力することができる。
 なお、本明細書では、二値化の基準値は各画素のCT値に基づいて設定されるものとする。すなわち、二値化の基準値は、肺を撮像対象とする胸部CT画像において一般的に設定されるCT値-1000~-700HUの範囲において設定される。例えば、二値化の基準値を-900HUに設定した場合、CT値が-900HU以下の画素の画素値は0となり、CT値が-900より高い画素の画素値を1となる。
 以下では、X線CT画像を解析して、肺に生じた肺気腫の重症度を判別するために有用な情報を出力する画像解析装置1を例に挙げて説明するが、本発明の解析対象は、肺に限定されない。また、X線CT画像に限定されるものでもない。本発明の一態様に係る画像解析装置1は、任意の医用画像に適用可能であり、例えば、(1)レントゲン(マンモグラフィーを含む)検査にて撮像される肝臓および乳房などの画像、(2)MRI(磁気共鳴像、magnetic resonance imaging)検査にて撮像される脳および膵臓などの画像、(3)PET(陽電子放射断層撮影、positron emission tomography)、RI検査(アイソトープ検査とも呼称される)にて撮像される画像の解析にも好適に適用され得る。
 <肺のCT画像>
 例えば、肺のCT画像において正常な肺は淡い乳白色の靄がかかった黒っぽい領域として表示されるのに対し、肺気腫を患っている部位では肺胞壁が萎縮消失しているため靄のうすい黒い領域として表示される。
 一般に肺のCT画像において、肺胞の破壊および融合は、その初期において、正常な肺に囲まれた低吸収肺領域として検出される。正常な肺の領域と低吸収肺領域との境界には明瞭な壁が無いことが多いが、肺気腫の初期段階では、直径が約1cm程度の低吸収領域が散在するようになり、重症化するにつれて、低吸収領域が融合して増加する一方、正常な肺は減少する。
 胸部CT画像の画像解析によって肺に生じた肺気腫などの病変について診断する場合、LAA%等の定量指標が適用され得る。LAA%は、肺のCT画像において、低吸収肺領域(low-attenuation lung area)が全肺領域に占める割合(%)を算出し、この割合に基づいて、肺気腫の重症度を判定する。ここで、重症度とは肺に生じた変化の程度を意図し、健常な肺には無い病変の進行具合を指す。
 医師が、胸部CT画像に基づいて肺気腫の有無および重症度を判断する場合、撮像された肺に生じた肺気腫の重症度に応じて複数の段階に区分された視覚的スコア(visual score)が確定情報として胸部CT画像に対応付けられる。
 以下では、肺気腫の所見が無い0、および肺気腫の重症度が1(軽度)、2、3(中度)、4、5(重度)の計6段階に肺気腫の重症度を区分する視覚的スコアを適用した場合を例に挙げて説明する。
 なお、視覚的スコアには幾つかの種類があり、これに限定されるものではない。例えば、肺のCT画像において、6つの部位における視覚的評価(0~4点の5段階)を合計して肺気腫の重症度を段階別に区分するGoddard分類の肺気腫スコア(満点は24点)を用いてもよい。
 <肺のCT画像を解析するための数学的表現>
 組織に生じた変化を定量化するために、本発明の発明者らは、ホモロジーの概念、特にパーシステントホモロジーの適用を試みた。ホモロジーとは、図形の形態上の性質を代数的に置き換えて、図形の結合などの解析を容易にする数学の一分野である。本発明の発明者らは、ホモロジーの概念の中でも、二次元画像における0次元ベッチ数および1次元ベッチ数の利用に着目した。
 ホモロジーの概念は、構成要素の連結および接触を表す数学的な概念である。病理画像において、適切な二値化の基準値(二値化パラメータともいう)を設定して二値化する。そして、二値化された画像から単位面積当たりの0次元ベッチ数および1次元ベッチ数を算出する。算出された0次元ベッチ数および1次元ベッチ数を用いて、その組織の構成要素同士の連結の程度、および構成要素同士の接触の程度の評価が可能である。
 ベッチ数とは、図形(例えば、組織の構成要素に該当)の形状には無関係であり、図形同士の接触と分離とにのみ関係するトポロジカルな示唆数である、q次元特異ホモロジー群が有限生成のとき、このq次特異ホモロジー群は、自由アーベル群と有限アーベル群との直和に分けられる。この自由アーベル群の階級をベッチ数という。2次元画像の場合、0次元ベッチ数は連結成分の数であり、1次元ベッチ数は当該連結成分が外縁となって囲んだ空間(以下、「穴形状の領域」と記す場合がある)の数である。穴形状の領域の数とは、すなわち連結成分中に存在する「穴」の数である。
 <0次元ベッチ数>
 0次元ベッチ数は、数学的には以下のように定義される。一般に有限個の線分を繋ぎ合わせて成る図形(1次元複体とも呼称される)Kの連結成分の個数を0次元ベッチ数という。「有限個の点を有限個の線分で結んだ図形が連結である」とは、この図形の任意の頂点から他の任意の頂点に、この図形の辺を辿って到達し得ることを意図する。
 肺のCT画像に対して、異なる二値化の基準値を用いて生成した複数の二値化画像のそれぞれにおいて、二値化後の一方の画素値(例えば、二値化の結果、画素値が0)の画素が連結して成る連結領域の数が、0次元ベッチ数である。それゆえ、0次元ベッチ数は、肺のCT画像における低吸収肺領域の数に相当するといえる。
 <1次元ベッチ数>
 1次元ベッチ数は、数学的には以下のように定義される。以下の(1)および(2)の条件が満たされる場合、図形Kの1次元ベッチ数はrである。(1)有限個の線分を繋ぎ合わせて成る図形(連結な1次元複体)Kに対して、適当なr個の、開いた(両端を含まない)1次元単体(例えば、線分)を図形Kから取り去っても図形Kの連結成分の個数は増加しない。(2)任意の(r+1)個の、開いた1次元単体をKから取り去った場合にはKは連結でなくなる(すなわち、Kの連結成分の個数が1つ増加する)。
 肺のCT画像に対して、異なる二値化の基準値を用いて生成した複数の二値化画像のそれぞれにおいて、二値化後の一方の画素値(例えば、二値化の結果、画素値が0)の画素に囲まれた穴形状の領域の数が、1次元ベッチ数である。それゆえ、1次元ベッチ数は、肺のCT画像における、低吸収肺領域に囲まれた正常な肺の領域の数に相当するといえる。
 (画像解析方法の概要)
 まず、本発明の一態様に係る画像解析方法は、被検体を撮像した撮像画像を解析し、撮像されている組織に生じた変化に関する情報を決定・出力する方法である。本発明の一態様に係る画像解析方法の概要について図2を用いて説明する。図2は、本発明の一態様に係る画像解析方法における処理の流れの一例を示すフローチャートである。なお、以下では、被検体の胸部CT画像を解析して、肺気腫などの重症度に関する情報を出力する画像解析装置1が行う処理を例に挙げて説明する。
 なお、以下では、0次元ベッチ数および1次元ベッチ数を算出する構成について説明するが、いずれか一方のみを算出して利用する構成であってもよい。ただし、組織に生じた変化の特性は様々であり、撮像画像に表れる特徴も様々であるため、0次元ベッチ数および1次元ベッチ数を算出する構成が望ましい。なぜなら、組織に生じた変化を、撮像画像中の連結領域の数の変化として検出することに加え、穴形状の数の変化としても検出する構成である方が、精度の良い予測スコアを決定することができるからである。
 まず、医師などによって過去に診察された被検体を撮像した胸部CT画像であって、肺気腫の重症度および肺癌への進行に関するリスクが既に医師などによって評価されている胸部CT画像を用いた機械学習が行われる(ステップS1)。ステップS1では、過去に診察された被検体を撮像した胸部CT画像が、ステップS3において解析対象のCT画像に対して行われる解析と同様に解析される。そして、肺のCT画像を解析することで得られる特徴量と、既に決定されている視覚的スコアとの相関関係が学習される。ここで、特徴量とは、CT画像についての二値化の基準値に応じた0次元ベッチ数および1次元ベッチ数の変化を示す数値、該変化をプロットしたグラフにおいて表される増減パターン、および該グラフを近似的に表す関数の係数値などであってもよい。
 なお、本明細書では、肺気腫の視覚的スコアを予測スコアとして決定する場合を例に挙げて説明するが、本発明の適用範囲は視覚的スコアの決定に限定されない。例えば、CT、MRI、PET、RIなどを用いて撮像された断層撮像を解析することで得られる特徴量と、既に決定されている該病変に関する臨床的意義のある任意の指標との相関関係が学習され得る。臨床的意義のある任意の指標としては、例えば、癌化のリスク、癌の重症度(例えば、TNMステージングなどの病期分類)、および癌の予後予測などが挙げられる。このような学習を行うことによって、画像解析装置1は、被検体の画像を解析して、臨床的に意義のある任意の指標に関する情報を出力することができる。
 ここで、「予測スコア」とは、医師によって決定される視覚的スコアに倣った指標(スコア)であり、肺のCT画像を解析した結果として得られた、肺気腫の重症度および肺癌への進行に関するリスク評価に利用可能なスコアである。ステップS1の詳細な工程については後に具体例を挙げて説明する(図3参照)。
 次に、被検体の胸部CT画像が入力される(ステップS2)。
 続いて、入力された胸部CT画像を解析して、肺気腫の重症度および肺癌への進行に関するリスク評価に利用可能な予測スコアが決定される(ステップS3)。ステップS3の詳細な工程については後に具体例を挙げて説明する(図7参照)。
 最後に、ステップS3にて決定された予測スコアが出力される(ステップS4)。予測スコアを出力する態様は、予測スコアの利用を希望するユーザに提示されるものであればよく、特に限定されない。例えば、表示装置5に表示されてもよいし、プリンター(図示せず)、スピーカー(図示せず)から出力されてもよい。
 (画像解析装置1の構成)
 次に、図2に示す画像解析方法を実現する画像解析装置1の構成について、図1を用いて説明する。図1は、本発明の実施例1に係る画像解析装置1の構成の一例を示すブロック図である。なお、図1において、図2のステップS1に関連するデータの流れは破線で示し、図2のステップS2~4に関連するデータの流れは実線で示している。
 図1に示すように、画像解析装置1は、画像取得部2(受信部)、記憶部3、制御部4を備えている。記憶部3には少なくとも、CT画像31および基準パターン32が記憶されている。
 なお、画像解析装置1が別体として設けられた表示装置5(提示部)と接続されている例を図示しているが、これに限定されない。例えば、画像解析装置1が表示装置5(提示部)を内蔵する構成であってもよいし、複数の表示装置5と無線/有線で接続された構成であってもよい。
 画像取得部2は、外部機器8から組織を撮像した撮像画像(以下、CT画像と称する)を取得し、取得したCT画像を記憶部3に格納する。あるいは、画像取得部2は、取得したCT画像を二値化部41に出力してもよい。なお、外部機器8は、例えば、CT装置に接続されたパーソナルコンピュータ、画像データを保存可能な記憶装置などである。上記CT画像は、解析対象の組織が肺である場合、被検体の胸部を適当なコントラストで撮像して得られたCT画像である。なお、CT画像のコントラストなどは、解析の対象となる組織のX線吸収率に応じて適宜設定されればよい。
 画像解析装置1が肺のCT画像に基づいてCOPDに関する診断を行う場合、画像取得部2は、肺の上部、中部、および下部の断面をそれぞれ含む少なくとも3枚の胸部CT画像を一組として取得することが望ましい。
 また、画像取得部2は、医師によって決定された、組織に関する視覚的スコアが確定情報として予め対応付けられたCT画像とその視覚的スコアとの組み合わせを取得し、記憶部3に格納する。視覚的スコア(確定情報)が予め対応付けられたCT画像は、予測スコア決定部44の機械学習において入力される学習データとして用いられる。
 記憶部3は、画像取得部2が取得したCT画像31、図2のステップS1で生成した基準パターン32に加え、制御部4が実行する(1)各部の制御プログラム、(2)OSプログラム、(3)アプリケーションプログラム、および、(4)これらプログラムを実行するときに読み出す各種データを記録するものである。記憶部3は、ハードディスク、フラッシュメモリなどの不揮発性の記憶装置によって構成される。なお、記憶部3の他に、上述の各種プログラムを実行する過程でデータを一時的に保持するための作業領域として使用される記憶装置であり、RAM(Random Access Memory)などの揮発性の記憶装置を備えていてもよい。
 表示装置5は、制御部4から出力される出力情報等を表示する表示装置であり、例えば液晶ディスプレイである。なお、画像解析装置1が専用の表示装置5を備える構成であってもよい。なお、表示装置5の表示画面にタッチセンサが重畳されており、ユーザによる表示面へのタッチ操作を表示装置5が検出できる構成であってもよい。
 (制御部4の構成)
 制御部4は、画像取得部2が取得したCT画像を解析することにより、当該CT画像に含まれる肺気腫などCOPDの重症度を示す情報を出力する。この制御部4は、さらに二値化部41(二値化部、領域抽出部)、ベッチ数算出部42(算出部)、パターン特定部43、予測スコア決定部44(比較部、決定部)、表示制御部45、および学習制御部46を備えている。
 二値化部41は、画像取得部2が取得した胸部CT画像から、被検体の肺に対応する領域を肺のCT画像として切り出し(抽出し)、切り出された肺のCT画像に対して二値化処理を行う。すなわち、二値化部41が領域抽出部(図示せず)としての機能も備えている。被検体の肺に対応する領域は、肺のX線吸収率が低いことを利用した公知の画像処理の手法を用いて胸部CT画像から切り出すことが可能である。なお、被検体の肺に対応する領域を肺のCT画像として切り出して、切り出された肺のCT画像を二値化部41に出力する領域抽出部を二値化部41とは別に備える構成としてもよい。
 図1は、二値化部41が胸部CT画像を記憶部3から取り出す構成について図示しているが、これに限定されない。例えば、画像取得部2が取得した解析対象となる胸部CT画像を記憶部3に記憶させることなく、二値化部41に出力する構成であってもよい。
 二値化部41は、二値化処理において、二値化の基準値よりも大きいCT値を有する画素を白色の画素に変換し、二値化の基準値以下のCT値を有する画素を黒色の画素に変換する。このとき二値化部41は、肺を撮像した1つのCT画像に対して、二値化の基準値を変更する度に二値化処理を行い、複数の二値化画像を生成する。すなわち、二値化部41は、肺のCT画像について、二値化の基準値が異なる複数の二値化画像を生成する。
 ベッチ数算出部42は、二値化部41が生成した複数の二値化画像について、当該二値化画像に含まれる、(1)二値化後の画素値が0である画素が連結して成る連結領域の数(2)二値化後の画素値が0である画素に囲まれた穴形状の領域の数を算出する。すなわち、ベッチ数算出部42は、複数の二値化画像にそれぞれ含まれる組織の像について、0次元ベッチ数および1次元ベッチ数を算出する。
 上記連結領域は、画素値が0である画素が隣接しつつ集まった領域である。それぞれの連結領域は、画素値が1である画素によって囲まれており、互いに独立している。
 上記穴は、1つ以上の構成成分の外縁の少なくとも一部(構成成分が1つの場合には、その構成成分の外縁の全部)をその外縁として有している開口部である。換言すれば、構成成分の外縁によって囲まれた穴には、1つの構成成分がその内部に有する穴と、互いに連結した複数の構成成分がそれぞれ有する外縁によって囲まれた穴とが含まれる。
 ベッチ数算出部42として、既存のプログラムを用いてもよい。このようなプログラムの一例としてCHomPを挙げることができる。CHomPは、GNU(General PublicLicense)に準拠したフリーウェアであり、ホームページ(http://chomp.rutgers.edu/)からダウンロードできる。なお、これに限定されるものではなく、画像に関する0次元ベッチ数および1次元ベッチ数を算出できるプログラムであれば、CHomP以外のプログラムを用いてもよい。
 パターン特定部43は、二値化の基準値に応じた0次元ベッチ数の変化のパターン(第1パターン)、および二値化の基準値に応じた1次元ベッチ数の変化のパターン(第2パターン)のうちの少なくとも一方を特定する。例えば、パターン特定部43は、二値化の基準値に対して、該二値化の基準値を設定して生成した二値化画像において算出された0次元ベッチ数および1次元ベッチ数の少なくとも何れかをプロットしたグラフを生成する。この場合、0次元ベッチ数の変化について生成されたグラフは第1パターンであり、1次元ベッチ数の変化について生成されたグラフは第2パターンである。
 なお、パターン特定部43は、二値化の基準値の変化に伴う0次元ベッチ数および1次元ベッチ数の変化を近似的に示す関数を特定してもよい。この場合、パターン特定部43は、特定した関数の係数などを、0次元ベッチ数および1次元ベッチ数の変化のパターンとして出力してもよい。ここで、0次元ベッチ数および1次元ベッチ数の変化を近似的に示す関数(近似関数)としては、任意の関係式で表記可能な関数であってもよく、例えば、n次関数(n≧1)(線形近似および対数近似を含む)、指数関数(累乗近似)、および三角関数などであってもよい。
 予測スコア決定部44は、パターン特定部43によって特定された第1パターンを、記憶部3に記憶されている基準パターン32と比較し、比較結果に基づいて、肺に生じた変化に関する情報を決定する。
 ここで、基準パターン32とは、過去に医師などによって診察され、既に視覚的スコアが決定されている胸部CT画像を、その視覚的スコア毎に解析することでパターン生成部によって生成される特徴量である。基準パターン32は、図1のステップS1の学習によって生成される。具体的には、基準パターン32は、パターン特定部43によって生成された、二値化の基準値に応じた0次元ベッチ数および1次元ベッチ数の変化をプロットしたグラフである。基準パターン32は、視覚的スコアが複数の段階に区分されている場合、その段階ごとに生成され得る。
 すなわち、予測スコア決定部44は、パターン特定部43によって特定された第1パターンを、視覚的スコアの段階ごとに生成された基準パターン32と比較し、最も類似した基準パターン32と同じスコアを予測スコアとして決定する。
 (学習ステップS1の処理の流れ)
 次に、図2のステップS1における処理の流れの一例について、図4~6を参照しながら、図3を用いて説明する。図3は、学習ステップS1における処理の流れの一例を示すフローチャートである。
 画像取得部2は、外部機器8から視覚的スコアなどの診断結果が確定されている胸部CT画像を取得する(ステップS11)。画像取得部2は、取得した胸部CT画像を記憶部3に格納する。
 図4に、学習に用いる胸部CT画像の例を示す。図4の(A)は肺気腫が疑われる所見が無く、正常の肺(視覚的スコア=0)と診断された画像の例であり、(B)は、中度の肺気腫(視覚的スコア=3)が認められる画像の例であり、(C)は、重度の肺気腫(視覚的スコア=5)が認められる画像の例である。
 次に、学習制御部46は、CT画像31から胸部CT画像を1つ選択し、二値化部41に送る。この胸部CT画像には、予め決定された視覚的スコアが対応付けられている。二値化部41は、肺に対応する肺のCT画像を切り出す(抽出する)(ステップS12:抽出ステップ)。さらに、二値化部41は、肺のCT画像に対して、二値化の基準値を変化させながら、肺のCT画像から複数の二値化画像を生成する(ステップS13)。
 図5は、胸部CT画像から肺のCT画像を切り出して、異なる二値化の基準値を用いて生成された二値化画像の例を示す図である。なお、図5では、肺の領域を分かりやすく示すために、白と黒を反転させた画像を示している。図5の(A)は、図4の(C)に示した胸部CT画像と同じものであり、(B)~(E)は、(A)の画像から、二値化の基準値を-975HU~-900HUに設定した場合に生成される二値化画像の例を示している。
 次に、ベッチ数算出部42は、各二値化画像について0次元ベッチ数(b)および1次元ベッチ数(b)を算出する(ステップS14)。パターン特定部43は、二値化の基準値と0次元ベッチ数との関係性を示すグラフ、および二値化の基準値と1次元ベッチ数との関係性を示すグラフを生成する(ステップS15)。すなわち、二値化の基準値の変化に対する0次元ベッチ数の値の変化を示すグラフと、二値化の基準値の変化に対する1次元ベッチ数の値の変化を示すグラフとを生成する。
 図6は、二値化の基準値に対して、0次元ベッチ数および1次元ベッチ数が変化する様子をプロットしたグラフである。図6の左側に示すグラフはいずれも、横軸に二値化の基準値(すなわち、二値化の閾値として設定した値)としたCT値(HU)、縦軸に0次元ベッチ数をプロットしたグラフである。また、図6の右側に示すグラフはいずれも、横軸に二値化の基準値としたCT値(HU)、縦軸に1次元ベッチ数をプロットしたグラフである。図6の(A)~(C)はそれぞれ、図4の(A)~(C)に示した胸部CT画像から生成された二値化画像について生成されたグラフである。なお、図6では、0次元ベッチ数または1次元ベッチ数の値を肺領域の総画素数で正規化した値を縦軸にプロットしているが、これに限定されない。例えば、肺領域の総画素数で正規化を施さなくても、同様の学習効果が得られる場合、正規化は必須の処理ではない。なお、学習において、敢えて正規化を施さないようにすることで予測精度を向上させることが可能であることを、本発明の発明者は確認している。
 学習制御部46は、パターン特定部43から生成されたグラフを取得し、胸部CT画像に対応付けられていた診断結果(例えば、視覚的スコア)とともに予測スコア決定部44に送る。学習制御部46は、予測スコア決定部44に、グラフを入力変数、視覚的スコアを目的変数とする学習を行わせる(ステップS16)。なお、この学習のアルゴリズムとしては任意の機械学習用のアルゴリズムを適用することができる。このようなアルゴリズムの一例として、「ランダムフォレスト」が挙げられる。
 図6に示す6つのグラフに示すように、二値化の基準値に応じた0次元ベッチ数または1次元ベッチ数の値の変化のパターン(すなわち、グラフの形態上の特徴)は、肺気腫の重症度によって異なっている。例えば、0次元ベッチ数のグラフの極大値を与える二値化の基準値を見れば、肺気腫が重症化するにつれて低下する傾向があることが分かる。一方、グラフのピーク幅を見れば、肺気腫が重症化するにつれて広くなる傾向が分かる。また、肺気腫が重症化すると、グラフに変曲点が出現する傾向があることも分かる。学習制御部46は、予測スコア決定部44に、このようなグラフの特徴を入力変数とし、視覚的スコアを目的変数とする学習を行わせる。
 学習制御部46は、学習用に格納されたCT画像31のすべてが選択されるまでステップS12~ステップS16を繰り返す(ステップS17)。予測スコア決定部44にすべてのCT画像31についての学習が終わった場合、学習制御部46は、パターン特定部43によって生成されたグラフを基準パターンのグラフとして、視覚的スコア毎に基準パターン32に格納する。
 (予測スコアを決定する処理の流れ)
 続いて、図2のステップS3における処理の流れの一例について、図7を用いて説明する。図7は、解析対象の胸部CT画像から予測スコアを決定する処理の流れの一例を示すフローチャートである。
 ステップS31において、二値化部41は、記憶部3から胸部CT画像を1つ取得し、被検体の肺に対応する肺のCT画像を切り出す(ステップS31)。さらに、二値化部41は、肺のCT画像に対して、二値化の基準値を変化させながら、肺のCT画像から複数の二値化画像を生成する(ステップS32:二値化ステップ)。
 次に、ベッチ数算出部42は、各二値化画像について0次元ベッチ数(b)および1次元ベッチ数(b)を算出する(ステップS33:算出ステップ)。パターン特定部43は、二値化の基準値に応じて0次元ベッチ数および1次元ベッチ数が変化する様子をプロットしたグラフを生成する(ステップS34)。
 予測スコア決定部44は、パターン特定部43によって生成されたグラフと、予め学習で得た、0次元ベッチ数および1次元ベッチ数が変化する様子をプロットした基準パターン32のグラフとを比較し、比較結果に基づいて予測スコアを決定する。予測スコア決定部44は、例えば、グラフの極大値を与える二値化の基準値、ピーク幅、変曲点の有無および位置などを基準パターン32のグラフと比較することにより、グラフの特徴が最も類似している基準パターン32のグラフに対応付けられている視覚的スコアを、予測スコアとして決定する(ステップS35:決定ステップ)。
 医師などが、肺を撮像した撮像画像(例えば、CT画像)に基づいて肺気腫などの疾患の有無および重症度を決定する場合、例えば、以下の(1)および(2)のような特徴が手掛かりとして利用される。(1)軽度の肺気腫では、直径約1cm程度の低吸収領域の散在が認められる。(2)重度の肺気腫では、低吸収領域は融合して増加する一方、正常な肺の領域は減少する。
 図2および7に示す方法により、組織に生じた変化の有無および程度に関する情報を精度良く決定することができる。例えば、決定した情報を医師に提示することによって、組織に生じた変化の有無および程度の判断を適切にサポートすることができる。
 〔実施形態2〕
 本発明の他の実施形態について、以下に説明する。なお、説明の便宜上、上記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。
 (画像解析装置1aの構成)
 次に、図8を用いて、画像解析装置1aの構成について説明する。図8は、本発明の実施例2に係る画像解析装置1aの構成の一例を示すブロック図である。画像解析装置1aは通信部6を備えている点で、画像解析装置1と異なっている。通信部6は、外部機器8から受信した画像データが示す撮像画像を解析した結果に基づいて決定した予測スコアを予測スコア決定部44から取得し、提示装置7に送信する。
 なお、外部機器8および提示装置7の数は1つに限定されるものではなく、複数であってもよい。
 (画像解析システム)
 ここでは、画像解析装置1aを含む画像解析システム100および100aの構成例について、図9を用いて説明する。図9は、本発明に係る画像解析装置1aを含む画像解析システム100および100aの構成例を示す概略図である。図9の(a)は、外部機器8と提示装置7とが離れた場所に設置されている例を示しており、(b)は、提示装置7が外部機器8aに接続されている例を示している。
 画像解析システム100は、外部機器8、画像解析装置1a、および提示装置7を有している。外部機器8、画像解析装置1a、および提示装置7は、インターネットなどの情報通信ネットワーク50に接続されており、相互にデータの送受信が可能である。
 外部機器8は、例えば、CT装置に接続されたパーソナルコンピュータであってもよいし、組織を撮像した画像を集約して管理するサーバ(電子カルテサーバ、CT画像データサーバなど)であってもよい。
 提示装置7は、ユーザに画像解析の結果を提示する機能を有する装置であればよく、例えば、提示装置7はディスプレイを備える表示装置である。あるいは、提示装置7は、医療関係者などが携帯するタブレット端末などの通信端末機器であってもよい。
 組織を撮像した撮像画像の画像データは、外部機器8から画像解析装置1aへと送信される。画像データを受信した画像解析装置1aは該画像を解析し、予測スコア決定部44によって決定された予測スコアを、通信部6を介して提示装置7に送信する。
 画像解析システム100aは、外部機器8a、画像解析装置1a、および提示装置7を有している。外部機器8aおよび画像解析装置1aは、インターネットなどの情報通信ネットワーク50に接続されており、相互にデータの送受信が可能である。提示装置7は、外部機器8aに接続されている。
 すなわち、画像解析装置1aは、遠隔地で撮像された画像を外部機器8または8aから受信して、画像解析を行い、解析結果である予測スコアを、提示装置7に送信することができる。なお、予測スコアを、解析に供したCT画像と対応付けて提示装置7に送信してもよい。提示装置7は、外部機器8aに接続された装置であってもよいし、画像解析装置1aおよび外部機器8と独立している装置であってもよい。
 この構成を採用することにより、画像解析システム100および100aは、遠隔地の外部機器8および8aからの撮像画像を受信して、当該画像を解析することができ、かつ撮像画像および決定された情報を遠隔地のユーザに提示することができる。よって、医師が不在であったり、不足していたりする遠隔地のユーザに対しても、高い精度の画像診断の結果を提供することができる。
 〔ソフトウェアによる実現例〕
 画像解析装置1、1aの制御ブロック(特に制御部4)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、ソフトウェアによって実現してもよい。
 後者の場合、画像解析装置1、1aは、各機能を実現するソフトウェアであるプログラムの命令を実行するコンピュータを備えている。このコンピュータは、例えば1つ以上のプロセッサを備えていると共に、上記プログラムを記憶したコンピュータ読み取り可能な記録媒体を備えている。そして、上記コンピュータにおいて、上記プロセッサが上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記プロセッサとしては、例えばCPU(Central Processing Unit)を用いることができる。上記記録媒体としては、「一時的でない有形の媒体」、例えば、ROM(Read Only Memory)等の他、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムを展開するRAM(Random Access Memory)などをさらに備えていてもよい。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明の一態様は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
 本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
 本発明の一実施例について、図10を用いて説明する。図10は、本発明の一態様に係る画像解析方法を胸部CT画像に適用して、肺癌に罹患している患者を評価した場合の精度を、他の指標を適用した予測方法の精度と比較した表である。
 図10において比較されている予測方法は、(1)ブリンクマン指標を用いた方法、(2)肺領域、(3)LAA%、および(4)本発明に係る画像解析方法の4種類である。ブリンクマン指標は、喫煙指標とも呼ばれ、患者の喫煙履歴等を数値化した指標である。
 なお、LAA%は、二値化の基準値をCT値=-950HUとした場合、CT値=-910HUとした場合、およびCT=-880HUとした場合の3つの場合について調べた。
 また、本発明に係る画像解析方法に関しては、二値化の基準値をCT値=-880HUと設定して生成された二値化画像における0次元ベッチ数、および1次元ベッチ数を指標として用いた場合について調べた。このように、本発明に係る画像解析方法は、二値化の基準値に応じた0次元ベッチ数の変化のパターン、および1次元ベッチ数の変化のパターンではなく、所定の二値化の基準値にて生成された二値化画像における0次元ベッチ数、および1次元ベッチ数の値を指標として採用してもよい。
 図10に示すように、肺癌の有無予測において、0次元ベッチ数、および1次元ベッチ数を指標として用いた予測は他の予測方法に比べて、精度が高く、最も信頼性の高い予測方法であることが示された。
 図10では、単一の指標を用いて肺癌の有無を予測した場合の結果を示した。しかし、肺癌のリスク評価を行う場合、年齢・性別・ブリンクマン指数などの各指標(図11では「予測変数」と表記されている)を組み合わせて評価することが有効であるとされている(非特許文献1参照)。
 そこで、複数の指標を組み合わせて肺癌のリスクを評価した場合の結果を図11に示す。図11は、(1)年齢・性別・喫煙履歴(ブリンクマン指数)という基本の指標を用いた予測モデル、(2)基本の指標に加えてLAA%を指標として用いた予測モデル、および(3)基本の指標に加えてベッチ数を指標として用いた予測モデルにおける、肺癌の予測精度を比較した結果を示す表である。
 図11に示すように、年齢・性別・ブリンクマン指数に加えて、LAA%を指標として用いた予測モデルは、肺癌のリスク評価の精度の向上は見られなかった。これに対し、年齢・性別・ブリンクマン指数に加えて、ベッチ数(ここでは、二値化の基準値をCT値=-880HUと設定して生成された二値化画像における1次元ベッチ数を用いた)を指標として用いた予測モデルでは、肺癌のリスク評価の精度が有意に向上した。図11に示す例では、上記(1)~(3)の各予測モデルの肺癌のリスク評価の精度を比較するために、赤池情報量基準(AIC)を用いた。ここで、AICはその値が低いほど精度の良い予測モデルであるとされる。また、AICの差が1.5~2程度あれば、統計的に有意な差であると扱われる。基本の指標のみを用いた予測モデルのAICは785.9であった。基本の指標に加えてLAA%を指標として用いた予測モデルのAICは786.2であり、LAA%を指標に追加した効果は見られなかった。これに対して、基本の指標に加えて1次元ベッチ数bを指標として用いた場合のAICは779.8であり、基本の指標のみを用いた場合に比べて6.1低かった。すなわち、年齢・性別・ブリンクマン指数に加えて、1次元ベッチ数bを指標として用いた予測モデルは、比較した他の予測モデルに比べてAICが低く、肺癌のリスク評価の予測モデルとして、最も精度の良い予測モデルであることが示された。
 一般に肺癌の大多数では、肺のCT画像上に原発巣となる肺結節が確認される。本実施例では、肺癌の候補となるような肺結節の有無に依存することなく、肺癌のリスク評価をすることが可能であることが示された。すなわち、本発明の一実施例は、肺結節の有無によらず実施されたこれが肺癌リスクの層別化に有用と期待される。
 〔まとめ〕
 本発明の一態様に係る画像解析方法は、組織を撮像した撮像画像を解析する方法であって、前記撮像画像から、二値化の基準値が異なる複数の二値化画像を生成する二値化ステップ(S32)と、複数の前記二値化画像のそれぞれについて、二値化後の一方の画素値の画素が連結して成る連結領域の数を示す第1特徴数を算出する算出ステップ(S33)と、前記二値化の基準値と前記第1特徴数との関係性を示す第1パターンを、所定の基準パターンと比較した結果に基づいて、前記組織に生じた変化に関する情報を決定する決定ステップ(S35)と、を含む。
 上記の構成によれば、被検体を撮像した撮像画像に対して、二値化の基準値が異なる複数の二値化画像を生成し、二値化後の一方の画素値の画素が連結して成る連結領域の数と二値化の基準値との関係性を示す第1パターンと所定の基準パターンとの比較に基づいて、組織に生じた変化に関する情報を決定する。
 「連結領域」とは、二次元平面である撮像画像における連結成分である。連結領域の数を算出する処理としては、上記複数の二値化画像の各々について第1特徴数として0次元ベッチ数を求める処理を行ってもよい。なお、画像からベッチ数を算出するためのプログラムは公知であり、そのプログラムを実行する装置を算出部として用いればよい。
 また「組織」とは、1または複数種類の構成要素が一定のパターンで集合した構造単位を意味しており、細胞などの集まりから構成される生体組織である臓器などが含まれる。
 組織を撮像した撮像画像を用いた検査・診断では、組織に生じた変化が、正常な組織とは異なる所見の有無およびその程度が利用される。画像診断を自動化する場合、組織に生じた変化の程度を評価するための手掛かりとなる特徴を如何に正確に検出して定量化するか、が重要である。
 医師などが肺気腫などの疾患の有無および重症度を、肺を撮像した撮像画像(例えば、CT画像)に基づいて決定する場合、例えば、以下の(1)および(2)のような特徴が手掛かりとされる。(1)軽度の肺気腫では、直径約1cm程度の低吸収領域の散在が認められる。(2)重度の肺気腫では、低吸収領域は融合して増加する一方、正常な肺の領域は減少する。
 本発明の発明者は、上記の方法を適用することによって、(1)および(2)のような組織に生じた変化が示す特徴を組織画像から検出・定量化し、該変化の程度を高精度に評価できる可能性があることを見出した。
 上記の方法を採用することにより、組織に生じた変化の特性に合致する特徴に基づいて、該変化の有無および程度に関する情報を精度良く決定することができる。例えば、決定した情報を医師に提示することによって、組織に生じた変化の有無および程度の判断を適切にサポートすることができる。
 前記二値化ステップにて生成した複数の二値化画像のそれぞれについて、前記一方の画素値の画素に囲まれた、他方の画素値の画素からなる穴形状の領域の数を示す第2特徴数を算出し、前記決定ステップにおいて、前記二値化の基準値の変化に応じて前記第2特徴数が変化する第2パターンを、所定の基準パターンと比較した結果に基づいて、前記組織に生じた変化に関する情報を決定してもよい。
 組織に生じた変化の特性は様々であり、撮像画像に表れる特徴も様々である。それゆえ、組織に生じた変化を、撮像画像中の連結領域の数の変化として検出するよりも、穴形状の数の変化として検出した方が適切である場合がある。
 上記の構成によれば、被検体を撮像した撮像画像に対して、二値化の基準値が異なる複数の二値化画像を生成し、二値化後の一方の画素値の画素に囲まれた穴形状の領域の数の変化パターンと所定の基準パターンとの比較に基づいて、組織に生じた変化に関する情報を決定する。これにより、二次元平面である撮像画像において、組織に生じたさまざまな変化を高精度に検出・定量化することができる。よって、多様な組織において生じた変化を撮像した撮像画像に適用することができる。
 「穴形状の領域」とは、二次元平面である撮像画像における空間(穴)である。穴形状の領域の数を算出する処理としては、上記複数の二値化画像の各々について第2特徴数として1次元ベッチ数を求める処理を行ってもよい。なお、画像からベッチ数を算出するためのプログラムは前述のように公知であり、そのプログラムを実行する装置を算出部として用いればよい。
 前記組織に生じた変化に関する確定情報が予め対応付けられた前記撮像画像を取得して、該撮像画像の前記第1パターンと、前記確定情報との組み合わせを含む学習データを用いた機械学習によって、前記基準パターンを生成する学習ステップ(S1)をさらに含んでいてもよい。
 「確定情報」とは、医師によって予め評価・決定された、組織に生じた変化に関する情報であり、例えば、組織に生じた疾患の有無および重症度などを示す情報である。
 上記の構成によれば、組織に関する確定情報が予め対応付けられた撮像画像の第1パターンと確定情報との相関関係について学習する。これにより、学習された相関関係に倣って、解析対象となる撮像画像の第1パターンから組織に生じた変化に関する情報を決定することができる。
 前記確定情報は、前記組織に生じた変化の程度に応じた複数の段階に関する情報を含み、前記基準パターンは、前記段階ごとに生成されており、前記決定ステップにおいて、前記組織に生じた変化が前記段階のいずれに該当するかを決定してもよい。
 これにより、学習された相関関係に倣って、解析対象となる撮像画像の第1パターンから、組織に生じた変化の程度を決定することができる。
 前記撮像画像から解析対象となる組織に対応する領域を抽出する抽出ステップをさらに含んでいてもよい。
 組織を撮像した画像には、解析対象ではない部位に対応する領域も含まれている場合がある。上記のように構成すれば、解析対象の組織に対応していない不要な領域であり、組織に生じた変化の検出・定量化を阻害する可能性がある領域を抽出することができる。
 本発明の一態様に係る画像解析装置(1、1a)は、組織を撮像した撮像画像を解析する画像解析装置であって、前記撮像画像から、二値化の基準値が異なる複数の二値化画像を生成する二値化部(41)と、複数の二値化画像のそれぞれについて、二値化後の一方の画素値の画素が連結して成る連結領域の数を示す第1特徴数を算出する算出部(ベッチ数算出部42)と、前記二値化の基準値と前記第1特徴数との関係性を示す第1パターンを、所定の基準パターンと比較する比較部(パターン特定部43)と、前記比較の結果に基づいて、前記組織に生じた変化に関する情報を決定する決定部(予測スコア決定部44)と、を備える。
 上記の構成によれば、組織に生じた変化の特性に合致する特徴に基づいて、該変化の有無および程度に関する情報を精度良く決定することができる、という上記方法と同様の効果を奏する。
 前記算出部は、前記二値化部によって生成された複数の二値化画像のそれぞれについて、前記一方の画素値の画素に囲まれた、他方の画素値の画素からなる穴形状の領域の数を示す第2特徴数を算出し、前記比較部は、前記二値化の基準値の変化に応じて前記第2特徴数が変化する第2パターンを、所定の基準パターンと比較し、前記決定部は、比較結果に基づいて、前記組織に生じた変化に関する情報を決定する構成であってもよい。
 上記の構成によれば、二次元平面である撮像画像において、組織に生じたさまざまな変化を高精度に検出・定量化することができる。よって、多様な組織を撮像した撮像画像に適用することができる。
 前記組織に生じた変化に関する確定情報が予め対応付けられた前記撮像画像を取得して、該撮像画像の前記第1パターンと、前記確定情報との組み合わせを含む学習データを用いた機械学習によって、前記比較部に前記基準パターンを生成させる学習制御部(46)をさらに備えていてもよい。
 上記の構成によれば、組織に関する確定情報が予め対応付けられた撮像画像の第1パターンと確定情報との相関関係について学習する。これにより、学習された相関関係に倣って、解析対象となる撮像画像の第1パターンから組織に生じた変化に関する情報を決定することができる。
 前記確定情報は、前記組織に生じた変化の程度を複数の段階に区分する情報を含み、前記基準パターンは、前記段階ごとに生成されており、前記決定部は、前記組織に生じた変化が前記段階のいずれに該当するかを決定する構成であってもよい。
 これにより、解析対象となる撮像画像の第1パターンから、組織に生じた変化の程度を決定することができる。
 前記撮像画像から解析対象となる組織に対応する領域を抽出する領域抽出部(二値化部41)をさらに備える構成であってもよい。
 上記の構成によれば、解析対象の組織に対応していない不要な領域であり、組織に生じた変化の検出・定量化を阻害する可能性がある領域を抽出することができる。
 本発明の一態様に係る画像解析システム(100、100a)は、前記の画像解析装置(1、1a)と、前記撮像画像の画像データを前記画像解析装置へ送信する外部機器(8、8a)と、前記画像解析装置において決定された情報を取得して該情報を提示する提示装置(7)と、を含む。
 これにより、例えば遠隔地の外部機器を用いて撮像された撮像画像を受信して、当該画像を解析することができ、かつ撮像画像および決定された情報を遠隔地のユーザに提示することができる。
 本発明の各態様に係る画像解析装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記画像解析装置が備える各部(ソフトウェア要素)として動作させることにより上記画像解析装置をコンピュータにて実現させる画像解析プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。
1、1a 画像解析装置
   2 画像取得部
   4 制御部
   7 提示装置
8、8a 外部機器
  41 二値化部(二値化部、領域抽出部)
  42 ベッチ数算出部(算出部)
  43 パターン特定部(比較部)
  44 予測スコア決定部(決定部)
  46 学習制御部
100、100a 画像解析システム
  S1 学習ステップ
 S32 二値化ステップ
 S33 算出ステップ
 S35 決定ステップ

Claims (13)

  1.  組織を撮像した撮像画像を解析する方法であって、
     前記撮像画像から、二値化の基準値が異なる複数の二値化画像を生成する二値化ステップと、
     複数の前記二値化画像のそれぞれについて、二値化後の一方の画素値の画素が連結して成る連結領域の数を示す第1特徴数を算出する算出ステップと、
     前記二値化の基準値と前記第1特徴数との関係性を示す第1パターンを、所定の基準パターンと比較した結果に基づいて、前記組織に生じた変化に関する情報を決定する決定ステップと、を含むことを特徴とする画像解析方法。
  2.  前記二値化ステップにて生成した複数の二値化画像のそれぞれについて、前記一方の画素値の画素に囲まれた、他方の画素値の画素からなる穴形状の領域の数を示す第2特徴数を算出し、
     前記決定ステップにおいて、前記二値化の基準値の変化に応じて前記第2特徴数が変化する第2パターンを、所定の基準パターンと比較した結果に基づいて、前記組織に生じた変化に関する情報を決定することを特徴とする請求項1に記載の画像解析方法。
  3.  前記組織に生じた変化に関する確定情報が予め対応付けられた前記撮像画像を取得して、該撮像画像の前記第1パターンと、前記確定情報との組み合わせを含む学習データを用いた機械学習によって、前記基準パターンを生成する学習ステップをさらに含むことを特徴とする請求項1または2に記載の画像解析方法。
  4.  前記確定情報は、前記組織に生じた変化の程度に応じた複数の段階に関する情報を含み、
     前記基準パターンは、前記段階ごとに生成されており、
     前記決定ステップにおいて、前記組織に生じた変化が前記段階のいずれに該当するかを決定することを特徴とする請求項3に記載の画像解析方法。
  5.  前記撮像画像から解析対象となる組織に対応する領域を抽出する抽出ステップをさらに含むことを特徴とする請求項1から4のいずれか1項に記載の画像解析方法。
  6.  組織を撮像した撮像画像を解析する画像解析装置であって、
     前記撮像画像から、二値化の基準値が異なる複数の二値化画像を生成する二値化部と、
     複数の二値化画像のそれぞれについて、二値化後の一方の画素値の画素が連結して成る連結領域の数を示す第1特徴数を算出する算出部と、
     前記二値化の基準値と前記第1特徴数との関係性を示す第1パターンを、所定の基準パターンと比較する比較部と、
     前記比較の結果に基づいて、前記組織に生じた変化に関する情報を決定する決定部と、を備えることを特徴とする画像解析装置。
  7.  前記算出部は、前記二値化部によって生成された複数の二値化画像のそれぞれについて、前記一方の画素値の画素に囲まれた、他方の画素値の画素からなる穴形状の領域の数を示す第2特徴数を算出し、
     前記比較部は、前記二値化の基準値の変化に応じて前記第2特徴数が変化する第2パターンを、所定の基準パターンと比較し、
     前記決定部は、比較結果に基づいて、前記組織に生じた変化に関する情報を決定することを特徴とする請求項6に記載の画像解析装置。
  8.  前記組織に生じた変化に関する確定情報が予め対応付けられた前記撮像画像を取得して、該撮像画像の前記第1パターンと、前記確定情報との組み合わせを含む学習データを用いた機械学習によって、前記比較部に前記基準パターンを生成させる学習制御部をさらに備えることを特徴とする請求項6または7に記載の画像解析装置。
  9.  前記確定情報は、前記組織に生じた変化の程度を複数の段階に区分する情報を含み、
     前記基準パターンは、前記段階ごとに生成されており、
     前記決定部は、前記組織に生じた変化が前記段階のいずれに該当するかを決定することを特徴とする請求項8に記載の画像解析装置。
  10.  前記撮像画像から解析対象となる組織に対応する領域を抽出する領域抽出部をさらに備えることを特徴とする請求項6から9のいずれか1項に記載の画像解析装置。
  11.  請求項6から10のいずれか1項に記載の画像解析装置と、
     前記撮像画像の画像データを前記画像解析装置へ送信する外部機器と、
     前記画像解析装置において決定された情報を取得して該情報を提示する提示装置と、を含むことを特徴とする画像解析システム。
  12.  請求項6に記載の画像解析装置としてコンピュータを機能させるための画像解析プログラムであって、前記二値化部、前記算出部、前記比較部、および前記決定部としてコンピュータを機能させるための画像解析プログラム。
  13.  請求項12に記載の画像解析プログラムを記録したコンピュータ読み取り可能な記録媒体。
PCT/JP2018/040977 2017-11-24 2018-11-05 画像解析方法、画像解析装置、画像解析システム、画像解析プログラム、記録媒体 WO2019102829A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US16/766,333 US11321841B2 (en) 2017-11-24 2018-11-05 Image analysis method, image analysis device, image analysis system, and storage medium
JP2019556166A JP7264486B2 (ja) 2017-11-24 2018-11-05 画像解析方法、画像解析装置、画像解析システム、画像解析プログラム、記録媒体

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-226260 2017-11-24
JP2017226260 2017-11-24

Publications (1)

Publication Number Publication Date
WO2019102829A1 true WO2019102829A1 (ja) 2019-05-31

Family

ID=66630826

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/040977 WO2019102829A1 (ja) 2017-11-24 2018-11-05 画像解析方法、画像解析装置、画像解析システム、画像解析プログラム、記録媒体

Country Status (3)

Country Link
US (1) US11321841B2 (ja)
JP (1) JP7264486B2 (ja)
WO (1) WO2019102829A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020241178A1 (ja) * 2019-05-29 2020-12-03 国立大学法人九州大学 肺がん評価装置及び肺がん評価方法
WO2021081104A1 (en) * 2019-10-21 2021-04-29 The Uab Research Foundation Systems and methods for detection and staging of pulmonary fibrosis from image-acquired data
WO2021112205A1 (ja) * 2019-12-05 2021-06-10 国立大学法人大阪大学 画像解析方法、画像解析装置、画像解析システム、制御プログラム、記録媒体
WO2021177357A1 (ja) * 2020-03-03 2021-09-10 富士フイルム株式会社 情報処理装置、情報処理方法及び情報処理プログラム
WO2022113801A1 (ja) * 2020-11-25 2022-06-02 パナソニック株式会社 医療用画像の異常検出システム及び異常検出方法
US20220207738A1 (en) * 2020-12-28 2022-06-30 APSAM Imaging Corp. Image analysis method, estimating device, estimating system, and storage medium
WO2023228229A1 (ja) * 2022-05-23 2023-11-30 日本電気株式会社 画像処理装置、画像処理方法、およびプログラム

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7264486B2 (ja) * 2017-11-24 2023-04-25 国立大学法人大阪大学 画像解析方法、画像解析装置、画像解析システム、画像解析プログラム、記録媒体
US20220398721A1 (en) * 2018-11-23 2022-12-15 Icad, Inc. System and method for assessing breast cancer risk using imagery
JP7414753B2 (ja) * 2021-02-16 2024-01-16 株式会社日立製作所 組織画像解析装置及び組織画像解析方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010087112A1 (ja) * 2009-01-27 2010-08-05 国立大学法人大阪大学 画像解析装置、画像解析方法、画像解析プログラムおよび記録媒体

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070036434A1 (en) * 2005-08-15 2007-02-15 Peter Saveliev Topology-Based Method of Partition, Analysis, and Simplification of Dynamical Images and its Applications
JP6483826B2 (ja) * 2015-07-15 2019-03-13 国立大学法人大阪大学 画像解析装置、画像解析方法、画像解析システム、画像解析プログラム、および記録媒体
JP6606997B2 (ja) * 2015-11-25 2019-11-20 富士通株式会社 機械学習プログラム、機械学習方法及び情報処理装置
JP7264486B2 (ja) * 2017-11-24 2023-04-25 国立大学法人大阪大学 画像解析方法、画像解析装置、画像解析システム、画像解析プログラム、記録媒体

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010087112A1 (ja) * 2009-01-27 2010-08-05 国立大学法人大阪大学 画像解析装置、画像解析方法、画像解析プログラムおよび記録媒体

Non-Patent Citations (8)

* Cited by examiner, † Cited by third party
Title
NAKANE, KAZUAKI ET AL.: "(non-official translation) 4. Tissue image analysis method using the concept of homology", EXPERIMENTAL MEDICINE EXTRA ISSUE, vol. 35, no. 5, 6 March 2017 (2017-03-06) *
NAKANE, KAZUAKI ET AL.: "Homology-based method for detecting regions of interest in colonic digital images", DIAGNOSTIC PATHOLOGY, vol. 10, 2015, pages 36, XP021223131, DOI: 10.1186/s13000-015-0244-x *
NAKANE, KAZUAKI ET AL.: "Research performance report on Grants-in-Aid for Scientific Research of Ministry of Education, Culture, Sports , Science and Technology", THE IMAGE ANALYZING METHOD BASED ON THE HOMOLOGY CONCEPT, 31 May 2017 (2017-05-31), XP055616645, Retrieved from the Internet <URL:https://kaken.nii.ac.jp/file/KAKENHI-PROJECT-26310209/26310209seika.pdf> [retrieved on 20190115] *
NAKANE, KAZUAKI: "(non-official translation) About Automation of Cancer Pathological Image Diagnosis (10th Theory of Biomathematics and its Application)", RIMS KOKYUROKU, vol. 1917, 2014, pages 37 - 42 *
NISHIO, MIZUHO ET AL.: "Application of the homology method for quantification of low- attenuation lung region in patients with and without COPD", INTERNATIONAL JOURNAL OF COPD, vol. 2016, no. 11, 6 September 2016 (2016-09-06), pages 2125 - 2137, XP055616651, DOI: 10.2147/COPD.S110504 *
NISHIO, MIZUHO ET AL.: "Automated prediction of emphysema visual score using homology-based quantification of low-attenuation lung region", PLOS ONE, vol. 12, no. 5, e0178217, 25 May 2017 (2017-05-25), XP055616653, DOI: 10.1371/journal.pone.0178217 *
NISHIO, MIZUHO ET AL.: "Regarding Relationship between Quantitative and Visual Evaluation of Emphysema by Homology and Visual Evaluation and Prediction of Visual Evaluation by Machine Learning", PREPRINTS OF 9TH JAPANESE SOCIETY OF PULMONARY FUNCTIONAL IMAGING, 28 January 2017 (2017-01-28), pages 66 *
QAISER, TALHA ET AL.: "Persistent Homology for Fast Tumor Segmentation in Whole Slide Histology Images", PROCEDIA COMPUTER SCIENCE, vol. 90, 2016, pages 119 - 124, XP029654609, DOI: 10.1016/j.procs.2016.07.033 *

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020241178A1 (ja) * 2019-05-29 2020-12-03 国立大学法人九州大学 肺がん評価装置及び肺がん評価方法
US11295445B2 (en) 2019-10-21 2022-04-05 The Uab Research Foundation Systems and methods for detection and staging of pulmonary fibrosis from image-acquired data
WO2021081104A1 (en) * 2019-10-21 2021-04-29 The Uab Research Foundation Systems and methods for detection and staging of pulmonary fibrosis from image-acquired data
WO2021112205A1 (ja) * 2019-12-05 2021-06-10 国立大学法人大阪大学 画像解析方法、画像解析装置、画像解析システム、制御プログラム、記録媒体
JPWO2021112205A1 (ja) * 2019-12-05 2021-06-10
JP7265805B2 (ja) 2019-12-05 2023-04-27 国立大学法人大阪大学 画像解析方法、画像解析装置、画像解析システム、制御プログラム、記録媒体
WO2021177357A1 (ja) * 2020-03-03 2021-09-10 富士フイルム株式会社 情報処理装置、情報処理方法及び情報処理プログラム
JPWO2021177357A1 (ja) * 2020-03-03 2021-09-10
JP7504987B2 (ja) 2020-03-03 2024-06-24 富士フイルム株式会社 情報処理装置、情報処理方法及び情報処理プログラム
WO2022113801A1 (ja) * 2020-11-25 2022-06-02 パナソニック株式会社 医療用画像の異常検出システム及び異常検出方法
JPWO2022113801A1 (ja) * 2020-11-25 2022-06-02
US20220207738A1 (en) * 2020-12-28 2022-06-30 APSAM Imaging Corp. Image analysis method, estimating device, estimating system, and storage medium
JP2022104405A (ja) * 2020-12-28 2022-07-08 株式会社APSAM Imaging 画像解析方法、推定装置、推定システム、制御プログラム、記録媒体
JP7122017B2 (ja) 2020-12-28 2022-08-19 株式会社APSAM Imaging 画像解析方法、推定装置、推定システム、制御プログラム、記録媒体
US11861836B2 (en) 2020-12-28 2024-01-02 APSAM Imaging Corp. Image analysis method, estimating device, estimating system, and storage medium
WO2023228229A1 (ja) * 2022-05-23 2023-11-30 日本電気株式会社 画像処理装置、画像処理方法、およびプログラム

Also Published As

Publication number Publication date
US11321841B2 (en) 2022-05-03
JP7264486B2 (ja) 2023-04-25
US20200372649A1 (en) 2020-11-26
JPWO2019102829A1 (ja) 2020-12-03

Similar Documents

Publication Publication Date Title
WO2019102829A1 (ja) 画像解析方法、画像解析装置、画像解析システム、画像解析プログラム、記録媒体
Al Mohammad et al. A review of lung cancer screening and the role of computer-aided detection
JP7075882B2 (ja) 肺野病変の診断支援装置、該装置の制御方法及びプログラム
Ali et al. A systematic review of automated melanoma detection in dermatoscopic images and its ground truth data
Sahiner et al. Effect of CAD on radiologists' detection of lung nodules on thoracic CT scans: analysis of an observer performance study by nodule size
US20120166211A1 (en) Method and apparatus for aiding imaging diagnosis using medical image, and image diagnosis aiding system for performing the method
KR101840350B1 (ko) 의료 영상 판독 과정에서 사용자의 시선 정보를 이용한 판독 효율 증대 방법 및 그 장치
WO2015175746A1 (en) Visualization and quantification of lung disease utilizing image registration
RU2699416C2 (ru) Идентификация аннотаций к описанию изображения
US20210217166A1 (en) Automated screening of medical data
US20210077009A1 (en) Predicting response to therapy for adult and pediatric crohn&#39;s disease using radiomic features of mesenteric fat regions on baseline magnetic resonance enterography
CN113017674B (zh) 基于胸部ct图像的egfr基因突变检测方法和系统
EP4183344A1 (en) Device and method for supporting chest medical image reading
Pertuz et al. Clinical evaluation of a fully-automated parenchymal analysis software for breast cancer risk assessment: A pilot study in a Finnish sample
CN115995295A (zh) 基于影像组学的乳腺癌骨转移治疗反应评估方法及系统
US20230386033A1 (en) Image Processing Apparatus, Image Processing Method, and Program
Gupta et al. Performance of lung nodule management algorithms for Lung-RADS category 4 lesions
US20110052025A1 (en) System for imaging pathway verification
Lu et al. A review of the role of ultrasound radiomics and its application and limitations in the investigation of thyroid disease
CN117727441A (zh) 基于临床-融合影像计算机模型预测肺癌免疫疗效方法
KR20160062819A (ko) 갑상선암 자동 판별 방법 및 시스템
CN111265234A (zh) 一种肺部纵膈淋巴结的性质判定方法及系统
JP6275157B2 (ja) 画像データに基づく組織表面ラフネスの定量化、及びそれに基づく疾患の存在の決定
US8935099B2 (en) Method and system for identifying, assessing, and managing cancer growth rates and potential metastasis
KR20230158264A (ko) 의료 영상을 이용하여 침윤암을 예측 진단하기 위한 라디오믹스 기반의 머신러닝 모델

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18882152

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019556166

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18882152

Country of ref document: EP

Kind code of ref document: A1