WO2022137855A1 - 情報処理装置、方法およびプログラム - Google Patents

情報処理装置、方法およびプログラム Download PDF

Info

Publication number
WO2022137855A1
WO2022137855A1 PCT/JP2021/041236 JP2021041236W WO2022137855A1 WO 2022137855 A1 WO2022137855 A1 WO 2022137855A1 JP 2021041236 W JP2021041236 W JP 2021041236W WO 2022137855 A1 WO2022137855 A1 WO 2022137855A1
Authority
WO
WIPO (PCT)
Prior art keywords
regions
region
determination result
feature vector
division
Prior art date
Application number
PCT/JP2021/041236
Other languages
English (en)
French (fr)
Inventor
翼 後藤
嘉郎 北村
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2022571945A priority Critical patent/JPWO2022137855A1/ja
Publication of WO2022137855A1 publication Critical patent/WO2022137855A1/ja
Priority to US18/329,538 priority patent/US20230316517A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • G06V10/765Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects using rules for classification or partitioning the feature space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/54Extraction of image or video features relating to texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/758Involving statistics of pixels or of feature values, e.g. histogram matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10104Positron emission tomography [PET]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30061Lung
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Definitions

  • This disclosure relates to information processing devices, methods and programs.
  • CT Computer Tomography
  • MRI Magnetic Resonance Imaging
  • interstitial pneumonia and pneumonia due to new coronavirus infection are known as lung diseases.
  • abnormalities such as honeycomb lungs, reticular shadows and ground glass shadows contained in the lung field region of the CT images, and tissues such as normal lungs, blood vessels and bronchi are characterized.
  • the present disclosure has been made in view of the above circumstances, and an object thereof is to be able to identify an area that affects the judgment result for the object.
  • the information processing apparatus comprises at least one processor.
  • the processor divides the target image into a plurality of first regions by the first division, and the processor divides the target image into a plurality of first regions.
  • the target image is divided into a plurality of second regions by a second division different from the first division.
  • a feature vector representing at least the features of each second region for each of the first regions is derived. Derived the judgment result for the object included in the target image based on the feature vector, Identify the influential elements that affect the judgment result among the elements of the feature vector, The affected area that affects the judgment result in the target image is specified based on the affected element.
  • the processor may display the target image by emphasizing the affected area.
  • the affected area is the area of the object, at least one area of the plurality of first areas, and the area of at least one of the plurality of second areas. Of, at least one may be used.
  • the target image may be a medical image
  • the target object may be an anatomical structure
  • the determination result may be a determination result regarding the presence or absence of a disease.
  • the first division is a division based on the geometrical characteristics or anatomical classification of the anatomical structure.
  • the second division may be a division based on the properties of the anatomical structure.
  • the processor may acquire the determination result for the object by linearly discriminating each element of the feature vector.
  • the processor may perform linear discrimination by comparing the weighted addition value of each element of the feature vector with the threshold value.
  • the processor when the determination result is the determination result of the presence or absence of a disease, the processor is out of each element of the weighted feature vector when the determination result of the presence or absence of a disease is derived. , Specify the area where the upper predetermined number of elements with a large weighted value are obtained as the affected area. When the determination result of no disease is derived, even if the region in which the lower predetermined number of elements having a small weighted value is obtained among the elements of the weighted feature vector is specified as the affected region. good.
  • the processor when the determination result is the determination result of the presence or absence of a disease, the processor is out of each element of the weighted feature vector when the determination result of the presence or absence of the disease is derived.
  • the area where the element whose weighted value is equal to or higher than the first threshold value is obtained is specified as the affected area.
  • the region in which the weighted value is equal to or less than the second threshold value among the elements of the weighted feature vector is specified as the affected region. May be.
  • the feature of each of the second regions for each of the first regions is the first of each of the plurality of second regions included in each of the first regions. It may be a ratio to the area.
  • the target image is divided into a plurality of first regions by the first division, and the target image is divided into a plurality of first regions.
  • the target image is divided into a plurality of second regions by a second division different from the first division.
  • a feature vector representing at least the features of each second region for each of the first regions is derived. Derived the judgment result for the object included in the target image based on the feature vector, Identify the influential elements that affect the judgment result among the elements of the feature vector, The affected area that affects the judgment result in the target image is specified based on the affected element.
  • FIG. 1 is a hardware configuration diagram showing an outline of a diagnostic support system to which the information processing apparatus according to the embodiment of the present disclosure is applied.
  • the information processing device 1, the photographing device 2, and the image storage server 3 according to the present embodiment are connected in a communicable state via the network 4.
  • the image storage server 3 is a computer that stores and manages various data, and is equipped with a large-capacity external storage device and database management software.
  • the image storage server 3 communicates with other devices via a wired or wireless network 4 to send and receive image data and the like.
  • various data including image data of medical images generated by the imaging device 2 are acquired via a network and stored in a recording medium such as a large-capacity external storage device for management.
  • the storage format of the image data and the communication between the devices via the network 4 are based on a protocol such as DICOM (Digital Imaging and Communication in Medicine).
  • FIG. 2 describes the hardware configuration of the information processing apparatus according to the present embodiment.
  • the information processing device 1 includes a CPU (Central Processing Unit) 11, a non-volatile storage 13, and a memory 16 as a temporary storage area.
  • the information processing device 1 includes a display 14 such as a liquid crystal display, an input device 15 such as a keyboard and a mouse, and a network I / F (InterFace) 17 connected to the network 4.
  • the CPU 11, the storage 13, the display 14, the input device 15, the memory 16, and the network I / F 17 are connected to the bus 18.
  • the CPU 11 is an example of the processor in the present disclosure.
  • the storage 13 is realized by an HDD (Hard Disk Drive), an SSD (Solid State Drive), a flash memory, or the like.
  • An information processing program is stored in the storage 13 as a storage medium.
  • the CPU 11 reads the information processing program 12 from the storage 13, expands it into the memory 16, and executes the expanded information processing program 12.
  • FIG. 3 is a diagram showing a functional configuration of the information processing apparatus according to the present embodiment.
  • the information processing apparatus 1 includes an image acquisition unit 21, a first division unit 22, a second division unit 23, a feature vector derivation unit 24, a determination unit 25, an element identification unit 26, an area identification unit 27, and a display.
  • a control unit 28 is provided.
  • the CPU 11 executes the information processing program 12
  • the CPU 11 has an image acquisition unit 21, a first division unit 22, a second division unit 23, a feature vector derivation unit 24, a determination unit 25, and an element identification unit 26. It functions as an area specifying unit 27 and a display control unit 28.
  • the image acquisition unit 21 acquires a target image to be image-read from the image storage server 3 according to an instruction from the input device 15 by the image-reading doctor who is the operator.
  • the first division unit 22 divides the object included in the target image, that is, the anatomical structure, into a plurality of first regions by the first division.
  • the first division unit 22 divides the lung included in the target image into a plurality of first regions.
  • the first division portion 22 extracts the lung region from the target image.
  • a method for extracting the lung region a method of producing a histogram of the signal value for each pixel in the target image and extracting the lung by threshold processing, or a region expansion method based on a seed point representing the lung (Region Growing), etc. , Any method can be used.
  • the lung region may be extracted from the target image using a discriminator that has been machine-learned to extract the lung region.
  • the first division unit 22 divides the left and right lung regions extracted from the target image based on the geometric characteristics of the lung regions. Specifically, the lung region is divided into three first regions (upper, middle, and lower) (vertical division). As the method of vertical division, any method can be used, such as a method based on the bifurcation position of the bronchus, or a method of dividing the length or volume of the lung region in the vertical direction into three equal parts in the vertical direction. Further, the first division portion 22 divides the lung region into an outer region and an inner region (internal / external division). Specifically, the first division portion 22 divides the left and right lung regions into an outer region having a volume of 50 to 60% from the pleura to the lung region and an inner region other than the pleura.
  • FIG. 4 is a diagram schematically showing the division result of the lung region.
  • the upper view in FIG. 4 shows an axial cross section of the lung region, and the lower figure shows a coronal cross section.
  • the first division portion 22 divides the left and right lung regions into six first regions, respectively.
  • the first division of the lung region by the first division portion 22 is not limited to the above-mentioned method.
  • interstitial pneumonia which is one of the diseases of the lungs, may spread lesions around the bronchi and blood vessels. Therefore, the bronchial region and the blood vessel region may be extracted in the lung region, and the lung region may be divided into a predetermined range region and a non-regional region around the bronchial region and the blood vessel region.
  • the predetermined range may be a range of about 1 cm from the surfaces of the bronchi and blood vessels.
  • the first division portion 22 may divide the lung region based on the anatomical classification of the lung region.
  • the left and right lungs may be divided into an upper lobe of the left lung, a lower lobe of the left lung, an upper lobe of the right lung, a middle lobe of the right lung, and a lower lobe of the right lung.
  • the second division unit 23 divides the target image into a plurality of second regions by a second division different from the first division. Specifically, by analyzing the target image, each pixel of the lung region included in the target image is classified into a plurality of predetermined properties, and the lung region is divided into a plurality of second regions, each of which represents a different property. Is divided.
  • the second division unit 23 has a learning model 23A in which machine learning is performed so as to discriminate the properties of each pixel in the lung region included in the target image.
  • the learning model 23A describes the lung region included in the medical image as, for example, a normal lung, a pale glazed shadow, a glazed shadow, a reticular shadow, an infiltrative shadow, a honeycomb lung, an hyperpermeable lung, a granular shadow, and the like.
  • Bronchi, and blood vessels have been learned to classify into 11 types of properties.
  • the types of properties are not limited to these, and may be more properties than these, or may be less than these.
  • the learning model 23A determines the property based on the texture of the medical image.
  • the learning model 23A comprises a convolutional neural network in which machine learning is performed by deep learning (deep learning) or the like using teacher data so as to discriminate the properties of each pixel of the medical image.
  • the teacher data for learning the learning model 23A consists of a combination of a medical image and correct answer data representing the classification result of the properties of the medical image.
  • the learning model 23A outputs a property score for each of the plurality of properties for each pixel of the medical image.
  • the property score is a score indicating the prominence of the property for each property.
  • the property score takes, for example, a value of 0 or more and 1 or less, and the larger the value of the property score, the more remarkable the property.
  • FIG. 5 is a diagram showing a property score according to the type of property for a certain pixel.
  • evaluation values for some properties are shown for the sake of simplicity.
  • the second division unit 23 classifies the input pixel into the property having the largest property score among the property scores for each property output by the learning model 23A for the input pixel. For example, when the property score as shown in FIG. 5 is output, the pixel is most likely to be a frosted glass shadow, followed by a light frosted glass shadow. Conversely, there is little possibility of bronchi or blood vessels. Therefore, when the property score as shown in FIG. 5 is output, the second division unit 23 classifies the pixel into a frosted glass shadow having a maximum property score of 0.9.
  • FIG. 6 is a diagram showing the result of division by the second division. Note that FIG. 6 shows a tomographic image of one tomographic surface of the target image. Further, in FIG. 6, for the sake of simplicity, only the division results of normal lung, pale glazed shadow, glazed glazed shadow, honeycomb lung, reticular shadow, infiltration shadow, granular shadow and other eight types of properties are shown. Shows.
  • a mapping image may be generated by assigning a color to the second region of each property in the target image, and the mapping image may be displayed on the display 14.
  • the feature vector derivation unit 24 derives a feature vector that at least represents the features of each of the second regions for each of the first regions.
  • the feature vector derivation unit 24 has (1) the ratio of each of the plurality of second regions included in each of the first regions to the first region (first feature amount), (1). 2) The ratio of each of the plurality of second regions to the lung region (second feature amount), (3) the ratio of each of the plurality of second regions contained in each of the plurality of first regions (third). (4) Ratio of the area of the second region of the light ground glass shadow and the ground glass shadow property to the volume of the second region of the light ground glass shadow and the ground glass shadow property (fourth feature amount). , Is included as an element, and a feature vector is derived.
  • the feature vector derivation unit 24 derives the volume of each of the 11 types of second regions for each of the left and right lung regions. Then, the feature vector derivation unit 24 derives the ratio in which the volume of the derived second region is included in each of the six first regions of the left and right lung regions for each first region.
  • the region of the ground glass shadow included in the first region LI can be divided.
  • the ratio (V12 / V0) is derived as the third feature quantity for the first region LI.
  • the ratio of the ground glass shadow region included in the first region MI. (V2 / V0) is derived as a third feature quantity for the first region MI.
  • the first region UO, UI, MO does not include the region of the frosted glass shadow. Therefore, the ratio of the frosted glass shadow region included in the first region UO, UI, and MO is 0.
  • FIG. 8 is a diagram for explaining the derivation of the fourth feature amount.
  • the region of the frosted glass shadow is shown in two dimensions. Therefore, one square in FIG. 8 represents one voxel.
  • the voxel number PV of the frosted glass shadow region 30 is 26.
  • the number of voxels PA existing on the surface of the frosted glass shadow region is 20.
  • voxels existing on the surface of the frosted glass shadow region are marked with a cross.
  • the feature vector derivation unit 24 derives the fourth feature amount as PA / PV, that is, 20/26.
  • the feature vector derivation unit 24 derives the fourth feature amount by dividing the total surface area of all the light ground glass shadows and the ground glass shadow regions by the total volume. Therefore, the feature vector derivation unit 24 derives one fourth feature quantity.
  • the feature vector derivation unit 24 derives a feature vector having each of the first to fourth feature quantities as an element. Since the first feature quantity is 132, the second feature quantity is 22, the third feature quantity is 132, and the fourth feature quantity is 1, the number of elements of the derived feature vector is 287. It becomes.
  • the determination unit 25 derives a determination result for the lung region, specifically, a determination result of the presence or absence of a disease, based on the feature vector derived by the feature vector derivation unit 24.
  • the determination unit 25 shall derive the determination result of the presence or absence of corona pneumonia due to the new coronavirus virus infection.
  • the weighting coefficient mk in the equation (1) is determined by machine learning.
  • a feature vector derived from a medical image known to have corona pneumonia hereinafter referred to as corona medical image
  • a weighted addition value S0 calculated from the feature vector.
  • a plurality of negative teacher data consisting of a combination of a feature vector derived from a medical image known not to be corona pneumonia hereinafter referred to as a non-corona medical image
  • a weighted addition value S0 calculated from the feature vector are prepared. do.
  • a discriminator is constructed by performing machine learning to determine mk.
  • the acquisition of the determination result performed by the determination unit 25 is not limited to the above linear determination.
  • it may be composed of a support vector machine (SVM (Support Vector Machine)) or a neural network such as a convolutional neural network (CNN (Convolutional Neural Network)).
  • SVM Support Vector Machine
  • CNN convolutional neural network
  • the element specifying unit 26 identifies an influential element that affects the determination result of the presence or absence of corona pneumonia among the elements of the feature vector.
  • the determination result of the presence or absence of corona pneumonia is derived by performing linear determination in the determination unit 25.
  • the element specifying unit 26 compares the values of the weighted elements mk ⁇ ⁇ k in the equation (1) for all the elements of the feature vector, and the value of mk ⁇ ⁇ k is calculated. Specify a large upper predetermined number of factors as influential factors. For example, the element specifying unit 26 identifies the top three elements having a large value of mk ⁇ ⁇ k as influential elements.
  • the element specifying unit 26 identifies ⁇ 1, ⁇ 3, and ⁇ 7 as influential elements.
  • the element specifying unit 26 compares the values of the weighted elements mk ⁇ ⁇ k in the equation (1) for all the elements of the feature vector, and determines that mk ⁇ ⁇ k. Identify the lower predetermined number of elements with small values as influential elements.
  • the element specifying unit 26 may specify all the elements in which the value of mk ⁇ ⁇ k is equal to or higher than the first threshold value Th1 as the influential element. .. In this case, when the determination result without corona pneumonia is derived, all the factors in which the value of mk ⁇ ⁇ k is equal to or less than the second threshold value Th2 may be specified as the influential factor.
  • the area specifying unit 27 identifies an affected area that affects the determination result in the lung region based on the affected element specified by the element specifying unit 26. In the present embodiment, the area specifying unit 27 specifies which of the first to fourth feature quantities is for all the influential elements specified by the element specifying unit 26.
  • the region specifying unit 27 specifies the first region from which the first feature amount, which is an influential element, is derived as the influential region. For example, if the influencing factor is derived in the upper and outer first region of the left lung first region, the region identification unit 27 may cover the upper and outer first region of the left lung. Identify in the affected area.
  • the influential elements are the first feature quantities
  • all the first regions from which the first feature quantities that are the influential elements are derived are specified as the influential regions.
  • the second feature amount is the ratio of each region of the plurality of types of properties to the lung region. Therefore, the region specifying unit 27 specifies the entire region of the lung region from which the second feature amount is derived as the affected region. Alternatively, since 11 second feature quantities have been derived in each of the left and right lung regions, the second region from which the second feature quantity as an influential factor has been derived may be specified as the influential region.
  • the identified multiple influencing factors are the second features, the second region for the properties of the honeycomb lung contained in the left lung region, the second region for the properties of the ground glass shadow, and the right lung region, respectively.
  • the region specifying portion 27 is a second region for the properties of the honeycomb lung in the left lung region, a second region for the properties of the ground glass shadow in the left lung region, and the properties of the infiltrative shadow in the right lung region.
  • the second region may be specified as the affected region.
  • the influential element contains only the second feature amount, either the entire region of the lung region described above is specified as the influential region, or the second region that is the influential element included in the lung region is used as the influential region. It may be possible to set whether to specify the above according to the instruction from the input device 15.
  • the region specifying unit 27 may specify the first region from which the third feature amount, which is an influential element, is derived as the influential region. For example, when the first region from which the influential element is derived is the inner first region on the lower side of the right lung, the first region may be specified as the influential region.
  • the fourth feature amount is the second of the properties of the light frosted glass shadow and the frosted glass shadow with respect to the volume of the second region of the properties of the light frosted glass shadow and the frosted glass shadow. It is the ratio of the area of the area. Therefore, the region specifying portion 27 may specify a second region having the properties of a light frosted glass shadow and a frosted glass shadow as an affected region.
  • FIG. 9 is a diagram showing a display screen of the target image.
  • the display screen 40 of the target image includes a first image area 41, a second image area 42, and a text area 43.
  • a tomographic image Da of an axial cross section of the target image is displayed.
  • the tomographic image Dc of the coronal cross section of the target image is displayed.
  • a broken line is displayed at the boundary of the first region.
  • the affected area is highlighted in the tomographic images Da and Dc.
  • highlighting is shown by adding hatching to the affected area, but the present invention is not limited to this.
  • the affected area may be highlighted by thickening the line surrounding the affected area, increasing the brightness of the affected area, or adding color to the affected area.
  • the displayed tomographic images Dc and Da can be switched by moving the mouse cursor to the first image area 41 and the second image area 42 and rotating the mouse wheel. Further, in the text area 43, a finding text representing the interpretation result for the tomographic images Da and Dc can be input.
  • the determination unit 25 derives a determination result for the lung region, specifically, a determination result for the presence or absence of a disease in the lung region, based on the feature vector derived by the feature vector derivation unit 24 (step ST4).
  • the element specifying unit 26 identifies an influential element that affects the determination result of the presence or absence of corona pneumonia among the elements of the feature vector (step ST5), and the region specifying unit 27 identifies the influence of the element specifying unit 26.
  • the region of influence that affects the determination result is specified in the lung region (step ST6).
  • the display control unit 28 emphasizes the affected area specified by the area specifying unit, displays the target image on the display 14 (step ST7), and ends the process.
  • a feature vector representing at least the characteristics of each of the second regions for each of the first regions is derived, and the determination result of the presence or absence of a disease in the lung region is determined based on the feature vector. I tried to derive it. Furthermore, among the elements of the feature vector, the influential elements that affect the determination result were identified, and the influential regions that affect the determination results in the lung region were specified based on the influential elements. Therefore, according to the present embodiment, it is possible to specify the affected region in the lung region that affects the determination result regarding the presence or absence of a lung disease such as corona pneumonia.
  • the affected area included in the target image can be easily confirmed.
  • the feature vector derivation unit 24 derives the first to fourth feature quantities, but the present invention is not limited to this. You may derive only the first feature quantity and derive the feature vector consisting of only the first feature quantity. Further, only the third feature amount may be derived to derive the feature vector consisting of only the third feature amount. Further, only the fourth feature amount may be derived to derive the feature vector consisting of only the fourth feature amount. It is possible to derive a feature vector consisting of only the second feature derived from only the second feature, but in this case, the affected region is not specified to the entire lung region, and the affected element. The second region from which the second feature amount is derived may be specified as the influence region.
  • the processing unit Processes
  • the CPU which is a general-purpose processor that executes software (program) and functions as various processing units
  • circuits after manufacturing FPGA Field Programmable Gate Array
  • Dedicated electricity which is a processor with a circuit configuration specially designed to execute specific processing such as programmable logic device (PLD), ASIC (Application Specific Integrated Circuit), which is a processor whose configuration can be changed. Circuits etc. are included.
  • One processing unit may be composed of one of these various processors, or a combination of two or more processors of the same type or different types (for example, a combination of a plurality of FPGAs or a combination of a CPU and an FPGA). ) May be configured. Further, a plurality of processing units may be configured by one processor.
  • one processor is configured by a combination of one or more CPUs and software. There is a form in which this processor functions as a plurality of processing units.
  • SoC System On Chip
  • the various processing units are configured by using one or more of the above-mentioned various processors as a hardware-like structure.
  • circuitry in which circuit elements such as semiconductor elements are combined can be used.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Public Health (AREA)
  • Databases & Information Systems (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Artificial Intelligence (AREA)
  • Epidemiology (AREA)
  • Pathology (AREA)
  • Primary Health Care (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Quality & Reliability (AREA)
  • Biophysics (AREA)
  • Geometry (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

プロセッサは、第1の分割により対象画像を複数の第1の領域に分割し、第1の分割とは異なる第2の分割により対象画像を複数の第2の領域に分割し、第1の領域のそれぞれについての前記第2の領域毎の特徴を少なくとも表す特徴ベクトルを導出し、特徴ベクトルに基づいて対象画像に含まれる対象物に対する判定結果を導出し、特徴ベクトルの要素のうち判定結果に影響を与える影響要素を特定し、影響要素に基づいて対象画像において判定結果に影響を与える影響領域を特定する。

Description

情報処理装置、方法およびプログラム
 本開示は、情報処理装置、方法およびプログラムに関するものである。
 近年、CT(Computed Tomography)装置およびMRI(Magnetic Resonance Imaging)装置等の医療機器の進歩により、より質の高い高解像度の3次元画像が画像診断に用いられるようになってきている。
 ところで、肺の疾患として間質性肺炎および新型コロナウイルス感染症による肺炎(コロナ肺炎)が知られている。また、間質性肺炎の患者のCT画像を解析することにより、CT画像の肺野領域に含まれる蜂窩肺、網状影およびすりガラス影等の異常、並びに正常肺、血管および気管支等の組織を性状として分類して定量化する手法が提案されている(「Evaluation of computer-based computer tomography stratification against outcome models in connective tissue disease-related interstitial lung disease: a patient outcome study、Joseph Jacob1ら、BMC Medicine (2016) 14:190、DOI 10.1186/s12916-016-0739-7」、「コンピュータによる間質性肺炎のCT画像の定量評価、岩澤多恵、断層映像研究会雑誌 第41巻第2号、2014年8月」参照)。このようにCT画像を解析して性状を分類して、性状の体積、面積および画素数等を定量化することにより、肺の疾患の程度を容易に判定することができる。このような性状を分類する手法として、複数の処理層が階層的に接続されることにより多層ニューラルネットワークをディープラーニングすることにより構築されたモデルを用いることも行われている(特開2020-032043号公報参照)。
 ところで、上述したような性状の分類結果を用いて、間質性肺炎あるいはコロナ肺炎等に罹患しているか否かを判定することも可能である。しかしながら、肺の疾患を医師が判定する場合、特定の性状が肺内におけるいずれの領域に分布しているかが、疾患の判定結果に影響を与えることが多い。
 本開示は上記事情に鑑みなされたものであり、対象物に対する判定結果に影響を与える領域を特定できるようにすることを目的とする。
 本開示による情報処理装置は、少なくとも1つのプロセッサを備え、
 プロセッサは、第1の分割により対象画像を複数の第1の領域に分割し、
 第1の分割とは異なる第2の分割により対象画像を複数の第2の領域に分割し、
 第1の領域のそれぞれについての第2の領域毎の特徴を少なくとも表す特徴ベクトルを導出し、
 特徴ベクトルに基づいて対象画像に含まれる対象物に対する判定結果を導出し、
 特徴ベクトルの要素のうち判定結果に影響を与える影響要素を特定し、
 影響要素に基づいて対象画像において判定結果に影響を与える影響領域を特定する。
 なお、本開示による情報処理装置においては、プロセッサは、影響領域を強調して対象画像を表示するものであってもよい。
 また、本開示による情報処理装置においては、影響領域は、対象物の領域、複数の第1の領域のうちの少なくとも1つの領域、および複数の第2の領域のうちの少なくとも1つの領域のうちの、少なくとも1つであってもよい。
 また、本開示による情報処理装置においては、対象画像は医用画像であり、対象物は解剖学的構造物であり、判定結果は疾患の有無に関する判定結果であってもよい。
 また、本開示による情報処理装置においては、第1の分割は、解剖学的構造物の幾何学な特性または解剖学的な分類に基づく分割であり、
 第2の分割は、解剖学的構造物の性状に基づく分割であってもよい。
 また、本開示による情報処理装置においては、プロセッサは、特徴ベクトルの各要素を線形判別することにより、対象物に対する判定結果を取得するものであってもよい。
 また、本開示による情報処理装置においては、プロセッサは、特徴ベクトルの各要素の重み付け加算値をしきい値と比較することにより、線形判別を行うものであってもよい。
 また、本開示による情報処理装置においては、判定結果が疾患の有無の判定結果である場合において、プロセッサは、疾患が有りの判定結果が導出された場合、重み付けられた特徴ベクトルの各要素のうち、重み付けられた値が大きい上位所定数の要素が得られた領域を影響領域に特定し、
 疾患が無しの判定結果が導出された場合、重み付けられた特徴ベクトルの各要素のうち、重み付けられた値が小さい下位所定数の要素が得られた領域を影響領域に特定するものであってもよい。
 また、本開示による情報処理装置においては、判定結果が疾患の有無の判定結果である場合において、プロセッサは、疾患が有りの判定結果が導出された場合、重み付けられた特徴ベクトルの各要素のうち、重み付けられた値が第1のしきい値以上となる要素が得られた領域を影響領域に特定し、
 疾患が無しの判定結果が導出された場合、重み付けられた特徴ベクトルの各要素のうち、重み付けられた値が第2のしきい値以下となる要素が得られた領域を影響領域に特定するものであってもよい。
 また、本開示による情報処理装置においては、第1の領域のそれぞれについての第2の領域毎の特徴は、第1の領域のそれぞれに含まれる複数の第2の領域のそれぞれの、第1の領域に対する割合であってもよい。
 また、本開示による情報処理装置においては、特徴ベクトルは、対象物の領域に対する複数の第2の領域のそれぞれの割合、複数の第2の領域のそれぞれが複数の第1の領域のそれぞれに含まれる割合、および対象物の領域内における特定の性状を表す第2の領域に対する特定の性状の境界の割合の少なくとも1つを表す特徴量を要素としてさらに含むものであってもよい。
 本開示による情報処理方法は、第1の分割により対象画像を複数の第1の領域に分割し、
 第1の分割とは異なる第2の分割により対象画像を複数の第2の領域に分割し、
 第1の領域のそれぞれについての第2の領域毎の特徴を少なくとも表す特徴ベクトルを導出し、
 特徴ベクトルに基づいて対象画像に含まれる対象物に対する判定結果を導出し、
 特徴ベクトルの要素のうち判定結果に影響を与える影響要素を特定し、
 影響要素に基づいて対象画像において判定結果に影響を与える影響領域を特定する。
 なお、本開示による情報処理方法をコンピュータに実行させるためのプログラムとして提供してもよい。
 本開示によれば、対象物に対する判定結果に影響を与える領域を特定できる。
本開示の実施形態による情報処理装置を適用した診断支援システムの概略構成を示す図 本実施形態による情報処理装置の概略構成を示す図 本実施形態による情報処理装置の機能構成図 第1の分割による分割結果を示す図 ある画素についての性状の種類に応じた性状スコアを示す図 第2の分割による分類結果を示す図 第3の特徴量の導出を説明するための図 第4の特徴量の導出を説明するための図 対象画像の表示画面を示す図 本実施形態において行われる処理を示すフローチャート
 以下、図面を参照して本開示の実施形態について説明する。図1は、本開示の実施形態による情報処理装置を適用した、診断支援システムの概要を示すハードウェア構成図である。図1に示すように、診断支援システムでは、本実施形態による情報処理装置1、撮影装置2、および画像保管サーバ3が、ネットワーク4を経由して通信可能な状態で接続されている。
 撮影装置2は、被検体の診断対象となる部位を撮影することにより、その部位を表す3次元画像を生成する装置であり、具体的には、CT装置、MRI装置、およびPET(Positron Emission Tomography)装置等である。この撮影装置2により生成された、複数のスライス画像からなる3次元画像は画像保管サーバ3に送信され、保存される。なお、本実施形態においては、被検体である患者の診断対象部位は肺であり、撮影装置2はCT装置であり、被検体の肺を含む胸部のCT画像を3次元画像として生成する。
 画像保管サーバ3は、各種データを保存して管理するコンピュータであり、大容量外部記憶装置およびデータベース管理用ソフトウェアを備えている。画像保管サーバ3は、有線あるいは無線のネットワーク4を介して他の装置と通信を行い、画像データ等を送受信する。具体的には撮影装置2で生成された医用画像の画像データを含む各種データをネットワーク経由で取得し、大容量外部記憶装置等の記録媒体に保存して管理する。なお、画像データの格納形式およびネットワーク4経由での各装置間の通信は、DICOM(Digital Imaging and Communication in Medicine)等のプロトコルに基づいている。
 次いで、本実施形態による情報処理装置について説明する。図2は、本実施形態による情報処理装置のハードウェア構成を説明する。図2に示すように、情報処理装置1は、CPU(Central Processing Unit)11、不揮発性のストレージ13、および一時記憶領域としてのメモリ16を含む。また、情報処理装置1は、液晶ディスプレイ等のディスプレイ14、キーボードとマウス等の入力デバイス15、およびネットワーク4に接続されるネットワークI/F(InterFace)17を含む。CPU11、ストレージ13、ディスプレイ14、入力デバイス15、メモリ16およびネットワークI/F17は、バス18に接続される。なお、CPU11は、本開示におけるプロセッサの一例である。
 ストレージ13は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、およびフラッシュメモリ等によって実現される。記憶媒体としてのストレージ13には、情報処理プログラムが記憶される。CPU11は、ストレージ13から情報処理プログラム12を読み出してからメモリ16に展開し、展開した情報処理プログラム12を実行する。
 次いで、本実施形態による情報処理装置の機能的な構成を説明する。図3は、本実施形態による情報処理装置の機能的な構成を示す図である。図3に示すように情報処理装置1は、画像取得部21、第1分割部22、第2分割部23、特徴ベクトル導出部24、判定部25、要素特定部26、領域特定部27および表示制御部28を備える。そして、CPU11が、情報処理プログラム12を実行することにより、CPU11は、画像取得部21、第1分割部22、第2分割部23、特徴ベクトル導出部24、判定部25、要素特定部26、領域特定部27および表示制御部28として機能する。
 画像取得部21は、操作者である読影医による入力デバイス15からの指示により、画像保管サーバ3から読影の対象となる対象画像を取得する。
 第1分割部22は、第1の分割により、対象画像に含まれる対象物、すなわち解剖学的構造物を複数の第1の領域に分割する。本実施形態においては、第1分割部22は、対象画像に含まれる肺を複数の第1の領域に分割する。このために、第1分割部22は、対象画像から肺領域を抽出する。肺領域を抽出する手法としては、対象画像における画素毎の信号値をヒストグラム化し、肺をしきい値処理することにより抽出する方法、または肺を表すシード点に基づく領域拡張法(Region Growing)等、任意の手法を用いることができる。なお、肺領域を抽出するように機械学習がなされた判別器を用いて対象画像から肺領域を抽出するようにしてもよい。
 本実施形態において、第1分割部22は、対象画像から抽出した左右の肺領域を、肺領域の幾何的な特性に基づいて分割する。具体的には、肺領域を上、中、下の3つの第1の領域に分割する(縦分割)。縦分割の手法としては、気管支の分岐位置を基準とする手法、あるいは肺領域の上下方向の長さまたは体積を上下方向に3等分する手法等、任意の手法を用いることができる。さらに、第1分割部22は、肺領域を外側領域と内側領域とに分割する(内外分割)。具体的には、第1分割部22は、左右の肺領域を、胸膜から肺領域の体積で50~60%となる外側領域とそれ以外の内側領域とに肺領域を分割する。
 図4は肺領域の分割結果を模式的に示す図である。図4における上側の図は肺領域のアキシャル断面を、下側の図はコロナル断面を示す。図4に示すように、第1分割部22は、左右の肺領域をそれぞれ6つの第1の領域に分割する。
 なお、第1分割部22による肺領域の第1の分割は上述した手法に限定されるものではない。例えば、肺の疾患の1つである間質性肺炎は、気管支および血管の周囲に病変部が広がる場合がある。このため、肺領域において気管支領域および血管領域を抽出し、気管支領域および血管領域の周囲の予め定められた範囲の領域とそれ以外の領域とに、肺領域を分割してもよい。なお、予め定められた範囲としては、気管支および血管の表面から1cm程度の範囲の領域とすることができる。また、第1分割部22は、肺領域の解剖学的な分類に基づいて肺領域を分割してもよい。例えば、左右の肺を、左肺上葉、左肺下葉、右肺上葉、右肺中葉および右肺下葉に分割するようにしてもよい。
 第2分割部23は、第1の分割とは異なる第2の分割により、対象画像を複数の第2の領域に分割する。具体的には、対象画像を解析することにより、対象画像に含まれる肺領域の各画素を予め定められた複数の性状に分類し、それぞれが異なる性状を表す複数の第2の領域に肺領域を分割する。このために、第2分割部23は、対象画像に含まれる肺領域の各画素の性状を判別するように機械学習がなされた学習モデル23Aを有する。
 本実施形態においては、学習モデル23Aは、医用画像に含まれる肺領域を、例えば、正常肺、淡いすりガラス影、すりガラス影、網状影、浸潤影、蜂窩肺、透過性亢進肺、粒状影、その他、気管支、および血管の11種類の性状に分類するように学習がなされている。なお、性状の種類はこれらに限定されるものではなく、これらより多くの性状であってもよく、これらより少ない性状であってもよい。ここでは、性状の種類に応じて医用画像のテクスチャが異なるものとして、学習モデル23Aは、医用画像のテクスチャに基づいて性状を判別する。
 本実施形態においては、学習モデル23Aは、医用画像の各画素の性状を判別するように、教師データを用いてディープラーニング(深層学習)等により機械学習がなされた畳み込みニューラルネットワークからなる。
 学習モデル23Aを学習するための教師データは、医用画像とこの医用画像についての性状の分類結果を表す正解データとの組み合わせからなる。学習モデル23Aは、医用画像が入力されると、医用画像の各画素について、複数の性状のそれぞれについての性状スコアを出力する。性状スコアは、各性状についての性状の顕著性を示すスコアである。性状スコアは例えば0以上1以下の値をとり、性状スコアの値が大きい程、その性状が顕著であることを示す。
 図5は、ある画素についての性状の種類に応じた性状スコアを示す図である。なお、図5においては、説明を簡単なものとするために一部の性状についての評価値を示す。本実施形態において、第2分割部23は、入力された画素について学習モデル23Aが出力した各性状についての性状スコアのうち、最も性状スコアが大きい性状に、入力された画素を分類する。例えば、図5に示すような性状スコアが出力された場合、その画素は、すりガラス影である可能性が最も高く、次に淡いすりガラス影の可能性が高い。逆に気管支または血管の可能性はほとんど無い。このため、図5に示すような性状スコアが出力された場合、第2分割部23は、その画素は性状スコアが最大の0.9であるすりガラス影に分類する。このような分類の処理を肺領域内の全画素について行うことにより、肺領域内の全画素が複数種類の性状のいずれに分類される。そして、第2分割部23は、性状の分類結果に基づいて肺領域を性状毎の複数の第2の領域に分割する。
 図6は、第2の分割による分割結果を示す図である。なお、図6は対象画像の1つの断層面の断層画像を示している。また、図6においては、説明を簡単なものとするために、正常肺、淡いすりガラス影、すりガラス影、蜂窩肺、網状影、浸潤影、粒状影およびその他の8種類の性状の分割結果のみを示している。なお、対象画像における各性状の第2の領域に色を割り当てることによりマッピング画像を生成し、マッピング画像をディスプレイ14に表示するようにしてもよい。
 特徴ベクトル導出部24は、第1の領域のそれぞれについての第2の領域毎の特徴を少なくとも表す特徴ベクトルを導出する。本実施形態においては、特徴ベクトル導出部24は、(1)第1の領域のそれぞれに含まれる複数の第2の領域のそれぞれの、第1の領域に対する割合(第1の特徴量)、(2)肺領域に対する複数の第2の領域のそれぞれの割合(第2の特徴量)、(3)複数の第2の領域のそれぞれが複数の第1の領域のそれぞれに含まれる割合(第3の特徴量)、および(4)淡いすりガラス影およびすりガラス影の性状の第2の領域の体積に対する、淡いすりガラス影およびすりガラス影の性状の第2の領域の面積の割合(第4の特徴量)、を要素として含む特徴ベクトルを導出する。
 まず、第1の特徴量の導出について説明する。特徴ベクトル導出部24は、左右の肺領域の6つの第1の領域のそれぞれの体積を導出する。具体的には第1の領域のそれぞれのボクセル数を導出する。また、第1の領域のそれぞれについて、11種類の第2の領域のそれぞれの体積(すなわちボクセル数)を導出する。そして、第1の領域毎に11種類の第2の領域のそれぞれの体積を第1の領域の体積により除算することにより、第1の特徴量を導出する。第1の特徴量に関して、特徴ベクトル導出部24は、1つの第1の領域について11種類の性状の第2の領域のそれぞれについての11個の体積の割合を第1の特徴量として導出する。本実施形態においては、左右の肺領域はそれぞれ6個の第1の領域に分割されている。このため、特徴ベクトル導出部24は、2×6×11=132個の第1の特徴量を導出する。
 第2の特徴量について、特徴ベクトル導出部24は、まず左右の肺領域のそれぞれの体積を導出する。また、特徴ベクトル導出部24は、左右の肺領域のそれぞれについて、11種類の第2の領域のそれぞれの体積を導出する。そして、左右の肺領域毎に11種類の第2の領域のそれぞれの体積を肺領域の体積により除算することにより、第2の特徴量を導出する。第2の特徴量に関して、特徴ベクトル導出部24は、1つの肺領域について11種類の第2の領域のそれぞれについての11個の体積の割合を第2の特徴量として導出する。このため、特徴ベクトル導出部24は、2×11=22個の第2の特徴量を導出する。
 第3の特徴量について、特徴ベクトル導出部24は、左右の肺領域のそれぞれについて、11種類の第2の領域のそれぞれの体積を導出する。そして、特徴ベクトル導出部24は、導出した第2の領域の体積が左右の肺領域の6つの第1の領域のそれぞれに含まれる割合を、第1の領域毎に導出する。図7は第3の特徴量の導出を説明するための図である。なお、図7は説明のために右肺のみを示している。図7に示すように、右肺が第1の分割により6つの第1の領域UO,UI,MO,MI,LO,LIに分割されており、第2の領域としてすりガラス影の領域A1,A2が図7に示すように右肺に分布しているとする。特徴ベクトル導出部24は、すりガラス影の領域A1,A2のそれぞれの体積V1,V2を導出し、すりガラス影の領域A1,A2の全体積V0(=V1+V2)を導出する。
 ここで、図7に示すように、すりガラス影の領域A1は、第1の領域LO,LIに含まれ、すりガラス影の領域A2は第1の領域MIに含まれる。このため、特徴ベクトル導出部24は、すりガラス影の領域A1のうち、第1の領域LO,LIのそれぞれに含まれる体積V11,V12を導出する。そして、第1の領域LOに含まれるすりガラス影の領域A1の体積V11をすりガラス影の領域A1,A2の全体積V0により除算することにより、第1の領域LOに含まれるすりガラス影の領域の割合(V11/V0)を第1の領域LOについての第3の特徴量として導出する。
 同様に、第1の領域LIに含まれるすりガラス影の領域A1の体積V12をすりガラス影の領域A1,A2の全体積V0により除算することにより、第1の領域LIに含まれるすりガラス影の領域の割合(V12/V0)を第1の領域LIについての第3の特徴量として導出する。また、第1の領域MIに含まれるすりガラス影の領域A2の体積V2をすりガラス影の領域A1,A2の全体積V0により除算することにより、第1の領域MIに含まれるすりガラス影の領域の割合(V2/V0)を第1の領域MIについての第3の特徴量として導出する。一方、第1の領域UO,UI,MOにはすりガラス影の領域は含まれない。このため、第1の領域UO,UI,MOに含まれるすりガラス影の領域の割合は0となる。
 第3の特徴量に関して、特徴ベクトル導出部24は、11種類の第2の領域のそれぞれについて、6個の第1の領域のそれぞれに含まれる割合を左右肺領域のそれぞれについて導出する。このため、特徴ベクトル導出部24は、左右の肺領域を併せて、11×6×2=132個の第3の特徴量を導出する。
第4の特徴量について、特徴ベクトル導出部24は、左右の肺領域に含まれる第2の領域のうちの淡いすりガラス影およびすりガラス影の第2の領域の体積を導出する。導出された体積は、左右の肺領域に含まれる淡いすりガラス影およびすりガラス影の領域のボクセル数PVである。また、淡いすりガラス影およびすりガラス影の領域の表面積を導出する。導出された表面積は、淡いすりガラス影およびすりガラス影の領域の表面に存在するボクセル数PAである。そして、特徴ベクトル導出部24は、ボクセル数PAをボクセル数PVで除算することにより、第4の特徴量(PA/PV)を導出する。
 図8は、第4の特徴量の導出を説明するための図である。なお、図8においては説明のために、すりガラス影の領域を2次元で示している。このため、図8における1つのマス目が1つのボクセルを表す。図8に示すように、すりガラス影の領域30のボクセル数PVは26である。一方、すりガラス影の領域の表面に存在するボクセル数PAは20である。図8においては、すりガラス影の領域の表面に存在するボクセルに×印を付与している。この場合、特徴ベクトル導出部24は、第4の特徴量をPA/PVすなわち20/26と導出する。
 なお、肺領域内に複数の淡いすりガラス影およびすりガラス影の領域が存在する場合がある。この場合、特徴ベクトル導出部24は、全ての淡いすりガラス影およびすりガラス影の領域の表面積の総和を、体積の総和により除算することによって、第4の特徴量を導出する。したがって、特徴ベクトル導出部24は、1つの第4の特徴量を導出する。
 特徴ベクトル導出部24は、第1から第4の特徴量のそれぞれを要素とする特徴ベクトルを導出する。第1の特徴量は132個、第2の特徴量は22個、第3の特徴量は132個、第4の特徴量は1個であるため、導出された特徴ベクトルの要素数は287個となる。
 判定部25は、特徴ベクトル導出部24が導出した特徴ベクトルに基づいて、肺領域に対する判定結果、具体的には、疾患の有無の判定結果を導出する。例えば判定部25は、新型コロナウイルスウィルス感染症によるコロナ肺炎の有無の判定結果を導出するものとする。
 ここで、本実施形態においては、判定部25は、特徴ベクトルの各要素を線形判別することにより、肺領域におけるコロナ肺炎の有無の判定結果を導出する。具体的には、判定部25は、下記の式(1)により、特徴ベクトルの各要素の重み付け加算値S0を算出し、算出した重み付け加算値S0がしきい値Th0以上である場合に、コロナ肺炎であるとの判定結果を出力し、算出した重み付け加算値S0がしきい値Th0未満である場合に、コロナ肺炎でないとの判定結果を出力する判別器からなる。なお、式(1)において、αkは特徴ベクトルの要素、mkは特徴ベクトルの要素αkに対する重みである。kは特徴ベクトルの要素に対応する(k=1~287)
 S0=Σ(mk×αk)  (1)
 ここで、式(1)における重み係数mkについて説明する。本実施形態においては、機械学習により重み係数mkを決定する。機械学習のために、本実施形態においては、コロナ肺炎であることが既知の医用画像(以下、コロナ医用画像とする)から導出された特徴ベクトルとその特徴ベクトルから算出した重み付け加算値S0の値との組み合わせからなる正の教師データを複数用意する。また、コロナ肺炎でないことが既知の医用画像(以下、非コロナ医用画像とする)から導出された特徴ベクトルとその特徴ベクトルから算出した重み付け加算値S0との組み合わせからなる負の教師データを複数用意する。そして、正の教師データを用いた場合には重み付け加算値S0がしきい値Th0以上となり、負の教師データを用いた場合には重み付け加算値S0がしきい値Th0未満となるように重み係数mkを決定する機械学習を行うことにより、判別器が構築される。
 なお、判定部25が行う判定結果の取得は、上記の線形判別に限定されるものではない。例えばサポートベクタマシン(SVM(Support Vector Machine))、または畳み込みニューラルネットワーク(CNN(Convolutional Neural Network))等のニューラルネットワークからなるものであってもよい。
 要素特定部26は、特徴ベクトルの要素のうち、コロナ肺炎の有無の判定結果に影響を与える影響要素を特定する。本実施形態においては、判定部25において線形判別を行うことによりコロナ肺炎の有無の判定結果を導出している。要素特定部26は、コロナ肺炎有りの判定結果が導出された場合、特徴ベクトルの全ての要素について、式(1)における重み付けられた要素mk×αkの値を比較し、mk×αkの値が大きい上位所定数の要素を影響要素に特定する。例えば、要素特定部26は、mk×αkの値が大きい上位3個の要素を影響要素に特定する。仮に特徴ベクトルの要素の総数が10あるとすると、m1×α1~m10×α10の10個の重み付けられた要素が得られる。このうち、値が大きい上位3つの重み付けられた要素がm1×α1、m3×α3、m7×α7である場合、要素特定部26は、α1、α3、α7を影響要素に特定する。
 一方、要素特定部26は、コロナ肺炎無しの判定結果が導出された場合、特徴ベクトルの全ての要素について、式(1)における重み付けられた要素mk×αkの値を比較し、mk×αkの値が小さい下位所定数の要素を影響要素に特定する。
 なお、要素特定部26は、コロナ肺炎有りの判定結果が導出された場合、mk×αkの値が第1のしきい値Th1以上となる全ての要素を影響要素に特定するようにしてもよい。この場合において、コロナ肺炎無しの判定結果が導出された場合、mk×αkの値が第2のしきい値Th2以下となる全ての要素を影響要素に特定するようにしてもよい。
 領域特定部27は、要素特定部26が特定した影響要素に基づいて、肺領域内において判定結果に影響を与える影響領域を特定する。本実施形態においては、領域特定部27は、要素特定部26が特定したすべての影響要素について、第1~第4の特徴量のいずれであるかを特定する。
 ここで、影響要素に第1の特徴量が含まれる場合、第1の特徴量は、第1の領域のそれぞれに含まれる複数の第2の領域のそれぞれの、第1の領域に対する割合である。このため、領域特定部27は、影響要素となる第1の特徴量を導出した第1の領域を影響領域に特定する。例えば、影響要素が、左肺の第1の領域のうちの上側かつ外側の第1の領域において導出されたものである場合、領域特定部27は左肺の上側かつ外側の第1の領域を影響領域に特定する。なお、影響要素が全て第1の特徴量である場合、影響要素となる第1の特徴量が導出された全ての第1の領域を影響領域に特定する。
 一方、影響要素に第2の特徴量が含まれる場合、第2の特徴量は肺領域に対する複数種類の性状のそれぞれの領域の割合である。このため、領域特定部27は、第2の特徴量を導出した肺領域の全領域を影響領域に特定する。あるいは、第2の特徴量は、左右の肺領域においてそれぞれ11個導出されているため、影響要素となる第2の特徴量が導出された第2の領域を影響領域に特定してもよい。例えば、特定された複数の影響要素が第2の特徴量であり、それぞれ左肺領域に含まれる蜂窩肺の性状についての第2の領域、すりガラス影の性状についての第2の領域および右肺領域の浸潤影の性状についての第2の領域についての第2の特徴量であるとする。この場合、領域特定部27は、左肺領域の蜂窩肺の性状についての第2の領域、左肺領域のすりガラス影の性状についての第2の領域、および右肺領域の浸潤影の性状についての第2の領域を影響領域に特定してもよい。
 なお、影響要素に第2の特徴量のみが含まれる場合、上記の肺領域の全領域を影響領域に特定するか、肺領域に含まれる影響要素となった第2の領域のいずれを影響領域に特定するかについては、入力デバイス15からの指示により設定できるようにすればよい。
 また、影響要素に第3の特徴量が含まれる場合、第3の特徴量は、複数の第2の領域のそれぞれが複数の第1の領域のそれぞれに含まれる割合である。このため、領域特定部27は、影響要素となる第3の特徴量を導出した第1の領域を影響領域に特定すればよい。例えば、影響要素を導出した第1の領域が、右肺の下側の内側の第1の領域である場合、その第1の領域を影響領域に特定すればよい。
 また、影響要素に第4の特徴量が含まれる場合、第4の特徴量は、淡いすりガラス影およびすりガラス影の性状の第2の領域の体積に対する淡いすりガラス影およびすりガラス影の性状の第2の領域の面積の割合である。このため、領域特定部27は、淡いすりガラス影およびすりガラス影の性状となる第2の領域を影響領域に特定すればよい。
 表示制御部28は、領域特定部が特定した影響領域を強調して対象画像をディスプレイ14に表示する。図9は対象画像の表示画面を示す図である。図9に示すように対象画像の表示画面40には、第1の画像領域41、第2の画像領域42および文章領域43が含まれる。第1の画像領域41には、対象画像のアキシャル断面の断層画像Daが表示される。第2の画像領域42には、対象画像のコロナル断面の断層画像Dcが表示される。断層画像Da,Dcにおいて、第1の領域の境界に破線が表示されている。さらに、断層画像Da,Dcにおいて影響領域が強調表示されている。図9においては、影響領域にハッチングを付与することにより強調表示を示しているが、これに限定されるものではない。影響領域を囲む線を太くしたり、影響領域の輝度を高くしたり、影響領域に色を付与したりすることにより、影響領域を強調表示してもよい。
 なお、第1の画像領域41および第2の画像領域42にマウスカーソルを移動して、マウスホイールを回転することにより、表示される断層画像Dc,Daを切り替えることができる。また、文章領域43には、断層画像Da,Dcに対する読影結果を表す所見文を入力することができる。
 次いで、本実施形態において行われる処理について説明する。図10は本実施形態において行われる処理を示すフローチャートである。なお、処理対象となる対象画像は、画像取得部21により取得されてストレージ13に保存されているものとする。まず、第1分割部22が、対象画像に含まれる肺領域を複数の第1の領域に分割する(第1の分割;ステップST1)。次いで、第2分割部23が、対象画像に含まれる肺領域を第1の分割とは異なる第2の分割により複数の第2の領域に分割する(第2の分割;ステップST2)。そして、特徴ベクトル導出部24が、第1の領域のそれぞれについての第2の領域毎の特徴を少なくとも表す特徴ベクトルを導出する(ステップST3)。
 続いて、判定部25が、特徴ベクトル導出部24が導出した特徴ベクトルに基づいて、肺領域に対する判定結果、具体的には肺領域における疾患の有無の判定結果を導出する(ステップST4)。次いで、要素特定部26が、特徴ベクトルの要素のうち、コロナ肺炎の有無の判定結果に影響を与える影響要素を特定する(ステップST5)、領域特定部27が、要素特定部26が特定した影響要素に基づいて、肺領域内において判定結果に影響を与える影響領域を特定する(ステップST6)。そして、表示制御部28が、領域特定部が特定した影響領域を強調して対象画像をディスプレイ14に表示し(ステップST7)、処理を終了する。
 このように、本実施形態においては、第1の領域のそれぞれについての第2の領域毎の特徴を少なくとも表す特徴ベクトルを導出し、特徴ベクトルに基づいて、肺領域における疾患の有無の判定結果を導出するようにした。さらに、特徴ベクトルの要素のうち、判定結果に影響を与える影響要素を特定し、影響要素に基づいて、肺領域内において判定結果に影響を与える影響領域を特定するようにした。このため、本実施形態により、コロナ肺炎等の肺の疾患の有無に関する判定結果に影響を与える肺領域内の影響領域を特定することができる。
 また、影響領域を強調して対象画像を表示することにより、対象画像に含まれる影響領域を容易に確認することができる。
 なお、上記実施形態においては、特徴ベクトル導出部24が、第1から第4の特徴量を導出しているが、これに限定されるものではない。第1の特徴量のみを導出して第1の特徴量のみからなる特徴ベクトルを導出するようにしてもよい。また、第3の特徴量のみを導出して第3の特徴量のみからなる特徴ベクトルを導出するようにしてもよい。また、第4の特徴量のみを導出して第4の特徴量のみからなる特徴ベクトルを導出するようにしてもよい。第2の特徴量のみを導出した第2の特徴量のみからなる特徴量ベクトルを導出するようにしてもよいが、この場合、影響領域は肺領域の全領域に特定するものではなく、影響要素となる第2の特徴量を導出した第2の領域を影響領域と特定するようにすればよい。
 また、上記実施形態においては、対象画像に含まれる対象物として肺を用いているが、対象物は肺に限定されるものではない。肺の他に、心臓、肝臓、脳、および四肢等の人体の任意の部位を対象物とすることができる。
 また、上記実施形態において、例えば、画像取得部21、第1分割部22、第2分割部23、特徴ベクトル導出部24、判定部25、要素特定部26、領域特定部27および表示制御部28といった各種の処理を実行する処理部(Processing Unit)のハードウェア的な構造としては、次に示す各種のプロセッサ(Processor)を用いることができる。上記各種のプロセッサには、上述したように、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPUに加えて、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device :PLD)、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。
 1つの処理部は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせまたはCPUとFPGAとの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。
 複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントおよびサーバ等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアとの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサの1つ以上を用いて構成される。
 さらに、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子等の回路素子を組み合わせた電気回路(Circuitry)を用いることができる。
   1  情報処理装置
   2  撮影装置
   3  画像保管サーバ
   4  ネットワーク
   11  CPU
   12  情報処理プログラム
   13  ストレージ
   14  ディスプレイ
   15  入力デバイス
   16  メモリ
   17  ネットワークI/F
   18  バス
   21  画像取得部
   22  第1分割部
   23  第2分割部
   24  特徴ベクトル導出部
   25  判定部
   26  要素特定部
   27  領域特定部
   28  表示制御部
   30  すりガラス影の領域
   40  表示画面
   41  第1の画像領域
   42  第2の画像領域
   43  文字領域

Claims (13)

  1.  少なくとも1つのプロセッサを備え、
     前記プロセッサは、
     第1の分割により対象画像を複数の第1の領域に分割し、
     前記第1の分割とは異なる第2の分割により前記対象画像を複数の第2の領域に分割し、
     前記第1の領域のそれぞれについての前記第2の領域毎の特徴を少なくとも表す特徴ベクトルを導出し、
     前記特徴ベクトルに基づいて前記対象画像に含まれる対象物に対する判定結果を導出し、
     前記特徴ベクトルの要素のうち前記判定結果に影響を与える影響要素を特定し、
     前記影響要素に基づいて前記対象画像において前記判定結果に影響を与える影響領域を特定する情報処理装置。
  2.  前記プロセッサは、前記影響領域を強調して前記対象画像を表示する請求項1に記載の情報処理装置。
  3.  前記影響領域は、前記対象物の領域、前記複数の第1の領域のうちの少なくとも1つの領域、および前記複数の第2の領域のうちの少なくとも1つの領域のうちの、少なくとも1つである請求項1または2に記載の情報処理装置。
  4.  前記対象画像は医用画像であり、前記対象物は解剖学的構造物であり、前記判定結果は疾患の有無に関する判定結果である請求項1から3のいずれか1項に記載の情報処理装置。
  5.  前記第1の分割は、前記解剖学的構造物の幾何学な特性または解剖学的な分類に基づく分割であり、
     前記第2の分割は、前記解剖学的構造物の性状に基づく分割である請求項4に記載の情報処理装置。
  6.  前記プロセッサは、前記特徴ベクトルの各要素を線形判別することにより、前記対象物に対する判定結果を取得する請求項1から5のいずれか1項に記載の情報処理装置。
  7.  前記プロセッサは、前記特徴ベクトルの各要素の重み付け加算値をしきい値と比較することにより、前記線形判別を行う請求項6に記載の情報処理装置。
  8.  前記判定結果が疾患の有無の判定結果である場合において、前記プロセッサは、前記疾患が有りの判定結果が導出された場合、重み付けられた前記特徴ベクトルの各要素のうち、重み付けられた値が大きい上位所定数の要素が得られた領域を前記影響領域に特定し、
     前記疾患が無しの判定結果が導出された場合、重み付けられた前記特徴ベクトルの各要素のうち、重み付けられた値が小さい下位所定数の要素が得られた領域を前記影響領域に特定する請求項7に記載の情報処理装置。
  9.  前記判定結果が疾患の有無の判定結果である場合において、前記プロセッサは、前記疾患が有りの判定結果が導出された場合、重み付けられた前記特徴ベクトルの各要素のうち、重み付けられた値が第1のしきい値以上となる要素が得られた領域を前記影響領域に特定し、
     前記疾患が無しの判定結果が導出された場合、重み付けられた前記特徴ベクトルの各要素のうち、重み付けられた値が第2のしきい値以下となる要素が得られた領域を前記影響領域に特定する請求項7に記載の情報処理装置。
  10.  前記第1の領域のそれぞれについての前記第2の領域毎の特徴は、前記第1の領域のそれぞれに含まれる前記複数の第2の領域のそれぞれの、前記第1の領域に対する割合である請求項1から9のいずれか1項に記載の情報処理装置。
  11.  前記特徴ベクトルは、前記対象物の領域に対する前記複数の第2の領域のそれぞれの割合、前記複数の第2の領域のそれぞれが前記複数の第1の領域のそれぞれに含まれる割合、および前記対象物の領域内における特定の性状を表す第2の領域に対する前記特定の性状の境界の割合の少なくとも1つを表す特徴量を要素としてさらに含む請求項1から10のいずれか1項に記載の情報処理装置。
  12.  第1の分割により対象画像を複数の第1の領域に分割し、
     前記第1の分割とは異なる第2の分割により前記対象画像を複数の第2の領域に分割し、
     前記第1の領域のそれぞれについての前記第2の領域毎の特徴を少なくとも表す特徴ベクトルを導出し、
     前記特徴ベクトルに基づいて前記対象画像に含まれる対象物に対する判定結果を導出し、
     前記特徴ベクトルの要素のうち前記判定結果に影響を与える影響要素を特定し、
     前記影響要素に基づいて前記対象画像において前記判定結果に影響を与える影響領域を特定する情報処理方法。
  13.  第1の分割により対象画像を複数の第1の領域に分割する手順と、
     前記第1の分割とは異なる第2の分割により前記対象画像を複数の第2の領域に分割する手順と、
     前記第1の領域のそれぞれについての前記第2の領域毎の特徴を少なくとも表す特徴ベクトルを導出する手順と、
     前記特徴ベクトルに基づいて前記対象画像に含まれる対象物に対する判定結果を導出する手順と、
     前記特徴ベクトルの要素のうち前記判定結果に影響を与える影響要素を特定する手順と、
     前記影響要素に基づいて前記対象画像において前記判定結果に影響を与える影響領域を特定する手順とをコンピュータに実行させる情報処理プログラム。
PCT/JP2021/041236 2020-12-22 2021-11-09 情報処理装置、方法およびプログラム WO2022137855A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022571945A JPWO2022137855A1 (ja) 2020-12-22 2021-11-09
US18/329,538 US20230316517A1 (en) 2020-12-22 2023-06-05 Information processing apparatus, information processing method, and information processing program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-212864 2020-12-22
JP2020212864 2020-12-22

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/329,538 Continuation US20230316517A1 (en) 2020-12-22 2023-06-05 Information processing apparatus, information processing method, and information processing program

Publications (1)

Publication Number Publication Date
WO2022137855A1 true WO2022137855A1 (ja) 2022-06-30

Family

ID=82157566

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/041236 WO2022137855A1 (ja) 2020-12-22 2021-11-09 情報処理装置、方法およびプログラム

Country Status (3)

Country Link
US (1) US20230316517A1 (ja)
JP (1) JPWO2022137855A1 (ja)
WO (1) WO2022137855A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190164642A1 (en) * 2017-11-24 2019-05-30 Siemens Healthcare Gmbh Computer-based diagnostic system
WO2020110519A1 (ja) * 2018-11-27 2020-06-04 富士フイルム株式会社 類似度決定装置、方法およびプログラム
WO2020218460A1 (ja) * 2019-04-26 2020-10-29 エーザイ・アール・アンド・ディー・マネジメント株式会社 診断支援装置、推測装置、診断支援システム、診断支援方法、診断支援プログラム及び学習済みモデル

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190164642A1 (en) * 2017-11-24 2019-05-30 Siemens Healthcare Gmbh Computer-based diagnostic system
WO2020110519A1 (ja) * 2018-11-27 2020-06-04 富士フイルム株式会社 類似度決定装置、方法およびプログラム
WO2020218460A1 (ja) * 2019-04-26 2020-10-29 エーザイ・アール・アンド・ディー・マネジメント株式会社 診断支援装置、推測装置、診断支援システム、診断支援方法、診断支援プログラム及び学習済みモデル

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
TAKASHI SUZUKI, KAZUHIRO IWATA: "Cloud-based AI analysis solution COVID-19 Research tools and contract services", EIZO JOHO MEDICAL - MONTHLY JOURNAL OF MEDICAL IMAGING ANDINFORMATION, SANGYO KAIHATSU KIKO KABUSHIKI GAISHA, TOKYO, JP, vol. 52, no. 9, 1 August 2020 (2020-08-01), JP , pages 24 - 27, XP009537758, ISSN: 1346-1354 *

Also Published As

Publication number Publication date
JPWO2022137855A1 (ja) 2022-06-30
US20230316517A1 (en) 2023-10-05

Similar Documents

Publication Publication Date Title
Gang et al. Dimensionality reduction in deep learning for chest X-ray analysis of lung cancer
US10734107B2 (en) Image search device, image search method, and image search program
US11756292B2 (en) Similarity determination apparatus, similarity determination method, and similarity determination program
US11854190B2 (en) Similarity determination apparatus, similarity determination method, and similarity determination program
JP7034306B2 (ja) 領域分割装置、方法およびプログラム、類似度決定装置、方法およびプログラム、並びに特徴量導出装置、方法およびプログラム
US20210271914A1 (en) Image processing apparatus, image processing method, and program
JP2020032044A (ja) 類似度決定装置、方法およびプログラム
Savaashe et al. A review on cardiac image segmentation
Veluchamy et al. Brightness preserving optimized weighted bi‐histogram equalization algorithm and its application to MR brain image segmentation
Peña-Solórzano et al. Findings from machine learning in clinical medical imaging applications–Lessons for translation to the forensic setting
WO2020085336A1 (ja) 重み画像生成装置、方法およびプログラム、判別器学習装置、方法およびプログラム、領域抽出装置、方法およびプログラム並びに判別器
Davamani et al. Biomedical image segmentation by deep learning methods
JP7479546B2 (ja) 表示装置、方法およびプログラム
Dong et al. An improved supervoxel 3D region growing method based on PET/CT multimodal data for segmentation and reconstruction of GGNs
WO2022137855A1 (ja) 情報処理装置、方法およびプログラム
Luong et al. A computer-aided detection to intracranial hemorrhage by using deep learning: a case study
Doğanay et al. A hybrid lung segmentation algorithm based on histogram-based fuzzy C-means clustering
US11989880B2 (en) Similarity determination apparatus, similarity determination method, and similarity determination program
US11893735B2 (en) Similarity determination apparatus, similarity determination method, and similarity determination program
Agarwala et al. Automated segmentation of lung field in HRCT images using active shape model
WO2020262681A1 (ja) 学習装置、方法およびプログラム、医用画像処理装置、方法およびプログラム、並びに判別器
Gia et al. A Computer-Aided Detection to Intracranial Hemorrhage by Using Deep Learning: A Case Study
Nguyen et al. A Computer-Aided Detection to Intracranial Hemorrhage by Using Deep Learning: A Case Study
Ghosh et al. Unsupervised segmentation of lungs from chest radiographs
Hu et al. Delineation of intracerebral hemorrhage from clinical non-enhanced computed tomography images

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21910009

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022571945

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21910009

Country of ref document: EP

Kind code of ref document: A1