WO2019167882A1 - 機械学習装置および方法 - Google Patents

機械学習装置および方法 Download PDF

Info

Publication number
WO2019167882A1
WO2019167882A1 PCT/JP2019/007048 JP2019007048W WO2019167882A1 WO 2019167882 A1 WO2019167882 A1 WO 2019167882A1 JP 2019007048 W JP2019007048 W JP 2019007048W WO 2019167882 A1 WO2019167882 A1 WO 2019167882A1
Authority
WO
WIPO (PCT)
Prior art keywords
learning
data
machine learning
divided
unit
Prior art date
Application number
PCT/JP2019/007048
Other languages
English (en)
French (fr)
Inventor
ディーパック ケシュワニ
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2020503491A priority Critical patent/JP6952185B2/ja
Publication of WO2019167882A1 publication Critical patent/WO2019167882A1/ja
Priority to US17/000,372 priority patent/US11494586B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/008Specific post-processing after tomographic reconstruction, e.g. voxelisation, metal artifact correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/2163Partitioning the feature space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06V10/7747Organisation of the process, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2211/00Image generation
    • G06T2211/40Computed tomography
    • G06T2211/441AI-based methods, deep learning or artificial neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • G06V2201/031Recognition of patterns in medical or anatomical images of internal organs

Definitions

  • the present invention relates to a machine learning apparatus and method, and more particularly to a machine learning apparatus and method for constructing a machine-learned model that performs classification (segmentation) of an image structure.
  • volume data three-dimensional medical image data
  • CT Computer Planar Tomography
  • Patent Document 1 using a supervised machine learning algorithm, an anatomical feature point included in volume data is extracted, and a model indicating the three-dimensional positional relationship of the anatomical feature point in the body; By comparing the extracted feature points with each other, the extracted feature points are optimized to perform site detection. Further, when a plurality of organs are depicted at one absolute position, position information on a plurality of parts is given to one CT image. Thereby, for example, when a CT image is divided into series, the CT image can be divided into series for each part based on the position information.
  • Such a discriminator for labeling two or more organs at the same time prepares a set of correct volume data as a set of original volume data and a voxel of each organ included in the volume data manually labeled by a doctor or the like, A learned model is completed by machine learning them.
  • the volume data for learning has a very large capacity, and may be divided and input to the machine learning process due to the memory size used for machine learning.
  • the data is divided by a certain number within the memory size limit in the axial direction.
  • This divided data is learning data.
  • the divided data includes only a part of the labeled organ, there is a possibility of adversely affecting machine learning.
  • the present invention has been made in view of such problems, and an object of the present invention is to provide a machine learning apparatus and method capable of preparing divided data suitable for machine learning from learning volume data.
  • the machine learning device includes a learning data input unit that receives input of learning data including volume data of a tomographic image and labeling of regions in the volume data, and learning in which the learning data input unit receives input A learning exclusion target region that determines a learning exclusion target region that is a region to be excluded from the learning target from the dividing unit that creates divided learning data and the divided learning data and learning data created by the dividing unit by dividing the data A determination unit; and a machine learning unit that performs machine learning on labeling of regions other than the learning exclusion target region determined by the learning exclusion target region determination unit based on the divided learning data created by the division unit.
  • the learning exclusion target region determination unit compares the volume of the region labeled with the divided learning data created by the dividing unit and the volume of the region labeled with the learning data.
  • the learning exclusion target area is determined according to whether the volume is equal to or less than the threshold value.
  • the machine learning device includes a detection accuracy calculation unit that calculates detection accuracy other than the learning exclusion target region determined by the learning exclusion target region determination unit, and the machine learning unit is created by the dividing unit. Based on the divided learning data and the detection accuracy calculated by the detection accuracy calculation unit, labeling of regions other than the learning exclusion target region is machine-learned.
  • the detection accuracy calculation unit calculates the detection accuracy based on an average of IoU (Intersection over Union) between the prediction label and the correct answer label of each region.
  • IoU Intersection over Union
  • the dividing unit subdivides the learning data so that the entire learning exclusion target region is included.
  • the dividing unit creates divided learning data that overlap each other.
  • the tomographic image is a three-dimensional medical tomographic image, and the region includes an organ.
  • the computer receives the input of learning data including the volume data of the tomographic image and the labeling of the region in the volume data, and the learning is divided by dividing the learning data.
  • a step of creating data a step of determining a learning exclusion target region that is a region to be excluded from the learning target from the divided learning data and the learning data, and labeling of regions other than the learning exclusion target region based on the divided learning data Performing machine learning.
  • a machine learning program for causing a computer to execute the machine learning method and a machine learned model machine-learned by the machine learning program are also included in the present invention.
  • the learning exclusion target region is determined from the divided learning data and the labeling of the region other than the learning exclusion target region is machine-learned, the machine with high accuracy can be obtained from the divided data including only a part of the organ. Can learn.
  • FIG. 1 is a schematic configuration diagram of a machine learning device 1 according to a preferred embodiment of the present invention.
  • the machine learning device 1 includes an original learning data input unit 11, an original learning data division unit 12, a learning exclusion target determination unit 13, a divided learning data output unit 14, and a machine learning unit 15.
  • the machine learning device 1 is configured by a computer including a processor such as a GPU (Graphics Processing Unit), and each of the above units is realized by a program executed by the processor.
  • the machine learning device 1 may or may not include the neural network 16.
  • the original learning data input unit 11 is manually operated by a doctor or the like on volume data V composed of a number of axial tomographic images (multi-slice images) and each voxel included in the volume data.
  • volume data V composed of a number of axial tomographic images (multi-slice images) and each voxel included in the volume data.
  • labels such as “blood vessels”, “air-filling patterns”, “others (background)”, etc.
  • each pixel in the image is classified into an anatomical structure type (class) ( Ground (Truth) Accepts input of pair with mask G (original learning data).
  • the original learning data dividing unit 12 divides (crop) the original learning data received by the original learning data input unit 11 in a predetermined unit in the axial direction, so that divided volume data V1, V2, V3,. ... N pieces of divided learning data D1, D2, D3,..., DN composed of a set of VN and divided correct answer masks G1, G2, G3,.
  • the division unit of the divided learning data D1, D2, D3,... Depends on hardware limitations such as the memory of the neural network 16 and the arithmetic unit. That is, it depends on the amount of data that the neural network 16 can accept at a time.
  • the two different divided learning data may include overlapping portions. Further, the original learning data may be divided not only in the axial direction but also in the sagittal direction or the coronal direction.
  • O (j, i) has the same organ label as Oi. However, O (j, i) and Oi do not always match completely depending on the division position.
  • the region O (1,1) labeled “liver” in the divided correct answer mask G1 is part of the region O1 labeled “liver” in the correct answer mask G. It looks like it has been cut out.
  • the learning exclusion target determination unit 13 determines the divided learning data Dk having the subscript k satisfying A (k, i) ⁇ Th as the learning exclusion target of the organ Oi.
  • the learning exclusion target determination unit 13 determines the divided learning data Dk having the subscript k satisfying A (k, i) ⁇ Th as the learning exclusion target of the organ Oi.
  • an organ Oi that satisfies A (k, i) ⁇ Th in the divided learning data Dk is represented by O (k, i).
  • the area ratio of the organ Oi included in Dj is calculated from the tomographic image Dj in the sagittal direction or the coronal direction. Based on this area ratio, only a part of the organ Oi is included in the divided learning data. It may be determined whether or not it is included.
  • the divided learning data output unit 14 outputs the divided learning data Dj that has been determined by the learning exclusion target determination unit 13 to the machine learning unit 15.
  • the machine learning unit 15 causes the neural network 16 to perform machine learning based on the divided learning data Dj output from the divided learning data output unit 14.
  • the neural network 16 is a multi-layer classifier configured by a convolutional neural network (CNN).
  • CNN convolutional neural network
  • the machine learning of the neural network 16 by the machine learning unit 15 uses back propagation (error propagation method).
  • backpropagation the teacher data for the input data is compared with the actual output data obtained from the neural network 16, and each connection weight is changed from the output layer side to the input layer side based on the error. It is a technique.
  • the neural network 16 first determines each voxel (in the case of two-dimensional data) of the divided volume data Vj included in the divided learning data Dj according to a learned model obtained by some machine learning. Are labeled with “lung”, “bronchi”, “blood vessel”, “air filling pattern”, “other (background)”, etc., to classify the structures in the divided volume data Vj. As a result, for each divided learning data Dj, a prediction mask Pj that is a set of voxels labeled with each organ is obtained.
  • the machine learning unit 15 compares the divided correct mask Gj with the prediction mask Pj as teacher data, and performs back propagation of the neural network 16 based on those errors. That is, the back propagation of the neural network 16 is performed for each divided learning data Dj.
  • the machine learning unit 15 performs back-propagation of the labeling of the organ O (k, i). Absent. The details will be described below.
  • FIG. 5 is a flowchart of the machine learning process using the divided learning data Dj.
  • a program for causing the processor of the machine learning device 1 to execute the machine learning processing is stored in a computer-readable tangible storage medium such as a RAM (Random Access Memory) of the machine learning device 1.
  • the medium storing this program may be a non-transitory and computer-readable recording medium such as a hard disk, a CD (Compact Disk), a DVD (Digital Versatile Disk), and various semiconductor memories.
  • the original learning data dividing unit 12 creates N pieces of divided learning data D1, D2,..., DN from the original learning data received by the original learning data input unit 11. .
  • N is an integer of 2 or more.
  • the unit of learning data division depends on the memory capacity and the processing capacity of the GPU, and an arbitrary amount less than the maximum amount that can be processed by the divided learning data is used as the unit of division.
  • the neural network 16 receives the divided volume data Vj of the divided learning data Dj, and creates prediction masks Pj for n (j) organs O (j, i).
  • j 1, 2,..., N.
  • the detection accuracy acc (j, i) is calculated for each of the n (j) types of organs O (j, i) excluding the organ O (k, i) that is the learning exclusion target.
  • the average value is defined as a loss function Loss (j) corresponding to the divided learning data Dj.
  • Acc (j, i) approaches 1 as the detection accuracy of each organ O (j, i) increases in the divided volume data Vj.
  • the loss function Loss does not approach 1 even if the detection accuracy of other organs is high.
  • the detection accuracy of organs whose volume ratio is less than the threshold is not reflected in the loss function Loss in the first place.
  • Is a function with a parameter. For example, a value obtained by multiplying this IoU by a constant (such as 100 times) or a Dice coefficient may be acc (i).
  • the machine learning unit 15 changes each coupling load of the neural network 16 from the output layer side to the input layer side according to the loss function Loss.
  • the original learning data dividing unit 12 recreates the divided learning data Dk. At this time, the original learning data dividing unit 12 redivides the original learning data so that the whole organ O (k, i) is included in the divided learning data Dk. However, this subdivision unit is also limited by hardware resources. Then, the process returns to S2, and a prediction mask Pk for each organ including the organ O (k, i) is created for the divided learning data Dk.
  • FIG. 6 is an example of re-creation of the divided learning data Dk.
  • the divided learning data D2 once created is shifted toward the head along the axial (body axis) direction. By doing so, it is possible to perform machine learning with high accuracy on the organ O (k, i) to be excluded from learning based on the divided learning data D2 after the shift.
  • the above S2 to S7 can be repeated any number of times. Therefore, division may be performed again so that any organ Oi is included in any division learning data, and backpropagation based on the loss function may be performed for each division.
  • back-propagation can be performed to increase detection accuracy regardless of the volume of any organ.
  • the divided learning data includes an organ whose volume is smaller than the threshold, the detection accuracy of the organ is not reflected in the loss function. For this reason, it is possible to prevent the detection accuracy of a part of the organ cut out by dividing the original learning data from being reflected in the loss function and adversely affect backpropagation.
  • an organ cut out by dividing learning data can be subjected to detection accuracy calculation and back-propagation by re-division of learning data.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Public Health (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Mathematical Physics (AREA)
  • Pathology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Evolutionary Biology (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

学習用のボリュームデータから機械学習に適した分割データを用意することの可能な機械学習装置および方法を提供する。機械学習部(15)は、予測マスクPjにおける各臓器O(j, i)の検出精度を、損失関数Lossを用いて算出する。ただし、体積比A(k)i<Thとなる臓器O(k)iの検出精度は算出しないものとする。すなわち、予測マスクPkにおいて、体積比が一定程度小さい臓器O(k)iの検出精度は無視する。機械学習部(15)は、損失関数Lossに応じて、ニューラルネットワーク(16)の各結合荷重を出力層側から入力層側へ変化させていく。

Description

機械学習装置および方法
 本発明は機械学習装置および方法に関し、特に、画像の構造の分類(セグメンテーション)を行う機械学習済みモデルを構築するための機械学習装置および方法に関する。
 従来、CT(Computed Tomography)画像など3次元の医用画像データ(ボリュームデータ)から、特定の臓器の解剖学的な特徴点を機械学習で検出することによって、ボリュームデータに含まれる臓器を検出する技術が存在する。
 例えば特許文献1では、教師あり機械学習アルゴリズムを用いて、ボリュームデータに含まれる解剖学的な特徴点を抽出し、身体における解剖学的な特徴点の3次元的な位置関係を示すモデルと、抽出した特徴点とを比較することで、抽出した特徴点を最適化して、部位検出を行う。また、1つの絶対位置において、複数の臓器が描出される場合、1枚のCT画像に複数部位の位置情報を付与する。これにより、例えば、CT画像をシリーズに分割する場合、位置情報に基づいて部位ごとにCT画像をシリーズに分割することが可能になる。
特開2017-202321号公報
 近年、機械学習などによって、ボリュームデータから複数の臓器を同時に抽出する判別器の開発が行われ始めている。すなわち、判別器にボリュームデータを入力すると、そのボリュームデータを構成するボクセルのそれぞれに、「胃」、「肺」、「気管支」、「肝臓」、「肝臓門脈」などのラベルが付いたデータが出力される。このような同時ラベリングの機能は、多種多様なアプリケーションの前処理として有用である。
 このような同時に2以上の臓器のラベル付けをする判別器は、元のボリュームデータとそのボリュームデータに含まれる各臓器のボクセルを医師などが手動でラベリングしたもののセットを正解データとして多数準備し、それらを機械学習させることで学習済みモデルが完成する。
 ここで、学習用のボリュームデータは容量が非常に大きく、機械学習で使うメモリサイズの都合上、分割されて機械学習処理に入力される場合がある。
 3次元CT画像データの場合は、アキシャル方向について、メモリサイズの制限内のある枚数でデータが分割される。この分割されたデータが学習用のデータである。ここで、分割されたデータが、ラベルを付けた臓器の一部しか含んでいないような場合、機械学習に悪影響を及ぼす可能性がある。
 本発明はこのような問題点に鑑みてなされたもので、学習用のボリュームデータから機械学習に適した分割データを用意することの可能な機械学習装置および方法を提供することを目的とする。
 本発明の第1態様に係る機械学習装置は、断層画像のボリュームデータとボリュームデータにおける領域のラベリングとを含む学習データの入力を受け付ける学習データ入力部と、学習データ入力部が入力を受け付けた学習データを分割することで、分割学習データを作成する分割部と、分割部の作成した分割学習データと学習データとから、学習対象から除外する領域である学習除外対象領域を判別する学習除外対象領域判別部と、分割部の作成した分割学習データに基づいて、学習除外対象領域判別部が判別した学習除外対象領域以外の領域のラベリングを機械学習する機械学習部と、を備える。
 本発明の第2態様に係る機械学習装置において、学習除外対象領域判別部は、分割部の作成した分割学習データでラベリングされた領域の体積と学習データでラベリングされた領域の体積とを比較し、体積が閾値以下となるか否かに応じて学習除外対象領域を判別する。
 本発明の第3態様に係る機械学習装置は、学習除外対象領域判別部が判別した学習除外対象領域以外の検出精度を算出する検出精度算出部を備え、機械学習部は、分割部の作成した分割学習データと検出精度算出部が算出した検出精度とに基づいて、学習除外対象領域以外の領域のラベリングを機械学習する。
 本発明の第4態様に係る機械学習装置において、検出精度算出部は、各領域の予測ラベルと正解ラベルとの間のIoU(Intersection over Union)の平均に基づいて検出精度を算出する。
 本発明の第5態様に係る機械学習装置において、分割部は、学習除外対象領域の全体が含まれるよう学習データを再分割する。
 本発明の第6態様に係る機械学習装置において、分割部は、互いに重なりを有する分割学習データを作成する。
 本発明の第7態様に係る機械学習装置において、断層画像は3次元医用断層画像であり、領域は臓器を含む。
 本発明の第8態様に係る機械学習方法では、コンピュータが、断層画像のボリュームデータとボリュームデータにおける領域のラベリングとを含む学習データの入力を受け付けるステップと、学習データを分割することで、分割学習データを作成するステップと、分割学習データと学習データとから、学習対象から除外する領域である学習除外対象領域を判別するステップと、分割学習データに基づいて、学習除外対象領域以外の領域のラベリングを機械学習するステップと、を実行する。
 上記の機械学習方法をコンピュータに実行させるための機械学習プログラムおよび上記の機械学習プログラムによって機械学習された機械学習済みモデルも本発明に含まれる。
 この発明によると、分割学習データから学習除外対象領域を判別し、学習除外対象領域以外の領域のラベリングを機械学習するため、臓器の一部しか含まないような分割データからも、精度の高い機械学習を行うことができる。
機械学習装置の概略構成図 分割学習データの概念説明図 臓器のラベリング領域が切り取られた分割正解データの概念説明図 分割学習データDjごとに行われるバックプロパゲーションの概念説明図 機械学習処理のフローチャート 学習データの再分割の概念説明図
 図1は本発明の好ましい実施形態に係る機械学習装置1の概略構成図である。機械学習装置1は、元学習データ入力部11、元学習データ分割部12、学習除外対象判別部13、分割学習データ出力部14、機械学習部15を備える。機械学習装置1は、GPU(Graphics Processing Unit)などのプロセッサを備えるコンピュータで構成され、上記の各部は、プロセッサで実行されるプログラムにより実現される。機械学習装置1はニューラルネットワーク16を含んでいてもよいし、含んでいなくてもよい。
 元学習データ入力部11は、多数のアキシャル断層画像(マルチスライス画像)からなるボリュームデータVと、そのボリュームデータに含まれる各ボクセルに対し、医師などが手動で、「肺」、「気管支」、「血管」、「空気充填パターン」「その他(バックグラウンド)」などの正解のラベルを付すこと(ラベリング)で、画像内の各画素が解剖学的構造の種類(クラス)に分類された正解(Ground Truth)マスクGとの組(元学習データ)の入力を受け付ける。
 元学習データ分割部12は、元学習データ入力部11が入力を受け付けた元学習データを、予め決められた単位でアキシャル方向に分割(クロップ)することで、分割ボリュームデータV1、V2、V3・・、VNと分割正解マスクG1、G2、G3・・、GNとの組からなるN個の分割学習データD1、D2、D3・・、DNを作成する(図2参照)。この分割学習データD1、D2、D3・・の分割単位は、ニューラルネットワーク16のメモリや演算装置などのハードウェア上の制限に依存する。すなわち、ニューラルネットワーク16が一度に受け入れ可能なデータ量に依存する。
 異なる2つの分割学習データは、互いに重複する部分を含んでもよい。また、アキシャル方向だけでなくサジタル方向やコロナル方向に元学習データを分割してもよい。
 学習除外対象判別部13は、ボリュームデータVから、各臓器Oi(iは1以上の整数)の全体の体積Viを算出するとともに、分割正解マスクGjに含まれるn(j)個の臓器O(j, i)(i=1~n(j))ごとの体積V(j, i)を算出する。O(j, i)はOiと同一の臓器のラベルが付与されている。ただし、分割の位置によっては、O(j, i)とOiとが完全に一致するとは限らない。
 例えば図3に示すように、分割正解マスクG1で「肝臓」のラベルの付された領域O(1,1)は、正解マスクGで「肝臓」のラベルの付された領域O1の一部が切り取られたような形となっている。
 学習除外対象判別部13は、分割正解マスクGjにおける臓器O(j, i)と正解マスクGにおける臓器Oiとの間の体積比A(j, i)=V(j, i)/Vi(<1)を算出する。
 学習除外対象判別部13は、分割正解マスクGjにおける臓器Oiの体積比A(j, i)=V(j, i)/Viに基づいて、分割学習データDjに、臓器Oiの全体が含まれているか、または臓器Oiの一部のみが含まれているかを判別する。
 具体的には、学習除外対象判別部13は、A(j, i)が所定の閾値Th(例えばTh=0.9等、実質的に1かその近傍の値)を下回るか否かを判別する。学習除外対象判別部13は、A(k,i)<Thとなる添え字kを有する分割学習データDkを、臓器Oiの学習除外対象と判別する。以下、分割学習データDkにおいてA(k,i)<Thとなる臓器Oiを、O(k,i)で表す。
 なお、体積比の代わりに、サジタル方向またはコロナル方向の断層画像Djから、Djに含まれる臓器Oiの面積比を算出し、この面積比に基づいて、分割学習データに臓器Oiの一部のみが含まれているか否かを判別してもよい。
 分割学習データ出力部14は、学習除外対象判別部13による判別を経た分割学習データDjを、機械学習部15に出力する。
 機械学習部15は、分割学習データ出力部14から出力された分割学習データDjに基づいて、ニューラルネットワーク16に機械学習を行わせる。
 ニューラルネットワーク16は畳み込みニューラルネットワーク(CNN: Convolutional Neural Network)などによって構成される多層の分類器である。
 機械学習部15によるニューラルネットワーク16の機械学習はバックプロパゲーション(誤差伝播法)を用いる。バックプロパゲーションは、入力データに対しての教師データを、ニューラルネットワーク16から得られる実際の出力データと照らし合わせ、その誤差を基に各結合荷重を出力層側から入力層側へ変化させていく手法である。
 具体的には、図4に示すように、まずニューラルネットワーク16は、何らかの機械学習により得られた学習済みモデルに従って、分割学習データDjに含まれる分割ボリュームデータVjの各ボクセル(2次元データの場合はピクセル)に、「肺」、「気管支」、「血管」、「空気充填パターン」、「その他(バックグラウンド)」などのラベルを付すことで、分割ボリュームデータVj内の構造物を分類する。これにより、分割学習データDjごとに、各臓器のラベリングを付したボクセルの集合である予測マスクPjが得られる。
 機械学習部15は、分割正解マスクGjを教師データとして予測マスクPjと照らし合わせ、それらの誤差を基に、ニューラルネットワーク16のバックプロパゲーションを行う。つまり、ニューラルネットワーク16のバックプロパゲーションは、分割学習データDjごとに行われる。
 ただし、機械学習部15は、分割学習データDkに対応する予測マスクPkに学習除外対象の臓器O(k,i)が含まれる場合、臓器O(k,i)のラベリングのバックプロパゲーションは行わない。以下ではこの詳細を説明する。
 図5は分割学習データDjを用いた機械学習処理のフローチャートである。この機械学習処理を機械学習装置1のプロセッサに実行させるためのプログラムは、機械学習装置1のRAM(Random Access Memory)などのコンピュータ読取可能な有形記憶媒体に記憶されている。このプログラムが格納される媒体は、ハードディスク、CD(Compact Disk)、DVD(Digital Versatile Disk)、各種半導体メモリ等の、非一時的かつコンピュータ読取可能な記録媒体であってもよい。
 まず、S1(分割学習データ作成ステップ)において、元学習データ分割部12は、元学習データ入力部11が受け付けた元学習データから、N個の分割学習データD1、D2・・、DNを作成する。Nは2以上の整数である。なお図2はN=4の場合を示している。学習データの分割の単位はメモリ容量やGPUの処理能力に依存し、分割学習データが処理できる最大の量未満の任意量を分割の単位とする。
 S2(体積算出ステップ)において、学習除外対象判別部13は、分割正解マスクGjと正解マスクGとから、各臓器O(j, i)の体積比A(j, i)=V(j, i)/Viを算出する。
 S3(除外対象特定ステップ)において、学習除外対象判別部13は、A(j, i)が所定の閾値Th未満であるか否かを判断する。学習除外対象判別部13は、j=kの場合、A(k)i<Thとなるのであれば、分割学習データDkにおける学習除外対象は臓器O(k,i)であると判別する。
 S4(予測マスク作成ステップ)において、ニューラルネットワーク16は、分割学習データDjの分割ボリュームデータVjを入力し、n(j)個の各臓器O(j, i)の予測マスクPjを作成する。ここで、j=1,2,…,Nである。
 S5(損失算出ステップ)では、機械学習部15は、予測マスクPjにおける各臓器O(j, i)の検出精度を、損失関数Lossを用いて算出する。ただし、j=kの場合、臓器O(k)iの検出精度は算出しないものとする。すなわち、予測マスクPkにおいて、体積比が一定程度小さい臓器O(k)iの検出精度は無視する。
 具体的には、予測マスクPjにおいて、学習除外対象である臓器O(k,i)を除く、n(j)種類の臓器O(j, i)ごとの検出精度acc(j, i)を算出し、その平均値を分割学習データDjに対応する損失関数Loss(j)とする。
 Loss(j)=Avg(acc(j, i)) (i=1,2,..,n(j)、ただしi≠n(k)。またacc(k,i)=0とする) acc(j,i)は、予測マスクPjにおける各臓器O(j, i)のIoU(Intersection over Union)である。すなわちIoUは、予測マスクPjにおける臓器O(j, i)の集合Pr(i)と、分割正解マスクGjにおける臓器O(j, i)の集合Htとの和集合(union)のボクセル数で、Pr(i)とHtとの積集合(intersection)のボクセル数を割った値である。分割ボリュームデータVjで各臓器O(j, i)の検出精度が上がるほどacc(j,i)は1に近づく。ただし、検出精度が低い臓器が多ければ、他の臓器の検出精度が高くても損失関数Lossは1に近づかない。もっとも、体積比が閾値未満の臓器の検出精度については、そもそも損失関数Lossの値に反映されない。
 なお検出精度の算出式は上記に限られない。一般的には、
Figure JPOXMLDOC01-appb-M000001
で表すことができる。f1は
Figure JPOXMLDOC01-appb-M000002
をパラメータとする関数、f2は
Figure JPOXMLDOC01-appb-M000003
をパラメータとする関数である。例えば、このIoUを定数倍(100倍など)した値や、Dice係数をacc(i)としてもよい。
 S6(バックプロパゲーションステップ)では、機械学習部15は、損失関数Lossに応じて、ニューラルネットワーク16の各結合荷重を出力層側から入力層側へ変化させていく。
 S7(分割学習データ作成ステップ)では、元学習データ分割部12は、分割学習データDkを再作成する。この際、元学習データ分割部12は、臓器O(k,i)の全体が分割学習データDkに含まれるように、元学習データを分割しなおす。ただしこの再分割の単位もハードウェア資源上の制約を受ける。そして、処理はS2に戻り、分割学習データDkについて、臓器O(k,i)を含む各臓器の予測マスクPkが作成される。
 図6は分割学習データDkの再作成の一例である。ここでは、一旦作成された分割学習データD2が、アキシャル(体軸)方向に沿った頭部に向けてシフトされる。こうすれば、学習除外対象の臓器O(k,i)についても、シフト後の分割学習データD2に基づいて、精度の高い機械学習が可能となる。なお上記のS2~S7は任意の回数繰り返すことができる。したがって、どの臓器Oiもいずれかの分割学習データに含まれるように分割をやり直し、さらに、分割の都度損失関数に基づいたバックプロパゲーションをすればよい。
 従って、どの臓器もその体積に関係なく検出精度を高めるバックプロパゲーションを行うことができる。ただし、分割学習データに、臓器の体積が閾値よりも小さいものが含まれていれば、その臓器の検出精度は損失関数に反映されない。このため、元学習データが分割されることで切り取られた臓器の一部の検出精度が損失関数に反映され、バックプロパゲーションに悪影響を与えることを防ぐことができる。
 また、学習データの分割で切り取られた臓器については、学習データの再分割により、検出精度の算出およびバックプロパゲーションの対象とすることができる。
1 機械学習装置
11 元学習データ入力部
12 元学習データ分割部
13 学習除外対象判別部
14 分割学習データ出力部
15 機械学習部
16 ニューラルネットワーク

Claims (11)

  1.  断層画像のボリュームデータと前記ボリュームデータにおける領域のラベリングとを含む学習データの入力を受け付ける学習データ入力部と、
     前記学習データ入力部が入力を受け付けた学習データを分割することで、分割学習データを作成する分割部と、
     前記分割部の作成した分割学習データと前記学習データとから、学習対象から除外する領域である学習除外対象領域を判別する学習除外対象領域判別部と、
     前記分割部の作成した分割学習データに基づいて、前記学習除外対象領域判別部が判別した学習除外対象領域以外の領域のラベリングを機械学習する機械学習部と、
     を備える機械学習装置。
  2.  前記学習除外対象領域判別部は、前記分割部の作成した分割学習データでラベリングされた領域の体積と前記学習データでラベリングされた領域の体積とを比較し、前記体積が閾値以下となるか否かに応じて学習除外対象領域を判別する請求項1に記載の機械学習装置。
  3.  前記学習除外対象領域判別部が判別した学習除外対象領域以外の検出精度を算出する検出精度算出部を備え、
     前記機械学習部は、前記分割部の作成した分割学習データと前記検出精度算出部が算出した検出精度とに基づいて、前記学習除外対象領域以外の領域のラベリングを機械学習する請求項1または2に記載の機械学習装置。
  4.  前記検出精度算出部は、各領域の予測ラベルと正解ラベルとの間のIoU(Intersection over Union)の平均に基づいて検出精度を算出する請求項3に記載の機械学習装置。
  5.  前記分割部は、前記学習除外対象領域の全体が含まれるよう前記学習データを再分割する請求項1~4のいずれか1項に記載の機械学習装置。
  6.  前記分割部は、互いに重なりを有する分割学習データを作成する請求項1~5のいずれか1項に記載の機械学習装置。
  7.  前記断層画像は3次元医用断層画像であり、前記領域は臓器を含む請求項1~6のいずれか1項に記載の機械学習装置。
  8.  コンピュータが、
     断層画像のボリュームデータと前記ボリュームデータにおける領域のラベリングとを含む学習データの入力を受け付けるステップと、
     前記学習データを分割することで、分割学習データを作成するステップと、
     前記分割学習データと前記学習データとから、学習対象から除外する領域である学習除外対象領域を判別するステップと、
     前記分割学習データに基づいて、前記学習除外対象領域以外の領域のラベリングを機械学習するステップと、
     を実行する機械学習方法。
  9.  請求項8に記載の機械学習方法をコンピュータに実行させるための機械学習プログラム。
  10.  請求項9に記載の機械学習プログラムによって機械学習された機械学習済みモデル。
  11.  非一時的かつコンピュータ読取可能な記録媒体であって、前記記録媒体に格納された指令がコンピュータによって読み取られた場合に請求項9に記載の機械学習プログラムをコンピュータに実行させる記録媒体。
PCT/JP2019/007048 2018-02-27 2019-02-25 機械学習装置および方法 WO2019167882A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020503491A JP6952185B2 (ja) 2018-02-27 2019-02-25 機械学習装置および方法
US17/000,372 US11494586B2 (en) 2018-02-27 2020-08-24 Tomographic image machine learning device and method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-033451 2018-02-27
JP2018033451 2018-02-27

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/000,372 Continuation US11494586B2 (en) 2018-02-27 2020-08-24 Tomographic image machine learning device and method

Publications (1)

Publication Number Publication Date
WO2019167882A1 true WO2019167882A1 (ja) 2019-09-06

Family

ID=67805382

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/007048 WO2019167882A1 (ja) 2018-02-27 2019-02-25 機械学習装置および方法

Country Status (3)

Country Link
US (1) US11494586B2 (ja)
JP (1) JP6952185B2 (ja)
WO (1) WO2019167882A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021144589A (ja) * 2020-03-13 2021-09-24 富士フイルム株式会社 学習方法、学習装置、画像解析装置、及びプログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019176806A1 (ja) * 2018-03-16 2019-09-19 富士フイルム株式会社 機械学習装置および方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004097535A (ja) * 2002-09-10 2004-04-02 Toshiba Corp 医用3次元画像データの領域分割方法
JP2006325629A (ja) * 2005-05-23 2006-12-07 Ge Medical Systems Global Technology Co Llc 3次元関心領域設定方法,画像取得装置およびプログラム
JP2010119850A (ja) * 2008-11-22 2010-06-03 General Electric Co <Ge> 統計モデルを用いた医療画像自動セグメンテーションシステム、装置並びにプロセッサ
JP2015530193A (ja) * 2012-09-27 2015-10-15 シーメンス プロダクト ライフサイクル マネージメント ソフトウェアー インコーポレイテッドSiemens Product Lifecycle Management Software Inc. 3dコンピュータ断層撮影のための複数の骨のセグメンテーション
JP2018011958A (ja) * 2016-07-21 2018-01-25 東芝メディカルシステムズ株式会社 医用画像処理装置及び医用画像処理プログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB0917154D0 (en) * 2009-09-30 2009-11-11 Imp Innovations Ltd Method and apparatus for processing medical images
US9959486B2 (en) * 2014-10-20 2018-05-01 Siemens Healthcare Gmbh Voxel-level machine learning with or without cloud-based support in medical imaging
WO2017195797A1 (ja) 2016-05-09 2017-11-16 東芝メディカルシステムズ株式会社 医用画像診断装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004097535A (ja) * 2002-09-10 2004-04-02 Toshiba Corp 医用3次元画像データの領域分割方法
JP2006325629A (ja) * 2005-05-23 2006-12-07 Ge Medical Systems Global Technology Co Llc 3次元関心領域設定方法,画像取得装置およびプログラム
JP2010119850A (ja) * 2008-11-22 2010-06-03 General Electric Co <Ge> 統計モデルを用いた医療画像自動セグメンテーションシステム、装置並びにプロセッサ
JP2015530193A (ja) * 2012-09-27 2015-10-15 シーメンス プロダクト ライフサイクル マネージメント ソフトウェアー インコーポレイテッドSiemens Product Lifecycle Management Software Inc. 3dコンピュータ断層撮影のための複数の骨のセグメンテーション
JP2018011958A (ja) * 2016-07-21 2018-01-25 東芝メディカルシステムズ株式会社 医用画像処理装置及び医用画像処理プログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021144589A (ja) * 2020-03-13 2021-09-24 富士フイルム株式会社 学習方法、学習装置、画像解析装置、及びプログラム
JP7252158B2 (ja) 2020-03-13 2023-04-04 富士フイルム株式会社 学習方法、学習装置、画像解析装置、及びプログラム

Also Published As

Publication number Publication date
JP6952185B2 (ja) 2021-10-20
JPWO2019167882A1 (ja) 2021-03-04
US11494586B2 (en) 2022-11-08
US20200387751A1 (en) 2020-12-10

Similar Documents

Publication Publication Date Title
Kim et al. Deep learning in medical imaging
Pezeshk et al. 3-D convolutional neural networks for automatic detection of pulmonary nodules in chest CT
CN110047056B (zh) 用深度图像到图像网络和对抗网络的跨域图像分析和合成
Aggarwal et al. COVID-19 image classification using deep learning: Advances, challenges and opportunities
US10783639B2 (en) System and method for N-dimensional image segmentation using convolutional neural networks
Shen et al. An automated lung segmentation approach using bidirectional chain codes to improve nodule detection accuracy
Alilou et al. A comprehensive framework for automatic detection of pulmonary nodules in lung CT images
Wang Segmentation of multiple structures in chest radiographs using multi-task fully convolutional networks
Li et al. Automated measurement network for accurate segmentation and parameter modification in fetal head ultrasound images
Zhou et al. Fully automatic deep learning trained on limited data for carotid artery segmentation from large image volumes
Liu et al. A vessel-focused 3D convolutional network for automatic segmentation and classification of coronary artery plaques in cardiac CTA
WO2019167882A1 (ja) 機械学習装置および方法
Sokooti et al. Hierarchical prediction of registration misalignment using a convolutional LSTM: Application to chest CT scans
Feng et al. Deep learning for chest radiology: a review
Dang et al. Two-layer Ensemble of Deep Learning Models for Medical Image Segmentation
Tan et al. Automatic liver segmentation using 3D convolutional neural networks with a hybrid loss function
Ferreira et al. GAN-based generation of realistic 3D volumetric data: A systematic review and taxonomy
Gu et al. The effect of pulmonary vessel suppression on computerized detection of nodules in chest CT scans
Ananth Geo-cutting Liver Tumor
CN116596830A (zh) 检测临床工作流程中的机器学习模型的鲁棒性
EP3896649A1 (en) Medical image synthesis of abnormality patterns associated with covid-19
JP2023131287A (ja) 情報処理装置および学習方法
Zhuang et al. Efficient contour-based annotation by iterative deep learning for organ segmentation from volumetric medical images
CN113870261A (zh) 用神经网络识别力线的方法与系统、存储介质及电子设备
JP2022546303A (ja) 管状フィーチャのセグメント化

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19760091

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020503491

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19760091

Country of ref document: EP

Kind code of ref document: A1