CN111161274B - 腹部图像分割方法、计算机设备 - Google Patents
腹部图像分割方法、计算机设备 Download PDFInfo
- Publication number
- CN111161274B CN111161274B CN201811324901.0A CN201811324901A CN111161274B CN 111161274 B CN111161274 B CN 111161274B CN 201811324901 A CN201811324901 A CN 201811324901A CN 111161274 B CN111161274 B CN 111161274B
- Authority
- CN
- China
- Prior art keywords
- training
- image
- neural network
- sample
- training set
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000003187 abdominal effect Effects 0.000 title claims abstract description 86
- 238000000034 method Methods 0.000 title claims abstract description 60
- 238000003709 image segmentation Methods 0.000 title claims abstract description 27
- 238000012549 training Methods 0.000 claims abstract description 381
- 210000001015 abdomen Anatomy 0.000 claims abstract description 116
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 63
- 238000013528 artificial neural network Methods 0.000 claims abstract description 58
- 230000011218 segmentation Effects 0.000 claims abstract description 25
- 238000010586 diagram Methods 0.000 claims abstract description 13
- 230000009466 transformation Effects 0.000 claims description 19
- 230000008569 process Effects 0.000 claims description 18
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims description 16
- 238000004590 computer program Methods 0.000 claims description 13
- 238000006243 chemical reaction Methods 0.000 claims description 12
- 210000001596 intra-abdominal fat Anatomy 0.000 claims description 11
- 210000004003 subcutaneous fat Anatomy 0.000 claims description 8
- 230000001131 transforming effect Effects 0.000 claims description 5
- 238000012360 testing method Methods 0.000 description 7
- 238000011176 pooling Methods 0.000 description 6
- 238000010606 normalization Methods 0.000 description 5
- 238000012795 verification Methods 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 3
- 230000007423 decrease Effects 0.000 description 3
- 238000013434 data augmentation Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 230000003321 amplification Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 206010012601 diabetes mellitus Diseases 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 235000013861 fat-free Nutrition 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000002595 magnetic resonance imaging Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/771—Feature selection, e.g. selecting representative features from a multi-dimensional feature space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/211—Selection of the most significant subset of features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/2163—Partitioning the feature space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/2431—Multiple classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/02—Affine transformations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/174—Segmentation; Edge detection involving the use of two or more images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
- G06V10/765—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects using rules for classification or partitioning the feature space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10088—Magnetic resonance imaging [MRI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Databases & Information Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
Abstract
一种腹部图像分割方法、计算机存储介质及设备,该方法包括:获取待测腹部图像;基于已训练的全卷积神经网络,对待测腹部图像中各像素进行分类,确定待测腹部图像对应的分割图像;其中,已训练的全卷积神经网络基于第一训练集以及第二训练集训练确定,第一训练集包括各第一样本腹部图像以及各第一样本腹部图像对应的像素分类标签图,第二训练集包括各第二样本腹部图像以及各第二样本腹部图像分别对应属于各类别的像素数量。采用本方法,可提高分割准确性。
Description
技术领域
本发明涉及医疗技术领域,特别涉及一种腹部图像分割方法、计算机存储介质及设备。
背景技术
人的脂肪分成皮下脂肪和腹内脂肪,确定皮下脂肪和腹内脂肪在人体中的含量是衡量人们健康水平的重要指标,同时也是检测一些疾病(比如糖尿病等)的参考指标。目前,对mri(磁共振成像)腹部图像进行脂肪分割主要有两种方案,第一种是具有相关医学知识的人员手动对脂肪进行分割。第二种是通过计算机算法对腹内脂肪进行分割。
然而,由于腹内脂肪往往会跟一些非脂肪区域灰度相近,通过第一种方案不易区分,易导致分割准确性不高。上述第二种方案的缺陷在于利用算法分割图像的好坏取决于图像的质量,对灰度信息的过分依赖,不能很好地对图像进行分割,导致分割结果准确性不高。
发明内容
基于此,有必要针对现有腹部图像分割方法准确性不高的问题,提出一种腹部图像分割方法、计算机存储介质及设备。
一种腹部图像分割方法,包括以下步骤:
获取待测腹部图像;
基于已训练的全卷积神经网络,对所述待测腹部图像中各像素进行分类,确定所述待测腹部图像对应的分割图像;其中,所述已训练的全卷积神经网络基于第一训练集以及第二训练集训练确定,所述第一训练集包括各第一样本腹部图像以及各所述第一样本腹部图像对应的像素分类标签图,所述第二训练集包括各第二样本腹部图像以及各所述第二样本腹部图像分别对应属于各类别的像素数量。
本申请还提供一种计算机存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现上述方法的步骤。
本申请还提供一种计算机设备,包括存储器以及处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现上述方法的步骤。
上述腹部图像分割方法、计算机存储介质及设备,通过已训练的全卷积神经网络对待测腹部图像进行分割得到分割图像,能有效对图像进行分割。且已训练的全卷积神经网络通过两种不同的训练集训练确定,即基于第一训练集以及第二训练集训练确定,其中,第一训练集包括各第一样本腹部图像以及各所述第一样本腹部图像对应的像素分类标签图,所述第二训练集包括各第二样本腹部图像以及各所述第二样本腹部图像分别对应属于各类别的像素数量,通过不同的训练集进行训练确定已训练的全卷积神经网络,可提高全卷积神经网络的准确性,进而提高对腹部图像进行分割的准确性。
附图说明
图1为一个实施例的腹部图像分割方法的流程示意图;
图2为另一个实施例的腹部图像分割方法中仿射变化原理图;
图3为另一个实施例的全卷积神经网络的原理图;
图4为一个实施例中计算机设备的结构框图。
具体实施方式
为使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步的详细说明。应当理解,此处所描述的具体实施方式仅仅用以解释本发明,并不限定本发明的保护范围。
如图1所示,在一个实施例中,提供了一种腹部图像分割方法。本实施例主要以该方法应用于计算机设备来举例说明。该腹部图像分割方法具体包括如下步骤:
S110:获取待测腹部图像。
对待测腹部图像进行分割,需对腹部图像中各像素均进行分类,即确定各像素的类别,则首先需要获取待测腹部图像。在一个示例中,待测腹部图像为待测用户的腹部mri图像。
S120:基于已训练的全卷积神经网络,对待测腹部图像中各像素进行分类,确定待测腹部图像对应的分割图像。
其中,已训练的全卷积神经网络基于第一训练集以及第二训练集训练确定,第一训练集包括各第一样本腹部图像以及各第一样本腹部图像对应的像素分类标签图,第二训练集包括各第二样本腹部图像以及各第二样本腹部图像分别对应属于各类别的像素数量。
预先确定已训练的全卷积神经网络,在进行图像分割时,可利用已训练的全卷积神经网络,对待测腹部图像中各像素进行分类,从而实现图像分割,确定待测腹部图像对应的分割图像。例如,腹部图像为一个具有M行N列的图像,则腹部图像中有M*N个像素,在分割过程中,需要对M*N个像素分别进行分类,确定每个像素类别,可为每个像素赋予其所在类别对应的值,则相同类别的像素对应的值是相同的,从而实现图像的分割。在一个实施例中,第一样本腹部图像和第二用本用户的腹部图像均为腹部mri图像。
在本实施例中,在进行网络训练过程中,利用了两种不同训练集,即第一训练集和第二训练集。其中,第一训练集中包括各第一样本腹部图像分别像素分类标签图,而第二训练集中不包括各第二样本腹部图像对应的像素分类标签图,而是包括各第二样本腹部图像分别对应属于各类别的像素数量。例如,第二训练集包括第二样本用户A的腹部图像和第二样本用户B的腹部图像,则还包括第二样本用户A的腹部图像中属于各类别的像素数量(比如,各类别包括第一类别、第二类别和第三类别,第二样本用户A的腹部图像中各像素中属于第一类别的像素数量为S1,属于第二类别的像素数量为S2,属于第三类别的像素数量为S3)以及第二样本用户B的腹部图像中属于各类别的像素数量。
在一个实施例中,上述各类别包括腹内脂肪类别、皮下脂肪类别以及背景类别。则第二样本腹部图像分别对应属于各类别的像素数量,为该第二样本腹部图像对应属于腹内脂肪类别、皮下脂肪类别以及背景类别的像素数量。即在本实施例中,是将腹部图像中各像素分类为腹内脂肪、皮下脂肪和背景,实现将腹部图像分成腹内脂肪、皮下脂肪和背景。
上述腹部图像分割方法,通过已训练的全卷积神经网络对待测腹部图像进行分割得到分割图像,能有效对图像进行分割。且已训练的全卷积神经网络通过两种不同的训练集训练确定,即基于第一训练集以及第二训练集训练确定,其中,第一训练集包括各第一样本腹部图像以及各第一样本腹部图像对应的像素分类标签图(大小与腹部图像大小相同,像素分类标签图中每个值对应腹部图像对应的像素的分类标签),第二训练集包括各第二样本腹部图像以及各第二样本腹部图像分别对应属于各类别的像素数量,通过不同的训练集进行训练确定已训练的全卷积神经网络,可提高全卷积神经网络的准确性,进而提高对腹部图像进行分割的准确性。
在一个实施例中,确定已训练的全卷积神经网络的方式包括:获取第一训练集以及第二训练集;初始化得到初始全卷积神经网络,初始全卷积神经网络包括卷积层和分类层;基于第一训练集以及第二训练集,对初始全卷积神经网络进行训练得到已训练的全卷积神经网络。
即训练集中的腹部图像是输入到卷积层进行卷积处理,卷积层进行卷积处理后将得到的结果输出至分类层,全卷积神经网络的卷积层对腹部图像进行卷积后得到的卷积结果为特征图(即卷积图像),分类层进行分类可得到腹部图像对应的训练像素分类标签图。
其中,在基于第一训练集训练初始全卷积神经网络过程中,根据第一训练误差对初始全卷积神经网络进行更新,第一训练误差,根据第一训练集中第一样本腹部图像输入初始全卷积神经网络,从分类层输出的训练像素分类标签图,与第一样本腹部图像的像素分类标签图确定。
在基于第二训练集训练初始全卷积神经网络过程中,根据第二训练误差对初始全卷积神经网络进行更新,第二训练误差,根据第二训练集中第二样本腹部图像输入初始全卷积神经网络,从卷积层输出的训练卷积图像通过全连接层后的输出,与第二样本腹部图像中属于各类别的像素数量确定。
卷积神经网络中包括各参数,例如,权重以及偏置等,训练过程即是对这些参数的不断更新,从而更新卷积网络。可以理解,对初始全卷积神经网络进行更新,即是对初始全卷积神经网络中的参数进行更新。训练完成后,得到的参数是最新的,即已训练的卷积神经网络中的参数是最新的。
由于第一训练集和第二训练集中内容不同,则在训练过程中,卷积神经网络更新所依据的数据不同。例如,在利用第一训练集训练初始全卷积神经网络过程中,根据第一训练误差对初始全卷积神经网络进行更新。由于第一训练集中包括第一样本腹部图像对应的像素分类标签图,即每个像素的分类标签,初始全卷积神经网络对第一样本腹部图像进行卷积处理并分类后可得到训练像素分类标签图,然而,训练像素分类标签图与第一样本腹部图像对应的像素分类标签图可能存在差异,第一训练误差根据第一训练集中第一样本腹部图像输入初始全卷积神经网络,从分类层输出的训练像素分类标签图,与第一样本腹部图像的像素分类标签图确定,第一训练误差即表示训练像素分类标签图和像素分类标签图之间存在的差异。
而在利用第二训练集训练初始全卷积神经网络过程中,根据第二训练误差对初始全卷积神经网络进行更新。由于第二训练集中包括第二样本腹部图像以及第二样本腹部图像中像素属于各类别的像素数量,初始全卷积神经网络对第二样本腹部图像进行卷积处理后的卷积结果通过全连接层,全连接层对卷积结果处理后的输出,与第二样本腹部图像中像素属于各类别的数量可能存在差异,第二训练误差根据第二训练集中第二样本腹部图像输入初始全卷积神经网络,从卷积层输出训练卷积图像,训练卷积图像作为全连接层的输入,通过全连接层输出的第二样本腹部图像属于各类别的训练像素数量与第二样本腹部图像中属于各类别的像素数量可能存在差异,第二训练误差即表示属于各类别的训练像素数量和属于各类别的像素数量之间存在的差异。
在一个示例中,全连接层包括三个节点,与类别的数量对应,每个节点分别与对应的类别对应,全连接层可输出三个数值,即对应为属于各类别的像素数量。
在一个实施例中,基于第一训练集以及第二训练集,对初始全卷积神经网络进行训练得到已训练的全卷积神经网络的步骤,包括:基于第一训练集确定各第一训练子集,基于第二训练集确定各第二训练子集;轮流从各第一训练子集以及各第二训练子集中选择一个未训练过的标准训练子集,基于各标准训练子集对初始全卷积神经网络进行训练,得到已训练的全卷积神经网络。
其中,相邻两轮选择的标准训练子集分别来自不同训练集,可以理解,相邻两轮中前一轮选择的标准训练子集来自第一训练集时(即来自各第一训练子集),后一轮选择的标准子集来自第二训练集(即来自各第二训练子集),相邻两轮中前一轮选择的标准训练子集来自第二训练集(即来自各第二训练子集),后一轮选择的标准子集来自各第一训练集(即来自各第一训练子集)。
即在训练过程中,轮流使用第一训练子集和第二训练子集进行训练,而不是一直不间断地采用各第一训练子集进行训练或不间断地采用各第二训练子集进行训练。例如,可首先采用各第一训练子集中的一个训练子集进行训练,然后采用各第二训练子集中的一个训练子集进行训练,再利用各第一训练子集中的一个未训练过的训练子集进行训练,再利用各第二训练子集中的一个未训练过的训练子集进行训练,如此轮流循环选择,实现对初始全卷积神经网络的训练。
在一个实施例中,得到已训练的全卷积神经网络的方式,包括:从各第一训练子集中选择一个训练子集作为标准训练子集;基于标准训练子集对初始全卷积神经网络进行训练,更新初始全卷积神经网络;在未满足网络训练停止条件时,从第一训练集和第二训练集中,标准训练子集所属训练集外的训练集中选择一个未训练过的训练子集作为标准训练子集,并返回基于标准训练子集对初始全卷积神经网络进行训练,更新初始全卷积神经网络的步骤,直到满足网络训练停止条件,将更新的初始全卷积神经网络作为已训练的全卷积神经网络。
例如,第一训练集中各第一训练子集包括J11、J12、J13和J14,第二训练集中各第二训练子集包括J21、J22、J23和J24。首先,可从训练子集J11、J12、J13和J14中任意选择一个训练子集作为标准训练子集,比如,可选择训练子集J11作为标准训练子集,J11中包括各第一样本用户中至少部分第一样本腹部图像以及对应的像素分类标签图,然后将J11输入初始全卷积神经网络进行训练,即对初始全卷积神经网络进行更新。此时,未满足网络训练停止条件,则需要从第一训练集和第二训练集中,J11所属的第一训练集之外的第二训练集中选择一个未训练过的训练子集作为标准训练子集,即更新标准训练子集。比如,可从训练子集J21、J22、J23和J24中任意选择一个未训练过的训练子集作为标准训练子集,比如,可选择J21作为新的标准训练子集,利用更新后的标准训练子集J21再对已更新的初始全卷积神经网络进行训练,再次更新初始全卷积神经网络。此时,满足网络训练停止条件,则需要从第一训练集和第二训练集中,J21所属的第二训练集之外的第一训练集中选择一个未训练过的训练子集作为标准训练子集,即更新标准训练子集。已利用J11训练过,则可从J12、J13和J14任意选择一个训练子集作为标准训练子集,比如,可选择J12作为新的标准训练子集,利用更新后的标准训练子集J12再对已更新的初始全卷积神经网络进行训练,再次更新初始全卷积神经网络。如此,循环选择训练子集进行网络训练,在满足网络训练停止条件时,停止训练,此时得到的已更新的初始全卷积神经网络即为上述已训练的全卷积神经网络。
在一个示例中,迭代次数超过预设次数时,表示满足网络训练停止条件,其中,初始时(即还未开始训练),迭代次数为零,在一个标准训练子集对初始全卷积神经网络训练完成后,迭代次数增一。
在一个实施例中,更新初始全卷积神经网络之后,在未满足网络训练停止条件之前,还包括:对标准训练子集标记为已训练;在各第一训练子集分别标记为已训练时,将各第一训练子集分别标记为未训练;在各第二训练子集分别标记为已训练时,将各第二训练子集分别标记为未训练。
由于在满足训练停止条件之前,各第一训练子集或各第二训练子集均已对网络进行了训练,即各第一训练子集均已被标记为已训练或各第二训练子集均已被标记为已训练,但此时还未满足训练停止条件,即不停止训练,则需要在各第一训练子集分别标记为已训练时,将各第一训练子集分别标记为未训练,在各第二训练子集分别标记为已训练时,将各第二训练子集分别标记为未训练。如此,可在满足训练停止条件之前,确保能有训练子集可选,从而确保对网络的正常训练。
例如,在各第一训练子集中J11、J12、J13和J14均已对网络进行了训练,即均标记为已训练,此时,在各第一训练子集中没有未训练的训练子集可选,影响下一步的网络正常训练,则可将J11、J12、J13和J14重新标记为未训练,则可从中任意选一个作为标准训练子集进行下一步的网络训练。在各第二训练子集中J21、J22、J23和J24均已对网络进行了训练,即均标记为已训练,此时,在各第二训练子集中没有未训练的训练子集可选,影响下一步的网络正常训练,则可将J21、J22、J23和J24重新标记为未训练,则可从中任意选一个作为标准训练子集进行下一步的网络训练。直到满足网络训练停止条件。
在一个实施例中,在未满足网络训练停止条件时,且在从所述第一训练集和所述第二训练集中,所述标准训练子集所属训练集外的训练集中选择一个未训练过的训练子集作为标准训练子集之前,还包括:获取初始全卷积神经网络的训练误差;在训练误差大于预设误差时,调整所述初始全卷积神经网络的学习率。其中,在标准训练子集为第一训练子集时,训练误差可以为上述各第一样本腹部图像对应的第一训练误差之和,即该训练误差为各第一训练误差之和。在标准训练子集为第二训练子集时,训练误差可以为上述各第二样本腹部图像对应的第二训练误差之和,即该训练误差为各第二训练误差之和。即在本实施例中,在网络训练过程中,还可根据误差调整网络的学习率,使网络训练得更加准确。
在一个实施例中,获取第一训练集的方式,包括:获取各第一样本原腹部灰度图像以及各第一样本原腹部灰度图像对应的像素分类标签图;对各所述第一样本原腹部灰度图像进行变换,获得各第一灰度变换图像,对各所述第一样本原腹部图像对应的像素分类标签图进行相同变换,获得各所述第一灰度变换图像对应的像素分类标签变换图;基于各所述第一样原本腹部灰度图像、各所述第一样本原腹部灰度图像对应的像素分类标签图、各所述第一灰度变换图像以及各所述第一灰度变换图像对应的像素分类标签变换图,生成所述第一训练集。
即对第一样本原腹部灰度图像对应的像素分类标签图进行与对第一样本原腹部灰度图像进行相同变换,确保像素分类标签变换图与第一灰度变换图像对应。可以理解,在本实施例中,上述第一训练集中各第一样本腹部图像包括各所述第一样本原腹部灰度图像和各第一灰度变换图像。上述变换可以包括翻转或旋转,如此,可在第一样本原腹部灰度图像的基础上,增加训练样本图像的数量。在本实施例中,第一样本原腹部灰度图像为mri图像。
在一个实施例中,生成所述第一训练集的方式,包括:分别获取各所述第一样本原腹部灰度图像在各颜色通道上的第一通道图像以及各所述第一灰度变换图像在各颜色通道上的第二通道图像;对各第一通道图像以及各第二图通道像分别进行归一化,确定各第一归一化通道图像以及各第二归一化通道图像;基于各第一归一化通道图像以及各第二归一化通道图像,生成第一训练集。
在本实施例中,各颜色通道可以包括R颜色通道、G颜色通道和B颜色通道。可以理解,在本实施例中,生成的第一训练集中各第一样本腹部图像包括各第一样本腹部灰度图像分别在各颜色通道上的第一归一化图像以及各第一灰度变换图像分别在各颜色通道上的第二归一化图像。在一个示例中,可根据预设的方差以及均值,对各第一通道图像以及各第二图通道像分别进行归一化,以确保得到的各第一归一化通道图像以及各第二归一化通道图像中的像素值满足预设要求。即在本实施例中,第一训练集中各第一样本腹部图像包括各各第一归一化通道图像以及各第二归一化通道图像。
在一个实施例中,获取第二训练集的方式,包括:获取各第二样本原腹部灰度图像以及各所述第二样本原腹部灰度图像分别对应属于各类别的像素数量;对各所述第二样原腹部灰度图像进行变换,获得各第二灰度变换图像;基于各所述第二样本原腹部灰度图像、各所述第二灰度变换图像以及各所述第二样本原腹部灰度图像分别对应属于各类别的像素数量,生成所述第二训练集。
即生成的第二训练集中各第二样本腹部图像包括各第二样本原腹部灰度图像以及对应的各第二灰度变换图像。
在一个实施例中,生成所述第二训练集的方式,包括:分别获取各所述第二样本原腹部灰度图像在各颜色通道上的第三通道图像以及各所述第二灰度变换图像在各颜色通道上的第四通道图像;对各第二通道图像以及各第二图通道像分别进行归一化,确定各第三归一化通道图像以及各第四归一化通道图像;基于各第三归一化通道图像以及各第四归一化通道图像,生成第二训练集。
即在本实施例中,第二训练集中各第二样本腹部图像包括各各第三归一化通道图像以及各第四归一化通道图像。
在一个实施例中,基于所述第一训练集以及所述第二训练集,对所述初始全卷积神经网络进行训练得到所述已训练的全卷积神经网络之前,还包括:基于第一训练集中的各第一样本腹部图像,确定各第一样本腹部图像对应的各方格;将第一样本腹部图像对应的各四个方格的交点作为各可移动点;对各可移动点进行移动,更新各方格,得到各四边形;分别对第一样本腹部图像在各四边形内的区域进行仿射变换,得到各仿射子图;对各仿射子图进行拼接,得到更新后的第一样本腹部图像;基于各更新后的第一样本腹部图像更新第一训练集。
对第一样本腹部图像进行切换可确定各方格。在本实施例中,可基于沿图像的行方向的各行切分线以及沿图像的列方向的各列切分线,对第一样本腹部图像进行切分,得到各方格(即正方形格)。即各方格组成的大小与第一样本腹部图像大小相同。可以理解,行切分线可以为第一样本腹部图像中一行,列切分线为第一样本腹部图像中一列。
相邻两个方格之间存在重合线,属于行切分线或列切分线。如此,在四个方格存在交点时,该交点一定属于四个方格中两两之间重合线中的一点,具体为四个方格中两两之间重合线中的交点。将第一样本腹部图像中的各交点作为各可移动点,然后基于预设移动规则对各可移动点其进行移动,各交点移动,则各方格子对应的形状也随之改变,即移动交点过程中,可实现对各方格子形状的更新,得到各四边形。在一个示例中,移动为随机移动,且移动的距离在预设距离范围内,即预设移动规则为在预设距离范围内移动的规则。例如,相邻两个可移动点之间的距离为100,每个可移动点可以移动的范围为30,即预设距离范围即表示与可移动点的距离为30的范围。
每一个第一样本腹部图像均进行上述过程,则实现对每一个第一样本腹部图像的各方格的更新。然后,分别对第一样本腹部图像在各四边形内的区域进行仿射变换,得到各仿射子图,实现图像数据的增广,并将各第一样本腹部图像对应的各仿射子图进行拼接,得到各更新后的第一样本腹部图像,基于各更新后的第一样本腹部图像更新第一训练集,即更新后的第一训练集中包括各更新后的第一样本腹部图像,后续利用更新后的第一训练集进行训练。
在一个实施例中,基于所述第一训练集以及所述第二训练集,对所述初始全卷积神经网络进行训练得到所述已训练的全卷积神经网络之前,还包括基于第二训练集中的各第二样本腹部图像,确定各第二样本腹部图像对应的各切分方格;将第二样本腹部图像对应的各四个切分方格的交点作为各可移动交点;
对各可移动交点进行移动,更新各切分方格,得到各切分四边形;
分别对第二样本腹部图像在各切分四边形内的区域进行仿射变换,得到各腹部仿射子图;
对各腹部仿射子图进行拼接,得到更新后的第二样本腹部图像;
基于各更新后的第二样本腹部图像更新第二训练集。
对第二样本腹部图像进行切换可确定各切分方格,过程与上述对第一样本腹部图像进行切分过程类似。更新后的第二训练集包括各更新后的第二样本腹部图像更新,后续利用更新后的第二训练集进行训练。
下面以一具体实施例对上述腹部图像分割方法加以具体说明。具体过程如下:
可将图像按照7:2:1的比例分为训练图像、验证图像以及测试图像。
在对待测腹部图像进行分割过程中,需要利用已训练的全卷积神经网络,确定已训练的全卷积神经网络的过程如下:
首先,对图像进行预处理,即对原图像进行随机翻转或旋转,并将图像切成8*8的方格,通过移动方格中49个交点(每四个方格的交点),各方格变成凸四边形,再对图像对应在各凸四边形内的像素进行仿射变换。目的在于针对于腹内脂肪的图像,纹理信息的提取是很重要的,但是由于数据量的缺失,仅仅对图像做线性的变换并不利于提取纹理信息,适当的做一些变换可以起到数据增广的作用。如图2所示,图2(a)为一个像素分类标签图,图2(b)为对2(a)中像素分类标签图在各凸四边形内的区域进行仿射变换后的图像。另外,还可对上述变换后的图像由单通道变成三通道(颜色通道),给出方差和均值,将每一个通道的图像的像素值都归一化。最后生成第一训练集和第二训练集,所述第一训练集包括各第一样本腹部图像(例如,300张)以及各所述第一样本腹部图像对应的像素分类标签图,所述第二训练集包括各第二样本腹部图像(例如,9000张)以及各所述第二样本腹部图像分别对应属于各类别的像素数量。
然后,可初始得到初始全卷积神经网络,在初始全卷积神经网络中,网络配置参数为:学习率为0.001,学习率采用逐步下降策略,配置参数gamma为0.1,stepsize(步长)为1500,冲量momentum设置为0.9,最大迭代次数(即预设迭代次数)为50000次,每次训练输入32张图像作为一个序列进行学习。本实施例中,训练代码中采用pytorch深度学习框架,加入DRML公开代码中的多标签输入层和多标签sigmoid交叉熵函数层,在Ubuntu系统中编译,配置好算法网络参数,进行训练。
如图3所示,为全卷积神经网络的原理图,在全卷积神经网络网络的左边经过四次卷积、池化和归一化操作之后,图像逐渐减小。在后边,经过解卷积,池化和归一化操作,图片逐渐增大。网络在每一次解卷积之前,会将上一层传过来的图片和以前同样大小的卷积图片做一个在通道上的连接。这样做的目的是为了对语义分割在提取细节特征的同时还能兼顾到总体信息。在最后一层卷积层之后,连接softmax层(分类层),另外还可连接一个全连接层,输出有三个神经元(节点),分别对应着皮下脂肪、腹内脂肪以及背景的像素数量。
具体地,在全卷积神经网络的左边经过四次卷积、池化和归一化操作之后,图片逐渐减小。在右边,经过解卷积、池化和归一化操作,图片逐渐增大。全卷积神经网络在每一次解卷积之前,会将上一层传过来的图像和以前同样大小的卷积图片做一个在通道上的连接。这样做的目的是为了对语义分割在提取细节特征的同时还能兼顾到总体信息。
其次,确定第一训练集对应的各第一训练子集,确定第二训练集对应的各第二训练子集。具体地,可从第一训练集中选取预设数量(例如,32)个第一样本腹部图像以及对应的像素分类标签图作为一个第一训练子集,各第一训练子集的并集为第一训练集,且交集为空。可从第二训练集中选取预设数量个第二样本腹部图像以及其像素属于各类别的像素数量作为一个第二训练子集,各第二训练子集的并集为第二训练集,且交集为空。轮流从第一训练集和第二训练集中选取训练子集作为标准训练子集,并将其输入到已经架构好的初始全卷积神经网络(unet)中进行训练,直到满足网络训练停止条件。初始全卷积神经网络训练过程中,包括前向传播、计算误差以及反向传播过程,每一次前向传播包括卷积、池化和归一化步骤。
在一个训练子集对网络训练完成后,即更新初始全卷积神经网络,且迭代次数增一。此时,可利用验证图像对更新后的初始全卷积神经网络进行验证,如果验证结果高于之前训练后更新的初始全卷积神经网络对验证图像的训练结果,则将该更新后的初始全卷积神经网络保存下来,可用于以后的测试图像的测试。
如果迭代次数达到预设迭代次数,表示满足网络训练停止条件,则训练结束,可对测试图像进行测试。如果未达到,则需检测本次迭代之后(即针对本次标准训练子集训练完毕之后),全卷积神经网络的训练误差是否有效减小,即是否小于或等于预设误差,若是,则表示有效减小,若否,则标识误差没有有效减小,此时,可对网络的学习率经营调整。后续可利用测试图像对已训练的全卷积神经网络进行测试得到测试结果,并根据测试结果确定已训练的全卷积神经网络的分割准确率。
在上述腹部图像分割方法中,通过将图片切成各方格,通过移动方格中的每四个方格的交点,把每一个方格中的图像进行仿射变换,实现数据增广,有利于全卷积神经网络提取图像的纹理特征。现有方案不能做到每一个像素对应的学习,他们需要把每一个像素周围的一整同时输入,但这样就会忽略整体图像对这个像素带来的影响。在本实施例中,将分割任务运用到unet中。通过端到端的学习,以及反向传播修改参数的方式使网络自适应的学习到图片的特征。而且,本实施例结合原有的神经网络中对两种同样风格却不同标签的数据进行联合协同学习。对于像素级别的图像标注,需要大量的人力和时间,如此,本实施例采用全卷积神经网络前面特征提取部分的架构(即卷积和池化的架构),对后端特征组合部分进行多标签训练(对应分类层以及全连接层),可以使神经网络收敛良好。另外,对于不同人群(偏瘦,正常,肥胖)不用单独训练网络,训练的全卷积神经网络可以良好匹配现有数据,并且得到较高的准确率。
在对待测腹部图像进行分割过程中,利用已训练的全卷积神经网络对其进行分割,可提高分割准确性。如下表1所示,为采用本实施例的分割方法对各待测腹部图像进行分割的准确率结果。
表1
图4示出了一个实施例中计算机设备的内部结构图。如图4所示,该计算机设备包括通过系统总线连接的处理器、存储器和网络接口。其中,存储器包括非易失性存储介质和内存储器。该计算机设备的非易失性存储介质存储有操作系统,还可存储有计算机程序,该计算机程序被处理器执行时,可使得处理器实现上述腹部图像分割方法。该内存储器中也可储存有计算机程序,该计算机程序被处理器执行时,可使得处理器执行腹部图像分割方法。在一个示例中,计算机设备还可以包括输入装置和显示屏,计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏,计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。
本领域技术人员可以理解,图4中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
本申请提供了一种实施例的计算机设备,包括存储器以及处理器,存储器存储有计算机程序,处理器执行计算机程序时实现上述腹部图像分割方法的步骤。
本申请提供一种实施例的计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现上述方法的步骤。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,该计算机程序可存储于一非易失性计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
Claims (10)
1.一种腹部图像分割方法,其特征在于,包括以下步骤:
获取待测腹部图像;
基于已训练的全卷积神经网络,对所述待测腹部图像中各像素进行分类,确定所述待测腹部图像对应的分割图像;其中,所述已训练的全卷积神经网络基于第一训练集以及第二训练集训练确定,所述第一训练集包括各第一样本腹部图像以及各所述第一样本腹部图像对应的像素分类标签图,所述第二训练集包括各第二样本腹部图像以及各所述第二样本腹部图像分别对应属于各类别的像素数量;
其中,获取所述第一训练集的方式,包括:
获取各第一样本原腹部灰度图像以及各第一样本原腹部灰度图像对应的像素分类标签图;
对各所述第一样本原腹部灰度图像进行变换,获得各第一灰度变换图像,对各所述第一样本原腹部图像对应的像素分类标签图进行相同变换,获得各所述第一灰度变换图像对应的像素分类标签变换图;
基于各所述第一样本原腹部灰度图像、各所述第一样本原腹部灰度图像对应的像素分类标签图、各所述第一灰度变换图像以及各所述第一灰度变换图像对应的像素分类标签变换图,生成所述第一训练集;
其中,生成所述第一训练集的方式,包括:
分别获取各所述第一样本原腹部灰度图像在各颜色通道上的第一通道图像以及各所述第一灰度变换图像在各颜色通道上的第二通道图像;
对各第一通道图像以及各第二图通道像分别进行归一化,确定各第一归一化通道图像以及各第二归一化通道图像;
基于各第一归一化通道图像以及各第二归一化通道图像,生成第一训练集;
其中,获取所述第二训练集的方式,包括:
获取各第二样本原腹部灰度图像以及各所述第二样本原腹部灰度图像分别对应属于各类别的像素数量;
对各所述第二样原腹部灰度图像进行变换,获得各第二灰度变换图像;
基于各所述第二样本原腹部灰度图像、各所述第二灰度变换图像以及各所述第二样本原腹部灰度图像分别对应属于各类别的像素数量,生成所述第二训练集。
2.根据权利要求1所述的腹部图像分割方法,其特征在于,所述确定所述已训练的全卷积神经网络的方式包括:
获取所述第一训练集以及所述第二训练集;
初始化得到初始全卷积神经网络,所述初始全卷积神经网络包括卷积层和分类层;
基于所述第一训练集以及所述第二训练集,对所述初始全卷积神经网络进行训练得到所述已训练的全卷积神经网络;其中,在基于所述第一训练集训练所述初始全卷积神经网络过程中,根据第一训练误差对所述初始全卷积神经网络进行更新,所述第一训练误差,根据所述第一训练集中第一样本腹部图像输入所述初始全卷积神经网络,从所述分类层输出的训练像素分类标签图,与所述第一样本腹部图像的像素分类标签图确定;
在基于第二训练集训练所述初始全卷积神经网络过程中,根据第二训练误差对所述初始全卷积神经网络进行更新,所述第二训练误差,根据所述第二训练集中第二样本腹部图像输入所述初始全卷积神经网络,从所述卷积层输出的训练卷积图像通过全连接层后的输出,与所述第二样本腹部图像中属于各所述类别的像素数量确定。
3.根据权利要求2所述的腹部图像分割方法,其特征在于,所述基于所述第一训练集以及所述第二训练集,对所述初始全卷积神经网络进行训练得到所述已训练的全卷积神经网络的步骤,包括:
基于所述第一训练集确定各第一训练子集,基于所述第二训练集确定各第二训练子集;
轮流从各所述第一训练子集以及各所述第二训练子集中选择一个未训练过的标准训练子集,基于各所述标准训练子集对所述初始全卷积神经网络进行训练,得到所述已训练的全卷积神经网络;
其中,相邻两轮选择的标准训练子集分别来自不同训练集。
4.根据权利要求3所述的腹部图像分割方法,其特征在于,所述得到所述已训练的全卷积神经网络的方式,包括:
从各所述第一训练子集中选择一个训练子集作为标准训练子集;
基于所述标准训练子集对所述初始全卷积神经网络进行训练,更新所述初始全卷积神经网络;
在未满足网络训练停止条件时,从所述第一训练集和所述第二训练集中,所述标准训练子集所属训练集外的训练集中选择一个未训练过的训练子集作为标准训练子集,并返回基于所述标准训练子集对所述初始全卷积神经网络进行训练,更新所述初始全卷积神经网络的步骤,直到满足所述网络训练停止条件,将更新的所述初始全卷积神经网络作为所述已训练的全卷积神经网络。
5.根据权利要求4所述的腹部图像分割方法,其特征在于,更新所述初始全卷积神经网络之后,在未满足网络训练停止条件之前,还包括:
对所述标准训练子集标记为已训练;
在各所述第一训练子集分别标记为已训练时,将各所述第一训练子集分别标记为未训练;
在各所述第二训练子集分别标记为已训练时,将各所述第二训练子集分别标记为未训练。
6.根据权利要求4所述的腹部图像分割方法,其特征在于,在未满足网络训练停止条件时,从所述第一训练集和所述第二训练集中,所述标准训练子集所属训练集外的训练集中选择一个未训练过的训练子集作为标准训练子集之前,还包括:
获取初始全卷积神经网络的训练误差;
在所述训练误差大于预设误差时,调整所述初始全卷积神经网络的学习率。
7.根据权利要求1所述的腹部图像分割方法,其特征在于,第二样本腹部图像分别对应属于各类别的像素数量为第二样本腹部图像对应属于腹内脂肪类别、皮下脂肪类别以及背景类别的像素数量。
8.根据权利要求2所述的腹部图像分割方法,其特征在于,基于所述第一训练集以及所述第二训练集,对所述初始全卷积神经网络进行训练得到所述已训练的全卷积神经网络之前,还包括:
基于第一训练集中的各第一样本腹部图像,确定各第一样本腹部图像对应的各方格;
将第一样本腹部图像对应的各四个方格的交点作为各可移动点;
对各可移动点进行移动,更新各方格子,得到各四边形;
分别对第一样本腹部图像在各四边形内的区域进行仿射变换,得到各仿射子图;
对各仿射子图进行拼接,得到更新后的第一样本腹部图像;
基于各更新后的第一样本腹部图像更新第一训练集。
9.一种计算机设备,包括存储器以及处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1-8中任意一项所述的方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1-8中任一项所述的方法的步骤。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811324901.0A CN111161274B (zh) | 2018-11-08 | 2018-11-08 | 腹部图像分割方法、计算机设备 |
US16/471,819 US11302014B2 (en) | 2018-11-08 | 2018-11-16 | Methods of segmenting an abdominal image, computer apparatuses, and storage mediums |
PCT/CN2018/115798 WO2020093435A1 (zh) | 2018-11-08 | 2018-11-16 | 腹部图像分割方法、计算机设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811324901.0A CN111161274B (zh) | 2018-11-08 | 2018-11-08 | 腹部图像分割方法、计算机设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111161274A CN111161274A (zh) | 2020-05-15 |
CN111161274B true CN111161274B (zh) | 2023-07-07 |
Family
ID=70554818
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811324901.0A Active CN111161274B (zh) | 2018-11-08 | 2018-11-08 | 腹部图像分割方法、计算机设备 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11302014B2 (zh) |
CN (1) | CN111161274B (zh) |
WO (1) | WO2020093435A1 (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020148810A1 (ja) * | 2019-01-15 | 2020-07-23 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置 |
CN110472531B (zh) * | 2019-07-29 | 2023-09-01 | 腾讯科技(深圳)有限公司 | 视频处理方法、装置、电子设备及存储介质 |
US11494608B2 (en) * | 2019-08-14 | 2022-11-08 | Intel Corporation | Methods and apparatus to tile walk a tensor for convolution operations |
WO2021178320A1 (en) * | 2020-03-05 | 2021-09-10 | Stryker Corporation | Systems and methods for automatic detection of surgical specialty type and procedure type |
CN112597863A (zh) * | 2020-12-16 | 2021-04-02 | 上海眼控科技股份有限公司 | 云分类方法及设备 |
US20220283922A1 (en) * | 2021-03-02 | 2022-09-08 | Nice Ltd. | Systems and methods for analyzing and segmenting automation sequences |
CN116594627B (zh) * | 2023-05-18 | 2023-12-12 | 湖北大学 | 一种基于多标签学习的群体软件开发中服务匹配方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108491776A (zh) * | 2018-03-12 | 2018-09-04 | 青岛理工大学 | 基于像素分类的装配体零件识别方法、装置及监测系统 |
CN108765423A (zh) * | 2018-06-20 | 2018-11-06 | 北京七鑫易维信息技术有限公司 | 一种卷积神经网络训练方法及装置 |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9700219B2 (en) * | 2013-10-17 | 2017-07-11 | Siemens Healthcare Gmbh | Method and system for machine learning based assessment of fractional flow reserve |
US9462968B2 (en) * | 2014-10-17 | 2016-10-11 | General Electric Company | System and method for assessing bowel health |
CN105894517B (zh) | 2016-04-22 | 2019-05-07 | 北京理工大学 | 基于特征学习的ct图像肝脏分割方法及系统 |
WO2018015414A1 (en) * | 2016-07-21 | 2018-01-25 | Siemens Healthcare Gmbh | Method and system for artificial intelligence based medical image segmentation |
JP6657132B2 (ja) * | 2017-02-27 | 2020-03-04 | 富士フイルム株式会社 | 画像分類装置、方法およびプログラム |
CN108572183B (zh) * | 2017-03-08 | 2021-11-30 | 清华大学 | 检查设备和分割车辆图像的方法 |
US10849587B2 (en) * | 2017-03-17 | 2020-12-01 | Siemens Healthcare Gmbh | Source of abdominal pain identification in medical imaging |
US11664114B2 (en) * | 2017-05-25 | 2023-05-30 | Enlitic, Inc. | Medical scan assisted review system |
CN107316307B (zh) * | 2017-06-27 | 2020-05-08 | 北京工业大学 | 一种基于深度卷积神经网络的中医舌图像自动分割方法 |
CN108335303B (zh) * | 2018-01-28 | 2021-01-08 | 浙江大学 | 一种应用于手掌x光片的多尺度手掌骨骼分割方法 |
CN108305260B (zh) * | 2018-03-02 | 2022-04-12 | 苏州大学 | 一种图像中角点的检测方法、装置及设备 |
US10140544B1 (en) * | 2018-04-02 | 2018-11-27 | 12 Sigma Technologies | Enhanced convolutional neural network for image segmentation |
US10891731B2 (en) * | 2018-05-07 | 2021-01-12 | Zebra Medical Vision Ltd. | Systems and methods for pre-processing anatomical images for feeding into a classification neural network |
US10706545B2 (en) * | 2018-05-07 | 2020-07-07 | Zebra Medical Vision Ltd. | Systems and methods for analysis of anatomical images |
CN108765412B (zh) | 2018-06-08 | 2021-07-20 | 湖北工业大学 | 一种带钢表面缺陷分类方法 |
US10803591B2 (en) * | 2018-08-28 | 2020-10-13 | International Business Machines Corporation | 3D segmentation with exponential logarithmic loss for highly unbalanced object sizes |
CN109784424B (zh) * | 2019-03-26 | 2021-02-09 | 腾讯科技(深圳)有限公司 | 一种图像分类模型训练的方法、图像处理的方法及装置 |
-
2018
- 2018-11-08 CN CN201811324901.0A patent/CN111161274B/zh active Active
- 2018-11-16 US US16/471,819 patent/US11302014B2/en active Active
- 2018-11-16 WO PCT/CN2018/115798 patent/WO2020093435A1/zh active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108491776A (zh) * | 2018-03-12 | 2018-09-04 | 青岛理工大学 | 基于像素分类的装配体零件识别方法、装置及监测系统 |
CN108765423A (zh) * | 2018-06-20 | 2018-11-06 | 北京七鑫易维信息技术有限公司 | 一种卷积神经网络训练方法及装置 |
Non-Patent Citations (2)
Title |
---|
一种融合小波变换与卷积神经网络的高相似度图像识别与分类算法;姜文超等;《计算机工程与科学》(第09期);全文 * |
基于卷积神经网络的领带花型情感分类;汪珊娜等;《纺织学报》(第08期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN111161274A (zh) | 2020-05-15 |
US11302014B2 (en) | 2022-04-12 |
WO2020093435A1 (zh) | 2020-05-14 |
US20210366125A1 (en) | 2021-11-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111161274B (zh) | 腹部图像分割方法、计算机设备 | |
WO2020253629A1 (zh) | 检测模型训练方法、装置、计算机设备和存储介质 | |
CN107506761B (zh) | 基于显著性学习卷积神经网络的脑部图像分割方法及系统 | |
WO2021217857A1 (zh) | 切片缺陷检测方法、装置、电子设备及可读存储介质 | |
Tran et al. | A two-step sequential automated crack detection and severity classification process for asphalt pavements | |
CN110097003A (zh) | 基于神经网络的课堂考勤方法、设备、存储介质及装置 | |
CN106780498A (zh) | 基于逐像素点深度卷积网络上皮和基质组织自动分割方法 | |
CN112288750A (zh) | 一种基于深度学习网络的机械装配体图像分割方法和设备 | |
CN110246579B (zh) | 一种病理诊断方法及装置 | |
CN110245587B (zh) | 一种基于贝叶斯迁移学习的光学遥感图像目标检测方法 | |
CN114511523B (zh) | 基于自监督学习的胃癌分子亚型分类方法及装置 | |
CN111325766B (zh) | 三维边缘检测方法、装置、存储介质和计算机设备 | |
CN112613375A (zh) | 一种轮胎受损检测识别方法和设备 | |
CN115908363B (zh) | 肿瘤细胞统计方法、装置、设备和存储介质 | |
CN112036249A (zh) | 端对端行人检测及属性识别的方法、系统、介质及终端 | |
CN114445356A (zh) | 基于多分辨率的全视野病理切片图像肿瘤快速定位方法 | |
CN116091596A (zh) | 一种自下而上的多人2d人体姿态估计方法及装置 | |
CN116486156A (zh) | 融合多尺度特征上下文的全视野数字切片图像分类方法 | |
CN107967454A (zh) | 顾及空间邻域关系的双路卷积神经网络遥感分类方法 | |
CN118334336A (zh) | 阴道镜图像分割模型构建方法、图像分类方法和装置 | |
CN113128518B (zh) | 基于孪生卷积网络和特征混合的sift误匹配检测方法 | |
CN114170440A (zh) | 图像特征点的确定方法、装置、计算机设备和存储介质 | |
CN117746018A (zh) | 面向平面扫描图像的用户定制化意图理解方法及系统 | |
JP7352261B2 (ja) | 学習装置、学習方法、プログラム、学習済みモデルおよび骨転移検出装置 | |
CN115410083B (zh) | 一种基于对抗域适应的小样本sar目标分类方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |