CN114612479B - 基于全局与局部特征重建网络的医学图像分割方法和装置 - Google Patents
基于全局与局部特征重建网络的医学图像分割方法和装置 Download PDFInfo
- Publication number
- CN114612479B CN114612479B CN202210121683.0A CN202210121683A CN114612479B CN 114612479 B CN114612479 B CN 114612479B CN 202210121683 A CN202210121683 A CN 202210121683A CN 114612479 B CN114612479 B CN 114612479B
- Authority
- CN
- China
- Prior art keywords
- feature
- reconstruction
- global
- module
- local
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 64
- 238000003709 image segmentation Methods 0.000 title claims abstract description 37
- 238000005070 sampling Methods 0.000 claims abstract description 12
- 238000003860 storage Methods 0.000 claims abstract description 11
- 230000011218 segmentation Effects 0.000 claims description 80
- 238000010586 diagram Methods 0.000 claims description 37
- 230000006870 function Effects 0.000 claims description 27
- 230000004927 fusion Effects 0.000 claims description 21
- 238000004590 computer program Methods 0.000 claims description 18
- 230000008569 process Effects 0.000 claims description 9
- 238000012545 processing Methods 0.000 claims description 8
- 238000011176 pooling Methods 0.000 claims description 6
- 238000012549 training Methods 0.000 claims description 6
- 238000010606 normalization Methods 0.000 claims description 4
- 238000002156 mixing Methods 0.000 claims description 3
- 238000000638 solvent extraction Methods 0.000 claims description 3
- 238000011084 recovery Methods 0.000 abstract description 9
- 238000000605 extraction Methods 0.000 abstract description 6
- 230000001419 dependent effect Effects 0.000 abstract description 5
- 238000002474 experimental method Methods 0.000 description 37
- 238000002679 ablation Methods 0.000 description 20
- 230000007246 mechanism Effects 0.000 description 15
- 210000000056 organ Anatomy 0.000 description 12
- 210000001525 retina Anatomy 0.000 description 10
- 206010003694 Atrophy Diseases 0.000 description 9
- 230000003187 abdominal effect Effects 0.000 description 9
- 230000037444 atrophy Effects 0.000 description 9
- 238000012014 optical coherence tomography Methods 0.000 description 9
- 238000012360 testing method Methods 0.000 description 9
- 230000002207 retinal effect Effects 0.000 description 7
- 230000007547 defect Effects 0.000 description 6
- 238000011156 evaluation Methods 0.000 description 6
- 230000006872 improvement Effects 0.000 description 6
- 238000001793 Wilcoxon signed-rank test Methods 0.000 description 5
- 230000000052 comparative effect Effects 0.000 description 5
- 238000013527 convolutional neural network Methods 0.000 description 5
- 208000001309 degenerative myopia Diseases 0.000 description 5
- 230000004340 degenerative myopia Effects 0.000 description 5
- 208000014081 polyp of colon Diseases 0.000 description 5
- 230000035945 sensitivity Effects 0.000 description 5
- 208000035984 Colonic Polyps Diseases 0.000 description 4
- 241000521257 Hydrops Species 0.000 description 4
- 206010030113 Oedema Diseases 0.000 description 4
- 230000006399 behavior Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 230000003321 amplification Effects 0.000 description 3
- 230000006835 compression Effects 0.000 description 3
- 238000007906 compression Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000001965 increasing effect Effects 0.000 description 3
- 210000003734 kidney Anatomy 0.000 description 3
- 238000003199 nucleic acid amplification method Methods 0.000 description 3
- 206010009944 Colon cancer Diseases 0.000 description 2
- 208000037062 Polyps Diseases 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 208000029742 colonic neoplasm Diseases 0.000 description 2
- 238000002790 cross-validation Methods 0.000 description 2
- 230000006378 damage Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 201000010099 disease Diseases 0.000 description 2
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 210000000232 gallbladder Anatomy 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 210000002784 stomach Anatomy 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 206010012689 Diabetic retinopathy Diseases 0.000 description 1
- 206010073286 Pathologic myopia Diseases 0.000 description 1
- 208000013738 Sleep Initiation and Maintenance disease Diseases 0.000 description 1
- 206010047571 Visual impairment Diseases 0.000 description 1
- 208000027418 Wounds and injury Diseases 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 239000008186 active pharmaceutical agent Substances 0.000 description 1
- 206010064930 age-related macular degeneration Diseases 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 210000000709 aorta Anatomy 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 210000004155 blood-retinal barrier Anatomy 0.000 description 1
- 230000004378 blood-retinal barrier Effects 0.000 description 1
- 210000003161 choroid Anatomy 0.000 description 1
- 238000002591 computed tomography Methods 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 230000010339 dilation Effects 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 210000000981 epithelium Anatomy 0.000 description 1
- 230000005284 excitation Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- PCHJSUWPFVWCPO-UHFFFAOYSA-N gold Chemical compound [Au] PCHJSUWPFVWCPO-UHFFFAOYSA-N 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 208000014674 injury Diseases 0.000 description 1
- 206010022437 insomnia Diseases 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000007788 liquid Substances 0.000 description 1
- 210000004185 liver Anatomy 0.000 description 1
- 208000002780 macular degeneration Diseases 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 210000000496 pancreas Anatomy 0.000 description 1
- 230000036285 pathological change Effects 0.000 description 1
- 231100000915 pathological change Toxicity 0.000 description 1
- 230000007119 pathological manifestation Effects 0.000 description 1
- 239000000049 pigment Substances 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 238000004445 quantitative analysis Methods 0.000 description 1
- 230000008521 reorganization Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 210000000952 spleen Anatomy 0.000 description 1
- 208000024891 symptom Diseases 0.000 description 1
- 210000001519 tissue Anatomy 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
- 208000029257 vision disease Diseases 0.000 description 1
- 230000004393 visual impairment Effects 0.000 description 1
- 238000005303 weighing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/7715—Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4007—Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/70—Labelling scene content, e.g. deriving syntactic or semantic representations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Biodiversity & Conservation Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于全局与局部特征重建网络的医学图像分割方法、设备、装置及计算机存储介质,本发明提供的基于全局和局部特征重建网络,其中的全局特征重建GFR模块通过全局描述子将语义信息从高层级特征引入到低层级特征,消除各层级特征之间的语义间隔,并采用跨级全局描述子重建特征图,使得网络获得全局感受野,实现长距离特征依赖建模;局部特征重建LFR模块实现基于低阶段特征图引导的特征动态上采样,通过动态地重建局部特征,将低阶段特征图中的空间细节信息传递到高阶段特征图中,从而实现特征的空间信息恢复,克服现有技术中U型编解码器网络中的全局特征提取与长距离特征依赖建模能力不足、特征图空间信息的恢复不足等问题,提升了图像分割精度。
Description
技术领域
本发明涉及医学图像分割技术领域,尤其是指一种基于全局与局部特征重建网络的医学图像分割方法、设备、装置及计算机存储介质。
背景技术
现有的技术中,在医学图像分割任务中,全局特征提取与长距离特征依赖建模以及特征图空间信息的恢复对于以U-Net为代表的编解码结构网络至关重要。虽然在许多医学图像分割任务中,以U-Net为代表的编解码结构网络获得了良好的分割效果,但是仍存在以下不足:
(1)U-Net仅在不同层级进行特征融合,其全局上下文提取能力不足。虽然对特征图的下采样操作使得卷积网络拥有更大的感受野,在深层可以获得特征间的长距离依赖,但是随着网络深度的加深,网络的实际感受野远远小于其理论感受野。最近,在这方面的改进工作主要包括:多尺度特征融合技术和注意力机制。DeepLabV3+中采用的空洞空间卷积池化金字塔(AtrousSpatialPyramidPooling,ASPP)借助多个并行的空洞卷积提取多尺度特征,最后按通道维度拼接特征图并使用1×1卷积恢复到原来的通道维度大小。类似的,PSPNet则是使用金字塔池化模块(PyramidPoolingModule,PPM)来获取多尺度特征。但是由于采用了卷积参数共享,这些方式都不能动态地处理不同位置的特征,缺少处理不同位置的特征需要不同上下文依赖的空间意识性。注意力机制则采用动态方式对长距离特征进行建模,具有代表性的研究如基于空间注意力机制的非局部(Non-local)模块和基于通道注意力机制的压缩与激励(SqueezeandExcitation,SE)模块。Non-local模块建立了空间中每个像素之间的联系使得网络能够生成强大的像素级特征表示,但Non-local模块需要计算每对像素之间的相似度,因此其计算复杂度很高。SE模块提取全局空间特征,并以相同的权重将全局特征分布到特征图的各个位置,对不同通道特征进行增强或抑制,SE模块对所有像素一视同仁,对于语义分割这种像素级分割任务不够鲁棒。
(2)简单的跳跃连接不加区别地联合了不同层级的局部信息,忽略了语义信息。一方面,低层级特征包含了太多噪声从而无法提供足够的高分辨率语义指导,另一方面,直接拼接特征会存在特征图之间语义信息不对齐问题。为了高效地融合特征并抑制低层级特征图中无关噪声的影响,AttentionU-Net、AG-Net和ACNet等方法采用门控机制抑制或突出不同的语义信息,使得特征融合更加灵活。但是,这些方法都没有解决高层级特征与低层级特征之间的语义不对齐问题。
(3)解码器阶段的特征上采样通常采用仅依赖于像素间距离的最近邻插值或者双线性插值,特征的空间信息恢复不足。基于转置卷积的上采样在整个特征图上采用同一个卷积核,忽略了不同位置特征的语义信息。SFNet提出了一种基于语义流的上采样方式,实现特征融合之前的语义对齐,并借助深监督机制在自然图像分割任务中获得出色的表现。基于空间信息包含于通道假设的亚像素卷积(sub-pixelconvolution)技术广泛应用于图像语义分割。比如,数据依赖上采样(Data-dependentUp-sampling,DUpsampling)采用线性变化近似标签的结构化信息,与转置卷积类似,DUpsampling在整个特征图上采用了相同的参数;内容感知特征重组(Content-AwareReAssemblyofFeatures,CARAFE)方法将邻域特征重组实现上采样,但是其无法整合低层级特征的丰富空间信息。
发明内容
为此,本发明所要解决的技术问题在于克服现有技术中U型编解码器网络中的全局特征提取与长距离特征依赖建模能力不足、特征图空间信息的恢复不足问题。
为解决上述技术问题,本发明提供了一种基于全局与局部特征重建网络的医学图像分割方法,包括:
将待检测图片输入预先训练好的全局与局部特征重建网络中,所述全局与局部特征重建网络包括特征编码模块、全局特征重建GFR模块、基于局部特征重建LFR模块的特征解码模块,所述全局特征重建GFR模块嵌入所述特征编码模块和所述特征解码模块的跳跃连接中;
利用所述特征编码模块对所述待检测图片进行特征提取,得到多个层级的特征图;
利用全局特征重建GFR模块为每层特征图生成全局描述子;
利用全局特征重建GFR模块结合所述每层特征图与高层特征图的全局描述子生成每层特征图的跨级全局描述子;
利用全局特征重建GFR模块预测每层特征图中所有像素的重建权重,与所述跨级全局描述子相乘实现特征重建,并与所述每层特征图相加得到每层的全局重建特征图;
利用所述特征解码模块中的局部特征重建LFR模块将相邻高一阶段局部重建特征图与相邻低一层级全局重建特征图进行融合上采样,得到当前阶段高分辨率语义特征图;
将第一阶段高分辨率语义特征图进行上采样得到目标分割预测图像。
优选地,所述特征编码模块采用基于ImageNet预训练的ResNet34作为主干网络,并去除了最后的全局池化和全连接层。
优选地,所述利用全局特征重建GFR模块为每层特征图生成全局描述子包括:
根据所述注意力图和所述嵌入特征生成所述特征图的全局描述子:
其中,l表示所述特征图所在的层级数,din表示所述特征图的通道数,H和W分别表示所述特征图的高度和宽度,ρ(·)表示按所述空间维度执行softmax归一化操作,使得权重和为1,dh和dk分别表示所述全局描述子的维度和个数,每层特征图的全局描述子维度均设置为所有层级特征中最小的通道数,每一个所述全局描述子由Bl空间中的所有特征加权求和得到。
优选地,所述利用全局特征重建GFR模块结合所述每层特征图与高层特征图的全局描述子生成每层特征图的跨级全局描述子包括:
其中,Zl+1,...,Zl+m表示由第l+1,…,l+m层级的所述特征图生成的所述全局描述子,concat表示对所述全局描述子的拼接操作。
优选地,所述利用全局特征重建GFR模块预测每层特征图中所有像素的重建权重,与所述跨级全局描述子相乘实现特征重建,并与所述每层特征图相加得到每层的全局重建特征图包括:
优选地,所述利用所述特征解码模块中的局部特征重建LFR模块将相邻高一阶段局部重建特征图与相邻低一层级全局重建特征图进行融合上采样,得到当前阶段高分辨率语义特征图包括:
所述特征解码模块包括多个阶段的局部特征重建LFR模块,其输入记为Y和Z,其中第4阶段LFR模块的输入Y为所述第4层级全局特征重建GFR模块的输出、输入Z为所示第3层级全局特征重建GFR模块的输出,第1阶段LFR模块的输入Y为第2阶段LFR模块的输出、输入Z为编码器第0层级的特征图,第3和第2阶段LFR模块的输入Y和Z分别为相邻高一阶段LFR模块的输出和相邻低一层级GFR模块的输出;
所述局部特征重建LFR模块的两个输入特征图Y和Z分别通过两个1*1卷积层降低通道数量;
其中,k为局部特征重建的邻域尺寸,H和W为特征图的高度和宽度,θ(·)和ψ(·)分别表示参数为Wθ和Wψ的1×1卷积,Up(·)表示双线性插值上采样,convf(·)表示3×3卷积,softmax函数用于归一化预测的重建核;
利用所述局部重建核预测值对每个位置[i,j]的k×k邻域进行线性组合以实现局部特征重建:
对重建后的局部特征图Y'与输入Z按通道维度拼接,并经过两个3×3卷积层融合得到当前阶段LFR模块的输出Yout;
将Yout和相邻低一层级全局重建特征图或者编码器第0层级特征图作为下个阶段LFR模块的两个输入得到当前阶段高分辨率语义特征图。
本发明还提供了一种基于全局与局部特征重建网络的医学图像分割装置,包括:
输入模块,用于将待检测图片输入预先训练好的全局与局部特征重建网络中,所述全局与局部特征重建网络包括特征编码模块、全局特征重建GFR模块、基于局部特征重建LFR模块的特征解码模块,所述全局特征重建GFR模块嵌入所述特征编码模块和所述特征解码模块的跳跃连接中;
特征编码模块,用于利用所述特征编码模块对所述待检测图片进行特征提取,得到多个层级的特征图;
全局描述子生成模块,用于利用全局特征重建GFR模块为每层特征图生成全局描述子;
跨级描述子生成模块,用于利用全局特征重建GFR模块结合所述每层特征图与高层特征图的全局描述子生成每层特征图的跨级全局描述子;
全局特征重建模块,用于利用全局特征重建GFR模块预测每层特征图中所有像素的重建权重,与所述跨级全局描述子相乘实现特征重建,并与所述每层特征图相加得到每层的全局重建特征图;
特征解码模块,用于利用所述特征解码模块中的局部特征重建模块将相邻高一阶段局部重建特征图与相邻低一层级全局重建特征图进行融合上采样,得到当前阶段高分辨率语义特征图,将第一阶段高分辨率语义特征图进行上采样得到目标分割预测图像。
本发明还提供了一种基于全局与局部特征重建网络的医学图像分割设备,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述计算机程序时实现上述一种基于全局与局部特征重建网络的医学图像分割方法步骤。
本发明还提供了一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现上述一种基于全局与局部特征重建网络的医学图像分割方法的步骤。
本发明的上述技术方案相比现有技术具有以下优点:
本发明所述的基于全局与局部特征重建网络的医学图像分割方法,设计了一种基于全局和局部特征重建的U型编解码结构分割网络,其中的全局特征重建GFR模块通过全局描述子将语义信息从高层级特征引入到低层级特征,消除各层级特征之间的语义间隔,并采用跨级全局描述子重建特征图,使得网络获得全局感受野,实现长距离特征依赖建模,克服简单跳跃连接存在的全局上下文特征获取能力不足缺点,以全局角度解决特征融合中存在的语义信息不平衡问题;局部特征重建LFR模块实现基于低阶段特征图引导的特征动态上采样,通过动态地重建局部特征,将低阶段特征图中的空间细节信息传递到高阶段特征图中,从而实现特征的空间信息恢复,克服编码器中高阶段特征的空间信息恢复能力不足的缺点,以局部角度解决特征融合中存在的空间信息不平衡问题,提升了图像分割精度。
附图说明
为了使本发明的内容更容易被清楚的理解,下面根据本发明的具体实施例并结合附图,对本发明作进一步详细的说明,其中:
图1是本发明基于全局与局部特征重建网络的医学图像分割方法的实现流程图;
图2是本发明所设计的全局和局部特征重建网络GLFRNet的整体结构;
图3是本发明所设计的全局特征重建GFR模块;
图4是本发明设计的局部特征重建LFR模块;
图5是本发明GLFRNet与其他优秀网络的结肠息肉分割结果比较;
图6是跳跃连接中插入GFR模块前、后的特征图可视化比较;
图7是本发明GLFRNet与其他优秀网络的脉络膜分割结果比较;
图8是本发明GLFRNet与其他优秀网络的视网膜多类积液分割结果比较;
图9是本发明GLFRNet与其他优秀网络的多器官分割结果比较;
图10是本发明实施例提供的一种基于全局与局部特征重建网络的医学图像分割装置的结构框图。
具体实施方式
本发明的核心是提供一种基于全局与局部特征重建网络的学图像分割方法、装置、设备及计算机存储介质,解决了全局特征提取与长距离特征依赖建模能力不足、特征图空间信息的恢复不足等问题,提升了医学图像的分割精度。
为了使本技术领域的人员更好地理解本发明方案,下面结合附图和具体实施方式对本发明作进一步的详细说明。显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参考图1和图2,图1为本发明基于全局与局部特征重建网络的医学图像分割方法的实现流程图,图2是本发明所设计的全局和局部特征重建网络GLFRNet的整体结构;具体操作步骤如下:
S101:将待检测图片输入预先训练好的全局与局部特征重建网络中;
所述全局与局部特征重建网络GLFRNet包括特征编码模块、全局特征重建GFR模块、基于局部特征重建LFR模块的特征解码模块,所述全局特征重建GFR模块嵌入所述特征编码模块和所述特征解码模块的跳跃连接中.
所述特征编码模块采用基于ImageNet预训练的ResNet34作为主干网络,并去除了最后的全局池化和全连接层,ResNet34采用的残差机制可以加快网络的收敛速度并且避免梯度消失问题。
本实施例中,ResNet34包括5个阶段,第一个阶段包括步长为2的一个7×7卷积、批归一化和Relu激活函数,后4个阶段分别包含3、4、6、3个残差模块,每个阶段下采样一次、通道数增大一倍,ResNet34共下采样5次,输出通道数分别为64、64、128、256、512,按分辨率由高到低标记为0-4层级,共5级特征图。
Lseg=LCE+αLDice
其中,α表示交叉熵损失LCE与Dice损失LDice的权衡系数,取值为0.5;
其中,特征图的像素总和为N,i=1,2,3,...,N表示第i个像素,C表示分割目标的类别数。yi,c表示第i个像素在第c(c=1,2,…C)个类别处的标签,通常每个像素只有属于C中的某一个类别。pi,c∈[0,1]表示模型对像素i属于类别c的预测概率,本发明采用softmax函数对网络最后的输出进行处理,使得对所有类别的预测概率和为1;
Dice损失函数分别计算每个类别目标和金标准的重合度,然后求类别平均,其计算方法如:
其中,ε为一个平滑因子,防止分子或分母为零,取值为1e-6;
其中,β表示交叉熵损失LCE与Dice损失LDice的权衡系数,取值为0.5。
S102:利用所述特征编码模块对所述待检测图片进行特征提取,得到多个层级的特征图;
S103:利用全局特征重建GFR模块为每层特征图生成全局描述子;
S104:利用全局特征重建GFR模块结合所述每层特征图与高层特征图的全局描述子生成每层特征图的跨级全局描述子;
全局特征重建GFR模块通过全局描述子将语义信息从高层级特征引入到低层级特征,消除各层级特征之间的语义间隔,并采用跨级全局描述子重建特征图,使得网络获得全局感受野,实现长距离特征依赖建模。
S105:利用全局特征重建GFR模块预测每层特征图中所有像素的重建权重,与所述跨级全局描述子相乘实现特征重建,并与所述每层特征图相加得到每层的全局重建特征图;
S106:利用所述局部特征重建LFR模块将相邻高一阶段局部重建特征图与相邻低一层级全局重建特征图进行融合上采样,得到当前阶段高分辨率语义特征图,将第一阶段高分辨率语义特征图进行上采样得到目标分割预测图像。
局部特征重建LFR模块实现基于低阶段特征图引导的特征动态上采样,通过动态地重建局部特征,将空间细节信息传递到高阶段特征图中,从而实现特征的空间信息恢复。
利用所述特征解码模块,用于利用所述4个阶段的局部特征重建模块通过动态重建局部特征,将低阶段特征图中的空间细节信息传递到高阶段特征图,得到高分辨率语义特征图,并将所述第一阶段局部重建特征模块输出的高分辨率语义特征图进行一次双线性上采样得到目标分割预测图像。
本发明所述的基于全局与局部特征重建网络的医学图像分割方法,设计了一种基于全局和局部特征重建的U型编解码结构分割网络,其中的全局特征重建GFR模块,克服简单跳跃连接存在的全局上下文特征获取能力不足缺点,以全局角度解决特征融合中存在的语义信息不平衡问题;局部特征重建LFR模块,克服编码器中高阶段特征的空间信息恢复能力不足的缺点,以局部角度解决特征融合中存在的空间信息不平衡问题。
基于上述实施例,请参考图3,本实施例对步骤S103进行进一步说明,具体如下:
S133:根据所述注意力图和所述嵌入特征生成所述特征图的全局描述子:
其中,l表示所述特征图所在的层级数,din表示所述特征图的通道数,H和W分别表示所述特征图的高度和宽度,ρ(·)表示按所述空间维度执行softmax归一化操作,使得权重和为1,dh和dk分别表示所述全局描述子的维度和个数,由于不同层级特征图的通道数不相同,为了减少计算量和权重的维度,每层特征图的全局描述子维度均设置为所有层级特征中最小的通道数,本实施例为64,每一个所述全局描述子由Bl空间中的所有特征加权求和得到,因此可以让网络自主学习和选择所需类别的全局特征,这是本发明与SE模块(Squeeze-and-ExcitationNetworks)采用基于所有像素取平均的全局池化而导致所得全局特征无类别鉴别性的重要区别。
为了增强全局描述子对类别特征的选择性,本发明对注意力图Al采用了深监督机制。将注意力图Al按通道划分为n个组,其中n表示分割类别数。然后,Al中的每一组按通道平均,得到深监督的预测。第s个全局描述子取决于中的第s个通道的注意力图。Al中的不同分组属于不同类别的注意力图,同一分组内的注意力图属于同一类别,但可以关注到同一类别中的不同特征。每个类别含有dk/n个全局描述子,在极端情况dk=n时,全局描述子即为每个类别的类别中心。每个类别采用多个全局描述子来表示能够使得在类内差异较大的情况下有全面的类别特征表示。
基于以上实施例,本实施例对步骤S104进一步说明,具体如下:
其中,Zl+1,...,Zl+m表示由第l+1,…,l+m层级的所述特征图生成的所述全局描述子,concat表示对所述全局描述子的拼接操作。
对于第l层级的特征,如果由该层级特征生成的全局描述子Zl被用于特征重建,可使得本层级空间每个位置的特征之间通过全局描述子Zl建立关联,由于低层级特征可以通过跨级全局描述子以特征重建的方式获得高层级特征图中语义信息的指导,因此重建后的低层级特征图将同时获得语义信息和空间细节信息,即GFR模块通过采用少数几个全局描述子实现了语义信息从高层级特征图向低层级特征图的传递。
基于以上实施例,本实施例对步骤S105进一步说明,具体如下:
这一步的主要工作是采用跨级全局描述子Z′l重建每个位置的特征。
表示重建后的特征,中每个位置的特征值均由跨级全局描述子重新组合而来,因此也起到了抑制无关噪声的作用。类别一致的特征倾向于选择由相同类别的全局描述子来重建,从而减少类内差异性,而类别不一致的特征倾向于选择由不同类别的全局描述子来重建,以增大类间差异性。
请参考图4,基于以上实施例,本实施例对步骤S106进一步说明,具体操作如下:
S161:所述特征解码模块包括4个阶段的局部特征重建模块,其输入记为Y和Z,其中第4阶段LFR模块的输入Y为所述第4层级全局特征重建GFR模块的输出、输入Z为所示第3层级全局特征重建GFR模块的输出,第1阶段LFR模块的输入Y为第2阶段LFR模块的输出、输入Z为编码器第0层级的特征图,第3和第2阶段LFR模块的输入Y和Z分别为相邻高一阶段LFR模块的输出和相邻低一层级GFR模块的输出;
S162:所述局部特征重建LFR模块的两个输入特征图Y和Z分别通过两个1*1卷积层降低通道数量;
其中,k为局部特征重建的邻域尺寸,H和W为特征图的高度和宽度,θ(·)和ψ(·)分别表示参数为Wθ和Wψ的1×1卷积,Up(·)表示双线性插值上采样,convf(·)表示3×3卷积,softmax函数用于归一化预测的重建核;
S165:利用所述局部重建核预测值对每个位置[i,j]的k×k邻域进行线性组合以实现局部特征重建:
为了在重建过程中保留相对位置信息、获得具有丰富语义信息的上采样特征图,对每个位置[i,j]的k×k邻域进行线性组合以实现局部特征重建,由于重建核的预测过程中融合了Y的语义信息和Z的空间信息,局部特征重建采用的特征动态上采样机制比双线性插值或转置卷积等上采样方式更加灵活,使得邻域中相关的特征值得到更多的关注。类别和特征的不一致性经常发生在分割目标的边缘,即存在[i,j]处的特征与其邻域特征[i+n,j+m]具有不同的特征值、但类别标签相同的情况。LFR模块可以解决这种不一致性,进而提高目标边缘的识别精度。例如,当的预测权重接近1而其他位置的权重接近0时,位置[i+n,j+m]将得到[i,j]的所有注意;
S166:对重建后的局部特征图Y'与输入Z按通道维度拼接,并经过两个3×3卷积层融合得到当前阶段LFR模块的输出Yout;
S167:将Yout和相邻低一层级全局重建特征图或者编码器第0层级特征图作为下个阶段LFR模块的两个输入;
S168:将第一阶段LFR模块输出的高分辨率语义特征图通过一次双线性上采样得到最终的目标分割预测图像。
基于以上实施例,本实施例为了验证本发明方法的有效性和通用性,采用结肠镜图像中结肠息肉分割、眼底彩图像中脉络膜萎缩分割、视网膜光学相干断层扫描OCT图像中视网膜积液分割、腹部CT图像中多器官分割等多种医学图像分割任务对本方法进行了验证,具体如下:
实验一:结肠镜图像中息肉的分割
结肠癌的发病率和死亡率都很高,对人类健康构成严重威胁。结肠息肉被认为是结肠癌的早期症状之一。因此,结肠镜图像中结肠息肉的自动分割非常重要,可以辅助临床医生准确定位息肉区域,便于进行进一步分析。由于结肠息肉的形状差异很大,且息肉的颜色与其他背景组织很相似,因此,结肠息肉的分割极具挑战性。
Kvasir-SEG是一个包含1000张伴有结肠息肉的大规模、具有挑战性的结肠镜图像数据集。将1000张图像随机分成训练集(525张)、验证集(175张)和测试集(300张)。由于图像的分辨率从332×487到1920×1072不等,为简单起见,将图像统一下采样至512×448,并保持平均高宽比。采用在线随机对比度变换、亮度变换、左右翻转和上下翻转进行数据扩增。采用Dice系数(Dice)、交并比(IntersectionoverUnion,IoU)和准确度(Accuracy,Acc)作为分割评价指标。
(a)在对比实验中,将本发明方法与其他优秀的基于卷积神经网络CNN的分割网络进行了比较,包括U-Net、注意力U-Net(AttentionU-Net)、U-Net++、CE-Net、PSPNet、CPFNet、GCN、SFNet、DeepLabV3+、PraNet和EMANet。为了验证本发明所提出的全局特征重建GFR模块和局部特征重建LFR模块的有效性,做了相应的消融实验。为了便于描述,下面将采用预训练ResNet34作为编码器的U-Net称为基准网络(Baseline),附表1列举了相关的对比实验和消融实验的结果:
附表1结肠镜图像中结肠息肉分割的对比实验和消融实验结果(p-value表示对本发明GLFRNet与其他方法的平均Dice系数进行威尔科克森符号秩检验得到的统计差异度,p-value值小于0.05表示两者间存在显著性差异)
如附表1所示,在对比实验中,本发明提出的GLFRNet取得了最佳分割性能。与基准网络相比,本发明提出的GLFRNet的分割性能获得了全面的提升,Dice系数、IoU和Acc分别从87.54%、81.16%和95.94%提升至91.06%、85.33%和97.05%。基于膨胀卷积结构的网络如DeepLabV3+、EMANet等的性能与基于编解码结构的网络如PraNet、SFNet等的相似。但是,由于膨胀卷积使得特征图保持在高分辨率,增加了存储和计算开销。PraNet用于实现实时的结肠息肉分割,但是其性能在3个指标上均比本发明GLFRNet方法差很多。HarDNet-MSEG网络采用HarDNet作为骨干网络、基于多尺度卷积的级联部分解码器和基于膨胀卷积的感受野块(ReceptiveFieldBlock,RFB)作为跳跃连接,其整体的编解码结构与本发明GLFRNet网络类似,但其在Kvasir-SEG数据集上的分割性能低于本发明GLFRNet网络。可能的原因是:(i)在HarDNet-MSEG的解码器中,采用基于元素级乘法的密集特征融合技术对所有层级的特征一视同仁,而本发明提出的局部特征重建LFR模块充分考虑了特征图之间的关联,从而可以在特征重建过程中保留相对位置信息,进而获取具有丰富语义信息的上采样特征;(ii)本发明提出的全局特征重建GFR模块中采用的自注意力机制比HarDNet-MSEG网络中感受野块RFB中采用的卷积和膨胀卷积更灵活。为了结合CNN和注意力机制的优势,TransFuse-S和TransFuse-L网络采用转换器TransFormer和CNN作为双编码器,在解码阶段以一种与卷积块注意力模块(Convolutional Block Attention Module,CBAM)类似的方式进行特征融合。虽然TransFuse-S和TransFuse-L网络在Kvasir-SEG数据集上性能良好,但其网络结构尤其是TransFuse-L,需要大量的计算开销,如附表1中所示,两者的计算开销GFLOPs指标分别为40.26和128.81,而本发明提出的GLFRNet的GFLOPs指标为32.54,表明GLFRNet有效融合了CNN和注意力机制,并在性能和效率之间获得了最佳平衡。
为了评估本发明的性能提升是否具有统计显著性,在对比实验和消融实验中对本发明GLFRNet与其他方法的Dice系数指标进行了威尔科克森符号秩检验(Wilcoxonsigned-rank test)。从附表1可以看出,在所有的对比实验和消融实验中,p值均小于0.05,表明本发明方法的性能相比于其他方法均取得了显著改进。图5展示了不同网络的分割结果,可以发现本发明GLFRNet的分割结果中假阳和假阴均较少,表明GLFRNet具有较好的全局和局部上下文特征融合能力,可以较好地减少目标的误检和漏检。
(b)在于GFR模块的消融实验中,从附表1可见,将不带深监督的GFR模块加入基准网络(基准网络+GFR_w/o_DS),可以使得网络在Dice系数、IoU和Acc三个指标上均有提升。采用深监督后,即将GFR模块加入到基准网络(基准网络+GFR),可以通过全局描述子实现特征选择,实现进一步性能提升,并完全超越了其他优秀网络的分割性能。为了验证全局描述子连接的有效性,将所有来自高层级特征图的全局描述子连接删除,得到的网络记作基准网络+GFR_w/o_Conn,实验结果表明,其性能在三项指标上均低于基准网络+GFR模块(基准网络+GFR),证明了本发明采用的全局描述子间连接方式的必要性。从附表1可以看出,全局描述子所需的计算开销可以忽略不计,说明其具有高效的语义引导功能。此外,还做了有关基准网络中GFR模块嵌入个数的消融实验,包括嵌入1个、2个、3个和本发明采用的每层级嵌入1个GFR(共4个GFR)模块。结果表明,本发明采用的每层级嵌入1个GFR更适用于全局感受野的获取以及降低不同层级特征间的语义鸿沟。
图6以展示了采用U-Net原始的简单跳跃连接和采用本发明的GFR模块作为跳跃连接的可视化输出特征图,特征图在通道方向上进行了平均,并进行了0-255归一化处理。从图6可见,本发明的GFR模块能提升对分割目标的响应、抑制对无关背景噪声的响应,表明GFR模块可以缩小各层级特征的语义信息差距。
(c)在LFR模块的消融实验中,由附表1可见,在基准网络中嵌入LFR模块(基准网络+LFR),也能全面提升分割性能,这受益于LFR模块恢复高阶段特征图空间信息的能力。GFLOPs指标表明采用LFR模块取代基准网络原始的解码器模块更高效,这得益于LFR采取了通道压缩技术。为了验证低阶段特征图对构造高阶段特征图的上采样过程具有指导作用,删除LFR模块低阶段特征图的引导(基准网络+LFR_/w/o_LG),即低阶段特征图不参与局部重建核的预测,实验结果表明分割性能比采用完整LFR模块下降,表明低阶段特征图的引导在空间信息重建中非常必要。关于LFR模块数量的消融实验结果也列在附表1中,实验结果表明本发明采用的每一阶段采用一个LFR模块对于空间信息的重建和相邻阶段特征对齐是最合适的。
(d)计算复杂度并分析,常见的基于自注意力机制的非局部non-local模块,由于需要计算所有像素间的相似度,其计算复杂度为O(N2),其中,N=H×W表示特征图的大小。本发明提出的全局特征重建GFR模块是一种对自注意力机制的改进,GFR模块采用全局描述子实现特征在空间通道上的压缩,进而降低计算复杂度至O(dkN),其中,dk为全局描述子的个数,且dk<<N。因此,GFR模块的计算复杂度远低于非局部non-local模块,且可以方便地插入编解码网络。本发明提出的局部特征重建LFR模块仅采用了像素周围k×k邻域的像素实现重建,因此其计算复杂度为O(k2N),其中,k<<N。在本发明具体实施例中,k取值为5,dk设置为分割类别数的8倍。
实验二:眼底彩照图像中脉络膜萎缩的分割
病理性近视及其并发症是常见的造成视力损伤、甚至导致失眠的重要因素。脉络膜萎缩是病理性近视的早期病理性改变,因此,眼底彩照图像中脉络膜萎缩的分割对于病理性近视的防治具有重要意义。但是,由于在不同阶段病理性近视中,脉络膜萎缩的形状和尺寸差异很大,且边界模糊,因此,眼底彩照图像中脉络膜萎缩的分割具有很大的挑战性。
采用来自上海市第一人民医院眼科中心的600张病理性近视眼底彩照图像对本发明提出的GLFRNet进行性能评估,每张图像的尺寸为2032×1934,随机分成训练集320张、验证集80张和测试集200张。为减少计算开销,本发明将原始图像下采样至512×512。采用了随机对比度变换、亮度变换、左右翻转与上下翻转、-60到60度旋转等方法实现在线数据扩增。采用Dice系数、交并比IoU、敏感性(Sensitivity,Sen)和准确率Acc作为客观评价指标。
附表2展示了关于脉络膜分割的对比实验和消融实验结果。由附表2可见,本发明GLFRNet的Dice、IoU、敏感性Sen和正确率Acc分别达到87.61%、79.28%、86.12%和98.50%,相比于基准网络,GLFRNet在Dice、IoU和Sen这三个关键指标均有显著提升。相比于其他优秀的分割网络,GLFRNet的Dice指标提升均具有显著性差异(威尔科克森符号秩检验,p<0.05)。消融实验的结果也证明了本发明提出的GFR模块和LFR模块的有效性。图7展示了不同方法的脉络膜分割结果。由图7可见,虽然不同阶段病理性近视中的脉络膜萎缩的形状和尺寸差异很大,但本发明提出的GLFRNet利用GFR模块和LFR模块可以分别从全局和局部两个方面处理大目标和小目标,因而取得了良好的分割性能。
附表2眼底彩照图像中脉络膜萎缩分割的对比实验和消融实验结果(p-value表示对本发明GLFRNet与其他方法的平均Dice系数进行威尔科克森符号秩检验得到的统计差异度,p-value值小于0.05表示两者间存在显著性差异)
实验三:视网膜OCT图像中多类积液的分割
视网膜积液是指由于血-视网膜屏障遭受破坏而导致的渗漏液体在视网膜细胞间形成积聚的现象,主要包括视网膜内积液、视网膜下积液和色素上皮层脱离3种类型。视网膜积液是糖尿病视网膜病变、年龄相关性黄斑变性等多种眼底疾病在黄斑区的临床病理性表现。由于存在形状多变、边界模糊等问题,视网膜多类积液的联合分割具有很大挑战性。
采用MICCAI2017RETOUCH挑战赛提供的70个三维OCT数据(一共6936张二维B扫描图像)来评估本发明GLFRNet在视网膜多类积液联合分割任务中的性能。由于数据量较少,对比实验和消融实验均采用三折交叉验证策略,即将70个三维OCT数据随机分成23、23和24三折,每次采用其中的两折数据进行模型训练,采用剩余的一折数据进行测试。对每张二维B扫描图像进行尺寸调整,并根据像素灰度分布特性裁剪出256×512的感兴趣区域作为GLFRNet的输入。在测试阶段,对每个三维OCT数据中的每一张二维B扫描图像分别进行分割,分割结果按原来顺序重新组合成三维结果,以三维整体的方式计算评价指标,包括Dice系数、交并比IoU、敏感性Sen和准确率Acc。
附表3展示了视网膜多类积液分割任务的对比实验和消融实验结果。由附表3可见,本发明GLFRNet网络与其他10种优秀的分割网络进行了比较,本发明GLFRNet的Dice指标的提升相比于这些网络均存在显著性差异(威尔科克森符号秩检验,p<0.05)。由于在OCT图像中积液目标较小,EMANet和PSPNet等无跳跃连接的网络分割性能较差。由于在跳跃连接中采用了特征密集连接,UNet++取得了较好的性能。在敏感性Sens指标上,DeepLabV3+取得了与本发明GLFRNet相当的性能,但是DeepLabV3+的IoU和Dice指标明显低于本发明GLFRNet,表明DeepLabV3+存在过分割问题。消融实验的结果表明,得益于GFR模块和LFR模块,本发明方法在三种视网膜积液分割中,性能均获得了稳定的提升,证明了这两种模块的有效性。图9展示了不同方法的视网膜多类积液分割结果,由图9可见,本发明GLFRNet对三类视网膜积液分割的准确度均有明显提升。
附表3视网膜OCT图像中视网膜多类积液分割的对比实验和消融实验结果(1-10行为对比实验结果,11-13行为消融实验结果;p-value表示对本发明GLFRNet与其他方法的平均Dice系数进行威尔科克森符号秩检验得到的统计差异度,p-value值小于0.05表示两者间存在显著性差异)
实验四:腹部CT图像中多器官的分割
腹部CT图像中器官的分割是相关脏器和疾病定量分析的基础。近年来,在多器官分割中,基于深度学习方法的性能相比于传统基于统计形状模型或者多图集模型等方法得到了很大提升。但是,由于器官的形变较大、边界模糊,因此腹部CT图像种多器官联合分割仍具有很大挑战性。
采用来自MICCAI2015多图集腹部脏器标签挑战赛的30个腹部CT扫描(一共3779张轴向扫描切片图像)来评估本发明GLFRNet的多器官联合分割性能,主要包含8种腹部器官:脾、右肾、左肾、胆囊、肝脏、胃、主动脉和胰腺。由于数据量较少,采用了三折交叉验证策略进行性能评估。为了利用三维空间的上下文信息,将每一张轴向切片图像及其前后两张相邻图像联合成为一个三通道图像,作为“2.5D”数据作为网络的输入,即网络的输入为一个包含三个切片的图像组,输出的预测结果对应于中间的切片图像。采用随机对比度增强和随机亮度增强进行在线数据扩增。采用Dice系数和Hausdorff距离作为客观评价指标。
附表4展示了多器官分割任务的对比实验和消融实验结果。得益于基于语义流的特征图语义对齐,SFNet在多器官分割任务中获得了较好的分割性能。本发明GLFRNet在对比实验中取得了最优性能。随着GFR模块和LFR模块的嵌入,除右肾的Dice指标略低于SFNet外,本发明方法对其他7种器官的分割Dice指标均高于其他优秀分割方法,且平均Dice指标的提升具有显著性差异(威尔科克森符号秩检验,p<0.05),平均Hausdorff距离也显著小于其他分割方法。图8展示了不同方法的多器官分割结果,由图8可见,本发明GLFRNet对于小器官如胆囊和大器官如胃的分割都更精确。
附表4腹部CT图像中多器官分割的对比实验和消融实验结果(1-9行为对比实验结果,10-12行为消融实验结果;p-value表示对本发明GLFRNet与其他方法的平均Dice系数进行威尔科克森符号秩检验得到的统计差异度,p-value值小于0.05表示两者间存在显著性差异)
至此,一种新颖的适用于医学图像分割的深度学习网络GLFRNet已经实现并进行验证。基于本发明提出的全局特征重建GFR模块和局部特征重建LFR模块,GLFRNet网络较好地克服了U型编解码网络对于全局上下文特征提取不充分、空间信息重建困难等不足。本发明GLFRNet分割网络在4种不同类型成像方式、不同类型损伤目标的分割任务中进行了综合验证实验,包括结肠镜图像中结肠息肉的分割、眼底彩照图像中脉络膜萎缩的分割、视网膜OCT图像中视网膜多类积液的分割以及腹部CT图像中多器官的分割,分割性能良好,表明本发明方法在医学图像分割方面具有较好的通用性。
请参考图10,图10为本发明实施例提供的一种基于全局与局部特征重建网络的医学图像分割装置的结构框图;具体装置可以包括:
输入模块100,用于将待检测图片输入预先训练好的全局与局部特征重建网络中,所述全局与局部特征重建网络包括特征编码模块、全局特征重建GFR模块、基于局部特征重建LFR模块的特征解码模块,所述全局特征重建GFR模块嵌入所述特征编码模块和所述特征解码模块的跳跃连接中;
特征编码模块200,用于利用所述特征编码模块对所述待检测图片进行多次下采样,得到多个层级的特征图;
全局描述子生成模块300,用于利用全局特征重建GFR模块为每层特征图生成全局描述子;
跨级描述子生成模块400,用于利用全局特征重建GFR模块结合所述每层特征图与高层特征图的全局描述子生成每层特征图的跨级全局描述子;
全局特征重建模块500,用于利用全局特征重建GFR模块预测每层特征图中所有像素的重建权重,与所述跨级全局描述子相乘实现特征重建,并与所述每层特征图相加得到每层的全局重建特征图;
特征解码模块600,用于利用所述特征解码模块中的局部特征重建模块将相邻高一阶段局部重建特征图与相邻低一层级全局重建特征图进行融合上采样,得到当前阶段高分辨率语义特征图,将第一阶段高分辨率语义特征图进行上采样得到目标分割预测图像。
本实施例的基于全局与局部特征重建网络的医学图像分割装置用于实现前述的基于全局与局部特征重建网络的医学图像分割方法,因此基于全局与局部特征重建网络的医学图像分割装置中的具体实施方式可见前文基于全局与局部特征重建网络的医学图像分割方法的实施例部分,例如,输入模块100,特征编码模块200,全局描述子生成模块300,跨级描述子生成模块400,全局特征重建模块500,特征解码模块600用于实现上述基于全局与局部特征重建网络的医学图像分割方法中步骤S101,S102,S103,S104、S105和S106,所以,其具体实施方式可以参照相应的各个部分实施例的描述,在此不再赘述。
本发明具体实施例还提供了一种基于全局与局部特征重建网络的医学图像分割的设备,包括:存储器,用于存储计算机程序;处理器,用于执行所述计算机程序时实现上述一种基于全局与局部特征重建网络的医学图像分割的方法的步骤。
本发明具体实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现上述一种基于全局与局部特征重建网络的医学图像分割方法的步骤。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
显然,上述实施例仅仅是为清楚地说明所作的举例,并非对实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式变化或变动。这里无需也无法对所有的实施方式予以穷举。而由此所引伸出的显而易见的变化或变动仍处于本发明创造的保护范围之中。
Claims (9)
1.一种基于全局与局部特征重建网络的医学图像分割方法,其特征在于,包括:
将待检测图片输入预先训练好的全局与局部特征重建网络中,所述全局与局部特征重建网络包括特征编码模块、全局特征重建GFR模块、基于局部特征重建LFR模块的特征解码模块,所述全局特征重建GFR模块嵌入所述特征编码模块和所述特征解码模块的跳跃连接中;
利用所述特征编码模块对所述待检测图片进行特征提取,得到多个层级的特征图;
利用全局特征重建GFR模块为每层特征图生成全局描述子;
利用全局特征重建GFR模块结合所述每层特征图与高层特征图的全局描述子生成每层特征图的跨级全局描述子;
利用全局特征重建GFR模块预测每层特征图中所有像素的重建权重,与所述跨级全局描述子相乘实现特征重建,并与所述每层特征图相加得到每层的全局重建特征图;
利用所述特征解码模块中的局部特征重建LFR模块将相邻高一阶段高分辨率语义特征图与相邻低一层级全局重建特征图进行融合上采样,得到当前阶段高分辨率语义特征图:
所述特征解码模块包括多个阶段的局部特征重建LFR模块,其输入记为Y和Z,其中第4阶段LFR模块的输入Y为第4层级全局特征重建GFR模块的输出、输入Z为所示第3层级全局特征重建GFR模块的输出,第1阶段LFR模块的输入Y为第2阶段LFR模块的输出、输入Z为编码器第0层级的特征图,第3和第2阶段LFR模块的输入Y和Z分别为相邻高一阶段LFR模块的输出和相邻低一层级GFR模块的输出;
将所述局部特征重建LFR模块的两个输入特征图Y和Z分别通过两个1*1卷积层降低通道数量;
将Y进行双线性上采样使得所述两个输入特征图达到相同的空间分辨率,并将其按元素相加融合后经过一个3×3卷积层得到局部重建核的预测值;
将Y通过3×3卷积层降低通道数,并采用双线性插值上采样将其上采样至与Z具有相同的分辨率,并利用所述局部重建核预测值对每个元素位置的k×k邻域进行线性组合以实现局部特征重建:
对重建后的局部特征图与输入Z按通道维度拼接,并经过两个3×3卷积层融合得到当前阶段LFR模块的输出;
将第1阶段LFR模块输出的高分辨率语义特征图进行上采样得到目标分割预测图像。
3.根据权利要求1所述的基于全局与局部特征重建网络的医学图像分割方法,其特征在于,所述特征编码模块采用基于ImageNet预训练的ResNet34作为主干网络,并去除了最后的全局池化和全连接层。
4.根据权利要求1所述的基于全局与局部特征重建网络的医学图像分割方法,其特征在于,所述利用全局特征重建GFR模块为每层特征图生成全局描述子包括:
根据所述注意力图和所述嵌入特征生成所述特征图的全局描述子:
7.根据权利要求1所述的基于全局与局部特征重建网络的医学图像分割方法,其特征在于,所述利用所述特征解码模块中的局部特征重建LFR模块将相邻高一阶段高分辨率语义特征图与相邻低一层级全局重建特征图进行融合上采样,得到当前阶段高分辨率语义特征图包括:
所述局部特征重建LFR模块的两个输入特征图Y和Z分别通过两个1*1卷积层降低通道数量;
其中,k为局部特征重建的邻域尺寸,H和W为特征图的高度和宽度,θ(·)和ψ(·)分别表示参数为Wθ和Wψ的1×1卷积,Up(·)表示双线性插值上采样,convf(·)表示3×3卷积,softmax函数用于归一化预测的重建核;
利用所述局部重建核预测值对每个位置[i,j]的k×k邻域进行线性组合以实现局部特征重建:
对重建后的局部特征图Y′与输入Z按通道维度拼接,并经过两个3×3卷积层融合得到当前阶段LFR模块的输出Yout;
将Yout和相邻低一层级全局重建特征图或者编码器第0层级特征图作为下个阶段LFR模块的两个输入,得到当前阶段高分辨率语义特征图。
8.一种基于全局与局部特征重建网络的医学图像分割装置,其特征在于,包括:
输入模块,用于将待检测图片输入预先训练好的全局与局部特征重建网络中,所述全局与局部特征重建网络包括特征编码模块、全局特征重建GFR模块、基于局部特征重建LFR模块的特征解码模块,所述全局特征重建GFR模块嵌入所述特征编码模块和所述特征解码模块的跳跃连接中;
特征编码模块,用于利用所述特征编码模块对所述待检测图片进行特征提取,得到多个层级的特征图;
全局描述子生成模块,用于利用全局特征重建GFR模块为每层特征图生成全局描述子;
跨级描述子生成模块,用于利用全局特征重建GFR模块结合所述每层特征图与高层特征图的全局描述子生成每层特征图的跨级全局描述子;
全局特征重建模块,用于利用全局特征重建GFR模块预测每层特征图中所有像素的重建权重,与所述跨级全局描述子相乘实现特征重建,并与所述每层特征图相加得到每层的全局重建特征图;
特征解码模块,用于利用所述特征解码模块中的局部特征重建LFR模块将相邻高一阶段高分辨率语义特征图与相邻低一层级全局重建特征图进行融合上采样,得到当前阶段高分辨率语义特征图:
所述特征解码模块包括多个阶段的局部特征重建LFR模块,其输入记为Y和Z,其中第4阶段LFR模块的输入Y为第4层级全局特征重建GFR模块的输出、输入Z为所示第3层级全局特征重建GFR模块的输出,第1阶段LFR模块的输入Y为第2阶段LFR模块的输出、输入Z为编码器第0层级的特征图,第3和第2阶段LFR模块的输入Y和Z分别为相邻高一阶段LFR模块的输出和相邻低一层级GFR模块的输出;
将所述局部特征重建LFR模块的两个输入特征图Y和Z分别通过两个1*1卷积层降低通道数量;
将Y进行双线性上采样使得所述两个输入特征图达到相同的空间分辨率,并将其按元素相加融合后经过一个3×3卷积层得到局部重建核的预测值;
将Y通过3×3卷积层降低通道数,并采用双线性插值上采样将其上采样至与Z具有相同的分辨率,并利用所述局部重建核预测值对每个元素位置的k×k邻域进行线性组合以实现局部特征重建:
对重建后的局部特征图与输入Z按通道维度拼接,并经过两个3×3卷积层融合得到当前阶段LFR模块的输出;
将第1阶段LFR模块输出的高分辨率语义特征图进行上采样得到目标分割预测图像。
9.一种基于全局与局部特征重建网络的医学图像分割设备,其特征在于,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述计算机程序时实现如权利要求1至7任一项所述一种基于全局与局部特征重建网络的医学图像分割方法的步骤。
一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述一种基于全局与局部特征重建网络的医学图像分割方法的步骤。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210121683.0A CN114612479B (zh) | 2022-02-09 | 2022-02-09 | 基于全局与局部特征重建网络的医学图像分割方法和装置 |
PCT/CN2022/078318 WO2023151141A1 (zh) | 2022-02-09 | 2022-02-28 | 一种基于全局与局部特征重建网络的医学图像分割方法 |
US18/195,649 US20230274531A1 (en) | 2022-02-09 | 2023-05-10 | Global and local feature reconstruction network-based medical image segmentation method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210121683.0A CN114612479B (zh) | 2022-02-09 | 2022-02-09 | 基于全局与局部特征重建网络的医学图像分割方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114612479A CN114612479A (zh) | 2022-06-10 |
CN114612479B true CN114612479B (zh) | 2023-03-24 |
Family
ID=81859732
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210121683.0A Active CN114612479B (zh) | 2022-02-09 | 2022-02-09 | 基于全局与局部特征重建网络的医学图像分割方法和装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20230274531A1 (zh) |
CN (1) | CN114612479B (zh) |
WO (1) | WO2023151141A1 (zh) |
Families Citing this family (40)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114782440B (zh) * | 2022-06-21 | 2022-10-14 | 杭州三坛医疗科技有限公司 | 医学图像分割方法及电子设备 |
CN115311230A (zh) * | 2022-08-08 | 2022-11-08 | 吉林建筑大学 | 一种基于深度学习和特征融合的皮肤病变图像分割方法 |
CN115409819B (zh) * | 2022-09-05 | 2024-03-29 | 苏州埃米迈德医疗科技有限公司 | 一种肝部图像重建方法以及重建系统 |
CN115631194B (zh) * | 2022-12-08 | 2023-03-17 | 首都医科大学附属北京天坛医院 | 颅内动脉瘤识别检测的方法、装置、设备及介质 |
CN115861346B (zh) * | 2023-02-16 | 2023-05-16 | 邦世科技(南京)有限公司 | 一种基于场景感知融合网络的脊柱核磁共振图像分割方法 |
CN116309621A (zh) * | 2023-03-13 | 2023-06-23 | 浙江大学 | 一种基于符号距离的肝肿瘤分割方法及装置 |
CN116030247B (zh) * | 2023-03-20 | 2023-06-27 | 之江实验室 | 一种医学图像样本生成方法、装置、存储介质及电子设备 |
CN116543167B (zh) * | 2023-07-04 | 2023-09-05 | 真健康(北京)医疗科技有限公司 | Ct图像分割方法及设备 |
CN116863319B (zh) * | 2023-09-05 | 2023-12-01 | 中国海洋大学 | 基于跨尺度建模和交替细化的复制移动篡改检测方法 |
CN116912502B (zh) * | 2023-09-08 | 2024-01-16 | 南方医科大学珠江医院 | 全局视角辅助下图像关键解剖结构的分割方法及其设备 |
CN117351183B (zh) * | 2023-10-09 | 2024-06-04 | 广州医科大学附属第一医院(广州呼吸中心) | 子宫内膜癌淋巴结转移智能识别方法及系统 |
CN117058160B (zh) * | 2023-10-11 | 2024-01-16 | 湖南大学 | 基于自适应特征融合网络的三维医学图像分割方法及系统 |
CN117574259B (zh) * | 2023-10-12 | 2024-05-07 | 南京工业大学 | 适用于高端装备的注意力孪生智能迁移可解释性诊断方法 |
CN117496378A (zh) * | 2023-10-23 | 2024-02-02 | 中国电子科技集团公司第七研究所 | 一种适用于无人机图像语义特征多尺度融合与分割的方法 |
CN117274717B (zh) * | 2023-10-24 | 2024-07-02 | 中国人民解放军空军预警学院 | 基于全局与局部视觉特征映射网络的弹道目标识别方法 |
CN117115572B (zh) * | 2023-10-25 | 2024-01-30 | 杭州医策科技有限公司 | 基于全局特征和局部特征的组织切片分类方法和系统 |
CN117576387A (zh) * | 2023-11-02 | 2024-02-20 | 清华大学深圳国际研究生院 | 多模态脑肿瘤图像分割方法、装置、电子设备和存储介质 |
CN117391984B (zh) * | 2023-11-02 | 2024-04-05 | 中国人民解放军空军军医大学 | 一种提升cbct影像质量的方法 |
CN117290461B (zh) * | 2023-11-24 | 2024-02-06 | 湖南君安科技有限公司 | 融合aspp模块与跨模态交互的多模态对话生成方法 |
CN117292232B (zh) * | 2023-11-24 | 2024-02-06 | 烟台大学 | T1加权成像的多维空间特征获取方法、系统和设备 |
CN117315238B (zh) * | 2023-11-29 | 2024-03-15 | 福建理工大学 | 一种车辆目标检测的方法与终端 |
CN117576118B (zh) * | 2023-12-04 | 2024-07-16 | 山东财经大学 | 多尺度多感知的实时图像分割方法、系统、终端及介质 |
CN117710317A (zh) * | 2023-12-13 | 2024-03-15 | 香港中文大学(深圳) | 检测模型的训练方法及检测方法 |
CN117409331B (zh) * | 2023-12-15 | 2024-03-15 | 四川泓宝润业工程技术有限公司 | 一种油气管线周边环境隐患检测方法、装置及存储介质 |
CN117422614B (zh) * | 2023-12-19 | 2024-03-12 | 华侨大学 | 基于混合特征交互Transformer的单帧图像超分辨率方法及装置 |
CN117994214B (zh) * | 2024-01-24 | 2024-07-16 | 淮阴工学院 | 基于边缘检测和语义分割的企业产品缺陷智能检测方法 |
CN117934847B (zh) * | 2024-01-27 | 2024-09-10 | 佛山市第一人民医院 | 一种胃壁超声影像分割方法、系统、设备及介质 |
CN117765378B (zh) * | 2024-02-22 | 2024-04-26 | 成都信息工程大学 | 多尺度特征融合的复杂环境下违禁物品检测方法和装置 |
CN118169752A (zh) * | 2024-03-13 | 2024-06-11 | 北京石油化工学院 | 一种基于多特征融合的地震相位拾取方法及系统 |
CN117911562B (zh) * | 2024-03-14 | 2024-07-23 | 深圳大学 | 一种全景图像显著性对象检测方法、装置、终端及介质 |
CN118015285B (zh) * | 2024-04-09 | 2024-07-26 | 齐鲁工业大学(山东省科学院) | 基于改进Unet的脑肿瘤病理图像细胞分割方法 |
CN118071774B (zh) * | 2024-04-17 | 2024-09-03 | 中南大学 | 一种基于多重注意力的医学图像分割方法 |
CN118134952B (zh) * | 2024-05-07 | 2024-08-02 | 中南大学 | 一种基于特征交互的医学图像分割方法 |
CN118172369B (zh) * | 2024-05-13 | 2024-09-03 | 苏州大学 | 基于双解码器与局部特征增强网络的血管旁异常分割方法 |
CN118229712B (zh) * | 2024-05-23 | 2024-07-16 | 长春大学 | 基于增强多维特征感知的肝脏肿瘤图像分割系统 |
CN118397192B (zh) * | 2024-06-14 | 2024-08-23 | 中国科学技术大学 | 一种基于双几何学习和自适应稀疏注意力的点云分析方法 |
CN118334357B (zh) * | 2024-06-17 | 2024-09-10 | 国际关系学院 | 一种基于串并联混合模块的快速医学图像分割系统及方法 |
CN118470253B (zh) * | 2024-07-15 | 2024-09-13 | 湖南大学 | 一种用于医学图像的表面网格重建方法 |
CN118552736A (zh) * | 2024-07-25 | 2024-08-27 | 真健康(广东横琴)医疗科技有限公司 | 一种医学图像分割方法及设备 |
CN118644785A (zh) * | 2024-08-16 | 2024-09-13 | 太原理工大学 | 一种基于双编码特征交互的建筑物边缘感知方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113888491A (zh) * | 2021-09-27 | 2022-01-04 | 长沙理工大学 | 基于非局部特征的多级高光谱图像递进超分方法及系统 |
CN114004847A (zh) * | 2021-11-01 | 2022-02-01 | 中国科学技术大学 | 一种基于图可逆神经网络的医学图像分割方法 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109598728B (zh) * | 2018-11-30 | 2019-12-27 | 腾讯科技(深圳)有限公司 | 图像分割方法、装置、诊断系统及存储介质 |
CN110689083B (zh) * | 2019-09-30 | 2022-04-12 | 苏州大学 | 一种上下文金字塔融合网络及图像分割方法 |
CN112712472A (zh) * | 2019-10-25 | 2021-04-27 | 北京三星通信技术研究有限公司 | 图像处理方法、装置、电子设备及计算机可读存储介质 |
CN110782474B (zh) * | 2019-11-04 | 2022-11-15 | 中国人民解放军总医院 | 基于深度学习的预测消融术后肝脏肿瘤形态变化的方法 |
CN111210435B (zh) * | 2019-12-24 | 2022-10-18 | 重庆邮电大学 | 一种基于局部和全局特征增强模块的图像语义分割方法 |
CA3163482A1 (en) * | 2019-12-30 | 2021-07-08 | Medo Dx Pte. Ltd | Apparatus and method for image segmentation using a deep convolutional neural network with a nested u-structure |
CN113761976B (zh) * | 2020-06-04 | 2024-10-15 | 华为技术有限公司 | 基于全局引导选择性上下文网络的场景语义解析方法 |
CN112329800B (zh) * | 2020-12-03 | 2022-09-23 | 河南大学 | 一种基于全局信息引导残差注意力的显著性目标检测方法 |
CN112598650A (zh) * | 2020-12-24 | 2021-04-02 | 苏州大学 | 眼底医学影像中视杯视盘的联合分割方法 |
CN112861931B (zh) * | 2021-01-21 | 2022-04-12 | 南开大学 | 一种基于差异注意力神经网络的多级别变化检测方法、系统、介质及电子设备 |
CN113205094A (zh) * | 2021-04-12 | 2021-08-03 | 武汉大学 | 一种基于ORSU-Net的肿瘤图像分割方法和系统 |
CN113343789A (zh) * | 2021-05-20 | 2021-09-03 | 武汉大学 | 一种基于局部细节增强与边缘约束的高分辨率遥感影像土地覆盖分类方法 |
CN113298818B (zh) * | 2021-07-09 | 2023-08-18 | 大连大学 | 基于注意力机制与多尺度特征的遥感图像建筑物分割方法 |
CN113889234A (zh) * | 2021-09-29 | 2022-01-04 | 合肥高维数据技术有限公司 | 基于通道混合的编解码网络的医学图像分割方法 |
-
2022
- 2022-02-09 CN CN202210121683.0A patent/CN114612479B/zh active Active
- 2022-02-28 WO PCT/CN2022/078318 patent/WO2023151141A1/zh unknown
-
2023
- 2023-05-10 US US18/195,649 patent/US20230274531A1/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113888491A (zh) * | 2021-09-27 | 2022-01-04 | 长沙理工大学 | 基于非局部特征的多级高光谱图像递进超分方法及系统 |
CN114004847A (zh) * | 2021-11-01 | 2022-02-01 | 中国科学技术大学 | 一种基于图可逆神经网络的医学图像分割方法 |
Also Published As
Publication number | Publication date |
---|---|
CN114612479A (zh) | 2022-06-10 |
US20230274531A1 (en) | 2023-08-31 |
WO2023151141A1 (zh) | 2023-08-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114612479B (zh) | 基于全局与局部特征重建网络的医学图像分割方法和装置 | |
CN110689083B (zh) | 一种上下文金字塔融合网络及图像分割方法 | |
Jin et al. | DUNet: A deformable network for retinal vessel segmentation | |
Zhang et al. | Retinal vessel delineation using a brain-inspired wavelet transform and random forest | |
US20220284584A1 (en) | Computerised tomography image processing | |
Wang et al. | Frnet: an end-to-end feature refinement neural network for medical image segmentation | |
CN113506310B (zh) | 医学图像的处理方法、装置、电子设备和存储介质 | |
Alam et al. | S2C-DeLeNet: A parameter transfer based segmentation-classification integration for detecting skin cancer lesions from dermoscopic images | |
Yamanakkanavar et al. | MF2-Net: A multipath feature fusion network for medical image segmentation | |
CN113838047B (zh) | 基于内窥镜图像的大肠息肉分割方法、系统及相关组件 | |
Sun et al. | Contextual information enhanced convolutional neural networks for retinal vessel segmentation in color fundus images | |
CN114419056B (zh) | 一种逐步精细的医学图像分割系统 | |
CN115546570A (zh) | 一种基于三维深度网络的血管图像分割方法及系统 | |
CN116206108B (zh) | 一种基于域自适应的oct图像脉络膜分割系统及方法 | |
Iyer et al. | Vertebral compression fracture detection using imitation learning, patch based convolutional neural networks and majority voting | |
Desiani et al. | A Novelty Patching of Circular Random and Ordered Techniques on Retinal Image to Improve CNN U-Net Performance. | |
CN116740076B (zh) | 视网膜色素变性眼底图像中色素分割的网络模型设计方法 | |
CN116778158B (zh) | 基于改进u形网络的多组织成分图像分割方法及系统 | |
Delmoral et al. | Segmentation of pathological liver tissue with dilated fully convolutional networks: A preliminary study | |
CN116823851A (zh) | 基于特征重构的无监督域自适应oct图像分割方法及系统 | |
Bar-David et al. | Impact of data augmentation on retinal OCT image segmentation for diabetic macular edema analysis | |
CN109637633B (zh) | 一种基于大数据与机器学习的诊断乳腺癌病情的方法 | |
CN118172369B (zh) | 基于双解码器与局部特征增强网络的血管旁异常分割方法 | |
Huang et al. | BiU-net: A dual-branch structure based on two-stage fusion strategy for biomedical image segmentation | |
Yadav et al. | Segmentation and visualization of Retinal Detachment lesions through Retinal fundus images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |