CN117409014A - 一种基于特征选择的轻量级心脏mri分割方法 - Google Patents
一种基于特征选择的轻量级心脏mri分割方法 Download PDFInfo
- Publication number
- CN117409014A CN117409014A CN202311298305.0A CN202311298305A CN117409014A CN 117409014 A CN117409014 A CN 117409014A CN 202311298305 A CN202311298305 A CN 202311298305A CN 117409014 A CN117409014 A CN 117409014A
- Authority
- CN
- China
- Prior art keywords
- feature map
- layer
- convolution
- block
- attention
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000011218 segmentation Effects 0.000 title claims abstract description 54
- 238000000034 method Methods 0.000 title claims abstract description 23
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims abstract description 31
- 230000006870 function Effects 0.000 claims description 132
- 238000010586 diagram Methods 0.000 claims description 100
- 230000004913 activation Effects 0.000 claims description 42
- 238000011176 pooling Methods 0.000 claims description 36
- 238000013184 cardiac magnetic resonance imaging Methods 0.000 claims description 34
- 238000013507 mapping Methods 0.000 claims description 24
- 238000012549 training Methods 0.000 claims description 21
- 238000002595 magnetic resonance imaging Methods 0.000 claims description 14
- 238000012360 testing method Methods 0.000 claims description 9
- 238000012795 verification Methods 0.000 claims description 5
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 3
- 238000012935 Averaging Methods 0.000 claims description 3
- FGUUSXIOTUKUDN-IBGZPJMESA-N C1(=CC=CC=C1)N1C2=C(NC([C@H](C1)NC=1OC(=NN=1)C1=CC=CC=C1)=O)C=CC=C2 Chemical compound C1(=CC=CC=C1)N1C2=C(NC([C@H](C1)NC=1OC(=NN=1)C1=CC=CC=C1)=O)C=CC=C2 FGUUSXIOTUKUDN-IBGZPJMESA-N 0.000 claims description 3
- 238000005457 optimization Methods 0.000 claims description 3
- 238000007781 pre-processing Methods 0.000 claims description 3
- 230000007246 mechanism Effects 0.000 abstract description 3
- 230000004927 fusion Effects 0.000 abstract description 2
- 238000003709 image segmentation Methods 0.000 abstract description 2
- 230000003993 interaction Effects 0.000 abstract description 2
- 238000013135 deep learning Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/771—Feature selection, e.g. selecting representative features from a multi-dimensional feature space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10088—Magnetic resonance imaging [MRI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30048—Heart; Cardiac
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Databases & Information Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Quality & Reliability (AREA)
- Radiology & Medical Imaging (AREA)
- Error Detection And Correction (AREA)
Abstract
一种基于特征选择的轻量级心脏MRI分割方法,涉及图像分割技术领域,设计了轻量级模块注意力残差块和非对称卷积块,并构建轻量级心脏MRI分割网络模型,注意力残差块中的Ghost注意力块以GhostNet中的Ghost模块作为基础块,多尺度注意力块以深度可分离卷积作为基础块,并添加注意力机制,不仅可以减少特征的冗余,还能实现对目标区域的精确定位。特征选择模块可以从编码器和解码器自适应选择有效特征,增加边缘的权重,获得心脏结构的更多细节,加强浅层特征和深层特征之间的交互和融合,提高心脏MRI分割的精度。
Description
技术领域
本发明涉及图像分割技术领域,具体涉及一种基于特征选择的轻量级心脏MRI分割方法。
背景技术
基于传统方法和基于深度学习的方法是最常见的心脏MRI的分割方法。传统心脏MRI分割方法通常需要重要的特征工程或先验知识才能达到令人满意的精度,具有一定的依赖性和局限性。深度学习的方法擅长从海量数据中提取复杂的特征,并且是以端到端的方式直接从数据中学习特征,同时具有很强的可移植性。虽然深度学习的方法在心脏MRI分割时可以自主学习特征,但数据集较小时,容易存在训练不足,从而导致边缘分割模糊的问题。因此,需要考虑如何在有限的数据集上获得更高的分割精度。除此之外,心脏MRI分割过程中仍然存在目标类和背景类数据量高度不平衡等问题,如何通过更好的抑制不相关区域,来提高心脏MRI分割的准确性,也是心脏MRI分割中需要解决的问题。
发明内容
本发明为了克服以上技术的不足,提供了一种提高心脏MRI分割精度的方法。
本发明克服其技术问题所采用的技术方案是:
一种基于特征选择的轻量级心脏MRI分割方法,包括如下步骤:
a)选择N个心脏MRI图像,得到心脏MRI数据集A,A={A1,A2,...,Ai,...,AN},Ai为第i个心脏MRI图像,i∈{1,2,...,N};
b)对第i个心脏MRI图像Ai进行预处理,得到第i个预处理后的心脏MRI图像Bi,i∈{1,2,...,N},得到预处理后的数据集B,B={B1,B2,...,Bi,...,BN};
c)将预处理后的数据集B划分为训练集、验证集、测试集,将训练集中的各个预处理后的图像沿Z轴切片,得到X个切片图像,第i个切片图像为Fi,i∈{1,...,X};
d)建立分割网络模型,分割网络模型由编码器、解码器构成,将训练集中第i个切片图像Fi输入到分割网络模型的编码器中,输出得到特征图
e)将特征图输入到分割网络模型的解码器中,输出得到预测分割图像/>
f)训练分割网络模型,得到优化后的分割网络模型;
g)将测试集中的各个预处理后的图像沿Z轴切片,得到Y个切片图像,第j个切片图像为Fj,j∈{1,...,Y};
h)将第j个切片图像为Fj输入到优化后的分割网络模型中,输出得到预测分割图像
优选的,步骤a)中N=100。
进一步的,步骤b)包括如下步骤:
b-1)获取第i个心脏MRI图像Ai的Z轴方向的像素间距z,对第i个心脏MRI图像Ai和对应的真实标签进行spacing为(1.5,1.5,z),得到重采样后的图像;
b-2)将重采样后的图像沿Z轴切片,将切割的若干切片进行大小为224*224的剪裁,将剪裁后的各个切片堆叠恢复为第i个预处理后的心脏MRI图像Bi。
优选的,步骤c)中将预处理后的数据集B按照6:2:2的比例划分为训练集、验证集、测试集。
进一步的,步骤d)包括如下步骤:
d-1)分割网络模型的编码器由第一卷积块、第一注意力残差块ARM、第一最大池化层、第二卷积块、第二注意力残差块ARM、第二最大池化层、第三卷积块、第三注意力残差块ARM、第三最大池化层、第四卷积块、第四注意力残差块ARM构成;
d-2)编码器的第一卷积块依次由卷积层、BatchNorm层、Relu激活函数层构成,将训练集中第i个切片图像Fi输入到第一卷积块中,输出得到特征图
d-3)编码器的第一注意力残差块ARM由Ghost注意力块、第一多尺度注意力块、第二多尺度注意力块、卷积块构成;Ghost注意力块由python中的torch.chunk()函数、第一Ghost模块、第二Ghost模块、第一通道混洗层、第三Ghost模块、第四Ghost模块、第二通道混洗层、sigmoid函数构成,第一Ghost模块、第二Ghost模块、第三Ghost模块、第四Ghost模块均为GhostNet网络中的Ghost模块,第一通道混洗层、第二通道混洗层均为Shuffle Net中的通道混洗模块,将特征图输入到torch.chunk()函数,输出得到特征图/>和特征图将特征图/>依次输入到第一Ghost模块、第二Ghost模块中,输出得到特征图/>将特征图/>与特征图/>进行拼接操作,得到特征图/>将特征图/>输入到第一通道混洗层中,输出得到特征图/>将特征图/>依次输入到第三Ghost模块、第四Ghost模块中,输出得到特征图/>将特征图/>与特征图/>进行拼接操作,得到特征图/>将特征图/>依次输入到第二通道混洗层、sigmoid函数中,输出得到注意力图/>将注意力图与特征图/>相乘得到特征图/>将特征图/>与特征图/>相加得到特征图/>第一多尺度注意力块依次由第一深度可分离卷积层、第二深度可分离卷积层、sigmoid函数构成,将特征图/>输入到第一多尺度注意力块中,输出得到注意力图/>将注意力图/>与特征图/>相乘得到特征图/>将特征图/>与特征图/>相加得到特征图/>第二多尺度注意力块依次由第一深度可分离卷积层、第二深度可分离卷积层、sigmoid函数构成,将特征图/>输入到第二多尺度注意力块中,输出得到注意力图/>将注意力图/>与特征图/>相乘得到特征图/>将特征图/>与特征图/>相加得到特征图/>将特征图/>特征图/>特征图/>进行拼接操作,得到特征图/>卷积块依次由卷积层、BatchNorm层、Relu激活函数层,将特征图/>输入到卷积块中,输出得到特征图/>将特征图/>与特征图/>相加得到特征图/>d-4)将特征图/>输入到编码器的第一最大池化层中,输出得到特征图/>d-5)编码器的第二卷积块依次由卷积层、BatchNorm层、Relu激活函数层构成,将特征图/>输入到第二卷积块中,输出得到特征图/>d-6)编码器的第二注意力残差块ARM由Ghost注意力块、第一多尺度注意力块、第二多尺度注意力块、卷积块构成;Ghost注意力块由python中的torch.chunk()函数、第一Ghost模块、第二Ghost模块、第一通道混洗层、第三Ghost模块、第四Ghost模块、第二通道混洗层、sigmoid函数构成,第一Ghost模块、第二Ghost模块、第三Ghost模块、第四Ghost模块均为GhostNet网络中的Ghost模块,第一通道混洗层、第二通道混洗层均为Shuffle Net中的通道混洗模块,将特征图/>输入到torch.chunk()函数,输出得到特征图/>和特征图/>将特征图/>依次输入到第一Ghost模块、第二Ghost模块中,输出得到特征图/>将特征图/>与特征图/>进行拼接操作,得到特征图/>将特征图/>输入到第一通道混洗层中,输出得到特征图将特征图/>依次输入到第三Ghost模块、第四Ghost模块中,输出得到特征图/>将特征图/>与特征图/>进行拼接操作,得到特征图/>将特征图/>依次输入到第二通道混洗层、sigmoid函数中,输出得到注意力图/>将注意力图/>与特征图/>相乘得到特征图/>将特征图/>与特征图/>相加得到特征图/>第一多尺度注意力块依次由第一深度可分离卷积层、第二深度可分离卷积层、sigmoid函数构成,将特征图/>输入到第一多尺度注意力块中,输出得到注意力图/>将注意力图/>与特征图/>相乘得到特征图/>将特征图/>与特征图/>相加得到特征图/>第二多尺度注意力块依次由第一深度可分离卷积层、第二深度可分离卷积层、sigmoid函数构成,将特征图/>输入到第二多尺度注意力块中,输出得到注意力图/>将注意力图/>与特征图/>相乘得到特征图/>将特征图/>特征图/>相加得到特征图/>将特征图/>特征图/>特征图/>进行拼接操作,得到特征图/>卷积块依次由卷积层、BatchNorm层、Relu激活函数层,将特征图/>输入到卷积块中,输出得到特征图/>将特征图/>与特征图/>相加得到特征图/>d-7)将特征图/>输入到编码器的第二最大池化层中,输出得到特征图d-8)编码器的第三卷积块依次由卷积层、BatchNorm层、Relu激活函数层构成,将特征图输入到第三卷积块中,输出得到特征图/>d-9)编码器的第三注意力残差块ARM由Ghost注意力块、第一多尺度注意力块、第二多尺度注意力块、卷积块构成;Ghost注意力块由python中的torch.chunk()函数、第一Ghost模块、第二Ghost模块、第一通道混洗层、第三Ghost模块、第四Ghost模块、第二通道混洗层、sigmoid函数构成,第一Ghost模块、第二Ghost模块、第三Ghost模块、第四Ghost模块均为GhostNet网络中的Ghost模块,第一通道混洗层、第二通道混洗层均为Shuffle Net中的通道混洗模块,将特征图/>输入到torch.chunk()函数,输出得到特征图/>和特征图/>将特征图/>依次输入到第一Ghost模块、第二Ghost模块中,输出得到特征图/>将特征图/>与特征图/>进行拼接操作,得到特征图/>将特征图/>输入到第一通道混洗层中,输出得到特征图/>将特征图/>依次输入到第三Ghost模块、第四Ghost模块中,输出得到特征图/>将特征图与特征图/>进行拼接操作,得到特征图/>将特征图/>依次输入到第二通道混洗层、sigmoid函数中,输出得到注意力图/>将注意力图/>与特征图/>相乘得到特征图将特征图/>与特征图/>相加得到特征图/>第一多尺度注意力块依次由第一深度可分离卷积层、第二深度可分离卷积层、sigmoid函数构成,将特征图/>输入到第一多尺度注意力块中,输出得到注意力图/>将注意力图/>与特征图/>相乘得到特征图将特征图/>与特征图/>相加得到特征图/>第二多尺度注意力块依次由第一深度可分离卷积层、第二深度可分离卷积层、sigmoid函数构成,将特征图/>输入到第二多尺度注意力块中,输出得到注意力图/>将注意力图/>与特征图/>相乘得到特征图将特征图/>与特征图/>相加得到特征图/>将特征图/>特征图/>特征图进行拼接操作,得到特征图/>卷积块依次由卷积层、BatchNorm层、Relu激活函数层,将特征图/>输入到卷积块中,输出得到特征图/>将特征图/>与特征图/>相加得到特征图/>d-10)将特征图/>输入到编码器的第三最大池化层中,输出得到特征图/>d-11)编码器的第四卷积块依次由卷积层、BatchNorm层、Relu激活函数层构成,将特征图/>输入到第四卷积块中,输出得到特征图/>d-12)编码器的第四注意力残差块ARM由Ghost注意力块、第一多尺度注意力块、第二多尺度注意力块、卷积块构成;Ghost注意力块由python中的torch.chunk()函数、第一Ghost模块、第二Ghost模块、第一通道混洗层、第三Ghost模块、第四Ghost模块、第二通道混洗层、sigmoid函数构成,第一Ghost模块、第二Ghost模块、第三Ghost模块、第四Ghost模块均为GhostNet网络中的Ghost模块,第一通道混洗层、第二通道混洗层均为Shuffle Net中的通道混洗模块,将特征图/>输入到torch.chunk()函数,输出得到特征图/>和特征图/>将特征图/>依次输入到第一Ghost模块、第二Ghost模块中,输出得到特征图/>将特征图/>与特征图/>进行拼接操作,得到特征图/>将特征图/>输入到第一通道混洗层中,输出得到特征图/>将特征图/>依次输入到第三Ghost模块、第四Ghost模块中,输出得到特征图/>将特征图与特征图/>进行拼接操作,得到特征图/>将特征图/>依次输入到第二通道混洗层、sigmoid函数中,输出得到注意力图Ga 4-1,将注意力图/>与特征图/>相乘得到特征图/>将特征图/>与特征图/>相加得到特征图/>第一多尺度注意力块依次由第一深度可分离卷积层、第二深度可分离卷积层、sigmoid函数构成,将特征图/>输入到第一多尺度注意力块中,输出得到注意力图/>将注意力图/>与特征图/>相乘得到特征图将特征图/>与特征图/>相加得到特征图/>第二多尺度注意力块依次由第一深度可分离卷积层、第二深度可分离卷积层、sigmoid函数构成,将特征图/>输入到第二多尺度注意力块中,输出得到注意力图/>将注意力图/>与特征图/>相乘得到特征图将特征图/>与特征图/>相加得到特征图/>将特征图/>特征图/>特征图进行拼接操作,得到特征图/>卷积块依次由卷积层、BatchNorm层、Relu激活函数层,将特征图/>输入到卷积块中,输出得到特征图/>将特征图/>与特征图/>相加得到特征图/>优选的,步骤d-2)中第一卷积块的卷积层的卷积核大小为3×3、填充为1、步长为1;步骤d-3)中第一多尺度注意力块的第一深度可分离卷积层的卷积核大小为3×3、膨胀率为2,第一多尺度注意力块的第二深度可分离卷积层的卷积核大小为3×3、膨胀率为4,第二多尺度注意力块的第一深度可分离卷积层的卷积核大小为3×3、膨胀率为2,第二多尺度注意力块的第二深度可分离卷积层的卷积核大小为3×3、膨胀率为4,卷积块的卷积层的卷积核大小为1×1、步长为1、填充为0;步骤d-5)中第二卷积块的卷积层的卷积核大小为3×3、填充为1、步长为1;步骤d-6)中第一多尺度注意力块的第一深度可分离卷积层的卷积核大小为3×3、膨胀率为2,第一多尺度注意力块的第二深度可分离卷积层的卷积核大小为3×3、膨胀率为4,第二多尺度注意力块的第一深度可分离卷积层的卷积核大小为3×3、膨胀率为2,第二多尺度注意力块的第二深度可分离卷积层的卷积核大小为3×3、膨胀率为4,卷积块的卷积层的卷积核大小为1×1、步长为1、填充为0;步骤d-8)中第三卷积块的卷积层的卷积核大小为3×3、填充为1、步长为1;步骤d-9)中第一多尺度注意力块的第一深度可分离卷积层的卷积核大小为3×3、膨胀率为2,第一多尺度注意力块的第二深度可分离卷积层的卷积核大小为3×3、膨胀率为4,第二多尺度注意力块的第一深度可分离卷积层的卷积核大小为3×3、膨胀率为2,第二多尺度注意力块的第二深度可分离卷积层的卷积核大小为3×3、膨胀率为4,卷积块的卷积层的卷积核大小为1×1、步长为1、填充为0;步骤d-11)中第四卷积块的卷积层的卷积核大小为3×3、填充为1、步长为1;d-12)中第一多尺度注意力块的第一深度可分离卷积层的卷积核大小为3×3、膨胀率为2,第一多尺度注意力块的第二深度可分离卷积层的卷积核大小为3×3、膨胀率为4,第二多尺度注意力块的第一深度可分离卷积层的卷积核大小为3×3、膨胀率为2,第二多尺度注意力块的第二深度可分离卷积层的卷积核大小为3×3、膨胀率为4,卷积块的卷积层的卷积核大小为1×1、步长为1、填充为0。
进一步的,步骤e)包括如下步骤:
e-1)分割网络模型的解码器由第一上采样层、第一特征选择模块FS、第一非对称卷积块、第二上采样层、第二特征选择模块FS、第二非对称卷积块、第三上采样层、第三特征选择模块FS、第三非对称卷积块、卷积层构成;
e-2)将特征图输入到解码器的第一上采样层中,输出得到特征图/>e-3)解码器的第一特征选择模块FS由全局平均池化层、第一全连接层、第二全连接层、softmax函数、第一膨胀卷积层、第二膨胀卷积层、第三膨胀卷积层构成,将特征图/>依次输入到全局平均池化层、第一全连接层、第二全连接层、softmax函数中,输出得到注意力图/>和注意力图将注意力图/>与特征图/>相乘得到特征图/>将特征图/>与特征图/>进行拼接操作,得到特征图/>将特征图/>依次输入到第一膨胀卷积层、第二膨胀卷积层、第三膨胀卷积层中,输出得到特征图/>将注意力图/>与特征图/>相乘得到特征图/>将特征图/>特征图/>特征图/>相加得到特征图/>
e-4)将特征图与特征图/>进行拼接操作,得到特征图/>e-5)解码器的第一非对称卷积块依次由第一卷积层、第一BatchNorm层、第一Relu激活函数、第二卷积层、第三卷积层、第二BatchNorm层、第二Relu激活函数构成,将特征图/>输入到第一非对称卷积块中,输出得到特征图/>e-6)将特征图/>输入到解码器的第二上采样层中,输出得到特征图/>e-7)解码器的第二特征选择模块FS由全局平均池化层、第一全连接层、第二全连接层、softmax函数、第一膨胀卷积层、第二膨胀卷积层、第三膨胀卷积层构成,将特征图/>依次输入到全局平均池化层、第一全连接层、第二全连接层、softmax函数中,输出得到注意力图/>和注意力图/>将注意力图/>与特征图/>相乘得到特征图/>将特征图/>与特征图/>进行拼接操作,得到特征图/>将特征图/>依次输入到第一膨胀卷积层、第二膨胀卷积层、第三膨胀卷积层中,输出得到特征图/>将注意力图/>与特征图/>相乘得到特征图/>将特征图/>特征图/>特征图/>相加得到特征图/>
e-8)将特征图与特征图/>进行拼接操作,得到特征图/>e-9)解码器的第二非对称卷积块依次由第一卷积层、第一BatchNorm层、第一Relu激活函数、第二卷积层、第三卷积层、第二BatchNorm层、第二Relu激活函数构成,将特征图/>输入到第二非对称卷积块中,输出得到特征图/>e-10)将特征图/>输入到解码器的第三上采样层中,输出得到特征图/>e-11)解码器的第三特征选择模块FS由全局平均池化层、第一全连接层、第二全连接层、softmax函数、第一膨胀卷积层、第二膨胀卷积层、第三膨胀卷积层构成,将特征图/>依次输入到全局平均池化层、第一全连接层、第二全连接层、softmax函数中,输出得到注意力图/>和注意力图/>将注意力图/>与特征图/>相乘得到特征图/>将特征图/>与特征图/> u 3进行拼接操作,得到特征图/>将特征图/>依次输入到第一膨胀卷积层、第二膨胀卷积层、第三膨胀卷积层中,输出得到特征图/>将注意力图/>与特征图/>相乘得到特征图/>将特征图/>特征图/>特征图/>相加得到特征图/>
e-12)将特征图与特征图/>进行拼接操作,得到特征图/>e-13)解码器的第三非对称卷积块依次由第一卷积层、第一BatchNorm层、第一Relu激活函数、第二卷积层、第三卷积层、第二BatchNorm层、第二Relu激活函数构成,将特征图/>输入到第三非对称卷积块中,输出得到特征图/>e-14)将特征图/>输入到解码器的卷积层中,输出得到预测分割图像/>优选的,步骤e-3)中第一特征选择模块FS的第一膨胀卷积层的卷积核大小为3×3,膨胀率为1,第二膨胀卷积层的卷积核大小为3×3,膨胀率为3,第三膨胀卷积层的卷积核大小为3×3,膨胀率为5;步骤e-5)中第一非对称卷积块的第一卷积层的卷积核大小为3×3、步长为1、填充为1,第二卷积层的卷积核大小为3×1、步长为1、填充为(1,0),第三卷积层的卷积核大小为1×3、步长为1、填充为(0,1);步骤e-7)中第二特征选择模块FS的第一膨胀卷积层的卷积核大小为3×3,膨胀率为1,第二膨胀卷积层的卷积核大小为3×3,膨胀率为3,第三膨胀卷积层的卷积核大小为3×3,膨胀率为5;步骤e-9)中第二非对称卷积块的第一卷积层的卷积核大小为3×3、步长为1、填充为1,第二卷积层的卷积核大小为3×1、步长为1、填充为(1,0),第三卷积层的卷积核大小为1×3、步长为1、填充为(0,1);步骤e-11)中第一特征选择模块FS的第一膨胀卷积层的卷积核大小为3×3,膨胀率为1,第二膨胀卷积层的卷积核大小为3×3,膨胀率为3,第三膨胀卷积层的卷积核大小为3×3,膨胀率为5;步骤e-13)中第三非对称卷积块的第一卷积层的卷积核大小为3×3、步长为1、填充为1,第二卷积层的卷积核大小为3×1、步长为1、填充为(1,0),第三卷积层的卷积核大小为1×3、步长为1、填充为(0,1);步骤e-14)中解码器的卷积层的卷积核大小为1×1、步长为1、填充为0。
进一步的,步骤f)中利用Dice损失通过Adam优化算法训练分割网络模型,得到优化后的分割网络模型。
优选的,训练分割网络模型时学习率设置为0.001、批次大小设置为16、迭代次数设置为200。
本发明的有益效果是:设计了轻量级模块注意力残差块和非对称卷积块,并构建轻量级心脏MRI分割网络模型,注意力残差块中的Ghost注意力块以GhostNet中的Ghost模块作为基础块,多尺度注意力块以深度可分离卷积作为基础块,并添加注意力机制,不仅可以减少特征的冗余,还能实现对目标区域的精确定位。在非对称卷积块中部分3×3卷积使用3×1和1×3的卷积代替,通过更少的参数来实现与对称卷积相同的效果,提高了计算效率。特征选择模块可以从编码器和解码器自适应选择有效特征,增加边缘的权重,获得心脏结构的更多细节,加强浅层特征和深层特征之间的交互和融合,提高心脏MRI分割的精度。
附图说明
图1为本发明的分割网络模型的结构图;
图2为本发明的注意力残差块ARM的结构图;
图3为本发明的特征选择模块FS的结构图。
具体实施方式
下面结合附图1、附图2、附图3对本发明做进一步说明。
一种基于特征选择的轻量级心脏MRI分割方法,包括如下步骤:
a)选择N个心脏MRI图像,得到心脏MRI数据集A,A={A1,A2,...,Ai,...,AN},Ai为第i个心脏MRI图像,i∈{1,2,...,N}。
b)对第i个心脏MRI图像Ai进行预处理,得到第i个预处理后的心脏MRI图像Bi,i∈{1,2,...,N},得到预处理后的数据集B,B={B1,B2,...,Bi,...,BN}。
c)将预处理后的数据集B划分为训练集、验证集、测试集,将训练集中的各个预处理后的图像沿Z轴切片,得到X个切片图像,第i个切片图像为Fi,i∈{1,...,X}。
d)建立分割网络模型,分割网络模型由编码器、解码器构成,将训练集中第i个切片图像Fi输入到分割网络模型的编码器中,输出得到特征图
e)将特征图输入到分割网络模型的解码器中,输出得到预测分割图像/>
f)训练分割网络模型,得到优化后的分割网络模型。
g)将测试集中的各个预处理后的图像沿Z轴切片,得到Y个切片图像,第j个切片图像为Fj,j∈{1,...,Y}。
h)将第j个切片图像为Fj输入到优化后的分割网络模型中,输出得到预测分割图像
设计了轻量级模块注意力残差块和非对称卷积块,并构建轻量级心脏MRI分割网络模型,注意力残差块中的Ghost注意力块以GhostNet中的Ghost模块作为基础块,多尺度注意力块以深度可分离卷积作为基础块,并添加注意力机制,不仅可以减少特征的冗余,还能实现对目标区域的精确定位。
在本发明的一个实施例中,步骤a)中N=100。
在本发明的一个实施例中,步骤b)包括如下步骤:
b-1)获取第i个心脏MRI图像Ai的Z轴方向的像素间距z,对第i个心脏MRI图像Ai和对应的真实标签进行spacing为(1.5,1.5,z),得到重采样后的图像。b-2)将重采样后的图像沿Z轴切片,将切割的若干切片进行大小为224*224的剪裁,将剪裁后的各个切片堆叠恢复为第i个预处理后的心脏MRI图像Bi。
在本发明的一个实施例中,优选的,步骤c)中将预处理后的数据集B按照6:2:2的比例划分为训练集、验证集、测试集。
在本发明的一个实施例中,步骤d)包括如下步骤:
d-1)分割网络模型的编码器由第一卷积块、第一注意力残差块ARM、第一最大池化层、第二卷积块、第二注意力残差块ARM、第二最大池化层、第三卷积块、第三注意力残差块ARM、第三最大池化层、第四卷积块、第四注意力残差块ARM构成。
d-2)编码器的第一卷积块依次由卷积层、BatchNorm层、Relu激活函数层构成,将训练集中第i个切片图像Fi输入到第一卷积块中,输出得到特征图
d-3)编码器的第一注意力残差块ARM由Ghost注意力块、第一多尺度注意力块、第二多尺度注意力块、卷积块构成;Ghost注意力块由python中的torch.chunk()函数、第一Ghost模块、第二Ghost模块、第一通道混洗层、第三Ghost模块、第四Ghost模块、第二通道混洗层、sigmoid函数构成,第一Ghost模块、第二Ghost模块、第三Ghost模块、第四Ghost模块均为GhostNet网络中的Ghost模块,第一通道混洗层、第二通道混洗层均为Shuffle Net中的通道混洗模块,将特征图输入到torch.chunk()函数,输出得到特征图/>和特征图将特征图/>依次输入到第一Ghost模块、第二Ghost模块中,输出得到特征图/>将特征图/>与特征图/>进行拼接操作,得到特征图/>将特征图/>输入到第一通道混洗层中,输出得到特征图/>将特征图/>依次输入到第三Ghost模块、第四Ghost模块中,输出得到特征图/>将特征图/>与特征图/>进行拼接操作,得到特征图/>将特征图/>依次输入到第二通道混洗层、sigmoid函数中,输出得到注意力图/>将注意力图与特征图/>相乘得到特征图/>将特征图/>与特征图/>相加得到特征图/>第一多尺度注意力块依次由第一深度可分离卷积层、第二深度可分离卷积层、sigmoid函数构成,将特征图/>输入到第一多尺度注意力块中,输出得到注意力图/>将注意力图与特征图/>相乘得到特征图/>将特征图/>与特征图/>相加得到特征图/>第二多尺度注意力块依次由第一深度可分离卷积层、第二深度可分离卷积层、sigmoid函数构成,将特征图/>输入到第二多尺度注意力块中,输出得到注意力图/>将注意力图/>与特征图/>相乘得到特征图/>将特征图/>与特征图/>相加得到特征图/>将特征图/>特征图/>特征图/>进行拼接操作,得到特征图/>卷积块依次由卷积层、BatchNorm层、Relu激活函数层,将特征图/>输入到卷积块中,输出得到特征图/>将特征图/>与特征图/>相加得到特征图/>d-4)将特征图/>输入到编码器的第一最大池化层中,输出得到特征图/>d-5)编码器的第二卷积块依次由卷积层、BatchNorm层、Relu激活函数层构成,将特征图/>输入到第二卷积块中,输出得到特征图/>d-6)编码器的第二注意力残差块ARM由Ghost注意力块、第一多尺度注意力块、第二多尺度注意力块、卷积块构成;Ghost注意力块由python中的torch.chunk()函数、第一Ghost模块、第二Ghost模块、第一通道混洗层、第三Ghost模块、第四Ghost模块、第二通道混洗层、sigmoid函数构成,第一Ghost模块、第二Ghost模块、第三Ghost模块、第四Ghost模块均为GhostNet网络中的Ghost模块,第一通道混洗层、第二通道混洗层均为Shuffle Net中的通道混洗模块,将特征图/>输入到torch.chunk()函数,输出得到特征图/>和特征图/>将特征图/>依次输入到第一Ghost模块、第二Ghost模块中,输出得到特征图/>将特征图/>与特征图/>进行拼接操作,得到特征图/>将特征图/>输入到第一通道混洗层中,输出得到特征图将特征图/>依次输入到第三Ghost模块、第四Ghost模块中,输出得到特征图/>将特征图/>与特征图/>进行拼接操作,得到特征图/>将特征图/>依次输入到第二通道混洗层、sigmoid函数中,输出得到注意力图/>将注意力图/>与特征图/>相乘得到特征图/>将特征图/>与特征图/>相加得到特征图/>第一多尺度注意力块依次由第一深度可分离卷积层、第二深度可分离卷积层、sigmoid函数构成,将特征图/>输入到第一多尺度注意力块中,输出得到注意力图/>将注意力图/>与特征图/>相乘得到特征图/>将特征图/>与特征图/>相加得到特征图/>第二多尺度注意力块依次由第一深度可分离卷积层、第二深度可分离卷积层、sigmoid函数构成,将特征图/>输入到第二多尺度注意力块中,输出得到注意力图/>将注意力图/>与特征图/>相乘得到特征图/>将特征图/>与特征图/>相加得到特征图/>将特征图/>特征图/>特征图/>进行拼接操作,得到特征图/>卷积块依次由卷积层、BatchNorm层、Relu激活函数层,将特征图/>输入到卷积块中,输出得到特征图/>将特征图/>与特征图/>相加得到特征图/>d-7)将特征图/>输入到编码器的第二最大池化层中,输出得到特征图d-8)编码器的第三卷积块依次由卷积层、BatchNorm层、Relu激活函数层构成,将特征图/>输入到第三卷积块中,输出得到特征图/>d-9)编码器的第三注意力残差块ARM由Ghost注意力块、第一多尺度注意力块、第二多尺度注意力块、卷积块构成;Ghost注意力块由python中的torch.chunk()函数、第一Ghost模块、第二Ghost模块、第一通道混洗层、第三Ghost模块、第四Ghost模块、第二通道混洗层、sigmoid函数构成,第一Ghost模块、第二Ghost模块、第三Ghost模块、第四Ghost模块均为GhostNet网络中的Ghost模块,第一通道混洗层、第二通道混洗层均为Shuffle Net中的通道混洗模块,将特征图/>输入到torch.chunk()函数,输出得到特征图/>和特征图/>将特征图/>依次输入到第一Ghost模块、第二Ghost模块中,输出得到特征图/>将特征图/>与特征图/>进行拼接操作,得到特征图/>将特征图/>输入到第一通道混洗层中,输出得到特征图/>将特征图/>依次输入到第三Ghost模块、第四Ghost模块中,输出得到特征图/>将特征图与特征图/>进行拼接操作,得到特征图/>将特征图/>依次输入到第二通道混洗层、sigmoid函数中,输出得到注意力图/>将注意力图/>与特征图/>相乘得到特征图将特征图/>与特征图/>相加得到特征图/>第一多尺度注意力块依次由第一深度可分离卷积层、第二深度可分离卷积层、sigmoid函数构成,将特征图/>输入到第一多尺度注意力块中,输出得到注意力图/>将注意力图/>与特征图/>相乘得到特征图将特征图/>与特征图/>相加得到特征图/>第二多尺度注意力块依次由第一深度可分离卷积层、第二深度可分离卷积层、sigmoid函数构成,将特征图/>输入到第二多尺度注意力块中,输出得到注意力图/>将注意力图/>与特征图/>相乘得到特征图将特征图/>与特征图/>相加得到特征图/>将特征图/>特征图/>特征图进行拼接操作,得到特征图/>卷积块依次由卷积层、BatchNorm层、Relu激活函数层,将特征图/>输入到卷积块中,输出得到特征图/>将特征图/>与特征图/>相加得到特征图/>d-10)将特征图/>输入到编码器的第三最大池化层中,输出得到特征图/>d-11)编码器的第四卷积块依次由卷积层、BatchNorm层、Relu激活函数层构成,将特征图/>输入到第四卷积块中,输出得到特征图/>d-12)编码器的第四注意力残差块ARM由Ghost注意力块、第一多尺度注意力块、第二多尺度注意力块、卷积块构成;Ghost注意力块由python中的torch.chunk()函数、第一Ghost模块、第二Ghost模块、第一通道混洗层、第三Ghost模块、第四Ghost模块、第二通道混洗层、sigmoid函数构成,第一Ghost模块、第二Ghost模块、第三Ghost模块、第四Ghost模块均为GhostNet网络中的Ghost模块,第一通道混洗层、第二通道混洗层均为Shuffle Net中的通道混洗模块,将特征图/>输入到torch.chunk()函数,输出得到特征图/>和特征图/>将特征图/>依次输入到第一Ghost模块、第二Ghost模块中,输出得到特征图/>将特征图/>与特征图/>进行拼接操作,得到特征图/>将特征图/>输入到第一通道混洗层中,输出得到特征图/>将特征图/>依次输入到第三Ghost模块、第四Ghost模块中,输出得到特征图/>将特征图与特征图/>进行拼接操作,得到特征图/>将特征图/>依次输入到第二通道混洗层、sigmoid函数中,输出得到注意力图/>将注意力图/>与特征图/>相乘得到特征图/>将特征图/>与特征图/>相加得到特征图/>第一多尺度注意力块依次由第一深度可分离卷积层、第二深度可分离卷积层、sigmoid函数构成,将特征图/>输入到第一多尺度注意力块中,输出得到注意力图/>将注意力图/>与特征图/>相乘得到特征图将特征图/>与特征图/>相加得到特征图/>第二多尺度注意力块依次由第一深度可分离卷积层、第二深度可分离卷积层、sigmoid函数构成,将特征图/>输入到第二多尺度注意力块中,输出得到注意力图/>将注意力图/>与特征图/>相乘得到特征图将特征图/>与特征图/>相加得到特征图/>将特征图/>特征图/>特征图/>进行拼接操作,得到特征图/>卷积块依次由卷积层、BatchNorm层、Relu激活函数层,将特征图/>输入到卷积块中,输出得到特征图/>将特征图/>与特征图/>相加得到特征图/>在该实施例中,优选的,步骤d-2)中第一卷积块的卷积层的卷积核大小为3×3、填充为1、步长为1;步骤d-3)中第一多尺度注意力块的第一深度可分离卷积层的卷积核大小为3×3、膨胀率为2,第一多尺度注意力块的第二深度可分离卷积层的卷积核大小为3×3、膨胀率为4,第二多尺度注意力块的第一深度可分离卷积层的卷积核大小为3×3、膨胀率为2,第二多尺度注意力块的第二深度可分离卷积层的卷积核大小为3×3、膨胀率为4,卷积块的卷积层的卷积核大小为1×1、步长为1、填充为0;步骤d-5)中第二卷积块的卷积层的卷积核大小为3×3、填充为1、步长为1;步骤d-6)中第一多尺度注意力块的第一深度可分离卷积层的卷积核大小为3×3、膨胀率为2,第一多尺度注意力块的第二深度可分离卷积层的卷积核大小为3×3、膨胀率为4,第二多尺度注意力块的第一深度可分离卷积层的卷积核大小为3×3、膨胀率为2,第二多尺度注意力块的第二深度可分离卷积层的卷积核大小为3×3、膨胀率为4,卷积块的卷积层的卷积核大小为1×1、步长为1、填充为0;步骤d-8)中第三卷积块的卷积层的卷积核大小为3×3、填充为1、步长为1;步骤d-9)中第一多尺度注意力块的第一深度可分离卷积层的卷积核大小为3×3、膨胀率为2,第一多尺度注意力块的第二深度可分离卷积层的卷积核大小为3×3、膨胀率为4,第二多尺度注意力块的第一深度可分离卷积层的卷积核大小为3×3、膨胀率为2,第二多尺度注意力块的第二深度可分离卷积层的卷积核大小为3×3、膨胀率为4,卷积块的卷积层的卷积核大小为1×1、步长为1、填充为0;步骤d-11)中第四卷积块的卷积层的卷积核大小为3×3、填充为1、步长为1;d-12)中第一多尺度注意力块的第一深度可分离卷积层的卷积核大小为3×3、膨胀率为2,第一多尺度注意力块的第二深度可分离卷积层的卷积核大小为3×3、膨胀率为4,第二多尺度注意力块的第一深度可分离卷积层的卷积核大小为3×3、膨胀率为2,第二多尺度注意力块的第二深度可分离卷积层的卷积核大小为3×3、膨胀率为4,卷积块的卷积层的卷积核大小为1×1、步长为1、填充为0。
在本发明的一个实施例中,步骤e)包括如下步骤:
e-1)分割网络模型的解码器由第一上采样层、第一特征选择模块FS、第一非对称卷积块、第二上采样层、第二特征选择模块FS、第二非对称卷积块、第三上采样层、第三特征选择模块FS、第三非对称卷积块、卷积层构成。
e-2)将特征图输入到解码器的第一上采样层中,输出得到特征图/>e-3)解码器的第一特征选择模块FS由全局平均池化层、第一全连接层、第二全连接层、softmax函数、第一膨胀卷积层、第二膨胀卷积层、第三膨胀卷积层构成,将特征图/>依次输入到全局平均池化层、第一全连接层、第二全连接层、softmax函数中,输出得到注意力图/>和注意力图将注意力图/>与特征图/>相乘得到特征图/>将特征图/>与特征图/>进行拼接操作,得到特征图/>将特征图/>依次输入到第一膨胀卷积层、第二膨胀卷积层、第三膨胀卷积层中,输出得到特征图/>将注意力图/>与特征图/>相乘得到特征图/>将特征图/>特征图/>特征图/>相加得到特征图/>
e-4)将特征图与特征图/>进行拼接操作,得到特征图/>e-5)解码器的第一非对称卷积块依次由第一卷积层、第一BatchNorm层、第一Relu激活函数、第二卷积层、第三卷积层、第二BatchNorm层、第二Relu激活函数构成,将特征图/>输入到第一非对称卷积块中,输出得到特征图/>e-6)将特征图/>输入到解码器的第二上采样层中,输出得到特征图/>e-7)解码器的第二特征选择模块FS由全局平均池化层、第一全连接层、第二全连接层、softmax函数、第一膨胀卷积层、第二膨胀卷积层、第三膨胀卷积层构成,将特征图/>依次输入到全局平均池化层、第一全连接层、第二全连接层、softmax函数中,输出得到注意力图/>和注意力图/>将注意力图/>与特征图/>相乘得到特征图/>将特征图/>与特征图/>进行拼接操作,得到特征图/>将特征图/>依次输入到第一膨胀卷积层、第二膨胀卷积层、第三膨胀卷积层中,输出得到特征图/>将注意力图/>与特征图/>相乘得到特征图/>将特征图/>特征图/>特征图/>相加得到特征图/>
e-8)将特征图与特征图/>进行拼接操作,得到特征图/>e-9)解码器的第二非对称卷积块依次由第一卷积层、第一BatchNorm层、第一Relu激活函数、第二卷积层、第三卷积层、第二BatchNorm层、第二Relu激活函数构成,将特征图/>输入到第二非对称卷积块中,输出得到特征图/>e-10)将特征图/>输入到解码器的第三上采样层中,输出得到特征图/>e-11)解码器的第三特征选择模块FS由全局平均池化层、第一全连接层、第二全连接层、softmax函数、第一膨胀卷积层、第二膨胀卷积层、第三膨胀卷积层构成,将特征图/>依次输入到全局平均池化层、第一全连接层、第二全连接层、softmax函数中,输出得到注意力图/>和注意力图/>将注意力图/>与特征图/>相乘得到特征图/>将特征图/>与特征图/>进行拼接操作,得到特征图/>将特征图/>依次输入到第一膨胀卷积层、第二膨胀卷积层、第三膨胀卷积层中,输出得到特征图/>将注意力图/>与特征图/>相乘得到特征图/>将特征图/>特征图/>特征图/>相加得到特征图/>
e-12)将特征图与特征图/>进行拼接操作,得到特征图/>e-13)解码器的第三非对称卷积块依次由第一卷积层、第一BatchNorm层、第一Relu激活函数、第二卷积层、第三卷积层、第二BatchNorm层、第二Relu激活函数构成,将特征图/>输入到第三非对称卷积块中,输出得到特征图/>e-14)将特征图/>输入到解码器的卷积层中,输出得到预测分割图像/>在该实施例中,优选的,步骤e-3)中第一特征选择模块FS的第一膨胀卷积层的卷积核大小为3×3,膨胀率为1,第二膨胀卷积层的卷积核大小为3×3,膨胀率为3,第三膨胀卷积层的卷积核大小为3×3,膨胀率为5;步骤e-5)中第一非对称卷积块的第一卷积层的卷积核大小为3×3、步长为1、填充为1,第二卷积层的卷积核大小为3×1、步长为1、填充为(1,0),第三卷积层的卷积核大小为1×3、步长为1、填充为(0,1);步骤e-7)中第二特征选择模块FS的第一膨胀卷积层的卷积核大小为3×3,膨胀率为1,第二膨胀卷积层的卷积核大小为3×3,膨胀率为3,第三膨胀卷积层的卷积核大小为3×3,膨胀率为5;步骤e-9)中第二非对称卷积块的第一卷积层的卷积核大小为3×3、步长为1、填充为1,第二卷积层的卷积核大小为3×1、步长为1、填充为(1,0),第三卷积层的卷积核大小为1×3、步长为1、填充为(0,1);步骤e-11)中第一特征选择模块FS的第一膨胀卷积层的卷积核大小为3×3,膨胀率为1,第二膨胀卷积层的卷积核大小为3×3,膨胀率为3,第三膨胀卷积层的卷积核大小为3×3,膨胀率为5;步骤e-13)中第三非对称卷积块的第一卷积层的卷积核大小为3×3、步长为1、填充为1,第二卷积层的卷积核大小为3×1、步长为1、填充为(1,0),第三卷积层的卷积核大小为1×3、步长为1、填充为(0,1);步骤e-14)中解码器的卷积层的卷积核大小为1×1、步长为1、填充为0。
在本发明的一个实施例中,步骤f)中利用Dice损失通过Adam优化算法训练分割网络模型,得到优化后的分割网络模型。
在该实施例中,优选的,训练分割网络模型时学习率设置为0.001、批次大小设置为16、迭代次数设置为200。
最后应说明的是:以上所述仅为本发明的优选实施例而已,并不用于限制本发明,尽管参照前述实施例对本发明进行了详细的说明,对于本领域的技术人员来说,其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种基于特征选择的轻量级心脏MRI分割方法,其特征在于,包括如下步骤:
a)选择N个心脏MRI图像,得到心脏MRI数据集A,A={A1,A2,...,Ai,...,AN},Ai为第i个心脏MRI图像,i∈{1,2,...,N};
b)对第i个心脏MRI图像Ai进行预处理,得到第i个预处理后的心脏MRI图像Bi,i∈{1,2,...,N},得到预处理后的数据集B,B={B1,B2,...,Bi,...,BN};
c)将预处理后的数据集B划分为训练集、验证集、测试集,将训练集中的各个预处理后的图像沿Z轴切片,得到X个切片图像,第i个切片图像为Fi,i∈{1,...,X};
d)建立分割网络模型,分割网络模型由编码器、解码器构成,将训练集中第i个切片图像Fi输入到分割网络模型的编码器中,输出得到特征图
e)将特征图输入到分割网络模型的解码器中,输出得到预测分割图像/>
f)训练分割网络模型,得到优化后的分割网络模型;
g)将测试集中的各个预处理后的图像沿Z轴切片,得到Y个切片图像,第j个切片图像为Fj,j∈{1,...,Y};
h)将第j个切片图像为Fj输入到优化后的分割网络模型中,输出得到预测分割图像
2.根据权利要求1所述的基于特征选择的轻量级心脏MRI分割方法,其特征在于:步骤a)中N=100。
3.根据权利要求1所述的基于特征选择的轻量级心脏MRI分割方法,其特征在于,步骤b)包括如下步骤:
b-1)获取第i个心脏MRI图像Ai的Z轴方向的像素间距z,对第i个心脏MRI图像Ai和对应的真实标签进行spacing为(1.5,1.5,z),得到重采样后的图像;
b-2)将重采样后的图像沿Z轴切片,将切割的若干切片进行大小为224*224的剪裁,将剪裁后的各个切片堆叠恢复为第i个预处理后的心脏MRI图像Bi。
4.根据权利要求1所述的基于特征选择的轻量级心脏MRI分割方法,其特征在于:步骤c)中将预处理后的数据集B按照6:2:2的比例划分为训练集、验证集、测试集。
5.根据权利要求1所述的基于特征选择的轻量级心脏MRI分割方法,其特征在于,步骤d)包括如下步骤:
d-1)分割网络模型的编码器由第一卷积块、第一注意力残差块ARM、第一最大池化层、第二卷积块、第二注意力残差块ARM、第二最大池化层、第三卷积块、第三注意力残差块ARM、第三最大池化层、第四卷积块、第四注意力残差块ARM构成;
d-2)编码器的第一卷积块依次由卷积层、BatchNorm层、Relu激活函数层构成,将训练集中第i个切片图像Fi输入到第一卷积块中,输出得到特征图d-3)编码器的第一注意力残差块ARM由Ghost注意力块、第一多尺度注意力块、第二多尺度注意力块、卷积块构成;Ghost注意力块由python中的torch.chunk()函数、第一Ghost模块、第二Ghost模块、第一通道混洗层、第三Ghost模块、第四Ghost模块、第二通道混洗层、sigmoid函数构成,第一Ghost模块、第二Ghost模块、第三Ghost模块、第四Ghost模块均为GhostNet网络中的Ghost模块,第一通道混洗层、第二通道混洗层均为Shuffle Net中的通道混洗模块,将特征图/>输入到torch.chunk()函数,输出得到特征图/>和特征图/>将特征图/>依次输入到第一Ghost模块、第二Ghost模块中,输出得到特征图/>将特征图/>与特征图/>进行拼接操作,得到特征图/>将特征图/>输入到第一通道混洗层中,输出得到特征图/>将特征图/>依次输入到第三Ghost模块、第四Ghost模块中,输出得到特征图/>将特征图/>与特征图/>进行拼接操作,得到特征图/>将特征图/>依次输入到第二通道混洗层、sigmoid函数中,输出得到注意力图/>将注意力图/>与特征图/>相乘得到特征图/>将特征图/>与特征图/>相加得到特征图/>第一多尺度注意力块依次由第一深度可分离卷积层、第二深度可分离卷积层、sigmoid函数构成,将特征图/>输入到第一多尺度注意力块中,输出得到注意力图/>将注意力图/>与特征图/>相乘得到特征图将特征图/>与特征图/>相加得到特征图/>第二多尺度注意力块依次由第一深度可分离卷积层、第二深度可分离卷积层、sigmoid函数构成,将特征图/>输入到第二多尺度注意力块中,输出得到注意力图/>将注意力图/>与特征图/>相乘得到特征图将特征图/>与特征图/>相加得到特征图/>将特征图/>特征图/>特征图进行拼接操作,得到特征图/>卷积块依次由卷积层、BatchNorm层、Relu激活函数层,将特征图/>输入到卷积块中,输出得到特征图/>将特征图/>与特征图/>相加得到特征图/>
d-4)将特征图输入到编码器的第一最大池化层中,输出得到特征图/>d-5)编码器的第二卷积块依次由卷积层、BatchNorm层、Relu激活函数层构成,将特征图/>输入到第二卷积块中,输出得到特征图/>
d-6)编码器的第二注意力残差块ARM由Ghost注意力块、第一多尺度注意力块、第二多尺度注意力块、卷积块构成;Ghost注意力块由python中的torch.chunk()函数、第一Ghost模块、第二Ghost模块、第一通道混洗层、第三Ghost模块、第四Ghost模块、第二通道混洗层、sigmoid函数构成,第一Ghost模块、第二Ghost模块、第三Ghost模块、第四Ghost模块均为GhostNet网络中的Ghost模块,第一通道混洗层、第二通道混洗层均为Shuffle Net中的通道混洗模块,将特征图输入到torch.chunk()函数,输出得到特征图/>和特征图/>将特征图/>依次输入到第一Ghost模块、第二Ghost模块中,输出得到特征图/>将特征图/>与特征图/>进行拼接操作,得到特征图/>将特征图/>输入到第一通道混洗层中,输出得到特征图/>将特征图/>依次输入到第三Ghost模块、第四Ghost模块中,输出得到特征图/>将特征图/>与特征图/>进行拼接操作,得到特征图/>将特征图/>依次输入到第二通道混洗层、sigmoid函数中,输出得到注意力图/>将注意力图与特征图/>相乘得到特征图/>将特征图/>与特征图/>相加得到特征图/>第一多尺度注意力块依次由第一深度可分离卷积层、第二深度可分离卷积层、sigmoid函数构成,将特征图/>输入到第一多尺度注意力块中,输出得到注意力图/>将注意力图与特征图/>相乘得到特征图/>将特征图/>与特征图/>相加得到特征图/>第二多尺度注意力块依次由第一深度可分离卷积层、第二深度可分离卷积层、sigmoid函数构成,将特征图/>输入到第二多尺度注意力块中,输出得到注意力图/>将注意力图与特征图/>相乘得到特征图/>将特征图/>与特征图/>相加得到特征图/>将特征图/>特征图/>特征图/>进行拼接操作,得到特征图/>卷积块依次由卷积层、BatchNorm层、Relu激活函数层,将特征图/>输入到卷积块中,输出得到特征图/>将特征图/>与特征图/>相加得到特征图/>
d-7)将特征图输入到编码器的第二最大池化层中,输出得到特征图/>d-8)编码器的第三卷积块依次由卷积层、BatchNorm层、Relu激活函数层构成,将特征图/>输入到第三卷积块中,输出得到特征图/>
d-9)编码器的第三注意力残差块ARM由Ghost注意力块、第一多尺度注意力块、第二多尺度注意力块、卷积块构成;Ghost注意力块由python中的torch.chunk()函数、第一Ghost模块、第二Ghost模块、第一通道混洗层、第三Ghost模块、第四Ghost模块、第二通道混洗层、sigmoid函数构成,第一Ghost模块、第二Ghost模块、第三Ghost模块、第四Ghost模块均为GhostNet网络中的Ghost模块,第一通道混洗层、第二通道混洗层均为Shuffle Net中的通道混洗模块,将特征图输入到torch.chunk()函数,输出得到特征图/>和特征图/>将特征图/>依次输入到第一Ghost模块、第二Ghost模块中,输出得到特征图/>将特征图/>与特征图/>进行拼接操作,得到特征图/>将特征图/>输入到第一通道混洗层中,输出得到特征图/>将特征图/>依次输入到第三Ghost模块、第四Ghost模块中,输出得到特征图/>将特征图/>与特征图/>进行拼接操作,得到特征图/>将特征图/>依次输入到第二通道混洗层、sigmoid函数中,输出得到注意力图/>将注意力图/>与特征图/>相乘得到特征图/>将特征图/>与特征图/>相加得到特征图/>第一多尺度注意力块依次由第一深度可分离卷积层、第二深度可分离卷积层、sigmoid函数构成,将特征图/>输入到第一多尺度注意力块中,输出得到注意力图/>将注意力图/>与特征图/>相乘得到特征图/>将特征图/>与特征图/>相加得到特征图/>第二多尺度注意力块依次由第一深度可分离卷积层、第二深度可分离卷积层、sigmoid函数构成,将特征图输入到第二多尺度注意力块中,输出得到注意力图/>将注意力图/>与特征图相乘得到特征图/>将特征图/>与特征图/>相加得到特征图/>将特征图特征图/>特征图/>进行拼接操作,得到特征图/>卷积块依次由卷积层、BatchNorm层、Relu激活函数层,将特征图/>输入到卷积块中,输出得到特征图/>将特征图/>与特征图/>相加得到特征图/>
d-10)将特征图输入到编码器的第三最大池化层中,输出得到特征图/>d-11)编码器的第四卷积块依次由卷积层、BatchNorm层、Relu激活函数层构成,将特征图/>输入到第四卷积块中,输出得到特征图/>
d-12)编码器的第四注意力残差块ARM由Ghost注意力块、第一多尺度注意力块、第二多尺度注意力块、卷积块构成;Ghost注意力块由python中的torch.chunk()函数、第一Ghost模块、第二Ghost模块、第一通道混洗层、第三Ghost模块、第四Ghost模块、第二通道混洗层、sigmoid函数构成,第一Ghost模块、第二Ghost模块、第三Ghost模块、第四Ghost模块均为GhostNet网络中的Ghost模块,第一通道混洗层、第二通道混洗层均为Shuffle Net中的通道混洗模块,将特征图输入到torch.chunk()函数,输出得到特征图/>和特征图/>将特征图/>依次输入到第一Ghost模块、第二Ghost模块中,输出得到特征图/>将特征图/>与特征图/>进行拼接操作,得到特征图/>将特征图/>输入到第一通道混洗层中,输出得到特征图/>将特征图/>依次输入到第三Ghost模块、第四Ghost模块中,输出得到特征图/>将特征图/>与特征图/>进行拼接操作,得到特征图/>将特征图/>依次输入到第二通道混洗层、sigmoid函数中,输出得到注意力图/>将注意力图与特征图/>相乘得到特征图/>将特征图/>与特征图/>相加得到特征图/>第一多尺度注意力块依次由第一深度可分离卷积层、第二深度可分离卷积层、sigmoid函数构成,将特征图/>输入到第一多尺度注意力块中,输出得到注意力图/>将注意力图与特征图/>相乘得到特征图/>将特征图/>与特征图/>相加得到特征图/>第二多尺度注意力块依次由第一深度可分离卷积层、第二深度可分离卷积层、sigmoid函数构成,将特征图/>输入到第二多尺度注意力块中,输出得到注意力图/>将注意力图与特征图/>相乘得到特征图/>将特征图/>与特征图/>相加得到特征图/>将特征图/>特征图/>特征图/>进行拼接操作,得到特征图/>卷积块依次由卷积层、BatchNorm层、Relu激活函数层,将特征图/>输入到卷积块中,输出得到特征图/>将特征图/>与特征图/>相加得到特征图/>
6.根据权利要求5所述的基于特征选择的轻量级心脏MRI分割方法,其特征在于:步骤d-2)中第一卷积块的卷积层的卷积核大小为3×3、填充为1、步长为1;步骤d-3)中第一多尺度注意力块的第一深度可分离卷积层的卷积核大小为3×3、膨胀率为2,第一多尺度注意力块的第二深度可分离卷积层的卷积核大小为3×3、膨胀率为4,第二多尺度注意力块的第一深度可分离卷积层的卷积核大小为3×3、膨胀率为2,第二多尺度注意力块的第二深度可分离卷积层的卷积核大小为3×3、膨胀率为4,卷积块的卷积层的卷积核大小为1×1、步长为1、填充为0;步骤d-5)中第二卷积块的卷积层的卷积核大小为3×3、填充为1、步长为1;步骤d-6)中第一多尺度注意力块的第一深度可分离卷积层的卷积核大小为3×3、膨胀率为2,第一多尺度注意力块的第二深度可分离卷积层的卷积核大小为3×3、膨胀率为4,第二多尺度注意力块的第一深度可分离卷积层的卷积核大小为3×3、膨胀率为2,第二多尺度注意力块的第二深度可分离卷积层的卷积核大小为3×3、膨胀率为4,卷积块的卷积层的卷积核大小为1×1、步长为1、填充为0;步骤d-8)中第三卷积块的卷积层的卷积核大小为3×3、填充为1、步长为1;步骤d-9)中第一多尺度注意力块的第一深度可分离卷积层的卷积核大小为3×3、膨胀率为2,第一多尺度注意力块的第二深度可分离卷积层的卷积核大小为3×3、膨胀率为4,第二多尺度注意力块的第一深度可分离卷积层的卷积核大小为3×3、膨胀率为2,第二多尺度注意力块的第二深度可分离卷积层的卷积核大小为3×3、膨胀率为4,卷积块的卷积层的卷积核大小为1×1、步长为1、填充为0;步骤d-11)中第四卷积块的卷积层的卷积核大小为3×3、填充为1、步长为1;d-12)中第一多尺度注意力块的第一深度可分离卷积层的卷积核大小为3×3、膨胀率为2,第一多尺度注意力块的第二深度可分离卷积层的卷积核大小为3×3、膨胀率为4,第二多尺度注意力块的第一深度可分离卷积层的卷积核大小为3×3、膨胀率为2,第二多尺度注意力块的第二深度可分离卷积层的卷积核大小为3×3、膨胀率为4,卷积块的卷积层的卷积核大小为1×1、步长为1、填充为0。
7.根据权利要求1所述的基于特征选择的轻量级心脏MRI分割方法,其特征在于,步骤e)包括如下步骤:
e-1)分割网络模型的解码器由第一上采样层、第一特征选择模块FS、第一非对称卷积块、第二上采样层、第二特征选择模块FS、第二非对称卷积块、第三上采样层、第三特征选择模块FS、第三非对称卷积块、卷积层构成;
e-2)将特征图输入到解码器的第一上采样层中,输出得到特征图/>e-3)解码器的第一特征选择模块FS由全局平均池化层、第一全连接层、第二全连接层、softmax函数、第一膨胀卷积层、第二膨胀卷积层、第三膨胀卷积层构成,将特征图/>依次输入到全局平均池化层、第一全连接层、第二全连接层、softmax函数中,输出得到注意力图/>和注意力图/>将注意力图/>与特征图/>相乘得到特征图/>将特征图/>与特征图/>进行拼接操作,得到特征图/>将特征图/>依次输入到第一膨胀卷积层、第二膨胀卷积层、第三膨胀卷积层中,输出得到特征图/>将注意力图/>与特征图/>相乘得到特征图/>将特征图特征图/>特征图/>相加得到特征图/>
e-4)将特征图与特征图/>进行拼接操作,得到特征图/>
e-5)解码器的第一非对称卷积块依次由第一卷积层、第一BatchNorm层、第一Relu激活函数、第二卷积层、第三卷积层、第二BatchNorm层、第二Relu激活函数构成,将特征图输入到第一非对称卷积块中,输出得到特征图/>e-6)将特征图/>输入到解码器的第二上采样层中,输出得到特征图/>e-7)解码器的第二特征选择模块FS由全局平均池化层、第一全连接层、第二全连接层、softmax函数、第一膨胀卷积层、第二膨胀卷积层、第三膨胀卷积层构成,将特征图/>依次输入到全局平均池化层、第一全连接层、第二全连接层、softmax函数中,输出得到注意力图/>和注意力图/>将注意力图/>与特征图/>相乘得到特征图将特征图/>与特征图/>进行拼接操作,得到特征图/>将特征图/>依次输入到第一膨胀卷积层、第二膨胀卷积层、第三膨胀卷积层中,输出得到特征图/>将注意力图与特征图/>相乘得到特征图/>将特征图/>特征图/>特征图/>相加得到特征图/>
e-8)将特征图与特征图/>进行拼接操作,得到特征图/>
e-9)解码器的第二非对称卷积块依次由第一卷积层、第一BatchNorm层、第一Relu激活函数、第二卷积层、第三卷积层、第二BatchNorm层、第二Relu激活函数构成,将特征图输入到第二非对称卷积块中,输出得到特征图/>e-10)将特征图/>输入到解码器的第三上采样层中,输出得到特征图/>e-11)解码器的第三特征选择模块FS由全局平均池化层、第一全连接层、第二全连接层、softmax函数、第一膨胀卷积层、第二膨胀卷积层、第三膨胀卷积层构成,将特征图/>依次输入到全局平均池化层、第一全连接层、第二全连接层、softmax函数中,输出得到注意力图/>和注意力图/>将注意力图/>与特征图/>相乘得到特征图/>将特征图/>与特征图/>进行拼接操作,得到特征图/>将特征图/>依次输入到第一膨胀卷积层、第二膨胀卷积层、第三膨胀卷积层中,输出得到特征图/>将注意力图与特征图/>相乘得到特征图/>将特征图/>特征图/>特征图/>相加得到特征图/>
e-12)将特征图与特征图/>进行拼接操作,得到特征图/>
e-13)解码器的第三非对称卷积块依次由第一卷积层、第一BatchNorm层、第一Relu激活函数、第二卷积层、第三卷积层、第二BatchNorm层、第二Relu激活函数构成,将特征图输入到第三非对称卷积块中,输出得到特征图/>e-14)将特征图/>输入到解码器的卷积层中,输出得到预测分割图像/>
8.根据权利要求7所述的基于特征选择的轻量级心脏MRI分割方法,其特征在于:步骤e-3)中第一特征选择模块FS的第一膨胀卷积层的卷积核大小为3×3,膨胀率为1,第二膨胀卷积层的卷积核大小为3×3,膨胀率为3,第三膨胀卷积层的卷积核大小为3×3,膨胀率为5;步骤e-5)中第一非对称卷积块的第一卷积层的卷积核大小为3×3、步长为1、填充为1,第二卷积层的卷积核大小为3×1、步长为1、填充为(1,0),第三卷积层的卷积核大小为1×3、步长为1、填充为(0,1);步骤e-7)中第二特征选择模块FS的第一膨胀卷积层的卷积核大小为3×3,膨胀率为1,第二膨胀卷积层的卷积核大小为3×3,膨胀率为3,第三膨胀卷积层的卷积核大小为3×3,膨胀率为5;步骤e-9)中第二非对称卷积块的第一卷积层的卷积核大小为3×3、步长为1、填充为1,第二卷积层的卷积核大小为3×1、步长为1、填充为(1,0),第三卷积层的卷积核大小为1×3、步长为1、填充为(0,1);步骤e-11)中第一特征选择模块FS的第一膨胀卷积层的卷积核大小为3×3,膨胀率为1,第二膨胀卷积层的卷积核大小为3×3,膨胀率为3,第三膨胀卷积层的卷积核大小为3×3,膨胀率为5;步骤e-13)中第三非对称卷积块的第一卷积层的卷积核大小为3×3、步长为1、填充为1,第二卷积层的卷积核大小为3×1、步长为1、填充为(1,0),第三卷积层的卷积核大小为1×3、步长为1、填充为(0,1);步骤e-14)中解码器的卷积层的卷积核大小为1×1、步长为1、填充为0。
9.根据权利要求1所述的基于特征选择的轻量级心脏MRI分割方法,其特征在于:步骤f)中利用Dice损失通过Adam优化算法训练分割网络模型,得到优化后的分割网络模型。
10.根据权利要求9所述的基于特征选择的轻量级心脏MRI分割方法,其特征在于:训练分割网络模型时学习率设置为0.001、批次大小设置为16、迭代次数设置为200。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311298305.0A CN117409014B (zh) | 2023-10-09 | 2023-10-09 | 一种基于特征选择的轻量级心脏mri分割方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311298305.0A CN117409014B (zh) | 2023-10-09 | 2023-10-09 | 一种基于特征选择的轻量级心脏mri分割方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117409014A true CN117409014A (zh) | 2024-01-16 |
CN117409014B CN117409014B (zh) | 2024-05-28 |
Family
ID=89491767
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311298305.0A Active CN117409014B (zh) | 2023-10-09 | 2023-10-09 | 一种基于特征选择的轻量级心脏mri分割方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117409014B (zh) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20030005384A (ko) * | 2002-11-22 | 2003-01-17 | 실버브룩 리서치 피티와이 리미티드 | 인쇄 페이지의 태그 인코더 |
US20210232915A1 (en) * | 2020-01-23 | 2021-07-29 | UMNAI Limited | Explainable neural net architecture for multidimensional data |
CN114066908A (zh) * | 2021-10-09 | 2022-02-18 | 山东师范大学 | 一种用于脑肿瘤图像分割的方法及系统 |
CN114648541A (zh) * | 2022-03-28 | 2022-06-21 | 中国人民解放军总医院第七医学中心 | 非小细胞肺癌大体肿瘤靶区自动分割方法 |
US20220331841A1 (en) * | 2021-04-16 | 2022-10-20 | Digimarc Corporation | Methods and arrangements to aid recycling |
CN116543277A (zh) * | 2023-04-27 | 2023-08-04 | 深圳市即构科技有限公司 | 模型构建方法及目标检测方法 |
CN116563265A (zh) * | 2023-05-23 | 2023-08-08 | 山东省人工智能研究院 | 基于多尺度注意力和自适应特征融合的心脏mri分割方法 |
CN116580202A (zh) * | 2023-05-26 | 2023-08-11 | 重庆邮电大学 | 一种基于改进U-net网络的乳腺医学图像分割方法 |
CN116843696A (zh) * | 2023-04-27 | 2023-10-03 | 山东省人工智能研究院 | 基于特征相似性和超参数卷积注意力的心脏mri分割方法 |
-
2023
- 2023-10-09 CN CN202311298305.0A patent/CN117409014B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20030005384A (ko) * | 2002-11-22 | 2003-01-17 | 실버브룩 리서치 피티와이 리미티드 | 인쇄 페이지의 태그 인코더 |
US20210232915A1 (en) * | 2020-01-23 | 2021-07-29 | UMNAI Limited | Explainable neural net architecture for multidimensional data |
US20220331841A1 (en) * | 2021-04-16 | 2022-10-20 | Digimarc Corporation | Methods and arrangements to aid recycling |
CN114066908A (zh) * | 2021-10-09 | 2022-02-18 | 山东师范大学 | 一种用于脑肿瘤图像分割的方法及系统 |
CN114648541A (zh) * | 2022-03-28 | 2022-06-21 | 中国人民解放军总医院第七医学中心 | 非小细胞肺癌大体肿瘤靶区自动分割方法 |
CN116543277A (zh) * | 2023-04-27 | 2023-08-04 | 深圳市即构科技有限公司 | 模型构建方法及目标检测方法 |
CN116843696A (zh) * | 2023-04-27 | 2023-10-03 | 山东省人工智能研究院 | 基于特征相似性和超参数卷积注意力的心脏mri分割方法 |
CN116563265A (zh) * | 2023-05-23 | 2023-08-08 | 山东省人工智能研究院 | 基于多尺度注意力和自适应特征融合的心脏mri分割方法 |
CN116580202A (zh) * | 2023-05-26 | 2023-08-11 | 重庆邮电大学 | 一种基于改进U-net网络的乳腺医学图像分割方法 |
Non-Patent Citations (2)
Title |
---|
NGAN LE 等: "A Multi-task Contextual Atrous Residual Network for Brain Tumor Detection & Segmentation", 《2020 25TH INTERNATIONAL CONFERENCE ON PATTERN RECOGNITION (ICPR)》, 5 May 2021 (2021-05-05) * |
强晓鹏: "基于两阶段上下文感知的单色图像阴影检测", 《中国优秀硕士学位论文全文数据库 (信息科技辑)》, no. 5, 15 May 2021 (2021-05-15) * |
Also Published As
Publication number | Publication date |
---|---|
CN117409014B (zh) | 2024-05-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110189334B (zh) | 基于注意力机制的残差型全卷积神经网络的医学图像分割方法 | |
CN110782462B (zh) | 一种基于双流特征融合的语义分割方法 | |
CN108681752B (zh) | 一种基于深度学习的图像场景标注方法 | |
CN109493346B (zh) | 一种基于多损失的胃癌病理切片图像分割方法和装置 | |
CN111401361B (zh) | 一种端到端的轻量级深度车牌识别方法 | |
CN116563265B (zh) | 基于多尺度注意力和自适应特征融合的心脏mri分割方法 | |
CN112365514A (zh) | 基于改进PSPNet的语义分割方法 | |
CN112348830B (zh) | 基于改进3D U-Net的多器官分割方法 | |
CN112164077B (zh) | 基于自下而上路径增强的细胞实例分割方法 | |
CN112365511B (zh) | 基于重叠区域检索与对齐的点云分割方法 | |
CN112330699B (zh) | 一种基于重叠区域对齐的三维点云分割方法 | |
CN112750129A (zh) | 一种基于特征增强位置注意力机制的图像语义分割模型 | |
CN115147426B (zh) | 基于半监督学习的模型训练与图像分割方法和系统 | |
CN116310339A (zh) | 基于矩阵分解增强全局特征的遥感图像分割方法 | |
CN116740119A (zh) | 一种基于深度学习的烟叶图像活动轮廓分割方法 | |
CN117078941A (zh) | 一种基于上下文级联注意力的心脏mri分割方法 | |
CN115908793A (zh) | 一种基于位置注意力机制的编解码结构语义分割模型 | |
CN117409014B (zh) | 一种基于特征选择的轻量级心脏mri分割方法 | |
CN117333497A (zh) | 一种基于掩码监督策略的高效建模的三维医学影像分割方法 | |
CN117422998A (zh) | 一种基于YOLOv5s改进的河道漂浮物识别算法 | |
CN117173120A (zh) | 一种芯片焊缝空洞缺陷检测方法及系统 | |
CN117274355A (zh) | 一种基于加速引导区域卷积神经网络和并行多尺度统一网络的排水管道流量智能测量方法 | |
CN116188882A (zh) | 融合自注意力和多路路径图卷积的点云上采样方法及系统 | |
CN115471718A (zh) | 基于多尺度学习的轻量级显著性目标检测模型的构建和检测方法 | |
CN114723043A (zh) | 基于超图模型谱聚类的卷积神经网络卷积核剪枝方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |