CN117409014B - 一种基于特征选择的轻量级心脏mri分割方法 - Google Patents

一种基于特征选择的轻量级心脏mri分割方法 Download PDF

Info

Publication number
CN117409014B
CN117409014B CN202311298305.0A CN202311298305A CN117409014B CN 117409014 B CN117409014 B CN 117409014B CN 202311298305 A CN202311298305 A CN 202311298305A CN 117409014 B CN117409014 B CN 117409014B
Authority
CN
China
Prior art keywords
layer
feature map
convolution
map
block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202311298305.0A
Other languages
English (en)
Other versions
CN117409014A (zh
Inventor
陈长芳
张云
舒明雷
刘照阳
孔祥龙
徐鹏摇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qilu University of Technology
Shandong Institute of Artificial Intelligence
Original Assignee
Qilu University of Technology
Shandong Institute of Artificial Intelligence
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qilu University of Technology, Shandong Institute of Artificial Intelligence filed Critical Qilu University of Technology
Priority to CN202311298305.0A priority Critical patent/CN117409014B/zh
Publication of CN117409014A publication Critical patent/CN117409014A/zh
Application granted granted Critical
Publication of CN117409014B publication Critical patent/CN117409014B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0455Auto-encoder networks; Encoder-decoder networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/771Feature selection, e.g. selecting representative features from a multi-dimensional feature space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30048Heart; Cardiac

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Quality & Reliability (AREA)
  • Radiology & Medical Imaging (AREA)
  • Error Detection And Correction (AREA)

Abstract

一种基于特征选择的轻量级心脏MRI分割方法,涉及图像分割技术领域,设计了轻量级模块注意力残差块和非对称卷积块,并构建轻量级心脏MRI分割网络模型,注意力残差块中的Ghost注意力块以GhostNet中的Ghost模块作为基础块,多尺度注意力块以深度可分离卷积作为基础块,并添加注意力机制,不仅可以减少特征的冗余,还能实现对目标区域的精确定位。特征选择模块可以从编码器和解码器自适应选择有效特征,增加边缘的权重,获得心脏结构的更多细节,加强浅层特征和深层特征之间的交互和融合,提高心脏MRI分割的精度。

Description

一种基于特征选择的轻量级心脏MRI分割方法
技术领域
本发明涉及图像分割技术领域,具体涉及一种基于特征选择的轻量级心脏MRI分割方法。
背景技术
基于传统方法和基于深度学习的方法是最常见的心脏MRI的分割方法。传统心脏MRI分割方法通常需要重要的特征工程或先验知识才能达到令人满意的精度,具有一定的依赖性和局限性。深度学习的方法擅长从海量数据中提取复杂的特征,并且是以端到端的方式直接从数据中学习特征,同时具有很强的可移植性。虽然深度学习的方法在心脏MRI分割时可以自主学习特征,但数据集较小时,容易存在训练不足,从而导致边缘分割模糊的问题。因此,需要考虑如何在有限的数据集上获得更高的分割精度。除此之外,心脏MRI分割过程中仍然存在目标类和背景类数据量高度不平衡等问题,如何通过更好的抑制不相关区域,来提高心脏MRI分割的准确性,也是心脏MRI分割中需要解决的问题。
发明内容
本发明为了克服以上技术的不足,提供了一种提高心脏MRI分割精度的方法。
本发明克服其技术问题所采用的技术方案是:
一种基于特征选择的轻量级心脏MRI分割方法,包括如下步骤:
a)选择N个心脏MRI图像,得到心脏MRI数据集A,A={A1,A2,...,Ai,...,AN},Ai为第i个心脏MRI图像,i∈{1,2,...,N};
b)对第i个心脏MRI图像Ai进行预处理,得到第i个预处理后的心脏MRI图像Bi,i∈{1,2,...,N},得到预处理后的数据集B,B={B1,B2,...,Bi,...,BN};
c)将预处理后的数据集B划分为训练集、验证集、测试集,将训练集中的各个预处理后的图像沿Z轴切片,得到X个切片图像,第i个切片图像为Fi,i∈{1,...,X};
d)建立分割网络模型,分割网络模型由编码器、解码器构成,将训练集中第i个切片图像Fi输入到分割网络模型的编码器中,输出得到特征图
e)将特征图输入到分割网络模型的解码器中,输出得到预测分割图像/>
f)训练分割网络模型,得到优化后的分割网络模型;
g)将测试集中的各个预处理后的图像沿Z轴切片,得到Y个切片图像,第j个切片图像为Fj,j∈{1,...,Y};
h)将第j个切片图像为Fj输入到优化后的分割网络模型中,输出得到预测分割图像
优选的,步骤a)中N=100。
进一步的,步骤b)包括如下步骤:
b-1)获取第i个心脏MRI图像Ai的Z轴方向的像素间距z,对第i个心脏MRI图像Ai和对应的真实标签进行spacing为(1.5,1.5,z),得到重采样后的图像;
b-2)将重采样后的图像沿Z轴切片,将切割的若干切片进行大小为224*224的剪裁,将剪裁后的各个切片堆叠恢复为第i个预处理后的心脏MRI图像Bi
优选的,步骤c)中将预处理后的数据集B按照6:2:2的比例划分为训练集、验证集、测试集。
进一步的,步骤d)包括如下步骤:
d-1)分割网络模型的编码器由第一卷积块、第一注意力残差块ARM、第一最大池化层、第二卷积块、第二注意力残差块ARM、第二最大池化层、第三卷积块、第三注意力残差块ARM、第三最大池化层、第四卷积块、第四注意力残差块ARM构成;
d-2)编码器的第一卷积块依次由卷积层、BatchNorm层、Relu激活函数层构成,将训练集中第i个切片图像Fi输入到第一卷积块中,输出得到特征图
d-3)编码器的第一注意力残差块ARM由Ghost注意力块、第一多尺度注意力块、第二多尺度注意力块、卷积块构成;Ghost注意力块由python中的torch.chunk()函数、第一Ghost模块、第二Ghost模块、第一通道混洗层、第三Ghost模块、第四Ghost模块、第二通道混洗层、sigmoid函数构成,第一Ghost模块、第二Ghost模块、第三Ghost模块、第四Ghost模块均为GhostNet网络中的Ghost模块,第一通道混洗层、第二通道混洗层均为Shuffle Net中的通道混洗模块,将特征图输入到torch.chunk()函数,输出得到特征图/>和特征图将特征图/>依次输入到第一Ghost模块、第二Ghost模块中,输出得到特征图将特征图/>与特征图/>进行拼接操作,得到特征图/>将特征图/>输入到第一通道混洗层中,输出得到特征图/>将特征图/>依次输入到第三Ghost模块、第四Ghost模块中,输出得到特征图/>将特征图/>与特征图/>进行拼接操作,得到特征图/>将特征图/>依次输入到第二通道混洗层、sigmoid函数中,输出得到注意力图/>将注意力图/>与特征图/>相乘得到特征图/>将特征图/>与特征图/>相加得到特征图/>第一多尺度注意力块依次由第一深度可分离卷积层、第二深度可分离卷积层、sigmoid函数构成,将特征图/>输入到第一多尺度注意力块中,输出得到注意力图/>将注意力图/>与特征图/>相乘得到特征图/>将特征图/>与特征图/>相加得到特征图/>第二多尺度注意力块依次由第一深度可分离卷积层、第二深度可分离卷积层、sigmoid函数构成,将特征图/>输入到第二多尺度注意力块中,输出得到注意力图/>将注意力图/>与特征图/>相乘得到特征图/>将特征图/>与特征图/>相加得到特征图/>将特征图/>特征图/>特征图/>进行拼接操作,得到特征图/>卷积块依次由卷积层、BatchNorm层、Relu激活函数层,将特征图输入到卷积块中,输出得到特征图/>将特征图/>与特征图/>相加得到特征图d-4)将特征图/>输入到编码器的第一最大池化层中,输出得到特征图/>d-5)编码器的第二卷积块依次由卷积层、BatchNorm层、Relu激活函数层构成,将特征图/>输入到第二卷积块中,输出得到特征图/>d-6)编码器的第二注意力残差块ARM由Ghost注意力块、第一多尺度注意力块、第二多尺度注意力块、卷积块构成;Ghost注意力块由python中的torch.chunk()函数、第一Ghost模块、第二Ghost模块、第一通道混洗层、第三Ghost模块、第四Ghost模块、第二通道混洗层、sigmoid函数构成,第一Ghost模块、第二Ghost模块、第三Ghost模块、第四Ghost模块均为GhostNet网络中的Ghost模块,第一通道混洗层、第二通道混洗层均为Shuffle Net中的通道混洗模块,将特征图/>输入到torch.chunk()函数,输出得到特征图/>和特征图/>将特征图/>依次输入到第一Ghost模块、第二Ghost模块中,输出得到特征图/>将特征图/>与特征图/>进行拼接操作,得到特征图将特征图/>输入到第一通道混洗层中,输出得到特征图/>将特征图/>依次输入到第三Ghost模块、第四Ghost模块中,输出得到特征图/>将特征图/>与特征图/>进行拼接操作,得到特征图/>将特征图/>依次输入到第二通道混洗层、sigmoid函数中,输出得到注意力图/>将注意力图/>与特征图/>相乘得到特征图将特征图/>与特征图/>相加得到特征图/>第一多尺度注意力块依次由第一深度可分离卷积层、第二深度可分离卷积层、sigmoid函数构成,将特征图/>输入到第一多尺度注意力块中,输出得到注意力图/>将注意力图/>与特征图/>相乘得到特征图/>将特征图/>与特征图/>相加得到特征图/>第二多尺度注意力块依次由第一深度可分离卷积层、第二深度可分离卷积层、sigmoid函数构成,将特征图/>输入到第二多尺度注意力块中,输出得到注意力图/>将注意力图/>与特征图/>相乘得到特征图/>将特征图/>与特征图/>相加得到特征图/>将特征图特征图/>特征图/>进行拼接操作,得到特征图/>卷积块依次由卷积层、BatchNorm层、Relu激活函数层,将特征图/>输入到卷积块中,输出得到特征图/>将特征图/>与特征图/>相加得到特征图/>d-7)将特征图/>输入到编码器的第二最大池化层中,输出得到特征图/>d-8)编码器的第三卷积块依次由卷积层、BatchNorm层、Relu激活函数层构成,将特征图/>输入到第三卷积块中,输出得到特征图/>d-9)编码器的第三注意力残差块ARM由Ghost注意力块、第一多尺度注意力块、第二多尺度注意力块、卷积块构成;Ghost注意力块由python中的torch.chunk()函数、第一Ghost模块、第二Ghost模块、第一通道混洗层、第三Ghost模块、第四Ghost模块、第二通道混洗层、sigmoid函数构成,第一Ghost模块、第二Ghost模块、第三Ghost模块、第四Ghost模块均为GhostNet网络中的Ghost模块,第一通道混洗层、第二通道混洗层均为Shuffle Net中的通道混洗模块,将特征图/>输入到torch.chunk()函数,输出得到特征图/>和特征图/>将特征图依次输入到第一Ghost模块、第二Ghost模块中,输出得到特征图/>将特征图/>与特征图/>进行拼接操作,得到特征图/>将特征图/>输入到第一通道混洗层中,输出得到特征图/>将特征图/>依次输入到第三Ghost模块、第四Ghost模块中,输出得到特征图/>将特征图/>与特征图/>进行拼接操作,得到特征图/>将特征图/>依次输入到第二通道混洗层、sigmoid函数中,输出得到注意力图/>将注意力图/>与特征图/>相乘得到特征图/>将特征图/>与特征图/>相加得到特征图/>第一多尺度注意力块依次由第一深度可分离卷积层、第二深度可分离卷积层、sigmoid函数构成,将特征图/>输入到第一多尺度注意力块中,输出得到注意力图将注意力图/>与特征图/>相乘得到特征图/>将特征图/>与特征图/>相加得到特征图/>第二多尺度注意力块依次由第一深度可分离卷积层、第二深度可分离卷积层、sigmoid函数构成,将特征图/>输入到第二多尺度注意力块中,输出得到注意力图/>将注意力图/>与特征图/>相乘得到特征图/>将特征图/>与特征图/>相加得到特征图/>将特征图/>特征图/>特征图/>进行拼接操作,得到特征图/>卷积块依次由卷积层、BatchNorm层、Relu激活函数层,将特征图/>输入到卷积块中,输出得到特征图/>将特征图/>与特征图/>相加得到特征图/>d-10)将特征图/>输入到编码器的第三最大池化层中,输出得到特征图/>d-11)编码器的第四卷积块依次由卷积层、BatchNorm层、Relu激活函数层构成,将特征图/>输入到第四卷积块中,输出得到特征图/>d-12)编码器的第四注意力残差块ARM由Ghost注意力块、第一多尺度注意力块、第二多尺度注意力块、卷积块构成;Ghost注意力块由python中的torch.chunk()函数、第一Ghost模块、第二Ghost模块、第一通道混洗层、第三Ghost模块、第四Ghost模块、第二通道混洗层、sigmoid函数构成,第一Ghost模块、第二Ghost模块、第三Ghost模块、第四Ghost模块均为GhostNet网络中的Ghost模块,第一通道混洗层、第二通道混洗层均为Shuffle Net中的通道混洗模块,将特征图/>输入到torch.chunk()函数,输出得到特征图/>和特征图/>将特征图/>依次输入到第一Ghost模块、第二Ghost模块中,输出得到特征图/>将特征图/>与特征图/>进行拼接操作,得到特征图将特征图/>输入到第一通道混洗层中,输出得到特征图/>将特征图/>依次输入到第三Ghost模块、第四Ghost模块中,输出得到特征图/>将特征图/>与特征图/>进行拼接操作,得到特征图/>将特征图/>依次输入到第二通道混洗层、sigmoid函数中,输出得到注意力图/>将注意力图/>与特征图/>相乘得到特征图/>将特征图/>与特征图/>相加得到特征图/>第一多尺度注意力块依次由第一深度可分离卷积层、第二深度可分离卷积层、sigmoid函数构成,将特征图/>输入到第一多尺度注意力块中,输出得到注意力图/>将注意力图/>与特征图/>相乘得到特征图/>将特征图/>与特征图/>相加得到特征图/>第二多尺度注意力块依次由第一深度可分离卷积层、第二深度可分离卷积层、sigmoid函数构成,将特征图/>输入到第二多尺度注意力块中,输出得到注意力图/>将注意力图/>与特征图相乘得到特征图/>将特征图/>与特征图/>相加得到特征图/>将特征图/>特征图/>特征图/>进行拼接操作,得到特征图/>卷积块依次由卷积层、BatchNorm层、Relu激活函数层,将特征图/>输入到卷积块中,输出得到特征图将特征图/>与特征图/>相加得到特征图/>优选的,步骤d-2)中第一卷积块的卷积层的卷积核大小为3×3、填充为1、步长为1;步骤d-3)中第一多尺度注意力块的第一深度可分离卷积层的卷积核大小为3×3、膨胀率为2,第一多尺度注意力块的第二深度可分离卷积层的卷积核大小为3×3、膨胀率为4,第二多尺度注意力块的第一深度可分离卷积层的卷积核大小为3×3、膨胀率为2,第二多尺度注意力块的第二深度可分离卷积层的卷积核大小为3×3、膨胀率为4,卷积块的卷积层的卷积核大小为1×1、步长为1、填充为0;步骤d-5)中第二卷积块的卷积层的卷积核大小为3×3、填充为1、步长为1;步骤d-6)中第一多尺度注意力块的第一深度可分离卷积层的卷积核大小为3×3、膨胀率为2,第一多尺度注意力块的第二深度可分离卷积层的卷积核大小为3×3、膨胀率为4,第二多尺度注意力块的第一深度可分离卷积层的卷积核大小为3×3、膨胀率为2,第二多尺度注意力块的第二深度可分离卷积层的卷积核大小为3×3、膨胀率为4,卷积块的卷积层的卷积核大小为1×1、步长为1、填充为0;步骤d-8)中第三卷积块的卷积层的卷积核大小为3×3、填充为1、步长为1;步骤d-9)中第一多尺度注意力块的第一深度可分离卷积层的卷积核大小为3×3、膨胀率为2,第一多尺度注意力块的第二深度可分离卷积层的卷积核大小为3×3、膨胀率为4,第二多尺度注意力块的第一深度可分离卷积层的卷积核大小为3×3、膨胀率为2,第二多尺度注意力块的第二深度可分离卷积层的卷积核大小为3×3、膨胀率为4,卷积块的卷积层的卷积核大小为1×1、步长为1、填充为0;步骤d-11)中第四卷积块的卷积层的卷积核大小为3×3、填充为1、步长为1;d-12)中第一多尺度注意力块的第一深度可分离卷积层的卷积核大小为3×3、膨胀率为2,第一多尺度注意力块的第二深度可分离卷积层的卷积核大小为3×3、膨胀率为4,第二多尺度注意力块的第一深度可分离卷积层的卷积核大小为3×3、膨胀率为2,第二多尺度注意力块的第二深度可分离卷积层的卷积核大小为3×3、膨胀率为4,卷积块的卷积层的卷积核大小为1×1、步长为1、填充为0。
进一步的,步骤e)包括如下步骤:
e-1)分割网络模型的解码器由第一上采样层、第一特征选择模块FS1、第一非对称卷积块、第二上采样层、第二特征选择模块FS2、第二非对称卷积块、第三上采样层、第三特征选择模块FS3、第三非对称卷积块、卷积层构成;
e-2)将特征图输入到解码器的第一上采样层中,输出得到特征图/>e-3)解码器的第一特征选择模块FS1由全局平均池化层、第一全连接层、第二全连接层、softmax函数、第一膨胀卷积层、第二膨胀卷积层、第三膨胀卷积层构成,将特征图/>依次输入到全局平均池化层、第一全连接层、第二全连接层、softmax函数中,输出得到注意力图/>和注意力图/>将注意力图/>与特征图/>相乘得到特征图/>将特征图/>与特征图/>进行拼接操作,得到特征图/>将特征图/>依次输入到第一膨胀卷积层、第二膨胀卷积层、第三膨胀卷积层中,输出得到特征图/>将注意力图/>与特征图/>相乘得到特征图/>将特征图/>特征图/>特征图/>相加得到特征图/>
e-4)将特征图与特征图/>进行拼接操作,得到特征图/>e-5)解码器的第一非对称卷积块依次由第一卷积层、第一BatchNorm层、第一Relu激活函数、第二卷积层、第三卷积层、第二BatchNorm层、第二Relu激活函数构成,将特征图/>输入到第一非对称卷积块中,输出得到特征图/>e-6)将特征图/>输入到解码器的第二上采样层中,输出得到特征图/>e-7)解码器的第二特征选择模块FS2由全局平均池化层、第一全连接层、第二全连接层、softmax函数、第一膨胀卷积层、第二膨胀卷积层、第三膨胀卷积层构成,将特征图依次输入到全局平均池化层、第一全连接层、第二全连接层、softmax函数中,输出得到注意力图/>和注意力图/>将注意力图/>与特征图/>相乘得到特征图/>将特征图/>与特征图/>进行拼接操作,得到特征图/>将特征图/>依次输入到第一膨胀卷积层、第二膨胀卷积层、第三膨胀卷积层中,输出得到特征图/>将注意力图与特征图/>相乘得到特征图/>将特征图/>特征图/>特征图/>相加得到特征图/>
e-8)将特征图与特征图/>进行拼接操作,得到特征图/>e-9)解码器的第二非对称卷积块依次由第一卷积层、第一BatchNorm层、第一Relu激活函数、第二卷积层、第三卷积层、第二BatchNorm层、第二Relu激活函数构成,将特征图/>输入到第二非对称卷积块中,输出得到特征图/>e-10)将特征图/>输入到解码器的第三上采样层中,输出得到特征图/>e-11)解码器的第三特征选择模块FS3由全局平均池化层、第一全连接层、第二全连接层、softmax函数、第一膨胀卷积层、第二膨胀卷积层、第三膨胀卷积层构成,将特征图/>依次输入到全局平均池化层、第一全连接层、第二全连接层、softmax函数中,输出得到注意力图/>和注意力图/>将注意力图/>与特征图/>相乘得到特征图/>将特征图/>与特征图/>进行拼接操作,得到特征图/>将特征图/>依次输入到第一膨胀卷积层、第二膨胀卷积层、第三膨胀卷积层中,输出得到特征图/>将注意力图与特征图/>相乘得到特征图/>将特征图/>特征图/>特征图/>相加得到特征图/>
e-12)将特征图与特征图/>进行拼接操作,得到特征图/>e-13)解码器的第三非对称卷积块依次由第一卷积层、第一BatchNorm层、第一Relu激活函数、第二卷积层、第三卷积层、第二BatchNorm层、第二Relu激活函数构成,将特征图/>输入到第三非对称卷积块中,输出得到特征图/>e-14)将特征图/>输入到解码器的卷积层中,输出得到预测分割图像/>优选的,步骤e-3)中第一特征选择模块FS1的第一膨胀卷积层的卷积核大小为3×3,膨胀率为1,第二膨胀卷积层的卷积核大小为3×3,膨胀率为3,第三膨胀卷积层的卷积核大小为3×3,膨胀率为5;步骤e-5)中第一非对称卷积块的第一卷积层的卷积核大小为3×3、步长为1、填充为1,第二卷积层的卷积核大小为3×1、步长为1、填充为(1,0),第三卷积层的卷积核大小为1×3、步长为1、填充为(0,1);步骤e-7)中第二特征选择模块FS2的第一膨胀卷积层的卷积核大小为3×3,膨胀率为1,第二膨胀卷积层的卷积核大小为3×3,膨胀率为3,第三膨胀卷积层的卷积核大小为3×3,膨胀率为5;步骤e-9)中第二非对称卷积块的第一卷积层的卷积核大小为3×3、步长为1、填充为1,第二卷积层的卷积核大小为3×1、步长为1、填充为(1,0),第三卷积层的卷积核大小为1×3、步长为1、填充为(0,1);步骤e-11)中第三特征选择模块FS3的第一膨胀卷积层的卷积核大小为3×3,膨胀率为1,第二膨胀卷积层的卷积核大小为3×3,膨胀率为3,第三膨胀卷积层的卷积核大小为3×3,膨胀率为5;步骤e-13)中第三非对称卷积块的第一卷积层的卷积核大小为3×3、步长为1、填充为1,第二卷积层的卷积核大小为3×1、步长为1、填充为(1,0),第三卷积层的卷积核大小为1×3、步长为1、填充为(0,1);步骤e-14)中解码器的卷积层的卷积核大小为1×1、步长为1、填充为0。
进一步的,步骤f)中利用Dice损失通过Adam优化算法训练分割网络模型,得到优化后的分割网络模型。
优选的,训练分割网络模型时学习率设置为0.001、批次大小设置为16、迭代次数设置为200。
本发明的有益效果是:设计了轻量级模块注意力残差块和非对称卷积块,并构建轻量级心脏MRI分割网络模型,注意力残差块中的Ghost注意力块以GhostNet中的Ghost模块作为基础块,多尺度注意力块以深度可分离卷积作为基础块,并添加注意力机制,不仅可以减少特征的冗余,还能实现对目标区域的精确定位。在非对称卷积块中部分3×3卷积使用3×1和1×3的卷积代替,通过更少的参数来实现与对称卷积相同的效果,提高了计算效率。特征选择模块可以从编码器和解码器自适应选择有效特征,增加边缘的权重,获得心脏结构的更多细节,加强浅层特征和深层特征之间的交互和融合,提高心脏MRI分割的精度。
附图说明
图1为本发明的分割网络模型的结构图;
图2为本发明的注意力残差块ARM的结构图;
图3为本发明的特征选择模块FS的结构图。
具体实施方式
下面结合附图1、附图2、附图3对本发明做进一步说明。
一种基于特征选择的轻量级心脏MRI分割方法,包括如下步骤:
a)选择N个心脏MRI图像,得到心脏MRI数据集A,A={A1,A2,...,Ai,...,AN},Ai为第i个心脏MRI图像,i∈{1,2,...,N}。
b)对第i个心脏MRI图像Ai进行预处理,得到第i个预处理后的心脏MRI图像Bi,i∈{1,2,...,N},得到预处理后的数据集B,B={B1,B2,...,Bi,...,BN}。
c)将预处理后的数据集B划分为训练集、验证集、测试集,将训练集中的各个预处理后的图像沿Z轴切片,得到X个切片图像,第i个切片图像为Fi,i∈{1,...,X}。
d)建立分割网络模型,分割网络模型由编码器、解码器构成,将训练集中第i个切片图像Fi输入到分割网络模型的编码器中,输出得到特征图
e)将特征图输入到分割网络模型的解码器中,输出得到预测分割图像/>
f)训练分割网络模型,得到优化后的分割网络模型。
g)将测试集中的各个预处理后的图像沿Z轴切片,得到Y个切片图像,第j个切片图像为Fj,j∈{1,...,Y}。
h)将第j个切片图像为Fj输入到优化后的分割网络模型中,输出得到预测分割图像
设计了轻量级模块注意力残差块和非对称卷积块,并构建轻量级心脏MRI分割网络模型,注意力残差块中的Ghost注意力块以GhostNet中的Ghost模块作为基础块,多尺度注意力块以深度可分离卷积作为基础块,并添加注意力机制,不仅可以减少特征的冗余,还能实现对目标区域的精确定位。
在本发明的一个实施例中,步骤a)中N=100。
在本发明的一个实施例中,步骤b)包括如下步骤:
b-1)获取第i个心脏MRI图像Ai的Z轴方向的像素间距z,对第i个心脏MRI图像Ai和对应的真实标签进行spacing为(1.5,1.5,z),得到重采样后的图像。
b-2)将重采样后的图像沿Z轴切片,将切割的若干切片进行大小为224*224的剪裁,将剪裁后的各个切片堆叠恢复为第i个预处理后的心脏MRI图像Bi
在本发明的一个实施例中,优选的,步骤c)中将预处理后的数据集B按照6:2:2的比例划分为训练集、验证集、测试集。
在本发明的一个实施例中,步骤d)包括如下步骤:
d-1)分割网络模型的编码器由第一卷积块、第一注意力残差块ARM、第一最大池化层、第二卷积块、第二注意力残差块ARM、第二最大池化层、第三卷积块、第三注意力残差块ARM、第三最大池化层、第四卷积块、第四注意力残差块ARM构成。
d-2)编码器的第一卷积块依次由卷积层、BatchNorm层、Relu激活函数层构成,将训练集中第i个切片图像Fi输入到第一卷积块中,输出得到特征图
d-3)编码器的第一注意力残差块ARM由Ghost注意力块、第一多尺度注意力块、第二多尺度注意力块、卷积块构成;Ghost注意力块由python中的torch.chunk()函数、第一Ghost模块、第二Ghost模块、第一通道混洗层、第三Ghost模块、第四Ghost模块、第二通道混洗层、sigmoid函数构成,第一Ghost模块、第二Ghost模块、第三Ghost模块、第四Ghost模块均为GhostNet网络中的Ghost模块,第一通道混洗层、第二通道混洗层均为Shuffle Net中的通道混洗模块,将特征图输入到torch.chunk()函数,输出得到特征图/>和特征图将特征图/>依次输入到第一Ghost模块、第二Ghost模块中,输出得到特征图将特征图/>与特征图/>进行拼接操作,得到特征图/>将特征图/>输入到第一通道混洗层中,输出得到特征图/>将特征图/>依次输入到第三Ghost模块、第四Ghost模块中,输出得到特征图Fg 1-6,将特征图/>与特征图/>进行拼接操作,得到特征图/>将特征图/>依次输入到第二通道混洗层、sigmoid函数中,输出得到注意力图/>将注意力图/>与特征图/>相乘得到特征图/>将特征图/>与特征图相加得到特征图/>第一多尺度注意力块依次由第一深度可分离卷积层、第二深度可分离卷积层、sigmoid函数构成,将特征图/>输入到第一多尺度注意力块中,输出得到注意力图/>将注意力图/>与特征图/>相乘得到特征图/>将特征图/>与特征图/>相加得到特征图/>第二多尺度注意力块依次由第一深度可分离卷积层、第二深度可分离卷积层、sigmoid函数构成,将特征图/>输入到第二多尺度注意力块中,输出得到注意力图/>将注意力图/>与特征图/>相乘得到特征图/>将特征图与特征图/>相加得到特征图/>将特征图/>特征图/>特征图/>进行拼接操作,得到特征图/>卷积块依次由卷积层、BatchNorm层、Relu激活函数层,将特征图/>输入到卷积块中,输出得到特征图/>将特征图/>与特征图/>相加得到特征图/>d-4)将特征图/>输入到编码器的第一最大池化层中,输出得到特征图/>d-5)编码器的第二卷积块依次由卷积层、BatchNorm层、Relu激活函数层构成,将特征图/>输入到第二卷积块中,输出得到特征图/>d-6)编码器的第二注意力残差块ARM由Ghost注意力块、第一多尺度注意力块、第二多尺度注意力块、卷积块构成;Ghost注意力块由python中的torch.chunk()函数、第一Ghost模块、第二Ghost模块、第一通道混洗层、第三Ghost模块、第四Ghost模块、第二通道混洗层、sigmoid函数构成,第一Ghost模块、第二Ghost模块、第三Ghost模块、第四Ghost模块均为GhostNet网络中的Ghost模块,第一通道混洗层、第二通道混洗层均为Shuffle Net中的通道混洗模块,将特征图/>输入到torch.chunk()函数,输出得到特征图/>和特征图/>将特征图/>依次输入到第一Ghost模块、第二Ghost模块中,输出得到特征图/>将特征图/>与特征图/>进行拼接操作,得到特征图/>将特征图/>输入到第一通道混洗层中,输出得到特征图/>将特征图依次输入到第三Ghost模块、第四Ghost模块中,输出得到特征图/>将特征图与特征图/>进行拼接操作,得到特征图/>将特征图/>依次输入到第二通道混洗层、sigmoid函数中,输出得到注意力图/>,将注意力图/>与特征图/>相乘得到特征图/>将特征图/>与特征图/>相加得到特征图/>第一多尺度注意力块依次由第一深度可分离卷积层、第二深度可分离卷积层、sigmoid函数构成,将特征图输入到第一多尺度注意力块中,输出得到注意力图/>将注意力图/>与特征图/>相乘得到特征图/>将特征图/>与特征图/>相加得到特征图/>第二多尺度注意力块依次由第一深度可分离卷积层、第二深度可分离卷积层、sigmoid函数构成,将特征图/>输入到第二多尺度注意力块中,输出得到注意力图/>将注意力图/>与特征图/> 2相乘得到特征图/>将特征图/>与特征图/>相加得到特征图/>将特征图/>特征图/>特征图/>进行拼接操作,得到特征图/>卷积块依次由卷积层、BatchNorm层、Relu激活函数层,将特征图/>输入到卷积块中,输出得到特征图/>将特征图/>与特征图/>相加得到特征图/>d-7)将特征图/>输入到编码器的第二最大池化层中,输出得到特征图/>d-8)编码器的第三卷积块依次由卷积层、BatchNorm层、Relu激活函数层构成,将特征图/>输入到第三卷积块中,输出得到特征图d-9)编码器的第三注意力残差块ARM由Ghost注意力块、第一多尺度注意力块、第二多尺度注意力块、卷积块构成;Ghost注意力块由python中的torch.chunk()函数、第一Ghost模块、第二Ghost模块、第一通道混洗层、第三Ghost模块、第四Ghost模块、第二通道混洗层、sigmoid函数构成,第一Ghost模块、第二Ghost模块、第三Ghost模块、第四Ghost模块均为GhostNet网络中的Ghost模块,第一通道混洗层、第二通道混洗层均为Shuffle Net中的通道混洗模块,将特征图/>输入到torch.chunk()函数,输出得到特征图/>和特征图将特征图/>依次输入到第一Ghost模块、第二Ghost模块中,输出得到特征图将特征图/>与特征图/>进行拼接操作,得到特征图/>将特征图/>输入到第一通道混洗层中,输出得到特征图/>将特征图/>依次输入到第三Ghost模块、第四Ghost模块中,输出得到特征图/>将特征图/>与特征图/>进行拼接操作,得到特征图/>将特征图/>依次输入到第二通道混洗层、sigmoid函数中,输出得到注意力图/>将注意力图/>与特征图/>相乘得到特征图/>将特征图/>与特征图/>相加得到特征图/>第一多尺度注意力块依次由第一深度可分离卷积层、第二深度可分离卷积层、sigmoid函数构成,将特征图/>输入到第一多尺度注意力块中,输出得到注意力图/>将注意力图/>与特征图/>相乘得到特征图/>将特征图与特征图/>相加得到特征图/>第二多尺度注意力块依次由第一深度可分离卷积层、第二深度可分离卷积层、sigmoid函数构成,将特征图/>输入到第二多尺度注意力块中,输出得到注意力图/>将注意力图/>与特征图/>相乘得到特征图/>将特征图/>与特征图/>相加得到特征图/>将特征图/>特征图/>特征图/>进行拼接操作,得到特征图/>卷积块依次由卷积层、BatchNorm层、Relu激活函数层,将特征图/>输入到卷积块中,输出得到特征图/>将特征图/>与特征图/>相加得到特征图/>d-10)将特征图/>输入到编码器的第三最大池化层中,输出得到特征图/>d-11)编码器的第四卷积块依次由卷积层、BatchNorm层、Relu激活函数层构成,将特征图/>输入到第四卷积块中,输出得到特征图/>d-12)编码器的第四注意力残差块ARM由Ghost注意力块、第一多尺度注意力块、第二多尺度注意力块、卷积块构成;Ghost注意力块由python中的torch.chunk()函数、第一Ghost模块、第二Ghost模块、第一通道混洗层、第三Ghost模块、第四Ghost模块、第二通道混洗层、sigmoid函数构成,第一Ghost模块、第二Ghost模块、第三Ghost模块、第四Ghost模块均为GhostNet网络中的Ghost模块,第一通道混洗层、第二通道混洗层均为Shuffle Net中的通道混洗模块,将特征图/>输入到torch.chunk()函数,输出得到特征图/>和特征图/>将特征图/>依次输入到第一Ghost模块、第二Ghost模块中,输出得到特征图/>将特征图/>与特征图/>进行拼接操作,得到特征图/>将特征图/>输入到第一通道混洗层中,输出得到特征图将特征图/>依次输入到第三Ghost模块、第四Ghost模块中,输出得到特征图将特征图/>与特征图/>进行拼接操作,得到特征图/>将特征图/>依次输入到第二通道混洗层、sigmoid函数中,输出得到注意力图/>将注意力图/>与特征图/>相乘得到特征图/>将特征图/>与特征图/>相加得到特征图/>第一多尺度注意力块依次由第一深度可分离卷积层、第二深度可分离卷积层、sigmoid函数构成,将特征图/>输入到第一多尺度注意力块中,输出得到注意力图/>将注意力图与特征图/>相乘得到特征图/>将特征图/>与特征图/>相加得到特征图第二多尺度注意力块依次由第一深度可分离卷积层、第二深度可分离卷积层、sigmoid函数构成,将特征图/>输入到第二多尺度注意力块中,输出得到注意力图将注意力图/>与特征图/>相乘得到特征图/>将特征图/>与特征图相加得到特征图/>将特征图/>特征图/>特征图/>进行拼接操作,得到特征图/>卷积块依次由卷积层、BatchNorm层、Relu激活函数层,将特征图/>输入到卷积块中,输出得到特征图/>将特征图/>与特征图/>相加得到特征图/>在该实施例中,优选的,步骤d-2)中第一卷积块的卷积层的卷积核大小为3×3、填充为1、步长为1;步骤d-3)中第一多尺度注意力块的第一深度可分离卷积层的卷积核大小为3×3、膨胀率为2,第一多尺度注意力块的第二深度可分离卷积层的卷积核大小为3×3、膨胀率为4,第二多尺度注意力块的第一深度可分离卷积层的卷积核大小为3×3、膨胀率为2,第二多尺度注意力块的第二深度可分离卷积层的卷积核大小为3×3、膨胀率为4,卷积块的卷积层的卷积核大小为1×1、步长为1、填充为0;步骤d-5)中第二卷积块的卷积层的卷积核大小为3×3、填充为1、步长为1;步骤d-6)中第一多尺度注意力块的第一深度可分离卷积层的卷积核大小为3×3、膨胀率为2,第一多尺度注意力块的第二深度可分离卷积层的卷积核大小为3×3、膨胀率为4,第二多尺度注意力块的第一深度可分离卷积层的卷积核大小为3×3、膨胀率为2,第二多尺度注意力块的第二深度可分离卷积层的卷积核大小为3×3、膨胀率为4,卷积块的卷积层的卷积核大小为1×1、步长为1、填充为0;步骤d-8)中第三卷积块的卷积层的卷积核大小为3×3、填充为1、步长为1;步骤d-9)中第一多尺度注意力块的第一深度可分离卷积层的卷积核大小为3×3、膨胀率为2,第一多尺度注意力块的第二深度可分离卷积层的卷积核大小为3×3、膨胀率为4,第二多尺度注意力块的第一深度可分离卷积层的卷积核大小为3×3、膨胀率为2,第二多尺度注意力块的第二深度可分离卷积层的卷积核大小为3×3、膨胀率为4,卷积块的卷积层的卷积核大小为1×1、步长为1、填充为0;步骤d-11)中第四卷积块的卷积层的卷积核大小为3×3、填充为1、步长为1;d-12)中第一多尺度注意力块的第一深度可分离卷积层的卷积核大小为3×3、膨胀率为2,第一多尺度注意力块的第二深度可分离卷积层的卷积核大小为3×3、膨胀率为4,第二多尺度注意力块的第一深度可分离卷积层的卷积核大小为3×3、膨胀率为2,第二多尺度注意力块的第二深度可分离卷积层的卷积核大小为3×3、膨胀率为4,卷积块的卷积层的卷积核大小为1×1、步长为1、填充为0。
在本发明的一个实施例中,步骤e)包括如下步骤:
e-1)分割网络模型的解码器由第一上采样层、第一特征选择模块FS1、第一非对称卷积块、第二上采样层、第二特征选择模块FS2、第二非对称卷积块、第三上采样层、第三特征选择模块FS3、第三非对称卷积块、卷积层构成。
e-2)将特征图输入到解码器的第一上采样层中,输出得到特征图/>e-3)解码器的第一特征选择模块FS1由全局平均池化层、第一全连接层、第二全连接层、softmax函数、第一膨胀卷积层、第二膨胀卷积层、第三膨胀卷积层构成,将特征图/>依次输入到全局平均池化层、第一全连接层、第二全连接层、softmax函数中,输出得到注意力图/>和注意力图/>将注意力图/>与特征图/>相乘得到特征图/>将特征图/>与特征图进行拼接操作,得到特征图/>将特征图/>依次输入到第一膨胀卷积层、第二膨胀卷积层、第三膨胀卷积层中,输出得到特征图/>将注意力图/>与特征图/>相乘得到特征图/>将特征图/>特征图/>特征图/>相加得到特征图/>
e-4)将特征图与特征图/>进行拼接操作,得到特征图/>e-5)解码器的第一非对称卷积块依次由第一卷积层、第一BatchNorm层、第一Relu激活函数、第二卷积层、第三卷积层、第二BatchNorm层、第二Relu激活函数构成,将特征图/>输入到第一非对称卷积块中,输出得到特征图/>e-6)将特征图/>输入到解码器的第二上采样层中,输出得到特征图/>e-7)解码器的第二特征选择模块FS2由全局平均池化层、第一全连接层、第二全连接层、softmax函数、第一膨胀卷积层、第二膨胀卷积层、第三膨胀卷积层构成,将特征图/>依次输入到全局平均池化层、第一全连接层、第二全连接层、softmax函数中,输出得到注意力图/>和注意力图/>将注意力图/>与特征图/>相乘得到特征图/>将特征图/>与特征图/>进行拼接操作,得到特征图/>将特征图/>依次输入到第一膨胀卷积层、第二膨胀卷积层、第三膨胀卷积层中,输出得到特征图/>将注意力图与特征图/>相乘得到特征图/>将特征图/>特征图/>特征图/>相加得到特征图/>
e-8)将特征图与特征图/>进行拼接操作,得到特征图/>e-9)解码器的第二非对称卷积块依次由第一卷积层、第一BatchNorm层、第一Relu激活函数、第二卷积层、第三卷积层、第二BatchNorm层、第二Relu激活函数构成,将特征图/>输入到第二非对称卷积块中,输出得到特征图/>e-10)将特征图/>输入到解码器的第三上采样层中,输出得到特征图/>e-11)解码器的第三特征选择模块FS3由全局平均池化层、第一全连接层、第二全连接层、softmax函数、第一膨胀卷积层、第二膨胀卷积层、第三膨胀卷积层构成,将特征图/>依次输入到全局平均池化层、第一全连接层、第二全连接层、softmax函数中,输出得到注意力图/>和注意力图/>将注意力图/>与特征图/>相乘得到特征图/>将特征图/>与特征图/>进行拼接操作,得到特征图/>将特征图/>依次输入到第一膨胀卷积层、第二膨胀卷积层、第三膨胀卷积层中,输出得到特征图/>将注意力图与特征图/>相乘得到特征图/>将特征图/>特征图/>特征图/>相加得到特征图/>
e-12)将特征图与特征图/>进行拼接操作,得到特征图Dc3。
e-13)解码器的第三非对称卷积块依次由第一卷积层、第一BatchNorm层、第一Relu激活函数、第二卷积层、第三卷积层、第二BatchNorm层、第二Relu激活函数构成,将特征图输入到第三非对称卷积块中,输出得到特征图/>
e-14)将特征图输入到解码器的卷积层中,输出得到预测分割图像/>在该实施例中,优选的,步骤e-3)中第一特征选择模块FS1的第一膨胀卷积层的卷积核大小为3×3,膨胀率为1,第二膨胀卷积层的卷积核大小为3×3,膨胀率为3,第三膨胀卷积层的卷积核大小为3×3,膨胀率为5;步骤e-5)中第一非对称卷积块的第一卷积层的卷积核大小为3×3、步长为1、填充为1,第二卷积层的卷积核大小为3×1、步长为1、填充为(1,0),第三卷积层的卷积核大小为1×3、步长为1、填充为(0,1);步骤e-7)中第二特征选择模块FS2的第一膨胀卷积层的卷积核大小为3×3,膨胀率为1,第二膨胀卷积层的卷积核大小为3×3,膨胀率为3,第三膨胀卷积层的卷积核大小为3×3,膨胀率为5;步骤e-9)中第二非对称卷积块的第一卷积层的卷积核大小为3×3、步长为1、填充为1,第二卷积层的卷积核大小为3×1、步长为1、填充为(1,0),第三卷积层的卷积核大小为1×3、步长为1、填充为(0,1);步骤e-11)中第三特征选择模块FS3的第一膨胀卷积层的卷积核大小为3×3,膨胀率为1,第二膨胀卷积层的卷积核大小为3×3,膨胀率为3,第三膨胀卷积层的卷积核大小为3×3,膨胀率为5;步骤e-13)中第三非对称卷积块的第一卷积层的卷积核大小为3×3、步长为1、填充为1,第二卷积层的卷积核大小为3×1、步长为1、填充为(1,0),第三卷积层的卷积核大小为1×3、步长为1、填充为(0,1);步骤e-14)中解码器的卷积层的卷积核大小为1×1、步长为1、填充为0。
在本发明的一个实施例中,步骤f)中利用Dice损失通过Adam优化算法训练分割网络模型,得到优化后的分割网络模型。
在该实施例中,优选的,训练分割网络模型时学习率设置为0.001、批次大小设置为16、迭代次数设置为200。
最后应说明的是:以上所述仅为本发明的优选实施例而已,并不用于限制本发明,尽管参照前述实施例对本发明进行了详细的说明,对于本领域的技术人员来说,其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (9)

1.一种基于特征选择的轻量级心脏MRI分割方法,其特征在于,包括如下步骤:
a)选择N个心脏MRI图像,得到心脏MRI数据集A,A={A1,A2,...,Ai,...,AN},Ai为第i个心脏MRI图像,i∈{1,2,...,N};
b)对第i个心脏MRI图像Ai进行预处理,得到第i个预处理后的心脏MRI图像Bi,i∈{1,2,...,N},得到预处理后的数据集B,B={B1,B2,...,Bi,...,BN};
c)将预处理后的数据集B划分为训练集、验证集、测试集,将训练集中的各个预处理后的图像沿Z轴切片,得到X个切片图像,第i个切片图像为Fi,i∈{1,...,X};
d)建立分割网络模型,分割网络模型由编码器、解码器构成,将训练集中第i个切片图像Fi输入到分割网络模型的编码器中,输出得到特征图
e)将特征图输入到分割网络模型的解码器中,输出得到预测分割图像/>
f)训练分割网络模型,得到优化后的分割网络模型;
g)将测试集中的各个预处理后的图像沿Z轴切片,得到Y个切片图像,第j个切片图像为Fj,j∈{1,...,Y};
h)将第j个切片图像为Fj输入到优化后的分割网络模型中,输出得到预测分割图像
步骤d)包括如下步骤:
d-1)分割网络模型的编码器由第一卷积块、第一注意力残差块ARM、第一最大池化层、第二卷积块、第二注意力残差块ARM、第二最大池化层、第三卷积块、第三注意力残差块ARM、第三最大池化层、第四卷积块、第四注意力残差块ARM构成;
d-2)编码器的第一卷积块依次由卷积层、BatchNorm层、Relu激活函数层构成,将训练集中第i个切片图像Fi输入到第一卷积块中,输出得到特征图
d-3)编码器的第一注意力残差块ARM由Ghost注意力块、第一多尺度注意力块、第二多尺度注意力块、卷积块构成;Ghost注意力块由python中的torch.chunk()函数、第一Ghost模块、第二Ghost模块、第一通道混洗层、第三Ghost模块、第四Ghost模块、第二通道混洗层、sigmoid函数构成,第一Ghost模块、第二Ghost模块、第三Ghost模块、第四Ghost模块均为GhostNet网络中的Ghost模块,第一通道混洗层、第二通道混洗层均为Shuffle Net中的通道混洗模块,将特征图输入到torch.chunk()函数,输出得到特征图/>和特征图将特征图/>依次输入到第一Ghost模块、第二Ghost模块中,输出得到特征图将特征图/>与特征图/>进行拼接操作,得到特征图/>将特征图/>输入到第一通道混洗层中,输出得到特征图/>将特征图/>依次输入到第三Ghost模块、第四Ghost模块中,输出得到特征图/>将特征图/>与特征图/>进行拼接操作,得到特征图/>将特征图/>依次输入到第二通道混洗层、sigmoid函数中,输出得到注意力图/>将注意力图/>与特征图/>相乘得到特征图/>将特征图/>与特征图/>相加得到特征图/>第一多尺度注意力块依次由第一深度可分离卷积层、第二深度可分离卷积层、sigmoid函数构成,将特征图/>输入到第一多尺度注意力块中,输出得到注意力图/>将注意力图/>与特征图/>相乘得到特征图/>将特征图/>与特征图/>相加得到特征图/>第二多尺度注意力块依次由第一深度可分离卷积层、第二深度可分离卷积层、sigmoid函数构成,将特征图/>输入到第二多尺度注意力块中,输出得到注意力图/>将注意力图/>与特征图/>相乘得到特征图/>将特征图与特征图/>相加得到特征图/>将特征图/>特征图/>特征图/>进行拼接操作,得到特征图/>卷积块依次由卷积层、BatchNorm层、Relu激活函数层,将特征图/>输入到卷积块中,输出得到特征图/>将特征图/>与特征图/>相加得到特征图/>
d-4)将特征图输入到编码器的第一最大池化层中,输出得到特征图/>d-5)编码器的第二卷积块依次由卷积层、BatchNorm层、Relu激活函数层构成,将特征图/>输入到第二卷积块中,输出得到特征图/>
d-6)编码器的第二注意力残差块ARM由Ghost注意力块、第一多尺度注意力块、第二多尺度注意力块、卷积块构成;Ghost注意力块由python中的torch.chunk()函数、第一Ghost模块、第二Ghost模块、第一通道混洗层、第三Ghost模块、第四Ghost模块、第二通道混洗层、sigmoid函数构成,第一Ghost模块、第二Ghost模块、第三Ghost模块、第四Ghost模块均为GhostNet网络中的Ghost模块,第一通道混洗层、第二通道混洗层均为Shuffle Net中的通道混洗模块,将特征图输入到torch.chunk()函数,输出得到特征图/>和特征图将特征图/>依次输入到第一Ghost模块、第二Ghost模块中,输出得到特征图将特征图/>与特征图/>进行拼接操作,得到特征图/>将特征图/>输入到第一通道混洗层中,输出得到特征图/>将特征图/>依次输入到第三Ghost模块、第四Ghost模块中,输出得到特征图/>将特征图/>与特征图/>进行拼接操作,得到特征图/>将特征图/>依次输入到第二通道混洗层、sigmoid函数中,输出得到注意力图/>将注意力图/>与特征图/>相乘得到特征图/>将特征图/>与特征图/>相加得到特征图/>第一多尺度注意力块依次由第一深度可分离卷积层、第二深度可分离卷积层、sigmoid函数构成,将特征图/>输入到第一多尺度注意力块中,输出得到注意力图/>将注意力图/>与特征图/>相乘得到特征图/>将特征图/>与特征图/>相加得到特征图/>第二多尺度注意力块依次由第一深度可分离卷积层、第二深度可分离卷积层、sigmoid函数构成,将特征图/>输入到第二多尺度注意力块中,输出得到注意力图/>将注意力图/>与特征图/>相乘得到特征图将特征图/>与特征图/>相加得到特征图/>将特征图/>特征图特征图/>进行拼接操作,得到特征图/>卷积块依次由卷积层、BatchNorm层、Relu激活函数层,将特征图/>输入到卷积块中,输出得到特征图/>将特征图/>与特征图/>相加得到特征图/>
d-7)将特征图输入到编码器的第二最大池化层中,输出得到特征图/>d-8)编码器的第三卷积块依次由卷积层、BatchNorm层、Relu激活函数层构成,将特征图/>输入到第三卷积块中,输出得到特征图/>
d-9)编码器的第三注意力残差块ARM由Ghost注意力块、第一多尺度注意力块、第二多尺度注意力块、卷积块构成;Ghost注意力块由python中的torch.chunk()函数、第一Ghost模块、第二Ghost模块、第一通道混洗层、第三Ghost模块、第四Ghost模块、第二通道混洗层、sigmoid函数构成,第一Ghost模块、第二Ghost模块、第三Ghost模块、第四Ghost模块均为GhostNet网络中的Ghost模块,第一通道混洗层、第二通道混洗层均为Shuffle Net中的通道混洗模块,将特征图输入到torch.chunk()函数,输出得到特征图/>和特征图将特征图/>依次输入到第一Ghost模块、第二Ghost模块中,输出得到特征图将特征图/>与特征图/>进行拼接操作,得到特征图/>将特征图/>输入到第一通道混洗层中,输出得到特征图/>将特征图/>依次输入到第三Ghost模块、第四Ghost模块中,输出得到特征图/>将特征图/>与特征图/>进行拼接操作,得到特征图/>将特征图/>依次输入到第二通道混洗层、sigmoid函数中,输出得到注意力图/>将注意力图/>与特征图/>相乘得到特征图/>将特征图/>与特征图/>相加得到特征图/>第一多尺度注意力块依次由第一深度可分离卷积层、第二深度可分离卷积层、sigmoid函数构成,将特征图/>输入到第一多尺度注意力块中,输出得到注意力图/>将注意力图/>与特征图/>相乘得到特征图/>将特征图/>与特征图/>相加得到特征图/>第二多尺度注意力块依次由第一深度可分离卷积层、第二深度可分离卷积层、sigmoid函数构成,将特征图/>输入到第二多尺度注意力块中,输出得到注意力图/>将注意力图/>与特征图/>相乘得到特征图将特征图/>与特征图/>相加得到特征图/>将特征图/>特征图特征图/>进行拼接操作,得到特征图/>卷积块依次由卷积层、BatchNorm层、Relu激活函数层,将特征图/>输入到卷积块中,输出得到特征图/>将特征图/>与特征图/>相加得到特征图/>
d-10)将特征图输入到编码器的第三最大池化层中,输出得到特征图/>d-11)编码器的第四卷积块依次由卷积层、BatchNorm层、Relu激活函数层构成,将特征图/>输入到第四卷积块中,输出得到特征图/>
d-12)编码器的第四注意力残差块ARM由Ghost注意力块、第一多尺度注意力块、第二多尺度注意力块、卷积块构成;Ghost注意力块由python中的torch.chunk()函数、第一Ghost模块、第二Ghost模块、第一通道混洗层、第三Ghost模块、第四Ghost模块、第二通道混洗层、sigmoid函数构成,第一Ghost模块、第二Ghost模块、第三Ghost模块、第四Ghost模块均为GhostNet网络中的Ghost模块,第一通道混洗层、第二通道混洗层均为Shuffle Net中的通道混洗模块,将特征图输入到torch.chunk()函数,输出得到特征图/>和特征图将特征图/>依次输入到第一Ghost模块、第二Ghost模块中,输出得到特征图将特征图/>与特征图/>进行拼接操作,得到特征图/>将特征图/>输入到第一通道混洗层中,输出得到特征图/>将特征图/>依次输入到第三Ghost模块、第四Ghost模块中,输出得到特征图/>将特征图/>与特征图/>进行拼接操作,得到特征图/>将特征图/>依次输入到第二通道混洗层、sigmoid函数中,输出得到注意力图/>将注意力图/>与特征图/>相乘得到特征图/>将特征图/>与特征图/>相加得到特征图/>第一多尺度注意力块依次由第一深度可分离卷积层、第二深度可分离卷积层、sigmoid函数构成,将特征图/>输入到第一多尺度注意力块中,输出得到注意力图/>将注意力图/>与特征图/>相乘得到特征图/>将特征图/>与特征图/>相加得到特征图/>第二多尺度注意力块依次由第一深度可分离卷积层、第二深度可分离卷积层、sigmoid函数构成,将特征图/>输入到第二多尺度注意力块中,输出得到注意力图/>将注意力图/>与特征图/>相乘得到特征图将特征图/>与特征图/>相加得到特征图/>将特征图/>特征图特征图/>进行拼接操作,得到特征图/>卷积块依次由卷积层、BatchNorm层、Relu激活函数层,将特征图/>输入到卷积块中,输出得到特征图/>将特征图/>与特征图/>相加得到特征图/>
2.根据权利要求1所述的基于特征选择的轻量级心脏MRI分割方法,其特征在于:步骤a)中N=100。
3.根据权利要求1所述的基于特征选择的轻量级心脏MRI分割方法,其特征在于,步骤b)包括如下步骤:
b-1)获取第i个心脏MRI图像Ai的Z轴方向的像素间距z,对第i个心脏MRI图像Ai和对应的真实标签进行spacing为(1.5,1.5,z),得到重采样后的图像;
b-2)将重采样后的图像沿Z轴切片,将切割的若干切片进行大小为224*224的剪裁,将剪裁后的各个切片堆叠恢复为第i个预处理后的心脏MRI图像Bi
4.根据权利要求1所述的基于特征选择的轻量级心脏MRI分割方法,其特征在于:步骤c)中将预处理后的数据集B按照6:2:2的比例划分为训练集、验证集、测试集。
5.根据权利要求1所述的基于特征选择的轻量级心脏MRI分割方法,其特征在于:步骤d-2)中第一卷积块的卷积层的卷积核大小为3×3、填充为1、步长为1;步骤d-3)中第一多尺度注意力块的第一深度可分离卷积层的卷积核大小为3×3、膨胀率为2,第一多尺度注意力块的第二深度可分离卷积层的卷积核大小为3×3、膨胀率为4,第二多尺度注意力块的第一深度可分离卷积层的卷积核大小为3×3、膨胀率为2,第二多尺度注意力块的第二深度可分离卷积层的卷积核大小为3×3、膨胀率为4,卷积块的卷积层的卷积核大小为1×1、步长为1、填充为0;步骤d-5)中第二卷积块的卷积层的卷积核大小为3×3、填充为1、步长为1;步骤d-6)中第一多尺度注意力块的第一深度可分离卷积层的卷积核大小为3×3、膨胀率为2,第一多尺度注意力块的第二深度可分离卷积层的卷积核大小为3×3、膨胀率为4,第二多尺度注意力块的第一深度可分离卷积层的卷积核大小为3×3、膨胀率为2,第二多尺度注意力块的第二深度可分离卷积层的卷积核大小为3×3、膨胀率为4,卷积块的卷积层的卷积核大小为1×1、步长为1、填充为0;步骤d-8)中第三卷积块的卷积层的卷积核大小为3×3、填充为1、步长为1;步骤d-9)中第一多尺度注意力块的第一深度可分离卷积层的卷积核大小为3×3、膨胀率为2,第一多尺度注意力块的第二深度可分离卷积层的卷积核大小为3×3、膨胀率为4,第二多尺度注意力块的第一深度可分离卷积层的卷积核大小为3×3、膨胀率为2,第二多尺度注意力块的第二深度可分离卷积层的卷积核大小为3×3、膨胀率为4,卷积块的卷积层的卷积核大小为1×1、步长为1、填充为0;步骤d-11)中第四卷积块的卷积层的卷积核大小为3×3、填充为1、步长为1;d-12)中第一多尺度注意力块的第一深度可分离卷积层的卷积核大小为3×3、膨胀率为2,第一多尺度注意力块的第二深度可分离卷积层的卷积核大小为3×3、膨胀率为4,第二多尺度注意力块的第一深度可分离卷积层的卷积核大小为3×3、膨胀率为2,第二多尺度注意力块的第二深度可分离卷积层的卷积核大小为3×3、膨胀率为4,卷积块的卷积层的卷积核大小为1×1、步长为1、填充为0。
6.根据权利要求1所述的基于特征选择的轻量级心脏MRI分割方法,其特征在于,步骤e)包括如下步骤:
e-1)分割网络模型的解码器由第一上采样层、第一特征选择模块FS1、第一非对称卷积块、第二上采样层、第二特征选择模块FS2、第二非对称卷积块、第三上采样层、第三特征选择模块FS3、第三非对称卷积块、卷积层构成;e-2)将特征图输入到解码器的第一上采样层中,输出得到特征图/>e-3)解码器的第一特征选择模块FS1由全局平均池化层、第一全连接层、第二全连接层、softmax函数、第一膨胀卷积层、第二膨胀卷积层、第三膨胀卷积层构成,将特征图/>依次输入到全局平均池化层、第一全连接层、第二全连接层、softmax函数中,输出得到注意力图/>和注意力图/>将注意力图/>与特征图/>相乘得到特征图/>将特征图/>与特征图/>进行拼接操作,得到特征图/>将特征图/>依次输入到第一膨胀卷积层、第二膨胀卷积层、第三膨胀卷积层中,输出得到特征图/>将注意力图/>与特征图/>相乘得到特征图/>将特征图/>特征图/>特征图相加得到特征图/>
e-4)将特征图与特征图/>进行拼接操作,得到特征图/>
e-5)解码器的第一非对称卷积块依次由第一卷积层、第一BatchNorm层、第一Relu激活函数、第二卷积层、第三卷积层、第二BatchNorm层、第二Relu激活函数构成,将特征图输入到第一非对称卷积块中,输出得到特征图/>e-6)将特征图/>输入到解码器的第二上采样层中,输出得到特征图/>e-7)解码器的第二特征选择模块FS2由全局平均池化层、第一全连接层、第二全连接层、softmax函数、第一膨胀卷积层、第二膨胀卷积层、第三膨胀卷积层构成,将特征图/>依次输入到全局平均池化层、第一全连接层、第二全连接层、softmax函数中,输出得到注意力图/>和注意力图/>将注意力图/>与特征图/>相乘得到特征图/>将特征图/>与特征图/>进行拼接操作,得到特征图/>将特征图/>依次输入到第一膨胀卷积层、第二膨胀卷积层、第三膨胀卷积层中,输出得到特征图/>将注意力图/>与特征图/>相乘得到特征图/>将特征图/>特征图/>特征图/>相加得到特征图/>
e-8)将特征图与特征图/>进行拼接操作,得到特征图/>
e-9)解码器的第二非对称卷积块依次由第一卷积层、第一BatchNorm层、第一Relu激活函数、第二卷积层、第三卷积层、第二BatchNorm层、第二Relu激活函数构成,将特征图输入到第二非对称卷积块中,输出得到特征图/>e-10)将特征图/>输入到解码器的第三上采样层中,输出得到特征图/>e-11)解码器的第三特征选择模块FS3由全局平均池化层、第一全连接层、第二全连接层、softmax函数、第一膨胀卷积层、第二膨胀卷积层、第三膨胀卷积层构成,将特征图/>依次输入到全局平均池化层、第一全连接层、第二全连接层、softmax函数中,输出得到注意力图/>和注意力图/>将注意力图/>与特征图/>相乘得到特征图/>将特征图/>与特征图/>进行拼接操作,得到特征图/>将特征图依次输入到第一膨胀卷积层、第二膨胀卷积层、第三膨胀卷积层中,输出得到特征图将注意力图/>与特征图/>相乘得到特征图/>将特征图/>特征图特征图/>相加得到特征图/>
e-12)将特征图与特征图/>进行拼接操作,得到特征图/>
e-13)解码器的第三非对称卷积块依次由第一卷积层、第一BatchNorm层、第一Relu激活函数、第二卷积层、第三卷积层、第二BatchNorm层、第二Relu激活函数构成,将特征图输入到第三非对称卷积块中,输出得到特征图/>e-14)将特征图/>输入到解码器的卷积层中,输出得到预测分割图像/>
7.根据权利要求6所述的基于特征选择的轻量级心脏MRI分割方法,其特征在于:步骤e-3)中第一特征选择模块FS1的第一膨胀卷积层的卷积核大小为3×3,膨胀率为1,第二膨胀卷积层的卷积核大小为3×3,膨胀率为3,第三膨胀卷积层的卷积核大小为3×3,膨胀率为5;步骤e-5)中第一非对称卷积块的第一卷积层的卷积核大小为3×3、步长为1、填充为1,第二卷积层的卷积核大小为3×1、步长为1、填充为(1,0),第三卷积层的卷积核大小为1×3、步长为1、填充为(0,1);步骤e-7)中第二特征选择模块FS2的第一膨胀卷积层的卷积核大小为3×3,膨胀率为1,第二膨胀卷积层的卷积核大小为3×3,膨胀率为3,第三膨胀卷积层的卷积核大小为3×3,膨胀率为5;步骤e-9)中第二非对称卷积块的第一卷积层的卷积核大小为3×3、步长为1、填充为1,第二卷积层的卷积核大小为3×1、步长为1、填充为(1,0),第三卷积层的卷积核大小为1×3、步长为1、填充为(0,1);步骤e-11)中第三特征选择模块FS3的第一膨胀卷积层的卷积核大小为3×3,膨胀率为1,第二膨胀卷积层的卷积核大小为3×3,膨胀率为3,第三膨胀卷积层的卷积核大小为3×3,膨胀率为5;步骤e-13)中第三非对称卷积块的第一卷积层的卷积核大小为3×3、步长为1、填充为1,第二卷积层的卷积核大小为3×1、步长为1、填充为(1,0),第三卷积层的卷积核大小为1×3、步长为1、填充为(0,1);步骤e-14)中解码器的卷积层的卷积核大小为1×1、步长为1、填充为0。
8.根据权利要求1所述的基于特征选择的轻量级心脏MRI分割方法,其特征在于:步骤f)中利用Dice损失通过Adam优化算法训练分割网络模型,得到优化后的分割网络模型。
9.根据权利要求8所述的基于特征选择的轻量级心脏MRI分割方法,其特征在于:训练分割网络模型时学习率设置为0.001、批次大小设置为16、迭代次数设置为200。
CN202311298305.0A 2023-10-09 2023-10-09 一种基于特征选择的轻量级心脏mri分割方法 Active CN117409014B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311298305.0A CN117409014B (zh) 2023-10-09 2023-10-09 一种基于特征选择的轻量级心脏mri分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311298305.0A CN117409014B (zh) 2023-10-09 2023-10-09 一种基于特征选择的轻量级心脏mri分割方法

Publications (2)

Publication Number Publication Date
CN117409014A CN117409014A (zh) 2024-01-16
CN117409014B true CN117409014B (zh) 2024-05-28

Family

ID=89491767

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311298305.0A Active CN117409014B (zh) 2023-10-09 2023-10-09 一种基于特征选择的轻量级心脏mri分割方法

Country Status (1)

Country Link
CN (1) CN117409014B (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030005384A (ko) * 2002-11-22 2003-01-17 실버브룩 리서치 피티와이 리미티드 인쇄 페이지의 태그 인코더
CN114066908A (zh) * 2021-10-09 2022-02-18 山东师范大学 一种用于脑肿瘤图像分割的方法及系统
CN114648541A (zh) * 2022-03-28 2022-06-21 中国人民解放军总医院第七医学中心 非小细胞肺癌大体肿瘤靶区自动分割方法
CN116543277A (zh) * 2023-04-27 2023-08-04 深圳市即构科技有限公司 模型构建方法及目标检测方法
CN116563265A (zh) * 2023-05-23 2023-08-08 山东省人工智能研究院 基于多尺度注意力和自适应特征融合的心脏mri分割方法
CN116580202A (zh) * 2023-05-26 2023-08-11 重庆邮电大学 一种基于改进U-net网络的乳腺医学图像分割方法
CN116843696A (zh) * 2023-04-27 2023-10-03 山东省人工智能研究院 基于特征相似性和超参数卷积注意力的心脏mri分割方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021148658A1 (en) * 2020-01-23 2021-07-29 UMNAI Limited An explainable neural net architecture for multidimensional data
WO2022221680A1 (en) * 2021-04-16 2022-10-20 Digimarc Corporation Methods and arrangements to aid recycling

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030005384A (ko) * 2002-11-22 2003-01-17 실버브룩 리서치 피티와이 리미티드 인쇄 페이지의 태그 인코더
CN114066908A (zh) * 2021-10-09 2022-02-18 山东师范大学 一种用于脑肿瘤图像分割的方法及系统
CN114648541A (zh) * 2022-03-28 2022-06-21 中国人民解放军总医院第七医学中心 非小细胞肺癌大体肿瘤靶区自动分割方法
CN116543277A (zh) * 2023-04-27 2023-08-04 深圳市即构科技有限公司 模型构建方法及目标检测方法
CN116843696A (zh) * 2023-04-27 2023-10-03 山东省人工智能研究院 基于特征相似性和超参数卷积注意力的心脏mri分割方法
CN116563265A (zh) * 2023-05-23 2023-08-08 山东省人工智能研究院 基于多尺度注意力和自适应特征融合的心脏mri分割方法
CN116580202A (zh) * 2023-05-26 2023-08-11 重庆邮电大学 一种基于改进U-net网络的乳腺医学图像分割方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
A Multi-task Contextual Atrous Residual Network for Brain Tumor Detection & Segmentation;Ngan Le 等;《2020 25th International Conference on Pattern Recognition (ICPR)》;20210505;全文 *
基于两阶段上下文感知的单色图像阴影检测;强晓鹏;《中国优秀硕士学位论文全文数据库 (信息科技辑)》;20210515(第5期);全文 *

Also Published As

Publication number Publication date
CN117409014A (zh) 2024-01-16

Similar Documents

Publication Publication Date Title
CN110930397B (zh) 一种磁共振图像分割方法、装置、终端设备及存储介质
CN110189334B (zh) 基于注意力机制的残差型全卷积神经网络的医学图像分割方法
CN109493346B (zh) 一种基于多损失的胃癌病理切片图像分割方法和装置
CN112016507B (zh) 基于超分辨率的车辆检测方法、装置、设备及存储介质
CN111145181B (zh) 基于多视角分离卷积神经网络的骨骼ct图像三维分割方法
CN111079795A (zh) 基于cnn的分片多尺度特征融合的图像分类方法
CN116563265B (zh) 基于多尺度注意力和自适应特征融合的心脏mri分割方法
CN113408423A (zh) 适用于tx2嵌入式平台的水产品目标实时检测方法
CN113313164A (zh) 一种基于超像素分割与图卷积的数字病理图像分类方法及系统
CN113269224B (zh) 一种场景图像分类方法、系统及存储介质
CN112365511B (zh) 基于重叠区域检索与对齐的点云分割方法
CN112348830B (zh) 基于改进3D U-Net的多器官分割方法
CN114092815B (zh) 一种大范围光伏发电设施遥感智能提取方法
CN113240683A (zh) 基于注意力机制的轻量化语义分割模型构建方法
CN112164077A (zh) 基于自下而上路径增强的细胞实例分割方法
GB2618876A (en) Lightweight and efficient object segmentation and counting method based on generative adversarial network (GAN)
CN116310339A (zh) 基于矩阵分解增强全局特征的遥感图像分割方法
CN112037225A (zh) 一种基于卷积神经的海洋船舶图像分割方法
CN111222534A (zh) 一种基于双向特征融合和更平衡l1损失的单发多框检测器优化方法
CN117611599B (zh) 融合中心线图和增强对比度网络的血管分割方法及其系统
CN117409014B (zh) 一种基于特征选择的轻量级心脏mri分割方法
CN117173120A (zh) 一种芯片焊缝空洞缺陷检测方法及系统
CN111639751A (zh) 一种用于二值卷积神经网络的非零填补训练方法
CN116188882A (zh) 融合自注意力和多路路径图卷积的点云上采样方法及系统
CN111210416A (zh) 一种解剖结构先验引导的大脑感兴趣区域快速分割方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant