CN114742917A - 一种基于卷积神经网络的ct图像分割方法 - Google Patents

一种基于卷积神经网络的ct图像分割方法 Download PDF

Info

Publication number
CN114742917A
CN114742917A CN202210442223.8A CN202210442223A CN114742917A CN 114742917 A CN114742917 A CN 114742917A CN 202210442223 A CN202210442223 A CN 202210442223A CN 114742917 A CN114742917 A CN 114742917A
Authority
CN
China
Prior art keywords
block
output
input
layer
convolution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210442223.8A
Other languages
English (en)
Other versions
CN114742917B (zh
Inventor
胡聪
江文文
周甜
廖海文
朱爱军
许川佩
黄喜军
万春霆
陈涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guilin University of Electronic Technology
Original Assignee
Guilin University of Electronic Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guilin University of Electronic Technology filed Critical Guilin University of Electronic Technology
Priority to CN202210442223.8A priority Critical patent/CN114742917B/zh
Publication of CN114742917A publication Critical patent/CN114742917A/zh
Application granted granted Critical
Publication of CN114742917B publication Critical patent/CN114742917B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开一种基于卷积神经网络的CT图像分割方法,先利用给定的已分割的CT图像对构建的分割模型中对其进行训练,再将待分割的CT图像送入训练好的分割模型中,得到分割好的CT图像。本发明的分割模型EfficientNetV2‑UNet以由EfficientNetV2模型中的特征提取器部分作为主干网络,该主干网络中包含5个注意力机制模块(2个融合‑移动翻转卷积块和3个移动翻转卷积块)。分割模型的特征提取器部分进行特征的有效提取,且使模型更小、训练速度更快,多尺度的信息提取,细节与“较粗”抽象信息都得到有效的提取与保留,在降低了噪声的影响的同时最大限度的保留模糊边界的梯度信息,分割精度更高。

Description

一种基于卷积神经网络的CT图像分割方法
技术领域
本发明涉及机器视觉技术领域,具体涉及一种基于卷积神经网络的CT 图像分割方法。
背景技术
医学图像分割是医学图像处理和分析领域的关键步骤,分割要求严谨,精确度高,并且由于医学图像自身的复杂性多样性和个体差异性等一系列问题,不同于一般的图像分割在难度上更具挑战性。虽然卷积神经网络 (Convolutional Neural Networns,CNN)作为深度学习的代表算法之一,在图像语义分割上实现了最先进的性能,对于抑制噪声、特性提取、边缘检测、图像分割等图像处理问题以及处理灰度图像上都体现了良好的效果。但是由于CT图像的特殊性,即没有显示自然图像那样清晰,边界很模糊,对比度差;噪声点相对较多,不同个体呈现出的噪声信号也不稳定;信号复杂度并不低,人体不同组织成像是完全不同的,而且绝大部分图像都是灰度图像(绝大部分彩色是伪彩,细胞类除外),灰度范围也较大。因此利用传统卷积神经网络对CT图像进行分割时,常常存在分割边界模糊的问题。
发明内容
本发明所要解决的是基于传统卷积神经网络的CT图像的分割中存在肿瘤边界模糊的问题,提供一种基于卷积神经网络的CT图像分割方法。
为解决上述问题,本发明是通过以下技术方案实现的:
一种基于卷积神经网络的CT图像分割方法,包括步骤如下:
步骤1、构建分割模型;该分割模型由2个融合-移动翻转卷积块、3个移动翻转卷积块、5个转换块、5个反卷积块、4卷积块和1个输出块组成;
第一融合-移动翻转卷积块和第一转换块的输入作为分割模型的输入;第一融合-移动翻转卷积块中的输出连接第二融合-移动翻转卷积块和第二转换块的输入;第二融合-移动翻转卷积块的输出连接第一移动翻转卷积块和第三转换块的输入;第一移动翻转卷积块的输出连接第二移动翻转卷积块和第四转换块的输入;第二移动翻转卷积块的输出连接第三移动翻转卷积块和第五转换块的输入;第三移动翻转卷积块的输出连接第一反卷积块的输入;
第一反卷积块和第五转换块的输出进行堆叠后连接第一卷积块的输入,第一卷积块的输出连接第二反卷积块的输入;第二反卷积块和第四转换块的输出进行堆叠后连接第二卷积块的输入,第二卷积块的输出连接第三反卷积块的输入;第三反卷积块和第三转换块的输出进行堆叠后连接第三卷积块的输入,第三卷积块的输出连接第四反卷积块的输入;第四反卷积块和第二转换块的输出进行堆叠后连接第四卷积块的输入,第四卷积块的输出连接第五反卷积块的输入;第五反卷积块和第一转换块的输出进行堆叠后连接输出块的输入,输出块的输出作为分割模型的输出;
步骤2、将给定的已分割的CT图像进行预处理后送入到步骤1所构建的分割模型中对其进行训练,得到训练好的分割模型;
步骤3、将待分割的CT图像进行预处理后送入到步骤2所训练好的分割模型中,得到分割好的CT图像。
上述分割模型中,融合-移动翻转卷积块由2个卷积层和1个沙漏层组成;第一个卷积层的输入作为融合-移动翻转卷积块的输入,第一个卷积层的输出连接沙漏层的输入,沙漏层的输出连接第二个卷积层的输入,第二个卷积层的输出作为融合-移动翻转卷积块的输出;第一个卷积层的输入与第二个卷积层的输出直连。
上述分割模型中,移动翻转卷积块由2个卷积层、1个分离卷积层和1 个沙漏层组成;第一个卷积层的输入作为移动翻转卷积块的输入,第一个卷积层的输出连接分离卷积层的输入,分离卷积层的输出连接沙漏层的输入,沙漏层的输出连接第二个卷积层的输入,第二个卷积层的输出作为移动翻转卷积块的输出;第一个卷积层的输入与第二个卷积层的输出直连。
上述分割模型中,转换块由1个卷积层组成;该卷积层的输入作为转换块的输入,该卷积层的输出作为转换块的输出。
上述分割模型中,反卷积块由1个反卷积层组成;该反卷积层的输入作为反卷积块的输入,该反卷积层的输出作为反卷积块的输出。
上述分割模型中,卷积块由2个滤波响应标准化层和1个卷积层组成;第一个滤波响应标准化层的输入作为卷积块的输入,第一个滤波响应标准化层的输出连接卷积层的输入,卷积层的输出连接第二个滤波响应标准化层的输入,第二个滤波响应标准化层的输出作为卷积块的输出。
上述分割模型中,输出块由k+1个卷积层和k个滤波响应标准化层组成; k个卷积层和k个滤波响应标准化层交错串联,串联后的第一个卷积层的输入作为输出块的输入,串联后的最后一个滤波响应标准化层的输出连接第k+1 个卷积层的输入,第k+1个卷积层的输出作为输出块的输出;其中k为大于等于1的正整数。
与现有技术相比,本发明所提出的分割模型EfficientNetV2-UNet以由EfficientNetV2模型中的特征提取器部分作为主干网络,该主干网络中包含5 个注意力机制模块(2个融合-移动翻转卷积块和3个移动翻转卷积块)。分割模型的特征提取器部分进行特征的有效提取,且使模型更小、训练速度更快,多尺度的信息提取,细节与“较粗”抽象信息都得到有效的提取与保留,在降低了噪声的影响的同时最大限度的保留模糊边界的梯度信息,分割精度更高。
附图说明
图1为分割网络EfficientNetV2-UNet的结构示意图。
图2为融合-移动翻转卷积块的结构示意图。
图3为移动翻转卷积块的结构示意图。
图4为转换块的结构示意图。
图5是反卷积块的结构示意图。
图6为卷积块的结构示意图。
图7是输出块的结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实例,对本发明进一步详细说明。
一种基于卷积神经网络的CT图像分割方法,包括步骤如下:
步骤1、构建分割模型。
上述分割模型EfficientNetV2-UNet如图1所示,由2个融合-移动翻转卷积块、3个移动翻转卷积块、5个转换块、5个反卷积块、4卷积块和1个输出块组成。第一融合-移动翻转卷积块和第一转换块的输入作为分割模型的输入;第一融合-移动翻转卷积块中的输出连接第二融合-移动翻转卷积块和第二转换块的输入;第二融合-移动翻转卷积块的输出连接第一移动翻转卷积块和第三转换块的输入;第一移动翻转卷积块的输出连接第二移动翻转卷积块和第四转换块的输入;第二移动翻转卷积块的输出连接第三移动翻转卷积块和第五转换块的输入;第三移动翻转卷积块的输出连接第一反卷积块的输入。第一反卷积块和第五转换块的输出进行堆叠即特征融合后连接第一卷积块的输入,第一卷积块的输出连接第二反卷积块的输入;第二反卷积块和第四转换块的输出进行堆叠即特征融合后连接第二卷积块的输入,第二卷积块的输出连接第三反卷积块的输入;第三反卷积块和第三转换块的输出进行堆叠即特征融合后连接第三卷积块的输入,第三卷积块的输出连接第四反卷积块的输入;第四反卷积块和第二转换块的输出进行堆叠即特征融合后连接第四卷积块的输入,第四卷积块的输出连接第五反卷积块的输入;第五反卷积块和第一转换块的输出进行堆叠即特征融合后连接输出块的输入,输出块的输出作为分割模型的输出。
参见图2,融合-移动翻转卷积块由2个卷积层和1个沙漏层组成;第一个卷积层的输入作为融合-移动翻转卷积块的输入,第一个卷积层的输出连接沙漏层的输入,沙漏层的输出连接第二个卷积层的输入,第二个卷积层的输出作为融合-移动翻转卷积块的输出;第一个卷积层的输入与第二个卷积层的输出直连。
参见图3,移动翻转卷积块由2个卷积层、1个分离卷积层和1个沙漏层组成。第一个卷积层的输入作为移动翻转卷积块的输入,第一个卷积层的输出连接分离卷积层的输入,分离卷积层的输出连接沙漏层的输入,沙漏层的输出连接第二个卷积层的输入,第二个卷积层的输出作为移动翻转卷积块的输出;第一个卷积层的输入与第二个卷积层的输出直连。
参见图4,转换块由1个卷积层组成。该卷积层的输入作为转换块的输入,该卷积层的输出作为转换块的输出。
参见图5,反卷积块由1个反卷积层组成。该反卷积层的输入作为反卷积块的输入,该反卷积层的输出作为反卷积块的输出。
参见图6,卷积块由2个滤波响应标准化层和1个卷积层组成。第一个滤波响应标准化层的输入作为卷积块的输入,第一个滤波响应标准化层的输出连接卷积层的输入,卷积层的输出连接第二个滤波响应标准化层的输入,第二个滤波响应标准化层的输出作为卷积块的输出。
参见图7,输出块由n+1个卷积层和n个滤波响应标准化层组成。n为大于等于1的正整数,在本实施例中,n=3。n个卷积层和n个滤波响应标准化层交错串联,串联后的第一个卷积层的输入作为输出块的输入,串联后的最后一个滤波响应标准化层的输出连接第n+1个卷积层的输入,第n+1个卷积层的输出作为输出块的输出。
步骤2、将给定的已分割的CT图像进行预处理后送入到步骤1所构建的分割模型中对其进行训练,得到训练好的分割模型。
在本实施例中选用2019年肾脏肿瘤分割挑战赛(KiTS19)官网提供的 210例病人肾脏肿瘤的术前CT扫描图像作为训练数据集来对分割模型进行训练。
步骤2.1、预处理时对CT扫描图像进行特征区域提取,只保留图像中含有肿瘤部分的切片,并规范化图像大小,统一定为128×128。
步骤2.2、将处理好的128×128×1的图像输入到分割模型中分两路进行:分支一、128×128×1的图像输入第一融合-移动翻转卷积块,在第一融合- 移动翻转卷积块中经由3×3×16的卷积层、沙漏层、以及1×1×16卷积层,输出64×64×1 6的图像;分支二、128×128×1的图像通过转换块由3×3 ×64的卷积层,输出128×128×64的图像。
步骤2.3、步骤2.2的分支一输出的64×64×16的图像又分两路进行:分支一、64×64×16的图像输入第二融合-移动翻转卷积块,在第二融合-移动翻转卷积块中同样经由3×3×32的卷积层、沙漏层、以及1×1×32卷积层,输出32×32×32的图像;分支二、64×64×16的图像通过转换块由3 ×3×128的卷积层,输出64×64×128的图像。
步骤2.4、步骤2.3的分支一输出的32×32×32的图像又分两路进行:分支一:32×32×32的图像输入第一移动翻转卷积块,在第一移动翻转卷积块中经由1×1×192的卷积层、3×3×192的分离卷积层、沙漏块、以及1 ×1×192的卷积层,输出16×16×192的图像;分支二:32×32×32的图像通过转换块由3×3×192的卷积层,输出32×32×192的图像。
步骤2.5、步骤2.4的分支一输出的16×16×192的图像又分两路进行:分支一:16×16×192的图像输入第二移动翻转卷积块,在第二移动翻转卷积块中同样经由1×1×672的卷积层、3×3×672的分离卷积层、沙漏层、以及1×1×672的卷积层,输出8×8×672的图像;分支二:16×16×192 的图像通过转换块由3×3×256的卷积层,输出16×16×256的图像。
步骤2.6、步骤2.5的分支一输出的8×8×672的图像又分两路进行:分支一:8×8×672的图像输入第三个移动翻转卷积块,在第三个移动翻转卷积块中同样经由1×1×1280的卷积层、3×3×1280的分离卷积、沙漏层、以及1×1×1280,输出4×4×1280的图像;分支二:8×8×256的图像通过转换块由3×3×512的卷积层,输出8×8×512的图像。
步骤2.7、步骤2.6的分支一输出的4×4×1280的图像通过反卷积块由3 ×3×512反卷积层实现上采样,对图像尺寸进行放大不改变通道数,输出8 ×8×512的图像。8×8×512的图像,步骤2.6的分支二输出的8×8×512 的图像进行通道叠加的特征融合操作,输出8×8×1024的图像。8×8×1024 的图像送入卷积块中,在卷积块中先由滤波响应标准化层进行标准化操作,再经过3×3×512的卷积层,后经过滤波响应标准化层,输出8×8×512的图像。
步骤2.8、步骤2.7输出的8×8×512的图像通过反卷积块由3×3×256 反卷积层实现上采样,对图像尺寸进行放大不改变通道数,输出16×16×256 的图像。16×16×256的图像与步骤2.5的分支二输出的16×16×256的图像进行通道叠加的特征融合操作,输出16×16×512的图像。16×16×512的图像送入卷积块中,在卷积块中先由卷积块滤波响应标准化层进行标准化操作,再经过3×3×256的卷积层,后经过滤波相应标准化层输出16×16×256 的图像。
步骤2.9、步骤2.8输出的16×16×256的图像通过反卷积块由3×3×192 反卷积层实现上采样,对图像尺寸进行放大不改变通道数,输出32×32×192 的图像。32×32×192的图像与步骤2.4的分支二输出的32×32×192的图像进行通道叠加的特征融合操作,输出32×32×384的图像。32×32×384的图像送入卷积块中,在卷积块中先由卷积块的滤波响应标准化进行标准化操作,再经过3×3×192的卷积层,后经过滤波响应标准化层输出32×32×192 的图像。
步骤2.10、步骤2.9输出的32×32×192的图像通过反卷积块由3×3×128反卷积层实现上采样,对图像尺寸进行放大不改变通道数,输出64×64 ×128的图像。64×64×128的图像与步骤2.3的分支二输出的64×64×128 图像进行通道叠加的特征融合操作,输出64×64×256的图像。64×64×256 的图像送入卷积块中,在卷积块中先由滤波响应标准化层进行标准化操作,再经过3×3×128的卷积操作,后经过滤波响应标准化层输出64×64×128 的图像。
步骤2.11、步骤2.10输出的64×64×128的图像通过反卷积块由3×3 ×64反卷积层实现上采样,对图像尺寸进行放大不改变通道数,输出128× 128×64的图像。128×128×64的图像与步骤2.2的分支二输出的128×128 ×64的图像进行通道叠加的特征融合操作,输出128×128×128的图像。128 ×128×128的图像送入输入块中,在输入块中经过3×3×64的卷积层和滤波响应标准化层的3次重复后,经过1×1×1的卷积层,输出最终128×128 ×1的分割图像。
步骤3、将待分割的CT图像进行预处理后送入到步骤2所训练好的分割模型中,得到分割好的CT图像。
将肾脏肿瘤原CT图像作为测试集、医生手工分割后的标签图像作为验证集输入训练好的模型中进行肿瘤分割实验,三折交叉验证方法下的肿瘤分割相似度系数Dice如下表所示:
Figure BDA0003614424230000061
由结果显示,EfficientNetV2-UNet模型分割后的相似度系数Dice为0.9445,达到了良好的分割要求,且跟其他网络模型的对比,性能更优。
需要说明的是,尽管以上本发明所述的实施例是说明性的,但这并非是对本发明的限制,因此本发明并不局限于上述具体实施方式中。在不脱离本发明原理的情况下,凡是本领域技术人员在本发明的启示下获得的其它实施方式,均视为在本发明的保护之内。

Claims (7)

1.一种基于卷积神经网络的CT图像分割方法,其特征是,包括步骤如下:
步骤1、构建分割模型;该分割模型由2个融合-移动翻转卷积块、3个移动翻转卷积块、5个转换块、5个反卷积块、4卷积块和1个输出块组成;
第一融合-移动翻转卷积块和第一转换块的输入作为分割模型的输入;第一融合-移动翻转卷积块中的输出连接第二融合-移动翻转卷积块和第二转换块的输入;第二融合-移动翻转卷积块的输出连接第一移动翻转卷积块和第三转换块的输入;第一移动翻转卷积块的输出连接第二移动翻转卷积块和第四转换块的输入;第二移动翻转卷积块的输出连接第三移动翻转卷积块和第五转换块的输入;第三移动翻转卷积块的输出连接第一反卷积块的输入;
第一反卷积块和第五转换块的输出进行堆叠后连接第一卷积块的输入,第一卷积块的输出连接第二反卷积块的输入;第二反卷积块和第四转换块的输出进行堆叠后连接第二卷积块的输入,第二卷积块的输出连接第三反卷积块的输入;第三反卷积块和第三转换块的输出进行堆叠后连接第三卷积块的输入,第三卷积块的输出连接第四反卷积块的输入;第四反卷积块和第二转换块的输出进行堆叠后连接第四卷积块的输入,第四卷积块的输出连接第五反卷积块的输入;第五反卷积块和第一转换块的输出进行堆叠后连接输出块的输入,输出块的输出作为分割模型的输出;
步骤2、将给定的已分割的CT图像进行预处理后送入到步骤1所构建的分割模型中对其进行训练,得到训练好的分割模型;
步骤3、将待分割的CT图像进行预处理后送入到步骤2所训练好的分割模型中,得到分割好的CT图像。
2.根据权利要求1所述的一种基于卷积神经网络的CT图像分割方法,其特征是,融合-移动翻转卷积块由2个卷积层和1个沙漏层组成;第一个卷积层的输入作为融合-移动翻转卷积块的输入,第一个卷积层的输出连接沙漏层的输入,沙漏层的输出连接第二个卷积层的输入,第二个卷积层的输出作为融合-移动翻转卷积块的输出;第一个卷积层的输入与第二个卷积层的输出直连。
3.根据权利要求1所述的一种基于卷积神经网络的CT图像分割方法,其特征是,移动翻转卷积块由2个卷积层、1个分离卷积层和1个沙漏层组成;第一个卷积层的输入作为移动翻转卷积块的输入,第一个卷积层的输出连接分离卷积层的输入,分离卷积层的输出连接沙漏层的输入,沙漏层的输出连接第二个卷积层的输入,第二个卷积层的输出作为移动翻转卷积块的输出;第一个卷积层的输入与第二个卷积层的输出直连。
4.根据权利要求1所述的一种基于卷积神经网络的CT图像分割方法,其特征是,转换块由1个卷积层组成;该卷积层的输入作为转换块的输入,该卷积层的输出作为转换块的输出。
5.根据权利要求1所述的一种基于卷积神经网络的CT图像分割方法,其特征是,反卷积块由1个反卷积层组成;该反卷积层的输入作为反卷积块的输入,该反卷积层的输出作为反卷积块的输出。
6.根据权利要求1所述的一种基于卷积神经网络的CT图像分割方法,其特征是,卷积块由2个滤波响应标准化层和1个卷积层组成;第一个滤波响应标准化层的输入作为卷积块的输入,第一个滤波响应标准化层的输出连接卷积层的输入,卷积层的输出连接第二个滤波响应标准化层的输入,第二个滤波响应标准化层的输出作为卷积块的输出。
7.根据权利要求1所述的一种基于卷积神经网络的CT图像分割方法,其特征是,输出块由k+1个卷积层和k个滤波响应标准化层组成;k个卷积层和k个滤波响应标准化层交错串联,串联后的第一个卷积层的输入作为输出块的输入,串联后的最后一个滤波响应标准化层的输出连接第k+1个卷积层的输入,第k+1个卷积层的输出作为输出块的输出;其中k为大于等于1的正整数。
CN202210442223.8A 2022-04-25 2022-04-25 一种基于卷积神经网络的ct图像分割方法 Active CN114742917B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210442223.8A CN114742917B (zh) 2022-04-25 2022-04-25 一种基于卷积神经网络的ct图像分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210442223.8A CN114742917B (zh) 2022-04-25 2022-04-25 一种基于卷积神经网络的ct图像分割方法

Publications (2)

Publication Number Publication Date
CN114742917A true CN114742917A (zh) 2022-07-12
CN114742917B CN114742917B (zh) 2024-04-26

Family

ID=82284197

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210442223.8A Active CN114742917B (zh) 2022-04-25 2022-04-25 一种基于卷积神经网络的ct图像分割方法

Country Status (1)

Country Link
CN (1) CN114742917B (zh)

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108986124A (zh) * 2018-06-20 2018-12-11 天津大学 结合多尺度特征卷积神经网络视网膜血管图像分割方法
US20190080456A1 (en) * 2017-09-12 2019-03-14 Shenzhen Keya Medical Technology Corporation Method and system for performing segmentation of image having a sparsely distributed object
WO2020001217A1 (zh) * 2018-06-27 2020-01-02 东南大学 一种基于卷积神经网络的ct图像中带夹层主动脉分割方法
JP2020027659A (ja) * 2018-08-10 2020-02-20 ネイバー コーポレーションNAVER Corporation 畳み込み回帰型ニューラルネットワークを訓練させる方法、および訓練された畳み込み回帰型ニューラルネットワークを使用する、入力されたビデオのセマンティックセグメンテーション方法
WO2020168820A1 (zh) * 2019-02-22 2020-08-27 中国石油大学(华东) 一种基于yolo卷积神经网络的胆石病ct医疗图像数据增强方法
CN111709947A (zh) * 2020-04-24 2020-09-25 浙江科技学院 一种双流沟通和全局信息引导的显著物体图像检测方法
WO2021114105A1 (zh) * 2019-12-09 2021-06-17 深圳先进技术研究院 低剂量ct图像去噪网络的训练方法及系统
CN113192073A (zh) * 2021-04-06 2021-07-30 浙江科技学院 基于交叉融合网络的服装语义分割方法
CN113469961A (zh) * 2021-06-24 2021-10-01 浙江大学医学院附属第一医院 一种基于神经网络的腕管图像分割方法及系统
CN113989271A (zh) * 2021-11-25 2022-01-28 江苏科技大学 基于双注意力机制和U-net网络的漆面图像分割系统及方法
CN114140390A (zh) * 2021-11-02 2022-03-04 广州大学 一种基于半监督语义分割的裂纹检测方法及装置

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190080456A1 (en) * 2017-09-12 2019-03-14 Shenzhen Keya Medical Technology Corporation Method and system for performing segmentation of image having a sparsely distributed object
CN108986124A (zh) * 2018-06-20 2018-12-11 天津大学 结合多尺度特征卷积神经网络视网膜血管图像分割方法
WO2020001217A1 (zh) * 2018-06-27 2020-01-02 东南大学 一种基于卷积神经网络的ct图像中带夹层主动脉分割方法
JP2020027659A (ja) * 2018-08-10 2020-02-20 ネイバー コーポレーションNAVER Corporation 畳み込み回帰型ニューラルネットワークを訓練させる方法、および訓練された畳み込み回帰型ニューラルネットワークを使用する、入力されたビデオのセマンティックセグメンテーション方法
WO2020168820A1 (zh) * 2019-02-22 2020-08-27 中国石油大学(华东) 一种基于yolo卷积神经网络的胆石病ct医疗图像数据增强方法
WO2021114105A1 (zh) * 2019-12-09 2021-06-17 深圳先进技术研究院 低剂量ct图像去噪网络的训练方法及系统
CN111709947A (zh) * 2020-04-24 2020-09-25 浙江科技学院 一种双流沟通和全局信息引导的显著物体图像检测方法
CN113192073A (zh) * 2021-04-06 2021-07-30 浙江科技学院 基于交叉融合网络的服装语义分割方法
CN113469961A (zh) * 2021-06-24 2021-10-01 浙江大学医学院附属第一医院 一种基于神经网络的腕管图像分割方法及系统
CN114140390A (zh) * 2021-11-02 2022-03-04 广州大学 一种基于半监督语义分割的裂纹检测方法及装置
CN113989271A (zh) * 2021-11-25 2022-01-28 江苏科技大学 基于双注意力机制和U-net网络的漆面图像分割系统及方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
刘忠利;陈光;单志勇;蒋学芹;: "基于深度学习的脊柱CT图像分割", 计算机应用与软件, no. 10, 12 October 2018 (2018-10-12) *
段杰;崔志明;沈艺;冯威;吴宏杰;冯雨晴;: "一种改进FCN的肝脏肿瘤CT图像分割方法", 图学学报, no. 01, 15 February 2020 (2020-02-15) *

Also Published As

Publication number Publication date
CN114742917B (zh) 2024-04-26

Similar Documents

Publication Publication Date Title
US10817741B2 (en) Word segmentation system, method and device
EP3916627A1 (en) Living body detection method based on facial recognition, and electronic device and storage medium
CN111325751A (zh) 基于注意力卷积神经网络的ct图像分割系统
CN110992275A (zh) 一种基于生成对抗网络的细化单幅图像去雨方法
CN112258488A (zh) 一种医疗影像病灶分割方法
CN110674824A (zh) 基于R2U-Net的手指静脉分割方法、装置和存储介质
CN113378813A (zh) 基于注意力平衡特征金字塔的建模、目标检测方法及装置
CN113011332A (zh) 基于多区域注意力机制的人脸伪造检测方法
CN116563252A (zh) 一种基于注意力双支路特征融合的食管早癌病灶分割方法
CN109766918A (zh) 基于多层次上下文信息融合的显著性物体检测方法
CN114596608B (zh) 一种基于多线索的双流视频人脸伪造检测方法及系统
CN110826565A (zh) 基于跨连接的卷积神经网络齿痕舌象分类方法及系统
CN113392728B (zh) 一种基于ssa锐化注意机制的目标检测方法
CN111881803B (zh) 一种基于改进YOLOv3的畜脸识别方法
CN113609944A (zh) 一种静默活体检测方法
CN110992320B (zh) 一种基于双重交错的医学图像分割网络
CN114742917A (zh) 一种基于卷积神经网络的ct图像分割方法
CN112767406A (zh) 一种适用于荧光染色裂隙灯图像角膜溃疡分割的深度卷积神经网络
CN115760875A (zh) 一种基于自监督学习的全视野医学图片区域分割方法
CN115830686A (zh) 基于特征融合的生物识别方法、系统、装置及存储介质
CN115775226A (zh) 基于Transformer的医学图像分类方法
CN109559290A (zh) 一种深度非对称跳跃连接的图像降噪方法
CN112634224B (zh) 基于目标影像的病灶检测方法和装置
CN113205454A (zh) 基于多尺度特征提取的分割模型建立、分割方法及装置
CN112733803A (zh) 情绪识别方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant