CN111145186A - 神经网络结构、图像分割方法、装置及存储介质 - Google Patents
神经网络结构、图像分割方法、装置及存储介质 Download PDFInfo
- Publication number
- CN111145186A CN111145186A CN201911304133.7A CN201911304133A CN111145186A CN 111145186 A CN111145186 A CN 111145186A CN 201911304133 A CN201911304133 A CN 201911304133A CN 111145186 A CN111145186 A CN 111145186A
- Authority
- CN
- China
- Prior art keywords
- module
- layer
- convolution
- neural network
- network structure
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 42
- 238000000034 method Methods 0.000 title claims abstract description 23
- 238000003709 image segmentation Methods 0.000 title claims abstract description 21
- 230000011218 segmentation Effects 0.000 claims abstract description 55
- 238000000605 extraction Methods 0.000 claims abstract description 42
- 238000006243 chemical reaction Methods 0.000 claims abstract description 17
- 238000004364 calculation method Methods 0.000 claims abstract description 16
- 230000006870 function Effects 0.000 claims description 33
- 230000005284 excitation Effects 0.000 claims description 17
- 238000010606 normalization Methods 0.000 claims description 11
- 238000004590 computer program Methods 0.000 claims description 6
- 238000005192 partition Methods 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 9
- 208000003174 Brain Neoplasms Diseases 0.000 description 7
- 238000001125 extrusion Methods 0.000 description 3
- 238000002595 magnetic resonance imaging Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 206010028980 Neoplasm Diseases 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 210000005013 brain tissue Anatomy 0.000 description 1
- JXSJBGJIGXNWCI-UHFFFAOYSA-N diethyl 2-[(dimethoxyphosphorothioyl)thio]succinate Chemical compound CCOC(=O)CC(SP(=S)(OC)OC)C(=O)OCC JXSJBGJIGXNWCI-UHFFFAOYSA-N 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000017105 transposition Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4038—Image mosaicing, e.g. composing plane images from plane sub-images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/32—Indexing scheme for image data processing or generation, in general involving image mosaicing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10088—Magnetic resonance imaging [MRI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30016—Brain
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30096—Tumor; Lesion
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
Abstract
本申请公开了一种神经网络结构、图像分割方法、装置及存储介质。该结构包括:输入转化层、编码器及解码器。该编码器包括:第一特征提取层,包括编码卷积模块和编码卷积模块之后的第一残差模块;第二特征提取层,包括编码卷积模块和编码卷积模块之后的第二残差模块。该解码器包括:第二对象分割层,对应第二特征提取层,包括解码卷积模块和解码卷积模块之后的所述第二残差模块;第一对象分割层,对应第一特征提取层,包括解码卷积模块和解码卷积模块之后的第一残差模块。由输入转化层输入初始数据,依次经过输入转化层、编码器和解码器的计算,由解码器输出计算结果。通过上述方式,本申请神经网络结构能够实现对图像进行精确的分割。
Description
技术领域
本申请涉及图像处理领域,特别是涉及一种神经网络结构、图像分割方法、装置及存储介质。
背景技术
磁共振成像(MRI)由于具有高质量的图像和高组织对比度,成为诊断脑肿瘤的一种常用辅助手段。不同的MRI模态的图像具有不同的组织区分能力。从多模MRI图像中进行脑肿瘤的自动分割成为近年的研究热点。其中,基于卷积神经网络(CNN)的方法,尤其是基于V-Net的体系结构在医学图像分割任务中表现出卓越的性能。
然而,由于脑肿瘤灰度变化范围大,肿瘤形状不规则,大小和位置多变,以及与正常脑组织之间的边界模糊,无法准确高效地对脑肿瘤图像进行自动分割。
发明内容
本申请主要解决的技术问题是提供一种神经网络结构、图像分割方法、装置及存储介质,能够解决无法准确高效地对图像进行自动分割的问题。
为解决上述技术问题,本申请采用的一个技术方案是:提供一种神经网络结构,该神经网络结构包括:输入转化层、编码器及解码器。
该编码器包括:第一特征提取层和第二特征提取层。
该第一特征提取层包括编码卷积模块和编码卷积模块之后的第一残差模块。该第二特征提取层包括编码卷积模块和编码卷积模块之后的第二残差模块。
该解码器包括:第二对象分割层和第一对象分割层。
该第二对象分割层对应第二特征提取层,包括解码卷积模块和解码卷积模块之后的第二残差模块。该第一对象分割层对应第一特征提取层,包括解码卷积模块和解码卷积模块之后的第一残差模块。
由输入转化层输入初始数据,依次经过输入转化层、编码器和解码器的计算,由解码器输出计算结果。
为解决上述技术问题,本申请采用的另一个技术方案是:提供一种基于神经网络结构的图像分割方法,该图像分割方法包括:在神经网络结构中输入图像;图像依次经过输入转化层、编码器和解码器的计算后,输出特征分割后的图像。
为解决上述技术问题,本申请采用的再一个技术方案是:提供一种计算机可读存储介质,该计算机可读存储介质存储有计算机程序,该计算机程序序被执行时实现上述方案提供的方法。
本申请的有益效果是:本申请提供的神经网络结构包括输入转化层、编码器及解码器。在编码器的第二特征提取层和解码器的第二对象分割层中,分别用第二残差模块替换编码器的第一特征提取层和解码器的第一对象分割层的第一残差模块,使得神经网络结构能够提取更多有用的特征,从而能够更加准确高效地对图像进行自动分割。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。其中:
图1是本申请神经网络结构一实施例的流程示意图;
图2是本申请第一残差模块一实施例的结构示意图;
图3是本申请第二残差模块一实施例的结构示意图;
图4是本申请挤压激励模块一实施例的结构示意图;
图5是基于各网络结构得到脑肿瘤分割结果对比图;
图6是本申请神经网络结构的图像分割方法一实施例的流程示意图;
图7是本申请图像分割装置一实施例的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性的劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
请参阅图1,图1是本申请神经网络结构一实施方式的结构示意图,如图1所示,本实施例中神经网络结构10包括:输入转化层11、编码器12、解码器13。由输入转化层11输入初始数据,依次经过输入转化层11、编码器12和解码器13的计算,由解码器输出计算结果。在本申请一实施例中,初始数据可以为磁共振图像。
编码器12可以用于提取图像特征。在本实施例中,编码器12包括至少两个编码阶段,每个编码阶段处理不同分辨率的特征图。具体如下:
该编码器12可以包括第一特征提取层121和第二特征提取层122。
进一步地,第一特征提取层121的数量可以为1个。第一特征提取层121可以包括编码卷积模块1211、编码卷积模块1211之后的第一残差模块1212、第一残差模块1212之后的挤压激励模块1213。
可选地,编码卷积模块1211可以包括批归一化函数、位于归一化函数之后的Elu函数。编码卷积模块1211可以用于通过卷积逐渐降低特征图的分辨率,同时使得特征图数量增加,其中卷积核大小为2×2×2,步幅为2×2×2。在此卷积之后,进一步对特征图批量归一化,并使用ELU进行非线性运算。在无特别说明的情况下,本实施例后面所涉及到的编码卷积模块均与编码卷积模块1211相同。
如图2所示,第一残差模块1212可以包括依次连接的多个第一卷积模块12121、位于多个第一卷积模块之后的批归一化函数12122、位于批归一化函数12122之后的Elu函数12123。所有第一卷积模块的卷积核大小为5×5×5,步幅为1×1×1。第一残差模块1212鼓励训练更深的网络,利用批归一化函数12122和Elu函数12123能够使神经网络结构更健壮,更易于训练。在无特别说明的情况下,本实施例后面所涉及到的第一残差模块均与第一残差模块1212相同。
第二特征提取层122的数量可以为3个。每个第二特征提取层122可以包括编码卷积模块1221、编码卷积模块1221之后的第二残差模块1222、第二残差模块1222之后的挤压激励模块1223。在无特别说明的情况下,本实施例后面所涉及到的第二残差模块均与第二残差模块1222相同,本实施例后面所涉及到的挤压激励模块均与挤压激励模块1223相同。
如图3所示,第二残差模块1222可以包括依次连接的多个卷积模块12220,每个卷积模块可以包括依次连接的第二卷积模块12221、第三卷积模块12222和第二卷积模块12221。第二卷积模块的卷积核12221大小可以为1×1×1,第三卷积模块的卷积核12222大小可以为3×3×3。第二残差模块1222还可以包括位于多个卷积单元12220之后的批归一化函数12223、位于批归一化函数12223之后的Elu函数12224。
挤压激励模块1223能够自适应地调整每个特征图的权重来选择性地增强有用的特征图。图4为挤压激励模块1223的结构示意图。如图4所示,对于任何给定的特征图U,挤压激励模块1223使用全局池化操作来获取大小为1×1×1的权重矩阵,ch表示卷积通道数,然后执行激励操作。激励操作包括一个全连接层,一个添加必要非线性的ReLU和一个第二个全连接层加Sigmoid函数,以将激活重新缩放为[0,1]之间。这样得到用于对每通道进行调整的参数的集合。通过将参数乘以U,获得挤压激励模块1223的输出,从而有助于神经网络结构10将注意力集中在更重要的特征图上,进而能够提高神经网络结构10的分割精度。
解码器13用于分割对象并逐渐将特征恢复为原始大小。解码器13结构与编码器12不同之处在于,每个解码阶段均以3D转置卷积开始,以将特征图的分辨率提高1倍,同时将特征图的数量减少1倍。并且利用横向连接,将每个编码阶段的输出经过一个Dropout操作后与相应解码阶段的特征图进行拼接来获得更多底层特征。具体如下:
解码器13可以包括第一对象分割层131、第二对象分割层132、拼接模块133。
可选地,第一对象分割层131对应第一特征提取层121。该第一对象分割层131包括解码卷积模块1312、位于解码卷积模块1312之前的拼接函数1311、解码卷积模块1312之后的第一残差模块1313、第一残差模块1313之后的挤压激励模块1314。
解码卷积模块1312可以包括批归一化函数、位于归一化函数之后的Elu函数。解码卷积模块1312可以用于通过转置卷积逐渐提高特征图的分辨率,同时使得特征图数量减少,其中卷积核大小为2×2×2,步幅为2×2×2。在此转置卷积之后,进一步对特征图批量归一化,并使用ELU进行非线性运算。在无特别说明的情况下,本实施例后面所涉及到的解码卷积模块均与解码卷积模块1312。
可选地,第一对象分割层131的上一层输出端(图未示)及对应的第一特征提取层121上一层的输出端(图未示)均连接于拼接函数1311,第一对象分割层131对应的第一特征提取层121上一层的输出端(图未示)与拼接函数1311之间设置有Dropout函数(图未示)。
可选地,第二对象分割层132对应第二特征提取层122。该第二对象分割层的数量可以为3个,每个第二对象分割层132可以包括解码卷积模块1322、位于解码卷积模块1322之前的拼接函数1321、解码卷积模块1322之后的第二残差模块1323、第二残差模块1323之后的挤压激励模块1324,挤压激励模块1324之后的上采样模块1325。
可选地,第二对象分割层132的上一层输出端(图未示)及对应的第二特征提取层122上一层的输出端(图未示)均连接于拼接函数1321,第二对象分割层132对应的第二特征提取层122上一层的输出端(图未示)与拼接函数1321之间设置有Dropout函数(图未示)。
可选地,第二对象分割层132的输出均通过第二对象分割层132的上采样模块1325连接于拼接模块133。
上采样模块1325可以用于使第二对象分割层132的输出数据与初始数据具有相同维数。如图1中所示,上采样模块1325可以将第二对象分割层132的输出调整为与初始输入的图像相同的大小,从而得到第二对象分割层132的输出分别为Dsv2、Dsv3和Dsv4。拼接模块133用于对第一对象分割层131和第二对象分割层132的输出进行拼接,即对第一对象分割层131输出的Dsv1、第二对象分割层132输出的Dsv2、Dsv3、Dsv4进行拼接,并使用卷积核大小为1×1×1的卷积来融合所有不同阶段的输出。最后,通过Softmax操作获得概率图。可以计算出标签与Softmax输出之间的交叉熵作为损失函数。这样,中间阶段和神经网络结构最后的输出都隐含地用于计算损失,并用于梯度向后传播,以实现神经网络结构中参数的优化。
图5是基于各网络结构得到脑肿瘤分割结果对比图。本申请采用的是脑肿瘤分割公开数据集BraTS 2017对神经网络结构进行实验和验证。在图5中,第一列所示是待分割图像FLAIR,第二列所示是基于DS-V-Net网络结构得到的结果,第三列所示是基于DS-cSE-V-Net(即本申请的神经网络结构)得到的结果。实验结果表明,本申请提供的神经网络结构能够得到更连续的目标区域,准确定位感兴趣区域的边界。
本实施例中,在编码器的第二特征提取层和解码器的第二对象分割层中,分别用第二残差模块替换编码器的第一特征提取层和解码器的第一对象分割层的第一残差模块,使得神经网络结构能够提取更多有用的特征;在编码器的每个特征提取层和解码器的每个对象分割层的残差模块之后加入挤压激励模块来突出重要特征图,有助于神经网络结构将注意力集中在每个尺度上的更重要的特征图上,从而提高分割精度;通过上采样将解码器每个对象分割层的输出调整为与初始数据相同的大小后,融合所有不同层的输出,实现深度监督,使得神经网络结构在中间阶段能够提取具有高度判别力的特征。通过上述方式,能够更加准确高效地对图像进行自动分割。
请参阅图6,图6是本申请神经网络结构的图像分割方法一实施例的流程示意图。如图6所示,该神经网络结构的图像分割方法可包括以下步骤:
S61:在神经网络结构中输入图像。
S62:图像依次经过输入转化层、编码器和解码器的计算后,输出特征分割后的图像。
图像经过输入转化层计算后,进入编码器计算。具体而言,在编码器的第一特征提取层,由编码卷积模块进行卷积计算,并由第一残差模块进行残差计算,然后在第一特征提取层中对图像做了挤压激励后进入编码器的第二特征提取层进行计算。与第一特征提取层不同的是,在第二特征提取层中,第一残差模块被替换层第二残差模块,能够提取更多有用的图像特征。
经编码器计算之后得到的特征图进入解码器进行计算。具体而言,在解码器的第二对象分割层,由拼接函数将第一对象分割层的上一层输出的特征图及对应的第一特征提取层上一层输出的特征图进行拼接,然后由解码卷积模块进行转置卷积计算,第一残差模块进行残差计算,然后在第一特征提取层中对特征图做挤压激励、上采样后进入第二对象分割层,并且输出至拼接模块。与第一对象分割层不同的是,在第二对象分割层中,没有上采样模块、第一残差模块被替换为第二残差模块。图像特征图经第一对象分割层计算后,输出至拼接模块。拼接模块对第一对象分割层和第二对象分割层输出的特征图进行拼接,得到计算结果。
请参阅图7,图7是本申请图像分割装置一实施例的结构示意图。如图7所示,该图像分割装置70包括处理器71、与处理器71耦接的存储器72,其中,存储器72存储有用于实现上述任一实施例的方法的程序指令;处理器71用于执行存储器72存储的程序指令以实现上述方法实施例的步骤。其中,处理器71还可以称为CPU(Central Processing Unit,中央处理单元)。处理器71可能是一种集成电路芯片,具有信号的处理能力。处理器71还可以是通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
需要说明的是,本申请实现上述实施例方法中的全部或部分流程,也可以通过计算机可读存储介质来指令相关的硬件完成。计算机程序可存储于一计算机可读存储介质中,该计算机程序被执行时能够实现上述任一实施例中的中任一实施例的方法或步骤。其中,计算机程序包括计算机程序代码,计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。计算机存储介质可以包括:能够携带计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器、随机存取存储器、点载波信号、电信信号以及软件分发介质等。
以上所述仅为本申请的实施方式,并非因此限制本申请的专利范围,凡是利用本申请说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本申请的专利保护范围内。
Claims (12)
1.一种神经网络结构,其特征在于,所述神经网络结构包括:
输入转化层;
编码器,所述编码器包括:
第一特征提取层,包括编码卷积模块和所述编码卷积模块之后的第一残差模块;
第二特征提取层,包括所述编码卷积模块和所述编码卷积模块之后的第二残差模块;
解码器,所述解码器包括:
第二对象分割层,对应所述第二特征提取层,包括解码卷积模块和所述解码卷积模块之后的所述第二残差模块;
第一对象分割层,对应所述第一特征提取层,包括所述解码卷积模块和所述解码卷积模块之后的所述第一残差模块;
由所述输入转化层输入初始数据,依次经过所述输入转化层、所述编码器和所述解码器的计算,由所述解码器输出计算结果。
2.根据权利要求1所述的神经网络结构,其特征在于,所述第一残差模块包括依次连接的多个第一卷积模块;所述第二残差模块包括依次连接的多个卷积模块,所述卷积模块包括依次连接的第二卷积模块、第三卷积模块和所述第二卷积模块。
3.根据权利要求2所述的神经网络结构,其特征在于,所述第一卷积模块的卷积核大小为5×5×5,所述第二卷积模块的卷积核大小为1×1×1,所述第三卷积模块的卷积核大小为3×3×3。
4.根据权利要求1所述的神经网络结构,其特征在于,所述对象分割层的输入端包括位于所述解码卷积模块之前的拼接函数,所述对象分割层的上一层输出端及对应的特征提取层上一层的输出端均连接于所述拼接函数;所述对象分割层对应的特征提取层上一层的输出端与所述拼接函数之间设置有Dropout函数。
5.根据权利要求1所述的神经网络结构,其特征在于,所述特征提取层和所述对象分割层均包括位于所述残差模块之后的挤压激励模块。
6.根据权利要求1所述的神经网络结构,其特征在于,所述解码器还包括拼接模块,所述第二对象分割层的输出通过一上采样模块连接于所述拼接模块,所述拼接模块用于对输入进行拼接后输出,所述上采样模块用于使所述对象分割层的输出数据与所述初始数据具有相同维数。
7.根据权利要求1所述的神经网络结构,其特征在于,所述第二特征提取层的数量为3个,所述第二对象分割层的数量为3个。
8.根据权利要求1所述的神经网络结构,其特征在于,所述编码卷积模块和所述解码卷积模块均包括批归一化函数。
9.根据权利要求8所述的神经网络结构,其特征在于,所述编码卷积模块和所述解码卷积模块还包括Elu函数,所述Elu函数位于所述批归一化函数之后。
10.一种基于神经网络结构的图像分割方法,其特征在于,所述神经网络结构为权利要求1-9中任一项所述的神经网络结构;所述图像分割方法包括:
在所述神经网络结构中输入图像;
所述图像依次经过所述输入转化层、所述编码器和所述解码器的计算后,输出特征分割后的图像。
11.一种图像分割装置,其特征在于,所述图像分割装置包括处理器、与所述处理器耦接的存储器,其中,
所述存储器存储有用于实现如权利要求10所述的图像分割方法的程序指令;
所述处理器用于执行所述存储器存储的所述程序指令以实现图像分割。
12.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序被执行时实现权利要求10中任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911304133.7A CN111145186B (zh) | 2019-12-17 | 2019-12-17 | 神经网络结构、图像分割方法、装置及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911304133.7A CN111145186B (zh) | 2019-12-17 | 2019-12-17 | 神经网络结构、图像分割方法、装置及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111145186A true CN111145186A (zh) | 2020-05-12 |
CN111145186B CN111145186B (zh) | 2023-08-22 |
Family
ID=70518665
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911304133.7A Active CN111145186B (zh) | 2019-12-17 | 2019-12-17 | 神经网络结构、图像分割方法、装置及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111145186B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111369562A (zh) * | 2020-05-28 | 2020-07-03 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、电子设备及存储介质 |
CN111611932A (zh) * | 2020-05-22 | 2020-09-01 | 哈尔滨工业大学(深圳) | 基于全卷积网络的遥感图像云检测方法、终端及存储介质 |
CN111681254A (zh) * | 2020-06-16 | 2020-09-18 | 中国科学院自动化研究所 | 用于血管动脉瘤介入手术导航系统的导管检测方法及系统 |
CN111709952A (zh) * | 2020-05-21 | 2020-09-25 | 无锡太湖学院 | 一种基于边缘特征优化的双流解码卷积神经网络的mri脑肿瘤自动分割方法 |
CN113436155A (zh) * | 2021-06-16 | 2021-09-24 | 复旦大学附属华山医院 | 基于深度学习的超声臂丛神经图像识别方法 |
CN113949868A (zh) * | 2020-07-17 | 2022-01-18 | 武汉Tcl集团工业研究院有限公司 | 一种熵编码方法及装置 |
CN116773534A (zh) * | 2023-08-15 | 2023-09-19 | 宁德思客琦智能装备有限公司 | 一种检测方法及装置、电子设备、计算机可读介质 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106023195B (zh) * | 2016-05-18 | 2019-03-01 | 河南师范大学 | 基于自适应遗传算法的bp神经网络图像分割方法及装置 |
CN109598727B (zh) * | 2018-11-28 | 2021-09-14 | 北京工业大学 | 一种基于深度神经网络的ct图像肺实质三维语义分割方法 |
CN109598728B (zh) * | 2018-11-30 | 2019-12-27 | 腾讯科技(深圳)有限公司 | 图像分割方法、装置、诊断系统及存储介质 |
-
2019
- 2019-12-17 CN CN201911304133.7A patent/CN111145186B/zh active Active
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111709952A (zh) * | 2020-05-21 | 2020-09-25 | 无锡太湖学院 | 一种基于边缘特征优化的双流解码卷积神经网络的mri脑肿瘤自动分割方法 |
CN111611932A (zh) * | 2020-05-22 | 2020-09-01 | 哈尔滨工业大学(深圳) | 基于全卷积网络的遥感图像云检测方法、终端及存储介质 |
CN111369562A (zh) * | 2020-05-28 | 2020-07-03 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、电子设备及存储介质 |
CN111681254A (zh) * | 2020-06-16 | 2020-09-18 | 中国科学院自动化研究所 | 用于血管动脉瘤介入手术导航系统的导管检测方法及系统 |
CN113949868A (zh) * | 2020-07-17 | 2022-01-18 | 武汉Tcl集团工业研究院有限公司 | 一种熵编码方法及装置 |
CN113949868B (zh) * | 2020-07-17 | 2023-07-07 | 武汉Tcl集团工业研究院有限公司 | 一种熵编码方法及装置 |
CN113436155A (zh) * | 2021-06-16 | 2021-09-24 | 复旦大学附属华山医院 | 基于深度学习的超声臂丛神经图像识别方法 |
CN113436155B (zh) * | 2021-06-16 | 2023-12-19 | 复旦大学附属华山医院 | 基于深度学习的超声臂丛神经图像识别方法 |
CN116773534A (zh) * | 2023-08-15 | 2023-09-19 | 宁德思客琦智能装备有限公司 | 一种检测方法及装置、电子设备、计算机可读介质 |
CN116773534B (zh) * | 2023-08-15 | 2024-03-05 | 宁德思客琦智能装备有限公司 | 一种检测方法及装置、电子设备、计算机可读介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111145186B (zh) | 2023-08-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111145186A (zh) | 神经网络结构、图像分割方法、装置及存储介质 | |
CN114972756B (zh) | 一种医学图像的语义分割方法及装置 | |
US20210158096A1 (en) | Systems and methods for performing direct conversion of image sensor data to image analytics | |
CN111862251B (zh) | 医学图像重建技术的方法、装置、存储介质和电子设备 | |
Dharejo et al. | TWIST-GAN: Towards wavelet transform and transferred GAN for spatio-temporal single image super resolution | |
US20230097417A1 (en) | Multi-slice magnetic resonance imaging method and device based on long-distance attention model reconstruction | |
CN112150470B (zh) | 图像分割方法、装置、介质及电子设备 | |
CN112132834B (zh) | 一种心室图像分割方法、系统、装置及存储介质 | |
CN112396605B (zh) | 网络训练方法及装置、图像识别方法和电子设备 | |
KR102561214B1 (ko) | 글로벌 어텐션을 이용한 영상 분할 방법 및 장치 | |
CN116188410A (zh) | 基于多模态Trans-CNN UNet的3D脑胶质瘤MRI病灶分割方法、系统、设备及介质 | |
CN115375711A (zh) | 基于多尺度融合的全局上下文关注网络的图像分割方法 | |
CN110874855B (zh) | 一种协同成像方法、装置、存储介质和协同成像设备 | |
CN117478949A (zh) | 一种视听觉注意力预测模型的构建方法及系统 | |
CN117036380A (zh) | 一种基于级联Transformer的脑肿瘤分割方法 | |
Hu et al. | LARFNet: Lightweight asymmetric refining fusion network for real-time semantic segmentation | |
CN115239655A (zh) | 一种甲状腺超声影像肿瘤分割分类方法及装置 | |
Yin et al. | A deep network based on wavelet transform for image compressed sensing | |
CN112749712B (zh) | 一种基于3d卷积神经网络的rgbd显著性物体检测方法 | |
WO2024087858A1 (zh) | 图像处理模型的训练方法、装置、电子设备、计算机程序产品及计算机存储介质 | |
CN117437423A (zh) | 基于sam协同学习和跨层特征聚合增强的弱监督医学图像分割方法及装置 | |
CN117392082A (zh) | 基于全尺度跳跃连接的肝脏ct图像分割方法及系统 | |
CN115272250B (zh) | 确定病灶位置方法、装置、计算机设备和存储介质 | |
CN116433654A (zh) | 一种改进的U-Net网络实现脊柱整体分割方法 | |
CN113689435B (zh) | 图像分割方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |