CN111914947B - 基于特征融合图像实例分割方法、装置、设备及存储介质 - Google Patents
基于特征融合图像实例分割方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN111914947B CN111914947B CN202010841858.6A CN202010841858A CN111914947B CN 111914947 B CN111914947 B CN 111914947B CN 202010841858 A CN202010841858 A CN 202010841858A CN 111914947 B CN111914947 B CN 111914947B
- Authority
- CN
- China
- Prior art keywords
- feature
- feature map
- fusion
- image
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000011218 segmentation Effects 0.000 title claims abstract description 79
- 230000004927 fusion Effects 0.000 title claims abstract description 72
- 238000000034 method Methods 0.000 title claims abstract description 46
- 238000011176 pooling Methods 0.000 claims abstract description 40
- 230000008569 process Effects 0.000 claims abstract description 7
- 238000012545 processing Methods 0.000 claims description 56
- 238000004590 computer program Methods 0.000 claims description 10
- 238000007499 fusion processing Methods 0.000 claims description 4
- 230000010354 integration Effects 0.000 claims description 4
- 238000007781 pre-processing Methods 0.000 claims description 3
- 238000000605 extraction Methods 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 20
- 238000012549 training Methods 0.000 description 14
- 238000004422 calculation algorithm Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 12
- 238000013461 design Methods 0.000 description 10
- 238000011161 development Methods 0.000 description 8
- 230000018109 developmental process Effects 0.000 description 8
- 238000003709 image segmentation Methods 0.000 description 8
- 238000001514 detection method Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 4
- 230000006872 improvement Effects 0.000 description 4
- DBMJMQXJHONAFJ-UHFFFAOYSA-M Sodium laurylsulphate Chemical compound [Na+].CCCCCCCCCCCCOS([O-])(=O)=O DBMJMQXJHONAFJ-UHFFFAOYSA-M 0.000 description 3
- 238000003708 edge detection Methods 0.000 description 3
- 238000002474 experimental method Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 238000002679 ablation Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种基于特征融和图像实例分割方法、装置、设备及存储介质,方法包括:获取待分割图像,将所述待分割图像通过去除BN层的ResNet卷积单元提取特征,获取特征图;将所述特征图与原始特征图输入到特征融合单元进行相加融合,将所述融合特征图输入到3×3的卷积单元,重新调整特征图,通过池化链从调整后特征图中提取背景上下文信息,融合多个不同感受野的特征图,获得池化后的特征图;将所述池化后的特征图输入到一个卷积单元,整合所述池化链的结果,获得整合后特征图;根据整合后特征图通过分类分割,获得实例分割结果。本发明通过自定义的特征融和模块进行处理,更高效的利用特征图信息,使最终处理的mask图信息更丰富,精确度更高。
Description
技术领域
本发明涉及人工智能领域,具体而言,涉及一种基于特征融合图像实例分割方法、装置、设备及存储介质。
背景技术
图像实例分割问题是计算机视觉领域的一个极为重要的子问题,其主要目的是将图像中人们感兴趣的物体精确地从图像中截取出来,以此来避免背景的干扰,方便后续的处理。实例分割本身包含很多支线问题,分别是目标检测和语义分割。每一点的提升对于最后的结果的改善都是极为重要的,因此本文的改进方向也可以从这两个地方出发。
早期图像分割并没有实例分割和语义分割的区分,目的就是将前背景图像区分开。早期的图像分割发展技术主要有以下两个方向:
基于阈值的图像分割算法
使用阈值来进行图像分割的算法是最常用的图像分割算法之一,其主要思想是将图像的每个像素的灰度值与阈值相比较,之后进行分类,得到最终的二值图像,将目标与背景分隔开。因此,阈值法的重点就是如何找到最优的灰度阈值。经典的算法有OTSU大津法,通过将不同类别间的方差最大化来求取最佳阈值。除此之外还有均值法,直方图双峰法,迭代阈值法等多种算法。
阈值法本身具有计算速度快,算法实现简单等特点,在目标和背景差异较大或是对比度较为明显时效果优异。但是当图像本身信息复杂,遮挡噪声等问题较为严重时,阈值法就无法达到一个满意的分割结果。
基于边缘信息的图像分割算法
相比于像素值,边缘本身所包含的信息更丰富,在图像中边缘信息在像素值,梯度等特征上变化也是最剧烈的区域,因此根据边缘信息进行分割也是最容易想到和研究时间最长的方法之一。
一般情况下,目标内部的像素是较为统一的或者变化也是较为缓和的,而在不同物体间,这种变化会变得极为剧烈,因此通常情况下边缘信息大多是高频信息。人们可以通过这一特性计算得到图像中所有可能的边界信息,并以此来进行分割。常用的边缘检测算法有Sobel,Canny等。但是当目标本身的像素值较为多变或是蕴含很多细微的纹理时,单一的边缘检测算法就很难完整的得到目标的边界。同样的,当图像本身噪声影响严重时,边缘检测算法也无法发挥效果,因为噪声信息本身就与图像无关,他同样也是高频信息,对于检测来说影响极大。
早期图像分割算法主要集中在对图像表层信息的使用,比如像素,边缘,梯度等,但是随着深度学习的发展,神经网络可以从图像中提取到更为高级的语义信息,这无疑扩充了算法所能够使用的信息的数量,对于图像分割起了极大地促进作用,分割开始向着两个方向发展,一个是语义分割,一个是实例分割。
语义分割的目的较为简单,就是对图像中的所有像素进行分类,以此将图像中的不同类别的物体区分开来。当前的语义分割算法发展十分迅速,已经做到了端到端的训练和预测,并且不断刷新的准确率。语义分割在神经网络上的发展应该是从FCN这篇论文开始,他将传统的神经网络作为编码部分,得到一个低分辨率但是信息丰富的特征图,之后使用转置卷积对特征图进行解码,最终输出与输入图像相同的分割结果图。这是第一次实现了端到端的训练,也将语义分割的发展方向确定了下来。在后续的语义分割论文中,主体的思想都没有太大的变化,前半部分为编码器,主要使用卷积神经网络进行图像信息的编码,后半部分为解码器,对编码后的特征图进行解码处理,得到最终的结果图。后续的改进也主要集中在了编解码这两部分。编码器部分主要是使用更为优秀的神经网络,如GoogleNet,ResNet,SENet等,解码器则其中较为优秀的方法比如U-Net添加了短路连接,重用了中间检测特征。还有一些则是在处理细节上做了改进,比如DeepLab提出的空洞卷积,增加了感受野,使得特征图的信息更加丰富。
在实例分割领域,基本思路是目标检测加语义分割。早期SDS使用MCG生成建议区域,之后使用Bottom-Up分割出结果,但是这样计算量很大,且分割效果一般。之后的HyperColumns在SDS的基础上,在分类器中引入超列的概念,实现对ROI的修正。之后的CFM开始使用mask进行辅助分割。经过不断地迭代发展,最终何凯明的Mask-RCNN将实例分割的发展提高了一大步,他使用当时精度最高的Faster-RCNN作为目标检测部分,之后在此基础上添加了语义分割分支,对每一个检测到的目标区域进行分割。这样不管是在目标检测阶段还是语义分割阶段,精度都得到了保证。之后的发展主要就是围绕Mask-RCNN本身的问题进行改进,比如PANet在语义分割分支添加的全连接信息辅助分割或是MS-RCNN添加的对分割结果进行打分的机制。
在实际的生产生活中使用的场景范围也很广,而其中实例分割技术与使用者进行交互更为直观,提出精度更高的实例分割要求。目前,Mask-RCNN方法与本发明较为相似。该模型在语义分割阶段主要是使用四层全卷积网络以及最后的反卷积进行处理得到mask图。本发明与之不同的地方在于本发明在语义分割阶段使用自定义的特征融和模块进行处理,更高效的利用特征图信息,最终处理的道德mask图信息更丰富,精确度更高。
发明内容
本发明的目的在于提供一种基于特征融和图像实例分割方法、装置、设备及存储介质用以实现更高精度实例分割。
为实现上述目的,本发明实施例提供一种基于特征融和图像实例分割方法,包括以下步骤:
获取待分割图像,将所述待分割图像通过去除BN层的ResNet卷积单元提取特征,获取特征图;
将所述特征图与原始特征图输入到特征融合单元进行相加融合,获得融合特征图;
将所述融合特征图输入到3×3的卷积单元,重新调整特征图以更好地整合信息,得到调整后特征图;
通过池化链从所述调整后特征图中提取背景上下文信息,融合多个不同感受野的特征图,获得池化后的特征图;
将所述池化后的特征图输入到一个卷积单元,整合所述池化链的结果,获得整合后特征图;
根据整合后特征图通过分类分割,获得实例分割结果。
进一步的,所述池化链包括池化加卷积的处理单元,并通过残差连接不断地连接融合。
更进一步的,所述不断地连接融合的过程为:一个处理单元将前一个单元的处理结果作为输入,重复使用先前的处理结果,保证特征信息的完整性。
进一步的,所述整合所述池化链的结果包括调整重构特征图的信息,同时引入非线性运算作为后续操做的预处理。
本发明实施例还提供一种基于特征融和图像实例分割装置,包括
提取模块,用于获取待分割图像,将所述待分割图像通过去除BN层的ResNet卷积单元提取特征,获取特征图;
融合模块,用于将所述特征图与原始特征图输入到特征融合单元进行相加融合,获得所述融合特征图;
调整模块,用于将所述融合特征图输入到3×3的卷积单元,重新调整特征图以更好地整合信息,得到调整后特征图;
池化模块,用于通过池化链从所述调整后特征图中提取背景上下文信息,融合多个不同感受野的特征图,获得池化后的特征图;
整合模块,用于将池化后的特征图输入到一个卷积单元,整合所述池化链的结果,获得整合后特征图;
分割模块,用于根据整合后特征图通过分类分割,获得实例分割结果。
进一步的,所述池化链包括池化加卷积的处理单元,并通过残差连接不断地连接融合。
更进一步的,所述不断地连接融合的过程为:一个处理单元将前一个单元的处理结果作为输入,重复使用先前的处理结果,以保证特征信息的完整性。
进一步的,所述整合所述池化链的结果包括调整重构特征图的信息,同时引入非线性运算作为后续操做的预处理。
本发明实施例还提供了一种基于特征融合图像实例分割设备,包括存储器以及处理器,所述存储器内存储有计算机程序,所述处理器用于运行所述计算机程序以实现所述的一种基于特征融合图像实例分割方法。
本发明实施例还提供了一种存储介质,所述存储介质用于存储至少一个程序,至少一个指令,所述至少一个程序、指令被执行以实现所述的一种基于特征融合图像实例分割方法。
本发明实施例的有益技术效果:
在语义分割阶段使用自定义的特征融和模块进行处理,更高效的利用特征图信息,可以有效地减少因为卷积池化处理所导致的图像空间信息损失,使用大量的残差链接,使得梯度可以有效地在网络中传递,有利于网络的训练。最终处理的得到的mask图信息更丰富,精确度更高。语义分割分支引入更为精细的分割网络,对于网络最终的结果提升起到了很大的作用。
附图说明
为了更清楚地说明本发明实施方式的技术方案,下面将对实施方式中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本发明第一实施例提供的一种基于特征融合图像实例分割方法的流程示意图。
图2为本发明第一实施例提供的一种基于特征融合图像实例分割方法的另一流程示意图。
图3为本发明实施例提供的特征融合模块流程示意图。
图4为本发明施例提供的卷积单元流程示意图。
图5为本发明施例提供的融合单元流程示意图。
图6为本发明施例提供的池化链流程示意图。
图7本发明第二实施例提供的一种基于特征融合图像实例分割装置的流程示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
以下详述本发明实施例的具体内容。
本发明第一实施例提供了一种图像实例分割方法,如图1-3所示,包括步骤:
S11:获取待分割图像,将所述待分割图像通过去除BN层的ResNet卷积单元提取特征,获取特征图;
在本实施例中,如图4所示,去除BN层的ResNet卷积单元是在原始ResNet卷积单元的基础上去除了BN层,因为训练图像大小,网络以及硬件的因素,在训练时相对于整个训练集数量来讲batch-size很小,此时如果使用BN会导致BN很不稳定,影响网络的整体性能,因此在设计时选择去掉BN。在原始的Mask-RCNN中因为batch-size的原因BN也是默认锁定的,不参与训练。卷积单元的主要作用与传统全卷积网络中的卷积层作用一样,提取特征,增大感受野,同时根据实际的任务对ResNet的预训练权重进行微调。因为只有经过ROI-Align处理后的特征图输入,所以第一个特征融合模块只有一个输入,之后的特征融合模块因为有了前一阶段的输出以及原始输入,所以有两个输入,这里默认介绍双输入的结构,单输入就是简单的经过两个卷积单元处理之后输入到下一阶段的模块中。
S12:将所述特征图与原始特征图输入到特征融合单元进行相加融合,获得融合特征图;
在本实施例中,经过卷积单元的处理,来自不同阶段的经过处理的特征图输入到特征融合单元进行融合,如图5所示。该模块的主要作用借鉴了ResNet网络的思想,将处理过的特征图与原始特征图相加融合,这样的处理确保了特征图信息的完整性,最大程度上保证了特征图不会因为卷积处理而出现空间信息的损失。同时因为融合了两个阶段的特征图,输出的结果信息量会更丰富,为后续的处理模块提供质量更好的特征图。
S13:将所述融合特征图输入到3×3的卷积单元,重新调整特征图以更好地整合信息,得到调整后特征图;
在本实施例中,在两阶段特征图相加融合后再经过一个3×3的卷积单元,有助于特征图整合相加后的信息,重新调整特征图,这对后续的处理很重要。同时经过实验发现这里使用相加融合可以更好地整合信息,如果使用逐像素相乘,会使得特征图信息混乱,导致网络无法正常训练,分析原因可能是因为不同阶段的特征图感受野不同,经过上采样后对应位置像素信息在原图的投影区域可能相差较大,采用相乘融合会导致信息混乱,网络无法成功学习到有用的特征。
S14:通过池化链从所述调整后特征图中提取背景上下文信息,融合多个不同感受野的特征图,获得池化后的特征图;
在本实施例中,池化链的设计如图6所示,池化链的主要作用是为了从图像中的较大区域提取背景上下文信息,它能够有效地融合多个不同感受野的特征图,通过残差连接也可以有效地使用可学习的权重更好地融合特征图的信息。整个模块使用池化加卷积的处理单元构成,并且通过残差连接不断地连接融合。后一个处理单元可以将前一个单元的处理结果作为输入,这样的处理可以重复使用先前的处理结果,在此基础上进行更深一步的处理。这样设计的好处是可以在不使用过大的池化窗口的情况下获取足够大的感受野,可以访问足够大的图像区域。同时因为也融合了前一模块的输入,最大程度的避免了因为池化处理而损失空间信息的情况发生,保证了特征信息的完整性,这对于最终的mask输出很关键,可以极大地保证小目标的准确率以及大目标的细节信息完整性。模块的设计灵活性也很高,图6中的虚线表示理论上池化加卷积的处理单元可以无限堆叠,可以根据任务的具体情况调整。本实施例的网络设计从内到外始终贯穿着残差连接,不管是融合模块的链接还是池化链内部的链接,这样的链接方式有助于在训练期间网络内部的梯度传递。
S15:将所述池化后的特征图输入到一个卷积单元,整合所述池化链的结果,获得整合后特征图;
在本实施例中,在池化链之后又接了一个卷积单元进行处理,主要的目的是整合池化链的处理结果,调整重构特征图的信息,同时引入非线性运算作为后续操做的预处理,基于此本文增加了最后一个卷积单元。
S16:根据整合后特征图通过分类分割,获得实例分割结果。
为便于对本发明的理解,在第一实施例中我们使用的植物数据集中对模块的整体性能以及每个部分的性能做了评测,相关的消融实验结果如表1:
本实施例中,通过在语义分割阶段使用自定义的特征融和模块进行处理,更高效的利用特征图信息,可以有效地减少因为卷积池化处理所导致的图像空间信息损失,使用大量的残差链接,使得梯度可以有效地在网络中传递,有利于网络的训练。最终处理的得到的mask图信息更丰富,精确度更高。语义分割分支引入更为精细的分割网络,对于网络最终的结果提升起到了很大的作用。
本发明第二实施例提供一种基于特征融和图像实例分割装置,如图7,包括:
提取模块110,用于获取待分割图像,将所述待分割图像通过去除BN层的ResNet卷积单元提取特征,获取特征图;
在本实施例中,如图4所示,在原始ResNet卷积单元的基础上去除了BN层,因为训练图像大小,网络以及硬件的因素,在训练时相对于整个训练集数量来讲batch-size很小,此时如果使用BN会导致BN很不稳定,影响网络的整体性能,因此在设计时选择去掉BN。在原始的Mask-RCNN中因为batch-size的原因BN也是默认锁定的,不参与训练。卷积单元的主要作用与传统全卷积网络中的卷积层作用一样,提取特征,增大感受野,同时根据实际的任务对ResNet的预训练权重进行微调。因为只有经过ROI-Align处理后的特征图输入,所以第一个特征融合模块只有一个输入,之后的特征融合模块因为有了前一阶段的输出以及原始输入,所以有两个输入,这里默认介绍双输入的结构,单输入的话就是简单的经过两个卷积单元处理之后输入到下一阶段的模块中。
融合模块120,用于将所述特征图与原始特征图输入到特征融合单元进行相加融合,获得所述融合特征图;
在本实施例中,经过卷积单元的处理,来自不同阶段的经过处理的特征图输入到特征融合单元进行融合,如图5所示。该模块的主要作用借鉴了ResNet网络的思想,将处理过的特征图与原始特征图相加融合,这样的处理确保了特征图信息的完整性,最大程度上保证了特征图不会因为卷积处理而出现空间信息的损失。同时因为融合了两个阶段的特征图,输出的结果信息量会更丰富,为后续的处理模块提供质量更好的特征图。
调整模块130,用于将所述融合特征图输入到3×3的卷积单元,重新调整特征图以更好地整合信息,得到调整后特征图;
在本实施例中,在两阶段特征图相加融合后再经过一个3×3的卷积单元,有助于特征图整合相加后的信息,重新调整特征图,这对后续的处理很重要。同时经过实验发现这里使用相加融合可以更好地整合信息,如果使用逐像素相乘,会使得特征图信息混乱,导致网络无法正常训练,分析原因可能是因为不同阶段的特征图感受野不同,经过上采样后对应位置像素信息在原图的投影区域可能相差较大,采用相乘融合会导致信息混乱,网络无法成功学习到有用的特征。
池化模块140,用于通过池化链从所述调整后特征图中提取背景上下文信息,融合多个不同感受野的特征图,获得池化后的特征图;
在本实施例中,池化链的设计如图6所示,池化链的主要作用是为了从图像中的较大区域提取背景上下文信息,它能够有效地融合多个不同感受野的特征图,通过残差连接也可以有效地使用可学习的权重更好地融合特征图的信息。整个模块使用池化加卷积的处理单元构成,并且通过残差连接不断地连接融合。后一个处理单元可以将前一个单元的处理结果作为输入,这样的处理可以重复使用先前的处理结果,在此基础上进行更深一步的处理。这样设计的好处是可以在不使用过大的池化窗口的情况下获取足够大的感受野,可以访问足够大的图像区域。同时因为也融合了前一模块的输入,最大程度的避免了因为池化处理而损失空间信息的情况发生,保证了特征信息的完整性,这对于最终的mask输出很关键,可以极大地保证小目标的准确率以及大目标的细节信息完整性。模块的设计灵活性也很高,图6中的虚线表示理论上池化加卷积的处理单元可以无限堆叠,可以根据任务的具体情况调整。本实施例的网络设计从内到外始终贯穿着残差连接,不管是融合模块的链接还是池化链内部的链接,这样的链接方式有助于在训练期间网络内部的梯度传递。
整合模块150,用于将池化后的特征图输入到一个卷积单元,整合所述池化链的结果,获得整合后特征图;
在本实施例中,在池化链之后又接了一个卷积单元进行处理,主要的目的是整合池化链的处理结果,调整重构特征图的信息,同时引入非线性运算作为后续操做的预处理,基于此本文增加了最后一个卷积单元。
分割模块160,用于根据整合后特征图通过分类分割,获得实例分割结果。
本实施例中,通过在语义分割阶段使用自定义的特征融和模块进行处理,更高效的利用特征图信息,可以有效地减少因为卷积池化处理所导致的图像空间信息损失,使用大量的残差链接,使得梯度可以有效地在网络中传递,有利于网络的训练。最终处理的得到的mask图信息更丰富,精确度更高。语义分割分支引入更为精细的分割网络,对于网络最终的结果提升起到了很大的作用。
本发明第三实施例提供了一种基于特征融和图像实例分割设备,包括存储器以及处理器,所述存储器内存储有计算机程序,所述处理器用于运行所述计算机程序以实现所述一种基于特征融和图像实例分割方法。
本发明第四实施例还提供一种存储介质,所述存储介质存储有计算机程序,所述计算机程序能够被所述存储介质所在设备的处理器执行,以实现所述的一种基于特征融和图像实例分割方法。
在本发明实施例所提供的几个实施例中,应该理解到,所提供的装置和方法,也可以通过其它的方式实现。以上所描述的装置和方法实施例仅仅是示意性的,例如,附图中的流程图和框图显示了根据本发明的多个实施例的装置、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现方式中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
另外,在本发明各个实施例中的各功能模块可以集成在一起形成一个独立的部分,也可以是各个模块单独存在,也可以两个或两个以上模块集成形成一个独立的部分。
所述功能如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,电子设备或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
尽管结合优选实施方案具体展示和介绍了本发明,但所属领域的技术人员应该明白,在不脱离所附权利要求书所限定的本发明的精神和范围内,在形式上和细节上可以对本发明做出各种变化,均为本发明的保护范围。
Claims (6)
1.一种基于特征融和图像实例分割方法,其特征在于,包括以下步骤:
获取待分割图像,将所述待分割图像通过去除BN层的ResNet卷积单元提取特征,获取特征图;
将所述特征图与原始特征图输入到特征融合单元进行相加融合,获得融合特征图;
将所述融合特征图输入到3×3的卷积单元,重新调整特征图以更好地整合信息,得到调整后特征图;
通过池化链从所述调整后特征图中提取背景上下文信息,融合多个不同感受野的特征图,获得池化后的特征图,所述池化链包括池化加卷积的处理单元,并通过残差连接不断地连接融合,所述不断地连接融合的过程为:一个处理单元将前一个单元的处理结果作为输入,重复使用先前的处理结果,以保证特征信息的完整性;
将所述池化后的特征图输入到一个卷积单元,整合所述池化链的结果,获得整合后特征图;
根据整合后特征图通过分类分割,获得实例分割结果。
2.根据权利要求1所述的一种基于特征融和图像实例分割方法,其特征在于,所述整合所述池化链的结果包括调整重构特征图的信息,同时引入非线性运算作为后续操做的预处理。
3.一种基于特征融和图像实例分割装置,其特征在于,包括
提取模块,用于获取待分割图像,将所述待分割图像通过去除BN层的ResNet卷积单元提取特征,获取特征图;
融合模块,用于将所述特征图与原始特征图输入到特征融合单元进行相加融合,获得融合特征图;
调整模块,用于将所述融合特征图输入到3×3的卷积单元,重新调整特征图以更好地整合信息,得到调整后特征图;
池化模块,用于通过池化链从所述调整后特征图中提取背景上下文信息,融合多个不同感受野的特征图,获得池化后的特征图,所述池化链包括池化加卷积的处理单元,并通过残差连接不断地连接融合,所述不断地连接融合的过程为:一个处理单元将前一个单元的处理结果作为输入,重复使用先前的处理结果,以保证特征信息的完整性;
整合模块,用于将池化后的特征图输入到一个卷积单元,整合所述池化链的结果,获得整合后特征图;
分割模块,用于根据整合后特征图通过分类分割,获得实例分割结果。
4.根据权利要求3所述的一种基于特征融和图像实例分割装置,其特征在于,所述整合所述池化链的结果包括调整重构特征图的信息,同时引入非线性运算作为后续操做的预处理。
5.一种基于特征融和图像实例分割设备,其特征在于,包括存储器以及处理器,所述存储器内存储有计算机程序,所述处理器用于运行所述计算机程序以实现如权利要求1-2任意一项所述的一种基于特征融和图像实例分割方法。
6.一种存储介质,其特征在于,所述存储介质存储有计算机程序,所述计算机程序能够被所述存储介质所在设备的处理器执行,以实现如权利要求1-2任意一项所述的一种基于特征融和图像实例分割方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010841858.6A CN111914947B (zh) | 2020-08-20 | 2020-08-20 | 基于特征融合图像实例分割方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010841858.6A CN111914947B (zh) | 2020-08-20 | 2020-08-20 | 基于特征融合图像实例分割方法、装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111914947A CN111914947A (zh) | 2020-11-10 |
CN111914947B true CN111914947B (zh) | 2024-04-16 |
Family
ID=73278604
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010841858.6A Active CN111914947B (zh) | 2020-08-20 | 2020-08-20 | 基于特征融合图像实例分割方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111914947B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113537000A (zh) * | 2021-07-01 | 2021-10-22 | 大连民族大学 | 单目视觉实例分割深度链式特征提取网络、方法和系统 |
CN114820659A (zh) * | 2022-04-29 | 2022-07-29 | 中国农业银行股份有限公司 | 图像分割方法及装置 |
CN115359060B (zh) * | 2022-10-21 | 2023-02-03 | 首都师范大学 | 一种肺炎ct影像的病灶实例分割方法及装置 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109345449A (zh) * | 2018-07-17 | 2019-02-15 | 西安交通大学 | 一种基于融合网络的图像超分辨率及去非均匀模糊方法 |
CN110378880A (zh) * | 2019-07-01 | 2019-10-25 | 南京国科软件有限公司 | 基于视觉的火化机燃烧时间计算方法 |
CN110942465A (zh) * | 2019-11-08 | 2020-03-31 | 浙江工业大学 | 一种基于ResUnet的3视图PET图像分割方法 |
WO2020063426A1 (zh) * | 2018-09-30 | 2020-04-02 | 京东方科技集团股份有限公司 | 图像分割装置、方法及相关的计算设备 |
CN111292330A (zh) * | 2020-02-07 | 2020-06-16 | 北京工业大学 | 基于编解码器的图像语义分割方法及装置 |
CN111325751A (zh) * | 2020-03-18 | 2020-06-23 | 重庆理工大学 | 基于注意力卷积神经网络的ct图像分割系统 |
-
2020
- 2020-08-20 CN CN202010841858.6A patent/CN111914947B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109345449A (zh) * | 2018-07-17 | 2019-02-15 | 西安交通大学 | 一种基于融合网络的图像超分辨率及去非均匀模糊方法 |
WO2020063426A1 (zh) * | 2018-09-30 | 2020-04-02 | 京东方科技集团股份有限公司 | 图像分割装置、方法及相关的计算设备 |
CN110378880A (zh) * | 2019-07-01 | 2019-10-25 | 南京国科软件有限公司 | 基于视觉的火化机燃烧时间计算方法 |
CN110942465A (zh) * | 2019-11-08 | 2020-03-31 | 浙江工业大学 | 一种基于ResUnet的3视图PET图像分割方法 |
CN111292330A (zh) * | 2020-02-07 | 2020-06-16 | 北京工业大学 | 基于编解码器的图像语义分割方法及装置 |
CN111325751A (zh) * | 2020-03-18 | 2020-06-23 | 重庆理工大学 | 基于注意力卷积神经网络的ct图像分割系统 |
Non-Patent Citations (2)
Title |
---|
改进的生成对抗网络图像超分辨率重建;李诚;张羽;黄初华;;计算机工程与应用;第56卷(第04期);1-6 * |
结合上下文特征与CNN多层特征融合的语义分割;罗会兰;张云;;中国图象图形学报(12);1-10 * |
Also Published As
Publication number | Publication date |
---|---|
CN111914947A (zh) | 2020-11-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111915613B (zh) | 一种图像实例分割方法、装置、设备及存储介质 | |
CN111914947B (zh) | 基于特征融合图像实例分割方法、装置、设备及存储介质 | |
CN111768432B (zh) | 基于孪生深度神经网络的动目标分割方法及系统 | |
CN109903237B (zh) | 一种基于分离低高频的多尺度人脸图像去模糊方法 | |
CN112966691B (zh) | 基于语义分割的多尺度文本检测方法、装置及电子设备 | |
Tang et al. | BR $^ 2$ Net: Defocus blur detection via a bidirectional channel attention residual refining network | |
CN112257766B (zh) | 一种基于频域滤波处理的自然场景下阴影识别检测方法 | |
CN111680690B (zh) | 一种文字识别方法及装置 | |
Zeng et al. | A local metric for defocus blur detection based on CNN feature learning | |
CN112712472A (zh) | 图像处理方法、装置、电子设备及计算机可读存储介质 | |
Feng et al. | URNet: A U-Net based residual network for image dehazing | |
CN111681198A (zh) | 一种形态学属性滤波多模融合成像方法、系统及介质 | |
CN113326720A (zh) | 基于轮廓深度学习的图像模糊检测方法、设备 | |
Kaur et al. | Inpainting of irregular holes in a manuscript using unet and partial convolution | |
Huang et al. | Applying convolutional networks to underwater tracking without training | |
Jevtić et al. | Edge detection using ant colony search algorithm and multiscale contrast enhancement | |
Karki et al. | Pixel-level reconstruction and classification for noisy handwritten bangla characters | |
Feng et al. | Low-light image enhancement by refining illumination map with self-guided filtering | |
CN114418892A (zh) | 一种结合鲁棒显著边缘选择与稀疏性的图像去模糊方法 | |
CN113011395A (zh) | 一种单阶段动态位姿识别方法、装置和终端设备 | |
El-Sayed | Edges detection based on renyi entropy with split/merge | |
Lin et al. | Modified unsharp masking detection using Otsu thresholding and Gray code | |
See et al. | Fuzzy-based parameterized gaussian edge detector using global and local properties | |
Pandey et al. | Improvement of image denoising algorithms by preserving the edges | |
Gupta et al. | Character Recognition and Speech Synthesis using Adaptive Neuro Fuzzy Inference System |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |