CN110674685A - 一种基于边缘信息增强的人体解析分割模型及方法 - Google Patents
一种基于边缘信息增强的人体解析分割模型及方法 Download PDFInfo
- Publication number
- CN110674685A CN110674685A CN201910763391.5A CN201910763391A CN110674685A CN 110674685 A CN110674685 A CN 110674685A CN 201910763391 A CN201910763391 A CN 201910763391A CN 110674685 A CN110674685 A CN 110674685A
- Authority
- CN
- China
- Prior art keywords
- human body
- edge
- extraction module
- segmentation
- feature extraction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000011218 segmentation Effects 0.000 title claims abstract description 91
- 238000000034 method Methods 0.000 title claims abstract description 26
- 238000000605 extraction Methods 0.000 claims abstract description 100
- 238000004458 analytical method Methods 0.000 claims abstract description 67
- 238000012549 training Methods 0.000 claims abstract description 31
- 239000000284 extract Substances 0.000 claims abstract description 13
- 238000007781 pre-processing Methods 0.000 claims description 11
- 230000004927 fusion Effects 0.000 claims description 10
- 238000013528 artificial neural network Methods 0.000 claims description 9
- 230000006870 function Effects 0.000 claims description 7
- 238000005070 sampling Methods 0.000 claims description 6
- 238000010276 construction Methods 0.000 claims description 2
- 230000003247 decreasing effect Effects 0.000 claims description 2
- 230000000694 effects Effects 0.000 description 12
- 238000012795 verification Methods 0.000 description 7
- 230000002708 enhancing effect Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 238000002474 experimental method Methods 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 239000011800 void material Substances 0.000 description 3
- 230000007547 defect Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
- 230000003313 weakening effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于边缘信息增强的人体解析分割模型及方法,属于计算机视觉中的语义分割技术领域。本发明的人体解析分割模型的网络结构在ResNet‑101的基础上,构建了边缘特征提取模块、人体特征提取模块,分别用于提取边缘特征图和人体解析特征图。边缘特征提取模块和人体特征提取模块以ResNet‑101生成的四个特征作为输入,进一步提取并增强特征。两个模块均采用了DenseASPP提取多维度特征,在此基础上,进一步规划网络结构分别提取两个任务对应的有效特征。模型损失项仅包含人体分割损失和边缘损失,易于训练过程中的权重调整,并且能更针对性地发掘边缘信息潜能。本发明用于多分类的单个人体细致分割,与现有分割方式相比,其分割性能更优。
Description
技术领域
本发明属于计算机视觉中的语义分割领域,具体涉及一种利用边缘信息增强人体解析的分割技术。
背景技术
人体解析(human parsing)是语义分割的子任务。其目标是将一个人身体的各个部位或者所着衣物配饰加以识别。和通用语义分割不同,人体解析集中于以人为中心的分割,须识别出人体的手臂、头部、腿部等区域,即对人体各部位做细致分割。人体解析在行为识别、行人再识别、时装合成等领域均有应用。
研究技术尝试利用前沿的深度学习技术改善模型表现力,例如:基于多任务学习、基于生成对抗网络、基于相互学习。其中,基于多任务学习中最具代表性的工作是融合边缘检测任务和人体解析任务到一个网络模型中,使其提取的特征能达到相互增强、融合的效果。但是,已经关注到这两个任务之间密切联系的工作中。
通常在现有的基于多任务的人体解析模型中,通过利用多个角度的损失以约束模型,其损失项的构成通常包含除边缘损失、人体分割损失外的多个其他损失,例如以前层输出的分割预测图损失、对抗损失。这种设置可以多角度约束模型参数,但同时,也难以通过调整损失项所占比例使得模型参数优化到最佳状态,并且可能弱化某种损失项的影响力。在模型结构规划上,对于多维度特征的提取是最为重要的,这从根本上影响了模型的解析能力。现有的方法中,在边缘特征提取方面,存在不足。
在场景解析问题中,研究者们提出了多种方法以解决复杂多变的场景分割问题,其中,备受关注的是多维特征提取。大量实验已经证明multi-scale预测具有明显效果,但由于其具有占用内存大、训练时间长等缺点,研究者们提出了另外一种思路,即添加特征提取模块。其中,最具代表性的三种方法是金字塔池模块(pyramid pooling module)、阿托罗斯空间金字塔池(Atrous Spatial Pyramid Pooling,ASPP)和、密集连接的空间金字塔池(Densely connected Atrous Spatial Pyramid Pooling,DenseASPP)。金字塔池模块是一个金字塔池化结构,通过融合四种不同金字塔尺度的特征,达到语义和细节的融合。ASPP是一个利用空洞卷积提取特征的模块,采用四个不同的空洞卷积率(dilated rate)进行卷积,从而达到多维度特征提取的目的。DenseASPP则是ASPP的一种改进结构,以一种密集连接的方式提取更大维度特征。
场景解析需要解决的问题相对人体解析来说更为复杂,但是就目前存在的主流数据集来看,人体解析领域的LIP、CIHP等数据集均包含20个类别,场景解析领域的常用数据集Cityscape包含19个类别,这意味着人体解析模型面临的复杂性和场景解析相当,因此有必要通过进一步挖掘边缘信息来设置人体解析模型,以丰富人体解析模型所提取的特征维度,进而达到更好的分割性能。
发明内容
本发明的发明目的在于:提供一种基于边缘信息增强人体解析的分割技术,实现更好的分割性能。
本发明的一种基于边缘信息增强的人体解析分割模型,包括残差神经网络ResNet-101、边缘特征提取模块和人体特征提取模块;
其中,所述残差神经网络ResNet-101作为人体解析分割模型的基础层,用于提取共享特征;残差神经网络ResNet-101输出的四个不同维度特征作为边缘特征提取模块和人体特征提取模块的输入;
用Block1、Block2、Block3和Block4表示残差神经网络ResNet-101输出的四个不同维度特征,Block1、Block2、Block3和Block4的维度为递减方式;
所述边缘特征提取模块通过1×1的卷积层分别提取Block1和Block2的特征,得到边缘特征提取模块的第一提取特征和第二提取特征;以及通过DenseASPP提取Block3和Block4的特征,得到边缘特征提取模块的第三提取特征;边缘特征提取模块的第一、二和经过上采样后的第三提取特征分别通过3×3的卷积层,再通过1×1的卷积层输出边缘预测图;
所述人体特征提取模块通过1×1的卷积层提取Block1的特征,得到人体特征提取模块的第一提取特征;以及通过DenseASPP提取Block3和Block4的特征,得到人体特征提取模块的第二提取特征;人体特征提取模块的第二提取特征经上采样后与人体特征提取模块的第一提取特征通过融合层进行特征融合,再通过3×3的卷积层,得到人体特征提取模块的第三提取特征;人体特征提取模块的第三提取特征、边缘特征提取模块的第一提取特征和经上采样后的边缘特征提取模块的第三提取特征通过融合层进行特征融合,再通过2个1×1的卷积层输出人体分割预测图;
即本发明中,边缘特征提取模块和人体特征提取模块均采用了DenseASPP进一步提取Block3、Block4的特征;人体特征提取模块采用跳跃连接(skip connections)融合特征Block1,并经过解码处理,再进一步与来自边缘特征提取模块提取的特征融合。
其中,base_lr为初始学习率,iter为当前迭代次数,max_iter为迭代总次数,power设置为0.9。
优选的,本发明的人体解析模型的损失函数设置为:L=Lparsing+λLedge;
其中,Lparsing表示分割预测图和分割标注图的交叉熵损失,Ledge表示边缘预测图和边缘标注图的交叉熵损失,λ表示预置权重,用于平衡分割损失和边缘损失的比例。通常其取值与所采用的人体解析数据集,即不同类型数据集适应于不同取值;例如对于人体解析数据集LIP、CIHP、Pascal-Person-Part,λ的取值分别为:2、3、0.1。
本发明提出的人体解析模型着重探索了边缘信息的潜能。在网络结构上,通过所构建的边缘特征提取模块,有效提取边缘信息,并融合多维度特征,增强了人体解析的效果;在训练过程中,由于损失函数只规划了分割损失和边缘损失,因此权重调整更为容易,从而进一步提升基于本发明的人体解析模型进行图像的人体各部位的细致分割的分割性能。
同时,本发明还公开了一种构建上述人体解析分割模型的构建方法,其具体包括下述步骤:
步骤1:选择训练数据集;
步骤2:构建基于边缘信息增强的人体解析分割模型的网络结构;
步骤3:对训练数据进行预处理操作,生成图像边缘图片;
步骤4:训练人体解析分割模型;
步骤5:验证人体解析分割模型及模型中的边缘特征提取模块。即验证人体解析分割模型,以及验证剔除边缘特征提取模块的人体解析分割模型,获取对应的分割性能的描述数据。
进一步的,所述步骤3中,预处理操作包括:裁剪(尺寸归一化)、左右翻转等处理;且边缘图片通过计算标注图片相邻像素间关系得到,以“0”标识背景类,以“1”标识边缘。
进一步的,所述步骤4中,人体解析分割模型的网络训练的具体过程为:首先对人体解析分割模型的网络结构中涉及的网络参数进行初始化操作,其中,ResNet-101可以采用在ImageNet数据集(用于视觉对象识别软件研究的大型可视化数据库)上已经预训练的模型;然后,以批处理的方式输入经预处理的数据到人体解析分割模型中,对其网络进行训练;
所述步骤5中,在多个数据集上验证步骤2所构建的人体解析分割模型;并验证其边缘特征提取模块的作用,即训练剔除该模块之后的人体解析分割模型进行验证,通过该验证证明本发明提出的边缘特征提取模块具有非常突出的增强效果。
此外,本发明还公开了基于本发明的人体解析分割模型的分割方法,具体包括下述步骤:
步骤1:采集训练数据集,并对训练数据进行图像数据预处理,生成图像边缘图片;所述图像数据预处理包括尺寸归一化处理、图像左右翻转处理等;
基于所述图像边缘图片对本发明所构建的人体解析分割模型进行网络训练,当网络训练满足预设的分割精度需求时,保存训练好的人体解析分割模型作为人体解析分割器;
步骤2:对待分割的图像进行图像数据预处理(与步骤1的处理方式相同),输入人体解析分割器,基于人体解析分割器的输出的人体分割预测图得到待分割的图像的人体分割结果。
综上所述,由于采用了上述技术方案,本发明的有益效果是:
本发明通过在人体解析分割模型中的边缘特征提取模块,有效的提取边缘信息,并融合多维度特征,增强了人体解析的效果;在训练过程中,由于损失函数只规划了分割损失和边缘损失,因此权重调整更为容易。本发明规划的模型进一步提升基于本发明的人体解析模型进行图像的人体各部位的细致分割的分割性能,从而展现了最优分割效果。
附图说明
图1为具体实施方式中,设置人体解析分割模型的实现流程图;
图2为具体实施方式中,本发明的人体解析分割模型的框架示意图;
图3为具体实施方式中,本发明的人体解析分割模型的网络结构;
图4为具体实施方式中,人体解析网络模型在数据集LIP上的分割效果对比图;
图5为具体实施方式中,人体解析网络模型在数据集CIHP上的分割效果对比图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面结合实施方式和附图,对本发明作进一步地详细描述。
为深入挖掘边缘信息的潜能,并且提取更多维度特征,本发明提出了一种利用边缘信息增强人体解析的网络模型。本发明提升了人体解析的效果,并在提取特征和利用边缘信息方面做了改进。下面结合具体实例,来对本发明进行详细且完整的说明。
如图1所示,本发明中基于边缘信息增强的人体解析分割模型的构建方法包含如下步骤:
步骤1:选择训练数据集。本实施例选取了三个主流人体解析数据集进行实验,包括LIP、CIHP、Pascal-Person-Part。
LIP是目前数量最大的一个人体解析数据集,共包含50462张图片,其中30462张用于训练,10000张用于验证,剩下的10000张用于测试。该数据集共包含20个类别,大多数图片只包含单个人体。
CIHP是一个应对实例人体解析的数据集,每张图片均包含多个实例,相对于现有的主流数据集,其图片更具复杂性和挑战性。该数据集共包含38280张图片,其中28280张图片用于训练,测试集和验证集分别包含5000张,类别分类为20。
Pascal-Person-Part是PASCAL 2010的一个子集,共包含3533张图片,训练集和测试集分别包含1716、1817。该数据集具有数据量适中、人体姿态多样性等优点。该数据集标注的类别数相对较少,只有7类。
选择以上三个数据集是为了验证模型对于不同类型数据集的适应性和鲁棒性,LIP和CIHP均包含20个分类,属于复杂的多分类解析问题。同时,CIHP包含多个实例,增加了解析难度。另外,Pascal-Person-Part是一个分类数较少的数据集,模型是否适用于较少分类任务,则可从该数据集上得到基本验证。
步骤2:构建利用边缘信息增强人体解析的网络结构。
参见图2、3,本发明的人体解析分割模型包含三个部分:ResNet-101、边缘特征提取模块、人体特征提取模块。其中ResNet-101为层数为101的ResNet(Residual NeuralNetwork)网络,其包含四个输出,分别是Block1、Block2、Block3、Block4,这四个不同维度的输出作为边缘特征提取模块、人体特征提取模块的输入;边缘特征提取模块的作用是提取边缘特征,一方面用以增强人体解析,另一方面用于生成边缘预测图;人体特征提取模块的作用是提取人体特征,并融合边缘特征,输出最终的人体解析预测图;边缘特征提取模块由DenseASPP模块进一步提取Block3、Block4特征,由卷积核大小为1的卷积层分别进一步提取Block1、Block2特征,上述操作输出的特征将输入到人体特征提取模块,同时,令其分别通过3个卷积核大小为3的卷积层,再经1个卷积核大小为1的卷积层输出边缘预测图。
DenseASPP是一种密集连接的改进ASPP模块,连接了多个空洞卷积层,用于提取多维特征,由5个卷积核大小为1的卷积层和5个卷积核大小为3的空洞卷积层组成,空洞卷积率依次为3、6、12、18、24;人体特征提取模块利用卷积核大小为1的卷积层进一步提取Block1特征,利用DenseASPP进一步提取Block3、Block4特征,DenseASPP结构及参数设置同边缘特征模块采用的DenseASPP一致;在人体解析模块中,将上述操作提取的人体特征与边缘特征提取模块输出的特征图连接到一起,再经过2个卷积核大小为1的卷积层,输出最后的分割预测图;上述模块中使用的卷积层后面均紧跟了InPlace-ABN层,用于弱化较小的批数量(batch size)的影响,其中,DenseASPP中的卷积层后也用InPlace-ABN层代替了原来的规范层和激活函数。
步骤3:对训练数据进行预处理操作,生成图像边缘图片。在所有模型训练过程中,图片进行了随机比例抽样(例如0.5-1.5之间)、裁剪、左右翻转等处理。训练过程中采用的边缘图是通过计算标注图片相邻像素间关系得到,验证或测试过程中不需要生成边缘图。
步骤4:训练人体解析模型。本发明中采用的基础层模型是在ImageNet数据集上预训练的ResNet-101。在训练过程中,由于三个数据集存在差异,故采用了不同的图片输入尺寸。对于LIP,输入尺寸为473×473;对于CIHP和Pascal-Person-Part,采用的输入尺寸是512×512。三个数据集分类情况也具有差异,LIP和CIHP类别数目K设置为20,Pascal-Person-Part类别数目K为7。所有模型使用的初始学习率为0.007,更新形式为:
其中,base_lr为初始学习率,iter为当前迭代次数,max_iter为迭代总次数,power设置为0.9。另外,根据模型生成的边缘预测图和人体分割预测图,损失函数规划为:
L=Lparsing+λLedge
其中,Lparsing表示分割预测图和分割标注图的交叉熵损失,Ledge表示边缘预测图和边缘标注图的交叉熵损失,λ用以平衡分割损失和边缘损失的比例。对于不同数据集,λ的值有所不同。对于LIP、CIHP、Pascal-Person-Part,λ分别等于2、3、0.1。为了与其他方法公平对比,在LIP、CIHP、Pascal-Person-Part分别训练了150epochs、80epochs、300epochs。所有模型采用的batch size为8。
步骤5:验证人体解析模型以及模型中的边缘特征提取模块。本发明提出的模型在上述步骤1中提到的三个数据集上均进行了训练、验证。在验证过程中,不需要生成边缘标注图。所有实验均以均交并比mIoU作为评价标准,其公式如下:
其中,k+1表示数据集类别总数(相当于步骤4提到的K),pij表示类i被识别为类j的像素总数,pji表示类j被识别为类i的像素总数,pii表示识别正确的像素总数。实验结果显示,模型在LIP、CIHP、Pascal-Person-Part上实现的mIoU分别为56.55%、62.60%、68.51%。其中,在LIP、CIHP上的表现力超越了已有的方法,在Pascal-Person-Part上的表现力达到了前沿水平。这证明了本发明提出的模型在处理多分类任务上具有突出的效果,在较少分类的任务中依然具有鲁棒性和普遍性。如图4和图5,展示了本发明提出的人体解析模型生成的人体分割图的效果对比。在验证过程中,为了证明本发明提出的边缘特征提取模块的有效性,进行了原模型剔除该模块的实验。剔除边缘特征提取模块后的模型,在LIP、CIHP上实现的mIoU分别为54.68%、60.81%,与原模型生成的分割图对比也展示在图4和图5中。对比说明,本发明提出的边缘特征提取模块具有非常突出的增强效果。
以上所述,仅为本发明的具体实施方式,本说明书中所公开的任一特征,除非特别叙述,均可被其他等效或具有类似目的的替代特征加以替换;所公开的所有特征、或所有方法或过程中的步骤,除了互相排斥的特征和/或步骤以外,均可以任何方式组合。
Claims (5)
1.基于边缘信息增强的人体解析分割模型,其特征在于,包括残差神经网络ResNet-101、边缘特征提取模块和人体特征提取模块;
其中,所述残差神经网络ResNet-101作为人体解析分割模型的基础层,用于提取共享特征;残差神经网络ResNet-101输出的四个不同维度特征作为边缘特征提取模块和人体特征提取模块的输入;
用Block1、Block2、Block3和Block4表示残差神经网络ResNet-101输出的四个不同维度特征,Block1、Block2、Block3和Block4的维度为递减方式;
所述边缘特征提取模块通过1×1的卷积层分别提取Block1和Block2的特征,得到边缘特征提取模块的第一提取特征和第二提取特征;以及通过DenseASPP提取Block3和Block4的特征,得到边缘特征提取模块的第三提取特征;边缘特征提取模块的第一、二和经过上采样后的第三提取特征分别通过3×3的卷积层,再通过1×1的卷积层输出边缘预测图;
所述人体特征提取模块通过1×1的卷积层提取Block1的特征,得到人体特征提取模块的第一提取特征;以及通过DenseASPP模块提取Block3和Block4的特征,得到人体特征提取模块的第二提取特征;人体特征提取模块的第二提取特征经上采样后与人体特征提取模块的第一提取特征通过融合层进行特征融合,再通过3×3的卷积层,得到人体特征提取模块的第三提取特征;人体特征提取模块的第三提取特征、边缘特征提取模块的第一提取特征和经上采样后的边缘特征提取模块的第三提取特征通过融合层进行特征融合,再通过2个1×1的卷积层输出人体分割预测图。
3.如权利要求1所述的人体解析分割模型,其特征在于,人体解析模型的损失函数设置为:L=Lparsing+λLedge;其中,Lparsing表示分割预测图和分割标注图的交叉熵损失,Ledge表示边缘预测图和边缘标注图的交叉熵损失,λ表示预置权重,用于平衡分割损失和边缘损失的比例。
4.一种基于边缘信息增强的人体解析分割模型的构建方法,其特征在于,包括下述步骤:
步骤1:选择训练数据集;
步骤2:构建所述的基于边缘信息增强的人体解析分割模型的网络结构,所述人体解析分割模型的网络结构如权利要求1所述;
步骤3:对训练数据进行预处理操作,生成图像边缘图片;
步骤4:训练人体解析分割模型;
步骤5:验证人体解析分割模型,以及验证剔除边缘特征提取模块的人体解析分割模型,获取对应的分割性能的描述数据。
5.基于权利要求1所述的人体解析分割模型的分割方法,包括下述步骤:
步骤1:采集训练数据集,并对训练数据进行图像数据预处理,生成图像边缘图片;
基于所述图像边缘图片对本发明所构建的人体解析分割模型进行网络训练,当网络训练满足预设的分割精度需求时,保存训练好的人体解析分割模型作为人体解析分割器;
步骤2:对待分割的图像进行图像数据预处理,生成图像边缘图片,其中图像数据预处理方式与步骤1的图像数据预处理处理方式相同;
将步骤2得到的图像边缘图片输入人体解析分割器,基于人体解析分割器的输出的人体分割预测图得到待分割的图像的人体分割结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910763391.5A CN110674685B (zh) | 2019-08-19 | 2019-08-19 | 一种基于边缘信息增强的人体解析分割模型及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910763391.5A CN110674685B (zh) | 2019-08-19 | 2019-08-19 | 一种基于边缘信息增强的人体解析分割模型及方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110674685A true CN110674685A (zh) | 2020-01-10 |
CN110674685B CN110674685B (zh) | 2022-05-31 |
Family
ID=69075494
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910763391.5A Expired - Fee Related CN110674685B (zh) | 2019-08-19 | 2019-08-19 | 一种基于边缘信息增强的人体解析分割模型及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110674685B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111275694A (zh) * | 2020-02-06 | 2020-06-12 | 电子科技大学 | 一种注意力机制引导的递进式划分人体解析模型及方法 |
CN111311616A (zh) * | 2020-02-13 | 2020-06-19 | 北京百度网讯科技有限公司 | 用于分割图像的方法和装置 |
CN111462149A (zh) * | 2020-03-05 | 2020-07-28 | 中国地质大学(武汉) | 一种基于视觉显著性的实例人体解析方法 |
CN112561937A (zh) * | 2020-12-18 | 2021-03-26 | 深圳先进技术研究院 | 基于病变边界信息响应的上下文感知医学图像分割方法 |
CN113379771A (zh) * | 2021-07-02 | 2021-09-10 | 西安电子科技大学 | 带有边缘约束的层次化人体解析语义分割方法 |
CN114511573A (zh) * | 2021-12-29 | 2022-05-17 | 电子科技大学 | 一种基于多层级边缘预测的人体解析模型及方法 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007124186A (ja) * | 2005-10-27 | 2007-05-17 | Seiko Epson Corp | 画像処理装置の画像切り出し方法、画像切り出し装置、プログラム |
CN103473789A (zh) * | 2013-08-07 | 2013-12-25 | 宁波大学 | 一种融合多线索的人体视频分割方法 |
US20180068178A1 (en) * | 2016-09-05 | 2018-03-08 | Max-Planck-Gesellschaft Zur Förderung D. Wissenschaften E.V. | Real-time Expression Transfer for Facial Reenactment |
CN108010049A (zh) * | 2017-11-09 | 2018-05-08 | 华南理工大学 | 使用全卷积神经网络分割定格动画中人手部区域的方法 |
CN108229504A (zh) * | 2018-01-29 | 2018-06-29 | 深圳市商汤科技有限公司 | 图像解析方法及装置 |
CN108764096A (zh) * | 2018-05-21 | 2018-11-06 | 华中师范大学 | 一种行人重识别系统和方法 |
US10171161B1 (en) * | 2018-04-23 | 2019-01-01 | Ciena Corporation | Machine learning for link parameter identification in an optical communications system |
US20190080457A1 (en) * | 2017-09-08 | 2019-03-14 | Samsung Electronics Co., Ltd. | Electronic device and method for automatic human segmentation in image |
CN109493362A (zh) * | 2018-09-03 | 2019-03-19 | 李磊 | 一种神经网络结合边缘检测的人体前景分割算法 |
CN109523560A (zh) * | 2018-11-09 | 2019-03-26 | 成都大学 | 一种基于深度学习的三维图像分割方法 |
CN109977793A (zh) * | 2019-03-04 | 2019-07-05 | 东南大学 | 基于变尺度多特征融合卷积网络的路侧图像行人分割方法 |
-
2019
- 2019-08-19 CN CN201910763391.5A patent/CN110674685B/zh not_active Expired - Fee Related
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007124186A (ja) * | 2005-10-27 | 2007-05-17 | Seiko Epson Corp | 画像処理装置の画像切り出し方法、画像切り出し装置、プログラム |
CN103473789A (zh) * | 2013-08-07 | 2013-12-25 | 宁波大学 | 一种融合多线索的人体视频分割方法 |
US20180068178A1 (en) * | 2016-09-05 | 2018-03-08 | Max-Planck-Gesellschaft Zur Förderung D. Wissenschaften E.V. | Real-time Expression Transfer for Facial Reenactment |
US20190080457A1 (en) * | 2017-09-08 | 2019-03-14 | Samsung Electronics Co., Ltd. | Electronic device and method for automatic human segmentation in image |
CN108010049A (zh) * | 2017-11-09 | 2018-05-08 | 华南理工大学 | 使用全卷积神经网络分割定格动画中人手部区域的方法 |
CN108229504A (zh) * | 2018-01-29 | 2018-06-29 | 深圳市商汤科技有限公司 | 图像解析方法及装置 |
US10171161B1 (en) * | 2018-04-23 | 2019-01-01 | Ciena Corporation | Machine learning for link parameter identification in an optical communications system |
CN108764096A (zh) * | 2018-05-21 | 2018-11-06 | 华中师范大学 | 一种行人重识别系统和方法 |
CN109493362A (zh) * | 2018-09-03 | 2019-03-19 | 李磊 | 一种神经网络结合边缘检测的人体前景分割算法 |
CN109523560A (zh) * | 2018-11-09 | 2019-03-26 | 成都大学 | 一种基于深度学习的三维图像分割方法 |
CN109977793A (zh) * | 2019-03-04 | 2019-07-05 | 东南大学 | 基于变尺度多特征融合卷积网络的路侧图像行人分割方法 |
Non-Patent Citations (1)
Title |
---|
马骁: "基于深度卷积神经网络的图像语义分割", 《CNKI》 * |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111275694A (zh) * | 2020-02-06 | 2020-06-12 | 电子科技大学 | 一种注意力机制引导的递进式划分人体解析模型及方法 |
CN111275694B (zh) * | 2020-02-06 | 2020-10-23 | 电子科技大学 | 一种注意力机制引导的递进式划分人体解析系统及方法 |
CN111311616A (zh) * | 2020-02-13 | 2020-06-19 | 北京百度网讯科技有限公司 | 用于分割图像的方法和装置 |
CN111311616B (zh) * | 2020-02-13 | 2023-04-07 | 北京百度网讯科技有限公司 | 用于分割图像的方法和装置 |
CN111462149A (zh) * | 2020-03-05 | 2020-07-28 | 中国地质大学(武汉) | 一种基于视觉显著性的实例人体解析方法 |
CN111462149B (zh) * | 2020-03-05 | 2023-06-06 | 中国地质大学(武汉) | 一种基于视觉显著性的实例人体解析方法 |
CN112561937A (zh) * | 2020-12-18 | 2021-03-26 | 深圳先进技术研究院 | 基于病变边界信息响应的上下文感知医学图像分割方法 |
CN113379771A (zh) * | 2021-07-02 | 2021-09-10 | 西安电子科技大学 | 带有边缘约束的层次化人体解析语义分割方法 |
CN113379771B (zh) * | 2021-07-02 | 2024-04-09 | 西安电子科技大学 | 带有边缘约束的层次化人体解析语义分割方法 |
CN114511573A (zh) * | 2021-12-29 | 2022-05-17 | 电子科技大学 | 一种基于多层级边缘预测的人体解析模型及方法 |
CN114511573B (zh) * | 2021-12-29 | 2023-06-09 | 电子科技大学 | 一种基于多层级边缘预测的人体解析装置及方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110674685B (zh) | 2022-05-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110674685B (zh) | 一种基于边缘信息增强的人体解析分割模型及方法 | |
CN110532920B (zh) | 基于FaceNet方法的小数量数据集人脸识别方法 | |
CN107292256B (zh) | 基于辅任务的深度卷积小波神经网络表情识别方法 | |
EP3179407B1 (en) | Recognition of a 3d modeled object from a 2d image | |
Skocaj et al. | Weighted and robust incremental method for subspace learning | |
CN109409222A (zh) | 一种基于移动端的多视角人脸表情识别方法 | |
CN113822209B (zh) | 高光谱图像识别方法、装置、电子设备及可读存储介质 | |
CN110175251A (zh) | 基于语义对抗网络的零样本草图检索方法 | |
CN110728209A (zh) | 一种姿态识别方法、装置、电子设备及存储介质 | |
CN109583482A (zh) | 一种基于多特征融合与多核迁移学习的红外人体目标图像识别方法 | |
CN109902583B (zh) | 一种基于双向独立循环神经网络的骨架手势识别方法 | |
CN105184260B (zh) | 一种图像特征提取方法及行人检测方法及装置 | |
CN112288011A (zh) | 一种基于自注意力深度神经网络的图像匹配方法 | |
CN111339935B (zh) | 一种基于可解释cnn图像分类模型的光学遥感图片分类方法 | |
CN111860309A (zh) | 一种人脸识别方法及系统 | |
CN109726725A (zh) | 一种基于大间隔类间互异性多核学习的油画作者识别方法 | |
Choi et al. | Incremental two-dimensional two-directional principal component analysis (I (2D) 2 PCA) for face recognition | |
CN114332544A (zh) | 一种基于图像块评分的细粒度图像分类方法和装置 | |
Cai et al. | Vehicle Detection Based on Deep Dual‐Vehicle Deformable Part Models | |
Ouadiay et al. | Simultaneous object detection and localization using convolutional neural networks | |
CN113743521B (zh) | 一种基于多尺度上下文感知的目标检测方法 | |
CN114782979A (zh) | 一种行人重识别模型的训练方法、装置、存储介质及终端 | |
Zhang et al. | Landmark‐Guided Local Deep Neural Networks for Age and Gender Classification | |
Dong et al. | Scene-oriented hierarchical classification of blurry and noisy images | |
CN108734206B (zh) | 一种基于深度参数学习的最大相关主成分分析方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20220531 |