CN110222636A - 基于背景抑制的行人属性识别方法 - Google Patents
基于背景抑制的行人属性识别方法 Download PDFInfo
- Publication number
- CN110222636A CN110222636A CN201910482659.8A CN201910482659A CN110222636A CN 110222636 A CN110222636 A CN 110222636A CN 201910482659 A CN201910482659 A CN 201910482659A CN 110222636 A CN110222636 A CN 110222636A
- Authority
- CN
- China
- Prior art keywords
- pedestrian
- network
- attribute recognition
- background
- attribute
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Abstract
一种基于背景抑制的行人属性识别方法,其包括提取行人掩码图与背景掩码图;构建行人属性识别网络;行人特征向量提取;背景特征向量提取;网络优化;属性识别等步骤。本发明方法通过引入行人掩码图和背景掩码图,将其与行人属性识别网络分类层的输出特征图结合,使行人属性识别网络能获取分类层的行人特征图和背景特征图,然后提取行人图像特征向量、行人特征向量、背景特征向量,联合加权交叉熵损失函数和区域级三元损失函数两个损失函数共同训练,使行人属性识别网络在完成属性识别的同时,提高网络提取特征的稳定性。在此损失函数的约束下,神经网络学习到的特征将具有背景杂乱不变性,从而可提高行人属性识别的准确度。
Description
技术领域
本发明属于图像处理技术领域,特别是涉及一种基于背景抑制的行人属性识别方法。
背景技术
行人属性识别是计算机视觉领域一项重要的任务,其在智能视频监控系统中起着至关重要的作用。行人属性识别可以将监控视频中的大量行人信息转换为可用于检索的高级语义信息(如性别、年龄、服饰、携带品等),这些信息可以应用于嫌疑人搜索、失踪人口查找等工作中。通常,这些信息需要依靠人工观察的方式进行提取,工作量巨大且十分耗时。行人属性识别可以自动对监控视频中的信息进行提取,因而,具有较为广阔的应用前景。
但监控视频环境复杂,传统方法难以对监控场景的行人图像进行有效的特征描述。随着深度学习在计算机视觉任务中的表现越来越突出,研究人员提出多种基于深度学习的行人属性识别算法。对GoogleNet进行改进(陈萍,杨鸿波.基于深度学习的行人属性识别[J].信息通信,2018(04):74-76.),使模型可以输入任意大小的图像,无需对图像进行缩放或裁剪。利用poselet部件检测器对行人进行分割(LI Y N,HUANG C,Loy C C,etal.Human Attribute Recognition by Deep Hierarchical Contexts[C]//Procee-dingsof the European Conference on Computer Vision.Berlin,Germany:Springer,2016:684-700.),将分割后的行人部件与行人整体结合,提取深度特征进行行人属性识别。
现有的方法虽然都取得不错的识别效果,但由于监控场景的背景杂乱以及行人被遮挡等问题,行人属性识别在实际应用时的效果并不理想。
发明内容
为了解决上述问题,本发明的目的在于提供一种基于背景抑制的行人属性识别方法。
为了达到上述目的,本发明提供的基于背景抑制的行人属性识别方法包括按顺序进行的下列步骤:
(1)利用图像语义分割方法中经典的Deeplab-v2网络提取行人属性数据集中行人图像的行人掩码图与背景掩码图;
(2)构建如图1所示的行人属性识别网络,所述的行人属性识别网络以Resnet-50网络作为基础网络,在Resnet-50网络上增加了两个分支而对该网络进行改进,并以加权交叉熵损失函数和区域级三元损失函数联合作为行人属性识别网络中分类层的损失函数;
(3)以行人图像作为步骤(2)中行人属性识别网络的输入,将Resnet-50网络中残差块1的输出特征图与步骤(1)中的行人掩码图逐元素相乘即可获得行人特征图,然后利用残差块2、残差块3和残差块4继续对上述行人特征图进行提取,即可获得行人特征向量;
(4)以行人图像作为步骤(2)中行人属性识别网络的输入,将上述Resnet-50网络中残差块1的输出特征图与步骤(1)中的背景掩码图逐元素相乘即可获得背景特征图,然后利用残差块2、残差块3和残差块4继续对背景特征图进行提取,即可获得背景特征向量;
(5)将行人图像作为步骤(2)中行人属性识别网络的输入,即可获得行人图像特征向量,然后将步骤(3)、步骤(4)中获得的行人特征向量、背景特征向量及上述行人图像特征向量作为分类层的输入即可计算出行人属性识别网络的损失,之后利用随机梯度下降算法对行人属性识别网络进行优化,并保存最优网络参数;
(6)利用步骤(5)中获得最优网络参数初始化Resnet-50网络,最后输入任意的行人图像即可进行行人属性识别。
在步骤(1)中,所述的利用图像语义分割方法中经典的Deeplab-v2网络提取行人属性数据集中行人图像的行人掩码图与背景掩码图的具体方法是:
利用由Pytorch框架构建的deeplab-v2网络将输入的行人图像中行人区域元素置为1,背景区域元素置为0所得的矩阵即为行人掩码图,将背景区域元素置为1,行人区域元素置为0所得的矩阵即为背景掩码图。
在步骤(2)中,所述的构建行人属性识别网络,所述的行人属性识别网络以Resnet-50网络作为基础网络,在Resnet-50网络上增加了两个分支而对该网络进行改进的具体方法是:
1)在ResNet-50的基础上增加两个分支,用于提取行人特征向量与背景特征向量,Resnet-50网络用于提取行人图像特征向量;
2)修改Resnet-50网络全连接层的输出维度,使其与行人属性数据集中的标签属性个数一致。
在步骤(2)中,所述的区域级三元损失函数的数学表达式如下:
其中,m由实验获得,Ffull、Fforeground、Fbackground分别为行人属性识别网络提取的行人图像特征向量、行人特征向量和背景特征向量。
在步骤(2)中,所述的加权交叉熵损失函数的数学表达式如下:
其中,pl为第l个属性的正例数量在训练集中所占的比率,σ设置为1,yil为样例xi的第l个属性的标签,为属性识别网络预测的样例xi是否包含第l个属性的概率。
在步骤(2)中,所述的损失函数的数学表达式为:
Lall=Latt+λLtrip
其中,λ由实验获得。
在步骤(3)中,所述的以行人图像作为步骤(2)中行人属性识别网络的输入,将Resnet-50网络中残差块1的输出特征图与步骤(1)中的行人掩码图逐元素相乘即可获得行人特征图,然后利用残差块2、残差块3和残差块4继续对上述行人特征图进行提取,即可获得行人特征向量的具体方法是:
对步骤(1)中提取的行人掩码图进行尺度变换,使其维度与残差块1的输出特征图的维度一致,然后将尺度变换后的行人掩码图与残差块1的输出特征图逐元素相乘,即可将背景区域元素置为0,得到行人特征图;将行人特征图作为残差块2的输入继续进行特征提取即可得到行人特征向量。
在步骤(4)中,所述的以行人图像作为步骤(2)中行人属性识别网络的输入,将上述Resnet-50网络中残差块1的输出特征图与步骤(1)中的背景掩码图逐元素相乘即可获得背景特征图,然后利用残差块2、残差块3和残差块4继续对背景特征图进行提取,即可获得背景特征向量的具体方法是:
对步骤(1)中提取的背景掩码图进行尺度变换,使其维度与残差块1的输出特征图的维度一致,然后将尺度变换后的背景掩码图与残差块1的输出特征图逐元素相乘,即可将行人区域元素置为0,得到背景特征图;将背景特征图作为残差块2的输入继续进行特征提取即可得到背景特征向量。
在步骤(5)中,所述的将行人图像作为步骤(2)中行人属性识别网络的输入,即可获得行人图像特征向量,然后将步骤(3)、步骤(4)中获得的行人特征向量、背景特征向量及上述行人图像特征向量作为分类层的输入即可计算出行人属性识别网络的损失,之后利用随机梯度下降算法对行人属性识别网络进行优化,并保存最优网络参数的具体方法是:
利用Resnet-50网络提取行人图像特征向量,将行人图像作为行人属性识别网络的输入,Resnet-50网络中残差块4的输出即为行人图像特征向量;将行人图像特征向量通过全局平均池化操作进行降维,然后进行分类并利用交叉熵损失函数计算行人属性识别网络的损失;利用区域级三元损失函数计算行人图像特征向量分别与行人特征向量、背景特征向量的欧式距离作为行人属性识别网络特征提取的损失;将两个损失值联合作为行人属性识别网络的总损失;利用随机梯度下降算法对行人属性识别网络参数进行优化,设置网络的学习率和权重衰减,在设置的最大迭代学习次数下,不断迭代学习,直至行人属性识别网络的损失函数的损失值达到一个较小值,网络收敛,保存最优网络参数。
本发明提供的基于背景抑制的行人属性识别方法通过引入行人掩码图和背景掩码图,将其与行人属性识别网络分类层的输出特征图结合,使行人属性识别网络能获取分类层的行人特征图和背景特征图,然后提取行人图像特征向量、行人特征向量、背景特征向量,联合加权交叉熵损失函数和区域级三元损失函数两个损失函数共同训练,使行人属性识别网络在完成属性识别的同时,提高网络提取特征的稳定性。在此损失函数的约束下,神经网络学习到的特征将具有背景杂乱不变性,从而可提高行人属性识别的准确度。
附图说明
图1是本发明中行人属性识别网络结构示意图。
图2是本发明中残差块结构示意图。
具体实施方式
下面结合附图和具体实施例对本发明提供的基于背景抑制的行人属性识别方法进行详细说明。
本发明提供的基于背景抑制的行人属性识别方法包括按顺序进行的下列步骤:
(1)利用图像语义分割方法中经典的Deeplab-v2网络提取行人属性数据集中行人图像的行人掩码图与背景掩码图;
利用由Pytorch框架构建的deeplab-v2网络将输入的行人图像中行人区域元素置为1,背景区域元素置为0所得的矩阵即为行人掩码图,将背景区域元素置为1,行人区域元素置为0所得的矩阵即为背景掩码图。Pytorch框架是一个针对深度学习,并使用GPU和CPU优化的深度学习张量库。
(2)构建如图1所示的行人属性识别网络,所述的行人属性识别网络以Resnet-50网络作为基础网络,在Resnet-50网络上增加了两个分支而对该网络进行改进,并以加权交叉熵损失函数和区域级三元损失函数联合作为行人属性识别网络中分类层的损失函数;
具体方法是:
1)在ResNet-50的基础上增加两个分支,用于提取行人特征向量与背景特征向量,Resnet-50网络用于提取行人图像特征向量;
2)修改Resnet-50网络全连接层的输出维度,使其与行人属性数据集中的标签属性个数一致。
所述的ResNet-50网络是在网络结构中加入一些快捷连接(shortcutconnections),也可以称之为残差块,结构如图2所示。
其中残差块1、残差块2、残差块3和残差块4在提高神经网络特征提取能力的同时,不会增加模型的参数和复杂度,因此,可以加速神经网络的训练,提高模型的准确率。
所述的区域级三元损失函数用于计算行人属性识别网络提取特征造成的损失,其数学表达式如下:
其中,m由实验获得,Ffull、Fforeground、Fbackground分别为行人属性识别网络提取的行人图像特征向量、行人特征向量和背景特征向量。该损失函数计算的是行人图像特征向量分别与行人特征向量、背景特征向量的欧氏距离。随着该损失的最小化,网络提取的行人图像特征向量与行人特征向量越来越相似,行人图像特征向量与背景特征向量越来越相异。因此,该损失函数可以在行人属性识别网络提取特征的时候,抑制背景的影响。
所述的加权交叉熵损失函数的作用是计算行人属性识别网络的损失。行人属性数据集中每个属性的正负样本数目不均衡,加权交叉熵损失函数可为正样本数目较少的属性赋予较大的惩罚权重,为正样本数目较多的属性赋予较小的惩罚权重,以解决样本不均衡的问题,其数学表达式如下:
其中,pl为第l个属性的正例数量在训练集中所占的比率,σ设置为1,yil为样例xi的第l个属性的标签,为属性识别网络预测的样例xi是否包含第l个属性的概率。
利用区域级三元损失函数和加权交叉熵损失函数联合作为行人属性识别网络的损失函数,其数学表达式为:
Lall=Latt+λLtrip
其中,λ由实验获得。
(3)以行人图像作为步骤(2)中行人属性识别网络的输入,将Resnet-50网络中残差块1的输出特征图与步骤(1)中的行人掩码图逐元素相乘即可获得行人特征图,然后利用残差块2、残差块3和残差块4继续对上述行人特征图进行提取,即可获得行人特征向量;
具体方法是:
对步骤(1)中提取的行人掩码图进行尺度变换,使其维度与残差块1的输出特征图的维度一致,然后将尺度变换后的行人掩码图与残差块1的输出特征图逐元素相乘,即可将背景区域元素置为0,得到行人特征图;将行人特征图作为残差块2的输入继续进行特征提取即可得到行人特征向量。
(4)以行人图像作为步骤(2)中行人属性识别网络的输入,将上述Resnet-50网络中残差块1的输出特征图与步骤(1)中的背景掩码图逐元素相乘即可获得背景特征图,然后利用残差块2、残差块3和残差块4继续对背景特征图进行提取,即可获得背景特征向量;
具体方法是:
对步骤(1)中提取的背景掩码图进行尺度变换,使其维度与残差块1的输出特征图的维度一致,然后将尺度变换后的背景掩码图与残差块1的输出特征图逐元素相乘,即可将行人区域元素置为0,得到背景特征图;将背景特征图作为残差块2的输入继续进行特征提取即可得到背景特征向量。
(5)将行人图像作为步骤(2)中行人属性识别网络的输入,即可获得行人图像特征向量,然后将步骤(3)、步骤(4)中获得的行人特征向量、背景特征向量及上述行人图像特征向量作为分类层的输入即可计算出行人属性识别网络的损失,之后利用随机梯度下降算法对行人属性识别网络进行优化,并保存最优网络参数;
具体方法是:
利用Resnet-50网络提取行人图像特征向量,将行人图像作为行人属性识别网络的输入,Resnet-50网络中残差块4的输出即为行人图像特征向量;将行人图像特征向量通过全局平均池化操作进行降维,然后进行分类并利用交叉熵损失函数计算行人属性识别网络的损失;利用区域级三元损失函数计算行人图像特征向量分别与行人特征向量、背景特征向量的欧式距离作为行人属性识别网络特征提取的损失;将两个损失值联合作为行人属性识别网络的总损失;利用随机梯度下降算法对行人属性识别网络参数进行优化,设置网络的学习率和权重衰减,在设置的最大迭代学习次数下,不断迭代学习,直至行人属性识别网络的损失函数的损失值达到一个较小值,网络收敛,保存最优网络参数。
(6)利用步骤(5)中获得最优网络参数初始化Resnet-50网络,最后输入任意的行人图像即可进行行人属性识别。
Claims (9)
1.一种基于背景抑制的行人属性识别方法,其特征在于:所述的基于背景抑制的行人属性识别方法包括按顺序进行的下列步骤:
(1)利用图像语义分割方法中经典的Deeplab-v2网络提取行人属性数据集中行人图像的行人掩码图与背景掩码图;
(2)构建如图1所示的行人属性识别网络,所述的行人属性识别网络以Resnet-50网络作为基础网络,在Resnet-50网络上增加了两个分支而对该网络进行改进,并以加权交叉熵损失函数和区域级三元损失函数联合作为行人属性识别网络中分类层的损失函数;
(3)以行人图像作为步骤(2)中行人属性识别网络的输入,将Resnet-50网络中残差块1的输出特征图与步骤(1)中的行人掩码图逐元素相乘即可获得行人特征图,然后利用残差块2、残差块3和残差块4继续对上述行人特征图进行提取,即可获得行人特征向量;
(4)以行人图像作为步骤(2)中行人属性识别网络的输入,将上述Resnet-50网络中残差块1的输出特征图与步骤(1)中的背景掩码图逐元素相乘即可获得背景特征图,然后利用残差块2、残差块3和残差块4继续对背景特征图进行提取,即可获得背景特征向量;
(5)将行人图像作为步骤(2)中行人属性识别网络的输入,即可获得行人图像特征向量,然后将步骤(3)、步骤(4)中获得的行人特征向量、背景特征向量及上述行人图像特征向量作为分类层的输入即可计算出行人属性识别网络的损失,之后利用随机梯度下降算法对行人属性识别网络进行优化,并保存最优网络参数;
(6)利用步骤(5)中获得最优网络参数初始化Resnet-50网络,最后输入任意的行人图像即可进行行人属性识别。
2.根据权利要求1所述的基于背景抑制的行人属性识别方法,其特征在于:在步骤(1)中,所述的利用图像语义分割方法中经典的Deeplab-v2网络提取行人属性数据集中行人图像的行人掩码图与背景掩码图的具体方法是:
利用由Pytorch框架构建的deeplab-v2网络将输入的行人图像中行人区域元素置为1,背景区域元素置为0所得的矩阵即为行人掩码图,将背景区域元素置为1,行人区域元素置为0所得的矩阵即为背景掩码图。
3.根据权利要求1所述的基于背景抑制的行人属性识别方法,其特征在于:在步骤(2)中,所述的构建行人属性识别网络,所述的行人属性识别网络以Resnet-50网络作为基础网络,在Resnet-50网络上增加了两个分支而对该网络进行改进的具体方法是:
1)在ResNet-50的基础上增加两个分支,用于提取行人特征向量与背景特征向量,Resnet-50网络用于提取行人图像特征向量;
2)修改Resnet-50网络全连接层的输出维度,使其与行人属性数据集中的标签属性个数一致。
4.根据权利要求1所述的基于背景抑制的行人属性识别方法,其特征在于:在步骤(2)中,所述的区域级三元损失函数的数学表达式如下:
其中,m由实验获得,Ffull、Fforeground、Fbackground分别为行人属性识别网络提取的行人图像特征向量、行人特征向量和背景特征向量。
5.根据权利要求1所述的基于背景抑制的行人属性识别方法,其特征在于:在步骤(2)中,所述的加权交叉熵损失函数的数学表达式如下:
其中,pl为第l个属性的正例数量在训练集中所占的比率,σ设置为1,yil为样例xi的第l个属性的标签,为属性识别网络预测的样例xi是否包含第l个属性的概率。
6.根据权利要求1所述的基于背景抑制的行人属性识别方法,其特征在于:在步骤(2)中,所述的损失函数的数学表达式为:
Lall=Latt+λLtrip
其中,λ由实验获得。
7.根据权利要求1所述的基于背景抑制的行人属性识别方法,其特征在于:在步骤(3)中,所述的以行人图像作为步骤(2)中行人属性识别网络的输入,将Resnet-50网络中残差块1的输出特征图与步骤(1)中的行人掩码图逐元素相乘即可获得行人特征图,然后利用残差块2、残差块3和残差块4继续对上述行人特征图进行提取,即可获得行人特征向量的具体方法是:
对步骤(1)中提取的行人掩码图进行尺度变换,使其维度与残差块1的输出特征图的维度一致,然后将尺度变换后的行人掩码图与残差块1的输出特征图逐元素相乘,即可将背景区域元素置为0,得到行人特征图;将行人特征图作为残差块2的输入继续进行特征提取即可得到行人特征向量。
8.根据权利要求1所述的基于背景抑制的行人属性识别方法,其特征在于:在步骤(4)中,所述的以行人图像作为步骤(2)中行人属性识别网络的输入,将上述Resnet-50网络中残差块1的输出特征图与步骤(1)中的背景掩码图逐元素相乘即可获得背景特征图,然后利用残差块2、残差块3和残差块4继续对背景特征图进行提取,即可获得背景特征向量的具体方法是:
对步骤(1)中提取的背景掩码图进行尺度变换,使其维度与残差块1的输出特征图的维度一致,然后将尺度变换后的背景掩码图与残差块1的输出特征图逐元素相乘,即可将行人区域元素置为0,得到背景特征图;将背景特征图作为残差块2的输入继续进行特征提取即可得到背景特征向量。
9.根据权利要求1所述的基于背景抑制的行人属性识别方法,其特征在于:在步骤(5)中,所述的将行人图像作为步骤(2)中行人属性识别网络的输入,即可获得行人图像特征向量,然后将步骤(3)、步骤(4)中获得的行人特征向量、背景特征向量及上述行人图像特征向量作为分类层的输入即可计算出行人属性识别网络的损失,之后利用随机梯度下降算法对行人属性识别网络进行优化,并保存最优网络参数的具体方法是:
利用Resnet-50网络提取行人图像特征向量,将行人图像作为行人属性识别网络的输入,Resnet-50网络中残差块4的输出即为行人图像特征向量;将行人图像特征向量通过全局平均池化操作进行降维,然后进行分类并利用交叉熵损失函数计算行人属性识别网络的损失;利用区域级三元损失函数计算行人图像特征向量分别与行人特征向量、背景特征向量的欧式距离作为行人属性识别网络特征提取的损失;将两个损失值联合作为行人属性识别网络的总损失;利用随机梯度下降算法对行人属性识别网络参数进行优化,设置网络的学习率和权重衰减,在设置的最大迭代学习次数下,不断迭代学习,直至行人属性识别网络的损失函数的损失值达到一个较小值,网络收敛,保存最优网络参数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910482659.8A CN110222636B (zh) | 2019-05-31 | 2019-05-31 | 基于背景抑制的行人属性识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910482659.8A CN110222636B (zh) | 2019-05-31 | 2019-05-31 | 基于背景抑制的行人属性识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110222636A true CN110222636A (zh) | 2019-09-10 |
CN110222636B CN110222636B (zh) | 2023-04-07 |
Family
ID=67819609
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910482659.8A Active CN110222636B (zh) | 2019-05-31 | 2019-05-31 | 基于背景抑制的行人属性识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110222636B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111639654A (zh) * | 2020-05-12 | 2020-09-08 | 博泰车联网(南京)有限公司 | 一种图像处理方法、装置及计算机存储介质 |
CN112132004A (zh) * | 2020-09-21 | 2020-12-25 | 南水北调中线信息科技有限公司 | 一种基于多视角特征融合的细粒度图像识别方法 |
CN113283414A (zh) * | 2021-07-26 | 2021-08-20 | 深圳市安软科技股份有限公司 | 行人属性识别方法、相关设备及计算机可读存储介质 |
CN117173477A (zh) * | 2023-09-05 | 2023-12-05 | 北京交通大学 | 一种基于多层级数据扰动策略的域泛化行人再识别方法 |
Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106780536A (zh) * | 2017-01-13 | 2017-05-31 | 深圳市唯特视科技有限公司 | 一种基于对象掩码网络的形状感知实例分割方法 |
US20170262735A1 (en) * | 2016-03-11 | 2017-09-14 | Kabushiki Kaisha Toshiba | Training constrained deconvolutional networks for road scene semantic segmentation |
CN108171233A (zh) * | 2016-12-07 | 2018-06-15 | 三星电子株式会社 | 使用基于区域的深度学习模型的对象检测的方法和设备 |
CN108280452A (zh) * | 2018-01-26 | 2018-07-13 | 深圳市唯特视科技有限公司 | 一种基于并行网络构架的图像语义标签纠错方法 |
WO2018217828A1 (en) * | 2017-05-23 | 2018-11-29 | Intel Corporation | Methods and apparatus for discriminative semantic transfer and physics-inspired optimization of features in deep learning |
CN109190537A (zh) * | 2018-08-23 | 2019-01-11 | 浙江工商大学 | 一种基于掩码感知深度强化学习的多人物姿态估计方法 |
US10186038B1 (en) * | 2017-07-18 | 2019-01-22 | Siemens Healthcare Gmbh | Segmentation and representation network for pose discrimination |
KR101941994B1 (ko) * | 2018-08-24 | 2019-01-24 | 전북대학교산학협력단 | 결합심층네트워크에 기반한 보행자 인식 및 속성 추출 시스템 |
US20190057507A1 (en) * | 2017-08-18 | 2019-02-21 | Samsung Electronics Co., Ltd. | System and method for semantic segmentation of images |
US20190094875A1 (en) * | 2017-09-28 | 2019-03-28 | Nec Laboratories America, Inc. | Generating occlusion-aware bird eye view representations of complex road scenes |
CN109584248A (zh) * | 2018-11-20 | 2019-04-05 | 西安电子科技大学 | 基于特征融合和稠密连接网络的红外面目标实例分割方法 |
CN109635636A (zh) * | 2018-10-30 | 2019-04-16 | 国家新闻出版广电总局广播科学研究院 | 基于属性特征和加权的分块特征相融合的行人再识别方法 |
CN109685067A (zh) * | 2018-12-26 | 2019-04-26 | 江西理工大学 | 一种基于区域和深度残差网络的图像语义分割方法 |
CN109741331A (zh) * | 2018-12-24 | 2019-05-10 | 北京航空航天大学 | 一种图像前景物体分割方法 |
US10304193B1 (en) * | 2018-08-17 | 2019-05-28 | 12 Sigma Technologies | Image segmentation and object detection using fully convolutional neural network |
-
2019
- 2019-05-31 CN CN201910482659.8A patent/CN110222636B/zh active Active
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170262735A1 (en) * | 2016-03-11 | 2017-09-14 | Kabushiki Kaisha Toshiba | Training constrained deconvolutional networks for road scene semantic segmentation |
CN108171233A (zh) * | 2016-12-07 | 2018-06-15 | 三星电子株式会社 | 使用基于区域的深度学习模型的对象检测的方法和设备 |
CN106780536A (zh) * | 2017-01-13 | 2017-05-31 | 深圳市唯特视科技有限公司 | 一种基于对象掩码网络的形状感知实例分割方法 |
WO2018217828A1 (en) * | 2017-05-23 | 2018-11-29 | Intel Corporation | Methods and apparatus for discriminative semantic transfer and physics-inspired optimization of features in deep learning |
US10186038B1 (en) * | 2017-07-18 | 2019-01-22 | Siemens Healthcare Gmbh | Segmentation and representation network for pose discrimination |
US20190057507A1 (en) * | 2017-08-18 | 2019-02-21 | Samsung Electronics Co., Ltd. | System and method for semantic segmentation of images |
US20190094875A1 (en) * | 2017-09-28 | 2019-03-28 | Nec Laboratories America, Inc. | Generating occlusion-aware bird eye view representations of complex road scenes |
CN108280452A (zh) * | 2018-01-26 | 2018-07-13 | 深圳市唯特视科技有限公司 | 一种基于并行网络构架的图像语义标签纠错方法 |
US10304193B1 (en) * | 2018-08-17 | 2019-05-28 | 12 Sigma Technologies | Image segmentation and object detection using fully convolutional neural network |
CN109190537A (zh) * | 2018-08-23 | 2019-01-11 | 浙江工商大学 | 一种基于掩码感知深度强化学习的多人物姿态估计方法 |
KR101941994B1 (ko) * | 2018-08-24 | 2019-01-24 | 전북대학교산학협력단 | 결합심층네트워크에 기반한 보행자 인식 및 속성 추출 시스템 |
CN109635636A (zh) * | 2018-10-30 | 2019-04-16 | 国家新闻出版广电总局广播科学研究院 | 基于属性特征和加权的分块特征相融合的行人再识别方法 |
CN109584248A (zh) * | 2018-11-20 | 2019-04-05 | 西安电子科技大学 | 基于特征融合和稠密连接网络的红外面目标实例分割方法 |
CN109741331A (zh) * | 2018-12-24 | 2019-05-10 | 北京航空航天大学 | 一种图像前景物体分割方法 |
CN109685067A (zh) * | 2018-12-26 | 2019-04-26 | 江西理工大学 | 一种基于区域和深度残差网络的图像语义分割方法 |
Non-Patent Citations (6)
Title |
---|
吴彦丞等: "基于行人属性异质性的行人再识别神经网络模型", 《计算机工程》 * |
李亚鹏等: "基于深度学习的行人属性多标签识别", 《中国生物医学工程学报》 * |
杨其睿: "油田安防领域基于改进的深度残差网络行人检测模型", 《计算机测量与控制》 * |
温佩芝等: "基于卷积神经网络改进的图像自动分割方法", 《计算机应用研究》 * |
高云等: "基于深度学习的群猪图像实例分割方法", 《农业机械学报》 * |
黄同愿等: "基于深度学习的行人检测技术研究进展", 《重庆理工大学学报(自然科学)》 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111639654A (zh) * | 2020-05-12 | 2020-09-08 | 博泰车联网(南京)有限公司 | 一种图像处理方法、装置及计算机存储介质 |
CN111639654B (zh) * | 2020-05-12 | 2023-12-26 | 博泰车联网(南京)有限公司 | 一种图像处理方法、装置及计算机存储介质 |
CN112132004A (zh) * | 2020-09-21 | 2020-12-25 | 南水北调中线信息科技有限公司 | 一种基于多视角特征融合的细粒度图像识别方法 |
CN113283414A (zh) * | 2021-07-26 | 2021-08-20 | 深圳市安软科技股份有限公司 | 行人属性识别方法、相关设备及计算机可读存储介质 |
CN117173477A (zh) * | 2023-09-05 | 2023-12-05 | 北京交通大学 | 一种基于多层级数据扰动策略的域泛化行人再识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110222636B (zh) | 2023-04-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106446930B (zh) | 基于深层卷积神经网络的机器人工作场景识别方法 | |
CN104992184B (zh) | 一种基于半监督极限学习机的多类图像分类方法 | |
CN110222636A (zh) | 基于背景抑制的行人属性识别方法 | |
CN109948425A (zh) | 一种结构感知自注意和在线实例聚合匹配的行人搜索方法及装置 | |
CN106815566A (zh) | 一种基于多任务卷积神经网络的人脸检索方法 | |
CN110097000A (zh) | 基于局部特征聚合描述符和时序关系网络的视频行为识别方法 | |
CN105488456B (zh) | 基于自适应阈值调整拒识子空间学习的人脸检测方法 | |
Zhang et al. | Semantic classification of high-resolution remote-sensing images based on mid-level features | |
CN109993100A (zh) | 基于深层特征聚类的人脸表情识别的实现方法 | |
CN106599800A (zh) | 一种基于深度学习的人脸微表情识别方法 | |
CN105678231A (zh) | 一种基于稀疏编码和神经网络的行人图片检测方法 | |
CN108460407A (zh) | 一种基于深度学习的行人属性精细化识别方法 | |
CN110363233B (zh) | 一种基于块检测器及特征融合的卷积神经网络的细粒度图像识别方法及系统 | |
CN106504255A (zh) | 一种基于多标签多示例学习的多目标图像联合分割方法 | |
CN107506786A (zh) | 一种基于深度学习的属性分类识别方法 | |
CN108229503A (zh) | 一种针对服装照片的特征提取方法 | |
CN106874924A (zh) | 一种图片风格识别方法及装置 | |
CN106055653A (zh) | 基于图像语义注释的视频浓缩对象检索方法 | |
CN110427821A (zh) | 一种基于轻量级卷积神经网络的人脸检测方法及系统 | |
Wei et al. | P3D-CTN: Pseudo-3D convolutional tube network for spatio-temporal action detection in videos | |
CN110427795A (zh) | 一种基于头部照片的属性分析方法、系统和计算机设备 | |
CN109509191A (zh) | 一种图像显著性目标检测方法及系统 | |
CN110516533A (zh) | 一种基于深度度量的行人再辨识方法 | |
Shuang et al. | Scale-balanced loss for object detection | |
CN112669343A (zh) | 一种基于深度学习的壮族少数民族服饰分割方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |