CN114694171B - 一种基于自监督模式特征增强的行人属性识别方法 - Google Patents
一种基于自监督模式特征增强的行人属性识别方法 Download PDFInfo
- Publication number
- CN114694171B CN114694171B CN202210160918.7A CN202210160918A CN114694171B CN 114694171 B CN114694171 B CN 114694171B CN 202210160918 A CN202210160918 A CN 202210160918A CN 114694171 B CN114694171 B CN 114694171B
- Authority
- CN
- China
- Prior art keywords
- attribute
- pedestrian
- features
- attr2
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Abstract
本发明提出一种基于自监督模式特征增强的行人属性识别方法,旨在减少行人图像结构对行人特征的影响,通过将行人图像及其水平翻转的图像输入到深度学习网络中,将属性特征以及结构特征以自监督模式的方式进行分解并且重组以减少图像结构对行人特征的影响,同时利用属性之间的关联关系,通过属性分类损失、属性分类一致性损失以及水平翻转一致性约束下的自监督模式的学习对行人图像的特征进行增强。通过自监督模式特征增强后的行人属性识别网络取得了良好的性能提升。在ResNet101网络结构嵌入了Non‑local模块,以学习属性之间的关联性;并设计了全连接注意力层进一步增强行人特征。由于使用了学习到的更具有表示性的特征,进一步提高了行人属性识别的性能。
Description
技术领域
本发明属于计算机视觉、机器学习等技术,特别涉及基于深度学习和特征增强的行人属性识别技术。
背景技术
行人属性识别技术运用模式识别、机器学习、计算机视觉、图像处理以及计算机应用等多个学科知识,构成了一种在行人图像中获取目标人物属性的方法,为后续的高层计算机视觉任务比如行人重识别、行人检测、行为分析等奠定了基础。目前,行人属性识别技术广泛应用于智能视频监控、行人重识别、行人跟踪、行人检索等领域中,有着广泛的应用前景及巨大的商业价值。如何将行人图像提取出具有强鲁棒性及表示性的属性特征是计算机视觉领域中的热门问题。
随着深度学习的发展,行人属性识别方法越来越依赖于好的特征提取结构。特征提取网络要提取对光照、环境和行人姿态、图像结构等具有较好的鲁棒性的特征,这样可以使得行人特征更好地表示行人图像,从而提高行人属性识别的性能。然而因为行人属性类别中有很大的类内变化(外观多样性和外观模糊性),如相机从不同角度拍摄的图像会导致行人属性识别的视角问题;由于人体的非刚性进一步使得行人属性识别更加复杂、人体被他人或事物遮挡引入的像素可能会使模型混乱,导致错误的预测,从而增加行人属性识别的难度;不同时间采集的行人图像会由于采光不同而导致曝光变化;这些类内变化需要鲁棒性更好的特征来表示。其中,行人图像结构也会干扰模型对特征的提取,而设计出针对行人图像结构鲁棒性更强的特征也是目前行人属性识别面临的很大难题。
发明内容
本发明所要解决的技术问题是,针对减少行人图像结构对于行人属性识别的影响难题对行人属性识别基础网络进行改进,并提出一个准确性更高的行人属性识别方法。
本发明为解决上述技术问题所采用的技术方案是,一种基于自监督模式特征增强的行人属性识别方法,包括以下步骤:
1)接收输入的待识别的图像通过分解重组提取行人图像和水平翻转行人图像的属性特征和结构特征;
分解重组的具体方式为:先通过属性特征提取网络和结构特征提取网络分提取输入图像的属性特征attr1、结构特征struc1以及水平翻转输入图像的属性特征attr2、结构特征struc2,分解重组分支网络对特征提取网络输出的特征进行两两重组得到4个重组特征attr1_struc1、attr1_struc2、attr2_struc1、attr2_struc2;
2)分解重组分支网络训练过程中,首先将attr2_struc1特征图水平翻转,并对翻转后的attr2_struc1特征图与attr1_struc2特征图采用水平翻转一致性损失进行约束。然后将attr1_struc1特征图和attr2_struc2特征图经过全局平均池化层再经过全连接注意力层进行特征增强,最后将该增强特征输入到全连接层中获得预测结果,在对预测结果与属性真实标签采用交叉熵损失进行约束同时,对两个特征图的预测结果也采用属性预测一致性损失进行约束;
本发明旨在减少行人图像结构对行人特征的影响,通过将行人图像以及水平翻转行人图像输入到深度学习网络中,将属性特征以及结构特征以自监督模式的方式进行分解并且重组以减少图像结构对行人特征的影响,同时利用属性之间的关联关系,通过属性分类损失、属性分类一致性损失以及水平翻转一致性约束下的自监督模式学习对行人图像的特征进行增强。通过自监督模式方式特征增强后的行人属性识别网络取得了良好的性能提升。
具体的,本发明的框架在ResNet101网络的基础上进行改进。基于ResNet101网络,我们设计了一个针对行人属性识别任务中图像结构干扰难题的特征增强网络,本发明提出将行人图像及其水平翻转行人图像输入到以ResNet101网络为Backbone的深度学习网络中,将属性特征以及结构特征以自监督模式的方式进行分解并且重组后,通过属性学习以及水平翻转一致性约束下的自监督模式学习对行人图像的特征进行增强。此外,行人属性之间的关系不是独立的而可能是有关联的,为了利用属性之间的关联关系进一步增强学习到的属性特征,本发明在ResNet101网络结构嵌入了Non-local模块,以学习属性之间的关联性。
本发明的有益效果是,经本发明训练完成的网络结构提取的图像特征,对水平结构信息具有鲁棒性,进而减少了行人图像结构对于行人属性识别的影响;在ResNet101模块中嵌入Non-local模块,使得网络可以将可能存在关联的行人属性关联起来,从而学习到更加能够代表行人图像的行人特征;使用全连接注意力层增强特征其使得特征具有更好的表示性,可以进一步提高行人属性识别的性能。
附图说明
图1为基于自监督模式特征增强的行人属性识别网络的结构示意图。
图2为嵌入Non-local模块的ResNet101示意图。
图3为全连接注意力层模块示意图。
图4为属性分类一致性模块示意图。
具体实施方式
如图1所示,基于自监督模式特征增强的行人属性识别网络由4个嵌入了Non-local模块的特征提取网络ResNet101和本发明所提出的分解重组分支网络组成,嵌入了Non-local模块的ResNet101网络主要用于提取输入的行人图像及其水平翻转行人图像的属性特征和结构特征,用于提取属性特征的特征提取网络的参数是共享的,用于提取结构特征的特征提取网络的参数是也共享的。
行人属性识别网络首先将行人图像及其水平翻转行人图像通过嵌入了Non-local模块的ResNet101网络生成行人图像的属性特征attr1、结构特征struc1以及水平翻转行人图像的属性特征attr2、结构特征struc2。将这些特征两两重组可以得到4个重组特征attr1_struc1、attr1_struc2、attr2_struc1、attr2_struc2。将attr2_struc1特征图水平翻转后,对该特征图与attr1_struc2特征图采用水平翻转一致性损失进行约束;对attr1_struc1特征图和attr2_struc2特征图分别经过全局平均池化层后经过全连接注意力层进行特征增强,然后将增强特征图经过全局平均池化GAP得到特征向量,再将这个向量通过全连接层FC进行属性分类,最后对这两个特征输出的结果采用属性分类一致性损失以及属性分类损失进行约束。
下面给出该发明技术方案中所涉及的各个细节问题的详细说明。
(1)构建自监督特征分解和重组网络模型
特征提取最重要的是提取对光照、角度和行人的姿态等等干扰信息具有较好的鲁棒性的特征,使得行人特征更好地表示行人图像,从而提高模型的识别性能。图像结构也会干扰模型对特征的提取。为了减少图像结构对行人特征的影响,我们采用自监督模式的方式引导网络的学习,使得网络可以将结构信息从行人特征中分解出来。自监督学习主要是通过构造的监督信息对网络进行训练,从而可以学习到有价值的表征。借鉴自监督学习的思想,我们提出将行人图像以及水平翻转的行人图像输入到以ResNet101为Backbone的深度学习网络中,并在构造的水平翻转一致性损失的监督下将结构信息从行人特征中分解出来。我们设计的模型由4个嵌入了Non-local模块的特征提取网络ResNet101和本发明所提出的分解重组分支网络组成,ResNet101的四个特征提取网络主要用于提取输入的行人图像和水平翻转行人图像的属性特征和结构特征,其中属性特征提取网络的参数是共享的,结构特征提取网络的参数也是共享的。基于自监督模式特征增强的行人属性识别网络首先将行人图像和水平翻转行人图像通过ResNet101生成各自的属性特征和结构特征,其中ResNet101_attr分别生成行人图像和水平翻转行人图像的属性特征attr1和attr2,ResNet101_struc分别生成行人图像和水平翻转行人图像的结构特征struc1和struc2。将行人图像的属性特征和行人图像的结构特征在通道上组合起来得到attr1_struc1特征;将行人图像的属性特征和水平翻转的行人图像的结构特征在通道上组合起来得到attr1_struc2特征;将水平翻转行人图像的属性特征和行人图像的结构特征在通道上组合起来起来得到attr2_struc1特征,将水平翻转行人图像的属性特征和水平翻转行人图像的结构特征在通道上组合起来起来得到attr2_struc2特征。将属性特征以及水平结构特征重组后,通过属性分类损失、属性分类一致性损失以及自监督模式下构造的水平翻转一致性约束对行人图像的特征进行增广和增强。其中,水平翻转一致性约束是用自监督模式的方式对属性特征和结构特征进行分解。
具体如下,得到重组特征attr1_struc2以及attr2_struc1后将其分别命名为CAM1和CAM2,然后将CAM2水平翻转得到CAM2_flip。得到CAM2_flip之后,对CAM1和CAM2_flip采用水平翻转一致性损失进行约束:
lflip=||CAM1-CAM2_flip||2-LOSS
其中||·||2-LOSS为像素级L2-损失。
通过这样的方式对属性特征和结构特征进行分解以及重组不仅可以让网络看到更多属性信息和结构信息组合下的行人特征,使得网络对行人图像结构的变化具有更好的鲁棒性;同时也对行人特征进行了增广,从两个行人特征通过分解和重组的方式增广到了四个特征,网络看到的行人特征增多,网络的识别性能也就越强大。
(2)设计Non-local模块嵌入的ResNet101网络
我们在行人身上的某些属性可能与其他属性产生关联的基础上,为了将特征图上某个区域的属性与其他区域上可能与其相关的属性产生关联,从而提高特征图对于行人属性的表示性,我们在ResNet101结构中嵌入Non-local模块。嵌入Non-local模块的ResNet101结构如图2所示,ResNet101包含4层,分别是layer1、layer2、layer3、layer4。Non-local模块本质上是对自注意力的应用,其核心思想是通过关注所有位置并将特征图上所有的位置的响应求加权平均值来计算当前位置的响应。因此,我们将Non-local模块嵌入到ResNet101网络以期构建属性之间的关联性。在本发明中,我们发现在layer3层(输出通道数为1024维的层)后面嵌入Non-local模块得到的模型性能最好,分析原因是局部区域属性以及全局高级属性在该特征维度上得到了最好的结合。
(3)采用全连接注意力层进一步增强特征
全连接注意力层模块见图3,特征图attr1_struc1、attr2_struc2先经过全局平均池化层GAP得到两个特征向量,然后将两个特征向量分别送入参数共享的全连接层FC,然后将全连接层的参数映射到attr1_struc1、attr2_struc2上就得到了增强特征图CAM3、CAM4。经过全连接层系数加权后得到的增强特征表示性更好,对于属性分类任务具有更强的判别力,这对行人属性识别任务性能的提升是有益的。之后,我们将增强特征图经过全局平均池化层得到相应的特征向量,然后将得到的特征向量分别输入到参数共享的全连接层FC中预测输出。
图1中在得到重组的特征attr1_struc1、attr2_struc2后,我们将其经过全局平均池化GAP层得到两个特征向量vector3、vector4,然后将vector3、vector4分别送入参数共享的全连接层FC,然后将全连接层FC的参数映射到attr1_struc1、attr2_struc2上就得到了增强特征图CAM3、CAM4,之后会将增强特征图用于属性分类。
对于属性分类损失,在行人属性识别数据集中某个属性正样本所占的比例可能会很高,而负样本所占的比例很低,在训练的时候由于正负样本分布不平衡会让网络看到的正样本比较多,而看到的负样本比较少,这会导致网络倾向于学习占比大的类别的属性特征,不利于网络参数的学习,反之亦然。为了改善正负样本分布不平衡带来的影响,本发明采用了带权重的Sigmoid交叉熵损失lc,该损失函数会加大对错分的占比小的类别的惩罚,使得网络能关注到占比小的类别,从而减小样本分布不平衡的影响。其形式如下
其中N和L分别是输入网络的样本数量和属性的数量;yij为图像i中第j个属性的真实标签,xij为对图像i预测的第j个属性出现的概率;pj是属性j中正样本所占的比例;wij是对损失的加权,通过对pj做指数操作得到的权重加大对错分样本的惩罚。
(1)设计属性分类一致性损失
本发明基于两张输入图像的属性是一致的,从而通过采用行人属性分类预测一致性进行约束,让网络对于重组得到的行人特征attr1_struc1、attr2_struc2的属性分类一致,从而提高网络对于属性分类的准确性,属性分类一致性模块如图4。属性分类一致性损失函数lide如下:
lide=||y1-y2||2
y1和y2分别是attr1_struc1的类激活映射图CAM3和attr2_struc2的类激活映射图CAM4的属性分类预测结果;L是行人属性的数量,||·||2为L2-范数。
通过上述行人属性识别网络的构建与训练后,训练完成的人属性识别网络将通过下面的实验验证来检验其效果。
(2)实验验证
为了证明本发明中所提出的基于自监督特征增强的行人属性识别方法的有效性,我们在权威的行人属性识别公共基准WIDER和PA100k以及PETA上测试了我们的模型。
行人属性识别的指标有两种,分别是基于标签的指标mA和基于实例的指标Acc、pre、rec、F1:
基于标签(label-based)的指标mA分别计算行人属性的正样本和负样本的准确率,然后求两者的平均值:
其中,L为标签数量,N为样本数量,Pi为第i类属性的正样本数量,Ni为第i类属性的负样本数量,TPi为测试中第i类属性中预测正确的正样本个数,TNi为测试中第i类属性中预测正确的负样本个数;
基于实例(sample-based)的指标:
其中,L为属性数量,N为样本数量,xi为输入样本,Yi为输入样本的真实标签,f(xi)为输入样本的预测结果。
将实施例我们的基于自监督模式特征增强的行人属性识别方法与其他较先进的现有行人属性识别方法进行了比较。
实施例方法(Ours)与现有方法在WIDRE数据集上的比较如表1所示,最优的指标通过加粗字体体现:
表1
实施例方法与现有方法在Pa100k数据集上的比较如表2所示,最优的指标通过加粗字体体现:
表2
实施例方法与当前先进方法在PETA数据集上的比较如表3所示,最优的指标通过加粗字体体现:
表3
可见实施例方法在三个基准上的识别性能都达到了先进水平。
Claims (1)
1.一种基于自监督模式特征增强的行人属性识别方法,其特征在于,包括以下步骤:
1)特征提取网络接收输入的待识别的行人图像通过分解重组提取行人图像和水平翻转的行人图像的属性特征和结构特征;
特征提取网络采用嵌入了非局部Non-local模块的特征提取网络ResNet101;特征提取网络ResNet101包括四层残差网络,Non-local模块嵌入第三层残差网络后;
提取属性特征和结构特征的具体方式为:先通过属性特征提取网络和结构特征提取网络分别提取输入图像的属性特征attr1、结构特征struc1以及水平翻转输入图像的属性特征attr2、结构特征struc2,分解重组分支网络对特征提取网络输出的特征进行两两重组得到4个重组特征图attr1_struc1、attr1_struc2、attr2_struc1、attr2_struc2;
2)分解重组分支网络训练过程中,首先将重组特征图attr2_struc1水平翻转,并对翻转后的重组特征图attr2_struc1与重组特征图attr1_struc2采用水平翻转一致性损失进行约束;然后将重组特征图attr1_struc1和重组特征图attr2_struc2经过全局平均池化层后再经过全连接注意力层进行特征增强得到增强特征,最后将增强特征输入到全连接层中获得预测结果,在对预测结果与属性真实标签采用交叉熵损失进行约束,对两个特征图的预测结果采用属性预测一致性损失进行约束;
完成训练的分解重组分支网络直接接收特征提取网络输出的重组特征图attr1_struc1和重组特征图attr2_struc2完成行人属性识别;
计算水平翻转一致性损失的损失函数lflip为:
lflip=||CAM1-CAM2_flip||2-LOSS
其中,CAM1和CAM2_flip分别是重组特征图attr1_struc2和重组特征图attr2_struc1经过水平翻转得到的特征图,||·||2-LOSS为像素级L2-损失;
计算属性分类一致性损失的损失函数lide为
lide=||y1-y2||2
y1和y2分别是重组特征图attr1_struc1的增强特征和重组特征图attr2_struc2的增强特征对应的属性预测结果;||·||2为L2-范数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210160918.7A CN114694171B (zh) | 2022-02-22 | 2022-02-22 | 一种基于自监督模式特征增强的行人属性识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210160918.7A CN114694171B (zh) | 2022-02-22 | 2022-02-22 | 一种基于自监督模式特征增强的行人属性识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114694171A CN114694171A (zh) | 2022-07-01 |
CN114694171B true CN114694171B (zh) | 2023-10-10 |
Family
ID=82136957
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210160918.7A Active CN114694171B (zh) | 2022-02-22 | 2022-02-22 | 一种基于自监督模式特征增强的行人属性识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114694171B (zh) |
Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101941994B1 (ko) * | 2018-08-24 | 2019-01-24 | 전북대학교산학협력단 | 결합심층네트워크에 기반한 보행자 인식 및 속성 추출 시스템 |
WO2019169816A1 (zh) * | 2018-03-09 | 2019-09-12 | 中山大学 | 一种用于精细化识别车辆属性的深度神经网络及训练方法 |
CN111259720A (zh) * | 2019-10-30 | 2020-06-09 | 北京中科研究院 | 基于自监督代理特征学习的无监督行人重识别方法 |
CN111259786A (zh) * | 2020-01-14 | 2020-06-09 | 浙江大学 | 一种基于视频的外观和运动信息同步增强的行人重识别方法 |
CN111476144A (zh) * | 2020-04-02 | 2020-07-31 | 深圳力维智联技术有限公司 | 行人属性识别模型确定方法、装置及计算机可读存储介质 |
CN111814845A (zh) * | 2020-03-26 | 2020-10-23 | 同济大学 | 一种基于多支流融合模型的行人重识别方法 |
CN111881714A (zh) * | 2020-05-22 | 2020-11-03 | 北京交通大学 | 一种无监督跨域行人再识别方法 |
CN112016402A (zh) * | 2020-08-04 | 2020-12-01 | 杰创智能科技股份有限公司 | 基于无监督学习的行人重识别领域自适应方法及装置 |
CN112307995A (zh) * | 2020-11-05 | 2021-02-02 | 电子科技大学 | 一种基于特征解耦学习的半监督行人重识别方法 |
CN112801212A (zh) * | 2021-03-02 | 2021-05-14 | 东南大学 | 一种基于小样本半监督学习的白细胞分类计数方法 |
CN112836677A (zh) * | 2021-03-02 | 2021-05-25 | 西安建筑科技大学 | 一种利用深度学习的弱监督车辆重识别方法 |
CN113128441A (zh) * | 2021-04-28 | 2021-07-16 | 安徽大学 | 一种属性和状态引导的结构嵌入车辆重识别系统和方法 |
CN113221625A (zh) * | 2021-03-02 | 2021-08-06 | 西安建筑科技大学 | 一种利用深度学习的局部特征对齐行人重识别方法 |
CN113536946A (zh) * | 2021-06-21 | 2021-10-22 | 清华大学 | 一种基于摄像头关系的自监督行人重识别方法 |
CN113780389A (zh) * | 2021-08-31 | 2021-12-10 | 中国人民解放军战略支援部队信息工程大学 | 基于一致性约束的深度学习半监督密集匹配方法及系统 |
-
2022
- 2022-02-22 CN CN202210160918.7A patent/CN114694171B/zh active Active
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019169816A1 (zh) * | 2018-03-09 | 2019-09-12 | 中山大学 | 一种用于精细化识别车辆属性的深度神经网络及训练方法 |
KR101941994B1 (ko) * | 2018-08-24 | 2019-01-24 | 전북대학교산학협력단 | 결합심층네트워크에 기반한 보행자 인식 및 속성 추출 시스템 |
CN111259720A (zh) * | 2019-10-30 | 2020-06-09 | 北京中科研究院 | 基于自监督代理特征学习的无监督行人重识别方法 |
CN111259786A (zh) * | 2020-01-14 | 2020-06-09 | 浙江大学 | 一种基于视频的外观和运动信息同步增强的行人重识别方法 |
CN111814845A (zh) * | 2020-03-26 | 2020-10-23 | 同济大学 | 一种基于多支流融合模型的行人重识别方法 |
CN111476144A (zh) * | 2020-04-02 | 2020-07-31 | 深圳力维智联技术有限公司 | 行人属性识别模型确定方法、装置及计算机可读存储介质 |
CN111881714A (zh) * | 2020-05-22 | 2020-11-03 | 北京交通大学 | 一种无监督跨域行人再识别方法 |
CN112016402A (zh) * | 2020-08-04 | 2020-12-01 | 杰创智能科技股份有限公司 | 基于无监督学习的行人重识别领域自适应方法及装置 |
CN112307995A (zh) * | 2020-11-05 | 2021-02-02 | 电子科技大学 | 一种基于特征解耦学习的半监督行人重识别方法 |
CN112801212A (zh) * | 2021-03-02 | 2021-05-14 | 东南大学 | 一种基于小样本半监督学习的白细胞分类计数方法 |
CN112836677A (zh) * | 2021-03-02 | 2021-05-25 | 西安建筑科技大学 | 一种利用深度学习的弱监督车辆重识别方法 |
CN113221625A (zh) * | 2021-03-02 | 2021-08-06 | 西安建筑科技大学 | 一种利用深度学习的局部特征对齐行人重识别方法 |
CN113128441A (zh) * | 2021-04-28 | 2021-07-16 | 安徽大学 | 一种属性和状态引导的结构嵌入车辆重识别系统和方法 |
CN113536946A (zh) * | 2021-06-21 | 2021-10-22 | 清华大学 | 一种基于摄像头关系的自监督行人重识别方法 |
CN113780389A (zh) * | 2021-08-31 | 2021-12-10 | 中国人民解放军战略支援部队信息工程大学 | 基于一致性约束的深度学习半监督密集匹配方法及系统 |
Non-Patent Citations (6)
Title |
---|
A feature disentangling approach for person re-identification via self-supervised data augmentation;Feng Chen等;Applied Soft Computing;第100卷;1-10 * |
Rapid Pedestrian Detection Based on Deep Omega-Shape Features with Partial Occlusion Handing;Yuting Xu等;Neural Processing Letters;第49卷;923–937 * |
Self-supervised data augmentation for person re-identification;Feng Chen等;Neurocomputing;第415卷;48-59 * |
Self-Supervised Viewpoint Learning From Image Collections;Siva Karthik Mustikovela等;Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2020;3971-3981 * |
基于域自适应的无监督行人重识别方法研究;李懂;中国优秀硕士学位论文全文数据库 信息科技辑;I138-465 * |
基于深度学习的行人重识别方法研究;张洪路;中国优秀硕士学位论文全文数据库 信息科技辑;I138-467 * |
Also Published As
Publication number | Publication date |
---|---|
CN114694171A (zh) | 2022-07-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Sun et al. | TBE-Net: A three-branch embedding network with part-aware ability and feature complementary learning for vehicle re-identification | |
Shen et al. | Generative adversarial learning towards fast weakly supervised detection | |
Xie et al. | Multilevel cloud detection in remote sensing images based on deep learning | |
Shen et al. | Efficient deep learning of nonlocal features for hyperspectral image classification | |
Shi et al. | Learning multiscale temporal–spatial–spectral features via a multipath convolutional LSTM neural network for change detection with hyperspectral images | |
Chen et al. | Research on recognition of fly species based on improved RetinaNet and CBAM | |
Ma et al. | Multiscale and dense ship detection in SAR images based on key-point estimation and attention mechanism | |
Li et al. | Robust deep neural networks for road extraction from remote sensing images | |
Yao et al. | R²IPoints: Pursuing Rotation-Insensitive Point Representation for Aerial Object Detection | |
Wang et al. | Detection and tracking based tubelet generation for video object detection | |
Li et al. | Efficient detection in aerial images for resource-limited satellites | |
Bi et al. | Remote sensing target tracking in UAV aerial video based on saliency enhanced MDnet | |
Fu et al. | A case study of utilizing YOLOT based quantitative detection algorithm for marine benthos | |
Hao et al. | Anchor-free infrared pedestrian detection based on cross-scale feature fusion and hierarchical attention mechanism | |
CN109284752A (zh) | 一种车辆的快速检测方法 | |
Liu et al. | A Multi-scale Feature Pyramid SAR Ship Detection Network with Robust Background Interference | |
CN114694171B (zh) | 一种基于自监督模式特征增强的行人属性识别方法 | |
Liu et al. | Remote sensing image vehicle detection based on pre-training and random-initialized fusion network | |
Xu et al. | MMT: Mixed-Mask Transformer for Remote Sensing Image Semantic Segmentation | |
Deng et al. | Multimodal contrastive learning for face anti-spoofing | |
Li et al. | Prediction model of urban street public space art design indicators based on deep convolutional neural network | |
Song et al. | MsfNet: a novel small object detection based on multi-scale feature fusion | |
Wang et al. | A dynamic feature weighting method for mangrove pests image classification with heavy-tailed distributions | |
Min et al. | Research on ship detection in the SAR image Algorithm based on improved SSD | |
Yang et al. | An Effective and Lightweight Hybrid Network for Object Detection in Remote Sensing Images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |