CN109190472A - 基于图像与属性联合引导的行人属性识别方法 - Google Patents

基于图像与属性联合引导的行人属性识别方法 Download PDF

Info

Publication number
CN109190472A
CN109190472A CN201810849415.4A CN201810849415A CN109190472A CN 109190472 A CN109190472 A CN 109190472A CN 201810849415 A CN201810849415 A CN 201810849415A CN 109190472 A CN109190472 A CN 109190472A
Authority
CN
China
Prior art keywords
attribute
image
pedestrian
feature
guidance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810849415.4A
Other languages
English (en)
Other versions
CN109190472B (zh
Inventor
冀中
贺二路
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin University
Original Assignee
Tianjin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin University filed Critical Tianjin University
Priority to CN201810849415.4A priority Critical patent/CN109190472B/zh
Publication of CN109190472A publication Critical patent/CN109190472A/zh
Application granted granted Critical
Publication of CN109190472B publication Critical patent/CN109190472B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

一种基于图像与属性联合引导的行人属性识别方法:获取图像特征和属性特征;构建图像‑属性相互引导机制,包括分别构建图像引导属性的特征和行人属性引导图像的特征;将图像引导属性的特征和行人属性引导图像的特征输入到长短期记忆模型中,得到一种图像与属性相互引导的行人属性识别模型;求出行人属性结果,使用交叉熵目标函数,通过不断训练来优化行人属性结果。本发明通过图像特征和属性特征之间的相互引导能够使模型更好的学习图像特征与属性特征之间的相互关系,并在属性识别过程中加入注意力机制,让模型能够进一步的完善两个特征的分布来提高行人属性识别的精度。

Description

基于图像与属性联合引导的行人属性识别方法
技术领域
本发明涉及一种行人属性识别方法。特别是涉及一种基于图像与属性联合引导的行人属性识别方法。
背景技术
为了保障人民的生命财产安全,世界各国大多推出了平安城市的发展规划,在城市的不同角落装上数以百万级的监控摄像头,这些摄像头每时每刻都在获取图像信息,然后进行分析研究。其中行人是视频监控中重要的关注对象。对其进行属性识别,主要是分析真实监控场景下的行人属性,比如性别、年龄、衣服类型等,对于视频监控领域的行人检索和行人重识别等领域有很重要的作用。提高行人属性识别效果能够有效甄别出对社会有危害的人或物,保障人们的生命财产安全。因此行人属性识别有着非常重要的研究价值和现实意义。
传统的行人属性识别都是采用人工提取特征,人工提取特征不但成本高,而且属性识别的效果也差强人意。除此之外在传统行人属性识别方法往往是对每一个属性单独预测,忽略了不同属性之间的关联。近年来,随着深度学习的发展,利用卷积神经网络自动提取图像特征的方法大大地提高了行人属性识别的效果。
虽然行人属性识别取得了一些进展,但是由于行人图像(特别是远距离拍摄的图像)分辨效率低,姿势、角度、光照等变化非常大,而且行人属性之间的关系较为复杂,因此识别效果还有待提高,其主要原因于在进行属性识别的过程,将图像和属性单独进行训练,没有去挖掘两者之间的关系,一些改进的方法也是通过提高视觉方面的优化来提高识别性能。比如WPAL-network和JRL-network都是对图像特征进行优化处理,这些方法的确能够提高识别性能,但是缺忽略了属性特征对整体识别效果的作用。
发明内容
本发明所要解决的技术问题是,提供一种使得模型能够更好的学习到图像特征与属性特征之间的内在联系的基于图像与属性联合引导的行人属性识别方法。
本发明所采用的技术方案是:一种基于图像与属性联合引导的行人属性识别方法,包括如下步骤:
1)获取图像特征和属性特征,其中,图像特征用I表示,行人属性特征有L个,每个特征用One-Hot的向量St来表示,即行人的属性特征S=[S1,S2,…SL];
2)构建图像-属性相互引导机制,包括分别构建图像引导属性的特征和行人属性引导图像的特征;
3)将图像引导属性的特征和行人属性引导图像的特征输入到长短期记忆模型中,得到一种图像与属性相互引导的行人属性识别模型如下:
其中,是图像对行人属性的引导特征,是行人属性对图像的引导特征,ft代表遗忘门,it代表输入门,ot代表输出门,ct代表当前时刻细胞状态,ct-1代表前一个时刻在细胞状态,ht代表当前时刻的隐藏层,ht-1代表前一个时刻的隐藏层,σ表示sigmoid函数,tanh表示双曲正切函数,W表示与所相乘的不同变量的权重;
4)求出行人属性结果pt=softmax(ht-1),使用交叉熵目标函数,通过不断训练来优化行人属性结果pt=softmax(ht-1),使用交叉熵目标函数训练来优化行人属性结果公式如下:
其中I表示图像特征,S表示行人属性特征,Si表示第i个行人属性特征,SN是停止标志。
步骤1)包括:
将图像输入到VGGNet或GoogleNet或ResNet卷积神经网络提取图像特征,获得图像特征I,对于属性特征,用One-Hot的向量St来表示,引入两个属性嵌入矩阵We和Wc
步骤2)所述的构建图像引导属性的特征,是首先将图像特征I经过一个Softmax函数得到图像特征的权重分布,将Softmax函数用Ψ表示,然后将图像特征权重与每个行人属性特征St做内积得到图像对属性的引导特征计算方法如下:
式中,We是属性嵌入矩阵,Ψ(I)是图像特征I的权重分布。
步骤2)所述的行人属性引导图像的特征,是将每个行人属性特征St嵌入到图像特征I中,通过对每个行人属性特征St与图像特征I进行内积运算实现属性的嵌入,然后经过双曲正切函数得到行人属性对图像的引导特征用Φ表示双曲正切函数,引导特征计算方法如下:
式中,Wc是属性嵌入矩阵。
步骤3)或者是采用如下方式:
将图像引导属性的特征和行人属性引导图像的特征合并在一起,得到融合的图像与行人属性的引导特征gt,将所述的引导特征gt输入到长短期记忆模型中,得到一组含有输入信息的编码端隐藏层,用hj表示,输入的引导特征gt有n个,全部含有输入信息的编码端隐藏层H表示为:
H=(h1,…,hj,…,hn) (4)
通过编码端隐藏层hj和解码端隐藏层ht-1求出能够优化编码端隐藏层的权重分布ωt,j,计算方法如下:
et,j=fatt(ht-1,hj) (5)
其中fatt表示求内积函数,exp表示自然数e,et,j表示编码端隐藏层hj和解码端隐藏层ht-1之间相关性。
最后利用权重分布ωt,j和编码端隐藏层hj得到上下文向量zt作为长短期记忆模型的输入,计算方法如下
得到基于注意力机制的图像与属性相互引导的行人属性识别模型:
ft代表遗忘门,it代表输入门,ot代表输出门,ct代表当前时刻细胞状态,ct-1代表前一个时刻在细胞状态,ht代表当前时刻的隐藏层,ht-1代表前一个时刻的隐藏层,zt表示上下文向量,σ表示sigmoid函数,tanh表示双曲正切函数,W表示与所相乘的不同变量的权重。
本发明的基于图像与属性联合引导的行人属性识别方法,通过图像特征和属性特征之间的相互引导能够使模型更好的学习图像特征与属性特征之间的相互关系,并在属性识别过程中加入注意力机制,让模型能够进一步的完善两个特征的分布来提高行人属性识别的精度。本发明的特点如下:
(1)有效性:通过在RAP和PETA两个行人属性识别数据集上进行试验,发现本发明的性能比现有的行人属性识别方法性能要高出很多,说明本发明能够有效的识别行人属性。
(2)新颖性:该发明首次提出了利用图像特征和属性特征相互引导进行属性识别,让模型在训练过程中充分学习两者之间的内在关系。并引入了attention机制均衡两种特征引导的权重分布。
(3)实用性:该发明能够有效识别真实监控场景下的行人属性,对其他深度学习领域,比如行人检索和行人重识别有重要的推动作用,此外对于建成平安城市和城市监控系统的完善都有很多积极作用。
附图说明
图1是本发明的基于图像与属性联合引导的行人属性识别方法的流程图。
具体实施方式
下面结合实施例和附图对本发明的基于图像与属性联合引导的行人属性识别方法做出详细说明。
如图1所示,本发明的基于图像与属性联合引导的行人属性识别方法,包括如下步骤:
1)获取图像特征和属性特征,其中,图像特征用I表示,行人属性特征有L个,每个特征用One-Hot的向量St来表示,即行人的属性特征S=[S1,S2,…SL],包括:
将图像输入到VGGNet或GoogleNet或ResNet卷积神经网络提取图像特征,获得图像特征I,对于属性特征,用One-Hot的向量St来表示,为了方便利用属性特征,引入两个属性嵌入矩阵We和Wc
2)构建图像-属性相互引导机制,包括分别构建图像引导属性的特征和行人属性引导图像的特征;其中,
(1)所述的构建图像引导属性的特征,是首先将图像特征I经过一个Softmax函数得到图像特征的权重分布,将Softmax函数用Ψ表示,然后将图像特征权重与每个行人属性特征St做内积得到图像对属性的引导特征计算方法如下:
式中,We是属性嵌入矩阵,Ψ(I)是图像特征I的权重分布。
(2)所述的行人属性引导图像的特征,是将每个行人属性特征St嵌入到图像特征I中,通过对每个行人属性特征St与图像特征I进行内积运算实现属性的嵌入,然后经过双曲正切函数得到行人属性对图像的引导特征用Φ表示双曲正切函数,引导特征计算方法如下:
式中,Wc是属性嵌入矩阵。
3)将图像引导属性的特征和行人属性引导图像的特征输入到长短期记忆模型(LSTM)中,得到一种图像与属性相互引导的行人属性识别模型如下:
其中,是图像对行人属性的引导特征,是行人属性对图像的引导特征,ft代表遗忘门,it代表输入门,ot代表输出门,ct代表当前时刻细胞状态,ct-1代表前一个时刻在细胞状态,ht代表当前时刻的隐藏层,ht-1代表前一个时刻的隐藏层(给出所有字母的解释),σ表示sigmoid函数,tanh表示双曲正切函数,W表示与所相乘的不同变量的权重;
通过图像与属性相互引导的行人属性识别模型,能够得到一个比较高性能的行人属性识别结果。但是,研究发现由于输入有两个引导特征,无论进行对何种属性进行判断都会对两种特征进行相同的关注,这是不合理的,因为行人的属性分布并不均匀,有些属性倾向于图像对属性的引导,一些空间属性,例如“戴帽子”这类属性,这些属性在图像的不同位置,然后引导模型去学习这些空间属性。而有些属性则倾向于属性对图像的引导,比如年龄、性别等不能通过空间位置学习的属性。需要属性告诉模型具体的性别和年龄,然后模型再去学习不同性别和年龄的图像特征。为了解决这种问题,还可以采用如下方式在模型中引入attention机制,提高模型对不同属性的学习识别能力。特别说明的是,如下方式在本发明中不是必要的,可以没有,具体:
将图像引导属性的特征和行人属性引导图像的特征合并在一起,得到融合的图像与行人属性的引导特征gt,将所述的引导特征gt输入到长短期记忆模型(LSTM)中,得到一组含有输入信息的编码端隐藏层,用hj表示,输入的引导特征gt有n个,全部含有输入信息的编码端隐藏层H表示为:
H=(h1,…,hj,…,hn) (4)
通过编码端隐藏层hj和解码端隐藏层ht-1求出能够优化编码端隐藏层的权重分布ωt,j,计算方法如下:
et,j=fatt(ht-1,hj) (5)
其中fatt表示求内积函数,exp表示自然数e,et,j表示编码端隐藏层hj和解码端隐藏层ht-1之间相关性。
最后利用权重分布ωt,j和编码端隐藏层hj得到上下文向量zt作为长短期记忆模型的输入,计算方法如下
得到基于注意力机制的图像与属性相互引导的行人属性识别模型:
ft代表遗忘门,it代表输入门,ot代表输出门,ct代表当前时刻细胞状态,ct-1代表前一个时刻在细胞状态,ht代表当前时刻的隐藏层,ht-1代表前一个时刻的隐藏层,zt表示上下文向量,σ表示sigmoid函数,tanh表示双曲正切函数,W表示与所相乘的不同变量的权重。
4)求出行人属性结果pt=softmax(ht-1),将行人属性识别看成一种多分类问题,因此使用交叉熵目标函数,通过不断训练来优化行人属性结果pt=softmax(ht-1),进一步提高属性识别结果。使用交叉熵目标函数训练来优化行人属性结果公式如下:
其中I表示图像特征,S表示行人属性特征,Si表示第i个行人属性特征,SN是停止标志。

Claims (5)

1.一种基于图像与属性联合引导的行人属性识别方法,其特征在于,包括如下步骤:
1)获取图像特征和属性特征,其中,图像特征用I表示,行人属性特征有L个,每个特征用One-Hot的向量St来表示,即行人的属性特征S=[S1,S2,…SL];
2)构建图像-属性相互引导机制,包括分别构建图像引导属性的特征和行人属性引导图像的特征;
3)将图像引导属性的特征和行人属性引导图像的特征输入到长短期记忆模型中,得到一种图像与属性相互引导的行人属性识别模型如下:
其中,是图像对行人属性的引导特征,是行人属性对图像的引导特征,ft代表遗忘门,it代表输入门,ot代表输出门,ct代表当前时刻细胞状态,ct-1代表前一个时刻在细胞状态,ht代表当前时刻的隐藏层,ht-1代表前一个时刻的隐藏层,σ表示sigmoid函数,tanh表示双曲正切函数,W表示与所相乘的不同变量的权重;
4)求出行人属性结果pt=softmax(ht-1),使用交叉熵目标函数,通过不断训练来优化行人属性结果pt=softmax(ht-1),使用交叉熵目标函数训练来优化行人属性结果公式如下:
其中I表示图像特征,S表示行人属性特征,Si表示第i个行人属性特征,SN是停止标志。
2.根据权利要求1所述的基于图像与属性联合引导的行人属性识别方法,其特征在于,步骤1)包括:
将图像输入到VGGNet或GoogleNet或ResNet卷积神经网络提取图像特征,获得图像特征I,对于属性特征,用One-Hot的向量St来表示,引入两个属性嵌入矩阵We和Wc
3.根据权利要求1所述的基于图像与属性联合引导的行人属性识别方法,其特征在于,步骤2)所述的构建图像引导属性的特征,是首先将图像特征I经过一个Softmax函数得到图像特征的权重分布,将Softmax函数用Ψ表示,然后将图像特征权重与每个行人属性特征St做内积得到图像对属性的引导特征计算方法如下:
式中,We是属性嵌入矩阵,Ψ(I)是图像特征I的权重分布。
4.根据权利要求1所述的基于图像与属性联合引导的行人属性识别方法,其特征在于,步骤2)所述的行人属性引导图像的特征,是将每个行人属性特征St嵌入到图像特征I中,通过对每个行人属性特征St与图像特征I进行内积运算实现属性的嵌入,然后经过双曲正切函数得到行人属性对图像的引导特征用Φ表示双曲正切函数,引导特征计算方法如下:
式中,Wc是属性嵌入矩阵。
5.根据权利要求1所述的基于图像与属性联合引导的行人属性识别方法,其特征在于,步骤3)或者是采用如下方式:
将图像引导属性的特征和行人属性引导图像的特征合并在一起,得到融合的图像与行人属性的引导特征gt,将所述的引导特征gt输入到长短期记忆模型中,得到一组含有输入信息的编码端隐藏层,用hj表示,输入的引导特征gt有n个,全部含有输入信息的编码端隐藏层H表示为:
H=(h1,…,hj,…,hn) (4)
通过编码端隐藏层hj和解码端隐藏层ht-1求出能够优化编码端隐藏层的权重分布ωt,j,计算方法如下:
et,j=fatt(ht-1,hj) (5)
其中fatt表示求内积函数,exp表示自然数e,et,j表示编码端隐藏层hj和解码端隐藏层ht-1之间相关性。
最后利用权重分布ωt,j和编码端隐藏层hj得到上下文向量zt作为长短期记忆模型的输入,计算方法如下
得到基于注意力机制的图像与属性相互引导的行人属性识别模型:
ft代表遗忘门,it代表输入门,ot代表输出门,ct代表当前时刻细胞状态,ct-1代表前一个时刻在细胞状态,ht代表当前时刻的隐藏层,ht-1代表前一个时刻的隐藏层,zt表示上下文向量,σ表示sigmoid函数,tanh表示双曲正切函数,W表示与所相乘的不同变量的权重。
CN201810849415.4A 2018-07-28 2018-07-28 基于图像与属性联合引导的行人属性识别方法 Active CN109190472B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810849415.4A CN109190472B (zh) 2018-07-28 2018-07-28 基于图像与属性联合引导的行人属性识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810849415.4A CN109190472B (zh) 2018-07-28 2018-07-28 基于图像与属性联合引导的行人属性识别方法

Publications (2)

Publication Number Publication Date
CN109190472A true CN109190472A (zh) 2019-01-11
CN109190472B CN109190472B (zh) 2021-09-14

Family

ID=64937805

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810849415.4A Active CN109190472B (zh) 2018-07-28 2018-07-28 基于图像与属性联合引导的行人属性识别方法

Country Status (1)

Country Link
CN (1) CN109190472B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110458215A (zh) * 2019-07-30 2019-11-15 天津大学 基于多时态注意力模型的行人属性识别方法
CN110516569A (zh) * 2019-08-15 2019-11-29 华侨大学 一种基于身份和非身份属性交互学习的行人属性识别方法
CN110598631A (zh) * 2019-09-12 2019-12-20 合肥工业大学 基于序列上下文关系学习的行人属性识别方法和识别系统
CN110633713A (zh) * 2019-09-20 2019-12-31 电子科技大学 一种基于改进lstm的图像特征提取方法
CN110717345A (zh) * 2019-10-15 2020-01-21 内蒙古工业大学 一种译文重对齐的循环神经网络跨语言机器翻译方法
CN110796111A (zh) * 2019-11-05 2020-02-14 腾讯科技(深圳)有限公司 图像处理方法、装置、设备及存储介质
WO2023011280A1 (zh) * 2021-08-02 2023-02-09 维沃移动通信有限公司 图像噪声程度估计方法、装置、电子设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105095475A (zh) * 2015-08-12 2015-11-25 武汉大学 基于两级融合的不完整属性标记行人重识别方法与系统
CN106971154A (zh) * 2017-03-16 2017-07-21 天津大学 基于长短记忆型递归神经网络的行人属性预测方法
CN107578062A (zh) * 2017-08-19 2018-01-12 四川大学 一种基于属性概率向量引导注意模式的图片描述方法
CN108024158A (zh) * 2017-11-30 2018-05-11 天津大学 利用视觉注意力机制的有监督视频摘要提取方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105095475A (zh) * 2015-08-12 2015-11-25 武汉大学 基于两级融合的不完整属性标记行人重识别方法与系统
CN106971154A (zh) * 2017-03-16 2017-07-21 天津大学 基于长短记忆型递归神经网络的行人属性预测方法
CN107578062A (zh) * 2017-08-19 2018-01-12 四川大学 一种基于属性概率向量引导注意模式的图片描述方法
CN108024158A (zh) * 2017-11-30 2018-05-11 天津大学 利用视觉注意力机制的有监督视频摘要提取方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ZHONG JI 等: "DEEP PEDESTRIAN ATTRIBUTE RECOGNITION BASED ON LSTM", 《IEEE》 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110458215A (zh) * 2019-07-30 2019-11-15 天津大学 基于多时态注意力模型的行人属性识别方法
CN110516569A (zh) * 2019-08-15 2019-11-29 华侨大学 一种基于身份和非身份属性交互学习的行人属性识别方法
CN110598631A (zh) * 2019-09-12 2019-12-20 合肥工业大学 基于序列上下文关系学习的行人属性识别方法和识别系统
CN110633713A (zh) * 2019-09-20 2019-12-31 电子科技大学 一种基于改进lstm的图像特征提取方法
CN110717345A (zh) * 2019-10-15 2020-01-21 内蒙古工业大学 一种译文重对齐的循环神经网络跨语言机器翻译方法
CN110717345B (zh) * 2019-10-15 2020-07-07 内蒙古工业大学 一种译文重对齐的循环神经网络跨语言机器翻译方法
CN110796111A (zh) * 2019-11-05 2020-02-14 腾讯科技(深圳)有限公司 图像处理方法、装置、设备及存储介质
WO2023011280A1 (zh) * 2021-08-02 2023-02-09 维沃移动通信有限公司 图像噪声程度估计方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
CN109190472B (zh) 2021-09-14

Similar Documents

Publication Publication Date Title
CN109190472A (zh) 基于图像与属性联合引导的行人属性识别方法
Wang et al. Feature erasing and diffusion network for occluded person re-identification
CN107330396B (zh) 一种基于多属性和多策略融合学习的行人再识别方法
Meng et al. Identity-aware convolutional neural network for facial expression recognition
CN109359559B (zh) 一种基于动态遮挡样本的行人再识别方法
CN105069481B (zh) 基于空间金字塔稀疏编码的自然场景多标记分类方法
CN109948425A (zh) 一种结构感知自注意和在线实例聚合匹配的行人搜索方法及装置
CN105005772B (zh) 一种视频场景检测方法
CN106503687A (zh) 融合人脸多角度特征的监控视频人物身份识别系统及其方法
CN110598543B (zh) 基于属性挖掘和推理的模型训练方法及行人再识别方法
CN109255289B (zh) 一种基于统一式生成模型的跨衰老人脸识别方法
Bao et al. Masked graph attention network for person re-identification
CN104268593A (zh) 一种小样本情况下多稀疏表示的人脸识别方法
CN109784288B (zh) 一种基于判别感知融合的行人再识别方法
CN111832511A (zh) 一种增强样本数据的无监督行人重识别方法
CN106897669A (zh) 一种基于一致迭代多视角迁移学习的行人再辨识方法
CN114067444A (zh) 基于元伪标签和光照不变特征的人脸欺骗检测方法和系统
CN113283362B (zh) 一种跨模态的行人重识别方法
CN105654054B (zh) 基于半监督近邻传播学习和多视觉词典模型的智能视频分析方法
CN109492528A (zh) 一种基于高斯和深度特征的行人再识别方法
CN110956158A (zh) 一种基于教师学生学习框架的遮挡行人再标识方法
CN108647621A (zh) 一种基于人脸识别的视频分析处理系统及方法
CN107220598A (zh) 基于深度学习特征和Fisher Vector编码模型的虹膜图像分类方法
Prasanna et al. RETRACTED ARTICLE: An effiecient human tracking system using Haar-like and hog feature extraction
CN104820711A (zh) 复杂场景下对人形目标的视频检索方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant