CN112990120B - 一种利用相机风格分离域信息的跨域行人重识别方法 - Google Patents
一种利用相机风格分离域信息的跨域行人重识别方法 Download PDFInfo
- Publication number
- CN112990120B CN112990120B CN202110446680.XA CN202110446680A CN112990120B CN 112990120 B CN112990120 B CN 112990120B CN 202110446680 A CN202110446680 A CN 202110446680A CN 112990120 B CN112990120 B CN 112990120B
- Authority
- CN
- China
- Prior art keywords
- domain
- pedestrian
- camera
- image
- representing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 26
- 238000000926 separation method Methods 0.000 title claims abstract description 23
- 239000013598 vector Substances 0.000 claims abstract description 12
- 238000012549 training Methods 0.000 claims description 19
- 230000006870 function Effects 0.000 claims description 9
- 238000013528 artificial neural network Methods 0.000 claims description 5
- 206010061274 Malocclusion Diseases 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 claims 1
- 230000000007 visual effect Effects 0.000 claims 1
- 238000005259 measurement Methods 0.000 abstract 1
- 238000013135 deep learning Methods 0.000 description 4
- 238000012360 testing method Methods 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 230000002401 inhibitory effect Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明提出了一种利用相机风格分离域信息的跨域行人重识别方法,属于计算机视觉领域,本方法提出了在给定不同相机拍摄的行人图像下,利用域分离和对抗学习网络来消除数据集间域信息对跨域行人重识别的影响。具体来说,该方法分为三部分:(1)利用域分离网络将输入行人图像中包含的信息分离为行人信息和域信息;(2)对分离出的域信息进行相机分类,区分图像来自哪一个相机视角;(3)对抗学习网络中特征提取器与相机分类器的对抗学习,目的是提取不受域信息影响的判别性特征。最后,对得到的行人特征向量进行相似度度量,提高识别性能。
Description
技术领域
本发明涉及一种利用相机风格分离域信息的跨域行人重识别方法,属于计算机视觉领域。
背景技术
行人重识别(person re-identification),是指根据一个摄像头采集的行人图像,从其它不同视角捕捉到的行人图像数据集中辨认该行人的过程。在实际应用中,该技术能拓展摄像资源的利用深度,特别在公共安全领域,行人重识别技术有效弥补了人脸识别技术的局限,可以在没有清晰完整人脸的条件下,通过特定人物的形态特征进行识别和追踪。然而相比人脸识别百万级的数据库,行人重识别技术的发展面临数据量不足和复杂应用场景变化的挑战。因此,开展精准的跨域行人重识别算法研究具有十分重要的实际意义。
跨域行人重识别任务中导致域间差异的主要原因是数据集中相机拍摄的图像风格不同,同时在跨域行人重识别任务中目标域往往缺少标签从而使得在源域训练好的模型,无法在目标域上取得理想的效果。
为解决上述问题,聚焦于无监督的学习方法通过将源域中关键身份信息转移到未标记目标域上的方式,学习源域和目标域之间共同映射的关系,从而使模型获得较好的泛化能力。将深度学习中对抗学习的思想应用到行人重识别任务中,可大大提高行人重识别任务的准确率,对抗网络是一种深度学习神经网络,用于无监督学习模型中能够极大提高模型性能。该神经网络包含(至少)两个模块:生成模型(Generative Model)和判别模型(Discriminative Model),通过生成模型和判别模型的互相博弈学习可以使得模型提高学习能力和判别能力,利用GAN损失匹配源域和目标域的数据分布。但对于跨域行人重识别任务,以上并不能够完全地解决源域与目标域的差异,由于带标签的源数据集和不带标签的目标数据集都含有多个相机视角,因此无监督域自适应的方法不能直接推广应用到行人重识别中。
发明内容
本发明的目的在于针对现有技术的缺点和不足,提出一种利用相机风格分离域信息的跨域行人重识别方法,用来解决因相机视角差异致的跨域行人重识别性能较差问题。在现有的深度学习框架和模型基础上,提出域分离网络分离出行人图像的域信息,从而获取有效的行人身份信息,并且引入对抗学习网络通过特征提取器与相机分类器的对抗学习,提取不受域信息影响的判别性特征。
本发明采用的技术方案是:一种利用相机风格分离域信息的跨域行人重识别方法,包括如下步骤:
首先,提出了提出域分离网络模型,将不同相机视角下的行人图像特征进行分解成包含有相机风格的域信息和具有判别性的行人信息,通过将分离出来的图像域信息去除,利用剩下的行人信息进行行人重识别。
其次,引入了相机分类器,把源域和目标域的行人图像中分离出的行人信息和域信息进行相机视角分类,以此区分行人图像来自哪一个相机视角,再将特征提取器和相机分类器进行对抗学习,确保神经网络的内部表示不包含关于输入源的信息,消除域间差异。
最后,通过域分离网络模型的最后一层网络得到的行人信息进行损失约束并计算得到行人之间的相似性。
具体步骤如下:
步骤2,域分离模型的建立:根据数据集中不同相机视角下的行人图像风格的不同,建立如下域信息分离模型:
其中H表示图像高度,W表示图像宽度,fd表示域特征,f表示图像经网络ResNet-50提取到的行人图像特征,H表示图像的高度,W表示图像的宽度,将生成的特征向量fv通过两个全连接层,其中第一层全连接降维得到特征向量其中u等于16,第二层全连接升维至1×1×C,C表示通道数。通过该操作拟合通道之间的复杂相关性,对不同通道的重要性进行预测。W1表示第一层全连接,ζ表示ReLU函数,W2表示第二层全连接,δ表示sigmoid函数,⊙表示按位相乘,scale表示按通道对特征向量扩展到与原特征图相同大小的张量的操作。通过域分离网络建立起特征通道之间相互依赖的关系,以学习的方式来自动获取到每个特征通道的重要程度,然后依照这个重要程度去提升有用的特征即行人特征并抑制域特征。
步骤3,训练时,将源域和目标域的行人图像输入到特征提取器G,提取到图像的行人特征后输入相机分类器D中,使之能够区分图像来自源域相机视角还是目标域相机视角。
其中和分别表示源域样本和目标域样本。NS和NT表示一个批次的源域样本和目标域样本,qS表示源域相机标签,qT表示目标域相机标签,表示源域图像域特征,表示源域图像行人特征,表示目标域图像域特征,表示目标域图像行人特征。
步骤4,训练特征提取器G提取到的行人特征输入到相机分类器D中,使之不能够区分该行人图像来自源域相机视角还是目标域相机视角,从而分到其它类中,提取到图像域不变特征。
其中qother表示不属于源域相机类和目标域相机类的其它类别。
步骤5,L(G)用来训练特征提取器G提取域不变的图像特征,L(D)训练相机分类器,区分图像来自源域还是目标域,提高域分辨能力,L(G)和L(D)交替训练,使特征提取器G能够提取到域不变的特征。
步骤6,将提取到的行人特征向量作交叉熵损失,预测输出图像的行人ID。
由于预测分类的类别是由行人ID数决定,将该损失函数称为ID损失(ID loss),其中N表示行人图像数,y表示图像正确的类,i表示多类中的某一类,pi表示预测ID标签,qi表示真实ID标签,为防止模型训练行人数据ID过拟合。
其中σ设为0.1。
本发明的有益效果是:
1)通过提出的域分离网络模型,将ResNet-50网络输出的行人信息分离,得到域信息和行人身份信息,消除域间差异,在实际应用中具有强鲁棒性。
2)引入对抗学习网络通过特征提取器与相机分类器间的不断交替训练,提取处不受域信息影响的判别性特征。
附图说明
图1为本发明利用相机风格分离域信息的跨域行人重识别方法的流程图。
具体实施方式
下面结合附图和具体实施例,对本发明做进一步说明
实施例1:如图1所示,一种利用相机风格分离域信息的跨域行人重识别方法,包括如下步骤:
首先,提出了提出域分离网络模型,将不同相机视角下的行人图像特征进行分解成包含有相机风格的域信息和具有判别性的行人信息,通过将分离出来的图像域信息去除,利用剩下的行人信息进行行人重识别。
其次,引入了相机分类器,把源域和目标域的行人图像中分离出的行人信息和域信息进行相机视角分类,以此区分行人图像来自哪一个相机视角,再将特征提取器和相机分类器进行对抗学习,确保神经网络的内部表示不包含关于输入源的信息,消除域间差异。
最后,通过域分离网络模型的最后一层网络对行人信息进行损失约束并计算得到行人之间的相似性。
进一步地,具体步骤如下:
步骤2,域分离模型的建立:根据数据集中不同相机视角下的行人图像风格的不同,建立如下域信息分离模型:
其中H表示图像高度,W表示图像宽度,fd表示域特征,f表示图像经网络ResNet-50提取到的行人图像特征,H表示图像的高度,W表示图像的宽度,将生成的特征向量fv通过两个全连接层,其中第一层全连接降维得到特征向量其中u等于16,第二层全连接升维至1×1×C,C表示通道数。通过该操作拟合通道之间的复杂相关性,对不同通道的重要性进行预测。W1表示第一层全连接,ζ表示ReLU函数,W2表示第二层全连接,δ表示sigmoid函数,⊙表示按位相乘,scale表示按通道对特征向量扩展到与原特征图相同大小的张量的操作。通过域分离网络建立起特征通道之间相互依赖的关系,以学习的方式来自动获取到每个特征通道的重要程度,然后依照这个重要程度去提升有用的特征即行人特征并抑制域特征。
步骤3,训练时,将源域和目标域的行人图像输入到特征提取器G,提取到图像的行人特征后输入相机分类器D中,使之能够区分图像来自源域相机视角还是目标域相机视角。
其中和分别表示源域样本和目标域样本。NS和NT表示一个批次的源域样本和目标域样本,qS表示源域相机标签,qT表示目标域相机标签,表示源域图像域特征,表示源域图像行人特征,表示目标域图像域特征,表示目标域图像行人特征。
步骤4,训练特征提取器G提取到的行人特征输入到相机分类器D中,使之不能够区分该行人图像来自源域相机视角还是目标域相机视角,从而分到其它类中,提取到图像域不变特征。
其中qother表示不属于源域相机类和目标域相机类的其它类别。
步骤5,L(G)用来训练特征提取器G提取域不变的图像特征,L(D)训练相机分类器,区分图像来自源域还是目标域,提高域分辨能力,L(G)和L(D)交替训练,使特征提取器G能够提取到域不变的特征。
步骤6,将提取到的行人特征向量作交叉熵损失,预测输出图像的行人ID
由于预测分类的类别是由行人ID数决定,将该损失函数称为ID损失(ID loss),其中N表示行人图像数,y表示图像正确的类,i表示多类中的某一类,pi表示预测ID标签,qi表示真实ID标签,为防止模型训练行人数据ID过拟合。
其中σ设为0.1。
下面结合具体数据,对本发明的有效性进行验证。
选择了公开行人重识别数据集Market-1501和DukeMTMC-reID上进行测试实验,实验过程中使用其中一个数据集作为源数据集,另一数据集则作为目标数据集,反之相同。Market1501数据集共包含1501个行人,通过6个摄像头拍摄到,每个行人至少由2个摄像头拍摄到,训练集有751人,包含12,936张图像,平均每个人有17.2张训练数据;测试集有750人,包含19,732张图像,平均每个人有26.3张测试数据。DukeMTMC-reID数据集由8个摄像头拍摄超过2,700多个行人36,411张图像,有1,404个人出现在大于两个摄像头下,有408个人(distractor ID)只出现在一个摄像头下。测试集702人,包含17,661张图像,训练集有702人,包含16,522张图像。
在上述提出的模型中,有多个参数需要设置,包括学习率、batchsize、epoch、dropout、weight decay,以及上面参数c的大小,根据经验分别设置为0.0002、16、80、0.5、5e-4、2。
在数据集Market-1501和DukeMTMC-reID上,通过与Transferable JointAttribute-Identity Deep Learning(TJ-AIDL)、Similarity Preserving GenerativeAdversarial Network(SPGAN+LM)、Camera Style Adaptation(CamStyle)、Self-CriticalAttention Learning(SCAL)、Omni-Scale Feature Learning(OSNet-IBN)、StyleNormalization and Restitution(SNR)和Camera-Aware Domain Adaptation Framework(CCE)算法进行比较实验。以上均为跨域行人重识别领域中的主流算法。对比结果如表1和表2所示。由此可以看出与无监督的识别方法相比,本发明方法的性能均高于它们,证明了本发明方法的有效性和优越性。
表1源数据集Market-1501,目标数据集DukeMTMC-reID
本发明同样在源数据集DukeMTMC-reID,目标数据集Market-1501上进行了实验,如表2所示,从结果可以看到,本发明提出的方法也达到了比较高的性能。
表2源数据集DukeMTMC-reID,目标数据集Market-1501
以上结合附图对本发明的具体实施方式作了详细说明,但是本发明并不限于上述实施方式,在本领域普通技术人员所具备的知识范围内,还可以在不脱离本发明宗旨的前提下作出各种变化。
Claims (1)
1.一种利用相机风格分离域信息的跨域行人重识别方法,其特征在于:包括如下步骤:
首先,提出域分离网络模型,将不同相机视角下的行人图像特征分解成含有相机风格的域信息和具有判别性的行人信息,通过将分离出来的图像域信息去除,利用行人信息进行行人重识别;
其次,引入了相机分类器,把源域和目标域的行人图像中分离出的域信息进行相机视角分类,以此区分行人图像来自哪一个相机视角,再将特征提取器和相机分类器进行对抗学习,确保神经网络的内部表示不包含关于输入源的信息,消除域间差异;
最后,通过域分离网络模型最后一层网络得到的行人信息进行损失约束并计算得到行人之间的相似性;
具体步骤如下:
n和m分别表示相机视角个数;
步骤2,域分离模型的建立:根据数据集中不同相机视角下的行人图像风格的不同,建立如下域信息分离模型:
其中H表示图像高度,W表示图像宽度,fd表示域特征,f表示图像经网络ResNet-50提取到的行人图像特征,将生成的特征向量fv通过两个全连接层,其中第一层全连接降维得到特征向量其中u等于16,第二层全连接升维至1×1×C,C表示通道数,通过该操作拟合通道之间的复杂相关性,对不同通道的重要性进行预测,W1表示第一层全连接,ζ表示ReLU函数,W2表示第二层全连接,δ表示sigmoid函数,⊙表示按位相乘,scale表示按通道对特征向量扩展到与原特征图相同大小的张量的操作,通过域分离网络建立起特征通道之间相互依赖的关系,以学习的方式来自动获取到每个特征通道的重要程度,然后依照这个重要程度去提升有用的特征即行人特征并抑制域特征;
步骤3,训练时,将源域和目标域的行人图像输入到特征提取器G,提取到图像的行人特征后输入相机分类器D中,使之能够区分图像来自源域相机视角还是目标域相机视角;
其中和分别表示源域样本和目标域样本,NS和NT表示一个批次的源域样本和目标域样本,qS表示源域相机标签,qT表示目标域相机标签,fd S表示源域图像域特征,fx S表示源域图像行人特征,fd T表示目标域图像域特征,fx T表示目标域图像行人特征;
步骤4,训练特征提取器G提取到的行人特征输入到相机分类器D中,使之不能够区分该行人图像来自源域相机视角还是目标域相机视角,从而分到其它类中,提取到图像域不变特征;
其中qother表示不属于源域相机类和目标域相机类的其它类别;
步骤5,L(G)用来训练特征提取器G提取域不变的图像特征,L(D)训练相机分类器,区分图像来自源域还是目标域,提高域分辨能力,L(G)和L(D)交替训练,使特征提取器G能够提取到域不变的特征;
步骤6,将提取到的行人特征向量作交叉熵损失,预测输出图像的行人ID
由于预测分类的类别是由行人ID数决定,将该损失函数称为ID损失,其中N表示行人图像数,y表示图像正确的类,i表示多类中的某一类,pi表示预测ID标签,qi表示真实ID标签,为防止模型训练行人数据ID过拟合;
其中σ设为0.1。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110446680.XA CN112990120B (zh) | 2021-04-25 | 2021-04-25 | 一种利用相机风格分离域信息的跨域行人重识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110446680.XA CN112990120B (zh) | 2021-04-25 | 2021-04-25 | 一种利用相机风格分离域信息的跨域行人重识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112990120A CN112990120A (zh) | 2021-06-18 |
CN112990120B true CN112990120B (zh) | 2022-09-16 |
Family
ID=76340058
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110446680.XA Active CN112990120B (zh) | 2021-04-25 | 2021-04-25 | 一种利用相机风格分离域信息的跨域行人重识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112990120B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114091548B (zh) * | 2021-09-23 | 2024-08-09 | 昆明理工大学 | 一种基于关键点和图匹配的车辆跨域重识别方法 |
CN113869193B (zh) * | 2021-09-26 | 2024-06-28 | 平安科技(深圳)有限公司 | 行人再识别模型的训练方法、行人再识别方法及系统 |
CN114140826B (zh) * | 2021-12-03 | 2024-05-31 | 北京交通大学 | 一种基于相机特征分离的目标重识别方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102663370A (zh) * | 2012-04-23 | 2012-09-12 | 苏州大学 | 一种人脸识别的方法及系统 |
KR20130021990A (ko) * | 2011-08-24 | 2013-03-06 | 현대모비스 주식회사 | 차량의 보행자 충돌 경보 시스템 및 그 방법 |
CN105981374A (zh) * | 2014-04-27 | 2016-09-28 | Lg电子株式会社 | 广播信号发送设备、广播信号接收设备、用于发送广播信号的方法以及用于接收广播信号的方法 |
CN109948561A (zh) * | 2019-03-25 | 2019-06-28 | 广东石油化工学院 | 基于迁移网络的无监督图像视频行人重识别的方法及系统 |
CN110325929A (zh) * | 2016-12-07 | 2019-10-11 | 阿瑞路资讯安全科技股份有限公司 | 用于检测有线网络变化的信号波形分析的系统和方法 |
CN110399856A (zh) * | 2019-07-31 | 2019-11-01 | 上海商汤临港智能科技有限公司 | 特征提取网络训练方法、图像处理方法、装置及其设备 |
CN111783521A (zh) * | 2020-05-19 | 2020-10-16 | 昆明理工大学 | 基于低秩先验引导的域不变信息分离的行人重识别方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107832672B (zh) * | 2017-10-12 | 2020-07-07 | 北京航空航天大学 | 一种利用姿态信息设计多损失函数的行人重识别方法 |
CN111639580B (zh) * | 2020-05-25 | 2023-07-18 | 浙江工商大学 | 一种结合特征分离模型和视角转换模型的步态识别方法 |
-
2021
- 2021-04-25 CN CN202110446680.XA patent/CN112990120B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20130021990A (ko) * | 2011-08-24 | 2013-03-06 | 현대모비스 주식회사 | 차량의 보행자 충돌 경보 시스템 및 그 방법 |
CN102663370A (zh) * | 2012-04-23 | 2012-09-12 | 苏州大学 | 一种人脸识别的方法及系统 |
CN105981374A (zh) * | 2014-04-27 | 2016-09-28 | Lg电子株式会社 | 广播信号发送设备、广播信号接收设备、用于发送广播信号的方法以及用于接收广播信号的方法 |
CN110325929A (zh) * | 2016-12-07 | 2019-10-11 | 阿瑞路资讯安全科技股份有限公司 | 用于检测有线网络变化的信号波形分析的系统和方法 |
CN109948561A (zh) * | 2019-03-25 | 2019-06-28 | 广东石油化工学院 | 基于迁移网络的无监督图像视频行人重识别的方法及系统 |
CN110399856A (zh) * | 2019-07-31 | 2019-11-01 | 上海商汤临港智能科技有限公司 | 特征提取网络训练方法、图像处理方法、装置及其设备 |
CN111783521A (zh) * | 2020-05-19 | 2020-10-16 | 昆明理工大学 | 基于低秩先验引导的域不变信息分离的行人重识别方法 |
Non-Patent Citations (3)
Title |
---|
FlowScan: Estimating People Flows on Sidewalks Using Dashboard Cameras Based on Deep Learning;Yusuke Hara;《Journal of Information Processing》;20201231;55-64 * |
基于深度神经网络的行人再辨识;袁瀚;《中国优秀博硕士学位论文全文数据库(硕士)信息科技辑》;20180315(第03期);I138-1731 * |
基于身份一致性和不相关约束的行人重识别;颜悦;《中北大学学报(自然科学版)》;20200509;第41卷(第04期);337-345 * |
Also Published As
Publication number | Publication date |
---|---|
CN112990120A (zh) | 2021-06-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112990120B (zh) | 一种利用相机风格分离域信息的跨域行人重识别方法 | |
Ye et al. | PurifyNet: A robust person re-identification model with noisy labels | |
CN109949317B (zh) | 基于逐步对抗学习的半监督图像实例分割方法 | |
CN110414462B (zh) | 一种无监督的跨域行人重识别方法及系统 | |
CN109961051B (zh) | 一种基于聚类和分块特征提取的行人重识别方法 | |
CN108520226B (zh) | 一种基于躯体分解和显著性检测的行人重识别方法 | |
CN111666851B (zh) | 一种基于多粒度标签的交叉域自适应行人重识别方法 | |
CN109359541A (zh) | 一种基于深度迁移学习的素描人脸识别方法 | |
CN110942025A (zh) | 一种基于聚类的无监督跨域行人重识别方法 | |
Kang et al. | Attentional feature-pair relation networks for accurate face recognition | |
CN113076994B (zh) | 一种开集域自适应图像分类方法及系统 | |
CN109190479A (zh) | 一种基于混合深度学习的视频序列表情识别方法 | |
CN111639564B (zh) | 一种基于多注意力异构网络的视频行人重识别方法 | |
CN111709313B (zh) | 基于局部和通道组合特征的行人重识别方法 | |
CN111046732A (zh) | 一种基于多粒度语义解析的行人重识别方法及存储介质 | |
CN113963032A (zh) | 一种融合目标重识别的孪生网络结构目标跟踪方法 | |
CN110728216A (zh) | 一种基于行人属性自适应学习的无监督行人再识别方法 | |
CN112819065A (zh) | 基于多重聚类信息的无监督行人难样本挖掘方法和系统 | |
CN113378981B (zh) | 基于域适应的噪音场景图像分类方法及系统 | |
CN115482595B (zh) | 一种基于语义分割的特定人物视觉伪造检测与鉴别方法 | |
CN107220598A (zh) | 基于深度学习特征和Fisher Vector编码模型的虹膜图像分类方法 | |
CN112070010B (zh) | 一种联合多损失动态训练策略增强局部特征学习的行人重识别方法 | |
Lejbølle et al. | Person re-identification using spatial and layer-wise attention | |
CN113221770A (zh) | 基于多特征混合学习的跨域行人重识别方法及系统 | |
CN116778530A (zh) | 一种基于生成模型的跨外观行人重识别检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
OL01 | Intention to license declared | ||
OL01 | Intention to license declared |