CN112528788B - 一种基于域不变特征和时空特征的重识别方法 - Google Patents

一种基于域不变特征和时空特征的重识别方法 Download PDF

Info

Publication number
CN112528788B
CN112528788B CN202011387708.9A CN202011387708A CN112528788B CN 112528788 B CN112528788 B CN 112528788B CN 202011387708 A CN202011387708 A CN 202011387708A CN 112528788 B CN112528788 B CN 112528788B
Authority
CN
China
Prior art keywords
space
time
target object
feature
domain
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011387708.9A
Other languages
English (en)
Other versions
CN112528788A (zh
Inventor
彭德光
孙健
唐贤伦
黄攀
易兴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing Zhaoguang Technology Co ltd
Original Assignee
Chongqing Zhaoguang Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing Zhaoguang Technology Co ltd filed Critical Chongqing Zhaoguang Technology Co ltd
Priority to CN202011387708.9A priority Critical patent/CN112528788B/zh
Publication of CN112528788A publication Critical patent/CN112528788A/zh
Application granted granted Critical
Publication of CN112528788B publication Critical patent/CN112528788B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

本发明提出一种基于域不变特征和时空特征的重识别方法,包括:获取输入图像中目标对象的特征;构建贝叶斯模型,预测目标对象在多个图像采集装置间迁移的时空概率,获取时空特征;根据所述目标对象的特征构建多个图像采集装置之间同一目标对象的统一特征表示;根据所述统一特征表示获取具有域不变性的域不变特征;根据所述时空特征和域不变特征构建时空注意力热度图,用于训练识别网络,基于所述识别网络输出目标对象识别结果;本发明可有效提高跨域识别的效率和精度。

Description

一种基于域不变特征和时空特征的重识别方法
技术领域
本发明涉及人工智能领域,尤其涉及一种基于域不变特征和时空特征的重识别方法。
背景技术
行人重识别旨在实现不重叠的不同摄像头下同一行人图像的匹配技术,在加强社会安全管理、预防犯罪行为发生以及实现事件重构等方面具有重要应用价值,由此智能视频监控系统得到了蓬勃发展。行人重识别是智能视频分析领域的研究热点,得到了社会的广泛重视。传统依靠生物信息的行人识别方法,如人脸识别和虹膜识别在大规模的城市监控中往往是不可行的,因为城市监控摄像头难以捕捉到高清的行人图像信息。相反,基于视觉特征的识别方法往往比基于生物信息的识别方法更加可靠,基于人的外观,比如一个人携带的物品或者行人的衣服,可以更可靠地被利用在行人重新识别。行人重识别目前使用较多的方法为基于表征学习的方法、基于度量学习的方法、基于局部特征的方法以及基于视频序列学习的方法。上述方法基本采用监督学习的方式,对数据集图成像特征的一致性要求较高,在实际运用时,会出现精度大幅度下降的情况,对于模型泛化是一大挑战。
发明内容
鉴于以上现有技术存在的问题,本发明提出一种基于域不变特征和时空特征的重识别方法,主要解决跨域识别精度受限的问题。
为了实现上述目的及其他目的,本发明采用的技术方案如下。
一种基于域不变特征和时空特征的重识别方法,包括:
获取输入图像中目标对象的特征;
构建贝叶斯模型,预测目标对象在多个图像采集装置间迁移的时空概率,获取时空特征;
根据所述目标对象的特征构建多个图像采集装置之间同一目标对象的统一特征表示;
根据所述统一特征表示获取具有域不变性的域不变特征;
根据所述时空特征和域不变特征构建时空注意力热度图,用于训练识别网络,基于所述识别网络输出目标对象识别结果。
可选地,构建贝叶斯模型,预测目标对象在多个图像采集装置间迁移的时空概率,获取时空特征,包括:
以目标对象的特征为先验知识并利用余弦相似度构建分类器,根据所述目标对象的特征对应的时空信息,评估目标对象在下一时刻出现在某一图像采集装置的概率,作为所述时空概率;
根据所述时空概率选出满足时空约束的多个图像采集装置的图像,获取时空特征。
可选地,评估目标对象在下一时刻出现在某一图像采集装置的概率,包括:
构造特征联合器,以相邻时刻两个图像采集装置的图像作为输入,输出两图像匹配的概率作为所述时空概率。
可选地,所述特征联合器表示为:
其中,M1表示分类器C基于视觉特征的判断,α,β为可配置参数,以获得更一般的F匹配函数。vi和vj分别表示输入的目标对象的特征,ci和cj分别表示预测的图像采集装置对应的特征。
可选地,根据所述目标对象的特征构建多个图像采集装置之间同一目标对象的统一特征表示,包括:
构建公共图像样式库;
将不同时空域的目标对象特征嵌入所述公共图像样式库,得到同一目标对象的统一特征表示。
可选地,特征嵌入方式表示为:
其中,[.,.]表示通道连接,xrgb表示大小为(3,h,w)的RGB图像,表示大小为(M,h,w)的二进制张量,/>表示大小为(N,h,w)的二进制张量,/>表示大小为(3+M+N,h,w)的张量;/>的第i个通道为一个非零值,表示xrgb来自第i个时空域,其余的M-1个通道为“零”值。/>的第j个通道为一个非零值,表示xrgb将转换为第j个时空域,其余N-1个通道为“零”值。
可选地,根据所述统一特征表示获取具有域不变性的域不变特征,包括:
构造循环一致性神经网络,将所述统一特征表示输入经过预训练的所述循环一致性神经网络,获取域不变性特征。
可选地,所述循环一致性神经网络的损失函数表示为:
其中,为图像内容解码器,/>为图像内容鉴别器;Ec为内容编码器。
可选地,根据所述时空特征和域不变特征构建时空注意力热度图,用于训练识别网络,基于所述识别网络输出目标对象识别结果,包括:
构建卷积门控递归单元;
将样本图像对应的域不变特征和时空特征输入所述卷积门控递归单元,并经过二维softmax层,得到与当前输入对应的时空注意力热度图;
根据所述时空注意力热度图采用梯度下降,更新所述卷积门控递归单元参数,经过多次迭代,得到识别网络;
将待查询目标对象图像输入所述识别网络,输出目标对象识别结果。
可选地,所述卷积门控递归单元的计算方式表示为:
St=Us*tanh(Wxs*Xt+Whs*Ht-1+bs)+bus
其中,Xt是第t帧图像的特征映射,Ht-1是上一时刻卷积门控递归单元的隐藏状态,Us、Wxs是卷积核。
如上所述,本发明一种基于域不变特征和时空特征的重识别方法,具有以下有益效果。
充分利用目标对象图像之家的时空关联性,减少不相关的图像;联合时空特征和域不变特征,进行模型训练,可有效提升模型的前一能力。
附图说明
图1为本发明一实施例中基于域不变特征和时空特征的重识别方法的流程图。
具体实施方式
以下通过特定的具体实例说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。需说明的是,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。
需要说明的是,以下实施例中所提供的图示仅以示意方式说明本发明的基本构想,遂图式中仅显示与本发明中有关的组件而非按照实际实施时的组件数目、形状及尺寸绘制,其实际实施时各组件的型态、数量及比例可为一种随意的改变,且其组件布局型态也可能更为复杂。
请参阅图1,本发明提供一种基于域不变特征和时空特征的重识别方法,包括步骤S01-S05。
在步骤S01中,获取输入图像中目标对象的特征:
在一实施例中,可采用残差卷积网络作为主干网络,对输入图像进行特征提取。残差卷积网络为成熟的现有技术,这里不早赘述。
输入图像为某一图像采集装置获取的目标对象的图像,同时可获取该图像的拍摄时间、地理位置等时空信息。目标对象可以为行人、车辆等。
在一实施例中,图像采集装置可包括设置于道路用于采集行人等目标对象的摄像头。
在步骤S02中,构建贝叶斯模型,预测目标对象在多个图像采集装置间迁移的时空概率,获取时空特征:
在一实施例中,以目标对象的特征为先验知识并利用余弦相似度构建分类器C,根据所述目标对象的特征对应的时空信息,评估目标对象在下一时刻出现在某一图像采集装置的概率,作为所述时空概率;
根据所述时空概率选出满足时空约束的多个图像采集装置的图像,获取时空特征。
具体地,基于前文获取的图像特征下一摄像头预测权重向量/>联合模型F基于条件概率定义为:
根据贝叶斯规则,构造特征联合器F,它以两幅图像的视觉特征、时空、摄像头预测信息作为输入,并输出它们的匹配概率:
其中,M1表示分类器C基于视觉特征的判断,α,β为可配置参数,以获得更一般的F匹配函数。Pr(SiF Sj)代表联合模型F,判断一位待查询行人在下一时刻出现在某一摄像头的概率。
在步骤S03中,根据所述目标对象的特征构建多个图像采集装置之间同一目标对象的统一特征表示;
在一实施例中,构建公共图像样式库;
将不同时空域的目标对象特征嵌入所述公共图像样式库,得到同一目标对象的统一特征表示。
具体地,将不同目标子域的图像相互嵌入到公共图像样式库中;
该图像样式库通过以下方式引导生成器将图像样式从其中一个目标子域转换另一个目标子域中。
其中[.,.]表示通道连接,xrgb表示大小为(3,h,w)的RGB图像,表示大小为(M,h,w)的二进制张量,/>表示大小为(N,h,w)的二进制张量,/>表示大小(3+M+N,h,w)的张量。/>的第i个通道为“一个”值,表示xrgb来自第i个目标子域,其余的M-1个通道为“零”值。的第j个通道为“一个”值,表示xrgb将转换为第j个目标子域,其余N-1个通道为“零”值。这样,/>嵌入会引导多对多生成对抗式模型将xrgb转换伪图像/>经过目标子域相互转移,获得许多跟随目标子域分布的伪造图像。利用这些转移的伪造图像及其相应的原始身份信息,执行相同风格的特征学习。
在步骤S04中,根据所述统一特征表示获取具有域不变性的域不变特征;
在一实施例中,构造循环一致性神经网络,将所述统一特征表示输入经过预训练的所述循环一致性神经网络,获取域不变性特征。
具体地,利用循环一致性的方法来获得具有域不变性的图像内容;使用下式中的循环一致性函数来训练内容编码器Ec的参数θc和域编码器的参数/>
其中为图像内容解码器,/>为图像内容鉴别器。通过函数的应用,可以对源域和目标的特征进行对抗训练减少域偏移,得到具有域不变性鲁棒特征。
在步骤S05中,根据所述时空特征和域不变特征构建时空注意力热度图,用于训练识别网络,基于所述识别网络输出目标对象识别结果:
具体地,构建一个采用卷积门控递归单元(ConvGRU)的注意力小网络,生成与当前输入特征映射对应的时空注意力热度图计算,如下式所示:
St=Us*tanh(Wxs*Xt+Whs*Ht-1+bs)+bus
Xt是第t帧图像的特征映射,Ht-1是上一时刻ConvGRU的隐藏状态,Us、Wxs是卷积核,大小都是1×1。
使用将一个二维的softmax层作用在St上,得到与当前输入Xt对应的时空注意力热度图,二维softmax公式如下:
此时,是输入特征映射Xt中位置(i,j)处的时空注意力权重,大小在0到1之间,所有位置的权重之和为1。
此时,便得到了对应当前输入Xt的时空注意力热度图,用于指导模型训练的梯度权重。
经过多次训练迭代后,用训练好的网络对测试数据集进行目标检测,得到行人识别结果。
综上所述,本发明一种基于域不变特征和时空特征的重识别方法,设计了基于贝叶斯推断的时空模型,充分利用了行人图像之间的时空关联性,从而减少不相关的行人图像;本专利提出利用多对多对抗学习网络学习不同视域之间的统一风格表征,从而解决训练域与测试域之间存在的域偏移问题。通过循环一致性的方法来获得具有域不变性的图像内容;提出时空信息自注意模块,联合时空特征与域不变特征对域自适应模型进行训练,提升模型的迁移能力。所以,本发明有效克服了现有技术中的种种缺点而具高度产业利用价值。
上述实施例仅例示性说明本发明的原理及其功效,而非用于限制本发明。任何熟悉此技术的人士皆可在不违背本发明的精神及范畴下,对上述实施例进行修饰或改变。因此,举凡所属技术领域中具有通常知识者在未脱离本发明所揭示的精神与技术思想下所完成的一切等效修饰或改变,仍应由本发明的权利要求所涵盖。

Claims (7)

1.一种基于域不变特征和时空特征的重识别方法,其特征在于,包括:
获取输入图像中目标对象的特征;
构建贝叶斯模型,预测目标对象在多个图像采集装置间迁移的时空概率,获取时空特征;
根据所述目标对象的特征构建多个图像采集装置之间同一目标对象的统一特征表示,包括:构建公共图像样式库;将不同时空域的目标对象特征嵌入所述公共图像样式库,得到同一目标对象的统一特征表示;
根据所述统一特征表示获取具有域不变性的域不变特征,包括:构造循环一致性神经网络,将所述统一特征表示输入经过预训练的所述循环一致性神经网络,获取域不变性特征;
根据所述时空特征和域不变特征构建时空注意力热度图,用于训练识别网络,基于所述识别网络输出目标对象识别结果,包括:构建卷积门控递归单元;将样本图像对应的域不变特征和时空特征输入所述卷积门控递归单元,并经过二维softmax层,得到与当前输入对应的时空注意力热度图;根据所述时空注意力热度图采用梯度下降,更新所述卷积门控递归单元参数,经过多次迭代,得到识别网络;将待查询目标对象图像输入所述识别网络,输出目标对象识别结果。
2.根据权利要求1所述的基于域不变特征和时空特征的重识别方法,其特征在于,构建贝叶斯模型,预测目标对象在多个图像采集装置间迁移的时空概率,获取时空特征,包括:
以目标对象的特征为先验知识并利用余弦相似度构建分类器,根据所述目标对象的特征对应的时空信息,评估目标对象在下一时刻出现在某一图像采集装置的概率,作为所述时空概率;
根据所述时空概率选出满足时空约束的多个图像采集装置的图像,获取时空特征。
3.根据权利要求2所述的基于域不变特征和时空特征的重识别方法,其特征在于,评估目标对象在下一时刻出现在某一图像采集装置的概率,包括:
构造特征联合器,以相邻时刻两个图像采集装置的图像作为输入,输出两图像匹配的概率作为所述时空概率。
4.根据权利要求3所述的基于域不变特征和时空特征的重识别方法,其特征在于,所述特征联合器表示为:
其中,M1表示分类器C基于视觉特征的判断,α,β为可配置参数,vi和vj分别表示输入的目标对象的特征,ci和cj分别表示预测的图像采集装置对应的特征。
5.根据权利要求1所述的基于域不变特征和时空特征的重识别方法,其特征在于,特征嵌入方式表示为:
其中,[.,.]表示通道连接,xrgb表示大小为(3,h,w)的RGB图像,表示大小为(M,h,w)的二进制张量,/>表示大小为(N,h,w)的二进制张量,/>表示大小为(3+M+N,h,w)的张量;/>的第i个通道为一个非零值,表示xrgb来自第i个时空域,其余的M-1个通道为“零”值,的第j个通道为一个非零值,表示xrgb将转换为第j个时空域,其余N-1个通道为“零”值。
6.根据权利要求1所述的基于域不变特征和时空特征的重识别方法,其特征在于,所述循环一致性神经网络的损失函数表示为:
其中,为图像内容解码器,/>为图像内容鉴别器;Ec为内容编码器。
7.根据权利要求1所述的基于域不变特征和时空特征的重识别方法,其特征在于,所述卷积门控递归单元的计算方式表示为:
St=Us*tanh(Wxs*Xt+Whs*Ht-1+bs)+bus
其中,Xt是第t帧图像的特征映射,Ht-1是上一时刻卷积门控递归单元的隐藏状态,Us、Wxs是卷积核。
CN202011387708.9A 2020-12-01 2020-12-01 一种基于域不变特征和时空特征的重识别方法 Active CN112528788B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011387708.9A CN112528788B (zh) 2020-12-01 2020-12-01 一种基于域不变特征和时空特征的重识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011387708.9A CN112528788B (zh) 2020-12-01 2020-12-01 一种基于域不变特征和时空特征的重识别方法

Publications (2)

Publication Number Publication Date
CN112528788A CN112528788A (zh) 2021-03-19
CN112528788B true CN112528788B (zh) 2023-11-21

Family

ID=74996089

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011387708.9A Active CN112528788B (zh) 2020-12-01 2020-12-01 一种基于域不变特征和时空特征的重识别方法

Country Status (1)

Country Link
CN (1) CN112528788B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113095221B (zh) * 2021-04-13 2022-10-18 电子科技大学 一种基于属性特征和身份特征融合的跨域行人重识别方法
CN113221656B (zh) * 2021-04-13 2022-07-22 电子科技大学 基于域不变特征的跨域行人重识别装置及其方法

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108764308A (zh) * 2018-05-16 2018-11-06 中国人民解放军陆军工程大学 一种基于卷积循环网络的行人重识别方法
CN109002761A (zh) * 2018-06-13 2018-12-14 中山大学新华学院 一种基于深度卷积神经网络的行人重识别监控系统
CN109993072A (zh) * 2019-03-14 2019-07-09 中山大学 基于超分辨图像生成的低分辨率行人重识别系统和方法
CN110263697A (zh) * 2019-06-17 2019-09-20 哈尔滨工业大学(深圳) 基于无监督学习的行人重识别方法、装置及介质
CN110413993A (zh) * 2019-06-26 2019-11-05 重庆兆光科技股份有限公司 一种基于稀疏权值神经网络的语义分类方法、系统和介质
CN111143507A (zh) * 2019-12-05 2020-05-12 重庆兆光科技股份有限公司 一种基于复合式问题的阅读理解方法
CN111160297A (zh) * 2019-12-31 2020-05-15 武汉大学 基于残差注意机制时空联合模型的行人重识别方法及装置
CN111178284A (zh) * 2019-12-31 2020-05-19 珠海大横琴科技发展有限公司 基于地图数据的时空联合模型的行人重识别方法及系统
CN111242064A (zh) * 2020-01-17 2020-06-05 山东师范大学 基于摄像头风格迁移和单标注的行人重识别方法及系统
CN111739115A (zh) * 2020-06-23 2020-10-02 中国科学院自动化研究所 基于循环一致性的无监督人体姿态迁移方法、系统及装置
CN111783521A (zh) * 2020-05-19 2020-10-16 昆明理工大学 基于低秩先验引导的域不变信息分离的行人重识别方法
CN111814854A (zh) * 2020-06-28 2020-10-23 北京交通大学 一种无监督域适应的目标重识别方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10354199B2 (en) * 2015-12-07 2019-07-16 Xerox Corporation Transductive adaptation of classifiers without source data
US10956817B2 (en) * 2018-04-18 2021-03-23 Element Ai Inc. Unsupervised domain adaptation with similarity learning for images

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108764308A (zh) * 2018-05-16 2018-11-06 中国人民解放军陆军工程大学 一种基于卷积循环网络的行人重识别方法
CN109002761A (zh) * 2018-06-13 2018-12-14 中山大学新华学院 一种基于深度卷积神经网络的行人重识别监控系统
CN109993072A (zh) * 2019-03-14 2019-07-09 中山大学 基于超分辨图像生成的低分辨率行人重识别系统和方法
CN110263697A (zh) * 2019-06-17 2019-09-20 哈尔滨工业大学(深圳) 基于无监督学习的行人重识别方法、装置及介质
CN110413993A (zh) * 2019-06-26 2019-11-05 重庆兆光科技股份有限公司 一种基于稀疏权值神经网络的语义分类方法、系统和介质
CN111143507A (zh) * 2019-12-05 2020-05-12 重庆兆光科技股份有限公司 一种基于复合式问题的阅读理解方法
CN111160297A (zh) * 2019-12-31 2020-05-15 武汉大学 基于残差注意机制时空联合模型的行人重识别方法及装置
CN111178284A (zh) * 2019-12-31 2020-05-19 珠海大横琴科技发展有限公司 基于地图数据的时空联合模型的行人重识别方法及系统
CN111242064A (zh) * 2020-01-17 2020-06-05 山东师范大学 基于摄像头风格迁移和单标注的行人重识别方法及系统
CN111783521A (zh) * 2020-05-19 2020-10-16 昆明理工大学 基于低秩先验引导的域不变信息分离的行人重识别方法
CN111739115A (zh) * 2020-06-23 2020-10-02 中国科学院自动化研究所 基于循环一致性的无监督人体姿态迁移方法、系统及装置
CN111814854A (zh) * 2020-06-28 2020-10-23 北京交通大学 一种无监督域适应的目标重识别方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
基于改进SSD的电力检修多目标人员追踪方法;沈茂东;高宏;付新阳;周伟;张俊岭;公凡奎;冯志珍;;计算机系统应用(第08期);156-161 *
基于生成对抗网络的跨模态行人重识别研究;冯敏;张智成;吕进;余磊;韩斌;;现代信息科技(第04期);115-117 *
弱监督场景下的行人重识别研究综述;祁磊;于沛泽;高阳;;软件学报(第09期);263-282 *

Also Published As

Publication number Publication date
CN112528788A (zh) 2021-03-19

Similar Documents

Publication Publication Date Title
CN111368896B (zh) 基于密集残差三维卷积神经网络的高光谱遥感图像分类方法
Mascarenhas et al. A comparison between VGG16, VGG19 and ResNet50 architecture frameworks for Image Classification
CN113221641B (zh) 基于生成对抗网络和注意力机制的视频行人重识别方法
CN111898736A (zh) 基于属性感知的高效行人重识别方法
CN112528788B (zh) 一种基于域不变特征和时空特征的重识别方法
CN108596240B (zh) 一种基于判别特征网络的图像语义分割方法
CN112464730B (zh) 一种基于域无关前景特征学习的行人再识别方法
Reddy et al. AdaCrowd: Unlabeled scene adaptation for crowd counting
CN109472733A (zh) 基于卷积神经网络的图像隐写分析方法
Kekeç et al. Contextually constrained deep networks for scene labeling
Shafiee et al. Embedded motion detection via neural response mixture background modeling
CN116798070A (zh) 一种基于光谱感知和注意力机制的跨模态行人重识别方法
Martins et al. Deep learning applied to the identification of fruit fly in intelligent traps
CN113283282A (zh) 一种基于时域语义特征的弱监督时序动作检测方法
Abdelrazik et al. Efficient hybrid algorithm for human action recognition
CN112990340B (zh) 一种基于特征共享的自学习迁移方法
Liu et al. TransCloudSeg: Ground-based cloud image segmentation with transformer
Chen-McCaig et al. Convolutional neural networks for texture recognition using transfer learning
CN116434010A (zh) 一种多视图的行人属性识别方法
Hu et al. Learning salient features for flower classification using convolutional neural network
Zhao Image semantic segmentation method based on GAN network and FCN model
CN113313185B (zh) 一种基于自适应空谱特征提取的高光谱图像分类方法
Javad Shafiee et al. Embedded motion detection via neural response mixture background modeling
Liang Unrestricted Face Recognition Algorithm Based on Transfer Learning on Self‐Pickup Cabinet
Guzzi et al. Distillation of a CNN for a high accuracy mobile face recognition system

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information
CB02 Change of applicant information

Address after: 400000 6-1, 6-2, 6-3, 6-4, building 7, No. 50, Shuangxing Avenue, Biquan street, Bishan District, Chongqing

Applicant after: CHONGQING ZHAOGUANG TECHNOLOGY CO.,LTD.

Address before: 400000 2-2-1, 109 Fengtian Avenue, tianxingqiao, Shapingba District, Chongqing

Applicant before: CHONGQING ZHAOGUANG TECHNOLOGY CO.,LTD.

GR01 Patent grant
GR01 Patent grant