CN110717411A - 一种基于深层特征融合的行人重识别方法 - Google Patents
一种基于深层特征融合的行人重识别方法 Download PDFInfo
- Publication number
- CN110717411A CN110717411A CN201910897768.6A CN201910897768A CN110717411A CN 110717411 A CN110717411 A CN 110717411A CN 201910897768 A CN201910897768 A CN 201910897768A CN 110717411 A CN110717411 A CN 110717411A
- Authority
- CN
- China
- Prior art keywords
- pedestrian
- deep
- layer
- identification
- features
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Abstract
本发明公开了一种基于深层特征融合的行人重识别方法,提出了一种基于深层特征融合的行人重识别网络模型,从空间维度提升网络性能。首先,利用卷积层和池化层多次提取网络深层特征,使用融合后的深层特征作为行人图像的特征属性,融合后的特征具有更好的细粒度特征表达能力。其次,为提高模型的泛化能力,在深层融合特征后加入一个批量归一化层,同时采用标签平滑损失函数和三元组损失函数对模型进行联合训练,提高了模型的泛化能力。
Description
技术领域
本发明属于数字图像处理、计算机视觉技术领域,涉及一种行人重识别方法,特别是涉及一种基于深层特征融合的行人重识别方法。
背景技术
行人重识别技术又称“跨境追踪技术”,作为目前视频监控的热门研究方向,它将计算机视觉、机器学习以及模式识别综合运用于监控系统中,可与行人检测技术、行人跟踪技术相结合。该技术是人脸识别技术的延伸,可跨越多个摄像头对无法拍摄清晰人脸的行人进行连续追踪。若给定一张监控拍摄的行人图像,行人重识别技术通过检索其他监控设备在不同地点和时间拍摄的该行人图像来弥补固定摄像头的视觉局限,并增强数据的时空连续性。行人重识别技术在智能安防、智能商业等领域被广泛应用。
深度学习近年来在机器学习领域成为研究热点,其中应用非常广泛的一种模型是卷积神经网络(Convolution Neural Network,CNN)。它主要包含卷积和池化操作,具有很强的抽象表征能力,相比传统的神经网络识别性能更好。在当今大数据时代,随着计算机计算能力大幅提高,成本逐渐降低,深度学习在图像识别与分类、自然语言处理及语音识别等研究领域取得了优异的效果。
目前行人重识别研究主要分为两部分:基于特征表示的方法和基于度量学习的方法。基于特征表示方法主要研究提取具有鲁棒性的鉴别特征来表示行人。基于度量学习方法主要研究通过学习一个距离函数,使同一行人的距离小于不同行人的距离。其目的是寻找一种新的距离度量,将原始的行人特征(如hog和sift)转换为一个新的度量空间,在这个度量空间中,具有相同标签的样本距离更近,标签不同的样本具有较大的距离。
近年来,行人重识别技术研究得到了快速发展,但与实际应用需求还存在一些差距,问题主要体现在:一般的视频监控中,拍摄的图像分辨率较低,人脸信息模糊,不利于人脸分析、特征提取及分割等;不同摄像头拍摄角度不同,导致行人在不同摄像头下的姿态不同,从而难以匹配;行人之间或行人与其他物体之间会存在遮挡,行人特征表示受到很大影响;不同监控环境下,摄像头参数、早晚光照的不同会改变人的外貌,难以进行匹配。
发明内容
本发明的目的在于提出一种基于深层特征融合的行人重识别网络模型及重识别方法,从空间维度提升网络性能。
本发明所采用的技术方案是:一种基于深层特征融合的行人重识别方法,其特征在于,包括以下步骤:
步骤1:构建行人重识别网络模型,针对输入的数据集,利用行人重识别网络模型提取图像的全局特征;
步骤2:深层特征融合;
步骤3:融合深层特征的批量归一化处理;
步骤4:采用标签平滑损失函数和三元组损失函数对步骤1中的行人重识别网络模型进行联合训练,使得行人重识别网络模型的参数最优;
步骤5:针对行人重识别公开数据集中包含的查询集和候选集,计算查询集中指定对象和候选集中的每个对象的欧式距离,接着对所计算得到的距离进行升序排序,获得行人重识别的排序结果。
本发明提出了一种基于深层特征融合的行人重识别方法,与现有算法相比,其显著优点在于:
(1)本发明提出了一种深层特征融合的行人重识别网络模型,从空间维度提升网络性能。该方法利用卷积层和池化层多次提取Se-resnet50网络深层行人特征,使用融合后的深层特征作为行人图像的特征属性。
(2)在深层融合特征后加入一个批量归一化层,同时采用标签平滑损失函数和三元组损失函数对模型进行联合训练,提高模型的泛化能力。
附图说明
图1为本发明实施例的网络框架图;
图2为本发明实施例的Se-resnet50网络内部结构图。
具体实施方式
为了便于本领域普通技术人员理解和实施本发明,下面结合附图及实施例对本发明作进一步的详细描述,应当理解,此处所描述的实施示例仅用于说明和解释本发明,并不用于限定本发明。
请见图1、图2,本发明提供了一种基于深层特征融合的行人重识别方法,包括以下步骤:
步骤1:构建行人重识别网络模型,针对输入的数据集,利用行人重识别网络模型提取图像的全局特征;
本实施例中,步骤1的具体实现包括以下子步骤:
步骤1.1:输入数据集至行人重识别网络模型;
所述行人重识别网络模型为Se-resnet50网络,其网络内部结构如图2所示,该网络是将SENet(Squeeze-and-Excitation Networks)嵌入Resnet-50中,SENet分为压缩和激励两个部分;压缩部分结构包括池化层,激励部分结构包括全连接层、Relu层、全连接层、激活函数层;
SENet通过自己学习获取特征通道的权重并进行分配,提升有用特征通道同时削弱相关性小的特征。在压缩部分,对Resnet-50输出的C个空间维度为H×W的特征映射fi,通过全局池化压缩成C个空间维度为..的特征向量。在激励部分,通过如图2所示的激励部分捕捉信道之间的内部关联,学习信道的注意力因子。
步骤1.2:将学习到的注意力因子分配到相应的信道上,输出C个大小为H×W的带有注意力标注的特征映射fi′。
步骤2:深层特征融合;
本实施例中,步骤2的具体实现包括以下子步骤:
步骤2.1:将Se-resnet50的第三个和第四个卷积层特征提取出来获得图像深层次的全局特征属性表示,提取的两个中间层特征f1′、f2′的维度分别为512和1024,对这两个不同尺度的中间层特征分别采用平均池化方法,获得2048维的深层特征f1′、f2′;
步骤2.2:将步骤2.1获得的两个中间层特征f1′、f2′与网络输出的2048维的特征映射f′拼接为融合特征f′fusion=[f′,f1′,f2′]。
步骤3:融合深层特征的批量归一化处理;
将步骤2.2获得的C个融合特征f′fusion后面加入一个归一化层,在批量归一化层中引入了γ、β两个可学习参数,将C个融合特征的特征值作为样本对参数γ、β进行训练,对批处理特征值进行尺度变换和偏移,得到标准化后的融合特征映射f′N。
步骤4:采用标签平滑损失函数和三元组损失函数对步骤1中的行人重识别网络模型进行联合训练;使得行人重识别网络模型的参数最优;
本实施例中,步骤4的具体实现包括以下子步骤:
步骤4.1:三元组损失函数是对欧氏距离中的类内紧密性和类间可分离性进行了增强。本实施例利用三元组损失函数计算融合特征映射f′fusion的欧式距离,使得任意目标样本与正样本之间的距离最小,与负样本之间的距离最大;
其中,三元组损失函数为:
Ltri=[dp-dn+α]+ (1)
其中,dp为目标样本与正样本之间的欧式距离,dn为目标样本与负样本之间的欧式距离,α为三元组损失的阈值;
步骤4.2:采用f′N计算标签平滑损失;
行人训练样本通常会存在少量的错误标签,这些错误标签可能会影响预测结果,标签平滑损失函数被用来防止模型在训练过程中过度依赖标签。由于批量归一化层将所有特征属性全部分配给了同一个标签,故采用f′N计算标签平滑损失。在使用标签平滑损失函数优化模型时,余弦距离比欧式距离更适用于标签平滑损失函数。
当输入行人图像i时,yi为图像中行人的标签,若yi为类别i其值为1,否则为0;对行人标签进行了平滑处理,在每次训练过程中,给标签设置一个错误率ε,则实际标注的行人标签y′i为:
qi是网络预测实际标注的行人标签yi′为类别i的概率,为:
其中,M为数据集中的行人个数,由交叉熵损失函数可得标签平滑损失:
其中,pi为网络预测标签yi为类别i的概率;
步骤4.3:将步骤4.1和步骤4.2中的三元组损失和标签平滑损失联合在一起,模型总的损失函数为Lloss=Lid+Ltri,并运用联合损失函数对模型进行训练。
步骤5:针对行人重识别公开数据集中包含的查询集和候选集,计算查询集中指定对象和候选集中的每个对象的欧式距离,接着对所计算得到的距离进行升序排序,获得行人重识别的排序结果。
应当理解的是,本说明书未详细阐述的部分均属于现有技术;上述针对较佳实施例的描述较为详细,并不能因此而认为是对本发明专利保护范围的限制,本领域的普通技术人员在本发明的启示下,在不脱离本发明权利要求所保护的范围情况下,还可以做出替换或变形,均落入本发明的保护范围之内,本发明的请求保护范围应以所附权利要求为准。
Claims (5)
1.一种基于深层特征融合的行人重识别方法,其特征在于,包括以下步骤:
步骤1:构建行人重识别网络模型,针对输入的数据集,利用行人重识别网络模型提取图像的全局特征;
步骤2:深层特征融合;
步骤3:融合深层特征的批量归一化处理;
步骤4:采用标签平滑损失函数和三元组损失函数对步骤1中的行人重识别网络模型进行联合训练,使得行人重识别网络模型的参数最优;
步骤5:针对行人重识别公开数据集中包含的查询集和候选集,计算查询集中指定对象和候选集中的每个对象的欧式距离,接着对所计算得到的距离进行升序排序,获得行人重识别的排序结果。
2.根据权利要求1所述的基于深层特征融合的行人重识别方法,其特征在于,步骤1的具体实现包括以下子步骤:
步骤1.1:输入数据集至行人重识别网络模型;所述行人重识别网络模型为Se-resnet50网络,所述Se-resnet50网络是将SENet嵌入Resnet-50中得到的;SENet分为压缩和激励两个部分,压缩部分结构包括池化层,激励部分结构包括全连接层、Relu层、全连接层、激活函数层;
在压缩部分,对Resnet-50输出的C个空间维度为H×W的特征映射fi,通过全局池化压缩成C个空间维度为1×1的特征向量;在激励部分,捕捉信道之间的内部关联,学习信道的注意力因子;
步骤1.2:将学习到的注意力因子分配到相应的信道上,输出C个大小为H×W的带有注意力标注的特征映射fi′。
3.根据权利要求2所述的基于深层特征融合的行人重识别方法,其特征在于,步骤2的具体实现包括以下子步骤:
步骤2.1:将Se-resnet50的第三个和第四个卷积层特征提取出来获得图像深层次的全局特征属性表示,提取的两个中间层特征f1′、f2′的维度分别为512和1024,对这两个不同尺度的中间层特征分别采用平均池化方法,获得2048维的深层特征f1′、f2′;
步骤2.2:将步骤2.1获得的两个中间层特征f1′、f2′与网络输出的2048维的特征映射f′拼接为融合特征f′fusion=[f′,f1′,f2′]。
4.根据权利要求3所述的基于深层特征融合的行人重识别方法,其特征在于,步骤3的具体实现过程为:将步骤2.2获得的C个融合特征f′fusion后面加入一个归一化层,在批量归一化层中引入了γ、β两个可学习参数,将C个融合特征的特征值作为样本对参数γ、β进行训练,对批处理特征值进行尺度变换和偏移,得到标准化后的融合特征映射f′N。
5.根据权利要求4所述的基于深层特征融合的行人重识别方法,其特征在于,步骤4的具体实现包括以下子步骤:
步骤4.1:利用三元组损失函数计算融合特征映射f′fusion的欧式距离,使得任意目标样本与正样本之间的距离最小,与负样本之间的距离最大;
其中,三元组损失函数为:
Ltri=[dp-dn+α]+ (1)
其中,dp为目标样本与正样本之间的欧式距离,dn为目标样本与负样本之间的欧式距离,α为三元组损失的阈值;
步骤4.2:采用f′N计算标签平滑损失;
当输入行人图像i时,yi为图像中行人的标签,若yi为类别i其值为1,否则为0;对行人标签进行了平滑处理,在每次训练过程中,给标签设置一个错误率ε,则实际标注的行人标签y′i为:
qi是网络预测实际标注的行人标签yi′为类别i的概率,为:
其中,M为数据集中的行人个数,由交叉熵损失函数可得标签平滑损失:
其中,pi为网络预测标签yi为类别i的概率;
步骤4.3:将步骤4.1和步骤4.2中的三元组损失和标签平滑损失联合在一起,模型总的损失函数为Lloss=Lid+Ltri,并运用联合损失函数对模型进行训练。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910897768.6A CN110717411A (zh) | 2019-09-23 | 2019-09-23 | 一种基于深层特征融合的行人重识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910897768.6A CN110717411A (zh) | 2019-09-23 | 2019-09-23 | 一种基于深层特征融合的行人重识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110717411A true CN110717411A (zh) | 2020-01-21 |
Family
ID=69210758
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910897768.6A Pending CN110717411A (zh) | 2019-09-23 | 2019-09-23 | 一种基于深层特征融合的行人重识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110717411A (zh) |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111291821A (zh) * | 2020-02-20 | 2020-06-16 | 上海眼控科技股份有限公司 | 车辆重识别方法、装置、计算机设备和存储介质 |
CN111488797A (zh) * | 2020-03-11 | 2020-08-04 | 北京交通大学 | 一种行人再识别方法 |
CN111553205A (zh) * | 2020-04-12 | 2020-08-18 | 西安电子科技大学 | 无车牌信息车辆重识别方法、系统、介质、视频监控系统 |
CN111582107A (zh) * | 2020-04-28 | 2020-08-25 | 浙江大华技术股份有限公司 | 目标重识别模型的训练方法、识别方法、电子设备及装置 |
CN111582154A (zh) * | 2020-05-07 | 2020-08-25 | 浙江工商大学 | 基于多任务骨架姿态划分部件的行人重识别方法 |
CN111582126A (zh) * | 2020-04-30 | 2020-08-25 | 浙江工商大学 | 基于多尺度行人轮廓分割融合的行人重识别方法 |
CN111583911A (zh) * | 2020-04-30 | 2020-08-25 | 深圳市优必选科技股份有限公司 | 基于标签平滑的语音识别方法、装置、终端及介质 |
CN111666843A (zh) * | 2020-05-25 | 2020-09-15 | 湖北工业大学 | 一种基于全局特征和局部特征拼接的行人重识别方法 |
CN111783570A (zh) * | 2020-06-16 | 2020-10-16 | 厦门市美亚柏科信息股份有限公司 | 一种目标重识别的方法、装置、系统及计算机存储介质 |
CN111814845A (zh) * | 2020-03-26 | 2020-10-23 | 同济大学 | 一种基于多支流融合模型的行人重识别方法 |
CN112597866A (zh) * | 2020-12-16 | 2021-04-02 | 南京邮电大学 | 一种基于知识蒸馏的可见光-红外跨模态行人重识别方法 |
CN112613474A (zh) * | 2020-12-30 | 2021-04-06 | 珠海大横琴科技发展有限公司 | 一种行人重识别的方法和装置 |
CN112686297A (zh) * | 2020-12-29 | 2021-04-20 | 中国人民解放军海军航空大学 | 一种雷达目标运动状态的分类方法及系统 |
CN113239784A (zh) * | 2021-05-11 | 2021-08-10 | 广西科学院 | 一种基于空间序列特征学习的行人重识别系统及方法 |
CN113378729A (zh) * | 2021-06-16 | 2021-09-10 | 西安理工大学 | 一种基于位姿嵌入的多尺度卷积特征融合行人重识别方法 |
CN113516012A (zh) * | 2021-04-09 | 2021-10-19 | 湖北工业大学 | 一种基于多层级特征融合的行人重识别方法及系统 |
CN113744524A (zh) * | 2021-08-16 | 2021-12-03 | 武汉理工大学 | 一种基于车辆间协同计算通信的行人意图预测方法及系统 |
CN114694173A (zh) * | 2022-03-01 | 2022-07-01 | 电子科技大学 | 一种基于细粒度特征融合的跨域无监督行人重识别方法 |
CN117612266A (zh) * | 2024-01-24 | 2024-02-27 | 南京信息工程大学 | 基于多尺度图像及特征层对齐的跨分辨率行人重识别方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109492583A (zh) * | 2018-11-09 | 2019-03-19 | 安徽大学 | 一种基于深度学习的车辆重识别方法 |
CN109711281A (zh) * | 2018-12-10 | 2019-05-03 | 复旦大学 | 一种基于深度学习的行人重识别与特征识别融合方法 |
CN109784258A (zh) * | 2019-01-08 | 2019-05-21 | 华南理工大学 | 一种基于多尺度特征切割与融合的行人重识别方法 |
-
2019
- 2019-09-23 CN CN201910897768.6A patent/CN110717411A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109492583A (zh) * | 2018-11-09 | 2019-03-19 | 安徽大学 | 一种基于深度学习的车辆重识别方法 |
CN109711281A (zh) * | 2018-12-10 | 2019-05-03 | 复旦大学 | 一种基于深度学习的行人重识别与特征识别融合方法 |
CN109784258A (zh) * | 2019-01-08 | 2019-05-21 | 华南理工大学 | 一种基于多尺度特征切割与融合的行人重识别方法 |
Non-Patent Citations (1)
Title |
---|
JIE HU ET AL.: "Squeeze-and-Excitation Networks" * |
Cited By (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111291821A (zh) * | 2020-02-20 | 2020-06-16 | 上海眼控科技股份有限公司 | 车辆重识别方法、装置、计算机设备和存储介质 |
CN111488797A (zh) * | 2020-03-11 | 2020-08-04 | 北京交通大学 | 一种行人再识别方法 |
CN111488797B (zh) * | 2020-03-11 | 2023-12-05 | 北京交通大学 | 一种行人再识别方法 |
CN111814845B (zh) * | 2020-03-26 | 2022-09-20 | 同济大学 | 一种基于多支流融合模型的行人重识别方法 |
CN111814845A (zh) * | 2020-03-26 | 2020-10-23 | 同济大学 | 一种基于多支流融合模型的行人重识别方法 |
CN111553205A (zh) * | 2020-04-12 | 2020-08-18 | 西安电子科技大学 | 无车牌信息车辆重识别方法、系统、介质、视频监控系统 |
CN111553205B (zh) * | 2020-04-12 | 2022-11-15 | 西安电子科技大学 | 无车牌信息车辆重识别方法、系统、介质、视频监控系统 |
CN111582107A (zh) * | 2020-04-28 | 2020-08-25 | 浙江大华技术股份有限公司 | 目标重识别模型的训练方法、识别方法、电子设备及装置 |
CN111582107B (zh) * | 2020-04-28 | 2023-09-29 | 浙江大华技术股份有限公司 | 目标重识别模型的训练方法、识别方法、电子设备及装置 |
CN111582126B (zh) * | 2020-04-30 | 2024-02-27 | 浙江工商大学 | 基于多尺度行人轮廓分割融合的行人重识别方法 |
CN111583911A (zh) * | 2020-04-30 | 2020-08-25 | 深圳市优必选科技股份有限公司 | 基于标签平滑的语音识别方法、装置、终端及介质 |
CN111582126A (zh) * | 2020-04-30 | 2020-08-25 | 浙江工商大学 | 基于多尺度行人轮廓分割融合的行人重识别方法 |
CN111583911B (zh) * | 2020-04-30 | 2023-04-14 | 深圳市优必选科技股份有限公司 | 基于标签平滑的语音识别方法、装置、终端及介质 |
CN111582154A (zh) * | 2020-05-07 | 2020-08-25 | 浙江工商大学 | 基于多任务骨架姿态划分部件的行人重识别方法 |
CN111666843A (zh) * | 2020-05-25 | 2020-09-15 | 湖北工业大学 | 一种基于全局特征和局部特征拼接的行人重识别方法 |
CN111783570A (zh) * | 2020-06-16 | 2020-10-16 | 厦门市美亚柏科信息股份有限公司 | 一种目标重识别的方法、装置、系统及计算机存储介质 |
CN112597866A (zh) * | 2020-12-16 | 2021-04-02 | 南京邮电大学 | 一种基于知识蒸馏的可见光-红外跨模态行人重识别方法 |
CN112597866B (zh) * | 2020-12-16 | 2022-08-02 | 南京邮电大学 | 一种基于知识蒸馏的可见光-红外跨模态行人重识别方法 |
CN112686297A (zh) * | 2020-12-29 | 2021-04-20 | 中国人民解放军海军航空大学 | 一种雷达目标运动状态的分类方法及系统 |
CN112686297B (zh) * | 2020-12-29 | 2023-04-14 | 中国人民解放军海军航空大学 | 一种雷达目标运动状态的分类方法及系统 |
CN112613474A (zh) * | 2020-12-30 | 2021-04-06 | 珠海大横琴科技发展有限公司 | 一种行人重识别的方法和装置 |
CN113516012B (zh) * | 2021-04-09 | 2022-04-15 | 湖北工业大学 | 一种基于多层级特征融合的行人重识别方法及系统 |
CN113516012A (zh) * | 2021-04-09 | 2021-10-19 | 湖北工业大学 | 一种基于多层级特征融合的行人重识别方法及系统 |
CN113239784A (zh) * | 2021-05-11 | 2021-08-10 | 广西科学院 | 一种基于空间序列特征学习的行人重识别系统及方法 |
CN113378729A (zh) * | 2021-06-16 | 2021-09-10 | 西安理工大学 | 一种基于位姿嵌入的多尺度卷积特征融合行人重识别方法 |
CN113744524A (zh) * | 2021-08-16 | 2021-12-03 | 武汉理工大学 | 一种基于车辆间协同计算通信的行人意图预测方法及系统 |
CN114694173A (zh) * | 2022-03-01 | 2022-07-01 | 电子科技大学 | 一种基于细粒度特征融合的跨域无监督行人重识别方法 |
CN114694173B (zh) * | 2022-03-01 | 2023-07-25 | 电子科技大学 | 一种基于细粒度特征融合的跨域无监督行人重识别方法 |
CN117612266A (zh) * | 2024-01-24 | 2024-02-27 | 南京信息工程大学 | 基于多尺度图像及特征层对齐的跨分辨率行人重识别方法 |
CN117612266B (zh) * | 2024-01-24 | 2024-04-19 | 南京信息工程大学 | 基于多尺度图像及特征层对齐的跨分辨率行人重识别方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110717411A (zh) | 一种基于深层特征融合的行人重识别方法 | |
CN111126360B (zh) | 基于无监督联合多损失模型的跨域行人重识别方法 | |
CN109961051B (zh) | 一种基于聚类和分块特征提取的行人重识别方法 | |
Tu et al. | Action-stage emphasized spatiotemporal VLAD for video action recognition | |
CN111259786B (zh) | 一种基于视频的外观和运动信息同步增强的行人重识别方法 | |
Abbas et al. | A comprehensive review of recent advances on deep vision systems | |
CN109344787B (zh) | 一种基于人脸识别与行人重识别的特定目标跟踪方法 | |
CN113936339B (zh) | 基于双通道交叉注意力机制的打架识别方法和装置 | |
Ge et al. | An attention mechanism based convolutional LSTM network for video action recognition | |
CN111709311B (zh) | 一种基于多尺度卷积特征融合的行人重识别方法 | |
CN103593464B (zh) | 基于视觉特征的视频指纹检测及视频序列匹配方法及系统 | |
CN110209859B (zh) | 地点识别及其模型训练的方法和装置以及电子设备 | |
CN111832514B (zh) | 基于软多标签的无监督行人重识别方法及装置 | |
CN111539370A (zh) | 一种基于多注意力联合学习的图像行人重识别方法和系统 | |
CN111639564B (zh) | 一种基于多注意力异构网络的视频行人重识别方法 | |
Tang et al. | Multi-modal metric learning for vehicle re-identification in traffic surveillance environment | |
CN110728216A (zh) | 一种基于行人属性自适应学习的无监督行人再识别方法 | |
CN110765841A (zh) | 基于混合注意力机制的群组行人重识别系统及终端 | |
CN111325169A (zh) | 基于胶囊网络的深度视频指纹算法 | |
CN112464775A (zh) | 一种基于多分支网络的视频目标重识别方法 | |
Tian et al. | Robust joint learning network: improved deep representation learning for person re-identification | |
CN111241987A (zh) | 基于代价敏感的三支决策的多目标模型视觉追踪方法 | |
CN116824641B (zh) | 姿态分类方法、装置、设备和计算机存储介质 | |
CN115393788B (zh) | 一种基于增强全局信息注意力的多尺度监控行人重识别方法 | |
CN107291813B (zh) | 基于语义分割场景的示例搜索方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |