CN109635636A - 基于属性特征和加权的分块特征相融合的行人再识别方法 - Google Patents
基于属性特征和加权的分块特征相融合的行人再识别方法 Download PDFInfo
- Publication number
- CN109635636A CN109635636A CN201811273875.3A CN201811273875A CN109635636A CN 109635636 A CN109635636 A CN 109635636A CN 201811273875 A CN201811273875 A CN 201811273875A CN 109635636 A CN109635636 A CN 109635636A
- Authority
- CN
- China
- Prior art keywords
- network
- pedestrian
- sub
- feature
- attributive character
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于属性特征和加权的分块特征相融合的行人再识别方法,包括以下步骤:构造属性特征提取子网络,该子网络融合了手动提取的特征和深度神经网络提取的特征;采用设置加权的交叉熵损失函数来训练属性特征提取子网络;构造基于分块的特征提取子网络,该网络可融合多个分块的深度特征;训练基于分块的特征提取子网络,设置局部损失函数的加权融合层,自主学习不同的权重,进而赋予各局部损失函数;对整体网络进行训练,提取融合了属性特征和基于分块的深度特征的行人特征表示。本发明设计合理,其有效结合了属性特征和深度特征,在损失函数计算方法上进行优化,获得了很好的行人再识别结果,使得系统整体匹配准确率大大提升。
Description
技术领域
本发明属于计算机视觉行人再识别技术领域,尤其是一种基于属性特征和加权的分块特征相融合的行人再识别方法。
背景技术
目前,视频采集技术和大规模数据存储技术高速发展,大量的监控摄像系统应用在公共场所成为可能。在海量的监控视频数据中,对其中的行人进行识别和处理是技术发展的一大趋势。仅依靠人眼识别监控画面中的行人身份显然十分低效,行人再识别技术的任务便是运用计算机视觉技术解决不重叠监控视野中行人身份匹配的问题,是当前的一大研究热点。
近年来,随着深度学习技术的兴起,卷积神经网络被广泛运用在行人检测、目标跟踪等视觉任务中,并表现出了出色的性能,因此,基于深度学习的行人再识别也成为了当前的一大趋势。然而,卷积神经网络大多提取的是全局的特征,这些特征无法克服视角、光照等环境因素的变化,并且缺乏行人的局部细节描述,而这些局部特征对于不同视角下行人的姿势变化具有较好的鲁棒性,其仅对于区分不同行人有效,而对行人再识别准确率不高。
发明内容
本发明的目的在于克服现有技术的不足,提出一种基于属性特征和加权的分块特征相融合的行人再识别方法,解决行人再识别准确率不高的问题。
本发明解决其技术问题是采取以下技术方案实现的:
一种基于属性特征和加权的分块特征相融合的行人再识别方法,包括以下步骤:
步骤1、构造属性特征提取子网络,该属性特征提取子网络融合了手动提取的特征和深度神经网络提取的特征;
步骤2、采用设置加权的交叉熵损失函数来训练属性特征提取子网络;
步骤3、构造基于分块的特征提取子网络,该网络可融合多个分块的深度特征;
步骤4、训练基于分块的特征提取子网络,设置局部损失函数的加权融合层,自主学习不同的权重,进而赋予各局部损失函数;
步骤5、对整体网络进行训练,提取融合了属性特征和基于分块的深度特征的行人特征表示。
进一步,所述步骤1的具体实现方法为:
首先,将行人图片分为16个水平块,每块分别提取8通道的颜色特征以及21通道的纹理特征,将各通道的特征级联后,通过主成分分析方法将维度降低至1600维,再通过全连接层映射至1024维,得到最终的手动特征;
然后,将1024维的手动特征和深度神经网络的第二全连接层的4096维输出级联为5120维后,再通过一个全连接层进行特征融合,最终得到4096维的属性特征表示。
进一步,所述8通道的颜色特征包括RGB、HSV和YCbCr,所述21通道的纹理特征包括8个Gabor滤波器和13个Schmid滤波器;所述深度神经网络的结构为:第一卷积层、第二卷积层、第三卷积层、第四卷积层、第五卷积层、第一全连接层和第二全连接层;第一卷积层的参数为11×11×96,第二卷积层的参数为5×5×256,第三卷积层的参数为3×3×384,第四卷积层的参数为3×3×384,第五卷积层的参数为3×3×256,第一全连接层的参数为4096-d,第二全连接层的参数为4096-d。
进一步,所述步骤2的具体实现方法为:
(1)设每个输入图片I有M个属性,首先将4096维的特征向量映射到M维,该M-d的特征向量用于属性识别;
(2)设置加权的交叉熵损失LRAP进行训练,计算过程为:
其中,N表示训练集样本数,pim表示属性预测值,yim表示属性标签,wm表示每个属性m对应的权重,wm的计算方法为:
其中,rm为训练集中属性m的正样本比例。
进一步,所述步骤3的具体实现方法为:
(1)以深度残差网络为基础,通过第一ResBlock、第二ResBlock、第三ResBlock和第四ResBlock提取全局特征;
(2)将第四ResBlock的输出水平分为不重叠的4块,每块分别作为其对应子网络的输入,四个子网络具有相同的结构,并且四个子网络的全连接层共享权重。
进一步,所述四个子网络的结构为:全局平均池化层、全连接层和Softmax损失层。
进一步,所述步骤4的具体实现方法为:将四个子网络的Softmax损失分别表示为:L1、L2、L3、L4,设置加权的损失函数之和Lpart,Lpart计算方法为:
其中,wi表示每个分块损失函数的权重,它是在网络训练过程中自主学习得到的优化参数。
进一步,所述步骤5的具体实现方法为:输入图像首先被统一为256×128×3像素尺寸,然后将步骤1的属性识别子网络和步骤3的分块特征提取子网络各自独立训练50个epochs,批量大小为64,最后将两个子网络合并为一个整体,设置属性特征和分块特征的融合层来得到行人再识别特征,再精调10个epochs,得到最终的行人再识别模型。
本发明的优点和积极效果是:
本发明设计合理,其采用属性特征和加权的分块特征相融合的模型,在属性特征提取子网络中,引入了手动特征和深度网络特征相融合的方法,可弥补深度特征的不足,提取到更具鲁棒性和判别力的属性特征;在分块特征提取子网络中,基于不同分块的重要性差异,设置了损失函数加权层,可自主学习不同的权重参数,通过反向传播进行参数优化,得到的分块特征和属性特征的融合,具有较高的判别力和鲁棒性,获得了很好的行人再识别结果,也使得系统整体匹配准确率大大提升。
附图说明
图1是本发明的实现原理图;
图2是不同设置下的属性识别子网络性能对比图。
图3a是数据集Market1501在四种网络结构下的CMC曲线表图;
图3b是数据集DukeMTMC-reID在四种网络结构下的CMC曲线表图。
具体实施方式
以下结合附图对本发明实施例做进一步详述。
一种基于属性特征和加权的分块特征相融合的行人再识别方法,如图1所示,包括以下步骤:
步骤1、构造属性特征提取子网络,该属性特征提取子网络融合了手动提取的特征和深度神经网络提取的特征。本步骤的具体实施方法如下:
手动特征提取方法为:将行人图片分为16个水平块,每块分别提取8通道的颜色特征(包括:RGB、HSV、YCbCr),以及21通道的纹理特征(包括:8个Gabor滤波器和13个Schmid滤波器),将各通道的特征级联后,通过主成分分析(PCA)方法将维度降低至1600维,再通过全连接层映射至1024维,即为最终的手动特征。深度特征提取子网络的结构为:
卷积层1(11×11×96)→卷积层2(5×5×256)→卷积层3(3×3×384)→卷积层4(3×3×384)→卷积层5(3×3×256)→全连接层1(4096-d)→全连接层2(4096-d)
然后,将1024维的手动特征和全连接层2的输出(4096维)级联为5120维后,再通过一个全连接层进行特征融合,最终得到4096维的属性特征表示。
步骤2、训练属性特征提取子网络,考虑到多种属性在训练集上的不均匀分布,设置加权的交叉熵损失函数来训练该子网络。本步骤的具体实施方法如下:
假设每个输入图片I有M个属性,首先将4096维的特征向量映射到M维,该M-d的特征向量即用于属性识别。
考虑到属性识别为多标签分类问题,并且不同属性在训练集上的分布不均匀。设置加权的交叉熵损失LRAP进行训练,计算过程为:
其中N表示训练集样本数,pim表示属性预测值,yim表示属性标签,wm表示每个属性m对应的权重,其计算方法为:
其中rm为训练集中属性m的正样本比例。
步骤3、构造基于分块的特征提取子网络,该网络可融合多个分块的深度特征。本步骤的具体实施方法如下:
首先,以深度残差网络为基础,通过ResBlock1,2,3,4提取全局特征。
然后,将ResBlock4的输出水平分为不重叠的4块,每块分别作为其对应子网络的输入,四个子网络具有相同的结构:
全局平均池化层(GAP)→全连接层→Softmax损失层
其中,四个子网络的全连接层共享权重。
步骤4、训练基于分块的特征提取子网络,考虑到不同身体部位特征对行人特征的重要性不同,设置了局部损失函数的加权融合层,可自主学习不同的权重,进而赋予各局部损失函数。本步骤的具体实施方法如下:
步骤3中四个子网络的Softmax损失分别表示为:L1、L2、L3、L4,考虑到不同分块对于最终特征的重要性差异,设置了加权的损失函数之和Lpart,其计算方法为:
其中,wi表示每个分块损失函数的权重,它是在网络训练过程中自主学习得到的优化参数。
步骤5、对整体网络进行训练,得到行人再识别模型,提取融合了属性特征和基于分块的深度特征的行人特征表示。
本步骤的具体实施方法如下:
输入图像首先被统一为256×128×3像素尺寸,然后将步骤1的属性识别子网络和步骤3的分块特征提取子网络各自独立训练50个epochs,批量大小为64,最后将两个子网络合并为一个整体,设置属性特征和分块特征的融合层来得到行人再识别特征,再精调10个epochs,得到最终的行人再识别模型。
下面按照本发明方法在公开的数据集上进行测试,进而说明本发明的效果。
测试环境:Ubuntu14.04、MATLAB R2016a
测试数据:用于行人再识别的公共数据集Market1501和DukeMTMC-reID。
测试指标:本发明使用了两类评价指标:属性识别准确率的评价指标为识别准确率(Prediction Accuracy)、行人再识别准确率的评价指标为CMC(Cumulated MatchingCharacteristics)曲线和mAP(meanAverage Precision)。CMC曲线是一种top-k击中概率,该指标表示相似度排名前k的样本中,正确匹配的概率累积和。曲线越接近100%性能越好;mAP是对每个类别上的准确率进行平均得到的,适用于多摄像头的情况,本发明实验中的Market1501和DukeMTMC-reID数据集均来自多个不同摄像头,其评价指标有CMC和mAP。
试验结果如图2所示,图中,w=0.5:损失函数计算时对各属性赋予相同权重;cnnonly:去掉手动提取特征;RAP(Refined Attribute Prediction):本发明提出的属性识别方法。实验结果表明:手动特征和深度特征的融合,以及多属性损失函数的加权,能够显著提高属性识别子网络的性能。
实验设置了四组网络结构的对比:
GBM(Global-Based Model):全局特征提取模型
GBM+RAP:全局特征提取+属性识别模型
PBM(Part-Based Model):分块特征提取模型
PBM+RAP:分块特征提取+属性识别模型
分别计算四种模型下的rank-1、rank-5、rank-10的结果,图3a和图3b分别给出在Market1501和DukeMTMC-reID数据集在四种网络结构下的CMC曲线表图,1、表2是本发明算法与现有算法的性能比较,结果表明本发明所提出的方法(PBM+RAP)优于目前其他的行人再识别算法,使得系统整体匹配准确率大大提升。
表1
表2
需要强调的是,本发明所述的实施例是说明性的,而不是限定性的,因此本发明包括并不限于具体实施方式中所述的实施例,凡是由本领域技术人员根据本发明的技术方案得出的其他实施方式,同样属于本发明保护的范围。
Claims (8)
1.一种基于属性特征和加权的分块特征相融合的行人再识别方法,其特征在于包括以下步骤:
步骤1、构造属性特征提取子网络,该属性特征提取子网络融合了手动提取的特征和深度神经网络提取的特征;
步骤2、采用设置加权的交叉熵损失函数来训练属性特征提取子网络;
步骤3、构造基于分块的特征提取子网络,该网络可融合多个分块的深度特征;
步骤4、训练基于分块的特征提取子网络,设置局部损失函数的加权融合层,自主学习不同的权重,进而赋予各局部损失函数;
步骤5、对整体网络进行训练,提取融合了属性特征和基于分块的深度特征的行人特征表示。
2.根据权利要求1所述的基于属性特征和加权的分块特征相融合的行人再识别方法,其特征在于:所述步骤1的具体实现方法为:
首先,将行人图片分为16个水平块,每块分别提取8通道的颜色特征以及21通道的纹理特征,将各通道的特征级联后,通过主成分分析方法将维度降低至1600维,再通过全连接层映射至1024维,得到最终的手动特征;
然后,将1024维的手动特征和深度神经网络的第二全连接层的4096维输出级联为5120维后,再通过一个全连接层进行特征融合,最终得到4096维的属性特征表示。
3.根据权利要求2所述的基于属性特征和加权的分块特征相融合的行人再识别方法,其特征在于:所述8通道的颜色特征包括RGB、HSV和YCbCr,所述21通道的纹理特征包括8个Gabor滤波器和13个Schmid滤波器;所述深度神经网络的结构为:第一卷积层、第二卷积层、第三卷积层、第四卷积层、第五卷积层、第一全连接层和第二全连接层;第一卷积层的参数为11×11×96,第二卷积层的参数为5×5×256,第三卷积层的参数为3×3×384,第四卷积层的参数为3×3×384,第五卷积层的参数为3×3×256,第一全连接层的参数为4096-d,第二全连接层的参数为4096-d。
4.根据权利要求1所述的基于属性特征和加权的分块特征相融合的行人再识别方法,其特征在于:所述步骤2的具体实现方法为:
⑴设每个输入图片I有M个属性,首先将4096维的特征向量映射到M维,该M-d的特征向量用于属性识别;
⑵设置加权的交叉熵损失LRAP进行训练,计算过程为:
其中,N表示训练集样本数,pim表示属性预测值,yim表示属性标签,wm表示每个属性m对应的权重,wm的计算方法为:
其中,rm为训练集中属性m的正样本比例。
5.根据权利要求1所述的基于属性特征和加权的分块特征相融合的行人再识别方法,其特征在于:所述步骤3的具体实现方法为:
⑴以深度残差网络为基础,通过第一ResBlock、第二ResBlock、第三ResBlock和第四ResBlock提取全局特征;
⑵将第四ResBlock的输出水平分为不重叠的4块,每块分别作为其对应子网络的输入,四个子网络具有相同的结构,并且四个子网络的全连接层共享权重。
6.根据权利要求5所述的基于属性特征和加权的分块特征相融合的行人再识别方法,其特征在于:所述四个子网络的结构为:全局平均池化层、全连接层和Softmax损失层。
7.根据权利要求1所述的基于属性特征和加权的分块特征相融合的行人再识别方法,其特点在于:所述步骤4的具体实现方法为:将四个子网络的Softmax损失分别表示为:L1、L2、L3、L4,设置加权的损失函数之和Lpart,Lpart计算方法为:
其中,wi表示每个分块损失函数的权重,它是在网络训练过程中自主学习得到的优化参数。
8.根据权利要求1所述的基于属性特征和加权的分块特征相融合的行人再识别方法,其特点在于:所述步骤5的具体实现方法为:输入图像首先被统一为256×128×3像素尺寸,然后将步骤1的属性识别子网络和步骤3的分块特征提取子网络各自独立训练50个epochs,批量大小为64,最后将两个子网络合并为一个整体,设置属性特征和分块特征的融合层来得到行人再识别特征,再精调10个epochs,得到最终的行人再识别模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811273875.3A CN109635636B (zh) | 2018-10-30 | 2018-10-30 | 基于属性特征和加权的分块特征相融合的行人再识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811273875.3A CN109635636B (zh) | 2018-10-30 | 2018-10-30 | 基于属性特征和加权的分块特征相融合的行人再识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109635636A true CN109635636A (zh) | 2019-04-16 |
CN109635636B CN109635636B (zh) | 2023-05-09 |
Family
ID=66066799
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811273875.3A Active CN109635636B (zh) | 2018-10-30 | 2018-10-30 | 基于属性特征和加权的分块特征相融合的行人再识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109635636B (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110222636A (zh) * | 2019-05-31 | 2019-09-10 | 中国民航大学 | 基于背景抑制的行人属性识别方法 |
CN110265141A (zh) * | 2019-05-13 | 2019-09-20 | 上海大学 | 一种肝脏肿瘤ct影像计算机辅助诊断方法 |
CN110309855A (zh) * | 2019-05-30 | 2019-10-08 | 上海联影智能医疗科技有限公司 | 图像分割的训练方法、计算机设备及存储介质 |
CN110378301A (zh) * | 2019-07-24 | 2019-10-25 | 北京中星微电子有限公司 | 行人重识别方法及系统 |
CN110569779A (zh) * | 2019-08-28 | 2019-12-13 | 西北工业大学 | 基于行人局部和整体属性联合学习的行人属性识别方法 |
CN111259786A (zh) * | 2020-01-14 | 2020-06-09 | 浙江大学 | 一种基于视频的外观和运动信息同步增强的行人重识别方法 |
CN112489372A (zh) * | 2020-12-28 | 2021-03-12 | 南京大学 | 一种泳池监控报警系统 |
CN112766180A (zh) * | 2021-01-22 | 2021-05-07 | 重庆邮电大学 | 一种基于特征融合和多核学习的行人再识别方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106611156A (zh) * | 2016-11-03 | 2017-05-03 | 桂林电子科技大学 | 一种自适应深度空间特征的行人识别方法和系统 |
CN106951872A (zh) * | 2017-03-24 | 2017-07-14 | 江苏大学 | 一种基于无监督深度模型与层次属性的行人再识别方法 |
CN107301380A (zh) * | 2017-06-01 | 2017-10-27 | 华南理工大学 | 一种用于视频监控场景中行人重识别的方法 |
CN107491726A (zh) * | 2017-07-04 | 2017-12-19 | 重庆邮电大学 | 一种基于多通道并行卷积神经网络的实时表情识别方法 |
CN108229444A (zh) * | 2018-02-09 | 2018-06-29 | 天津师范大学 | 一种基于整体和局部深度特征融合的行人再识别方法 |
CN108520226A (zh) * | 2018-04-03 | 2018-09-11 | 东北大学 | 一种基于躯体分解和显著性检测的行人重识别方法 |
-
2018
- 2018-10-30 CN CN201811273875.3A patent/CN109635636B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106611156A (zh) * | 2016-11-03 | 2017-05-03 | 桂林电子科技大学 | 一种自适应深度空间特征的行人识别方法和系统 |
CN106951872A (zh) * | 2017-03-24 | 2017-07-14 | 江苏大学 | 一种基于无监督深度模型与层次属性的行人再识别方法 |
CN107301380A (zh) * | 2017-06-01 | 2017-10-27 | 华南理工大学 | 一种用于视频监控场景中行人重识别的方法 |
CN107491726A (zh) * | 2017-07-04 | 2017-12-19 | 重庆邮电大学 | 一种基于多通道并行卷积神经网络的实时表情识别方法 |
CN108229444A (zh) * | 2018-02-09 | 2018-06-29 | 天津师范大学 | 一种基于整体和局部深度特征融合的行人再识别方法 |
CN108520226A (zh) * | 2018-04-03 | 2018-09-11 | 东北大学 | 一种基于躯体分解和显著性检测的行人重识别方法 |
Non-Patent Citations (4)
Title |
---|
DANGWEI LI, ET AL: "Multi-attribute Learning for Pedestrian Attribute Recognition in Surveillance Scenarios", 《2016 IEEE ASIAN CONFERENCE ON PATTERN RECOGNITION (ACPR)》 * |
GRAY D, ET AL: "Viewpoint Invariant Pedestrian Recognition with an Ensemble of Localized Features", 《COMPUTER VISION - ECCV 2008, 10TH EUROPEAN CONFERENCE ON COMPUTER VISION》 * |
ZHIYUAN SHI, ET AL: "Transferring a semantic representation for person re-identification and search", 《2015 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR)》 * |
陈洪月: "《ProENGINEER、ANSYS、MATLAB软件及应用》", 31 July 2017 * |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110265141A (zh) * | 2019-05-13 | 2019-09-20 | 上海大学 | 一种肝脏肿瘤ct影像计算机辅助诊断方法 |
CN110265141B (zh) * | 2019-05-13 | 2023-04-18 | 上海大学 | 一种肝脏肿瘤ct影像计算机辅助诊断方法 |
CN110309855A (zh) * | 2019-05-30 | 2019-10-08 | 上海联影智能医疗科技有限公司 | 图像分割的训练方法、计算机设备及存储介质 |
CN110309855B (zh) * | 2019-05-30 | 2021-11-23 | 上海联影智能医疗科技有限公司 | 图像分割的训练方法、计算机设备及存储介质 |
CN110222636A (zh) * | 2019-05-31 | 2019-09-10 | 中国民航大学 | 基于背景抑制的行人属性识别方法 |
CN110378301A (zh) * | 2019-07-24 | 2019-10-25 | 北京中星微电子有限公司 | 行人重识别方法及系统 |
CN110378301B (zh) * | 2019-07-24 | 2024-01-19 | 北京中星微电子有限公司 | 行人重识别方法及系统 |
CN110569779A (zh) * | 2019-08-28 | 2019-12-13 | 西北工业大学 | 基于行人局部和整体属性联合学习的行人属性识别方法 |
CN110569779B (zh) * | 2019-08-28 | 2022-10-04 | 西北工业大学 | 基于行人局部和整体属性联合学习的行人属性识别方法 |
CN111259786B (zh) * | 2020-01-14 | 2022-05-03 | 浙江大学 | 一种基于视频的外观和运动信息同步增强的行人重识别方法 |
CN111259786A (zh) * | 2020-01-14 | 2020-06-09 | 浙江大学 | 一种基于视频的外观和运动信息同步增强的行人重识别方法 |
CN112489372A (zh) * | 2020-12-28 | 2021-03-12 | 南京大学 | 一种泳池监控报警系统 |
CN112766180B (zh) * | 2021-01-22 | 2022-07-12 | 重庆邮电大学 | 一种基于特征融合和多核学习的行人再识别方法 |
CN112766180A (zh) * | 2021-01-22 | 2021-05-07 | 重庆邮电大学 | 一种基于特征融合和多核学习的行人再识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN109635636B (zh) | 2023-05-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109635636A (zh) | 基于属性特征和加权的分块特征相融合的行人再识别方法 | |
Li et al. | Building-a-nets: Robust building extraction from high-resolution remote sensing images with adversarial networks | |
CN110909690B (zh) | 一种基于区域生成的遮挡人脸图像检测方法 | |
CN106778604B (zh) | 基于匹配卷积神经网络的行人再识别方法 | |
CN111488756B (zh) | 基于面部识别的活体检测的方法、电子设备和存储介质 | |
CN110321815A (zh) | 一种基于深度学习的道路裂缝识别方法 | |
CN103839065B (zh) | 人群动态聚集特征提取方法 | |
CN108399362A (zh) | 一种快速行人检测方法及装置 | |
CN106096561A (zh) | 基于图像块深度学习特征的红外行人检测方法 | |
CN109214298B (zh) | 一种基于深度卷积网络的亚洲女性颜值评分模型方法 | |
CN108960141A (zh) | 基于增强型深度卷积神经网络的行人再识别方法 | |
CN103473564B (zh) | 一种基于敏感区域的正面人脸检测方法 | |
CN106447646A (zh) | 一种用于无人机图像的质量盲评价方法 | |
CN111178208A (zh) | 基于深度学习的行人检测方法、装置及介质 | |
CN107944459A (zh) | 一种rgb‑d物体识别方法 | |
CN109614853A (zh) | 一种基于身体结构划分的双线性行人再识别网络构建方法 | |
CN103714181A (zh) | 一种层级化的特定人物检索方法 | |
CN109902585A (zh) | 一种基于图模型的手指三模态融合识别方法 | |
CN104063686A (zh) | 作物叶部病害图像交互式诊断系统与方法 | |
CN104376334A (zh) | 一种多尺度特征融合的行人比对方法 | |
CN113963032A (zh) | 一种融合目标重识别的孪生网络结构目标跟踪方法 | |
CN104751111A (zh) | 识别视频中人体行为的方法和系统 | |
CN109919246A (zh) | 基于自适应特征聚类和多重损失融合的行人重识别方法 | |
CN109614990A (zh) | 一种目标检测装置 | |
Chen et al. | Fresh tea sprouts detection via image enhancement and fusion SSD |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |