CN113269070A - 融合全局和局部特征的行人重识别方法、存储器及处理器 - Google Patents
融合全局和局部特征的行人重识别方法、存储器及处理器 Download PDFInfo
- Publication number
- CN113269070A CN113269070A CN202110539959.2A CN202110539959A CN113269070A CN 113269070 A CN113269070 A CN 113269070A CN 202110539959 A CN202110539959 A CN 202110539959A CN 113269070 A CN113269070 A CN 113269070A
- Authority
- CN
- China
- Prior art keywords
- pedestrian
- global
- features
- image
- local features
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biomedical Technology (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Evolutionary Biology (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种融合全局和局部特征的行人重识别方法、模型训练方法、可读存储介质及处理器,属于计算机视觉领域,包括以下步骤:S1:输入待识别的图像,将其预处理得到标准输入图像;S2:通过卷积神经网络来分别提取输入图像的全局特征和局部特征;S3:将全局特征和局部特征分别输入批量归一化层与1×1卷积层对特征进行降维;S4:将全局特征和局部特征进行融合,得到融合后的行人特征;S5:计算融合特征与图像库中各图像对应特征的距离,用于表示图像间的相似度;将图像库中的图像按照与输入图像的相似度排序,将排序结果作为行人重识别模型的输出。
Description
技术领域
本发明属于计算机视觉领域,涉及一种融合全局和局部特征的行人重识别方法、模型训 练方法、可读存储介质及处理器。
背景技术
随着深度学习在计算机视觉领域的广泛应用,行人重识别技术越来越受到人们的关注。 为了保证行人在公共场所的安全,治安部门在这些公共场所都安装有高清的监控摄像头。通 过这些监控摄像头组成的监控摄像头网络有效地避免了公众的人身损失和经济损失。因此, 国内外研究人员开始逐渐重视行人重识别系统,并对其开展了广泛的研究。
行人重识别(Person Re-identification,ReID)又称为行人再识别,可以归属于图像检索中针 对行人图像的检索任务。类似于人脸识别,行人重识别的目的是在多个不重叠的摄像机中检 索出感兴趣的行人,其实质是确定目标行人图像与图库中其他行人图像之间的相似性。除此 之外,行人重识别系统还能应用于智慧城市、无人超市、手机相册聚类等日常生活领域。对 于行人重识别方法来说,人脸识别方法已经相对成熟,其识别准确率已经远远超过人类水平。 但是,受限于摄像头的分辨率以及拍摄角度的变化,难以拍摄到完整且清晰的人脸图像,而 行人图像则相对容易采集,因此行人重识别成为了继人脸识别之后的又一个热门研究课题。
在目前的行人重识别研究中,关键点有以下两点:
(1)如何从行人图像中提取更加泛化的行人特征,一个良好的特征表示能够保留相同行 人的局部不变信息。
(2)对相同行人和不同行人之间的特征的距离进行约束,从而使得相同行人图像提取得 到的特征距离较小,而不同行人图像提取得到的特征距离较大。
发明内容
有鉴于此,本发明的目的在于提供一种融合全局和局部特征的行人重识别方法、模型训 练方法、可读存储介质及处理器。
为达到上述目的,本发明提供如下技术方案:
一方面,本发明提供一种融合全局和局部特征的行人重识别方法,包括以下步骤:
S1:输入待识别的图像,将其预处理得到标准输入图像;
S2:通过卷积神经网络来分别提取输入图像的全局特征和局部特征;
S3:将全局特征和局部特征分别输入批量归一化层与1×1卷积层对特征进行降维;
S4:将全局特征和局部特征进行融合,得到融合后的行人特征;
S5:计算融合特征与图像库中各图像对应特征的距离,用于表示图像间的相似度;将图 像库中的图像按照与输入图像的相似度排序,将排序结果作为行人重识别模型的输出。
进一步,步骤S2中所述通过卷积神经网络提取输入图像的全局特征,其中卷积神经网络 采用ResNet-50与SE Block结合的神经网络,将卷积神经网络最后一层的卷积窗口移动步长 调整为1,并将卷积后得到的特征图进行广义平均池化,从而得到全局特征。
进一步,步骤S2中所述通过卷积神经网络提取输入图像的局部特征,采用与全局特征提 取共享权重的卷积神经网络得到特征图,然后将特征图按照水平方向分成均匀分成6个部分, 对各个部分分别进行广义平均池化,从而提取局部特征。
更进一步,所述广义平均池化公式为:
其中,H和W代表特征图的高度和宽度,xc,i,j代表特征图第c个通道上,垂直方向第i个,水平方向第j个值,pc是池化参数,当pc=1时,该公式等价于全局平均池化;当pc→∞时,该公式等价于全局最大池化。
进一步,步骤S4中所述将全局特征和局部特征进行融合,具体为将全局特征和局部特征 按照通道的方向进行串联拼接。
另一方面,本发明提供一种融合全局和局部特征的行人重识别模型的训练方法,包括以 下步骤:
S11:获取行人重识别数据集,将数据集划分为训练集和测试集,在训练过程中每次随机 选择P位行人,每个行人随机挑出K张图像,作为输入图像;
S12:通过卷积神经网络来提取输入图像的特征,所述卷积神经网络的池化层分别提取输 入图像的全局特征和局部特征;
S13:将全局特征和局部特征分别输入批量归一化层与1×1卷积层对特征进行降维;
S14:将局部特征与局部特征进行1×1的卷积和批量归一化后计算标签平滑身份损失、 软间隔自适应权重三元组损失以及中心损失;
S15:最小化多个损失函数之和来调整行人重识别网络参数;
S16:重复S11~S15,直到标签平滑身份损失、软间隔自适应权重三元组损失以及中心 损失基本不再变化。
进一步,步骤S11中,所述获取行人重识别数据集,具体为:通过多个摄像头获取原图 像,然后检测出原图像中的行人图像部分,并将检测出的所有行人图像构建为数据集。
进一步,所述标签平滑身份损失为:
其中,N是在训练时的行人ID总数,pi是网络预测输入图像为第i类的概率,y是该图像 的实际类别;当输入图像到行人重识别模型后,得到对应于所有类别的概率pi;∈是一个小常 数,用来削弱ReID模型对训练集标签的可信度;
所述软间隔自适应权重三元组损失为:
其中,(wp,wn)分别表示正负样本对的权重,(xa,xp,xn)表示一组三元组,d表示距离函数, 可以是欧式距离或者是余弦距离;
所述中心损失为:
整体损失函数为:
α和β分别是软间隔自适应权重三元组损失和中心损失的比例因子。
再一方面,本发明提供一种可读存储介质,所述存储介质上存储有计算机程序,当所述 计算机程序被处理器执行时,实现上述融合全局和局部特征的行人重识别方法。
再一方面,本发明提供一种处理器,用于运行程序,其中,所述程序被运行时用于执行 融合全局和局部特征的行人重识别方法。
本发明的有益效果在于:(1)本发明提高了行人重识别的鲁棒性。本发明的行人重识别 特征提取方法,有效的融合了行人的全局和局部特征,通过全局和局部特征互补的特性减少 了行人重识别的错误率,增强了行人重识别特征的判别力。
(2)本发明优化了行人重识别模型的训练过程。本发明的行人重识别模型训练方法,通 过利用批量归一化层减少了标签平滑身份损失和软间隔自适应权重身份损失之间的冲突,帮 助行人重识别模型更快的拟合直至稳定。
本发明的其他优点、目标和特征在某种程度上将在随后的说明书中进行阐述,并且在某 种程度上,基于对下文的考察研究对本领域技术人员而言将是显而易见的,或者可以从本发 明的实践中得到教导。本发明的目标和其他优点可以通过下面的说明书来实现和获得。
附图说明
为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作优选的详 细描述,其中:
图1为本发明一种融合全局和局部特征的行人重识别方法的流程示意图;
图2为本发明一种融合全局和局部特征的行人重识别方法的简略结构示意图;
图3为本发明一种融合全局和局部特征的行人重识别方法的查询候选列表示意图。
具体实施方式
以下通过特定的具体实例说明本发明的实施方式,本领域技术人员可由本说明书所揭露 的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加 以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精 神下进行各种修饰或改变。需要说明的是,以下实施例中所提供的图示仅以示意方式说明本 发明的基本构想,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。
其中,附图仅用于示例性说明,表示的仅是示意图,而非实物图,不能理解为对本发明 的限制;为了更好地说明本发明的实施例,附图某些部件会有省略、放大或缩小,并不代表 实际产品的尺寸;对本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理 解的。
本发明实施例的附图中相同或相似的标号对应相同或相似的部件;在本发明的描述中, 需要理解的是,若有术语“上”、“下”、“左”、“右”、“前”、“后”等指示的方位 或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不 是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此附图 中描述位置关系的用语仅用于示例性说明,不能理解为对本发明的限制,对于本领域的普通 技术人员而言,可以根据具体情况理解上述术语的具体含义。
请参阅图1~图3.
实施例1
本发明实施例提供一种融合全局和局部特征的行人重识别方法,如图1和图2所示,包 括如下步骤:
步骤S1,输入待识别的图像;
示例性地,将输入的行人图像进行预处理,调整为384×128×3的标准输入图像,然后 将行人图像进行水平翻转、随机擦除增强,最后进行归一化。本申请对输入图像大小不做限 制,可以按照具体情况设置。
步骤S2,通过卷积神经网络来分别提取输入图像的全局和局部特征;
本申请实施例使用ResNet-50与SE Block结合的神经网络作为骨干网络,通过调整骨干 网络最后的池化层来提取特征。之所以选用该骨干网络是因为残差结构解决了网络退化的问 题,而SE Block是一种关注通道亲和力的注意机制,通过结合挤压和激发操作,它可以帮助 模型更好的提取图像的特征。其中的池化层具体指广义平均池化层,使用广义平均池化层提 取全局特征,对特征图按照水平条划分为6个大小相等的部分再通过广义平均池化层提取局 部特征。
步骤S3,将全局和局部特征分别输入批量归一化层与1×1卷积层对特征进行降维;
在本申请实施例中,将全局特征和局部特征通过1×1卷积和批量归一化进行通道上的降 维。原全局特征维度为1024,降维后变为512;局部特征维度为256,降维后变为128。
步骤S4,将全局和局部特征进行融合,得到融合后的行人特征;
示例性地,将全局特征和局部特征按照通道的方向进行串联拼接,顺序依次为:全局特 征、第一局部特征、第二局部特征、第三局部特征、第四局部特征、第五局部特征和第六局 部特征。
步骤S5,计算融合特征与图像库中各图像对应特征的欧式距离,用于表示图像间的相似 度。将图库中的图像按照与查询图像的相似度排序,将排序结果作为行人重识别模型的输出。
示例性地,行人图像特征之间的距离度量方式可以采用欧氏距离、余弦距离以及任意合 理的距离度量方式。图像库中每张图像的特征在模型训练好后进行离线计算并存储,因此在 查询行人图像时,只用将查询图像放入网络提取特征,然后就可以快速计算得到它与图库所 有图像的距离。如图3所示,行人检索结果以候选列表的方式来表示。
作为本申请的一个可选实施方式,所述广义平均池化计算方式为:
其中,H和W代表特征图的高度和宽度,xc,i,j代表特征图第c个通道上,垂直方向第i个,水平方向第j个值,pc是一个池化参数。当pc=1时,该公式等价于全局平均池化;当pc→∞ 时,该公式等价于全局最大池化。
实施例2
本实施例是实施例1中提供的融合全局和局部特征的行人重识别方法的训练方法,包括 以下步骤:
步骤S11,获取行人重识别数据集;
将数据集划分为训练集和测试集,在训练过程中每次随机选择P位行人,每个行人随机 挑出K张图像,作为输入图像;
步骤S12,通过卷积神经网络来提取输入图像的特征;
将行人图像数据集输入到卷积神经网络中提取特征,具体实现方式见实施例1中对应的 步骤,在此不再赘述;
步骤S13,将全局和局部特征分别输入批量归一化层与1×1卷积层对特征进行降维;
将全局特征和局部特征通过1×1卷积和批量归一化进行通道上的降维,具体实现方式见 实施例1中对应的步骤,在此不再赘述;
步骤S14,将局部特征与局部特征进行1×1的卷积和批量归一化后计算标签平滑身份损 失、软间隔自适应权重三元组损失以及中心损失;
作为本申请一个可选实施方式,所述标签平滑身份损失为:
其中,N是在训练时的行人ID总数,pi是网络预测输入图像为第i类的概率,y是该图像 的实际类别。当输入图像到行人重识别模型后,会得到对应于所有类别的概率pi。∈是一个小 常数,用来削弱ReID模型对训练集标签的可信度。
作为本申请一个可选实施方式,所述软间隔自适应权重三元组损失为:
其中,(wp,wn)分别表示正负样本对的权重,(xa,xp,xn)表示一组三元组,d表示距离函数, 在这里距离函数可以是欧式距离或者是余弦距离。为了保持行人重识别模型在训练过程中的 优化,不使用三元组损失中常见的超参数m,使用SoftPlus函数的特性可以不断优化模型模 型。这样在训练过程中模型不会因为m的限制而停止优化。
作为本申请一个可选实施方式,所述中心损失为:
其中,B表示一个训练批次的样本数量,xi表示一个训练批次中第i个样本的特征,表 示第i个样本对应身份yi的类中心。基于三元组的损失只能从本地数据中学习。由于机器内存 的大小,基于三元组的丢失一次只能看到一小部分数据。因此,很难保证在整个数据集中满 足三元组损失的约束。为了解决这个问题,选择使用中心损失。
步骤S15,最小化多个损失函数之和来调整行人重识别网络参数;
在本申请实施例中,采用Adam优化器来计算网络参数的梯度并优化,学习率采用热启 动配合余弦退火的方式进行更新。
步骤S16,重复S11~S15,直到标签平滑身份损失、软间隔自适应权重三元组损失以及 中心损失基本不再变化。
实施例3
本发明实施例提供一种存储装置,其中存储有多条程序,所述程序适用于由处理器加载 并实现上述的一种融合全局和局部特征的行人重识别方法。
实施例4
本发明实施例提供一种处理装置,包括处理器、存储装置;处理器,适于执行各条程序; 存储装置,适于存储多条程序;所述程序适于由处理器加载并执行以实现上述的一种融合全 局和局部特征的行人重识别方法。
最后说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施 例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进 行修改或者等同替换,而不脱离本技术方案的宗旨和范围,其均应涵盖在本发明的权利要求 范围当中。
Claims (10)
1.一种融合全局和局部特征的行人重识别方法,其特征在于:包括以下步骤:
S1:输入待识别的图像,将其预处理得到标准输入图像;
S2:通过卷积神经网络来分别提取输入图像的全局特征和局部特征;
S3:将全局特征和局部特征分别输入批量归一化层与1×1卷积层对特征进行降维;
S4:将全局特征和局部特征进行融合,得到融合后的行人特征;
S5:计算融合特征与图像库中各图像对应特征的距离,用于表示图像间的相似度;将图像库中的图像按照与输入图像的相似度排序,将排序结果作为行人重识别模型的输出。
2.根据权利要求1所述的融合全局和局部特征的行人重识别方法,其特征在于:步骤S2中所述通过卷积神经网络提取输入图像的全局特征,其中卷积神经网络采用ResNet-50与SE Block结合的神经网络,将卷积神经网络最后一层的卷积窗口移动步长调整为1,并将卷积后得到的特征图进行广义平均池化,从而得到全局特征。
3.根据权利要求1所述的融合全局和局部特征的行人重识别方法,其特征在于:步骤S2中所述通过卷积神经网络提取输入图像的局部特征,采用与全局特征提取共享权重的卷积神经网络得到特征图,然后将特征图按照水平方向分成均匀分成6个部分,对各个部分分别进行广义平均池化,从而提取局部特征。
5.根据权利要求1所述的融合全局和局部特征的行人重识别方法,其特征在于:步骤S4中所述将全局特征和局部特征进行融合,具体为将全局特征和局部特征按照通道的方向进行串联拼接。
6.一种融合全局和局部特征的行人重识别模型的训练方法,其特征在于:包括以下步骤:
S11:获取行人重识别数据集,将数据集划分为训练集和测试集,在训练过程中每次随机选择P位行人,每个行人随机挑出K张图像,作为输入图像;
S12:通过卷积神经网络来提取输入图像的特征,所述卷积神经网络的池化层分别提取输入图像的全局特征和局部特征;
S13:将全局特征和局部特征分别输入批量归一化层与1×1卷积层对特征进行降维;
S14:将局部特征与局部特征进行1×1的卷积和批量归一化后计算标签平滑身份损失、软间隔自适应权重三元组损失以及中心损失;
S15:最小化多个损失函数之和来调整行人重识别网络参数;
S16:重复S11~S15,直到标签平滑身份损失、软间隔自适应权重三元组损失以及中心损失基本不再变化。
7.根据权利要求6所述的融合全局和局部特征的行人重识别模型的训练方法,其特征在于:步骤S11中,所述获取行人重识别数据集,具体为:通过多个摄像头获取原图像,然后检测出原图像中的行人图像部分,并将检测出的所有行人图像构建为数据集。
8.根据权利要求6所述的融合全局和局部特征的行人重识别模型的训练方法,其特征在于:所述标签平滑身份损失为:
其中,N是在训练时的行人ID总数,pi是网络预测输入图像为第i类的概率,y是该图像的实际类别;当输入图像到行人重识别模型后,得到对应于所有类别的概率pi;∈是一个小常数,用来削弱ReID模型对训练集标签的可信度;
所述软间隔自适应权重三元组损失为:
其中,(wp,wn)分别表示正负样本对的权重,(xa,xp,xn)表示一组三元组,d表示距离函数;
所述中心损失为:
整体损失函数为:
α和β分别是软间隔自适应权重三元组损失和中心损失的比例因子。
9.一种计算机可读存储介质,其特征在于:所述计算机可读存储介质上存储有计算机程序,当所述计算机程序被处理器执行时,实现如权利要求1-5任一所述的融合全局和局部特征的行人重识别方法。
10.一种处理器,其特征在于:用于运行程序,其中,所述程序被运行时用于执行如权利要求1-5任一所述的融合全局和局部特征的行人重识别方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110539959.2A CN113269070B (zh) | 2021-05-18 | 2021-05-18 | 融合全局和局部特征的行人重识别方法、存储器及处理器 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110539959.2A CN113269070B (zh) | 2021-05-18 | 2021-05-18 | 融合全局和局部特征的行人重识别方法、存储器及处理器 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113269070A true CN113269070A (zh) | 2021-08-17 |
CN113269070B CN113269070B (zh) | 2023-04-07 |
Family
ID=77231417
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110539959.2A Active CN113269070B (zh) | 2021-05-18 | 2021-05-18 | 融合全局和局部特征的行人重识别方法、存储器及处理器 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113269070B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114332955A (zh) * | 2022-03-11 | 2022-04-12 | 浪潮云信息技术股份公司 | 一种行人重识别的方法、装置及计算机可读存储介质 |
CN114565963A (zh) * | 2022-03-03 | 2022-05-31 | 成都佳华物链云科技有限公司 | 一种顾客流量统计方法、装置、电子设备及存储介质 |
CN114943937A (zh) * | 2022-06-29 | 2022-08-26 | 中国电信股份有限公司 | 行人重识别方法、装置、存储介质及电子设备 |
TWI776668B (zh) * | 2021-09-07 | 2022-09-01 | 台達電子工業股份有限公司 | 影像處理方法及影像處理系統 |
CN115880727A (zh) * | 2023-03-01 | 2023-03-31 | 杭州海康威视数字技术股份有限公司 | 人体识别模型的训练方法和装置 |
CN118262385A (zh) * | 2024-05-30 | 2024-06-28 | 齐鲁工业大学(山东省科学院) | 基于相机差异的调度序列及训练的行人重识别方法 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180114055A1 (en) * | 2016-10-25 | 2018-04-26 | VMAXX. Inc. | Point to Set Similarity Comparison and Deep Feature Learning for Visual Recognition |
WO2019007004A1 (zh) * | 2017-07-04 | 2019-01-10 | 北京大学深圳研究生院 | 用于行人重识别的图像特征提取方法 |
CN110008861A (zh) * | 2019-03-21 | 2019-07-12 | 华南理工大学 | 一种基于全局和局部特征学习的行人再识别方法 |
CN110188225A (zh) * | 2019-04-04 | 2019-08-30 | 吉林大学 | 一种基于排序学习和多元损失的图像检索方法 |
CN110796026A (zh) * | 2019-10-10 | 2020-02-14 | 湖北工业大学 | 一种基于全局特征拼接的行人重识别方法 |
CN111666843A (zh) * | 2020-05-25 | 2020-09-15 | 湖北工业大学 | 一种基于全局特征和局部特征拼接的行人重识别方法 |
CN111914664A (zh) * | 2020-07-06 | 2020-11-10 | 同济大学 | 基于重识别的车辆多目标检测和轨迹跟踪方法 |
CN112200111A (zh) * | 2020-10-19 | 2021-01-08 | 厦门大学 | 一种全局与局部特征融合的遮挡鲁棒行人重识别方法 |
CN112307886A (zh) * | 2020-08-25 | 2021-02-02 | 北京京东尚科信息技术有限公司 | 行人重识别方法和装置 |
WO2021040287A1 (ko) * | 2019-08-30 | 2021-03-04 | 연세대학교 산학협력단 | 사람 재식별 장치 및 방법 |
US20210064907A1 (en) * | 2019-08-27 | 2021-03-04 | Nvidia Corporation | Cross-domain image processing for object re-identification |
-
2021
- 2021-05-18 CN CN202110539959.2A patent/CN113269070B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180114055A1 (en) * | 2016-10-25 | 2018-04-26 | VMAXX. Inc. | Point to Set Similarity Comparison and Deep Feature Learning for Visual Recognition |
WO2019007004A1 (zh) * | 2017-07-04 | 2019-01-10 | 北京大学深圳研究生院 | 用于行人重识别的图像特征提取方法 |
CN110008861A (zh) * | 2019-03-21 | 2019-07-12 | 华南理工大学 | 一种基于全局和局部特征学习的行人再识别方法 |
CN110188225A (zh) * | 2019-04-04 | 2019-08-30 | 吉林大学 | 一种基于排序学习和多元损失的图像检索方法 |
US20210064907A1 (en) * | 2019-08-27 | 2021-03-04 | Nvidia Corporation | Cross-domain image processing for object re-identification |
WO2021040287A1 (ko) * | 2019-08-30 | 2021-03-04 | 연세대학교 산학협력단 | 사람 재식별 장치 및 방법 |
CN110796026A (zh) * | 2019-10-10 | 2020-02-14 | 湖北工业大学 | 一种基于全局特征拼接的行人重识别方法 |
CN111666843A (zh) * | 2020-05-25 | 2020-09-15 | 湖北工业大学 | 一种基于全局特征和局部特征拼接的行人重识别方法 |
CN111914664A (zh) * | 2020-07-06 | 2020-11-10 | 同济大学 | 基于重识别的车辆多目标检测和轨迹跟踪方法 |
CN112307886A (zh) * | 2020-08-25 | 2021-02-02 | 北京京东尚科信息技术有限公司 | 行人重识别方法和装置 |
CN112200111A (zh) * | 2020-10-19 | 2021-01-08 | 厦门大学 | 一种全局与局部特征融合的遮挡鲁棒行人重识别方法 |
Non-Patent Citations (6)
Title |
---|
EJAZ AHMED等: "An improved deep learning architecture for person re-identification", 《2015 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR)》 * |
JIAXIN CHEN等: "Relevance Metric Learning for Person Re-identification by Exploiting Global Similarities", 《2014 22ND INTERNATIONAL CONFERENCE ON PATTERN RECOGNITION》 * |
SHENG XIE等: "Sparse high-level attention networks for person re-identification", 《2019 IEEE 31ST INTERNATIONAL CONFERENCE ON TOOLS WITH ARTIFICIAL INTELLIGENCE(ICTAL)》 * |
TITIPAKORN PRAKAYAPHUN等: "Part-based Fusion Feature Learning for Person Re-Identification", 《2019 FIRST INTERNATIONAL CONFERENCE ON SMART TECHNOLOGY & URBAN DEVELOPMENT (STUD)》 * |
丁悦: "基于深度学习的行人再识别方法研究", 《中国优秀博硕士学位论文全文数据库(硕士)信息科技辑》 * |
肖雅妮等: "多分支融合局部特征的行人重识别算法", 《计算机工程与应用》 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI776668B (zh) * | 2021-09-07 | 2022-09-01 | 台達電子工業股份有限公司 | 影像處理方法及影像處理系統 |
CN114565963A (zh) * | 2022-03-03 | 2022-05-31 | 成都佳华物链云科技有限公司 | 一种顾客流量统计方法、装置、电子设备及存储介质 |
CN114332955A (zh) * | 2022-03-11 | 2022-04-12 | 浪潮云信息技术股份公司 | 一种行人重识别的方法、装置及计算机可读存储介质 |
CN114943937A (zh) * | 2022-06-29 | 2022-08-26 | 中国电信股份有限公司 | 行人重识别方法、装置、存储介质及电子设备 |
CN115880727A (zh) * | 2023-03-01 | 2023-03-31 | 杭州海康威视数字技术股份有限公司 | 人体识别模型的训练方法和装置 |
CN118262385A (zh) * | 2024-05-30 | 2024-06-28 | 齐鲁工业大学(山东省科学院) | 基于相机差异的调度序列及训练的行人重识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113269070B (zh) | 2023-04-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113269070B (zh) | 融合全局和局部特征的行人重识别方法、存储器及处理器 | |
CN109961089B (zh) | 基于度量学习和元学习的小样本和零样本图像分类方法 | |
CN111709311B (zh) | 一种基于多尺度卷积特征融合的行人重识别方法 | |
CN111611880B (zh) | 一种基于神经网络无监督对比学习的高效行人重识别方法 | |
CN110969087A (zh) | 一种步态识别方法及系统 | |
CN111340123A (zh) | 一种基于深度卷积神经网络的图像分数标签预测方法 | |
CN110598535A (zh) | 一种监控视频数据中使用的人脸识别分析方法 | |
CN112560932A (zh) | 一种基于双分支网络特征融合的车辆重识别方法 | |
CN112507853B (zh) | 一种基于互注意力机制的跨模态行人重识别方法 | |
CN112084895B (zh) | 一种基于深度学习的行人重识别方法 | |
CN112800967B (zh) | 一种姿态驱动的遮挡行人重识别方法 | |
CN113033271A (zh) | 利用人工智能模块学习脸部辨识的处理方法 | |
CN116977937A (zh) | 一种行人重识别的方法及系统 | |
CN110222772B (zh) | 一种基于块级别主动学习的医疗图像标注推荐方法 | |
CN116580333A (zh) | 基于YOLOv5和改进StrongSORT的粮库车辆追踪方法 | |
CN114943937A (zh) | 行人重识别方法、装置、存储介质及电子设备 | |
CN113743251B (zh) | 一种基于弱监督场景的目标搜索方法及装置 | |
WO2022252089A1 (zh) | 对象检测模型的训练方法、对象检测方法及装置 | |
CN116935329B (zh) | 一种类级别对比学习的弱监督文本行人检索方法及系统 | |
CN113743239A (zh) | 行人重识别方法、装置及电子设备 | |
CN117253217A (zh) | 一种充电站车辆识别方法、装置、电子设备及存储介质 | |
CN111178370B (zh) | 车辆检索方法及相关装置 | |
CN112052722A (zh) | 行人身份再识别方法及存储介质 | |
US20220405527A1 (en) | Target Detection Methods, Apparatuses, Electronic Devices and Computer-Readable Storage Media | |
CN112766282B (zh) | 图像识别方法、装置、设备及计算机可读介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |