CN112800967A - 一种姿态驱动的遮挡行人重识别方法 - Google Patents
一种姿态驱动的遮挡行人重识别方法 Download PDFInfo
- Publication number
- CN112800967A CN112800967A CN202110123640.1A CN202110123640A CN112800967A CN 112800967 A CN112800967 A CN 112800967A CN 202110123640 A CN202110123640 A CN 202110123640A CN 112800967 A CN112800967 A CN 112800967A
- Authority
- CN
- China
- Prior art keywords
- local
- pedestrian
- features
- image
- visibility
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种姿态驱动的遮挡行人重识别方法,属于计算机领域。本发明包括:输入待识别图像,经过预处理后调整为标准输入图像;利用行人重识别网络提取输入图像特征,得到全局特征;利用人体姿态估计网络提取输入图像特征,得到人体姿态特征;基于人体姿态特征,分别利用局部可见度预测器模块获取可见度评分,利用局部注意力生成器模块获取注意力掩膜;最后根据可见度评分选取输入图像可见部分的局部特征和图像库中的对应特征计算欧氏距离并按照升序排序,将排序结果作为行人重识别模型的输出。本发明帮助行人重识别网络定位遮挡区域,降低了相同身份的受遮挡行人与完整行人的特征差异,提高了行人重识别模型的泛化能力。
Description
技术领域
本发明属于计算机领域,涉及一种姿态驱动的遮挡行人重识别方法。
背景技术
随着监控摄像头在公共场所的普及,分析监控视频相关研究越来越受到重视。在视频监控中,研究人员关注的核心问题就是行人重识别。行人重识别是属于计算机视觉领域下图像检索任务的子任务。给定一个行人图像,行人重识别方法能够找到出现在其它时间、其它地点的相同行人图像。
在真实场景下,行人图像的采集来自不同的摄像头。同一行人的图像会受到拍摄角度、行人朝向、光照条件、背景干扰和物体遮挡的影响,存在较大的差异。因此,设计一种能够有效提取有足够判别力的特征的行人重识别方法是非常有必要的。
现有的主流行人重识别方法都是基于局部特征的方法。其中,PCB、MGN和Pyramid是具有代表性的方法。PCB是最早提出将行人特征按照垂直方向进行等比划分提取局部特征的方法,划分好的多个水平条分别进行平均池化操作得到局部特征,再分别通过多个非共享权重的分类器训练。MGN则是在PCB的基础上考虑了不同的划分粒度,将全局特征和多粒度的局部特征同时用于行人重识别,从而提高了方法的健壮性。与前两者相比,Pyramid除了整合了全局和局部特征,还整合了它们之间逐步过渡的过程。
但是,以上方法还存在以下的问题:
(1)由于缺乏对前景的精确定位和对背景的忽略,不同的背景噪声会给模型学习带来干扰,降低模型的准确性;
(2)物体遮挡使得局部匹配失效,从而导致相同行人的完整图像与受遮挡图像距离过大。因此,本发明提出了一种姿态驱动的遮挡行人重识别方法。
发明内容
有鉴于此,本发明的目的在于提供一种姿态驱动的遮挡行人重识别方法。
为达到上述目的,本发明提供如下技术方案:
一种姿态驱动的遮挡行人重识别方法,该方法包括以下步骤:
S1:输入待识别的图像,经过预处理后调整为标准输入图像;
S2:通过卷积神经网络来提取输入图像的特征,作为全局特征;
S3:通过人体姿态估计网络来提取输入图像的特征,作为人体姿态特征;
S4:基于人体姿态特征,分别通过预训练好的局部可见度预测器模块得到各个局部的可见度评分,通过预训练好的局部注意力生成器模块生成注意力掩膜;
S5:将全局特征与所述注意力掩膜输入到局部加权池化模块中,得到局部特征;
S6:根据可见度评分选取输入图像可见部分的局部特征和图像库中的对应特征计算距离并按照升序排序,将排序结果作为行人重识别模型的输出。
可选的,所述卷积神经网络为ResNet残差网络。
可选的,所述人体姿态估计网络为OpenPose网络。
可选的,所述局部可见度预测器模块的运作为:
将人体姿态特征按照通道进行全局平均池化,得到该特征各通道的全局信息特征;
将各通道全局信息特征输入到大小为局部分块数量的全连接层,得到降维后的第一特征;
将降维后的第一特征通过批量归一化和Sigmoid激活函数得到各个局部的可见度评分。
可选的,所述局部注意力生成器模块的运作为:
将人体姿态特征进行1×1的卷积,将特征降维到局部分块数量的维度,得到降维后的第二特征;
将降维后的第二特征通过批量归一化和Sigmoid激活函数得到各个局部区域的注意力掩膜。
基于权利要求1~5中任一项所述方法的训练方法,包括以下步骤:
S11:获取行人重识别数据集,将数据集划分为训练集合测试集,在训练过程中每次随机选择P位行人,每个行人随机挑出K张图像,作为输入图像;
S12:通过卷积神经网络来提取输入图像的特征,作为全局特征;
S13:通过人体姿态估计网络来提取输入图像的特征,作为人体姿态特征;
S14:基于人体姿态特征,分别通过预训练好的局部可见度预测器模块得到各个局部的可见度评分,通过预训练好的局部注意力生成器模块生成注意力掩膜;
S15:将全局特征与所述注意力掩膜输入到局部加权池化模块中,得到局部特征,将局部特征进行1×1的卷积和批量归一化后计算分类损失;
S16:将两张相同行人的不同图像提取得到的局部特征分别建立两张图,通过两张图构建关联矩阵,根据关联矩阵计算得到局部可见度伪标签,将该伪标签与对应两张图像的局部可见度评分计算可见度验证损失;
S17:基于分类损失和可见度验证损失调整所述行人重识别网络的参数;
S18:重复S11~S17,直到分类损失和可见度验证损失基本不再变化。
可选的,所述分类损失为:
其中,N是在训练时的行人ID总数;pi是网络预测输入图像为第i类的概率;y是该图像的实际类别;
当输入图像到行人重识别模型后,会得到对应于所有类别的概率pi;若输入图像的类别为y,除qy为1,其余qi均为0。
可选的,所述关联矩阵为:
其中,p和g表示两个相同ID的不同的图像序号;fi表示图像的第i部分局部特征;εi,j表示第i部分和第j部分局部特征形成的边;该矩阵的对角线元素由两张图像相同部分的局部特征点乘求和得到,而非对角线元素则是由两张图像对应的边特征点乘求和后减去移动平均值得到。
可选的,所述可见度验证损失为:
一种处理装置,包括处理器、存储装置;处理器,适用于执行各条程序;存储装置,适用于存储多条程序;所述程序适用于由处理器加载并执行以实现权利要求1~5中任一项所述的一种姿态驱动的遮挡行人重识别方法。
本发明的有益效果在于:
(1)本发明提高了行人重识别鲁棒性。本发明的行人重识别方法,有效的利用人体姿态估计网络提取得到的行人姿态特征,来帮助寻找行人受遮挡的部分,在进行相似度度量时,减少了受遮挡区域的干扰。
(2)本发明减少了行人重识别中背景的干扰。通过将人体姿态特征输入到局部注意力生成器模块,得到注意力掩膜。将注意力掩膜与全局特征进行点乘,强化了行人前景,提高了网络对于行人本身的关注度。
本发明的其他优点、目标和特征在某种程度上将在随后的说明书中进行阐述,并且在某种程度上,基于对下文的考察研究对本领域技术人员而言将是显而易见的,或者可以从本发明的实践中得到教导。本发明的目标和其他优点可以通过下面的说明书来实现和获得。
附图说明
为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作优选的详细描述,其中:
图1为本发明一种姿态驱动的遮挡行人重识别方法的流程示意图;
图2为本发明一种姿态驱动的遮挡行人重识别方法的简略结构示意图;
图3为本发明一种姿态驱动的遮挡行人重识别方法的局部注意力预测器模块的效果示意图;
图4为本发明一致姿态驱动的受遮挡行人重识别方法的局部可见度预测器模块的效果示意图。
具体实施方式
以下通过特定的具体实例说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。需要说明的是,以下实施例中所提供的图示仅以示意方式说明本发明的基本构想,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。
其中,附图仅用于示例性说明,表示的仅是示意图,而非实物图,不能理解为对本发明的限制;为了更好地说明本发明的实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;对本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
本发明实施例的附图中相同或相似的标号对应相同或相似的部件;在本发明的描述中,需要理解的是,若有术语“上”、“下”、“左”、“右”、“前”、“后”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此附图中描述位置关系的用语仅用于示例性说明,不能理解为对本发明的限制,对于本领域的普通技术人员而言,可以根据具体情况理解上述术语的具体含义。
实施例1
本发明实施例提供一种姿态驱动的受遮挡行人重识别模型识别方法,如图1和图2所示,包括如下步骤:
步骤S1,输入待识别的图像;
示例性地,将输入的行人图像进行预处理,调整为384×128×3的标准输入图像,该行人图像可以是完整的行人图像也可以是受遮挡的行人图像。本申请对输入图像大小不做限制,可以按照具体情况设置。
步骤S2,通过卷积神经网络提取全局特征;
本申请实施例采用ResNet残差网络用于提取全局特征,将ResNet残差网络的分类层全连接维度替换为训练集行人ID数目,通过训练微调后即可用于行人特征提取。在识别过程中,该卷积神经网络的分类层不做使用,仅使用骨干网络提取出来的特征作为全局特征。
步骤S3,通过人体姿态估计网络提取人体姿态特征;
在对本申请实施例的行人图像进行人体姿态特征提取时,可以利用现有技术中的人体姿态估计网络对输入图像进行卷积处理,让人体姿态估计网络把关键点的位置信息隐式地编码到heatmap中,把heatmap作为人体姿态估计网络提取得到的特征。这里的人体姿态估计网络采用OpenPose网络,其在本申请实施例中用于人体姿态的编码工作。当然本领域技术人员也可以根据实际需要选取其他类型的人体姿态估计网络进行人体姿态特征的提取,在此不一一列举。
步骤S4,基于步骤S3所述人体姿态特征,分别通过预训练好的局部可见度预测器模块得到各个局部的可见度评分,通过预训练好的局部注意力生成器模块生成注意力掩膜;
在行人重识别应用场景下,行人图像容易受到一定程度的遮挡,利用人体姿态特征,可以预测行人图像的受遮挡情况,从而为后面的相似性度量提供额外的帮助信息。此外,行人姿态特征也可以帮助我们找到行人与背景的区别,通过注意力机制,可以让网络更加关注行人区域,从而提高网络的识别率。
步骤S5,将步骤S2所述全局特征与步骤S4所述注意力掩膜输入到局部加权池化模块中,得到局部特征;
在本申请实施例中,将全局特征与注意力掩膜点乘后的结果均匀划分为6块水平条,分别进行全局平均池化后即可得到局部特征。可选地,可以在池化过后使用1×1的卷积和批量归一化操作继续对特征进行降维。本申请对局部划分个数不做限制,可以按照具体情况设置。
步骤S6,将步骤S4所述可见度评分分别与输入图像的局部特征和查询集图像的对应局部特征进行逻辑与运算,再计算逻辑与运算后的输入图像特征与查询集图像特征间的距离,并按升序排序,将排序结果作为行人重识别模型的输出。
示例性地,行人图像特征之间的距离度量方式可以采用欧氏距离、余弦距离以及任意合理的距离度量方式。图像库中每张图像的特征在模型训练好后进行离线计算并存储,因此在查询行人图像时,只用将查询图像放入网络提取特征,然后就可以快速计算得到它与图库所有图像的距离。
作为本申请一个可选实施方式,上述步骤S4,通过预训练好的局部可见度预测器模块得到各个局部的可见度评分,如图3所示,包括:
将形状为H×W×C的人体姿态特征进行全局平均池化并铺平;
再继续对特征进行1×1的卷积和批量归一化,使得特征维度变为预先定义的局部分块数目NP;
最后使用Sigmoid函数对于特征进行激活得到各个局部的可见度评分。
作为本申请一个可选实施方式,上述步骤S4,通过预训练好的局部注意力生成器模块生成注意力掩膜,如图4所示,包括:
将形状为H×W×C的人体姿态特征进行1×1的卷积和批量归一化,将特征的通道维度降低为预先定义的局部分块数目NP;
使用Sigmoid函数对于特征进行激活得到注意力掩膜。
实施例2
本发明实施例提供了一种行人重识别模型训练方法,包括如下步骤:
步骤S11,获取行人重识别数据集;
将数据集划分为训练集合测试集,在训练过程中每次随机选择P位行人,每个行人随机挑出K张图像,作为一次训练过程的输入图像。为达到最佳训练效果,其中的P最好大于等于8,K大于等于4;
步骤S12,通过卷积神经网络提取全局特征;
将行人图像数据集输入到行人重识别网络中提取特征,具体实现方式见实施例1中对应的步骤,在此不再赘述;
步骤S13,通过人体姿态估计网络提取人体姿态特征;
将行人图像数据集输入到人体姿态估计网络中提取特征,具体实现方式见实施例1中对应的步骤,在此不再赘述;
步骤S14,基于步骤S13所述人体姿态特征,分别通过预训练好的局部可见度预测器模块得到各个局部的可见度评分,通过预训练好的局部注意力生成器模块生成注意力掩膜;
将人体姿态特征分别输入到局部可见度预测器模块和局部注意力生成器模块得到局部可见度评分和注意力掩膜,具体实现方式见实施例1中对应的步骤,在此不再赘述;
步骤S15,将步骤S12所述全局特征与步骤S14所述注意力掩膜输入到局部加权池化模块中,得到局部特征,将局部特征进行1×1的卷积和批量归一化后计算分类损失;
作为本申请一个可选实施方式,所述分类损失为:
其中,N是在训练时的行人ID总数;pi是网络预测输入图像为第i类的概率;y是该图像的实际类别。当输入图像到行人重识别模型后,会得到对应于所有类别的概率。若输入图像的类别为y,那么除了qy,为1,其余qi均为0。本申请对分类损失的具体实现不做限制,即采用带标签平滑的分类损失和其他变种均可;
步骤S16,将同一行人的两张不同图像提取得到的局部特征分别建立两张关系图,通过两张关系图构建关联矩阵,根据关联矩阵计算得到局部可见度伪标签,将该伪标签与对应两张图像的局部可见度评分计算可见度验证损失。
作为本申请一个可选实施方式,所述关联矩阵为:
其中,p和g表示两个相同ID的不同的图像序号;fi表示图像的第i部分局部特征;εi,j表示第i部分和第j部分局部特征形成的边。该矩阵的对角线元素由两张图像相同部分的局部特征点乘求和得到,而非对角线元素则是由两张图像对应的边特征点乘求和减去移动平均值得到;
作为本申请一个可选实施方式,所述可见度验证损失函数为:
实施例3
本发明实施例提供一种存储装置,其中存储有多条程序,所述程序适用于由处理器加载并实现上述的一种姿态驱动的遮挡行人重识别方法。
实施例4
本发明实施例提供一种处理装置,包括处理器、存储装置;处理器,适于执行各条程序;存储装置,适于存储多条程序;所述程序适于由处理器加载并执行以实现上述的一种姿态驱动的遮挡行人重识别方法。
最后说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本技术方案的宗旨和范围,其均应涵盖在本发明的权利要求范围当中。
Claims (10)
1.一种姿态驱动的遮挡行人重识别方法,其特征在于:该方法包括以下步骤:
S1:输入待识别的图像,经过预处理后调整为标准输入图像;
S2:通过卷积神经网络来提取输入图像的特征,作为全局特征;
S3:通过人体姿态估计网络来提取输入图像的特征,作为人体姿态特征;
S4:基于人体姿态特征,分别通过预训练好的局部可见度预测器模块得到各个局部的可见度评分,通过预训练好的局部注意力生成器模块生成注意力掩膜;
S5:将全局特征与所述注意力掩膜输入到局部加权池化模块中,得到局部特征;
S6:根据可见度评分选取输入图像可见部分的局部特征和图像库中的对应特征计算距离并按照升序排序,将排序结果作为行人重识别模型的输出。
2.根据权利要求1所述的一种姿态驱动的遮挡行人重识别方法,其特征在于:所述卷积神经网络为ResNet残差网络。
3.根据权利要求1所述的一种姿态驱动的遮挡行人重识别方法,其特征在于:所述人体姿态估计网络为OpenPose网络。
4.根据权利要求1所述的一种姿态驱动的遮挡行人重识别方法,其特征在于:所述局部可见度预测器模块的运作为:
将人体姿态特征按照通道进行全局平均池化,得到该特征各通道的全局信息特征;
将各通道全局信息特征输入到大小为局部分块数量的全连接层,得到降维后的第一特征;
将降维后的第一特征通过批量归一化和Sigmoid激活函数得到各个局部的可见度评分。
5.根据权利要求1所述的一种姿态驱动的遮挡行人重识别方法,其特征在于:所述局部注意力生成器模块的运作为:
将人体姿态特征进行1×1的卷积,将特征降维到局部分块数量的维度,得到降维后的第二特征;
将降维后的第二特征通过批量归一化和Sigmoid激活函数得到各个局部区域的注意力掩膜。
6.基于权利要求1~5中任一项所述方法的训练方法,其特征在于:包括以下步骤:
S11:获取行人重识别数据集,将数据集划分为训练集合测试集,在训练过程中每次随机选择P位行人,每个行人随机挑出K张图像,作为输入图像;
S12:通过卷积神经网络来提取输入图像的特征,作为全局特征;
S13:通过人体姿态估计网络来提取输入图像的特征,作为人体姿态特征;
S14:基于人体姿态特征,分别通过预训练好的局部可见度预测器模块得到各个局部的可见度评分,通过预训练好的局部注意力生成器模块生成注意力掩膜;
S15:将全局特征与所述注意力掩膜输入到局部加权池化模块中,得到局部特征,将局部特征进行1×1的卷积和批量归一化后计算分类损失;
S16:将两张相同行人的不同图像提取得到的局部特征分别建立两张图,通过两张图构建关联矩阵,根据关联矩阵计算得到局部可见度伪标签,将该伪标签与对应两张图像的局部可见度评分计算可见度验证损失;
S17:基于分类损失和可见度验证损失调整所述行人重识别网络的参数;
S18:重复S11~S17,直到分类损失和可见度验证损失基本不再变化。
10.一种处理装置,包括处理器、存储装置;处理器,适用于执行各条程序;存储装置,适用于存储多条程序;所述程序适用于由处理器加载并执行以实现权利要求1~5中任一项所述的一种姿态驱动的遮挡行人重识别方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110123640.1A CN112800967B (zh) | 2021-01-29 | 2021-01-29 | 一种姿态驱动的遮挡行人重识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110123640.1A CN112800967B (zh) | 2021-01-29 | 2021-01-29 | 一种姿态驱动的遮挡行人重识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112800967A true CN112800967A (zh) | 2021-05-14 |
CN112800967B CN112800967B (zh) | 2022-05-17 |
Family
ID=75812682
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110123640.1A Active CN112800967B (zh) | 2021-01-29 | 2021-01-29 | 一种姿态驱动的遮挡行人重识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112800967B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113221776A (zh) * | 2021-05-19 | 2021-08-06 | 彭东乔 | 一种基于人工智能对反刍动物一般行为识别的方法 |
CN113505723A (zh) * | 2021-07-23 | 2021-10-15 | 京东科技控股股份有限公司 | 行人重识别方法及装置、存储介质及电子设备 |
CN113642515A (zh) * | 2021-08-30 | 2021-11-12 | 北京航空航天大学 | 基于姿态关联的行人识别方法与装置、电子设备和介质 |
WO2023137923A1 (zh) * | 2022-01-18 | 2023-07-27 | 平安科技(深圳)有限公司 | 基于姿态指导的行人重识别方法、装置、设备及存储介质 |
CN113505723B (zh) * | 2021-07-23 | 2024-05-24 | 北京京东尚科信息技术有限公司 | 行人重识别方法及装置、存储介质及电子设备 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109934177A (zh) * | 2019-03-15 | 2019-06-25 | 艾特城信息科技有限公司 | 行人再识别方法、系统及计算机可读存储介质 |
CN110659589A (zh) * | 2019-09-06 | 2020-01-07 | 中国科学院自动化研究所 | 基于姿态和注意力机制的行人再识别方法、系统、装置 |
CN110942025A (zh) * | 2019-11-26 | 2020-03-31 | 河海大学 | 一种基于聚类的无监督跨域行人重识别方法 |
CN111325111A (zh) * | 2020-01-23 | 2020-06-23 | 同济大学 | 一种融合逆注意力和多尺度深度监督的行人重识别方法 |
US20200226421A1 (en) * | 2019-01-15 | 2020-07-16 | Naver Corporation | Training and using a convolutional neural network for person re-identification |
CN111709331A (zh) * | 2020-06-03 | 2020-09-25 | 江南大学 | 一种基于多粒度信息交互模型的行人重识别方法 |
CN112200111A (zh) * | 2020-10-19 | 2021-01-08 | 厦门大学 | 一种全局与局部特征融合的遮挡鲁棒行人重识别方法 |
-
2021
- 2021-01-29 CN CN202110123640.1A patent/CN112800967B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200226421A1 (en) * | 2019-01-15 | 2020-07-16 | Naver Corporation | Training and using a convolutional neural network for person re-identification |
CN109934177A (zh) * | 2019-03-15 | 2019-06-25 | 艾特城信息科技有限公司 | 行人再识别方法、系统及计算机可读存储介质 |
CN110659589A (zh) * | 2019-09-06 | 2020-01-07 | 中国科学院自动化研究所 | 基于姿态和注意力机制的行人再识别方法、系统、装置 |
CN110942025A (zh) * | 2019-11-26 | 2020-03-31 | 河海大学 | 一种基于聚类的无监督跨域行人重识别方法 |
CN111325111A (zh) * | 2020-01-23 | 2020-06-23 | 同济大学 | 一种融合逆注意力和多尺度深度监督的行人重识别方法 |
CN111709331A (zh) * | 2020-06-03 | 2020-09-25 | 江南大学 | 一种基于多粒度信息交互模型的行人重识别方法 |
CN112200111A (zh) * | 2020-10-19 | 2021-01-08 | 厦门大学 | 一种全局与局部特征融合的遮挡鲁棒行人重识别方法 |
Non-Patent Citations (9)
Title |
---|
F.ZHENG 等: ""Pyramidal Person Re-IDentification via Multi-Loss Dynamic Training,"", 《2019 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR)》 * |
W.LI 等: ""Harmonious Attention Network for Person Re-identification,"", 《2018 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 * |
杨婉香: ""基于深度度量嵌入和生成对抗抗网络的遮挡行人重识别方法研究"", 《HTTPS://D.WANFANGDATA.COM.CN》 * |
王桢: ""联合检测和重识别的行人搜索研究及嵌入式实现"", 《HTTPS://D.WANFANGDATA.COM.CN》 * |
王芫: ""基于深度神经网络的人体运动姿态估计与识别"", 《中国优秀硕士学位论文全文数据库信息科技辑》 * |
程杨: ""基于深度混合卷积神经网络的行人重识别研究"", 《HTTPS://D.WANFANGDATA.COM.CN》 * |
罗浩 等: ""基于深度学习的行人重识别研究进展"", 《自动化学报》 * |
贺南南: ""基于ResNet网络的行人重识别方法研究"", 《HTTPS://D.WANFANGDATA.COM.CN》 * |
马丽: ""基于注意力模型和特征层仿射对齐模型的行人再识别研究"", 《HTTPS://D.WANFANGDATA.COM.CN》 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113221776A (zh) * | 2021-05-19 | 2021-08-06 | 彭东乔 | 一种基于人工智能对反刍动物一般行为识别的方法 |
CN113221776B (zh) * | 2021-05-19 | 2024-05-28 | 彭东乔 | 一种基于人工智能对反刍动物一般行为识别的方法 |
CN113505723A (zh) * | 2021-07-23 | 2021-10-15 | 京东科技控股股份有限公司 | 行人重识别方法及装置、存储介质及电子设备 |
CN113505723B (zh) * | 2021-07-23 | 2024-05-24 | 北京京东尚科信息技术有限公司 | 行人重识别方法及装置、存储介质及电子设备 |
CN113642515A (zh) * | 2021-08-30 | 2021-11-12 | 北京航空航天大学 | 基于姿态关联的行人识别方法与装置、电子设备和介质 |
CN113642515B (zh) * | 2021-08-30 | 2023-11-24 | 北京航空航天大学 | 基于姿态关联的行人识别方法与装置、电子设备和介质 |
WO2023137923A1 (zh) * | 2022-01-18 | 2023-07-27 | 平安科技(深圳)有限公司 | 基于姿态指导的行人重识别方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN112800967B (zh) | 2022-05-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111709311B (zh) | 一种基于多尺度卷积特征融合的行人重识别方法 | |
CN111259850B (zh) | 一种融合随机批掩膜和多尺度表征学习的行人重识别方法 | |
US7724962B2 (en) | Context adaptive approach in vehicle detection under various visibility conditions | |
US8842883B2 (en) | Global classifier with local adaption for objection detection | |
Wu et al. | Simultaneous object detection and segmentation by boosting local shape feature based classifier | |
CN109882019B (zh) | 一种基于目标检测和动作识别的汽车电动尾门开启方法 | |
Yang et al. | Spatial selection for attentional visual tracking | |
CN105975934B (zh) | 一种用于增强现实辅助维修的动态手势识别方法及系统 | |
Yang et al. | Real-time pedestrian and vehicle detection for autonomous driving | |
CN112800967B (zh) | 一种姿态驱动的遮挡行人重识别方法 | |
CN111814690B (zh) | 一种目标重识别方法、装置和计算机可读存储介质 | |
Martinović et al. | Real-time detection and recognition of traffic signs | |
Zhang et al. | Automatic detection of road traffic signs from natural scene images based on pixel vector and central projected shape feature | |
Song et al. | Feature extraction and target recognition of moving image sequences | |
Symeonidis et al. | Neural attention-driven non-maximum suppression for person detection | |
CN114898116A (zh) | 一种基于嵌入式平台的车库管理方法、系统及存储介质 | |
Poostchi et al. | Feature selection for appearance-based vehicle tracking in geospatial video | |
Fritz et al. | Attentive object detection using an information theoretic saliency measure | |
CN117152625A (zh) | 一种基于CoordConv和YOLOv5的遥感小目标识别方法、系统、设备及介质 | |
Fritz et al. | Object recognition using local information content | |
CN108960005A (zh) | 一种智能视觉物联网中对象视觉标签的建立及显示方法、系统 | |
Perrotton et al. | Automatic object detection on aerial images using local descriptors and image synthesis | |
Putro et al. | Fast eye detector using CPU based lightweight convolutional neural network | |
CN114529578A (zh) | 一种基于对比学习方式的多目标跟踪方法 | |
CN114462479A (zh) | 模型训练方法、检索方法以及模型、设备和介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |