CN110334687A - 一种基于行人检测、属性学习和行人识别的行人检索增强方法 - Google Patents
一种基于行人检测、属性学习和行人识别的行人检索增强方法 Download PDFInfo
- Publication number
- CN110334687A CN110334687A CN201910638547.7A CN201910638547A CN110334687A CN 110334687 A CN110334687 A CN 110334687A CN 201910638547 A CN201910638547 A CN 201910638547A CN 110334687 A CN110334687 A CN 110334687A
- Authority
- CN
- China
- Prior art keywords
- pedestrian
- attribute
- loss function
- loss
- identity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2155—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
Abstract
本发明公开了一种基于行人检测、属性学习和行人识别的行人检索增强方法,包括行人检测、行人重识别、行人属性预测,通过使用行人检测损失函数、属性分类损失函数和身份分类损失函数,利用属性和身份标签通过训练框架识别行人在图像中的位置,最终的损失函数。本发明通过开发一个多任务的深度学习框架来解决行人检索问题,该框架在单个卷积神经网络中综合考虑了行人检测、行人重识别和行人属性预测,提高检索精度。
Description
技术领域
本发明涉及一种基于行人检测、属性学习和行人识别的行人检索增强方法。
背景技术
行人检索因其在视频监控中的重要作用而受到越来越多的关注,它的目的是在多个非重叠的相机视图中检索感兴趣的人。给定一副图片,任务是通过计算图片与候选图像之间的相似性/距离对候选的所有行人图像进行排序,并返回最相关的图像作为检索结果。它主要由特征提取和度量学习两部分组成。第一部分着重于设计更加健壮的特征。第二个部分是学习一个合适的距离/相似度函数,使用从图像中提取出的特征来更好的描述相似/不同样本之间的相似关系。在早期的工作中,大多数工作仅仅使用一种特征作为检测的依据,最常用的是颜色和纹理特征,即通过图像中行人和背景之间颜色和纹理的差别将行人分离出来进行检索。从不同的相机视角观察人体外观的复杂变换并提取图像特征是另一种已经被提出的方法。另外还有将人体姿态估计引入该工作的方法,该类方法需要借助人体姿势相关的数据集和专门的姿势估计模块才能从复杂的实际场景中检索出与目标相符的行人图像特征。不足的是,姿势数据集和行人检索数据集存在的语义偏差会影响行人检索的精度。
另一方面,由于不同的特征所携带的信息侧重点不同,导致使用单一的特征并不能达到较好的效果。因此部分研究者提出多特征学习的方法对图像中的行人进行检索。在已经提出的方法中,包括通过引入注意力机制和序列相似性估计的方法以及使用多通道的卷积神经网络同时学习行人的全局特征和局部肢体特征的方法等。其基本目的都是学习图像特征和更加准确的度量行人图像之间的差异。除此之外,还有将关注点聚焦于噪声的方法,提出使用一种自定步长离群点检测的方法来评估视频子序列的噪声程度,然后使用加权多距离度量的方法对两幅图像序列进行距离度量。
近年来,越来越多的研究者倾向于通过训练深度神经网络,端到端联合学习特征和度量。在基于深度神经网络的行人检索方法中,识别行人是首要工作。较早提出的方法中有研究者提出在端到端框架下共同处理行人检测和识别。还有人提出使用生成式对抗网络生成的未标记样本对行人检索中的超平面模型进行正则化,从而有效的提高了模型性能。
行人检索的精度直接受到行人检测效果的影响。在行人检测领域,可变形部件模型(DPM)、聚集通道特征(ACF)和局部去相关通道特征(LDCF)是三种典型的基于手工特征和线性分类器的行人检测方法。在已经提出的方法中,试图将行人。
发明内容
本发明的目的是提供一种基于行人检测、属性学习和行人识别的行人检索增强方法,其是一个端到端的行人检测框架,该框架以多任务学习的方式将行人检测、行人重识别和行人属性预测有机地结合起来,提高检索的精度。
为解决上述技术问题,本发明采用如下技术方案:
一种基于行人检测、属性学习和行人识别的行人检索增强方法,包括如下步骤:
S1、行人检测
进行行人检索的第一步是要在给定的图像中检测出行人所在的区域,目前对于该工作取得较好效果的是FasterR-CNN;Faster-RCNN基于深度学习,具有统一性和高精度,是目前非常流行的一种目标检测方法;当从行人图像中检测行人时,使用Faster-RCNN作为检测器;该检测器通过共享卷积特性将RPN和 FastR-CNN合并为一个网络;作为一个全卷积网络,RPN可以同时预测每个位置的目标边界和得分;当检测行人时,首先通过RPN生成高质量的区域建议,然后使用FastR-CNN网络进行检测;根据这些定义,FasterR-CNN具有跟踪多任务损失的目标函数,图像特定的损失函数定义为:
其中Lcls表示分类损失,即超过两个类的log损失,回归损失采用其中R为L1正则化项;pi表示锚点为物体的预测概率, ti为描述预测边界框坐标的四维向量;
通过上述损失函数训练网络可以使网络具备行人检测能力,可以在复杂的真实场景图像中确定行人所在的区域;
S2、行人属性预测
对于从实际场景图像中检测出的行人特征图,首先对该行人进行属性预测;用11个行人属性手工标注了PRW数据集,属性标注主要考虑以下因素:性别、发型、服装类型、服装颜色、姿势。具体的,11个属性标注分别为:性别(男、女),头发长度(长、短),(裙子/裙子,裤子),戴着帽子(是的,没有),携带的背包 (是的,没有),携带手提包(是的,没有),携带信使袋(是的,没有),骑自行车(是的,没有),姿势(正面,侧面,背面),上衣颜色(白色,黑色,棕色,灰色,红色,黄色,绿色,蓝色,紫色,其它),下装颜色(白色,黑色,棕色,灰色,红色,黄色,绿色, 蓝色,紫色,其它);
每个行人有N个属性(N=11),使用N个全连接层和N个softmax损失函数来训练行人属性预测器,将行人样本x分配给属性类k(k属于1到n之间,其中n为属性类数)的概率可以表示为其中k属于1到n 之间,其中n为属性类数;同样的,属性分类损失函数可以表示为令y为真实属性标签,那么对于所有的k≠ y,q(y)=1和q(k)=0,其它的符号和基本的softmax损失函数相同。
S3、行人重识别
利用半监督在线实例匹配损失来进行身份识别,在训练阶段可以有效地同时考虑带标签的身份和未带标签的身份,其目标是最大限度地提高同一个人实例之间的特征相似性,并使不同人之间的特征相似性最小化;在训练阶段,将一个批次内已标记的特征向量记为x∈Rd,其中d为特征维度;查找表V∈Rd*L用于存储所有标记身份的特性;对于未标记身份,使用循环序列U∈Rd*Q存储该批次内未标记的特征,其中Q为序列大小;在正向传播过程中,利用VTx计算批次内样本x和所有已标记标签的余弦相似度。在反向传播过程中,如果目标分类为t,那么查找表的第t列将通过Vt←γVt+(1-γ)x,其中γ∈[0,1],同时查找表的第t列需要进行L2正则化;同时利用VTx计算批次内样本x和所有为标记身份的余弦相似度,每次迭代后,将新的特征向量加入队列,并删除过期的特征向量,通过下面的softmax函数计算x被识别为i的身份的概率:
其中τ是一个表示概率分布的尺度参数。可以用类似的方法计算x被识别为循环序列中的第i个未标记身份的概率。OIM损失的目标是最大化期望Lid=Ex[logpt];
OIM损失的主要优点是它可以有效的比较批次内样本和所有的标记及未标记的身份。
S4、通过使用行人检测损失函数、属性分类损失函数和身份分类损失函数,利用属性和身份标签通过训练框架识别行人在图像中的位置,最终的损失函数定义为:
其中Ldet,Lid和Latt分别表示行人检测,身份分类和属性分类的交叉熵损失。
与现有技术相比,本发明的有益技术效果:
通过开发一个多任务的深度学习框架来解决行人检索问题,该框架在单个卷积神经网络中综合考虑了行人检测、行人重识别和行人属性预测。给定一个包含至少一个行人作为输入的场景图像,首先使用卷积神经网络(CNN)将整个场景图像从原始像素转换为卷积特征图,在特征图的基础上,利用区域建议网络 (RPN)对行人区域进行预测,然后通过候选框(ROI)池化层、两个卷积层、一个全局平均池化层和一个全连接层对行人区域进行预测,提取低维正态化特征。
附图说明
下面结合附图说明对本发明作进一步说明。
图1为本发明流程示意图。
具体实施方式
如图1所示,一种基于行人检测、属性学习和行人识别的行人检索增强方法,包括如下步骤:
S1、行人检测
进行行人检索的第一步是要在给定的图像中检测出行人所在的区域,目前对于该工作取得较好效果的是FasterR-CNN。Faster-RCNN基于深度学习,具有统一性和高精度,是目前非常流行的一种目标检测方法;当从行人图像中检测行人时,使用Faster-RCNN作为检测器。该检测器通过共享卷积特性将RPN和 FastR-CNN合并为一个网络;作为一个全卷积网络,RPN可以同时预测每个位置的目标边界和得分;当检测行人时,首先通过RPN生成高质量的区域建议,然后使用FastR-CNN网络进行检测;根据这些定义,FasterR-CNN具有跟踪多任务损失的目标函数,图像特定的损失函数定义为:
其中Lcls表示分类损失,即超过两个类(行人和背景)的log损失。回归损失采用其中R为L1正则化项,pi表示锚点为物体的预测概率,ti为描述预测边界框坐标的四维向量;
通过上述损失函数训练网络可以使网络具备一定的行人检测能力,可以在复杂的真实场景图像中确定行人所在的区域;
S2、行人属性预测
对于从实际场景图像中检测出的行人特征图,首先对该行人进行属性预测;用11个行人属性手工标注了PRW数据集,属性标注主要考虑以下因素:性别、发型、服装类型、服装颜色、姿势。具体的,11个属性标注分别为:性别(男、女),头发长度(长、短),(裙子/裙子,裤子),戴着帽子(是的,没有),携带的背包 (是的,没有),携带手提包(是的,没有),携带信使袋(是的,没有),骑自行车(是的,没有),姿势(正面,侧面,背面),上衣颜色(白色,黑色,棕色,灰色,红色,黄色,绿色,蓝色,紫色,其它),下装颜色(白色,黑色,棕色,灰色,红色,黄色,绿色, 蓝色,紫色,其它);
每个行人有N个属性(N=11),使用N个全连接层和N个softmax损失函数来训练行人属性预测器,将行人样本x分配给属性类k(k属于1到n之间,其中n为属性类数)的概率可以表示为同样的,属性分类损失函数可以表示为令y为真实属性标签,那么对于所有的k≠y,q(y)=1和q(k)=0,其它的符号和基本的softmax 损失函数相同。
S3、行人重识别
利用半监督在线实例匹配(OIM)损失来进行身份识别,在训练阶段可以有效地同时考虑带标签的身份和未带标签的身份,其目标是最大限度地提高同一个人实例之间的特征相似性,并使不同人之间的特征相似性最小化;在训练阶段,将一个批次内已标记的特征向量记为x∈Rd,其中d为特征维度,查找表V∈Rd*L用于存储所有标记身份的特性,对于未标记身份,使用循环序列U∈Rd*Q存储该批次内未标记的特征,其中Q为序列大小,在正向传播过程中,利用VTx计算批次内样本x和所有已标记标签的余弦相似度,在反向传播过程中,如果目标分类为t,那么查找表的第t列将通过Vt←γVt+(1-γ)x,其中γ∈[0,1],同时查找表的第t列需要进行L2正则化。我们同时也利用VTx计算批次内样本x和所有为标记身份的余弦相似度,每次迭代后,将新的特征向量加入队列,并删除过期的特征向量,通过下面的softmax函数计算x被识别为i的身份的概率:
其中τ是一个表示概率分布的尺度参数。可以用类似的方法计算x被识别为循环序列中的第i个未标记身份的概率。OIM损失的目标是最大化期望 Lid=Ex[logpt];
OIM损失的主要优点是它可以有效的比较批次内样本和所有的标记及未标记的身份。
S4、通过使用行人检测损失函数、属性分类损失函数和身份分类损失函数,利用属性和身份标签通过训练框架识别行人在图像中的位置,最终的损失函数定义为:
其中Ldet,Lid和Latt分别表示行人检测,身份分类和属性分类的交叉熵损失。
下表1为在数据集PRW上的性能比较结果:
表1在数据集PRW上的性能比较
Method | mAP(%) | top-1(%) |
ACF-Alex+LOMO+XQDA | 10.3 | 30.6 |
ACF-Alex+IDE<sub>det</sub> | 17.5 | 43.6 |
ACF-Alex+IDE<sub>det</sub>+CWS | 17.8 | 45.2 |
LDCF+LOMO+XQDA | 11 | 31.1 |
LDCF+IDE<sub>det</sub> | 18.3 | 44.6 |
LDCF+IDE<sub>det</sub>+CWS | 18.3 | 45.5 |
DPM-Alex+LOMO+XQDA | 13 | 34.1 |
DPM-Alex+IDE<sub>det</sub> | 20.3 | 47.4 |
DPM-Alex+IDE<sub>det</sub>+CWS | 20.5 | 48.3 |
OIM(Baseline) | 20.3 | 58.9 |
本发明 | 24.8 | 65.5 |
由上表1可知,本发明的检索增强方法相对于其它方法在行人检索时精确度有明显的提升。
上所述的实施例仅是对本发明的优选方式进行描述,并非对本发明的范围进行限定,在不脱离本发明设计精神的前提下,本领域普通技术人员对本发明的技术方案做出的各种变形和改进,均应落入本发明权利要求书确定的保护范围内。
Claims (6)
1.一种基于行人检测、属性学习和行人识别的行人检索增强方法,其特征在于,包括如下步骤:
S1、行人检测
从行人图像中检测行人,使用Faster-RCNN作为检测器,该检测器通过共享卷积特性将RPN和Fast R-CNN合并为一个网络,作为一个全卷积网络,RPN可以同时预测每个位置的目标边界和得分;当检测行人时,首先通过RPN生成高质量的区域建议,然后使用Fast R-CNN网络进行检测;
建立Faster R-CNN具有跟踪多任务损失的目标函数,图像特定的损失函数定义为:
其中Lcls表示分类损失,即超过两个类的log损失,回归损失采用其中R为L1正则化项;pi表示锚点为物体的预测概率,ti为描述预测边界框坐标的四维向量,通过上述损失函数训练网络可以使网络具备行人检测能力,可以在复杂的真实场景图像中确定行人所在的区域;
S2、行人属性预测
对于从实际场景图像中检测出的行人特征图,对该行人进行属性预测,采用多个行人属性手工标注PRW数据集;
每个行人有N个属性,使用N个全连接层和N个softmax损失函数来训练行人属性预测器;将行人样本x分配给属性类k的概率可以表示为其中k属于1到n之间,其中n为属性类数;同样的,属性分类损失函数可以表示为令y为真实属性标签,那么对于所有的k≠y,q(y)=1和q(k)=0,其它的符号和基本的softmax损失函数相同;
S3、行人重识别
利用半监督在线实例匹配损失来进行身份识别,在训练阶段可以有效地同时考虑带标签的身份和未带标签的身份,其目标是最大限度地提高同一个人实例之间的特征相似性,并使不同人之间的特征相似性最小化;
在训练阶段,将一个批次内已标记的特征向量记为x∈Rd,其中d为特征维度;查找表V∈Rd*L用于存储所有标记身份的特性;
对于未标记身份,使用循环序列U∈Rd*Q存储该批次内未标记的特征,其中Q为序列大小;在正向传播过程中,利用VTx计算批次内样本x和所有已标记标签的余弦相似度;在反向传播过程中,如果目标分类为t,那么查找表的第t列将通过Vt←γVt+(1-γ)x,其中γ∈[0,1],同时查找表的第t列需要进行L2正则化;
同时利用VTx计算批次内样本x和所有为标记身份的余弦相似度,每次迭代后,将新的特征向量加入队列,并删除过期的特征向量,通过下面的softmax函数计算x被识别为i的身份的概率:
其中τ是一个表示概率分布的尺度参数,可以用类似的方法计算x被识别为循环序列中的第i个未标记身份的概率;OIM损失的目标是最大化期望Lid=Ex[logpt];OIM损失的主要优点是它可以有效的比较批次内样本和所有的标记及未标记的身份;
S4、通过使用行人检测损失函数、属性分类损失函数和身份分类损失函数,利用属性和身份标签通过训练框架识别行人在图像中的位置,最终的损失函数定义为:
其中Ldet,Lid和Latt分别表示行人检测,身份分类和属性分类的交叉熵损失。
2.根据权利要求1所述的基于行人检测、属性学习和行人识别的行人检索增强方法,其特征在于,所述步骤S2中,属性标注主要考虑以下因素:性别、发型、服装类型、服装颜色、姿势。
3.根据权利要求2所述的基于行人检测、属性学习和行人识别的行人检索增强方法,其特征在于,所述步骤S2中,采用11个行人属性手工标注PRW数据集,11个属性标注分别为:性别,头发长度,裙子或裤子,戴着帽子,携带的背包,携带手提包,携带信使袋,骑自行车,姿势,上衣颜色,下装颜色。
4.根据权利要求3所述的基于行人检测、属性学习和行人识别的行人检索增强方法,其特征在于,所述头发长度包括长发与短发两个类别。
5.根据权利要求3所述的基于行人检测、属性学习和行人识别的行人检索增强方法,其特征在于,所述姿势包括正面、侧面、背面。
6.根据权利要求1所述的基于行人检测、属性学习和行人识别的行人检索增强方法,其特征在于,上衣颜色或下装颜色均包括白色、黑色、棕色、灰色、红色、黄色、绿色、蓝色、紫色及其它。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910638547.7A CN110334687A (zh) | 2019-07-16 | 2019-07-16 | 一种基于行人检测、属性学习和行人识别的行人检索增强方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910638547.7A CN110334687A (zh) | 2019-07-16 | 2019-07-16 | 一种基于行人检测、属性学习和行人识别的行人检索增强方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110334687A true CN110334687A (zh) | 2019-10-15 |
Family
ID=68145256
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910638547.7A Pending CN110334687A (zh) | 2019-07-16 | 2019-07-16 | 一种基于行人检测、属性学习和行人识别的行人检索增强方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110334687A (zh) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110826424A (zh) * | 2019-10-21 | 2020-02-21 | 华中科技大学 | 一种基于行人重识别驱动定位调整的行人搜索方法 |
CN111198964A (zh) * | 2020-01-10 | 2020-05-26 | 中国科学院自动化研究所 | 图像检索方法及系统 |
CN111339849A (zh) * | 2020-02-14 | 2020-06-26 | 北京工业大学 | 一种融合行人属性的行人重识别的方法 |
CN111401286A (zh) * | 2020-03-24 | 2020-07-10 | 武汉大学 | 一种基于部件权重生成网络的行人检索方法 |
CN111753746A (zh) * | 2020-06-28 | 2020-10-09 | 苏州科达科技股份有限公司 | 属性识别模型训练方法、识别方法、电子设备、存储介质 |
CN111814845A (zh) * | 2020-03-26 | 2020-10-23 | 同济大学 | 一种基于多支流融合模型的行人重识别方法 |
CN112560969A (zh) * | 2020-12-21 | 2021-03-26 | 重庆紫光华山智安科技有限公司 | 用于人体重识别的图像处理方法、模型训练方法及装置 |
WO2021082118A1 (zh) * | 2019-11-01 | 2021-05-06 | 深圳大学 | 行人重识别的方法、装置、终端及存储介质 |
CN112966556A (zh) * | 2021-02-02 | 2021-06-15 | 豪威芯仑传感器(上海)有限公司 | 一种运动物体检测方法及系统 |
CN113326738A (zh) * | 2021-05-06 | 2021-08-31 | 南京信息工程大学 | 基于深度网络和字典学习的行人目标检测与重识别方法 |
TWI740624B (zh) * | 2019-10-28 | 2021-09-21 | 中國商深圳市商湯科技有限公司 | 圖片處理方法、設備和儲存媒體 |
CN113807200A (zh) * | 2021-08-26 | 2021-12-17 | 青岛文达通科技股份有限公司 | 基于动态拟合多任务推理网络的多行人识别方法及系统 |
CN117574258A (zh) * | 2024-01-15 | 2024-02-20 | 合肥综合性国家科学中心人工智能研究院(安徽省人工智能实验室) | 一种基于文本噪声标签和协同训练策略的文本分类方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107315984A (zh) * | 2016-04-26 | 2017-11-03 | 杭州华为企业通信技术有限公司 | 一种行人检索的方法及装置 |
CN108629233A (zh) * | 2017-03-20 | 2018-10-09 | 华为技术有限公司 | 一种行人检索方法及装置 |
-
2019
- 2019-07-16 CN CN201910638547.7A patent/CN110334687A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107315984A (zh) * | 2016-04-26 | 2017-11-03 | 杭州华为企业通信技术有限公司 | 一种行人检索的方法及装置 |
CN108629233A (zh) * | 2017-03-20 | 2018-10-09 | 华为技术有限公司 | 一种行人检索方法及装置 |
Non-Patent Citations (1)
Title |
---|
JIANWEN W.等: "Enhancing Person Retrieval with Joint Person Detection,Attribute Learning,and Identification", 《PCM 2018: ADVANCES IN MULTIMEDIA INFORMATION PROCESSING》 * |
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110826424A (zh) * | 2019-10-21 | 2020-02-21 | 华中科技大学 | 一种基于行人重识别驱动定位调整的行人搜索方法 |
US11263491B2 (en) | 2019-10-21 | 2022-03-01 | Huazhong University Of Science And Technology | Person search method based on person re-identification driven localization refinement |
CN110826424B (zh) * | 2019-10-21 | 2021-07-27 | 华中科技大学 | 一种基于行人重识别驱动定位调整的行人搜索方法 |
WO2021077785A1 (zh) * | 2019-10-21 | 2021-04-29 | 华中科技大学 | 一种基于行人重识别驱动定位调整的行人搜索方法 |
TWI740624B (zh) * | 2019-10-28 | 2021-09-21 | 中國商深圳市商湯科技有限公司 | 圖片處理方法、設備和儲存媒體 |
WO2021082118A1 (zh) * | 2019-11-01 | 2021-05-06 | 深圳大学 | 行人重识别的方法、装置、终端及存储介质 |
CN111198964A (zh) * | 2020-01-10 | 2020-05-26 | 中国科学院自动化研究所 | 图像检索方法及系统 |
CN111198964B (zh) * | 2020-01-10 | 2023-04-25 | 中国科学院自动化研究所 | 图像检索方法及系统 |
CN111339849A (zh) * | 2020-02-14 | 2020-06-26 | 北京工业大学 | 一种融合行人属性的行人重识别的方法 |
CN111401286A (zh) * | 2020-03-24 | 2020-07-10 | 武汉大学 | 一种基于部件权重生成网络的行人检索方法 |
CN111401286B (zh) * | 2020-03-24 | 2022-03-04 | 武汉大学 | 一种基于部件权重生成网络的行人检索方法 |
CN111814845B (zh) * | 2020-03-26 | 2022-09-20 | 同济大学 | 一种基于多支流融合模型的行人重识别方法 |
CN111814845A (zh) * | 2020-03-26 | 2020-10-23 | 同济大学 | 一种基于多支流融合模型的行人重识别方法 |
CN111753746B (zh) * | 2020-06-28 | 2022-07-29 | 苏州科达科技股份有限公司 | 属性识别模型训练方法、识别方法、电子设备、存储介质 |
CN111753746A (zh) * | 2020-06-28 | 2020-10-09 | 苏州科达科技股份有限公司 | 属性识别模型训练方法、识别方法、电子设备、存储介质 |
CN112560969B (zh) * | 2020-12-21 | 2022-01-11 | 重庆紫光华山智安科技有限公司 | 用于人体重识别的图像处理方法、模型训练方法及装置 |
CN112560969A (zh) * | 2020-12-21 | 2021-03-26 | 重庆紫光华山智安科技有限公司 | 用于人体重识别的图像处理方法、模型训练方法及装置 |
CN112966556B (zh) * | 2021-02-02 | 2022-06-10 | 豪威芯仑传感器(上海)有限公司 | 一种运动物体检测方法及系统 |
CN112966556A (zh) * | 2021-02-02 | 2021-06-15 | 豪威芯仑传感器(上海)有限公司 | 一种运动物体检测方法及系统 |
CN113326738A (zh) * | 2021-05-06 | 2021-08-31 | 南京信息工程大学 | 基于深度网络和字典学习的行人目标检测与重识别方法 |
CN113326738B (zh) * | 2021-05-06 | 2023-07-07 | 南京信息工程大学 | 基于深度网络和字典学习的行人目标检测与重识别方法 |
CN113807200A (zh) * | 2021-08-26 | 2021-12-17 | 青岛文达通科技股份有限公司 | 基于动态拟合多任务推理网络的多行人识别方法及系统 |
CN113807200B (zh) * | 2021-08-26 | 2024-04-19 | 青岛文达通科技股份有限公司 | 基于动态拟合多任务推理网络的多行人识别方法及系统 |
CN117574258A (zh) * | 2024-01-15 | 2024-02-20 | 合肥综合性国家科学中心人工智能研究院(安徽省人工智能实验室) | 一种基于文本噪声标签和协同训练策略的文本分类方法 |
CN117574258B (zh) * | 2024-01-15 | 2024-04-26 | 合肥综合性国家科学中心人工智能研究院(安徽省人工智能实验室) | 一种基于文本噪声标签和协同训练策略的文本分类方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110334687A (zh) | 一种基于行人检测、属性学习和行人识别的行人检索增强方法 | |
Wu et al. | Convolutional neural networks for multimodal remote sensing data classification | |
Liu et al. | Toward AI fashion design: An Attribute-GAN model for clothing match | |
Bazzani et al. | Self-taught object localization with deep networks | |
CN108520226B (zh) | 一种基于躯体分解和显著性检测的行人重识别方法 | |
Yang et al. | Layered object models for image segmentation | |
Liu et al. | Fashion parsing with weak color-category labels | |
Yamaguchi et al. | Paper doll parsing: Retrieving similar styles to parse clothing items | |
US9396412B2 (en) | Machine-learnt person re-identification | |
US9460518B2 (en) | Visual clothing retrieval | |
Hidayati et al. | Learning and recognition of clothing genres from full-body images | |
US20110142335A1 (en) | Image Comparison System and Method | |
CN105022982B (zh) | 手部运动识别方法和装置 | |
CN109919177B (zh) | 基于层次化深度网络的特征选择方法 | |
CN105740915B (zh) | 一种融合感知信息的协同分割方法 | |
Salari et al. | Object recognition datasets and challenges: A review | |
CN109271932A (zh) | 基于颜色匹配的行人再识别方法 | |
US20210326646A1 (en) | Automated generation of training data for contextually generated perceptions | |
Galiyawala et al. | Person retrieval in surveillance video using height, color and gender | |
Miura et al. | SNAPPER: fashion coordinate image retrieval system | |
CN109145947B (zh) | 一种基于部件检测和视觉特征的时尚女装图像细粒度分类方法 | |
Ghadiri et al. | From superpixel to human shape modelling for carried object detection | |
Feng et al. | An object detection system based on YOLOv2 in fashion apparel | |
US20230053151A1 (en) | Apparatus and method for classifying clothing attributes based on deep learning | |
Zhang et al. | A review of human action recognition in video |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20191015 |