CN111401132B - 监控场景下高层语义指导的行人属性识别方法 - Google Patents

监控场景下高层语义指导的行人属性识别方法 Download PDF

Info

Publication number
CN111401132B
CN111401132B CN202010093801.2A CN202010093801A CN111401132B CN 111401132 B CN111401132 B CN 111401132B CN 202010093801 A CN202010093801 A CN 202010093801A CN 111401132 B CN111401132 B CN 111401132B
Authority
CN
China
Prior art keywords
attributes
attribute
pedestrian
level
identification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010093801.2A
Other languages
English (en)
Other versions
CN111401132A (zh
Inventor
胡海苗
安浩然
李波
浦世亮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Hikvision Digital Technology Co Ltd
Beihang University
Original Assignee
Hangzhou Hikvision Digital Technology Co Ltd
Beihang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Hikvision Digital Technology Co Ltd, Beihang University filed Critical Hangzhou Hikvision Digital Technology Co Ltd
Priority to CN202010093801.2A priority Critical patent/CN111401132B/zh
Publication of CN111401132A publication Critical patent/CN111401132A/zh
Application granted granted Critical
Publication of CN111401132B publication Critical patent/CN111401132B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24137Distances to cluster centroïds
    • G06F18/2414Smoothing the distance, e.g. radial basis function networks [RBFN]

Abstract

一种监控场景下属性层次关系指导的行人属性识别方法,包括:根据行人属性的层次特性及不同层次属性间的关系改进网络结构,分层次进行属性识别并引入全连接层来学习不同层次属性间的关系;根据行人属性的位置约束改进网络结构,引入注意力机制,分别从空间域和通道域两个维度来学习注意力权重,使网络更加关注特定的身体部位;选用加权交叉熵损失函数,以各属性的正样本比例作为权重系数;把训练集输入改进后的卷积神经网络,得出行人属性识别模型;将测试集输入到行人属性识别模型中进行识别,对行人属性识别模型的实验结果进行评估;本方法可分析更深层次的行人属性,更好挖掘属性的层次关系以及位置约束,使属性识别结果更全面和准确。

Description

监控场景下高层语义指导的行人属性识别方法
技术领域
本发明涉及模式识别技术、计算机视觉技术等领域,具体的说,是监控场景下高层语义指导的行人属性识别方法。
背景技术
近年来,随着模式识别和计算机视觉的发展,目标识别技术得到了很大的发展,并且在安防领域实现了大量的应用。安防人员通过分布在城市各个角落的监控摄像头,维护着城市安全。如果发生了突发事故,要从海量的监控图像中寻找到需要的信息,必然会损耗大量的人力物力。摄像头监控的主要目标是行人,如果可以实现对行人属性有效的识别,会给监控视频检索工作带来很大的便利。由于这种需求,越来越多的研究人员开始研究行人属性识别。
行人属性识别的一种传统识别算法为人工神经网络,它从信息处理角度对人脑神经元网络进行抽象,建立某种简单模型。基于人工神经网络的训练算法为反向传播算法,它使得网络模型经过对大量训练样本进行学习的过程能够获得统计规律,从而对未知事件做出预测。人工神经网络优点在于具有较强的非线性映射能力、自学习和自适应能力、泛化能力和一定的容错能力,但是存在以下缺点,在行人识别样本训练时收敛速度慢,且其训练过程为监督过程,而对训练样本的标注即费时又费力,并且视频行人识别涉及到大量数据的计算和分析,外加一些环境因素的干扰,传统行人属性识别算法无法提取到图像的优越特征,导致识别率有限。
在监控场景下,摄像头远距离拍摄行人,造成图片的分辨率较低,大部分图片很模糊,再加上光照变化(白天和夜晚),监控摄像头不同拍摄角度行人姿态的不同变化,现实生活中物体的遮挡等,造成行人是否佩戴眼镜等细粒度的属性很难识别出来,给研究工作带来了极大的挑战性。
行人属性识别任务起初采用具有参数共享的卷积神经网络,该方法将行人属性识别视作一项多标签分类问题来处理。在次基础上,卷积神经网络不同层的特征被级联起来作为最终输入属性分类器的特征,以此达到结合全局和局部特征的目的。由于这种做法忽略了不同的特征表示之间的相关性,因此通常会产生冗余的特征并带来较大的计算开销。此后,一种基于深度学习的单属性识别模型被提出,该模型逐个识别每种属性,然后引入统一的多属性联合学习模型来同时学习所有属性,其中每种属性的训练学习都会对其他属性的特征表示产生影响,以此达到学习属性间依赖关系的目的。尽管这些方法能够学习属性之间的依赖性,但是网络中并没有特定的结构单元来显示地表示这种关系,并且都忽略了属性的层次化特性。此外,当前研究者通过卷积姿态网络检测得到的人体关键点生成行人的不同身体部件,从而基于每个身体部件进行相应的行人属性识别,以此到达探究属性与位置之间关系的目的。早期的基于深度特征的行人属性识别方法通常独立地对每种属性进行识别,由于每种属性具有不同的表现特性和抽象级别,并且在识别时更加倾向于提取特定的信息,因此,这些方法的识别性能往往受到限制。后期的方法通过挖掘属性之间的简单关系以及属性与位置之间的关系来提高行人属性识别的性能,然而,这些方法都忽略了属性的层次化特性。
目前,行人属性识别主要研究于自然场景和监控场景。自然场景下的研究已经在人脸识别和属性识别取得了很大的成果,然而在监控场景下,由于图像模糊、分辨率差、姿态差异大、光照变化大,研究起来更加具有挑战性。
发明内容
根据本发明的一个方面,提供了一种监控场景下高层语义指导的行人属性识别方法,其特征在于包括:
S1)根据行人属性的层次特性以及不同层次属性间的关系对网络结构进行改进,分层次进行属性识别并引入全连接层来学习不同层次属性间的关系;
S2)根据行人属性的位置约束对网络结构进行改进,引入注意力机制,分别从空间域和通道域两个维度来学习注意力权重,使网络更加关注特定的身体部位;
S3)选用加权交叉熵损失函数,以各个属性的正样本比例作为权重系数;
S4)把训练集输入改进后的卷积神经网络,得出行人属性识别模型;
其中:
所述步骤S1)包括:
S1.1)按照行人属性所处的语义抽象级别将行人属性分为低层属性、中层属性和高层属性,其中,低层属性关注于颜色、纹理等表观细节描述,中层属性关注于衣物、发型、配饰以及携带物等既包含语义信息又包含表观信息的属性描述,高层属性关注于性别、年龄等抽象语义描述;
S1.2)在GoogLeNet中选取Inception4a/output、Inception4d/output和Inception5b/output三层的特征图用于三个不同层次的属性识别任务;
S1.3)通过将低层以及中层属性的识别概率分数连接起来得到在进行高层属性识别时的先验概率,然后将其作为全连接层的输入,全连接层的输出为以此为先验的情况下得到的高层属性识别的后验概率,
所述步骤S2)包括:
S2.1)对行人属性数据集中的标注属性进行分类,将所有的属性分为全局属性和局部属性,其中局部属性又分为头部、上身、腰间、下身以及脚部五个区域部位相关的属性;
S2.2)网络的低层特征包含有更多的颜色、纹理等细节信息,特征图的通道数量较少且空间分辨率较高,所以引入空间注意力机制对特征图进行重标定,进而实现对不同位置约束下的低层属性的实现;
S2.3)高层特征具有更高的抽象级别和可判别性,特征图的通道数量较多且空间分辨率较低,所以引入通道注意力机制对特征图进行重标定,进而实现对不同位置约束下的高层属性的识别;
S2.4)由于中层属性的识别既依赖于表观细节信息又依赖于抽象语义信息,介于低层属性和高层属性之间,所以引入双重注意力机制学习注意力权重,进而实现对不同位置约束下的中层属性的识别。
附图说明
图1为根据本发明的网络结构图。
图2为行人属性分层示意图。
图3为行人属性位置约束示意图。
具体实施方式
本发明的目的在于提供一种高层语义指导的行人属性识别方法,可以分析更深层次的行人属性,更好的挖掘属性的层次关系以及位置约束,使属性识别结果更加全面和准确。
本发明通过下述技术方案实现:监控场景下高层语义指导的行人属性识别方法,包括以下步骤:
S1)根据行人属性的层次特性以及不同层次属性间的关系对网络结构进行改进,分层次进行属性识别并引入全连接层来学习不同层次属性间的关系;
S2)根据行人属性的位置约束对网络结构进行改进,引入注意力机制,分别从空间域和通道域两个维度来学习注意力权重,使网络更加关注特定的身体部位;
S3)选用加权交叉熵损失函数,以各个属性的正样本比例作为权重系数;
S4)把训练集输入改进后的卷积神经网络,得出行人属性识别模型;
S5)将测试集输入到行人属性识别模型中进行识别,对行人属性识别模型的实验结果进行评估。
进一步的为更好地实现本发明,特别采用下述设置方式:所述步骤S1)遵循以下原则:
S1.1)按照行人属性所处的语义抽象级别将行人属性分为低层属性、中层属性和高层属性,其中,低层属性关注于颜色、纹理等表观细节描述,中层属性关注于衣物、发型、配饰以及携带物等既包含语义信息又包含表观信息的属性描述,高层属性关注于性别、年龄等抽象语义描述;
S1.2)在GoogLeNet中选取Inception4a/output、Inception4d/output和Inception5b/output三层的特征图用于三个不同层次的属性识别任务;
S1.3)通过将低层以及中层属性的识别概率分数连接起来得到在进行高层属性识别时的先验概率,然后将其作为全连接层的输入,全连接层的输出为以此为先验的情况下得到的高层属性识别的后验概率。
进一步的为更好地实现本发明,特别采用下述设置方式:所述步骤S2)遵循以下原则:
S2.1)对行人属性数据集中的标注属性进行分类,将所有的属性分为全局属性和局部属性,其中局部属性又分为头部、上身、腰间、下身以及脚部五个区域部位相关的属性;
S2.2)网络的低层特征包含有更多的颜色、纹理等细节信息,特征图的通道数量较少且空间分辨率较高,所以引入空间注意力机制对特征图进行重标定,进而实现对不同位置约束下的低层属性的实现;
S2.3)高层特征具有更高的抽象级别和可判别性,特征图的通道数量较多且空间分辨率较低,所以引入通道注意力机制对特征图进行重标定,进而实现对不同位置约束下的高层属性的识别;
S2.4)由于中层属性的识别既依赖于表观细节信息又依赖于抽象语义信息,介于低层属性和高层属性之间,所以引入双重注意力机制学习注意力权重,进而实现对不同位置约束下的中层属性的识别。
进一步的为更好地实现本发明,特别采用下述设置方式:所述步骤S3)中的损失函数为:
Figure BDA0002384585190000051
其中,y和
Figure BDA0002384585190000052
分别代表真实的和预测的属性分类结果,c代表属性编号,wc代表属性c在训练集中正样本所占的比例,σ()为Sigmoid激活函数,log()为对数函数。
进一步的为更好地实现本发明,特别采用下述设置方式:所述步骤S4)包括以下具体步骤:
S4.1)采用以初始学习率为0.001、指数式衰减学习率的随机梯度下降优化器和256的数据批次大小进行迭代训练;
S4.2)将输入图像的大小统一调整为224×224,然后应用随机旋转,随机调整大小和随机水平翻转等步骤进行图像增强方式来构建一个数据批次;
S4.3)设置最大迭代次数,在最大迭代次数下,不断迭代学习,直到损失函数值不再下降,行人属性识别模型收敛,保存行人外观属性识别模型参数;
S4.4)完成训练,得到最终的行人外观属性识别模型。
本发明在两个公开行人属性数据集上做训练和测试,训测试识别精度高,速度快,在现实生活中有切合实际的用途。
本发明与现有技术相比,具有以下优点及有益效果:
(1)本发明采用分层次的卷积神经网络结构,可以分析不同层次的行人属性特征;
(2)本发明采用全连接层学习不同层次属性间的关系,挖掘属性的层次特性以及不同层次属性之间的关系,使属性识别结果更加全面和准确;
(3)本发明采用空间维度和通道维度的注意力机制学习属性对不同身体部位位置的注意力权重,挖掘属性的位置约束,使属性识别结果更加全面和准确;
(4)本发明采用交叉熵损失来处理属性间的不平衡问题;
(5)本发明设计监控场景下属性高层语义指导的行人属性识别方法,解决现有基于深度学习的行人属性识别方法在监控场景下易受光照、遮挡、目标姿态变化和图像清晰度等因素影响,泛化能力较差的问题,能够实现目标监控场景下的行人属性准确识别,并且只需要极少的目标场景数据即可实现。
以下结合附图对本发明实施例作详细说明。
为使本发明实施方式的目的、技术方案和优点更加清楚,下面将结合本发明实施方式中的附图,对本发明实施方式中的技术方案进行清楚、完整地描述,显然,所描述的实施方式是本发明一部分实施方式,而不是全部的实施方式。基于本发明中的实施方式,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施方式,都属于本发明保护的范围。因此,以下对在附图中提供的本发明的实施方式的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施方式。基于本发明中的实施方式,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施方式,都属于本发明保护的范围。
S1)如图1,根据行人属性的层次特性以及不同层次属性间的关系对网络结构进行改进,分层次进行属性识别并引入全连接层来学习不同层次属性间的关系:
S1.1)如图2,按照行人属性所处的语义抽象级别将行人属性分为低层属性、中层属性和高层属性,其中,低层属性关注于颜色、纹理等表观细节描述,中层属性关注于衣物、发型、配饰以及携带物等既包含语义信息又包含表观信息的属性描述,高层属性关注于性别、年龄等抽象语义描述;
S1.2)在GoogLeNet中选取Inception4a/output、Inception4d/output和Inception5b/output三层的特征图用于三个不同层次的属性识别任务;
S1.3)通过将低层以及中层属性的识别概率分数连接起来得到在进行高层属性识别时的先验概率,然后将其作为全连接层的输入,全连接层的输出为以此为先验的情况下得到的高层属性识别的后验概率。
S2)如图1,根据行人属性的位置约束对网络结构进行改进,引入注意力机制,分别从空间域和通道域两个维度来学习注意力权重,使网络更加关注特定的身体部位:
S2.1)如图3,对行人属性数据集中的标注属性进行分类,将所有的属性分为全局属性和局部属性,其中局部属性又分为头部、上身、腰间、下身以及脚部五个区域部位相关的属性;
S2.2)网络的低层特征包含有更多的颜色、纹理等细节信息,特征图的通道数量较少且空间分辨率较高,所以引入空间注意力机制对特征图进行重标定,进而实现对不同位置约束下的低层属性的实现;
S2.3)高层特征具有更高的抽象级别和可判别性,特征图的通道数量较多且空间分辨率较低,所以引入通道注意力机制对特征图进行重标定,进而实现对不同位置约束下的高层属性的识别;
S2.4)由于中层属性的识别既依赖于表观细节信息又依赖于抽象语义信息,介于低层属性和高层属性之间,所以引入双重注意力机制学习注意力权重,进而实现对不同位置约束下的中层属性的识别。
S3)选用加权交叉熵损失函数,以各个属性的正样本比例作为权重系数:
Figure BDA0002384585190000061
其中,y和
Figure BDA0002384585190000071
分别代表真实的和预测的属性分类结果,c代表属性编号,wc代表属性c在训练集中正样本所占的比例,σ()为Sigmoid激活函数,log()为对数函数。
S4)把训练集输入改进后的卷积神经网络,得出行人属性识别模型:
S4.1)采用以初始学习率为0.001、指数式衰减学习率的随机梯度下降优化器和256的数据批次大小进行迭代训练;
S4.2)将输入图像的大小统一调整为224×224,然后应用随机旋转,随机调整大小和随机水平翻转等步骤进行图像增强方式来构建一个数据批次;
S4.3)设置最大迭代次数,在最大迭代次数下,不断迭代学习,直到损失函数值不再下降,行人属性识别模型收敛,保存行人外观属性识别模型参数;
S4.4)完成训练,得到最终的行人外观属性识别模型。
以上公开的仅为本发明的具体实施例。在不脱离本发明的权利要求范围的前提下,本领域的技术人员,根据本发明提供的基本技术构思,能够进行各种相应的变化、修正。

Claims (3)

1.监控场景下高层语义指导的行人属性识别方法,其特征在于包括以下步骤:
S1)根据行人属性的层次特性以及不同层次属性间的关系对网络结构进行改进,分层次进行属性识别并引入全连接层来学习不同层次属性间的关系;
S2)根据行人属性的位置约束对网络结构进行改进,引入注意力机制,分别从空间域和通道域两个维度来学习注意力权重,使网络更加关注特定的身体部位;
S3)选用加权交叉熵损失函数,以各个属性的正样本比例作为权重系数;
S4)把训练集输入改进后的卷积神经网络,得出行人属性识别模型;
S5)将测试集输入到行人属性识别模型中进行识别,对行人属性识别模型的实验结果进行评估,
其中:
所述步骤S1)包括:
S1.1)按照行人属性所处的语义抽象级别将行人属性分为低层属性、中层属性和高层属性,其中,低层属性关注于包括颜色、纹理的表观细节描述,中层属性关注于包括衣物、发型、配饰以及携带物的既包含语义信息又包含表观信息的属性描述,高层属性关注于包括性别、年龄的抽象语义描述;
S1.2)在GoogLeNet中选取Inception4a/output、Inception4d/output和Inception5b/output三层的特征图用于三个不同层次的属性识别任务;
S1.3)通过将低层以及中层属性的识别概率分数连接起来得到在进行高层属性识别时的先验概率,然后将其作为全连接层的输入,全连接层的输出为以此为先验的情况下得到的高层属性识别的后验概率,
所述步骤S2)包括:
S2.1)对行人属性数据集中的标注属性进行分类,将所有的属性分为全局属性和局部属性,其中局部属性又分为头部、上身、腰间、下身以及脚部五个区域部位相关的属性;
S2.2)网络的低层特征包含有更多的包括颜色、纹理的细节信息,特征图的通道数量较少且空间分辨率较高,所以引入空间注意力机制对特征图进行重标定,进而实现对不同位置约束下的低层属性的实现;
S2.3)高层特征具有更高的抽象级别和可判别性,特征图的通道数量较多且空间分辨率较低,所以引入通道注意力机制对特征图进行重标定,进而实现对不同位置约束下的高层属性的识别;
S2.4)由于中层属性的识别既依赖于表观细节信息又依赖于抽象语义信息,介于低层属性和高层属性之间,所以引入双重注意力机制学习注意力权重,进而实现对不同位置约束下的中层属性的识别。
2.根据权利要求1所述的监控场景下高层语义指导的行人属性识别方法,其特征在于:
所述步骤S3)中的损失函数为:
Figure FDA0003789911060000021
其中,y和
Figure FDA0003789911060000022
分别代表真实的和预测的属性分类结果,c代表属性编号,wc代表属性c在训练集中正样本所占的比例,σ()为Sigmoid激活函数,log()为对数函数。
3.根据权利要求1所述的监控场景下高层语义指导的行人属性识别方法,其特征在于:所述步骤S4)包括以下具体步骤:
S4.1)采用以初始学习率为0.001、指数式衰减学习率的随机梯度下降优化器和256的数据批次大小进行迭代训练;
S4.2)将输入图像的大小统一调整为224×224,然后应用包括随机旋转、随机调整大小和随机水平翻转的步骤进行图像增强方式来构建一个数据批次;
S4.3)设置最大迭代次数,在最大迭代次数下,不断迭代学习,直到损失函数值不再下降,行人属性识别模型收敛,保存行人外观属性识别模型参数;
S4.4)完成训练,得到最终的行人外观属性识别模型。
CN202010093801.2A 2020-02-14 2020-02-14 监控场景下高层语义指导的行人属性识别方法 Active CN111401132B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010093801.2A CN111401132B (zh) 2020-02-14 2020-02-14 监控场景下高层语义指导的行人属性识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010093801.2A CN111401132B (zh) 2020-02-14 2020-02-14 监控场景下高层语义指导的行人属性识别方法

Publications (2)

Publication Number Publication Date
CN111401132A CN111401132A (zh) 2020-07-10
CN111401132B true CN111401132B (zh) 2022-11-08

Family

ID=71428426

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010093801.2A Active CN111401132B (zh) 2020-02-14 2020-02-14 监控场景下高层语义指导的行人属性识别方法

Country Status (1)

Country Link
CN (1) CN111401132B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112733602B (zh) * 2020-12-07 2022-08-05 北京航空航天大学 关系引导的行人属性识别方法
CN112699759A (zh) * 2020-12-24 2021-04-23 深圳数联天下智能科技有限公司 一种训练性别识别模型的方法及相关装置
CN112434683A (zh) * 2021-01-27 2021-03-02 中国科学院自动化研究所 基于注意力机制的行人属性识别方法、系统、装置
CN112883880B (zh) * 2021-02-25 2022-08-19 电子科技大学 基于人体结构多尺度分割的行人属性识别方法、存储介质和终端
CN112560831B (zh) * 2021-03-01 2021-05-04 四川大学 一种基于多尺度空间校正的行人属性识别方法
CN113361336B (zh) * 2021-05-19 2024-03-29 浙江工业大学 基于注意力机制的视频监控场景下行人视图属性的定位与识别方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107862300A (zh) * 2017-11-29 2018-03-30 东华大学 一种基于卷积神经网络的监控场景下行人属性识别方法
CN109784197B (zh) * 2018-12-21 2022-06-07 西北工业大学 基于孔洞卷积与注意力学习机制的行人再识别方法
CN110457984A (zh) * 2019-05-21 2019-11-15 电子科技大学 监控场景下基于ResNet-50的行人属性识别方法

Also Published As

Publication number Publication date
CN111401132A (zh) 2020-07-10

Similar Documents

Publication Publication Date Title
CN111401132B (zh) 监控场景下高层语义指导的行人属性识别方法
Zheng et al. Improving visual reasoning through semantic representation
US20200285896A1 (en) Method for person re-identification based on deep model with multi-loss fusion training strategy
Wan et al. Automated colorization of a grayscale image with seed points propagation
CN106951867B (zh) 基于卷积神经网络的人脸识别方法、装置、系统及设备
Xie et al. Multilevel cloud detection in remote sensing images based on deep learning
Bai et al. Edge-guided recurrent convolutional neural network for multitemporal remote sensing image building change detection
Yu et al. Context-based hierarchical unequal merging for SAR image segmentation
Zhai et al. BeautyNet: Joint multiscale CNN and transfer learning method for unconstrained facial beauty prediction
CN103514443B (zh) 一种基于lpp特征提取的单样本人脸识别迁移学习方法
CN111666843A (zh) 一种基于全局特征和局部特征拼接的行人重识别方法
Chen et al. RNON: image inpainting via repair network and optimization network
CN106909938B (zh) 基于深度学习网络的视角无关性行为识别方法
CN107133569A (zh) 基于泛化多标记学习的监控视频多粒度标注方法
CN109903339B (zh) 一种基于多维融合特征的视频群体人物定位检测方法
CN108596243A (zh) 基于分级注视图和条件随机场的眼动注视图预测方法
CN105809119A (zh) 一种基于稀疏低秩结构多任务学习的行为识别方法
CN111507416B (zh) 一种基于深度学习的吸烟行为实时检测方法
Prasanna et al. RETRACTED ARTICLE: An effiecient human tracking system using Haar-like and hog feature extraction
Luo et al. Infrared and visible image fusion based on Multi-State contextual hidden Markov Model
Zhang et al. Semisupervised center loss for remote sensing image scene classification
CN110287798A (zh) 基于特征模块化和上下文融合的矢量网络行人检测方法
CN116824485A (zh) 一种基于深度学习的开放场景伪装人员小目标检测方法
Huang et al. Football players’ shooting posture norm based on deep learning in sports event video
Ma et al. Multisource data fusion for the detection of settlements without electricity

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant