CN107862300A - 一种基于卷积神经网络的监控场景下行人属性识别方法 - Google Patents
一种基于卷积神经网络的监控场景下行人属性识别方法 Download PDFInfo
- Publication number
- CN107862300A CN107862300A CN201711226381.5A CN201711226381A CN107862300A CN 107862300 A CN107862300 A CN 107862300A CN 201711226381 A CN201711226381 A CN 201711226381A CN 107862300 A CN107862300 A CN 107862300A
- Authority
- CN
- China
- Prior art keywords
- pedestrian
- attribute
- neural networks
- convolutional neural
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/53—Recognition of crowd images, e.g. recognition of crowd congestion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Abstract
本发明涉及一种基于卷积神经网络的监控场景下行人属性识别方法,包括以下步骤:获取含有行人的监控视频,并截取视频帧,构建监控场景下的行人数据集;通过改进AlexNet卷积神经网络模型,构建新的卷积神经网络模型;把所述行人数据集输入到所述新的卷积神经网络模型中进行训练,得到行人属性识别模型;利用所述行人属性识别模型完成识别。本发明识别精度高,操作简单、速度快。
Description
技术领域
本发明涉及模式识别技术领域,特别是涉及一种基于卷积神经网络的监控场景下行人属性识别方法。
背景技术
行人视觉属性识别,由于它的高层的语义信息,可以建立人的底层特征和高层认知的联系。因此在计算机视觉领域是一个很热门的研究方向。并且在很多的领域也取得了成功。比如:图片检索、目标检测、人脸识别。近些年,随着平安城市的概念的提出,数以万计的监控摄像头装在了城市的各个角落,保护着人们的安全。因此,监控场景下的行人视觉属性的识别具有重要的研究价值,并且它也在智能视频监控和智能商业视频有很大的市场前景。
当前大多数的行人属性识别研究主要在两个应用场景:自然场景和监控场景。自然场景下的属性识别研究较多,在目标识别、人脸识别等研究方向上也取得了很好的成绩。例如,自然场景下的属性识别的研究最早是Ferriari(Ferrari V,Zisserman A.LearningVisual Attributes.[J].Advances in Neural Information Processing Systems,2007:433-440)。在他的论文中,提出了概率生成模型去学习低层次的视觉属性,比如:条纹和斑点。Zhang(Zhang N,Paluri M,Ranzato M,et al.PANDA:Pose Aligned Networks forDeep Attribute Modeling[C]//ComputerVision and Pattern Recognition.IEEE,2014:1637-1644.)提出了姿态对齐神经网络,没有约束的场景下,对图片进行像年龄、性别和表情这些属性的识别。在自然场景下用于行人属性识别研究的样本图片的分辨率都很高。然而监控场景下的行人样本的图片分辨率较低,并且很模糊。像行人戴眼镜这样的细粒度的属性是很难识别出来的。主要是在真实的监控场景中,是远距离拍摄行人的,很少能拍摄的到近距离的清晰的人脸和身体。监控场景下的远距离拍摄也容易受到一些不可控的因素的影响。比如,光照强度的变化(例如白天和夜晚,室内和室外),监控摄像头不同的拍摄角度行人姿态的不同的变化,现实环境中物体的遮挡等等。因此,使用远距离拍摄的脸部或者行人身体的视觉信息来进行属性识别,这对监控场景下的行人属性识别的研究工作带来挑战。
由于上述的种种问题,国内外对于监控场景下的行人属性识别的研究工作还是比较少。Layne(Layne R,Hospedales T M,Gong S.Person Re-identification byAttributes[C]//BMVC.2012.)是第一个通过使用支持向量机(SVM)去识别像背包、性别这样的行人属性,然后通过这些行人属性信息来辅助行人的重识别。为了解决混合场景下的属性识别问题,Zhu(Zhu J,Liao S,Lei Z,et al.Pedestrian Attribute Classificationin Surveillance:Database and Evaluation[C]//IEEE International Conference onComputer Vision Workshops.IEEE,2013:331-338.)引入了APis数据库,并用Boosting算法去识别属性。Deng(Deng Y,Luo P,Chen C L,et al.Pedestrian AttributeRecognition At Far Distance[C]//ACM International Conference onMultimedia.ACM,2014:789-792.)构建了最大的行人属性数据库,在这个数据集的基础上使用支持向量机和马尔科夫随机场去识别属性。然而这些方法,都是使用人工提取行人特征。而人工提取特征需要依赖人的经验。经验的好坏决定了属性特征识别的精确度。另外,这些方法也忽略了属性特征之间的关联。例如,长头发这个属性特征是女性的可能性一定是高于男性的。所以头发的长度有助于提高行人的性别的属性的识别精度。
发明内容
本发明所要解决的技术问题是提供一种基于卷积神经网络的监控场景下行人属性识别方法,使得识别精度高,操作简单、速度快。
本发明解决其技术问题所采用的技术方案是:提供一种基于卷积神经网络的监控场景下行人属性识别方法,包括以下步骤:
(1)获取含有行人的监控视频,并截取视频帧,构建监控场景下的行人数据集;
(2)通过改进AlexNet卷积神经网络模型,构建新的卷积神经网络模型;
(3)把所述行人数据集输入到所述新的卷积神经网络模型中进行训练,得到行人属性识别模型;
(4)利用所述行人属性识别模型完成识别。
所述步骤(1)包括以下子步骤:
(11)将截取的视频帧按照规定的图片命名方式进行命名,并把全部的图片缩放到统一大小,得到图片文件;
(12)对所有的图片文件进行标注:每一张行人图片上的行人属性都是二进制属性,如果有行人属性,则标签值为1;如果没有行人属性,则标签值为0;
(13)按照广泛采取的实验数据集划分原则,随机的把所述图片文件分为三部分:分别为训练集、验证集和测试集,其中,训练集占总图片文件的50%,验证集占总图片文件的10%,测试集占总图片文件的40%;
(14)根据图片文件的划分构建行人数据集,其中行人数据集包括两部分:一部分为用于模型训练的训练数据,另一部分为用于检验模型训练效果的测试数据。
所述步骤(2)中的AlexNet模型总共有八层,包括5个卷积层和3个全连接层;所述卷积层用于自动提取特征,所述全连接层用于连接所有的特征,并将输出值输入给softmax分类,所述全连接层输出的节点数对应行人属性的类别;所述AlexNet模型的损失函数为其中,N表示图片文件中的数量,L为图片文件中的行人属性的数量,每张行人图片表示为xi,i∈[1,2,...N],每张图片xi对应的行人属性标签向量为yi,每个标签向量yi对应的属性值为yil,yil∈[0,1],l∈[1,2,...,L],如果yil=1表明这个训练样本xi有这个属性;如果yil=0表明这个训练样本xi没有这个属性;表示是行人样本xi的第l个属性的概率。yil是真实属性标签,表示行人样本xi有没有第l个属性。
所述步骤(3)具体包括以下子步骤:
(31)训练之前搭建Caffe环境,然后编译Caffe;
(32)设置模型的学习率和权重衰减,然后在设置的最大迭代学习次数下,不断迭代学习,直至损失函数的损失值最小,模型收敛,保存模型参数;
(33)完成训练得到行人属性识别模型。
有益效果
由于采用了上述的技术方案,本发明与现有技术相比,具有以下的优点和积极效果:本发明采用卷积神经网络的方法,体现出了更好的识别率。将传统的识别方法中的人工提取特征和分类器分类,这两个步骤都统一到了卷积神经网络当中。极大方便了实验的进行。另外,通过重新定义损失函数,考虑行人属性之间的联系。极大地提高了行人属性识别精度。
附图说明
图1是本发明的流程图。
具体实施方式
下面结合具体实施例,进一步阐述本发明。应理解,这些实施例仅用于说明本发明而不用于限制本发明的范围。此外应理解,在阅读了本发明讲授的内容之后,本领域技术人员可以对本发明作各种改动或修改,这些等价形式同样落于本申请所附权利要求书所限定的范围。
如图1所示,本发明所述的一种基于卷积神经网络的监控场景下的行人属性识别方法,包括如下的步骤:
步骤1:读取含有行人的监控视频,截取视频帧,构建监控场景下的行人数据集。具体包括以下子步骤:
步骤1.1:首先将截取的视频帧图片,按照规定的图片命名方式进行命名。并把全部的图片缩放到宽为256,高为256。得到图片文件。
步骤1.2:对上述的所有的图片进行标注。每一张行人图片上的行人属性都是二进制属性。如果有这个属性,标签值就是1。如果没有这个属性,标签值就是0。所有的属性标签值都存储在标签文本文件中。另外,标签文本文件中的内容是每一行是步骤1.1中的图片的图片名,然后空格,后面是该张图片对应的行人属性向量。得到标签文本文件。
步骤1.3:按照广泛采取的实验数据集划分原则,随机的把步骤1.1中的图片文件分为三部分:训练集、验证集、测试集。并且训练集占总的50%,验证集占总的10%,测试集占总的40%。
步骤1.4:根据1.3中的设置,然后就构建了行人数据集。包括两部分:用于模型训练的训练数据和用于检验模型训练效果的测试数据。
步骤2:通过改进AlexNet卷积神经网络模型,构建新的卷积神经网络模型。
AlexNet模型在2012年中大规模视觉识别挑战中,图片识别能力十分出色。模型总共有八层。包括5个卷积层和3个全连接层。卷积层的作用是自动提取特征,全连接层的作用连接所有的特征,将输出值输入给softmax分类。但该模型的损失函数只适合一张行人图片和一个行人属性标签这种情况。
根据上述的情况,重新定义了该模型的损失函数,公式为其中,假设行人样本中有N张图片,每张图片标注了L个行人属性。比如性别、头发长度、年龄等。每张行人图片可以表示xi,i∈[1,2,...N]。每张图片xi对应的行人属性标签向量为yi。每个标签向量yi对应的属性值为yil,yil∈[0,1],l∈[1,2,...,L]。如果yil=1表明这个训练样本xi有这个属性;如果yil=0表明这个训练样本xi没有这个属性。表示是行人样本xi的第l个属性的概率。yil是真实属性标签,表示行人样本xi有没有第l个属性。
步骤3:把步骤1中的行人数据集输入到步骤2中改进的卷积神经网络模型中进行训练,得到行人属性识别模型。具体为:
步骤3.1:卷积神经网络模型训练采取的是Caffe框架。Caffe是开源的深度学习框架,支持matlab、命令行、python三种接口。训练之前,需要搭建Caffe环境,然后编译Caffe。
步骤3.2:在上一步编译好Caffe的条件下,设置模型的学习率和权重衰减。然后在设置的最大迭代学习次数下,不断迭代学习,直至损失函数的损失值最小,模型收敛,保存模型参数。
步骤3.3:在上一步的情况下,在Linux操作系统和显存至少4G的软硬件配置下训练,得到行人属性识别模型。
步骤4:根据得到的行人属性识别模型完成识别。
不难发现,本发明采用卷积神经网络的方法,体现出了更好的识别率。将传统的识别方法中的人工提取特征和分类器分类,这两个步骤都统一到了卷积神经网络当中。极大方便了实验的进行。另外,通过重新定义损失函数,考虑行人属性之间的联系。极大地提高了行人属性识别精度。
Claims (4)
1.一种基于卷积神经网络的监控场景下行人属性识别方法,其特征在于,包括以下步骤:
(1)获取含有行人的监控视频,并截取视频帧,构建监控场景下的行人数据集;
(2)通过改进AlexNet卷积神经网络模型,构建新的卷积神经网络模型;
(3)把所述行人数据集输入到所述新的卷积神经网络模型中进行训练,得到行人属性识别模型;
(4)利用所述行人属性识别模型完成识别。
2.根据权利要求1所述的基于卷积神经网络的监控场景下行人属性识别方法,其特征在于,所述步骤(1)包括以下子步骤:
(11)将截取的视频帧按照规定的图片命名方式进行命名,并把全部的图片缩放到统一大小,得到图片文件;
(12)对所有的图片文件进行标注:每一张行人图片上的行人属性都是二进制属性,如果有行人属性,则标签值为1;如果没有行人属性,则标签值为0;
(13)按照广泛采取的实验数据集划分原则,随机的把所述图片文件分为三部分:分别为训练集、验证集和测试集,其中,训练集占总图片文件的50%,验证集占总图片文件的10%,测试集占总图片文件的40%;
(14)根据图片文件的划分构建行人数据集,其中行人数据集包括两部分:一部分为用于模型训练的训练数据,另一部分为用于检验模型训练效果的测试数据。
3.根据权利要求1所述的基于卷积神经网络的监控场景下行人属性识别方法,其特征在于,所述步骤(2)中的AlexNet模型总共有八层,包括5个卷积层和3个全连接层;所述卷积层用于自动提取特征,所述全连接层用于连接所有的特征,并将输出值输入给softmax分类,所述全连接层输出的节点数对应行人属性的类别;所述AlexNet模型的损失函数为其中,N表示图片文件中的数量,L为图片文件中的行人属性的数量,每张行人图片表示为xi,i∈[1,2,...N],每张图片xi对应的行人属性标签向量为yi,每个标签向量yi对应的属性值为yil,yil∈[0,1],l∈[1,2,...,L],如果yil=1表明这个训练样本xi有这个属性;如果yil=0表明这个训练样本xi没有这个属性;表示是行人样本xi的第l个属性的概率。yil是真实属性标签,表示行人样本xi有没有第l个属性。
4.根据权利要求1所述的基于卷积神经网络的监控场景下行人属性识别方法,其特征在于,所述步骤(3)具体包括以下子步骤:
(31)训练之前搭建Caffe环境,然后编译Caffe;
(32)设置模型的学习率和权重衰减,然后在设置的最大迭代学习次数下,不断迭代学习,直至损失函数的损失值最小,模型收敛,保存模型参数;
(33)完成训练得到行人属性识别模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711226381.5A CN107862300A (zh) | 2017-11-29 | 2017-11-29 | 一种基于卷积神经网络的监控场景下行人属性识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711226381.5A CN107862300A (zh) | 2017-11-29 | 2017-11-29 | 一种基于卷积神经网络的监控场景下行人属性识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107862300A true CN107862300A (zh) | 2018-03-30 |
Family
ID=61704455
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711226381.5A Pending CN107862300A (zh) | 2017-11-29 | 2017-11-29 | 一种基于卷积神经网络的监控场景下行人属性识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107862300A (zh) |
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108549910A (zh) * | 2018-04-17 | 2018-09-18 | 中国农业大学 | 一种基于卷积神经网络的玉米制种果穗图像初级分类方法 |
CN108629773A (zh) * | 2018-05-10 | 2018-10-09 | 北京红云智胜科技有限公司 | 建立训练识别心脏血管类型的卷积神经网络数据集的方法 |
CN108764308A (zh) * | 2018-05-16 | 2018-11-06 | 中国人民解放军陆军工程大学 | 一种基于卷积循环网络的行人重识别方法 |
CN109117823A (zh) * | 2018-08-31 | 2019-01-01 | 常州大学 | 一种基于多层神经网络的跨场景行人重识别的方法 |
CN109359515A (zh) * | 2018-08-30 | 2019-02-19 | 东软集团股份有限公司 | 一种用于对目标对象的属性特征进行识别的方法及装置 |
CN109522855A (zh) * | 2018-11-23 | 2019-03-26 | 广州广电银通金融电子科技有限公司 | 结合ResNet和SENet的低分辨率行人检测方法、系统及存储介质 |
CN109598186A (zh) * | 2018-10-12 | 2019-04-09 | 高新兴科技集团股份有限公司 | 一种基于多任务深度学习的行人属性识别方法 |
CN109635853A (zh) * | 2018-11-26 | 2019-04-16 | 深圳市玛尔仕文化科技有限公司 | 基于计算机图形技术自动生成人工智能训练样本的方法 |
CN109685718A (zh) * | 2018-12-17 | 2019-04-26 | 中国科学院自动化研究所 | 图片方形化缩放方法、系统及装置 |
CN109711267A (zh) * | 2018-12-03 | 2019-05-03 | 浙江大华技术股份有限公司 | 一种行人重识别、行人运动轨迹生成方法及装置 |
CN109711343A (zh) * | 2018-12-27 | 2019-05-03 | 北京思图场景数据科技服务有限公司 | 基于表情、姿态识别和眼神追踪的行为结构化方法 |
CN109711386A (zh) * | 2019-01-10 | 2019-05-03 | 北京达佳互联信息技术有限公司 | 获取识别模型的方法、装置、电子设备及存储介质 |
CN109740480A (zh) * | 2018-12-26 | 2019-05-10 | 浙江捷尚视觉科技股份有限公司 | 一种监控场景下的基于非机动车再识别的行人检索方法 |
CN109766848A (zh) * | 2019-01-15 | 2019-05-17 | 四川大学 | 一种基于监控视频的行人视力状况调查分析方法 |
CN109815902A (zh) * | 2019-01-24 | 2019-05-28 | 北京邮电大学 | 一种行人属性区域信息获取方法、装置及设备 |
CN109886154A (zh) * | 2019-01-30 | 2019-06-14 | 电子科技大学 | 基于Inception V3的多数据集联合训练的行人外观属性识别方法 |
CN110287856A (zh) * | 2019-06-21 | 2019-09-27 | 上海闪马智能科技有限公司 | 一种执勤人员行为分析系统、方法及装置 |
CN110414432A (zh) * | 2019-07-29 | 2019-11-05 | 腾讯科技(深圳)有限公司 | 对象识别模型的训练方法、对象识别方法及相应的装置 |
CN110457984A (zh) * | 2019-05-21 | 2019-11-15 | 电子科技大学 | 监控场景下基于ResNet-50的行人属性识别方法 |
CN110472611A (zh) * | 2019-08-21 | 2019-11-19 | 图谱未来(南京)人工智能研究院有限公司 | 人物属性识别的方法、装置、电子设备及可读存储介质 |
CN110516512A (zh) * | 2018-05-21 | 2019-11-29 | 北京中科奥森数据科技有限公司 | 行人属性分析模型的训练方法、行人属性识别方法及装置 |
CN111126310A (zh) * | 2019-12-26 | 2020-05-08 | 华侨大学 | 一种基于场景迁移的行人性别识别方法 |
CN111291599A (zh) * | 2018-12-07 | 2020-06-16 | 杭州海康威视数字技术股份有限公司 | 一种图像处理方法和装置 |
CN111401132A (zh) * | 2020-02-14 | 2020-07-10 | 北京航空航天大学 | 监控场景下高层语义指导的行人属性识别方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104992142A (zh) * | 2015-06-03 | 2015-10-21 | 江苏大学 | 一种基于深度学习和属性学习相结合的行人识别方法 |
CN106375448A (zh) * | 2016-09-05 | 2017-02-01 | 腾讯科技(深圳)有限公司 | 图像处理方法和装置及系统 |
CN107066953A (zh) * | 2017-03-22 | 2017-08-18 | 北京邮电大学 | 一种面向监控视频的车型识别、跟踪及矫正方法和装置 |
-
2017
- 2017-11-29 CN CN201711226381.5A patent/CN107862300A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104992142A (zh) * | 2015-06-03 | 2015-10-21 | 江苏大学 | 一种基于深度学习和属性学习相结合的行人识别方法 |
CN106375448A (zh) * | 2016-09-05 | 2017-02-01 | 腾讯科技(深圳)有限公司 | 图像处理方法和装置及系统 |
CN107066953A (zh) * | 2017-03-22 | 2017-08-18 | 北京邮电大学 | 一种面向监控视频的车型识别、跟踪及矫正方法和装置 |
Non-Patent Citations (2)
Title |
---|
ALEX KRIZHEVSKY 等: "ImageNet Classification with Deep Convolutional Neural Networks", 《NIPS"12: PROCEEDINGS OF THE 25TH INTERNATIONAL CONFERENCE ON NEURAL INFORMATION PROCESSING SYSTEMS》 * |
D.LI 等: "Multi-attribute learning for pedestrian attribute recognition in surveillance scenarios", 《2015 3RD IAPR ASIAN CONFERENCE ON PATTERN RECOGNITION (ACPR)》 * |
Cited By (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108549910A (zh) * | 2018-04-17 | 2018-09-18 | 中国农业大学 | 一种基于卷积神经网络的玉米制种果穗图像初级分类方法 |
CN108629773A (zh) * | 2018-05-10 | 2018-10-09 | 北京红云智胜科技有限公司 | 建立训练识别心脏血管类型的卷积神经网络数据集的方法 |
CN108629773B (zh) * | 2018-05-10 | 2021-06-18 | 北京红云智胜科技有限公司 | 建立训练识别心脏血管类型的卷积神经网络数据集的方法 |
CN108764308A (zh) * | 2018-05-16 | 2018-11-06 | 中国人民解放军陆军工程大学 | 一种基于卷积循环网络的行人重识别方法 |
CN108764308B (zh) * | 2018-05-16 | 2021-09-14 | 中国人民解放军陆军工程大学 | 一种基于卷积循环网络的行人重识别方法 |
CN110516512B (zh) * | 2018-05-21 | 2023-08-25 | 北京中科奥森数据科技有限公司 | 行人属性分析模型的训练方法、行人属性识别方法及装置 |
CN110516512A (zh) * | 2018-05-21 | 2019-11-29 | 北京中科奥森数据科技有限公司 | 行人属性分析模型的训练方法、行人属性识别方法及装置 |
CN109359515A (zh) * | 2018-08-30 | 2019-02-19 | 东软集团股份有限公司 | 一种用于对目标对象的属性特征进行识别的方法及装置 |
CN109117823A (zh) * | 2018-08-31 | 2019-01-01 | 常州大学 | 一种基于多层神经网络的跨场景行人重识别的方法 |
CN109598186A (zh) * | 2018-10-12 | 2019-04-09 | 高新兴科技集团股份有限公司 | 一种基于多任务深度学习的行人属性识别方法 |
CN109522855A (zh) * | 2018-11-23 | 2019-03-26 | 广州广电银通金融电子科技有限公司 | 结合ResNet和SENet的低分辨率行人检测方法、系统及存储介质 |
CN109522855B (zh) * | 2018-11-23 | 2020-07-14 | 广州广电银通金融电子科技有限公司 | 结合ResNet和SENet的低分辨率行人检测方法、系统及存储介质 |
CN109635853A (zh) * | 2018-11-26 | 2019-04-16 | 深圳市玛尔仕文化科技有限公司 | 基于计算机图形技术自动生成人工智能训练样本的方法 |
CN109711267A (zh) * | 2018-12-03 | 2019-05-03 | 浙江大华技术股份有限公司 | 一种行人重识别、行人运动轨迹生成方法及装置 |
CN111291599A (zh) * | 2018-12-07 | 2020-06-16 | 杭州海康威视数字技术股份有限公司 | 一种图像处理方法和装置 |
CN109685718A (zh) * | 2018-12-17 | 2019-04-26 | 中国科学院自动化研究所 | 图片方形化缩放方法、系统及装置 |
CN109740480A (zh) * | 2018-12-26 | 2019-05-10 | 浙江捷尚视觉科技股份有限公司 | 一种监控场景下的基于非机动车再识别的行人检索方法 |
CN109711343A (zh) * | 2018-12-27 | 2019-05-03 | 北京思图场景数据科技服务有限公司 | 基于表情、姿态识别和眼神追踪的行为结构化方法 |
CN109711386A (zh) * | 2019-01-10 | 2019-05-03 | 北京达佳互联信息技术有限公司 | 获取识别模型的方法、装置、电子设备及存储介质 |
CN109766848B (zh) * | 2019-01-15 | 2022-05-03 | 四川大学 | 一种基于监控视频的行人视力状况调查分析方法 |
CN109766848A (zh) * | 2019-01-15 | 2019-05-17 | 四川大学 | 一种基于监控视频的行人视力状况调查分析方法 |
CN109815902A (zh) * | 2019-01-24 | 2019-05-28 | 北京邮电大学 | 一种行人属性区域信息获取方法、装置及设备 |
CN109815902B (zh) * | 2019-01-24 | 2021-04-27 | 北京邮电大学 | 一种行人属性区域信息获取方法、装置及设备 |
CN109886154A (zh) * | 2019-01-30 | 2019-06-14 | 电子科技大学 | 基于Inception V3的多数据集联合训练的行人外观属性识别方法 |
CN110457984A (zh) * | 2019-05-21 | 2019-11-15 | 电子科技大学 | 监控场景下基于ResNet-50的行人属性识别方法 |
CN110287856A (zh) * | 2019-06-21 | 2019-09-27 | 上海闪马智能科技有限公司 | 一种执勤人员行为分析系统、方法及装置 |
CN110414432B (zh) * | 2019-07-29 | 2023-05-16 | 腾讯科技(深圳)有限公司 | 对象识别模型的训练方法、对象识别方法及相应的装置 |
CN110414432A (zh) * | 2019-07-29 | 2019-11-05 | 腾讯科技(深圳)有限公司 | 对象识别模型的训练方法、对象识别方法及相应的装置 |
CN110472611A (zh) * | 2019-08-21 | 2019-11-19 | 图谱未来(南京)人工智能研究院有限公司 | 人物属性识别的方法、装置、电子设备及可读存储介质 |
CN111126310A (zh) * | 2019-12-26 | 2020-05-08 | 华侨大学 | 一种基于场景迁移的行人性别识别方法 |
CN111126310B (zh) * | 2019-12-26 | 2023-03-24 | 华侨大学 | 一种基于场景迁移的行人性别识别方法 |
CN111401132A (zh) * | 2020-02-14 | 2020-07-10 | 北京航空航天大学 | 监控场景下高层语义指导的行人属性识别方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107862300A (zh) | 一种基于卷积神经网络的监控场景下行人属性识别方法 | |
CN109919031B (zh) | 一种基于深度神经网络的人体行为识别方法 | |
CN106295568B (zh) | 基于表情和行为双模态结合的人类自然状态情感识别方法 | |
CN110135249B (zh) | 基于时间注意力机制和lstm的人体行为识别方法 | |
CN106778464A (zh) | 一种基于深度学习的行人重识别方法和装置 | |
CN112132197A (zh) | 模型训练、图像处理方法、装置、计算机设备和存储介质 | |
Rao et al. | Sign Language Recognition System Simulated for Video Captured with Smart Phone Front Camera. | |
CN110334607B (zh) | 一种视频人体交互行为识别方法及系统 | |
CN111046732A (zh) | 一种基于多粒度语义解析的行人重识别方法及存储介质 | |
CN110633624A (zh) | 一种基于多特征融合的机器视觉人体异常行为识别方法 | |
CN104966052A (zh) | 基于属性特征表示的群体行为识别方法 | |
CN109145754A (zh) | 融合面部表情及肢体动作三维特征的情绪识别方法 | |
CN110335299A (zh) | 一种基于对抗网络的单目深度估计系统实现方法 | |
Zhang et al. | Fall detection in videos with trajectory-weighted deep-convolutional rank-pooling descriptor | |
CN104820711A (zh) | 复杂场景下对人形目标的视频检索方法 | |
CN103544478A (zh) | 一种全方位人脸检测的方法及系统 | |
Dewan et al. | Spatio-temporal Laban features for dance style recognition | |
CN111611869B (zh) | 一种基于串行深度神经网络的端到端单目视觉避障方法 | |
CN112906520A (zh) | 一种基于姿态编码的动作识别方法及装置 | |
CN110348395B (zh) | 一种基于时空关系的骨架行为识别方法 | |
Abdul-Ameer et al. | Development smart eyeglasses for visually impaired people based on you only look once | |
WO2023185074A1 (zh) | 一种基于互补时空信息建模的群体行为识别方法 | |
CN115830635A (zh) | 一种基于关键点检测和目标识别的pvc手套识别方法 | |
CN109460485A (zh) | 一种图像库建立方法、装置和存储介质 | |
Liu et al. | Dance movement recognition technology based on multifeature information fusion |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180330 |
|
RJ01 | Rejection of invention patent application after publication |