CN108921054A - 一种基于语义分割的行人多属性识别方法 - Google Patents

一种基于语义分割的行人多属性识别方法 Download PDF

Info

Publication number
CN108921054A
CN108921054A CN201810621599.9A CN201810621599A CN108921054A CN 108921054 A CN108921054 A CN 108921054A CN 201810621599 A CN201810621599 A CN 201810621599A CN 108921054 A CN108921054 A CN 108921054A
Authority
CN
China
Prior art keywords
attribute
pedestrian
color
indicate
branch
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810621599.9A
Other languages
English (en)
Other versions
CN108921054B (zh
Inventor
凌贺飞
陆竭
李平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huazhong University of Science and Technology
Original Assignee
Huazhong University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huazhong University of Science and Technology filed Critical Huazhong University of Science and Technology
Priority to CN201810621599.9A priority Critical patent/CN108921054B/zh
Publication of CN108921054A publication Critical patent/CN108921054A/zh
Application granted granted Critical
Publication of CN108921054B publication Critical patent/CN108921054B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开一种基于语义分割的行人多属性识别方法,本发明方法在线下训练阶段,首先选择比较普遍的行人属性,在行人属性数据集上训练行人多属性识别模型。该模型有三条输出分支,其中两条分支采用语义分割结合特征融合策略分别输出颜色属性和类型属性。第三条分支输出性别属性。综合模型的三条分支输出得到行人多属性。在线上查询阶段,用行人多属性识别模型对行人图像库提取属性,然后就可以通过属性查询库中有该属性的行人图像。本发明方法在行人多属性识别方面取得了很好的准确率。

Description

一种基于语义分割的行人多属性识别方法
技术领域
本发明涉及实体搜索领域,更具体地,涉及一种基于语义分割的行人 多属性识别方法。
背景技术
当前,城市中的摄像头越来越多,这不仅提升了城市中生活的人们的 安全系数,同时也为公安机关打击违反犯罪行为提供了很大的帮助。虽然 城市中布控了很多监控摄像头,记录着城市中每时每刻发生的一切,但是, 每天产生如此海量的视频数据,缺乏快速有效的分析手段。面对如此海量 的摄像头视频数据,如果仅凭人力,不但要花费大量的时间,而且可能因 为人眼的局限性,遗漏掉重要信息。
为了保障人们的生命和财产安全,城市中监控摄像头的安装数量增长 趋势越来越快。据相关机构统计,目前全国各车站、机场、商场和街道等 公共场所,已经安装几万个摄像头,这些摄像头构成了一张巨大的监控网, 能够实时、直观且全面地记录公共场所所发生的一切状况,为违法犯罪案 件的侦破提供了有力的线索,为公安机关和警察维护社会稳定提供了重大 的作用。
如此多的摄像头,意味着每时每刻产生大量的图像和视频数据。当紧 急情况发生时,比如某地发生了伤人事件,嫌疑人为逃避责任已经逃离现 场,我们可以根据目击者的描述,了解嫌疑人的特征,然后对监控视频进 行分析查找该特征的行人,就可以检索到该特征的行人出现在哪些摄像头 下,从而分析其逃跑路线,推测嫌疑人目前所在地。但是,面对如此海量 的监控视频数据,如果仅凭人力来排查,不但耗时耗力,而且缺乏准确性。
随着深度学习和人工智能等技术的不断发展,计算机变得越来越“聪 明”。比如Google所开发的AlphaGo打败了世界顶级围棋棋手李世石,百 度公司所研发的无人驾驶汽车也即将投入使用。此外,GPU技术也在不断 发展,比如英伟达公司最新的产品GeForceGTX1080、TITAN X和 TITAN BLACK等,已经被广泛用于深度学习的训练中。计算机的计算能力 越来越强,基于GPU的深度学习技术已经成为计算机视觉的重要研究方向。
前面说到,某地发生紧急情况时,嫌疑人已经逃离现场,我们根据目 击者的描述知道了嫌疑人的特征,比如,黑色头发、戴帽子、戴眼镜、红 色T恤、灰色休闲裤和白色运动鞋等。我们通过深度学习等技术以及GPU 的高速计算能力,实时地对监控视频中的所有行人提取其属性特征并存储 到数据库中,当我们知道了嫌疑人的特征后,就可以快速地查找和嫌疑人 有相同属性特征的所有行人,这样,就可以快速地掌握嫌疑人的逃跑线路。
可以看到,行人多属性的研究对于建立“平安城市”具有重大意义, 能有效地帮助公安机关和警察维护社会的稳定。因此,如何提高行人多属 性识别的准确度,是监控视频智能分析系统中亟待解决的问题。
发明内容
针对现有技术的缺陷,本发明目的在于提高行人多属性识别的准确度, 由此解决当前监控环境下行人多属性识别准确度不够高的问题。
为实现上述目的,本发明提供一种基于语义分割的行人多属性识别方 法,包括以下步骤:
预选行人的多种属性特征,包括颜色属性、类型属性以及性别属性;
基于特征融合层构建一个端到端的全卷积神经网络,所述神经网络的 基本结构是AlexNet,其前面为卷积层,中间为分裂成三条分支的卷积层, 第一条分支通过特征融合层连接第一反卷积层得到颜色属性的语义分割结 果,第二条分支通过特征融合层连接第二反卷积层得到类型属性的语义分 割结果,第三条分支通过二分类,得到性别属性,所述特征融合层用于对 颜色属性和类型属性互补;
基于所述神经网络随机选取训练样本中的图像进行训练,得到行人多 属性识别模型,所述行人多属性识别模型用于识别图像中行人的属性;
基于所述行人多属性识别模型提取行人库中所有行人图像的属性并存 储到数据库;
根据待查找行人的属性,从所述数据库中匹配查找符合要求的行人图 像。
可选地,所述行人多属性识别模型的训练步骤为:
每次随机选择训练样本中的一张图像用来训练,预设用于梯度下降加 速的动量、权重衰减参数及基础学习率,并且训练过程中一直保持不变, 预设训练的最大迭代次数;
以数据集ImageNet预先训练的模型作为神经网络的初始参数,将样本 输入神经网络后,前向传播计算神经网络各层的值,网络的三条分支分别 得到各自的损失值:
颜色属性分支的损失函数为:
类型属性分支的损失函数为:
性别属性分支的损失函数为:
其中,N表示训练图像的像素点个数,y表示训练图像的性别标签,y(i)表示训练图像第i个像素点的颜色或类型标签,x表示输入特征值,x(i)表示 第i个像素点输入特征值,λ表示权重衰减参数,θij表示第i个参数向量第 j个值,θj表示第j个参数向量,表示第l个参数向量的转置,表示第j 个参数向量的转置,K表示颜色属性或类型属性的数量;
反向逐层采用梯度下降算法更新神经网络各层参数,根据各分支损失 函数的导数最小化三个分支的损失函数,根据如下公式计算各分支损失函 数的导数:
颜色属性分支的损失函数导数为:
类型属性分支的损失函数导数为:
性别属性分支的损失函数导数为:
其中,p(y(i)=j|x(i);θ)表示将像素点x(i)分类为类别j的概率,p(y=j|x;θ) 表示将图像x分类为类别j的概率;
重复迭代上述步骤,达到最大迭代次数后,训练得到行人多属性识别 模型。
可选地,基于特征融合层构建一个端到端的全卷积神经网络,包括:
神经网络模型的激活函数采用ReLU激活函数,其函数表达式为:
其中,f(x)表示激活函数的输出,x表示激活函数的输入;
特征融合的公式表达如下:
其中,xi表示颜色特征图上第i个点激活值,yi表示类型特征图上第i 个点激活值;α和β表示融合参数,当xi=0且yi>0,α和yi的乘积重新激活 xi,同样的方法应用于yi,经过该特征图融合,颜色特征和类型特征相互弥 补。
可选地,颜色属性包括:头发颜色、上半身颜色、下半身颜色以及鞋 子颜色,所述颜色包括:米白色、黑色、蓝色、棕色、灰色、绿色、橙色、 紫色、粉红色、红色、白色和黑色;
类型属性包括;眼镜:戴眼镜、不戴眼镜;帽子:戴帽子、不戴帽子; 包:有包、无包;上半身类型:T恤、运动衣、衬衫、外套、连衣裙、毛衣; 下半身类型:牛仔裤、裤子、短裤、裙子;
性别属性包括:男性、女性。
可选地,假设训练样本共有K张图片,对于属性Arri,该属性的准确率 计算方式为:
其中,erri表示该属性识别错误的样本数;
erri的计算方式为:
其中,表示第k张图片的第i个属性预测结果,j表示第k张图片的第i个属性实际标签,有三种情况:预测结果有i属性,实际标签也有i属 性,但预测结果不等于实际标签;.预测结果有i属性,实际标签没有i属性; 预测结果没有i属性,实际标签有i属性。
可选地,颜色属性的准确率计算方式为:
其中,ri表示对于颜色i识别正确的数量,erri表示识别错误的数量。
总体而言,通过本发明所构思的以上技术方案与现有技术相比,具有 以下有益效果:
(1)本发明将语义分割应用到行人多属性分类和识别的任务中,充分 利用了图像中每个像素点的信息,使得行人属性识别准确度更高。
(2)本发明提出了一个特征融合层,将颜色特征和类型特征相互融合, 使得语义分割的结果更准确,从而进一步提高行人属性的识别准确度。
(3)本发明设计了一个端到端的行人多属性识别网络模型,通过三条 分支分别得到颜色属性、类型属性和性别属性,综合三条分支的输出即可 得到行人的多属性。
附图说明
图1为本发明提供的基于语义分割的行人多属性识别方法流程示意图;
图2为本发明提供的行人多属性识别的网络结构示意图;
图3为本发明提供的行人特征融合的具体过程示意图;
图4为本发明提供的行人多属性识别模型的训练流程图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图 及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体 实施例仅仅用以解释本发明,并不用于限定本发明。此外,下面所描述的 本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可 以相互组合。
本发明提出一种基于语义分割的行人多属性识别方法,该方法分为线 下训练阶段和线上查询阶段:
线下训练阶段具体包括以下步骤:
(1)从行人属性数据集中选择比较普遍的属性,为每种属性划分类别 并构建属性标签;
选择对于行人都比较普遍的属性,包括性别、头发颜色、是否戴帽子、 是否戴眼镜、上半身颜色、上半身衣服类型、下半身裤子颜色、下半身裤 子类型、鞋子颜色和鞋子类型。
(2)设计一个特征融合层并构建一个端到端的全卷积神经网络,训练 一个行人多属性识别模型;
线上查询阶段具体包括以下步骤:
S1、用训练得到的行人多属性识别模型提取行人库中的所有行人图像的 属性并储存到数据库。
S2、根据需要查找的属性,从数据库中查找符合要求的行人图像。
进一步地,线下训练阶段的步骤(2)中构建的全卷积神经网络的基本 结构是AlexNet,神经网络模型将AlexNet的全连接层修改为卷积层并分裂 为三条分支。第一条分支通过反卷积层得到颜色属性的语义分割结果;第 二条分支也通过反卷积层得到类型属性的语义分割结果;第三条分支是常 规的二分类,得到性别属性。每条分支各有一个采用Softmax损失的分类损 失层。我们将该模型称为GCC-AFCN。
进一步地,线下训练阶段的步骤(2)中行人多属性识别模型的训练具 体包括以下子步骤:
(21)训练的每个批次包括一张行人图像;
(22)以大型数据集ImageNet预先训练过的模型作为网络初始参数, 将训练样本输入网络后,前向传播计算网络各层的值;
(23)若未达到预定的总迭代次数,则继续步骤(24),否则结束训练; 其中,所述预定的总迭代次数为100000;
(24)反向逐层采用梯度下降算法更新网络各层参数,最小化三个分支 的损失函数;重复步骤(22)至(23)。
进一步地,线下训练阶段的步骤(2)中的特征融合层具体融合策略表 达式为:
其中xi表示颜色特征图上第i个点激活值,yi表示类型特征图上第i个 点激活值;α和β表示融合参数,取值分别是0.6和1.7。当xi=0且yi>0, α和yi的乘积重新激活xi,同样的方法应用于yi。经过这样的特征图融合, 颜色特征和类型特征相互弥补。
进一步地,步骤(24)中三条分支的损失函数表达形式分别如下:
对于颜色属性分支,其损失函数为:
其中y(i)表示第i个像素点对应的标签(颜色共13种,所以标签为0, 1,…,12),K的取值为13。表示像素点i的标签y(i)为j的概率。 1{表达式}表示示性函数,当表达式为真时取值1,即:1{值为真的表达式}=1, 否则1{值为假的表达式}=0。为权重衰减项,其作用是为了防止过 拟合。
对于类型属性分支,其损失函数为:
类型属性共23种,所以K的取值为23。
对于性别属性,其损失函数为:
其中y表示当前训练图像的性别标签,k的取值为0或1,表示两种性 别,最后一项为权重衰减项,作用同样是为了防止过拟合。
具体地,本发明方法的流程如图1所示。在线下训练阶段,首先选择 普遍的行人属性,进行合理的类别划分。设计一个特征融合层并构建一个 端到端的全卷积神经网络,训练一个行人多属性识别模型。线上查询阶段, 用训练得到的行人多属性识别模型提取行人库中所有图像的属性并存储到 数据库中,就可以通过属性查找行人库中所有该属性的行人图像。
下面具体说明线下训练阶段行人多属性识别模型的训练过程,线上查 询阶段行人多属性识别模型应用过程的具体实施步骤。
线下训练阶段包括以下步骤:
(1)从现有行人属性数据集Colorful-Fashion提供的多种属性中,选择 比较普遍的属性及其类别划分;包括:1.性别:男性、女性;2.眼镜:戴眼 镜、不戴眼镜;3.帽子:戴帽子、不戴帽子;4.包:有包、无包;5.头发颜 色:米白色、黑色、蓝色、棕色、灰色、绿色、橙色、紫色、粉红色、红 色、白色和黑色;6.上半身类型:T恤、运动衣、衬衫、外套、连衣裙、毛 衣;7.上半身颜色:米白色、黑色、蓝色、棕色、灰色、绿色、橙色、紫色、 粉红色、红色、白色和黑色;8.下半身类型:牛仔裤、裤子、短裤、裙子;8.下半身颜色:米白色、黑色、蓝色、棕色、灰色、绿色、橙色、紫色、粉 红色、红色、白色和黑色;9.鞋子颜色:米白色、黑色、蓝色、棕色、灰色、 绿色、橙色、紫色、粉红色、红色、白色和黑色。
(2)设计一个特征融合层并构建一个端到端的全卷积神经网络,训练 一个行人多属性识别模型。
神经网络的基本结构是AlexNet,前面的卷积层保持不变,中间的全连 接层修改为卷积层并分裂为三条分支。第一条分支通过连接反卷积层得到 颜色属性的语义分割结果;第二条分支也通过连接反卷积层得到类型属性 的语义分割结果;第三条分支是常规的二分类,得到性别属性。每条分支 各有一个采用Softmax损失的分类损失层。我们将该模型称为GCC-AFCN, 网络的整体结构如图2所示。
如图3所示,特征融合的具体原理为:
本发明提供的神经网络模型的激活函数采用ReLU激活函数,其函数 表达式为:
可以看到,ReLU激活函数对于小于等于0的值,输出均变为0,大于 0的值则维持不变。对于输出等于0的区域,也就是说非目标区域,通常就 是背景。对于输出大于0的区域,我们称之为激活区域,也就是说该区域 是存在目标的,即“颜色”区域和“类型”区域。举个例子,对于“红色 大衣”这个多属性,“红色”属性出现的地方应该和“大衣”属性出现的 地方应该在图片的同一地方。因此可以对两种特征融合,使得结果更精确。
特征融合的描述如下:
其中xi表示颜色特征图上第i个点激活值,yi表示类型特征图上第i个 点激活值;α和β表示融合参数,取值分别可以是0.6和1.7。当xi=0且yi>0, α和yi的乘积重新激活xi,同样的方法应用于yi。经过这样的特征图融合, 颜色特征和类型特征相互弥补。
如图4所示,行人多属性识别模型的训练步骤为:
(21)每次随机选择训练样本中的一张图像用来训练,设置用于梯度下 降加速的动量为0.9,权重衰减参数为0.0005,基础学习率为1e-4并且训练 过程中一直保持不变,训练的最大迭代次数为100000。
(22)以大型数据集ImageNet预先训练的模型作为网络的初始参数, 将样本输入网络后,前向传播计算网络各层的值,网络的三条分支分别得 到各自的损失值。颜色属性分支的损失函数为:
类型属性分支的损失函数为:
性别属性分支的损失函数为:
(23)若未达到预定的总迭代数100000次,则继续步骤(24),否则 训练结束。
(24)反向逐层采用梯度下降算法更新网络各层参数,根据如下公式计 算各分支损失函数的导数:
颜色属性分支的损失函数导数为:
类型属性分支的损失函数导数为:
性别属性分支的损失函数导数为:
线上查询阶段包括以下步骤:
S1、用训练得到的行人多属性识别模型提取行人库中的所有行人图像的 属性并储存到数据库。
S2、根据需要查找的属性,从数据库中查找符合要求的行人图像。
为了证明基于语义分割的行人多属性识别方法性能和效率具有优势,本 发明通过以下实验进行验证与分析。
A、实验数据
本发明采用Colorful-Fashion数据集进行实验,该数据集图像均来源网络 上,一共有2682张图像。将数据集划分为训练集和测试集,其中训练集2082 张,测试集600张。图像格式均为JPG,标签图像格式均为PNG。
B、实验平台
硬件:CPU Intel Xeon E5-2650v3,内存64G DDR4 2133MHz,GPU GeForceGTXTITAN X,显存12G。
软件:操作系统Ubuntu 15.04 64位,实验平台Caffe、Matlab R2014a。
C、评价标准
对于测试的结果,我们使用准确率来评价。假设测试的样本集共有K张 图片,对于某个属性Arri,该属性的准确率计算方式为:
其中,erri表示该属性识别错误的样本数。erri的计算方式为:
其中,表示第k张图片的第i个属性预测结果,j表示第k张图片 的第i个属性实际标签。有三种情况:
1、预测结果有i属性,实际标签也有i属性,但预测结果不等于实际标签。 比如上身衣服类型,预测值为“大衣”,但实际标签为“毛衣”,因此是 预测错误的情况。
2、预测结果有i属性,实际标签没有i属性。比如预测结果是“戴帽子”, 但实际并没有戴帽子,这种情况也认为是错误的预测结果。
3、预测结果没有i属性,实际标签有i属性。比如预测结果是“不戴帽子”, 但实际有戴帽子,这种情况也认为是错误的预测结果。
此外,对于颜色属性,可以和类型属性分开计算。因为每张行人图片 的颜色可能不止一种属性。颜色属性的准确率计算方式为:
其中,ri表示对于颜色i识别正确的数量,erri表示识别错误的数量。比 如对于标签为“红色大衣”的属性,预测结果为“灰色大衣”,我们就认 为颜色预测错误,但上身类型预测是正确的;对于标签为“红色大衣”的 属性,预测结果为“红色毛衣”,则认为颜色预测是正确的,上身类型是 错误的。
D、实验结果
表1是MLCNN方法、DeepMAR方法、PaperDoll方法以及本发明提 供的GCC-AFCN(无融合/有融合)对比结果。实验的结果如表1所示,其 中横轴表示属性,纵轴表示该属性的准确度。
表1
可以看到,采用特征融合后,进一步提高了准确度。实验表明,本发 明方法在Colorful-Fashion数据集上,准确度达到了92.5243%,已经超过了 很多其他方法,可满足实际应用要求。
本领域的技术人员容易理解,以上所述仅为本发明的较佳实施例而已, 并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等 同替换和改进等,均应包含在本发明的保护范围之内。

Claims (6)

1.一种基于语义分割的行人多属性识别方法,其特征在于,包括以下步骤:
预选行人的多种属性特征,包括颜色属性、类型属性以及性别属性;
基于特征融合层构建一个端到端的全卷积神经网络,所述神经网络的基本结构是AlexNet,其前面为卷积层,中间为分裂成三条分支的卷积层,第一条分支通过特征融合层连接第一反卷积层得到颜色属性的语义分割结果,第二条分支通过特征融合层连接第二反卷积层得到类型属性的语义分割结果,第三条分支通过二分类,得到性别属性,所述特征融合层用于对颜色属性和类型属性互补;
基于所述神经网络随机选取训练样本中的图像进行训练,得到行人多属性识别模型,所述行人多属性识别模型用于识别图像中行人的属性;
基于所述行人多属性识别模型提取行人库中所有行人图像的属性并存储到数据库;
根据待查找行人的属性,从所述数据库中匹配查找符合要求的行人图像。
2.根据权利要求1所述的基于语义分割的行人多属性识别方法,其特征在于,所述行人多属性识别模型的训练步骤为:
每次随机选择训练样本中的一张图像用来训练,预设用于梯度下降加速的动量、权重衰减参数及基础学习率,并且训练过程中一直保持不变,预设训练的最大迭代次数;
以数据集ImageNet预先训练的模型作为神经网络的初始参数,将样本输入神经网络后,前向传播计算神经网络各层的值,网络的三条分支分别得到各自的损失值:
颜色属性分支的损失函数为:
类型属性分支的损失函数为:
性别属性分支的损失函数为:
其中,N表示训练图像的像素点个数,y表示训练图像的性别标签,y(i)表示训练图像第i个像素点的颜色或类型标签,x表示输入特征值,x(i)表示第i个像素点输入特征值,λ表示权重衰减参数,θij表示第i个参数向量第j个值,θj表示第j个参数向量,表示第l个参数向量的转置,表示第j个参数向量的转置,K表示颜色属性或类型属性的数量;
反向逐层采用梯度下降算法更新神经网络各层参数,根据各分支损失函数的导数最小化三个分支的损失函数,根据如下公式计算各分支损失函数的导数:
颜色属性分支的损失函数导数为:
类型属性分支的损失函数导数为:
性别属性分支的损失函数导数为:
其中,p(y(i)=j|x(i);θ)表示将像素点x(i)分类为类别j的概率,p(y=j|x;θ)表示将图像x分类为类别j的概率;
重复迭代上述步骤,达到最大迭代次数后,训练得到行人多属性识别模型。
3.根据权利要求2所述的基于语义分割的行人多属性识别方法,其特征在于,基于特征融合层构建一个端到端的全卷积神经网络,包括:
神经网络模型的激活函数采用ReLU激活函数,其函数表达式为:
其中,f(x)表示激活函数的输出,x表示激活函数的输入;
特征融合的公式表达如下:
其中,xi表示颜色特征图上第i个点激活值,yi表示类型特征图上第i个点激活值;α和β表示融合参数,当xi=0且yi>0,α和yi的乘积重新激活xi,同样的方法应用于yi,经过该特征图融合,颜色特征和类型特征相互弥补。
4.根据权利要求1至3任一项所述的基于语义分割的行人多属性识别方法,其特征在于,颜色属性包括:头发颜色、上半身颜色、下半身颜色以及鞋子颜色,所述颜色包括:米白色、黑色、蓝色、棕色、灰色、绿色、橙色、紫色、粉红色、红色、白色和黑色;
类型属性包括;眼镜:戴眼镜、不戴眼镜;帽子:戴帽子、不戴帽子;包:有包、无包;上半身类型:T恤、运动衣、衬衫、外套、连衣裙、毛衣;下半身类型:牛仔裤、裤子、短裤、裙子;
性别属性包括:男性、女性。
5.根据权利要求1所述的基于语义分割的行人多属性识别方法,其特征在于,假设训练样本共有K张图片,对于属性Arri,该属性的准确率计算方式为:
其中,erri表示该属性识别错误的样本数;
erri的计算方式为:
其中,表示第k张图片的第i个属性预测结果,j表示第k张图片的第i个属性实际标签,有三种情况:预测结果有i属性,实际标签也有i属性,但预测结果不等于实际标签;.预测结果有i属性,实际标签没有i属性;预测结果没有i属性,实际标签有i属性。
6.根据权利要求1所述的基于语义分割的行人多属性识别方法,其特征在于,颜色属性的准确率计算方式为:
其中,ri表示对于颜色i识别正确的数量,erri表示识别错误的数量。
CN201810621599.9A 2018-06-15 2018-06-15 一种基于语义分割的行人多属性识别方法 Active CN108921054B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810621599.9A CN108921054B (zh) 2018-06-15 2018-06-15 一种基于语义分割的行人多属性识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810621599.9A CN108921054B (zh) 2018-06-15 2018-06-15 一种基于语义分割的行人多属性识别方法

Publications (2)

Publication Number Publication Date
CN108921054A true CN108921054A (zh) 2018-11-30
CN108921054B CN108921054B (zh) 2021-08-03

Family

ID=64420539

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810621599.9A Active CN108921054B (zh) 2018-06-15 2018-06-15 一种基于语义分割的行人多属性识别方法

Country Status (1)

Country Link
CN (1) CN108921054B (zh)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109344920A (zh) * 2018-12-14 2019-02-15 汇纳科技股份有限公司 顾客属性预测方法、存储介质、系统及设备
CN109815902A (zh) * 2019-01-24 2019-05-28 北京邮电大学 一种行人属性区域信息获取方法、装置及设备
CN109977902A (zh) * 2019-04-03 2019-07-05 刘西 一种基于深度学习的建筑施工车辆识别方法
CN110046577A (zh) * 2019-04-17 2019-07-23 北京迈格威科技有限公司 行人属性预测方法、装置、计算机设备和存储介质
CN110059577A (zh) * 2019-03-26 2019-07-26 北京迈格威科技有限公司 行人属性信息提取方法及装置
CN110175595A (zh) * 2019-05-31 2019-08-27 北京金山云网络技术有限公司 人体属性识别方法、识别模型训练方法及装置
CN110287782A (zh) * 2019-05-17 2019-09-27 北京迈格威科技有限公司 行人分割模型训练方法及装置
CN110443174A (zh) * 2019-07-26 2019-11-12 浙江大学 一种基于解耦自适应判别性特征学习的行人重识别方法
CN110705474A (zh) * 2019-09-30 2020-01-17 清华大学 一种行人属性识别方法和装置
CN111444788A (zh) * 2020-03-12 2020-07-24 成都旷视金智科技有限公司 行为识别的方法、装置及计算机存储介质
CN112232173A (zh) * 2020-10-12 2021-01-15 济南博观智能科技有限公司 一种行人属性识别方法、深度学习模型、设备及介质
CN112464689A (zh) * 2019-09-06 2021-03-09 佳能株式会社 生成神经网络的方法、装置和系统及存储指令的存储介质
CN112766349A (zh) * 2021-01-12 2021-05-07 齐鲁工业大学 一种基于机器视觉与触觉感知的物体描述生成方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6714909B1 (en) * 1998-08-13 2004-03-30 At&T Corp. System and method for automated multimedia content indexing and retrieval
US20130108177A1 (en) * 2011-11-01 2013-05-02 Google Inc. Image matching using motion manifolds
CN103984953A (zh) * 2014-04-23 2014-08-13 浙江工商大学 基于多特征融合与Boosting决策森林的街景图像的语义分割方法
CN106529565A (zh) * 2016-09-23 2017-03-22 北京市商汤科技开发有限公司 目标识别模型训练和目标识别方法及装置、计算设备
CN107330396A (zh) * 2017-06-28 2017-11-07 华中科技大学 一种基于多属性和多策略融合学习的行人再识别方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6714909B1 (en) * 1998-08-13 2004-03-30 At&T Corp. System and method for automated multimedia content indexing and retrieval
US20130108177A1 (en) * 2011-11-01 2013-05-02 Google Inc. Image matching using motion manifolds
CN103984953A (zh) * 2014-04-23 2014-08-13 浙江工商大学 基于多特征融合与Boosting决策森林的街景图像的语义分割方法
CN106529565A (zh) * 2016-09-23 2017-03-22 北京市商汤科技开发有限公司 目标识别模型训练和目标识别方法及装置、计算设备
CN107330396A (zh) * 2017-06-28 2017-11-07 华中科技大学 一种基于多属性和多策略融合学习的行人再识别方法

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109344920A (zh) * 2018-12-14 2019-02-15 汇纳科技股份有限公司 顾客属性预测方法、存储介质、系统及设备
CN109344920B (zh) * 2018-12-14 2021-02-02 汇纳科技股份有限公司 顾客属性预测方法、存储介质、系统及设备
CN109815902A (zh) * 2019-01-24 2019-05-28 北京邮电大学 一种行人属性区域信息获取方法、装置及设备
CN109815902B (zh) * 2019-01-24 2021-04-27 北京邮电大学 一种行人属性区域信息获取方法、装置及设备
CN110059577A (zh) * 2019-03-26 2019-07-26 北京迈格威科技有限公司 行人属性信息提取方法及装置
CN109977902A (zh) * 2019-04-03 2019-07-05 刘西 一种基于深度学习的建筑施工车辆识别方法
CN110046577A (zh) * 2019-04-17 2019-07-23 北京迈格威科技有限公司 行人属性预测方法、装置、计算机设备和存储介质
CN110046577B (zh) * 2019-04-17 2022-07-26 北京迈格威科技有限公司 行人属性预测方法、装置、计算机设备和存储介质
CN110287782A (zh) * 2019-05-17 2019-09-27 北京迈格威科技有限公司 行人分割模型训练方法及装置
CN110175595B (zh) * 2019-05-31 2021-03-02 北京金山云网络技术有限公司 人体属性识别方法、识别模型训练方法及装置
CN110175595A (zh) * 2019-05-31 2019-08-27 北京金山云网络技术有限公司 人体属性识别方法、识别模型训练方法及装置
CN110443174A (zh) * 2019-07-26 2019-11-12 浙江大学 一种基于解耦自适应判别性特征学习的行人重识别方法
CN110443174B (zh) * 2019-07-26 2021-08-10 浙江大学 一种基于解耦自适应判别性特征学习的行人重识别方法
CN112464689A (zh) * 2019-09-06 2021-03-09 佳能株式会社 生成神经网络的方法、装置和系统及存储指令的存储介质
CN110705474A (zh) * 2019-09-30 2020-01-17 清华大学 一种行人属性识别方法和装置
CN110705474B (zh) * 2019-09-30 2022-05-03 清华大学 一种行人属性识别方法和装置
CN111444788A (zh) * 2020-03-12 2020-07-24 成都旷视金智科技有限公司 行为识别的方法、装置及计算机存储介质
CN111444788B (zh) * 2020-03-12 2024-03-15 成都旷视金智科技有限公司 行为识别的方法、装置及计算机存储介质
CN112232173A (zh) * 2020-10-12 2021-01-15 济南博观智能科技有限公司 一种行人属性识别方法、深度学习模型、设备及介质
CN112232173B (zh) * 2020-10-12 2023-04-07 济南博观智能科技有限公司 一种行人属性识别方法、深度学习模型、设备及介质
CN112766349A (zh) * 2021-01-12 2021-05-07 齐鲁工业大学 一种基于机器视觉与触觉感知的物体描述生成方法

Also Published As

Publication number Publication date
CN108921054B (zh) 2021-08-03

Similar Documents

Publication Publication Date Title
CN108921054A (zh) 一种基于语义分割的行人多属性识别方法
CN107330396B (zh) 一种基于多属性和多策略融合学习的行人再识别方法
CN106951867B (zh) 基于卷积神经网络的人脸识别方法、装置、系统及设备
CN106503687B (zh) 融合人脸多角度特征的监控视频人物身份识别系统及其方法
Li et al. Person search with natural language description
CN109829429A (zh) 基于YOLOv3的监控场景下的安防敏感物品检测方法
CN109002744A (zh) 图像识别方法、装置和视频监控设备
CN105787472B (zh) 一种基于时空拉普拉斯特征映射学习的异常行为检测方法
CN109766872A (zh) 图像识别方法和装置
CN110245874A (zh) 一种基于机器学习和知识推理的决策融合方法
CN110414441B (zh) 一种行人行踪分析方法及系统
CN106845373A (zh) 面向监控视频的行人属性预测方法
CN111597870B (zh) 一种基于注意力机制与多任务学习的人体属性识别方法
CN107133569A (zh) 基于泛化多标记学习的监控视频多粒度标注方法
CN110069994A (zh) 基于人脸多区域的人脸属性识别系统、方法
CN110363131A (zh) 基于人体骨架的异常行为检测方法、系统及介质
CN111259219B (zh) 恶意网页识别模型建立方法、识别方法及系统
CN110532970A (zh) 人脸2d图像的年龄性别属性分析方法、系统、设备和介质
CN110457984A (zh) 监控场景下基于ResNet-50的行人属性识别方法
CN109492528A (zh) 一种基于高斯和深度特征的行人再识别方法
WO2022121498A1 (zh) 身份识别方法、模型训练方法、装置、设备和存储介质
CN109190472A (zh) 基于图像与属性联合引导的行人属性识别方法
CN112131929A (zh) 一种基于区块链的跨摄像机行人跟踪系统及方法
CN110909195A (zh) 基于区块链的图片标注方法、装置及存储介质、服务器
CN107392254A (zh) 一种通过联合嵌入从像素中构造图像的语义分割方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant