CN111191526A - 行人属性识别网络训练方法、系统、介质及终端 - Google Patents

行人属性识别网络训练方法、系统、介质及终端 Download PDF

Info

Publication number
CN111191526A
CN111191526A CN201911291179.XA CN201911291179A CN111191526A CN 111191526 A CN111191526 A CN 111191526A CN 201911291179 A CN201911291179 A CN 201911291179A CN 111191526 A CN111191526 A CN 111191526A
Authority
CN
China
Prior art keywords
attribute
pedestrian
network
human body
label
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911291179.XA
Other languages
English (en)
Other versions
CN111191526B (zh
Inventor
王海涛
成西锋
袁德胜
姚磊
张宏俊
王作辉
游浩泉
刘耀文
吴贺丰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Winner Technology Co ltd
Original Assignee
Winner Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Winner Technology Co ltd filed Critical Winner Technology Co ltd
Priority to CN201911291179.XA priority Critical patent/CN111191526B/zh
Publication of CN111191526A publication Critical patent/CN111191526A/zh
Application granted granted Critical
Publication of CN111191526B publication Critical patent/CN111191526B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种行人属性识别网络训练方法、系统、介质及终端。所述方法包括以下步骤:获取对应人体关键点的部位特征图;输出与属性标签对应的词向量;将部位特征图与词向量融合,以形成融合结果;学习与属性标签对应的特征向量;生成对应属性标签的隐藏状态;预测属性标签存在的置信度;本发明提高了分类的准确性和可信度;通过提取人体关键点特征结合图神经网络来进行行人属性识别,降低了网络计算复杂度,减少了网络计算的消耗,提高了计算速度,使行人属性识别网络拥有良好的性能,可应对复杂多样的情景,诸如行人重识别、视频监控、刑事侦查、人脸识别、身份验证等等,具有重要的应用价值。

Description

行人属性识别网络训练方法、系统、介质及终端
技术领域
本发明属于行人属性识别技术领域,特别是涉及一种行人属性识别网络训练方法、系统、介质及终端。
背景技术
行人属性识别是计算机视觉领域的一个重要领域,在视频监控中具有重要作用;行人属性是一种可搜索的拟人化的语义描述,可作为视频监控技术中的行人外观特征,应用于行人再识别,人脸识别,身份验证等等场景;行人属性识别目标在于挖掘给定图像中目标人物的属性。
行人属性识别问题可定义为,给定人像A,从预定义的属性列表a={a1,a2,a3……an}中找出一组属性来描述这个人的各种特点;这个问题有多种处理方法,多标签分类,二值分类等等;行人属性识别的挑战在于属性类别的外观多样性和模糊性,主要因素有相机角度,光线,人体移动造成的图像模糊,人体遮挡,低分辨率,数据分布不均衡等等。
传统的行人属性识别方法侧重于从手工特征、分类器或属性关系来开发鲁棒性强的特征表示,典型的例子有HOG(Histogram of Oriented Gridients,特征检测算法)、SIFT(Scale Invariant Feature Transform,尺度不变特征变换)、SVM(Support VectorMachine,支持向量机)或CRF(Conditional Random Field algorithm,条件随机场算法)模型,但这些传统算法远远不够满足实际应用的需求。
发明内容
鉴于以上所述现有技术的缺点,本发明的目的在于提供一种行人属性识别网络训练方法、系统、介质及终端,通过提取人体关键点特征结合图神经网络来进行行人属性识别,用于解决现有技术中由于属性类别的多样性和外观模糊性,以及相机角度、光线、人体移动造成的图像模糊、人体遮挡、低分辨率、数据分布不均衡等等因素的影响,导致的行人属性识别面临复杂、多样挑战的问题。
为实现上述目的及其他相关目的,本发明一方面提供一种行人属性识别网络训练方法,所述行人属性识别网络训练方法包括以下步骤:获取对应人体关键点的部位特征图;所述人体关键点对应人体身体关节;将属性标签输入预先训练的词向量获取模型中,输出与所述属性标签对应的词向量;所述属性标签是指行人自然带有的标签;将所述部位特征图与所述词向量融合,以形成融合结果;利用所述融合结果提取部位特征的注意力,并将所述部位特征的注意力与所述融合结果结合,学习与所述属性标签对应的特征向量;将所述特征向量引入图神经网络,生成对应所述属性标签的隐藏状态;所述隐藏状态包括所述属性标签的自身属性信息;根据所述隐藏状态和所述特征向量,预测所述属性标签存在的置信度。
于本发明的一实施例中,获取对应人体关键点的部位特征图包括以下步骤:采集行人图像,并将采集的所述行人图像分为训练集和测试集;将作为训练集的行人图像输入关键点提取模型中,以提取出人体关键点信息,并基于所述人体关键点信息,生成关键点特征图;根据所述人体关键点对应的自然语义,生成对应所述人体关键点的候选框;所述自然语义为所述人体关键点对应所述身体关节的名称;对所述候选框进行池化操作,以获取具有固定尺寸的所述部位特征图。
于本发明的一实施例中,对所述候选框进行池化操作,以获取具有固定尺寸的所述部位特征图包括以下步骤:将所述候选框输入全卷积网络,以提取出所述候选框的宽度、高度和信道数;根据作为训练集的所述行人图像,将所述候选框映射到其在所述关键点特征图上的对应位置;将映射后的区域划分为相同大小的子块;对所述子块进行池化操作,以获取具有固定尺寸的所述部位特征图。
于本发明的一实施例中,利用所述融合结果提取部位特征的注意力,并将所述部位特征的注意力与所述融合结果结合,学习与所述属性标签对应的特征向量包括以下步骤:将所述融合结果输入注意力函数,以获取所述部位特征对于所述属性标签的重要性;所述重要性体现为所述注意力函数的输出值;通过逻辑回归函数对所述输出值进行归一化处理;将所述部位特征的注意力与所述融合结果结合,对经所述归一化处理后的结果进行加权平均池化,以学习所述特征向量。
于本发明的一实施例中,将所述特征向量引入图神经网络,生成对应所述属性标签的隐藏状态包括以下步骤:构建属性关系图;所述属性关系图用于表征属性标签相互之间同时存在的概率;将所述属性关系图输入所述图神经网络,并将所述属性标签的初始隐藏状态初始化为所述特征向量,以获取对应所述属性标签的聚合信息;根据所述聚合信息和所述属性标签前一步的隐藏状态,更新所述属性标签当前的隐藏状态,以生成对应所述属性标签的隐藏状态。
于本发明的一实施例中,在获取对应人体关键点的部位特征图之前,所述行人属性识别网络训练方法还包括以下步骤:搭建所述行人属性识别网络的网络模型;对所述网络模型进行初始化。
于本发明的一实施例中,在根据所述隐藏状态和所述特征向量,预测所述属性标签存在的置信度步骤之后,所述行人属性识别网络训练方法还包括以下步骤:基于所述置信度定义损失函数,以获取损失值;所述损失值用来表征所述行人属性识别网络对行人属性识别的结果和真实结果之间的差异;循环执行所述行人属性识别网络训练方法的步骤,直至所述损失值不再下降,停止训练,选取损失值最小值对应的行人属性识别网络作为最终行人属性识别网络。
本发明另一方面提供一种行人属性识别网络训练系统,所述行人属性识别网络训练系统包括:获取模块、输入模块、融合模块、学习模块、生成模块和预测模块;所述获取模块用于获取对应人体关键点的部位特征图;所述人体关键点对应人体身体关节;所述输入模块用于将属性标签输入预先训练的词向量获取模型中,输出与所述属性标签对应的词向量;所述属性标签是指行人自然带有的标签;所述融合模块用于将所述部位特征图与所述词向量融合,以形成融合结果;所述学习模块用于利用所述融合结果提取部位特征的注意力,并将所述部位特征的注意力与所述融合结果结合,学习与所述属性标签对应的特征向量;所述生成模块用于将所述特征向量引入图神经网络,生成对应所述属性标签的隐藏状态;所述隐藏状态包括所述属性标签的自身属性信息;所述预测模块用于根据所述隐藏状态和所述特征向量,预测所述属性标签存在的置信度。
本发明又一方面提供一种存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现上述的行人属性识别网络训练方法。
本发明最后一方面提供一种终端,包括:处理器及存储器;所述存储器用于存储计算机程序;所述处理器用于执行所述存储器存储的计算机程序,以使所述终端执行上述的行人属性识别网络训练方法。
如上所述,本发明所述的行人属性识别网络训练方法、系统、介质及终端,具有以下有益效果:
(1)本发明采用了基于统计属性标签同现的方法构造关系图,并引入门循环机制的图神经网络来探索属性标签之间的信息,提取了属性之间的相关性,大大提高了分类的准确性和可信度;
(2)本发明通过提取人体关键点特征结合图神经网络来进行行人属性识别,降低了网络计算复杂度,减少了网络计算的消耗,提高了计算速度,使行人属性识别网络拥有良好的性能,可应对复杂多样的情景,诸如行人重识别、视频监控、刑事侦查、人脸识别、身份验证等等,具有重要的应用价值。
附图说明
图1显示为本发明的行人属性识别网络训练方法于一实施例中的流程图。
图2显示为本发明的获取对应人体关键点的部位特征图于一实施例中的流程图。
图3显示为本发明的关键点提取模型于一实施例中的应用场景图。
图4显示为本发明的生成候选框于一实施例中的应用场景图。
图5显示为本发明的对候选框进行池化操作于一实施例中的流程图。
图6显示为本发明的学习与属性标签对应的特征向量于一实施例中的流程图。
图7显示为本发明的生成对应属性标签的隐藏状态于一实施例中的流程图。
图8显示为本发明的行人属性识别网络训练系统于一实施例中的结构示意图。
元件标号说明
80 搭建模块
81 初始化模块
82 获取模块
83 输入模块
84 融合模块
85 学习模块
86 生成模块
87 预测模块
88 定义模块
89 选取模块
S0~S9 行人属性识别网络训练方法的步骤
S21~S24 获取对应人体关键点的部位特征图的步骤
S241~S244 对候选框进行池化操作的步骤
S51~S53 学习与属性标签对应的特征向量的步骤
S61~S63 生成对应属性标签的隐藏状态的步骤
具体实施方式
以下通过特定的具体实例说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。需说明的是,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。
需要说明的是,以下实施例中所提供的图示仅以示意方式说明本发明的基本构想,遂图式中仅显示与本发明中有关的组件而非按照实际实施时的组件数目、形状及尺寸绘制,其实际实施时各组件的型态、数量及比例可为一种随意的改变,且其组件布局型态也可能更为复杂。
本发明的行人属性识别网络训练方法、系统、介质及终端的技术原理如下:所述行人属性识别网络训练方法包括以下步骤:获取对应人体关键点的部位特征图;所述人体关键点对应人体身体关节;将属性标签输入预先训练的词向量获取模型中,输出与所述属性标签对应的词向量;所述属性标签是指行人自然带有的标签;将所述部位特征图与所述词向量融合,以形成融合结果;利用所述融合结果提取部位特征的注意力,并将所述部位特征的注意力与所述融合结果结合,学习与所述属性标签对应的特征向量;将所述特征向量引入图神经网络,生成对应所述属性标签的隐藏状态;所述隐藏状态包括所述属性标签的自身属性信息;根据所述隐藏状态和所述特征向量,预测所述属性标签存在的置信度。
实施例一
本实施例提供一种行人属性识别网络训练方法,所述行人属性识别网络训练方法包括以下步骤:获取对应人体关键点的部位特征图;所述人体关键点对应人体身体关节;将属性标签输入预先训练的词向量获取模型中,输出与所述属性标签对应的词向量;所述属性标签是指行人自然带有的标签;将所述部位特征图与所述词向量融合,以形成融合结果;利用所述融合结果提取部位特征的注意力,并将所述部位特征的注意力与所述融合结果结合,学习与所述属性标签对应的特征向量;将所述特征向量引入图神经网络,生成对应所述属性标签的隐藏状态;所述隐藏状态包括所述属性标签的自身属性信息;根据所述隐藏状态和所述特征向量,预测所述属性标签存在的置信度。
以下将结合图1至图7对本实施例所提供的行人属性识别网络训练方法进行详细描述。
请参阅图1,显示为本发明的行人属性识别网络训练方法于一实施例中的流程图。如图1所示,本发明的行人属性识别网络训练方法包括以下步骤:
S0、搭建所述行人属性识别网络的网络模型。
需要说明的是,所述网络模型包括关键点提取模型、候选框提取模型、全卷积网络、词向量获取模型和图神经网络;具体地,在进行行人属性识别网络训练之前,预先搭建好上述网络结构和模型结构。
S1、对所述网络模型进行初始化。
具体地,对该网络模型进行初始化包括以下内容:
(11)通过预训练模型确定全卷积网络的预训练权重,实现对全卷积网络的初始化;
(12)对全卷积网络中的全连接层采用均值为0,均方差为0.01的正太分布进行初始化,偏差采用0进行初始化;
(13)对图神经网络的参数进行初始化;统计数据集样本中各属性标签的同现概率,作为图神经网络属性关系图上边的初始值,以实现对图神经网络进行初始化。
S2、获取对应人体关键点的部位特征图。
需要说明的是,所述人体关键点对应人体身体关节;人体关键点包括但不限于人体肩膀、锁骨、身体和手臂。
具体地,设定人体关键点的个数为N个,N为不小于1的整数。
请参阅图2,显示为本发明的获取对应人体关键点的部位特征图于一实施例中的流程图。如图2所示,获取对应人体关键点的部位特征图包括以下步骤:
S21、采集行人图像,并将采集的所述行人图像分为训练集和测试集。
具体地,通过采集行人图像构建数据集,然后将数据集按照一定比例划分为训练集和测试集,例如,随机抽取数据集的70%作为训练集,剩余30%作为测试集。
S22、将作为训练集的行人图像输入关键点提取模型中,以提取出人体关键点信息,并基于所述人体关键点信息,生成关键点特征图。
具体地,将作为训练集的行人图像输入关键点提取模型中,关键点提取模型通过对所述行人图像进行人体关键点检测,提取出人体关键点信息,并根据该人体关键点信息,生成关键点特征图。
需要说明的是,该关键点提取模型引用DeepPose模型,DeepPose模型,是一种基于深度神经网络(DNN,Deep Neural Netwoks)的人体姿态估计方法,该模型将姿态估计的过程定义为针对身体关节的回归问题,具有优良的分类和定位人体关键点的能力。
需要说明的是,所述人体关键点信息包括但不限于人体肩膀、锁骨、身体和手臂的数量和坐标信息。
具体地,请参阅3,显示为本发明的关键点提取模型于一实施例中的应用场景图。如图3所示,将行人图像输入关键点提取模型中,通过关键点提取模型对行人图像中行人的头部、肩膀、手臂、大腿和小腿这几个人体关键点(此时N为5)的检测,提取出对应的人体关键点信息,诸如手臂、大腿和小腿的数量均为2。
需要说明的是,上述关键点的提取操作可改为注意力的提取,即选择性的在行人图像中提取一系列区域,使得神经网络只对这些区域进行处理,再把得到的信息结合起来,能够降低任务的复杂度。
S23、根据所述人体关键点对应的自然语义,生成对应所述人体关键点的候选框。
具体地,根据人体关键点对应的自然语义,并结合S22中关键点提取模型提取出的人体关键点,通过候选框提取模型在行人图像上生成对应人体关键点的候选框,候选框的个数为N个。
需要说明的是,所述自然语义为所述人体关键点对应所述身体关节的名称;自然语义是人为定义的,是人体关键点对应的人体身体关节的名称,诸如头部、肩膀、手臂、大腿、小腿、脖子、手腕、膝盖等等。
需要说明的是,该候选框提取模型可采用RPN网络(RPN,Region ProposalNetwork,区域选取网络),能够有效弥补人体关键点在行人图像中被遮挡而产生的错误。
具体地,请参阅图4,显示为本发明的生成候选框于一实施例中的应用场景图。如图4所示,根据S22中关键点提取模型提取的行人的头部、肩膀、手臂、大腿和小腿这几个人体关键点,并结合对应的头部、肩膀、手臂、大腿和小腿这些自然语义,在行人图像上生成了相应的候选框(此时候选框的个数N为5)。
S24、对所述候选框进行池化操作,以获取具有固定尺寸的所述部位特征图。
具体地,对候选框进行池化操作,从而可将N个大小不一的候选框都固定为同一个尺寸,以获取N个具有同一尺寸的且对应人体关键点的部位特征图。
请参阅图5,显示本发明的对候选框进行池化操作于一实施例中的流程图。如图5所示,对所述候选框进行池化操作,以获取具有固定尺寸的所述部位特征图包括以下步骤:
S241、将所述候选框输入全卷积网络,以提取出所述候选框的宽度、高度和信道数。
需要说明的是,所述全卷积网络(CNN网络)是经所述S0预先搭建好的,并经所述S1初始化后的;具体地,对全卷积网络中的全连接层采用均值为0,均方差为0.01的正太分布进行初始化,偏差采用0进行初始化;该全卷积网络设为VGG-16网络;VGG-16网络采取预训练模型上的预训练权重。
需要说明的是,VGG-16网络的具体结构表如下:
表1:VGG-16网络的具体结构表
Figure BDA0002319152530000081
具体地,将N个候选框分别输入全卷积网络中,以分别提取出每个候选框的宽度、高度和信道数;该过程可以通过下面公式来表征:
对于每个输入的候选框n
fn=fCNN(n)
,fn∈RH×W×L,H、W和L分别为候选框n经过CNN网络提取的宽度、高度和信道数。
S242、根据作为训练集的所述行人图像,将所述候选框映射到其在所述关键点特征图上的对应位置。
具体地,按照预设规则将候选框映射到其在关键点特征图上的对应位置,所述预设规则为分别将N个候选框的坐标除以所述行人图像和关键点特征图的坐标比例。
S243、将映射后的区域划分为相同大小的子块。
具体地,将N个候选框分别对应映射在关键点特征图上的N个区域划分成相同大小的子块。
S244、对所述子块进行池化操作,以获取具有固定尺寸的所述部位特征图。
具体地,对子块进行Max_Pooling池化操作,这样可以将不同大小的候选框固定为同一尺寸,以获取对应人体关键点的具有固定尺寸的部位特征图。
具体地,假设某个候选框的大小为(H×W×L),将其分割成固定的h×w个子块,子块大小为
Figure BDA0002319152530000082
对子块进行Max_Pooling池化操作得到大小为h×w×L的部位特征图。
对N个候选框都执行以上步骤,得到N个部位特征图。
需要说明的是,对子块的池化操作可通过RoI Align(区域特征聚集)实现,提高了池化过程中边缘点的值的精度,很好地解决了Max_Pooling池化操作中两次量化造成的区域不匹配的问题。
S3、将属性标签输入预先训练的词向量获取模型中,输出与所述属性标签对应的词向量。
具体地,设定属性标签的个数为C个,C为不小于1的整数;将含C个属性标签的标签集通过预先训练的词向量获取模型(Glove模型),得到C个长度为ds的词向量;这个过程可以表述为:
对于每个属性标签c
Xc=fg(wC)
,其中,wC表示含C个属性标签的标签集;Xc表示属性标签c对应的词向量;fg(.)表示Glove模型。
需要说明的是,属性标签是指行人自然带有的标签,诸如行人是否有背包、性别为男还是女,是否为长发等等。
需要说明的是,词向量(Word embedding),又叫Word嵌入式自然语言处理(NLP)中的一组语言建模和特征学习技术的统称,其中来自词汇表的单词或短语被映射到实数的向量;从概念上讲,它涉及从每个单词一维的空间到具有更低维度的连续向量空间的数学嵌入。
需要说明的是,长度ds是Glove模型的预设值,Glove模型是经所述S0预先搭建好的,在搭建的同时,设定了长度ds的值;不同的Glove模型的词向量长度不同,常用100、200、300作为长度值;在本实施例中,将长度ds的值设置为300。
需要说明的是,因为所述S3与所述S2不存在顺序关系,两者是相互独立进行的步骤,所以也可按照先S3,再S2的顺序执行,S2、S3的执行顺序在此不作为限制本发明的条件。
S4、将所述部位特征图与所述词向量融合,以形成融合结果。
具体地,融合相应的部位特征图和词向量,这个过程表述为:
fc.n=PT(tanh((UTfn)⊙(VTXc)))+b,
其中,tanh(.)为双曲正切函数;PT、UT、VT均为定量,
Figure BDA0002319152530000091
Figure BDA0002319152530000101
UTfn表示UT与fn进行矩阵相乘;VTXc表示VT与Xc进行矩阵相乘;⊙表示对两个变量进行点对点乘运算;d1、d2是经所述S0预先设置好的,是定量;b为全连接层的偏移值,在全卷积网络中能够通过反向传播进行训练,是一个定量。
在本实施例中,将d1和d2均设置为1024。
需要说明的是,通过所述S1对全连接层采用均值为0,均方差为0.01的正太分布进行初始化,偏差采用0进行初始化。
S5、利用所述融合结果提取部位特征的注意力,并将所述部位特征的注意力与所述融合结果结合,学习与所述属性标签对应的特征向量。
请参阅图6,显示本发明的学习与属性标签对应的特征向量于一实施例中的流程图。如图6所示,,利用所述融合结果提取部位特征的注意力,并将所述部位特征的注意力与所述融合结果结合,学习与所述属性标签对应的特征向量包括以下步骤:
S51、将所述融合结果输入注意力函数,以获取所述部位特征对于所述属性标签的重要性;所述重要性体现为所述注意力函数的输出值。
具体地,计算各个部位特征(N个)对于每个属性标签(C个)的重要性,体现为注意力系数,这个过程表述为:
Figure BDA0002319152530000102
,其中
Figure BDA0002319152530000103
表示注意力系数;fa(.)是一个注意力函数,由全卷积网络实现;对每一个部位特征重复该过程,得到N个结果。
S52、通过逻辑回归函数对所述输出值进行归一化处理。
具体地,为了使各个部位特征的注意力系数易于比较,对所述注意力系数用逻辑函数(Softmax函数)进行归一化,这个过程表述为:
Figure BDA0002319152530000104
,ac,n表示对注意力系数
Figure BDA0002319152530000105
进行归一化处理后的结果。
S53、将所述部位特征的注意力与所述融合结果结合,对经所述归一化处理后的结果进行加权平均池化,以学习所述特征向量。
具体地,所述S53的过程表述为:
Figure BDA0002319152530000111
,其中,fc表示特征向量;n的值从1取到N。
对所有的部位特征重复上述过程,获得每个部位特征与该属性标签c的综合信息,记为特征向量,该特征向量与该属性标签c相对应。
S6、将所述特征向量引入图神经网络,生成对应所述属性标签的隐藏状态。
需要说明的是,图神经网络是一种直接在图结构上运行的神经网络;在计算机科学中,图是一种数据结构,由顶点和边组成;图G可以通过顶点集合V和它包含的边E来进行描述,即G=(V,E);图神经网络处理不同的图类型有多种变体,图类型包括有向图、异质图和具有边信息的图,主要有基于卷积,注意力机制,门机制,和残差连接的图神经网络。
需要说明的是,所述隐藏状态不仅包括属性标签的自身属性信息,还包括除该属性标签以外的其它属性标签的属性信息。
请参阅图7,显示本发明的生成对应属性标签的隐藏状态于一实施例中的流程图。如图7所示,将所述特征向量引入图神经网络,生成对应所述属性标签的隐藏状态包括以下步骤:
S61、构建属性关系图。
具体地,设图G={V,A},属性标签集为C,V表示以属性标签为节点;边A表示节点同现的概率(两个属性标签同时存在的概率);V表示为{v0,v1,……vc-1},A表示为{a00,a01,……,a(C-1)(C-1)},其中,axy表示V中的节点x和节点y同时存在的概率。
需要说明的是,所述属性关系图用于表征属性标签相互之间同时存在的概率;该属性关系图上的这些节点在空间上没有关系,该属性关系图实际上只是一个关系网,节点x和节点y之间两两相连,其连接线上的值axy指的是节点x和节点y同时存在的概率;诸如一个节点为男性,另一个节点为短发,这两个节点的连接线上的值可能为0.9。
S62、将所述属性关系图输入所述图神经网络,并将所述属性标签的初始隐藏状态初始化为所述特征向量,以获取对应所述属性标签的聚合信息。
需要说明的是,该图神经网络采用门循环机制来在该属性关系图G中传播和聚合信息;具体地,对于每一个节点vc∈V,其在每一步t拥有一个隐藏状态
Figure BDA0002319152530000112
先把隐藏状态在t=0的值初始化为所述S53获取的特征向量{f0,fi,……,fC-1},即
Figure BDA0002319152530000113
然后在随后的第t步时,节点c聚合来自邻节点c′的信息,这一过程表述为:
Figure BDA0002319152530000121
,其中,邻节点c′是指除节点c以外的其它节点;
Figure BDA0002319152530000122
表示在第t步前一步的状态。
如果两个节点具有高相关性,那么图神经网络就积极传播信息,否则就抑制传播信息。
需要说明的是,axy代表两个节点之间的相关性,axy的值越大表明这两个节点具有高相关性;反之则相关性小;如果把上述公式看作是加权平均的话,相关性小的权重自然就小,而相关性高的权重自然就大。
需要说明的是,门循环机制(GRU)是一个通过不断循环更新同一网络来更新结果的神经网络模型,在工作过程中会有很多步,而在每一步都会产生一个隐藏状态结果;GRU有两个门,即一个重置门和一个更新门,从直观上来说,重置门决定了如何将新的输入信息与前面的记忆相结合,更新门定义了前面记忆保存到当前时间步的量。
S63、根据所述聚合信息和所述属性标签前一步的隐藏状态,更新所述属性标签当前的隐藏状态,以生成对应所述属性标签的隐藏状态。
具体地,通过门循环更新机制(对应上述更新门),根据聚合信息
Figure BDA0002319152530000123
和节点前一步的隐藏状态
Figure BDA0002319152530000124
更新目前的隐藏状态,该过程表述为:
Figure BDA0002319152530000125
Figure BDA0002319152530000126
Figure BDA0002319152530000127
Figure BDA0002319152530000128
其中,σ(.)是sigmoid函数(逻辑回归函数);tanh(.)是双曲正切函数;⊙是一种乘法运算;wz、Uz、wr、Ur、W、U均为定量,定义为权重值;
Figure BDA0002319152530000129
表示目前隐藏状态。
通过上述步骤,使得每个节点都能通过图神经网络聚合来自其它节点的信息并且传播自身的信息,使所有的节点产生交互。
将上述步骤重复T次,生成最终的隐藏状态集
Figure BDA00023191525300001210
需要说明的是,该图神经网络是经所述S0预先搭建好的,且图神经网络的参数(wz、Uz、wr、Ur、W、U、T)及隐藏状态的维数均是经所述S1初始化的;在本实施例中,将T设置为3,隐藏状态的维数设置为2048;另外,所述S1还通过统计样本中各属性标签的同现概率,作为图神经网络属性关系图上边的初始值,以实现对图神经网络进行初始化。
S7、根据所述隐藏状态和所述特征向量,预测所述属性标签存在的置信度。
具体地,把所述S63产生的隐藏状态集
Figure BDA0002319152530000131
结合特征向量fc
Figure BDA0002319152530000132
来预测属性标签c存在的置信度,这个过程表述为:
Figure BDA0002319152530000133
sc=fc(oc)
,其中,fo是一个将
Figure BDA0002319152530000134
Figure BDA0002319152530000135
的连接映射到输出向量oc的输出函数;fc(.)以oc作为输入来预测属性标签c的置信度;sc表示属性标签c存在的置信度。
对所有属性标签执行该过程,得到一个置信度分数向量,S={s0,s1,……,sC-1}。
需要说明的是,fo函数采用全卷积网络实现,是经过所述S0预先搭建好的网络结构,并经所述S1对其参数进行初始化;具体地,对全卷积网络中的全连接层采用均值为0,均方差为0.01的正太分布进行初始化,偏差采用0进行初始化。
需要说明的是,fc(.)采用Sigmoid激活函数,通过所述S0预先搭建好的2048-1全连接层实现,并所述S1对全连接层的参数进行初始化;具体地,对全连接层采用均值为0,均方差为0.01的正太分布进行初始化,偏差采用0进行初始化。
S8、基于所述置信度定义损失函数,以获取损失值。
具体地,将所述S7获取的置信度作为行人属性识别网络的结果来定义损失函数,以获取损失值。
需要说明的是,所述损失函数采用交叉熵函数;所述损失值用来表征所述行人属性识别网络对行人属性识别的结果(置信度)和真实结果(用户对采集的行人图像统计获得的结果)之间的差异;损失值L定义为:
Figure BDA0002319152530000136
,其中,yiC表示真实结果;piC表示行人属性识别网络对行人属性识别的结果,即为置信度。
S9、循环执行所述行人属性识别网络训练方法的步骤,直至所述损失值不再下降,停止训练,选取损失值最小值对应的行人属性识别网络作为最终行人属性识别网络。
需要说明的是,所述行人属性识别网络训练方法还包括利用测试集评估行人属性识别网络,从而挑选出所述最终行人属性识别网络。
具体地,循环执行行人属性识别网络训练方法的步骤,直至损失值达到了一个比较小的状态,并且在测试集上的准确率不再提升,则可将此时的行人属性识别网络作为最终行人属性识别网络。
本实施例所述行人属性识别网络训练方法采用了基于统计属性标签同现的方法构造关系图,并引入门循环机制的图神经网络来探索属性标签之间的信息,提取了属性之间的相关性,大大提高了分类的准确性和可信度;通过提取人体关键点特征结合图神经网络来进行行人属性识别,降低了网络计算复杂度,减少了网络计算的消耗,提高了计算速度,使行人属性识别网络拥有良好的性能,可应对复杂多样的情景,诸如行人重识别、视频监控、刑事侦查、人脸识别、身份验证等等,具有重要的应用价值。
需要说明的是,本发明所述的行人属性识别网络训练方法的保护范围不限于本实施例列举的步骤执行顺序,凡是根据本发明的原理所做的现有技术的步骤增减、步骤替换所实现的方案都包括在本发明的保护范围内。
本实施例提供一种存储介质上存储有计算机程序,该计算机程序被处理器执行时实现上述的行人属性识别网络训练方法。
本领域普通技术人员可以理解:实现上述各方法实施例的全部或部分步骤可以通过计算机程序相关的硬件来完成。前述的计算机程序可以存储于一计算机可读存储介质中。该程序在执行时,执行包括上述各方法实施例的步骤;而前述的计算机可读存储介质包括:ROM、RAM、磁碟或者光盘等各种可以存储程序代码的计算机存储介质。
实施例二
本实施例提供一种行人属性识别网络训练系统,所述行人属性识别网络训练系统包括:获取模块、输入模块、融合模块、学习模块、生成模块和预测模块;
所述获取模块用于获取对应人体关键点的部位特征图;所述人体关键点对应人体身体关节;
所述输入模块用于将属性标签输入预先训练的词向量获取模型中,输出与所述属性标签对应的词向量;所述属性标签是指行人自然带有的标签;
所述融合模块用于将所述部位特征图与所述词向量融合,以形成融合结果;
所述学习模块用于利用所述融合结果提取部位特征的注意力,并将所述部位特征的注意力与所述融合结果结合,学习与所述属性标签对应的特征向量;
所述生成模块用于将所述特征向量引入图神经网络,生成对应所述属性标签的隐藏状态;所述隐藏状态包括所述属性标签的自身属性信息;
所述预测模块用于根据所述隐藏状态和所述特征向量,预测所述属性标签存在的置信度。
以下将结合图示对本实施例所提供的行人属性识别网络训练系统进行详细描述。
请参阅图8,显示为本发明的行人属性识别网络训练系统于一实施例中的结构示意图。如图8所示,本发明的行人属性识别网络系统包括搭建模块80、初始化模块81、获取模块82、输入模块83、融合模块84、学习模块85、生成模块86、预测模块87、定义模块88和选取模块89。
所述搭建模块80用于搭建所述行人属性识别网络的网络模型。
所述初始化模块81用于对所述网络模型进行初始化。
所述获取模块82用于获取对应人体关键点的部位特征图;所述人体关键点对应人体身体关节;
所述输入模块83用于将属性标签输入预先训练的词向量获取模型中,输出与所述属性标签对应的词向量;所述属性标签是指行人自然带有的标签;
所述融合模块84用于将所述部位特征图与所述词向量融合,以形成融合结果;
所述学习模块85用于利用所述融合结果提取部位特征的注意力,并将所述部位特征的注意力与所述融合结果结合,学习与所述属性标签对应的特征向量;
所述生成模块86用于将所述特征向量引入图神经网络,生成对应所述属性标签的隐藏状态;所述隐藏状态包括所述属性标签的自身属性信息;
所述预测模块87用于根据所述隐藏状态和所述特征向量,预测所述属性标签存在的置信度。
所述定义模块88用于基于所述置信度定义损失函数,以获取损失值。
所述选取模块89用于循环执行所述行人属性识别网络训练方法的步骤,直至所述损失值不再下降,停止训练,选取损失值最小值对应的行人属性识别网络作为最终行人属性识别网络。
需要说明的是,搭建模块80、初始化模块81、获取模块82、输入模块83、融合模块84、学习模块85、生成模块86、预测模块87、定义模块88和选取模块89的结构及原理与上述行人属性识别网络方法中的步骤一一对应,故在此不再赘述。
需要说明的是,应理解以上系统的各个模块的划分仅仅是一种逻辑功能的划分,实际实现时可以全部或部分集成到一个物理实体上,也可以物理上分开。且这些模块可以全部以软件通过处理元件调用的形式实现;也可以全部以硬件的形式实现;还可以部分模块通过处理元件调用软件的形式实现,部分模块通过硬件的形式实现。例如,x模块可以为单独设立的处理元件,也可以集成在上述系统的某一个芯片中实现,此外,也可以以程序代码的形式存储于上述系统的存储器中,由上述系统的某一个处理元件调用并执行以上x模块的功能。其它模块的实现与之类似。此外这些模块全部或部分可以集成在一起,也可以独立实现。这里所述的处理元件可以是一种集成电路,具有信号的处理能力。在实现过程中,上述方法的各步骤或以上各个模块可以通过处理器元件中的硬件的集成逻辑电路或者软件形式的指令完成。
例如,以上这些模块可以是被配置成实施以上方法的一个或多个集成电路,例如:一个或多个特定集成电路(Application Specific Integrated Circuit,简称ASIC),或,一个或多个数字信号处理器(Digital Singnal Processor,简称DSP),或,一个或者多个现场可编程门阵列(Field Programmable Gate Array,简称FPGA)等。再如,当以上某个模块通过处理元件调度程序代码的形式实现时,该处理元件可以是通用处理器,例如中央处理器(Central Processing Unit,简称CPU)或其它可以调用程序代码的处理器。再如,这些模块可以集成在一起,以片上系统(system-on-a-chip,简称SOC)的形式实现。
本实施例所述的行人属性识别网络训练系统采用了基于统计属性标签同现的方法构造关系图,并引入门循环机制的图神经网络来探索属性标签之间的信息,提取了属性之间的相关性,大大提高了分类的准确性和可信度;通过提取人体关键点特征结合图神经网络来进行行人属性识别,降低了网络计算复杂度,减少了网络计算的消耗,提高了计算速度,使行人属性识别网络拥有良好的性能,可应对复杂多样的情景,诸如行人重识别、视频监控、刑事侦查、人脸识别、身份验证等等,具有重要的应用价值。
实施例三
本实施例提供一种终端,所述终端包括:处理器、存储器、收发器、通信接口或/和系统总线;存储器和通信接口通过系统总线与处理器和收发器连接并完成相互间的通信,存储器用于存储计算机程序,通信接口用于和其他设备进行通信,处理器和收发器用于运行计算机程序,使所述终端执行所述行人属性识别网络训练方法的各个步骤。
上述提到的系统总线可以是外设部件互连标准(Peripheral ComponentInterconnect,简称PCI)总线或扩展工业标准结构(Extended Industry StandardArchitecture,简称EISA)总线等。该系统总线可以分为地址总线、数据总线、控制总线等。通信接口用于实现数据库访问装置与其他设备(如客户端、读写库和只读库)之间的通信。存储器可能包含随机存取存储器(Random Access Memory,简称RAM),也可能还包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。
优选地,所述处理器可以是通用处理器,包括中央处理器(Central ProcessingUnit,简称CPU)、网络处理器(Network Processor,简称NP)等;还可以是数字信号处理器(Digital Signal Processor,简称DSP)、专用集成电路(Application SpecificIntegrated Circuit,简称ASIC)、现场可编程门阵列(Field Programmable Gate Array,简称FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
需要说明的是,本发明的行人属性识别网络训练系统可以实现本发明的行人属性识别网络训练方法,但本发明的行人属性识别网络训练方法的实现装置包括但不限于本实施例列举的行人属性识别网络训练系统的结构,凡是根据本发明的原理所做的现有技术的结构变形和替换,都包括在本发明的保护范围内。
综上所述,本发明的行人属性识别网络训练方法、系统、介质及终端采用了基于统计属性标签同现的方法构造关系图,并引入门循环机制的图神经网络来探索属性标签之间的信息,提取了属性之间的相关性,大大提高了分类的准确性和可信度;通过提取人体关键点特征结合图神经网络来进行行人属性识别,降低了网络计算复杂度,减少了网络计算的消耗,提高了计算速度,使行人属性识别网络拥有良好的性能,可应对复杂多样的情景,诸如行人重识别、视频监控、刑事侦查、人脸识别、身份验证等等,具有重要的应用价值。所以,本发明有效克服了现有技术中的种种缺点而具高度产业利用价值。
上述实施例仅例示性说明本发明的原理及其功效,而非用于限制本发明。任何熟悉此技术的人士皆可在不违背本发明的精神及范畴下,对上述实施例进行修饰或改变。因此,举凡所属技术领域中具有通常知识者在未脱离本发明所揭示的精神与技术思想下所完成的一切等效修饰或改变,仍应由本发明的权利要求所涵盖。

Claims (10)

1.一种行人属性识别网络训练方法,其特征在于,所述行人属性识别网络训练方法包括以下步骤:
获取对应人体关键点的部位特征图;所述人体关键点对应人体身体关节;
将属性标签输入预先训练的词向量获取模型中,输出与所述属性标签对应的词向量;所述属性标签是指行人自然带有的标签;
将所述部位特征图与所述词向量融合,以形成融合结果;
利用所述融合结果提取部位特征的注意力,并将所述部位特征的注意力与所述融合结果结合,学习与所述属性标签对应的特征向量;
将所述特征向量引入图神经网络,生成对应所述属性标签的隐藏状态;所述隐藏状态包括所述属性标签的自身属性信息;
根据所述隐藏状态和所述特征向量,预测所述属性标签存在的置信度。
2.根据权利要求1所述的行人属性识别网络训练方法,其特征在于,获取对应人体关键点的部位特征图包括以下步骤:
采集行人图像,并将采集的所述行人图像分为训练集和测试集;
将作为训练集的行人图像输入关键点提取模型中,以提取出人体关键点信息,并基于所述人体关键点信息,生成关键点特征图;
根据所述人体关键点对应的自然语义,生成对应所述人体关键点的候选框;所述自然语义为所述人体关键点对应所述身体关节的名称;
对所述候选框进行池化操作,以获取具有固定尺寸的所述部位特征图。
3.根据权利要求2所述的行人属性识别网络训练方法,其特征在于,对所述候选框进行池化操作,以获取具有固定尺寸的所述部位特征图包括以下步骤:
将所述候选框输入全卷积网络,以提取出所述候选框的宽度、高度和信道数;
根据作为训练集的所述行人图像,将所述候选框映射到其在所述关键点特征图上的对应位置;
将映射后的区域划分为相同大小的子块;
对所述子块进行池化操作,以获取具有固定尺寸的所述部位特征图。
4.根据权利要求1所述的行人属性识别网络训练方法,其特征在于,利用所述融合结果提取部位特征的注意力,并将所述部位特征的注意力与所述融合结果结合,学习与所述属性标签对应的特征向量包括以下步骤:
将所述融合结果输入注意力函数,以获取所述部位特征对于所述属性标签的重要性;所述重要性体现为所述注意力函数的输出值;
通过逻辑回归函数对所述输出值进行归一化处理;
将所述部位特征的注意力与所述融合结果结合,对经所述归一化处理后的结果进行加权平均池化,以学习所述特征向量。
5.根据权利要求1所述的行人属性识别网络训练方法,其特征在于,将所述特征向量引入图神经网络,生成对应所述属性标签的隐藏状态包括以下步骤:
构建属性关系图;所述属性关系图用于表征属性标签相互之间同时存在的概率;
将所述属性关系图输入所述图神经网络,并将所述属性标签的初始隐藏状态初始化为所述特征向量,以获取对应所述属性标签的聚合信息;
根据所述聚合信息和所述属性标签前一步的隐藏状态,更新所述属性标签当前的隐藏状态,以生成对应所述属性标签的隐藏状态。
6.根据权利要求1所述的行人属性识别网络训练方法,其特征在于,在获取对应人体关键点的部位特征图之前,所述行人属性识别网络训练方法还包括以下步骤:
搭建所述行人属性识别网络的网络模型;
对所述网络模型进行初始化。
7.根据权利要求1所述的行人属性识别网络训练方法,其特征在于,在根据所述隐藏状态和所述特征向量,预测所述属性标签存在的置信度步骤之后,所述行人属性识别网络训练方法还包括以下步骤:
基于所述置信度定义损失函数,以获取损失值;所述损失值用来表征所述行人属性识别网络对行人属性识别的结果和真实结果之间的差异;
循环执行所述行人属性识别网络训练方法的步骤,直至所述损失值不再下降,停止训练,选取损失值最小值对应的行人属性识别网络作为最终行人属性识别网络。
8.一种行人属性识别网络训练系统,其特征在于,所述行人属性识别网络训练系统包括:获取模块、输入模块、融合模块、学习模块、生成模块和预测模块;
所述获取模块用于获取对应人体关键点的部位特征图;所述人体关键点对应人体身体关节;
所述输入模块用于将属性标签输入预先训练的词向量获取模型中,输出与所述属性标签对应的词向量;所述属性标签是指行人自然带有的标签;
所述融合模块用于将所述部位特征图与所述词向量融合,以形成融合结果;
所述学习模块用于利用所述融合结果提取部位特征的注意力,并将所述部位特征的注意力与所述融合结果结合,学习与所述属性标签对应的特征向量;
所述生成模块用于将所述特征向量引入图神经网络,生成对应所述属性标签的隐藏状态;所述隐藏状态包括所述属性标签的自身属性信息;
所述预测模块用于根据所述隐藏状态和所述特征向量,预测所述属性标签存在的置信度。
9.一种存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时实现权利要求1至7中任一项所述的行人属性识别网络训练方法。
10.一种终端,其特征在于,包括:处理器及存储器;
所述存储器用于存储计算机程序;
所述处理器用于执行所述存储器存储的计算机程序,以使所述终端执行权利要求1至7中任一项所述的行人属性识别网络训练方法。
CN201911291179.XA 2019-12-16 2019-12-16 行人属性识别网络训练方法、系统、介质及终端 Active CN111191526B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911291179.XA CN111191526B (zh) 2019-12-16 2019-12-16 行人属性识别网络训练方法、系统、介质及终端

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911291179.XA CN111191526B (zh) 2019-12-16 2019-12-16 行人属性识别网络训练方法、系统、介质及终端

Publications (2)

Publication Number Publication Date
CN111191526A true CN111191526A (zh) 2020-05-22
CN111191526B CN111191526B (zh) 2023-10-10

Family

ID=70709234

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911291179.XA Active CN111191526B (zh) 2019-12-16 2019-12-16 行人属性识别网络训练方法、系统、介质及终端

Country Status (1)

Country Link
CN (1) CN111191526B (zh)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112036446A (zh) * 2020-08-06 2020-12-04 汇纳科技股份有限公司 目标识别特征融合的方法、系统、介质及装置
CN112084913A (zh) * 2020-08-15 2020-12-15 电子科技大学 一种端到端的人体检测与属性识别方法
CN112183299A (zh) * 2020-09-23 2021-01-05 成都佳华物链云科技有限公司 行人属性预测方法、装置、电子设备及存储介质
CN112329693A (zh) * 2020-11-17 2021-02-05 汇纳科技股份有限公司 性别年龄识别模型的训练方法、识别方法、介质及设备
CN112733602A (zh) * 2020-12-07 2021-04-30 北京航空航天大学 关系引导的行人属性识别方法
CN112883880A (zh) * 2021-02-25 2021-06-01 电子科技大学 一种基于人体结构多尺度分割的行人属性识别方法、存储介质和终端
CN113378657A (zh) * 2021-05-24 2021-09-10 汇纳科技股份有限公司 行人组群关系识别方法、装置及系统
CN113420697A (zh) * 2021-07-01 2021-09-21 中科人工智能创新技术研究院(青岛)有限公司 基于表观和形状特征的换装视频行人重识别方法及系统
CN113505716A (zh) * 2021-07-16 2021-10-15 重庆工商大学 静脉识别模型的训练方法、静脉图像的识别方法及装置
CN113706663A (zh) * 2021-08-27 2021-11-26 脸萌有限公司 图像生成方法、装置、设备及存储介质
CN117011649A (zh) * 2023-10-07 2023-11-07 腾讯科技(深圳)有限公司 一种模型训练方法和相关装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106960176A (zh) * 2017-02-22 2017-07-18 华侨大学 一种基于超限学习机和颜色特征融合的行人性别识别方法
CN106971154A (zh) * 2017-03-16 2017-07-21 天津大学 基于长短记忆型递归神经网络的行人属性预测方法
US20180032801A1 (en) * 2016-07-27 2018-02-01 International Business Machines Corporation Inferring body position in a scan
WO2018121690A1 (zh) * 2016-12-29 2018-07-05 北京市商汤科技开发有限公司 对象属性检测、神经网络训练、区域检测方法和装置
CN109344920A (zh) * 2018-12-14 2019-02-15 汇纳科技股份有限公司 顾客属性预测方法、存储介质、系统及设备
CN110046553A (zh) * 2019-03-21 2019-07-23 华中科技大学 一种融合属性特征的行人重识别模型、方法及系统
CN110070029A (zh) * 2019-04-17 2019-07-30 北京易达图灵科技有限公司 一种步态识别方法及装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180032801A1 (en) * 2016-07-27 2018-02-01 International Business Machines Corporation Inferring body position in a scan
WO2018121690A1 (zh) * 2016-12-29 2018-07-05 北京市商汤科技开发有限公司 对象属性检测、神经网络训练、区域检测方法和装置
CN106960176A (zh) * 2017-02-22 2017-07-18 华侨大学 一种基于超限学习机和颜色特征融合的行人性别识别方法
CN106971154A (zh) * 2017-03-16 2017-07-21 天津大学 基于长短记忆型递归神经网络的行人属性预测方法
CN109344920A (zh) * 2018-12-14 2019-02-15 汇纳科技股份有限公司 顾客属性预测方法、存储介质、系统及设备
CN110046553A (zh) * 2019-03-21 2019-07-23 华中科技大学 一种融合属性特征的行人重识别模型、方法及系统
CN110070029A (zh) * 2019-04-17 2019-07-30 北京易达图灵科技有限公司 一种步态识别方法及装置

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
凌弘毅;: "基于知识蒸馏方法的行人属性识别研究", 计算机应用与软件, no. 10 *
熊炜;冯川;熊子婕;王娟;刘敏;曾春艳;: "基于CNN的改进行人重识别技术", no. 04 *
许方洁;成科扬;张建明;: "基于深度学习与属性学习相结合的行人再识别", no. 04 *

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112036446B (zh) * 2020-08-06 2023-12-12 汇纳科技股份有限公司 目标识别特征融合的方法、系统、介质及装置
CN112036446A (zh) * 2020-08-06 2020-12-04 汇纳科技股份有限公司 目标识别特征融合的方法、系统、介质及装置
CN112084913A (zh) * 2020-08-15 2020-12-15 电子科技大学 一种端到端的人体检测与属性识别方法
CN112183299A (zh) * 2020-09-23 2021-01-05 成都佳华物链云科技有限公司 行人属性预测方法、装置、电子设备及存储介质
CN112183299B (zh) * 2020-09-23 2024-02-09 成都佳华物链云科技有限公司 行人属性预测方法、装置、电子设备及存储介质
CN112329693A (zh) * 2020-11-17 2021-02-05 汇纳科技股份有限公司 性别年龄识别模型的训练方法、识别方法、介质及设备
CN112329693B (zh) * 2020-11-17 2024-01-19 汇纳科技股份有限公司 性别年龄识别模型的训练方法、识别方法、介质及设备
CN112733602B (zh) * 2020-12-07 2022-08-05 北京航空航天大学 关系引导的行人属性识别方法
CN112733602A (zh) * 2020-12-07 2021-04-30 北京航空航天大学 关系引导的行人属性识别方法
CN112883880A (zh) * 2021-02-25 2021-06-01 电子科技大学 一种基于人体结构多尺度分割的行人属性识别方法、存储介质和终端
CN113378657A (zh) * 2021-05-24 2021-09-10 汇纳科技股份有限公司 行人组群关系识别方法、装置及系统
CN113378657B (zh) * 2021-05-24 2024-03-01 汇纳科技股份有限公司 行人组群关系识别方法、装置及系统
CN113420697B (zh) * 2021-07-01 2022-12-09 中科人工智能创新技术研究院(青岛)有限公司 基于表观和形状特征的换装视频行人重识别方法及系统
CN113420697A (zh) * 2021-07-01 2021-09-21 中科人工智能创新技术研究院(青岛)有限公司 基于表观和形状特征的换装视频行人重识别方法及系统
CN113505716A (zh) * 2021-07-16 2021-10-15 重庆工商大学 静脉识别模型的训练方法、静脉图像的识别方法及装置
CN113706663B (zh) * 2021-08-27 2024-02-02 脸萌有限公司 图像生成方法、装置、设备及存储介质
CN113706663A (zh) * 2021-08-27 2021-11-26 脸萌有限公司 图像生成方法、装置、设备及存储介质
CN117011649B (zh) * 2023-10-07 2024-01-30 腾讯科技(深圳)有限公司 一种模型训练方法和相关装置
CN117011649A (zh) * 2023-10-07 2023-11-07 腾讯科技(深圳)有限公司 一种模型训练方法和相关装置

Also Published As

Publication number Publication date
CN111191526B (zh) 2023-10-10

Similar Documents

Publication Publication Date Title
CN111191526B (zh) 行人属性识别网络训练方法、系统、介质及终端
Chen et al. Attention-based context aggregation network for monocular depth estimation
Bu et al. Learning high-level feature by deep belief networks for 3-D model retrieval and recognition
Tang et al. Deep fishernet for image classification
CN107229757B (zh) 基于深度学习和哈希编码的视频检索方法
Xie et al. Point clouds learning with attention-based graph convolution networks
Ouyang et al. Multi-source deep learning for human pose estimation
Wang et al. Encoder-X: solving unknown coefficients automatically in polynomial fitting by using an autoencoder
Li et al. Learning balanced and unbalanced graphs via low-rank coding
CN109783666B (zh) 一种基于迭代精细化的图像场景图谱生成方法
Tang et al. Deep fishernet for object classification
WO2023236977A1 (zh) 一种数据处理方法及相关设备
Ajmal et al. Convolutional neural network based image segmentation: a review
CN110598587B (zh) 结合弱监督的表情识别网络训练方法、系统、介质及终端
Shet et al. Predicate logic based image grammars for complex pattern recognition
Yang et al. Extracting and composing robust features with broad learning system
CN111738074B (zh) 基于弱监督学习的行人属性识别方法、系统及装置
Liu et al. Convolutional fine-grained classification with self-supervised target relation regularization
CN113868448A (zh) 一种细粒度场景级基于草图的图像检索方法及系统
Chen et al. Improving object detection with relation mining network
Ahmad et al. 3D capsule networks for object classification from 3D model data
CN112199884A (zh) 物品分子生成方法、装置、设备及存储介质
WO2022063076A1 (zh) 对抗样本的识别方法及装置
Ouadiay et al. Simultaneous object detection and localization using convolutional neural networks
Nguyen et al. Robust stereo data cost with a learning strategy

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information

Address after: 201203 No. 6, Lane 55, Chuanhe Road, China (Shanghai) pilot Free Trade Zone, Pudong New Area, Shanghai

Applicant after: Winner Technology Co.,Ltd.

Address before: 201505 Room 216, 333 Tingfeng Highway, Tinglin Town, Jinshan District, Shanghai

Applicant before: Winner Technology Co.,Ltd.

CB02 Change of applicant information
GR01 Patent grant
GR01 Patent grant