CN112200055A - 联合对抗生成网络的行人属性识别方法、系统及装置 - Google Patents

联合对抗生成网络的行人属性识别方法、系统及装置 Download PDF

Info

Publication number
CN112200055A
CN112200055A CN202011063376.9A CN202011063376A CN112200055A CN 112200055 A CN112200055 A CN 112200055A CN 202011063376 A CN202011063376 A CN 202011063376A CN 112200055 A CN112200055 A CN 112200055A
Authority
CN
China
Prior art keywords
pedestrian
pedestrian attribute
attribute identification
coding
module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011063376.9A
Other languages
English (en)
Other versions
CN112200055B (zh
Inventor
黄跃珍
黄社阳
赵清利
梁添才
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Xinyi Technology Co Ltd
Original Assignee
Shenzhen Xinyi Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Xinyi Technology Co Ltd filed Critical Shenzhen Xinyi Technology Co Ltd
Priority to CN202011063376.9A priority Critical patent/CN112200055B/zh
Publication of CN112200055A publication Critical patent/CN112200055A/zh
Application granted granted Critical
Publication of CN112200055B publication Critical patent/CN112200055B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了联合对抗生成网络的行人属性识别方法、系统、装置及介质,方法包括:获取待识别图像数据;通过行人属性识别模块对待识别图像数据进行识别,得到行人属性;行人属性识别模块通过以下步骤训练得到:获取行人属性识别的训练样本数据;根据训练样本数据训练得到第一行人属性识别模块;对训练样本数据进行编码,得到编码特征;将编码特征输入至对抗生成解码模块进行解码后,得到第二行人属性识别模块,并通过对抗生成判别器对解码结果进行校验;确定行人属性识别损失函数;根据行人属性识别损失函数,训练得到行人属性识别模块。本发明提高了识别的准确率,可广泛应用于人工智能技术领域。

Description

联合对抗生成网络的行人属性识别方法、系统及装置
技术领域
本发明涉及人工智能技术领域,尤其是一种联合对抗生成网络的行人属性识别方法、系统、装置及介质。
背景技术
随着科技的进步和人们对于安全意识的不断提高,各行业的视频监控应用越来越多,摄像头每天产生的视频数以亿计。在海量视频数据面前,准确分析视频中的人、车、物、事件等需求越来越迫切,视频结构化信息提取就显得尤为必要。行人属性识别是视频结构化信息中的关键信息,是行人信息的基础,具有广泛的实用价值。目前学术界和工业界在行人属性识别方面做了大量研究,提出了不少有价值的算法。较为常用的行人属性识别方法主要有基于全图的行人属性识别方法、基于局部图的行人属性识别方法、基于注意力机制的行人属性识别方法、基于序列化的行人属性识别方法、基于新损失函数的行人属性识别方法、基于先验知识的行人属性识别方法。
由于从监控视频或图片中抓拍的行人目标不可避免的会存在背景杂乱以及行人被遮挡等问题,特别是监控场景低照度、恶劣天气(雨、雪、大雾)等复杂场景下的行人属性识别在实际应用时的效果并不理想。
其中,基于全图的行人属性识别方法,需要收集大量的复杂场景图片对模型进行训练调整,难以克服各种光照下的颜色等行人属性识别问题。
基于局部图像的行人属性识别方法,过程繁琐,耗时过长,且定位行人分析部件可能不太准确,比较粗糙,不具备实用性。
基于注意力机制的行人属性识别方法和基于序列化的行人属性识别方法,能够很好的学习关联信息,但针对光照和复杂背景的场景无法较好的学习到准确率的行人特征属性。
基于新损失函数的行人属性识别方法,提升了识别能力,对于复杂背景的行人属性识别,难以达到较好的识别准确率。
基于先验知识的属性识别方法,是一种多帧信息融合的方法,难以克服复杂场景下的行人属性识别问题。
发明内容
有鉴于此,本发明实施例提供联合对抗生成网络的行人属性识别方法、系统、装置及介质,提高识别准确率。
本发明的第一方面提供了一种联合对抗生成网络的行人属性识别方法,包括:
获取待识别图像数据;
通过行人属性识别模块对所述待识别图像数据进行识别,得到行人属性;
其中,所述行人属性识别模块通过以下步骤训练得到:
获取行人属性识别的训练样本数据;
根据所述训练样本数据训练得到第一行人属性识别模块;
通过对抗生成编码模块对所述训练样本数据进行编码,得到编码特征,所述编码特征包括光照变化信息和天气变化信息;
将所述编码特征输入至对抗生成解码模块进行解码后,得到第二行人属性识别模块,并通过对抗生成判别器对解码结果进行校验;
根据所述第一行人属性识别模块和所述第二行人属性识别模块确定行人属性识别损失函数;
根据所述行人属性识别损失函数,训练得到行人属性识别模块。
在一些实施例中,所述通过对抗生成编码模块对所述训练样本数据进行编码,得到编码特征,包括:
通过迁移光照变化的第一对抗生成编码模块对所述训练样本数据进行第一编码;
通过迁移天气变化的第二对抗生成编码模块对所述训练样本数据进行第二编码;
通过权值参数,根据所述第一编码的结果和所述第二编码的结果,确定编码特征。
在一些实施例中,所述对抗生成解码模块包括4个残差模块和4个卷积层,所述残差模块包括2个自适应归一化层。
在一些实施例中,所述行人属性识别损失函数的确定方法包括:
确定行人属性种类数量;
确定行人属性类别数量;
确定指示变量以及对于样本属于类别的概率;
根据所述行人属性种类数量、行人属性类别数量以及所述概率,计算行人属性识别损失函数。
在一些实施例中,所述行人属性包括行人性别、行人年龄、衣服类型以及衣服风格。
在一些实施例中,所述对抗生成判别器的损失函数的计算公式为:
LCycleGAN(G,F,DX,DY)=LGAN(G,DY,X,Y)+LGAN(F,DX,Y,X)+LCycle(G,F),
其中,X和Y分别代表两个不同的数据域;G和F代表两个生成器网络;F代表***;DX代表X这一数据域的鉴别器网络;DY代表Y这一数据域的鉴别器网络;LGAN()代表对抗损失;LCycle()代表对偶网络的循环损失;LCycleGAN()代表对抗生成判别器的总损失函数。
在一些实施例中,所述行人属性识别损失函数的计算公式为:
Figure BDA0002713069540000031
其中:N代表行人属性种类数量;M代表一种行人属性类别数量;yc代表指示变量,pc代表对于观测样本属于类别c的预测概率;Lattribution代表行人属性识别损失函数。
本发明的第二方面提供了一种联合对抗生成网络的行人属性识别系统,包括:
获取模块,用于获取待识别图像数据;
行人属性识别模块,用于对所述待识别图像数据进行识别,得到行人属性;
其中,所述行人属性识别模块根据本发明第一方面所述的方法训练得到。
本发明的第三方面提供了一种装置,包括处理器以及存储器;
所述存储器用于存储程序;
所述处理器执行所述程序实现如本发明第一方面所述的方法。
本发明的第四方面提供了一种存储介质,所述存储介质存储有程序,所述程序被处理器执行实现如本发明第一方面所述的方法。
本发明的实施例在通过对抗生成编码模块对所述训练样本数据进行编码,迁移了光照变化和天气变化来生成编码特征,能够自动从待识别图像数据中采集光照和天气的细节属性,无需大量收集复杂场景下的样本进行训练,也能够较好的克服了光照、背景、天气等复杂场景对行人属性识别的影响,提高了识别的准确率。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例的联合对抗生成的行人属性识别网络结构图;
图2为本发明实施例的联合对抗生成的行人属性识别模型训练流程图;
图3为本发明实施例的行人属性识别模块网络结构图;
图4为本发明实施例的联合对抗生成的行人属性识别推理流程图。
具体实施方式
下面结合说明书附图和具体实施例对本发明作进一步解释和说明。对于本发明实施例中的步骤编号,其仅为了便于阐述说明而设置,对步骤之间的顺序不做任何限定,实施例中的各步骤的执行顺序均可根据本领域技术人员的理解来进行适应性调整。
针对现有技术存在的问题,本发明实施例提供了一种联合对抗生成网络的行人属性识别方法,本发明设计了迁移光照和天气变化两个生成编码器,采用CycleGAN(循环对抗生成网络)对抗生成合成包含了光照和天气变化的编码特征,生成的光照和天气变化的编码特征包含了来自于真实图片的光照和天气变化信息。行人属性识别模块可以学习到光照和天气变化信息,自动从合成的图像中采集细节属性,不需要大量收集复杂场景下的样本进行训练,也能够较好的克服了光照、背景、天气等复杂场景对行人属性识别的影响。
参照图1,本发明实施例提供了一种联合对抗生成的行人属性识别网络结构图。基于图1所示的识别网络结构,本发明的行人属性识别方法包括步骤S101和S102:
S101、获取待识别图像数据;
S102、通过行人属性识别模块对所述待识别图像数据进行识别,得到行人属性;
如图1所示,本发明实施例首先导入行人属性识别模型训练样本到对抗生成编码模块(本方案中的对抗生成编码模块包括:一个迁移光照变化的对抗生成编码模块M1-1,一个迁移天气变化的对抗生成编码模块M1-2)。其次,通过将两个对抗生成网络的编码器的输出乘以权值参数a1和a2,得到的编码特征输出作为对抗生成解码器M2-1的输入。最后,通过一个对抗生成判别器判定M3-1合成的样本是否为真,同时采用多任务机制训练行人属性模块M3-2、M3-3,采用数据对抗生成损失函数和行人属性识别损失函数叠加来综合评定行人属性识别网络模型训练效果,实现把光照变化和天气变化迁移学习到行人属性识别网络模型,从而减少光照变化和天气变化对行人属性识别的干扰,提升行人属性识别的准确率。
图2是本发明实施例提供的一种联合对抗生成的行人属性识别模型训练流程图。
其中,所述行人属性识别模块通过步骤S201-S206训练得到:
S201、获取行人属性识别的训练样本数据;
S202、根据所述训练样本数据训练得到第一行人属性识别模块;
S203、通过对抗生成编码模块对所述训练样本数据进行编码,得到编码特征,所述编码特征包括光照变化信息和天气变化信息;
具体地,本发明实施例通过迁移光照和天气变化对抗生成编码模块,采用ResNet50(残差网络50)作为基础网络,剔除全局平均池化层全连接层,添加自适应最大池化层,对输入的行人图片进行编码。
S204、将所述编码特征输入至对抗生成解码模块进行解码后,得到第二行人属性识别模块,并通过对抗生成判别器对解码结果进行校验;
具体地,本发明实施例的对抗生成解码模块,采用4个残差模块和4个卷积层,每个残差模块包含2个自适应归一化层,解码包含光照和天气变化的对抗生成编码特征。
另外,本发明实施例的对抗生成判别器,采用多尺度缩放判定,通过不同尺寸的图像进行输入N*M和2N*2M和4N*4M,对图片进行几次缩放,并且对每次缩放进行预测真假,采用梯度惩罚,直到更新判别器达到稳定。对抗生成网络的损失函数为:
LCycleGAN(G,F,DX,DY)=LGAN(G,DY,X,Y)+LGAN(F,DX,Y,X)+LCycle(G,F),
其中:
Figure BDA0002713069540000051
Figure BDA0002713069540000052
Figure BDA0002713069540000053
其中,X和Y分别代表两个不同的数据域;G和F代表两个生成器网络;F代表***;DX代表X这一数据域的鉴别器网络;DY代表Y这一数据域的鉴别器网络;LGAN()代表对抗损失;LCycle()代表对偶网络的循环损失;LCycleGAN()代表对抗生成判别器的总损失函数。
S205、根据所述第一行人属性识别模块和所述第二行人属性识别模块确定行人属性识别损失函数;
本发明实施例针对行人属性的多样性和关联性,本发明采用基于多任务的行人属性识别方法。图3是基于多标签的行人属性识别网络模型结构图。如图3所示,行人属性识别的损失函数如下:
Figure BDA0002713069540000054
其中,N为行人属性种类数量,M为一种行人属性类别数量,yc为指示变量,pc为对于观测样本属于类别c的预测概率。
针对联合行人属性和对抗生成网络的模型训练,本发明实施例提出联合收益的损失函数。联合对抗生成的行人属性识别损失函数如下:
Lattribution=Lattribution_adv+Lattribution_src+LCycleGAN(G,F,DX,DY)
Figure BDA0002713069540000055
Figure BDA0002713069540000056
其中:N为行人属性种类数量,M为一种行人属性类别数量,yc为指示变量,pc为对于观测样本属于类别c的预测概率。LCycleGAN(G,F,DX,DY)为抗生成网络的损失函数。Lattribution代表行人属性识别损失函数。
S206、根据所述行人属性识别损失函数,训练得到行人属性识别模块。
图4为联合对抗生成的行人属性识别推理流程图,如图4所示,本发明实施例首先,导入待识别的行人属性识别目标图片,其次,采用多任务机制训练的行人属性模块,最后,输出行人属性识别结果,包括行人性别、年龄、衣服类型、衣服风格等行人属性。
针对行人属性的多样性和关联性,本发明实施例采用基于多任务的行人属性识别方法。如图3所示,基于多标签的行人属性识别网络模型结构图。行人属性识别的损失函数如下:
Figure BDA0002713069540000061
其中:N为行人属性种类数量,M为一种行人属性类别数量,yc为指示变量,pc为对于观测样本属于类别c的预测概率。
综上所述,本发明实施例提出的一种联合对抗生成的行人属性识别方法,是一种端到端的深度学习网络,相较于现有技术的基于局部图像的行人属性识别方法和基于先验知识的属性识别方法具有较强的稳定性。
本发明首次采用数据对抗生成网络模型和行人属性识别模型联合学习,采用迁移学习的方法,把光照变化和天气变化迁移学习到行人属性识别网络。
相较于现有技术的基于全图的行人属性识别方法、基于注意力机制的行人属性识别方法、基于序列化的行人属性识别方法以及基于新损失函数的行人属性识别方法,本发明添加了复杂场景合成样本,能够带来针对复杂场景下的行人属性识别准确率的直接提升。
本方案通过对抗生成和属性识别两个损失函数来综合评定模型训练效果,相较于基于全图的行人属性识别方法通过增加复杂场景样本或生成样本等方法,本方法无需大量收集复杂场景样本或生成复杂场景样本,也能够有效克服复杂场景对提升行人属性识别准确率的影响。
本方案可以在低照度或光照变化较大、大雾等复杂场景下,获取较好的行人属性识别准确率,具有较强的抗干扰能力。
本发明中提出的一种联合对抗生成的行人属性识别方法,算法鲁棒性较强,具有一定的实用性。
本发明实施例还提供了一种联合对抗生成网络的行人属性识别系统,包括:
获取模块,用于获取待识别图像数据;
行人属性识别模块,用于对所述待识别图像数据进行识别,得到行人属性;
其中,所述行人属性识别模块根据上述的方法训练得到。
本发明实施例还提供了一种装置,包括处理器以及存储器;
所述存储器用于存储程序;
所述处理器执行所述程序实现本发明所述的方法。
本发明实施例还提供了一种存储介质,所述存储介质存储有程序,所述程序被处理器执行实现本发明所述的方法。
综上所述,本发明提出了一种联合数据对抗生成网络和行人属性识别网络的网络,采用对抗生成网络模型和行人属性识别模型联合训练,把光照变化和天气变化迁移学习到行人属性识别网络模型;
本发明采用数据对抗生成损失函数和行人属性识别损失函数叠加来综合评定行人属性识别网络模型训练效果。
在一些可选择的实施例中,在方框图中提到的功能/操作可以不按照操作示图提到的顺序发生。例如,取决于所涉及的功能/操作,连续示出的两个方框实际上可以被大体上同时地执行或所述方框有时能以相反顺序被执行。此外,在本发明的流程图中所呈现和描述的实施例以示例的方式被提供,目的在于提供对技术更全面的理解。所公开的方法不限于本文所呈现的操作和逻辑流程。可选择的实施例是可预期的,其中各种操作的顺序被改变以及其中被描述为较大操作的一部分的子操作被独立地执行。
此外,虽然在功能性模块的背景下描述了本发明,但应当理解的是,除非另有相反说明,所述的功能和/或特征中的一个或多个可以被集成在单个物理装置和/或软件模块中,或者一个或多个功能和/或特征可以在单独的物理装置或软件模块中被实现。还可以理解的是,有关每个模块的实际实现的详细讨论对于理解本发明是不必要的。更确切地说,考虑到在本文中公开的装置中各种功能模块的属性、功能和内部关系的情况下,在工程师的常规技术内将会了解该模块的实际实现。因此,本领域技术人员运用普通技术就能够在无需过度试验的情况下实现在权利要求书中所阐明的本发明。还可以理解的是,所公开的特定概念仅仅是说明性的,并不意在限制本发明的范围,本发明的范围由所附权利要求书及其等同方案的全部范围来决定。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,“计算机可读介质”可以是任何可以包含、存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用的装置。
计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式光盘只读存储器(CDROM)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
尽管已经示出和描述了本发明的实施例,本领域的普通技术人员可以理解:在不脱离本发明的原理和宗旨的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由权利要求及其等同物限定。
以上是对本发明的较佳实施进行了具体说明,但本发明并不限于所述实施例,熟悉本领域的技术人员在不违背本发明精神的前提下还可做作出种种的等同变形或替换,这些等同的变形或替换均包含在本申请权利要求所限定的范围内。

Claims (10)

1.一种联合对抗生成网络的行人属性识别方法,其特征在于,包括:
获取待识别图像数据;
通过行人属性识别模块对所述待识别图像数据进行识别,得到行人属性;
其中,所述行人属性识别模块通过以下步骤训练得到:
获取行人属性识别的训练样本数据;
根据所述训练样本数据训练得到第一行人属性识别模块;
通过对抗生成编码模块对所述训练样本数据进行编码,得到编码特征,所述编码特征包括光照变化信息和天气变化信息;
将所述编码特征输入至对抗生成解码模块进行解码后,得到第二行人属性识别模块,并通过对抗生成判别器对解码结果进行校验;
根据所述第一行人属性识别模块和所述第二行人属性识别模块确定行人属性识别损失函数;
根据所述行人属性识别损失函数,训练得到行人属性识别模块。
2.根据权利要求1所述的一种联合对抗生成网络的行人属性识别方法,其特征在于,所述通过对抗生成编码模块对所述训练样本数据进行编码,得到编码特征,包括:
通过迁移光照变化的第一对抗生成编码模块对所述训练样本数据进行第一编码;
通过迁移天气变化的第二对抗生成编码模块对所述训练样本数据进行第二编码;
通过权值参数,根据所述第一编码的结果和所述第二编码的结果,确定编码特征。
3.根据权利要求1所述的一种联合对抗生成网络的行人属性识别方法,其特征在于,所述对抗生成解码模块包括4个残差模块和4个卷积层,所述残差模块包括2个自适应归一化层。
4.根据权利要求1所述的一种联合对抗生成网络的行人属性识别方法,其特征在于,所述行人属性识别损失函数的确定方法包括:
确定行人属性种类数量;
确定行人属性类别数量;
确定指示变量以及对于样本属于类别的概率;
根据所述行人属性种类数量、行人属性类别数量以及所述概率,计算行人属性识别损失函数。
5.根据权利要求1所述的一种联合对抗生成网络的行人属性识别方法,其特征在于,所述行人属性包括行人性别、行人年龄、衣服类型以及衣服风格。
6.根据权利要求1所述的一种联合对抗生成网络的行人属性识别方法,其特征在于,所述对抗生成判别器的损失函数的计算公式为:
LCycleGAN(G,F,DX,DY)=LGAN(G,DY,X,Y)+LGAN(F,DX,Y,X)+LCycle(G,F),
其中,X和Y分别代表两个不同的数据域;G和F代表两个生成器网络;F代表***;DX代表X这一数据域的鉴别器网络;DY代表Y这一数据域的鉴别器网络;LGAN()代表对抗损失;LCycle()代表对偶网络的循环损失;LCycleGAN()代表对抗生成判别器的总损失函数。
7.根据权利要求1或4所述的一种联合对抗生成网络的行人属性识别方法,其特征在于,所述行人属性识别损失函数的计算公式为:
Figure FDA0002713069530000021
其中:N代表行人属性种类数量;M代表一种行人属性类别数量;yc代表指示变量,pc代表对于观测样本属于类别c的预测概率;Lattribution代表行人属性识别损失函数。
8.一种联合对抗生成网络的行人属性识别系统,其特征在于,包括:
获取模块,用于获取待识别图像数据;
行人属性识别模块,用于对所述待识别图像数据进行识别,得到行人属性;
其中,所述行人属性识别模块根据权利要求1所述的方法训练得到。
9.一种装置,其特征在于,包括处理器以及存储器;
所述存储器用于存储程序;
所述处理器执行所述程序实现如权利要求1-7中任一项所述的方法。
10.一种存储介质,其特征在于,所述存储介质存储有程序,所述程序被处理器执行实现如权利要求1-7中任一项所述的方法。
CN202011063376.9A 2020-09-30 2020-09-30 联合对抗生成网络的行人属性识别方法、系统及装置 Active CN112200055B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011063376.9A CN112200055B (zh) 2020-09-30 2020-09-30 联合对抗生成网络的行人属性识别方法、系统及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011063376.9A CN112200055B (zh) 2020-09-30 2020-09-30 联合对抗生成网络的行人属性识别方法、系统及装置

Publications (2)

Publication Number Publication Date
CN112200055A true CN112200055A (zh) 2021-01-08
CN112200055B CN112200055B (zh) 2024-04-30

Family

ID=74012976

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011063376.9A Active CN112200055B (zh) 2020-09-30 2020-09-30 联合对抗生成网络的行人属性识别方法、系统及装置

Country Status (1)

Country Link
CN (1) CN112200055B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113221757A (zh) * 2021-05-14 2021-08-06 上海交通大学 一种改善行人属性识别准确率的方法、终端及介质

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108171206A (zh) * 2018-01-17 2018-06-15 百度在线网络技术(北京)有限公司 信息生成方法和装置
CN108764298A (zh) * 2018-04-29 2018-11-06 天津大学 基于单分类器的电力图像环境影响识别方法
CN109726669A (zh) * 2018-12-26 2019-05-07 浙江捷尚视觉科技股份有限公司 基于对抗网络的不同光照条件下行人再识别数据生成方法
CN109871902A (zh) * 2019-03-08 2019-06-11 哈尔滨工程大学 一种基于超分辨率对抗生成级联网络的sar小样本识别方法
CN109934116A (zh) * 2019-02-19 2019-06-25 华南理工大学 一种基于生成对抗机制与注意力机制的标准人脸生成方法
CN110321801A (zh) * 2019-06-10 2019-10-11 浙江大学 一种基于自编码网络的换衣行人重识别方法及系统
CN110751098A (zh) * 2019-10-22 2020-02-04 中山大学 一种基于光照、姿态生成对抗网络的人脸识别方法
US20200090357A1 (en) * 2018-09-14 2020-03-19 Lucas PAGÉ-CACCIA Method and system for generating synthetic point cloud data using a generative model
KR102139513B1 (ko) * 2019-11-28 2020-08-12 국민대학교산학협력단 인공지능 vils 기반의 자율주행 제어 장치 및 방법
CN111582345A (zh) * 2020-04-29 2020-08-25 中国科学院重庆绿色智能技术研究院 一种小样本下复杂环境的目标识别方法
CN111652828A (zh) * 2020-05-27 2020-09-11 北京百度网讯科技有限公司 人脸图像生成方法、装置、设备和介质
CN111666846A (zh) * 2020-05-27 2020-09-15 厦门大学 一种人脸属性识别方法和装置

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108171206A (zh) * 2018-01-17 2018-06-15 百度在线网络技术(北京)有限公司 信息生成方法和装置
CN108764298A (zh) * 2018-04-29 2018-11-06 天津大学 基于单分类器的电力图像环境影响识别方法
US20200090357A1 (en) * 2018-09-14 2020-03-19 Lucas PAGÉ-CACCIA Method and system for generating synthetic point cloud data using a generative model
CN109726669A (zh) * 2018-12-26 2019-05-07 浙江捷尚视觉科技股份有限公司 基于对抗网络的不同光照条件下行人再识别数据生成方法
CN109934116A (zh) * 2019-02-19 2019-06-25 华南理工大学 一种基于生成对抗机制与注意力机制的标准人脸生成方法
CN109871902A (zh) * 2019-03-08 2019-06-11 哈尔滨工程大学 一种基于超分辨率对抗生成级联网络的sar小样本识别方法
CN110321801A (zh) * 2019-06-10 2019-10-11 浙江大学 一种基于自编码网络的换衣行人重识别方法及系统
CN110751098A (zh) * 2019-10-22 2020-02-04 中山大学 一种基于光照、姿态生成对抗网络的人脸识别方法
KR102139513B1 (ko) * 2019-11-28 2020-08-12 국민대학교산학협력단 인공지능 vils 기반의 자율주행 제어 장치 및 방법
CN111582345A (zh) * 2020-04-29 2020-08-25 中国科学院重庆绿色智能技术研究院 一种小样本下复杂环境的目标识别方法
CN111652828A (zh) * 2020-05-27 2020-09-11 北京百度网讯科技有限公司 人脸图像生成方法、装置、设备和介质
CN111666846A (zh) * 2020-05-27 2020-09-15 厦门大学 一种人脸属性识别方法和装置

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
DEJIAN LI等: "Multi-Pose Facial Expression Recognition Based on Generative Adversarial Network", 《 IEEE ACCESS》, vol. 7, 7 October 2019 (2019-10-07), pages 143980 - 143989, XP011750419, DOI: 10.1109/ACCESS.2019.2945423 *
EHSAN YAGHOUBI等: "Human Attribute Recognition— A Comprehensive Survey", 《APPLIED SCIENCESAPP》, vol. 10, no. 16, 13 August 2020 (2020-08-13), pages 1 - 44 *
HONGBO WANG等: "A Survey of Vehicle Re-Identification Based on Deep Learning", 《 IEEE ACCESS 》, vol. 7, 27 November 2019 (2019-11-27), pages 172443 - 172469, XP011759041, DOI: 10.1109/ACCESS.2019.2956172 *
万里鹏: "基于生成对抗网络的多属性人脸生成及辅助识别研究", 《中国优秀硕士学位论文全文数据库 (信息科技辑)》, no. 01, 15 January 2019 (2019-01-15), pages 138 - 2878 *
刘一敏等: "融合生成对抗网络和姿态估计的视频行人再识别方法", 《自动化学报》, vol. 46, no. 03, 17 December 2018 (2018-12-17), pages 576 - 584 *
孙志琳等: "基于风格迁移及度量融合的行人再识别研究", 《测试技术学报》, vol. 33, no. 01, 19 February 2019 (2019-02-19), pages 24 - 28 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113221757A (zh) * 2021-05-14 2021-08-06 上海交通大学 一种改善行人属性识别准确率的方法、终端及介质

Also Published As

Publication number Publication date
CN112200055B (zh) 2024-04-30

Similar Documents

Publication Publication Date Title
Alshdaifat et al. Improved deep learning framework for fish segmentation in underwater videos
Li et al. Deep neural network for structural prediction and lane detection in traffic scene
CN111104903B (zh) 一种深度感知交通场景多目标检测方法和系统
Li et al. Topology-enhanced urban road extraction via a geographic feature-enhanced network
Verwimp et al. Clad: A realistic continual learning benchmark for autonomous driving
Arief et al. Addressing overfitting on point cloud classification using Atrous XCRF
CN114612477B (zh) 一种轻量化图像分割方法、系统、介质、终端及应用
CN111476285B (zh) 一种图像分类模型的训练方法及图像分类方法、存储介质
CN112634296A (zh) 门机制引导边缘信息蒸馏的rgb-d图像语义分割方法及终端
CN111881731A (zh) 基于人体骨架的行为识别方法、系统、装置及介质
Chandrakar et al. Computer succoured vaticination of multi-object detection and histogram enhancement in low vision
Wang et al. PFDN: Pyramid feature decoupling network for single image deraining
Chen et al. Weather-aware object detection method for maritime surveillance systems
Zhang et al. Embarrassingly simple binarization for deep single imagery super-resolution networks
CN116861262B (zh) 一种感知模型训练方法、装置及电子设备和存储介质
CN111914949B (zh) 基于强化学习的零样本学习模型的训练方法及装置
Cai et al. Variational autoencoder for classification and regression for out-of-distribution detection in learning-enabled cyber-physical systems
CN112200055A (zh) 联合对抗生成网络的行人属性识别方法、系统及装置
CN111353441B (zh) 基于位置数据融合的道路提取方法和系统
Lin et al. Real-time foreground object segmentation networks using long and short skip connections
CN113807354A (zh) 图像语义分割方法、装置、设备和存储介质
Rocha et al. Beyond Land: A Review of Benchmarking Datasets, Algorithms, and Metrics for Visual-Based Ship Tracking
Chen et al. Ship tracking for maritime traffic management via a data quality control supported framework
CN115205624A (zh) 一种跨维度注意力聚合的云雪辩识方法、设备及存储介质
CN115115966A (zh) 视频场景的分割方法、装置、计算机设备、存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant