CN111126310A - 一种基于场景迁移的行人性别识别方法 - Google Patents
一种基于场景迁移的行人性别识别方法 Download PDFInfo
- Publication number
- CN111126310A CN111126310A CN201911367254.6A CN201911367254A CN111126310A CN 111126310 A CN111126310 A CN 111126310A CN 201911367254 A CN201911367254 A CN 201911367254A CN 111126310 A CN111126310 A CN 111126310A
- Authority
- CN
- China
- Prior art keywords
- pedestrian
- image
- scene
- migration
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于场景迁移的行人性别识别方法,包括场景迁移过程与性别识别过程。本发明通过对偶生成对抗模型对来自不同场景的行人图像集进行图像迁移,减小不同数据集中行人场景的差异。利用迁移图像训练卷积神经网络,使网络模型具有较高精度的性别识别能力。本发明结合了对偶生成对抗模型用于图像迁移的优点,解决了以往基于卷积神经网络在行人性别识别问题上的不足,有效地提高了行人性别识别精度。本发明可以被广泛地应用在智能视频监控场景,大型商场的人口统计等。
Description
技术领域
本发明涉及计算机视觉和模式识别技术领域,更具体地说,涉及一种基于场景迁移的行 人性别识别方法。
背景技术
随着互联网、云计算和多媒体技术的快速发展,视频监控系统已广泛地部署在城市的各 个角落,例如街道、机场、火车站等公共场所。在这些监控系统中,行人身份识别在公共安 全中发挥着重要作用。作为行人身份识别技术的重要辅助手段,行人性别识别技术是行人智 能监控系统进行远距离目标身份识别的重要组成部分。
行人性别识别是指在监控视频中识别出过往行人的性别,其具有重要的应用价值,例如 大型商场的人口统计等。
现有技术的方法是基于手工特征进行行人性别识别,例如提取行人轮廓特征(HOG)或 者纹理特征(LBP),并运用SVM、Adboost等分类器实现性别分类;但单一的手工特征提取 方法的识别精度普遍不高。
或者,基于目前比较流行的深度学习方法进行特征学习与分类,而基于卷积神经网络方 法往往泛化性能较差,对输入噪声和抖动比较敏感,例如当输入图像的场景发生改变时,由 于训练数据无法涵盖所有场景下的行人图像,导致在测试阶段神经网络可能无法有效地应对 场景变化所造成的识别错误。
发明内容
本发明的目的在于克服现有技术的不足,提供一种基于场景迁移的行人性别识别方法, 有效地提高了行人性别识别精度。
本发明的技术方案如下:
一种基于场景迁移的行人性别识别方法,包括场景迁移过程、性别识别过程;
场景迁移过程,步骤如下:
其中,通过GU→V能够将来自U场景下的行人图像迁移至V场景,同时保持被迁移图像中行人外貌和姿态不发生改变;通过GV→U能够将来自V场景下的行人图像迁移至U场景, 同时保持被迁移图像中行人外貌和姿态不发生改变;
当行人图像从U场景迁移至V场景时,性别识别过程步骤如下:
或者,当行人图像从V场景迁移至U场景时,性别识别过程步骤如下:
作为优选,步骤1.3)中,模型GU→V和GV→U的获得步骤如下:
1.3.2)将选取的行人图像与掩模图像输入对偶生成对抗网络进行对抗训练;
1.3.3)重复步骤1.3.1)、步骤1.3.2),直至对偶生成对抗模型收敛,得到生成模型GU→V和 GV→U。
作为优选,步骤1.3)中,对抗训练采用的损失函数为对偶生成对抗损失函数与行人外貌 映射损失函数之和,具体为:
L=LDualGAN(u,v)+LKPAM(u,v);
其中,LDualGAN(u,v)表示对偶对抗损失函数,LKPAM(u,v)表示行人外貌映射损失函数; Dp(·)和Dd(·)表示两个对偶的鉴别器,Dp(·)用于鉴别生成图像是否为U场景的图像,Dd(·) 用于鉴别生成图像是否为V场景的图像,z和为随机噪声向量,λ1、λ2、λ3和λ4为参数 常量,⊙表示点乘操作,M(u)和M(v)分别表示U场景和V场景的掩模图像。
作为优选,步骤2.2)中,模型P的获取步骤如下:
2.2.2)将选取的迁移图像送入卷积神经网络进行训练;
2.2.3)重复步骤2.2.1)和2.2.2),直到卷积神经网络收敛,得到模型P;
2.2.2)将选取的迁移图像送入卷积神经网络进行训练;
2.2.3)重复步骤2.2.1)和2.2.2),直到卷积神经网络收敛,得到模型P;
作为优选,卷积神经网络训练过程中,第l层参数更新如下:
其中,l表示网络层数,α表示学习步长,W(l)表示第l层神经元的权重参数,ΔW(l)表示第l层神经元权重参数的导数,b(l)表示第l层神经元的偏置参数,Δb(l)表示第l层神经元偏 置参数的导数,m表示一次训练输入的图片数量,λ表示正则化因子。
本发明的有益效果如下:
本发明所述的基于场景迁移的行人性别识别方法,通过对偶生成对抗模型对来自不同场 景的行人图像集进行图像迁移,减小不同数据集中行人场景的差异。利用迁移图像训练卷积 神经网络,使网络模型具有较高精度的性别识别能力。本发明结合了对偶生成对抗模型用于 图像迁移的优点,解决了以往基于卷积神经网络在行人性别识别问题上的不足,有效地提高 了行人性别识别精度。
本发明可以被广泛地应用在智能视频监控场景,大型商场的人口统计等。
附图说明
图1是场景迁移过程的原理示意图;
图2是性别识别过程的原理示意图。
具体实施方式
以下结合附图及实施例对本发明进行进一步的详细说明。
本发明提供一种基于场景迁移的行人性别识别方法,包括场景迁移过程、性别识别过程。
场景迁移过程,如图1所示,步骤如下:
其中,通过GU→V能够将来自U场景下的行人图像迁移至V场景,同时保持被迁移图像中行人外貌和姿态不发生改变;通过GV→U能够将来自V场景下的行人图像迁移至U场景, 同时保持被迁移图像中行人外貌和姿态不发生改变。
模型GU→V和GV→U的获得步骤具体如下:
1.3.2)将选取的行人图像与掩模图像输入对偶生成对抗网络进行对抗训练;
1.3.3)重复步骤1.3.1)、步骤1.3.2),直至对偶生成对抗模型收敛,得到生成模型GU→V和 GV→U。
对抗训练采用的损失函数为对偶生成对抗损失函数与行人外貌映射损失函数之和,具体 为:
L=LDualGAN(u,v)+LKPAM(u,v);
其中,LDualGAN(u,v)表示对偶对抗损失函数,LKPAM(u,v)表示行人外貌映射损失函数; Dp(·)和Dd(·)表示两个对偶的鉴别器,Dp(·)用于鉴别生成图像是否为U场景的图像,Dd(·) 用于鉴别生成图像是否为V场景的图像,z和为随机噪声向量,λ1、λ2、λ3和λ4为参数 常量,⊙表示点乘操作,M(u)和M(v)分别表示U场景和V场景的掩模图像。
如图2所示,当行人图像从U场景迁移至V场景时,性别识别过程的步骤如下:
模型P的获取步骤具体如下:
2.2.2)将选取的迁移图像送入卷积神经网络进行训练;
2.2.3)重复步骤2.2.1)和2.2.2),直到卷积神经网络收敛,得到模型P;
或者,当行人图像从V场景迁移至U场景时,性别识别过程步骤如下:
模型P的获取步骤具体如下:
2.2.2)将选取的迁移图像送入卷积神经网络进行训练;
2.2.3)重复步骤2.2.1)和2.2.2),直到卷积神经网络收敛,得到模型P;
所述的卷积神经网络训练过程中,第l层参数更新如下:
其中,l表示网络层数,α表示学习步长,W(l)表示第l层神经元的权重参数,ΔW(l)表示第l层神经元权重参数的导数,b(l)表示第l层神经元的偏置参数,Δb(l)表示第l层神经元偏 置参数的导数,m表示一次训练输入的图片数量,λ表示正则化因子。
上述实施例仅是用来说明本发明,而并非用作对本发明的限定。只要是依据本发明的技 术实质,对上述实施例进行变化、变型等都将落在本发明的权利要求的范围内。
Claims (5)
1.一种基于场景迁移的行人性别识别方法,其特征在于,包括场景迁移过程、性别识别过程;
场景迁移过程,步骤如下:
其中,通过GU→V能够将来自U场景下的行人图像迁移至V场景,同时保持被迁移图像中行人外貌和姿态不发生改变;通过GV→U能够将来自V场景下的行人图像迁移至U场景,同时保持被迁移图像中行人外貌和姿态不发生改变;
当行人图像从U场景迁移至V场景时,性别识别过程步骤如下:
或者,当行人图像从V场景迁移至U场景时,性别识别过程步骤如下:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911367254.6A CN111126310B (zh) | 2019-12-26 | 2019-12-26 | 一种基于场景迁移的行人性别识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911367254.6A CN111126310B (zh) | 2019-12-26 | 2019-12-26 | 一种基于场景迁移的行人性别识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111126310A true CN111126310A (zh) | 2020-05-08 |
CN111126310B CN111126310B (zh) | 2023-03-24 |
Family
ID=70503142
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911367254.6A Active CN111126310B (zh) | 2019-12-26 | 2019-12-26 | 一种基于场景迁移的行人性别识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111126310B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022134766A1 (zh) * | 2020-12-24 | 2022-06-30 | 华为技术有限公司 | 场景迁移方法、装置及电子设备 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107633223A (zh) * | 2017-09-15 | 2018-01-26 | 深圳市唯特视科技有限公司 | 一种基于深层对抗网络的视频人体属性识别方法 |
CN107862300A (zh) * | 2017-11-29 | 2018-03-30 | 东华大学 | 一种基于卷积神经网络的监控场景下行人属性识别方法 |
WO2019144575A1 (zh) * | 2018-01-24 | 2019-08-01 | 中山大学 | 一种快速行人检测方法及装置 |
CN110321874A (zh) * | 2019-07-12 | 2019-10-11 | 南京航空航天大学 | 一种轻量化的卷积神经网络行人识别方法 |
-
2019
- 2019-12-26 CN CN201911367254.6A patent/CN111126310B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107633223A (zh) * | 2017-09-15 | 2018-01-26 | 深圳市唯特视科技有限公司 | 一种基于深层对抗网络的视频人体属性识别方法 |
CN107862300A (zh) * | 2017-11-29 | 2018-03-30 | 东华大学 | 一种基于卷积神经网络的监控场景下行人属性识别方法 |
WO2019144575A1 (zh) * | 2018-01-24 | 2019-08-01 | 中山大学 | 一种快速行人检测方法及装置 |
CN110321874A (zh) * | 2019-07-12 | 2019-10-11 | 南京航空航天大学 | 一种轻量化的卷积神经网络行人识别方法 |
Non-Patent Citations (1)
Title |
---|
刘伦豪杰等: "基于迁移卷积神经网络的人脸表情识别", 《电脑知识与技术》 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022134766A1 (zh) * | 2020-12-24 | 2022-06-30 | 华为技术有限公司 | 场景迁移方法、装置及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN111126310B (zh) | 2023-03-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Sakkos et al. | End-to-end video background subtraction with 3d convolutional neural networks | |
US10733755B2 (en) | Learning geometric differentials for matching 3D models to objects in a 2D image | |
CN109584248B (zh) | 基于特征融合和稠密连接网络的红外面目标实例分割方法 | |
CN109598268B (zh) | 一种基于单流深度网络的rgb-d显著目标检测方法 | |
Gao et al. | LFT-Net: Local feature transformer network for point clouds analysis | |
Xu et al. | Bridging the domain gap for multi-agent perception | |
US10445622B2 (en) | Learning disentangled invariant representations for one-shot instance recognition | |
WO2018084941A1 (en) | Temporal difference estimation in an artificial neural network | |
US20220156528A1 (en) | Distance-based boundary aware semantic segmentation | |
US11270425B2 (en) | Coordinate estimation on n-spheres with spherical regression | |
US20230070439A1 (en) | Managing occlusion in siamese tracking using structured dropouts | |
CN117157678A (zh) | 用于基于图的全景分割的方法和系统 | |
Wang et al. | Sfgan: Unsupervised generative adversarial learning of 3d scene flow from the 3d scene self | |
Yang et al. | [Retracted] A Method of Image Semantic Segmentation Based on PSPNet | |
CN110111365B (zh) | 基于深度学习的训练方法和装置以及目标跟踪方法和装置 | |
Li | Image semantic segmentation method based on GAN network and ENet model | |
CN111126310B (zh) | 一种基于场景迁移的行人性别识别方法 | |
CN117576402A (zh) | 一种基于深度学习的多尺度聚合Transformer遥感图像语义分割方法 | |
Nguyen et al. | Smart solution to detect images in limited visibility conditions based convolutional neural networks | |
Wu et al. | Small target recognition method on weak features | |
Tan et al. | 3D detection transformer: Set prediction of objects using point clouds | |
CN113887536B (zh) | 一种基于高层语义引导的多阶段高效人群密度估计方法 | |
CN115775214A (zh) | 一种基于多阶段分形组合的点云补全方法及系统 | |
Liu et al. | UAV image small object detection based on composite backbone network | |
EP4058940A1 (en) | Permutation invariant convolution (pic) for recognizing long-range activities |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |