CN111126310A - 一种基于场景迁移的行人性别识别方法 - Google Patents

一种基于场景迁移的行人性别识别方法 Download PDF

Info

Publication number
CN111126310A
CN111126310A CN201911367254.6A CN201911367254A CN111126310A CN 111126310 A CN111126310 A CN 111126310A CN 201911367254 A CN201911367254 A CN 201911367254A CN 111126310 A CN111126310 A CN 111126310A
Authority
CN
China
Prior art keywords
pedestrian
image
scene
migration
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911367254.6A
Other languages
English (en)
Other versions
CN111126310B (zh
Inventor
曾焕强
蔡磊
朱建清
曹九稳
张云
马凯光
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huaqiao University
Original Assignee
Huaqiao University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huaqiao University filed Critical Huaqiao University
Priority to CN201911367254.6A priority Critical patent/CN111126310B/zh
Publication of CN111126310A publication Critical patent/CN111126310A/zh
Application granted granted Critical
Publication of CN111126310B publication Critical patent/CN111126310B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于场景迁移的行人性别识别方法,包括场景迁移过程与性别识别过程。本发明通过对偶生成对抗模型对来自不同场景的行人图像集进行图像迁移,减小不同数据集中行人场景的差异。利用迁移图像训练卷积神经网络,使网络模型具有较高精度的性别识别能力。本发明结合了对偶生成对抗模型用于图像迁移的优点,解决了以往基于卷积神经网络在行人性别识别问题上的不足,有效地提高了行人性别识别精度。本发明可以被广泛地应用在智能视频监控场景,大型商场的人口统计等。

Description

一种基于场景迁移的行人性别识别方法
技术领域
本发明涉及计算机视觉和模式识别技术领域,更具体地说,涉及一种基于场景迁移的行 人性别识别方法。
背景技术
随着互联网、云计算和多媒体技术的快速发展,视频监控系统已广泛地部署在城市的各 个角落,例如街道、机场、火车站等公共场所。在这些监控系统中,行人身份识别在公共安 全中发挥着重要作用。作为行人身份识别技术的重要辅助手段,行人性别识别技术是行人智 能监控系统进行远距离目标身份识别的重要组成部分。
行人性别识别是指在监控视频中识别出过往行人的性别,其具有重要的应用价值,例如 大型商场的人口统计等。
现有技术的方法是基于手工特征进行行人性别识别,例如提取行人轮廓特征(HOG)或 者纹理特征(LBP),并运用SVM、Adboost等分类器实现性别分类;但单一的手工特征提取 方法的识别精度普遍不高。
或者,基于目前比较流行的深度学习方法进行特征学习与分类,而基于卷积神经网络方 法往往泛化性能较差,对输入噪声和抖动比较敏感,例如当输入图像的场景发生改变时,由 于训练数据无法涵盖所有场景下的行人图像,导致在测试阶段神经网络可能无法有效地应对 场景变化所造成的识别错误。
发明内容
本发明的目的在于克服现有技术的不足,提供一种基于场景迁移的行人性别识别方法, 有效地提高了行人性别识别精度。
本发明的技术方案如下:
一种基于场景迁移的行人性别识别方法,包括场景迁移过程、性别识别过程;
场景迁移过程,步骤如下:
1.1)设定行人图像数据集
Figure BDA0002338745260000021
Figure BDA0002338745260000022
分别来自U和V两种不同的场景;
1.2)提取
Figure BDA0002338745260000023
Figure BDA0002338745260000024
中的行人掩模,得到掩模图像数据集
Figure BDA0002338745260000025
Figure BDA0002338745260000026
1.3)构建对偶生成对抗网络,利用
Figure BDA0002338745260000027
Figure BDA0002338745260000028
训练对偶生成 对抗网络,直至对偶生成对抗模型收敛,得到生成模型GU→V和GV→U
其中,通过GU→V能够将来自U场景下的行人图像迁移至V场景,同时保持被迁移图像中行人外貌和姿态不发生改变;通过GV→U能够将来自V场景下的行人图像迁移至U场景, 同时保持被迁移图像中行人外貌和姿态不发生改变;
当行人图像从U场景迁移至V场景时,性别识别过程步骤如下:
2.1)把
Figure BDA0002338745260000029
中的每张行人图像输入GU→V,经过前向传播,得到与
Figure BDA00023387452600000210
相对应的迁移 图像集
Figure BDA00023387452600000211
2.2)构建卷积神经网络,利用
Figure BDA00023387452600000212
训练卷积神经网络,直至网络收敛,得到模 型P;
2.3)把
Figure BDA00023387452600000213
中的每张行人图像输入到模型P,经前向传播,获得深度特征,利用Softmax 分类函数对深度特征计算其性别概率,输出性别识别结果;
或者,当行人图像从V场景迁移至U场景时,性别识别过程步骤如下:
2.1)把
Figure BDA00023387452600000214
中的每张行人图像输入GV→U,经过前向传播,得到与
Figure BDA00023387452600000215
相对应的迁移 图像集
Figure BDA00023387452600000216
2.2)构建卷积神经网络,利用
Figure BDA00023387452600000217
训练卷积神经网络,直至网络收敛,得到模 型P;
2.3)把
Figure BDA00023387452600000218
中的每张行人图像输入到模型P,经前向传播,获得深度特征,利用Softmax 分类函数对深度特征计算其性别概率,输出性别识别结果;
作为优选,步骤1.3)中,模型GU→V和GV→U的获得步骤如下:
1.3.1)随机从
Figure BDA0002338745260000031
Figure BDA0002338745260000032
中分别选取k张行人图像及其对应 的掩模图像,k≤M,k≤N;
1.3.2)将选取的行人图像与掩模图像输入对偶生成对抗网络进行对抗训练;
1.3.3)重复步骤1.3.1)、步骤1.3.2),直至对偶生成对抗模型收敛,得到生成模型GU→V和 GV→U
作为优选,步骤1.3)中,对抗训练采用的损失函数为对偶生成对抗损失函数与行人外貌 映射损失函数之和,具体为:
L=LDualGAN(u,v)+LKPAM(u,v);
Figure BDA0002338745260000033
Figure BDA0002338745260000034
其中,LDualGAN(u,v)表示对偶对抗损失函数,LKPAM(u,v)表示行人外貌映射损失函数; Dp(·)和Dd(·)表示两个对偶的鉴别器,Dp(·)用于鉴别生成图像是否为U场景的图像,Dd(·) 用于鉴别生成图像是否为V场景的图像,z和
Figure BDA0002338745260000037
为随机噪声向量,λ1、λ2、λ3和λ4为参数 常量,⊙表示点乘操作,M(u)和M(v)分别表示U场景和V场景的掩模图像。
作为优选,步骤2.2)中,模型P的获取步骤如下:
2.2.1)随机从
Figure BDA0002338745260000035
中选取m张具有性别标签属性的迁移图像,m≤M;
2.2.2)将选取的迁移图像送入卷积神经网络进行训练;
2.2.3)重复步骤2.2.1)和2.2.2),直到卷积神经网络收敛,得到模型P;
或者,2.2.1)随机从
Figure BDA0002338745260000036
中选取n张具有性别标签属性的迁移图像,n≤N;
2.2.2)将选取的迁移图像送入卷积神经网络进行训练;
2.2.3)重复步骤2.2.1)和2.2.2),直到卷积神经网络收敛,得到模型P;
作为优选,卷积神经网络训练过程中,第l层参数更新如下:
权重参数:
Figure BDA0002338745260000041
偏置参数:
Figure BDA0002338745260000042
其中,l表示网络层数,α表示学习步长,W(l)表示第l层神经元的权重参数,ΔW(l)表示第l层神经元权重参数的导数,b(l)表示第l层神经元的偏置参数,Δb(l)表示第l层神经元偏 置参数的导数,m表示一次训练输入的图片数量,λ表示正则化因子。
本发明的有益效果如下:
本发明所述的基于场景迁移的行人性别识别方法,通过对偶生成对抗模型对来自不同场 景的行人图像集进行图像迁移,减小不同数据集中行人场景的差异。利用迁移图像训练卷积 神经网络,使网络模型具有较高精度的性别识别能力。本发明结合了对偶生成对抗模型用于 图像迁移的优点,解决了以往基于卷积神经网络在行人性别识别问题上的不足,有效地提高 了行人性别识别精度。
本发明可以被广泛地应用在智能视频监控场景,大型商场的人口统计等。
附图说明
图1是场景迁移过程的原理示意图;
图2是性别识别过程的原理示意图。
具体实施方式
以下结合附图及实施例对本发明进行进一步的详细说明。
本发明提供一种基于场景迁移的行人性别识别方法,包括场景迁移过程、性别识别过程。
场景迁移过程,如图1所示,步骤如下:
1.1)设定行人图像数据集
Figure BDA0002338745260000043
Figure BDA0002338745260000044
分别来自U和V两种不同的场景;
1.2)通过行人掩模提取模块提取
Figure BDA0002338745260000045
Figure BDA0002338745260000046
中的行人掩模,得到掩模图像数据集
Figure BDA0002338745260000051
Figure BDA0002338745260000052
1.3)构建对偶生成对抗网络,利用
Figure BDA0002338745260000053
Figure BDA0002338745260000054
训练对偶生成 对抗网络,直至对偶生成对抗模型收敛,得到生成模型GU→V和GV→U
其中,通过GU→V能够将来自U场景下的行人图像迁移至V场景,同时保持被迁移图像中行人外貌和姿态不发生改变;通过GV→U能够将来自V场景下的行人图像迁移至U场景, 同时保持被迁移图像中行人外貌和姿态不发生改变。
模型GU→V和GV→U的获得步骤具体如下:
1.3.1)随机从
Figure BDA0002338745260000055
Figure BDA0002338745260000056
中分别选取k张行人图像及其对应 的掩模图像,k≤M,k≤N;
1.3.2)将选取的行人图像与掩模图像输入对偶生成对抗网络进行对抗训练;
1.3.3)重复步骤1.3.1)、步骤1.3.2),直至对偶生成对抗模型收敛,得到生成模型GU→V和 GV→U
对抗训练采用的损失函数为对偶生成对抗损失函数与行人外貌映射损失函数之和,具体 为:
L=LDualGAN(u,v)+LKPAM(u,v);
Figure BDA0002338745260000057
Figure BDA0002338745260000058
其中,LDualGAN(u,v)表示对偶对抗损失函数,LKPAM(u,v)表示行人外貌映射损失函数; Dp(·)和Dd(·)表示两个对偶的鉴别器,Dp(·)用于鉴别生成图像是否为U场景的图像,Dd(·) 用于鉴别生成图像是否为V场景的图像,z和
Figure BDA00023387452600000511
为随机噪声向量,λ1、λ2、λ3和λ4为参数 常量,⊙表示点乘操作,M(u)和M(v)分别表示U场景和V场景的掩模图像。
如图2所示,当行人图像从U场景迁移至V场景时,性别识别过程的步骤如下:
2.1)把
Figure BDA0002338745260000059
中的每张行人图像输入GU→V,经过前向传播,得到与
Figure BDA00023387452600000510
相对应的迁移 图像集
Figure BDA0002338745260000061
2.2)构建卷积神经网络,利用
Figure BDA0002338745260000062
训练卷积神经网络,直至网络收敛,得到模 型P;
模型P的获取步骤具体如下:
2.2.1)随机从
Figure BDA0002338745260000063
中选取m张具有性别标签属性的迁移图像,m≤M;
2.2.2)将选取的迁移图像送入卷积神经网络进行训练;
2.2.3)重复步骤2.2.1)和2.2.2),直到卷积神经网络收敛,得到模型P;
2.3)把
Figure BDA0002338745260000064
中的每张行人图像输入到模型P,经前向传播,获得深度特征,利用Softmax 分类函数对深度特征计算其性别概率,输出性别识别结果。
或者,当行人图像从V场景迁移至U场景时,性别识别过程步骤如下:
2.1)把
Figure BDA0002338745260000065
中的每张行人图像输入GV→U,经过前向传播,得到与
Figure BDA0002338745260000066
相对应的迁移 图像集
Figure BDA0002338745260000067
2.2)构建卷积神经网络,利用
Figure BDA0002338745260000068
训练卷积神经网络,直至网络收敛,得到模 型P;
模型P的获取步骤具体如下:
2.2.1)随机从
Figure BDA0002338745260000069
中选取n张具有性别标签属性的迁移图像,n≤N;
2.2.2)将选取的迁移图像送入卷积神经网络进行训练;
2.2.3)重复步骤2.2.1)和2.2.2),直到卷积神经网络收敛,得到模型P;
2.3)把
Figure BDA00023387452600000610
中的每张行人图像输入到模型P,经前向传播,获得深度特征,利用Softmax 分类函数对深度特征计算其性别概率,输出性别识别结果。
所述的卷积神经网络训练过程中,第l层参数更新如下:
权重参数:
Figure BDA00023387452600000611
偏置参数:
Figure BDA00023387452600000612
其中,l表示网络层数,α表示学习步长,W(l)表示第l层神经元的权重参数,ΔW(l)表示第l层神经元权重参数的导数,b(l)表示第l层神经元的偏置参数,Δb(l)表示第l层神经元偏 置参数的导数,m表示一次训练输入的图片数量,λ表示正则化因子。
上述实施例仅是用来说明本发明,而并非用作对本发明的限定。只要是依据本发明的技 术实质,对上述实施例进行变化、变型等都将落在本发明的权利要求的范围内。

Claims (5)

1.一种基于场景迁移的行人性别识别方法,其特征在于,包括场景迁移过程、性别识别过程;
场景迁移过程,步骤如下:
1.1)设定行人图像数据集
Figure FDA0002338745250000011
Figure FDA0002338745250000012
分别来自U和V两种不同的场景;
1.2)提取
Figure FDA0002338745250000013
Figure FDA0002338745250000014
中的行人掩模,得到掩模图像数据集
Figure FDA0002338745250000015
Figure FDA0002338745250000016
1.3)构建对偶生成对抗网络,利用
Figure FDA0002338745250000017
Figure FDA0002338745250000018
训练对偶生成对抗网络,直至对偶生成对抗模型收敛,得到生成模型GU→V和GV→U
其中,通过GU→V能够将来自U场景下的行人图像迁移至V场景,同时保持被迁移图像中行人外貌和姿态不发生改变;通过GV→U能够将来自V场景下的行人图像迁移至U场景,同时保持被迁移图像中行人外貌和姿态不发生改变;
当行人图像从U场景迁移至V场景时,性别识别过程步骤如下:
2.1)把
Figure FDA0002338745250000019
中的每张行人图像输入GU→V,经过前向传播,得到与
Figure FDA00023387452500000110
相对应的迁移图像集
Figure FDA00023387452500000111
2.2)构建卷积神经网络,利用
Figure FDA00023387452500000112
训练卷积神经网络,直至网络收敛,得到模型P;
2.3)把
Figure FDA00023387452500000113
中的每张行人图像输入到模型P,经前向传播,获得深度特征,利用Softmax分类函数对深度特征计算其性别概率,输出性别预测结果;
或者,当行人图像从V场景迁移至U场景时,性别识别过程步骤如下:
2.1)把
Figure FDA00023387452500000114
中的每张行人图像输入GV→U,经过前向传播,得到与
Figure FDA00023387452500000115
相对应的迁移图像集
Figure FDA00023387452500000116
2.2)构建卷积神经网络,利用
Figure FDA00023387452500000117
训练卷积神经网络,直至网络收敛,得到模型P;
2.3)把
Figure FDA00023387452500000118
中的每张行人图像输入到模型P,经前向传播,获得深度特征,利用Softmax分类函数对深度特征计算其性别概率,输出性别预测结果。
2.根据权利要求1所述的基于场景迁移的行人性别识别方法,其特征在于,步骤1.3)中,模型GU→V和GV→U的获得步骤如下:
1.3.1)随机从
Figure FDA0002338745250000021
Figure FDA0002338745250000022
中分别选取k张行人图像及其对应的掩模图像,k≤M,k≤N;
1.3.2)将选取的行人图像与掩模图像输入对偶生成对抗网络进行对抗训练;
1.3.3)重复步骤1.3.1)、步骤1.3.2),直至对偶生成对抗模型收敛,得到生成模型GU→V和GV→U
3.根据权利要求1或2所述的基于场景迁移的行人性别识别方法,其特征在于,步骤1.3)中,对抗训练采用的损失函数为对偶生成对抗损失函数与行人外貌映射损失函数之和,具体为:
L=LDualGAN(u,v)+LKPAM(u,v);
Figure FDA0002338745250000023
Figure FDA0002338745250000024
其中,LDualGAN(u,v)表示对偶对抗损失函数,LKPAM(u,v)表示行人外貌映射损失函数;Dp(·)和Dd(·)表示两个对偶的鉴别器,Dp(·)用于鉴别生成图像是否为U场景的图像,Dd(·)用于鉴别生成图像是否为V场景的图像,z和
Figure FDA0002338745250000025
为随机噪声向量,λ1、λ2、λ3和λ4为参数常量,⊙表示点乘操作,M(u)和M(v)分别表示U场景和V场景的掩模图像。
4.根据权利要求1所述的基于场景迁移的行人性别识别方法,其特征在于,步骤2.2)中,模型P的获取步骤如下:
2.2.1)随机从
Figure FDA0002338745250000026
中选取m张具有性别标签属性的迁移图像,m≤M;
2.2.2)将选取的迁移图像送入卷积神经网络进行训练;
2.2.3)重复步骤2.2.1)和2.2.2),直到卷积神经网络收敛,得到模型P;
或者,2.2.1)随机从
Figure FDA0002338745250000027
中选取n张具有性别标签属性的迁移图像,n≤N;
2.2.2)将选取的迁移图像送入卷积神经网络进行训练;
2.2.3)重复步骤2.2.1)和2.2.2),直到卷积神经网络收敛,得到模型P。
5.根据权利要求1或4所述的基于场景迁移的行人性别识别方法,其特征在于,卷积神经网络训练过程中,第l层参数更新如下:
权重参数:
Figure FDA0002338745250000031
偏置参数:
Figure FDA0002338745250000032
其中,l表示网络层数,α表示学习步长,W(l)表示第l层神经元的权重参数,ΔW(l)表示第l层神经元权重参数的导数,b(l)表示第l层神经元的偏置参数,Δb(l)表示第l层神经元偏置参数的导数,m表示一次训练输入的图片数量,λ表示正则化因子。
CN201911367254.6A 2019-12-26 2019-12-26 一种基于场景迁移的行人性别识别方法 Active CN111126310B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911367254.6A CN111126310B (zh) 2019-12-26 2019-12-26 一种基于场景迁移的行人性别识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911367254.6A CN111126310B (zh) 2019-12-26 2019-12-26 一种基于场景迁移的行人性别识别方法

Publications (2)

Publication Number Publication Date
CN111126310A true CN111126310A (zh) 2020-05-08
CN111126310B CN111126310B (zh) 2023-03-24

Family

ID=70503142

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911367254.6A Active CN111126310B (zh) 2019-12-26 2019-12-26 一种基于场景迁移的行人性别识别方法

Country Status (1)

Country Link
CN (1) CN111126310B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022134766A1 (zh) * 2020-12-24 2022-06-30 华为技术有限公司 场景迁移方法、装置及电子设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107633223A (zh) * 2017-09-15 2018-01-26 深圳市唯特视科技有限公司 一种基于深层对抗网络的视频人体属性识别方法
CN107862300A (zh) * 2017-11-29 2018-03-30 东华大学 一种基于卷积神经网络的监控场景下行人属性识别方法
WO2019144575A1 (zh) * 2018-01-24 2019-08-01 中山大学 一种快速行人检测方法及装置
CN110321874A (zh) * 2019-07-12 2019-10-11 南京航空航天大学 一种轻量化的卷积神经网络行人识别方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107633223A (zh) * 2017-09-15 2018-01-26 深圳市唯特视科技有限公司 一种基于深层对抗网络的视频人体属性识别方法
CN107862300A (zh) * 2017-11-29 2018-03-30 东华大学 一种基于卷积神经网络的监控场景下行人属性识别方法
WO2019144575A1 (zh) * 2018-01-24 2019-08-01 中山大学 一种快速行人检测方法及装置
CN110321874A (zh) * 2019-07-12 2019-10-11 南京航空航天大学 一种轻量化的卷积神经网络行人识别方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
刘伦豪杰等: "基于迁移卷积神经网络的人脸表情识别", 《电脑知识与技术》 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022134766A1 (zh) * 2020-12-24 2022-06-30 华为技术有限公司 场景迁移方法、装置及电子设备

Also Published As

Publication number Publication date
CN111126310B (zh) 2023-03-24

Similar Documents

Publication Publication Date Title
Sakkos et al. End-to-end video background subtraction with 3d convolutional neural networks
US10733755B2 (en) Learning geometric differentials for matching 3D models to objects in a 2D image
CN109584248B (zh) 基于特征融合和稠密连接网络的红外面目标实例分割方法
CN109598268B (zh) 一种基于单流深度网络的rgb-d显著目标检测方法
Gao et al. LFT-Net: Local feature transformer network for point clouds analysis
Xu et al. Bridging the domain gap for multi-agent perception
US10445622B2 (en) Learning disentangled invariant representations for one-shot instance recognition
WO2018084941A1 (en) Temporal difference estimation in an artificial neural network
US20220156528A1 (en) Distance-based boundary aware semantic segmentation
US11270425B2 (en) Coordinate estimation on n-spheres with spherical regression
US20230070439A1 (en) Managing occlusion in siamese tracking using structured dropouts
CN117157678A (zh) 用于基于图的全景分割的方法和系统
Wang et al. Sfgan: Unsupervised generative adversarial learning of 3d scene flow from the 3d scene self
Yang et al. [Retracted] A Method of Image Semantic Segmentation Based on PSPNet
CN110111365B (zh) 基于深度学习的训练方法和装置以及目标跟踪方法和装置
Li Image semantic segmentation method based on GAN network and ENet model
CN111126310B (zh) 一种基于场景迁移的行人性别识别方法
CN117576402A (zh) 一种基于深度学习的多尺度聚合Transformer遥感图像语义分割方法
Nguyen et al. Smart solution to detect images in limited visibility conditions based convolutional neural networks
Wu et al. Small target recognition method on weak features
Tan et al. 3D detection transformer: Set prediction of objects using point clouds
CN113887536B (zh) 一种基于高层语义引导的多阶段高效人群密度估计方法
CN115775214A (zh) 一种基于多阶段分形组合的点云补全方法及系统
Liu et al. UAV image small object detection based on composite backbone network
EP4058940A1 (en) Permutation invariant convolution (pic) for recognizing long-range activities

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant