CN113762175A - 一种基于图卷积网络的两阶段行为识别细分类方法 - Google Patents

一种基于图卷积网络的两阶段行为识别细分类方法 Download PDF

Info

Publication number
CN113762175A
CN113762175A CN202111059064.5A CN202111059064A CN113762175A CN 113762175 A CN113762175 A CN 113762175A CN 202111059064 A CN202111059064 A CN 202111059064A CN 113762175 A CN113762175 A CN 113762175A
Authority
CN
China
Prior art keywords
difficult
model
convolution
stage
category
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111059064.5A
Other languages
English (en)
Other versions
CN113762175B (zh
Inventor
金城
胡海苗
段梦梦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fudan University
Hangzhou Innovation Research Institute of Beihang University
Original Assignee
Fudan University
Hangzhou Innovation Research Institute of Beihang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fudan University, Hangzhou Innovation Research Institute of Beihang University filed Critical Fudan University
Priority to CN202111059064.5A priority Critical patent/CN113762175B/zh
Priority claimed from CN202111059064.5A external-priority patent/CN113762175B/zh
Publication of CN113762175A publication Critical patent/CN113762175A/zh
Application granted granted Critical
Publication of CN113762175B publication Critical patent/CN113762175B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2431Multiple classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Abstract

本发明公开了一种基于图卷积网络的两阶段行为识别细分类方法。本发明主要通过再分类困难类别集提高行为识别的准确率,分为三个阶段进行:第一阶段:训练粗分类模型;第二阶段:困难类别集的获取和困难类别集模型的训练,利用粗分类模型在测试集上的混淆矩阵以及并查集算法获取困难类别集,之后分别为不同的困难类别集训练困难类别集模型;第三阶段:在线推断,根据粗分类模型的推断结果,将需要进行细分类的样本输入困难类别集模型再分类。本发明所提出的方法针对模型难以分类相似动作的问题,提出的粗分类——细分类两阶段架构一定程度上缓解了相似动作难分类的问题,提高了行为识别的准确率,在公开数据集上取得了较好的结果。

Description

一种基于图卷积网络的两阶段行为识别细分类方法
技术领域
本发明属于行为识别领域,具体涉及一种基于图卷积网络的两阶段行为识别细分类方法。该方法在单流行为识别分类任务上优于现有单流模型方法。
背景技术
行为识别是计算机视觉领域的热点研究任务:行为识别的目标是识别出图像或视频中人的行为。基于深度学习的行为识别方法可分为基于RNN的方法、基于CNN的方法、基于GCN的方法。基于GCN的方法由于其准确率较高,成为众多研究者的选择,也是本发明采用的方法。目前,主流方法大多集中于提高行为识别模型的总体分类准确率,而大部分行为识别模型对于动作类中部分动作的错分率十分高,比如,模型难以分类高度相似的动作类别,这成为限制提高行为识别准确率的一大因素。本发明所提出的方法针对现有行为识别模型难以分类高度相似动作的问题,提出粗分类—细分类两阶段模型架构,在一定程度上缓解了高度相似动作难分类的问题,提高了行为识别的准确率,且在公开数据集上取得了较好的结果。
发明内容
为解决现有技术存在的问题,本发明提出了一种基于图卷积网络的两阶段行为识别细分类方法。该方法是针对现有模型没有很好分类高度相似动作这一缺陷进行的改进。本发明提出的两阶段模型架构:即先进行粗分类,再根据粗分类结果进行细分类。
本发明主要通过再分类困难类别集中的动作类别进行行为识别,本发明的技术方案具体介绍如下。
本发明提供一种基于图卷积网络的两阶段行为识别细分类方法,分为三个阶段进行:第一阶段:训练粗分类模型
训练好的粗分类模型将用于之后的两个阶段;
第二阶段:困难类别集的获取以及困难类别集模型的训练
利用粗分类模型在测试集上的混淆矩阵以及并查集算法获取困难类别集,之后分别为不同的困难类别集训练困难类别集模型,困难类别集模型的网络结构与粗分类模型的网络结构一致,训练好的模型将用于最后的在线推断阶段;
第三阶段:在线推断
根据粗分类模型的推断结果,将需要进行细分类的样本输入困难类别集模型进行推断,即再分类,推断结果即为最终的行为识别结果。
各个阶段的工作流程具体如下。
第一阶段:训练粗分类模型
粗分类网络由BN层、10个卷积单元(U1-U10)以及全连接层组成。其中,每个卷积单元都包括空间图卷积模块和时间图卷积模块。空间图卷积模块由一个BN层和ReLU层组成,时间图卷积模块由两个BN层、ReLU层和二维卷积层组成,二维卷积的卷积核大小为1,步长为1。其中,在第1个卷积单元(U1)、第5个卷积单元(U5)和第8个卷积单元(U8)的空间图卷积模块前加入一个改变维度的二维卷积层,二维卷积的卷积核大小为1,步长为1,并且在第5个卷积单元和第8个卷积单元加入残差块,残差块由一个二维卷积层(二维卷积的卷积核大小为1,步长为2)和一个BN层组成。
粗分类网络的工作流程为:首先,输入骨架序列数据(维度为N×3×T×V)到BN层,得到归一化后的骨架序列数据,之后将其依次输入到10个卷积单元中,卷积操作提取骨架序列数据的特征,对提取的特征(卷积单元110的输出维度为N×256×T×V)在维度T和维度V上求平均,得到维度为N×256的特征,最后将该特征输入到全连接层进行分类,得到动作类别。
整个粗分类网络涉及的输入输出维度列举如下:
BN层的输入维度为N×3×T×V,输出维度为N×3×T×V;
卷积单元U1的输入维度为N×3×T×V,输出维度为N×64×T×V;
卷积单元U2的输入维度为N×64×T×V,输出维度为N×64×T×V;
卷积单元U3的输入维度为N×64×T×V,输出维度为N×64×T×V;
卷积单元U4的输入维度为N×64×T×V,输出维度为N×64×T×V;
卷积单元U5的输入维度为N×64×T×V,输出维度为N×128×T×V;
残差块的输入维度为N×64×T×V,输出维度为N×128×T×V;
卷积单元U6的输入维度为N×128×T×V,输出维度为N×128×T×V;
卷积单元U7的输入维度为N×128×T×V,输出维度为N×128×T×V;
卷积单元U8的输入维度为N×128×T×V,输出维度为N×256×T×V;
残差块的输入维度为N×128×T×V,输出维度为N×256×T×V;
卷积单元U9的输入维度为N×256×T×V,输出维度为N×256×T×V;
卷积单元U10的输入维度为N×256×T×V,输出维度为N×256×T×V;
全连接层的输入维度为N×256,输出维度为N×60;
其中,T为输入骨架序列的帧数;V=25为人体关节点数;N为样本数量。
粗分类网络在训练过程中将保存准确率最高的模型M,用于第三阶段中的在线测试。
第二阶段:困难类别集的获取以及困难类别集模型的训练
一、困难类别集的获取
困难类别集指模型容易混淆分类的动作类别标签的集合。困难类别集的获取分为两步,首先,输入测试集到粗分类模型M进行推断,得到测试集上的混淆矩阵。其次,根据混淆矩阵获取困难类别集
Figure BDA0003255698430000031
其中,sib指困难类别集si中的第b个动作类标签,Nsi为si中包含的动作类别标签个数。具体操作分为2步:
1)计算混淆率矩阵r。对于给定的混淆矩阵C,(Cij∈C,1<=i,j<=Nc,Nc是模型M分类的动作类别数量),混淆率矩阵r的计算公式如下,其中,rij∈r,i≠j,是r的第i行第j列,指模型M推断错误的样本数占该类别总数的比例。Cij∈C是混淆矩阵C的第i行第j列,表示模型M将真实标签i推断为j的样本个数;
Figure BDA0003255698430000032
2)使用经典并查集算法,得到困难类别集si。具体操作为:首先,初始化Nc个集合{0},{1},...,{i},...,{Nc-1},集合{i}代表相应的真实动作类别标签,之后根据第1)步计算得到的混淆率矩阵r合并Nc个集合,合并操作具体为:若rij的值大于阈值θ,则将i所在的集合与j所在的集合合并,得到新的集合;初始时,即合并集合{i}与集合{j}得到集合{i,j},之后的合并操作,以此类推,直至遍历完混淆率矩阵r。最终保留的集合即为困难类别集
Figure BDA0003255698430000033
其中所有满足条件Nsi>=2的困难类别集构成类别集
Figure BDA0003255698430000034
Ns为S中困难类别集的个数。
二、困难类别集模型的训练
困难类别集模型的训练分为困难样本集的获取和模型训练两个部分:
步骤一,困难样本集的获取,又可细分为数据的筛选和标签的映射两个部分。首先,数据的筛选即根据获取到的困难类别集
Figure BDA0003255698430000035
得到困难样本集L。困难样本集
Figure BDA0003255698430000036
为数据集中动作类标签属于si中动作标签的样本的集合,
Figure BDA0003255698430000037
为数据集中动作类标签为sib的样本集合,构建L的过程即为数据的筛选过程。标签的映射是指将困难类别集
Figure BDA0003255698430000038
中动作标签为sib的类别映射为b-1,具体表述为:将si映射到集合
Figure BDA0003255698430000039
映射后的动作类别标签集
Figure BDA00032556984300000310
困难样本集L中的标签映射与si的映射相同,映射后的困难样本集
Figure BDA00032556984300000311
lb为L中动作类标签为sib的样本集合。困难样本集maL即为困难类别集模型的训练集;
步骤二,为每个困难类别集si训练相应的困难类别集模型。模型的网络结构与阶段1中粗分类模型的网络结构基本一致,二者不同之处在于,粗分类模型中全连接层的输出维度为N×60,也即粗分类模型是60分类模型,而困难类别集模型是Q分类模型,全连接层的输出维度为N×Q,Q为相应困难类别集si包含的类别数,即Q=Nsi。模型的输入训练数据为步骤一中获得的相应的困难样本集maL。阶段2最终训练得到细分类模型集A,
Figure BDA0003255698430000041
ai为困难类别集si对应的困难类别集模型,Ns为困难类别集的个数。
第三阶段:在线推断
在线推断的流程分为三个步骤:
步骤一,粗分类模型M的推断:输入骨架序列数据X={x1,x2,...,xT}到阶段1中训练好的粗分类模型M,得到推断标签p;
步骤二,选择困难类别集模型ai:判断粗分类模型M的推断标签p是否需要细分类,判断的逻辑为:若类别集S中存在si,使得p在集合si里,则需要细分类,将进一步选择si所属的困难类别集模型ai,进入步骤三;反之,则p即为最终的动作分类结果;
步骤三,困难类别集模型ai的推断:将推断标签p对应的X输入到困难类别集模型中进行进一步推断,得到推断标签p*。对p*进行逆映射,最终分类结果即为
Figure BDA0003255698430000042
与现有技术相比,本发明的有益效果在于:
通过对高度相似的动作类别即困难类别进行再分类,使得细分类模型专注于困难类别间的特殊特征,而粗分类模型更关注动作类的一般特征,两阶段的模型架构更全面更充分的挖掘了特征信息,从而提高了行为识别模型的准确率。作为网络基础的卷积单元包含空间图卷积和时间图卷积两个部分,其中空间图卷积部分关注单个骨架各关节之间的联系,时间图卷积关注骨架序列中相邻骨架的联系,这种空间图卷积和时间图卷积分离的设计能够更好地解耦骨架序列空间、时间特征提取的过程。此外,串联多个卷积单元,能够扩大卷积的感受野,更好地提取骨架序列的全局、长距离特征,从而提高行为识别的准确率。
附图说明
图1是本发明所提的一种基于图卷积的两阶段行为识别细分类方法的流程图。
图2是本发明所提方法的具体网络结构。
具体实施方式
以下结合附图和实施例对本发明的技术方案进行详细阐述。
一种基于图卷积网络的两阶段行为识别细分类方法,其具体流程如图1所示,主要分为三个阶段,第一阶段:训练粗分类模型,粗分类模型的网络结构如图2所示。训练好的粗分类模型M将用于之后的两个阶段。第二阶段:困难类别集的获取以及困难类别集模型的训练。利用模型M在测试集上的混淆矩阵以及并查集算法获取困难类别集,之后分别为不同的困难类别集训练困难类别集模型,模型的网络结构如图2所示。训练好的模型将用于最后的在线推断阶段。第三阶段:在线推断。根据粗分类模型M的推断结果,将需要进行细分类的样本输入困难类别集模型进行推断,推断结果即为最终的行为识别结果。
实施例1
本发明提出的一种基于图卷积网络的两阶段行为识别细分类方法,在公开数据集NTU-RGB+D 60上进行了实验,并和当前主流方法的结果进行对比。按照主流做法,实验在X-Sub和X-View两个benchmark上进行,使用Top1作为评价指标。本实施例中仅使用单流数据(关节数据)进行实验,且仅与单流模型进行实验结果对比。
本发明的实验参数设置为:
本发明的实验环境为:处理器为Intel(R)Xeon(R)CPU E5-2603 v4@1.70GHz,显卡为NVIDIA Titan XP 12GB,内存64GB,操作系统为Ubuntu 16.04(64位),编程语言为Python3.7.4,深度学习框架为PyTorch1.2.0。
在模型的训练和测试过程中,使用连续的300帧的人体骨架关节数据作为输入,即T=300。在训练过程中,采用SGD优化器,学习率设置为0.1,每隔50个轮次将学习率缩小10倍,批次大小设置为64,总计训练200个轮次。粗分类模型M的分类样本数量Nc=60。在获取困难类别集时,阈值θ=0.1。
在本实施例中,获取到三个困难类别集s1={9,33},s2={5,15,16},s3={10,11,28,29},其对应的动作类别如表1所示,以s2为例,从动作骨架上来看,捡东西、穿鞋、脱鞋没有很大的区分性,因此粗分类模型同大多数主流方法一样,容易错分高度相似的动作类别,为提高准确率,需对其进行再分类。最终得到的实验结果如表2所示,可以看出,本发明所提方法在两个benchmark上的指标均优于既有方法,证实了本发明所提的两阶段行为识别细分类方法的有效性。
表1困难类别集对应的动作
困难类别集 动作
{9,33} {鼓掌,摩擦双手}
{5,15,16} {捡东西,穿鞋,脱鞋}
{10,11,28,29} {阅读,写字,玩手机,敲键盘}
表2基于NTU-RGB+D 60数据集上的对比结果
方法名称 X-Sub X-View
ST-GCN[1] 81.5 88.3
1s Shift-GCN[2] 87.8 95.1
本发明所提方法 89.4 95.5
参考文献
[1]Sijie Yan,Yuanjun Xiong,and Dahua Lin.Spatial temporal graphconvolutional networks for skeleton-based action recognition.In Thirty-SecondAAAI Conference on Artificial Intelligence,2018
[2]K.Cheng,Y.Zhang,X.He,W.Chen,J.Cheng and H.Lu.Skeleton-Based ActionRecognition With Shift Graph Convolutional Network.2020IEEE/CVF Conference onComputer Vision and Pattern Recognition(CVPR),2020。

Claims (4)

1.一种基于图卷积网络的两阶段行为识别细分类方法,其特征在于,分为3个阶段:
第一阶段:训练粗分类模型
训练粗分类模型,训练好的粗分类模型M将用于之后的两个阶段;
第二阶段:困难类别集
Figure FDA0003255698420000011
的获取以及困难类别集模型的训练
利用粗分类模型M在测试集上的混淆矩阵以及并查集算法获取困难类别集,之后分别为不同的困难类别集训练困难类别集模型,困难类别集模型的网络结构与粗分类模型的网络结构一致,训练好的模型将用于最后的在线推断阶段;
第三阶段:在线推断
根据粗分类模型的推断结果,将需要进行细分类的样本输入困难类别集模型进行推断,推断结果即为最终的行为识别结果。
2.根据权利要求1所述的基于图卷积网络的两阶段行为识别细分类方法,其特征在于,第一阶段中,粗分类模型的网络结构如下:
粗分类网络由BN层、10个卷积单元U1-U10以及全连接层组成;其中,每个卷积单元都包括空间图卷积模块和时间图卷积模块;空间图卷积模块由一个BN层和ReLU层组成,时间图卷积模块由两个BN层、ReLU层和二维卷积层组成,二维卷积的卷积核大小为1,步长为1,其中,在第1个卷积单元U1、第5个卷积单元U5和第8个卷积单元U8的空间图卷积模块前加入一个改变维度的二维卷积层,二维卷积的卷积核大小为1,步长为1,并且在第5个卷积单元U5和第8个卷积单元U8加入残差块,残差块由一个卷积核大小为1,步长为2的二维卷积层和一个BN层组成;
粗分类网络的工作流程为:首先,输入维度为N×3×T×V的骨架序列数据到BN层,得到归一化后的骨架序列数据,之后将其依次输入到10个卷积单元中,卷积操作提取骨架序列数据的特征,对提取的维度为N×256×T×V的特征在维度T和维度V上求平均,得到维度为N×256的特征,最后将该特征输入到全连接层进行分类,得到动作类别。
3.根据权利要求1所述的基于图卷积网络的两阶段行为识别细分类方法,其特征在于,第二阶段中,获取困难类别集以及训练困难类别集模型的具体步骤如下:
一、困难类别集的获取
困难类别集的获取分为两步,首先,输入测试集到粗分类模型M进行推断,得到测试集上的混淆矩阵;其次,根据混淆矩阵获取困难类别集
Figure FDA0003255698420000012
其中,sib指困难类别集si中的第b个动作类标签,Nsi为si中包含的动作类别标签个数;具体操作分为2步:
1)计算混淆率矩阵r:对于给定的混淆矩阵C,Cij∈C,1<=i,j<=Nc,Nc是模型M分类的动作类别数量,混淆率矩阵r的计算公式如下,其中,rij∈r,i≠j,是r的第i行第j列,指模型M推断错误的样本数占该类别总数的比例,Cij∈C是混淆矩阵C的第i行第j列,表示模型M将真实标签i推断为j的样本个数;
Figure FDA0003255698420000021
2)使用经典并查集算法,得到困难类别集si,具体操作为:首先,初始化Nc个集合{0},{1},...,{i},...,{Nc-1},集合{i}代表相应的真实动作类别标签,之后根据第1)步计算得到的混淆率矩阵r合并Nc个集合,合并操作具体为:若rij的值大于阈值θ,则将i所在的集合与j所在的集合合并,得到新的集合;初始时,即合并集合{i}与集合{j}得到集合{i,j}。之后的合并操作,以此类推,直至遍历完混淆率矩阵r,最终保留的集合即为困难类别集
Figure FDA0003255698420000022
其中所有满足条件Nsi>=2的困难类别集构成类别集
Figure FDA0003255698420000023
Ns为S中困难类别集的个数;
二、困难类别集模型的训练
困难类别集模型的训练分为困难样本集的获取和模型训练两个部分:
步骤一,困难样本集的获取,又可细分为数据的筛选和标签的映射两个部分;首先,数据的筛选即根据获取到的困难类别集
Figure FDA0003255698420000024
得到困难样本集L;困难样本集
Figure FDA0003255698420000025
为数据集中动作类标签属于si中动作标签的样本的集合,
Figure FDA0003255698420000026
为数据集中动作类标签为sib的样本集合,构建L的过程即为数据的筛选过程;标签的映射是指将困难类别集
Figure FDA0003255698420000027
中动作标签为sib的类别映射为b-1,具体表述为:将si映射到集合
Figure FDA0003255698420000028
映射后的动作类别标签集
Figure FDA0003255698420000029
困难样本集L中的标签映射与si的映射相同,映射后的困难样本集
Figure FDA00032556984200000210
lb为L中动作类标签为sib的样本集合,困难样本集maL即为困难类别集模型的训练集;
步骤二,为每个困难类别集si训练相应的困难类别集模型;模型的网络结构与第一阶段中粗分类模型的网络结构基本一致,二者不同之处在于,粗分类模型中全连接层的输出维度为N×60,也即粗分类模型是60分类模型,而困难类别集模型是Q分类模型,全连接层的输出维度为N×Q,Q为相应困难类别集si包含的类别数,即Q=Nsi,模型的输入训练数据为步骤一中获得的相应的困难样本集maL,第二阶段最终训练得到细分类模型集A,
Figure FDA00032556984200000211
ai为困难类别集si对应的困难类别集模型,Ns为困难类别集的个数。
4.根据权利要求1所述的基于图卷积网络的两阶段行为识别细分类方法,其特征在于,第三阶段在线推断的流程分为三个步骤:
步骤一,粗分类模型M的推断:输入骨架序列数据X={x1,x2,...,xT}到第一阶段中训练好的粗分类模型M,得到推断标签p;
步骤二,选择困难类别集模型ai,判断粗分类模型M的推断标签p是否需要细分类,判断的逻辑为:若类别集S中存在si,使得p在集合si里,则需要细分类,将进一步选择si所属的困难类别集模型ai,进入步骤三;反之,则p即为最终的动作分类结果;
步骤三,困难类别集模型ai的推断:将推断标签p对应的X输入到困难类别集模型中进行进一步推断,得到推断标签p*,对p*进行逆映射,最终分类结果即为
Figure FDA0003255698420000031
CN202111059064.5A 2021-09-10 一种基于图卷积网络的两阶段行为识别细分类方法 Active CN113762175B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111059064.5A CN113762175B (zh) 2021-09-10 一种基于图卷积网络的两阶段行为识别细分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111059064.5A CN113762175B (zh) 2021-09-10 一种基于图卷积网络的两阶段行为识别细分类方法

Publications (2)

Publication Number Publication Date
CN113762175A true CN113762175A (zh) 2021-12-07
CN113762175B CN113762175B (zh) 2024-04-26

Family

ID=

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115620052A (zh) * 2022-10-08 2023-01-17 广州市玄武无线科技股份有限公司 细粒度商品检测方法、系统、终端设备及存储介质
WO2023179014A1 (zh) * 2022-03-23 2023-09-28 中兴通讯股份有限公司 流量识别方法、装置、电子设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107145485A (zh) * 2017-05-11 2017-09-08 百度国际科技(深圳)有限公司 用于压缩主题模型的方法和装置
CN107909039A (zh) * 2017-11-16 2018-04-13 武汉大学 基于并行算法的高分辨率遥感影像的地表覆盖分类方法
CN108446605A (zh) * 2018-03-01 2018-08-24 南京邮电大学 复杂背景下双人交互行为识别方法
CN108776774A (zh) * 2018-05-04 2018-11-09 华南理工大学 一种基于复杂度感知分类算法的面部表情识别方法
US20200210773A1 (en) * 2019-01-02 2020-07-02 Boe Technology Group Co., Ltd. Neural network for image multi-label identification, related method, medium and device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107145485A (zh) * 2017-05-11 2017-09-08 百度国际科技(深圳)有限公司 用于压缩主题模型的方法和装置
CN107909039A (zh) * 2017-11-16 2018-04-13 武汉大学 基于并行算法的高分辨率遥感影像的地表覆盖分类方法
CN108446605A (zh) * 2018-03-01 2018-08-24 南京邮电大学 复杂背景下双人交互行为识别方法
CN108776774A (zh) * 2018-05-04 2018-11-09 华南理工大学 一种基于复杂度感知分类算法的面部表情识别方法
US20200210773A1 (en) * 2019-01-02 2020-07-02 Boe Technology Group Co., Ltd. Neural network for image multi-label identification, related method, medium and device

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
ANAHITA ZAREI 等: "Artificial Neural Network for Prediction of Ethnicity Based on Iris Texture", 《IEEE》, 31 December 2012 (2012-12-31), pages 514 - 519, XP032302600, DOI: 10.1109/ICMLA.2012.94 *
林杰 等: "专业社交媒体中的主题知识元抽取方法研究", 《图书情报工作》, vol. 63, no. 14, 31 July 2019 (2019-07-31), pages 101 - 110 *
白洁;张金松;刘倩宇;: "基于卷积网络特征迁移的小样本物体图像识别", 《计算机仿真》, vol. 37, no. 5, 15 May 2020 (2020-05-15), pages 311 - 316 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023179014A1 (zh) * 2022-03-23 2023-09-28 中兴通讯股份有限公司 流量识别方法、装置、电子设备及存储介质
CN115620052A (zh) * 2022-10-08 2023-01-17 广州市玄武无线科技股份有限公司 细粒度商品检测方法、系统、终端设备及存储介质
CN115620052B (zh) * 2022-10-08 2023-07-04 广州市玄武无线科技股份有限公司 细粒度商品检测方法、系统、终端设备及存储介质

Similar Documents

Publication Publication Date Title
Ye et al. PurifyNet: A robust person re-identification model with noisy labels
Zhang et al. Mdnet: A semantically and visually interpretable medical image diagnosis network
CN110717534B (zh) 一种基于网络监督的目标分类和定位方法
CN108875600A (zh) 一种基于yolo的车辆信息检测和跟踪方法、装置及计算机存储介质
Pal et al. Deep-learning-based visual data analytics for smart construction management
CN110598543B (zh) 基于属性挖掘和推理的模型训练方法及行人再识别方法
Han et al. End-to-end trainable trident person search network using adaptive gradient propagation
CN111985538A (zh) 基于语义辅助注意力机制的小样本图片分类模型及方法
CN110705490B (zh) 视觉情感识别方法
CN113505670B (zh) 基于多尺度cam和超像素的遥感图像弱监督建筑提取方法
CN111274926A (zh) 图像数据筛选方法、装置、计算机设备和存储介质
Jiao et al. SAN: Selective alignment network for cross-domain pedestrian detection
Jiang et al. Robust vehicle re-identification via rigid structure prior
Chen et al. Adversarial learning of object-aware activation map for weakly-supervised semantic segmentation
CN108805181B (zh) 一种基于多分类模型的图像分类装置及分类方法
Zhang et al. Re-abstraction and perturbing support pair network for few-shot fine-grained image classification
Agbo-Ajala et al. Apparent age prediction from faces: A survey of modern approaches
CN110852255B (zh) 一种基于u型特征金字塔的交通目标检测方法
CN113762175B (zh) 一种基于图卷积网络的两阶段行为识别细分类方法
CN113762175A (zh) 一种基于图卷积网络的两阶段行为识别细分类方法
Wang et al. A novel fine-grained method for vehicle type recognition based on the locally enhanced PCANet neural network
CN113591731A (zh) 一种基于知识蒸馏的弱监督视频时序行为定位方法
CN114038007A (zh) 一种结合风格变换与姿态生成的行人重识别方法
Hu et al. Part relational mean model for group re-identification
CN116844143B (zh) 基于边缘增强的胚胎发育阶段预测与质量评估系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant