CN113762175A - 一种基于图卷积网络的两阶段行为识别细分类方法 - Google Patents
一种基于图卷积网络的两阶段行为识别细分类方法 Download PDFInfo
- Publication number
- CN113762175A CN113762175A CN202111059064.5A CN202111059064A CN113762175A CN 113762175 A CN113762175 A CN 113762175A CN 202111059064 A CN202111059064 A CN 202111059064A CN 113762175 A CN113762175 A CN 113762175A
- Authority
- CN
- China
- Prior art keywords
- difficult
- model
- convolution
- stage
- category
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 43
- 238000013145 classification model Methods 0.000 claims abstract description 44
- 238000012549 training Methods 0.000 claims abstract description 33
- 239000011159 matrix material Substances 0.000 claims abstract description 20
- 238000012360 testing method Methods 0.000 claims abstract description 10
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 5
- 238000013507 mapping Methods 0.000 claims description 12
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims description 6
- 238000012216 screening Methods 0.000 claims description 6
- 230000002123 temporal effect Effects 0.000 claims description 3
- 238000012935 Averaging Methods 0.000 claims description 2
- 238000004364 calculation method Methods 0.000 claims description 2
- 238000002372 labelling Methods 0.000 claims description 2
- 230000006399 behavior Effects 0.000 description 24
- 230000000875 corresponding effect Effects 0.000 description 7
- 238000002474 experimental method Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 2
- 101150041570 TOP1 gene Proteins 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000010845 search algorithm Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/2431—Multiple classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Abstract
本发明公开了一种基于图卷积网络的两阶段行为识别细分类方法。本发明主要通过再分类困难类别集提高行为识别的准确率,分为三个阶段进行:第一阶段:训练粗分类模型;第二阶段:困难类别集的获取和困难类别集模型的训练,利用粗分类模型在测试集上的混淆矩阵以及并查集算法获取困难类别集,之后分别为不同的困难类别集训练困难类别集模型;第三阶段:在线推断,根据粗分类模型的推断结果,将需要进行细分类的样本输入困难类别集模型再分类。本发明所提出的方法针对模型难以分类相似动作的问题,提出的粗分类——细分类两阶段架构一定程度上缓解了相似动作难分类的问题,提高了行为识别的准确率,在公开数据集上取得了较好的结果。
Description
技术领域
本发明属于行为识别领域,具体涉及一种基于图卷积网络的两阶段行为识别细分类方法。该方法在单流行为识别分类任务上优于现有单流模型方法。
背景技术
行为识别是计算机视觉领域的热点研究任务:行为识别的目标是识别出图像或视频中人的行为。基于深度学习的行为识别方法可分为基于RNN的方法、基于CNN的方法、基于GCN的方法。基于GCN的方法由于其准确率较高,成为众多研究者的选择,也是本发明采用的方法。目前,主流方法大多集中于提高行为识别模型的总体分类准确率,而大部分行为识别模型对于动作类中部分动作的错分率十分高,比如,模型难以分类高度相似的动作类别,这成为限制提高行为识别准确率的一大因素。本发明所提出的方法针对现有行为识别模型难以分类高度相似动作的问题,提出粗分类—细分类两阶段模型架构,在一定程度上缓解了高度相似动作难分类的问题,提高了行为识别的准确率,且在公开数据集上取得了较好的结果。
发明内容
为解决现有技术存在的问题,本发明提出了一种基于图卷积网络的两阶段行为识别细分类方法。该方法是针对现有模型没有很好分类高度相似动作这一缺陷进行的改进。本发明提出的两阶段模型架构:即先进行粗分类,再根据粗分类结果进行细分类。
本发明主要通过再分类困难类别集中的动作类别进行行为识别,本发明的技术方案具体介绍如下。
本发明提供一种基于图卷积网络的两阶段行为识别细分类方法,分为三个阶段进行:第一阶段:训练粗分类模型
训练好的粗分类模型将用于之后的两个阶段;
第二阶段:困难类别集的获取以及困难类别集模型的训练
利用粗分类模型在测试集上的混淆矩阵以及并查集算法获取困难类别集,之后分别为不同的困难类别集训练困难类别集模型,困难类别集模型的网络结构与粗分类模型的网络结构一致,训练好的模型将用于最后的在线推断阶段;
第三阶段:在线推断
根据粗分类模型的推断结果,将需要进行细分类的样本输入困难类别集模型进行推断,即再分类,推断结果即为最终的行为识别结果。
各个阶段的工作流程具体如下。
第一阶段:训练粗分类模型
粗分类网络由BN层、10个卷积单元(U1-U10)以及全连接层组成。其中,每个卷积单元都包括空间图卷积模块和时间图卷积模块。空间图卷积模块由一个BN层和ReLU层组成,时间图卷积模块由两个BN层、ReLU层和二维卷积层组成,二维卷积的卷积核大小为1,步长为1。其中,在第1个卷积单元(U1)、第5个卷积单元(U5)和第8个卷积单元(U8)的空间图卷积模块前加入一个改变维度的二维卷积层,二维卷积的卷积核大小为1,步长为1,并且在第5个卷积单元和第8个卷积单元加入残差块,残差块由一个二维卷积层(二维卷积的卷积核大小为1,步长为2)和一个BN层组成。
粗分类网络的工作流程为:首先,输入骨架序列数据(维度为N×3×T×V)到BN层,得到归一化后的骨架序列数据,之后将其依次输入到10个卷积单元中,卷积操作提取骨架序列数据的特征,对提取的特征(卷积单元110的输出维度为N×256×T×V)在维度T和维度V上求平均,得到维度为N×256的特征,最后将该特征输入到全连接层进行分类,得到动作类别。
整个粗分类网络涉及的输入输出维度列举如下:
BN层的输入维度为N×3×T×V,输出维度为N×3×T×V;
卷积单元U1的输入维度为N×3×T×V,输出维度为N×64×T×V;
卷积单元U2的输入维度为N×64×T×V,输出维度为N×64×T×V;
卷积单元U3的输入维度为N×64×T×V,输出维度为N×64×T×V;
卷积单元U4的输入维度为N×64×T×V,输出维度为N×64×T×V;
卷积单元U5的输入维度为N×64×T×V,输出维度为N×128×T×V;
残差块的输入维度为N×64×T×V,输出维度为N×128×T×V;
卷积单元U6的输入维度为N×128×T×V,输出维度为N×128×T×V;
卷积单元U7的输入维度为N×128×T×V,输出维度为N×128×T×V;
卷积单元U8的输入维度为N×128×T×V,输出维度为N×256×T×V;
残差块的输入维度为N×128×T×V,输出维度为N×256×T×V;
卷积单元U9的输入维度为N×256×T×V,输出维度为N×256×T×V;
卷积单元U10的输入维度为N×256×T×V,输出维度为N×256×T×V;
全连接层的输入维度为N×256,输出维度为N×60;
其中,T为输入骨架序列的帧数;V=25为人体关节点数;N为样本数量。
粗分类网络在训练过程中将保存准确率最高的模型M,用于第三阶段中的在线测试。
第二阶段:困难类别集的获取以及困难类别集模型的训练
一、困难类别集的获取
困难类别集指模型容易混淆分类的动作类别标签的集合。困难类别集的获取分为两步,首先,输入测试集到粗分类模型M进行推断,得到测试集上的混淆矩阵。其次,根据混淆矩阵获取困难类别集其中,sib指困难类别集si中的第b个动作类标签,Nsi为si中包含的动作类别标签个数。具体操作分为2步:
1)计算混淆率矩阵r。对于给定的混淆矩阵C,(Cij∈C,1<=i,j<=Nc,Nc是模型M分类的动作类别数量),混淆率矩阵r的计算公式如下,其中,rij∈r,i≠j,是r的第i行第j列,指模型M推断错误的样本数占该类别总数的比例。Cij∈C是混淆矩阵C的第i行第j列,表示模型M将真实标签i推断为j的样本个数;
2)使用经典并查集算法,得到困难类别集si。具体操作为:首先,初始化Nc个集合{0},{1},...,{i},...,{Nc-1},集合{i}代表相应的真实动作类别标签,之后根据第1)步计算得到的混淆率矩阵r合并Nc个集合,合并操作具体为:若rij的值大于阈值θ,则将i所在的集合与j所在的集合合并,得到新的集合;初始时,即合并集合{i}与集合{j}得到集合{i,j},之后的合并操作,以此类推,直至遍历完混淆率矩阵r。最终保留的集合即为困难类别集其中所有满足条件Nsi>=2的困难类别集构成类别集Ns为S中困难类别集的个数。
二、困难类别集模型的训练
困难类别集模型的训练分为困难样本集的获取和模型训练两个部分:
步骤一,困难样本集的获取,又可细分为数据的筛选和标签的映射两个部分。首先,数据的筛选即根据获取到的困难类别集得到困难样本集L。困难样本集为数据集中动作类标签属于si中动作标签的样本的集合,为数据集中动作类标签为sib的样本集合,构建L的过程即为数据的筛选过程。标签的映射是指将困难类别集中动作标签为sib的类别映射为b-1,具体表述为:将si映射到集合映射后的动作类别标签集困难样本集L中的标签映射与si的映射相同,映射后的困难样本集lb为L中动作类标签为sib的样本集合。困难样本集maL即为困难类别集模型的训练集;
步骤二,为每个困难类别集si训练相应的困难类别集模型。模型的网络结构与阶段1中粗分类模型的网络结构基本一致,二者不同之处在于,粗分类模型中全连接层的输出维度为N×60,也即粗分类模型是60分类模型,而困难类别集模型是Q分类模型,全连接层的输出维度为N×Q,Q为相应困难类别集si包含的类别数,即Q=Nsi。模型的输入训练数据为步骤一中获得的相应的困难样本集maL。阶段2最终训练得到细分类模型集A,ai为困难类别集si对应的困难类别集模型,Ns为困难类别集的个数。
第三阶段:在线推断
在线推断的流程分为三个步骤:
步骤一,粗分类模型M的推断:输入骨架序列数据X={x1,x2,...,xT}到阶段1中训练好的粗分类模型M,得到推断标签p;
步骤二,选择困难类别集模型ai:判断粗分类模型M的推断标签p是否需要细分类,判断的逻辑为:若类别集S中存在si,使得p在集合si里,则需要细分类,将进一步选择si所属的困难类别集模型ai,进入步骤三;反之,则p即为最终的动作分类结果;
与现有技术相比,本发明的有益效果在于:
通过对高度相似的动作类别即困难类别进行再分类,使得细分类模型专注于困难类别间的特殊特征,而粗分类模型更关注动作类的一般特征,两阶段的模型架构更全面更充分的挖掘了特征信息,从而提高了行为识别模型的准确率。作为网络基础的卷积单元包含空间图卷积和时间图卷积两个部分,其中空间图卷积部分关注单个骨架各关节之间的联系,时间图卷积关注骨架序列中相邻骨架的联系,这种空间图卷积和时间图卷积分离的设计能够更好地解耦骨架序列空间、时间特征提取的过程。此外,串联多个卷积单元,能够扩大卷积的感受野,更好地提取骨架序列的全局、长距离特征,从而提高行为识别的准确率。
附图说明
图1是本发明所提的一种基于图卷积的两阶段行为识别细分类方法的流程图。
图2是本发明所提方法的具体网络结构。
具体实施方式
以下结合附图和实施例对本发明的技术方案进行详细阐述。
一种基于图卷积网络的两阶段行为识别细分类方法,其具体流程如图1所示,主要分为三个阶段,第一阶段:训练粗分类模型,粗分类模型的网络结构如图2所示。训练好的粗分类模型M将用于之后的两个阶段。第二阶段:困难类别集的获取以及困难类别集模型的训练。利用模型M在测试集上的混淆矩阵以及并查集算法获取困难类别集,之后分别为不同的困难类别集训练困难类别集模型,模型的网络结构如图2所示。训练好的模型将用于最后的在线推断阶段。第三阶段:在线推断。根据粗分类模型M的推断结果,将需要进行细分类的样本输入困难类别集模型进行推断,推断结果即为最终的行为识别结果。
实施例1
本发明提出的一种基于图卷积网络的两阶段行为识别细分类方法,在公开数据集NTU-RGB+D 60上进行了实验,并和当前主流方法的结果进行对比。按照主流做法,实验在X-Sub和X-View两个benchmark上进行,使用Top1作为评价指标。本实施例中仅使用单流数据(关节数据)进行实验,且仅与单流模型进行实验结果对比。
本发明的实验参数设置为:
本发明的实验环境为:处理器为Intel(R)Xeon(R)CPU E5-2603 v4@1.70GHz,显卡为NVIDIA Titan XP 12GB,内存64GB,操作系统为Ubuntu 16.04(64位),编程语言为Python3.7.4,深度学习框架为PyTorch1.2.0。
在模型的训练和测试过程中,使用连续的300帧的人体骨架关节数据作为输入,即T=300。在训练过程中,采用SGD优化器,学习率设置为0.1,每隔50个轮次将学习率缩小10倍,批次大小设置为64,总计训练200个轮次。粗分类模型M的分类样本数量Nc=60。在获取困难类别集时,阈值θ=0.1。
在本实施例中,获取到三个困难类别集s1={9,33},s2={5,15,16},s3={10,11,28,29},其对应的动作类别如表1所示,以s2为例,从动作骨架上来看,捡东西、穿鞋、脱鞋没有很大的区分性,因此粗分类模型同大多数主流方法一样,容易错分高度相似的动作类别,为提高准确率,需对其进行再分类。最终得到的实验结果如表2所示,可以看出,本发明所提方法在两个benchmark上的指标均优于既有方法,证实了本发明所提的两阶段行为识别细分类方法的有效性。
表1困难类别集对应的动作
困难类别集 | 动作 |
{9,33} | {鼓掌,摩擦双手} |
{5,15,16} | {捡东西,穿鞋,脱鞋} |
{10,11,28,29} | {阅读,写字,玩手机,敲键盘} |
表2基于NTU-RGB+D 60数据集上的对比结果
方法名称 | X-Sub | X-View |
ST-GCN[1] | 81.5 | 88.3 |
1s Shift-GCN[2] | 87.8 | 95.1 |
本发明所提方法 | 89.4 | 95.5 |
参考文献
[1]Sijie Yan,Yuanjun Xiong,and Dahua Lin.Spatial temporal graphconvolutional networks for skeleton-based action recognition.In Thirty-SecondAAAI Conference on Artificial Intelligence,2018
[2]K.Cheng,Y.Zhang,X.He,W.Chen,J.Cheng and H.Lu.Skeleton-Based ActionRecognition With Shift Graph Convolutional Network.2020IEEE/CVF Conference onComputer Vision and Pattern Recognition(CVPR),2020。
Claims (4)
2.根据权利要求1所述的基于图卷积网络的两阶段行为识别细分类方法,其特征在于,第一阶段中,粗分类模型的网络结构如下:
粗分类网络由BN层、10个卷积单元U1-U10以及全连接层组成;其中,每个卷积单元都包括空间图卷积模块和时间图卷积模块;空间图卷积模块由一个BN层和ReLU层组成,时间图卷积模块由两个BN层、ReLU层和二维卷积层组成,二维卷积的卷积核大小为1,步长为1,其中,在第1个卷积单元U1、第5个卷积单元U5和第8个卷积单元U8的空间图卷积模块前加入一个改变维度的二维卷积层,二维卷积的卷积核大小为1,步长为1,并且在第5个卷积单元U5和第8个卷积单元U8加入残差块,残差块由一个卷积核大小为1,步长为2的二维卷积层和一个BN层组成;
粗分类网络的工作流程为:首先,输入维度为N×3×T×V的骨架序列数据到BN层,得到归一化后的骨架序列数据,之后将其依次输入到10个卷积单元中,卷积操作提取骨架序列数据的特征,对提取的维度为N×256×T×V的特征在维度T和维度V上求平均,得到维度为N×256的特征,最后将该特征输入到全连接层进行分类,得到动作类别。
3.根据权利要求1所述的基于图卷积网络的两阶段行为识别细分类方法,其特征在于,第二阶段中,获取困难类别集以及训练困难类别集模型的具体步骤如下:
一、困难类别集的获取
困难类别集的获取分为两步,首先,输入测试集到粗分类模型M进行推断,得到测试集上的混淆矩阵;其次,根据混淆矩阵获取困难类别集其中,sib指困难类别集si中的第b个动作类标签,Nsi为si中包含的动作类别标签个数;具体操作分为2步:
1)计算混淆率矩阵r:对于给定的混淆矩阵C,Cij∈C,1<=i,j<=Nc,Nc是模型M分类的动作类别数量,混淆率矩阵r的计算公式如下,其中,rij∈r,i≠j,是r的第i行第j列,指模型M推断错误的样本数占该类别总数的比例,Cij∈C是混淆矩阵C的第i行第j列,表示模型M将真实标签i推断为j的样本个数;
2)使用经典并查集算法,得到困难类别集si,具体操作为:首先,初始化Nc个集合{0},{1},...,{i},...,{Nc-1},集合{i}代表相应的真实动作类别标签,之后根据第1)步计算得到的混淆率矩阵r合并Nc个集合,合并操作具体为:若rij的值大于阈值θ,则将i所在的集合与j所在的集合合并,得到新的集合;初始时,即合并集合{i}与集合{j}得到集合{i,j}。之后的合并操作,以此类推,直至遍历完混淆率矩阵r,最终保留的集合即为困难类别集其中所有满足条件Nsi>=2的困难类别集构成类别集Ns为S中困难类别集的个数;
二、困难类别集模型的训练
困难类别集模型的训练分为困难样本集的获取和模型训练两个部分:
步骤一,困难样本集的获取,又可细分为数据的筛选和标签的映射两个部分;首先,数据的筛选即根据获取到的困难类别集得到困难样本集L;困难样本集为数据集中动作类标签属于si中动作标签的样本的集合,为数据集中动作类标签为sib的样本集合,构建L的过程即为数据的筛选过程;标签的映射是指将困难类别集中动作标签为sib的类别映射为b-1,具体表述为:将si映射到集合映射后的动作类别标签集困难样本集L中的标签映射与si的映射相同,映射后的困难样本集lb为L中动作类标签为sib的样本集合,困难样本集maL即为困难类别集模型的训练集;
4.根据权利要求1所述的基于图卷积网络的两阶段行为识别细分类方法,其特征在于,第三阶段在线推断的流程分为三个步骤:
步骤一,粗分类模型M的推断:输入骨架序列数据X={x1,x2,...,xT}到第一阶段中训练好的粗分类模型M,得到推断标签p;
步骤二,选择困难类别集模型ai,判断粗分类模型M的推断标签p是否需要细分类,判断的逻辑为:若类别集S中存在si,使得p在集合si里,则需要细分类,将进一步选择si所属的困难类别集模型ai,进入步骤三;反之,则p即为最终的动作分类结果;
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111059064.5A CN113762175B (zh) | 2021-09-10 | 一种基于图卷积网络的两阶段行为识别细分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111059064.5A CN113762175B (zh) | 2021-09-10 | 一种基于图卷积网络的两阶段行为识别细分类方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113762175A true CN113762175A (zh) | 2021-12-07 |
CN113762175B CN113762175B (zh) | 2024-04-26 |
Family
ID=
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115620052A (zh) * | 2022-10-08 | 2023-01-17 | 广州市玄武无线科技股份有限公司 | 细粒度商品检测方法、系统、终端设备及存储介质 |
WO2023179014A1 (zh) * | 2022-03-23 | 2023-09-28 | 中兴通讯股份有限公司 | 流量识别方法、装置、电子设备及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107145485A (zh) * | 2017-05-11 | 2017-09-08 | 百度国际科技(深圳)有限公司 | 用于压缩主题模型的方法和装置 |
CN107909039A (zh) * | 2017-11-16 | 2018-04-13 | 武汉大学 | 基于并行算法的高分辨率遥感影像的地表覆盖分类方法 |
CN108446605A (zh) * | 2018-03-01 | 2018-08-24 | 南京邮电大学 | 复杂背景下双人交互行为识别方法 |
CN108776774A (zh) * | 2018-05-04 | 2018-11-09 | 华南理工大学 | 一种基于复杂度感知分类算法的面部表情识别方法 |
US20200210773A1 (en) * | 2019-01-02 | 2020-07-02 | Boe Technology Group Co., Ltd. | Neural network for image multi-label identification, related method, medium and device |
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107145485A (zh) * | 2017-05-11 | 2017-09-08 | 百度国际科技(深圳)有限公司 | 用于压缩主题模型的方法和装置 |
CN107909039A (zh) * | 2017-11-16 | 2018-04-13 | 武汉大学 | 基于并行算法的高分辨率遥感影像的地表覆盖分类方法 |
CN108446605A (zh) * | 2018-03-01 | 2018-08-24 | 南京邮电大学 | 复杂背景下双人交互行为识别方法 |
CN108776774A (zh) * | 2018-05-04 | 2018-11-09 | 华南理工大学 | 一种基于复杂度感知分类算法的面部表情识别方法 |
US20200210773A1 (en) * | 2019-01-02 | 2020-07-02 | Boe Technology Group Co., Ltd. | Neural network for image multi-label identification, related method, medium and device |
Non-Patent Citations (3)
Title |
---|
ANAHITA ZAREI 等: "Artificial Neural Network for Prediction of Ethnicity Based on Iris Texture", 《IEEE》, 31 December 2012 (2012-12-31), pages 514 - 519, XP032302600, DOI: 10.1109/ICMLA.2012.94 * |
林杰 等: "专业社交媒体中的主题知识元抽取方法研究", 《图书情报工作》, vol. 63, no. 14, 31 July 2019 (2019-07-31), pages 101 - 110 * |
白洁;张金松;刘倩宇;: "基于卷积网络特征迁移的小样本物体图像识别", 《计算机仿真》, vol. 37, no. 5, 15 May 2020 (2020-05-15), pages 311 - 316 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023179014A1 (zh) * | 2022-03-23 | 2023-09-28 | 中兴通讯股份有限公司 | 流量识别方法、装置、电子设备及存储介质 |
CN115620052A (zh) * | 2022-10-08 | 2023-01-17 | 广州市玄武无线科技股份有限公司 | 细粒度商品检测方法、系统、终端设备及存储介质 |
CN115620052B (zh) * | 2022-10-08 | 2023-07-04 | 广州市玄武无线科技股份有限公司 | 细粒度商品检测方法、系统、终端设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Ye et al. | PurifyNet: A robust person re-identification model with noisy labels | |
Zhang et al. | Mdnet: A semantically and visually interpretable medical image diagnosis network | |
CN110717534B (zh) | 一种基于网络监督的目标分类和定位方法 | |
CN108875600A (zh) | 一种基于yolo的车辆信息检测和跟踪方法、装置及计算机存储介质 | |
Pal et al. | Deep-learning-based visual data analytics for smart construction management | |
CN110598543B (zh) | 基于属性挖掘和推理的模型训练方法及行人再识别方法 | |
Han et al. | End-to-end trainable trident person search network using adaptive gradient propagation | |
CN111985538A (zh) | 基于语义辅助注意力机制的小样本图片分类模型及方法 | |
CN110705490B (zh) | 视觉情感识别方法 | |
CN113505670B (zh) | 基于多尺度cam和超像素的遥感图像弱监督建筑提取方法 | |
CN111274926A (zh) | 图像数据筛选方法、装置、计算机设备和存储介质 | |
Jiao et al. | SAN: Selective alignment network for cross-domain pedestrian detection | |
Jiang et al. | Robust vehicle re-identification via rigid structure prior | |
Chen et al. | Adversarial learning of object-aware activation map for weakly-supervised semantic segmentation | |
CN108805181B (zh) | 一种基于多分类模型的图像分类装置及分类方法 | |
Zhang et al. | Re-abstraction and perturbing support pair network for few-shot fine-grained image classification | |
Agbo-Ajala et al. | Apparent age prediction from faces: A survey of modern approaches | |
CN110852255B (zh) | 一种基于u型特征金字塔的交通目标检测方法 | |
CN113762175B (zh) | 一种基于图卷积网络的两阶段行为识别细分类方法 | |
CN113762175A (zh) | 一种基于图卷积网络的两阶段行为识别细分类方法 | |
Wang et al. | A novel fine-grained method for vehicle type recognition based on the locally enhanced PCANet neural network | |
CN113591731A (zh) | 一种基于知识蒸馏的弱监督视频时序行为定位方法 | |
CN114038007A (zh) | 一种结合风格变换与姿态生成的行人重识别方法 | |
Hu et al. | Part relational mean model for group re-identification | |
CN116844143B (zh) | 基于边缘增强的胚胎发育阶段预测与质量评估系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant |