CN110751072A - 基于知识嵌入图卷积网络的双人交互识别方法 - Google Patents

基于知识嵌入图卷积网络的双人交互识别方法 Download PDF

Info

Publication number
CN110751072A
CN110751072A CN201910967740.5A CN201910967740A CN110751072A CN 110751072 A CN110751072 A CN 110751072A CN 201910967740 A CN201910967740 A CN 201910967740A CN 110751072 A CN110751072 A CN 110751072A
Authority
CN
China
Prior art keywords
knowledge
graph
double
convolution
skeleton
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910967740.5A
Other languages
English (en)
Other versions
CN110751072B (zh
Inventor
谢雪梅
潘庆哲
曹玉晗
李佳楠
赵至夫
石光明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian University of Electronic Science and Technology
Original Assignee
Xian University of Electronic Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian University of Electronic Science and Technology filed Critical Xian University of Electronic Science and Technology
Priority to CN201910967740.5A priority Critical patent/CN110751072B/zh
Publication of CN110751072A publication Critical patent/CN110751072A/zh
Application granted granted Critical
Publication of CN110751072B publication Critical patent/CN110751072B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Biology (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Biomedical Technology (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于知识嵌入图卷积网络的双人交互识别方法,主要解决现有技术忽视双人关联而不能提取双人交互特征,以及双人交互识别准确率差的问题。其实现方案为:1)设计知识给定图建立交互双人的骨架点之间的直接连接;2)设计知识学习图,并自适应地建立骨架点之间连接;3)构建可利用不同图之间的互补性的知识嵌入图卷积块;4)将10个知识嵌入图卷积块、一个全局池化层和一个全连接层依次连接构成知识嵌入图卷积网络;5)训练知识嵌入图卷积网络得到最优模型;6)将双人骨架序列输入最优模型识别出双人交互行为。本发明提高了双人交互行为识别的准确率,可用于视频检索,人机交互以及视频理解。

Description

基于知识嵌入图卷积网络的双人交互识别方法
技术领域
本发明属于视频处理技术领域,更进一步涉及一种双人交互识别方法,可用于视频检索,人机交互以及视频理解。
背景技术
双人交互识别可以利用多种不同的模态,如红绿蓝色彩模式图像RGB,深度和骨架。骨架模态与RGB、深度两种模态相比,具有存储量少,对环境因素的变化鲁棒性较强的特点,并且骨架数据是对人体特征的高度抽象,可以很好适用于双人交互识别。目前骨架模态的双人行为识别方法主要基于循环神经网络,卷积神经网络和图卷积网络。基于循环神经网络和卷积神经网络的方法把原始的骨架数据转换为网格状数据输入网络。上述处理方式破坏了骨架的结构,不能完全利用骨架数据的信息。而基于图卷积网络的方法可以直接处理骨架这种非规则数据。
Sijie Yan在其发表的论文“Spatial Temporal Graph Convolutional Networksfor Skeleton-based Action Recognition”(Thirty-Second AAAI Conference onArtificial Intelligence(AAAI),2018)中提出了一种用于行为识别的时空图卷积方法。该方法将骨架数据构造为骨架图结构,骨架图的顶点是骨架点,边是按照人体自然连接的骨头。尽管时空图卷积方法利用了骨架数据的结构信息,但是仍然存在两个限制:1)由于构造的骨架图把人体的骨头作为边来建立连接关系,忽略了交互的两个人之间的骨架点的关联,因此不能保证这个骨架图对于双人交互识别是最有效的;2)由于预定义的骨架图是固定的,因此不能保证适合所有双人交互行为,比如对于“握手”行为,建立两个人的手的图连接是很重要的,但是这个连接不适合“踢人”行为。
发明内容
本发明的目的在于提出一种基于知识嵌入图卷积网络的双人交互识别方法,以解决现有方法中根据人体自然连接构建骨架图,忽略交互的两个人之间的骨架点的关联,不能保证适合所有双人交互行为,且识别效果差的问题。
为实现上述目的,本发明的技术方案包括如下步骤:
(1)设计知识给定图:
(1a)选定某一类别交互行为,确定交互双方骨架的交互区域J1和J2,对J1和J2进行笛卡尔积,得到交互连接集合Ic
(1b)对于选定类别的每个视频,先计算Ic中每个交互连接的端点在相邻两帧之间的距离变化,再对整个视频中所有相邻视频帧的距离变化绝对值求和,并将对应最大距离变化和的连接作为这个视频的候选连接;
(1c)统计选定类别所有视频的候选连接出现的频数,挑选前n个候选连接作为该类的判别性连接;
(1d)对需要识别的所有交互类别重复(1a)-(1c)的操作,将所有类别的判别性连接取并集,得到知识给定图的所有边,并将所有双人骨架点作为顶点与其边得到知识给定图;
(2)设计知识学习图:
(2a)将维度为Cin×T×J的骨架特征图重新排列得到维度为CinT×J的张量,并使用卷积核大小为1的卷积层将排列后的张量变换为维度为Cf×J的张量,其中Cin代表特征图的通道数,T代表输入视频的帧数,J代表双人骨架点的数目,Cf代表一个骨架点对应特征的维度;
(2b)计算任意两个骨架点的Cf维向量内积作为这两个骨架点的相似性,根据相似性的值确定这两个骨架点是否连接以及连接的强度,得到知识学习图;
(3)构建知识嵌入图卷积块:
(3a)构建空间卷积,即先将知识给定图、知识学习图和已有根据人体骨头构建的图用邻接矩阵表示,并分别与维度为Cin×T×J的骨架特征图进行矩阵相乘,再将矩阵相乘结果依次经过卷积层和修正线性单元ReLU得到三个输出特征图;再对这三个输出特征图进行求和操作;
(3b)构建由卷积层和修正线性单元ReLU依次连接组成的时间卷积;
(3c)将空间卷积和时间卷积依次连接构成知识嵌入图卷积块;
(4)将10个知识嵌入图卷积块,一个全局平均池化层和一个全连接层依次连接,构成知识嵌入图卷积网络;
(5)训练知识嵌入图卷积网络:
(5a)在网址下载NTU数据集的三维骨架数据,选择其中的双人交互类别数据作为数据集,该数据集中的每个骨架样本包括骨架点的坐标信息和该样本对应的交互行为标签;
(5b)以2:1的比例将数据集划分为训练集和测试集;将训练集的数据输入到知识嵌入图卷积网络中,用梯度下降法更新知识嵌入图卷积网络,得到训练好的知识嵌入图卷积网络;
(6)识别双人交互行为:
(6a)使用相机采集一个RGB图像序列,每张图像均含有待识别的双人交互行为;
(6b)利用骨架姿态估计工具,在RGB图像序列中提取双人骨架序列,每个双人骨架包含50个骨架点以及每个骨架点所处位置对应的三维坐标;
(6c)将双人骨架序列输入到训练好的知识嵌入图卷积网络,输出双人交互识别结果。
本发明与现有技术相比,具有以下优点:
第一,本发明设计了知识给定图和知识学习图,其中知识给定图建立了交互双人的骨架点之间的直接连接,克服了已有根据人体骨头构建的图忽视双人关联而不能提取双人交互特征的缺点;知识学习图以数据驱动的方式自适应地建立骨架点之间的连接,解决了预定义骨架图不适合所有双人交互行为的问题;
第二,本发明构建了知识嵌入图卷积网络,利用知识给定图、知识学习图和已有根据人体骨头构建的图之间的互补性,使得网络学习到更具判别性的双人交互特征,提高了双人交互识别的准确率。
附图说明
图1为本发明的流程图。
具体实施方法
下面结合附图对本发明进行详细说明。
本实施例针对双人交互识别任务先设计知识给定图和知识学习图,以用于建立骨架点间更丰富的连接;然后构建了知识嵌入图卷积块来利用知识给定图、知识学习图和已有根据人体骨头构建的图之间的互补性,再构建知识嵌入图卷积网络,之后训练知识嵌入图卷积网络并对双人交互行为进行识别。
参照图1,对本发明的实现步骤做进一步的描述。
步骤1,设计知识给定图。
1.1)设双人交互行为的类别包括“拳打”,“踢人”,“推人”,“拍背”,“用手指”,“拥抱”,“递东西”,“掏口袋”,“握手”,“靠近”和“远离”;
1.2)任选某一类别交互行为,确定交互双方骨架的交互区域J1和J2,对J1和J2进行笛卡尔积,得到交互连接集合Ic
1.3)对于选定类别的每个视频,先计算Ic中每个交互连接的端点在相邻两帧之间的距离变化,再对整个视频中所有相邻视频帧的距离变化绝对值求和,并将对应最大距离变化和的连接作为这个视频的候选连接;
1.4)统计选定类别所有视频的候选连接出现的频数,挑选前n个候选连接作为该类的判别性连接;
1.5)对所有交互类别重复1.2)-1.4),将所有类别的判别性连接取并集,得到知识给定图的所有边连接,并将所有骨架点作为顶点与其边连接得到知识给定图。
步骤2:设计知识学习图。
2.1)将维度为Cin×T×J的骨架特征图重新排列得到维度为CinT×J的张量,并使用卷积核大小为1的卷积层将排列后的张量变换为维度为Cf×J的张量,其中Cin代表特征图的通道数,T代表输入视频的帧数,J代表双人骨架点的数目,Cf代表一个骨架点对应特征的维度;
2.2)任选一个骨架点的Cf维向量与对应所有双人骨架点的Cf×J的张量进行矩阵相乘操作,得到所选骨架点与所有骨架点的相似性向量,并进行归一化操作得到归一化相似性向量;
2.3)根据归一化相似性向量确定骨架点之间是否有边连接以及连接强度;
如果该向量某一维度值大于0.1,则将维度对应骨架点与所选骨架点的连接作为知识学习图的一条边连接且连接强度为维度值;否则,维度对应骨架点与所选骨架点之间没有边连接;
2.4)对所有的骨架点重复操作2.2)和2.3),从而得到知识学习图的所有边连接,并将所有骨架点作为顶点与其边连接得到知识学习图。
步骤3:构建知识嵌入图卷积块。
3.1)构建空间卷积:
3.1.1)先将知识给定图、知识学习图和已有根据人体骨头构建的图用邻接矩阵表示,并分别与维度为Cin×T×J的骨架特征图进行矩阵相乘,得到维度为Cin×T×J的新张量;
3.1.2)将矩阵相乘结果依次经过卷积层和修正线性单元ReLU得到三个输出特征图,输出特征图维度均为Cout×T×J,其中Cout为输出特征图的维度;
3.1.3)对这三个输出特征图进行求和操作,得到空间卷积的输出;
3.2)构建由卷积层和修正线性单元ReLU依次连接组成的时间卷积;
3.3)将空间卷积和时间卷积依次连接构成知识嵌入图卷积块。
步骤4:构建知识嵌入图卷积网络。
4.1)设置网络结构:
将10个知识嵌入图卷积块,一个全局平均池化层和一个全连接层依次连接,构成知识嵌入图卷积网络结构;
4.2)设置参数:
所述10个知识嵌入图卷积块,其空间卷积核大小均为1×1,空间卷积步长均为1,时间卷积核大小均设置为9×1,时间卷积步长依次设为1,1,1,1,2,1,1,2,1,1,每个卷积块的空间和时间卷积核数量相同,依次设置为64,64,64,64,128,128,128,256,256,256;
所述全连接层,其输出神经元个数设置为需要识别的行为类别总数。
步骤5:训练知识嵌入图卷积网络。
5.1)在公开网址下载三维骨架数据,本实例选择NTU数据集中的双人交互类别数据作为数据集,网址为http://rose1.ntu.edu.sg/Datasets/actionRecognition.asp;该数据集中双人交互行为类别包括“拳打”,“踢人”,“推人”,“拍背”,“用手指”,“拥抱”,“递东西”,“掏口袋”,“握手”,“靠近”和“远离”;数据集中每个骨架样本包括骨架点的坐标信息和该样本对应的交互行为标签;
5.2)以2:1的比例将数据集划分为训练集和测试集;将训练集的数据输入到知识嵌入图卷积网络中,用梯度下降法迭代更新知识嵌入图卷积网络:
5.2.1)将学习率α设置为0.003,迭代次数设置为60000,每次迭代在训练集中选择骨架样本数目设置为32;
5.2.2)设网络参数维度为N,根据所选骨架样本中双人交互类别的标签值与知识嵌入图卷积网络的输出值计算网络参数维度为N的梯度向量▽J,利用所求梯度向量对网络参数进行更新,公式如下:
其中,
Figure BDA0002231063770000052
表示更新后的N维网络参数,θ表示更新前的N维网络参数;
5.2.3)判断迭代次数是否达到60000;若是,则停止对参数的更新,得到训练好的知识嵌入图卷积网络;否则,重复操作5.2.2),直到迭代次数达到60000。
步骤6:识别双人交互行为。
6.1)使用相机采集一个RGB视频,视频中每张图像均含有待识别的双人交互行为;
6.2)利用骨架姿态估计工具,对视频中每张图像提取双人交互行为的骨架,用所有图像的骨架构成双人骨架序列,其中每个双人骨架包含50个骨架点以及每个骨架点所处位置对应的三维坐标;
6.3)将双人骨架序列输入到训练好的知识嵌入图卷积网络,输出双人交互行为类别。
本发明的效果可通过仿真实例进一步说明:
利用5.2)中对数据集划分得到的测试集说明发明效果,测试集共包含3000个样本,将测试集中的每个数据样本输入到训练好的知识嵌入图卷积网络得到对该样本的分类结果;
统计测试集中样本分类结果与标签相同的样本数目即分类正确样本数目,分类正确样本数目为2829,并计算与测试集样本总数的比值得到双人交互识别的准确率A:
Figure BDA0002231063770000061
从仿真结果表明得出,本发明具有双人识别准确率高的优点。

Claims (3)

1.一种基于知识嵌入图卷积网络的双人交互识别方法,其特征在于,包括如下:
(1)设计知识给定图:
(1a)选定某一类别交互行为,确定交互双方骨架的交互区域J1和J2,对J1和J2进行笛卡尔积,得到交互连接集合Ic
(1b)对于选定类别的每个视频,先计算Ic中每个交互连接的端点在相邻两帧之间的距离变化,再对整个视频中所有相邻视频帧的距离变化绝对值求和,并将对应最大距离变化和的连接作为这个视频的候选连接;
(1c)统计选定类别所有视频的候选连接出现的频数,挑选前n个候选连接作为该类的判别性连接;
(1d)对需要识别的所有交互类别重复(1a)-(1c)的操作,将所有类别的判别性连接取并集,得到知识给定图的所有边连接,并将所有双人骨架点作为顶点与其图边连接得到知识给定图;
(2)设计知识学习图:
(2a)将维度为Cin×T×J的骨架特征图重新排列得到维度为CinT×J的张量,并使用卷积核大小为1的卷积层将排列后的张量变换为维度为Cf×J的张量,其中Cin代表特征图的通道数,T代表输入视频的帧数,J代表双人骨架点的数目,Cf代表一个骨架点对应特征的维度;
(2b)计算任意两个骨架点的Cf维向量内积作为这两个骨架点的相似性,根据相似性的值确定这两个骨架点是否连接以及连接的强度,得到知识学习图;
(3)构建知识嵌入图卷积块:
(3a)构建空间卷积,即先将知识给定图、知识学习图和已有根据人体骨头构建的图用邻接矩阵表示,并分别与维度为Cin×T×J的骨架特征图进行矩阵相乘,再将矩阵相乘结果依次经过卷积层和修正线性单元ReLU得到三个输出特征图;再对这三个输出特征图进行求和操作;
(3b)构建由卷积层和修正线性单元ReLU依次连接组成的时间卷积;
(3c)将空间卷积和时间卷积依次连接构成知识嵌入图卷积块;
(4)将10个知识嵌入图卷积块,一个全局平均池化层和一个全连接层依次连接,构成知识嵌入图卷积网络;
(5)训练知识嵌入图卷积网络:
(5a)在网址下载三维骨架数据,选择其中的双人交互类别数据作为数据集,该数据集中的每个骨架样本包括骨架点的坐标信息和该样本对应的交互行为标签;
(5b)以2:1的比例将数据集划分为训练集和测试集;将训练集的数据输入到知识嵌入图卷积网络中,用梯度下降法更新知识嵌入图卷积网络,得到训练好的知识嵌入图卷积网络;
(6)识别双人交互行为:
(6a)使用相机采集一个RGB图像序列,每张图像均含有待识别的双人交互行为;
(6b)利用骨架姿态估计工具,在RGB图像序列中提取双人骨架序列,每个双人骨架包含50个骨架点以及每个骨架点所处位置对应的三维坐标;
(6c)将双人骨架序列输入到训练好的知识嵌入图卷积网络,输出双人交互识别结果。
2.根据权利要求1所述的方法,其特征在于,(4)构成的知识嵌入图卷积网络,其参数设置如下:
所述10个知识嵌入图卷积块,其空间卷积核大小均为1×1,空间卷积步长均为1,时间卷积核大小均设置为9×1,时间卷积步长依次设为1,1,1,1,2,1,1,2,1,1,每个卷积块的空间和时间卷积核数量相同,依次设置为64,64,64,64,128,128,128,256,256,256;
所述全连接层,其输出神经元个数设置为需要识别的行为类别总数。
3.根据权利要求1所述的方法,其特征在于,(5b)中用梯度下降法更新知识嵌入图卷积网络的各层参数,实现如下:
(5b1)将知识嵌入图卷积网络的学习率α设置为0.003,迭代次数设置为60000,每次迭代在训练集中选择骨架样本数目设置为32;
(5b2)对于每次迭代,根据所选骨架样本中双人交互类别的标签值与知识嵌入图卷积网络的输出值计算网络参数的梯度值
Figure FDA0002231063760000031
并利用下式,迭代更新知识嵌入图卷积网络的各层参数:
其中,
Figure FDA0002231063760000033
表示更新后的知识嵌入图卷积网络的参数值,θ表示知识嵌入图卷积网络更新前的参数值;
(5b3)当迭代次数达到60000,停止对参数的更新,得到训练好的知识嵌入图卷积网络。
CN201910967740.5A 2019-10-12 2019-10-12 基于知识嵌入图卷积网络的双人交互识别方法 Active CN110751072B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910967740.5A CN110751072B (zh) 2019-10-12 2019-10-12 基于知识嵌入图卷积网络的双人交互识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910967740.5A CN110751072B (zh) 2019-10-12 2019-10-12 基于知识嵌入图卷积网络的双人交互识别方法

Publications (2)

Publication Number Publication Date
CN110751072A true CN110751072A (zh) 2020-02-04
CN110751072B CN110751072B (zh) 2020-12-08

Family

ID=69278153

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910967740.5A Active CN110751072B (zh) 2019-10-12 2019-10-12 基于知识嵌入图卷积网络的双人交互识别方法

Country Status (1)

Country Link
CN (1) CN110751072B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109446927A (zh) * 2018-10-11 2019-03-08 西安电子科技大学 基于先验知识的双人交互行为识别方法
CN112381004A (zh) * 2020-11-17 2021-02-19 华南理工大学 一种基于骨架的双流自适应图卷积网络行为识别方法
CN112560712A (zh) * 2020-12-18 2021-03-26 西安电子科技大学 基于时间增强图卷积网络的行为识别方法、装置及介质
WO2022000420A1 (zh) * 2020-07-02 2022-01-06 浙江大学 人体动作识别方法、人体动作识别系统及设备

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108446605A (zh) * 2018-03-01 2018-08-24 南京邮电大学 复杂背景下双人交互行为识别方法
CN109446927A (zh) * 2018-10-11 2019-03-08 西安电子科技大学 基于先验知识的双人交互行为识别方法
CN109685037A (zh) * 2019-01-08 2019-04-26 北京汉王智远科技有限公司 一种实时动作识别方法、装置及电子设备
CN109919085A (zh) * 2019-03-06 2019-06-21 西安电子科技大学 基于轻量型卷积神经网络的人人交互行为识别方法
CN110059620A (zh) * 2019-04-17 2019-07-26 安徽艾睿思智能科技有限公司 基于时空注意力的骨骼行为识别方法
CN110222611A (zh) * 2019-05-27 2019-09-10 中国科学院自动化研究所 基于图卷积网络的人体骨架行为识别方法、系统、装置
US20190304156A1 (en) * 2018-04-03 2019-10-03 Sri International Artificial intelligence for generating structured descriptions of scenes

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108446605A (zh) * 2018-03-01 2018-08-24 南京邮电大学 复杂背景下双人交互行为识别方法
US20190304156A1 (en) * 2018-04-03 2019-10-03 Sri International Artificial intelligence for generating structured descriptions of scenes
CN109446927A (zh) * 2018-10-11 2019-03-08 西安电子科技大学 基于先验知识的双人交互行为识别方法
CN109685037A (zh) * 2019-01-08 2019-04-26 北京汉王智远科技有限公司 一种实时动作识别方法、装置及电子设备
CN109919085A (zh) * 2019-03-06 2019-06-21 西安电子科技大学 基于轻量型卷积神经网络的人人交互行为识别方法
CN110059620A (zh) * 2019-04-17 2019-07-26 安徽艾睿思智能科技有限公司 基于时空注意力的骨骼行为识别方法
CN110222611A (zh) * 2019-05-27 2019-09-10 中国科学院自动化研究所 基于图卷积网络的人体骨架行为识别方法、系统、装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JIAGANG ZHU,ET AL.: "Convolutional relation network for skeleton-based action recognition", 《NEUROCOMPUTING》 *
杨佳慧: "基于时空兴趣点的人体行为识别", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109446927A (zh) * 2018-10-11 2019-03-08 西安电子科技大学 基于先验知识的双人交互行为识别方法
CN109446927B (zh) * 2018-10-11 2021-11-23 西安电子科技大学 基于先验知识的双人交互行为识别方法
WO2022000420A1 (zh) * 2020-07-02 2022-01-06 浙江大学 人体动作识别方法、人体动作识别系统及设备
CN112381004A (zh) * 2020-11-17 2021-02-19 华南理工大学 一种基于骨架的双流自适应图卷积网络行为识别方法
CN112381004B (zh) * 2020-11-17 2023-08-08 华南理工大学 一种基于骨架的双流自适应图卷积网络行为识别方法
CN112560712A (zh) * 2020-12-18 2021-03-26 西安电子科技大学 基于时间增强图卷积网络的行为识别方法、装置及介质
CN112560712B (zh) * 2020-12-18 2023-05-26 西安电子科技大学 基于时间增强图卷积网络的行为识别方法、装置及介质

Also Published As

Publication number Publication date
CN110751072B (zh) 2020-12-08

Similar Documents

Publication Publication Date Title
CN110751072B (zh) 基于知识嵌入图卷积网络的双人交互识别方法
Mascarenhas et al. A comparison between VGG16, VGG19 and ResNet50 architecture frameworks for Image Classification
CN111368896B (zh) 基于密集残差三维卷积神经网络的高光谱遥感图像分类方法
CN110334765B (zh) 基于注意力机制多尺度深度学习的遥感影像分类方法
Liu et al. Learning spatio-temporal representations for action recognition: A genetic programming approach
CN110427990B (zh) 一种基于卷积神经网络的艺术图像分类方法
CN111291809B (zh) 一种处理装置、方法及存储介质
CN109816009A (zh) 基于图卷积的多标签图像分类方法、装置及设备
Zhang et al. Efficient feature learning and multi-size image steganalysis based on CNN
CN109002766A (zh) 一种表情识别方法及装置
CN109492750B (zh) 基于卷积神经网络和因素空间的零样本图像分类方法
CN110222718B (zh) 图像处理的方法及装置
CN113221663B (zh) 一种实时手语智能识别方法、装置及系统
CN112348036A (zh) 基于轻量化残差学习和反卷积级联的自适应目标检测方法
CN104700100A (zh) 面向高空间分辨率遥感大数据的特征提取方法
CN109657582A (zh) 人脸情绪的识别方法、装置、计算机设备及存储介质
CN107480723B (zh) 基于局部二进制阈值学习网络的纹理识别方法
CN113343901A (zh) 基于多尺度注意力图卷积网络的人体行为识别方法
CN112101262B (zh) 一种多特征融合手语识别方法及网络模型
Liu et al. Research of animals image semantic segmentation based on deep learning
CN113221956B (zh) 基于改进的多尺度深度模型的目标识别方法及装置
CN110993037A (zh) 一种基于多视图分类模型的蛋白质活性预测装置
Li et al. Dating ancient paintings of Mogao Grottoes using deeply learnt visual codes
CN114821204A (zh) 一种基于元学习嵌入半监督学习图像分类方法与系统
CN111178121A (zh) 基于空间特征和深度特征强化技术的害虫图像定位识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant