CN109978013A - 一种用于人物动作识别的深度聚类方法 - Google Patents

一种用于人物动作识别的深度聚类方法 Download PDF

Info

Publication number
CN109978013A
CN109978013A CN201910166016.2A CN201910166016A CN109978013A CN 109978013 A CN109978013 A CN 109978013A CN 201910166016 A CN201910166016 A CN 201910166016A CN 109978013 A CN109978013 A CN 109978013A
Authority
CN
China
Prior art keywords
network
self
encoding encoder
cluster
sample
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910166016.2A
Other languages
English (en)
Other versions
CN109978013B (zh
Inventor
吴永贤
李金德
王婷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China University of Technology SCUT
Original Assignee
South China University of Technology SCUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China University of Technology SCUT filed Critical South China University of Technology SCUT
Priority to CN201910166016.2A priority Critical patent/CN109978013B/zh
Publication of CN109978013A publication Critical patent/CN109978013A/zh
Application granted granted Critical
Publication of CN109978013B publication Critical patent/CN109978013B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

本发明公开了一种用于人物动作识别的深度聚类方法,包括步骤:1)给定人物动作识别视频数据库提取的特征点数据集;2)构建多堆叠自编码器网络和深度神经网络组成的深度聚类网络;3)训练深度聚类网络;4)使用训练好的深度聚类网络进行聚类;5)使用聚类的结果构建词向量,用于人物动作识别。本发明联合多堆叠自编码器网络和深度神经网络组成深度聚类网络执行聚类任务,使用聚类中心软分配策略构建更好的词向量,有效提高人物动作识别的正确率。

Description

一种用于人物动作识别的深度聚类方法
技术领域
本发明涉及视频动作检测和分类的技术领域,尤其是指一种用于人物动作识别的深度聚类方法。
背景技术
人物动作识别是计算机视觉领域最基础的研究主题之一。局部表征方法由于较好的性能,经常被用于人物动作识别以及其他的计算机视觉领域。局部特征提取器从每个视频提取出来的局部特征点的数目往往是不一样,不能直接用于分类任务。局部表征方法可以用来解决这个问题,其主要思想是将特征点数目不一的视频表示成定长的向量,以适应分类任务的需求。词向量模型是最常用的局部表征方法,被广泛应用在语义分析、图像匹配以及人物动作识别等计算机视觉任务上。
传统聚类算法kMeans是最常用的构建词向量模型的算法,其简单高效,但是本身有一些局限性。首先,由于kMeans的空间复杂度和时间复杂度与聚类中心的个数和聚类样本的个数成正比,故而无法应用在具有大规模样本的数据集和大量聚类中心的任务上。其次,一般应用kMeans算法来构建词向量模型的时候,为了规避维度灾难,会选择少部分样本进行聚类,这样会造成重要信息的丢失,直接影响后续的人物动作识别任务的性能。最后,在用kMeans算法为视频构建词向量的时候,使用聚类中心硬分配策略,即对视频所有的特征点所属的聚类中心进行计数,但不考虑其他聚类中心,这样会造成信息的不连续性,也会影响后续人物动作识别任务的性能。
深度神经网络在监督学习任务如图像分类上获得了卓越的性能,而且被广泛应用于特征学习和数据降维的无监督学习任务中。聚类和分类从本质上来说是相同的,区别在于分类的目标是预测样本属于哪一个标签,聚类的任务是预测样本属于哪一个聚类中心。故而我们可以将用于分类的深度神经网络进行适当的修改就可以用于聚类任务中。相比于kMeans聚类算法,使用深度聚类网络有以下一些优点:首先,当聚类中心的个数确定时,深度聚类的时间复杂度和空间复杂度为常数,与数据集的样本个数无关;其次,通过迭代,我们可以使用数据集的所有样本进行聚类,这样避免了信息丢失。最后,由于深度聚类最后的输出是特征点属于每一个聚类中心的概率,在为视频构建词向量模型的时候,使用聚类中心软分配策略,除了考虑特征点所属聚类中心的信息,也考虑了其他聚类中心的信息,这样避免了信息的不连续性。因此,在用于百万甚至更多数量级特征点的视频数据集上,使用深度聚类来替代kMeans算法来构建词向量模型在人物动作识别中具有重要的应用价值,如何更好地选择深度聚类网络的结构也具有重要的研究价值。
本发明提供一种用于人物动作识别的深度聚类方法,将多堆叠自编码器网络和深度神经网络联合起来组成深度聚类网络执行聚类任务,使用端到端的方法同时优化多堆叠自编码器网络和深度神经网络的参数来训练深度聚类网络,使用聚类中心软分配策略构建更好的词向量,从而有效提高人物动作识别的正确率。
发明内容
本发明的目的在于克服用于构建词向量模型的传统聚类算法kMeans的缺点和不足,提出了一种用于人物动作识别的深度聚类方法,突破kMeans算法存在的时间复杂度和空间复杂度太高、关键特征点丢失以及聚类中心硬分配策略构建词向量模型造成信息不连续等问题,联合多堆叠自编码器网络和深度神经网络组成深度聚类网络执行聚类任务减少时间复杂度和空间复杂度,使用聚类中心软分配策略构建更好的词向量,提高人物动作识别的正确率。
为实现上述目的,本发明所提供的技术方案为:一种用于人物动作识别的深度聚类方法,包括以下步骤:
1)给定人物动作识别视频数据库提取的特征点数据集;
2)构建多堆叠自编码器网络和深度神经网络组成的深度聚类网络;
3)训练深度聚类网络;
4)使用训练好的深度聚类网络进行聚类;
5)使用聚类的结果构建词向量,用于人物动作识别。
在步骤1)中,所述特征点数据集是指通过视频局部特征提取器,提取得到的人物动作识别视频数据库的局部特征点集合;每个视频可能提取到不同数目的特征点,但特征点的维度保持一致。
在步骤2)中,所述多堆叠自编码器网络由多个堆叠自编码器组成,每个自编码器使用相同的网络结构,但是使用不同的激活函数;多堆叠自编码器网络中每一个自编码器的输入均为特征点数据集中的每一个样本,输出为输入样本的重建样本;将每个自编码器的最后一层编码层的输出进行连结操作得到新的特征向量;将新的特征向量作为深度神经网络的输入,得到聚类的结果;深度神经网络的最后一层的激活函数是softmax,其作用是预测深度聚类网络的输入属于每一个聚类中心的概率。
在步骤3)中,训练深度聚类网络时所使用的损失函数公式如下:
L(REC,CLU,W)=L(REC)+αL(CLU)+βL(W)
其中,L(REC)为多堆叠自编码器网络的重建损失,L(CLU)为深度神经网络的聚类损失,L(W)为权重衰减;α为聚类损失L(CLU)的平衡系数,β为权重衰减L(W)的平衡系数;
所述多堆叠自编码器网络的重建损失的计算公式如下:
深度神经网络的聚类损失的计算公式如下:
权重衰减的计算公式如下:
其中,X和X'分别为自编码器的输入样本和重建样本;pij为样本i属于聚类中心j的预测概率,qij为样本i属于聚类中心j的期望概率;N为视频数据库的特征点数据集的样本数目,K为指定的聚类中心的数目;W是深度聚类网络中所有的权重参数;对于多堆叠自编码器网络的重建损失,采用输入自身X和经过网络重建的结果X'做最小二乘运算;对于深度神经网络的聚类损失,由深度神经网络输出的预测概率P通过非线性转换得到目标概率Q,再对预测概率P和目标概率Q求聚类损失,预测概率P为由pij组成的矩阵,目标概率Q为由qij组成的矩阵;由预测概率P得到目标概率Q的非线性转换的具体做法如下:
其中,m为使用小批量随机梯度算法时每次迭代采用的小批量特征点的个数;pik为样本i属于聚类中心k的预测概率,qik为样本i属于聚类中心k的期望概率;同理,pik'为样本i属于聚类中心k'的预测概率,pi'k'为样本i'属于聚类中心k'的预测概率;对于权重衰减的计算中,先对W的所有元素进行平方,再对W的平方后的所有元素进行求和;
在网络训练阶段,使用端到端的方法,同时优化多堆叠自编码器网络和深度神经网络;在正向传播过程中,多堆叠自编码器网络中通过正向传播,分别得到每个自编码器的重建样本;将多堆叠自编码器网络的最后一层编码层的输出进行拼接,得到的新向量作为深度神经网络的输入,通过正向传播,获得新向量属于每一个聚类中心的预测概率以及目标概率;在反向传播过程中,通过计算重建损失,聚类损失以及权重衰减,同时更新两个自编码器网络和深度神经网络;重复交替前向传播和反向传播过程,直到整体损失收敛后停止训练;在每轮的训练过程中,采用小批量随机梯度下降算法,同时优化两个自编码器网络和深度神经网络的参数。
在步骤4)中,由于深度聚类网络的多堆叠自编码器网络中每一个自编码器的输入均为特征点数据集中的每一个样本,输出为输入样本的重建样本;将每个自编码器的最后一层编码层的输出进行连结操作得到新的特征向量;将新的特征向量作为深度神经网络的输入,得到聚类的结果;深度神经网络的最后一层的激活函数是softmax,其作用是预测深度聚类网络的输入属于每一个聚类中心的概率。
在步骤5)中,词向量的构建使用聚类中心软分配策略,构建方法具体如下:
其中,vj是当前视频的词向量v第j个聚类中心对应的分量,n是当前视频特征点的个数,pij为样本i属于聚类中心j的预测概率;构建得到的词向量经过归一化后,进行分类器的训练和预测;归一化的方法具体如下:
v=(v/vmax+1)/2
其中,vmax为当前视频的词向量v中元素的最大值。
本发明与现有技术相比,具有如下优点与有益效果:
1、本发明首次使用深度聚类算法替代传统聚类算法kMeans执行聚类任务,使用聚类中心软分配策略,构建更好的词向量,有效提高了人物动作识别的正确率。
2、本发明联合多堆叠自编码器网络和深度神经网络组成深度聚类网络执行聚类任务;通过多堆叠自编码器网络,将原始输入映射到多个特征空间,再将多个特征空间的特征进行组合,得到的新特征具有更好的稳健性和判别性。
3、本发明同时训练多堆叠自编码器网络和深度神经网络,使多堆叠自编码器网络能够学习到更有利于聚类任务的特征。
4、本发明使用小批量随机梯度下降算法训练多堆叠自编码器网络和深度神经网络组成的深度聚类网络,解决了kMeans算法存在的时间复杂度和空间复杂度太高以及关键特征点丢失的问题。
5、本发明使用聚类中心软分配策略构建词向量,解决了聚类中心硬分配策略构建词向量模型造成的信息不连续问题。
附图说明
图1为本发明逻辑流程示意图。
图2为本发明所使用的深度聚类网络结构示意图。
具体实施方式
下面结合具体实施例对本发明作进一步说明。
如图1所示,本实施例所提供的用于人物动作识别的深度聚类方法,包括以下步骤:
1)给定人物动作识别视频数据库提取的特征点数据集;其中,所述特征点数据集是指通过视频局部特征提取器,提取得到的人物动作识别视频数据库的局部特征点集合;每个视频可能提取到不同数目的特征点,但特征点的维度保持一致;本实例采用STIP视频特征提取器,得到长度为162维的视频特征点。
2)如图2所示,构建多堆叠自编码器网络和深度神经网络组成的深度聚类网络;其中,多堆叠自编码器网络由多个堆叠自编码器组成,每个自编码器使用相同的网络结构,但是使用不同的激活函数;多堆叠自编码器网络中每一个自编码器的输入均为特征点数据集中的每一个样本,输出为输入样本的重建样本;将每个自编码器的最后一层编码层的输出进行连结操作得到新的特征向量;将新的特征向量作为深度神经网络的输入,得到聚类的结果;深度神经网络的最后一层的激活函数是softmax,其作用是预测深度聚类网络的输入属于每一个聚类中心的概率;本实例采用两个堆叠自编码器,激活函数分别为tanh函数和sigmoid函数。
3)训练深度聚类网络;训练深度聚类网络时所使用的损失函数公式如下:
L(REC,CLU,W)=L(REC)+αL(CLU)+βL(W)
其中,L(REC)为多堆叠自编码器网络的重建损失,L(CLU)为深度神经网络的聚类损失,L(W)为权重衰减;α为聚类损失的平衡系数L(CLU),β为权重衰减L(W)的平衡系数;
所述多堆叠自编码器网络的重建损失的计算公式如下:
深度神经网络的聚类损失的计算公式如下:
权重衰减的计算公式如下:
其中,X和X'分别为自编码器的输入样本和重建样本;pij为样本i属于聚类中心j的预测概率,qij为样本i属于聚类中心j的期望概率;N为视频数据库的特征点数据集的样本数目,K为指定的聚类中心的数目;W是深度聚类网络中所有的权重参数;对于多堆叠自编码器网络的重建损失,采用输入自身X和经过网络重建的结果X'做最小二乘运算;对于深度神经网络的聚类损失,由深度神经网络输出的预测概率P(由pij组成的矩阵)通过非线性转换得到目标概率Q(由qij组成的矩阵),再对预测概率P和目标概率Q求聚类损失;由预测概率P得到目标概率Q的非线性转换具体做法如下:
其中,m为使用小批量随机梯度算法时每次迭代采用的小批量特征点的个数;pik为样本i属于聚类中心k的预测概率,qik为样本i属于聚类中心k的期望概率;pik'为样本i属于聚类中心k'的预测概率,pi'k'为样本i'属于聚类中心k'的预测概率;对于权重衰减的计算中,先对W的所有元素进行平方,再对W的平方后的所有元素进行求和;本实例中,K指定为4000,α和β分别为0.01和0.0001。
在网络训练阶段,使用端到端的方法,同时优化多堆叠自编码器网络和深度神经网络;在正向传播过程中,多堆叠自编码器网络中通过正向传播,分别得到每个自编码器的重建样本;将多堆叠自编码器网络的最后一层编码层的输出进行拼接,得到的新向量作为深度神经网络的输入,通过正向传播,获得新向量属于每一个聚类中心的预测概率以及目标概率;在反向传播过程中,通过计算重建损失,聚类损失以及权重衰减,同时更新两个自编码器网络和深度神经网络;重复交替前向传播和反向传播过程,直到整体损失收敛后停止训练;在每轮的训练过程中,采用小批量随机梯度下降算法,同时优化两个自编码器网络和深度神经网络的参数;本实例中,小批量随机梯度下降算法中的学习率和动量分别为0.01和0.9。
4)使用训练好的深度聚类网络进行聚类;多堆叠自编码器网络中每一个自编码器的输入均为特征点数据集中的每一个样本,输出为输入样本的重建样本;将每个自编码器的最后一层编码层的输出进行连结操作得到新的特征向量;将新的特征向量作为深度神经网络的输入,得到聚类的结果。深度神经网络的最后一层的激活函数是softmax,其作用是预测深度聚类网络的输入属于每一个聚类中心的概率。
5)使用聚类的结果构建词向量,用于人物动作识别;词向量的构建使用聚类中心软分配策略,构建方法具体如下:
其中,vj是当前视频的词向量v第j个聚类中心对应的分量,n是当前视频特征点的个数。构建得到的词向量经过归一化后,进行分类器的训练和预测;归一化的方法具体如下:
v=(v/vmax+1)/2
其中,vmax为当前视频的词向量v中元素的最大值。本实例使用径向基函数神经网络作为人物动作识别任务的分类器。
以上所述实施例只为本发明之较佳实施例,并非以此限制本发明的实施范围,故凡依本发明之形状、原理所作的变化,均应涵盖在本发明的保护范围内。

Claims (6)

1.一种用于人物动作识别的深度聚类方法,其特征在于,包括以下步骤:
1)给定人物动作识别视频数据库提取的特征点数据集;
2)构建多堆叠自编码器网络和深度神经网络组成的深度聚类网络;
3)训练深度聚类网络;
4)使用训练好的深度聚类网络进行聚类;
5)使用聚类的结果构建词向量,用于人物动作识别。
2.根据权利要求1所述的一种用于人物动作识别的深度聚类方法,其特征在于:在步骤1)中,所述特征点数据集是指通过视频局部特征提取器,提取得到的人物动作识别视频数据库的局部特征点集合;每个视频可能提取到不同数目的特征点,但特征点的维度保持一致。
3.根据权利要求1所述的一种用于人物动作识别的深度聚类方法,其特征在于:在步骤2)中,所述多堆叠自编码器网络由多个堆叠自编码器组成,每个自编码器使用相同的网络结构,但是使用不同的激活函数;多堆叠自编码器网络中每一个自编码器的输入均为特征点数据集中的每一个样本,输出为输入样本的重建样本;将每个自编码器的最后一层编码层的输出进行连结操作得到新的特征向量;将新的特征向量作为深度神经网络的输入,得到聚类的结果;深度神经网络的最后一层的激活函数是softmax,其作用是预测深度聚类网络的输入属于每一个聚类中心的概率。
4.根据权利要求1所述的一种用于人物动作识别的深度聚类方法,其特征在于:在步骤3)中,训练深度聚类网络时所使用的损失函数公式如下:
L(REC,CLU,W)=L(REC)+αL(CLU)+βL(W)
其中,L(REC)为多堆叠自编码器网络的重建损失,L(CLU)为深度神经网络的聚类损失,L(W)为权重衰减;α为聚类损失L(CLU)的平衡系数,β为权重衰减L(W)的平衡系数;
所述多堆叠自编码器网络的重建损失的计算公式如下:
深度神经网络的聚类损失的计算公式如下:
权重衰减的计算公式如下:
其中,X和X'分别为自编码器的输入样本和重建样本;pij为样本i属于聚类中心j的预测概率,qij为样本i属于聚类中心j的期望概率;N为视频数据库的特征点数据集的样本数目,K为指定的聚类中心的数目;W是深度聚类网络中所有的权重参数;对于多堆叠自编码器网络的重建损失,采用输入自身X和经过网络重建的结果X'做最小二乘运算;对于深度神经网络的聚类损失,由深度神经网络输出的预测概率P通过非线性转换得到目标概率Q,再对预测概率P和目标概率Q求聚类损失,预测概率P为由pij组成的矩阵,目标概率Q为由qij组成的矩阵;由预测概率P得到目标概率Q的非线性转换的具体做法如下:
其中,m为使用小批量随机梯度算法时每次迭代采用的小批量特征点的个数;pik为样本i属于聚类中心k的预测概率,qik为样本i属于聚类中心k的期望概率;同理,pik'为样本i属于聚类中心k'的预测概率,pi'k'为样本i'属于聚类中心k'的预测概率;对于权重衰减的计算中,先对W的所有元素进行平方,再对W的平方后的所有元素进行求和;
在网络训练阶段,使用端到端的方法,同时优化多堆叠自编码器网络和深度神经网络;在正向传播过程中,多堆叠自编码器网络中通过正向传播,分别得到每个自编码器的重建样本;将多堆叠自编码器网络的最后一层编码层的输出进行拼接,得到的新向量作为深度神经网络的输入,通过正向传播,获得新向量属于每一个聚类中心的预测概率以及目标概率;在反向传播过程中,通过计算重建损失,聚类损失以及权重衰减,同时更新两个自编码器网络和深度神经网络;重复交替前向传播和反向传播过程,直到整体损失收敛后停止训练;在每轮的训练过程中,采用小批量随机梯度下降算法,同时优化两个自编码器网络和深度神经网络的参数。
5.根据权利要求1所述的一种用于人物动作识别的深度聚类方法,其特征在于:在步骤4)中,由于深度聚类网络的多堆叠自编码器网络中每一个自编码器的输入均为特征点数据集中的每一个样本,输出为输入样本的重建样本;将每个自编码器的最后一层编码层的输出进行连结操作得到新的特征向量;将新的特征向量作为深度神经网络的输入,得到聚类的结果;深度神经网络的最后一层的激活函数是softmax,其作用是预测深度聚类网络的输入属于每一个聚类中心的概率。
6.根据权利要求1所述的一种用于人物动作识别的深度聚类方法,其特征在于:在步骤5)中,词向量的构建使用聚类中心软分配策略,构建方法具体如下:
其中,vj是当前视频的词向量v第j个聚类中心对应的分量,n是当前视频特征点的个数,pij为样本i属于聚类中心j的预测概率;构建得到的词向量经过归一化后,进行分类器的训练和预测;归一化的方法具体如下:
v=(v/vmax+1)/2
其中,vmax为当前视频的词向量v中元素的最大值。
CN201910166016.2A 2019-03-06 2019-03-06 一种用于人物动作识别的深度聚类方法 Active CN109978013B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910166016.2A CN109978013B (zh) 2019-03-06 2019-03-06 一种用于人物动作识别的深度聚类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910166016.2A CN109978013B (zh) 2019-03-06 2019-03-06 一种用于人物动作识别的深度聚类方法

Publications (2)

Publication Number Publication Date
CN109978013A true CN109978013A (zh) 2019-07-05
CN109978013B CN109978013B (zh) 2021-01-19

Family

ID=67077940

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910166016.2A Active CN109978013B (zh) 2019-03-06 2019-03-06 一种用于人物动作识别的深度聚类方法

Country Status (1)

Country Link
CN (1) CN109978013B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021197032A1 (zh) * 2020-04-01 2021-10-07 支付宝(杭州)信息技术有限公司 聚类系统及其方法
CN113486934A (zh) * 2021-06-22 2021-10-08 河北工业大学 基于注意力机制的层次化图卷积网络的属性图深度聚类方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102043967A (zh) * 2010-12-08 2011-05-04 中国科学院自动化研究所 一种有效的运动目标行为建模与识别方法
CN103345623A (zh) * 2013-07-11 2013-10-09 中国科学院自动化研究所 一种基于鲁棒相对属性的行为识别方法
CN104239897A (zh) * 2014-09-04 2014-12-24 天津大学 一种基于自编码器词袋的视觉特征表示方法
CN104268520A (zh) * 2014-09-22 2015-01-07 天津理工大学 一种基于深度运动轨迹的人体动作识别方法
CN106203354A (zh) * 2016-07-14 2016-12-07 南京信息工程大学 基于混合深度结构的场景识别方法
CN109086805A (zh) * 2018-07-12 2018-12-25 华南理工大学 一种基于深度神经网络和成对约束的聚类方法
US20190036952A1 (en) * 2017-07-28 2019-01-31 Penta Security Systems Inc. Method and apparatus for detecting anomaly traffic
CN109359519A (zh) * 2018-09-04 2019-02-19 杭州电子科技大学 一种基于深度学习的视频异常行为检测方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102043967A (zh) * 2010-12-08 2011-05-04 中国科学院自动化研究所 一种有效的运动目标行为建模与识别方法
CN103345623A (zh) * 2013-07-11 2013-10-09 中国科学院自动化研究所 一种基于鲁棒相对属性的行为识别方法
CN104239897A (zh) * 2014-09-04 2014-12-24 天津大学 一种基于自编码器词袋的视觉特征表示方法
CN104268520A (zh) * 2014-09-22 2015-01-07 天津理工大学 一种基于深度运动轨迹的人体动作识别方法
CN106203354A (zh) * 2016-07-14 2016-12-07 南京信息工程大学 基于混合深度结构的场景识别方法
US20190036952A1 (en) * 2017-07-28 2019-01-31 Penta Security Systems Inc. Method and apparatus for detecting anomaly traffic
CN109086805A (zh) * 2018-07-12 2018-12-25 华南理工大学 一种基于深度神经网络和成对约束的聚类方法
CN109359519A (zh) * 2018-09-04 2019-02-19 杭州电子科技大学 一种基于深度学习的视频异常行为检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
TING WANG ; GUANGJUN ZENG ; WING W. Y. NG ;JINDE LI: "Dual Denoising Autoencoder Features for Imbalance Classification Problems", 《2017 IEEE INTERNATIONAL CONFERENCE ON INTERNET OF THINGS (ITHINGS) AND IEEE GREEN COMPUTING AND COMMUNICATIONS (GREENCOM) AND IEEE CYBER, PHYSICAL AND SOCIAL COMPUTING (CPSCOM) AND IEEE SMART DATA (SMARTDATA)》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021197032A1 (zh) * 2020-04-01 2021-10-07 支付宝(杭州)信息技术有限公司 聚类系统及其方法
TWI766626B (zh) * 2020-04-01 2022-06-01 大陸商支付寶(杭州)信息技術有限公司 分群系統及其方法
CN113486934A (zh) * 2021-06-22 2021-10-08 河北工业大学 基于注意力机制的层次化图卷积网络的属性图深度聚类方法

Also Published As

Publication number Publication date
CN109978013B (zh) 2021-01-19

Similar Documents

Publication Publication Date Title
CN110070183B (zh) 一种弱标注数据的神经网络模型训练方法及装置
Gao et al. Deep leaf‐bootstrapping generative adversarial network for structural image data augmentation
CN112308158B (zh) 一种基于部分特征对齐的多源领域自适应模型及方法
CN109299216A (zh) 一种融合监督信息的跨模态哈希检索方法和系统
CN107944410B (zh) 一种基于卷积神经网络的跨领域面部特征解析方法
CN109214503B (zh) 基于kpca-la-rbm的输变电工程造价预测方法
CN112084373B (zh) 一种基于图嵌入的多源异构网络用户对齐方法
CN117237559B (zh) 面向数字孪生城市的三维模型数据智能分析方法及系统
CN109783887A (zh) 一种面向三维加工特征的智能识别与检索方法
CN111753207B (zh) 一种基于评论的神经图协同过滤方法
CN113516379B (zh) 一种智能质检的工单评分方法
CN114898121A (zh) 基于图注意力网络的混凝土坝缺陷图像描述自动生成方法
CN107194438A (zh) 一种基于多重栈式自编码的深度特征表示方法
CN112329536A (zh) 一种基于交替对抗迁移学习的单样本人脸识别方法
CN114584406B (zh) 一种联邦学习的工业大数据隐私保护系统及方法
CN109978013A (zh) 一种用于人物动作识别的深度聚类方法
CN110728186B (zh) 一种基于多网融合的火灾检测方法
CN106355210A (zh) 基于深度神经元响应模式的绝缘子红外图像特征表达方法
CN116541755A (zh) 一种基于时序图表征学习的金融行为模式分析预测方法
CN114897085A (zh) 一种基于封闭子图链路预测的聚类方法及计算机设备
CN110335160A (zh) 一种基于分组和注意力改进Bi-GRU的就医迁移行为预测方法及系统
CN114219701A (zh) 敦煌壁画艺术风格转换方法、系统、计算机设备及存储介质
CN114021584A (zh) 基于图卷积网络和翻译模型的知识表示学习方法
CN116188870A (zh) 一种基于脉冲卷积神经网络的钢材表面缺陷图像分类方法
CN110378356A (zh) 基于多目标拉格朗日正则的细粒度图像识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant