CN109978013B - 一种用于人物动作识别的深度聚类方法 - Google Patents

一种用于人物动作识别的深度聚类方法 Download PDF

Info

Publication number
CN109978013B
CN109978013B CN201910166016.2A CN201910166016A CN109978013B CN 109978013 B CN109978013 B CN 109978013B CN 201910166016 A CN201910166016 A CN 201910166016A CN 109978013 B CN109978013 B CN 109978013B
Authority
CN
China
Prior art keywords
clustering
network
encoder
deep
self
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910166016.2A
Other languages
English (en)
Other versions
CN109978013A (zh
Inventor
吴永贤
李金德
王婷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China University of Technology SCUT
Original Assignee
South China University of Technology SCUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China University of Technology SCUT filed Critical South China University of Technology SCUT
Priority to CN201910166016.2A priority Critical patent/CN109978013B/zh
Publication of CN109978013A publication Critical patent/CN109978013A/zh
Application granted granted Critical
Publication of CN109978013B publication Critical patent/CN109978013B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

本发明公开了一种用于人物动作识别的深度聚类方法,包括步骤:1)给定人物动作识别视频数据库提取的特征点数据集;2)构建多堆叠自编码器网络和深度神经网络组成的深度聚类网络;3)训练深度聚类网络;4)使用训练好的深度聚类网络进行聚类;5)使用聚类的结果构建词向量,用于人物动作识别。本发明联合多堆叠自编码器网络和深度神经网络组成深度聚类网络执行聚类任务,使用聚类中心软分配策略构建更好的词向量,有效提高人物动作识别的正确率。

Description

一种用于人物动作识别的深度聚类方法
技术领域
本发明涉及视频动作检测和分类的技术领域,尤其是指一种用于人物动作识别的深度聚类方法。
背景技术
人物动作识别是计算机视觉领域最基础的研究主题之一。局部表征方法由于较好的性能,经常被用于人物动作识别以及其他的计算机视觉领域。局部特征提取器从每个视频提取出来的局部特征点的数目往往是不一样,不能直接用于分类任务。局部表征方法可以用来解决这个问题,其主要思想是将特征点数目不一的视频表示成定长的向量,以适应分类任务的需求。词向量模型是最常用的局部表征方法,被广泛应用在语义分析、图像匹配以及人物动作识别等计算机视觉任务上。
传统聚类算法kMeans是最常用的构建词向量模型的算法,其简单高效,但是本身有一些局限性。首先,由于kMeans的空间复杂度和时间复杂度与聚类中心的个数和聚类样本的个数成正比,故而无法应用在具有大规模样本的数据集和大量聚类中心的任务上。其次,一般应用kMeans算法来构建词向量模型的时候,为了规避维度灾难,会选择少部分样本进行聚类,这样会造成重要信息的丢失,直接影响后续的人物动作识别任务的性能。最后,在用kMeans算法为视频构建词向量的时候,使用聚类中心硬分配策略,即对视频所有的特征点所属的聚类中心进行计数,但不考虑其他聚类中心,这样会造成信息的不连续性,也会影响后续人物动作识别任务的性能。
深度神经网络在监督学习任务如图像分类上获得了卓越的性能,而且被广泛应用于特征学习和数据降维的无监督学习任务中。聚类和分类从本质上来说是相同的,区别在于分类的目标是预测样本属于哪一个标签,聚类的任务是预测样本属于哪一个聚类中心。故而我们可以将用于分类的深度神经网络进行适当的修改就可以用于聚类任务中。相比于kMeans聚类算法,使用深度聚类网络有以下一些优点:首先,当聚类中心的个数确定时,深度聚类的时间复杂度和空间复杂度为常数,与数据集的样本个数无关;其次,通过迭代,我们可以使用数据集的所有样本进行聚类,这样避免了信息丢失。最后,由于深度聚类最后的输出是特征点属于每一个聚类中心的概率,在为视频构建词向量模型的时候,使用聚类中心软分配策略,除了考虑特征点所属聚类中心的信息,也考虑了其他聚类中心的信息,这样避免了信息的不连续性。因此,在用于百万甚至更多数量级特征点的视频数据集上,使用深度聚类来替代kMeans算法来构建词向量模型在人物动作识别中具有重要的应用价值,如何更好地选择深度聚类网络的结构也具有重要的研究价值。
本发明提供一种用于人物动作识别的深度聚类方法,将多堆叠自编码器网络和深度神经网络联合起来组成深度聚类网络执行聚类任务,使用端到端的方法同时优化多堆叠自编码器网络和深度神经网络的参数来训练深度聚类网络,使用聚类中心软分配策略构建更好的词向量,从而有效提高人物动作识别的正确率。
发明内容
本发明的目的在于克服用于构建词向量模型的传统聚类算法kMeans的缺点和不足,提出了一种用于人物动作识别的深度聚类方法,突破kMeans算法存在的时间复杂度和空间复杂度太高、关键特征点丢失以及聚类中心硬分配策略构建词向量模型造成信息不连续等问题,联合多堆叠自编码器网络和深度神经网络组成深度聚类网络执行聚类任务减少时间复杂度和空间复杂度,使用聚类中心软分配策略构建更好的词向量,提高人物动作识别的正确率。
为实现上述目的,本发明所提供的技术方案为:一种用于人物动作识别的深度聚类方法,包括以下步骤:
1)给定人物动作识别视频数据库提取的特征点数据集;
2)构建多堆叠自编码器网络和深度神经网络组成的深度聚类网络;
3)训练深度聚类网络;
4)使用训练好的深度聚类网络进行聚类;
5)使用聚类的结果构建词向量,用于人物动作识别。
在步骤1)中,所述特征点数据集是指通过视频局部特征提取器,提取得到的人物动作识别视频数据库的局部特征点集合;每个视频可能提取到不同数目的特征点,但特征点的维度保持一致。
在步骤2)中,所述多堆叠自编码器网络由多个堆叠自编码器组成,每个自编码器使用相同的网络结构,但是使用不同的激活函数;多堆叠自编码器网络中每一个自编码器的输入均为特征点数据集中的每一个样本,输出为输入样本的重建样本;将每个自编码器的最后一层编码层的输出进行连结操作得到新的特征向量;将新的特征向量作为深度神经网络的输入,得到聚类的结果;深度神经网络的最后一层的激活函数是softmax,其作用是预测深度聚类网络的输入属于每一个聚类中心的概率。
在步骤3)中,训练深度聚类网络时所使用的损失函数公式如下:
L(REC,CLU,W)=L(REC)+αL(CLU)+βL(W)
其中,L(REC)为多堆叠自编码器网络的重建损失,L(CLU)为深度神经网络的聚类损失,L(W)为权重衰减;α为聚类损失L(CLU)的平衡系数,β为权重衰减L(W)的平衡系数;
所述多堆叠自编码器网络的重建损失的计算公式如下:
Figure BDA0001986271700000041
深度神经网络的聚类损失的计算公式如下:
Figure BDA0001986271700000042
权重衰减的计算公式如下:
Figure BDA0001986271700000043
其中,X和X'分别为自编码器的输入样本和重建样本;pij为样本i属于聚类中心j的预测概率,qij为样本i属于聚类中心j的期望概率;N为视频数据库的特征点数据集的样本数目,K为指定的聚类中心的数目;W是深度聚类网络中所有的权重参数;对于多堆叠自编码器网络的重建损失,采用输入自身X和经过网络重建的结果X'做最小二乘运算;对于深度神经网络的聚类损失,由深度神经网络输出的预测概率P通过非线性转换得到目标概率Q,再对预测概率P和目标概率Q求聚类损失,预测概率P为由pij组成的矩阵,目标概率Q为由qij组成的矩阵;由预测概率P得到目标概率Q的非线性转换的具体做法如下:
Figure BDA0001986271700000044
其中,m为使用小批量随机梯度算法时每次迭代采用的小批量特征点的个数;pik为样本i属于聚类中心k的预测概率,qik为样本i属于聚类中心k的期望概率;同理,pik'为样本i属于聚类中心k'的预测概率,pi'k'为样本i'属于聚类中心k'的预测概率;对于权重衰减的计算中,先对W的所有元素进行平方,再对W的平方后的所有元素进行求和;
在网络训练阶段,使用端到端的方法,同时优化多堆叠自编码器网络和深度神经网络;在正向传播过程中,多堆叠自编码器网络中通过正向传播,分别得到每个自编码器的重建样本;将多堆叠自编码器网络的最后一层编码层的输出进行拼接,得到的新向量作为深度神经网络的输入,通过正向传播,获得新向量属于每一个聚类中心的预测概率以及目标概率;在反向传播过程中,通过计算重建损失,聚类损失以及权重衰减,同时更新两个自编码器网络和深度神经网络;重复交替前向传播和反向传播过程,直到整体损失收敛后停止训练;在每轮的训练过程中,采用小批量随机梯度下降算法,同时优化两个自编码器网络和深度神经网络的参数。
在步骤4)中,由于深度聚类网络的多堆叠自编码器网络中每一个自编码器的输入均为特征点数据集中的每一个样本,输出为输入样本的重建样本;将每个自编码器的最后一层编码层的输出进行连结操作得到新的特征向量;将新的特征向量作为深度神经网络的输入,得到聚类的结果;深度神经网络的最后一层的激活函数是softmax,其作用是预测深度聚类网络的输入属于每一个聚类中心的概率。
在步骤5)中,词向量的构建使用聚类中心软分配策略,构建方法具体如下:
Figure BDA0001986271700000051
其中,vj是当前视频的词向量v第j个聚类中心对应的分量,n是当前视频特征点的个数,pij为样本i属于聚类中心j的预测概率;构建得到的词向量经过归一化后,进行分类器的训练和预测;归一化的方法具体如下:
v=(v/vmax+1)/2
其中,vmax为当前视频的词向量v中元素的最大值。
本发明与现有技术相比,具有如下优点与有益效果:
1、本发明首次使用深度聚类算法替代传统聚类算法kMeans执行聚类任务,使用聚类中心软分配策略,构建更好的词向量,有效提高了人物动作识别的正确率。
2、本发明联合多堆叠自编码器网络和深度神经网络组成深度聚类网络执行聚类任务;通过多堆叠自编码器网络,将原始输入映射到多个特征空间,再将多个特征空间的特征进行组合,得到的新特征具有更好的稳健性和判别性。
3、本发明同时训练多堆叠自编码器网络和深度神经网络,使多堆叠自编码器网络能够学习到更有利于聚类任务的特征。
4、本发明使用小批量随机梯度下降算法训练多堆叠自编码器网络和深度神经网络组成的深度聚类网络,解决了kMeans算法存在的时间复杂度和空间复杂度太高以及关键特征点丢失的问题。
5、本发明使用聚类中心软分配策略构建词向量,解决了聚类中心硬分配策略构建词向量模型造成的信息不连续问题。
附图说明
图1为本发明逻辑流程示意图。
图2为本发明所使用的深度聚类网络结构示意图。
具体实施方式
下面结合具体实施例对本发明作进一步说明。
如图1所示,本实施例所提供的用于人物动作识别的深度聚类方法,包括以下步骤:
1)给定人物动作识别视频数据库提取的特征点数据集;其中,所述特征点数据集是指通过视频局部特征提取器,提取得到的人物动作识别视频数据库的局部特征点集合;每个视频可能提取到不同数目的特征点,但特征点的维度保持一致;本实例采用STIP视频特征提取器,得到长度为162维的视频特征点。
2)如图2所示,构建多堆叠自编码器网络和深度神经网络组成的深度聚类网络;其中,多堆叠自编码器网络由多个堆叠自编码器组成,每个自编码器使用相同的网络结构,但是使用不同的激活函数;多堆叠自编码器网络中每一个自编码器的输入均为特征点数据集中的每一个样本,输出为输入样本的重建样本;将每个自编码器的最后一层编码层的输出进行连结操作得到新的特征向量;将新的特征向量作为深度神经网络的输入,得到聚类的结果;深度神经网络的最后一层的激活函数是softmax,其作用是预测深度聚类网络的输入属于每一个聚类中心的概率;本实例采用两个堆叠自编码器,激活函数分别为tanh函数和sigmoid函数。
3)训练深度聚类网络;训练深度聚类网络时所使用的损失函数公式如下:
L(REC,CLU,W)=L(REC)+αL(CLU)+βL(W)
其中,L(REC)为多堆叠自编码器网络的重建损失,L(CLU)为深度神经网络的聚类损失,L(W)为权重衰减;α为聚类损失的平衡系数L(CLU),β为权重衰减L(W)的平衡系数;
所述多堆叠自编码器网络的重建损失的计算公式如下:
Figure BDA0001986271700000071
深度神经网络的聚类损失的计算公式如下:
Figure BDA0001986271700000081
权重衰减的计算公式如下:
Figure BDA0001986271700000082
其中,X和X'分别为自编码器的输入样本和重建样本;pij为样本i属于聚类中心j的预测概率,qij为样本i属于聚类中心j的期望概率;N为视频数据库的特征点数据集的样本数目,K为指定的聚类中心的数目;W是深度聚类网络中所有的权重参数;对于多堆叠自编码器网络的重建损失,采用输入自身X和经过网络重建的结果X'做最小二乘运算;对于深度神经网络的聚类损失,由深度神经网络输出的预测概率P(由pij组成的矩阵)通过非线性转换得到目标概率Q(由qij组成的矩阵),再对预测概率P和目标概率Q求聚类损失;由预测概率P得到目标概率Q的非线性转换具体做法如下:
Figure BDA0001986271700000083
其中,m为使用小批量随机梯度算法时每次迭代采用的小批量特征点的个数;pik为样本i属于聚类中心k的预测概率,qik为样本i属于聚类中心k的期望概率;pik'为样本i属于聚类中心k'的预测概率,pi'k'为样本i'属于聚类中心k'的预测概率;对于权重衰减的计算中,先对W的所有元素进行平方,再对W的平方后的所有元素进行求和;本实例中,K指定为4000,α和β分别为0.01和0.0001。
在网络训练阶段,使用端到端的方法,同时优化多堆叠自编码器网络和深度神经网络;在正向传播过程中,多堆叠自编码器网络中通过正向传播,分别得到每个自编码器的重建样本;将多堆叠自编码器网络的最后一层编码层的输出进行拼接,得到的新向量作为深度神经网络的输入,通过正向传播,获得新向量属于每一个聚类中心的预测概率以及目标概率;在反向传播过程中,通过计算重建损失,聚类损失以及权重衰减,同时更新两个自编码器网络和深度神经网络;重复交替前向传播和反向传播过程,直到整体损失收敛后停止训练;在每轮的训练过程中,采用小批量随机梯度下降算法,同时优化两个自编码器网络和深度神经网络的参数;本实例中,小批量随机梯度下降算法中的学习率和动量分别为0.01和0.9。
4)使用训练好的深度聚类网络进行聚类;多堆叠自编码器网络中每一个自编码器的输入均为特征点数据集中的每一个样本,输出为输入样本的重建样本;将每个自编码器的最后一层编码层的输出进行连结操作得到新的特征向量;将新的特征向量作为深度神经网络的输入,得到聚类的结果。深度神经网络的最后一层的激活函数是softmax,其作用是预测深度聚类网络的输入属于每一个聚类中心的概率。
5)使用聚类的结果构建词向量,用于人物动作识别;词向量的构建使用聚类中心软分配策略,构建方法具体如下:
Figure BDA0001986271700000091
其中,vj是当前视频的词向量v第j个聚类中心对应的分量,n是当前视频特征点的个数。构建得到的词向量经过归一化后,进行分类器的训练和预测;归一化的方法具体如下:
v=(v/vmax+1)/2
其中,vmax为当前视频的词向量v中元素的最大值。本实例使用径向基函数神经网络作为人物动作识别任务的分类器。
以上所述实施例只为本发明之较佳实施例,并非以此限制本发明的实施范围,故凡依本发明之形状、原理所作的变化,均应涵盖在本发明的保护范围内。

Claims (3)

1.一种用于人物动作识别的深度聚类方法,其特征在于,包括以下步骤:
1)给定人物动作识别视频数据库提取的特征点数据集;
2)构建多堆叠自编码器网络和深度神经网络组成的深度聚类网络;
所述多堆叠自编码器网络由多个堆叠自编码器组成,每个自编码器使用相同的网络结构,但是使用不同的激活函数;多堆叠自编码器网络中每一个自编码器的输入均为特征点数据集中的每一个样本,输出为输入样本的重建样本;将每个自编码器的最后一层编码层的输出进行连结操作得到新的特征向量;将新的特征向量作为深度神经网络的输入,得到聚类的结果;深度神经网络的最后一层的激活函数是softmax,其作用是预测深度聚类网络的输入属于每一个聚类中心的概率;
3)训练深度聚类网络;
训练深度聚类网络时所使用的损失函数公式如下:
L(REC,CLU,W)=L(REC)+αL(CLU)+βL(W)
其中,L(REC)为多堆叠自编码器网络的重建损失,L(CLU)为深度神经网络的聚类损失,L(W)为权重衰减;α为聚类损失L(CLU)的平衡系数,β为权重衰减L(W)的平衡系数;
所述多堆叠自编码器网络的重建损失的计算公式如下:
Figure FDA0002755273420000011
深度神经网络的聚类损失的计算公式如下:
Figure FDA0002755273420000012
权重衰减的计算公式如下:
Figure FDA0002755273420000021
其中,X和X'分别为自编码器的输入样本和重建样本;pij为样本i属于聚类中心j的预测概率,qij为样本i属于聚类中心j的期望概率;N为视频数据库的特征点数据集的样本数目,K为指定的聚类中心的数目;W是深度聚类网络中所有的权重参数;对于多堆叠自编码器网络的重建损失,采用输入自身X和经过网络重建的结果X'做最小二乘运算;对于深度神经网络的聚类损失,由深度神经网络输出的预测概率P通过非线性转换得到目标概率Q,再对预测概率P和目标概率Q求聚类损失,预测概率P为由pij组成的矩阵,目标概率Q为由qij组成的矩阵;由预测概率P得到目标概率Q的非线性转换的具体做法如下:
Figure FDA0002755273420000022
其中,m为使用小批量随机梯度算法时每次迭代采用的小批量特征点的个数;pik为样本i属于聚类中心k的预测概率,qik为样本i属于聚类中心k的期望概率;同理,pik'为样本i属于聚类中心k'的预测概率,pi'k'为样本i'属于聚类中心k'的预测概率;对于权重衰减的计算中,先对W的所有元素进行平方,再对W的平方后的所有元素进行求和;
在网络训练阶段,使用端到端的方法,同时优化多堆叠自编码器网络和深度神经网络;在正向传播过程中,多堆叠自编码器网络中通过正向传播,分别得到每个自编码器的重建样本;将多堆叠自编码器网络的最后一层编码层的输出进行拼接,得到的新向量作为深度神经网络的输入,通过正向传播,获得新向量属于每一个聚类中心的预测概率以及目标概率;在反向传播过程中,通过计算重建损失,聚类损失以及权重衰减,同时更新两个自编码器网络和深度神经网络;重复交替前向传播和反向传播过程,直到整体损失收敛后停止训练;在每轮的训练过程中,采用小批量随机梯度下降算法,同时优化两个自编码器网络和深度神经网络的参数;
4)使用训练好的深度聚类网络进行聚类;
5)使用聚类的结果构建词向量,用于人物动作识别;
词向量的构建使用聚类中心软分配策略,构建方法具体如下:
Figure FDA0002755273420000031
其中,vj是当前视频的词向量v第j个聚类中心对应的分量,n是当前视频特征点的个数,pij为样本i属于聚类中心j的预测概率;构建得到的词向量经过归一化后,进行分类器的训练和预测;归一化的方法具体如下:
v=(v/vmax+1)/2
其中,vmax为当前视频的词向量v中元素的最大值。
2.根据权利要求1所述的一种用于人物动作识别的深度聚类方法,其特征在于:在步骤1)中,所述特征点数据集是指通过视频局部特征提取器,提取得到的人物动作识别视频数据库的局部特征点集合;每个视频可能提取到不同数目的特征点,但特征点的维度保持一致。
3.根据权利要求1所述的一种用于人物动作识别的深度聚类方法,其特征在于:在步骤4)中,由于深度聚类网络的多堆叠自编码器网络中每一个自编码器的输入均为特征点数据集中的每一个样本,输出为输入样本的重建样本;将每个自编码器的最后一层编码层的输出进行连结操作得到新的特征向量;将新的特征向量作为深度神经网络的输入,得到聚类的结果;深度神经网络的最后一层的激活函数是softmax,其作用是预测深度聚类网络的输入属于每一个聚类中心的概率。
CN201910166016.2A 2019-03-06 2019-03-06 一种用于人物动作识别的深度聚类方法 Active CN109978013B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910166016.2A CN109978013B (zh) 2019-03-06 2019-03-06 一种用于人物动作识别的深度聚类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910166016.2A CN109978013B (zh) 2019-03-06 2019-03-06 一种用于人物动作识别的深度聚类方法

Publications (2)

Publication Number Publication Date
CN109978013A CN109978013A (zh) 2019-07-05
CN109978013B true CN109978013B (zh) 2021-01-19

Family

ID=67077940

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910166016.2A Active CN109978013B (zh) 2019-03-06 2019-03-06 一种用于人物动作识别的深度聚类方法

Country Status (1)

Country Link
CN (1) CN109978013B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111461225B (zh) * 2020-04-01 2022-04-01 支付宝(杭州)信息技术有限公司 客户聚类系统及其方法
CN113486934A (zh) * 2021-06-22 2021-10-08 河北工业大学 基于注意力机制的层次化图卷积网络的属性图深度聚类方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102043967A (zh) * 2010-12-08 2011-05-04 中国科学院自动化研究所 一种有效的运动目标行为建模与识别方法
CN103345623A (zh) * 2013-07-11 2013-10-09 中国科学院自动化研究所 一种基于鲁棒相对属性的行为识别方法
CN104239897A (zh) * 2014-09-04 2014-12-24 天津大学 一种基于自编码器词袋的视觉特征表示方法
CN104268520A (zh) * 2014-09-22 2015-01-07 天津理工大学 一种基于深度运动轨迹的人体动作识别方法
CN106203354A (zh) * 2016-07-14 2016-12-07 南京信息工程大学 基于混合深度结构的场景识别方法
CN109086805A (zh) * 2018-07-12 2018-12-25 华南理工大学 一种基于深度神经网络和成对约束的聚类方法
CN109359519A (zh) * 2018-09-04 2019-02-19 杭州电子科技大学 一种基于深度学习的视频异常行为检测方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101888683B1 (ko) * 2017-07-28 2018-08-14 펜타시큐리티시스템 주식회사 비정상 트래픽을 탐지하는 방법 및 장치

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102043967A (zh) * 2010-12-08 2011-05-04 中国科学院自动化研究所 一种有效的运动目标行为建模与识别方法
CN103345623A (zh) * 2013-07-11 2013-10-09 中国科学院自动化研究所 一种基于鲁棒相对属性的行为识别方法
CN104239897A (zh) * 2014-09-04 2014-12-24 天津大学 一种基于自编码器词袋的视觉特征表示方法
CN104268520A (zh) * 2014-09-22 2015-01-07 天津理工大学 一种基于深度运动轨迹的人体动作识别方法
CN106203354A (zh) * 2016-07-14 2016-12-07 南京信息工程大学 基于混合深度结构的场景识别方法
CN109086805A (zh) * 2018-07-12 2018-12-25 华南理工大学 一种基于深度神经网络和成对约束的聚类方法
CN109359519A (zh) * 2018-09-04 2019-02-19 杭州电子科技大学 一种基于深度学习的视频异常行为检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Ting Wang;Guangjun Zeng;Wing W. Y. Ng;Jinde Li.Dual Denoising Autoencoder Features for Imbalance Classification Problems.《2017 IEEE International Conference on Internet of Things (iThings) and IEEE Green Computing and Communications (GreenCom) and IEEE Cyber, Physical and Social Computing (CPSCom) and IEEE Smart Data (SmartData)》.IEEE,2017,第312-317页. *

Also Published As

Publication number Publication date
CN109978013A (zh) 2019-07-05

Similar Documents

Publication Publication Date Title
CN108681610B (zh) 生成式多轮闲聊对话方法、系统及计算机可读存储介质
CN112508085B (zh) 基于感知神经网络的社交网络链路预测方法
CN113905391B (zh) 集成学习网络流量预测方法、系统、设备、终端、介质
CN111860677A (zh) 一种基于部分域对抗的滚动轴承迁移学习故障诊断方法
CN109523021B (zh) 一种基于长短时记忆网络的动态网络结构预测方法
CN113626589B (zh) 一种基于混合注意力机制的多标签文本分类方法
CN109740655B (zh) 基于矩阵分解及神经协同过滤的物品评分预测方法
CN111414461A (zh) 一种融合知识库与用户建模的智能问答方法及系统
WO2023116111A1 (zh) 一种磁盘故障预测方法及装置
CN112685504A (zh) 一种面向生产过程的分布式迁移图学习方法
CN109978013B (zh) 一种用于人物动作识别的深度聚类方法
CN112766496B (zh) 基于强化学习的深度学习模型安全性保障压缩方法与装置
CN113516379B (zh) 一种智能质检的工单评分方法
CN112183742A (zh) 基于渐进式量化和Hessian信息的神经网络混合量化方法
CN112116137A (zh) 一种基于混合深度神经网络的学生辍课预测方法
Sun et al. Network structure and transfer behaviors embedding via deep prediction model
Zhang The Evaluation on the Credit Risk of Enterprises with the CNN‐LSTM‐ATT Model
CN114898136A (zh) 一种基于特征自适应的小样本图像分类方法
CN111783688B (zh) 一种基于卷积神经网络的遥感图像场景分类方法
CN115761654B (zh) 一种车辆重识别方法
CN115906959A (zh) 基于de-bp算法的神经网络模型的参数训练方法
Zhang et al. An attention-based deep network for CTR prediction
CN114780767A (zh) 一种基于深度卷积神经网络的大规模图像检索方法及系统
Wang et al. Hierarchical multimodal fusion network with dynamic multi-task learning
CN113052497A (zh) 一种基于动静态特征融合学习的服刑人员风险预测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant