CN103400160A - 一种零训练样本行为识别方法 - Google Patents

一种零训练样本行为识别方法 Download PDF

Info

Publication number
CN103400160A
CN103400160A CN2013103649902A CN201310364990A CN103400160A CN 103400160 A CN103400160 A CN 103400160A CN 2013103649902 A CN2013103649902 A CN 2013103649902A CN 201310364990 A CN201310364990 A CN 201310364990A CN 103400160 A CN103400160 A CN 103400160A
Authority
CN
China
Prior art keywords
human body
training sample
body behavior
sample
gaussian function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2013103649902A
Other languages
English (en)
Other versions
CN103400160B (zh
Inventor
王春恒
张重
肖柏华
刘爽
周文
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institute of Automation of Chinese Academy of Science
Original Assignee
Institute of Automation of Chinese Academy of Science
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Automation of Chinese Academy of Science filed Critical Institute of Automation of Chinese Academy of Science
Priority to CN201310364990.2A priority Critical patent/CN103400160B/zh
Publication of CN103400160A publication Critical patent/CN103400160A/zh
Application granted granted Critical
Publication of CN103400160B publication Critical patent/CN103400160B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种零训练样本行为识别方法,该方法包括以下步骤:提取每个动作视频样本的特征向量;设定多个人体运动属性以及每个人体运动属性下动作视频对之间的关系;将动作视频对关系作为输入,利用排序支持向量机进行训练;利用输出的排序分数,对每一类有训练样本的人体行为拟合得到混合高斯模型;利用迁移学习获得零训练样本人体行为类别的混合高斯模型;提取测试视频样本的特征向量;利用最大后验概率原则,判断测试视频样本中零训练样本人体行为所属的类别。本发明通过利用混合高斯模型拟合排序分数,达到行为识别的目的,并通过最大后验判断所属类别,从而提高行为识别的鲁棒性。

Description

一种零训练样本行为识别方法
技术领域
本发明属于智能视频监控技术领域,具体涉及一种零训练样本行为识别方法。
背景技术
行为识别在视频监控中扮演着重要的角色,它可以识别出视频中人体的行为动作,为危险行为报警、特定行为识别做出贡献。行为识别中最简单最有效的方法当属基于词包模型(bag-of-words,BOW)的方法,此方法先对视频进行特征提取,然后将所有的特征聚类,然后根据每个视频特征在聚类中心出现的频率进行直方图化。但是此方法的一个缺点是没有考虑到时空特征。Zhang等人利用基于语义的线性编码方式不仅考虑了特征之间的时空关系而且减少了重构误差。Ryoo等人提出一种“特征×特征×关系”直方图去同时获取特征点之间表象的关系。Kovashaka等人利用近邻时空兴趣点设计一种层级直方图来弥补词包模型的不足。
基于词包模型的方法均是直接将底层特征和类别标签相连,然而,丰富的时空信息很难被单一的类别标签表示。所以近期的一些研究工作提出用属性描述动作的相关信息,属性特征可以被视为高层语义特征。Lampert等人提出直接属性预测模型(directattributeprediction,DAP)。刘等人把每个动作属性当成潜变量去预测行为类别。在这些模型中,均是把属性当做一个二值变量,表示该属性是否存在于某个动作。但是在现实生活中,二值属性并不能准确的描述行为动作。因此,Parikh等人提出相对属性的概念,其通过描述属性之间的相对关系来表示行为。
发明内容
本发明的目的是要解决上述现有技术中存在的技术问题,进而提供一种零训练样本行为识别方法。
为了实现所述目的,本发明基于零训练样本行为识别方法包括以下步骤:
一种零训练样本行为识别方法,其特征在于,该方法包括以下步骤:
步骤S1,提取视频样本库中每个动作视频样本的特征向量;
步骤S2,设定对应于多种人体行为的多个人体运动属性,以及在每个人体运动属性下,每两个代表人体行为的动作视频,即动作视频对之间的关系;
步骤S3,将所述动作视频对之间的关系作为输入,利用排序支持向量机进行训练,得到训练模型;
步骤S4,利用所述排序支持向量机输出的排序分数,对每一类具有训练样本的人体行为进行拟合得到一个混合高斯模型;
步骤S5,根据所述步骤S4得到的混合高斯模型,利用迁移学习,获得零训练样本人体行为类别的混合高斯模型;
步骤S6,按照步骤S1的描述,提取得到测试视频样本的特征向量;
步骤S7,根据所述测试视频样本的特征向量以及所述步骤S5得到的零训练样本人体行为类别的混合高斯模型,利用最大后验概率原则,判断所述测试视频样本中零训练样本人体行为所属的类别。
本发明的有益效果为:通过利用混合高斯模型拟合排序分数,达到行为识别的目的,通过最大后验判断所属类别,从而提高行为识别的鲁棒性。
附图说明
图1是本发明提出的零训练样本行为识别方法的流程图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明进一步详细说明。
图1是本发明提出的零训练样本行为识别方法的流程图,如图1所示,所述方法包括以下步骤:
步骤S1,提取视频样本库中每个动作视频样本的特征向量;
所述步骤S1进一步包括以下步骤:
步骤S11,对所述视频样本库中的每个动作视频样本利用三维角点特征(Harris3D)提取多个时空兴趣点;
步骤S12,在每个提取到的时空兴趣点周围(比如20*20像素点的范围)提取梯度直方图(histogram of oriented gradients,HOG)和光流直方图(histogram of optical flow,HOF),并将提取得到的这两个特征直接连成一个特征向量;
步骤S13,利用聚类方法将所有得到的特征向量聚集为多个聚类中心(比如2000个);
所述聚类方法可以使用现有技术中常用的k-means聚类方法或其他聚类方法。
步骤S14,利用词包模型(bag-of-words,BOW)将每个动作视频样本表示成一个维数与所述聚类中心的个数相同的直方图,作为相应动作视频样本的特征向量,该直方图的每一维表示该动作视频样本的特征向量在相应聚类中心出现的频率。
步骤S2,设定对应于多种人体行为的多个人体运动属性,以及在每个人体运动属性下,每两个代表人体行为的动作视频,即动作视频对之间的关系;
在本发明一实施例中定义了六种人体行为,分别为:拳击,鼓掌,挥手,慢跑,跑和走,并定义了5种人体运动属性以及它们之间的关系,如表1所示,表1中,左栏表示六种人体行为的5种人体运动属性,右栏表示这5种人体运动属性之间的相对关系,其中,1表示拳击,2表示鼓掌,3表示挥手,4表示慢跑,5表示跑,6表示走,“>”表示人体运动属性的大于(强于)关系,比如对于跑这种人体行为来说,其腿部运动要大于或者说强于慢跑这种人体行为的腿部运动,这样的话,对于人体运动属性“腿的运动”,跑和慢跑这两种人体行为存在关系:5>4,“~”表示人体运动属性的相似关系:
表1
属性 关系
腿的运动 5>4>6>1~2~3
手臂的运动 3>2>1>5>4~6
手臂的张合 2>3>1~4~5~6
手臂形状的笔直情况 2~3>6>1>4~5
过胸的手臂运动 3>1~2>4~5>6
步骤S3,将所述动作视频对之间的关系作为输入,利用排序支持向量机(RankSVM)进行训练,得到训练模型;
所述排序支持向量机采用Sigmoid和Gaussian函数作为损失函数,所述排序支持向量机的目标函数可以写为:
min λ | | w | | 2 + Σ i , j L 1 ( w T ( x i - x j ) , α ) + Σ m , n L 2 ( w T ( x m - x n ) , β ) ,
其中,λ是用来平衡排序支持向量机参数的稀疏度和损失之间的关系的平衡因子;w是待求的排序支持向量机参数向量;xi和xj表示两个人体运动属性为大于关系的样本,即xi>xj;xm和xn表示两个人体运动属性为相似关系的样本,即xm~xn;L1为Sigmoid损失函数,L2为Gaussian损失函数,分别定义如下:
L 1 ( t , α ) = 1 - 1 1 + e - αt ,
这里,t是损失值,α用于控制Sigmoid函数的形状,e是自然对数;
L 2 ( t , β ) = 1 - 1 β 2 π e - t 2 / 2 β 2 ,
这里,t是损失值,β用于控制Gaussian函数的形状,e是自然对数;
步骤S4,利用所述排序支持向量机输出的排序分数,对每一类具有训练样本的人体行为进行拟合得到一个混合高斯模型:
其中,为训练样本x的排序分数,角标q代表有训练样本的人体行为的类别,i为Q类有训练样本的人体行为中的第i类人体行为,Z表示所需要的高斯函数的数量,
Figure BDA0000369400460000051
为第z个高斯函数的权重,
Figure BDA0000369400460000052
为第z个高斯函数的均值,
Figure BDA0000369400460000053
为第z个高斯函数的协方差矩阵,
Figure BDA0000369400460000054
为高斯密度函数,公式如下:
步骤S5,根据所述步骤S4得到的混合高斯模型,利用迁移学习,获得零训练样本人体行为类别的混合高斯模型;
所述步骤S5中按照以下规则获得零训练样本人体行为类别的混合高斯模型:
1)对于上文中定义的某一人体运动属性ad,当存在人体行为
Figure BDA0000369400460000056
时,所述零训练样本人体行为类别的混合高斯模型中的第z个高斯函数的第d维的均值为:
Figure BDA0000369400460000057
其中,
Figure BDA0000369400460000058
Figure BDA0000369400460000059
代表有训练样本的第i个和第k个人体行为类别,代表无训练样本的第j个人体行为类别;
2)当存在人体行为
Figure BDA00003694004600000511
时,第z个高斯函数的第d维的均值为:
Figure BDA00003694004600000512
其中,gz为人体运动属性ad对应的所有有训练样本的人体行为的排序分数的平均权重;
3)相似地,当存在人体行为
Figure BDA00003694004600000513
时,第z个高斯函数的第d维的均值为: μ jz _ d ( u ) = μ iz _ d ( q ) + g z ;
4)当存在人体行为
Figure BDA00003694004600000515
时,第z个高斯函数的第d维的均值为:
Figure BDA00003694004600000516
第z个高斯函数的协方差矩阵也设为相等,即:
Figure BDA00003694004600000517
5)如果在人体运动属性ad中,没有相应的与人体行为相关的描述,则令第z个高斯函数的第d维的均值为:
Figure BDA0000369400460000061
以上除了第4种情况外,第z个高斯函数的协方差矩阵都设为: Σ jz _ d ( u ) = 1 Q Σ b = 1 Q γ bz ( q ) Σ bz _ d . ( q )
根据以上准则就可以求得零训练样本人体行为类别的混合高斯模型。
步骤S6,按照步骤S1的描述,提取得到测试视频样本的特征向量;
步骤S7,根据所述测试视频样本的特征向量以及所述步骤S5得到的零训练样本人体行为类别的混合高斯模型,利用最大后验概率原则,判断所述测试视频样本中零训练样本人体行为所属的类别。
该步骤中,首先将提取得到的测试视频样本的特征向量输入至零训练样本人体行为类别的混合高斯模型中,取得概率值最大的类别即认为是所述测试视频样本的类别,即:
c * = arg max k = { 1 , . . . , R } P k ( x i ~ ) ,
其中,c*表示概率最大的类别标签,
Figure BDA0000369400460000064
表示样本
Figure BDA0000369400460000065
在第k个类别下的概率,R表示类别数量。
以网上公开的数据库作为测试对象,比如在KTH数据库上,当零训练样本为1类时本发明方法的人体行为识别正确率为86.8%,当零训练样本为2类时本发明方法的人体行为识别正确率为83.07%,当零训练样本为3类时本发明方法的人体行为识别正确率为72.7%,由此可见本发明方法的有效性。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种零训练样本行为识别方法,其特征在于,该方法包括以下步骤:
步骤S1,提取视频样本库中每个动作视频样本的特征向量;
步骤S2,设定对应于多种人体行为的多个人体运动属性,以及在每个人体运动属性下,每两个代表人体行为的动作视频,即动作视频对之间的关系;
步骤S3,将所述动作视频对之间的关系作为输入,利用排序支持向量机进行训练,得到训练模型;
步骤S4,利用所述排序支持向量机输出的排序分数,对每一类具有训练样本的人体行为进行拟合得到一个混合高斯模型;
步骤S5,根据所述步骤S4得到的混合高斯模型,利用迁移学习,获得零训练样本人体行为类别的混合高斯模型;
步骤S6,按照步骤S1的描述,提取得到测试视频样本的特征向量;
步骤S7,根据所述测试视频样本的特征向量以及所述步骤S5得到的零训练样本人体行为类别的混合高斯模型,利用最大后验概率原则,判断所述测试视频样本中零训练样本人体行为所属的类别。
2.根据权利要求1所述的方法,其特征在于,所述步骤S1进一步包括以下步骤:
步骤S11,对所述视频样本库中的每个动作视频样本利用三维角点特征提取多个时空兴趣点;
步骤S12,在每个提取到的时空兴趣点周围提取梯度直方图和光流直方图,并将提取得到的这两个特征直接连成一个特征向量;
步骤S13,利用聚类方法将所有得到的特征向量聚集为多个聚类中心;
步骤S14,利用词包模型将每个动作视频样本表示成一个维数与所述聚类中心的个数相同的直方图,作为相应动作视频样本的特征向量。
3.根据权利要求2所述的方法,其特征在于,所述步骤S14中的直方图的每一维表示在相应聚类中心出现特征向量的个数。
4.根据权利要求1所述的方法,其特征在于,所述步骤S2中,所述多种人体行为包括拳击,鼓掌,挥手,慢跑,跑和走;所述多个人体运动属性包括腿的运动,手臂的运动,手臂的张合,手臂形状的笔直情况和过胸的手臂运动。
5.根据权利要求4所述的方法,其特征在于,在每个人体运动属性下,动作视频对之间的关系包括:
对于所述腿的运动,跑>慢跑>走>拳击~鼓掌~挥手;
对于所述手臂的运动,挥手>鼓掌>拳击>跑>慢跑~走;
对于所述手臂的张合,鼓掌>挥手>拳击~慢跑~跑~走;
对于所述手臂形状的笔直情况,鼓掌~挥手>走>拳击>慢跑~跑;
对于所述过胸的手臂运动,挥手>拳击~鼓掌>慢跑~跑>走;
其中,“>”表示人体运动属性的大于关系,“~”表示人体运动属性的相似关系。
6.根据权利要求1所述的方法,其特征在于,所述排序支持向量机采用Sigmoid和Gaussian函数作为损失函数。
7.根据权利要求1所述的方法,其特征在于,所述排序支持向量机的目标函数可以写为:
min λ | | w | | 2 + Σ i , j L 1 ( w T ( x i - x j ) , α ) + Σ m , n L 2 ( w T ( x m - x n ) , β ) ,
其中,λ是用来平衡排序支持向量机参数的稀疏度和损失之间的关系的平衡因子;w是待求的排序支持向量机参数向量;xi和xj表示两个人体运动属性为大于关系的样本,即xi>xj;xm和xn表示两个人体运动属性为相似关系的样本,即xm~xn;L1为Sigmoid损失函数,L2为Gaussian损失函数:
L 1 ( t , α ) = 1 - 1 1 + e - αt ,
其中,t是损失值,α用于控制Sigmoid函数的形状,e是自然对数;
L 2 ( t , β ) = 1 - 1 β 2 π e - t 2 / 2 β 2 ,
其中,t是损失值,β用于控制Gaussian函数的形状,e是自然对数。
8.根据权利要求1所述的方法,其特征在于,所述混合高斯模型表示为:
Figure FDA0000369400450000031
其中,
Figure FDA0000369400450000032
为训练样本x的排序分数,角标q代表有训练样本的人体行为的类别,i为Q类有训练样本的人体行为中的第i类人体行为,Z表示所需要的高斯函数的数量,
Figure FDA0000369400450000033
为第z个高斯函数的权重,
Figure FDA0000369400450000034
为第z个高斯函数的均值,
Figure FDA0000369400450000035
为第z个高斯函数的协方差矩阵,
Figure FDA0000369400450000036
为高斯密度函数。
9.根据权利要求1所述的方法,其特征在于,所述步骤S5中按照以下规则获得零训练样本人体行为类别的混合高斯模型:
1)对于某一人体运动属性ad,当存在人体行为
Figure FDA0000369400450000037
时,所述零训练样本人体行为类别的混合高斯模型中的第z个高斯函数的第d维的均值为: μ jz _ d ( u ) = 1 2 ( γ iz ( q ) μ iz _ d ( q ) + γ kz ( q ) μ jz _ d ( q ) ) , 其中,
Figure FDA0000369400450000039
Figure FDA00003694004500000310
代表有训练样本的第i个和第k个人体行为类别,
Figure FDA00003694004500000311
代表无训练样本的第j个人体行为类别;
2)当存在人体行为
Figure FDA00003694004500000312
时,第z个高斯函数的第d维的均值为:其中,gz为人体运动属性ad对应的所有有训练样本的人体行为的排序分数的平均权重;
3)当存在人体行为
Figure FDA00003694004500000314
时,第z个高斯函数的第d维的均值为: μ jz _ d ( u ) = μ iz _ d ( q ) + g z ;
4)当存在人体行为
Figure FDA00003694004500000316
时,第z个高斯函数的第d维的均值为:
Figure FDA00003694004500000317
第z个高斯函数的协方差矩阵也设为相等,即:
Figure FDA00003694004500000318
5)如果在人体运动属性ad中,没有相应的与人体行为相关的描述,则令第z个高斯函数的第d维的均值为:
Figure FDA00003694004500000319
除了第4)种情况外,第z个高斯函数的协方差矩阵都设为: Σ jz _ d ( u ) = 1 Q Σ b = 1 Q γ bz ( q ) Σ bz _ d ( q ) .
10.根据权利要求1所述的方法,其特征在于,所述步骤S7中,首先将提取得到的测试视频样本的特征向量输入至零训练样本人体行为类别的混合高斯模型中,取得概率值最大的类别即认为是所述测试视频样本的类别。
CN201310364990.2A 2013-08-20 2013-08-20 一种零训练样本行为识别方法 Active CN103400160B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310364990.2A CN103400160B (zh) 2013-08-20 2013-08-20 一种零训练样本行为识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310364990.2A CN103400160B (zh) 2013-08-20 2013-08-20 一种零训练样本行为识别方法

Publications (2)

Publication Number Publication Date
CN103400160A true CN103400160A (zh) 2013-11-20
CN103400160B CN103400160B (zh) 2017-03-01

Family

ID=49563778

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310364990.2A Active CN103400160B (zh) 2013-08-20 2013-08-20 一种零训练样本行为识别方法

Country Status (1)

Country Link
CN (1) CN103400160B (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103693532A (zh) * 2013-12-26 2014-04-02 江南大学 一种电梯轿厢内暴力行为检测方法
CN103810496A (zh) * 2014-01-09 2014-05-21 江南大学 基于图像深度信息的3d高斯空间人体行为识别方法
CN104866841A (zh) * 2015-06-05 2015-08-26 中国人民解放军国防科学技术大学 一种人体目标奔跑行为检测方法
CN106056043A (zh) * 2016-05-19 2016-10-26 中国科学院自动化研究所 基于迁移学习的动物行为识别方法和装置
CN106650597A (zh) * 2016-10-11 2017-05-10 汉王科技股份有限公司 一种活体检测方法和装置
WO2018032354A1 (en) * 2016-08-16 2018-02-22 Nokia Technologies Oy Method and apparatus for zero-shot learning
CN110069129A (zh) * 2018-01-24 2019-07-30 株式会社日立制作所 确定系统和确定方法
CN113762301A (zh) * 2020-07-01 2021-12-07 北京沃东天骏信息技术有限公司 信息匹配模型的训练、信息匹配方法和装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1666232A (zh) * 2002-06-28 2005-09-07 皇家飞利浦电子股份有限公司 使用概率分布函数来模拟行为的方法和装置
CN101271527A (zh) * 2008-02-25 2008-09-24 北京理工大学 一种基于运动场局部统计特征分析的异常行为检测方法
CN101389004A (zh) * 2007-09-13 2009-03-18 中国科学院自动化研究所 一种基于在线学习的运动目标分类方法
CN102930302A (zh) * 2012-10-18 2013-02-13 山东大学 基于在线序贯极限学习机的递增式人体行为识别方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1666232A (zh) * 2002-06-28 2005-09-07 皇家飞利浦电子股份有限公司 使用概率分布函数来模拟行为的方法和装置
CN101389004A (zh) * 2007-09-13 2009-03-18 中国科学院自动化研究所 一种基于在线学习的运动目标分类方法
CN101271527A (zh) * 2008-02-25 2008-09-24 北京理工大学 一种基于运动场局部统计特征分析的异常行为检测方法
CN102930302A (zh) * 2012-10-18 2013-02-13 山东大学 基于在线序贯极限学习机的递增式人体行为识别方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
J.K.AGGARWAL ET AL.: "Human Activity Analysis:A Review", 《ACM COMPUTING SURVEYS》 *

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103693532B (zh) * 2013-12-26 2016-04-27 江南大学 一种电梯轿厢内暴力行为检测方法
CN103693532A (zh) * 2013-12-26 2014-04-02 江南大学 一种电梯轿厢内暴力行为检测方法
CN103810496A (zh) * 2014-01-09 2014-05-21 江南大学 基于图像深度信息的3d高斯空间人体行为识别方法
CN103810496B (zh) * 2014-01-09 2017-01-25 江南大学 基于图像深度信息的3d高斯空间人体行为识别方法
CN104866841A (zh) * 2015-06-05 2015-08-26 中国人民解放军国防科学技术大学 一种人体目标奔跑行为检测方法
CN104866841B (zh) * 2015-06-05 2018-03-09 中国人民解放军国防科学技术大学 一种人体目标奔跑行为检测方法
CN106056043B (zh) * 2016-05-19 2019-07-30 中国科学院自动化研究所 基于迁移学习的动物行为识别方法和装置
CN106056043A (zh) * 2016-05-19 2016-10-26 中国科学院自动化研究所 基于迁移学习的动物行为识别方法和装置
WO2018032354A1 (en) * 2016-08-16 2018-02-22 Nokia Technologies Oy Method and apparatus for zero-shot learning
CN106650597A (zh) * 2016-10-11 2017-05-10 汉王科技股份有限公司 一种活体检测方法和装置
CN106650597B (zh) * 2016-10-11 2019-09-03 汉王科技股份有限公司 一种活体检测方法和装置
CN110069129A (zh) * 2018-01-24 2019-07-30 株式会社日立制作所 确定系统和确定方法
CN110069129B (zh) * 2018-01-24 2022-08-05 株式会社日立制作所 确定系统和确定方法
CN113762301A (zh) * 2020-07-01 2021-12-07 北京沃东天骏信息技术有限公司 信息匹配模型的训练、信息匹配方法和装置

Also Published As

Publication number Publication date
CN103400160B (zh) 2017-03-01

Similar Documents

Publication Publication Date Title
CN103400160A (zh) 一种零训练样本行为识别方法
Jiang et al. Hybrid knowledge routed modules for large-scale object detection
Pandey et al. A decision tree algorithm pertaining to the student performance analysis and prediction
CN109447140A (zh) 一种基于神经网络深度学习的图像识别并推荐认知的方法
CN110175251A (zh) 基于语义对抗网络的零样本草图检索方法
CN110245229A (zh) 一种基于数据增强的深度学习主题情感分类方法
CN105095863A (zh) 基于相似性权值的半监督字典学习的人体行为识别方法
CN104966105A (zh) 一种鲁棒机器错误检索方法与系统
JP6835204B2 (ja) 学習材推薦方法、学習材推薦装置および学習材推薦プログラム
CN108121702A (zh) 数学主观题评阅方法及系统
CN105740404A (zh) 标签关联方法及装置
CN106127634A (zh) 一种基于朴素贝叶斯模型的学生学业成绩预测方法及系统
CN108197643A (zh) 一种基于无监督聚类和度量学习的迁移学习方法
CN111191099B (zh) 一种基于社交媒体的用户活动类型识别方法
CN111369535B (zh) 一种细胞检测方法
CN105740382A (zh) 一种对短评论文本进行方面分类方法
CN110377727A (zh) 一种基于多任务学习的多标签文本分类方法和装置
CN109119069A (zh) 特定人群识别方法、电子装置及计算机可读存储介质
CN108717459A (zh) 一种面向用户评论信息的移动应用缺陷定位方法
CN112183652A (zh) 一种联邦机器学习环境下的边缘端偏见检测方法
CN103345623A (zh) 一种基于鲁棒相对属性的行为识别方法
CN111090985B (zh) 一种基于siamese网络和多核心LEAM架构的中文文本难度评估方法
Lonij et al. Open-world visual recognition using knowledge graphs
CN112148994B (zh) 信息推送效果评估方法、装置、电子设备及存储介质
CN109670169A (zh) 一种基于特征提取的深度学习情感分类方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant