CN110532384A - 一种多任务字典单分类方法、系统、装置及存储介质 - Google Patents

一种多任务字典单分类方法、系统、装置及存储介质 Download PDF

Info

Publication number
CN110532384A
CN110532384A CN201910711980.9A CN201910711980A CN110532384A CN 110532384 A CN110532384 A CN 110532384A CN 201910711980 A CN201910711980 A CN 201910711980A CN 110532384 A CN110532384 A CN 110532384A
Authority
CN
China
Prior art keywords
dictionary
task
classified
classification
classifier
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910711980.9A
Other languages
English (en)
Other versions
CN110532384B (zh
Inventor
谢浩鑫
刘波
肖燕珊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong University of Technology
Original Assignee
Guangdong University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong University of Technology filed Critical Guangdong University of Technology
Priority to CN201910711980.9A priority Critical patent/CN110532384B/zh
Publication of CN110532384A publication Critical patent/CN110532384A/zh
Application granted granted Critical
Publication of CN110532384B publication Critical patent/CN110532384B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/36Creation of semantic tools, e.g. ontology or thesauri
    • G06F16/374Thesaurus

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本申请提供的一种多任务字典单分类方法,包括:获取待分类任务;令每个待分类任务分别学习一个综合字典和一个分析字典;利用字典学习模型、分析非相关性项、分析系数编码提取项和多任务单分类项建立目标优化函数;其中,字典学习模型包括综合字典和分析字典;求解优化函数分别得到线性分类器和非线性分类器;利用线性分类器和非线性分类器对待分类任务进行分类。本申请采用一个任务学习一个综合字典和一个分析字典,并使编码系数对于其它任务尽可能稀疏,能更好地表示数据的潜在结构。同时利用多任务学习模型,也大大减少了计算复杂度。本申请还提供了一种多任务字典单分类系统、装置及计算机可读存储介质,具有上述有益效果。

Description

一种多任务字典单分类方法、系统、装置及存储介质
技术领域
本申请涉及标签分类领域,更具体地说,涉及一种多任务字典单分类方法、系统、装置及存储介质。
背景技术
现有技术中,将多任务学习分为两类。第一类是特征分享方法,通过学习特征子空间,来学习到一些所有任务都共享的特征,然后基于这些特征进行学习分类器。第二类是参数分享方法,通过假设几个相关任务的分类超平面都相对于同一个中心超平面的偏移,使每个任务能学习到更多的信息。为了充分利用多个任务的信息,随着任务数量的增加,计算复杂度也越来越大。
字典学习已经广泛应用在分类任务中,例如图像分类和人脸识别。字典学习的过完备表示的维度比源任务数据的维度高,因此字典学习能够表示数据的潜在结构。传统的字典学习存在以下缺点:首先,为了确保编码系数的稀疏性,编码系数的约束项往往采用L0范数或L1范数,导致了训练时间很长。其次,对于分类任务,字典学习往往直接用编码系数来学习分类器,导致了较高的计算复杂度。
发明内容
本申请的目的在于提供一种多任务字典单分类方法、系统、装置及存储介质,提高了分类的可扩展性,降低了计算复杂度。
为实现上述目的,本申请实施例提供了如下技术方案:
一种多任务字典单分类方法,具体技术方案如下:
获取待分类任务;
令每个所述待分类任务分别学习一个综合字典和一个分析字典;
利用字典学习模型、分析非相关性项、分析系数编码提取项和多任务单分类项建立目标优化函数;其中,所述字典学习模型包括所述综合字典和所述分析字典;
求解所述优化函数分别得到线性分类器和非线性分类器;
利用所述线性分类器和所述非线性分类器对所述待分类任务进行分类。
其中,还包括:
将所述综合字典、所述分析字典和所述编码系数初始化为具有单位F范数的任意矩阵。
其中,还包括:
利用l2,1范数对所述系数编码进行约束处理。
其中,所述多任务单分类项为
其中,
ρ=(ρ12,...,ρk)T, e=(1,1,...,1)T;w0表示若干个所述待分类任务的基准超平面,vt表示第t个待分类任务的分类超平面相对于基准超平面的偏移,ct表示第t个待分类任务的正则化参数,ξti表示第t个待分类任务的第i个训练错误,cT表示待分类任务的正则化参数,Pt=[Pt1,Pt2,...,Ptk]∈Rk×n表示第t个待分类任务的分析字典,Nt表示第t个待分类任务的样本数量,T为所述待分类任务的数量。
本申请还提供一种多任务字典单分类系统,包括:
获取模块,用于获取待分类任务;
字典学习模块,用于令每个所述待分类任务分别学习一个综合字典和一个分析字典;
优化模块,用于利用字典学习模型、分析非相关性项、分析系数编码提取项和多任务单分类项建立目标优化函数;其中,所述字典学习模型包括所述综合字典和所述分析字典;
分类器生成模块,用于求解所述优化函数分别得到线性分类器和非线性分类器;
分类模块,用于利用所述线性分类器和所述非线性分类器对所述待分类任务进行分类。
其中,所述系统还包括:
初始化模块,用于将所述综合字典、所述分析字典和所述编码系数初始化为具有单位F范数的任意矩阵。
其中,还包括:
约束模块,用于利用l2,1范数对所述系数编码进行约束处理。
本申请还提供一种多任务字典单分类装置,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述计算机程序时实现如上文多任务字典单分类方法的步骤。
本申请还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如上文多任务字典单分类方法的步骤。
通过以上方案可知,本申请提供的一种多任务字典单分类方法,包括:获取待分类任务;令每个所述待分类任务分别学习一个综合字典和一个分析字典;利用字典学习模型、分析非相关性项、分析系数编码提取项和多任务单分类项建立目标优化函数;其中,所述字典学习模型包括所述综合字典和所述分析字典;求解所述优化函数分别得到线性分类器和非线性分类器;利用所述线性分类器和所述非线性分类器对所述待分类任务进行分类。
本申请采用一个任务学习一个综合字典和一个分析字典,并使编码系数对于其它任务尽可能稀疏,能更好地表示数据的潜在结构。同时利用多任务学习模型,也大大减少了计算复杂度。本申请还提供了一种多任务字典单分类系统、装置及计算机可读存储介质,同样可以实现上述技术效果。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例公开的一种多任务字典单分类方法流程图;
图2为本申请实施例公开的一种多任务字典单分类装置结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请实施例公开了一种多任务字典单分类方法、系统、装置及计算机可读存储介质,以解决如何提高多任务字典单分类准确性的问题。
参见图1,本申请实施例提供的一种多任务字典单分类方法,具体包括:
S101:获取待分类任务;
S102:令每个所述待分类任务分别学习一个综合字典和一个分析字典;
S103:利用字典学习模型、分析非相关性项、分析系数编码提取项和多任务单分类项建立目标优化函数;其中,所述字典学习模型包括所述综合字典和所述分析字典;
S104:求解所述优化函数分别得到线性分类器和非线性分类器;
S105:利用所述线性分类器和所述非线性分类器对所述待分类任务进行分类。
在现实操作中,为了减少对一个新任务数据进行打标签的工作量,可以迁移学习与新任务数据集相似的相关任务数据。这里把相关的标签任务当作源任务,新任务当作目标任务,通过学习源任务的知识,然后迁移到目标任务来进行分类。
迁移学习是多任务学习的一个分支。目前,迁移学习方法可以分类四类。第一类是实例迁移方法,把源任务里的有标签数据根据对目标作务的影响重新赋权。第二类是特征表达迁移方法,通过对一个共同的特征表达来减少任务间的差异和分类错误。第三类是参数迁移方法,通过共享参数把源任务学到的知识迁移到目标任务。第四类是相关知识迁移方法,每个任务在源任务的目标任务间建立知识映射的新方法采用第三类参数迁移方法来构建模型。
字典学习运用在分类和聚类,其过完备表示的维度比任务数据集的维度还高,能够更好地表示训练样本,从而来提高精度。目前,字典学习可以分为三类。第一类是直接从原始大字典中选择元组来组成字典,由于字典维度高,导致很大的计算复杂度。第二类是加判别项,例如,判别式KSVD将误差纳入KSVD来加强分类。第三类是计算特定类字典来确保对应每一类有一个子字典。这里每一类子字典可以对应每个任务的单类数据。
本申请主要通过改进传统字典学习,并结合多任务单分类支持向量机来建立模型。
假设有T个任务,第t个任务的数据表示为 Xt=[xt1,xt2,...,xtn]∈Rr×n,N表示所有任务的样本数量,Nt表示第t个任务的样本数量。
则字典学习模型为:
上式中,Dt=[dt1,dt2,...,dtk]∈Rn×k表示第t个任务的综合字典,k表示字典的维数,n表示第t个任务样本的个数,St=[St1,St2,...,Stk]∈Rk×n表示第t个任务数据Xt的编码系数,Pt=[Pt1,Pt2,...,Ptk]∈Rk×n表示t个任务的分析字典,di表示第t个任务综合字典里第i个元组。约束条件用来避免最优解Pt=0 的情况。
每个待分类任务分别学习一个综合字典和一个分析字典,再根据利用字典学习模型、分析非相关性项、分析系数编码提取项和多任务单分类项建立目标优化函数,可以将MTD-SVM定义为如下优化问题,即目标优化函数:
wTz(Ptxti,t)≥ρTetti,i=1,...,|Nt|,t=1,...,T
ξti≥0
其中,是分析非相关性项,用来提高编码系数的对除了第t个任务的其它任务的字典的非相关性,确保编码系数对于其它任务尽可能稀疏,是分析稀疏编码提取项,提取出来的提取项P代替稀疏系数S加入到分类项,是多任务单分类项,α和τ是与上述方程相关的的两个正则化参数,在此不作具体限定。
其中,所述多任务单分类项为
其中,
ρ=(ρ12,...,ρk)T, e=(1,1,...,1)T
上式中,w0表示若干个所述待分类任务的基准超平面,vt表示第t个待分类任务的分类超平面相对于基准超平面的偏移,ct表示第t个待分类任务的正则化参数,ξti表示第t个待分类任务的第i个训练错误,cT表示待分类任务的正则化参数,当ct>ci,i=(1,2,...T-1),则分类超平面偏向目标任务,有助于提升目标任务的分类精确度,当ct<ci,i=(1,2,...T-1),则分类超平面偏向源任务,不提升对目标任务的分类精确度。
Pt=[Pt1,Pt2,...,Ptk]∈Rk×n表示第t个待分类任务的分析字典,Nt表示第t个待分类任务的样本数量,T为所述待分类任务的数量。
在一个优选的实施方式中,还可以利用l2,1范数对所述系数编码进行约束处理。
相比现有技术中使用l0范数或l1范数,l2,1范数可以提高行稀疏性。
优选的,该分类方法还可以包括:
将所述综合字典、所述分析字典和所述编码系数初始化为具有单位F范数的任意矩阵。该步骤通常在最开始执行。
具体地,在第一次计算时:
计算综合字典的最优解时,固定S,P,即用自定义常量作为S,P,代入到上述目标优化函数中,得到D的最优解:
计算稀疏编码的最优解时,固定D,P,w,ρ,ξ,即用自定义常量作为 D,P,w,ρ,ξ,代入到上述目标优化函数中,得到稀疏系数S的最优解:
计算分析字典的最优解时,固定S,D,w,ρ,ξ,即用自定义常量作为 S,D,w,ρ,ξ,代入到上述目标优化函数中,得到P的最优解:
计算多任务单分类项的最优解时,固定P,D,S,即用自定义常量作为 P,D,S,代入到上述目标优化函数中,得到w的最优解:
第一次计算时分别用自定义常量代替相应的变量,在第二次以及后续每次迭代计算时,都需要用上一次计算的最优解结果代替相应的变量,当满足迭代停止条件时,当前这一次计算的最优解结果就是最终的最优解结果。需要说说明的是,迭代停止条件可以根据实际情况来设定,例如,设定满足预设迭代次数时为满足迭代停止条件,也可以是设定本次迭代的计算结果与上一次迭代的计算结果的差值小于预设阈值为满足迭代停止条件,具体如何设定在本方案中不做具体限定。
基于上文内容,计算得到第t个任务的Pt=[Pt1,Pt2,...,Ptk]∈Rk×n以及w之后的线性分类器为:
对于非线性数据集,令zt=Ptx,可得非线性分类器为:
此后,即可根据线性分类器和非线性分类器进行分类,通常非线性分类器应用较广。
需要说明的是,本方案中优选采用SVM二元分类器作为预设分类器,将多任务字典单分类问题转化为多个二分类问题,可以使分类结果的准确率更高。
由此可见,本申请实施例采用一个任务学习一个综合字典和一个分析字典,并使编码系数对于其它任务尽可能稀疏,能更好地表示数据的潜在结构。同时利用多任务学习模型,也大大减少了计算复杂度。
本申请实施例提供的方案可以通过3个真实文本数据集与现有技术进行比较实验。采用20Newsgroup,Reuters-21578和Mushroom来做实验,对这3 个数据集进行分割整合操作,生成10个数据相似的任务,然后借助LibSVM,对算法进行训练。再对比其它3种方法,即经典单分类支持向量机(OC-SVM)、不确定单分类支持向量机(UOC-SVM)、和多任务学习算法(TLOC-SVM),通过F-measure值来显示本分类方法的优越性能。
具体数据参见表1。表1为试验中使用的数据集的统计。
表1实验中分割后的数据集统计。
data Source data Target task Multiple source tasks
1 20Newsgroup comp.(os) comp.(graphics,ibm,mac)
2 20Newsgroup rec.(sport.hokey) rec.(autos,sport.baseball)
3 20Newsgroup sci.(crypt) sci.(med,space)
4 20Newsgroup talk.(politics.guns) talk.(religion,politics.mideast))
5 20Newsgroup talk.(religion) talk.(politics.guns,politics.mideast))
6 Reuters-21578 orgs(1) orgs(2)
7 Reuters-21578 people(1) people(2)
8 Reuters-21578 place(1) place(2)
9 Mushroom edible.enlarging edible.tapering
10 Mushroom poisonouse.enlarging poisonous.tapering
表2给出了本申请(MTD-SVM)与3种比较方法(OC-SVM、UOC-SVM、 TLOC-OC)以及评估准则F-measure应用在数据集上的实验结果:
表2各方法应用在各个数据集上的F-measure
data OC-SVM UOC-SVM TLOC-SVM MTD-SVM
1 70.69±4.73 74.96±4.12 76.37±4.28 79.74±3.83
2 75.02±4.43 77.84±4.16 80.26±3.47 83.01±3.92
3 62.63±4.36 67.52±4.19 64.24±4.17 70.51±3.66
4 82.07±3.49 84.73±3.15 84.82±3.06 87.92±2.54
5 78.72±4.53 81.37±3.51 80.97±4.36 83.48±4.06
6 67.87±3.31 71.78±3.13 72.89±2.96 77.42±2.43
7 76.89±3.53 81.31±3.29 79.66±3.43 85.24±3.17
8 74.05±3.87 78.93±3.26 76.59±3.17 81.24±3.04
9 73.98±4.37 72.93±4.12 77.56±3.31 79.27±3.63
10 72.81±4.13 75.95±3.86 75..06±2.73 79.84±3.47)
对于F-measure值,MTD-SVM高于其它三种方法,说明MTD-SVM 的分类效果好。这是因为OC-SVM和UOC-SVM是单任务学习,但UOC-SVM能够处理不确定信息,分类性能比OC-SVM好,TLOC是多任务学习,有充分利用相关任务的数据信息,分类性能明显比OC-SVM和 UOC-SVM好,而MTD-SVM是多任务字典学习,字典的过完备表示出数据的潜在结构,提高了精确度,分类性能比其它三个方法好。
下面对本申请实施例提供的一种多任务字典单分类系统进行介绍,下文描述的一种多任务字典单分类系统与上述实施例可以相互参照。
参见图2,本申请实施例提供的一种多任务字典单分类系统具体包括:
获取模块100,用于获取待分类任务;
字典学习模块200,用于令每个所述待分类任务分别学习一个综合字典和一个分析字典;
优化模块300,用于利用字典学习模型、分析非相关性项、分析系数编码提取项和多任务单分类项建立目标优化函数;其中,所述字典学习模型包括所述综合字典和所述分析字典;
分类器生成模块400,用于求解所述优化函数分别得到线性分类器和非线性分类器;
分类模块500,用于利用所述线性分类器和所述非线性分类器对所述待分类任务进行分类。
基于上述实施例,作为优选的实施例,所述系统还可以包括:
初始化模块,用于将所述综合字典、所述分析字典和所述编码系数初始化为具有单位F范数的任意矩阵。
基于上述实施例,作为优选的实施例,所述系统还可以包括:
约束模块,用于利用l2,1范数对所述系数编码进行约束处理。
下面对本申请实施例提供的一种多任务字典单分类装置进行介绍,下文描述的一种多任务字典单分类装置与上述任一实施例可以相互参照。
本申请实施例还提供一种多任务字典单分类装置,具体包括:
存储器,用于存储计算机程序;
处理器,用于执行所述计算机程序时实现上述任一多任务字典单分类方法的步骤。
具体的,存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统和计算机可读指令,该内存储器为非易失性存储介质中的操作系统和计算机可读指令的运行提供环境。
进一步的,本实施例中的多任务字典单分类装置,还可以包括:
输入接口,用于获取外界导入的计算机程序,并将获取到的计算机程序保存至所述存储器中,还可以用于获取外界终端设备传输的各种指令和参数,并传输至处理器中,以便处理器利用上述各种指令和参数展开相应的处理。本实施例中,所述输入接口具体可以包括但不限于USB接口、串行接口、语音输入接口、指纹输入接口、硬盘读取接口等。
输出接口,用于将处理器产生的各种数据输出至与其相连的终端设备,以便于与输出接口400相连的其他终端设备能够获取到处理器200产生的各种数据。本实施例中,所述输出接口400具体可以包括但不限于USB接口、串行接口等。
本申请还提供了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时可以实现上述实施例所提供的步骤。该存储介质可以包括:U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本申请。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本申请的精神或范围的情况下,在其它实施例中实现。因此,本申请将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

Claims (9)

1.一种多任务字典单分类方法,其特征在于,包括:
获取待分类任务;
令每个所述待分类任务分别学习一个综合字典和一个分析字典;
利用字典学习模型、分析非相关性项、分析系数编码提取项和多任务单分类项建立目标优化函数;其中,所述字典学习模型包括所述综合字典和所述分析字典;
求解所述优化函数分别得到线性分类器和非线性分类器;
利用所述线性分类器和所述非线性分类器对所述待分类任务进行分类。
2.根据权利要求1所述的方法,其特征在于,还包括:
将所述综合字典、所述分析字典和所述编码系数初始化为具有单位F范数的任意矩阵。
3.根据权利要求1所述的方法,其特征在于,还包括:
利用l2,1范数对所述系数编码进行约束处理。
4.根据权利要求1所述的方法,其特征在于,所述多任务单分类项为
其中, e=(1,1,...,1)T;w0表示若干个所述待分类任务的基准超平面,vt表示第t个待分类任务的分类超平面相对于基准超平面的偏移,ct表示第t个待分类任务的正则化参数,ξti表示第t个待分类任务的第i个训练错误,cT表示待分类任务的正则化参数,Pt=[Pt1,Pt2,...,Ptk]∈Rk×n表示第t个待分类任务的分析字典,Nt表示第t个待分类任务的样本数量,T为所述待分类任务的数量。
5.一种多任务字典单分类系统,其特征在于,包括:
获取模块,用于获取待分类任务;
字典学习模块,用于令每个所述待分类任务分别学习一个综合字典和一个分析字典;
优化模块,用于利用字典学习模型、分析非相关性项、分析系数编码提取项和多任务单分类项建立目标优化函数;其中,所述字典学习模型包括所述综合字典和所述分析字典;
分类器生成模块,用于求解所述优化函数分别得到线性分类器和非线性分类器;
分类模块,用于利用所述线性分类器和所述非线性分类器对所述待分类任务进行分类。
6.根据权利要求5所述的系统,其特征在于,所述系统还包括:
初始化模块,用于将所述综合字典、所述分析字典和所述编码系数初始化为具有单位F范数的任意矩阵。
7.根据权利要求5所述的系统,其特征在于,还包括:
约束模块,用于利用l2,1范数对所述系数编码进行约束处理。
8.一种多任务字典单分类装置,其特征在于,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述计算机程序时实现如权利要求1至4任意一项多任务字典单分类方法的步骤。
9.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至4任意一项多任务字典单分类方法的步骤。
CN201910711980.9A 2019-08-02 2019-08-02 一种多任务字典单分类方法、系统、装置及存储介质 Active CN110532384B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910711980.9A CN110532384B (zh) 2019-08-02 2019-08-02 一种多任务字典单分类方法、系统、装置及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910711980.9A CN110532384B (zh) 2019-08-02 2019-08-02 一种多任务字典单分类方法、系统、装置及存储介质

Publications (2)

Publication Number Publication Date
CN110532384A true CN110532384A (zh) 2019-12-03
CN110532384B CN110532384B (zh) 2022-04-19

Family

ID=68661220

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910711980.9A Active CN110532384B (zh) 2019-08-02 2019-08-02 一种多任务字典单分类方法、系统、装置及存储介质

Country Status (1)

Country Link
CN (1) CN110532384B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112817560A (zh) * 2021-02-04 2021-05-18 深圳市永达电子信息股份有限公司 一种基于表函数的计算任务处理方法、系统及计算机可读存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160012334A1 (en) * 2014-07-08 2016-01-14 Nec Laboratories America, Inc. Hierarchical Sparse Dictionary Learning (HiSDL) for Heterogeneous High-Dimensional Time Series
CN107563410A (zh) * 2017-08-04 2018-01-09 中国科学院自动化研究所 基于局部类别一致聚类和多任务学习的分类方法及设备
CN109829058A (zh) * 2019-01-17 2019-05-31 西北大学 一种基于多任务学习提高方言识别准确率的分类识别方法
CN109948735A (zh) * 2019-04-02 2019-06-28 广东工业大学 一种多标签分类方法、系统、装置及存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160012334A1 (en) * 2014-07-08 2016-01-14 Nec Laboratories America, Inc. Hierarchical Sparse Dictionary Learning (HiSDL) for Heterogeneous High-Dimensional Time Series
CN107563410A (zh) * 2017-08-04 2018-01-09 中国科学院自动化研究所 基于局部类别一致聚类和多任务学习的分类方法及设备
CN109829058A (zh) * 2019-01-17 2019-05-31 西北大学 一种基于多任务学习提高方言识别准确率的分类识别方法
CN109948735A (zh) * 2019-04-02 2019-06-28 广东工业大学 一种多标签分类方法、系统、装置及存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
GU, SHUHANG等: "Projective dictionary pair learning for pattern classification", 《ADVANCES IN NEURAL INFORMATION PROCESSING SYSTEMS》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112817560A (zh) * 2021-02-04 2021-05-18 深圳市永达电子信息股份有限公司 一种基于表函数的计算任务处理方法、系统及计算机可读存储介质
CN112817560B (zh) * 2021-02-04 2023-07-04 深圳市永达电子信息股份有限公司 一种基于表函数的计算任务处理方法、系统及计算机可读存储介质

Also Published As

Publication number Publication date
CN110532384B (zh) 2022-04-19

Similar Documents

Publication Publication Date Title
Ruby et al. Binary cross entropy with deep learning technique for image classification
Mishina et al. Boosted random forest
Titsias et al. Spike and slab variational inference for multi-task and multiple kernel learning
Kouw et al. Feature-level domain adaptation
US7412425B2 (en) Partially supervised machine learning of data classification based on local-neighborhood Laplacian Eigenmaps
Li et al. Conditional bernoulli mixtures for multi-label classification
CN113657425B (zh) 基于多尺度与跨模态注意力机制的多标签图像分类方法
Zhang et al. Binary-and multi-class group sparse canonical correlation analysis for feature extraction and classification
Gao et al. Edited AdaBoost by weighted kNN
US20160253597A1 (en) Content-aware domain adaptation for cross-domain classification
CN111444342B (zh) 一种基于多重弱监督集成的短文本分类方法
CN109948735B (zh) 一种多标签分类方法、系统、装置及存储介质
US20220058496A1 (en) Systems and methods for machine learning-based document classification
CN109063743B (zh) 基于半监督多任务学习的医疗数据分类模型的构建方法
US20230101817A1 (en) Systems and methods for machine learning-based data extraction
Huang et al. Hybrid Euclidean-and-Riemannian metric learning for image set classification
WO2022035942A1 (en) Systems and methods for machine learning-based document classification
CN111898704B (zh) 对内容样本进行聚类的方法和装置
Bawa et al. Emotional sentiment analysis for a group of people based on transfer learning with a multi-modal system
Xu et al. Multi-component transfer metric learning for handling unrelated source domain samples
CN117671704B (zh) 一种手写体数字识别方法、装置及计算机存储介质
CN110532384B (zh) 一种多任务字典单分类方法、系统、装置及存储介质
Dong et al. A supervised dictionary learning and discriminative weighting model for action recognition
Ohl et al. Generalised mutual information for discriminative clustering
CN116168437A (zh) 基于多任务的预测模型训练方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant