CN109034200A - 一种基于联合稀疏表示和多视图字典学习的学习方法 - Google Patents
一种基于联合稀疏表示和多视图字典学习的学习方法 Download PDFInfo
- Publication number
- CN109034200A CN109034200A CN201810666302.0A CN201810666302A CN109034200A CN 109034200 A CN109034200 A CN 109034200A CN 201810666302 A CN201810666302 A CN 201810666302A CN 109034200 A CN109034200 A CN 109034200A
- Authority
- CN
- China
- Prior art keywords
- dictionary
- learning
- view
- class
- sparse representation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 33
- 238000012549 training Methods 0.000 claims abstract description 22
- 230000006870 function Effects 0.000 claims description 30
- 239000011159 matrix material Substances 0.000 claims description 27
- 238000012360 testing method Methods 0.000 claims description 21
- 239000013598 vector Substances 0.000 claims description 12
- 230000008569 process Effects 0.000 claims description 10
- 238000013507 mapping Methods 0.000 claims description 9
- 238000006467 substitution reaction Methods 0.000 claims description 6
- 230000003247 decreasing effect Effects 0.000 claims description 3
- 230000007246 mechanism Effects 0.000 claims description 3
- 238000005215 recombination Methods 0.000 claims description 3
- 230000006798 recombination Effects 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims description 3
- 238000012545 processing Methods 0.000 abstract description 2
- 238000012706 support-vector machine Methods 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012067 mathematical method Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2136—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on sparsity criteria, e.g. with an overcomplete basis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/28—Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了一种基于联合稀疏表示和多视图字典学习的学习方法,先对稀疏ε‑图形产生视图进行产生k个视图,然后通过处理后把视图送入到多视图联合稀疏表示,从而利用多视图字典学习,利用训练包的数据学习字典,运用字典学习匹配作为分类训练器。与采用常规分类器的方法不同,本发明具有在保证精准度的前提下速度得到很大提升,节约了时间,而且对参数的要求简单,可应用在更广泛的领域。
Description
技术领域
本发明涉及机器学习领域,更具体地,涉及一种基于联合稀疏表示和多视图字典学习的学习方法。
背景技术
目前,多示例学习框架的提出在国际机器学习界引起了极大的反响,多示例学习已经取得了一定的研究成果,一些常用的数学方法均可进行扩展,进行多示例的使用,主要为:BP神经网络、K近邻方法、贝叶斯分类的图像检索方法和SVM方法。但是,如上所述,现有的算法主要利用数据的聚类,构造分类器进行对多示例进行分析和分类,但是在实际使用中,数据不一定都能保证高度集中和特征化,算法可能存在鲁棒性不足的问题,导致分类的准确率无法进一步地提高。
发明内容
本发明为克服上述现有技术所述的缺陷,把多视图和多示例整合到一个统一的框架,利用多视图的检索和字典学习,提供一种基于联合稀疏表示和多视图字典学习的多视图多示例学习方法。
为解决上述技术问题,本发明的技术方案如下:
一种基于联合稀疏表示和多视图字典学习的学习方法,包括以下步骤:
S1.选定ε图形和l1图形,基于稀疏ε图形去构造若干个包Xi的图形;
S2.通过l1图形计算稀疏系数向量使稀疏ε图形中的顶点xi,j和它的边缘到另外1个顶点满足以下函数:
以及以下函数:
S3.对于步骤S1中的包Xi,通过稀疏ε-图形并设置k种参数,产生k个视图,用于表达Xi的内在上下文结构;
S4.构建映射函数并将步骤S2产生的k个视图映射到高纬度的空间,得到新的映射函数
S5.选定总字典作为多视图字典,总字典包括若干个子字典,子字典作为包Xi的学习字典,利用核函数对字典学习进行优化;
S6.选定标签和含有k个图形的测试包,通过多视图学习得到权重矩阵,对测试包进行分类,并将标签分配至相应的测试包的分类中。
进一步地,所述步骤S2中计算稀疏系数向量α的具体过程如下:
采用以下函数:
其中,||xi,j-Uα||2是线性的重建误差,第二项是利用正则化系数λ控制稀疏性α;顶点xi,j到其它示例的边缘由稀疏性α决定;
基于欧氏距离定义权重矩阵Q,其函数如下:
其中,是欧氏距离的单调递减函数;通过引入权重矩阵Q,得到利用欧氏距离的函数优化上面的公式,得到以下函数:
进一步地,在所述步骤S3中,对包Xi设置参数的的方式为{<λ1,ε1>,<λ2,ε2>,…<λK,εK>}并产生k个不同的视图Γi={Gi,1,Gi,2,…Gi,k}。
进一步地,所述步骤S5的具体过程如下:
将步骤S3中得到的每一个包的k个图形的特征构成一个特征矩阵:
定义多视图的字典D={D1,D2,…,Dk},用于给所有的训练样本学习,字典D包含多个类特定子字典
其中,是第j类的子字典,包的视图的稀疏表示如下:
其中,的稀疏表示系数向量,而γ是正则化系数;为了考虑所有的k个视图,稀疏表示则如以下公式:
其中,W=[W1,W2,…,WK]∈RM×k由堆叠K列系数向量Wk而获得;表示系数矩阵W的一个子字典相对应中的第j类;为了改善稀疏性,应用l1的标准,加入了l1标准后,得到新的稀疏表示:
类特定的多视图联合稀疏表示在上式中重组包Xτ,同时考虑多视图和类别;根据以上公式和训练包学习字典D={D1,D2,…,Dk},以及为每一个类学习类特定的子字典
基于所述子字典,引入第i个训练包的第j类的重组系数矩阵参数用θj={Xi|yi=j}表示所有训练包的第j类的,新的联合稀疏表示如下:
将上式的||Pi||2,1代入||Pi||2,1=∑j||[Pi]j||2,得到[Pi]j,[Pi]j表示Pi的第j行;
引入线性的转换矩阵得到用于对进行学习,新的联合稀疏表示如以下函数:
进一步地,在所述步骤S5中,为了平衡每一个类别的字典的大小,类别的数量与字典被分出的类别一致;
采用惩罚机制,用于避免出现过拟合的状态,在新的联合稀疏表示中添加正则化系数ξ使保持平衡,具体公式如下:
进一步地,所述步骤S6的具体过程如下:
在所述步骤S5得到的字典D={D1,D2,…,Dk}的基础上,选定1个有着k个图形的测试包,以及1个未知的标签(XT,ΓT=<GT,1,GT,2,…,GT,K>,yT);
通过用GT,K替换Gτ,K代入公式中,得到系数矩阵W;
在任何一个测试包中的第j∈{1,2,…,C}类中的重建残差Ej(XT),具体公式如下:
其中,是第k个视图中测试包和类中所有训练数据之间的核矩阵,则是第k个视图中所有的训练包中的核矩阵;分配给测试包XT的标签yT是由最小重建残差得到的,其公式如下:
通过以上步骤,先对稀疏ε-图形产生视图进行产生k个视图,然后通过处理后把视图送入到多视图联合稀疏表示,从而利用多视图字典学习,利用训练包的数据学习字典,运用字典学习匹配作为分类训练器。
与现有技术相比,本发明技术方案的有益效果是:
本发明在运用现有联合稀疏表示方法以及采用字典学习方法的基础上,结合稀疏ε-图形和多视图联合稀疏表示以及多视图字典学习,与常规采用K-means(K邻近算法)分类、SVM(支持向量机)等分类作为分类器的方法不同,本发明具有在保证精准度的前提下速度得到很大提升,节约了时间,而且对参数的要求简单,可应用在更广泛的领域。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是基于联合稀疏表示和多视图字典学习的学习方法流程示意图。
具体实施方式
附图仅用于示例性说明,不能理解为对本专利的限制;
对于本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
下面结合附图和实施例对本发明的技术方案做进一步的说明。
一种基于联合稀疏表示和多视图字典学习的学习方法,其过程如图1所示,包括以下步骤:
S1.选定ε图形和l1图形,基于稀疏ε图形去构造若干个包Xi的图形;
S2.通过l1图形计算稀疏系数向量使稀疏ε图形中的顶点xi,j和它的边缘到另外1个顶点满足以下函数:
以及以下函数:
S3.对于步骤S1中的包Xi,通过稀疏ε-图形并设置k种参数,产生k个视图,用于表达Xi的内在上下文结构;
S4.构建映射函数并将步骤S2产生的k个视图映射到高纬度的空间,得到新的映射函数
S5.选定总字典作为多视图字典,总字典包括若干个子字典,子字典作为包Xi的学习字典,利用核函数对字典学习进行优化;
S6.选定标签和含有k个图形的测试包,通过多视图学习得到权重矩阵,对测试包进行分类,并将标签分配至相应的测试包的分类中。
在本实施例中,步骤S2中计算稀疏系数向量α的具体过程如下:
采用以下函数:
其中,||xi,j-Uα||2是线性的重建误差,第二项是利用正则化系数λ控制稀疏性α;顶点xi,j到其它示例的边缘由稀疏性α决定;
基于欧氏距离定义权重矩阵Q,其函数如下:
其中,是欧氏距离的单调递减函数;通过引入权重矩阵Q,得到利用欧氏距离的函数优化上面的公式,得到以下函数:
在本实施例中,在步骤S3中,对包Xi设置参数的的方式为{<λ1,ε1>,<λ2,ε2>,…<λK,εK>}并产生k个不同的视图Γi={Gi,1,Gi,2,…Gi,k}。
在本实施例中,步骤S5的具体过程如下:
将步骤S3中得到的每一个包的k个图形的特征构成一个特征矩阵:
定义多视图的字典D={D1,D2,…,Dk},用于给所有的训练样本学习,字典D包含多个类特定子字典
其中,是第j类的子字典,包的视图的稀疏表示如下:
其中,的稀疏表示系数向量,而γ是正则化系数;为了考虑所有的k个视图,稀疏表示则如以下公式:
其中,W=[W1,W2,…,WK]∈RM×k由堆叠K列系数向量Wk而获得;表示系数矩阵W的一个子字典相对应中的第j类;为了改善稀疏性,应用l1的标准,加入了l1标准后,得到新的稀疏表示:
类特定的多视图联合稀疏表示在上式中重组包Xτ,同时考虑多视图和类别;根据以上公式和训练包学习字典D={D1,D2,…,Dk},以及为每一个类学习类特定的子字典
基于子字典,引入第i个训练包的第j类的重组系数矩阵参数用θj={Xi|yi=j}表示所有训练包的第j类的,新的联合稀疏表示如下:
将上式的||Pi||2,1代入||Pi||2,1=∑j||[Pi]j||2,得到[Pi]j,[Pi]j表示Pi的第j行;
引入线性的转换矩阵得到用于对进行学习,新的联合稀疏表示如以下函数:
在本实施例中,在步骤S5中,为了平衡每一个类别的字典的大小,类别的数量与字典被分出的类别一致;
采用惩罚机制,用于避免出现过拟合的状态,在新的联合稀疏表示中添加正则化系数ξ使保持平衡,具体公式如下:
在本实施例中,步骤S6的具体过程如下:
在步骤S5得到的字典D={D1,D2,…,Dk}的基础上,选定1个有着k个图形的测试包,以及1个未知的标签(XT,ΓT=<GT,1,GT,2,…,GT,K>,yT);
通过用GT,K替换Gτ,K代入公式中,得到系数矩阵W;
在任何一个测试包中的第j∈{1,2,…,C}类中的重建残差Ej(XT),具体公式如下:
其中,是第k个视图中测试包和类中所有训练数据之间的核矩阵,则是第k个视图中所有的训练包中的核矩阵;分配给测试包XT的标签yT是由最小重建残差得到的,其公式如下:
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。
Claims (6)
1.一种基于联合稀疏表示和多视图字典学习的学习方法,其特征在于,包括以下步骤:
S1.选定ε图形和l1图形,基于稀疏ε图形去构造若干个包Xi的图形;
S2.通过l1图形计算稀疏系数向量使稀疏ε图形中的顶点xi,j和它的边缘到另外1个顶点满足以下函数:
以及以下函数:
S3.对于步骤S1中的包Xi,通过稀疏ε-图形并设置k种参数,产生k个视图,用于表达Xi的内在上下文结构;
S4.构建映射函数并将步骤S2产生的k个视图映射到高纬度的空间,得到新的映射函数
S5.选定总字典作为多视图字典,总字典包括若干个子字典,子字典作为包Xi的学习字典,利用核函数对字典学习进行优化;
S6.选定标签和含有k个图形的测试包,通过多视图学习得到权重矩阵,对测试包进行分类,并将标签分配至相应的测试包的分类中。
2.根据权利要求1所述的基于联合稀疏表示和多视图字典学习的学习方法,其特征在于,所述步骤S2中计算稀疏系数向量α的具体过程如下:
采用以下函数:
其中,||xi,j-Uα||2是线性的重建误差,第二项是利用正则化系数λ控制稀疏性α;顶点xi,j到其它示例的边缘由稀疏性α决定;
基于欧氏距离定义权重矩阵Q,其函数如下:
其中,是欧氏距离的单调递减函数;通过引入权重矩阵Q,得到利用欧氏距离的函数优化上面的公式,得到以下函数:
3.根据权利要求1所述的基于联合稀疏表示和多视图字典学习的学习方法,其特征在于,在所述步骤S3中,对包Xi设置参数的的方式为{<λ1,ε1>,<λ2,ε2>,…<λK,εK>}并产生k个不同的视图Γi={Gi,1,Gi,2,…Gi,k}。
4.根据权利要求1所述的基于联合稀疏表示和多视图字典学习的学习方法,其特征在于,所述步骤S5的具体过程如下:
将步骤S3中得到的每一个包的k个图形的特征构成一个特征矩阵:
定义多视图的字典D={D1,D2,…,Dk},用于给所有的训练样本学习,字典D包含多个类特定子字典
其中,是第j类的子字典,包的视图的稀疏表示如下:
其中,Wk∈RM是的稀疏表示系数向量,而γ是正则化系数;为了考虑所有的k个视图,稀疏表示则如以下公式:
其中,W=[W1,W2,…,WK]∈RM×k由堆叠K列系数向量Wk而获得;表示系数矩阵W的一个子字典相对应中的第j类;为了改善稀疏性,应用l1的标准,加入了l1标准后,得到新的稀疏表示:
类特定的多视图联合稀疏表示在上式中重组包Xτ,同时考虑多视图和类别;根据以上公式和训练包学习字典D={D1,D2,…,Dk},以及为每一个类学习类特定的子字典
基于所述子字典,引入第i个训练包的第j类的重组系数矩阵参数用θj={Xi|yi=j}表示所有训练包的第j类的,新的联合稀疏表示如下:
将上式的||Pi||2,1代入||Pi||2,1=∑j||[Pi]j||2,得到[Pi]j,[Pi]j表示Pi的第j行;
引入线性的转换矩阵得到用于对进行学习,新的联合稀疏表示如以下函数:
5.根据权利要求4所述的基于联合稀疏表示和多视图字典学习的学习方法,其特征在于,在所述步骤S5中,为了平衡每一个类别的字典的大小,类别的数量与字典被分出的类别一致;
采用惩罚机制,用于避免出现过拟合的状态,在新的联合稀疏表示中添加正则化系数ξ使保持平衡,具体公式如下:
6.根据权利要求1所述的基于联合稀疏表示和多视图字典学习的学习方法,其特征在于,所述步骤S6的具体过程如下:
在所述步骤S5得到的字典D={D1,D2,…,Dk}的基础上,选定1个有着k个图形的测试包,以及1个未知的标签(XT,ΓT=<GT,1,GT,2,…,GT,K>,yT);
通过用GT,K替换Gτ,K代入公式中,得到系数矩阵W;
在任何一个测试包中的第j∈{1,2,…,C}类中的重建残差Ej(XT),具体公式如下:
其中,是第k个视图中测试包和类中所有训练数据之间的核矩阵,则是第k个视图中所有的训练包中的核矩阵;分配给测试包XT的标签yT是由最小重建残差得到的,其公式如下:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810666302.0A CN109034200A (zh) | 2018-06-22 | 2018-06-22 | 一种基于联合稀疏表示和多视图字典学习的学习方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810666302.0A CN109034200A (zh) | 2018-06-22 | 2018-06-22 | 一种基于联合稀疏表示和多视图字典学习的学习方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109034200A true CN109034200A (zh) | 2018-12-18 |
Family
ID=64610848
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810666302.0A Pending CN109034200A (zh) | 2018-06-22 | 2018-06-22 | 一种基于联合稀疏表示和多视图字典学习的学习方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109034200A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109919165A (zh) * | 2019-03-18 | 2019-06-21 | 广东工业大学 | 一种基于相似度的多示例字典学习分类方法及装置 |
CN109948735A (zh) * | 2019-04-02 | 2019-06-28 | 广东工业大学 | 一种多标签分类方法、系统、装置及存储介质 |
CN110222738A (zh) * | 2019-05-22 | 2019-09-10 | 重庆邮电大学 | 面向混合采样工业大数据的基于多视图字典学习分类方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105095863A (zh) * | 2015-07-14 | 2015-11-25 | 西安电子科技大学 | 基于相似性权值的半监督字典学习的人体行为识别方法 |
US20160283858A1 (en) * | 2015-03-24 | 2016-09-29 | International Business Machines Corporation | Multimodal Data Fusion by Hierarchical Multi-View Dictionary Learning |
CN106650769A (zh) * | 2016-09-28 | 2017-05-10 | 南京信息工程大学 | 基于线性表示多视图鉴别字典学习的分类方法 |
-
2018
- 2018-06-22 CN CN201810666302.0A patent/CN109034200A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160283858A1 (en) * | 2015-03-24 | 2016-09-29 | International Business Machines Corporation | Multimodal Data Fusion by Hierarchical Multi-View Dictionary Learning |
CN105095863A (zh) * | 2015-07-14 | 2015-11-25 | 西安电子科技大学 | 基于相似性权值的半监督字典学习的人体行为识别方法 |
CN106650769A (zh) * | 2016-09-28 | 2017-05-10 | 南京信息工程大学 | 基于线性表示多视图鉴别字典学习的分类方法 |
Non-Patent Citations (1)
Title |
---|
BING LI ET AL: "Multi-View Multi-Instance Learning Based on Joint Sparse Representation and Multi-View Dictionary Learning", 《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109919165A (zh) * | 2019-03-18 | 2019-06-21 | 广东工业大学 | 一种基于相似度的多示例字典学习分类方法及装置 |
CN109919165B (zh) * | 2019-03-18 | 2021-07-06 | 广东工业大学 | 一种基于相似度的多示例字典学习分类方法及装置 |
CN109948735A (zh) * | 2019-04-02 | 2019-06-28 | 广东工业大学 | 一种多标签分类方法、系统、装置及存储介质 |
CN109948735B (zh) * | 2019-04-02 | 2021-11-26 | 广东工业大学 | 一种多标签分类方法、系统、装置及存储介质 |
CN110222738A (zh) * | 2019-05-22 | 2019-09-10 | 重庆邮电大学 | 面向混合采样工业大数据的基于多视图字典学习分类方法 |
CN110222738B (zh) * | 2019-05-22 | 2021-05-18 | 重庆邮电大学 | 面向混合采样工业大数据的基于多视图字典学习分类方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108304936B (zh) | 机器学习模型训练方法和装置、表情图像分类方法和装置 | |
CN103150580B (zh) | 一种高光谱图像半监督分类方法及装置 | |
CN112396002A (zh) | 一种基于SE-YOLOv3的轻量级遥感目标检测方法 | |
US20160140425A1 (en) | Method and apparatus for image classification with joint feature adaptation and classifier learning | |
CN107832663A (zh) | 一种基于量子理论的多模态情感分析方法 | |
CN109034200A (zh) | 一种基于联合稀疏表示和多视图字典学习的学习方法 | |
CN114329031B (zh) | 一种基于图神经网络和深度哈希的细粒度鸟类图像检索方法 | |
CN109165673B (zh) | 基于度量学习和多示例支持向量机的图像分类方法 | |
WO2010062268A1 (en) | A method for updating a 2 dimensional linear discriminant analysis (2dlda) classifier engine | |
Achille et al. | Lqf: Linear quadratic fine-tuning | |
CN111178196B (zh) | 一种细胞分类的方法、装置及设备 | |
CN104951791A (zh) | 数据分类方法和装置 | |
CN114399649B (zh) | 一种基于学习图的快速多视图半监督学习方法及系统 | |
CN114092742A (zh) | 一种基于多角度的小样本图像分类装置和方法 | |
CN110111365A (zh) | 基于深度学习的训练方法和装置以及目标跟踪方法和装置 | |
CN107256411A (zh) | 特征选择和标记相关性联合学习的多标记数据分类方法 | |
CN114373093A (zh) | 基于直推式半监督深度学习的细粒度图像分类方法 | |
CN113344069B (zh) | 一种基于多维关系对齐的无监督视觉表征学习的图像分类方法 | |
Wu et al. | Forestdet: Large-vocabulary long-tailed object detection and instance segmentation | |
Dan et al. | PF‐ViT: Parallel and Fast Vision Transformer for Offline Handwritten Chinese Character Recognition | |
CN110199300A (zh) | 用于自动编码器的模糊输入 | |
Tan et al. | Wide Residual Network for Vision-based Static Hand Gesture Recognition. | |
Tang et al. | Prototypical variational autoencoder for 3d few-shot object detection | |
CN116168437A (zh) | 基于多任务的预测模型训练方法、装置、设备及存储介质 | |
Wang et al. | Multi-view deep metric learning for volumetric image recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20181218 |