CN107967343A - 一种多视图构建方法 - Google Patents

一种多视图构建方法 Download PDF

Info

Publication number
CN107967343A
CN107967343A CN201711304210.XA CN201711304210A CN107967343A CN 107967343 A CN107967343 A CN 107967343A CN 201711304210 A CN201711304210 A CN 201711304210A CN 107967343 A CN107967343 A CN 107967343A
Authority
CN
China
Prior art keywords
view
views
feature
subset
sub
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201711304210.XA
Other languages
English (en)
Other versions
CN107967343B (zh
Inventor
杨燕
常晓静
胡节
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southwest Jiaotong University
Original Assignee
Southwest Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southwest Jiaotong University filed Critical Southwest Jiaotong University
Priority to CN201711304210.XA priority Critical patent/CN107967343B/zh
Publication of CN107967343A publication Critical patent/CN107967343A/zh
Application granted granted Critical
Publication of CN107967343B publication Critical patent/CN107967343B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/904Browsing; Visualisation therefor

Landscapes

  • Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了一种多视图构建方法,涉及数据挖掘技术领域。运用特征选择算法对原始特征集进行特征选择,生成特征子集。其中,视图数量为V,特征选择算法的数量及特征子集的数量均与视图数量相同;将特征子集中重复出现两次或两次以上的特征筛选出来,构成一个公共特征集,并将每个特征子集中存在于公共特征集中的特征删除,生成新的特征子集,将该特征子集视为初始的V个视图;根据多视图互补性和一致性的性质,对多视图进行评价,运用希尔伯特‑施密特独立性度量方法量化视图间的依赖关系,同时运用协同正则化方法测量各视图间有差异的信息。

Description

一种多视图构建方法
技术领域
本发明涉及数据挖掘技术领域。
背景技术
随着信息技术的飞速发展,各个领域每天都会产生海量数据,这些数据不仅具有容量大增长速度快的特点,其数据类型和数据结构也变得越来越多样化,因此多视图数据的知识挖掘应运而生。多视图数据是从多个视角描述数据,每个视图存在独有的性质,又存在潜在联系,这也就决定了多视图互补性和一致性的特点。充分利用多视图的互补信息和视图间的一致性可以更好地挖掘数据中的潜在结构和知识。然而,不是所有领域都能得到数据的多个视图,在一些情况下我们只能获得单视图数据,并且该单视图具有很高维度,运用传统的数据挖掘技术很难取得较好的挖掘效果。现存在一些数据降维方法,可以通过特征变换的方式将原始数据特征转换到一个低维的空间,或者通过特征选择的方式,摒弃冗余的不相关的特征。但是特征变换的降维方式得到的特征集可理解性下降,无法直观地表达特征的含义,而特征选择的降维方式,选用单一的特征选择方法进行降维极有可能丢弃判别能力较强的特征。因此亟需一种学习方法,结合降维和多视图的优势,将高维特征进行分割,从而构建多个视图。
通过对现有的专利及相关技术的检索发现,现有的多视图构建的方法有:
(1)Sun S,Jin F,Tu W.View Construction for Multi-view Semi-supervisedLearning.International Symposium on Neural Networks(ISNN),6675,pp:595-601,2011.
提出了一种基于遗传算法的多视图构建方法,运用遗传算法生成多个候选特征子集,并用线性支持向量机作为分类器对生成的所有候选子集进行分类准确性度量,选取准确率最大的V个候选子集作为多个视图。
(2)Di W,Crawford M.View Generation for Multiview Maximum DisagreementBased Active Learning for Hyperspectral Image Classification.IEEETransactions on Geoscience&Remote Sensing,50(5),pp:1942-1954,2012.
文章针对特定的数据集即高光谱图像的特征进行了说明,同时提到了四种多视图生成的方法。其中基于相关性分割聚类的方法根据高光谱数据波段在频谱中顺序排列的特点将数据分割成几个不相交的连续特征子集,每个视图具有高的带内相关性但与其他视图的相关性低;基于k-means聚类的方法根据特征的相似度矩阵对特征进行聚类,其中一个簇代表一个视图;统一频带分割方法将整个数据段等间隔划分,保证视图的充分性;随机生成的方法随机选择特征组成多个视图。
(3)Chen M,Weinberger K,Chen Y.Automatic Feature Decomposition forSingle View Co-training.International Conference on International Conferenceon Machine Learning(ICML),pp:953-960,2011.
提出了一种基于协同训练的特征分割方法,将逻辑回归作为分类器进行协同训练,并加入一定的约束条件,使得每个特征获得的权重值,只有一个为1其余为0,以此自动地将特征进行分割,并得到多个视图及多个分类器。
(4)Kumae V,Minz S.Multi-view ensemble learning:an optimal feature setpartitioning for high-dimensional data classification.Knowledge&InformationSystems,49,pp:1-59,2015.
该方法将每个特征加入到不同视图,采用支持向量机对每个视图进行分类准确性度量,找出准确度最高的视图,并对比加入某特征前后的准确率,若准确率上升,则将该特征加入,否则抛弃,重复该过程直到所有特征被检测并输出最终V个视图。
可以看出现存的方法虽然存在一定优势,但也存在一些不足:采用遗传算法生成候选子集,其对初始种群的选择有一定的依赖性,得到的结果可靠性较差;根据某一数据的特性进行多视图的构建很难适用于其他数据,泛化能力较弱;而运用分类器分类准确度对视图进行评估,没有考虑视图间的相关关系,构建得到的多视图性能存在一定局限性。
目前存在的多视图构建方法相对较少,并且没有将多视图的互补性和一致性特征融入到构建的过程中。为了提高多视图构建的效率,得到更加多样化的视图,鉴于以上陈述的已有方案的不足,本发明旨在提供效率更高、更完善的方案,并克服现有技术存在的缺陷。
发明内容
本发明目的是提供一种多视图构建方法,它能有效地解决多视图的互补性和一致性特征融入到构建的过程中的技术问题。
本发明目的是通过一下技术方案来实现的:一种多视图构建方法,包括以下几个步骤:
步骤一、运用特征选择算法对原始特征集F={f1,f2,…,fN}进行特征选择,生成特征子集Subset={Sub1,Sub2,…,SubV},其中,视图数量为V,特征选择算法的数量及特征子集的数量均与视图数量相同;
步骤二、将特征子集Subset中重复出现两次或两次以上的特征筛选出来,构成一个公共特征集F′={f1′,f2′,…,fm′},并将每个特征子集中存在于公共特征集F′中的特征删除,生成新的特征子集Subset′={Sub′1,Sub′2,…,Sub′V},将该特征子集Subset′视为初始的V个视图;
步骤三、根据多视图互补性和一致性的性质,对多视图进行评价,运用希尔伯特-施密特独立性度量方法量化视图间的依赖关系,同时运用协同正则化方法测量各视图间有差异的信息,其计算步骤如下:
a、视V(v)和V(w)为第v个视图和第w个视图的符号表示,假设V(v)和V(w)均为可分度量空间,那么选取核函数k(v),将V(v)映射到O中,表示为φ:V(v)→O;选取核函数k(w),将V(w)映射到G中,表示为V(w)→G;
其中,核函数k(v)(xi,xj)=<φ(xi),φ(xj)>,核函数xi和xj分别表示视图的第i个和第j个样本,O和G分别表示V(v)和V(w)的再生核希尔伯特空间;
b、量化视图V(v)与V(w)之间的依赖关系,用符号D(V(v),V(w))来表示,其计算公式如下:D(V(v),V(w))=(n-1)-2tr(K(v)HK(w)H)
其中,tr(.)为矩阵的迹,I为n×n的单位矩阵,n为数据样本个数,e为元素值均为1的列向量,上标T为向量的转置,K(v)、K(w)分别为核函数k(v)、核函数k(w)的Gram矩阵,即
c、根据谱聚类算法的思想,计算每个视图的原始数据在嵌入空间上的表示,其计算公式如下:
其中,R为实数,L(v)为第v个视图的拉普拉斯矩阵,C为样本种类或簇结构的数量,U(v)为第v个视图的原始数据在嵌入空间上的表示;
之后运用协同正则化方法测量视图V(v)与V(w)间的差异性,用符号S(U(v),U(w))来表示,其计算公式如下:
式中,两个等号中间的“‖.‖F”式子表示矩阵的Frobenius范数,U(v)和U(w)分别为第v个和第w个视图的原始数据在嵌入空间上的表示,分别为U(v)和U(w)的相似度矩阵,并取线性核函数作为相似度测量标准,即
d、对所有视图的依赖关系及差异性进行度量得到视图评价值,其计算公式如下:
其中,视图的独立性和一致性与评价值正相关;
步骤四、将公共特征集F′={f1′,f2′,…,fm′}的第一个特征f1′分别并入V个视图,并评估f1′并入每个视图后的视图评价值,选择评价值最大的视图,若f1′并入第t个视图获得最大的评价值,则该视图记为V(t),比较V(t)并入f1′前和并入f1′后的视图评价值,若评价值增大,则将f1′并入V(t)中,否则摒弃该特征;重复该步骤,直到公共特征集F′中的所有特征都被并入或摒弃,此时构成多个视图。
与现存的多视图构建方法相比,本发明的优点和效果:
1、本发明针对多视图的构建问题,采用特征分割的思想,选取的多个特征选择方法设计思路迥异,增大了初始视图的多样性;
2、在为公共特征集中的特征选择视图时,不涉及任何学习算法,而是根据视图的性质对视图的互补性和一致性进行检测,不仅降低了视图构建的复杂度,同时提升了多视图的质量;
3、由于视图构建过程中不涉及任何学习算法,在后续的应用中很容易将其运用于不同学习任务中;
4、该发明的思路是对高维数据进行分割,不仅达到了降维的效果,还发挥了多视图的优势。
附图说明
图1为本发明的流程图。
具体实施方式
下面结合附图对本发明作进一步的描述。
参见图1,本发明提供一种多视图构建方法,包括以下内容:
运用设计思路迥异的多个特征选择算法对原始特征集F={f1,f2,…,fN}进行特征选择得到多个特征子集Subset={Sub1,Sub2,…,SubV},其中N表示原始特征的数量,V表示构建视图的数量,特征选择算法的数量及特征子集的数量均与视图数量相同。将特征子集中出现两次和两次以上的特征提取出组成公共特征集F′={f1′,f2′,…,fm′},其中,m表示公共特征集的数量,并将每个特征子集中存在于公共特征集F′的特征删除,生成更新的特征子集Subset′={Sub′1,Sub′2,…,Sub′V},将新的特征子集视为V个初始视图;并运用视图评价策略评价当前的多视图,评价值记为E0。从公共特征集F′的第一个特征f1′开始,依次将公共特征插入到适当的视图中或摒弃。插入或摒弃的执行过程如下:
1、将公共特征集F′中的一个特征fi′暂时插入到第一个视图V(1)中,计算此时多视图的评价值,记为E1,并用字母i表示当前特征的索引号。将fi′分别暂时插入V(2),V(3),...,V(v)中,分别计算相应的多视图评价值,记为E2,E3,...,Ev。比较E1,E2,...,Ev的值,选取最大的评价值,记为E′,若该评价值对应的视图为第t个视图,则该视图记为V(t)
2、比较插入fi′之前的视图评价值E0与插入fi′之后视图的最大评价值E′,若E′较大,则将fi′真正插入V(t)中,并将E′的值赋给E0,i的值加1,即i=i+1;否则,废弃fi′,将i的值加1;
3、重复步骤1和2,直到公共特征集F′的所有特征被插入视图或被废弃,此时得到多视图V={V(1),V(2),…,V(v)}。
在为公共特征集中的特征选择视图时,选取评价值较大的视图是因为评价值越大,说明视图的独立性和一致性越大。独立性反映了视图间的互补信息量,因此独立性越大,视图间所含的信息越多;而视图间的一致性越大,越有利于后续的学习任务。
从整个多视图构建的流程可以得出这样的结论:运用设计思路迥异的多个特征选择方法构建初始视图,丰富了视图的多样性,并过滤了冗余的不相关的特征,提升了视图构建的效率。在视图评价时充分考虑多视图的性质,使得构建的多视图具有优良的特性。因此本发明具有一定的实际意义。

Claims (5)

1.一种多视图构建方法,包括以下几个步骤:
步骤一、运用特征选择算法对原始特征集F={f1,f2,…,fN}进行特征选择,生成特征子集Subset={Sub1,Sub2,…,SubV},其中,视图数量为V,特征选择算法的数量及特征子集的数量均与视图数量相同;
步骤二、将特征子集Subset中重复出现两次或两次以上的特征筛选出来,构成一个公共特征集F′={f1′,f2′,…,fm′},并将每个特征子集中存在于公共特征集F′中的特征删除,生成新的特征子集Subset′={Sub′1,Sub′2,…,Sub′V},将该特征子集Subset′视为初始的V个视图;
步骤三、根据多视图互补性和一致性的性质,对多视图进行评价,运用希尔伯特-施密特独立性度量方法量化视图间的依赖关系,同时运用协同正则化方法测量各视图间有差异的信息,其计算步骤如下:
a、视V(v)和V(w)为第v个视图和第w个视图的符号表示,假设V(v)和V(w)均为可分度量空间,那么选取核函数k(v),将V(v)映射到O中,表示为φ:V(v)→O;选取核函数k(w),将V(w)映射到G中,表示为V(w)→G;
其中,核函数k(v)(xi,xj)=<φ(xi),φ(xj)>,核函数xi和xj分别表示视图的第i个和第j个样本,O和G分别表示V(v)和V(w)的再生核希尔伯特空间;
b、量化视图V(v)与V(w)之间的依赖关系,用符号D(V(v),V(w))来表示,其计算公式如下:D(V(v),V(w))=(n-1)-2tr(K(v)HK(w)H)
其中,tr(.)为矩阵的迹,I为n×n的单位矩阵,n为数据样本个数,e为元素值均为1的列向量,上标T为向量的转置,K(v)、K(w)分别为核函数k(v)、核函数k(w)的Gram矩阵,即
c、根据谱聚类算法的思想,计算每个视图的原始数据在嵌入空间上的表示,其计算公式如下:
<mrow> <munder> <mi>max</mi> <mrow> <msup> <mi>U</mi> <mrow> <mo>(</mo> <mi>v</mi> <mo>)</mo> </mrow> </msup> <mo>&amp;Element;</mo> <msup> <mi>R</mi> <mrow> <mi>n</mi> <mo>*</mo> <mi>C</mi> </mrow> </msup> </mrow> </munder> <mi>t</mi> <mi>r</mi> <mrow> <mo>(</mo> <msup> <mi>U</mi> <msup> <mrow> <mo>(</mo> <mi>v</mi> <mo>)</mo> </mrow> <mi>T</mi> </msup> </msup> <msup> <mi>L</mi> <mrow> <mo>(</mo> <mi>v</mi> <mo>)</mo> </mrow> </msup> <msup> <mi>U</mi> <mrow> <mo>(</mo> <mi>v</mi> <mo>)</mo> </mrow> </msup> <mo>)</mo> </mrow> </mrow>
其中,R为实数,L(v)为第v个视图的拉普拉斯矩阵,C为样本种类或簇结构的数量,U(v)为第v个视图的原始数据在嵌入空间上的表示;
之后运用协同正则化方法测量视图V(v)与V(w)间的差异性,用符号S(U(v),U(w))来表示,其计算公式如下:
<mrow> <mi>S</mi> <mrow> <mo>(</mo> <msup> <mi>U</mi> <mrow> <mo>(</mo> <mi>v</mi> <mo>)</mo> </mrow> </msup> <mo>,</mo> <msup> <mi>U</mi> <mrow> <mo>(</mo> <mi>w</mi> <mo>)</mo> </mrow> </msup> <mo>)</mo> </mrow> <mo>=</mo> <mo>|</mo> <mo>|</mo> <mfrac> <msub> <mi>K</mi> <msup> <mi>U</mi> <mrow> <mo>(</mo> <mi>v</mi> <mo>)</mo> </mrow> </msup> </msub> <mrow> <mo>|</mo> <mo>|</mo> <msub> <mi>K</mi> <msup> <mi>U</mi> <mrow> <mo>(</mo> <mi>v</mi> <mo>)</mo> </mrow> </msup> </msub> <mo>|</mo> <msubsup> <mo>|</mo> <mi>F</mi> <mn>2</mn> </msubsup> </mrow> </mfrac> <mo>-</mo> <mfrac> <msub> <mi>K</mi> <msup> <mi>U</mi> <mrow> <mo>(</mo> <mi>w</mi> <mo>)</mo> </mrow> </msup> </msub> <mrow> <mo>|</mo> <mo>|</mo> <msub> <mi>K</mi> <msup> <mi>U</mi> <mrow> <mo>(</mo> <mi>w</mi> <mo>)</mo> </mrow> </msup> </msub> <mo>|</mo> <msubsup> <mo>|</mo> <mi>F</mi> <mn>2</mn> </msubsup> </mrow> </mfrac> <mo>|</mo> <msubsup> <mo>|</mo> <mi>F</mi> <mn>2</mn> </msubsup> <mo>=</mo> <mo>-</mo> <mi>t</mi> <mi>r</mi> <mrow> <mo>(</mo> <msup> <mi>U</mi> <mrow> <mo>(</mo> <mi>v</mi> <mo>)</mo> </mrow> </msup> <msup> <mi>U</mi> <msup> <mrow> <mo>(</mo> <mi>v</mi> <mo>)</mo> </mrow> <mi>T</mi> </msup> </msup> <msup> <mi>U</mi> <mrow> <mo>(</mo> <mi>w</mi> <mo>)</mo> </mrow> </msup> <msup> <mi>U</mi> <msup> <mrow> <mo>(</mo> <mi>w</mi> <mo>)</mo> </mrow> <mi>T</mi> </msup> </msup> <mo>)</mo> </mrow> </mrow>
式中,两个等号中间的“‖.‖F”式子表示矩阵的Frobenius范数,U(v)和U(w)分别为第v个和第w个视图的原始数据在嵌入空间上的表示,分别为U(v)和U(w)的相似度矩阵,并取线性核函数作为相似度测量标准,即
d、对所有视图的依赖关系及差异性进行度量得到视图评价值,其计算公式如下:
其中,视图的独立性和一致性与评价值正相关;
步骤四、将公共特征集F′={f1′,f2′,…,fm′}的第一个特征f1′分别并入V个视图,并评估f1′并入每个视图后的视图评价值,选择评价值最大的视图,若f1′并入第t个视图获得最大的评价值,则该视图记为V(t),比较V(t)并入f1′前和并入f1′后的视图评价值,若评价值增大,则将f1′并入V(t)中,否则摒弃该特征;重复该步骤,直到公共特征集F′中的所有特征都被并入或摒弃,此时构成多个视图。
2.根据权利要求1所述的一种多视图构建方法,其特征在于:步骤一中所述的特征选择算法应选取设计思路迥异的特征选择算法进行特征选取。
3.根据权利要求1所述的一种多视图构建方法,其特征在于:步骤二中所述的公共特征集是能够充分反映数据潜在结构的特征集。
4.根据权利要求1所述的一种多视图构建方法,其特征在于:步骤三中所述的对多视图进行评价,是运用希尔伯特-施密特独立性度量方法量化视图间的依赖关系,视图间的互补信息量随着依赖关系的减小而增加。
5.根据权利要求1所述的一种多视图构建方法,其特征在于:步骤三中所述的对多视图进行评价,是运用协同正则化测量视图间的差异信息,视图间的一致性随着视图间的差异信息减小而增大。
CN201711304210.XA 2017-12-11 2017-12-11 一种多视图构建方法 Active CN107967343B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711304210.XA CN107967343B (zh) 2017-12-11 2017-12-11 一种多视图构建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711304210.XA CN107967343B (zh) 2017-12-11 2017-12-11 一种多视图构建方法

Publications (2)

Publication Number Publication Date
CN107967343A true CN107967343A (zh) 2018-04-27
CN107967343B CN107967343B (zh) 2021-04-13

Family

ID=61998518

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711304210.XA Active CN107967343B (zh) 2017-12-11 2017-12-11 一种多视图构建方法

Country Status (1)

Country Link
CN (1) CN107967343B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109785915A (zh) * 2018-12-24 2019-05-21 东软集团股份有限公司 数据征集方法,装置,存储介质及电子设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104809468A (zh) * 2015-04-20 2015-07-29 东南大学 一种基于不定核的多视图分类方法
US20160110478A1 (en) * 2014-10-17 2016-04-21 General Electric Company System and methods for quantization and featurization of time-series data
US20160246924A1 (en) * 2013-01-17 2016-08-25 Edico Genome Corporation Bioinformatics Systems, Apparatuses, And Methods Executed On An Integrated Circuit Processing Platform

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160246924A1 (en) * 2013-01-17 2016-08-25 Edico Genome Corporation Bioinformatics Systems, Apparatuses, And Methods Executed On An Integrated Circuit Processing Platform
US20160110478A1 (en) * 2014-10-17 2016-04-21 General Electric Company System and methods for quantization and featurization of time-series data
CN104809468A (zh) * 2015-04-20 2015-07-29 东南大学 一种基于不定核的多视图分类方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
杨燕: "基于计算智能的聚类组合算法研究", 《中国博士学位论文全文数据库 信息科技辑》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109785915A (zh) * 2018-12-24 2019-05-21 东软集团股份有限公司 数据征集方法,装置,存储介质及电子设备
CN109785915B (zh) * 2018-12-24 2021-03-19 东软集团股份有限公司 数据征集方法,装置,存储介质及电子设备

Also Published As

Publication number Publication date
CN107967343B (zh) 2021-04-13

Similar Documents

Publication Publication Date Title
Cheng et al. Scene recognition with objectness
Zhang et al. Consensus one-step multi-view subspace clustering
Pan et al. Multi-view contrastive graph clustering
CN109472194B (zh) 一种基于cblstm算法模型的运动想象脑电信号特征识别方法
Jia et al. Image transformation based on learning dictionaries across image spaces
Liu et al. Sparse representation using nonnegative curds and whey
Sun et al. Self-supervised deep multi-view subspace clustering
CN109543727B (zh) 一种基于竞争重构学习的半监督异常检测方法
Li et al. Affinity learning via a diffusion process for subspace clustering
Zou et al. Chronological classification of ancient paintings using appearance and shape features
Wang et al. Person re-identification in identity regression space
Dai et al. Unsupervised high-level feature learning by ensemble projection for semi-supervised image classification and image clustering
Duan et al. Improving spectral clustering with deep embedding and cluster estimation
Saito et al. An active learning paradigm based on a priori data reduction and organization
US20220092108A1 (en) Determining fine-grain visual style similarities for digital images by extracting style embeddings disentangled from image content
Li et al. Embedded stacked group sparse autoencoder ensemble with L1 regularization and manifold reduction
Chen et al. Image classification based on convolutional denoising sparse autoencoder
Jo et al. Disentangled representation of data distributions in scatterplots
Kate et al. A 3 Tier CNN model with deep discriminative feature extraction for discovering malignant growth in multi-scale histopathology images
CN111680579A (zh) 一种自适应权重多视角度量学习的遥感图像分类方法
Friedman et al. Active learning using a variational dirichlet process model for pre-clustering and classification of underwater stereo imagery
Bai et al. HVAE: A deep generative model via hierarchical variational auto-encoder for multi-view document modeling
Banda et al. On the surprisingly accurate transfer of image parameters between medical and solar images
CN107967343B (zh) 一种多视图构建方法
Feng et al. Multi-granularity feature learning network for deep hashing

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant