CN112861626A - 基于小样本学习的细粒度表情分类方法 - Google Patents

基于小样本学习的细粒度表情分类方法 Download PDF

Info

Publication number
CN112861626A
CN112861626A CN202110010281.9A CN202110010281A CN112861626A CN 112861626 A CN112861626 A CN 112861626A CN 202110010281 A CN202110010281 A CN 202110010281A CN 112861626 A CN112861626 A CN 112861626A
Authority
CN
China
Prior art keywords
class
representing
feature
image
center
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110010281.9A
Other languages
English (en)
Other versions
CN112861626B (zh
Inventor
王�琦
庄凯
李学龙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwestern Polytechnical University
Original Assignee
Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN202110010281.9A priority Critical patent/CN112861626B/zh
Publication of CN112861626A publication Critical patent/CN112861626A/zh
Application granted granted Critical
Publication of CN112861626B publication Critical patent/CN112861626B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Multimedia (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Probability & Statistics with Applications (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明提供了一种基于小样本学习的细粒度表情分类方法。首先将训练集图像划分为support set和query set,并且输入到网络模型中,计算support set中图像的类特征中心和query set图像的特征中心,再用Cosine分类器计算两者之间的相似度,并输出预测类别,计算损失函数值,进行反向传播迭代训练,得到训练好的网络模型;然后,将测试集图像也划分为support set和query set,并利用训练好的网络得到其表情分类预测结果。本发明能够实现细粒度表情数据分类,且具有较高的表情分类准确度。

Description

基于小样本学习的细粒度表情分类方法
技术领域
本发明属于小样本学习技术领域,具体涉及一种基于小样本学习的细粒度表情分类方法。
背景技术
人类非常擅长通过极少量的样本识别一个新物体,比如小孩子只需要书中的一些图片就可以认识什么是“斑马”,什么是“犀牛”。在人类的快速学习能力的启发下,研究人员希望机器学习模型在学习了一定类别的大量数据后,对于新的类别,只需要少量的样本就能快速学习,这就是小样本学习要解决的问题。
目前的深度学习大多不能胜任跨领域任务,当模型迁移到另一个任务上时,往往需要大量数据重新训练,这与人们所想象的人工智能相距甚远——在已有的先验知识结构下,通过极少量的样本就能识别一个新物体,即小样本学习。
为了检测小样本学习方法的有效性,通常将其应用到具体的分类任务上,能够在一般的粗粒度数据集上表现良好,但在细粒度数据集上,小样本学习方法表现却欠佳,这是因为细粒度数据集种类差异非常小,给小样本学习带来了巨大的挑战,因此检验小样本学习方法是否有效的一大基准,就是比较其在细粒度数据集上的表现。目前小样本学习方法大致分为三类,第一种是基于模型的Model Based方法,旨在通过模型结构的设计快速在少量样本上更新参数,直接建立输入x和预测值P的映射函数。比如Santoro等人在文献“A.Santoro,S.Bartunov,M.Botvinick,D.Wierstra and T.Lillicrap,One-shotlearning with memory-augmented neural networks,arXiv:1605.06065,2016.”中提出使用记忆增强的方法来解决Few-shot Learning(小样本学习)任务,但是这类方法存在的问题是容易导致过拟合,因为神经网络分类器有数以千万计的参数需要优化,通过数量极少的新类样本来达到快速更新模型参数,则会导致这个问题;第二种是基于度量的MetricBased方法,其基本思想是将每个类别映射到特征空间,然后将测试图片到各个类的表征的距离进行比较,来对测试图片进行分类。其关键之处在于找到一个好的度量方法,去度量特征向量之间的相似度基准,就是比较其在细粒度数据集上的表现。第三种是基于优化的Optimization Based方法,基于梯度的优化算法无法在几步内完成优化,特别是在非凸的问题上,多种超参数的选取无法保证收敛的速度,并且新数据相对原始数据偏差较大时,分类的性能会大大下降。简言之,Optimization Based的小样本学习就是要学会如何在新的分类任务上,对分类器网络(learner)进行初始化和参数更新。这种任务的挑战是模型需要结合之前的经验和当前新任务的少量样本信息,并避免在新数据上过拟合。
发明内容
为了克服现有技术的不足,本发明提供一种基于小样本学习的细粒度表情分类方法。由于之前的小样本学习算法在细粒度数据集上表现并不佳,并且现阶段没有细粒度分类的表情数据集,所以本发明首先在RAF数据集基础上进行手工标注,将每个表情细分,得到细粒度表情数据集,然后,将训练集图像输入到由特征提取器和Cosine分类器构成的网络模型,采用反向传播方式进行模型训练,得到训练好的网络模型;最后,利用训练好的网络对测试数据集进行类别预测。
一种基于小样本学习的细粒度表情分类方法,其特征在于步骤如下:
步骤1:将训练集图像输入到由特征提取器和Cosine分类器构成的网络模型,采用反向传播方式进行模型训练,得到训练好的网络模型;
所述的训练集图像为对RAF数据集按照表情细分进行手工标注得到的细粒度表情数据集,由support set和query set组成,support set中的图像带有标签,query set中的图像不带标签;
所述的特征提取器是由若干卷积神经网络块组成,网络的初始权重是随机矩阵,输入图像经特征提取器提取得到其特征中心;
所述的Cosine分类器计算query set中图像的特征中心与support set中图像的类中心的Cosine相似度,并输出query set图像的预测类别;所述的类中心是指每类所包含图像的特征中心的平均值;
所述的网络模型的损失函数设定如下:
Figure BDA0002882656970000021
其中,Ls表示网络总损失,Lc表示中心损失,LN表示样本没有被分类到正确类别的概率负数,Lr表示类间损失,β表示惩罚项系数,为超参数,在0.1~10内取值;Lc、LN、Lr的计算公式分别如下:
Figure BDA0002882656970000031
Figure BDA0002882656970000032
Figure BDA0002882656970000033
其中,zi代表第i张图像提取出来的特征中心,
Figure BDA0002882656970000034
代表第i张图像所属第k类标签的特征中心,n代表每个batch包含的图像数量,K代表整个细粒度表情数据集的类别总数,E(·,·)代表欧氏距离,
Figure BDA0002882656970000035
代表每个batch中第k类标签的特征中心,ck表示代表第k类标签的特征中心,k的取值遍历属于一个batch的所有类别,ck'表示第k'类的特征中心,ci表示第i类的特征中心,cj表示第j类的特征中心;
步骤2:将测试集分为support set和query set,用训练好的特征提取器分别提取其特征中心,并将query set的特征中心与support set的类特征中心送入训练好的Cosine分类器中计算其相似度,以相似度最高的support set的标签类别作为query set的预测类别。
本发明的有益效果:由于采用了小样本学习技术,能够解决细粒度表情分类问题;由于设计了新的网络损失函数,能够获得较好的细粒度表情分类网络模型,从而提高表情分类的准确率。
附图说明
图1是本发明基于小样本学习的细粒度表情分类方法流程图。
具体实施方式
下面结合附图和实施例对本发明进一步说明,本发明包括但不仅限于下述实施例。
如图1所示,本发明提供了一种基于小样本学习的细粒度表情分类方法,其具体实现过程如下:
1、网络训练
由于之前的小样本学习算法在细粒度数据集上表现并不佳,并且现阶段没有细粒度分类的表情数据集,所以本发明首先在RAF数据集基础上进行手工标注,将每个表情细分,如高兴分为低中高三个程度等,得到细粒度表情数据集,作为网络的训练数据集,分为support set和query set,support set是带有标签的,而query set是不带有标签的。
将训练集图像送入特征提取器,特征提取器是由卷积神经网络组成,即由若干卷积神经网络块组成,卷积神经网络块包括卷积核、批标注化和ReLu激活函数。卷积神经网络的初始权重是随机矩阵,support set经过特征提取器后,得到一组特征向量,而这组特征向量的平均特征向量则被称为当前类的特征中心(即每类所包含图像的特征中心的平均值),query set经过特征提取器后,也得到特征向量,为当前图像的特征中心。
然后,将两组特征中心丢入Cosine分类器,利用Cosine相似度来计算query set图像的特征中心与support set类中心的Cosine相似度,从而输出query set图像的预测类别,并且计算出网络的损失函数值,最后,后向传播,不断迭代。
以往的细粒度分类损失函数都仅仅将减少类内方差作为重点,但类间距离同样需要被纳入考虑,本发明设计了一种新颖的细粒度分类的损失函数来解决上述问题。
CN loss是被广泛应用的细粒度损失函数,它作为Center loss的改良版,本身具有最小化类内方差的特性,除此之外,对于细粒度任务,仅仅简单地将特征向量拉到类中心是不够的,因为没有考虑到样本的难易程度,所以很难形成良好的分布,而CN loss因为在Center loss的基础上,加了一个惩罚项,能够更快更好的收敛,并且能提高识别的准确率,CN loss的公式如下:
Figure BDA0002882656970000041
其中,Ls表示网络总损失,Lc表示中心损失,LN表示样本没有被分类到正确类别的概率负数,β表示惩罚项系数,为超参数,取值范围为0.1-10。Lc、LN的计算公式分别如下:
Figure BDA0002882656970000042
Figure BDA0002882656970000043
其中,zi代表第i张图像提取出来的特征中心,
Figure BDA0002882656970000044
代表第i张图像所属第k类标签的特征中心,n代表每个batch包含的图像数量,K代表每个batch的类别总数,E(·,·)代表欧氏距离,,
Figure BDA0002882656970000051
代表每个batch中第k类标签的特征中心,ck表示代表第k类标签的特征中心,k的取值遍历属于一个batch的所有类别,ck'表示第k'类的特征中心。
尽管CN loss已经在Center loss之上做了改善,并且考虑了样本的难易程度这个问题,但是对于细粒度任务来说,类与类之间的差异同样也是很小的,最大化类间距离也需要被纳入到损失函数设计的考虑因素之内,所以损失函数设计的目标方向就是将最小化类内差异和最大化类间差异融合到一起。本发明在CN loss的基础上进行设计,设计的损失函数公式如下:
Figure BDA0002882656970000052
分子是CN loss,本发明增添了一个分母项Lr,Lr表示类间损失,计算公式如下:
Figure BDA0002882656970000053
其中,ci表示第i类的特征中心,cj表示第j类的特征中心。可以看到,Lr等于每类的特征中心两两相减,再将相减的结果加和,之所以将其作为分母项,是因为若类之间差异较小,则Lr的值则小,反之则大,为了让Ls的值越来越小,则需要分子越来越小,分母越来越大,所以在CN loss的基础上加了一个分母项。
2、分类
当模型训练结束后,得到训练好的网络,包括训练好的特征提取器的参数。将测试集分为support set和query set,利用训练好的特征提取器提取它们的特征中心,并且将query set的特征中心与support set的类特征中心送入Cosine分类器中计算其相似度,相似度最高的support set的标签类别为query set的预测类别。
为验证本发明方法的有效性,在中央处理器为Intel Core i7-9750H、图形处理器为NVIDIA GeForce GTX2070、Ubuntu 18.04操作系统上,利用PyTorch框架并结合Pycharm软件进行的仿真实验。实验中使用的数据包括CUB2013数据集、mini-ImageNet数据集和本发明在RAF数据集基础上手工标注的数据集。
首先,需要对数据集进行预处理,比如CUB2013数据集,其包含200类鸟的图像,但是每张图像大小不一,而神经网络所需要的图像大小是固定的,所以利用python对其进行批量裁剪,固定其尺寸。
同时,采用交叉对比实验来进行方法有效性验证,即在测试时,在公有数据集CUB2013数据集、mini-ImageNet数据集上采用本发明方法和目前的小样本学习算法Matchingnet方法、MAML方法和RelationNet方法进行分类处理,其中,设定1-shot和5-shot分类(1-shot代表support set中每个类别1张图像,5-shot代表support set中,每个类别5张图像),分类准确度如表1所示。然后,分别在本发明标注的RAF数据集上采用本发明方法和三种已有的小样本学习的算法进行处理,分类准确度如表2所示。
由表1可以看出,本发明方法在CUB2013数据集上,5-shot时表现优异,优于其他算法,在mini-ImageNet数据集上,表现也和RelationNet方法旗鼓相当,证明了本发明方法的有效性。对比表1和表2可以看出,本发明方法在手工标注的RAF数据集上可以取得更好的结果,更好地证明了本发明方法的有效性。
表1
Figure BDA0002882656970000061
表2
Figure BDA0002882656970000062

Claims (1)

1.一种基于小样本学习的细粒度表情分类方法,其特征提取步骤如下:
步骤1:将训练集图像输入到由特征提取器和Cosine分类器构成的网络模型,采用反向传播方式进行模型训练,得到训练好的网络模型;
所述的训练集图像为对RAF数据集按照表情细分进行手工标注得到的细粒度表情数据集,由support set和query set组成,support set中的图像带有标签,query set中的图像不带标签;
所述的特征提取器是由若干卷积神经网络块组成,网络的初始权重是随机矩阵,输入图像经特征提取器提取得到其特征中心;
所述的Cosine分类器计算query set中图像的特征中心与support set中图像的类中心的Cosine相似度,并输出query set图像的预测类别;所述的类中心是指每类所包含图像的特征中心的平均值;
所述的网络模型的损失函数设定如下:
Figure FDA0002882656960000011
其中,Ls表示网络总损失,Lc表示中心损失,LN表示样本没有被分类到正确类别的概率负数,Lr表示类间损失,β表示惩罚项系数,为超参数,在0.1~10内取值;Lc、LN、Lr的计算公式分别如下:
Figure FDA0002882656960000012
Figure FDA0002882656960000013
Figure FDA0002882656960000014
其中,zi代表第i张图像提取出来的特征中心,
Figure FDA0002882656960000015
代表第i张图像所属第k类标签的特征中心,n代表每个batch包含的图像数量,K代表整个细粒度表情数据集的类别总数,E(·,·)代表欧氏距离,
Figure FDA0002882656960000016
代表每个batch中第k类标签的特征中心,ck表示代表第k类标签的特征中心,k的取值遍历属于一个batch的所有类别,ck'表示第k'类的特征中心,ci表示第i类的特征中心,cj表示第j类的特征中心;
步骤2:将测试集分为support set和query set,用训练好的特征提取器分别提取其特征中心,并将query set的特征中心与support set的类特征中心送入训练好的Cosine分类器中计算其相似度,以相似度最高的support set的标签类别作为query set的预测类别。
CN202110010281.9A 2021-01-04 2021-01-04 基于小样本学习的细粒度表情分类方法 Active CN112861626B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110010281.9A CN112861626B (zh) 2021-01-04 2021-01-04 基于小样本学习的细粒度表情分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110010281.9A CN112861626B (zh) 2021-01-04 2021-01-04 基于小样本学习的细粒度表情分类方法

Publications (2)

Publication Number Publication Date
CN112861626A true CN112861626A (zh) 2021-05-28
CN112861626B CN112861626B (zh) 2024-03-08

Family

ID=76003981

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110010281.9A Active CN112861626B (zh) 2021-01-04 2021-01-04 基于小样本学习的细粒度表情分类方法

Country Status (1)

Country Link
CN (1) CN112861626B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113722524A (zh) * 2021-07-16 2021-11-30 上海通办信息服务有限公司 基于少量图像样本对大量图像进行归类的方法及装置
CN113837228A (zh) * 2021-08-30 2021-12-24 厦门大学 基于惩罚感知中心损失函数的用于细粒度物体检索方法

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018147392A (ja) * 2017-03-08 2018-09-20 日本電信電話株式会社 モデル学習装置、スコア計算装置、方法、データ構造、及びプログラム
CN108960342A (zh) * 2018-08-01 2018-12-07 中国计量大学 基于改进SoftMax损失函数的图像相似度计算方法
WO2019102608A1 (en) * 2017-11-27 2019-05-31 Nec Corporation Image processing device, image processing method, and image processing program
CN109961089A (zh) * 2019-02-26 2019-07-02 中山大学 基于度量学习和元学习的小样本和零样本图像分类方法
WO2019128367A1 (zh) * 2017-12-26 2019-07-04 广州广电运通金融电子股份有限公司 基于Triplet Loss的人脸认证方法、装置、计算机设备和存储介质
CN110555841A (zh) * 2019-09-10 2019-12-10 西安电子科技大学 基于自注意图像融合和dec的sar图像变化检测方法
CN110969191A (zh) * 2019-11-07 2020-04-07 吉林大学 基于相似性保持度量学习方法的青光眼患病概率预测方法
CN111259917A (zh) * 2020-02-20 2020-06-09 西北工业大学 一种基于局部近邻成分分析的图像特征提取方法
CN111259941A (zh) * 2020-01-10 2020-06-09 中国科学院计算技术研究所 基于细粒度领域自适应的跨领域图像分类方法及系统
CN111339930A (zh) * 2020-02-25 2020-06-26 四川翼飞视科技有限公司 一种联合口罩属性损失函数的人脸识别方法
CN111861909A (zh) * 2020-06-29 2020-10-30 南京理工大学 一种网络细粒度图像去噪分类方法

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018147392A (ja) * 2017-03-08 2018-09-20 日本電信電話株式会社 モデル学習装置、スコア計算装置、方法、データ構造、及びプログラム
WO2019102608A1 (en) * 2017-11-27 2019-05-31 Nec Corporation Image processing device, image processing method, and image processing program
WO2019128367A1 (zh) * 2017-12-26 2019-07-04 广州广电运通金融电子股份有限公司 基于Triplet Loss的人脸认证方法、装置、计算机设备和存储介质
CN108960342A (zh) * 2018-08-01 2018-12-07 中国计量大学 基于改进SoftMax损失函数的图像相似度计算方法
CN109961089A (zh) * 2019-02-26 2019-07-02 中山大学 基于度量学习和元学习的小样本和零样本图像分类方法
CN110555841A (zh) * 2019-09-10 2019-12-10 西安电子科技大学 基于自注意图像融合和dec的sar图像变化检测方法
CN110969191A (zh) * 2019-11-07 2020-04-07 吉林大学 基于相似性保持度量学习方法的青光眼患病概率预测方法
CN111259941A (zh) * 2020-01-10 2020-06-09 中国科学院计算技术研究所 基于细粒度领域自适应的跨领域图像分类方法及系统
CN111259917A (zh) * 2020-02-20 2020-06-09 西北工业大学 一种基于局部近邻成分分析的图像特征提取方法
CN111339930A (zh) * 2020-02-25 2020-06-26 四川翼飞视科技有限公司 一种联合口罩属性损失函数的人脸识别方法
CN111861909A (zh) * 2020-06-29 2020-10-30 南京理工大学 一种网络细粒度图像去噪分类方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
王锴: "挑战条件下的人脸表情识别", 《硕士电子期刊》, no. 7 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113722524A (zh) * 2021-07-16 2021-11-30 上海通办信息服务有限公司 基于少量图像样本对大量图像进行归类的方法及装置
CN113837228A (zh) * 2021-08-30 2021-12-24 厦门大学 基于惩罚感知中心损失函数的用于细粒度物体检索方法
CN113837228B (zh) * 2021-08-30 2024-01-16 厦门大学 基于惩罚感知中心损失函数的用于细粒度物体检索方法

Also Published As

Publication number Publication date
CN112861626B (zh) 2024-03-08

Similar Documents

Publication Publication Date Title
CN111368920B (zh) 基于量子孪生神经网络的二分类方法及其人脸识别方法
CN109993236B (zh) 基于one-shot Siamese卷积神经网络的少样本满文匹配方法
CN108805167B (zh) 一种基于Laplace函数约束的稀疏深度置信网络图像分类方法
Ma et al. Insights into multiple/single lower bound approximation for extended variational inference in non-Gaussian structured data modeling
CN108564107A (zh) 基于原子拉普拉斯图正则化的半监督字典学习的样本类别归类方法
CN110309868A (zh) 结合无监督学习的高光谱图像分类方法
CN104966105A (zh) 一种鲁棒机器错误检索方法与系统
US8775345B2 (en) Recovering the structure of sparse markov networks from high-dimensional data
CN111753874A (zh) 一种结合半监督聚类的图像场景分类方法及系统
CN112861626A (zh) 基于小样本学习的细粒度表情分类方法
Xu et al. Constructing balance from imbalance for long-tailed image recognition
CN104573699A (zh) 基于中等场强磁共振解剖成像的实蝇识别方法
CN114299324A (zh) 一种基于多尺度域对抗网络的病理图像分类方法及系统
CN114255371A (zh) 一种基于组件监督网络的小样本图像分类方法
CN108388918B (zh) 具有结构保持特性的数据特征选择方法
CN114328921B (zh) 一种基于分布校准的小样本实体关系抽取方法
Marconi et al. Hyperbolic manifold regression
CN116361454A (zh) 一种基于Bloom分类法的课程教学案例自动评估方法
CN113312907B (zh) 基于混合神经网络的远程监督关系抽取方法及装置
CN112784927B (zh) 一种基于在线学习的半自动图像标注方法
US20220343134A1 (en) Convolutional neural network architectures based on synaptic connectivity
Wang et al. Multi-modal pseudo-information guided unsupervised deep metric learning for agricultural pest images
CN111767402B (zh) 一种基于对抗学习的限定域事件检测方法
Yang et al. iCausalOSR: invertible Causal Disentanglement for Open-set Recognition
Duan et al. Discriminative training of feed-forward and recurrent sum-product networks by extended Baum-Welch

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant