CN110427978A - 面向小样本学习的变分自编码器网络模型和装置 - Google Patents

面向小样本学习的变分自编码器网络模型和装置 Download PDF

Info

Publication number
CN110427978A
CN110427978A CN201910621045.3A CN201910621045A CN110427978A CN 110427978 A CN110427978 A CN 110427978A CN 201910621045 A CN201910621045 A CN 201910621045A CN 110427978 A CN110427978 A CN 110427978A
Authority
CN
China
Prior art keywords
distribution
characterization
sample
parameter
rise
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910621045.3A
Other languages
English (en)
Other versions
CN110427978B (zh
Inventor
崔鹏
周琳钧
杨士强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tsinghua University
Original Assignee
Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tsinghua University filed Critical Tsinghua University
Priority to CN201910621045.3A priority Critical patent/CN110427978B/zh
Publication of CN110427978A publication Critical patent/CN110427978A/zh
Application granted granted Critical
Publication of CN110427978B publication Critical patent/CN110427978B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Image Processing (AREA)

Abstract

本发明提出一种面向小样本学习的变分自编码器网络模型和装置,包括:获取样本的高层表征,根据高层表征通过第一神经网络采样得到隐表示,并通过第二个神经网络复原,以重构高层表征;根据分布参数生成每个类别分布;以及通过定义损失函数为重构误差、分类误差和隐表示分布与先验分布误差之和,以优化整个网络参数及每个类别分布的参数,生成变分自编码器网络模型。本发明通过面向小样本学习的变分自编码器网络模型,使得学习出来的高层表征有一个分布族能够精确的描述,而且高层表征的分布与其度量函数可以完全匹配,从而提升了小样本分类的准确率。

Description

面向小样本学习的变分自编码器网络模型和装置
技术领域
本发明涉及小样本机器学习技术领域,尤其涉及一种面向小样本学习的变分自编码器网络模型和装置。
背景技术
目前,小样本机器学习解决的是在训练样本数有限的情况下,如何能够训练出更加稳定,效果更好的分类器。一般来讲,在小样本深度学习中,是有一组样本充足的基类来学习“元知识”(Meta Knowledge),然后将之泛化到小样本新类中。
现有技术中,以度量学习(Metric Learning)结合深度网络端到端训练的方法取得了良好的效果。但是,深度学习一般学习出的样本高层特征没有一个分布族能够精确的描述,而且其中存在的一大不足之处是其度量函数与样本高层特征的分布并不是完全匹配的,因此造成了一定程度的精度损失。
发明内容
本发明旨在至少在一定程度上解决相关技术中的技术问题之一。
为此,本发明的第一个目的在于提出一种面向小样本学习的变分自编码器网络模型,通过面向小样本学习的变分自编码器网络模型,使得学习出来的高层表征有一个分布族能够精确的描述,而且高层表征的分布与其度量函数可以完全匹配,从而提升了小样本分类的准确率。
本发明的第二个目的在于提出一种面向小样本学习的变分自编码器网络模型的装置。
为达上述目的,本发明第一方面实施例提出了一种面向小样本学习的变分自编码器网络模型,包括:获取样本的高层表征,根据所述高层表征通过第一神经网络采样得到隐表示,并通过第二个神经网络复原,以重构所述高层表征;根据分布参数生成每个类别分布;以及通过定义损失函数为重构误差、分类误差和隐表示分布与先验分布误差之和,以优化整个网络参数及所述每个类别分布的参数,生成变分自编码器网络模型。
本发明实施例的面向小样本学习的变分自编码器网络模型,可以通过重构高层特征,根据分布参数生成易于分类的类别分布,然后通过损失函数进行优化整个网络参数及每个类别分布的参数,从而使得学习出来的高层表征有一个分布族能够精确的描述,而且高层表征的分布与其度量函数可以完全匹配,提升了小样本分类的准确率。
其中,在本发明的一个实施例中,所述获取样本的高层表征,包括:通过预设深度网络结构学习得到所述样本的高层表征。
进一步地,在本发明的一个实施例中,所述根据分布参数生成每个类别分布,包括:学习分布参数,使得不同类别样本的隐表示的间隔满足预设条件。
进一步地,在本发明的一个实施例中,所述生成变分自编码器网络模型,包括:通过预设数量的样本描述每个新类分布的参数,以对每个测试样本提取对应的隐表示进行极大似然分类。
为达上述目的,本发明第二方面实施例提出了一种面向小样本学习的变分自编码器网络模型的装置,包括:重构模块,用于获取样本的高层表征,根据所述高层表征通过第一神经网络采样得到隐表示,并通过第二个神经网络复原,以重构所述高层表征;分类模块,用于根据分布参数生成每个类别分布;优化模块,用于通过定义损失函数为重构误差、分类误差和隐表示分布与先验分布误差之和,以优化整个网络参数及所述每个类别分布的参数,生成变分自编码器网络模型。
本发明实施例的面向小样本学习的变分自编码器网络模型的装置,可以通过重构高层特征,根据分布参数生成易于分类的类别分布,然后通过损失函数进行优化整个网络参数及每个类别分布的参数,从而使得学习出来的高层表征有一个分布族能够精确的描述,而且高层表征的分布与其度量函数可以完全匹配,提升了小样本分类的准确率。
其中,在本发明的一个实施例中,所述重构模块进一步用于通过预设深度网络结构学习得到所述样本的高层表征。
进一步地,在本发明的一个实施例中,所述分类模块进一步用于学习分布参数,使得不同类别样本的隐表示的间隔满足预设条件。
进一步地,在本发明的一个实施例中,所述优化模块进一步用于通过预设数量的样本描述每个新类分布的参数,以对每个测试样本提取对应的隐表示进行极大似然分类。
本发明附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为本发明实施例所提供的一种面向小样本学习的变分自编码器网络模型的流程图;
图2为本发明实施例所提供的一种判别变分自编码器的生成式概率图模型的示意图;
图3为本发明实施例所提供的一种判别变分自编码器的网络结构的示意图;
图4为本发明实施例提供的一种面向小样本学习的变分自编码器网络模型的装置结构示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
下面参考附图描述本发明实施例的面向小样本学习的变分自编码器网络模型和装置,首先将参照附图描述根据本发明实施例提出的面向小样本学习的变分自编码器网络模型。
图1为本发明实施例所提供的一种面向小样本学习的变分自编码器网络模型的流程图。
如图1所示,本发明实施例的面向小样本学习的变分自编码器网络模型包括以下步骤:
步骤101,获取样本的高层表征,根据高层表征通过第一神经网络采样得到隐表示,并通过第二个神经网络复原,以重构高层表征。
在本发明的一个实施例中,获取样本的高层表征,包括:通过预设深度网络结构学习得到样本的高层表征。具体的,在小样本图像分类中可以通过残差卷积神经网络(ResNet)进行图像高层表征的提取,之后第一神经网络可以采用一个两层的神经元数目逐渐减小的全连接网络学习隐表示,第二神经网络可以采用一个两层的神经元数目逐渐增加的全连接网络复原高层表征。如图2、图3所示,作为本发明实施例一种可能实现的方式,高层表征(x)通过一个神经网络采样出一个隐表示(z),然后再通过另一个神经网络复原,学习网络参数时要既保证每类的隐表示服从预先设定好的先验分布,又保证重构误差尽可能小。
步骤102,根据分布参数生成每个类别分布。
在本发明的一个实施例中,根据分布参数生成每个类别分布,包括:学习分布参数,使得不同类别样本的隐表示的间隔满足预设条件。如图2、图3所示,具体的,每个类别(y)分布可以用对应的分布参数来表示,要学习分布参数使得不同类别样本的隐表示要尽可能间隔较大,易于分类。例如,可以用一个各维独立的同方差的正态分布或冯塞米松分布作为每个类别隐表示的先验分布,保证了深度网络更强的泛化能力。
步骤103,通过定义损失函数为重构误差、分类误差和隐表示分布与先验分布误差之和,以优化整个网络参数及每个类别分布的参数,生成变分自编码器网络模型。
在本发明的一个实施例中,重构误差为上述复原的高层表征与原始高层表征的欧式距离,分类误差为每个样本在分类任务中负的似然值,隐表示分布与先验分布误差可以用它们之间的Kullback-Leibler散度值来描述。通过加权的方式构造好损失函数之后可以用随机梯度下降的方法来优化整个网络参数与类别分布参数。需要说明的是,生成变分自编码器网络模型,包括:通过预设数量的样本描述每个新类分布的参数,以对每个测试样本提取对应的隐表示进行极大似然分类,也就是新类别可以通过使用少量样本对每个新类分布的参数进行估计来描述,之后对于每个测试样本仅需要提取出其隐表示进行极大似然分类即可。
举例而言,在现实场景中,罕见肿瘤的识别,人脸识别,小语种机器翻译都可以用上述面向小样本学习的变分自编码器网络模型解决小样本分类问题。
根据本发明实施例的面向小样本学习的变分自编码器网络模型,可以通过重构高层特征,根据分布参数生成易于分类的类别分布,然后通过损失函数进行优化整个网络参数及每个类别分布的参数,从而使得学习出来的高层表征有一个分布族能够精确的描述,而且高层表征的分布与其度量函数可以完全匹配,提升了小样本分类的准确率。
其次,下面对面向小样本学习的变分自编码器网络模型的装置进行详细描述。
图4为本发明实施例提供的一种面向小样本学习的变分自编码器网络模型的装置结构示意图。
如图4所示,该面向小样本学习的变分自编码器网络模型的装置10包括:重构模块100、分类模块200和优化模块300。
其中,重构模块100获取样本的高层表征,根据高层表征通过第一神经网络采样得到隐表示,并通过第二个神经网络复原,以重构高层表征。分类模块200根据分布参数生成每个类别分布。优化模块300通过定义损失函数为重构误差、分类误差和隐表示分布与先验分布误差之和,以优化整个网络参数及每个类别分布的参数,生成变分自编码器网络模型。本装置通过面向小样本学习的变分自编码器网络模型,使得学习出来的高层表征有一个分布族能够精确的描述,而且高层表征的分布与其度量函数可以完全匹配,提升了小样本分类的准确率。
进一步地,在本发明实施例的一种可能的实现方式中,重构模块100进一步用于通过预设深度网络结构学习得到样本的高层表征。
进一步地,在本发明实施例的一种可能的实现方式中,分类模块200进一步用于学习分布参数,使得不同类别样本的隐表示的间隔满足预设条件。
进一步地,在本发明实施例的一种可能的实现方式中,优化模块300进一步用于通过预设数量的样本描述每个新类分布的参数,以对每个测试样本提取对应的隐表示进行极大似然分类。
需要说明的是,前述对面向小样本学习的变分自编码器网络模型实施例的解释说明也适用于该实施例的面向小样本学习的变分自编码器网络模型的装置,此处不再赘述。
根据本发明实施例的面向小样本学习的变分自编码器网络模型的装置,可以通过重构高层特征,根据分布参数生成易于分类的类别分布,然后通过损失函数进行优化整个网络参数及每个类别分布的参数,从而使得学习出来的高层表征有一个分布族能够精确的描述,而且高层表征的分布与其度量函数可以完全匹配,提升了小样本分类的准确率。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现定制逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本发明的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本发明的实施例所属技术领域的技术人员所理解。
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,"计算机可读介质"可以是任何可以包含、存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用的装置。计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式光盘只读存储器(CDROM)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。如,如果用硬件来实现和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本发明各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
上述提到的存储介质可以是只读存储器,磁盘或光盘等。尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。

Claims (8)

1.一种面向小样本学习的变分自编码器网络模型,其特征在于,包括以下步骤:
获取样本的高层表征,根据所述高层表征通过第一神经网络采样得到隐表示,并通过第二个神经网络复原,以重构所述高层表征;
根据分布参数生成每个类别分布;以及
通过定义损失函数为重构误差、分类误差和隐表示分布与先验分布误差之和,以优化整个网络参数及所述每个类别分布的参数,生成变分自编码器网络模型。
2.根据权利要求1所述的模型,其特征在于,所述获取样本的高层表征,包括:
通过预设深度网络结构学习得到所述样本的高层表征。
3.根据权利要求1所述的模型,其特征在于,所述根据分布参数生成每个类别分布,包括:
学习分布参数,使得不同类别样本的隐表示的间隔满足预设条件。
4.根据权利要求1所述的模型,其特征在于,所述生成变分自编码器网络模型,包括:
通过预设数量的样本描述每个新类分布的参数,以对每个测试样本提取对应的隐表示进行极大似然分类。
5.一种面向小样本学习的变分自编码器网络模型的装置,其特征在于,所述装置包括:
重构模块,用于获取样本的高层表征,根据所述高层表征通过第一神经网络采样得到隐表示,并通过第二个神经网络复原,以重构所述高层表征;
分类模块,用于根据分布参数生成每个类别分布;
优化模块,用于通过定义损失函数为重构误差、分类误差和隐表示分布与先验分布误差之和,以优化整个网络参数及所述每个类别分布的参数,生成变分自编码器网络模型。
6.根据权利要求5所述的装置,其特征在于,所述重构模块进一步用于通过预设深度网络结构学习得到所述样本的高层表征。
7.根据权利要求5所述的装置,其特征在于,所述分类模块进一步用于学习分布参数,使得不同类别样本的隐表示的间隔满足预设条件。
8.根据权利要求5所述的装置,其特征在于,所述优化模块进一步用于通过预设数量的样本描述每个新类分布的参数,以对每个测试样本提取对应的隐表示进行极大似然分类。
CN201910621045.3A 2019-07-10 2019-07-10 面向小样本学习的变分自编码器网络模型和装置 Active CN110427978B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910621045.3A CN110427978B (zh) 2019-07-10 2019-07-10 面向小样本学习的变分自编码器网络模型和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910621045.3A CN110427978B (zh) 2019-07-10 2019-07-10 面向小样本学习的变分自编码器网络模型和装置

Publications (2)

Publication Number Publication Date
CN110427978A true CN110427978A (zh) 2019-11-08
CN110427978B CN110427978B (zh) 2022-01-11

Family

ID=68409144

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910621045.3A Active CN110427978B (zh) 2019-07-10 2019-07-10 面向小样本学习的变分自编码器网络模型和装置

Country Status (1)

Country Link
CN (1) CN110427978B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113592008A (zh) * 2021-08-05 2021-11-02 哈尔滨理工大学 一种基于自编码器的图神经网络机制解决小样本图像分类的系统、方法、设备及存储介质
CN114036947A (zh) * 2021-12-09 2022-02-11 广东工业大学 一种半监督学习的小样本文本分类方法和系统
WO2022126924A1 (zh) * 2020-12-18 2022-06-23 平安科技(深圳)有限公司 基于域分离的语音转换模型的训练方法及装置

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104346617A (zh) * 2014-04-18 2015-02-11 南京信息工程大学 一种基于滑动窗口和深度结构提取特征的细胞检测方法
CN105718868A (zh) * 2016-01-18 2016-06-29 中国科学院计算技术研究所 一种针对多姿态人脸的人脸检测系统及方法
US20180101784A1 (en) * 2016-10-05 2018-04-12 D-Wave Systems Inc. Discrete variational auto-encoder systems and methods for machine learning using adiabatic quantum computers
JP2018156451A (ja) * 2017-03-17 2018-10-04 株式会社東芝 ネットワーク学習装置、ネットワーク学習システム、ネットワーク学習方法およびプログラム
CN108986916A (zh) * 2018-07-26 2018-12-11 浙江大学 基于栈式自编码器的动态pet图像示踪剂动力学宏参数估计方法
CN109145971A (zh) * 2018-08-07 2019-01-04 桂林电子科技大学 基于改进匹配网络模型的单样本学习方法
CN109545227A (zh) * 2018-04-28 2019-03-29 华中师范大学 基于深度自编码网络的说话人性别自动识别方法及系统
US20190122075A1 (en) * 2017-10-19 2019-04-25 General Electric Company Training an auto-encoder on a single class
CN109801218A (zh) * 2019-01-08 2019-05-24 南京理工大学 基于多层耦合卷积神经网络的多光谱遥感图像Pan-sharpening方法
CN109934340A (zh) * 2017-12-19 2019-06-25 中国科学院声学研究所 一种深度学习系统及模型参数调整方法
US10853739B2 (en) * 2017-06-09 2020-12-01 Sap Se Machine learning models for evaluating entities in a high-volume computer network

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104346617A (zh) * 2014-04-18 2015-02-11 南京信息工程大学 一种基于滑动窗口和深度结构提取特征的细胞检测方法
CN105718868A (zh) * 2016-01-18 2016-06-29 中国科学院计算技术研究所 一种针对多姿态人脸的人脸检测系统及方法
US20180101784A1 (en) * 2016-10-05 2018-04-12 D-Wave Systems Inc. Discrete variational auto-encoder systems and methods for machine learning using adiabatic quantum computers
JP2018156451A (ja) * 2017-03-17 2018-10-04 株式会社東芝 ネットワーク学習装置、ネットワーク学習システム、ネットワーク学習方法およびプログラム
US10853739B2 (en) * 2017-06-09 2020-12-01 Sap Se Machine learning models for evaluating entities in a high-volume computer network
US20190122075A1 (en) * 2017-10-19 2019-04-25 General Electric Company Training an auto-encoder on a single class
CN109934340A (zh) * 2017-12-19 2019-06-25 中国科学院声学研究所 一种深度学习系统及模型参数调整方法
CN109545227A (zh) * 2018-04-28 2019-03-29 华中师范大学 基于深度自编码网络的说话人性别自动识别方法及系统
CN108986916A (zh) * 2018-07-26 2018-12-11 浙江大学 基于栈式自编码器的动态pet图像示踪剂动力学宏参数估计方法
CN109145971A (zh) * 2018-08-07 2019-01-04 桂林电子科技大学 基于改进匹配网络模型的单样本学习方法
CN109801218A (zh) * 2019-01-08 2019-05-24 南京理工大学 基于多层耦合卷积神经网络的多光谱遥感图像Pan-sharpening方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
YAOQING YANG等: "FoldingNet: Point Cloud Auto-encoder via Deep Grid Deformation", 《2018 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 *
袁非牛: "自编码神经网络理论及应用综述", 《计算机学报》 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022126924A1 (zh) * 2020-12-18 2022-06-23 平安科技(深圳)有限公司 基于域分离的语音转换模型的训练方法及装置
CN113592008A (zh) * 2021-08-05 2021-11-02 哈尔滨理工大学 一种基于自编码器的图神经网络机制解决小样本图像分类的系统、方法、设备及存储介质
CN113592008B (zh) * 2021-08-05 2022-05-31 哈尔滨理工大学 小样本图像分类的系统、方法、设备及存储介质
CN114036947A (zh) * 2021-12-09 2022-02-11 广东工业大学 一种半监督学习的小样本文本分类方法和系统
CN114036947B (zh) * 2021-12-09 2023-11-14 广东工业大学 一种半监督学习的小样本文本分类方法和系统

Also Published As

Publication number Publication date
CN110427978B (zh) 2022-01-11

Similar Documents

Publication Publication Date Title
Nagrani et al. Disentangled speech embeddings using cross-modal self-supervision
CN107291822A (zh) 基于深度学习的问题分类模型训练方法、分类方法及装置
CN110427978A (zh) 面向小样本学习的变分自编码器网络模型和装置
CN106529503B (zh) 一种集成卷积神经网络人脸情感识别方法
EP3961441B1 (en) Identity verification method and apparatus, computer device and storage medium
Hong et al. Sentiment analysis with deeply learned distributed representations of variable length texts
CN107609587A (zh) 一种基于深度卷积生成对抗网络的多类别多视图数据生成方法
CN106446954A (zh) 一种基于深度学习的字符识别方法
CN106156766A (zh) 文本行分类器的生成方法及装置
CN109214378A (zh) 一种基于神经网络整体识别计量表读数的方法和系统
CN110276264A (zh) 一种基于前景分割图的人群密度估计方法
CN106960040B (zh) 一种url的类别确定方法及装置
CN113449801B (zh) 一种基于多级图像上下文编解码的图像人物行为描述生成方法
CN110534101A (zh) 一种基于多模融合深度特征的移动设备源识别方法及系统
CN110363049A (zh) 图形元素检测识别和类别确定的方法及装置
CN108510052A (zh) 一种人工智能新型神经网络的构建方法
Cui et al. Measuring dataset granularity
CN109508740A (zh) 基于高斯混合噪声生成式对抗网络的物体硬度识别方法
CN109800677A (zh) 一种跨平台掌纹识别方法
CN110276396A (zh) 基于物体显著性和跨模态融合特征的图片描述生成方法
CN109978074A (zh) 基于深度多任务学习的图像美感和情感联合分类方法及系统
CN104036021A (zh) 混合生成式和判别式学习模型的图像语义标注方法
Zong et al. Transductive transfer lda with riesz-based volume lbp for emotion recognition in the wild
CN110472664A (zh) 一种基于深度学习的证件图片识别方法、装置及设备
CN109344779A (zh) 一种基于卷积神经网络的匝道场景下的人脸检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant