CN106934458A - 基于深度学习的多层自动编码方法及系统 - Google Patents

基于深度学习的多层自动编码方法及系统 Download PDF

Info

Publication number
CN106934458A
CN106934458A CN201511031732.8A CN201511031732A CN106934458A CN 106934458 A CN106934458 A CN 106934458A CN 201511031732 A CN201511031732 A CN 201511031732A CN 106934458 A CN106934458 A CN 106934458A
Authority
CN
China
Prior art keywords
initial data
coding
weight matrix
deep learning
module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201511031732.8A
Other languages
English (en)
Inventor
王书强
李涵雄
卢哲
曾德威
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Institute of Advanced Technology of CAS
Original Assignee
Shenzhen Institute of Advanced Technology of CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Institute of Advanced Technology of CAS filed Critical Shenzhen Institute of Advanced Technology of CAS
Priority to CN201511031732.8A priority Critical patent/CN106934458A/zh
Publication of CN106934458A publication Critical patent/CN106934458A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

本发明涉及一种基于深度学习的多层自动编码方法及系统,结合深度学习原理与张量算法,采用张量的形式对原始数据进行表达,能够在不破坏原始数据结构的前提下,充分挖掘原有信息,并通过多层学习,获得更本质的抽象特征,从而克服采用向量表达的局限性,能较大程度上保留原始数据的结构信息,并且获得更为鲁棒的特征提取与模式学习,利于对原始数据本质的体现,有利于进行后续的模式分类。

Description

基于深度学习的多层自动编码方法及系统
技术领域
本发明涉及深度学习领域,尤其涉及一种基于深度学习的多层自动编码方法及系统。
背景技术
深度学习(Deep Learning)是机器学习研究中的一个新的领域,其目的在于建立、模拟人脑进行分析学习的神经网络,它模仿人脑的机制来解释数据,建立多层架构对于特征进行逐层抽象。常规的流程有预处理,特征提取,特征选择,识别与预测等等。目前应用于图像识别、语音识别、自然语言理解、天气预测、基因表达等领域。
自动编码器(Autoencoder)是深度学习领域中一种压缩编码器,自动编码机将Xo(取值范围为[0,1])为原始数据,首先将原始数据映射到一个隐层表示为X,此表示为维度压缩后的对于原始数据重构的结果,然后利用相似的变换重新映射回与X0同样规模的重建X’,利用重建结果与原始数据的差值更新权值参数,从而得到更新后原始数据重新编码的网络输出X^1,再通过多次迭代获得X^N模式识别。
目前,自动编码器对于原始数据的表达主要采取向量形式,而采用向量表达具有很大的局限性,不能较大程度上保留原始数据的空间信息,不利于对原始数据本质的体现,不能充分挖掘原始数据的原有信息。
发明内容
有鉴于此,有必要针对上述自动编码器对于原始数据的表达主要采取向量形式存在很大局限性的问题,提供一种基于深度学习的多层自动编码方法。并且还提供一种基于深度学习的多层自动编码系统。
本发明提供的一种基于深度学习的多层自动编码方法,包括如下步骤:
S10:设定自动编码器的个数及每一个自动编码器的神经节点数;
S20:初始化权值矩阵和阈值;
S30:对输入的原始数据进行编码,采用权值矩阵对原始数据进行变换,将原始数据采用张量形式进行表达并根据设定的神经节点数进行压缩编码;
S40:对编码后的原始数据进行解码重构,获取重构的原始数据;
S50:根据重构的原始数据与原始数据之间定义的最小平方误差函数,更新权值矩阵;
S60:利用更新后的权值矩阵对原始数据再次进行编码获得压缩化的特征;
S70:利用压缩化的特征通过迭代运算获得最终输出。
可选的,所述步骤S10具体为:
由用户根据需要,人工设置自动编码器的个数及每一个自动编码器的神经节点数。
可选的,所述步骤S40具体为:
在将原始数据采用张量形式表达进行编码后,通过学习原始数据的编码方式进行对应的转置运算,对编码后的原始数据进行解码重构,获取重构的原始数据。
可选的,所述步骤S50具体为:采用BP算法更新权值矩阵。
可选的,所述步骤S50具体为:引入稀疏性限制和KL散度更新权值矩阵。
本发明提供的一种基于深度学习的多层自动编码系统,包括:
设定模块,设定自动编码器的个数及每一个自动编码器的神经节点数;
初始化模块,初始化权值矩阵和阈值;
编码模块,对输入的原始数据进行编码,采用权值矩阵对原始数据进行变换,将原始数据采用张量形式进行表达并根据设定的神经节点数进行压缩编码;
解码模块,对编码后的原始数据进行解码重构,获取重构的原始数据;
有监督学习更新模块,根据重构的原始数据与原始数据之间定义的最小平方误差函数,更新权值矩阵;
特征提取模块,利用更新后的权值矩阵对原始数据再次进行编码获得压缩化的特征;
输出模块,利用压缩化的特征通过迭代运算获得最终输出。
可选的,所述设定模块由用户根据需要,人工设置自动编码器的个数及每一个自动编码器的神经节点数。
可选的,所述解码模块在将原始数据采用张量形式表达进行编码后,通过学习原始数据的编码方式进行对应的转置运算,对编码后的原始数据进行解码重构,获取重构的原始数据。
可选的,所述有监督学习更新模块采用BP算法更新权值矩阵。
可选的,所述有监督学习更新模块引入稀疏性限制和KL散度更新权值矩阵。
本发明基于深度学习的多层自动编码方法及系统,结合深度学习原理与张量算法,采用张量的形式对原始数据进行表达,能够在不破坏原始数据结构的前提下,充分挖掘原有信息,并通过多层学习,获得更本质的抽象特征,从而克服采用向量表达的局限性,能较大程度上保留原始数据的结构信息,并且获得更为鲁棒的特征提取与模式学习,利于对原始数据本质的体现,有利于进行后续的模式分类。
附图说明
图1是一个实施例中基于深度学习的多层自动编码方法的流程图;
图2是一个实施例中基于深度学习的多层自动编码系统的结构图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
张量(tensor)理论是数学的一个分支学科,它可以满足一切物理定律必须与坐标系的选择无关的特性。张量概念是矢量概念的推广,张量是一个可用来表示在一些矢量、标量和其他张量之间的线性关系的多线性函数,用于张量形式表达的样本可最大程度上保留原始结构,进而在特征提取阶段提取到更鲁棒的特征,故本发明自动编码方法基于深度学习,进行多层编码,采用张量的形式对原始数据进行表达,来克服矢量表达的局限性。
具体的,如图1所示,是一个实施例中基于深度学习的多层自动编码方法的流程图,该方法包括如下步骤:
S10:设定自动编码器的个数及每一个自动编码器的神经节点数。
该步骤,由用户根据需要,人工设置自动编码器的个数及每一个自动编码器的神经节点数。
S20:初始化权值矩阵和阈值。
由于该方法对原始数据进行张量化处理,将原始数据以张量形式进行表达,为能够实现,设置权值矩阵并进行初始化,同时对阈值也进行初始化。
S30:对输入的原始数据进行编码,采用权值矩阵对原始数据进行变换,将原始数据采用张量形式进行表达并根据设定的神经节点数进行压缩编码。
在初始化权值矩阵后,采用初始化的权值矩阵能够将原始数据变换成张量形式,使得能够在编码阶段将原始数据变换成张量形式,能够最大程度上保留原始数据的原有信息。
S40:对编码后的原始数据进行解码重构,获取重构的原始数据。
该步骤在将原始数据采用张量形式表达进行编码后,通过学习原始数据的编码方式进行对应的转置运算,对编码后的原始数据进行解码重构,获取重构的原始数据。
S50:根据重构的原始数据与原始数据之间定义的最小平方误差函数,更新权值矩阵。
在对原始数据重构后,根据定义的最小平方误差函数来更新权值矩阵,进行优化。该步骤中,采用BP算法(BP,Error Back Propagation,误差反向传播算法)更新权值矩阵。更进一步的,为减少不必要的参数,引入稀疏性限制和KL散度更新权值矩阵。
S60:利用更新后的权值矩阵对原始数据再次进行编码获得压缩化的特征。
在更新优化了权值矩阵之后,采用优化了的权值矩阵对原始数据再进行编码,获取压缩化的特征。
S70:利用压缩化的特征通过迭代运算获得最终输出。
利用压缩化的特征采用迭代运算,从而能够获取最终输出。
为更好的对本发明方法进行理解,下面以二阶张量为例对本发明方法进行阐述,但是本发明方法并不限于二阶张量,可以扩展到高阶张量,具体如下:
第一步:人工设置自动编码器的个数为N个,每一个自动编码器的神经元节点个数为L个。
第二步:初始化权值矩阵P和Q以及阈值B。样本(原始数据)为矩阵{X1,X2…XM},其中,Xi∈d1*d2的矩阵,p∈L*d1,q∈L*d2。
第三步:样本进入编码阶段进行编码。输入的为二阶张量形式的样本矩阵X,利用(pTxq+b)改进传统的对于向量输入的WX+B操作,保留了样本X的内在信息和结构相关性,输出为X^=F(pTxq+b),其中f(x)为sigmoid函数,f(x)=1/1+exp(-x),此时样本维数从d1*d2变为r1*r2,其中r1<d1,r2<d2。对于M个样本的编码矩阵为:
第四步:解码阶段重构输出。通过转置后的权值矩阵p与q与X做运算,获得向量化的结果并构造与输入样本维度一样的X·,X·=F(px^qT+b)。
对于M个样本的解码矩阵为:
第五步:定义平方误差函数J(p,q,b)=∑(X·-x)2。令aj(x)表示隐藏神经元激活度,定义为隐藏神经元平均激活度,令进而引入稀疏性限制,将一定输入参数设为0,从而减少参数运算,增加特征鲁棒性(p取接近0的较小值)。对目标函数加入惩罚因子则总的最小平方误差函数可表示为
其中:S为隐藏层数目。
第六步:利用梯度下降法(BP算法)更新权值矩阵P和Q,从而使其最大程度刻画原始数据的特征。其中,第i个自动编码器的权值更新为:
α为学习率。
第七步:获得自动编码器的输出,即压缩化并最大程度保留样本结构信息与内在相关性的特征矩阵X^ i,利用上述方法,N-i个自动编码器训练,获得最终网络输出:
该方法,结合深度学习原理与张量算法,采用张量的形式对原始数据进行表达,能够在不破坏原始数据结构的前提下,充分挖掘原有信息,并通过多层学习,获得更本质的抽象特征,从而克服采用向量表达的局限性,能较大程度上保留原始数据的结构信息,并且获得更为鲁棒的特征提取与模式学习,利于对原始数据本质的体现,有利于进行后续的模式分类。
同时,本发明还提供一种基于深度学习的多层自动编码系统,如图2所示,该系统包括:
设定模块100,设定自动编码器的个数及每一个自动编码器的神经节点数。
设定模块100由用户根据需要,人工设置自动编码器的个数及每一个自动编码器的神经节点数。
初始化模块200,初始化权值矩阵和阈值。
由于该系统对原始数据进行张量化处理,将原始数据以张量形式进行表达,为能够实现,初始化模块200设置权值矩阵并进行初始化,同时对阈值也进行初始化。
编码模块300,基于张量形式对输入的原始数据进行编码,采用权值矩阵对原始数据进行变换,将原始数据采用张量形式进行表达并根据设定的神经节点数进行压缩编码。
在初始化权值矩阵后,编码模块300采用初始化的权值矩阵能够将原始数据变换成张量形式,使得能够在编码阶段将原始数据变换成张量形式,能够最大程度上保留原始数据的原有信息。
解码模块400,对编码后的原始数据进行解码重构,获取重构的原始数据。
在将原始数据采用张量形式表达进行编码后,解码模块400通过学习原始数据的编码方式进行对应的转置运算,对编码后的原始数据进行解码重构,获取重构的原始数据。
有监督学习更新模块500,根据重构的原始数据与原始数据之间定义的最小平方误差函数,更新权值矩阵。
在对原始数据重构后,有监督学习更新模块500根据定义的最小平方误差函数来更新权值矩阵,进行优化。进一步的,有监督学习更新模块500采用BP算法(BP,Error Back Propagation,误差反向传播算法)更新权值矩阵。更进一步的,为减少不必要的参数,有监督学习更新模块500引入稀疏性限制和KL散度更新权值矩阵。
特征提取模块600,利用更新后的权值矩阵对原始数据再次进行编码获得压缩化的特征。
在更新优化了权值矩阵之后,特征提取模块600采用优化了的权值矩阵对原始数据再进行编码,获取压缩化的特征。
输出模块700,利用压缩化的特征通过迭代运算获得最终输出。
该系统,结合深度学习原理与张量算法,采用张量的形式对原始数据进行表达,能够在不破坏原始数据结构的前提下,充分挖掘原有信息,并通过多层学习,获得更本质的抽象特征,从而克服采用向量表达的局限性,能较大程度上保留原始数据的结构信息,并且获得更为鲁棒的特征提取与模式学习,利于对原始数据本质的体现,有利于进行后续的模式分类。
本发明基于深度学习的多层自动编码方法及系统,结合深度学习原理与张量算法,采用张量的形式对原始数据进行表达,能够在不破坏原始数据结构的前提下,充分挖掘原有信息,并通过多层学习,获得更本质的抽象特征,从而克服采用向量表达的局限性,能较大程度上保留原始数据的结构信息,并且获得更为鲁棒的特征提取与模式学习,利于对原始数据本质的体现,有利于进行后续的模式分类。
以上仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种基于深度学习的多层自动编码方法,其特征在于,包括如下步骤:
S10:设定自动编码器的个数及每一个自动编码器的神经节点数;
S20:初始化权值矩阵和阈值;
S30:对输入的原始数据进行编码,采用权值矩阵对原始数据进行变换,将原始数据采用张量形式进行表达并根据设定的神经节点数进行压缩编码;
S40:对编码后的原始数据进行解码重构,获取重构的原始数据;
S50:根据重构的原始数据与原始数据之间定义的最小平方误差函数,更新权值矩阵;
S60:利用更新后的权值矩阵对原始数据再次进行编码获得压缩化的特征;
S70:利用压缩化的特征通过迭代运算获得最终输出。
2.根据权利要求1所述的基于深度学习的多层自动编码方法,其特征在于,所述步骤S10具体为:
由用户根据需要,人工设置自动编码器的个数及每一个自动编码器的神经节点数。
3.根据权利要求1所述的基于深度学习的多层自动编码方法,其特征在于,所述步骤S40具体为:
在将原始数据采用张量形式表达进行编码后,通过学习原始数据的编码方式进行对应的转置运算,对编码后的原始数据进行解码重构,获取重构的原始数据。
4.根据权利要求1所述的基于深度学习的多层自动编码方法,其特征在于,所述步骤S50具体为:采用BP算法更新权值矩阵。
5.根据权利要求4所述的基于深度学习的多层自动编码方法,其特征在于,所述步骤S50具体为:引入稀疏性限制和KL散度更新权值矩阵。
6.一种基于深度学习的多层自动编码系统,其特征在于,包括:
设定模块,设定自动编码器的个数及每一个自动编码器的神经节点数;
初始化模块,初始化权值矩阵和阈值;
编码模块,对输入的原始数据进行编码,采用权值矩阵对原始数据进行变换,将原始数据采用张量形式进行表达并根据设定的神经节点数进行压缩编码;
解码模块,对编码后的原始数据进行解码重构,获取重构的原始数据;
有监督学习更新模块,根据重构的原始数据与原始数据之间定义的最小平方误差函数,更新权值矩阵;
特征提取模块,利用更新后的权值矩阵对原始数据再次进行编码获得压缩化的特征;
输出模块,利用压缩化的特征通过迭代运算获得最终输出。
7.根据权利要求6所述的基于深度学习的多层自动编码系统,其特征在于,所述设定模块由用户根据需要,人工设置自动编码器的个数及每一个自动编码器的神经节点数。
8.根据权利要求6所述的基于深度学习的多层自动编码系统,其特征在于,所述解码模块在将原始数据采用张量形式表达进行编码后,通过学习原始数据的编码方式进行对应的转置运算,对编码后的原始数据进行解码重构,获取重构的原始数据。
9.根据权利要求6所述的基于深度学习的多层自动编码系统,其特征在于,所述有监督学习更新模块采用BP算法更新权值矩阵。
10.根据权利要求9所述的基于深度学习的多层自动编码系统,其特征在于,所述有监督学习更新模块引入稀疏性限制和KL散度更新权值矩阵。
CN201511031732.8A 2015-12-31 2015-12-31 基于深度学习的多层自动编码方法及系统 Pending CN106934458A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201511031732.8A CN106934458A (zh) 2015-12-31 2015-12-31 基于深度学习的多层自动编码方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201511031732.8A CN106934458A (zh) 2015-12-31 2015-12-31 基于深度学习的多层自动编码方法及系统

Publications (1)

Publication Number Publication Date
CN106934458A true CN106934458A (zh) 2017-07-07

Family

ID=59444243

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201511031732.8A Pending CN106934458A (zh) 2015-12-31 2015-12-31 基于深度学习的多层自动编码方法及系统

Country Status (1)

Country Link
CN (1) CN106934458A (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107749757A (zh) * 2017-10-18 2018-03-02 广东电网有限责任公司电力科学研究院 一种基于堆栈式自编码和pso算法的数据压缩方法及装置
CN108445752A (zh) * 2018-03-02 2018-08-24 北京工业大学 一种自适应选择深度特征的随机权神经网络集成建模方法
CN108537132A (zh) * 2018-03-16 2018-09-14 中国人民解放军陆军工程大学 一种基于监督学习的深度自动编码器的道路分割方法
CN109302614A (zh) * 2018-10-08 2019-02-01 南京信息工程大学 一种基于三阶张量自编码网络的视频压缩方法
WO2019066718A1 (en) * 2017-09-28 2019-04-04 Agency For Science, Technology And Research DEEP REPRESENTATIVE SELF ASSESSMENT UNITS
CN111045726A (zh) * 2018-10-12 2020-04-21 上海寒武纪信息科技有限公司 支持编码、解码的深度学习处理装置及方法
CN111144583A (zh) * 2019-12-31 2020-05-12 中国电子科技集团公司信息科学研究院 一种基于神经集群的无监督学习方法
CN113168558A (zh) * 2018-10-05 2021-07-23 罗伯特·博世有限公司 用于图像数据的语义分割的方法、人工神经网络、设备、计算机程序和机器可读存储介质
CN117220690A (zh) * 2023-09-22 2023-12-12 澳门理工大学 一种基于深度学习的低复杂度置信度传播译码方法

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11657270B2 (en) 2017-09-28 2023-05-23 Agency For Science, Technology And Research Self-assessing deep representational units
WO2019066718A1 (en) * 2017-09-28 2019-04-04 Agency For Science, Technology And Research DEEP REPRESENTATIVE SELF ASSESSMENT UNITS
CN107749757A (zh) * 2017-10-18 2018-03-02 广东电网有限责任公司电力科学研究院 一种基于堆栈式自编码和pso算法的数据压缩方法及装置
CN108445752A (zh) * 2018-03-02 2018-08-24 北京工业大学 一种自适应选择深度特征的随机权神经网络集成建模方法
CN108537132A (zh) * 2018-03-16 2018-09-14 中国人民解放军陆军工程大学 一种基于监督学习的深度自动编码器的道路分割方法
CN108537132B (zh) * 2018-03-16 2021-10-01 中国人民解放军陆军工程大学 一种基于监督学习的深度自动编码器的道路分割方法
CN113168558A (zh) * 2018-10-05 2021-07-23 罗伯特·博世有限公司 用于图像数据的语义分割的方法、人工神经网络、设备、计算机程序和机器可读存储介质
CN109302614B (zh) * 2018-10-08 2022-01-18 南京信息工程大学 一种基于三阶张量自编码网络的视频压缩方法
CN109302614A (zh) * 2018-10-08 2019-02-01 南京信息工程大学 一种基于三阶张量自编码网络的视频压缩方法
CN111045726A (zh) * 2018-10-12 2020-04-21 上海寒武纪信息科技有限公司 支持编码、解码的深度学习处理装置及方法
CN111045726B (zh) * 2018-10-12 2022-04-15 上海寒武纪信息科技有限公司 支持编码、解码的深度学习处理装置及方法
CN111144583A (zh) * 2019-12-31 2020-05-12 中国电子科技集团公司信息科学研究院 一种基于神经集群的无监督学习方法
CN111144583B (zh) * 2019-12-31 2024-04-12 中国电子科技集团公司信息科学研究院 一种基于神经集群的无监督学习方法
CN117220690A (zh) * 2023-09-22 2023-12-12 澳门理工大学 一种基于深度学习的低复杂度置信度传播译码方法
CN117220690B (zh) * 2023-09-22 2024-10-08 澳门理工大学 一种基于深度学习的低复杂度置信度传播译码方法

Similar Documents

Publication Publication Date Title
CN106934458A (zh) 基于深度学习的多层自动编码方法及系统
CN109948691B (zh) 基于深度残差网络及注意力的图像描述生成方法和装置
CN112257858B (zh) 一种模型压缩方法及装置
CN105095833B (zh) 用于人脸识别的网络构建方法、识别方法及系统
CN106547735A (zh) 基于深度学习的上下文感知的动态词或字向量的构建及使用方法
CN109033095A (zh) 基于注意力机制的目标变换方法
CN108171198A (zh) 基于非对称多层lstm的连续手语视频自动翻译方法
CN108197294A (zh) 一种基于深度学习的文本自动生成方法
CN113361250A (zh) 一种基于语义一致性的双向文本生成图像方法及系统
CN104850837B (zh) 手写文字的识别方法
CN108121975A (zh) 一种联合原始数据和生成数据的人脸识别方法
CN109086802A (zh) 一种基于八元数卷积神经网络的图像分类方法
Ma et al. Multi-feature fusion deep networks
CN105224948A (zh) 一种基于图像处理的最大间隔深度生成模型的生成方法
CN108363685B (zh) 基于递归变分自编码模型的自媒体数据文本表示方法
CN110175248A (zh) 一种基于深度学习和哈希编码的人脸图像检索方法和装置
CN109218134A (zh) 一种基于神经风格迁移的测试用例生成系统
CN109815496A (zh) 基于容量自适应收缩机制载体生成式文本隐写方法及装置
CN116030537B (zh) 基于多分支注意力图卷积的三维人体姿态估计方法
CN110516724A (zh) 可视化作战场景的高性能多层字典学习特征图像处理方法
KR20230072454A (ko) 이미지 텍스트 양방향 생성 장치, 방법 및 프로그램
CN112446489A (zh) 基于变分自编码器的动态网络嵌入链接预测方法
CN116109978A (zh) 基于自约束动态文本特征的无监督视频描述方法
Zhang et al. A novel effective and efficient capsule network via bottleneck residual block and automated gradual pruning
CN113705242B (zh) 面向教育咨询服务的智能语义匹配方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20170707

RJ01 Rejection of invention patent application after publication