CN108446766A - 一种快速训练堆栈自编码深度神经网络的方法 - Google Patents

一种快速训练堆栈自编码深度神经网络的方法 Download PDF

Info

Publication number
CN108446766A
CN108446766A CN201810249199.XA CN201810249199A CN108446766A CN 108446766 A CN108446766 A CN 108446766A CN 201810249199 A CN201810249199 A CN 201810249199A CN 108446766 A CN108446766 A CN 108446766A
Authority
CN
China
Prior art keywords
self
matrix
encoding encoder
training
encoding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201810249199.XA
Other languages
English (en)
Inventor
郭平
王可
辛欣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Institute of Technology BIT
Original Assignee
Beijing Institute of Technology BIT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Institute of Technology BIT filed Critical Beijing Institute of Technology BIT
Priority to CN201810249199.XA priority Critical patent/CN108446766A/zh
Publication of CN108446766A publication Critical patent/CN108446766A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

本发明公开了一种快速训练堆栈自编码深度网络的方法,属于计算机人工智能技术领域。本方法以单隐层前馈神经网络作为基本模型构建多个自编码器,采用伪逆学习算法训练每一个自编码器,得到第i层自编码器的连接权重;将训练完成的前一层自编码器的隐层输出作为后一层自编码器的输入,重复步骤一,训练新的自编码器;训练完成后,所有自编码器去掉解码器后堆叠为一个深度神经网络结构,直至深度网络的层数达到预先设计的层数为止。与现有技术相比,本发明与现有技术相比,计算速度较快,训练方法易用性强,不需要通过人工设计及反复试错进行选择和调试,且便于硬件实现,可以固化为专用的深度网络芯片。

Description

一种快速训练堆栈自编码深度神经网络的方法
技术领域
本发明涉及一种深度神经网络训练方法,尤其涉及一种快速训练堆栈自编码深度神经网络的方法,属于计算机人工智能技术领域。
背景技术
深度学习的成功引发了近年来人工智能的研究热潮。深度学习旨在建立一种类似于人脑信息处理机制的多层神经网络,通过逐层组合低层特征来获得更抽象的高层特征表达,以发现复杂数据内在的、本质的特征表示,目前已在图像视频识别、语音识别、自然语言处理、信息检索等领域取得了极大的成功。与传统的浅层模型相比,深度模型具有更加强大的学习能力。
目前,以深度学习为代表的人工智能技术中,往往需要大量的标注数据来训练深度模型,然而,实际应用中获取的数据绝大部分属于无标注数据,如果对大量无标注数据进行人工标注需要较高的人力和时间成本。因此,有必要发展无监督学习的技术和方法,直接在无标注数据上进行学习,充分利用大量的无标注数据。
自编码器是一种常用的深度学习基本模型,在训练过程中不需要标注数据,可以以无监督的方式直接从原始数据中进行特征学习。自编码器由编码器(encoder)和解码器(decdoer)构成。编码器将输入向量x编码为隐层特征向量y,通过线性映射和非线性激活函数实现:
Θ={We,θ}为编码器的参数集,包括连接权重、矩阵和偏置,f(·)为隐层神经元的激活函数,通常为线性或非线性的分段连续函数。解码器将隐层特征向量y重构为输入空间的向量z:
z=φ(y,Θ′)=f′(Wdy+θ′)
Θ′={Wd,θ′}为解码器的参数集,包括连接权重、矩阵和偏置,f′(·)为输出层神经元的激活函数。
训练自编码器的过程就是优化输入信号重构误差(损失)函数的过程,可以形式化为如下损失函数:
E=-logp(x|y)
如果误差服从高斯分布,则可简化为如下平方误差和作为损失函数:
自编码器可以被用作构建深度神经网络的基本单元。在这种深度神经网络中,为了克服模型层数加深导致的训练困难,采用逐层贪婪训练的策略,逐层训练过的自编码器(去掉解码器)再堆叠为多层深度模型,构成堆栈自编码器。在堆栈自编码器中,前一层自编码器的输出作为后一层自编码器的输入。网络最后一层的输出可作为原始数据的特征。在特定的学习任务中(例如分类问题),可以再将输出的特征作为分类器的输入,再对分类器以有监督的方式进行训练。从训练效果来看,与传统的随机初始化加有监督训练策略相比,这种逐层贪婪的训练策略能够从无标注数据中直接学习特征,并在一定程度上缓解梯度消减和梯度爆炸的问题,收敛到更好的局部最优解上,在许多具体的学习任务上取得了更好的泛化能力。
在目前的实际应用中,自编码器一般使用梯度下降算法的变种进行训练。由于这些算法根据每个单独的训练样本(或一小部分样本)来迭代更新模型参数,往往要经过多次迭代才有可能得到优化问题的解,当数据量很大时,训练过程极其耗时。其次,训练算法涉及众多控制参数,如最大重复迭代次数(maximum epoch),学习步长(step length),权重衰减因子(weight decay),动量因子(momentum),这些参数直接影响最终的训练结果,但如何设置这些控制参数却缺少理论依据。另外,对于一个具体的问题,网络的网络结构如何设计,例如每个隐层需要多少个神经元,也基本要依靠经验进行反复调整和尝试才能得到较好的结果。当数据量较大时,反复进行多次训练无疑是一个非常耗时的过程,影响算法的可用性和易用性。
发明内容
本发明的目的在于克服现有的堆栈自编码器深度神经网络训练算法的不足,提出一种新的快速训练方法。
一种快速训练堆栈自编码深度网络的方法,包括如下基本设计思想:
1、以单隐层前馈神经网络作为基本模型构建多个自编码器,采用伪逆学习算法训练每一个自编码器。
单隐层前馈神经网络引入输入等于输出的限制,就可以作为自编码器的一种具体实现模型。伪逆学习算法(Pseudoinverse Learning Algorithm,PIL)是一种用于训练前馈神经网络的快速算法,伪逆,或Moore-Penrose pseudoinverse,又称广义逆,是对逆矩阵的推广。伪逆学习算法的基本思想是权重矩阵采用相应输入的伪逆矩阵,并使用非线性激活函数提升隐层神经元输出矩阵的秩,然后通过计算伪逆解近似求解网络的输出权重。伪逆学习算法仅使用基本的矩阵运算,如矩阵内积和伪逆运算,能够直接计算优化目标的解析解,无需迭代优化的过程,因此效率较之于误差反向传播等其它基于梯度下降的算法更高。具体地,在输出层采用线性激活函数时,伪逆算法的优化目标可定义为:
其中,矩阵H为隐层神经元输出,每一列对应一个输入样本;W为网络输出权重,O为期望的输出或数据的标签。由于WH=O存在最优近似的伪逆解W=OH+(这里H+代表矩阵H的伪逆),因此伪逆学习算法的优化目标等价于:
为了求解该优化问题,需要将伪逆矩阵作为输出权重,将矩阵H前馈传播,并利用激活函数的非线性提升矩阵H的秩,使得H+H逐渐接近单位矩阵。一旦条件H+H-I<ε满足,则达到最小值,网络输出权重可直接计算为W=OH+
原始伪逆学习算法的具体流程如下:
由于自编码器本质上可以视为输入等于输出的单隐层神经网络,因此,如果将数据本身作为其标签,即O=X,那么伪逆学习的思想也可以被用于训练自编码器。由于自编码器的目标是从原始数据中学习特征,因此使用伪逆学习算法训练自编码器时不必对数据进行精确重构,仅需要两次伪逆计算就可以得到编码器和解码器的连接权重。
2、为了避免恒等映射,自编码器的隐层神经元个数一般应小于原始数据的维度;为了避免造成输入数据在映射到隐层特征空间的过程中信息损失过大从而导致重构误差过大,隐层神经元个数又不宜过小。
因此,本发明中,将隐层神经元的个数设置为小于原始输入数据的维度,而大于或等于输入数据矩阵的秩。本发明中在训练自编码器时,使用奇异值分解计算输入矩阵的伪逆,这个过程中可以通过统计非零奇异值的个数得到输入矩阵的秩,进而为设置隐层单元的神经元个数提供指导。同时,输入矩阵的低维近似矩阵的伪逆解又可以作为编码器的初始化连接权重。在不增加计算量的前提下,同时实现双重目标。
3、使用伪逆学习算法训练完成的前一层自编码器的隐层输出作为后一层自编码器的输入,训练新的自编码器。训练完成的所有自编码器去掉解码器后堆叠为一个深度神经网络结构。对于比较复杂的模型,可以选择利用权重捆绑减少权重参数,降低模型的自由度,将解码器连接权重矩阵的转置作为编码器的权重矩阵。
有益效果
与现有技术相比,本发明具有如下有益效果:
第一,与传统的基于梯度下降的训练算法相比,使用伪逆算法训练自编码器不需要迭代优化,可以直接计算优化目标函数的解析解,因此计算速度较快。
第二,伪逆学习算法不需要设置包括如最大重复迭代次数(maximum epoch),学习步长(step length),权重衰减因子(weight decay),动量因子(momentum)在内的一系列控制参数,仅需要人工指定深度神经网络的层数,因此本发明中的训练方法易用性强。
第三,构建深度神经网络的所有自编码器的隐层神经元的个数都可以根据自编码器训练数据的秩进行设定,不需要通过人工设计及反复试错进行选择和调试,具有较高的实用价值。
第四,本发明中的训练方法在计算过程中无迭代,主要使用矩阵内积等基本运算,因此便于硬件实现,可以固化为专用的深度网络芯片。
附图说明
图1为基于堆栈自编码器的深度神经网络的快速训练方法的基本流程图;
图2为以自编码器为基本构建单元的深度神经网络结构示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,下面结合附图和实施例验证对该方法作进一步详细描述。应当理解,此处度具体实施例的描述仅用以解释本发明,并不用于限定本发明。
一种快速训练堆栈自编码深度网络的方法,其实现流程如图1所示,包括以下步骤:
设对于N个M维的样本组成训练样本集X0∈》M×N,表示为矩阵X0=[x1,x2,...,xN],其中代表第i个训练样本。
步骤一、采用伪逆学习算法训练自编码器,得到第i层自编码器的连接权重为表述方便,这里不再区分权重与偏置。
具体实现过程如下:
步骤a.通过对第i层自编码器的输入矩阵Xi奇异值分解得到:
Xi=UiΣiVi T
其中,Ui表示矩阵Xi的左奇异向量矩阵,Σi表示由矩阵Xi的奇异值组成的对角矩阵,Vi T表示矩阵Xi的右奇异向量矩阵的转置,T为矩阵转置运算符;
步骤b.计算Xi的伪逆矩阵得到
其中,∑'i为∑i中非零元素的倒数组成的对角矩阵。通过统计∑'i中非零奇异值的个数,得到矩阵的秩ri。矩阵的秩与矩阵Xi的秩相同,根据矩阵Xi的秩设置自编码器的隐层单元个数pi。为了避免恒等映射,自编码器的隐层神经元个数应小于Xi的维度Mi;为了避免造成输入矩阵Xi信息损失过大进而导致重构误差过大,隐层神经元个数不宜过小,具体可设置为ri<pi<Mi。为此,定义一个矩形单位阵矩阵其对角线上的元素为1,非对角线上的元素为0。选取矩阵的前pi个奇异值对应的奇异向量近似表示为:
其中,为Ui的前pi列,为由∑'i的前pi个奇异值组成的对角阵。
然后,使用将Xi映射到pi维的隐层特征空间:
其中,Hi代表第i层自编码器的隐层神经元输出矩阵,作为自编码器的编码器连接权值的初始值,实现将输入矩阵Xi映射到低维的隐层特征空间。f(·)为激活函数。不失一般性,本具体实施方式中使用Sigmoid函数:
步骤c.通过伪逆学习算法求解自编码器的解码器权重根据伪逆学习算法的基本思想,由于存在最优近似的伪逆解因此需要计算Hi的伪逆这里的伪逆矩阵通过正交投影法计算得到,即为了避免过拟合,引入正则化项提高模型的泛化能力,伪逆矩阵的计算公式为其中,k>0是正则化项系数。因此,自编码器的解码器权重为
得到解码器的权重后,可选择将自编码器的输入权重和输出权重进行捆绑,将解码器连接权重的转置作为编码器的连接权重,即目的是为了减少权重参数,降低模型的自由度,规避过拟合的风险。
步骤二、将第i层自编码器隐层神经元的输出作为第i+1层自编码器的输入,即令第i+1层自编码器的输入矩阵重复步骤一,训练新的自编码器。训练完成后,所有自编码器去掉解码器后堆叠为一个深度神经网络结构,直至深度网络的层数达到预先设计的层数为止。
在这个深度网络中,每个层次的自编码器分别抽取原始数据不同抽象级别的特征,最后一个自编码器隐层的输出就是原始数据的一种抽象的、本质的特征表示。深度网络的结构如图2所示。在具体的学习任务,如分类或预测中,可以再增加一层感知器用于最终的分类或预测,同样使用伪逆学习算法训练最后一层的输出权重。
通过步骤一和二得到的深度神经网络还可以结合具体的学习任务,选择与其它模型组合使用。例如,在分类或预测问题中,可选择深度神经网络输出的特征作为分类器或预测模型的输入,使用带有类别标签的训练样本,对分类器或预测模型进行微调,最终得到用于具体学习任务的深度神经网络。
实施例验证
为了证明本发明方法切实可行,现使用机器学习领域常见的图像识别任务进行对比实验。
实验中,使用MNIST数据集。MNIST是一个手写数字识别的数据集,在机器学习和模式识别研究社区十分常用。MNIST数据集包括60000张0-9的手写体数字图像。60000张图像分为50000个训练样本和10000个测试样本。每张图像都经过标准化,并被对齐到28×28=784个像素的图像块上。MNIST是评估深度学习模型性能的一个常用数据集。对比实验中,我们分别使用本发明所述的训练方法与梯度下降的BP算法训练结构与设置相同的堆栈自编码深度网络,在输出端加上一层感知器作为分类器。对识别精度及训练耗时进行对比,结果如表1所示。
表1MNIST数据集上的对比实验结果
训练方法 训练耗时(秒) 训练精度 测试精度
本发明方法 97.8643 0.9527 0.9433
BP算法 2397.3412 0.9746 0.9656
从对比实验结果可以看出,本发明方法在识别精度上略低于BP算法,但是在计算速度上提升了约24.5倍,在计算效率上具有明显的优势。另外,还可以选择使用Softmax作为分类器,并对分类器进行微调,则可以将测试精度提高到0.9665。实验结果表明,本发明方法能够取得和传统方法相接近的识别性能,同时能够大幅提高神经网路的训练速度,适用于大规模数据集的处理以及计算资源有限的特定应用场景中。
对所公开的实施例的上述说明,使熟悉本领域的专业技术人员能够实现或使用本发明。对实施例的修改对本领域的专业技术人员来说将是显而易见的。本专利中所定义的一般原理可以在不脱离本发明的基本思想或适用范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的实施例,凡是利用本发明的设计思路,做一些简单变化的方案,都应计入本发明的保护范围之内。

Claims (3)

1.一种快速训练堆栈自编码深度网络的方法,其特征在于,包括以下步骤:
步骤一、以单隐层前馈神经网络作为基本模型构建多个自编码器,采用伪逆学习算法训练每一个自编码器,得到第i层自编码器的连接权重;
步骤二、将训练完成的前一层自编码器的隐层输出作为后一层自编码器的输入,重复步骤一,训练新的自编码器;
训练完成后,所有自编码器去掉解码器后堆叠为一个深度神经网络结构,直至深度网络的层数达到预先设计的层数为止。
2.如权利要求1所述的一种快速训练堆栈自编码深度网络的方法,其特征在于,所述步骤一的具体实现方法包括以下步骤:
步骤a.对第i层自编码器的输入矩阵Xi奇异值分解,得到:
Xi=UiΣiVi T
其中,Ui表示矩阵Xi的左奇异向量矩阵,Σi表示由矩阵Xi的奇异值组成的对角矩阵,Vi T表示矩阵Xi的右奇异向量矩阵的转置,T为矩阵转置运算符;
步骤b.计算Xi的伪逆矩阵由Xi=UiiVi T得到
其中,∑'i为∑i中非零元素的倒数组成的对角矩阵;通过统计∑'i中非零奇异值的个数,得到矩阵的秩ri;矩阵的秩与矩阵Xi的秩相同,根据矩阵Xi的秩设置自编码器的隐层单元个数pi
定义矩形单位阵矩阵其对角线上的元素为1,非对角线上的元素为0,选取矩阵的前pi个奇异值对应的奇异向量近似表示为:
其中,为Ui的前pi列,为由∑'i的前pi个奇异值组成的对角阵;
然后,使用将Xi映射到pi维的隐层特征空间:
其中,Hi代表第i层自编码器的隐层神经元输出矩阵,作为自编码器的编码器连接权值的初始值,实现将输入矩阵Xi映射到低维的隐层特征空间;f(·)为激活函数;
步骤c.通过伪逆学习算法求解自编码器的解码器权重将自编码器的输入权重和输出权重进行捆绑,将解码器连接权重的转置作为编码器的连接权重。
3.如权利要求2所述的一种快速训练堆栈自编码深度网络的方法,其特征在于,所述自编码器的隐层神经元个数设置为小于原始输入数据的维度,而大于或等于输入数据矩阵的秩。
CN201810249199.XA 2018-03-21 2018-03-21 一种快速训练堆栈自编码深度神经网络的方法 Pending CN108446766A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810249199.XA CN108446766A (zh) 2018-03-21 2018-03-21 一种快速训练堆栈自编码深度神经网络的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810249199.XA CN108446766A (zh) 2018-03-21 2018-03-21 一种快速训练堆栈自编码深度神经网络的方法

Publications (1)

Publication Number Publication Date
CN108446766A true CN108446766A (zh) 2018-08-24

Family

ID=63196474

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810249199.XA Pending CN108446766A (zh) 2018-03-21 2018-03-21 一种快速训练堆栈自编码深度神经网络的方法

Country Status (1)

Country Link
CN (1) CN108446766A (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109978143A (zh) * 2019-03-29 2019-07-05 南京大学 一种基于simd架构的堆栈式自编码器及编码方法
CN110646203A (zh) * 2019-08-23 2020-01-03 中国地质大学(武汉) 基于奇异值分解和自编码器的轴承故障特征提取方法
CN110647900A (zh) * 2019-04-12 2020-01-03 中国人民解放军战略支援部队信息工程大学 基于深度神经网络的安全态势智能预测方法、装置及系统
CN111144214A (zh) * 2019-11-27 2020-05-12 中国石油大学(华东) 基于多层堆栈式自动编码器的高光谱图像解混方法
CN111144316A (zh) * 2019-12-27 2020-05-12 南京航空航天大学 基于堆栈自编码器的海面目标检测方法
CN111368205A (zh) * 2020-03-09 2020-07-03 腾讯科技(深圳)有限公司 数据推荐方法、装置、计算机设备及存储介质
CN111916156A (zh) * 2020-06-23 2020-11-10 宁波大学 一种基于栈式自编码器的尾气含硫物质浓度实时预测方法
CN112384933A (zh) * 2018-09-19 2021-02-19 国际商业机器公司 编码器-解码器存储器增强神经网络架构
CN116341614A (zh) * 2023-04-10 2023-06-27 华北电力大学(保定) 基于深层自编码网络的无线电干扰激发函数的预测方法

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112384933A (zh) * 2018-09-19 2021-02-19 国际商业机器公司 编码器-解码器存储器增强神经网络架构
CN109978143A (zh) * 2019-03-29 2019-07-05 南京大学 一种基于simd架构的堆栈式自编码器及编码方法
CN110647900A (zh) * 2019-04-12 2020-01-03 中国人民解放军战略支援部队信息工程大学 基于深度神经网络的安全态势智能预测方法、装置及系统
CN110647900B (zh) * 2019-04-12 2022-04-22 中国人民解放军战略支援部队信息工程大学 基于深度神经网络的安全态势智能预测方法、装置及系统
CN110646203A (zh) * 2019-08-23 2020-01-03 中国地质大学(武汉) 基于奇异值分解和自编码器的轴承故障特征提取方法
CN111144214A (zh) * 2019-11-27 2020-05-12 中国石油大学(华东) 基于多层堆栈式自动编码器的高光谱图像解混方法
CN111144316A (zh) * 2019-12-27 2020-05-12 南京航空航天大学 基于堆栈自编码器的海面目标检测方法
CN111368205A (zh) * 2020-03-09 2020-07-03 腾讯科技(深圳)有限公司 数据推荐方法、装置、计算机设备及存储介质
CN111368205B (zh) * 2020-03-09 2021-04-06 腾讯科技(深圳)有限公司 数据推荐方法、装置、计算机设备及存储介质
CN111916156A (zh) * 2020-06-23 2020-11-10 宁波大学 一种基于栈式自编码器的尾气含硫物质浓度实时预测方法
CN111916156B (zh) * 2020-06-23 2023-10-27 宁波大学 一种基于栈式自编码器的尾气含硫物质浓度实时预测方法
CN116341614A (zh) * 2023-04-10 2023-06-27 华北电力大学(保定) 基于深层自编码网络的无线电干扰激发函数的预测方法
CN116341614B (zh) * 2023-04-10 2023-10-03 华北电力大学(保定) 基于深层自编码网络的无线电干扰激发函数的预测方法

Similar Documents

Publication Publication Date Title
CN108446766A (zh) 一种快速训练堆栈自编码深度神经网络的方法
CN110084281B (zh) 图像生成方法、神经网络的压缩方法及相关装置、设备
CN108805270B (zh) 一种基于存储器的卷积神经网络系统
CN107480777A (zh) 基于伪逆学习的稀疏自编码器快速训练方法
CN106650813B (zh) 一种基于深度残差网络和lstm的图像理解方法
Teow Understanding convolutional neural networks using a minimal model for handwritten digit recognition
CN110222760B (zh) 一种基于winograd算法的快速图像处理方法
WO2022179533A1 (zh) 一种量子卷积操作器
CN114821217B (zh) 一种基于量子经典混合神经网络的图像识别方法及装置
CN107609638A (zh) 一种基于线性解码器和插值采样优化卷积神经网络的方法
CN106529570B (zh) 基于深度脊波神经网络的图像分类方法
CN110175248B (zh) 一种基于深度学习和哈希编码的人脸图像检索方法和装置
CN109308485A (zh) 一种基于字典域适应的迁移稀疏编码图像分类方法
CN109086802A (zh) 一种基于八元数卷积神经网络的图像分类方法
CN111401156B (zh) 基于Gabor卷积神经网络的图像识别方法
CN107451545A (zh) 基于软标签下多通道判别非负矩阵分解的人脸识别方法
CN113516133B (zh) 一种多模态图像分类方法及系统
CN112183742A (zh) 基于渐进式量化和Hessian信息的神经网络混合量化方法
CN109344893A (zh) 一种基于移动终端的图像分类方法及系统
CN111127360A (zh) 一种基于自动编码器的灰度图像迁移学习方法
CN114792378A (zh) 一种量子图像识别方法及装置
CN107609637A (zh) 一种结合数据表示与伪逆学习自编码器的提高模式识别精度的方法
CN117593666B (zh) 一种极光图像的地磁台站数据预测方法及系统
CN114581789A (zh) 一种高光谱图像分类方法及系统
CN109034387A (zh) 一种基于伪逆学习快速训练自编码器的近似方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20180824

WD01 Invention patent application deemed withdrawn after publication