CN110991480A - 一种基于注意力机制的稀疏编码方法 - Google Patents
一种基于注意力机制的稀疏编码方法 Download PDFInfo
- Publication number
- CN110991480A CN110991480A CN201911048930.3A CN201911048930A CN110991480A CN 110991480 A CN110991480 A CN 110991480A CN 201911048930 A CN201911048930 A CN 201911048930A CN 110991480 A CN110991480 A CN 110991480A
- Authority
- CN
- China
- Prior art keywords
- historical information
- iteration
- sparse coding
- attention mechanism
- sparse
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000007246 mechanism Effects 0.000 title claims abstract description 34
- 238000000034 method Methods 0.000 title claims abstract description 33
- 241001134453 Lista Species 0.000 claims abstract 2
- 230000006870 function Effects 0.000 claims description 21
- 239000013598 vector Substances 0.000 claims description 12
- 239000011159 matrix material Substances 0.000 claims description 6
- 230000008569 process Effects 0.000 claims description 6
- 102100029469 WD repeat and HMG-box DNA-binding protein 1 Human genes 0.000 claims description 2
- 101710097421 WD repeat and HMG-box DNA-binding protein 1 Proteins 0.000 claims description 2
- GMVPRGQOIOIIMI-DWKJAMRDSA-N prostaglandin E1 Chemical compound CCCCC[C@H](O)\C=C\[C@H]1[C@H](O)CC(=O)[C@@H]1CCCCCCC(O)=O GMVPRGQOIOIIMI-DWKJAMRDSA-N 0.000 claims description 2
- 238000002474 experimental method Methods 0.000 abstract description 3
- 230000000694 effects Effects 0.000 abstract description 2
- 230000002452 interceptive effect Effects 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 8
- 238000011160 research Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000012804 iterative process Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000006403 short-term memory Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000007787 long-term memory Effects 0.000 description 1
- 230000015654 memory Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/28—Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于注意力机制的稀疏编码方法,该方法在原有模型LISTA的基础上加入注意力机制网络,从而充分利用迭代历史信息,加速模型收敛,并在此基础上进行监督学习,提高图像分类的准确率。与现有技术相比,本发明具有算法复杂度更低,实验证明效果更佳等优点。
Description
技术领域
本发明涉及一种稀疏编码方法,尤其是涉及一种基于注意力机制的稀疏编码 方法。
背景技术
稀疏编码SC(Sparse Coding)方法在盲源信号分离、语音信号处理、自然图 像特征提取、自然图像去噪以及模式识别等方面已经取得许多研究成果,具有重要 的实用价值,是当前学术界的一个研究热点。进一步研究稀疏编码技术,不仅会积极 地促进图像信号处理、神经网络等技术的研究,而且也将会对相关领域新技术的发 展起到一定的促进作用。
近几年,以RNN(Recurrent Neural Network,时序循环神经网络)为基础的 SC推断方法变得流行,如LISTA(Learned iterative shrinkage-thresholding algorithm, 可学习的迭代软阈值算法),LFISTA(Learned Fast iterative shrinkage-thresholdingalgorithm,可学习的快速迭代软阈值算法)和SLSTM(Sparse Long Short-Term Memory,基于长短期记忆单元的稀疏编码方法)。与传统的交替优化算法,如ISTA (iterativeshrinkage-thresholding algorithm,迭代软阈值算法)相比,这些基于RNN 的方法主要有两个优势:1)基于RNN的算法可以同时学习字典和进行稀疏编码 推断;2)基于RNN算法的稀疏编码推断效率更高,算法复杂度更低(传统的稀 疏编码方法需要解决凸优化问题。
作为LISTA算法的改进,LFISTA和SLSTM并没有合理地利用迭代过程中的 历史信息,这些信息已被证明是有利于加速迭代的收敛的。
其中λ>0用于平衡稀疏项和数据重构项。
为了解决公式(1),传统方法是交替优化D和Z,固定D时,按如下公式优化Z:
ISTA算法的解决思路如下:
Z[t]=hθ(WeX+WsZ[t-1]), (3)
其中hθ(x)=sign(x)max(|x|θ,0)是软阈值函数,θ=λ/τ,τ是DTD的最大特征值, t表示第t次迭代,DT表示D的转置矩阵,I表示单位矩阵。在LISTA[3]算法中, 参数{We,Ws}是可学习的,LISTA通过建立RNN网络学习权重参数,该网络每个 RNN层的输入是前一层的稀疏编码输出。算法框架如图2所示。
现有技术一的LISTA算法的结构较为简单,没有充分利用历史信息加速模型 收敛。
现有技术二为快速迭代软阈值算法FISTA,FISTA本质上是在原有的ISTA的基 础上引入动量项加速收敛:
其中,
可以发现,在LFISTA[4]中每个RNN层输入的是前两层的稀疏编码输出,如 图3所示。
现有技术二的LFISTA算法的结构只关注了一层历史信息,同样没有充分利用 历史信息加速模型收敛。
现有技术三提出了一种基于长短期记忆单元的稀疏编码模型SLSTM。SLSTM算 法借鉴了传统LSTM算法的思想,通过引入两个门:更新门u[t]和遗忘门v[t],其 迭代公式如下:
其中⊙向量之间的逐元素乘积,σ表示sigmoid激活函数,Wus,Wue,Wfs,Wfe是可学 习的LSTM参数。通过分析,注意到隐藏单元c[t]的迭代输出可推导如下:
现有技术三虽然SLSTM充分利用了历史信息,但是由于把所有历史信息聚合在 一起,由于较早的迭代层数中模型尚未收敛,该层历史信息不一定有用,所以盲目 聚合会导致模型性能下降。同时网络复杂度也比较高,模型比较占内存。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种基于注意力 机制的稀疏编码方法。
本发明的目的可以通过以下技术方案来实现:
一种基于注意力机制的稀疏编码方法,其特征在于,该方法在原有模型LISTA 的基础上加入注意力机制网络,从而充分利用迭代历史信息,加速模型收敛,并在 此基础上进行监督学习,提高图像分类的准确率。
优选地,该方法具体包括以下步骤:
将注意力机制加到原有的LISTA模型上,其中历史信息定义如下:
A[t]=We X+Ws S[t-1]
S[t]=hθ(A[t])
其中A[t]表示第t次迭代的历史信息,X表示原始数据,S[t]表示第t次迭代的 稀疏编码输出,We和Ws是可学习参数;
1)基于注意力机制的稀疏编码前向传播过程;
2)在后向传播时所有可学习的参数被更新,直至模型收敛为止;
3)在步骤2)基础上加入有监督学习项,并应用于图像分类任务。
优选地,所述的基于注意力机制的稀疏编码前向传播过程具体包括以下步骤:
其中X表示原始数据,是m个p维度的数组;D是字典矩阵,λ表示稀疏系数, n表示迭代次数;
其中θ是软阈值函数h的输入参数;
第一步:A[t]=We X+Ws S[t-1]
这一步求得当前迭代的历史信息A[t],X表示原始数据,S[t]表示第t次迭代的 稀疏编码输出,We和Ws是可学习参数;
第二步:S[t]=hθ(A[t])
S[t]表示第t次迭代的稀疏编码输出,hθ表示软阈值函数;
第三步:计算各个历史信息的重要性权重, α<t,t>,α<t,t-1>,…,α<t,t-l+1>,其中α<t,t-l+i>表示对t次迭代、第 t-l+i个历史信息对当前输出的重要程度;
第四步:计算上下文向量和最终的稀疏编码。
优选地,所述的计算各个历史信息的重要性权重具体为:
对于第t次迭代更新,通过注意力机制决定当前输出Z[t]与哪些历史信息有关,并且构建一个多层感知器,求出某一层历史信息对当前输出的重要程度,其中多层 感知器建模如下:
其中α<t,t-l+i>表示对t次迭代、第t-l+i个历史信息对当前输出的重要程度,A表示历史信息,Z[t-1]表示上一层迭代 输出,即该历史信息的重要程度由自身和前一层迭代输出共同决定,P表示一个多 层感知器,Wa表示多层感知器的参数。
优选地,所述的计算上下文向量和最终的稀疏编码具体为:
得到各个历史信息的权重后,将其加权求和得到上下文向量,并得到最终的稀 疏编码Z,
Z[t]=hθ(C[t]).
其中C表示上下文向量,是对所有历史信息进行整合之后的结果,l表示关注 历史信息的长度,hθ表示软阈值函数:
hθ(x)=sign(x)max(|x|-θ,0)
Sign(x)表示符号函数,当x大于0时值为1,小于0时值为-1。
优选地,所述的监督学习项采用softmax函数,其loss函数定义如下:
相比原来的ALISTA,在重构误差和稀疏误差的基础上加入了分类损失误差, 其中β≥0用于权衡分类误差,Ec是用于softmax分类对交叉熵损失函数,yc是类别 标签,Wc是可学习的参数,Lc表示分类loss、X表示原始数据、D表示字典矩阵、 Z表示第n次迭代的稀疏编码输出、λ表示稀疏系数。
与现有技术相比,本发明具有以下优点:
1)本发明提出的ALISTA框架利用注意力机制网络可以灵活地结合迭代过程 的历史信息并为其分配合适的权重,权重参数均可学习
2)本发明提出的ALISTA框架是简单的LISTA和attention网络的结合,没有 过多地改变LISTA的整体架构
3)本发明提出的ALISTA几乎没有增加LISTA的参数量,大大少于LFISTA 和SLSTM的参数量,算法复杂度更低,实验证明效果更佳。
附图说明
图1为ALISTA的整体框架图;
图2为LISTARNN单元示意图;
图3为注意力机制网络示意图;
图4为ISTA的结构示意图;
图5为LISTA的结构示意图;
图6为FISTA的结构示意图;
图7为LFISTA的结构示意图;
图8为多层感知器的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、 完整地描述,显然,所描述的实施例是本发明的一部分实施例,而不是全部实施例。 基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获 得的所有其他实施例,都应属于本发明保护的范围。
为了更合理地发挥这些信息的作用,本文提出了一种新的基于注意力机制的可学习迭代软阈值算法框架ALISTA(Attention-Based Learned iterative shrinkage-thresholding algorithm)。ALISTA由一个注意力机制网络和一个时序RNN 组成,如图1所示。其中时序RNN本质上是LISTA,其作用是产生一系列时序的 迭代信息;注意力机制网络的作用是决定这些迭代历史信息的重要程度并将其整合, 作为本次迭代更新的输入。前人的算法如LISTA只考虑了一层历史信息,而SLSTM 考虑了所有的历史信息,本专利提出的ALISTA可以更灵活地决定输入多少迭代历 史信息和决定各个历史信息的重要程度。ALISTA算法已在MNIST数据集和 CIFAR-10数据集作了图像重构和图像分类实验,实验结果表明,ALISTA不论从 编码质量还是编码效率上已经超过了原有的LFISTA算法和SLSTM算法。
其中图1是ALISTA的整体框架图,图2是LISTA RNN单元,用于产生时序 的历史信息,图3是注意力机制网络,输入由RNN网络生成的各个历史信息,输 出各个历史信息的加权和,权重参数可学习。
本发明主要解决的技术问题如下:
(1)提出一种新的基于注意力机制的稀疏编码模型,可以在不增加模型复杂 度的情况下充分考虑迭代历史信息。
(2)将提出的基于注意力机制的稀疏编码模型应用于有监督学习,从而提高 分类准确率。
本发明提出了一种新的基于注意力机制的稀疏编码方法,在原有模型LISTA 的基础上加入注意力机制网络,从而充分利用迭代历史信息,加速模型收敛。并且, 在此基础上可以进行有监督学习,提高图像分类的准确率。
本发明利用注意力机制进行稀疏编码,模型的理论基础、模型的建立、模型的 有监督形式及模型的应用如下:
1、模型的理论基础---注意力机制
从上述分析可以发现,前人的算法如LISTA、LFISTA和SLSTM都没有合理 地利用历史信息,导致模型收敛变慢或者算法复杂度过高等问题。本发明提出在原 有算法LISTA的基础上加入注意力机制。注以能更好地关注历史信息,分配合理 的参数权重,是因为它在模型训练过程中所有参数都是可学习的。具体来说,对于 第t次迭代更新,通过注意力机制决定当前输出Z[t]与哪些历史信息有关,并且构 建一个多层感知器,求出某一层历史信息的对当前输出的重要程度,多层感知器的 结构如图8所示。多层感知器建模如下:
得到各个历史信息的权重后,将其加权求和得到上下文向量,并得到最终的稀 疏编码Z,
Z[t]=hθ(C[t]).
其中C表示上下文向量,是对所有历史信息进行整合之后的结果,l表示关注 历史信息的长度,是可人为控制的参数。
2、模型的构建---基于注意力机制的稀疏编码模型
将注意力机制加到原有的LISTA模型上,上节提到的历史信息定义如下:
A[t]=We X+Ws S[t-1]
S[t]=hθ(A[t])
基于注意力机制的稀疏编码模型流程如下:
基于注意力机制的稀疏编码前向传播
第一步:A[t]=We X+Ws S[t-1]
第二步:S[t]=hθ(A[t])
第三步:计算各个历史信息的重要性权重, α<t,t>,α<t,t-1>,…,α<t,t-l+1>,其中α<t,t-l+i>表示对t次迭代、第 t-1+i个历史信息对当前输出的重要程度;
第四步:计算上下文向量和最终的稀疏编码。
重复第一步至第四步n遍。
上述过程形成一个前向传播,在后向传播时所有可学习的参数被更新,直至模 型收敛为止。对各个模型的训练参数量进行统计,结果如表1所示。从表看出, ALISTA的模型的参数量明显少于LFISTA和SLSTM,相比LISTA只多了一点参 数。这说明本发明提出的方法仅比简单的LISTA增加了一点复杂度。
表1
3、模型的有监督形式
本发明提出的方法可以方便地推广成有监督形式,并用于图像分类。有监督形 式的ALISTA框架如图1所示。为了进行分类,本发明采用softmax函数,其loss 函数定义如下:
相比原来的ALISTA,在重构误差和稀疏误差的基础上加入了分类损失误差, 其中β≥0用于权衡分类误差,Ec是用于softmax分类对交叉熵损失函数,yc是类别 标签,Wc是可学习的参数。
传统的基于RNN的稀疏编码推断算法,如LFISTA和SLSTM主要面临两个 主要问题:a)不能很好地结合迭代过程保留的历史信息来加速模型收敛,历史信 息已被证明可以加速稀疏编码推断的收敛;b)为使性能提升而改变原LISTA的简 单结构,虽然性能能够提升,但同时算法复杂度变高。本发明能很好地解决上述问 题。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此, 任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到各种等效 的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。因此,本发明 的保护范围应以权利要求的保护范围为准。
Claims (6)
1.一种基于注意力机制的稀疏编码方法,其特征在于,该方法在原有模型LISTA的基础上加入注意力机制网络,从而充分利用迭代历史信息,加速模型收敛,并在此基础上进行监督学习,提高图像分类的准确率。
2.根据权利要求1所述的一种基于注意力机制的稀疏编码方法,其特征在于,该方法具体包括以下步骤:
将注意力机制加到原有的LISTA模型上,其中历史信息定义如下:
A[t]=WeX+WsS[t-1]
S[t]=hθ(A[t])
其中A[t]表示第t次迭代的历史信息,X表示原始数据,S[t]表示第t次迭代的稀疏编码输出,We和Ws是可学习参数;
1)基于注意力机制的稀疏编码前向传播过程;
2)在后向传播时所有可学习的参数被更新,直至模型收敛为止;
3)在步骤2)基础上加入有监督学习项,并应用于图像分类任务。
3.根据权利要求2所述的一种基于注意力机制的稀疏编码方法,其特征在于,所述的基于注意力机制的稀疏编码前向传播过程具体包括以下步骤:
其中X表示原始数据,是m个p维度的数组;D是字典矩阵,λ表示稀疏系数,n表示迭代次数;
其中θ是软阈值函数h的输入参数;
第一步:A[t]=WeX+WsS[t-1]
这一步求得当前迭代的历史信息A[t],X表示原始数据,S[t]表示第t次迭代的稀疏编码输出,We和Ws是可学习参数;
第二步:S[t]=hθ(A[t)
S[t]表示第t次迭代的稀疏编码输出,hθ表示软阈值函数;
第四步:计算上下文向量和最终的稀疏编码。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911048930.3A CN110991480A (zh) | 2019-10-31 | 2019-10-31 | 一种基于注意力机制的稀疏编码方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911048930.3A CN110991480A (zh) | 2019-10-31 | 2019-10-31 | 一种基于注意力机制的稀疏编码方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110991480A true CN110991480A (zh) | 2020-04-10 |
Family
ID=70082766
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911048930.3A Pending CN110991480A (zh) | 2019-10-31 | 2019-10-31 | 一种基于注意力机制的稀疏编码方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110991480A (zh) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090322871A1 (en) * | 2008-06-26 | 2009-12-31 | Toyota Motor Engineering & Manufacturing North America, Inc. | Method and system of sparse code based object classification with sensor fusion |
CN104933417A (zh) * | 2015-06-26 | 2015-09-23 | 苏州大学 | 一种基于稀疏时空特征的行为识别方法 |
CN107423765A (zh) * | 2017-07-28 | 2017-12-01 | 福州大学 | 基于稀疏编码反馈网络的自底而上显著目标检测方法 |
CN107480777A (zh) * | 2017-08-28 | 2017-12-15 | 北京师范大学 | 基于伪逆学习的稀疏自编码器快速训练方法 |
CN109255381A (zh) * | 2018-09-06 | 2019-01-22 | 华南理工大学 | 一种基于二阶vlad稀疏自适应深度网络的图像分类方法 |
CN109543724A (zh) * | 2018-11-06 | 2019-03-29 | 南京晓庄学院 | 一种多层鉴别卷积稀疏编码学习方法 |
CN109784280A (zh) * | 2019-01-18 | 2019-05-21 | 江南大学 | 基于Bi-LSTM-Attention模型的人体行为识别方法 |
CN109800710A (zh) * | 2019-01-18 | 2019-05-24 | 北京交通大学 | 行人重识别系统及方法 |
-
2019
- 2019-10-31 CN CN201911048930.3A patent/CN110991480A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090322871A1 (en) * | 2008-06-26 | 2009-12-31 | Toyota Motor Engineering & Manufacturing North America, Inc. | Method and system of sparse code based object classification with sensor fusion |
CN104933417A (zh) * | 2015-06-26 | 2015-09-23 | 苏州大学 | 一种基于稀疏时空特征的行为识别方法 |
CN107423765A (zh) * | 2017-07-28 | 2017-12-01 | 福州大学 | 基于稀疏编码反馈网络的自底而上显著目标检测方法 |
CN107480777A (zh) * | 2017-08-28 | 2017-12-15 | 北京师范大学 | 基于伪逆学习的稀疏自编码器快速训练方法 |
CN109255381A (zh) * | 2018-09-06 | 2019-01-22 | 华南理工大学 | 一种基于二阶vlad稀疏自适应深度网络的图像分类方法 |
CN109543724A (zh) * | 2018-11-06 | 2019-03-29 | 南京晓庄学院 | 一种多层鉴别卷积稀疏编码学习方法 |
CN109784280A (zh) * | 2019-01-18 | 2019-05-21 | 江南大学 | 基于Bi-LSTM-Attention模型的人体行为识别方法 |
CN109800710A (zh) * | 2019-01-18 | 2019-05-24 | 北京交通大学 | 行人重识别系统及方法 |
Non-Patent Citations (3)
Title |
---|
JIALIN LIU: "ALISTA: ANALYTIC WEIGHTS ARE AS GOOD AS LEARNED WEIGHTS IN LISTA" * |
KAROL GREGOR等: "Learning Fast Approximations of Sparse Coding" * |
THOMAS MOREAU等: "Understanding Trainable Sparse Coding via matrix factorization" * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109284506B (zh) | 一种基于注意力卷积神经网络的用户评论情感分析系统及方法 | |
CN111291836B (zh) | 一种生成学生网络模型的方法 | |
Han et al. | A survey on metaheuristic optimization for random single-hidden layer feedforward neural network | |
Liang et al. | Stacked denoising autoencoder and dropout together to prevent overfitting in deep neural network | |
US6009418A (en) | Method and apparatus for neural networking using semantic attractor architecture | |
Manukian et al. | Accelerating deep learning with memcomputing | |
CN111274398A (zh) | 一种方面级用户产品评论情感分析方法及系统 | |
Cai et al. | An optimal construction and training of second order RBF network for approximation and illumination invariant image segmentation | |
Liu et al. | A fault diagnosis intelligent algorithm based on improved BP neural network | |
WO2021042857A1 (zh) | 图像分割模型的处理方法和处理装置 | |
US20220383127A1 (en) | Methods and systems for training a graph neural network using supervised contrastive learning | |
Qiao et al. | A self-organizing RBF neural network based on distance concentration immune algorithm | |
CN110298434A (zh) | 一种基于模糊划分和模糊加权的集成深度信念网络 | |
CN111461907A (zh) | 一种面向社交网络平台的动态网络表征学习方法 | |
Alsaeedi et al. | A proactive metaheuristic model for optimizing weights of artificial neural network | |
Fan et al. | Neighborhood centroid opposite-based learning Harris Hawks optimization for training neural networks | |
Dai et al. | Fast training and model compression of gated RNNs via singular value decomposition | |
CN111382840A (zh) | 一种面向自然语言处理的基于循环学习单元的htm设计方法 | |
Hussein et al. | Multi-step-ahead chaotic time series prediction using coevolutionary recurrent neural networks | |
CN111144500A (zh) | 基于解析高斯机制的差分隐私深度学习分类方法 | |
CN111933123A (zh) | 一种基于门控循环单元的声学建模方法 | |
Li et al. | Fitcnn: A cloud-assisted lightweight convolutional neural network framework for mobile devices | |
CN110991480A (zh) | 一种基于注意力机制的稀疏编码方法 | |
Shafie et al. | Backpropagation neural network with new improved error function and activation function for classification problem | |
He et al. | Generalizing Projected Gradient Descent for Deep-Learning-Aided Massive MIMO Detection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
AD01 | Patent right deemed abandoned |
Effective date of abandoning: 20240329 |
|
AD01 | Patent right deemed abandoned |