CN106033555A - 基于满足k度稀疏约束的深度学习模型的大数据处理方法 - Google Patents
基于满足k度稀疏约束的深度学习模型的大数据处理方法 Download PDFInfo
- Publication number
- CN106033555A CN106033555A CN201510112645.9A CN201510112645A CN106033555A CN 106033555 A CN106033555 A CN 106033555A CN 201510112645 A CN201510112645 A CN 201510112645A CN 106033555 A CN106033555 A CN 106033555A
- Authority
- CN
- China
- Prior art keywords
- degree
- layer
- learning model
- input
- deep learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明提出了基于满足K度稀疏约束的深度学习模型的大数据处理方法,所述方法包括:步骤1)通过渐变剪枝法用无标注训练样本构建满足K度稀疏约束的深度学习模型;所述K度稀疏约束包括节点K度稀疏约束和层次K度稀疏约束;步骤2)将更新后的训练样本输入所述满足K度稀疏约束的深度学习模型,优化模型的各层的权重参数;进而得到优化的满足K度稀疏约束的深度学习模型;步骤3)将待处理的大数据输入所述优化的满足K度稀疏约束的深度学习模型进行处理,最后输出处理结果。本发明的方法能够降低大数据处理的难度,提高大数据处理的速度。
Description
技术领域
本发明涉及人工智能和大数据领域,特别涉及基于满足K度约束的深度学习模型的大数据处理方法。
背景技术
随着网络技术的快速发展,数据的容量和多样性快速增加,而处理数据的算法复杂度却难以改善,如何高效处理大数据已经成为一个紧迫的难题。在现有的依赖个人经验和手工操作来描述数据、标注数据、选择特征、提取特征、处理数据的方法,已经很难满足大数据快速增长的需求。随着人工智能技术的快速发展,特别是深度学习算法的研究突破,为解决大数据处理问题指明了一个值得探索的方向。
Hinton等人在2006年提出了用于深度置信网的逐层初始化训练方法,这是深度学习方法的研究起点,该方法打破了持续了几十年的深度神经网络训练困难且效果不好的局面。此后,深度学习算法替代了传统算法,在图像识别、语音识别、自然语言理解等领域得到广泛的应用。深度学习是通过模拟人脑分层次的抽象,将底层数据逐层映射而获得更抽象的特征,由于它可以从大数据中自动提取特征,并通过海量的样本训练获得很好的处理效果,从而得到了广泛的关注。实际上,大数据的快速增长和深度学习的研究突破是相辅相成的,一方面大数据的快速增长需要一种高效处理海量数据的方法,另一方面深度学习模型的训练需要海量的样本数据。总之,大数据可以使深度学习的性能达到极致。
但是,现有的深度学习模型仍然存在很多严重的问题,例如:模型难以扩展、参数优化困难、训练时间过长、推理效率低下等。在2013年Bengio的一篇综述论文中,总结了目前深度学习所面临的挑战和难点,包括如何扩展现有的深度学习模型的规模,并应用到更大的数据集;如何减小参数优化困难,如何避免昂贵的推理和采样,以及如何解开变化因素等。
发明内容
本发明的目的在于,克服在大数据应用中现有神经网络深度学习模型存在的上述问题,提出了基于满足K度稀疏约束的深度学习模型,该模型通过对各层神经元节点的正向出度进行约束,简化了模型的结构,提高了模型的训练速度和泛化能力,改善模型参数优化困难问题,将该模型应用于大数据处理,能够降低大数据处理的难度,提高大数据处理的速度。
为了实现上述目的,本发明提出了基于满足K度稀疏约束的深度学习模型的大数据处理方法,所述方法包括:
步骤1)通过渐变剪枝法用无标注训练样本构建满足K度稀疏约束的深度学习模型;所述K度稀疏约束包括节点K度稀疏约束和层次K度稀疏约束;所述节点K度稀疏约束是指模型中所有节点的正向出度不超过K;所述的K的取值范围为(1,N/H],其中,N为所述深度学习模型中所有节点的个数;H为模型隐层的层数;所述层次K度稀疏约束是指第h层所有节点的正向出度的和小于第h-1层所有节点的正向出度的和;
步骤2)将更新后的训练样本输入所述满足K度稀疏约束的深度学习模型,优化模型的各层的权重参数;进而得到优化的满足K度稀疏约束的深度学习模型;
步骤3)将待处理的大数据输入所述优化的满足K度稀疏约束的深度学习模型进行处理,最后输出处理结果。
上述技术方案中,所述K的取值为:
其中,din为模型输入的维度,dout为模型输出的维度,H为模型隐层的层数,[]为取整符号。
上述技术方案中,所述方法中的步骤1)进一步包括:
步骤101)按照输入层至输出层的顺序对深度学习模型的各层进行编号,令h=-1;
设深度学习模型包括输入层、H个隐层和输出层,从输入层至输出层总共包括H+2层;设输入层的编号为0,第一个隐层的编号为1,依次类推,输出层的编号为H+1;
步骤102)令h=h+1,初始化第h层和第h+1层的参数;
步骤103)将无标注训练样本集输入第h层,在第h层和第h+1层的代价函数最小化的过程中,调整第h层和第h+1层之间连接权重和第h+1层节点的偏置权重;
步骤104)当有连接权重小于第一阈值时,通过重构误差变化的概率函数来判断是否删除该连接;
如果有连接的权重衰减到小于第一阈值时,则根据有当前连接和无当前连接的两种情况下重构样本,得到重构误差变化ΔEr,并以该误差变化的概率函数min[1,exp(-ΔEr/Er)]来决定是否删除当前连接;
步骤105)判断第h层所有节点的正向出度是否都小于K,如果判断结果是肯定的,当时,转入步骤106);否则,转入步骤103);
步骤106)若h>0,则判断第h层所有节点的正向出度的和是否小于第h-1层所有节点的正向出度的和,如果判断结果是肯定的,转入步骤107),否则,转入步骤103);
步骤107)判断代价函数变化是否小于第二阈值,如果判断结果是肯定的,转入步骤108),否则,转入步骤103);
步骤108)判断h>H是否成立,如果判断结果是肯定的,步骤1)的流程结束;否则,转入步骤102)
上述技术方案中,所述方法中步骤2)的具体过程为:
将更新后的训练样本输入所述满足K度稀疏约束的深度学习模型,当输入的训练样本为无标注样本集时,将输入样本得到输出再逆转为输入,在k度约束下自输出层向输入层进行反向重构,计算重构误差Er,以梯度下降或共轭梯度下降的方式调整各层权重;直至误差小于临界值;当输入的训练样本为有标注的样本集则将输出与相比较,计算出训练误差Et,以梯度下降或共轭梯度下降的方式调整正向权重;直至误差小于临界值。
本发明的方法可以克服现有神经网络模型的训练速度过长、参数优化困难等缺点,提高深度前馈神经网络、深度置信网等现有神经网络模型的扩展能力、泛化能力和执行速度,改善无监督学习难度和参数优化难度,从而降低深度学习算法进行大数据处理的难度。
附图说明
图1为无层次K度稀疏网络及其节点度稀疏约束的示意图;
图2为有层次K度稀疏网络及其层次度稀疏约束的示意图;
图3为本发明的基于满足度稀疏约束的深度学习模型的大数据处理方法的流程图。
具体实施方式
首先对本发明涉及的概念进行解释。
如图1所示,无层次K度稀疏网络是指所有节点满足节点K度稀疏约束,节点K度稀疏约束是指:删除节点之间的不必要连接,直到所有节点的正向出度Ki都不超过K为止,其中K为一个设定的参数;正向是指从输入到输出的方向,如果有隐层,那么它是从输入到隐层再到输出的方向。
如图2所示,训练后的有层次K度稀疏网络是指所有层满足层次K度稀疏约束,层次K度稀疏约束是指:隐层的层次正向出度,即单一隐层节点的正向出度之和从输入到输出单调递减。作为层次K度稀疏约束的一种特殊情况,假如每一层中的节点的正向出度相等,那么每一层中的节点数和正向出度的乘积从输入到输出单调递减。
此外,作为上述k度稀疏网络的一些简单变化,节点k度稀疏网络是指满足ki≤k的神经网络模型,层次K度稀疏网络是指满足的神经网络模型,节点上限K度稀疏网络是指满足ki=k的神经网络模型,层次上限K度稀疏网络是指满足的神经网络模型,理想上限K度稀疏网络是指同时满足ki=k和的神经网络模型,它们都可以直接应用本发明所涉及的方法。
下面用数学语言来描述满足K度稀疏约束的神经网络模型。
假设神经网络模型共有N个节点,先以全连接的方式形成网络,将不连接的权重取值为零,如图1所示,那么任何一个节点的输出xj和该节点的输入集合X={xi,i=1…N}之间都满足以下运算规则:
xj=f(Σiwijxi+bj),其中,xi∈x,xj∈X
这里的xj是任意节点的输出,f是该节点的激活函数,bj是该节点的偏置权重,wij是连接到该节点的输入权重,并允许存在取值为零的权重。
现定义整个神经网络模型的正向为从外部输入到输出的方向,如图1所示,对于K度稀疏网络来说,任取一个节点的输出都会正向输入到Ki个节点上:
Ki≤K
这里的K是一个超参数,通常要比全连接时的N小一些,甚至要小很多,以达到稀疏的效果;K的取值范围为(1,N/H],其中,N为深度学习模型中所有节点的个数;H为模型隐层的层数;优选的,K的取值为:
其中,din为模型输入的维度,doutt为模型输出的维度,H为模型隐层的层数,[]为取整符号。
Ki是第i个节点的正向出度,其中i=1…N。如果是有层次K度稀疏网络,如图2所示,还必须满足所述的层次K度稀疏约束:
这里的是第j个隐层中任意节点的正向出度,是第j+1个隐层中任意节点的正向出度。
对于第h个隐层来说,任取一个节点的输出都会正向输入到个节点上,有:
其中,K(h)是第h个隐层的各节点的正向出度的最大值,根据隐层的不同,K(h)可以不同,但K值保持不变。
如图3所示,本发明提供了基于满足K度稀疏约束的深度学习模型的大数据处理方法,所述方法包括:
步骤1)通过渐变剪枝法用无标注训练样本构建满足K度稀疏约束的深度学习模型;
所述步骤1)进一步包括:
步骤101)按照输入层至输出层的顺序对深度学习模型的各层进行编号,令h=-1;
设深度学习模型包括输入层、H个隐层和输出层,从输入层至输出层总共包括H+2层;设输入层的编号为0,第一个隐层的编号为1,依次类推,输出层的编号为H+1;
步骤102)令h=h+1,初始化第h层和第h+1层的参数;
步骤103)将无标注训练样本集输入第h层,在第h层和第h+1层的代价函数最小化的过程中,调整第h层和第h+1层之间连接权重和第h+1层节点的偏置权重;
步骤104)当有连接权重小于第一阈值时,通过重构误差变化的概率函数来判断是否删除该连接;
如果有连接的权重衰减到小于第一阈值时,则根据有当前连接和无当前连接的两种情况下重构样本,得到重构误差变化ΔEr,并以该误差变化的概率函数min[1,exp(-ΔEr/Er)]来决定是否删除当前连接;
步骤105)判断第h层所有节点的正向出度是否都小于K,如果判断结果是肯定的,当时,转入步骤106);否则,转入步骤103);
步骤106)若h>0,则判断第h层所有节点的正向出度的和是否小于第h-1层所有节点的正向出度的和,如果判断结果是肯定的,转入步骤107),否则,转入步骤103);
步骤107)判断代价函数变化是否小于第二阈值,如果判断结果是肯定的,转入步骤108),否则,转入步骤103);
步骤108)判断h>H是否成立,如果判断结果是肯定的,步骤1)的流程结束;否则,转入步骤102)。
步骤2)将更新后的训练样本输入所述满足K度稀疏约束的深度学习模型,优化模型的各层的权重参数;进而得到优化的满足K度稀疏约束的深度学习模型;
将更新训练样本输入所述满足K度稀疏约束的深度学习模型,当输入的训练样本为无标注样本集时,将输入样本得到输出再逆转为输入,在k度约束下自输出层向输入层进行反向重构,计算重构误差Er,以梯度下降或共轭梯度下降的方式调整各层权重;直至误差小于临界值;当输入的训练样本为有标注的样本集则将输出与相比较,计算出训练误差Et,以梯度下降或共轭梯度下降的方式调整正向权重;直至误差小于临界值。
步骤2)将更新后的训练样本输入所述满足K度稀疏约束的深度学习模型,优化模型的各层的权重参数;进而得到优化的满足K度稀疏约束的深度学习模型;
步骤3)将待处理的大数据输入所述优化的满足K度稀疏约束的深度学习模型进行处理,最后输出处理结果。
最后所应说明的是,以上实施例仅用以说明本发明的技术方案而非限制。尽管参照实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,对本发明的技术方案进行修改或者等同替换,都不脱离本发明技术方案的精神和范围,其均应涵盖在本发明的权利要求范围当中。
Claims (4)
1.基于满足K度稀疏约束的深度学习模型的大数据处理方法,所述方法包括:
步骤1)通过渐变剪枝法用无标注训练样本构建满足K度稀疏约束的深度学习模型;所述K度稀疏约束包括节点K度稀疏约束和层次K度稀疏约束;所述节点K度稀疏约束是指模型中所有节点的正向出度不超过K;所述的K的取值范围为(1,N/H],其中,N为所述深度学习模型中所有节点的个数;H为模型隐层的层数;所述层次K度稀疏约束是指第h层所有节点的正向出度的和小于第h-1层所有节点的正向出度的和;
步骤2)将更新后的训练样本输入所述满足K度稀疏约束的深度学习模型,优化模型的各层的权重参数;进而得到优化的满足K度稀疏约束的深度学习模型;
步骤3)将待处理的大数据输入所述优化的满足K度稀疏约束的深度学习模型进行处理,最后输出处理结果。
2.根据权利要求1所述的基于满足K度稀疏约束的深度学习模型的大数据处理方法,其特征在于,所述K的取值为:
其中,din为模型输入的维度,dout为模型输出的维度,H为模型隐层的层数,[]为取整符号。
3.根据权利要求1所述的基于满足K度稀疏约束的深度学习模型的大数据处理方法,所述方法中的步骤1)进一步包括:
步骤101)按照输入层至输出层的顺序对深度学习模型的各层进行编号,令h=-1;
设深度学习模型包括输入层、H个隐层和输出层,从输入层至输出层总共包括H+2层;设输入层的编号为0,第一个隐层的编号为1,依次类推,输出层的编号为H+1;
步骤102)令h=h+1,初始化第h层和第h+1层的参数;
步骤103)将无标注训练样本集输入第h层,在第h层和第h+1层的代价函数最小化的过程中,调整第h层和第h+1层之间连接权重和第h+1层节点的偏置权重;
步骤104)当有连接权重小于第一阈值时,通过重构误差变化的概率函数来判断是否删除该连接;
如果有连接的权重衰减到小于第一阈值时,则根据有当前连接和无当前连接的两种情况下重构样本,得到重构误差变化ΔEr,并以该误差变化的概率函数min[1,exp(-ΔEr/Er)来决定是否删除当前连接;
步骤105)判断第h层所有节点的正向出度是否都小于K,如果判断结果是肯定的,当时,转入步骤106);否则,转入步骤103);
步骤106)若h>0,则判断第h层所有节点的正向出度的和是否小于第h-1层所有节点的正向出度的和,如果判断结果是肯定的,转入步骤107),否则,转入步骤103);
步骤107)判断代价函数变化是否小于第二阈值,如果判断结果是肯定的,转入步骤108),否则,转入步骤103);
步骤108)判断h>H是否成立,如果判断结果是肯定的,步骤1)的流程结束;否则,转入步骤102)。
4.根据权利要求3所述的基于满足K度稀疏约束的深度学习模型的大数据处理方法,所述方法中步骤2)的具体过程为:
将更新后的训练样本输入所述满足K度稀疏约束的深度学习模型,当输入的训练样本为无标注样本集时,将输入样本得到输出再逆转为输入,在k度约束下自输出层向输入层进行反向重构,计算重构误差Er,以梯度下降或共轭梯度下降的方式调整各层权重;直至误差小于临界值;当输入的训练样本为有标注的样本集则将输出与相比较,计算出训练误差Et,以梯度下降或共轭梯度下降的方式调整正向权重;直至误差小于临界值。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510112645.9A CN106033555A (zh) | 2015-03-13 | 2015-03-13 | 基于满足k度稀疏约束的深度学习模型的大数据处理方法 |
PCT/CN2015/075473 WO2016145676A1 (zh) | 2015-03-13 | 2015-03-31 | 基于满足k度稀疏约束的深度学习模型的大数据处理方法 |
EP15885059.4A EP3282401A4 (en) | 2015-03-13 | 2015-03-31 | Big data processing method based on deep learning model satisfying k-degree sparse constraint |
JP2017548139A JP6466590B2 (ja) | 2015-03-13 | 2015-03-31 | K次数スパース制約を満たす深層学習モデルに基づくビッグデータの処理方法 |
US15/557,469 US11048998B2 (en) | 2015-03-13 | 2015-03-31 | Big data processing method based on deep learning model satisfying k-degree sparse constraint |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510112645.9A CN106033555A (zh) | 2015-03-13 | 2015-03-13 | 基于满足k度稀疏约束的深度学习模型的大数据处理方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106033555A true CN106033555A (zh) | 2016-10-19 |
Family
ID=56918252
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510112645.9A Pending CN106033555A (zh) | 2015-03-13 | 2015-03-13 | 基于满足k度稀疏约束的深度学习模型的大数据处理方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11048998B2 (zh) |
EP (1) | EP3282401A4 (zh) |
JP (1) | JP6466590B2 (zh) |
CN (1) | CN106033555A (zh) |
WO (1) | WO2016145676A1 (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106685546A (zh) * | 2016-12-29 | 2017-05-17 | 深圳天珑无线科技有限公司 | 一种无线人体感知的方法及服务器 |
CN109754078A (zh) * | 2017-11-03 | 2019-05-14 | 三星电子株式会社 | 用于优化神经网络的方法 |
CN112100912A (zh) * | 2020-09-08 | 2020-12-18 | 长春工程学院 | 基于满足k度稀疏约束的深度学习模型的数据处理方法 |
WO2022121944A1 (zh) * | 2020-12-10 | 2022-06-16 | 东北大学 | 工业过程运行指标智能预报方法、装置、设备及存储介质 |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6835559B2 (ja) * | 2016-12-09 | 2021-02-24 | 国立大学法人電気通信大学 | プライバシ保護データ提供システム |
CN107316024B (zh) * | 2017-06-28 | 2021-06-29 | 北京博睿视科技有限责任公司 | 基于深度学习的周界报警算法 |
CN109284826A (zh) * | 2017-07-19 | 2019-01-29 | 阿里巴巴集团控股有限公司 | 神经网络处理方法、装置、设备及计算机可读存储介质 |
CN108694502B (zh) * | 2018-05-10 | 2022-04-12 | 清华大学 | 一种基于XGBoost算法的机器人制造单元自适应调度方法 |
CN108985382B (zh) * | 2018-05-25 | 2022-07-15 | 清华大学 | 基于关键数据通路表示的对抗样本检测方法 |
CN109033521B (zh) * | 2018-06-25 | 2021-04-20 | 中南大学 | 一种新建铁路限制坡度优化决策方法 |
WO2020020088A1 (zh) * | 2018-07-23 | 2020-01-30 | 第四范式(北京)技术有限公司 | 神经网络模型的训练方法和系统以及预测方法和系统 |
US11468330B2 (en) | 2018-08-03 | 2022-10-11 | Raytheon Company | Artificial neural network growth |
CN110209943B (zh) * | 2019-06-04 | 2021-09-28 | 成都终身成长科技有限公司 | 一种单词推送方法、装置及电子设备 |
CN110390326A (zh) * | 2019-06-14 | 2019-10-29 | 华南理工大学 | 一种基于集聚交叉熵损失函数的序列识别方法 |
CN110287031B (zh) * | 2019-07-01 | 2023-05-09 | 南京大学 | 一种减少分布式机器学习通信开销的方法 |
US11417087B2 (en) | 2019-07-17 | 2022-08-16 | Harris Geospatial Solutions, Inc. | Image processing system including iteratively biased training model probability distribution function and related methods |
US10984507B2 (en) | 2019-07-17 | 2021-04-20 | Harris Geospatial Solutions, Inc. | Image processing system including training model based upon iterative blurring of geospatial images and related methods |
US11068748B2 (en) | 2019-07-17 | 2021-07-20 | Harris Geospatial Solutions, Inc. | Image processing system including training model based upon iteratively biased loss function and related methods |
CN110458337B (zh) * | 2019-07-23 | 2020-12-22 | 内蒙古工业大学 | 一种基于c-gru的网约车供需预测方法 |
CN110533170A (zh) * | 2019-08-30 | 2019-12-03 | 陕西思科锐迪网络安全技术有限责任公司 | 一种图形化编程的深度学习神经网络搭建方法 |
CN110543918B (zh) * | 2019-09-09 | 2023-03-24 | 西北大学 | 一种基于正则化与数据增广的稀疏数据处理方法 |
CN111260121B (zh) * | 2020-01-12 | 2022-04-29 | 桂林电子科技大学 | 一种基于深度瓶颈残差网络的城市范围的人流量预测方法 |
CN111429175B (zh) * | 2020-03-18 | 2022-05-27 | 电子科技大学 | 稀疏特征场景下进行点击转化预测的方法 |
CN112464541B (zh) * | 2020-12-18 | 2024-05-24 | 浙江工业大学 | 一种考虑多尺度不确定性的混合复合材料铺层方法 |
CN112765623B (zh) * | 2021-01-15 | 2022-08-02 | 浙江科技学院 | 基于相位恢复算法的光学多图像认证和加密方法 |
CN113052306B (zh) * | 2021-03-04 | 2022-04-22 | 华南理工大学 | 一种基于堆叠式宽度学习模型的在线学习芯片 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014511677A (ja) * | 2011-03-22 | 2014-05-19 | コーネル・ユニバーシティー | 鑑別困難な良性甲状腺病変と悪性甲状腺病変との識別法 |
US8700552B2 (en) * | 2011-11-28 | 2014-04-15 | Microsoft Corporation | Exploiting sparseness in training deep neural networks |
CN103489033A (zh) | 2013-09-27 | 2014-01-01 | 南京理工大学 | 融合自组织映射与概率神经网络的增量式学习方法 |
CN103530689B (zh) | 2013-10-31 | 2016-01-20 | 中国科学院自动化研究所 | 一种基于深度学习的聚类方法 |
CN103838836B (zh) * | 2014-02-25 | 2016-09-28 | 中国科学院自动化研究所 | 基于判别式多模态深度置信网多模态数据融合方法和系统 |
-
2015
- 2015-03-13 CN CN201510112645.9A patent/CN106033555A/zh active Pending
- 2015-03-31 JP JP2017548139A patent/JP6466590B2/ja active Active
- 2015-03-31 EP EP15885059.4A patent/EP3282401A4/en not_active Withdrawn
- 2015-03-31 WO PCT/CN2015/075473 patent/WO2016145676A1/zh active Application Filing
- 2015-03-31 US US15/557,469 patent/US11048998B2/en active Active
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106685546A (zh) * | 2016-12-29 | 2017-05-17 | 深圳天珑无线科技有限公司 | 一种无线人体感知的方法及服务器 |
CN109754078A (zh) * | 2017-11-03 | 2019-05-14 | 三星电子株式会社 | 用于优化神经网络的方法 |
CN109754078B (zh) * | 2017-11-03 | 2024-05-28 | 三星电子株式会社 | 用于优化神经网络的方法 |
CN112100912A (zh) * | 2020-09-08 | 2020-12-18 | 长春工程学院 | 基于满足k度稀疏约束的深度学习模型的数据处理方法 |
WO2022121944A1 (zh) * | 2020-12-10 | 2022-06-16 | 东北大学 | 工业过程运行指标智能预报方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
EP3282401A4 (en) | 2018-05-30 |
US11048998B2 (en) | 2021-06-29 |
JP6466590B2 (ja) | 2019-02-06 |
EP3282401A1 (en) | 2018-02-14 |
US20180068216A1 (en) | 2018-03-08 |
JP2018511871A (ja) | 2018-04-26 |
WO2016145676A1 (zh) | 2016-09-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106033555A (zh) | 基于满足k度稀疏约束的深度学习模型的大数据处理方法 | |
CN111444305B (zh) | 一种基于知识图谱嵌入的多三元组联合抽取方法 | |
CN106779068A (zh) | 调整人工神经网络的方法和装置 | |
CN109977250B (zh) | 融合语义信息和多级相似性的深度哈希图像检索方法 | |
CN107662617B (zh) | 基于深度学习的车载交互控制算法 | |
CN110717334A (zh) | 基于bert模型和双通道注意力的文本情感分析方法 | |
CN109389207A (zh) | 一种自适应神经网络学习方法及神经网络系统 | |
Sari et al. | Text classification using long short-term memory with glove | |
CN107688850A (zh) | 一种深度神经网络压缩方法 | |
CN103838836B (zh) | 基于判别式多模态深度置信网多模态数据融合方法和系统 | |
CN106033554A (zh) | 一种基于分段的两级深度学习模型的大数据处理方法 | |
CN106682694A (zh) | 一种基于深度学习的敏感图像识别方法 | |
CN108197294A (zh) | 一种基于深度学习的文本自动生成方法 | |
CN107102727A (zh) | 基于elm神经网络的动态手势学习与识别方法 | |
CN107273426A (zh) | 一种基于深度语义路径搜索的短文本聚类方法 | |
CN113157919A (zh) | 语句文本方面级情感分类方法及系统 | |
CN115455985A (zh) | 一种基于机器阅读理解的自然语言系统的处理方法 | |
CN115391563B (zh) | 一种基于多源异构数据融合的知识图谱链路预测方法 | |
Wan | Deep learning: Neural network, optimizing method and libraries review | |
CN110119805A (zh) | 基于回声状态网络分类的卷积神经网络算法 | |
Du et al. | Efficient network construction through structural plasticity | |
CN104915566A (zh) | 一种支持增量更新的深度计算模型设计方法 | |
CN109271632A (zh) | 一种监督的词向量学习方法 | |
CN111144027A (zh) | 一种基于bp神经网络全特性曲线函数的逼近方法 | |
CN111737467B (zh) | 一种基于分段卷积神经网络的对象级情感分类方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20161019 |