CN108108814A - 一种深度神经网络的训练方法 - Google Patents
一种深度神经网络的训练方法 Download PDFInfo
- Publication number
- CN108108814A CN108108814A CN201810045818.3A CN201810045818A CN108108814A CN 108108814 A CN108108814 A CN 108108814A CN 201810045818 A CN201810045818 A CN 201810045818A CN 108108814 A CN108108814 A CN 108108814A
- Authority
- CN
- China
- Prior art keywords
- training
- neural network
- deep neural
- loss ratio
- neuron
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明提供了一种深度神经网络的训练方法。该训练方法包括:利用训练集对深度神经网络进行迭代训练;利用训练集和测试集对训练中的深度神经网络进行评估,得到评估结果;根据评估结果对训练中的深度神经网络中神经元的丢弃率进行调整,并对调整后的深度神经网络进行迭代训练。通过根据评估结果对训练中的深度神经网络中神经元的丢弃率进行动态调整,并对调整后的深度神经网络进行迭代训练,从而减少传统深度神经网络中“过拟合”现象的发生。
Description
技术领域
本发明涉及神经网络领域,具体涉及一种深度神经网络的训练方法。
背景技术
近年来,随着互联网技术的迅猛发展,深度卷积神经网络广泛应用于图像分类、图像识别、语音识别、自动驾驶等众多领域。但是,深度卷积神经网络的模型结构庞大复杂,需要大规模数据对模型参数进行优化训练。然而,现实生活中的许多实际问题,通常只有小规模数据的支持,直接利用目标任务的小规模训练数据,很难获得高性能的深度神经网络。深度神经网络的层数和每层中的神经元数量通常不是固定的。设计者通常根据经验设计具体模型,例如设定2个中间层,每层100个神经元数量,从而导致网络参数过多。在训练集数据有限的情况下,通常会出现过拟合现象。过拟合现象是一种训练出来的模型对训练集的数据预测精准度极高,但对新的样本数据测试精度很低且泛化能力很弱的现象。
发明内容
有鉴于此,本发明实施例提供了一种深度神经网络的训练方法,能够减少传统深度神经网络中“过拟合”现象的发生。
本发明的一个方面提供一种深度神经网络的训练方法,该方法包括以下步骤:利用训练集对深度神经网络进行迭代训练;利用训练集和测试集对训练中的深度神经网络进行评估,得到评估结果;根据评估结果对训练中的深度神经网络中神经元的丢弃率进行调整,并对调整后的深度神经网络进行迭代训练。
在一个实施例中,评估结果是通过计算所述训练集的准确率与所述测试集的准确率的差而得出的。
在一个实施例中,根据评估结果对训练中的深度神经网络中神经元的丢弃率进行调整,包括:在评估结果大于第一预设阈值的情况下,调整训练中的深度神经网络中的神经元的丢弃率,以使得评估结果小于或等于第一预设阈值。
在一个实施例中,第一预设阈值为1%。
在一个实施例中,神经元的丢弃率的取值范围为0至1,其中丢弃率的取值越低,在训练深度神经网络过程中,参与训练的神经元的数目就越小,其中调整训练中的深度神经网络中的神经元的丢弃率,包括:以预定的步长降低训练中的深度神经网络中的神经元的丢弃率。
在一个实施例中,预定的步长为5%。
在一个实施例中,深度神经网络的训练方法还包括:在丢弃率小于第二预设阈值时,停止调整训练中的深度神经网络中神经元的丢弃率。
在一个实施例中,在迭代训练初期且在评估结果小于或等于第一预设阈值的情况下,丢弃率为1。
在一个实施例中,第二预设阈值为0.4。
在一个实施例中,利用训练集和测试集对训练中的深度神经网络进行评估,包括:每当利用训练集对深度神经网络进行若干次训练后,利用训练集和测试集对训练中的深度神经网络进行评估。
本发明的另一方面提供了一种深度神经网络的训练系统,该训练系统包括:训练单元,用于利用训练集对深度神经网络进行迭代训练;评估单元,用于利用训练集和测试集对训练中的深度神经网络进行评估,得到评估结果;调整单元,用于根据评估结果对训练中的深度神经网络中神经元的丢弃率进行调整,并对调整后的深度神经网络进行迭代训练。
在一个实施例中,评估结果是通过计算所述训练集的准确率与所述测试集的准确率的差而得出的。
在一个实施例中,调整单元还用于在评估结果大于第一预设阈值的情况下,调整训练中的深度神经网络中的神经元的丢弃率,以使得评估结果小于或等于第一预设阈值。
在一个实施例中,第一预设阈值为1%。
在一个实施例中,调整单元还用于以预定的步长降低训练中的深度神经网络中的神经元的丢弃率。
在一个实施例中,预定的步长为5%。
在一个实施例中,调整单元还用于在在丢弃率小于第二预设阈值时,停止调整训练中的深度神经网络中神经元的丢弃率。
在一个实施例中,第二预设阈值为40%。
在一个实施例中,评估单元还用于每当利用训练集对深度神经网络进行若干次训练后,利用训练集和测试集对训练中的深度神经网络进行评估。
本发明的又一个方面提供一种计算机可读存储介质,其上存储有计算机可执行指令,其中,可执行指令被处理器执行时实现如上所述的方法。
本发明的又一个方面提供一种计算机设备,包括:存储器、处理器及存储在存储器中并可在处理器中运行的可执行指令,其中,处理器执行可执行指令时实现如上所述的方法。
本发明的实施例的深度神经网络的训练方法通过根据评估结果对训练中的深度神经网络中神经元的丢弃率进行动态调整,并对调整后的深度神经网络进行迭代训练,从而减少传统深度神经网络中“过拟合”现象的发生。
附图说明
图1所示为深度神经网络的示意图。
图2所示为深度神经网络的神经元丢弃机制的示意图。
图3所示为本发明一实施例的深度神经网络的训练方法的示意性流程图。
图4所示为本发明又一实施例的深度神经网络的训练装置的示意性功能模块图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
图1所示为深度神经网络的示意图。在深度神经网络中,输入大量多维度的特征向量,通过多个中间层的矩阵权重加权后,获得输出结果。输出结果用于进行回归计算或者回归分类。如图1所示,初始化后的神经网络的参数(图中的w和b)是随机的,并且输出结果h也没有实际含义,因此需要对神经网络的参数进行训练。训练的基本原理是利用已知的大量训练数据,即通过将已知的x和h带入当前神经网络中进行运算得到运算结果,将运算结果与已知的h进行比较,获得误差值,然后利用BP反相梯度算法,不断优化神经网络中的参数w和b,最终获得比较好的神经网络参数。
测试集是独立于训练集之外的大量测试数据,包括真实的x和真实的h,测试集不参与神经网络训练,训练好的参数w和b与测试集数据是独立不相关的。因此,在训练的过程中,每隔一段时间,可以利用测试集对当前的(正在训练中的)神经网络进行评估,通过计算测试集的准确率,可以获得关于神经网络的是否已经过拟合的信息。
图2所示为深度神经网络的神经元丢弃机制的示意图。图2的左边的深度神经网络有3个中间层,每层有5个神经元。在对深度神经网络进行训练的过程中,随机地关闭一定比率的神经元,当比率为0时,表示所有神经元都被丢弃,当比率为1时,表示保留所有神经元,当比率为0.5时,表示一半的神经元被丢弃。丢弃率是指深度神经网络中神经元被随时关闭的概率。如图2所示,在图2的右边,标记有X的神经元是被丢弃掉的神经元。丢弃只会在训练中实施。在每次迭代训练的正向预测和反向梯度下降中,只在没有被丢弃的神经元中进行。丢弃机制是以概率p丢弃神经元并让其它神经元以概率q=1-p保留。每个神经元被丢弃的概率是相同的。丢弃的好处是每次迭代训练只训练部分神经元参数,这样深度神经网络信息收集会更为分散地分布在神经网络的各个节点中,而不会出现在一些能影响大局的少数神经元中,而这些神经元一般是引起过拟合的元凶。
图3为本发明一实施例的深度神经网络的训练方法的示意性流程图。图3的方法可以由计算设备(例如,计算机)执行。该深度神经网络的训练方法方法包括以下步骤:
步骤101:利用训练集对深度神经网络进行迭代训练;
步骤102:利用所述训练集和测试集对训练中的深度神经网络进行评估,得到评估结果;
步骤103:根据所述评估结果对所述训练中的深度神经网络中神经元的丢弃率进行调整,并利用训练集对调整后的深度神经网络进行迭代训练。
本发明的实施例的深度神经网络的训练方法通过根据评估结果对训练中的深度神经网络中神经元的丢弃率进行调整,并对调整后的深度神经网络进行迭代训练,从而减少传统深度神经网络中“过拟合”现象的发生。
在步骤101中,迭代训练次数可以为预设的次数,例如,可以为大于0小于等于3000的整数。根据本发明的实施例,计算设备可以使用整个训练集对深度神经网络进行迭代训练,也可以使用训练集的子集对深度神经网络进行迭代训练。当迭代训练次数满足要求时终止深度神经网络的训练。
在完成迭代训练之后,进入步骤102。在102中,计算设备可以计算所述训练集的准确率与所述测试集的准确率的差作为所述评估结果。
具体而言,计算设备可以利用测试集对所训练的深度神经网络进行测试以获得测试集的准确率,利用训练集对所训练的深度神经网络进行测试以获得训练集的准确率,并计算训练集的准确率与测试集的准确率的差作为评估结果。
可选地,作为另一实施例,计算设备也可以通过计算训练集的准确率与测试集的准确率的比值作为评估结果。
在步骤103中,在评估结果大于第一预设阈值的情况下,调整训练中的深度神经网络中的神经元的丢弃率,使得评估结果小于或等于第一预设阈值。第一预设阈值可以为0.5%-4%。优选地,第一预设阈值为1%。丢弃率的取值范围可以为0至1,其中丢弃率的取值越低,在训练所述深度神经网络过程中,参与训练的神经元的数目就越小。在迭代训练初期且在评估结果小于或等于第一预设阈值的情况下,丢弃率可以为1。在调整训练中的深度神经网络中的神经元的丢弃率的过程中,以预定的步长降低训练中的深度神经网络中的神经元的丢弃率。该预定的步长的取值范围为2%-9%。优选地,预定的步长为5%。
可选地,作为另一实施例,图3的方法还包括:在丢弃率小于第二预设阈值时,停止调整训练中的深度神经网络中神经元的丢弃率。第二预设阈值为10%-40%。优选地,第二预设阈值为40%。
根据本发明的实施例,每当利用所述训练集对深度神经网络进行若干次训练后,利用所述训练集和所述验证集对训练中的深度神经网络进行评估。
下面描述本实施例的具体例子。
首先,初始化平滑训练集的准确率、参数、迭代次数、丢弃率、测试间隔、预定步长、第一阈值和第二阈值。例如,训练集的准确率被初始化为0,丢弃率被初始化为1,迭代次数被初始化为2000,测试间隔被初始化为200,预定步长被初始化为5%,第一阈值被初始化为1%,第二阈值被初始化为40%。在迭代训练初期,丢弃率保持为1。利用训练集对深度神经网络进行迭代训练;当进行200次迭代训练时,进行一次测试集测试,并计算训练集的准确率与测试集的准确率的差,然后判断训练集的准确率与测试集的准确率的差是否大于1%,如果大于1%,则以预定步长5%降低丢弃率。继续重复上述过程,直到训练集的准确率与测试集的准确率的差是否大于1%。当丢弃率小于第二预设阈值40%时,停止调整训练中的深度神经网络中神经元的丢弃率。
下面是上述训练方法的伪代码:
在本发明的实施例的深度神经网络训练方法,神经网络训练中的神经元的丢弃率在训练过程中基于评估结果动态调整,而不是固定的,使得初期训练的收敛速度较快,并且可以提高神经网络的训练效率和准确度率。丢弃率的调整步长是预设的,从而减小计算负担。本发明的实施例的深度神经网络的训练方法通过根据评估结果对训练中的深度神经网络中神经元的丢弃率进行动态调整,并对调整后的深度神经网络进行迭代训练,从而减少传统深度神经网络中“过拟合”现象的发生。
图4为本发明的另一实施例的深度神经网络的训练系统的示意性功能图。该训练系统包括训练单元110、评估单元120和调整单元130。训练单元110用于利用训练集对深度神经网络进行迭代训练;评估单元120用于利用训练集和测试集对训练中的深度神经网络进行评估,得到评估结果;调整单元103用于根据评估结果对训练中的深度神经网络中神经元的丢弃率进行调整,并利用训练集对调整后的深度神经网络进行迭代训练。
本发明的实施例的深度神经网络的训练系统通过根据评估结果对训练中的深度神经网络中神经元的丢弃率进行调整,并对调整后的深度神经网络进行迭代训练,从而减少传统深度神经网络中“过拟合”现象的发生。
可选地,作为另一实施例,训练单元110进行迭代训练次数可以为预设的次数,例如,可以为大于0小于等于3000的整数。
可选地,作为另一实施例,评估单元120还用于计算训练集的准确率与测试集的准确率的差作为评估结果。
可选地,作为另一实施例,调整单元130还用于在评估结果大于第一预设阈值的情况下,调整训练中的深度神经网络中的神经元的丢弃率,以使得评估结果小于或等于第一预设阈值。第一预设阈值可以为0.5%-4%。优选地,第一预设阈值为1%。丢弃率的取值范围可以为0至1,其中丢弃率的取值越低,在训练单元110训练所述深度神经网络过程中,参与训练的神经元的数目就越小。在训练单元进行迭代训练初期且在评估结果小于或等于第一预设阈值的情况下,丢弃率可以为1。在调整单元130调整训练中的深度神经网络中的神经元的丢弃率的过程中,以预定的步长降低训练中的深度神经网络中的神经元的丢弃率。该预定的步长的取值范围为2%-9%。优选地,预定的步长为5%。
可选地,作为另一实施例,在丢弃率小于第二预设阈值时,调整单元130停止调整训练中的深度神经网络中神经元的丢弃率。第二预设阈值为10%-40%。优选地,第二预设阈值为40%。
根据本发明的实施例,每当训练单元110利用所述训练集对深度神经网络进行若干次训练后,评估单元120利用所述训练集和所述验证集对训练中的深度神经网络进行评估。
在本发明的实施例的深度神经网络训练系统中,调整单元130基于评估单元120的评估结果,动态调整神经网络训练中的神经元的丢弃率,使得初期训练的收敛速度较快,并且可以提高神经网络的训练效率和准确度率。本发明的实施例的深度神经网络的训练系统通过根据评估结果对训练中的深度神经网络中神经元的丢弃率进行动态调整,并对调整后的深度神经网络进行迭代训练,从而减少传统深度神经网络中“过拟合”现象的发生。
一种用于深度神经网络的训练方法的计算机设备包括处理组件,其进一步包括一个或多个处理器,以及由存储器所代表的存储器资源,用于存储可由处理组件的执行的指令,例如应用程序。存储器中存储的应用程序可以包括一个或一个以上的每一个对应于一组指令的模块。此外,处理组件被配置为执行指令,以执行上述深度神经网络的训练方法。
计算机设备还可以包括一个电源组件被配置为执行计算机设备的电源管理,一个有线或无线网络接口被配置为将设备连接到网络,和一个输入输出(I/O)接口。设备可以操作基于存储在存储器中的操作系统,例如Windows ServerTM,Mac OS XTM,UnixTM,LinuxTM,FreeBSDTM或类似。
一种非临时性计算机可读存储介质,当存储介质中的指令由上述装置的处理器执行时,使得上述装置能够执行一种深度神经网络的训练方法,包括:利用训练集对深度神经网络进行迭代训练;利用所述训练集和测试集对训练中的深度神经网络进行评估,得到评估结果;根据所述评估结果对所述训练中的深度神经网络中神经元的丢弃率进行调整,并对调整后的深度神经网络进行迭代训练。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换等,均应包含在本发明的保护范围之内。
Claims (21)
1.一种深度神经网络的训练方法,其特征在于,该方法包括以下步骤:
利用训练集对深度神经网络进行迭代训练;
利用所述训练集和测试集对训练中的深度神经网络进行评估,得到评估结果;
根据所述评估结果对所述训练中的深度神经网络中神经元的丢弃率进行调整,并对调整后的深度神经网络进行迭代训练。
2.根据权利要求1所述的方法,其特征在于,所述评估结果是通过计算所述训练集的准确率与所述测试集的准确率的差而得出的。
3.根据权利要求2所述的方法,其特征在于,所述根据所述评估结果对所述训练中的深度神经网络中神经元的丢弃率进行调整,包括:
在所述评估结果大于第一预设阈值的情况下,调整所述训练中的深度神经网络中的神经元的丢弃率,以使得所述评估结果小于或等于所述第一预设阈值。
4.根据权利要求3所述的方法,其特征在于,所述第一预设阈值为1%。
5.根据权利要求3所述的方法,其特征在于,所述丢弃率的取值范围为0至1,其中所述丢弃率的取值越低,在训练所述深度神经网络过程中,参与训练的神经元的数目就越小,
其中所述调整所述训练中的深度神经网络中的神经元的丢弃率,包括:
以预定的步长降低所述训练中的深度神经网络中的神经元的丢弃率。
6.根据权利要求5所述的方法,其特征在于,所述预定的步长为5%。
7.根据权利要求5所述的方法,其特征在于,还包括:
在所述丢弃率小于第二预设阈值时,停止调整所述训练中的深度神经网络中神经元的丢弃率。
8.根据权利要求5所述的方法,其特征在于,在所述迭代训练初期且在所述评估结果小于或等于所述第一预设阈值的情况下,所述丢弃率为1。
9.根据权利要求7所述的方法,其特征在于,所述第二预设阈值为40%。
10.根据权利要求1至8中的任一项所述的方法,其特征在于,所述利用所述训练集和测试集对训练中的深度神经网络进行评估,包括:
每当利用所述训练集对深度神经网络进行若干次训练后,利用所述训练集和所述测试集对训练中的深度神经网络进行评估。
11.一种深度神经网络的训练系统,其特征在于,该系统包括:
训练单元,用于利用训练集对深度神经网络进行迭代训练;
评估单元,用于利用所述训练集和测试集对训练中的深度神经网络进行评估,得到评估结果;
调整单元,用于根据所述评估结果对所述训练中的深度神经网络中神经元的丢弃率进行调整,并对调整后的深度神经网络进行迭代训练。
12.根据权利要求11所述的训练系统,其特征在于,所述评估结果是通过计算所述训练集的准确率与所述测试集的准确率的差而得出的。
13.根据权利要求12所述的训练系统,其特征在于,所述调整单元用于在所述评估结果大于第一预设阈值的情况下,调整所述训练中的深度神经网络中的神经元的丢弃率,以使得所述评估结果小于或等于所述第一预设阈值。
14.根据权利要求13所述的训练系统,其特征在于,所述第一预设阈值为1%。
15.根据权利要求13所述的训练系统,其特征在于,所述调整单元用于以预定的步长降低所述训练中的深度神经网络中的神经元的丢弃率。
16.根据权利要求15所述的训练系统,其特征在于,所述预定的步长为5%。
17.根据权利要求15所述的训练系统,其特征在于,所述调整单元还用于在在所述丢弃率小于第二预设阈值时,停止调整所述训练中的深度神经网络中神经元的丢弃率。
18.根据权利要求17所述的训练系统,其特征在于,所述第二预设阈值为40%。
19.根据权利要求11至18中的任一项所述的训练系统,其特征在于,所述评估单元用于每当利用所述训练集对深度神经网络进行若干次训练后,利用所述训练集和所述测试集对训练中的深度神经网络进行评估。
20.一种计算机可读存储介质,其上存储有计算机可执行指令,其特征在于,所述可执行指令被处理器执行时实现如权利要求1至10中任一项所述的方法。
21.一种计算机设备,包括:存储器、处理器及存储在存储器中并可在处理器中运行的可执行指令,其中,处理器执行可执行指令时实现如权利要求1至10中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810045818.3A CN108108814A (zh) | 2018-01-17 | 2018-01-17 | 一种深度神经网络的训练方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810045818.3A CN108108814A (zh) | 2018-01-17 | 2018-01-17 | 一种深度神经网络的训练方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108108814A true CN108108814A (zh) | 2018-06-01 |
Family
ID=62219335
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810045818.3A Pending CN108108814A (zh) | 2018-01-17 | 2018-01-17 | 一种深度神经网络的训练方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108108814A (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109376615A (zh) * | 2018-09-29 | 2019-02-22 | 苏州科达科技股份有限公司 | 用于提升深度学习网络预测性能的方法、装置及存储介质 |
CN109817342A (zh) * | 2019-01-04 | 2019-05-28 | 平安科技(深圳)有限公司 | 流行季预测模型的参数调整方法、装置、设备及存储介质 |
CN110018322A (zh) * | 2019-04-18 | 2019-07-16 | 北京先见智控科技有限公司 | 一种基于深度学习的转速检测方法及系统 |
CN110232434A (zh) * | 2019-04-28 | 2019-09-13 | 吉林大学 | 一种基于属性图优化的神经网络架构评估方法 |
CN110958177A (zh) * | 2019-11-07 | 2020-04-03 | 浪潮电子信息产业股份有限公司 | 一种片上网络路由优化方法、装置、设备及可读存储介质 |
CN111275188A (zh) * | 2020-01-20 | 2020-06-12 | 深圳前海微众银行股份有限公司 | 横向联邦学习系统优化方法、设备及可读存储介质 |
CN112434785A (zh) * | 2020-10-22 | 2021-03-02 | 西安交通大学 | 一种面向超级计算机的分布式并行深度神经网络性能评测方法 |
CN113344415A (zh) * | 2021-06-23 | 2021-09-03 | 中国平安财产保险股份有限公司 | 基于深度神经网络的业务分配方法、装置、设备及介质 |
-
2018
- 2018-01-17 CN CN201810045818.3A patent/CN108108814A/zh active Pending
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109376615A (zh) * | 2018-09-29 | 2019-02-22 | 苏州科达科技股份有限公司 | 用于提升深度学习网络预测性能的方法、装置及存储介质 |
CN109376615B (zh) * | 2018-09-29 | 2020-12-18 | 苏州科达科技股份有限公司 | 用于提升深度学习网络预测性能的方法、装置及存储介质 |
CN109817342A (zh) * | 2019-01-04 | 2019-05-28 | 平安科技(深圳)有限公司 | 流行季预测模型的参数调整方法、装置、设备及存储介质 |
CN110018322A (zh) * | 2019-04-18 | 2019-07-16 | 北京先见智控科技有限公司 | 一种基于深度学习的转速检测方法及系统 |
CN110232434A (zh) * | 2019-04-28 | 2019-09-13 | 吉林大学 | 一种基于属性图优化的神经网络架构评估方法 |
CN110958177A (zh) * | 2019-11-07 | 2020-04-03 | 浪潮电子信息产业股份有限公司 | 一种片上网络路由优化方法、装置、设备及可读存储介质 |
CN111275188A (zh) * | 2020-01-20 | 2020-06-12 | 深圳前海微众银行股份有限公司 | 横向联邦学习系统优化方法、设备及可读存储介质 |
CN111275188B (zh) * | 2020-01-20 | 2021-04-13 | 深圳前海微众银行股份有限公司 | 横向联邦学习系统优化方法、设备及可读存储介质 |
CN112434785A (zh) * | 2020-10-22 | 2021-03-02 | 西安交通大学 | 一种面向超级计算机的分布式并行深度神经网络性能评测方法 |
CN113344415A (zh) * | 2021-06-23 | 2021-09-03 | 中国平安财产保险股份有限公司 | 基于深度神经网络的业务分配方法、装置、设备及介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108108814A (zh) | 一种深度神经网络的训练方法 | |
US11651259B2 (en) | Neural architecture search for convolutional neural networks | |
CN109685819B (zh) | 一种基于特征增强的三维医学图像分割方法 | |
Goodreau et al. | A statnet tutorial | |
CN106203625A (zh) | 一种基于多重预训练的深层神经网络训练方法 | |
CN107016406A (zh) | 基于生成式对抗网络的病虫害图像生成方法 | |
CN107798697A (zh) | 一种基于卷积神经网络的医学图像配准方法、系统及电子设备 | |
CN103605711B (zh) | 支持向量机分类器的构造方法及装置、分类方法及装置 | |
CN112116090A (zh) | 神经网络结构搜索方法、装置、计算机设备及存储介质 | |
CN109117380A (zh) | 一种软件质量评价方法、装置、设备及可读存储介质 | |
CN106383912A (zh) | 一种图片检索方法和装置 | |
WO2020224433A1 (zh) | 基于机器学习的目标对象属性预测方法及相关设备 | |
CN105868572A (zh) | 一种基于自编码器的心肌缺血位置的预测方法 | |
Bonettini et al. | A variable metric forward-backward method with extrapolation | |
CN109242099A (zh) | 强化学习网络的训练方法、装置、训练设备及存储介质 | |
CN113516230A (zh) | 基于平均秩重要性排序的自动化卷积神经网络剪枝方法 | |
CN108228684A (zh) | 聚类模型的训练方法、装置、电子设备和计算机存储介质 | |
CN107133626A (zh) | 一种基于部分平均随机优化模型的医学影像分类方法 | |
CN111353391B (zh) | 雷达干扰效果评估方法、装置、电子设备及其存储介质 | |
Liu et al. | Channel pruning guided by spatial and channel attention for DNNs in intelligent edge computing | |
CN104331600A (zh) | 基于因子图模型的自诊模型训练方法和装置 | |
Zhu et al. | A multiscale neural network model for the prediction on the equivalent permeability of discrete fracture network | |
US11544281B2 (en) | Query-oriented approximate query processing based on machine learning techniques | |
Yanpeng | Hybrid kernel extreme learning machine for evaluation of athletes' competitive ability based on particle swarm optimization | |
CN110084109A (zh) | 一种低分辨率人脸图像识别方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180601 |