CN112561026A - 神经网络模型的训练方法和装置、存储介质和电子设备 - Google Patents
神经网络模型的训练方法和装置、存储介质和电子设备 Download PDFInfo
- Publication number
- CN112561026A CN112561026A CN201910911100.2A CN201910911100A CN112561026A CN 112561026 A CN112561026 A CN 112561026A CN 201910911100 A CN201910911100 A CN 201910911100A CN 112561026 A CN112561026 A CN 112561026A
- Authority
- CN
- China
- Prior art keywords
- neural network
- network model
- training
- initial value
- memory unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003062 neural network model Methods 0.000 title claims abstract description 175
- 238000012549 training Methods 0.000 title claims abstract description 88
- 238000000034 method Methods 0.000 title claims abstract description 57
- 210000002569 neuron Anatomy 0.000 claims abstract description 71
- 210000004027 cell Anatomy 0.000 claims abstract description 9
- 238000004590 computer program Methods 0.000 claims description 11
- 230000009467 reduction Effects 0.000 claims description 7
- 238000009826 distribution Methods 0.000 claims description 4
- 101001013832 Homo sapiens Mitochondrial peptide methionine sulfoxide reductase Proteins 0.000 claims description 3
- 102100031767 Mitochondrial peptide methionine sulfoxide reductase Human genes 0.000 claims description 3
- 230000000694 effects Effects 0.000 abstract description 11
- 238000010586 diagram Methods 0.000 description 14
- 238000013528 artificial neural network Methods 0.000 description 10
- 238000011423 initialization method Methods 0.000 description 10
- 230000002457 bidirectional effect Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000012804 iterative process Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000009827 uniform distribution Methods 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000006798 recombination Effects 0.000 description 1
- 238000005215 recombination Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
公开了一种神经网络模型的训练方法和装置、存储介质和电子设备,其中,方法包括:确定神经网络模型中神经元的权重的初始值;对所述神经网络模型中至少一个记忆单元层中神经元的权重的初始值进行调整;对初始值调整后的神经网络模型进行训练。本公开实施例可以有效地加快神经网络模型的收敛,缩短神经网络模型迭代的时间,从而提高神经网络模型的训练速度和训练效果。
Description
技术领域
本公开涉及神经网络技术,尤其是一种神经网络模型的训练方法和装置、存储介质和电子设备。
背景技术
随着人工智能的普及,语音已成为人机交互的重要方式。语音识别技术也被称为自动语音识别(Automatic Speech Recognition,ASR),是将人类的语音转换为计算机可读的输入形式的技术。近年来,人工神经网络(Artificial Neural Network,ANN)凭借其非线性映射、泛化和容错特性兼具、实时性好和识别精度高等特点,已经逐渐在各种场景的语音识别中得到了广泛的应用。
发明内容
为了解决上述技术问题,本公开实施例提供了一种神经网络模型的训练的技术方案。
根据本公开实施例的一个方面,提供了一种神经网络模型的训练方法,包括:
确定神经网络模型中神经元的权重的初始值;
对所述神经网络模型中至少一个记忆单元层中神经元的权重的初始值进行调整;
对初始值调整后的神经网络模型进行训练。
根据本公开实施例的另一个方面,提供了一种神经网络模型的训练装置,包括:
初始化模块,用于确定神经网络模型中神经元的权重的初始值
调整模块,用于对所述神经网络模型中至少一个记忆单元层中神经元的权重的初始值进行调整;
训练模块,用于对所述调整模块进行初始值调整后的神经网络模型进行训练。
根据本公开实施例的又一个方面,提供了一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序用于执行上述任一实施例所述的神经网络模型的训练方法。
根据本公开实施例的再一个方面,提供了一种电子设备,所述电子设备包括:
处理器;
用于存储所述处理器可执行指令的存储器;
所述处理器,用于从所述存储器中读取所述可执行指令,并执行所述指令以实现上述任一实施例所述的神经网络模型的训练方法。
基于本公开上述实施例提供的神经网络模型的训练方法和装置、计算机可读存储介质和电子设备,确定神经网络模型中神经元的权重的初始值后,对神经网络模型中至少一个记忆单元层中神经元的权重的初始值进行调整,以减少对一些信息的重复考虑,然后再对初始值调整后的神经网络模型进行训练,由于对神经网络模型中神经元的权重的初始值的选择,会对神经网络模型训练的收敛速度产生影响,本公开实施例在对神经网络模型训练前,先对至少一个记忆单元层中神经元的权重的初始值进行调整,特别是对于神经网络模型中重复信息对应的权重的初始值进行调整,可以在训练时有效地加快神经网络模型的收敛,缩短神经网络模型迭代的时间,从而提高神经网络模型的训练速度和训练效果。
附图说明
通过结合附图对本公开实施例进行更详细的描述,本公开的上述以及其他目的、特征和优势将变得更加明显。附图用来提供对本公开实施例的进一步理解,并且构成说明书的一部分,与本公开实施例一起用于解释本公开,并不构成对本公开的限制。在附图中,相同的参考标号通常代表相同部件或步骤。
图1是本公开所适用的一个系统图。
图2是本公开一示例性实施例提供的神经网络模型的训练方法的流程示意图。
图3为FSMN的一个示例性结构框图。
图4为一个单向FSMN中隐藏层旁挂的一个记忆单元的原理框图。
图5是本公开另一示例性实施例提供的神经网络模型的训练方法的流程示意图。
图6是本公开又一示例性实施例提供的神经网络模型的训练方法的流程示意图。
图7是本公开一示例性实施例提供的神经网络模型的训练装置的结构示意图。
图8是本公开另一示例性实施例提供的神经网络模型的训练装置的结构示意图。
图9是本公开一示例性实施例提供的电子设备的结构图。
具体实施方式
下面,将参考附图详细地描述根据本公开的示例实施例。显然,所描述的实施例仅仅是本公开的一部分实施例,而不是本公开的全部实施例,应理解,本公开不受这里描述的示例实施例的限制。
应注意到:除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值不限制本公开的范围。
本领域技术人员可以理解,本公开实施例中的“第一”、“第二”等术语仅用于区别不同步骤、设备或模块等,既不代表任何特定技术含义,也不表示它们之间的必然逻辑顺序。
还应理解,在本公开实施例中,“多个”可以指两个或两个以上,“至少一个”可以指一个、两个或两个以上。
还应理解,对于本公开实施例中提及的任一部件、数据或结构,在没有明确限定或者在前后文给出相反启示的情况下,一般可以理解为一个或多个。
另外,本公开中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本公开中字符“/”,一般表示前后关联对象是一种“或”的关系。
还应理解,本公开对各个实施例的描述着重强调各个实施例之间的不同之处,其相同或相似之处可以相互参考,为了简洁,不再一一赘述。
同时,应当明白,为了便于描述,附图中所示出的各个部分的尺寸并不是按照实际的比例关系绘制的。
以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本公开及其应用或使用的任何限制。
对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为说明书的一部分。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
本公开实施例可以应用于终端设备、计算机系统、服务器等电子设备,其可与众多其它通用或专用计算系统环境或配置一起操作。适于与终端设备、计算机系统、服务器等电子设备一起使用的众所周知的终端设备、计算系统、环境和/或配置的例子包括但不限于:个人计算机系统、服务器计算机系统、瘦客户机、厚客户机、手持或膝上设备、基于微处理器的系统、机顶盒、可编程消费电子产品、网络个人电脑、小型计算机系统﹑大型计算机系统和包括上述任何系统的分布式云计算技术环境,等等。
终端设备、计算机系统、服务器等电子设备可以在由计算机系统执行的计算机系统可执行指令(诸如程序模块)的一般语境下描述。通常,程序模块可以包括例程、程序、目标程序、组件、逻辑、数据结构等等,它们执行特定的任务或者实现特定的抽象数据类型。计算机系统/服务器可以在分布式云计算环境中实施,分布式云计算环境中,任务是由通过通信网络链接的远程处理设备执行的。在分布式云计算环境中,程序模块可以位于包括存储设备的本地或远程计算系统存储介质上。
申请概述
在实现本发明的过程中,本发明人通过研究发现,采用现有的初始化方法对应用于语音识别的神经网络模型进行初始化时,由于神经网络模型需要对语音的长时相关性进行建模,对一些信息的重复考虑,会造成神经网络模型在训练时收敛缓慢或者不收敛,从而影响神经网络模型的训练效率。
本公开实施例在神经网络模型初始化后、对该神经网络模型训练前,对神经网络模型中至少一个记忆单元层中神经元的权重的初始值进行调整,特别是对于神经网络模型中重复信息对应的权重的初始值进行调整,可以在训练时有效地加快神经网络模型的收敛,缩短神经网络模型迭代的时间,从而提高神经网络模型的训练速度和训练效果。
示例性系统
本公开实施例可用于对神经网络模型进行训练。图1是本公开所适用的一个系统图。如图1所示,先对神经网络模型进行初始化,即:初始化神经网络模型中各神经元的权重值(也称为权值),初始化后神经元的权重值作为神经元的权重的初始值;之后,采用本公开实施例对神经网络模型中至少一个记忆单元层中神经元的权重的初始值进行调整,以改变该至少一个记忆单元层中神经元的权重的初始值;然后对初始值调整后的神经网络模型进行训练。训练好的神经网络模型可以应用于声学模型,应用于各种场景的语音识别中,例如,可以应用于与机器人、儿童玩具、音响等有语音交互的场景,也可以应用于搜索等场景。
示例性方法
图2是本公开一示例性实施例提供的神经网络模型的训练方法的流程示意图。本实施例可应用在电子设备上,如图2所示,本实施例的神经网络模型的训练方法包括如下步骤:
步骤201,确定神经网络模型中神经元的权重的初始值。
在其中一些实施方式中,神经网络模型例如可以包括但不限于以下任意一种:循环神经网络模型(Recurrent Neural Network,RNN)、长短期记忆神经网络模型(long-short term memory,LSTM)、前馈序列记忆神经网络模型(Feedforward SequentialMemory Networks,FSMN),等等任意神经网络模型。
其中,可以通过对神经网络模型初始化的方式对确定神经网络模型中神经元的权重的初始值。例如,在其中一些实施方式中,可以采用常量(constant)初始化方式、高斯分布(gaussian)初始化方式、均匀分布(uniform)初始化方式、双线性(bilinear)初始化方式、positive_unitball初始化方式、Xavier初始化方式和MSRA初始化方式等各种神经网络模型初始化方式中的任意一种方式,确定神经网络模型中神经元的权重的初始值。通过对神经网络模型初始化的方式,可以确定神经网络模型中神经元的权重的初始值。神经网络模型的训练过程是一个迭代的过程,即在神经网络模型中神经元的权重被赋予初始值后,通过对神经网络模型进行迭代训练,来得到可以满足一定应用需求的神经网络模型,例如,用于进行人脸识别、图像分类、语音识别等各种应用的神经网络模型。
由此,神经网络中神经元的权重的初始值对神经网络模型最终的训练结果有很大的影响。过大或者过小的初始值,对神经网络模型收敛的结果都会有不好的结果,例如,使得神经网络模型无法收敛或者收敛速度较慢,从而导致收敛效果不好。
在上述各种对神经网络模型初始化的方式中,通过Xavier初始化方式对神经网络模型进行初始化时,在正向传播时,使得神经网络模型中每一网络层输出的激活值的方差保持不变,确保了神经网络模型中信息可以更好地流动,从而加快神经网络模型的收敛速度。
步骤202,对上述神经网络模型中至少一个记忆单元层中神经元的权重的初始值进行调整,以减小至少一个记忆单元层中重复信息对应的权重的初始值。
步骤203,对初始值调整后的神经网络模型进行训练。
基于本公开上述实施例提供的神经网络模型的训练方法,确定神经网络模型中神经元的权重的初始值后,对神经网络模型中至少一个记忆单元层中神经元的权重的初始值进行调整,以减少对一些信息的重复考虑,然后再对初始值调整后的神经网络模型进行训练,由于对神经网络模型中神经元的权重的初始值的选择,会对神经网络模型训练的收敛速度产生影响,本公开实施例在对神经网络模型训练前,先对至少一个记忆单元层中神经元的权重的初始值进行调整,特别是对于神经网络模型中重复信息对应的权重的初始值进行调整,可以在训练时有效地加快神经网络模型的收敛,缩短神经网络模型迭代的时间,从而提高神经网络模型的训练速度和训练效果。
目前,基于FSMN的声学模型已经广泛应用于各种场景的语音识别应用中。如图3所示,为FSMN的一个示例性结构框图。如图3所示,FSMN包括:输入层,至少一个隐藏层(即隐藏的网络层),输出层。在隐藏层的旁边,旁挂了一个记忆单元(Memory Block),记忆单元的作用与LSTM门结构类似,可以用来记住t时刻输入信息的相邻时刻序列的信息。其中,每个FSMN中可以在至少一个隐藏层中各隐藏层的旁边分别旁挂一个记忆单元。根据记忆单元编码方式的区别,FSMN可以分为以标量系数编码的FSMN(sFSMN)和以向量系数编码的FSMN(vFSMN)。
在本公开实施例中的FSMN,可以是双向sFSMN或双向vFSMN,也可是单向sFSMN或者单向vFSMN。其中,单向sFSMN既可以是回看式sFSMN,也可以是后看式sFSMN;单向vFSMN既可以是回看式vFSMN,也可以是后看式vFSMN。
图4为一个单向FSMN中隐藏层旁挂的一个记忆单元的原理框图。如图4所示,以记住前N个时刻信息为例,对于sFSMN,其计算公式如下公式(1)所示,对于vFSMN,其计算公式如下公式(2)所示:
其中,公式(1)代表的标量乘积,公式(2)代表的是Hadamard积,→表示向量,l表示第l层网络层,t表示时刻。
因此,可以得到sFSMN下的编码系数向量和vFSMN下的编码系数矩阵分别如下公式(3)和公式(4)所示:
有了这一个隐藏层旁挂着的记忆单元,就要将此记忆单元作为输入传递到下一个隐藏层或者输出层(旁挂的记忆单元为最靠近输出层的一个隐藏层时),如图3所示,可以表示为:
以上是单向FSMN中的回看式FSMN,即,该记忆单元只关注了它之前的信息,如果还要关注未来的信息,实现上下文联通,也就是所谓的双向FSMN,直接在公式(1)和公式(2)中添加后看的阶数即可,其中双向sFSMN和双向vFSMN的计算公式分别如下公式(6)和公式(7)所示:
在本公开的一些实施方式中,训练神经网络模型的步骤如下:初始化神经网络模型的权值参数,即确定神经网络模型中各神经元的权重的初始值;选择一个梯度下降算法重复下面的迭代过程:输入对象在神经网络模型中正向传播;计算损失函数值;反向传播,计算损失函数相对于权值参数的梯度值;根据选择的梯度下降算法,使用权值参数的梯度值更新初始化神经网络模型的权值参数(即各神经元的权重的初始值)。
另外,在本公开另一实施例的神经网络模型的训练方法中,还可以包括:选取神经网络模型中部分或者全部记忆单元层作为上述实施例中的至少一个记忆单元层。
基于该实施例,可以至少针对神经网络模型中的部分记忆单元层中神经元的权重的初始值进行调整,从而加快神经网络模型的收敛,缩短神经网络模型迭代的时间。在针对神经网络模型中的全部记忆单元层中神经元的权重的初始值进行调整时,可以更有效地加快神经网络模型的收敛、缩短神经网络模型迭代的时间。
在本公开实施例中,神经网络模型中的隐藏层可以是降维层、升维层或者其他层。其中的降维层、升维层,例如可以是池化层(Pooling)。其中降维层可用于特征降维、压缩数据和参数的数量,减小过拟合,同时提高神经网络模型的容错性。在其中一些实施方式中,可以选取神经网络模型中部分或者全部降维层旁挂的记忆单元层作为上述至少一个记忆单元层。
基于该实施例,选取神经网络模型中部分或者全部降维层旁挂的记忆单元层作为上述至少一个记忆单元层,对其中神经元的权重的初始值进行调整,可以更有效地加快神经网络模型的收敛、缩短神经网络模型迭代的时间,从而更好地提高神经网络模型的训练速度和训练效果。
图5是本公开另一示例性实施例提供的神经网络模型的训练方法的流程示意图。如图5所示,在上述图2所示实施例的基础上,步骤202可包括如下步骤:
步骤2021,确定至少一个记忆单元中对应于当前时刻信息的神经元。
步骤2022,将对应于当前时刻的神经元的权重的初始值减小第一预设数值。
其中,该第一预设数值为大于0的数值。
基于该实施例,通过将当前时刻的神经元的权重的初始值减小第一预设数值的方式,实现了减小记忆单元中当前时刻的神经元的权重的初始值,从而减少了对当前时刻信息的重复考虑,可以在训练时有效地加快神经网络模型的收敛,缩短神经网络模型迭代的时间,从而提高神经网络模型的训练速度和训练效果。
例如,在其中一些可选示例中,第一预设数值的取值范围可以大于0.5且小于1.5。
本发明人通过研究发现,神经网络模型在训练完成后,神经元的权重值的分布范围通常为【0.5,1.5】,在该实施例中,第一预设数值的取值范围大于0.5且小于1.5时,可以直接将神经元的权重值调整到较接近于训练完成时的值,从而进一步加快神经网络模型的收敛,缩短神经网络模型迭代的时间,提高神经网络模型的训练速度和训练效果。
图6是本公开又一示例性实施例提供的神经网络模型的训练方法的流程示意图。如图6所示,在上述图2所示实施例的基础上,步骤202可包括如下步骤:
步骤2021’,确定至少一个记忆单元中对应于当前时刻信息的神经元。
步骤2022’,将对应于当前时刻的神经元的权重的初始值乘以第二预设数值。
其中,该第二预设数值为大于或等于0、且小于1的数值。例如,在其中一些可选示例中,第二预设数值的取值可以为0.02。
基于该实施例,通过将当前时刻的神经元的权重的初始值乘以第二预设数值的方式,实现了减小记忆单元中当前时刻的神经元的权重的初始值,从而减少了对当前时刻信息的重复考虑,可以在训练时有效地加快神经网络模型的收敛,缩短神经网络模型迭代的时间,从而提高神经网络模型的训练速度和训练效果。
其中,Xavier初始化方式为常用的初始化方法,通过Xavier初始化方式对神经网络模型进行初始化时,在正向传播时,使得每一网络层输出的激活值的方差保持不变,确保了神经网络模型中信息可以更好地流动;在反向传播时,可以使每一网络层的梯度值的方差保持不变。由于在Xavier初始化方式对神经网络模型进行初始化的过程中,权重值矩阵w是独立同分布的,且其均值为0,则其权重值矩阵的均值为0,权重值矩阵w从分布:
在实现本发明的过程中,本发明人通过研究发现,现有方法采用Xavier初始化方式初始化FSMN的权值参数时,由于FSMN结构中记忆单元重复考虑当前时刻信息的缘故,会造成网络收敛缓慢或者不收敛。
基于本公开实施例,可以先采用Xavier初始化方式对FSMN整个网络权重值进行初始化,针对记忆单元中重复包含当前时刻信息的问题,将当前时刻初始化后的权重值(即权重的初始值)减1,即针对当前时刻对公式(8)初始化一个以-1为均值的权重值矩阵,其他时刻权重值矩阵的均值不变,仍为0,其他非记忆单元层的权重值保持不变,得到调整后的FSMN;然后以该调整后的FSMN作为初始模型进行训练,这样就有效地缓解了重复考虑当前时刻信息、导致当前时刻信息过重的问题,从而加快了对FSMN的训练,由于训练完成条件未变,可以保证FSMN最终的网络性能。
本公开实施例提供的任一种神经网络模型的训练方法可以由任意适当的具有数据处理能力的设备执行,包括但不限于:终端设备和服务器等。或者,本公开实施例提供的任一种神经网络模型的训练方法可以由处理器执行,如处理器通过调用存储器存储的相应指令来执行本公开实施例提及的任一种神经网络模型的训练方法。下文不再赘述。
示例性装置
图7是本公开一示例性实施例提供的神经网络模型的训练装置的结构示意图。该神经网络模型的训练装置可以设置于终端设备、服务器等电子设备中,执行本公开上述任一实施例的神经网络模型的训练方法。如图7所示,该神经网络模型的训练装置包括:
初始化模块501,用于确定神经网络模型中神经元的权重的初始值。
调整模块502,用于对初始化模块501确定的神经网络模型中至少一个记忆单元层中神经元的权重的初始值进行调整。
训练模块503,用于对调整模块502进行初始值调整后的神经网络模型进行训练。
基于本公开上述实施例提供的神经网络模型的训练装置,确定神经网络模型中神经元的权重的初始值后,对神经网络模型中至少一个记忆单元层中神经元的权重的初始值进行调整,以减少对一些信息的重复考虑,然后再对初始值调整后的神经网络模型进行训练,由于对神经网络模型中神经元的权重的初始值的选择,会对神经网络模型训练的收敛速度产生影响,本公开实施例在对神经网络模型训练前,先对至少一个记忆单元层中神经元的权重的初始值进行调整,特别是对于神经网络模型中重复信息对应的权重的初始值进行调整,可以在训练时有效地加快神经网络模型的收敛,缩短神经网络模型迭代的时间,从而提高神经网络模型的训练速度和训练效果。
在其中一些实施方式中,神经网络模型例如可以包括但不限于以下任意一种:循环神经网络模型(Recurrent Neural Network,RNN)、长短期记忆神经网络模型(long-short term memory,LSTM)、前馈序列记忆神经网络模型(Feedforward SequentialMemory Networks,FSMN),等等任意神经网络模型。
在其中一些实施方式中,初始化模块501,例如可以采用常量初始化方式、高斯分布初始化方式、均匀分布初始化方式、双线性初始化方式、positive_unitball初始化方式、Xavier初始化方式和MSRA初始化方式等各种神经网络模型初始化方式中的任意一种方式,确定神经网络模型中神经元的权重的初始值。
图8是本公开另一示例性实施例提供的神经网络模型的训练装置的结构示意图。如图8所示,在图7所示实施例的基础上,还包括:选取模块504,用于选取神经网络模型中部分或者全部记忆单元层作为上述至少一个记忆单元层,以便调整模块502对该至少一个记忆单元层中神经元的权重的初始值进行调整。
在其中一些实施方式中,选取模块504,可以选取神经网络模型中部分或者全部降维层旁挂的记忆单元层作为上述至少一个记忆单元层。
另外,再参见图8,在其中一些实施方式中,在上述图7或图8所示实施例的基础上,调整模块502可以包括:确定单元,用于确定上述至少一个记忆单元中对应于当前时刻信息的神经元;第一调整单元,用于将确定单元确定的、对应于当前时刻的神经元的权重的初始值减小第一预设数值,其中,该第一预设数值为大于0的数值。
或者,在另一些实施方式中,调整模块502也可以包括:确定单元,用于确定上述至少一个记忆单元中对应于当前时刻信息的神经元;第二调整单元,用于将确定单元确定的、对应于当前时刻的神经元的权重的初始值乘以第二预设数值,第二预设数值为大于或等于0、且小于1的数值。
示例性电子设备
本公开实施例还提供了一种电子设备,该电子设备包括:处理器;用于存储处理器可执行指令的存储器;处理器,用于从所述存储器中读取可执行指令,并执行指令以实现本公开上述任一实施例所述的神经网络模型的训练方法。
下面,参考图9来描述根据本公开实施例的电子设备。该电子设备可以是第一设备和第二设备中的任一个或两者、或与它们独立的单机设备,该单机设备可以与第一设备和第二设备进行通信,以从它们接收所采集到的输入信号。
图9图示了根据本公开实施例的电子设备的框图。如图9所示,电子设备包括一个或多个处理器101和存储器102。
处理器101可以是中央处理单元(CPU)或者具有数据处理能力和/或指令执行能力的其他形式的处理单元,并且可以控制电子设备中的其他组件以执行期望的功能。
存储器102可以包括一个或多个计算机程序产品,所述计算机程序产品可以包括各种形式的计算机可读存储介质,例如易失性存储器和/或非易失性存储器。所述易失性存储器例如可以包括随机存取存储器(RAM)和/或高速缓冲存储器(cache)等。所述非易失性存储器例如可以包括只读存储器(ROM)、硬盘、闪存等。在所述计算机可读存储介质上可以存储一个或多个计算机程序指令,处理器101可以运行所述程序指令,以实现上文所述的本公开的各个实施例的神经网络模型的训练方法以及/或者其他期望的功能。在所述计算机可读存储介质中还可以存储诸如输入信号、信号分量、噪声分量等各种内容。
在一个示例中,电子设备还可以包括:输入装置103和输出装置104,这些组件通过总线系统和/或其他形式的连接机构(未示出)互连。
例如,在该电子设备是第一设备或第二设备时,该输入装置103可以是上述的麦克风或麦克风阵列,用于捕捉声源的输入信号。在该电子设备是单机设备时,该输入装置103可以是通信网络连接器,用于从第一设备和第二设备接收所采集的输入信号。
此外,该输入设备103还可以包括例如键盘、鼠标等等。
该输出装置104可以向外部输出各种信息,包括确定出的距离信息、方向信息等。该输出设备104可以包括例如显示器、扬声器、打印机、以及通信网络及其所连接的远程输出设备等等。
当然,为了简化,图9中仅示出了该电子设备中与本公开有关的组件中的一些,省略了诸如总线、输入/输出接口等等的组件。除此之外,根据具体应用情况,电子设备还可以包括任何其他适当的组件。
示例性计算机程序产品和计算机可读存储介质
本公开实施例还提供了一种计算机可读存储介质,所述存储介质存储有计算机程序,计算机程序用于执行本公开上述任一实施例所述的神经网络模型的训练方法。除了上述方法和设备以外,本公开的实施例还可以是计算机程序产品,其包括计算机程序指令,所述计算机程序指令在被处理器运行时使得所述处理器执行本说明书上述“示例性方法”部分中描述的根据本公开各种实施例的神经网络模型的训练方法中的步骤。
所述计算机程序产品可以以一种或多种程序设计语言的任意组合来编写用于执行本公开实施例操作的程序代码,所述程序设计语言包括面向对象的程序设计语言,诸如Java、C++等,还包括常规的过程式程序设计语言,诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。
此外,本公开的实施例还可以是计算机可读存储介质,其上存储有计算机程序指令,所述计算机程序指令在被处理器运行时使得所述处理器执行本说明书上述“示例性方法”部分中描述的根据本公开各种实施例的神经网络模型的训练方法中的步骤。
所述计算机可读存储介质可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以包括但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
以上结合具体实施例描述了本公开的基本原理,但是,需要指出的是,在本公开中提及的优点、优势、效果等仅是示例而非限制,不能认为这些优点、优势、效果等是本公开的各个实施例必须具备的。另外,上述公开的具体细节仅是为了示例的作用和便于理解的作用,而非限制,上述细节并不限制本公开为必须采用上述具体的细节来实现。
本说明书中各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其它实施例的不同之处,各个实施例之间相同或相似的部分相互参见即可。对于系统实施例而言,由于其与方法实施例基本对应,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
本公开中涉及的器件、装置、设备、系统的方框图仅作为例示性的例子并且不意图要求或暗示必须按照方框图示出的方式进行连接、布置、配置。如本领域技术人员将认识到的,可以按任意方式连接、布置、配置这些器件、装置、设备、系统。诸如“包括”、“包含”、“具有”等等的词语是开放性词汇,指“包括但不限于”,且可与其互换使用。这里所使用的词汇“或”和“和”指词汇“和/或”,且可与其互换使用,除非上下文明确指示不是如此。这里所使用的词汇“诸如”指词组“诸如但不限于”,且可与其互换使用。
可能以许多方式来实现本公开的方法和装置。例如,可通过软件、硬件、固件或者软件、硬件、固件的任何组合来实现本公开的方法和装置。用于所述方法的步骤的上述顺序仅是为了进行说明,本公开的方法的步骤不限于以上具体描述的顺序,除非以其它方式特别说明。此外,在一些实施例中,还可将本公开实施为记录在记录介质中的程序,这些程序包括用于实现根据本公开的方法的机器可读指令。因而,本公开还覆盖存储用于执行根据本公开的方法的程序的记录介质。
还需要指出的是,在本公开的装置、设备和方法中,各部件或各步骤是可以分解和/或重新组合的。这些分解和/或重新组合应视为本公开的等效方案。
提供所公开的方面的以上描述以使本领域的任何技术人员能够做出或者使用本公开。对这些方面的各种修改对于本领域技术人员而言是非常显而易见的,并且在此定义的一般原理可以应用于其他方面而不脱离本公开的范围。因此,本公开不意图被限制到在此示出的方面,而是按照与在此公开的原理和新颖的特征一致的最宽范围。
为了例示和描述的目的已经给出了以上描述。此外,此描述不意图将本公开的实施例限制到在此公开的形式。尽管以上已经讨论了多个示例方面和实施例,但是本领域技术人员将认识到其某些变型、修改、改变、添加和子组合。
Claims (12)
1.一种神经网络模型的训练方法,包括:
确定神经网络模型中神经元的权重的初始值;
对所述神经网络模型中至少一个记忆单元层中神经元的权重的初始值进行调整;
对初始值调整后的神经网络模型进行训练。
2.根据权利要求1所述的方法,其中,所述确定所述神经网络模型中神经元的权重的初始值,包括:
采用常量初始化方式、高斯分布初始化方式、Xavier初始化方式和MSRA初始化方式中的任意一种方式,确定所述神经网络模型中神经元的权重的初始值。
3.根据权利要求1或2所述的方法,其中,还包括:
选取所述神经网络模型中部分或者全部记忆单元层作为所述至少一个记忆单元层。
4.根据权利要求3所述的方法,其中,所述选取所述神经网络模型中部分或者全部记忆单元层作为所述至少一个记忆单元层,包括:
选取所述神经网络模型中部分或者全部降维层旁挂的记忆单元层作为所述至少一个记忆单元层。
5.根据权利要求1至4任意一项所述的方法,其中,所述对所述神经网络模型中至少一个记忆单元层中神经元的权重的初始值进行调整,包括:
确定所述至少一个记忆单元中对应于当前时刻信息的神经元;
将所述对应于当前时刻的神经元的权重的初始值减小第一预设数值,所述第一预设数值为大于0的数值。
6.根据权利要求1至4任意一项所述的方法,其中,所述对所述神经网络模型中至少一个记忆单元层中神经元的权重的初始值进行调整,包括:
确定所述至少一个记忆单元中对应于当前时刻信息的神经元;
将所述对应于当前时刻的神经元的权重的初始值乘以第二预设数值,所述第二预设数值为大于或等于0、且小于1的数值。
7.一种神经网络模型的训练装置,包括:
初始化模块,用于确定神经网络模型中神经元的权重的初始值;
调整模块,用于对所述神经网络模型中至少一个记忆单元层中神经元的权重的初始值进行调整;
训练模块,用于对所述调整模块进行初始值调整后的神经网络模型进行训练。
8.根据权利要求7所述的装置,其中,还包括:
选取模块,用于选取所述神经网络模型中部分或者全部记忆单元层作为所述至少一个记忆单元层。
9.根据权利要求7或8所述的装置,其中,所述调整模块包括:
确定单元,用于确定所述至少一个记忆单元中对应于当前时刻信息的神经元;
第一调整单元,用于将所述对应于当前时刻的神经元的权重的初始值减小第一预设数值,所述第一预设数值为大于0的数值。
10.根据权利要求7或8所述的装置,其中,所述调整模块包括:
确定单元,用于确定所述至少一个记忆单元中对应于当前时刻信息的神经元;
第二调整单元,用于将所述对应于当前时刻的神经元的权重的初始值乘以第二预设数值,所述第二预设数值为大于或等于0、且小于1的数值。
11.一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序用于执行上述权利要求1至6任意一项所述的方法。
12.一种电子设备,所述电子设备包括:
处理器;
用于存储所述处理器可执行指令的存储器;
所述处理器,用于从所述存储器中读取所述可执行指令,并执行所述指令以实现上述权利要求1至6任意一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910911100.2A CN112561026B (zh) | 2019-09-25 | 2019-09-25 | 神经网络模型的训练方法和装置、存储介质和电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910911100.2A CN112561026B (zh) | 2019-09-25 | 2019-09-25 | 神经网络模型的训练方法和装置、存储介质和电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112561026A true CN112561026A (zh) | 2021-03-26 |
CN112561026B CN112561026B (zh) | 2024-09-06 |
Family
ID=75029308
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910911100.2A Active CN112561026B (zh) | 2019-09-25 | 2019-09-25 | 神经网络模型的训练方法和装置、存储介质和电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112561026B (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104769864A (zh) * | 2012-06-14 | 2015-07-08 | 艾诺威网络有限公司 | 多播到单播转换技术 |
CN108140144A (zh) * | 2016-03-31 | 2018-06-08 | 富士通株式会社 | 一种对神经网络模型进行训练的方法、装置及电子设备 |
CN108665095A (zh) * | 2018-04-27 | 2018-10-16 | 东华大学 | 基于遗传算法优化Elman神经网络的短期功率预测方法 |
EP3493120A1 (en) * | 2017-12-01 | 2019-06-05 | Koninklijke Philips N.V. | Training a neural network model |
-
2019
- 2019-09-25 CN CN201910911100.2A patent/CN112561026B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104769864A (zh) * | 2012-06-14 | 2015-07-08 | 艾诺威网络有限公司 | 多播到单播转换技术 |
CN108140144A (zh) * | 2016-03-31 | 2018-06-08 | 富士通株式会社 | 一种对神经网络模型进行训练的方法、装置及电子设备 |
EP3493120A1 (en) * | 2017-12-01 | 2019-06-05 | Koninklijke Philips N.V. | Training a neural network model |
CN108665095A (zh) * | 2018-04-27 | 2018-10-16 | 东华大学 | 基于遗传算法优化Elman神经网络的短期功率预测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112561026B (zh) | 2024-09-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3504703B1 (en) | A speech recognition method and apparatus | |
EP3926623B1 (en) | Speech recognition method and apparatus, and neural network training method and apparatus | |
CN111788585B (zh) | 一种深度学习模型的训练方法、系统 | |
WO2015089148A2 (en) | Reducing dynamic range of low-rank decomposition matrices | |
US10810993B2 (en) | Sample-efficient adaptive text-to-speech | |
US20230267315A1 (en) | Diffusion Models Having Improved Accuracy and Reduced Consumption of Computational Resources | |
US20200074986A1 (en) | Speech recognition apparatus and method | |
JP2016218513A (ja) | ニューラルネットワーク及びそのためのコンピュータプログラム | |
CN114267366A (zh) | 通过离散表示学习进行语音降噪 | |
US20230088669A1 (en) | System and method for evaluating weight initialization for neural network models | |
CN112036954A (zh) | 物品推荐方法和装置、计算机可读存储介质、电子设备 | |
US11790236B2 (en) | Minimum deep learning with gating multiplier | |
CN116610218A (zh) | Ai数字人的交互方法、装置及系统 | |
JP2024043504A (ja) | ニューラルネットワークモデル推論の加速方法、装置、電子機器及び媒体 | |
CN111667069A (zh) | 预训练模型压缩方法、装置和电子设备 | |
WO2022213825A1 (zh) | 基于神经网络的端到端语音增强方法、装置 | |
EP4165557A1 (en) | Systems and methods for generation of machine-learned multitask models | |
CN112786001A (zh) | 语音合成模型训练方法、语音合成方法和装置 | |
Zhang et al. | Data Independent Sequence Augmentation Method for Acoustic Scene Classification. | |
CN116664731B (zh) | 人脸动画生成方法及装置、计算机可读存储介质、终端 | |
CN112561026B (zh) | 神经网络模型的训练方法和装置、存储介质和电子设备 | |
CN114171043B (zh) | 回声的确定方法、装置、设备以及存储介质 | |
US20230214663A1 (en) | Few-Shot Domain Adaptation in Generative Adversarial Networks | |
CN111709787B (zh) | 用于生成用户留存时间的方法、装置、电子设备和介质 | |
WO2024060727A1 (zh) | 神经网络模型的训练方法、装置、设备及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |