CN109886386A - 唤醒模型的确定方法及装置 - Google Patents

唤醒模型的确定方法及装置 Download PDF

Info

Publication number
CN109886386A
CN109886386A CN201910094806.4A CN201910094806A CN109886386A CN 109886386 A CN109886386 A CN 109886386A CN 201910094806 A CN201910094806 A CN 201910094806A CN 109886386 A CN109886386 A CN 109886386A
Authority
CN
China
Prior art keywords
weight
model
parameter
training
current state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910094806.4A
Other languages
English (en)
Other versions
CN109886386B (zh
Inventor
靳源
陈孝良
冯大航
苏少炜
常乐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
BEIJING WISDOM TECHNOLOGY Co Ltd
Beijing SoundAI Technology Co Ltd
Original Assignee
BEIJING WISDOM TECHNOLOGY Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by BEIJING WISDOM TECHNOLOGY Co Ltd filed Critical BEIJING WISDOM TECHNOLOGY Co Ltd
Priority to CN201910094806.4A priority Critical patent/CN109886386B/zh
Publication of CN109886386A publication Critical patent/CN109886386A/zh
Application granted granted Critical
Publication of CN109886386B publication Critical patent/CN109886386B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Feedback Control In General (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明提供了一种唤醒模型的确定方法及装置,其中,该方法包括:将训练集中的任一批次训练唤醒数据输入至一基于识别模型,确定神经网络的隐层的最后一层的当前状态的参数;对识别模型的隐层的最后一层的前一状态的参数与当前状态的参数进行插值处理,确定一插值,并将插值更新为当前状态的参数;分别将训练集中的其他批次训练唤醒数据输入至识别模型,并更新当前状态的参数,直至将训练集中的所有批次训练唤醒数据输入至识别模型;确定当前状态的参数与前一状态的参数的插值,并更新神经网络的隐层的最后一层的当前状态的参数,从而确定一唤醒模型。本发明通过更新神经网络的隐层的最后一层的参数,更新量小,且能够得到更准确的唤醒模型。

Description

唤醒模型的确定方法及装置
技术领域
本发明涉及神经网络领域,尤其涉及一种唤醒模型的确定方法及装置。
背景技术
目前,唤醒模块的建立,一般是特地录制关于唤醒词的语音信息,用于训练神经网络。且在神经网络的训练过程中,更新整个神经网络每一层的各个参数。这样一般花费较多的时间,成本较高,且神经网络的训练运算量太大,容易出现误差,因此,得到的唤醒模型的精确度也不高。
发明内容
(一)要解决的技术问题
本发明的目的在于提供一种唤醒模型的确定方法及装置,以解决上述的至少一项技术问题。
(二)技术方案
本发明实施例提供了一种唤醒模型的确定方法,包括:
将训练集中的任一批次训练唤醒数据输入至一基于神经网络的识别模型,确定所述神经网络的隐层的最后一层的当前状态的参数,所述参数包括权重与偏移量;
对所述识别模型的隐层的最后一层的前一状态的参数与当前状态的参数进行插值处理,确定一插值,并将所述插值更新为当前状态的参数;
分别将训练集中的其他批次训练唤醒数据输入至所述识别模型,并更新当前状态的参数,直至将所述训练集中的所有批次训练唤醒数据输入至所述识别模型;以及
确定当前状态的参数与前一状态的参数的插值,并更新所述神经网络的隐层的最后一层的当前状态的参数,从而确定一唤醒模型。
进一步的,对所述识别模型的隐层的最后一层的前一状态的参数与当前状态的参数进行插值处理,具体为:
对所述前一状态的权重根据第一权值、所述当前状态的权重根据第二权值求加权平均,确定所述插值的权重;
对所述当前状态的偏移量根据第一权值、所述当前状态的偏移量根据第二权值求加权平均,确定所述插值的偏移量;
且所述第一权值大于所述第二权值。
进一步的,还包括:
将测试集中的每一批训练唤醒数据分别输入至所述唤醒模型,利用交叉验证方法,计算所述唤醒模型的目标函数;
根据所述目标函数的下降速率正向地调节学习率,直至所述目标函数无下降趋势,停止将所述训练唤醒数据输入至所述唤醒模型。
进一步的,所述目标函数L=代价函数C+正则化J,wj表示第j个权重,λ为正则项系数,n表示当前批次训练唤醒数据的数目,x表示当前批次训练唤醒数据的特征值,y表示理论值,d表示输出值,d=σ(z),z=∑wj×xj+bj,wj为权重,bj为偏移量,xj为输入值,激活函数 wj表示前一状态的权重,wj′表示当前状态的权重,bj表示前一状态的偏移量,bj′表示当前状态的偏移量,α为学习率。
进一步的,通过一少语料库获取所述训练集和测试集,所述少语料库中的训练唤醒数据和测试唤醒数据的总数目为少于200人的不超过2个小时的训练数据。
进一步的,所述训练集和测试集的数目比值为12∶1。
本发明实施例还提供了一种唤醒模型的确定装置,包括:
确定模块,将训练集中的任一批次训练唤醒数据输入至一基于神经网络的识别模型,确定所述神经网络的隐层的最后一层的当前状态的参数,所述参数包括权重与偏移量;
更新模块,对所述识别模型的隐层的最后一层的前一状态的参数与当前状态的参数进行插值处理,确定一插值,并将所述插值更新为当前状态的参数;
重复模块,用于分别将训练集中的其他批次的训练唤醒数据输入至所述识别模型,并更新当前状态的参数,直至将所述训练集中的所有批次的训练唤醒数据输入至所述识别模型;以及确定当前状态的参数与前一状态的参数的插值,并更新所述神经网络的隐层的最后一层的当前状态的参数,从而确定一唤醒模型。
进一步的,所述更新模块确定所述插值,具体为:更新模块对所述前一状态的权重根据第一权值、所述当前状态的权重根据第二权值求加权平均,确定所述插值的权重;对所述当前状态的偏移量根据第一权值、所述当前状态的偏移量根据第二权值求加权平均,确定所述插值的偏移量;且所述第一权值大于所述第二权值。
进一步的,还包括:测试模块,用于将测试集中的每一批训练唤醒数据分别输入至所述唤醒模型,利用交叉验证方法,计算所述唤醒模型的目标函数;
根据所述目标函数的下降速率正向地调节学习率,直至所述目标函数无下降趋势,停止将所述训练唤醒数据输入至所述唤醒模型。
进一步的,所述目标函数L=代价函数C+正则化J,wj表示第j个权重,λ为正则项系数,n表示当前批次训练唤醒数据的数目,x表示当前批次训练唤醒数据的特征值,y表示理论值,d表示输出值,d=σ(z),z=∑wj×xj+bj,wj为权重,bj为偏移量,xj为输入值,激活函数 wj表示前一状态的权重,wj′表示当前状态的权重,bj表示前一状态的偏移量,bj′表示当前状态的偏移量,α为学习率。
(三)有益效果
本发明的唤醒模型的确定方法及装置,相较于现有技术,至少具有以下优点:
1、只需对现有少量的语料库的训练集进行训练,更新神经网络的隐层的最后一层的参数,避免了现有技术中将神经网络将每一层的参数都更新,减少了运算量,降低了误差率,且只需花费较少的成本和时间,就能获得精确度较高的唤醒模型;
2、对所述识别模型的隐层的最后一层的前一状态的参数与当前状态的参数,根据第一权值和第二权值求加权平均,从而确定更新后的参数,且第一权值大于第二参数,有效防止了训练之后的模型偏离原先的神经网络的情况,保证了训练得到的唤醒模型的唤醒准确率;
3、在训练得到的唤醒模型之后,还将少量语料库的测试集输入至所述唤醒模型,利用交叉验证方法,计算所述唤醒模型的目标函数和学习率,直至目标函数无下降趋势,停止唤醒模型的测试和更新,降低了训练集更新得到的唤醒模型的误唤醒率,保证了最终唤醒模型的唤醒正确率。
附图说明
图1为本发明实施例的唤醒模型的确定方法的步骤示意图;
图2为本发明实施例的唤醒模型的确定装置的模块图;
具体实施方式
现有技术一般是特地录制关于唤醒词的语音信息,从而训练神经网络,且在神经网络的训练过程中,更新整个神经网络每一层的各个参数。可见,存在训练时间和成本较高,训练运算量太大,唤醒精确度不高的问题,有鉴于此,本发明提供了一种
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明进一步详细说明。
本发明第一实施例提供了一种唤醒模型的确定方法,如图1所示,该方法包括以下步骤:
S1、将训练集中的任一批次训练唤醒数据输入至一基于神经网络的识别模型,确定所述神经网络的隐层的最后一层的当前状态的参数,所述参数包括权重与偏移量;
S2、对所述识别模型的隐层的最后一层的前一状态的参数与当前状态的参数进行插值处理,确定一插值,并将所述插值更新为当前状态的参数;
S3、分别将训练集中的其他批次训练唤醒数据输入至所述识别模型,并更新当前状态的参数,直至将所述训练集中的所有批次训练唤醒数据输入至所述识别模型;以及
S4、确定当前状态的参数与前一状态的参数的插值,并更新所述神经网络的隐层的最后一层的当前状态的参数,从而确定一唤醒模型。
在步骤S1之前,还可以包括步骤:通过一少语料库获取所述训练集和测试集。举例来说,少语料库中的训练唤醒数据和测试唤醒数据的总数目可以为少于200人的不超过2个小时的训练数据。
更进一步地,所述训练集和测试集的数目比值优选为12∶1,这是因为训练神经网络比测试唤醒模型所需的数据更多。
也就是说,本发明用于神经网络训练的训练集与现有技术的特地录制的关于唤醒词的训练数据不同,其更具有普适性和广泛性,在训练过程中,不仅能够提高唤醒准确率,同时还能降低误唤醒率。
以下将对各步骤进行详细描述。
在步骤S1中,可以先将训练集分为N个批次,优选地每个批次的训练数据的数目相同。再将训练集中的任一批次训练唤醒数据输入识别模型(该识别模型基于一神经网络)中,实际上,还会进行对该批次训练唤醒数据进行特征值提取的步骤,从而根据其特征值,确定所述神经网络的隐层的最后一层的当前状态的参数,所述参数包括权重与偏移量。
在步骤S2中,对前一状态的权重根据第一权值、所述当前状态的权重根据第二权值求加权平均,确定所述插值的权重;
对所述当前状态的偏移量根据第一权值、所述当前状态的偏移量根据第二权值求加权平均,确定所述插值的偏移量;
且所述第一权值大于所述第二权值。
举例来说,前一状态的权重和偏移量分别为5和3,当前状态的权重和偏移量分别为6和4,第一权值为0.7,第二权值为0.3,则插值的权重应为(5×0.7+6×0.3)/2,插值的偏移量为(5×0.7+4×0.3)/2。第一权值大于所述第二权值,有效防止了训练之后的模型偏离原先的神经网络的情况,保证了训练得到的唤醒模型的唤醒准确率。
此外,为了进一步提高训练得到的唤醒模型可能唤醒准确率,本发明实施例还可以包括步骤:
S41、将测试集中的每一批训练唤醒数据分别输入至所述唤醒模型,实际上,还会进行对每一批训练唤醒数据进行特征值提取的步骤,从而根据其特征值,然后根据所述特征值利用交叉验证方法,计算所述唤醒模型的目标函数;
S42、根据所述目标函数的下降速率正向地调节学习率,直至所述目标函数无下降趋势,停止将所述训练唤醒数据输入至所述唤醒模型。
其中,根据所述目标函数的下降速率正向地调节学习率,是因为学习率主要控制参数更新的快慢。更新过慢会导致训练时间增长,学习过快会导致跳过最优点,不能得到最优解。
其中,目标函数L=代价函数C+正则化J。
wj表示第j个权重,λ为正则项系数,主要控制对权重的惩罚,即正则的目的是为了防止由于权重更新过大产生过拟合,n表示当前批次训练唤醒数据的数目;x表示当前批次训练唤醒数据的特征值,y表示理论值,即当前批次训练唤醒数据的预设的准确唤醒率;d表示输出值,即当前批次训练唤醒数据输入所述唤醒模型之后,唤醒模型输出的实际唤醒率,d=σ(z),z=∑wj×xj+bj,wj为权重,bj为偏移量,xj为输入值,激活函数wj表示前一状态的权重,wj′表示当前状态的权重,bj表示前一状态的偏移量,bj′表示当前状态的偏移量,α为学习率。
本发明实施例的另一方面,还提供了一种唤醒模型的确定装置,如图2所示,该装置包括:
确定模块,将训练集中的任一批次训练唤醒数据输入至一基于神经网络的识别模型,确定所述神经网络的隐层的最后一层的当前状态的参数,所述参数包括权重与偏移量;
更新模块,对所述识别模型的隐层的最后一层的前一状态的参数与当前状态的参数进行插值处理,确定一插值,并将所述插值更新为当前状态的参数;
重复模块,用于分别将训练集中的其他批次的训练唤醒数据输入至所述识别模型,并更新当前状态的参数,直至将所述训练集中的所有批次的训练唤醒数据输入至所述识别模型;以及确定当前状态的参数与前一状态的参数的插值,并更新所述神经网络的隐层的最后一层的当前状态的参数,从而确定一唤醒模型。
实际上,确定模块和重复模块还会对输入的每一批训练唤醒数据进行特征值提取,从而根据该批次训练唤醒数据的特征值,确定所述神经网络的隐层的最后一层的当前状态的参数。
其中,所述更新模块确定所述插值,具体过程为:更新模块对所述前一状态的权重根据第一权值、所述当前状态的权重根据第二权值求加权平均,确定所述插值的权重;对所述当前状态的偏移量根据第一权值、所述当前状态的偏移量根据第二权值求加权平均,确定所述插值的偏移量;且所述第一权值大于所述第二权值。如此,能够防止训练之后的模型偏离原先的神经网络的情况,同时保证了训练得到的唤醒模型的唤醒准确率。
此外,为了进一步提高训练得到的唤醒模型可能唤醒准确率,本发明实施例还可以还包括:测试模块,用于将测试集中的每一批训练唤醒数据分别输入至所述唤醒模型,对输入的每一批测试唤醒数据进行特征值提取,从而根据该批次测试唤醒数据的特征值,利用交叉验证方法,计算所述唤醒模型的目标函数;根据所述目标函数的下降速率正向地调节学习率,直至所述目标函数无下降趋势,停止将所述训练唤醒数据输入至所述唤醒模型。
其中,根据所述目标函数的下降速率正向地调节学习率,是因为学习率主要控制参数更新的快慢。更新过慢会导致训练时间增长,学习过快会导致跳过最优点,不能得到最优解。
其中,目标函数L=代价函数C+正则化J。
wj表示第j个权重,λ为正则项系数,主要控制对权重的惩罚,即正则的目的是为了防止由于权重更新过大产生过拟合,n表示当前批次训练唤醒数据的数目;x表示当前批次训练唤醒数据的特征值,y表示理论值,即当前批次训练唤醒数据的预设的准确唤醒率;d表示输出值,即当前批次训练唤醒数据输入所述唤醒模型之后,唤醒模型输出的实际唤醒率,d=σ(z),z=∑wj×xj+bj,wj为权重,bj为偏移量,xj为输入值,激活函数wj表示前一状态的权重,wj′表示当前状态的权重,bj表示前一状态的偏移量,bj′表示当前状态的偏移量,α为学习率。
综上,本发明实施例的唤醒模型的确定方法及装置,只需对现有少量的语料库的训练集进行训练,更新神经网络的隐层的最后一层的参数,避免了现有技术中将神经网络将每一层的参数都更新,减少了运算量,降低了误差率,且只需花费较少的成本和时间,就能获得精确度较高的唤醒模型。
除非有所知名为相反之意,本说明书及所附权利要求中的数值参数是近似值,能够根据通过本发明的内容所得的所需特性改变。具体而言,所有使用于说明书及权利要求中表示组成的含量、反应条件等等的数字,应理解为在所有情况中是受到“约”的用语所修饰。一般情况下,其表达的含义是指包含由特定数量在一些实施例中±10%的变化、在一些实施例中±5%的变化、在一些实施例中±1%的变化、在一些实施例中±0.5%的变化。
再者,“包含”不排除存在未列在权利要求中的元件或步骤。位于元件之前的“一”或“一个”不排除存在多个这样的元件。
说明书与权利要求中所使用的序数例如“第一”、“第二”、“第三”等的用词,以修饰相应的元件,其本身并不意味着该元件有任何的序数,也不代表某一元件与另一元件的顺序、或是制造方法上的顺序,该些序数的使用仅用来使具有某命名的一元件得以和另一具有相同命名的元件能做出清楚区分。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种唤醒模型的确定方法,包括:
将训练集中的任一批次训练唤醒数据输入至一基于神经网络的识别模型,确定所述神经网络的隐层的最后一层的当前状态的参数,所述参数包括权重与偏移量;
对所述识别模型的隐层的最后一层的前一状态的参数与当前状态的参数进行插值处理,确定一插值,并将所述插值更新为当前状态的参数;
分别将训练集中的其他批次训练唤醒数据输入至所述识别模型,并更新当前状态的参数,直至将所述训练集中的所有批次训练唤醒数据输入至所述识别模型;以及
确定当前状态的参数与前一状态的参数的插值,并更新所述神经网络的隐层的最后一层的当前状态的参数,从而确定一唤醒模型。
2.根据权利要求1所述的唤醒模型的确定方法,其特征在于,对所述识别模型的隐层的最后一层的前一状态的参数与当前状态的参数进行插值处理,具体为:
对所述前一状态的权重根据第一权值、所述当前状态的权重根据第二权值求加权平均,确定所述插值的权重;
对所述当前状态的偏移量根据第一权值、所述当前状态的偏移量根据第二权值求加权平均,确定所述插值的偏移量;
且所述第一权值大于所述第二权值。
3.根据权利要求1所述的唤醒模型的确定方法,其特征在于,还包括:
将测试集中的每一批训练唤醒数据分别输入至所述唤醒模型,利用交叉验证方法,计算所述唤醒模型的目标函数;
根据所述目标函数的下降速率正向地调节学习率,直至所述目标函数无下降趋势,停止将所述训练唤醒数据输入至所述唤醒模型。
4.根据权利要求3所述的唤醒模型的确定方法,其特征在于,所述目标函数L=代价函数C+正则化J,wj表示第j个权重,λ为正则项系数,n表示当前批次训练唤醒数据的数目,x表示当前批次训练唤醒数据的特征值,y表示理论值,d表示输出值,d=σ(z),z=∑wj×xj+bj,wj为权重,bj为偏移量,xj为输入值,激活函数 wj表示前一状态的权重,wj′表示当前状态的权重,bj表示前一状态的偏移量,bj′表示当前状态的偏移量,α为学习率。
5.根据权利要求4所述的唤醒模型的确定方法,其特征在于,通过一少语料库获取所述训练集和测试集,所述少语料库中的训练唤醒数据和测试唤醒数据的总数目为少于200人的不超过2个小时的训练数据。
6.根据权利要求5所述的唤醒模型的确定方法,其特征在于,所述训练集和测试集的数目比值为12∶1。
7.一种唤醒模型的确定装置,包括:
确定模块,将训练集中的任一批次训练唤醒数据输入至一基于神经网络的识别模型,确定所述神经网络的隐层的最后一层的当前状态的参数,所述参数包括权重与偏移量;
更新模块,对所述识别模型的隐层的最后一层的前一状态的参数与当前状态的参数进行插值处理,确定一插值,并将所述插值更新为当前状态的参数;
重复模块,用于分别将训练集中的其他批次的训练唤醒数据输入至所述识别模型,并更新当前状态的参数,直至将所述训练集中的所有批次的训练唤醒数据输入至所述识别模型;以及确定当前状态的参数与前一状态的参数的插值,并更新所述神经网络的隐层的最后一层的当前状态的参数,从而确定一唤醒模型。
8.根据权利要求7所述的唤醒模型的确定装置,其特征在于,所述更新模块确定所述插值,具体为:更新模块对所述前一状态的权重根据第一权值、所述当前状态的权重根据第二权值求加权平均,确定所述插值的权重;对所述当前状态的偏移量根据第一权值、所述当前状态的偏移量根据第二权值求加权平均,确定所述插值的偏移量;且所述第一权值大于所述第二权值。
9.根据权利要求7所述的唤醒模型的确定装置,其特征在于,还包括:测试模块,用于将测试集中的每一批训练唤醒数据分别输入至所述唤醒模型,利用交叉验证方法,计算所述唤醒模型的目标函数;
根据所述目标函数的下降速率正向地调节学习率,直至所述目标函数无下降趋势,停止将所述训练唤醒数据输入至所述唤醒模型。
10.根据权利要求9所述的唤醒模型的确定装置,其特征在于,其特征在于,所述目标函数L=代价函数C+正则化J,wj表示第j个权重,λ为正则项系数,n表示当前批次训练唤醒数据的数目,x表示当前批次训练唤醒数据的特征值,y表示理论值,d表示输出值,d=σ(z),z=∑wj×xj+bj,wj为权重,bj为偏移量,xj为输入值,激活函数 wj表示前一状态的权重,wj′表示当前状态的权重,bj表示前一状态的偏移量,bj′表示当前状态的偏移量,α为学习率。
CN201910094806.4A 2019-01-30 2019-01-30 唤醒模型的确定方法及装置 Active CN109886386B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910094806.4A CN109886386B (zh) 2019-01-30 2019-01-30 唤醒模型的确定方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910094806.4A CN109886386B (zh) 2019-01-30 2019-01-30 唤醒模型的确定方法及装置

Publications (2)

Publication Number Publication Date
CN109886386A true CN109886386A (zh) 2019-06-14
CN109886386B CN109886386B (zh) 2020-10-27

Family

ID=66927462

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910094806.4A Active CN109886386B (zh) 2019-01-30 2019-01-30 唤醒模型的确定方法及装置

Country Status (1)

Country Link
CN (1) CN109886386B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110310628A (zh) * 2019-06-27 2019-10-08 百度在线网络技术(北京)有限公司 唤醒模型的优化方法、装置、设备及存储介质

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107145846A (zh) * 2017-04-26 2017-09-08 贵州电网有限责任公司输电运行检修分公司 一种基于深度学习的绝缘子识别方法
CN107221326A (zh) * 2017-05-16 2017-09-29 百度在线网络技术(北京)有限公司 基于人工智能的语音唤醒方法、装置和计算机设备
JP2017182320A (ja) * 2016-03-29 2017-10-05 株式会社メガチップス 機械学習装置
CN107358951A (zh) * 2017-06-29 2017-11-17 阿里巴巴集团控股有限公司 一种语音唤醒方法、装置以及电子设备
CN107360327A (zh) * 2017-07-19 2017-11-17 腾讯科技(深圳)有限公司 语音识别方法、装置和存储介质
CN108090502A (zh) * 2017-11-24 2018-05-29 华南农业大学 基于深度学习的最低抑菌浓度识别方法
CN109036412A (zh) * 2018-09-17 2018-12-18 苏州奇梦者网络科技有限公司 语音唤醒方法和系统
CN109033921A (zh) * 2017-06-08 2018-12-18 北京君正集成电路股份有限公司 一种识别模型的训练方法和装置
CN109214400A (zh) * 2017-06-30 2019-01-15 中兴通讯股份有限公司 分类器训练方法、装置、设备和计算机可读存储介质

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017182320A (ja) * 2016-03-29 2017-10-05 株式会社メガチップス 機械学習装置
CN107145846A (zh) * 2017-04-26 2017-09-08 贵州电网有限责任公司输电运行检修分公司 一种基于深度学习的绝缘子识别方法
CN107221326A (zh) * 2017-05-16 2017-09-29 百度在线网络技术(北京)有限公司 基于人工智能的语音唤醒方法、装置和计算机设备
CN109033921A (zh) * 2017-06-08 2018-12-18 北京君正集成电路股份有限公司 一种识别模型的训练方法和装置
CN107358951A (zh) * 2017-06-29 2017-11-17 阿里巴巴集团控股有限公司 一种语音唤醒方法、装置以及电子设备
CN109214400A (zh) * 2017-06-30 2019-01-15 中兴通讯股份有限公司 分类器训练方法、装置、设备和计算机可读存储介质
CN107360327A (zh) * 2017-07-19 2017-11-17 腾讯科技(深圳)有限公司 语音识别方法、装置和存储介质
CN108090502A (zh) * 2017-11-24 2018-05-29 华南农业大学 基于深度学习的最低抑菌浓度识别方法
CN109036412A (zh) * 2018-09-17 2018-12-18 苏州奇梦者网络科技有限公司 语音唤醒方法和系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
LAHIRU SAMARAKOON: "Factorized Hidden Layer Adaptation for Deep Neural", 《IEEE/ACM TRANSACTIONS ON AUDIO, SPEECH, AND LANGUAGE PROCESSING》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110310628A (zh) * 2019-06-27 2019-10-08 百度在线网络技术(北京)有限公司 唤醒模型的优化方法、装置、设备及存储介质
US11189287B2 (en) 2019-06-27 2021-11-30 Baidu Online Network Technology (Beijing) Co., Ltd. Optimization method, apparatus, device for wake-up model, and storage medium
CN110310628B (zh) * 2019-06-27 2022-05-20 百度在线网络技术(北京)有限公司 唤醒模型的优化方法、装置、设备及存储介质

Also Published As

Publication number Publication date
CN109886386B (zh) 2020-10-27

Similar Documents

Publication Publication Date Title
CN110298501B (zh) 基于长短时记忆神经网络的电负荷预测方法
CN110084424A (zh) 一种基于lstm与lgbm的电力负荷预测方法
CN112163703B (zh) 考虑气象因子不确定性的农田参考作物蒸散量预测方法
WO2021109644A1 (zh) 一种基于元学习的混合动力车辆工况预测方法
CN109325624A (zh) 一种基于深度学习的月度电力需求预测方法
CN111795761B (zh) 一种基于强化学习模型的预测机柜进风温度的方法
CN107730059A (zh) 基于机器学习的变电站电量趋势预测分析的方法
CN108596242A (zh) 基于小波神经网络和支持向量机的电网气象负荷预测方法
CN113240014B (zh) 一种二类分割损失函数在实现椎间盘组织图像二类分割中的应用方法
CN111368259B (zh) 一种配网电压数据缺失填补方法及相关装置
CN113871015B (zh) 用于提升认知的人机交互方案推送方法及系统
CN111461466A (zh) 基于lstm时间序列的供暖户阀调节方法、系统及设备
CN112651543A (zh) 一种基于vmd分解与lstm网络的日用电量预测方法
CN109886386A (zh) 唤醒模型的确定方法及装置
CN110247406B (zh) 一种基于条件概率的调频容量分时段优化方法
CN114692981A (zh) 基于Seq2Seq模型的中长期径流预报方法和系统
CN113435595B (zh) 基于自然进化策略的极限学习机网络参数两阶段优化方法
CN109522517A (zh) 一种电表失效率计算方法和系统
CN117277312A (zh) 一种基于灰色关联分析的电力负荷影响因素方法及设备
CN111915211A (zh) 一种电力资源调度方法、装置和电子设备
CN115081681B (zh) 一种基于prophet算法的风电功率预测方法
CN109919362A (zh) 一种考虑水利工程调度影响的中长期径流预报方法
CN113705929B (zh) 一种基于负荷特征曲线及典型特征值融合的春节假期负荷预测方法
Ye China's ‘later’marriage policy and its demographic consequences
CN113609706A (zh) 调控政策对旅游业影响的仿真系统动力学模型及其实现方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant