CN109886386B - 唤醒模型的确定方法及装置 - Google Patents

唤醒模型的确定方法及装置 Download PDF

Info

Publication number
CN109886386B
CN109886386B CN201910094806.4A CN201910094806A CN109886386B CN 109886386 B CN109886386 B CN 109886386B CN 201910094806 A CN201910094806 A CN 201910094806A CN 109886386 B CN109886386 B CN 109886386B
Authority
CN
China
Prior art keywords
weight
model
awakening
current state
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910094806.4A
Other languages
English (en)
Other versions
CN109886386A (zh
Inventor
靳源
陈孝良
冯大航
苏少炜
常乐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing SoundAI Technology Co Ltd
Original Assignee
Beijing SoundAI Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing SoundAI Technology Co Ltd filed Critical Beijing SoundAI Technology Co Ltd
Priority to CN201910094806.4A priority Critical patent/CN109886386B/zh
Publication of CN109886386A publication Critical patent/CN109886386A/zh
Application granted granted Critical
Publication of CN109886386B publication Critical patent/CN109886386B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Feedback Control In General (AREA)

Abstract

本发明提供了一种唤醒模型的确定方法及装置,其中,该方法包括:将训练集中的任一批次训练唤醒数据输入至一基于识别模型,确定神经网络的隐层的最后一层的当前状态的参数;对识别模型的隐层的最后一层的前一状态的参数与当前状态的参数进行插值处理,确定一插值,并将插值更新为当前状态的参数;分别将训练集中的其他批次训练唤醒数据输入至识别模型,并更新当前状态的参数,直至将训练集中的所有批次训练唤醒数据输入至识别模型;确定当前状态的参数与前一状态的参数的插值,并更新神经网络的隐层的最后一层的当前状态的参数,从而确定一唤醒模型。本发明通过更新神经网络的隐层的最后一层的参数,更新量小,且能够得到更准确的唤醒模型。

Description

唤醒模型的确定方法及装置
技术领域
本发明涉及神经网络领域,尤其涉及一种唤醒模型的确定方法及装置。
背景技术
目前,唤醒模块的建立,一般是特地录制关于唤醒词的语音信息,用于训练神经网络。且在神经网络的训练过程中,更新整个神经网络每一层的各个参数。这样一般花费较多的时间,成本较高,且神经网络的训练运算量太大,容易出现误差,因此,得到的唤醒模型的精确度也不高。
发明内容
(一)要解决的技术问题
本发明的目的在于提供一种唤醒模型的确定方法及装置,以解决上述的至少一项技术问题。
(二)技术方案
本发明实施例提供了一种唤醒模型的确定方法,包括:
将训练集中的任一批次训练唤醒数据输入至一基于神经网络的识别模型,确定所述神经网络的隐层的最后一层的当前状态的参数,所述参数包括权重与偏移量;
对所述识别模型的隐层的最后一层的前一状态的参数与当前状态的参数进行插值处理,确定一插值,并将所述插值更新为当前状态的参数;
分别将训练集中的其他批次训练唤醒数据输入至所述识别模型,并更新当前状态的参数,直至将所述训练集中的所有批次训练唤醒数据输入至所述识别模型;以及
确定当前状态的参数与前一状态的参数的插值,并更新所述神经网络的隐层的最后一层的当前状态的参数,从而确定一唤醒模型。
进一步的,对所述识别模型的隐层的最后一层的前一状态的参数与当前状态的参数进行插值处理,具体为:
对所述前一状态的权重根据第一权值、所述当前状态的权重根据第二权值求加权平均,确定所述插值的权重;
对所述当前状态的偏移量根据第一权值、所述当前状态的偏移量根据第二权值求加权平均,确定所述插值的偏移量;
且所述第一权值大于所述第二权值。
进一步的,还包括:
将测试集中的每一批测试唤醒数据分别输入至所述唤醒模型,利用交叉验证方法,计算所述唤醒模型的目标函数;
根据所述目标函数的下降速率正向地调节学习率,直至所述目标函数无下降趋势,停止将所述测试唤醒数据输入至所述唤醒模型。
进一步的,所述目标函数L=代价函数C+正则化J,
Figure GDA0002675606210000021
wi表示第i个权重,λ为正则项系数,n表示当前批次测试唤醒数据的数目,
Figure GDA0002675606210000022
x表示当前批次测试唤醒数据的特征值,y表示理论值,d表示输出值,d=σ(z),z=∑wj×xj+bj,wj为权重,bj为偏移量,xj为输入值,激活函数
Figure GDA0002675606210000023
Figure GDA0002675606210000024
wj表示前一状态的权重,wj′表示当前状态的权重,bj表示前一状态的偏移量,bj′表示当前状态的偏移量,α为学习率。
进一步的,通过一少语料库获取所述训练集和测试集,所述少语料库中的训练唤醒数据和测试唤醒数据的总数目为少于200人的不超过2个小时的训练数据。
进一步的,所述训练集和测试集的数目比值为12∶1。
本发明实施例还提供了一种唤醒模型的确定装置,包括:
确定模块,将训练集中的任一批次训练唤醒数据输入至一基于神经网络的识别模型,确定所述神经网络的隐层的最后一层的当前状态的参数,所述参数包括权重与偏移量;
更新模块,对所述识别模型的隐层的最后一层的前一状态的参数与当前状态的参数进行插值处理,确定一插值,并将所述插值更新为当前状态的参数;
重复模块,用于分别将训练集中的其他批次的训练唤醒数据输入至所述识别模型,并更新当前状态的参数,直至将所述训练集中的所有批次的训练唤醒数据输入至所述识别模型;以及确定当前状态的参数与前一状态的参数的插值,并更新所述神经网络的隐层的最后一层的当前状态的参数,从而确定一唤醒模型。
进一步的,所述更新模块确定所述插值,具体为:更新模块对所述前一状态的权重根据第一权值、所述当前状态的权重根据第二权值求加权平均,确定所述插值的权重;对所述当前状态的偏移量根据第一权值、所述当前状态的偏移量根据第二权值求加权平均,确定所述插值的偏移量;且所述第一权值大于所述第二权值。
进一步的,还包括:测试模块,用于将测试集中的每一批测试唤醒数据分别输入至所述唤醒模型,利用交叉验证方法,计算所述唤醒模型的目标函数;
根据所述目标函数的下降速率正向地调节学习率,直至所述目标函数无下降趋势,停止将所述测试唤醒数据输入至所述唤醒模型。
进一步的,所述目标函数L=代价函数C+正则化J,
Figure GDA0002675606210000031
wi表示第i个权重,λ为正则项系数,n表示当前批次测试唤醒数据的数目,
Figure GDA0002675606210000032
x表示当前批次测试唤醒数据的特征值,y表示理论值,d表示输出值,d=σ(z),z=∑wj×xj+bj,wj为权重,bj为偏移量,xj为输入值,激活函数
Figure GDA0002675606210000033
Figure GDA0002675606210000041
wj表示前一状态的权重,wj′表示当前状态的权重,bj表示前一状态的偏移量,bj′表示当前状态的偏移量,α为学习率。
(三)有益效果
本发明的唤醒模型的确定方法及装置,相较于现有技术,至少具有以下优点:
1、只需对现有少量的语料库的训练集进行训练,更新神经网络的隐层的最后一层的参数,避免了现有技术中将神经网络将每一层的参数都更新,减少了运算量,降低了误差率,且只需花费较少的成本和时间,就能获得精确度较高的唤醒模型;
2、对所述识别模型的隐层的最后一层的前一状态的参数与当前状态的参数,根据第一权值和第二权值求加权平均,从而确定更新后的参数,且第一权值大于第二权值,有效防止了训练之后的模型偏离原先的神经网络的情况,保证了训练得到的唤醒模型的唤醒准确率;
3、在训练得到的唤醒模型之后,还将少量语料库的测试集输入至所述唤醒模型,利用交叉验证方法,计算所述唤醒模型的目标函数和学习率,直至目标函数无下降趋势,停止唤醒模型的测试和更新,降低了训练集更新得到的唤醒模型的误唤醒率,保证了最终唤醒模型的唤醒正确率。
附图说明
图1为本发明实施例的唤醒模型的确定方法的步骤示意图;
图2为本发明实施例的唤醒模型的确定装置的模块图;
具体实施方式
现有技术一般是特地录制关于唤醒词的语音信息,从而训练神经网络,且在神经网络的训练过程中,更新整个神经网络每一层的各个参数。可见,存在训练时间和成本较高,训练运算量太大,唤醒精确度不高的问题,有鉴于此,本发明提供了一种唤醒模型的确定方法及装置。
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明进一步详细说明。
本发明第一实施例提供了一种唤醒模型的确定方法,如图1所示,该方法包括以下步骤:
S1、将训练集中的任一批次训练唤醒数据输入至一基于神经网络的识别模型,确定所述神经网络的隐层的最后一层的当前状态的参数,所述参数包括权重与偏移量;
S2、对所述识别模型的隐层的最后一层的前一状态的参数与当前状态的参数进行插值处理,确定一插值,并将所述插值更新为当前状态的参数;
S3、分别将训练集中的其他批次训练唤醒数据输入至所述识别模型,并更新当前状态的参数,直至将所述训练集中的所有批次训练唤醒数据输入至所述识别模型;以及
S4、确定当前状态的参数与前一状态的参数的插值,并更新所述神经网络的隐层的最后一层的当前状态的参数,从而确定一唤醒模型。
在步骤S1之前,还可以包括步骤:通过一少语料库获取所述训练集和测试集。举例来说,少语料库中的训练唤醒数据和测试唤醒数据的总数目可以为少于200人的不超过2个小时的训练数据。
更进一步地,所述训练集和测试集的数目比值优选为12∶1,这是因为训练神经网络比测试唤醒模型所需的数据更多。
也就是说,本发明用于神经网络训练的训练集与现有技术的特地录制的关于唤醒词的训练数据不同,其更具有普适性和广泛性,在训练过程中,不仅能够提高唤醒准确率,同时还能降低误唤醒率。
以下将对各步骤进行详细描述。
在步骤S1中,可以先将训练集分为N个批次,优选地每个批次的训练数据的数目相同。再将训练集中的任一批次训练唤醒数据输入识别模型(该识别模型基于一神经网络)中,实际上,还会进行对该批次训练唤醒数据进行特征值提取的步骤,从而根据其特征值,确定所述神经网络的隐层的最后一层的当前状态的参数,所述参数包括权重与偏移量。
在步骤S2中,对前一状态的权重根据第一权值、所述当前状态的权重根据第二权值求加权平均,确定所述插值的权重;
对所述当前状态的偏移量根据第一权值、所述当前状态的偏移量根据第二权值求加权平均,确定所述插值的偏移量;
且所述第一权值大于所述第二权值。
举例来说,前一状态的权重和偏移量分别为5和3,当前状态的权重和偏移量分别为6和4,第一权值为0.7,第二权值为0.3,则插值的权重应为(5×0.7+6×0.3)/2,插值的偏移量为(5×0.7+4×0.3)/2。第一权值大于所述第二权值,有效防止了训练之后的模型偏离原先的神经网络的情况,保证了训练得到的唤醒模型的唤醒准确率。
此外,为了进一步提高训练得到的唤醒模型可能唤醒准确率,本发明实施例还可以包括步骤:
S41、将测试集中的每一批测试唤醒数据分别输入至所述唤醒模型,实际上,还会进行对每一批训练唤醒数据进行特征值提取的步骤,从而根据其特征值,然后根据所述特征值利用交叉验证方法,计算所述唤醒模型的目标函数;
S42、根据所述目标函数的下降速率正向地调节学习率,直至所述目标函数无下降趋势,停止将所述测试唤醒数据输入至所述唤醒模型。
其中,根据所述目标函数的下降速率正向地调节学习率,是因为学习率主要控制参数更新的快慢。更新过慢会导致训练时间增长,学习过快会导致跳过最优点,不能得到最优解。
其中,目标函数L=代价函数C+正则化J。
Figure GDA0002675606210000061
wi表示第i个权重,λ为正则项系数,主要控制对权重的惩罚,即正则的目的是为了防止由于权重更新过大产生过拟合,n表示当前批次测试唤醒数据的数目;
Figure GDA0002675606210000062
x表示当前批次测试唤醒数据的特征值,y表示理论值,即当前批次测试唤醒数据的预设的准确唤醒率;d表示输出值,即当前批次测试唤醒数据输入所述唤醒模型之后,唤醒模型输出的实际唤醒率,d=σ(z),z=∑wj×xj+bj,wj为权重,bj为偏移量,xj为输入值,激活函数
Figure GDA0002675606210000071
wj表示前一状态的权重,wj′表示当前状态的权重,bj表示前一状态的偏移量,bj′表示当前状态的偏移量,α为学习率。
本发明实施例的另一方面,还提供了一种唤醒模型的确定装置,如图2所示,该装置包括:
确定模块,将训练集中的任一批次训练唤醒数据输入至一基于神经网络的识别模型,确定所述神经网络的隐层的最后一层的当前状态的参数,所述参数包括权重与偏移量;
更新模块,对所述识别模型的隐层的最后一层的前一状态的参数与当前状态的参数进行插值处理,确定一插值,并将所述插值更新为当前状态的参数;
重复模块,用于分别将训练集中的其他批次的训练唤醒数据输入至所述识别模型,并更新当前状态的参数,直至将所述训练集中的所有批次的训练唤醒数据输入至所述识别模型;以及确定当前状态的参数与前一状态的参数的插值,并更新所述神经网络的隐层的最后一层的当前状态的参数,从而确定一唤醒模型。
实际上,确定模块和重复模块还会对输入的每一批训练唤醒数据进行特征值提取,从而根据该批次训练唤醒数据的特征值,确定所述神经网络的隐层的最后一层的当前状态的参数。
其中,所述更新模块确定所述插值,具体过程为:更新模块对所述前一状态的权重根据第一权值、所述当前状态的权重根据第二权值求加权平均,确定所述插值的权重;对所述当前状态的偏移量根据第一权值、所述当前状态的偏移量根据第二权值求加权平均,确定所述插值的偏移量;且所述第一权值大于所述第二权值。如此,能够防止训练之后的模型偏离原先的神经网络的情况,同时保证了训练得到的唤醒模型的唤醒准确率。
此外,为了进一步提高训练得到的唤醒模型可能唤醒准确率,本发明实施例还可以还包括:测试模块,用于将测试集中的每一批测试唤醒数据分别输入至所述唤醒模型,对输入的每一批测试唤醒数据进行特征值提取,从而根据该批次测试唤醒数据的特征值,利用交叉验证方法,计算所述唤醒模型的目标函数;根据所述目标函数的下降速率正向地调节学习率,直至所述目标函数无下降趋势,停止将所述测试唤醒数据输入至所述唤醒模型。
其中,根据所述目标函数的下降速率正向地调节学习率,是因为学习率主要控制参数更新的快慢。更新过慢会导致训练时间增长,学习过快会导致跳过最优点,不能得到最优解。
其中,目标函数L=代价函数C+正则化J。
Figure GDA0002675606210000081
wi表示第i个权重,λ为正则项系数,主要控制对权重的惩罚,即正则的目的是为了防止由于权重更新过大产生过拟合,n表示当前批次测试唤醒数据的数目;
Figure GDA0002675606210000082
x表示当前批次测试唤醒数据的特征值,少表示理论值,即当前批次测试唤醒数据的预设的准确唤醒率;d表示输出值,即当前批次测试唤醒数据输入所述唤醒模型之后,唤醒模型输出的实际唤醒率,d=σ(z),z=∑wj×xj+bj,wj为权重,bj为偏移量,xj为输入值,激活函数
Figure GDA0002675606210000083
wj表示前一状态的权重,wj′表示当前状态的权重,bj表示前一状态的偏移量,bj′表示当前状态的偏移量,α为学习率。
综上,本发明实施例的唤醒模型的确定方法及装置,只需对现有少量的语料库的训练集进行训练,更新神经网络的隐层的最后一层的参数,避免了现有技术中将神经网络将每一层的参数都更新,减少了运算量,降低了误差率,且只需花费较少的成本和时间,就能获得精确度较高的唤醒模型。
除非有所知名为相反之意,本说明书及所附权利要求中的数值参数是近似值,能够根据通过本发明的内容所得的所需特性改变。具体而言,所有使用于说明书及权利要求中表示组成的含量、反应条件等等的数字,应理解为在所有情况中是受到“约”的用语所修饰。一般情况下,其表达的含义是指包含由特定数量在一些实施例中±10%的变化、在一些实施例中±5%的变化、在一些实施例中±1%的变化、在一些实施例中±0.5%的变化。
再者,“包含”不排除存在未列在权利要求中的元件或步骤。位于元件之前的“一”或“一个”不排除存在多个这样的元件。
说明书与权利要求中所使用的序数例如“第一”、“第二”、“第三”等的用词,以修饰相应的元件,其本身并不意味着该元件有任何的序数,也不代表某一元件与另一元件的顺序、或是制造方法上的顺序,该些序数的使用仅用来使具有某命名的一元件得以和另一具有相同命名的元件能做出清楚区分。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种唤醒模型的确定方法,包括:
将训练集中的任一批次训练唤醒数据输入至一基于神经网络的识别模型,对所述训练唤醒数据进行特征值提取,并根据所述特征值确定所述神经网络的隐层的最后一层的当前状态的参数,所述参数包括权重与偏移量,所述训练唤醒数据为通过一少语料库获取的语音数据;
对所述识别模型的隐层的最后一层的前一状态的参数与当前状态的参数进行插值处理,确定一插值,并将所述插值更新为当前状态的参数;
分别将训练集中的其他批次训练唤醒数据输入至所述识别模型,并更新当前状态的参数,直至将所述训练集中的所有批次训练唤醒数据输入至所述识别模型;以及
确定当前状态的参数与前一状态的参数的插值,并更新所述神经网络的隐层的最后一层的当前状态的参数,从而确定一唤醒模型。
2.根据权利要求1所述的唤醒模型的确定方法,其特征在于,对所述识别模型的隐层的最后一层的前一状态的参数与当前状态的参数进行插值处理,具体为:
对所述前一状态的权重根据第一权值、所述当前状态的权重根据第二权值求加权平均,确定所述插值的权重;
对所述当前状态的偏移量根据第一权值、所述当前状态的偏移量根据第二权值求加权平均,确定所述插值的偏移量;
且所述第一权值大于所述第二权值。
3.根据权利要求1所述的唤醒模型的确定方法,其特征在于,还包括:
将测试集中的每一批测试唤醒数据分别输入至所述唤醒模型,利用交叉验证方法,计算所述唤醒模型的目标函数;
根据所述目标函数的下降速率正向地调节学习率,直至所述目标函数无下降趋势,停止将所述测试唤醒数据输入至所述唤醒模型。
4.根据权利要求3所述的唤醒模型的确定方法,其特征在于,所述目标函数L=代价函数C+正则化J,
Figure FDA0002675606200000021
wi表示第i个权重,λ为正则项系数,n表示当前批次测试唤醒数据的数目,
Figure FDA0002675606200000022
x表示当前批次测试唤醒数据的特征值,y表示理论值,d表示输出值,d=σ(z),z=∑wj×xj+bj,wj为权重,bj为偏移量,xj为输入值,激活函数
Figure FDA0002675606200000023
Figure FDA0002675606200000024
Figure FDA0002675606200000025
wj表示前一状态的权重,wj′表示当前状态的权重,bj表示前一状态的偏移量,bj′表示当前状态的偏移量,α为学习率。
5.根据权利要求4所述的唤醒模型的确定方法,其特征在于,通过一少语料库获取所述训练集和测试集,所述少语料库中的训练唤醒数据和测试唤醒数据的总数目为少于200人的不超过2个小时的训练数据。
6.根据权利要求5所述的唤醒模型的确定方法,其特征在于,所述训练集和测试集的数目比值为12∶1。
7.一种唤醒模型的确定装置,包括:
确定模块,将训练集中的任一批次训练唤醒数据输入至一基于神经网络的识别模型,对所述训练唤醒数据进行特征值提取,并根据所述特征值确定所述神经网络的隐层的最后一层的当前状态的参数,所述参数包括权重与偏移量,所述训练唤醒数据为通过一少语料库获取的语音数据;
更新模块,对所述识别模型的隐层的最后一层的前一状态的参数与当前状态的参数进行插值处理,确定一插值,并将所述插值更新为当前状态的参数;
重复模块,用于分别将训练集中的其他批次的训练唤醒数据输入至所述识别模型,并更新当前状态的参数,直至将所述训练集中的所有批次的训练唤醒数据输入至所述识别模型;以及确定当前状态的参数与前一状态的参数的插值,并更新所述神经网络的隐层的最后一层的当前状态的参数,从而确定一唤醒模型。
8.根据权利要求7所述的唤醒模型的确定装置,其特征在于,所述更新模块确定所述插值,具体为:更新模块对所述前一状态的权重根据第一权值、所述当前状态的权重根据第二权值求加权平均,确定所述插值的权重;对所述当前状态的偏移量根据第一权值、所述当前状态的偏移量根据第二权值求加权平均,确定所述插值的偏移量;且所述第一权值大于所述第二权值。
9.根据权利要求7所述的唤醒模型的确定装置,其特征在于,还包括:测试模块,用于将测试集中的每一批测试唤醒数据分别输入至所述唤醒模型,利用交叉验证方法,计算所述唤醒模型的目标函数;
根据所述目标函数的下降速率正向地调节学习率,直至所述目标函数无下降趋势,停止将所述测试唤醒数据输入至所述唤醒模型。
10.根据权利要求9所述的唤醒模型的确定装置,其特征在于,其特征在于,所述目标函数L=代价函数C+正则化J,
Figure FDA0002675606200000031
wi表示第i个权重,λ为正则项系数,n表示当前批次测试唤醒数据的数目,
Figure FDA0002675606200000032
x表示当前批次测试唤醒数据的特征值,y表示理论值,d表示输出值,d=σ(z),z=∑wj×xj+bj,wj为权重,bj为偏移量,xj为输入值,激活函数
Figure FDA0002675606200000033
Figure FDA0002675606200000034
wj表示前一状态的权重,wj′表示当前状态的权重,bj表示前一状态的偏移量,bj′表示当前状态的偏移量,α为学习率。
CN201910094806.4A 2019-01-30 2019-01-30 唤醒模型的确定方法及装置 Active CN109886386B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910094806.4A CN109886386B (zh) 2019-01-30 2019-01-30 唤醒模型的确定方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910094806.4A CN109886386B (zh) 2019-01-30 2019-01-30 唤醒模型的确定方法及装置

Publications (2)

Publication Number Publication Date
CN109886386A CN109886386A (zh) 2019-06-14
CN109886386B true CN109886386B (zh) 2020-10-27

Family

ID=66927462

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910094806.4A Active CN109886386B (zh) 2019-01-30 2019-01-30 唤醒模型的确定方法及装置

Country Status (1)

Country Link
CN (1) CN109886386B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110310628B (zh) 2019-06-27 2022-05-20 百度在线网络技术(北京)有限公司 唤醒模型的优化方法、装置、设备及存储介质

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017182320A (ja) * 2016-03-29 2017-10-05 株式会社メガチップス 機械学習装置
CN107145846B (zh) * 2017-04-26 2018-10-19 贵州电网有限责任公司输电运行检修分公司 一种基于深度学习的绝缘子识别方法
CN107221326B (zh) * 2017-05-16 2021-05-28 百度在线网络技术(北京)有限公司 基于人工智能的语音唤醒方法、装置和计算机设备
CN109033921A (zh) * 2017-06-08 2018-12-18 北京君正集成电路股份有限公司 一种识别模型的训练方法和装置
CN107358951A (zh) * 2017-06-29 2017-11-17 阿里巴巴集团控股有限公司 一种语音唤醒方法、装置以及电子设备
CN109214400A (zh) * 2017-06-30 2019-01-15 中兴通讯股份有限公司 分类器训练方法、装置、设备和计算机可读存储介质
CN107360327B (zh) * 2017-07-19 2021-05-07 腾讯科技(深圳)有限公司 语音识别方法、装置和存储介质
CN108090502B (zh) * 2017-11-24 2020-05-15 华南农业大学 基于深度学习的最低抑菌浓度识别方法
CN109036412A (zh) * 2018-09-17 2018-12-18 苏州奇梦者网络科技有限公司 语音唤醒方法和系统

Also Published As

Publication number Publication date
CN109886386A (zh) 2019-06-14

Similar Documents

Publication Publication Date Title
CN109817246B (zh) 情感识别模型的训练方法、情感识别方法、装置、设备及存储介质
CN110942248B (zh) 交易风控网络的训练方法及装置、交易风险检测方法
CN112201361A (zh) 一种基于lstm模型的covid-19疫情预测方法
CN113871015B (zh) 用于提升认知的人机交互方案推送方法及系统
CN112163637B (zh) 基于非平衡数据的图像分类模型训练方法、装置
CN112037179B (zh) 一种脑疾病诊断模型的生成方法、系统及设备
CN113488023B (zh) 一种语种识别模型构建方法、语种识别方法
CN109886386B (zh) 唤醒模型的确定方法及装置
CN114841078A (zh) 一种轴承剩余使用寿命的预测方法及系统
CN112100374A (zh) 文本聚类方法、装置、电子设备及存储介质
CN112966818A (zh) 一种定向引导模型剪枝方法、系统、设备及存储介质
CN112990585A (zh) 一种基于LSTM-Kalman模型的蛋鸡产蛋率预测方法
CN114154753A (zh) 一种负荷预测方法及系统
CN111931698B (zh) 基于小型训练集的图像深度学习网络构建方法及装置
CN112738098A (zh) 一种基于网络行为数据的异常检测方法及装置
CN117037006A (zh) 一种高续航能力的无人机跟踪方法
CN111176743A (zh) 一种基于用户使用习惯的唤醒性能优化方法及装置
CN116503147A (zh) 一种基于深度学习神经网络的金融风险预测方法
CN115938605A (zh) 传染病人数预测方法、系统、电子设备及可读存储介质
CN114819398A (zh) 基于灰色马尔可夫链的北斗卫星钟差序列组合预测方法
CN112270574A (zh) 一种活动执行过程中的异动分析方法、装置、设备及介质
CN113609295A (zh) 文本分类方法、装置及相关设备
CN112085584A (zh) 企业信用违约概率计算方法及系统
CN114972928B (zh) 一种图像识别模型训练方法及装置
CN115048868B (zh) 基于时序神经网络的动态测量系统不确定度的评定方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant