CN113129874A - 语音唤醒方法及系统 - Google Patents
语音唤醒方法及系统 Download PDFInfo
- Publication number
- CN113129874A CN113129874A CN202110459601.9A CN202110459601A CN113129874A CN 113129874 A CN113129874 A CN 113129874A CN 202110459601 A CN202110459601 A CN 202110459601A CN 113129874 A CN113129874 A CN 113129874A
- Authority
- CN
- China
- Prior art keywords
- awakening
- voice
- model
- hidden layer
- wake
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 48
- 238000012937 correction Methods 0.000 claims abstract description 52
- 238000012549 training Methods 0.000 claims abstract description 24
- 230000006835 compression Effects 0.000 claims abstract description 9
- 238000007906 compression Methods 0.000 claims abstract description 8
- 230000003044 adaptive effect Effects 0.000 claims description 3
- 238000012805 post-processing Methods 0.000 abstract description 8
- 238000004422 calculation algorithm Methods 0.000 abstract description 7
- 238000012360 testing method Methods 0.000 abstract description 6
- 230000000875 corresponding effect Effects 0.000 description 17
- 230000008569 process Effects 0.000 description 13
- 238000010586 diagram Methods 0.000 description 5
- 230000009467 reduction Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000010295 mobile communication Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000000513 principal component analysis Methods 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000010998 test method Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 230000002618 waking effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L2015/088—Word spotting
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Signal Processing (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
本发明实施例提供一种语音唤醒方法。该方法包括:语音唤醒模型在第一阶段预测当前语句包含唤醒词后,将唤醒词对应的语音唤醒模型中的隐层值作为后验纠正分类器的输入;基于后验纠正分类器的第二阶段的预测结果,判断音频流是否包含唤醒词。本发明实施例还提供一种语音唤醒系统。本发明实施例使用了stage 1中的声学模型的隐层值作为stage 2中分类器的输入进行模型的训练和测试,能够有效进行二次预测,解决了使用动态规划算法做后处理的唤醒模型区分性弱的问题,提高了唤醒的区分性能。并且,为了减小stage 2带来的内存占用,尝试了基于多任务学习训练的后验纠正分类器压缩方案,在减小内存占用的同时,保证了唤醒的准确率。
Description
技术领域
本发明涉及智能语音领域,尤其涉及一种语音唤醒方法及系统。
背景技术
为了提高唤醒的准确率,通常在原有的唤醒模型解码器之后,再使用一个二分类器用于二次校验,判断音频是否包含唤醒词,从而达到降低唤醒模型误唤醒的效果。
在Two-stage中的stage 1,指的是常规唤醒模型的解码过程,解码过程以唤醒声学模型的后验概率作为输入,对当前语句是否包含唤醒词进行判断;stage 2是分类过程,依赖于二分类器的输入,分类结果指示“是否包含唤醒词”;经过stage 1和stage 2的双重预测,可以大大降低误唤醒率。
在实现本发明过程中,发明人发现相关技术中至少存在如下问题:
目前的two-stage唤醒方案,适用于使用解码网络的唤醒模型,而不适用于使用动态规划算法做后处理的唤醒模型;因为这些输入特征,比如唤醒词的时长,唤醒词中单字的时长等等,在解码网络中可以直接获得,stage 2的分类器可以使用这些特征输入,有效的预测音频是否包含唤醒词;然而在使用动态规划算法做后处理的唤醒模型中,这些特征不能直接获得,使得stage 2的分类器不能做到有效预测。
发明内容
为了至少解决使用动态规划算法做后处理的唤醒模型无法获得词时长、字时长这些stage2需要的特征的问题。
第一方面,本发明实施例提供一种语音唤醒方法,包括:
语音唤醒模型在第一阶段预测当前语句包含唤醒词后,将所述唤醒词对应的语音唤醒模型中的隐层值作为后验纠正分类器的输入;
基于后验纠正分类器的第二阶段的预测结果,判断所述音频流是否包含唤醒词。
第二方面,本发明实施例提供一种语音唤醒系统,包括:
隐层值输入程序模块,用于语音唤醒模型在第一阶段预测当前语句包含唤醒词后,将所述唤醒词对应的语音唤醒模型中的隐层值作为后验纠正分类器的输入;
唤醒程序模块,用于基于后验纠正分类器的第二阶段的预测结果,判断所述音频流是否包含唤醒词。
第三方面,提供一种电子设备,其包括:至少一个处理器,以及与所述至少一个处理器通信连接的存储器,其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行本发明任一实施例的语音唤醒方法的步骤。
第四方面,本发明实施例提供一种存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现本发明任一实施例的语音唤醒方法的步骤。
本发明实施例的有益效果在于:使用了stage 1中的声学模型的隐层值作为stage2中分类器的输入进行模型的训练和测试,能够有效进行二次预测,解决了使用动态规划算法做后处理的唤醒模型区分性弱的问题,提高了唤醒的区分性能。并且,为了减小stage 2带来的内存占用,尝试了基于多任务学习训练的后验纠正分类器压缩方案,在减小内存占用的同时,保证了唤醒的准确率。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明一实施例提供的一种语音唤醒方法的流程图;
图2是本发明一实施例提供的一种语音唤醒方法的后验纠正分类流程图;
图3是本发明一实施例提供的一种语音唤醒方法的声学后验缓存示意图;
图4是本发明一实施例提供的一种语音唤醒方法的极值点搜寻示意图;
图5是本发明一实施例提供的一种语音唤醒方法的唤醒声学模型训练流程图;
图6是本发明一实施例提供的一种语音唤醒方法的模型效果数据示意图;
图7是本发明一实施例提供的一种语音唤醒系统的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示为本发明一实施例提供的一种语音唤醒方法的流程图,包括如下步骤:
S11:语音唤醒模型在第一阶段预测当前语句包含唤醒词后,将所述唤醒词对应的语音唤醒模型中的隐层值作为后验纠正分类器的输入;
S12:基于后验纠正分类器的第二阶段的预测结果,判断所述音频流是否包含唤醒词。
在本实施方式中,重新设计了two-stage唤醒模型,又称为posteriorcorrection/pc(后验纠正)方案,使用了stage 1中的声学模型的隐层值(神经网络中隐层的输出),作为stage 2中分类器的输入进行模型的训练和测试。
对于步骤S11,常见的唤醒模型测试流程如图2中的stage 1,唤醒模型对输入的音频流计算唤醒词的得分,得分超过阈值,唤醒模型被唤醒,反之则未被唤醒。在two-stage唤醒方案中,stage 1中的唤醒模型被唤醒,则将唤醒词对应的语音唤醒模型中的隐层值作为后验纠正分类器的输入至stage 2。
作为一种实施方式,所述语音唤醒模型包括:基于动态规划的语音唤醒模型。由于现有的two-stage中的stage 2的分类器,输入特征主要包括唤醒词的时长,唤醒词中单字时长等等,在使用动态规划算法做后处理的唤醒模型中,这些特征不能直接获得,不适用于基于动态规划的后处理的唤醒方案。而本方法考虑了隐层值这一特征,并且基于隐层值进行深度处理,使得隐层值可以应用到stage2中,并且确保了语音唤醒区分的准确性。
在每一时刻,唤醒模型的隐层值被存入特定时长的缓存T-buffer中。其中,通过buffer可以减少进程间通信需要等待的时间,当存储速度快的设备与存储速度慢的设备进行通信时,存储慢的数据先把数据存放到buffer,达到一定程度存储快的设备再读取buffer的数据,在此期间存储快的设备CPU可以干其他的事情。
对于步骤S12,通过步骤S11的stage1确定了唤醒词对应的语音唤醒模型中的隐层值,在stage 2中,后验纠正分类器依赖在T-buffer缓存的隐层值的特征输入。预测音频流中是否包含唤醒词,如果预测结果为“包含唤醒词”,则系统抛出唤醒信息,如果预结果为“不包含唤醒词/误唤醒”,则系统不抛出唤醒信息。
通过该实施方式可以看出,使用了stage 1中的声学模型的隐层值,作为stage 2中分类器的输入进行模型的训练和测试,能够有效进行二次预测,一定程度上解决了,使用动态规划算法做后处理的唤醒模型,语音唤醒区分性弱的问题。
作为一种实施方式,在本实施例中,所述将所述唤醒词对应的语音唤醒模型中的隐层值作为后验纠正分类器的输入包括:
将所述唤醒词中每个字的声学后验概率的极值点对应的语音唤醒模型中的隐层值拼接在一起,作为后验纠正分类器的输入。
在本实施方式中,当stage1确定了唤醒词对应的语音唤醒模型中的隐层值之后,进入stage2过程中,通过寻找唤醒词中字的声学后验的极值点,其对应的隐层值作为后验纠正分类器的输入,从而获得预测结果。
其中,极值点的获取方式如下:在T-buffer时长内,唤醒词中的单个字的声学模型后验概率均被存储在缓存中。以唤醒词“你好小驰”为例,“你”“好”“小”“驰”的声学后验被存储在缓存内。如图3所示,t1时刻唤醒词的总得分大于阈值,“驰”的后验概率的极值点,在t1时刻前推Twin(窗口)区间内被搜寻。极值点在这里具体指的是,声学概率的值,大于或等于前面以及后面n时刻的概率值。当“驰”的极值点(以index_D表示)被找到,在index_D时刻前推Twin区间内,继续搜寻“小”的极值点,记为index_C。以同样的方式,“好”和“你”的极值点均被找到,被记为index_B和index_A。图4示意了部分极值点的搜寻过程(由index_D到index_C的过程,index_B和index_A也按照同样的方式进行搜寻,在此不再赘述)。这四个时刻对应的声学模型第一和最后一层的隐层值被拼接到一起,作为pc分类器的输入。
通过该实施方式可以看出,基于对隐层值深度处理,确定出极值点所在时刻对应的更加准确的隐层值,从而提高语音唤醒区分性能。
作为一种实施方式,在本实施例中,所述方法还包括:
基于多任务学习对所述隐层值自适应压缩,以降低所述隐层值的维度,将维度降低后的隐层值,作为后验纠正分类器的输入。
在本实施方式中,可以发现,在现有的后验纠正分类器,需要通过缓存的方式,存储和选择后验纠正分类器的输入;后验纠正分类器方案会带来的内存增加,可以表示为缓存与后验纠正分类器的内存占用之和,而二者均与唤醒模型隐层值的维度正相关。因此,为了降低内存占用,降低隐层值的维度是一个主要思路。首先尝试了使用主成份分析(PCA)与线性判别分析(LDA)进行了降维实验,将隐层值降低到特定维度,再进行后验纠正分类器的训练与测试,然而降低误唤醒的效果明显降低,因此,需要一种自适应的降维方案,来解决后验纠正分类器方案的内存占用问题。因此采用了基于多任务学习multi-task training的后验纠正分类压缩方案,在减小内存占用的同时,降低误唤醒的能力与原有方案持平。
如图5所示,左侧黑色框中,TASK A是常规的唤醒声学模型训练任务,唤醒的声学模型称之为model 1;右侧黑色框中,TASK B是后验纠正分类器参数降维训练任务,参数降维网络称之为model 2。在TASK B中,其中隐层1和隐层n(即最后一个隐层)的参数,拼接在一起,经过线性压缩,压缩到一个特定维度,与输出节点B相连,从而进行训练。TASK A与TASK B可共用输出节点。
整个训练过程采用三段训练方式;第一个阶段,进行TASK A,即训练常规的声学模型model 1;第二个阶段,固定model 1,训练model 2;在第三个阶段,联调model 1和2。
整个实验在唤醒词“你好小驰”的模型上进行,实验结果如图6所示。其中FAR表示false alarm rate译为误唤醒率;#Para表示增加的参数量;FRR表示false reject rate译为拒识率,与唤醒率的和为1;RFRR表示采用了后验纠正分类器的唤醒模型系统,相比未采用后验纠正分类器的系统,FRR的相对变量。
通过该实施方式可以看出,从图6得到,对比原本的后验纠正分类方案,two-stage方案降低70%的误唤醒次数,FRR相对增加0.1%,绝对增加了0.1个点。同时参数量升高了58.7k,其中42.2表示模型部分参数增加量,16.5表示缓存的内存占用。采用自适应的后验纠正分类压缩方案,同样降低70%的误唤醒次数,FRR相对增加0.3%,绝对增加了0.2个点,内存占用升高了16.3k。可以得到结论,在正例唤醒率基本持平的情况下,内存占用减少了72.2%。
在进行多任务学习过程中,也可以根据情况尝试最简单直接的训练方式,即直接联调model 1和model 2。测试结果显示,降低70%的误唤醒次数,FRR增加了绝对值2个点,内存占用减少了50%。虽然内存占用减少,但会牺牲部分唤醒准确性能。
作为一种实施方式,在本实施例中,所述方法还包括:
当所述语音唤醒模型误判断音频流内的语句包含唤醒词时,确定误判断的唤醒词的声学得分大于预设阈值的时间区间;
提取出所述时间区间内对应的语音唤醒模型中的隐层值,作为所述后验纠正分类器的训练样本。
在本实施方式中,可以发现,在现有的后验纠正分类器的训练数据的数据量是由误唤醒(反例)数据决定的,因为在实际应用中,反例数据相比唤醒词(正例)数据,更难以获得。这个“误唤醒”指的是stage1的误唤醒,stage2内的后验纠正分类器会直接拿来搜寻,并将对应的隐层值用作模型训练;举例说明,假设误唤醒次数1h/1次,那么一个小时的音频中,只能得到一条反例数据。后验纠正分类器本质上是一个神经网络,神经网络的性能受训练数据的数量影响较大。为了扩充反例数据,不再从一段误唤醒音频中,获取单一的训练样本,而是获取满足条件的所有训练样本;满足条件指的是唤醒词的得分大于阈值,同样如图3所示,对于整段误唤醒音频,找到唤醒词得分大于阈值的起始点和终止点t1和t2,对于该区间内的所有时刻,获取缓存T0时长的隐层特征,提取出后验纠正分类器的输入,作为训练样本。就这样,训练数据得到了扩充。而根据经验值,正例和反例的数据比例在3:1到4:1之间时,预测效果最优。
如图7所示为本发明一实施例提供的一种语音唤醒系统示意图,该系统可执行上述任意实施例所述的语音唤醒方法,并配置在终端中。
本实施例提供的一种语音唤醒系统10包括:隐层值输入程序模块11和唤醒程序模块12。
其中,隐层值输入程序模块11用于语音唤醒模型在第一阶段预测当前语句包含唤醒词后,将所述唤醒词对应的语音唤醒模型中的隐层值作为后验纠正分类器的输入;唤醒程序模块12用于基于后验纠正分类器的第二阶段的预测结果,判断所述音频流是否包含唤醒词。
本发明实施例还提供了一种非易失性计算机存储介质,计算机存储介质存储有计算机可执行指令,该计算机可执行指令可执行上述任意方法实施例中的语音唤醒方法;
作为一种实施方式,本发明的非易失性计算机存储介质存储有计算机可执行指令,计算机可执行指令设置为:
语音唤醒模型在第一阶段预测当前语句包含唤醒词后,将所述唤醒词对应的语音唤醒模型中的隐层值作为后验纠正分类器的输入;
基于后验纠正分类器的第二阶段的预测结果,判断所述音频流是否包含唤醒词。
作为一种非易失性计算机可读存储介质,可用于存储非易失性软件程序、非易失性计算机可执行程序以及模块,如本发明实施例中的方法对应的程序指令/模块。一个或者多个程序指令存储在非易失性计算机可读存储介质中,当被处理器执行时,执行上述任意方法实施例中的语音唤醒方法。
非易失性计算机可读存储介质可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据装置的使用所创建的数据等。此外,非易失性计算机可读存储介质可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实施例中,非易失性计算机可读存储介质可选包括相对于处理器远程设置的存储器,这些远程存储器可以通过网络连接至装置。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
本发明实施例还提供一种电子设备,其包括:至少一个处理器,以及与所述至少一个处理器通信连接的存储器,其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行本发明任一实施例的语音唤醒方法的步骤。
本申请实施例的电子设备以多种形式存在,包括但不限于:
(1)移动通信设备:这类设备的特点是具备移动通信功能,并且以提供话音、数据通信为主要目标。这类终端包括:智能手机、多媒体手机、功能性手机,以及低端手机等。
(2)超移动个人计算机设备:这类设备属于个人计算机的范畴,有计算和处理功能,一般也具备移动上网特性。这类终端包括:PDA、MID和UMPC设备等,例如平板电脑。
(3)便携式娱乐设备:这类设备可以显示和播放多媒体内容。该类设备包括:音频、视频播放器,掌上游戏机,电子书,以及智能玩具和便携式车载导航设备。
(4)其他具有数据处理功能的电子装置。
在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”,不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (10)
1.一种语音唤醒方法,包括:
语音唤醒模型在第一阶段预测当前语句包含唤醒词后,将所述唤醒词对应的语音唤醒模型中的隐层值作为后验纠正分类器的输入;
基于后验纠正分类器的第二阶段的预测结果,判断所述音频流是否包含唤醒词。
2.根据权利要求1所述的方法,其中,所述将所述唤醒词对应的语音唤醒模型中的隐层值作为后验纠正分类器的输入包括:
将所述唤醒词中每个字的声学后验概率的极值点对应的语音唤醒模型中的隐层值拼接在一起,作为后验纠正分类器的输入。
3.根据权利要求1所述的方法,其中,所述语音唤醒模型包括:基于动态规划的语音唤醒模型。
4.根据权利要求1所述的方法,其中,所述方法还包括:
基于多任务学习对所述隐层值自适应压缩,以降低所述隐层值的维度,将维度降低后的隐层值,作为后验纠正分类器的输入。
5.根据权利要求1所述的方法,其中,所述方法还包括:
当所述语音唤醒模型误判断音频流内的语句包含唤醒词时,确定误判断的唤醒词的声学得分大于预设阈值的时间区间;
提取出所述时间区间内对应的语音唤醒模型中的隐层值,作为所述后验纠正分类器的训练样本。
6.一种语音唤醒系统,包括:
隐层值输入程序模块,用于语音唤醒模型在第一阶段预测当前语句包含唤醒词后,将所述唤醒词对应的语音唤醒模型中的隐层值作为后验纠正分类器的输入;
唤醒程序模块,用于基于后验纠正分类器的第二阶段的预测结果,判断所述音频流是否包含唤醒词。
7.根据权利要求6所述的系统,其中,所述隐层值输入程序模块用于:
将所述唤醒词中每个字的声学后验概率的极值点对应的语音唤醒模型中的隐层值拼接在一起,作为后验纠正分类器的输入。
8.根据权利要求6所述的系统,其中,所述语音唤醒模型包括:基于动态规划的语音唤醒模型。
9.根据权利要求6所述的系统,其中,所述系统还包括:压缩程序模块,用于:
基于多任务学习对所述隐层值自适应压缩,以降低所述隐层值的维度,将维度降低后的隐层值,作为后验纠正分类器的输入。
10.根据权利要求6所述的系统,其中,所述系统还包括:后验纠正分类器训练程序模块,用于:
当所述语音唤醒模型误判断音频流内的语句包含唤醒词时,确定误判断的唤醒词的声学得分大于预设阈值的时间区间;
提取出所述时间区间内对应的语音唤醒模型中的隐层值,作为所述后验纠正分类器的训练样本。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110459601.9A CN113129874B (zh) | 2021-04-27 | 2021-04-27 | 语音唤醒方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110459601.9A CN113129874B (zh) | 2021-04-27 | 2021-04-27 | 语音唤醒方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113129874A true CN113129874A (zh) | 2021-07-16 |
CN113129874B CN113129874B (zh) | 2022-05-10 |
Family
ID=76780147
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110459601.9A Active CN113129874B (zh) | 2021-04-27 | 2021-04-27 | 语音唤醒方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113129874B (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107767863A (zh) * | 2016-08-22 | 2018-03-06 | 科大讯飞股份有限公司 | 语音唤醒方法、系统及智能终端 |
CN107767861A (zh) * | 2016-08-22 | 2018-03-06 | 科大讯飞股份有限公司 | 语音唤醒方法、系统及智能终端 |
CN108564941A (zh) * | 2018-03-22 | 2018-09-21 | 腾讯科技(深圳)有限公司 | 语音识别方法、装置、设备及存储介质 |
CN110310628A (zh) * | 2019-06-27 | 2019-10-08 | 百度在线网络技术(北京)有限公司 | 唤醒模型的优化方法、装置、设备及存储介质 |
CN110415699A (zh) * | 2019-08-30 | 2019-11-05 | 北京声智科技有限公司 | 一种语音唤醒的判断方法、装置及电子设备 |
CN111640426A (zh) * | 2020-06-10 | 2020-09-08 | 北京百度网讯科技有限公司 | 用于输出信息的方法和装置 |
-
2021
- 2021-04-27 CN CN202110459601.9A patent/CN113129874B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107767863A (zh) * | 2016-08-22 | 2018-03-06 | 科大讯飞股份有限公司 | 语音唤醒方法、系统及智能终端 |
CN107767861A (zh) * | 2016-08-22 | 2018-03-06 | 科大讯飞股份有限公司 | 语音唤醒方法、系统及智能终端 |
CN108564941A (zh) * | 2018-03-22 | 2018-09-21 | 腾讯科技(深圳)有限公司 | 语音识别方法、装置、设备及存储介质 |
CN110310628A (zh) * | 2019-06-27 | 2019-10-08 | 百度在线网络技术(北京)有限公司 | 唤醒模型的优化方法、装置、设备及存储介质 |
CN110415699A (zh) * | 2019-08-30 | 2019-11-05 | 北京声智科技有限公司 | 一种语音唤醒的判断方法、装置及电子设备 |
CN111640426A (zh) * | 2020-06-10 | 2020-09-08 | 北京百度网讯科技有限公司 | 用于输出信息的方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
CN113129874B (zh) | 2022-05-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11127416B2 (en) | Method and apparatus for voice activity detection | |
CN108538298B (zh) | 语音唤醒方法及装置 | |
CN108694940B (zh) | 一种语音识别方法、装置及电子设备 | |
CN111081280B (zh) | 与文本无关的语音情感识别方法及装置、用于识别情感的算法模型的生成方法 | |
CN110503944B (zh) | 语音唤醒模型的训练和使用方法及装置 | |
CN110570840B (zh) | 一种基于人工智能的智能设备唤醒方法和装置 | |
CN110600008A (zh) | 语音唤醒的优化方法及系统 | |
CN110910885B (zh) | 基于解码网络的语音唤醒方法和装置 | |
CN110767231A (zh) | 一种基于时延神经网络的声控设备唤醒词识别方法及装置 | |
CN111462756B (zh) | 声纹识别方法、装置、电子设备及存储介质 | |
CN111179915A (zh) | 基于语音的年龄识别方法及装置 | |
CN111312222A (zh) | 一种唤醒、语音识别模型训练方法及装置 | |
CN111145732A (zh) | 多任务语音识别后的处理方法及系统 | |
CN111832308A (zh) | 语音识别文本连贯性处理方法和装置 | |
CN109360551B (zh) | 一种语音识别方法及装置 | |
CN111243604B (zh) | 支持多唤醒词的说话人识别神经网络模型的训练方法、说话人识别方法及系统 | |
CN112652306A (zh) | 语音唤醒方法、装置、计算机设备和存储介质 | |
CN111914803B (zh) | 一种唇语关键词检测方法、装置、设备及存储介质 | |
CN113205809A (zh) | 语音唤醒方法和装置 | |
CN110706691B (zh) | 语音验证方法及装置、电子设备和计算机可读存储介质 | |
CN111739515B (zh) | 语音识别方法、设备、电子设备和服务器、相关系统 | |
CN113129874B (zh) | 语音唤醒方法及系统 | |
CN110364162B (zh) | 一种人工智能的重置方法及装置、存储介质 | |
CN109273004B (zh) | 基于大数据的预测性语音识别方法及装置 | |
CN112614506B (zh) | 语音激活检测方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |