CN107221326A - 基于人工智能的语音唤醒方法、装置和计算机设备 - Google Patents
基于人工智能的语音唤醒方法、装置和计算机设备 Download PDFInfo
- Publication number
- CN107221326A CN107221326A CN201710343874.0A CN201710343874A CN107221326A CN 107221326 A CN107221326 A CN 107221326A CN 201710343874 A CN201710343874 A CN 201710343874A CN 107221326 A CN107221326 A CN 107221326A
- Authority
- CN
- China
- Prior art keywords
- speech frame
- voice
- static
- wake
- phonetic feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 66
- 238000013473 artificial intelligence Methods 0.000 title claims abstract description 51
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 121
- 230000003068 static effect Effects 0.000 claims abstract description 80
- 230000002618 waking effect Effects 0.000 claims abstract description 42
- 238000009432 framing Methods 0.000 claims abstract description 29
- 238000000605 extraction Methods 0.000 claims abstract description 21
- 238000012549 training Methods 0.000 claims description 52
- 238000012360 testing method Methods 0.000 claims description 23
- 238000011161 development Methods 0.000 claims description 20
- 238000004590 computer program Methods 0.000 claims description 4
- 230000001537 neural effect Effects 0.000 claims 1
- 230000000694 effects Effects 0.000 abstract description 12
- 230000009467 reduction Effects 0.000 abstract description 7
- 230000006870 function Effects 0.000 description 24
- 239000000945 filler Substances 0.000 description 10
- 230000037007 arousal Effects 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- 230000009897 systematic effect Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 238000001514 detection method Methods 0.000 description 5
- 230000005291 magnetic effect Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 4
- 241001269238 Data Species 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- VIKNJXKGJWUCNN-XGXHKTLJSA-N norethisterone Chemical compound O=C1CC[C@@H]2[C@H]3CC[C@](C)([C@](CC4)(O)C#C)[C@@H]4[C@@H]3CCC2=C1 VIKNJXKGJWUCNN-XGXHKTLJSA-N 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/4401—Bootstrapping
- G06F9/4418—Suspend and resume; Hibernate and awake
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/14—Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/45—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of analysis window
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L2015/088—Word spotting
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Acoustics & Sound (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Signal Processing (AREA)
- Probability & Statistics with Applications (AREA)
- Computer Security & Cryptography (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- User Interface Of Digital Computer (AREA)
- Machine Translation (AREA)
Abstract
本申请提出一种基于人工智能的语音唤醒方法、装置和计算机设备,该基于人工智能的语音唤醒方法,包括:对在线录制的语音进行加窗分帧操作,获得至少一个语音帧;对所述语音帧进行特征提取,获得语音特征;通过基于卷积神经网络的语音唤醒模型对所述语音帧包含的静态的语音特征进行计算,获得所述语音帧包含的静态的语音特征对应于非唤醒词类别和唤醒词类别的后验概率;当所述语音帧包含的静态的语音特征对应于唤醒词类别的后验概率大于或等于预定阈值时,确定所述在线录制的语音中包括唤醒词。本申请可以有效地降低基于卷积神经网络的语音唤醒模型的参数量,从而达到降低运算量的目的,并且本申请可以提升语音唤醒的效果。
Description
技术领域
本申请涉及语音识别技术领域,尤其涉及一种基于人工智能的语音唤醒方法、装置和计算机设备。
背景技术
在智能家居或者语音交互系统中,语音唤醒(wakeword)技术应用非常广泛。但是语音唤醒的效果和运算量大大地降低了语音唤醒的实际应用体验,提高了语音唤醒对设备硬件的要求,例如:如果语音唤醒的误唤醒率在应用中大于一个阈值,如1个/3小时,这样的唤醒误触发频率就有可能引起用户的反感;另一方面,如果语音唤醒的运算量超出了一些低端芯片的运算能力,就会制约很多产品使用语音唤醒技术。
现有的相关技术中,语音唤醒使用的技术是关键词识别(keyword-spotting)方法,通过设计一个小的深度神经网络(Deep Neural Networks;以下简称:DNN)的模型,搭建一个巧妙的小解码网络,配合一些关键词检出的小技巧(trick),实现语音唤醒功能。
但是,上述关键词识别方法的语音唤醒技术,模型参数量较大,而且针对不同的唤醒词,填充词(filler)的设计均要改变,相应的解码参数和检出的trick都要进行调整,很难有一个统一的算法来确保每一个唤醒词的效果处于一个稳定的水平,而且这种设定好filler之后,唤醒词的误识水平就固定了,并不能够灵活方便的对误识的唤醒词进行调整和学习。
发明内容
本申请的目的旨在至少在一定程度上解决相关技术中的技术问题之一。
为此,本申请的第一个目的在于提出一种基于人工智能的语音唤醒方法。该方法可以有效地降低基于卷积神经网络的语音唤醒模型的参数量,从而达到降低运算量的目的,另外该方法通过使用后验概率的策略,可以使得运算量进一步减小;并且该方法针对唤醒词和非唤醒词有更好的区分度,可以提升语音唤醒的效果。
本申请的第二个目的在于提出一种基于人工智能的语音唤醒装置。
本申请的第三个目的在于提出一种计算机设备。
本申请的第四个目的在于提出一种计算机可读存储介质。
为了实现上述目的,本申请第一方面实施例的基于人工智能的语音唤醒方法,包括:对在线录制的语音进行加窗分帧操作,获得至少一个语音帧;对所述语音帧进行特征提取,获得语音特征;通过基于卷积神经网络的语音唤醒模型对所述语音帧包含的静态的语音特征进行计算,获得所述语音帧包含的静态的语音特征对应于非唤醒词类别和唤醒词类别的后验概率;当所述语音帧包含的静态的语音特征对应于唤醒词类别的后验概率大于或等于预定阈值时,确定所述在线录制的语音中包括唤醒词。
本申请实施例的基于人工智能的语音唤醒方法中,对在线录制的语音进行加窗分帧操作,获得至少一个语音帧之后,对上述语音帧进行特征提取,获得语音特征,然后通过基于卷积神经网络的语音唤醒模型对上述语音帧包含的静态的语音特征进行计算,获得上述语音帧包含的静态的语音特征对应于非唤醒词类别和唤醒词类别的后验概率,当上述语音帧包含的静态的语音特征对应于唤醒词类别的后验概率大于或等于预定阈值时,确定在线录制的语音中包括唤醒词,上述基于卷积神经网络的语音唤醒模型的输入特征较少,从而可以达到降低运算量的目的,另外该方法通过使用后验概率的策略,使得运算量进一步减小;并且该方法针对唤醒词和非唤醒词有更好的区分度,可以提升语音唤醒的效果;另外,该方法不需要针对每一个唤醒词挑选不同的非唤醒词,提高了该方法的通用性。
为了实现上述目的,本申请第二方面实施例的基于人工智能的语音唤醒装置,包括:分帧模块,用于对在线录制的语音进行加窗分帧操作,获得至少一个语音帧;提取模块,用于对所述分帧模块获得的语音帧进行特征提取,获得语音特征;计算模块,用于通过基于卷积神经网络的语音唤醒模型对所述语音帧包含的静态的语音特征进行计算,获得所述语音帧包含的静态的语音特征对应于非唤醒词类别和唤醒词类别的后验概率;唤醒模块,用于当所述计算模块获得的所述语音帧包含的静态的语音特征对应于唤醒词类别的后验概率大于或等于预定阈值时,确定所述在线录制的语音中包括唤醒词。
本申请实施例的基于人工智能的语音唤醒装置中,分帧模块对在线录制的语音进行加窗分帧操作,获得至少一个语音帧之后,提取模块对上述语音帧进行特征提取,获得语音特征,然后计算模块通过基于卷积神经网络的语音唤醒模型对上述语音帧包含的静态的语音特征进行计算,获得上述语音帧包含的静态的语音特征对应于非唤醒词类别和唤醒词类别的后验概率,当上述语音帧包含的静态的语音特征对应于唤醒词类别的后验概率大于或等于预定阈值时,确定模块确定在线录制的语音中包括唤醒词,上述基于卷积神经网络的语音唤醒模型的输入特征较少,从而可以达到降低运算量的目的,另外该装置通过使用后验概率的策略,使得运算量进一步减小;并且该装置针对唤醒词和非唤醒词有更好的区分度,可以提升语音唤醒的效果;另外,该装置不需要针对每一个唤醒词挑选不同的非唤醒词,提高了该装置的通用性。
为了实现上述目的,本申请第三方面实施例的计算机设备,包括:一个或多个处理器;存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如上所述的方法。
为了实现上述目的,本申请第四方面实施例的计算机可读介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现如上所述的方法。
本申请附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本申请的实践了解到。
附图说明
本申请上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为本申请基于人工智能的语音唤醒方法一个实施例的流程图;
图2为本申请基于人工智能的语音唤醒方法另一个实施例的流程图;
图3为本申请基于人工智能的语音唤醒方法再一个实施例的流程图;
图4为本申请基于人工智能的语音唤醒方法再一个实施例的流程图;
图5为本申请基于人工智能的语音唤醒方法再一个实施例的流程图;
图6为本申请基于人工智能的语音唤醒装置一个实施例的结构示意图;
图7为本申请基于人工智能的语音唤醒装置另一个实施例的结构示意图;
图8为本申请计算机设备一个实施例的结构示意图。
具体实施方式
下面详细描述本申请的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本申请,而不能理解为对本申请的限制。相反,本申请的实施例包括落入所附加权利要求书的精神和内涵范围内的所有变化、修改和等同物。
人工智能(Artificial Intelligence;以下简称:AI)是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。人工智能是计算机科学的一个分支,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。
图1为本申请基于人工智能的语音唤醒方法一个实施例的流程图,如图1所示,上述基于人工智能的语音唤醒方法可以包括:
步骤101,对在线录制的语音进行加窗分帧操作,获得至少一个语音帧。
具体地,在对在线录制的语音进行特征提取时,需要先对上述语音进行加窗分帧操作。举例来说,窗长为25毫秒的语音,相邻帧之间的帧移为10毫秒,也就是说,每10毫秒语音划分为一个语音帧。
步骤102,对上述语音帧进行特征提取,获得语音特征。
具体地,在对在线录制的语音进行加窗分帧操作之后,就可以对获得的语音帧进行特征提取,获得语音特征,本实施例中,上述语音特征可以为滤波器组(filter bank;以下简称:fbank)特征,也可以为其他的语音特征,例如梅尔频率倒谱系数(Mel FrequencyCepstrum Coefficient;以下简称:MFCC)特征,本实施例对此不作限定,但本实施例以上述语音特征为fbank特征为例进行说明。
步骤103,通过基于卷积神经网络(Convolutional Neural Network;以下简称:CNN)的语音唤醒模型对上述语音帧包含的静态的语音特征进行计算,获得上述语音帧包含的静态的语音特征对应于非唤醒词类别和唤醒词类别的后验概率。
本实施例中,上述语音帧包含的静态的语音特征包括:当前语音帧、上述当前语音帧之前第一数量的语音帧和上述当前语音帧之后第二数量的语音帧所包含的静态的语音特征。
其中,上述第一数量和第二数量可以在具体实现时,根据系统性能和/或实现需求等自行设定,本实施例对上述第一数量和第二数量的大小不作限定,举例来说,上述第一数量可以为23,上述第二数量可以为8。
具体地,上述基于CNN的语音唤醒模型可以为6层的CNN模型,为提高语音唤醒性能,上述基于CNN的语音唤醒模型使用连续多帧包含的静态的fbank特征作为输入,本实施例中,上述基于CNN的语音唤醒模型使用当前语音帧、当前语音帧之前的23个语音帧和当前语音帧之后的8个语音帧所包含的静态的fbank特征作为输入。
本实施例中,基于CNN的语音唤醒模型的输出至少包括两个节点,分别为非唤醒词类别(即filler类别)和唤醒词类别,对于输入的上述语音帧包含的静态的语音特征,基于CNN的语音唤醒模型经过计算,可以输出上述语音帧包含的静态的语音特征对应于非唤醒词类别和唤醒词类别的后验概率。
在具体实现时,可以将上述唤醒词类别再划分为两个类别,也就是说,基于CNN的语音唤醒模型的输出可以包括三个节点,一个非唤醒词类别(即filler类别)和两个唤醒词类别,本实施例对基于CNN的语音唤醒模型的输出中所包含的唤醒词类别的个数不作限定。
步骤104,当上述语音帧包含的静态的语音特征对应于唤醒词类别的后验概率大于或等于预定阈值时,确定上述在线录制的语音中包括唤醒词。
其中,上述预定阈值可以在具体实现时,根据系统性能和/或实现需求等自行设定,本实施例对上述预定阈值的大小不作限定,举例来说,上述预定阈值可以为75%。
上述基于人工智能的语音唤醒方法中,对在线录制的语音进行加窗分帧操作,获得至少一个语音帧之后,对上述语音帧进行特征提取,获得语音特征,然后通过基于卷积神经网络的语音唤醒模型对上述语音帧包含的静态的语音特征进行计算,获得上述语音帧包含的静态的语音特征对应于非唤醒词类别和唤醒词类别的后验概率,当上述语音帧包含的静态的语音特征对应于唤醒词类别的后验概率大于或等于预定阈值时,确定在线录制的语音中包括唤醒词,上述基于卷积神经网络的语音唤醒模型的输入特征较少,从而可以达到降低运算量的目的,另外该方法通过使用后验概率的策略,使得运算量进一步减小;并且该方法针对唤醒词和非唤醒词有更好的区分度,可以提升语音唤醒的效果;另外,该方法不需要针对每一个唤醒词挑选不同的非唤醒词,提高了该方法的通用性。
图2为本申请基于人工智能的语音唤醒方法另一个实施例的流程图,如图2所示,步骤101之前,还可以包括:
步骤201,对用户输入的语音进行在线录制。
本实施例中,对于具有语音唤醒功能的设备来说,上述设备的录音模块一直对外部的声音进行在线录制,以便在用户输入语音时,对用户输入的语音进行在线录制,以触发后续流程的执行。
图3为本申请基于人工智能的语音唤醒方法再一个实施例的流程图,如图3所示,步骤103之后,还可以包括:
步骤301,对预定数量的语音帧包含的静态的语音特征对应于非唤醒词类别和唤醒词类别的后验概率分别进行累加,获得预定数量的语音帧包含的静态的语音特征对应于非唤醒词类别的后验概率,以及预定数量的语音帧包含的静态的语音特征对应于唤醒词类别的后验概率。
这时,步骤104中,上述语音帧包含的静态的语音特征对应于唤醒词类别的后验概率大于或等于预定阈值可以为:预定数量的语音帧包含的静态的语音特征对应于唤醒词类别的后验概率大于或等于预定阈值。
也就是说,步骤104可以为:
步骤302,当预定数量的语音帧包含的静态的语音特征对应于唤醒词类别的后验概率大于或等于预定阈值时,确定上述在线录制的语音中包括唤醒词。
也就是说,本实施例在唤醒词检出上,采用固定窗长的平滑策略,对预定数量的语音帧包含的静态的语音特征对应于非唤醒词类别和唤醒词类别的后验概率分别进行累加,当预定数量的语音帧包含的静态的语音特征对应于唤醒词类别的后验概率大于或等于预定阈值时,即确定检出唤醒词,也就是确定上述在线录制的语音中包括唤醒词。
其中,上述预定数量可以在具体实现时根据系统性能和/或实现需求自行设定,本实施例对上述预定数量的大小不作限定。
图4为本申请基于人工智能的语音唤醒方法再一个实施例的流程图,如图4所示,步骤103之前,还包括:
步骤401,基于联结主义时间分类器(Connectionist Temporal Classifier;以下简称:CTC)的训练准则对基于CNN的初始模型进行训练,获得上述基于CNN的语音唤醒模型。
本实施例中,对6层的CNN模型的训练准则由交叉熵(Cross Entropy)变为CTC,基于CTC的训练准则对6层的基于CNN的初始模型进行训练,可以获得上述基于CNN的语音唤醒模型。
图5为本申请基于人工智能的语音唤醒方法再一个实施例的流程图,如图5所示,本申请图4所示实施例中,步骤401可以包括:
步骤501,利用训练数据,基于CTC的训练准则对基于CNN的初始模型进行训练,获得基于CNN的种子模型。
步骤502,通过测试数据对上述基于CNN的种子模型进行测试,获得上述基于CNN的种子模型误识别的测试数据。
步骤503,通过上述误识别的测试数据对上述基于CNN的种子模型进行再次训练,直至上述基于CNN的种子模型在开发集上收敛,获得上述基于CNN的语音唤醒模型。
具体地,通过上述误识别的测试数据对上述基于CNN的种子模型进行再次训练可以为:将上述基于CNN的种子模型误识别的测试数据添加到步骤501中提到的训练数据中,然后再利用添加了这些测试数据的训练数据,对上述基于CNN的种子模型进行再次训练,重复步骤502与步骤503,直至上述基于CNN的种子模型在开发集上收敛,获得上述基于CNN的语音唤醒模型。
其中,上述开发集是不同于步骤501中的训练数据,也不同于步骤502中的测试数据的一个数据集,上述开发集用于对训练获得的基于CNN的种子模型的唤醒性能进行监控,以获得最终的基于CNN的语音唤醒模型;其中,上述基于CNN的种子模型在开发集上收敛,是指基于CNN的种子模型在开发集上的唤醒性能不再提高。
也就是说,利用添加了上述基于CNN的种子模型误识别的测试数据的训练数据,对上述基于CNN的种子模型进行再次训练之后,在每一轮训练完成之后,在开发集上对本轮训练获得的基于CNN的种子模型的唤醒性能进行监测,一般来说,基于CNN的种子模型在开发集上的唤醒性能是先下降,然后经过多轮训练之后,基于CNN的种子模型在开发集上的唤醒性能会慢慢提高,直至基于CNN的种子模型在开发集上的唤醒性能不再提高,就可以确定上述基于CNN的种子模型在开发集上收敛,这时获得的基于CNN的种子模型即为最终获得的基于CNN的语音唤醒模型。
本申请实施例提供的基于人工智能的语音唤醒方法,通过使用CNN-CTC的方案,大大地缩小了基于CNN的语音唤醒模型的输出层的节点数,从而有效地降低了基于CNN的语音唤醒模型的参数量,达到降低运算量的目的;通过使用后验概率平滑的策略,使得运算量进一步减小;另外,本申请实施例提供的基于人工智能的语音唤醒方法中使用一个非唤醒词(filler)类别,增加了训练的灵活性,使得上述基于人工智能的语音唤醒方法非常的通用,不需要再针对每一个唤醒词挑选不同的filler;本申请实施例提供的基于人工智能的语音唤醒方法中的基于CNN的语音唤醒模型通过自我学习调优的方法,可以更好地提升语音唤醒的效果,另外,上述基于CNN的语音唤醒模型的输出层简单,目标鲜明,针对唤醒词和非唤醒词有更好的区分度,可以进一步提升语音唤醒的效果。
图6为本申请基于人工智能的语音唤醒装置一个实施例的结构示意图,本申请实施例中的基于人工智能的语音唤醒装置可以作为具有语音唤醒功能的设备实现本申请实施例提供的基于人工智能的语音唤醒方法。如图6所示,上述基于人工智能的语音唤醒装置可以包括:分帧模块61、提取模块62、计算模块63和唤醒模块64;
其中,分帧模块61,用于对在线录制的语音进行加窗分帧操作,获得至少一个语音帧;具体地,在对在线录制的语音进行特征提取时,分帧模块61需要先对上述语音进行加窗分帧操作。举例来说,窗长为25毫秒的语音,相邻帧之间的帧移为10毫秒,也就是说,每10毫秒语音划分为一个语音帧。
提取模块62,用于对分帧模块61获得的语音帧进行特征提取,获得语音特征;具体地,在分帧模块61对在线录制的语音进行加窗分帧操作之后,提取模块62就可以对获得的语音帧进行特征提取,获得语音特征,本实施例中,上述语音特征可以为fbank特征,也可以为其他的语音特征,例如MFCC特征,本实施例对此不作限定,但本实施例以上述语音特征为fbank特征为例进行说明。
计算模块63,用于通过基于CNN的语音唤醒模型对上述语音帧包含的静态的语音特征进行计算,获得上述语音帧包含的静态的语音特征对应于非唤醒词类别和唤醒词类别的后验概率;本实施例中,上述语音帧包含的静态的语音特征包括:当前语音帧、上述当前语音帧之前第一数量的语音帧和上述当前语音帧之后第二数量的语音帧所包含的静态的语音特征。
其中,上述第一数量和第二数量可以在具体实现时,根据系统性能和/或实现需求等自行设定,本实施例对上述第一数量和第二数量的大小不作限定,举例来说,上述第一数量可以为23,上述第二数量可以为8。
具体地,上述基于CNN的语音唤醒模型可以为6层的CNN模型,为提高语音唤醒性能,上述基于CNN的语音唤醒模型使用连续多帧包含的静态的fbank特征作为输入,本实施例中,上述基于CNN的语音唤醒模型使用当前语音帧、当前语音帧之前的23个语音帧和当前语音帧之后的8个语音帧所包含的静态的fbank特征作为输入。
本实施例中,基于CNN的语音唤醒模型的输出至少包括两个节点,分别为非唤醒词类别(即filler类别)和唤醒词类别,对于输入的上述语音帧包含的静态的语音特征,基于CNN的语音唤醒模型经过计算,可以输出上述语音帧包含的静态的语音特征对应于非唤醒词类别和唤醒词类别的后验概率。
在具体实现时,可以将上述唤醒词类别再划分为两个类别,也就是说,基于CNN的语音唤醒模型的输出可以包括三个节点,一个非唤醒词类别(即filler类别)和两个唤醒词类别,本实施例对基于CNN的语音唤醒模型的输出中所包含的唤醒词类别的个数不作限定。
唤醒模块64,用于当计算模块63获得的上述语音帧包含的静态的语音特征对应于唤醒词类别的后验概率大于或等于预定阈值时,确定上述在线录制的语音中包括唤醒词。
其中,上述预定阈值可以在具体实现时,根据系统性能和/或实现需求等自行设定,本实施例对上述预定阈值的大小不作限定,举例来说,上述预定阈值可以为75%。
上述基于人工智能的语音唤醒装置中,分帧模块61对在线录制的语音进行加窗分帧操作,获得至少一个语音帧之后,提取模块62对上述语音帧进行特征提取,获得语音特征,然后计算模块63通过基于卷积神经网络的语音唤醒模型对上述语音帧包含的静态的语音特征进行计算,获得上述语音帧包含的静态的语音特征对应于非唤醒词类别和唤醒词类别的后验概率,当上述语音帧包含的静态的语音特征对应于唤醒词类别的后验概率大于或等于预定阈值时,确定模块64确定在线录制的语音中包括唤醒词,上述基于卷积神经网络的语音唤醒模型的输入特征较少,从而可以达到降低运算量的目的,另外该装置通过使用后验概率的策略,使得运算量进一步减小;并且该装置针对唤醒词和非唤醒词有更好的区分度,可以提升语音唤醒的效果;另外,该装置不需要针对每一个唤醒词挑选不同的非唤醒词,提高了该装置的通用性。
图7为本申请基于人工智能的语音唤醒装置另一个实施例的结构示意图,与图6所示的基于人工智能的语音唤醒装置相比,不同之处在于,图7所示的基于人工智能的语音唤醒装置还可以包括:
录制模块65,用于在分帧模块61对在线录制的语音进行加窗分帧操作,获得至少一个语音帧之前,对用户输入的语音进行在线录制。
本实施例中,对于具有语音唤醒功能的设备来说,录制模块65一直对外部的声音进行在线录制,以便在用户输入语音时,对用户输入的语音进行在线录制,以触发后续流程的执行。
进一步地,本实施例中,计算模块63,还用于在获得上述语音帧包含的静态的语音特征对应于非唤醒词类别和唤醒词类别的后验概率之后,对预定数量的语音帧包含的静态的语音特征对应于非唤醒词类别和唤醒词类别的后验概率分别进行累加,获得预定数量的语音帧包含的静态的语音特征对应于非唤醒词类别的后验概率,以及预定数量的语音帧包含的静态的语音特征对应于唤醒词类别的后验概率;
这时,上述语音帧包含的静态的语音特征对应于唤醒词类别的后验概率大于或等于预定阈值包括:预定数量的语音帧包含的静态的语音特征对应于唤醒词类别的后验概率大于或等于预定阈值。
也就是说,本实施例在唤醒词检出上,采用固定窗长的平滑策略,计算模块63对预定数量的语音帧包含的静态的语音特征对应于非唤醒词类别和唤醒词类别的后验概率分别进行累加,当预定数量的语音帧包含的静态的语音特征对应于唤醒词类别的后验概率大于或等于预定阈值时,确定模块64即确定检出唤醒词,也就是确定上述在线录制的语音中包括唤醒词。
其中,上述预定数量可以在具体实现时根据系统性能和/或实现需求自行设定,本实施例对上述预定数量的大小不作限定。
进一步地,上述基于人工智能的语音唤醒装置还可以包括:
训练模块66,用于在计算模块63通过基于CNN的语音唤醒模型对上述语音帧包含的静态的语音特征进行计算之前,基于CTC的训练准则对基于CNN的初始模型进行训练,获得基于CNN的语音唤醒模型。
本实施例中,对6层的CNN模型的训练准则由交叉熵(Cross Entropy)变为CTC,基于CTC的训练准则对6层的基于CNN的初始模型进行训练,可以获得上述基于CNN的语音唤醒模型。
本实施例中,训练模块66可以包括:模型训练子模块661和数据挑选子模块662;
其中,模型训练子模块661,用于利用训练数据,基于CTC的训练准则对基于CNN的初始模型进行训练,获得基于CNN的种子模型;
数据挑选子模块662,用于通过测试数据对上述基于CNN的种子模型进行测试,获得上述基于CNN的种子模型误识别的测试数据。
模型训练子模块661,还用于通过上述误识别的测试数据对上述基于CNN的种子模型进行再次训练,直至上述基于CNN的种子模型在开发集上收敛,获得上述基于CNN的语音唤醒模型。
具体地,模型训练子模块661通过上述误识别的测试数据对上述基于CNN的种子模型进行再次训练可以为:将上述基于CNN的种子模型误识别的测试数据添加到训练数据中,然后模型训练子模块661再利用添加了这些测试数据的训练数据,对上述基于CNN的种子模型进行再次训练,重复上述过程,直至上述基于CNN的种子模型在开发集上收敛,获得上述基于CNN的语音唤醒模型。
其中,上述开发集是不同于训练数据,也不同于测试数据的一个数据集,上述开发集用于对训练获得的基于CNN的种子模型的唤醒性能进行监控,以获得最终的基于CNN的语音唤醒模型;其中,上述基于CNN的种子模型在开发集上收敛,是指基于CNN的种子模型在开发集上的唤醒性能不再提高。
也就是说,利用添加了上述基于CNN的种子模型误识别的测试数据的训练数据,对上述基于CNN的种子模型进行再次训练之后,在每一轮训练完成之后,在开发集上对本轮训练获得的基于CNN的种子模型的唤醒性能进行监测,一般来说,基于CNN的种子模型在开发集上的唤醒性能是先下降,然后经过多轮训练之后,基于CNN的种子模型在开发集上的唤醒性能会慢慢提高,直至基于CNN的种子模型在开发集上的唤醒性能不再提高,就可以确定上述基于CNN的种子模型在开发集上收敛,这时模型训练子模块661获得的基于CNN的种子模型即为最终获得的基于CNN的语音唤醒模型。
本申请实施例提供的基于人工智能的语音唤醒装置,通过使用CNN-CTC的方案,大大地缩小了基于CNN的语音唤醒模型的输出层的节点数,从而有效地降低了基于CNN的语音唤醒模型的参数量,达到降低运算量的目的;通过使用后验概率平滑的策略,使得运算量进一步减小;另外,本申请实施例提供的基于人工智能的语音唤醒装置中使用一个非唤醒词(filler)类别,增加了训练的灵活性,使得上述基于人工智能的语音唤醒装置非常的通用,不需要再针对每一个唤醒词挑选不同的filler;本申请实施例提供的基于人工智能的语音唤醒装置中的基于CNN的语音唤醒模型通过自我学习调优的方法,可以更好地提升语音唤醒的效果,另外,上述基于CNN的语音唤醒模型的输出层简单,目标鲜明,针对唤醒词和非唤醒词有更好的区分度,可以进一步提升语音唤醒的效果。
图8为本申请计算机设备一个实施例的结构示意图,本申请实施例中的计算机设备可以作为具有语音唤醒功能的设备实现本申请实施例提供的基于人工智能的语音唤醒方法。
其中,上述具有语音唤醒功能的设备可以为智能手机、平板电脑或智能家居设备等,本实施例对上述具有语音唤醒功能的设备的形态不作限定。
如图8所示,上述计算机设备可以包括:一个或多个处理器;存储装置,用于存储一个或多个程序,当上述一个或多个程序被上述一个或多个处理器执行,使得一个或多个处理器实现本申请实施例提供的基于人工智能的语音唤醒方法。
图8示出了适于用来实现本申请实施方式的示例性计算机设备12的框图。图8显示的计算机设备12仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图8所示,计算机设备12以通用计算设备的形式表现。计算机设备12的组件可以包括但不限于:一个或者多个处理器或者处理单元16,系统存储器28,连接不同系统组件(包括系统存储器28和处理单元16)的总线18。
总线18表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(Industry StandardArchitecture;以下简称:ISA)总线,微通道体系结构(Micro Channel Architecture;以下简称:MAC)总线,增强型ISA总线、视频电子标准协会(Video Electronics StandardsAssociation;以下简称:VESA)局域总线以及外围组件互连(Peripheral ComponentInterconnection;以下简称:PCI)总线。
计算机设备12典型地包括多种计算机系统可读介质。这些介质可以是任何能够被计算机设备12访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
系统存储器28可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(Random Access Memory;以下简称:RAM)30和/或高速缓存存储器32。计算机设备12可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举例,存储系统34可以用于读写不可移动的、非易失性磁介质(图8未显示,通常称为“硬盘驱动器”)。尽管图8中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如:光盘只读存储器(Compact Disc Read OnlyMemory;以下简称:CD-ROM)、数字多功能只读光盘(Digital Video Disc Read OnlyMemory;以下简称:DVD-ROM)或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线18相连。存储器28可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本申请各实施例的功能。
具有一组(至少一个)程序模块42的程序/实用工具40,可以存储在例如存储器28中,这样的程序模块42包括——但不限于——操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块42通常执行本申请所描述的实施例中的功能和/或方法。
计算机设备12也可以与一个或多个外部设备14(例如键盘、指向设备、显示器24等)通信,还可与一个或者多个使得用户能与该计算机设备12交互的设备通信,和/或与使得该计算机设备12能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口22进行。并且,计算机设备12还可以通过网络适配器20与一个或者多个网络(例如局域网(Local Area Network;以下简称:LAN),广域网(Wide Area Network;以下简称:WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器20通过总线18与计算机设备12的其它模块通信。应当明白,尽管图8中未示出,可以结合计算机设备12使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
处理单元16通过运行存储在系统存储器28中的程序,从而执行各种功能应用以及数据处理,例如实现本申请实施例提供的基于人工智能的语音唤醒方法。
本申请实施例还提供一种计算机可读介质,其上存储有计算机程序,上述计算机程序被处理器执行时实现本申请实施例提供的基于人工智能的语音唤醒方法。
上述计算机可读介质可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(Read OnlyMemory;以下简称:ROM)、可擦式可编程只读存储器(Erasable Programmable Read OnlyMemory;以下简称:EPROM)或闪存、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括——但不限于——电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括——但不限于——无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本申请操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LocalArea Network;以下简称:LAN)或广域网(Wide Area Network;以下简称:WAN)连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
需要说明的是,在本申请的描述中,术语“第一”、“第二”等仅用于描述目的,而不能理解为指示或暗示相对重要性。此外,在本申请的描述中,除非另有说明,“多个”的含义是两个或两个以上。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现特定逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本申请的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本申请的实施例所属技术领域的技术人员所理解。
应当理解,本申请的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(Programmable Gate Array;以下简称:PGA),现场可编程门阵列(Field ProgrammableGate Array;以下简称:FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,本申请各个实施例中的各功能模块可以集成在一个处理模块中,也可以是各个模块单独物理存在,也可以两个或两个以上模块集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
上述提到的存储介质可以是只读存储器,磁盘或光盘等。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本申请的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
尽管上面已经示出和描述了本申请的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本申请的限制,本领域的普通技术人员在本申请的范围内可以对上述实施例进行变化、修改、替换和变型。
Claims (14)
1.一种基于人工智能的语音唤醒方法,其特征在于,包括:
对在线录制的语音进行加窗分帧操作,获得至少一个语音帧;
对所述语音帧进行特征提取,获得语音特征;
通过基于卷积神经网络的语音唤醒模型对所述语音帧包含的静态的语音特征进行计算,获得所述语音帧包含的静态的语音特征对应于非唤醒词类别和唤醒词类别的后验概率;
当所述语音帧包含的静态的语音特征对应于唤醒词类别的后验概率大于或等于预定阈值时,确定所述在线录制的语音中包括唤醒词。
2.根据权利要求1所述的方法,其特征在于,所述对在线录制的语音进行加窗分帧操作,获得至少一个语音帧之前,还包括:
对用户输入的语音进行在线录制。
3.根据权利要求1所述的方法,其特征在于,所述语音帧包含的静态的语音特征包括:当前语音帧、所述当前语音帧之前第一数量的语音帧和所述当前语音帧之后第二数量的语音帧所包含的静态的语音特征。
4.根据权利要求1所述的方法,其特征在于,所述获得所述语音帧包含的静态的语音特征对应于非唤醒词类别和唤醒词类别的后验概率之后,还包括:
对预定数量的语音帧包含的静态的语音特征对应于非唤醒词类别和唤醒词类别的后验概率分别进行累加,获得预定数量的语音帧包含的静态的语音特征对应于非唤醒词类别的后验概率,以及预定数量的语音帧包含的静态的语音特征对应于唤醒词类别的后验概率;
所述语音帧包含的静态的语音特征对应于唤醒词类别的后验概率大于或等于预定阈值包括:
预定数量的语音帧包含的静态的语音特征对应于唤醒词类别的后验概率大于或等于预定阈值。
5.根据权利要求1-4任意一项所述的方法,其特征在于,所述通过基于卷积神经网络的语音唤醒模型对所述语音帧包含的静态的语音特征进行计算之前,还包括:
基于联结主义时间分类器的训练准则对基于卷积神经网络的初始模型进行训练,获得所述基于卷积神经网络的语音唤醒模型。
6.根据权利要求5所述的方法,其特征在于,所述基于联结主义时间分类器的训练准则对基于卷积神经网络的初始模型进行训练,获得所述基于卷积神经网络的语音唤醒模型包括:
利用训练数据,基于联结主义时间分类器的训练准则对基于卷积神经网络的初始模型进行训练,获得基于卷积神经网络的种子模型;
通过测试数据对所述基于卷积神经网络的种子模型进行测试,获得所述基于卷积神经网络的种子模型误识别的测试数据;
通过所述误识别的测试数据对所述基于卷积神经网络的种子模型进行再次训练,直至所述基于卷积神经网络的种子模型在开发集上收敛,获得所述基于卷积神经网络的语音唤醒模型。
7.一种基于人工智能的语音唤醒装置,其特征在于,包括:
分帧模块,用于对在线录制的语音进行加窗分帧操作,获得至少一个语音帧;
提取模块,用于对所述分帧模块获得的语音帧进行特征提取,获得语音特征;
计算模块,用于通过基于卷积神经网络的语音唤醒模型对所述语音帧包含的静态的语音特征进行计算,获得所述语音帧包含的静态的语音特征对应于非唤醒词类别和唤醒词类别的后验概率;
唤醒模块,用于当所述计算模块获得的所述语音帧包含的静态的语音特征对应于唤醒词类别的后验概率大于或等于预定阈值时,确定所述在线录制的语音中包括唤醒词。
8.根据权利要求7所述的装置,其特征在于,还包括:
录制模块,用于在所述分帧模块对在线录制的语音进行加窗分帧操作,获得至少一个语音帧之前,对用户输入的语音进行在线录制。
9.根据权利要求7所述的装置,其特征在于,所述语音帧包含的静态的语音特征包括:当前语音帧、所述当前语音帧之前第一数量的语音帧和所述当前语音帧之后第二数量的语音帧所包含的静态的语音特征。
10.根据权利要求7所述的装置,其特征在于,
所述计算模块,还用于在获得所述语音帧包含的静态的语音特征对应于非唤醒词类别和唤醒词类别的后验概率之后,对预定数量的语音帧包含的静态的语音特征对应于非唤醒词类别和唤醒词类别的后验概率分别进行累加,获得预定数量的语音帧包含的静态的语音特征对应于非唤醒词类别的后验概率,以及预定数量的语音帧包含的静态的语音特征对应于唤醒词类别的后验概率;
所述语音帧包含的静态的语音特征对应于唤醒词类别的后验概率大于或等于预定阈值包括:预定数量的语音帧包含的静态的语音特征对应于唤醒词类别的后验概率大于或等于预定阈值。
11.根据权利要求7-10任意一项所述的装置,其特征在于,还包括:
训练模块,用于在所述计算模块通过基于卷积神经网络的语音唤醒模型对所述语音帧包含的静态的语音特征进行计算之前,基于联结主义时间分类器的训练准则对基于卷积神经网络的初始模型进行训练,获得所述基于卷积神经网络的语音唤醒模型。
12.根据权利要求11所述的装置,其特征在于,所述训练模块包括:模型训练子模块和数据挑选子模块;
所述模型训练子模块,用于利用训练数据,基于联结主义时间分类器的训练准则对基于卷积神经网络的初始模型进行训练,获得基于卷积神经网络的种子模型;
所述数据挑选子模块,用于通过测试数据对所述基于卷积神经网络的种子模型进行测试,获得所述基于卷积神经网络的种子模型误识别的测试数据;
所述模型训练子模块,还用于通过所述误识别的测试数据对所述基于卷积神经网络的种子模型进行再次训练,直至所述基于卷积神经网络的种子模型在开发集上收敛,获得所述基于卷积神经网络的语音唤醒模型。
13.一种计算机设备,其特征在于,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-6中任一所述的方法。
14.一种计算机可读介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1-6中任一所述的方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710343874.0A CN107221326B (zh) | 2017-05-16 | 2017-05-16 | 基于人工智能的语音唤醒方法、装置和计算机设备 |
US15/854,926 US10388276B2 (en) | 2017-05-16 | 2017-12-27 | Method and device for waking up via speech based on artificial intelligence and computer device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710343874.0A CN107221326B (zh) | 2017-05-16 | 2017-05-16 | 基于人工智能的语音唤醒方法、装置和计算机设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107221326A true CN107221326A (zh) | 2017-09-29 |
CN107221326B CN107221326B (zh) | 2021-05-28 |
Family
ID=59944907
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710343874.0A Active CN107221326B (zh) | 2017-05-16 | 2017-05-16 | 基于人工智能的语音唤醒方法、装置和计算机设备 |
Country Status (2)
Country | Link |
---|---|
US (1) | US10388276B2 (zh) |
CN (1) | CN107221326B (zh) |
Cited By (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108010514A (zh) * | 2017-11-20 | 2018-05-08 | 四川大学 | 一种基于深度神经网络的语音分类方法 |
CN108010515A (zh) * | 2017-11-21 | 2018-05-08 | 清华大学 | 一种语音端点检测和唤醒方法及装置 |
CN108053836A (zh) * | 2018-01-18 | 2018-05-18 | 成都嗨翻屋文化传播有限公司 | 一种基于深度学习的音频自动化标注方法 |
CN109036459A (zh) * | 2018-08-22 | 2018-12-18 | 百度在线网络技术(北京)有限公司 | 语音端点检测方法、装置、计算机设备、计算机存储介质 |
CN109192226A (zh) * | 2018-06-26 | 2019-01-11 | 深圳大学 | 一种信号处理方法及装置 |
CN109192210A (zh) * | 2018-10-25 | 2019-01-11 | 腾讯科技(深圳)有限公司 | 一种语音识别的方法、唤醒词检测的方法及装置 |
CN109243446A (zh) * | 2018-10-01 | 2019-01-18 | 厦门快商通信息技术有限公司 | 一种基于rnn网络的语音唤醒方法 |
CN109448719A (zh) * | 2018-12-11 | 2019-03-08 | 网易(杭州)网络有限公司 | 神经网络模型建立方法及语音唤醒方法、装置、介质和设备 |
CN109886386A (zh) * | 2019-01-30 | 2019-06-14 | 北京声智科技有限公司 | 唤醒模型的确定方法及装置 |
CN110310628A (zh) * | 2019-06-27 | 2019-10-08 | 百度在线网络技术(北京)有限公司 | 唤醒模型的优化方法、装置、设备及存储介质 |
CN110444195A (zh) * | 2018-01-31 | 2019-11-12 | 腾讯科技(深圳)有限公司 | 语音关键词的识别方法和装置 |
CN110473539A (zh) * | 2019-08-28 | 2019-11-19 | 苏州思必驰信息科技有限公司 | 提升语音唤醒性能的方法和装置 |
CN110473536A (zh) * | 2019-08-20 | 2019-11-19 | 北京声智科技有限公司 | 一种唤醒方法、装置和智能设备 |
CN110503952A (zh) * | 2019-07-29 | 2019-11-26 | 北京搜狗科技发展有限公司 | 一种语音处理方法、装置和电子设备 |
CN110534102A (zh) * | 2019-09-19 | 2019-12-03 | 北京声智科技有限公司 | 一种语音唤醒方法、装置、设备及介质 |
CN110767231A (zh) * | 2019-09-19 | 2020-02-07 | 平安科技(深圳)有限公司 | 一种基于时延神经网络的声控设备唤醒词识别方法及装置 |
CN110782898A (zh) * | 2018-07-12 | 2020-02-11 | 北京搜狗科技发展有限公司 | 端到端语音唤醒方法、装置及计算机设备 |
CN110838289A (zh) * | 2019-11-14 | 2020-02-25 | 腾讯科技(深圳)有限公司 | 基于人工智能的唤醒词检测方法、装置、设备及介质 |
CN110910885A (zh) * | 2019-12-12 | 2020-03-24 | 苏州思必驰信息科技有限公司 | 基于解码网络的语音唤醒方法和装置 |
CN111091839A (zh) * | 2020-03-20 | 2020-05-01 | 深圳市友杰智新科技有限公司 | 语音唤醒方法、装置、存储介质及智能设备 |
CN111341299A (zh) * | 2018-11-30 | 2020-06-26 | 阿里巴巴集团控股有限公司 | 一种语音处理方法及装置 |
CN111554288A (zh) * | 2020-04-27 | 2020-08-18 | 北京猎户星空科技有限公司 | 智能设备的唤醒方法、装置、电子设备及介质 |
CN111599350A (zh) * | 2020-04-07 | 2020-08-28 | 云知声智能科技股份有限公司 | 一种命令词定制识别方法及系统 |
CN111667818A (zh) * | 2020-05-27 | 2020-09-15 | 北京声智科技有限公司 | 一种训练唤醒模型的方法及装置 |
CN111739521A (zh) * | 2020-06-19 | 2020-10-02 | 腾讯科技(深圳)有限公司 | 电子设备唤醒方法、装置、电子设备及存储介质 |
CN112216286A (zh) * | 2019-07-09 | 2021-01-12 | 北京声智科技有限公司 | 语音唤醒识别方法、装置、电子设备及存储介质 |
CN112233656A (zh) * | 2020-10-09 | 2021-01-15 | 安徽讯呼信息科技有限公司 | 一种人工智能语音唤醒方法 |
CN112289311A (zh) * | 2019-07-09 | 2021-01-29 | 北京声智科技有限公司 | 语音唤醒方法、装置、电子设备及存储介质 |
CN112825250A (zh) * | 2019-11-20 | 2021-05-21 | 芋头科技(杭州)有限公司 | 语音唤醒方法、设备、存储介质及程序产品 |
WO2021136054A1 (zh) * | 2019-12-30 | 2021-07-08 | Oppo广东移动通信有限公司 | 语音唤醒方法、装置、设备及存储介质 |
CN113178193A (zh) * | 2021-03-22 | 2021-07-27 | 浙江工业大学 | 一种基于智能语音芯片的中文自定义唤醒与物联交互方法 |
CN112289311B (zh) * | 2019-07-09 | 2024-05-31 | 北京声智科技有限公司 | 语音唤醒方法、装置、电子设备及存储介质 |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107358951A (zh) * | 2017-06-29 | 2017-11-17 | 阿里巴巴集团控股有限公司 | 一种语音唤醒方法、装置以及电子设备 |
KR102384643B1 (ko) * | 2017-08-17 | 2022-04-08 | 엘지전자 주식회사 | 전자 장치 및 그 제어 방법 |
US10762896B1 (en) | 2018-06-25 | 2020-09-01 | Amazon Technologies, Inc. | Wakeword detection |
US10825451B1 (en) * | 2018-06-25 | 2020-11-03 | Amazon Technologies, Inc. | Wakeword detection |
US11062703B2 (en) * | 2018-08-21 | 2021-07-13 | Intel Corporation | Automatic speech recognition with filler model processing |
US11232788B2 (en) | 2018-12-10 | 2022-01-25 | Amazon Technologies, Inc. | Wakeword detection |
CN110634468B (zh) * | 2019-09-11 | 2022-04-15 | 中国联合网络通信集团有限公司 | 语音唤醒方法、装置、设备及计算机可读存储介质 |
CN111341297B (zh) * | 2020-03-04 | 2023-04-07 | 开放智能机器(上海)有限公司 | 一种语音唤醒率测试系统及方法 |
CN111862973A (zh) * | 2020-07-14 | 2020-10-30 | 杭州芯声智能科技有限公司 | 一种基于多命令词的语音唤醒方法及其系统 |
CN111933137B (zh) * | 2020-08-19 | 2024-04-16 | Oppo广东移动通信有限公司 | 语音唤醒测试方法及装置、计算机可读介质和电子设备 |
CN112599127B (zh) * | 2020-12-04 | 2022-12-30 | 腾讯科技(深圳)有限公司 | 一种语音指令处理方法、装置、设备及存储介质 |
CN113539295B (zh) * | 2021-06-10 | 2024-04-23 | 联想(北京)有限公司 | 一种语音处理方法及装置 |
CN113889077A (zh) * | 2021-09-22 | 2022-01-04 | 武汉普惠海洋光电技术有限公司 | 声音识别方法、装置、电子设备及存储介质 |
CN117116258A (zh) * | 2023-04-12 | 2023-11-24 | 荣耀终端有限公司 | 一种语音唤醒方法及电子设备 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103489009A (zh) * | 2013-09-17 | 2014-01-01 | 北方信息控制集团有限公司 | 基于自适应修正神经网络的模式识别方法 |
US20150255062A1 (en) * | 2013-03-25 | 2015-09-10 | Gerald Bradley PENN | System and method for applying a convolutional neural network to speech recognition |
CN105096939A (zh) * | 2015-07-08 | 2015-11-25 | 百度在线网络技术(北京)有限公司 | 语音唤醒方法和装置 |
CN105632486A (zh) * | 2015-12-23 | 2016-06-01 | 北京奇虎科技有限公司 | 一种智能硬件的语音唤醒方法和装置 |
CN105679316A (zh) * | 2015-12-29 | 2016-06-15 | 深圳微服机器人科技有限公司 | 一种基于深度神经网络的语音关键词识别方法及装置 |
CN106611597A (zh) * | 2016-12-02 | 2017-05-03 | 百度在线网络技术(北京)有限公司 | 基于人工智能的语音唤醒方法和装置 |
US9786270B2 (en) * | 2015-07-09 | 2017-10-10 | Google Inc. | Generating acoustic models |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4497834B2 (ja) * | 2003-04-28 | 2010-07-07 | パイオニア株式会社 | 音声認識装置及び音声認識方法並びに音声認識用プログラム及び情報記録媒体 |
US20060271368A1 (en) * | 2005-05-25 | 2006-11-30 | Yishay Carmiel | Voice interface for consumer products |
US9460732B2 (en) * | 2013-02-13 | 2016-10-04 | Analog Devices, Inc. | Signal source separation |
US9715660B2 (en) * | 2013-11-04 | 2017-07-25 | Google Inc. | Transfer learning for deep neural network based hotword detection |
US9484022B2 (en) * | 2014-05-23 | 2016-11-01 | Google Inc. | Training multiple neural networks with different accuracy |
US9646634B2 (en) * | 2014-09-30 | 2017-05-09 | Google Inc. | Low-rank hidden input layer for speech recognition neural network |
US9741342B2 (en) * | 2014-11-26 | 2017-08-22 | Panasonic Intellectual Property Corporation Of America | Method and apparatus for recognizing speech by lip reading |
US20160180214A1 (en) * | 2014-12-19 | 2016-06-23 | Google Inc. | Sharp discrepancy learning |
US10719115B2 (en) * | 2014-12-30 | 2020-07-21 | Avago Technologies International Sales Pte. Limited | Isolated word training and detection using generated phoneme concatenation models of audio inputs |
US10580401B2 (en) * | 2015-01-27 | 2020-03-03 | Google Llc | Sub-matrix input for neural network layers |
US9443517B1 (en) * | 2015-05-12 | 2016-09-13 | Google Inc. | Generating sounds for detectability by neural networks |
CN106098059B (zh) * | 2016-06-23 | 2019-06-18 | 上海交通大学 | 可定制语音唤醒方法及系统 |
US10311863B2 (en) * | 2016-09-02 | 2019-06-04 | Disney Enterprises, Inc. | Classifying segments of speech based on acoustic features and context |
CN106599110A (zh) * | 2016-11-29 | 2017-04-26 | 百度在线网络技术(北京)有限公司 | 基于人工智能的语音搜索方法及装置 |
CN106710589B (zh) * | 2016-12-28 | 2019-07-30 | 百度在线网络技术(北京)有限公司 | 基于人工智能的语音特征提取方法及装置 |
CN106920545B (zh) * | 2017-03-21 | 2020-07-28 | 百度在线网络技术(北京)有限公司 | 基于人工智能的语音特征提取方法和装置 |
CN106887225B (zh) * | 2017-03-21 | 2020-04-07 | 百度在线网络技术(北京)有限公司 | 基于卷积神经网络的声学特征提取方法、装置和终端设备 |
-
2017
- 2017-05-16 CN CN201710343874.0A patent/CN107221326B/zh active Active
- 2017-12-27 US US15/854,926 patent/US10388276B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150255062A1 (en) * | 2013-03-25 | 2015-09-10 | Gerald Bradley PENN | System and method for applying a convolutional neural network to speech recognition |
CN103489009A (zh) * | 2013-09-17 | 2014-01-01 | 北方信息控制集团有限公司 | 基于自适应修正神经网络的模式识别方法 |
CN105096939A (zh) * | 2015-07-08 | 2015-11-25 | 百度在线网络技术(北京)有限公司 | 语音唤醒方法和装置 |
US9786270B2 (en) * | 2015-07-09 | 2017-10-10 | Google Inc. | Generating acoustic models |
CN105632486A (zh) * | 2015-12-23 | 2016-06-01 | 北京奇虎科技有限公司 | 一种智能硬件的语音唤醒方法和装置 |
CN105679316A (zh) * | 2015-12-29 | 2016-06-15 | 深圳微服机器人科技有限公司 | 一种基于深度神经网络的语音关键词识别方法及装置 |
CN106611597A (zh) * | 2016-12-02 | 2017-05-03 | 百度在线网络技术(北京)有限公司 | 基于人工智能的语音唤醒方法和装置 |
Cited By (54)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108010514A (zh) * | 2017-11-20 | 2018-05-08 | 四川大学 | 一种基于深度神经网络的语音分类方法 |
CN108010514B (zh) * | 2017-11-20 | 2021-09-10 | 四川大学 | 一种基于深度神经网络的语音分类方法 |
CN108010515A (zh) * | 2017-11-21 | 2018-05-08 | 清华大学 | 一种语音端点检测和唤醒方法及装置 |
CN108010515B (zh) * | 2017-11-21 | 2020-06-30 | 清华大学 | 一种语音端点检测和唤醒方法及装置 |
CN108053836A (zh) * | 2018-01-18 | 2018-05-18 | 成都嗨翻屋文化传播有限公司 | 一种基于深度学习的音频自动化标注方法 |
CN108053836B (zh) * | 2018-01-18 | 2021-03-23 | 成都嗨翻屋科技有限公司 | 一种基于深度学习的音频自动化标注方法 |
CN110444195A (zh) * | 2018-01-31 | 2019-11-12 | 腾讯科技(深圳)有限公司 | 语音关键词的识别方法和装置 |
CN110444195B (zh) * | 2018-01-31 | 2021-12-14 | 腾讯科技(深圳)有限公司 | 语音关键词的识别方法和装置 |
CN109192226A (zh) * | 2018-06-26 | 2019-01-11 | 深圳大学 | 一种信号处理方法及装置 |
CN110782898B (zh) * | 2018-07-12 | 2024-01-09 | 北京搜狗科技发展有限公司 | 端到端语音唤醒方法、装置及计算机设备 |
CN110782898A (zh) * | 2018-07-12 | 2020-02-11 | 北京搜狗科技发展有限公司 | 端到端语音唤醒方法、装置及计算机设备 |
CN109036459A (zh) * | 2018-08-22 | 2018-12-18 | 百度在线网络技术(北京)有限公司 | 语音端点检测方法、装置、计算机设备、计算机存储介质 |
CN109036459B (zh) * | 2018-08-22 | 2019-12-27 | 百度在线网络技术(北京)有限公司 | 语音端点检测方法、装置、计算机设备、计算机存储介质 |
CN109243446A (zh) * | 2018-10-01 | 2019-01-18 | 厦门快商通信息技术有限公司 | 一种基于rnn网络的语音唤醒方法 |
CN110444210A (zh) * | 2018-10-25 | 2019-11-12 | 腾讯科技(深圳)有限公司 | 一种语音识别的方法、唤醒词检测的方法及装置 |
CN110444210B (zh) * | 2018-10-25 | 2022-02-08 | 腾讯科技(深圳)有限公司 | 一种语音识别的方法、唤醒词检测的方法及装置 |
CN109192210A (zh) * | 2018-10-25 | 2019-01-11 | 腾讯科技(深圳)有限公司 | 一种语音识别的方法、唤醒词检测的方法及装置 |
CN109192210B (zh) * | 2018-10-25 | 2023-09-22 | 腾讯科技(深圳)有限公司 | 一种语音识别的方法、唤醒词检测的方法及装置 |
CN111341299A (zh) * | 2018-11-30 | 2020-06-26 | 阿里巴巴集团控股有限公司 | 一种语音处理方法及装置 |
US11538488B2 (en) | 2018-11-30 | 2022-12-27 | Alibaba Group Holding Limited | Method and system for processing speech signal |
US11900958B2 (en) | 2018-11-30 | 2024-02-13 | Alibaba Group Holding Limited | Method and system for processing speech signal |
CN109448719B (zh) * | 2018-12-11 | 2022-09-09 | 杭州易现先进科技有限公司 | 神经网络模型建立方法及语音唤醒方法、装置、介质和设备 |
CN109448719A (zh) * | 2018-12-11 | 2019-03-08 | 网易(杭州)网络有限公司 | 神经网络模型建立方法及语音唤醒方法、装置、介质和设备 |
CN109886386A (zh) * | 2019-01-30 | 2019-06-14 | 北京声智科技有限公司 | 唤醒模型的确定方法及装置 |
CN110310628B (zh) * | 2019-06-27 | 2022-05-20 | 百度在线网络技术(北京)有限公司 | 唤醒模型的优化方法、装置、设备及存储介质 |
CN110310628A (zh) * | 2019-06-27 | 2019-10-08 | 百度在线网络技术(北京)有限公司 | 唤醒模型的优化方法、装置、设备及存储介质 |
US11189287B2 (en) | 2019-06-27 | 2021-11-30 | Baidu Online Network Technology (Beijing) Co., Ltd. | Optimization method, apparatus, device for wake-up model, and storage medium |
CN112216286B (zh) * | 2019-07-09 | 2024-04-23 | 北京声智科技有限公司 | 语音唤醒识别方法、装置、电子设备及存储介质 |
CN112289311B (zh) * | 2019-07-09 | 2024-05-31 | 北京声智科技有限公司 | 语音唤醒方法、装置、电子设备及存储介质 |
CN112216286A (zh) * | 2019-07-09 | 2021-01-12 | 北京声智科技有限公司 | 语音唤醒识别方法、装置、电子设备及存储介质 |
CN112289311A (zh) * | 2019-07-09 | 2021-01-29 | 北京声智科技有限公司 | 语音唤醒方法、装置、电子设备及存储介质 |
CN110503952A (zh) * | 2019-07-29 | 2019-11-26 | 北京搜狗科技发展有限公司 | 一种语音处理方法、装置和电子设备 |
CN110503952B (zh) * | 2019-07-29 | 2022-02-22 | 北京搜狗科技发展有限公司 | 一种语音处理方法、装置和电子设备 |
CN110473536A (zh) * | 2019-08-20 | 2019-11-19 | 北京声智科技有限公司 | 一种唤醒方法、装置和智能设备 |
CN110473536B (zh) * | 2019-08-20 | 2021-10-15 | 北京声智科技有限公司 | 一种唤醒方法、装置和智能设备 |
CN110473539A (zh) * | 2019-08-28 | 2019-11-19 | 苏州思必驰信息科技有限公司 | 提升语音唤醒性能的方法和装置 |
CN110473539B (zh) * | 2019-08-28 | 2021-11-09 | 思必驰科技股份有限公司 | 提升语音唤醒性能的方法和装置 |
CN110534102B (zh) * | 2019-09-19 | 2020-10-30 | 北京声智科技有限公司 | 一种语音唤醒方法、装置、设备及介质 |
CN110534102A (zh) * | 2019-09-19 | 2019-12-03 | 北京声智科技有限公司 | 一种语音唤醒方法、装置、设备及介质 |
CN110767231A (zh) * | 2019-09-19 | 2020-02-07 | 平安科技(深圳)有限公司 | 一种基于时延神经网络的声控设备唤醒词识别方法及装置 |
CN110838289A (zh) * | 2019-11-14 | 2020-02-25 | 腾讯科技(深圳)有限公司 | 基于人工智能的唤醒词检测方法、装置、设备及介质 |
CN110838289B (zh) * | 2019-11-14 | 2023-08-11 | 腾讯科技(深圳)有限公司 | 基于人工智能的唤醒词检测方法、装置、设备及介质 |
CN112825250A (zh) * | 2019-11-20 | 2021-05-21 | 芋头科技(杭州)有限公司 | 语音唤醒方法、设备、存储介质及程序产品 |
CN110910885A (zh) * | 2019-12-12 | 2020-03-24 | 苏州思必驰信息科技有限公司 | 基于解码网络的语音唤醒方法和装置 |
WO2021136054A1 (zh) * | 2019-12-30 | 2021-07-08 | Oppo广东移动通信有限公司 | 语音唤醒方法、装置、设备及存储介质 |
CN111091839A (zh) * | 2020-03-20 | 2020-05-01 | 深圳市友杰智新科技有限公司 | 语音唤醒方法、装置、存储介质及智能设备 |
CN111599350A (zh) * | 2020-04-07 | 2020-08-28 | 云知声智能科技股份有限公司 | 一种命令词定制识别方法及系统 |
CN111599350B (zh) * | 2020-04-07 | 2023-02-28 | 云知声智能科技股份有限公司 | 一种命令词定制识别方法及系统 |
CN111554288A (zh) * | 2020-04-27 | 2020-08-18 | 北京猎户星空科技有限公司 | 智能设备的唤醒方法、装置、电子设备及介质 |
CN111667818B (zh) * | 2020-05-27 | 2023-10-10 | 北京声智科技有限公司 | 一种训练唤醒模型的方法及装置 |
CN111667818A (zh) * | 2020-05-27 | 2020-09-15 | 北京声智科技有限公司 | 一种训练唤醒模型的方法及装置 |
CN111739521A (zh) * | 2020-06-19 | 2020-10-02 | 腾讯科技(深圳)有限公司 | 电子设备唤醒方法、装置、电子设备及存储介质 |
CN112233656A (zh) * | 2020-10-09 | 2021-01-15 | 安徽讯呼信息科技有限公司 | 一种人工智能语音唤醒方法 |
CN113178193A (zh) * | 2021-03-22 | 2021-07-27 | 浙江工业大学 | 一种基于智能语音芯片的中文自定义唤醒与物联交互方法 |
Also Published As
Publication number | Publication date |
---|---|
US20180336886A1 (en) | 2018-11-22 |
US10388276B2 (en) | 2019-08-20 |
CN107221326B (zh) | 2021-05-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107221326A (zh) | 基于人工智能的语音唤醒方法、装置和计算机设备 | |
CN110826466B (zh) | 基于lstm音像融合的情感识别方法、装置及存储介质 | |
US10515627B2 (en) | Method and apparatus of building acoustic feature extracting model, and acoustic feature extracting method and apparatus | |
CN110490213B (zh) | 图像识别方法、装置及存储介质 | |
CN105654952B (zh) | 用于输出语音的电子设备、服务器和方法 | |
CN105741838B (zh) | 语音唤醒方法及装置 | |
CN108717852B (zh) | 一种基于白光通信和类脑认知的智能机器人语义交互系统和方法 | |
EP3732626A1 (en) | Always-on keyword detector | |
CN107358951A (zh) | 一种语音唤醒方法、装置以及电子设备 | |
CN106887225A (zh) | 基于卷积神经网络的声学特征提取方法、装置和终端设备 | |
CN107221320A (zh) | 训练声学特征提取模型的方法、装置、设备和计算机存储介质 | |
CN110853680A (zh) | 一种用于语音情感识别的具有多输入多融合策略的双BiLSTM结构 | |
US20200133211A1 (en) | Electronic device and method for controlling electronic device thereof | |
CN111653275B (zh) | 基于lstm-ctc尾部卷积的语音识别模型的构建方法及装置、语音识别方法 | |
US20200057937A1 (en) | Electronic apparatus and controlling method thereof | |
CN110459207A (zh) | 唤醒语音关键短语分割 | |
US11966317B2 (en) | Electronic device and method for controlling same | |
CN110826702A (zh) | 一种多任务深度网络的异常事件检测方法 | |
KR20200126675A (ko) | 전자 장치 및 이의 제어 방법 | |
US20220292357A1 (en) | Neural Network Search Method, Apparatus, And Device | |
CN107045867A (zh) | 自动作曲方法、装置和终端设备 | |
CN112634944A (zh) | 识别声音事件的方法 | |
CN110516113A (zh) | 一种视频分类的方法、视频分类模型训练的方法及装置 | |
Fan et al. | Soundscape emotion recognition via deep learning | |
US20210279589A1 (en) | Electronic device and control method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |