CN106653022A - 基于人工智能的语音唤醒方法和装置 - Google Patents
基于人工智能的语音唤醒方法和装置 Download PDFInfo
- Publication number
- CN106653022A CN106653022A CN201611248513.XA CN201611248513A CN106653022A CN 106653022 A CN106653022 A CN 106653022A CN 201611248513 A CN201611248513 A CN 201611248513A CN 106653022 A CN106653022 A CN 106653022A
- Authority
- CN
- China
- Prior art keywords
- phoneme
- word
- wake
- rubbish
- voice
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013473 artificial intelligence Methods 0.000 title claims abstract description 58
- 238000000034 method Methods 0.000 title claims abstract description 55
- 230000002618 waking effect Effects 0.000 claims description 18
- 238000012216 screening Methods 0.000 claims description 16
- 238000005457 optimization Methods 0.000 claims description 9
- 230000008569 process Effects 0.000 claims description 9
- 238000004422 calculation algorithm Methods 0.000 claims description 7
- 239000000284 extract Substances 0.000 claims description 4
- 238000000605 extraction Methods 0.000 claims description 4
- 238000005516 engineering process Methods 0.000 description 11
- 238000003860 storage Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 8
- 238000004590 computer program Methods 0.000 description 5
- 238000010276 construction Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 239000004744 fabric Substances 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 206010008190 Cerebrovascular accident Diseases 0.000 description 1
- 208000006011 Stroke Diseases 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000011109 contamination Methods 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 210000003733 optic disk Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000013179 statistical model Methods 0.000 description 1
- 238000005309 stochastic process Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
- G10L2015/025—Phonemes, fenemes or fenones being the recognition units
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
- G10L2015/0631—Creating reference templates; Clustering
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L2015/081—Search algorithms, e.g. Baum-Welch or Viterbi
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L2015/088—Word spotting
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Acoustics & Sound (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Telephonic Communication Services (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Signal Processing (AREA)
- Probability & Statistics with Applications (AREA)
Abstract
本发明提出一种基于人工智能的语音唤醒方法和装置,其中,方法包括:通过对各音素进行聚类,以选取出用于指代全部音素的垃圾音素,以及根据预先设定的唤醒词,构建与所述唤醒词相似的反唤醒词之后,根据垃圾音素、反唤醒词和唤醒词构建解码网络,从而可以利用该解码网络进行语音唤醒。由于垃圾音素的数据量明显少于垃圾词的数据量,解决了现有技术中垃圾词模型占用数据量过大的问题,同时,由于词汇是由有限个音素所构成的,因此,垃圾音素相较于垃圾词也更能够较为全面覆盖全部词汇提高了唤醒精度,减少误唤醒的概率。
Description
技术领域
本发明涉及语音识别技术领域,尤其涉及一种基于人工智能的语音唤醒方法和装置。
背景技术
人工智能(Artificial Intelligence),英文缩写为AI。它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。人工智能是计算机科学的一个分支,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语音识别、图像识别、自然语言处理和专家系统等。其中,人工智能最重要的应用方面就是语音识别技术。
而语音唤醒技术是语音识别技术中的重要方向之一,具体来说,语音唤醒技术是通过在终端处于待机状态下,用户说出特定的唤醒词,对终端进行唤醒,以激活系统,从而实现相应的操作或服务。
在现有技术中,通常将唤醒词和垃圾词并联形成一个解码网络,根据用户语音的声学特征,在解码网络中寻找最为匹配的识别结果,根据识别结果对终端进行唤醒。在构建垃圾词时,若选择的汉字量较少,就不能获得较高的识别准确,而若选择的汉字量较多,又会导致数据量过大,占用设备存储空间以及影响运算效率。
发明内容
本发明旨在至少在一定程度上解决相关技术中的技术问题之一。
为此,本发明的第一个目的在于提出一种基于人工智能的语音唤醒方法,以通过利用垃圾音素构建垃圾音素模型,解决现有技术中垃圾词模型占用数据量过大的问题,同时,通过垃圾音素来表征全部的语音,提高了唤醒精度,减少误唤醒的概率。
本发明的第二个目的在于提出一种基于人工智能的语音唤醒装置。
本发明的第三个目的在于提出另一种基于人工智能的语音唤醒装置。
本发明的第四个目的在于提出一种非临时性计算机可读存储介质。
本发明的第五个目的在于提出一种计算机程序产品。
为达上述目的,本发明第一方面实施例提出了一种基于人工智能的语音唤醒方法,包括:
对各音素进行聚类,以选取出用于指代全部音素的垃圾音素;
根据预先设定的唤醒词,构建与所述唤醒词相似的反唤醒词;
根据所述垃圾音素、所述反唤醒词和所述唤醒词构建解码网络;
利用所述解码网络进行语音唤醒。
本发明实施例的基于人工智能的语音唤醒方法,通过对各音素进行聚类,以选取出用于指代全部音素的垃圾音素,以及根据预先设定的唤醒词,构建与所述唤醒词相似的反唤醒词之后,根据垃圾音素、反唤醒词和唤醒词构建解码网络,从而可以利用该解码网络进行语音唤醒。由于垃圾音素的数据量明显少于垃圾词的数据量,解决了现有技术中垃圾词模型占用数据量过大的问题,同时,由于词汇是由有限个音素所构成的,因此,垃圾音素相较于垃圾词也更能够较为全面覆盖全部词汇提高了唤醒精度,减少误唤醒的概率。
为达上述目的,本发明第二方面实施例提出了一种基于人工智能的语音唤醒装置,包括:
第一选取模块,用于对各音素进行聚类,以选取出用于指代全部音素的垃圾音素;
第二选取模块,用于根据预先设定的唤醒词,构建与所述唤醒词相似的反唤醒词;
构建模块,用于根据所述垃圾音素、所述反唤醒词和所述唤醒词构建解码网络;
唤醒模块,用于利用所述解码网络进行语音唤醒。
本发明实施例的基于人工智能的语音唤醒装置,通过第一选取模块对各音素进行聚类,以选取出用于指代全部音素的垃圾音素,以及第二选取模块根据预先设定的唤醒词,构建模块构建与所述唤醒词相似的反唤醒词之后,唤醒模块根据垃圾音素、反唤醒词和唤醒词构建解码网络,从而可以利用该解码网络进行语音唤醒。由于垃圾音素的数据量明显少于垃圾词的数据量,解决了现有技术中垃圾词模型占用数据量过大的问题,同时,由于词汇是由有限个音素所构成的,因此,垃圾音素相较于垃圾词也更能够较为全面覆盖全部词汇提高了唤醒精度,减少误唤醒的概率。
为达上述目的,本发明第三方面实施例提出了另一种基于人工智能的语音唤醒装置,包括:处理器;用于存储所述处理器可执行指令的存储器;其中,所述处理器被配置为:对各音素进行聚类,以选取出用于指代全部音素的垃圾音素;根据预先设定的唤醒词,构建与所述唤醒词相似的反唤醒词;根据所述垃圾音素、所述反唤醒词和所述唤醒词构建解码网络;利用所述解码网络进行语音唤醒。
为了实现上述目的,本发明第四方面实施例提出了一种非临时性计算机可读存储介质,当所述存储介质中的指令由终端的处理器被执行时,使得终端能够执行一种基于人工智能的语音唤醒方法,所述方法包括:对各音素进行聚类,以选取出用于指代全部音素的垃圾音素;根据预先设定的唤醒词,构建与所述唤醒词相似的反唤醒词;根据所述垃圾音素、所述反唤醒词和所述唤醒词构建解码网络;利用所述解码网络进行语音唤醒。
为了实现上述目的,本发明第五方面实施例提出了一种计算机程序产品,当所述计算机程序产品中的指令由处理器执行时,执行一种基于人工智能的语音唤醒方法,所述方法包括:对各音素进行聚类,以选取出用于指代全部音素的垃圾音素;根据预先设定的唤醒词,构建与所述唤醒词相似的反唤醒词;根据所述垃圾音素、所述反唤醒词和所述唤醒词构建解码网络;利用所述解码网络进行语音唤醒。
本发明附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为本发明实施例所提供的一种基于人工智能的语音唤醒方法的流程示意图;
图2为音素及对应状态的示意图;
图3为本发明实施例所提供的另一种基于人工智能的语音唤醒方法的流程示意图;
图4为解码网络的结构示意图;
图5为本发明实施例提供的一种人工智能的语音唤醒装置的结构示意图;以及
图6为本发明实施例提供的又一种人工智能的语音唤醒装置的结构示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
下面参考附图描述本发明实施例的基于人工智能的语音唤醒方法和装置。
图1为本发明实施例所提供的一种基于人工智能的语音唤醒方法的流程示意图。
由于在现有技术中,通常将唤醒词和垃圾词并联形成一个解码网络进行唤醒,但在构建垃圾词时,若选择的汉字量较少,就不能获得较高的识别准确,而若选择的汉字量较多,又会导致数据量过大,占用设备存储空间以及影响运算效率。针对这一问题,本发明实施例提供了基于人工智能的语音唤醒方法,通过利用垃圾音素构建垃圾音素模型,解决现有技术中垃圾词模型占用数据量过大的问题,同时,通过垃圾音素来表征全部的语音,提高了唤醒精度,减少误唤醒的概率,如图1所示,该基于人工智能的语音唤醒方法包括以下步骤:
步骤101,对各音素进行聚类,以选取出用于指代全部音素的垃圾音素。
具体地,获取各个音素和各个音素对应的状态,在各个音素中随机选取目标音素,并将所述目标音素添加到垃圾音素集合中,以该目标音素作为起点,在各个音素中查询与所述目标音素距离最远的音素,并将所查询到的音素添加到所述垃圾音素集合中。
在将所查询到的音素作为所述目标音素,循环执行前述以目标音素作为起点,在各个音素中查询与所述目标音素距离最远的音素,并将所查询到的音素添加到所述垃圾音素集合中的过程,直至垃圾音素集合中的音素数量为预设的第一数量。
需要说明的是,在获取各个音素和各个音素对应的状态时,是基于统计模型,例如隐马尔可夫模型(Hidden Markov Model,HMM),HMM是常被应用于语音识别。在语音识别领域中,在对语音识别这一随机过程中,一般都是有限长的随机序列,可能是一维的观察序列或编码符号序列,可以是多维的矢量序列,可以统称为观察序列,一个具有多个状态的统计模型是用参数表示的用于描述前述随机序列的统计特性的概率模型,模型的具体内容可参见技术文献中语音识别技术的相关描述,本实施例中对此不再赘述。
在本实施例中,每一个音素具有三个状态进行描述,在实际使用过程中,本领域技术人员可以选用更多或者更少的状态数量,本实施例中对此不做限定。图2为音素及对应状态的示意图,如图2所示,P1和P2分别表示音素,其中,P1由状态S11,S12,S13构成,P1的每个状态用P1的混合高斯模型拟合获得;P2由状态S21,S22,S23构成,P2的每个状态用P2的混合高斯模型拟合获得。
步骤102,根据预先设定的唤醒词,构建与所述唤醒词相似的反唤醒词。
具体地,从与所述唤醒词发音相似的词语列表中,选取字数少于所述唤醒词字数的音近词;将所述唤醒词中的部分字与所述音近词组合,以构建所述反唤醒词。
例如:唤醒词是“小度你好”,对应的反唤醒词为唤醒词的第一个字,即“小”,以及音近词的组合,如“小布你”,“交度你”等。
可选地,作为一种可能的实现方式,可以采用如下方式对反唤醒词进行构建:
首先,生成与唤醒词发音相似的词语列表,这个词语列表可以由语文专业人员编订,也可参考国家发布的词典;
进而,假设唤醒词的字数为n,例如,“小度你好”中,n取值为4,从列表中所选取的音近词,可以根据唤醒词的字数n分为(n-2)类,各类的音近词的字数分别由(n-1)递减至2,例如:“小度你好”,n=4,则音近词可分为4-2=2类,分别是三字词类和两字词类;
最后,从每一类中,选择不多于3个音近词,由这些音近词与唤醒词中的一个或者多个字组合成反唤醒词。例如:在“小度你好”作为唤醒词时,可以保持唤醒词的第一个或最后一个词不变,从三字词类的音近词中,随机选取连续的三个字“小度你”或者“度你好”,对“小度你好”中的其余部分进行替换,获得的反唤醒词可以为“小布你”,“度你少”,“不你好”等等。
步骤103,根据垃圾音素、反唤醒词和唤醒词构建解码网络。
将垃圾音素、反唤醒词和唤醒词并联,从而构建解码网络。
步骤104,利用所述解码网络进行语音唤醒。
具体地,对输入的用户语音提取声学特征,将所提取到的声学特征输入解码网络,以采用动态规划算法,在解码网络中计算得到为最优路径的识别结果,根据识别结果,对终端进行唤醒。
本实施例中,通过对各音素进行聚类,以选取出用于指代全部音素的垃圾音素,以及根据预先设定的唤醒词,构建与所述唤醒词相似的反唤醒词之后,根据垃圾音素、反唤醒词和唤醒词构建解码网络,从而可以利用该解码网络进行语音唤醒。由于垃圾音素的数据量明显少于垃圾词的数据量,解决了现有技术中垃圾词模型占用数据量过大的问题,同时,由于词汇是由有限个音素所构成的,因此,垃圾音素相较于垃圾词也更能够较为全面覆盖全部词汇提高了唤醒精度,减少误唤醒的概率。
为了清楚说明上一实施例,本实施例提供了另一种基于人工智能的语音唤醒方法,图3为本发明实施例所提供的另一种基于人工智能的语音唤醒方法的流程示意图。
如图3所示,该基于人工智能的语音唤醒方法可以包括以下步骤:
步骤201,获取各个音素和各个音素对应的状态。
具体地,针对每一个音素,利用混合高斯模型对所述音素的各状态进行拟合,得到所述音素的混合高斯模型,采用多个语音的样本和语音的标注对所得到的各音素的混合高斯模型进行参数优化,根据各混合高斯模型之间,优化后参数的相似度,对各音素的混合高斯模型进行排序,得到对应的所述各个音素,以及各个音素的状态。
步骤202,在各个音素中随机选取目标音素,并将所述目标音素添加到垃圾音素集合中。
步骤203,以该目标音素作为起点,在各个音素中查询与所述目标音素距离最远的音素,并将所查询到的音素添加到所述垃圾音素集合中。
具体地,根据公式S=(SM1-SN1)2+(SM2-SN2)2+(SM3-SN3)2计算所述目标音素PM与各音素PN之间的距离S;其中,SM1、SM2和SM3分别为所述目标音素PM的三个状态,SN1、SN2和SN3分别为所述音素PN的三个状态;根据所计算出的距离S,选取S取值最大的音素。
步骤204,判断垃圾音素集合中的音素数量是否达到第一数量,若是,执行步骤205,否则将所查询到的音素作为所述目标音素重复执行步骤203。
步骤205,根据垃圾音素在样本语音中的出现频率,对垃圾音素进行筛选。
具体地,利用各个音素,对多个样本语音分别进行识别,以得到匹配中的音素;从匹配中的音素中,按照匹配数量从多至少进行排序,选取排序为前第二数量的音素,作为筛选集合;根据所述筛选集合对所述垃圾音素进行筛选,保留处于所述筛选集合中的垃圾音素。
例如:垃圾音素的集合记为集合K,筛选集合记为集合T,将集合K和集合T的交集中的元素作为垃圾音素。
通过如上步骤完成垃圾音素的构建,本实施例中通过构建、筛选等操作优化了垃圾音素,能够更好的区分唤醒词和其他内容的权重,能够极大的防止非唤醒词唤醒,有效的降低了误报率,极大的提升用户体验。同时,使得本实施例的唤醒精度更高,由于采用了垃圾音素代替垃圾词的方法,使得解码网络识别过程中,对用户输入的唤醒词和非唤醒词能够更好的区分,权重更加合理,在降低唤醒误报率的同时,提升了唤醒的正确率。
进一步,功耗方面,由于垃圾音素和唤醒词并联,而不是采用整个识别系统内存占用小,使得内存得到了极大的优化,终端的功耗更低。
步骤206,根据预先设定的唤醒词,构建与唤醒词相似的反唤醒词,并利用唤醒词、反唤醒词和垃圾音素构建解码网络。
从与所述唤醒词发音相似的词语列表中,选取字数少于所述唤醒词字数的音近词;将所述唤醒词中的部分字与所述音近词组合,以构建所述反唤醒词。
需要说明的是,具体构建反唤醒词的过程可以参见前述实施例中的描述,本实施例中对此不再赘述。
根据垃圾音素、反唤醒词和唤醒词构建解码网络。图4为解码网络的结构示意图,如图4所示垃圾音素、反唤醒词和唤醒词之间为并联关系。
步骤207,在用户进行语音输入时,对输入的用户语音提取声学特征。
具体地,针对用户所输入的语音,识别端点后,进行声学特征提取的过程,具体声学特征提取的方法可参见技术文献中语音识别技术的相关描述,本实施例中对此不再赘述。
步骤208,将所提取到的声学特征输入解码网络,以采用动态规划算法,在所述解码网络中计算得到为最优路径的识别结果。
具体来说,常用动态规划算法中的维特比算法,在解码网络中算得到为最优路径的识别结果。
步骤209,计算识别结果的置信度。
具体地,根据用户语音中的每一帧在所述解码网络中计算得到的最优路径的得分,计算所述用户语音的平均分值;根据所述唤醒词中的每一帧在所述解码网络中计算得到的最优路径的得分,计算所述唤醒词的平均分值;若所述唤醒词的平均分值减去所述用户语音的平均分值所获得的差值大于预设阈值,判定所述识别结果有效。
例如:首先,在采用动态规划算法计算识别结果的过程中,记录每一帧的得分(Score),在有q个帧时,可分别记为Score1,Score2……Scoreq,其中1,2,……q为帧号,将所有得分Score1,Score2……Scoreq,求均值,记为ScoreAve。
进而,将唤醒词中的每一帧的得分Score’1,Score’2……Score’t取均值,其中,1,2,……t为帧号,将计算所获得的唤醒词的平均分值记为ScoreWakeUp。
根据公式ScoreCM=ScoreWakeUp–ScoreAve计算置信度ScoreCM。
步骤210,若置信度高于预设阈值,则判定识别结果有效,根据识别结果进行唤醒。
通过置信度计算的步骤能够极大的防止非唤醒词唤醒,有效降低了误判的概率,也就是减少了误报率。
本实施例中,通过对各音素进行聚类,以选取出用于指代全部音素的垃圾音素,以及根据预先设定的唤醒词,构建与所述唤醒词相似的反唤醒词之后,根据垃圾音素、反唤醒词和唤醒词构建解码网络,从而可以利用该解码网络进行语音唤醒。由于垃圾音素的数据量明显少于垃圾词的数据量,解决了现有技术中垃圾词模型占用数据量过大的问题,同时,由于词汇是由有限个音素所构成的,因此,垃圾音素相较于垃圾词也更能够较为全面覆盖全部词汇提高了唤醒精度,减少误唤醒的概率。
为了实现上述实施例,本发明还提出一种基于人工智能的语音唤醒装置。
图5为本发明实施例提供的一种人工智能的语音唤醒装置的结构示意图。
如图5所示,该人工智能的语音唤醒装置包括:第一选取模块51、第二选取模块52、构建模块53和唤醒模块54。
第一选取模块51,用于对各音素进行聚类,以选取出用于指代全部音素的垃圾音素。
第二选取模块52,用于根据预先设定的唤醒词,构建与所述唤醒词相似的反唤醒词。
构建模块53,用于根据所述垃圾音素、所述反唤醒词和所述唤醒词构建解码网络。
唤醒模块54,用于利用所述解码网络进行语音唤醒。
进一步地,在本发明实施例的一种可能的实现方式中,第二选取模块52,具体用于从与所述唤醒词发音相似的词语列表中,选取字数少于所述唤醒词字数的音近词;将所述唤醒词中的部分字与所述音近词组合,以构建所述反唤醒词。
需要说明的是,前述对人工智能的语音唤醒方法实施例的解释说明也适用于该实施例的人工智能的语音唤醒装置,此处不再赘述。
本实施例中,通过第一选取模块对各音素进行聚类,以选取出用于指代全部音素的垃圾音素,以及第二选取模块根据预先设定的唤醒词,构建模块构建与所述唤醒词相似的反唤醒词之后,唤醒模块根据垃圾音素、反唤醒词和唤醒词构建解码网络,从而可以利用该解码网络进行语音唤醒。由于垃圾音素的数据量明显少于垃圾词的数据量,解决了现有技术中垃圾词模型占用数据量过大的问题,同时,由于词汇是由有限个音素所构成的,因此,垃圾音素相较于垃圾词也更能够较为全面覆盖全部词汇提高了唤醒精度,减少误唤醒的概率。
基于上述实施例,本发明实施例还提供了又一种人工智能的语音唤醒装置图6为本发明实施例提供的又一种人工智能的语音唤醒装置的结构示意图,在上一实施例的基础上,人工智能的语音唤醒装置中第一选取模块51,包括:获取单元511、选取单元512、计算单元513和生成单元514。
获取单元511,用于获取各个音素和各个音素对应的状态。
选取单元512,用于在各个音素中随机选取目标音素,并将所述目标音素添加到垃圾音素集合中。
计算单元513,用于以所述目标音素作为起点,在各个音素中查询与所述目标音素距离最远的音素,并将所查询到的音素添加到所述垃圾音素集合中。
生成单元514,用于将所查询到的音素作为所述目标音素,循环执行所述以所述目标音素作为起点,在各个音素中查询与所述目标音素距离最远的音素,并将所查询到的音素添加到所述垃圾音素集合中的过程,直至所述垃圾音素集合中的音素数量为预设的第一数量。
进一步地,在本发明实施例的一种可能的实现方式中,获取单元511,具体用于针对每一个音素,利用混合高斯模型对所述音素的各状态进行拟合,得到所述音素的混合高斯模型;采用多个语音的样本和语音的标注对所得到的各音素的混合高斯模型进行参数优化;根据各混合高斯模型之间,优化后参数的相似度,对各音素的混合高斯模型进行排序,得到对应的所述各个音素,以及各个音素的状态。
计算单元513,具体用于根据公式S=(SM1-SN1)2+(SM2-SN2)2+(SM3-SN3)2计算所述目标音素PM与各音素PN之间的距离S;其中,SM1、SM2和SM3分别为所述目标音素PM的三个状态,SN1、SN2和SN3分别为所述音素PN的三个状态;根据所计算出的距离S,选取S取值最大的音素。
进一步地,在本发明实施例的一种可能的实现方式中,基于人工智能的语音唤醒装置,还包括:筛选模块55。
筛选模块55,用于利用各个音素,对多个样本语音分别进行识别,以得到匹配中的音素;从匹配中的音素中,选取匹配数量排序为前第二数量的音素,作为筛选集合;根据所述筛选集合对所述垃圾音素进行筛选,保留处于所述筛选集合中的垃圾音素。
进一步地,在本发明实施例的一种可能的实现方式中,唤醒模块54,包括:提取单元541、识别单元542、唤醒单元543和置信单元544。
提取单元541,用于对输入的用户语音提取声学特征。
识别单元542,用于将所提取到的声学特征输入所述解码网络,以采用动态规划算法,在所述解码网络中计算得到为最优路径的识别结果。
唤醒单元543,用于根据识别结果,对终端进行唤醒。
置信单元544,用于根据用户语音中的每一帧在所述解码网络中计算得到的最优路径的得分,计算所述用户语音的平均分值;根据所述唤醒词中的每一帧在所述解码网络中计算得到的最优路径的得分,计算所述唤醒词的平均分值;若所述唤醒词的平均分值减去所述用户语音的平均分值所获得的差值大于预设阈值,判定所述识别结果有效。
需要说明的是,前述对人工智能的语音唤醒方法实施例的解释说明也适用于该实施例的人工智能的语音唤醒装置,此处不再赘述。
本发明实施例中,通过第一选取模块对各音素进行聚类,以选取出用于指代全部音素的垃圾音素,以及第二选取模块根据预先设定的唤醒词,构建模块构建与所述唤醒词相似的反唤醒词之后,唤醒模块根据垃圾音素、反唤醒词和唤醒词构建解码网络,从而可以利用该解码网络进行语音唤醒。由于垃圾音素的数据量明显少于垃圾词的数据量,解决了现有技术中垃圾词模型占用数据量过大的问题,同时,由于词汇是由有限个音素所构成的,因此,垃圾音素相较于垃圾词也更能够较为全面覆盖全部词汇提高了唤醒精度,减少误唤醒的概率。
为了实现上述实施例,本发明还提出另一种基于人工智能的语音唤醒装置,包括:处理器,以及用于存储所述处理器可执行指令的存储器。
其中,处理器被配置为:对各音素进行聚类,以选取出用于指代全部音素的垃圾音素;根据预先设定的唤醒词,构建与所述唤醒词相似的反唤醒词;根据所述垃圾音素、所述反唤醒词和所述唤醒词构建解码网络;利用所述解码网络进行语音唤醒。
为了实现上述实施例,本发明还提出一种非临时性计算机可读存储介质,当所述存储介质中的指令由终端的处理器被执行时,使得终端能够执行一种基于人工智能的语音唤醒方法,所述方法包括:对各音素进行聚类,以选取出用于指代全部音素的垃圾音素;根据预先设定的唤醒词,构建与所述唤醒词相似的反唤醒词;根据所述垃圾音素、所述反唤醒词和所述唤醒词构建解码网络;利用所述解码网络进行语音唤醒。
为了实现上述实施例,本发明还提出一种计算机程序产品,当所述计算机程序产品中的指令由处理器执行时,执行一种基于人工智能的语音唤醒方法,所述方法包括:对各音素进行聚类,以选取出用于指代全部音素的垃圾音素;根据预先设定的唤醒词,构建与所述唤醒词相似的反唤醒词;根据所述垃圾音素、所述反唤醒词和所述唤醒词构建解码网络;利用所述解码网络进行语音唤醒。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现定制逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本发明的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本发明的实施例所属技术领域的技术人员所理解。
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,"计算机可读介质"可以是任何可以包含、存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用的装置。计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式光盘只读存储器(CDROM)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。如,如果用硬件来实现和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本发明各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
上述提到的存储介质可以是只读存储器,磁盘或光盘等。尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。
Claims (16)
1.一种基于人工智能的语音唤醒方法,其特征在于,包括以下步骤:
对各音素进行聚类,以选取出用于指代全部音素的垃圾音素;
根据预先设定的唤醒词,构建与所述唤醒词相似的反唤醒词;
根据所述垃圾音素、所述反唤醒词和所述唤醒词构建解码网络;
利用所述解码网络进行语音唤醒。
2.根据权利要求1所述的基于人工智能的语音唤醒方法,其特征在于,所述对各音素进行聚类,以选取出用于指代全部音素的垃圾音素,包括:
获取各个音素和各个音素对应的状态;
在各个音素中随机选取目标音素,并将所述目标音素添加到垃圾音素集合中;
以所述目标音素作为起点,在各个音素中查询与所述目标音素距离最远的音素,并将所查询到的音素添加到所述垃圾音素集合中;
将所查询到的音素作为所述目标音素,循环执行所述以所述目标音素作为起点,在各个音素中查询与所述目标音素距离最远的音素,并将所查询到的音素添加到所述垃圾音素集合中的过程,直至所述垃圾音素集合中的音素数量为预设的第一数量。
3.根据权利要求2所述的基于人工智能的语音唤醒方法,其特征在于,所述获取各个音素和各个音素对应的状态包括:
针对每一个音素,利用混合高斯模型对所述音素的各状态进行拟合,得到所述音素的混合高斯模型;
采用多个语音的样本和语音的标注对所得到的各音素的混合高斯模型进行参数优化;
根据各混合高斯模型之间,优化后参数的相似度,对各音素的混合高斯模型进行排序,得到对应的所述各个音素,以及各个音素的状态。
4.根据权利要求2所述的基于人工智能的语音唤醒方法,其特征在于,所述以所述目标音素作为起点,在各个音素中查询与所述目标音素距离最远的音素,包括:
根据公式S=(SM1-SN1)2+(SM2-SN2)2+(SM3-SN3)2计算所述目标音素PM与各音素PN之间的距离S;其中,SM1、SM2和SM3分别为所述目标音素PM的三个状态,SN1、SN2和SN3分别为所述音素PN的三个状态;
根据所计算出的距离S,选取S取值最大的音素。
5.根据权利要求1-4任一项所述的基于人工智能的语音唤醒方法,其特征在于,所述对各音素进行聚类,以选取出用于指代全部音素的垃圾音素之后,还包括:
利用各个音素,对多个样本语音分别进行识别,以得到匹配中的音素;
从匹配中的音素中,选取匹配数量排序为前第二数量的音素,作为筛选集合;
根据所述筛选集合对所述垃圾音素进行筛选,保留处于所述筛选集合中的垃圾音素。
6.根据权利要求1-4任一项所述的基于人工智能的语音唤醒方法,其特征在于,所述根据预先设定的唤醒词,构建与所述唤醒词相似的反唤醒词,包括:
从与所述唤醒词发音相似的词语列表中,选取字数少于所述唤醒词字数的音近词;
将所述唤醒词中的部分字与所述音近词组合,以构建所述反唤醒词。
7.根据权利要求1-4任一项所述的基于人工智能的语音唤醒方法,其特征在于,所述利用所述解码网络进行语音唤醒,包括:
对输入的用户语音提取声学特征;
将所提取到的声学特征输入所述解码网络,以采用动态规划算法,在所述解码网络中计算得到为最优路径的识别结果;
根据识别结果,对终端进行唤醒。
8.根据权利要求7所述的基于人工智能的语音唤醒方法,其特征在于,所述解码网络中计算得到为最优路径的识别结果之后,还包括:
根据用户语音中的每一帧在所述解码网络中计算得到的最优路径的得分,计算所述用户语音的平均分值;
根据所述唤醒词中的每一帧在所述解码网络中计算得到的最优路径的得分,计算所述唤醒词的平均分值;
若所述唤醒词的平均分值减去所述用户语音的平均分值所获得的差值大于预设阈值,判定所述识别结果有效。
9.一种基于人工智能的语音唤醒装置,其特征在于,包括:
第一选取模块,用于对各音素进行聚类,以选取出用于指代全部音素的垃圾音素;
第二选取模块,用于根据预先设定的唤醒词,构建与所述唤醒词相似的反唤醒词;
构建模块,用于根据所述垃圾音素、所述反唤醒词和所述唤醒词构建解码网络;
唤醒模块,用于利用所述解码网络进行语音唤醒。
10.根据权利要求9所述的基于人工智能的语音唤醒装置,其特征在于,所述第一选取模块,包括:
获取单元,用于获取各个音素和各个音素对应的状态;
选取单元,用于在各个音素中随机选取目标音素,并将所述目标音素添加到垃圾音素集合中;
计算单元,用于以所述目标音素作为起点,在各个音素中查询与所述目标音素距离最远的音素,并将所查询到的音素添加到所述垃圾音素集合中;
生成单元,用于将所查询到的音素作为所述目标音素,循环执行所述以所述目标音素作为起点,在各个音素中查询与所述目标音素距离最远的音素,并将所查询到的音素添加到所述垃圾音素集合中的过程,直至所述垃圾音素集合中的音素数量为预设的第一数量。
11.根据权利要求10所述的基于人工智能的语音唤醒装置,其特征在于,
所述获取单元,具体用于针对每一个音素,利用混合高斯模型对所述音素的各状态进行拟合,得到所述音素的混合高斯模型;采用多个语音的样本和语音的标注对所得到的各音素的混合高斯模型进行参数优化;根据各混合高斯模型之间,优化后参数的相似度,对各音素的混合高斯模型进行排序,得到对应的所述各个音素,以及各个音素的状态。
12.根据权利要求10所述的基于人工智能的语音唤醒装置,其特征在于,
所述计算单元,具体用于根据公式S=(SM1-SN1)2+(SM2-SN2)2+(SM3-SN3)2计算所述目标音素PM与各音素PN之间的距离S;其中,SM1、SM2和SM3分别为所述目标音素PM的三个状态,SN1、SN2和SN3分别为所述音素PN的三个状态;根据所计算出的距离S,选取S取值最大的音素。
13.根据权利要求9-12任一项所述的基于人工智能的语音唤醒装置,其特征在于,所述装置,还包括:
筛选模块,用于利用各个音素,对多个样本语音分别进行识别,以得到匹配中的音素;从匹配中的音素中,选取匹配数量排序为前第二数量的音素,作为筛选集合;根据所述筛选集合对所述垃圾音素进行筛选,保留处于所述筛选集合中的垃圾音素。
14.根据权利要求9-12任一项所述的基于人工智能的语音唤醒装置,其特征在于,
所述第二选取模块,具体用于从与所述唤醒词发音相似的词语列表中,选取字数少于所述唤醒词字数的音近词;将所述唤醒词中的部分字与所述音近词组合,以构建所述反唤醒词。
15.根据权利要求9-12任一项所述的基于人工智能的语音唤醒装置,其特征在于,所述唤醒模块,包括:
提取单元,用于对输入的用户语音提取声学特征;
识别单元,用于将所提取到的声学特征输入所述解码网络,以采用动态规划算法,在所述解码网络中计算得到为最优路径的识别结果;
唤醒单元,用于根据识别结果,对终端进行唤醒。
16.根据权利要求15所述的基于人工智能的语音唤醒装置,其特征在于,所述唤醒模块,还包括:
置信单元,用于根据用户语音中的每一帧在所述解码网络中计算得到的最优路径的得分,计算所述用户语音的平均分值;根据所述唤醒词中的每一帧在所述解码网络中计算得到的最优路径的得分,计算所述唤醒词的平均分值;若所述唤醒词的平均分值减去所述用户语音的平均分值所获得的差值大于预设阈值,判定所述识别结果有效。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611248513.XA CN106653022B (zh) | 2016-12-29 | 2016-12-29 | 基于人工智能的语音唤醒方法和装置 |
US15/624,595 US10325593B2 (en) | 2016-12-29 | 2017-06-15 | Method and device for waking up via speech based on artificial intelligence |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611248513.XA CN106653022B (zh) | 2016-12-29 | 2016-12-29 | 基于人工智能的语音唤醒方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106653022A true CN106653022A (zh) | 2017-05-10 |
CN106653022B CN106653022B (zh) | 2020-06-23 |
Family
ID=58837230
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201611248513.XA Active CN106653022B (zh) | 2016-12-29 | 2016-12-29 | 基于人工智能的语音唤醒方法和装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US10325593B2 (zh) |
CN (1) | CN106653022B (zh) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107591151A (zh) * | 2017-08-22 | 2018-01-16 | 百度在线网络技术(北京)有限公司 | 远场语音唤醒方法、装置和终端设备 |
CN107610695A (zh) * | 2017-08-08 | 2018-01-19 | 问众智能信息科技(北京)有限公司 | 驾驶人语音唤醒指令词权重的动态调整方法 |
CN108198548A (zh) * | 2018-01-25 | 2018-06-22 | 苏州奇梦者网络科技有限公司 | 一种语音唤醒方法及其系统 |
CN108899014A (zh) * | 2018-05-31 | 2018-11-27 | 中国联合网络通信集团有限公司 | 语音交互设备唤醒词生成方法及装置 |
CN108932944A (zh) * | 2017-10-23 | 2018-12-04 | 北京猎户星空科技有限公司 | 解码方法及装置 |
CN110428811A (zh) * | 2019-09-17 | 2019-11-08 | 北京声智科技有限公司 | 一种数据处理方法、装置及电子设备 |
CN111128134A (zh) * | 2018-10-11 | 2020-05-08 | 阿里巴巴集团控股有限公司 | 声学模型训练方法和语音唤醒方法、装置及电子设备 |
CN111554289A (zh) * | 2020-04-27 | 2020-08-18 | 河北雄安中税盟科技股份有限公司 | 一种智能语音交互方法与存储介质 |
CN113160802A (zh) * | 2021-03-12 | 2021-07-23 | 北京声智科技有限公司 | 语音处理方法、装置、设备及存储介质 |
CN113436629A (zh) * | 2021-08-27 | 2021-09-24 | 中国科学院自动化研究所 | 语音控制方法、装置、电子设备及存储介质 |
CN113707132A (zh) * | 2021-09-08 | 2021-11-26 | 北京声智科技有限公司 | 一种唤醒方法及电子设备 |
CN114333799A (zh) * | 2022-03-09 | 2022-04-12 | 深圳市友杰智新科技有限公司 | 相近音误识别的检测方法、装置和计算机设备 |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107134279B (zh) * | 2017-06-30 | 2020-06-19 | 百度在线网络技术(北京)有限公司 | 一种语音唤醒方法、装置、终端和存储介质 |
US20190237069A1 (en) * | 2018-01-31 | 2019-08-01 | GM Global Technology Operations LLC | Multilingual voice assistance support |
CN108665900B (zh) | 2018-04-23 | 2020-03-03 | 百度在线网络技术(北京)有限公司 | 云端唤醒方法及系统、终端以及计算机可读存储介质 |
KR20200059054A (ko) * | 2018-11-20 | 2020-05-28 | 삼성전자주식회사 | 사용자 발화를 처리하는 전자 장치, 및 그 전자 장치의 제어 방법 |
US10978069B1 (en) * | 2019-03-18 | 2021-04-13 | Amazon Technologies, Inc. | Word selection for natural language interface |
CN110910885B (zh) * | 2019-12-12 | 2022-05-27 | 思必驰科技股份有限公司 | 基于解码网络的语音唤醒方法和装置 |
CN111951784B (zh) * | 2020-08-25 | 2023-05-23 | 睿云联(厦门)网络通讯技术有限公司 | 语音识别中垃圾词的生成方法及装置、介质、电子设备 |
Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0981181A (ja) * | 1995-09-11 | 1997-03-28 | Atr Onsei Honyaku Tsushin Kenkyusho:Kk | 音声認識装置 |
JPH09127978A (ja) * | 1995-11-01 | 1997-05-16 | Canon Inc | 音声認識方法及び装置及びコンピュータ制御装置 |
CN1452156A (zh) * | 2002-04-17 | 2003-10-29 | 日本先锋公司 | 语音识别设备和方法以及记录了语音识别程序的记录媒体 |
CN1639768A (zh) * | 2002-08-01 | 2005-07-13 | 艾利森电话股份有限公司 | 自动语音识别方法 |
KR100776729B1 (ko) * | 2006-08-29 | 2007-11-19 | 울산대학교 산학협력단 | 결정 트리 기반의 상태 군집화 방법을 사용하는 비핵심어모델링부를 포함하는 화자독립 가변어휘 핵심어 검출시스템 및 그 방법 |
CN101755301A (zh) * | 2007-07-18 | 2010-06-23 | 斯沃克斯公司 | 用于语音识别的方法 |
CN102982811A (zh) * | 2012-11-24 | 2013-03-20 | 安徽科大讯飞信息科技股份有限公司 | 一种基于实时解码的语音端点检测方法 |
CN102999161A (zh) * | 2012-11-13 | 2013-03-27 | 安徽科大讯飞信息科技股份有限公司 | 一种语音唤醒模块的实现方法及应用 |
US20130339028A1 (en) * | 2012-06-15 | 2013-12-19 | Spansion Llc | Power-Efficient Voice Activation |
CN104143328A (zh) * | 2013-08-15 | 2014-11-12 | 腾讯科技(深圳)有限公司 | 一种关键词检测方法和装置 |
CN104219388A (zh) * | 2014-08-28 | 2014-12-17 | 小米科技有限责任公司 | 语音控制方法和装置 |
WO2015171154A1 (en) * | 2014-05-09 | 2015-11-12 | Nuance Communications, Inc. | Methods and apparatus for speech recognition using a garbage model |
CN105096939A (zh) * | 2015-07-08 | 2015-11-25 | 百度在线网络技术(北京)有限公司 | 语音唤醒方法和装置 |
CN105321518A (zh) * | 2014-08-05 | 2016-02-10 | 中国科学院声学研究所 | 一种低资源嵌入式语音识别的拒识方法 |
CN105632487A (zh) * | 2015-12-31 | 2016-06-01 | 北京奇艺世纪科技有限公司 | 一种语音识别方法和装置 |
CN105654943A (zh) * | 2015-10-26 | 2016-06-08 | 乐视致新电子科技(天津)有限公司 | 一种语音唤醒方法、装置及系统 |
CN105869637A (zh) * | 2016-05-26 | 2016-08-17 | 百度在线网络技术(北京)有限公司 | 语音唤醒方法和装置 |
-
2016
- 2016-12-29 CN CN201611248513.XA patent/CN106653022B/zh active Active
-
2017
- 2017-06-15 US US15/624,595 patent/US10325593B2/en active Active
Patent Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0981181A (ja) * | 1995-09-11 | 1997-03-28 | Atr Onsei Honyaku Tsushin Kenkyusho:Kk | 音声認識装置 |
JPH09127978A (ja) * | 1995-11-01 | 1997-05-16 | Canon Inc | 音声認識方法及び装置及びコンピュータ制御装置 |
CN1452156A (zh) * | 2002-04-17 | 2003-10-29 | 日本先锋公司 | 语音识别设备和方法以及记录了语音识别程序的记录媒体 |
CN1639768A (zh) * | 2002-08-01 | 2005-07-13 | 艾利森电话股份有限公司 | 自动语音识别方法 |
KR100776729B1 (ko) * | 2006-08-29 | 2007-11-19 | 울산대학교 산학협력단 | 결정 트리 기반의 상태 군집화 방법을 사용하는 비핵심어모델링부를 포함하는 화자독립 가변어휘 핵심어 검출시스템 및 그 방법 |
CN101755301A (zh) * | 2007-07-18 | 2010-06-23 | 斯沃克斯公司 | 用于语音识别的方法 |
US20130339028A1 (en) * | 2012-06-15 | 2013-12-19 | Spansion Llc | Power-Efficient Voice Activation |
CN102999161A (zh) * | 2012-11-13 | 2013-03-27 | 安徽科大讯飞信息科技股份有限公司 | 一种语音唤醒模块的实现方法及应用 |
CN102982811A (zh) * | 2012-11-24 | 2013-03-20 | 安徽科大讯飞信息科技股份有限公司 | 一种基于实时解码的语音端点检测方法 |
CN104143328A (zh) * | 2013-08-15 | 2014-11-12 | 腾讯科技(深圳)有限公司 | 一种关键词检测方法和装置 |
WO2015171154A1 (en) * | 2014-05-09 | 2015-11-12 | Nuance Communications, Inc. | Methods and apparatus for speech recognition using a garbage model |
CN105321518A (zh) * | 2014-08-05 | 2016-02-10 | 中国科学院声学研究所 | 一种低资源嵌入式语音识别的拒识方法 |
CN104219388A (zh) * | 2014-08-28 | 2014-12-17 | 小米科技有限责任公司 | 语音控制方法和装置 |
CN105096939A (zh) * | 2015-07-08 | 2015-11-25 | 百度在线网络技术(北京)有限公司 | 语音唤醒方法和装置 |
CN105654943A (zh) * | 2015-10-26 | 2016-06-08 | 乐视致新电子科技(天津)有限公司 | 一种语音唤醒方法、装置及系统 |
CN105632487A (zh) * | 2015-12-31 | 2016-06-01 | 北京奇艺世纪科技有限公司 | 一种语音识别方法和装置 |
CN105869637A (zh) * | 2016-05-26 | 2016-08-17 | 百度在线网络技术(北京)有限公司 | 语音唤醒方法和装置 |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107610695A (zh) * | 2017-08-08 | 2018-01-19 | 问众智能信息科技(北京)有限公司 | 驾驶人语音唤醒指令词权重的动态调整方法 |
CN107591151A (zh) * | 2017-08-22 | 2018-01-16 | 百度在线网络技术(北京)有限公司 | 远场语音唤醒方法、装置和终端设备 |
CN108932944B (zh) * | 2017-10-23 | 2021-07-30 | 北京猎户星空科技有限公司 | 解码方法及装置 |
CN108932944A (zh) * | 2017-10-23 | 2018-12-04 | 北京猎户星空科技有限公司 | 解码方法及装置 |
CN108198548A (zh) * | 2018-01-25 | 2018-06-22 | 苏州奇梦者网络科技有限公司 | 一种语音唤醒方法及其系统 |
CN108899014B (zh) * | 2018-05-31 | 2021-06-08 | 中国联合网络通信集团有限公司 | 语音交互设备唤醒词生成方法及装置 |
CN108899014A (zh) * | 2018-05-31 | 2018-11-27 | 中国联合网络通信集团有限公司 | 语音交互设备唤醒词生成方法及装置 |
CN111128134A (zh) * | 2018-10-11 | 2020-05-08 | 阿里巴巴集团控股有限公司 | 声学模型训练方法和语音唤醒方法、装置及电子设备 |
CN110428811A (zh) * | 2019-09-17 | 2019-11-08 | 北京声智科技有限公司 | 一种数据处理方法、装置及电子设备 |
CN111554289A (zh) * | 2020-04-27 | 2020-08-18 | 河北雄安中税盟科技股份有限公司 | 一种智能语音交互方法与存储介质 |
CN113160802A (zh) * | 2021-03-12 | 2021-07-23 | 北京声智科技有限公司 | 语音处理方法、装置、设备及存储介质 |
CN113160802B (zh) * | 2021-03-12 | 2023-09-26 | 北京声智科技有限公司 | 语音处理方法、装置、设备及存储介质 |
CN113436629A (zh) * | 2021-08-27 | 2021-09-24 | 中国科学院自动化研究所 | 语音控制方法、装置、电子设备及存储介质 |
CN113436629B (zh) * | 2021-08-27 | 2024-06-04 | 中国科学院自动化研究所 | 语音控制方法、装置、电子设备及存储介质 |
CN113707132A (zh) * | 2021-09-08 | 2021-11-26 | 北京声智科技有限公司 | 一种唤醒方法及电子设备 |
CN113707132B (zh) * | 2021-09-08 | 2024-03-01 | 北京声智科技有限公司 | 一种唤醒方法及电子设备 |
CN114333799A (zh) * | 2022-03-09 | 2022-04-12 | 深圳市友杰智新科技有限公司 | 相近音误识别的检测方法、装置和计算机设备 |
CN114333799B (zh) * | 2022-03-09 | 2022-08-02 | 深圳市友杰智新科技有限公司 | 相近音误识别的检测方法、装置和计算机设备 |
Also Published As
Publication number | Publication date |
---|---|
US10325593B2 (en) | 2019-06-18 |
US20180190281A1 (en) | 2018-07-05 |
CN106653022B (zh) | 2020-06-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106653022A (zh) | 基于人工智能的语音唤醒方法和装置 | |
CN106611597B (zh) | 基于人工智能的语音唤醒方法和装置 | |
CN105096941B (zh) | 语音识别方法以及装置 | |
CN105529028B (zh) | 语音解析方法和装置 | |
CN102270450B (zh) | 多模型自适应和语音识别装置及其方法 | |
CN104934028B (zh) | 用于语音合成的深度神经网络模型的训练方法及装置 | |
CN105336322B (zh) | 多音字模型训练方法、语音合成方法及装置 | |
JP6189970B2 (ja) | 音/母音/音節境界検出のための聴覚的注意合図と音素事後確率スコアの組み合わせ | |
CN103971685B (zh) | 语音命令识别方法和系统 | |
CN108281137A (zh) | 一种全音素框架下的通用语音唤醒识别方法及系统 | |
CN108538293B (zh) | 语音唤醒方法、装置及智能设备 | |
CN103680497B (zh) | 基于视频的语音识别系统及方法 | |
CN105632486A (zh) | 一种智能硬件的语音唤醒方法和装置 | |
CN110827813B (zh) | 一种基于多模态特征的重音检测方法及系统 | |
CN106297777A (zh) | 一种唤醒语音服务的方法和装置 | |
CN105206258A (zh) | 声学模型的生成方法和装置及语音合成方法和装置 | |
CN110176230B (zh) | 一种语音识别方法、装置、设备和存储介质 | |
CN110060693A (zh) | 模型训练方法、装置、电子设备及存储介质 | |
CN108899013A (zh) | 语音搜索方法、装置和语音识别系统 | |
DE112020002531T5 (de) | Emotionsdetektion unter verwendung der sprechergrundlinie | |
CN106504768A (zh) | 基于人工智能的电话拨测音频分类方法及装置 | |
CN107071193A (zh) | 互动应答系统接入用户的方法和装置 | |
CN102404278A (zh) | 一种基于声纹识别的点歌系统及其应用方法 | |
CN107526826A (zh) | 语音搜索处理方法、装置及服务器 | |
CN103632668B (zh) | 一种基于中文语音信息训练英文语音模型的方法与设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |