CN113327609B - 用于语音识别的方法和装置 - Google Patents
用于语音识别的方法和装置 Download PDFInfo
- Publication number
- CN113327609B CN113327609B CN202110684737.XA CN202110684737A CN113327609B CN 113327609 B CN113327609 B CN 113327609B CN 202110684737 A CN202110684737 A CN 202110684737A CN 113327609 B CN113327609 B CN 113327609B
- Authority
- CN
- China
- Prior art keywords
- voice
- section
- speech
- keyword
- keywords
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 54
- 238000004458 analytical method Methods 0.000 claims abstract description 29
- 230000004044 response Effects 0.000 claims abstract description 10
- 238000004590 computer program Methods 0.000 claims description 9
- 238000004364 calculation method Methods 0.000 claims description 3
- 230000003993 interaction Effects 0.000 abstract description 11
- 230000008569 process Effects 0.000 abstract description 5
- 238000010586 diagram Methods 0.000 description 12
- 238000012545 processing Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L2015/088—Word spotting
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Machine Translation (AREA)
- Telephonic Communication Services (AREA)
- Telephone Function (AREA)
Abstract
本公开的实施例公开了用于语音识别的方法和装置。该方法的一具体实施方式包括:响应于接收到第一段语音,将第一段语音与预定的关键词集合进行匹配;在所述匹配的结果为成功的情况下,继续接收第二段语音;将第一段语音和第二段语音合并后进行语音识别得到语音识别结果文本;将语音识别结果文本进行语义分析得到语音指令;若语音指令与匹配的关键词属于同一语义领域,则执行语音指令。该实施方式可以将传统语音交互要两次完成的动作降低为一次。语音识别过程结合语义,从而有效压制了误触发。
Description
相关申请的交叉引用
本申请为申请日为2019年4月23日,申请号为201910329635.9,发明名称为“用于语音识别的方法和装置”的中国专利申请的分案申请。
技术领域
本公开的实施例涉及计算机技术领域,具体涉及用于语音识别的方法和装置。
背景技术
传统的语音识别人机交互方案都是需要先说一个关键词来进行唤醒,确定用户有明确意向后,再打开语音识别的二次人机对话系统。这种方式通过前置一个离线的关键词识别,有效解决了通用语音识别CPU占用高、耗费用户流量等问题,然而,这种方式也带来了问题,即每次识别都是需要先唤醒一次,以一个真正的人工智能产品而论,还是显得很呆板,不够智能化。一个真正的人工智能语音助手,应该是要能随时听懂用户的话,直达用户所需。
发明内容
本公开的实施例提出了用于语音识别的方法和装置。
第一方面,本公开的实施例提供了一种用于语音识别的方法,包括:响应于接收到第一段语音,将第一段语音与预定的关键词集合进行匹配;在所述匹配的结果为成功的情况下,继续接收第二段语音;将第一段语音和第二段语音合并后进行语音识别得到语音识别结果文本;将语音识别结果文本进行语义分析得到语音指令;若语音指令与匹配的关键词属于同一语义领域,则执行语音指令。
在一些实施例中,将第一段语音与预定的关键词集合进行匹配,包括:将第一段语音转换成文字信息;将文字信息与文本形式的预定的关键词集合进行匹配。
在一些实施例中,该方法还包括:若语音指令与匹配的关键词不属于同一语义领域,则丢弃语音指令。
在一些实施例中,预定的关键词集合是通过提取超过预定频次的语音指令的公共前缀词得到的。
在一些实施例中,关键词集合中关键词的长度小于4。
第二方面,本公开的实施例提供了一种用于语音识别的装置,包括:匹配单元,被配置成响应于接收到第一段语音,将第一段语音与预定的关键词集合进行匹配;识别单元,被配置成在所述匹配的结果为成功的情况下,继续接收第二段语音;将第一段语音和第二段语音合并后进行语音识别得到语音识别结果文本;分析单元,被配置成将语音识别结果文本进行语义分析得到语音指令;执行单元,被配置成若语音指令与匹配的关键词属于同一语义领域,则执行语音指令。
在一些实施例中,匹配单元进一步被配置成:将第一段语音转换成文字信息;将文字信息与文本形式的预定的关键词集合进行匹配。
在一些实施例中,执行单元进一步被配置成:若语音指令与匹配的关键词不属于同一语义领域,则丢弃语音指令。
在一些实施例中,预定的关键词集合是通过提取超过预定频次的语音指令的公共前缀词得到的。
在一些实施例中,关键词集合中关键词的长度小于4。
第三方面,本公开的实施例提供了一种电子设备,包括:一个或多个处理器;存储装置,其上存储有一个或多个程序,当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如第一方面中任一的方法。
第四方面,本公开的实施例提供了一种计算机可读介质,其上存储有计算机程序,其中,程序被处理器执行时实现如第一方面中任一的方法。
本公开的实施例提供的用于语音识别的方法和装置,通过抽取一批用户高频使用的指令,提取出共同的关键信息,比如导航类指令,本公开可以针对指定的语义领域指令,可以将传统语音交互要两次完成的动作降低为一次,克服了传统交互方式的呆板、生硬,增加了语音系统的智能性。结合语义,有效压制了误触发,可从10次/小时降低到0.5次/小时。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本公开的其它特征、目的和优点将会变得更明显:
图1是本公开的一个实施例可以应用于其中的示例性系统架构图;
图2是根据本公开的用于语音识别的方法的一个实施例的流程图;
图3是根据本公开的用于语音识别的方法的一个应用场景的示意图;
图4是根据本公开的用于语音识别的方法的又一个实施例的流程图;
图5是根据本公开的用于语音识别的装置的一个实施例的结构示意图;
图6是适于用来实现本公开的实施例的电子设备的计算机系统的结构示意图。
具体实施方式
下面结合附图和实施例对本公开作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本公开。
图1示出了可以应用本公开的用于语音识别的方法或用于语音识别的装置的实施例的示例性系统架构100。
如图1所示,系统架构100可以包括麦克风101、控制器102、语音识别服务器103、语义理解服务器104。网络用以在控制器102、语音识别服务器103、语义理解服务器104之间提供通信链路的介质。网络可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用麦克风101向控制器102输入语音。然后控制器102通过网络与语音识别服务器103、语义理解服务器104交互,以接收或发送消息等。麦克风101可以是安装在无人车等移动装置上的语音输入设备,麦克风101还可以是手机、电脑等的内置设备。控制器可以是车载设备也可以是手机、电脑等的内置设备。控制器102具有接收和发送信息的功能。
语音识别服务器103,用于接收控制器102发送的语音,并将语音中的词汇内容转换为计算机可读的输入,例如按键、二进制编码或者字符序列。与说话人识别及说话人确认不同,后者尝试识别或确认发出语音的说话人而非其中所包含的词汇内容。语音识别服务器102上安装有语音识别系统。语音识别系统一般分训练和解码两阶段。训练,即通过大量标注的语音数据训练声学模型。解码,即通过声学模型和语言模型将训练集外的语音数据识别成文字,训练的声学模型好坏直接影响识别的精度。
语义理解服务器103,用于接收控制器102发送的文字结果,并根据文字结果进行语义分析。语义分析指运用各种方法,学习与理解一段文本所表示的语义内容,任何对语言的理解都可以归为语义分析的范畴。一段文本通常由词、句子和段落来构成,根据理解对象的语言单位不同,语义分析又可进一步分解为词汇级语义分析、句子级语义分析以及篇章级语义分析。一般来说,词汇级语义分析关注的是如何获取或区别单词的语义,句子级语义分析则试图分析整个句子所表达的语义,而篇章语义分析旨在研究自然语言文本的内在结构并理解文本单元(可以是句子从句或段落)间的语义关系。简单地讲,语义分析的目标就是通过建立有效的模型和系统,实现在各个语言单位(包括词汇、句子和篇章等)的自动语义分析,从而实现理解整个文本表达的真实语义。
需要说明的是,语音识别服务器103、语义理解服务器104可以是硬件,也可以是软件。当服务器为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当服务器为软件时,可以实现成多个软件或软件模块(例如用来提供分布式服务的多个软件或软件模块),也可以实现成单个软件或软件模块。在此不做具体限定。
需要说明的是,本公开的实施例所提供的用于语音识别的方法一般由控制器102执行,相应地,用于语音识别的装置一般设置于控制器102中。
应该理解,图1中的麦克风、控制器、语音识别服务器、语义理解服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的麦克风、控制器、语音识别服务器、语义理解服务器。
继续参考图2,示出了根据本公开的用于语音识别的方法的一个实施例的流程200。该用于语音识别的方法,包括以下步骤:
步骤201,响应于接收到第一段语音,将第一段语音与预定的关键词集合进行匹配。
在本实施例中,用于识别语音的方法的执行主体(例如图1所示的控制器)可以通过有线连接方式或者无线连接方式从麦克风实时获取连续的语音帧。可采用现有的语音唤醒技术将第一段语音与预定的关键词集合进行匹配。
这里的第一段语音指的是语音起点之后的语音帧。第一段语音和第二段语音之间可以存在停顿。可预先约定用户说出关键词后稍微停顿一下,这样方便检测出第一段语音后整体进行语音识别匹配。还可实时将每个语音帧与关键词进行匹配,直到匹配到完整的关键词,所使用的语音帧即为第一段语音。这里涉及语音端点检测技术,语音端点检测技术是指在噪声环境中检测出人在开始说话到说话结束的一段语音,即检测人说一句话的起点和尾点。每一次的语音识别流程中,在语音识别引擎开始处理之前,需要通过语音端点检测技术来对语音数据进行切分。每获取到一个语音帧就计算该语音帧的平均能量,然后将该语音帧的平均能量和预设的起点门限进行比较。如果该语音帧的平均能量大于预设的起点门限,则认为该语音帧为待识别的语音的起始帧。将从起始帧开始包括之后的语音帧实时发送给识别引擎,得到语音识别的中间识别结果。而不是等到检测到尾点后才将从起点到尾点的一段语音一起发给识别引擎。识别引擎用于进行语音识别,得到文字结果。识别引擎可以是本地的,也可以是云端的。语音识别的过程包括:输入语音、语音端点检测、提取声学特征、信号处理、识别网络匹配、识别解码、置信度判决、识别文本结果。
预定的关键词集合可以是预先录制的语音形式的关键词集合(例如,“我要去/我要听/打电话给”),还可以是文本形式的关键词集合。对于语音形式的关键词集合,可预先提取出语音形式的各关键词的声纹特征,然后将第一段语音的声纹特征与语音形式的各关键词的声纹特征进行相似度计算,如果第一段语音的声纹特征与某个关键词的声纹特征之间的相似度大于预定相似度阈值,则认为第一段语音与该关键词匹配成功。如果在关键词集合中找不到与第一段语音相似度大于预定相似度阈值的关键词,则认为匹配失败,不执行步骤202-204,而是继续检测语音,等待与关键词匹配的语音出现。
在本实施例的一些可选的实现方式中,将第一段语音与预定的关键词集合进行匹配,包括:将第一段语音转换成文字信息;将文字信息与文本形式的预定的关键词集合进行匹配。可在本地或者云端将第一段语音转换成文字信息。然后再将文字信息与文本形式的预定的关键词集合进行匹配。即进行文字的相似度计算,如果第一段语音转换后的文字信息与某个关键词的文字信息之间的相似度大于预定相似度阈值,则认为第一段语音与该关键词匹配成功。
步骤202,在匹配的结果为成功的情况下,继续接收第二段语音,将第一段语音和第二段语音合并后进行语音识别得到语音识别结果文本。
在本实施例中,第二段语音是检测到关键词之后的语音帧。第二段语音的起始帧为第一段语音的尾点语音帧,第二段语音的尾点为平均能量小于预设的尾点门限的语音帧。每获取到第一个语音帧之后的语音帧就计算该语音帧的平均能量,然后将该语音帧的平均能量和预设的尾点门限进行比较。如果该语音帧的平均能量小于预设的尾点门限,则认为该语音帧是尾点语音帧。此时还不能认为这段语音已经结束,可能只是短暂的停顿而已。因此会设置一个尾点超时时间,在尾点超时时间如果没出现平均能量大于尾点门限的语音帧,则说明这段语还结束,得到了第二段语音。可将第一段语音和第二段语音合并后进行语音识别得到语音识别结果文本。例如,第一段语音为“我要去”,第二段语音为“故宫”,则合并后的进行语音识别得到语音识别结果文本为“我要去故宫”。
步骤203,将语音识别结果文本进行语义分析得到语音指令。
在本实施例中,可将语音识别结果文本发送到语义理解服务器进行语义分析得到语音指令。例如,对“我要去故宫”进行分析得到语音指令“开始导航,目的地为故宫”。
步骤204,若语音指令与匹配的关键词属于同一语义领域,则执行语音指令。
在本实施例中,预先为关键词集合中的关键词划分好语义领域,例如,“我要去”的语义领域为导航。“我要听”的语义领域为播放音乐,“打电话给”的语义领域为拨打电话。完成以上步骤后,就可以实现一次交互即可直达用户所求。然而,光这样做还不够,传统语音交互系统的关键词要求至少四个字,每个字之间要求区分度比较大,这样做,可以保证唤醒率足够高的情况下,误唤醒率也压制的很好。而本申请对关键词的限制进行了突破,针对常用的高频指令我们提取出前缀词—“我要去/我要听/打电话给”,将这批前缀词同时作为关键词触发条件,加之三个字的关键词比四个字更容易被误触发,这两个因素增加了误触发的风险。为了压制误触发,本申请结合语义进行判断,一旦发生触发,语音文本结果会被发送到自然语言理解模块,解析出语义后,我们可以根据语义判别是否为我们预设的关键语义领域。如果是,则通知人机接口层进行相应的展示或语音播报。如果不是,则在后台丢弃这次结果,重新开始关键词监听,对于用户而言,这些动作完全是无感的。事实证明,这种做法是很有必要的,如果没有这种语义判断,误触发是10次/小时;进行压制后,0.5次/小时。
可选地,如果语音指令与匹配的关键词不属于同一语义领域,则丢弃语音指令。例如,匹配的关键词为“打电话”,而识别出的语音指令为“导航目的地为西直门”,它们不属于同一语义领域,出现了误触发,因此舍弃该语音指令,不执行。
继续参见图3,图3是根据本实施例的用于语音识别的方法的应用场景的一个示意图。在图3的应用场景中,控制器实时检测语音,当检测到语音起点时,将接收到的语音帧不断地与关键词集合进行匹配,匹配到关键词“我要去”。当关键词被触发后,传统语音交互是启动通用语音识别并重新开始录音,本公开也是在此时启动通用语音识别,所不同的是,本公开会将关键词识别阶段的录音复用起来,并继续录音。录音复用的方法是,将语音包的指针回溯到关键词识别的起点,确保关键词—“我要去/我要听/打电话给”—的录音完全被送到通用语音识别引擎处理。将得到的语音识别结果文本进行语义分析,得到有意义语义,即语音指令。如果语音指令与匹配的关键词属于同一语义领域,则通过人机接口执行语音指令。
本公开的上述实施例提供的方法通过针对指定的语义领域指令,可以将传统语音交互要两次完成的动作降低为一次,克服了传统交互方式的呆板、生硬,增加了语音系统的智能性。结合语义,有效压制了误触发。
进一步参考图4,其示出了用于语音识别的方法的又一个实施例的流程400。该用于语音识别的方法的流程400,包括以下步骤:
步骤401,提取超过预定频次的语音指令的公共前缀词生成预定的关键词集合。
在本实施例中,用于识别语音的方法的执行主体(例如图1所示的控制器)可以从已经执行过的语音指令中提取超过预定频次的语音指令的公共前缀词生成预定的关键词集合。例如,公共前缀词“我要去”出现1300次(预定频次为10),则可将“我要去”添加到关键词集合中。传统语音交互是以固定的关键词来作为触发条件,缺点是过于呆板,让人机交互变得很生硬,每次交互都必须先说一句“小度小度”或者其他的唤醒词。而本公开中通过预设高频语义领域的关键词信息,直接将“我要去/我要听/打电话给XXX”等一批高频指令的公共前缀词提取出来,作为关键词进行语音监测。
通过公共前缀词提取出来的关键词的长度通常小于4,并且对每个字的区分度不作要求。后续再通过语义判别来抑制误触发。
步骤402,响应于接收到第一段语音,将第一段语音与预定的关键词集合进行匹配。
步骤403,在匹配的结果为成功的情况下,继续接收第二段语音,将第一段语音和第二段语音合并后进行语音识别得到语音识别结果文本。
步骤404,将语音识别结果文本进行语义分析得到语音指令。
步骤405,若语音指令与匹配的关键词属于同一语义领域,则执行语音指令。
步骤402-405与步骤201-204基本相同,因此不再赘述。
从图4中可以看出,与图2对应的实施例相比,本实施例中的用于语音识别的方法的流程400体现了生成关键词的步骤。由此,本实施例描述的方案可以引入更多的关键词相关数据,从而实现更全面的语音指令检测并减少语音交互次数。
进一步参考图5,作为对上述各图所示方法的实现,本公开提供了一种用于语音识别的装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图5所示,本实施例的用于语音识别的装置500包括:匹配单元501、识别单元502、分析单元503和执行单元504。其中,匹配单元501,被配置成响应于接收到第一段语音,将第一段语音与预定的关键词集合进行匹配;识别单元502,被配置成在匹配的结果为成功的情况下,继续接收第二段语音。将第一段语音和第二段语音合并后进行语音识别得到语音识别结果文本;分析单元503,被配置成将语音识别结果文本进行语义分析得到语音指令;执行单元504,被配置成若语音指令与匹配的关键词属于同一语义领域,则执行语音指令。
在本实施例中,用于语音识别的装置500的匹配单元501、识别单元502、分析单元503和执行单元504的具体处理可以参考图2对应实施例中的步骤201、步骤202、步骤203、步骤204。
在本实施例的一些可选的实现方式中,匹配单元501进一步被配置成:将第一段语音转换成文字信息;将文字信息与文本形式的预定的关键词集合进行匹配。
在本实施例的一些可选的实现方式中,执行单元504进一步被配置成:若语音指令与匹配的关键词不属于同一语义领域,则丢弃语音指令。
在本实施例的一些可选的实现方式中,预定的关键词集合是通过提取超过预定频次的语音指令的公共前缀词得到的。
在本实施例的一些可选的实现方式中,关键词集合中关键词的长度小于4。
下面参考图6,其示出了适于用来实现本公开的实施例的电子设备(例如图1中的控制器)600的结构示意图。图6示出的控制器仅仅是一个示例,不应对本公开的实施例的功能和使用范围带来任何限制。
如图6所示,电子设备600可以包括处理装置(例如中央处理器、图形处理器等)601,其可以根据存储在只读存储器(ROM)602中的程序或者从存储装置608加载到随机访问存储器(RAM)603中的程序而执行各种适当的动作和处理。在RAM 603中,还存储有电子设备600操作所需的各种程序和数据。处理装置601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
通常,以下装置可以连接至I/O接口605:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置606;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置607;包括例如磁带、硬盘等的存储装置608;以及通信装置609。通信装置609可以允许电子设备600与其他设备进行无线或有线通信以交换数据。虽然图6示出了具有各种装置的电子设备600,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。图6中示出的每个方框可以代表一个装置,也可以根据需要代表多个装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置609从网络上被下载和安装,或者从存储装置608被安装,或者从ROM 602被安装。在该计算机程序被处理装置601执行时,执行本公开的实施例的方法中限定的上述功能。需要说明的是,本公开的实施例所述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开的实施例中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开的实施例中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:响应于接收到第一段语音,将第一段语音与预定的关键词集合进行匹配;在匹配的结果为成功的情况下,继续接收第二段语音。将第一段语音和第二段语音合并后进行语音识别得到语音识别结果文本;将语音识别结果文本进行语义分析得到语音指令;若语音指令与匹配的关键词属于同一语义领域,则执行语音指令。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的实施例的操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开的实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括匹配单元、识别单元、分析单元和执行单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,匹配单元还可以被描述为“响应于接收到第一段语音,将所述第一段语音与预定的关键词集合进行匹配的单元”。
以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离所述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
Claims (14)
1.一种用于语音识别的方法,包括:
响应于接收到第一段语音,将所述第一段语音与预定的关键词集合进行匹配;
在所述匹配的结果为成功的情况下,继续接收第二段语音;
将所述第一段语音和所述第二段语音合并后进行语音识别得到语音识别结果文本;
将所述语音识别结果文本进行语义分析得到语音指令;
若所述语音指令与匹配的关键词不属于同一语义领域,则丢弃所述语音指令。
2.根据权利要求1所述的方法,其中,所述方法还包括:
若所述语音指令与匹配的关键词属于同一语义领域,则执行所述语音指令。
3.根据权利要求1所述的方法,其中,所述将所述第一段语音与预定的关键词集合进行匹配,包括:
将所述第一段语音转换成文字信息;
将所述文字信息与文本形式的预定的关键词集合进行匹配。
4.根据权利要求1所述的方法,其中,所述将所述第一段语音与预定的关键词集合进行匹配,包括:
将第一段语音的声纹特征与语音形式的各关键词的声纹特征进行相似度计算;
如果第一段语音的声纹特征与一个关键词的声纹特征之间的相似度大于预定相似度阈值,则认为第一段语音与该关键词匹配成功;
如果找不到与第一段语音的声纹特征相似度大于预定相似度阈值的关键词的声纹特征,则匹配失败。
5.根据权利要求1所述的方法,其中,所述预定的关键词集合是通过提取超过预定频次的语音指令的公共前缀词得到的。
6.根据权利要求1-5之一所述的方法,其中,所述关键词集合中关键词的长度小于4。
7.一种用于语音识别的装置,包括:
匹配单元,被配置成响应于接收到第一段语音,将所述第一段语音与预定的关键词集合进行匹配;
识别单元,被配置成在所述匹配的结果为成功的情况下,继续接收第二段语音;将所述第一段语音和所述第二段语音合并后进行语音识别得到语音识别结果文本;
分析单元,被配置成将所述语音识别结果文本进行语义分析得到语音指令;
执行单元,被配置成若所述语音指令与匹配的关键词不属于同一语义领域,则丢弃所述语音指令。
8.根据权利要求7所述的装置,其中,执行单元进一步被配置成:
若所述语音指令与匹配的关键词属于同一语义领域,则执行所述语音指令。
9.根据权利要求7所述的装置,其中,所述匹配单元进一步被配置成:
将所述第一段语音转换成文字信息;
将所述文字信息与文本形式的预定的关键词集合进行匹配。
10.根据权利要求7所述的装置,其中,所述匹配单元进一步被配置成:
将第一段语音的声纹特征与语音形式的各关键词的声纹特征进行相似度计算;
如果第一段语音的声纹特征与一个关键词的声纹特征之间的相似度大于预定相似度阈值,则认为第一段语音与该关键词匹配成功;
如果找不到与第一段语音的声纹特征相似度大于预定相似度阈值的关键词的声纹特征,则匹配失败。
11.根据权利要求7所述的装置,其中,所述预定的关键词集合是通过提取超过预定频次的语音指令的公共前缀词得到的。
12.根据权利要求7-11之一所述的装置,其中,所述关键词集合中关键词的长度小于4。
13.一种电子设备,包括:
一个或多个处理器;
存储装置,其上存储有一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-6中任一所述的方法。
14.一种计算机可读介质,其上存储有计算机程序,其中,所述程序被处理器执行时实现如权利要求1-6中任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110684737.XA CN113327609B (zh) | 2019-04-23 | 2019-04-23 | 用于语音识别的方法和装置 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110684737.XA CN113327609B (zh) | 2019-04-23 | 2019-04-23 | 用于语音识别的方法和装置 |
CN201910329635.9A CN110047481B (zh) | 2019-04-23 | 2019-04-23 | 用于语音识别的方法和装置 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910329635.9A Division CN110047481B (zh) | 2019-04-23 | 2019-04-23 | 用于语音识别的方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113327609A CN113327609A (zh) | 2021-08-31 |
CN113327609B true CN113327609B (zh) | 2022-06-28 |
Family
ID=67278748
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910329635.9A Active CN110047481B (zh) | 2019-04-23 | 2019-04-23 | 用于语音识别的方法和装置 |
CN202110684737.XA Active CN113327609B (zh) | 2019-04-23 | 2019-04-23 | 用于语音识别的方法和装置 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910329635.9A Active CN110047481B (zh) | 2019-04-23 | 2019-04-23 | 用于语音识别的方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (2) | CN110047481B (zh) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110706696A (zh) * | 2019-09-25 | 2020-01-17 | 珠海格力电器股份有限公司 | 一种语音控制方法及装置 |
CN110808031A (zh) * | 2019-11-22 | 2020-02-18 | 大众问问(北京)信息科技有限公司 | 一种语音识别方法、装置和计算机设备 |
CN111640434A (zh) * | 2020-06-05 | 2020-09-08 | 三星电子(中国)研发中心 | 用于控制语音设备的方法和装置 |
CN112017647B (zh) * | 2020-09-04 | 2024-05-03 | 深圳海冰科技有限公司 | 一种结合语义的语音识别方法、装置和系统 |
CN112463939B (zh) * | 2020-11-12 | 2024-05-24 | 深圳市欢太科技有限公司 | 人机对话方法、系统、服务设备及计算机存储介质 |
CN112201246B (zh) * | 2020-11-19 | 2023-11-28 | 深圳市欧瑞博科技股份有限公司 | 基于语音的智能控制方法、装置、电子设备及存储介质 |
CN112466304B (zh) * | 2020-12-03 | 2023-09-08 | 北京百度网讯科技有限公司 | 离线语音交互方法、装置、系统、设备和存储介质 |
CN112466289A (zh) * | 2020-12-21 | 2021-03-09 | 北京百度网讯科技有限公司 | 语音指令的识别方法、装置、语音设备和存储介质 |
CN113611294A (zh) * | 2021-06-30 | 2021-11-05 | 展讯通信(上海)有限公司 | 语音唤醒方法、装置、设备及介质 |
CN114399992B (zh) * | 2021-12-03 | 2022-12-06 | 北京百度网讯科技有限公司 | 语音指令响应方法、装置及存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103559289A (zh) * | 2013-11-08 | 2014-02-05 | 安徽科大讯飞信息科技股份有限公司 | 语种无关的关键词检索方法及系统 |
CN104110884A (zh) * | 2014-03-14 | 2014-10-22 | 芜湖美的厨卫电器制造有限公司 | 热水器及其控制方法 |
CN104901926A (zh) * | 2014-03-06 | 2015-09-09 | 武汉元宝创意科技有限公司 | 基于声纹特征的远程认证支付的系统与方法 |
CN106250474A (zh) * | 2016-07-29 | 2016-12-21 | Tcl集团股份有限公司 | 一种语音控制的处理方法及系统 |
CN107195303A (zh) * | 2017-06-16 | 2017-09-22 | 北京云知声信息技术有限公司 | 语音处理方法及装置 |
CN108962235A (zh) * | 2017-12-27 | 2018-12-07 | 北京猎户星空科技有限公司 | 语音交互方法及装置 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102118886A (zh) * | 2010-01-04 | 2011-07-06 | 中国移动通信集团公司 | 一种语音信息的识别方法和设备 |
US9245525B2 (en) * | 2011-01-05 | 2016-01-26 | Interactions Llc | Automated speech recognition proxy system for natural language understanding |
CN103593230B (zh) * | 2012-08-13 | 2017-05-10 | 百度在线网络技术(北京)有限公司 | 移动终端的后台任务控制方法及移动终端 |
CN103219005B (zh) * | 2013-04-28 | 2016-01-20 | 北京云知声信息技术有限公司 | 一种语音识别方法及装置 |
US20170116994A1 (en) * | 2015-10-26 | 2017-04-27 | Le Holdings(Beijing)Co., Ltd. | Voice-awaking method, electronic device and storage medium |
CN107146618A (zh) * | 2017-06-16 | 2017-09-08 | 北京云知声信息技术有限公司 | 语音处理方法及装置 |
CN108881466B (zh) * | 2018-07-04 | 2020-06-26 | 百度在线网络技术(北京)有限公司 | 交互方法和装置 |
-
2019
- 2019-04-23 CN CN201910329635.9A patent/CN110047481B/zh active Active
- 2019-04-23 CN CN202110684737.XA patent/CN113327609B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103559289A (zh) * | 2013-11-08 | 2014-02-05 | 安徽科大讯飞信息科技股份有限公司 | 语种无关的关键词检索方法及系统 |
CN104901926A (zh) * | 2014-03-06 | 2015-09-09 | 武汉元宝创意科技有限公司 | 基于声纹特征的远程认证支付的系统与方法 |
CN104110884A (zh) * | 2014-03-14 | 2014-10-22 | 芜湖美的厨卫电器制造有限公司 | 热水器及其控制方法 |
CN106250474A (zh) * | 2016-07-29 | 2016-12-21 | Tcl集团股份有限公司 | 一种语音控制的处理方法及系统 |
CN107195303A (zh) * | 2017-06-16 | 2017-09-22 | 北京云知声信息技术有限公司 | 语音处理方法及装置 |
CN108962235A (zh) * | 2017-12-27 | 2018-12-07 | 北京猎户星空科技有限公司 | 语音交互方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN113327609A (zh) | 2021-08-31 |
CN110047481B (zh) | 2021-07-09 |
CN110047481A (zh) | 2019-07-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113327609B (zh) | 用于语音识别的方法和装置 | |
US11887604B1 (en) | Speech interface device with caching component | |
US11817094B2 (en) | Automatic speech recognition with filler model processing | |
US10629186B1 (en) | Domain and intent name feature identification and processing | |
WO2022105861A1 (zh) | 用于识别语音的方法、装置、电子设备和介质 | |
CN110689877A (zh) | 一种语音结束端点检测方法及装置 | |
CN113362828B (zh) | 用于识别语音的方法和装置 | |
US20160372110A1 (en) | Adapting voice input processing based on voice input characteristics | |
CN113053390B (zh) | 基于语音识别的文本处理方法、装置、电子设备及介质 | |
CN109712610A (zh) | 用于识别语音的方法和装置 | |
KR20230107860A (ko) | 실제 노이즈를 사용한 음성 개인화 및 연합 트레이닝 | |
CN103514882A (zh) | 一种语音识别方法及系统 | |
US20230127787A1 (en) | Method and apparatus for converting voice timbre, method and apparatus for training model, device and medium | |
CN112669842A (zh) | 人机对话控制方法、装置、计算机设备及存储介质 | |
JPWO2009104332A1 (ja) | 発話分割システム、発話分割方法および発話分割プログラム | |
CN111768789A (zh) | 电子设备及其语音发出者身份确定方法、装置和介质 | |
CN111400463B (zh) | 对话响应方法、装置、设备和介质 | |
CN113611316A (zh) | 人机交互方法、装置、设备以及存储介质 | |
CN109887490A (zh) | 用于识别语音的方法和装置 | |
CN114299955B (zh) | 语音交互的方法、装置、电子设备及存储介质 | |
CN115691478A (zh) | 语音唤醒方法、装置、人机交互设备和存储介质 | |
CN112306560B (zh) | 用于唤醒电子设备的方法和装置 | |
CN114299941A (zh) | 语音交互的方法、装置、电子设备及存储介质 | |
CN109785836B (zh) | 交互方法和装置 | |
CN114078478B (zh) | 语音交互的方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |