CN106601257B - 一种声音识别方法、设备和第一电子设备 - Google Patents
一种声音识别方法、设备和第一电子设备 Download PDFInfo
- Publication number
- CN106601257B CN106601257B CN201611265979.0A CN201611265979A CN106601257B CN 106601257 B CN106601257 B CN 106601257B CN 201611265979 A CN201611265979 A CN 201611265979A CN 106601257 B CN106601257 B CN 106601257B
- Authority
- CN
- China
- Prior art keywords
- recognition
- feedback result
- recognition engine
- feedback
- result
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/32—Multiple recognisers used in sequence or in parallel; Score combination systems therefor, e.g. voting systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/01—Assessment or evaluation of speech recognition systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/30—Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/225—Feedback of the input speech
Abstract
本发明实施例公开了一种声音识别方法,包括:采集第一电子设备的第一声音输入;至少获得第一反馈结果和第二反馈结果,其中,所述第一反馈结果是第一识别引擎对所述第一声音输入识别得到的,所述第二反馈结果是第二识别引擎对所述第一声音输入识别得到的,所述第一识别引擎与所述第二识别引擎不同;至少根据所述第一反馈结果和所述第二反馈结果确定对应所述第一声音输入的识别结果。本发明的实施例同时还公开了一种声音识别设备和第一电子设备。
Description
技术领域
本发明涉及通信领域中的信息处理技术,尤其涉及一种声音识别方法、设备和第一电子设备。
背景技术
随着电子产品的推广、普及与发展,电子产品功能越来越多、性能越来越强、体验越来越丰富,给人们的生活带来很多便利。当然,人们对电子产品的使用的便捷性等方面的要求也越来越高。为了适应用户对电子产品的更高的需求,智能电子设备具有根据用户语音输入信息,代替用户进行相应操作的功能。
但是,因为用户说话存在地域口音、说话习惯不相同等问题,而且每个厂商的语义识别服务器对于同一句语音的识别效果也不尽相同,现有技术方案中的电子设备的语音识别往往只能是采用一个厂商的语义识别服务器进行语义识别,这样就容易出现语义解析错误,导致对应操作错误的问题,使得工作效率低下,用户体验度较差。
发明内容
为解决上述技术问题,本发明实施例期望提供一种声音识别方法、设备和第一电子设备,解决了现有技术中的电子设备的语音识别只能采用一个厂商的语义识别服务器进行语义识别容易出现语义解析错误的问题,提高了语义识别的准确率,保证了操作的正确性;同时,可以提高工作效率,提高用户和电子设备的交互能力。
本发明的技术方案是这样实现的:
一种声音识别方法,包括:
采集第一电子设备的第一声音输入;
至少获得第一反馈结果和第二反馈结果,其中,所述第一反馈结果是第一识别引擎对所述第一声音输入识别得到的,所述第二反馈结果是第二识别引擎对所述第一声音输入识别得到的,所述第一识别引擎与所述第二识别引擎不同;
至少根据所述第一反馈结果和所述第二反馈结果确定对应所述第一声音输入的识别结果。
可选的,所述至少获得第一反馈结果和第二反馈结果,包括:
向服务器发送所述第一声音输入;
接收所述服务器发送的所述第一反馈结果和所述第二反馈结果。
可选的,所述向服务器发送所述第一声音输入,包括:
向具有第一识别引擎的第一服务器发送所述第一声音输入;
向具有第二识别引擎的第二服务器发送所述第二声音输入,所述第一服务器与所述第二服务器不同;
相应的,所述接收所述服务器发送的所述第一反馈结果和所述第二反馈结果,包括:
接收所述第一服务器发送的所述第一反馈结果;其中,所述第一反馈结果是所述第一服务器基于所述第一识别引擎对所述第一声音输入识别得到的;
接收所述第二服务器发送的所述第二反馈结果;其中,所述第二反馈结果是所述第二服务器基于所述第二识别引擎对所述第一声音输入识别得到的。
可选的,所述方法还包括:
确定目标识别引擎;其中,所述目标识别引擎的数量小于识别所述第一声音输入对应的识别引擎的数量;
采集第二声音输入;
获得针对所述第二声音输入的第三反馈结果;其中,所述第三反馈结果是所述目标识别引擎对所述第二声音输入进行识别得到的,所述第三反馈结果对应所述第二声音输入的识别结果。
可选的,所述确定目标识别引擎,包括:
按照引擎确定策略对声音输入的反馈结果进行分析,得到所述目标识别引擎;其中,所述反馈结果是至少两个识别引擎对所述声音输入进行识别得到的。
可选的,所述按照引擎确定策略对声音输入的反馈结果进行分析处理,得到所述目标识别引擎,包括:
基于所述至少两个识别引擎对所述声音输入的反馈结果,得到每一所述识别引擎的评价;其中,所述评价是用于对所述至少两个识别引擎进行排序得到所述目标识别引擎的;
对所述至少两个识别引擎的多次评价后,通过所述排序确定所述目标识别引擎。
可选的,所述基于所述至少两个识别引擎对所述声音输入的反馈结果,得到每一所述识别引擎的评价,包括:
判断所述反馈结果中是否包括相同的反馈结果;
若所述反馈结果中包括相同的反馈结果,按照所述反馈结果中相同的反馈结果数目最多的反馈结果为识别结果的原则给所述识别引擎评价,得到每一所述识别引擎的评价;
若所述反馈结果中没有相同的反馈结果,按照所述反馈结果中任一反馈结果为识别结果的原则给所述识别引擎评价,得到每一所述识别引擎的评价;
或者,
根据所述反馈结果得到针对所述声音输入的识别结果,并判断是否接收到用户针对识别结果的修改指令;
若接收到所述用户针对所述声音输入的识别结果的修改指令,对当前选定的且具有相同反馈结果的识别引擎进行正面评价,得到每一所述识别引擎的评价;
若没有接收到所述用户针对所述声音输入的识别结果的修改指令,对与识别结果匹配的识别引擎进行正面评价,得到每一所述识别引擎的评价。
可选的,所述确定目标识别引擎,包括:
向第二电子设备分享所述目标识别引擎的标识信息和所述目标识别引擎的辅助信息,以使得所述第二电子设备能根据自己的辅助信息、目标识别引擎的标识信息和所述目标识别引擎的辅助信息确定匹配的识别引擎。
第二反面,提供一种声音识别设备,所述设备包括:
采集单元,用于采集第一声音输入;
获取单元,用于至少获得第一反馈结果和第二反馈结果,其中,所述第一反馈结果是第一识别引擎对所述第一声音输入识别得到的,所述第二反馈结果是第二识别引擎对所述第一声音输入识别得到的,所述第一识别引擎与所述第二识别引擎不同;
确定单元,用于至少根据所述第一反馈结果和所述第二反馈结果确定对应所述第一声音输入的识别结果。
第三方面,提供一种第一电子设备,所述电子设备包括:
采集装置,用于采集第一声音输入;
处理装置,用于根据获得的第一反馈结果和第二反馈结果确定对应所述第一声音输入的识别结果,其中,所述第一反馈结果是第一识别引擎对所述第一声音输入识别得到的,所述第二反馈结果是第二识别引擎对所述第一声音输入识别得到的,所述第一识别引擎与所述第二识别引擎不同。
本发明实施例提供的声音识别方法、设备和第一电子设备,可以采集第一声音输入,并至少获得第一反馈结果和第二反馈结果,第一反馈结果是第一识别引擎对第一声音输入识别得到的,第二反馈结果是第二识别引擎对第一声音输入识别得到的,第一识别引擎与第二识别引擎不同;之后至少根据第一反馈结果和第二反馈结果确定对应第一声音输入的识别结果;这样,第一电子设备在对得到的声音输入进行识别的时候可以是获得多个识别引擎对该声音输入的反馈结果,并从得到的反馈结果中确定与该声音输入对应的识别结果,不是使用单一识别引擎进行声音输入的识别,解决了现有技术中的电子设备的语音识别只能采用一个厂商的语义识别服务器进行语义识别容易出现语义解析错误的问题,提高了语义识别的准确率,保证了操作的正确性;同时,可以提高工作效率,提高用户和电子设备的交互能力。
附图说明
图1为本发明的实施例提供的一种声音识别方法的流程示意图;
图2为本发明的实施例提供的另一种声音识别方法的流程示意图;
图3为本发明的实施例提供的又一种声音识别方法的流程示意图;
图4为本发明的另一实施例提供的一种声音识别方法的流程示意图;
图5为本发明的另一实施例提供的另一种声音识别方法的流程示意图;
图6为本发明的实施例提供的一种声音识别系统的结构示意图;
图7为本发明的实施例提供的一种识别引擎对声音输入的识别示意图;
图8为本发明的实施例提供的另一种识别引擎对声音输入的识别示意图;
图9为本发明的实施例提供的又一种识别引擎对声音输入的识别示意图;
图10为本发明的另一实施例提供的又一种声音识别方法的流程示意图;
图11为本发明的实施例提供的一种声音识别设备的结构示意图;
图12为本发明的实施例提供的另一种声音识别设备的结构示意图;
图13为本发明的实施例提供的又一种声音识别设备的结构示意图;
图14为本发明的实施例提供的一种第一电子设备的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。
本发明的实施例提供一种声音识别方法,参照图1所示,该方法包括以下步骤:
步骤101、采集第一电子设备的第一声音输入。
具体的,步骤101采集第一电子设备的第一声音输入可以是由第一电子设备来实现的;该第一电子设备可以是能够通过识别用户的声音输入执行对应操作的智能终端,例如可以包括智能电视机、智能音箱、智能冰箱、智能空调等智能家电设备。第一声音输入可以是用户通过语音控制的方式使用智能家电设备的时候发出的语音控制指令。
步骤102、至少获得第一反馈结果和第二反馈结果。
其中,第一反馈结果是第一识别引擎对第一声音输入识别得到的,第二反馈结果是第二识别引擎对第一声音输入识别得到的,第一识别引擎与第二识别引擎不同。
具体的,步骤102至少获得第一反馈结果和第二反馈结果可以是由第一电子设备来实现的;具体的,第一反馈结果和第二反馈结果可以相同也可以不同,但是第一反馈结果和第二反馈结果是不同的识别引擎对用户输入的第一声音输入进行语义识别得到的。
步骤103、至少根据第一反馈结果和第二反馈结果确定对应第一声音输入的识别结果。
具体的,步骤103至少根据第一反馈结果和第二反馈结果确定对应第一声音输入的识别结果可以是由第一电子设备来实现的;得到针对第一声音输入的第一反馈结果和第二反馈结果之后,可以对该第一反馈结果和第二反馈结果进行分析处理,从第一反馈结果和第二反馈结果中获取与第一声音输入对应的正确的识别结果,即对第一声音输入进行语义识别得到用户输入的原始语音信息。
本发明的实施例所提供的声音识别方法,可以采集第一声音输入,并至少获得第一反馈结果和第二反馈结果,第一反馈结果是第一识别引擎对第一声音输入识别得到的,第二反馈结果是第二识别引擎对第一声音输入识别得到的,第一识别引擎与第二识别引擎不同;之后至少根据第一反馈结果和第二反馈结果确定对应第一声音输入的识别结果;这样,第一电子设备在对得到的声音输入进行识别的时候可以是获得多个识别引擎对该声音输入的反馈结果,并从得到的反馈结果中确定与该声音输入对应的识别结果,不是使用单一识别引擎进行声音输入的识别,解决了现有技术中的电子设备的语音识别只能采用一个厂商的语义识别服务器进行语义识别容易出现语义解析错误的问题,提高了语义识别的准确率,保证了操作的正确性;同时,可以提高工作效率,提高用户和电子设备的交互能力。
基于前述实施例,本发明的实施例提供一种声音识别方法,参照图2所示,该方法包括以下步骤:
步骤201、第一电子设备采集第一声音输入。
步骤202、第一电子设备向服务器发送第一声音输入。
具体的,步骤202采集第一声音输入可以通过以下方式来实现:
步骤202a、第一电子设备向具有第一识别引擎的第一服务器发送第一声音输入。
具体的,第一识别引擎和第二识别引擎是在不同的后台上运行的,第一识别引擎可以是在第一服务器上运行的,第二识别引擎可以是在第二服务器上运行的;这里不限定第一识别引擎只能是在第一服务器上运行,第二识别引擎只能是在第二服务器上运行,只要能实现第一识别引擎和第二识别引擎在不同的服务器上运行即可。
步骤202b、第一电子设备向具有第二识别引擎的第二服务器发送第二声音输入。
其中,第一服务器与第二服务器不同。
具体的,用户向第一电子设备发送第一声音输入后,第一电子设备自己不对第一声音输入进行语义识别,而是将第一声音输入发送至第一服务器和第二服务器,通过第一服务器上的第一识别引擎和第二服务器上的第二识别引擎对第一声音输入进行识别。当然,在本发明的其他实施例中,也可以是将第一声音输入发送至一个服务器,该服务器上包括有第一识别引擎和第二识别引擎。
步骤203、第一电子设备接收服务器发送的第一反馈结果和第二反馈结果。
具体的,步骤203接收服务器发送的第一反馈结果和第二反馈结果可以通过以下方式来实现:
步骤203a、第一电子设备接收第一服务器发送的第一反馈结果。
其中,第一反馈结果是第一服务器基于第一识别引擎对第一声音输入识别得到的。
步骤203b、第一电子设备接收第二服务器发送的第二反馈结果。
其中,第二反馈结果是第二服务器基于第二识别引擎对第一声音输入识别得到的,第一识别引擎与第二识别引擎不同。
步骤204、第一电子设备至少根据第一反馈结果和第二反馈结果确定对应第一声音输入的识别结果。
需要说明的是,本实施例中与其它实施例中相同步骤或相关概念的解释,可以参照其他实施例中的描述,此处不再赘述。
本发明的实施例所提供的声音识别方法,可以采集第一声音输入,并至少获得第一反馈结果和第二反馈结果,第一反馈结果是第一识别引擎对第一声音输入识别得到的,第二反馈结果是第二识别引擎对第一声音输入识别得到的,第一识别引擎与第二识别引擎不同;之后至少根据第一反馈结果和第二反馈结果确定对应第一声音输入的识别结果;这样,第一电子设备在对得到的声音输入进行识别的时候可以是获得多个识别引擎对该声音输入的反馈结果,并从得到的反馈结果中确定与该声音输入对应的识别结果,不是使用单一识别引擎进行声音输入的识别,解决了现有技术中的电子设备的语音识别只能采用一个厂商的语义识别服务器进行语义识别容易出现语义解析错误的问题,提高了语义识别的准确率,保证了操作的正确性;同时,可以提高工作效率,提高用户和电子设备的交互能力。
基于前述实施例,本发明的实施例提供一种声音识别方法,参照图3所示,该方法包括以下步骤:
步骤301、第一电子设备采集第一声音输入。
步骤302、第一电子设备至少获得第一反馈结果和第二反馈结果。
步骤303、第一电子设备至少根据第一反馈结果和第二反馈结果确定对应第一声音输入的识别结果。
步骤304、第一电子设备确定目标识别引擎。
其中,目标识别引擎的数量小于识别第一声音输入对应的识别引擎的数量。
具体的,根据步骤301~303中提供的方法对识别引擎进行训练之后,可以根据训练识别的结果获取能够对语音输入进行正确语义识别的目标识别引擎。
步骤305、第一电子设备采集第二声音输入。
具体的,第二声音输入与第一声音输入不同,第一声音输入是对识别引擎进行训练得到目标识别引擎的过程中使用的声音信息;第二声音输入是用户在实际使用第一电子设备(即智能家电设备)的过程中对该智能家电设备发送的控制指令。第一声音输入和第二声音输入可以是通过第一电子设备的语音信息采集设备采集得到的,该语音信息采集设备可以包括麦克风等。
步骤306、第一电子设备获得针对第二声音输入的第三反馈结果。
其中,第三反馈结果是目标识别引擎对第二声音输入进行识别得到的,第三反馈结果对应第二声音输入的识别结果。
具体的,第一电子设备采集到用户发送的第二声音输入信息后,目标识别引擎可以对该第二声音输入进行语义识别,得到第三反馈结果;并且,第三反馈结果就是对第二声音输入进行正确语义识别得到的识别结果。
需要说明的是,本实施例中与其它实施例中相同步骤或相关概念的解释,可以参照其他实施例中的描述,此处不再赘述。
本发明的实施例所提供的声音识别方法,可以采集第一声音输入,并至少获得第一反馈结果和第二反馈结果,第一反馈结果是第一识别引擎对第一声音输入识别得到的,第二反馈结果是第二识别引擎对第一声音输入识别得到的,第一识别引擎与第二识别引擎不同;之后至少根据第一反馈结果和第二反馈结果确定对应第一声音输入的识别结果;这样,第一电子设备在对得到的声音输入进行识别的时候可以是获得多个识别引擎对该声音输入的反馈结果,并从得到的反馈结果中确定与该声音输入对应的识别结果,不是使用单一识别引擎进行声音输入的识别,解决了现有技术中的电子设备的语音识别只能采用一个厂商的语义识别服务器进行语义识别容易出现语义解析错误的问题,提高了语义识别的准确率,保证了操作的正确性;同时,可以提高工作效率,提高用户和电子设备的交互能力。
可选的,基于前述实施例,在本发明的另一声音识别方法,步骤304确定目标识别引擎可以通过以下方式来实现:
第一电子设备向第二电子设备分享目标识别引擎的标识信息和目标识别引擎的辅助信息,以使得第二电子设备能根据自己的辅助信息、目标识别引擎的标识信息和目标识别引擎的辅助信息确定匹配的识别引擎。
具体的,目标识别引擎的确定可以是第一电子设备对第一声音输入进行训练得到目标识别引擎之后,可以获取该目标识别引擎的标识信息和辅助信息,并将得到的目标识别引擎的标识信息和目标识别引擎的辅助信息发送给与第一电子设备同样需要通过语音控制记性操作的其他电子设备(第二电子设备)。其它电子设备在得到这些信息之后,可以根据目标识别引擎的辅助信息,在目标识别引擎中获取与自己当前的辅助信息相同的目标识别引擎,并根据该目标识别引擎的标识信息查找该目标识别引擎,进而第二电子设备上的声音输入可以采用该标识信息对应的识别引擎进行语义识别,最终控制该第二电子设备执行对应的操作。其中,辅助信息可以是地域信息即具体的地点,例如陕西、北京、上海等地点信息。
基于前述实施例,本发明的实施例提供一种声音识别方法,参照图4所示,该方法包括以下步骤:
步骤401、第一电子设备采集第一声音输入。
步骤402、第一电子设备至少获得第一反馈结果和第二反馈结果。
步骤403、第一电子设备至少根据第一反馈结果和第二反馈结果确定对应第一声音输入的识别结果。
步骤404、第一电子设备按照引擎确定策略对声音输入的反馈结果进行分析,得到目标识别引擎。
其中,反馈结果是至少两个识别引擎对声音输入进行识别得到的,目标识别引擎的数量小于识别第一声音输入对应的识别引擎的数量。
引擎确定策略是预先设定的能够对声音输入的反馈结果进行分析得到目标识别引擎的一定规则。例如,引擎确定策略可以包括根据识别引擎对声音输入的反馈结果对识别引擎进行评价,之后可以根据评价结果确定目标识别引擎。
具体的,步骤404按照引擎确定策略对声音输入的反馈结果进行分析,得到目标识别引擎可以通过以下方式来实现:
步骤404a、第一电子设备基于至少两个识别引擎对声音输入的反馈结果,得到每一识别引擎的评价。
其中,评价是用于对至少两个识别引擎进行排序得到目标识别引擎的。
具体的,识别引擎的评价可以是识别引擎的评分;在采集到用户发送的第一声音输入(即用于训练得到目标识别引擎的测试声音输入)后,采用至少两个识别引擎对该第一声音输入进行识别之后,会得到针对不同识别引擎的反馈结果,最后可以根据反馈结果获取对至少两个识别引擎的评价(评分)。当然,训练过程可以是在用户实际使用识别引擎进行智能家电控制的过程中实现的,也可以是在用户使用智能家电之前提前进行的测试过程中实现的。
步骤404b、第一电子设备对至少两个识别引擎的多次评价后,通过排序确定目标识别引擎。
具体的,可以获取识别引擎对用户多次发送的声音输入的多次反馈结果,根据每一次得到的反馈结果均对识别引擎进行评价,即实现对识别引擎的多次评价(评分);经过一定预设时间(例如该预设时间可以是一个月)之后,可以根据每一识别引擎的评分结果对识别引擎进行排序,例如可以是根据评分按照从大到小的顺序进行排序,并根据排序结果从中选取排序第一的识别引擎作为目标识别引擎;或者,可以从中选取排序在前几名的几个识别引擎作为目标识别引擎,并分享给其它电子设备,其它电子设备可以根据自己所在区域从这几个目标识别引擎中选取目标识别引擎的区域与自己当前所在区域匹配的识别引擎作为最终的目标识别引擎。
步骤405、第一电子设备采集第二声音输入。
步骤406、第一电子设备获得针对第二声音输入的第三反馈结果。
其中,第三反馈结果是目标识别引擎对第二声音输入进行识别得到的,第三反馈结果对应第二声音输入的识别结果。
需要说明的是,本实施例中与其它实施例中相同步骤或相关概念的解释,可以参照其他实施例中的描述,此处不再赘述。
基于前述实施例,在本发明的另一声音识别方法,参照图5所示,步骤404a基于至少两个识别引擎对声音输入的反馈结果,得到每一识别引擎的评价具体可以包括以下步骤:
步骤404a1、第一电子设备判断反馈结果中是否包括相同的反馈结果。
步骤404a2、若反馈结果中包括相同的反馈结果,第一电子设备按照反馈结果中相同的反馈结果数目最多的反馈结果为识别结果的原则给识别引擎评价,得到每一识别引擎的评价。
具体的,以包括有三个识别引擎为例进行说明:可以首先判断三个识别引擎针对训练声音输入的反馈结果中是否存在相同的反馈结果,如果存在一个相同的反馈结果,那么确定这个反馈结果为训练声音输入的识别结果并给相应的识别引擎评价,如果存在多个相同的反馈结果,获取这多个相同反馈结果中数目最多的那个反馈结果为训练声音输入的识别结果(例如一个相同的反馈结果对应有三个,一个相同的反馈结果对应有两个数目,则确定三个数目的反馈结果为识别结果)。在本实施例中给识别结果对应的识别引擎进行评价可以是给对应的识别引擎进行正面评价(即加分)得到每一识别引擎的评价;当然,在本发明的其它实施例中,可以给识别结果对应的识别引擎加分,同时给其它识别引擎进行负面评价(即减分),最后综合评分得到每一识别引擎的评价。
需要说明的是,如果用户可以经过一段较长时间的训练之后确定目标识别引擎,此时可以采用只给与识别结果对应的识别引擎进行正面评价(加分)的方式来得到每一识别引擎的评价(评分),这种只正面评价识别引擎的方式需要的时间较长,得到的目标识别引擎的识别准确率较高;如果用户想要快速确定目标识别引擎,此时可以采用给与识别结果对应的识别引擎进行正面评价(加分),同时给与识别结果不对应的识别引擎进行负面评价(减分),综合得到每一识别引擎的评价(评分),这种既有正面评价又有负面评价识别引擎的方式耗费的时间较短,可以在短时间内确定目标识别引擎,得到的目标识别引擎的识别准确率没有只进行正面评价得到的识别准确率高。
步骤404a3、若反馈结果中没有相同的反馈结果,第一电子设备按照反馈结果中任一反馈结果为识别结果的原则给识别引擎评价,得到每一识别引擎的评价。
具体的,如果所有识别引擎的反馈结果均不相同,才是可以任意确定一个反馈结果为识别结果并给对应的识别引擎加分;当然,也可以是在没有相同反馈结果任意确定一个反馈结果为识别结果的基础上结合步骤404a4~404a6提供的实施例来进行识别引擎的评价。具体为:可以进一步判断在预设时间段是否接收到用户的修改指令,如果接收到修改指令则确定修改指令指定的反馈结果为识别结果,并给对应识别引擎加分;如果没有接收到修改指令则确定随机选定的反馈结果正确,并给对应的识别引擎加分。
需要说明的是,以包括有三个识别引擎且分别为:识别引擎1、识别引擎2和识别引擎3,用户意图发送的训练声音输入为松子为例进行说明:本发明提供的声音识别方法可以应用于如图6所示的声音识别系统中,该系统可以包括:成功率云分析模块、音乐服务模块、电子书服务模块、定时服务模块、投票系统、服务查找模块、引擎选择模块、识别引擎1、识别引擎2、识别引擎3、声音输入模块。用户意图发送的训练声音输入为“松子”,分别使用识别引擎1、识别引擎2和识别引擎3对其进行语义识别,得到如图7中所示的结果:三个识别引擎得到的反馈结果均为“松子”,此时可以确定识别结果为“松子”,因此可以给三个识别引擎都加一分;用户意图发送的训练声音输入为“松子”,分别使用识别引擎1、识别引擎2和识别引擎3对其进行语义识别,得到如图8中所示的结果:识别引擎1和识别引擎2的反馈结果均为“松子”,识别引擎3的反馈结果为“瓜子”,此时可以确定识别结果为“松子”,因此可以给识别引擎1和识别引擎2都加一分;用户意图发送的训练声音输入为“松子”,分别使用识别引擎1、识别引擎2和识别引擎3对其进行语义识别,得到如图9中所示的结果:识别引擎1的反馈结果为“松子”、识别引擎2的反馈结果为“瓜子”、识别引擎3的反馈结果为“网子”都不相同,此时可以随机确定识别引擎1对应的反馈结果为识别结果;同时,可以判断在之后的预设时间段(例如一分钟)内是否接收到用户的修改指令,如果接收到用户的修改指令,则确定修改指令指定的识别引擎2的反馈结果为识别结果,并给识别引擎2加一分;如果没有接收到用户的修改指令,则确定识别引擎1的反馈结果为识别结果,并给识别引擎1加一分。
或者,基于前述实施例,在本发明的另一声音识别方法,参照图6所示,步骤404a基于至少两个识别引擎对声音输入的反馈结果,得到每一识别引擎的评价具体可以包括以下步骤:
步骤404a4、第一电子设备根据反馈结果得到针对声音输入的识别结果,并判断是否接收到用户针对识别结果的修改指令。
步骤404a5、若接收到用户针对声音输入的识别结果的修改指令,第一电子设备对当前选定的且具有相同反馈结果的识别引擎进行正面评价,得到每一识别引擎的评价。
步骤404a6、若没有接收到用户针对声音输入的识别结果的修改指令,第一电子设备对与识别结果匹配的识别引擎进行正面评价,得到每一识别引擎的评价。
在本发明的实施例中,单纯的可以是根据是否接收到用户发送的修改指令来确定声音输入的识别结果的。如果接收到用户针对声音输入的识别结果的修改指令,确定修改指令选定的且具有相同反馈结果的识别引擎的反馈结果为识别结果,然后给该反馈结果对应的识别引擎加分;如果没有接收到用户针对声音输入的识别结果的修改指令,给与识别结果对应的识别引擎进行加分处理,最终得到识别引擎的评分。
当然,在本发明的其它实施例中,如果最终确定的目标识别引擎只有一个,可以每次评价完识别引擎之后都对识别引擎进行排序,并且比较排序第一的识别引擎的评分和排序第二的识别引擎的评分之间的差值,经过多次评价直到排序第一的识别引擎的评分与排序第二的识别引擎的评分之间的差值大于第一预设阈值(例如排序第一的识别引擎的评分是排序第二的识别引擎的评分的倍),此时可以停止对识别引擎的评价,并根据前述得到的每一识别引擎的总评分对识别引擎进行排序,确定一个目标识别引擎。
如果最终确定的目标识别引擎可以有多个,可以每次评价完识别引擎之后都对识别引擎进行排序,并且比较排序第三的识别引擎的评分和排序第四的识别引擎的评分之间的差值,经过多次评价直到排序第三的识别引擎的评分与排序第四的识别引擎的评分之间的差值大于第二预设阈值(例如排序第三的识别引擎的评分是排序第四的识别引擎的评分的10倍),此时可以停止对识别引擎的评价,并根据前述得到的每一识别引擎的总评分对识别引擎进行排序,确定多个目标识别引擎(例如可以确定三个目标识别引擎)。
或者,在本发明的其它实施例中,可以是对每一个识别引擎经过预设时间的评价后,得到每一识别引擎的评分并基于识别引擎的评分对识别引擎进行排序,然后根据再根据具体的评分结果确定选择的目标识别引擎的数目,例如可以选择评分大于第三预设阈值(80)的所有识别引擎为目标识别引擎。
本发明的实施例所提供的声音识别方法,可以采集第一声音输入,并至少获得第一反馈结果和第二反馈结果,第一反馈结果是第一识别引擎对第一声音输入识别得到的,第二反馈结果是第二识别引擎对第一声音输入识别得到的,第一识别引擎与第二识别引擎不同;之后至少根据第一反馈结果和第二反馈结果确定对应第一声音输入的识别结果;这样,第一电子设备在对得到的声音输入进行识别的时候可以是获得多个识别引擎对该声音输入的反馈结果,并从得到的反馈结果中确定与该声音输入对应的识别结果,不是使用单一识别引擎进行声音输入的识别,解决了现有技术中的电子设备的语音识别只能采用一个厂商的语义识别服务器进行语义识别容易出现语义解析错误的问题,提高了语义识别的准确率,保证了操作的正确性;同时,可以提高工作效率,提高用户和电子设备的交互能力。
本发明的实施例提供一种声音识别设备5,该设备可以应用于图1~5、10对应的实施例提供的一种声音识别方法中,参照图11所示,该设备可以包括:采集单元51、获取单元52和确定单元53,其中:
采集单元51,用于采集第一声音输入
获取单元52,用于至少获得第一反馈结果和第二反馈结果。
其中,第一反馈结果是第一识别引擎对第一声音输入识别得到的,第二反馈结果是第二识别引擎对第一声音输入识别得到的,第一识别引擎与第二识别引擎不同。
确定单元53,用于至少根据第一反馈结果和第二反馈结果确定对应第一声音输入的识别结果。
本发明的实施例所提供的声音识别设备,可以采集第一声音输入,并至少获得第一反馈结果和第二反馈结果,第一反馈结果是第一识别引擎对第一声音输入识别得到的,第二反馈结果是第二识别引擎对第一声音输入识别得到的,第一识别引擎与第二识别引擎不同;之后至少根据第一反馈结果和第二反馈结果确定对应第一声音输入的识别结果;这样,第一电子设备在对得到的声音输入进行识别的时候可以是获得多个识别引擎对该声音输入的反馈结果,并从得到的反馈结果中确定与该声音输入对应的识别结果,不是使用单一识别引擎进行声音输入的识别,解决了现有技术中的电子设备的语音识别只能采用一个厂商的语义识别服务器进行语义识别容易出现语义解析错误的问题,提高了语义识别的准确率,保证了操作的正确性;同时,可以提高工作效率,提高用户和电子设备的交互能力。
具体的,参照图12所示,获取单元52包括:发送模块521和接收模块522,其中:
发送模块521,用于向服务器发送第一声音输入。
接收模块522,用于接收服务器发送的第一反馈结果和第二反馈结果。
进一步,发送模块521具体用于执行以下步骤:
向具有第一识别引擎的第一服务器发送第一声音输入。
向具有第二识别引擎的第二服务器发送第二声音输入,第一服务器与第二服务器不同。
相应的,接收模块522具体用于执行以下步骤:
接收第一服务器发送的第一反馈结果。
其中,第一反馈结果是第一服务器基于第一识别引擎对第一声音输入识别得到的。
接收第二服务器发送的第二反馈结果。
其中,第二反馈结果是第二服务器基于第二识别引擎对第一声音输入识别得到的。
进一步,确定单元53,还用于确定目标识别引擎。
其中,目标识别引擎的数量小于识别第一声音输入对应的识别引擎的数量。
采集单元51,还用于采集第二声音输入。
获取单元53,还用于获得针对第二声音输入的第三反馈结果。
其中,第三反馈结果是目标识别引擎对第二声音输入进行识别得到的,第三反馈结果对应第二声音输入的识别结果。
可选的,确定单元53具体用于执行以下步骤:
按照引擎确定策略对声音输入的反馈结果进行分析,得到目标识别引擎。
其中,反馈结果是至少两个识别引擎对声音输入进行识别得到的。
具体的,参照图13所示,确定单元53还包括:获取模块531和确定模块532,其中:
获取模块531,用于基于至少两个识别引擎对声音输入的反馈结果,得到每一识别引擎的评价。
其中,评价是用于对至少两个识别引擎进行排序得到目标识别引擎的。
确定模块532,用于对至少两个识别引擎的多次评价后,通过排序确定目标识别引擎。
进一步,获取模块531具体用于执行以下步骤:
判断反馈结果中是否包括相同的反馈结果。
若反馈结果中包括相同的反馈结果,按照反馈结果中相同的反馈结果数目最多的反馈结果为识别结果的原则给识别引擎评价,得到每一识别引擎的评价。
若反馈结果中没有相同的反馈结果,按照反馈结果中任一反馈结果为识别结果的原则给识别引擎评价,得到每一识别引擎的评价。
或者,
根据反馈结果得到针对声音输入的识别结果,并判断是否接收到用户针对识别结果的修改指令。
若接收到用户针对声音输入的识别结果的修改指令,对当前选定的且具有相同反馈结果的识别引擎进行正面评价,得到每一识别引擎的评价。
若没有接收到用户针对声音输入的识别结果的修改指令,对与识别结果匹配的识别引擎进行正面评价,得到每一识别引擎的评价。
可选的,确定单元53具体还用于执行以下步骤:
向第二电子设备分享目标识别引擎的标识信息和目标识别引擎的辅助信息,以使得第二电子设备能根据自己的辅助信息、目标识别引擎的标识信息和目标识别引擎的辅助信息确定匹配的识别引擎。
需要你说明的是,本实施例中各个单元和模块之间的交互过程,可以参照图1~5、10对应的实施例提供的一种声音识别方法中的交互过程,此处不再赘述。
本发明的实施例所提供的声音识别设备,可以采集第一声音输入,并至少获得第一反馈结果和第二反馈结果,第一反馈结果是第一识别引擎对第一声音输入识别得到的,第二反馈结果是第二识别引擎对第一声音输入识别得到的,第一识别引擎与第二识别引擎不同;之后至少根据第一反馈结果和第二反馈结果确定对应第一声音输入的识别结果;这样,第一电子设备在对得到的声音输入进行识别的时候可以是获得多个识别引擎对该声音输入的反馈结果,并从得到的反馈结果中确定与该声音输入对应的识别结果,不是使用单一识别引擎进行声音输入的识别,解决了现有技术中的电子设备的语音识别只能采用一个厂商的语义识别服务器进行语义识别容易出现语义解析错误的问题,提高了语义识别的准确率,保证了操作的正确性;同时,可以提高工作效率,提高用户和电子设备的交互能力。
本发明的实施例提供一种第一电子设备6,可以应用于图1~5、10提供的一种声音识别方法中,参照图14所示,该电子设备包括:采集装置61和处理装置62,其中:
采集装置61,用于采集第一声音输入。
处理装置62,用于根据获得的第一反馈结果和第二反馈结果确定对应第一声音输入的识别结果。
其中,第一反馈结果是第一识别引擎对第一声音输入识别得到的,第二反馈结果是第二识别引擎对第一声音输入识别得到的,第一识别引擎与第二识别引擎不同。
需要你说明的是,本实施例中采集装置和处理装置之间的交互过程,可以参照图1~5、10对应的实施例提供的一种声音识别方法中的交互过程,此处不再赘述。
本发明的实施例所提供的第一电子设备,可以采集第一声音输入,并至少获得第一反馈结果和第二反馈结果,第一反馈结果是第一识别引擎对第一声音输入识别得到的,第二反馈结果是第二识别引擎对第一声音输入识别得到的,第一识别引擎与第二识别引擎不同;之后至少根据第一反馈结果和第二反馈结果确定对应第一声音输入的识别结果;这样,第一电子设备在对得到的声音输入进行识别的时候可以是获得多个识别引擎对该声音输入的反馈结果,并从得到的反馈结果中确定与该声音输入对应的识别结果,不是使用单一识别引擎进行声音输入的识别,解决了现有技术中的电子设备的语音识别只能采用一个厂商的语义识别服务器进行语义识别容易出现语义解析错误的问题,提高了语义识别的准确率,保证了操作的正确性;同时,可以提高工作效率,提高用户和电子设备的交互能力。
在实际应用中,所述采集单元51、获取单元52、确定单元53、发送模块521、接收模块522、获取模块531和确定模块532均可由位于无线数据发送设备中的中央处理器(Central Processing Unit,CPU)、微处理器(Micro Processor Unit,MPU)、数字信号处理器(Digital Signal Processor,DSP)或现场可编程门阵列(Field Programmable GateArray,FPGA)等实现。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用硬件实施例、软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器和光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
以上所述,仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。
Claims (8)
1.一种声音识别方法,包括:
采集第一电子设备的第一声音输入;
至少获得第一反馈结果和第二反馈结果,其中,所述第一反馈结果是第一识别引擎对所述第一声音输入识别得到的,所述第二反馈结果是第二识别引擎对所述第一声音输入识别得到的,所述第一识别引擎与所述第二识别引擎不同;
至少根据所述第一反馈结果和所述第二反馈结果确定对应所述第一声音输入的识别结果;
所述方法还包括:
确定目标识别引擎;其中,所述目标识别引擎的数量小于识别所述第一声音输入对应的识别引擎的数量;
采集第二声音输入;
获得针对所述第二声音输入的第三反馈结果;其中,所述第三反馈结果是所述目标识别引擎对所述第二声音输入进行识别得到的,所述第三反馈结果对应所述第二声音输入的识别结果;
其中,所述确定目标识别引擎,包括:
按照引擎确定策略对声音输入的反馈结果进行分析,得到所述目标识别引擎;其中,所述反馈结果是至少两个识别引擎对所述声音输入进行识别得到的;
所述按照引擎确定策略对声音输入的反馈结果进行分析,得到所述目标识别引擎,包括:
基于所述至少两个识别引擎对所述声音输入的反馈结果,得到每一所述识别引擎的评价;
基于所述评价,对所述至少两个识别引擎进行排序得到所述目标识别引擎;
所述基于所述至少两个识别引擎对所述声音输入的反馈结果,得到每一所述识别引擎的评价,包括:
根据所述反馈结果中是否包括相同的反馈结果,或者,根据所述反馈结果中所述声音输入的识别结果中是否接收到用户针对识别结果的修改指令,得到每一所述识别引擎的评价。
2.根据权利要求1所述的方法,其特征在于,所述至少获得第一反馈结果和第二反馈结果,包括:
向服务器发送所述第一声音输入;
接收所述服务器发送的所述第一反馈结果和所述第二反馈结果。
3.根据权利要求2所述的方法,其特征在于,所述向服务器发送所述第一声音输入,包括:
向具有第一识别引擎的第一服务器发送所述第一声音输入;
向具有第二识别引擎的第二服务器发送所述第二声音输入,所述第一服务器与所述第二服务器不同;
相应的,所述接收所述服务器发送的所述第一反馈结果和所述第二反馈结果,包括:
接收所述第一服务器发送的所述第一反馈结果;其中,所述第一反馈结果是所述第一服务器基于所述第一识别引擎对所述第一声音输入识别得到的;
接收所述第二服务器发送的所述第二反馈结果;其中,所述第二反馈结果是所述第二服务器基于所述第二识别引擎对所述第一声音输入识别得到的。
4.根据权利要求1所述的方法,其特征在于,所述基于所述评价,对所述至少两个识别引擎进行排序得到所述目标识别引擎,包括:
对所述至少两个识别引擎的多次评价后,通过所述排序确定所述目标识别引擎。
5.根据权利要求4所述的方法,其特征在于,所述基于所述至少两个识别引擎对所述声音输入的反馈结果,得到每一所述识别引擎的评价,包括:
判断所述反馈结果中是否包括相同的反馈结果;
若所述反馈结果中包括相同的反馈结果,按照所述反馈结果中相同的反馈结果数目最多的反馈结果为识别结果的原则给所述识别引擎评价,得到每一所述识别引擎的评价;
若所述反馈结果中没有相同的反馈结果,按照所述反馈结果中任一反馈结果为识别结果的原则给所述识别引擎评价,得到每一所述识别引擎的评价;
或者,
根据所述反馈结果得到针对所述声音输入的识别结果,并判断是否接收到用户针对识别结果的修改指令;
若接收到所述用户针对所述声音输入的识别结果的修改指令,对当前选定的且具有相同反馈结果的识别引擎进行正面评价,得到每一所述识别引擎的评价;
若没有接收到所述用户针对所述声音输入的识别结果的修改指令,对与所述识别结果匹配的识别引擎进行正面评价,得到每一所述识别引擎的评价。
6.一种声音识别方法,其特征在于,所述方法包括:
采集第一电子设备的第一声音输入;
至少获得第一反馈结果和第二反馈结果,其中,所述第一反馈结果是第一识别引擎对所述第一声音输入识别得到的,所述第二反馈结果是第二识别引擎对所述第一声音输入识别得到的,所述第一识别引擎与所述第二识别引擎不同;
至少根据所述第一反馈结果和所述第二反馈结果确定对应所述第一声音输入的识别结果;
所述方法还包括:
确定目标识别引擎;其中,所述目标识别引擎的数量小于识别所述第一声音输入对应的识别引擎的数量;
采集第二声音输入;
获得针对所述第二声音输入的第三反馈结果;其中,所述第三反馈结果是所述目标识别引擎对所述第二声音输入进行识别得到的,所述第三反馈结果对应所述第二声音输入的识别结果;
向第二电子设备分享所述目标识别引擎的标识信息和所述目标识别引擎的辅助信息,以使得所述第二电子设备能根据自己的辅助信息、目标识别引擎的标识信息和所述目标识别引擎的辅助信息确定匹配的识别引擎。
7.一种声音识别设备,其特征在于,所述设备包括:
采集单元,用于采集第一声音输入;
获取单元,用于至少获得第一反馈结果和第二反馈结果,其中,所述第一反馈结果是第一识别引擎对所述第一声音输入识别得到的,所述第二反馈结果是第二识别引擎对所述第一声音输入识别得到的,所述第一识别引擎与所述第二识别引擎不同;
确定单元,用于至少根据所述第一反馈结果和所述第二反馈结果确定对应所述第一声音输入的识别结果;
所述采集单元,还用于采集第二声音输入;
所述获取单元,还用于获得针对所述第二声音输入的第三反馈结果;其中,所述第三反馈结果是所述目标识别引擎对所述第二声音输入进行识别得到的,所述第三反馈结果对应所述第二声音输入的识别结果;
所述确定单元,还用于确定目标识别引擎;其中,所述目标识别引擎的数量小于识别所述第一声音输入对应的识别引擎的数量;
其中,所述确定单元,还用于确定目标识别引擎,包括:
所述确定单元,用于按照引擎确定策略对声音输入的反馈结果进行分析,得到所述目标识别引擎;其中,所述反馈结果是至少两个识别引擎对所述声音输入进行识别得到的;
所述确定单元,用于按照引擎确定策略对声音输入的反馈结果进行分析,得到所述目标识别引擎,包括:
基于所述至少两个识别引擎对所述声音输入的反馈结果,得到每一所述识别引擎的评价;
基于所述评价,对所述至少两个识别引擎进行排序得到所述目标识别引擎;
所述基于所述至少两个识别引擎对所述声音输入的反馈结果,得到每一所述识别引擎的评价,包括:
根据所述反馈结果中是否包括相同的反馈结果,或者,根据所述反馈结果中所述声音输入的识别结果中是否接收到用户针对识别结果的修改指令,得到每一所述识别引擎的评价。
8.一种第一电子设备,其特征在于,所述电子设备包括:
采集装置,用于采集第一声音输入;
处理装置,用于根据获得的第一反馈结果和第二反馈结果确定对应所述第一声音输入的识别结果,其中,所述第一反馈结果是第一识别引擎对所述第一声音输入识别得到的,所述第二反馈结果是第二识别引擎对所述第一声音输入识别得到的,所述第一识别引擎与所述第二识别引擎不同;
所述采集装置,还用于采集第二声音输入;
所述处理装置,还用于确定目标识别引擎;其中,所述目标识别引擎的数量小于识别所述第一声音输入对应的识别引擎的数量;获得针对所述第二声音输入的第三反馈结果;其中,所述第三反馈结果是所述目标识别引擎对所述第二声音输入进行识别得到的,所述第三反馈结果对应所述第二声音输入的识别结果;
其中,所述处理装置,还用于确定目标识别引擎,包括:
所述处理装置,用于按照引擎确定策略对声音输入的反馈结果进行分析,得到所述目标识别引擎;其中,所述反馈结果是至少两个识别引擎对所述声音输入进行识别得到的;
所述处理装置,用于按照引擎确定策略对声音输入的反馈结果进行分析,得到所述目标识别引擎,包括:
基于所述至少两个识别引擎对所述声音输入的反馈结果,得到每一所述识别引擎的评价;
基于所述评价,对所述至少两个识别引擎进行排序得到所述目标识别引擎;
所述基于所述至少两个识别引擎对所述声音输入的反馈结果,得到每一所述识别引擎的评价,包括:
根据所述反馈结果中是否包括相同的反馈结果,或者,根据所述反馈结果中所述声音输入的识别结果中是否接收到用户针对识别结果的修改指令,得到每一所述识别引擎的评价。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611265979.0A CN106601257B (zh) | 2016-12-31 | 2016-12-31 | 一种声音识别方法、设备和第一电子设备 |
US15/806,016 US10438590B2 (en) | 2016-12-31 | 2017-11-07 | Voice recognition |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611265979.0A CN106601257B (zh) | 2016-12-31 | 2016-12-31 | 一种声音识别方法、设备和第一电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106601257A CN106601257A (zh) | 2017-04-26 |
CN106601257B true CN106601257B (zh) | 2020-05-26 |
Family
ID=58581873
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201611265979.0A Active CN106601257B (zh) | 2016-12-31 | 2016-12-31 | 一种声音识别方法、设备和第一电子设备 |
Country Status (2)
Country | Link |
---|---|
US (1) | US10438590B2 (zh) |
CN (1) | CN106601257B (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101910385B1 (ko) * | 2017-06-22 | 2018-10-22 | 엘지전자 주식회사 | 차량에 구비된 차량 제어 장치 및 차량의 제어방법 |
CN111179934A (zh) * | 2018-11-12 | 2020-05-19 | 奇酷互联网络科技(深圳)有限公司 | 选择语音引擎的方法、移动终端和计算机可读存储介质 |
CN109410926A (zh) * | 2018-11-27 | 2019-03-01 | 恒大法拉第未来智能汽车(广东)有限公司 | 语音语义识别方法及系统 |
CN109947651B (zh) * | 2019-03-21 | 2022-08-02 | 上海智臻智能网络科技股份有限公司 | 人工智能引擎优化方法和装置 |
CN110648668A (zh) * | 2019-09-24 | 2020-01-03 | 上海依图信息技术有限公司 | 关键词检测装置和方法 |
CN112417109B (zh) * | 2020-10-26 | 2023-08-01 | 问问智能信息科技有限公司 | 一种人机对话系统的测试方法及装置 |
CN112463108B (zh) * | 2020-12-14 | 2023-03-31 | 美的集团股份有限公司 | 语音交互处理方法、装置、电子设备及存储介质 |
CN112351047B (zh) * | 2021-01-07 | 2021-08-24 | 北京远鉴信息技术有限公司 | 基于双引擎的声纹身份认证方法、装置、设备及存储介质 |
CN113096668B (zh) * | 2021-04-15 | 2023-10-27 | 国网福建省电力有限公司厦门供电公司 | 一种构建协作语音交互引擎簇的方法及装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1351744A (zh) * | 1999-03-26 | 2002-05-29 | 皇家菲利浦电子有限公司 | 具有互补语言模型的识别引擎 |
CN1633679A (zh) * | 2001-12-29 | 2005-06-29 | 摩托罗拉公司 | 用于多级分布式语音识别的方法和装置 |
CN1882015A (zh) * | 2005-06-15 | 2006-12-20 | Sk株式会社 | 使用顾问和语音识别引擎的服务质量呼叫路由选择系统及其方法 |
CN104795069A (zh) * | 2014-01-21 | 2015-07-22 | 腾讯科技(深圳)有限公司 | 语音识别方法和服务器 |
CN104823235A (zh) * | 2013-11-29 | 2015-08-05 | 三菱电机株式会社 | 声音识别装置 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005031758A (ja) * | 2003-07-07 | 2005-02-03 | Canon Inc | 音声処理装置及び方法 |
KR100695127B1 (ko) * | 2004-10-08 | 2007-03-14 | 삼성전자주식회사 | 다 단계 음성 인식 장치 및 방법 |
WO2011052412A1 (ja) * | 2009-10-28 | 2011-05-05 | 日本電気株式会社 | 音声認識システム、音声認識要求装置、音声認識方法、音声認識用プログラムおよび記録媒体 |
US9601107B2 (en) * | 2011-08-19 | 2017-03-21 | Asahi Kasei Kabushiki Kaisha | Speech recognition system, recognition dictionary registration system, and acoustic model identifier series generation apparatus |
TWI579828B (zh) * | 2015-06-01 | 2017-04-21 | 鴻海精密工業股份有限公司 | 語音辨識裝置及方法 |
KR101736109B1 (ko) * | 2015-08-20 | 2017-05-16 | 현대자동차주식회사 | 음성인식 장치, 이를 포함하는 차량, 및 그 제어방법 |
CN106782546A (zh) * | 2015-11-17 | 2017-05-31 | 深圳市北科瑞声科技有限公司 | 语音识别方法与装置 |
-
2016
- 2016-12-31 CN CN201611265979.0A patent/CN106601257B/zh active Active
-
2017
- 2017-11-07 US US15/806,016 patent/US10438590B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1351744A (zh) * | 1999-03-26 | 2002-05-29 | 皇家菲利浦电子有限公司 | 具有互补语言模型的识别引擎 |
CN1633679A (zh) * | 2001-12-29 | 2005-06-29 | 摩托罗拉公司 | 用于多级分布式语音识别的方法和装置 |
CN1882015A (zh) * | 2005-06-15 | 2006-12-20 | Sk株式会社 | 使用顾问和语音识别引擎的服务质量呼叫路由选择系统及其方法 |
CN104823235A (zh) * | 2013-11-29 | 2015-08-05 | 三菱电机株式会社 | 声音识别装置 |
CN104795069A (zh) * | 2014-01-21 | 2015-07-22 | 腾讯科技(深圳)有限公司 | 语音识别方法和服务器 |
Also Published As
Publication number | Publication date |
---|---|
US10438590B2 (en) | 2019-10-08 |
US20180190295A1 (en) | 2018-07-05 |
CN106601257A (zh) | 2017-04-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106601257B (zh) | 一种声音识别方法、设备和第一电子设备 | |
CN106098063B (zh) | 一种语音控制方法、终端设备和服务器 | |
EP3506184A1 (en) | Method for training model and information recommendation system | |
JP6587330B2 (ja) | ランダムフォレストモデルの訓練方法、電子装置及び記憶媒体 | |
KR20190120353A (ko) | 음성 인식 방법, 디바이스, 장치, 및 저장 매체 | |
WO2020014899A1 (zh) | 语音控制方法、中控设备和存储介质 | |
CN105893390B (zh) | 一种应用程序的处理方法及电子设备 | |
CN105657535A (zh) | 一种音频识别方法和装置 | |
CN109584876A (zh) | 语音数据的处理方法、装置和语音空调 | |
CN105336324A (zh) | 一种语种识别方法及装置 | |
CN109086276B (zh) | 数据翻译方法、装置、终端及存储介质 | |
CN109871807B (zh) | 人脸图像处理方法和装置 | |
CN103440243A (zh) | 一种教学资源推荐方法及其装置 | |
CN111178081B (zh) | 语义识别的方法、服务器、电子设备及计算机存储介质 | |
CN111197841A (zh) | 控制方法、装置、遥控终端、空调器、服务器及存储介质 | |
CN106649696A (zh) | 信息分类方法及装置 | |
CN110910874A (zh) | 一种互动课堂语音控制方法、终端设备、服务器和系统 | |
CN111128150A (zh) | 一种唤醒智能语音设备的方法及装置 | |
CN106920546B (zh) | 智能识别语音的方法及装置 | |
CN106611021B (zh) | 一种数据处理方法和设备 | |
CN113901837A (zh) | 一种意图理解方法、装置、设备及存储介质 | |
CN109871128B (zh) | 一种题型识别方法及装置 | |
CN111680514B (zh) | 信息处理和模型训练方法、装置、设备及存储介质 | |
US20160163313A1 (en) | Information processing method and electronic device | |
US11727042B2 (en) | Method and server for classifying queries |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |