CN103903621A - 一种语音识别的方法及电子设备 - Google Patents
一种语音识别的方法及电子设备 Download PDFInfo
- Publication number
- CN103903621A CN103903621A CN201210576786.2A CN201210576786A CN103903621A CN 103903621 A CN103903621 A CN 103903621A CN 201210576786 A CN201210576786 A CN 201210576786A CN 103903621 A CN103903621 A CN 103903621A
- Authority
- CN
- China
- Prior art keywords
- speech data
- high frequency
- user
- data
- units
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
本发明公开了一种语音识别的方法及电子设备,所述语音识别的方法应用于一电子设备,该方法包括:接收用户输入的第一语音数据;基于用户的身份信息,获取与所述用户的身份信息相对应的第一高频词汇数据库;利用所述第一高频词汇数据库对所述第一语音数据进行识别。通过用户对应的高频词汇数据库对用户输入的语音数据进行相应的语音识别,解决了现有技术所有语音数据都需要在标准词汇数据库中去对比识别导致的语音识别效率低下的技术问题,从而达到提高语音识别效率的技术效果。
Description
技术领域
本发明涉及多媒体技术领域,特别涉及一种语音识别的方法及电子设备。
背景技术
随着1920年能够听懂主人呼唤自己名字的玩具狗“Radio Rex”诞生,语音识别技术的全面研究走上了正轨,并在19世纪末由卡内基梅隆大学的李开复最终实现了第一个基于隐马尔科夫模型的大词汇量语音识别系统,从此语音识别技术的应用日益广泛,包括语音拨号、语音导航、室内设备控制、语音文档检索、简单的听写数据录入等。
本申请发明人在实现本申请实施例中技术方案的过程中,发现现有技术中在需要对语音数据进行识别时,存在如下技术问题:
现有技术需要将语音数据与系统词汇数据库进行对比识别,而现有的标准词汇数据库存储的是海量词汇及其对应的标准语音数据,用户的语音数据需要与海量词汇数据库中的大量数据进行逐一对比识别,消耗的时间较长;同时由于标准词汇数据库中存储的是标准语音数据,即标准普通话对应的语音数据,而绝大多数用户说话时都带有地方口音、个人特色等特点与标准语音相差较大,需要经过大量的运算来识别且识别难度大,因而存在语音识别效率低下的技术问题。
发明内容
本发明实施例提供一种语音识别的方法及电子设备,用于针对不同用户实现高频词汇语音识别,提高语音识别的效率。
本发明实施例提供一种语音识别的方法,应用于一电子设备,包括:
接收用户输入的第一语音数据;
基于用户的身份信息,获取与所述用户的身份信息相对应的第一高频词汇数据库;
利用所述第一高频词汇数据库对所述第一语音数据进行识别。
可选的,所述高频词数据库具体为:
存储在所述电子设备端或网络服务器端的,包含有所述用户使用次数大于预设门限值的第一词汇的词汇数据库。
可选的,所述方法进一步包括:
在预设时间周期内,获取所述身份信息对应的语音数据包及识别所述语音数据包后形成的识别数据包;
检测所述识别数据包中是否存在使用次数大于所述预设门限值的第二预选词,获得第一检测结果;
若所述第一检测结果表明存在所述第二预选词,从所述语音数据包中获取所述第二预选词对应的第二语音数据单元;
将所述第二预选词及所述第二语音数据单元存入所述第一高频词汇数据库。
可选的,所述方法进一步包括:
向网络服务器发送获取网络高频词的请求信息;
接收所述网络服务发送的包含网络高频词及其对应的第三语音数据单元的反馈信息;
从所述反馈信息中获取所述网络高频词和所述第三语音数据单元,将所述网络高频词和所述第三语音数据单元存入所述第一高频词汇数据库。
可选的,在所述利用所述第一高频词汇数据库对所述第一语音数据进行识别之后,所述方法进一步包括:
判断所述第一语音数据中是否有所述第一高频词汇数据库不存在的第四语音数据单元,获得第一判断结果,其中所述第四语音数据单元为组成所述第一语音数据的任一语音数据;
当所述第一判断结果表明存在所述第四语音数据单元,向网络服务器发送识别所述第四语音数据单元的识别请求,所述识别请求中包括所述第四语音数据单元及第一识别结果,其中所述第一识别结果为利用所述第一高频词汇数据库对所述第一语音数据进行识别后形成的识别结果;
接收所述网络服务器的反馈信息,获取所述反馈信息中结合所述第一识别结果识别所述第四语音数据单元形成的第二识别结果。
可选的,在所述接收用户输入的第一语音数据之前,所述方法还包括:
生成第一提示信息,以提示所述用户输入与所述第一语音数据对应的所述身份信息;
响应所述用户选择身份信息的输入操作,获取所述身份信息。
可选的,在所述接收用户输入的第一语音数据之后,所述方法还包括:
对所述第一语音数据进行声纹识别,获取所述第一语音数据的第一声纹图谱;
基于所述第一声纹图谱,获取与所述第一声纹图谱对应的所述身份信息。
本发明实施例还提供一种电子设备,包括:
第一接收模块,用于接收用户输入的第一语音数据;
第一获取模块,与所述第一接收模块相连,用于获取与用户的身份信息相对应的第一高频词汇数据库;
识别模块,与所述第一获取模块相连,用于利用所述第一高频词汇数据库对所述第一语音数据进行识别。
可选的,所述第一获取模块具体用于:
从所述电子设备端或网络服务器端获取所述第一高频词汇数据库,所述第一高频词汇数据库包含有所述用户使用次数大于预设门限值的第一词汇的词汇数据库。
可选的,所述电子设备进一步包括:
第二获取模块,用于在预设时间周期内,获取所述身份信息对应的语音数据包及识别所述语音数据包后形成的识别数据包;
第一检测模块,用于检测所述识别数据包中是否存在使用次数大于所述预设门限值的第二预选词,获得第一检测结果;
第三获取模块,用于在所述第一检测结果表明存在所述第二预选词时,从所述语音数据包中获取所述第二预选词对应的第二语音数据单元;
第一存储模块,用于将所述第二预选词及所述第二语音数据单元存入所述第一高频词汇数据库。
可选的,所述电子设备进一步包括:
第一发送模块:用于向网络服务器发送获取网络高频词的请求信息;
第二接收模块:用于接收所述网络服务发送的包含网络高频词及其对应的第三语音数据单元的反馈信息;
第二存储模块,用于将从所述反馈信息中获取到的所述网络高频词和所述第三语音数据单元存入所述第一高频词汇数据库。
可选的,所述电子设备进一步包括:
判断模块,用于判断所述第一语音数据中是否有所述第一高频词汇数据库不存在的第四语音数据单元,获得第一判断结果,其中所述第四语音数据单元为组成所述第一语音数据的任一语音数据;
第二发送模块,用于在所述第一判断结果表明存在所述第四语音数据单元时,向网络服务器发送识别所述第四语音数据单元的识别请求,所述识别请求中包括所述第四语音数据单元及第一识别结果,其中所述第一识别结果为利用所述第一高频词汇数据库对所述第一语音数据进行识别后形成的识别结果;
第三接收模块,用于接收所述网络服务器的反馈信息,获取所述反馈信息中结合所述第一识别结果识别所述第四语音数据单元形成的第二识别结果。
可选的,所述电子设备进一步包括:
信息生成模块,用于在所述接收用户输入的第一语音数据之前,生成第一提示信息,以提示所述用户输入与所述第一语音数据对应的所述身份信息;
第四获取模块,用于响应所述用户选择身份信息的输入操作,获取所述身份信息。
可选的,所述电子设备还包括:
声纹识别模块,用于在所述接收用户输入的第一语音数据之后,对所述第一语音数据进行声纹识别,获取所述第一语音数据的第一声纹图谱;
第五获取模块,用于基于所述第一声纹图谱,获取与所述第一声纹图谱对应的所述身份信息。
本发明实施例中的上述一个或多个技术方案,至少具有如下一种或多种技术效果:
1、本发明所提供的方案针对不同的用户提供不同的高频词汇数据库,使得针对某一用户输入的语音数据可以采用对应的高频词汇数据库来进行语音识别,由于高频词汇数据库中的词汇为用户常用的高频词,数据量小且使用频率高,解决了现有技术所有语音数据都需要在标准词汇数据库中去对比识别导致语音识别效率低下的技术问题,从而达到提高语音识别效率的技术效果。
2、由于高频词汇数据库中保存有用户使用频率大于预设门限值的高频词及其对应的用户发出的语音数据单元,保留了用户自己的语音特色,形成了个性化的语音识别系统,针对各个用户具有更快速更准确的语音识别效果,提升了用户体验。
3、由于高频词汇数据库的数据量小、灵活多变可以存储在用户使用的电子设备端即存储在本地,节约了向网络服务器进行数据通信获取识别结果的数据流量消耗,同时减少了语音识别过程的传输时间消耗,提高了语音识别的速率。
4、在语音识别的过程中通过声纹识别技术对用户的身份信息进行识别,具有更准确的识别效果,并且能够有效的防止非用户本人使用电子设备上的相应功能,从而保护了用户的相关信息,具有更佳的用户体验。
附图说明
图1为本发明实施例一提供的一种语音识别的方法的流程图;
图2为本发明实施例一提供的结合第一高频词汇数据库和网络服务器完成语音识别的流程图;
图3为本发明实施例一提供的第一高频词汇数据库形成的示意图;
图4为本发明实施例二提供的一种电子设备的结果方框图。
具体实施方式
本发明实施例提供的技术方案中,通过用户对应的高频词汇数据库对用户输入的语音数据进行相应的语音识别,解决了现有技术所有语音数据都需要在标准词汇数据库中去对比识别导致的语音识别效率低下的技术问题,从而达到提高语音识别效率的技术效果。
下面结合附图对本申请实施例技术方案的主要实现原理、具体实施方式及其对应能够达到的有益效果进行详细的阐述。
实施例一
请参考图1,本发明实施例提供一种语音识别的方法,应用于一电子设备,包括:
S101:接收用户输入的第一语音数据。
在具体实施过程中,用户在使用语音拨号、语音导航或听写数据录入等功能的时候,均需要给电子设备输入一段语音数据即第一语音数据,例如:用户A正在使用听写数据录入,向电子设备输入第一语音数据:“dear diary,今日飘落的银杏叶异常的美丽”,此时电子设备则会接收用户输入的第一语音数据“dear diary,今日飘落的银杏叶异常的美丽”并执行下一步S102。
S102:基于用户的身份信息,获取与所述用户的身份信息相对应的第一高频词汇数据库。
为了针对各个用户提供高频词汇数据库进行相应的语音数据识别,本发明在对第一语音数据进行识别之前,可以使用声纹识别方法来获取第一语音数据对应的用户的身份信息,即对所述第一语音数据进行声纹识别,获取所述第一语音数据的第一声纹图谱,再基于所述第一声纹图谱,获取与所述第一声纹图谱对应的所述身份信息。当然,还可以根据用户输入的用户名信息或指纹信息获取身份信息,即在所述接收用户输入的第一语音数据之前,生成第一提示信息,提示所述用户输入与所述第一语音数据对应的身份信息,然后响应所述用户选择身份信息的输入操作,获取所述身份信息。
通过声纹识别或用户的输入操作获取到用户的身份信息后,基于用户的身份信息获取与所述身份信息相对应的第一高频词汇数据库。因为本发明对应不同用户的不同身份信息提供的第一高频词汇数据库不同,所以可以针对不同的用户获取不同的高频词汇数据库。例如:获取到用户A的身份信息为“飘飘”,那么根据“飘飘”对应的高频词汇数据库为“1号数据库”获取到第一高频词汇数据库:“1号数据库”。在获得第一高频词汇数据库之后,继续下一步即S103。
S103:利用所述第一高频词汇数据库对所述第一语音数据进行识别。
具体的,所述第一高频词汇数据库为存储在所述电子设备端或网络服务器端的,包含有所述用户使用次数大于预设门限值的第一词汇的词汇数据库。因为针对单个的用户第一高频词汇数据库的数据量小且灵活多变,可以很方便的存储在电子设备端即本地电子设备,这样可以有效的减少语音识别过程的传输时间消耗,提高语音识别的速率,同时还能够节约向网络服务器进行数据通信获取识别结果的数据流量消耗。当然所述第一高频词汇数据库也可以存储在网络服务器上,这样不管用户在哪里使用的是哪一个电子设备均可以使用自己的高频词汇数据库,不受地域和设备的限定。
在利用第一高频词汇数据库对第一语音数据进行识别的时候,对输入的第一语音数据进行频谱分析,再提取语音特征和词语列表中的高频词语的特征进行对比匹配,找出相似度符合匹配值的词语作为识别结果,例如在用户A的第一高频词汇数据库“1号数据库”中包括“dear diary今日、的、异常、美丽”等高频词,那么利用第一高频词汇数据库对第一语音数据进行识别时,则会分析第一语音数据“dear diary,今日飘落的银杏叶异常的美丽”的频谱,并提取第一语音数据的语音特征,再与“1号数据库”中的高频词的语音特征进行对比匹配,最后得出识别结果:“dear diary,今日XX1的XX2异常的美丽”,其中“XX1”和“XX2”代表未识别出来的语音数据单元。
在具体的实施过程中,针对常用的高频词、句通过高频词汇数据库可以完全的识别出来,如用户常用的“给燕子打电话”、“打开‘我的电脑’”、“九点之后关闭计算机”等,但对于用户不常用的词语仅仅靠高频词汇数据库不能完全的识别用户输入的语句,如“dear diary,今日飘落的银杏叶异常的美丽”中就存在“飘落、银杏叶”这两个语音数据单元识别不出来,因此为了完善电子设备的语音识别功能,请参考图2,本发明在通过第一高频词汇数据库进行语音识别的基础上还提供以下方法:
在所述利用所述第一高频词汇数据库对所述第一语音数据进行识别之后,执行以下步骤:
S201:判断所述第一语音数据中是否有所述第一高频词汇数据库不存在的第四语音数据单元,获得第一判断结果。其中,所述第四语音数据单元为组成所述第一语音数据的任一语音数据,即组成第一语音数据的各个小的语音字词,如组成第一语音数据“dear diary,今日飘落的银杏叶异常的美丽”的语音数据单元“飘落”、“银杏叶”。当所述第一判断结果为没有所述第四语音数据单元,即第一高频词汇数据库中包含了所有第一语音数据对应的词语时,电子设备则可以直接得出完整的语音识别结果:输出第一语音数据对应的文本数据,或执行第一语音数据对应的指令等;当所述第一判断结果为存在所述第四语音数据单元,即利用第一高频词汇数据库对第一语音数据的识别不完整,存在一部分不能识别的语音单元,如“dear diary,今日飘落的银杏叶异常的美丽”语音中的语音数据单元“飘落”和“银杏叶”,那么此时执行下一步:S202。
S202:当所述第一判断结果表明存在所述第四语音数据单元,向网络服务器发送识别所述第四语音数据单元的识别请求。所述识别请求中包括所述第四语音数据单元及利用所述第一高频词汇数据库对所述第一语音数据进行识别后形成的第一识别结果。例如,将上述第一语音数据“dear diary,今日飘落的银杏叶异常的美丽”的第一识别结果“dear diary,今日XX1的XX2异常的美丽”和利用“1号数据库”未识别出来的“XX1”和“XX2”两个第四语音数据单元发送给网络服务器,请求网络服务器做进一步识别。因为网络服务器中存储有海量语音识别的词语数据库,所以能够对电子设备的识别请求进行相应的处理,那么在网络服务器对识别请求进行处理之后执行下一步:S203。
S203:接收所述网络服务器的反馈信息,获取所述反馈信息中结合所述第一识别结果识别所述第四语音数据单元形成的第二识别结果。
由于利用第一高频词汇数据库已经快速准确的识别出了部分语音数据单元,所以网络服务器在进一步识别时,可以结合所述第一识别结果对所述第四语音数据单元进行快速识别,如根据第一识别结果的整体语义“今日XX1的XX2异常的美丽”可以推测“XX2”为名词、“XX1”为动词或形容词,那么这样就可以大大的缩小语音对比匹配的范围,快速的识别出“XX1”为“飘落”、“XX2”为“银杏叶”,进一步提高了识别的速率和准确率,由此电子设备就可以从反馈信息中获得完整的所述第二识别结果“dear diary,今日飘落的银杏叶异常的美丽”。当然,电子设备也可以将完整的第一语音数据发送给网络服务器要求其完整识别,但实际应用中一般不会这样做,因为这样不仅浪费时间,还会因为广义的数据库不具备针对用户特殊语音的识别功能而导致识别结果错误。
在具体实施过程中,为了针对不同的用户提供不同的第一高频词汇数据库,请参考图3,本发明提供了一种第一高频词汇数据库自动“学习”并更新的方法,具体如下:
S301:在预设时间周期内,获取所述身份信息对应的语音数据包及识别所述语音数据包后形成的识别数据包。
具体的,所述预设时间周期可以根据电子设备的存储空间的大小进行不同的设定,也可以根据仿真数据的统计进行设定。第一种,根据存储空间大小进行设定时,若电子设备的存储空间较大,那么电子设备对语音数据包和所述识别数据包的存储能力则较大,此时预设时间周期则可以设置较长,相反则设置为较短的时间周期;第二种,根据仿真数据的统计进行设定,仿真数据是用于保证电子设备在形成和更新第一高频数据库时具有最佳的性能,假设这个预设时间周期为24小时,那么电子设备则会获取24小时内,与用户身份信息对应的语音数据包及识别所述语音数据包后形成的识别数据包。在获取到24小时内的所有语音数据包及其对应的识别数据包后执行下一步:S302。
S302:检测所述识别数据包中是否存在使用次数大于所述预设门限值的第二预选词,获得第一检测结果。
为了保证预设门限值的科学性,所述预设门限值的大小随所述预设时间周期变化而调整,如预设时间周期为24小时,对应的所述预设门限值可以为6次;若预设时间周期为12小时,相应的所述预设门限值则调整为3次,其它的预设门限值以此类推。根据所述预设门限值可以将所述识别数据包中的字词划分为两类:一、使用次数小于等于预设门限值,二、使用次数大于预设门限值。在识别数据包中所有字词使用次数小于等于预设门限值时,即第一判断结果为不存在使用次数大于所述预设门限值的高频词,此时不进行进一步的操作;在识别数据包中存在使用次数大于预设门限值的第二预选词时,即所述第一检测结果为存在使用次数大于所述预设门限值的高频词,此时执行下一步:S303。
S303:若所述第一检测结果表明存在所述第二预选词,从所述语音数据包中获取所述第二预选词对应的第二语音数据单元。因为每个用户输入的语音数据都具有个人的语言特色,如带有地方口音、个人惯用语气、特定用语等,所以获取第二预选词对应的原语音数据单元即第二语音数据单元,保留用户的语言特色,便于下一次进行语音识别时更快速更准确的识别出第二预选词。如检测出的第二预选词为“杯具”、“郁闷”和“oh my god”那么则对应获得用户输入这三个第二预选词的第二语音数据单元。在获取到第二预选词及其对应的第二语音数据单元时,执行下一步:S304。
S304:将所述第二预选词及所述第二语音数据单元存入所述第一高频词汇数据库,如将上述检测出来的第二预选词:“杯具”、“郁闷”和“oh my god”及其对应的第二语音数据单元存入第一高频词汇数据库中。电子设备不断补充第一高频词汇数据库中的高频词的同时,会定期的清除一段时间内使用次数低于预设门限值的字词,从而不断的更新第一高频词汇数据库,保持第一高频词库的时效性。
通过上述方法电子设备能够不断的“学习”用户的语音特征,根据“学习”到的语音特征本发明还进一步利用声纹识别方法识别用户输入的语音特征,并确定当前用户是否是该电子设备的主人,可以避免其他用户的非法语音输入,如用户A是电子设备的主人,语音数据库中记录了用户A的语音特征,那么用户B在使用该电子设备进行语音输入时,电子设备通过声纹识别可以判断出用户B不是该电子设备的主人,则会根据用户A的设置执行相应的操作,如报警、不执行语音识别操作等。
在第一高频词汇数据库的自动“学习”和更新的过程中,为了完善第一高频词汇数据库,并为用户提供流行词语的识别,提升用户体验,本发明实施例还提供一种从网络服务器获取高频词的方法,具体如下:
向网络服务器发送获取网络高频词的请求信息。请求信息的发送可以按一定时间周期发送,如一周或一个月向网络服务器发送一次请求信息,请求获取当前时间段新增的网络高频词,并在发送请求信息之后接收所述网络服务发送的包含网络高频词及其对应的第三语音数据单元的反馈信息。紧接着,从所述反馈信息中获取所述网络高频词和所述第三语音数据单元,将所述网络高频词和所述第三语音数据单元存入所述第一高频词汇数据库。例如,电子设备向网络服务器发送获取2012年11月新增的网络高频词的请求信息,在网络服务器接收并响应该请求信息后,向电子设备发送反馈信息:网络高频词“二”和“骑马舞”及其对应的语音数据单元,那么电子设备则会接收所述反馈信息,并将从反馈信息中获取到的网络高频词“二”和“骑马舞”及其对应的语音数据单元存入第一高频词汇数据库。
本发明所提供的方案针对不同的用户提供不同的高频词汇数据库,使得电子设备能够针对不同用户输入的语音数据采用对应的高频词汇数据库来进行语音识别,由于高频词汇数据库中的词汇为用户常用的高频词,数据量小且使用频率高,解决了现有技术所有语音数据都需要在标准词汇数据库中去对比识别导致的语音识别效率低下的技术问题,从而达到提高语音识别效率的技术效果。同时,由于高频词汇数据库中保存的是用户使用频率大于预设门限值的高频词及其对应的用户发出的语音数据单元,保留了用户自己的语音特色,形成了个性化的语音识别系统,针对各个用户具有更快速更准确的语音识别效果,提升了用户体验。
实施例二
请参考图4,本发明实施例还提供一种电子设备,包括:
第一接收模块401,用于接收用户输入的第一语音数据;
第一获取模块402,与所述第一接收模块401相连,用于获取与用户的身份信息相对应的第一高频词汇数据库;
识别模块403,与所述第一获取模块402相连,用于利用所述第一高频词汇数据库对所述第一语音数据进行识别。
在具体实施过程中,根据用户的不同需求所述第一获取模块可以从所述电子设备端或网络服务器端获取所述第一高频词汇数据库,所述第一高频词汇数据库包含有所述用户使用次数大于预设门限值的第一词汇的词汇数据库。
为了针对不同的用户建立不同的高频词汇数据库,本发明电子设备进一步包括:
第二获取模块404,用于在预设时间周期内,获取所述身份信息对应的语音数据包及识别所述语音数据包后形成的识别数据包;
第一检测模块405,用于检测所述识别数据包中是否存在使用次数大于所述预设门限值的第二预选词,获得第一检测结果;
第三获取模块406,用于在所述第一检测结果表明存在所述第二预选词时,从所述语音数据包中获取所述第二预选词对应的第二语音数据单元;
第一存储模块407,用于将所述第二预选词及所述第二语音数据单元存入所述第一高频词汇数据库。
在建立和优化第一高频词汇数据库的过程中,为了给用户提供流行语的识别功能,所述电子设备进一步包括:
第一发送模块408:用于向网络服务器发送获取网络高频词的请求信息;
第二接收模块409:用于接收所述网络服务发送的包含网络高频词及其对应的第三语音数据单元的反馈信息;
第二存储模块410,用于将从所述反馈信息中获取到的所述网络高频词和所述第三语音数据单元存入所述第一高频词汇数据库。
在具体实施过程中,仅仅利用第一高频词汇数据库对用户输入的语音数据进行识别,可能会识别不出完整的语义结果,所以本发明电子设备进一步提供:
判断模块411,用于判断所述第一语音数据中是否有所述第一高频词汇数据库不存在的第四语音数据单元,获得第一判断结果,其中所述第四语音数据单元为组成所述第一语音数据的任一语音数据;
第二发送模块412,用于在所述第一判断结果表明存在所述第四语音数据单元时,向网络服务器发送识别所述第四语音数据单元的识别请求,所述识别请求中包括所述第四语音数据单元及第一识别结果,其中所述第一识别结果为利用所述第一高频词汇数据库对所述第一语音数据进行识别后形成的识别结果;
第三接收模块413,用于接收所述网络服务器的反馈信息,获取所述反馈信息中结合所述第一识别结果识别所述第四语音数据单元形成的第二识别结果。
为了通过用户的输入操作获取用户的身份信息,所述电子设备进一步包括:
信息生成模块414,用于在所述接收用户输入的第一语音数据之前,生成第一提示信息,以提示所述用户输入与所述第一语音数据对应的所述身份信息;
第四获取模块415,用于响应所述用户选择身份信息的输入操作,获取所述身份信息。
为了通过声纹识别方法获取用户的身份信息,所述电子设备还包括:
声纹识别模块416,用于在所述接收用户输入的第一语音数据之后,对所述第一语音数据进行声纹识别,获取所述第一语音数据的第一声纹图谱;
第五获取模块417,用于基于所述第一声纹图谱,获取与所述第一声纹图谱对应的所述身份信息。
由于本实施例中的电子设备为与方法对应的虚拟装置,所以,其具体的工作过程就不再进行具体的描述了。
通过本发明实施例中的一个或多个技术方案,可以实现如下一个或多个技术效果:
1、通过针对不同的用户提供不同的高频词汇数据库,使得针对用户输入的语音数据可以采用对应的高频词汇数据库来进行语音识别,由于高频词汇数据库中的词汇为用户常用的高频词,数据量小且使用频率高,解决了现有技术所有语音数据都需要在标准词汇数据库中去对比识别导致的语音识别效率低下的技术问题,从而达到提高语音识别效率的技术效果。
2、由于高频词汇数据库中保存的是用户使用频率大于预设门限值的高频词及其对应的用户发出的语音数据单元,保留了用户自己的语音特色,形成了个性化的语音识别系统,针对各个用户具有更快速更准确的语音识别效果,提升了用户体验。
3、由于高频词汇数据库的数据量小、灵活多变可以存储在用户使用的电子设备端即存储在本地,节约了向网络服务器进行数据通信获取识别结果的数据流量消耗,同时减少了语音识别过程的传输时间消耗,提高了语音识别的速率。
4、在语音识别的过程中通过声纹识别技术对用户的身份信息进行识别,具有更准确的识别效果,并且能够有效的防止非用户本人使用电子设备上的相应功能,从而保护了用户的相关信息,具有更佳的用户体验。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
Claims (14)
1.一种语音识别的方法,应用于一电子设备,其特征在于,包括:
接收用户输入的第一语音数据;
基于用户的身份信息,获取与所述用户的身份信息相对应的第一高频词汇数据库;
利用所述第一高频词汇数据库对所述第一语音数据进行识别。
2.如权利要求1所述的方法,其特征在于,所述高频词数据库具体为:
存储在所述电子设备端或网络服务器端的,包含有所述用户使用次数大于预设门限值的第一词汇的词汇数据库。
3.如权利要求1所述的方法,其特征在于,所述方法进一步包括:
在预设时间周期内,获取所述身份信息对应的语音数据包及识别所述语音数据包后形成的识别数据包;
检测所述识别数据包中是否存在使用次数大于所述预设门限值的第二预选词,获得第一检测结果;
若所述第一检测结果表明存在所述第二预选词,从所述语音数据包中获取所述第二预选词对应的第二语音数据单元;
将所述第二预选词及所述第二语音数据单元存入所述第一高频词汇数据库。
4.如权利要求1~3中任一权利要求所述的方法,其特征在于,所述方法进一步包括:
向网络服务器发送获取网络高频词的请求信息;
接收所述网络服务发送的包含网络高频词及其对应的第三语音数据单元的反馈信息;
从所述反馈信息中获取所述网络高频词和所述第三语音数据单元,将所述网络高频词和所述第三语音数据单元存入所述第一高频词汇数据库。
5.如权利要求1所述的方法,其特征在于,在所述利用所述第一高频词汇数据库对所述第一语音数据进行识别之后,所述方法进一步包括:
判断所述第一语音数据中是否有所述第一高频词汇数据库不存在的第四语音数据单元,获得第一判断结果,其中所述第四语音数据单元为组成所述第一语音数据的任一语音数据;
当所述第一判断结果表明存在所述第四语音数据单元,向网络服务器发送识别所述第四语音数据单元的识别请求,所述识别请求中包括所述第四语音数据单元及第一识别结果,其中所述第一识别结果为利用所述第一高频词汇数据库对所述第一语音数据进行识别后形成的识别结果;
接收所述网络服务器的反馈信息,获取所述反馈信息中结合所述第一识别结果识别所述第四语音数据单元形成的第二识别结果。
6.如权利要求1~3中任一权利要求所述的方法,其特征在于,在所述接收用户输入的第一语音数据之前,所述方法还包括:
生成第一提示信息,以提示所述用户输入与所述第一语音数据对应的所述身份信息;
响应所述用户选择身份信息的输入操作,获取所述身份信息。
7.如权利要求1~3中任一权利要求所述的方法,其特征在于,在所述接收用户输入的第一语音数据之后,所述方法还包括:
对所述第一语音数据进行声纹识别,获取所述第一语音数据的第一声纹图谱;
基于所述第一声纹图谱,获取与所述第一声纹图谱对应的所述身份信息。
8.一种电子设备,其特征在于,包括:
第一接收模块,用于接收用户输入的第一语音数据;
第一获取模块,与所述第一接收模块相连,用于获取与用户的身份信息相对应的第一高频词汇数据库;
识别模块,与所述第一获取模块相连,用于利用所述第一高频词汇数据库对所述第一语音数据进行识别。
9.如权利要求8所述的电子设备,其特征在于,所述第一获取模块具体用于:
从所述电子设备端或网络服务器端获取所述第一高频词汇数据库,所述第一高频词汇数据库包含有所述用户使用次数大于预设门限值的第一词汇的词汇数据库。
10.如权利要求8所述的电子设备,其特征在于,所述电子设备进一步包括:
第二获取模块,用于在预设时间周期内,获取所述身份信息对应的语音数据包及识别所述语音数据包后形成的识别数据包;
第一检测模块,用于检测所述识别数据包中是否存在使用次数大于所述预设门限值的第二预选词,获得第一检测结果;
第三获取模块,用于在所述第一检测结果表明存在所述第二预选词时,从所述语音数据包中获取所述第二预选词对应的第二语音数据单元;
第一存储模块,用于将所述第二预选词及所述第二语音数据单元存入所述第一高频词汇数据库。
11.如权利要求8~10中任一权利要求所述的电子设备,其特征在于,所述电子设备进一步包括:
第一发送模块:用于向网络服务器发送获取网络高频词的请求信息;
第二接收模块:用于接收所述网络服务发送的包含网络高频词及其对应的第三语音数据单元的反馈信息;
第二存储模块,用于将从所述反馈信息中获取到的所述网络高频词和所述第三语音数据单元存入所述第一高频词汇数据库。
12.如权利要求8所述的电子设备,其特征在于,所述电子设备进一步包括:
判断模块,用于判断所述第一语音数据中是否有所述第一高频词汇数据库不存在的第四语音数据单元,获得第一判断结果,其中所述第四语音数据单元为组成所述第一语音数据的任一语音数据;
第二发送模块,用于在所述第一判断结果表明存在所述第四语音数据单元时,向网络服务器发送识别所述第四语音数据单元的识别请求,所述识别请求中包括所述第四语音数据单元及第一识别结果,其中所述第一识别结果为利用所述第一高频词汇数据库对所述第一语音数据进行识别后形成的识别结果;
第三接收模块,用于接收所述网络服务器的反馈信息,获取所述反馈信息中结合所述第一识别结果识别所述第四语音数据单元形成的第二识别结果。
13.如权利要求8~10中任一权利要求所述的电子设备,其特征在于,所述电子设备进一步包括:
信息生成模块,用于在所述接收用户输入的第一语音数据之前,生成第一提示信息,以提示所述用户输入与所述第一语音数据对应的所述身份信息;
第四获取模块,用于响应所述用户选择身份信息的输入操作,获取所述身份信息。
14.如权利要求8~10中任一权利要求所述的电子设备,其特征在于,所述电子设备还包括:
声纹识别模块,用于在所述接收用户输入的第一语音数据之后,对所述第一语音数据进行声纹识别,获取所述第一语音数据的第一声纹图谱;
第五获取模块,用于基于所述第一声纹图谱,获取与所述第一声纹图谱对应的所述身份信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210576786.2A CN103903621A (zh) | 2012-12-26 | 2012-12-26 | 一种语音识别的方法及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210576786.2A CN103903621A (zh) | 2012-12-26 | 2012-12-26 | 一种语音识别的方法及电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN103903621A true CN103903621A (zh) | 2014-07-02 |
Family
ID=50994903
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201210576786.2A Pending CN103903621A (zh) | 2012-12-26 | 2012-12-26 | 一种语音识别的方法及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103903621A (zh) |
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104134439A (zh) * | 2014-07-31 | 2014-11-05 | 深圳市金立通信设备有限公司 | 一种习惯用语的获取方法、装置及系统 |
CN104157286A (zh) * | 2014-07-31 | 2014-11-19 | 深圳市金立通信设备有限公司 | 一种习惯用语的获取方法及装置 |
CN105489218A (zh) * | 2015-11-24 | 2016-04-13 | 江苏惠通集团有限责任公司 | 一种语音控制的系统、遥控器及服务器 |
CN105549949A (zh) * | 2015-12-18 | 2016-05-04 | 合肥寰景信息技术有限公司 | 一种网络社区的语音帮助提示方法 |
CN105654953A (zh) * | 2016-03-22 | 2016-06-08 | 美的集团股份有限公司 | 语音控制方法以及系统 |
CN105791931A (zh) * | 2016-02-26 | 2016-07-20 | 深圳Tcl数字技术有限公司 | 智能电视及其语音控制方法 |
CN106060270A (zh) * | 2016-07-07 | 2016-10-26 | 广东欧珀移动通信有限公司 | 信号处理方法、装置及系统 |
CN106384593A (zh) * | 2016-09-05 | 2017-02-08 | 北京金山软件有限公司 | 一种语音信息转换、信息生成方法及装置 |
CN106971732A (zh) * | 2016-01-14 | 2017-07-21 | 芋头科技(杭州)有限公司 | 一种基于识别模型提升声纹识别准确度的方法和系统 |
CN107591156A (zh) * | 2017-10-10 | 2018-01-16 | 杭州嘉楠耘智信息科技股份有限公司 | 语音识别方法及装置 |
CN107992565A (zh) * | 2017-11-29 | 2018-05-04 | 北京锐安科技有限公司 | 一种优化搜索引擎的方法及系统 |
CN108428446A (zh) * | 2018-03-06 | 2018-08-21 | 北京百度网讯科技有限公司 | 语音识别方法和装置 |
CN108899030A (zh) * | 2018-07-10 | 2018-11-27 | 深圳市茁壮网络股份有限公司 | 一种语音识别方法及装置 |
CN109086455A (zh) * | 2018-08-30 | 2018-12-25 | 广东小天才科技有限公司 | 一种语音识别库的构建方法及学习设备 |
CN109151225A (zh) * | 2018-09-04 | 2019-01-04 | 北京小鱼在家科技有限公司 | 通话处理方法、装置和通话设备 |
CN109377997A (zh) * | 2018-12-10 | 2019-02-22 | 珠海格力电器股份有限公司 | 一种家电的语音控制方法、装置、存储介质及家电系统 |
WO2019101083A1 (zh) * | 2017-11-24 | 2019-05-31 | 腾讯科技(深圳)有限公司 | 一种语音数据处理方法、语音交互设备及存储介质 |
CN110060681A (zh) * | 2019-04-26 | 2019-07-26 | 广东昇辉电子控股有限公司 | 具有智能语音识别功能的智能网关的控制方法 |
CN110895938A (zh) * | 2018-09-13 | 2020-03-20 | 广达电脑股份有限公司 | 语音校正系统及语音校正方法 |
CN111327935A (zh) * | 2020-03-02 | 2020-06-23 | 彩迅工业(深圳)有限公司 | 一种基于人工智能电视机的信息交互平台 |
CN111627438A (zh) * | 2020-05-21 | 2020-09-04 | 四川虹美智能科技有限公司 | 语音识别方法及装置 |
CN112672183A (zh) * | 2020-12-30 | 2021-04-16 | 南京伯索网络科技有限公司 | 一种直播课堂中语音分组讨论的监管方法和系统 |
CN113744740A (zh) * | 2021-09-03 | 2021-12-03 | 北京烽火万家科技有限公司 | 基于边缘计算超算AIpass的语音识别方法、装置及系统 |
CN113963695A (zh) * | 2021-10-13 | 2022-01-21 | 深圳市欧瑞博科技股份有限公司 | 一种智能设备的唤醒方法、装置、设备及存储介质 |
WO2023246151A1 (zh) * | 2022-06-22 | 2023-12-28 | 海信视像科技股份有限公司 | 显示设备和控制方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1448915A (zh) * | 2002-04-01 | 2003-10-15 | 欧姆龙株式会社 | 声音识别系统、装置、声音识别方法以及声音识别程序 |
CN101308654A (zh) * | 2007-05-14 | 2008-11-19 | 华为技术有限公司 | 一种语音分析识别方法、系统与装置 |
CN102292766A (zh) * | 2009-01-21 | 2011-12-21 | 诺基亚公司 | 用于提供用于语音识别自适应的复合模型的方法、装置和计算机程序产品 |
-
2012
- 2012-12-26 CN CN201210576786.2A patent/CN103903621A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1448915A (zh) * | 2002-04-01 | 2003-10-15 | 欧姆龙株式会社 | 声音识别系统、装置、声音识别方法以及声音识别程序 |
US20040010409A1 (en) * | 2002-04-01 | 2004-01-15 | Hirohide Ushida | Voice recognition system, device, voice recognition method and voice recognition program |
CN101308654A (zh) * | 2007-05-14 | 2008-11-19 | 华为技术有限公司 | 一种语音分析识别方法、系统与装置 |
CN102292766A (zh) * | 2009-01-21 | 2011-12-21 | 诺基亚公司 | 用于提供用于语音识别自适应的复合模型的方法、装置和计算机程序产品 |
Cited By (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104157286B (zh) * | 2014-07-31 | 2017-12-29 | 深圳市金立通信设备有限公司 | 一种习惯用语的获取方法及装置 |
CN104157286A (zh) * | 2014-07-31 | 2014-11-19 | 深圳市金立通信设备有限公司 | 一种习惯用语的获取方法及装置 |
CN104134439A (zh) * | 2014-07-31 | 2014-11-05 | 深圳市金立通信设备有限公司 | 一种习惯用语的获取方法、装置及系统 |
CN105489218A (zh) * | 2015-11-24 | 2016-04-13 | 江苏惠通集团有限责任公司 | 一种语音控制的系统、遥控器及服务器 |
CN105549949A (zh) * | 2015-12-18 | 2016-05-04 | 合肥寰景信息技术有限公司 | 一种网络社区的语音帮助提示方法 |
CN106971732A (zh) * | 2016-01-14 | 2017-07-21 | 芋头科技(杭州)有限公司 | 一种基于识别模型提升声纹识别准确度的方法和系统 |
CN105791931A (zh) * | 2016-02-26 | 2016-07-20 | 深圳Tcl数字技术有限公司 | 智能电视及其语音控制方法 |
CN105654953A (zh) * | 2016-03-22 | 2016-06-08 | 美的集团股份有限公司 | 语音控制方法以及系统 |
CN105654953B (zh) * | 2016-03-22 | 2019-05-17 | 美的集团股份有限公司 | 语音控制方法以及系统 |
CN106060270A (zh) * | 2016-07-07 | 2016-10-26 | 广东欧珀移动通信有限公司 | 信号处理方法、装置及系统 |
CN106060270B (zh) * | 2016-07-07 | 2019-08-27 | Oppo广东移动通信有限公司 | 信号处理方法、装置及系统 |
CN106384593A (zh) * | 2016-09-05 | 2017-02-08 | 北京金山软件有限公司 | 一种语音信息转换、信息生成方法及装置 |
CN110060687A (zh) * | 2016-09-05 | 2019-07-26 | 北京金山软件有限公司 | 一种语音信息转换、信息生成方法及装置 |
CN107591156A (zh) * | 2017-10-10 | 2018-01-16 | 杭州嘉楠耘智信息科技股份有限公司 | 语音识别方法及装置 |
CN107591156B (zh) * | 2017-10-10 | 2021-07-16 | 嘉楠明芯(北京)科技有限公司 | 语音识别方法及装置 |
WO2019101083A1 (zh) * | 2017-11-24 | 2019-05-31 | 腾讯科技(深圳)有限公司 | 一种语音数据处理方法、语音交互设备及存储介质 |
US11189263B2 (en) | 2017-11-24 | 2021-11-30 | Tencent Technology (Shenzhen) Company Limited | Voice data processing method, voice interaction device, and storage medium for binding user identity with user voice model |
CN107992565A (zh) * | 2017-11-29 | 2018-05-04 | 北京锐安科技有限公司 | 一种优化搜索引擎的方法及系统 |
CN107992565B (zh) * | 2017-11-29 | 2020-11-03 | 北京锐安科技有限公司 | 一种优化搜索引擎的方法及系统 |
CN108428446A (zh) * | 2018-03-06 | 2018-08-21 | 北京百度网讯科技有限公司 | 语音识别方法和装置 |
US10978047B2 (en) | 2018-03-06 | 2021-04-13 | Beijing Baidu Netcom Science And Technology Co., Ltd. | Method and apparatus for recognizing speech |
CN108428446B (zh) * | 2018-03-06 | 2020-12-25 | 北京百度网讯科技有限公司 | 语音识别方法和装置 |
CN108899030A (zh) * | 2018-07-10 | 2018-11-27 | 深圳市茁壮网络股份有限公司 | 一种语音识别方法及装置 |
CN109086455A (zh) * | 2018-08-30 | 2018-12-25 | 广东小天才科技有限公司 | 一种语音识别库的构建方法及学习设备 |
CN109086455B (zh) * | 2018-08-30 | 2021-03-12 | 广东小天才科技有限公司 | 一种语音识别库的构建方法及学习设备 |
CN109151225A (zh) * | 2018-09-04 | 2019-01-04 | 北京小鱼在家科技有限公司 | 通话处理方法、装置和通话设备 |
CN110895938A (zh) * | 2018-09-13 | 2020-03-20 | 广达电脑股份有限公司 | 语音校正系统及语音校正方法 |
CN109377997A (zh) * | 2018-12-10 | 2019-02-22 | 珠海格力电器股份有限公司 | 一种家电的语音控制方法、装置、存储介质及家电系统 |
CN110060681A (zh) * | 2019-04-26 | 2019-07-26 | 广东昇辉电子控股有限公司 | 具有智能语音识别功能的智能网关的控制方法 |
CN111327935A (zh) * | 2020-03-02 | 2020-06-23 | 彩迅工业(深圳)有限公司 | 一种基于人工智能电视机的信息交互平台 |
CN111627438A (zh) * | 2020-05-21 | 2020-09-04 | 四川虹美智能科技有限公司 | 语音识别方法及装置 |
CN112672183A (zh) * | 2020-12-30 | 2021-04-16 | 南京伯索网络科技有限公司 | 一种直播课堂中语音分组讨论的监管方法和系统 |
CN113744740A (zh) * | 2021-09-03 | 2021-12-03 | 北京烽火万家科技有限公司 | 基于边缘计算超算AIpass的语音识别方法、装置及系统 |
CN113963695A (zh) * | 2021-10-13 | 2022-01-21 | 深圳市欧瑞博科技股份有限公司 | 一种智能设备的唤醒方法、装置、设备及存储介质 |
WO2023246151A1 (zh) * | 2022-06-22 | 2023-12-28 | 海信视像科技股份有限公司 | 显示设备和控制方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103903621A (zh) | 一种语音识别的方法及电子设备 | |
CN110268469B (zh) | 服务器侧热词 | |
EP4064276A1 (en) | Method and device for speech recognition, terminal and storage medium | |
CN103853703B (zh) | 一种信息处理方法及电子设备 | |
AU2013252518B2 (en) | Embedded system for construction of small footprint speech recognition with user-definable constraints | |
US10811005B2 (en) | Adapting voice input processing based on voice input characteristics | |
US11189277B2 (en) | Dynamic gazetteers for personalized entity recognition | |
EP2869298A1 (en) | Information identification method and apparatus | |
CN106201424A (zh) | 一种信息交互方法、装置及电子设备 | |
CN104954555A (zh) | 一种音量调节方法及系统 | |
CN107767861A (zh) | 语音唤醒方法、系统及智能终端 | |
CN109215654A (zh) | 实时语音识别和自然语言处理的移动端智能客服辅助系统 | |
US20140324426A1 (en) | Reminder setting method and apparatus | |
CN111797632B (zh) | 信息处理方法、装置及电子设备 | |
KR102451034B1 (ko) | 화자 구분 | |
CN108345612A (zh) | 一种问题处理方法和装置、一种用于问题处理的装置 | |
CN112669842A (zh) | 人机对话控制方法、装置、计算机设备及存储介质 | |
KR102312993B1 (ko) | 인공신경망을 이용한 대화형 메시지 구현 방법 및 그 장치 | |
CN106713111A (zh) | 一种添加好友的处理方法、终端及服务器 | |
CN111831806A (zh) | 语义完整性确定方法、装置、电子设备和存储介质 | |
US20150006175A1 (en) | Apparatus and method for recognizing continuous speech | |
KR102536944B1 (ko) | 음성 신호 처리 방법 및 장치 | |
CN109948155A (zh) | 一种多意图的选择方法及装置、终端设备 | |
CN102542705A (zh) | 语音提醒的方法和系统 | |
CN112185374A (zh) | 一种确定语音意图的方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20140702 |
|
RJ01 | Rejection of invention patent application after publication |