CN108717851A - 一种语音识别方法及装置 - Google Patents
一种语音识别方法及装置 Download PDFInfo
- Publication number
- CN108717851A CN108717851A CN201810261214.2A CN201810261214A CN108717851A CN 108717851 A CN108717851 A CN 108717851A CN 201810261214 A CN201810261214 A CN 201810261214A CN 108717851 A CN108717851 A CN 108717851A
- Authority
- CN
- China
- Prior art keywords
- audio
- user
- characteristic
- audio information
- intelligent terminal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 53
- 238000000605 extraction Methods 0.000 claims description 11
- 241001269238 Data Species 0.000 claims description 10
- 238000001514 detection method Methods 0.000 claims description 7
- 239000000284 extract Substances 0.000 claims description 7
- 238000005259 measurement Methods 0.000 claims description 4
- 230000001360 synchronised effect Effects 0.000 claims description 4
- 241001672694 Citrus reticulata Species 0.000 abstract description 6
- 238000010586 diagram Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000013507 mapping Methods 0.000 description 2
- 230000001755 vocal effect Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000007717 exclusion Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 238000004321 preservation Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Telephonic Communication Services (AREA)
Abstract
本发明公开了一种语音识别方法及装置,涉及语音识别技术领域,该语音识别方法及装置包括:获取用户当前智能终端的存储权限以及调用所述智能终端上的音频数据,对所述音频数据进行解析确定用户的特征音频信息;实时获取用户当前输入的语音数据,并将所获取的语音数据与所述特征音频信息进行比对,识别出用户输入的语音数据并以文字的形式显示在所述智能终端上。该过程极大的提高了语音识别的准确率,即便是普通话不标准的用户也具备适用性,提高了用户的使用体验。
Description
技术领域
本发明涉及语音识别技术领域,尤其涉及一种语音识别方法及装置。
背景技术
得益于深度学习与人工神经网络的发展,语音识别在近年取得了一系列突破性的进展,在产品应用上也越来越成熟。作为语音交互领域中极其重要的一环,语音识别一直是研究的重点,且现有的语音识别技术在识别准确率上有较高的突破,识别成功率最高可达97%。
在实现本发明过程中,发明人发现现有技术中至少存在如下问题:然而上述的高准确率需要基于一个基础,即输入语音要与其数据库模型的语音相一致,而现实中,由于我国幅员辽阔,方言众多,用户的口音各不相同,即使说着普通话,也各自带着家乡的口音,从而造成其语音输入的文字不准确,无法表达原意。
发明内容
为了克服现有技术中相关产品的不足,本发明提出一种语音识别方法及装置,解决现有的语音识别方法在用户的语音与数据库模型不一致时导致出现识别错误的问题。
本发明提供了一种语音识别方法,应用于智能终端,包括:
获取用户当前智能终端的存储权限以及调用所述智能终端上的音频数据,对所述音频数据进行解析确定用户的特征音频信息;
实时获取用户当前输入的语音数据,并将所获取的语音数据与所述特征音频信息进行比对,识别出用户输入的语音数据并以文字的形式显示在所述智能终端上。
在一些可能的实施方式中,所述对所述音频数据进行解析确定用户的特征音频信息包括:
分别对所有的音频数据进行解析并判断是否符合预设条件;
对符合预设条件的音频数据进行标记并提取其中的特征音频信息,将所述特征音频信息按照音频段进行调节并建立特征音频数据库。
在一些可能的实施方式中,所述将所述特征音频信息按照音频端进行调节并建立特征音频数据库包括:
将所述特征音频信息按照音频段进行调节之后,为所述特征音频信息设置关联数据,并根据预设语音模型对所述特征音频信息进行置信估值,生成当前用户的语音文字模型并建立对应的特征音频数据库。
在一些可能的实施方式中,在所述确定用户的特征音频信息之前,所述方法还包括:
检测所述当前智能终端上是否已经建立了特征音频数据库,并在所述特征音频数据库已经建立的情况下,跳过所述特征音频信息的解析以及确定过程。
在一些可能的实施方式中,在所述用户输入的语音数据以文字的形式显示在所述智能终端上之后,所述方法还包括:
在识别到用户的点击操作之后,判断语音识别过程中所显示的文字是否符合用户输入的语音数据,并在所述语音识别错误的情况下,同步云端的特征音频数据库并对所述用户输入的语音数据重新进行语音识别。
本发明提供了一种语音识别装置,应用于智能终端,包括:
语音提取模块,用于获取用户当前智能终端的存储权限以及调用所述智能终端上的音频数据,对所述音频数据进行解析确定用户的特征音频信息;
语音识别模块,用于实时获取用户当前输入的语音数据,并将所获取的语音数据与所述特征音频信息进行比对,识别出用户输入的语音数据并以文字的形式显示在所述智能终端上。
在一些可能的实施方式中,所述语音提取模块用于:
分别对所有的音频数据进行解析并判断是否符合预设条件;
对符合预设条件的音频数据进行标记并提取其中的特征音频信息,将所述特征音频信息按照音频段进行调节并建立特征音频数据库。
在一些可能的实施方式中,所述语音提取模块还用于:
将所述特征音频信息按照音频段进行调节之后,为所述特征音频信息设置关联数据,并根据预设语音模型对所述特征音频信息进行置信估值,生成当前用户的语音文字模型并建立对应的特征音频数据库。
在一些可能的实施方式中,所述语音识别装置还包括检测模块,用于检测所述当前智能终端上是否已经建立了特征音频数据库,并在所述特征音频数据库已经建立的情况下,跳过所述特征音频信息的解析以及确定过程。
在一些可能的实施方式中,所述语音识别装置还包括复测模块,用于在识别到用户的点击操作之后,判断语音识别过程中所显示的文字是否符合用户输入的语音数据,并在所述语音识别错误的情况下,同步云端的特征音频数据库并对所述用户输入的语音数据重新进行语音识别。
与现有技术相比,本发明有以下优点:
本发明实施例通过提取用户智能终端的音频数据建立对应的特征音频数据库,实时获取用户当前输入的语音数据,并将所获取的语音数据与所述特征音频信息进行比对,识别出用户输入的语音数据并以文字的形式显示在所述智能终端上,以用户智能终端上自身的语音为基础,通过所提取的用户自己发出的语音形成语音文字模型并建立对应的特征音频数据库,该过程极大的提高了语音识别的准确率,即便是普通话不标准的用户也具备适用性,提高了用户的使用体验。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明所述语音识别方法的流程示意图;
图2为本发明所述语音识别装置的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例,附图中给出了本发明的较佳实施例。本发明可以以许多不同的形式来实现,并不限于本文所描述的实施例,相反地,提供这些实施例的目的是使对本发明的公开内容的理解更加透彻全面。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。本文中在本发明的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本发明。本发明的说明书和权利要求书及上述附图中的术语“包括”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其他步骤或单元。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本发明的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
图1为本发明所述语音识别方法的流程示意图,所述语音识别方法应用于智能终端,所述智能终端包括但不限于智能手机、平板电脑、IPAD等,本发明实施例通过提取用户智能终端的音频数据建立对应的特征音频数据库,实时获取用户当前输入的语音数据,并将所获取的语音数据与所述特征音频信息进行比对,识别出用户输入的语音数据并以文字的形式显示在所述智能终端上,以用户智能终端上自身的语音为基础,通过所提取的用户自己发出的语音形成语音文字模型并建立对应的特征音频数据库,该过程极大的提高了语音识别的准确率,即便是普通话不标准的用户也具备适用性,提高了用户的使用体验。
参阅图1所示,所述语音识别方法具体包括如下步骤:
S101:获取用户当前智能终端的存储权限以及调用所述智能终端上的音频数据,对所述音频数据进行解析确定用户的特征音频信息。
在对用户进行语音识别之前,本发明实施例需要预先提取用户的智能终端上自身的语音信息,通过获取用户当前智能终端的存储权限来调用所述智能终端上的音频数据,所述音频数据是以录音文件的形式保存,包括用户在各个社交应用上发出的语音信息,如微信、QQ、微博等,在获取了用户的智能终端上的音频数据之后,对所述音频数据进行解析以确定用户的特征音频信息,所述特征音频信息用以确定用户所输入的语音信息。
在本发明实施例中,所述对所述音频数据进行解析确定用户的特征音频信息包括分别对所有的音频数据进行解析并判断是否符合预设条件,以及对符合预设条件的音频数据进行标记并提取其中的特征音频信息,将所述特征音频信息按照音频段进行调节并建立特征音频数据库,所述特征音频数据库是特征音频信息与对应的文字模型的映射集合。
首先,本发明实施例对所有的音频数据进行解析并判断是否符合预设条件,这里所述的预设条件是指对音频数据进行解析之后确认其是否为用户发出的语音信息,由于在实际情况中,用户的智能终端上可能存储有大量的音频数据,本发明实施例首先对所述智能终端上所有的音频数据进行初选,通过格式甄别从所有的音频数据选择录音格式的音频数据,并逐一对所有的录音格式的音频数据一一进行解析,确认是否为用户发出的语音信息,若解析的结果为用户发出的语音信息,则认为该音频数据符合预设条件,当然,需要说明的是,所述预设条件旨在从智能终端上寻找出用户发出的语音信息,用以建立特征音频数据库,因此,对不同的用户以及在不同的应用场景下,所述预设条件是可以动态调节的,用户可以自己定制,也可以选择以默认的基本模式进行;在一些可能的实施方式中,例如,用户可以在搜索选择录音格式的音频数据之前,自己先进行语音输入并录音,本发明实施例则以该录音文件作为特征音频信息,该步骤可以进一步提高特征音频信息的准确性。
为了避免重复的不必要操作,本发明实施例对符合预设条件的音频数据进行标记,在以后进行语音识别的过程中,本发明实施例对已经标记过的音频数据不再进行解析操作,该过程可以提高识别过程的效率。
本发明实施例将所述特征音频信息按照音频段进行调节之后,为所述特征音频信息设置关联数据,并根据预设语音模型对所述特征音频信息进行置信估值,生成当前用户的语音文字模型并建立对应的特征音频数据库;将标记好的多个所述特征音频信息,按预设数量的音频段进行自适应调节,也即是本发明实施例自动对标记好的多个音频数据按预设数量的音频段进行调节,这一步的目的是使得音频数据更适合后续的分析与使用,例如,音频段可以包括低音段、中音段与高音段,这样可以得到更准确的分析效果,例如,调节的方法是将耗损前后部分按分频率提供适当的增益,例如补偿适当的振幅值等,还可以采用其他调节方式,只要达到目的即可,本发明实施例对此并无限制。
采用自适应调节后的多个特征音频信息作为当前用户的语音模型,同时,为已使用的录音文件的特征音频信息设置关联数据,并根据语音模型对已使用的录音文件的特征音频进行置信评估,得到置信估值,然后为已使用的录音文件的特征音频信息设置相应的置信估值;其中,关联数据和置信估值可以分别是一个数字或数值,关联数据用于评价关联度,置信估值用于评价可信度,通过对关联数据以及置信估值进行分析,即可确定当前用户的特征音频信息是否可用,若准确性较低,则放弃对应的音频数据,并重复上述过程直至得到准确性较高的音频数据,并以其对应的特征音频信息作为用户的语音模型,并对所述特征音频信息与对应的置信估值以及文字模型之间建立映射关系,生成特征音频数据库。
在本发实施例中,根据该语音模型生成当前用户的语音文字模型,可以通过连接网络的云服务器,在服务器端获取更多的与该用户相关的音频数据,通过云服务器的大数据分析能够得到更准确的当前用户的语音文字模型。
当然,需要说明的是,在所述确定用户的特征音频信息之前,为了减少不必要的重复操作,本发明实施例还包括语音识别之前的检测过程,所述检测过程是指检测所述当前智能终端上是否已经建立了特征音频数据库,并在所述特征音频数据库已经建立的情况下,跳过所述特征音频信息的解析以及确定过程,若检测到所述当前智能终端上还没有建立特征音频数据库,则执行后续的对特征音频信息的确定操作;在本发明实施例的一些实施方式中,在所述特征音频数据库已经建立的情况下,若用户认为当前的特征音频数据库还不完善,也可以通过设置相应的页面控件供用户执行选择操作,例如,可以在所述特征音频数据库已经建立的情况下继续执行后续的对特征音频信息的确定操作,用以更新所述特征音频数据库,本发明实施例对此并无限制。
S102:实时获取用户当前输入的语音数据,并将所获取的语音数据与所述特征音频信息进行比对,识别出用户输入的语音数据并以文字的形式显示在所述智能终端上。
在所述用户输入的语音数据以文字的形式显示在所述智能终端上之后,本发明实施例在识别到用户的点击操作,判断语音识别过程中所显示的文字是否符合用户输入的语音数据,并在所述语音识别错误的情况下,同步云端的特征音频数据库并对所述用户输入的语音数据重新进行语音识别,该过程可以有效提高用户的使用体验,通过不断的修正语音识别的结果,随着用户的使用次数增加,本发明实施例所述的语音识别方法具备极高的语音识别准确性,适用于不同场景下不同类型的用户,尤其对于普通话不标准的用户,相较于现有的语音识别方法,具备更佳的识别效果。
在上述实施例的基础上,参阅图2所示,本发明还提供了一种语音识别装置,包括语音提取模块100、语音识别模块200、检测模块300和复测模块400。
所述语音提取模块100用于获取用户当前智能终端的存储权限以及调用所述智能终端上的音频数据,对所述音频数据进行解析确定用户的特征音频信息;所述语音提取模块100分别对所有的音频数据进行解析并判断是否符合预设条件,以及对符合预设条件的音频数据进行标记并提取其中的特征音频信息,将所述特征音频信息按照音频段进行调节并建立特征音频数据库。所述语音提取模块100还用于将所述特征音频信息按照音频段进行调节之后,为所述特征音频信息设置关联数据,并根据预设语音模型对所述特征音频信息进行置信估值,生成当前用户的语音文字模型并建立对应的特征音频数据库。
所述语音识别模块200用于实时获取用户当前输入的语音数据,并将所获取的语音数据与所述特征音频信息进行比对,识别出用户输入的语音数据并以文字的形式显示在所述智能终端上。
所述检测模块300用于检测所述当前智能终端上是否已经建立了特征音频数据库,并在所述特征音频数据库已经建立的情况下,跳过所述特征音频信息的解析以及确定过程。
所述复测模块400用于在识别到用户的点击操作之后,判断语音识别过程中所显示的文字是否符合用户输入的语音数据,并在所述语音识别错误的情况下,同步云端的特征音频数据库并对所述用户输入的语音数据重新进行语音识别。
本发明实施例通过语音提取模块100提取用户智能终端的音频数据建立对应的特征音频数据库,实时获取用户当前输入的语音数据,并将所获取的语音数据与所述特征音频信息进行比对,识别出用户输入的语音数据并以文字的形式显示在所述智能终端上,以用户智能终端上自身的语音为基础,通过所提取的用户自己发出的语音形成语音文字模型并建立对应的特征音频数据库,并语音识别模块200对用户输入的语音进行是被,该过程极大的提高了语音识别的准确率,即便是普通话不标准的用户也具备适用性,提高了用户的使用体验。
本发明实施例所述的语音识别装置可执行上述实施例所提供的语音识别方法,所述语音识别装置具备上述实施例所述语音识别方法相应的功能步骤以及有益效果,具体请参阅上述语音识别方法的实施例,本发明实施例在此不再赘述。
在本发明所提供的上述实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如,多个模块或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。
所述作为分离部件说明的模块或组件可以是或者也可以不是物理上分开的,作为模块或组件显示的部件可以是或者也可以不是物理模块,既可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块或组件来实现本实施例方案的目的。
以上仅为本发明的实施例,但并不限制本发明的专利范围,尽管参照前述实施例对本发明进行了详细的说明,对于本领域的技术人员来而言,其依然可以对前述各具体实施方式所记载的技术方案进行修改,或者对其中部分技术特征进行等效替换。凡是利用本发明说明书及附图内容所做的等效结构,直接或间接运用在其他相关的技术领域,均同理在本发明专利保护范围之内。
Claims (10)
1.一种语音识别方法,应用于智能终端,其特征在于,包括:
获取用户当前智能终端的存储权限以及调用所述智能终端上的音频数据,对所述音频数据进行解析确定用户的特征音频信息;
实时获取用户当前输入的语音数据,并将所获取的语音数据与所述特征音频信息进行比对,识别出用户输入的语音数据并以文字的形式显示在所述智能终端上。
2.根据权利要求1所述的语音识别方法,其特征在于,所述对所述音频数据进行解析确定用户的特征音频信息包括:
分别对所有的音频数据进行解析并判断是否符合预设条件;
对符合预设条件的音频数据进行标记并提取其中的特征音频信息,将所述特征音频信息按照音频段进行调节并建立特征音频数据库。
3.根据权利要求2所述的语音识别方法,其特征在于,所述将所述特征音频信息按照音频端进行调节并建立特征音频数据库包括:
将所述特征音频信息按照音频段进行调节之后,为所述特征音频信息设置关联数据,并根据预设语音模型对所述特征音频信息进行置信估值,生成当前用户的语音文字模型并建立对应的特征音频数据库。
4.根据权利要求2所述的语音识别方法,其特征在于,在所述确定用户的特征音频信息之前,所述方法还包括:
检测所述当前智能终端上是否已经建立了特征音频数据库,并在所述特征音频数据库已经建立的情况下,跳过所述特征音频信息的解析以及确定过程。
5.根据权利要求1所述的语音识别方法,其特征在于,在所述用户输入的语音数据以文字的形式显示在所述智能终端上之后,所述方法还包括:
在识别到用户的点击操作之后,判断语音识别过程中所显示的文字是否符合用户输入的语音数据,并在所述语音识别错误的情况下,同步云端的特征音频数据库并对所述用户输入的语音数据重新进行语音识别。
6.一种语音识别装置,应用于智能终端,其特征在于,包括:
语音提取模块,用于获取用户当前智能终端的存储权限以及调用所述智能终端上的音频数据,对所述音频数据进行解析确定用户的特征音频信息;
语音识别模块,用于实时获取用户当前输入的语音数据,并将所获取的语音数据与所述特征音频信息进行比对,识别出用户输入的语音数据并以文字的形式显示在所述智能终端上。
7.根据权利要求6所述的语音识别装置,其特征在于,所述语音提取模块用于:
分别对所有的音频数据进行解析并判断是否符合预设条件;
对符合预设条件的音频数据进行标记并提取其中的特征音频信息,将所述特征音频信息按照音频段进行调节并建立特征音频数据库。
8.根据权利要求7所述的语音识别装置,其特征在于,所述语音提取模块还用于:
将所述特征音频信息按照音频段进行调节之后,为所述特征音频信息设置关联数据,并根据预设语音模型对所述特征音频信息进行置信估值,生成当前用户的语音文字模型并建立对应的特征音频数据库。
9.根据权利要求7所述的语音识别装置,其特征在于,所述语音识别装置还包括检测模块,用于检测所述当前智能终端上是否已经建立了特征音频数据库,并在所述特征音频数据库已经建立的情况下,跳过所述特征音频信息的解析以及确定过程。
10.根据权利要求6所述的语音识别装置,其特征在于,所述语音识别装置还包括复测模块,用于在识别到用户的点击操作之后,判断语音识别过程中所显示的文字是否符合用户输入的语音数据,并在所述语音识别错误的情况下,同步云端的特征音频数据库并对所述用户输入的语音数据重新进行语音识别。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810261214.2A CN108717851B (zh) | 2018-03-28 | 2018-03-28 | 一种语音识别方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810261214.2A CN108717851B (zh) | 2018-03-28 | 2018-03-28 | 一种语音识别方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108717851A true CN108717851A (zh) | 2018-10-30 |
CN108717851B CN108717851B (zh) | 2021-04-06 |
Family
ID=63898973
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810261214.2A Active CN108717851B (zh) | 2018-03-28 | 2018-03-28 | 一种语音识别方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108717851B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113035216A (zh) * | 2019-12-24 | 2021-06-25 | 深圳市三诺数字科技有限公司 | 麦克风阵列语音的增强方法、及其相关设备 |
WO2021128880A1 (zh) * | 2019-12-26 | 2021-07-01 | 北京搜狗科技发展有限公司 | 一种语音识别方法、装置和用于语音识别的装置 |
Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001228893A (ja) * | 2000-02-18 | 2001-08-24 | Matsushita Electric Ind Co Ltd | 音声認識装置 |
US20050075143A1 (en) * | 2003-10-06 | 2005-04-07 | Curitel Communications, Inc. | Mobile communication terminal having voice recognition function, and phoneme modeling method and voice recognition method for the same |
CN101154383A (zh) * | 2006-09-29 | 2008-04-02 | 株式会社东芝 | 噪声抑制、提取语音特征、语音识别及训练语音模型的方法和装置 |
US7389233B1 (en) * | 2003-09-02 | 2008-06-17 | Verizon Corporate Services Group Inc. | Self-organizing speech recognition for information extraction |
CN102426835A (zh) * | 2011-08-30 | 2012-04-25 | 华南理工大学 | 一种基于支持向量机模型的开关柜局部放电信号识别方法 |
CN102915728A (zh) * | 2011-08-01 | 2013-02-06 | 佳能株式会社 | 声音分段设备和方法以及说话者识别系统 |
CN103165127A (zh) * | 2011-12-15 | 2013-06-19 | 佳能株式会社 | 声音分段设备和方法以及声音检测系统 |
CN103811003A (zh) * | 2012-11-13 | 2014-05-21 | 联想(北京)有限公司 | 一种语音识别方法以及电子设备 |
CN103903619A (zh) * | 2012-12-28 | 2014-07-02 | 安徽科大讯飞信息科技股份有限公司 | 一种提高语音识别准确率的方法及系统 |
CN104239456A (zh) * | 2014-09-02 | 2014-12-24 | 百度在线网络技术(北京)有限公司 | 用户特征数据的提取方法和装置 |
CN104795069A (zh) * | 2014-01-21 | 2015-07-22 | 腾讯科技(深圳)有限公司 | 语音识别方法和服务器 |
CN104851421A (zh) * | 2015-04-10 | 2015-08-19 | 北京航空航天大学 | 语音处理方法及装置 |
CN105161104A (zh) * | 2015-07-31 | 2015-12-16 | 北京云知声信息技术有限公司 | 一种语音处理方法及装置 |
CN105355197A (zh) * | 2015-10-30 | 2016-02-24 | 百度在线网络技术(北京)有限公司 | 用于语音识别系统的增益处理方法及装置 |
CN105609110A (zh) * | 2016-01-25 | 2016-05-25 | 上海斐讯数据通信技术有限公司 | 一种应用在网络设备中的语音识别方法及系统 |
CN106537493A (zh) * | 2015-09-29 | 2017-03-22 | 深圳市全圣时代科技有限公司 | 语音识别系统及方法、客户端设备及云端服务器 |
CN107481718A (zh) * | 2017-09-20 | 2017-12-15 | 广东欧珀移动通信有限公司 | 语音识别方法、装置、存储介质及电子设备 |
-
2018
- 2018-03-28 CN CN201810261214.2A patent/CN108717851B/zh active Active
Patent Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001228893A (ja) * | 2000-02-18 | 2001-08-24 | Matsushita Electric Ind Co Ltd | 音声認識装置 |
US7389233B1 (en) * | 2003-09-02 | 2008-06-17 | Verizon Corporate Services Group Inc. | Self-organizing speech recognition for information extraction |
US20050075143A1 (en) * | 2003-10-06 | 2005-04-07 | Curitel Communications, Inc. | Mobile communication terminal having voice recognition function, and phoneme modeling method and voice recognition method for the same |
CN101154383A (zh) * | 2006-09-29 | 2008-04-02 | 株式会社东芝 | 噪声抑制、提取语音特征、语音识别及训练语音模型的方法和装置 |
CN102915728A (zh) * | 2011-08-01 | 2013-02-06 | 佳能株式会社 | 声音分段设备和方法以及说话者识别系统 |
CN102426835A (zh) * | 2011-08-30 | 2012-04-25 | 华南理工大学 | 一种基于支持向量机模型的开关柜局部放电信号识别方法 |
CN103165127A (zh) * | 2011-12-15 | 2013-06-19 | 佳能株式会社 | 声音分段设备和方法以及声音检测系统 |
CN103811003A (zh) * | 2012-11-13 | 2014-05-21 | 联想(北京)有限公司 | 一种语音识别方法以及电子设备 |
CN103903619A (zh) * | 2012-12-28 | 2014-07-02 | 安徽科大讯飞信息科技股份有限公司 | 一种提高语音识别准确率的方法及系统 |
CN104795069A (zh) * | 2014-01-21 | 2015-07-22 | 腾讯科技(深圳)有限公司 | 语音识别方法和服务器 |
CN104239456A (zh) * | 2014-09-02 | 2014-12-24 | 百度在线网络技术(北京)有限公司 | 用户特征数据的提取方法和装置 |
CN104851421A (zh) * | 2015-04-10 | 2015-08-19 | 北京航空航天大学 | 语音处理方法及装置 |
CN105161104A (zh) * | 2015-07-31 | 2015-12-16 | 北京云知声信息技术有限公司 | 一种语音处理方法及装置 |
CN106537493A (zh) * | 2015-09-29 | 2017-03-22 | 深圳市全圣时代科技有限公司 | 语音识别系统及方法、客户端设备及云端服务器 |
CN105355197A (zh) * | 2015-10-30 | 2016-02-24 | 百度在线网络技术(北京)有限公司 | 用于语音识别系统的增益处理方法及装置 |
CN105609110A (zh) * | 2016-01-25 | 2016-05-25 | 上海斐讯数据通信技术有限公司 | 一种应用在网络设备中的语音识别方法及系统 |
CN107481718A (zh) * | 2017-09-20 | 2017-12-15 | 广东欧珀移动通信有限公司 | 语音识别方法、装置、存储介质及电子设备 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113035216A (zh) * | 2019-12-24 | 2021-06-25 | 深圳市三诺数字科技有限公司 | 麦克风阵列语音的增强方法、及其相关设备 |
CN113035216B (zh) * | 2019-12-24 | 2023-10-13 | 深圳市三诺数字科技有限公司 | 麦克风阵列语音的增强方法、及其相关设备 |
WO2021128880A1 (zh) * | 2019-12-26 | 2021-07-01 | 北京搜狗科技发展有限公司 | 一种语音识别方法、装置和用于语音识别的装置 |
Also Published As
Publication number | Publication date |
---|---|
CN108717851B (zh) | 2021-04-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112804400B (zh) | 客服呼叫语音质检方法、装置、电子设备及存储介质 | |
CN107222865B (zh) | 基于可疑行为识别的通讯诈骗实时检测方法和系统 | |
US20180197547A1 (en) | Identity verification method and apparatus based on voiceprint | |
CN108428446A (zh) | 语音识别方法和装置 | |
CN106537493A (zh) | 语音识别系统及方法、客户端设备及云端服务器 | |
CN105391730B (zh) | 一种信息反馈方法、装置及系统 | |
CN106446045B (zh) | 基于对话交互的用户画像的构建方法及系统 | |
WO2021082982A1 (zh) | 基于图谱化知识库的问答方法、设备、存储介质及装置 | |
CN110970018B (zh) | 语音识别方法和装置 | |
CN106372059A (zh) | 信息输入方法和装置 | |
CN108447471A (zh) | 语音识别方法及语音识别装置 | |
CN108682420A (zh) | 一种音视频通话方言识别方法及终端设备 | |
CN106297773A (zh) | 一种神经网络声学模型训练方法 | |
CN112786029B (zh) | 使用弱监督数据训练vad的方法及装置 | |
CN108364650A (zh) | 语音识别结果的调整装置及方法 | |
CN111312286A (zh) | 年龄识别方法、装置、设备及计算机可读存储介质 | |
CN106486120A (zh) | 交互式语音应答方法及应答系统 | |
CN110517668A (zh) | 一种中英文混合语音识别系统及方法 | |
CN109739969A (zh) | 答案生成方法和智能会话系统 | |
CN111259124A (zh) | 对话管理方法、装置、系统及存储介质 | |
CN112235470A (zh) | 基于语音识别的来电客户跟进方法、装置及设备 | |
CN109903122A (zh) | 房产交易信息处理方法、装置、设备及存储介质 | |
CN108717851A (zh) | 一种语音识别方法及装置 | |
CN106356056B (zh) | 语音识别方法和装置 | |
CN110728984A (zh) | 一种基于语音交互的数据库运维方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |