CN108682416B - 本地自适应语音训练方法和系统 - Google Patents

本地自适应语音训练方法和系统 Download PDF

Info

Publication number
CN108682416B
CN108682416B CN201810322889.3A CN201810322889A CN108682416B CN 108682416 B CN108682416 B CN 108682416B CN 201810322889 A CN201810322889 A CN 201810322889A CN 108682416 B CN108682416 B CN 108682416B
Authority
CN
China
Prior art keywords
voice
user
model
speech
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810322889.3A
Other languages
English (en)
Other versions
CN108682416A (zh
Inventor
陈汉亭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Zhuoyi Zhizao Co ltd
Shenzhen Zowee Technology Co Ltd
Original Assignee
Shenzhen Zhuoyi Zhizao Co ltd
Shenzhen Zowee Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Zhuoyi Zhizao Co ltd, Shenzhen Zowee Technology Co Ltd filed Critical Shenzhen Zhuoyi Zhizao Co ltd
Priority to CN201810322889.3A priority Critical patent/CN108682416B/zh
Publication of CN108682416A publication Critical patent/CN108682416A/zh
Application granted granted Critical
Publication of CN108682416B publication Critical patent/CN108682416B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/065Adaptation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications

Abstract

本发明涉及一种本地自适应语音训练方法和系统,通过采集用户语音,并根据所述用户语音进行自适应语音训练形成第一语音模型;将所述用户语音及所述第一语音模型发送给服务器、同时进行语音训练形成第二语音模型,并将所述第二语音模型发送给用户终端;使用户终端再次采集用户语音并根据再次采集的用户语音及所述第二语音模型进行语音训练形成第三语音模型;将所述第三语音模型设置于物联网的各个终端中。因此,在经过自适应语音训练、服务器语音训练、再次通过用户进行语音训练等多次语音训练所形成的语音模型能够有效的识别用户语音,并作出准确的判断,提高用户语音识别精度。

Description

本地自适应语音训练方法和系统
技术领域
本发明涉及语音训练技术,特别是涉及一种识别精度高的本地自适应语音训练方法和系统。
背景技术
随着网络与人工智能技术的发展,语音识别技术越来越多的进入智能家电控制中,但是语音识别技术是采用学习的算法,这样需要采集各种不同的样本,但是因为人的差异与各种方言、口语的存在,使得原有训练的模型,在实际应用中,识别率会出现很大的下降。
发明内容
基于此,有必要提供一种识别精度高的本地自适应语音训练方法。
一种本地自适应语音训练方法,包括以下步骤:
采集用户语音,并根据所述用户语音进行自适应语音训练形成第一语音模型;
将所述用户语音及所述第一语音模型发送给服务器、同时进行语音训练形成第二语音模型,并将所述第二语音模型发送给用户终端,其中,所述由服务器中的语音数据库对所述用户语音再次识别包括:提取所述语音数据库中的方言,并对用户的方言进行方言匹配识别;
使用户终端再次采集用户语音并根据再次采集的用户语音及所述第二语音模型进行语音训练形成第三语音模型;
将所述第三语音模型设置于物联网的各个终端中。
在其中一个实施例中,所述采集用户语音,并根据所述用户语音进行自适应语音训练形成第一语音模型的步骤包括:
将自适应语音模型发送给终端;
接收终端采集的用户语音,使所述自适应语音模型训练所述用户语音,并形成第一语音模型。
在其中一个实施例中,所述将所述用户语音及所述第一语音模型发送给服务器、由所述服务器中的语音数据库对所述用户语音再次识别,对所述第一语音模型进行训练,形成第二语音模型,并将所述第二语音模型发送给用户终端,其中,所述由服务器中的语音数据库对所述用户语音再次识别包括:提取所述语音数据库中的方言,并对用户的方言进行方言匹配识别的步骤包括:
将所述用户语音进行存储;
将所述用户语音及所述第一语音模型发送给服务器;
由所述服务器中的语音数据库对所述用户语音再次识别,对所述第一语音模型进行语音训练,并形成第二语音模型,其中,所述由服务器中的语音数据库对所述用户语音再次识别包括:提取所述语音数据库中的方言,并对用户的方言进行方言匹配识别;
将所述第二语音模块发送给用户终端。
在其中一个实施例中,所述使用户终端再次采集用户语音并根据再次采集的用户语音,进行人机交互对所述第二语音模型进行校正训练,形成第三语音模型的步骤包括:
使用户终端接收所述第二语音模型;
再次采集用户语音,采用再次采集的用户语音对所述第二语音模型进行语音校正形成所述第三语音模型。
在其中一个实施例中,所述将所述第三语音模型设置于物联网的各个终端中的步骤包括:
将第三语音模型设置于物联网的具有语音识别功能的家用电器中。
此外,还提供一种识别精度高的本地自适应语音训练系统。
一种本地自适应语音训练系统,包括采集模块、第一训练模块、通信模块、第三训练模块及设置模块;
所述采集模块用于采集用户语音,所述第一训练模块用于根据所述用户语音进行自适应语音训练形成第一语音模型;
所述通信模块用于将所述用户语音及所述第一语音模型发送给服务器、由所述服务器中的语音数据库对所述用户语音再次识别,对所述第一语音模型进行训练,形成第二语音模型,并将所述第二语音模型发送给用户终端,其中,所述由服务器中的语音数据库对所述用户语音再次识别包括:提取所述语音数据库中的方言,并对用户的方言进行方言匹配识别;
用户终端再次采集用户语音,所述第三训练模块用于根据再次采集的用户语音,进行人机交互对所述第二语音模型进行校正训练,形成第三语音模型;
所述设置模块用于将所述第三语音模型设置于物联网的各个终端中。
在其中一个实施例中,还包括:
所述通信模块用于将自适应语音模型发送给终端;
所述采集模块用于接收终端采集的用户语音,使所述自适应语音模型训练所述用户语音,并形成第一语音模型。
在其中一个实施例中,还包括:存储模块;
所述存储模块用于将所述用户语音进行存储;
所述用户语音及所述第一语音模型发送给服务器进行语音训练,并形成第二语音模型;
所述通信模块用于将所述第二语音模块发送给用户终端。
在其中一个实施例中,还包括:
所述通信模块用于将所述第二语音模型发送给用户终端;
所述采集模块用于再次采集用户语音,所述第二语音模型用于对再次采集的用户语音进行语音训练形成所述第三语音模型。
在其中一个实施例中,还包括:所述设置模块用于将第三语音模型设置于物联网的具有语音识别功能的家用电器中。
上述的本地自适应语音训练方法和系统,通过采集用户语音,并根据所述用户语音进行自适应语音训练形成第一语音模型;将所述用户语音及所述第一语音模型发送给服务器、同时进行语音训练形成第二语音模型,并将所述第二语音模型发送给用户终端;使用户终端再次采集用户语音并根据再次采集的用户语音及所述第二语音模型进行语音训练形成第三语音模型;将所述第三语音模型设置于物联网的各个终端中。因此,在经过自适应语音训练、服务器语音训练、再次通过用户进行语音训练等多次语音训练所形成的语音模型能够有效的识别用户语音,并作出准确的判断,提高用户语音识别精度。
附图说明
图1为本地自适应语音训练方法的流程图;
图2为本地自适应语音训练系统的模块图。
具体实施方式
为了便于理解本发明,下面将参照相关附图对本发明进行更全面的描述。附图中给出了本发明的较佳实施例。但是,本发明可以以许多不同的形式来实现,并不限于本文所描述的实施例。相反地,提供这些实施例的目的是使对本发明的公开内容的理解更加透彻全面。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。本文中在本发明的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在限制本发明。本文所使用的术语“和/或”包括一个或多个相关的所列项目的任意的和所有的组合。
如图1所示,为本地自适应语音训练方法的流程图。
一种本地自适应语音训练方法,包括以下步骤:
步骤S110,采集用户语音,并根据所述用户语音进行自适应语音训练形成第一语音模型。
所述采集用户语音,并根据所述用户语音进行自适应语音训练形成第一语音模型的步骤包括:
将自适应语音模型发送给终端;
接收终端采集的用户语音,使所述自适应语音模型训练所述用户语音,并形成第一语音模型。
用于每个用户的语音并非完全标准的普通话,因此,在用户使用语音电子装置时,需要对语音电子装置中的语音模型进行训练。在初次训练用户语音时,可采用服务器中自适应语音训练模式,使当前采集的用户语音通过自适应语音训练的模式形成第一语音模型。
具体的,若该用户具有自身的语音习惯,那么将该语音习惯进行自适应语音调节,例如,该用户习惯说方言,那么可利用自适应语音对用户的方言进行训练,并形成第一语音模型。由于方言与普通话的发音具有差别,因此,自适应语音训练可进行方言匹配识别,使得能够采用自适应语音中的方言模型对用户的方言进行训练。
步骤S112,将所述用户语音及所述第一语音模型发送给服务器、同时进行语音训练形成第二语音模型,并将所述第二语音模型发送给用户终端。
所述将所述用户语音及所述第一语音模型发送给服务器、同时进行语音训练形成第二语音模型,并将所述第二语音模型发送给用户终端的步骤包括:
将所述用户语音进行存储;
将所述用户语音及所述第一语音模型发送给服务器进行语音训练,并形成第二语音模型;
将所述第二语音模块发送给用户终端。
在用户语音进行自适应语音训练完成后,需要进一步的进行精确语音训练。因此,将用户语音及第一语音模型发送到服务器,由服务器中的语音数据库对用户语音再次识别,并对第一语音模型进行训练,使得形成更为精确的第二语音模型。
具体的,若用户习惯说方言,那么需要将语音数据库中的方言提取出来,用于对用户的方言进行匹配识别,进而达到训练第一语音模型的目的,使得第二语音模型能够更为快速的识别用户方言。
步骤S114,使用户终端再次采集用户语音并根据再次采集的用户语音及所述第二语音模型进行语音训练形成第三语音模型。
所述使用户终端再次采集用户语音并根据再次采集的用户语音及所述第二语音模型进行语音训练形成第三语音模型的步骤包括:
使用户终端接收所述第二语音模型;
再次采集用户语音,采用再次采集的用户语音对所述第二语音模型进行语音校正形成所述第三语音模型。
具体的,用户终端在接收第二语音模块之后,再次采集用户语音,并进行人机交互对第二语音模型进行校正训练。
由于用户之间除了有说方言的区别,还有发音习惯问题,因此,在经过两次语音训练的模型中,可能还存在识别错误,因此,需要利用用户进行人机交互,进而实现第二语音模型的校正信息。
例如,用户终端在接收第二语音模型后,通过接收多个测试语音指令,并反馈给用户,若用户判断出用户终端识别有误,那么由用户反馈指令给用户终端,使得用户终端中的第二语音模型进行校正。因而,能够通过用户反馈实现第二语音模型的校正训练,进而形成精确度高、响应速度快的第三语音模型。
步骤S116,将所述第三语音模型设置于物联网的各个终端中。
所述将所述第三语音模型设置于物联网的各个终端中的步骤包括:
将第三语音模型设置于物联网的具有语音识别功能的家用电器中。
具体的,在物联网中,家用电器已包含有语音识别功能,进而通过语音指令对家用电器进行控制。因此,家用电器的语音识别功能是否精确、响应速度是否快已成为影响用户体验的重要因素。
在本实施例中,由于经历自适应语音训练、服务器语音训练及用户通过人机交互进行校正后的第三语音模型能够实现语音识别精确且响应速度快的效果,使得物联网中的语音控制更为精确及快速。
在本实施例中,用户终端连接物联网后,根据接收的控制指令对物联网内的各电器进行控制,并及时接收各电器反馈的状态;该控制指令可以为用户的语音指令。
在其他实施例中,通过用户终端将训练好的第三语音模型发送给各具有语音识别功能的家用电器,使得各家用电器能够直接的识别用户的语音指令,使得家用电器的语音控制更为快捷准确。
基于上述实施例,一般是使用一个预先采集的数据,然后使GMM-HMM算法来进行训练,但是实际应用中,采集的数据是很难做到全面覆盖,因为在中国存在很多方言、口语,还有年龄的差异。因为我们提出使用一种增强的方式,使用中,先使用预先采集的数据对模型进行训练,将模型下载到用户的设备中,然后用户可以通过手机,采集个人的数据,然后在基础模型之上,增加对用户个人采集数据的训练,这样训练的模型将可以大大提高用户识别率。同时可以在用户采集数据时,增加噪音,学习时加进应用场景噪音,也能使得模型可以更好的适配噪音环境。
GMM,高斯混合模型,也可以简写为MOG。高斯模型就是用高斯概率密度函数精确地量化事物,将一个事物分解为若干的基于高斯概率密度函数形成的模型。
隐马尔可夫模型(Hidden Markov Model,HMM)是统计模型,它用来描述一个含有隐含未知参数的马尔可夫过程。其难点是从可观察的参数中确定该过程的隐含参数。然后利用这些参数来作进一步的分析,例如模式识别
MFCC(Mel-frequency cepstral coefficients):梅尔频率倒谱系数。梅尔频率是基于人耳听觉特性提出来的,它与Hz频率成非线性对应关系。梅尔频率倒谱系数(MFCC)则是利用它们之间的这种关系,计算得到的Hz频谱特征。主要用于语音数据特征提取和降低运算维度。
如图2所示,为本地自适应语音训练系统的模块图。
一种本地自适应语音训练系统,包括采集模块201、第一训练模块202、通信模块203、第三训练模块204及设置模块205;
所述采集模块201用于采集用户语音,所述第一训练模块202用于根据所述用户语音进行自适应语音训练形成第一语音模型;
所述通信模块203用于将所述用户语音及所述第一语音模型发送给服务器、同时进行语音训练形成第二语音模型,并将所述第二语音模型发送给用户终端;
用户终端再次采集用户语音,所述第三训练模块204用于根据再次采集的用户语音及所述第二语音模型进行语音训练形成第三语音模型;
所述设置模块205用于将所述第三语音模型设置于物联网的各个终端中。
本地自适应语音训练系统还包括:
所述通信模块203用于将自适应语音模型发送给终端;
所述采集模块201用于接收终端采集的用户语音,使所述自适应语音模型训练所述用户语音,并形成第一语音模型。
本地自适应语音训练系统还包括:存储模块;
所述存储模块用于将所述用户语音进行存储;
所述用户语音及所述第一语音模型发送给服务器进行语音训练,并形成第二语音模型;
所述通信模块203用于将所述第二语音模块发送给用户终端。
本地自适应语音训练系统还包括:
所述通信模块203用于将所述第二语音模型发送给用户终端;
所述采集模块201用于再次采集用户语音,所述第二语音模型用于对再次采集的用户语音进行语音训练形成所述第三语音模型。
本地自适应语音训练系统还包括:所述设置模块205用于将第三语音模型设置于物联网的具有语音识别功能的家用电器中。
上述的本地自适应语音训练方法和系统,通过采集用户语音,并根据所述用户语音进行自适应语音训练形成第一语音模型;将所述用户语音及所述第一语音模型发送给服务器、同时进行语音训练形成第二语音模型,并将所述第二语音模型发送给用户终端;使用户终端再次采集用户语音并根据再次采集的用户语音及所述第二语音模型进行语音训练形成第三语音模型;将所述第三语音模型设置于物联网的各个终端中。因此,在经过自适应语音训练、服务器语音训练、再次通过用户进行语音训练等多次语音训练所形成的语音模型能够有效的识别用户语音,并作出准确的判断,提高用户语音识别精度。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。

Claims (10)

1.一种本地自适应语音训练方法,其特征在于,包括以下步骤:
采集用户语音,并根据所述用户语音进行自适应语音训练形成第一语音模型;
将所述用户语音及所述第一语音模型发送给服务器、由所述服务器中的语音数据库对所述用户语音再次识别,对所述第一语音模型进行训练,形成第二语音模型,并将所述第二语音模型发送给用户终端,其中,所述由服务器中的语音数据库对所述用户语音再次识别包括:提取所述语音数据库中的方言,并对用户的方言进行方言匹配识别;
使用户终端再次采集用户语音并根据再次采集的用户语音,进行人机交互对所述第二语音模型进行校正训练,形成第三语音模型;
将所述第三语音模型设置于物联网的各个终端中。
2.根据权利要求1所述的本地自适应语音训练方法,其特征在于,所述采集用户语音,并根据所述用户语音进行自适应语音训练形成第一语音模型的步骤包括:
将自适应语音模型发送给终端;
接收终端采集的用户语音,使所述自适应语音模型训练所述用户语音,并形成第一语音模型。
3.根据权利要求1所述的本地自适应语音训练方法,其特征在于,所述将所述用户语音及所述第一语音模型发送给服务器、由所述服务器中的语音数据库对所述用户语音再次识别,对所述第一语音模型进行训练,形成第二语音模型,并将所述第二语音模型发送给用户终端,其中,所述由服务器中的语音数据库对所述用户语音再次识别包括:提取所述语音数据库中的方言,并对用户的方言进行方言匹配识别的步骤包括:
将所述用户语音进行存储;
将所述用户语音及所述第一语音模型发送给服务器;
由所述服务器中的语音数据库对所述用户语音再次识别,对所述第一语音模型进行语音训练,并形成第二语音模型,其中,所述由服务器中的语音数据库对所述用户语音再次识别包括:提取所述语音数据库中的方言,并对用户的方言进行方言匹配识别;
将所述第二语音模块发送给用户终端。
4.根据权利要求1所述的本地自适应语音训练方法,其特征在于,所述使用户终端再次采集用户语音并根据再次采集的用户语音,进行人机交互对所述第二语音模型进行校正训练,形成第三语音模型的步骤包括:
使用户终端接收所述第二语音模型;
再次采集用户语音,采用再次采集的用户语音对所述第二语音模型进行语音校正形成所述第三语音模型。
5.根据权利要求1所述的本地自适应语音训练方法,其特征在于,所述将所述第三语音模型设置于物联网的各个终端中的步骤包括:
将第三语音模型设置于物联网的具有语音识别功能的家用电器中。
6.一种本地自适应语音训练系统,其特征在于,包括采集模块、第一训练模块、通信模块、第三训练模块及设置模块;
所述采集模块用于采集用户语音,所述第一训练模块用于根据所述用户语音进行自适应语音训练形成第一语音模型;
所述通信模块用于将所述用户语音及所述第一语音模型发送给服务器、由所述服务器中的语音数据库对所述用户语音再次识别,对所述第一语音模型进行训练,形成第二语音模型,并将所述第二语音模型发送给用户终端,其中,所述由服务器中的语音数据库对所述用户语音再次识别包括:提取所述语音数据库中的方言,并对用户的方言进行方言匹配识别;
用户终端再次采集用户语音,所述第三训练模块用于根据再次采集的用户语音,进行人机交互对所述第二语音模型进行校正训练,形成第三语音模型;
所述设置模块用于将所述第三语音模型设置于物联网的各个终端中。
7.根据权利要求6所述的本地自适应语音训练系统,其特征在于,还包括:
所述通信模块用于将自适应语音模型发送给终端;
所述采集模块用于接收终端采集的用户语音,使所述自适应语音模型训练所述用户语音,并形成第一语音模型。
8.根据权利要求6所述的本地自适应语音训练系统,其特征在于,还包括:存储模块;
所述存储模块用于将所述用户语音进行存储;
所述用户语音及所述第一语音模型发送给服务器进行语音训练,并形成第二语音模型;
所述通信模块用于将所述第二语音模块发送给用户终端。
9.根据权利要求6所述的本地自适应语音训练系统,其特征在于,还包括:
所述通信模块用于将所述第二语音模型发送给用户终端;
所述采集模块用于再次采集用户语音,所述第二语音模型用于对再次采集的用户语音进行语音训练形成所述第三语音模型。
10.根据权利要求6所述的本地自适应语音训练系统,其特征在于,还包括:所述设置模块用于将第三语音模型设置于物联网的具有语音识别功能的家用电器中。
CN201810322889.3A 2018-04-11 2018-04-11 本地自适应语音训练方法和系统 Active CN108682416B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810322889.3A CN108682416B (zh) 2018-04-11 2018-04-11 本地自适应语音训练方法和系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810322889.3A CN108682416B (zh) 2018-04-11 2018-04-11 本地自适应语音训练方法和系统

Publications (2)

Publication Number Publication Date
CN108682416A CN108682416A (zh) 2018-10-19
CN108682416B true CN108682416B (zh) 2021-01-01

Family

ID=63800905

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810322889.3A Active CN108682416B (zh) 2018-04-11 2018-04-11 本地自适应语音训练方法和系统

Country Status (1)

Country Link
CN (1) CN108682416B (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102543076A (zh) * 2011-01-04 2012-07-04 中国移动通信集团公司 用于语音输入法的语音训练方法及相应的系统
CN105575389A (zh) * 2015-12-07 2016-05-11 百度在线网络技术(北京)有限公司 模型训练方法、系统和装置
CN106537493A (zh) * 2015-09-29 2017-03-22 深圳市全圣时代科技有限公司 语音识别系统及方法、客户端设备及云端服务器
CN106875942A (zh) * 2016-12-28 2017-06-20 中国科学院自动化研究所 基于口音瓶颈特征的声学模型自适应方法
CN107545889A (zh) * 2016-06-23 2018-01-05 华为终端(东莞)有限公司 适用于模式识别的模型的优化方法、装置及终端设备

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040243412A1 (en) * 2003-05-29 2004-12-02 Gupta Sunil K. Adaptation of speech models in speech recognition

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102543076A (zh) * 2011-01-04 2012-07-04 中国移动通信集团公司 用于语音输入法的语音训练方法及相应的系统
CN106537493A (zh) * 2015-09-29 2017-03-22 深圳市全圣时代科技有限公司 语音识别系统及方法、客户端设备及云端服务器
CN105575389A (zh) * 2015-12-07 2016-05-11 百度在线网络技术(北京)有限公司 模型训练方法、系统和装置
CN107545889A (zh) * 2016-06-23 2018-01-05 华为终端(东莞)有限公司 适用于模式识别的模型的优化方法、装置及终端设备
CN106875942A (zh) * 2016-12-28 2017-06-20 中国科学院自动化研究所 基于口音瓶颈特征的声学模型自适应方法

Also Published As

Publication number Publication date
CN108682416A (zh) 2018-10-19

Similar Documents

Publication Publication Date Title
CN110310623B (zh) 样本生成方法、模型训练方法、装置、介质及电子设备
CN104575504A (zh) 采用声纹和语音识别进行个性化电视语音唤醒的方法
CN108346427A (zh) 一种语音识别方法、装置、设备及存储介质
KR100826875B1 (ko) 온라인 방식에 의한 화자 인식 방법 및 이를 위한 장치
CN108922541B (zh) 基于dtw和gmm模型的多维特征参数声纹识别方法
CN107871499B (zh) 语音识别方法、系统、计算机设备及计算机可读存储介质
TW201349222A (zh) 語音識別方法及系統
CN102324232A (zh) 基于高斯混合模型的声纹识别方法及系统
CN107146615A (zh) 基于匹配模型二次识别的语音识别方法及系统
CN102404278A (zh) 一种基于声纹识别的点歌系统及其应用方法
CN106782521A (zh) 一种语音识别系统
CN109036395A (zh) 个性化的音箱控制方法、系统、智能音箱及存储介质
CN111986675A (zh) 语音对话方法、设备及计算机可读存储介质
CN110428853A (zh) 语音活性检测方法、语音活性检测装置以及电子设备
WO2014173325A1 (zh) 喉音识别方法及装置
CN110019741A (zh) 问答系统答案匹配方法、装置、设备及可读存储介质
CN110211609A (zh) 一种提升语音识别准确率的方法
CN110299132B (zh) 一种语音数字识别方法和装置
CN109074809B (zh) 信息处理设备、信息处理方法和计算机可读存储介质
CN110853669B (zh) 音频识别方法、装置及设备
CN111048068B (zh) 语音唤醒方法、装置、系统及电子设备
CN111128127A (zh) 一种语音识别处理方法及装置
CN108682416B (zh) 本地自适应语音训练方法和系统
CN111833907A (zh) 一种人机交互方法与终端、计算机可读存储介质
CN111161718A (zh) 语音识别方法、装置、设备、存储介质及空调

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant