CN108682416A - 本地自适应语音训练方法和系统 - Google Patents
本地自适应语音训练方法和系统 Download PDFInfo
- Publication number
- CN108682416A CN108682416A CN201810322889.3A CN201810322889A CN108682416A CN 108682416 A CN108682416 A CN 108682416A CN 201810322889 A CN201810322889 A CN 201810322889A CN 108682416 A CN108682416 A CN 108682416A
- Authority
- CN
- China
- Prior art keywords
- speech
- user
- model
- voice
- speech model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/065—Adaptation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/30—Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
Abstract
本发明涉及一种本地自适应语音训练方法和系统,通过采集用户语音,并根据所述用户语音进行自适应语音训练形成第一语音模型;将所述用户语音及所述第一语音模型发送给服务器、同时进行语音训练形成第二语音模型,并将所述第二语音模型发送给用户终端;使用户终端再次采集用户语音并根据再次采集的用户语音及所述第二语音模型进行语音训练形成第三语音模型;将所述第三语音模型设置于物联网的各个终端中。因此,在经过自适应语音训练、服务器语音训练、再次通过用户进行语音训练等多次语音训练所形成的语音模型能够有效的识别用户语音,并作出准确的判断,提高用户语音识别精度。
Description
技术领域
本发明涉及语音训练技术,特别是涉及一种识别精度高的本地自适应语音训练方法和系统。
背景技术
随着网络与人工智能技术的发展,语音识别技术越来越多的进入智能家电控制中,但是语音识别技术是采用学习的算法,这样需要采集各种不同的样本,但是因为人的差异与各种方言、口语的存在,使得原有训练的模型,在实际应用中,识别率会出现很大的下降。
发明内容
基于此,有必要提供一种识别精度高的本地自适应语音训练方法。
一种本地自适应语音训练方法,包括以下步骤:
采集用户语音,并根据所述用户语音进行自适应语音训练形成第一语音模型;
将所述用户语音及所述第一语音模型发送给服务器、同时进行语音训练形成第二语音模型,并将所述第二语音模型发送给用户终端;
使用户终端再次采集用户语音并根据再次采集的用户语音及所述第二语音模型进行语音训练形成第三语音模型;
将所述第三语音模型设置于物联网的各个终端中。
在其中一个实施例中,所述采集用户语音,并根据所述用户语音进行自适应语音训练形成第一语音模型的步骤包括:
将自适应语音模型发送给终端;
接收终端采集的用户语音,使所述自适应语音模型训练所述用户语音,并形成第一语音模型。
在其中一个实施例中,所述将所述用户语音及所述第一语音模型发送给服务器、同时进行语音训练形成第二语音模型,并将所述第二语音模型发送给用户终端的步骤包括:
将所述用户语音进行存储;
将所述用户语音及所述第一语音模型发送给服务器进行语音训练,并形成第二语音模型;
将所述第二语音模块发送给用户终端。
在其中一个实施例中,所述使用户终端再次采集用户语音并根据再次采集的用户语音及所述第二语音模型进行语音训练形成第三语音模型的步骤包括:
使用户终端接收所述第二语音模型;
再次采集用户语音,采用再次采集的用户语音对所述第二语音模型进行语音校正形成所述第三语音模型。
在其中一个实施例中,所述将所述第三语音模型设置于物联网的各个终端中的步骤包括:
将第三语音模型设置于物联网的具有语音识别功能的家用电器中。
此外,还提供一种识别精度高的本地自适应语音训练系统。
一种本地自适应语音训练系统,包括采集模块、第一训练模块、通信模块、第三训练模块及设置模块;
所述采集模块用于采集用户语音,所述第一训练模块用于根据所述用户语音进行自适应语音训练形成第一语音模型;
所述通信模块用于将所述用户语音及所述第一语音模型发送给服务器、同时进行语音训练形成第二语音模型,并将所述第二语音模型发送给用户终端;
用户终端再次采集用户语音,所述第三训练模块用于根据再次采集的用户语音及所述第二语音模型进行语音训练形成第三语音模型;
所述设置模块用于将所述第三语音模型设置于物联网的各个终端中。
在其中一个实施例中,还包括:
所述通信模块用于将自适应语音模型发送给终端;
所述采集模块用于接收终端采集的用户语音,使所述自适应语音模型训练所述用户语音,并形成第一语音模型。
在其中一个实施例中,还包括:存储模块;
所述存储模块用于将所述用户语音进行存储;
所述用户语音及所述第一语音模型发送给服务器进行语音训练,并形成第二语音模型;
所述通信模块用于将所述第二语音模块发送给用户终端。
在其中一个实施例中,还包括:
所述通信模块用于将所述第二语音模型发送给用户终端;
所述采集模块用于再次采集用户语音,所述第二语音模型用于对再次采集的用户语音进行语音训练形成所述第三语音模型。
在其中一个实施例中,还包括:所述设置模块用于将第三语音模型设置于物联网的具有语音识别功能的家用电器中。
上述的本地自适应语音训练方法和系统,通过采集用户语音,并根据所述用户语音进行自适应语音训练形成第一语音模型;将所述用户语音及所述第一语音模型发送给服务器、同时进行语音训练形成第二语音模型,并将所述第二语音模型发送给用户终端;使用户终端再次采集用户语音并根据再次采集的用户语音及所述第二语音模型进行语音训练形成第三语音模型;将所述第三语音模型设置于物联网的各个终端中。因此,在经过自适应语音训练、服务器语音训练、再次通过用户进行语音训练等多次语音训练所形成的语音模型能够有效的识别用户语音,并作出准确的判断,提高用户语音识别精度。
附图说明
图1为本地自适应语音训练方法的流程图;
图2为本地自适应语音训练系统的模块图。
具体实施方式
为了便于理解本发明,下面将参照相关附图对本发明进行更全面的描述。附图中给出了本发明的较佳实施例。但是,本发明可以以许多不同的形式来实现,并不限于本文所描述的实施例。相反地,提供这些实施例的目的是使对本发明的公开内容的理解更加透彻全面。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。本文中在本发明的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在限制本发明。本文所使用的术语“和/或”包括一个或多个相关的所列项目的任意的和所有的组合。
如图1所示,为本地自适应语音训练方法的流程图。
一种本地自适应语音训练方法,包括以下步骤:
步骤S110,采集用户语音,并根据所述用户语音进行自适应语音训练形成第一语音模型。
所述采集用户语音,并根据所述用户语音进行自适应语音训练形成第一语音模型的步骤包括:
将自适应语音模型发送给终端;
接收终端采集的用户语音,使所述自适应语音模型训练所述用户语音,并形成第一语音模型。
用于每个用户的语音并非完全标准的普通话,因此,在用户使用语音电子装置时,需要对语音电子装置中的语音模型进行训练。在初次训练用户语音时,可采用服务器中自适应语音训练模式,使当前采集的用户语音通过自适应语音训练的模式形成第一语音模型。
具体的,若该用户具有自身的语音习惯,那么将该语音习惯进行自适应语音调节,例如,该用户习惯说方言,那么可利用自适应语音对用户的方言进行训练,并形成第一语音模型。由于方言与普通话的发音具有差别,因此,自适应语音训练可进行方言匹配识别,使得能够采用自适应语音中的方言模型对用户的方言进行训练。
步骤S112,将所述用户语音及所述第一语音模型发送给服务器、同时进行语音训练形成第二语音模型,并将所述第二语音模型发送给用户终端。
所述将所述用户语音及所述第一语音模型发送给服务器、同时进行语音训练形成第二语音模型,并将所述第二语音模型发送给用户终端的步骤包括:
将所述用户语音进行存储;
将所述用户语音及所述第一语音模型发送给服务器进行语音训练,并形成第二语音模型;
将所述第二语音模块发送给用户终端。
在用户语音进行自适应语音训练完成后,需要进一步的进行精确语音训练。因此,将用户语音及第一语音模型发送到服务器,由服务器中的语音数据库对用户语音再次识别,并对第一语音模型进行训练,使得形成更为精确的第二语音模型。
具体的,若用户习惯说方言,那么需要将语音数据库中的方言提取出来,用于对用户的方言进行匹配识别,进而达到训练第一语音模型的目的,使得第二语音模型能够更为快速的识别用户方言。
步骤S114,使用户终端再次采集用户语音并根据再次采集的用户语音及所述第二语音模型进行语音训练形成第三语音模型。
所述使用户终端再次采集用户语音并根据再次采集的用户语音及所述第二语音模型进行语音训练形成第三语音模型的步骤包括:
使用户终端接收所述第二语音模型;
再次采集用户语音,采用再次采集的用户语音对所述第二语音模型进行语音校正形成所述第三语音模型。
具体的,用户终端在接收第二语音模块之后,再次采集用户语音,并进行人机交互对第二语音模型进行校正训练。
由于用户之间除了有说方言的区别,还有发音习惯问题,因此,在经过两次语音训练的模型中,可能还存在识别错误,因此,需要利用用户进行人机交互,进而实现第二语音模型的校正信息。
例如,用户终端在接收第二语音模型后,通过接收多个测试语音指令,并反馈给用户,若用户判断出用户终端识别有误,那么由用户反馈指令给用户终端,使得用户终端中的第二语音模型进行校正。因而,能够通过用户反馈实现第二语音模型的校正训练,进而形成精确度高、响应速度快的第三语音模型。
步骤S116,将所述第三语音模型设置于物联网的各个终端中。
所述将所述第三语音模型设置于物联网的各个终端中的步骤包括:
将第三语音模型设置于物联网的具有语音识别功能的家用电器中。
具体的,在物联网中,家用电器已包含有语音识别功能,进而通过语音指令对家用电器进行控制。因此,家用电器的语音识别功能是否精确、响应速度是否快已成为影响用户体验的重要因素。
在本实施例中,由于经历自适应语音训练、服务器语音训练及用户通过人机交互进行校正后的第三语音模型能够实现语音识别精确且响应速度快的效果,使得物联网中的语音控制更为精确及快速。
在本实施例中,用户终端连接物联网后,根据接收的控制指令对物联网内的各电器进行控制,并及时接收各电器反馈的状态;该控制指令可以为用户的语音指令。
在其他实施例中,通过用户终端将训练好的第三语音模型发送给各具有语音识别功能的家用电器,使得各家用电器能够直接的识别用户的语音指令,使得家用电器的语音控制更为快捷准确。
基于上述实施例,一般是使用一个预先采集的数据,然后使GMM-HMM算法来进行训练,但是实际应用中,采集的数据是很难做到全面覆盖,因为在中国存在很多方言、口语,还有年龄的差异。因为我们提出使用一种增强的方式,使用中,先使用预先采集的数据对模型进行训练,将模型下载到用户的设备中,然后用户可以通过手机,采集个人的数据,然后在基础模型之上,增加对用户个人采集数据的训练,这样训练的模型将可以大大提高用户识别率。同时可以在用户采集数据时,增加噪音,学习时加进应用场景噪音,也能使得模型可以更好的适配噪音环境。
GMM,高斯混合模型,也可以简写为MOG。高斯模型就是用高斯概率密度函数精确地量化事物,将一个事物分解为若干的基于高斯概率密度函数形成的模型。
隐马尔可夫模型(Hidden Markov Model,HMM)是统计模型,它用来描述一个含有隐含未知参数的马尔可夫过程。其难点是从可观察的参数中确定该过程的隐含参数。然后利用这些参数来作进一步的分析,例如模式识别MFCC(Mel-frequency cepstralcoefficients):梅尔频率倒谱系数。梅尔频率是基于人耳听觉特性提出来的,它与Hz频率成非线性对应关系。梅尔频率倒谱系数(MFCC)则是利用它们之间的这种关系,计算得到的Hz频谱特征。主要用于语音数据特征提取和降低运算维度。
如图2所示,为本地自适应语音训练系统的模块图。
一种本地自适应语音训练系统,包括采集模块201、第一训练模块202、通信模块203、第三训练模块204及设置模块205;
所述采集模块201用于采集用户语音,所述第一训练模块202用于根据所述用户语音进行自适应语音训练形成第一语音模型;
所述通信模块203用于将所述用户语音及所述第一语音模型发送给服务器、同时进行语音训练形成第二语音模型,并将所述第二语音模型发送给用户终端;
用户终端再次采集用户语音,所述第三训练模块204用于根据再次采集的用户语音及所述第二语音模型进行语音训练形成第三语音模型;
所述设置模块205用于将所述第三语音模型设置于物联网的各个终端中。
本地自适应语音训练系统还包括:
所述通信模块203用于将自适应语音模型发送给终端;
所述采集模块201用于接收终端采集的用户语音,使所述自适应语音模型训练所述用户语音,并形成第一语音模型。
本地自适应语音训练系统还包括:存储模块;
所述存储模块用于将所述用户语音进行存储;
所述用户语音及所述第一语音模型发送给服务器进行语音训练,并形成第二语音模型;
所述通信模块203用于将所述第二语音模块发送给用户终端。
本地自适应语音训练系统还包括:
所述通信模块203用于将所述第二语音模型发送给用户终端;
所述采集模块201用于再次采集用户语音,所述第二语音模型用于对再次采集的用户语音进行语音训练形成所述第三语音模型。
本地自适应语音训练系统还包括:所述设置模块205用于将第三语音模型设置于物联网的具有语音识别功能的家用电器中。
上述的本地自适应语音训练方法和系统,通过采集用户语音,并根据所述用户语音进行自适应语音训练形成第一语音模型;将所述用户语音及所述第一语音模型发送给服务器、同时进行语音训练形成第二语音模型,并将所述第二语音模型发送给用户终端;使用户终端再次采集用户语音并根据再次采集的用户语音及所述第二语音模型进行语音训练形成第三语音模型;将所述第三语音模型设置于物联网的各个终端中。因此,在经过自适应语音训练、服务器语音训练、再次通过用户进行语音训练等多次语音训练所形成的语音模型能够有效的识别用户语音,并作出准确的判断,提高用户语音识别精度。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
Claims (10)
1.一种本地自适应语音训练方法,其特征在于,包括以下步骤:
采集用户语音,并根据所述用户语音进行自适应语音训练形成第一语音模型;
将所述用户语音及所述第一语音模型发送给服务器、同时进行语音训练形成第二语音模型,并将所述第二语音模型发送给用户终端;
使用户终端再次采集用户语音并根据再次采集的用户语音及所述第二语音模型进行语音训练形成第三语音模型;
将所述第三语音模型设置于物联网的各个终端中。
2.根据权利要求1所述的本地自适应语音训练方法,其特征在于,所述采集用户语音,并根据所述用户语音进行自适应语音训练形成第一语音模型的步骤包括:
将自适应语音模型发送给终端;
接收终端采集的用户语音,使所述自适应语音模型训练所述用户语音,并形成第一语音模型。
3.根据权利要求1所述的本地自适应语音训练方法,其特征在于,所述将所述用户语音及所述第一语音模型发送给服务器、同时进行语音训练形成第二语音模型,并将所述第二语音模型发送给用户终端的步骤包括:
将所述用户语音进行存储;
将所述用户语音及所述第一语音模型发送给服务器进行语音训练,并形成第二语音模型;
将所述第二语音模块发送给用户终端。
4.根据权利要求1所述的本地自适应语音训练方法,其特征在于,所述使用户终端再次采集用户语音并根据再次采集的用户语音及所述第二语音模型进行语音训练形成第三语音模型的步骤包括:
使用户终端接收所述第二语音模型;
再次采集用户语音,采用再次采集的用户语音对所述第二语音模型进行语音校正形成所述第三语音模型。
5.根据权利要求1所述的本地自适应语音训练方法,其特征在于,所述将所述第三语音模型设置于物联网的各个终端中的步骤包括:
将第三语音模型设置于物联网的具有语音识别功能的家用电器中。
6.一种本地自适应语音训练系统,其特征在于,包括采集模块、第一训练模块、通信模块、第三训练模块及设置模块;
所述采集模块用于采集用户语音,所述第一训练模块用于根据所述用户语音进行自适应语音训练形成第一语音模型;
所述通信模块用于将所述用户语音及所述第一语音模型发送给服务器、同时进行语音训练形成第二语音模型,并将所述第二语音模型发送给用户终端;
用户终端再次采集用户语音,所述第三训练模块用于根据再次采集的用户语音及所述第二语音模型进行语音训练形成第三语音模型;
所述设置模块用于将所述第三语音模型设置于物联网的各个终端中。
7.根据权利要求6所述的本地自适应语音训练系统,其特征在于,还包括:
所述通信模块用于将自适应语音模型发送给终端;
所述采集模块用于接收终端采集的用户语音,使所述自适应语音模型训练所述用户语音,并形成第一语音模型。
8.根据权利要求6所述的本地自适应语音训练系统,其特征在于,还包括:存储模块;
所述存储模块用于将所述用户语音进行存储;
所述用户语音及所述第一语音模型发送给服务器进行语音训练,并形成第二语音模型;
所述通信模块用于将所述第二语音模块发送给用户终端。
9.根据权利要求6所述的本地自适应语音训练系统,其特征在于,还包括:
所述通信模块用于将所述第二语音模型发送给用户终端;
所述采集模块用于再次采集用户语音,所述第二语音模型用于对再次采集的用户语音进行语音训练形成所述第三语音模型。
10.根据权利要求6所述的本地自适应语音训练系统,其特征在于,还包括:所述设置模块用于将第三语音模型设置于物联网的具有语音识别功能的家用电器中。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810322889.3A CN108682416B (zh) | 2018-04-11 | 2018-04-11 | 本地自适应语音训练方法和系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810322889.3A CN108682416B (zh) | 2018-04-11 | 2018-04-11 | 本地自适应语音训练方法和系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108682416A true CN108682416A (zh) | 2018-10-19 |
CN108682416B CN108682416B (zh) | 2021-01-01 |
Family
ID=63800905
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810322889.3A Active CN108682416B (zh) | 2018-04-11 | 2018-04-11 | 本地自适应语音训练方法和系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108682416B (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040243412A1 (en) * | 2003-05-29 | 2004-12-02 | Gupta Sunil K. | Adaptation of speech models in speech recognition |
CN102543076A (zh) * | 2011-01-04 | 2012-07-04 | 中国移动通信集团公司 | 用于语音输入法的语音训练方法及相应的系统 |
CN105575389A (zh) * | 2015-12-07 | 2016-05-11 | 百度在线网络技术(北京)有限公司 | 模型训练方法、系统和装置 |
CN106537493A (zh) * | 2015-09-29 | 2017-03-22 | 深圳市全圣时代科技有限公司 | 语音识别系统及方法、客户端设备及云端服务器 |
CN106875942A (zh) * | 2016-12-28 | 2017-06-20 | 中国科学院自动化研究所 | 基于口音瓶颈特征的声学模型自适应方法 |
CN107545889A (zh) * | 2016-06-23 | 2018-01-05 | 华为终端(东莞)有限公司 | 适用于模式识别的模型的优化方法、装置及终端设备 |
-
2018
- 2018-04-11 CN CN201810322889.3A patent/CN108682416B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040243412A1 (en) * | 2003-05-29 | 2004-12-02 | Gupta Sunil K. | Adaptation of speech models in speech recognition |
CN102543076A (zh) * | 2011-01-04 | 2012-07-04 | 中国移动通信集团公司 | 用于语音输入法的语音训练方法及相应的系统 |
CN106537493A (zh) * | 2015-09-29 | 2017-03-22 | 深圳市全圣时代科技有限公司 | 语音识别系统及方法、客户端设备及云端服务器 |
CN105575389A (zh) * | 2015-12-07 | 2016-05-11 | 百度在线网络技术(北京)有限公司 | 模型训练方法、系统和装置 |
CN107545889A (zh) * | 2016-06-23 | 2018-01-05 | 华为终端(东莞)有限公司 | 适用于模式识别的模型的优化方法、装置及终端设备 |
CN106875942A (zh) * | 2016-12-28 | 2017-06-20 | 中国科学院自动化研究所 | 基于口音瓶颈特征的声学模型自适应方法 |
Also Published As
Publication number | Publication date |
---|---|
CN108682416B (zh) | 2021-01-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109785828B (zh) | 基于用户语音风格的自然语言生成 | |
AU2016216737B2 (en) | Voice Authentication and Speech Recognition System | |
CN100351899C (zh) | 网络环境中语音处理的中间体 | |
KR100826875B1 (ko) | 온라인 방식에 의한 화자 인식 방법 및 이를 위한 장치 | |
US20130297288A1 (en) | Mobile Speech-to-Speech Interpretation System | |
US20160240215A1 (en) | System and Method for Text-to-Speech Performance Evaluation | |
CN105895103A (zh) | 一种语音识别方法及装置 | |
US10650306B1 (en) | User representation using a generative adversarial network | |
CN109313892A (zh) | 稳健的语言识别方法和系统 | |
CN108766417B (zh) | 一种基于音素自动检索的身份同一性检验方法及装置 | |
CN108877784B (zh) | 一种基于口音识别的鲁棒语音识别方法 | |
CN110570853A (zh) | 基于语音数据的意图识别方法和装置 | |
CN111986675A (zh) | 语音对话方法、设备及计算机可读存储介质 | |
CN110019741A (zh) | 问答系统答案匹配方法、装置、设备及可读存储介质 | |
Charisma et al. | Speaker recognition using mel-frequency cepstrum coefficients and sum square error | |
CN108364655A (zh) | 语音处理方法、介质、装置和计算设备 | |
CN112116909A (zh) | 语音识别方法、装置及系统 | |
CN110503941A (zh) | 语言能力评测方法、装置、系统、计算机设备及存储介质 | |
KR20100020066A (ko) | 감정 인식 장치 및 방법, 이를 이용한 콜센터 시스템 | |
CN109074809A (zh) | 信息处理设备、信息处理方法和程序 | |
CN108682416A (zh) | 本地自适应语音训练方法和系统 | |
CN111161718A (zh) | 语音识别方法、装置、设备、存储介质及空调 | |
CN111128127A (zh) | 一种语音识别处理方法及装置 | |
Boril et al. | Data-driven design of front-end filter bank for Lombard speech recognition | |
CN113658599A (zh) | 基于语音识别的会议记录生成方法、装置、设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |