CN106971726A - 一种自适应的基于码本的声纹识别方法及系统 - Google Patents
一种自适应的基于码本的声纹识别方法及系统 Download PDFInfo
- Publication number
- CN106971726A CN106971726A CN201610024241.9A CN201610024241A CN106971726A CN 106971726 A CN106971726 A CN 106971726A CN 201610024241 A CN201610024241 A CN 201610024241A CN 106971726 A CN106971726 A CN 106971726A
- Authority
- CN
- China
- Prior art keywords
- acoustic model
- code book
- voice signal
- module
- sound
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification
- G10L17/02—Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification
- G10L17/04—Training, enrolment or model building
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
- G10L19/032—Quantisation or dequantisation of spectral components
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/08—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
- G10L19/09—Long term prediction, i.e. removing periodical redundancies, e.g. by using adaptive codebook or pitch predictor
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/18—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L2019/0001—Codebooks
- G10L2019/0007—Codebook element generation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Telephonic Communication Services (AREA)
Abstract
本发明属于语音信号处理领域,尤其涉及一种自适应的基于码本的声纹识别方法及系统,应用于家用机器人,包括:S1:采集语音信号;S2:对语音信号进行预处理;S3:自预处理后的语音信号中提取语音特征参数;S4:为每一个家庭成员建立声学模型;S5:在一预定时间内对声学模型中的训练语句的使用频率进行统计,并根据统计结果以码本为单位将声学模型区分为第一声学模型和第二声学模型,第一声学模型的中码本的使用频率大于第二声学模型,并在通电时将第一声学模型加载至缓存中;S6:依据第一声学模型和第二声学模型对待测语音信号进行模式匹配,获取识别结果。以上技术方案可以自适应地实现声纹识别,并有效提高了声纹识别的速度。
Description
技术领域
本发明属于语音信号处理领域,尤其涉及一种自适应的基于码本的声纹识别方法及系统。
背景技术
家用服务机器人是当今前沿高技术研究最活跃的领域之一,它可以完成有益于人类的服务工作,如提供家务、娱乐休闲、教育、安全监控等服务,拥有广泛的潜在客户群体与市场,现有的家用服务机器人广泛采用语音识别技术实现人机交互,让机器人能够听懂人类语音,以执行相应动作,然而,现有的机器人尚无法准确识别说话人身份,无法满足用户个性化的需求。随着计算机技术和数字信号处理理论的发展出现的声纹识别技术,通过从说话人的一段语音中,提取出反映该说话人生理、心理的语音特征参数,通过对语音特征参数进行分析建模与模式匹配,来实现辨认或确认未知说话人身份的目的。然而,现有的声纹识别系统往往是针对一特定的应用场景进行设计,当系统的应用场景发生改变时,自适应能力不强,无法实现人机自由交流,且由于声纹识别的速度过慢,造成用户体验差,这是本领域技术人员所不期望看到的。
发明内容
为解决以上技术问题,提供一种自适应的基于码本的声纹识别方法及系统,解决现有识别方法的缺陷。
具体技术方案如下:
一种自适应的基于码本的声纹识别方法,其中,应用于家用机器人,具体工作步骤包括:
S1:采集语音信号;
S2:对所述语音信号进行预处理;
S3:自所述预处理后的语音信号中提取语音特征参数,所述语音特征参数包括线性预测得到的第一类特征参数及模拟人耳对声音频率的感知特性而提取的第二类特征参数;
S4:为每一个家庭成员建立一个码本存储在语音数据库中作为所述家庭成员的语音模板,所述家庭成员的所有码本构成一声学模型;
S5:在一预定时间内对所述声学模型中的训练语句的使用频率进行统计,并根据统计结果以码本为单位将所述声学模型区分为第一声学模型和第二声学模型,所述第一声学模型的中码本的使用频率大于所述第二声学模型,并在通电时将所述第一声学模型加载至缓存中;
S6:依据所述第一声学模型和第二声学模型对待测语音信号进行模式匹配,获取识别结果。
上述的自适应的基于码本的声纹识别方法,所述步骤S2中,所述预处理的步骤依次包括:
步骤S21,对所述预处理后的语音信号进行采样和量化以获得数字语音信号;
步骤S22,所述数字语音信号通过一滤波器组以提升所述数字信号的高频成分;
步骤S23,对步骤S22得到的语音信号进行分帧与加窗,获得加窗后的语音信号。
上述的自适应的基于码本的声纹识别方法,所述步骤S3中提取所述第一类特征参数为线性预测系数,提取步骤如下:
步骤S31a,定义短时语音信号和误差信号;
步骤S32a,计算所述短时语音信号和所述误差信号的误差平方和;
步骤S33a,对所述误差平方和求导数,并求解方程组获得所述第一类特征参数。
上述的自适应的基于码本的声纹识别方法,所述步骤S3中提取所述第二类特征参数的步骤包括:
步骤S31b,对所述预处理后的语音信号进行傅里叶变换得到线性频谱;
步骤S32b,对所述线性频谱通过一三角形带通滤波器组得到相应的梅尔频谱;
步骤S33b,计算所述梅尔频谱的对数频谱;
步骤S34b,对所述对数频谱进行离散余弦变换得到第二类特征参数。
上述的自适应的基于码本的声纹识别方法,所述步骤S4的具体步骤如下:
步骤S41,自所述语音信号中提取N个特征矢量,通过聚类法对所述特征矢量进行归类得到M个码本;
步骤S42,得到每个类对应的码本矢量;
步骤S43,建立每一个家庭成员的码本矢量的集合构成声学模型。
上述的自适应的基于码本的声纹识别方法,所述步骤S6具体如下,
步骤S61,将待识别的语音信号依次与所述第一声学模型和第二声学模型作相似性匹配,并根据加权欧式距离测度进行判断;
步骤S62,选取适当的距离度量作为门限值;
步骤S63,满足门限值范围内的结果作为识别结果。
还提供,一种自适应的基于码本的声纹识别系统,包括
语音输入模块,用于捕获语音信号;
预处理模块,与所述语音输入模块连接,用于对所述语音信号进行预处理;
第一特征参数提取模块,与所述预处理模块连接,用于获取所述语音信号中的第一特征参数;
第二特征参数提取模块,与所述预处理模块连接,用于获取所述语音信号中的第二特征参数;
训练模块,与所述第一特征参数提取模块和所述第二特征参数提取模块连接,用于建立每个家庭成员的语音模板,所述家庭成员的所有码本构成一声学模型;
统计处理模块,与所述训练模块连接,在一预定时间内对所述声学模型中的训练语句的使用频率进行统计,并根据统计结果以码本为单位将所述声学模型区分为第一声学模型和第二声学模型,所述第一声学模型的中码本的使用频率大于所述第二声学模型,并在通电时将所述第一声学模型加载至缓存中;
模板匹配模块,与所述统计处理模块连接,依据所述第一声学模型和第 二声学模型对待测语音信号进行模式匹配,获取识别结果。
有益效果:以上技术方案可以自适应地实现声纹识别,并有效提高了声纹识别的速度,应对不同应用场景下的人机交流,有利于提升用户体验。
附图说明
图1为本发明的方法流程图;
图2为本发明的步骤2的方法流程图;
图3为本发明的系统结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。
下面结合附图和具体实施例对本发明作进一步说明,但不作为本发明的限定。
参照图1,一种自适应的基于码本的声纹识别方法,其中,应用于家用机器人,具体工作步骤包括:
S1:采集语音信号;
S2:对语音信号进行预处理;
S3:自预处理后的语音信号中提取语音特征参数,语音特征参数包括线性预测得到的第一类特征参数及模拟人耳对声音频率的感知特性而提取的第二类特征参数;
S4:为每一个家庭成员建立一个码本存储在语音数据库中作为家庭成员的语音模板,家庭成员的所有码本构成一声学模型;
S5:在一预定时间内对声学模型中的训练语句的使用频率进行统计,并根据统计结果以码本为单位将声学模型区分为第一声学模型(常用)和第二声学模型(不常用),第一声学模型的中码本的使用频率大于第二声学模型,并在通电时将第一声学模型加载至缓存中,将第二声学模型仍然存储在语音数据库中;
S6:依据第一声学模型和第二声学模型对待测语音信号进行模式匹配,获取识别结果。
每个人由于发音器官的生理差异会导致发音方式和说话习惯各不相同,本发明结合线性预测得到的第一类特征参数及模拟人耳对声音频率的感知特性而提取的第二类特征参数,获得声学模型,以改善现有的声纹识别效果,提升用户体验。
上述的自适应的基于码本的声纹识别方法,参照图2,步骤S2中,预处理的步骤依次包括:
步骤S21,对预处理后的语音信号进行采样和量化以获得数字语音信号;
步骤S22,数字语音信号通过一滤波器组以提升数字信号的高频成分;
步骤S23,对步骤S22得到的语音信号进行分帧与加窗,获得加窗后的语音信号。
上述的自适应的基于码本的声纹识别方法,步骤S3中提取第一类特征参数可以为线性预测系数,其提取步骤如下:
步骤S31a,定义短时语音信号和误差信号;
步骤S32a,计算短时语音信号和误差信号的误差平方和;
步骤S33a,对误差平方和求导数,并求解方程组获得第一类特征参数。
由于语音相邻样点间具有相关性,可以利用线性预测的方式,根据过去的语音样点值来预测现在或未来的样点值,即利用过去若干个语音抽样或它们的线性组合,来逼近语音现在的抽样值。
上述的自适应的基于码本的声纹识别方法,步骤S3中提取第二类特征参数的步骤,包括:
步骤S31b,对预处理后的语音信号进行傅里叶变换得到线性频谱;
步骤S32b,对线性频谱通过一三角形带通滤波器组得到相应的梅尔频谱;
步骤S33b,计算梅尔频谱的对数频谱;
步骤S34b,对对数频谱进行离散余弦变换得到第二类特征参数。
上述的自适应的基于码本的声纹识别方法,步骤S4的具体步骤如下:
步骤S41,自第一类特征参数和第二类特征参数中提取N个特征矢量,通过聚类法对特征矢量进行归类得到M个码本;
步骤S42,得到每个类对应的码本矢量;
步骤S43,建立每一个家庭成员的码本矢量的集合构成声学模型。
上述的自适应的基于码本的声纹识别方法,步骤S6具体如下,
步骤S61,将待识别的语音信号依次与第一声学模型和第二声学模型作相似性匹配,并根据加权欧式距离测度进行判断;
步骤S62,选取适当的距离度量作为门限值;
步骤S63,满足门限值范围内的结果作为识别结果。
还提供,一种自适应的基于码本的声纹识别系统,参照图3,包括
语音输入模块1,用于捕获语音信号;
预处理模块2,与语音输入模块1连接,用于对语音信号进行预处理;
第一特征参数提取模块3,与预处理模块2连接,用于获取语音信号中的第一特征参数;
第二特征参数提取模块4,与预处理模块2连接,用于获取语音信号中的第二特征参数;
训练模块5,与第一特征参数提取模块和第二特征参数提取模块连接,用于建立每个家庭成员的语音模板,家庭成员的所有码本构成一声学模型;
统计处理模块6,与训练模块5连接,在一预定时间内对声学模型中的训练语句的使用频率进行统计,并根据统计结果以码本为单位将声学模型区分为第一声学模型和第二声学模型,第一声学模型的中码本的使用频率大于第二声学模型,并在通电时将第一声学模型加载至缓存中;
模板匹配模块7,与统计处理模块6连接,依次依据第一声学模型和第二声学模型对待测语音信号进行模式匹配,获取识别结果。
以上仅为本发明较佳的实施例,并非因此限制本发明的实施方式及保护范围,对于本领域技术人员而言,应当能够意识到凡运用本发明说明书及图示内容所作出的等同替换和显而易见的变化所得到的方案,均应当包含在本 发明的保护范围内。
Claims (7)
1.一种自适应的基于码本的声纹识别方法,其特征在于,应用于家用机器人,具体工作步骤包括:
S1:采集语音信号;
S2:对所述语音信号进行预处理;
S3:自所述预处理后的语音信号中提取语音特征参数,所述语音特征参数包括线性预测得到的第一类特征参数及模拟人耳对声音频率的感知特性而提取的第二类特征参数;
S4:为每一个家庭成员建立一个码本存储在语音数据库中作为所述家庭成员的语音模板,所述家庭成员的所有码本构成一声学模型;
S5:在一预定时间内对所述声学模型中的训练语句的使用频率进行统计,并根据统计结果以码本为单位将所述声学模型区分为第一声学模型和第二声学模型,所述第一声学模型的中码本的使用频率大于所述第二声学模型,并在通电时将所述第一声学模型加载至缓存中;
S6:依据所述第一声学模型和第二声学模型对待测语音信号进行模式匹配,获取识别结果。
2.根据权利要求1所述的自适应的基于码本的声纹识别方法,其特征在于,所述步骤S2中,所述预处理的步骤依次包括:
步骤S21,对所述预处理后的语音信号进行采样和量化以获得数字语音信号;
步骤S22,所述数字语音信号通过一滤波器组以提升所述数字信号的高频成分;
步骤S23,对步骤S22得到的语音信号进行分帧与加窗,获得加窗后的语音信号。
3.根据权利要求1所述的自适应的基于码本的声纹识别方法,其特征在于,所述步骤S3中提取所述第一类特征参数为线性预测系数,提取步骤如下:
步骤S31a,定义短时语音信号和误差信号;
步骤S32a,计算所述短时语音信号和所述误差信号的误差平方和;
步骤S33a,对所述误差平方和求导数,并求解方程组获得所述第一类特征参数。
4.根据权利要求1所述的自适应的基于码本的声纹识别方法,其特征在于,所述步骤S3中提取所述第二类特征参数的步骤包括:
步骤S31b,对所述预处理后的语音信号进行傅里叶变换得到线性频谱;
步骤S32b,对所述线性频谱通过一三角形带通滤波器组得到相应的梅尔频谱;
步骤S33b,计算所述梅尔频谱的对数频谱;
步骤S34b,对所述对数频谱进行离散余弦变换得到第二类特征参数。
5.根据权利要求1所述的自适应的基于码本的声纹识别方法,其特征在于,所述步骤S4的具体步骤如下:
步骤S41,自所述第一类特征参数和所述第二类特征参数中提取N个特征矢量,通过聚类法对所述特征矢量进行归类得到M个码本;
步骤S42,得到每个类对应的码本矢量;
步骤S43,建立每一个家庭成员的码本矢量的集合构成声学模型。
6.根据权利要求1所述的自适应的基于码本的声纹识别方法,其特征在于,所述步骤S6具体如下,
步骤S61,将待识别的语音信号依次与所述第一声学模型和所述第二声学模型作相似性匹配,并根据加权欧式距离测度进行判断;
步骤S62,选取适当的距离度量作为门限值;
步骤S63,满足门限值范围内的结果作为识别结果。
7.一种自适应的基于码本的声纹识别系统,其特征在于,包括
语音输入模块,用于捕获语音信号;
预处理模块,与所述语音输入模块连接,用于对所述语音信号进行预处理;
第一特征参数提取模块,与所述预处理模块连接,用于获取所述语音信号中的第一特征参数;
第二特征参数提取模块,与所述预处理模块连接,用于获取所述语音信号中的第二特征参数;
训练模块,与所述第一特征参数提取模块和所述第二特征参数提取模块连接,用于建立每个家庭成员的语音模板,所述家庭成员的所有码本构成一声学模型;
统计处理模块,与所述训练模块连接,在一预定时间内对所述声学模型中的训练语句的使用频率进行统计,并根据统计结果以码本为单位将所述声学模型区分为第一声学模型和第二声学模型,所述第一声学模型的中码本的使用频率大于所述第二声学模型,并在通电时将所述第一声学模型加载至缓存中;
模板匹配模块,与所述统计处理模块连接,依据所述第一声学模型和第二声学模型对待测语音信号进行模式匹配,获取识别结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610024241.9A CN106971726A (zh) | 2016-01-14 | 2016-01-14 | 一种自适应的基于码本的声纹识别方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610024241.9A CN106971726A (zh) | 2016-01-14 | 2016-01-14 | 一种自适应的基于码本的声纹识别方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106971726A true CN106971726A (zh) | 2017-07-21 |
Family
ID=59335057
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610024241.9A Pending CN106971726A (zh) | 2016-01-14 | 2016-01-14 | 一种自适应的基于码本的声纹识别方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106971726A (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102509547A (zh) * | 2011-12-29 | 2012-06-20 | 辽宁工业大学 | 基于矢量量化的声纹识别方法及系统 |
CN102800316A (zh) * | 2012-08-30 | 2012-11-28 | 重庆大学 | 基于神经网络的声纹识别系统的最优码本设计方法 |
CN102930864A (zh) * | 2012-11-26 | 2013-02-13 | 江苏物联网研究发展中心 | 基于子节点的声联网音信息关键词挖掘系统 |
CN103700369A (zh) * | 2013-11-26 | 2014-04-02 | 安徽科大讯飞信息科技股份有限公司 | 语音导航方法及系统 |
CN103903617A (zh) * | 2012-12-24 | 2014-07-02 | 联想(北京)有限公司 | 一种语音识别方法及电子设备 |
CN104835498A (zh) * | 2015-05-25 | 2015-08-12 | 重庆大学 | 基于多类型组合特征参数的声纹识别方法 |
-
2016
- 2016-01-14 CN CN201610024241.9A patent/CN106971726A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102509547A (zh) * | 2011-12-29 | 2012-06-20 | 辽宁工业大学 | 基于矢量量化的声纹识别方法及系统 |
CN102800316A (zh) * | 2012-08-30 | 2012-11-28 | 重庆大学 | 基于神经网络的声纹识别系统的最优码本设计方法 |
CN102930864A (zh) * | 2012-11-26 | 2013-02-13 | 江苏物联网研究发展中心 | 基于子节点的声联网音信息关键词挖掘系统 |
CN103903617A (zh) * | 2012-12-24 | 2014-07-02 | 联想(北京)有限公司 | 一种语音识别方法及电子设备 |
CN103700369A (zh) * | 2013-11-26 | 2014-04-02 | 安徽科大讯飞信息科技股份有限公司 | 语音导航方法及系统 |
CN104835498A (zh) * | 2015-05-25 | 2015-08-12 | 重庆大学 | 基于多类型组合特征参数的声纹识别方法 |
Non-Patent Citations (1)
Title |
---|
谷志新: "基于声纹信息的身份认证模式与算法的研究", 《中国优秀硕士学位论文全文数据库,信息科技辑》 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102509547B (zh) | 基于矢量量化的声纹识别方法及系统 | |
CN105611477B (zh) | 数字助听器中深度和广度神经网络相结合的语音增强算法 | |
CN109841206A (zh) | 一种基于深度学习的回声消除方法 | |
CN106504768B (zh) | 基于人工智能的电话拨测音频分类方法及装置 | |
CN109215665A (zh) | 一种基于3d卷积神经网络的声纹识别方法 | |
CN102324232A (zh) | 基于高斯混合模型的声纹识别方法及系统 | |
CN103106717A (zh) | 基于声纹识别的智能仓库声控门卫系统及其身份认证方法 | |
CN110415701A (zh) | 唇语的识别方法及其装置 | |
CN109036460A (zh) | 基于多模型神经网络的语音处理方法和装置 | |
CN111986679A (zh) | 一种应对复杂声学环境的说话人确认方法、系统及存储介质 | |
CN103021405A (zh) | 基于music和调制谱滤波的语音信号动态特征提取方法 | |
CN109473102A (zh) | 一种机器人秘书智能会议记录方法及系统 | |
CN105679323B (zh) | 一种号码发现方法及系统 | |
CN110136726A (zh) | 一种语音性别的估计方法、装置、系统及存储介质 | |
CN111554302A (zh) | 基于声纹识别的策略调整方法、装置、终端及存储介质 | |
CN112767927A (zh) | 一种提取语音特征的方法、装置、终端及存储介质 | |
CN111489763B (zh) | 一种基于gmm模型的复杂环境下说话人识别自适应方法 | |
CN110111769A (zh) | 一种电子耳蜗控制方法、装置、可读存储介质及电子耳蜗 | |
CN106796803A (zh) | 用于在音频通信中将语音数据与背景数据分离的方法和装置 | |
Nandyal et al. | MFCC based text-dependent speaker identification using BPNN | |
Hou et al. | Domain adversarial training for speech enhancement | |
CN106971712A (zh) | 一种自适应的快速声纹识别方法及系统 | |
CN106875944A (zh) | 一种语音控制家庭智能终端的系统 | |
CN106981287A (zh) | 一种提高声纹识别速度的方法及系统 | |
Wang et al. | Application of speech recognition technology in IoT smart home |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20170721 |
|
RJ01 | Rejection of invention patent application after publication |