CN105989849B - 一种语音增强方法、语音识别方法、聚类方法及装置 - Google Patents

一种语音增强方法、语音识别方法、聚类方法及装置 Download PDF

Info

Publication number
CN105989849B
CN105989849B CN201510303746.4A CN201510303746A CN105989849B CN 105989849 B CN105989849 B CN 105989849B CN 201510303746 A CN201510303746 A CN 201510303746A CN 105989849 B CN105989849 B CN 105989849B
Authority
CN
China
Prior art keywords
feature vector
cluster
center
phonological component
undetermined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201510303746.4A
Other languages
English (en)
Other versions
CN105989849A (zh
Inventor
王育军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Leshi Zhixin Electronic Technology Tianjin Co Ltd
Original Assignee
Leshi Zhixin Electronic Technology Tianjin Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Leshi Zhixin Electronic Technology Tianjin Co Ltd filed Critical Leshi Zhixin Electronic Technology Tianjin Co Ltd
Priority to CN201510303746.4A priority Critical patent/CN105989849B/zh
Priority to US15/173,579 priority patent/US20160358599A1/en
Publication of CN105989849A publication Critical patent/CN105989849A/zh
Application granted granted Critical
Publication of CN105989849B publication Critical patent/CN105989849B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/20Speech recognition techniques specially adapted for robustness in adverse environments, e.g. in noise, of stress induced speech
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • G10L2015/0631Creating reference templates; Clustering
    • G10L2015/0633Creating reference templates; Clustering using lexical or orthographic knowledge sources

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Artificial Intelligence (AREA)
  • Theoretical Computer Science (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Machine Translation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开一种语音增强方法、语音识别方法、聚类方法及装置。方法包括:选取与测试语音的第一帧语音部分的特征向量最匹配的特征向量聚类中心;针对测试语音包含的其他各帧语音部分的特征向量执行:从与该语音部分的前一帧语音部分的特征向量最匹配的特征向量聚类中心,以及与前一帧语音部分的特征向量最匹配的特征向量聚类中心相邻的特征向量聚类中心中,选取与该语音部分的特征向量最匹配的特征向量聚类中心;根据测试语音包含的各帧语音部分的特征向量、选取的特征向量聚类中心重建测试语音的特征向量。本发明由于在进行语音增强利用了能够表示语音连续性的特征,因此相比于现有技术中的传统的语音增强模型而言,能够达到更好的语音增强效果。

Description

一种语音增强方法、语音识别方法、聚类方法及装置
技术领域
本发明涉及计算机技术领域,尤其涉及一种语音增强方法、语音识别方法、聚类方法及装置。
背景技术
语音识别,也称自动语音识别(Automatic Speech Recognition,ASR)、语音辨识或言语辨别,其目标是语音信号中的词汇内容转换为计算机可读的输入,例如按键、二进制编码或者字符序列等。
在实际应用中,作为语音识别对象的语音信号(一般称为测试语音)中,往往会掺杂各种噪声,从而直接导致对于这样的语音信号的识别率较低。针对该情况,在对语音信号进行识别前,往往会先执行语音增强的操作。
语音增强,是指当语音信号被各种各样的噪声干扰甚至淹没后,从噪声背景中提取有用的语音信号,达到抑制、降低噪声干扰的一种技术。
现有技术中,一种常见的语音增强方案为:利用样本语音(也称训练语料)建立传统的语音增强模型;利用传统的语音增强模型,对测试语音进行语音增强处理。该方案的缺陷在于,在测试语音和训练语料最匹配度较低的情况下,难以达到较好的语音增强效果,进而使得语音识别的识别率较低。
发明内容
本发明实施例提供一种语音增强方法、语音识别方法、聚类方法及装置,用以解决采用传统的语音增强模型难以达到较好的语音增强效果的问题。
本发明实施例提供一种语音增强方法,包括:
从训练得到的特征向量聚类中心中,选取与所述测试语音包含的第一帧语音部分的特征向量最匹配的特征向量聚类中心;
针对所述测试语音包含的其他各帧语音部分的特征向量执行:从训练得到的、与该语音部分的前一帧语音部分的特征向量最匹配的特征向量聚类中心,以及与所述前一帧语音部分的特征向量最匹配的特征向量聚类中心相邻的特征向量聚类中心中,选取与该语音部分的特征向量最匹配的特征向量聚类中心;其中,训练得到的每个特征向量聚类中心与至少一个与其相邻的特征向量聚类中心构成的集合具有描述语音连续性的能力;
根据所述测试语音包含的各帧语音部分的特征向量,以及选取的特征向量聚类中心,重建所述测试语音的特征向量。
本发明实施例还提供一种语音识别方法,包括对采用上述语音增强方法重建的语音信号进行语音识别。
本发明实施例还提供一种聚类方法,包括:
从训练语料包含的各帧语音部分中分别提取特征向量样本;
确定特征向量样本在多维空间中的分布信息;
根据所述分布信息,确定初始聚类中心;
根据所述特征向量样本与各初始聚类中心的相似度,对所述各初始聚类中心进行迭代聚类,得到待定聚类中心;
根据训练语料中相邻语音部分的特征向量,对待定聚类中心进行迭代聚类,得到特征向量聚类中心。
本发明实施例还提供一种语音增强装置,包括:选取单元,用于从训练得到的特征向量聚类中心中,选取与测试语音包含的第一帧语音部分的特征向量最匹配的特征向量聚类中心;以及,针对所述测试语音包含的其他各帧语音部分的特征向量执行:从训练得到的、与该语音部分的前一帧语音部分的特征向量最匹配的特征向量聚类中心,以及与所述前一帧语音部分的特征向量最匹配的特征向量聚类中心相邻的特征向量聚类中心中,选取与该语音部分的特征向量最匹配的特征向量聚类中心;其中,训练得到的每个特征向量聚类中心与至少一个与其相邻的特征向量聚类中心构成的集合具有描述语音连续性的能力;重建单元,用于根据所述测试语音包含的各帧语音部分的特征向量,和选取单元选取的特征向量聚类中心,重建所述测试语音的特征向量。
本发明实施例还提供一种语音识别装置,包括:语音识别单元,用于对采用上述语音增强装置重建的语音信号进行语音识别。
本发明实施例还提供一种聚类装置,包括:特征提取单元,用于从训练语料包含的各帧语音部分中分别提取特征向量样本;分布确定单元,用于确定特征向量样本在多维空间中的分布信息;初始聚类中心确定单元,用于根据所述分布信息,确定初始聚类中心;第一聚类单元,用于根据所述特征向量样本与各初始聚类中心的相似度,对所述各初始聚类中心进行迭代聚类,得到待定聚类中心;第二聚类单元,用于根据训练语料中相邻语音部分的特征向量,对第一聚类单元得到的待定聚类中心进行迭代聚类,得到特征向量聚类中心。
本发明实施例提供的一种语音增强方法、语音识别方法、聚类方法及装置,由于在为测试语音包含的除第一帧外的其他各帧语音部分的特征向量确定相邻的特征向量聚类中心时,是从与该语音部分的前一帧语音部分的特征向量相邻的特征向量聚类中心,以及与前一帧语音部分的特征向量相邻的特征向量聚类中心相邻的特征向量聚类中心中选取的,而训练得到的每个特征向量聚类中心与至少一个与其相邻的特征向量聚类中心构成的集合具有描述语音连续性的能力,因此相当于在进行语音增强利用了能够表示语音连续性的特征,相比于现有技术中的传统的语音增强模型而言,达到了更好的语音增强效果。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1a为本发明实施例1提供的一种语音增强方法的流程示意图;
图1b为多维空间中的特征向量样本的分布示意图;
图1c为本发明实施例1中生成的一种自组织图示意图;
图1d为本发明实施例1中生成的一种包含初始聚类中心的自组织图示意图;
图1e为初始聚类中心与相邻初始聚类中心的关系示意图;
图2a为本发明实施例2采用的一种语音识别系统的结构示意图;
图2b为本发明实施例2中的训练子系统功能的实现方式示意图;
图3为本发明实施例3提供的一种语音增强装置的结构示意图;
图4为本发明实施例4提供的一种聚类装置的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明具体实施例及相应的附图对本发明技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
以下结合附图,详细说明本发明各实施例提供的技术方案。
实施例1
为了达到较好的语音增强效果,本发明实施例1提供一种语音增强方法。该方法的实现流程示意图如图1a所示,包括如下步骤:
步骤11,获得特征向量集合。
其中,这里所说的特征向量集合是由从测试语音中提取出的特征向量构成的。
本发明实施例中,特征向量可以是从测试语音中提取出的与语音识别有关的向量,尤其可以是任何可以表示声道形状的特征向量。比如频谱特征向量,就是一种可以表示声道形状的特征向量。
具体地,频谱特征向量可以是梅尔频率倒谱系数(Mel Frequency CepstrumCoefficients,MFCC)构成的特征向量等频谱特征向量。
本发明实施例中,对特征向量的维数不进行限定,其可以是12维,也可以是40维,等等。
步骤12,从训练得到的特征向量聚类中心中,选取与测试语音包含的第一帧语音部分的特征向量最匹配的特征向量聚类中心。
本发明实施例中,特征向量与特征向量聚类中心相最匹配,是指特征向量与特征向量聚类中心的相似度的值小于相似度阈值。一般地,特征向量与特征向量聚类中心的相似度,可以由特征向量与特征向量聚类中心之间的欧几里得距离的大小来衡量。该距离越小,则相似度的值越大;反之,则相似度的值越小。
相似度阈值的大小,往往决定了与测试语音包含的第一帧语音部分的特征向量最匹配的特征向量聚类中心的数目。一般地,该阈值越小,该数目越小;反之,该数目越大。本发明实施例对该阈值的具体大小不作限定。
本发明实施例中,为了选取与测试语音最匹配的特征向量,作为对测试语音进行语音增强的依据,可以预先收集训练语料,并对训练语料进行训练。训练过程一般包括:从训练语料中提取特征向量;按照设定的聚类方式对提取的特征向量进行聚类,生成特征向量聚类中心。
本发明实施例中,为了保证对测试语音进行语音增强操作时使用的特征向量聚类中心中,彼此相邻的特征向量聚类中心存在连续性,可以采用如下子步骤生成特征向量聚类中心:
子步骤一:从训练语料包含的各帧语音部分中分别提取特征向量样本;
子步骤二:确定特征向量样本在多维空间中的分布信息;
具体地,可以根据特征向量样本,以及特征向量样本的维数,生成包含各特征向量样本的多维空间。在该多维空间中,每个特征向量样本的存在形式可以是该空间中的一个点,如图1b所示。根据该多维空间中各点的分布情况,可以确定出特征向量样本在多维空间中的分布信息。比如,以图1b为例,该分布信息具体是指特征向量样本的自相关矩阵的最大特征值A和第二大特征值B。
子步骤三:根据该分布信息,确定初始聚类中心;
以图1b所示的分布信息A和B为例,可以以作为二维空间中的水平线段的长度,以作为二维空间中的垂直线段的长度,生成如图1c所示的自组织图。
进一步地,可以按照预先设定的初始聚类中心数目,以及“使初始聚类中心在自组织图中的矩形框中达到均匀分布”的原则,生成如图1d所示的包含初始聚类中心的自组织图。本发明实施例不对初始聚类中心数目的数量进行限定,比如该数量可以是1万,也可以是2万,等等。
本领域技术人员可以理解,本发明实施例中,在生成包含初始聚类中心的自组织图时,也可以遵循不同于上述原则的其他原则。比如,其他原则可以为“使80%的初始聚类中心在自组织图中的框(不一定是矩形形状的框)中达到均匀分布”;或“使50%的初始聚类中心在自组织图中的框中的某特定区域达到均匀分布”,等等。此外,本发明实施例中的特定空间除了可以是二维空间,还可以是三维空间、四维空间,等等。
需要说明的是,虽然初始聚类中心可以表示为二维的自组织图上的点,但每个初始聚类中心的维数仍然与特征向量样本的维数相同,即每个初始聚类中心仍然可以由以该维数为空间维数的多维空间中的向量表示。为便于描述,本发明实施例中假设初始聚类中心和特征向量样本的维数均为M。
本发明实施例中,自组织图上的各聚类中心,无论是初始聚类中心,还是后文介绍的其他聚类中心,均可视为单层神经网络中“神经元”。
子步骤四:根据特征向量样本与各初始聚类中心的相似度,对各初始聚类中心进行迭代聚类,得到待定聚类中心;
以下以利用训练语料中提取出的特征向量样本,对各初始聚类中心进行一次迭代聚类为例,介绍子步骤四的具体实现方式:
首先,从初始聚类中心中,分别确定与训练语料的各帧语音部分的特征向量样本最匹配的初始聚类中心,以及确定该最匹配的初始聚类中心的相邻初始聚类中心。请参照图1e,与某语音部分的特征向量样本最匹配的初始聚类中心若为初始聚类中心1,则初始聚类中心1的相邻初始聚类中心是初始聚类中心2~初始聚类中心7。
然后,根据各帧语音部分的特征向量样本分别与与其最匹配的初始聚类中心的相似度,以及各帧语音部分的特征向量样本与与其最匹配的初始聚类中心的相邻初始聚类中心的相似度,计算各初始聚类中心的参数值。自组织图中,和单帧语音部分的特征向量样本最匹配的聚类中心(如初始聚类中心)可以称为最佳最匹配单元(Best Matured Unit,BMU)。
具体地,单帧语音部分的特征向量样本与与其最匹配的初始聚类中心(即BMU)的相似度可以等于1,而该特征向量样本与该BMU的相邻初始聚类中心的相似度,则可以是采用高斯衰减方式计算得到的。本发明实施例中,采用高斯衰减方式计算特征向量样本与该BMU的相邻初始聚类中心的相似度,可以是指采用下述公式,计算该相似度:
其中,i为该BMU的相邻初始聚类中心的编号;xi为编号为i的相邻初始聚类中心与该BMU之间的欧几里得距离;r为学习率,其是一个常数,可以根据实际需求设置。
采用高斯衰减方式计算得到的相似度具体可以用于表示“该帧语音部分的特征向量样本分配给某相邻初始聚类中心的比例值”,即表示“该帧语音部分的特征向量样本归属于某相邻初始聚类中心的后验概率值”。与特征向量样本的BMU越相邻的初始聚类中心(即自组织图中与该BUM越近的神经元),被分配到该特征向量样本的比例值越大;反之,该比例值越小。
举例而言,若下述假设成立:
有5个特征向量样本与某初始聚类中心的相似度不等于0;
这5个特征向量样本归属于该初始聚类中心的后验概率值分别为1、1、0.2、0.5、0.1;
这5个特征向量样本分别为{x1,y1,z1,m1,n1}、{x2,y2,z2,m2,n2}、{x3,y3,z3,m3,n3}、{x4,y4,z4,m4,n4}、{x5,y5,z5,m5,n5}。
那么,该初始聚类中心的参数值为:各特征向量样本归属于该初始聚类中心的后验概率值和各特征向量样本的加权平均值。按照前文可知,这里所说的“各特征向量样本归属于该初始聚类中心的后验概率值”,也即各特征向量样本与该初始聚类中心相似度。
即,该初始聚类中心的参数值=[1×{x1,y1,z1,m1,n1}+1×{x2,y2,z2,m2,n2}+0.2×{x3,y3,z3,m3,n3}+0.5×{x4,y4,z4,m4,n4}+0.1×{x5,y5,z5,m5,n5}]/(1+1+0.2+0.5+0.1)。
按照上述方式,可以完成对各初始聚类中心的参数值的计算。完成各初始聚类中心的参数值的计算后,单次迭代聚类完成。
本发明实施例中,可以重复执行上述迭代聚类操作,直至满足第一迭代收敛条件时,停止该操作,并将具备满足第一迭代收敛条件时计算出的参数值的各初始聚类中心确定为“待定聚类中心”。
具体地,该第一迭代收敛条件比如可以是:当次迭代聚类操作完成后得到的各初始聚类中心的参数值,相比于上一次迭代聚类操作后得到的各初始聚类中心的参数值的变化幅度均小于规定阈值;或当次迭代聚类操作完成后得到的各初始聚类中心的参数值中,有80%的参数值相比于上一次迭代聚类操作后得到的相应的参数值的变化幅度小于规定阈值;等等。
针对上述介绍需要说明的是,语音(训练语料和测试语音均为语音)都可以被划分为多帧语音部分,每帧语音部分,可以称为一帧语音部分。按照各帧语音部分在语音中的排列位置,可以分别为各帧语音部分进行编号。其中,排列在最前的语音部分是该语音中最先被听到的部分,可以为其分配编号“1”,即该语音部分为该语音的第一帧语音部分;针对其他语音部分,可以按照其在语音中所处的位置由先至后的顺序,依次分配编号“2”、“3”…“N”。N为该语音包含的语音部分的总帧数。此外需要说明的是,初始聚类中心与特征向量样本之间的相似度,可以由初始聚类中心与特征向量样本之间的欧几里得距离来衡量。该距离越大,则相似度越大;反之,则相似度越小。本发明实施例中,相似度的取值范围可以为[0,1]。
子步骤五:根据设定的迭代聚类规则,对待定聚类中心进行迭代聚类,得到特征向量聚类中心。
其中,这里所说的设定的迭代聚类规则包括:1、根据训练语料的各语音部分的特征向量,对待定聚类中心进行迭代聚类;2、在对待定聚类中心进行单次迭代聚类时依据的特征向量,为训练语料中单个语音部分的特征向量;3、在对待聚类中心进行的每相邻两次迭代聚类时分别依据的特征向量,是训练语料中相邻语音部分的特征向量。
在一种实施方式中,子步骤五的实现过程如下:
根据设定的迭代聚类规则,针对每个训练语料执行迭代聚类操作,直至满足第二迭代收敛条件时,将具备满足第二迭代收敛条件时计算出的参数值的各待定聚类中心,确定为特征向量聚类中心。
其中,这里所说的迭代聚类操作包括下述步骤:
确定该训练语料的第一帧语音部分的特征向量与该第一帧语音部分的特征向量最匹配的待定聚类中心的相似度,以及该第一帧语音部分的特征向量与该最匹配的待定聚类中心的相邻待定聚类中心的相似度;
此外,针对该训练语料的其他各帧语音部分,执行:从与该语音部分的前一相邻语音部分的特征向量最匹配的待定聚类中心,以及自组织图中与该语音部分的前一相邻语音部分的特征向量最匹配的待定聚类中心的相邻聚类中心中,确定与该语音部分最匹配的待定聚类中心,并确定该语音部分的特征向量与该最匹配的待定聚类中心的相似度,以及该语音部分的特征向量与该最匹配的待定聚类中心的相邻待定聚类中心的相似度;
最后,根据确定的各相似度,计算各待定聚类中心的参数值。具体计算方式与子步骤四中的计算方式类似,此处不再赘述。
上述第二迭代收敛条件与第一迭代收敛条件的内容相似,比如可以为:当次迭代聚类操作完成后得到的各待定聚类中心的参数值,相比于上一次迭代聚类操作后得到的各待定聚类中心的参数值的变化幅度均小于规定阈值;或当次迭代聚类操作完成后得到的各待定聚类中心的参数值中,有80%的参数值相比于上一次迭代聚类操作后得到的相应的参数值的变化幅度小于规定阈值;等等。
对比子步骤四和子步骤五的不同之处可知,在子步骤五中,在确定与训练语料的第一帧外的其他各帧语音部分最匹配的待定聚类中心时,是从与各帧语音部分的前一相邻语音部分的特征向量最匹配的待定聚类中心,以及自组织图中与该语音部分的前一相邻语音部分的特征向量最匹配的待定聚类中心的相邻聚类中心中确定出的。该方式的好处在于,使得由特征向量聚类中心构成的集合(比如自组织图)具有描述语音连续性的能力。这里所说的语音连续性,是通过对大量语音进行分析后得到的一种结论。该结论具体为:在一段语音中,相邻两帧语音部分具有一定相似性,即该语音的第一帧语音部分的特征向量与第二帧语音部分的特征向量往往比较相似;第二帧语音部分的特征向量与第三帧语音部分的特征向量往往比较相似;依此类推。
步骤13,针对测试语音包含的其他各帧语音部分的特征向量执行:从训练得到的、与该语音部分的前一帧语音部分的特征向量最匹配的特征向量聚类中心,以及与该前一帧语音部分的特征向量最匹配的特征向量聚类中心相邻的特征向量聚类中心中,选取与该语音部分的特征向量最匹配的特征向量聚类中心。
这里所说的“测试语音包含的其他各帧语音部分”,是指测试语音包含的、除第一帧语音部分外其他的语音部分。
针对步骤13的具体实现方式,以下进行举例说明:
比如,针对测试语音包含的第二帧语音部分的特征向量而言,可以从选取出的与第一帧语音部分的特征向量最匹配的特征向量聚类中心,以及与第一帧语音部分的特征向量最匹配的特征向量聚类中心相邻的特征向量聚类中心中,选取与第二帧语音部分的特征向量最匹配的特征向量聚类中心;针对测试语音包含的第三帧语音部分的特征向量而言,可以从选取出的与第二帧语音部分的特征向量最匹配的特征向量聚类中心,以及与第二帧语音部分的特征向量最匹配的特征向量聚类中心相邻的特征向量聚类中心中,选取与第三帧语音部分的特征向量最匹配的特征向量聚类中心;依此类推。
由前文的对于步骤12的说明可知,采用本发明实施例提供的生成特征向量聚类中心的聚类方法,由于对于相邻的待定聚类中心的迭代聚类,是以相邻的两帧语音部分的特征向量为依据的,因此可以使得最终得到的特征向量聚类中心构成的集合具有描述语音连续性的能力。基于这样的集合,本发明实施例中采用步骤13这样的选取手段,可以使得被选取出的特征向量聚类中心延续描述语音连续性的能力,从而使得根据被选取的特征向量聚类中心进行测试语音的特征向量重建,能够得到较好的增强效果。
步骤14,根据特征向量集合和选取的特征向量聚类中心,重建测试语音的特征向量。
在一种实施方式中,可以但不限于采用插值运算方式,实现对测试语音的特征向量的重建。即,根据选取的特征向量聚类中心,执行对特征向量集合的插值运算操作,以获得测试语音的重建的特征向量。
采用本发明实施例提供的上述方法,在为测试语音包含的除第一帧外的其他各帧语音部分的特征向量确定相邻的特征向量聚类中心时,是从与该语音部分的前一帧语音部分的特征向量相邻的特征向量聚类中心,以及与前一帧语音部分的特征向量相邻的特征向量聚类中心相邻的特征向量聚类中心中选取的,而训练得到的每个特征向量聚类中心与至少一个与其相邻的特征向量聚类中心构成的集合具有描述语音连续性的能力,因此相当于在进行语音增强利用了能够表示语音连续性的特征,相比于现有技术中的传统的语音增强模型而言,达到了更好的语音增强效果。
通过上述方法,得到测试语音的重建的特征向量后,可以将该特征向量输入到语音识别装置中,实现对测试语音的语音识别。由于在为测试语音包含的除第一帧外的其他各帧语音部分的特征向量确定相邻的特征向量聚类中心时,是从与该语音部分的前一帧语音部分的特征向量相邻的特征向量聚类中心,以及与前一帧语音部分的特征向量相邻的特征向量聚类中心相邻的特征向量聚类中心中选取的,而训练得到的每个特征向量聚类中心与至少一个与其相邻的特征向量聚类中心构成的集合具有描述语音连续性的能力,因此相当于在进行语音增强利用了能够表示语音连续性的特征,从而相比于现有技术中的传统的语音增强模型而言,达到了更好的语音增强效果,能够提高语音识别的识别率。
需要说明的是,实施例1所提供方法的各步骤的执行主体均可以是同一设备,或者,该方法也由不同设备作为执行主体。比如,步骤11和步骤12的执行主体可以为设备1,步骤13和步骤14的执行主体可以为设备2;又比如,步骤11的执行主体可以为设备1,步骤12~步骤14的执行主体可以为设备2;等等。
实施例2
本发明实施例2中,主要介绍实施例1提供的语音增强方法在语音识别过程中的实际应用。
具体地,实际中用于实现该方法的一种语音识别系统的结构示意图如图2a所示,主要包括训练子系统和语音识别子系统。其中,训练子系统用于生成前文提及的自组织图;而语音识别子系统则用于基于训练子系统生成的自组织图,对测试语音进行识别。
以下分别对上述两个子系统的功能实现方式进行介绍。
1、训练子系统
训练子系统的功能在于生成时序受限自组织图。该功能的实现方式主要包括如图2b所示的如下步骤:
步骤一:特征提取。
即从训练语料中提取特征向量(即前文所述的特征向量样本)。
步骤二:自组织图初始化。
具体而言,可以根据提取到的所有特征向量样本,计算相应的协方差矩阵;然后,对协方差矩阵进行主成分分析后,将确定出的最大特征值的平方根的两倍作为自组织图的宽,将第二大特征值的平方根的两倍作为自组织图的高,按照设定的神经元的数目,生成包含该数目的神经元的自组织图。
实施例2中,自组织图是一个单层的神经网络,网络的每个节点是一个神经元。后文将要提到的神经元的参数值,用于表示一个平均的语音特征向量。该神经网络可以采用如图1e所示的六角形拓扑。
需要说明的是,为了增强自组织图上神经元的表述能力,可以对提取出的特征向量样本进行信道归一化、对角化变换或者区分度变换等预处理后,再利用预处理后的特征向量样本计算相应的协方差矩阵。
步骤三:自组织图预训练。
自组织图预训练是自组织图时序限制训练的基础。自组织图预训练的目的是为了得到一个能够反映特征向量样本分布情况的图。
具体而言,步骤三的实现方式包括:对于每个训练语料,都要执行样本分配(E步骤)和神经元参数评估(M步骤)。
其中,E步骤为:针对该训练语料中提取出的每个特征向量样本,在自组织图中分别为其寻找一个最优最匹配神经元,即寻找分别与每个特征向量样本之间的欧几里得距离最小的神经元,作为特征向量样本的最优最匹配神经元;将特征向量样本分配给相应的最优最匹配神经元的比例确定为1;然后,对于最优最匹配神经元的相邻神经元,按照距离的高斯衰减方式,计算相应的特征向量样本分配给相邻神经元的比例。
E步骤后,每个神经元都被分配了至少一个特征向量样本的比例。需要说明的是,某神经元没有被分配某特征向量样本的比例的情况,可以理解为该神经元分配到的该特征向量样本的比例为0。
M步骤为:每个神经元把分配给自己的特征向量样本的比例进行加权平均,得到自己的参数值。
E步骤和M步骤交替循环进行,直至满足如实施例1中所述的第一迭代收敛条件时,将具备满足第一迭代收敛条件时计算出的参数值的各神经元,确定为对自组织图进行预训练后得到的神经元(即实施例1中所说的待定聚类中心)。
步骤四:自组织图时序限制训练。
该轮训练的目的是让自组织图具有描述语音连续性的能力。
步骤四的实现流程和步骤三大致相同,包括交替循环执行的E’步骤和M’步骤。当满足如实施例2中所述的第二迭代收敛条件时,将具备满足第二迭代收敛条件时计算出的参数值的各神经元,确定为对自组织图进行时序限制训练后得到的神经元(即实施例1中所说的特征向量聚类中心),从而得到时序受限自组织图。
具体而言,E’步骤为:针对该训练语料中提取出的每个特征向量样本,在自组织图中分别为其寻找一个最优最匹配神经元;将特征向量样本分配给相应的最优最匹配神经元的比例确定为1;然后,对于最优最匹配神经元的相邻神经元,按照距离的高斯衰减方式,计算相应的特征向量样本分配给相邻神经元的比例。与E步骤不同的是,E’步骤中,训练语料的t+1帧的语音特征向量xt+1的最优最匹配神经元,只能在训练语料的t帧的语音特征向量xt的最优最匹配神经元和该最优最匹配神经元的相邻神经元中选取。
M’步骤为:每个神经元把分配给自己的特征向量样本的比例进行加权平均,得到自己的参数值。
以下介绍语音识别子系统的功能。
语音识别子系统主要包括两个模块:特征增强模块和语音识别模块。
其中,特征增强模块用于利用对训练语料进行训练得到的“时序受限自组织图”,把测试语音的语音特征向量变得具有与训练语料类似的语音特征向量分布特性。语音识别模块,用于对特征增强模块输出的语音特征向量进行语音识别。
本发明实施例中,特征增强模块对测试语音进行语音特征增强的过程,就是在时序受限自组织图上搜索最佳语音路径的过程。其中,一条语音路径,即由时序受限自组织图上的神经元构成的一条线(往往是曲线)。
具体地,可以先在该图上,寻找多个和测试语音的第一帧语音部分中提取出的语音特征向量之间的欧几里得距离较小的神经元,作为多条语音路径的起点。然后,按照“测试语音的第n+1帧语音部分的最优最匹配神经元只能从测试语音的第n帧语音部分的最优最匹配神经元及其相邻神经元中选取”的方式,为测试语音的除第一帧语音部分外的其他语音部分分别确定最优最匹配神经元,从而保证语音路径的连续性。
特征增强模块在为测试语音的每帧语音部分均确定最优最匹配神经元后,能够得到至少一条语音路径。
若仅得到一条语音路径,则可以将该语音路径确定为最佳语音路径,并利用这条路径上的每个神经元的参数值和其相邻神经元的参数值,对测试语音的语音特征向量进行插值运算,得到一个重建的特征序列并输出给语音识别模块进行语音识别。
若得到至少两条语音路径,则从这至少两条语音路径中选取最优语音路径,进而利用最优语音路径上的每个神经元的参数值和其相邻神经元的参数值,对测试语音的语音特征向量进行插值运算,得到一个重建的特征序列并输出给语音识别模块进行语音识别。本发明实施例中,选取的最优语音路径满足:与得到的其他语音路径相比,该条语音路径上的神经元的参数值与测试语音的相应语音特征向量之间的欧几里德距离之和(或欧几里德距离平均值)最小。
以下举例说明,本发明实施例中,如何利用得到的语音路径上的每个神经元的参数值和其相邻神经元的参数值,对测试语音的语音特征向量进行插值运算:
假设测试语音的起始时刻为0,该测试语音的第一帧语音部分的长度为t,且该第一帧语音的原始特征向量为ft,那么可以先从针对该测试语音确定出的最优路径上,确定出相距最优路径的初始神经元最近的神经元(后称神经元T),以及确定该神经元T的各相邻神经元。
进一步地,计算ft分配给该神经元T和该神经元T的各相邻神经元的比例值,并将计算出的该比例值作为相应的神经元的插值比例。比如,由于ft与神经元T最匹配,则ft分配给该神经元T的插值比例为1.0。若假设该神经元T有6个相邻神经元,则可以进一步假设ft分配给该神经元T的插值比例均为0.7。
接下来,若假设所有神经元的插值比例占增强特征的40%,可以按照下述公式,计算针对该帧语音部分的插值特征ft’:
ft’=[(1-0.4)ft+0.4(1.0w1+0.7w2+0.7w3+0.7w4+0.7w5+0.7w6+0.7w7)]/[1-0.4+0.4(1.0+0.7+0.7+0.7+0.7+0.7+0.7+0.7)]
上述公式中,w1为神经元T的参数值,w2…w7分别为神经元T的6个相邻神经元的参数值。各参数值的计算方式如实施例1中所述,此处不再赘述。
计算出的ft’即为该帧语音部分的、增强后的特征向量。
实施例3
本发明实施例3提供一种语音增强装置,用以达到较好的语音增强效果。该装置的结构示意图如图3所示,包括选取单元31和重建单元32。对各单元的功能介绍如下:
选取单元31,用于从训练得到的特征向量聚类中心中,选取与测试语音包含的第一帧语音部分的特征向量最匹配的特征向量聚类中心;以及,针对测试语音包含的其他各帧语音部分的特征向量执行:从训练得到的、与该语音部分的前一帧语音部分的特征向量最匹配的特征向量聚类中心,以及与该前一帧语音部分的特征向量最匹配的特征向量聚类中心相邻的特征向量聚类中心中,选取与该语音部分的特征向量最匹配的特征向量聚类中心。
其中,训练得到的每个特征向量聚类中心与至少一个与其相邻的特征向量聚类中心构成的集合具有描述语音连续性的能力。
重建单元32,用于根据测试语音包含的各帧语音部分的特征向量和选取单元31选取的特征向量聚类中心,重建测试语音的特征向量。
在一种实施方式中,重建单元32具体可以用于:根据选取的特征向量聚类中心,执行对测试语音包含的所有语音部分的特征向量构成的向量集合的插值运算操作,以获得所述测试语音的重建的特征向量。
在一种实施方式中,本发明实施例3提供的该装置还可以用于实现对于从训练语料中提取的特征向量样本的训练。具体地,可以由该装置包括的下述单元实现该功能:
提取单元,用于在选取单元31选取特征向量前,从训练语料包含的各帧语音部分中分别提取特征向量样本;
分布确定单元,用于确定特征向量样本在多维空间中的分布信息;
初始聚类中心确定单元,用于根据分布信息,确定初始聚类中心;
第一聚类单元,用于根据特征向量样本与各初始聚类中心的相似度,对各初始聚类中心进行迭代聚类,得到待定聚类中心;
第二聚类单元,用于根据设定的迭代聚类规则,对待定聚类中心进行迭代聚类,得到特征向量聚类中心。其中,这里所说的设定的迭代聚类规则包括:1、根据训练语料的各语音部分的特征向量,对待定聚类中心进行迭代聚类;2、在对待定聚类中心进行单次迭代聚类时依据的特征向量,为训练语料中单个语音部分的特征向量;3、在对待聚类中心进行的每相邻两次迭代聚类时分别依据的特征向量,是训练语料中相邻语音部分的特征向量。
在一种实施方式中,第二聚类单元可以用于:根据设定的迭代聚类规则,针对每个训练语料执行迭代聚类操作,直至满足迭代收敛条件时,将具备满足迭代收敛条件时计算出的参数值的各待定聚类中心,确定为特征向量聚类中心。
其中,迭代聚类操作包括下述步骤:
确定该训练语料的第一帧语音部分的特征向量与与该第一帧语音部分的特征向量最匹配的待定聚类中心的相似度,以及该第一帧语音部分的特征向量与该最匹配的待定聚类中心的相邻待定聚类中心的相似度;
针对该训练语料的其他各帧语音部分,执行:从与该语音部分的前一相邻语音部分的特征向量最匹配的待定聚类中心,以及特定空间中与该语音部分的前一相邻语音部分的特征向量最匹配的待定聚类中心的相邻聚类中心中,确定与该语音部分最匹配的待定聚类中心,并确定该语音部分的特征向量与该最匹配的待定聚类中心的相似度,以及该语音部分的特征向量与该最匹配的待定聚类中心的相邻待定聚类中心的相似度;
根据确定的各相似度,计算各待定聚类中心的参数值。
在为测试语音包含的除第一帧外的其他各帧语音部分的特征向量确定相邻的特征向量聚类中心时,是从与该语音部分的前一帧语音部分的特征向量相邻的特征向量聚类中心,以及与前一帧语音部分的特征向量相邻的特征向量聚类中心相邻的特征向量聚类中心中选取的,而训练得到的每个特征向量聚类中心与至少一个与其相邻的特征向量聚类中心构成的集合具有描述语音连续性的能力,因此相当于在进行语音增强利用了能够表示语音连续性的特征,相比于现有技术中的传统的语音增强模型而言,达到了更好的语音增强效果。
实施例4
实施例4提供一种聚类装置,用以实现对从训练语料包含的各帧语音部分中分别提取特征向量样本进行聚类。该装置的结构示意图如图4所示,主要包括下述功能单元:
特征提取单元41,用于从训练语料包含的各帧语音部分中分别提取特征向量样本;
分布确定单元42,用于确定特征提取单元41提取的特征向量样本在多维空间中的分布信息;
初始聚类中心确定单元43,用于根据分布确定单元42确定的分布信息,确定初始聚类中心;
第一聚类单元44,用于根据特征向量样本与各初始聚类中心的相似度,对各初始聚类中心进行迭代聚类,得到待定聚类中心;
第二聚类单元45,用于根据设定的迭代聚类规则,对待定聚类中心进行迭代聚类,得到特征向量聚类中心。
其中,这里所说的设定的迭代聚类规则包括:1、根据训练语料的各语音部分的特征向量,对待定聚类中心进行迭代聚类;2、在对待定聚类中心进行单次迭代聚类时依据的特征向量,为训练语料中单个语音部分的特征向量;3、在对待聚类中心进行的每相邻两次迭代聚类时分别依据的特征向量,是训练语料中相邻语音部分的特征向量。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
以上所描述的方法、装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (10)

1.一种语音增强方法,其特征在于,包括:
从训练得到的特征向量聚类中心中,选取与测试语音包含的第一帧语音部分的特征向量最匹配的特征向量聚类中心;
针对所述测试语音包含的其他各帧语音部分的特征向量执行:从训练得到的、与该语音部分的前一帧语音部分的特征向量最匹配的特征向量聚类中心,以及与所述前一帧语音部分的特征向量最匹配的特征向量聚类中心相邻的特征向量聚类中心中,选取与该语音部分的特征向量最匹配的特征向量聚类中心;其中,训练得到的每个特征向量聚类中心与至少一个与其相邻的特征向量聚类中心构成的集合具有描述语音连续性的能力;
根据所述测试语音包含的各帧语音部分的特征向量,以及选取的特征向量聚类中心,重建所述测试语音的特征向量。
2.如权利要求1所述的方法,其特征在于,根据所述测试语音包含的各帧语音部分的特征向量,以及选取的特征向量聚类中心,重建所述测试语音的特征向量,包括:
根据选取的特征向量聚类中心,执行对所述测试语音包含的所有语音部分的特征向量构成的向量集合的插值运算操作,以获得所述测试语音的重建的特征向量。
3.如权利要求1所述的方法,其特征在于,从训练得到的特征向量聚类中心中,选取与所述测试语音包含的第一帧语音部分的特征向量最匹配的特征向量聚类中心前,所述方法还包括:
从训练语料包含的各帧语音部分中分别提取特征向量样本;
确定特征向量样本在多维空间中的分布信息;
根据所述分布信息,确定初始聚类中心;
根据所述特征向量样本与各初始聚类中心的相似度,对所述各初始聚类中心进行迭代聚类,得到待定聚类中心;
根据设定的迭代聚类规则,对待定聚类中心进行迭代聚类,得到特征向量聚类中心;
其中,所述设定的迭代聚类规则包括:根据所述训练语料的各语音部分的特征向量,对待定聚类中心进行迭代聚类;并且,在对待定聚类中心进行单次迭代聚类时依据的特征向量,为所述训练语料中单个语音部分的特征向量;在对待聚类中心进行的每相邻两次迭代聚类时分别依据的特征向量,是所述训练语料中相邻语音部分的特征向量。
4.如权利要求3所述的方法,其特征在于,根据设定的迭代聚类规则,对待定聚类中心进行迭代聚类,得到特征向量聚类中心,包括:
根据设定的迭代聚类规则,针对每个训练语料执行迭代聚类操作,直至满足迭代收敛条件时,将具备满足迭代收敛条件时计算出的参数值的各待定聚类中心,确定为特征向量聚类中心;其中,所述迭代聚类操作包括下述步骤:
确定该训练语料的第一帧语音部分的特征向量与该第一帧语音部分的特征向量最匹配的待定聚类中心的相似度,以及该第一帧语音部分的特征向量与该最匹配的待定聚类中心的相邻待定聚类中心的相似度;
针对该训练语料的其他各帧语音部分,执行:从与该语音部分的前一相邻语音部分的特征向量最匹配的待定聚类中心,以及特定空间中与该语音部分的前一相邻语音部分的特征向量最匹配的待定聚类中心的相邻聚类中心中,确定与该语音部分最匹配的待定聚类中心,并确定该语音部分的特征向量与该最匹配的待定聚类中心的相似度,以及该语音部分的特征向量与该最匹配的待定聚类中心的相邻待定聚类中心的相似度;
根据确定的各相似度,计算各待定聚类中心的参数值。
5.一种语音识别方法,其特征在于,包括:
对采用如权利要求1~4任一权项所述的语音增强方法重建的语音信号进行语音识别。
6.一种聚类方法,其特征在于,包括:
从训练语料包含的各帧语音部分中分别提取特征向量样本;
确定特征向量样本在多维空间中的分布信息;
根据所述分布信息,确定初始聚类中心;
根据所述特征向量样本与各初始聚类中心的相似度,对所述各初始聚类中心进行迭代聚类,得到待定聚类中心;
根据设定的迭代聚类规则,对待定聚类中心进行迭代聚类,得到特征向量聚类中心;
其中,所述设定的迭代聚类规则包括:根据所述训练语料的各语音部分的特征向量,对待定聚类中心进行迭代聚类;并且,在对待定聚类中心进行单次迭代聚类时依据的特征向量,为所述训练语料中单个语音部分的特征向量;在对待聚类中心进行的每相邻两次迭代聚类时分别依据的特征向量,是所述训练语料中相邻语音部分的特征向量。
7.一种语音增强装置,其特征在于,包括:
选取单元,用于从训练得到的特征向量聚类中心中,选取与测试语音包含的第一帧语音部分的特征向量最匹配的特征向量聚类中心;以及,针对所述测试语音包含的其他各帧语音部分的特征向量执行:从训练得到的、与该语音部分的前一帧语音部分的特征向量最匹配的特征向量聚类中心,以及与所述前一帧语音部分的特征向量最匹配的特征向量聚类中心相邻的特征向量聚类中心中,选取与该语音部分的特征向量最匹配的特征向量聚类中心;其中,训练得到的每个特征向量聚类中心与至少一个与其相邻的特征向量聚类中心构成的集合具有描述语音连续性的能力;
重建单元,用于根据所述测试语音包含的各帧语音部分的特征向量,和选取单元选取的特征向量聚类中心,重建所述测试语音的特征向量。
8.如权利要求7所述的装置,其特征在于,重建单元用于:
根据选取的特征向量聚类中心,执行对所述测试语音包含的所有语音部分的特征向量构成的向量集合的插值运算操作,以获得所述测试语音的重建的特征向量。
9.一种语音识别装置,其特征在于,包括:
语音识别单元,用于对采用如权利要求7或8所述的语音增强装置重建的语音信号进行语音识别。
10.一种聚类装置,其特征在于,包括:
特征提取单元,用于从训练语料包含的各帧语音部分中分别提取特征向量样本;
分布确定单元,用于确定特征向量样本在多维空间中的分布信息;
初始聚类中心确定单元,用于根据所述分布信息,确定初始聚类中心;
第一聚类单元,用于根据所述特征向量样本与各初始聚类中心的相似度,对所述各初始聚类中心进行迭代聚类,得到待定聚类中心;
第二聚类单元,用于根据设定的迭代聚类规则,对待定聚类中心进行迭代聚类,得到特征向量聚类中心;
其中,所述设定的迭代聚类规则包括:根据所述训练语料的各语音部分的特征向量,对待定聚类中心进行迭代聚类;并且,在对待定聚类中心进行单次迭代聚类时依据的特征向量,为所述训练语料中单个语音部分的特征向量;在对待聚类中心进行的每相邻两次迭代聚类时分别依据的特征向量,是所述训练语料中相邻语音部分的特征向量。
CN201510303746.4A 2015-06-03 2015-06-03 一种语音增强方法、语音识别方法、聚类方法及装置 Active CN105989849B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201510303746.4A CN105989849B (zh) 2015-06-03 2015-06-03 一种语音增强方法、语音识别方法、聚类方法及装置
US15/173,579 US20160358599A1 (en) 2015-06-03 2016-06-03 Speech enhancement method, speech recognition method, clustering method and device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510303746.4A CN105989849B (zh) 2015-06-03 2015-06-03 一种语音增强方法、语音识别方法、聚类方法及装置

Publications (2)

Publication Number Publication Date
CN105989849A CN105989849A (zh) 2016-10-05
CN105989849B true CN105989849B (zh) 2019-12-03

Family

ID=57040431

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510303746.4A Active CN105989849B (zh) 2015-06-03 2015-06-03 一种语音增强方法、语音识别方法、聚类方法及装置

Country Status (2)

Country Link
US (1) US20160358599A1 (zh)
CN (1) CN105989849B (zh)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107564513B (zh) * 2016-06-30 2020-09-08 阿里巴巴集团控股有限公司 语音识别方法及装置
CN109979486B (zh) * 2017-12-28 2021-07-09 中国移动通信集团北京有限公司 一种语音质量评估方法及装置
CN110322895B (zh) * 2018-03-27 2021-07-09 亿度慧达教育科技(北京)有限公司 语音评测方法及计算机存储介质
CN109065028B (zh) * 2018-06-11 2022-12-30 平安科技(深圳)有限公司 说话人聚类方法、装置、计算机设备及存储介质
US11089034B2 (en) * 2018-12-10 2021-08-10 Bitdefender IPR Management Ltd. Systems and methods for behavioral threat detection
US11323459B2 (en) 2018-12-10 2022-05-03 Bitdefender IPR Management Ltd. Systems and methods for behavioral threat detection
US11153332B2 (en) 2018-12-10 2021-10-19 Bitdefender IPR Management Ltd. Systems and methods for behavioral threat detection
CN113192493B (zh) * 2020-04-29 2022-06-14 浙江大学 一种结合GMM Token配比与聚类的核心训练语音选择方法
TWI807203B (zh) 2020-07-28 2023-07-01 華碩電腦股份有限公司 聲音辨識方法及使用其之電子裝置
CN112365884A (zh) * 2020-11-10 2021-02-12 珠海格力电器股份有限公司 耳语的识别方法和装置、存储介质、电子装置
CN112614484B (zh) * 2020-11-23 2022-05-20 北京百度网讯科技有限公司 特征信息挖掘方法、装置及电子设备
KR102560019B1 (ko) * 2021-01-15 2023-07-27 네이버 주식회사 화자 식별과 결합된 화자 분리 방법, 시스템, 및 컴퓨터 프로그램
CN114999465A (zh) * 2022-05-14 2022-09-02 云知声智能科技股份有限公司 说话人分割聚类方法、装置、存储介质及电子装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6430528B1 (en) * 1999-08-20 2002-08-06 Siemens Corporate Research, Inc. Method and apparatus for demixing of degenerate mixtures
CN1607576A (zh) * 2002-11-15 2005-04-20 中国科学院声学研究所 一种语音识别系统
CN101014997A (zh) * 2004-02-18 2007-08-08 皇家飞利浦电子股份有限公司 用于生成用于自动语音识别器的训练数据的方法和系统
CN101510424A (zh) * 2009-03-12 2009-08-19 孟智平 基于语音基元的语音编码与合成方法及系统
CN102314873A (zh) * 2010-06-30 2012-01-11 上海视加信息科技有限公司 一种语音基元的编码与合成系统

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5199077A (en) * 1991-09-19 1993-03-30 Xerox Corporation Wordspotting for voice editing and indexing
JPH064093A (ja) * 1992-06-18 1994-01-14 Matsushita Electric Ind Co Ltd Hmm作成装置、hmm記憶装置、尤度計算装置及び、認識装置
KR100324988B1 (ko) * 1994-06-13 2002-08-27 마츠시타 덴끼 산교 가부시키가이샤 신호해석장치
US5793891A (en) * 1994-07-07 1998-08-11 Nippon Telegraph And Telephone Corporation Adaptive training method for pattern recognition
US6009387A (en) * 1997-03-20 1999-12-28 International Business Machines Corporation System and method of compression/decompressing a speech signal by using split vector quantization and scalar quantization
US6023673A (en) * 1997-06-04 2000-02-08 International Business Machines Corporation Hierarchical labeler in a speech recognition system
US6278972B1 (en) * 1999-01-04 2001-08-21 Qualcomm Incorporated System and method for segmentation and recognition of speech signals
US6684186B2 (en) * 1999-01-26 2004-01-27 International Business Machines Corporation Speaker recognition using a hierarchical speaker model tree
US6324509B1 (en) * 1999-02-08 2001-11-27 Qualcomm Incorporated Method and apparatus for accurate endpointing of speech in the presence of noise
US6526379B1 (en) * 1999-11-29 2003-02-25 Matsushita Electric Industrial Co., Ltd. Discriminative clustering methods for automatic speech recognition
US6748356B1 (en) * 2000-06-07 2004-06-08 International Business Machines Corporation Methods and apparatus for identifying unknown speakers using a hierarchical tree structure
US6735563B1 (en) * 2000-07-13 2004-05-11 Qualcomm, Inc. Method and apparatus for constructing voice templates for a speaker-independent voice recognition system
ATE297588T1 (de) * 2000-11-14 2005-06-15 Ibm Anpassung des phonetischen kontextes zur verbesserung der spracherkennung
US8521529B2 (en) * 2004-10-18 2013-08-27 Creative Technology Ltd Method for segmenting audio signals
US7937269B2 (en) * 2005-08-22 2011-05-03 International Business Machines Corporation Systems and methods for providing real-time classification of continuous data streams
US7945441B2 (en) * 2007-08-07 2011-05-17 Microsoft Corporation Quantized feature index trajectory
JP5356527B2 (ja) * 2009-09-19 2013-12-04 株式会社東芝 信号分類装置
US9064491B2 (en) * 2012-05-29 2015-06-23 Nuance Communications, Inc. Methods and apparatus for performing transformation techniques for data clustering and/or classification
JP6596924B2 (ja) * 2014-05-29 2019-10-30 日本電気株式会社 音声データ処理装置、音声データ処理方法、及び、音声データ処理プログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6430528B1 (en) * 1999-08-20 2002-08-06 Siemens Corporate Research, Inc. Method and apparatus for demixing of degenerate mixtures
CN1607576A (zh) * 2002-11-15 2005-04-20 中国科学院声学研究所 一种语音识别系统
CN101014997A (zh) * 2004-02-18 2007-08-08 皇家飞利浦电子股份有限公司 用于生成用于自动语音识别器的训练数据的方法和系统
CN101510424A (zh) * 2009-03-12 2009-08-19 孟智平 基于语音基元的语音编码与合成方法及系统
CN102314873A (zh) * 2010-06-30 2012-01-11 上海视加信息科技有限公司 一种语音基元的编码与合成系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
一种增量迭代方式下的特征向量聚类方法;黄锐;《模式识别与人工智能》;20100630;全文 *
语音识别中互信息测度的聚类特性分析与实验评价;俞一彪;《信号处理》;20021031;全文 *

Also Published As

Publication number Publication date
US20160358599A1 (en) 2016-12-08
CN105989849A (zh) 2016-10-05

Similar Documents

Publication Publication Date Title
CN105989849B (zh) 一种语音增强方法、语音识别方法、聚类方法及装置
CN110289003A (zh) 一种声纹识别的方法、模型训练的方法以及服务器
CN105023573B (zh) 使用听觉注意力线索的语音音节/元音/音素边界检测
CN105096955B (zh) 一种基于模型生长聚类的说话人快速识别方法及系统
CN110349597B (zh) 一种语音检测方法及装置
Han et al. Speech emotion recognition with a resnet-cnn-transformer parallel neural network
Tóth Convolutional deep maxout networks for phone recognition
CN108922515A (zh) 语音模型训练方法、语音识别方法、装置、设备及介质
CN103456302B (zh) 一种基于情感gmm模型权重合成的情感说话人识别方法
Meyer et al. Anonymizing speech with generative adversarial networks to preserve speaker privacy
CN110223708A (zh) 基于语音处理的语音增强方法及相关设备
Kamruzzaman et al. Speaker identification using mfcc-domain support vector machine
Shekofteh et al. Feature extraction based on speech attractors in the reconstructed phase space for automatic speech recognition systems
Li et al. Understanding the dropout strategy and analyzing its effectiveness on LVCSR
Shivakumar et al. Simplified and supervised i-vector modeling for speaker age regression
Xiao et al. AMResNet: An automatic recognition model of bird sounds in real environment
Zhu et al. Speaker Recognition System Based on weighted feature parameter
Zhang et al. Meta-generalization for domain-invariant speaker verification
Zhang et al. Rectified linear neural networks with tied-scalar regularization for LVCSR.
Shekofteh et al. MLP-based isolated phoneme classification using likelihood features extracted from reconstructed phase space
Roy et al. Pathological voice classification using deep learning
Hu et al. Spoken arabic digits recognition based on wavelet neural networks
Shi et al. Speech classification based on cuckoo algorithm and support vector machines
Loina Speaker identification using small artificial neural network on small dataset
CN113421574B (zh) 音频特征提取模型的训练方法、音频识别方法及相关设备

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information

Address after: Room 301-1, Room 301-3, Area B2, Animation Building, No. 126 Animation Road, Zhongxin Eco-city, Tianjin Binhai New Area, Tianjin

Applicant after: LE SHI ZHI XIN ELECTRONIC TECHNOLOGY (TIANJIN) Ltd.

Address before: 300453 Tianjin Binhai New Area, Tianjin Eco-city, No. 126 Animation and Animation Center Road, Area B1, Second Floor 201-427

Applicant before: Xinle Visual Intelligent Electronic Technology (Tianjin) Co.,Ltd.

Address after: 300453 Tianjin Binhai New Area, Tianjin Eco-city, No. 126 Animation and Animation Center Road, Area B1, Second Floor 201-427

Applicant after: Xinle Visual Intelligent Electronic Technology (Tianjin) Co.,Ltd.

Address before: 300467 Tianjin Binhai New Area, ecological city, animation Middle Road, building, No. two, B1 District, 201-427

Applicant before: LE SHI ZHI XIN ELECTRONIC TECHNOLOGY (TIANJIN) Ltd.

CB02 Change of applicant information
GR01 Patent grant
GR01 Patent grant
PP01 Preservation of patent right

Effective date of registration: 20210201

Granted publication date: 20191203

PP01 Preservation of patent right
PD01 Discharge of preservation of patent

Date of cancellation: 20240201

Granted publication date: 20191203

PD01 Discharge of preservation of patent
PP01 Preservation of patent right

Effective date of registration: 20240313

Granted publication date: 20191203

PP01 Preservation of patent right