CN101149922A - 语音识别装置和语音识别方法 - Google Patents

语音识别装置和语音识别方法 Download PDF

Info

Publication number
CN101149922A
CN101149922A CNA2007101469505A CN200710146950A CN101149922A CN 101149922 A CN101149922 A CN 101149922A CN A2007101469505 A CNA2007101469505 A CN A2007101469505A CN 200710146950 A CN200710146950 A CN 200710146950A CN 101149922 A CN101149922 A CN 101149922A
Authority
CN
China
Prior art keywords
feature
speech recognition
sound model
input signal
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CNA2007101469505A
Other languages
English (en)
Inventor
赤岭政巳
雷姆科·特尤南
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Publication of CN101149922A publication Critical patent/CN101149922A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/065Adaptation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/14Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
    • G10L15/142Hidden Markov Models [HMMs]
    • G10L15/144Training of HMMs

Landscapes

  • Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

一种语音识别装置,包括:提取单元,其分析输入信号并从输入信号从提取用于语音识别的特征;存储单元,其被配置为在其中存储声音模型,该声音模型是用于评估在该特征中包含什么类型的音素的随机模型;语音识别单元,其基于该特征对输入信号进行语音识别,并且从该声音模型确定具有最大似然度的单词;以及优化单元,其根据输入信号以及由语音识别单元进行的语音识别的状态中的至少一个,动态地自优化该特征和声音模型的参数。

Description

语音识别装置和语音识别方法
技术领域
本发明涉及语音识别装置和语音识别方法
背景技术
在语音识别中,使用随机模型形式的声音模型来估计在特征中包含什么类型的音素。通常使用隐马尔可夫模型(HMM)作为声音模型。HMM的每个状态的特征由高斯混合模型(GMM)来表现。一般,HMM与每个音素对应,GMM是HMM的各状态的特征的统计模型,该特征是从接收语音信号中提取的。在常规方法中,使用同一特征来计算所有GMM,并且即使语音识别的状态改变,该特征也是恒定的。
此外,在常规方法中,无法依赖于语音识别的状态来改变GMM,从而无法实现充分的识别性能。换言之,在常规方法中,当创建声音模型时设置声音模型的参数(例如,取决于上下文的结构、模型数目、高斯分布数目、以及模型和状态的共有构造),并且这些参数不会随着语音识别的进行而改变。
如果在嘈杂地方进行语音识别,例如在行进的车辆内,语音信号的噪声级别持续剧烈变化。由此,如果可以根据噪声级别动态地改变声音模型,则可以增加语音识别的精度。然而,常规声音模型是静态的,即,其不会随着噪声级别改变。因此,利用常规声音模型无法获得足够的识别精度。
此外,在常规声音模型中,对于语音识别使用同一特征,即使条件或状态改变。例如,即使HMM的每个状态具有相同的音素,HMM的每个状态的有效特征也因单词内的位置而不同。然而,在常规声音模型中,该特征无法改变。因此,利用常规声音模型无法获得足够的识别精度。
此外,当在嘈杂地方执行语音识别时,很显然,摩擦音的声音模型的有效特征以及参数与元音的不同。然而,在常规声音模型中,无法改变声音模型的有效特征和参数。因此,利用常规声音模型无法获得足够的识别精度。
通过解码来从声学模型和语言模型中选择预期的单词,并且将该单词确定为识别单词。使用单路(one-pass)解码方法或多路(multi-pass)(通常为二路)解码方法来进行解码。在二路解码方法中,可以在第一路和第二路之间改变声学模型。因此,可以根据讲话者的性别或者噪声级别而使用适当的声音模型。这种解码过程在例如以下引用文献中描述:
Schwartz R.,Austin S.,Kubala F.,Makhoul J.,Nguyen L.,PlacewayP.,Zavaglios G.,“New Uses for the N-best Sentence Hypotheses withinthe Byblos Speech Recognition System”,Proc.ICASSP 92,pp.1-4,SanFrancisco,USA,1992。
Rayner M.,Carter D.,Digalakis V.,and Price P.,“CombiningKnowledge Sources to Reorder N-best Speech Hypothesis Lists,”InProceedings ARPA Human Language Technology Workshop,pages212-217.ARPA,March 1994。
在二路解码方法中,可以在第一路和第二路之间改变声学模型,以便可以获得特定的识别精度程度。
然而,即使在二路解么方法中,也无法依赖于语音识别的状态来优化特征。此外,无法逐帧地优化声音模型的参数,因为声音模型是基于发声而选择的。换言之,即使在二路解码方法中,也无法获得足够的识别精度。
发明内容
根据本发明的一个方面,一种语音识别装置包括:特征提取单元,其分析输入信号并从输入信号从提取用于语音识别的特征;声音模型存储单元,其被配置为在其中存储声音模型,该声音模型是用于评估在该特征中包含什么类型的音素的随机模型;语音识别单元,其基于该特征对输入信号进行语音识别,并且从该声音模型确定具有最大似然度的单词;以及优化单元,其根据输入信号以及由语音识别单元进行的语音识别的状态中的至少一个,动态地自优化该特征和声音模型的参数。
根据本发明的另一方面,一种语音识别方法包括:分析输入信号并从输入信号中提取用于语音识别的特征;基于该特征进行输入信号的语音识别,并且从声音模型确定具有最大似然比的单词,该声音模型是用于估计在该特征中包含什么类型的音素的随机模型;以及根据输入信号或者通过上述执行步骤所执行的语音识别的状态,来动态地自优化该特征和声音模型的的参数。
附图说明
图1是根据本发明实施例的语音识别装置的硬件结构的框图;
图2是语音识别装置的功能结构的框图;
图3是用于说明隐马尔可夫模型(HMM)的数据结构示例的示意图;
图4是用于说明HMM与决策树之间的关系的示意图;
图5是用于说明决策树结构的树示图;
图6是决策树示例的树示图;
图7是用于说明针对一个特征计算模型的似然度的流程图;
图8是用于说明决策树的学习过程的流程图。
具体实施方式
下面结合附图详细说明本发明的示例性实施例。图1是根据本发明实施例的语音识别装置1的硬件结构的框图。语音识别装置1例如是个人计算机,并且包括对语音识别装置1进行控制的中央处理单元(CPU)2。CPU 2经由总线5连接到只读存储器(ROM)3和随机存取存储器(RAM)4。ROM 3中存储有基本输入/输出系统(BIOS)信息等。RAM4中可重写地存储有数据,由此用作CPU 2的CPU缓冲器。
硬盘驱动器(HDD)6、光盘ROM(CD-ROM)驱动器8、通信控制单元10、输入单元11和显示单元12经由各自的输入/输出(I/O)接口(未示出)连接到总线5。HDD 6中存储有计算机程序等。CD-ROM驱动器8被配置为读取CD-ROM 7。通信控制单元10控制语音识别装置1与网络9之间的通信。输入单元11包括键盘或鼠标。语音识别装置1接收经由输入单元11来自用户的可操作指令。显示单元12被配置为在其上显示信息,并且包括阴极射线管(CRT)、液晶显示器(LCD)等。
CD-ROM 7是其中存储有诸如操作系统(OS)或计算机程序的计算机软件的记录介质。当CD-ROM驱动器8读取CD-ROM 7中存储的计算机程序时,CPU 2在HDD 6上安装该计算机程序。
顺便提及,代替CD-ROM 7,可以使用例如诸如数字多功能盘(DVD)的光盘、磁光盘、诸如软盘(FD)的磁盘、以及半导体存储器。此外,代替使用诸如CD-ROM 7的物理记录介质,通信控制单元10可以被配置为经由因特网从网络9下载计算机程序,并且所下载的计算机程序可以存储在HDD 6中。在这种配置中,发送服务器需要包括诸如如上所述的记录介质的存储单元来在其中存储该计算机程序。该计算机程序可以使用预定OS来启动。该OS可以进行一些处理。该计算机程序可以被包括在计算机程序文件组中,该组包括预定应用软件和OS。
CPU 2控制整个语音识别装置1的操作,并且基于HDD 6上加载的计算机程序执行每个处理。
下面详细描述在安装于HDD 6上的计算机程序使CPU 2执行的多个功能中的由语音识别装置1包括的功能。
图2是语音识别装置1的功能结构的框图。该语音识别装置1包括作为优化单元的自优化声音模型100、特征提取单元103、作为识别单元的解码器104、以及语言模型105。语音识别装置1通过使用自优化声音模型100执行语音识别处理。
输入信号(未示出)被输入到特征提取单元103。特征提取单元103通过分析输入信号,而从输入信号中提取用于语音识别的特征,并且将所提取的特征输出到自优化声音模型100。可以使用各种类型的声音特征作为该特征。另选地,可以使用高级特征,诸如讲话者的性别、因素上下文等。作为高级特征的示例,可以使用在常规语音识别方法中使用的作为Mel频率倒谱系数(MFCC,Mel Frequency cepstrum Coefficient)静态特征或感知线性预测(PLP,Perceptual Linear Predictive)静态特征、Δ(一次微分)和ΔΔ(二次微分)参数以及能量参数的组合的39维的声音特征量、性别的种类以及输入信号的信噪比(SNR)级别,以用于语音识别。
自优化声音模型100包括隐马尔可夫模型(HMM)101和决策树102。决策树102是在每个分支处分层的树示图。HMM 101与在常规语音识别方法中使用的HMM 101相同。一个或多个决策树(102)对应于高斯混合模型(GMM),所述高斯混合模型用作常规语音识别方法中的HMM的每个状态的特征。自优化声音模型100用于针对来自特征提取单元103的语音特征输入,计算HMM 101的状态的似然度。似然度代表模型的似真性,即,该模型如何解释一现象,以及根据该模型出现该现象的频度。
语音模型105是用于估计每个单词所使用的上下文的类型的随机模型。语言模型105与在常规语音识别方法中使用的语言模型相同。
解码器104计算每个单词的似然度,并且确定自优化声音模型100和语言模型105中的具有最大似然度(参见图4)的单词作为识别单词。具体的,在接收到来自自优化声音模型100的似然度结果时,解码器104向自优化声音模型100发送关于识别目标帧的信息,诸如解码器104中的语音识别状态和HMM的状态的音素上下文。音素上下文表示构成一个单词的因素字符串的一部分。
下面详细描述HMM 101和决策树102。
在HMM 101中,从特征提取单元103输出的特征时序数据和每个音素的标签被以相关联的方式记录。图3是用于解释HMM 101的数据结构示例的示意图。在HMM 101中,通过包括多个节点和定向链接的有限自动机(finite automaton)来代表特征时序数据。所述节点中的每个指示一个验证状态。例如,节点i1、i2和i3对应于同一音素“i”,而各自具有不同的状态。定向链接中的每一个与状态间的状态转换概率(未示出)关联。
图4是用于说明HMM 101与决策树102之间的关系的示意图。HMM 101包括多个状态201。每个状态201都与决策树102关联。
下面参照图5详细描述决策树102的操作。决策树102包括节点300、多个节点301和多个叶子302。节点300是根节点,即,其是树结构的最上面的节点。节点300和301中的每一个都具有两个孩子节点:“是”和“否”。这些孩子节点可以是节点301或者叶子302。这些节点300和301中的每一个都具有关于预先设置的特征的问题,由此根据问题的答案而分支到两个孩子节点“是”和“否”。每个叶子302都不具有问题或孩子节点,但是输出针对所接收数据中包括的模型的似然度(参见图4)。似然度可以通过学习过程来计算,并且被预先存储在每个叶子302中。
图6是决策树102的示例的树示图。如图6所示,根据该实施例的声音模型可以根据讲话者的性别、SNR、语音识别的状态以及输入语音的上下文而输出似然度。决策树102与HMM 101的两个状态(即,状态1(201A)和状态2(201B))相关联。决策树102通过使用与状态201A和201B对应的学习数据来执行学习过程。特征C1和C5分别表示第一和第五PLP倒谱系数。根结点300和节点301A和301B被状态201A和201共享,并且被应用于状态201A和201B。节点301C具有关于状态的问题。节点301D到301G取决于节点301C的状态。即,某些特征在状态201和201B之间被共同使用,但是其它特征的使用取决于状态。此外,取决于状态而使用的特征的数目不是恒定的。在图6所示的示例中,状态2(201B)使用比状态1(201A)更多的特征。似然度根据SNR是否少于五分贝而改变,即,根据环境噪声级别是高还是低、或者对象音素的先前音素是否为“/ah/”而改变。在节点301B中,问题是输入语音的讲话者的性别是否是女性。即,似然度根据讲话者的性别而改变。
决策树102的节点和叶子的数目的参数、在每个节点中使用的特征和问题、从每个叶子输出的似然度等是由学习过程基于学习数据而决定的。这些参数被优化以获得最大似然度和最大识别率。如果学习数据包括足够的数据,并且如果语音信号是在执行语音识别的实际地方处获得的,则还在实际环境中优化决策树102。
下面参照图7更详细的描述由自优化声音模型100执行用于针对所接收的特征来计算HMM 101的每个状态的似然度的过程。
首先,选择与表示对象音素的HMM 101的特定状态对应的决策树102(步骤S1)。
随后,将根节点300设置为活动节点,即,可以提问题的节点,而节点301和叶子302被设置为非活动节点(步骤S2)。然后,从特征提取单元103中检取与步骤S1和S2中设置的数据对应的特征(步骤S3)。
通过使用所检取的特征,根节点300计算对于预先存储在根节点300中的问题的答案(步骤S4)。确定该问题的答案是否为“是”(步骤S5)。如果答案是“是”(步骤S5中为是),则将表示“是”的孩子节点设置为活动节点(步骤S6)。如果答案为“否”(步骤S5中为否),则将表示“否”的孩子节点设置为活动节点(步骤S7)。
然后,确定活动节点是否为叶子302(步骤S8)。如果该活动节点为叶子302(步骤S8中为是),则将存储在叶子302中的似然度输出,因此该叶子302不再分支到其它节点(步骤S9)。如果该活动节点不是叶子302(步骤S8中为否),则系统控制进行倒步骤S3。
如上所述,将取决于输入的特征、关于特征的问题以及似然度写入使用决策树102的声音模型中。因此,决策树102可以有效地优化声音特征、与高级特征相关的问题、以及取决于输入信号或识别状态的似然度。该优化可以通过下文详细说明的学习过程来实现。
图8是用于说明对于决策树102的学习处理的流程图。对于决策树102的学习基本上用于通过使用被基于输入样本是否属于HMM 101的状态而预先分为多个类的学习样本,来确定问题和似然度,该问题对于识别输入样本是否属于与目标决策树102对应的HMM 101的特定状态是需要的。学习样本预先被用于进行强制对齐以通过使用一般使用的语音识别法确定输入样本是否与HMM 101的哪个状态对应,然后将属于该状态的样本标签化为正解类,并把不属于该状态的样本标记为其他类。顺便指出,对于HMM 101的学习能按照与常规方法相同的方式来进行。
与决策树102对应的对象状态的学习样本被输入,并且创建只包括一个根节点300的决策树102(步骤S11)。在决策树102中,根节点300分支为多个节点,并且这些节点进一步分支为多个孩子节点。
然后,选择待分支的对象节点(步骤S12)。顺便指出,节点301需要包括特定量的学习样本(例如,一百个或更多个学习样本),并且这些学习样本需要由多个类构成。
确定该对象节点是否满足以上条件(步骤S13)。如果确定结果为“否”(步骤S13中为否),则系统控制进行到步骤S17(步骤S18)。如果确定结果为“是”(步骤S13中为是),则提出关于输入到对象节点301的所有特征(学习样本)的可用问题,并且评估通过这些问题的答案所获得的所有分支(分为多个孩子节点)(步骤S14)。在步骤S14中的评估是基于由这些节点的分支产生的似然度的增加率而执行的。关于所述特征(其为学习样本)的问题是根据所述特征而不同的。例如,关于声音特征的问题被表达为大或小。关于性别或者噪声类型的问题被表达为类别。即,如果特征被表达为类别,则问题是该特征是否超过阈值。另一方面,如果由类别来表示该特征,则问题是该特征是否属于特定类别。
然后,选择用于优化评估的适当问题(步骤S15)。换言之,评估对于所有学习样本的可用问题,并且选择用于优化似然度增加率的问题。
根据所选问题,学习样本被分支为两个叶子302:“是”和“否”。然后基于属于每个分支叶子的学习样本来计算每个叶子302的似然度(步骤S16)。通过以下等式计算叶子L的似然度:
存储在叶子L处的似然度=P(真类别|L)/P(真类别),并且计算结果被存储在叶子L中,其中P(真类别|L)表示叶子L中的真类别的后验概率,并且P(真类别)表示真类别的先验概率。
然后,系统控制返回到步骤S12,并且对于新叶子执行学习过程。决策树102在每次重复步骤S12到S16时增长。在此情况下,如果没有满足所述条件的对象节点(步骤S13中为否),则剪除剪枝对象节点(步骤S17和S18)。从底部向上剪除(删除)该剪枝对象节点,即,从低级节点到高级节点剪除。具体地,当孩子节点被删除时,针对似然度降低来评估具有两个孩子节点的所有节点。最少似然度降低的节点被重复剪除(步骤S18),直到节点的数目少于预定值(步骤S17)。如果节点的数目少于预定值(步骤S17中为否),则终止对于决策树102的第一轮学习过程。
当终止了对于决策树102的学习过程时,通过使用学到的声音模型,对用于学习的语音样本执行强制对齐。通过使用经更新的学习样本来更新决策树102的每个叶子的似然度。这些过程被重复执行预定次数,或者被重复执行直到整个似然度的增加率低于阈值为止,然后完成学习过程。
通过这种方式,根据输入信号的级别或者语音识别的状态来动态地自优化特征和声音模型的参数。换言之,可以根据输入语音的状况和状态、音素识别以及语音识别来优化声音模型的参数,例如特征(不仅包括声音特征还包括高级特征)的类型和数目,商品化结构和份的数目,状态的数目,取决于上下文的模型的数目。从而,可以实现高识别性能。
对于本领域技术人员来说,其它特征和修改将是显而易见的。因此,本发明在其更广义方面不限于这里所示和描述的具体说明以及代表性实施例。因此,可以在不脱离由所附权利要求及其等同物所限定的总体发明概念的精神或范围的情况下进行各种修改。

Claims (5)

1.一种语音识别装置,包括:
特征提取单元,其分析输入信号并从输入信号从提取用于语音识别的特征;
声音模型存储单元,其被配置为在其中存储声音模型,该声音模型是用于评估在该特征中包含什么类型的音素的随机模型;
语音识别单元,其基于该特征对输入信号进行语音识别,并且从该声音模型确定具有最大似然度的单词;以及
优化单元,其根据输入信号以及由语音识别单元进行的语音识别的状态中的至少一个,动态地自优化该特征和声音模型的参数。
2.根据权利要求1所述的语音识别装置,其中
优化单元包括通过分支而分层的决策树,
多个叶子,位于该决策树的末端,并且在该多个叶子中分别存储对于声音模型的似然度,以及
通过从所述叶子中选择期望的叶子,来选择取决于输入信号以及语音识别状态的似然度。
3.根据权利要求2所述的语音识别装置,其中决策树是通过学习过程构建的,该学习过程通过使用被基于输入样本是否属于特定状态而预先分为多个类的学习样本,来确定问题和似然度,其对于识别输入样本是否属于与作为学习对象的决策树对应的声音模型的特定状态是需要的。
4.根据权利要求1所述的语音识别装置,其中存储在声音模型存储单元中的声音模型是隐马尔可夫模型(HMM),并且
每个状态中的特征的似然度是使用决策树而计算的。
5.一种语音识别方法,包括:
分析输入信号并从输入信号中提取用于语音识别的特征;
基于该特征进行输入信号的语音识别,并且从声音模型确定具有最大似然度的单词,该声音模型是用于估计在该特征中包含什么类型的音素的随机模型;以及
根据输入信号或者通过上述执行步骤所执行的语音识别的状态,来动态地自优化该特征和声音模型的参数。
CNA2007101469505A 2006-09-21 2007-09-03 语音识别装置和语音识别方法 Pending CN101149922A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006255549 2006-09-21
JP2006255549A JP4427530B2 (ja) 2006-09-21 2006-09-21 音声認識装置、プログラムおよび音声認識方法

Publications (1)

Publication Number Publication Date
CN101149922A true CN101149922A (zh) 2008-03-26

Family

ID=39226160

Family Applications (1)

Application Number Title Priority Date Filing Date
CNA2007101469505A Pending CN101149922A (zh) 2006-09-21 2007-09-03 语音识别装置和语音识别方法

Country Status (3)

Country Link
US (1) US20080077404A1 (zh)
JP (1) JP4427530B2 (zh)
CN (1) CN101149922A (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102820031A (zh) * 2012-08-06 2012-12-12 西北工业大学 一种利用切割—分层构筑法的语音识别方法
CN105070288A (zh) * 2015-07-02 2015-11-18 百度在线网络技术(北京)有限公司 车载语音指令识别方法和装置
CN105185385A (zh) * 2015-08-11 2015-12-23 东莞市凡豆信息科技有限公司 基于性别预判与多频段参数映射的语音基音频率估计方法
CN106100846A (zh) * 2016-06-02 2016-11-09 百度在线网络技术(北京)有限公司 声纹注册、认证方法及装置
CN106531155A (zh) * 2015-09-10 2017-03-22 三星电子株式会社 生成声学模型的设备和方法和用于语音识别的设备和方法
CN108028051A (zh) * 2015-09-15 2018-05-11 雅马哈株式会社 评估装置和记录介质
CN108198552A (zh) * 2018-01-18 2018-06-22 深圳市大疆创新科技有限公司 一种语音控制方法及视频眼镜
CN108364651A (zh) * 2017-01-26 2018-08-03 三星电子株式会社 语音识别方法和设备

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010019831A1 (en) * 2008-08-14 2010-02-18 21Ct, Inc. Hidden markov model for speech processing with training method
US20100088097A1 (en) * 2008-10-03 2010-04-08 Nokia Corporation User friendly speaker adaptation for speech recognition
JP2010152081A (ja) * 2008-12-25 2010-07-08 Toshiba Corp 話者適応装置及びそのプログラム
KR101616054B1 (ko) 2009-04-17 2016-04-28 삼성전자주식회사 음성 검출 장치 및 방법
KR101587866B1 (ko) 2009-06-03 2016-01-25 삼성전자주식회사 음성 인식용 발음사전 확장 장치 및 방법
JP4757936B2 (ja) * 2009-07-23 2011-08-24 Kddi株式会社 パターン認識方法および装置ならびにパターン認識プログラムおよびその記録媒体
US20130246133A1 (en) * 2009-10-26 2013-09-19 Ron Dembo Systems and methods for incentives
US8700405B2 (en) * 2010-02-16 2014-04-15 Honeywell International Inc Audio system and method for coordinating tasks
US20120109649A1 (en) * 2010-11-01 2012-05-03 General Motors Llc Speech dialect classification for automatic speech recognition
KR102073102B1 (ko) * 2013-03-21 2020-02-04 삼성전자 주식회사 언어인식을 위한 언어모델 db, 언어인식장치와 언어인식방법, 및 언어인식시스템
US9466292B1 (en) * 2013-05-03 2016-10-11 Google Inc. Online incremental adaptation of deep neural networks using auxiliary Gaussian mixture models in speech recognition
CN104239456B (zh) * 2014-09-02 2019-05-03 百度在线网络技术(北京)有限公司 用户特征数据的提取方法和装置
US20160284349A1 (en) * 2015-03-26 2016-09-29 Binuraj Ravindran Method and system of environment sensitive automatic speech recognition
CN110890085B (zh) * 2018-09-10 2023-09-12 阿里巴巴集团控股有限公司 声音识别方法和系统
US11670292B2 (en) * 2019-03-29 2023-06-06 Sony Corporation Electronic device, method and computer program
CN114627863B (zh) * 2019-09-24 2024-03-22 腾讯科技(深圳)有限公司 一种基于人工智能的语音识别方法和装置

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4852173A (en) * 1987-10-29 1989-07-25 International Business Machines Corporation Design and construction of a binary-tree system for language modelling
US5349645A (en) * 1991-12-31 1994-09-20 Matsushita Electric Industrial Co., Ltd. Word hypothesizer for continuous speech decoding using stressed-vowel centered bidirectional tree searches
US5794197A (en) * 1994-01-21 1998-08-11 Micrsoft Corporation Senone tree representation and evaluation
US5680509A (en) * 1994-09-27 1997-10-21 International Business Machines Corporation Method and apparatus for estimating phone class probabilities a-posteriori using a decision tree
US5729656A (en) * 1994-11-30 1998-03-17 International Business Machines Corporation Reduction of search space in speech recognition using phone boundaries and phone ranking
US5715367A (en) * 1995-01-23 1998-02-03 Dragon Systems, Inc. Apparatuses and methods for developing and using models for speech recognition
US6058205A (en) * 1997-01-09 2000-05-02 International Business Machines Corporation System and method for partitioning the feature space of a classifier in a pattern classification system
US6167377A (en) * 1997-03-28 2000-12-26 Dragon Systems, Inc. Speech recognition language models
FI114247B (fi) * 1997-04-11 2004-09-15 Nokia Corp Menetelmä ja laite puheen tunnistamiseksi
US6151574A (en) * 1997-12-05 2000-11-21 Lucent Technologies Inc. Technique for adaptation of hidden markov models for speech recognition
US5953701A (en) * 1998-01-22 1999-09-14 International Business Machines Corporation Speech recognition models combining gender-dependent and gender-independent phone states and using phonetic-context-dependence
US6317712B1 (en) * 1998-02-03 2001-11-13 Texas Instruments Incorporated Method of phonetic modeling using acoustic decision tree
US6684185B1 (en) * 1998-09-04 2004-01-27 Matsushita Electric Industrial Co., Ltd. Small footprint language and vocabulary independent word recognizer using registration by word spelling
US6363342B2 (en) * 1998-12-18 2002-03-26 Matsushita Electric Industrial Co., Ltd. System for developing word-pronunciation pairs
US6594629B1 (en) * 1999-08-06 2003-07-15 International Business Machines Corporation Methods and apparatus for audio-visual speech detection and recognition
US6711541B1 (en) * 1999-09-07 2004-03-23 Matsushita Electric Industrial Co., Ltd. Technique for developing discriminative sound units for speech recognition and allophone modeling
US7035802B1 (en) * 2000-07-31 2006-04-25 Matsushita Electric Industrial Co., Ltd. Recognition system using lexical trees
ATE297588T1 (de) * 2000-11-14 2005-06-15 Ibm Anpassung des phonetischen kontextes zur verbesserung der spracherkennung
US7024359B2 (en) * 2001-01-31 2006-04-04 Qualcomm Incorporated Distributed voice recognition system using acoustic feature vector modification
JP4215418B2 (ja) * 2001-08-24 2009-01-28 インターナショナル・ビジネス・マシーンズ・コーポレーション 単語予測方法、音声認識方法、その方法を用いた音声認識装置及びプログラム
US20030097263A1 (en) * 2001-11-16 2003-05-22 Lee Hang Shun Decision tree based speech recognition
US7289958B2 (en) * 2003-10-07 2007-10-30 Texas Instruments Incorporated Automatic language independent triphone training using a phonetic table
US7467086B2 (en) * 2004-12-16 2008-12-16 Sony Corporation Methodology for generating enhanced demiphone acoustic models for speech recognition
US20060149544A1 (en) * 2005-01-05 2006-07-06 At&T Corp. Error prediction in spoken dialog systems
US20070129943A1 (en) * 2005-12-06 2007-06-07 Microsoft Corporation Speech recognition using adaptation and prior knowledge
US20070233481A1 (en) * 2006-04-03 2007-10-04 Texas Instruments Inc. System and method for developing high accuracy acoustic models based on an implicit phone-set determination-based state-tying technique
US7725316B2 (en) * 2006-07-05 2010-05-25 General Motors Llc Applying speech recognition adaptation in an automated speech recognition system of a telematics-equipped vehicle

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102820031B (zh) * 2012-08-06 2014-06-11 西北工业大学 一种利用切割—分层构筑法的语音识别方法
CN102820031A (zh) * 2012-08-06 2012-12-12 西北工业大学 一种利用切割—分层构筑法的语音识别方法
CN105070288B (zh) * 2015-07-02 2018-08-07 百度在线网络技术(北京)有限公司 车载语音指令识别方法和装置
CN105070288A (zh) * 2015-07-02 2015-11-18 百度在线网络技术(北京)有限公司 车载语音指令识别方法和装置
US10446150B2 (en) 2015-07-02 2019-10-15 Baidu Online Network Technology (Beijing) Co. Ltd. In-vehicle voice command recognition method and apparatus, and storage medium
WO2017000489A1 (zh) * 2015-07-02 2017-01-05 百度在线网络技术(北京)有限公司 车载语音指令识别方法、装置和存储介质
CN105185385A (zh) * 2015-08-11 2015-12-23 东莞市凡豆信息科技有限公司 基于性别预判与多频段参数映射的语音基音频率估计方法
CN106531155A (zh) * 2015-09-10 2017-03-22 三星电子株式会社 生成声学模型的设备和方法和用于语音识别的设备和方法
CN106531155B (zh) * 2015-09-10 2022-03-15 三星电子株式会社 生成声学模型的设备和方法和用于语音识别的设备和方法
CN108028051A (zh) * 2015-09-15 2018-05-11 雅马哈株式会社 评估装置和记录介质
CN106100846A (zh) * 2016-06-02 2016-11-09 百度在线网络技术(北京)有限公司 声纹注册、认证方法及装置
CN108364651A (zh) * 2017-01-26 2018-08-03 三星电子株式会社 语音识别方法和设备
CN108198552A (zh) * 2018-01-18 2018-06-22 深圳市大疆创新科技有限公司 一种语音控制方法及视频眼镜
CN108198552B (zh) * 2018-01-18 2021-02-02 深圳市大疆创新科技有限公司 一种语音控制方法及视频眼镜

Also Published As

Publication number Publication date
US20080077404A1 (en) 2008-03-27
JP2008076730A (ja) 2008-04-03
JP4427530B2 (ja) 2010-03-10

Similar Documents

Publication Publication Date Title
CN101149922A (zh) 语音识别装置和语音识别方法
US11664020B2 (en) Speech recognition method and apparatus
EP1576581B1 (en) Sensor based speech recognizer selection, adaptation and combination
US7689419B2 (en) Updating hidden conditional random field model parameters after processing individual training samples
US10147418B2 (en) System and method of automated evaluation of transcription quality
CN108538285B (zh) 一种基于多任务神经网络的多样例关键词检测方法
JP6831343B2 (ja) 学習装置、学習方法及び学習プログラム
US7565290B2 (en) Speech recognition method and apparatus
JP2010152081A (ja) 話者適応装置及びそのプログラム
CN100354929C (zh) 语音处理设备、语言处理方法
US11837236B2 (en) Speaker recognition based on signal segments weighted by quality
CN112885336A (zh) 语音识别系统的训练、识别方法、装置、电子设备
JP5180800B2 (ja) 統計的発音変異モデルを記憶する記録媒体、自動音声認識システム及びコンピュータプログラム
JP4796460B2 (ja) 音声認識装置及び音声認識プログラム
US7263486B1 (en) Active learning for spoken language understanding
JP4571922B2 (ja) 音響モデル作成装置、音響モデル作成方法、そのプログラムおよびその記録媒体
JP3920749B2 (ja) 音声認識用音響モデル作成方法、その装置、そのプログラムおよびその記録媒体、上記音響モデルを用いる音声認識装置
JP2938866B1 (ja) 統計的言語モデル生成装置及び音声認識装置
JP6158105B2 (ja) 言語モデル作成装置、音声認識装置、その方法及びプログラム
JP2019078857A (ja) 音響モデルの学習方法及びコンピュータプログラム
JP7279800B2 (ja) 学習装置、推定装置、それらの方法、およびプログラム
JP6274015B2 (ja) 音響モデル調整装置及びプログラム
Moradi et al. Spoken language identification using a genetic-based fusion approach to combine acoustic and universal phonetic results
JP7176629B2 (ja) 識別モデル学習装置、識別装置、識別モデル学習方法、識別方法、プログラム
JP2003263187A (ja) 言語モデル学習方法、その装置、そのプログラムおよびそのプログラムの記録媒体ならびに言語モデル学習を用いた音声認識方法、その装置、そのプログラムおよびそのプログラムの記録媒体

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C02 Deemed withdrawal of patent application after publication (patent law 2001)
WD01 Invention patent application deemed withdrawn after publication

Open date: 20080326