CN1454380A - 具有多个话音识别引擎的话音识别系统和方法 - Google Patents
具有多个话音识别引擎的话音识别系统和方法 Download PDFInfo
- Publication number
- CN1454380A CN1454380A CN01814592.2A CN01814592A CN1454380A CN 1454380 A CN1454380 A CN 1454380A CN 01814592 A CN01814592 A CN 01814592A CN 1454380 A CN1454380 A CN 1454380A
- Authority
- CN
- China
- Prior art keywords
- dtw
- speech
- engine
- speech recognition
- speaker
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 44
- 230000001419 dependent effect Effects 0.000 claims abstract description 24
- 238000005070 sampling Methods 0.000 claims description 16
- 239000000284 extract Substances 0.000 claims description 4
- 238000004422 calculation algorithm Methods 0.000 description 18
- 238000012549 training Methods 0.000 description 18
- 230000003044 adaptive effect Effects 0.000 description 16
- 238000001228 spectrum Methods 0.000 description 14
- 238000009415 formwork Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 11
- 230000011218 segmentation Effects 0.000 description 10
- 238000012795 verification Methods 0.000 description 9
- 230000008878 coupling Effects 0.000 description 8
- 238000010168 coupling process Methods 0.000 description 8
- 238000005859 coupling reaction Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 8
- 238000012545 processing Methods 0.000 description 7
- 238000012546 transfer Methods 0.000 description 6
- 241001014642 Rasta Species 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 5
- 230000002349 favourable effect Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000003860 storage Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 238000001914 filtration Methods 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 230000001149 cognitive effect Effects 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000011068 loading method Methods 0.000 description 2
- 238000002156 mixing Methods 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000013139 quantization Methods 0.000 description 2
- 230000008707 rearrangement Effects 0.000 description 2
- 230000002787 reinforcement Effects 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 240000004859 Gamochaeta purpurea Species 0.000 description 1
- 206010038743 Restlessness Diseases 0.000 description 1
- 206010039203 Road traffic accident Diseases 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000033228 biological regulation Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000009432 framing Methods 0.000 description 1
- 230000008676 import Effects 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 230000013011 mating Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000000527 sonication Methods 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000010183 spectrum analysis Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/32—Multiple recognisers used in sequence or in parallel; Score combination systems therefor, e.g. voting systems
Landscapes
- Engineering & Computer Science (AREA)
- Acoustics & Sound (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Telephonic Communication Services (AREA)
- Selective Calling Equipment (AREA)
- Machine Translation (AREA)
- Circuit For Audible Band Transducer (AREA)
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
Abstract
一种组合话音识别引擎并分析个体话音识别引擎所得结果之差别的方法和系统。组合说话者独立(SI)型隐型马尔可夫模型(HMM)引擎、说话者独立型动态时间偏差(DTW-SI)引擎和说话者依赖型动态时间偏差(DTW-SD)引擎。对这些引擎所得结果的组合和分析带来一种比仅用一个引擎所得结果时识别准确性高且拒收率低的系统。
Description
发明背景
1.发明领域
本发明一般涉及通信领域,尤其涉及一种新颖改进的话音识别系统和方法。
2.相关技术
话音识别(VR)是赋与设备识别用户或用户话音命令并且为人机接口提供方便的仿真智能的一种最重要技术。VR还是理解人类语言的关键技术。利用从语言声信号恢复语言消息的技术的系统称为话音识别器。这里所用术语“话音识别器”的含义一般为任何启用口语用户接口的装置。话音识别器通常包含声处理器、特征提取器和词译码器。声处理器提取达到输入原语言语音识别所需的信息承载特征或矢量序列。词译码器对特征或矢量序列进行译码,以得到与输入发音对应的所期望含义清楚的输出格式,诸如语言词汇序列。
声处理器相当于话音识别器的前端话音分析子系统。声处理器对输入话音信号作出响应,提供反映时变话音信号特征的适当表示。该处理器丢弃无关信息,诸如背景噪声、信道失真、说话者特征和谈吐方式。有效的声处理给话音识别器提供强化的声鉴别能力。结果,这时要分析的有用特征是短时间频谱包络。表征短时间频谱包络常用的两种频谱分析技术是线性预测编码(LPC)和基于滤波器组的频谱模拟。美国专利号5414796的专利和L.B.Rabiner与R.W.Schafer的著作中阐述了示范的LPC技术,前者的题目为“VARIABLE RATEVOCODER”,后者的标题为《话音信号数字处理》(396~453页,1978),前者转让给本发明受让人,两者均经参考充分编入本说明中。
由于为了安全,VR(还常称为语言识别)越来越重要。例如,VR可用于代替人工按压无线电话键盘按钮的工作。用户一面驾驶汽车一面始发电话呼叫时,此功能尤为重要。使用无VR的话机,则按压按钮进行拨号呼叫时,驾驶者必须从驾驶盘腾出一只手并查看话机键盘。这些动作增加车祸的可能性。启用话音的话机(即设计成话音识别的话机)会使驾驶者可在进行电话呼叫的同时,继续监视路面。免提汽车套件系统还会使驾驶者可在起始呼叫时两手撑握驾驶盘。
话音识别装置分为说话者依赖(SD)型装置和说话者独立(SI)型装置。前者较普通,训练成识别来自特定用户的命令。反之,后者能受理任何用户的话音命令。为了提高给定VR系统的性能,说话者依赖型和说话者独立型都需要训练,使系统配备有效参数。换句话说,系统在其能最佳作用前,需要学习。
说话者依赖型VR装置通常按两阶段工作:训练阶段和识别阶段。训练阶段中,VR系统提示用户说1次或2次(通常2次)系统词汇中的各词,以便系统能学习用户说这些特定词和短语的特征。免提汽车套件示范词汇可包含:键盘数字;关键词“呼叫”、“发送”、“拨号”、“取消”、“清除”、“增加”、“删去”、“历史”、“程序”、 “是”和“否”;常来往同事、朋友或家庭成员的预定电话号码的名字。一旦完成训练,用户就能通过说出训练的关键词在识别阶段始起呼叫,该阶段VR装置通过比较所说的发音与先前训练的发音(作为模板存储)进行最佳匹配,而加以识别。例如,名“约翰”是一个训练名,则用户通过说短语“呼叫约翰”发出呼叫。VR系统会识别“呼叫”和“约翰”这些词,并拨出用户已预先作为约翰的电话号码输入的号码。训练的系统和方法
说话者独立型VR装置也采用训练模板,其中包含预定规模的预先记录词汇库(例如某些控制词、0至9的号码、是和否)。必须使说话者说出词汇中的各词,并对大量说话者(例如100个)进行记录。说话者独立型VR的一个例子是动态时间偏差(DTW)引擎,代理人档案号PA000017的美国专利申请中阐述该引擎,该申请在2000年6月13日提出,题目为“METHOD AND APPARATUS FORCONSTRUCTING VOICE TEMPLATES FOR A SPEAKER-INDEPENDENT VOICERECOGNITION SYSTEM”,转让给本发明受让人,经参考充分编入本说明中。
不同的说话者独立型VR可给出不同的结果。例如,说话者独立(SI)型隐型马尔可夫模型(HMM)引擎可给出与说话者独立型动态时间偏差(DTW)引擎不同的结果。组合这两种引擎的结果能得到优于仅用一种引擎的结果的高识别准确性和低拒收率系统。
说话者依赖型VR和说话者独立型VR可给出不同的结果。说话者依赖型引擎用属于特定用户的模板进行识别。说话者独立型引擎用借助来自用户群体的范例产生的模板进行识别。由于说话者专用模板较接近给定用户说话风格,SD引擎提供比SI引擎高的准确性。然而,SI引擎具有使用系统前用户不必经历“训练过程”的优点。
期望一种组合不同类引擎的系统和方法。组合说话者依赖型VR与说话者独立型VR,会提供强化的准确性,并且利用输入话音信号中数量较多的信息。因此,希望一种分析来自说话者依赖型VR和说话者独立型VR的不同结果的系统和方法。
发明概述
所述实施例针对一种利用组合话音识别引擎的话音识别系统和方法。其一个方面中,将声处理器配置成从发音的数字化话音取样提取话音参数;使多个话音识别引擎连接声处理器,每一话音识别引擎产生一假设;判决逻辑将这些话音识别引擎产生一假设;判决逻辑将这些话音识别引擎的假设作为输入,并且选择一种假设。
另一方面中,提供一种组合多个话音识别引擎来改善话音识别的方法。该方法有利的是包含:由声处理器从发音的数字化话音取样提取话音参数;使多个话音识别引擎连接该声处理器;从各话音识别引擎产生假设;从由多个话音识别引擎产生的假设中选择一个假设。
一实施例中,组合一些说话者独立型话音识别引擎。另一实施形态中,组合一些说话者依赖型话音识别引擎。又一实施例中,将说话者依赖型话音识别引擎与说话者独立型话音识别引擎组合。
一实施例中,说话者独立型话音识别引擎是动态时间偏差话音识别引擎。一实施例中说话者独立型话音识别引擎是隐藏马尔可夫模型。一实施例中,说话者依赖型话音识别引擎是动态时间偏差话音识别引擎。一实施例中,说话者依赖型话音识别引擎是隐藏马尔可夫模型。
附图说明
从以下结合附图的详细说明会进一步明白本发明的特征、目的和优点。各附图的相同的参考字符均作相同标识,其中:
图1示出一种话音识别系统;
图2示出声处理器的组成单元;
图3示出DTW-SD特征提取器、DTW-SD匹配模块和DTW-SD模板模块;
图4示出DTW-SI特征提取器、DTW-SI匹配模块和DTW-SI模板模块;
图5示出HMM特征提取器、HMM-SI匹配模块和HMM-SI模板模块;
图6示出一实施例中判决逻辑模块的组件;
图7示出一实施例中无说话者适配的命令词组合引擎逻辑的流程图;
图8示出有说话者适配的命令词组合引擎逻辑的流程图;
图9示出有说话者适配的命令词和名标的组合引擎逻辑的流程图。
详细说明
一实施例中,话音识别系统100具有3种能完成弧立词识别任务的话音识别引擎:动态时间偏差说话者独立(DTW-SI)型引擎、动态时间偏差说话者依赖(DTW-SD)型引擎和隐型马尔可夫模型(HMM)引擎。这些引擎用于识别命令词和数字,为诸如移动电话等手持装置完成的常见任务提供丰富的口语用户接口。另一实施例中,话音识别系统100包含DTW-SI引擎和DTW-SD引擎。又一实施例中,话音识别系统100包含DTW-SI引擎和HMM引擎。一实施例中,HMM引擎是说话者独立型的。另一实施例中,HMM引擎是说话者依赖型的。
根据一实施例,如图1所示,话音识别系统100包含模/数变换器(A/D)102、前端声处理器104、特征提取器106、108和110、话音模板数据库112、114和116、匹配逻辑118、120和122以及判决逻辑124。一具体实施例中,将声处理器104以及特征提取器106、108和110做成一个装置,例如参数提取器。
A/D 102连接声处理器104。声处理器104连接特征提取器106、108和110。DTW-SD特征提取器106连接DTW-SD匹配逻辑118。DTW-SI特征提取器108连接DTW-SI匹配逻辑120。HMM特征提取器110连接HMM匹配逻辑122。DTW-SD话音模板数据库112连接DTW-SD匹配逻辑118。DTW-SI话音模板数据库114连接DTW-SI匹配逻辑120。HMM话音模板数据库116连接HMM匹配逻辑122。DTW-SD匹配逻辑118、DTW-SI匹配逻辑120和HMM匹配逻辑122都连接判决逻辑124。
另一实施例中,话音识别系统100包含DTW-SD特征提取器106和DTW-SI特征提取器,但不包含HMM-SI特征提取器110。又一实施例中,该系统100包含DTW-SI特征提取器108和HMM-SI特征提取器110,但不包含DTW-SD特征提取器106。再一实施例中,该系统100包含DTW-SD特征提取器106和HMM-SI特征提取器110,但不包含DTW-SI特征提取器108。
话音识别子系统100可驻留于无线电话或免提汽车套件。用户(未示出)说一词或一个短语,以产生话音信号,该话音信号用常规换能器(未示出)变换成电话音信号S(t),供给A/D 102,它根据诸如A律或μ律脉冲码编调制(PCM)等公知取样方法将该话音信号变换成数字话音取样S[n]。一实施例中,通常每一秒有N个16位话音取样。因此,对8000Hz和16000Hz的取样频率,N分别等于8000和16000。
话音取样S[n]供给声处理器104,以判定参数。声处理器104产生模拟输入话音信号S(t)的一组参数。可按照多种公知话音参数判定技术中的任一种判定这些参数,该方法包含例如上述美国专利号5414796和Lawrence Rabiner与Biing-Hwang Juang著《话音识别基础》(1993)所说明的话音编码器编码、基于离散傅里叶变换(DFT)的对数倒谱系数(例如基于快速傅里叶变换(FFT)的倒谱系数)、线性预测系数(LPC)或巴克标度分析。该组参数有利地是基于帧(分段成周期性的帧)的。声处理器104可实现成数字信号处理器(DSP)。该DSP可包含话音编码器。或者,声处理器104可实现成话音编码器。
图2示出本发明一实施例的声处理器104中各组成单元。声处理器104包含成帧模块130、预加重模块132、开窗模块134、快速傅里叶变换(FFT)模块136、幅度频谱模块138和巴克标度模块140。一实施例中,成帧模块130对来自A/D变换器的话音取样编帧。该模块130将话音取样编成每10毫秒一个的重叠分组,每分组具有128至256个PCM取样。
预加重模块132是处理来自成帧模块130的帧的滤波器。一实施例中,通过诸如y(n)=x(n)-ax(n-1)的预加重滤波器处理这些帧。一实施例中,“a”的值等于0.95至0.99。
预加重后的信号通过开窗模块134。该模块134是提供滤波所得帧的窗取样的开窗功能件。一实施例中,该开窗功能建立汉明窗。另一实施例中,该开窗功能建立梯形窗。本领域的技术人员会理解,可用本领域公知的任何开窗功能。例如,可用L.B.Rabiner与L.Y.Juang著《话音识别基础》(1993)所述的汉明窗,该著作经参考充分编入本说明中。开窗功能防止成帧所造成附加寄生频率分量的负面影响。
FFT模块136将来自开窗模块134的各窗取样分组变换到频域。FFT模块136进行快速傅里叶变换。一实施例中,按照A=SQRT(X*2+Y*2)计算各分组的幅度频谱,其中A是幅度频谱,X和Y分别是FFT的实数部分和虚数部分。
幅度频谱模块138按线性频率标度产生信号的频谱特性。巴克标度模块140将线性频率标度变换成称为巴克标度的近似对数频率标度。128取样分组有64个频箱,从而256取样分组有128个频箱。幅度频谱模块138在与各幅度频谱对应的16个巴克标度箱中产生结果。即,幅度频谱模块138产生话音信号的16个巴克幅度,每10毫秒一个。
一实施例中,DTW-SI特征取样器和DTW-SD特征提取器相同。图3根据一实施例示出DTW-SD特征提取器106、DTW-SD匹配模块156和DTW-SD模板模块158。图4示出DTW-SI特征提取器108、DTW-SI匹配模块166和DTW-SI模板模块168。
DTW-SD和DTW-SI的特征提取器分别包含终点检测器150和160、时间群集话音分段模块152和162以及幅度量化器154和164。另一实施例中,DTW-SD特征提取器106还包含DTW-SD匹配模块156和DTW-SD模板158。另一实施例中,DTW-SI特征提取器108还包含DTW-SI匹配模块166和DTW-SI模板168。
一实施例中,在DTW-SD特征提取器106内,终点检测器150连接时间群集话音分段模块152,而该模块152连接幅度量化器154。该量化模块154连接DTW-SD匹配模块156,而该模块156连接DTW-SD模板模块158。另一实施例中,幅度量化器154连接DTW-SD模板模块158。该模块158包含DTW-SD模板。另一实施例中,在训练阶段建立DTW-SD模板,在该阶段对输入话音信号训练DTW-SD部分,并提供DTW-SD模板。另一实施例中,在系统典型使用期间,用DTW-SI引擎(即DTW-SI特征提取器108)“隐含”地产生DTW-SD模板。这些实施例中,只要适当组合来自DTW-SI引擎和DTW-SD引擎的结果,系统就具有DTW-SD引擎和DTW-SI引擎两者的优点。美国专利申请09/248513、09/255891和QCPA000017中说明示范的训练系统和方法,这些申请分别在1999年2月8日、1999年1月4日和2000年7月13日提出,题目分别为“VOICE RECOGNITIONREJECTION SCHEME”、“SYSTEM AND METHOD FOR SEGMENTATION AND RECOGNITIONOF SPEECH SIGNALS”和“METHOD AND APPARATUS FOR CONSTRUCTING VOICETEMPLATES FOR A SPEAKER-INDEPENDENT VOICE RECOGNITION SYSTEM”,均转让给本发明受让人,经参考均充分编入本说明中。
一实施例中,在DTW-SI特征提取器108内,终点检测器160连接时间群集话音分段模块162,而该模块162连接幅度量化器164。该量化模块164连接DTW-SI匹配模块166,而该模块166连接DTW-SI模板模块168。DTW-SI模板模块158包含在训练阶段建立的DTW-SI模板,该阶段对输入话音信号训练系统的DTW-SI部分。
图5中示出另一实施例,其中示出HMM特征提取器110、HMM-SI匹配模块176和HMM-SI模板模块178。HMM特征提取器110包含对数模块170、RASTA处理模块172和倒谱变换模块174。对数模块170连接RASTA处理模块172,而该模块172连接倒谱变换模块174。SI隐型马尔可夫模型(HMM)引擎。该SI-HMM引擎工作在倒谱域。对数模块170将马克幅度变换成对数标度。用RASTA处理模块172内的带通滤波器对巴克对数信号进行滤波。本领域的技术人员会理解,可用本领域公知的任何RASTA处理。美国专利号5450522的专利中阐述示范的RASTA处理,该专利题目为“AUDITORY MODEL FOR PARAMETRIZATION OF SPEECH”,授予Hermansky等人。
一旦将巴克算法加以滤波,就在倒谱变换模块174内进行余弦变换。一实施例中,用维特比译码器将得到的特征矢量与目标词的HMM模型(即HMM-SI模板)对比,求最佳匹配。在训练处理期间产生目标词的HMM模型,该期间还产生男女说话者独立的模型。
参数的各帧供给特征提取器106和108,其中终点检测器150和160用提取的参数检测发音(即词)的终点。一实施例中,有利地按照美国专利申请号09/246414的申请中所述的方法进行终点检测,该申请在1999年2月8日提出,题目为“METHOD AND APPARATUS FOR ACCURATE ENDPOINTING OF SPEECH IN THEPRESENCE OF NOISE”,转让给本发明受让人,经参考充分编入本说明中。根据此方法,将发音与诸如信噪比(SNR)门限值之类的第1门限值比较,以判定该发音的第1起点和第1终点。第1起点前面的发音部分则与第2 SNR门限值比较,以判定该发音的第2起点。然后,第1终点后面的发音部分与第2 SNR门限值比较,以判定该发音的第2终点。周期性重复计算第1和第2 SNR门限值有利,并且第1 SNR门限值有利地应大于第2 SNR门限值。
将检测发音用的频域参数帧供给时间群集话音分段模块152、162。根据一实施例,该模块实现美国申请序列号09/255891的专利申请中说明的压缩方法,该申请在1999年1月4日提出,题目为“SYSTEM AND METHOD FOR SEGMENTATIONAND RECOGNITION OF SPEECH SIGNALS”,转让给本发明受让人,经参考充分编入本说明中。根据该方法,用话音帧关联的至少一个频谱值表示频域参数中的各话音帧。然后,对每对相邻帧判定频谱差值。该差值代表2个成对帧所关联频谱值之间的差。在每对相邻帧之间建立初始群集边界,形成参数群集,并且给各群集分配方差值。该方差值有利地等于所定频谱差值中的一个。然后,计算多个群集归并参数,各群集归并参数与一对相邻群集关联。从多个群集归并参数选择一个最小群集归并参数。然后,通过取消该最小群集归并参数所关联群集之间的群集边界并且给归并群集分配归并方差值,而形成归并群集。该归并方差值代表与最小群集归并参数关联的群集分配到的方差值。重复此处理过程有利,以便形成多个归并群集。根据该多个归并群集形成分段话音信号有利。
本领域的技术人员会理解。可用诸如时间归一化模块的其他装置代替时间群集话音分段模块152、162。然而,熟练技术人员也会理解,由于时间群集话音分段模块152、162将与前帧相比差值最小的帧归并成群集,并且采用均值而不是个体帧,所以时间群集话音分段模块118利用了所处理发音中较多的信息。还会理解,结构判决逻辑124中的模式比较逻辑最好和时间群集话音分段模块152、162一起使用。
本发明一实施例中,判决逻辑模块124利用本领域公知的动态时间偏差(DTW)模型。本发明另一实施例中,该模块124利用HMM模型。再一实施例中,该模块124利用DTW模型和HMM模型。
将群集均值供给话音电平归一化器,即幅度量化器154、164。一实施例中,幅度量化器154、164通过给各群集均值分配每信道2位(即每频率2位),对话音幅度进行量化。在提取倒谱系数的另一实施例中,技术人员会理解,不用幅度量化器154、164量化群集均值。特征提取器106、108将幅度量化器154、164产生的输出供给判决逻辑124。
在模板数据库158、168、178中存储语音识别子系统100中全部词汇内的词的模板集。一实施例中,借助说话者独立型模板建立子系统构建该模板集。模板数据库158、168、178有利地实现成常规形式的非易失性存储媒体(诸如闪存),这样使模板可在话音识别子系统100断电时保留在模板数据库158、168、178中。
一实施例中,判决逻辑124包含DTW-SD判决逻辑188、DTW-SI判决逻辑190和HMM判决逻辑192,其中DTW-SD判决逻辑188连接DTW-SD匹配模块118,DTW-SI判决逻辑190和HMM判决逻辑192分别连接DTW-SI匹配模块120和HMM匹配模块122,如图6所示。另一实施例中,使DTW-SD判决逻辑188、DTW-SI判决逻辑和HMM-SI判决逻辑统一。本领域的技术人员会理解,能按任何组合配置判决逻辑188、190、192。
各引擎的匹配模块118、120、122将来自其特征提取器106、108、110的矢量与各模板数据库112、114、116存储的全部模板分别比较。将矢量与模板数据库112、114、116所存储全部模板之间的比较结果或距离分别供给各自的判决逻辑188、190、192。该判决逻辑188、190、192从各自的模板数据库112、114、116选择与矢量最接近匹配的模板。或者,判决逻辑188、190、192可用常规“N个最佳”选择算法,在预定匹配门限内选择N个最接近的匹配。然后,寻问用户想要哪个选择。判决逻辑188、190、192的输出是关于说出的是词汇中哪个词的判决。
一实施例中,DTW匹配模块118、120和判决逻辑188、190用DTW法进行收敛测试。DTW法在本领域已公知,Lawrence Rabiner与Biing-Hwang Huang的著作中也阐述,该著作名为《话音识别基础》(200~238页,1993),经参考充分编入本说明中。根据DTW法,通过标画测试的发音时间序列与模板数据库108所存储各发音的时间序列,形成格网。然后,每次一个发音,逐点(例如每10ms)比较受测试的发音与模板数据库108中的每一发音。对模板数据库108中的每一发音,及时调整受测试的发音,或使其产生“偏差”,在特定点进行压缩或扩展,直到取得与模板数据库108中的发音最接近的匹配。在每一时间点比较2个发音,并且在该点申明匹配(零代价),或者申明失配。如果在某一点失配,对受测试的发音进行压缩、扩展,或需要时使其失配。继续此处理过程,直到两种发音相互比较完。可能有大量不同调整的发音(通常有成千上万种)。选择最低代价功能(即要求数量最少的压缩和/或扩展和/或失配)的调整发音。在类似于维持比译码算法的方式中,通过从模板数据库108中,发音的各点后向查看,以判定最低总代价通路,进行选择有利。这使得可判定最低代价(即接近匹配)的调整发音,不必采取产生每一不同调整发音的“强力”方法。然后,比较模板数据库108中全部发音的最低代价调整发音,并选择一个最低代价的发音,作为最接近地匹配所测试发音的存储发音。
尽管HMM系统中DTW匹配方案118、120和维特比译码等效,DTW引擎和HMM引擎利用不同的前端方案(即特征提取器)给匹配级提供特征矢量。因此,DTW引擎和HMM引擎的错误模式很不同。具有组合引擎的话音识别系统100利用误差模式中的差别。通过适当组合来自两种引擎的结果,可达到较高的总识别准确性。更重要的是,可达到所期望识别准确性的较低拒收率。
在独立的话音识别系统中,可将发音与目标词匹配的概率写为:
P(Wi,X)=max(∏exp((ij-xj)/σj)2)
Wi是用一组平均矢量Λi和方差σj模拟的目标词i。除Wi外,还有无用单元模型Wg。如果发音X不对应于词汇中的任何词Wi,预计Wg给出很低的代价,这意味着发音X是无用单元,不是词汇中的任何词。在训练处理期间建立Wg。本领域的技术人员会理解。可用本领域公知的任何无用单元建模方案。
发音X是特征矢量Xj的系列。一实施例中,DTW方案内,方差σj为1,最小化常在20帧上进行(即j=1…20)。最小化是选择具有最小代价的词假设的处理过程。一个假设是一个词、标记或者词串或标记串。标记是与短语、词或子词对应的话音段。
一实施例的HMM方案中,j=1…N,其中N为发音长度。此外,建模中不是采用单位矢量,而是采用对角协方差矢量。
DTW与HMM之间除上述两点不同外,DTW引擎和HMM引擎都产生各目标词的概率度量。这意味着DTW概率(PDTW(Wi、X))与HMM概率(PHMM(Wi、X)相乘的容量使两种引擎上的概率最大。实际上,不是使该概率最大,而是对计算效率使发音X与词Wi匹配的代价最小。该代价定义为:
C(Wl,X)=-Log(P(Wi,X))=min(∑((ij-xj)/σj)2)
因此,发音X与词Wi匹配的组合代价为:
C(Wl,X)=CDTW(Wi,X)+γ*CHMM(Wi,X)
其中γ是变换因数。这类似于大型词汇口授系统中用的语言建模代价,该系统用适当的变换因数组合声模代价和语言模型代价。
一实施例中,组合操作相同词汇集的说话者独立型话音识别引擎。另一实施例中,组合一些说话者依赖型话音识别引擎。又一实施例中,将说话者独立型话音识别引擎与说话者依赖型话音识别引擎组合,这两种引擎都用相同的词汇集工作。再一实施例中,说话者独立型话音识别引擎与说话者依赖型话音识别引擎组合,这两种引擎用不同的词汇集工作。
图7示出一实施例中无说话者适配的引擎逻辑组合流程图。说话者适配是模板的显性或隐性训练。
γ=20/N,N为帧中发音持续时间。
D(i)=DTW假设i的代价
H(i)=HMM假设i的代价
C(i)=组合假设i的代价
Δ(D)=DTW增量代价=D(2)-D(1)
Δ(H)=HMM增量代价=H(2)-H(1)
Δ(C)=组合增量代价=C(无用单元)-C(1)
计算Δ(C)时采用无用单元代价。
第1级200中,算法进行校验,查看DTW和HMM是否首位候选相同。对门限T1的总增量代价用作边界校验202。如果DTW首位候选与HMM首位候选一致,DTW假设和HMM假设都得到受理。不一致,则控制流程至第2级204。
第2级204中,算法恢复DTW正确且HMM为第2佳的发音。第2级204中,进行校验,查看DTW首位候选是否与第2HMM候选一致。如果一致,受理DTW假设。不一致,则控制流程进至第3级208。用DTW增量代价门限T2作为边界校验206。
第3级208中,算法恢复HMM正确且DTW为第2最佳的发音。第3级208中,算法进行校验,查看HMM候选是否与第2DTW候选一致。如果一致,受理HMM假设。不一致,则控制流程进至第4级212。用HMM增量代价门限T3作为边界校验210。
第4级212中,按适当地比例变换组合DTW和HMM的评分。第4级212中,进行校验,查看Δ(C)是否大于门限T4以及首位组合假设是否与DTW首位假设或HMM首位假设相同。如果相同,受理组合假设。不同,则进至第5级216。为了计算组合增量代价,由于两种引擎建议的词不必相同,算法采用无用单元代价。作为边界校验,算法证实首位候选与DTW或HMM的首位候选匹配。
第5级216中,算法校验仅基于DTW的拒收,该拒收基于DTW代价、增量代价和无用单元代价。平台中仅加载DTW模板时,此级还按照单拒收方案进行工作。如果DTW拒收方案的条件成立,受理首位DTW假设。该条件不成立,则控制流程进至第6级220。首位候选的代价小于门限T5且增量DTW代价Δ(C)大于门限T6时,DTW拒收方案的条件成立。
第6级220中,算法校验仅基于HMM的拒收,该拒收基于HMM代价、增量代价和无用单元代价。平台中仅加载HMM模板时,此级还按照单拒收方案进行工作。如果HMM拒收方案的条件成立,受理首位HMM假设。该条件不成立,则控制流程进至第7级226。首位候选的代价小于门限T7且增量HMM代价Δ(H)大于门限T8时,HMM拒收方案的条件成立。
美国专利申请09/248513中说明示范的拒收方案,该申请在1999年2月8日提出,题目为“VOICE RECOGNITION REJECTION SCHEME”,转让给本发明受让人,经参考充分编入本说明中。
一实施例中,组合引擎逻辑用于命令词,并且具有说话者适配。图8根据一实施例示出具有说话者适配的命令词组引擎组合逻辑的流程图。S(.)相当于来自说话者依赖型引擎的说话者适配结果。C(.)相当于来自无适配组合引擎的说话者独立型结果。A(.)相当于归并SI和SA的结果以及重新排序假设。
第1级230中,算法进行校验,查看C(1)和S(1)是否首位候选相同。对门限T9的总增量代价用作边界校验。如果C(1)首位候选与S(1)首位候选一致,C(1)假设和S(1)假设都得到受理232。不一致,则控制流程至第2级234。
第2级234中,算法校验是否说话者适配模板少于2个。如果该模板少于2个,控制流程受理说话者独立型假设236。否则,控制流程进至第3级238。
第3级238中,应用DTW拒收方案。如果DTW拒收方案的条件成立,算法受理说话者适配假设240。该条件不成立,则控制流程进至第4级242。
第4级242中,将Δ(A)与门限T10比较。如果Δ(A)大于门限T10且A(1)=D(1)、H(1)或S(1),受理组合假设244。否则,拒收组合假设246。
说话者适配模板少于2个时,对组合SI引擎提供较大的加重。该模板多于2个时,对SD引擎提供较大的加重。
另一实施例中,组合引擎逻辑用于命令词和名标,并且具有说话者适配。名标是用户收录的词汇词。图9根据一实施例示出具有说话者适配的命令词和名标的组合引擎逻辑流程图。
SD(.)相当于说话者依赖型引擎。C(.)相当于来自无适配组合引擎的说话者独立型结果。T(.)相当于归并SI和SD的结果以及重新排序假设。
第1级250中,算法进行校验,查看C(1)和SD(1)是否首位候选相同。对门限T11的总增量代价用作边界校验。如果C(1)与SD(1)一致,受理命令252。不一致,则控制流程进至第2级254。
第2级254中,将Δ(C)与门限T12比较。如果Δ(C)小于门限T12,受理名标256。否则,控制流程进至第3级258。
第3级258中,应用DTW拒收方案。如果DTW拒收方案的条件成立,算法受理说话者独立型命令260。该条件不成立,则控制流程进至第4级262。
第4级262中,将Δ(T)与门限T13比较。如果Δ(T)大于门限T13且T1等于D(1)、H(1)或SD(1),受理组合假设264。否则,拒收组合假设266。
混合方案中,说话者依赖型引擎产生名标假设。说话者独立型引擎产生命令词假设。此外,如果存在说话者适配模板,说话者依赖型引擎还产生命令词假设。
通常存在几十个名称和几个命令词(诸如电话薄、重拨、话音存储和电子邮件)。
用户可以第1级说出名称或命令词。
无混合引擎时,用户要说出“命令”并后续任务(例如呼叫—约翰·琼斯,命令—电话薄)。有混合引擎,则用户可说“约翰·琼斯”或“电话薄”。这导致形成用户接口。
用从说话者群体开发的发音组优化组合SI逻辑、组合SA逻辑和组合混合逻辑用的门限Ti。一实施例中,人工完成该优化。
另一实施例中,用诸如最小二乘极小化(LMS)处理之类的自动过程优化门限Ti。一实施例中,自动过程把来自各引擎的头N个假设都作为正确应答,并构建各假设的参数矢量。一实施例中,该矢量的例子是[Δ(D)Δ(Dg)Δ(H)Δ(Hg)],其中Δ(?)是所考虑假设和该引擎下一最佳假设之间的代价差。Δ(Dg)Δ(Hg)分别相当于所考虑假设与DTW引擎和HMM引擎的无用单元代价之间的代价差。
作为一个例子,考虑来自各引擎的头2个假设。应答的候选最多有4个,其中仅一个是正确应答。训练处理过程产生一组4个的加权a、b、c和d,这些加权使正确假设的加权和(a*Δ(D)+b*Δ(Dg)+C*Δ(H)+d*Δ(Hg))最大,使不正确假设的该加权和最小。
这样,说明了一种组合话音识别引擎的新颖改进方法和设备。本领域的技术人员会理解,结合所揭示实施例阐述的各说明性逻辑块、模块和算法步骤可实现成电子硬件、计算机软件或两者的组合。根据各自的功能总地说明了各说明性部件、块、模块、电路和步骤。该功能实现成硬件还是软件,取决于具体应用和对整个系统的设计约束条件。熟练技术人员懂得这些环境下软硬件的互换性以及为各具体应用实现所述功能的最佳方法。作为例子,结合这里所揭示实施例阐述的各说明性逻辑块、模块和算法步骤可以用执行固件指令集的处理器、专用集成电路(ASIC)、现场可编程门阵(FPGA)或其它可编程逻辑器件、分立门或晶体管逻辑、分立硬部件(诸如寄存器)、任何常规可编程软件模块和处理器,或者设计成完成这里所述功能的以上各项的组合来实现或完成。在微处理器中执行特征提取器106、108和1110、匹配模块118、120和122以及判决逻辑124有利,但替换方案中,可在任何常规处理器、控制器、微控制器或状态机中执行特征提取器106、108和110,匹配模块118、120和122以及判决逻辑124模板可驻留于RAM存储器、闪存、ROM存储器、EPROM存储器、EEPROM存储器、寄存器、硬盘、可拆卸盘片、CD-ROM或者本领域公知的任何其他形式的存储媒体。如图1所示,匹配模块118、120、122有利地分别连接模板模块112、114、116,以便分别从模板模块112、114、116读取信息。存储器(未示出)可集成到任何上述处理器中。处理器和存储器(未示出)可驻留于一ASIC(未示出)。该ASIC可驻留于电话。
提供以上本发明实施例的说明,使本领域的任何技术人员能制作或使用本发明。本领域的技术人员不难明白这些实施例的各种修改,并且这里规定的一般原理可用于其他实施例,而不需利用创造才干。因此,本发明不要受这里所示实施例的限制,但要符合与这里所揭示的原理和新颖特征一致的最大范围。
Claims (12)
1.一种话音识别系统,其特征在于包含
配置成从发音的数字化话音取样提取话音参数的声处理器;
连接该声处理器的多个话音识别引擎,各话音识别引擎配置成产生一个假设;以及
配置成将来自该话音识别引擎的假设作为输入并且选择一个假设的判决逻辑。
2.如权利要求1所述的话音识别系统,其特征在于,多个话音识别引擎包含说话者独立型话音识别引擎。
3.如权利要求1所述的话音识别系统,其特征在于,多个话音识别引擎包含说话者依赖型话音识别引擎。
4.如权利要求2所述的话音识别系统,其特征在于,多个话音识别引擎包含说话者依赖型话音识别引擎。
5.如权利要求4所述的话音识别系统,其特征在于,多个话音识别引擎包含说话者独立型动态时间偏差话音识别引擎。
6.如权利要求4所述的话音识别系统,其特征在于,多个话音识别引擎包含说话者独立型隐型马尔可夫模型话音识别引擎。
7.如权利要求4所述的话音识别系统,其特征在于,多个话音识别引擎包含说话者依赖型动态时间偏差话音识别引擎。
8.如权利要求4所述的话音识别系统,其特征在于,多个话音识别引擎包含说话者依赖型隐型马尔可夫模型话音识别引擎。
9.如权利要求4所述的话音识别系统,其特征在于,多个话音识别引擎包含说话者依赖型动态时间偏差话音识别引擎和说话者独立型动态时间偏差引擎。
10.一种话音识别方法,其特征在于包含:
用声处理器从发音的数字化话音取样提取话音参数;
使多个话音识别引擎连接该声处理器;
从每一话音识别引擎产生一假设;
从多个话音识别引擎产生的假设选择一个假设。
11.如权利要求10所述的方法,其特征在于,还包含:从多个话音识别引擎产生的假设选择一个假设。
12.如权利要求10所述的方法,其特征在于,还包含:从多个话音识别引擎产生的假设拒收一个假设。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US09/618,177 US6671669B1 (en) | 2000-07-18 | 2000-07-18 | combined engine system and method for voice recognition |
US09/618,177 | 2000-07-18 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN1454380A true CN1454380A (zh) | 2003-11-05 |
CN1188831C CN1188831C (zh) | 2005-02-09 |
Family
ID=24476623
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CNB018145922A Expired - Fee Related CN1188831C (zh) | 2000-07-18 | 2001-07-17 | 具有多个话音识别引擎的话音识别系统和方法 |
Country Status (10)
Country | Link |
---|---|
US (1) | US6671669B1 (zh) |
EP (1) | EP1301922B1 (zh) |
CN (1) | CN1188831C (zh) |
AT (1) | ATE349751T1 (zh) |
AU (1) | AU2001275991A1 (zh) |
DE (1) | DE60125542T2 (zh) |
ES (1) | ES2278763T3 (zh) |
HK (1) | HK1057816A1 (zh) |
TW (1) | TWI253056B (zh) |
WO (1) | WO2002007148A1 (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104143330A (zh) * | 2013-05-07 | 2014-11-12 | 佳能株式会社 | 语音识别方法和语音识别系统 |
CN104616653A (zh) * | 2015-01-23 | 2015-05-13 | 北京云知声信息技术有限公司 | 唤醒词匹配方法、装置以及语音唤醒方法、装置 |
Families Citing this family (55)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7003463B1 (en) | 1998-10-02 | 2006-02-21 | International Business Machines Corporation | System and method for providing network coordinated conversational services |
US6754629B1 (en) * | 2000-09-08 | 2004-06-22 | Qualcomm Incorporated | System and method for automatic voice recognition using mapping |
US20030004720A1 (en) * | 2001-01-30 | 2003-01-02 | Harinath Garudadri | System and method for computing and transmitting parameters in a distributed voice recognition system |
US20020143540A1 (en) * | 2001-03-28 | 2002-10-03 | Narendranath Malayath | Voice recognition system using implicit speaker adaptation |
US7941313B2 (en) | 2001-05-17 | 2011-05-10 | Qualcomm Incorporated | System and method for transmitting speech activity information ahead of speech features in a distributed voice recognition system |
US7203643B2 (en) * | 2001-06-14 | 2007-04-10 | Qualcomm Incorporated | Method and apparatus for transmitting speech activity in distributed voice recognition systems |
US7366673B2 (en) * | 2001-06-15 | 2008-04-29 | International Business Machines Corporation | Selective enablement of speech recognition grammars |
TW541517B (en) * | 2001-12-25 | 2003-07-11 | Univ Nat Cheng Kung | Speech recognition system |
US6996526B2 (en) * | 2002-01-02 | 2006-02-07 | International Business Machines Corporation | Method and apparatus for transcribing speech when a plurality of speakers are participating |
US7203652B1 (en) * | 2002-02-21 | 2007-04-10 | Nuance Communications | Method and system for improving robustness in a speech system |
JP4304952B2 (ja) * | 2002-10-07 | 2009-07-29 | 三菱電機株式会社 | 車載制御装置、並びにその操作説明方法をコンピュータに実行させるプログラム |
US20040138885A1 (en) * | 2003-01-09 | 2004-07-15 | Xiaofan Lin | Commercial automatic speech recognition engine combinations |
WO2004075168A1 (ja) * | 2003-02-19 | 2004-09-02 | Matsushita Electric Industrial Co., Ltd. | 音声認識装置及び音声認識方法 |
US7523097B1 (en) | 2004-01-13 | 2009-04-21 | Juniper Networks, Inc. | Restoration of archived configurations for a network device |
KR100693284B1 (ko) * | 2005-04-14 | 2007-03-13 | 학교법인 포항공과대학교 | 음성 인식 장치 |
CN1963918A (zh) * | 2005-11-11 | 2007-05-16 | 株式会社东芝 | 说话人模板的压缩、合并装置和方法,以及说话人认证 |
US7970613B2 (en) | 2005-11-12 | 2011-06-28 | Sony Computer Entertainment Inc. | Method and system for Gaussian probability data bit reduction and computation |
US8010358B2 (en) | 2006-02-21 | 2011-08-30 | Sony Computer Entertainment Inc. | Voice recognition with parallel gender and age normalization |
US7778831B2 (en) | 2006-02-21 | 2010-08-17 | Sony Computer Entertainment Inc. | Voice recognition with dynamic filter bank adjustment based on speaker categorization determined from runtime pitch |
US8532984B2 (en) | 2006-07-31 | 2013-09-10 | Qualcomm Incorporated | Systems, methods, and apparatus for wideband encoding and decoding of active frames |
GB0616070D0 (en) * | 2006-08-12 | 2006-09-20 | Ibm | Speech Recognition Feedback |
US8239190B2 (en) | 2006-08-22 | 2012-08-07 | Qualcomm Incorporated | Time-warping frames of wideband vocoder |
US7813922B2 (en) * | 2007-01-30 | 2010-10-12 | Nokia Corporation | Audio quantization |
JP5294086B2 (ja) * | 2007-02-28 | 2013-09-18 | 日本電気株式会社 | 重み係数学習システム及び音声認識システム |
US7904410B1 (en) * | 2007-04-18 | 2011-03-08 | The Mathworks, Inc. | Constrained dynamic time warping |
US8352265B1 (en) | 2007-12-24 | 2013-01-08 | Edward Lin | Hardware implemented backend search engine for a high-rate speech recognition system |
US8639510B1 (en) | 2007-12-24 | 2014-01-28 | Kai Yu | Acoustic scoring unit implemented on a single FPGA or ASIC |
US8463610B1 (en) | 2008-01-18 | 2013-06-11 | Patrick J. Bourke | Hardware-implemented scalable modular engine for low-power speech recognition |
US9020816B2 (en) * | 2008-08-14 | 2015-04-28 | 21Ct, Inc. | Hidden markov model for speech processing with training method |
US8788256B2 (en) | 2009-02-17 | 2014-07-22 | Sony Computer Entertainment Inc. | Multiple language voice recognition |
US8442829B2 (en) | 2009-02-17 | 2013-05-14 | Sony Computer Entertainment Inc. | Automatic computation streaming partition for voice recognition on multiple processors with limited memory |
US8442833B2 (en) | 2009-02-17 | 2013-05-14 | Sony Computer Entertainment Inc. | Speech processing with source location estimation using signals from two or more microphones |
US8417526B2 (en) * | 2009-03-13 | 2013-04-09 | Adacel, Inc. | Speech recognition learning system and method |
US9026444B2 (en) * | 2009-09-16 | 2015-05-05 | At&T Intellectual Property I, L.P. | System and method for personalization of acoustic models for automatic speech recognition |
US8812321B2 (en) * | 2010-09-30 | 2014-08-19 | At&T Intellectual Property I, L.P. | System and method for combining speech recognition outputs from a plurality of domain-specific speech recognizers via machine learning |
US20120168331A1 (en) * | 2010-12-30 | 2012-07-05 | Safecode Drug Technologies Corp. | Voice template protector for administering medicine |
US10032455B2 (en) | 2011-01-07 | 2018-07-24 | Nuance Communications, Inc. | Configurable speech recognition system using a pronunciation alignment between multiple recognizers |
US9153235B2 (en) | 2012-04-09 | 2015-10-06 | Sony Computer Entertainment Inc. | Text dependent speaker recognition with long-term feature based on functional data analysis |
CN104769668B (zh) | 2012-10-04 | 2018-10-30 | 纽昂斯通讯公司 | 改进的用于asr的混合控制器 |
US9240184B1 (en) * | 2012-11-15 | 2016-01-19 | Google Inc. | Frame-level combination of deep neural network and gaussian mixture models |
JP5921756B2 (ja) * | 2013-02-25 | 2016-05-24 | 三菱電機株式会社 | 音声認識システムおよび音声認識装置 |
US20140337030A1 (en) * | 2013-05-07 | 2014-11-13 | Qualcomm Incorporated | Adaptive audio frame processing for keyword detection |
US9225879B2 (en) * | 2013-12-27 | 2015-12-29 | TCL Research America Inc. | Method and apparatus for video sequential alignment |
MX365958B (es) * | 2014-08-28 | 2019-06-20 | Nokia Technologies Oy | Cuantificación de parámetros de audio. |
US10134425B1 (en) * | 2015-06-29 | 2018-11-20 | Amazon Technologies, Inc. | Direction-based speech endpointing |
US10536464B2 (en) * | 2016-06-22 | 2020-01-14 | Intel Corporation | Secure and smart login engine |
US10971157B2 (en) | 2017-01-11 | 2021-04-06 | Nuance Communications, Inc. | Methods and apparatus for hybrid speech recognition processing |
US10607601B2 (en) * | 2017-05-11 | 2020-03-31 | International Business Machines Corporation | Speech recognition by selecting and refining hot words |
CN109285548A (zh) * | 2017-07-19 | 2019-01-29 | 阿里巴巴集团控股有限公司 | 信息处理方法、系统、电子设备、和计算机存储介质 |
GB2566759B8 (en) | 2017-10-20 | 2021-12-08 | Please Hold Uk Ltd | Encoding identifiers to produce audio identifiers from a plurality of audio bitstreams |
GB2566760B (en) * | 2017-10-20 | 2019-10-23 | Please Hold Uk Ltd | Audio Signal |
CN111128154B (zh) * | 2019-12-03 | 2022-06-03 | 杭州蓦然认知科技有限公司 | 一种聚合形成交互引擎簇的方法及装置 |
CN111694331B (zh) * | 2020-05-11 | 2021-11-02 | 杭州睿疆科技有限公司 | 生产工艺参数调整的系统、方法和计算机设备 |
US11664033B2 (en) * | 2020-06-15 | 2023-05-30 | Samsung Electronics Co., Ltd. | Electronic apparatus and controlling method thereof |
CN115376513B (zh) * | 2022-10-19 | 2023-05-12 | 广州小鹏汽车科技有限公司 | 语音交互方法、服务器及计算机可读存储介质 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4587670A (en) * | 1982-10-15 | 1986-05-06 | At&T Bell Laboratories | Hidden Markov model speech recognition arrangement |
US4783804A (en) * | 1985-03-21 | 1988-11-08 | American Telephone And Telegraph Company, At&T Bell Laboratories | Hidden Markov model speech recognition arrangement |
US4852180A (en) * | 1987-04-03 | 1989-07-25 | American Telephone And Telegraph Company, At&T Bell Laboratories | Speech recognition by acoustic/phonetic system and technique |
US5167004A (en) * | 1991-02-28 | 1992-11-24 | Texas Instruments Incorporated | Temporal decorrelation method for robust speaker verification |
US5222190A (en) * | 1991-06-11 | 1993-06-22 | Texas Instruments Incorporated | Apparatus and method for identifying a speech pattern |
CA2635914A1 (en) * | 1991-06-11 | 1992-12-23 | Qualcomm Incorporated | Error masking in a variable rate vocoder |
US5450522A (en) * | 1991-08-19 | 1995-09-12 | U S West Advanced Technologies, Inc. | Auditory model for parametrization of speech |
CA2126380C (en) * | 1993-07-22 | 1998-07-07 | Wu Chou | Minimum error rate training of combined string models |
US5839103A (en) * | 1995-06-07 | 1998-11-17 | Rutgers, The State University Of New Jersey | Speaker verification system using decision fusion logic |
US5754978A (en) * | 1995-10-27 | 1998-05-19 | Speech Systems Of Colorado, Inc. | Speech recognition system |
US5819220A (en) * | 1996-09-30 | 1998-10-06 | Hewlett-Packard Company | Web triggered word set boosting for speech interfaces to the world wide web |
US6003002A (en) * | 1997-01-02 | 1999-12-14 | Texas Instruments Incorporated | Method and system of adapting speech recognition models to speaker environment |
US5893059A (en) * | 1997-04-17 | 1999-04-06 | Nynex Science And Technology, Inc. | Speech recoginition methods and apparatus |
US6014624A (en) * | 1997-04-18 | 2000-01-11 | Nynex Science And Technology, Inc. | Method and apparatus for transitioning from one voice recognition system to another |
US6526380B1 (en) | 1999-03-26 | 2003-02-25 | Koninklijke Philips Electronics N.V. | Speech recognition system having parallel large vocabulary recognition engines |
-
2000
- 2000-07-18 US US09/618,177 patent/US6671669B1/en not_active Expired - Lifetime
-
2001
- 2001-07-17 ES ES01953554T patent/ES2278763T3/es not_active Expired - Lifetime
- 2001-07-17 DE DE60125542T patent/DE60125542T2/de not_active Expired - Lifetime
- 2001-07-17 AU AU2001275991A patent/AU2001275991A1/en not_active Abandoned
- 2001-07-17 AT AT01953554T patent/ATE349751T1/de not_active IP Right Cessation
- 2001-07-17 EP EP01953554A patent/EP1301922B1/en not_active Expired - Lifetime
- 2001-07-17 WO PCT/US2001/022761 patent/WO2002007148A1/en active IP Right Grant
- 2001-07-17 CN CNB018145922A patent/CN1188831C/zh not_active Expired - Fee Related
- 2001-07-18 TW TW090117578A patent/TWI253056B/zh not_active IP Right Cessation
-
2004
- 2004-01-30 HK HK04100626A patent/HK1057816A1/xx not_active IP Right Cessation
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104143330A (zh) * | 2013-05-07 | 2014-11-12 | 佳能株式会社 | 语音识别方法和语音识别系统 |
CN104616653A (zh) * | 2015-01-23 | 2015-05-13 | 北京云知声信息技术有限公司 | 唤醒词匹配方法、装置以及语音唤醒方法、装置 |
Also Published As
Publication number | Publication date |
---|---|
EP1301922B1 (en) | 2006-12-27 |
EP1301922A1 (en) | 2003-04-16 |
CN1188831C (zh) | 2005-02-09 |
ATE349751T1 (de) | 2007-01-15 |
ES2278763T3 (es) | 2007-08-16 |
TWI253056B (en) | 2006-04-11 |
WO2002007148A1 (en) | 2002-01-24 |
AU2001275991A1 (en) | 2002-01-30 |
DE60125542T2 (de) | 2007-10-11 |
US6671669B1 (en) | 2003-12-30 |
DE60125542D1 (de) | 2007-02-08 |
HK1057816A1 (en) | 2004-04-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN1188831C (zh) | 具有多个话音识别引擎的话音识别系统和方法 | |
CN1236423C (zh) | 说话人声音的后台学习 | |
KR100901092B1 (ko) | 음성인식을 위하여 화자의존모드 및 화자독립모드에서dtw와 hmm의 결합 | |
CN1228761C (zh) | 用于经噪声补偿的话音识别的系统和方法 | |
CN1205601C (zh) | 用于与说话者无关的话音识别系统的构造话音模板的方法和设备 | |
US6836758B2 (en) | System and method for hybrid voice recognition | |
US7089184B2 (en) | Speech recognition for recognizing speaker-independent, continuous speech | |
CN1783213A (zh) | 用于自动语音识别的方法和装置 | |
US20020178004A1 (en) | Method and apparatus for voice recognition | |
US7136815B2 (en) | Method for voice recognition | |
US6182036B1 (en) | Method of extracting features in a voice recognition system | |
CN101051464A (zh) | 说话人认证的注册和验证方法及装置 | |
JP2007500367A (ja) | 音声認識方法およびコミュニケーション機器 | |
CN1238058A (zh) | 语音处理系统 | |
Gupta et al. | Speech feature extraction and recognition using genetic algorithm | |
Dumitru et al. | A comparative study of feature extraction methods applied to continuous speech recognition in romanian language | |
CN1150852A (zh) | 采用神经网络的语音识别系统和方法 | |
JP3970776B2 (ja) | 雑音環境条件および周波数不一致条件において音声認識を改良するためのシステムおよび方法 | |
JP2003524795A (ja) | スピーチエネーブル装置のユーザインターフェースの完全性をテストする方法および装置 | |
CN1101025C (zh) | 语音命令控制器的训练与识别方法 | |
Punchihewa et al. | Voice command interpretation for robot control | |
KR20050098349A (ko) | 이동 통신 단말기의 자동 다이얼링 장치 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20050209 Termination date: 20190717 |