CN1315109C - 基于生成转换/短语结构语法的自然语音识别方法 - Google Patents

基于生成转换/短语结构语法的自然语音识别方法 Download PDF

Info

Publication number
CN1315109C
CN1315109C CNB038152843A CN03815284A CN1315109C CN 1315109 C CN1315109 C CN 1315109C CN B038152843 A CNB038152843 A CN B038152843A CN 03815284 A CN03815284 A CN 03815284A CN 1315109 C CN1315109 C CN 1315109C
Authority
CN
China
Prior art keywords
speech
phrase
sentence
discerned
grammar
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CNB038152843A
Other languages
English (en)
Other versions
CN1666254A (zh
Inventor
克劳斯·D.·利德特克
甘特巴特·马克弗卡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Telekom Deutschland GmbH
Original Assignee
T Mobile Deutschland GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by T Mobile Deutschland GmbH filed Critical T Mobile Deutschland GmbH
Publication of CN1666254A publication Critical patent/CN1666254A/zh
Application granted granted Critical
Publication of CN1315109C publication Critical patent/CN1315109C/zh
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models
    • G10L15/19Grammatical context, e.g. disambiguation of the recognition hypotheses based on word sequence rules
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1815Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S707/00Data processing: database and file management or data structures
    • Y10S707/99931Database or file accessing
    • Y10S707/99933Query processing, i.e. searching
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S707/00Data processing: database and file management or data structures
    • Y10S707/99931Database or file accessing
    • Y10S707/99933Query processing, i.e. searching
    • Y10S707/99934Query formulation, input preparation, or translation

Landscapes

  • Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Machine Translation (AREA)

Abstract

本发明涉及基于生成转换/短语结构语法的自然语音识别方法,即GT/PS文法。根据本发明,分析说出的短语中包含的三音素,借助于语音词数据库(字典)由所识别的三音素构成说出的短语中包含的词,并且使用语法规则(文法)由所识别的词对说出的短语决定句法重构。GT/PS语法是将目标句子置入文法中的一种全新方法。它使用传统的文法规范语言(GSL),但是以创新的方式组织所置入的句子。其中,它遵循短语结构语法规则和Noam Chomsky的生成转换语法概念。

Description

基于生成转换/短语结构语法的自然语音识别方法
本发明涉及一种基于生成转换/短语结构语法(GT/PS语法)的自然语音识别方法。
目前,具有自然语音识别(NLU=Natural LanguageUnderstanding)的语音识别系统能够理解大量可能的表达并能够转换为复杂的指令结构,所述指令结构使语音识别系统,例如计算机,做出特定的动作。它基于预先定义的、由应用软件开发和所谓的对话设计所确定的合适的标准句式(Musterstze)来进行以上动作。标准句式的集合,也被称为“文法”,包括单个命令字以及复杂的嵌套句式,所述嵌套句式在对话的特定位置很重要。如果用户说出一个这样的句子,则系统以很高的可靠性来理解该句子,并执行与其相关的处理指令。
在对识别应用程序,例如NLU电话应用程序进行编程时,文法也是不可缺少的组成部分。借助于特定工具,即所谓的语法规范语言(GSL)生成文法。通过该语言首先再现所要理解的词以及其关联,并为语音识别器确定要理解的词及其关联。其中,预先规定的句子由可相互交换(词形变换轴)和可相互组合(语段轴)的词组合而成。图7表示了这样的一个例子。
由词形变换组合的语段结合得到可能的表达。其中必须容忍句子可能存在语法错误,例如“Würden Sie vielleicht Tellz-Tarif ersetzen?(您将可能更换电视价目表吗?)”,以便保持应答范围(Antwortenspektrum)尽可能大。但是,应该很少包含对这种所谓的“过度生成(Overgeneration)”—即无意义的标准句式或具有相同含义的表达—的指示或识别,其原因在于,由于系统必须将每个用户表达与大量预先规定的、几乎从不说出的句子组合进行比较,所以需要大量的系统资源,并且同时降低了识别效率。
在目前通常的实践中,以使相关单元联系起来的方式确定词形变换的词组合。其中,从词的词义转换质量出发。这种从某种程度上的成功句子出发的方法完全符合简单应用的需要,并获得了满意的结果。在具有大量有意义的应答的可能的复杂应用中,这些常规语法很多,它们使目前高速服务器的计算能力的负荷达到极限。结果是:
-大大地增加了过度生成
-在识别中明显延迟(等待时间)
-降低了识别可靠性(精确度)
-降低了系统稳定性(稳定程度)
这种方法的主要缺点在于,特定的句子只遵循表面的组合。因为表面上相关的单元实际上遵循另外的、语言学中早已公知的组合规则,所以所产生了很大的过度生成。
因此,目前用于确定ASR系统识别哪些句子的扩展文法遵循不完全地构成自然语言表达的传统语法习惯。迄今为止,不是从“表面结构”或“深层结构”的差别出发的。语言学假说表明,句法的深层结构和其向具体的表面结构的“生成转换”对语言系统的能力很重要。如果在复杂性提高的情况下还只使用目前所用的表面结构,则为了完成其任务,表面结构必须很大,使得它在运用时几乎不能被合理地管理,并且服务器的负荷达到其能力的极限。
US-B1-6182039公开了一种自然语音识别方法,其中这种方法包括分析说出的短语中包含的三音素,形成包含在这个短语中的词,以及借助于语法规则对说出的短语进行句法重构。这个发明的缺点在于,没有对用于对说出的短语进行句法重构的语法规则的准确说明,尤其是不能得到对用于语音字典的提示。
本发明的任务在于提供一种基于生成转换/短语结构语法的语音识别方法,与传统的识别方法相比,该方法需要更少的系统资源,并从而可以在减少过度生成的同时对语音进行可靠、快速的识别。
根据本发明,该任务通过以下特征完成:
基于生成转换/短语结构语法的自然语言识别方法,具有以下步骤:
-分析说出的短语中包含的三音素;
-借助于包括具有语音的字典的数据库由所识别的三音素构成包含在说出的短语中的词;以及
-使用语法规则,由所识别的词对说出的短语进行句法重构,其特征在于,所述对说出的短语进行句法重构包括以下步骤:
-将所识别的词归入词类类型;
-将词类类型归入名词短语和动词短语;
在预先规定不同句子模型的情况下,根据句法规则将名词短语和动词短语组合为对象,其中将所识别的词序与预先规定的句子模型进行比较,如果一致,则句子被视为已识别。
根据本发明,对说出的短语分析其中包含的三音素(Triphone),借助于语音词数据库(Lautwortdatenbasen)(字典)由所识别的三音素构成说出的短语中包含的词,并且使用语法规则(文法)由所识别的词在语法上重建说出的短语。
在本发明的具有优点的实施例和改进中,所识别的句子在语音控制应用中引起动作;每个句子模型包括多个对应于词类类型的变量,所述变量由所识别的词的相应词类类型填充;所识别的词被分成不同的词类类型而被保持在包括具有语音的字典的词数据库中;将所述对象或所述对象的一部分与语音控制应用的相应动作参数相结合。
本发明的方法和传统的文法规范语言之间的对比非常明显,传统的文法规范语言在小的应用中也通过造句法表面,即通过具体起草成功的句子而获得好的结果。
根据本发明,不是在表面上再现语法句子的结合规则,而是揭示所有印度-日耳曼语系语言的语段结合所遵循的深层结构。借助于句法模型以所谓结构树的形式描述每个句子。
GT/PS文法不遵循特定应用的潜在的表达,而是遵循印度-日耳曼语系语言句法(句子构造规则)的深层结构。它提供了框架(Gerüst),所述框架可以由不同的词来填充,并且比目前常用的“模仿(mimetisch)”方法更好地重现所说出的语言。
在通过结构树所描述的深层结构中可以发现,特定短语在句子中重复。可以借助于GSL再现和弥补这种重复。由此,不仅文法的规模明显少了,而且有语法错误的句子的过度生成也明显减少了。
在传统GSL文法中,例如有大约500个次文法(Subgrammar)在七个等级层中相互结合,而在GT/PS模型中,次文法的数量减少到例如仅有30个次文法在两个等级层中。
新的文法类型以结构化的形式形成了自然语言表达,并且只有例如目前语法规模的大约25%。因为这种文法规模很小,所以它能够更简单地管理,其中用于汇编(Kompilierung)的时间显著减少。由于其规模很小,所以提高了识别可靠性(精确度),并且识别延迟(等待时间)减少了。更好地利用了现有的计算机能力,并且提高了服务器性能。另外,这种新的文法不是基于特定应用,而是能够以其基本结构被应用于不同用途,因此提高了系统的同质性(Homogenitt),并减少了开发时间。
深层结构的通用代码使多语言的语言系统的使用和经济价值扩大到目前没有达到的范围,而且用很少的消耗就能处理西欧标准语言。
与目前用于自然语言对话应用的文法不同,新的GT/PS语法基于当前的语言学模型,这种语言学模型在表面结构和深层结构的框架内形成自然语言表达。用文法规范语言(GSL)将抽象的结构模型转换成分层次地嵌套和交联的规则,在这两种设备中都形成所述规则的结构。
GT/PS文法的技术优点在于:
-由于GT/PS文法只需要两层就足够了,而不是目前的最多七个次文法级,所以GT/PS文法比目前的语法规模小很多;
-满足文法但是有语法错误的句子(过度生成)的数量显著减少;
-它只需要目前所使用的槽(Slot)的三分之一;
-相对于目前的语音识别器的情况,它是在下面的文法层中填充槽,而不是在上面的文法层;
-它始终利用GSL(文法规范语言)提供的指令,以使槽值达到更高的文法层;
-它具有带有标志ACTION的新的槽,所述槽只能够由值GET和KILL填充;
-它与相互嵌套的槽一起工作,所述槽具有高度的多任务能力;
-它导致了识别效率的改善;
-它支持简化的选择,以引入多语言应用;
-它在细微差别(Nuance)技术方面具有无缝整合能力。
PSG的经济方面的优点在于:
-通过更好地利用系统资源,减少了硬件成本;
-通过有效的识别,降低了转换时间;
-通过简单的管理,节省了人力资源;
-更高的客户满意度;;
-可用于所有语言(从英文到中文)。
下面参考附图借助于简化的实施例详细介绍本发明。由附图及其描述获得本发明的其他特征、优点和应用可能。其中:
图1:识别过程的第一个步骤,三音素分析;
图2:识别过程的第二个步骤,根据所识别的三音素进行词识别;
图3:识别过程的第三个步骤,对所识别的词进行句法重构;
图4:将所识别的词分入词类类别及名词和动词短语的一个例子;
图5:对于一种可能的文法的编程实例;
图6:PSG文法结构的概貌;
图7:在现有技术的文法中形成词组的例子。
图1表示语音识别的第一个步骤:三音素分析。例如由电话的麦克风接收个人1的连续语音流,并且作为模拟信号传输给语音识别器2。在那里,模拟语音信号被转换为数字语音信号3。语音信号包含大量的三音素,即语音音段,在语音识别器2中用现有的、即预定的三语音结合规则对三音素进行调整。现有的三音素被存储在包含一个或多个语音词典的数据库中。所识别的三音素表示为三音素链4,例如“pro”、“rot”、“ote”、“tel”。
在图2的第二步骤中,由所识别的三音素构成有意义的词。为此,现有的三音素链4与存储在另一个语音词典5中的预定词6,例如“profi”、“portal”、“protel”、“hotel”,进行比较。语音词典5可以包括特定的口语词汇以及为各种用途设置的特殊词汇。如果所识别的三音素,例如“pro”和“tel”与词,例如“protel”中包含的三音素一致,则相应的词7被识别为“protel”。
在图3所示的下一个步骤中,借助于文法8对所识别的词7进行句法重构。为此,将所识别的词归入其词类类别,例如名词、动词、副词、冠词、形容词等,如图6所示。这是借助于划分为词类类型的数据库来实现的。如图5中所示,数据库9-15可以包括上面提到的传统词类类型以及特殊词类类型,例如“是/否”语法9、电话号码14、15。另外,可以规定识别DTMF输入16。可以在词识别过程中已经完成了上述将所识别的词归入词类类型的步骤。
在下一个步骤中(步骤17),借助于词类类型将所识别的词归入动词短语(即基于动词的短语)和名词短语(即基于名词的短语),参看图6。然后,根据短语结构的角度将名词短语和动词短语组合起来。在步骤18中,将用于多任务的对象与相应的语言控制用途相结合。
每个对象19包括一个存储在文法8中的目标句子,更准确地说包括句子模型。由图4可知,可以用词序列“主语,动词,宾语”或“宾语,动词,主语”定义这样的句子模型。在文法8中以这样的一般形式存储多种其他句子结构。如果识别的词7的词类对应于预定句子模型的顺序,则它们被归入相应的对象。句子被视为已识别。换言之,每个句子模型包括多个归入不同词类的变量,这些变量被识别的词7的相应词类所填充。
这种方法使用传统的文法规范语言(GSL),但以具有新颖性的方式组织所存储的句子。其中,它遵循短语结构语法规则和生成转换语法方案。
通过始终使用这里介绍的句子的深层结构,尤其是名词短语和动词短语的差别,它与目前常用的直观文法方案相比更接近自然语言的句子结构。
因此,GT/PS文法基于适于确定自然语言表达的抽象原则的理论建模。在现代语音识别系统领域中,它首先提供了这样的可能性,即几乎翻转了句子构造规则的抽象,并且具体化为对应用用户表达的预测。因此,可以系统地访问迄今始终基于例句的直观累积的语音识别文法。
常规文法和GT/PS文法的核心特征是所谓的次文法中的分等级嵌套,次语法在最高层将单个词,例如变量,组合为整个句子。在这点上,GT/PS文法的规模非常小,并且比目前已知的语法更清楚。与常规文法不同,在新的文法中几乎只有“有意义的”句子,因此减少了过度生成(即所存储的、在自然语言意义上是错误的句子)的数量。因为应用只需要在所存储的少量选项中选择,所以这又是改善识别效率的前提。

Claims (5)

1.基于生成转换/短语结构语法的自然语言识别方法,具有以下步骤:
-分析说出的短语中包含的三音素;
-借助于包括具有语音的字典的数据库(5)由所识别的三音素构成包含在说出的短语中的词;以及
-使用语法规则,由所识别的词对说出的短语进行句法重构,
其特征在于,所述对说出的短语进行句法重构包括以下步骤:
-将所识别的词(7)归入词类类型;
-将词类类型归入名词短语和动词短语;
-在预先规定不同句子模型的情况下,根据句法规则将名词短语和动词短语组合为对象,其中将所识别的词序与预先规定的句子模型进行比较,如果一致,则句子被视为已识别。
2.根据权利要求1的方法,其特征在于,所识别的句子在语音控制应用中引起动作。
3.根据权利要求1或2的方法,其特征在于,每个句子模型包括多个对应于词类类型的变量,所述变量由所识别的词(7)的相应词类类型填充。
4.根据权利要求1方法,其特征在于,所识别的词(7)被分成不同的词类类型而被保持在包括具有语音的字典的词数据库(5)中。
5.根据权利要求1的方法,其特征在于,将所述对象或所述对象的一部分与语音控制应用的相应动作参数相结合。
CNB038152843A 2002-06-28 2003-06-26 基于生成转换/短语结构语法的自然语音识别方法 Expired - Fee Related CN1315109C (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE10229207A DE10229207B3 (de) 2002-06-28 2002-06-28 Verfahren zur natürlichen Spracherkennung auf Basis einer Generativen Transformations-/Phrasenstruktur-Grammatik
DE10229207.8 2002-06-28

Publications (2)

Publication Number Publication Date
CN1666254A CN1666254A (zh) 2005-09-07
CN1315109C true CN1315109C (zh) 2007-05-09

Family

ID=29795990

Family Applications (1)

Application Number Title Priority Date Filing Date
CNB038152843A Expired - Fee Related CN1315109C (zh) 2002-06-28 2003-06-26 基于生成转换/短语结构语法的自然语音识别方法

Country Status (10)

Country Link
US (1) US7548857B2 (zh)
EP (1) EP1518221A1 (zh)
JP (1) JP4649207B2 (zh)
CN (1) CN1315109C (zh)
AU (1) AU2003250272A1 (zh)
CA (1) CA2493429C (zh)
DE (1) DE10229207B3 (zh)
IL (1) IL165957A (zh)
PL (1) PL373306A1 (zh)
WO (1) WO2004003888A1 (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7295981B1 (en) * 2004-01-09 2007-11-13 At&T Corp. Method for building a natural language understanding model for a spoken dialog system
GB0517082D0 (en) 2005-08-19 2005-09-28 Univ City Hong Kong Auxiliary winding for improved performance of a planar inductive charging platform
EP2141692A1 (de) 2008-06-26 2010-01-06 Deutsche Telekom AG Automatisierte Sprachgesteuerte Unterstützung eines Benutzers
KR101195812B1 (ko) * 2010-07-08 2012-11-05 뷰모션 (주) 규칙기반 시스템을 이용한 음성인식 시스템 및 그 방법
US9817813B2 (en) * 2014-01-08 2017-11-14 Genesys Telecommunications Laboratories, Inc. Generalized phrases in automatic speech recognition systems
CN110164449B (zh) * 2019-04-26 2021-09-24 安徽美博智能科技有限公司 语音识别的空调机控制方法及装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6182039B1 (en) * 1998-03-24 2001-01-30 Matsushita Electric Industrial Co., Ltd. Method and apparatus using probabilistic language model based on confusable sets for speech recognition

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0242743B1 (en) * 1986-04-25 1993-08-04 Texas Instruments Incorporated Speech recognition system
EP0590173A1 (de) * 1992-09-28 1994-04-06 International Business Machines Corporation Computersystem zur Spracherkennung
JPH0769710B2 (ja) * 1993-03-23 1995-07-31 株式会社エイ・ティ・アール自動翻訳電話研究所 自然言語解析方法
US6070140A (en) * 1995-06-05 2000-05-30 Tran; Bao Q. Speech recognizer
AU723274B2 (en) * 1996-08-29 2000-08-24 Bcl Computers, Inc. Natural-language speech control
US6163768A (en) * 1998-06-15 2000-12-19 Dragon Systems, Inc. Non-interactive enrollment in speech recognition
JP2950823B1 (ja) * 1998-09-29 1999-09-20 株式会社エイ・ティ・アール音声翻訳通信研究所 音声認識誤り訂正装置
JP3581044B2 (ja) * 1999-05-20 2004-10-27 株式会社東芝 音声対話処理方法、音声対話処理システムおよびプログラムを記憶した記憶媒体
US7120582B1 (en) * 1999-09-07 2006-10-10 Dragon Systems, Inc. Expanding an effective vocabulary of a speech recognition system
US6633846B1 (en) * 1999-11-12 2003-10-14 Phoenix Solutions, Inc. Distributed realtime speech recognition system
DE10032255A1 (de) * 2000-07-03 2002-01-31 Siemens Ag Verfahren zur Sprachanalyse
US7058567B2 (en) * 2001-10-10 2006-06-06 Xerox Corporation Natural language parser

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6182039B1 (en) * 1998-03-24 2001-01-30 Matsushita Electric Industrial Co., Ltd. Method and apparatus using probabilistic language model based on confusable sets for speech recognition

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
A UNIFIED CONTEXT-FREE GRAMMAR AND N-GRAMMODEL FOR SPOKEN LANGUAGE PROCESSING YE.YI WANG ET AL,IEEE INTERNATIONAL CONFERENCE ON ACOUSTICS,SPEECH,AND SIGNAL PROCESSING,Vol.3 2000 *
THE BBN/HARC SPOKEN LANGUAGE UNDERSTANDINGSYSTEM BATES M ET AL,IEEE INTERNATIONAL CONFERENCE ON ACOUSTICS,SPEECH AND SIGNAL PROCESSING,Vol.2 1993 *

Also Published As

Publication number Publication date
CA2493429A1 (en) 2004-01-08
AU2003250272A1 (en) 2004-01-19
JP2005539249A (ja) 2005-12-22
PL373306A1 (en) 2005-08-22
IL165957A0 (en) 2006-01-15
US7548857B2 (en) 2009-06-16
CN1666254A (zh) 2005-09-07
JP4649207B2 (ja) 2011-03-09
CA2493429C (en) 2011-09-13
EP1518221A1 (de) 2005-03-30
DE10229207B3 (de) 2004-02-05
WO2004003888B1 (de) 2004-03-25
WO2004003888A1 (de) 2004-01-08
IL165957A (en) 2010-11-30
US20060161436A1 (en) 2006-07-20

Similar Documents

Publication Publication Date Title
DE602005001125T2 (de) Erlernen der Aussprache neuer Worte unter Verwendung eines Aussprachegraphen
US7831911B2 (en) Spell checking system including a phonetic speller
US7072837B2 (en) Method for processing initially recognized speech in a speech recognition session
CN1781102B (zh) 低速存储器判定树
CN1169199A (zh) 产生和利用上下文相关子音节模型来识别有调语言的系统和方法
KR20080069990A (ko) 음성 세그먼트 색인 및 검색 방법과 컴퓨터 실행 가능명령어를 갖는 컴퓨터 판독 가능 매체
CN1230764C (zh) 用于语音识别的设备、方法和计算机系统
WO2002049253A2 (en) Method and interface for intelligent user-machine interaction
EP1240642A1 (en) Learning of dialogue states and language model of spoken information system
CN1711586A (zh) 声音识别用辞典编制装置和声音识别装置
JPWO2004034378A1 (ja) 言語モデル生成蓄積装置、音声認識装置、言語モデル生成方法および音声認識方法
CN1748245A (zh) 三级单个单词识别
KR100853173B1 (ko) 통계적 자동 번역 방식에 기반한 음성 자동 통역 시스템 및그에 적용되는 번역 처리 방법 및 그 훈련방법
CN1315109C (zh) 基于生成转换/短语结构语法的自然语音识别方法
CN1224954C (zh) 含有固定和可变语法块的语言模型的语音识别装置
CN1176455C (zh) 验证言词话语的设备和方法
CN113674734A (zh) 一种基于语音识别的信息查询方法及系统、设备和存储介质
CN1836271A (zh) 用于对话系统的语音输入接口
CN1560834A (zh) 一种口语识别理解的语法描述与识别分析的方法
CN1078565A (zh) 汉语和日语的双向机械翻译机
US20050267755A1 (en) Arrangement for speech recognition
US20060136195A1 (en) Text grouping for disambiguation in a speech application
CN116504223A (zh) 语音翻译方法及装置、电子设备、存储介质
CN116825084A (zh) 跨语种的语音合成方法、装置、电子设备和存储介质
CN1237504C (zh) 大规模词汇的语音识别装置和方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20070509

Termination date: 20190626