CN1781102A - 低速存储器判定树 - Google Patents

低速存储器判定树 Download PDF

Info

Publication number
CN1781102A
CN1781102A CNA2004800115762A CN200480011576A CN1781102A CN 1781102 A CN1781102 A CN 1781102A CN A2004800115762 A CNA2004800115762 A CN A2004800115762A CN 200480011576 A CN200480011576 A CN 200480011576A CN 1781102 A CN1781102 A CN 1781102A
Authority
CN
China
Prior art keywords
node
phoneme
decision tree
letter
tree
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CNA2004800115762A
Other languages
English (en)
Other versions
CN1781102B (zh
Inventor
J·索恩陶斯塔
田继雷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nokia Technologies Oy
Original Assignee
Nokia Oyj
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nokia Oyj filed Critical Nokia Oyj
Publication of CN1781102A publication Critical patent/CN1781102A/zh
Application granted granted Critical
Publication of CN1781102B publication Critical patent/CN1781102B/zh
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models
    • G10L15/187Phonemic context, e.g. pronunciation rules, phonotactical constraints or phoneme n-grams
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/31Indexing; Data structures therefor; Storage structures
    • G06F16/316Indexing structures
    • G06F16/322Trees
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination

Abstract

本发明涉及低速存储器树形数据结构的管理。根据本发明的方法包括用于创建由父节点和至少一个叶节点组成的判定树的步骤,和用于从所述节点搜索数据的步骤。以节点按照存储顺序跟随父节点的这样一种方式顺序地存储判定树的节点,其中没有来自其父节点的链路,也能够到达精选可搜索数据的上下文的节点。最好能够在语音识别系统中在文本-音素映射中利用该方法。

Description

低速存储器判定树
技术领域
本发明涉及根据所附的独立权利要求1的前序部分的用于管理树形数据结构的方法,本发明还涉及根据所附的独立权利要求13的前序部分的用于实施上述方法的系统。此外,本发明涉及根据所附的独立权利要求23的前序部分的设备。本发明还涉及根据所附的独立权利要求28的前序部分的树形数据结构,以及涉及根据所附的独立权利要求32的前序部分的用于利用上述树形数据结构的计算机程序产品。
背景技术
多语言方面在自动语音识别系统中变得越来越重要。语音识别系统的类型包括语音识别引擎,该语音识别引擎例如可以包括用于自动语言识别、在线发音模型建立(文本-音素)和多语言声音模型建立的单元。语音识别引擎的操作工作在以文本形式给定词汇项的假设上。首先,语言识别模块根据词汇项的书写表示来识别语言。一旦这已被确定,则应用合适的在线文本-音素模型建立方案来获得与该词汇项相关联的音素序列。音素是将一个单词的发音与另一个单词的发音区分开来的最小项。任何语言中的任何词汇项可以被呈现为一组对应于人类语音产生系统中变化的音素。
多语言声音模型被级联,以便为每个词汇项构建识别模型。利用这些基本模型,识别器能够原则上自动地处理多语言词汇项,而不需要用户的任何协助。文本-音素对于在自动语音识别以及文本-语音两者中为词汇项提供精确音素序列具有关键作用。神经网络或判定树方案经常被用作文本-音素映射。在用于语言和说话者无关的语音识别的解决方案中,基于判定树的方案已提供最精确的因素序列。用于安排树结构的方法的一个实例呈现在US6411957B1中。
在该判定树方案中,语言的字母表中的每个字母的发音被分别建模,并且为每个字母训练单独的判定树。当找到单词的发音时,一次一个字母地处理该单词,并根据当前字母的判定树文本-音素模型找到当前字母的发音。
判定树的一个实例被显示在图1中。该判定树由可以是内部节点I或叶L的多个节点组成。分支是诸多节点的集合,这些节点从根R一起被链接到叶L。节点可以是父(parent)节点或者是子(child)节点。父节点是能够从中进一步遍历树的节点,换句话说,它具有子节点。树中的子节点是可以从父节点到达的节点。内部节点I可以是父节点和子节点,但叶只是子节点。判定树中的每个节点都存储信息。存储的信息根据判定树的上下文而变化。
在语音识别系统中,内部节点I通常具有有关被识别的单词和该单词的发音的信息。单词的字母的发音可以由某些上下文中的音素(Pi)来指定。上下文例如指单词中在感兴趣的字母的右边和左边的字母。当在判定树中爬升(climb)时,上下文信息的类型由考虑其上下文的属性(ai)(也被称作属性类型)指定。可以借助属性值来实现爬升,在假定给定字母的上下文信息时,该属性值定义分支,其中搜索算法应当进行到该分支中。
自根节点R开始爬升树结构。在每个节点上,应当检查属性类型(ai),并且应将对应信息用于确定当前字母的上下文。利用该信息,匹配上下文信息的分支可以向前移动到树中的下一个节点。爬树,直至找到叶节点L,或者在树中对于当前上下文没有匹配属性值。
在图2中示出了基于判定树文本-音素映射的一个简化实例。该图中的判定树用于字母‘a’,其中节点代表字母‘a’的音素。应当注意,该图示被简化并且不包含字母‘a’的所有音素。在根节点中,存在关于属性类型的信息,这是右边的第一字母并利用r1表示。对于两个其它的内部节点,属性类型是左边的由I1表示的第一字母和右边的由r2表示的第二字母。对于叶节点,没有属性类型被分配。
当搜索单词‘Ada’的发音时,可以利用该实例中呈现的判定树和用于字母‘d’的判定树生成用于该单词的音素序列。在该实例中,用于字母‘d’的树仅仅由根节点组成,并且分配给根节点的音素是音素/d/。
当生成音素序列时,从左到右每次一个字母处理该单词。第一字母是‘a’,因此首先考虑用于字母‘a’的判定树(参见图2)。属性r1被附加到根节点上。‘a’后面的下一个字母是‘d’,因此我们前进到对应于属性值‘d’的根节点之后的分支。该节点是被附加了属性r2的内部节点。右边的第二字母是‘a’,并且我们前进到相应分支,而且进一步前进到是叶的相应节点上。对应于叶的音素是/e1/。因此,序列中的第一音素是/e1/。
该实例单词中的下一个字母是‘d’。用于字母‘d’的判定树如上所述由根节点组成,其中最频繁的音素是/d/。因此,该序列中的第二音素是/d/。
该单词中的最后的字母是‘a’,并且再次考虑字母‘a’的判定树(参见图2)。附加到根节点的属性是r1。对于该单词的最后字母,字母‘a’右边的下一个字母是语义图ε’-’。沿着相应的分支爬树直至是叶的节点。附加到叶节点上的音素是/V/,这是序列中的最后音素。
最后,用于单词‘Ada’的完整音素序列是/e1//d//V/。在对于字母表中的所有字母训练判定树之后,可以以类似方式生成用于任何单词的音素序列。
判定树训练是在包含单词及其发音的发音字典上完成的。判定树的强度在于利用信息理论原理从训练词典中学习紧映射(compactmapping)的能力。
如所述的,基于判定树的实施已经提供最精确的音素序列,但是缺点在于当使用判定树方案作为文本-音素映射时的大存储器消耗。大存储器消耗是由于链接列表判定树方案中使用的众多指针造成的。存储器的量尤其随着诸如英语或类似的其中发音不规则性频繁发生的语言而增加。
对于所述问题的现有技术解决方案可以被分类为有损耗的和无损耗的方法。当试图降低判定树的存储器需求时,大部分使用有损耗方法。这些方案例如是组合判定树的属性值,最佳化判定树训练处理的停止准则,根据错误计数修剪判定树,和其它类似方法。
对于现有技术的低速存储器(low memory)判定树方法,当为了存储器而最佳化系统时,总是降低性能。总是存在精度与存储器消耗之间的折衷。与此相反,由于根据本发明的方案,几乎没有精度的任何恶化并且使存储器消耗最佳化。可以显著降低存储器需求而没有性能的恶化。
发明内容
为了实现这一目的,用于管理树形数据结构的方法包括用于创建由父节点和至少一个叶节点组成的判定树的步骤,并且也包括用于从所述节点中搜索数据的步骤。所述方法的特征在于判定树,其中通过以节点按照存储顺序跟随父节点的这样一种方式顺序地存储节点来创建该判定树,其中可以到达精选(refine)可搜索数据的上下文的节点而没有来自其父节点的链路。
对于用于管理树形数据结构的系统,其特征在于创建器,其适用于通过以节点按照存储顺序跟随父节点的这样一种方式顺序地存储节点来创建判定树,其中精选可搜索数据的上下文的节点是可达的而没有来自其父节点的链路。
根据本发明的设备包括用于存储树形数据结构中的数据的存储媒体和用于处理所述结构中数据的处理器,所述处理器包括判定树创建器和用于从所述节点中搜索数据的搜索器。该设备的特征在于:创建器适用于通过以诸多节点按照存储顺序跟随父节点的这样一种方式顺序存储节点来创建判定树,其中没有来自其父节点的链路,精选可搜索数据的上下文的节点也是可达的。
所述树形数据结构由父节点和至少一个叶节点组成,所述节点包括可搜索数据,所述树形数据结构的特征在于节点,以这些节点按照存储顺序跟随父节点的这样一种方式来顺序地定位这些节点,其中没有来自父节点的链路,也可以到达精选可搜索数据的上下文的节点。
根据本发明的计算机程序产品包括计算机存储媒体和写在计算机存储媒体上的计算机可读代码,用于利用所述存储媒体中存储的树形数据结构,所述树形数据结构包括父节点和至少一个叶节点。计算机可读代码包括用于从节点搜索数据的指令。计算机程序产品的特征在于:计算机可读代码具有用于以节点按照存储顺序跟随父节点的这样一种方式顺序地安排节点的指令,其中没有来自其父节点的链路,精选可搜索数据的上下文的节点是可达的。
本发明的第一部分描述了在训练判定树时使用的剪切对准(clipped alignment)方法。该方法能够根据语言知识制作高质量对准词典。如现有技术方法中那样,没有剪切方法,就不会充分使用语言知识。此外,由于本发明,可以容易地找出错误项(音素-字母对)。因此,不规则性被减少,并且改善对已对准字典训练的判定树的存储和精度。同样,如果外来词和姓名服从不同于英语的发音规则,本发明提供了可能性来除去这些外来词和姓名的项目。显然,不规则性也被降低。剪切对准方法在某种程度上还可以检测错误抄录,并且进一步丢弃它们。由于包含不可能映射对的项目被剪切掉,因此可以正确利用具有小概率的可能的映射对。
附图说明
在附图、随后的详细描述以及所附的权利要求中提出了本发明的优选实施例。在描述中还考虑了本发明的其它目的和优点。在权利要求中利用特殊性定义了发明本身。
图1显示具有节点和叶的示范性判定树,具有属性和音素;
图2显示在文本-音素映射中使用的字母‘a’的示范性判定树;
图3显示语义图隐藏式马尔可夫(Markov)模型的一个实例;
图4显示根据本发明方法的原理图;
图5显示链接列表方案的一个实例,其中节点包括指针表;
图6a-6d显示用于存储判定树的四种方法的实例;和
图7显示利用根据本发明方法的设备的非常原理的实例。
具体实施方式
根据本发明的方法对与约束维特比(Viterbi)算法相结合的判定树应用无损耗编码。本发明对于其中一个字母可以对应于零个、一个或两个音素的语言诸如英语是有利的。
图4中展现了基于判定树的所建议的发音模型建立方案的高级描述。该方案基于利用剪切对准算法对准的发音字典。判定树的训练基于对准的发音字典,并且训练的结果是基于判定树的发音模型。在训练之后,把树转换成低速存储器格式,以最小化判定树的存储器需求。低速存储器判定树表示包括:把判定树的节点转换成合适的格式,并利用产生最低存储器消耗的压缩方案压缩判定树的变量。本发明提供用于执行剪切训练对准和用于把判定树转换成低速存储器格式的方法。发音字典包含单词及其发音。判定树通过利用信息理论原理能够从训练字典中学习紧映射。
为了阐明本发明,将本发明分成以下部分:
1.剪切对准方法
2.低速存储器判定树方法
3.用于判定树数据元素的比特分配。
根据本发明的剪切对准方法的第一部分被设计用于在部分2中进一步描述的低速存储器判定树的训练。在第三部分中提供了用于压缩判定树的数据元素以实现最低存储器需求的方法。但是,首先,在训练判定树之前,对准项目或如说明书中所涉及的发音字典中的表项目,以找到字母与音素之间的对应关系。通过把音素空(null)(称之为音素ε,用“_”标记)插入不发音的那些字母的音素序列和产生两个音素的那些字母的伪音素(pseudophoneme)中,能够获得对准。通过级联公知为对应于单个字母的两个音素(/eI/,/oU/,…)获得伪音素。
HMM-维特比算法适于供对准使用。HMM-维特比算法的使用确保在统计意义上以最佳方式执行对准,并因此最小化字典项目的剩余熵。此外,使用HMM-维特比算法用于对准的优点是能够在统计意义上达到最佳对准。在表1给出了对准的发音字典的一个实例:
单词       对准的音素序列
aaron      _E r2 s@ n
abraham    eI b r2 s@ h  m
accola     A:_k oU 1 s@
ackerman   _k _s@r m s@ n
ada        eI d s@
adelaide    d s@ 1 eI _d_
ahmanson   A:_m s@ n s s@ n
aikman     eI_k m s@ n
alabamas   A:1 A:b A:m s@ z
表1:对准的发音字典的一个实例。
隐藏式马尔可夫模型(HMM)是公知的并且被广泛用于例如已经在语音识别中应用的统计方法中。该模型还能够被称为马尔可夫源或马尔可夫链的概率函数。HMM的基础假设是:信号可以被很好地表征为参量随机处理,并且可以以精确、明确定义的方式确定/估算随机处理的参数。可以根据分配给每个状态的可观测事件是离散(比如码字)的还是连续的,将HMM分类成离散模型或连续模型。利用任何一种方式,观测是概率的。该模型具有基础随机处理,该随机处理不是直接可观测的,而是仅仅通过另一组产生观测序列的随机处理才能够被看。HMM由具有状态之间转换的隐藏状态组成。数学表示包括三项:状态之间的状态转换概率,每个状态的观测概率和初始状态分布。给定HMM和观测,则维特比算法用来通过跟随最佳路径给出观测状态对准。
为了对准发音字典,如果在用于字母1的允许音素的列表中能够找到音素f,则用零初始化用于给定的字母-音素对的惩罚(penalty)P(f,1),否则利用大的正值来初始化。给定初始惩罚值,则分两步对准字典。在第一步中,为字典中的每个项,生成所有可能的对准。随后根据所有对准的项,重新计算惩罚值。在第二步中,仅为每个项查找单个最佳对准。
对于每个项,在语义图HMM上可以利用维特比算法找到最佳对准。图3中显示了隐藏马尔可夫模型的一个实例。语义图HMM具有表目E,出口X和字母S1、S2、S3状态。可以映射到伪音素的字母通过具有持续时间状态D来处理的。图2中的状态S1-S3是对应于单词中发音字母的状态。状态S2对应于可以产生伪音素的字母,并且这就是状态S2为什么具有持续时间状态D的原因。允许从所有以前状态跳跃到当前状态,以支持音素ε。每个状态和持续时间状态持有权标和对应于累积计分的状态序列,其中权标包含相对语义图HMM使音素序列对准的累积惩罚。通过从头到尾每次一个音素地通过(go through)音素序列,使音素序列相对字母对准。权标传递被执行,以查找字母与音素之间的维特比对准。最后,在HMM所有的状态上找到具有最低累积惩罚的权标。根据权标的状态序列,能够确定单词的字母和音素之间的对准。
对准的字典可以包含如下列出的项目:
a)外来姓名和外来词,如“Juan,Xiong等”被包含在英语发音字典中。最好在文本-音素映射中与除英语之外的相应语言一起使用那些姓名和单词。那些词使发音更不规则,并且不规则发音使判定树更大和更不精确。
b)错误抄录。由于打字错误和某些不可预见的原因在字典中具有某些错误抄录是不可避免的。这也使发音更加无规则和不精确。
c)错误对准,例如““apple-pV1_”。利用基本语言知识,知道字母“p”从不映射到元音音素“V”。此外,这使得发音更不规则和不精确。
为了解决上述问题,建议根据本发明利用维特比算法的剪切对准方法。借此,高质量对准发音将更加规则,从而导致根据本发明的基于判定树文本-音素模型的低存储要求。
1.用于训练低速存储器判定树的剪切对准方法
根据本发明,基于上述的从对准的字典中估算的重新估算的惩罚P(f,1)完成对准。显然,所形成的对准产生非常粗的对准,所以惩罚P(f,1)决不是非常精确的。在语言上不可能的情况下,还将值分配给P(f,1)。例如,P(“V”,“p”)具有一个值,但这明显违反语言知识。为了避免这一情况并且为了克服上述困难(a-c),把定义为剪切方法的约束应用于维特比解码。
所建议的剪切对准算法需要为目标语言定义字母和语音集。表2中的列表规定了字母可以在语言上对应的音素和伪音素(基于人类专家的语言知识)。下表2包括真实的语言相关信息。
字母       对应(伪)音素
a          V,A,,eI,e,O,_
b          b,_
c          k,s,tS,S,_
…         …
1          1,V,V_1,_
…         …
z          z,s,tS,t,t_s,dZ,S,_
表2:字母表的音素和伪音素定义的一个实例。
表2可以利用不同的方式来实施,但是这些实施用于相同目的。
根据所有对准项,重新计算惩罚值。这样,对于每一项,仅找到单个最佳对准。如果在表2中能够找到音素f,则如常估算P(f,1),这意味着用于字母1的音素f在语言上是允许的。如果不能在表2中找到用于给定字母1的音素f,则应用约束将P(f,1)设置为最高值而不进行任何估算。
现在,在对准字典中仅允许在上表中找到的字母-音素对用于训练基于判定树的文本-音素映射。
由于该方法,可以相当容易地考虑语言信息。因为对准中的剪切方法,将某些项剪切掉。通过检验剪切的项列表,容易发现或者调谐语言信息,例如定义新的伪音素,把丢失音素添加到字母相关音素集,等等。如果涉及更好的语言信息,可以改善对准并可以降低存储器使用。
2.判定树模型结构
通过最小化所有字母的判定树文本-音素模型的存储器需求,最小化用于给定语言的文本-语音模型的尺寸。因此,考虑单一判定树文本-音素模型的存储器需求的最小化。
最好不使用图1和图2中展示的判定树模型的直接链接列表实施。这是因为以下事实:在链接列表方案中,树的每个节点将包含指针表作为开销。为了除去该开销,最好以允许将树的节点用于文本-音素转换的这样的顺序把树的节点存储在存储器中。
该顺序必须是:当正在为字母精选正确的上下文时,下一匹配上下文也是在紧接后一级上的上下文。换言之,尽管根据现有技术的链接列表树可以按任何顺序存储到存储器中,但是根据本发明的树却不能。现有技术链接列表树的结构自动注意校正参考:当搜索下一级节点时,算法通过使用节点中存储的链路(指针)找出信息。这些链路使用存储器,并且其目的仅仅是启动树的遍历。
链接列表方案的一个实例可以在图5中看到,其中节点(10)包括指针表,从此到达对应于字母的子节点(11,12,13,14,15,16)。除非子节点是叶节点(诸如12,15),否则该子节点仍然包括指针表。
本发明基于这样一种认识:通过在存储器中以适当顺序存储树节点,可以从节点中省去链路或指针,从而节省存储器。这样的结构是例如图6a-6d所示的深度优先(depth-first)和宽度优先(breadth-first)存储方案或其某些组合。换言之,本发明在于以适合于文本-音素转换的特定顺序存储树内容,以便即使在树中没有链路,也可以适当搜索树。
在深度优先存储方案中,通过首先一直跟随树结构到最后的最左边叶来存储树的节点。然后,一直遍历右边的下一个分支直至最后的叶。图6a显示了图1的判定树结构的一个实例,其中节点和叶被转换成低速存储器深度优先格式。在深度优先存储格式中,最好仅存储每个节点一次。例如,仅存储根节点一次。显然,也可以两次或多次存储每个节点,如根节点(如图6a所示)。
在宽度优先存储方案中,首先存储树的根R,然后到达第一层上的所有节点,再到达第二层上的所有节点,等等。图6b显示了图1的判定树结构的一个实例,其中节点和叶被转换成低速存储器宽度优先格式。
在混合存储方案中,可以混合深度优先和宽度优先方案。图6c和6d显示了利用较低节点层(M,N,O)继续的判定树1的混合存储方案的实例。例如,如图6c所示,宽度优先方案可以被用到层三(L),并从那点开始使用深度优先方案。作为选择,如图6d所示,全宽度优先方案可以被用到层三(L),并且然后以宽度优先顺序单独存储层三(L)上的每个节点的子树。这可以进行以允许可能需要的节点的更快速存储器存取。
这些存储方案的主要目的是允许树的存储而在树结构中不使用链路或者指针。为了确保适当操作,存储方案必须使得在链路除去之后,以可以用来精选上下文的节点总是按照存储顺序跟随父节点的方式,顺序地在存储器中安排这些节点。
在上述方式中,逐个分支地存储树的节点。来自判定树的单个内部节点I包含具有以下信息的数据元素:
-属性值,比如字母
-区分内部节点I/叶L的一个比特
-属性类型ai
-对应于特定上下文的音素pi
单一叶L节点包含具有以下信息的数据元素:
-属性值,比如字母
-区分内部节点I/叶L的一个比特
-对应于特定上下文的音素pi
-指示这是否为父节点的最后叶的一个比特。
利用所建议的方案,可以最小化判定树模型的存储器需求。为了后面的用途,定义判定树的数据元素为属性类型、属性值或音素。
3.用于表示判定树中数据元素的方法
本发明的这一部分描述用于表示判定树的数据元素以实现最小存储器需求的三种方法。所建议的方法是固定比特分配、用于判定树数据元素的可变比特分配以及判定树数据元素的霍夫曼(Huffman)编码。
用于判定树数据元素的固定比特分配
判定树的尺寸是所有内部节点和叶的尺寸之和。下面分析内部节点和叶的尺寸。这里所述的数量用于英语语言。
a)属性值的数量:
存在26个字母,少于64个音素以及少于16个音素类别。其中的最大值是64,因此把6个比特分配用于属性值。
b)属性类型的数量:
对于4的上下文长度,在当前字母左边和右边具有4个字母、在左边具有4个音素和在当前字母左边具有4个音素类别。这使得总数为16,并因此把4个比特分配用于属性类型。
c)音素的数量:
对于英语语言,数量在32和64之间,所以6个比特被分配给音素。
d)表示内部节点/叶的标志仅需要一个比特。
e)表示用于给定内部节点的叶的尾部的标志仅需要一个比特。
上述的比特分配被称作固定比特分配,因为比特数量是预定的和固定的。
内部节点和叶的尺寸可以如下确定:
对于内部节点,尺寸是条目a)、b)、c)和d)之和:
Internal_node_size(内部节点尺寸)=6+4+6+1=17比特
对于叶,尺寸是条目a)、b)、d)和e)之和:
Leave_size(叶尺寸)=6+6+1+1=14比特
用于判定树数据元素的可变比特分配
在基于判定树文本-音素映射中,每个树对应于一个字母。在本发明的部分1中,建议剪切方法。对于给定字母,在对准字典中仅允许表2中列出的相应音素。因此,对于每个树,由表2限定音素的数量。例如,字母“a”具有7个可能的音素,其中需要3个比特分配用于音素,而不是如上(c)所述把6个比特分配给所有音素。这是因为只有7个音素用于字母“a”,所有其他的在对准期间被剪切掉。现在,对于内部节点和叶,比特数量都减少3。当然,分配给音素的比特数量对于不同的叶将是不同的。
在剪切方法中,每个字母1仅仅可以映射到字母相关音素集。
1?p,其中p∈{p1,p2,…,pn}.
可以根据字母相关音素集,而不是根据整个语言相关音素集,对音素编码。该方法被称作可变比特分配,因为分配给音素的比特数量可以随字母和树而变化。例如,利用固定比特分配的方法,把“a”映射到整个集(40个音素),当利用可变比特分配的方法时,能够把字母“a”映射到字母相关音素集(英语中的8个音素)。这样,利用固定比特分配,需要[log2(40)]=6比特;而利用可变比特分配,需要[log2(8)]=3比特。
把字母相关比特分配用于其它数据元素比如属性类型和属性值是可能的。为此,对于给定字母,需要发现所有可能的属性类型和属性值的集合。一旦获知这些集合,就可以计算属性类型和属性值所需的比特数量。
为了把可变比特分配用于判定树数据元素,为每个字母找到允许的音素、属性类型和属性值的集合。一旦获知这些集合,就把它们存储到表中。如果用于数据元素的表的尺寸是n,则利用可变比特分配存储数据元素所需的比特数量是[log2(n)]比特。该表需要被存储在引入开销的存储器中。因此,只在由于可变比特分配而导致的节省(Saved_var_bits)大于存储表的开销(Overhead_var_bits)时,才使用可变比特分配。
节省比特的数量按以下方式计算:
Saved_var_bits=
(Num_bits_fixed-Num_bits_variable)Count_occurrence
Num_bits_fixed对应于利用固定比特分配分配给数据元素的比特数量。Num_bits_variable对应于利用可变比特分配分配给数据元素的比特数量。Count_occurrence是数据元素出现在判定树中的总次数。
用于数据元素的存储表的开销按以下方式计算:
Overhead_var_bits=(Size_table+l)Bits_in_byte
Size_table对应于表中元素的数量,以及Bits_in_byte为8。
为每个数据元素(属性类型,属性值和音素)检查Saved_var_bits与Overhead_var_bits之间的比较,并且如果Saved_var_bits大于Overhead_var_bits,则使用可变比特分配:
if Saved_var_bits>Overhead_var_bits
判定树数据元素的霍夫曼编码
为了把二进制代码分配用于判定树数据元素,可以使用霍夫曼码。如果判定树数据元素的分布具有大变化,则霍夫曼码的使用可以节省存储器。霍夫曼编码的基本思想是把短码字分配给具有高概率的数据元素,并把长码字分配给具有低概率的数据元素。霍夫曼码是最佳的和无损耗的。该码是可变长度码,其中利用对应于特定数据元素的码字的长度给出用于编码数据元素的比特数量。霍夫曼码必须单独地为每个判定树变量导出。
下表3显示了用于英语的字母“a”树的音素的霍夫曼编码的一个实例。音素的压缩比是1.2554。表中的“FLC”代表固定长度码。
音素       A:           aI        E         eI       I       V       _
概率       0.2238  0.277   0.0019    0.0250    0.1211   0.0075  0.2650  0.0780
FLC        000     001     010       011       100      101     110     111
霍夫曼码   10      01      110000    11001     111      110001  00      1101
表3:判定树中用于美国英语字母“a”的音素的编码
为了将霍夫曼编码用于判定树数据元素,霍夫曼码字、用于每个码字的比特数量和相应的字母表需要被存储在引入开销的存储器中。为每个数据元素,单独进行是否使用霍夫曼编码的判定。对于给定的数据元素,只在霍夫曼编码带来的节省(Saved_huff_bits)大于开销(Overhead_huff_bits)时,才可以使用霍夫曼编码。
霍夫曼编码带来的节省比特的数量可以根据下式计算:
Saved_huff_bits=
i(Num_bits_fixed-Num_bits_CWi)Count_CWi
Num_bits_fixed是利用固定比特分配分配给数据元素的比特数量。Num_bits_CWi对应于分配给出现在霍夫曼编码树的第i码字的比特数量。
存储霍夫曼码的开销能够根据下式计算:
Overhead_huff_bits=(3 Num_huff_CW+l)Bits_per_byte
Num_huff_CW是用于数据元素的霍夫曼码字的数量,而Bits_per_byte是8。假定霍夫曼码字、指示霍夫曼码字中比特数量的变量和字母表的成员存储在单个字节变量中。
为每个数据元素(属性类型,属性值和音素)检查Saved_huff_bits与Overhead_huff_bits之间的比较,并且如果确定的条件满足为if Saved_huff_bits>Overhead_huff_bits,则对于数据元素应用霍夫曼编码。
存储判定树数据元素所需的存储器的最小化
如同在部分2的开头所解释的那样,存储树的基本结构是固定的,但是能够以各种方式表示树中的数据元素。比特分配可以是固定的,或者可以是可变的,或者可以使用霍夫曼编码。为判定树中的每个数据元素(属性类型,属性值和音素)进行这些编码方法之间的判定。由于对于每个字母具有基于判定树的文本-音素模型,因此可以为每个字母重复选择。
在可替代实施例中,利用使用所谓的截短霍夫曼编码的可能性来辅助是使用固定长度编码还是霍夫曼编码的判定。在该编码方法中,具有非常低概率的数据元素的某些值被组合在一起,并且把公用霍夫曼前缀码分配给该组。然后利用固定长度码对该组值中数据元素的实际值进行编码。例如,8个非常不大可能的值的组可以用具有假定7比特、其后跟随3比特的固定长度码的霍夫曼码进行编码。
对于给定树中的给定数据元素,进行是使用固定比特分配、可变比特分配还是霍夫曼编码的选择,以便最小化用于低速存储器判定树模型的存储器需求。因此,判定基于以下逻辑:
a)初始化:假设固定比特分配用于数据元素;
b)如果Saved_var_bits>Overhead_var_bits,则使用可变比特分配用于数据元素;
c)如果霍夫曼编码带来的节省大于可变比特分配带来的节省并大于霍夫曼码引入的开销,则将霍夫曼编码用于数据元素:
Saved_huff_bits-Overhead_huff_bits>Saved_var_bits-Overhead_var_bits以及
Saved_huff_bits>Overhead_huff_bits
本发明利用该最小化方案来自动确定用于所有判定树中的每个判定树数据元素的最小比特分配。
实验:
本发明通过在从CUM(Carnegie Mellon University卡内基梅隆大学)字典中提取的美国Census(人口普查)姓名列表的发音上训练判定树进行实验。发音的总数是40,529。基本实施利用与判定树数据元素的固定比特分配的原始对准。如下表4所示,判定树模型尺寸被明显减小(36%),并且在音素精度和串速率(string rate)方面,文本-音素性能没有任何恶化。这验证本发明的有用性。
  方法   存储器(kB)   音素精度   串速率
  现有技术   132.5   99.27%   97.12%
  本发明   84.9   99.27%   97.17%
表4:现有技术方案与本发明方案之间的判定树比较
在本发明中已经介绍了不同的创新技术:对准中的剪切方法、判定树结构、用于判定树数据元素的固定比特分配、用于判定树数据元素的可变比特分配和用于判定树数据元素的霍夫曼编码比特。显然,所有的技术可以被单独地利用或者以不同方式进行组合,这就是为什么本发明的描述不应被考虑为本发明的限制的原因。
文本-音素系统可以被实施为电子设备中的语音识别系统的一部分,例如被实施为数字信号处理单元。电子设备可以包括其它功能,比如蜂窝电话T(图7)中的用于电信的装置。该设备最好包括扬声器H、麦克风M。文本-音素系统还有可能在与电子设备一起使用的并发设备内实现。如果把蜂窝电话考虑为电子设备,则并发设备可以是例如耳机或者视频护目镜。
文本-音素系统可以另外在普遍存在的环境中使用,其中该系统可以被实施在住房的各个房间中、各种家用电器(例如,电视,洗衣机)中、家具中或者耐磨附件(例如衣服)中。
显然,上述实施例不应解释为本发明的限制,并且这些实施例可以在以下权利要求中所提出的发明特征的范围内变化。

Claims (32)

1、用于管理树形数据结构的一种方法,该方法包括创建包含父节点和至少一个叶节点的判定树的步骤,所述方法还包括用于从所述节点中搜索数据的步骤,其特征在于:通过以节点按照存储顺序跟随父节点的这样一种方式顺序地存储节点来创建判定树,其中能够到达精选可搜索数据的上下文的节点而没有来自其父节点的链路。
2、根据权利要求1所述的方法,其特征在于,通过以下方案之一存储判定树的节点:深度优先方案,宽度优先方案,或者所述方案的组合。
3、根据权利要求1或2所述的方法,其特征在于,在存储之前,利用对准的数据元素集训练判定树,根据所述元素的有效性利用惩罚初始化所述元素,其中通过对于无效元素增加约束,根据所述元素的已知特征,进一步重新初始化该惩罚。
4、根据权利要求1或2或3所述的方法,其特征在于,该方法用于文本-音素映射,其中所述数据包括诸如字母和音素的元素,其中为一个字母创建判定树,并且节点包括所述字母的音素。
5、根据权利要求4所述的方法,其特征在于,节点还包括有关诸如周围字母的所述字母的上下文的信息。
6、根据权利要求3-5之一所述的方法,其特征在于,检查音素的有效性,检查它是否是允许的音素之一,其中利用零初始化所述惩罚;或者检查它是否不是允许的音素,其中利用大的正值初始化所述惩罚。
7、根据权利要求3-6之一所述的方法,其特征在于,进一步检查音素的有效性,检查它是否是语言上允许的,其中利用零重新初始化该惩罚;或者检查该音素是否不是语言上允许的音素,其中利用大的正值重新初始化该惩罚。
8、根据权利要求1-7之一所述的方法,其特征在于,以以下格式之一编码节点的数据:具有固定比特的格式,具有可变比特的格式,或者具有霍夫曼码的格式。
9、根据权利要求8所述的方法,其特征在于,如果由于可变比特格式带来的节省大于存储由这些元素组成的表的开销,则以可变比特格式提供这些元素;或者如果由于霍夫曼编码带来的节省大于由于可变比特格式带来的节省并大于由于霍夫曼码引入的开销,则所述元素被霍夫曼编码。
10、根据权利要求9所述的方法,其中通过把利用固定比特格式分配给元素的比特数量(Num_bits_fixed)和利用可变比特格式分配给元素的比特数量(Num_bits_varible)之和与元素出现在判定树中的总次数(Count_occurrence)相乘,确定由于可变比特格式带来的节省。
11、根据权利要求9所述的方法,其中通过把利用固定比特格式分配给元素的比特数量(Num_bits_fixed)和分配给码字的比特数量(Num_bits_CW)之和与码字出现在霍夫曼编码树中的次数(Count_CW)相乘,计算由于霍夫曼编码带来的节省。
12、根据权利要求8-11所述的方法,其特征在于,实质上对于每个元素单独地选择存储格式。
13、用于管理树形数据结构的一种系统,该系统包括判定树创建器,所述判定树由父节点和至少一个叶节点组成,并且该系统还包括从所述节点搜索数据的数据搜索器,其特征在于:该创建器适用于通过以节点按照存储顺序跟随父节点的这样一种方式顺序地存储节点来创建判定树,其中精选可搜索数据的上下文的节点是可达的而没有来自其父节点的链路。
14、根据权利要求13所述的系统,其特征在于,存储顺序是以下方案之一:深度优先方案,宽度优先方案,或者所述方案的组合。
15、根据权利要求13或14所述的系统,其特征在于,该系统还包括用于利用对准数据元素集训练判定树的装置,所述装置能够根据所述元素的有效性利用惩罚来初始化所述元素,并且通过对于无效元素增加约束,根据所述元素的已知特征进一步重新初始化该惩罚。
16、根据权利要求13或14或15所述的系统,其特征在于,该系统应用文本-音素映射,其中所述数据包括诸如字母和音素的元素,其中判定树对应于一个字母,以及所述节点包括所述字母的音素。
17、根据权利要求16所述的系统,其特征在于,节点还包括有关诸如周围字母的所述字母的上下文的信息。
18、根据权利要求13-17之一所述的系统,其特征在于,该系统适用于检查音素的有效性,检查它是否是允许的音素之一,其中该系统适用于利用零初始化所述惩罚;或者如果该音素不是允许的音素,则该系统适用于利用大的正值初始化所述惩罚。
19、根据权利要求13-18之一所述的系统,其特征在于,该系统还适于检查音素的有效性,检查它是否是语言上允许的,其中该系统适于用零初始化所述惩罚;或者如果该音素不是语言上允许的音素,则该系统适用于利用大的正值初始化所述惩罚。
20、根据权利要求13-19之一所述的系统,其特征在于,以以下方式之一表示节点的数据:可变或固定或霍夫曼编码的二进制数字。
21、根据权利要求20所述的系统,其特征在于,该系统适用于通过一起比较所述格式来检查所述格式中的哪个格式比其它的格式产生更大的节省,其中该系统适于使用那个二进制格式。
22、根据权利要求13-20之一所述的系统,其特征在于,该系统是语音识别系统。
23、一种设备,包括用于在树形数据结构中存储数据的存储媒体,所述树形数据结构由父节点和至少一个叶节点组成,所述设备还包括用于处理所述结构中数据的处理器,该处理器包括判定树创建器和用于来自所述节点的数据的搜索器,其特征在于:该创建器适用于通过以节点按照存储顺序跟随父节点的这样一种方式顺序地存储节点来创建判定树,其中精选可搜索数据的上下文的节点是可达的而没有来自其父节点的链路。
24、根据权利要求23所述的设备,其特征在于,存储顺序是以下方案之一:深度优先方案,宽度优先方案,或者所述方案的组合。
25、根据权利要求23或24所述的设备,其特征在于,该设备应用文本-音素映射,其中所述数据包括诸如字母和音素的元素,其中判定树用于一个字母,以及节点包括所述字母的音素。
26、根据权利要求23-25之一所述的设备,其特征在于,该设备还包括语言识别系统。
27、根据权利要求23-26之一所述的设备,其特征在于,该设备还包括用于电信的装置。
28、一种树形数据结构,由父节点和至少一个叶节点组成,其中所述节点包括可搜索数据,其特征在于:以节点按照存储顺序跟随父节点的这样一种方式顺序地定位这些节点,其中精选可搜索数据的上下文的节点是可达的而没有来自其父节点的链路。
29、根据权利要求28所述的树形数据结构,其特征在于,以以下方式之一表示节点的数据:可变或固定或霍夫曼编码的二进制数字。
30、根据权利要求28或29所述的树形数据结构,其特征在于,所述结构由文本-音素映射利用,其中判定树包括一个字母的信息,其中节点包括其音素的信息。
31、根据权利要求28-30之一所述的树形数据结构,其特征在于,节点包括有关该字母的周围字母的信息。
32、一种计算机程序产品,包括计算机存储媒体和写在计算机存储媒体上用于利用存储在所述存储媒体中的树形数据结构的计算机可读代码,所述树形数据结构包括父节点和至少一个叶节点,其中所述计算机可读代码包括用于从所述节点搜索内容的指令,其特征在于:该计算机可读代码具有用于以节点按照存储顺序跟随父节点的这样一种方式顺序地安排节点的指令,其中精选可搜索数据的上下文的节点是可达的而没有来自其父节点的链路。
CN2004800115762A 2003-04-30 2004-04-22 低速存储器判定树 Expired - Fee Related CN1781102B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FI20035055A FI118062B (fi) 2003-04-30 2003-04-30 Pienimuistinen päätöspuu
FI20035055 2003-04-30
PCT/FI2004/050044 WO2004097673A1 (en) 2003-04-30 2004-04-22 Low memory decision tree

Publications (2)

Publication Number Publication Date
CN1781102A true CN1781102A (zh) 2006-05-31
CN1781102B CN1781102B (zh) 2010-05-05

Family

ID=8566389

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2004800115762A Expired - Fee Related CN1781102B (zh) 2003-04-30 2004-04-22 低速存储器判定树

Country Status (8)

Country Link
US (1) US7574411B2 (zh)
EP (1) EP1618498B1 (zh)
KR (2) KR20060016758A (zh)
CN (1) CN1781102B (zh)
AT (1) ATE442642T1 (zh)
DE (1) DE602004023072D1 (zh)
FI (1) FI118062B (zh)
WO (1) WO2004097673A1 (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101950307A (zh) * 2010-09-26 2011-01-19 福建南威软件工程发展有限公司 一种面向用户资源的自定义机制
CN101276367B (zh) * 2007-03-30 2012-08-08 西门子信息技术解决方案及服务有限责任公司 用于在数据存储器上数字地存储数据的方法
CN108027764A (zh) * 2015-10-30 2018-05-11 桑迪士克科技有限责任公司 可转换的叶的存储器映射
CN110555205A (zh) * 2018-05-31 2019-12-10 北京京东尚科信息技术有限公司 否定语义识别方法及装置、电子设备、存储介质

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7421453B2 (en) * 2005-08-16 2008-09-02 International Business Machines Corporation Asynchronous linked data structure traversal
KR100748720B1 (ko) 2006-02-09 2007-08-13 삼성전자주식회사 다중 계층 중심 어휘 목록에 기초하여 대규모 단어 음성인식 방법 및 그 장치
JP4379894B2 (ja) * 2006-11-28 2009-12-09 株式会社エスグランツ カップルドノードツリーの分割/結合方法及びプログラム
US8200609B2 (en) * 2007-08-31 2012-06-12 Fair Isaac Corporation Construction of decision logic with graphs
US8266090B2 (en) * 2007-08-31 2012-09-11 Fair Isaac Corporation Color-coded visual comparison of decision logic
US8280836B2 (en) * 2008-09-08 2012-10-02 Fair Isaac Corporation Converting unordered graphs to oblivious read once ordered graph representation
US8730241B2 (en) * 2008-09-08 2014-05-20 Fair Isaac Corporation Techniques for drawing curved edges in graphs
JP2010152081A (ja) * 2008-12-25 2010-07-08 Toshiba Corp 話者適応装置及びそのプログラム
GB2473197A (en) 2009-09-02 2011-03-09 Nds Ltd Advert selection using a decision tree
JP5032602B2 (ja) * 2010-01-21 2012-09-26 株式会社東芝 認識装置
US8543517B2 (en) 2010-06-09 2013-09-24 Microsoft Corporation Distributed decision tree training
US9171264B2 (en) 2010-12-15 2015-10-27 Microsoft Technology Licensing, Llc Parallel processing machine learning decision tree training
US8488888B2 (en) 2010-12-28 2013-07-16 Microsoft Corporation Classification of posture states
US9589005B2 (en) * 2011-04-04 2017-03-07 Texas Instruments Incorporated Method, system and computer program product for storing a decision tree
US10671841B2 (en) 2011-05-02 2020-06-02 Microsoft Technology Licensing, Llc Attribute state classification
US9280575B2 (en) * 2012-07-20 2016-03-08 Sap Se Indexing hierarchical data
US9336192B1 (en) * 2012-11-28 2016-05-10 Lexalytics, Inc. Methods for analyzing text
CN103854643B (zh) * 2012-11-29 2017-03-01 株式会社东芝 用于合成语音的方法和装置
US9305036B2 (en) 2014-03-27 2016-04-05 International Business Machines Corporation Data set management using transient data structures
US10108608B2 (en) * 2014-06-12 2018-10-23 Microsoft Technology Licensing, Llc Dialog state tracking using web-style ranking and multiple language understanding engines
US10339465B2 (en) * 2014-06-30 2019-07-02 Amazon Technologies, Inc. Optimized decision tree based models
US20160063099A1 (en) * 2014-08-29 2016-03-03 Lexmark International Technology, SA Range Map and Searching for Document Classification
US10997083B2 (en) * 2018-09-04 2021-05-04 Arm Limited Parallel page table entry access when performing address translations
KR20210033258A (ko) 2019-09-18 2021-03-26 삼성전자주식회사 시퀀스 처리 방법 및 장치

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4571679A (en) * 1983-09-06 1986-02-18 The United States Of America As Represented By The Secretary Of The Navy Fault tree data array
US5033087A (en) * 1989-03-14 1991-07-16 International Business Machines Corp. Method and apparatus for the automatic determination of phonological rules as for a continuous speech recognition system
US5530957A (en) 1992-08-07 1996-06-25 At&T Corp. Storing trees in navigable form
GB2277387A (en) * 1993-04-21 1994-10-26 Ibm Natural language processing system
US5619615A (en) * 1994-07-22 1997-04-08 Bay Networks, Inc. Method and apparatus for identifying an agent running on a device in a computer network
US6163769A (en) 1997-10-02 2000-12-19 Microsoft Corporation Text-to-speech using clustered context-dependent phoneme-based units
KR100509797B1 (ko) * 1998-04-29 2005-08-23 마쯔시다덴기산교 가부시키가이샤 결정 트리에 의한 스펠형 문자의 복합 발음 발생과 스코어를위한 장치 및 방법
US6411957B1 (en) * 1999-06-30 2002-06-25 Arm Limited System and method of organizing nodes within a tree structure

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101276367B (zh) * 2007-03-30 2012-08-08 西门子信息技术解决方案及服务有限责任公司 用于在数据存储器上数字地存储数据的方法
CN101950307A (zh) * 2010-09-26 2011-01-19 福建南威软件工程发展有限公司 一种面向用户资源的自定义机制
CN101950307B (zh) * 2010-09-26 2012-10-10 南威软件股份有限公司 一种面向用户资源的自定义方法
CN108027764A (zh) * 2015-10-30 2018-05-11 桑迪士克科技有限责任公司 可转换的叶的存储器映射
CN108027764B (zh) * 2015-10-30 2021-11-02 桑迪士克科技有限责任公司 可转换的叶的存储器映射
CN110555205A (zh) * 2018-05-31 2019-12-10 北京京东尚科信息技术有限公司 否定语义识别方法及装置、电子设备、存储介质
CN110555205B (zh) * 2018-05-31 2024-04-19 北京京东尚科信息技术有限公司 否定语义识别方法及装置、电子设备、存储介质

Also Published As

Publication number Publication date
EP1618498B1 (en) 2009-09-09
FI20035055A (fi) 2004-10-31
KR20070094984A (ko) 2007-09-27
DE602004023072D1 (de) 2009-10-22
CN1781102B (zh) 2010-05-05
US7574411B2 (en) 2009-08-11
KR20060016758A (ko) 2006-02-22
FI118062B (fi) 2007-06-15
KR100883577B1 (ko) 2009-02-13
WO2004097673A1 (en) 2004-11-11
EP1618498A1 (en) 2006-01-25
US20040267785A1 (en) 2004-12-30
ATE442642T1 (de) 2009-09-15
FI20035055A0 (fi) 2003-04-30

Similar Documents

Publication Publication Date Title
CN1781102A (zh) 低速存储器判定树
CN1169116C (zh) 语音识别装置和识别方法
CN1143263C (zh) 识别有调语言的系统和方法
CN1296886C (zh) 语音识别系统和方法
CN1157712C (zh) 语音识别方法和装置
CN1168068C (zh) 语音合成系统与语音合成方法
CN1652107A (zh) 语言变换规则产生装置、语言变换装置及程序记录媒体
CN1573926A (zh) 用于文本和语音分类的区别性语言模型训练
CN1871597A (zh) 利用一套消歧技术处理文本的系统和方法
CN1741132A (zh) 口头发音检索所用的基于格点搜索的系统和方法
CN101065746A (zh) 文件自动丰富的方法和系统
CN1667700A (zh) 使用发音图表来改进新字的发音学习
CN1542649A (zh) 自然语言生成系统中用于句子实现中排序的成分结构的语言信息统计模型
CN1573924A (zh) 语音识别设备、语音识别方法、会话控制设备以及会话控制方法
CN101042867A (zh) 语音识别设备和方法
CN1869976A (zh) 通过执行不同语言之间的翻译来支持交流的装置和方法
CN1692405A (zh) 语音处理设备、语言处理方法、存储介质及程序
CN1771494A (zh) 包括无分隔符的块的文本的自动分块
CN1223985C (zh) 语音识别置信度评价方法和系统及应用该方法的听写装置
CN1224954C (zh) 含有固定和可变语法块的语言模型的语音识别装置
CN1499484A (zh) 汉语连续语音识别系统
Feng et al. Towards inclusive automatic speech recognition
CN1158621C (zh) 信息处理装置、信息处理方法
CN1159701C (zh) 执行句法置换规则的语音识别装置
CN1270687A (zh) 在语言识别中通过计算机来确定至少两个单词的序列出现概率的方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
C41 Transfer of patent application or patent right or utility model
TR01 Transfer of patent right

Effective date of registration: 20160119

Address after: Espoo, Finland

Patentee after: Technology Co., Ltd. of Nokia

Address before: Espoo, Finland

Patentee before: Nokia Oyj

CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20100505

Termination date: 20170422

CF01 Termination of patent right due to non-payment of annual fee