CN100535890C - 以arpa标准格式表示经删除插值n字母语言模型 - Google Patents

以arpa标准格式表示经删除插值n字母语言模型 Download PDF

Info

Publication number
CN100535890C
CN100535890C CNB2005100601536A CN200510060153A CN100535890C CN 100535890 C CN100535890 C CN 100535890C CN B2005100601536 A CNB2005100601536 A CN B2005100601536A CN 200510060153 A CN200510060153 A CN 200510060153A CN 100535890 C CN100535890 C CN 100535890C
Authority
CN
China
Prior art keywords
interpolation
order
probability
letter
word sequence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CNB2005100601536A
Other languages
English (en)
Other versions
CN1673997A (zh
Inventor
A·阿赛罗
C·切尔巴
M·马哈间
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Technology Licensing LLC
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of CN1673997A publication Critical patent/CN1673997A/zh
Application granted granted Critical
Publication of CN100535890C publication Critical patent/CN100535890C/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F7/00Methods or arrangements for processing data by operating upon the order or content of the data handled
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models
    • G10L15/19Grammatical context, e.g. disambiguation of the recognition hypotheses based on word sequence rules
    • G10L15/197Probabilistic grammars, e.g. word n-grams

Abstract

提供一种用于把经删除插值语言模型的参数存储为后退语言模型的参数的方法和装置。特别地,以标准ARPA格式存储经删除插值语言模型的参数。在一实施例中,使用分数计数形成经删除插值语言模型的参数。

Description

以ARPA标准格式表示经删除插值N字母语言模型
技术领域
本发明涉及语言模型,尤其涉及用于存储语言模型的存储格式。
背景技术
本发明涉及语言模型,尤其涉及用于存储语言模型的存储格式。
语言模型提供字序列的概率。这种模型通过对训练数据中字序列的频度计数从一训练数据集中训练而得。这种方式的训练语言模型的一个问题是,即使未在训练数据中观察到的字序列可能在该语言中出现,它们在该语言模型中仍将具零概率。
为了克服这一点,已经开发了后退建模(back-off modeling)技术。在后退建模技术中,如果在训练数据中未找到N个字的序列,使用N-1字序列的概率和后退权重来估算该字序列的概率。例如,如果在训练数据中未观察到三个字母(wN-2wN-1wN),使用两个字母(wN-1wN)的概率和与上下文(wN-2wN-1)相关联的后退权重来估算其概率。
使用后退技术的N字母语言模型通常存储在称为ARPA标准格式的标准格式中。由于后退语言模型的流行,ARPA格式已成为用于传送语言模型的被认可标准。然而,并不是所有语言模型都具有后退权重。特别地,经删除插值N字母模型就没有后退权重,因为它们使用用于处理与语言模型相关联的数据稀疏问题的不同技术。结果,经删除插值语言模型没有用标准ARPA格式存储。正因为此,将经删除插值语言模型集成到期望接收ARPA格式语言模型的语言系统中并不容易。
发明内容
提供一种用于把经删除插值语言模型的参数存储为后退语言模型的参数的方法和装置。特别地,以标准APRA格式存储经删除插值语言模型的参数。在一实施例中,使用分数计数形成经删除插值语言模型参数。
根据本发明一方面,提供了一种用于存储经删除插值语言模型的参数的方法,所述方法包括:获取所述经删除插值语言模型的一参数集,所述参数集包括插值权重、经插值概率和相对频率,所述相对频率是字序列在训练文本中的出现次数与字序列上下文在训练文本中的出现次数的比率;把所述经删除插值语言模型的插值权重存储为后退语言模型的后退权重并且把所述经插值概率存储为后退语言模型概率,所述插值权重和所述经插值概率以ARPA格式被存储;其中存储字序列的经插值概率包括:在把所述经插值概率存储为后退语言模型概率之前确定字序列的相对频率是否比阈值大。
附图说明
图1是本发明可在其中实现的一般计算环境的框图。
图2是现有技术中经删除插值N字母语言模型的图表。
图3是现有技术中用于训练经删除插值N字母语言模型的训练系统框图。
图4是现有技术中用于训练经删除插值N字母语言模型的流程图。
图5是使用现有技术的后退语言模型用于确定概率的流程图。
图6是在现有技术中用于存储后退语言模型的ARPA标准格式的布局。
图7是用于以ARPA标准格式存储经删除插值N字母语言模型的流程图。
具体实施方式
图1示出了本发明可在其上实现的适当的计算系统环境100的示例。该计算系统环境100仅是适当计算环境的一个示例,并非旨在提出对本发明使用或功能性范围作任何限制。计算环境100也不应被解释为对示例性操作环境100中所示的任一组件或其组合有任何依赖性或任何需求。
本发明也可在很多其它通用或专用计算系统环境或配置中使用。适于本发明使用的众所周知的计算系统、环境、和/或配置的示例包括,但不限于,个人计算机、服务器计算机、手持式或膝上型装置、多处理器系统、基于微处理器的系统、机顶盒、可编程消费品电器、网络PC、迷你计算机、大型机、电话系统、包括任一种以上系统或设备的分布式计算环境等等。
本发明可以计算机可执行指令的一般上下文进行说明,诸如由计算机执行的程序模块。一般而言,程序模块包括执行具体任务或实现具体抽象数据结构的例程、程序、对象、组件、数据结构等等。本发明还可在任务由经通信网络连接的远程处理设备执行的分布式计算环境中实践。在分布式计算环境中,程序模块可置于包括存储器存储设备的本地和远程计算机存储介质中。
参照图1,实现本发明的示例性系统包括以计算机110形式的通用计算设备。计算机110的组件可包括,但不限于,处理单元120、系统存储器130以及把包括系统存储器在内的各种系统组件耦合到处理单元120的系统总线121。系统总线121可能是若干总线结构类型中的任何一种,包括存储器总线或存储器控制器、外围总线、以及使用多种总线架构的任一种的本地总线。作为示例,而非限制,这些架构包括工业标准架构(ISA)总线、微信道架构(MCA)总线、扩展ISA(EISA)总线、视频电子标准协会(VESA)局部总线和也称为MezzaNiNe总线的外围部件互连(PCI)总线。
计算机110通常包括各种计算机可读介质。计算机可读介质可以是能被计算机110访问的任何可用介质,并包括易失性和非易失性介质、可移动和不可移动介质。作为示例,而非限制,计算机可读介质可包括计算机存储介质和通信介质。计算机存储介质包括以任何方法或技术实现、用于存储诸如计算机可读指令、数据结构、程序模块或其它数据等信息的易失性和非易失性介质、可移动和不可移动介质。计算机存储介质包括但不限于RAM、ROM、EEPROM、闪存或其它存储器技术、CD-ROM、数字化多功能光盘(DVD)或其它光学存储技术、磁卡、磁带、磁盘存储或其它磁性存储设备、或任何其它可用于存储所需信息并可由计算机110访问的介质。通信介质通常在诸如载波或其它传输机制的调制数据信号中体现计算机可读指令、数据结构、程序模块、或其它数据,且包括任何信息输送介质。术语“调制数据信号”意指在信号中用对信息编码方式设置或改变其一个或多个特征的信号。作为示例,而非限制,通信介质包括诸如有线网络或直线连接的有线介质,和诸如声学、射频、红外线和其它无线介质的无线介质。以上任何介质的组合也应包括在计算机可读介质的范围中。
系统存储器130包括诸如只读存储器(ROM)131和随机存取存储器(RAM)132的易失性和/或非易失性存储器形式的计算机可读介质。包含有助于计算机110如起动时在元件间传送信息的基本例程的基本输入/输出系统(BIOS)133通常存储在ROM 131中。RAM 132通常包含可被处理单元120立即访问和/或当时正被操作的数据和/或程序模块。作为示例,而非限制,图1示出了操作系统134、应用程序135、其它程序模块136、和程序数据137。
计算机110还可包括其它可移动/不可移动、易失性/非易失性计算机存储介质。作为示例,图1图示了读取和写入不可移动、非易失性磁性介质的硬盘驱动器141,读取和写入可移动、非易失性磁盘152的磁盘驱动器151,读取和写入可移动、非易失性光盘156,诸如CD-ROM或其它光学介质的光盘驱动器155。其它也用在示例性计算环境中的可移动/不可移动、易失性/非易失性计算机存储介质包括,但不限于,如磁带、闪存卡、数字化视频光盘、数字化录像带、固态RAM、固态ROM等等。硬盘驱动器141通常通过诸如接口140的不可移动存储器接口与系统总线121连接,而磁盘驱动器151和光盘驱动器155通常通过诸如接口150的可移动存储器接口与系统总线121连接。
如上所述并如图1所示的盘驱动器及其相关联的计算机存储介质为计算机110提供计算机可读指令、数据结构、程序模块、和其它数据的存储。在图1中,例如,硬盘驱动器141被示为存储操作系统144、应用程序145、其它程序模块146、和程序数据147。注意这些组件可以与操作系统134、应用程序135、其它程序模块136、和程序数据137相同或不同。在此给予操作系统144、应用程序145、其它程序模块146、和程序数据147的数字不同至少说明他们是不同的副本。
用户可通过输入装置如键盘162、话筒163和诸如鼠标、跟踪球或触摸板等定位装置161向计算机110输入命令和信息。其它输入装置(未示出)可包括话筒、游戏杆、游戏垫、卫星接收器、扫描仪、无线电接收器、或电视或广播视频接收器等等。这些和其它输入设备常常通过与系统总线耦合的用户输入接口160与处理单元120相连,但也可通过诸如并行端口、游戏端口或通用串行总线(USB)的其它接口连接。监视器191或其它类型的显示设备也可通过诸如视频接口190的接口与系统总线121相连。除了监视器,计算机还可包括诸如扬声器197和打印机196的其它输出设备,它们通过输出外围接口195相连。
计算机110可以在使用与一台或多台远程计算机,诸如远程计算机180的逻辑连接的网络化环境中运行。远程计算机180可以是个人计算机、服务器、路由器、网络PC、对等装置或其它公共网络节点,而且通常包括上述与个人计算机110相关的许多或全部组件,尽管在图1中仅图示了存储器存储设备181。图1中所描绘的逻辑连接包括局域网(LAN)171和广域网(WAN)173,但也可包括其它网络。这样的网络化环境在办公室、企业范围计算机网络、企业内部互联网和因特网上是常见的。
当用于LAN网络化环境中时,计算机110通过网络接口或适配器170与局域网171连接。当用于WAN网络化环境中时,计算机110通常包括调制解调器172或其它用于在广域网173,诸如因特网中建立通信的装置。可以是内置式或外置式的调制解调器172与系统总线121通过用户输入接口160或其它适当机制连接。在网络化环境中,与计算机110相关的程序模块或其一部分可存储在远程存储器存储装置中。作为示例,而非限制,图1示出了驻留于远程计算机180中的远程应用程序185。应当理解,所示网络连接是示例性的,且其它用于在计算机间建立通信连接的技术也可以使用。
本发明提供一种用于存储通过标准ARPA格式的经删除插值而产生的语言模型的技术。在经删除插值中,N字母概率被确定为对于N字母概率和低阶N字母概率的相关概率估算的线性插值。类似地,低阶N字母的概率被定义为低阶N字母概率和下一低阶N字母概率的相对频率概率估算之间的插值。这一直继续到确定单字母概率。因而,插值根据以下等式递归地确定:
P(vk|vk-(n-1)...vk-1)=(1-λn-1(vk-(n-1)...vk-1))f(vk|vk-(n-1)...vk-1)+等式1
λn-1(vk-(n-1)...vk-1)P(vk|vk-(n-2)...vk-1)
其中P(vk|vk-(n-1)...vk-1)是N字母的概率,λn-1(vk-(n-1)...vk-1)是作为N字母上下文vk-(n-1)...vk-1的函数的插值权重,f(vk|vk-(n-1)...vk-1)是N字母的相对频率(N字母在训练文本中的出现次数比N字母上下文在训练文本中的出现次数),以及P(vk|vk-(n-2)...vk-1)是下一低阶N字母的概率,它使用带有是低阶N字母上下文函数的权重λn-2(vk-(n-2)...vk-1)的等式1来递归确定。等式1的递归以被确定为以下等式的单字母概率结束:
P ( v k ) = ( 1 - λ 0 ) f ( v k ) + λ 0 1 | V | 等式2
其中P(vk)是单字母概率,λ0是单字母插值权重,f(vk)是单字母vk的相对频率(单字母在训练文本中的出现次数与训练文本中字数的比率),以及是词汇表中字数的|V|,它作为缺省的单字母概率。
使用等式1和2的递归,N字母的概率变成了在感兴趣的N字母之下的不同阶N字母相对频率的插值。例如,对于三字母,递归插值引入:
P ( v k | v k - 2 v k - 1 ) = ( 1 - λ 2 ( v k - 2 v k - 1 ) ) f ( v k | v k - 2 v k - 1 ) +
λ 2 ( v k - 2 v k - 1 ) ( 1 - λ 1 ( v k - 1 ) ) f ( v k | v k - 1 ) +
λ 2 ( v k - 2 v k - 1 ) λ 1 ( v k - 1 ) ( 1 - λ 0 ) f ( v k ) +
λ 2 ( v k - 2 v k - 1 ) λ 1 ( v k - 1 ) λ 0 1 | V | 等式3
其中
P(vk|vk-2vk-1)是三字母概率,f(vk|vk-2vk-1)是在训练文本中三字母的相对频率,f(vk|vk-1)是在训练文本中双字母的相对频率,f(vk)是在训练文本中单字母的相对频率,|V|是语言模型中的词汇表字数,以及λ2,λ1,λ0是上下文相关的插值权重。
在某些实施例中,用于确定相对频率的计数并不限于整数值,且可包括被计算为计数期望值的分数值。这是经删除插值优于诸如Katz后退方法的不能在分数计数(实数)上使用的其它后退方法的一个优点。
图2提供了使用经删除插值的N字母概率计算的图形表示。在图2中,线条之间的交点表示用于N字母的概率插值。例如,在节点200确定单字母概率而在节点220确定N字母的概率。在每个节点上,加权的相对频率被添加到较低阶节点确定的加权概率上。
例如,从节点200开始,经插值单字母概率被确定为单字母相对频率202和缺省单字母概率204的加权和,其中权重206(1-λ0)应用于相对频率202而权重208(λ0)应用于缺省单字母概率204。
下一较高阶节点210上的概率是双字母相对频率212和节点204的三字母概率的加权和。是双字母上下文函数的权重214(λ1(vk-1))应用于节点204的单字母概率,而权重216(1-λ1(vk-1))应用于相对频率212。
该递归加法继续往上,直到抵达N字母概率的节点220。对于节点220确定的概率是在节点222上确定的下一低阶N字母概率和N字母相对频率224的加权和,其中应用于低阶概率的权重226是λ(n-1)(vk-(n-1)...vk-1)而应用于相对频率的权重228是1-λ(n-1)(vk-(n-1)...vk-1),它们都依赖于N字母上下文。
如图2所示,为了确定N字母的概率,必须确定低阶N字母的相对频率和该上下文的权重。图3和4提供了用于确定这些值的框图和流程图。
在图4的步骤400中,训练文本300被拆分成主要部分302和检查部分304。在步骤402,相对频率计数器306把主要部分302解析成从单字母到感兴趣的最高N字母的变化阶N字母。然后相对频率计数器306在N字母的每一阶上对每个N字母的相对频率进行计数。这在N字母的每一阶上对于每个N字母产生了一组N字母相对频率计数组308。
在步骤404,相对频率308应用于EM训练器310,它使用最大化期望算法以设置权重λn-1...λ0的值,使所有最高阶N字母的总概率最大化从而:
[ λ n - 1 . . . λ 0 ] = arg ma x λ n - 1 . . . λ 0 Π i P ( v k | v k - ( n - 1 ) . . . v k - 1 , λ n - 1 . . . λ 0 ) i 等式4
其中[λn-1...λ0]是使最高阶N字母的概率最大的一组权重,而总概率是每个第i阶N字母的单独概率的乘积,其中每个单独概率使用等式1和2的递归插值进行计算。
如上所述,权重是用以确定的N字母上下文概率的函数。为了中和数据稀疏(可导致不可靠估算)同时减少EM训练的计算复杂性,这些权重基于上下文的频率计数被组合成桶(bucket)。在一实施例中,频率计数的范围被组合到相同权重中。因而,一个λn-1可用于见到16到32次之间的上下文,而一个λn-1可用于见到33到64次之间的上下文。这导致了需要被训练的较小权重集以及需要由于训练的较小训练文本集。
注意因为权重是针对检查数据304进行最大化,在检查数据304中将有在主要数据302中未观察到的N字母。因而,权重被设置以预期未看到的数据。
在某些实施例中,训练文本300可以不同方式进行分段,且对于文本新的分组可重新确定相对频率计数。然后这些新的频率计数可应用于EM训练器310以重新确定权重的值。当重新确定权重的值时,算法从估算在前次迭代中确定的权重开始。这种迭代可重复直到权重达到稳定值。在已形成预期迭代次数后,在步骤406权重集312和最终的相对频率计数集308一起存储为经删除插值模型314。通过把文本解析成不同阶N字母、搜索每个上下文的适当权重、以及使用等式1和2执行经插值概率的计算,可使用该经删除插值模型来确定用于新文本的概率。
由等式1和2表示的插值与通常以标准ARPA格式表示的被更广泛接受的后退语言模型有着实质上的不同。与使用线性插值以确定N字母的概率相反,更广泛接受的后退语言模型使用不能在模型中确定的任何N字母的替代概率。该替代概率基于低阶模型和与不能确定的概率的上下文相关联的后退权重。因而,更标准的后退语言模型不执行插值,而仅以低阶N字母概率替换N字母概率。
图5提供了使用现有技术的后退模型用于确定N字母概率的方法的流程图。在图5的步骤500,执行搜索以确定N字母的概率是否可在后退语言模型中确定。如果该N字母的概率存在,概率在步骤502返回。如果在步骤500未找到N字母概率,在步骤504确定与N字母上下文相关联的后退权重。在步骤506,执行搜索以确定后退语言模型是否包括下一低阶N字母的概率。例如,如果最高阶N字母是三字母,步骤506将搜索双字母的概率。如果在步骤506得不到下一低阶N字母的概率,过程返回到步骤504以确定下一低阶N字母上下文的后退权重。例如双字母上下文的后退权重。然后过程返回到步骤506以搜索下一低阶N字母的概率。因而,如果先前已在步骤506上对双字母概率进行了搜索,单字母概率将在返回步骤506之后搜索。
一旦在步骤506上得到了N字母的概率,该概率将乘以在步骤504到506之间的迭代中遇到的所有后退权重,以在步骤508形成N字母的概率。
如图5所示,为了使用标准后退语言模型来计算N字母的语言模型概率,必须搜索各阶N字母的概率以及那些N字母上下文的后退权重。后退语言模型的标准ARPA格式提供一种标准格式,它使同样的搜索算法不管使用哪种特定后退语言模型都能被用来得到必需概率和后退权重。例如,如果两个供应商提供两个独立的ARPA格式后退语言模型,可使用相同的代码来确定来自两种语言模型的概率。
图6提供了用于后退语言模型的标准ARPA格式布局的图表。在图6中,标准格式包括标题标记600和结束标记602。在标题标记600下面是包括每阶N字母的独立条目的列表604。每个条目指示在该语言模型中存在的该阶N字母的N字母数量。例如,条目606指示有N1个单字母而条目608指示有NN个N字母。
在列表604下面是一组分段,每一分段用于每阶N字母。每个分段以独立标记开头,诸如单字母的标记610、双字母的标记612、以及N字母的标记614,其中N是该语言模型中N字母的最高阶。
在N字母不同阶的每个标题下面,是该阶每个N字母一个的条目列表。每个条目包括N字母概率、N字母、以及对于与最高阶不同阶的N字母的后退权重。例如,在单字母标题610下面,条目618包括单字母620的概率622以及后退权重616。注意后退权重616与被用作双字母中上下文时的字620相关联。类似地,在双字母标题612下面的条目624包括由字v1v2组成的双字母628的双字母概率626以及与被用作三字母中上下文时的字v1v2相关联后退权重630。通常,概率和后退权重以底数为10的对数格式存储。
对于最高阶N字母标题614下的条目而言,没有后退权重。因而,对于条目632仅有概率634和N字母v1...vN 636。
比较图2和图6,并不清楚诸如图2所示的插值模型是否能以图6的标准ARPA格式存储。图7提供了在本方面一实施例中用于以标准ARPA格式存储经删除插值模型的方法的流程图。
在图7的步骤700中,确定经删除插值模型的相对频率和权重λ。在步骤702选择L字母集的最高阶,其中1<L<N,N为最高阶。在步骤704,选择选定阶的L字母,并在步骤706确定选定L字母的相对频率是否大于0。如果大于0,使用等式1计算L字母的插值概率并以标准格式将其存储为L字母概率。例如,图6最高阶标题614下面的条目将用诸如概率634的被设定为与L字母的经插值概率相等的概率创建,而L字母本身将被置于诸如图6的字段636的L字母字段中。
如果L字母的相对频率未大于0,则L字母的概率不以标准ARPA格式存储。
当已在步骤708存储L字母的概率后,或者已确定L字母的相对频率未大于0之后,方法在步骤710确定是否还要考虑更多的L字母用于L字母的最高阶。如果有更多L字母要考虑,过程返回到步骤704并选择下一L字母。然后对整个新的L字母重复步骤706和708。重复步骤704、706、708和710直到已处理了所有最高阶的L字母。
一旦已在步骤710处理了所有用于L字母最高阶的L字母,方法在步骤712确定正在处理的L字母的当前阶是否大于0。如果当前正在处理的L字母的阶>0,阶数减一以移到步骤714上的下一低阶。然后在步骤716选择该下一低阶的L字母。
在步骤718,检查选定L字母的相对频率以确定它是否大于0。如果它不大于0,过程在步骤720继续,其中检查先前存储在ARPA文件中的高阶L字母,以确定当前L字母是否是高阶L字母之一的上下文。如果在步骤720发现该L字母是高阶L字母的上下文,或者在步骤718L字母的相对频率大于0,则在步骤722L字母的经插值概率存储为ARPA文件中L字母的概率,而作为经删除插值模型中L字母的函数的λ被存储为L字母的后退权重。例如,如果λ是L字母相对频率的函数,则与当前L字母相对频率相关联的λ被存储为后退权重。例如,如果L字母是双字母v1v2,与双字母相关联的具有与v1v2相对频率相等的相对频率的权重被用作双字母v1v2的后退权重,而经插值概率被用作双字母v1v2的概率。
因而,如果L字母的相对频率大于0(即它在训练数据中可见),以及如果它作为高阶L字母的上下文显现,则存储L字母。通过限制被存储的L字母为符合这些标准的那些L字母,本发明的该实施例创建了后退格式的紧凑型语言模型。
如果L字母的初始相对频率低于阈值时通过设定该相对频率为0确定了该相对频率,则尽管L字母在训练文本中具有相对频率为0该L字母可作为上下文出现。例如,如果L字母具有相对频率为0.02且阈值设为0.02,则L字母的相对频率将被设定为0。这样做就减少了插值模型的尺寸。
即使L字母具有0相对频率,如果它以高阶L字母出现为上下文,仍然存储该L字母的原因是因为该L字母出现为高阶L字母的上下文,在语言模型中将需要该上下文的后退权重。
在步骤722之后,或者如果在步骤718当前选定L字母并未具有大于0的相对频率,并且在步骤720并未被用作高阶L字母的上下文,则过程在步骤724确定是否还有更多当前阶的L字母。如果的确有更多当前阶的L字母,在步骤716选择下一L字母并重复步骤718、720、722和724。步骤716、718、720、722和724重复直到已处理选定阶的所有L字母。
当在步骤724没有更多当前阶的L字母时,过程返回到步骤712以确定该阶是否大于0。如果该阶大于0,在步骤714选择下一低阶且为新的低阶L字母重复步骤716-724。当在步骤712阶数不再大于0时,则已处理了所有阶的N字母且图7的方法在步骤726结束。
因而,图7的方法能够以ARPA后退标准格式表示经删除插值N字母模型。这使得通过经删除插值技术形成的语言模型能够集成到期望接收标准ARPA格式的语言系统中。
尽管已参照特定实施例描述了本发明,本领域技术人员将理解可在形式和细节上作改变,不背离本发明的精神和范围。

Claims (6)

1.一种用于存储经删除插值语言模型的参数的方法,其特征在于,所述方法包括:
获取所述经删除插值语言模型的一参数集,所述参数集包括插值权重、经插值概率和相对频率,所述相对频率是字序列在训练文本中的出现次数与字序列上下文在训练文本中的出现次数的比率;
把所述经删除插值语言模型的插值权重存储为后退语言模型的后退权重并且把所述经插值概率存储为后退语言模型概率,所述插值权重和所述经插值概率以ARPA格式被存储;其中为低于最高阶的字序列存储插值权重以及存储经插值概率包括:
确定低于最高阶的字序列的相对频率是否比阈值大;以及
如果低于最高阶的字序列的相对频率大于所述阈值,则把低于最高阶的字序列的插值权重存储为低于最高阶的字序列的后退权重并且存储低于最高阶的字序列的经插值概率;以及
其中为最高阶的字序列存储经插值概率包括:
确定最高阶的字序列的相对频率是否比阈值大;以及
如果最高阶的字序列的相对频率大于所述阈值,则存储最高阶的字序列的经插值概率。
2.如权利要求1所述的方法,其特征在于,所述相对频率基于具有分数值的频率计数来确定。
3.如权利要求1所述的方法,其特征在于,为低于最高阶的字序列存储插值权重以及存储经插值概率还包括:
确定低于最高阶的字序列是否形成了所述后退语言模型中较高阶字序列的上下文;以及
如果低于最高阶的字序列形成了所述后退语言模型中较高阶字序列的上下文
Figure C2005100601530002C1
把低于最高阶的字序列的插值权重存储为低于最高阶的字序列的后退权重并且存储低于最高阶的字序列的经插值概率。
4.如权利要求1所述的方法,其特征在于,存储所述插值权重还包括把与同一条目中所述插值权重相关联的字序列存储为所述插值权重。
5.如权利要求1所述的方法,其特征在于,获取所述经删除插值语言模型的一参数集包括训练一插值权重集。
6.如权利要求5所述的方法,其特征在于,训练一插值权重集包括为一个频率计数范围集中的每一个频率计数范围训练一独立的权重。
CNB2005100601536A 2004-03-26 2005-03-25 以arpa标准格式表示经删除插值n字母语言模型 Expired - Fee Related CN100535890C (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US10/810,254 2004-03-26
US10/810,254 US7406416B2 (en) 2004-03-26 2004-03-26 Representation of a deleted interpolation N-gram language model in ARPA standard format

Publications (2)

Publication Number Publication Date
CN1673997A CN1673997A (zh) 2005-09-28
CN100535890C true CN100535890C (zh) 2009-09-02

Family

ID=34862105

Family Applications (1)

Application Number Title Priority Date Filing Date
CNB2005100601536A Expired - Fee Related CN100535890C (zh) 2004-03-26 2005-03-25 以arpa标准格式表示经删除插值n字母语言模型

Country Status (7)

Country Link
US (1) US7406416B2 (zh)
EP (1) EP1580667B1 (zh)
JP (1) JP4974470B2 (zh)
KR (1) KR101120773B1 (zh)
CN (1) CN100535890C (zh)
AT (1) ATE496342T1 (zh)
DE (1) DE602005025955D1 (zh)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8700404B1 (en) * 2005-08-27 2014-04-15 At&T Intellectual Property Ii, L.P. System and method for using semantic and syntactic graphs for utterance classification
US20070078653A1 (en) * 2005-10-03 2007-04-05 Nokia Corporation Language model compression
US20080282154A1 (en) * 2006-09-11 2008-11-13 Nurmi Mikko A Method and apparatus for improved text input
US7774197B1 (en) 2006-09-27 2010-08-10 Raytheon Bbn Technologies Corp. Modular approach to building large language models
US8332207B2 (en) * 2007-03-26 2012-12-11 Google Inc. Large language models in machine translation
KR101537078B1 (ko) * 2008-11-05 2015-07-15 구글 인코포레이티드 사용자 정의 언어 모델들
US8798983B2 (en) * 2009-03-30 2014-08-05 Microsoft Corporation Adaptation for statistical language model
US8655647B2 (en) * 2010-03-11 2014-02-18 Microsoft Corporation N-gram selection for practical-sized language models
US9367526B1 (en) * 2011-07-26 2016-06-14 Nuance Communications, Inc. Word classing for language modeling
CN102982024B (zh) * 2011-09-02 2016-03-23 北京百度网讯科技有限公司 一种搜索需求识别方法及装置
CN102509549B (zh) * 2011-09-28 2013-08-14 盛乐信息技术(上海)有限公司 语言模型训练方法及系统
US9224386B1 (en) 2012-06-22 2015-12-29 Amazon Technologies, Inc. Discriminative language model training using a confusion matrix
US9292487B1 (en) * 2012-08-16 2016-03-22 Amazon Technologies, Inc. Discriminative language model pruning
US20150088511A1 (en) * 2013-09-24 2015-03-26 Verizon Patent And Licensing Inc. Named-entity based speech recognition
KR101509727B1 (ko) 2013-10-02 2015-04-07 주식회사 시스트란인터내셔널 자율학습 정렬 기반의 정렬 코퍼스 생성 장치 및 그 방법과, 정렬 코퍼스를 사용한 파괴 표현 형태소 분석 장치 및 그 형태소 분석 방법
US9400783B2 (en) * 2013-11-26 2016-07-26 Xerox Corporation Procedure for building a max-ARPA table in order to compute optimistic back-offs in a language model
US10311046B2 (en) * 2016-09-12 2019-06-04 Conduent Business Services, Llc System and method for pruning a set of symbol-based sequences by relaxing an independence assumption of the sequences

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US1940720A (en) * 1931-03-16 1933-12-26 Madsen Jens A Windfeld Water softener
US4096017A (en) * 1977-02-18 1978-06-20 H. C. Price Co. Method and article for forming field joints on pipe coated with thermoplastic material
US4111017A (en) * 1977-06-21 1978-09-05 The United States Of America As Represented By The United States Department Of Energy Manually operated coded switch
US5258909A (en) * 1989-08-31 1993-11-02 International Business Machines Corporation Method and apparatus for "wrong word" spelling error detection and correction
US5199464A (en) * 1989-12-28 1993-04-06 Interprovincial Pipe Line, Inc. Pipeline repair sleeve assembly having heat sink groove
US5267345A (en) * 1992-02-10 1993-11-30 International Business Machines Corporation Speech recognition apparatus which predicts word classes from context and words from word classes
IT1254723B (it) * 1992-03-18 1995-10-09 Snam Spa Procedimento perfezionato per gli interventi di riparazione di danni localizzati alle condotte mediante applicazione di corazze con una guaina protettiva interposta
EP0602296A1 (en) * 1992-12-17 1994-06-22 International Business Machines Corporation Adaptive method for generating field dependant models for intelligent systems
US5467425A (en) * 1993-02-26 1995-11-14 International Business Machines Corporation Building scalable N-gram language models using maximum likelihood maximum entropy N-gram models
JP2886121B2 (ja) * 1995-11-10 1999-04-26 株式会社エイ・ティ・アール音声翻訳通信研究所 統計的言語モデル生成装置及び音声認識装置
US5937384A (en) 1996-05-01 1999-08-10 Microsoft Corporation Method and system for speech recognition using continuous density hidden Markov models
US5722463A (en) * 1996-11-25 1998-03-03 Petro-Line Upgrading Services Ltd. External pipe reinforcing sleeve
CA2192620C (en) * 1996-12-11 2000-08-29 Gerald Henderson Pipe repair assembly
US6188976B1 (en) 1998-10-23 2001-02-13 International Business Machines Corporation Apparatus and method for building domain-specific language models
JP2000250583A (ja) * 1999-03-02 2000-09-14 Atr Interpreting Telecommunications Res Lab 統計的言語モデル生成装置及び音声認識装置
JP2000356997A (ja) 1999-06-15 2000-12-26 Atr Interpreting Telecommunications Res Lab 統計的言語モデル生成装置及び音声認識装置
JP2001142881A (ja) 1999-11-16 2001-05-25 Nippon Telegr & Teleph Corp <Ntt> 統計的言語モデル及びそれを用いた確率計算法

Also Published As

Publication number Publication date
EP1580667B1 (en) 2011-01-19
JP2005293580A (ja) 2005-10-20
US7406416B2 (en) 2008-07-29
CN1673997A (zh) 2005-09-28
KR20060044753A (ko) 2006-05-16
EP1580667A3 (en) 2007-10-10
DE602005025955D1 (de) 2011-03-03
EP1580667A2 (en) 2005-09-28
US20050216265A1 (en) 2005-09-29
KR101120773B1 (ko) 2012-03-23
JP4974470B2 (ja) 2012-07-11
ATE496342T1 (de) 2011-02-15

Similar Documents

Publication Publication Date Title
CN100535890C (zh) 以arpa标准格式表示经删除插值n字母语言模型
CN1667699B (zh) 为字母-声音转换生成有互信息标准的大文法音素单元
CN109697282B (zh) 一种语句的用户意图识别方法和装置
CN1542736B (zh) 用于将自然语言输入映射到大纲的系统和方法
US20180357225A1 (en) Method for generating chatting data based on artificial intelligence, computer device and computer-readable storage medium
CN101305362B (zh) 语音索引删减
CN100589179C (zh) 从文本中预测误词率的方法和设备
CN101283349B (zh) 用Golomb码压缩语言模型
US7860314B2 (en) Adaptation of exponential models
CN111523306A (zh) 文本的纠错方法、装置和系统
US20060277033A1 (en) Discriminative training for language modeling
CN111488462B (zh) 基于知识图谱的推荐方法、装置、设备及介质
US20080104056A1 (en) Distributional similarity-based models for query correction
US20060020448A1 (en) Method and apparatus for capitalizing text using maximum entropy
CN104854654A (zh) 用于使用搜索查询信息的言语识别处理的方法和系统
CN115062208B (zh) 数据处理方法、系统及计算机设备
CN102682017B (zh) 一种信息检索方法和系统
CN115455228A (zh) 一种多模态数据互检方法、装置、设备及可读存储介质
CN111460109A (zh) 摘要及对话摘要生成方法和装置
CN111143515B (zh) 文本匹配方法及装置
CN109902273B (zh) 关键词生成模型的建模方法和装置
CN113836308B (zh) 网络大数据长文本多标签分类方法、系统、设备及介质
CN110570877A (zh) 手语视频生成方法、电子设备及计算机可读存储介质
JP6261669B2 (ja) クエリ校正システムおよび方法
CN112735392B (zh) 语音处理方法、装置、设备及存储介质

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
ASS Succession or assignment of patent right

Owner name: MICROSOFT TECHNOLOGY LICENSING LLC

Free format text: FORMER OWNER: MICROSOFT CORP.

Effective date: 20150508

C41 Transfer of patent application or patent right or utility model
TR01 Transfer of patent right

Effective date of registration: 20150508

Address after: Washington State

Patentee after: Micro soft technique license Co., Ltd

Address before: Washington State

Patentee before: Microsoft Corp.

CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20090902

Termination date: 20210325