CN111415655B - 语言模型构建方法、装置及存储介质 - Google Patents
语言模型构建方法、装置及存储介质 Download PDFInfo
- Publication number
- CN111415655B CN111415655B CN202010087941.9A CN202010087941A CN111415655B CN 111415655 B CN111415655 B CN 111415655B CN 202010087941 A CN202010087941 A CN 202010087941A CN 111415655 B CN111415655 B CN 111415655B
- Authority
- CN
- China
- Prior art keywords
- model
- frame
- variable
- sentence
- language model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000010276 construction Methods 0.000 title claims abstract description 31
- 238000000034 method Methods 0.000 claims abstract description 21
- 238000010586 diagram Methods 0.000 claims description 48
- 238000004422 calculation algorithm Methods 0.000 claims description 25
- 238000006243 chemical reaction Methods 0.000 claims description 8
- 238000013499 data model Methods 0.000 abstract description 4
- 238000012545 processing Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 230000003993 interaction Effects 0.000 description 4
- 238000013473 artificial intelligence Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000006978 adaptation Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000013515 script Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
Landscapes
- Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Machine Translation (AREA)
Abstract
本公开揭示了一种语言模型构建方法、装置及存储介质,所述方法包括:通过获取的至少一个句式框架,确定框架模型,其中句式框架中包含至少一个变量元素和至少一个恒量元素,框架模型用来指示句式框架对应的语言模型,然后,根据获取的变量元素对应的数据,确定变量模型,其中变量模型用来指示变量元素对应的语言模型,最后将框架模型和变量模型进行结合,确定第一语言模型。通过上述方案,服务器可以通过构建框架模型和数据模型,组合得到第一语言模型,从而在保证了语料的全面性的前提下,提高了构建语言模型的效率。
Description
技术领域
本公开涉及人工智能技术领域,特别是涉及一种语言模型构建方法、装置及存储介质。
背景技术
如今,随着人工智能技术日益发展,为了使人工智能中的语音识别技术可以应用于更多的场景,需要存储大量的语料。
在相关技术中,为了适应特定领域的语音识别,需要构建的语言模型针对性的偏向于特定领域,在实际应用中,用户在特定领域中表达一个含义的语句可以有多种句式,一个句式可以表示不同的指令,比如,句式可以是“播放某歌手演唱的某歌曲”,其中歌手与歌曲的数量巨大,大量的句式语料需要使用脚本构造句式,从而生成大量的语料。
然而,相关技术中的方案,使用脚本生成固定一个句式的所有情况的语料,这种方案会导致生成的语料过多,生成语料的时间过长,从而导致构建语言模型的效率不高。
发明内容
本公开提供一种语言模型构建方法、装置及存储介质。所述技术方案如下:
根据本公开实施例的第一方面,提供了一种语言模型构建方法,其特征在于,所述方法包括:
根据获取的至少一个句式框架,确定框架模型,所述句式框架中包含至少一个变量元素和至少一个恒量元素,所述框架模型用来指示所述句式框架对应的语言模型;
根据获取的所述变量元素对应的数据,确定变量模型,所述变量模型用来指示所述变量元素对应的语言模型;
将所述框架模型和所述变量模型进行结合,确定第一语言模型。
可选的,所述根据获取的至少一个句式框架,确定框架模型,包括:
获取至少一个所述句式框架,将所述句式框架组合生成语料文本;
根据N-Gram语言模型算法,将所述语料文本对应的所述语言模型确定为所述框架模型;
将所述框架模型转换成框架模型的有限状态传感器FST图。
可选的,所述获取至少一个句式框架,生成语料文本,包括:
通过自定义编译输入的句式,获取至少一个所述句式框架;
和\或,
通过接收语音识别的句式,获取至少一个所述句式框架。
可选的,所述根据获取的所述变量元素对应的数据,确定变量模型,所述变量模型用来指示所述变量元素对应的语言模型,包括:
获取所述句式框架中的至少一个所述变量元素中的数据,生成至少一个数据文本;
根据N-Gram语言模型算法,将所述数据文本对应的所述语言模型确定为所述变量模型;
将所述变量模型转换成变量模型的有限状态传感器FST图。
可选的,所述将所述框架模型和所述变量模型进行结合,确定第一语言模型,包括:
将所述变量模型的FST图添加在所述框架模型的FST图中的变量元素的位置,确定所述第一语言模型的有限状态传感器FST图。
根据本公开实施例的第二方面,提供了一种语言模型构建装置,其特征在于,所述装置包括:
框架确定模块,用于根据获取的至少一个句式框架,确定框架模型,所述句式框架中包含至少一个变量元素和至少一个恒量元素,所述框架模型用来指示所述句式框架对应的语言模型;
变量确定模块,用于根据获取的所述变量元素对应的数据,确定变量模型,所述变量模型用来指示所述变量元素对应的语言模型;
模型确定模块,用于将所述框架模型和所述变量模型进行结合,确定第一语言模型。
可选的,所述框架确定模块,包括:
第一文本生成子模块,用于获取至少一个所述句式框架,将所述句式框架组合生成语料文本;
框架确定子模块,用于根据N-Gram语言模型算法,将所述语料文本对应的所述语言模型确定为所述框架模型;
第一模型转换子模块,用于将所述框架模型转换成框架模型的有限状态传感器FST图。
可选的,所述文本生成子模块,用于,
通过自定义编译输入的句式,获取至少一个所述句式框架;
和\或,
通过接收语音识别的句式,获取至少一个所述句式框架。
可选的,所述变量确定模块,包括:
第二文本生成子模块,用于获取所述句式框架中的至少一个所述变量元素中的数据,生成至少一个数据文本;
变量确定子模块,用于根据N-Gram语言模型算法,将所述数据文本对应的所述语言模型确定为所述变量模型;
第二模型转换子模块,用于将所述变量模型转换成变量模型的有限状态传感器FST图。
可选的,所述模型确定模块,包括:
模型确定子模块,用于将所述变量模型的FST图添加在所述框架模型的FST图中的变量元素的位置,确定所述第一语言模型的有限状态传感器FST图。
根据本公开实施例的第三方面,提供了一种语言模型构建装置,所述装置包括:
处理器;
用于存储所述处理器的可执行指令的存储器;
其中,所述处理器被配置为:
根据获取的至少一个句式框架,确定框架模型,所述句式框架中包含至少一个变量元素和至少一个恒量元素,所述框架模型用来指示所述句式框架对应的语言模型;
根据获取的所述变量元素对应的数据,确定变量模型,所述变量模型用来指示所述变量元素对应的语言模型;
将所述框架模型和所述变量模型进行结合,确定第一语言模型。
根据本公开实施例的第四方面,提供了一种计算机设备可读存储介质,所述计算机设备可读存储介质中包含可执行指令,所述可执行指令由处理器调用执行,以实现上述第一方面或者第一方面的任一可选方案所述的语言模型构建方法。
本公开的实施例提供的技术方案可以包括以下有益效果:
通过获取的至少一个句式框架,确定框架模型,其中句式框架中包含至少一个变量元素和至少一个恒量元素,框架模型用来指示句式框架对应的语言模型,然后,根据获取的变量元素对应的数据,确定变量模型,其中变量模型用来指示变量元素对应的语言模型,最后将框架模型和变量模型进行结合,确定第一语言模型。通过上述方案,服务器可以通过构建框架模型和数据模型,组合得到第一语言模型,从而在保证了语料的全面性的前提下,提高了构建语言模型的效率。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并于说明书一起用于解释本公开的原理。
图1是根据一示例性实施例示出的一种语言模型构建系统的示意图;
图2是根据一示例性实施例示出的一种语言模型构建方法的示意图;
图3是根据一示例性实施例示出的一种语言模型构建方法的流程图;
图4是根据另一示例性实施例示出的一种语言模型构建方法的流程图;
图5是图4所述实施例涉及的一种FST格式的框架模型示意图;
图6是图4所述实施例涉及的一种FST格式的变量模型示意图;
图7是图4所述实施例涉及的一种FST格式的第一语言模型示意图;
图8是根据一示例性实施例示出的一种语言模型构建装置的框图;
图9是根据一示例性实施例示出的一种计算机设备的结构示意图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。
应当理解的是,在本文中提及的“若干个”是指一个或者多个,“多个”是指两个或两个以上。“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。字符“/”一般表示前后关联对象是一种“或”的关系。
图1是根据一示例性实施例示出的一种语言模型构建系统的示意图。如图2所示,该系统包括服务器110和语音交互设备120。
可选的,服务器110和语音交互设备120之间可以通过有线或者无线网络相连。
其中,语音交互设备120可以接收语音,并且进行语音识别获得部分语料。
可选的,服务器110可以是一台服务器,或者服务器110可以是由若干台服务器构成的服务器集群,或者服务器110可以包含一个或多个虚拟化平台,或者服务器110也可以是一个云计算服务中心。
服务器110可以根据算法对数据进行获取与运算。
服务器110可以由一个或多个功能单元组成。
可选的,上述的无线网络或有线网络使用标准通信技术和/或协议。网络通常为因特网、但也可以是任何网络,包括但不限于局域网(Local Area Network,LAN)、城域网(Metropolitan Area Network,MAN)、广域网(Wide Area Network,WAN)、移动、有线或者无线网络、专用网络或者虚拟专用网络的任何组合)。在一些实施例中,使用包括超文本标记语言(Hyper Text Mark-up Language,HTML)、可扩展标记语言(Extensible MarkupLanguage,XML)等的技术和/或格式来代表通过网络交换的数据。此外还可以使用诸如安全套接字层(Secure Socket Layer,SSL)、传输层安全(Transport Layer Security,TLS)、虚拟专用网络(Virtual Private Network,VPN)、网际协议安全(Internet ProtocolSecurity,IPsec)等常规加密技术来加密所有或者一些链路。在另一些实施例中,还可以使用定制和/或专用数据通信技术取代或者补充上述数据通信技术。
图2是根据一示例性实施例示出的一种语言模型构建方法的示意图。如图2所示,该语言模型构建方法包括的步骤如下:
在步骤201中,整理出需要构造的句式,其中需要构建槽位的位置用特殊符号标记。
在一种可能的实现方式中,服务器将获取到的需要构建的句式作为语料文本,存储在服务器中。
比如,需要构建的句式可以是“播放A的B”,其中A可以是歌手的名字,B可以是歌曲的名称。其中,A和B可以是该句式中可以进行扩展的部分,即A和B的位置可以为各个歌手的名字或者各个歌曲的名称。该需要构建的句式可以以“播放singer的song”的形式存储在服务器中。
可选的,表达相同含义的需要构建的句式可以为不止一种。
比如,“播放A的B”与句式“播放B,A唱的”或者句式“A演唱的B播一个”等具有相同的含义。
在步骤202中,根据整理出的句式,将句式中需要进行扩展的部分的数据整理成文本文件进行存储。
在一种可能的实现方式中,服务器根据整理出的句式,确定句式中需要的构建的槽位的位置相应的数据,将各个槽位对应的数据生成单独的文本文件。
在步骤203中,使用N-Gram语言模型算法,计算出上述所有文本文件对应的语言模型,并将语言模型转换成FST格式。
在步骤204中,将各槽位对应的FST图接入到句式FST图中,继承原边的权重,形成新的FST图。
图3是根据一示例性实施例示出的一种语言模型构建方法的流程图。如图3所示,该语言模型构建方法可以包括以下步骤:
在步骤301中,根据获取的至少一个句式框架,确定框架模型,该句式框架中包含至少一个变量元素和至少一个恒量元素,该框架模型用来指示该句式框架对应的语言模型。
在步骤302中,根据获取的该变量元素对应的数据,确定变量模型,该变量模型用来指示该变量元素对应的语言模型。
在步骤303中,将该框架模型和该变量模型进行结合,确定第一语言模型。
可选的,该根据获取的至少一个句式框架,确定框架模型,包括:
获取至少一个该句式框架,将该句式框架组合生成语料文本;
根据N-Gram语言模型算法,将该语料文本对应的该语言模型确定为该框架模型;
将该框架模型转换成框架模型的有限状态传感器FST图。
可选的,该获取至少一个句式框架,生成语料文本,包括:
通过自定义编译输入的句式,获取至少一个该句式框架;
和\或,
通过接收语音识别的句式,获取至少一个该句式框架。
可选的,该根据获取的该变量元素对应的数据,确定变量模型,该变量模型用来指示该变量元素对应的语言模型,包括:
获取该句式框架中的至少一个该变量元素中的数据,生成至少一个数据文本;
根据N-Gram语言模型算法,将该数据文本对应的该语言模型确定为该变量模型;
将该变量模型转换成变量模型的有限状态传感器FST图。
可选的,该将该框架模型和该变量模型进行结合,确定第一语言模型,包括:
将该变量模型的FST图添加在该框架模型的FST图中的变量元素的位置,确定该第一语言模型的有限状态传感器FST图。
综上所述,本公开实施例中提供的语言模型构建方法,通过获取的至少一个句式框架,确定框架模型,其中句式框架中包含至少一个变量元素和至少一个恒量元素,框架模型用来指示句式框架对应的语言模型,然后,根据获取的变量元素对应的数据,确定变量模型,其中变量模型用来指示变量元素对应的语言模型,最后将框架模型和变量模型进行结合,确定第一语言模型。通过上述方案,服务器可以通过构建框架模型和数据模型,组合得到第一语言模型,从而在保证了语料的全面性的前提下,提高了构建语言模型的效率。
图4是根据另一示例性实施例示出的一种语言模型构建方法的流程图。如图4所示,该语言模型构建方法可以包括以下步骤:
在步骤401中,服务器获取至少一个该句式框架,将该句式框架组合生成语料文本。
在本公开实施例中,服务器可以获取至少一个句式框架,并且服务器可以将各个句式框架存储在语料文本文件中,语料文本文件可以存储在服务器的存储区域中。
可选的,句式框架可以用来句式框架可以包含至少一个变量元素和至少一个恒量元素。
其中,句式框架可以是用来指示用来进行语言模型训练的语句语料,语言模型变量元素可以用来指示句式框架中需要进行数据替换的部分,恒量元素可以用来指示句式框架中无需进行数据替换并且固定不变的部分。
比如,在音乐播放类应用的场景下,在进行语音交互的过程中,需要进行语音识别的语句可以是播放某一首歌曲的句式,也可以是播放某一个歌手的歌曲的句式,表达相同含义的句式可能不止一种,当表达的含义是需要控制播放由A演唱的B歌曲时,需要用来训练语言模型的语料即句式可以是“播放A演唱的B”或者“播放一个B,A演唱的”或者还有其他类似的句式。其中,“A、B”为变量元素,其他部分为恒量元素。句式框架可以是“播放singer演唱的song”或者“播放一个song,singer演唱的”,“singer”和“song”的位置是变量元素,“singer”的位置可以是歌手的数据,“song”的位置可以是歌曲的数据。服务器可以将整理得到的句式框架排列生成文本文件进行存储。
可选的,服务器通过自定义编译输入的句式,获取至少一个所述句式框架,或者,服务器通过接收语音识别的句式,获取至少一个所述句式框架。
其中,句式框架可以是由专门负责编译代码的人员在开发平台编译输入的句式,或者,部分句式框架也可以是由在实际应用的场景中语音识别的过程中接收到的表达某种含义的句式经过服务器处理得到的。
比如,在音乐播放类应用的场景下的实际应用的过程中,若经过语音识别得到的句式“听A的B”经过解析表示的含义为播放A演唱的B,则可以将“听A的B”该句式经过处理得到的“听singer的song”作为新的句式框架,输入到语料文本文件中进行存储。
可选的,句式框架中变量元素所在位置可以用无实际含义的字符号进行标记。
在步骤402中,根据N-Gram语言模型算法,服务器将该语料文本对应的该语言模型确定为该框架模型。
在本公开实施例中,N-Gram语言模型算法也可以称为N元模型算法,是用来进行大词汇连续语音识别的一种语言模型算法。N为大于或等于2的整数,通过N元模型算法可以计算出语句的概率,实现文字的转换。
可选的,服务器可以将由句式框架组成的语料文本通过N-Gram语言模型算法进行计算,得到语料文本文件对应的语言模型,该语言模型为框架模型。
在步骤403中,服务器将该框架模型转换成框架模型的有限状态传感器FST图。
在本公开实施例中,服务器根据计算获取到的框架模型,将框架模型转换成FST格式的框架模型图。
比如,图5是本公开实施例涉及的一种FST格式的框架模型示意图。如图5所示,该FST格式的框架模型图中的句式框架包含有“听song singer唱的”、“singer演唱的song播一个”以及“播放singer唱的song”的语料文本文件计算得到的框架模型。
在步骤404中,服务器获取该句式框架中的至少一个该变量元素中的数据,生成至少一个数据文本。
在本公开实施例中,服务器可以获取到句式框架中的变量元素的位置需要的数据类型,根据数据类型整理出满足该数据类型的数据,生成至少一个数据文本文件进行存储。
可选的,根据数据类型整理出符合条件的数据可以通过在数据库中查询的方式进行。
比如,当句式框架为“播放singer演唱的song”时,变量元素“singer”的数据类型是歌手的名称,变量元素“song”的数据类型是歌曲名称。在数据库中查询歌手的名称可以生成包含“歌手甲”、“歌手乙”、“歌手丙”等的数据文本文件进行存储。在数据库中查询歌曲的名称可以生成包含“歌曲A”、“歌曲B”、“歌曲C”等的数据文本文件进行存储。
在步骤405中,根据N-Gram语言模型算法,服务器将该数据文本对应的该语言模型确定为该变量模型。
可选的,服务器可以将由句式框架组成的语料文本通过N-Gram语言模型算法进行计算,得到数据文本文件对应的语言模型,该语言模型为变量模型。
在步骤406中,服务器将该变量模型转换成变量模型的有限状态传感器FST图。
在本公开实施例中,服务器根据计算获取到的变量模型,将变量模型转换成FST格式的变量模型图。
比如,图6是本公开实施例涉及的一种FST格式的变量模型示意图。如图6所示,该FST格式的变量模型图中的变量元素分别是“歌手甲”、“歌手乙”、“歌手丙”的数据文本对应的变量模型,以及“歌曲A”、“歌曲B”、“歌曲C”的数据文本对应的变量模型。
在步骤407中,服务器将该变量模型的FST图添加在该框架模型的FST图中的变量元素的位置,确定该第一语言模型的有限状态传感器FST图。
在本公开实施例中,服务器将变量元素的数据文本文件中的数据添加到框架模型中变量元素对应的位置,得到包含各个变量元素数据的第一语言模型。
比如,图7是本公开实施例涉及的一种FST格式的第一语言模型示意图。如图7所示,该第一语言模型包含了三种句式框架分别是“听song singer唱的”、“singer演唱的song播一个”以及“播放singer唱的song”,其中的变量元素“singer”分别是“歌手甲”、“歌手乙”、“歌手丙”,变量元素“song”分别是“歌曲A”、“歌曲B”、“歌曲C”的若干种情况的语句语料。
可选的,当变量模型接入到框架模型中时,可以继承原变量模型和框架模型的权重。
综上所述,本公开实施例中提供的语言模型构建方法,通过获取的至少一个句式框架,确定框架模型,其中句式框架中包含至少一个变量元素和至少一个恒量元素,框架模型用来指示句式框架对应的语言模型,然后,根据获取的变量元素对应的数据,确定变量模型,其中变量模型用来指示变量元素对应的语言模型,最后将框架模型和变量模型进行结合,确定第一语言模型。通过上述方案,服务器可以通过构建框架模型和数据模型,组合得到第一语言模型,从而在保证了语料的全面性的前提下,提高了构建语言模型的效率。
图8是根据一示例性实施例示出的一种语言模型构建装置的框图,如图8所示,该语言模型构建方法可以由服务器执行,比如,该服务器可以是图1所示的服务器110。如图8所示,该语言模型构建装置可以包括:
框架确定模块810,用于根据获取的至少一个句式框架,确定框架模型,所述句式框架中包含至少一个变量元素和至少一个恒量元素,所述框架模型用来指示所述句式框架对应的语言模型;
变量确定模块820,用于根据获取的所述变量元素对应的数据,确定变量模型,所述变量模型用来指示所述变量元素对应的语言模型;
模型确定模块830,用于将所述框架模型和所述变量模型进行结合,确定第一语言模型。
可选的,所述框架确定模块810,包括:
第一文本生成子模块,用于获取至少一个所述句式框架,将所述句式框架组合生成语料文本;
框架确定子模块,用于根据N-Gram语言模型算法,将所述语料文本对应的所述语言模型确定为所述框架模型;
第一模型转换子模块,用于将所述框架模型转换成框架模型的有限状态传感器FST图。
可选的,所述文本生成子模块,用于,
通过自定义编译输入的句式,获取至少一个所述句式框架;
和\或,
通过接收语音识别的句式,获取至少一个所述句式框架。
可选的,所述变量确定模块820,包括:
第二文本生成子模块,用于获取所述句式框架中的至少一个所述变量元素中的数据,生成至少一个数据文本;
变量确定子模块,用于根据N-Gram语言模型算法,将所述数据文本对应的所述语言模型确定为所述变量模型;
第二模型转换子模块,用于将所述变量模型转换成变量模型的有限状态传感器FST图。
可选的,所述模型确定模块830,包括:
模型确定子模块,用于将所述变量模型的FST图添加在所述框架模型的FST图中的变量元素的位置,确定所述第一语言模型的有限状态传感器FST图。
需要说明的一点是,上述实施例提供的装置在实现其功能时,仅以上述各个功能模块的划分进行举例说明,实际应用中,可以根据实际需要而将上述功能分配由不同的功能模块完成,即将设备的内容结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
本公开一示例性实施例提供了一种语言模型构建装置,该语言模型构建装置可以通过硬件或者软硬结合的方式实现为计算机设备或者终端的全部或者部分,能够实现本公开上述图3或图4任一所示实施例中的全部或部分步骤,该语言模型构建方法可以由服务器执行,比如,该服务器可以是图1所示的服务器110。该语言模型构建装置还包括:处理器、用于存储处理器可执行指令的存储器;
其中,处理器被配置为:
根据获取的至少一个句式框架,确定框架模型,所述句式框架中包含至少一个变量元素和至少一个恒量元素,所述框架模型用来指示所述句式框架对应的语言模型;
根据获取的所述变量元素对应的数据,确定变量模型,所述变量模型用来指示所述变量元素对应的语言模型;
将所述框架模型和所述变量模型进行结合,确定第一语言模型。
可选的,所述根据获取的至少一个句式框架,确定框架模型,包括:
获取至少一个所述句式框架,将所述句式框架组合生成语料文本;
根据N-Gram语言模型算法,将所述语料文本对应的所述语言模型确定为所述框架模型;
将所述框架模型转换成框架模型的有限状态传感器FST图。
可选的,所述获取至少一个句式框架,生成语料文本,包括:
通过自定义编译输入的句式,获取至少一个所述句式框架;
或者,
通过接收语音识别的句式,获取至少一个所述句式框架。
可选的,所述根据获取的所述变量元素对应的数据,确定变量模型,所述变量模型用来指示所述变量元素对应的语言模型,包括:
获取所述句式框架中的至少一个所述变量元素中的数据,生成至少一个数据文本;
根据N-Gram语言模型算法,将所述数据文本对应的所述语言模型确定为所述变量模型;
将所述变量模型转换成变量模型的有限状态传感器FST图。
可选的,所述将所述框架模型和所述变量模型进行结合,确定第一语言模型,包括:
将所述变量模型的FST图添加在所述框架模型的FST图中的变量元素的位置,确定所述第一语言模型的有限状态传感器FST图。
图9是根据一示例性实施例示出的一种计算机设备的结构示意图。所述计算机设备900包括中央处理单元(Central Processing Unit,CPU)901、包括随机存取存储器(Random Access Memory,RAM)902和只读存储器(Read-Only Memory,ROM)903的系统存储器904,以及连接系统存储器904和中央处理单元901的系统总线905。所述计算机设备900还包括帮助计算机设备内的各个器件之间传输信息的基本输入/输出系统(Input/Output,I/O系统)906,和用于存储操作系统913、应用程序914和其他程序模块915的大容量存储设备907。
所述基本输入/输出系统906包括有用于显示信息的显示器908和用于用户输入信息的诸如鼠标、键盘之类的输入设备909。其中所述显示器908和输入设备909都通过连接到系统总线905的输入输出控制器910连接到中央处理单元901。所述基本输入/输出系统906还可以包括输入输出控制器910以用于接收和处理来自键盘、鼠标、或电子触控笔等多个其他设备的输入。类似地,输入输出控制器910还提供输出到显示屏、打印机或其他类型的输出设备。
所述大容量存储设备907通过连接到系统总线905的大容量存储控制器(未示出)连接到中央处理单元901。所述大容量存储设备907及其相关联的计算机设备可读介质为计算机设备900提供非易失性存储。也就是说,所述大容量存储设备907可以包括诸如硬盘或者只读光盘(Compact Disc Read-Only Memory,CD-ROM)驱动器之类的计算机设备可读介质(未示出)。
不失一般性,所述计算机设备可读介质可以包括计算机设备存储介质和通信介质。计算机设备存储介质包括以用于存储诸如计算机设备可读指令、数据结构、程序模块或其他数据等信息的任何方法或技术实现的易失性和非易失性、可移动和不可移动介质。计算机设备存储介质包括RAM、ROM、可擦除可编程只读存储器(Erasable Programmable ReadOnly Memory,EPROM)、带电可擦可编程只读存储器(Electrically ErasableProgrammable Read-Only Memory,EEPROM),CD-ROM、数字视频光盘(Digital Video Disc,DVD)或其他光学存储、磁带盒、磁带、磁盘存储或其他磁性存储设备。当然,本领域技术人员可知所述计算机设备存储介质不局限于上述几种。上述的系统存储器904和大容量存储设备907可以统称为存储器。
根据本公开的各种实施例,所述计算机设备900还可以通过诸如因特网等网络连接到网络上的远程计算机设备运行。也即计算机设备900可以通过连接在所述系统总线905上的网络接口单元911连接到网络912,或者说,也可以使用网络接口单元911来连接到其他类型的网络或远程计算机设备系统(未示出)。
所述存储器还包括一个或者一个以上的程序,所述一个或者一个以上程序存储于存储器中,中央处理器901通过执行该一个或一个以上程序来实现图3或图4所示的方法的全部或者部分步骤。
本领域技术人员应该可以意识到,在上述一个或多个示例中,本公开实施例所描述的功能可以用硬件、软件、固件或它们的任意组合来实现。当使用软件实现时,可以将这些功能存储在计算机设备可读介质中或者作为计算机设备可读介质上的一个或多个指令或代码进行传输。计算机设备可读介质包括计算机设备存储介质和通信介质,其中通信介质包括便于从一个地方向另一个地方传送计算机设备程序的任何介质。存储介质可以是通用或专用计算机设备能够存取的任何可用介质。
本公开实施例还提供了一种计算机设备存储介质,用于储存为上述测试装置所用的计算机设备软件指令,其包含用于执行上述语言模型构建方法所设计的程序。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本公开旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。
Claims (8)
1.一种语言模型构建方法,其特征在于,所述方法包括:
通过接收语音识别的句式,获取至少两个句式框架;所述句式框架中包含至少一个变量元素和至少一个恒量元素,所述至少两个句式框架的含义相同;
根据所述至少两个句式框架,确定框架模型,所述框架模型用来指示所述句式框架对应的语言模型;
获取所述句式框架中的变量元素的位置需要的数据类型,根据所述数据类型获取满足所述数据类型的数据,生成至少一个数据文本;
根据N-Gram语言模型算法,将所述数据文本对应的所述语言模型确定为变量模型;
将所述变量模型转换成变量模型的有限状态传感器FST图;
将所述变量模型的FST图添加在所述框架模型的FST图中变量元素的位置,得到第一语言模型的FST图,其中,所述变量模型添加到所述框架模型中时,继承所述变量模型和所述框架模型的原权重。
2.根据权利要求1所述的方法,其特征在于,所述根据获取的至少一个句式框架,确定框架模型,包括:
获取至少一个所述句式框架,将所述句式框架组合生成语料文本;
根据N-Gram语言模型算法,将所述语料文本对应的所述语言模型确定为所述框架模型;
将所述框架模型转换成框架模型的有限状态传感器FST图。
3.根据权利要求1所述的方法,其特征在于,所述方法还包括:
通过自定义编译输入的句式,获取至少一个所述句式框架。
4.一种语言模型构建装置,其特征在于,所述装置包括:
框架确定模块,用于通过接收语音识别的句式,获取至少两个句式框架;所述句式框架中包含至少一个变量元素和至少一个恒量元素,所述至少两个句式框架的含义相同;根据所述至少两个句式框架,确定框架模型,所述框架模型用来指示所述句式框架对应的语言模型;
变量确定模块,包括:第二文本生成子模块、变量确定子模块、第二模型转换子模块;
所述第二文本生成子模块,用于获取所述句式框架中的变量元素的位置需要的数据类型,根据所述数据类型获取满足所述数据类型的数据,生成至少一个数据文本;
所述变量确定子模块,用于根据N-Gram语言模型算法,将所述数据文本对应的所述语言模型确定为变量模型;
所述第二模型转换子模块,用于将所述变量模型转换成变量模型的有限状态传感器FST图;
模型确定模块,用于将所述变量模型的FST图添加在所述框架模型的FST图中变量元素的位置,得到第一语言模型的FST图,其中,所述变量模型接入到所述框架模型中时,继承所述变量模型和所述框架模型的原权重。
5.根据权利要求4所述的装置,其特征在于,所述框架确定模块,包括:
第一文本生成子模块,用于获取至少一个所述句式框架,将所述句式框架组合生成语料文本;
框架确定子模块,用于根据N-Gram语言模型算法,将所述语料文本对应的所述语言模型确定为所述框架模型;
第一模型转换子模块,用于将所述框架模型转换成框架模型的有限状态传感器FST图。
6.根据权利要求4所述的装置,其特征在于,所述框架确定模块,还用于,
通过自定义编译输入的句式,获取至少一个所述句式框架。
7.一种语言模型构建装置,其特征在于,所述装置包括:
处理器;
用于存储所述处理器的可执行指令的存储器;
其中,所述处理器被配置为:
通过接收语音识别的句式,获取至少两个句式框架;所述句式框架中包含至少一个变量元素和至少一个恒量元素,所述至少两个句式框架的含义相同;
根据所述至少两个句式框架,确定框架模型,所述框架模型用来指示所述句式框架对应的语言模型;
获取所述句式框架中的变量元素的位置需要的数据类型,根据所述数据类型获取满足所述数据类型的数据,生成至少一个数据文本;
根据N-Gram语言模型算法,将所述数据文本对应的所述语言模型确定为变量模型;
将所述变量模型转换成变量模型的有限状态传感器FST图;
将所述变量模型的FST图添加在所述框架模型的FST图中变量元素的位置,得到第一语言模型的FST图,其中,所述变量模型接入到所述框架模型中时,继承所述变量模型和所述框架模型的原权重。
8.一种计算机设备可读存储介质,其特征在于,所述计算机设备可读存储介质中包含可执行指令,所述可执行指令由处理器调用执行,以实现上述权利要求1至3任一所述的语言模型构建方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010087941.9A CN111415655B (zh) | 2020-02-12 | 2020-02-12 | 语言模型构建方法、装置及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010087941.9A CN111415655B (zh) | 2020-02-12 | 2020-02-12 | 语言模型构建方法、装置及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111415655A CN111415655A (zh) | 2020-07-14 |
CN111415655B true CN111415655B (zh) | 2024-04-12 |
Family
ID=71494265
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010087941.9A Active CN111415655B (zh) | 2020-02-12 | 2020-02-12 | 语言模型构建方法、装置及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111415655B (zh) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1402867A (zh) * | 1999-12-02 | 2003-03-12 | 汤姆森许可贸易公司 | 含有固定和可变语法块的语言模型的语音识别装置 |
CN103631772A (zh) * | 2012-08-29 | 2014-03-12 | 阿里巴巴集团控股有限公司 | 机器翻译方法及装置 |
CN106683677A (zh) * | 2015-11-06 | 2017-05-17 | 阿里巴巴集团控股有限公司 | 语音识别方法及装置 |
WO2018053502A1 (en) * | 2016-09-19 | 2018-03-22 | Promptu Systems Corporation | Systems and methods for adaptive proper name entity recognition and understanding |
CN109313896A (zh) * | 2016-06-08 | 2019-02-05 | 谷歌有限责任公司 | 可扩展的动态类语言建模 |
CN109377985A (zh) * | 2018-11-27 | 2019-02-22 | 北京分音塔科技有限公司 | 一种领域词的语音识别增强方法和装置 |
CN110148403A (zh) * | 2019-05-21 | 2019-08-20 | 腾讯科技(深圳)有限公司 | 解码网络生成方法、语音识别方法、装置、设备及介质 |
CN110674314A (zh) * | 2019-09-27 | 2020-01-10 | 北京百度网讯科技有限公司 | 语句识别方法及装置 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9940927B2 (en) * | 2013-08-23 | 2018-04-10 | Nuance Communications, Inc. | Multiple pass automatic speech recognition methods and apparatus |
US9734821B2 (en) * | 2015-06-30 | 2017-08-15 | International Business Machines Corporation | Testing words in a pronunciation lexicon |
-
2020
- 2020-02-12 CN CN202010087941.9A patent/CN111415655B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1402867A (zh) * | 1999-12-02 | 2003-03-12 | 汤姆森许可贸易公司 | 含有固定和可变语法块的语言模型的语音识别装置 |
CN103631772A (zh) * | 2012-08-29 | 2014-03-12 | 阿里巴巴集团控股有限公司 | 机器翻译方法及装置 |
CN106683677A (zh) * | 2015-11-06 | 2017-05-17 | 阿里巴巴集团控股有限公司 | 语音识别方法及装置 |
CN109313896A (zh) * | 2016-06-08 | 2019-02-05 | 谷歌有限责任公司 | 可扩展的动态类语言建模 |
WO2018053502A1 (en) * | 2016-09-19 | 2018-03-22 | Promptu Systems Corporation | Systems and methods for adaptive proper name entity recognition and understanding |
CN109377985A (zh) * | 2018-11-27 | 2019-02-22 | 北京分音塔科技有限公司 | 一种领域词的语音识别增强方法和装置 |
CN110148403A (zh) * | 2019-05-21 | 2019-08-20 | 腾讯科技(深圳)有限公司 | 解码网络生成方法、语音识别方法、装置、设备及介质 |
CN110674314A (zh) * | 2019-09-27 | 2020-01-10 | 北京百度网讯科技有限公司 | 语句识别方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN111415655A (zh) | 2020-07-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11222178B2 (en) | Text entity extraction method for extracting text from target text based on combination probabilities of segmentation combination of text entities in the target text, apparatus, and device, and storage medium | |
US10235999B1 (en) | Voice application platform | |
CN103345467B (zh) | 语音翻译系统 | |
CN109360550A (zh) | 语音交互系统的测试方法、装置、设备和存储介质 | |
WO2017054588A1 (zh) | 乐器乐谱文件的播放方法、转换方法、装置及电子设备 | |
CN109241286B (zh) | 用于生成文本的方法和装置 | |
CN109978629B (zh) | 一种广告投放方法、装置、电子设备及存储介质 | |
CN102822889B (zh) | 用于tts级联成本的预先保存的数据压缩 | |
CN110941964B (zh) | 双语语料筛选方法、装置及存储介质 | |
CN108877782A (zh) | 语音识别方法和装置 | |
CN111488742B (zh) | 用于翻译的方法和装置 | |
CN112466273A (zh) | 语音合成方法、装置、电子设备及存储介质 | |
US20230410786A1 (en) | Custom tone and vocal synthesis method and apparatus, electronic device, and storage medium | |
CN110660395B (zh) | 一种基于语音识别的安全报告生成方法和装置 | |
CN112582073B (zh) | 医疗信息获取方法、装置、电子设备和介质 | |
CN111415655B (zh) | 语言模型构建方法、装置及存储介质 | |
KR100762712B1 (ko) | 규칙기반의 전자문서 변환방법 및 그 시스템 | |
EP3803856A1 (en) | Voice application platform | |
CN113362111B (zh) | 一种内容发送方法、装置及电子设备 | |
CN115312040A (zh) | 语音唤醒方法、装置、电子设备和计算机可读存储介质 | |
CN111966803B (zh) | 对话模拟方法、装置、存储介质及电子设备 | |
CN112527278A (zh) | 智能表单生成及发布方法、装置、终端及存储介质 | |
CN115136230A (zh) | 基于音调对抗网络的无监督歌声语音转换 | |
CN111475403A (zh) | 测试脚本的动态生成方法及相关装置 | |
CN113436591B (zh) | 音高信息生成方法、装置、计算机设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |