CN106294460A - 一种基于字和词混合语言模型的汉语语音关键词检索方法 - Google Patents
一种基于字和词混合语言模型的汉语语音关键词检索方法 Download PDFInfo
- Publication number
- CN106294460A CN106294460A CN201510291079.2A CN201510291079A CN106294460A CN 106294460 A CN106294460 A CN 106294460A CN 201510291079 A CN201510291079 A CN 201510291079A CN 106294460 A CN106294460 A CN 106294460A
- Authority
- CN
- China
- Prior art keywords
- word
- language model
- network
- common
- decoding
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 27
- 239000000463 material Substances 0.000 claims abstract description 19
- 230000007246 mechanism Effects 0.000 claims description 7
- 230000004069 differentiation Effects 0.000 claims description 3
- 238000002372 labelling Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000013138 pruning Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 239000000945 filler Substances 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Acoustics & Sound (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Machine Translation (AREA)
Abstract
本发明提出了一种基于字和词混合语言模型的关键词检索方法及系统,所述方法包含:步骤101),根据词性区分训练语料中非常见词和常见词,为组成非常见词的各个字添加标识信息,将原训练语料划分为由常见词和标识非常见词信息的符号构成的新语料;根据新语料构建词的语言模型并根据原训练语料按单字重新训练一个语言模型进而得到字的语言模型;步骤102)构建主解码网络和子解码网络,基于主解码网络和子解码网络进行关键词检索;其中,当进行解码时由所述词的语言模型决定是否进入带有标识非常见词信息的节点,且带有标识非常见词信息的节点连接一个由全部单字构成的子解码网络,当进入子解码网络后由所述字的语言模型限制搜索范围。
Description
技术领域
本发明属于语音识别领域,具体地说,涉及一种基于字和词混合语言模型的汉语语音关键检索方法,可用于语音关键词检索技术,提高非常见词的检索性能。
背景技术
在语音关键词检索系统中,在不提供语音模板的情况下,常用的有两种方法,一种是声学关键词检测,这种方法将由关键词构成的解码网络和垃圾音素(filler)构成的网络并联,但其缺点是解码网络随着关键词列表的改变而变化;另外一种是基于大词汇量连续语音识别的方法,是目前最为流行的方法。我们定义那些不在识别词典中并且在训练集中未出现或出现次数很少的词汇为非常见词,这些词汇一般是命名实体,如人名,地名和机构团体名等。尽管汉语中任意词汇都可以通过单字拼接而得到,但是由于语言模型训练数据的稀疏性,再加上解码过程中为了平衡声学模型得分和语言模型得分的大小而加入的语言模型尺度因子(LM scale),这些因素共同导致并放大了常见词和非常见词语言模型得分的差距,因此在解码过程中包含非常见词的正确的路径易被剪枝,从而影响到检索的性能。如果识别系统使用基于字词如音节或音素的识别词典,可以规避非常见词的问题,但是对于常见词的检索性能带来一定的损失。
非常见词往往包含丰富的信息,是用户关注的重心,因此非常见词的检索性能成为了语音关键词检索应用的一个瓶颈,如何解决这一问题,就显得格外重要。
发明内容
本发明的目的在于克服传统方法在非常见词识别和检索的不足,提出一种通过改变语言模型和解码结构以提高非常见词检索性能的方法。
为了实现上述目的,本发明提供一种基于字和词混合语言模型的关键词检索方法,所述方法包含:
步骤101)
根据词性区分训练语料中非常见词和常见词,为组成非常见词的各个字添加标识信息,将原训练语料划分为由常见词和标识非常见词信息的符号构成的新语料;
根据新语料构建词的语言模型并根据原训练语料按单字重新训练一个语言模型进而得到字的语言模型;
步骤102)
构建主解码网络和子解码网络,基于主解码网络和子解码网络进行关键词检索;
其中,主解码网络由识别词典构建,所述子解码网络在主解码网络中添加一个带有标识非常见词信息的节点;当进行解码时由所述词的语言模型决定是否进入带有标识非常见词信息的节点,且带有标识非常见词信息的节点连接一个由全部单字构成的子解码网络,当进入子解码网络后由所述字的语言模型限制搜索范围。
可选的,上述步骤103)还包含通过添加对进入子解码空间的惩罚值来控制在子解码空间的次数的步骤。
上述步骤103)还包含在子解码空间中使用一元概率进行解码的步骤。
上述步骤101)具体为:使用词性标注工具对训练集进行处理,将标注为人名、地名和机构团体名的词汇转为使用“OOV”标记的词汇,使用srilm工具训练一个词的语言模型。
上述步骤102)具体包含:
步骤102-1)将“OOV”标识加入识别词典构建主解码网络,在主解码网络中使用词的语言模型进行解码;当解到“OOV”标识时,进入子解码网络并加入惩罚,该子解码网络由全部单字构成,同时使用字的一元语言模型限制搜索范围;
步骤102-2)根据由解码产生的多候选结果建立的索引进行检索。
此外,本发明还提供了一种基于字和词混合语言模型的关键词检索系统,其特征在于,所述系统包含:
划分模块,用于根据词性将原训练语料中的词区分非常见词和常见词,并为组成非常见词的各个字添加标识信息,进而将原训练语料变为由常见词和标识非常见词信息的符号构成的新语料;
语言模型构建模块,用于根据新训练语料构建词的语言模型并根据原训练数据按单字重新训练一个字的语言模型;
解码网络构建模块,用于构建主解码网络和子解码网络;
解码执行模块,用于在解码过程中由词的语言模型决定是否进入带有标识非常见词信息的节点,该标识非常见词信息的节点连接一个由全部单字构成的子解码网络,进入子解码网络后由字的语言模型限制搜索范围。
与现有技术相比,本发明优点:在解码过程中,通过添加“OOV”标识使得包含非常见词的路径更容易被保存下来,而不是在正确的位置由于语言模型得分突变被剪枝;通过添加对进入子解码空间的惩罚值来控制在子解码空间的次数;在子解码空间中使用一元概率一方面加速了解码,另一方面也使得解码结果更偏向常见字,而且不使用历史信息进行限制,突出了声学模型的区分度,这也是符合逻辑的。
附图说明
图1本发明实施例在训练集里添加“OOV”标识的示意图;
图2本发明实施例提供的主解码网络和子解码网络构建示意图;
图3本发明实施例提供的基于字和词混合语言模型的解码流程示意图。
具体实施方式
下面对本发明作进一步地描述。
本发明提供的方法首先根据词性区分训练语料中非常见词和常见词,得到非常见词出现的统计规律;在解码网络中添加一个非常见词的节点,其后连接一个由全部单字构成的子解码网络,在解码过程中由词的语言模型决定是否进入非常见词节点,进入后由字的语言模型限制搜索范围,从而缓解由于词语言模型的稀疏造成的正确解码路径被剪枝,进而提高了非常见词的检索性能。具体描述如下:
(1)如图1所示,使用词性标注工具对训练集进行处理,将标注为人名、地名和机构团体名的词汇转为使用“OOV”标记的词汇,使用srilm工具根据传统的ngram算法训练一个词的语言模型。
(2)对于原训练数据,按单字重新训练一个语言模型。
(3)将“OOV”标识加入识别词典构建主解码网络,在主解码网络中使用词的语言模型进行解码;当解到“OOV”标识时,进入子解码网络并加入一定的惩罚,该网络由全部单字构成,同时使用字的一元语言模型限制搜索范围。解码过程采用令牌传递算法在动态解码器上实现。
在解码过程中,分别在主解码网络和子解码网络中采用令牌传递算法进行解码。其中,在主解码网络中使用词的语言模型限制搜索范围,在子解码网络中使用字的语言模型限制搜索范围。解码开始时,令牌首先在主解码网络中传递。当令牌传递到带有标识非常见词信息的节点时,进入子解码网络,同时加入相应的罚值以限制进入子解码网络的次数;令牌在退出子解码网络后回到主解码网络的根节点。对于在主解码网络中未进入子解码网络的令牌,在传递到当前词尾节点后同样返回到主解码网络的根节点。
(4)根据由解码产生的多候选结果建立的索引进行检索。
可选的上述训练字和词混合语言模型
如图1所示,首先将训练集数据通过词性标注工具进行处理,将标注为人名、地名和机构团体名的词汇转为带有“OOV”标识的符号,替换方法为一个符号替换一个字,这是因为其后接入的子解码网络是由单字空间构成的。然后将“OOV”标识加入识别词典,并使用srilm工具训练一个词的三元语言模型。同时,使用原训练数据训练得到一个字的一元语言模型。
可选的,上述主解码网络和子解码网络的构建
如图2所示,主解码网络是由识别词典中所有的词构成,包括了“OOV”;在“OOV”之后,接入子解码网络,该网络由所有单字构成,到达子解码网络终点后同其他词一样返回主解码网络的根节点。因此该子解码网络是可重入的。
可选的,上述基于字和词混合语言模型的解码流程
令牌传递模块:令牌传递到“OOV”标识的符号时,进入子解码网络,同时施加一定的惩罚值,防止其进入次数过多;在退出子解码网络后,令牌返回主解码网络的根节点,这与其他词节点上的令牌表现一致。词的语言模型作用于主解码网络,使用三元模型可以更充分地表现上下文的统计规律;字的语言模型作用于子解码网络,使用一元模型,一方面是为了限制令牌传递范围,防止其过度膨胀,另一方面避免了上下文的限制,突出声学模型的作用。
语言模型得分计算:在包含“OOV”标识的路径上,语言模型得分的计算如公式1所示:
q(wi|hi)=q(wi|oov,hi)p(oov|hi)≈q(wi|oov)p(oov|hi)=p(c1,...,cm|oov)p(oov|hi) (1)
其中,wi是当前词,hi是历史信息,cj代表单字。计算主要分为两个部分:首先是在词级别的三元概率累积;在字层面使用一元概率,同时加入惩罚值。
本发明实验数据总共为时长5小时的电话交谈语音。测试语音为采样率8000HZ、单声道、16bit的语音数据。关键词列表包含100个常见词和24个分常见词。测试结果如下表:
由表中可以看出,采用本发明的方法后,对于非常见词检索性能有大约11.3%的提升,而并不影响常见词的检索性能。同时,注意到在采用本发明后索引大小有一定的增加,这也意味着,相比于基线系统,本发明的识别系统给出的多候选结果信息更加丰富,因而能够对非常见词的检索性能带来提升。
此外,本发明还提供了一种基于字和词混合语言模型的关键词检索系统,所述系统包含:
划分模块,用于根据词性将原训练语料中的词区分非常见词和常见词,并为组成非常见词的各个字添加标识信息,进而将原训练语料变为由常见词和标识非常见词信息的符号构成的新语料;
语言模型构建模块,用于根据新训练语料构建词的语言模型并根据原训练数据按单字重新训练一个字的语言模型;
解码网络构建模块,用于构建主解码网络和子解码网络;
解码执行模块,用于在解码过程中由词的语言模型决定是否进入带有标识非常见词信息的节点,该标识非常见词信息的节点连接一个由全部单字构成的子解码网络,进入子解码网络后由字的语言模型限制搜索范围。
可选的,上述划分模块进一步包含:
标注子模块,用于使用词性标注工具对原训练语料进行词性标注,将原语料中词汇分类,所述分类规则包含:将词分别标为名词、动词、形容词和代词,且每种词类下又包含若干小类,其中,将名词进一步划分为包含人名、地名和机构团体名的非常见词,其他名词作为常见词;
新语料获取子模块,用于将名词、动词、形容词和代词中标为非常见词的每个字转为同一个标识非常见词信息的符号“OOV”,得到转换后的新语料。
上述语言模型构建模块进一步包含:
词训练的语言模型构造子模块,用于将标识非常见词信息的符号“OOV”加入识别词典作为一个词,使用ngram方法在新语料上训练词的语言模型;
字语言模型构造子模块,用于根据原语料训练字的语言模型。
上述解码网络构建模块进一步包含:
主解码网络构建模块,用于由识别词典通过前缀树的形式构建而成,包括一个标识非常见词信息的节点,该标识非常见词信息的节点的词尾节点与子解码网络连接,其他所有词尾节点与根节点连接以支持网络重入;
子解码网络构建模块,用于由全部单字通过前缀树的形式构建而成,所有词尾节点连接到主解码网络的根节点以支持网络重入。
最后所应说明的是,以上实施例仅用以说明本发明的技术方案而非限制。尽管参照实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,对本发明的技术方案进行修改或者等同替换,都不脱离本发明技术方案的精神和范围,其均应涵盖在本发明的权利要求范围当中。
Claims (9)
1.一种基于字和词混合语言模型的关键词检索方法,所述方法包含:
步骤101)
根据词性区分训练语料中非常见词和常见词,为组成非常见词的各个字添加标识信息,将原训练语料划分为由常见词和标识非常见词信息的符号构成的新语料;
根据新语料构建词的语言模型并根据原训练语料按单字重新训练一个语言模型进而得到字的语言模型;
步骤102)
构建主解码网络和子解码网络,基于主解码网络和子解码网络进行关键词检索;
其中,主解码网络由识别词典构建,所述子解码网络在主解码网络中添加一个带有标识非常见词信息的节点;当进行解码时由所述词的语言模型决定是否进入带有标识非常见词信息的节点,且带有标识非常见词信息的节点连接一个由全部单字构成的子解码网络,当进入子解码网络后由所述字的语言模型限制搜索范围。
2.根据权利要求1所述的基于字和词混合语言模型的关键词检索方法,其特征在于,所述步骤102)还包含通过添加对进入子解码空间的惩罚值来控制在子解码空间的次数的步骤。
3.根据权利要求1所述的基于字和词混合语言模型的关键词检索方法,其特征在于,所述步骤102)还包含在子解码空间中使用一元概率进行解码的步骤。
4.根据权利要求1所述的基于字和词混合语言模型的关键词检索方法,其特征在于,所述步骤101)具体为:使用词性标注工具对训练集进行处理,将标注为人名、地名和机构团体名的词汇转为使用“OOV”标记的词汇,使用srilm工具训练一个词的语言模型。
5.根据权利要求4所述的基于字和词混合语言模型的关键词检索方法,其特征在于,所述步骤102)具体包含:
步骤102-1)将“OOV”标识加入识别词典构建主解码网络,在主解码网络中使用词的语言模型进行解码;当解到“OOV”标识时,进入子解码网络并加入惩罚,该子解码网络由全部单字构成,同时使用字的一元语言模型限制搜索范围;
步骤102-2)根据由解码产生的多候选结果建立的索引进行检索。
6.一种基于字和词混合语言模型的关键词检索系统,其特征在于,所述系统包含:
划分模块,用于根据词性将原训练语料中的词区分非常见词和常见词,并为组成非常见词的各个字添加标识信息,进而将原训练语料变为由常见词和标识非常见词信息的符号构成的新语料;
语言模型构建模块,用于根据新训练语料构建词的语言模型并根据原训练数据按单字重新训练一个字的语言模型;
解码网络构建模块,用于构建主解码网络和子解码网络;
解码执行模块,用于在解码过程中由词的语言模型决定是否进入带有标识非常见词信息的节点,该标识非常见词信息的节点连接一个由全部单字构成的子解码网络,进入子解码网络后由字的语言模型限制搜索范围。
7.根据权利要求6所述的基于字和词混合语言模型的关键词检索系统,其特征在于,所述划分模块进一步包含:
标注子模块,用于使用词性标注工具对原训练语料进行词性标注,将原语料中词汇分类,所述分类规则包含:将词分别标为名词、动词、形容词和代词,且每种词类下又包含若干小类,其中,将名词进一步划分为包含人名、地名和机构团体名的非常见词,其他名词作为常见词;
新语料获取子模块,用于将名词、动词、形容词和代词中标为非常见词的每个字转为同一个标识非常见词信息的符号“OOV”,得到转换后的新语料。
8.根据权利要求6所述的基于字和词混合语言模型的关键词检索系统,其特征在于,所述语言模型构建模块进一步包含:
词训练的语言模型构造子模块,用于将标识非常见词信息的符号“OOV”加入识别词典作为一个词,使用ngram方法在新语料上训练词的语言模型;
字语言模型构造子模块,用于根据原语料训练字的语言模型。
9.根据权利要求6所述的基于字和词混合语言模型的关键词检索系统,其特征在于,所述解码网络构建模块进一步包含:
主解码网络构建模块,用于由识别词典通过前缀树的形式构建而成,包括一个标识非常见词信息的节点,该标识非常见词信息的节点的词尾节点与子解码网络连接,其他所有词尾节点与根节点连接以支持网络重入;
子解码网络构建模块,用于由全部单字通过前缀树的形式构建而成,所有词尾节点连接到主解码网络的根节点以支持网络重入。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510291079.2A CN106294460B (zh) | 2015-05-29 | 2015-05-29 | 一种基于字和词混合语言模型的汉语语音关键词检索方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510291079.2A CN106294460B (zh) | 2015-05-29 | 2015-05-29 | 一种基于字和词混合语言模型的汉语语音关键词检索方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106294460A true CN106294460A (zh) | 2017-01-04 |
CN106294460B CN106294460B (zh) | 2019-10-22 |
Family
ID=57655094
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510291079.2A Active CN106294460B (zh) | 2015-05-29 | 2015-05-29 | 一种基于字和词混合语言模型的汉语语音关键词检索方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106294460B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108288467A (zh) * | 2017-06-07 | 2018-07-17 | 腾讯科技(深圳)有限公司 | 一种语音识别方法、装置及语音识别引擎 |
CN110046276A (zh) * | 2019-04-19 | 2019-07-23 | 北京搜狗科技发展有限公司 | 一种语音中关键词的检索方法和装置 |
CN110610700A (zh) * | 2019-10-16 | 2019-12-24 | 科大讯飞股份有限公司 | 解码网络构建方法、语音识别方法、装置、设备及存储介质 |
US10672388B2 (en) | 2017-12-15 | 2020-06-02 | Mitsubishi Electric Research Laboratories, Inc. | Method and apparatus for open-vocabulary end-to-end speech recognition |
CN112652311A (zh) * | 2020-12-01 | 2021-04-13 | 北京百度网讯科技有限公司 | 中英文混合语音识别方法、装置、电子设备和存储介质 |
CN112802461A (zh) * | 2020-12-30 | 2021-05-14 | 深圳追一科技有限公司 | 语音识别方法和装置、服务器、计算机可读存储介质 |
CN113096648A (zh) * | 2021-03-20 | 2021-07-09 | 杭州知存智能科技有限公司 | 用于语音识别的实时解码方法和装置 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102280106A (zh) * | 2010-06-12 | 2011-12-14 | 三星电子株式会社 | 用于移动通信终端的语音网络搜索方法及其装置 |
-
2015
- 2015-05-29 CN CN201510291079.2A patent/CN106294460B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102280106A (zh) * | 2010-06-12 | 2011-12-14 | 三星电子株式会社 | 用于移动通信终端的语音网络搜索方法及其装置 |
Non-Patent Citations (3)
Title |
---|
张鹏远等: "广播新闻语音的关键词检测系统", 《通信学报》 * |
王旭阳等: "汉语语音集外词检索算法的改进研究", 《网络新媒体技术》 * |
韩疆等: "一种任务域无关的语音关键词检测系统", 《全国网络与信息安全技术研讨会-2005》 * |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108288467A (zh) * | 2017-06-07 | 2018-07-17 | 腾讯科技(深圳)有限公司 | 一种语音识别方法、装置及语音识别引擎 |
CN108288467B (zh) * | 2017-06-07 | 2020-07-14 | 腾讯科技(深圳)有限公司 | 一种语音识别方法、装置及语音识别引擎 |
US10672388B2 (en) | 2017-12-15 | 2020-06-02 | Mitsubishi Electric Research Laboratories, Inc. | Method and apparatus for open-vocabulary end-to-end speech recognition |
CN110046276A (zh) * | 2019-04-19 | 2019-07-23 | 北京搜狗科技发展有限公司 | 一种语音中关键词的检索方法和装置 |
CN110046276B (zh) * | 2019-04-19 | 2021-04-20 | 北京搜狗科技发展有限公司 | 一种语音中关键词的检索方法和装置 |
CN110610700A (zh) * | 2019-10-16 | 2019-12-24 | 科大讯飞股份有限公司 | 解码网络构建方法、语音识别方法、装置、设备及存储介质 |
CN110610700B (zh) * | 2019-10-16 | 2022-01-14 | 科大讯飞股份有限公司 | 解码网络构建方法、语音识别方法、装置、设备及存储介质 |
CN112652311A (zh) * | 2020-12-01 | 2021-04-13 | 北京百度网讯科技有限公司 | 中英文混合语音识别方法、装置、电子设备和存储介质 |
US11893977B2 (en) | 2020-12-01 | 2024-02-06 | Beijing Baidu Netcom Science Technology Co., Ltd. | Method for recognizing Chinese-English mixed speech, electronic device, and storage medium |
CN112802461A (zh) * | 2020-12-30 | 2021-05-14 | 深圳追一科技有限公司 | 语音识别方法和装置、服务器、计算机可读存储介质 |
CN112802461B (zh) * | 2020-12-30 | 2023-10-24 | 深圳追一科技有限公司 | 语音识别方法和装置、服务器、计算机可读存储介质 |
CN113096648A (zh) * | 2021-03-20 | 2021-07-09 | 杭州知存智能科技有限公司 | 用于语音识别的实时解码方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
CN106294460B (zh) | 2019-10-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106294460A (zh) | 一种基于字和词混合语言模型的汉语语音关键词检索方法 | |
CN108763510B (zh) | 意图识别方法、装置、设备及存储介质 | |
Hori et al. | Open-vocabulary spoken utterance retrieval using confusion networks | |
US8352266B2 (en) | System and methods for improving accuracy of speech recognition utilizing concept to keyword mapping | |
US8892420B2 (en) | Text segmentation with multiple granularity levels | |
CN104137102B (zh) | 非事实型询问应答系统以及方法 | |
EP2317507B1 (en) | Corpus compilation for language model generation | |
US6963831B1 (en) | Including statistical NLU models within a statistical parser | |
US20060265222A1 (en) | Method and apparatus for indexing speech | |
EP1522930A2 (en) | Method and apparatus for identifying semantic structures from text | |
CN109408622A (zh) | 语句处理方法及其装置、设备和存储介质 | |
CN106202153A (zh) | 一种es搜索引擎的拼写纠错方法及系统 | |
Scharenborg et al. | Building an ASR system for a low-research language through the adaptation of a high-resource language ASR system: preliminary results | |
KR100481598B1 (ko) | 복합 형태소 분석 장치 및 방법 | |
CN102314876A (zh) | 语音检索的方法和系统 | |
CN113742471A (zh) | 一种普法问答系统的向量检索式对话方法 | |
Zhuang et al. | An ensemble approach to conversation generation | |
Hori et al. | Deriving disambiguous queries in a spoken interactive ODQA system | |
Korpusik et al. | Dialogue state tracking with convolutional semantic taggers | |
CA2880554C (en) | System and methods for improving accuracy of speech recognition | |
CN107092669A (zh) | 一种建立机器人智能交互的方法 | |
Ramaswamy et al. | Hierarchical feature-based translation for scalable natural language understanding | |
JP3663012B2 (ja) | 音声による入力装置 | |
Abdullah et al. | Dynamic Extension of ASR Lexicon Using Wikipedia Data | |
Park et al. | Generation of correct word sequences from multiple outputs of a conventional automatic speech recognizer for voice-activated information appliances |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |