CN109192201A - 基于双模型识别的语音领域命令理解方法 - Google Patents
基于双模型识别的语音领域命令理解方法 Download PDFInfo
- Publication number
- CN109192201A CN109192201A CN201811076254.6A CN201811076254A CN109192201A CN 109192201 A CN109192201 A CN 109192201A CN 201811076254 A CN201811076254 A CN 201811076254A CN 109192201 A CN109192201 A CN 109192201A
- Authority
- CN
- China
- Prior art keywords
- voice
- random field
- understanding method
- model identification
- handled
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 25
- 230000009977 dual effect Effects 0.000 title claims abstract description 16
- 238000003062 neural network model Methods 0.000 claims abstract description 12
- 230000000306 recurrent effect Effects 0.000 claims abstract description 10
- 239000000126 substance Substances 0.000 claims abstract description 9
- 238000012805 post-processing Methods 0.000 claims abstract description 7
- 238000012549 training Methods 0.000 claims description 30
- 238000012546 transfer Methods 0.000 claims description 15
- 238000000605 extraction Methods 0.000 claims description 12
- 238000012545 processing Methods 0.000 claims description 6
- 230000009466 transformation Effects 0.000 claims description 6
- 238000012790 confirmation Methods 0.000 claims description 4
- 239000011159 matrix material Substances 0.000 claims description 4
- 230000011218 segmentation Effects 0.000 claims description 4
- 230000004913 activation Effects 0.000 claims description 3
- 238000005457 optimization Methods 0.000 claims description 3
- 241000209094 Oryza Species 0.000 description 8
- 235000007164 Oryza sativa Nutrition 0.000 description 8
- 235000009566 rice Nutrition 0.000 description 8
- 230000008569 process Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 4
- 239000002304 perfume Substances 0.000 description 4
- 235000013599 spices Nutrition 0.000 description 4
- 230000008901 benefit Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 241000208340 Araliaceae Species 0.000 description 1
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 description 1
- 235000003140 Panax quinquefolius Nutrition 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 235000008434 ginseng Nutrition 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 238000004064 recycling Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Machine Translation (AREA)
Abstract
本发明涉及一种基于双模型识别的语音领域命令理解方法,外部输入话语先经循环神经网络模型处理并进行语音意图的判断,在得出判断结果后再经条件随机场模型生成目标序列标签,从而提取出语音实体,所述条件随机场模型再向后处理单元输出所提取到的语音试题的数据,生成最终的控制指令。本发明中的循环神经网络模型的目标是为判断用户的话语是否表达了一个语音领域的意图,如此能够提高识别准确性,降低识别出错率。
Description
技术领域
本发明涉及人机交互领域中的语言识别技术领域,特别是涉及一张基于双模型识别的语音领域命令理解方法
背景技术
对话系统是人机交互的一种相当重要的形式,也是自然语言处理过程中的一个关键的研究方向。在语音领域,能否正确解析出用户话语命令是完成用户指定任务的基础,在很多地方比如语音助手、语音平台都有很丰富的应用场景。
对于用户某条话语,目前常使用的条件随机场(CRF)模型并不能很好的区分其是否表达了一个语音领域内的意图。CRF一般在序列标注、命名实体识别过程表现较好,但在识别语音实体之前,需要判断此用户话语是否表达语音意图,否则可能识别出错,甚至无法识别。
如能够先进行语音意图的识别,可带来两个好处,一是若判断用户话语没有表达语音意图,则不需要进行后续实体提取操作,因为此时已经完成无语音意图解析操作,二是若对用户话语的语音意图不做判断的话,则很有可能一段用户话语没有表现语音意图,但是被错误的提取出了语音实体,比如“刘德华的老婆是谁”这句用户话语,若不先进行语音意图判断操作,则很有可能将“刘德华”识别成歌手实体,从而这句话也被解析成语音意图,而实际上这句话并没有表达语音领域的相关意图。
发明内容
本发明的目的是要提供一种基于双模型识别的语音领域命令理解方法,其中循环神经网络模型的目标是为判断用户的话语是否表达了一个语音领域的意图,如此能够提高识别准确性,降低识别出错率。
为达到上述目的,本发明采用的技术方案是:
本发明提供了一种基于双模型识别的语音领域命令理解方法,外部输入话语先经循环神经网络模型处理并进行语音意图的判断,在得出判断结果后再经条件随机场模型生成目标序列标签,从而提取出语音实体,所述条件随机场模型再向后处理单元输出所提取到的语音试题的数据,生成最终的控制指令。
对于上述技术方案,申请人还有进一步的实施方案。
进一步地,外部输入话语先经分子处理单元对其进行按字切分后形成初始训练集,再将初始训练集输入所述循环神经网络模型进行处理。
更进一步地,在循环神经网络模型中进行处理的具体步骤如下:
步骤A1:计算第t时刻的隐藏状态ht,ht由上一层的隐藏状态和本层的输入共同决定,
ht=f(Uxt+Wht-1)其中,xt是第t时刻的输入,f为非线性的激活函数,U、W为变换矩阵;
步骤A2:计算预测标签值S,
S=sigmod(VhT),其中,V为变换矩阵,hT为序列最后一个时刻的隐藏状态;
步骤A3:确定分类类型,
根据预测标签值S确定分类,如S为正值则分类为正类,确认外部输入话语为语音意图,继续进入条件随机场模型进行处理,如S为负值则分类为负类,确认外部输入话语为非语音意图,退出此次处理。
进一步地,在条件随机场模型中进行处理时,外部输入为句子序列,输出目标为句子标注序列标签,然后根据标注序列标签提取对应的语音实体。
更进一步地,在条件随机场模型中进行处理的具体步骤如下:
步骤B1:计算转移特征与状态特征的特征值fk(yi-1,yi,x,i),其中,tk(yi-1,yi,x,i)为转移特征,sl(yi,x,i)为状态特征,K1为转移特征的总数目,K2为状态特征的总数目,yi,yi-1是标注序列的标签,x是输入序列,i表示输入位置;
步骤B2:对转移特征与状态特征在各个位置i求和,记作:
其中i为序列长度;
步骤B3:计算转移特征与状态特征的特征值fk(yi-1,yi,x,i)的权值wk,
其中,λk为……,μl为……
步骤B4:条件随机场可以表示成:其中对于训练样本集合要优化的目标为其中M为训练集数目大小,通过训练集,调整参数W从而使得优化目标取得最大值,模型训练完成之后,即特征向量权重W求解完成;
步骤B5:对于新来输入序列x,通过求解得到预测标签序列y',y'即是目标序列标签,根据目标序列标签提取实体。
进一步地,在后处理单元中,根据条件随机场模型预测的目标序列标签提取语音领域实体。
由于上述技术方案运用,本发明与现有技术相比具有下列优点:
本发明的基于双模型识别的语音领域命令理解方法,可通过循环神经网络(RNN)模型对用户话语进行判断,先判断是否含有语音领域相关意图,若判断该话语表达了语音领域相关意图,则使用条件随机场模型(CRF)进行相关参数的提取,若判断该话语没有表达语音领域相关意图,则判断结束,不需要进行后续操作,这样就能解决后面语音领域相关参数提取错误导致的意图判断错误的问题,如此能够提高识别准确性,降低识别出错率。
附图说明
后文将参照附图以示例性而非限制性的方式详细描述本发明的一些具体实施例。附图中相同的附图标记标示了相同或类似的部件或部分。本领域技术人员应该理解,这些附图未必是按比例绘制的。附图中:
图1是根据本发明一个实施例的语音领域命令理解方法的处理流程示意图。
具体实施方式
下面将结合附图对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在本发明的描述中,需要说明的是,术语“中心”、“上”、“下”、“左”、“右”、“竖直”、“水平”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,术语“第一”、“第二”、“第三”仅用于描述目的,而不能理解为指示或暗示相对重要性。
此外,下面所描述的本发明不同实施方式中所涉及的技术特征只要彼此之间未构成冲突就可以相互结合。
本实施例描述了一种基于双模型识别的语音领域命令理解方法,外部输入话语先经循环神经网络模型处理并进行语音意图的判断,在得出判断结果后再经条件随机场模型生成目标序列标签,从而提取出语音实体,所述条件随机场模型再向后处理单元输出所提取到的语音试题的数据,生成最终的控制指令。
外部输入话语先经分子处理单元对其进行按字切分后形成初始训练集,再将初始训练集输入所述循环神经网络模型进行处理,在循环神经网络模型中进行处理的具体步骤如下:
步骤A1:计算第t时刻的隐藏状态ht,ht由上一层的隐藏状态和本层的输入共同决定,
ht=f(Uxt+Wht-1)其中,xt是第t时刻的输入,f为非线性的激活函数,U、W为变换矩阵;
步骤A2:计算预测标签值S,
S=sigmod(VhT),其中,V为变换矩阵,hT为序列最后一个时刻的隐藏状态;
步骤A3:确定分类类型,
根据预测标签值S确定分类,如S为正值则分类为正类,确认外部输入话语为语音意图,继续进入条件随机场模型进行处理,如S为负值则分类为负类,确认外部输入话语为非语音意图,退出此次处理。
进一步地,在条件随机场模型中进行处理时,外部输入为句子序列,输出目标为句子标注序列标签,然后根据标注序列标签提取对应的语音实体。
更进一步地,在条件随机场模型中进行处理的具体步骤如下:
步骤B1:计算转移特征与状态特征的特征值fk(yi-1,yi,x,i),其中,tk(yi-1,yi,x,i)为转移特征,sl(yi,x,i)为状态特征,K1为转移特征的总数目,K2为状态特征的总数目,yi,yi-1是标注序列的标签,x是输入序列,i表示输入位置;
步骤B2:对转移特征与状态特征在各个位置i求和,记作:
其中i为序列长度;
步骤B3:计算转移特征与状态特征的特征值fk(yi-1,yi,x,i)的权值wk,
其中,λk为……,μl为……
步骤B4:条件随机场可以表示成:其中对于训练样本集合要优化的目标为其中M为训练集数目大小,通过训练集,调整参数W从而使得优化目标取得最大值,模型训练完成之后,即特征向量权重W求解完成;
步骤B5:对于新来输入序列x,通过求解得到预测标签序列y',y'即是目标序列标签,根据目标序列标签提取实体。
进一步地,在后处理单元中,根据条件随机场模型预测的目标序列标签提取语音领域实体。
下面以一具体语句为例来说明双模型识别的数据集训练过程。
训练数据集类型如下:
请播放周杰伦的稻香 artist:周杰伦,sOng:稻香刘德华的老婆是谁 NO-music
........
对于训练数据集合,我们分别训练RNN和CRF模型:
(1)RNN模型训练过程:
对于训练集中的NO-music(无语音意图),则标记为负样本标签0,否则标记为正样本标签1。
即训练数据转换为以下格式:
请播放周杰伦的稻香 1
刘德华的老婆是谁 0
构建好训练集之后,RNN模型训练过程如上。
预测过程:
对于新的话语句子:唱一首稻香
首先分字处理:唱一首稻香
然后从预训练好的字向量得到所有字的向量,然后按时刻先后输入到RNN模型,最后得到序列最后一个时刻的隐藏状态为hT,通过y=sigmod(VhT)计算得到意图识别结果y。
(2)CRF模型训练过程:
在CRF模型训练过程中,数据格式变换成以下格式:
请播放周杰伦的稻香 O O O A-B A-I A-E O S-B S-E
刘德华的老婆是谁 O O O O O O O O
对于每一条输入样本,输入为序列,输出目标也为序列,符号标记如上。再对输入序列每个字进行字性标注,会得到一个三列的序列,第一列为按字切分的输入序列,第二列为字的字性,第三列为输出目标标签序列。然后我们定义了特征函数
特征函数比如:如果此位置为“杰”且对应的标注序列为A-I,那么这个特征函数为1,否则为0。然后通过训练集,求出所有特征函数的值,然后优化求的特征向量的权重参数W,这也是模型要学习的参数。
预测过程,输入预测话语句子:唱一首稻香
我们通过式子:得到预测序列y'。
比如,这里我们得到的y'为:O O O S-B S-E
(3)后处理
通过后处理,我们得到该话语语音领域实体为:歌曲:稻香。
综上可知,本发明的基于双模型识别的语音领域命令理解方法,可通过循环神经网络(RNN)模型对用户话语进行判断,先判断是否含有语音领域相关意图,若判断该话语表达了语音领域相关意图,则使用条件随机场模型(CRF)进行相关参数的提取,若判断该话语没有表达语音领域相关意图,则判断结束,不需要进行后续操作,这样就能解决后面语音领域相关参数提取错误导致的意图判断错误的问题,如此能够提高识别准确性,降低识别出错率。
上述实施例只为说明本发明的技术构思及特点,其目的在于让熟悉此项技术的人士能够了解本发明的内容并据以实施,并不能以此限制本发明的保护范围,凡根据本发明精神实质所作的等效变化或修饰,都应涵盖在本发明的保护范围之内。
Claims (6)
1.一种基于双模型识别的语音领域命令理解方法,其特征在于,外部输入话语先经循环神经网络模型处理并进行语音意图的判断,在得出判断结果后再经条件随机场模型生成目标序列标签,从而提取出语音实体,所述条件随机场模型再向后处理单元输出所提取到的语音试题的数据,生成最终的控制指令。
2.根据权利要求1所述的基于双模型识别的语音领域命令理解方法,其特征在于,外部输入话语先经分子处理单元对其进行按字切分后形成初始训练集,再将初始训练集输入所述循环神经网络模型进行处理。
3.根据权利要求2所述的基于双模型识别的语音领域命令理解方法,其特征在于,在循环神经网络模型中进行处理的具体步骤如下:
步骤A1:计算第t时刻的隐藏状态ht,ht由上一层的隐藏状态和本层的输入共同决定,
ht=f(Uxt+Wht-1)其中,xt是第t时刻的输入,f为非线性的激活函数,U、W为变换矩阵;
步骤A2:计算预测标签值S,
S=sig mod(VhT),其中,V为变换矩阵,hT为序列最后一个时刻的隐藏状态;
步骤A3:确定分类类型,
根据预测标签值S确定分类,如S为正值则分类为正类,确认外部输入话语为语音意图,继续进入条件随机场模型进行处理,如S为负值则分类为负类,确认外部输入话语为非语音意图,退出此次处理。
4.根据权利要求1所述的基于双模型识别的语音领域命令理解方法,其特征在于,在条件随机场模型中进行处理时,外部输入为句子序列,输出目标为句子标注序列标签,然后根据标注序列标签提取对应的语音实体。
5.根据权利要求4所述的基于双模型识别的语音领域命令理解方法,其特征在于,在条件随机场模型中进行处理的具体步骤如下:
步骤B1:计算转移特征与状态特征的特征值fk(yi-1,yi,x,i),其中,tk(yi-1,yi,x,i)为转移特征,sl(yi,x,i)为状态特征,K1为转移特征的总数目,K2为状态特征的总数目,yi,yi-1是标注序列的标签,x是输入序列,i表示输入位置;
步骤B2:对转移特征与状态特征在各个位置i求和,记作:
其中i为序列长度;
步骤B3:计算转移特征与状态特征的特征值fk(yi-1,yi,x,i)的权值wk,
其中,λk为……,μl为……
步骤B4:条件随机场可以表示成:其中对于训练样本集合要优化的目标为其中M为训练集数目大小,通过训练集,调整参数W从而使得优化目标取得最大值,模型训练完成之后,即特征向量权重W求解完成;
步骤B5:对于新来输入序列x,通过求解得到预测标签序列y',y'即是目标序列标签,根据目标序列标签提取实体。
6.根据权利要求5所述的基于双模型识别的语音领域命令理解方法,其特征在于,在后处理单元中,根据条件随机场模型预测的目标序列标签提取语音领域实体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811076254.6A CN109192201A (zh) | 2018-09-14 | 2018-09-14 | 基于双模型识别的语音领域命令理解方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811076254.6A CN109192201A (zh) | 2018-09-14 | 2018-09-14 | 基于双模型识别的语音领域命令理解方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109192201A true CN109192201A (zh) | 2019-01-11 |
Family
ID=64911438
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811076254.6A Pending CN109192201A (zh) | 2018-09-14 | 2018-09-14 | 基于双模型识别的语音领域命令理解方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109192201A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109887512A (zh) * | 2019-03-15 | 2019-06-14 | 深圳市奥迪信科技有限公司 | 智慧酒店客房控制方法及系统 |
CN113051918A (zh) * | 2019-12-26 | 2021-06-29 | 北京中科闻歌科技股份有限公司 | 基于集成学习的命名实体识别方法、装置、设备和介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103035241A (zh) * | 2012-12-07 | 2013-04-10 | 中国科学院自动化研究所 | 模型互补的汉语韵律间断识别系统及方法 |
CN104575501A (zh) * | 2015-01-19 | 2015-04-29 | 北京云知声信息技术有限公司 | 一种收音机语音操控指令解析方法及系统 |
CN105206266A (zh) * | 2015-09-01 | 2015-12-30 | 重庆长安汽车股份有限公司 | 基于用户意图猜测的车载语音控制系统及方法 |
CN106796786A (zh) * | 2014-09-30 | 2017-05-31 | 三菱电机株式会社 | 语音识别系统 |
CN106980609A (zh) * | 2017-03-21 | 2017-07-25 | 大连理工大学 | 一种基于词向量表示的条件随机场的命名实体识别方法 |
CN107346340A (zh) * | 2017-07-04 | 2017-11-14 | 北京奇艺世纪科技有限公司 | 一种用户意图识别方法及系统 |
CN108268447A (zh) * | 2018-01-22 | 2018-07-10 | 河海大学 | 一种藏文命名实体的标注方法 |
CN108428447A (zh) * | 2018-06-19 | 2018-08-21 | 科大讯飞股份有限公司 | 一种语音意图识别方法及装置 |
-
2018
- 2018-09-14 CN CN201811076254.6A patent/CN109192201A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103035241A (zh) * | 2012-12-07 | 2013-04-10 | 中国科学院自动化研究所 | 模型互补的汉语韵律间断识别系统及方法 |
CN106796786A (zh) * | 2014-09-30 | 2017-05-31 | 三菱电机株式会社 | 语音识别系统 |
CN104575501A (zh) * | 2015-01-19 | 2015-04-29 | 北京云知声信息技术有限公司 | 一种收音机语音操控指令解析方法及系统 |
CN105206266A (zh) * | 2015-09-01 | 2015-12-30 | 重庆长安汽车股份有限公司 | 基于用户意图猜测的车载语音控制系统及方法 |
CN106980609A (zh) * | 2017-03-21 | 2017-07-25 | 大连理工大学 | 一种基于词向量表示的条件随机场的命名实体识别方法 |
CN107346340A (zh) * | 2017-07-04 | 2017-11-14 | 北京奇艺世纪科技有限公司 | 一种用户意图识别方法及系统 |
CN108268447A (zh) * | 2018-01-22 | 2018-07-10 | 河海大学 | 一种藏文命名实体的标注方法 |
CN108428447A (zh) * | 2018-06-19 | 2018-08-21 | 科大讯飞股份有限公司 | 一种语音意图识别方法及装置 |
Non-Patent Citations (2)
Title |
---|
发布者:磐创AI: "《使用Keras进行深度学习:(五)RNN和双向RNN讲解及实践》", 《CSDN》 * |
洪铭材 等: "《基于条件随机场(CRFs)的中文词性标注方法》", 《计算机科学》 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109887512A (zh) * | 2019-03-15 | 2019-06-14 | 深圳市奥迪信科技有限公司 | 智慧酒店客房控制方法及系统 |
CN113051918A (zh) * | 2019-12-26 | 2021-06-29 | 北京中科闻歌科技股份有限公司 | 基于集成学习的命名实体识别方法、装置、设备和介质 |
CN113051918B (zh) * | 2019-12-26 | 2024-05-14 | 北京中科闻歌科技股份有限公司 | 基于集成学习的命名实体识别方法、装置、设备和介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107273355B (zh) | 一种基于字词联合训练的中文词向量生成方法 | |
CN107291783B (zh) | 一种语义匹配方法及智能设备 | |
Xu et al. | Convolutional neural network based triangular crf for joint intent detection and slot filling | |
CN109710744B (zh) | 一种数据匹配方法、装置、设备及存储介质 | |
CN108984530A (zh) | 一种网络敏感内容的检测方法及检测系统 | |
CN110556129A (zh) | 双模态情感识别模型训练方法及双模态情感识别方法 | |
CN109543722A (zh) | 一种基于情感分析模型的情感趋势预测方法 | |
CN103514170B (zh) | 一种语音识别的文本分类方法和装置 | |
Korpusik et al. | Spoken language understanding for a nutrition dialogue system | |
CN107180084A (zh) | 词库更新方法及装置 | |
CN107797987B (zh) | 一种基于Bi-LSTM-CNN的混合语料命名实体识别方法 | |
TW200421264A (en) | Sensor based speech recognizer selection, adaptation and combination | |
Li et al. | Towards zero-shot learning for automatic phonemic transcription | |
CN110110059A (zh) | 一种基于深度学习的医疗对话系统意图识别分类方法 | |
CN110992988B (zh) | 一种基于领域对抗的语音情感识别方法及装置 | |
CN110909144A (zh) | 问答对话方法、装置、电子设备及计算机可读存储介质 | |
CN109933792A (zh) | 基于多层双向lstm和验证模型的观点型问题阅读理解方法 | |
CN109670050A (zh) | 一种实体关系预测方法及装置 | |
CN112417132B (zh) | 一种利用谓宾信息筛选负样本的新意图识别方法 | |
CN111222318A (zh) | 基于双通道双向lstm-crf网络的触发词识别方法 | |
CN109192201A (zh) | 基于双模型识别的语音领域命令理解方法 | |
CN112000778A (zh) | 一种基于语义识别的自然语言处理方法、装置和系统 | |
CN110472245A (zh) | 一种基于层次化卷积神经网络的多标记情绪强度预测方法 | |
CN114153942B (zh) | 一种基于动态注意力机制的事件时序关系抽取方法 | |
CN109242020A (zh) | 一种基于fastText和CRF的音乐领域命令理解方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20190111 |