CN110321418A - 一种基于深度学习的领域、意图识别和槽填充方法 - Google Patents
一种基于深度学习的领域、意图识别和槽填充方法 Download PDFInfo
- Publication number
- CN110321418A CN110321418A CN201910491104.XA CN201910491104A CN110321418A CN 110321418 A CN110321418 A CN 110321418A CN 201910491104 A CN201910491104 A CN 201910491104A CN 110321418 A CN110321418 A CN 110321418A
- Authority
- CN
- China
- Prior art keywords
- vector
- sentence
- bigru
- slot
- deep learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Databases & Information Systems (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Machine Translation (AREA)
Abstract
本发明提供了一种基于深度学习的领域、意图和槽填充方法,一方面,用对话语料训练深度学习模型FF‑BiGRU,用训练后的深度学习模型FF‑BiGRU,计算对话样本语句,得到样本语句的向量表示ht。另一方面,将t时刻输入的样本语句ut和之前得到的样本语句的向量表示ht作为神经网络模型的输入,训练深度学习模型BiGRU‑BiLSTM,用训练后的深度学习模型BiGRU‑BiLSTM识别样本语句中当前对话语句ut,得到包含当前语句ut历史信息的意图分类结果s2和槽值分类结果o2。最后,将o2和s2进行特征提取和线性融合,获得语句ut的领域、意图和槽值。本发明能有效提供用户领域、意图和槽填充的准确度,准确识别用户领域、意图和槽,能提升对话系统的性能、增加用户体验,具有很大的价值和研究意义。
Description
技术领域
本发明属于人机对话系统技术领域,特别涉及一种基于深度学习的领域和意图识别及槽填充方法。
背景技术
人机对话系统是人工智能领域的核心技术之一,它即将成为一种新的人机交互方式,具有重大的研究价值。人类长期研究用自然语言与计算机进行交流,因为这有着重大的意义:人们可以用自己最熟悉的方式来使用计算机,与计算机进行交互,不需要花大量的时间学习和适应计算机语言。随着互联网时代的到来,人机对话系统的使用需求大大增加。例如机票预订、天气信息查询、办公助理等,极大的提高了人与计算机的沟通效率,方便了人们的生活和工作。各大科技巨头也纷纷加入智能对话系统的研究行列并推出相关的产品,如:苹果的siri、微软的Cortana、小冰、百度的小度等。也许在不久的未来,自然语言会代替输入设备和触摸屏成为最广泛的人机交互界面。人机对话系统主要包括:语音识别、自然语言理解、对话状态跟踪、自然语言生成、语音合成等几个模块。
自然语言理解是人机对话系统中关键的模块之一,其作用是把用户对计算机说的自然语言转换成计算机能够理解的语义表示,达到理解用户自然语言的目的。要理解用户说的话,就必须知道用户语言所涉及的领域和意图,及对用户语言中的重要信息进行标注,这就是人机对话系统中的槽填充。用户领域、意图和槽填充准确性的提高,是帮助对话系统生成合理回复的基础性工作。
在人机对话系统中,如果用户的领域和意图无法判断正确,对话系统就会生成答非所问的回复,这样的回复也就没有任何意义。因此,提升领域、意图和槽填充的准确度显得尤为重要。除此之外,准确判断用户领域、意图和标注槽填充值,在商用智能对话系统中,具有很大的商业价值。综上所述,用户领域、意图和槽填充具有很重要的研究价值和研究意义。
发明内容
本发明所要解决的问题是,利用深度学习技术以提高用户领域、意图和槽填充识别的准确度。
本发明的技术方案提供一种基于深度学习的对话系统领域、意图和槽填充识别方法,包括如下步骤:
步骤一,用对话语料训练深度学习模型FF-BiGRU,用训练后的深度学习模型FF-BiGRU,计算对话样本语句,得到样本语句的向量表示ht;所述深度学习模型FF-BiGRU融合了前馈神经网络(Feedforward Neural Network,FF)和双向门循环单元(Bi-directionalGated Recurrent Unit,BiGRU);
步骤二,将得到的向量ht输入Slot-Gated模型,得到的向量输入BiGRU-BiLSTM模型,训练Slot-Gated和BiGRU-BiLSTM联合模型,用训练后的联合模型识别样本语句中当前对话语句ut,得到包含当前语句ut历史信息的意图分类结果s2和槽值分类结果o2;所述Slot-Gated模型通过训练权重向量υ和W过滤不相关的语句信息,BiGRU-BiLSTM模型融合了双向门循环网络和双向长短期记忆网络(Bi-directional Long Short-Term Memory,BiLSTM);
步骤三,通过将意图分类结果s2和槽值分类结果o2线性融合,得到样本语句最终的领域、意图和槽值。
进一步的,步骤一的具体实现过程如下,
在对话样本中,对每一个时间步t(t=1,2,3…l),其中对话样本中一句话的输入作为一个时间步,将当前语句ut进行分词后,用对话样本训练深度学习模型FF-BiGRU中的双向门循环网络BiGRU,将t时刻当前语句ut分词后输入BiGRU,得到向量表示c,公式表示如下:
c=BiGRUc(ut) (1)
将对话样本中当前语句之前的语句{u1,u2…ut-1}输入BiGRU,得到向量表示mk,公式表示如下:
mk=BiGRUm(uk)0≤k≤t-1 (2)
将c和mk进行拼接,向量拼接以下面公式表示:
T=[[c,m1],[c,m2],[c,m3],…[c,mt-1]] (3)
前馈神经网络FF由神经网络输入层,隐藏层和输出层组成,将T输入前馈神经网络,得到对应的向量G={g1,g2,g3,…gt-1},公式如下:
G=sigmoid(FF(mk,c))0≤k≤t-1 (4)
将向量G输入双向循环门神经网络BiGRU,得到包含当前语句ut之前语句信息的向量ht,公式表示为:
ht=BiGRUs({g1,g2,g3,…gt-1}) (5)。
进一步的,步骤二的具体实现方式如下,
将语句ut输入深度学习模型BiGRU-BiLSTM中双向循环门循环网络,得到第一层的向量o1的上标1表示第一层的向量,公式如下:
o1=BiGRU1(c) (6)
将向量o1和向量ht作为模型Slot-Gated的输入,训练一个槽门机制,通过槽门机制(Slot-Gated Mechanism)调整权重υ和W,过滤一部分跟当前对话无关的上文对话信息;然后用槽门权重分类,得到跟当前对话概率较高的历史信息向量g,公式如下:
g=∑υ·tahn(c+W·ht) (7)
其中υ和W分别是训练向量和矩阵,通过对模型Slot-Gated训练得到固定值;
将第一层输出向量o1和向量g输入双向长短期记忆网络BiLSTM,输入双向长短期记忆网络得到最终的向量和s2,o2和s2的上标2表示第二层的向量,计算方法如下:
o2,s2=BiLSTM2(o1,g) (8)。
进一步的,步骤三的具体实现方式如下,
向量s2包含句子中最重要的语义特征和类别特征信息,通过用激活函数,将s2映射到领域和意图上,得到句子对应的领域和意图分类:
其中公式9和公式10中的softmax和sigmoid是激活函数;
通过对o2进行激活函数处理,得到语句ut对应的槽值nt表示语句ut有n个词对应的槽值为nt个,公式如下:
本发明提供了一种基于深度学习的领域、意图和槽填充方法,能够有效的克服多轮对话中只考虑当前语句和上下文语句,而忽略历史信息的不足。此外,在历史信息中加入槽门机制,能够有效地衡量历史语句对当前语句的重要程度,选出跟当前语句更加关联的历史语句信息。最后结合BiGRU-BiLSTM联合模型对样本语句进行特征提取和规则匹配,就能够准确的得到用户语句的领域、意图和槽填充值。依照本发明提供的集合深度学习模型和样本语句历史信息的方法,在识别精度上实现了显著的提升。本发明能有效提供用户领域、意图和槽填充的准确度,准确识别用户领域、意图和槽,能提升对话系统的性能、增加用户体验,具有很大的价值和研究意义。
附图说明
图1为本发明实施例中领域、意图和槽填充的流程图。
具体实施方法
本发明提出一种用前馈神经网络FF与双向门循环单元结合BiGRU联合模型学习样本语句的历史信息,用双向门循环单元BiGRU和双向长短期记忆网络BiLSTM联合模型加入样本语句历史信息和样本语句,计算样本语句的领域、意图和槽值向量,通过线性融合,得到多轮对话领域、意图和槽值,经过实验,本发明进一步提高了多轮对话中对话语句的领域、意图和槽填充识别的准确率。
本发明提出的结合样本语句历史信息的双向门循环单元BiGRU和双向长短期记忆网络BiLSTM联合模型,将句子历史信息融入模型中,提高多轮对话对话语句的领域、意图和槽填充识别准确率。传统的深度学习模型在识别任务中通常采用循环神经网络(RNN)及变种长短期记忆神经网络(LSTM)等,这种神经网络能很好的把握句子的时序信息,但缺乏句子的历史信息。在此基础上,本发明在传统模型上融入句子的历史信息,来增强句子中局部语义信息。该组合模型能利用更多的信息来捕获用户的领域、意图和槽信息。
本发明结合了前馈神经网络FF和双向门循环网络BiGRU,对历史信息进行特征提取和加权处理,进一步提高用户话语与历史信息的相关度。首先,用对话语料训练深度学习模型FF-BiGRU,用训练后的深度学习模型FF-BiGRU,计算对话样本语句,得到样本语句的向量表示ht。
将t时刻输入的样本语句ut和之前得到的样本语句的向量表示ht作为神经网络模型的输入,训练深度学习模型BiGRU-BiLSTM,用训练后的深度学习模型BiGRU-BiLSTM识别样本语句中当前对话语句ut,得到包含当前语句ut历史信息的意图分类结果s2和槽值分类结果o2。
最后,通过将意图分类结果s2和槽值分类结果o2线性融合,得到样本语句最终的领域、意图和槽值。
参见图1,实施例的具体实现过程如下:
步骤1,用对话语料训练深度学习模型FF-BiGRU,深度学习模型FF-BiGRU是前向神经网络(Feedforward Neural Network,FF)和BiGRU(Bi-directional Gated RecurrentUnit,BiGRU)的联合模型,用训练后的深度学习模型FF-BiGRU,计算对话样本语句,得到样本语句的向量表示ht,进行以下处理:
在对话样本中,对于每个时间步t(t=1,2,3…l)(语句样本中一句话的输入作为一个时间步),将当前语句ut进行分词后,用样本语句训练神经网络模型BiGRU,得到向量表示c,公式表示如下:
c=BiGRUc(ut) (1)
步骤2,将对话样本中当前语句之前的语句{u1,u2…ut-1}输入BiGRU,得到向量表示mk,公式表示如下:
mk=BiGRUm(uk)0≤k≤t-1 (2)
步骤3,将c和mk进行拼接,向量拼接以下面公式表示:
T=[[c,m1],[c,m2],[c,m3],…[c,mt-1]] (3)
步骤4,前馈神经网络FF由神经网络输入层,隐藏层和输出层组成。将T输入前馈神经网络,得到对应的向量G={g1,g2,g3,…gt-1},公式如下:
G=sigmoid(FF(mk,c))0≤k≤t-1 (4)
步骤5,将向量G输入双向门循环神经网络BiGRU,得到包含当前语句ut之前语句信息的向量ht,公式表示为:
ht=BiGRUs({g1,g2,g3,…gt-1}) (5)
步骤6,在深度学习模型BiGRU-BiLSTM中,进行第一层处理,将语句ut输入双向门循环神经网络BiGRU,得到第一层的向量o1的上标1表示第一层的向量,公式如下:
o1=BiGRU1(c) (6)
步骤7,将向量o1和步骤5中得到的向量ht作为Slot-Gated模型[1]的输入,训练一个槽门机制,通过槽门机制(Slot-Gated Mechanism)调整权重υ和W,过滤一部分跟当前对话无关的上文对话信息。然后用槽门权重分类,得到跟当前对话概率较高的历史信息向量g,公式如下:
g=∑υ·tahn(o1+W·ht) (7)
其中υ和W分别是训练向量和矩阵,通过对模型Slot-Gated训练得到固定值。
步骤8,将第一层输出向量o1和步骤7中得到的向量g输入双向长短期记忆网络BiLSTM,输入双向长短期记忆网络得到最终的向量和s2,o2和s2的上标2表示第二层的向量,计算方法如下:
o2,s2=BiLSTM2(o1,g) (8)
步骤9,向量s2包含句子中最重要的语义特征和类别特征信息,通过用激活函数,将s2映射到领域和意图上,得到句子对应的领域和意图分类:
其中公式9和公式10中的softmax和sigmoid是激活函数。
步骤10,通过对o2进行激活函数处理,得到语句ut对应的槽值 nt表示语句ut有n个词对应的槽值为nt个,公式如下:
本文中所描述的具体实施例仅仅是对本发明精神作举例说明。本发明所属技术领域的技术人员可以对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,但并不会偏离本发明的精神或者超越所附权利要求书所定义的范围。
参考文献:
[1].Goo,C.,et al.Slot-Gated Modeling for Joint Slot Filling andIntent Prediction.in Proceedings of the 2018 Conference of the North AmericanChapter of the Association for Computational Linguistics:Human LanguageTechnologies,Volume 2(Short Papers).2018.
Claims (4)
1.一种基于深度学习的领域、意图识别和槽填充的方法,其特征在于,包括如下步骤:
步骤一,用对话语料训练深度学习模型FF-BiGRU,用训练后的深度学习模型FF-BiGRU,计算对话样本语句,得到样本语句的向量表示ht;所述深度学习模型FF-BiGRU融合了前馈神经网络(Feedforward Neural Network,FF)和双向门循环网络(Bi-directional GatedRecurrent Unit,BiGRU);
步骤二,将得到的向量ht输入Slot-Gated模型,得到的向量输入BiGRU-BiLSTM模型,训练Slot-Gated和BiGRU-BiLSTM联合模型,用训练后的联合模型识别样本语句中当前对话语句ut,得到包含当前语句ut历史信息的意图分类结果s2和槽值分类结果o2;所述Slot-Gated模型通过训练权重向量v和W过滤不相关的语句信息,BiGRU-BiLSTM模型融合了双向门循环网络和双向长短期记忆网络(Bi-directional Long Short-Term Memory,BiLSTM);
步骤三,通过将意图分类结果s2和槽值分类结果o2线性融合,得到样本语句最终的领域、意图和槽值。
2.根据权利要求1所述基于深度学习的领域、意图识别和槽填充方法,其特征在于:步骤一的具体实现过程如下,
在对话样本中,对每一个时间步t(t=1,2,3…l),其中对话样本中一句话的输入作为一个时间步,将当前语句μt进行分词后,用对话样本训练深度学习模型FF-BiGRU中的双向门循环网络BiGRU,将t时刻当前语句ut分词后输入BiGRU,得到向量表示c,公式表示如下:
c=BiGRUc(ut) (1)
将对话样本中当前语句之前的语句{u1,u2…ut-1}输入BiGRU,得到向量表示mk,公式表示如下:
mk=BiGRUm(uk) 0≤k≤t-1 (2)
将c和mk进行拼接,向量拼接以下面公式表示:
T=[[c,m1],[c,m2],[c,m3],…[c,mt-1]] (3)
前馈神经网络FF由神经网络输入层,隐藏层和输出层组成,将T输入前馈神经网络,得到对应的向量G={g1,g2,g3,…gt-1},公式如下:
G=sigmoid(FF(mk,c)) 0≤k≤t-1 (4)
将向量G输入双向循环门神经网络BiGRU,得到包含当前语句ut之前语句信息的向量ht,公式表示为:
ht=BiGRUs({g1,g2,g3,…gt-1}) (5)。
3.根据权利要求2所述基于深度学习的领域、意图识别和槽填充方法,其特征在于:步骤二的具体实现方式如下,
将语句ut输入深度学习模型BiGRU-BiLSTM中双向循环门循环网络,得到第一层的向量o1的上标1表示第一层的向量,公式如下:
o1=BiGRU1(c) (6)
将向量o1和向量ht作为Slot-Gated模型的输入,训练一个槽门机制,通过槽门机制(Slot-Gated Mechanism)调整权重v和W,过滤一部分跟当前对话无关的上文对话信息;然后用槽门权重分类,得到跟当前对话概率较高的历史信息向量g,公式如下:
g=∑v·tahn(c+W·ht) (7)
其中v和W分别是训练向量和矩阵,通过对模型Slot-Gated训练得到固定值;
将第一层输出向量o1和向量g输入双向长短期记忆网络BiLSTM,输入双向长短期记忆网络得到最终的向量和s2,o2和s2的上标2表示第二层的向量,计算方法如下:
o2,s2=BiLSTM2(o1,g) (8)。
4.根据权利要求1所述基于深度学习的领域、意图识别和槽填充方法,其特征在于:步骤三的具体实现方式如下,
向量s2包含句子中最重要的语义特征和类别特征信息,通过用激活函数,将s2映射到领域和意图上,得到句子对应的领域和意图分类:
其中公式9和公式10中的softmax和sigmoid是激活函数;
通过对o2进行激活函数处理,得到语句ut对应的槽值nt表示语句ut有n个词对应的槽值为nt个,公式如下:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910491104.XA CN110321418B (zh) | 2019-06-06 | 2019-06-06 | 一种基于深度学习的领域、意图识别和槽填充方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910491104.XA CN110321418B (zh) | 2019-06-06 | 2019-06-06 | 一种基于深度学习的领域、意图识别和槽填充方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110321418A true CN110321418A (zh) | 2019-10-11 |
CN110321418B CN110321418B (zh) | 2021-06-15 |
Family
ID=68120805
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910491104.XA Active CN110321418B (zh) | 2019-06-06 | 2019-06-06 | 一种基于深度学习的领域、意图识别和槽填充方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110321418B (zh) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111177381A (zh) * | 2019-12-21 | 2020-05-19 | 深圳市傲立科技有限公司 | 基于语境向量反馈的槽填充和意图检测联合建模方法 |
CN111221961A (zh) * | 2019-10-31 | 2020-06-02 | 南京南邮信息产业技术研究院有限公司 | 一种基于s-lstm模型与槽值门的说话人意图识别系统及方法 |
CN111353035A (zh) * | 2020-03-11 | 2020-06-30 | 镁佳(北京)科技有限公司 | 人机对话方法、装置、可读存储介质及电子设备 |
CN111651573A (zh) * | 2020-05-26 | 2020-09-11 | 上海智臻智能网络科技股份有限公司 | 一种智能客服对话回复生成方法、装置和电子设备 |
CN111984785A (zh) * | 2020-08-14 | 2020-11-24 | 海南中智信信息技术有限公司 | 一种基于多领域多轮问答的对话状态跟踪方法 |
CN112199486A (zh) * | 2020-10-21 | 2021-01-08 | 中国电子科技集团公司第十五研究所 | 一种办公场景的任务型多轮对话方法及系统 |
CN112800190A (zh) * | 2020-11-11 | 2021-05-14 | 重庆邮电大学 | 基于Bert模型的意图识别与槽值填充联合预测方法 |
TWI737101B (zh) * | 2019-12-27 | 2021-08-21 | 財團法人工業技術研究院 | 問答學習方法、應用其之問答學習系統及其電腦程式產品 |
CN113742480A (zh) * | 2020-06-18 | 2021-12-03 | 北京汇钧科技有限公司 | 客服应答方法和装置 |
WO2022198750A1 (zh) * | 2021-03-26 | 2022-09-29 | 南京邮电大学 | 语义识别方法 |
CN117238275A (zh) * | 2023-08-24 | 2023-12-15 | 北京邮电大学 | 基于常识推理的语音合成模型训练方法、装置及合成方法 |
US12014284B2 (en) | 2019-12-27 | 2024-06-18 | Industrial Technology Research Institute | Question-answering learning method and question-answering learning system using the same and computer program product thereof |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070124263A1 (en) * | 2005-11-30 | 2007-05-31 | Microsoft Corporation | Adaptive semantic reasoning engine |
US20140222422A1 (en) * | 2013-02-04 | 2014-08-07 | Microsoft Corporation | Scaling statistical language understanding systems across domains and intents |
CN108363690A (zh) * | 2018-02-08 | 2018-08-03 | 北京十三科技有限公司 | 基于神经网络的对话语义意图预测方法及学习训练方法 |
CN108874782A (zh) * | 2018-06-29 | 2018-11-23 | 北京寻领科技有限公司 | 一种层次注意力lstm和知识图谱的多轮对话管理方法 |
-
2019
- 2019-06-06 CN CN201910491104.XA patent/CN110321418B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070124263A1 (en) * | 2005-11-30 | 2007-05-31 | Microsoft Corporation | Adaptive semantic reasoning engine |
US20140222422A1 (en) * | 2013-02-04 | 2014-08-07 | Microsoft Corporation | Scaling statistical language understanding systems across domains and intents |
CN108363690A (zh) * | 2018-02-08 | 2018-08-03 | 北京十三科技有限公司 | 基于神经网络的对话语义意图预测方法及学习训练方法 |
CN108874782A (zh) * | 2018-06-29 | 2018-11-23 | 北京寻领科技有限公司 | 一种层次注意力lstm和知识图谱的多轮对话管理方法 |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111221961A (zh) * | 2019-10-31 | 2020-06-02 | 南京南邮信息产业技术研究院有限公司 | 一种基于s-lstm模型与槽值门的说话人意图识别系统及方法 |
CN111177381A (zh) * | 2019-12-21 | 2020-05-19 | 深圳市傲立科技有限公司 | 基于语境向量反馈的槽填充和意图检测联合建模方法 |
US12014284B2 (en) | 2019-12-27 | 2024-06-18 | Industrial Technology Research Institute | Question-answering learning method and question-answering learning system using the same and computer program product thereof |
TWI737101B (zh) * | 2019-12-27 | 2021-08-21 | 財團法人工業技術研究院 | 問答學習方法、應用其之問答學習系統及其電腦程式產品 |
CN111353035A (zh) * | 2020-03-11 | 2020-06-30 | 镁佳(北京)科技有限公司 | 人机对话方法、装置、可读存储介质及电子设备 |
CN111651573A (zh) * | 2020-05-26 | 2020-09-11 | 上海智臻智能网络科技股份有限公司 | 一种智能客服对话回复生成方法、装置和电子设备 |
CN111651573B (zh) * | 2020-05-26 | 2023-09-05 | 上海智臻智能网络科技股份有限公司 | 一种智能客服对话回复生成方法、装置和电子设备 |
CN113742480A (zh) * | 2020-06-18 | 2021-12-03 | 北京汇钧科技有限公司 | 客服应答方法和装置 |
CN111984785B (zh) * | 2020-08-14 | 2022-03-18 | 海南中智信信息技术有限公司 | 一种基于多领域多轮问答的对话状态跟踪方法 |
CN111984785A (zh) * | 2020-08-14 | 2020-11-24 | 海南中智信信息技术有限公司 | 一种基于多领域多轮问答的对话状态跟踪方法 |
CN112199486A (zh) * | 2020-10-21 | 2021-01-08 | 中国电子科技集团公司第十五研究所 | 一种办公场景的任务型多轮对话方法及系统 |
CN112800190A (zh) * | 2020-11-11 | 2021-05-14 | 重庆邮电大学 | 基于Bert模型的意图识别与槽值填充联合预测方法 |
WO2022198750A1 (zh) * | 2021-03-26 | 2022-09-29 | 南京邮电大学 | 语义识别方法 |
CN117238275A (zh) * | 2023-08-24 | 2023-12-15 | 北京邮电大学 | 基于常识推理的语音合成模型训练方法、装置及合成方法 |
CN117238275B (zh) * | 2023-08-24 | 2024-03-19 | 北京邮电大学 | 基于常识推理的语音合成模型训练方法、装置及合成方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110321418B (zh) | 2021-06-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110321418A (zh) | 一种基于深度学习的领域、意图识别和槽填充方法 | |
CN111897933B (zh) | 情感对话生成方法、装置及情感对话模型训练方法、装置 | |
CN111966800B (zh) | 情感对话生成方法、装置及情感对话模型训练方法、装置 | |
CN105139864B (zh) | 语音识别方法和装置 | |
CN107492382A (zh) | 基于神经网络的声纹信息提取方法及装置 | |
CN112037773B (zh) | 一种n最优口语语义识别方法、装置及电子设备 | |
CN111400461B (zh) | 智能客服问题匹配方法及装置 | |
CN110866121A (zh) | 一种面向电力领域知识图谱构建方法 | |
CN114973062A (zh) | 基于Transformer的多模态情感分析方法 | |
CN113779310B (zh) | 一种基于层级表征网络的视频理解文本生成方法 | |
CN109637526A (zh) | 基于个人身份特征的dnn声学模型的自适应方法 | |
CN111782788A (zh) | 一种面向开放域对话系统的情感回复自动生成方法 | |
CN110069611A (zh) | 一种主题增强的聊天机器人回复生成方法及装置 | |
CN113823272A (zh) | 语音处理方法、装置、电子设备以及存储介质 | |
CN112101044A (zh) | 一种意图识别方法、装置及电子设备 | |
CN113656564A (zh) | 一种基于图神经网络的电网业务对话数据情感检测方法 | |
CN111653270A (zh) | 语音处理方法、装置、计算机可读存储介质及电子设备 | |
Yeh et al. | Speech Representation Learning for Emotion Recognition Using End-to-End ASR with Factorized Adaptation. | |
CN114360584A (zh) | 一种基于音素级的语音情感分层式识别方法及系统 | |
CN114416948A (zh) | 一种基于语义感知的一对多对话生成方法及装置 | |
Wang | [Retracted] Research on Open Oral English Scoring System Based on Neural Network | |
CN115376547B (zh) | 发音评测方法、装置、计算机设备和存储介质 | |
CN111783852A (zh) | 一种基于深度强化学习自适应式生成图像描述的方法 | |
Hu et al. | Speech emotion recognition based on attention mcnn combined with gender information | |
CN116434786A (zh) | 融合文本语义辅助的教师语音情感识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |