CN110321418B - 一种基于深度学习的领域、意图识别和槽填充方法 - Google Patents

一种基于深度学习的领域、意图识别和槽填充方法 Download PDF

Info

Publication number
CN110321418B
CN110321418B CN201910491104.XA CN201910491104A CN110321418B CN 110321418 B CN110321418 B CN 110321418B CN 201910491104 A CN201910491104 A CN 201910491104A CN 110321418 B CN110321418 B CN 110321418B
Authority
CN
China
Prior art keywords
vector
bigru
slot
deep learning
statement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910491104.XA
Other languages
English (en)
Other versions
CN110321418A (zh
Inventor
何婷婷
孙博
汤丽
王逾凡
潘敏
元帅
吕潇翔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Central China Normal University
Original Assignee
Central China Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Central China Normal University filed Critical Central China Normal University
Priority to CN201910491104.XA priority Critical patent/CN110321418B/zh
Publication of CN110321418A publication Critical patent/CN110321418A/zh
Application granted granted Critical
Publication of CN110321418B publication Critical patent/CN110321418B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs

Abstract

本发明提供了一种基于深度学习的领域、意图和槽填充方法,一方面,用对话语料训练深度学习模型FF‑BiGRU,用训练后的深度学习模型FF‑BiGRU,计算对话样本语句,得到样本语句的向量表示ht。另一方面,将t时刻输入的样本语句ut和之前得到的样本语句的向量表示ht作为神经网络模型的输入,训练深度学习模型BiGRU‑BiLSTM,用训练后的深度学习模型BiGRU‑BiLSTM识别样本语句中当前对话语句ut,得到包含当前语句ut历史信息的意图分类结果s2和槽值分类结果o2。最后,将o2和s2进行特征提取和线性融合,获得语句ut的领域、意图和槽值。本发明能有效提供用户领域、意图和槽填充的准确度,准确识别用户领域、意图和槽,能提升对话系统的性能、增加用户体验,具有很大的价值和研究意义。

Description

一种基于深度学习的领域、意图识别和槽填充方法
技术领域
本发明属于人机对话系统技术领域,特别涉及一种基于深度学习的领域和意图识别及槽填充方法。
背景技术
人机对话系统是人工智能领域的核心技术之一,它即将成为一种新的人机交互方式,具有重大的研究价值。人类长期研究用自然语言与计算机进行交流,因为这有着重大的意义:人们可以用自己最熟悉的方式来使用计算机,与计算机进行交互,不需要花大量的时间学习和适应计算机语言。随着互联网时代的到来,人机对话系统的使用需求大大增加。例如机票预订、天气信息查询、办公助理等,极大的提高了人与计算机的沟通效率,方便了人们的生活和工作。各大科技巨头也纷纷加入智能对话系统的研究行列并推出相关的产品,如:苹果的siri、微软的Cortana、小冰、百度的小度等。也许在不久的未来,自然语言会代替输入设备和触摸屏成为最广泛的人机交互界面。人机对话系统主要包括:语音识别、自然语言理解、对话状态跟踪、自然语言生成、语音合成等几个模块。
自然语言理解是人机对话系统中关键的模块之一,其作用是把用户对计算机说的自然语言转换成计算机能够理解的语义表示,达到理解用户自然语言的目的。要理解用户说的话,就必须知道用户语言所涉及的领域和意图,及对用户语言中的重要信息进行标注,这就是人机对话系统中的槽填充。用户领域、意图和槽填充准确性的提高,是帮助对话系统生成合理回复的基础性工作。
在人机对话系统中,如果用户的领域和意图无法判断正确,对话系统就会生成答非所问的回复,这样的回复也就没有任何意义。因此,提升领域、意图和槽填充的准确度显得尤为重要。除此之外,准确判断用户领域、意图和标注槽填充值,在商用智能对话系统中,具有很大的商业价值。综上所述,用户领域、意图和槽填充具有很重要的研究价值和研究意义。
发明内容
本发明所要解决的问题是,利用深度学习技术以提高用户领域、意图和槽填充识别的准确度。
本发明的技术方案提供一种基于深度学习的对话系统领域、意图和槽填充识别方法,包括如下步骤:
步骤一,用对话语料训练深度学习模型FF-BiGRU,用训练后的深度学习模型FF-BiGRU,计算对话样本语句,得到样本语句的向量表示ht;所述深度学习模型FF-BiGRU融合了前馈神经网络(Feedforward Neural Network,FF)和双向门循环单元(Bi-directionalGated Recurrent Unit,BiGRU);
步骤二,将得到的向量ht输入Slot-Gated模型,得到的向量输入BiGRU-BiLSTM模型,训练Slot-Gated和BiGRU-BiLSTM联合模型,用训练后的联合模型识别样本语句中当前对话语句ut,得到包含当前语句ut历史信息的意图分类结果s2和槽值分类结果o2;所述Slot-Gated模型通过训练权重向量v和W过滤不相关的语句信息,BiGRU-BiLSTM模型融合了双向门循环网络和双向长短期记忆网络(Bi-directional Long Short-Term Memory,BiLSTM);
步骤三,通过将意图分类结果s2和槽值分类结果o2线性融合,得到样本语句最终的领域、意图和槽值。
进一步的,步骤一的具体实现过程如下,
在对话样本中,对每一个时间步t(t=1,2,3…l),其中对话样本中一句话的输入作为一个时间步,将当前语句ut进行分词后,用对话样本训练深度学习模型FF-BiGRU中的双向门循环网络BiGRU,将t时刻当前语句ut分词后输入BiGRU,得到向量表示c,公式表示如下:
c=BiGRUc(ut) (1)
将对话样本中当前语句之前的语句{u1,u2…ut-1}输入BiGRU,得到向量表示mk,公式表示如下:
mk=BiGRUm(uk)0≤k≤t-1 (2)
将c和mk进行拼接,向量拼接以下面公式表示:
T=[[c,m1],[c,m2],[c,m3],…[c,mt-1]] (3)
前馈神经网络FF由神经网络输入层,隐藏层和输出层组成,将T输入前馈神经网络,得到对应的向量G={g1,g2,g3,…gt-1},公式如下:
G=sigmoid(FF(mk,c))0≤k≤t-1 (4)
将向量G输入双向循环门神经网络BiGRU,得到包含当前语句ut之前语句信息的向量ht,公式表示为:
ht=BiGRUs({g1,g2,g3,…gt-1}) (5)。
进一步的,步骤二的具体实现方式如下,
将语句ut输入深度学习模型BiGRU-BiLSTM中双向循环门循环网络,得到第一层的向量
Figure GDA0002997650660000031
o1的上标1表示第一层的向量,公式如下:
o1=BiGRU1(c) (6)
将向量o1和向量ht作为模型Slot-Gated的输入,训练一个槽门机制,通过槽门机制(Slot-Gated Mechanism)调整权重v和W,过滤一部分跟当前对话无关的上文对话信息;然后用槽门权重分类,得到跟当前对话概率较高的历史信息向量g,公式如下:
g=∑v·tahn(c+W·ht) (7)
其中v和W分别是训练向量和矩阵,通过对模型Slot-Gated训练得到固定值;
将第一层输出向量o1和向量g输入双向长短期记忆网络BiLSTM,输入双向长短期记忆网络得到最终的向量
Figure GDA0002997650660000041
和s2,o2和s2的上标2表示第二层的向量,计算方法如下:
o2,s2=BiLSTM2(o1,g) (8)。
进一步的,步骤三的具体实现方式如下,
向量s2包含句子中最重要的语义特征和类别特征信息,通过用激活函数,将s2映射到领域和意图上,得到句子对应的领域和意图分类:
pdomain=softmax(Us2) (9)
pintent=sigmoid(Vs2) (10)
其中公式9和公式10中的softmax和sigmoid是激活函数;
通过对o2进行激活函数处理,得到语句ut对应的槽值
Figure GDA0002997650660000042
Figure GDA0002997650660000043
nt表示语句ut有n个词对应的槽值为nt个,公式如下:
Figure GDA0002997650660000044
本发明提供了一种基于深度学习的领域、意图和槽填充方法,能够有效的克服多轮对话中只考虑当前语句和上下文语句,而忽略历史信息的不足。此外,在历史信息中加入槽门机制,能够有效地衡量历史语句对当前语句的重要程度,选出跟当前语句更加关联的历史语句信息。最后结合BiGRU-BiLSTM联合模型对样本语句进行特征提取和规则匹配,就能够准确的得到用户语句的领域、意图和槽填充值。依照本发明提供的集合深度学习模型和样本语句历史信息的方法,在识别精度上实现了显著的提升。本发明能有效提供用户领域、意图和槽填充的准确度,准确识别用户领域、意图和槽,能提升对话系统的性能、增加用户体验,具有很大的价值和研究意义。
附图说明
图1为本发明实施例中领域、意图和槽填充的流程图。
具体实施方法
本发明提出一种用前馈神经网络FF与双向门循环单元结合BiGRU联合模型学习样本语句的历史信息,用双向门循环单元BiGRU和双向长短期记忆网络BiLSTM联合模型加入样本语句历史信息和样本语句,计算样本语句的领域、意图和槽值向量,通过线性融合,得到多轮对话领域、意图和槽值,经过实验,本发明进一步提高了多轮对话中对话语句的领域、意图和槽填充识别的准确率。
本发明提出的结合样本语句历史信息的双向门循环单元BiGRU和双向长短期记忆网络BiLSTM联合模型,将句子历史信息融入模型中,提高多轮对话对话语句的领域、意图和槽填充识别准确率。传统的深度学习模型在识别任务中通常采用循环神经网络(RNN)及变种长短期记忆神经网络(LSTM)等,这种神经网络能很好的把握句子的时序信息,但缺乏句子的历史信息。在此基础上,本发明在传统模型上融入句子的历史信息,来增强句子中局部语义信息。该组合模型能利用更多的信息来捕获用户的领域、意图和槽信息。
本发明结合了前馈神经网络FF和双向门循环网络BiGRU,对历史信息进行特征提取和加权处理,进一步提高用户话语与历史信息的相关度。首先,用对话语料训练深度学习模型FF-BiGRU,用训练后的深度学习模型FF-BiGRU,计算对话样本语句,得到样本语句的向量表示ht
将t时刻输入的样本语句ut和之前得到的样本语句的向量表示ht作为神经网络模型的输入,训练深度学习模型BiGRU-BiLSTM,用训练后的深度学习模型BiGRU-BiLSTM识别样本语句中当前对话语句ut,得到包含当前语句ut历史信息的意图分类结果s2和槽值分类结果o2
最后,通过将意图分类结果s2和槽值分类结果o2线性融合,得到样本语句最终的领域、意图和槽值。
参见图1,实施例的具体实现过程如下:
步骤1,用对话语料训练深度学习模型FF-BiGRU,深度学习模型FF-BiGRU是前向神经网络(Feedforward Neural Network,FF)和BiGRU(Bi-directional Gated RecurrentUnit,BiGRU)的联合模型,用训练后的深度学习模型FF-BiGRU,计算对话样本语句,得到样本语句的向量表示ht,进行以下处理:
在对话样本中,对于每个时间步t(t=1,2,3…l)(语句样本中一句话的输入作为一个时间步),将当前语句ut进行分词后,用样本语句训练神经网络模型BiGRU,得到向量表示c,公式表示如下:
c=BiGRUc(ut) (1)
步骤2,将对话样本中当前语句之前的语句{u1,u2…ut-1}输入BiGRU,得到向量表示mk,公式表示如下:
mk=BiGRUm(uk)0≤k≤t-1 (2)
步骤3,将c和mk进行拼接,向量拼接以下面公式表示:
T=[[c,m1],[c,m2],[c,m3],…[c,mt-1]] (3)
步骤4,前馈神经网络FF由神经网络输入层,隐藏层和输出层组成。将T输入前馈神经网络,得到对应的向量G={g1,g2,g3,…gt-1},公式如下:
G=sigmoid(FF(mk,c))0≤k≤t-1 (4)
步骤5,将向量G输入双向门循环神经网络BiGRU,得到包含当前语句ut之前语句信息的向量ht,公式表示为:
ht=BiGRUs({g1,g2,g3,…gt-1}) (5)
步骤6,在深度学习模型BiGRU-BiLSTM中,进行第一层处理,将语句ut输入双向门循环神经网络BiGRU,得到第一层的向量
Figure GDA0002997650660000071
o1的上标1表示第一层的向量,公式如下:
o1=BiGRU1(c) (6)
步骤7,将向量o1和步骤5中得到的向量ht作为Slot-Gated模型[1]的输入,训练一个槽门机制,通过槽门机制(Slot-Gated Mechanism)调整权重v和W,过滤一部分跟当前对话无关的上文对话信息。然后用槽门权重分类,得到跟当前对话概率较高的历史信息向量g,公式如下:
g=∑v·tahn(o1+W·ht) (7)
其中v和W分别是训练向量和矩阵,通过对模型Slot-Gated训练得到固定值。
步骤8,将第一层输出向量o1和步骤7中得到的向量g输入双向长短期记忆网络BiLSTM,输入双向长短期记忆网络得到最终的向量
Figure GDA0002997650660000072
和s2,o2和s2的上标2表示第二层的向量,计算方法如下:
o2,s2=BiLSTM2(o1,g) (8)
步骤9,向量s2包含句子中最重要的语义特征和类别特征信息,通过用激活函数,将s2映射到领域和意图上,得到句子对应的领域和意图分类:
pdomain=softmax(Us2) (9)
pintent=sigmoid(Vs2) (10)
其中公式9和公式10中的softmax和sigmoid是激活函数。
步骤10,通过对o2进行激活函数处理,得到语句ut对应的槽值
Figure GDA0002997650660000081
Figure GDA0002997650660000082
nt表示语句ut有n个词对应的槽值为nt个,公式如下:
Figure GDA0002997650660000083
本文中所描述的具体实施例仅仅是对本发明精神作举例说明。本发明所属技术领域的技术人员可以对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,但并不会偏离本发明的精神或者超越所附权利要求书所定义的范围。

Claims (3)

1.一种基于深度学习的领域、意图识别和槽填充的方法,其特征在于,包括如下步骤:
步骤一,用对话语料训练深度学习模型FF-BiGRU,用训练后的深度学习模型FF-BiGRU,计算对话样本语句,得到样本语句的向量表示ht;所述深度学习模型FF-BiGRU融合了前馈神经网络(Feedforward Neural Network,FF)和双向门循环网络(Bi-directional GatedRecurrent Unit,BiGRU);
步骤二,将得到的向量ht输入Slot-Gated模型,得到的向量输入BiGRU-BiLSTM模型,t表示时间步,训练Slot-Gated和BiGRU-BiLSTM联合模型,用训练后的联合模型识别样本语句中当前对话语句ut,得到包含当前语句ut历史信息的意图分类结果s2和槽值分类结果o2;所述Slot-Gated模型通过训练权重向量v和W过滤不相关的语句信息,BiGRU-BiLSTM模型融合了双向门循环网络和双向长短期记忆网络(Bi-directional Long Short-Term Memory,BiLSTM);
步骤三,通过将意图分类结果s2和槽值分类结果o2线性融合,得到样本语句最终的领域、意图和槽值;具体实现方式如下,
向量s2包含句子中最重要的语义特征和类别特征信息,通过用激活函数,将s2映射到领域和意图上,得到句子对应的领域和意图分类:
pdomain=softmax(Us2) (9)
pintent=sigmoid(Vs2) (10)
其中公式9和公式10中的softmax和sigmoid是激活函数;
通过对o2进行激活函数处理,得到语句ut对应的槽值
Figure FDA0002997650650000011
Figure FDA0002997650650000021
nt表示语句ut有n个词对应的槽值为nt个,公式如下:
Figure FDA0002997650650000022
2.根据权利要求1所述基于深度学习的领域、意图识别和槽填充方法,其特征在于:步骤一的具体实现过程如下,
在对话样本中,对每一个时间步t,t=1,2,3…l,其中对话样本中一句话的输入作为一个时间步,将当前语句ut进行分词后,用对话样本训练深度学习模型FF-BiGRU中的双向门循环网络BiGRU,将t时刻当前语句ut分词后输入BiGRU,得到向量表示c,公式表示如下:
c=BiGRUc(ut) (1)
将对话样本中当前语句之前的语句{u1,u2…ut-1}输入BiGRU,得到向量表示mk,公式表示如下:
mk=BiGRUm(uk) 0≤k≤t-1 (2)
将c和mk进行拼接,向量拼接以下面公式表示:
T=[[c,m1],[c,m2],[c,m3],…[c,mt-1]] (3)
前馈神经网络FF由神经网络输入层,隐藏层和输出层组成,将T输入前馈神经网络,得到对应的向量G={g1,g2,g3,…gt-1},公式如下:
G=sigmoid(FF(mk,c))0≤k≤t-1 (4)
将向量G输入双向循环门神经网络BiGRU,得到包含当前语句ut之前语句信息的向量ht,公式表示为:
ht=BiGRUs({g1,g2,g3,…gt-1}) (5)。
3.根据权利要求2所述基于深度学习的领域、意图识别和槽填充方法,其特征在于:步骤二的具体实现方式如下,
将语句ut输入深度学习模型BiGRU-BiLSTM中双向循环门循环网络,得到第一层的向量
Figure FDA0002997650650000031
o1的上标1表示第一层的向量,公式如下:
o1=BiGRU1(c) (6)
将向量o1和向量ht作为Slot-Gated模型的输入,训练一个槽门机制,通过槽门机制(Slot-Gated Mechanism)调整权重v和W,过滤一部分跟当前对话无关的上文对话信息;然后用槽门权重分类,得到跟当前对话概率较高的历史信息向量g,公式如下:
g=∑v·tahn(c+W·ht) (7)
其中v和W分别是训练向量和矩阵,通过对模型Slot-Gated训练得到固定值;
将第一层输出向量o1和向量g输入双向长短期记忆网络BiLSTM,输入双向长短期记忆网络得到最终的向量
Figure FDA0002997650650000032
和s2,o2和s2的上标2表示第二层的向量,计算方法如下:
o2,s2=BiLSTM2(o1,g) (8)。
CN201910491104.XA 2019-06-06 2019-06-06 一种基于深度学习的领域、意图识别和槽填充方法 Active CN110321418B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910491104.XA CN110321418B (zh) 2019-06-06 2019-06-06 一种基于深度学习的领域、意图识别和槽填充方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910491104.XA CN110321418B (zh) 2019-06-06 2019-06-06 一种基于深度学习的领域、意图识别和槽填充方法

Publications (2)

Publication Number Publication Date
CN110321418A CN110321418A (zh) 2019-10-11
CN110321418B true CN110321418B (zh) 2021-06-15

Family

ID=68120805

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910491104.XA Active CN110321418B (zh) 2019-06-06 2019-06-06 一种基于深度学习的领域、意图识别和槽填充方法

Country Status (1)

Country Link
CN (1) CN110321418B (zh)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111221961A (zh) * 2019-10-31 2020-06-02 南京南邮信息产业技术研究院有限公司 一种基于s-lstm模型与槽值门的说话人意图识别系统及方法
CN111177381A (zh) * 2019-12-21 2020-05-19 深圳市傲立科技有限公司 基于语境向量反馈的槽填充和意图检测联合建模方法
TWI737101B (zh) * 2019-12-27 2021-08-21 財團法人工業技術研究院 問答學習方法、應用其之問答學習系統及其電腦程式產品
CN111353035B (zh) * 2020-03-11 2021-02-19 镁佳(北京)科技有限公司 人机对话方法、装置、可读存储介质及电子设备
CN111651573B (zh) * 2020-05-26 2023-09-05 上海智臻智能网络科技股份有限公司 一种智能客服对话回复生成方法、装置和电子设备
CN113742480A (zh) * 2020-06-18 2021-12-03 北京汇钧科技有限公司 客服应答方法和装置
CN111984785B (zh) * 2020-08-14 2022-03-18 海南中智信信息技术有限公司 一种基于多领域多轮问答的对话状态跟踪方法
CN112199486A (zh) * 2020-10-21 2021-01-08 中国电子科技集团公司第十五研究所 一种办公场景的任务型多轮对话方法及系统
CN112800190B (zh) * 2020-11-11 2022-06-10 重庆邮电大学 基于Bert模型的意图识别与槽值填充联合预测方法
CN113204952B (zh) * 2021-03-26 2023-09-15 南京邮电大学 一种基于聚类预分析的多意图与语义槽联合识别方法
CN117238275B (zh) * 2023-08-24 2024-03-19 北京邮电大学 基于常识推理的语音合成模型训练方法、装置及合成方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7822699B2 (en) * 2005-11-30 2010-10-26 Microsoft Corporation Adaptive semantic reasoning engine
US9292492B2 (en) * 2013-02-04 2016-03-22 Microsoft Technology Licensing, Llc Scaling statistical language understanding systems across domains and intents
CN108363690A (zh) * 2018-02-08 2018-08-03 北京十三科技有限公司 基于神经网络的对话语义意图预测方法及学习训练方法
CN108874782B (zh) * 2018-06-29 2019-04-26 北京寻领科技有限公司 一种层次注意力lstm和知识图谱的多轮对话管理方法

Also Published As

Publication number Publication date
CN110321418A (zh) 2019-10-11

Similar Documents

Publication Publication Date Title
CN110321418B (zh) 一种基于深度学习的领域、意图识别和槽填充方法
CN109241255B (zh) 一种基于深度学习的意图识别方法
Vashisht et al. Speech recognition using machine learning
Ren et al. Intention detection based on siamese neural network with triplet loss
CN110647612A (zh) 一种基于双视觉注意力网络的视觉对话生成方法
WO2021169745A1 (zh) 基于语句前后关系预测的用户意图识别方法及装置
WO2021022816A1 (zh) 一种基于深度学习网络的意图识别方法
CN112037773B (zh) 一种n最优口语语义识别方法、装置及电子设备
CN112101044B (zh) 一种意图识别方法、装置及电子设备
CN111597342B (zh) 一种多任务意图分类方法、装置、设备及存储介质
Liu et al. Turn-Taking Estimation Model Based on Joint Embedding of Lexical and Prosodic Contents.
CN114490991A (zh) 基于细粒度局部信息增强的对话结构感知对话方法及系统
CN115062104A (zh) 融合知识提示的法律文本小样本命名实体识别方法
Wang Speech recognition in English cultural promotion via recurrent neural network
Peguda et al. Speech to sign language translation for Indian languages
CN111553157A (zh) 一种基于实体替换的对话意图识别方法
CN114360584A (zh) 一种基于音素级的语音情感分层式识别方法及系统
KR102297480B1 (ko) 비정형 질문 또는 요구 발화의 구조화된 패러프레이징 시스템 및 방법
CN112257432A (zh) 一种自适应意图识别方法、装置及电子设备
CN112307179A (zh) 文本匹配方法、装置、设备及存储介质
CN115795010A (zh) 一种外部知识辅助的多因素层次建模共情对话生成方法
CN114238605B (zh) 一种智能语音客服机器人自动对话方法及装置
CN116010874A (zh) 基于深度学习多模态深尺度情感特征融合的情感识别方法
CN114758676A (zh) 一种基于深度残差收缩网络的多模态情感识别方法
Pan et al. A Multiple Utterances based Neural Network Model for Joint Intent Detection and Slot Filling.

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant