CN111104498B - 一种任务型对话系统中的语义理解方法 - Google Patents

一种任务型对话系统中的语义理解方法 Download PDF

Info

Publication number
CN111104498B
CN111104498B CN201911270705.4A CN201911270705A CN111104498B CN 111104498 B CN111104498 B CN 111104498B CN 201911270705 A CN201911270705 A CN 201911270705A CN 111104498 B CN111104498 B CN 111104498B
Authority
CN
China
Prior art keywords
label
domain
intent
task
loss
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911270705.4A
Other languages
English (en)
Other versions
CN111104498A (zh
Inventor
蔡毅
孔俊生
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China University of Technology SCUT
Original Assignee
South China University of Technology SCUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China University of Technology SCUT filed Critical South China University of Technology SCUT
Priority to CN201911270705.4A priority Critical patent/CN111104498B/zh
Publication of CN111104498A publication Critical patent/CN111104498A/zh
Application granted granted Critical
Publication of CN111104498B publication Critical patent/CN111104498B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Databases & Information Systems (AREA)
  • Machine Translation (AREA)

Abstract

本发明公开了一种任务型对话系统中的语义理解方法,包括步骤:收集与特定任务相关的对话数据,标注出每句对话数据的领域、意图以及槽值;对收集的对话数据进行预处理,根据预处理后的数据对构建的多任务级联神经网络模型进行训练;根据模型训练获得的领域、意图以及槽值,计算多任务级联神经网络模型的损失函数,根据损失函数值多次迭代,获得最终的多任务级联神经网络模型;将待识别的对话数据进行预处理后输入到最终的模型中,识别对话数据中语句的领域、意图以及槽值。该发明解决了目前语义理解系统识别准确率低的问题,提高了任务型对话系统中自然语言理解三个子任务的识别准确率。

Description

一种任务型对话系统中的语义理解方法
技术领域
本发明涉及自然语言理解领域,尤其涉及一种基于深度学习的任务型对话系统中的语义理解方法。
背景技术
由于人机对话系统充满巨大的潜力和诱人的商业价值,人机对话引起了越来越多的关注。随着大数据和深度学习技术的发展,创建自动人机对话系统作为人类的个人助理或聊天伙伴,不再是幻想。人机对话系统的目的是机器能够智能地跟人进行多轮自然语言的交互。人机对话系统根据不同的功能,大致分为两类:一类是闲聊型对话系统,典型的代表有微软小冰。小冰对话系统主要通过语音、文字、图片与人交互,这类系统并不执着于某项特定的任务,主要是实现与人自由、平等的情感上的一个交流。另一类对话系统是任务型对话系统,这类系统的代表有阿里小蜜,任务型对话系统以任务为导向,帮助人们实现某项特定的任务。由于任务型对话系统能够极大地减少人工的成本,提高人们的工作效率,并且相较于目前的人工客服,能够实现全天24小时服务,减少客户的等待时间,具有巨大的商业价值,因此得到了大量研究。
任务型对话系统使用最广泛的方法是将对话系统看成流水线式的系统,所述系统由自然语言理解模块、对话管理模块,对话策略学习模块和对话生成模块组成。由于流水线模式的系统可能存在错误传播,因此作为任务型对话系统中第一个步骤的自然语言理解模块,具有至关重要作用。自然语言理解模块主要的工作是对用户的输入进行语义分析,获取用户的对话行为以及与任务相关的重要的信息。
在任务型对话系统中,早期系统使用基于模板的方法解决自然语言理解模块,主要是通过人工对数据进行研究,基于字、词的组合提取出具体任务的模板,在得到模板的集合之后,给每个模板设定固定的使用顺序,最后再对每一轮的对话依次使用模板进行精确匹配,从而提取任务需要的特定语义信息。这种方法的缺点是显而易见的。第一个是这种方法需要耗费大量的人力,成本过高。第二个缺点是每一个任务的模板差异性太大,往往不能复用,泛化能力太差,在准确率上表现不佳。
除了基于模板的方法,部分系统使用机器学习方法分别单独解决领域分类、意图识别以及槽填充这三个任务,但是这些方法普遍存在识别准确率较低的问题。
发明内容
本发明的目的在于克服现有任务型对话系统预测句准确率低的问题,提供一种基于多任务学习的任务型对话系统中的语义理解方法。本发明采用BERT作为三个任务共享的强大的特征提取器,利用多任务级联训练三个任务,训练得到能够识别用户语句的领域、意图和槽信息的自然语言理解模型,提供了一种简洁有效的语义理解方法。
本发明的目的能够通过以下技术方案实现:
一种任务型对话系统中的语义理解方法,包括步骤:
收集与特定任务相关的对话数据,标注出每句对话数据的领域、意图以及槽值;
对收集的对话数据进行预处理,根据预处理后的数据对构建的多任务级联神经网络模型进行训练;
根据模型训练获得的领域、意图以及槽值,计算多任务级联神经网络模型的损失函数,模型根据损失函数值进行迭代,获得最终的多任务级联神经网络模型;
将待识别的对话数据进行预处理后输入到最终的模型中,识别对话数据中语句的领域、意图以及槽值。
具体地,所述特定任务包括领域识别、意图分类以及预定义的槽值填充。
具体地,根据对话数据的槽值标注该语句槽值的首标签和尾标签。
具体地,所述构建的多任务级联神经网络模型结构包括BERT层、domain嵌入层、intent嵌入层、domain分类层、intent分类层以及槽标签分类层。
具体地,对收集的对话数据进行预处理为:
对收集的对话数据按句子进行划分,每个句子按字进行划分得到字嵌入特征,并采用字符“[CLS]”作为每个句子的开端,采用字符“[SEP]”作为句子间的分隔符。
具体地,根据预处理后的数据对构建的多任务级联神经网络模型进行训练的步骤中,包括:
将预处理后的字嵌入特征输入BERT层进行处理,获得相应的隐状态序列;
将隐状态序列中字符“[CLS]”对应的隐藏层向量输入domain分类层的Softmax分类器中,获取领域标签;
将领域标签输入domain嵌入层进行处理后获得领域标签的嵌入表示,将该嵌入表示与字符“[CLS]”对应的隐藏层向量进行拼接,输入到intent分类层的Softmax分类器中,获取意图标签;
将意图标签输入intent嵌入层进行处理后获得意图标签的嵌入表示,将领域标签的嵌入表示和意图标签的嵌入表示分别与隐状态序列中每个字的隐藏层向量进行拼接,输入到槽标签分类层中,获取槽值的首标签和尾标签。
更进一步地,获得领域标签的方法为:
领域的概率分布的计算方法如下:
p(domain|s)=softmax(Wd·h1+bd)
其中,domain表示领域的标签类别,s表示输入的句子。Wd表示领域权重矩阵,bd表示领域偏移向量。取概率最大的类别作为该句子的领域标签。
更进一步地,获得意图标签的方法为:
意图的概率分布的计算方法如下:
Figure BDA0002314080430000041
其中,intent表示意图的标签类别,Wi表示意图权重矩阵,bi表示意图偏移向量,e_d(domain)表示将domain变换为领域嵌入向量。取概率最大的类别作为该句子的意图标签。
更进一步地,获得槽值的首标签和尾标签的方法为:
首标签Hi的计算方式如下:
Figure BDA0002314080430000042
尾标签Ti的计算方式如下:
Figure BDA0002314080430000043
其中,Wh和Wt分别表示首标签和尾标签权重矩阵,bh和bt分别表示首标签和尾标签偏移向量,e_i(intent)表示将intent变换为意图嵌入向量。
具体地,多任务级联神经网络损失函数计算方法为:
Loss=2.5*Lossdomain+1.5*Lossintent+Losshead+Losstail
其中,Lossdomain表示领域分类任务的损失函数,Lossintent表示意图识别任务的损失函数,Losshead和Losstail分别表示槽填充任务的首标签和尾标签的损失函数。三个子任务的损失函数如下:
领域分类任务的损失函数:
Figure BDA0002314080430000051
其中,D为领域类别的数量;yd为指示变量(0或1),如果该类别和样本的类别相同就是1,否则是0;pd为对于观测样本属于类别d的预测概率。
意图识别任务的损失函数:
Figure BDA0002314080430000052
其中,I为意图类别的数量;yi为指示变量(0或1),如果该类别和样本的类别相同就是1,否则是0;pi为对于观测样本属于类别i的预测概率。
槽填充任务的首标签的损失函数Losshead
Figure BDA0002314080430000053
其中,H为槽填充中首标签类别的数量;yh为指示变量(0或1),如果该类别和样本的类别相同就是1,否则是0;ph为对于观测样本属于类别d的预测概率。
槽填充任务的尾标签的损失函数Losstail
Figure BDA0002314080430000061
其中,T为槽填充中尾标签类别的数量;yt为指示变量(0或1),如果该类别和样本的类别相同就是1,否则是0;pt为对于观测样本属于类别t的预测概率。
本发明相较于现有技术,具有以下的有益效果:
本发明使用BERT作为三个任务的特征提取层,能够大幅提高句子特征提取信息量,并且通过联合三个任务训练,能够更好通过任务之间的作用提高准确率。本发明三个任务之间采用级联预测的方法,能够提高三个任务均预测正确的句准确率。本发明采用深度网络模型自动提取特征,具有较好的泛化性。
附图说明
图1是一种任务型对话系统的自然语言理解系统的流程图。
图2是基于BERT的多任务级联神经网络模型图。
具体实施方式
下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方式不限于此。
实施例
如图1所示为一种任务型对话系统中的语义理解方法的流程图,包括步骤:
S1、收集与特定任务相关的对话数据,标注出每句对话数据的领域、意图以及槽值;
在S1中,从对话平台的用户日志中,将用户对话日志按照句子划分,得到用户的对话数据,例如:“做可乐鸡翅需要哪些材料?”,对对话数据进行数据标注,具体有三个任务的标签:
第一类的标签是领域类别,领域类别包括有:公交,地图,火车,电话等。
第二类的标签是意图的类别,意图的类别有:查询,播放,打开等。
第三类的标签是槽值类别及其值,槽值的类别有:姓名,地点,时间,内容等。
例如,“做可乐鸡翅需要哪些材料?”的三类标签分别是:领域(美食),意图(查询),槽值(菜名:可乐鸡翅)。
S2、对收集的对话数据进行预处理,根据预处理后的数据对构建的多任务级联神经网络模型进行训练;
如图2所示,是本申请提出的基于BERT的多任务级联的神经网络图。在S2中,领域识别,意图分类,槽填充任务三个子任务共享BERT层。得到相同的句子表征。在输入BERT层前,对训练语句进行预处理。
例如,“做可乐鸡翅需要哪些材料?”按字划分,按照BERT预定义的数据格式得到字嵌入特征:“[CLS]做可乐鸡翅需要哪些材料?[SEP]”以及分句标签“11111111111111”。这里的[CLS]表示的是句子的开端。[SEP]是句子的分隔符。这里输入语句只有一个句子,所以分句标签只有一个类别。经过BERT层得到上下文信息的隐状态序列H=(h1,...,hT)。
第一个特殊字符[CLS]的隐藏层向量h1作为整个句子的特征向量输入到domain分类层的softmax分类器中,得到句子在领域类别上的概率分布。领域的概率分布的计算如下:
p(domain|s)=softmax(Wd·h1+bd)
其中,domain表示领域的标签类别,s表示输入的句子。Wd表示领域权重矩阵,bd表示领域偏移向量。取概率最大的类别作为该句子的领域标签。
将该领域标签经过domain嵌入层得到领域标签的嵌入表示。将该嵌入表示与第一个特殊字符[CLS]的隐藏层向量h1进行拼接,作为特征向量输入到intent分类层的softmax分类器中,得到句子在意图类别上的概率分布。
意图的概率分布的计算如下:
Figure BDA0002314080430000081
其中,intent表示意图的标签类别,Wi表示意图权重矩阵,bi表示意图偏移向量,e_d(domain)表示将domain变换为领域嵌入向量。取概率最大的类别作为该句子的意图标签。
将领域分类的结果作为意图分类的特征,这能够缓解系统生成领域正确但是意图错误的问题。将该意图标签经过intent嵌入层得到意图标签的嵌入表示。槽标签分类层包含两个分类器,分别是首标签的Softmax分类器,及尾标签的Softmax分类器。将语句的领域标签和意图标签分别转换为对应的领域标签向量和意图标签向量,然后将这两个标签向量拼接到每个字的表示中,经过槽标签分类层分别预测语句的首标签Hi和尾标签Ti
首标签Hi的计算方式如下:
Figure BDA0002314080430000082
尾标签Ti的计算方式如下:
Figure BDA0002314080430000083
其中,Wh和Wt分别表示首标签和尾标签权重矩阵,bh和bt分别表示首标签和尾标签偏移向量,e_i(intent)表示将intent变换为意图嵌入向量。
S3、根据模型训练获得的领域、意图以及槽值,计算多任务级联神经网络模型的损失函数,模型根据损失函数值进行迭代,获得最终的多任务级联神经网络模型;
本发明使用三个子任务的加权交叉熵,损失函数是三个任务的损失函数加权之和:
Loss=2.5*LosSdomain+1.5*Lossintent+Losshead+Losstail
其中,Lossdomain代表领域分类任务的损失函数,Lossintent代表意图识别任务的损失函数,Losshead和Losstail分别代表槽填充任务的首标签和尾标签的损失函数。
使用句准确度指标判断模型表现:如果输入句子的领域,意图,槽值都识别正确,那么该句子识别正确,计算acc=(句子识别正确的数量)/句子总数,这个指标最好的时候即为表现最好。
通过迭代微调模型得到在测试集上表现最好的模型。
S4、将待识别的对话数据进行预处理后输入到最终的模型中,识别对话数据中语句的领域、意图以及槽值。
在S4中,将待预测的对话数据进行预处理,例如:“做可乐鸡翅需要哪些材料?”。将预处理后的数据,输入到已经训练好的模型。通过领域识别模块可以得到领域类别上的概率分布,如[0.1,0.2,...,0.4]。0.4是概率最大的值,取最大概率所对应的领域类别:美食。将处理后的数据以及领域输入到意图分类模型中,得到意图类别上的概率分布,如[0.8,0.01,...,0.1]。0.8是概率最大的值,取最大概率所对应的意图类别:查询。将处理后的数据,领域以及意图分别输入到首标签分类模型中,得到所有字在首标签类别上的概率分布,如[[0.11,0.31,…,0.1],[0.11,0.11,…,0.1],…,[0.11,0.31,…,0.1]],每个字的首标签取最大概率所对应的首标签类别,得到[0 0 3 0 0 0 0 0 0 0 0 0 0]。同样地将处理后的数据,领域以及意图分别输入到尾标签分类模型中,得到所有字在尾标签类别上的概率分布,如[[0.11,0.11,…,0.1],[0.11,0.01,…,0.1],…,[0.11,0.81,…,0.1]],每个字的尾标签取最大概率所对应的首标签类别,得到[0 0 0 0 0 3 0 0 0 0 0 0 0]。根据首标签及尾标签的位置抽取出原句的第3个至第6个字,即“可乐鸡翅”。槽值类别选择“3”对应的标签:菜名。得到该句话的槽值:菜名(可乐鸡翅)。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。

Claims (3)

1.一种任务型对话系统中的语义理解方法,其特征在于,包括步骤:
收集与特定任务相关的对话数据,标注出每句对话数据的领域、意图以及槽值;所述特定任务包括领域识别、意图分类以及预定义的槽值填充;
对收集的对话数据进行预处理,根据预处理后的数据对构建的多任务级联神经网络模型进行训练;根据对话数据的槽值标注该语句槽值的首标签和尾标签;
对收集的对话数据进行预处理为:
对收集的对话数据按句子进行划分,每个句子按字进行划分得到字嵌入特征,并采用字符“[CLS]”作为每个句子的开端,采用字符“[SEP]”作为句子间的分隔符;
根据预处理后的数据对构建的多任务级联神经网络模型进行训练的步骤中,包括:
将预处理后的字嵌入特征输入BERT层进行处理,获得相应的隐状态序列;
将隐状态序列中字符“[CLS]”对应的隐藏层向量输入domain分类层中,获取领域标签;
将领域标签输入domain嵌入层进行处理后获得领域标签的嵌入表示,将该嵌入表示与字符“[CLS]”对应的隐藏层向量进行拼接,输入到intent分类层中,获取意图标签;
将意图标签输入intent嵌入层进行处理后获得意图标签的嵌入表示,将领域标签的嵌入表示和意图标签的嵌入表示分别与隐状态序列中每个字的隐藏层向量进行拼接,输入到槽标签分类层中,获取槽值的首标签和尾标签;
获得领域标签的方法为:
领域的概率分布的计算方法如下:
p(domain|s)=softmax(Wd·h1+bd)
其中,domain表示领域的标签类别,s表示输入的句子,Wd表示领域权重矩阵,bd表示领域偏移向量;取概率最大的类别作为该句子的领域标签;
获得意图标签的方法为:
意图的概率分布的计算方法如下:
Figure FDA0004058023310000021
其中,intent表示意图的标签类别,Wi表示意图权重矩阵,bi表示意图偏移向量,e_d(domain)表示将domain变换为领域嵌入向量;取概率最大的类别作为句子的意图标签;
获得槽值的首标签和尾标签的方法为:
首标签Hi的计算方式如下:
Figure FDA0004058023310000022
尾标签Ti的计算方式如下:
Figure FDA0004058023310000023
其中,Wh和Wt分别表示首标签和尾标签权重矩阵,bh和bt分别表示首标签和尾标签偏移向量,e_i(intent)表示将intent变换为意图嵌入向量;
根据模型训练获得的领域、意图以及槽值,计算多任务级联神经网络模型的损失函数,模型根据损失函数值进行迭代,获得最终的多任务级联神经网络模型;
将待识别的对话数据进行预处理后输入到最终的模型中,识别对话数据中语句的领域、意图以及槽值。
2.根据权利要求1所述的方法,其特征在于,所述构建的多任务级联神经网络模型结构包括BERT层、domain嵌入层、intent嵌入层、domain分类层、intent分类层以及槽标签分类层。
3.根据权利要求1所述的方法,其特征在于,多任务级联神经网络损失函数计算方法为:
Loss=2.5*Lossdomain+1.5*Lossintent+Losshead+Losstail
其中,Lossdomain表示领域分类任务的损失函数,Lossintent表示意图识别任务的损失函数,Losshead和Losstail分别表示槽填充任务的首尾的损失函数。
CN201911270705.4A 2019-12-12 2019-12-12 一种任务型对话系统中的语义理解方法 Active CN111104498B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911270705.4A CN111104498B (zh) 2019-12-12 2019-12-12 一种任务型对话系统中的语义理解方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911270705.4A CN111104498B (zh) 2019-12-12 2019-12-12 一种任务型对话系统中的语义理解方法

Publications (2)

Publication Number Publication Date
CN111104498A CN111104498A (zh) 2020-05-05
CN111104498B true CN111104498B (zh) 2023-04-25

Family

ID=70423388

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911270705.4A Active CN111104498B (zh) 2019-12-12 2019-12-12 一种任务型对话系统中的语义理解方法

Country Status (1)

Country Link
CN (1) CN111104498B (zh)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111738018A (zh) * 2020-06-24 2020-10-02 深圳前海微众银行股份有限公司 一种意图理解方法、装置、设备及存储介质
CN111767384A (zh) * 2020-07-08 2020-10-13 上海风秩科技有限公司 人机对话的处理方法、装置、设备及存储介质
CN113971399A (zh) * 2020-07-23 2022-01-25 北京金山数字娱乐科技有限公司 识别模型的训练方法及装置、文本识别方法及装置
CN111599382B (zh) * 2020-07-27 2020-10-27 深圳市声扬科技有限公司 语音分析方法、装置、计算机设备和存储介质
CN112069300A (zh) * 2020-09-04 2020-12-11 中国平安人寿保险股份有限公司 任务型对话的语义识别方法、装置、电子设备及存储介质
CN112800190B (zh) * 2020-11-11 2022-06-10 重庆邮电大学 基于Bert模型的意图识别与槽值填充联合预测方法
CN112270182B (zh) * 2020-11-12 2022-11-08 佰聆数据股份有限公司 一种基于多轮对话问答式的分析思路衍生方法、系统及存储介质
CN112364662A (zh) * 2020-11-13 2021-02-12 中国科学院软件研究所 一种基于神经网络的意图识别方法及电子装置
CN112489639A (zh) * 2020-11-26 2021-03-12 北京百度网讯科技有限公司 音频信号处理方法及装置、系统、电子设备、可读介质
CN112597310A (zh) * 2020-12-25 2021-04-02 深圳市声希科技有限公司 领域和意图分层联合分类方法、装置、设备及存储介质
CN112925918B (zh) * 2021-02-26 2023-03-24 华南理工大学 一种基于疾病领域知识图谱的问答匹配系统
CN113177415A (zh) * 2021-04-30 2021-07-27 科大讯飞股份有限公司 语义理解方法、装置、电子设备和存储介质
CN115292491B (zh) * 2022-08-04 2023-06-02 四川大学 基于ctmsn-ehi的任务型多轮对话信息处理方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110516260A (zh) * 2019-08-30 2019-11-29 腾讯科技(深圳)有限公司 实体推荐方法、装置、存储介质及设备
CN110533324A (zh) * 2019-08-29 2019-12-03 深圳市慧择时代科技有限公司 保险客服的自动分配的方法及装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110533324A (zh) * 2019-08-29 2019-12-03 深圳市慧择时代科技有限公司 保险客服的自动分配的方法及装置
CN110516260A (zh) * 2019-08-30 2019-11-29 腾讯科技(深圳)有限公司 实体推荐方法、装置、存储介质及设备

Also Published As

Publication number Publication date
CN111104498A (zh) 2020-05-05

Similar Documents

Publication Publication Date Title
CN111104498B (zh) 一种任务型对话系统中的语义理解方法
CN107766371B (zh) 一种文本信息分类方法及其装置
JP7302022B2 (ja) テキスト分類方法、装置、コンピュータ読み取り可能な記憶媒体及びテキスト分類プログラム。
CN109685056B (zh) 获取文档信息的方法及装置
CN106156365B (zh) 一种知识图谱的生成方法及装置
CN108664474B (zh) 一种基于深度学习的简历解析方法
CN108763510A (zh) 意图识别方法、装置、设备及存储介质
CN111883115A (zh) 语音流程质检的方法及装置
CN113051914A (zh) 一种基于多特征动态画像的企业隐藏标签抽取方法及装置
CN110046356B (zh) 标签嵌入的微博文本情绪多标签分类方法
CN111046656A (zh) 文本处理方法、装置、电子设备及可读存储介质
CN109582788A (zh) 垃圾评论训练、识别方法、装置、设备及可读存储介质
WO2021036439A1 (zh) 一种信访问题答复方法及装置
CN108829823A (zh) 一种文本分类方法
CN110633475A (zh) 基于计算机场景的自然语言理解方法、装置、系统和存储介质
CN112016320A (zh) 基于数据增强的英文标点符号添加方法和系统及设备
CN111144102A (zh) 用于识别语句中实体的方法、装置和电子设备
CN111435375A (zh) 一种基于FastText的威胁情报自动化标注方法
CN111368066B (zh) 获取对话摘要的方法、装置和计算机可读存储介质
CN114139548A (zh) 基于模板匹配结合小样本深度模型的口语语言理解方法
CN109635289B (zh) 词条分类方法及审计信息抽取方法
CN115496830A (zh) 产品需求流程图的生成方法及装置
CN116029303A (zh) 语言表达方式识别方法、装置、电子设备和存储介质
WO2022262080A1 (zh) 一种对话关系处理方法、计算机及可读存储介质
CN112883183B (zh) 构建多分类模型的方法、智能客服方法和相关装置及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant