CN111767384A - 人机对话的处理方法、装置、设备及存储介质 - Google Patents
人机对话的处理方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN111767384A CN111767384A CN202010652966.9A CN202010652966A CN111767384A CN 111767384 A CN111767384 A CN 111767384A CN 202010652966 A CN202010652966 A CN 202010652966A CN 111767384 A CN111767384 A CN 111767384A
- Authority
- CN
- China
- Prior art keywords
- text
- model
- sample
- operation intention
- intention
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title claims description 24
- 238000012545 processing Methods 0.000 claims abstract description 76
- 238000000034 method Methods 0.000 claims abstract description 69
- 230000011218 segmentation Effects 0.000 claims description 36
- 238000012549 training Methods 0.000 claims description 28
- 238000004590 computer program Methods 0.000 claims description 14
- 238000002372 labelling Methods 0.000 claims description 11
- 238000006243 chemical reaction Methods 0.000 claims description 5
- 238000012937 correction Methods 0.000 claims description 5
- 230000004044 response Effects 0.000 abstract description 14
- 230000009286 beneficial effect Effects 0.000 abstract description 5
- 239000011159 matrix material Substances 0.000 description 17
- 230000004048 modification Effects 0.000 description 15
- 238000012986 modification Methods 0.000 description 15
- 230000008569 process Effects 0.000 description 15
- 238000010586 diagram Methods 0.000 description 14
- 239000013598 vector Substances 0.000 description 10
- 230000008859 change Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 6
- 230000003993 interaction Effects 0.000 description 6
- 238000011176 pooling Methods 0.000 description 6
- 238000013507 mapping Methods 0.000 description 5
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 230000005012 migration Effects 0.000 description 3
- 238000013508 migration Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000013145 classification model Methods 0.000 description 2
- 238000011084 recovery Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000005728 strengthening Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/166—Editing, e.g. inserting or deleting
- G06F40/186—Templates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Human Computer Interaction (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Machine Translation (AREA)
Abstract
本申请实施例提供的人机对话的处理方法、装置、设备及存储介质,应用于计算机技术领域,该方法包括:根据预先训练的目标联合模型,对输入的请求文本进行处理,得到请求文本的第一操作意图和第一操作意图对应的第一槽填充信息,根据第一槽填充信息,执行第一操作意图对应的操作,得到操作执行结果,根据第一操作意图获取回复模板,采用操作执行结果填充回复模板,得到请求文本对应的回复文本。本申请实施例的有益效果:通过引入联合模型得到第一操作意图和第一槽填充信息,避免了先意图识别再槽填充,减少了一个处理步骤,从而提高了回复文本的获取效率,进而加快了智能客服的响应速度。
Description
技术领域
本申请涉及计算机技术领域,具体而言,涉及一种人机对话的处理方法、装置、设备及存储介质。
背景技术
随着电商行业的快速发展,业务量、订单数持续增长,用户发起的问题即请求文本也越来越多,对用户发起请求文本进行处理后,一般采用智能客服来回复用户。
现有技术中,对于用户发起请求文本通常采用如下方式进行处理:对用户发起请求文本进行领域分类,然后在确定的领域中,对用户发起请求文本进行意图识别,用于识别出该请求文本对应的是什么需求,然后根据识别出的意图进行槽填充,接着智能客服响应用户,例如,用户发起的请求文本为“我想修改xxx的订单的收货地址为xx学校”,其对应的领域为售后,意图识别为“收货地址修改”,槽填充为“订单:xxx;新收货地址:xx学校”,当地址修改成功后,智能客服可以回复用户“地址修改成功”。
然而,上述方案中,处理用户发起请求文本需要分别经过领域分类、意图识别、槽填充这三个步骤,导致智能客服响应较慢。
发明内容
本申请的目的在于,针对上述现有技术中的不足,提供一种人机对话的处理方法、装置、设备及存储介质,以解决现有技术中智能客服响应较慢的问题。
为实现上述目的,本申请实施例采用的技术方案如下:
第一方面,本申请一实施例提供了一种人机对话的处理方法,所述方法包括:
根据预先训练的目标联合模型,对输入的请求文本进行处理,得到所述请求文本的第一操作意图和所述第一操作意图对应的第一槽填充信息;其中,所述目标联合模型为预先采用样本数据集进行训练得到的模型,所述样本数据集中每个文本样本预先标记有样本操作意图,以及所述样本操作意图对应的槽填充信息;
根据所述第一槽填充信息,执行所述第一操作意图对应的操作,得到操作执行结果;
根据所述第一操作意图获取回复模板;
采用所述操作执行结果填充所述回复模板,得到所述请求文本对应的回复文本。
在一可选实施方式中,所述根据预先训练的目标联合模型,对输入的请求文本进行处理,得到所述请求文本的第一操作意图和所述第一操作意图对应的第一槽填充信息,包括:
根据所述目标联合模型对所述请求文本进行分类处理,得到所述第一操作意图;
根据所述目标联合模型对所述请求文本进行序列标注处理,得到所述第一槽填充信息。
在一可选实施方式中,所述样本数据集包括第一样本数据集和第二样本数据集,所述目标联合模型通过如下方式训练得到:
采用所述第一样本数据集进行模型训练,得到初始联合模型;
根据所述初始联合模型,对所述第二样本数据集中的每个文本样本进行处理,得到所述文本样本的第二操作意图和所述第二操作意图对应的第二槽填充信息;
根据所述第二操作意图和所述第二槽填充信息,优化所述初始联合模型,得到所述目标联合模型。
在一可选实施方式中,所述根据所述第二操作意图和所述第二槽填充信息,优化所述初始联合模型,得到所述目标联合模型,包括:
确定所述第二样本数据集中是否存在目标文本样本;其中,所述目标文本样本为意图识别错误的样本,或者意图识别偏差的样本;
若是,采用所述目标文本样本的第二操作意图和第二槽填充信息,优化所述初始联合模型,得到所述目标联合模型。
在一可选实施方式中,所述根据预先训练的目标联合模型,对输入的请求文本进行处理,得到所述请求文本的第一操作意图和所述第一操作意图对应的第一槽填充信息之前,还包括:
确定所述请求文本的领域类别;
根据所述领域类别,以及预设的领域类别和联合模型的对应关系,从预先训练的多个联合模型中确定所述目标联合模型。
在一可选实施方式中,所述确定所述请求文本的领域类别,包括:
将所述请求文本转换为满足预设条件的文本;
对转换后的文本进行分类,获取所述领域类别。
在一可选实施方式中,所述将所述请求文本转换为满足预设条件的文本,包括:
采用繁简转换、全交转半角、基础语法词形纠正中的至少一种操作,将所述请求文本转换为满足所述预设条件的文本。
在一可选实施方式中,所述对转换后的文本进行分类,获取所述领域类别,包括:
对所述转换后的文本进行分词处理,得到分词信息;
根据所述分词信息,确定所述领域类别。
在一可选实施方法中,所述根据所述分词信息,确定所述领域类别,包括:
根据预先训练的文本领域识别模型,对所述分词信息进行处理,确定所述领域类别。
第二方面,本申请另一实施例提供了一种人机对话的处理装置,所述装置包括:
处理模块,用于根据预先训练的目标联合模型,对输入的请求文本进行处理,得到所述请求文本的第一操作意图和所述第一操作意图对应的第一槽填充信息;其中,所述目标联合模型为预先采用样本数据集进行训练得到的模型,所述样本数据集中每个文本样本预先标记有样本操作意图,以及所述样本操作意图对应的槽填充信息;根据所述第一槽填充信息,执行所述第一操作意图对应的操作,得到操作执行结果;
获取模块,用于根据所述第一操作意图获取回复模板;采用所述操作执行结果填充所述回复模板,得到所述请求文本对应的回复文本。
在一可选实施方式中,所述处理模块,具体用于:
根据所述目标联合模型对所述请求文本进行分类处理,得到所述第一操作意图;
根据所述目标联合模型对所述请求文本进行序列标注处理,得到所述第一槽填充信息。
在一可选实施方式中,所述样本数据集包括第一样本数据集和第二样本数据集,还包括:
训练模块,用于采用所述第一样本数据集进行模型训练,得到初始联合模型;根据所述初始联合模型,对所述第二样本数据集中的每个文本样本进行处理,得到所述文本样本的第二操作意图和所述第二操作意图对应的第二槽填充信息;根据所述第二操作意图和所述第二槽填充信息,优化所述初始联合模型,得到所述目标联合模型。
在一可选实施方式中,所述训练模块,具体用于:
确定所述第二样本数据集中是否存在目标文本样本;其中,所述目标文本样本为意图识别错误的样本,或者意图识别偏差的样本;
若是,采用所述目标文本样本的第二操作意图和第二槽填充信息,优化所述初始联合模型,得到所述目标联合模型。
在一可选实施方式中,还包括:
确定模块,用于确定所述请求文本的领域类别;根据所述领域类别,以及预设的领域类别和联合模型的对应关系,从预先训练的多个联合模型中确定所述目标联合模型。
在一可选实施方式中,所述确定模块,具体用于:
将所述请求文本转换为满足预设条件的文本;
对转换后的文本进行分类,获取所述领域类别。
在一可选实施方式中,所述确定模块,具体用于:
采用繁简转换、全交转半角、基础语法词形纠正中的至少一种操作,将所述请求文本转换为满足所述预设条件的文本。
在一可选实施方式中,所述确定模块,具体用于:
对所述转换后的文本进行分词处理,得到分词信息;
根据所述分词信息,确定所述领域类别。
在一可选实施方式中,所述确定模块,具体用于:
根据预先训练的文本领域识别模型,对所述分词信息进行处理,确定所述领域类别。
第三方面,本申请另一实施例提供了一种人机对话的处理设备,包括:存储器、处理器,所述存储器中存储有可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时,实现上述第一方面任一项所述方法。
第四方面,本申请另一实施例提供了一种存储介质,所述存储介质上存储有计算机程序,该计算机程序被处理器执行时,实现上述第一方面任一项所述方法。
本申请实施例提供的人机对话的处理方法、装置、设备及存储介质,该方法包括:根据预先训练的目标联合模型,对输入的请求文本进行处理,得到请求文本的第一操作意图和第一操作意图对应的第一槽填充信息,目标联合模型为预先采用样本数据集进行训练得到的模型,样本数据集中每个文本样本预先标记有样本操作意图,以及样本操作意图对应的槽填充信息,根据第一槽填充信息,执行第一操作意图对应的操作,得到操作执行结果,根据第一操作意图获取回复模板,采用操作执行结果填充回复模板,得到请求文本对应的回复文本。本申请实施例的有益效果:通过引入联合模型得到第一操作意图和第一槽填充信息,避免了先意图识别再槽填充,减少了一个处理步骤,从而提高了回复文本的获取效率,进而加快了智能客服的响应速度。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本申请的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1示出了本申请实施例提供的人机对话的场景示意图;
图2示出了本申请实施例提供的人机对话的处理方法的流程示意图一;
图3示出了本申请实施例提供的模板1的示意图;
图4示出了本申请实施例提供的回复文本的示意图;
图5示出了本申请实施例提供的人机对话的处理方法的流程示意图二;
图6示出了本申请实施例的人机对话方法的处理方法的流程示意图三;
图7示出了本申请实施例提供的人机对话的处理方法的流程示意图四;
图8示出了本申请实施例提供的人机对话的处理方法的流程示意图五;
图9示出了本申请实施例提供的人机对话的处理方法的流程示意图六;
图10示出了本申请实施例提供的目标联合模型的示意图;
图11示出了本申请实施例提供的人机对话的处理装置的结构示意图;
图12示出了本申请实施例提供的人机对话的处理设备的结构示意图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,应当理解,本申请中附图仅起到说明和描述的目的,并不用于限定本申请的保护范围。另外,应当理解,示意性的附图并未按实物比例绘制。本申请中使用的流程图示出了根据本申请的一些实施例实现的操作。应该理解,流程图的操作可以不按顺序实现,没有逻辑的上下文关系的步骤可以反转顺序或者同时实施。此外,本领域技术人员在本申请内容的指引下,可以向流程图添加一个或多个其他操作,也可以从流程图中移除一个或多个操作。
另外,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本申请实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本申请的实施例的详细描述并非旨在限制要求保护的本申请的范围,而是仅仅表示本申请的选定实施例。基于本申请的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本申请保护的范围。
需要说明的是,本申请实施例中将会用到术语“包括”,用于指出其后所声明的特征的存在,但并不排除增加其它的特征。此外,本申请的说明书和权利要求书及附图中的术语“第一”、“第二”、“第三”及“第四”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。
图1示出了本申请实施例提供的人机对话的场景示意图,如图1所示,本申请实施例提供的人机对话的处理方法可以应用于电商行业,当用户可以通过第一终端10发起请求文本,例如,“我想修改xxx的订单的收货地址为xx学校”,当电商平台将xxx订单的收货地址为xx学校后,可以通过第二终端20向用户发送回复文本,例如“您好,xxx订单的收货地址已修改”,其中,第二终端可以通过智能客服来向用户发送回复文本。
当然,第一终端10、第二终端20分别可以为手机、平板电脑、笔记本电脑等终端设备,本实施例对此不做限定。
目前,随着业务量、订单数持续增长,智能客服的工作量成倍增加,其中存在很大一部分属于重复性问题,因此,实现高效合理的智能客服不仅有助于控制成本,而且能够提高响应速度。
现有技术中,执行的相关流程如下:
首先,针对客户发起的请求文本,即疑问(英文名称:query),作领域分类,将该请求文本传递到具体的领域中去解决;然后,实施意图识别,用于识别出该请求文本提出一个具体的要求或者需求;接着,根据上一步确定的意图识别作槽填充,从该请求文本中提取出需要解答这个意图或者执行该意图需要的信息;最后,当执行相应操作后,智能客服响应用户。
由上可知,处理该请求文本需要执行领域分类、意图识别和槽填充三个步骤,这样存在以下问题:一、比较耗时导致智能客服响应较慢;二、错误的积累和传递,当意图识别结果存在错误时,该错误会传递到槽填充,例如,意图识别结果和槽填充的准确率分别为0.9,则整体的准确率为0.81,这将执行存在偏差的操作,进而智能客服回复给用户的文本也存在偏差;三、采用该方式在小数据集上过拟合严重,导致回复文本不够准确。
基于此,本申请实施例提供了一种人机对话的处理方法,通过引入联合模型得到第一操作意图和第一槽填充信息,避免了先意图识别再槽填充,减少了一个处理步骤,从而提高了回复文本的获取效率,进而加快了智能客服的响应速度;并且通过主动学习策略,使得模型学习到更多的信息,从而提高回复文本的准确度,提高响应速度的同时还保证了高质量的响应。
下面结合图1示出的人机对话的场景示意图,对本申请实施例提供的人机对话的处理方法进行详细说明。
图2示出了本申请实施例提供的人机对话的处理方法的流程示意图一,本实施例的执行主体可以为图1中的第二终端。如图2所示,该方法包括:
S101、根据预先训练的目标联合模型,对输入的请求文本进行处理,得到请求文本的第一操作意图和第一操作意图对应的第一槽填充信息。
其中,请求文本为模型应用过程中,用户输入的请求执行相应操作的文本,例如“请您帮忙把xxx订单的地址改到长宁区”、“请把物品xxx由XL码换成L码”。
第一操作意图为用户请求执行的操作意图,例如“收货地址修改”、“换货”、“退货”、“快递”等;第一槽填充信息为第一操作意图对应的具体的填充信息。
举例而言,请求文本为“请您帮忙把xxx订单的地址改到长宁区”,根据目标联合模型对该请求文本进行处理得到该请求文本的第一操作意图和第二槽填充信息,其中,xxx表示订单号,则第一操作意图为“收货地址修改”,第一槽填充信息为“订单:xxx;新收货地址:长宁区”。
其中,目标联合模型为预先采用样本数据集进行训练得到的模型,样本数据集中每个文本样本预先标记有样本操作意图,以及样本操作意图对应的槽填充信息。
文本样本为模型训练过程中,用户输入的请求执行相应操作的文本;样本操作意图为模型训练过程中,用户请求执行的操作意图;样本操作意图对应的槽填充信息为模型训练过程中,该操作意图对应的具体的填充信息。
具体地,在模型训练过程中,预先对样本数据集中每个文本样本的样本操作意图以及该样本操作意图对应的槽填充信息进行标记,然后采用该样本数据集进行模型训练得到目标联合模型,也就是说,目标联合模型为预先采用样本数据集进行训练得到的模型。
然后,可以根据训练得到的目标联合模型对输入的请求文本进行处理,得到该请求文本的第一操作意图和第一操作意图对应的第一槽填充信息。
S102、根据第一槽填充信息,执行第一操作意图对应的操作,得到操作执行结果。
举例而言,第一槽填充信息为“订单:xxx;新收货地址:长宁区”,第一操作意图为“收货地址修改”,则根据第一槽填充信息可以执行第一操作意图对应的操作,即执行修改收货地址,将收货地址修改为“长宁区”,得到操作执行结果,该操作执行结果例如可以为“已修改”、“收货地址修改成功”。
此外,由于某种原因导致第一操作意图对应的操作执行失败,例如,xxx订单已到达首次收货地址,则无法修改收货地址,相应的,操作执行结果例如可以为“地址修改失败”、“无法修改”。
S103、根据第一操作意图获取回复模板。
在本实施例中,操作意图和回复模板可以具有对应关系,根据操作意图和回复模板之间的对应关系,可以确定第一操作意图对应的回复模板。
示例性地,操作意图和回复模板的对应关系可以以表格的形式表示。表1为操作意图和回复模板的对应表,如表1所示,操作意图包括“收货地址修改”、“换货”、“退货”、“快递”,回复模板分别为模板1、模板2、模板3、模板4。
操作意图 | 回复模板 |
收货地址修改 | 模板1 |
换货 | 模板2 |
退货 | 模板3 |
快递 | 模板4 |
表1
需要说明的是,上述对应表只是一种示例性描述,在实际应用中,操作意图和回复模板的对应关系包括但不限于以上形式。
举例而言,当第一操作意图为“收货地址修改”时,则其对应的回复模板即为模板1。图3示出了本申请实施例提供的模板1的示意图,如图3所示,模板1中包括待填充的信息,以及预先填充的通用信息,通用信息可以为“您好()祝您生活愉快!”,待填充的信息为()中的信息。
S104、采用操作执行结果填充回复模板,得到请求文本对应的回复文本。
其中,回复模板中包括待填充的信息,采用操作执行结果填充回复模板即可得到请求文本对应的回复文本。
示例性地,在图3的基础上,图4示出了本申请实施例提供的回复文本的示意图,如图4所示,当操作执行结果为“收货地址修改成功”时,将“收货地址修改成功”填充到模板1中,得到请求文本对应的回复文本。
类似地,当操作执行结果为“无法修改”时,将“无法修改”填充到模板1中,得到请求文本对应的回复文本。
需要说明的是,当确定出请求文本对应的回复文本,第二终端还可以将该回复文本返回给用户,以实现对用户的响应。
本实施例提供的人机对话的处理方法,包括:根据预先训练的目标联合模型,对输入的请求文本进行处理,得到请求文本的第一操作意图和第一操作意图对应的第一槽填充信息,根据第一槽填充信息,执行第一操作意图对应的操作,得到操作执行结果,根据第一操作意图获取回复模板,采用操作执行结果填充回复模板,得到请求文本对应的回复文本。具有如下有益效果:通过引入联合模型得到第一操作意图和第一槽填充信息,避免了先意图识别再槽填充,减少了一个处理步骤,从而提高了回复文本的获取效率,进而加快了智能客服的响应速度。
在一可选实施方式中,在图2实施例的基础上,第一操作意图和第一槽填充信息可以通过图5实施例所示的方法得到,图5示出了本申请实施例提供的人机对话的处理方法的流程示意图二,如图5所示,该方法包括:
S201、根据目标联合模型对请求文本进行分类处理,得到第一操作意图。
其中,目标联合模型包括意图识别模型(即分类模型),将请求文本输入到目标联合模型,可以对请求文本进行分类处理,从而得到第一操作意图。
其中,预设有多个操作意图,目标联合模型对请求文本进行分类处理实际上是从预设的多个操作意图中确定该请求文本的第一操作意图。
需要说明的是,将请求文本输入到目标联合模型,得到特征矩阵,该特征矩阵中每个元素对应一个操作意图,则该特征矩阵中值最大的元素对应的操作意图为第一操作意图。
S202、根据目标联合模型对请求文本进行序列标注处理,得到第一槽填充信息。
其中,目标联合模型还包括槽填充解析模型(即序列标注模型),将请求文本输入到目标联合模型进行序列标注处理,从而可以得到第一操作意图对应的第一槽填充信息。
需要说明的是,序列标注处理的实现方式和现有技术类似,在此不再赘述。
本实施例提供的人机对话的处理方法,包括:根据目标联合模型对请求文本进行分类处理,得到第一操作意图,根据目标联合模型对请求文本进行序列标注处理,得到第一槽填充信息。本实施例引入特征矩阵来确定第一操作意图和第二槽填充信息,从而提高了回复文本的获取效率,进而加快了智能客服的响应速度。
在一可选实施方式中,在图2实施例的基础上,样本数据集包括第一样本数据集和第二样本数据集,目标联合模型可以通过图6实施例所示的方法得到,图6示出了本申请实施例的人机对话方法的处理方法的流程示意图三,如图6所示,该方法包括:
S301、采用第一样本数据集进行模型训练,得到初始联合模型。
S302、根据初始联合模型,对第二样本数据集中的每个文本样本进行处理,得到文本样本的第二操作意图和第二操作意图对应的第二槽填充信息。
其中,样本数据集包括第一样本数据集和第二样本数据集,样本数据集中包括预先标记有样本操作意图的多个文本样本。第一样本数据集和第二样本数据集中可以是随机从样本数据集中挑选划分的。
第二操作意图为模型训练过程中,基于文本样本用户请求执行的操作意图,第二槽填充信息为模型训练过程中,第二操作意图对应的具体的填充信息。
具体地,初始化得到一个联合模型,采用第一样本数据集中对该联合模型进行模型训练,得到初始联合模型,然后根据初始联合模型,对第二样本数据集中的每个文本样本进行处理,得到该文本样本的第二操作意图和第二操作意图对应的第二槽填充信息。
S303、根据第二操作意图和第二槽填充信息,优化初始联合模型,得到目标联合模型。
根据初始联合模型,得到第二样本数据集中每个文本样本的第二操作意图和第二槽填充信息后,可以根据每个文本样本的第二操作意图和第二槽填充信息俩优化初始联合模型,进而得到目标联合模型,采用该方式可以提高目标联合模型的准确度。
本实施例提供的人机对话的处理方法,包括:采用第一样本数据集进行模型训练,得到初始联合模型,根据初始联合模型,对第二样本数据集中的每个文本样本进行处理,得到文本样本的第二操作意图和第二操作意图对应的第二槽填充信息,根据第二操作意图和第二槽填充信息,优化初始联合模型,得到目标联合模型。通过第一样本数据集得到初始联合模型,然后根据第二样本数据集优化得到目标联合模型,从而提高了目标联合模型的准确度。
在一可选的实施方式中,根据第一操作意图和第二槽填充信息优化初始联合模型,得到目标联合模型,具体包括图5实施例所示的步骤。图7示出了本申请实施例提供的人机对话的处理方法的流程示意图四,如图7所示,该方法包括:
S401、确定第二样本数据集中是否存在目标文本样本。
在本实施例中,根据初始联合模型,对第二样本数据集中的每个文本样本进行处理,得到每个文本样本的第二操作意图以及第二操作意图对应的第二槽填充信息,然后根据每个文本样本的第二操作意图以及第二槽填充信息确定该第二样本数据集中是否存在目标文本样本。其中,目标文本样本为意图识别错误的样本,或者意图识别偏差的样本。
与图5实施例中的特征矩阵类似,针对第二数据集中每个文本样本,将该文本样本输入至初始联合模型,得到每个文本样本的样本特征矩阵,由于第二样本数据集中的文本样本预先标记有操作意图,则样本特征矩阵和预先标记的操作意图,可以确定该文本样本是否为意图识别错误的样本。
举例而言,预先设有四个操作意图,该文本样本的样本特征矩阵为[0.8,0.05,0.05,0.1],因此该文本样本的第二操作意图为第一个元素的操作意图,如:“换货”,而该文本样本预先标记的操作意图为“收货地址修改”,由此可知,该文本样本为意图识别错误的样本。
意图识别偏差的样本为该文本样本的样本特征矩阵中两个元素的值均在预设范围内,且这两个元素中存在该样本特征矩阵中最大元素。类似地,以上述示例为例,该文本样本的样本特征矩阵为[0.45,0.5,0.02,0.03],其中第二个元素的操作意图为“收货地址修改”,这表明初始联合模型对该文本样本意图识别成功,预设范围为[0.4,0.6],也就是说,第一个元素和第二个元素的值均在该范围内,即第一个元素的值和第二元素的值相差较小,表明该文本样本为意图识别存在偏差的样本,也即难分样本。
S402、若是,采用目标文本样本的第二操作意图和第二槽填充信息,优化初始联合模型,得到目标联合模型。
若第二样本数据集中存在目标文本样本,则采用目标文本样本的第二操作意图和第二槽填充信息,优化初始联合模型,得到目标联合模型,也就是说,只采用第二数据集中意图识别错误的样本以及难分样本,来优化初始联合模型,将目标文本样本重新进行标记来优化模型。使得模型快速而有目标地学习意图识别错误以及意图识别偏差的样本中的信息,从而提高目标联合模型收敛的速度,并提升了目标联合模型的识别效果。
需要说明的是,上述模型学习策略可以称为主动学习策略,主动学习策略是一种提高标注效率和模型迭代效率的策略。
本实施例提供的人机对话的处理方法,包括:确定第二样本数据集中是否存在目标文本样本,若是,采用目标文本样本的第二操作意图和第二槽填充信息,优化初始联合模型,得到目标联合模型。本实施例通过引入主动学习策略,有助快速而有效挑选合适的样本,使得模型能够有的放矢的学习意图识别错误的样本以及意图识别偏差的样本,从而使得目标联合模型能够学习到更多的信息,提高目标联合模型收敛的速度,并提升了目标联合模型的识别效果。
在一可选实施方式中,步骤S101之前还可以执行图8实施例所示的步骤。图8示出了本申请实施例提供的人机对话的处理方法的流程示意图五,如图8所示,该方法包括:
S501、确定请求文本的领域类别。
S502、根据该领域类别以及预设的领域类别和联合模型的对应关系,从预先训练的多个联合模型中确定目标联合模型。
其中,领域类别可以按照功能进行划分,例如可以包括闲聊、售后、售前、投诉等类别。预先训练得到多个联合模型,获取到用户的输入的请求文本后,可以确定该请求文本的领域类别,然后根据预设的领域类别和联合模型的对应关系,从预先训练的多个联合模型中确定目标联合模型。
在该实施例中,不同的领域类别对应不同的联合模型,根据请求文本的领域类别确定出的目标联合模型更有针对性、识别效果更好。
示例性地,确定请求文本的领域类别,具体包括:
A1、将请求文本转换为满足预设条件的文本;
A2、对转换后的文本进行分类,获取领域类别。
由于用户输入的请求文本可能是按照各种输入法输入的文本,由于不同输入法输入的请求文本的形式不同,例如,可能是繁体字或者简体字,可能是全角或者半角,可能语法上存在偏差。因此,需要对请求文本进行转换,将请求文本转换为满足预设条件的文本,然后对转换后的文本进行分类,获取该请求文本的领域类别,也就是说,为了提高领域类别的准确度,将请求文件转换为满足预设条件的文本后,再对满足预设条件的文本进行分类,得到领域类别更加准确。
在一可选的实施方式中,将请求文本转换为满足预设条件的文本,包括:
采用繁简转换、全交转半角、基础语法词形纠正中的至少一种操作,将请求文本转换为满足预设条件的文本。
本实施例提供的人机对话的处理方法,包括:确定请求文本的领域类别,根据该领域类别以及预设的领域类别和联合模型的对应关系,从预先训练的多个联合模型中确定目标联合模型。不同的领域类别对应不同的联合模型,根据请求文本的领域类别确定出的目标联合模型更有针对性、识别效果更好。
在一可选实施方式中,对转换后的文本进行分类,获取领域类别具体包括图9所示实施例的步骤,图9示出了本申请实施例提供的人机对话的处理方法的流程示意图六,如图9所示,该方法包括:
S601、对转换后的文本进行分词处理,得到分词信息。
S602、根据分词信息,确定领域类别。
其中,分词处理指的是将文本转换为词的过程。本实施例可以采用任一可行的分词方式对转换后的文本进行分词处理,得到该转换后的文本的分词信息。例如,转换后的文本为“请您帮忙把xxx订单的地址改到长宁区”,则分词处理后的得到的分词信息为“请、您、帮忙、把、xxx订单、的、地址、改、到、长宁区”。
然后,根据分词信息确定请求文本的领域类别,具体地,根据上述分词信息中的“xxx订单、地址、改、到、长宁区”,从而可以确定领域类别为售后。
在一可选的实施方式中,根据分词信息,确定领域类别,包括:
根据预先训练的文本领域识别模型,对分词信息进行处理,确定领域类别。
具体地,对转换后的文本进行分词处理得到分词信息后,还可以对分词信息进行词嵌入映射,将分词信息映射为向量。其中,词嵌入映射指的是将词汇映射到实数向量的处理过程。
然后将映射得到的向量输入至预先训练的文本领域识别模型,确定领域类别。其中,该文本领域识别模型可以为卷积神经网络(Convolutional Neural Network,CNN)模型。
需要说明的是,CNN模型具有卷积层和池化层,通过卷积层对映射得到的向量进行处理,得到卷积输出向量,然后通过池化层,采用最大池化方法对卷积输出向量进行池化处理,得到输出向量,例如,领域类别包括闲聊、售后、售前、投诉,则输出向量可以为[0,1,0,0],第一个元素至第四个元素分别表示闲聊、售后、售前、投诉,则确定该领域类别为售后。
本实施例中,引入CNN网络进行领域分类能够获得快速有效的分类效果,提高响应速度的同时减少误差传递。
本实施例提供的人机对话的处理方法,包括:对转换后的文本进行分词处理,得到分词信息,根据分词信息,确定领域类别。本实施例根据分词信息确定出的领域类别,提高了领域类别的准确度。
基于上述方法实施例,下面以请求文本为例,结合一具体实施例对目标联合模型进行具体说明。其中,目标联合模型可以包括Albert模型,Albert模型为开源的迁移语言模型,由于该模型是在大规模的通用语料上训练得到,因此其具备良好的序列建模能力,而且可改善在小数据集上的过拟合问题,另外,由于迁移模型具备词嵌入参数因式分解以及隐藏层的参数共享的特点,因此同时具备了效果良好,参数相对少,速度较快的特性。
图10示出了本申请实施例提供的目标联合模型的示意图,如图10所示,目标联合模型包括意图识别模型(即分类模型)和(即序列标注模型)。将请求文本输入至目标联合模型可以经过如下几个步骤:
针对意图识别模型:
(1)、将请求文本输入到Albert模型
Albert模型具有13层隐含层,将请求文本输入到Albert模型得到每个隐含层输出的[0],其中,[0]用于表示模型数据流转中重要的中间量。
(2)、合并池化得到[1]
为降低冗余度保留主要特征,可以对第9、10、11、12层分别输出的[0]进行池化得到[1],池化可以为求平均操作,也就是说,将第9、10、11、12层分别输出的[0]相加然后求平均值。
(3)、基于注意力机制计算[2]
先基于数据[1]计算权重占比概率αt,然后加权求和得到表征意图识别的加权值[2]:
(4)、合并[1]和[2]
基于如下公式,计算请求文本的意图识别的概率,进而得到第一意图操作:
yI=softmax(WI(hT+CI))
其中,yI为意图识别的概率;softmax函数用于对数据进行整合;WI为随机矩阵,用于调整矩阵(hT+CI)的形状。
针对槽填充解析模型:
(1)、基于注意力机制计算[3]
ei,k=δ(Whk)
其中,T为请求文本的句子长度,ei,j表示请求文本中第i个字符和第j个字符的权值,ei,k表示请求文本中第i个字符和第k个字符的权值。其中,i大于0且小于T,j大于0且小于T,且i不等于j;为请求文本中第i个字符和第j个字符的关联度。
δ表示激活函数,hk表示请求文本中的第k个字符,hj表示请求文本中的第j个字符。
(2)、基于[2]和[3]计算门值[4]
通过上述注意力机制的关注度衡量[3]中数据的重要度,其中也引入了[2],其意义在于引入意图识别的表征用于共同决定后续槽填充中隐含状态的重要性,计算公式如下:
其中,[4]为g,v为一个可训练的向量,用于调整向量形状,tanh为双曲函数。
(3)、基于[3]和[4]计算注意力影响力[5]
根据门值来决定后续的影响力数据5(即f):
(4)、合并[0]和[5]输出特征值[6]
在通过多重表征,以及意图重要性、隐含状态重要性等加权、求和等步骤后,将这些值合并计算作为CRF序列标注的输入[6]:
y=softmax(WS(h+f))
其中,h表示13层隐含层中的第9、10、11、12层分别输出的[0];WS表示一个随机初始化的矩阵,用于调整矩阵形状;softmax函数用于将数据整合起来,得到y(即特征值[6])。
(5)、条件随机场(Conditional Random Field,CRF)序列标注
根据输入的特征值[6],标注出请求文本中槽的位置,从而得到第一槽填充信息。
在本实施例中,Albert迁移模型不仅比其它语言表达模型BERT(BidirectionalEncoder Representations from Transformers),参数少、速度快,而且具备良好的序列建模能力,还能改善小样本集上过拟合问题;引入门机制,将意图识别的表征进行注意力加权,用于共同决定输入到CRF中各个隐含层的重要性,增加意图识别和当前的槽填充的关联度,使得最终的结果既符合预期也符合感知,从而通过多方面的考量和思考,保证良好的识别效率的同时,提高了智能客服的响应速度。
基于同一发明构思,本申请实施例中还提供了与人机对话的处理方法对应的人机对话的处理装置,由于本申请实施例中的装置解决问题的原理与本申请实施例上述人机对话的处理方法相似,因此装置的实施可以参见方法的实施,重复之处不再赘述。
图11示出了本申请实施例提供的人机对话的处理装置的结构示意图,如图11所示,其中人该人机对话的处理装置30包括:
处理模块21,用于根据预先训练的目标联合模型,对输入的请求文本进行处理,得到所述请求文本的第一操作意图和所述第一操作意图对应的第一槽填充信息;其中,所述目标联合模型为预先采用样本数据集进行训练得到的模型,所述样本数据集中每个文本样本预先标记有样本操作意图,以及所述样本操作意图对应的槽填充信息;根据所述第一槽填充信息,执行所述第一操作意图对应的操作,得到操作执行结果;
获取模块22,用于根据所述第一操作意图获取回复模板;采用所述操作执行结果填充所述回复模板,得到所述请求文本对应的回复文本。
在一可选实施方式中,所述处理模块21,具体用于:
根据所述目标联合模型对所述请求文本进行分类处理,得到所述第一操作意图;
根据所述目标联合模型对所述请求文本进行序列标注处理,得到所述第一槽填充信息。
在一可选实施方式中,所述样本数据集包括第一样本数据集和第二样本数据集,还包括:
训练模块23,用于采用所述第一样本数据集进行模型训练,得到初始联合模型;根据所述初始联合模型,对所述第二样本数据集中的每个文本样本进行处理,得到所述文本样本的第二操作意图和所述第二操作意图对应的第二槽填充信息;根据所述第二操作意图和所述第二槽填充信息,优化所述初始联合模型,得到所述目标联合模型。
在一可选实施方式中,所述训练模块23,具体用于:
确定所述第二样本数据集中是否存在目标文本样本;其中,所述目标文本样本为意图识别错误的样本,或者意图识别偏差的样本;
若是,采用所述目标文本样本的第二操作意图和第二槽填充信息,优化所述初始联合模型,得到所述目标联合模型。
在一可选实施方式中,还包括:
确定模块24,用于确定所述请求文本的领域类别;根据所述领域类别,以及预设的领域类别和联合模型的对应关系,从预先训练的多个联合模型中确定所述目标联合模型。
在一可选实施方式中,所述确定模块24,具体用于:
将所述请求文本转换为满足预设条件的文本;
对转换后的文本进行分类,获取所述领域类别。
在一可选实施方式中,所述确定模块,具体用于:
采用繁简转换、全交转半角、基础语法词形纠正中的至少一种操作,将所述请求文本转换为满足所述预设条件的文本。
在一可选实施方式中,所述确定模块24,具体用于:
对所述转换后的文本进行分词处理,得到分词信息;
根据所述分词信息,确定所述领域类别。
在一可选实施方式中,所述确定模块24,具体用于:
根据预先训练的文本领域识别模型,对所述分词信息进行处理,确定所述领域类别。
需要说明的是,上述人机对话的处理装置可以集成在人机对话的处理设备中,人机对话的处理设备上设有人机对话系统,用户可以通过人机对话系统和智能客服进行对话。
关于装置中的各模块的处理流程、以及各模块之间的交互流程的描述可以参照上述方法实施例中的相关说明,这里不再详述。
图12示出了本申请实施例提供的人机对话的处理设备的结构示意图,如图12所示,该人机对话的处理设备40包括:
处理器31、存储器32,所述存储器中存储有可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时,实现上述人机对话的处理方法。
可选地,该人机对话的处理设备40还包括总线33,所述处理器31与所述存储器32之间通过总线通信。
本申请实施例还提供了一种存储介质,该存储介质上存储有计算机程序,该计算机程序被处理器运行时执行上述人机对话的处理方法的步骤。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统和装置的具体工作过程,可以参考方法实施例中的对应过程,本申请中不再赘述。在本申请所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,又例如,多个模块或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些通信接口,装置或模块的间接耦合或通信连接,可以是电性,机械或其它的形式。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,RandomAccess Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。
Claims (12)
1.一种人机对话的处理方法,其特征在于,包括:
根据预先训练的目标联合模型,对输入的请求文本进行处理,得到所述请求文本的第一操作意图和所述第一操作意图对应的第一槽填充信息;其中,所述目标联合模型为预先采用样本数据集进行训练得到的模型,所述样本数据集中每个文本样本预先标记有样本操作意图,以及所述样本操作意图对应的槽填充信息;
根据所述第一槽填充信息,执行所述第一操作意图对应的操作,得到操作执行结果;
根据所述第一操作意图获取回复模板;
采用所述操作执行结果填充所述回复模板,得到所述请求文本对应的回复文本。
2.根据权利要求1所述的方法,其特征在于,所述根据预先训练的目标联合模型,对输入的请求文本进行处理,得到所述请求文本的第一操作意图和所述第一操作意图对应的第一槽填充信息,包括:
根据所述目标联合模型对所述请求文本进行分类处理,得到所述第一操作意图;
根据所述目标联合模型对所述请求文本进行序列标注处理,得到所述第一槽填充信息。
3.根据权利要求1所述的方法,其特征在于,所述样本数据集包括第一样本数据集和第二样本数据集,所述目标联合模型通过如下方式训练得到:
采用所述第一样本数据集进行模型训练,得到初始联合模型;
根据所述初始联合模型,对所述第二数据样本集中的每个文本样本进行处理,得到所述文本样本的第二操作意图和所述第二操作意图对应的第二槽填充信息;
根据所述第二操作意图和所述第二槽填充信息,优化所述初始联合模型,得到所述目标联合模型。
4.根据权利要求3所述的方法,其特征在于,所述根据所述第二操作意图和所述第二槽填充信息,优化所述初始联合模型,得到所述目标联合模型,包括:
确定所述第二样本数据集中是否存在目标文本样本;其中,所述目标文本样本为意图识别错误的样本,或者意图识别偏差的样本;
若是,采用所述目标文本样本的第二操作意图和第二槽填充信息,优化所述初始联合模型,得到所述目标联合模型。
5.根据权利要求1所述的方法,其特征在于,所述根据预先训练的目标联合模型,对输入的请求文本进行处理,得到所述请求文本的第一操作意图和所述第一操作意图对应的第一槽填充信息之前,还包括:
确定所述请求文本的领域类别;
根据所述领域类别,以及预设的领域类别和联合模型的对应关系,从预先训练的多个联合模型中确定所述目标联合模型。
6.根据权利要求5所述的方法,其特征在于,所述确定所述请求文本的领域类别,包括:
将所述请求文本转换为满足预设条件的文本;
对转换后的文本进行分类,获取所述领域类别。
7.根据权利要求6所述的方法,其特征在于,所述将所述请求文本转换为满足预设条件的文本,包括:
采用繁简转换、全交转半角、基础语法词形纠正中的至少一种操作,将所述请求文本转换为满足所述预设条件的文本。
8.根据权利要求6所述的方法,其特征在于,所述对转换后的文本进行分类,获取所述领域类别,包括:
对所述转换后的文本进行分词处理,得到分词信息;
根据所述分词信息,确定所述领域类别。
9.根据权利要求8所述的方法,其特征在于,所述根据所述分词信息,确定所述领域类别,包括:
根据预先训练的文本领域识别模型,对所述分词信息进行处理,确定所述领域类别。
10.一种人机对话的处理装置,其特征在于,包括:
处理模块,用于根据预先训练的目标联合模型,对输入的请求文本进行处理,得到所述请求文本的第一操作意图和所述第一操作意图对应的第一槽填充信息;其中,所述目标联合模型为预先采用样本数据集进行训练得到的模型,所述样本数据集中每个文本样本预先标记有样本操作意图,以及所述样本操作意图对应的槽填充信息;根据所述第一槽填充信息,执行所述第一操作意图对应的操作,得到操作执行结果;
获取模块,用于根据所述第一操作意图获取回复模板;采用所述操作执行结果填充所述回复模板,得到所述请求文本对应的回复文本。
11.一种人机对话的处理设备,包括:存储器、处理器,所述存储器中存储有可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时,实现权利要求1至9任一项所述的方法。
12.一种存储介质,其特征在于,所述存储介质上存储有计算机程序,该计算机程序被处理器执行时,实现权利要求1至9中任一项所述方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010652966.9A CN111767384A (zh) | 2020-07-08 | 2020-07-08 | 人机对话的处理方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010652966.9A CN111767384A (zh) | 2020-07-08 | 2020-07-08 | 人机对话的处理方法、装置、设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111767384A true CN111767384A (zh) | 2020-10-13 |
Family
ID=72726085
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010652966.9A Pending CN111767384A (zh) | 2020-07-08 | 2020-07-08 | 人机对话的处理方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111767384A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112231474A (zh) * | 2020-10-13 | 2021-01-15 | 中移(杭州)信息技术有限公司 | 意图识别方法、系统、电子设备及存储介质 |
CN112489639A (zh) * | 2020-11-26 | 2021-03-12 | 北京百度网讯科技有限公司 | 音频信号处理方法及装置、系统、电子设备、可读介质 |
CN113190669A (zh) * | 2021-05-31 | 2021-07-30 | 平安科技(深圳)有限公司 | 智能对话方法、装置、终端及存储介质 |
CN113326360A (zh) * | 2021-04-25 | 2021-08-31 | 哈尔滨工业大学 | 一种小样本场景下的自然语言理解方法 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018102240A1 (en) * | 2016-12-02 | 2018-06-07 | Microsoft Technology Licensing, Llc | Joint language understanding and dialogue management |
CN108446286A (zh) * | 2017-02-16 | 2018-08-24 | 阿里巴巴集团控股有限公司 | 一种自然语言问句答案的生成方法、装置及服务器 |
CN109508376A (zh) * | 2018-11-23 | 2019-03-22 | 四川长虹电器股份有限公司 | 可在线纠错更新的意图识别方法及装置 |
EP3483746A1 (en) * | 2017-11-09 | 2019-05-15 | Snips | Methods and devices for generating data to train a natural language understanding component |
CN110163257A (zh) * | 2019-04-23 | 2019-08-23 | 百度在线网络技术(北京)有限公司 | 抽取结构化信息的方法、装置、设备和计算机存储介质 |
CN110175223A (zh) * | 2019-05-29 | 2019-08-27 | 北京搜狗科技发展有限公司 | 一种实现问题生成的方法及装置 |
CN110362667A (zh) * | 2019-07-12 | 2019-10-22 | 深圳前海微众银行股份有限公司 | 智能客服方法、装置、设备及可读存储介质 |
CN110532355A (zh) * | 2019-08-27 | 2019-12-03 | 华侨大学 | 一种基于多任务学习的意图与槽位联合识别方法 |
CN111104498A (zh) * | 2019-12-12 | 2020-05-05 | 华南理工大学 | 一种任务型对话系统中的语义理解方法 |
CN111198937A (zh) * | 2019-12-02 | 2020-05-26 | 泰康保险集团股份有限公司 | 对话生成及装置、计算机可读存储介质、电子设备 |
CN111223485A (zh) * | 2019-12-19 | 2020-06-02 | 深圳壹账通智能科技有限公司 | 智能交互方法、装置、电子设备及存储介质 |
-
2020
- 2020-07-08 CN CN202010652966.9A patent/CN111767384A/zh active Pending
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018102240A1 (en) * | 2016-12-02 | 2018-06-07 | Microsoft Technology Licensing, Llc | Joint language understanding and dialogue management |
CN108446286A (zh) * | 2017-02-16 | 2018-08-24 | 阿里巴巴集团控股有限公司 | 一种自然语言问句答案的生成方法、装置及服务器 |
EP3483746A1 (en) * | 2017-11-09 | 2019-05-15 | Snips | Methods and devices for generating data to train a natural language understanding component |
CN109508376A (zh) * | 2018-11-23 | 2019-03-22 | 四川长虹电器股份有限公司 | 可在线纠错更新的意图识别方法及装置 |
CN110163257A (zh) * | 2019-04-23 | 2019-08-23 | 百度在线网络技术(北京)有限公司 | 抽取结构化信息的方法、装置、设备和计算机存储介质 |
CN110175223A (zh) * | 2019-05-29 | 2019-08-27 | 北京搜狗科技发展有限公司 | 一种实现问题生成的方法及装置 |
CN110362667A (zh) * | 2019-07-12 | 2019-10-22 | 深圳前海微众银行股份有限公司 | 智能客服方法、装置、设备及可读存储介质 |
CN110532355A (zh) * | 2019-08-27 | 2019-12-03 | 华侨大学 | 一种基于多任务学习的意图与槽位联合识别方法 |
CN111198937A (zh) * | 2019-12-02 | 2020-05-26 | 泰康保险集团股份有限公司 | 对话生成及装置、计算机可读存储介质、电子设备 |
CN111104498A (zh) * | 2019-12-12 | 2020-05-05 | 华南理工大学 | 一种任务型对话系统中的语义理解方法 |
CN111223485A (zh) * | 2019-12-19 | 2020-06-02 | 深圳壹账通智能科技有限公司 | 智能交互方法、装置、电子设备及存储介质 |
Non-Patent Citations (4)
Title |
---|
侯丽仙;李艳玲;林民;李成城;: "融合多约束条件的意图和语义槽填充联合识别", 计算机科学与探索, no. 09 * |
王堃;林民;李艳玲;: "端到端对话系统意图语义槽联合识别研究综述", 计算机工程与应用, no. 14 * |
袁津生: "《搜索引擎与信息检索教程》", 30 April 2008, 中国水利水电出版社, pages: 165 * |
陈婷婷;林民;李艳玲;: "基于Attention+Bi-LSTM的公交出行意图和语义槽填充联合识别", 青海师范大学学报(自然科学版), no. 04 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112231474A (zh) * | 2020-10-13 | 2021-01-15 | 中移(杭州)信息技术有限公司 | 意图识别方法、系统、电子设备及存储介质 |
CN112489639A (zh) * | 2020-11-26 | 2021-03-12 | 北京百度网讯科技有限公司 | 音频信号处理方法及装置、系统、电子设备、可读介质 |
CN113326360A (zh) * | 2021-04-25 | 2021-08-31 | 哈尔滨工业大学 | 一种小样本场景下的自然语言理解方法 |
CN113190669A (zh) * | 2021-05-31 | 2021-07-30 | 平安科技(深圳)有限公司 | 智能对话方法、装置、终端及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111767384A (zh) | 人机对话的处理方法、装置、设备及存储介质 | |
CN109697282B (zh) | 一种语句的用户意图识别方法和装置 | |
CN108319599B (zh) | 一种人机对话的方法和装置 | |
CN111401084B (zh) | 一种机器翻译的方法、设备以及计算机可读存储介质 | |
CN111932144B (zh) | 一种客服坐席分配方法、装置、服务器及存储介质 | |
CN112100354B (zh) | 人机对话方法、装置、设备及存储介质 | |
CN110427625B (zh) | 语句补全方法、装置、介质及对话处理系统 | |
CN111444329A (zh) | 智能对话方法、装置和电子设备 | |
WO2022121178A1 (zh) | 文本纠错模型训练方法、识别方法、装置及计算机设备 | |
WO2023197613A1 (zh) | 一种小样本微调方法、系统及相关装置 | |
CN107832476A (zh) | 一种搜索序列的理解方法、装置、设备和存储介质 | |
KR20210038430A (ko) | 자연어 및 지식 그래프 기반 표현 학습 방법 및 장치 | |
EP4113357A1 (en) | Method and apparatus for recognizing entity, electronic device and storage medium | |
CN111026840B (zh) | 文本处理方法、装置、服务器和存储介质 | |
CN110825849A (zh) | 文本信息情感分析方法、装置、介质及电子设备 | |
CN112699215B (zh) | 基于胶囊网络与交互注意力机制的评级预测方法及系统 | |
CN111160000A (zh) | 作文自动评分方法、装置终端设备及存储介质 | |
CN115270807A (zh) | 网络用户的情感倾向判定方法、装置、设备及存储介质 | |
CN110427464A (zh) | 一种代码向量生成的方法以及相关装置 | |
CN113963205A (zh) | 基于特征融合的分类模型训练方法、装置、设备及介质 | |
WO2021027257A1 (zh) | 计算机执行的、利用神经网络进行语言处理的方法及装置 | |
CN110210035B (zh) | 序列标注方法、装置及序列标注模型的训练方法 | |
WO2023116572A1 (zh) | 一种词句生成方法及相关设备 | |
CN117149967A (zh) | 应答生成方法、装置、服务器和计算机可读存储介质 | |
CN115206421B (zh) | 药物重定位方法、重定位模型的训练方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20240111 Address after: 200,030 Unit 5B03, Floor 5, Building 2, No. 277, Longlan Road, Xuhui District, Shanghai Applicant after: SHANGHAI SECOND PICKET NETWORK TECHNOLOGY CO.,LTD. Address before: Floors 4, 5 and 6, No. 3, Lane 1473, Zhenguang Road, Putuo District, Shanghai, 200333 Applicant before: Shanghai Fengzhi Technology Co.,Ltd. |
|
TA01 | Transfer of patent application right |