CN111930910A - 标准回复确定方法、装置、设备及存储介质 - Google Patents
标准回复确定方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN111930910A CN111930910A CN202010806312.7A CN202010806312A CN111930910A CN 111930910 A CN111930910 A CN 111930910A CN 202010806312 A CN202010806312 A CN 202010806312A CN 111930910 A CN111930910 A CN 111930910A
- Authority
- CN
- China
- Prior art keywords
- reply
- candidate
- background knowledge
- feature representation
- machine
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 70
- 238000012549 training Methods 0.000 claims description 108
- 230000008569 process Effects 0.000 claims description 36
- 238000012545 processing Methods 0.000 claims description 16
- 238000004364 calculation method Methods 0.000 claims description 14
- 238000010606 normalization Methods 0.000 claims description 8
- 238000004590 computer program Methods 0.000 claims description 3
- 238000012216 screening Methods 0.000 abstract description 3
- 238000010586 diagram Methods 0.000 description 8
- 238000003062 neural network model Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 239000013598 vector Substances 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 238000004422 calculation algorithm Methods 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 241000282414 Homo sapiens Species 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/36—Creation of semantic tools, e.g. ontology or thesauri
- G06F16/367—Ontology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- Animal Behavior & Ethology (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请公开了一种标准回复确定方法、装置、设备及存储介质,针对待预测标准回复的目标项目,获取目标项目的候选回复集合,以及目标项目相关的背景知识、目标项目的项目数据,基于背景知识和项目数据,可以确定关注于项目数据的背景知识的第一特征表示,基于背景知识、项目数据和每一候选回复,确定关注于背景知识和项目数据的第一候选回复的第二特征表示,确定项目数据的第三特征表示,并基于第三特征表示、第一特征表示及每一候选回复的第二特征表示,确定每一候选回复作为标准回复的概率,依据此概率来选取标准回复。本申请实施例中引入并挖掘背景知识、项目数据与候选回复间的潜在联系,辅助筛选标准回复,能够大大提高标准回复的质量。
Description
技术领域
本申请涉及机器语言处理技术领域,更具体的说,是涉及一种标准回复确定方法、装置、设备及存储介质。
背景技术
随着人工智能领域的不断壮大,越来越多的人工智能算法诞生出来,帮助机器更好地理解和处理人类的自然语言。
在现实应用中,存在多种不同的项目需要进行标准回复内容的预测,示例如人机对话项目中,需要预测机器的标准回复,机器阅读理解以及知识问答项目中,需要预测对给定问题的标准回复(又可称为标准答案)等。以人机对话为例,目前,研究者们已经研发出许多人机对话系统,在人工客服、家庭助手、学习指导等方面广泛应用。然而,当前的对话系统仍处于初步阶段,人机交互过程中,机器仅能够依据人机对话历史来预测标准回复,使得预测的标准回复质量不高。
发明内容
鉴于上述问题,提出了本申请以便提供一种标准回复确定方法、装置、设备及存储介质,以解决现有技术预测的标注回复质量不高的问题。具体方案如下:
一种标准回复确定方法,包括:
获取待预测标准回复的目标项目的候选回复集合、所述目标项目相关的背景知识,及所述目标项目的项目数据;
基于所述背景知识和所述项目数据,确定关注项目数据的背景知识的第一特征表示;
基于所述背景知识、所述项目数据和所述每一候选回复,确定关注背景知识及项目数据的每一候选回复的第二特征表示;
确定所述项目数据的第三特征表示,并基于所述第三特征表示、所述第一特征表示及所述每一候选回复的第二特征表示,确定每一候选回复作为标准回复的概率;
基于各候选回复的概率,从中选取标准回复。
优选地,所述第一特征表示、所述第二特征表示及所述第三特征表示的确定过程,包括:
确定所述背景知识的编码特征、所述项目数据的编码特征及每一候选回复的编码特征;
将所述项目数据的编码特征作为所述项目数据的第三特征表示;
基于所述背景知识的编码特征和所述项目数据的编码特征,确定关注项目数据的背景知识的第一特征表示;
基于所述背景知识的编码特征、所述项目数据的编码特征和所述每一候选回复的编码特征,确定关注背景知识及项目数据的每一候选回复的第二特征表示。
优选地,所述基于所述背景知识的编码特征、所述项目数据的编码特征和所述每一候选回复的编码特征,确定关注背景知识及项目数据的每一候选回复的第二特征表示,包括:
基于所述背景知识的编码特征和所述每一候选回复的编码特征,确定关注背景知识的每一候选回复的第四特征表示;
基于所述项目数据的编码特征和所述每一候选回复的编码特征,确定关注项目数据的每一候选回复的第五特征表示;
将每一候选回复的第四特征表示与第五特征表示进行拼接,得到关注背景知识及项目数据的每一候选回复的第二特征表示。
优选地,所述确定所述背景知识的编码特征、所述项目数据的编码特征及每一候选回复的编码特征,包括:
对所述背景知识中每条知识进行编码,并将各条知识的编码结果进行联合表示,得到背景知识的编码特征;
对所述项目数据中每条语句进行编码,并将各条语句的编码结果进行联合表示,得到项目数据的编码特征;
对每一候选回复进行编码,得到对应的编码特征。
优选地,所述基于所述背景知识的编码特征和所述项目数据的编码特征,确定关注项目数据的背景知识的第一特征表示,包括:
将所述项目数据的编码特征与所述背景知识的编码特征间进行交叉注意力计算,得到关注项目数据的背景知识的第一特征表示。
优选地,所述基于所述背景知识的编码特征和所述每一候选回复的编码特征,确定关注背景知识的每一候选回复的第四特征表示,包括:
将所述背景知识的编码特征与所述每一候选回复的编码特征进行交叉注意力计算,得到关注背景知识的每一候选回复的第四特征表示;
所述基于所述项目数据的编码特征和所述每一候选回复的编码特征,确定关注项目数据的每一候选回复的第五特征表示,包括:
将所述项目数据的编码特征与所述每一候选回复的编码特征进行交叉注意力计算,得到关注项目数据的每一候选回复的第五特征表示。
优选地,所述目标项目为人机对话回复预测项目;所述背景知识包括人机对话回复预测项目相关的背景知识图谱,所述项目数据包括人机对话历史;
所述获取待预测标准回复的目标项目的候选回复集合,包括:
基于所述人机对话历史所涉及的两个历史对话目标及对话轮次,确定候选回复的目标分类标签;
参考预先配置的标注有分类标签的机器回复训练语句,从中选取目标分类标签对应的机器回复训练语句,并基于此确定候选回复集合;
其中,机器回复训练语句所标注的分类标签为,根据人机对话训练内容所涉及的两个对话目标及其中每条机器回复所处的对话轮次,确定的每条机器回复的分类标签。
优选地,所述基于所述人机对话历史所涉及的两个历史对话目标及对话轮次,确定候选回复的目标分类标签,包括:
确定所述人机对话历史所涉及的两个历史对话目标各自所属的领域,得到两个领域信息;
基于所述人机对话历史的对话轮次,确定候选回复的对应的目标对话轮次;
由所述两个领域信息及所述目标对话轮次,组成候选回复的目标分类标签。
优选地,标注有分类标签的机器回复训练语句的配置过程,包括:
获取训练集,所述训练集包括若干段人机对话训练内容,每段人机对话训练内容对应标记有对话目标信息,对话目标信息包含涉及的两个对话目标;
对所述训练集中每句机器回复设定分类标签,所述分类标签包括两个领域信息及当前机器回复在所属人机对话训练内容段中的出现轮次,其中两个领域信息分别为当前机器回复对应的对话目标信息中两个对话目标各自所属的领域。
优选地,预先配置的标注有分类标签的机器回复训练语句为经过规范化处理后的机器回复训练语句,该规范化处理过程包括,对机器回复训练语句中出现的对话目标及其属性值用设定标签替换;
则,基于选取的目标分类标签对应的机器回复训练语句确定候选回复集合的过程,包括:
在选取的目标分类标签对应的机器回复训练语句中,按照设定优先级顺序选取设定数目的机器回复训练语句,所述设定优先级顺序由高至低依次为:同时包含所述历史对话目标对应的标签及其属性值对应的标签、仅包含所述历史对话目标对应的标签,不包含所述历史对话目标对应的标签;
将选取的设定数目的各条机器回复训练语句中,对话目标及其属性值对应的标签,分别用历史对话目标及其属性值进行替换,得到候选回复集合。
一种标准回复确定装置,包括:
数据获取单元,用于获取待预测标准回复的目标项目的候选回复集合、所述目标项目相关的背景知识,及所述目标项目的项目数据;
第一特征表示确定单元,用于基于所述背景知识和所述项目数据,确定关注项目数据的背景知识的第一特征表示;
第二特征表示确定单元,用于基于所述背景知识、所述项目数据和所述每一候选回复,确定关注背景知识及项目数据的每一候选回复的第二特征表示;
第三特征表示确定单元,用于确定所述项目数据的第三特征表示;
概率确定单元,用于基于所述第三特征表示、所述第一特征表示及所述每一候选回复的第二特征表示,确定每一候选回复作为标准回复的概率;
标准回复选取单元,用于基于各候选回复的概率,从中选取标准回复。
一种标准回复确定设备,包括:存储器和处理器;
所述存储器,用于存储程序;
所述处理器,用于执行所述程序,实现如上所述的标准回复确定方法的各个步骤。
一种存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时,实现如上所述的标准回复确定方法的各个步骤。
借由上述技术方案,针对待预测标准回复的目标项目,本申请获取目标项目的候选回复集合,以及目标项目相关的背景知识、目标项目的项目数据,基于背景知识和项目数据,可以确定关注于项目数据的背景知识的第一特征表示,基于背景知识、项目数据和每一候选回复,确定关注于背景知识和项目数据的第一候选回复的第二特征表示,确定项目数据的第三特征表示,并基于第三特征表示、第一特征表示及每一候选回复的第二特征表示,确定每一候选回复作为标准回复的概率,依据此概率来选取标准回复。由此可见,本申请实施例中引入了目标项目的背景知识和项目数据来辅助筛选标准回复,能够大大提高标准回复的质量。
并且,本申请通过挖掘候选回复、背景知识和项目数据三者之间的潜在联系,确定了第一、第二、第三特征表示,能够有效捕捉到对标注回复有用的知识信息,进一步提升了预测的标注回复的质量。
附图说明
通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本申请的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:
图1为本申请实施例提供的标准回复确定方法的一流程示意图;
图2示例了一种神经网络模型处理架构示意图;
图3示例了一种训练集中人机对话训练内容、对话目标信息及知识图谱的示意图;
图4为本申请实施例提供的一种标准回复确定装置结构示意图;
图5为本申请实施例提供的标准回复确定设备的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请提供了一种标准回复确定方案,能够引入外部知识,及项目的项目数据,据此对待预测标准回复的目标项目的候选回复集合中的候选回复进行筛选,得到标准回复,大大提升预测的标准回复的质量。
本申请方案可以基于具备数据处理能力的终端实现,该终端可以是手机、电脑、服务器、云端等。
标准回复预测可以分为两种实现方式,一种是生成式算法,也即机器依据已知数据,自动生成一条标准回复。另一种是检索式算法,也即机器依据已有数据,在候选回复集合中检索一条匹配的候选回复,作为标准回复。由于本申请方案融合了外部的背景知识,实际验证时发现使用生成式算法会偏向于生成所含信息量少、语言较为单一的万能回复,如“我不知道你的意思”等,导致得到的标准回复质量不高。为此,本申请方案最终选择了检索式生成方式。
接下来,结合图1所述,本申请的标准回复确定方法可以包括如下步骤:
步骤S100、获取待预测标准回复的目标项目的候选回复集合、所述目标项目相关的背景知识,及所述目标项目的项目数据。
其中,待预测标准回复的目标项目可以是人机对话项目、机器阅读理解项目、知识问答项目等。
目标项目的候选回复集合中包含有可能成为标准回复的各条候选回复,下文将会详细说明候选回复集合的确定过程。
目标项目的背景知识为引入的外部知识,该背景知识与目标项目相关,根据目标项目的不同,对应的背景知识也可能不同。如对于人机对话项目,人机对话讨论的话题领域内的相关知识,可以作为对应的背景知识。再比如对于机器阅读理解项目,对于阅读材料所涉及各词汇的解释、理解性知识,可以作为对应的背景知识。
通过引入目标项目的背景知识,能够辅助准确的预测标准回复。
目标项目的项目数据为项目相关数据,能够辅助预测标准回复。如对于人机对话项目,人机对话历史可以作为项目数据。再比如对于机器阅读理解项目,对于阅读材料,其可以作为项目数据。
步骤S110、基于所述背景知识和所述项目数据,确定关注项目数据的背景知识的第一特征表示。
具体的,本步骤中挖掘背景知识和项目数据间的潜在联系,进而确定关注于项目数据的背景知识的第一特征表示。该背景知识的第一特征表示,既包含了背景知识的信息,又融合了项目数据的信息,其内在含义更加丰富。
需要说明的是,第一特征表示中的“第一”仅仅是为了与下文中的“第二”、“第三”及其它特征表示进行区别,而不一定要求或者暗示这些实体之间存在任何这种实际的关系或者顺序。
步骤S120、基于所述背景知识、所述项目数据和所述每一候选回复,确定关注背景知识及项目数据的每一候选回复的第二特征表示。
具体的,本步骤中挖掘背景知识、项目数据和每一候选回复间的潜在联系,进而确定关注于背景知识和项目数据的每一候选回复的第二特征表示。每一候选回复的第二特征表示,既包含了候选回复自身的信息,又融合了背景知识和项目数据的信息,其内在含义更加丰富。
步骤S130、确定所述项目数据的第三特征表示,并基于所述第三特征表示、所述第一特征表示及所述每一候选回复的第二特征表示,确定每一候选回复作为标准回复的概率。
具体的,在确定了项目数据的第三特征表示后,基于前文确定的关注项目数据的背景知识的第一特征表示、项目数据的第三特征表示,以及每一候选回复的第二特征表示,确定每一候选回复作为标准回复的概率。
步骤S140、基于各候选回复的概率,从中选取标准回复。
具体的,可以按照概率大小,选取概率最大的一个或多个候选回复,作为标准回复。通常情况下,可以选择概率最大的一个作为标准回复。
本申请实施例提供的标准回复确定方法,引入了目标项目的背景知识和项目数据来辅助筛选标准回复,能够大大提高标准回复的质量。
并且,本申请通过挖掘候选回复、背景知识和项目数据三者之间的潜在联系,确定了第一、第二、第三特征表示,能够有效捕捉到对标注回复有用的知识信息,进一步提升了预测的标注回复的质量。
本申请另一个实施例中,对上述实施例中第一特征表示、第二特征表示及第三特征表示的确定过程进行介绍。
上述第一至第三特征表示的确定过程可以包括:
S1、确定所述背景知识的编码特征、所述项目数据的编码特征及每一候选回复的编码特征。
其中,背景知识的编码特征的确定过程可以包括:
对所述背景知识中每条知识进行编码,并将各条知识的编码结果进行联合表示,得到背景知识的编码特征。
在对每条知识进行编码时,可以使用BERT网络实现对知识的编码,得到每条知识的编码结果。进一步的,可以通过Transformer编码器学习多条相关知识之间的联系,从而将各条知识的编码结果进行联合表示,得到背景知识的编码特征。
其中,背景知识可以是知识图谱形式,其中记录有相关知识三元组(head,relation,tail),则可以将每个三元组作为一条知识进行编码。编码时,在每个三元组的头实体head前添加“[CLS]”token,并在头实体head与关系relation之间、关系relation与尾实体tail之后都添加“[SEP]”token。
项目数据的编码特征的确定过程可以包括:
对所述项目数据中每条语句进行编码,并将各条语句的编码结果进行联合表示,得到项目数据的编码特征。
在对项目数据中每条语句进行编码时,可以使用BERT网络实现对单条语句的编码,得到每条语句的编码结果。进一步的,可以通过Transformer编码器学习多条语句之间的联系,从而将各条语句的编码结果进行联合表示,得到项目数据的编码特征。
在对每条语句进行编码时,可以将每条语句中每个字的字嵌入向量、字位置嵌入向量和语句的序列嵌入向量加和,结果作为语句的编码,该语句的编码能够刻画全局语义信息。其中,字位置嵌入向量表示一句话中每个字出现的顺序。语句的序列嵌入向量用于区分不同的语句。
候选回复的编码特征的确定过程可以包括:
由于每一候选回复通常仅有一条语句,因此可以直接使用BERT网络对候选回复进行编码,得到对应的编码特征。
S2、基于所述背景知识的编码特征和所述项目数据的编码特征,确定关注项目数据的背景知识的第一特征表示。
可选的,可以引入注意力机制,来确定关注项目数据的背景知识的第一特征表示。具体的,可以将所述项目数据的编码特征与所述背景知识的编码特征间进行交叉注意力计算,得到关注项目数据的背景知识的第一特征表示。
S3、基于所述背景知识的编码特征、所述项目数据的编码特征和所述每一候选回复的编码特征,确定关注背景知识及项目数据的每一候选回复的第二特征表示。
具体的,每一候选回复的第二特征表示的确定过程,可以包括:
S31、基于所述背景知识的编码特征和所述每一候选回复的编码特征,确定关注背景知识的每一候选回复的第四特征表示。
可选的,可以引入注意力机制,来确定关注背景知识的每一候选回复的第四特征表示。具体的,可以将所述背景知识的编码特征与所述每一候选回复的编码特征进行交叉注意力计算,得到关注背景知识的每一候选回复的第四特征表示。
S32、基于所述项目数据的编码特征和所述每一候选回复的编码特征,确定关注项目数据的每一候选回复的第五特征表示。
可选的,可以引入注意力机制,来确定关注项目数据的每一候选回复的第五特征表示。具体的,可以将所述项目数据的编码特征与所述每一候选回复的编码特征进行交叉注意力计算,得到关注项目数据的每一候选回复的第五特征表示。
S33、将每一候选回复的第四特征表示与第五特征表示进行拼接,得到关注背景知识及项目数据的每一候选回复的第二特征表示。
S4、将所述项目数据的编码特征作为所述项目数据的第三特征表示。
对于前述步骤S110-S130的过程,其可以通过神经网络模型来实现。
参见图2,其示例了一种神经网络模型处理架构示意图。
神经网络模型可以包括三层,分别为编码层、联合注意力层和输出层。
编码层:
编码层包括三部分,分别为对背景知识的编码部分、对项目数据的编码部分和对候选回复的编码部分。
对背景知识的编码部分可以包括BERT网络及与之相连的Transformer编码器,经过编码可以得到背景知识的编码特征hK。对背景知识的编码过程可以参照前文相关介绍。
对项目数据的编码部分可以包括BERT网络及与之相连的Transformer编码器,经过编码可以得到项目数据的编码特征hH。对项目数据的编码过程可以参照前文相关介绍。
对候选回复的编码部分可以包括BERT网络,经过编码可以得到候选回复的编码特征hR。对候选回复的编码过程可以参照前文相关介绍。
联合注意力层:
为了能够让模型充分习得如何利用知识信息选择标准回复,本实施例中使用句级别的序列间注意力机制对背景知识的编码特征、项目数据的编码特征以及候选回复的编码特征进行联合建模,挖掘这三者之间潜在的联系,使得模型能够使用更准确、更符合项目场景的知识选择出最恰当的标准回复。本实施例通过下述公式计算序列间注意力:
αi=softmaxi(f(W1u)Tf(W1vi))
其中,u代表被关注的编码特征,vi代表需要关注其它部分的第i条单句的编码特征,f是一个非线性激活函数ReLU,W1是一个可学习的参数。通过这样序列间进行交叉注意力计算后,可以得到关注项目数据的背景知识的第一特征表示K,关注背景知识的每一候选回复的第四特征表示R1,关注项目数据的每一候选回复的第五特征表示R2,由R1和R2拼接成关注背景知识及项目数据的每一候选回复的第二特征表示R=[R1,R2]。项目数据的第三特征表示H=hH。
其中:
输出层:
经过以上编码和注意力计算后,本申请可以使用一个softmax分类层计算输入的候选回复是标准回复的概率。公式如下:
y=softmax(αKTW2R+βHTW3R)
α+β=1
其中,softmax的作用是将一个多维的向量映射为元素取值均介于(0,1)之间的新向量,W2和W3是可以由模型学习到的参数,α和β是两个可提前设置的超参数权重。
神经网络模型在训练时,可以以目标项目的背景知识、项目数据及每条候选训练回复作为训练样本,以候选训练回复是否为标准回复的标注结果作为训练标签,进行模型的训练。
另外,神经网络模型在训练阶段,可以选择使用交叉熵作为损失函数来增强模型的鲁棒性。
本实施例中通过设计上述神经网络模型来预测标准回复,利用了BERT+Transformer+序列间注意力的方法加深模型对重要信息的关注,有利于模型捕捉最匹配的标准回复。
并且,神经网络模型对于外部的背景知识和项目数据,在编码和融合上能够达到很好的表现,提升了所选取的标准回复所包含的信息量,使得标准回复更加丰富自然。
在本申请的另一个实施例中,以目标项目为人机对话回复预测项目为例,介绍候选回复集合的获取过程。
在目标项目为人机对话回复预测项目时,对应的待预测标准回复为预测机器的标准回复。其中,目标项目相关的背景知识包括背景知识图谱,项目数据可以包括人机对话历史。
在此基础上,对候选回复集合的获取过程进行介绍。
在获取候选回复集合之前,本申请可以预先对训练集数据进行标签处理。具体的,本申请可以选择合适的公开对话数据集作为训练集。其中,涉及两个领域的对话数据,以此来学习如果从一个领域的对话目标,自然过渡到另一个领域的对话目标。示例如,训练集中可以包括明星和电影两个领域的公开对话语句。本申请可以对训练集进行预处理,将其中对话语句划分为用户回复和机器回复。
训练集中以人机对话训练内容段落为单位,共存在多个段落的人机对话训练内容。每个段落的人机对话训练内容对应标记有对话目标信息,该对话目标信息可以包含所涉及的两个对话目标。
对应于训练集还设置有对应的背景知识信息,具体可以是知识图谱形式,其中记录了训练集对应的两个领域的相关知识信息。
参见图3,其示例了一种训练集中人机对话训练内容、对话目标信息及知识图谱的示意图。
本申请实施例可以预先为每段人机对话训练内容中,每条机器回复设定分类标签。分类标签可以包含如下内容:当前段人机对话训练内容对应的两个对话目标各自所属的领域信息,以及每条机器回复在当前段人机对话训练内容中的出现轮次。
以图3示例的机器回复:“电影叫阿飞正传”为例进行说明:
由于该段对话所涉及的两个对话目标为“王家卫”和“阿飞正传”,各自所属的领域分别为:“明星”、“电影”。且,当前机器回复处于该段对话的第二轮。因此,可以为当前机器回复设定分类标签为:[“明星”,“电影”,2]。
在上述基础上,候选回复集合的获取过程可以包括:
S1、基于所述人机对话历史所涉及的两个历史对话目标及对话轮次,确定候选回复的目标分类标签。
具体的,人机对话历史中包含用户和机器的对话历史语句,以及历史对话目标信息,该历史对话目标信息中包含有两个历史对话目标。
则确定候选回复的目标分类标签的过程可以包括:
S11、确定人机对话历史所涉及的两个历史对话目标各自所属的领域,得到两个领域信息。
S12、基于人机对话历史的对话轮次,确定候选回复的对应的目标对话轮次。
具体的,本实施例中可以根据人机对话历史中用户和机器的对话轮次,确定下一句机器回复所处的目标轮次。如人机对话历史中用户和机器已经对话2轮,则下一句机器回复所处的目标对话轮次为3。
S13、由所述两个领域信息及所述目标对话轮次,组成候选回复的目标分类标签。
S2、参考预先配置的标注有分类标签的机器回复训练语句,从中选取目标分类标签对应的机器回复训练语句,并基于此确定候选回复集合。
对于前文训练集中已经设定了分类标签的各机器回复训练语句,可以从中选取目标分类标签对应的机器回复训练语句。并基于选取的机器回复训练语句确定候选回复集合。
进一步的,对于上述训练集中分配有分类标签的机器回复训练语句,可以进一步进行规范化处理。
为了增强语句的代表性和概括性,可以对机器回复训练语句中出现的对话目标及其属性值用设定标签替换。
示例如,一段人机对话训练内容的对话目标信息包括两个对话目标,分别为对话目标a:吴京,对话目标b:战狼2。其中一句机器回复训练语句为:“他还主演了一部电影叫战狼2,据说很不错呢”。
则该语句中“战狼2”属于对话目标2,可以用设定标签“topic_b”来替换。在知识图谱中,“电影”属于“战狼2”的领域属性值,因此可以用设定标签“topic_b_领域”来替换“电影”。则标签替换后变为:“他还主演了一部“topic_b_领域”叫“topic_b”,据说很不错呢”。
通过标签替换,可以将机器回复训练语句中的具体知识信息进行抽象化替换,使得替换后的机器回复训练语句更有通用性质。
在经过上述机器回复训练语句的规范化处理后,前述实施例中基于选取的目标分类标签对应的机器回复训练语句确定候选回复集合的过程,具体可以包括:
S1、在选取的目标分类标签对应的机器回复训练语句中,按照设定优先级顺序选取设定数目的机器回复训练语句。
其中,设定数目为用户预先配置的候选回复的数量。
所述设定优先级顺序由高至低依次可以为:
同时包含所述历史对话目标对应的标签及其属性值对应的标签>仅包含所述历史对话目标对应的标签>不包含所述历史对话目标对应的标签。
S2、将选取的设定数目的各条机器回复训练语句中,对话目标及其属性值对应的标签,分别用历史对话目标及其属性值进行替换,得到候选回复集合。
在按照优先级选取了设定数目的机器回复训练语句后,需要进一步将其中涉及的标签替换为具体知识信息。如对于机器回复训练语句中的对话目标对应的标签,可以用人机对话历史对应的历史对话目标进行替换,对于机器回复训练语句中的对话目标的属性值,可以用相应的历史对话目标的属性值进行替换。
举例说明如下:
人机对话历史对应的对话目标信息包括:历史对话目标a:“黄轩”,历史对话目标b:“芳华”。
选取的机器回复训练语句中包含如下一条语句:“他还主演了一部“topic_b_领域”叫“topic_b”,据说很不错呢”。
则,对于其中的“topic_b”可以用历史对话目标b:芳华替换,对于“topic_b_领域”可以用历史对话目标b的领域属性值:“电影”进行替换,则替换后得到语句:
“他还主演了一部电影叫芳华,据说很不错呢”。
下面对本申请实施例提供的标准回复确定装置进行描述,下文描述的标准回复确定装置与上文描述的标准回复确定方法可相互对应参照。
参见图4,图4为本申请实施例公开的一种标准回复确定装置结构示意图。
如图4所示,该装置可以包括:
数据获取单元11,用于获取待预测标准回复的目标项目的候选回复集合、所述目标项目相关的背景知识,及所述目标项目的项目数据;
第一特征表示确定单元12,用于基于所述背景知识和所述项目数据,确定关注项目数据的背景知识的第一特征表示;
第二特征表示确定单元13,用于基于所述背景知识、所述项目数据和所述每一候选回复,确定关注背景知识及项目数据的每一候选回复的第二特征表示;
第三特征表示确定单元14,用于确定所述项目数据的第三特征表示;
概率确定单元15,用于基于所述第三特征表示、所述第一特征表示及所述每一候选回复的第二特征表示,确定每一候选回复作为标准回复的概率;
标准回复选取单元16,用于基于各候选回复的概率,从中选取标准回复。
可选的,本申请的装置还可以包括:编码单元,用于:
确定所述背景知识的编码特征、所述项目数据的编码特征及每一候选回复的编码特征。
在此基础上,上述第一特征表示确定单元基于所述背景知识和所述项目数据,确定关注项目数据的背景知识的第一特征表示的过程,可以包括:
基于所述背景知识的编码特征和所述项目数据的编码特征,确定关注项目数据的背景知识的第一特征表示。
上述第二特征表示确定单元基于所述背景知识、所述项目数据和所述每一候选回复,确定关注背景知识及项目数据的每一候选回复的第二特征表示的过程,可以包括:
基于所述背景知识的编码特征、所述项目数据的编码特征和所述每一候选回复的编码特征,确定关注背景知识及项目数据的每一候选回复的第二特征表示。
上述第三特征表示确定单元确定所述项目数据的第三特征表示的过程可以包括:
将所述项目数据的编码特征作为所述项目数据的第三特征表示。
可选的,上述第二特征表示确定单元基于所述背景知识的编码特征、所述项目数据的编码特征和所述每一候选回复的编码特征,确定关注背景知识及项目数据的每一候选回复的第二特征表示的过程,可以包括:
基于所述背景知识的编码特征和所述每一候选回复的编码特征,确定关注背景知识的每一候选回复的第四特征表示;
基于所述项目数据的编码特征和所述每一候选回复的编码特征,确定关注项目数据的每一候选回复的第五特征表示;
将每一候选回复的第四特征表示与第五特征表示进行拼接,得到关注背景知识及项目数据的每一候选回复的第二特征表示。
可选的,上述编码单元确定所述背景知识的编码特征、所述项目数据的编码特征及每一候选回复的编码特征的过程,可以包括:
对所述背景知识中每条知识进行编码,并将各条知识的编码结果进行联合表示,得到背景知识的编码特征;
对所述项目数据中每条语句进行编码,并将各条语句的编码结果进行联合表示,得到项目数据的编码特征;
对每一候选回复进行编码,得到对应的编码特征。
可选的,上述第一特征表示确定单元基于所述背景知识的编码特征和所述项目数据的编码特征,确定关注项目数据的背景知识的第一特征表示的过程,可以包括:
将所述项目数据的编码特征与所述背景知识的编码特征间进行交叉注意力计算,得到关注项目数据的背景知识的第一特征表示。
可选的,上述第二特征表示确定单元基于所述背景知识的编码特征和所述每一候选回复的编码特征,确定关注背景知识的每一候选回复的第四特征表示的过程,可以包括:
将所述背景知识的编码特征与所述每一候选回复的编码特征进行交叉注意力计算,得到关注背景知识的每一候选回复的第四特征表示。
可选的,上述第二特征表示确定单元基于所述项目数据的编码特征和所述每一候选回复的编码特征,确定关注项目数据的每一候选回复的第五特征表示的过程,可以包括:
将所述项目数据的编码特征与所述每一候选回复的编码特征进行交叉注意力计算,得到关注项目数据的每一候选回复的第五特征表示。
可选的,所述目标项目可以是人机对话回复预测项目;所述背景知识包括人机对话回复预测项目相关的背景知识图谱,所述项目数据包括人机对话历史。基于此,上述数据获取单元获取待预测标准回复的目标项目的候选回复集合的过程,可以包括:
基于所述人机对话历史所涉及的两个历史对话目标及对话轮次,确定候选回复的目标分类标签;
参考预先配置的标注有分类标签的机器回复训练语句,从中选取目标分类标签对应的机器回复训练语句,并基于此确定候选回复集合;
其中,机器回复训练语句所标注的分类标签为,根据人机对话训练内容所涉及的两个对话目标及其中每条机器回复所处的对话轮次,确定的每条机器回复的分类标签。
可选的,上述数据获取单元基于所述人机对话历史所涉及的两个历史对话目标及对话轮次,确定候选回复的目标分类标签的过程,可以包括:
确定所述人机对话历史所涉及的两个历史对话目标各自所属的领域,得到两个领域信息;
基于所述人机对话历史的对话轮次,确定候选回复的对应的目标对话轮次;
由所述两个领域信息及所述目标对话轮次,组成候选回复的目标分类标签。
可选的,本申请的装置还可以包括:训练数据处理单元,用于为机器回复训练语句标注分类标签,该过程可以包括:
获取训练集,所述训练集包括若干段人机对话训练内容,每段人机对话训练内容对应标记有对话目标信息,对话目标信息包含涉及的两个对话目标;
对所述训练集中每句机器回复设定分类标签,所述分类标签包括两个领域信息及当前机器回复在所属人机对话训练内容段中的出现轮次,其中两个领域信息分别为当前机器回复对应的对话目标信息中两个对话目标各自所属的领域。
可选的,上述训练数据处理单元还用于,对标注有分类标签的机器回复训练语句进行规范化处理,该规范化处理过程包括,对机器回复训练语句中出现的对话目标及其属性值用设定标签替换。
基于此,上述数据获取单元基于选取的目标分类标签对应的机器回复训练语句确定候选回复集合的过程,可以包括:
在选取的目标分类标签对应的机器回复训练语句中,按照设定优先级顺序选取设定数目的机器回复训练语句,所述设定优先级顺序由高至低依次为:同时包含所述历史对话目标对应的标签及其属性值对应的标签、仅包含所述历史对话目标对应的标签,不包含所述历史对话目标对应的标签;
将选取的设定数目的各条机器回复训练语句中,对话目标及其属性值对应的标签,分别用历史对话目标及其属性值进行替换,得到候选回复集合。
本申请实施例提供的标准回复确定装置可应用于标准回复确定设备,如终端:手机、电脑等。可选的,图5示出了标准回复确定设备的硬件结构框图,参照图5,标准回复确定装置设备的硬件结构可以包括:至少一个处理器1,至少一个通信接口2,至少一个存储器3和至少一个通信总线4;
在本申请实施例中,处理器1、通信接口2、存储器3、通信总线4的数量为至少一个,且处理器1、通信接口2、存储器3通过通信总线4完成相互间的通信;
处理器1可能是一个中央处理器CPU,或者是特定集成电路ASIC(ApplicationSpecific Integrated Circuit),或者是被配置成实施本发明实施例的一个或多个集成电路等;
存储器3可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatilememory)等,例如至少一个磁盘存储器;
其中,存储器存储有程序,处理器可调用存储器存储的程序,所述程序用于:
获取待预测标准回复的目标项目的候选回复集合、所述目标项目相关的背景知识,及所述目标项目的项目数据;
基于所述背景知识和所述项目数据,确定关注项目数据的背景知识的第一特征表示;
基于所述背景知识、所述项目数据和所述每一候选回复,确定关注背景知识及项目数据的每一候选回复的第二特征表示;
确定所述项目数据的第三特征表示,并基于所述第三特征表示、所述第一特征表示及所述每一候选回复的第二特征表示,确定每一候选回复作为标准回复的概率;
基于各候选回复的概率,从中选取标准回复。
可选的,所述程序的细化功能和扩展功能可参照上文描述。
本申请实施例还提供一种存储介质,该存储介质可存储有适于处理器执行的程序,所述程序用于:
获取待预测标准回复的目标项目的候选回复集合、所述目标项目相关的背景知识,及所述目标项目的项目数据;
基于所述背景知识和所述项目数据,确定关注项目数据的背景知识的第一特征表示;
基于所述背景知识、所述项目数据和所述每一候选回复,确定关注背景知识及项目数据的每一候选回复的第二特征表示;
确定所述项目数据的第三特征表示,并基于所述第三特征表示、所述第一特征表示及所述每一候选回复的第二特征表示,确定每一候选回复作为标准回复的概率;
基于各候选回复的概率,从中选取标准回复。
可选的,所述程序的细化功能和扩展功能可参照上文描述。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间可以根据需要进行组合,且相同相似部分互相参见即可。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本申请。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本申请的精神或范围的情况下,在其它实施例中实现。因此,本申请将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (13)
1.一种标准回复确定方法,其特征在于,包括:
获取待预测标准回复的目标项目的候选回复集合、所述目标项目相关的背景知识,及所述目标项目的项目数据;
基于所述背景知识和所述项目数据,确定关注项目数据的背景知识的第一特征表示;
基于所述背景知识、所述项目数据和所述每一候选回复,确定关注背景知识及项目数据的每一候选回复的第二特征表示;
确定所述项目数据的第三特征表示,并基于所述第三特征表示、所述第一特征表示及所述每一候选回复的第二特征表示,确定每一候选回复作为标准回复的概率;
基于各候选回复的概率,从中选取标准回复。
2.根据权利要求1所述的方法,其特征在于,所述第一特征表示、所述第二特征表示及所述第三特征表示的确定过程,包括:
确定所述背景知识的编码特征、所述项目数据的编码特征及每一候选回复的编码特征;
将所述项目数据的编码特征作为所述项目数据的第三特征表示;
基于所述背景知识的编码特征和所述项目数据的编码特征,确定关注项目数据的背景知识的第一特征表示;
基于所述背景知识的编码特征、所述项目数据的编码特征和所述每一候选回复的编码特征,确定关注背景知识及项目数据的每一候选回复的第二特征表示。
3.根据权利要求2所述的方法,其特征在于,所述基于所述背景知识的编码特征、所述项目数据的编码特征和所述每一候选回复的编码特征,确定关注背景知识及项目数据的每一候选回复的第二特征表示,包括:
基于所述背景知识的编码特征和所述每一候选回复的编码特征,确定关注背景知识的每一候选回复的第四特征表示;
基于所述项目数据的编码特征和所述每一候选回复的编码特征,确定关注项目数据的每一候选回复的第五特征表示;
将每一候选回复的第四特征表示与第五特征表示进行拼接,得到关注背景知识及项目数据的每一候选回复的第二特征表示。
4.根据权利要求2所述的方法,其特征在于,所述确定所述背景知识的编码特征、所述项目数据的编码特征及每一候选回复的编码特征,包括:
对所述背景知识中每条知识进行编码,并将各条知识的编码结果进行联合表示,得到背景知识的编码特征;
对所述项目数据中每条语句进行编码,并将各条语句的编码结果进行联合表示,得到项目数据的编码特征;
对每一候选回复进行编码,得到对应的编码特征。
5.根据权利要求2所述的方法,其特征在于,所述基于所述背景知识的编码特征和所述项目数据的编码特征,确定关注项目数据的背景知识的第一特征表示,包括:
将所述项目数据的编码特征与所述背景知识的编码特征间进行交叉注意力计算,得到关注项目数据的背景知识的第一特征表示。
6.根据权利要求3所述的方法,其特征在于,所述基于所述背景知识的编码特征和所述每一候选回复的编码特征,确定关注背景知识的每一候选回复的第四特征表示,包括:
将所述背景知识的编码特征与所述每一候选回复的编码特征进行交叉注意力计算,得到关注背景知识的每一候选回复的第四特征表示;
所述基于所述项目数据的编码特征和所述每一候选回复的编码特征,确定关注项目数据的每一候选回复的第五特征表示,包括:
将所述项目数据的编码特征与所述每一候选回复的编码特征进行交叉注意力计算,得到关注项目数据的每一候选回复的第五特征表示。
7.根据权利要求1所述的方法,其特征在于,所述目标项目为人机对话回复预测项目;所述背景知识包括人机对话回复预测项目相关的背景知识图谱,所述项目数据包括人机对话历史;
所述获取待预测标准回复的目标项目的候选回复集合,包括:
基于所述人机对话历史所涉及的两个历史对话目标及对话轮次,确定候选回复的目标分类标签;
参考预先配置的标注有分类标签的机器回复训练语句,从中选取目标分类标签对应的机器回复训练语句,并基于此确定候选回复集合;
其中,机器回复训练语句所标注的分类标签为,根据人机对话训练内容所涉及的两个对话目标及其中每条机器回复所处的对话轮次,确定的每条机器回复的分类标签。
8.根据权利要求7所述的方法,其特征在于,所述基于所述人机对话历史所涉及的两个历史对话目标及对话轮次,确定候选回复的目标分类标签,包括:
确定所述人机对话历史所涉及的两个历史对话目标各自所属的领域,得到两个领域信息;
基于所述人机对话历史的对话轮次,确定候选回复的对应的目标对话轮次;
由所述两个领域信息及所述目标对话轮次,组成候选回复的目标分类标签。
9.根据权利要求8所述的方法,其特征在于,标注有分类标签的机器回复训练语句的配置过程,包括:
获取训练集,所述训练集包括若干段人机对话训练内容,每段人机对话训练内容对应标记有对话目标信息,对话目标信息包含涉及的两个对话目标;
对所述训练集中每句机器回复设定分类标签,所述分类标签包括两个领域信息及当前机器回复在所属人机对话训练内容段中的出现轮次,其中两个领域信息分别为当前机器回复对应的对话目标信息中两个对话目标各自所属的领域。
10.根据权利要求7所述的方法,其特征在于,预先配置的标注有分类标签的机器回复训练语句为经过规范化处理后的机器回复训练语句,该规范化处理过程包括,对机器回复训练语句中出现的对话目标及其属性值用设定标签替换;
则,基于选取的目标分类标签对应的机器回复训练语句确定候选回复集合的过程,包括:
在选取的目标分类标签对应的机器回复训练语句中,按照设定优先级顺序选取设定数目的机器回复训练语句,所述设定优先级顺序由高至低依次为:同时包含所述历史对话目标对应的标签及其属性值对应的标签、仅包含所述历史对话目标对应的标签,不包含所述历史对话目标对应的标签;
将选取的设定数目的各条机器回复训练语句中,对话目标及其属性值对应的标签,分别用历史对话目标及其属性值进行替换,得到候选回复集合。
11.一种标准回复确定装置,其特征在于,包括:
数据获取单元,用于获取待预测标准回复的目标项目的候选回复集合、所述目标项目相关的背景知识,及所述目标项目的项目数据;
第一特征表示确定单元,用于基于所述背景知识和所述项目数据,确定关注项目数据的背景知识的第一特征表示;
第二特征表示确定单元,用于基于所述背景知识、所述项目数据和所述每一候选回复,确定关注背景知识及项目数据的每一候选回复的第二特征表示;
第三特征表示确定单元,用于确定所述项目数据的第三特征表示;
概率确定单元,用于基于所述第三特征表示、所述第一特征表示及所述每一候选回复的第二特征表示,确定每一候选回复作为标准回复的概率;
标准回复选取单元,用于基于各候选回复的概率,从中选取标准回复。
12.一种标准回复确定设备,其特征在于,包括:存储器和处理器;
所述存储器,用于存储程序;
所述处理器,用于执行所述程序,实现如权利要求1~10中任一项所述的标准回复确定方法的各个步骤。
13.一种存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时,实现如权利要求1~10中任一项所述的标准回复确定方法的各个步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010806312.7A CN111930910B (zh) | 2020-08-12 | 2020-08-12 | 标准回复确定方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010806312.7A CN111930910B (zh) | 2020-08-12 | 2020-08-12 | 标准回复确定方法、装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111930910A true CN111930910A (zh) | 2020-11-13 |
CN111930910B CN111930910B (zh) | 2023-11-28 |
Family
ID=73310686
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010806312.7A Active CN111930910B (zh) | 2020-08-12 | 2020-08-12 | 标准回复确定方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111930910B (zh) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018058994A1 (zh) * | 2016-09-30 | 2018-04-05 | 华为技术有限公司 | 基于深度学习的对话方法、装置及设备 |
CN108647233A (zh) * | 2018-04-02 | 2018-10-12 | 北京大学深圳研究生院 | 一种用于问答系统的答案排序方法 |
CN111475614A (zh) * | 2020-03-09 | 2020-07-31 | 百度在线网络技术(北京)有限公司 | 知识推理对话方法、装置、电子设备和存储介质 |
-
2020
- 2020-08-12 CN CN202010806312.7A patent/CN111930910B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018058994A1 (zh) * | 2016-09-30 | 2018-04-05 | 华为技术有限公司 | 基于深度学习的对话方法、装置及设备 |
CN108647233A (zh) * | 2018-04-02 | 2018-10-12 | 北京大学深圳研究生院 | 一种用于问答系统的答案排序方法 |
CN111475614A (zh) * | 2020-03-09 | 2020-07-31 | 百度在线网络技术(北京)有限公司 | 知识推理对话方法、装置、电子设备和存储介质 |
Non-Patent Citations (1)
Title |
---|
陈嘉颖;于炯;杨兴耀;: "一种融合语义分析特征提取的推荐算法", 计算机研究与发展, no. 03 * |
Also Published As
Publication number | Publication date |
---|---|
CN111930910B (zh) | 2023-11-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109697282B (zh) | 一种语句的用户意图识别方法和装置 | |
CN111061946B (zh) | 场景化内容推荐方法、装置、电子设备及存储介质 | |
CN110162698B (zh) | 一种用户画像数据处理方法、装置及存储介质 | |
CN110717325B (zh) | 文本的情感分析方法、装置、电子设备及存储介质 | |
CN113392288A (zh) | 视觉问答及其模型训练的方法、装置、设备及存储介质 | |
CN112100504B (zh) | 内容推荐方法、装置、电子设备及存储介质 | |
CN114339450B (zh) | 视频评论生成方法、系统、设备及存储介质 | |
CN113449528B (zh) | 一种地址要素提取方法、装置、计算机设备和存储介质 | |
CN111046188A (zh) | 用户偏好度确定方法、装置、电子设备及可读存储介质 | |
CN111506820A (zh) | 推荐模型、方法、装置、设备及存储介质 | |
CN111291172A (zh) | 用于处理文本的方法和装置 | |
CN110096617A (zh) | 视频分类方法、装置、电子设备及计算机可读存储介质 | |
CN114021646A (zh) | 一种图像描述文本确定方法及其相关设备 | |
CN114996511A (zh) | 一种针对跨模态视频检索模型的训练方法及装置 | |
CN116775815B (zh) | 对话数据的处理方法、装置、电子设备及存储介质 | |
CN114840642A (zh) | 事件抽取方法、装置、设备及存储介质 | |
CN115186675A (zh) | 语言模型训练及自然语言任务处理方法、装置及相关设备 | |
CN115203532B (zh) | 一种项目推荐方法、装置、电子设备及存储介质 | |
CN111930910A (zh) | 标准回复确定方法、装置、设备及存储介质 | |
CN114154517B (zh) | 一种基于深度学习的对话质量评估方法及系统 | |
CN115063858A (zh) | 视频人脸表情识别模型训练方法、装置、设备及存储介质 | |
CN111522914B (zh) | 标注数据采集方法、装置、电子设备及存储介质 | |
CN113836903A (zh) | 一种基于情境嵌入和知识蒸馏的企业画像标签抽取方法及装置 | |
CN117575013B (zh) | 应用于网络安全平台的交互挖掘方法及人工智能预测系统 | |
Wang et al. | Combining label-wise attention and adversarial training for tag prediction of web services |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information | ||
CB02 | Change of applicant information |
Address after: 230088 China (Anhui) pilot Free Trade Zone, Hefei, Anhui province 6 / F and 23 / F, scientific research building, building 2, zone a, China sound Valley, No. 3333 Xiyou Road, high tech Zone, Hefei Applicant after: Anhui taoyun Technology Co.,Ltd. Address before: 230088 9th floor, building 1, tianyuandike science and Technology Park, 66 Qianshui East Road, high tech Zone, Hefei City, Anhui Province Applicant before: ANHUI TAOYUN TECHNOLOGY Co.,Ltd. |
|
GR01 | Patent grant | ||
GR01 | Patent grant |