CN115221331A - 描述文本生成方法、装置、计算机设备及存储介质 - Google Patents
描述文本生成方法、装置、计算机设备及存储介质 Download PDFInfo
- Publication number
- CN115221331A CN115221331A CN202110421112.4A CN202110421112A CN115221331A CN 115221331 A CN115221331 A CN 115221331A CN 202110421112 A CN202110421112 A CN 202110421112A CN 115221331 A CN115221331 A CN 115221331A
- Authority
- CN
- China
- Prior art keywords
- attribute
- node
- knowledge graph
- text
- sequence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 117
- 230000007704 transition Effects 0.000 claims description 46
- 238000012549 training Methods 0.000 claims description 43
- 238000012545 processing Methods 0.000 claims description 38
- 238000000605 extraction Methods 0.000 claims description 30
- 238000004364 calculation method Methods 0.000 claims description 16
- 238000010276 construction Methods 0.000 claims description 13
- 238000002372 labelling Methods 0.000 claims description 11
- 238000004590 computer program Methods 0.000 claims description 8
- 230000004044 response Effects 0.000 claims description 6
- 230000009191 jumping Effects 0.000 claims description 5
- 230000010354 integration Effects 0.000 claims description 4
- 230000008569 process Effects 0.000 abstract description 59
- 239000002775 capsule Substances 0.000 description 75
- 238000010586 diagram Methods 0.000 description 20
- 238000013528 artificial neural network Methods 0.000 description 16
- 230000006870 function Effects 0.000 description 15
- 230000007246 mechanism Effects 0.000 description 11
- 230000003044 adaptive effect Effects 0.000 description 9
- 230000009286 beneficial effect Effects 0.000 description 9
- 239000011159 matrix material Substances 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 6
- 230000008901 benefit Effects 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 5
- YTAHJIFKAKIKAV-XNMGPUDCSA-N [(1R)-3-morpholin-4-yl-1-phenylpropyl] N-[(3S)-2-oxo-5-phenyl-1,3-dihydro-1,4-benzodiazepin-3-yl]carbamate Chemical compound O=C1[C@H](N=C(C2=C(N1)C=CC=C2)C1=CC=CC=C1)NC(O[C@H](CCN1CCOCC1)C1=CC=CC=C1)=O YTAHJIFKAKIKAV-XNMGPUDCSA-N 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 4
- 239000012458 free base Substances 0.000 description 4
- 238000012937 correction Methods 0.000 description 2
- 230000002349 favourable effect Effects 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 239000000126 substance Substances 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 241000288105 Grus Species 0.000 description 1
- OAICVXFJPJFONN-UHFFFAOYSA-N Phosphorus Chemical compound [P] OAICVXFJPJFONN-UHFFFAOYSA-N 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 235000019800 disodium phosphate Nutrition 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 239000003292 glue Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 239000002689 soil Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/36—Creation of semantic tools, e.g. ontology or thesauri
- G06F16/367—Ontology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
- G06F40/295—Named entity recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
- G06Q30/0601—Electronic shopping [e-shopping]
- G06Q30/0631—Item recommendations
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Finance (AREA)
- Data Mining & Analysis (AREA)
- Accounting & Taxation (AREA)
- Development Economics (AREA)
- General Business, Economics & Management (AREA)
- Animal Behavior & Ethology (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Economics (AREA)
- Marketing (AREA)
- Strategic Management (AREA)
- Databases & Information Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请是关于一种描述文本生成方法、装置、计算机设备及存储介质。涉及互联网技术领域。该方法包括:构建目标对象对应的对象知识图谱,对象知识图谱用于表征目标对象对应属性实体词和属性特征词之间的关系;将对象知识图谱输入属性预测模型中,得到属性预测模型输出的属性序列,属性预测模型用于预测与生成目标对象对应对象描述文本相关的对象属性,属性序列中包含至少一个对象属性;将对象知识图谱和属性序列输入文本生成模型,得到文本生成模型输出的对象描述文本,文本生成模型用于根据对象知识图谱生成各个对象属性对应的描述语句,并基于描述语句组成对象描述文本。实现了自动化的对象描述文本生成过程,有利于提高对象描述文本的生成效率。
Description
技术领域
本申请涉及互联网技术领域,特别涉及一种描述文本生成方法、装置、计算机设备及存储介质。
背景技术
随着近年来互联网技术的高速发展,电子商务网站也逐渐兴起,越来越多的用户选择在电子商务网站上购买自己所需要的商品。高质量和高可信度的商品描述可以增加用户对商品的了解,提高用户的兴趣,从而提升商品的点击率和销量。
与线下场景中店家与用户面对面交互不同,线上商店只能依靠商品的描述文本向用户提供商品信息和推荐商品。相关技术中,线上商店的绝大部分商品描述文本都是由人工撰写完成,商品描述文本的生成效率较低。
发明内容
本申请实施例提供了一种描述文本生成方法、装置、计算机设备及存储介质,可以提高描述文本的生成效率,该技术方案如下:
一方面,提供了一种描述文本生成方法,所述方法包括:
构建目标对象对应的对象知识图谱,所述对象知识图谱用于表征所述目标对象对应属性实体词和属性特征词之间的关系;
将所述对象知识图谱输入属性预测模型中,得到所述属性预测模型输出的属性序列,所述属性预测模型用于预测与生成所述目标对象对应对象描述文本相关的对象属性,所述属性序列中包含至少一个所述对象属性;
将所述对象知识图谱和所述属性序列输入文本生成模型,得到所述文本生成模型输出的所述对象描述文本,所述文本生成模型用于根据所述对象知识图谱生成各个所述对象属性对应的描述语句,并基于所述描述语句组成所述对象描述文本。
在本申请实施例提供的方案中,在商品描述文本生成场景中,预先训练有属性预测模型和文本生成模型,使得在模型应用场景中,可以通过属性预测模型对对象知识图谱进行属性提取,并且通过文本生成模型基于对象知识图谱和预测对象属性生成对应的对象描述文本,有利于预测目标对象在对象描述文本上的不同属性特征,且对象知识图谱引入了目标对象的知识信息,同时丰富了对象描述文本的信息量,实现了自动化的对象描述文本生成过程,有利于提高对象描述文本的生成效率。
在一种可能的实现方式中,所述构建目标对象对应的对象知识图谱,包括:
基于所述目标对象对应的对象实体词,构建所述目标对象对应的属性图谱,所述属性图谱用于表征所述对象实体词与所述属性实体词之间的关系;
基于所述目标对象对应的历史评论文本,构建所述目标对象对应的热词图谱,所述热词图谱用于表征与所述目标对象相关的不同属性特征词之间的关系;
基于所述历史评论文本和历史描述文本,整合所述热词图谱和所述属性图谱,得到所述对象知识图谱。
在一种可能的实现方式中,基于所述历史评论文本和所述历史描述文本,确定所述属性实体词和所述属性特征词之间的关系;
基于所述属性实体词和所述属性特征词之间的关系,整合所述热词图谱和所述属性图谱,得到所述对象知识图谱。
在本申请实施例提供的方案中,通过构建目标对象对应的属性图谱和热词图谱,进而基于历史评论文本和历史描述文本整合热词图谱和属性图谱,使得生成的对象知识图谱具备商品-实体-单词-单词的层次结构的对象知识图谱,可以基于该对象知识图谱推测出商品在不同属性层面的特征(通过商品与实体的关系),商品在不同属性层面词汇使用(通过实体与单词的关系),以及用户相关的热词趋势(通过单词与单词的关系),从而为后续对象描述文本的生成提供更丰富的个性化属性信息。
在一种可能的实现方式中,所述属性预测模型中包含属性特征提取网络和属性预测网络;
所述将所述对象知识图谱输入属性预测模型中,得到所述属性预测模型输出的属性序列,包括:
将所述对象知识图谱输入所述属性特征提取网络,得到所述属性特征提取网络输出的属性特征表示,所述属性特征提取网络用于提取所述对象知识图谱中目标对象的属性特征;
获取所述目标对象对应的对象特征表示;
将所述属性特征表示和所述对象特征表示输入所述属性预测网络,得到所述属性预测网络输出的所述属性序列,所述属性序列中包含所述目标对象关注的至少一个所述对象属性。
在本申请实施例提供的方案中,通过在属性预测过程中引入目标对象对应的对象特征表示,使得属性预测模型可以学习与目标对象相关的对象属性,进一步提高属性预测的准确性。
在一种可能的实现方式中,所述将所述属性特征表示和所述对象特征表示输入所述属性预测网络,得到所述属性预测网络输出的所述属性序列之前,所述方法包括:
获取目标用户对应的用户特征表示;
所述将所述属性特征表示和所述对象特征表示输入所述属性预测网络,得到所述属性预测网络输出的所述属性序列,包括:
将所述用户特征表示、所述对象特征表示和所述属性特征表示输入所述属性预测网络中,得到所述属性预测网络输出的所述属性序列,所述属性序列中包含所述目标用户关注所述目标对象的至少一个所述对象属性。
在本申请实施例提供的方案中,通过在属性预测过程中引入用户特征表示,使得属性预测网络可以学习用户特征,从而确定出用户更关注的对象属性,进而使得生成的描述文本更符合用户个性化需求。
在一种可能的实现方式中,所述文本生成模型包括多跳推理网络和文本生成网络;
所述将所述对象知识图谱和所述属性序列输入文本生成模型,得到所述文本生成模型输出的所述对象描述文本,包括:
将所述对象知识图谱和所述属性序列输入所述多跳推理网络中,得到所述多跳推理网络输出的至少一个推理节点,所述推理节点指示在所述对象知识图谱中与所述对象属性相关的属性实体词和属性特征词;
将所述推理节点和所述属性序列输入所述文本生成网络中,得到所述文本生成网络输出的所述对象描述文本,所述文本生成网络用于基于所述推理节点生成与所述对象属性相关的描述语句。
在一种可能的实现方式中,所述将所述对象知识图谱和所述属性序列输入所述多跳推理网络中,得到所述多跳推理网络输出的至少一个推理节点,包括:
响应于所述第i对象属性是所述属性序列的第一属性,以所述目标对象对应对象实体词为初始推理节点,基于所述对象知识图谱推理得到所述第i对象属性对应的至少一个所述推理节点,其中,i为大于0的整数;
响应于所述第i对象属性不是所述属性序列的第一属性,以第i-1对象属性对应的终止节点为所述初始推理节点,推理得到所述第i对象属性对应的至少一个所述推理节点。
在一种可能的实现方式中,所述推理得到所述第i对象属性对应的至少一个所述推理节点,包括:
基于所述第i对象属性的第j推理节点,确定所述第j推理节点跳转至至少一个邻居节点的第一多跳转移概率,所述邻居节点是所述对象知识图谱中与所述第j推理节点相连的节点,j为大于0的整数;
基于所述第一多跳转移概率,从至少一个所述邻居节点中确定所述第i对象属性对应的第j+1推理节点。
在一种可能的实现方式中,所述基于所述第一多跳转移概率,从至少一个所述邻居节点中确定所述第i对象属性对应的第j+1推理节点,包括:
确定各个所述邻居节点对应的节点权重,所述节点权重由所述邻居节点在所述历史评论文本中的出现频率确定;
基于所述节点权重对所述多跳转移概率进行修正,得到第二多跳转移概率;
基于所述第二多跳转移概率,从至少一个所述邻居节点中确定所述第j+1推理节点。
在本申请实施例提供的方案中,将多跳推理技术应用到对象描述文本生成过程中,完成句子中实体和单词等概念的转换,有利于提高生成描述文本的个性化和流畅性。
在一种可能的实现方式中,所述构建目标对象对应的对象知识图谱之前,所述方法包括:
构建样本对象对应的样本知识图谱;
将所述样本知识图谱输入属性预测模型中,得到所述属性预测模型输出的样本属性序列;
基于所述样本属性序列和标注属性序列,训练所述属性预测模型;
将所述样本知识图谱和所述样本属性序列输入文本生成模型,得到所述文本生成模型输出的样本对象描述文本;
基于所述样本对象描述文本和标注对象描述文本,训练所述文本生成模型。
在一种可能的实现方式中,基于所述样本属性序列和标注样本属性序列,训练所述属性预测模型,包括:
计算所述样本属性序列和所述标注属性序列对应的边缘损失;
基于所述边缘损失,训练所述属性预测模型。
在一种可能的实施方式中,所述基于所述样本对象描述文本和标注对象描述文本,训练所述文本生成模型,包括:
计算所述样本对象描述文本和所述标注对象描述文本对应的交叉熵损失;
基于所述交叉熵损失,训练所述文本生成模型。
在本申请实施例提供的方案中,描述了属性预测模型和文本生成模型的训练过程,使得训练完成的属性预测模型和文本生成模型可以用于对象描述文本的自动生成场景中,使得在模型应用场景中,可以通过属性预测模型对对象知识图谱进行属性提取,并且通过文本生成模型基于对象知识图谱和预测对象属性生成对应的对象描述文本,有利于预测目标对象在对象描述文本上的不同属性特征,且对象知识图谱引入了目标对象的知识信息,同时丰富了对象描述文本的信息量,实现了自动化的对象描述文本生成过程,有利于提高对象描述文本的生成效率。
又一方面,提供了一种描述文本生成装置,所述装置包括:
第一构建模块,用于构建目标对象对应的对象知识图谱,所述对象知识图谱用于表征所述目标对象对应属性实体词和属性特征词之间的关系;
第一处理模块,用于将所述对象知识图谱输入属性预测模型中,得到所述属性预测模型输出的属性序列,所述属性预测模型用于预测与生成所述目标对象对应对象描述文本相关的对象属性,所述属性序列中包含至少一个所述对象属性;
第二处理模块,用于将所述对象知识图谱和所述属性序列输入文本生成模型,得到所述文本生成模型输出的所述对象描述文本,所述文本生成模型用于根据所述对象知识图谱生成各个所述对象属性对应的描述语句,并基于所述描述语句组成所述对象描述文本。
再一方面,提供了一种计算机设备,所述计算机设备包含处理器和存储器,所述存储器中存储有计算机指令,所述计算机指令由所述处理器加载并执行以实现上述的描述文本生成方法。
又一方面,提供了一种计算机可读存储介质,所述存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由处理器加载并执行以实现上述描述文本生成方法。
再一方面,提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述描述文本生成方法。
本申请提供的技术方案可以包括以下有益效果:
在商品描述文本生成场景中,预先训练有属性预测模型和文本生成模型,使得在模型应用场景中,可以通过属性预测模型对对象知识图谱进行属性提取,并且通过文本生成模型基于对象知识图谱和预测对象属性生成对应的对象描述文本,有利于预测目标对象在对象描述文本上的不同属性特征,且对象知识图谱引入了目标对象的知识信息,同时丰富了对象描述文本的信息量,实现了自动化的对象描述文本生成过程,有利于提高对象描述文本的生成效率。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本申请。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本申请的实施例,并与说明书一起用于解释本申请的原理。
图1是根据一示例性实施例示出的一种描述文本生成方法的流程示意图;
图2是根据一示例性实施例示出的对象知识图谱的结构示意图;
图3示出了本申请一个示例性实施例示出的对象描述文本和对象知识图谱之间的关系示意图;
图4是根据一示例性实施例示出的一种描述文本生成方法的流程示意图;
图5是根据一示例性实施例示出的一种描述文本生成方法的流程示意图;
图6示出了本申请一个示例性实施例示出的描述文本生成过程的示意图;
图7是根据一示例性实施例示出的一种描述文本生成方法的流程示意图;
图8示出了本申请另一个示例性实施例示出的描述文本生成过程的示意图;
图9是根据一示例性实施例示出的一种描述文本生成方法的流程示意图;
图10示出了本申请一个示例性实施例示出的真实描述文本和生成描述文本的示意图;
图11是根据一示例性实施例示出的一种描述文本生成装置的结构方框图;
图12是示出了一示例性实施例提供的一种计算机设备的示意性框图;
图13是示出了一示例性实施例提供的一种计算机设备的结构示意图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本申请相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本申请的一些方面相一致的装置和方法的例子。
请参考图1,其是根据一示例性实施例示出的一种描述文本生成方法的流程示意图。该方法可以由计算机设备执行,其中,该计算机设备可以是终端,也可以是服务器,或者,该计算机设备可以包括终端和服务器。如图1所示,该描述文本生成方法的流程可以包括如下步骤:
步骤101,构建目标对象对应的对象知识图谱,对象知识图谱用于表征目标对象对应属性实体词和属性特征词之间的关系。
本实施例主要应用于商品描述文本生成场景中,由于商品描述文本的作用是为了向用户提供商品信息,比如,商品参数、商品的一些个性化属性,从而吸引用户的兴趣,对应在生成商品描述文本时,所引入的商品属性越多,且商品属性与商品更贴合,生成的商品描述文本也就越个性化和丰富,进而起到更好的推荐作用。示意性的,目标对象可以是电子商品(比如,智能手机、智能相机、智能电视、平板电脑等),也可以是音乐、服饰、图书、电影等,本实施例对此不构成限定。
在一种可能的实施方式中,为了进一步丰富生成的商品描述文本的个性化和丰富性,通过挖掘目标对象对应的外部知识信息,比如,与商品相关的属性知识和商品属性特征(即用户对商品相关属性的评价),进而构建目标对象对应的对象知识图谱(该对象知识图谱的结构至少指示属性词-属性特征词的关联关系),以便由对象知识图谱为后续对象描述文本的生成提供更丰富的商品属性信息。
示例性的,如图2所示,其是根据一示例性实施例示出的对象知识图谱的结构示意图。以手机这一商品为例,构建出了手机对应的对象知识图谱,手机A即为对象实体词,“像素”为手机A对应的属性实体词,“很棒”为像素这一属性实体词对应的属性特征词。
步骤102,将对象知识图谱输入属性预测模型中,得到属性预测模型输出的属性序列,属性预测模型用于预测与生成目标对象对应对象描述文本相关的对象属性,属性序列中包含至少一个对象属性。
其中,属性预测模型用于提取商品在不同属性层面的特征,并学习对象知识图谱中所展示的商品属性信息,进而预测用于生成商品描述文本的属性序列。示意性的,若对象知识图谱中指示更关注电影A的电影类型、导演和演员等属性,对应的,经过属性预测模型后,预测出生成的对象描述文本中也应该关注电影A的电影类型、导演和演员等属性。其可以采用胶囊图神经网络、图神经网络、编码器-解码器等神经网络结构,本申请实施例对此不构成限定。
在一种可能的实施方式中,计算机设备中预先存储有属性预测模型,在商品描述文本生成场景中,运行该属性预测模型,将预先构建的对象知识图谱输入属性预测模型,由属性预测模型提取该对象知识图谱中的属性特征,进而预测得到对象描述文本中的属性序列,以便后续可以基于属性序列中包含的对象属性,生成对应的对象描述文本。
其中,属性预测模型的训练过程可以参考下文实施例,本实施例在此不做赘述。
步骤103,将对象知识图谱和属性序列输入文本生成模型,得到文本生成模型输出的对象描述文本,文本生成模型用于根据对象知识图谱生成各个对象属性对应的描述语句,并基于描述语句组成对象描述文本。
由于对象知识图谱中指示了属性实体词和属性特征词之间的关系,因此,为了进一步提高生成对象描述文本的丰富性,文本生成模型用于根据对象知识图谱生成各个对象属性对应的描述语句,以便将属性特征词(该属性特征词与对象属性对应属性实体词在对象知识图谱中具有相关关系)引入对象描述文本中,再基于描述语句生成对应的对象描述文本。示意性的,若属性预测模型输出的属性序列为:价格、像素和质量,将属性序列和对象知识图谱输入文本生成模型中,基于价格这一属性特征词在对象知识图谱中查找到关联属性特征词,比如,实惠,依次类推,像素对应的属性特征词为很棒,质量对应的属性特征词为耐用,进而基于属性实体词和属性特征词,生成各个对象属性对应的描述语句,比如,价格这一对象属性对应的描述语句可以为:手机A的价格很实惠,从而按照对象属性的顺序组合为对象描述文本。
在一种可能的实施方式中,将对象知识图谱和属性序列输入文本生成模型,可以得到文本生成模型输出的每个对象属性的描述语句,形成句子序列,进而形成商品描述文本。
示意性的,如图3所示,其示出了本申请一个示例性实施例示出的对象描述文本和对象知识图谱之间的关系示意图。由对象知识图谱中可以看出电影1关注的对象属性为导演和类型,对应的,在生成对象描述文本时,电影1对应的对象描述文本中包括电影类型这一对象属性对应的描述语句“This movie is a classic adventure type(这部电影是典型的冒险类型的电影)”,和导演这一对象属性对应的描述语句“As one of mostbrilliant directors of all time,Tim Burton is best known for his movie(TimBurton是有史以来最杰出的电影导演之一)”。且该描述语句中引入了对象知识图谱中的单词,比如“类型、杰出的、导演”等;电影2关注的对象属性为主题和年份,对应的,在生成对象描述文本时,电影2对应的对象描述文本中包含电影主题这一对象属性对应的描述语句“This movie must be one of the most difficult subjects to watch as it shouldbe imaginative(这么富有想象力的电影题材是很难看到的)”,和年份这一对象属性对应的描述语句“It′s surprising to read the storyline in the movie written in the1980s(描写了在1980年代的电影故事情节是很令人惊讶的)”,且该对象描述文本中同样引入了对象知识图谱中的单词,比如“富有想象力的、主题”等。
可选的,为了提高生成的对象描述文本的流畅性,文本生成模型可以采用多跳推理机制和句子解码网络,句子解码网络的主要组成部分可以是循环神经网络和指针-生成器。
综上所述,本申请实施例中,在商品描述文本生成场景中,预先训练有属性预测模型和文本生成模型,使得在模型应用场景中,可以通过属性预测模型对对象知识图谱进行属性提取,并且通过文本生成模型基于对象知识图谱和预测对象属性生成对应的对象描述文本,有利于预测目标对象在对象描述文本上的不同属性特征,且对象知识图谱引入了目标对象的知识信息,同时丰富了对象描述文本的信息量,实现了自动化的对象描述文本生成过程,有利于提高对象描述文本的生成效率。
基于对象知识图谱在生成对象描述文本中的作用,即对象知识图谱中所引入的商品相关属性越丰富,属性特征越丰富,生成的对象描述文本的信息就越丰富,更能体现商品特点和个性化,有利于个性化推荐,为了提高对象描述文本的信息丰富度和个性化,在构建对象知识图谱过程中除了引入属性知识图谱,同时引入了基于用户评论文本生成的热词图谱,由于用户评论文本中包含着用户对于商品的客观评价,以及用户目前感兴趣的商品内容,因此,这些信息对商品描述文本的生成可以起到一定的补充和丰富作用。
请参考图4,其是根据一示例性实施例示出的一种描述文本生成方法的流程示意图。该方法可以由计算机设备执行,其中,该计算机设备可以是终端,也可以是服务器,或者,该计算机设备可以包括终端和服务器。该描述文本生成方法的流程可以包括如下步骤:
步骤401,基于目标对象对应的对象实体词,构建目标对象对应的属性图谱,属性图谱用于表征对象实体词与属性实体词之间的关系。
本实施例中的属性图谱使用Freebase知识图谱,包括实体与实体之间的关系,示意性的,其由三元组T1=(h,r,t)组成,表示头实体h与尾实体t在Freebase中具有某种关系r,比如,三元组<电影A,导演,用户A>,表示电影A的导演是用户A,也就是说,目标对象对应的属性图谱由对象实体词和属性实体词构成,属性实体词表示目标对象的一种属性特征。
在一种可能的实施方式中,可以使用KB4Rec和RuleRec两个公开数据集将商品数据集中的商品(目标对象)和知识图谱中的实体对齐链接到一起,从而得到商品相关的属性图谱,也就是说,在商品数据集中选中目标商品,基于公开数据集链接到Freebase知识图谱中对应的至少一个目标三元组(目标三元组中具有与目标商品名相同的对象实体词),目标三元组的集合就是商品对应的属性图谱。
示意性的,若目标对象为“电影A”,在知识图谱中存在与“电影A”相同的实体词(对象实体词),查找包含该对象实体词的三元组,从而将所有的三元组确定为商品的属性图谱。
可选的,本实施例选取的商品ID是在商品数据集中出现过预设次数的ID,该预设次数可以为5次。
步骤402,基于目标对象对应的历史评论文本,构建目标对象对应的热词图谱,热词图谱用于表征与目标对象相关的不同属性特征词之间的关系。
为了提高后续生成的描述文本的信息丰富度,除了引入外部知识图谱(属性图谱)之外,还通过收集用户对目标对象(目标商品)的历史评论文本,从中提取出用户对该目标商品的评论热词,进而基于评论热词构建目标对象对应的热词图谱。其中,热词图谱也为三元组的形式,T2=(w1,rco,w2),表示单词w1与单词w2在用户历史评论文本的句子中频繁共现;示意性的,比如,三元组<价格,共现,实惠>表示“价格”与“实惠”在用户的评论句子中经常出现,表明用户非常看重商品的价格。
在一种可能的实施方式中,基于热词图谱中单词的特点:需要满足频繁出现和共现,从历史评论文本中筛选出与目标对象相关的热词,进而将各个热词确定为属性特征词。
可选的,除了可以从历史评论文本中筛选对应的属性特征词,还可以从目标对象对应的历史描述文本中提取对应的属性特征词。
步骤403,基于历史评论文本和历史描述文本,整合热词图谱和属性图谱,得到对象知识图谱。
为了使得对象知识图谱不仅可以推测商品的不同属性特征(通过对象实体词和属性实体词之间的关系),以及用户相关的热词趋势(通过属性特征词与属性特征词之间的关系),也可以推测商品在不同属性特征上的代表热词(通过属性实体词和属性特征词之间的关系),对应需要整合热词图谱和属性图谱,以使得对象知识图谱形成商品-实体-单词-单词的层次结构。
在一个示例性的例子中,步骤403还可以包括以下步骤:
一、基于历史评论文本和历史描述文本,确定属性实体词和属性特征词之间的关系。
由对象知识图谱的结构可知,若需要整合热词图谱和属性图谱,就需要找到属性实体词和属性特征词之间的关系,进而基于该关系将热词图谱和属性图谱链接起来,在一种可能的实施方式中,可以依据所有的历史评论文本和历史描述文本构建属性实体词和属性特征词的共现关系,并将该共现关系确定为属性实体词和属性特征词之间的关系,进而基于该共现关系整合热词图谱和属性图谱。
示意性的,属性实体词和属性特征词之间的关系用三元组的形式可以表示为:T3=(h,rco,w),表示属性实体词h与属性特征词w在文本中频繁共现。
二、基于属性实体词和属性特征词之间的关系,整合热词图谱和属性图谱,得到对象知识图谱。
在一种可能的实施方式中,基于属性实体词和属性特征词之间的关系,可以将热词图谱和属性图谱链接起来,进而形成具备商品-实体-单词-单词的层次结构的对象知识图谱,使得可以基于该对象知识图谱推测出商品在不同属性层面的特征(通过商品与实体的关系),商品在不同属性层面词汇使用(通过实体与单词的关系),以及用户相关的热词趋势(通过单词与单词的关系)。
步骤404,将对象知识图谱输入属性预测模型中,得到属性预测模型输出的属性序列,属性预测模型用于预测与生成目标对象对应对象描述文本相关的对象属性,属性序列中包含至少一个对象属性。
步骤405,将对象知识图谱和属性序列输入文本生成模型,得到文本生成模型输出的对象描述文本,文本生成模型用于根据对象知识图谱生成各个对象属性对应的描述语句,并基于描述语句组成对象描述文本。
步骤404和步骤405的实施方式可以参考上文实施例,本实施例在此不做赘述。
本实施例中,通过构建目标对象对应的属性图谱和热词图谱,进而基于历史评论文本和历史描述文本整合热词图谱和属性图谱,使得生成的对象知识图谱具备商品-实体-单词-单词的层次结构的对象知识图谱,可以基于该对象知识图谱推测出商品在不同属性层面的特征(通过商品与实体的关系),商品在不同属性层面词汇使用(通过实体与单词的关系),以及用户相关的热词趋势(通过单词与单词的关系),从而为后续对象描述文本的生成提供更丰富的个性化属性信息。
请参考图5,其是根据一示例性实施例示出的一种描述文本生成方法的流程示意图。该方法可以由计算机设备执行,其中,该计算机设备可以是终端,也可以是服务器,或者,该计算机设备可以包括终端和服务器。该描述文本生成方法的流程可以包括如下步骤:
步骤501,构建目标对象对应的对象知识图谱,对象知识图谱用于表征目标对象对应属性实体词和属性特征词之间的关系。
步骤501的实施方式可以参考上文实施例,本实施例在此不做赘述。
步骤502,将对象知识图谱输入属性特征提取网络,得到属性特征提取网络输出的属性特征表示,属性特征提取网络用于提取对象知识图谱中目标对象的属性特征。
本实施例中,属性预测模型可以包括属性特征提取网络和属性预测网络,其中,属性特征提取网络主要用于提取对象知识图谱中目标对象的属性特征,进而通过属性预测网络推断出生成对象描述文本时目标对象所关注的对象属性;其可以采用胶囊图神经网络。
在一种可能的实施方式中,将对象知识图谱输入属性特征提取网络,经过胶囊图神经网络进行特征提取,得到的每一个图胶囊都编码了对象知识图谱在不同对象属性上的属性特征。
可选的,在将对象知识图谱输入属性特征提取网络之前,首先需要获取到对象知识图谱中每个节点对应的初始向量表示,其中,对象知识图谱中包含的单词均为单个节点,其可以是对象实体词、属性实体词或属性特征词,示意性的,对象知识图谱中,每一个节点n可以表示为vn表示节点n的初始向量表示,dE表示节点向量的维度;进而将每个节点对应的初始向量表示输入属性特征提取网络进行属性特征提取。
可选的,节点的初始向量表示可以通过预训练方法进行初始化,比如,DistMult,word2vec等用于生成词向量或知识表示向量的算法;也可以随机初始化,本实施例对此不构成限定。
在一种可能的实施方式中,采用胶囊图神经网络进行属性特征提取的过程可以包括生成主胶囊和图胶囊的过程,示意性的,属性特征提取的过程可以包括以下步骤:
一、对对象知识图谱做L层图卷积计算,生成主胶囊。
在一种可能的实施方式中,采用关系图卷积神经网络对对象知识图谱做L层图卷积计算,可以得到每个节点在L层的各个节点向量表示,再经过L次卷积计算之后,将节点在L层图卷积中得到的所有节点向量表示拼接到一起,表示为节点对应的主胶囊,也就是说,对象知识图谱中包含的节点数量和主胶囊的数量相同。
示例性的,节点在L+1层的节点向量表示可以通过公式(1)得到。
其中,表示节点nj经过第L+1层卷积后的节点向量表示,和是可训练的参数矩阵,表示节点nj在关系r下的所有1-跳邻居集合,R={r,rint,rco}表示异构知识图谱中的所有关系集合,在进行L次卷积计算之后,我们将节点nj的所有节点向量表示拼接在一起得到表示第j个主胶囊。
二、基于主胶囊,经过动态路由机制得到图胶囊。
其中,cjz表示主胶囊xj与图胶囊pz之间相对重要程度的系数,它由一个“routingsoftmax”函数计算得到(如公式(5)所示):
其中,参数bjz的初始值通过一个对数先验分布初始化得到。通过对动态路由机制进行多次迭代,参数bjz在每一次迭代中通过公式(6)更新:
其中,是的转置矩阵,经过上述动态路由机制(即公式(2)-公式(6)),可以生成对象知识图谱对应的图胶囊,每一个图胶囊都编码了对象知识图谱在不同属性上的属性特征,进而可以通过这些图胶囊动态推断出目标对象的对象属性,以及目标对象在对象描述文本中的个性化属性。
步骤503,获取目标对象对应的对象特征表示。
由于在构建对象知识图谱中引入了一些外部知识,可能存在某些属性是目标对象更关注的,某些属性是目标对象无需关注的,或者关注度不高的,为了使得生成的对象描述文本更具有目标对象的个性化属性特征,在预测目标对象对应的属性序列时,引入了目标对象的对象特征表示,以便可以基于该对象特征表示动态确定当前时刻较重要的属性特征(图胶囊),进而基于该图胶囊预测预测当前时刻较重要的对象属性。
步骤504,将属性特征表示和对象特征表示输入属性预测网络,得到属性预测网络输出的属性序列,属性序列中包含目标对象关注的至少一个对象属性。
本实施例假设对象描述文本的每一个描述语句都对应着目标对象的一个对象属性,因此,一整段商品描述文本的内容可以抽象表示为一个属性序列,属性序列的生成过程由属性预测网络完成,在一种可能的实施方式中,将属性特征表示(图胶囊)和对象特征表示(商品向量)输入属性预测网络,可以推测出目标对象关注的至少一个对象属性,也即目标对象对应对象描述文本所指示的属性序列。
可选的,属性预测网络由循环神经网络的门控循环模块(GRU)组成。
在一个示例性的例子中,生成属性序列的过程可以包括以下步骤:
一、基于图胶囊和对象特征表示,生成自适应图胶囊。
在一种可能的实施方式中,在预测属性序列的过程中,引入隐藏向量,该隐藏向量的初始隐藏向量可以通过目标对象(目标商品)的向量表示进行初始化,即初始隐藏向量可以根据对象特征表示计算得到。
示意性的,第j个时间步的隐藏向量hj的计算过程可以表示为:
h0←vc=W0vi+b0 (8)
其中,W0和b0是可以学习的参数矩阵的偏置项,vi表示目标对象(目标商品)对应的对象特征表示,vc和h0表示初始隐藏向量。
在基于公式(7)和公式(8)获得第j个时间步的隐藏向量hj之后,可以将hj作为一个“查询”条件,动态地对公式(2)中所计算的图胶囊P进行“读取”,得到当前时刻重要的图胶囊,称之为自适应图胶囊其中,生成自适应图胶囊的过程通过注意力机制实现,在一个示例性的例子中,自适应图胶囊的计算过程可以表示为:
在一种可能的实施方式中,通过公式(7)~公式(8),基于对象特征表示和图胶囊,可以生成自适应图胶囊,该自适应图胶囊可以关注对象知识图谱中当前时刻最重要的部分。
二、对自适应图胶囊应用动态路由机制,生成属性胶囊。
在一种可能的实施方式中,通过对自适应图胶囊使用动态路由机制,可以生成属性胶囊,其中,属性胶囊的长度反映了属性序列在这个时间步上预测某个属性的概率,进而基于该属性胶囊,可以预测得到属性序列在这个时间步上的对象属性。
可选的,对自适应胶囊使用动态路由机制的过程可以参考公式(2)~公式(6),本实施例在此不做赘述。
三、基于属性胶囊,生成属性序列。
由于属性胶囊的长度可以反应属性序列在这个时间步上预测某个对象属性的概率,对应的,可以基于属性胶囊预测出各个时间步上对应的对象属性,进而生成属性序列(包括每个时间步上的对象属性)。
示例性的,第j个时间步的属性aj通过公式(10)计算得到:
其中,aj表示第j个时间步对应的对象属性(属性),qk表示属性胶囊Q的第k个胶囊,||x||2表示L2范数,表示向量x的平方和再开平方,argmax(x)表示x取最大值所对应的变量。
示意性的,按照上述生成属性序列的过程,在预测第j个时间步上的对象属性时,需要基于第j-1个时间步上的对象属性aj-1、第j-1时间步上的隐藏向量hj-1和图胶囊,输入属性预测网络,从而输出第j个时间步上的对象属性aj和第j时间步上的隐藏向量hj,进而基于对象属性aj和隐藏向量hj,预测第j+1时间步上的对象属性和隐藏向量,通过循环迭代,生成属性序列中不同时间步上的对象属性a1~aj。
步骤505,将对象知识图谱和属性序列输入多跳推理网络中,得到多跳推理网络输出的至少一个推理节点,推理节点指示在对象知识图谱中与对象属性相关的属性实体词和属性特征词。
自然语言文本中的概念之间具有某种语义关联,并且概念之间的转换保证了文本的语义流畅性。为了模拟这一过程,使得生成的对象描述文本更流畅,本申请实施例采用多跳推理技术(多跳推理网络),通过在对象知识图谱上进行多跳游走,完成对象描述文本中实体和单词等概念之间语义的转换。同时,考虑到不同的对象属性影响下,对象描述文本中的单词、短语等都会不同,因此本申请在进行多跳游走时也会考虑属性胶囊的影响。
在一种可能的实施方式中,在生成某个对象属性对应的描述语句的过程中,可以确定该对象属性在对象知识图谱中所处的节点,进而基于该节点预测下一需要转换的节点(即推理节点),通过将推理节点引入描述语句生成过程,实现将对象知识图谱中与该对象属性相关的属性特征词引入对象描述文本中,进一步提高对象描述文本中的信息丰富性。
示意性的,对象知识图谱由对象实体词、属性实体词和属性特征词构成,因此,当基于对象属性在对象知识图谱中进行多跳推理的过程中,该推理节点可以是与该对象属性相关的属性实体词,也可以是与该对象属性相关的属性特征词,比如,对象属性为电影类型这个属性,基于该对象属性进行多跳推理过程中,可以得到与电影类型这个对象属性相关的属性实体词“恐怖类型”,以及和该对象属性相关的属性特征词“令人惊艳的”。
在一个示例性的例子中,多跳推理的过程可以包括以下步骤:
一、响应于第i对象属性是属性序列的第一属性,以目标对象对应对象实体词为初始推理节点,基于对象知识图谱推理得到第i对象属性对应的至少一个推理节点,其中,i为大于0的整数。
本实施例中在生成对象描述文本过程中,是将对象描述文本抽象成属性序列,即对象描述文本中的第j个描述语句对应的是属性序列中的第j个对象属性,基于对象描述文本的语序特点,对象描述文本中的第一个描述语句应该至少包含目标对象,也即在基于第一对象属性进行多跳推理时,应该以目标对象对应的对象实体词为初始推理节点,进而基于该对象实体词在对象知识图谱中的所处位置,预测下一跳节点,直至得到该对象属性在对象知识图谱中的相关推理节点。
示意性的,若第一个对象属性为“价格”,目标对象为“手机”,在以“价格”这一对象属性进行多跳推理过程中,以“手机”为初始推理节点,在对象知识图谱中进行多跳推理,可以得到的推理节点序列为:手机-价格-实惠,进而基于该推理节点生成“价格”这一对象属性对应的描述语句,而这些推理节点可以作为额外的补充信息丰富生成的句子内容。
二、响应于第i对象属性不是属性序列的第一属性,以第i-1对象属性对应的终止节点为初始推理节点,推理得到第i对象属性对应的至少一个推理节点。
为了保证生成的描述语句之间的连贯性,在一种可能的实施方式中,对于除第一对象属性之外的其他对象属性,在生成该对象属性对应的描述语句时,以前一对象属性对应的终止节点为初始推理节点,继续基于对象知识图谱推理得到对象属性对应的至少一个推理节点,示意性的,在推理第i+1对象属性对应的推理节点时,以第i个对象属性对应的终止推理节点为初始推理节点。
多跳推理过程中主要通过计算对象知识图谱上一跳所处节点到其邻居节点的多跳转移概率,进而基于该多跳转移概率确定下一跳所处节点。
示例性的,多跳推理得到多个推理节点的过程可以包括以下步骤:
1.基于第i对象属性的第j推理节点,确定第j推理节点跳转至至少一个邻居节点的第一多跳转移概率,邻居节点是对象知识图谱中与第j推理节点相连的节点,j为大于0的整数。
在一种可能的实施方式中,计算多跳转移概率的过程可以如公式(11)和公式(12)所示。
其中,表示从上一跳节点nt跳转到邻居节点nk的多跳转移概率,是推理节点nt对应的节点表示,是邻居节点nk的节点表示,W2、W3、b1均是参数矩阵的偏置项,softmax(x)用于将x输出映射为(0~1)的概率值,tanh(x)表示正切函数,sj,t表示第j个句子解码器(用于生成第j个对象属性对应的第j个描述语句)中第t个时间步的隐藏向量。
示意性的,第j个句子解码器中第t时间步的隐藏向量的计算过程可以如公式(13)和公式(14)所示。
sj,t=GRU(sj,t-1,xj,t) (13)
其中,sj,t-1表示第j个句子解码器第t-1个时间步的隐藏向量,表示第j个句子解码器中的第t-1单词wj,t-1的向量表示,表示当前属性aj的属性胶囊,⊙表示两个向量点乘操作。通过对属性胶囊和单词向量进行点乘操作,可以使得句子解码器在生成每一个时间步的单词时都考虑对象属性对对象描述文本的影响。
2.基于第一多跳转移概率,从至少一个邻居节点中确定第i对象属性对应的第j+1推理节点。
在一种可能的实施方式中,当计算出第j推理节点跳转至其他各个邻居节点的多跳转移概率之后,可以基于该多跳转移概率从多个邻居节点中确定最有可能跳转至的邻居节点,并将该邻居节点确定为第j+1推理节点。
可选的,可以将多跳转移概率最高的邻居节点确定为第j+1推理节点。示意性的,若前一推理节点为节点A,节点A对应3个邻居节点B~邻居节点D,计算得到从节点A跳转至各个邻居节点的多跳转移概率为:P(A-B)=0.1,P(A-C)=0.8,P(A-D)=0.1,将多跳转移概率最大的邻居节点确定为第j+1推理节点,即第j+1推理节点为邻居节点C。
可选的,考虑到用户对于不同的对象描述内容具有不同的个性化偏好,在一种可能的实施方式中,可以通过历史评论文本对多跳推理概率进行修正,也就是说,通过计算得到对象知识图谱中每个节点对应的热点权重,并将热点权重引入多跳推理过程中,从而使得多跳推理得到的推理节点更符合用户偏好。
在一种可能的实施方式中,根据多跳转移概率确定下一推理节点的过程还可以包括以下步骤:
1)确定各个邻居节点对应的节点权重,节点权重由邻居节点在历史评论文本中的出现频率确定。
若用户评论中某个邻居节点的出现频率较高,表示用户对该邻居节点所对应单词的偏好较高,为了使得后续生成的对象描述文本更符合用户偏好,在一种可能的实施方式中,可以基于邻居节点在历史用户评论文本中的出现频率,确定各个邻居节点对应的节点权重,且出现频率越高,节点权重越高。
可选的,在计算对象知识图谱中各个节点对应的节点权重时,可以采用词频-逆向文件频率(Term Frequency–Inverse Document Frequency,TF-IDF)、排名运算(PageRank)等算法在所收集的历史评论文本中计算得到。
2)基于节点权重对多跳转移概率进行修正,得到第二多跳转移概率。
在一种可能的实施方式中,在原有多跳转移概率的基础上,为每一个邻居节点增加节点权重,得到经过热词修正后的多跳转移概率,即第二多跳转移概率。
示例性的,经过修正后的多跳转移概率的计算过程可以如公式(15)所示。
其中,P1(nk|nj)表示从上一跳节点nt跳转到邻居节点nk的第二多跳转移概率(修正后),表示从上一跳节点nt跳转到邻居节点nk的第一多跳转移概率(修正前),是推理节点nk对应的节点权重,是节点nz对应的节点权重,节点nz是节点nt的邻居节点。
3)基于第二多跳转移概率,从至少一个邻居节点中确定第j+1推理节点。
当计算得到修正后的多跳转移概率之后,可以将第二多跳转移概率最高的邻居节点确定为第j+1推理节点。
在一种可能的实施方式中,针对第j个对象属性对应的第j个描述语句,多跳推理网络将推测得到从初始节点nj,0到终止节点nj,m的转移路径path=<nj,0,…,nj,k,…,nj,m>。特别的,对于第一个对象属性来说,它的初始节点为商品节点(目标对象所对应节点);对于第j个对象属性来说,它的初始节点为上一个对象属性的终止节点nj-1,m,当遇到终止符号“<end>”时,表示当前对象属性的转移路径停止。
步骤506,将推理节点和属性序列输入文本生成网络中,得到文本生成网络输出的对象描述文本,文本生成网络用于基于推理节点生成与对象属性相关的描述语句。
本申请利用多跳推理技术将对象知识图谱中的相关节点引入对象描述文本生成过程中,这些节点信息可以作为额外的补充信息丰富生成的句子内容。而为了使得生成的对象描述文本更流畅,还需要从单词词典中确定所需单词,也就是说,每个对象属性对应的描述语句来源两部分,一部分是直接拷贝对象知识图谱(即推理节点),一部分由单词词典生成。
示意性的,第j个句子解码器预测第t个时刻的单词yj,t的概率由两部分组成,一个是从单词词典中生成的概率,一个是从对象知识图谱中拷贝当前节点的概率(即采用推理节点的概率),计算第j个描述语句(第j个对象属性对应的描述语句)中第t个时刻的单词yj,t的概率可以如公式(16)所示。
P(yj,t=y|yj,<t,aj,c,G)=α·P1(nk=y|nj)+(1-α)·P2(y|aj,c) (16)
其中,P(yj,t=y|yj,<t,aj,c,G)表示第j个描述语句中第t个时刻的单词yj,t的概率,P1(nk=y|nj)表示从对象知识图谱中拷贝当前节点的概率即公式(15),P2(y|aj,c)表示从单词词典中生成单词的概率,α表示生成单词部分的权重,1-α表示拷贝部分的权重。
从单词词典中生成单词的概率的计算公式可以如公式(17)和公式(18)所示。
W2表示参数矩阵的偏置项,sj,t表示第j个描述语句中第t个时间步对应的隐藏向量。
生成单词部分所对应权重的计算公式可以如公式(19)所示。
示意性的,若对象属性为“价格”,推理节点为手机-价格-实惠,在生成“价格”对应的描述语句时,由公式(16)计算得到各个时刻对应的单词概率可知,第2个单词拷贝了对象知识图谱中的节点“手机”,第4个单词拷贝了对象知识图谱中的节点“价格”,第6个单词拷贝了对象知识图谱中的节点“实惠”。
在一种可能的实施方式中,文本生成模型每一时刻的输入为属性胶囊(对象属性),以及经过多跳推理后得到的该对象属性对应的推理节点,输出为每一时刻的描述语句(即对象属性对应的描述语句),最后组成句子序列,形成对象描述文本。
示意性的,如图6所示,其示出了本申请一个示例性实施例示出的描述文本生成过程的示意图。该描述文本生成设备可以包括:图谱构建器603、属性解码器605、多跳推理器608和句子解码器610;其中,图谱构建器603的输入是商品相关的属性图谱601(基于Freebase)和用户相关的热词图谱602(基于用户评论文本),从属性图谱601中提取实体与实体的关系三元组,从用户评论文本中抽取高频的用户热词,将两个图谱整合,从而构建异构知识图谱604(即上文实施例中的对象知识图谱),为接下来的属性预测和句子生成打下基础;属性解码器605的主要组成部分是胶囊图神经网络,以及循环神经网络的门控循环模块,输入是异构知识图谱604,经过胶囊图神经网络编码得到图胶囊,然后门控循环模块自适应得到属性胶囊606,由属性胶囊606预测输出每一时刻的属性,最后形成属性序列607;多跳推理器608的主要组成部分是多跳推理机制,输入是异构知识图谱604和属性胶囊606,经过每一步的推理计算,得到下一步需要转换的推理节点609,将推理节点609引入句子生成过程;句子解码器610的主要组成部分是循环神经网络的门控循环模块和指针-生成器,每一时刻的输入是属性胶囊606和多跳推理得到的推理节点609,输出每一时刻的句子,最后组成句子序列611,形成商品描述文本。
本实施例中,通过胶囊图神经网络从对象知识图谱中预测出对象描述文本中的重点对象属性,使得生成的对象描述文本更加具有个性化;此外,在生成对象描述文本过程中,还引入了多跳推理技术完成了描述语句中实体和单词等概念的转换,可以进一步提高生成的对象描述文本的个性化和流畅性。
由于不同用户可能关注的商品属性不同,为了进一步提高商品描述文本的个性化,可以实现同一商品对于不同用户生成不同的商品描述文本,从而提高商品描述文本的个性化,进一步提高商品对于用户的推荐率,在一种可能的实施方式中,在预测商品属性过程中,可以引入用户画像,使得属性预测网络可以学习用户特征,进而预测出符合用户关注角度的对象属性。
在图5的基础上,如图7所示,步骤504可以被替换为步骤701和步骤702。
步骤701,获取目标用户对应的用户特征表示。
在一种可能的实施方式中,可以通过构建用户的用户画像,进而基于该用户画像初始得到用户特征表示,以便在进行属性预测过程中,属性预测网络可以基于用户特征表示推测出用户更关注目标对象的哪一方面对象属性。
步骤702,将用户特征表示、对象特征表示和属性特征表示输入属性预测网络中,得到属性预测网络输出的属性序列,属性序列中包含目标用户关注目标对象的至少一个对象属性。
在一种可能的实施方式中,可以将用户特征表示、对象特征表示和属性特征表示共同输入属性预测网络中,由属性预测网络推测该目标用户对各个对象属性的关注度,进而推测出符合用户关注度的对象属性,使得后续基于对象属性生成的对象描述文本更符合用户偏好。
示意性的,如图8所示,其示出了本申请另一个示例性实施例示出的描述文本生成过程的示意图。将异构知识图谱801输入胶囊图神经网络805中,经过L层卷积得到主胶囊802,经过动态路由机制得到图胶囊803,再将用户特征表示和商品特征表示初始化为隐藏向量hj,输入图胶囊神经网络805中,得到属性胶囊804,由属性胶囊804预测得到不同时间步上的对象属性a1~am,若对象属性aj+1指示价格这一对象属性,通过多跳推理器806得到价格对应的多个推理节点为“手机-价格-实惠”,再将推理节点和异构知识图谱输入句子解码器807,由句子解码器807预测得到价格这一对象属性对应的描述语句“这款手机的价格很实惠”,所有对象属性对应描述语句的集合即为商品对应的对象描述文本。
本实施例中,通过在属性预测过程中引入用户特征表示,使得属性预测过程中可以关注到用户行为偏好,从而生成符合用户偏好的属性序列,进而提高对象描述文本的个性化。
上文实施例中主要描述了对象描述文本的生成过程,在对象描述文本的生成过程中引入了多个神经网络模型,比如,属性预测模型和文本生成模型,这就需要在提前对属性预测模型和文本生成模型进行模型训练,从而调试属性预测模型和文本生成模型中的各个网络参数,本实施例中主要描述属性预测模型和文本生成模型的训练过程。
请参考图9,其是根据一示例性实施例示出的一种描述文本生成方法的流程示意图。该方法可以由计算机设备执行,其中,该计算机设备可以是终端,也可以是服务器,或者,该计算机设备可以包括终端和服务器。该描述文本生成方法的流程可以包括如下步骤:
步骤901,构建样本对象对应的样本知识图谱。
其中,构建样本对象对应的样本知识图谱的过程可以参考上文实施例中构建对象知识图谱的过程,本实施例在此不做赘述。
步骤902,将样本知识图谱输入属性预测模型中,得到属性预测模型输出的样本属性序列。
在一种可能的实施方式中,将样本知识图谱输入属性预测模型中,经过属性特征提取和属性预测过程,可以得到属性预测模型输出的样本属性序列。
其中,生成样本属性序列的过程可以参考上文实施例,本实施例在此不做赘述。
步骤903,基于样本属性序列和标注属性序列,训练属性预测模型。
在一种可能的实施方式中,预先针对样本对象设置有对应的标注属性序列,通过计算样本属性序列和标注属性序列之间的损失,训练属性预测模型,该属性预测模型中的所有参数均可以通过Adam优化器进行反向传播更新。
在一个示例性的例子中,步骤803还可以包括以下步骤:
一、计算样本属性序列和标注属性序列对应的边缘损失。
本实施例中,采用基于边缘(margin)的损失函数,作为属性预测模型的训练损失。示意性的,计算第j个时间步的损失可以如公式(20)所示。
其中,Lj表示第j个时间步上的损失,qaj表示对象属性aj对应的属性胶囊,qi表示标注属性序列中第i个对象属性对应的向量表示,本实施例中设定m+=0.9,m-=0.1,以及λ=0.5。
在一种可能的实施方式中,基于公式(20)计算得到同一时间步上对象属性的预测损失,进而得到样本属性序列和标注属性序列之间的损失。
二、基于边缘损失,训练属性预测模型。
在一种可能的实施方式中,基于该边缘损失,采用反向传播算法更新属性预测模型中的各个参数,通过多个训练周期,直至边缘损失收敛,属性预测模型训练完成。
步骤904,将样本知识图谱和样本属性序列输入文本生成模型,得到文本生成模型输出的样本对象描述文本。
其中,基于样本知识图谱和样本属性序列生成样本对象描述文本的过程,可以参考上文实施例中生成对象描述文本的过程,本实施例在此不做赘述。
步骤905,基于样本对象描述文本和标注对象描述文本,训练文本生成模型。
在一种可能的实施方式中,预先设置样本对象对应的真实描述句子,即标注对象描述文,以便通过比较样本对象描述文本和标注对象描述文本之间的差异,确定文本生成模型的生成损失,进而基于该生成损失训练文本生成模型。
本实施例中,文本生成模型采用交叉熵损失,即当获取到样本对象描述文本后,计算样本对象描述文本和真实描述文本(标注对象描述文本)之间的交叉熵损失,进而基于该交叉熵损失训练文本生成模型,通过多个训练周期更新文本生成模型中的各个参数,直至损失函数收敛,文本生成模型训练完成。
示意性的,如图10所示,其示出了本申请一个示例性实施例示出的真实描述文本和生成描述文本的示意图。原始电影描述文本为“Sleepy Hollow is a 1999Americanhorror adventure film(《沉睡谷》是一部1999年的美国恐怖冒险电影)(类型).It is afilm directed by Tim burton(导演)inspired by the 1820short story the legendof sleepy hollow by Washington living and stars Johnny Depp and ChristinaRicci(演员)(这是一部由蒂姆·伯顿执导的电影,灵感来自1820年短篇小说《睡谷的传说》,由约翰尼·德普和克里斯蒂娜·里奇主演).The plot follows police constableIchabod crane sent from New York city to investigate a series of murders inthe village of sleepy hollow by a mysterious headless horseman(这部电影讲述了由纽约市派来调查一系列发生在沉睡谷的无头骑马者传奇的警员的故事)”中关注了电影的类型、导演和演员等属性,在模型测试阶段,属性预测模型通过电影相关的对象知识图谱预测出了生成描述文本也应该关注电影的类型、导演、演员等属性,最后文本生成模型生成每个属性下的描述文本,同时从对象知识图谱中拷贝相关的实体和单词,生成描述文本为“Sleepy Hollow is one of the horror adventure movies(类型)(《沉睡谷》是一部恐怖冒险片).If you are a huge fan of Tim burton and expected more from Tim burtonyou must see it(导演)(如果你是蒂姆·伯顿的超级粉丝并且对蒂姆·伯顿期望更高的话一定要看).Johnny Depp delivers an unforgettable performance(演员)(约翰尼·德普的表演令人难忘).It will give you a distinct feel and faint of heart(它将会给你一种非常与众不同的害怕感觉)”。
本实施例中,描述了属性预测模型和文本生成模型的训练过程,使得训练完成的属性预测模型和文本生成模型可以用于对象描述文本的自动生成场景中,使得在模型应用场景中,可以通过属性预测模型对对象知识图谱进行属性提取,并且通过文本生成模型基于对象知识图谱和预测对象属性生成对应的对象描述文本,有利于预测目标对象在对象描述文本上的不同属性特征,且对象知识图谱引入了目标对象的知识信息,同时丰富了对象描述文本的信息量,实现了自动化的对象描述文本生成过程,有利于提高对象描述文本的生成效率。
图11是根据一示例性实施例示出的一种描述文本生成装置的结构方框图。该描述文本生成装置可以实现图1、图4、图5、图7或图9所示实施例提供的方法中的全部或者部分步骤。
该描述文本生成装置可以包括:
第一构建模块1101,用于构建目标对象对应的对象知识图谱,所述对象知识图谱用于表征所述目标对象对应属性实体词和属性特征词之间的关系;
第一处理模块1102,用于将所述对象知识图谱输入属性预测模型中,得到所述属性预测模型输出的属性序列,所述属性预测模型用于预测与生成所述目标对象对应对象描述文本相关的对象属性,所述属性序列中包含至少一个所述对象属性;
第二处理模块1103,用于将所述对象知识图谱和所述属性序列输入文本生成模型,得到所述文本生成模型输出的所述对象描述文本,所述文本生成模型用于根据所述对象知识图谱生成各个所述对象属性对应的描述语句,并基于所述描述语句组成所述对象描述文本。
在一种可能的实现方式中,所述第一构建模块1101,包括:
第一构建单元,用于基于所述目标对象对应的对象实体词,构建所述目标对象对应的属性图谱,所述属性图谱用于表征所述对象实体词与所述属性实体词之间的关系;
第二构建单元,用于基于所述目标对象对应的历史评论文本,构建所述目标对象对应的热词图谱,所述热词图谱用于表征与所述目标对象相关的不同属性特征词之间的关系;
整合单元,用于基于所述历史评论文本和历史描述文本,整合所述热词图谱和所述属性图谱,得到所述对象知识图谱。
在一种可能的实现方式中,所述整合单元,还用于:
基于所述历史评论文本和所述历史描述文本,确定所述属性实体词和所述属性特征词之间的关系;
基于所述属性实体词和所述属性特征词之间的关系,整合所述热词图谱和所述属性图谱,得到所述对象知识图谱。
在一种可能的实现方式中,所述属性预测模型中包含属性特征提取网络和属性预测网络;
所述第一处理模块1102,包括:
第一处理单元,用于将所述对象知识图谱输入所述属性特征提取网络,得到所述属性特征提取网络输出的属性特征表示,所述属性特征提取网络用于提取所述对象知识图谱中目标对象的属性特征;
获取单元,用于获取所述目标对象对应的对象特征表示;
第二处理单元,用于将所述属性特征表示和所述对象特征表示输入所述属性预测网络,得到所述属性预测网络输出的所述属性序列,所述属性序列中包含所述目标对象关注的至少一个所述对象属性。
在一种可能的实现方式中,所述装置包括:
获取模块,用于获取目标用户对应的用户特征表示;
所述第二处理单元,还用于:
将所述用户特征表示、所述对象特征表示和所述属性特征表示输入所述属性预测网络中,得到所述属性预测网络输出的所述属性序列,所述属性序列中包含所述目标用户关注所述目标对象的至少一个所述对象属性。
在一种可能的实现方式中,所述文本生成模型包括多跳推理网络和文本生成网络;
所述第二处理模块1103,包括:
第三处理单元,用于将所述对象知识图谱和所述属性序列输入所述多跳推理网络中,得到所述多跳推理网络输出的至少一个推理节点,所述推理节点指示在所述对象知识图谱中与所述对象属性相关的属性实体词和属性特征词;
第四处理单元,用于将所述推理节点和所述属性序列输入所述文本生成网络中,得到所述文本生成网络输出的所述对象描述文本,所述文本生成网络用于基于所述推理节点生成与所述对象属性相关的描述语句。
在一种可能的实现方式中,所述第三处理单元,还用于:
响应于所述第i对象属性是所述属性序列的第一属性,以所述目标对象对应对象实体词为初始推理节点,基于所述对象知识图谱推理得到所述第i对象属性对应的至少一个所述推理节点,其中,i为大于0的整数;
响应于所述第i对象属性不是所述属性序列的第一属性,以第i-1对象属性对应的终止节点为所述初始推理节点,推理得到所述第i对象属性对应的至少一个所述推理节点。
在一种可能的实现方式中,所述第三处理单元,还用于:
基于所述第i对象属性的第j推理节点,确定所述第j推理节点跳转至至少一个邻居节点的第一多跳转移概率,所述邻居节点是所述对象知识图谱中与所述第j推理节点相连的节点,j为大于0的整数;
基于所述第一多跳转移概率,从至少一个所述邻居节点中确定所述第i对象属性对应的第j+1推理节点。
在一种可能的实现方式中,所述第三处理单元,还用于:
确定各个所述邻居节点对应的节点权重,所述节点权重由所述邻居节点在所述历史评论文本中的出现频率确定;
基于所述节点权重对所述多跳转移概率进行修正,得到第二多跳转移概率;
基于所述第二多跳转移概率,从至少一个所述邻居节点中确定所述第j+1推理节点。
在一种可能的实现方式中,所述装置包括:
第二构建模块,用于构建样本对象对应的样本知识图谱;
第三处理模块,用于将所述样本知识图谱输入属性预测模型中,得到所述属性预测模型输出的样本属性序列;
第一训练模块,用于基于所述样本属性序列和标注属性序列,训练所述属性预测模型;
第四处理模块,用于将所述样本知识图谱和所述样本属性序列输入文本生成模型,得到所述文本生成模型输出的样本对象描述文本;
第二训练模块,用于基于所述样本对象描述文本和标注对象描述文本,训练所述文本生成模型。
在一种可能的实现方式中,所述第一训练模块,包括:
第一计算单元,用于计算所述样本属性序列和所述标注属性序列对应的边缘损失;
第一训练单元,用于基于所述边缘损失,训练所述属性预测模型。
在一种可能的实现方式中,所述第二训练模块,包括:
第二计算单元,用于计算所述样本对象描述文本和所述标注对象描述文本对应的交叉熵损失;
第二训练单元,用于基于所述交叉熵损失,训练所述文本生成模型。
综上所述,在本申请实施例所示的方案中,在商品描述文本生成场景中,预先训练有属性预测模型和文本生成模型,使得在模型应用场景中,可以通过属性预测模型对对象知识图谱进行属性提取,并且通过文本生成模型基于对象知识图谱和预测对象属性生成对应的对象描述文本,有利于预测目标对象在对象描述文本上的不同属性特征,且对象知识图谱引入了目标对象的知识信息,同时丰富了对象描述文本的信息量,实现了自动化的对象描述文本生成过程,有利于提高对象描述文本的生成效率。
可以理解的是,计算机设备为了实现上述功能,其包含了执行各个功能相应的硬件结构和/或软件模块(或单元)。结合本申请中所公开的实施例描述的各示例的单元及算法步骤,本申请实施例能够以硬件或硬件和计算机软件的结合形式来实现。某个功能究竟以硬件还是计算机软件驱动硬件的方式来执行,取决于技术方案的特定应用和设计约束条件。本领域技术人员可以对每个特定的应用来使用不同的方法来实现所描述的功能,但是这种实现不应认为超出本申请实施例的技术方案的范围。
本申请实施例可以根据上述方法示例对计算机设备进行功能单元的划分,例如,可以对应各个功能划分各个功能单元,也可以将两个或两个以上的功能集成在一个处理单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。需要说明的是,本申请实施例中对单元的划分是示意性的,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
在采用集成的单元的情况下,图12示出了上述实施例中所涉及的计算机设备的一种可能的结构示意图。计算机设备1200包括:处理单元1202和存储单元1201。处理单元1202用于对计算机设备1200的动作进行控制管理。例如,当计算机设备1200为用户终端时,处理单元1202用于支持计算机设备1200执行图1、图4、图5、图7或图9所示实施例中的步骤,和/或用于执行本文所描述的技术的其它步骤。计算机设备1200还可以包括,用于存储计算机设备1200的程序代码和数据。例如,当计算机设备1200为用户终端时,存储单元1201中存储有上文介绍的属性预测模型和文本生成模型。
其中,处理单元1202可以是处理器或控制器,例如可以是中央处理器(CentralProcessing Unit,CPU),通用处理器,数字信号处理器(Digital Signal Processor,DSP),专用集成电路(Application-Specific Integrated Circuit,ASIC),现场可编程门阵列(Field Programmable Gate Array,FPGA)或者其他可编程逻辑器件、晶体管逻辑器件、硬件部件或者其任意组合。其可以实现或执行结合本申请公开内容所描述的各种示例性的逻辑方框,模块和电路。所述处理器也可以是实现计算功能的组合,例如包含一个或多个微处理器组合,DSP和微处理器的组合等等。存储单元1201可以是存储器。
当处理单元1202为处理器,存储单元1201为存储器时,本申请实施例所涉及的计算机设备可以为图13所示的计算机设备。
参阅图13所示,该计算机设备1300包括:处理器1302和存储器1301。可选地,计算机设备1300还可以包括总线1304。其中,处理器1302以及存储器1301可以通过总线1304相互连接;总线1304可以是外设部件互连标准(Peripheral Component Interconnect,简称PCI)总线或扩展工业标准结构(Extended Industry Standard Architecture,简称EISA)总线等。所述总线1304可以分为地址总线、数据总线、控制总线等。为便于表示,图13中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
上述图12或图13所示的电子设备可以是用户终端或服务器。
结合本申请实施例公开内容所描述的方法或者算法的步骤可以硬件的方式来实现,也可以是由处理器执行软件指令的方式来实现。软件指令可以由相应的软件模块(或单元)组成,软件模块(或单元)可以被存放于随机存取存储器(Random Access Memory,RAM)、闪存、只读存储器(Read Only Memory,ROM)、可擦除可编程只读存储器(ErasableProgrammable ROM,EPROM)、电可擦可编程只读存储器(Electrically EPROM,EEPROM)、寄存器、硬盘、移动硬盘、只读光盘(CD-ROM,Compact Disc Read-Only Memory)或者本领域熟知的任何其它形式的存储介质中。一种示例性的存储介质耦合至处理器,从而使处理器能够从该存储介质读取信息,且可向该存储介质写入信息。当然,存储介质也可以是处理器的组成部分。处理器和存储介质可以位于ASIC中。另外,该ASIC可以位于计算机设备中。当然,处理器和存储介质也可以作为分立组件存在于计算机设备中。
本申请还提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述描述文本生成方法。
本领域技术人员应该可以意识到,在上述一个或多个示例中,本申请实施例所描述的功能可以用硬件、软件、固件或它们的任意组合来实现。当使用软件实现时,可以将这些功能存储在计算机可读介质中或者作为计算机可读介质上的一个或多个指令或代码进行传输。计算机可读介质包括计算机存储介质和通信介质,其中通信介质包括便于从一个地方向另一个地方传送计算机程序的任何介质。存储介质可以是通用或专用计算机能够存取的任何可用介质。
以上所述的具体实施方式,对本申请实施例的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本申请实施例的具体实施方式而已,并不用于限定本申请实施例的保护范围,凡在本申请实施例的技术方案的基础之上,所做的任何修改、等同替换、改进等,均应包括在本申请实施例的保护范围之内。
Claims (26)
1.一种描述文本生成方法,其特征在于,所述方法包括:
构建目标对象对应的对象知识图谱,所述对象知识图谱用于表征所述目标对象对应属性实体词和属性特征词之间的关系;
将所述对象知识图谱输入属性预测模型中,得到所述属性预测模型输出的属性序列,所述属性预测模型用于预测与生成所述目标对象对应对象描述文本相关的对象属性,所述属性序列中包含至少一个所述对象属性;
将所述对象知识图谱和所述属性序列输入文本生成模型,得到所述文本生成模型输出的所述对象描述文本,所述文本生成模型用于根据所述对象知识图谱生成各个所述对象属性对应的描述语句,并基于所述描述语句组成所述对象描述文本。
2.根据权利要求1所述的方法,其特征在于,所述构建目标对象对应的对象知识图谱,包括:
基于所述目标对象对应的对象实体词,构建所述目标对象对应的属性图谱,所述属性图谱用于表征所述对象实体词与所述属性实体词之间的关系;
基于所述目标对象对应的历史评论文本,构建所述目标对象对应的热词图谱,所述热词图谱用于表征与所述目标对象相关的不同属性特征词之间的关系;
基于所述历史评论文本和历史描述文本,整合所述热词图谱和所述属性图谱,得到所述对象知识图谱。
3.根据权利要求2所述的方法,其特征在于,所述基于所述历史评论文本和历史描述文本,整合所述热词图谱和所述属性图谱,得到所述对象知识图谱,包括:
基于所述历史评论文本和所述历史描述文本,确定所述属性实体词和所述属性特征词之间的关系;
基于所述属性实体词和所述属性特征词之间的关系,整合所述热词图谱和所述属性图谱,得到所述对象知识图谱。
4.根据权利要求1至3任一所述的方法,其特征在于,所述属性预测模型中包含属性特征提取网络和属性预测网络;
所述将所述对象知识图谱输入属性预测模型中,得到所述属性预测模型输出的属性序列,包括:
将所述对象知识图谱输入所述属性特征提取网络,得到所述属性特征提取网络输出的属性特征表示,所述属性特征提取网络用于提取所述对象知识图谱中目标对象的属性特征;
获取所述目标对象对应的对象特征表示;
将所述属性特征表示和所述对象特征表示输入所述属性预测网络,得到所述属性预测网络输出的所述属性序列,所述属性序列中包含所述目标对象关注的至少一个所述对象属性。
5.根据权利要求4所述的方法,其特征在于,所述将所述属性特征表示和所述对象特征表示输入所述属性预测网络,得到所述属性预测网络输出的所述属性序列之前,所述方法包括:
获取目标用户对应的用户特征表示;
所述将所述属性特征表示和所述对象特征表示输入所述属性预测网络,得到所述属性预测网络输出的所述属性序列,包括:
将所述用户特征表示、所述对象特征表示和所述属性特征表示输入所述属性预测网络中,得到所述属性预测网络输出的所述属性序列,所述属性序列中包含所述目标用户关注所述目标对象的至少一个所述对象属性。
6.根据权利要求1至3任一所述的方法,其特征在于,所述文本生成模型包括多跳推理网络和文本生成网络;
所述将所述对象知识图谱和所述属性序列输入文本生成模型,得到所述文本生成模型输出的所述对象描述文本,包括:
将所述对象知识图谱和所述属性序列输入所述多跳推理网络中,得到所述多跳推理网络输出的至少一个推理节点,所述推理节点指示在所述对象知识图谱中与所述对象属性相关的属性实体词和属性特征词;
将所述推理节点和所述属性序列输入所述文本生成网络中,得到所述文本生成网络输出的所述对象描述文本,所述文本生成网络用于基于所述推理节点生成与所述对象属性相关的描述语句。
7.根据权利要求6所述的方法,其特征在于,所述将所述对象知识图谱和所述属性序列输入所述多跳推理网络中,得到所述多跳推理网络输出的至少一个推理节点,包括:
响应于所述第i对象属性是所述属性序列的第一属性,以所述目标对象对应对象实体词为初始推理节点,基于所述对象知识图谱推理得到所述第i对象属性对应的至少一个所述推理节点,其中,i为大于0的整数;
响应于所述第i对象属性不是所述属性序列的第一属性,以第i-1对象属性对应的终止节点为所述初始推理节点,推理得到所述第i对象属性对应的至少一个所述推理节点。
8.根据权利要求7所述的方法,其特征在于,所述推理得到所述第i对象属性对应的至少一个所述推理节点,包括:
基于所述第i对象属性的第j推理节点,确定所述第j推理节点跳转至至少一个邻居节点的第一多跳转移概率,所述邻居节点是所述对象知识图谱中与所述第j推理节点相连的节点,j为大于0的整数;
基于所述第一多跳转移概率,从至少一个所述邻居节点中确定所述第i对象属性对应的第j+1推理节点。
9.根据权利要求8所述的方法,其特征在于,所述基于所述第一多跳转移概率,从至少一个所述邻居节点中确定所述第i对象属性对应的第j+1推理节点,包括:
确定各个所述邻居节点对应的节点权重,所述节点权重由所述邻居节点在所述历史评论文本中的出现频率确定;
基于所述节点权重对所述多跳转移概率进行修正,得到第二多跳转移概率;
基于所述第二多跳转移概率,从至少一个所述邻居节点中确定所述第j+1推理节点。
10.根据权利要求1至3任一所述的方法,其特征在于,所述构建目标对象对应的对象知识图谱之前,所述方法包括:
构建样本对象对应的样本知识图谱;
将所述样本知识图谱输入属性预测模型中,得到所述属性预测模型输出的样本属性序列;
基于所述样本属性序列和标注属性序列,训练所述属性预测模型;
将所述样本知识图谱和所述样本属性序列输入文本生成模型,得到所述文本生成模型输出的样本对象描述文本;
基于所述样本对象描述文本和标注对象描述文本,训练所述文本生成模型。
11.根据权利要求10所述的方法,其特征在于,所述基于所述样本属性序列和标注样本属性序列,训练所述属性预测模型,包括:
计算所述样本属性序列和所述标注属性序列对应的边缘损失;
基于所述边缘损失,训练所述属性预测模型。
12.根据权利要求10所述的方法,其特征在于,所述基于所述样本对象描述文本和标注对象描述文本,训练所述文本生成模型,包括:
计算所述样本对象描述文本和所述标注对象描述文本对应的交叉熵损失;
基于所述交叉熵损失,训练所述文本生成模型。
13.一种描述文本生成装置,其特征在于,所述装置包括:
第一构建模块,用于构建目标对象对应的对象知识图谱,所述对象知识图谱用于表征所述目标对象对应属性实体词和属性特征词之间的关系;
第一处理模块,用于将所述对象知识图谱输入属性预测模型中,得到所述属性预测模型输出的属性序列,所述属性预测模型用于预测与生成所述目标对象对应对象描述文本相关的对象属性,所述属性序列中包含至少一个所述对象属性;
第二处理模块,用于将所述对象知识图谱和所述属性序列输入文本生成模型,得到所述文本生成模型输出的所述对象描述文本,所述文本生成模型用于根据所述对象知识图谱生成各个所述对象属性对应的描述语句,并基于所述描述语句组成所述对象描述文本。
14.根据权利要求13所述的装置,其特征在于,所述第一构建模块,包括:
第一构建单元,用于基于所述目标对象对应的对象实体词,构建所述目标对象对应的属性图谱,所述属性图谱用于表征所述对象实体词与所述属性实体词之间的关系;
第二构建单元,用于基于所述目标对象对应的历史评论文本,构建所述目标对象对应的热词图谱,所述热词图谱用于表征与所述目标对象相关的不同属性特征词之间的关系;
整合单元,用于基于所述历史评论文本和历史描述文本,整合所述热词图谱和所述属性图谱,得到所述对象知识图谱。
15.根据权利要求13所述的装置,其特征在于,所述整合单元,还用于:
基于所述历史评论文本和所述历史描述文本,确定所述属性实体词和所述属性特征词之间的关系;
基于所述属性实体词和所述属性特征词之间的关系,整合所述热词图谱和所述属性图谱,得到所述对象知识图谱。
16.根据权利要求13至15任一所述的装置,其特征在于,所述属性预测模型中包含属性特征提取网络和属性预测网络;
所述第一处理模块,包括:
第一处理单元,用于将所述对象知识图谱输入所述属性特征提取网络,得到所述属性特征提取网络输出的属性特征表示,所述属性特征提取网络用于提取所述对象知识图谱中目标对象的属性特征;
获取单元,用于获取所述目标对象对应的对象特征表示;
第二处理单元,用于将所述属性特征表示和所述对象特征表示输入所述属性预测网络,得到所述属性预测网络输出的所述属性序列,所述属性序列中包含所述目标对象关注的至少一个所述对象属性。
17.根据权利要求16所述的装置,其特征在于,所述装置包括:
获取模块,用于获取目标用户对应的用户特征表示;
所述第二处理单元,还用于:
将所述用户特征表示、所述对象特征表示和所述属性特征表示输入所述属性预测网络中,得到所述属性预测网络输出的所述属性序列,所述属性序列中包含所述目标用户关注所述目标对象的至少一个所述对象属性。
18.根据权利要求13至15任一所述的装置,其特征在于,所述文本生成模型包括多跳推理网络和文本生成网络;
所述第二处理模块,包括:
第三处理单元,用于将所述对象知识图谱和所述属性序列输入所述多跳推理网络中,得到所述多跳推理网络输出的至少一个推理节点,所述推理节点指示在所述对象知识图谱中与所述对象属性相关的属性实体词和属性特征词;
第四处理单元,用于将所述推理节点和所述属性序列输入所述文本生成网络中,得到所述文本生成网络输出的所述对象描述文本,所述文本生成网络用于基于所述推理节点生成与所述对象属性相关的描述语句。
19.根据权利要求18所述的装置,其特征在于,所述第三处理单元,还用于:
响应于所述第i对象属性是所述属性序列的第一属性,以所述目标对象对应对象实体词为初始推理节点,基于所述对象知识图谱推理得到所述第i对象属性对应的至少一个所述推理节点,其中,i为大于0的整数;
响应于所述第i对象属性不是所述属性序列的第一属性,以第i-1对象属性对应的终止节点为所述初始推理节点,推理得到所述第i对象属性对应的至少一个所述推理节点。
20.根据权利要求19所述的装置,其特征在于,所述第三处理单元,还用于:
基于所述第i对象属性的第j推理节点,确定所述第j推理节点跳转至至少一个邻居节点的第一多跳转移概率,所述邻居节点是所述对象知识图谱中与所述第j推理节点相连的节点,j为大于0的整数;
基于所述第一多跳转移概率,从至少一个所述邻居节点中确定所述第i对象属性对应的第j+1推理节点。
21.根据权利要求20所述的装置,其特征在于,所述第三处理单元,还用于:
确定各个所述邻居节点对应的节点权重,所述节点权重由所述邻居节点在所述历史评论文本中的出现频率确定;
基于所述节点权重对所述多跳转移概率进行修正,得到第二多跳转移概率;
基于所述第二多跳转移概率,从至少一个所述邻居节点中确定所述第j+1推理节点。
22.根据权利要求12至15任一所述的装置,其特征在于,所述装置包括:
第二构建模块,用于构建样本对象对应的样本知识图谱;
第三处理模块,用于将所述样本知识图谱输入属性预测模型中,得到所述属性预测模型输出的样本属性序列;
第一训练模块,用于基于所述样本属性序列和标注属性序列,训练所述属性预测模型;
第四处理模块,用于将所述样本知识图谱和所述样本属性序列输入文本生成模型,得到所述文本生成模型输出的样本对象描述文本;
第二训练模块,用于基于所述样本对象描述文本和标注对象描述文本,训练所述文本生成模型。
23.根据权利要求22所述的装置,其特征在于,所述第一训练模块,包括:
第一计算单元,用于计算所述样本属性序列和所述标注属性序列对应的边缘损失;
第一训练单元,用于基于所述边缘损失,训练所述属性预测模型。
24.根据权利要求22所述的装置,其特征在于,所述第二训练模块,包括:
第二计算单元,用于计算所述样本对象描述文本和所述标注对象描述文本对应的交叉熵损失;
第二训练单元,用于基于所述交叉熵损失,训练所述文本生成模型。
25.一种计算机设备,其特征在于,所述计算机设备包含处理器和存储器,所述存储器中存储有计算机指令,所述计算机指令由所述处理器加载并执行以实现如权利要求1至12任一所述的描述文本生成方法。
26.一种计算机可读存储介质,其特征在于,所述存储介质中存储有计算机程序,所述计算机程序用于被处理器执行,以实现如权利要求1至12任一项所述的描述文本生成方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110421112.4A CN115221331A (zh) | 2021-04-19 | 2021-04-19 | 描述文本生成方法、装置、计算机设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110421112.4A CN115221331A (zh) | 2021-04-19 | 2021-04-19 | 描述文本生成方法、装置、计算机设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115221331A true CN115221331A (zh) | 2022-10-21 |
Family
ID=83605874
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110421112.4A Pending CN115221331A (zh) | 2021-04-19 | 2021-04-19 | 描述文本生成方法、装置、计算机设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115221331A (zh) |
-
2021
- 2021-04-19 CN CN202110421112.4A patent/CN115221331A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI754033B (zh) | 關注點文案的生成 | |
Kim et al. | TWILITE: A recommendation system for Twitter using a probabilistic model based on latent Dirichlet allocation | |
Wen et al. | Dynamic interactive multiview memory network for emotion recognition in conversation | |
CN111079028A (zh) | 基于多源辅助信息的协同过滤推荐系统及方法 | |
CN109544306A (zh) | 一种基于用户行为序列特征的跨领域推荐方法及装置 | |
US20220068153A1 (en) | Personalized learning system | |
CN112699310A (zh) | 基于深度神经网络的冷启动跨域混合推荐的方法及系统 | |
Zaporojets et al. | Solving arithmetic word problems by scoring equations with recursive neural networks | |
CN116681810B (zh) | 虚拟对象动作生成方法、装置、计算机设备和存储介质 | |
Zhao et al. | Multi-task learning with graph attention networks for multi-domain task-oriented dialogue systems | |
Cont | Modeling musical anticipation: From the time of music to the music of time | |
Cai et al. | HITS-based attentional neural model for abstractive summarization | |
Liu et al. | Hands-On Deep Learning Architectures with Python: Create deep neural networks to solve computational problems using TensorFlow and Keras | |
KR20220066554A (ko) | Qa 모델을 이용하여 지식 그래프를 구축하는 방법, 장치 및 컴퓨터 프로그램 | |
Cambouropoulos et al. | Cognitive musicology and artificial intelligence: Harmonic analysis, learning, and generation | |
Tuan et al. | Knowledge injection into dialogue generation via language models | |
CN115221331A (zh) | 描述文本生成方法、装置、计算机设备及存储介质 | |
Varshney et al. | Emotion-and-knowledge grounded response generation in an open-domain dialogue setting | |
Zhao et al. | An effective context‐focused hierarchical mechanism for task‐oriented dialogue response generation | |
Gros | AInix: An open platform for natural language interfaces to shell commands | |
Dockes | “Building a conversational user simulator using generative adversarial networks | |
Hämäläinen | Generating Creative Language-Theories | |
Li | Personalizing Interactive Agents | |
Yin | Policy learning for task-oriented dialogue systems via reinforcement learning techniques | |
Kanjirathinkal | Explainable Recommendations |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |