CN111046138A - 推荐理由生成方法、装置、电子设备及存储介质 - Google Patents

推荐理由生成方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN111046138A
CN111046138A CN201911122656.XA CN201911122656A CN111046138A CN 111046138 A CN111046138 A CN 111046138A CN 201911122656 A CN201911122656 A CN 201911122656A CN 111046138 A CN111046138 A CN 111046138A
Authority
CN
China
Prior art keywords
user original
user
original text
texts
vector representation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911122656.XA
Other languages
English (en)
Other versions
CN111046138B (zh
Inventor
步佳昊
王金刚
杨扬
张富峥
王仲远
兰田
陆源源
富饶
侯培旭
张弓
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Sankuai Online Technology Co Ltd
Original Assignee
Beijing Sankuai Online Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Sankuai Online Technology Co Ltd filed Critical Beijing Sankuai Online Technology Co Ltd
Priority to CN201911122656.XA priority Critical patent/CN111046138B/zh
Publication of CN111046138A publication Critical patent/CN111046138A/zh
Application granted granted Critical
Publication of CN111046138B publication Critical patent/CN111046138B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/335Filtering based on additional data, e.g. user or group profiles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9535Search customisation based on user profiles and personalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9537Spatial or temporal dependent retrieval, e.g. spatiotemporal queries

Landscapes

  • Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本申请公开了一种推荐理由生成方法,属于数据处理领域,有助于提升生成的推荐理由的质量。所述方法包括:将目标POI对应的查询输入和所述查询输入关联的多条用户原创文本,输入至预先训练的推荐理由生成模型;通过所述推荐理由生成模型的编码器,基于所述多条用户原创文本以及所述多条用户原创文本之间的关联信息,确定每条所述用户原创文本的综合向量表示;通过所述推荐理由生成模型的解码器,对所述多条用户原创文本的所述综合向量表示进行解码,得到所述目标POI的推荐理由。通过结合多条用户原创文本和查询输入使得推荐理由与用户查询输入强相关,与用户评论数据相似,从而提升推荐理由的质量。

Description

推荐理由生成方法、装置、电子设备及存储介质
技术领域
本申请实施例涉及数据处理领域,特别是涉及一种推荐理由生成方法、装置、电子设备及计算机可读存储介质。
背景技术
推荐理由是在搜索结果页和发现页(场景决策、必吃榜单等)展示给用户从而辅助用户决策和进行亮点推荐的一句自然语言文本。推荐理由,可以看作是真实用户评论的高度浓缩,为用户解释召回结果,挖掘商户特色,吸引用户点击,并对用户进行场景化引导,增强用户使用体验和对平台的信任感。目前业内推荐理由生成方法可以分为以下四种。第一种,由专业运营人员人工撰写推荐理由;第二种,针对不同类型的POI(用户感兴趣的对象)由专业运营人员设计不同的模板,根据模板和对用户评论的分析数据生成推荐理由;第三种,从POI的优质用户评论中抽取跟用户Query最相关的一句话(或者一些词组组合成一句话)作为推荐理由;第四种,通过预先训练的编码器对POI的优质用户评论原文编码后通过解码器(Decoder)生成该优质用户评论对应的推荐理由。
以上四种推荐理由生成方法各自存在缺陷:通过第一种方法生成的推荐理由,存在成本过高问题,对于百万级别的POI进行全量人工撰写并不现实,为每个POI撰写查询个性化的推荐理由成本成指数型增长;通过第二种方法生成的推荐理由内容单调,无法做到推荐理由匹配查询的个性化;通过第三种方法和第四种方法生成的推荐理由的质量严重依赖于原始用户评论的文本内容,生成的推荐理由质量不稳定。
综上,现有技术中的推荐理由生成方法还有待改进。
发明内容
本申请实施例提供一种推荐理由生成方法,有助于在提升生成的推荐理由的质量,使得推荐理由中包含更有价值的信息。
为了解决上述问题,第一方面,本申请实施例提供了一种推荐理由生成方法,包括:
将目标POI对应的查询输入和所述查询输入关联的多条用户原创文本,输入至预先训练的推荐理由生成模型;
通过所述推荐理由生成模型的编码器,基于所述多条用户原创文本以及所述多条用户原创文本之间的关联信息,确定每条所述用户原创文本的综合向量表示;
通过所述推荐理由生成模型的解码器,对所述多条用户原创文本的所述综合向量表示进行解码,得到所述目标POI的推荐理由。
第二方面,本申请实施例提供了一种推荐理由生成装置,包括:
输入模块,用于将目标POI对应的查询输入和所述查询输入关联的多条用户原创文本,输入至预先训练的推荐理由生成模型;
编码模块,用于通过所述推荐理由生成模型的编码器,基于所述多条用户原创文本以及所述多条用户原创文本之间的关联信息,确定每条所述用户原创文本的综合向量表示;
推荐理由生成模块,用于通过所述推荐理由生成模型的解码器,对所述多条用户原创文本的所述综合向量表示进行解码,得到所述目标POI的推荐理由。
第三方面,本申请实施例还公开了一种电子设备,包括存储器、处理器及存储在所述存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现本申请实施例所述的推荐理由生成方法。
第四方面,本申请实施例提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时本申请实施例公开的推荐理由生成方法的步骤。
本申请实施例公开的推荐理由生成方法,通过将目标POI对应的查询输入和所述查询输入关联的多条用户原创文本,输入至预先训练的推荐理由生成模型;通过所述推荐理由生成模型的编码器,基于所述多条用户原创文本以及所述多条用户原创文本之间的关联信息,确定每条所述用户原创文本的综合向量表示;通过所述推荐理由生成模型的解码器,对所述多条用户原创文本的所述综合向量表示进行解码,得到所述目标POI的推荐理由,有助于提升生成的推荐理由的质量。本申请实施例公开的推荐理由生成方法,通过结合POI的多条用户原创文本和查询输入,并引入注意力机制对多条用户原创文本之间的关联信息、用户原创文本和查询输入之间的关联信息进行加权运算,使得推荐理由与用户查询输入强相关,并且与该POI的用户评论数据等相似,从而提升推荐理由的质量。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例一的推荐理由生成方法流程图;
图2是本申请实施例一的推荐理由生成模型结构示意图;
图3是本申请实施例二的推荐理由生成装置结构示意图之一;
图4是本申请实施例二的推荐理由生成装置结构示意图之二。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
实施例一
本申请实施例公开的一种推荐理由生成方法,如图1所示,所述方法包括:步骤110至步骤130。
步骤110,将目标POI对应的查询输入和所述查询输入关联的多条用户原创文本,输入至预先训练的推荐理由生成模型。
本申请实施例中所述的目标POI可以为地理位置、景点、服务、商品等任何网络平台上的用户可查询的对象。本申请实施例中所述的查询输入可以为用户通过搜索页面输入的查询词和/或选择的查询条件,也可以为平台根据用户的行为生成的查询词和/或查询条件。
具体实施时,通过平台的查询入口可以获取到针对当前次查询的查询输入。进一步的,平台根据获取的查询输入进行搜索查询,并召回与所述查询输入匹配的至少一个POI,以及与所述至少一个POI中每个POI分别关联的关联的多条用户原创文本。例如,在点餐应用中,当用户输入查询词“牛排”时,平台将召回多个售卖牛排的商家,以及每个商家售卖的“牛排”类的菜品,对应每个菜品,平台还将召回每个菜品的用户评论数据。那么,在此场景下,平台可以获取到的查询输入为“牛排”,每一道召回的菜品可以认为是一个目标POI,召回的对该菜品的每条用户评论数据中的评论文本可以作为一条用户原创文本。
接下来,对于某个目标POI,将所述查询输入和所述多条用户原创文本输入至预先训练的推荐理由生成模型,由所述推荐理由生成模型根据获取的所述查询输入和该目标POI关联的多条用户原创文本,为该目标POI生成推荐理由。其中,所述查询输入关联的多条用户原创文本包括以下任意一种或多种:针对所述目标POI的多条用户原创文本、针对所述目标POI同类别POI的多条用户原创文本、针对所述目标POI预设地理范围内的POI的多条用户原创文本。
本申请具体实施时,首先需要训练推荐理由生成模型。
本申请的一些实施例中,根据用户对POI的查询点击数据,构建训练样本集,所述训练样本中的每条训练样本包括:针对目标POI的查询输入、推荐理由、针对所述目标POI的多条用户原创文本。
首先,获取网络平台存储的用户行为数据。通常,用户在平台上的每一次查询行为都会生成一条查询记录,平台上存储的查询记录至少包括以下信息:POI标识、推荐理由、查询输入、该POI的若干条用户原创数据,该POI是否被点击等。
然后,基于用户行为数据构建训练样本。本申请的一些实施例中,通过对上述用户行为数据进行处理,可以得到候选训练样本。每条候选训练样本包括:POI标识、推荐理由、查询输入、该POI的若干条用户原创文本、该POI是否被点击等信息。本申请的一些实施例中,将每一个样本表示为一个五元组,包括<POI标识,查询输入,推荐理由,该POI的多条用户原创文本,是否点击>。
之后,对候选训练样本进行筛选,过滤掉未发生点击行为的候选训练样本和推荐理由与查询输入不相关的候选训练样本,剩下的候选训练样本作为训练样本,构成训练样本集。
接下来,基于构建的训练样本集训练所述推荐理由生成模型。以所述查询输入和所述多条用户原创文本作为模型输入,以所述推荐理由作为模型目标,训练推荐理由生成模型。其中,所述推荐理由生成模型包括依次设置的编码器和解码器,所述编码器中进一步包括由输入到输出依次设置的第一注意力机制的网络和第二注意力机制的网络,所述第一注意力机制为:查询输入和用户原创文本之间的注意力机制,所述第二个注意力机制为多条用户原创文本之间的注意力机制。
本申请实施例中,基于Encoder-Decoder(编码器-解码器)结构的Seq2Seq模型(序列到序列模型),构建推荐理由生成模型。所述推荐理由生成模型的输入为针对同一POI的多条用户原创文本(即每条训练样本中的多条用户原创文本)和一次查询输入(即该条训练样本中的查询输入),模型的输出为从输入的所述多条用户原创文本中抽象出的、针对该POI的推荐理由(即该条训练样本中的推荐理由)。
如图2所示,所述推荐理由生成模型包括:编码器210和解码器220。其中,所述编码器210与所述推荐理由生成模型的输入端连接,用于对所述多条用户原创文本的上下文信息、每条所述用户原创文本和所述查询输入的相关性进行融合编码,确定所述查询输入和所述多条用户原创文本的融合特征的向量表示;所述解码器220与所述推荐理由生成模型的输出端连接,用于对所述向量表示进行解码,得到所述目标POI的推荐理由。
本申请实施例中所述的推荐理由生成模型的解码器220部分采用transformerblock结构,解码器的具体结构参见现有技术。
本申请实施例中所述的推荐理由生成模型的编码器210引入了两个attention(注意力)机制:第一注意力机制和第二注意力机制。其中,第一注意力机制为:查询输入和用户原创文本之间的注意力机制,第二注意力机制为多条用户原创文本之间的注意力机制。通过引入查询输入和用户原创文本之间的注意力机制以及多条用户原创文本之间的注意力机制,保证了算法既可以选择与用户查询输入最相关的关键词,又可以选择与用户查询输入强相关的用户原创文本信息,从而提升推荐理由的质量。
本申请实施例中,将执行查询输入和用户原创文本之间的注意力机制(本申请实施例中称为Query-Review attention机制)的网络称为第一子网络,将执行多条用户原创文本之间的注意力机制(本申请实施例中称为Inter-Review attention机制)的网络称为第二子网络。如图2所示,所述编码器210进一步包括:多个用户原创文本输入单元2101、多个第一子网络2102、一个第二子网络2103,输入单元2101、第一子网络2102,所述输入单元2101与所述第一子网络2102一一对应连接,多个所述第一子网络2102的输出融合后输入至所述第二子网络2103。
模型的训练过程,就是不断优化模型参数,使得根据模型参数对模型输入执行特征映射后,得到的隐层向量与输出目标无限接近的过程。下面结合对一条训练样本中的模型输入执行特征映射,确定该训练样本中包括的多条用户原创文本的综合向量表示的具体过程,详细说明模型的训练过程。
每条训练样本中作为模型输入的数据包括:查询输入和多条用户原创文本。本申请的一些实施例中,通过推荐理由生成模型的编码器,基于多条用户原创文本之间的关联信息、每条所述用户原创文本和查询输入的相似性信息,确定每条所述用户原创文本的综合向量表示。
本申请的一些实施例中,通过所述推荐理由生成模型的编码器,基于所述多条用户原创文本以及所述多条用户原创文本之间的关联信息,确定每条所述用户原创文本的综合向量表示包括:通过所述推荐理由生成模型的编码器,基于所述多条用户原创文本以及所述多条用户原创文本之间的关联信息、每条所述用户原创文本和所述查询输入的相关性信息,确定每条所述用户原创文本的综合向量表示。例如,通过所述推荐理由生成模型的编码器,基于所述多条用户原创文本以及所述多条用户原创文本之间的关联信息、每条所述用户原创文本和所述查询输入的相关性信息,确定每条所述用户原创文本的综合向量表示,包括:子步骤S1至子步骤S4。
子步骤S1,通过所述编码器,分别确定每条所述用户原创文本中每个字的向量表示。
所述第一子网络2102的主体网络结构采用注意力机制的transformer模型。所述输入单元2101用于输入一条用户原创文本至相应的第一子网络2102;所述第一子网络2102用于对输入的用户原创文本进行特行映射,得到所述用户原创文本中每个字的向量表示。
例如,对于一条包括m个字符的用户评论文本R1而言,通过transformer得到Repl(R1)i,1≤i≤m,Repl(R1)i∈Rm*h,即该条用户评论文本R1中的每个字的向量表示,其中,h表示字向量的维度。具体地,对于用户评论文本“这家的香草拿铁很好喝”而言,得到的是其中的每个字的向量表示。此时,得到的向量表示中只有该条用户评论文本本身的信息,不包括查询输入和其他用户评论文本的信息。
子步骤S2,对于每条所述用户原创文本,通过所述编码器执行所述第一注意力机制,根据该条所述用户原创文本和所述查询输入之间的相关性,对该条所述用户原创文本中每个字的向量表示进行特征映射,确定该条用户原创文本的第一向量表示。
本申请一些实施例中,所述通过所述编码器执行所述第一注意力机制,根据该条所述用户原创文本和所述查询输入之间的相关性,对该条所述用户原创文本中每个字的向量表示进行特征映射,确定该条用户原创文本的第一向量表示,包括:通过所述编码器210内置的第一注意力机制的网络(即第一子网络2102),根据该条用户原创文本中每个字和所述查询输入之间的相似度确定该条用户原创文本中相应字对应的字向量权重,并对该条用户原创文本中相应字的向量表示以所述字向量权重进行加权求和,得到该条用户原创文本的第一向量表示。其中,第一注意力机制的网络基于注意力机制模型构建,输入为用户原创文本中每个字的向量表示和查询输入中每个字的向量表示。
接下来,第一子网络2102通过执行查询输入和用户原创文本之间的注意力机制,得到每条用户评论文本的第一向量表示。下面,以执行查询输入Query“咖啡”和用户原创文本R1“这家的香草拿铁很好喝”之间的注意力机制为例,具体阐述,执行查询输入和用户原创文本之间的注意力机制,得到每条用户评论文本的第一向量表示的具体技术方案。
首先,分别计算用户评论文本R1“这家的香草拿铁很好喝”中每个字的向量表示(也即Repl(R1)I,1≤i≤m)和查询输入Query中“咖”这个字的向量表示的余弦距离,作为用户评论文本R1中每个字与所述查询输入Query的第一相似度;然后,分别计算用户评论文本R1“这家的香草拿铁很好喝”中每个字的向量表示(也即Repl(R1)I,1≤i≤m)和查询输入Query中“啡”这个字的向量表示的余弦距离,作为用户评论文本R1中每个字与所述查询输入Query的第二相似度。然后,对用户评论文本R1中每个字对应的第一相似度和第二相似度求和得到用户评论文本R1中每个字与查询输入Query的相似度。最后,以用户评论文本R1中每个字与查询输入Query的相似度作为该字的权重,对以用户评论文本R1中每个字的向量表示(即Repl(R1)I,1≤i≤m)以相应权重进行加权求和,得到一个综合的整条用户评论文本R1中所有字符信息的第一向量表示PoolRepl(R1)∈Rh
通过上述方法,每一个第一子网络2102在对相应的用户评论文本中每个字的向量表示与查询输入进行加权融合处理之后,可以得到每条用户评论文本的第一向量表示。由于在生成用户评论文本的第一向量表示时,融合了用户评论文本内各字符之间的关联信息和整条用户评论文本与查询输入之间的关联信息,有利于推荐理由生成模型学习到每条输入的用户原创文本中和查询输入相关的字,过滤掉和查询输入无关的字,进而使得推荐理由生成模型生成的推荐理由尽可能的和查询输入相关。
对于某个POI的多条用户评论文本,在输入至对应的输入单元2101之后,通过相应的第一子网络2102进行特征映射,都会得到相应的第一向量表示。
子步骤S3,通过所述编码器执行第二注意力机制,根据每条所述用户原创文本和所述查询输入之间的相关性、所述多条用户原创文本之间的相似度,以及每条用户原创文本的所述第一向量表示,确定每条所述用户原创文本的第二向量表示。
之后,所述第一子网络2102将生成的用户评论文本的第一向量表示拼接后,输入至对应的第二子网络2103,执行多条用户评论文本的信息融合。
所述第二子网络2103采用Inter-Review attention机制,即多条用户原创文本之间的注意力机制。所述第二子网络2103通过执行Inter-Review attention机制,融合所述多条用户原创文本之间的关联信息,分别确定每条所述用户原创文本的第二向量表示。
本申请实施例中采用的Inter-Review attention机制对Seq2Seq模型的传统的self-attention层做了改进。本申请实施例中,执行Inter-Review attention机制的过程,即通过所述编码器执行第二注意力机制,根据每条所述用户原创文本和所述查询输入之间的相关性、所述多条用户原创文本之间的相似度,以及每条用户原创文本的所述第一向量表示,确定每条所述用户原创文本的第二向量表示得过程。
本申请的一些实施例中,所述通过所述编码器执行第二注意力机制,根据每条所述用户原创文本和所述查询输入之间的相关性、所述多条用户原创文本之间的相似度,以及每条用户原创文本的所述第一向量表示,确定每条所述用户原创文本的第二向量表示,包括:通过所述编码器内置的第二注意力机制的网络模型,根据每条所述用户原创文本和所述查询输入之间的相关性,以及所述多条用户原创文本之间的相似度,确定所述多条用户原创文本之间的向量融合权重;对于每条所述用户原创文本,通过所述第二注意力机制的网络,根据该条用户原创文本与各条所述用户原创文本之间的向量融合权重,对所述多条用户原创文本的所述第一向量表示进行加权融合,得到该条用户原创文本的第二向量表示。
本申请的一些实施例中,所述通过所述编码器内置的第二注意力机制的网络模型,根据每条所述用户原创文本和所述查询输入之间的相关性,以及所述多条用户原创文本之间的相似度,确定所述多条用户原创文本之间的向量融合权重,包括:确定所述多条用户原创文本之间的两两相似度,以及每条所述用户原创文本与所述查询输入之间的相关性;对于每条所述用户原创文本,将该用户原创文本与所述多条用户原创文本之间的两两相似度分别和该用户原创文本与所述查询输入之间的相关性进行融合,得到将该用户原创文本与每条所述多条用户原创文本和所述查询输入的综合相似度;对于每条用户原创文本,根据该用户原创文本与每条所述用户原创文本和所述查询输入的综合相似度,分别确定该用户原创文本与相应用户原创文本的向量融合权重。
以前述步骤中根据某一POI的n条用户评论文本通过Rj表示,Rj∈{R1,R2,…,Rn}生成的n个第一向量表示为:PoolRepl(R1),PoolRepl(R2),PoolRepl(R3)……PoolRepl(Rn)举例,在融合所述多条用户原创文本之间的关联信息,分别确定每条所述用户原创文本的第二向量表示的过程中,首先把n条用户评论文本的第一向量表示拼接组成n*h的矩阵送入到多条用户原创文本之间的注意力机制中实现用户原创文本之间的交互。
本申请的一些实施例中,将所述多条用户原创文本的第一向量表示拼接组成n*h的矩阵与所述推荐理由生成模型的参数矩阵W(Q)做乘积,得到矩阵Q;将所述多条用户原创文本的第一向量表示拼接组成n*h的矩阵与所述推荐理由生成模型的参数矩阵W(K)做乘积,得到矩阵K;然后,将矩阵Q与矩阵K做点乘,即可得到n*n的相似度矩阵T。所述相似度矩阵T表示了所述多条用户原创文本之间的两两相似度。
本申请的一些实施例中,可以采用现有技术中的相似度计算方法确定每条用户原创文本Rj和查询输入Query的产生相关性。例如,可以通过文本匹配领域常见的KNRM的方法,分别计算每条用户原创文本Rj和查询输入Query的产生相关分数,用于表示每条用户原创文本Rj和查询输入Query的相关性。
本申请的一些实施例中,对于每条所述用户原创文本,将该用户原创文本与所述多条用户原创文本之间的两两相似度分别和该用户原创文本与所述查询输入之间的相关性进行融合,得到将该用户原创文本与每条所述多条用户原创文本和所述查询输入的综合相似度,包括:确定表示所述多条用户原创文本之间的两两相似度的用户原创文本相似度矩阵;以及,根据该用户原创文本与所述查询输入之间的相关性,构建相关性得分矩阵;将所述用户原创文本相似度矩阵和所述相关性得分矩阵进行拼接;对拼接后得到的矩阵进行降维处理,使得相关性得分和相似度进行融合,得到融合矩阵,所述融合矩阵用于表示每条用户原创文本与所述多条用户原创文本和所述查询输入的综合相似度。
例如,本申请实施例中采用的Inter-Review attention机制首先计算Q*KT会得到n*n的相似度矩阵T,其次,每条用户原创文本Rj和查询输入Query可以通过文本匹配领域常见的KNRM的方法产生相关分数,拼接多条用户原创文本的相关分数得到分数矩阵f,f∈Rn,把f复制n份,得到相关性得分矩阵F∈Rn*n。然后将相关性得分矩阵F和相似度矩阵T在高维度拼接,产生新的矩阵T’∈Rn*n*2,T’和可训练参数W∈R2*1相乘,对相关性得分和相似度进行融合,对矩阵T’进行降维处理,得到融合矩阵S,S∈Rn*n。此时的融合矩阵S融合了用户原创文本之间的关联信息以及用户原创文本和查询输入之间的关联信息,表达了该用户原创文本与每条所述多条用户原创文本和所述查询输入的综合相似度。
对于每条用户原创文本,根据该用户原创文本与每条所述用户原创文本和所述查询输入的综合相似度,分别确定该用户原创文本与相应用户原创文本的向量融合权重。例如,把融合矩阵S归一化,得到融合权重矩阵S’,所述融合权重矩阵S’中每一列元素表示一条用户原创文本分别与其他用户原创文本的综合相似程度,也是该条用户原创文本分别与其他用户原创文本的融合权重。
最后,将所述多条用户原创文本的第一向量表示拼接组成n*h的矩阵与所述推荐理由生成模型的参数矩阵W(V)做乘积,得到矩阵V;之后,对于每条用户原创文本,以所述融合权重矩阵S’中该用户原创文本分别与其他用户原创文本的融合权重对所述其他用户原创文本对应的矩阵V中的向量进行加权求和,得到该用户原创文本的第二向量表示。所述矩阵V与所述融合权重矩阵S’的乘积则为所述多条用户原创文本的第二向量表示矩阵,例如可以表示为InterRepl(R_all)∈Rn*h,其中,每一个列向量都是单条用户原创文本的第二向量表示。通过根据查询输入与用户原创文本的相关性和不同用户原创文本之间的相似度计算用户原创文本之间的融合权重,使得模型可以学习到不同的用户原创文本和查询输入之间的相关性,进而为不同的用户原创文本分配合理的权重,提升输出的推荐理由与查询输入和所述多条用户原创文本的匹配度。
子步骤S4,对于每条所述用户原创文本,将该条所述用户原创文本的第二向量表示与该条用户原创文本中每个字的向量表示进行融合,得到该条用户原创文本的综合向量表示。
之后,从所述多条用户原创文本的第二向量表示矩阵InterRepl(R_all)中属于每条用户原创文本的第二向量表示。以用户原创文本R1为例,得到得到的用户原创文本R1的第二向量表示可以表示为InterRepl(R1)。把用户原创文本R1的第二向量表示InterRepl(R1)复制m份,拼接到用户原创文本R1中每个字的向量表示Repl(R1)上,使得拼接后的用户原创文本的每个字的向量表示融合了其他用户原创文本的信息。然后,再通过多层神经网络进行向量映射,得到每条用户原创文本中每个字的综合向量表示。将该条所述用户原创文本的第二向量表示分别拼接至该条用户原创文本中每个字的向量表示上,得到该条用户原创文本的综合向量表示。这样得到的综合向量表示既包括了单条用户原创文本内字符之间的上下文信息,又包括了该单条用户原创文本和查询输入的相关性信息,还包括该单条用户原创文本和其他该用户原创文本之间的相似信息。
本申请的另一些实施例中,所述推荐理由生成模型的编码器的结构与图2中所示的结构略有不同,删除了查询输入部分。在通过所述推荐理由生成模型的编码器,基于所述多条用户原创文本以及所述多条用户原创文本之间的关联信息,确定每条所述用户原创文本的综合向量表示时,仅通过所述编码器,根据所述多条用户原创文本之间的相似度,确定每条所述用户原创文本的第二向量表示;然后,对于每条所述用户原创文本,将该条所述用户原创文本的第二向量表示与该条用户原创文本中每个字的向量表示进行融合,得到该条用户原创文本的综合向量表示。即在确定每条用户原创文本的综合向量表示时,可以不考虑所述用户原创文本和所述查询输入之间的相关性。具体的,通过所述编码器,分别确定每条所述用户原创文本中每个字的向量表示具体实施方式可参见前述描述。在确定每条所述用户原创文本的第二向量表示时,仅考虑所述多条用户原创文本之间的相似度。综合向量表示的生成方式参见前述描述。
进一步的,把所述多条户原创文本中每个字的综合向量表示输出给解码器220,由解码器220生成推荐理由。
在模型训练过程中,解码器220以输入的训练样本中的推荐理由作为输出目标进行模型的迭代优化。
所述推荐理由生成模型通过损失函数计算每条训练样本中的推荐理由和解码器输出的推荐理由的损失值,并以所有训练样本的对应的损失值之和最小为目标优化模型参数,直至模型收敛。
在推荐理由生成模型的使用过程中,将所述查询输入和所述多条用户原创文本输入至所述推荐理由生成模型包括编码器,依次由所述编码器、解码器进行向量映射。
步骤120,通过所述推荐理由生成模型的编码器,基于所述多条用户原创文本以及所述多条用户原创文本之间的关联信息,确定每条所述用户原创文本的综合向量表示。
如前述步骤和图2所述,所述推荐理由生成模型包括依次设置的编码器210和解码器220,所述编码器210基于第一注意力机制和第二注意力机制构建。所述编码器210中进一步包括:第一注意力机制的网络2102和第二注意力机制的网络2103,所述第一注意力机制为:查询输入和用户原创文本之间的注意力机制,所述第二个注意力机制为多条用户原创文本之间的注意力机制。所述编码器210通过所述第一注意力机制的网络2102执行所述第一注意力机制,通过所述第二注意力机制的网络2103执行所述第二注意力机制。
所述第一注意力机制的网络2102、所述第二注意力机制的网络2103的主体网络结构,参见现有技术中的注意力模型的网络结构,区别在于:本申请实施例中实现所述第一注意力机制的网络的输入部分包括多个并行的输入单元和一个查询输入单元,所述多个并行的输入单元用于输入针对同一POI的多条用户原创文本(如用户评论文本),所述查询输入单元用于输入针对该POI的查询输入;以及,注意力模型中具体的注意力机制。
本申请的一些实施例中,通过所述推荐理由生成模型的编码器,基于所述多条用户原创文本以及所述多条用户原创文本之间的关联信息,确定每条所述用户原创文本的综合向量表示,包括:通过所述编码器,分别确定每条所述用户原创文本中每个字的向量表示;对于每条所述用户原创文本,通过所述编码器执行所述第一注意力机制,根据该条所述用户原创文本和所述查询输入之间的相关性,对该条所述用户原创文本中每个字的向量表示进行特征映射,确定该条用户原创文本的第一向量表示;通过所述编码器执行第二注意力机制,根据每条所述用户原创文本和所述查询输入之间的相关性、所述多条用户原创文本之间的相似度,以及每条用户原创文本的所述第一向量表示,确定每条所述用户原创文本的第二向量表示;对于每条所述用户原创文本,将该条所述用户原创文本的第二向量表示与该条用户原创文本中每个字的向量表示进行融合,得到该条用户原创文本的综合向量表示。
通过所述推荐理由生成模型的编码器,基于所述多条用户原创文本以及所述多条用户原创文本之间的关联信息,确定每条所述用户原创文本的综合向量表示的具体实施方式参见前述关于模型训练过程的描述,此处不再赘述。
本申请的一些实施例中,所述通过所述编码器执行所述第一注意力机制,根据该条所述用户原创文本和所述查询输入之间的相关性,对该条所述用户原创文本中每个字的向量表示进行特征映射,确定该条用户原创文本的第一向量表示,包括:通过所述编码器内置的第一注意力机制的网络,根据该条用户原创文本中每个字和所述查询输入之间的相似度确定该条用户原创文本中相应字对应的字向量权重,并对该条用户原创文本中相应字的向量表示以所述字向量权重进行加权求和,得到该条用户原创文本的第一向量表示。
确定每条所述用户原创文本的第一向量表示的具体实施方式参见前述模型训练过程中确定训练样本的第一向量表示的描述,此处不再赘述。
本申请的一些实施例中,所述通过所述编码器执行第二注意力机制,根据每条所述用户原创文本和所述查询输入之间的相关性、所述多条用户原创文本之间的相似度,以及每条用户原创文本的所述第一向量表示,确定每条所述用户原创文本的第二向量表示,包括:通过所述编码器内置的第二注意力机制的网络模型,根据每条所述用户原创文本和所述查询输入之间的相关性,以及所述多条用户原创文本之间的相似度,确定所述多条用户原创文本之间的向量融合权重;对于每条所述用户原创文本,通过所述第二注意力机制的网络,根据该条用户原创文本与各条所述用户原创文本之间的向量融合权重,对所述多条用户原创文本的所述第一向量表示进行加权融合,得到该条用户原创文本的第二向量表示。
其中,所述通过所述编码器内置的第二注意力机制的网络模型,根据每条所述用户原创文本和所述查询输入之间的相关性,以及所述多条用户原创文本之间的相似度,确定所述多条用户原创文本之间的向量融合权重,包括:确定所述多条用户原创文本之间的两两相似度,以及每条所述用户原创文本与所述查询输入之间的相关性;对于每条所述用户原创文本,将该用户原创文本与所述多条用户原创文本之间的两两相似度分别和该用户原创文本与所述查询输入之间的相关性进行融合,得到将该用户原创文本与每条所述多条用户原创文本和所述查询输入的综合相似度;对于每条用户原创文本,根据该用户原创文本与每条所述用户原创文本和所述查询输入的综合相似度,分别确定该用户原创文本与相应用户原创文本的向量融合权重。
相应的,对于删除了查询输入的推荐理由生成模型,所述通过所述推荐理由生成模型的编码器,基于所述多条用户原创文本以及所述多条用户原创文本之间的关联信息,确定每条所述用户原创文本的综合向量表示的步骤,包括:通过所述编码器,分别确定每条所述用户原创文本中每个字的向量表示;通过所述编码器,根据所述多条用户原创文本之间的相似度,确定每条所述用户原创文本的第二向量表示;对于每条所述用户原创文本,将该条所述用户原创文本的第二向量表示与该条用户原创文本中每个字的向量表示进行融合,得到该条用户原创文本的综合向量表示。即在确定每条用户原创文本的综合向量表示时,可以不考虑所述用户原创文本和所述查询输入之间的相关性。具体的,通过所述编码器,分别确定每条所述用户原创文本中每个字的向量表示具体实施方式可参见前述描述。在确定每条所述用户原创文本的第二向量表示时,仅考虑所述多条用户原创文本之间的相似度。综合向量表示的生成方式参见前述描述。
确定每条所述用户原创文本的第二向量表示的具体实施方式参见前述模型训练过程中确定训练样本的第二向量表示的描述,此处不再赘述。
对于每条所述用户原创文本,将该条所述用户原创文本的第二向量表示与该条用户原创文本中每个字的向量表示进行融合,得到该条用户原创文本的综合向量表示的具体实施方式参见前述模型训练过程中确定训练样本的综合向量表示的描述,此处不再赘述。
步骤130,通过所述推荐理由生成模型的解码器,对所述多条用户原创文本的所述综合向量表示进行解码,得到所述目标POI的推荐理由。
在通过编码器210得到每条用户原创文本中每个字的综合向量表示之后,编码器210将所述多条户原创文本中每个字的综合向量表示输出给解码器220,由解码器220生成推荐理由。
本申请实施例公开的推荐理由生成方法,通过将目标POI对应的查询输入和所述查询输入关联的多条用户原创文本,输入至预先训练的推荐理由生成模型;通过所述推荐理由生成模型的编码器,基于所述多条用户原创文本以及所述多条用户原创文本之间的关联信息,确定每条所述用户原创文本的综合向量表示;通过所述推荐理由生成模型的解码器,对所述多条用户原创文本的所述综合向量表示进行解码,得到所述目标POI的推荐理由,有助于提升生成的推荐理由的质量。本申请实施例公开的推荐理由生成方法,通过结合POI的多条用户原创文本和查询输入,并引入注意力机制对多条用户原创文本之间的关联信息、用户原创文本和查询输入之间的关联信息进行加权运算,使得推荐理由与用户查询输入强相关,并且与该POI的用户评论数据等相似,从而提升推荐理由的质量。
另一方面,由于推荐理由基于用户的原创文本生成,融合多条用户评论数据的信息,相比较人工编辑的推荐理由和根据模版生成的推荐理由,包含更加丰富的信息,实用性更强。
实施例二
本申请实施例公开的一种推荐理由生成装置,如图3所示,所述装置包括:
输入模块310,用于将目标POI对应的查询输入和所述查询输入关联的多条用户原创文本,输入至预先训练的推荐理由生成模型;
编码模块320,用于通过所述推荐理由生成模型的编码器,基于所述多条用户原创文本以及所述多条用户原创文本之间的关联信息,确定每条所述用户原创文本的综合向量表示;
推荐理由生成模块330,用于通过所述推荐理由生成模型的解码器,对所述多条用户原创文本的所述综合向量表示进行解码,得到所述目标POI的推荐理由。
其中,所述查询输入关联的多条用户原创文本包括以下任意一种或多种:针对所述目标POI的多条用户原创文本、针对所述目标POI同类别POI的多条用户原创文本、针对所述目标POI预设地理范围内的POI的多条用户原创文本。
在本申请的一些实施例中,如图4所示,所述编码器基于第一注意力机制和第二注意力机制构建,所述编码模块320进一步包括:
字向量确定子模块3201,用于通过所述编码器,分别确定每条所述用户原创文本中每个字的向量表示;
第一向量确定子模块3202,用于对于每条所述用户原创文本,通过所述编码器执行所述第一注意力机制,根据该条所述用户原创文本和所述查询输入之间的相关性,对该条所述用户原创文本中每个字的向量表示进行特征映射,确定该条用户原创文本的第一向量表示;
第二向量确定子模块3203,用于通过所述编码器执行第二注意力机制,根据每条所述用户原创文本和所述查询输入之间的相关性、所述多条用户原创文本之间的相似度,以及每条用户原创文本的所述第一向量表示,确定每条所述用户原创文本的第二向量表示;
综合向量确定子模块3204,用于对于每条所述用户原创文本,将该条所述用户原创文本的第二向量表示与该条用户原创文本中每个字的向量表示进行融合,得到该条用户原创文本的综合向量表示。
在本申请的一些实施例中,如图4所示,所述第一向量确定子模块3202,进一步用于:
通过所述编码器内置的第一注意力机制的网络,根据该条用户原创文本中每个字和所述查询输入之间的相似度确定该条用户原创文本中相应字对应的字向量权重,并对该条用户原创文本中相应字的向量表示以所述字向量权重进行加权求和,得到该条用户原创文本的第一向量表示。
在本申请的一些实施例中,如图4所示,所述第二向量确定子模块3203,进一步用于:
通过所述编码器内置的第二注意力机制的网络模型,根据每条所述用户原创文本和所述查询输入之间的相关性,以及所述多条用户原创文本之间的相似度,确定所述多条用户原创文本之间的向量融合权重;
对于每条所述用户原创文本,通过所述第二注意力机制的网络,根据该条用户原创文本与各条所述用户原创文本之间的向量融合权重,对所述多条用户原创文本的所述第一向量表示进行加权融合,得到该条用户原创文本的第二向量表示。
在本申请的一些实施例中,所述通过所述编码器内置的第二注意力机制的网络模型,根据每条所述用户原创文本和所述查询输入之间的相关性,以及所述多条用户原创文本之间的相似度,确定所述多条用户原创文本之间的向量融合权重的步骤,包括:
确定所述多条用户原创文本之间的两两相似度,以及每条所述用户原创文本与所述查询输入之间的相关性;
对于每条所述用户原创文本,将该用户原创文本与所述多条用户原创文本之间的两两相似度分别和该用户原创文本与所述查询输入之间的相关性进行融合,得到将该用户原创文本与每条所述多条用户原创文本和所述查询输入的综合相似度;
对于每条用户原创文本,根据该用户原创文本与每条所述用户原创文本和所述查询输入的综合相似度,分别确定该用户原创文本与相应用户原创文本的向量融合权重。
在本申请的一些实施例中,所述装置还包括:
训练样本构建模块(图中未示出),用于根据用户对POI的查询点击数据,构建训练样本集,所述训练样本中的每条训练样本包括:针对目标POI的查询输入、推荐理由、针对所述目标POI的多条用户原创文本;
模型训练模块(图中未示出),用于以所述查询输入和所述多条用户原创文本作为模型输入,以所述推荐理由作为模型目标,训练推荐理由生成模型;其中,所述推荐理由生成模型包括依次设置的编码器和解码器,所述编码器中进一步包括由输入到输出依次设置的第一注意力机制的网络和第二注意力机制的网络,所述第一注意力机制为:查询输入和用户原创文本之间的注意力机制,所述第二个注意力机制为多条用户原创文本之间的注意力机制。
本申请的一些实施例中,所述编码模块320进一步包括:
字向量确定子模块(图中未示出),用于通过所述编码器,分别确定每条所述用户原创文本中每个字的向量表示;
第二向量确定子模块(图中未示出),用于根据所述多条用户原创文本之间的相似度,确定每条所述用户原创文本的第二向量表示;
综合向量确定子模块(图中未示出),用于对于每条所述用户原创文本,将该条所述用户原创文本的第二向量表示与该条用户原创文本中每个字的向量表示进行融合,得到该条用户原创文本的综合向量表示。本申请实施例公开的推荐理由生成装置,用于实现本申请实施例一中所述的推荐理由生成方法,装置的各模块的具体实施方式不再赘述,可参见方法实施例相应步骤的具体实施方式。
本申请实施例公开的推荐理由生成装置,通过将目标POI对应的查询输入和所述查询输入关联的多条用户原创文本,输入至预先训练的推荐理由生成模型;通过所述推荐理由生成模型的编码器,基于所述多条用户原创文本以及所述多条用户原创文本之间的关联信息,确定每条所述用户原创文本的综合向量表示;通过所述推荐理由生成模型的解码器,对所述多条用户原创文本的所述综合向量表示进行解码,得到所述目标POI的推荐理由,有助于提升生成的推荐理由的质量。本申请实施例公开的推荐理由生成方法,通过结合POI的多条用户原创文本和查询输入,并引入注意力机制对多条用户原创文本之间的关联信息、用户原创文本和查询输入之间的关联信息进行加权运算,使得推荐理由与用户查询输入强相关,并且与该POI的用户评论数据等相似,从而提升推荐理由的质量。
另一方面,由于推荐理由基于用户的原创文本生成,融合多条用户评论数据的信息,相比较人工编辑的推荐理由和根据模版生成的推荐理由,包含更加丰富的信息,实用性更强。
相应的,本申请还公开了一种电子设备,包括存储器、处理器及存储在所述存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如本申请实施例一所述的推荐理由生成方法。所述电子设备可以为PC机、移动终端、个人数字助理、平板电脑等。
本申请还公开了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本申请实施例一所述的推荐理由生成方法的步骤。
本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。对于装置实施例而言,由于其与方法实施例基本相似,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上对本申请提供的一种推荐理由生成方法及装置进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的一般技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本申请的限制。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件实现。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。

Claims (14)

1.一种推荐理由生成方法,其特征在于,包括:
将目标POI对应的查询输入和所述查询输入关联的多条用户原创文本,输入至预先训练的推荐理由生成模型;
通过所述推荐理由生成模型的编码器,基于所述多条用户原创文本以及所述多条用户原创文本之间的关联信息,确定每条所述用户原创文本的综合向量表示;
通过所述推荐理由生成模型的解码器,对所述多条用户原创文本的所述综合向量表示进行解码,得到所述目标POI的推荐理由。
2.根据权利要求1所述的方法,其特征在于,所述编码器基于第一注意力机制和第二注意力机制构建,所述通过所述推荐理由生成模型的编码器,基于所述多条用户原创文本以及所述多条用户原创文本之间的关联信息,确定每条所述用户原创文本的综合向量表示的步骤,包括:
通过所述编码器,分别确定每条所述用户原创文本中每个字的向量表示;
对于每条所述用户原创文本,通过所述编码器执行所述第一注意力机制,根据该条所述用户原创文本和所述查询输入之间的相关性,对该条所述用户原创文本中每个字的向量表示进行特征映射,确定该条用户原创文本的第一向量表示;
通过所述编码器执行第二注意力机制,根据每条所述用户原创文本和所述查询输入之间的相关性、所述多条用户原创文本之间的相似度,以及每条用户原创文本的所述第一向量表示,确定每条所述用户原创文本的第二向量表示;
对于每条所述用户原创文本,将该条所述用户原创文本的第二向量表示与该条用户原创文本中每个字的向量表示进行融合,得到该条用户原创文本的综合向量表示。
3.根据权利要求2所述的方法,其特征在于,所述通过所述编码器执行所述第一注意力机制,根据该条所述用户原创文本和所述查询输入之间的相关性,对该条所述用户原创文本中每个字的向量表示进行特征映射,确定该条用户原创文本的第一向量表示的步骤,包括:
通过所述编码器内置的第一注意力机制的网络,根据该条用户原创文本中每个字和所述查询输入之间的相似度确定该条用户原创文本中相应字对应的字向量权重,并对该条用户原创文本中相应字的向量表示以所述字向量权重进行加权求和,得到该条用户原创文本的第一向量表示。
4.根据权利要求2所述的方法,其特征在于,所述通过所述编码器执行第二注意力机制,根据每条所述用户原创文本和所述查询输入之间的相关性、所述多条用户原创文本之间的相似度,以及每条用户原创文本的所述第一向量表示,确定每条所述用户原创文本的第二向量表示的步骤,包括:
通过所述编码器内置的第二注意力机制的网络模型,根据每条所述用户原创文本和所述查询输入之间的相关性,以及所述多条用户原创文本之间的相似度,确定所述多条用户原创文本之间的向量融合权重;
对于每条所述用户原创文本,通过所述第二注意力机制的网络,根据该条用户原创文本与各条所述用户原创文本之间的向量融合权重,对所述多条用户原创文本的所述第一向量表示进行加权融合,得到该条用户原创文本的第二向量表示。
5.根据权利要求4所述的方法,其特征在于,所述通过所述编码器内置的第二注意力机制的网络模型,根据每条所述用户原创文本和所述查询输入之间的相关性,以及所述多条用户原创文本之间的相似度,确定所述多条用户原创文本之间的向量融合权重的步骤,包括:
确定所述多条用户原创文本之间的两两相似度,以及每条所述用户原创文本与所述查询输入之间的相关性;
对于每条所述用户原创文本,将该用户原创文本与所述多条用户原创文本之间的两两相似度分别和该用户原创文本与所述查询输入之间的相关性进行融合,得到将该用户原创文本与每条所述多条用户原创文本和所述查询输入的综合相似度;
对于每条用户原创文本,根据该用户原创文本与每条所述用户原创文本和所述查询输入的综合相似度,分别确定该用户原创文本与相应用户原创文本的向量融合权重。
6.根据权利要求2至5任一项所述的方法,其特征在于,
根据用户对POI的查询点击数据,构建训练样本集,所述训练样本中的每条训练样本包括:针对目标POI的查询输入、推荐理由、针对所述目标POI的多条用户原创文本;
以所述查询输入和所述多条用户原创文本作为模型输入,以所述推荐理由作为模型目标,训练推荐理由生成模型;其中,所述推荐理由生成模型包括依次设置的编码器和解码器,所述编码器中进一步包括由输入到输出依次设置的第一注意力机制的网络和第二注意力机制的网络,所述第一注意力机制为:查询输入和用户原创文本之间的注意力机制,所述第二个注意力机制为多条用户原创文本之间的注意力机制。
7.根据权利要求1所述的方法,其特征在于,所述通过所述推荐理由生成模型的编码器,基于所述多条用户原创文本以及所述多条用户原创文本之间的关联信息,确定每条所述用户原创文本的综合向量表示的步骤,包括:
通过所述编码器,分别确定每条所述用户原创文本中每个字的向量表示;
通过所述编码器,根据所述多条用户原创文本之间的相似度,确定每条所述用户原创文本的第二向量表示;
对于每条所述用户原创文本,将该条所述用户原创文本的第二向量表示与该条用户原创文本中每个字的向量表示进行融合,得到该条用户原创文本的综合向量表示。
8.一种推荐理由生成装置,其特征在于,包括:
输入模块,用于将目标POI对应的查询输入和所述查询输入关联的多条用户原创文本,输入至预先训练的推荐理由生成模型;
编码模块,用于通过所述推荐理由生成模型的编码器,基于所述多条用户原创文本以及所述多条用户原创文本之间的关联信息,确定每条所述用户原创文本的综合向量表示;
推荐理由生成模块,用于通过所述推荐理由生成模型的解码器,对所述多条用户原创文本的所述综合向量表示进行解码,得到所述目标POI的推荐理由。
9.根据权利要求8所述的装置,其特征在于,所述编码器基于第一注意力机制和第二注意力机制构建,所述编码模块进一步包括:
字向量确定子模块,用于通过所述编码器,分别确定每条所述用户原创文本中每个字的向量表示;
第一向量确定子模块,用于对于每条所述用户原创文本,通过所述编码器执行所述第一注意力机制,根据该条所述用户原创文本和所述查询输入之间的相关性,对该条所述用户原创文本中每个字的向量表示进行特征映射,确定该条用户原创文本的第一向量表示;
第二向量确定子模块,用于通过所述编码器执行第二注意力机制,根据每条所述用户原创文本和所述查询输入之间的相关性、所述多条用户原创文本之间的相似度,以及每条用户原创文本的所述第一向量表示,确定每条所述用户原创文本的第二向量表示;
综合向量确定子模块,用于对于每条所述用户原创文本,将该条所述用户原创文本的第二向量表示与该条用户原创文本中每个字的向量表示进行融合,得到该条用户原创文本的综合向量表示。
10.根据权利要求9所述的装置,其特征在于,所述第一向量确定子模块,进一步用于:
通过所述编码器内置的第一注意力机制的网络,根据该条用户原创文本中每个字和所述查询输入之间的相似度确定该条用户原创文本中相应字对应的字向量权重,并对该条用户原创文本中相应字的向量表示以所述字向量权重进行加权求和,得到该条用户原创文本的第一向量表示。
11.根据权利要求9所述的装置,其特征在于,所述第二向量确定子模块,进一步用于:
通过所述编码器内置的第二注意力机制的网络模型,根据每条所述用户原创文本和所述查询输入之间的相关性,以及所述多条用户原创文本之间的相似度,确定所述多条用户原创文本之间的向量融合权重;
对于每条所述用户原创文本,通过所述第二注意力机制的网络,根据该条用户原创文本与各条所述用户原创文本之间的向量融合权重,对所述多条用户原创文本的所述第一向量表示进行加权融合,得到该条用户原创文本的第二向量表示。
12.根据权利要求10所述的装置,其特征在于,所述通过所述编码器内置的第二注意力机制的网络模型,根据每条所述用户原创文本和所述查询输入之间的相关性,以及所述多条用户原创文本之间的相似度,确定所述多条用户原创文本之间的向量融合权重的步骤,包括:
确定所述多条用户原创文本之间的两两相似度,以及每条所述用户原创文本与所述查询输入之间的相关性;
对于每条所述用户原创文本,将该用户原创文本与所述多条用户原创文本之间的两两相似度分别和该用户原创文本与所述查询输入之间的相关性进行融合,得到将该用户原创文本与每条所述多条用户原创文本和所述查询输入的综合相似度;
对于每条用户原创文本,根据该用户原创文本与每条所述用户原创文本和所述查询输入的综合相似度,分别确定该用户原创文本与相应用户原创文本的向量融合权重。
13.一种电子设备,包括存储器、处理器及存储在所述存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至7任意一项所述的推荐理由生成方法。
14.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现权利要求1至7任意一项所述的推荐理由生成方法的步骤。
CN201911122656.XA 2019-11-15 2019-11-15 推荐理由生成方法、装置、电子设备及存储介质 Active CN111046138B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911122656.XA CN111046138B (zh) 2019-11-15 2019-11-15 推荐理由生成方法、装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911122656.XA CN111046138B (zh) 2019-11-15 2019-11-15 推荐理由生成方法、装置、电子设备及存储介质

Publications (2)

Publication Number Publication Date
CN111046138A true CN111046138A (zh) 2020-04-21
CN111046138B CN111046138B (zh) 2023-06-27

Family

ID=70232087

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911122656.XA Active CN111046138B (zh) 2019-11-15 2019-11-15 推荐理由生成方法、装置、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN111046138B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111831902A (zh) * 2020-05-26 2020-10-27 北京三快在线科技有限公司 推荐理由筛选方法、装置、电子设备
CN113688309A (zh) * 2021-07-23 2021-11-23 北京三快在线科技有限公司 一种生成模型的训练方法及推荐理由的生成方法和装置

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103902670A (zh) * 2014-03-17 2014-07-02 百度在线网络技术(北京)有限公司 搜索推荐方法和装置
CN106547887A (zh) * 2016-10-27 2017-03-29 北京百度网讯科技有限公司 基于人工智能的搜索推荐方法和装置
CN107609960A (zh) * 2017-10-18 2018-01-19 口碑(上海)信息技术有限公司 推荐理由生成方法及装置
CN107844469A (zh) * 2017-10-26 2018-03-27 北京大学 基于词向量查询模型的文本简化方法
CN108694647A (zh) * 2018-05-11 2018-10-23 北京三快在线科技有限公司 一种商户推荐理由的挖掘方法及装置,电子设备
CN109597973A (zh) * 2017-09-30 2019-04-09 阿里巴巴集团控股有限公司 一种文案信息的推荐、生成方法和装置
CN109844708A (zh) * 2017-06-21 2019-06-04 微软技术许可有限责任公司 通过聊天机器人推荐媒体内容
CN110457452A (zh) * 2019-07-08 2019-11-15 汉海信息技术(上海)有限公司 推荐理由生成方法、装置、电子设备及可读存储介质

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103902670A (zh) * 2014-03-17 2014-07-02 百度在线网络技术(北京)有限公司 搜索推荐方法和装置
CN106547887A (zh) * 2016-10-27 2017-03-29 北京百度网讯科技有限公司 基于人工智能的搜索推荐方法和装置
CN109844708A (zh) * 2017-06-21 2019-06-04 微软技术许可有限责任公司 通过聊天机器人推荐媒体内容
CN109597973A (zh) * 2017-09-30 2019-04-09 阿里巴巴集团控股有限公司 一种文案信息的推荐、生成方法和装置
CN107609960A (zh) * 2017-10-18 2018-01-19 口碑(上海)信息技术有限公司 推荐理由生成方法及装置
CN107844469A (zh) * 2017-10-26 2018-03-27 北京大学 基于词向量查询模型的文本简化方法
CN108694647A (zh) * 2018-05-11 2018-10-23 北京三快在线科技有限公司 一种商户推荐理由的挖掘方法及装置,电子设备
CN110457452A (zh) * 2019-07-08 2019-11-15 汉海信息技术(上海)有限公司 推荐理由生成方法、装置、电子设备及可读存储介质

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111831902A (zh) * 2020-05-26 2020-10-27 北京三快在线科技有限公司 推荐理由筛选方法、装置、电子设备
CN113688309A (zh) * 2021-07-23 2021-11-23 北京三快在线科技有限公司 一种生成模型的训练方法及推荐理由的生成方法和装置

Also Published As

Publication number Publication date
CN111046138B (zh) 2023-06-27

Similar Documents

Publication Publication Date Title
CN108959396B (zh) 机器阅读模型训练方法及装置、问答方法及装置
CN111444326A (zh) 一种文本数据处理方法、装置、设备以及存储介质
CN108228576B (zh) 文本翻译方法及装置
Kumar et al. A review on chatbot design and implementation techniques
CN111061946A (zh) 场景化内容推荐方法、装置、电子设备及存储介质
WO2019056628A1 (zh) 关注点文案的生成
CN107562787B (zh) 一种poi编码方法及装置、poi推荐方法,电子设备
CN113505204B (zh) 召回模型训练方法、搜索召回方法、装置和计算机设备
CN111221962A (zh) 一种基于新词扩展与复杂句式扩展的文本情感分析方法
CN109871504B (zh) 一种基于异构信息网络与深度学习的课程推荐系统
CN114339450B (zh) 视频评论生成方法、系统、设备及存储介质
CN111046138B (zh) 推荐理由生成方法、装置、电子设备及存储介质
CN110188158A (zh) 关键词及话题标签生成方法、装置、介质及电子设备
Irissappane et al. Leveraging GPT-2 for classifying spam reviews with limited labeled data via adversarial training
CN117332112A (zh) 多模态检索模型训练以及多模态检索方法、电子设备及存储介质
CN117494815A (zh) 面向档案的可信大语言模型训练、推理方法和装置
CN112836515A (zh) 文本分析方法、推荐方法、装置、电子设备及存储介质
CN117235250A (zh) 一种对话摘要生成方法、装置和设备
CN117093864A (zh) 文本生成模型训练方法以及装置
CN116541579A (zh) 基于局部上下文焦点机制和交谈注意力的方面级情感分析
CN115718904A (zh) 文本处理方法及装置
CN113157892B (zh) 用户意图处理方法、装置、计算机设备及存储介质
CN115292468A (zh) 文本语义匹配方法、装置、设备及存储介质
CN114443916A (zh) 一种面向试验数据的供需匹配方法及系统
Wang et al. Combining label-wise attention and adversarial training for tag prediction of web services

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant