CN112308650A - 推荐理由生成方法、装置、设备及存储介质 - Google Patents

推荐理由生成方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN112308650A
CN112308650A CN202010619641.0A CN202010619641A CN112308650A CN 112308650 A CN112308650 A CN 112308650A CN 202010619641 A CN202010619641 A CN 202010619641A CN 112308650 A CN112308650 A CN 112308650A
Authority
CN
China
Prior art keywords
content information
recommendation reason
recommendation
vector
reason
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010619641.0A
Other languages
English (en)
Other versions
CN112308650B (zh
Inventor
张海楠
陈宏申
丁卓冶
包勇军
颜伟鹏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Jingdong Century Trading Co Ltd
Beijing Wodong Tianjun Information Technology Co Ltd
Original Assignee
Beijing Jingdong Century Trading Co Ltd
Beijing Wodong Tianjun Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Jingdong Century Trading Co Ltd, Beijing Wodong Tianjun Information Technology Co Ltd filed Critical Beijing Jingdong Century Trading Co Ltd
Priority to CN202010619641.0A priority Critical patent/CN112308650B/zh
Publication of CN112308650A publication Critical patent/CN112308650A/zh
Priority to PCT/CN2021/102539 priority patent/WO2022001896A1/zh
Priority to US18/004,008 priority patent/US20230274332A1/en
Priority to EP21832360.8A priority patent/EP4177812A4/en
Application granted granted Critical
Publication of CN112308650B publication Critical patent/CN112308650B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0201Market modelling; Market analysis; Collecting market data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0631Item recommendations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/335Filtering based on additional data, e.g. user or group profiles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0251Targeted advertisements

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Strategic Management (AREA)
  • Development Economics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Economics (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Databases & Information Systems (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Human Computer Interaction (AREA)
  • Game Theory and Decision Science (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本申请实施例提供一种推荐理由生成方法、装置、设备及存储介质,通过获取待推荐对象的内容信息,并根据预先训练好的推荐理由生成模型和内容信息,生成待推荐对象的推荐理由,其中,推荐理由生成模型使用的训练数据包括多个对象的问答数据和内容信息。该技术方案中,由于推荐理由生成模型的训练是结合多个对象的问答数据和内容信息,通过问答数据挖掘用户最在意的商品,因此,通过本方案生成的推荐理由可准确定位用户需求,提高了用户的体验。

Description

推荐理由生成方法、装置、设备及存储介质
技术领域
本申请实施例涉及通信技术领域,尤其涉及一种推荐理由生成方法、装置、设备及存储介质。
背景技术
目前,商品推荐的方法在学术界被广泛研究,并在工业界得到了实际应用。在过去的电商场景下,大多数用户会直接搜索自己想要的产品。但随着经济的快速发展和商品的日益丰富,越来越多的用户并不知道自己需要什么,因此更加习惯于基于商品推荐进行网上购物。
当前较常见的推荐理由生成方案是根据商品的评论信息生成推荐理由。但该方案至少存在以下问题:
商品的评论信息包含了大量的好评模板和虚假好评信息,这些噪音会导致对用户需求的定位不准确,进而影响所生成的推荐理由的效果。
发明内容
本申请实施例提供一种推荐理由生成方法、装置、设备及存储介质,以使得所生成的推荐理由可以准确定位用户需求。
第一方面,本申请实施例提供一种推荐理由生成方法,包括:
获取待推荐对象的内容信息;
根据预先训练好的推荐理由生成模型和内容信息,生成待推荐对象的推荐理由,推荐理由生成模型使用的训练数据包括多个对象的问答数据和内容信息。
在一种可能的实施方式中,上述根据预先训练好的推荐理由生成模型和内容信息,生成待推荐对象的推荐理由,可以包括:
采用预设编码器对所述内容信息进行编码处理,得到内容信息向量;
根据预先训练好的推荐理由生成模型和内容信息向量,生成待推荐对象的推荐理由。
在一种可能的实施方式中,内容信息可以包括标题和属性。此时上述采用预设编码器对内容信息进行编码处理,得到内容信息向量,可以包括:
分别采用预设编码器对标题和属性进行编码处理,得到标题向量和属性向量;
根据标题向量和属性向量及预设权重,得到内容信息向量。
在一种可能的实施方式中,上述根据预先训练好的推荐理由生成模型和内容信息,生成待推荐对象的推荐理由之前,还可以包括:
获取训练数据;
基于训练数据和多个对象对应的目标推荐理由,训练初始模型得到推荐理由生成模型。
在一种可能的实施方式中,上述获取训练数据,包括:
获取多个对象的内容信息;
获取多个对象的问答数据;
对问答数据和内容信息进行过滤处理,获得有效数据。
相应地,上述基于训练数据和多个对象对应的目标推荐理由,训练初始模型得到推荐理由生成模型,包括:基于多个对象的内容信息、有效数据和多个对象对应的目标推荐理由,训练初始模型得到推荐理由生成模型。
第二方面,本申请实施例提供一种推荐理由生成装置,包括:
获取模块,用于获取待推荐对象的内容信息;
处理模块,用于根据预先训练好的推荐理由生成模型和内容信息,生成待推荐对象的推荐理由,推荐理由生成模型使用的训练数据包括多个对象的问答数据和内容信息。
在一种可能的实施方式中,处理模块可具体用于:
采用预设编码器对所述内容信息进行编码处理,得到内容信息向量;
根据预先训练好的推荐理由生成模型和所述内容信息向量,生成待推荐对象的推荐理由。
在一种可能的实施方式中,内容信息包括标题和属性。此时,处理模块在用于采用预设编码器对内容信息进行编码处理,得到内容信息向量时,具体为:
分别采用预设编码器对标题和属性进行编码处理,得到标题向量和属性向量;
根据标题向量和属性向量及预设权重,得到内容信息向量。
在一种可能的实施方式中,获取模块还可以用于:
获取训练数据;
基于训练数据和多个对象对应的目标推荐理由,训练初始模型得到推荐理由生成模型。
在一种可能的实施方式中,获取模块在用于获取训练数据时,具体为:
获取多个对象的内容信息;
获取多个对象的问答数据;
对问答数据和内容信息进行过滤处理,获得有效数据。
相应地,获取模块在用于基于训练数据和多个对象对应的目标推荐理由,训练初始模型得到推荐理由生成模型时,具体为:基于多个对象的内容信息、有效数据和多个对象对应的目标推荐理由,训练初始模型得到推荐理由生成模型。
在上述任一种可能的实施方式的基础上:
可选地,预设编码器可以包括以下编码器中的至少一种:双向长短期记忆网络(Long Short-Term Memory,简称LSTM)编码器、单向LSTM编码器和Transformer模型,等等。
可选地,初始模型可以包括:
先验网络模块,用于根据内容信息向量,获得第一推荐理由;
后验网络模块,用于根据内容信息向量和问答数据向量,获得第二推荐理由;
解码模块,用于根据第一推荐理由、第二推荐理由和目标推荐理由,获得预测推荐理由。
可选地,初始模型还可以包括:
损失函数计算模块,用于以下至少一种用途:
根据问答数据向量和目标推荐理由,获得第一损失函数,所述第一损失函数用于指示调整所述解码模块中相关参数;
根据预测推荐理由和目标推荐理由,获得第二损失函数,所述第二损失函数用于指示调整所述解码模块中相关参数;
根据第一推荐理由和第二推荐理由,获得第三损失函数,所述第三损失函数用于指示调整所述先验网络模块中相关参数和/或所述后验网络模块中相关参数。
第三方面,本申请实施例提供一种电子设备,包括:存储器和处理器;
存储器用于存储程序指令;
处理器用于调用存储器中的程序指令以执行如第一方面任一项所述的方法。
第四方面,本申请实施例提供一种可读存储介质,可读存储介质上存储有计算机程序;计算机程序被执行时,实现如第一方面任一项所述的方法。
第五方面,本申请实施例还提供一种程序产品,程序产品包括计算机程序,计算机程序存储在可读存储介质中,处理器可以从可读存储介质中读取计算机程序,处理器执行计算机程序实现如第一方面任一项所述的方法。
本申请实施例提供一种推荐理由生成方法、装置、设备及存储介质,通过获取待推荐对象的内容信息,并根据预先训练好的推荐理由生成模型和内容信息,生成待推荐对象的推荐理由,其中,推荐理由生成模型使用的训练数据包括多个对象的问答数据和内容信息。该技术方案中,由于推荐理由生成模型的训练是结合多个对象的问答数据和内容信息,通过问答数据挖掘用户最在意的商品,因此,通过本方案生成的推荐理由可准确定位用户需求,提高了用户的体验。
附图说明
图1是本申请提供的推荐理由生成方法的应用场景示意图;
图2为本申请一实施例提供的推荐理由生成方法的流程示意图;
图3为本申请另一实施例提供的推荐理由生成方法的流程示意图;
图4为本申请又一实施例提供的推荐理由生成方法的流程示意图;
图5为本申请又一实施例提供的推荐理由生成方法的流程示意图;
图6为本申请一实施例提供的推荐理由生成模型的训练过程示意图;
图7为本申请一实施例提供的推荐理由生成装置的结构示意图;
图8为本申请一实施例提供的电子设备的结构示意图。
具体实施方式
应当理解,本申请实施例中涉及的“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B的情况,其中A,B可以是单数或者复数。字符“/”一般表示前后关联对象是一种“或”的关系。
在介绍本申请的技术方案之前,首先结合本申请的一个具体应用场景引出现有技术存在的问题以及本申请的技术构思过程。
示例性的,以下以本申请提供的推荐理由生成方法应用于商品推荐进行说明。具体的,随着电子商务业务的快速发展,网络购物已成为一种购物趋势。在过去的电商场景下,大多数用户会直接搜索自己想要的产品。随着经济的发展和商品的日益丰富,越来越多的用户并不知道自己需要什么,因此更加习惯于基于推荐理由进行网上购物。
商品推荐关注于如何为用户提供更好的商品排序。但是目前仅排序已经无法满足用户的需求。随着时间成本的增加,大多数用户更希望直接地看到商品的特性和推荐理由,而不需要点击商品查看详情才能获得自己想要的信息。在例如手机等电子设备的屏幕有限的空间下,如何直截了当地展示商品的推荐理由,优化用户体验,成为当前亟需解决的问题。
而且,精准有效的推荐理由可以更好地吸引用户的注意力,提升用户的点击和购买。在线分析显示,通过推荐理由的展示,可以快速抓住用户的眼球,提升商品的点击率。总之,生成每个商品的精准有效的推荐理由,是电子商务中重要且实用的问题。
目前,常用的推荐理由生成方法主要包括两种:
一种只关注商品本身,通过商品的标题、属性等内容信息生成推荐理由,但是它无法准确探知用户最关心的商品方面,潜在用户渴望了解的商品内容没有展示,影响用户的体验。例如,某LED充电灯的标题为“某某品牌充电款LED小台灯”,许多用户在该商品问答区提问关于小台灯是否方便携带和重量的问题,这些都没能体现在标题等信息中,因此利用这些商品本身的信息进行推荐理由生成,可能会造成潜在用户的流失。
另一种使用商品的评论信息作为用户需求的指引,生成推荐理由。但是由于评论信息包含了大量的好评模板信息和虚假好评信息。例如,大量用户为了节约时间成本,可能会只评论“好”或使用好评模板,针对所有他购买的商品,使用同一个好评模板,这样的评价是无用的信息。此外,众所周知,商家为了获得更多的好评,对用户进行了一系列的返利诱导,因此许多商品存在虚假好评的情况。如果使用这些噪音数据进行推荐理由生成,会导致对用户需求的定位不准确,进而极大影响所生成的推荐理由的有效性,致使用户体验差的问题。
针对上述问题,发明人通过研究发现,针对潜在客户希望了解的内容挖掘方面,提出使用商品的问答数据进行探索。因为问答数据反映了用户的真实需求,极少有用户会在问答板块刷屏,问答数据可以更快捷地展示用户的关注点。随着大量的用户对感兴趣的商品提问,已购买用户对其问题进行回答,这些问答数据本身就直接描述了用户关心的内容。例如,用户对LED小台灯的便捷性的提问,有许多购买用户对其进行了回答,因此可以使用这些问答数据生成“小巧便捷可收纳”的推荐理由,以吸引潜在客户,提高了用户体验。
具体地,本申请实施例提供了一种推荐理由生成方法,通过对商品的内容信息和问答数据进行学习,使用问答数据作为指引,对内容信息进行辅助生成推荐理由,以使得所生成的推荐理由可以有效定位用户需求,提升用户体验。
值得说明的是,在本申请的实施例中,对象指的是电商网站中承载的商品,相应的,该推荐理由生成方法是筛选商品并推荐给用户的过程。
示例性的,图1是本申请提供的推荐理由生成方法的应用场景示意图。如图1所示,该应用场景可以包括:至少一个终端设备(图1示出了三个终端设备,分别为终端设备111、终端设备112、终端设备113)、网络12和服务器13。其中,每个终端设备与服务器13均可以通过网络12进行通信。
示例地,当用户通过终端设备111浏览电商平台时,例如,可通过终端设备中已安装的电商APP浏览电商平台,终端设备111通过网络12向服务器13发送对象推荐请求,服务器13可以根据对象推荐请求包括的用户标识获取在预设时间段内的用户行为,并进一步地根据用户行为确定要推荐给该用户的对象,其中,对象对应有通过本申请提供的推荐理由生成方法得到的推荐理由,并通过网络12向该用户使用的终端设备111发送推荐的对象及其对应的推荐理由,由终端设备111展示对象及其对应的推荐理由给用户。
其中,用户行为包括但不限于商品购买行为、将商品添加至购物车的行为、浏览商品的行为,等等。以商品购买行为为例,用户在近段时间内购买过手机,则服务器13根据用户标识获取该用户购买过手机的行为,进一步确定推荐手机膜、手机保护套等相关商品给用户,此时,服务器13获得上述商品及其对应的推荐理由,并发送给终端设备111,由终端设备111展示上述商品及其对应的推荐理由给用户,以供用户查看。
需要说明的是,附图1仅是本申请实施例提供的一种应用场景的示意图,本申请实施例不对图1中包括的设备进行限定,也不对图1中设备之间的位置关系进行限定,例如,在图1所示的应用场景中,还可以包括数据存储设备,该数据存储设备相对服务器13可以是外部存储器,也可以是集成在服务器13中的内部存储器。另外,服务器13可以是独立的服务器,或者,也可以是服务集群等。
下面,通过具体实施例对本申请的技术方案进行详细说明。需要说明的是,下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例中不再赘述。
图2为本申请一实施例提供的推荐理由生成方法的流程示意图。该方法以图1所示应用场景中的服务器作为执行主体进行解释说明。需明确,本申请实施例提供的推荐理由生成方法的执行主体不以服务器为限制,只要是具备一定算力的电子设备,均可作为执行主体。
如图2所示,该方法包括如下步骤:
S201、获取待推荐对象的内容信息。
示例地,在实际应用中,用户通过终端设备登录APP时,例如,登录电商APP,终端设备发送携带该用户标识的请求给服务器,服务器根据用户标识获得该用户最近的用户行为,基于用户行为获取待推荐对象的内容信息。例如,近段时间内,用户有将对象添加至购物车的行为,服务器根据用户标识确定这一行为,并根据该行为获取类似对象的内容信息。
或者,服务器扫描其对应的数据库中各个对象,其中,数据库中存储有对象的各种相关信息,例如内容信息,并获取对应的内容信息。
S202、根据预先训练好的推荐理由生成模型和内容信息,生成待推荐对象的推荐理由,其中,推荐理由生成模型使用的训练数据包括多个对象的问答数据和内容信息。
具体地,推荐理由生成的核心是卖点挖掘,结合问答数据,基于内容信息生成推荐理由生成模型。
在实际应用中,由于丰富的问答数据仅存在于热销产品,大量的非热销产品难以获得足够的问答数据,当考虑从问答数据进行推荐理由生成时,会面临问答数据不平衡带来的现实问题。本申请实施例中,由于推荐理由生成模型使用的训练数据包括多个对象的问答数据和内容信息,通过问答数据挖掘用户最在意的对象,辅助对象的推荐理由生成,因此,针对非热销商品,推荐理由生成模型已经学习到了该类商品的受关注点,仅使用内容信息也可以生成有效的推荐理由。
本申请实施例提供的推荐理由生成方法,通过获取待推荐对象的内容信息,并根据预先训练好的推荐理由生成模型和内容信息,生成待推荐对象的推荐理由,其中,推荐理由生成模型使用的训练数据包括多个对象的问答数据和内容信息。该技术方案中,由于推荐理由生成模型的训练是结合多个对象的问答数据和内容信息,通过问答数据挖掘用户最在意的商品,因此,通过本方案生成的推荐理由可准确定位用户需求,从而大幅度节约了人工成本,提高了用户的体验。
在上述实施例的基础上,一种实现方式中,如图3所示,根据预先训练好的推荐理由生成模型和内容信息,生成待推荐对象的推荐理由,可以包括:
S301、采用预设编码器对内容信息进行编码处理,得到内容信息向量。
S302、根据预先训练好的推荐理由生成模型和内容信息向量,生成待推荐对象的推荐理由。
该实现方式中,首先对内容信息进行编码处理,得到内容信息向量,可以理解,编码处理即将内容信息转换为推荐理由生成模型可处理的参数形式,内容信息向量为推荐理由生成模型的输入参数,并经推荐理由生成模型处理后得到对应待推荐对象的推荐理由,也就是说,待推荐对象的推荐理由为推荐理由生成模型的输出。
其中,预设编码器可以包括以下编码器中的至少一种:双向LSTM编码器、单向LSTM编码器和Transformer模型等。其中,Transformer模型是采用全注意力机制的结构代替了LSTM的结构,在翻译任务上取得了更好的成绩。
一些实施例中,内容信息可以包括标题和属性。S301、采用预设编码器对内容信息进行编码处理,得到内容信息向量,可以包括:分别采用预设编码器对标题和属性进行编码处理,得到标题向量和属性向量;根据标题向量和属性向量及预设权重,得到内容信息向量。需说明的是,这里是以内容信息包括标题和属性为例进行示例说明,但本申请实施例不以此为限制。例如,内容信息除包括标题和属性之外,也可以包含任何跟对象本身有关,存储在数据知识库中的信息。
示例地,通过以下例子说明推荐理由的生成过程:
1)设定内容信息包括标题和属性,其中,标题为“LED充电式小夜灯”,属性为“充电、轻便、大容量”,字向量的维度为128维,使用双向LSTM编码器分别对标题和属性进行256维编码处理,分别获得标题对应的256维向量和属性对应的256维向量,也就是标题向量和属性向量,其维度均为256维。
2)将这两个256维向量与预设权重结合,标题向量与预设权重λ相乘,属性向量与(1-λ)相乘,得到256维的内容信息向量,作为内容信息的向量表示。
3)将该256维的内容信息向量作为输入,通过预先训练好的推荐理由生成模型,生成推荐理由“小巧便捷可收纳”。
上述实施例介绍了推荐理由生成模型的实际应用,接下来说明如何获取推荐理由生成模型,即推荐理由生成模型的训练过程。
图4为本申请又一实施例提供的推荐理由生成方法的流程示意图。参考图4,该实施例中的推荐理由生成方法可以包括:
S401、获取训练数据。
可选地,S401、获取训练数据,可以包括:获取多个对象的内容信息;获取多个对象的问答数据;对问答数据和内容信息进行过滤处理,获得有效数据。
例如,服务器从数据知识库中获取多个对象的内容信息,例如给定商品的ID、标题和属性等信息。另外,服务器收集对应给定商品的问答数据,包括问题和该问题对应的所有答案以及它们对应的点赞数等。
对于过滤处理,可以理解,示例地:
从商品粒度出发:如果给定商品的问题个数少于3个,做剔除该给定商品的处理;或者,如果给定商品的问题个数超过70,则保留该给定商品排名在前的70个问题及其答案。
从商品对应的问题粒度出发:针对每个商品,删除没有答案的问题;和/或,如果某问题对应的答案超过20条,则保留排名在前的20条答案。
应当理解,对于剔除的商品,其对应的内容信息也做删除处理。
对于过滤后的商品,邀请人工撰写商品的目标推荐理由,要求人工从用户体验的角度出发,根据问答数据和内容信息,撰写目标推荐理由。示例地,目标推荐理由的字数限制在20字以内。
最终,获得了训练数据和多个对象对应的目标推荐理由。
S402、基于训练数据和多个对象对应的目标推荐理由,训练初始模型得到推荐理由生成模型。
与S401的相关描述相对应,该步骤可以包括:基于多个对象的内容信息、有效数据和多个对象对应的目标推荐理由,训练初始模型得到推荐理由生成模型。
S403、获取待推荐对象的内容信息。
该步骤与S201类似,具体描述如前所述,此处不再赘述。对于S402与S403的执行顺序,本申请不予限制。
S404、根据预先训练好的推荐理由生成模型和内容信息,生成待推荐对象的推荐理由。
该步骤与S202类似,具体描述如前所述,此处不再赘述。
该实施例,在获取训练数据之后,其中训练数据包括多个对象的内容信息和问答数据,对问答数据进行过滤处理,以剔除噪声干扰,获得有效问答数据;进一步地,基于多个对象的内容信息、有效问答数据和多个对象对应的目标推荐理由,训练初始模型得到推荐理由生成模型,这样,可快速得到性能较好的推荐理由生成模型。
请参见图5,图5为本申请又一实施例提供的推荐理由生成方法的流程示意图,其具体包括以下步骤:获取多个对象的内容信息;获取多个对象的问答数据;对多个对象的内容信息和问答数据进行过滤处理,得到有效数据;使用该有效数据对初始网络进行训练,得到推荐理由生成模型;获取待推荐对象的内容信息,通过推荐理由生成模型处理,得到该待推荐对象的推荐理由。其中,左边虚线框用于获得训练数据,右边虚线框为推荐理由生成装置要实现的功能,其中,推荐理由生成装置的相关描述可参考后续实施例,此处不再赘述。
接下来,介绍初始模型的具体构成。初始模型包括:
先验网络模块,用于根据内容信息向量,获得第一推荐理由;
后验网络模块,用于根据内容信息向量和问答数据向量,获得第二推荐理由;
解码模块,用于根据第一推荐理由、第二推荐理由和目标推荐理由,获得预测推荐理由。
进一步地,初始模型还包括:损失函数计算模块。该损失函数计算模块可用于以下至少一种用途:
根据问答数据向量和目标推荐理由,获得第一损失函数,第一损失函数用于指示调整所述解码模块中相关参数;
根据预测推荐理由和目标推荐理由,获得第二损失函数,第二损失函数用于指示调整所述解码模块中相关参数;
根据第一推荐理由和第二推荐理由,获得第三损失函数,第三损失函数用于指示调整先验网络模块中相关参数和/或后验网络模块中相关参数。
示例地,推荐理由生成模型的训练过程如图6所示。参考图6,训练过程如下:
一、将商品的标题和属性分别作为预设编码器的输入,如图6下方所示,获得标题和属性的向量表示。具体地,设定属性为W={w1,…,wn},使用双向LSTM编码器将属性表示为固定的向量表示hW={hW,1,…,hW,n};此外,设定标题T={t1,…,tn},使用双向LSTM编码器将标题表示为固定的向量表示hT={ht,1,…,ht,n}。
二、通过自注意力机制模块,线性叠加标题向量和属性向量,如图6中间所示,最终获得内容信息向量。具体地,将标题向量hT和属性向量hW作为初始化输入
Figure BDA0002564739190000121
Figure BDA0002564739190000122
那么第l层的自注意力表示为:
Figure BDA0002564739190000123
Figure BDA0002564739190000124
其中,FFN表示前向神经网络,MHA表示多头自注意力机制。
最终的内容信息向量表示为:
Figure BDA0002564739190000125
其中,λ1表示线性调节参数,
Figure BDA0002564739190000126
Figure BDA0002564739190000127
表示最后一层(即第N层)多头注意力机制的输出。
三、将商品对应的问答数据,包括问题语句和答案语句,作为预设编码器的输入,如图6左边所示,获得问答数据的向量表示。具体地,给定第i个问答数据qa={q1,…,qn,a1,…,an},我们仍然使用双向LSTM编码器将该问答数据表示为
Figure BDA0002564739190000128
具体地,给定商品的问答数据,将问答数据中问题对应的答案做拼接操作,使用双向LSTM编码器对问答数据进行编码,作为该问答数据的向量表示。
四、通过内容信息的指导机制,最终获得不同问答数据的权重,综合后得到问答数据的向量表示。具体地,给定每个问答数据的表示集合
Figure BDA0002564739190000129
问答数据向量表示为:
Figure BDA00025647391900001210
Figure BDA00025647391900001211
其中,W1、W2、b1和b2是模型学习的参数。
为了获得该商品在问答数据的最终表示,将商品的内容信息融入到问答数据中,用于指导商品问答数据的向量表示。将商品的内容信息向量进行线性变换,并对每个问答数据向量进行线性变换,将这两个线性变换后的向量进行乘积操作,通过softmax函数,得到该问答数据的权重。最后通过该权重与该问答数据做乘积操作,获得该问答数据的向量表示。
五、后验网络模块将商品的内容信息和问答数据作为输入,将推荐理由作为输出,即
Figure BDA00025647391900001212
先验网络模块将商品的内容信息作为输入,将推荐理由作为输出,即
Figure BDA00025647391900001213
如图6上方所示,使用KL距离,使得先验网络模块与后验网络模块无限接近,即
Figure BDA0002564739190000131
其中,W3、W4、b3和b4是模型学习的参数。
将商品的内容信息向量与商品的问答数据向量进行拼接,通过多层感知机,得到后验网络模块的表示,将该表示输入到解码模块中。仅使用商品的内容信息向量,通过相同的多层感知机,得到先验网络模块的表示,将该表示输入到解码模块中。通过KL距离,使得后验网络模块与先验网络模块无限接近,达到训练网络的目的。
六、解码模块使用标准的Transformer模型进行解码,解码模块的结构如图6右侧部分所示。
模型训练目标包括先验后验网络的KL距离(即第三损失函数)、后验网络模块生成推荐理由KLL损失函数(即第二损失函数)和通过问答数据生成推荐理由REG损失函数(即第一损失函数)三部分。具体地,
Figure BDA0002564739190000132
其中,y<t表示已经生成的字,θ表示模型参数。
Figure BDA0002564739190000133
最终的损失函数表示为:
Figure BDA0002564739190000134
基于Transformer模型生成的推荐理由,其中可以使用预训练模型对词表进行进一步优化,增强数据的关系化建模,从而提升推荐理由的有效性。
仍以上述标题为“LED充电式小夜灯”,属性为“充电、轻便、大容量”的示例为例,将256维的内容信息向量作为解码模块的输入,输出为词表大小的归一向量,每个维度对应一个中文字,一步步获得每个字的概率分布。通过集束搜索(beam search)方式,生成的推荐理由。
例如第一个解码的beam=3的最大概率的3个字为“充,小,大”,分别将这五个字作为解码模块的输入,进行下一步解码。以“充”为输入获得“电,气,满”,以“小”为输入获得“巧,孩,时”,以“大”为输入获得“容,点,号”,综合比较“充电、充气、充满、小巧、小孩、小时、大容、大点、大号”的概率,选择排序在前三的词语“充电、小巧、大容”作为根节点,继续进行下一步解码。最终在获得的排序在前三的短语中,选择概率最大的作为生成的推荐理由,例如“小巧便捷可收纳”。
本申请提出了一个基于用户问答数据的推荐理由自动生成方案,即层次化多源后验网络推荐理由生成方法。针对非热销商品的推荐理由生成,本申请利用后验网络模块具有记忆的特点,通过该商品的标题和属性,就能够生成满足用户需求的推荐理由。
另外,将问答数据的问题和答案的关系进行细致的建模,可以有效提升问答数据挖掘的准确度。
下述为本申请装置实施例,可以用于执行本申请方法实施例。对于本申请装置实施例中未披露的细节,请参照本申请方法实施例。
图7为本申请一实施例提供的推荐理由生成装置的结构示意图。本申请实施例提供一种推荐理由生成装置,该装置可以集成在例如服务器等电子设备上,或该装置可以集成在电子设备的芯片上,或该装置也可以是电子设备。如图7所示,推荐理由生成装置60包括:获取模块61和处理模块62。其中:
获取模块61,用于获取待推荐对象的内容信息。
处理模块62,用于根据预先训练好的推荐理由生成模型和内容信息,生成待推荐对象的推荐理由。其中,推荐理由生成模型使用的训练数据包括多个对象的问答数据和内容信息。
可选地,处理模块62具体用于:采用预设编码器对内容信息进行编码处理,得到内容信息向量;根据预先训练好的推荐理由生成模型和内容信息向量,生成待推荐对象的推荐理由。
进一步地,内容信息可以包括标题和属性。对应地,处理模块62在用于采用预设编码器对内容信息进行编码处理,得到内容信息向量时,可以具体为:分别采用预设编码器对标题和属性进行编码处理,得到标题向量和属性向量;根据标题向量和属性向量及预设权重,得到内容信息向量。
示例地,预设编码器可以包括以下编码器中的至少一种:双向LSTM编码器、单向LSTM编码器和Transformer模型等。
一些实施例中,获取模块61还可以用于:
获取训练数据;
基于训练数据和多个对象对应的目标推荐理由,训练初始模型得到推荐理由生成模型。
进一步地,获取模块61在用于获取训练数据时,可以具体为:
获取多个对象的内容信息;
获取多个对象的问答数据;
对问答数据进行过滤处理,获得有效问答数据。
相应地,获取模块61在用于基于训练数据和所述多个对象对应的目标推荐理由,训练初始模型得到推荐理由生成模型时,可以具体为:基于多个对象的内容信息、有效问答数据和多个对象对应的目标推荐理由,训练初始模型得到推荐理由生成模型。
在上述任一实施例中,初始模型可以包括:
内容信息模块,用于对内容信息进行编码处理,得到内容信息向量;
问答数据模块,用于根据内容信息向量和问答数据,获得问答数据向量;
先验网络模块,用于根据内容信息向量,获得第一推荐理由;
后验网络模块,用于根据内容信息向量和问答数据向量,获得第二推荐理由;
解码模块,用于根据第一推荐理由、第二推荐理由和目标推荐理由,获得预测推荐理由。
更进一步地,初始模型还可以包括:
损失函数计算模块,用于以下至少一种用途:
根据问答数据向量和目标推荐理由,获得第一损失函数,所述第一损失函数用于指示调整所述解码模块中相关参数;
根据预测推荐理由和目标推荐理由,获得第二损失函数,所述第二损失函数用于指示调整所述解码模块中相关参数;
根据第一推荐理由和第二推荐理由,获得第三损失函数,所述第三损失函数用于指示调整先验网络模块中相关参数和/或后验网络模块中相关参数。
需要说明的是,应理解以上装置的各个模块的划分仅仅是一种逻辑功能的划分,实际实现时可以全部或部分集成到一个物理实体上,也可以物理上分开。且这些模块可以全部以软件通过处理元件调用的形式实现;也可以全部以硬件的形式实现;还可以部分模块通过处理元件调用软件的形式实现,部分模块通过硬件的形式实现。例如,处理模块可以为单独设立的处理元件,也可以集成在上述装置的某一个芯片中实现,此外,也可以以程序代码的形式存储于上述装置的存储器中,由上述装置的某一个处理元件调用并执行以上处理模块的功能。其它模块的实现与之类似。此外这些模块全部或部分可以集成在一起,也可以独立实现。这里所述的处理元件可以是一种集成电路,具有信号的处理能力。在实现过程中,上述方法的各步骤或以上各个模块可以通过处理器元件中的硬件的集成逻辑电路或者软件形式的指令完成。
例如,以上这些模块可以是被配置成实施以上方法的一个或多个集成电路,例如:一个或多个特定集成电路(Application Specific Integrated Circuit,简称ASIC),或,一个或多个微处理器(Digital Signal Processor,简称DSP),或,一个或者多个现场可编程门阵列(Field Programmable Gate Array,FPGA)等。再如,当以上某个模块通过处理元件调度程序代码的形式实现时,该处理元件可以是通用处理器,例如中央处理器(CentralProcessing Unit,简称CPU)或其它可以调用程序代码的处理器。再如,这些模块可以集成在一起,以片上系统(System-On-a-Chip,简称SOC)的形式实现。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本申请实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘solid state disk(SSD))等。
图8为本申请一实施例提供的电子设备的结构示意图。如图8所示,该电子设备可以包括:处理器71、存储器72、通信接口73和系统总线74。其中,存储器72和通信接口73通过系统总线74与处理器71连接并完成相互间的通信,存储器72用于存储计算机执行指令,通信接口73用于和其他设备进行通信,处理器71执行上述计算机执行指令时实现如上述方法实施例所述的方案。
该图8中提到的系统总线可以是外设部件互连标准(Peripheral ComponentInterconnect,简称PCI)总线或扩展工业标准结构(Extended Industry StandardArchitecture,简称EISA)总线等。该系统总线可以分为地址总线、数据总线、控制总线等。为便于表示,图中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。通信接口用于实现数据库访问装置与其他设备(例如客户端、读写库和只读库)之间的通信。存储器可能包含随机存取存储器(Random Access Memory,简称RAM),也可能还包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。
上述的处理器可以是通用处理器,包括中央处理器CPU、网络处理器(NetworkProcessor,简称NP)等;还可以是数字信号处理器DSP、专用集成电路ASIC、现场可编程门阵列FPGA或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
可选的,本申请实施例还提供一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机执行指令,当其在计算机上运行时,使得计算机执行如上述方法实施例所述的方法。
可选的,本申请实施例还提供一种运行指令的芯片,所述芯片用于执行上述方法实施例所述的方法。
本申请实施例还提供一种计算机程序产品,该计算机程序产品包括计算机程序,该计算机程序存储在计算机可读存储介质中,至少一个处理器可以从该计算机可读存储介质中读取计算机程序,该至少一个处理器执行所述计算机程序时可实现上述方法实施例所述的方法。
本申请中,“至少一个”是指一个或者多个,“多个”是指两个或两个以上。“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B的情况,其中A,B可以是单数或者复数。字符“/”一般表示前后关联对象是一种“或”的关系;在公式中,字符“/”,表示前后关联对象是一种“相除”的关系。“以下至少一项(个)”或其类似表达,是指的这些项中的任意组合,包括单项(个)或复数项(个)的任意组合。例如,a,b,或c中的至少一项(个),可以表示:a,b,c,a-b,a-c,b-c,或a-b-c,其中,a,b,c可以是单个,也可以是多个。
可以理解的是,在本申请的实施例中涉及的各种数字编号仅为描述方便进行的区分,并不用来限制本申请的实施例的范围。在本申请的实施例中,上述各过程的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请的实施例的实施过程构成任何限定。
最后应说明的是:以上各实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述各实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的范围。

Claims (18)

1.一种推荐理由生成方法,其特征在于,包括:
获取待推荐对象的内容信息;
根据预先训练好的推荐理由生成模型和所述内容信息,生成所述待推荐对象的推荐理由,所述推荐理由生成模型使用的训练数据包括多个对象的问答数据和内容信息。
2.根据权利要求1所述的方法,其特征在于,所述根据预先训练好的推荐理由生成模型和所述内容信息,生成所述待推荐对象的推荐理由,包括:
采用预设编码器对所述内容信息进行编码处理,得到内容信息向量;
根据预先训练好的推荐理由生成模型和所述内容信息向量,生成所述待推荐对象的推荐理由。
3.根据权利要求2所述的方法,其特征在于,所述内容信息包括标题和属性,所述采用预设编码器对所述内容信息进行编码处理,得到内容信息向量,包括:
分别采用所述预设编码器对所述标题和所述属性进行编码处理,得到标题向量和属性向量;
根据所述标题向量和所述属性向量及预设权重,得到所述内容信息向量。
4.根据权利要求2所述的方法,其特征在于,所述预设编码器,包括以下编码器中的至少一种:
双向长短期记忆网络LSTM编码器、单向LSTM编码器、Transformer模型。
5.根据权利要求1至4中任一项所述的方法,其特征在于,所述根据预先训练好的推荐理由生成模型和所述内容信息,生成所述待推荐对象的推荐理由之前,还包括:
获取所述训练数据;
基于所述训练数据和所述多个对象对应的目标推荐理由,训练初始模型得到所述推荐理由生成模型。
6.根据权利要求5所述的方法,其特征在于,所述获取所述训练数据,包括:
获取所述多个对象的内容信息;
获取所述多个对象的问答数据;
对问答数据和内容信息进行过滤处理,获得有效数据;
相应地,所述基于所述训练数据和所述多个对象对应的目标推荐理由,训练初始模型得到所述推荐理由生成模型,包括:
基于所述多个对象的内容信息、所述有效数据和所述多个对象对应的目标推荐理由,训练初始模型得到所述推荐理由生成模型。
7.根据权利要求5所述的方法,其特征在于,所述初始模型,包括:
先验网络模块,用于根据内容信息向量,获得第一推荐理由;
后验网络模块,用于根据内容信息向量和问答数据向量,获得第二推荐理由;
解码模块,用于根据第一推荐理由、第二推荐理由和目标推荐理由,获得预测推荐理由。
8.根据权利要求7所述的方法,其特征在于,所述初始模型,还包括:
损失函数计算模块,用于以下至少一种用途:
根据问答数据向量和目标推荐理由,获得第一损失函数,所述第一损失函数用于指示调整所述解码模块中相关参数;
根据预测推荐理由和目标推荐理由,获得第二损失函数,所述第二损失函数用于指示调整所述解码模块中相关参数;
根据第一推荐理由和第二推荐理由,获得第三损失函数,所述第三损失函数用于指示调整所述先验网络模块中相关参数和/或所述后验网络模块中相关参数。
9.一种推荐理由生成装置,其特征在于,包括:
获取模块,用于获取待推荐对象的内容信息;
处理模块,用于根据预先训练好的推荐理由生成模型和所述内容信息,生成所述待推荐对象的推荐理由,所述推荐理由生成模型使用的训练数据包括多个对象的问答数据和内容信息。
10.根据权利要求9所述的装置,其特征在于,所述处理模块具体用于:
采用预设编码器对所述内容信息进行编码处理,得到内容信息向量;
根据预先训练好的推荐理由生成模型和所述内容信息向量,生成所述待推荐对象的推荐理由。
11.根据权利要求10所述的装置,其特征在于,所述内容信息包括标题和属性,所述处理模块在用于采用预设编码器对所述内容信息进行编码处理,得到内容信息向量时,具体为:
分别采用所述预设编码器对所述标题和所述属性进行编码处理,得到标题向量和属性向量;
根据所述标题向量和所述属性向量及预设权重,得到所述内容信息向量。
12.根据权利要求10所述的装置,其特征在于,所述预设编码器,包括以下编码器中的至少一种:
双向长短期记忆网络LSTM编码器、单向LSTM编码器、Transformer模型。
13.根据权利要求9至12中任一项所述的装置,其特征在于,所述获取模块还用于:
获取所述训练数据;
基于所述训练数据和所述多个对象对应的目标推荐理由,训练初始模型得到所述推荐理由生成模型。
14.根据权利要求13所述的装置,其特征在于,所述获取模块在用于获取所述训练数据时,具体为:
获取所述多个对象的内容信息;
获取所述多个对象的问答数据;
对问答数据和内容信息进行过滤处理,获得有效数据;
相应地,所述获取模块在用于基于所述训练数据和所述多个对象对应的目标推荐理由,训练初始模型得到所述推荐理由生成模型时,具体为:
基于所述多个对象的内容信息、所述有效数据和所述多个对象对应的目标推荐理由,训练初始模型得到所述推荐理由生成模型。
15.根据权利要求13所述的装置,其特征在于,所述初始模型,包括:
先验网络模块,用于根据内容信息向量,获得第一推荐理由;
后验网络模块,用于根据内容信息向量和问答数据向量,获得第二推荐理由;
解码模块,用于根据第一推荐理由、第二推荐理由和目标推荐理由,获得预测推荐理由。
16.根据权利要求15所述的装置,其特征在于,所述初始模型,还包括:
损失函数计算模块,用于以下至少一种用途:
根据问答数据向量和目标推荐理由,获得第一损失函数,所述第一损失函数用于指示调整所述解码模块中相关参数;
根据预测推荐理由和目标推荐理由,获得第二损失函数,所述第二损失函数用于指示调整所述解码模块中相关参数;
根据第一推荐理由和第二推荐理由,获得第三损失函数,所述第三损失函数用于指示调整所述先验网络模块中相关参数和/或所述后验网络模块中相关参数。
17.一种电子设备,其特征在于,包括:存储器和处理器;
所述存储器用于存储程序指令;
所述处理器用于调用所述存储器中的程序指令以执行如权利要求1至8中任一项所述的方法。
18.一种可读存储介质,其特征在于,所述可读存储介质上存储有计算机程序;所述计算机程序被执行时,实现如权利要求1至8中任一项所述的方法。
CN202010619641.0A 2020-07-01 2020-07-01 推荐理由生成方法、装置、设备及存储介质 Active CN112308650B (zh)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN202010619641.0A CN112308650B (zh) 2020-07-01 2020-07-01 推荐理由生成方法、装置、设备及存储介质
PCT/CN2021/102539 WO2022001896A1 (zh) 2020-07-01 2021-06-25 推荐理由生成方法、装置、设备及存储介质
US18/004,008 US20230274332A1 (en) 2020-07-01 2021-06-25 Method and apparatus for generating recommendation reason, and storage medium
EP21832360.8A EP4177812A4 (en) 2020-07-01 2021-06-25 METHOD AND DEVICE FOR GENERATING RECOMMENDATION CAUSES AS WELL AS DEVICE AND STORAGE MEDIUM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010619641.0A CN112308650B (zh) 2020-07-01 2020-07-01 推荐理由生成方法、装置、设备及存储介质

Publications (2)

Publication Number Publication Date
CN112308650A true CN112308650A (zh) 2021-02-02
CN112308650B CN112308650B (zh) 2022-09-30

Family

ID=74483107

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010619641.0A Active CN112308650B (zh) 2020-07-01 2020-07-01 推荐理由生成方法、装置、设备及存储介质

Country Status (4)

Country Link
US (1) US20230274332A1 (zh)
EP (1) EP4177812A4 (zh)
CN (1) CN112308650B (zh)
WO (1) WO2022001896A1 (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113158056A (zh) * 2021-04-27 2021-07-23 口碑(上海)信息技术有限公司 推荐语的生成方法及装置
CN113409123A (zh) * 2021-07-01 2021-09-17 北京沃东天骏信息技术有限公司 一种信息推荐方法、装置、设备及存储介质
CN113688309A (zh) * 2021-07-23 2021-11-23 北京三快在线科技有限公司 一种生成模型的训练方法及推荐理由的生成方法和装置
WO2022001896A1 (zh) * 2020-07-01 2022-01-06 北京沃东天骏信息技术有限公司 推荐理由生成方法、装置、设备及存储介质
CN114722188A (zh) * 2022-06-09 2022-07-08 北京鑫宇创世科技有限公司 基于运营数据的广告生成方法、装置、设备及存储介质
CN114936301A (zh) * 2022-07-20 2022-08-23 深圳装速配科技有限公司 智能家居建材数据的管理方法、装置、设备及存储介质

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117521660A (zh) * 2022-07-29 2024-02-06 北京沃东天骏信息技术有限公司 文案生成方法、装置及存储介质

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020133384A1 (en) * 2001-03-16 2002-09-19 Dimitruk Paul Arthur Decision making and implementation system
US20120233020A1 (en) * 2008-01-02 2012-09-13 Turnto Networks, Inc. Using social network and transaction information
US20140358635A1 (en) * 2013-05-29 2014-12-04 International Business Machines Corporation Making product substitution recommendations
CN106649761A (zh) * 2016-12-27 2017-05-10 北京百度网讯科技有限公司 基于深度问答的搜索结果展现方法和装置
CN107918616A (zh) * 2016-10-09 2018-04-17 阿里巴巴集团控股有限公司 搜索系统、页面显示方法及客户端
CN110457452A (zh) * 2019-07-08 2019-11-15 汉海信息技术(上海)有限公司 推荐理由生成方法、装置、电子设备及可读存储介质
CN110458638A (zh) * 2019-06-26 2019-11-15 平安科技(深圳)有限公司 一种商品推荐方法及装置
CN110532463A (zh) * 2019-08-06 2019-12-03 北京三快在线科技有限公司 推荐理由生成装置及方法、存储介质以及电子设备
CN110990600A (zh) * 2019-12-04 2020-04-10 腾讯科技(深圳)有限公司 多媒体文件推荐、参数调整方法、装置、介质及电子设备

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4622589B2 (ja) * 2005-03-08 2011-02-02 ソニー株式会社 情報処理装置および方法、プログラム、並びに記録媒体
TW200923807A (en) * 2007-11-23 2009-06-01 Inst Information Industry Method and system for searching knowledge owner in network community
CN103914543B (zh) * 2014-04-03 2017-12-26 北京百度网讯科技有限公司 搜索结果的展现方法和装置
CN106776568A (zh) * 2016-12-26 2017-05-31 成都康赛信息技术有限公司 基于用户评价的推荐理由生成方法
CN107609960A (zh) * 2017-10-18 2018-01-19 口碑(上海)信息技术有限公司 推荐理由生成方法及装置
US10963750B2 (en) * 2018-01-04 2021-03-30 IAS Machine, LLC Procedural language and content generation environment for use in augmented reality/mixed reality systems to support laboratory and related operations
CN110188182B (zh) * 2019-05-31 2023-10-27 中国科学院深圳先进技术研究院 模型训练方法、对话生成方法、装置、设备及介质
CN112308650B (zh) * 2020-07-01 2022-09-30 北京沃东天骏信息技术有限公司 推荐理由生成方法、装置、设备及存储介质

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020133384A1 (en) * 2001-03-16 2002-09-19 Dimitruk Paul Arthur Decision making and implementation system
US20120233020A1 (en) * 2008-01-02 2012-09-13 Turnto Networks, Inc. Using social network and transaction information
US20140358635A1 (en) * 2013-05-29 2014-12-04 International Business Machines Corporation Making product substitution recommendations
CN107918616A (zh) * 2016-10-09 2018-04-17 阿里巴巴集团控股有限公司 搜索系统、页面显示方法及客户端
CN106649761A (zh) * 2016-12-27 2017-05-10 北京百度网讯科技有限公司 基于深度问答的搜索结果展现方法和装置
CN110458638A (zh) * 2019-06-26 2019-11-15 平安科技(深圳)有限公司 一种商品推荐方法及装置
CN110457452A (zh) * 2019-07-08 2019-11-15 汉海信息技术(上海)有限公司 推荐理由生成方法、装置、电子设备及可读存储介质
CN110532463A (zh) * 2019-08-06 2019-12-03 北京三快在线科技有限公司 推荐理由生成装置及方法、存储介质以及电子设备
CN110990600A (zh) * 2019-12-04 2020-04-10 腾讯科技(深圳)有限公司 多媒体文件推荐、参数调整方法、装置、介质及电子设备

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
SUN FUMIN等: "Recommendflow:Use Topic Model to Automatically Recommend Stack Overflow Q&A in IDE", 《ICST INSTITUTE FOR COMPUTER SCIENCES,SOCIAL INFORMATICS AND TELECOMMUNICATIONS ENGINEERING》 *
陈龙: "面向商品评论的文本智能理解", 《中国优秀博硕士学位论文全文数据库(博士)信息科技辑》 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022001896A1 (zh) * 2020-07-01 2022-01-06 北京沃东天骏信息技术有限公司 推荐理由生成方法、装置、设备及存储介质
CN113158056A (zh) * 2021-04-27 2021-07-23 口碑(上海)信息技术有限公司 推荐语的生成方法及装置
CN113409123A (zh) * 2021-07-01 2021-09-17 北京沃东天骏信息技术有限公司 一种信息推荐方法、装置、设备及存储介质
CN113688309A (zh) * 2021-07-23 2021-11-23 北京三快在线科技有限公司 一种生成模型的训练方法及推荐理由的生成方法和装置
CN113688309B (zh) * 2021-07-23 2022-11-29 北京三快在线科技有限公司 一种生成模型的训练方法及推荐理由的生成方法和装置
CN114722188A (zh) * 2022-06-09 2022-07-08 北京鑫宇创世科技有限公司 基于运营数据的广告生成方法、装置、设备及存储介质
CN114936301A (zh) * 2022-07-20 2022-08-23 深圳装速配科技有限公司 智能家居建材数据的管理方法、装置、设备及存储介质

Also Published As

Publication number Publication date
WO2022001896A1 (zh) 2022-01-06
CN112308650B (zh) 2022-09-30
US20230274332A1 (en) 2023-08-31
EP4177812A4 (en) 2024-06-12
EP4177812A1 (en) 2023-05-10

Similar Documents

Publication Publication Date Title
CN112308650B (zh) 推荐理由生成方法、装置、设备及存储介质
Liu et al. Assessing product competitive advantages from the perspective of customers by mining user-generated content on social media
Ren et al. Matching algorithms: Fundamentals, applications and challenges
Khan Development of an e-commerce sales Chatbot
CN111695024A (zh) 对象评估值的预测方法及系统、推荐方法及系统
Shen et al. A voice of the customer real-time strategy: An integrated quality function deployment approach
CN110362594A (zh) 一种信息处理方法和系统
Yan et al. Online doctor recommendation with convolutional neural network and sparse inputs
CN113139115A (zh) 信息推荐方法、搜索方法、装置及客户端、介质及设备
Shou et al. Predictions on usefulness and popularity of online reviews: evidence from mobile phones for older adults
Lee Extraction of competitive factors in a competitor analysis using an explainable neural network
WO2021223165A1 (en) Systems and methods for object evaluation
Zheng et al. Incorporating price into recommendation with graph convolutional networks
CN115659995B (zh) 一种文本情感分析方法和装置
Latha et al. Product recommendation using enhanced convolutional neural network for e-commerce platform
CN110020195B (zh) 文章推荐方法及装置、存储介质、电子设备
CN114429384B (zh) 基于电商平台的产品智能推荐方法及系统
Li et al. Wide & deep generative adversarial networks for recommendation system
CN112785391B (zh) 推荐处理方法、装置及智能设备、存储介质
Duan et al. MhSa-GRU: combining user’s dynamic preferences and items’ correlation to augment sequence recommendation
CN112488355A (zh) 基于图神经网络预测用户评级的方法和装置
Gao et al. E‐Commerce Personalized Recommendation Model Based on Semantic Sentiment
US11860917B1 (en) Catalog adoption in procurement
Peng et al. Personalized product recommendation model of automatic question answering robot based on deep learning
Sabharwal et al. An SVD-Entropy and bilinearity based product ranking algorithm using heterogeneous data

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant