CN112487141A - 推荐文案的生成方法、装置、设备及存储介质 - Google Patents
推荐文案的生成方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN112487141A CN112487141A CN202011356724.1A CN202011356724A CN112487141A CN 112487141 A CN112487141 A CN 112487141A CN 202011356724 A CN202011356724 A CN 202011356724A CN 112487141 A CN112487141 A CN 112487141A
- Authority
- CN
- China
- Prior art keywords
- word vector
- information
- recommended
- selling point
- file
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 70
- 239000013598 vector Substances 0.000 claims description 240
- 230000006870 function Effects 0.000 claims description 63
- 238000012549 training Methods 0.000 claims description 63
- 238000012952 Resampling Methods 0.000 claims description 46
- 238000012216 screening Methods 0.000 claims description 16
- 238000004590 computer program Methods 0.000 claims description 11
- 238000001914 filtration Methods 0.000 claims description 11
- 230000008451 emotion Effects 0.000 claims description 3
- 241000736199 Paeonia Species 0.000 description 11
- 235000006484 Paeonia officinalis Nutrition 0.000 description 11
- 238000010586 diagram Methods 0.000 description 11
- 241000238557 Decapoda Species 0.000 description 10
- 238000012545 processing Methods 0.000 description 8
- 241000143060 Americamysis bahia Species 0.000 description 3
- 235000009508 confectionery Nutrition 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 235000013399 edible fruits Nutrition 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 241000272814 Anser sp. Species 0.000 description 1
- 241000257465 Echinoidea Species 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 235000005911 diet Nutrition 0.000 description 1
- 230000037213 diet Effects 0.000 description 1
- 210000004185 liver Anatomy 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 235000016709 nutrition Nutrition 0.000 description 1
- 230000035764 nutrition Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9535—Search customisation based on user profiles and personalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本申请公开了一种推荐文案的生成方法、装置、设备及存储介质,涉及计算机技术领域。所述方法包括:获取目标商户的卖点信息以及文案内容引导信息,文案内容引导信息用于引导生成文案的内容;通过文案生成模型基于卖点信息和文案内容引导信息,生成与卖点信息相关的候选推荐文案;从候选推荐文案中选取合规的目标推荐文案。本申请实施例提供的技术方案,基于卖点信息,并通过文案内容引导信息引导文案生成模型,以生成与卖点信息相关的候选推荐文案。如此可以不局限于生成风格较为单一的候选推荐文案,在实现候选推荐文案内容的更加丰富化的同时,更可以提高候选推荐文案内容描述的准确性。
Description
技术领域
本申请实施例涉及计算机技术领域,特别涉及一种推荐文案的生成方法、装置、设备及存储介质。
背景技术
目前,人们可以通过文案生成模型,便捷地获取诸多文案。
在相关技术中,以获取商户的广告文案为例。通过给文案生成模型输入商户的卖点,即可获取与该卖点相关的推荐文案。其中,卖点可以是商户的推荐商品。例如,餐厅的推荐菜、酒店的推荐套餐、水果店的推荐水果等。但传统的文案生成模型输出的文案风格较为统一。例如,输入卖点A,可以的得到与卖点相关的推荐文案B、推荐文案C、推荐文案D等。其中,推荐文案B、推荐文案C和推荐文案D趋向于统一风格,推荐文案内容不够丰富化。
发明内容
本申请实施例提供了一种推荐文案的生成方法、装置、设备及存储介质,能够提高推荐文案内容的丰富性和准确性。所述技术方案如下:
根据本申请实施例的一个方面,提供了一种推荐文案的生成方法,所述方法包括:
获取目标商户的卖点信息以及文案内容引导信息,所述文案内容引导信息用于引导生成文案的内容;
通过文案生成模型基于所述卖点信息和所述文案内容引导信息,生成与所述卖点信息相关的候选推荐文案;
从所述候选推荐文案中选取合规的目标推荐文案。
根据本申请实施例的一个方面,提供了一种文案生成模型的训练方法,所述方法包括:
获取文案生成模型的训练样本,所述训练样本的样本数据包括样本商户的卖点信息和文案内容引导信息,所述文案内容引导信息用于引导生成文案的内容,所述训练样本的标签数据包括与所述卖点信息相关的标准推荐文案;
通过所述文案生成模型基于所述卖点信息和所述文案内容引导信息,生成与所述卖点信息相关的预测推荐文案;
基于所述预测推荐文案和所述标准推荐文案,确定所述文案生成模型的第一损失函数,所述第一损失函数用于衡量所述预测推荐文案和所述标准推荐文案之间的差异;
基于所述第一损失函数调整所述文案生成模型的参数。
根据本申请实施例的一个方面,提供了一种推荐文案的生成装置,所述装置包括:
信息获取模块,用于获取目标商户的卖点信息以及文案内容引导信息,所述文案内容引导信息用于引导生成文案的内容;
文案生成模块,用于通过文案生成模型基于所述卖点信息和所述文案内容引导信息,生成与所述卖点信息相关的候选推荐文案;
文案选取模块,用于从所述候选推荐文案中选取合规的目标推荐文案。
根据本申请实施例的一个方面,提供了一种文案生成模型的训练装置,所述装置包括:
训练样本获取模块,用于获取文案生成模型的训练样本,所述训练样本的样本数据包括样本商户的卖点信息和文案内容引导信息,所述文案内容引导信息用于引导生成文案的内容,所述训练样本的标签数据包括与所述卖点信息相关的标准推荐文案;
预测文案生成模块,用于通过所述文案生成模型基于所述卖点信息和所述文案内容引导信息,生成与所述卖点信息相关的预测推荐文案;
第一函数确定模块,用于基于所述预测推荐文案和所述标准推荐文案,确定所述文案生成模型的第一损失函数,所述第一损失函数用于衡量所述预测推荐文案和所述标准推荐文案之间的差异;
模型参数调整模块,用于基于所述第一损失函数调整所述文案生成模型的参数。
根据本申请实施例的一个方面,提供了一种计算机设备,所述计算机设备包括处理器和存储器,所述存储器中存储有计算机程序,所述计算机程序由所述处理器加载并执行以实现上述推荐文案的生成方法,或实现上述文案生成模型的训练方法。
根据本申请实施例的一个方面,提供了一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现上述推荐文案的生成方法,或实现上述文案生成模型的训练方法。
根据本申请实施例的一个方面,提供了一种计算机程序产品,当所述计算机程序产品在计算机设备上运行时,使得计算机设备执行上述推荐文案的生成方法,或实现上述文案生成模型的训练方法。
本申请实施例提供的技术方案可以包括如下有益效果:
基于卖点信息,并通过文案内容引导信息引导文案生成模型,以生成与卖点信息相关的候选推荐文案。如此可以不局限于生成风格较为单一的候选推荐文案,在实现候选推荐文案内容的更加丰富化的同时,更可以提高候选推荐文案内容描述的准确性。
另外,通过从候选推荐文案中选取合规的目标推荐文案,避免获得不合规的候选推荐文案,进一步地提高了目标推荐文案的合理性与规范性。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请一个实施例提供的方案实施环境的示意图;
图2是本申请一个实施例提供的推荐文案的生成方法的流程图;
图3是本申请一个实施例提供的训练样本的获取方法的流程图;
图4是本申请一个实施例提供的文案生成模型的训练方法的架构图;
图5是本申请一个实施例提供的推荐文案的生成方法的架构图;
图6是本申请一个实施例提供的文案生成模型的训练方法的流程图;
图7是本申请一个实施例提供的推荐文案的生成装置的框图;
图8是本申请另一个实施例提供的推荐文案的生成装置的框图;
图9是本申请一个实施例提供的文案生成模型的训练装置的框图;
图10是本申请另一个实施例提供的文案生成模型的训练装置的框图;
图11是本申请一个实施例提供的计算机设备的框图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
请参考图1,其示出了本申请一个实施例提供的方案实施环境的示意图。该方案实施环境可以实现成为一个推荐文案生成系统。该方案实施环境可以包括:终端10和服务器20。
终端10可以是诸如手机、平板电脑、PC(Personal Computer,个人计算机)、可穿戴设备等电子设备。用户可以通过终端10接入服务器20,并进行推荐文案生成操作。例如,终端10中可以安装目标应用程序的客户端,用户可以通过该客户端接入服务器20,并进行推荐文案生成操作。上述目标应用程序可以是任何提供推荐文案生成服务的应用程序,如文案生成类应用程序、广告生成类应用程序、评语生成类应用程序等,本申请实施例对此不作限定。
服务器20可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云计算服务的云服务器。服务器20用于为终端10中的目标应用程序的客户端提供后台服务。例如,服务器20可以是上述目标应用程序(如文案生成类应用程序)的后台服务器。
终端10和服务器20之间可以通过网络进行通信。
示例性地,用户在应用于目标应用程序(文案生成类应用程序)的客户端中输入了商户卖点(如餐厅卖点“牡丹虾”)和商户类目(如中国菜),客户端将商户卖点和商户类目发送至服务器20,服务器20将该商户卖点和商户类目输入至文案生成模型,由该文案生成模型输出与该商户卖点相关的推荐文案(如“牡丹虾又大又甜”)。
在相关技术中,用户通过基于Seq2seq(Sequence to Sequence,序列至序列)模型的文案生成模型,获取推荐文案。
以获取餐厅的卖点文案为例。用户通过对文案生成模型输入餐厅的卖点,以获取与该卖点相关的推荐文案。例如,若输入的卖点为A,则文案生成模型则输出与卖点A相关的推荐文案B。但是,由于Seq2seq模型属于平行预测模型,文案生成模型的输出偏向于风格较为统一的推荐文案。例如,A很脆、A很嫩、A很大等。
因此,上述相关技术提供的推荐文案生成方法,趋向于得到风格较为统一的推荐文案,而无法得到丰富化的推荐文案。
本申请实施例提供的技术方案,基于卖点信息,并通过文案内容引导信息引导文案生成模型,以生成与卖点信息相关的候选推荐文案,用户在从候选推荐文案中获取目标推荐文案。其中,文案生成模型是基于CVAE(Conditional Variational AutoEncoder,条件变分自动编码器)模型,如此可以不局限于生成风格较为单一的候选推荐文案。用户能够在得到内容更加丰富化的目标推荐文案的同时,获得内容更加准确的目标推荐文案。
下面,通过几个实施例对本申请技术方案进行介绍说明。
请参考图2,其示出了本申请一个实施例提供的推荐文案的生成方法的流程图。该方法可以包括如下几个步骤(201~203):
步骤201,获取目标商户的卖点信息以及文案内容引导信息,该文案内容引导信息用于引导生成文案的内容。
在本申请实施例中,目标商户是指有文案需求的商户。该目标商户可以是指诸如餐厅、酒店、超市等。目标商户也可以是有文案需求的个人用户,本申请实施例在此不作限定。目标商户的卖点信息是指目标商户的推荐商品信息。该推荐商品信息可以是推荐物品信息、推荐套餐信息、推荐服务信息等。例如,在目标商户为餐厅的情境下,该推荐商品信息可以是诸如牡丹虾、海胆、甜虾等推荐菜信息。
文案内容引导信息是指用于引导生成文案内容的信息,其可以引导生成文案内容的主题方向。文案内容引导信息可以引导文案对诸如卖点的口味、营养、外观、实用性、品质等方面做针对的介绍。文案内容引导信息可以是商户类目、卖点类目、商户所面向的客户等。例如,在目标商户为餐厅的情境下,文案内容引导信息可以是菜系,则文案内容对卖点的口味的介绍就偏向于该菜系。
在一个示例中,目标商户的卖点信息以及文案内容引导信息的具体获取步骤可以包括:获取目标商户的描述信息,该描述信息用于描述目标商户;从描述信息中提取卖点信息;根据描述信息,确定文案内容引导信息。其中,目标商户的描述信息是指用于描述目标商户的关联信息。其至少可以包括针对目标商户的UGC(User Generated Content,用户生成内容)信息、目标商户的团单信息、目标商户的简介信息等。
例如,参考图3,从商户的UCG信息301中,可以提取到卖点信息为牡丹虾、鹅肝寿司、寿喜锅等。根据商户的UCG信息301,可以确定文案内容引导信息为日本菜。
步骤202,通过文案生成模型基于卖点信息和文案内容引导信息,生成与卖点信息相关的候选推荐文案。
在本申请实施例中,文案生成模型用于生成候选推荐文案。可选地,文案生成模型可以采用CVAE模型。CVAE模型是一种深度神经网络生成模型,基于CVAE模型的文案生成模型的输出更具有丰富性。
在一个示例中,文案生成模型包括编码层、重采样层和解码层;候选推荐文案的生成具体内容可以包括:通过编码层确定卖点信息对应的词向量以及文案内容引导信息对应的词向量;通过重采样层基于卖点信息对应的词向量和文案内容引导信息对应的词向量,生成隐变量词向量;通过解码层基于隐变量词向量,生成候选推荐文案。
可选地,编码层用于将文案生成模型的输入信息(包括卖点信息和文案内容引导信息)转换成输入信息对应的词向量。例如,卖点信息为“牡丹虾”,则编码层将“牡丹虾”转换成“牡丹虾”对应的词向量。其中,词向量是指以定长的连续的稠密向量的形式替换词的表示形式,其可以被计算机等设备识别,词向量可用于替代文本中的词,词向量也称为词嵌入。例如:可以使用词向量A表示“牡”,词向量B表示“丹”,词向量C表示“虾”,则“牡丹虾”可以用词向量(A,B,C)表示。可选地,编码层输出的词向量是经过降维处理,即得到的是特征词向量。
可选地,重采样层用于将编码层的输出(词向量)生成隐变量词向量。其中,隐变量词向量是趋于标准正态分布的一种概率分布词向量,其用于表示多种候选推荐文案的生成可能,即不同种候选推荐文案的概率分布。
在一个示例中,隐变量词向量的具体生成内容可以包括:基于卖点信息对应的词向量和文案内容引导信息对应的词向量,生成组合词向量;获取组合词向量的方差词向量和均值词向量;基于方差词向量和均值词向量,生成隐变量词向量。
可选地,组合词向量是由卖点信息对应的词向量和文案内容引导信息对应的词向量组合而成的词向量。例如,设词向量X和词向量Y的维度为3维,词向量X的维度为A*B*C,词向量Y的维度为A*B*D,则拼接后得到的词向量为A*B*(C+D)。
可选地,基于组合词向量,通过全连接层获取方差词向量和均值词向量,再通过重新参数化得到隐变量词向量。隐变量词向量是一种基于位置参数为组合词向量的均值向量、尺度参数为组合词向量的方差向量的概率分布词向量。例如,组合词向量的方差向量为词向量A,组合词向量的均值向量为词向量B,则隐变量词向量是一种基于位置参数为词向量B、尺度参数为词向量A的概率分布词向量。
可选地,可以通过基于隐变量词向量生成候选推荐文案,具体内容可以包括:基于隐变量词向量,获取第一重采样样本词向量,该第一重采样样本词向量是指隐变量词向量中的任一词向量;基于第一重采样样本词向量和文案内容引导信息对应的词向量,生成第二重采样样本词向量;基于第二重采样样本词向量,生成候选推荐文案。
其中,第一重采样样本词向量用于生成第二重采样样本词向量,其可以从隐变量词向量中随机采样得到,基于不同的第一重采样样本词向量可以得到不同的候选推荐文案,其具体可以表现在文案的风格、长度等。第二重采样样本词向量由第一重采样样本词向量与文案内容信息对应的词向量组合得到。解码层对第二重采样样本词向量进行解码,生成候选推荐文案。
在一个示例性实施例中,参考图4,文案生成模型包括编码层401、重采样层402、解码层403。编码层401中的编码器可以采用LSTM(Long-Short Term Memory,长短期记忆网络)、GRU(Gate Recurrent Unit,循环神经网络)等。编码层401将卖点信息转换成卖点信息对应的词向量,将文案内容引导信息转换成文案内容引导信息对应的词向量。重采样层402基于卖点信息对应的词向量和文案内容引导信息对应的词向量,生成隐变量词向量。解码层403中的解码器可以采用LSTM、GRU等。解码层403基于隐变量词向量中的任一重采样样本词向量和文案内容引导信息对应的词向量,生成候选推荐文案404。
可选地,候选推荐文案是指文案生成模型生成的且未经筛选的文案。候选推荐文案用于介绍卖点信息。可选地,输入文案生成模型的卖点信息可以是多个。文案生成模型输出的文案可以是针对多个卖点信息的文案,即该文案由多个卖点信息对应的文案组成。候选推荐文案的风格具有多样性,其可以是诸如简约、华丽、自然、中式等风格。例如,在目标商户为餐厅的情境下,候选推荐文案可以是针对多个推荐菜的文案,候选推荐文案的风格可以是中式饮食风格。
需要说明的是,本申请对候选推荐文案内容的长短不作限定。
步骤203,从候选推荐文案中选取合规的目标推荐文案。
合规的目标推荐文案是指满足筛选规则的目标推荐文案。其中,筛选规则可以是指文案不重复、文案符合情理、文案不涉及同行对比等。
例如,参考图5,文案生成模型501生成候选推荐文案502,基于筛选规则,对候选推荐文案502进行筛选操作,从候选推荐文案502中剔除句子重复、涉及同行对比的文案,得到目标推荐文案503。
在一个实例中,从候选推荐文案中选取合规的目标推荐文案的具体内容可以包括:获取知识图谱,知识图谱用于筛选候选推荐文案;基于知识图谱从候选推荐文案中,筛选出合规的所目标推荐文案。
可选地,知识图谱可以包括商户、商户属性、商户卖点等信息,并将商户、商户属性、商户卖点等信息进行关联操作,以构建关于商户的信息网。可以通过信息网获取关于商户的准确信息,将候选推荐文案的内容信息与商户的准确信息进行比对,以确定候选推荐文案是否合规。例如,获取文案中的一个文本句子:“这家店的油爆虾非常香甜”,从已构建好的知识图谱中发现“油爆虾”对应的口味是“麻辣”,则可认为该句子不合理,需要从文案中剔除该句子。
综上所述,本申请实施例提供的技术方案,基于卖点信息,并通过文案内容引导信息引导文案生成模型,以生成与卖点信息相关的候选推荐文案。如此可以不局限于生成风格较为单一的候选推荐文案,在实现候选推荐文案内容的更加丰富化的同时,更可以提高候选推荐文案内容描述的准确性。
另外,通过从候选推荐文案中选取合规的目标推荐文案,避免获得不合规的候选推荐文案,进一步地提高了目标推荐文案的合理性与规范性。
上文对推荐文案的生成方法进行了介绍说明,下面将对文案生成模型的训练方法进行介绍说明:
请参考图6,其示出了本申请一个实施例提供的文案生成模型的训练方法的流程图。该方法可以包括如下几个步骤(601~604):
步骤601,获取文案生成模型的训练样本,训练样本的样本数据包括样本商户的卖点信息和文案内容引导信息,文案内容引导信息用于引导生成文案的内容,训练样本的标签数据包括与卖点信息相关的标准推荐文案。
训练样本用于训练文案生成模型。训练样本是一个文本数据,该文本数据可以包括商户的卖点信息、文案内容引导信息等文本数据。此处商户的卖点信息和文案内容引导信息同于上述实施例所介绍。可选地,训练样本可以包括多种商户的多种卖点信息,即训练样本对应的目标商户可以是多个,训练样本对应的卖点信息可以是多个。如此训练得到的文案生成模型更具全面性。
可选地,训练样本的标签数据用于区别于其它训练样本。在本申请实施例中,训练样本的标签数据可以包括与卖点信息相关的标准推荐文案。其中,标准推荐文案是指满足商户需求的文案。内容相同但风格不同的标准推荐文案所形成的训练样本不同,如此可以提高文案生成模型输出的丰富性。标准推荐文案与卖点信息相关,其可以是针对多个卖点信息的文案。可选地,标准推荐文案可以从样本商户的描述信息中获取。描述信息同于上述实施例所介绍。
在一个示例中,获取文案生成模型的训练样本的具体内容可以包括:获取样本商户的描述信息,描述信息用于描述样本商户;根据描述信息,确定文案内容引导信息;从描述信息中选取合规的目标描述信息;根据目标描述信息,确定目标描述信息的分句;对目标描述信息的分句进行筛选操作,筛选操作包括以下至少一项:情感分析、过滤黑词、过滤品牌词和识别内容。获取样本商户的卖点信息以及与卖点信息相关的标准推荐文案。可选地,情感分析用于排除负向情感分句。过滤黑词用于排除含有黑词的分句。过滤品牌词用于过滤含有品牌词的分句。识别内容用于排除未涉及卖点信息的分句。
例如,参考图3,在获取商户的UCG信息之后,通过诸如UCG信息的长度、星级等规则,筛选出合规的UCG信息301。其中,该规则可以是长度大于10、星级大于3等。对UCG信息301进行分句操作,得到UCG信息分句302。然后针对UCG信息分句302进行筛选操作,得到UCG信息筛选分句303。最后从UCG信息筛选分句303中,获取卖点信息(如“牡丹虾”)以及与卖点信息相关的标准推荐文案(如“牡丹虾又大又甜,新鲜没有腥味”),并且将卖点信息与标准推荐文案进行映射关联操作,得到卖点信息与标准推荐文案的映射关系304。
步骤602,通过文案生成模型基于卖点信息和文案内容引导信息,生成与卖点信息相关的预测推荐文案。
预测推荐文案是指与卖点信息相关的预测文案。可选地,预测推荐文案的特征词向量与标准推荐文案的特征词向量不尽相同,即预测推荐文案所表述的内容信息与标准推荐文案所表述的内容信息相似,都用于描述卖点信息,但在文案的风格、内容、大小等方面存在差异。例如,预测推荐文案对卖点信息的描述篇幅可以多于标准推荐文案对卖点信息的描述篇幅。
可选地,文案生成模型可以包括编码层、重采样层和解码层;其中,可以通过编码层确定卖点信息对应的词向量以及文案内容引导信息对应的词向量;通过重采样层基于卖点信息对应的词向量和文案内容引导信息对应的词向量,生成隐变量词向量;通过解码层基于隐变量词向量,生成预测推荐文案。
可选地,基于卖点信息对应的词向量和文案内容引导信息对应的词向量,生成组合词向量;获取组合词向量的方差词向量和均值词向量;基于方差词向量和均值词向量,生成隐变量词向量。
可选地,可以通过解码层基于隐变量词向量,生成预测推荐文案,其具体内容可以包括:基于隐变量词向量,获取第一重采样样本词向量,第一重采样样本词向量是指隐变量词向量中的任一词向量;基于第一重采样样本词向量和文案内容引导信息对应的词向量,生成第二重采样样本词向量。基于第二重采样样本词向量,生成预测推荐文案。
步骤603,基于预测推荐文案和标准推荐文案,确定文案生成模型的第一损失函数,该第一损失函数用于衡量预测推荐文案和标准推荐文案之间的差异。
可选地,第一损失函数是指标准推荐文案的特征词向量与预测推荐文案的特征词向量的二元交叉熵函数。通过第一损失函数拉近标准推荐文案的特征词向量与预测推荐文案的特征词向量的空间距离,即让预测推荐文案和标准推荐文案足够像。
步骤604,基于第一损失函数调整文案生成模型的参数。
可选地,可以通过不断地优化第一损失函数来调整文案生成模型的参数,即文案生成模型的总损失函数为第一损失函数。通过反向传播算法来更新文案生成模型的权重,直到达到设定的最大迭代次数(一般设定1000次左右)。随着迭代次数的增加,文案生成模型的总损失函数逐渐减小,直到最后趋于平稳,即表明总损失函数已经收敛。参数得到优化后的文案生成模型,可以生成与标准推荐文案足够像的预测推荐文案。
在一个示例中,调整文案生成模型的参数的具体内容还可以包括:基于隐变量词向量,确定文案生成模型的第二损失函数,第二损失函数用于衡量隐变量词向量和标准正态分布向量之间的差异;基于第一损失函数和第二损失函数,调整文案生成模型的参数。
可选地,第二损失函数是Kullback-Leibler散度。通过第二损失函数,可以使得隐变量词向量的分布与正态分布尽可能的相似。文案生成模型的总损失函数为第一损失函数和第二损失函数的和。通过反向传播算法来更新文案生成模型的权重,直到达到设定的最大迭代次数(一般设定1000次左右),即通过不断的调整文案生成模型的参数,以达到训练文案生成模型的目的。
综上所述,本申请实施例提供的技术方案,通过将基于卖点信息和文案内容引导信息得到的预测推荐文案与标准推荐文案进行比对,确定第一损失函数,并通过第一损失函数调整文案生成模型的参数,以达到训练文案生成模型的目的。在训练过程中,不仅要确保预测推荐文案与标准推荐文案一样具有多样性,还要通过文案引导内容引导预测推荐文案的内容,如此可以提高文案生成模型输出的多样性以及准确性。
另外,通过基于第一损失函数和第二损失函数来训练文案生成模型,从而使得文案生成模型的参数更加优化,进一步提高了文案生成模型输出的准确性。
另外,通过对商户描述信息的进行筛选,以获得优质的输入样本,以优质的输入样本训练文案生成模型,进一步优化了文案生成模型的输出。
下述为本申请装置实施例,可以用于执行本申请方法实施例。对于本申请装置实施例中未披露的细节,请参照本申请方法实施例。
参考图7,其示出了本申请一个实施例提供的推荐文案的生成装置的框图。该装置具有实现上述方法示例的功能,所述功能可以由硬件实现,也可以由硬件执行相应的软件实现。该装置可以是上文介绍的计算机设备,也可以设置在计算机设备中。如图7所示,该装置700包括:信息获取模块701、文案生成模块702和文案选取模块703。
信息获取模块701,用于获取目标商户的卖点信息以及文案内容引导信息,所述文案内容引导信息用于引导生成文案的内容。
文案生成模块702,用于通过文案生成模型基于所述卖点信息和所述文案内容引导信息,生成与所述卖点信息相关的候选推荐文案。
文案选取模块703,用于从所述候选推荐文案中选取合规的目标推荐文案。
在一个示例性实施例中,所述文案生成模型包括编码层、重采样层和解码层;如图8所示,所述文案生成模块702包括:词向量确定子模块702a、词向量生成子模块702b和文案生成子模块702c。
词向量确定子模块702a,用于通过所述编码层确定所述卖点信息对应的词向量以及所述文案内容引导信息对应的词向量。
词向量生成子模块702b,用于通过所述重采样层基于所述卖点信息对应的词向量和所述文案内容引导信息对应的词向量,生成隐变量词向量。
文案生成子模块702c,用于通过所述解码层基于所述隐变量词向量,生成所述候选推荐文案。
在一个示例性实施例中,所述词向量生成子模块702b,用于:
基于所述卖点信息对应的词向量和所述文案内容引导信息对应的词向量,生成组合词向量;
获取所述组合词向量的方差词向量和均值词向量;
基于所述方差词向量和所述均值词向量,生成所述隐变量词向量。
在一个示例性实施例中,所述文案生成子模块702c,用于:
基于所述隐变量词向量,获取第一重采样样本词向量,所述第一重采样样本词向量是指所述隐变量词向量中的任一词向量;
基于所述第一重采样样本词向量和所述文案内容引导信息对应的词向量,生成第二重采样样本词向量;
基于所述第二重采样样本词向量,生成所述候选推荐文案。
在一个示例性实施例中,所述文案选取模块703用于获取知识图谱,所述知识图谱用于筛选所述候选推荐文案;基于所述知识图谱从所述候选推荐文案中,筛选出合规的所述目标推荐文案。
在一个示例性实施例中,所述信息获取模块701,用于:
获取所述目标商户的描述信息,所述描述信息用于描述所述目标商户;
从所述描述信息中提取所述卖点信息;
根据所述描述信息,确定所述文案内容引导信息。
综上所述,本申请实施例提供的技术方案,基于卖点信息,并通过文案内容引导信息引导文案生成模型,以生成与卖点信息相关的候选推荐文案。如此可以不局限于生成风格较为单一的候选推荐文案,在实现候选推荐文案内容的更加丰富化的同时,更提高了候选推荐文案内容描述的准确性。
参考图9,其示出了本申请一个实施例提供的文案生成模型的训练装置的框图。该装置具有实现上述方法示例的功能,所述功能可以由硬件实现,也可以由硬件执行相应的软件实现。该装置可以是上文介绍的计算机设备,也可以设置在计算机设备中。如图9所示,该装置900包括:训练样本获取模块901、预测文案生成模块902、第一函数确定模块903和模型参数调整模块904。
训练样本获取模块901,用于获取文案生成模型的训练样本,所述训练样本的样本数据包括样本商户的卖点信息和文案内容引导信息,所述文案内容引导信息用于引导生成文案的内容,所述训练样本的标签数据包括与所述卖点信息相关的标准推荐文案。
预测文案生成模块902,用于通过所述文案生成模型基于所述卖点信息和所述文案内容引导信息,生成与所述卖点信息相关的预测推荐文案。
第一函数确定模块903,用于基于所述预测推荐文案和所述标准推荐文案,确定所述文案生成模型的第一损失函数,所述第一损失函数用于衡量所述预测推荐文案和所述标准推荐文案之间的差异。
模型参数调整模块904,用于基于所述第一损失函数调整所述文案生成模型的参数。
在一个示例性实施例中,所述文案生成模型包括编码层、重采样层和解码层;如图10所示,所述预测文案生成模块902包括:词向量确定子模块902a、词向量生成子模块902b和预测文案生成子模块902c。
词向量确定子模块902a,用于通过所述编码层确定所述卖点信息对应的词向量以及所述文案内容引导信息对应的词向量。
词向量生成子模块902b,用于通过所述重采样层基于所述卖点信息对应的词向量和所述文案内容引导信息对应的词向量,生成隐变量词向量。
预测文案生成子模块902c,用于通过所述解码层基于所述隐变量词向量,生成所述预测推荐文案。
在一个示例性实施例中,所述词向量生成子模块902b,用于:
基于所述卖点信息对应的词向量和所述文案内容引导信息对应的词向量,生成组合词向量;
获取所述组合词向量的方差词向量和均值词向量;
基于所述方差词向量和所述均值词向量,生成所述隐变量词向量。
在一个示例性实施例中,所述预测文案生成子模块902c,用于:
基于所述隐变量词向量,获取第一重采样样本词向量,所述第一重采样样本词向量是指所述隐变量词向量中的任一词向量;
基于所述第一重采样样本词向量和所述文案内容引导信息对应的词向量,生成第二重采样样本词向量;
基于所述第二重采样样本词向量,生成所述预测推荐文案。
在一个示例性实施例中,如图10所示,所述装置900还包括:第二函数确定模块905。
第二函数确定模块905,用于基于所述隐变量词向量,确定所述文案生成模型的第二损失函数,所述第二损失函数用于衡量所述隐变量词向量和标准正态分布向量之间的差异。
所述模型参数调整模块904还用于基于所述第一损失函数和所述第二损失函数,调整所述文案生成模型的参数。
在一个示例性实施例中,所述训练样本获取模块901,用于:
获取样本商户的描述信息,所述描述信息用于描述所述样本商户;
根据所述描述信息,确定所述文案内容引导信息;
从所述描述信息中选取合规的目标描述信息;
根据所述目标描述信息,确定所述目标描述信息的分句;
对所述目标描述信息的分句进行筛选操作,所述筛选操作包括以下至少一项:情感分析、过滤黑词、过滤品牌词和识别内容。
获取所述样本商户的卖点信息以及与所述卖点信息相关的标准推荐文案。
综上所述,本申请实施例提供的技术方案,通过将基于卖点信息和文案内容引导信息得到的预测推荐文案与标准推荐文案进行比对,确定第一损失函数,并通过第一损失函数调整文案生成模型的参数,以达到训练文案生成模型的目的。在训练过程中,不仅要确保预测推荐文案与标准推荐文案一样具有多样性,还要通过文案引导内容引导预测推荐文案的内容,如此可以提高文案生成模型输出的多样性以及准确性。
需要说明的是,上述实施例提供的装置,在实现其功能时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的装置与方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
请参考图11,其示出了本申请一个实施例提供的计算机设备的结构框图。该计算机设备可以用于实施上述实施例中提供的推荐文案的生成方法,或文案生成模型的训练方法。具体来讲:
该计算机设备1100包括处理单元(如CPU(Central Processing Unit,中央处理器)、GPU(Graphics Processing Unit,图形处理器)和FPGA(Field Programmable GateArray,现场可编程逻辑门阵列)等)1101、包括RAM(Random-Access Memory,随机存储器)1102和ROM(Read-Only Memory,只读存储器)1103的系统存储器1104,以及连接系统存储器1104和中央处理单元1101的系统总线1105。该计算机设备1100还包括帮助服务器内的各个器件之间传输信息的基本输入/输出系统(Input Output System,I/O系统)1106,和用于存储操作系统1113、应用程序1114和其他程序模块1115的大容量存储设备1107。
该基本输入/输出系统1106包括有用于显示信息的显示器1108和用于用户输入信息的诸如鼠标、键盘之类的输入设备1110。其中,该显示器1108和输入设备1109都通过连接到系统总线1105的输入输出控制器1110连接到中央处理单元1101。该基本输入/输出系统1106还可以包括输入输出控制器1110以用于接收和处理来自键盘、鼠标、或电子触控笔等多个其他设备的输入。类似地,输入输出控制器1110还提供输出到显示屏、打印机或其他类型的输出设备。
该大容量存储设备1107通过连接到系统总线1105的大容量存储控制器(未示出)连接到中央处理单元1101。该大容量存储设备1107及其相关联的计算机可读介质为计算机设备1100提供非易失性存储。也就是说,该大容量存储设备1107可以包括诸如硬盘或者CD-ROM(Compact Disc Read-Only Memory,只读光盘)驱动器之类的计算机可读介质(未示出)。
不失一般性,该计算机可读介质可以包括计算机存储介质和通信介质。计算机存储介质包括以用于存储诸如计算机可读指令、数据结构、程序模块或其他数据等信息的任何方法或技术实现的易失性和非易失性、可移动和不可移动介质。计算机存储介质包括RAM、ROM、EPROM(Erasable Programmable Read-Only Memory,可擦写可编程只读存储器)、EEPROM(Electrically Erasable Programmable Read-Only Memory,电可擦写可编程只读存储器)、闪存或其他固态存储其技术,CD-ROM、DVD(Digital Video Disc,高密度数字视频光盘)或其他光学存储、磁带盒、磁带、磁盘存储或其他磁性存储设备。当然,本领域技术人员可知该计算机存储介质不局限于上述几种。上述的系统存储器1104和大容量存储设备1107可以统称为存储器。
根据本申请实施例,该计算机设备1100还可以通过诸如因特网等网络连接到网络上的远程计算机运行。也即计算机设备1100可以通过连接在该系统总线1105上的网络接口单元1111连接到网络1112,或者说,也可以使用网络接口单元1111来连接到其他类型的网络或远程计算机系统(未示出)。
所述存储器还包括计算机程序,该计算机程序存储于存储器中,且经配置以由一个或者一个以上处理器执行,以实现上述推荐文案的生成方法,或实现上述文案生成模型的训练方法。
在一个示例性实施例中,还提供了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被服务器的处理器执行时以实现上述推荐文案的生成方法,或实现上述文案生成模型的训练方法。
可选地,该计算机可读存储介质可以包括:ROM(Read-Only Memory,只读存储器)、RAM(Random-Access Memory,随机存储器)、SSD(Solid State Drives,固态硬盘)或光盘等。其中,随机存取记忆体可以包括ReRAM(Resistance Random Access Memory,电阻式随机存取记忆体)和DRAM(Dynamic Random Access Memory,动态随机存取存储器)。
在一个示例性实施例中,还提供一种计算机程序产品,所述计算机程序产品被处理器执行时,用于实现上述推荐文案的生成方法,或实现上述文案生成模型的训练方法。
应当理解的是,在本文中提及的“多个”是指两个或两个以上。“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。字符“/”一般表示前后关联对象是一种“或”的关系。另外,本文中描述的步骤编号,仅示例性示出了步骤间的一种可能的执行先后顺序,在一些其它实施例中,上述步骤也可以不按照编号顺序来执行,如两个不同编号的步骤同时执行,或者两个不同编号的步骤按照与图示相反的顺序执行,本申请实施例对此不作限定。
以上所述仅为本申请的示例性实施例,并不用以限制本申请,凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。
Claims (16)
1.一种推荐文案的生成方法,其特征在于,所述方法包括:
获取目标商户的卖点信息以及文案内容引导信息,所述文案内容引导信息用于引导生成文案的内容;
通过文案生成模型基于所述卖点信息和所述文案内容引导信息,生成与所述卖点信息相关的候选推荐文案;
从所述候选推荐文案中选取合规的目标推荐文案。
2.根据权利要求1所述的方法,其特征在于,所述文案生成模型包括编码层、重采样层和解码层;
所述通过文案生成模型基于所述卖点信息和所述文案内容引导信息,生成与所述卖点信息相关的候选推荐文案,包括:
通过所述编码层确定所述卖点信息对应的词向量以及所述文案内容引导信息对应的词向量;
通过所述重采样层基于所述卖点信息对应的词向量和所述文案内容引导信息对应的词向量,生成隐变量词向量;
通过所述解码层基于所述隐变量词向量,生成所述候选推荐文案。
3.根据权利要求2所述的方法,其特征在于,所述通过所述重采样层基于所述卖点信息对应的词向量和所述文案内容引导信息对应的词向量,生成隐变量词向量,包括:
基于所述卖点信息对应的词向量和所述文案内容引导信息对应的词向量,生成组合词向量;
获取所述组合词向量的方差词向量和均值词向量;
基于所述方差词向量和所述均值词向量,生成所述隐变量词向量。
4.根据权利要求2所述的方法,其特征在于,所述通过所述解码层基于所述隐变量词向量,生成所述候选推荐文案,包括:
基于所述隐变量词向量,获取第一重采样样本词向量,所述第一重采样样本词向量是指所述隐变量词向量中的任一词向量;
基于所述第一重采样样本词向量和所述文案内容引导信息对应的词向量,生成第二重采样样本词向量;
基于所述第二重采样样本词向量,生成所述候选推荐文案。
5.根据权利要求1所述的方法,其特征在于,所述从所述候选推荐文案中选取合规的目标推荐文案,包括:
获取知识图谱,所述知识图谱用于筛选所述候选推荐文案;
基于所述知识图谱从所述候选推荐文案中,筛选出合规的所述目标推荐文案。
6.根据权利要求1至5任一项所述的方法,其特征在于,所述获取目标商户的卖点信息以及文案内容引导信息,包括:
获取所述目标商户的描述信息,所述描述信息用于描述所述目标商户;
从所述描述信息中提取所述卖点信息;
根据所述描述信息,确定所述文案内容引导信息。
7.一种文案生成模型的训练方法,其特征在于,所述方法包括:
获取文案生成模型的训练样本,所述训练样本的样本数据包括样本商户的卖点信息和文案内容引导信息,所述文案内容引导信息用于引导生成文案的内容,所述训练样本的标签数据包括与所述卖点信息相关的标准推荐文案;
通过所述文案生成模型基于所述卖点信息和所述文案内容引导信息,生成与所述卖点信息相关的预测推荐文案;
基于所述预测推荐文案和所述标准推荐文案,确定所述文案生成模型的第一损失函数,所述第一损失函数用于衡量所述预测推荐文案和所述标准推荐文案之间的差异;
基于所述第一损失函数调整所述文案生成模型的参数。
8.根据权利要求7所述的方法,其特征在于,所述文案生成模型包括编码层、重采样层和解码层;
所述通过所述文案生成模型基于所述卖点信息和所述文案内容引导信息,生成与所述卖点信息相关的预测推荐文案,包括:
通过所述编码层确定所述卖点信息对应的词向量以及所述文案内容引导信息对应的词向量;
通过所述重采样层基于所述卖点信息对应的词向量和所述文案内容引导信息对应的词向量,生成隐变量词向量;
通过所述解码层基于所述隐变量词向量,生成所述预测推荐文案。
9.根据权利要求8所述的方法,其特征在于,所述通过所述重采样层基于所述卖点信息对应的词向量和所述文案内容引导信息对应的词向量,生成隐变量词向量,包括:
基于所述卖点信息对应的词向量和所述文案内容引导信息对应的词向量,生成组合词向量;
获取所述组合词向量的方差词向量和均值词向量;
基于所述方差词向量和所述均值词向量,生成所述隐变量词向量。
10.根据权利要求8所述的方法,其特征在于,所述通过所述解码层基于所述隐变量词向量,生成所述预测推荐文案,包括:
基于所述隐变量词向量,获取第一重采样样本词向量,所述第一重采样样本词向量是指所述隐变量词向量中的任一词向量;
基于所述第一重采样样本词向量和所述文案内容引导信息对应的词向量,生成第二重采样样本词向量;
基于所述第二重采样样本词向量,生成所述预测推荐文案。
11.根据权利要求9所述的方法,其特征在于,所述通过所述文案生成模型基于所述卖点信息和所述文案内容引导信息,生成所述卖点信息相关的预测推荐文案之后,还包括:
基于所述隐变量词向量,确定所述文案生成模型的第二损失函数,所述第二损失函数用于衡量所述隐变量词向量和标准正态分布向量之间的差异;
所述基于所述第一损失函数调整所述文案生成模型的参数,包括:
基于所述第一损失函数和所述第二损失函数,调整所述文案生成模型的参数。
12.根据权利要求7至11任一项所述的方法,其特征在于,所述获取文案生成模型的训练样本,包括:
获取样本商户的描述信息,所述描述信息用于描述所述样本商户;
根据所述描述信息,确定所述文案内容引导信息;
从所述描述信息中选取合规的目标描述信息;
根据所述目标描述信息,确定所述目标描述信息的分句;
对所述目标描述信息的分句进行筛选操作,所述筛选操作包括以下至少一项:情感分析、过滤黑词、过滤品牌词和识别内容;
获取所述样本商户的卖点信息以及与所述卖点信息相关的标准推荐文案。
13.一种推荐文案的生成装置,其特征在于,所述装置包括:
信息获取模块,用于获取目标商户的卖点信息以及文案内容引导信息,所述文案内容引导信息用于引导生成文案的内容;
文案生成模块,用于通过文案生成模型基于所述卖点信息和所述文案内容引导信息,生成与所述卖点信息相关的候选推荐文案;
文案选取模块,用于从所述候选推荐文案中选取合规的目标推荐文案。
14.一种文案生成模型的训练装置,其特征在于,所述装置包括:
训练样本获取模块,用于获取文案生成模型的训练样本,所述训练样本的样本数据包括样本商户的卖点信息和文案内容引导信息,所述文案内容引导信息用于引导生成文案的内容,所述训练样本的标签数据包括与所述卖点信息相关的标准推荐文案;
预测文案生成模块,用于通过所述文案生成模型基于所述卖点信息和所述文案内容引导信息,生成与所述卖点信息相关的预测推荐文案;
第一函数确定模块,用于基于所述预测推荐文案和所述标准推荐文案,确定所述文案生成模型的第一损失函数,所述第一损失函数用于衡量所述预测推荐文案和所述标准推荐文案之间的差异;
模型参数调整模块,用于基于所述第一损失函数调整所述文案生成模型的参数。
15.一种计算机设备,其特征在于,所述计算机设备包括处理器和存储器,所述存储器中存储有计算机程序,所述计算机程序由所述处理器加载并执行以实现如权利要求1至6任一项所述的推荐文案的生成方法,或如权利要求7至12任一项所述的文案生成模型的训练方法。
16.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至6任一项所述的推荐文案的生成方法,或如权利要求7至12任一项所述的文案生成模型的训练方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011356724.1A CN112487141A (zh) | 2020-11-26 | 2020-11-26 | 推荐文案的生成方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011356724.1A CN112487141A (zh) | 2020-11-26 | 2020-11-26 | 推荐文案的生成方法、装置、设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112487141A true CN112487141A (zh) | 2021-03-12 |
Family
ID=74936068
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011356724.1A Withdrawn CN112487141A (zh) | 2020-11-26 | 2020-11-26 | 推荐文案的生成方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112487141A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113420217A (zh) * | 2021-06-25 | 2021-09-21 | 北京三快在线科技有限公司 | 生成文案的方法、装置、电子设备和计算机可读存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105631707A (zh) * | 2015-12-23 | 2016-06-01 | 北京奇虎科技有限公司 | 基于决策树的广告点击率预估方法与应用推荐方法及装置 |
CN110263150A (zh) * | 2019-03-05 | 2019-09-20 | 腾讯科技(深圳)有限公司 | 文本生成方法、装置、计算机设备及存储介质 |
CN110765273A (zh) * | 2019-09-17 | 2020-02-07 | 北京三快在线科技有限公司 | 推荐文案生成方法、装置、电子设备及可读存储介质 |
CN110852793A (zh) * | 2019-10-28 | 2020-02-28 | 北京深演智能科技股份有限公司 | 文案推荐方法及装置、电子设备 |
CN111198955A (zh) * | 2020-01-09 | 2020-05-26 | 广东博智林机器人有限公司 | 文案搜索和知识图谱构建的方法、装置、设备及存储介质 |
WO2020143186A1 (zh) * | 2019-01-10 | 2020-07-16 | 平安科技(深圳)有限公司 | 推荐系统训练方法、装置、计算机设备及存储介质 |
CN111680217A (zh) * | 2020-05-27 | 2020-09-18 | 腾讯科技(深圳)有限公司 | 内容推荐方法、装置、设备及存储介质 |
-
2020
- 2020-11-26 CN CN202011356724.1A patent/CN112487141A/zh not_active Withdrawn
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105631707A (zh) * | 2015-12-23 | 2016-06-01 | 北京奇虎科技有限公司 | 基于决策树的广告点击率预估方法与应用推荐方法及装置 |
WO2020143186A1 (zh) * | 2019-01-10 | 2020-07-16 | 平安科技(深圳)有限公司 | 推荐系统训练方法、装置、计算机设备及存储介质 |
CN110263150A (zh) * | 2019-03-05 | 2019-09-20 | 腾讯科技(深圳)有限公司 | 文本生成方法、装置、计算机设备及存储介质 |
CN110765273A (zh) * | 2019-09-17 | 2020-02-07 | 北京三快在线科技有限公司 | 推荐文案生成方法、装置、电子设备及可读存储介质 |
CN110852793A (zh) * | 2019-10-28 | 2020-02-28 | 北京深演智能科技股份有限公司 | 文案推荐方法及装置、电子设备 |
CN111198955A (zh) * | 2020-01-09 | 2020-05-26 | 广东博智林机器人有限公司 | 文案搜索和知识图谱构建的方法、装置、设备及存储介质 |
CN111680217A (zh) * | 2020-05-27 | 2020-09-18 | 腾讯科技(深圳)有限公司 | 内容推荐方法、装置、设备及存储介质 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113420217A (zh) * | 2021-06-25 | 2021-09-21 | 北京三快在线科技有限公司 | 生成文案的方法、装置、电子设备和计算机可读存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2019505936A (ja) | 人工ニューラルネットワークを使用したウェブインタフェースの生成及びテスト | |
CN112395487B (zh) | 信息推荐方法、装置、计算机可读存储介质及电子设备 | |
CN112241626A (zh) | 一种语义匹配、语义相似度模型训练方法及装置 | |
CN108268629B (zh) | 基于关键词的图像描述方法和装置、设备、介质 | |
CN110750697A (zh) | 商户分类方法、装置、设备及存储介质 | |
CN115033801A (zh) | 物品推荐方法、模型训练方法及电子设备 | |
CN114612921A (zh) | 表单识别方法、装置、电子设备和计算机可读介质 | |
CN112487141A (zh) | 推荐文案的生成方法、装置、设备及存储介质 | |
Xu | Machine Learning for Flavor Development | |
CN113327132A (zh) | 多媒体推荐方法、装置、设备及存储介质 | |
CN113032676A (zh) | 基于微反馈的推荐方法和系统 | |
CN112232067A (zh) | 文案生成方法、文案评估模型的训练方法、装置及设备 | |
CN116756281A (zh) | 知识问答方法、装置、设备和介质 | |
CN111949789A (zh) | 文本分类方法和文本分类系统 | |
CN116186541A (zh) | 一种推荐模型的训练方法及装置 | |
CN112784861A (zh) | 相似度的确定方法、装置、电子设备和存储介质 | |
US20190325050A1 (en) | Natural language processing social-based matrix refactorization | |
CN115690816A (zh) | 一种文本要素提取方法、装置、设备和介质 | |
CN115238676A (zh) | 招标需求热点识别方法、装置、存储介质及电子设备 | |
CN115345669A (zh) | 文案生成方法、装置、存储介质及计算机设备 | |
CN114677174A (zh) | 一种计算未上架物品销量的方法和装置 | |
CN115116080A (zh) | 表格解析方法、装置、电子设备和存储介质 | |
Mengle et al. | Mastering machine learning on Aws: advanced machine learning in Python using SageMaker, Apache Spark, and TensorFlow | |
CN114429384A (zh) | 基于电商平台的产品智能推荐方法及系统 | |
CN111784377B (zh) | 用于生成信息的方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20210312 |