CN109522531B - 文案生成方法和装置、存储介质及电子装置 - Google Patents
文案生成方法和装置、存储介质及电子装置 Download PDFInfo
- Publication number
- CN109522531B CN109522531B CN201710846808.5A CN201710846808A CN109522531B CN 109522531 B CN109522531 B CN 109522531B CN 201710846808 A CN201710846808 A CN 201710846808A CN 109522531 B CN109522531 B CN 109522531B
- Authority
- CN
- China
- Prior art keywords
- information
- file
- sequence
- pattern
- generation model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/166—Editing, e.g. inserting or deleting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Abstract
本发明公开了一种文案生成方法和装置、存储介质及电子装置。其中,该方法包括:获取待生成的文案的配置信息;将配置信息导入深度文案生成模型中,其中,深度文案生成模型利用在线样本文案训练得到;获取深度文案生成模型所输出的与目标文案对应的目标词序列,其中,目标文案的点击率大于等于第一预定阈值;根据目标词序列生成目标文案。本发明解决了现有的文案生成方法所生成的文案质量较差的技术问题。
Description
技术领域
本发明涉及计算机领域,具体而言,涉及一种文案生成方法和装置、存储介质及电子装置。
背景技术
文案是指结合文字、图像等元素来表现所制定的创意策略。例如,上述文案可以包括:广告文案、邮件文案及其他用于宣传推广活动中的文案。
为了提高文案的生成效率,目前很多企业会选择使用一种结合用户输入的配置信息,来自动生成与用户需求相匹配的个性化文案的自动化工具。例如,以电子邮件文案为例,使用自然语言生成技术产出多个版本的措辞。也就是说,在获取到用户输入的情绪要求、功能描述和格式元素等关键词配置信息之后,结合上述配置信息,选出一个版本的措辞,以生成邮件文案中的大部分内容措辞,从而减少工作人员所需填写的邮件内容。
然而,在通过上述自动化工具生成文案时,实际上是利用通用版本中的措辞和人工填写的内容来组合生成文案,这种组合得到的文案,虽然较贴近用户的个性化需求,但却无法保证所生成的文案可以受到更多关注,达到宣传推广的效果。也就是说,采用现有的文案生成方式所生成的文案存在质量较差的问题
针对上述的问题,目前尚未提出有效的解决方案。
发明内容
本发明实施例提供一种文案生成方法和装置、存储介质及电子装置,以至少解决现有的文案生成方法所生成的文案质量较差的技术问题。
根据本发明实施例的一个方面,提供了一种文案生成方法,包括:获取待生成的文案的配置信息;将上述配置信息导入深度文案生成模型中,其中,上述深度文案生成模型利用在线样本文案训练得到;获取上述深度文案生成模型所输出的与目标文案对应的目标词序列,其中,上述目标文案的点击率大于等于第一预定阈值;根据上述目标词序列生成上述目标文案。
根据本发明实施例的另一方面,还提供了一种文案生成装置,包括:第一获取单元,用于获取待生成的文案的配置信息;导入单元,用于将上述配置信息导入深度文案生成模型中,其中,上述深度文案生成模型利用在线样本文案训练得到;第二获取单元,用于获取上述深度文案生成模型所输出的与目标文案对应的目标词序列,其中,上述目标文案的点击率大于等于第一预定阈值;生成单元,用于根据上述目标词序列生成上述目标文案。
根据本发明实施例的又一方面,还提供了一种存储介质,该存储介质可以存储有执行指令,该执行指令用于执行上述实施例中的文案生成的方法。
根据本发明实施例的又一方面,还提供了一种电子装置,包括存储器、处理器及存储在上述存储器上并可在上述处理器上运行的计算机程序,上述处理器通过上述计算机程序执行上述文案生成的方法。
在本发明实施例中,在获取待生成的文案的配置信息之后,通过利用在线样本文案训练得到的深度文案生成模型,来输出得到更高质量的目标文案对应的目标词序列,以利用上述目标词序列生成目标文案,从而实现通过自学习训练得到的深度文案生成模型来智能生成关注度和点击率更高的高质量的文案,而不再是对模板中的措辞进行简单组合,以克服相关技术中提供文案生成方法所生成的文案质量较差的问题。
附图说明
此处所说明的附图用来提供对本发明的进一步理解,构成本申请的一部分,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1是根据本发明实施例的一种可选的文案生成方法的应用环境的示意图;
图2是根据本发明实施例的一种可选的文案生成方法的流程图;
图3是根据本发明实施例的一种可选的文案生成方法的训练示意图;
图4是根据本发明实施例的一种可选的文案生成方法的示意图;
图5是根据本发明实施例的一种可选的文案生成方法的场景示意图;
图6是根据本发明实施例的另一种可选的文案生成方法的示意图;
图7是根据本发明实施例的一种可选的文案生成装置的示意图;
图8是根据本发明实施例的一种可选的电子装置的示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
可选地,在本实施例中,上述文案生成方法可以但不限于应用于如图1所示的应用环境中。作为一种可选的实施方式,训练后得到的可应用于实际场景的深度文案生成模型可以但不限于存储于服务器106中,在生成目标文案之前,终端102可以但不限于通过网络104从服务器106中调用获取该深度文案生成模型,如图1所示。假设在终端102中运行有用于生成目标文案的客户端,则通过该客户端可以获取待生成的文案的配置信息,将该配置信息导入上述从服务器106调用的深度文案生成模型中,其中,该深度文案生成模型可以但不限于在服务器106中通过在线样本文案训练得到;然后获取该深度文案生成模型所输出的与目标文案对应的目标词序列,其中,该目标文案的点击率大于等于第一预定阈值(即目标文案为高质量文案),并根据获取到的目标文案序列生成目标文案。
在本实施例中,在获取待生成的文案的配置信息之后,通过利用在线样本文案训练得到的深度文案生成模型,来输出得到更高质量的目标文案对应的目标词序列,以利用上述目标词序列生成目标文案,从而实现通过自学习训练得到的深度文案生成模型来智能生成关注度和点击率更高的高质量的文案,而不再是对模板中的措辞进行简单组合,以克服相关技术中提供文案生成方法所生成的文案质量较差的问题;进一步,通过深度文案生成模型来自动快速生成高质量的文案,其中,深度文案生成模型是利用在线样本文案自动快速训练得到的,将进一步减少人工参与训练的时间,进而实现提高训练效率的目的。
可选地,在本实施例中,上述终端可以包括但不限于:手机、平板电脑、笔记本电脑、PC机、服务器等用于生成文案的硬件设备,在此不做限定。上述网络可以包括但不限于以下至少之一:广域网、城域网、局域网。本实施例对此不做具体限定。
根据本发明实施例一方面,提供了一种文案生成方法,如图2所示,该方法包括:
S202,获取待生成的文案的配置信息;
S204,将配置信息导入深度文案生成模型中,其中,深度文案生成模型利用在线样本文案训练得到;
S206,获取所述深度文案生成模型所输出的与目标文案对应的目标词序列,其中,所述目标文案的点击率大于等于第一预定阈值;
S208,根据目标词序列生成目标文案。
可选地,在本实施例中,上述文案生成方法可以但不限于应用于通过展示文案来达到宣传推广的场景中,其中,上述文案可以包括但不限于:广告文案、邮件文案、宣传文案等等。也就是说,在本实施例中,通过深度文案生成模型,将根据上述待生成文案的简单的配置信息,来自动快速生成关注度和点击率更高的高质量的文案,而不仅仅是对模板中的措辞进行简单组合,以保证所生成文案的质量,提高文案的关注度,进而克服相关技术中所生成的文案的质量较差的问题。上述仅是一种示例,本实施例中对此不做任何限定。
可选地,在本实施例中,上述配置信息可以包括但不限于:文案信息、文案相关信息,其中,上述文案信息可以包括但不限于:文案中的文本、图像、视频等信息,上述文案相关信息可以包括但不限于:用于显示文案的平台信息、用于显示文案的位置信息、用于生成文案的投放配置信息,如以广告文案为例,上述文案相关信息可以对应为:广告文案显示频道、广告文案显示位置、广告主信息。上述仅是一种示例,本实施例中对此不做任何限定。
可选地,在本实施例中,上述深度文案生成模型可以但不限于根据从文案采集系统中收集到的在线样本文案训练得到。其中,上述深度文案生成模型中可以包括但不限于多个子神经网络模型,如上述子神经网络可以包括但不限于:循环神经网络模型(Recurrent Neural Networks,简称RNN)、门控循环神经网络模型(Gated RecurrentUnit,简称GRU)、长短时记忆神经网络模型(Long Short-Term Memory,简称LSTM)、卷积神经网络模型(Convolution Neural Networks,简称CNN)等网络模型。上述仅是示例,本实施例中对此不做任何限定。
例如,RNN神经网络模型的运行策略可以但不限于如下:当前时间的隐藏状态是由上一时间的状态和当前时间输入决定的,也就是:
ht=f(ht-1,xt) (1)
其中,t表示当前时间,t-1表示上一时间,ht表示当前时间的隐藏状态,ht-1表示上一时间的隐藏状态,xt表示当前时间的输入。
在获得了各个时间段的隐藏层以后,再将隐藏层的信息汇总,生成最后的语义向量:
c=q(h1,h2,...,hTx) (2)
其中,c为语义向量,hTx为t时刻对应的隐藏状态。
关于其他神经网络模型的运行策略,在此不做赘述。
需要说明的是,在本实施例中,上述在线样本文案可以但不限于为从线上系统实时导入的在线数据。以广告文案为例,上述在线样本文案可以但不限于为从在线广告系统导入的样本广告。该在线广告系统可以但不限于进行实时监控并提供大量可用于训练的在线样本广告,以训练得到深度文案生成模型。
例如,上述深度文案生成模型训练过程可以但不限于如图3所示,获取在线样本文案,如获取到在线样本文案的配置信息,导入待测深度文案生成模型中,输出预测词序列,并将其与获取到的标签词序列进行比对,若预测词序列向标签词序列收敛,则将当前预测词序列对应的待测深度文案生成模型作为深度文案生成模型,如图3右侧所示确定应用于生成过程的深度文案生成模型;若预测词序列远离标签词序列,则需优化调整待测深度文案生成模型中的参数值,继续获取在线样本文案进行训练。
可选地,在本实施例中,将配置信息导入深度文案生成模型中可以但不限于包括以下步骤:根据配置信息中所包含的文案信息的信息类别,将文案信息分别导入深度文案生成模型中与信息类别对应的子神经网络模型中,其中,子神经网络用于提取信息类别下的文案信息中的文案特征,文案特征用于获取目标词序列。
可选地,在本实施例中,上述将文案信息分别导入深度文案生成模型中与信息类别对应的子神经网络模型中包括以下至少之一:
1)在信息类别指示为文本类别的情况下,将文案信息中的文本信息导入与文本类别对应的第一子神经网络模型中,以得到文本信息的文本特征;
2)在信息类别指示为图像类别的情况下,将文案信息中的图像像素信息导入与图像类别对应的第二子神经网络模型中,以得到图像像素信息的图像特征;
3)在信息类别指示为视频类别的情况下,将文案信息中的视频帧像素信息导入与视频类别对应的第三子神经网络模型中,以得到视频帧像素信息的视频特征;
4)在信息类别指示为相关类别的情况下,将文案信息中的相关信息导入与相关类别对应的第四子神经网络模型中,以得到相关信息的相关特征。
需要说明的是,在本实施例中,上述信息类别可以包括但不限于:文本类别、图像类别、视频类别、相关类别。也就是说,所获取到的配置信息中所包含的文案信息可以仅包含独立的文本类别的信息,或图像类别的信息,或视频类别的信息,或相关类别的信息等等,也可以包括但不限于上述至少两个类别的信息组合。针对不同信息类别可以但不限于匹配深度文案生成模型中不同的子神经网络模型,如为文本类别的信息配置循环神经网络模型,为图像类别的信息配置卷积神经网络模型。上述配置组合仅是一种示例,本实施例中对此不做任何限定。从而提取出对应的文案特征。
例如,如图4所示,在获取到配置信息后,获取配置信息中的文案信息的信息类别,假设待生成的文案的配置信息包括文本类别的词向量、包括图像类别的像素矩阵及相关类别的离散特征向量,将上述配置信息导入深度文案生成模型中,得到对应的文案特征。如,将词向量导入深度文案生成模型中的子神经网络模型1中,获取词向量对应的文本特征;将像素矩阵导入深度文案生成模型中的子神经网络模型2中,获取像素矩阵对应的图像特征;将离散特征向量导入深度文案生成模型中的子神经网络模型3中,获取离散特征向量对应的相关特征。然后根据上述文案特征得到最终特征表示,并利用最终特征表示获取目标词序列。
此外,在本实施例中,对于英文单词可以自动分词,对于中文文本可以但不限于先进行分词,得到用于导入深度文案生成模型的词,再将每个词作为一个词向量导入对应的子神经网络模型中进行网络深度学习。
再例如,也可以采用权重的方式对文案特征进行拼接。当获取到词向量对应的文本特征、像素矩阵对应的图像特征以及相关信息对应的相关特征时,例如文本特征对应权重为50%,图像特征对应权重为30%,相关特征对应权重为20%,则可以对各个文案特征进行加权,然后再进行拼接,得到最终特征表示,并根据最终特征表示确定目标词序列中包含的词的标识。
可选地,在本实施例中,利用上述拼接得到的最终特征表示可以但不限于进一步智能转化得到目标文案的目标词序列。作为一种可选的方式是对最终特征表示进行解码,依次生成目标词序列中的每一个词。如根据上一个词的词向量和最终特征表示,通过翻译神经网络模型,以得到当前词的词向量,进而根据当前词的词向量来获取目标词序列中当前词的标识。
需要说明的是,在本实施例中,最终特征表示的解码过程通过解码得到用于指示停止的停止词来控制生成过程的停止。从而实现对生成过程的自动化和智能化控制,以节省人力成本。
例如,如图5所示,假设待生成的文案为一辆汽车的广告文案,其中该广告文案的配置信息为:“优惠出售汽车”,并提供一张“汽车”图片。进一步,根据上述配置信息可确定文案信息的信息类别包括:文本(如“优惠出售汽车”)、图片(如“汽车”图像)。将上述不同信息类别的配置信息分别导入深度文案生成网络模型中不同的子神经网络模型中,得到目标词序列,如“限时”、“特惠”、“速度”、“享受”,则根据该目标词序列可以得到高点击率的目标文案,如图5右侧所示,该目标文案将得到更多关注度,使得所生成的文案更易推广宣传,达到提升文案质量的目的。
通过本申请实施例,在获取待生成的文案的配置信息之后,通过利用在线样本文案训练得到的深度文案生成模型,来输出得到更高质量的目标文案对应的目标词序列,以利用上述目标词序列生成目标文案,从而实现通过自学习训练得到的深度文案生成模型来智能生成关注度和点击率更高的高质量的文案,而不再是对模板中的措辞进行简单组合,以克服相关技术中提供文案生成方法所生成的文案质量较差的问题。
作为一种可选的方案,将配置信息导入深度文案生成模型中包括:
S1,获取配置信息中所包含的文案信息的信息类别;
S2,将文案信息分别导入深度文案生成模型中与信息类别对应的子神经网络模型中,其中,子神经网络用于提取信息类别下的文案信息中的文案特征,文案特征用于获取目标词序列。
可选地,在本实施例中,上述信息类别可以包括但不限于以下至少之一:文本、图像、视频、相关。其中,所要生成的文案的文案信息可以包括但不限于:文案中的文本、图像、视频等信息,上述相关类别可以但不限于包括上述文案的文案相关信息,上述文案相关信息可以包括但不限于:用于显示文案的平台信息、用于显示文案的位置信息、用于生成文案的投放配置信息。
例如,假设待生成的文案为一辆汽车的广告文案,其中该广告文案的配置信息为:“优惠出售汽车”,并提供一张“汽车”图片。进一步,根据上述配置信息可确定文案信息的信息类别包括:文本(如“优惠出售汽车”)、图像(如“汽车”图片)。将上述不同信息类别的配置信息分别导入不同的子神经网络模型中。
如将文本“优惠出售汽车”导入子神经网络模型:RNN循环神经网络模型中;将“汽车图像”导入子神经网络模型:CNN卷积神经网络模型中。具体的,先对获取到的闻文本“优惠出售汽车”分词,分成“优惠”、“出售”、“汽车”,并将分词后的结果导入RNN循环神经网络模型中,RNN循环神经网络模型经过深度自学习将提取出于上述文本对应的文本特征,如一个文本类别的词向量;上述“汽车”图像中的像素矩阵可以导入CNN卷积神经网络模型例中,CNN卷积神经网络模型经过深度自学习将提取出于上述图像对应的图像特征,如一个图像类别的像素向量。其中,上述神经网络模型的自学习具体步骤不再赘述。
通过本申请实施例,通过将文案信息通过不同的信息类别导入到不同的子神经网络模型中,以实现针对不同信息类别分别提取不同的文案特征,从而实现根据准确提取出的特征来生成目标文案,以保证利用深度文案生成模型所生成的目标文案的质量。
作为一种可选的方案,在在将文案信息分别导入深度文案生成模型中与信息类别对应的子神经网络模型中之后,还包括:
S1,获取各个信息类别所对应的文案特征;
S2,拼接获取到的文案特征,得到最终特征表示,其中,在最终特征表示中,缺省的信息类别对应的文案特征置零;
S3,根据最终特征表示确定目标词序列中所包含的文本的标识。
可选地,在本实施例中,上述文案特征可以但不限于包括但不限于:文本特征、图像特征、视频特征、相关特征。需要说明的是,上述文案特征可以但不限于根据不同的信息类别的信息提取得到。如文本类别的信息可以提取出文本特征,图像类别的信息可以提取出图像特征等等。
假设当当前待生成文案的配置信息中只包含了文本类别的信息以及相关信息,没有图像类别的信息时,则可以将图像类别的信息置零,使得图像特征最终被置零。利用上述文本类别的信息以及相关信息,提取出文本特征及相关特征来获取最终特征表示。
具体地,假设通过深度文案生成模型,从待生成的文案的配置信息中提取出:文本类别中的文字信息对应的文本特征为0010,相关类别的信息对应的相关特征为1000,则可以将0010与1000直接拼接成最终特征表示00101000。
通过本申请提供的实施例,在获取最终特征表示的过程中,将缺省的信息类别对应的文案特征置零,可以在不影响其他特征的情况下,提取确定出更加准确的文案特征,以保证所生成的目标文案的质量。
作为一种可选的方案,根据最终特征表示确定目标词序列中所包含的文本的标识包括:
S1,重复执行以下步骤,直至获取到停止文本的标识,停止文本用于指示停止生成过程;
S12,获取在目标词序列中位于当前文本之前解码得到的上一个文本的标识;
S14,在上一文本的标识并非停止文本的标识的情况下,根据上一个文本的标识对最终特征表示进行再次解码,获取当前文本的标识。
具体结合图6所示进行说明,在解码的过程中,通过将最终特征表示输入到神经循环网络模型(例如,以RNN循环神经网络为例)中,解码获取到向量1,如1100,并对该向量1进行转化得到词标识1对应的词1,判断词1是否是停止词。若不是,则利用与词1对应的向量1及最终特征表示再次进行解码,获取向量2为1011,并对该向量2进行转化得到词标识2对应的词2,判断词2是否是停止词。依次生成每个词,直到所生成的词标识3,确定出对应的词为停止词,则停止解码过程,得到目标词序列:词标识1-词标识2-词标识3,进而获取到用于生成目标文案的关键词为:词1、词2及词3。
通过本申请实施例,通过预先设置的停止词控制最终特征表示的停止解码过程,实现解码的自动化智能化控制,以提高解码效率,避免解码得到的目标词序列太长所造成的解码结果不准确的问题。在保证目标词序列的准确性的同时,保证了利用目标词序列生成目标文案的质量。
作为一种可选的方案,在获取待生成的文案的配置信息之前,还包括:
S1,从文案采集系统中收集在线样本文案;
S2,根据在线样本文案训练得到深度文案生成模型。
可选地,在本实施例中,根据在线样本文案训练得到深度文案生成模型包括:
S21,获取与在线样本文案匹配的标签文案的标签词序列,其中,标签文案的点击率大于等于第二预定阈值;
S22,重复执行以下步骤,直至与在线样本文案匹配的预测文案的预测词序列满足预定条件:
S22-1,将在线样本文案的配置信息导入待测深度文案生成模型中,得到预测词序列;
S22-2,比对标签词序列及预测词序列;
S22-3,根据比对的结果对待测深度文案生成模型进行训练调整,其中,在比对的结果指示预测词序列向标签词序列收敛的情况下,则表示预测词序列满足预定条件,将输出满足预定条件的预测词序列对应的待测深度文案生成模型作为深度文案生成模型;在比对的结果指示预测词序列远离标签词序列的情况下,则表示预测词序列不满足预定条件,优化待测深度文案生成模型中的参数值,重新获取在线样本文案继续进行训练调整。
可选地,在本实施例中,上述预测词序列向标签词序列收敛可以但不限于包括:1)预测词序列与标签词序列一致,则表示收敛;2)预测词序列与标签词序列之间的相似度大于预定阈值,则表示收敛。
例如,从文案采集系统中收集到在线样本文案之后,获取与在线样本文案匹配的点击率大于预定阈值的标签文案的标签词序列,例如获得的标签词序列为“汽车”-“白色”-“50W”-“活动”,并且将上述标签词序列与将在线样本文案的配置信息导入待测深度文案生成模型中所得到的预测词序列进行对比,例如预测词序列为“汽车”-“黑色”-“活动”。将标签词序列与预测词序列进行对比,获取一个相似度,例如为40%,将获取到的相似度与预设阈值进行对比,当大于预设阈值,则认为待测深度文案与标签词序列相互收敛,如果相似度小于预设阈值,则认为待测深度文案与标签词序列相互远离。
例如,获取与在线样本文案匹配的标签词序列,例如为“汽车”-“白色”-“优惠”,该标签词序列对应的标签文案为点击率大于等于一个提前预设的预定阈值的高点击率文案(也可称作高质量文案),假设该预定阈值为800W点击率。提取在线样本文案的信息类别,提取出文本信息,例如为“汽车优惠季开启”,提取出图像像素信息,例如为一辆“白色”的“汽车”图像以及相关信息,例如,该汽车显示平台为视频播放平台,显示位置为置顶。将提取出的上述信息分别导入待测深度文案生成模型中的子神经网络模型中,并获取对应的文案特征,例如文本特征为0011(具体过程可参照上述通过RNN进行循环神经网络模型进行编码的过程),图像特征,为0010,相关特征为0100,并将获取的文案特征直接拼接成最终特征信息,例如为001100100100。
进一步,对最终特征表示进行解码,获取到预测词序列,例如为:“汽车”-“优惠”,根据获取到的预测词序列与标签词序列做对比,假设预设阈值为95%。如果获取到的相似度为99%,大于预设阈值,则表示预测词序列已经在向标签词序列收敛,说明待测深度文案生成模型中的参数不再需要调整,可以直接将其确定可应用的文案生成模型。如果获取到的相似度为50%,小于预设阈值,则表示预测词序列远离标签词序列收敛,需要优化调整待测深度文案生成模型中的参数值,进一步继续获取在线样本文案,重新获得预测词序列,继续进行训练直到待测深度文案生成模型中的参数符合要求。
通过本申请提供的实施例,通过利用在线样本文案训练得到深度文案生成模型,实现智能化自动化训练,不仅可以节省人力成本,减少人为对训练的干预,而且利用训练得到的高点击率(高质量)的网络模型生成目标文案对应的目标词序列,还将进一步保证所生成目标文案的质量,提升目标文案的关注度,更利于推广宣传。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明并不受所描述的动作顺序的限制,因为依据本发明,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本发明所必须的。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到根据上述实施例的方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,或者网络设备等)执行本发明各个实施例的方法。
根据本发明实施例的另一方面,还提供了一种用于实施上述文案生成方法的文案生成装置,如图7所示,该装置包括:
1)第一获取单元702,用于获取待生成的文案的配置信息;
2)导入单元704,用于将配置信息导入深度文案生成模型中,其中,深度文案生成模型利用在线样本文案训练得到;
3)第二获取单元706,用于获取深度文案生成模型所输出的与目标文案对应的目标词序列,其中,目标文案的点击率大于等于第一预定阈值;
4)生成单元708,用于根据目标词序列生成目标文案。
可选地,在本实施例中,上述文案生成装置可以但不限于应用于通过展示文案来达到宣传推广的场景中,其中,上述文案可以包括但不限于:广告文案、邮件文案、宣传文案等等。也就是说,在本实施例中,通过深度文案生成模型,将根据上述待生成文案的简单的配置信息,来自动快速生成关注度和点击率更高的高质量的文案,而不仅仅是对模板中的措辞进行简单组合,以保证所生成文案的质量,提高文案的关注度,进而克服相关技术中所生成的文案的质量较差的问题。上述仅是一种示例,本实施例中对此不做任何限定。
可选地,在本实施例中,上述配置信息可以包括但不限于:文案信息、文案相关信息,其中,上述文案信息可以包括但不限于:文案中的文本、图像、视频等信息,上述文案相关信息可以包括但不限于:用于显示文案的平台信息、用于显示文案的位置信息、用于生成文案的投放配置信息,如以广告文案为例,上述文案相关信息可以对应为:广告文案显示频道、广告文案显示位置、广告主信息。上述仅是一种示例,本实施例中对此不做任何限定。
可选地,在本实施例中,上述深度文案生成模型可以但不限于根据从文案采集系统中收集到的在线样本文案训练得到。其中,上述深度文案生成模型中可以包括但不限于多个子神经网络模型,如上述子神经网络可以包括但不限于:循环神经网络模型(Recurrent Neural Networks,简称RNN)、门控循环神经网络模型(Gated RecurrentUnit,简称GRU)、长短时记忆神经网络模型(Long Short-Term Memory,简称LSTM)、卷积神经网络模型(Convolution Neural Networks,简称CNN)等网络模型。上述仅是示例,本实施例中对此不做任何限定。
例如,RNN神经网络模型的运行策略可以但不限于如下:当前时间的隐藏状态是由上一时间的状态和当前时间输入决定的,也就是:
ht=f(ht-1,xt) (3)
其中,t表示当前时间,t-1表示上一时间,ht表示当前时间的隐藏状态,ht-1表示上一时间的隐藏状态,xt表示当前时间的输入。
在获得了各个时间段的隐藏层以后,再将隐藏层的信息汇总,生成最后的语义向量:
c=q(h1,h2,...,hTx) (4)
其中,c为语义向量,hTx为t时刻对应的隐藏状态。
关于其他神经网络模型的运行策略,在此不做赘述。
需要说明的是,在本实施例中,上述在线样本文案可以但不限于为从线上系统实时导入的在线数据。以广告文案为例,上述在线样本文案可以但不限于为从在线广告系统导入的样本广告。该在线广告系统可以但不限于进行实时监控并提供大量可用于训练的在线样本广告,以训练得到深度文案生成模型。
例如,上述深度文案生成模型训练过程可以但不限于如图3所示,获取在线样本文案,如获取到在线样本文案的配置信息,导入待测深度文案生成模型中,输出预测词序列,并将其与获取到的标签词序列进行比对,若预测词序列向标签词序列收敛,则将当前预测词序列对应的待测深度文案生成模型作为深度文案生成模型,如图3右侧所示确定应用于生成过程的深度文案生成模型;若预测词序列远离标签词序列,则需优化调整待测深度文案生成模型中的参数值,继续获取在线样本文案进行训练。
可选地,在本实施例中,将配置信息导入深度文案生成模型中可以但不限于包括以下步骤:根据配置信息中所包含的文案信息的信息类别,将文案信息分别导入深度文案生成模型中与信息类别对应的子神经网络模型中,其中,子神经网络用于提取信息类别下的文案信息中的文案特征,文案特征用于获取目标词序列。
可选地,在本实施例中,上述导入装置包括以下至少之一:
(1)第一导入子模块,用于在信息类别指示为文本类别的情况下,将文案信息中的文本信息导入与文本类别对应的第一子神经网络模型中,以得到文本信息的文本特征;
(2)第二导入子模块,用于在信息类别指示为图像类别的情况下,将文案信息中的图像像素信息导入与图像类别对应的第二子神经网络模型中,以得到图像像素信息的图像特征;
(3)第三导入子模块,用于在信息类别指示为视频类别的情况下,将文案信息中的视频帧像素信息导入与视频类别对应的第三子神经网络模型中,以得到视频帧像素信息的视频特征;
(4)第四导入子模块,用于在信息类别指示为相关类别的情况下,将文案信息中的相关信息导入与相关类别对应的第四子神经网络模型中,以得到相关信息的相关特征。
需要说明的是,在本实施例中,上述信息类别可以包括但不限于:文本类别、图像类别、视频类别、相关类别。也就是说,所获取到的配置信息中所包含的文案信息可以仅包含独立的文本类别的信息,或图像类别的信息,或视频类别的信息,或相关类别的信息等等,也可以包括但不限于上述至少两个类别的信息组合。针对不同信息类别可以但不限于匹配深度文案生成模型中不同的子神经网络模型,如为文本类别的信息配置循环神经网络模型,为图像类别的信息配置卷积神经网络模型。上述配置组合仅是一种示例,本实施例中对此不做任何限定。从而提取出对应的文案特征。
例如,如图4所示,在获取到配置信息后,获取配置信息中的文案信息的信息类别,假设待生成的文案的配置信息包括文本类别的词向量、包括图像类别的像素矩阵及相关类别的离散特征向量,将上述配置信息导入深度文案生成模型中,得到对应的文案特征。如,将词向量导入深度文案生成模型中的子神经网络模型1中,获取词向量对应的文本特征;将像素矩阵导入深度文案生成模型中的子神经网络模型2中,获取像素矩阵对应的图像特征;将离散特征向量导入深度文案生成模型中的子神经网络模型3中,获取离散特征向量对应的相关特征。然后根据上述文案特征得到最终特征表示,并利用最终特征表示获取目标词序列。
此外,在本实施例中,对于英文单词可以自动分词,对于中文文本可以但不限于先进行分词,得到用于导入深度文案生成模型的词,再将每个词作为一个词向量导入对应的子神经网络模型中进行网络深度学习。
再例如,也可以采用权重的方式对文案特征进行拼接。当获取到词向量对应的文本特征、像素矩阵对应的图像特征以及相关信息对应的相关特征时,例如文本特征对应权重为50%,图像特征对应权重为30%,相关特征对应权重为20%,则可以对各个文案特征进行加权,然后再进行拼接,得到最终特征表示,并根据最终特征表示确定目标词序列中包含的词的标识。
可选地,在本实施例中,利用上述拼接得到的最终特征表示可以但不限于进一步智能转化得到目标文案的目标词序列。作为一种可选的方式是对最终特征表示进行解码,依次生成目标词序列中的每一个词。如根据上一个词的词向量和最终特征表示,通过翻译神经网络模型,以得到当前词的词向量,进而根据当前词的词向量来获取目标词序列中当前词的标识。
需要说明的是,在本实施例中,最终特征表示的解码过程通过解码得到用于指示停止的停止词来控制生成过程的停止。从而实现对生成过程的自动化和智能化控制,以节省人力成本。
例如,如图5所示,假设待生成的文案为一辆汽车的广告文案,其中该广告文案的配置信息为:“优惠出售汽车”,并提供一张“汽车”图片。进一步,根据上述配置信息可确定文案信息的信息类别包括:文本(如“优惠出售汽车”)、图片(如“汽车”图像)。将上述不同信息类别的配置信息分别导入深度文案生成网络模型中不同的子神经网络模型中,得到目标词序列,如“限时”、“特惠”、“速度”、“享受”,则根据该目标词序列可以得到高点击率的目标文案,如图5右侧所示,该目标文案将得到更多关注度,使得所生成的文案更易推广宣传,达到提升文案质量的目的。
通过本申请实施例,在获取待生成的文案的配置信息之后,通过利用在线样本文案训练得到的深度文案生成模型,来输出得到更高质量的目标文案对应的目标词序列,以利用上述目标词序列生成目标文案,从而实现通过自学习训练得到的深度文案生成模型来智能生成关注度和点击率更高的高质量的文案,而不再是对模板中的措辞进行简单组合,以克服相关技术中提供文案生成方法所生成的文案质量较差的问题。
作为一种可选的方案,导入单元704包括:
1)第一获取模块,用于获取配置信息中所包含的文案信息的信息类别;
2)导入模块,用于将文案信息分别导入深度文案生成模型中与信息类别对应的子神经网络模型中,其中,子神经网络用于提取信息类别下的文案信息中的文案特征,文案特征用于获取目标词序列。
可选地,在本实施例中,上述信息类别可以包括但不限于以下至少之一:文本、图像、视频、相关。其中,所要生成的文案的文案信息可以包括但不限于:文案中的文本、图像、视频等信息,上述相关类别可以但不限于包括上述文案的文案相关信息,上述文案相关信息可以包括但不限于:用于显示文案的平台信息、用于显示文案的位置信息、用于生成文案的投放配置信息。
例如,假设待生成的文案为一辆汽车的广告文案,其中该广告文案的配置信息为:“优惠出售汽车”,并提供一张“汽车”图片。进一步,根据上述配置信息可确定文案信息的信息类别包括:文本(如“优惠出售汽车”)、图像(如“汽车”图片)。将上述不同信息类别的配置信息分别导入不同的子神经网络模型中。
如将文本“优惠出售汽车”导入子神经网络模型:RNN循环神经网络模型中;将“汽车图像”导入子神经网络模型:CNN卷积神经网络模型中。具体的,先对获取到的闻文本“优惠出售汽车”分词,分成“优惠”、“出售”、“汽车”,并将分词后的结果导入RNN循环神经网络模型中,RNN循环神经网络模型经过深度自学习将提取出于上述文本对应的文本特征,如一个文本类别的词向量;上述“汽车”图像中的像素矩阵可以导入CNN卷积神经网络模型例中,CNN卷积神经网络模型经过深度自学习将提取出于上述图像对应的图像特征,如一个图像类别的像素向量。其中,上述神经网络模型的自学习具体步骤不再赘述。
通过本申请实施例,通过将文案信息通过不同的信息类别导入到不同的子神经网络模型中,以实现针对不同信息类别分别提取不同的文案特征,从而实现根据准确提取出的特征来生成目标文案,以保证利用深度文案生成模型所生成的目标文案的质量。
作为一种可选的方案,上述文案生成装置还包括:
1)第二获取模块,用于在将文案信息分别导入深度文案生成模型中与信息类别对应的子神经网络模型中之后,获取各个信息类别所对应的文案特征;
2)拼接模块,用于拼接获取到的文案特征,得到最终特征表示,其中,在最终特征表示中,缺省的信息类别对应的文案特征置零;
3)确定模块,用于根据最终特征表示确定目标词序列中所包含的文本的标识。
可选地,在本实施例中,上述文案特征可以但不限于包括但不限于:文本特征、图像特征、视频特征、相关特征。需要说明的是,上述文案特征可以但不限于根据不同的信息类别的信息提取得到。如文本类别的信息可以提取出文本特征,图像类别的信息可以提取出图像特征等等。
假设当当前待生成文案的配置信息中只包含了文本类别的信息以及相关信息,没有图像类别的信息时,则可以将图像类别的信息置零,使得图像特征最终被置零。利用上述文本类别的信息以及相关信息,提取出文本特征及相关特征来获取最终特征表示。
具体地,假设通过深度文案生成模型,从待生成的文案的配置信息中提取出:文本类别中的文字信息对应的文本特征为0010,相关类别的信息对应的相关特征为1000,则可以将0010与1000直接拼接成最终特征表示00101000。
通过本申请提供的实施例,在获取最终特征表示的过程中,将缺省的信息类别对应的文案特征置零,可以在不影响其他特征的情况下,提取确定出更加准确的文案特征,以保证所生成的目标文案的质量。
作为一种可选的方案,确定模块包括:
1)处理子模块,用于重复执行以下步骤,直至获取到停止文本的标识,停止文本用于指示停止生成过程;获取在目标词序列中位于当前文本之前解码得到的上一个文本的标识;在上一文本的标识并非停止文本的标识的情况下,根据上一个文本的标识对最终特征表示进行再次解码,获取当前文本的标识。
具体结合图6所示进行说明,在解码的过程中,通过将最终特征表示输入到神经循环网络模型(例如,以RNN循环神经网络为例)中,解码获取到向量1,如1100,并对该向量1进行转化得到词标识1对应的词1,判断词1是否是停止词。若不是,则利用与词1对应的向量1及最终特征表示再次进行解码,获取向量2为1011,并对该向量2进行转化得到词标识2对应的词2,判断词2是否是停止词。依次生成每个词,直到所生成的词标识3,确定出对应的词为停止词,则停止解码过程,得到目标词序列:词标识1-词标识2-词标识3,进而获取到用于生成目标文案的关键词为:词1、词2及词3。
通过本申请实施例,通过预先设置的停止词控制最终特征表示的停止解码过程,实现解码的自动化智能化控制,以提高解码效率,避免解码得到的目标词序列太长所造成的解码结果不准确的问题。在保证目标词序列的准确性的同时,保证了利用目标词序列生成目标文案的质量。
作为一种可选的方案,上述文案生成装置还包括:
1)收集单元,用于从文案采集系统中收集在线样本文案;
2)训练单元,用于根据在线样本文案训练得到深度文案生成模型。
可选地,在本实施例中,上述训练单元包括:
(1)第三获取模块,用于获取与在线样本文案匹配的标签文案的标签词序列,其中,标签文案的点击率大于等于第二预定阈值;
(2)处理模块,用于重复执行以下步骤,直至与在线样本文案匹配的预测文案的预测词序列满足预定条件:
S1,将在线样本文案的配置信息导入待测深度文案生成模型中,得到预测词序列;
S2,比对标签词序列及预测词序列;
S3,根据比对的结果对待测深度文案生成模型进行训练调整,其中,在比对的结果指示预测词序列向标签词序列收敛的情况下,则表示预测词序列满足预定条件,将输出满足预定条件的预测词序列对应的待测深度文案生成模型作为深度文案生成模型;在比对的结果指示预测词序列远离标签词序列的情况下,则表示预测词序列不满足预定条件,优化待测深度文案生成模型中的参数值,重新获取在线样本文案继续进行训练调整。
可选地,在本实施例中,上述预测词序列向标签词序列收敛可以但不限于包括:1)预测词序列与标签词序列一致,则表示收敛;2)预测词序列与标签词序列之间的相似度大于预定阈值,则表示收敛。
例如,从文案采集系统中收集到在线样本文案之后,获取与在线样本文案匹配的点击率大于预定阈值的标签文案的标签词序列,例如获得的标签词序列为“汽车”-“白色”-“50W”-“活动”,并且将上述标签词序列与将在线样本文案的配置信息导入待测深度文案生成模型中所得到的预测词序列进行对比,例如预测词序列为“汽车”-“黑色”-“活动”。将标签词序列与预测词序列进行对比,获取一个相似度,例如为40%,将获取到的相似度与预设阈值进行对比,当大于预设阈值,则认为待测深度文案与标签词序列相互收敛,如果相似度小于预设阈值,则认为待测深度文案与标签词序列相互远离。
例如,获取与在线样本文案匹配的标签词序列,例如为“汽车”-“白色”-“优惠”,该标签词序列对应的标签文案为点击率大于等于一个提前预设的预定阈值的高点击率文案(也可称作高质量文案),假设该预定阈值为800W点击率。提取在线样本文案的信息类别,提取出文本信息,例如为“汽车优惠季开启”,提取出图像像素信息,例如为一辆“白色”的“汽车”图像以及相关信息,例如,该汽车显示平台为视频播放平台,显示位置为置顶。将提取出的上述信息分别导入待测深度文案生成模型中的子神经网络模型中,并获取对应的文案特征,例如文本特征为0011(具体过程可参照上述通过RNN进行循环神经网络模型进行编码的过程),图像特征,为0010,相关特征为0100,并将获取的文案特征直接拼接成最终特征信息,例如为001100100100。
进一步,对最终特征表示进行解码,获取到预测词序列,例如为:“汽车”-“优惠”,根据获取到的预测词序列与标签词序列做对比,假设预设阈值为95%。如果获取到的相似度为99%,大于预设阈值,则表示预测词序列已经在向标签词序列收敛,说明待测深度文案生成模型中的参数不再需要调整,可以直接将其确定可应用的文案生成模型。如果获取到的相似度为50%,小于预设阈值,则表示预测词序列远离标签词序列收敛,需要优化调整待测深度文案生成模型中的参数值,进一步继续获取在线样本文案,重新获得预测词序列,继续进行训练直到待测深度文案生成模型中的参数符合要求。
通过本申请提供的实施例,通过利用在线样本文案训练得到深度文案生成模型,实现智能化自动化训练,不仅可以节省人力成本,减少人为对训练的干预,而且利用训练得到的高点击率(高质量)的网络模型生成目标文案对应的目标词序列,还将进一步保证所生成目标文案的质量,提升目标文案的关注度,更利于推广宣传。
在本发明的实施例的又一方面,还提供了一种存储介质。可选地,在本实施例中,存储介质被设置为存储用于执行以下步骤的程序代码:
S1,获取待生成的文案的配置信息;
S2,将配置信息导入深度文案生成模型中,其中,深度文案生成模型利用在线样本文案训练得到;
S3,获取深度文案生成模型所输出的与目标文案对应的目标词序列,其中,目标文案的点击率大于等于第一预定阈值;
S4,根据目标词序列生成目标文案。
可选地,存储介质还被设置为存储用于执行以下步骤的程序代码:
S1,获取配置信息中所包含的文案信息的信息类别;
S2,将文案信息分别导入深度文案生成模型中与信息类别对应的子神经网络模型中,其中,子神经网络用于提取信息类别下的文案信息中的文案特征,文案特征用于获取目标词序列。
可选地,存储介质还被设置为存储用于执行以下步骤的程序代码:
S1,获取各个信息类别所对应的文案特征;
S2,拼接获取到的文案特征,得到最终特征表示,其中,在最终特征表示中,缺省的信息类别对应的文案特征置零;
S3,根据最终特征表示确定目标词序列中所包含的文本的标识。
可选地,存储介质还被设置为存储用于执行以下步骤的程序代码:
S1,重复执行以下步骤,直至获取到停止文本的标识,停止文本用于指示停止生成过程;
S2,获取在目标词序列中位于当前文本之前解码得到的上一个文本的标识;
S3,在上一文本的标识并非停止文本的标识的情况下,根据上一个文本的标识对最终特征表示进行再次解码,获取当前文本的标识。
可选地,存储介质还被设置为存储用于执行以下步骤的程序代码:
S1,在信息类别指示为文本类别的情况下,将文案信息中的文本信息导入与文本类别对应的第一子神经网络模型中,以得到文本信息的文本特征;
S2,在信息类别指示为图像类别的情况下,将文案信息中的图像像素信息导入与图像类别对应的第二子神经网络模型中,以得到图像像素信息的图像特征;
S3,在信息类别指示为视频类别的情况下,将文案信息中的视频帧像素信息导入与视频类别对应的第三子神经网络模型中,以得到视频帧像素信息的视频特征;
S4,在信息类别指示为视频类别的情况下,将文案信息中的视频帧像素信息导入与视频类别对应的第三子神经网络模型中,以得到视频帧像素信息的视频特征。
可选地,存储介质还被设置为存储用于执行以下步骤的程序代码:
S1,从文案采集系统中收集在线样本文案;
S2,根据在线样本文案训练得到深度文案生成模型。
可选地,存储介质还被设置为存储用于执行以下步骤的程序代码:
S1,获取与在线样本文案匹配的标签文案的标签词序列,其中,标签文案的点击率大于等于第二预定阈值;
S2,重复执行以下步骤,直至与在线样本文案匹配的预测文案的预测词序列满足预定条件;
S3,将在线样本文案的配置信息导入待测深度文案生成模型中,得到预测词序列;
S4,比对标签词序列及预测词序列;
S5,根据比对的结果对待测深度文案生成模型进行训练调整,其中,在比对的结果指示预测词序列向标签词序列收敛的情况下,则表示预测词序列满足预定条件,将输出满足预定条件的预测词序列对应的待测深度文案生成模型作为深度文案生成模型;在比对的结果指示预测词序列远离标签词序列的情况下,则表示预测词序列不满足预定条件,优化待测深度文案生成模型中的参数值,重新获取在线样本文案继续进行训练调整。
可选地,本实施例中的具体示例可以参考上述实施例1和实施例2中所描述的示例,本实施例在此不再赘述。
根据本发明实施例的又一方面,还提供了一种用于实施上述文案生成方法的电子装置,如图8所示,该电子装置包括:处理器802、存储器804、显示器806以及用户接口808组成。
其中,存储器804可用于存储软件程序以及模块,如本发明实施例中的文案生成方法和装置对应的程序指令/模块,处理器802通过运行存储在存储器804内的软件程序以及模块,从而执行各种功能应用以及数据处理,即实现上述的文案生成方法。存储器804可包括高速随机存储器,还可以包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。在一些实例中,存储器804可进一步包括相对于处理器802远程设置的存储器,这些远程存储器可以通过网络连接至终端。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
本领域普通技术人员可以理解,电子装置也可以是智能手机(如Android手机、iOS手机等)、平板电脑、掌声电脑以及移动互联网设备(Mobile Internet Devices,MID)、PAD等终端设备。例如,电子装置还可包括比图8中所示更多或者更少的组件(如网络接口、通讯接口等),或者具有与图8所示不同的配置。
可选地,本实施例中的具体示例可以参考上述实施例1和实施例2中所描述的示例,本实施例在此不再赘述。
Claims (11)
1.一种文案生成方法,其特征在于,包括:
获取待生成的文案的配置信息;
获取所述配置信息中所包含的文案信息的信息类别;
将所述文案信息分别导入深度文案生成模型中与所述信息类别对应的子神经网络模型,其中,所述深度文案生成模型利用在线样本文案训练得到,所述子神经网络用于提取所述信息类别下的所述文案信息中的文案特征,所述文案特征用于获取与目标文案对应的目标词序列,所述目标文案的点击率大于等于第一预定阈值;
在所述信息类别指示为文本类别的情况下,将所述文案信息中的文本信息导入与所述文本类别对应的第一子神经网络模型中,以得到所述文本信息的文本特征;
在所述信息类别指示为图像类别的情况下,将所述文案信息中的图像像素信息导入与所述图像类别对应的第二子神经网络模型中,以得到所述图像像素信息的图像特征;
在所述信息类别指示为视频类别的情况下,将所述文案信息中的视频帧像素信息导入与所述视频类别对应的第三子神经网络模型中,以得到所述视频帧像素信息的视频特征;
在所述信息类别指示为相关类别的情况下,将所述文案信息中的相关信息导入与所述相关类别对应的第四子神经网络模型中,以得到所述相关信息的相关特征;
获取所述深度文案生成模型所输出的所述目标词序列;
根据所述目标词序列生成所述目标文案。
2.根据权利要求1所述的方法,其特征在于,在所述将所述文案信息分别导入所述深度文案生成模型中与所述信息类别对应的子神经网络模型之后,还包括:
获取各个所述信息类别所对应的所述文案特征;
拼接获取到的所述文案特征,得到最终特征表示,其中,在所述最终特征表示中,缺省的所述信息类别对应的所述文案特征置零;
根据所述最终特征表示确定所述目标词序列中所包含的词的标识。
3.根据权利要求2所述的方法,其特征在于,所述根据所述最终特征表示确定所述目标词序列中所包含的词的标识包括:
重复执行以下步骤,直至获取到停止词的标识,所述停止词用于指示停止生成过程:
获取在所述目标词序列中位于当前词之前解码得到的上一个词的标识;
在所述上一个词的标识并非所述停止词的标识的情况下,根据所述上一个词的标识对所述最终特征表示进行再次解码,获取所述当前词的标识。
4.根据权利要求1所述的方法,其特征在于,在所述获取待生成的文案的配置信息之前,还包括:
从文案采集系统中收集所述在线样本文案;
根据所述在线样本文案训练得到所述深度文案生成模型。
5.根据权利要求4所述的方法,其特征在于,所述根据所述在线样本文案训练得到所述深度文案生成模型包括:
获取与所述在线样本文案匹配的标签文案的标签中序列,其中,所述标签文案的点击率大于等于第二预定阈值;
重复执行以下步骤,直至与所述在线样本文案匹配的预测文案的预测中序列满足预定条件:
将所述在线样本文案的配置信息导入待测深度文案生成模型中,得到所述预测中序列;
比对所述标签中序列及所述预测中序列;
根据比对的结果对所述待测深度文案生成模型进行训练调整,其中,在比对的结果指示所述预测中序列向所述标签中序列收敛的情况下,则表示所述预测中序列满足所述预定条件,将输出满足所述预定条件的所述预测中序列对应的所述待测深度文案生成模型作为所述深度文案生成模型;在比对的结果指示所述预测中序列远离所述标签中序列的情况下,则表示所述预测中序列不满足所述预定条件,优化所述待测深度文案生成模型中的参数值,重新获取所述在线样本文案继续进行训练调整。
6.一种文案生成装置,其特征在于,包括:
第一获取单元,用于获取待生成的文案的配置信息;
第一获取模块,用于获取所述配置信息中所包含的文案信息的信息类别;
导入模块,用于将所述文案信息分别导入深度文案生成模型中与所述信息类别对应的子神经网络模型中,其中,所述深度文案生成模型利用在线样本文案训练得到,所述子神经网络用于提取所述信息类别下的所述文案信息中的文案特征,所述文案特征用于获取与目标文案对应的目标词序列,所述目标文案的点击率大于等于第一预定阈值;
第一导入子模块,用于在所述信息类别指示为文本类别的情况下,将所述文案信息中的文本信息导入与所述文本类别对应的第一子神经网络模型中,以得到所述文本信息的文本特征;
第二导入子模块,用于在所述信息类别指示为图像类别的情况下,将所述文案信息中的图像像素信息导入与所述图像类别对应的第二子神经网络模型中,以得到所述图像像素信息的图像特征;
第三导入子模块,用于在所述信息类别指示为视频类别的情况下,将所述文案信息中的视频帧像素信息导入与所述视频类别对应的第三子神经网络模型中,以得到所述视频帧像素信息的视频特征;
第四导入子模块,用于在所述信息类别指示为相关类别的情况下,将所述文案信息中的相关信息导入与所述相关类别对应的第四子神经网络模型中,以得到所述相关信息的相关特征;
第二获取单元,用于获取所述深度文案生成模型所输出的所述目标词序列;
生成单元,用于根据所述目标词序列生成所述目标文案。
7.根据权利要求6所述的装置,其特征在于,还包括:
第二获取模块,用于在所述将所述文案信息分别导入所述深度文案生成模型中与所述信息类别对应的子神经网络模型之后,获取各个所述信息类别所对应的所述文案特征;
拼接模块,用于拼接获取到的所述文案特征,得到最终特征表示,其中,在所述最终特征表示中,缺省的所述信息类别对应的所述文案特征置零;
确定模块,用于根据所述最终特征表示确定所述目标词序列中所包含的词的标识。
8.根据权利要求7所述的装置,其特征在于,所述确定模块包括:
处理子模块,用于重复执行以下步骤,直至获取到停止词的标识,所述停止词用于指示停止生成过程:
获取在所述目标词序列中位于当前词之前解码得到的上一个词的标识;
在所述上一个词的标识并非所述停止词的标识的情况下,根据所述上一个词的标识对所述最终特征表示进行再次解码,获取所述当前词的标识。
9.根据权利要求6所述的装置,其特征在于,所述装置还包括:
收集单元,用于从文案采集系统中收集所述在线样本文案;
训练单元,用于根据所述在线样本文案训练得到所述深度文案生成模型;
其中,所述训练单元包括:
第三获取模块,用于获取与所述在线样本文案匹配的标签文案的标签中序列,其中,所述标签文案的点击率大于等于第二预定阈值;
处理模块,用于重复执行以下步骤,直至与所述在线样本文案匹配的预测文案的预测中序列满足预定条件:
将所述在线样本文案的配置信息导入待测深度文案生成模型中,得到所述预测中序列;
比对所述标签中序列及所述预测中序列;
根据比对的结果对所述待测深度文案生成模型进行训练调整,其中,在比对的结果指示所述预测中序列向所述标签中序列收敛的情况下,则表示所述预测中序列满足所述预定条件,将输出满足所述预定条件的所述预测中序列对应的所述待测深度文案生成模型作为所述深度文案生成模型;在比对的结果指示所述预测中序列远离所述标签中序列的情况下,则表示所述预测中序列不满足所述预定条件,优化所述待测深度文案生成模型中的参数值,重新获取所述在线样本文案继续进行训练调整。
10.一种存储介质,其特征在于,所述存储介质包括存储的程序,其中,所述程序运行时执行所述权利要求1至5任一项中所述的方法。
11.一种电子装置,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器通过所述计算机程序执行所述权利要求1至5任一项中所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710846808.5A CN109522531B (zh) | 2017-09-18 | 2017-09-18 | 文案生成方法和装置、存储介质及电子装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710846808.5A CN109522531B (zh) | 2017-09-18 | 2017-09-18 | 文案生成方法和装置、存储介质及电子装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109522531A CN109522531A (zh) | 2019-03-26 |
CN109522531B true CN109522531B (zh) | 2023-04-07 |
Family
ID=65768687
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710846808.5A Active CN109522531B (zh) | 2017-09-18 | 2017-09-18 | 文案生成方法和装置、存储介质及电子装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109522531B (zh) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110196972B (zh) * | 2019-04-24 | 2022-11-01 | 北京奇艺世纪科技有限公司 | 文案生成方法、装置及计算机可读存储介质 |
CN110489574B (zh) * | 2019-08-05 | 2022-06-03 | 东软集团股份有限公司 | 一种多媒体信息推荐方法、装置和相关设备 |
CN111062385A (zh) * | 2019-11-18 | 2020-04-24 | 上海眼控科技股份有限公司 | 一种用于图像文本信息检测的网络模型构建方法与系统 |
CN111757173B (zh) * | 2019-12-23 | 2022-11-08 | 北京沃东天骏信息技术有限公司 | 一种解说词生成方法、装置、智能音箱及存储介质 |
CN113129051B (zh) * | 2020-01-15 | 2023-09-08 | 百度在线网络技术(北京)有限公司 | 广告文案生成方法、装置、设备和存储介质 |
CN111581926B (zh) * | 2020-05-15 | 2023-09-01 | 抖音视界有限公司 | 文案生成方法、装置、设备和计算机可读存储介质 |
CN112256902A (zh) * | 2020-10-20 | 2021-01-22 | 广东三维家信息科技有限公司 | 图片的文案生成方法、装置、设备及存储介质 |
CN112487151A (zh) * | 2020-12-14 | 2021-03-12 | 深圳市欢太科技有限公司 | 文案生成方法及装置、存储介质与电子设备 |
CN112287685B (zh) * | 2020-12-24 | 2021-03-19 | 成都新希望金融信息有限公司 | 文案生成方法、装置、电子设备及存储介质 |
CN113254633B (zh) * | 2021-05-10 | 2024-05-03 | 中国民生银行股份有限公司 | 消息文案生成方法和装置 |
CN114997131A (zh) * | 2022-05-19 | 2022-09-02 | 北京沃东天骏信息技术有限公司 | 文案生成方法、模型训练方法及装置、设备、存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101216842A (zh) * | 2008-01-07 | 2008-07-09 | 华为技术有限公司 | 获取页面关键词的方法及页面信息处理装置 |
CN104699763A (zh) * | 2015-02-11 | 2015-06-10 | 中国科学院新疆理化技术研究所 | 多特征融合的文本相似性度量系统 |
CN105052161A (zh) * | 2013-03-15 | 2015-11-11 | 康格尼蒂夫媒体网络公司 | 用于使用自动化内容识别数据库的实时电视广告检测的系统和方法 |
CN105279495A (zh) * | 2015-10-23 | 2016-01-27 | 天津大学 | 一种基于深度学习和文本总结的视频描述方法 |
CN106056207A (zh) * | 2016-05-09 | 2016-10-26 | 武汉科技大学 | 一种基于自然语言的机器人深度交互与推理方法与装置 |
CN106815592A (zh) * | 2015-11-27 | 2017-06-09 | 北京国双科技有限公司 | 模型训练方法及装置和错别字识别方法及装置 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9971765B2 (en) * | 2014-05-13 | 2018-05-15 | Nuance Communications, Inc. | Revising language model scores based on semantic class hypotheses |
US10026020B2 (en) * | 2016-01-15 | 2018-07-17 | Adobe Systems Incorporated | Embedding space for images with multiple text labels |
-
2017
- 2017-09-18 CN CN201710846808.5A patent/CN109522531B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101216842A (zh) * | 2008-01-07 | 2008-07-09 | 华为技术有限公司 | 获取页面关键词的方法及页面信息处理装置 |
CN105052161A (zh) * | 2013-03-15 | 2015-11-11 | 康格尼蒂夫媒体网络公司 | 用于使用自动化内容识别数据库的实时电视广告检测的系统和方法 |
CN104699763A (zh) * | 2015-02-11 | 2015-06-10 | 中国科学院新疆理化技术研究所 | 多特征融合的文本相似性度量系统 |
CN105279495A (zh) * | 2015-10-23 | 2016-01-27 | 天津大学 | 一种基于深度学习和文本总结的视频描述方法 |
CN106815592A (zh) * | 2015-11-27 | 2017-06-09 | 北京国双科技有限公司 | 模型训练方法及装置和错别字识别方法及装置 |
CN106056207A (zh) * | 2016-05-09 | 2016-10-26 | 武汉科技大学 | 一种基于自然语言的机器人深度交互与推理方法与装置 |
Non-Patent Citations (3)
Title |
---|
Saidane Z. 等.Automatic scene text recognition using a convolutional neural network.《Workshop on Camera-Based Document Analysis and Recognition》.2007,第1卷100-106. * |
刘一佳 等.基于序列标注的中文分词、词性标注模型比较分析.《中文信息学报》.2013,第27卷(第4期),30-36. * |
杨雅青.基于数据挖掘的电子商务公司综合管理营销系统的设计与实现.《中国优秀硕士学位论文全文数据库信息科技辑》.2017,(第06期),I138-795. * |
Also Published As
Publication number | Publication date |
---|---|
CN109522531A (zh) | 2019-03-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109522531B (zh) | 文案生成方法和装置、存储介质及电子装置 | |
CN109271493B (zh) | 一种语言文本处理方法、装置和存储介质 | |
CN111582241B (zh) | 视频字幕识别方法、装置、设备及存储介质 | |
US20170105051A1 (en) | Method and Apparatus for Increasing User Engagement with Video Advertisements and Content by Summarization | |
CN110717325B (zh) | 文本的情感分析方法、装置、电子设备及存储介质 | |
CN105160545B (zh) | 投放信息样式确定方法及装置 | |
CN109214374B (zh) | 视频分类方法、装置、服务器及计算机可读存储介质 | |
CN110598095B (zh) | 一种识别包含指定信息文章的方法、装置及存储介质 | |
CN111143617A (zh) | 一种图片或视频文本描述自动生成方法及系统 | |
CN112149632A (zh) | 一种视频识别方法、装置及电子设备 | |
CN113923504B (zh) | 视频预览动图生成方法和装置 | |
CN111651674B (zh) | 双向搜索方法、装置及电子设备 | |
CN116701637B (zh) | 一种基于clip的零样本文本分类方法、系统及介质 | |
KR102574857B1 (ko) | 광고 콘텐츠 및 랜딩 페이지 자동 생성 시스템 | |
CN113313215A (zh) | 图像数据处理方法、装置、计算机设备和存储介质 | |
CN115759293A (zh) | 模型训练方法、图像检索方法、装置及电子设备 | |
CN110381367B (zh) | 一种视频处理方法、设备及计算机可读存储介质 | |
CN113806622A (zh) | 推荐方法、装置及设备 | |
KR20220022767A (ko) | 광고 분석 시스템 및 방법 | |
CN110611848A (zh) | 信息处理方法、系统、终端、服务器及可读存储介质 | |
CN110598125A (zh) | 一种评估关键意见领袖投入的方法及装置、存储介质 | |
CN112925972B (zh) | 信息推送方法、装置、电子设备和存储介质 | |
CN117579889A (zh) | 图像生成方法、装置、电子设备以及存储介质 | |
CN116720894A (zh) | 一种基于短期兴趣的社交媒体广告推荐方法 | |
CN116012929A (zh) | 客户的分类方法、装置及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |