CN109800399A - 模型生成方法、封面生成方法、装置及存储介质 - Google Patents
模型生成方法、封面生成方法、装置及存储介质 Download PDFInfo
- Publication number
- CN109800399A CN109800399A CN201811549962.7A CN201811549962A CN109800399A CN 109800399 A CN109800399 A CN 109800399A CN 201811549962 A CN201811549962 A CN 201811549962A CN 109800399 A CN109800399 A CN 109800399A
- Authority
- CN
- China
- Prior art keywords
- cover
- literary works
- model
- information
- network model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明提供了一种模型生成方法、封面生成方法、装置及存储介质,该模型生成方法包括:采集文学作品的样本数据,该文学作品的样本数据中包括多个现有文学作品对应的描述信息;根据文学作品的样本数据,对生成式对抗网络模型进行训练,以生成目标网络模型;根据目标网络模型,获取封面生成网络模型。利用文学作品的样本数据对生成式对抗网络模型进行训练,以获取封面生成网络模型,从而能够生成具有吸引力以及趣味性的文学作品封面,简化封面生成的操作,提升封面生成操作的速率和有效性,进而提高文学作品的传播效率。
Description
技术领域
本发明属于图像处理领域,特别是涉及一种模型生成方法、封面生成方法、装置及存储介质。
背景技术
在现有技术中,用户在文学作品发布平台上创建或者上传作品时,如果没有上传对应的封面图片,文学作品发布平台会提供一个或几个默认封面图片作为可选封面,用户可以基于该可选封面进行选择。
由于封面图片是浏览文学作品发布平台上内容时每个文学作品最吸引读者注意力的内容,不同的封面会对用户产生较大区别的影响,而一般的默认封面图片简单且可选范围较小,对于每个单独的文学作品不具有针对性,不仅导致文学作品发布平台上缺乏有效内容,还大幅降低了读者阅读文学作品的欲望,进而导致文学作品的传播范围小且影响力低,进一步影响文学作品发布平台的效率。
发明内容
有鉴于此,本发明提供一种模型生成方法、封面生成方法、装置及存储介质,以便解决现有技术存在的文学作品的封面导致文学作品的传播性较差的问题。
依据本发明的第一方面,提供了一种模型生成方法,该方法可以包括:
采集文学作品的样本数据,所述文学作品的样本数据中包括现有文学作品对应的描述信息;
根据所述文学作品的样本数据,对生成式对抗网络模型进行训练,以生成目标网络模型;
根据所述目标网络模型,获取封面生成网络模型。
依据本发明的第二方面,提供了一种封面生成方法,该方法可以包括:
获取待生成封面的第一文学作品的特征信息,所述特征信息包括所述第一文学作品的作品标签和所述第一文学作品的作品分类;
根据所述特征信息,利用预先确定的封面生成网络模型,生成所述第一文学作品对应的第一封面,所述封面生成网络模型是利用第一方面所述的模型生成方法所生成的;
输出所述第一封面。
依据本发明的第三方面,提供了一种模型生成装置,该装置可以包括:
数据采集模块,用于采集文学作品的样本数据,所述文学作品的样本数据中包括现有文学作品对应的描述信息;
模型训练模块,用于根据所述文学作品的样本数据,对生成式对抗网络模型进行训练,以生成目标网络模型;
模型确定模块,用于根据所述目标网络模型,获取封面生成网络模型。
依据本发明的第四方面,提供了一种封面生成装置,该装置可以包括:
信息获取模块,用于获取待生成封面的第一文学作品的特征信息,所述特征信息包括所述第一文学作品的作品标签和所述第一文学作品的作品分类;
封面确定模块,用于根据所述特征信息,利用预先确定的封面生成网络模型,生成所述第一文学作品对应的第一封面,所述封面生成网络模型是利用第三方面所述的模型生成装置所生成的;
封面输出模块,用于输出所述第一封面。
依据本发明的第五方面,提供了一种计算机可读存储介质,所述计算机可读存储介质上存储计算机程序,所述计算机程序被处理器执行时实现如第一方面所述的模型生成方法的步骤。
依据本发明的第六方面,提供了一种计算机可读存储介质,所述计算机可读存储介质上存储计算机程序,所述计算机程序被处理器执行时实现如第二方面所述的封面生成方法的步骤。
针对在先技术,本发明具备如下优点:
采集文学作品的样本数据,所述文学作品的样本数据中包括多个现有文学作品对应的描述信息;根据所述文学作品的样本数据,对生成式对抗网络模型进行训练,以生成目标网络模型;根据所述目标网络模型,获取封面生成网络模型。通过现有的文学作品的样本数据对生成式对抗网络模型进行的训练,获取用于生成文学作品封面的封面生成网络模型,从而能够生成具有吸引力以及趣味性的文学作品封面,简化封面生成的操作,提升封面生成操作的有效性和速率。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,而可依照说明书的内容予以实施,并且为了让本发明的上述和其它目的、特征和优点能够更明显易懂,以下特举本发明的具体实施方式。
附图说明
通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本发明的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:
图1是本发明实施例提供的一种模型生成方法的步骤流程图;
图2是本发明实施例提供的一种模型生成方法的具体步骤流程图;
图3是本发明实施例提供的一种模型生成方法的具体步骤流程图;
图4是本发明实施例提供的一种封面生成方法的步骤流程图;
图5是本发明实施例提供的一种封面生成方法的步骤流程图;
图6是本发明实施例提供的一种基于模型生成方法的封面生成方法实现的结构框图;
图7是本发明实施例提供的一种模型生成装置的框图;
图8是本发明实施例提供的一种封面生成装置的框图。
具体实施方式
下面将参照附图更详细地描述本发明的示例性实施例。虽然附图中显示了本发明的示例性实施例,然而应当理解,可以以各种形式实现本发明而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本发明,并且能够将本发明的范围完整的传达给本领域的技术人员。
如图1所示是本申请实施例提出的一种模型生成方法的步骤流程图,该方法具体可以包括:
步骤101,采集文学作品的样本数据。
其中,文学作品的样本数据中包括多个现有文学作品对应的描述信息。
在具体应用过程中,用于生成封面的封面生成网络模型首先需要利用GAN对现有的文学作品的描述信息进行训练,以获取符合生成条件的网络模型,示例地,可以采集现有的多个文学作品平台上关于现有文学作品的数据信息作为样本数据,例如包括对于文学作品的分类信息、标签信息以及对应设置的封面图片等。
其中,文学作品的样本数据中现有文学作品的描述信息包括现有文学作品的封面信息、现有文学作品的分类信息和标签信息。
步骤102,根据文学作品的样本数据,对生成式对抗网络模型进行训练,以生成目标网络模型。
其中,生成式对抗网络(缩写:GAN,英文:Generative Adversarial Networks)是一种深度学习模型,通常包括(至少)两个模块:生成模型(缩写:G模型,英文:GenerativeModel)和判别模型(缩写:D模型,英文:Discriminative Model),通过上述两个模块的互相博弈学习产生优化的输出。原始GAN理论中,并不要求G模型和D模型都是神经网络模型,只需要是能拟合相应生成和判别的函数即可,但在具体应用中一般均使用深度神经网络模型作为G模型和D模型。具体的,G模型是一个生成图片的网络模型,它通过接收一个随机的噪声z基于现有的物体图片集生成新的图片(与原物体图片集中的图片不同),记为G(z);D模型是一个判别网络模型,用于判别一张图片是不是“真实的”,它的输入参数是x代表一张图片,其输出(D(x))代表x为真实图片的概率,也就是说如果D(x)为1,就代表输入100%是真实的图片,而输出D(x)为0,就代表x不可能是真实图片。
步骤103,根据目标网络模型,获取封面生成网络模型。
示例地,通过现有文学作品的描述信息对GAN进行训练,以生成具有实际应用条件的GAN,也就是当GAN中的G模型所生成的图片让GAN中的D模型无法分别是否为真实图片,可以结束对模型训练的过程,当前的GAN中的G模型能够作为封面生成网络模型,实现对文学作品进行封面图片的生成操作。
可选的,基于上述实施例,图2是本发明实施例提供的一种模型生成方法的具体步骤流程图,如图2所示,步骤102所述的根据文学作品的样本数据,对生成式对抗网络模型进行训练,以获取目标网络模型,可以包括:
步骤1021,利用预设的字段采集网络模型,获取目标字段信息。
其中,目标字段信息包括现有文学作品的分类信息中的特征字段和标签信息中的特征字段。
示例地,基于文学作品的样本数据,可以利用Doc2Vec(文章转换为向量)算法生成原始作品分类和作品标签信息的句子向量,还可以利用RNN(中文:循环神经网络,英文:Recurrent Neural Network)对原始作品描述中进行特征字段的提取,进而确定出能够用于训练生成式对抗网络模型,将由分类信息中的特征字段和标签信息中的特征字段作为输入向量,同时去除文学作品的样本数据中无用或者不准确的信息,以优化生成式对抗网络模型的训练效果。
步骤1022,根据预设噪声和目标字段信息,利用生成模型,生成现有文学作品的训练封面。
示例地,G模型是通过接收一个随机的预设噪声z,z可以是一个从正态分布中得到的随机变量,结合目标字段信息进而生成训练封面,再输入到D模型进行判别,以确定该训练封面是否为真实图片,也就是确定G模型是否作为封面生成网络模型被使用。
步骤1023,根据训练封面、目标字段信息和现有文学作品的封面信息,利用判别模型,获取生成式对抗网络模型的输出指标。
优选的,如图3所示,该步骤可以分为以下子步骤:
步骤10231,根据预设的信息组合策略,对训练封面、目标字段信息和现有文学作品的封面信息进行组合,以确定用于输入判别模型的第一数据。
步骤10232,将第一数据输入判别模型,以获取生成式对抗网络模型的输出指标。
示例地,将现有文学作品的实际封面图片和与其匹配的文学作品的分类信息和/或标签信息和/或描述信息作为组合、将通过GAN中的G模型生成的训练封面以及与其匹配的文学作品的分类和/或标签信息和/或描述信息作为组合、将现有文学作品的实际封面图片和与其不匹配的文学作品的分类信息和/或标签信息和/或描述信息作为组合,输入到D模型中。
比如一个文学作品的实际封面图片的分类是青春,题材是玄幻、上古神话,元素是超能力、洪荒,风格是古风,可以将组合A:实际封面图片+分类是青春+题材是玄幻、上古神话+元素是超能力、洪荒+风格是古风;组合B:训练封面+分类是青春+题材是玄幻、上古神话+元素是超能力、洪荒+风格是古风;组合C:实际封面图片+分类是青春+题材是综漫、上古神话+元素是超能力、洪荒+风格是古风;组合D:实际封面图片+分类是青春+题材是玄幻、上古神话+元素是超能力、洪荒+风格是写实的数据组都输入到D模型中,上述组合A、组合B、组合C、组合D可以作为第一数据,并输入到D模型中以获取其输出,该GAN的输出指标可以用于判断是否结束对生成式对抗网络的训练,也就是进行下面步骤3024的操作。
步骤1024,在输出指标等于预设指标阈值的情况下,将生成式对抗网络模型作为目标网络模型。
其中,在D(G(z))(输出指标)=0.5(预设指标阈值)时,说明可以停止对生成式对抗网络模型进行训练,即将当前的GAN作为目标网络模型,其中的G模型作为封面生成网络模型。
在D(G(z))不等于0.5的情况下,说明对于GAN的模型训练还不能够结束,需要继续进行再训练,直至输出指标等于预设指标阈值为止。
综上所述,本申请提出的模型生成方法,通过采集文学作品的样本数据,该文学作品的样本数据中包括多个现有文学作品对应的描述信息;根据文学作品的样本数据,对生成式对抗网络模型进行训练,以生成目标网络模型;根据目标网络模型,获取封面生成网络模型。利用文学作品的样本数据对生成式对抗网络模型进行训练,以获取封面生成网络模型,从而能够生成具有吸引力以及趣味性的文学作品封面,简化封面生成的操作,提升封面生成操作的速率和有效性,进而提高文学作品的传播效率。
可选的,在上述实施例的基础上,所述方法还可以包括:将封面生成网络模型应用于封面生成方法中。其中,图4是本发明实施例提供的一种封面生成方法的步骤流程图,如图4所示,该方法可以包括:
步骤401,获取待生成封面的第一文学作品的特征信息。
其中,特征信息包括第一文学作品的作品标签和第一文学作品的作品分类。
示例地,对于一个文学作品的分类可以包括青春、家庭、军事、都市、现代言情、古代言情等15类,对应的文学作品的标签可以包含人设、题材、元素、风格四大类,进一步的人设有军阀、妃嫔、锦衣卫、王子等75种,题材包括综漫、玄幻、武侠等59种,元素包括金手指、犯罪、铁汉柔情等72种,风格包括铁血、热血、轻松爆笑、恐怖等25种。当用户在文学作品发布平台上创建一个新的文学作品时,作者可以按照上述的分类对应选择要发布的第一文学作品对应的特征信息,还可以提供对于第一文学作品的说明,比如内容梗概,故事大纲等,以便下面步骤根据特征信息为其生成可选封面。此外,还可以利用文本识别网络对作者上传的第一文学作品进行文本解析,根据文本解析结果对应生成第一文学作品的特征信息,作为封面生成的依据。对获取特征信息的方式,本申请不做具体限制。
步骤402,根据特征信息,利用预先确定的封面生成网络模型,生成第一文学作品对应的第一封面。
其中,封面生成网络模型是根据文学作品的样本数据对生成式对抗网络模型进行训练所确定的,文学作品的样本数据包括多个现有文学作品对应的所有描述信息。
因此本申请提出的技术方案是通过采集现有的文学作品的数据信息,例如文学作品的标签、分类以及已生成的封面图片等,作为训练数据集,之后通过这些相关的数据信息对GAN进行训练,由于在GAN训练过程中,G模型的目标就是尽量生成真实的图片去欺骗D模型,而D模型的目标就是尽可能将G模型生成的图片与真实的图片区分开来,因此在最理想的状态下,G模型生成足以“以假乱真”的图片G(z),对于D模型来说,难以判定G模型生成所生成的图片究竟是不是真实的,也就是说D(G(z))=0.5,此时训练得到的GAN中的G模型即可以作为封面生成网络模型,对文学作品生成对应的封面。
步骤403,输出第一封面。
在具体应用场景下,通过上述步骤对第一文学作品确定了相应的第一封面后,可以输出给用户以供选择,用户对于第一封面满意的话,即可以作为第一文学作品在该文学作品发布平台上的封面图片进行存储,当其他用户或者读者在该平台上浏览时,查看到第一封面而引起他们对于第一文学作品的阅读兴趣。
综上所述,本申请提供的封面生成方法,获取待生成封面的第一文学作品的特征信息,特征信息包括第一文学作品的作品标签和第一文学作品的作品分类;根据特征信息,利用预先确定的封面生成网络模型,生成第一文学作品对应的第一封面,封面生成网络模型是根据文学作品的样本数据对生成式对抗网络模型进行训练所确定的,文学作品的样本数据中包括现有文学作品对应的描述信息;输出第一封面。因此,利用封面生成网络模型能够生成具有吸引力以及趣味性的文学作品封面,简化封面生成的操作,提升封面生成操作的速率和有效性,进而提高文学作品的传播效率。
可选的,图5是本发明实施例提供的一种封面生成方法的步骤流程图,如图5所示,在步骤403之后,还可以包括:
步骤404,获取确认指令。
其中,该确认指令为用户确认将第一封面作为第一文学作品的封面后生成的。
步骤405,根据确认指令,保存第一封面,并将第一封面与第一文学作品进行关联。
示例地,根据图4的实施例确定出的第一封面,输出给用户进行选择,当用户确定该第一封面符合其第一文学作品所代表的内容或者符合用户喜好时,可以选择该第一封面,例如点击预设确认按钮,以生成确认指令,文学作品发布平台的服务器则会响应于该确认指令首先对第一封面进行存储,并同时将第一封面关联至第一文学作品,之后读者在文学作品发布平台上浏览时,将看到第一文学作品的封面为第一封面。反之,当用户并不满意该第一封面的情况下,可以对输入的第一文学作品的特征信息进行修改,再次利用上述实施例所述的方法生成新的封面图片。
可选的,图1-3所示实施例的模型生成方法与图4-5中实施例所述的封面生成方法的结合方式的结构框图,如图6所示。左侧框表示封面生成网络模型的生成过程,生成模型利用噪音和目标字段信息生成一个训练封面,之后将训练封面、目标字段信息以及现有文学作品的封面信息作为第一数据进行判别模型的计算,将符合生成条件的判别模型应用在右侧框中的封面生成方法步骤中,以对应生成符合文学作品特点的封面,简化封面的生成操作,同时提升文学作品的传播率。
图7是本发明实施例提供了一种模型生成装置,所述装置700包括:
数据采集模块710,用于采集文学作品的样本数据。
模型训练模块720,用于根据文学作品的样本数据,对生成式对抗网络模型进行训练,以生成目标网络模型。
模型确定模块730,用于根据目标网络模型,获取封面生成网络模型。
可选的,生成式对抗网络模型包括生成模型和判别模型,描述数据包括封面信息、分类信息和标签信息,该模型训练模块720,包括:
信息确定子模块,用于利用预设的字段采集网络模型,获取目标字段信息。
其中,目标字段信息包括现有文学作品的分类信息中的特征字段和标签信息中的特征字段。
封面生成子模块,用于根据预设噪声和目标字段信息,利用生成模型,生成现有文学作品的训练封面。
指标获取子模块,用于根据训练封面、目标字段信息和现有文学作品的封面信息,利用判别模型,获取生成式对抗网络模型的输出指标。
模型确定子模块,用于在输出指标符合生成条件的情况下,将生成式对抗网络模型作为目标网络模型。
可选的,指标确定子模块,包括:
信息组合单元,用于根据预设的信息组合策略,对训练封面、目标字段信息和现有文学作品的封面信息进行组合,以确定用于输入判别模型的第一数据;
数据输入单元,用于将第一数据输入判别模型,以获取生成式对抗网络模型的输出指标。
在另一实施例中,该实施例在上述实施例的基础上,图8是本发明实施例提供的一种封面生成装置的框图,如图8所示,该装置800包括:
信息获取模块810,用于获取待生成封面的第一文学作品的特征信息,特征信息包括第一文学作品的作品标签和第一文学作品的作品分类。
封面生成模块820,用于根据特征信息,利用预先确定的封面生成网络模型,生成第一文学作品对应的第一封面,封面生成网络模型是根据文学作品的样本数据对生成式对抗网络模型进行训练所确定的。
封面输出模块830,用于输出第一封面。
可选的,该装置800还包括:
指令获取模块,用于在输出第一封面之后,获取确认指令,该确认指令为用户确认将第一封面作为第一文学作品的封面后生成的。
保存模块,用于根据确认指令,保存第一封面,并将第一封面与第一文学作品进行关联。
另外,本发明实施例还提供一种终端,包括处理器,存储器,存储在存储器上并可在处理上运行的计算机程序,该计算机程序被处理器执行时实现上述的模型生成方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
本发明实施例还提供一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,该计算机程序被处理器执行时实现上述的模型生成方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。其中,所述的计算机可读存储介质,可以为只读存储器(Read-Only Memory,简称ROM)、随机存取存储器(Random Access Memory,简称RAM)、磁碟或者光盘等。
另外,本发明实施例还提供一种终端,包括处理器,存储器,存储在存储器上并可在处理上运行的计算机程序,该计算机程序被处理器执行时实现上述的封面生成方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
本发明实施例还提供一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,该计算机程序被处理器执行时实现上述的封面生成方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。其中,所述的计算机可读存储介质,可以为只读存储器(Read-Only Memory,简称ROM)、随机存取存储器(Random Access Memory,简称RAM)、磁碟或者光盘等。
对于上述装置实施例而言,由于其与方法实施例基本相似,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。
本领域技术人员易于想到的是:上述各个实施例的任意组合应用都是可行的,故上述各个实施例之间的任意组合都是本发明的实施方案,但是由于篇幅限制,本说明书在此就不一一详述了。
在此提供的模型生成方法、封面生成方法不与任何特定计算机、虚拟系统或者其它设备固有相关。各种通用系统也可以与基于在此的示教一起使用。根据上面的描述,构造具有本发明方案的系统所要求的结构是显而易见的。此外,本发明也不针对任何特定编程语言。应当明白,可以利用各种编程语言实现在此描述的本发明的内容,并且上面对特定语言所做的描述是为了披露本发明的最佳实施方式。
在此处所提供的说明书中,说明了大量具体细节。然而,能够理解,本发明的实施例可以在没有这些具体细节的情况下实践。在一些实例中,并未详细示出公知的方法、结构和技术,以便不模糊对本说明书的理解。
类似地,应当理解,为了精简本发明并帮助理解各个发明方面中的一个或多个,在上面对本发明的示例性实施例的描述中,本发明的各个特征有时被一起分组到单个实施例、图、或者对其的描述中。然而,并不应将该公开的方法解释成反映如下意图:即所要求保护的本发明要求比在每个权利要求中所明确记载的特征更多的特征。更确切地说,如权利要求书所反映的那样,发明方面在于少于前面公开的单个实施例的所有特征。因此,遵循具体实施方式的权利要求书由此明确地并入该具体实施方式,其中每个权利要求本身都作为本发明的单独实施例。
本领域那些技术人员可以理解,可以对实施例中的设备中的模块进行自适应性地改变并且把它们设置在与该实施例不同的一个或多个设备中。可以把实施例中的模块或单元或组件组合成一个模块或单元或组件,以及此外可以把它们分成多个子模块或子单元或子组件。除了这样的特征和/或过程或者单元中的至少一些是相互排斥之外,可以采用任何组合对本说明书(包括伴随的权利要求、摘要和附图)中公开的所有特征以及如此公开的任何方法或者设备的所有过程或单元进行组合。除非另外明确陈述,本说明书(包括伴随的权利要求、摘要和附图)中公开的每个特征可以由提供相同、等同或相似目的的替代特征来代替。
此外,本领域的技术人员能够理解,尽管在此所述的一些实施例包括其它实施例中所包括的某些特征而不是其它特征,但是不同实施例的特征的组合意味着处于本发明的范围之内并且形成不同的实施例。例如,在权利要求书中,所要求保护的实施例的任意之一都可以以任意的组合方式来使用。
本发明的各个部件实施例可以以硬件实现,或者以在一个或者多个处理器上运行的软件模块实现,或者以它们的组合实现。本领域的技术人员应当理解,可以在实践中使用微处理器或者数字信号处理器(DSP)来实现根据本发明实施例的模型生成方法、封面生成方法中的一些或者全部部件的一些或者全部功能。本发明还可以实现为用于执行这里所描述的方法的一部分或者全部的设备或者装置程序(例如,计算机程序和计算机程序产品)。这样的实现本发明的程序可以存储在计算机可读介质上,或者可以具有一个或者多个信号的形式。这样的信号可以从因特网网站上下载得到,或者在载体信号上提供,或者以任何其他形式提供。
应该注意的是上述实施例对本发明进行说明而不是对本发明进行限制,并且本领域技术人员在不脱离所附权利要求的范围的情况下可设计出替换实施例。在权利要求中,不应将位于括号之间的任何参考符号构造成对权利要求的限制。单词“包含”不排除存在未列在权利要求中的元件或步骤。位于元件之前的单词“一”或“一个”不排除存在多个这样的元件。本发明可以借助于包括有若干不同元件的硬件以及借助于适当编程的计算机来实现。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。单词第一、第二、以及第三等的使用不表示任何顺序。可将这些单词解释为名称。
Claims (11)
1.一种模型生成方法,其特征在于,所述方法包括:
采集文学作品的样本数据,所述文学作品的样本数据中包括多个现有文学作品对应的描述信息;
根据所述文学作品的样本数据,对生成式对抗网络模型进行训练,以生成目标网络模型;
根据所述目标网络模型,获取封面生成网络模型。
2.根据权利要求1所述的方法,其特征在于,所述生成式对抗网络模型包括生成模型和判别模型,所述描述信息包括封面信息、分类信息和标签信息,所述根据所述文学作品的样本数据,对生成式对抗网络模型进行训练,以生成目标网络模型,包括:
利用预设的字段采集网络模型,获取目标字段信息,所述目标字段信息包括所述现有文学作品的分类信息中的特征字段和标签信息中的特征字段;
根据预设噪声和所述目标字段信息,利用所述生成模型,生成所述现有文学作品的训练封面;
根据所述训练封面、所述目标字段信息和所述现有文学作品的封面信息,利用所述判别模型,获取所述生成式对抗网络模型的输出指标;
在所述输出指标等于预设指标阈值的情况下,将所述生成式对抗网络模型作为所述目标网络模型。
3.根据权利要求2所述的方法,其特征在于,所述根据所述训练封面、所述目标字段信息和所述现有文学作品的封面信息,利用所述判别模型,获取所述生成式对抗网络模型的输出指标,包括:
根据预设的信息组合策略,对所述训练封面、所述目标字段信息和所述现有文学作品的封面信息进行组合,以确定用于输入所述判别模型的第一数据;
将所述第一数据输入所述判别模型,以获取所述生成式对抗网络模型的输出指标。
4.一种封面生成方法,其特征在于,所述方法包括:
获取待生成封面的第一文学作品的特征信息,所述特征信息包括所述第一文学作品的作品标签和所述第一文学作品的作品分类;
根据所述特征信息,利用预先确定的封面生成网络模型,生成所述第一文学作品对应的第一封面,所述封面生成网络模型是利用权利要求1至3中任一项所述的模型生成方法生成的;
输出所述第一封面。
5.根据权利要求4所述的方法,其特征在于,在所述输出所述第一封面之后,该方法还包括:
获取确认指令,所述确认指令为用户确认将所述第一封面作为所述第一文学作品的封面后生成的;
根据所述确认指令,保存所述第一封面,并将所述第一封面与所述第一文学作品进行关联。
6.一种模型生成装置,其特征在于,所述装置包括:
数据采集模块,用于采集文学作品的样本数据,所述文学作品的样本数据中包括多个现有文学作品对应的描述信息;
模型训练模块,用于根据所述文学作品的样本数据,对生成式对抗网络模型进行训练,以生成目标网络模型;
模型确定模块,用于根据所述目标网络模型,获取封面生成网络模型。
7.根据权利要求6所述的装置,其特征在于,所述生成式对抗网络模型包括生成模型和判别模型,所述描述信息包括封面信息、分类信息和标签信息,所述模型训练模块,包括:
信息确定子模块,用于利用预设的字段采集网络模型,获取目标字段信息,所述目标字段信息包括所述现有文学作品的分类信息中的特征字段和标签信息中的特征字段;
封面生成子模块,用于根据预设噪声和所述目标字段信息,利用所述生成模型,生成所述现有文学作品的训练封面;
指标获取子模块,用于根据所述训练封面、所述目标字段信息和所述现有文学作品的封面信息,利用所述判别模型,获取所述生成式对抗网络模型的输出指标;
网络确定子模块,用于在所述输出指标等于预设指标阈值的情况下,将所述生成式对抗网络模型作为所述目标网络模型。
8.根据权利要求7所述的装置,其特征在于,所述指标获取子模块,包括:
信息组合单元,用于根据预设的信息组合策略,对所述训练封面、所述目标字段信息和所述现有文学作品的封面信息进行组合,以确定用于输入所述判别模型的第一数据;
数据输入单元,用于将所述第一数据输入所述判别模型,以获取所述生成式对抗网络模型的输出指标。
9.一种封面生成装置,其特征在于,所述装置包括:
信息获取模块,用于获取待生成封面的第一文学作品的特征信息,所述特征信息包括所述第一文学作品的作品标签和所述第一文学作品的作品分类;
封面生成模块,用于根据所述特征信息,利用预先确定的封面生成网络模型,生成所述第一文学作品对应的第一封面,所述封面生成网络模型是利用权利要求6-8中任一项所述的模型生成装置所生成的;
封面输出模块,用于输出所述第一封面。
10.根据权利要求9所述的装置,其特征在于,所述装置还包括:
指令获取模块,用于在所述输出所述第一封面之后,获取确认指令,所述确认指令为用户确认将所述第一封面作为所述第一文学作品的封面后生成的;
保存模块,用于根据所述确认指令,保存所述第一封面,并将所述第一封面与所述第一文学作品进行关联。
11.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储计算机程序,所述计算机程序被处理器执行时实现如权利要求1至3中任一项所述的模型生成方法的步骤,或者,所述计算机程序被处理器执行时实现如权利要求4至5中任一项所述的封面生成方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811549962.7A CN109800399B (zh) | 2018-12-18 | 2018-12-18 | 模型生成方法、封面生成方法、装置及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811549962.7A CN109800399B (zh) | 2018-12-18 | 2018-12-18 | 模型生成方法、封面生成方法、装置及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109800399A true CN109800399A (zh) | 2019-05-24 |
CN109800399B CN109800399B (zh) | 2023-05-26 |
Family
ID=66557185
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811549962.7A Active CN109800399B (zh) | 2018-12-18 | 2018-12-18 | 模型生成方法、封面生成方法、装置及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109800399B (zh) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050055624A1 (en) * | 2003-04-17 | 2005-03-10 | Edward Seeman | Method, system, and computer-readable medium for creating electronic literary works, including works produced therefrom |
CN104915328A (zh) * | 2015-02-09 | 2015-09-16 | 北京邮电大学 | 一种网络文学作品协同创作方法 |
CN107392973A (zh) * | 2017-06-06 | 2017-11-24 | 中国科学院自动化研究所 | 像素级手写体汉字自动生成方法、存储设备、处理装置 |
US20170351935A1 (en) * | 2016-06-01 | 2017-12-07 | Mitsubishi Electric Research Laboratories, Inc | Method and System for Generating Multimodal Digital Images |
US20180190249A1 (en) * | 2016-12-30 | 2018-07-05 | Google Inc. | Machine Learning to Generate Music from Text |
US20180247156A1 (en) * | 2017-02-24 | 2018-08-30 | Xtract Technologies Inc. | Machine learning systems and methods for document matching |
CN108596265A (zh) * | 2018-05-02 | 2018-09-28 | 中山大学 | 基于文本描述信息和生成对抗网络的视频生成模型 |
CN108711138A (zh) * | 2018-06-06 | 2018-10-26 | 北京印刷学院 | 一种基于生成对抗网络的灰度图片彩色化方法 |
CN108898647A (zh) * | 2018-06-27 | 2018-11-27 | Oppo(重庆)智能科技有限公司 | 图像处理方法、装置、移动终端以及存储介质 |
-
2018
- 2018-12-18 CN CN201811549962.7A patent/CN109800399B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050055624A1 (en) * | 2003-04-17 | 2005-03-10 | Edward Seeman | Method, system, and computer-readable medium for creating electronic literary works, including works produced therefrom |
CN104915328A (zh) * | 2015-02-09 | 2015-09-16 | 北京邮电大学 | 一种网络文学作品协同创作方法 |
US20170351935A1 (en) * | 2016-06-01 | 2017-12-07 | Mitsubishi Electric Research Laboratories, Inc | Method and System for Generating Multimodal Digital Images |
US20180190249A1 (en) * | 2016-12-30 | 2018-07-05 | Google Inc. | Machine Learning to Generate Music from Text |
US20180247156A1 (en) * | 2017-02-24 | 2018-08-30 | Xtract Technologies Inc. | Machine learning systems and methods for document matching |
CN107392973A (zh) * | 2017-06-06 | 2017-11-24 | 中国科学院自动化研究所 | 像素级手写体汉字自动生成方法、存储设备、处理装置 |
CN108596265A (zh) * | 2018-05-02 | 2018-09-28 | 中山大学 | 基于文本描述信息和生成对抗网络的视频生成模型 |
CN108711138A (zh) * | 2018-06-06 | 2018-10-26 | 北京印刷学院 | 一种基于生成对抗网络的灰度图片彩色化方法 |
CN108898647A (zh) * | 2018-06-27 | 2018-11-27 | Oppo(重庆)智能科技有限公司 | 图像处理方法、装置、移动终端以及存储介质 |
Non-Patent Citations (5)
Title |
---|
SCOTT REED等: "Generative Adversarial Text to Image Synthesis", 《PROCEEDINGS OF THE 33RD INTERNATIONAL CONFERENCE ON MACHINE LEARNING》 * |
张雨石: "《https://blog.csdn.net/stdcoutzyx/article/details/78575240》", 19 November 2017 * |
易珂: "基于深度网络ACGAN的图像识别", 《电子技术与软件工程》 * |
易珂;: "基于深度网络ACGAN的图像识别", 电子技术与软件工程 * |
曹仰杰;贾丽丽;陈永霞;林楠;李学相;: "生成式对抗网络及其计算机视觉应用研究综述", 中国图象图形学报 * |
Also Published As
Publication number | Publication date |
---|---|
CN109800399B (zh) | 2023-05-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Ale et al. | Deep learning based plant disease detection for smart agriculture | |
CN108780519A (zh) | 卷积神经网络中的结构学习 | |
CN107123027A (zh) | 一种基于深度学习的化妆品推荐方法及系统 | |
CN109117897A (zh) | 基于卷积神经网络的图像处理方法、装置及可读存储介质 | |
CN111259814B (zh) | 一种活体检测方法及系统 | |
CN110503076A (zh) | 基于人工智能的视频分类方法、装置、设备和介质 | |
CN113723530B (zh) | 基于视频分析和电子心理沙盘的智能心理评估系统 | |
CN108961157A (zh) | 图片处理方法、图片处理装置及终端设备 | |
CN112100221B (zh) | 一种资讯推荐方法、装置、推荐服务器及存储介质 | |
CN109711136A (zh) | 存储设备、验证码图片生成方法和装置 | |
CN116958423B (zh) | 基于文本的三维建模方法、图像渲染方法及装置 | |
CN110210449A (zh) | 一种用于虚拟现实交友的人脸识别系统及方法 | |
CN109784185A (zh) | 基于微表情识别的客户餐饮评价自动获取方法及装置 | |
CN109447095A (zh) | 视觉属性识别方法、装置及存储介质 | |
CN110414001B (zh) | 语句生成方法和装置、存储介质及电子装置 | |
Cangea et al. | Videonavqa: Bridging the gap between visual and embodied question answering | |
CN109598201B (zh) | 动作检测方法、装置、电子设备及可读存储介质 | |
CN114917590B (zh) | 一种虚拟现实的游戏系统 | |
CN109800399A (zh) | 模型生成方法、封面生成方法、装置及存储介质 | |
CN117218468A (zh) | 特征提取模型训练方法、装置、电子设备及存储介质 | |
CN110930469A (zh) | 一种基于过渡空间映射的文本生成图像方法和系统 | |
CN108932704A (zh) | 图片处理方法、图片处理装置及终端设备 | |
Qu et al. | Unified Text-to-Image Generation and Retrieval | |
CN114373098A (zh) | 一种图像分类方法、装置、计算机设备及存储介质 | |
CN114691853A (zh) | 句子推荐方法、装置、设备及计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |