CN113537487A - 模型训练的方法、生成图片的方法及其装置 - Google Patents

模型训练的方法、生成图片的方法及其装置 Download PDF

Info

Publication number
CN113537487A
CN113537487A CN202110711228.1A CN202110711228A CN113537487A CN 113537487 A CN113537487 A CN 113537487A CN 202110711228 A CN202110711228 A CN 202110711228A CN 113537487 A CN113537487 A CN 113537487A
Authority
CN
China
Prior art keywords
picture
text
original picture
model
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110711228.1A
Other languages
English (en)
Other versions
CN113537487B (zh
Inventor
卞东海
郑烨翰
彭卫华
徐伟建
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN202110711228.1A priority Critical patent/CN113537487B/zh
Publication of CN113537487A publication Critical patent/CN113537487A/zh
Application granted granted Critical
Publication of CN113537487B publication Critical patent/CN113537487B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/51Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/53Querying
    • G06F16/532Query formulation, e.g. graphical querying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/53Querying
    • G06F16/538Presentation of query results
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/55Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5846Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using extracted text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Library & Information Science (AREA)
  • Image Analysis (AREA)

Abstract

本公开的实施例涉及模型训练的方法、生成图片的方法及其装置,涉及知识图谱、深度学习、计算机视觉领域。该模型训练的方法包括获取用于训练该模型的原始图片和用于描述该原始图片的文本。此外,该方法包括利用卷积神经网络模型,对该原始图片进行解析,以获取与该原始图片相关联的索引信息,其中该索引信息指示该原始图片中的像素特征的向量。该方法还包括优化该索引信息,并且利用经优化的该索引信息所指示的向量和该文本来训练该模型,其中该模型被用于基于输入文本生成图片。本公开的技术方案可以自动地根据用户的输入来生成符合用户需求且质量较好的图片。

Description

模型训练的方法、生成图片的方法及其装置
技术领域
本公开总体上涉及知识图谱、深度学习、计算机视觉领域,并且更具体地涉及一种模型训练的方法、生成图片的方法、装置、电子设备、计算机可读存储介质以及计算机程序产品。
背景技术
在进行创作期间,用户需要大量的图片来扩充其创作的素材。例如在进行写作时,需要用图片来可视化地呈现文字部分所要表达的内容,从而辅助写作。人们期望的使用的图片是独一无二的,即与现存的所有图片都不一样,从而能使得创作更有创意。如何根据用户的不同需求为用户个性化地定制图片,从而提高创作的效率,是设计者期望实现的一个目标。
发明内容
本公开提供了一种模型训练的方法、生成图片的方法、装置、电子设备、计算机可读存储介质以及计算机程序产品。
根据本公开的第一方面,提供了一种模型训练的方法。该方法包括:获取用于训练该模型的原始图片和用于描述该原始图片的文本;利用卷积神经网络模型,对该原始图片进行解析,以获取与该原始图片相关联的索引信息,其中该索引信息指示该原始图片中的像素特征的向量;以及利用该索引信息所指示的向量和该文本来训练该模型,其中该模型被用于基于输入文本生成图片。
根据本公开的第二方面,提供了一种生成图片的方法。该方法包括:接收用户的输入文本,该输入文本包括用于描述该图片的短语;以及基于接收到的输入文本,根据本公开的第一方面的方法所训练的模型,来生成该图片。
根据本公开的第三方面,提供了一种模型训练的装置,包括:获取模块,被配置为获取用于训练该模型的原始图片和用于描述该原始图片的文本;索引信息获取模块,被配置为利用卷积神经网络模型,对该原始图片进行解析,以获取与该原始图片相关联的索引信息,其中该索引信息指示该原始图片中的像素特征的向量;以及训练模块,被配置为利用该索引信息所指示的向量和该文本来训练该模型,其中该模型被用于基于输入文本生成图片。
根据本公开的第四方面,提供了一种生成图片的装置,包括:输入接收模块,被配置为接收用户的输入文本,该输入文本包括用于描述该图片的短语;以及图片生成模块,被配置为基于接收到的输入文本,根据本公开的第三方面的装置所训练的模型,来生成该图片。
根据本公开的第五方面,提供了一种电子设备,包括一个或多个处理器;以及存储装置,用于存储一个或多个程序,当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现根据本公开的第一方面及第二方面的方法。
根据本公开的第六方面,提供了一种计算机可读介质,其上存储有计算机程序,该程序被处理器执行时实现根据本公开的第一方面及第二方面的方法。
根据本公开的第七方面,提供了一种计算机程序产品,包括计算机程序指令,该计算机程序指令被处理器实现如本公开的第一方面及第二方面的方法。
本申请在进行图片生成模型的训练时,先基于原始图片的自我学习来优化与原始图片相关的索引信息,并利用优化后的该索引信息和用来描述原始图片的文本对模型进行训练。与仅考虑文本和原始图片的方案相比,本申请的方案生成的图片可以避免图片仅仅满足文本的要求而忽略图片真实度的缺陷,因此生成的图片的可接受度较高。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1示出了本公开的多个实施例能够在其中实现的示例环境的示意图;
图2示出了根据本公开的一些实施方式的用于模型训练的方法的流程图;
图3示出了根据本公开的一些实施方式的图片的自我学习的示意图;
图4示出了根据本公开内容的示例性实施方式的用于模型训练的装置的框图;以及
图5示出了能够实施本公开内容的多个实施方式的计算设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
如上文所述,当用户在进行创作时,需要依照其创作需求来添加各种图片。例如,在报道体育赛事时,可能需要一些数据结构图来对赛事中的统计数据进行可视化呈现,例如用饼状图来呈现某位篮球运动员的命中率。再如,在编辑卡通类文章时,可能需要提供一些富于创意性的图片,来使得文字的表达更加传神,例如绘制一只黑色的老虎。
在现有的环境中,用户可以去现有的图库中选择满足其需求的图片。然而,并非所有需要的图片都可以在现有的图库中找到。用户也可以选择完全由自己编辑图片,但是无论如何,这样的编辑工作都会导致增加额外的时间,从而降低创作的效率。
针对上述问题,本公开的实施方式提供了一种用于对图片生成模型进行训练并利用该模型生成图片的方案。下面将结合图1到图5来具体描述本公开的实施方式。
图1示出了本公开的多个实施例能够在其中实现的示例环境100的示意图。下面将结合文章写作的场景来描述本公开的实施方式。然而,应该理解的是,这样的描述仅仅是示意性的。本公开的实施方式还可以用于其他需要生成图片的场景,例如广告创作、视频创作等。具体的场景将不受到本公开的实施方式的限制。
如图1所示,在环境100中,计算设备110可以与用户进行交互,计算设备110被配置为基于用户的输入102生成用户所需要的输出104。该输出104可以是图片的形式。用户可以各种输入设备完成该输入102的键入。例如,可以通过与计算设备110以有线或者无线方式连接的键盘键入该输入102。本公开的技术方案中,所涉及的用户个人信息的获取,存储和应用等,均符合相关法律法规的规定,且不违背公序良俗。
输入102中可以包含多个短语。在本公开的语境下,术语“短语”可以表示能够描述用户所期望的图片的一些特征的词语,该词性可以包括但不限于名词、形容词、量词、动词。此外,该输入102中所包含的短语的数目也可以根据不同的使用场景而有所不同。例如,在图1的示意性环境中,当输入102为“写有‘飞机’字样的两架飞机”时,该输入102可以包括三个短语,这些短语分别是“写有‘飞机’字样”、“两架”、“飞机”。应当理解的是,这里的输入102仅仅是示意性的,而非限制性的,输入102的短语的类型和数目不受限于这里描述的实施例。
如图1所示,经过计算设备110学习得出的输出104是用户期望得到图片。该图片是针对于用户的输入102利用经训练的图片生成模型来得到的,换句话说,利用图片生成模型得到的图片是专门为该用户的需求而定制的图片,与现有的图片都是不一样的。此外,这样的图片是由计算设备110自动生成的,无需用户花费额外的时间和精力去另外的图片编辑软件中编辑图片,从而可以实现创作效率的极大提高。应该理解的是,该图片可以呈用户可以使用的任何格式,例如jpg格式、bmp格式、png格式,等等,具体的格式不受到本公开的实施例的限制,只要采用这样格式的图片可以被用户方便地使用即可,例如可以被直接拷贝到编辑文档中,以辅助用户的创作。由于所生成的图片的可用性很大程度取决于图片生成模型的好坏,因此如何有效地训练图片生成模型以得到令用户满意的图片是至关重要的。
下面参照图2来描述根据本公开的一些实施方式的训练模型的方法200。方法200可以由图1中的计算设备110执行,从而基于用户的输入102更加精确地生成输出104。
在框202,获取用于训练模型的原始图片以及用于描述该原始图片的文本,从而创建用于进行模型训练的数据集。所获取的这些图片可以从全网域爬虫抓取的符合要求的图片,而这些图片所对应的用以描述图片的对应文本信息也同时被获取。如果所抓取的图片没有对应的文本,则丢弃这样的图片。
在一些实施例中,可以从以知识百科为核心的素材中选取这些图片,这是由于这类数据库的图片大多是经过严格挑选或审核的,因此其可信度相对较高。借助这种方式,可以有助于提高模型训练所用的图片的质量。
为了进一步提高图片的质量,可以对一些相对混乱的图片和文本进行过滤。这样的过滤可以针对图片和相关的文本两者进行的。
针对图片的过滤,举例来说,如果图片的长度或者宽度小于一定的像素阈值,则这样的图片太小,往往不具有较高的清晰度,无法为模型训练提供令人满意的使用价值。因此,这样的图片需要被过滤掉。在一些实施例中,这样的像素阈值可以是300像素。应当理解的是,这里的阈值仅仅是示意性的,而非限制性的。根据不同的使用场景,图片的阈值可以是其他的数值,具体的数值不受限于这里描述的实施例。在另一些实施例中,如果图片的长宽比不满足一定的阈值范围,这样的图片也会被过滤掉。例如,图片的长宽比不介于0.5与2之间,则这样的图片将会被过滤。当然,应当理解的是,这里的阈值范围仅仅是示意性的,而非限制性的。在另外的实施例中,当图片不满足一定的格式要求时,例如jpg格式、png格式、bmp格式,也可以将这样的图片过滤。此外,如果所抓取的图片被识别到包含一些不适合的内容,也应该将这样的图片过滤。
针对与图片对应的文本的过滤,如果文本中的词汇的数目小于一定阈值,则这样的文本字数太少,可利用价值不高。因此不将这样的文本和与之对应的图片包括在所创建的数据集中。例如,如果文本是汉语,则可以将字数小于一定数值(例如5个)的文本及其图片过滤掉。如果文本是英文,则可以将单词数目小于一定数值(例如5个)的文本及其图片过滤掉。应当理解的是,这里的数值仅仅是示意性的,而非限制性的。根据不同的使用场景,文本的字数的数值可以是其他的数值。在其他实施例中,如果文本是哈希标签,则这样的文本实质上不包含有意义的内容,则这样的文本及其图片需要被过滤掉。在某些实施例中,如果文本中包括重复出现(例如超过2次)的某个术语,则这样的文本的可利用程度也是有限的,因此可以将其过滤掉。此外,在另一些实施例中,如果文本的内容涉及到不合适的内容,也可以将相应的文本和图片过滤掉。
在一些实施例中,可以使用已有的或者将来开发出来的技术对文本的内容进行实体识别以及句法标注,这样有助于对文本进行合理的拆分,从而得到可用的信息。为了使文本具有更多的含义,从而扩充数据集的可用性,在一些实施例中,可以对文本的内容进行泛化。如果文本中包含专有名词、地名或者人物名字等,可以被泛化成其上位的概念。举例来说,如果文本中包括“六边形”,则可以使用一些关联模型将该名字泛化成为“多边形”。
继续参考图2,在框204,利用卷积神经网络模型,对原始图片进行解析,以获取与原始图片相关联的索引信息。
下面参考图3来示意性地描述图片的自我学习的过程。基于所创建的数据集中的原始图片310,使用卷积神经网络模型,对原始图片310进行解析,从而生成表示该原始图片310的索引信息312。该索引信息312指示表示原始图片310上的某些特征信息的向量314。例如,如果原始图片310是一只动物的图片,则这些向量314可以包括反映原始图片310上的诸如哪些像素点是反映动物的鼻子的信息。
返回参考图2,在框206,对利用索引信息312所指示的向量314和与原始图片310对应的文本来对模型进行训练。
继续参考图3,在所图示的实施例中,利用卷积神经网络模型,对索引信息312进行反向解析,从而得到经转换的图片320。随后,可以使用图片比较模型,将原始图片310与经转换的图片320进行比较330。根据比较的结果,可以将其反馈到模型的学习过程中。如果原始图片310与经转换的图片320之间的差异低于某个阈值,这说明基于原始图片310得到的索引信息312可以较好地反映该原始图片310。这样的索引信息312可以被后续的操作所使用。如果原始图片310与经转换的图片320之间的差异高于该阈值,则说明基于原始图片310得到的索引信息312还不能较好地反映该原始图片310。在这种情况下,还需要更多的样本输入来对模型加以训练。
因此,基于图片的自我学习,可以得到能够较好地反映该图片的经优化的索引。该优化的索引所指示的向量可以作为文本到图片的训练的输入。
针对每张原始图片310,基于得到的经优化的向量和用于描述该原始图片310的文本,作为模型训练的输入来对模型进行训练。在一些实施例中,可以利用向量读取模型将对应的文本中的词向量读取出来,并与经优化的向量拼接在一起,用于模型的训练。这些向量读取模型可以是现有的bert模型或者将来开发出的其他模型,本公开的实施例在此不做限制。
在训练时,可以利用知识图谱作为辅助,对文本进行扩充。在一些实施例中,可以对文本做同义词的扩充,例如,将文本中的“狗”扩充理解为“犬”。在其他实施例中,可以对文本做上下位的扩充,例如,将文本中的“狗”扩充理解为“动物”。在另一些实施例中,可以将文本中存在的名实体对应的知识向量作为辅助直接融合到对应的词向量中。
利用上面介绍的流程训练得到的图片生成模型,可以接收用户的输入文本来生成图片。以此方式,由于模型训练过程中利用了图片的自我学习和优化,而非仅仅是满足对应文本的硬性要求,由此经过训练的优化后的模型可以生成令人满意的图片。
在一些实施例中,可以基于训练得到的图片与用户期望的图片之间的匹配程度(例如通过用户的反馈)来对训练模型进行更新。这样的匹配程度可以用评价值来表示。
在一些实施例中,基于一个输入102,可以为用户生成多个图片,以供用户选择,并且可以根据用户对这些图片的选择情况来调整训练模型。在进一步的实施例中,如果训练得出的多个图片中的某张图片被用户选择,则为该张图片赋予相对较高的一个评价值。被选择的图片与对应的评价值可以被训练模型所考虑,从而使训练模型获知这样的反馈信息,以便对训练模型进行更新。对应地,训练得出的多个图片中的未被选择的图片会被赋予相对较低的一个评价值。同样,这些图片和对应的评价值也会被训练模型所考虑。
以此方式,基于用户对训练结果的评价,通过反复学习迭代,图片生成模型可以不断地优化自身的生成策略。由于神经网络模型的输出结果将随着训练样本数目的增加而变得更加准确,因此随着计算设备110处理的用户的输入102的次数增多,可以用来训练的模型数据就越丰富。以此方式,图片生成模型得以更新,从而使以后的图片生成更加合理。
在一些实施例中,图片的评价可以基于实际应用场景中用户的选择来进行。在另一些实施例中,图片的评价也可以由其他人员专门训练来进行。
图4示意性示出了根据本公开内容的示例性实施方式的用于生成图片的装置400的框图。具体地,该装置400包括:获取模块402,被配置为获取用于训练模型的原始图片和用于描述原始图片的文本;索引信息获取模块404,被配置为利用卷积神经网络模型,对原始图片进行解析,以获取与原始图片相关联的索引信息,其中索引信息指示原始图片中的像素特征的向量;以及训练模块406,被配置为优化索引信息,并且利用经优化的索引信息所指示的向量和文本来训练模型,其中该模型被用于基于输入文本生成图片。
在一些实施例中,优化该索引信息包括:利用该卷积神经网络,对该索引信息进行反向解析,以获取经转换的图片;以及基于该经转换的图片与该原始图片的比较,来优化该索引信息。
在一些实施例中,该索引信息是基于该经转换的图片及其对应的评价值而训练的,该评价值表示该经转换的图片与该原始图片之间的差异程度。
在一些实施例中,该获取模块还被配置为:在获取该原始图片和该文本之前,基于该原始图片的特征满足第一阈值并且该文本的特征满足第二阈值,获取该原始图片和对应的该文本用于训练。
在一些实施例中,该原始图片的特征包括原始图片的像素数目、原始图片的长宽比、原始图片的格式中的一种或多种。
在一些实施例中,该文本的特征包括文本中的字段的数目。
在一些实施例中,获取该文本还包括:为该文本添加相关联的附加文本。
在一些实施例中,该添加包括同义词的添加、上下位词语的添加中的一种或多种。
根据本申请的实施例,本申请还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。图5示出了能够实施本公开的多个实施例的电子设备500的示意性框图。
如图所示,电子设备500包括中央处理单元(CPU)501,其可以根据存储在只读存储器(ROM)502中的计算机程序指令或者从存储单元508加载到随机访问存储器(RAM)503中的计算机程序指令,来执行各种适当的动作和处理。在RAM 503中,还可存储电子设备500操作所需的各种程序和数据。CPU 501、ROM 502以及RAM 503通过总线504彼此相连。输入/输出(I/O)接口505也连接至总线504。
电子设备500中的多个部件连接至I/O接口505,包括:输入单元506,例如键盘、鼠标等;输出单元507,例如各种类型的显示器、扬声器等;存储单元508,例如磁盘、光盘等;以及通信单元509,例如网卡、调制解调器、无线通信收发机等。通信单元509允许电子设备500通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
上文所描述的各个过程和处理,例如方法200,可由处理单元501执行。例如,在一些实施例中,方法200可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元508。在一些实施例中,计算机程序的部分或者全部可以经由ROM 502和/或通信单元509而被载入和/或安装到电子设备500上。当计算机程序被加载到RAM 503并由CPU 501执行时,可以执行上文描述的方法200的一个或多个动作。
本公开可以是方法、装置、系统和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于执行本公开的各个方面的计算机可读程序指令。
计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是——但不限于——电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。
这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
用于执行本公开操作的计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,所述编程语言包括面向对象的编程语言—诸如Smalltalk、C++等,以及常规的过程式编程语言—诸如“C”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(FPGA)或可编程逻辑阵列(PLA),该电子电路可以执行计算机可读程序指令,从而实现本公开的各个方面。
这里参照根据本公开实施例的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本公开的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。
这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理单元,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理单元执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。
也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程数据处理装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。
附图中的流程图和框图显示了根据本公开的多个实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,所述模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
根据本申请实施例的技术方案,根据用户的输入为其自动地定制相应图片,从而避免花费额外的时间来对图片进行编辑。此外,由于在图片生成时考虑了用户输入的不同类型,因此生成的图片的用户满意度可以提升。这样的方案具有良好的自动化和智能化程度。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。

Claims (25)

1.一种模型训练的方法,包括:
获取用于训练所述模型的原始图片和用于描述所述原始图片的文本;
利用卷积神经网络模型,对所述原始图片进行解析,以获取与所述原始图片相关联的索引信息,其中所述索引信息指示所述原始图片中的像素特征的向量;以及
利用所述索引信息所指示的向量和所述文本来训练所述模型,其中所述模型被用于基于输入文本生成图片。
2.根据权利要求1所述的方法,还包括优化所述索引信息,所述优化包括:
利用所述卷积神经网络,对所述索引信息进行反向解析,以获取经转换的图片;以及
基于所述经转换的图片与所述原始图片的比较,来优化所述索引信息。
3.根据权利要求1所述的方法,其中所述索引信息是基于所述经转换的图片及其对应的评价值而训练的,所述评价值表示所述经转换的图片与所述原始图片之间的差异程度。
4.根据权利要求1所述的方法,其中在获取所述原始图片和所述文本之前,基于所述原始图片的特征满足第一阈值并且所述文本的特征满足第二阈值,获取所述原始图片和对应的所述文本用于训练。
5.根据权利要求4所述的方法,其中所述原始图片的特征包括原始图片的像素数目、原始图片的长宽比、原始图片的格式中的一种或多种。
6.根据权利要求4所述的方法,其中所述文本的特征包括文本中的字段的数目。
7.根据权利要求1所述的方法,其中获取所述文本还包括:为所述文本添加相关联的附加文本。
8.根据权利要求7所述的方法,其中所述添加包括同义词的添加、上下位词语的添加中的一种或多种。
9.一种用于生成图片的方法,包括:
接收用户的输入文本,所述输入文本包括用于描述所述图片的短语;以及
基于接收到的输入文本,根据权利要求1-8中任一项所述的方法训练的所述模型,来生成所述图片。
10.根据权利要求9所述的方法,其中生成所述图片包括:为所述用户生成与所述输入的所述短语相关联的多个图片供所述用户选择,并且所述方法还包括:
基于所述多个图片中的第一图片被所述用户选择,为所述第一图片赋予第一评价值,以及
基于所述多个图片中的第二图片未被所述用户选择,为所述第二图片赋予第二评价值,其中所述第二评价值低于所述第一评价值。
11.根据权利要求10所述的方法,其中训练所述图片生成模型还包括基于所述第一评价值、所述第二评价值来训练所述图片生成模型。
12.一种模型训练的装置,包括:
获取模块,被配置为获取用于训练所述模型的原始图片和用于描述所述原始图片的文本;
索引信息获取模块,被配置为利用卷积神经网络模型,对所述原始图片进行解析,以获取与所述原始图片相关联的索引信息,其中所述索引信息指示所述原始图片中的像素特征的向量;以及
训练模块,被配置为利用所述索引信息所指示的向量和所述文本来训练所述模型,其中所述模型被用于基于输入文本生成图片。
13.根据权利要求12所述的装置,还包括优化模块,所述优化模块被配置为:
利用所述卷积神经网络,对所述索引信息进行反向解析,以获取经转换的图片;以及
基于所述经转换的图片与所述原始图片的比较,来优化所述索引信息。
14.根据权利要求12所述的装置,其中所述索引信息是基于所述经转换的图片及其对应的评价值而训练的,所述评价值表示所述经转换的图片与所述原始图片之间的差异程度。
15.根据权利要求12所述的装置,其中所述获取模块还被配置为:在获取所述原始图片和所述文本之前,基于所述原始图片的特征满足第一阈值并且所述文本的特征满足第二阈值,获取所述原始图片和对应的所述文本用于训练。
16.根据权利要求15所述的装置,其中所述原始图片的特征包括原始图片的像素数目、原始图片的长宽比、原始图片的格式中的一种或多种。
17.根据权利要求15所述的装置,其中所述文本的特征包括文本中的字段的数目。
18.根据权利要求12所述的装置,其中获取所述文本还包括:为所述文本添加相关联的附加文本。
19.根据权利要求18所述的装置,其中所述添加包括同义词的添加、上下位词语的添加中的一种或多种。
20.一种用于生成图片的装置,包括:
输入接收模块,被配置为接收用户的输入文本,所述输入文本包括用于描述所述图片的短语;以及
图片生成模块,被配置为基于接收到的输入文本,根据权利要求12-19中任一项所述的装置训练的所述模型,来生成所述图片。
21.根据权利要求20所述的装置,其中生成所述图片包括:为所述用户生成与所述输入的所述短语相关联的多个图片供所述用户选择,并且所述装置还包括:
第一评价值赋予模块,被配置为基于所述多个图片中的第一图片被所述用户选择,为所述第一图片赋予第一评价值,以及
第二评价值赋予模块,被配置为基于所述多个图片中的第二图片未被所述用户选择,为所述第二图片赋予第二评价值,其中所述第二评价值低于所述第一评价值。
22.根据权利要求21所述的装置,其中训练所述图片生成模型还被配置为:基于所述第一评价值、所述第二评价值来训练所述图片生成模型。
23.一种电子设备,所述电子设备包括:
一个或多个处理器;以及
存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现根据权利要求1-11中任一项所述的方法。
24.一种计算机可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现根据权利要求1-11中任一项所述的方法。
25.一种计算机程序产品,包括计算机程序指令,其特征在于,所述计算机程序指令被处理器实现根据权利要求1-11中任一项所述的方法。
CN202110711228.1A 2021-06-25 2021-06-25 模型训练的方法、生成图片的方法及其装置 Active CN113537487B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110711228.1A CN113537487B (zh) 2021-06-25 2021-06-25 模型训练的方法、生成图片的方法及其装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110711228.1A CN113537487B (zh) 2021-06-25 2021-06-25 模型训练的方法、生成图片的方法及其装置

Publications (2)

Publication Number Publication Date
CN113537487A true CN113537487A (zh) 2021-10-22
CN113537487B CN113537487B (zh) 2023-08-04

Family

ID=78125853

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110711228.1A Active CN113537487B (zh) 2021-06-25 2021-06-25 模型训练的方法、生成图片的方法及其装置

Country Status (1)

Country Link
CN (1) CN113537487B (zh)

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9547821B1 (en) * 2016-02-04 2017-01-17 International Business Machines Corporation Deep learning for algorithm portfolios
CN109697694A (zh) * 2018-12-07 2019-04-30 山东科技大学 基于多头注意力机制的高分辨率的图片的生成方法
CN109783798A (zh) * 2018-12-12 2019-05-21 平安科技(深圳)有限公司 文本信息添加图片的方法、装置、终端及存储介质
CN110210617A (zh) * 2019-05-15 2019-09-06 北京邮电大学 一种基于特征增强的对抗样本生成方法及生成装置
CN110264545A (zh) * 2019-06-19 2019-09-20 北京字节跳动网络技术有限公司 图片生成方法、装置、电子设备及存储介质
CN111080748A (zh) * 2019-12-27 2020-04-28 北京工业大学 基于互联网的图片自动合成系统
CN111143617A (zh) * 2019-12-12 2020-05-12 浙江大学 一种图片或视频文本描述自动生成方法及系统
CN111402365A (zh) * 2020-03-17 2020-07-10 湖南大学 一种基于双向架构对抗生成网络的由文字生成图片的方法
CN112489152A (zh) * 2020-11-04 2021-03-12 湖南大学 一种基于远程相关注意力生成对抗网络的文本生成图像方法
CN112765316A (zh) * 2021-01-19 2021-05-07 东南大学 一种引入胶囊网络的文本生成图像方法及装置
CN112989097A (zh) * 2021-03-23 2021-06-18 北京百度网讯科技有限公司 模型训练、图片检索方法及装置

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9547821B1 (en) * 2016-02-04 2017-01-17 International Business Machines Corporation Deep learning for algorithm portfolios
CN109697694A (zh) * 2018-12-07 2019-04-30 山东科技大学 基于多头注意力机制的高分辨率的图片的生成方法
CN109783798A (zh) * 2018-12-12 2019-05-21 平安科技(深圳)有限公司 文本信息添加图片的方法、装置、终端及存储介质
CN110210617A (zh) * 2019-05-15 2019-09-06 北京邮电大学 一种基于特征增强的对抗样本生成方法及生成装置
CN110264545A (zh) * 2019-06-19 2019-09-20 北京字节跳动网络技术有限公司 图片生成方法、装置、电子设备及存储介质
CN111143617A (zh) * 2019-12-12 2020-05-12 浙江大学 一种图片或视频文本描述自动生成方法及系统
CN111080748A (zh) * 2019-12-27 2020-04-28 北京工业大学 基于互联网的图片自动合成系统
CN111402365A (zh) * 2020-03-17 2020-07-10 湖南大学 一种基于双向架构对抗生成网络的由文字生成图片的方法
CN112489152A (zh) * 2020-11-04 2021-03-12 湖南大学 一种基于远程相关注意力生成对抗网络的文本生成图像方法
CN112765316A (zh) * 2021-01-19 2021-05-07 东南大学 一种引入胶囊网络的文本生成图像方法及装置
CN112989097A (zh) * 2021-03-23 2021-06-18 北京百度网讯科技有限公司 模型训练、图片检索方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
杨楠;南琳;张丁一;库涛;: "基于深度学习的图像描述研究", 红外与激光工程, no. 02 *

Also Published As

Publication number Publication date
CN113537487B (zh) 2023-08-04

Similar Documents

Publication Publication Date Title
CN113807098B (zh) 模型训练方法和装置、电子设备以及存储介质
US10831796B2 (en) Tone optimization for digital content
US11150875B2 (en) Automated content editor
US11734584B2 (en) Multi-modal construction of deep learning networks
JP5128629B2 (ja) 品詞タグ付けシステム、品詞タグ付けモデルのトレーニング装置および方法
WO2019224629A1 (en) Training data expansion for natural language classification
CN111159412B (zh) 分类方法、装置、电子设备及可读存储介质
US10902188B2 (en) Cognitive clipboard
US20180246867A1 (en) Unified text analytics annotator development life cycle combining rule-based and machine learning based techniques
US11194963B1 (en) Auditing citations in a textual document
CN113408208A (zh) 模型训练方法、信息提取方法、相关装置及存储介质
JP7309811B2 (ja) データ注釈方法、装置、電子機器および記憶媒体
US11803709B2 (en) Computer-assisted topic guidance in document writing
US10360302B2 (en) Visual comparison of documents using latent semantic differences
Wang et al. Data augmentation for internet of things dialog system
CN115769219A (zh) 生成对于电子文档和显示的级联文本格式化
CN112507721A (zh) 生成文本主题的方法、装置、设备和计算机可读存储介质
CN111475640A (zh) 基于情感摘要的文本情感识别方法及装置
CN115186738B (zh) 模型训练方法、装置和存储介质
CN113537487B (zh) 模型训练的方法、生成图片的方法及其装置
CN113536006B (zh) 生成图片的方法、装置、设备、存储介质和计算机产品
CN114880520A (zh) 视频标题生成方法、装置、电子设备和介质
CN114375447A (zh) 计算系统中的语言语句处理
CN111984781A (zh) 偏见最小化的自动概括
US20240028824A1 (en) Parser to identify, interpret, and suggest professional language

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant