CN109215007B - 一种图像生成方法及终端设备 - Google Patents
一种图像生成方法及终端设备 Download PDFInfo
- Publication number
- CN109215007B CN109215007B CN201811110761.7A CN201811110761A CN109215007B CN 109215007 B CN109215007 B CN 109215007B CN 201811110761 A CN201811110761 A CN 201811110761A CN 109215007 B CN109215007 B CN 109215007B
- Authority
- CN
- China
- Prior art keywords
- image
- information
- target
- terminal device
- processed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 88
- 230000002194 synthesizing effect Effects 0.000 claims abstract description 10
- 230000001815 facial effect Effects 0.000 claims description 17
- 238000012549 training Methods 0.000 claims description 14
- 238000004590 computer program Methods 0.000 claims description 11
- 238000006243 chemical reaction Methods 0.000 claims description 8
- 230000004044 response Effects 0.000 claims description 8
- 230000008569 process Effects 0.000 abstract description 28
- 238000004891 communication Methods 0.000 abstract description 5
- 230000000694 effects Effects 0.000 description 18
- 230000006870 function Effects 0.000 description 18
- 238000010586 diagram Methods 0.000 description 13
- 230000008921 facial expression Effects 0.000 description 5
- 230000010354 integration Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 3
- 230000005484 gravity Effects 0.000 description 3
- 238000013461 design Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000007599 discharging Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000010428 oil painting Methods 0.000 description 1
- 238000010422 painting Methods 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
Abstract
本发明实施例提供一种图像生成方法及终端设备,应用于通信技术领域,以解决终端设备生成用户自定义的表情包的过程较为繁琐且耗时的问题。具体的,本方案应用于终端设备,该方案包括:确定目标模板图像;获取待处理图像中的第一信息;根据第一信息,采用与目标模板图像对应的图像生成模型,生成目标图像,目标图像为第一信息和目标模板图像中的第二信息合成的图像,第一信息和第二信息为不同类型的信息。本方案具体可以应用于用户控制终端设备生成自定义的表情包图像的过程中。
Description
技术领域
本发明实施例涉及通信技术领域,尤其涉及一种图像生成方法及终端设备。
背景技术
随着社交媒体的普及,人们已经不再满足于单纯的文字、语音等交流方式,而需要更有趣的媒介来丰富社交活动,因此各式各样的表情包应运而生。随之而来的是,用户更加趋向于使用自定义的表情包进行社交活动。
具体的,目前用户自定义的表情包的制作过程可以包括:用户控制终端设备将一个人脸图像中用户的面部表情图像提取出来,然后再将该面部表情图像叠加在经过处理的表情包模板(如已去除原始表情图像的表情包模板)上,以生成自定义的表情包。
其中,为了保证自定义的表情包的显示效果,用户通常需要手动通过各个软件调节用户选择的面部表情图像的色调风格,使得该面部表情图像与表情包模板的色调风格一致;并且,用户需要手动将调节后的该面部表情图像叠加在该表情包模板上,以生成自定义的表情包。如此,导致终端设备生成用户自定义的表情包的过程较为繁琐且耗时。
发明内容
本发明实施例提供一种图像生成方法及终端设备,以解决终端设备生成用户自定义的表情包的过程较为繁琐且耗时的问题。
为了解决上述技术问题,本发明实施例是这样实现的:
第一方面,本发明实施例提供一种图像生成方法,应用于终端设备,该图像生成方法,包括:确定目标模板图像;获取待处理图像中的第一信息;根据第一信息,采用与目标模板图像对应的图像生成模型,生成目标图像,目标图像为第一信息和目标模板图像中的第二信息合成的图像,第一信息和第二信息为不同类型的信息。
第二方面,本发明实施例还提供了一种终端设备,该终端设备包括:确定模块、获取模块和生成模块;确定模块,用于确定目标模板图像;获取模块,用于获取待处理图像中的第一信息;生成模块,用于根据获取模块获取的第一信息,采用与确定模块确定的目标模板图像对应的图像生成模型,生成目标图像,目标图像为第一信息和目标模板图像中的第二信息合成的图像,第一信息和第二信息为不同类型的信息。
第三方面,本发明实施例提供了一种终端设备,包括处理器、存储器及存储在该存储器上并可在该处理器上运行的计算机程序,该计算机程序被该处理器执行时实现如第一方面所述的图像生成方法的步骤。
第四方面,本发明实施例提供了一种计算机可读存储介质,该计算机可读存储介质上存储计算机程序,该计算机程序被处理器执行时实现如第一方面所述的图像生成方法的步骤。
在本发明实施例中,终端设备可以确定目标模板图像;获取待处理图像中的第一信息;根据第一信息,采用与目标模板图像对应的图像生成模型,生成目标图像,目标图像为第一信息和目标模板图像中的第二信息合成的图像,第一信息和第二信息为不同类型的信息。基于本方案,可以实现通过图像生成模型整合待处理图像中的第一信息和目标模板图像中的第二信息,而不需要用户手动将获取待处理图像中的信息和目标模板图像进行叠加等处理。从而,可以简化终端设备将待处理图像和目标模板图像,生成为目标图像的过程,并改善了生成的目标图像的显示效果。也即终端设备可以简化终端设备生成用户自定义的表情包的过程,并改善了生成的用户自定义的表情包的显示效果。
附图说明
图1为本发明实施例提供的一种可能的安卓操作系统的架构示意图;
图2为本发明实施例提供的图像生成方法的流程示意图之一;
图3为本发明实施例提供的终端设备显示的界面的示意图之一;
图4为本发明实施例提供的图像生成方法的流程示意图之二;
图4a为本发明实施例提供的终端设备显示的界面的示意图之二;
图5为本发明实施例提供的图像生成方法的流程示意图之三;
图6为本发明实施例提供的终端设备显示的界面的示意图之三;
图7为本发明实施例提供的一种可能的终端设备的结构示意图;
图8为本发明实施例提供的一种终端设备的硬件结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,本文中的“/”表示或的意思,例如,A/B可以表示A或B;本文中的“和/或”仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。“多个”是指两个或多于两个。
需要说明的是,本发明实施例中,“示例性的”或者“例如”等词用于表示作例子、例证或说明。本发明实施例中被描述为“示例性的”或者“例如”的任何实施例或设计方案不应被解释为比其它实施例或设计方案更优选或更具优势。确切而言,使用“示例性的”或者“例如”等词旨在以具体方式呈现相关概念。
本发明的说明书和权利要求书中的术语“第一”和“第二”等是用于区别不同的对象,而不是用于描述对象的特定顺序。例如,第一信息和第二信息等是用于区别不同的信息,而不是用于描述信息的特定顺序。
本发明实施例提供的图像生成方法,终端设备可以确定目标模板图像、获取待处理图像中的部分信息或全部信息,并获取与目标模板图像对应的图像生成模型。具体的,终端设备可以根据获取待处理图像中的信息,采用该图像生成模型,生成目标图像。如此,可以实现通过图像生成模型整合该待处理图像中的信息和该目标模板图像中的信息,而不需要用户手动将获取待处理图像中的信息和目标模板图像进行叠加等处理。从而,可以简化终端设备生成图像的过程,如简化终端设备生成用户自定义的表情包的过程。
需要说明的是,本发明实施例提供的图像生成方法,执行主体可以为终端设备,或者,该终端设备的中央处理器(Central Processing Unit,CPU),或者该终端设备中的用于执行图像生成方法的控制模块。本发明实施例中以终端设备执行图像生成方法为例,说明本发明实施例提供的图像生成方法。
其中,本发明实施例中所描述的“图像”可以为图片,本发明实施例为了描述统一,对图像和图片不作具体区分。
本发明实施例中的终端设备可以为具有操作系统的终端设备。该操作系统可以为安卓(Android)操作系统,可以为ios操作系统,还可以为其他可能的操作系统,本发明实施例不作具体限定。
下面以安卓操作系统为例,介绍一下本发明实施例提供的图像生成方法所应用的软件环境。
如图1所示,为本发明实施例提供的一种可能的安卓操作系统的架构示意图。在图1中,安卓操作系统的架构包括4层,分别为:应用程序层、应用程序框架层、系统运行库层和内核层(具体可以为Linux内核层)。
其中,应用程序层包括安卓操作系统中的各个应用程序(包括系统应用程序和第三方应用程序)。
应用程序框架层是应用程序的框架,开发人员可以在遵守应用程序的框架的开发原则的情况下,基于应用程序框架层开发一些应用程序。例如,系统设置应用、系统聊天应用和系统相机应用等应用程序。第三方设置应用、第三方相机应用和第三方聊天应用等应用程序。
系统运行库层包括库(也称为系统库)和安卓操作系统运行环境。库主要为安卓操作系统提供其所需的各类资源。安卓操作系统运行环境用于为安卓操作系统提供软件环境。
内核层是安卓操作系统的操作系统层,属于安卓操作系统软件层次的最底层。内核层基于Linux内核为安卓操作系统提供核心系统服务和与硬件相关的驱动程序。
以安卓操作系统为例,本发明实施例中,开发人员可以基于上述如图1所示的安卓操作系统的系统架构,开发实现本发明实施例提供的图像生成方法的软件程序,从而使得该图像生成方法可以基于如图1所示的安卓操作系统运行。即处理器或者终端设备可以通过在安卓操作系统中运行该软件程序实现本发明实施例提供的图像生成方法。
下面结合图2所示的图像生成方法的流程图对本发明实施例提供的图像生成方法进行详细描述。其中,虽然在方法流程图中示出了本发明实施例提供的图像生成方法的逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。例如,图2中示出的图像生成方法可以包括S201-S203:
S201、终端设备确定目标模板图像。
示例性的,本发明实施例提供的目标模板图像可以为一个表情包图像(或称表情包)或者为一个具有特定风格的图像。
其中,一个表情包图像通常包括面部图像部分非面部图像部分。其中,本发明实施例中提及的面部图像可以为一个人物图像中的人脸图像或五官图像,非面部图像可以为一个人物图像中去除人脸图像或五官图像之外的图像。上述人物图像可以为真实人物图像或者虚拟人物图像(如动画人物图像)。
通常,目标模板图像为表情包图像时,该目标模板图像中的原始面部图像可以被其他面部图像所替换,该目标模板图像中的非面部图像是不变的。
示例性的,本发明实施例中,图像的风格可以包括中国风、立体主义、印象派、现实主义、超现实主义、表现主义、水墨画风格、油画风格或彩铅风格等。其中,一个图像的信息中包括指示该图像的风格的信息。其中,上述目标模板图像可以为某一种风格的图像。
另外,本发明实施例中,图像的风格还可以为指示图像的对比度,色度等的图像参数。
可以理解的是,本发明实施例中,终端设备可以接收用户的选择输入,以确定出该选择输入所指示的图像为目标模板图像。
示例性的,如图3所示,为本发明实施例提供的一种终端设备显示的界面的示意图。其中,图3示出的界面31中的区域P1中包括图像A1;区域P2中包括表情包图像B1~表情包图像B6。例如,图3示出的表情包图像B3可以为上述目标模板图像。
S202、终端设备获取待处理图像中的第一信息。
可选的,待处理图像中的第一信息为该待处理图像中的部分信息或者全部信息。例如,第一信息为待处理图像的一个区域中的图像,如面部区域的图像,即面部图像。
示例性的,待处理图像中的第一信息为该待处理图像中的前景图像。
可以理解的是,终端设备可以采用人脸识别技术识别出待处理图像中的面部图像,并采用人脸分割技术在终端设备显示的待处理图像中面部图像(即上述待处理图像中的第一信息)。例如,本发明实施例中的待处理图像可以为图3中界面31的区域P1中示出的图像A1,终端设备获取的图像A1的第一信息可以为图3中示出的图像A1上线条L1框取出的面部图像。
需要强调的是,上述待处理图像为静态图像或者动态图像;待处理图像为单张图像或者为一个视频中的一帧图像。其中,该视频可以为终端设备实时采集的,或者终端设备实时从网络侧获取的,或者终端设备预先存储的。
需要说明的是,本发明实施例中,对上述S201和S202的执行顺序不作限定,如终端设备可以先执行S202、再执行S201。
S203、终端设备根据第一信息,采用与目标模板图像对应的图像生成模型,生成目标图像。
其中,目标图像为待处理图像中的第一信息和目标模板图像中的第二信息合成的图像,第一信息和第二信息为不同类型的信息。
其中,目标模板图像中的第二信息为目标图像中的部分信息或者全部信息。
可选的,本发明实施例中,一个图像中的信息的类型可以包括:面部图像类型、非面部图像类型、图像的风格和图像的内容。
示例性的,待处理图像中的第一信息为该待处理图像中的内容,目标模板图像中的第二信息为该目标模板图像中的风格。此时,终端设备生成的目标图像可以为待处理图像的内容与目标模板图像的风格合成得到的图像。
或者,待处理图像中的第一信息为该待处理图像中的面部图像,目标模板图像中的第二信息为该目标模板图像中的非面部图像。其中,上述待处理图像可以为真实的人物图像,目标模板图像可以为虚拟的表情包图像。此时,终端设备生成的目标图像可以为待处理图像的面部图像与目标模板图像的非面部图像合成得到的目标图像,即生成一个新的表情包图像。此时,该目标图像可以为用户自定义的表情包图像。
可选的,本发明实施例中提供的与目标模板图像对应的图像生成模型,可以为预先根据目标模板图像采用深度学习(Deep Learning)算法训练得到的。
具体的,由于本发明实施例中提供的图像生成模型,如目标模板图像的对应的图像生成模型为基于深度学习算法训练得到的,因此终端设备可以采用该图像生成模型,较好地合成待处理图像中的第一信息和目标模板图像中的第二信息,使得合成后的目标图像较为自然或趣味性较强。即可以改善了终端设备生成的目标图像的显示效果。
需要说明的是,本发明实施例提供的图像生成方法及终端设备,可以确定目标模板图像;获取待处理图像中的第一信息;根据第一信息,采用与目标模板图像对应的图像生成模型,生成目标图像,目标图像为第一信息和目标模板图像中的第二信息合成的图像,第一信息和第二信息为不同类型的信息。基于本方案,可以实现通过图像生成模型整合待处理图像中的第一信息和目标模板图像中的第二信息,而不需要用户手动将获取待处理图像中的信息和目标模板图像进行叠加等处理。从而,可以简化终端设备将待处理图像和目标模板图像,生成为目标图像的过程,并改善了生成的目标图像的显示效果。也即终端设备可以简化终端设备生成用户自定义的表情包的过程,并改善了生成的用户自定义的表情包的显示效果。
在一种可能的实现方式中,本发明实施例提供的图像生成方法中,图像生成模型为条件生成式对抗网络(Conditional Generative Adversarial Networks,CGAN)或图像风格转换(Image style transfer)模型。
具体的,本发明实施例中,在图像生成模型为CGAN网络的场景中:
在终端设备执行本发明实施例提供的图像生成方法之前,训练装置可以对目标模板图、一组面部图像以及一组针对该目标模板图像的结果图像进行训练,以得到与目标模板图像对应的图像生成模型。其中,在目标模板图像为表情包图像时,该一组针对该目标模板图像的结果图像可以为该目标模板图像中的初始面部图像被替换为其他面部图像后的图像。
可选的,每个结果图像中的面部图像和非面部图像之间的显示效果比较自然,如该目标面部图像叠加在该非面部图像上的位置准确(如面部图像位于非面部图像中人脸所在区域的角度和位置较为准确)、且该目标面部图像和该非面部图像的色度或对比度较为一致。
其中,目标图像生成模型具体用于将待处理图像中的第一信息输入至CGAN中的G网络,以整合目标模板图像中的第二信息和待处理图像中的第一信息。
本发明实施例中所提供的训练装置可以为上述终端设备,或者还可以为出该终端设备之外的其他设备,如服务器,本发明实施例对此不作具体限定。
示例性的,CGAN可以包括生成(Generator,G)网络和判别(Discriminator,D)网络。其中,G网络是一个生成图像的网络,它接收一个随机的噪声z,通过这个噪声生成图像,记做G(z)。D网络用于判别一张图像是不是“真实的”,也即该图像是否为该G网络生成的图像。D网络的输入参数是x,x代表一张图像;D网络输出D(x),该D(x)代表x为真实图像的概率。具体的,如果D(x)为1,就代表x为100%是真实的图像;而D(x)为0,就代表x不是真实的图像,即x为G网络生成的一个图像。
在训练过程中,G网络的目标就是尽量生成真实的图像去欺骗D网络。而D网络的目标是区别G网络生成的图像和真实的图像。这样,G网络和D网络构成了一个动态的“博弈过程”。如此,使得CGAN中G网络可以生成足以“以假乱真”的图像G(z),该图像G(z)作为D网络的输入得到的输入结果为D(G(z))=0.5,即D网络难以判定G网络生成的图像G(z)究竟是不是真实的图像。训练装置可以交替训练D网络及G网络;使得训练好的G网络可用来生成用户自定义的表情包图像,即上述目标图像。
具体的,本发明实施例中,待处理图像中的第一信息可以作为上述G网络的输入,即上述z。
具体的,本发明实施例中,在图像生成模型为图像风格转换模型的场景中:
在终端设备执行本发明实施例提供的图像生成方法之前,训练装置可以对目标模板图像和一组预设图像进行训练,以得到与目标模板图像对应的图像生成模型。
示例性的,训练装置通过学习目标模板图像(即风格图像)的风格以及一个预设图像(即内容图像)中的内容,并实现二者一定比例的融合,即可得到最终的风格效果图像。
其中,训练装置可以针对目标模板图像,利用现有的成熟网络(如VGG网络等)来对该目标模板图像进行特征表示。具体方式为:选取VGG网络的某一层作为目标模板图像的特征描述,然后训练图像风格转换模型,该图像风格转换模型一方面学习风格图像的风格,另一方面保留了内容图像的内容。从而,使得终端设备可以根据待处理图像中的第一信息,采用与目标模板图像对应的图像生成模型,生成目标图像,以整合待处理图像中的第一信息和目标模板图像中的第二信息。
其中,该训练装置可以为上述终端设备。
示例性的,终端设备可以通过下述公式,实现根据待处理图像中的第一信息,采用与目标模板图像对应的图像生成模型,生成目标图像。本发明实施例这里,待处理图像中的第一信息可以为待处理图像的全部信息,即该第一信息即为该待处理图像本身。
其中,用于表示目标模板图像,用于表示待处理图像,用于表示目标图像。上述公式即为上述风格转换模型训练过程中的代价函数(即),该代价函数包含两部分,风格模型的代价(即)以及内容模型的代价二者之间的比例通过系数α、β来进行调节。α越大则最终输出结果(即目标图像)越靠近目标模板图像,β越大则最终输出结果会保留更多的待处理图像的内容。
例如,本实施例这里,待处理图像为上述实施例中的图像A1,目标模板图像为一个水墨画风格的图像。
需要说明的是,本发明实施例提供的图像生成方法,由于图像生成模型可以为多种模型,如CGAN或图像风格转换模型,使得生成的目标图像的形式可以为多种,因此可以进一步改善终端设备生成的目标图像的显示效果,并提高终端设备生成的目标图像的趣味性。
进一步的,如图4所示,为发明实施例提供的另一种图像生成方法的流程示意图。图4中,图2示出的S203之后还可以包括S204:
S204、终端设备在终端设备的第一界面上显示目标图像。
示例性的,如图4a所示,为本发明实施例提供的另一种终端设备显示的界面的示意图。图4a中示出的终端设备的界面32中的区域P3中包括图像A2。其中,该界面32可以为上述第一界面,该图像A2可以为上述目标图像。
进一步的,上述第一界面上还包括至少一个功能控件;每个功能控件用于指示针对目标图像执行的一个功能。
示例性的,上述至少一个功能控件可以包括:退出控件、添加文字控件和保存控件。
其中,退出控件,用于触发终端设备退出显示目标图像;添加文字控件,用于触发终端设备在目标图像上添加字符;保存控件,用于触发终端设备保存目标图像。
例如,图4a示出的界面32的区域P4中还可以包括退出控件321、添加文字控件322和保存控件323。其中,用户可以对退出控件321、添加文字控件322和保存控件323中的任一控件进行选择输入,以触发终端设备执行该控件对应的功能。如此,有利于提高终端设备生成并显示目标图像过程中的趣味性。
其中,本发明实施例中,终端设备根据待处理图像,采用与目标图像对应的图像生成模型,生成的目标图像显示在设备的界面上,可以方便用户获知目标图像,并方便用户对该目标图像进行进一步的操作,如手动调节等操作。
在一种可能的实现方式中,本发明实施例提供的图像生成方法中,待处理图像包括N个面部图像,第一信息为N个面部图像中的目标面部图像的信息,N为正整数。
可以理解的是,终端设备可以采用人脸识别技术,识别出待处理图像中的面部图像。
示例性的,如图5所示,为本发明实施例提供的另一种图像生成方法的流程示意图。其中,图5示出的方法,在图4示出的S202之前还可以包括S205和S206:
S205、终端设备在终端设备的第二界面上显示待处理图像。
示例性的,本发明实施例提供的终端设备的第二界面可以为上述图3示出的界面31。
可选的,上述第一界面和第二界面为终端设备的一个屏(即显示屏)上的不同区域。
其中,本发明实施例中提供的终端设备包括至少两个屏,第一界面和第二界面为至少两个屏中不同屏上的界面。
可选的,本发明实施例中提供的包括至少两个屏的终端设备可以为折叠屏式终端设备,或非折叠屏式终端设备。其中,折叠屏式终端设备中的至少两个屏之间可以折叠,该至少两个屏中相邻的两个屏之间的折叠的角度可以为0度到360度之间的角度。非折叠屏式终端设备中的至少两个屏可以布置在终端设备中的不同表面上,如在该非折叠屏式终端设备为手机时,该至少两个屏(如两个屏)可以分别布置在该手机的正面和背面上。
示例性的,如图6所示,为本发明实施例提供的另一种终端设备显示界面的示意图。结合图3,图6中的界面61中的区域P1包括图像A1;区域P2包括表情包图像B1~表情包图像B6。图6示出的界面62的区域P3中包括图像A2,区域P4中包括退出控件321、添加文字控件322和保存控件323。例如,该图像A2为上述目标图像。此时,上述第一界面可以为该界面62,上述第二界面可以为该界面61。
S206、终端设备接收用户对目标面部图像的第一输入。
可以理解的是,待处理图像中包括的N个面部图像的个数为一个或多个,即N为大于或等于1的整数。
需要说明的是,本发明实施例提供的终端设备的屏幕可以为触控屏,该触控屏可以用于接收用户的输入,并响应于该输入向该用户显示该输入对应的内容。其中,上述第一输入可以为触屏输入、指纹输入、重力输入、按键输入等。其中,触屏输入为用户对终端设备的触控屏的按压输入、长按输入、滑动输入、点击输入、悬浮输入(用户在触控屏附近的输入)等输入。指纹输入为用户对终端设备的指纹识别器的滑动指纹、长按指纹、单击指纹和双击指纹等输入。重力输入为用户对终端设备特定方向的晃动、特定次数的晃动等输入。按键输入对应于用户对终端设备的电源键、音量键、Home键等按键的单击输入、双击输入、长按输入、组合按键输入等输入。具体的,本发明实施例对第一输入的方式不作具体限定,可以为任一可实现的方式。
示例性的,本发明实施例中的第一输入可以为用户对待处理图像中包括的目标面部图像选择输入,如对该目标面部图像在第二界面上所在的位置的点击输入。例如,结合图6,第一输入可以为用户对图6中界面61中线条L1框取出的面部图像所在位置的点击输入。
相应的,图5示出的图像生成方法中,图4示出的S202可以替换为S202a:
S202a、响应于第一输入,终端设备获取第一信息。
另外,终端设备还可以接收用户的另一个输入(即第二输入),用于确定目标模板图像。例如,第二输入可以为用户对终端设备显示的目标模板图像的选择输入,如对该目标模板图像在在第二界面上所在的位置的点击输入。例如,结合图6,第二输入可以为用户对图6中界面61中表情包图像B3所在位置的点击输入。
示例性的,对第二输入的实现方式的描述,可以参照上述对第一输入的实现方式的相关描述,本发明实施例对此不再赘述。
需要说明的是,本发明实施例提供的图像生成方法中,终端可以在第二界面显示待处理图像,在第一界面上显示生成的目标图像,该第一界面和第二界面为终端设备的不同屏上的界面,且终端设备中的一个屏上的显示区域(如第一界面所在的显示区域)的面积通常较大。如此,可以使得终端设备同时显示待处理图像和目标图像,并且显示的待处理图像和目标图像的显示效果较好。
另外,由于终端设备可以识别出待处理图像中的N个面部图像,因此可以使得用户从该N个面部图像中选择需求的目标面部图像,即可以获取到待处理图像中的第一信息。进而,有利于提高终端设备生成目标图像过程中的趣味性。
在一种可能的实现方式中,本发明实施例提供的图像生成方法,第二界面上还包括M个模板图像,第一输入为将目标面部图像拖动至第二界面上的目标位置的拖动输入,M为正整数。
示例性的,上述实施例中图3或图6中示出的表情包图像B1~表情包图像B6,可以为上述M个模板图像,此时M为大于或等于6的整数。
具体的,上述实施例中的S201可以替换为S201a:
S201a、响应于第一输入,终端设备将M个模板图像中与目标位置对应的模板图像确定目标模板图像。
例如,结合图6,第二输入可以为用户将图6中界面61中线条L1框取出的面部图像拖动至表情包图像B3所在的位置(即目标位置)的拖动输入。
如此,由于第一输入可以触发终端设备获取待处理图像中的第一信息并确定目标模板图像,因此简化了用户控制终端设备生成目标图像过程中的操作。
在一种可能的实现方式中,本发明实施例提供的图像生成方法中,上述S205之前还可以包括S207或者S208:
S207、终端设备获取K个第一图像,每个第一图像中均包括目标面部图像,待处理图像为中的一个图像,K为正整数。
示例性,上述目标面部图像可以为用户A的面部图像。
可以理解的是,终端设备可以采用人脸聚类技术,从多张图像中确定出均包括目标面部图像的图像,即上述K个第一图像。此时,该K个第一图像均为包括用户A的面部图像的图像。
S208、终端设备获取P个第二图像,每个第二图像中均包括面部图像,待处理图像为P个第二图像中的一个图像,P为正整数。
可以理解的是,终端设备可以采用人脸聚类技术,从多张图像中确定出均包括面部图像的图像,即上述P个第二图像。其中,P大于或等于N。具体的,终端设备可以先执行上述S208之后,再执行上述S207。
可选的,用户对终端设备的第二界面上显示的待处理图像的滑动输入,可以触发终端设备将其显示的图像切换为P个第一图像或K个第一图像中与该待处理图像相邻的图像。例如,向左的滑动输入,可以触发终端设备将其第二界面显示的图像切换为与该待处理图像相邻的前一个图像;向右的滑动输入,可以触发终端设备将其第二界面显示的图像切换为与该待处理图像相邻的后一个图像。
或者,如图6所示的界面61中,区域P1中显示的控件611可以触发终端设备将其第二界面显示的图像切换为与该待处理图像相邻的前一个图像;控件621可以触发终端设备将其第二界面显示的图像切换为与该待处理图像相邻的后一个图像。
需要说明的是,本发明实施例提供的图像生成方法中,终端设备可以向用户提供符合用户需求的图像,如包括面部图像的图像,如此有利于用户快速选择出需求的待处理图像。
如图7所示,为本发明实施例提供的一种终端设备可能的结构示意图。图7示出的终端设备包括确定模块701、获取模块702和生成模块703;确定模块701,用于确定目标模板图像;获取模块702,用于获取待处理图像中的第一信息;生成模块703,用于根据获取模块702获取的第一信息,采用与确定模块701确定的目标模板图像对应的图像生成模型,生成目标图像,目标图像为第一信息和目标模板图像中的第二信息合成的图像,第一信息和第二信息为不同类型的信息。
可选的,终端设备70还包括:显示模块;显示模块,用于在生成模块703生成目标图像之后,在终端设备70的第一界面上显示目标图像。
可选的,待处理图像包括N个面部图像,第一信息为N个面部图像中的目标面部图像的信息,N为正整数;显示模块,还用于获取模块702取待处理图像的第一信息之前,在终端设备70的第二界面上显示待处理图像;终端设备70,还包括:接收模块;接收模块,用于接收用户对目标面部图像的第一输入;获取模块702,具体用于响应于第一输入,获取第一信息。
可选的,第二界面上还包括M个模板图像,第一输入为将目标面部图像拖动至第二界面上的目标位置的拖动输入,M为正整数;确定模块701,具体用于响应于第一输入,将M个模板图像中与目标位置对应的模板图像确定目标模板图像。
可选的,终端设备70包括至少两个屏,第一界面和第二界面为至少两个屏中不同屏上的界面。
可选的,图像生成模型为条件生成式对抗网络CGAN或图像风格转换模型。
本发明实施例提供的终端设备70能够实现上述方法实施例中终端设备实现的各个过程,为避免重复,这里不再赘述。
本发明实施例提供的终端设备,可以确定目标模板图像;获取待处理图像中的第一信息;根据第一信息,采用与目标模板图像对应的图像生成模型,生成目标图像,目标图像为第一信息和目标模板图像中的第二信息合成的图像,第一信息和第二信息为不同类型的信息。基于本方案,可以实现通过图像生成模型整合待处理图像中的第一信息和目标模板图像中的第二信息,而不需要用户手动将获取待处理图像中的信息和目标模板图像进行叠加等处理。从而,可以简化终端设备将待处理图像和目标模板图像,生成为目标图像的过程,并改善了生成的目标图像的显示效果。也即终端设备可以简化终端设备生成用户自定义的表情包的过程,并改善了生成的用户自定义的表情包的显示效果。
图8为本发明实施例提供的一种终端设备的硬件结构示意图,该终端设备100包括但不限于:射频单元101、网络模块102、音频输出单元103、输入单元104、传感器105、显示单元106、用户输入单元107、接口单元108、存储器109、处理器110、以及电源111等部件。本领域技术人员可以理解,图8中示出的终端设备结构并不构成对终端设备的限定,终端设备可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。在本发明实施例中,终端设备包括但不限于手机、平板电脑、笔记本电脑、掌上电脑、车载终端设备、可穿戴设备、以及计步器等。
其中,处理器110,用于确定目标模板图像;获取待处理图像中的第一信息;根据第一信息,采用与目标模板图像对应的图像生成模型,生成目标图像,目标图像为第一信息和目标模板图像中的第二信息合成的图像,第一信息和第二信息为不同类型的信息。
本发明实施例提供的终端设备,可以确定目标模板图像;获取待处理图像中的第一信息;根据第一信息,采用与目标模板图像对应的图像生成模型,生成目标图像,目标图像为第一信息和目标模板图像中的第二信息合成的图像,第一信息和第二信息为不同类型的信息。基于本方案,可以实现通过图像生成模型整合待处理图像中的第一信息和目标模板图像中的第二信息,而不需要用户手动将获取待处理图像中的信息和目标模板图像进行叠加等处理。从而,可以简化终端设备将待处理图像和目标模板图像,生成为目标图像的过程,并改善了生成的目标图像的显示效果。也即终端设备可以简化终端设备生成用户自定义的表情包的过程,并改善了生成的用户自定义的表情包的显示效果。
应理解的是,本发明实施例中,射频单元101可用于收发信息或通话过程中,信号的接收和发送,具体的,将来自基站的下行数据接收后,给处理器110处理;另外,将上行的数据发送给基站。通常,射频单元101包括但不限于天线、至少一个放大器、收发信机、耦合器、低噪声放大器、双工器等。此外,射频单元101还可以通过无线通信系统与网络和其他设备通信。
终端设备通过网络模块102为用户提供了无线的宽带互联网访问,如帮助用户收发电子邮件、浏览网页和访问流式媒体等。
音频输出单元103可以将射频单元101或网络模块102接收的或者在存储器109中存储的音频数据转换成音频信号并且输出为声音。而且,音频输出单元103还可以提供与终端设备100执行的特定功能相关的音频输出(例如,呼叫信号接收声音、消息接收声音等等)。音频输出单元103包括扬声器、蜂鸣器以及受话器等。
输入单元104用于接收音频或视频信号。输入单元104可以包括图形处理器(Graphics Processing Unit,GPU)1041和麦克风1042,图形处理器1041对在视频捕获模式或图像捕获模式中由图像捕获装置(如摄像头)获得的静态图片或视频的图像数据进行处理。处理后的图像帧可以显示在显示单元106上。经图形处理器1041处理后的图像帧可以存储在存储器109(或其它存储介质)中或者经由射频单元101或网络模块102进行发送。麦克风1042可以接收声音,并且能够将这样的声音处理为音频数据。处理后的音频数据可以在电话通话模式的情况下转换为可经由射频单元101发送到移动通信基站的格式输出。
终端设备100还包括至少一种传感器105,比如光传感器、运动传感器以及其他传感器。具体地,光传感器包括环境光传感器及接近传感器,其中,环境光传感器可根据环境光线的明暗来调节显示面板1061的亮度,接近传感器可在终端设备100移动到耳边时,关闭显示面板1061和/或背光。作为运动传感器的一种,加速计传感器可检测各个方向上(一般为三轴)加速度的大小,静止时可检测出重力的大小及方向,可用于识别终端设备姿态(比如横竖屏切换、相关游戏、磁力计姿态校准)、振动识别相关功能(比如计步器、敲击)等;传感器105还可以包括指纹传感器、压力传感器、虹膜传感器、分子传感器、陀螺仪、气压计、湿度计、温度计、红外线传感器等,在此不再赘述。
显示单元106用于显示由用户输入的信息或提供给用户的信息。显示单元106可包括显示面板1061,可以采用液晶显示器(Liquid Crystal Display,LCD)、有机发光二极管(Organic Light-Emitting Diode,OLED)等形式来配置显示面板1061。
用户输入单元107可用于接收输入的数字或字符信息,以及产生与终端设备的用户设置以及功能控制有关的键信号输入。具体地,用户输入单元107包括触控面板1071以及其他输入设备1072。触控面板1071,也称为触摸屏,可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触控面板1071上或在触控面板1071附近的操作)。触控面板1071可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给处理器110,接收处理器110发来的命令并加以执行。此外,可以采用电阻式、电容式、红外线以及表面声波等多种类型实现触控面板1071。除了触控面板1071,用户输入单元107还可以包括其他输入设备1072。具体地,其他输入设备1072可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆,在此不再赘述。
进一步的,触控面板1071可覆盖在显示面板1061上,当触控面板1071检测到在其上或附近的触摸操作后,传送给处理器110以确定触摸事件的类型,随后处理器110根据触摸事件的类型在显示面板1061上提供相应的视觉输出。虽然在图8中,触控面板1071与显示面板1061是作为两个独立的部件来实现终端设备的输入和输出功能,但是在某些实施例中,可以将触控面板1071与显示面板1061集成而实现终端设备的输入和输出功能,具体此处不做限定。
接口单元108为外部装置与终端设备100连接的接口。例如,外部装置可以包括有线或无线头戴式耳机端口、外部电源(或电池充电器)端口、有线或无线数据端口、存储卡端口、用于连接具有识别模块的装置的端口、音频输入/输出(I/O)端口、视频I/O端口、耳机端口等等。接口单元108可以用于接收来自外部装置的输入(例如,数据信息、电力等等)并且将接收到的输入传输到终端设备100内的一个或多个元件或者可以用于在终端设备100和外部装置之间传输数据。
存储器109可用于存储软件程序以及各种数据。存储器109可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器109可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
处理器110是终端设备的控制中心,利用各种接口和线路连接整个终端设备的各个部分,通过运行或执行存储在存储器109内的软件程序和/或模块,以及调用存储在存储器109内的数据,执行终端设备的各种功能和处理数据,从而对终端设备进行整体监控。处理器110可包括一个或多个处理单元;优选的,处理器110可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器110中。
终端设备100还可以包括给各个部件供电的电源111(比如电池),优选的,电源111可以通过电源管理系统与处理器110逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。
另外,终端设备100包括一些未示出的功能模块,在此不再赘述。
优选的,本发明实施例还提供一种终端设备,包括处理器110,存储器109,存储在存储器109上并可在所述处理器110上运行的计算机程序,该计算机程序被处理器110执行时实现上述方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
本发明实施例还提供一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,该计算机程序被处理器执行时实现上述方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。其中,所述的计算机可读存储介质,如只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本发明各个实施例所述的方法。
上面结合附图对本发明的实施例进行了描述,但是本发明并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本发明的启示下,在不脱离本发明宗旨和权利要求所保护的范围情况下,还可做出很多形式,均属于本发明的保护之内。
Claims (12)
1.一种图像生成方法,其特征在于,应用于终端设备,包括:
确定目标模板图像;
获取待处理图像中的第一信息;
根据所述第一信息,采用与所述目标模板图像对应的图像生成模型,生成目标图像,所述目标图像为所述第一信息和所述目标模板图像中的第二信息合成的图像,所述第一信息和所述第二信息为不同类型的信息;所述信息类型为面部图像类型、非面部图像类型和图像的风格;
其中,所述图像生成模型为条件生成式对抗网络CGAN或图像风格转换模型;所述图像生成模型是基于对所述目标模板图像、一组面部图像以及一组针对所述目标模板图像的结果图像进行训练得到的,所述图像生成模型用于合成所述第一信息和所述第二信息。
2.根据权利要求1所述的图像生成方法,其特征在于,所述生成目标图像之后,还包括:
在所述终端设备的第一界面上显示所述目标图像。
3.根据权利要求2所述的图像生成方法,其特征在于,所述待处理图像包括N个面部图像,所述第一信息为所述N个面部图像中的目标面部图像的信息,N为正整数;
获取待处理图像的第一信息之前,还包括:
在所述终端设备的第二界面上显示所述待处理图像;
接收用户对所述目标面部图像的第一输入;
获取待处理图像中的第一信息,包括:
响应于所述第一输入,获取所述第一信息。
4.根据权利要求3所述的图像生成方法,其特征在于,所述第二界面上还包括M个模板图像,所述第一输入为将所述目标面部图像拖动至所述第二界面上的目标位置的拖动输入,M为正整数;
所述确定目标模板图像,包括:
响应于所述第一输入,将所述M个模板图像中与所述目标位置对应的模板图像确定所述目标模板图像。
5.根据权利要求3或4所述的图像生成方法,其特征在于,所述终端设备包括至少两个屏,所述第一界面和所述第二界面为所述至少两个屏中不同屏上的界面。
6.一种终端设备,其特征在于,所述终端设备,包括:确定模块、获取模块和生成模块;
所述确定模块,用于确定目标模板图像;
所述获取模块,用于获取待处理图像中的第一信息;
所述生成模块,用于根据所述获取模块获取的所述第一信息,采用与所述确定模块确定的所述目标模板图像对应的图像生成模型,生成目标图像,所述目标图像为所述第一信息和所述目标模板图像中的第二信息合成的图像,所述第一信息和所述第二信息为不同类型的信息;所述第一信息和所述第二信息的类型为面部图像类型、非面部图像类型和图像的风格;
其中,所述图像生成模型为条件生成式对抗网络CGAN或图像风格转换模型;所述图像生成模型是基于对所述目标模板图像、一组面部图像以及一组针对所述目标模板图像的结果图像进行训练得到的,所述图像生成模型用于合成所述第一信息和所述第二信息。
7.根据权利要求6所述的终端设备,其特征在于,所述终端设备还包括:显示模块;
所述显示模块,用于在所述生成模块生成所述目标图像之后,在所述终端设备的第一界面上显示所述目标图像。
8.根据权利要求7所述的终端设备,其特征在于,所述待处理图像包括N个面部图像,所述第一信息为所述N个面部图像中的目标面部图像的信息,N为正整数;
所述显示模块,还用于所述获取模块取待处理图像的第一信息之前,在所述终端设备的第二界面上显示所述待处理图像;
所述终端设备,还包括:接收模块;
所述接收模块,用于接收用户对所述目标面部图像的第一输入;
所述获取模块,具体用于响应于所述第一输入,获取所述第一信息。
9.根据权利要求8所述的终端设备,其特征在于,所述第二界面上还包括M个模板图像,所述第一输入为将所述目标面部图像拖动至所述第二界面上的目标位置的拖动输入,M为正整数;
所述确定模块,具体用于响应于所述第一输入,将所述M个模板图像中与所述目标位置对应的模板图像确定所述目标模板图像。
10.根据权利要求8或9所述的终端设备,其特征在于,所述终端设备包括至少两个屏,所述第一界面和所述第二界面为所述至少两个屏中不同屏上的界面。
11.一种终端设备,其特征在于,包括处理器、存储器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如权利要求1至5中任一项所述的图像生成方法的步骤。
12.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储计算机程序,所述计算机程序被处理器执行时实现如权利要求1至5中任一项所述的图像生成方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811110761.7A CN109215007B (zh) | 2018-09-21 | 2018-09-21 | 一种图像生成方法及终端设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811110761.7A CN109215007B (zh) | 2018-09-21 | 2018-09-21 | 一种图像生成方法及终端设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109215007A CN109215007A (zh) | 2019-01-15 |
CN109215007B true CN109215007B (zh) | 2022-04-12 |
Family
ID=64985158
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811110761.7A Active CN109215007B (zh) | 2018-09-21 | 2018-09-21 | 一种图像生成方法及终端设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109215007B (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109903363A (zh) * | 2019-01-31 | 2019-06-18 | 天津大学 | 条件生成对抗网络三维人脸表情运动单元合成方法 |
CN109949213B (zh) * | 2019-03-15 | 2023-06-16 | 百度在线网络技术(北京)有限公司 | 用于生成图像的方法和装置 |
CN110021051B (zh) * | 2019-04-01 | 2020-12-15 | 浙江大学 | 一种基于生成对抗网络通过文本指导的人物图像生成方法 |
CN110705652B (zh) * | 2019-10-17 | 2020-10-23 | 北京瑞莱智慧科技有限公司 | 对抗样本及其生成方法、介质、装置和计算设备 |
CN111541950B (zh) * | 2020-05-07 | 2023-11-03 | 腾讯科技(深圳)有限公司 | 表情的生成方法、装置、电子设备及存储介质 |
CN112288861B (zh) * | 2020-11-02 | 2022-11-25 | 湖北大学 | 一种基于单张照片的人脸三维模型自动构建方法及系统 |
CN114816599B (zh) * | 2021-01-22 | 2024-02-27 | 北京字跳网络技术有限公司 | 图像显示方法、装置、设备及介质 |
CN112861805B (zh) * | 2021-03-17 | 2023-07-18 | 中山大学 | 一种基于内容特征和风格特征的人脸图像生成方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101159064A (zh) * | 2007-11-29 | 2008-04-09 | 腾讯科技(深圳)有限公司 | 画像生成系统以及按照图像生成画像的方法 |
CN103179341A (zh) * | 2011-12-21 | 2013-06-26 | 索尼公司 | 图像处理装置、图像处理方法和程序 |
CN103778376A (zh) * | 2012-10-23 | 2014-05-07 | 索尼公司 | 信息处理装置和存储介质 |
CN104753766A (zh) * | 2015-03-02 | 2015-07-01 | 小米科技有限责任公司 | 表情发送方法及装置 |
CN106791347A (zh) * | 2015-11-20 | 2017-05-31 | 比亚迪股份有限公司 | 一种图像处理方法、装置及使用该方法的移动终端 |
CN107851299A (zh) * | 2015-07-21 | 2018-03-27 | 索尼公司 | 信息处理装置、信息处理方法以及程序 |
CN107977928A (zh) * | 2017-12-21 | 2018-05-01 | 广东欧珀移动通信有限公司 | 表情生成方法、装置、终端及存储介质 |
CN108401112A (zh) * | 2018-04-23 | 2018-08-14 | Oppo广东移动通信有限公司 | 图像处理方法、装置、终端及存储介质 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107392974A (zh) * | 2017-07-13 | 2017-11-24 | 北京金山安全软件有限公司 | 图片生成方法、装置以及终端设备 |
CN107404577B (zh) * | 2017-07-20 | 2019-05-17 | 维沃移动通信有限公司 | 一种图像处理方法、移动终端及计算机可读存储介质 |
CN107680069B (zh) * | 2017-08-30 | 2020-09-11 | 歌尔股份有限公司 | 一种图像处理方法、装置和终端设备 |
CN107578459A (zh) * | 2017-08-31 | 2018-01-12 | 北京麒麟合盛网络技术有限公司 | 表情嵌入输入法候选项的方法及装置 |
-
2018
- 2018-09-21 CN CN201811110761.7A patent/CN109215007B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101159064A (zh) * | 2007-11-29 | 2008-04-09 | 腾讯科技(深圳)有限公司 | 画像生成系统以及按照图像生成画像的方法 |
CN103179341A (zh) * | 2011-12-21 | 2013-06-26 | 索尼公司 | 图像处理装置、图像处理方法和程序 |
CN103778376A (zh) * | 2012-10-23 | 2014-05-07 | 索尼公司 | 信息处理装置和存储介质 |
CN104753766A (zh) * | 2015-03-02 | 2015-07-01 | 小米科技有限责任公司 | 表情发送方法及装置 |
CN107851299A (zh) * | 2015-07-21 | 2018-03-27 | 索尼公司 | 信息处理装置、信息处理方法以及程序 |
CN106791347A (zh) * | 2015-11-20 | 2017-05-31 | 比亚迪股份有限公司 | 一种图像处理方法、装置及使用该方法的移动终端 |
CN107977928A (zh) * | 2017-12-21 | 2018-05-01 | 广东欧珀移动通信有限公司 | 表情生成方法、装置、终端及存储介质 |
CN108401112A (zh) * | 2018-04-23 | 2018-08-14 | Oppo广东移动通信有限公司 | 图像处理方法、装置、终端及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN109215007A (zh) | 2019-01-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109215007B (zh) | 一种图像生成方法及终端设备 | |
CN108184050B (zh) | 一种拍照方法、移动终端 | |
CN109218648B (zh) | 一种显示控制方法及终端设备 | |
CN108762634B (zh) | 一种控制方法及终端 | |
CN110658971B (zh) | 一种截屏方法及终端设备 | |
CN109857494B (zh) | 一种消息提示方法及终端设备 | |
CN110245246B (zh) | 一种图像显示方法及终端设备 | |
CN108683850B (zh) | 一种拍摄提示方法及移动终端 | |
CN109495616B (zh) | 一种拍照方法及终端设备 | |
CN111026316A (zh) | 一种图像显示方法及电子设备 | |
CN109815462B (zh) | 一种文本生成方法及终端设备 | |
CN109901761B (zh) | 一种内容显示方法及移动终端 | |
CN109448069B (zh) | 一种模板生成方法及移动终端 | |
CN110930410A (zh) | 一种图像处理方法、服务器及终端设备 | |
US20220286622A1 (en) | Object display method and electronic device | |
CN110866465A (zh) | 电子设备的控制方法及电子设备 | |
CN111010523A (zh) | 一种视频录制方法及电子设备 | |
CN111158817A (zh) | 一种信息处理方法及电子设备 | |
CN108600079B (zh) | 一种聊天记录展示方法及移动终端 | |
CN111127595A (zh) | 图像处理方法及电子设备 | |
WO2021082772A1 (zh) | 截屏方法及电子设备 | |
CN110209324B (zh) | 一种显示方法及终端设备 | |
CN109117037B (zh) | 一种图像处理的方法及终端设备 | |
CN110012151B (zh) | 一种信息显示方法及终端设备 | |
CN108833791B (zh) | 一种拍摄方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |