CN110706300A - 虚拟形象生成方法及装置 - Google Patents

虚拟形象生成方法及装置 Download PDF

Info

Publication number
CN110706300A
CN110706300A CN201910887776.2A CN201910887776A CN110706300A CN 110706300 A CN110706300 A CN 110706300A CN 201910887776 A CN201910887776 A CN 201910887776A CN 110706300 A CN110706300 A CN 110706300A
Authority
CN
China
Prior art keywords
image
feature
label
interface
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910887776.2A
Other languages
English (en)
Inventor
张军
戴世昌
闫羽婷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN201910887776.2A priority Critical patent/CN110706300A/zh
Publication of CN110706300A publication Critical patent/CN110706300A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本公开涉及一种虚拟形象生成方法及装置。该方法包括:根据至少一个界面场景图像确定至少一个界面特征标签;根据所述至少一个界面特征标签和特征匹配模型确定形象特征标签,所述形象特征标签包括以下至少一者:肤色标签、发色标签、质感标签、以及配色标签;以及基于所述形象特征标签对虚拟对象进行渲染以生成虚拟形象。本公开涉及的虚拟形象生成方法及装置,能够自动快速输出虚拟角色的形象和外观方案,提升工作效率,减少人力和时间成本的投入。

Description

虚拟形象生成方法及装置
技术领域
本公开涉及计算机信息处理领域,具体而言,涉及一种虚拟形象生成方法及装置。
背景技术
随着科技的发展,系统和用户之间进行交互和信息交换的媒介由原来的简单的对话窗口扩展到了更多形式,比如通过虚拟形象进行场景模拟,进而辅助计算机程序进行人机交互的方式,由于其丰富的趣味性和亲和力受到了用户的广泛的欢迎。
目前在虚拟形象的设计领域需要纯人工设定和构建虚拟角色和形象。虚拟形象的设计构建需要投入大量的人力成本,一个角色形象的设计确立需要制作人、产品经理、UI设计师、原画师等多人互相配合完成。同时需要投入大量的时间成本,设计构建所需要的工时从两周到数月不等,整体周期长。而随着虚拟形象的应用范围的扩大,如何快速的生成虚拟形象就成为了一个亟待解决的问题。
发明内容
有鉴于此,本公开提供一种虚拟形象生成方法及装置,能够自动快速输出虚拟角色的形象和外观方案,提升工作效率,减少人力和时间成本的投入。
本公开的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本公开的实践而习得。
根据本公开的一方面,提出一种虚拟形象生成方法,该方法包括:根据至少一个界面场景图像确定至少一个界面特征标签;根据至少一个界面特征标签和特征匹配模型确定形象特征标签,所述形象特征标签包括以下至少一者:肤色标签、发色标签、质感标签、以及配色标签;以及基于形象特征标签对虚拟对象进行渲染以生成虚拟形象。
根据本公开的一方面,提出一种虚拟形象生成装置,该装置包括:界面特征模块,用于根据至少一个界面场景图像确定至少一个界面特征标签;形象特征模块,用于根据至少一个界面特征标签和特征匹配模型确定形象特征标签,形象特征标签包括以下至少一者:肤色标签、发色标签、质感标签、配色标签;以及形象生成模块,用于基于形象特征标签生成虚拟形象。
在一个实施例中,还包括:数据获取模块,用于获取虚拟场景图像;图像处理模块,用于对所述虚拟场景图像进行图像处理以指定特征标签;图像识别模块,用于通过带有特征标签的所述虚拟场景图像对第一机器学习模型进行训练,生成所述图像识别模型;和/或特征匹配模块,用于通过带有特征标签的所述虚拟场景图像对第二机器学习模型进行训练,生成所述特征匹配模型;其中,所述虚拟场景图像中包括虚拟形象和界面场景。
在一个实施例中,数据获取模块,还用于由区块链系统获取所述虚拟场景图像。
在一个实施例中,图像处理模块包括:区域单元,用于对虚拟场景图像进行图像处理,确定虚拟形象区域和界面场景区域;形象单元,用于为虚拟形象区域指定至少一个形象特征标签;界面单元,用于为界面场景区域指定至少一个界面特征标签;标签单元,用于通过至少一个形象特征标签和至少一个界面特征标签生成特征标签。
在一个实施例中,图像识别模块包括:分析单元,用于将虚拟场景图像进行图像分析处理以获取图像特征数据;输入单元,用于将带有特征标签的虚拟场景图像和其对应的图像特征数据输入生成式对抗网络模型中;以及训练单元,用于生成式对抗网络模型基于图像特征数据和特征标签中的界面特征标签进行训练以生成图像识别模型。
在一个实施例中,特征匹配模块包括:场景单元,用于将带有特征标签的虚拟场景图像输入神经网络模型中;以及匹配单元,用于神经网络模型基于特征标签中的界面特征标签和形象特征标签进行训练以生成特征匹配模型。
在一个实施例中,形象特征模块包括:角色单元,用于获取虚拟对象的角色标签;初始单元,用于将至少一个界面特征标签输入特征匹配模型中以获取多个初始形象特征标签;以及筛选单元,用于根据至少一个角色标签对至少一个初始形象特征标签进行筛选以确定形象特征标签。
在一个实施例中,形象生成模块包括:参数单元,用于基于形象特征标签确定肤色参数、发色参数、质感参数、配色参数;渲染单元,用于基于肤色参数、发色参数、质感参数、配色参数对虚拟对象分别进行渲染;以及整合单元,用于将渲染后的虚拟对象与界面场景图像进行图像整合以生成虚拟形象。
根据本公开的一方面,提出一种电子设备,该电子设备包括:一个或多个处理器;存储装置,用于存储一个或多个程序;当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如上文的方法。
根据本公开的一方面,提出一种计算机可读介质,其上存储有计算机程序,该程序被处理器执行时实现如上文中的方法。
根据本公开的虚拟形象生成方法及装置,根据界面场景图像和图像识别模型确定界面特征标签;根据界面特征标签和特征匹配模型确定形象特征标签;以及基于形象特征标签对虚拟对象进行渲染以生成虚拟形象的方式,能够自动快速输出虚拟角色的形象和外观方案,提升工作效率,减少人力和时间成本的投入。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性的,并不能限制本公开。
附图说明
通过参照附图详细描述其示例实施例,本公开的上述和其它目标、特征及优点将变得更加显而易见。下面描述的附图仅仅是本公开的一些实施例,对于本领域的普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是根据一示例性实施例示出的一种虚拟形象生成方法及装置的系统场景框图。
图2是根据一示例性实施例示出的一种虚拟形象生成方法及装置的应用场景示意图。
图3是根据一示例性实施例示出的一种虚拟形象生成方法及装置的应用场景示意图。
图4是根据一示例性实施例示出的一种虚拟形象生成方法的流程图。
图5是根据另一示例性实施例示出的一种虚拟形象生成方法的流程图。
图6是根据另一示例性实施例示出的一种虚拟形象生成方法的流程图。
图7是根据一示例性实施例示出的一种虚拟形象生成装置的框图。
图8是根据另一示例性实施例示出的一种虚拟形象生成装置的框图。
图9是根据一示例性实施例示出的一种电子设备的框图。
具体实施方式
现在将参考附图更全面地描述示例实施例。然而,示例实施例能够以多种形式实施,且不应被理解为限于在此阐述的实施例;相反,提供这些实施例使得本公开将全面和完整,并将示例实施例的构思全面地传达给本领域的技术人员。在图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。
此外,所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施例中。在下面的描述中,提供许多具体细节从而给出对本公开的实施例的充分理解。然而,本领域技术人员将意识到,可以实践本公开的技术方案而没有特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知方法、装置、实现或者操作以避免模糊本公开的各方面。
附图中所示的方框图仅仅是功能实体,不一定必须与物理上独立的实体相对应。即,可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
附图中所示的流程图仅是示例性说明,不是必须包括所有的内容和操作/步骤,也不是必须按所描述的顺序执行。例如,有的操作/步骤还可以分解,而有的操作/步骤可以合并或部分合并,因此实际执行的顺序有可能根据实际情况改变。
应理解,虽然本文中可能使用术语第一、第二、第三等来描述各种组件,但这些组件不应受这些术语限制。这些术语乃用以区分一组件与另一组件。因此,下文论述的第一组件可称为第二组件而不偏离本公开概念的教示。如本文中所使用,术语“及/或”包括相关联的列出项目中的任一个及一或多者的所有组合。
本领域技术人员可以理解,附图只是示例实施例的示意图,附图中的模块或流程并不一定是实施本公开所必须的,因此不能用于限制本公开的保护范围。
本公开的发明人发现,目前在虚拟角色形象领域仍然纯人工设定和构建虚拟角色和形象,目前虚拟角色形象的设计构建需要投入大量的人力成本,一个角色形象的设计确立需要制作人、产品经理、UI设计师、原画师等多人互相配合完成。同时需要投入大量的时间成本,设计构建所需要的工时从两周到数月不等,整体周期长。
虚拟形象的设计需要综合考虑多方面的因素,其中最主要的因素就是虚拟形象将要处于的场景界面,场景界面是指软件界面中通过二维图形图像或三维模型表现的、真实的或虚构的场面。如何使得虚拟形象在场景界面中恰当,优美,适应与用户的审美需要,是在虚拟形象设计中面临的主要问题。
目前的存在着一些进行虚拟形象设计的相关技术,可例如,利用机器学习模型进行图像识别技术,能够实现快速提取图片中已有的现成元素和设计框架生成静态图片海报。但是这种方法通过机器学习模型生成的是元素拼合的静态图片,无法解决目前虚拟角色形象设计构建所存在的问题。
还可例如,人脸识别领域同样利用机器学习模型进行图像识别技术,即通过获取待识别的人脸图像,利用预先建立好的图像识别模型,得到识别结果。但是人脸识别领域对于图像识别技术应用和发明更多是提升识别准确性层面上,与本公开中的虚拟形象设计的具体技术问题存在较大的差异。
有鉴于现有技术中存在的技术瓶颈和技术缺陷,本公开的发明人提出了一种虚拟形象生成方法,该方法根据现有界面中的各类图像元素进行标注,根据多张经过标注的界面图像分析元素各类特征及组合方式,生成训练样本,再利用机器学习模型进行训练,进而能够自动配置出虚拟形象外观。能够提升生成虚拟形象的效率,减少人力和时间成本的投入。
为了理解本公开的技术内容,现将本公开中涉及到的技术术语解释如下:
虚拟形象,是指通过计算机2D绘制或者3D建模技术构建,在实体显示屏或者虚拟空间/屏幕中呈现出的角色形象。
界面:指系统和用户之间进行交互和信息交换的媒介,它实现信息的内部形式与人类可以接受形式之间的转换,目的在使得用户能够完成任务或获取信息,包含了人机交互与图形用户界面。
场景:指软件界面中通过二维图形图像或三维模型表现的、真实的或虚构的场面。
虚拟形象:通过计算机2D绘制或者3D建模技术构建,在实体显示屏或者虚拟空间/屏幕中呈现出的角色形象。
机器学习:模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。
图像识别:利用计算机对图像进行处理、分析和理解,以识别各种不同模式的目标和对象的技术,属于机器学习的一个分支。
质感:不同的物质表面的自然特质称天然质感,如空气、水、岩石、竹木等,而经过人工处理的表现感觉则称人工质感,如砖、陶瓷、玻璃、布匹、塑胶等,不同的质感给人以软硬、虚实、滑涩、韧脆、透明与浑浊等多种感觉,在造型艺术形象在真实表现质地方面引起的审美感受。
图1是根据一示例性实施例示出的一种虚拟形象生成方法及装置的系统场景框图。
如图1所示,系统架构10可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如购物类应用、网页浏览器应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等。
终端设备101、102、103可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。
终端设备101、102、103可例如根据至少一个界面场景图像和确定至少一个界面特征标签;终端设备101、102、103可例如根据至少一个界面特征标签和特征匹配模型确定形象特征标签,形象特征标签可包括肤色标签、发色标签、质感标签、以及配色标签;终端设备101、102、103可例如基于形象特征标签生成虚拟形象。
终端设备101、102、103还可例如通过虚拟场景图像对机器学习模型进行训练,生成图像识别模型;终端设备101、102、103还可例如通过虚拟场景图像对机器学习模型进行训练,生成特征匹配模型;其中,虚拟场景图像中包括虚拟形象和界面场景。
服务器105可以是提供各种服务的服务器,例如对用户利用终端设备101、102、103所浏览的信息处理类网站提供支持的后台管理服务器。后台管理服务器可以对接收到的虚拟形象处理等请求进行分析等处理,并将处理结果(虚拟形象)反馈给终端设备。
服务器105可例如接收由终端设备101、102、103发送的界面场景图像,服务器105可例如根据至少一个界面场景图像确定至少一个界面特征标签;服务器105可例如根据至少一个界面特征标签和特征匹配模型确定形象特征标签,形象特征标签包括肤色标签、发色标签、质感标签、以及配色标签;服务器105可例如基于形象特征标签对虚拟对象进行渲染以生成虚拟形象。
服务器105还可例如通过虚拟场景图像对机器学习模型进行训练,生成图像识别模型;服务器105还可例如通过虚拟场景图像对机器学习模型进行训练,生成特征匹配模型;其中,虚拟场景图像中包括虚拟形象和界面场景。
服务器105还可例如将图像识别模型和特征匹配模型发送至终端设备101、102、103中,以供其使用。
服务器105可以是一个实体的服务器,还可例如为多个服务器组成,需要说明的是,本公开实施例所提供的虚拟形象生成方法可以由服务器105或终端设备101、102、103执行,相应地,虚拟形象生成装置可以设置于服务器105或终端设备101、102、103中。
图2是根据一示例性实施例示出的一种虚拟形象生成方法及装置的应用场景示意图。
在一个实施例中,本公开中的方法可以通过软件程序进行实现,进而作为用户终端上的一个应用,用户可启动该应用程序,然后根据界面上的提示,输入一个或多个界面场景图像,以及虚拟角色形象的线稿(无颜色),应用通过图像识别分析界面场景的整体风格定位、配色、质感等,然后进行自动配置,生成虚拟形象的外观(可例如包括发色、肤色、服饰配色、质感表现等),应用程序生成的虚拟形象的外观与所处界面场景视觉风格相匹配。
在一个实施例中,本公开中的方法可以通过网页程序进行实现,进而作为一个提供交互信息的网站展示在用户处,用户可通过输入网址进而进入该网站,启动该网页程序。用户可根据网页上的提示,输入一个或多个界面场景图像,以及虚拟角色形象的线稿(无颜色),网页程序通过图像识别分析界面场景的整体风格定位、配色、质感等,然后进行自动配置,生成虚拟形象的外观(可例如包括发色、肤色、服饰配色、质感表现等),网页程序生成的虚拟形象的外观与所处界面场景视觉风格相匹配。
在一个实施例中,本公开中的方法可以通过其他技术手段实现,其根本均是通过用户输入的界面场景形象,通过图像识别分析界面场景的整体风格定位,进而生成虚拟形象的外观的方法。
指的一提的是,本公开中的虚拟形象可为人物形象、动物形象、二维动画形象、三维物体形象等等,本公开不以此为限。
本公开中的虚拟形象生成方法通过机器学习,将大量含有虚拟角色形象的界面场景图片输入系统中,配合设计师从风格、配色、元素、质感等维度特征进行标注和定义分类,建立图像识别模型
本公开中的虚拟形象生成方法抽离背景和角色形象,从上述多个维度构建匹配模型,构建风格标签以及对应的配色库、质感表现库
在实际应用中,用户输入软件产品的多张界面场景图片,利用已建立的图像识别模型分析并判断风格类别、色值与配色比例、元素特质及质感表现等特征数据集,然后可从配色库、质感表现库中提取对应的参数,进而最终配置出虚拟角色形象的外观方案。
图3是根据一示例性实施例示出的一种虚拟形象生成方法及装置的应用场景示意图。
在一个具体的应用场景中,用户可通过打开“游戏小悦”,或者其他类似的应用从而开始使用本公开中的虚拟形象生成方法。在应用程序中,可通过对话框或者其他形式提示用户输入场景界面和虚拟形象的线条图。用户可将场景界面和虚拟形象的线条图通过拖拽或者粘贴等方式输入到应用程序中。
值得一提的是,场景界面的图像可以输入一张或者多张,应用程序可根据输入的一张或者多张场景界面图像综合计算,最后生成虚拟形象的特征标签。然后在根据特征标签为虚拟形象的线条稿进行颜色渲染,进而生成渲染完毕的虚拟形象。还可将虚拟形象和界面场景图共同显示在用户端上。
特征标签可以有多个,在生成特征标签之后,可按照和界面场景的切合程度将特征标签依序排列,并且在用户界面上生成提示标签。用户可根据自身的喜好,有特征标签中选择目标特征标签,从而为虚拟形象进行渲染,生成渲染完毕的虚拟形象。
图4是根据一示例性实施例示出的一种虚拟形象生成方法的流程图。虚拟形象生成方法40至少包括步骤S402至S406。
如图4所示,在S402中,根据至少一个界面场景图像确定至少一个界面特征标签。其中,界面场景图像可为用户任意输入的界面场景形象,还可提供界面设计接口,由用户自行设置场景界面。
在一个实施例中,用户可将设计好的界面场景图像进行多角度的截图,将多个角度的截图一同输入图像识别模型中,以便图像识别模型进行图像处理。
在一个实施例中,还包括,通过虚拟场景图像对机器学习模型进行训练,生成图像识别模型;其中,虚拟场景图像中包括虚拟形象和界面场景。
在一个实施例中,通过虚拟场景图像对机器学习模型进行训练,生成图像识别模型包括:由历史数据中获取虚拟场景图像;为虚拟场景图像中的每一个虚拟场景图像分别指定特征标签;以及通过带有特征标签的虚拟场景图像对机器学习模型进行训练以生成图像识别模型。
“通过虚拟场景图像对机器学习模型进行训练,生成图像识别模型”的详细内容将在图5对应的实施例中进行详细描述。
在一个实施例中,至少一个界面场景图像输入图像识别模型中,图像识别模型将至少一个界面场景图进行图像分析处理以获取图像特征数据;然后图像识别模型根据图像特征数据进行分析,输出其对应的至少一个界面特征标签。
在一个实施例中,图像识别模型可根据输入的界面场景图像输出多个初始界面特征标签,每个初始界面特征标签上均有不同的打分,多个初始界面特征标签按照其得分情况依次排列。打分可显示该界面特征标签与该界面场景之间的匹配程度。用户可根据输出的初始界面特征标签及其打分,确定最终的至少一个界面特征标签。
在S404中,根据至少一个界面特征标签和特征匹配模型确定形象特征标签,所述形象特征标签包括以下至少一者:肤色标签、发色标签、质感标签、以及配色标签。
在一个实施例中,还包括,通过虚拟场景图像对机器学习模型进行训练,生成特征匹配模型;其中,虚拟场景图像中包括虚拟形象和界面场景。
在一个实施例中,通过虚拟场景图像对机器学习模型进行训练,生成特征匹配模型包括:由历史数据中获取虚拟场景图像;为虚拟场景图像中的每一个虚拟场景图像分别指定特征标签;以及通过带有特征标签的虚拟场景图像对机器学习模型进行训练以生成特征匹配模型。
“根据至少一个界面特征标签和特征匹配模型确定形象特征标签”的详细内容将在图6对应的实施例中进行详细描述。
在一个实施例中,将至少一个界面特征标签输入特征匹配模型中,特征匹配模型根据至少一个界面特征标签进行数据匹配;然后特征匹配模型根据界面特征标签进行分析,输出其对应的形象特征标签。
在一个实施例中,界面特征标签可根据输入的至少一个界面特征标签输出多个初始形象特征标签,每个初始形象特征标签上均有不同的打分,多个初始形象特征标签按照其得分情况依次排列。打分可显示该界面特征标签与该初始形象特征标签之间的匹配程度。用户可根据输出的初始形象特征标签及其打分,确定最终的形象特征标签。
在一个实施例中,根据至少一个界面特征标签和特征匹配模型确定形象特征标签包括:获取虚拟对象的角色标签;将界面特征标签输入特征匹配模型中以获取至少一个初始形象特征标签;以及根据角色标签对至少一个初始形象特征标签进行筛选以确定形象特征标签。
还可例如,通过虚拟对象的角色标签附近筛选形象特征标签。可在虚拟对象的二维线稿图上为虚拟对象指定角色标签,角色标签可为“可爱”、“二次元”、“萌妹子”等等。根据角色标签对多个初始形象特征标签进行筛选以确定形象特征标签。
更具体的,角色标签为“萌妹子”的时候,初始形象标签中标识的“深绿发色”,“粗糙质感”等等与“萌妹子”角色标签不符合的初始形象标签会被删除。
在S406中,基于形象特征标签生成虚拟形象。可例如:基于形象特征标签确定肤色参数、发色参数、质感参数、配色参数;基于肤色参数、发色参数、质感参数、配色参数对虚拟对象分别进行渲染;以及将渲染后的虚拟对象与界面场景图像进行图像整合以生成虚拟形象。
在一个实施例中,不同的参数对应着不同的颜色值,可例如,肤色参数1.0对应着白色皮肤,肤色参数2.0对应棕色皮肤等,发色参数、质感参数与肤色参数类似,不同的参数代表了不同的颜色数值;在配色参数中,不同的配色参数代表了几个颜色的搭配比例,比如配色参数1.0代表了红黄配色,红色占80%,黄色占20%等。
根据以上各个参数,提取不同的颜色为虚拟图像进行渲染。更具体的,负责参数渲染在虚拟形象的皮肤处,发色参数渲染在虚拟形象的毛发位置。
渲染,是生成虚拟形象的一个步骤。渲染程序根据上述各个参数来计算物体表面的颜色,也要考虑虚拟形象的材质特性,材质的类型不同,属性不同,纹理不同都会产生各种不同的效果。可通过多种渲染器对虚拟形象进行渲染,可包括V-Ray,For 3DsMax,ForSketchUp等等方法实现,本公开不以此为限。
根据本公开的虚拟形象生成方法,根据界面场景图像和图像识别模型确定界面特征标签;根据界面特征标签和特征匹配模型确定形象特征标签;以及基于形象特征标签对虚拟对象进行渲染以生成虚拟形象的方式,能够自动快速输出虚拟角色的形象和外观方案,提升工作效率,减少人力和时间成本的投入。
应清楚地理解,本公开描述了如何形成和使用特定示例,但本公开的原理不限于这些示例的任何细节。相反,基于本公开公开的内容的教导,这些原理能够应用于许多其它实施例。
图5是根据另一示例性实施例示出的一种虚拟形象生成方法及装置的流程图。图5所示的流程是对“通过虚拟场景图像对机器学习模型进行训练,生成图像识别模型”的详细描述,
如图5所示,在S502中,获取虚拟场景图像。其中,虚拟场景图像中包括虚拟形象和界面场景。可例如,由区块链系统中获取虚拟场景图像。
区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层。区块链底层平台可以包括用户管理、基础服务、智能合约以及运营监控等处理模块。平台产品服务层提供典型应用的基本能力和实现框架,开发人员可以基于这些基本能力,叠加业务的特性,完成业务逻辑的区块链实现。应用服务层提供基于区块链方案的应用服务给业务参与方进行使用。
将虚拟场景图像存储至区块链系统之后,应用服务层可基于区块中的虚拟场景图像,向其他系统或者使用者基于区块链协议提供虚拟场景图像的数据读取服务,基于区块链系统所提供的虚拟场景图像的读取服务能够保证虚拟场景图像在数据传输使用的过程中不被更改,并且保证虚拟场景图像的数据安全。
在S504中,对虚拟场景图像进行图像处理,确定虚拟形象区域和界面场景区域。可通过框选或者添加分割曲线的方式区分虚拟形象区域和界面场景区域。
在S506中,为界面场景区域指定至少一个界面特征标签。界面特征标签可为“日系”、“清新”、“欧美”,界面标签还可包括“蓝色调”、“粉红色系”等等。
在S508中,将虚拟场景图像进行图像分析处理以获取图像特征数据。
在S510中,将带有至少一个界面特征标签的虚拟场景图像和其对应的图像特征数据输入生成式对抗网络模型中。
在S512中,生成式对抗网络基于图像特征数据和界面特征标签进行训练以生成图像识别模型。其中,生成式对抗网络(GAN,Generative Adversarial Networks)是一种深度学习模型。
在本公开的生成式对抗网络模型中可至少包括两个子网络,G(Generator)和D(Discriminator)。G网络用于生成图片,G网络接收一个随机的噪声z,通过这个噪声生成图片,记做G(z)。D网络用于判别图片,D网络判别一张图片对用户而言是否为“有效的”或者“美观的”。它的输入参数是x,x代表一张图片,输出D(x)代表x为有效图片的概率,如果为1,就代表100%是有效或美观的图片,而输出为0,就代表不可能是有效或美观的图片。
在具体的模型训练过程中,生成网络G的目标就是尽量生成真实的图片去欺骗判别网络D。而D的目标就是尽量把G生成的图片和真实的图片分别开来。这样,G和D构成了一个动态的“博弈过程”,生成式对抗网络模型通过框架中多个模块的互相博弈学习产生机器学习的输出结果。
图6是根据另一示例性实施例示出的一种虚拟形象生成方法及装置的流程图。图6所示的流程是对“通过虚拟场景图像对机器学习模型进行训练,生成特征匹配模型”的详细描述,
如图6所示,在S602中,获取虚拟场景图像。其中,虚拟场景图像中包括虚拟形象和界面场景。可例如,由区块链系统中获取虚拟场景图像。
在S604中,对虚拟场景图像进行图像处理,确定虚拟形象区域和界面场景区域。
在S606中,为虚拟形象区域指定至少一个形象特征标签。
在S608中,为界面场景区域指定至少一个界面特征标签。
在S610中,将带有特征标签的虚拟场景图像输入神经网络模型中。
在S612中,神经网络模型基于特征标签中的界面特征标签和形象特征标签进行训练以生成特征匹配模型。
其中神经网络(Artificial Neural Networks,ANN)模型是由众多的神经元可调的连接权值连接而成,具有大规模并行处理、分布式信息存储、良好的自组织自学习能力等特点。在本公开中的神经网络模型可为监督式的机器学习模型。监督式学习指的是通过输入变量和输出变量,使用某种算法去学习从输入到输出的映射函数。
在本公开中,将界面特征标签作为神经网络的输入变量,将形象特征标签作为神经网络的输出特征变量,通过神经网络的训练,建立界面特征标签和形象特征标签之间的函数关系,进而使得在其他界面特征标签,或者是界面特征标签的不同组合输入到训练完毕的特征匹配模型的时候,特征匹配模型能准确的输出其对应的形象特性标签。
在本公开中,神经网络模型可包括:K-近邻算法(k-Nearest Neighbor)模型;决策树(Decision Tree)模型;朴素贝叶斯(Naive Bayes)模型等等监督学习模型,本公开不以此为限。
本领域技术人员可以理解实现上述实施例的全部或部分步骤被实现为由CPU执行的计算机程序。在该计算机程序被CPU执行时,执行本公开提供的上述方法所限定的上述功能。的程序可以存储于一种计算机可读存储介质中,该存储介质可以是只读存储器,磁盘或光盘等。
此外,需要注意的是,上述附图仅是根据本公开示例性实施例的方法所包括的处理的示意性说明,而不是限制目的。易于理解,上述附图所示的处理并不表明或限制这些处理的时间顺序。另外,也易于理解,这些处理可以是例如在多个模块中同步或异步执行的。
下述为本公开装置实施例,可以用于执行本公开方法实施例。对于本公开装置实施例中未披露的细节,请参照本公开方法实施例。
图7是根据一示例性实施例示出的一种虚拟形象生成装置的框图。如图7所示,虚拟形象生成装置70包括:界面特征模块702,形象特征模块704,以及形象生成模块706。
界面特征模块702用于根据至少一个界面场景图像确定至少一个界面特征标签;
形象特征模块704用于根据所述至少一个界面特征标签和特征匹配模型确定形象特征标签,所述形象特征标签包括以下至少一者:肤色标签、发色标签、质感标签、配色标签;
其中,形象特征模块704包括:角色单元,用于获取虚拟对象的角色标签;初始单元,用于将至少一个界面特征标签输入特征匹配模型中以获取多个初始形象特征标签;以及筛选单元,用于根据至少一个角色标签对至少一个初始形象特征标签进行筛选以确定形象特征标签。
形象生成模块706用于基于所述形象特征标签生成虚拟形象。
其中,形象生成模块706包括:参数单元,用于基于形象特征标签确定肤色参数、发色参数、质感参数、配色参数;渲染单元,用于基于肤色参数、发色参数、质感参数、配色参数对虚拟对象分别进行渲染;以及整合单元,用于将渲染后的虚拟对象与界面场景图像进行图像整合以生成虚拟形象。
根据本公开的虚拟形象生成装置,根据界面场景图像和图像识别模型确定界面特征标签;根据界面特征标签和特征匹配模型确定形象特征标签;以及基于形象特征标签对虚拟对象进行渲染以生成虚拟形象的方式,能够自动快速输出虚拟角色的形象和外观方案,提升工作效率,减少人力和时间成本的投入。
图8是根据另一示例性实施例示出的一种虚拟形象生成装置的框图。如图8所示,虚拟形象生成装置80在虚拟形象生成装置70的基础上还包括:数据获取模块802,图像处理模块804,图像识别模块806,以及特征匹配模块808。
数据获取模块802用于获取虚拟场景图像;数据获取模块702还用于由区块链系统获取所述虚拟场景图像。
图像处理模块804用于对所述虚拟场景图像进行图像处理以指定特征标签;图像处理模块804包括:区域单元,用于对虚拟场景图像进行图像处理,确定虚拟形象区域和界面场景区域;形象单元,用于为虚拟形象区域指定至少一个形象特征标签;界面单元,用于为界面场景区域指定至少一个界面特征标签;标签单元,用于通过至少一个形象特征标签和至少一个界面特征标签生成特征标签。
图像识别模块806用于通过带有特征标签的所述虚拟场景图像对第一机器学习模型进行训练,生成所述图像识别模型;图像识别模块706包括:分析单元,用于将虚拟场景图像进行图像分析处理以获取图像特征数据;输入单元,用于将带有特征标签的虚拟场景图像和其对应的图像特征数据输入生成式对抗网络模型中;以及训练单元,用于生成式对抗网络模型基于图像特征数据和特征标签中的界面特征标签进行训练以生成图像识别模型。
特征匹配模块808用于通过带有特征标签的所述虚拟场景图像对第二机器学习模型进行训练,生成所述特征匹配模型;其中,所述虚拟场景图像中包括虚拟形象和界面场景。特征匹配模块708包括:场景单元,用于将带有特征标签的虚拟场景图像输入神经网络模型中;以及匹配单元,用于神经网络模型基于特征标签中的界面特征标签和形象特征标签进行训练以生成特征匹配模型。
图9是根据一示例性实施例示出的一种电子设备的框图。
下面参照图9来描述根据本公开的这种实施方式的电子设备900。图9显示的电子设备900仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图9所示,电子设备900以通用计算设备的形式表现。电子设备900的组件可以包括但不限于:至少一个处理单元910、至少一个存储单元920、连接不同系统组件(包括存储单元920和处理单元910)的总线930、显示单元940等。
其中,存储单元存储有程序代码,程序代码可以被处理单元910执行,使得处理单元910执行本说明书上述电子处方流转处理方法部分中描述的根据本公开各种示例性实施方式的步骤。例如,处理单元910可以执行如图3,图4,图5中所示的步骤。
存储单元920可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)9201和/或高速缓存存储单元9202,还可以进一步包括只读存储单元(ROM)9203。
存储单元920还可以包括具有一组(至少一个)程序模块9205的程序/实用工具9204,这样的程序模块9205包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线930可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备900也可以与一个或多个外部设备900’(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备900交互的设备通信,和/或与使得该电子设备900能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口950进行。并且,电子设备900还可以通过网络适配器960与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。网络适配器960可以通过总线930与电子设备900的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备900使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、或者网络设备等)执行根据本公开实施方式的上述方法。
程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
计算机可读存储介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读存储介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本公开操作的程序代码,程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被一个该设备执行时,使得该计算机可读介质实现如下功能:根据至少一个界面场景图像确定至少一个界面特征标签;根据所述至少一个界面特征标签和特征匹配模型确定形象特征标签,所述形象特征标签包括以下至少一者:肤色标签、发色标签、质感标签、以及配色标签;以及基于所述形象特征标签对虚拟对象进行渲染以生成虚拟形象。。
本领域技术人员可以理解上述各模块可以按照实施例的描述分布于装置中,也可以进行相应变化唯一不同于本实施例的一个或多个装置中。上述实施例的模块可以合并为一个模块,也可以进一步拆分成多个子模块。
通过以上的实施例的描述,本领域的技术人员易于理解,这里描述的示例实施例可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施例的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、移动终端、或者网络设备等)执行根据本公开实施例的方法。
以上具体地示出和描述了本公开的示例性实施例。应可理解的是,本公开不限于这里描述的详细结构、设置方式或实现方法;相反,本公开意图涵盖包含在所附权利要求的精神和范围内的各种修改和等效设置。
此外,本说明书说明书附图所示出的结构、比例、大小等,均仅用以配合说明书所公开的内容,以供本领域技术人员了解与阅读,并非用以限定本公开可实施的限定条件,故不具技术上的实质意义,任何结构的修饰、比例关系的改变或大小的调整,在不影响本公开所能产生的技术效果及所能实现的目的下,均应仍落在本公开所公开的技术内容得能涵盖的范围内。同时,本说明书中所引用的如“上”、“第一”、“第二”及“一”等的用语,也仅为便于叙述的明了,而非用以限定本公开可实施的范围,其相对关系的改变或调整,在无实质变更技术内容下,当也视为本公开可实施的范畴。

Claims (10)

1.一种虚拟形象生成方法,其特征在于,包括:
根据至少一个界面场景图像确定至少一个界面特征标签;
根据所述至少一个界面特征标签利用特征匹配模型确定形象特征标签,所述形象特征标签包括以下至少一者:肤色标签、发色标签、质感标签以及配色标签;以及
基于所述形象特征标签生成虚拟形象。
2.如权利要求1所述的方法,其特征在于,根据至少一个界面场景图像利用图像识别模型确定至少一个界面特征标签之前还包括:
获取虚拟场景图像;
对所述虚拟场景图像进行图像处理以确定特征标签;
通过带有特征标签的所述虚拟场景图像对第一机器学习模型进行训练,生成图像识别模型;和/或
通过带有特征标签的所述虚拟场景图像对第二机器学习模型进行训练,生成所述特征匹配模型;
其中,所述虚拟场景图像中包括虚拟形象和界面场景图像。
3.如权利要求2所述的方法,其特征在于,获取虚拟场景图像包括:
由区块链系统获取所述虚拟场景图像。
4.如权利要求2所述的方法,其特征在于,对所述虚拟场景图像进行图像处理以确定特征标签包括:
对所述虚拟场景图像进行图像处理,确定虚拟形象区域和界面场景区域;
为所述虚拟形象区域指定至少一个形象特征标签;
为所述界面场景区域指定至少一个界面特征标签;
通过所述至少一个形象特征标签和所述至少一个界面特征标签生成所述特征标签。
5.如权利要求2所述的方法,其特征在于,通过带有特征标签的所述虚拟场景图像对第一机器学习模型进行训练,生成所述图像识别模型包括:
将虚拟场景图像进行图像分析处理以获取图像特征数据;
将带有特征标签的虚拟场景图像和其对应的图像特征数据输入生成式对抗网络模型中;以及
所述生成式对抗网络模型基于所述图像特征数据和所述特征标签中的所述界面特征标签进行训练以生成所述图像识别模型。
6.如权利要求2所述的方法,其特征在于,通过带有特征标签的所述虚拟场景图像对第二机器学习模型进行训练,生成所述特征匹配模型包括:
将带有特征标签的虚拟场景图像输入神经网络模型中;以及
所述神经网络模型基于所述特征标签中的所述界面特征标签和所述形象特征标签进行训练以生成所述特征匹配模型。
7.如权利要求2所述的方法,其特征在于,根据至少一个界面场景图像确定至少一个界面特征标签包括:
根据至少一个界面场景图像利用所述图像识别模型确定至少一个界面特征标签。
8.如权利要求1所述的方法,其特征在于,根据所述至少一个界面特征标签和特征匹配模型确定形象特征标签包括:
获取虚拟对象的角色标签;
将所述界面特征标签输入所述特征匹配模型中以获取至少一个初始形象特征标签;以及
根据所述角色标签对所述至少一个初始形象特征标签进行筛选以确定所述形象特征标签。
9.如权利要求1所述的方法,其特征在于,基于所述形象特征标签生成虚拟形象包括:
基于所述形象特征标签确定肤色参数、和/或发色参数、和/或质感参数、和/或配色参数;
基于所述肤色参数、和/或所述发色参数、和/或所述质感参数、和/或所述配色参数对所述虚拟对象分别进行渲染;以及
将渲染后的所述虚拟对象与所述界面场景图像进行图像整合以生成所述虚拟形象。
10.一种虚拟形象生成装置,其特征在于,包括:
界面特征模块,用于根据至少一个界面场景图像确定至少一个界面特征标签;
形象特征模块,用于根据所述至少一个界面特征标签利用特征匹配模型确定形象特征标签,所述形象特征标签包括以下至少一者:肤色标签、发色标签、质感标签、配色标签;以及
形象生成模块,用于基于所述形象特征标生成虚拟形象。
CN201910887776.2A 2019-09-19 2019-09-19 虚拟形象生成方法及装置 Pending CN110706300A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910887776.2A CN110706300A (zh) 2019-09-19 2019-09-19 虚拟形象生成方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910887776.2A CN110706300A (zh) 2019-09-19 2019-09-19 虚拟形象生成方法及装置

Publications (1)

Publication Number Publication Date
CN110706300A true CN110706300A (zh) 2020-01-17

Family

ID=69195470

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910887776.2A Pending CN110706300A (zh) 2019-09-19 2019-09-19 虚拟形象生成方法及装置

Country Status (1)

Country Link
CN (1) CN110706300A (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111265879A (zh) * 2020-01-19 2020-06-12 百度在线网络技术(北京)有限公司 虚拟形象生成方法、装置、设备及存储介质
CN111476241A (zh) * 2020-03-04 2020-07-31 上海交通大学 一种人物服饰转换方法及系统
CN111696181A (zh) * 2020-05-06 2020-09-22 广东康云科技有限公司 超次元模型和虚拟仿真人的生成方法、装置和存储介质
CN113793256A (zh) * 2021-09-10 2021-12-14 未鲲(上海)科技服务有限公司 基于用户标签的动漫人物生成方法、装置、设备及介质
CN116091667A (zh) * 2023-03-06 2023-05-09 环球数科集团有限公司 一种基于aigc技术的人物艺术形象生成系统
WO2023173401A1 (zh) * 2022-03-18 2023-09-21 云智联网络科技(北京)有限公司 生成虚拟人物形象的方法、装置及电子设备

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111265879A (zh) * 2020-01-19 2020-06-12 百度在线网络技术(北京)有限公司 虚拟形象生成方法、装置、设备及存储介质
CN111265879B (zh) * 2020-01-19 2023-08-08 百度在线网络技术(北京)有限公司 虚拟形象生成方法、装置、设备及存储介质
CN111476241A (zh) * 2020-03-04 2020-07-31 上海交通大学 一种人物服饰转换方法及系统
CN111476241B (zh) * 2020-03-04 2023-04-21 上海交通大学 一种人物服饰转换方法及系统
CN111696181A (zh) * 2020-05-06 2020-09-22 广东康云科技有限公司 超次元模型和虚拟仿真人的生成方法、装置和存储介质
CN113793256A (zh) * 2021-09-10 2021-12-14 未鲲(上海)科技服务有限公司 基于用户标签的动漫人物生成方法、装置、设备及介质
WO2023173401A1 (zh) * 2022-03-18 2023-09-21 云智联网络科技(北京)有限公司 生成虚拟人物形象的方法、装置及电子设备
CN116091667A (zh) * 2023-03-06 2023-05-09 环球数科集团有限公司 一种基于aigc技术的人物艺术形象生成系统

Similar Documents

Publication Publication Date Title
CN110706300A (zh) 虚拟形象生成方法及装置
CN108961369B (zh) 生成3d动画的方法和装置
Wu et al. AI creativity and the human-AI co-creation model
CN104995662A (zh) 基于化身的传输协议、图标生成和玩偶动画
Song et al. AgeGAN++: Face aging and rejuvenation with dual conditional GANs
CN116309992A (zh) 一种智能元宇宙直播人物生成方法、设备和存储介质
Li [Retracted] Intelligent Environmental Art Design Combining Big Data and Artificial Intelligence
Arbeláez et al. Crowdsourcing Augmented Reality Environment (CARE) for aesthetic evaluation of products in conceptual stage
Li et al. An abstract painting generation method based on deep generative model
KR102197653B1 (ko) 스케치-라인 변환 방법, 시스템 및 프로그램
Li Film and TV animation production based on artificial intelligence AlphaGd
Andrade et al. Computational vision and business intelligence in the beauty segment-an analysis through instagram
CN117437365A (zh) 医学三维模型的生成方法、装置、电子设备及存储介质
Ardhianto et al. Generative deep learning for visual animation in landscapes design
Jacob et al. Swarm grammars: growing dynamic structures in 3d agent spaces
Jo et al. Generative artificial intelligence and building design: early photorealistic render visualization of façades using local identity-trained models
Guo et al. Facial parts swapping with generative adversarial networks
Zhou et al. Human motion variation synthesis with multivariate Gaussian processes
Lopes et al. EvoDesigner: aiding the exploration of innovative graphic design solutions
Jia et al. Facial expression synthesis based on motion patterns learned from face database
Liu et al. Application of Relying on 3D Modeling Technology in the Design of Urban Sculpture.
Huang Shaping AI as the Tool for Subconscious Design
Chu et al. Data‐Driven Image Interaction‐Based Software Infrastructure for Graphic Design Research and Implementation
Basso New Interpretation Tools and Metamorphosis of the Image, How the Self-synthesizing of Visual Elements Influences the Aesthetic Evolution
Zhao et al. Application of Computer Augmented Reality (AR) Technology in Landscape Architecture Design

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination