CN112337105B - 虚拟形象生成方法、装置、终端及存储介质 - Google Patents
虚拟形象生成方法、装置、终端及存储介质 Download PDFInfo
- Publication number
- CN112337105B CN112337105B CN202011228175.XA CN202011228175A CN112337105B CN 112337105 B CN112337105 B CN 112337105B CN 202011228175 A CN202011228175 A CN 202011228175A CN 112337105 B CN112337105 B CN 112337105B
- Authority
- CN
- China
- Prior art keywords
- image
- target
- avatar
- character
- role
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/80—Special adaptations for executing a specific game genre or game mode
- A63F13/822—Strategy games; Role-playing games
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/65—Methods for processing data by generating or executing the game program for computing the condition of a game character
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/80—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
- A63F2300/807—Role playing or strategy games
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Processing Or Creating Images (AREA)
Abstract
本申请实施例提供一种虚拟形象生成方法、装置、终端及存储介质。该方法包括:获取用户扮演目标角色时采集的人物图像和目标角色的角色标识;基于人物图像对目标角色建模,得到用户扮演目标角色时对应的初始虚拟形象;根据角色标识获取目标角色的特征数据;根据初始虚拟形象和目标角色的特征数据,生成用户扮演目标角色时的虚拟形象。本申请实施例提供的技术方案,结合用户上传的图像以及用户所扮演的角色的特征数据这两个维度来生成虚拟形象,使得虚拟形象既能呈现用户所扮演的角色,又能呈现角色自身的特征,提高了虚拟形象与角色之间的贴合程度,更加自然。
Description
技术领域
本申请实施例涉及互联网技术领域,特别涉及一种虚拟形象生成方法、装置、终端及存储介质。
背景技术
目前,互联网服务提供商提供有虚拟对象互动社区,在该社区内,用户与虚拟对象之间形成互动。
相关技术中,上述虚拟对象的虚拟形象的生成方式如下:角色扮演者(Coser)通过道具、服装来装扮自己以模仿、扮演虚拟世界的角色,之后对自身进行拍照,并将拍照得到的图像作为虚拟形象。
相关技术中,由Coser装扮得到的虚拟形象存在与虚拟角色不贴合、不自然的问题。
发明内容
本申请实施例提供一种虚拟形象生成方法、装置、终端及存储介质,提高虚拟形象与虚拟角色的贴合程度。所述技术方案如下:
一方面,本申请实施例提供一种虚拟形象生成方法,所述方法包括:
获取用户扮演目标角色时采集的人物图像和所述目标角色的角色标识;
基于所述人物图像对所述目标角色建模,得到所述用户扮演所述目标角色时对应的初始虚拟形象;
根据所述角色标识获取所述目标角色的特征数据;
根据所述初始虚拟形象和所述特征数据,生成所述用户扮演所述目标角色时的虚拟形象。
另一方面,本申请实施例提供一种虚拟形象生成装置,所述装置包括:
素材获取模块,用于获取用户扮演目标角色时采集的人物图像和所述目标角色的角色标识;
形象获取模块,用于基于所述人物图像对所述目标角色建模,得到所述用户扮演所述目标角色时对应的初始虚拟形象;
数据获取模块,用于根据所述角色标识获取所述目标角色的特征数据;
形象生成模块,用于根据所述初始虚拟形象和所述特征数据,生成所述用户扮演所述目标角色时的虚拟形象。
又一方面,本申请实施例提供了一种终端,所述终端包括处理器和存储器,所述存储器存储有计算机程序,所述计算机程序由所述处理器加载并执行以实现如一方面所述的虚拟形象生成方法。
又一方面,本申请实施例提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机程序,所述计算机程序由处理器加载并执行以实现如一方面所述的虚拟形象生成方法。
又一方面,本申请实施例提供了一种计算机程序产品,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述虚拟形象生成方法。
本申请实施例提供的技术方案可以带来的有益效果至少包括:
通过由用户上传扮演角色的图像,并从网络中获取上述角色的特征数据,之后结合用户上传的图像以及用户所扮演的角色的特征数据这两个维度来生成虚拟形象,使得虚拟形象既能呈现用户所扮演的角色,又能呈现角色自身的特征,提高了虚拟形象与角色之间的贴合程度,更加自然。
附图说明
图1是本申请一个实施例提供的实施环境的示意图;
图2是本申请一个实施例提供的虚拟形象生成方法的流程图;
图3是本申请一个实施例提供的生成虚拟形象的界面示意图;
图4是本申请一个实施例提供的虚拟形象生成方法的流程图;
图5是本申请一个实施例提供的调整虚拟形象的界面示意图;
图6是本申请一个实施例提供的虚拟形象生成方法的流程图;
图7是本申请一个实施例提供的虚拟形象生成装置的框图;
图8是本申请一个实施例示出的终端的结构框图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
请参考图1,其示出了本申请一个实施例提供的实施环境的示意图。该实施环境包括:终端11和服务器12。
终端11具有虚拟形象生成功能。可选地,终端安装有指定应用程序,通过该指定应用程序实现上述虚拟形象生成功能。当终端11接收到用户上传的图像时,根据该图像以及目标角色的特征数据生成虚拟形象。可选地,目标角色是上述图像对应的用户所扮演的小说角色、动漫角色、游戏人物等。目标角色的特征数据包括且不限于:发型、衣服、配饰、武器等。
终端11还具有与服务器12进行数据交互的功能。示例性地,终端11向服务器12发送携带目标角色的角色标识的数据获取请求,服务器12根据该数据获取请求向终端11发送目标角色的特征数据。
服务器12具有特征数据获取功能,通过该特征数据功能获取目标角色的特征数据。在一个示例中,上述目标角色的特征数据存储在服务器中的存储区域,服务器根据特征数据获取功能从上述存储区域读取上述目标角色的特征数据。在另一个示例中,上述目标角色的特征数据存储在与服务器12连接的外置数据库中,服务器12接收外置数据库发送的目标角色的特征数据。
终端11与服务器12之间通过有线或无线网络建立通信连接。上述的无线网络或有线网络使用标准通信技术和/或协议。网络通常为因特网、但也可以是其它任何网络,包括但不限于局域网(Local Area Network,LAN)、城域网(Metropolitan Area Network,MAN)、广域网(Wide Area Network,WAN)、移动、有线或者无线网络、专用网络或者虚拟专用网络的任何组合)。在一些实施例中,使用包括超文本标记语言(Hyper Text Mark-upLanguage,HTML)、可扩展标记语言(Extensible Markup Language,XML)等的技术和/或格式来代表通过网络交换的数据。此外还可以使用诸如安全套接字层(Secure SocketLayer,SSL)、传输层安全(Transport Layer Security,TLS)、虚拟专用网络(VirtualPrivate Network,VPN)、网际协议安全(Internet Protocol Security,IPsec)等常规加密技术来加密所有或者一些链路。在另一些实施例中,还可以使用定制和/或专用数据通信技术取代或者补充上述数据通信技术。
请参考图2,其示出了本申请一个实施例提供的虚拟形象生成方法的流程图。该方法应用于图1所示实施例中的终端,该方法包括:
步骤201,获取用户扮演目标角色时采集的人物图像和目标角色的角色标识。
目标角色包括且不限于:小说人物、影视人物(例如电视剧人物、电影人物、动漫人物等)、游戏人物等。人物图像包含用户所扮演的目标角色。
角色标识用于唯一标识目标人像对应的用户待扮演的目标角色。可选地,角色标识为目标角色的角色姓名,例如桔梗。进一步地,角色标识还包括目标角色所属的作品名称,例如犬夜叉。
终端中运行的指定应用程序的用户界面提供有图像上传入口,终端接收到对应于图像上传入口的第一触发信号后,跳转至相册应用程序的用户界面,用户在相册应用程序的用户界面所选择的图像也即是上传至终端的目标图像。目标图像为一张或多张,也即用户一次可以上传一张或多张图像。
结合参考图3,其示出本申请一个实施例提供的生成虚拟形象的界面示意图。指定应用程序的用户界面31包括图像上传入口311和角色标识输入框312,用户通过图像上传入口311上传目标图像313,并在角色标识输入框312输入角色标识314。
步骤202,基于人物图像对目标角色建模,得到用户扮演目标角色时对应的初始虚拟形象。
建模也即建立模型,将人物图像进行抽象化表达,得到用户的初始虚拟形象。在一种可能的实现方式中,初始虚拟形象为二维(Second Dimension,2D)图像。在另一种可能的实现方式中,初始虚拟形象为三维(3-dimension,3D)形象。在本申请实施例中,初始虚拟形象的维度数量由上传人物图像的用户自定义设定,或者,由终端默认设定,本申请实施例对此不作限定。
终端基于记录有用户待扮演的虚拟角色的图像来生成初始虚拟形象。
步骤203,根据角色标识获取目标角色的特征数据。
目标角色的特征数据包括且不限于:发型、配饰、武器、特征点信息等等。可选地,终端向服务器发送携带目标角色的角色标识的数据获取请求,服务器根据上述数据获取请求获取目标角色的特征数据,之后向终端返回目标角色的特征数据。
服务器对目标角色所属的作品进行分析,确定目标角色的特征数据,之后将目标角色的角色标识与特征数据对应存储,得到角色标识与特征数据之间的对应关系,后续需要从上述对应关系中获取特征数据。
需要说明的是,当服务器无法获取虚拟角色的特征数据时,返回提示信息,该提示信息用于提示用户重新设定虚拟角色。
终端可以先获取初始虚拟形象,再获取目标角色的特征数据,也可以先获取目标角色的特征数据,再获取初始虚拟形象,也可以同时获取初始虚拟形象和目标角色的特征数据。本申请实施例对步骤202和203的执行顺序不作限定。
步骤204,根据初始虚拟形象和目标角色的特征数据,生成所述用户扮演目标角色时的虚拟形象。
终端利用网络泛化能力的重构学习,计算虚拟人物和角色扮演人物的相似点,提取关键点,模糊形状等作为一个人物的表达,再重构原来的图像,得到虚拟形象。也即,终端结合初始虚拟形象和目标角色的特征数据这两个维度来生成虚拟形象,使得虚拟形象既能呈现用户所扮演的虚拟角色,又能呈现虚拟角色自身的特征。
结合参考图3,其示出本申请一个实施例提供的生成虚拟形象的界面示意图。用户触发指定应用程序的用户界面31中的控件“开始合成”后,生成虚拟形象315。
综上所述,本申请实施例提供的技术方案,通过由用户上传扮演角色的图像,并从网络中获取上述角色的特征数据,之后结合用户上传的图像以及用户所扮演的角色的特征数据这两个维度来生成虚拟形象,使得虚拟形象既能呈现用户所扮演的角色,又能呈现角色自身的特征,提高了虚拟形象与角色之间的贴合程度,更加自然。
结合参考图4,其示出了本申请一个实施例示出的虚拟形象生成方法的流程图。该方法应用于图1所示实施例中的终端,该方法包括:
步骤401,获取用户扮演目标角色时采集的人物图像和和角色标识。
步骤402,对人物图像进行网格化处理,得到网格化图像。
网格化处理是指将人物图像转换成网格化图像的处理过程。终端基于目标图像中的目标人像进行建模,构建符合基本人脸形状和器官特征等几何特征的标准三角网络,得到网格化图像。网格化图像是指包含符合基本人脸形状和器官特征等几何特征的标准三角网络的图像。
步骤403,对人脸图像进行人脸特征点定位,得到特征点位置数据。
人脸特征点定位是指给定人脸图像,定位出人脸面部的关键区域位置,上述关键区域位置包括左眼睛、左眉毛、右眼睛、右眉毛、鼻子、嘴巴、面部轮廓等等。可选地,特征点位置数据采用像素坐标来表示。
人脸特征点定位所采用的算法可以是随机森林算法、主动形状模型(ActiveShape Model,ASM)算法等。
可选地,终端根据特征点位置数据生成合成虚拟形象的面部肌肉运动参数。
面部肌肉运动参数用于驱使合成虚拟形象展现不同表情。示例性地,终端基于特征点位置数据设定运动参数取值区间,该运动参数取值区间也即是合成虚拟形象的面部肌肉运动参数。
在一种可能的实现方式中,终端设定允许误差,将特征点位置数据与允许误差之和作为运动参数取值区间的上限,将特征点位置数据与允许误差之差作为运动参数取值区间的下限。
在另一种可能的实现方式中,终端获取用户上传的多张目标图像,每张目标图像对应不同的表情(例如哭、笑、生气)等,终端对每张目标图像进行人脸特征点数据,得到每张目标图像对应的特征点位置数据,之后将上述特征点位置数据的最大值作为运动参数取值区间的上限,将上述特征点位置数据的最小值作为运动参数取值区间的下限。
步骤404,基于特征点位置数据在网格化图像中渲染显示人脸特征点,得到初始虚拟形象。
终端得到网格化图像后,按照特征点位置数据来渲染显示网格化图像中的基本面部特征点,得到初始虚拟形象。
可选地,终端生成初始虚拟形象后,对初始化虚拟形象的指定区域进行柔化处理,得到柔化后的初始虚拟形象。
指定区域包括目标人像中存在棱角的区域。柔化处理是指将原图像的每个像素的颜色值与其相邻的n*n个像素的平均值来代替,也称为平滑处理。柔化处理所采用的方法包括算术平均值实现方法、加权平均值实现方法。
柔化处理使得基于人像所生成的初始虚拟形象更加符合虚拟角色的显示规则,更为二次元。
步骤405,根据角色标识获取目标角色的特征数据。
步骤406,将目标角色的特征数据对应的特征项在初始虚拟形象所处的区域确定为目标区域。
特征项是指特征数据所表示的特征,比如鼻子、耳朵、嘴巴、眼睛、发型、配饰、武器、衣服等。终端先基于目标角色的特征数据所表示的特征来确定特征项,之后将该确定出的特征项在初始虚拟形象所处的区域确定为目标区域。
步骤407,通过目标角色的特征数据渲染显示目标区域,得到中间虚拟形象。
示例性地,目标角色的特征数据为发型数据,终端将初始虚拟形象中的发型部分渲染为基于上述发型数据所显示的发型部分。
可选地,当终端对初始虚拟形象进行柔化处理,得到柔化后的初始虚拟形象时,终端基于目标角色的特征数据替换显示柔化后的初始虚拟形象中的目标区域,得到中间虚拟图像。
步骤408,对中间虚拟形象进行模糊化处理,得到虚拟形象。
模糊化处理所采用的方法包括:线性滤波、高斯滤波、均值滤波、中值滤波等等。由于虚拟角色的特征数据与用户所扮演的角色的图像之间的差异较大,通过模糊算法来减小该差异。可选地,终端对步骤406中的中间虚拟形象中的目标区域进行模糊化处理,得到虚拟形象。通过上述方式,减小模糊化处理的处理面积,节省终端的功耗。
综上所述,本申请实施例提供的技术方案,通过由用户上传扮演角色的图像,并从网络中获取上述角色的特征数据,之后结合用户上传的图像以及用户所扮演的角色的特征数据这两个维度来生成虚拟形象,使得虚拟形象既能呈现用户所扮演的角色,又能呈现角色自身的特征,提高了虚拟形象与角色之间的贴合程度,更加自然。
还通过对初始虚拟形象进行柔化处理,后续基于柔化后的虚拟形象来生成合成虚拟形象,使得生成的合成虚拟形象更符合虚拟角色的显示规则,更为二次元;还通过基于特征点位置数据来生成面部肌肉运行参数,使得合成虚拟形象能呈现不同的表情。
终端生成合成虚拟形象后,用户可以自定义调整合成虚拟形象的局部特征,下面对该情况进行讲解。在基于图2或图4所示实施例提供的可选实施例中,在步骤204之后,或者,在步骤407之后,该虚拟形象生成方法还包括如下步骤:
步骤501,显示指定特征的选项列表。
指定特征是预先设定的局部特征,比如发型、发色、衣服、武器、配饰等等。选项列表包括至少一个选项。示例性地,指定特征为发色,选项列表提供的选项包括黑色、白色、蓝色、棕色、红色等。
步骤502,接收对应于目标选项的选择信号。
用户按照自身的期望选择至少一个选项中的目标选项。示例性地,用户选择发色为棕色。
步骤503,根据目标选项调整虚拟形象。
终端将虚拟形象中的指定特征按照目标选项进行调整,得到调整后的合成虚拟形象。示例性地,用户选择发色为棕色,则终端将合成虚拟形象中的头发颜色调整为棕色。
结合参考图5,终端显示虚拟形象51、虚拟形象51的右侧显示有指定特征“衣服颜色”52、指定特征“帽子颜色”53、指定特征“武器”54、指定特征“鞋子”55,当指定特征“衣服颜色”52被选中时,右侧显示指定特征“衣服颜色”52对应的选项列表56,该选项列表56包含黑色、卡其色、军绿色、灰色等多个选项。用户选择某一颜色后,触发“应用”控件,之后合成虚拟形象的衣服颜色相应改变。
综上所述,本申请实施例提供的技术方案,获得合成虚拟形象后,用户可以自定义调整合成虚拟形象中的局部特征,更加灵活。
请参考图6,其示出了本申请一个实施例示出的虚拟形象生成方法的流程图。该方法应用于图1所示实施例中的终端,该方法包括:
步骤601,用户上传自身图片。
此时,终端获取目标图像。
步骤602,用户设定需扮演的角色信息。
此时,终端获取角色标识。
步骤603,建立虚拟人物初形象。
终端根据目标图像生成初始虚拟形象。
步骤604,检测数据库中是否存在该角色。
若是,则执行步骤606,若否,则执行步骤605。
步骤605,返回结果让用户重新设定。
步骤606,对角色进行形象分析。
终端获取角色的特征数据。
步骤607,合成用户角色扮演形象。
终端根据目标图像以及角色的特征数据生成虚拟形象。
以下为本申请装置实施例,对于装置实施例中未详细阐述的部分,可以参考上述方法实施例中公开的技术细节。
请参考图7,其示出了本申请一个示例性实施例提供的虚拟形象生成装置的框图。该虚拟形象生成装置可以通过软件、硬件或者两者的组合实现成为终端的全部或一部分。该虚拟形象生成装置包括:
素材获取模块701,用于获取用户扮演目标角色时采集的人物图像和所述目标角色的角色标识。
形象获取模块702,用于基于所述人物图像对所述目标角色建模,得到所述用户扮演所述目标角色时对应的初始虚拟形象。
数据获取模块703,用于根据所述角色标识获取所述目标角色的特征数据。
形象生成模块704,用于根据所述初始虚拟形象和所述特征数据,生成所述用户扮演所述目标角色时的虚拟形象。
综上所述,本申请实施例提供的技术方案,通过由用户上传扮演角色的图像,并从网络中获取上述角色的特征数据,之后结合用户上传的图像以及用户所扮演的角色的特征数据这两个维度来生成虚拟形象,使得虚拟形象既能呈现用户所扮演的角色,又能呈现角色自身的特征,提高了虚拟形象与角色之间的贴合程度,更加自然。
在基于图7所示实施例提供的可选实施例中,所述形象获取模块702,用于:
对所述人物图像进行网格化处理,得到网格化图像;
对所述人物图像进行特征点定位,得到特征点位置数据;
基于所述特征点位置数据在所述网格化图像中渲染显示人脸特征点,得到所述初始虚拟形象。
可选地,所述形象获取模块702,还用于:
对所述初始化虚拟形象的指定区域进行柔化处理,得到柔化后的所述初始虚拟形象,所述指定区域包括所述目标人像中存在棱角的区域。
所述形象生成模块704,还用于:根据所述柔化后的初始虚拟形象和所述目标角色的特征数据生成所述虚拟形象。
可选地,所述形象获取模块702,还用于:
根据所述特征点位置数据生成所述虚拟形象的面部肌肉运动参数,所述面部肌肉运动参数用于驱使所述虚拟形象展现不同表情。
在基于图7所示实施例提供的可选实施例中,所述形象生成模块704,用于:
将所述目标角色的特征数据对应的特征项在所述初始虚拟形象所处的区域确定为目标区域;
通过所述目标角色的特征数据渲染显示所述目标区域,得到中间虚拟形象;
对所述中间虚拟形象进行模糊化处理,得到所述虚拟形象。
在基于图7所示实施例提供的可选实施例中,所述装置还包括:形象调整模块(图7未示出)。
形象调整模块,用于:
显示指定特征的选项列表,所述选项列表包括至少一个选项;
接收对应于所述至少一个选项中的目标选项的选择信号;
根据所述目标选项调整所述虚拟形象。
需要说明的是,上述实施例提供的装置在实现其功能时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的装置与方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
图8示出了本申请一个示例性实施例提供的终端800的结构框图。该终端800可以是:智能手机、平板电脑、MP3播放器、MP4播放器、笔记本电脑或台式电脑。终端800还可能被称为用户设备、便携式终端、膝上型终端、台式终端等其他名称。
通常,终端800包括有:处理器801和存储器802。
处理器801可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器801可以采用数字信号处理(Digital Signal Processing,DSP)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)、可编程逻辑阵列(Programmable LogicArray,PLA)中的至少一种硬件形式来实现。处理器801也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称中央处理器(CentralProcessing Unit,CPU);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器801可以在集成有图像处理器(Graphics Processing Unit,GPU),GPU用于负责显示屏所需要显示的内容的渲染和绘制。
存储器802可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器802还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器802中的非暂态的计算机可读存储介质用于存储计算机程序,该计算机程序用于被处理器801所执行以实现本申请中方法实施例提供的虚拟形象生成方法。
在一些实施例中,终端800还可选包括有:外围设备接口803和至少一个外围设备。处理器801、存储器802和外围设备接口803之间可以通过总线或信号线相连。各个外围设备可以通过总线、信号线或电路板与外围设备接口803相连。具体地,外围设备包括:射频电路804、触摸显示屏805、摄像头组件806、音频电路807、定位组件808和电源809中的至少一种。
外围设备接口803可被用于将输入/输出(Input/Output,I/O)相关的至少一个外围设备连接到处理器801和存储器802。在一些实施例中,处理器801、存储器802和外围设备接口803被集成在同一芯片或电路板上;在一些其他实施例中,处理器801、存储器802和外围设备接口803中的任意一个或两个可以在单独的芯片或电路板上实现,本实施例对此不加以限定。
射频电路804用于接收和发射射频(Radio Frequency,RF)信号,也称电磁信号。射频电路804通过电磁信号与通信网络以及其他通信设备进行通信。射频电路804将电信号转换为电磁信号进行发送,或者,将接收到的电磁信号转换为电信号。可选地,射频电路804包括:天线系统、RF收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等等。射频电路804可以通过至少一种无线通信协议来与其它终端进行通信。该无线通信协议包括但不限于:万维网、城域网、内联网、各代移动通信网络(2G、3G、4G及5G)、无线局域网和/或无线保真(Wireless Fidelity,WiFi)网络。在一些实施例中,射频电路804还可以包括近距离无线通信(Near Field Communication,NFC)有关的电路,本申请对此不加以限定。
显示屏805用于显示用户界面(User Interface,UI)。该UI可以包括图形、文本、图标、视频及其它们的任意组合。当显示屏805是触摸显示屏时,显示屏805还具有采集在显示屏805的表面或表面上方的触摸信号的能力。该触摸信号可以作为控制信号输入至处理器801进行处理。此时,显示屏805还可以用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。在一些实施例中,显示屏805可以为一个,设置终端800的前面板;在另一些实施例中,显示屏805可以为至少两个,分别设置在终端800的不同表面或呈折叠设计;在再一些实施例中,显示屏805可以是柔性显示屏,设置在终端800的弯曲表面上或折叠面上。甚至,显示屏805还可以设置成非矩形的不规则图形,也即异形屏。显示屏805可以采用液晶显示屏(Liquid Crystal Display,LCD)、有机发光二极管(Organic Light-Emitting Diode,OLED)等材质制备。
摄像头组件806用于采集图像或视频。可选地,摄像头组件806包括前置摄像头和后置摄像头。通常,前置摄像头设置在终端的前面板,后置摄像头设置在终端的背面。在一些实施例中,后置摄像头为至少两个,分别为主摄像头、景深摄像头、广角摄像头、长焦摄像头中的任意一种,以实现主摄像头和景深摄像头融合实现背景虚化功能、主摄像头和广角摄像头融合实现全景拍摄以及虚拟现实(Virtual Reality,VR)拍摄功能或者其它融合拍摄功能。在一些实施例中,摄像头组件806还可以包括闪光灯。闪光灯可以是单色温闪光灯,也可以是双色温闪光灯。双色温闪光灯是指暖光闪光灯和冷光闪光灯的组合,可以用于不同色温下的光线补偿。
音频电路807可以包括麦克风和扬声器。麦克风用于采集用户及环境的声波,并将声波转换为电信号输入至处理器801进行处理,或者输入至射频电路804以实现语音通信。出于立体声采集或降噪的目的,麦克风可以为多个,分别设置在终端800的不同部位。麦克风还可以是阵列麦克风或全向采集型麦克风。扬声器则用于将来自处理器801或射频电路804的电信号转换为声波。扬声器可以是传统的薄膜扬声器,也可以是压电陶瓷扬声器。当扬声器是压电陶瓷扬声器时,不仅可以将电信号转换为人类可听见的声波,也可以将电信号转换为人类听不见的声波以进行测距等用途。在一些实施例中,音频电路807还可以包括耳机插孔。
定位组件808用于定位终端800的当前地理位置,以实现导航或基于位置的服务(Location Based Service,LBS)。定位组件808可以是基于美国的全球定位系统(GlobalPositioning System,GPS)、中国的北斗系统或俄罗斯的伽利略系统的定位组件。
电源809用于为终端800中的各个组件进行供电。电源809可以是交流电、直流电、一次性电池或可充电电池。当电源809包括可充电电池时,该可充电电池可以是有线充电电池或无线充电电池。有线充电电池是通过有线线路充电的电池,无线充电电池是通过无线线圈充电的电池。该可充电电池还可以用于支持快充技术。
在一些实施例中,终端800还包括有一个或多个传感器810。该一个或多个传感器810包括但不限于:加速度传感器811、陀螺仪传感器812、压力传感器813、指纹传感器814、光学传感器815以及接近传感器816。
加速度传感器811可以检测以终端800建立的坐标系的三个坐标轴上的加速度大小。比如,加速度传感器811可以用于检测重力加速度在三个坐标轴上的分量。处理器801可以根据加速度传感器811采集的重力加速度信号,控制触摸显示屏805以横向视图或纵向视图进行用户界面的显示。加速度传感器811还可以用于游戏或者用户的运动数据的采集。
陀螺仪传感器812可以检测终端800的机体方向及转动角度,陀螺仪传感器812可以与加速度传感器811协同采集用户对终端800的3D动作。处理器801根据陀螺仪传感器812采集的数据,可以实现如下功能:动作感应(比如根据用户的倾斜操作来改变UI)、拍摄时的图像稳定、游戏控制以及惯性导航。
压力传感器813可以设置在终端800的侧边框和/或触摸显示屏805的下层。当压力传感器813设置在终端800的侧边框时,可以检测用户对终端800的握持信号,由处理器801根据压力传感器813采集的握持信号进行左右手识别或快捷操作。当压力传感器813设置在触摸显示屏805的下层时,由处理器801根据用户对触摸显示屏805的压力操作,实现对UI界面上的可操作性控件进行控制。可操作性控件包括按钮控件、滚动条控件、图标控件、菜单控件中的至少一种。
指纹传感器814用于采集用户的指纹,由处理器801根据指纹传感器814采集到的指纹识别用户的身份,或者,由指纹传感器814根据采集到的指纹识别用户的身份。在识别出用户的身份为可信身份时,由处理器801授权该用户执行相关的敏感操作,该敏感操作包括解锁屏幕、查看加密信息、下载软件、支付及更改设置等。指纹传感器814可以被设置终端800的正面、背面或侧面。当终端800上设置有物理按键或厂商Logo时,指纹传感器814可以与物理按键或厂商Logo集成在一起。
光学传感器815用于采集环境光强度。在一个实施例中,处理器801可以根据光学传感器815采集的环境光强度,控制触摸显示屏805的显示亮度。具体地,当环境光强度较高时,调高触摸显示屏805的显示亮度;当环境光强度较低时,调低触摸显示屏805的显示亮度。在另一个实施例中,处理器801还可以根据光学传感器815采集的环境光强度,动态调整摄像头组件806的拍摄参数。
接近传感器816,也称距离传感器,通常设置在终端800的前面板。接近传感器816用于采集用户与终端800的正面之间的距离。在一个实施例中,当接近传感器816检测到用户与终端800的正面之间的距离逐渐变小时,由处理器801控制触摸显示屏805从亮屏状态切换为息屏状态;当接近传感器816检测到用户与终端800的正面之间的距离逐渐变大时,由处理器801控制触摸显示屏805从息屏状态切换为亮屏状态。
本领域技术人员可以理解,图8中示出的结构并不构成对终端800的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
在示例性实施例中,还提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机程序,所述计算机程序由终端的处理器加载并执行以实现上述方法实施例中的虚拟形象生成方法。
可选地,上述计算机可读存储介质可以是只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁带、软盘和光数据存储设备等。
在示例性实施例中,还提供了一种计算机程序产品,该计算机程序产品包括计算机指令,该计算机指令存储在计算机可读存储介质中,计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述一方面或者一方面的各种可选实现方式中提供的虚拟形象生成方法。
以上所述仅为本申请的示例性实施例,并不用以限制本申请,凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。
Claims (9)
1.一种虚拟形象生成方法,其特征在于,所述方法包括:
获取用户扮演目标角色时采集的人物图像和所述目标角色的角色标识;
基于所述人物图像对所述目标角色建模,得到所述用户扮演所述目标角色时对应的初始虚拟形象,所述初始虚拟形象用于指示与所述用户在所述人物图像中的形象相关联的虚拟形象;
根据所述角色标识获取所述目标角色的特征数据,所述特征数据用于指示所述目标角色的外型特征,所述特征数据是服务器对目标角色所属的作品进行分析后获取的,所述外型特征包括所述目标角色的配饰特征、所述目标角色的武器特征和所述目标角色的发型特征;
将所述目标角色的特征数据对应的特征项在所述初始虚拟形象所处的区域确定为目标区域,所述特征项用于指示所述特征数据所表示的特征;
通过所述目标角色的特征数据渲染显示目标区域,得到中间虚拟形象;
对所述中间虚拟形象进行模糊化处理,并利用网络泛化能力的重构学习,计算所述目标角色对应的虚拟人物与用户的相似点,提取关键点并重构生成所述用户扮演所述目标角色时,与所述用户在所述人物图像内的形象相关联的虚拟形象。
2.根据权利要求1所述的方法,其特征在于,所述基于所述人物图像对所述目标角色建模,得到所述用户扮演所述目标角色时对应的初始虚拟形象,包括:
对所述人物图像进行网格化处理,得到网格化图像;
对所述人物图像进行特征点定位,得到特征点位置数据;
基于所述特征点位置数据在所述网格化图像中渲染显示人脸特征点,得到所述初始虚拟形象。
3.根据权利要求2所述的方法,其特征在于,所述基于所述特征点位置数据在所述网格化图像中渲染显示人脸特征点,得到所述初始虚拟形象之后,还包括:
对所述初始虚拟形象的指定区域进行柔化处理,得到柔化后的所述初始虚拟形象,所述指定区域包括所述目标人像中存在棱角的区域;
所述方法还包括:
根据所述柔化后的初始虚拟形象生成所述虚拟形象。
4.根据权利要求2所述的方法,其特征在于,所述对所述人物图像进行特征点定位,得到特征点位置数据之后,包括:
根据所述特征点位置数据生成所述虚拟形象的面部肌肉运动参数,所述面部肌肉运动参数用于驱使所述虚拟形象展现不同表情。
5.根据权利要求1至4任一项所述的方法,其特征在于,所述提取关键点并重构生成所述用户扮演所述目标角色时,与所述用户在所述人物图像内的形象相关联的虚拟形象之后,还包括:
显示指定特征的选项列表,所述选项列表包括至少一个选项;
接收对应于所述至少一个选项中的目标选项的选择信号;
根据所述目标选项调整所述虚拟形象。
6.一种虚拟形象生成装置,其特征在于,所述装置包括:
素材获取模块,用于获取用户扮演目标角色时采集的人物图像和所述目标角色的角色标识;
形象获取模块,用于基于所述人物图像对所述目标角色建模,得到所述用户扮演所述目标角色时对应的初始虚拟形象,所述初始虚拟形象用于指示与所述用户在所述人物图像中的形象相关联的虚拟形象;
数据获取模块,用于根据所述角色标识获取所述目标角色的特征数据,所述特征数据用于指示所述目标角色的外型特征,所述特征数据是服务器对目标角色所属的作品进行分析后获取的,所述外型特征包括所述目标角色的配饰特征、所述目标角色的武器特征和所述目标角色的发型特征;
用于将所述目标角色的特征数据对应的特征项在所述初始虚拟形象所处的区域确定为目标区域的模块,所述特征项用于指示所述特征数据所表示的特征;
用于通过所述目标角色的特征数据渲染显示目标区域,得到中间虚拟形象的模块;
形象生成模块,用于对所述中间虚拟形象进行模糊化处理,并利用网络泛化能力的重构学习,计算所述目标角色对应的虚拟人物与用户的相似点,提取关键点并重构生成所述用户扮演所述目标角色时,与所述用户在所述人物图像内的形象相关联的虚拟形象。
7.根据权利要求6所述的装置,其特征在于,所述形象获取模块,用于:
对所述人物图像进行网格化处理,得到网格化图像;
对所述人物图像进行特征点定位,得到特征点位置数据;
基于所述特征点位置数据在所述网格化图像中渲染显示人脸特征点,得到所述初始虚拟形象。
8.一种终端,其特征在于,所述终端包括处理器和存储器,所述存储器存储有计算机程序,所述计算机程序由所述处理器加载并执行如权利要求1至5任一项所述的虚拟形象生成方法。
9.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有计算机程序,所述计算机程序由处理器加载并执行以实现如权利要求1至5任一项所述的虚拟形象生成方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011228175.XA CN112337105B (zh) | 2020-11-06 | 2020-11-06 | 虚拟形象生成方法、装置、终端及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011228175.XA CN112337105B (zh) | 2020-11-06 | 2020-11-06 | 虚拟形象生成方法、装置、终端及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112337105A CN112337105A (zh) | 2021-02-09 |
CN112337105B true CN112337105B (zh) | 2023-09-29 |
Family
ID=74429577
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011228175.XA Active CN112337105B (zh) | 2020-11-06 | 2020-11-06 | 虚拟形象生成方法、装置、终端及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112337105B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113240778B (zh) * | 2021-04-26 | 2024-04-12 | 北京百度网讯科技有限公司 | 虚拟形象的生成方法、装置、电子设备和存储介质 |
CN117244253A (zh) * | 2022-06-09 | 2023-12-19 | 腾讯科技(成都)有限公司 | 虚拟角色的获取方法和装置、存储介质及电子设备 |
CN115222862B (zh) * | 2022-06-29 | 2024-03-01 | 支付宝(杭州)信息技术有限公司 | 虚拟人衣物生成方法、装置、设备、介质及程序产品 |
CN115690281B (zh) * | 2022-12-29 | 2023-03-21 | 海马云(天津)信息技术有限公司 | 角色表情的驱动方法及装置、存储介质、电子装置 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130100140A1 (en) * | 2011-10-25 | 2013-04-25 | Cywee Group Limited | Human body and facial animation systems with 3d camera and method thereof |
CN104063683B (zh) * | 2014-06-06 | 2017-05-17 | 北京搜狗科技发展有限公司 | 一种基于人脸识别的表情输入方法和装置 |
CN111530086B (zh) * | 2020-04-17 | 2022-04-22 | 完美世界(重庆)互动科技有限公司 | 一种生成游戏角色的表情的方法和装置 |
-
2020
- 2020-11-06 CN CN202011228175.XA patent/CN112337105B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN112337105A (zh) | 2021-02-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109308727B (zh) | 虚拟形象模型生成方法、装置及存储介质 | |
CN109427083B (zh) | 三维虚拟形象的显示方法、装置、终端及存储介质 | |
CN110992493B (zh) | 图像处理方法、装置、电子设备及存储介质 | |
CN112337105B (zh) | 虚拟形象生成方法、装置、终端及存储介质 | |
CN110141857A (zh) | 虚拟角色的面部显示方法、装置、设备及存储介质 | |
CN109947338B (zh) | 图像切换显示方法、装置、电子设备及存储介质 | |
CN111028144B (zh) | 视频换脸方法及装置、存储介质 | |
WO2020233403A1 (zh) | 三维角色的个性化脸部显示方法、装置、设备及存储介质 | |
CN113569614A (zh) | 虚拟形象生成方法、装置、设备及存储介质 | |
CN110263617B (zh) | 三维人脸模型获取方法及装置 | |
CN112533017B (zh) | 直播方法、装置、终端及存储介质 | |
CN110956580B (zh) | 图像换脸的方法、装置、计算机设备以及存储介质 | |
CN112328091B (zh) | 弹幕显示方法、装置、终端及存储介质 | |
CN111541907A (zh) | 物品显示方法、装置、设备及存储介质 | |
CN110796083B (zh) | 图像显示方法、装置、终端及存储介质 | |
CN112581358B (zh) | 图像处理模型的训练方法、图像处理方法及装置 | |
CN112148404B (zh) | 头像生成方法、装置、设备以及存储介质 | |
CN109978996B (zh) | 生成表情三维模型的方法、装置、终端及存储介质 | |
CN112565806B (zh) | 虚拟礼物赠送方法、装置、计算机设备及介质 | |
CN112287852A (zh) | 人脸图像的处理方法、显示方法、装置及设备 | |
CN111768507A (zh) | 图像融合方法、装置、计算机设备及存储介质 | |
CN112419143B (zh) | 图像处理方法、特效参数设置方法、装置、设备及介质 | |
CN110312144B (zh) | 进行直播的方法、装置、终端和存储介质 | |
CN112967261B (zh) | 图像融合方法、装置、设备及存储介质 | |
CN113194329B (zh) | 直播互动方法、装置、终端及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |