CN111739155A - 虚拟角色捏脸方法、装置和终端设备 - Google Patents
虚拟角色捏脸方法、装置和终端设备 Download PDFInfo
- Publication number
- CN111739155A CN111739155A CN202010594391.XA CN202010594391A CN111739155A CN 111739155 A CN111739155 A CN 111739155A CN 202010594391 A CN202010594391 A CN 202010594391A CN 111739155 A CN111739155 A CN 111739155A
- Authority
- CN
- China
- Prior art keywords
- model
- face
- expression
- bionic
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 85
- 239000011664 nicotinic acid Substances 0.000 claims abstract description 102
- 230000004044 response Effects 0.000 claims abstract description 14
- 230000014509 gene expression Effects 0.000 claims description 226
- 230000003592 biomimetic effect Effects 0.000 claims description 47
- 238000005034 decoration Methods 0.000 claims description 36
- 230000001815 facial effect Effects 0.000 claims description 29
- 230000008921 facial expression Effects 0.000 claims description 16
- 238000003384 imaging method Methods 0.000 claims description 15
- 230000008569 process Effects 0.000 abstract description 9
- 238000010586 diagram Methods 0.000 description 11
- 238000003062 neural network model Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 230000000994 depressogenic effect Effects 0.000 description 4
- 230000008451 emotion Effects 0.000 description 4
- 238000010195 expression analysis Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 210000000697 sensory organ Anatomy 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 239000003086 colorant Substances 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 230000037308 hair color Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 238000000802 evaporation-induced self-assembly Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/60—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Architecture (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Geometry (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明提供了一种虚拟角色捏脸方法、装置和终端设备。其中,该方法包括:响应模型选择操作,从初始模型库中确定目标初始模型;接收扫描获得的真实脸部数据,基于真实脸部数据生成脸部仿生模型;应用脸部仿生模型替换目标初始模型中的脸部模型。该方式中可以响应模型选择操作确定目标初始模型,基于接收扫描获得的真实脸部数据生成脸部仿生模型,并应用脸部仿生模型替换目标初始模型中的脸部模型。该方式中可以直接扫描用户的脸部自动得到脸部仿生模型替换脸部模型,脸部模型接近用户的真实样貌,具有较高的真实度;并且捏脸过程中无需用户手动对脸部模型进行复杂的细节调整,用户操作简单,具有良好的体验度。
Description
技术领域
本发明涉及游戏技术领域,尤其是涉及一种虚拟角色捏脸方法、装置和终端设备。
背景技术
目前,市场上各类手机游戏的角色创建系统中一般会预存多个初始模型,用户可以通过对初始模型进行微变化的调整,再进行装饰搭配等操作完成手机游戏的捏脸操作。其中,微变化的调整是指对初始模型的大小、上下、肤色、高低等在一定范围内进行局部编辑。
然而,微变化的调整是相对比较简单的调整,受限于初始模型本身,捏脸操作得到的模型无法达到用户真人的样子;并且捏脸操作十分复杂,角色创建系统对初始模型细节调整的分类标签非常繁多,用户在进行捏脸时的体验度较低。
发明内容
有鉴于此,本发明的目的在于提供一种虚拟角色捏脸方法、装置和终端设备,以使捏脸得到的脸部模型接近用户的真实样貌,降低捏脸操作的复杂程度,提高用户在进行捏脸时的体验度。
第一方面,本发明实施例提供了一种虚拟角色捏脸方法,方法包括:响应模型选择操作,从初始模型库中确定目标初始模型;接收扫描获得的真实脸部数据,基于真实脸部数据生成脸部仿生模型;应用脸部仿生模型替换目标初始模型中的脸部模型。
在本发明较佳的实施例中,上述接收扫描获得的真实脸部数据,基于真实脸部数据生成脸部仿生模型的步骤,包括:响应针对于3D(Three Dimensional,三维)仿生成像接口的扫描启动操作,启动3D仿生成像接口连接的摄像头;通过摄像头扫描的真实脸部,得到真实脸部数据;基于真实脸部数据生成脸部仿生模型。
在本发明较佳的实施例中,上述应用脸部仿生模型替换目标初始模型中的脸部模型的步骤,包括:确定脸部仿生模型包括的面部参数;应用面部参数替换目标初始模型中的脸部模型的面部参数。
在本发明较佳的实施例中,上述应用脸部仿生模型替换目标初始模型中的脸部模型的步骤之后,方法还包括:响应针对于脸部仿生模型的脸部调整操作,调整脸部仿生模型的参数。
在本发明较佳的实施例中,上述调整脸部仿生模型的参数的步骤,包括:通过脸部仿生模型对应的调整控件调整脸部仿生模型中脸部区域的参数。
在本发明较佳的实施例中,上述应用脸部仿生模型替换目标初始模型中的脸部模型的步骤之后,方法还包括:响应针对于装饰搭配控件的装饰搭配调整操作,调整目标初始模型中的装饰搭配部件。
在本发明较佳的实施例中,上述应用脸部仿生模型替换目标初始模型中的脸部模型的步骤之后,方法还包括:响应针对脸部仿生模型的表情调整操作,调整脸部仿生模型的表情。
在本发明较佳的实施例中,上述响应针对脸部仿生模型的表情调整操作,调整脸部仿生模型的表情的步骤,包括:响应针对脸部仿生模型的表情调整操作,从脸部仿生模型的表情模型数据库中确定表情调整操作对应的目标表情;应用目标表情包括的参数替换脸部仿生模型中的表情的参数。
在本发明较佳的实施例中,上述方法还包括:响应针对于表情采集接口的表情采集操作,采集真实脸部表情;基于真实脸部表情构建表情;为构建的表情添加表情标签。
在本发明较佳的实施例中,上述从脸部仿生模型的表情模型数据库中确定表情调整操作对应的目标表情的步骤,包括:确定表情调整操作对应的目标表情标签;将目标初始模型的表情模型数据库中查找目标表情标签对应的目标表情。
第二方面,本发明实施例还提供一种虚拟角色捏脸装置,其特征在于,装置包括:目标初始模型确定模块,用于响应模型选择操作,从初始模型库中确定目标初始模型;脸部仿生模型生成模块,用于接收扫描获得的真实脸部数据,基于真实脸部数据生成脸部仿生模型;脸部仿生模型替换模块,用于应用脸部仿生模型替换目标初始模型中的脸部模型。
第三方面,本发明实施例还提供一种终端设备,包括处理器和存储器,存储器存储有能够被处理器执行的计算机可执行指令,处理器执行计算机可执行指令以实现上述的虚拟角色捏脸方法的步骤。
第四方面,本发明实施例还提供一种计算机可读存储介质,计算机可读存储介质存储有计算机可执行指令,计算机可执行指令在被处理器调用和执行时,计算机可执行指令促使处理器实现上述的虚拟角色捏脸方法的步骤。
本发明实施例带来了以下有益效果:
本发明实施例提供的一种虚拟角色捏脸方法、装置和终端设备,响应模型选择操作确定目标初始模型,基于接收扫描获得的真实脸部数据生成脸部仿生模型,并应用脸部仿生模型替换目标初始模型中的脸部模型。该方式中可以直接扫描用户的脸部自动得到脸部仿生模型替换脸部模型,脸部模型接近用户的真实样貌,具有较高的真实度;并且捏脸过程中无需用户手动对脸部模型进行复杂的细节调整,用户操作简单,具有良好的体验度。
本公开的其他特征和优点将在随后的说明书中阐述,或者,部分特征和优点可以从说明书推知或毫无疑义地确定,或者通过实施本公开的上述技术即可得知。
为使本公开的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种角色创建界面的示意图;
图2为本发明实施例提供的一种虚拟角色捏脸方法的流程图;
图3为本发明实施例提供的另一种虚拟角色捏脸方法的流程图;
图4为本发明实施例提供的另一种角色创建界面的示意图;
图5为本发明实施例提供的一种虚拟角色捏脸装置的结构示意图;
图6为本发明实施例提供的另一种虚拟角色捏脸装置的结构示意图;
图7为本发明实施例提供的一种终端设备的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合附图对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
目前,市场上各类手机游戏的捏脸系统中,捏脸操作得到的模型无法达到用户真人的样子;并且捏脸操作十分复杂,用户在进行捏脸时的体验度较低。基于此,本发明实施例提供的一种虚拟角色捏脸方法、装置和终端设备,该技术可以应用于客户端、服务端、电脑、手机、平板电脑等可以实现人机交互的设备上,尤其可以适用于手机游戏场景中。
为便于对本实施例进行理解,首先对本发明实施例所公开的一种虚拟角色捏脸方法进行详细介绍。
本实施例提供了一种虚拟角色捏脸方法,通过终端设备展示角色创建界面,角色创建界面包括初始模型选择控件和3D仿生成像接口。参见图1所示的一种角色创建界面的示意图,如图1所示,角色创建界面可以展示在终端设备中,角色创建界面可以用于创建角色,在角色创建界面上可以显示角色的初始模型,用户可以对初始模型进行调整,获得想要的模型。
可以在角色创建界面的右上角设置初始模型选择控件,用户可以通过初始模型选择控件选择一个或多个初始模型显示在角色创建界面的指定位置上。此外,还可以在角色创建界面的左上角设置3D仿生成像接口,3D仿生成像接口可以用于采集用户的真实脸部数据,并生成脸部仿生模型。由于真实脸部数据是对用户的脸部进行采集的,生成的脸部仿生模型可以比较接近用户的真实相貌。
基于上述描述,参见图2所示的一种虚拟角色捏脸方法的流程图,该虚拟角色捏脸方法包括如下步骤:
步骤S202,响应模型选择操作,从初始模型库中确定目标初始模型。
用户在终端设备的角色创建界面建立角色时,可以在初始模型的基础上进行调整,初始模型可以为设计人员预先设计并存储在终端设备的基础模型,初始模型包括脸部模型(即角色脸部区域的模型)和身体模型(除角色脸部以外其他区域的模型)。
初始模型可以保存在终端设备的初始模型库中。初始模型库的初始模型可以由游戏的设计人员预先设计并保存,也可以由用户进行设计或保存。用户可以通过点击角色创建界面中的初始模型选择控件的模型选择操作,可以从初始模型库中查看、修改或选择初始模型,用户选择的初始模型可以展示在角色创建界面的指定位置,称为目标初始模型。
另外需要说明的是,初始模型中可以缺失一部分区域的模型,例如:初始模型可以缺少角色眼睛的模型,可以由用户在调整时添加角色眼睛的模型。
步骤S204,接收扫描获得的真实脸部数据,基于真实脸部数据生成脸部仿生模型。
3D仿生成像接口可以用于采集用户的真实脸部数据,真实脸部数据可以表征用户脸部的真实样貌,例如:用户五官的坐标及大小、脸部形状、脸部皮肤颜色、发型、发色等。终端设备可以根据用户的真实脸部数据进行建模,得到脸部仿生模型。因此,脸部仿生模型非常接近用户脸部的真实样貌,具有较高的真实度。
步骤S206,应用脸部仿生模型替换目标初始模型中的脸部模型。
脸部仿生模型可以表征用户脸部的真实样貌,因此,如果使用脸部仿生模型替换目标初始模型中的脸部模型,可以使替换后的目标初始模型的脸部更加接近用户脸部的真实样貌。由于脸部仿生模型无法表征用户除了脸部以外的其他区域的真实样貌,因此,目标初始模型中的身体模型可以由用户手动进行设置。
在应用脸部仿生模型替换目标初始模型中的脸部模型的过程中,可能需要用户对脸部仿生模型进行微调,例如:修改大小、修容、调整肤色、调整脸部仿生模型的参数等。用户可以通过微调脸部仿生模型以使其适应目标初始模型,使得替换后的目标初始模型更加和谐和美观。
除了微调脸部仿生模型之外,用户还可以在应用脸部仿生模型替换目标初始模型中的脸部模型之后对目标初始模型进行调整,例如:修改目标初始模型的脸部模型的大小、增加或删除配饰等。用户通过调整目标初始模型也可以使得替换后的目标初始模型更加和谐和美观。
在应用脸部仿生模型替换目标初始模型中的脸部模型的过程之后,可以直接将脸部仿生模型替换目标初始模型中的脸部模型。也就无需用户手动对目标初始模型中的脸部模型进行复杂的细节调整,用户进行捏脸时的操作较为简单。
本发明实施例提供的一种虚拟角色捏脸方法,响应模型选择操作确定目标初始模型,基于接收扫描获得的真实脸部数据生成脸部仿生模型,并应用脸部仿生模型替换目标初始模型中的脸部模型。该方式中可以直接扫描用户的脸部自动得到脸部仿生模型替换脸部模型,脸部模型接近用户的真实样貌,具有较高的真实度;并且捏脸过程中无需用户手动对脸部模型进行复杂的细节调整,用户操作简单,具有良好的体验度。
本实施例提供了另一种虚拟角色捏脸方法,该方法在上述实施例的基础上实现;本实施例重点描述生成脸部仿生模型的具体实施方式。如图3所示的另一种虚拟角色捏脸方法的流程图,本实施例中的虚拟角色捏脸方法包括如下步骤:
步骤S302,响应模型选择操作,从初始模型库中确定目标初始模型。
这里以手机游戏的捏脸系统进行举例,终端设备可以为用户的手机、平板电脑等移动交互设备。如果用户想要在手机的捏脸系统中创建一个角色,用户需要登录手机游戏,进入该游戏的角色创建界面,在初始模型库中选择一个目标初始模型。用户可以浏览多个不同脸型的初始模型,并从被浏览的多个初始模型中选择一个目标初始模型。
例如,用户A想要建立角色,首先可以从手机上登录手机游戏的角色创建界面,可以从初始模型库中依次选择6个初始模型,被选择的初始模型可以通过符号或者颜色进行标记,被选择的初始模型可以展示在角色创建界面的指定位置。用户浏览和比较被选择的初始模型后,从被选择的模型中确定一个初始模型,就可以作为目标初始模型。
步骤S304,响应针对于3D仿生成像接口的扫描启动操作,启动3D仿生成像接口连接的摄像头。
3D仿生成像接口可以通过摄像头采集用户的真是脸部数据。摄像头可以设置在终端设备内部,例如:假设用户的终端设备为手机,摄像头可以为手机的前置摄像头或后置摄像头,假设用户的终端设备为笔记本电脑,摄像头可以为笔记本电脑的摄像头;摄像头也可以设置在终端设备外,只需与终端设备通信连接即可,例如:假设用户的终端设备为台式电脑,摄像头可以为与台式电脑通信连接的外置摄像头,或者摄像头可以为相机的摄像头,终端设备与该相机连接即可。
角色创建界面可以设置扫描启动控件,用户通过点击启动控件的操作即为扫描启动操作。终端设备在用户执行扫描启动操作后可以响应该扫描启动操作启动3D仿生成像接口连接的摄像头。用户执行扫描启动操作表征用户想要进行脸部真实样貌的扫描,因此,终端设备可以启动摄像头,准备进行扫描。
例如,用户的终端设备为手机,用户通过点击角色创建界面上的启动控件执行扫描启动操作。手机响应扫描启动操作可以启动手机的前置摄像头或者后置摄像头。具体启动哪个摄像头可以由游戏设计人员预先设定、用户预先设定或者提示用户进行选择。例如,手机响应扫描启动操作后提示用户启动摄像头,并通过对话框或者通知的形式询问用户启动前置摄像头或后置摄像头,根据用户的选择启动对应的摄像头。
步骤S306,通过摄像头扫描的真实脸部,得到真实脸部数据。
终端设备在启动摄像头后,可以由摄像头扫描用户的真实脸部。需要说明的是,这里的扫描可以为360°扫描,360°扫描并不是平面拍照或平面扫描,而是需要通过移动摄像头或者转动脸部,对整个脸部进行环绕的全方位的扫描。扫描用户的真实脸部得到的数据称为真实脸部数据。
采用通过移动摄像头的方式或者转动脸部的方式进行360°扫描。如果用户的终端设备难以移动,或者摄像头难以移动,则可以采用转动脸部的方式进行扫描。例如:如果用户的终端设备是笔记本电脑,笔记本电脑的摄像头难以移动,就可以采用转动脸部的方式进行360°扫描。又例如,如果用户的终端设备是手机,手机很容易移动,因此可以通过移动手机的方式进行360°扫描。
无论移动摄像头或移动脸部,移动速度不能太快,且移动速度最好较为均匀。也可以采用摄像头和脸部同时移动的方式进行360°扫描,但此时移动的相对速度难以把控到非常均匀,需要用户匀速地移动摄像头和脸部。
在移动摄像头或移动脸部时,摄像头可以通过摄像的方式采集用户的脸部扫描视频,基于脸部扫描视频生成真实脸部数据;摄像头也可以每隔一段时间(如0.1秒)拍摄一张图像(即照相),通过拍摄的多张图像生成真实脸部数据。
如果通过摄像的方式生成真实脸部数据,终端设备可以对摄像得到的脸部扫描视频进行分析,对脸部扫描视频中的脸部进行分析,得到用户的真实脸部数据。如果通过照相的方式生成真实脸部数据,终端设备可以将多张图像进行拼接,对拼接后的图像进行分析,得到用户的真实脸部数据。
步骤S308,基于真实脸部数据生成脸部仿生模型。
在获得真实脸部数据后,终端设备可以根据真实脸部数据进行三维建模,三维建模得到的模型就是脸部仿生模型。由于脸部仿生模型是根据真实脸部数据建模的,脸部仿生模型就比较接近用户的真实样貌。
本发明实施例提供的上述方法,终端设备可以响应用户的扫描启动操作启动3D仿生成像接口连接的摄像头,通过摄像头扫描用户的真实脸部,得到真实脸部数据,终端设备在获得真实脸部数据后可以基于真实脸部数据生成脸部仿生模型。由于脸部仿生模型是根据用户的真实脸部数据建模的,而用户的真实脸部数据是对用户的脸部进行扫描得到,因此生成的脸部仿生模型就比较接近用户的真实样貌,可以带给用户更好的捏脸体验。
步骤S310,应用脸部仿生模型替换目标初始模型中的脸部模型。
在生成脸部仿生模型后,可以用脸部仿生模型替换目标初始模型中的脸部模型,可以将脸部仿生模型的参数替换到目标初始模型中的脸部模型的对应位置即可,可以通过步骤A1-步骤A2执行:
步骤A1,确定脸部仿生模型包括的面部参数。
脸部仿生模型包括的面部参数可以包括:表征脸部形状的参数、表征皮肤肤色的参数、表征皮肤深浅的参数、表征五官位置和大小的参数、表征头发长短和颜色的参数、表征脸部配饰的参数(例如眼镜、耳环、鼻环等的参数)等。面部参数可以根据脸部仿生模型解析得到,通过面部参数可以体现用户的真实样貌。
步骤A2,应用面部参数替换目标初始模型中的脸部模型的面部参数。
面部参数可以分为两类,表征形状大小等的坐标参数和表征颜色等的RGB(RedGreen Blue,红绿蓝)值。对于坐标参数,可以直接将面部参数中的坐标参数替换至脸部模型的对应坐标即可。对于RGB值,可以在坐标参数替换完成后,在对应的坐标输入上述RGB值。在完成坐标参数和RGB值的替换后,脸部仿生模型就成功替换了目标初始模型中的脸部模型。
本发明实施例提供的上述方法,首先从脸部仿生模型中确定面部参数,应用面部参数替换目标初始模型中的脸部模型的面部参数,可以实现脸部仿生模型替换目标初始模型中的脸部模型的步骤。这种方式无需用户手动对脸部模型进行复杂的细节调整,用户操作简单,具有良好的体验度。
摄像头扫描用户的脸部时,用户距离摄像头越近,则摄像头拍摄的脸部越大;用户距离摄像头越远,则摄像头拍摄的脸部越小。这样会导致生成的脸部仿生模型可能比较大或者比较小,即生成的脸部仿生模型与目标初始模型中的脸部模型并不是相同大小的。在用脸部仿生模型替换初始模型中的脸部模型后可能不太和谐和美观,因此可以对替换后的脸部模型的进行调整,上述方法还包括:响应针对于脸部仿生模型的脸部调整操作,调整脸部仿生模型的参数。
由于替换后的脸部模型存在不太和谐和美观的问题,以及用户想要美化下替换后的脸部模型,用户可以对脸部模型进行脸部调整操作,即微调替换后的脸部模型。
脸部调整操作可以包括脸部模型整体大小的调整、脸部模型中五官大小的调整、脸部模型中的颜色相关调整(肤色、发色等)或者脸部模型中头发样式的改变等。终端设备通过响应用户的脸部调整操作,可以调整替换后脸部模型的参数。例如:通过脸部仿生模型对应的调整控件调整脸部仿生模型中脸部区域的参数。具体来说,用户可以通过调节脸部仿生模型对应的调整控件调整脸部仿生模型中脸部区域的参数,从而微调替换后的脸部模型,使得替换后的脸部模型更加自然、美观。
本发明实施例提供的上述方法,用户可以通过脸部调整操作调整脸部模型的参数,终端设备响应脸部调整操作进行调整。该方式通过调整替换后的脸部模型的参数,可以使得替换后的目标初始模型更加和谐和美观。
在角色创建时还可以对目标初始模型包括的装饰搭配部件进行设置或调整。因此,上述方法还包括:响应针对于装饰搭配控件的装饰搭配调整操作,调整目标初始模型中的装饰搭配部件。
目标初始模型中可能预设了装饰搭配部件,也可能没有预设装饰搭配部件。用户通过想要修改、添加或删除装饰搭配部件,都可以采用装饰搭配调整操作实现。装饰搭配部件可以存在目标初始模型的脸部模型和身体模型中。装饰搭配部件是指搭配在目标初始模型中的一些小部件,例如:眼镜、手环、手表、鞋子、腕带、皮带等。
用户可以通过装饰搭配控件执行装饰搭配调整操作。参见图4所示的另一种角色创建界面的示意图。如图4所示,角色创建界面包括装饰搭配控件,装饰搭配控件可以设置在角色创建界面的上方。用户通过点击装饰搭配控件执行装饰搭配调整操作。
装饰搭配调整操作可以包括:选择一个或多个装饰搭配部件,将装饰搭配部件设置在目标初始模型的对应位置、删除装饰搭配部件等。终端设备可以通过响应搭配调整操作调整目标初始模型中的装饰搭配部件。
本发明实施例提供的上述方法,用户可以通过装饰搭配调整操作调整目标初始模型中的装饰搭配部件。终端设备通过响应装饰搭配调整操作调整装饰搭配部件,调整装饰搭配部件后的目标初始模型更加美观。
目标初始模型中的表情模型可以任意进行替换,上述方法还包括:响应针对脸部仿生模型的表情调整操作,调整脸部仿生模型的表情。
目标初始模型中用于表征用户表情的模型称为表情模型,表情模型可以包括脸部模型中的表征五官位置和大小的参数。为了调整表情模型,用户可以执行表情调整操作,通过调整表情模型的参数以调整表情模型。
表情调整操作包括对表情模型进行微调,即细微调整表情模型的参数;和对表情模型进行替换,即更换一个表情模型。可以通过步骤B1-步骤B2对表情模型进行替换:
步骤B1,响应针对脸部仿生模型的表情调整操作,从脸部仿生模型的表情模型数据库中确定表情调整操作对应的目标表情。
用户如果想要调整目标表情模型,可以执行表情调整操作,终端设备可以根据表情调整操作从表情模型数据库中选择一个或多个表情调整操作对应的目标表情模型,以供用户在被选择的目标表情模型的基础上进行调整。
终端设备的表情模型数据库中可以存储多个表情模型,表情模型数据库存储的表情模型可以由游戏设计人员上传,也可以由用户手动编辑上传。对于用户手动编辑上传的情况,可以通过步骤C1-步骤C3执行:
步骤C1,响应针对于表情采集接口的表情采集操作,采集真实脸部表情。
角色创建界面可以包括表情采集接口,表情采集接口用于对用户进行拍摄,采集用户的表情图像,表情图像可以对准用户的脸部表情进行拍摄,因此表情图像比较接近用户的真实表情,可以将表情图像作为用户的真实脸部表情。
表情图像可以为360°拍摄得到的图像,也可以为平面拍摄得到的图像,表情图像可以由与终端设备连接的摄像头或者终端设备包括的摄像头拍摄得到。例如:假设用户想要通过手机拍摄自己的真实脸部表情,可以通过表情采集接口进行表情采集操作。手机响应表情采集操作,打开手机的前置摄像头,通过前置摄像头拍摄用户的表情图像。
步骤C2,基于真实脸部表情构建表情。
在采集得到用户的表情图像(即真实脸部表情)之后,终端设备可以根据表情图像建立表情模型。例如,根据表情图像得到用户做出该表情图像时的脸部的坐标参数和脸部的坐标参数对应的RGB值(表征脸部的肤色等无法通过坐标表示的数值),之后基于坐标参数建立表情模型,并将RGB值输入至建立后表情模型的对应坐标中。
步骤C3,为构建的表情添加表情标签。
用户在做出表情时都可以设定一个对应的表情标签,在建立表情模型后,可以在表情模型上添加对应表情标签。例如,用户做出了一个高兴的表情图像A,则建立表情图像A对应的表情模型时可以添加高兴表情标签。如果用户忘记添加表情标签,终端设备可以通过机器学习、图像特征比对等方式自动确定表情模型的表情标签,终端设备还可以向用户发出未添加表情标签的通知,以提示用户添加表情标签。在通过上述步骤建立表情模型后,可以将表情模型存储在终端设备的表情模型数据库中,并采用表情标签进行标识。
具体来说,对于通过机器学习自动确定表情模型的表情标签,可以通过以下步骤进行:训练一个神经网络模型,该神经网络模型的训练集为表情模型的参数,应对每个表情模型的参数都标注好对应的表情标签。该神经网络模型的输入为表情模型的参数,该神经网络模型的输出为表情模型的表情标签。
在训练神经网络模型时,先提取从训练集中获取一个表情模型X,提取表情模型X的参数,将表情模型X的参数输入至神经网络模型时,将输出的表情模型X的表情标签与训练集中标注的表情模型X的表情标签进行比对,并根据比对结果调整神经网络模型。
对于通过图像特征比对自动确定表情模型的表情标签,可以通过以下步骤进行:终端设备可以预先存储多个表情标签,以及每个表情标签对应的图像特征。终端设备可以提取表情模型Y的图像特征,将表情模型Y的图像特征于终端设备预先存储的多个表情标签对应的图像特征进行比对,将比对值最高或者比对值符合阈值要求的表情标签站位表情模型Y的表情标签。
例如,用户的手机中存储了高兴的图像特征和沮丧的图像特征。终端设备提取表情模型C的图像特征,将表情模型C的图像特征分别与高兴的图像特征和沮丧的图像特征进行别对,得到的相似度分别为60%和80%。终端设备因此可以将相似度80%对应的图像特征沮丧的表情标签作为表情模型C的表情标签。
这里需要说明的是,如果所有相似度都比较低,则说明终端设备预存的表情标签均不为表情图像的表情标签。原因可能为用户拍摄的表情图像不够清晰,此时终端设备可以提示用户重新拍摄;原因还可能为用户拍摄表情图像时做出的表情没有预设为表情标签,如果用户做出沮丧的表情,然而终端设备没有预存沮丧的表情标签,此时终端设备可以提示用户手动设定表情标签。
在为表情模型添加表情标签后,可以通过步骤D1-步骤D2根据添加的表情标签选择目标表情模型:
步骤D1,确定表情调整操作对应的目标表情标签。
在为表情模型添加表情标签后,可以将表情模型及其对应的标签一起存储至表情模型数据库。因此,在用户执行表情调整操作时,终端设备可以首先确定表情调整操作对应的目标表情标签。
步骤D2,将目标初始模型的表情模型数据库中查找目标表情标签对应的目标表情。
在终端设备确定表情调整操作对应的目标表情标签之后,可以从表情模型数据库中查找全部对应有目标表情标签的表情模型,作为目标表情模型。例如用户想要查找高兴的表情模型,可以将高兴作为目标表情标签,查找表情模型数据库中全部的表情标签为高兴的表情模型,将表情标签为高兴的表情模型作为目标表情模型,以供用户选择。
本发明实施例提供的上述方法,通过为表情模型添加表情标签,可以方便用户查找同一类表情标签的表情模型,例如:用户想要查找高兴的表情模型,只需要基于高兴的表情标签进行查找即可,可以快速、准确地查找表情模型。
步骤B2,应用目标表情包括的参数替换脸部仿生模型中的表情的参数。
在获取目标表情模型后,可以将目标表情模型包括的参数替换目标初始模型中的表情模型的参数,以实现表情调整。可以基于SIRI(Speech Interpretation&RecognitionInterface,语音识别接口)面部表情分析并解读情绪技术进行替换。终端设备可以具有SIRI面部表情分析解读功能,开启SIRI面部表情分析解读功能后,可以去掉现有各游戏系统中通过情绪页签的切换进行表情的选择方式(该方式需要来回切换,在进行点击选择)。
通过开启的SIRI面部表情分析解读功能,终端设备可以通过自动识别正在捏脸的角色情绪,自生生成对应的情绪表情样式(不需要选择表情或者情绪样式,根据SIRI识别自动匹配)。
需要说明的是,上述各方法实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。
对应于上述方法实施例,本发明实施例提供了一种虚拟角色捏脸装置,如图5所示的一种虚拟角色捏脸装置的结构示意图,该虚拟角色捏脸装置包括:
目标初始模型确定模块51,用于响应模型选择操作,从初始模型库中确定目标初始模型;
脸部仿生模型生成模块52,用于接收扫描获得的真实脸部数据,基于真实脸部数据生成脸部仿生模型;
脸部仿生模型替换模块53,用于应用脸部仿生模型替换目标初始模型中的脸部模型。
本发明实施例提供的一种虚拟角色捏脸装置,响应模型选择操作确定目标初始模型,基于接收扫描获得的真实脸部数据生成脸部仿生模型,并应用脸部仿生模型替换目标初始模型中的脸部模型。该方式中可以直接扫描用户的脸部自动得到脸部仿生模型替换脸部模型,脸部模型接近用户的真实样貌,具有较高的真实度;并且捏脸过程中无需用户手动对脸部模型进行复杂的细节调整,用户操作简单,具有良好的体验度。
上述脸部仿生模型生成模块,用于响应针对于3D仿生成像接口的扫描启动操作,启动3D仿生成像接口连接的摄像头;通过摄像头扫描的真实脸部,得到真实脸部数据;基于真实脸部数据生成脸部仿生模型。
上述脸部仿生模型替换模块,用于确定脸部仿生模型包括的面部参数;应用面部参数替换目标初始模型中的脸部模型的面部参数。
参见图6所示的另一种虚拟角色捏脸装置的结构示意图,上述装置还包括目标初始模型调整模块54,与脸部仿生模型替换模块53连接,用于响应针对于脸部仿生模型的脸部调整操作,调整脸部仿生模型的参数。
上述目标初始模型调整模块,用于通过脸部仿生模型对应的调整控件调整脸部仿生模型中脸部区域的参数。
上述角色创建界面包括装饰搭配控件;参见图6所示的另一种虚拟角色捏脸装置的结构示意图,上述装置还包括装饰搭配调整模块55,与脸部仿生模型替换模块53连接,用于响应针对于装饰搭配控件的装饰搭配调整操作,调整目标初始模型中的装饰搭配部件。
上述目标初始模型包括表情模型;参见图6所示的另一种虚拟角色捏脸装置的结构示意图,上述装置还包括表情模型调整模块56,与脸部仿生模型替换模块53连接,用于响应针对脸部仿生模型的表情调整操作,调整脸部仿生模型的表情。
上述表情模型调整模块,用于响应针对脸部仿生模型的表情调整操作,从脸部仿生模型的表情模型数据库中确定表情调整操作对应的目标表情;应用目标表情包括的参数替换脸部仿生模型中的表情的参数。
上述角色创建界面包括表情采集接口;上述表情模型调整模块,还用于响应针对于表情采集接口的表情采集操作,采集真实脸部表情;基于真实脸部表情构建表情;为构建的表情添加表情标签。
上述角色创建界面包括表情采集接口;上述表情模型调整模块,用于确定表情调整操作对应的目标表情标签;将目标初始模型的表情模型数据库中查找目标表情标签对应的目标表情。
本发明实施例提供的虚拟角色捏脸装置,与上述实施例提供的虚拟角色捏脸方法具有相同的技术特征,所以也能解决相同的技术问题,达到相同的技术效果。
本发明实施例还提供了一种终端设备,用于运行上述虚拟角色捏脸方法;参见图7所示的一种终端设备的结构示意图,该终端设备包括存储器100和处理器101,其中,存储器100用于存储一条或多条计算机指令,一条或多条计算机指令被处理器101执行,以实现上述虚拟角色捏脸方法。
进一步地,图7所示的终端设备还包括总线102和通信接口103,处理器101、通信接口103和存储器100通过总线102连接。
其中,存储器100可能包含高速随机存取存储器(RAM,Random Access Memory),也可能还包括非不稳定的存储器(non-volatile memory),例如至少一个磁盘存储器。通过至少一个通信接口103(可以是有线或者无线)实现该系统网元与至少一个其他网元之间的通信连接,可以使用互联网,广域网,本地网,城域网等。总线102可以是ISA总线、PCI总线或EISA总线等。总线可以分为地址总线、数据总线、控制总线等。为便于表示,图7中仅用一个双向箭头表示,但并不表示仅有一根总线或一种类型的总线。
处理器101可能是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法的各步骤可以通过处理器101中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器101可以是通用处理器,包括中央处理器(Central Processing Unit,简称CPU)、网络处理器(Network Processor,简称NP)等;还可以是数字信号处理器(DigitalSignal Processor,简称DSP)、专用集成电路(Application Specific IntegratedCircuit,简称ASIC)、现场可编程门阵列(Field-Programmable Gate Array,简称FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本发明实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本发明实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器100,处理器101读取存储器100中的信息,结合其硬件完成前述实施例的方法的步骤。
本发明实施例还提供了一种计算机可读存储介质,该计算机可读存储介质存储有计算机可执行指令,该计算机可执行指令在被处理器调用和执行时,计算机可执行指令促使处理器实现上述虚拟角色捏脸方法,具体实现可参见方法实施例,在此不再赘述。
本发明实施例所提供的虚拟角色捏脸方法、装置和终端设备的计算机程序产品,包括存储了程序代码的计算机可读存储介质,程序代码包括的指令可用于执行前面方法实施例中的方法,具体实现可参见方法实施例,在此不再赘述。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统和/或装置的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
另外,在本发明实施例的描述中,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本发明中的具体含义。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,电子设备,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
在本发明的描述中,需要说明的是,术语“中心”、“上”、“下”、“左”、“右”、“竖直”、“水平”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,术语“第一”、“第二”、“第三”仅用于描述目的,而不能理解为指示或暗示相对重要性。
最后应说明的是:以上所述实施例,仅为本发明的具体实施方式,用以说明本发明的技术方案,而非对其限制,本发明的保护范围并不局限于此,尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本发明实施例技术方案的精神和范围,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应所述以权利要求的保护范围为准。
Claims (13)
1.一种虚拟角色捏脸方法,其特征在于,所述方法包括:
响应模型选择操作,从初始模型库中确定目标初始模型;
接收扫描获得的真实脸部数据,基于所述真实脸部数据生成脸部仿生模型;
应用所述脸部仿生模型替换所述目标初始模型中的脸部模型。
2.根据权利要求1所述的方法,其特征在于,接收扫描获得的真实脸部数据,基于所述真实脸部数据生成脸部仿生模型的步骤,包括:
响应针对于3D仿生成像接口的扫描启动操作,启动所述3D仿生成像接口连接的摄像头;
通过所述摄像头扫描的真实脸部,得到真实脸部数据;
基于所述真实脸部数据生成脸部仿生模型。
3.根据权利要求1所述的方法,其特征在于,应用所述脸部仿生模型替换所述目标初始模型中的脸部模型的步骤,包括:
确定所述脸部仿生模型包括的面部参数;
应用所述面部参数替换所述目标初始模型中的脸部模型的面部参数。
4.根据权利要求1所述的方法,其特征在于,应用所述脸部仿生模型替换所述目标初始模型中的脸部模型的步骤之后,所述方法还包括:
响应针对于所述脸部仿生模型的脸部调整操作,调整所述脸部仿生模型的参数。
5.根据权利要求4所述的方法,其特征在于,调整所述脸部仿生模型的参数的步骤,包括:
通过所述脸部仿生模型对应的调整控件调整所述脸部仿生模型中脸部区域的参数。
6.根据权利要求1所述的方法,其特征在于,应用所述脸部仿生模型替换所述目标初始模型中的脸部模型的步骤之后,所述方法还包括:
响应针对于装饰搭配控件的装饰搭配调整操作,调整所述目标初始模型中的装饰搭配部件。
7.根据权利要求1所述的方法,其特征在于,应用所述脸部仿生模型替换所述目标初始模型中的脸部模型的步骤之后,所述方法还包括:
响应针对所述脸部仿生模型的表情调整操作,调整所述脸部仿生模型的表情。
8.根据权利要求7所述的方法,其特征在于,响应针对所述脸部仿生模型的表情调整操作,调整所述脸部仿生模型的表情的步骤,包括:
响应针对所述脸部仿生模型的表情调整操作,从所述脸部仿生模型的表情模型数据库中确定所述表情调整操作对应的目标表情;
应用所述目标表情包括的参数替换所述脸部仿生模型中的表情的参数。
9.根据权利要求7所述的方法,其特征在于,所述方法还包括:
响应针对于表情采集接口的表情采集操作,采集真实脸部表情;
基于所述真实脸部表情构建表情;
为构建的所述表情添加表情标签。
10.根据权利要求8所述的方法,其特征在于,从所述脸部仿生模型的表情模型数据库中确定所述表情调整操作对应的目标表情的步骤,包括:
确定所述表情调整操作对应的目标表情标签;
将所述目标初始模型的表情模型数据库中查找所述目标表情标签对应的目标表情。
11.一种虚拟角色捏脸装置,其特征在于,所述装置包括:
目标初始模型确定模块,用于响应模型选择操作,从初始模型库中确定目标初始模型;
脸部仿生模型生成模块,用于接收扫描获得的真实脸部数据,基于所述真实脸部数据生成脸部仿生模型;
脸部仿生模型替换模块,用于应用所述脸部仿生模型替换所述目标初始模型中的脸部模型。
12.一种终端设备,其特征在于,包括处理器和存储器,所述存储器存储有能够被所述处理器执行的计算机可执行指令,所述处理器执行所述计算机可执行指令以实现权利要求1-10任一项所述的虚拟角色捏脸方法的步骤。
13.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机可执行指令,所述计算机可执行指令在被处理器调用和执行时,所述计算机可执行指令促使处理器实现权利要求1-10任一项所述的虚拟角色捏脸方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010594391.XA CN111739155A (zh) | 2020-06-24 | 2020-06-24 | 虚拟角色捏脸方法、装置和终端设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010594391.XA CN111739155A (zh) | 2020-06-24 | 2020-06-24 | 虚拟角色捏脸方法、装置和终端设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111739155A true CN111739155A (zh) | 2020-10-02 |
Family
ID=72651248
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010594391.XA Pending CN111739155A (zh) | 2020-06-24 | 2020-06-24 | 虚拟角色捏脸方法、装置和终端设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111739155A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113052962A (zh) * | 2021-04-02 | 2021-06-29 | 北京百度网讯科技有限公司 | 模型训练、信息输出方法,装置,设备以及存储介质 |
CN113332726A (zh) * | 2021-06-11 | 2021-09-03 | 网易(杭州)网络有限公司 | 虚拟角色的处理方法、装置、电子设备和存储介质 |
WO2022143354A1 (zh) * | 2020-12-29 | 2022-07-07 | 百果园技术(新加坡)有限公司 | 虚拟对象的脸部生成方法、装置、设备和可读存储介质 |
TWI792845B (zh) * | 2021-03-09 | 2023-02-11 | 香港商數字王國企業集團有限公司 | 追蹤臉部表情的動畫產生方法及其神經網路訓練方法 |
EP4152138A1 (en) * | 2021-09-16 | 2023-03-22 | Beijing Baidu Netcom Science Technology Co., Ltd. | Method and apparatus for adjusting virtual face model, electronic device and storage medium |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20180097915A (ko) * | 2017-02-24 | 2018-09-03 | 트라이큐빅스 인크. | 개인 맞춤형 3차원 얼굴 모델 생성 방법 및 그 장치 |
CN109410298A (zh) * | 2018-11-02 | 2019-03-01 | 北京恒信彩虹科技有限公司 | 一种虚拟模型的制作方法及表情变化方法 |
CN109523604A (zh) * | 2018-11-14 | 2019-03-26 | 珠海金山网络游戏科技有限公司 | 一种虚拟脸型生成方法、装置、电子设备以及存储介质 |
CN110263617A (zh) * | 2019-04-30 | 2019-09-20 | 北京永航科技有限公司 | 三维人脸模型获取方法及装置 |
CN110738732A (zh) * | 2019-10-24 | 2020-01-31 | 重庆灵翎互娱科技有限公司 | 一种三维人脸模型的生成方法和设备 |
-
2020
- 2020-06-24 CN CN202010594391.XA patent/CN111739155A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20180097915A (ko) * | 2017-02-24 | 2018-09-03 | 트라이큐빅스 인크. | 개인 맞춤형 3차원 얼굴 모델 생성 방법 및 그 장치 |
CN109410298A (zh) * | 2018-11-02 | 2019-03-01 | 北京恒信彩虹科技有限公司 | 一种虚拟模型的制作方法及表情变化方法 |
CN109523604A (zh) * | 2018-11-14 | 2019-03-26 | 珠海金山网络游戏科技有限公司 | 一种虚拟脸型生成方法、装置、电子设备以及存储介质 |
CN110263617A (zh) * | 2019-04-30 | 2019-09-20 | 北京永航科技有限公司 | 三维人脸模型获取方法及装置 |
CN110738732A (zh) * | 2019-10-24 | 2020-01-31 | 重庆灵翎互娱科技有限公司 | 一种三维人脸模型的生成方法和设备 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022143354A1 (zh) * | 2020-12-29 | 2022-07-07 | 百果园技术(新加坡)有限公司 | 虚拟对象的脸部生成方法、装置、设备和可读存储介质 |
TWI792845B (zh) * | 2021-03-09 | 2023-02-11 | 香港商數字王國企業集團有限公司 | 追蹤臉部表情的動畫產生方法及其神經網路訓練方法 |
US11954779B2 (en) | 2021-03-09 | 2024-04-09 | Digital Domain Enterprises Group Limited | Animation generation method for tracking facial expression and neural network training method thereof |
CN113052962A (zh) * | 2021-04-02 | 2021-06-29 | 北京百度网讯科技有限公司 | 模型训练、信息输出方法,装置,设备以及存储介质 |
CN113332726A (zh) * | 2021-06-11 | 2021-09-03 | 网易(杭州)网络有限公司 | 虚拟角色的处理方法、装置、电子设备和存储介质 |
EP4152138A1 (en) * | 2021-09-16 | 2023-03-22 | Beijing Baidu Netcom Science Technology Co., Ltd. | Method and apparatus for adjusting virtual face model, electronic device and storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111739155A (zh) | 虚拟角色捏脸方法、装置和终端设备 | |
KR102416558B1 (ko) | 영상 데이터 처리 방법, 장치 및 판독 가능 저장 매체 | |
US10540757B1 (en) | Method and system for generating combined images utilizing image processing of multiple images | |
CN110110118B (zh) | 妆容推荐方法、装置、存储介质及移动终端 | |
US9734613B2 (en) | Apparatus and method for generating facial composite image, recording medium for performing the method | |
CN100468463C (zh) | 用于处理图像的方法、装置 | |
CN109934197A (zh) | 人脸识别模型的训练方法、装置和计算机可读存储介质 | |
CN110021061A (zh) | 搭配模型构建方法、服饰推荐方法、装置、介质及终端 | |
CN109977739A (zh) | 图像处理方法、装置、存储介质及电子设备 | |
CN111368796B (zh) | 人脸图像的处理方法、装置、电子设备及存储介质 | |
CN106713811B (zh) | 视频通话方法和装置 | |
CN110020578A (zh) | 图像处理方法、装置、存储介质及电子设备 | |
EP4207080A1 (en) | Avatar generation method, apparatus and device, and medium | |
CN111986076A (zh) | 图像处理方法及装置、互动式展示装置和电子设备 | |
CN108182232A (zh) | 基于电子书的人物展示方法、电子设备及计算机存储介质 | |
CN114007099A (zh) | 一种视频处理方法、装置和用于视频处理的装置 | |
CN114266695A (zh) | 图像处理方法、图像处理系统及电子设备 | |
CN113362263A (zh) | 变换虚拟偶像的形象的方法、设备、介质及程序产品 | |
EP4300431A1 (en) | Action processing method and apparatus for virtual object, and storage medium | |
US20220284678A1 (en) | Method and apparatus for processing face information and electronic device and storage medium | |
CN109523461A (zh) | 显示目标图像的方法、装置、终端及存储介质 | |
CN112150594B (zh) | 表情制作的方法、装置和电子设备 | |
CN105117399A (zh) | 一种图像搜索方法和装置 | |
WO2022257766A1 (zh) | 图像处理方法、装置、设备及介质 | |
KR20140124087A (ko) | 사용자 단말기를 이용한 개인 스타일 추천 시스템과 방법 및 그 방법을 컴퓨터로 실행시키기 위한 프로그램 코드를 저장한 기록매체 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |