CN113610981A - 脸部模型生成方法、交互方法及相关装置 - Google Patents
脸部模型生成方法、交互方法及相关装置 Download PDFInfo
- Publication number
- CN113610981A CN113610981A CN202110891920.7A CN202110891920A CN113610981A CN 113610981 A CN113610981 A CN 113610981A CN 202110891920 A CN202110891920 A CN 202110891920A CN 113610981 A CN113610981 A CN 113610981A
- Authority
- CN
- China
- Prior art keywords
- standard
- initial
- face model
- skeleton
- expression
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 55
- 230000003993 interaction Effects 0.000 title abstract description 17
- 230000014509 gene expression Effects 0.000 claims abstract description 101
- 210000000988 bone and bone Anatomy 0.000 claims abstract description 42
- 230000001815 facial effect Effects 0.000 claims abstract description 42
- 238000013519 translation Methods 0.000 claims description 17
- 238000006243 chemical reaction Methods 0.000 claims description 15
- 230000002452 interceptive effect Effects 0.000 claims description 15
- 238000004590 computer program Methods 0.000 claims description 10
- 238000012545 processing Methods 0.000 claims description 8
- 230000004044 response Effects 0.000 claims description 4
- 230000008859 change Effects 0.000 abstract description 24
- 238000004519 manufacturing process Methods 0.000 abstract description 5
- 238000010586 diagram Methods 0.000 description 16
- 238000004891 communication Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 238000006073 displacement reaction Methods 0.000 description 5
- 239000013598 vector Substances 0.000 description 5
- 238000012790 confirmation Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2016—Rotation, translation, scaling
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Geometry (AREA)
- Architecture (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明涉及虚拟建模技术领域,提供一种脸部模型生成方法、交互方法及相关装置。获取包含初始表情的基础脸部模型和包含标准表情的标准脸部模型,基础脸部模型包括具有绑定关系的初始骨骼和初始网格,标准脸部模型包括标准网格;然后根据初始网格、标准网格和绑定关系,得到骨骼变化量;再根据初始骨骼和骨骼变化量,得到目标脸部模型,目标脸部模型包含与标准表情匹配的目标表情。通过将网格的变化转换为骨骼的变化,从而可以实现脸部模型的表情绑定,可以快速且批量化的生成脸部模型,从而缩短了制作时间,可以实现为主播定制个性化的脸部模型。
Description
技术领域
本发明涉及虚拟建模技术领域,具体而言,涉及一种脸部模型生成方法、交互方法及相关装置。
背景技术
随着技术的飞速发展,虚拟模型在多个领域得到广泛的应用,如动画、游戏、直播等领域。为了增强与用户的互动性,可以为用户建立个性化的三维人脸虚拟模型。
相关技术中,三维人脸虚拟模型的表情变化通常可以通过表情基来实现,其存在精度低的问题。或者也有采用专业人员进行调整的方式,但是其操作繁琐,效率较低。
发明内容
有鉴于此,本发明的目的在于提供一种脸部模型生成方法、交互方法及相关装置。
为了实现上述目的,本发明实施例采用的技术方案如下:
第一方面,本发明提供一种脸部模型生成方法,所述方法包括:
获取基础脸部模型和标准脸部模型;所述基础脸部模型包括组成初始表情的初始骨骼和初始网格;所述初始骨骼与所述初始网格具有绑定关系;所述标准脸部模型包括组成标准表情的标准网格;
根据所述初始网格、所述标准网格和所述绑定关系,确定骨骼变化量;
根据所述初始骨骼和所述骨骼变化量,得到目标脸部模型;所述目标脸部模型包括与所述标准表情匹配的目标表情。
在可选的实施方式中,所述初始骨骼包括多个基础骨骼;所述初始网格包括多个基础顶点;每个所述基础顶点均与所述标准网格中的一个标准顶点对应;每个所述基础顶点均有初始坐标;每个所述标准顶点均有标准坐标;
所述根据所述初始网格、所述标准网格和所述绑定关系,确定骨骼变化量的步骤,包括:
根据所述绑定关系、全部初始坐标和全部标准坐标,确定每个所述基础骨骼的转换量;全部转换量为所述骨骼变化量;全部初始坐标与全部标准坐标满足预设条件。
在可选的实施方式中,所述转换量包括旋转分量和平移分量;所述预设条件为:
其中,B表示所述基础骨骼的总数量;V表示所述基础顶点的总数量;表示标准坐标;vi表示所述初始坐标;Rj表示第j个骨骼的旋转分量;Tj表示第j个骨骼的平移分量;wij表示第j个骨骼对第i个基础顶点的控制权重。
在可选的实施方式中,所述转换量包括旋转分量和平移分量;所述根据所述初始骨骼和所述骨骼变化量,得到目标脸部模型的步骤,包括:
根据每个所述基础骨骼的转换量中的所述旋转分量,得到每个所述基础骨骼的旋转角;
根据每个所述基础骨骼的旋转角和所述平移分量,对所述基础脸部模型中的每个所述基础骨骼进行调整,得到所述目标脸部模型。
第二方面,本发明提供一种交互方法,所述方法包括:
响应用户在获取界面的交互操作,获得所述用户的标准脸部模型;所述标准脸部模型包括组成标准表情的标准网格;
根据所述标准脸部模型和基础脸部模型,获得所述用户的目标脸部模型;所述基础脸部模型包括组成初始表情的初始骨骼和初始网格;所述初始骨骼与所述初始网格具有绑定关系;
在展示界面显示所述用户的目标脸部模型;所述目标脸部模型包括与所述标准表情匹配的目标表情。
在可选的实施方式中,所述根据所述标准脸部模型和基础脸部模型,获得所述用户的目标脸部模型的步骤,包括:
根据所述初始网格、所述标准网格和所述绑定关系,确定骨骼变化量;
根据所述初始骨骼和所述骨骼变化量,得到目标脸部模型。
第三方面,本发明提供一种脸部模型生成装置,所述装置包括:
获取模块,用于获取基础脸部模型和标准脸部模型;所述基础脸部模型包括组成初始表情的初始骨骼和初始网格;所述初始骨骼与所述初始网格具有绑定关系;所述标准脸部模型包括组成标准表情的标准网格;
处理模块,用于根据所述初始网格、所述标准网格和所述绑定关系,确定骨骼变化量;
调整模块,用于根据所述初始骨骼和所述骨骼变化量,得到目标脸部模型;所述目标脸部模型包括与所述标准表情匹配的目标表情。
第四方面,本发明提供一种交互装置,所述装置包括:
响应模块,用于响应用户在获取界面的交互操作,获得所述用户的标准脸部模型;所述标准脸部模型包括组成标准表情的标准网格;
生成模块,用于根据所述标准脸部模型和基础脸部模型,获得所述用户的目标脸部模型;所述基础脸部模型包括组成初始表情的初始骨骼和初始网格;所述初始骨骼与所述初始网格具有绑定关系;
显示模块,用于在展示界面显示所述用户的目标脸部模型;所述目标脸部模型包括与所述标准表情匹配的目标表情。
第五方面,本发明提供一种电子设备,包括处理器和存储器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时,实现前述实施方式中任一项所述的方法。
第六方面,本发明提供一种存储介质,所述存储介质上存储有计算机程序,该计算机程序被处理器执行时,实现前述实施方式中任一项所述的方法。
本发明实施例提供的脸部模型生成方法、交互方法及相关装置,通过获取包含初始表情的基础脸部模型和包含标准表情的标准脸部模型,基础脸部模型包括初始骨骼和初始网格,初始骨骼和初始网格具有绑定关系,标准脸部模型包括标准网格;然后根据初始网格、标准网格和绑定关系,得到骨骼变化量;再根据初始骨骼和骨骼变化量,得到目标脸部模型,目标脸部模型包含与标准表情匹配的目标表情。通过将网格的变化转换为骨骼的变化,从而可以实现脸部模型的表情绑定,可以快速且批量化的生成脸部模型,从而缩短了制作时间,可以实现为主播定制个性化的脸部模型。
为使本发明的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1示出了本发明实施例提供的电子设备方框示意图;
图2示出了本发明实施例提供的脸部模型生成方法的一种流程示意图;
图3示出了本发明实施例提供的脸部模型生成方法的又一种流程示意图;
图4示出了本发明实施例提供的脸部模型生成方法的一个示例图;
图5示出了本发明实施例提供的脸部模型生成方法的又一种流程示意图;
图6示出了本发明实施例提供的交互方法的一种流程示意图;
图7示出了本发明实施例提供的交互方法的一个示例图;
图8示出了本发明实施例提供的脸部模型生成装置的一种功能模块图;
图9示出了本发明实施例提供的交互装置的一种功能模块图。
图标:100-电子设备;110-总线;120-处理器;130-存储器;170-通信接口;300-脸部模型生成装置;310-获取模块;330-处理模块;350-调整模块;400-交互装置;410-响应模块;430-生成模块;450-显示模块。
具体实施方式
下面将结合本发明实施例中附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。
因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,术语“第一”和“第二”等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
在直播领域中,可以采用虚拟形象来协助主播进行直播。三维的虚拟形象具有立体生动的特点,可以建立主播的三维人脸虚拟模型,与观众进行互动,来提高直播间内娱乐性和趣味性。
在相关技术中,实现三维人脸虚拟模型的表情变化通常有两种实现方式。一种是表情基绑定,其是通过设置一些基础表情,将基础表情进行线性组合之后得到完整的表情。但是这种方式受限于表情基的数量,所以其得到的表情精度交底,表情表达能力较弱。另一种是专业人员进行操作绑定,其是基于一套脸部骨骼,通过调整骨骼的尺寸和位置来适配不同的表情,其操作过程繁琐,且制作周期较长,生成效率较低。进而,本发明实施例提出了一种脸部模型生成方法,下面将进行介绍。
请参照图1,是本发明实施例提供的一种电子设备100的方框示意图。电子设备100包括总线110、处理器120、存储器130、通信接口170。
总线110可以是将上述元件相互连接并在上述元件之间传递通信(例如控制消息)的电路。
处理器120可以通过总线110从上述其它元件(例如存储器130、通信接口170等)接收命令,可以解释接收到的命令,并可以根据所解释的命令来执行计算或数据处理。
处理器120可能是一种集成电路芯片,具有信号处理能力。该处理器120可以是通用处理器,包括中央处理器(Central Processing Unit,CPU)、网络处理器(NetworkProcessor,NP)等;还可以是数字信号处理器(DSP)、专用集成电路(ASIC)、现成可编程门阵列(FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
存储器130可以存储从处理器120或其它元件(例如通信接口170等)接收的命令或数据或者由处理器120或其它元件产生的命令或数据。
存储器130可以是但不限于,随机存取存储器(Random Access Memory,RAM),只读存储器(Read Only Memory,ROM),可编程只读存储器(Programmable Read-Only Memory,PROM),可擦除只读存储器(Erasable Programmable Read-Only Memory,EPROM),电可擦除只读存储器(Electric Erasable Programmable Read-Only Memory,EEPROM)等。
通信接口170可用于与其他节点设备进行信令或数据的通信。
可以理解的是,图1所示的结构仅为电子设备100的结构示意图,电子设备100还可包括比图1中所示更多或者更少的组件,或者具有与图1所示不同的配置。图1中所示的各组件可以采用硬件、软件或其组合实现。
下面将以上述的电子设备100作为执行主体,执行本发明实施例提供的各个方法中的各个步骤,并实现对应技术效果。
请参阅图2,图2是本发明实施例提供的一种脸部模型生成方法的流程示意图。
步骤S202,获取基础脸部模型和标准脸部模型;
可以理解的是,脸部模型是指三维虚拟人物中的脸部或者头部的模型。脸部模型通常包括骨骼和网格,骨骼是用于搭建支撑三维虚拟人物的骨架。网格也称为蒙皮网格是绑定在各个骨骼之间的多边形网格。
基础脸部模型包括骨骼和网格,其具有初始表情,该初始表情由初始骨骼和初始网格组成,初始骨骼与初始网格具有绑定关系。
标准脸部模型仅包括网格,其具有标准表情,该标准表情由标准网格组成。
可选地,可以通过线性混合蒙皮(Linear Blending Skinning,LBS蒙皮)得到基础脸部模型。
可以基于多张人脸图像建立标准脸部模型,这多张人脸图像为同一人物在多个视角下得到的人脸图像,基于多张人脸图像采用三维多视角立体视觉算法(MVS算法),可以重建出与该人物匹配的三维虚拟脸部模型,再对该三维虚拟脸部模型进行统一拓扑调整,可以得到标准脸部模型。
步骤S204,根据初始网格、标准网格和绑定关系,确定骨骼变化量;
可以理解的是,脸部模型的表情变化,是由其网格的变换呈现出来的表情变化。根据标准脸部模型的标准网格,可以变化初始网格,使基础脸部模型的表情与标准脸部模型的表情一致。
可选地,可以根据初始网格与标准网格之间的差异,确定基础脸部模型中网格的变化,再根据初始网格和初始骨骼的绑定关系,得到基础脸部模型中骨骼的变化即骨骼变化量。
步骤S206,根据初始骨骼和骨骼变化量,得到目标脸部模型;
可选地,可根据初始骨骼和骨骼变化量后,对基础脸部模型中的骨骼进行调整,使网格发生变换,得到目标脸部模型,该目标脸部模型的表情即为目标表情,该目标表情与标准表情匹配。
可见基于上述设计,通过获取包含初始表情的基础脸部模型和包含标准表情的标准脸部模型,基础脸部模型包括初始骨骼和初始网格,初始骨骼和初始网格具有绑定关系,标准脸部模型包括标准网格;然后根据初始网格、标准网格和绑定关系,得到骨骼变化量;再根据初始骨骼和骨骼变化量,得到目标脸部模型,目标脸部模型包含与标准表情匹配的目标表情。通过将网格的变化转换为骨骼的变化,从而可以实现脸部模型的表情绑定,可以快速且批量化的生成脸部模型,从而缩短了制作时间,可以实现为主播定制个性化的脸部模型。
针对上述步骤S204,本发明实施例提供了一种可能的实现方式。请参阅图3。其中,步骤S204可以包括以下步骤:
步骤S204A,根据绑定关系、全部初始坐标和全部标准坐标,确定每个基础骨骼的转换量;
可以理解的是,网格可以有多个网格顶点组成,这多个网格顶点的空间位置可以体现脸部模型的表情。
基础脸部模型包括多个基础顶点,每个基础顶点均有一个坐标即基础坐标。标准脸部模型中包括多个标准顶点,每个标准顶点均有一个坐标即标准坐标。
为了使生成的脸部模型效果更好,可以采用与基础脸部模型具有相同拓扑结构的标准脸部模型。相同拓扑结构表示,基础脸部模型的网格顶点的总个数与标准脸部模型的网格顶点的总个数相同。即每一个基础顶点均有一个对应的标准顶点。
基础脸部模型包括多个基础骨骼,每个基础骨骼至少与一个基础顶点具有绑定关系,即当基础骨骼的位置发生变化时会带动其绑定的基础顶点的发生位移变化。基础骨骼的位置变化可以用旋转分量R和平移分量T表示。
一个基础骨骼可能绑定多个基础顶点,一个基础顶点可能受多个基础骨骼控制,每个基础骨骼的位置变化对该基础顶点的位移的影响可以用控制权重w表示,控制权重也可以称为蒙皮权重。
为了便于更好的理解本发明,请参阅图4,是本发明实施例提供的一个示例图,下面将结合该图进行介绍。
其中,(a1)表示基础脸部模型,其初始表情为默认的五官特征,(b1)表示标准脸部模型,其标准表情为左眼程眯眼状态的表情。
可以理解的是,基础脸部模型包括初始骨骼和初始网格,为了便于理解,本发明实施例给出了还未绑定初始骨骼的基础脸部模型,即(a0)所示的初始脸部模型,该初始脸部模型仅包括初始网格。基于(a0)和(b1),其展示基础脸部模型的表情与标准脸部模型的表情不同。
可选地,基础脸部模型中每个基础顶点均有一个基础坐标,标准脸部模型中每个标准顶点均有一个标准坐标。可以预先设置条件,该预设条件用于约束全部基础坐标与全部标准坐标。
该预设条件表示每个基础骨骼的位置变化,与每个基础顶点的位移之间的关系。即表示当每个基础骨骼的位置发生变化时,使每个基础顶点的基础坐标变化为其对应的标准顶点,在该预设条件下可以使基础脸部模型具有与标准表情相同的表情。
进而,本发明实施例提供了一种预设条件,该预设条件为:
其中,B表示基础脸部模型中基础骨骼的总数量,V表示基础脸部模型中基础顶点的总数量;vi表示第i个基础顶点的初始坐标;表示第i个标准顶点的标准坐标;Rj表示第j个骨骼的旋转分量;Tj表示第j个骨骼的平移分量;wij表示第j个骨骼对第i个基础顶点的控制权重;该控制权重为预先设置的。
可选地,初始坐标可以用3*1的向量表示;标准坐标可以用3*1的向量表示;平移分量可以用3*1的向量表示;旋转分量可以用3*3的矩阵表示。
根据该预设条件,进行求解,基于该最优解可以得到每个骨骼的位置变化即转换量,基于全部的转换量,对基础脸部模型中的骨骼进行位置调整,可以得到目标脸部模型,如图4中(a3)所示,该目标脸部模型的表情与标准表情匹配。
基于上述步骤,通过预先设置条件,当全部初始坐标与全部标准坐标满足预设条件,可以基于绑定关系、全部初始坐标和全部标准坐标,确定每个基础骨骼的转换量,基于全部转换量对基础脸部模型进行调整,得到的目标脸部模型具有与标准表情匹配的目标表情。基于预设条件,得到每个骨骼的位置变化,从而通过骨骼的位置变化带动网格顶点发生位移变化,使脸部模型的表情发生变化,可以提高表情的变化精度,提高目标表情与标准表情的匹配度。
针对上述步骤S206,本发明实施例提供了一种可能的实现方式。请参阅图5。其中,步骤S206可以包括以下步骤:
步骤S206A-1,根据每个基础骨骼的转换量中的旋转分量,得到每个基础骨骼的旋转角;
步骤S206A-3,根据每个基础骨骼的旋转角和平移分量,对基础脸部模型中的每个基础骨骼进行调整,得到目标脸部模型;
可以理解的是,脸部模型为三维模型,每个骨骼的旋转分量为3*3的旋转矩阵,基于旋转矩阵的正交属性,可以将旋转分量转换为3个3*1的向量,每个向量表示一个维度上的旋转角,则得到三个旋转角。
可选地,根据每个骨骼的旋转角和平移分量,对基础脸部模型中的每个骨骼进行调整,使其空间位置发生变化,从而带动该骨骼对应的网格顶点位移变化,得到目标脸部模型。
在上述实施例中提到,可以基于上述的脸部模型生成方法,为主播建立三维人脸虚拟模型,用于与观众进行互动。进而,本发明实施例提供一种交互的可能实现方式。请参阅图6,是本发明实施例提供的一种交互方法的流程示意图。
步骤S212,响应用户在获取界面的交互操作,获得用户的标准脸部模型;
其中,标准脸部模型包括组成标准表情的标准网格。
步骤S214,根据标准脸部模型和基础脸部模型,获得用户的目标脸部模型;其中,基础脸部模型包括组成初始表情的初始骨骼和初始网格;初始骨骼与初始网络具有绑定关系。
步骤S216,在展示界面显示用户的目标脸部模型;
其中,目标脸部模型包括与标准表情匹配的目标表情。
为了更好的理解上述步骤,请参阅图7,是本发明实施例提供的一个示例图。其中的(d1)表示获取界面,该获取界面包括提示区域、信息获取区域和确认区域。提示区域用于向用户显示该交互功能操作步骤等信息。
当检测到用户在信息获取区域的交互操作时,响应该交互操作,如调用该电子设备的本地存储相册,以获取到多张包含人脸的图像;或者调用该电子设备的拍摄功能,以获取到包含人脸的视频,或者多张包含人脸的图像。
然后在确认区域检测到交互操作时,基于信息获取区域得到的图像或者视频,采用人脸模型重构算法,获取到用户的标准脸部模型。可以基于该标准脸部模型和设定的基础脸部模型,得到用户的目标脸部模型。
可选地,可以根据初始网络、表征网络和绑定关系,确定出骨骼变化量,再根据初始骨骼和骨骼变化量,得到目标脸部模型。即可以执行上述示例中的步骤S202、步骤S204或者S204A、步骤S206或者步骤S206A-1和S206A-3,以得到目标脸部模型。
然后显示图7中的(d2),其表示展示界面,该展示以界面包括形象展示区域和选择区域。在得到目标脸部模型后,在形象展示区域显示该目标脸部模型。用户可以在选择区域进行操作,以选择是否存储此次生成的目标脸部模型。当检测到用户在“保存”按钮的确认操作时,则存储该目标脸部模型;当检测到用户在“取消”按钮的确认操作时,则不存储该目标脸部模型,可以显示(d1)的界面,以使用户可以重新操作。
为了执行上述实施例及各个可能的方式中的相应步骤,下面给出一种脸部模型生成装置的实现方式。请参阅图8,图8为本发明实施例提供的一种脸部模型生成装置300的功能模块图。需要说明的是,本实施例所提供的脸部模型生成装置300,其基本原理及产生的技术效果和上述实施例相同,为简要描述,本实施例部分未提及之处,可参考上述的实施例中相应内容。该脸部模型生成装置300包括:
获取模块310,用于获取基础脸部模型和标准脸部模型;基础脸部模型包括组成初始表情的初始骨骼和初始网格;初始骨骼与初始网格具有绑定关系;标准脸部模型包括组成标准表情的标准网格;
处理模块330,用于根据初始网格、标准网格和绑定关系,确定骨骼变化量;
调整模块350,用于根据初始骨骼和骨骼变化量,得到目标脸部模型;目标脸部模型包括与标准表情匹配的目标表情。
可选地,处理模块330还用于:根据绑定关系、全部初始坐标和全部标准坐标,确定每个基础骨骼的转换量;全部转换量为骨骼变化量;全部初始坐标与全部标准坐标满足预设条件。
可选地,调整模块350还用于:根据每个基础骨骼的转换量中的旋转分量,得到每个基础骨骼的旋转角;
根据每个基础骨骼的旋转角和平移分量,对基础脸部模型中的每个基础骨骼进行调整,得到目标脸部模型。
为了执行上述实施例及各个可能的方式中的相应步骤,下面给出一种脸部模型生成装置的实现方式。请参阅图9,图9为本发明实施例提供的一种交互装置400的功能模块图。需要说明的是,本实施例所提供的交互装置400,其基本原理及产生的技术效果和上述实施例相同,为简要描述,本实施例部分未提及之处,可参考上述的实施例中相应内容。该交互装置400包括:
响应模块410,用于响应用户在获取界面的交互操作,获得用户的标准脸部模型;标准脸部模型包括组成标准表情的标准网格;
生成模块430,用于根据标准脸部模型和基础脸部模型,获得用户的目标脸部模型;基础脸部模型包括组成初始表情的初始骨骼和初始网格;初始骨骼与初始网格具有绑定关系;
显示模块450,用于在展示界面显示用户的目标脸部模型;目标脸部模型包括与标准表情匹配的目标表情。
本发明实施例还提供了一种电子设备,包括处理器120和存储器130,存储器130存储有计算机程序,处理器执行计算机程序时,实现上述实施例揭示的脸部模型生成方法和交互方法。
本发明实施例还提供了一种存储介质,其上存储有计算机程序,该计算机程序被处理器120执行时实现本发明实施例揭示的脸部模型生成方法和交互方法。
综上所述,本发明实施例提供了一种脸部模型生成方法、交互方法及相关装置。通过获取包含初始表情的基础脸部模型和包含标准表情的标准脸部模型,基础脸部模型包括初始骨骼和初始网格,初始骨骼和初始网格具有绑定关系,标准脸部模型包括标准网格;然后根据初始网格、标准网格和绑定关系,得到骨骼变化量;再根据初始骨骼和骨骼变化量,得到目标脸部模型,目标脸部模型包含与标准表情匹配的目标表情。通过将网格的变化转换为骨骼的变化,从而可以实现脸部模型的表情绑定,可以快速且批量化的生成脸部模型,从而缩短了制作时间,可以实现为主播定制个性化的脸部模型。
在本发明所提供的几个实施例中,应该理解到,所揭露的装置和方法,也可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,附图中的流程图和框图显示了根据本发明的多个实施例的装置、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现方式中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
另外,在本发明各个实施例中的各功能模块可以集成在一起形成一个独立的部分,也可以是各个模块单独存在,也可以两个或两个以上模块集成形成一个独立的部分。
所述功能如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种脸部模型生成方法,其特征在于,所述方法包括:
获取基础脸部模型和标准脸部模型;所述基础脸部模型包括组成初始表情的初始骨骼和初始网格;所述初始骨骼与所述初始网格具有绑定关系;所述标准脸部模型包括组成标准表情的标准网格;
根据所述初始网格、所述标准网格和所述绑定关系,确定骨骼变化量;
根据所述初始骨骼和所述骨骼变化量,得到目标脸部模型;所述目标脸部模型包括与所述标准表情匹配的目标表情。
2.根据权利要求1所述的方法,其特征在于,所述初始骨骼包括多个基础骨骼;所述初始网格包括多个基础顶点;每个所述基础顶点均与所述标准网格中的一个标准顶点对应;每个所述基础顶点均有初始坐标;每个所述标准顶点均有标准坐标;
所述根据所述初始网格、所述标准网格和所述绑定关系,确定骨骼变化量的步骤,包括:
根据所述绑定关系、全部初始坐标和全部标准坐标,确定每个所述基础骨骼的转换量;全部转换量为所述骨骼变化量;全部初始坐标与全部标准坐标满足预设条件。
4.根据权利要求2所述的方法,其特征在于,所述转换量包括旋转分量和平移分量;所述根据所述初始骨骼和所述骨骼变化量,得到目标脸部模型的步骤,包括:
根据每个所述基础骨骼的转换量中的所述旋转分量,得到每个所述基础骨骼的旋转角;
根据每个所述基础骨骼的旋转角和所述平移分量,对所述基础脸部模型中的每个所述基础骨骼进行调整,得到所述目标脸部模型。
5.一种交互方法,其特征在于,所述方法包括:
响应用户在获取界面的交互操作,获得所述用户的标准脸部模型;所述标准脸部模型包括组成标准表情的标准网格;
根据所述标准脸部模型和基础脸部模型,获得所述用户的目标脸部模型;所述基础脸部模型包括组成初始表情的初始骨骼和初始网格;所述初始骨骼与所述初始网格具有绑定关系;
在展示界面显示所述用户的目标脸部模型;所述目标脸部模型包括与所述标准表情匹配的目标表情。
6.根据权利要求5所述的方法,其特征在于,所述根据所述标准脸部模型和基础脸部模型,获得所述用户的目标脸部模型的步骤,包括:
根据所述初始网格、所述标准网格和所述绑定关系,确定骨骼变化量;
根据所述初始骨骼和所述骨骼变化量,得到目标脸部模型。
7.一种脸部模型生成装置,其特征在于,所述装置包括:
获取模块,用于获取基础脸部模型和标准脸部模型;所述基础脸部模型包括组成初始表情的初始骨骼和初始网格;所述初始骨骼与所述初始网格具有绑定关系;所述标准脸部模型包括组成标准表情的标准网格;
处理模块,用于根据所述初始网格、所述标准网格和所述绑定关系,确定骨骼变化量;
调整模块,用于根据所述初始骨骼和所述骨骼变化量,得到目标脸部模型;所述目标脸部模型包括与所述标准表情匹配的目标表情。
8.一种交互装置,其特征在于,所述装置包括:
响应模块,用于响应用户在获取界面的交互操作,获得所述用户的标准脸部模型;所述标准脸部模型包括组成标准表情的标准网格;
生成模块,用于根据所述标准脸部模型和基础脸部模型,获得所述用户的目标脸部模型;所述基础脸部模型包括组成初始表情的初始骨骼和初始网格;所述初始骨骼与所述初始网格具有绑定关系;
显示模块,用于在展示界面显示所述用户的目标脸部模型;所述目标脸部模型包括与所述标准表情匹配的目标表情。
9.一种电子设备,其特征在于,包括处理器和存储器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时,实现权利要求1至6中任一项所述的方法。
10.一种存储介质,其特征在于,所述存储介质上存储有计算机程序,该计算机程序被处理器执行时,实现权利要求1至6中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110891920.7A CN113610981A (zh) | 2021-08-04 | 2021-08-04 | 脸部模型生成方法、交互方法及相关装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110891920.7A CN113610981A (zh) | 2021-08-04 | 2021-08-04 | 脸部模型生成方法、交互方法及相关装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113610981A true CN113610981A (zh) | 2021-11-05 |
Family
ID=78306823
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110891920.7A Pending CN113610981A (zh) | 2021-08-04 | 2021-08-04 | 脸部模型生成方法、交互方法及相关装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113610981A (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114723890A (zh) * | 2022-04-12 | 2022-07-08 | 北京字跳网络技术有限公司 | 虚拟对象的生成方法、装置、可读介质和电子设备 |
CN114842155A (zh) * | 2022-07-04 | 2022-08-02 | 埃瑞巴蒂成都科技有限公司 | 一种高精度自动骨骼绑定方法 |
CN115393532A (zh) * | 2022-10-27 | 2022-11-25 | 科大讯飞股份有限公司 | 脸部绑定方法、装置、设备及存储介质 |
CN115578493A (zh) * | 2022-10-20 | 2023-01-06 | 武汉两点十分文化传播有限公司 | 一种Maya表情编码方法及其系统 |
CN116883624A (zh) * | 2023-09-07 | 2023-10-13 | 海马云(天津)信息技术有限公司 | 骨骼快速绑定方法和装置、电子设备及存储介质 |
CN116912433A (zh) * | 2023-09-15 | 2023-10-20 | 摩尔线程智能科技(北京)有限责任公司 | 三维模型骨骼绑定方法、装置、设备及存储介质 |
CN117152382A (zh) * | 2023-10-30 | 2023-12-01 | 海马云(天津)信息技术有限公司 | 虚拟数字人面部表情计算方法和装置 |
-
2021
- 2021-08-04 CN CN202110891920.7A patent/CN113610981A/zh active Pending
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114723890A (zh) * | 2022-04-12 | 2022-07-08 | 北京字跳网络技术有限公司 | 虚拟对象的生成方法、装置、可读介质和电子设备 |
CN114842155A (zh) * | 2022-07-04 | 2022-08-02 | 埃瑞巴蒂成都科技有限公司 | 一种高精度自动骨骼绑定方法 |
CN115578493A (zh) * | 2022-10-20 | 2023-01-06 | 武汉两点十分文化传播有限公司 | 一种Maya表情编码方法及其系统 |
CN115578493B (zh) * | 2022-10-20 | 2023-05-30 | 武汉两点十分文化传播有限公司 | 一种Maya表情编码方法及其系统 |
CN115393532A (zh) * | 2022-10-27 | 2022-11-25 | 科大讯飞股份有限公司 | 脸部绑定方法、装置、设备及存储介质 |
CN116883624A (zh) * | 2023-09-07 | 2023-10-13 | 海马云(天津)信息技术有限公司 | 骨骼快速绑定方法和装置、电子设备及存储介质 |
CN116883624B (zh) * | 2023-09-07 | 2023-11-21 | 海马云(天津)信息技术有限公司 | 骨骼快速绑定方法和装置、电子设备及存储介质 |
CN116912433A (zh) * | 2023-09-15 | 2023-10-20 | 摩尔线程智能科技(北京)有限责任公司 | 三维模型骨骼绑定方法、装置、设备及存储介质 |
CN116912433B (zh) * | 2023-09-15 | 2023-12-19 | 摩尔线程智能科技(北京)有限责任公司 | 三维模型骨骼绑定方法、装置、设备及存储介质 |
CN117152382A (zh) * | 2023-10-30 | 2023-12-01 | 海马云(天津)信息技术有限公司 | 虚拟数字人面部表情计算方法和装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113610981A (zh) | 脸部模型生成方法、交互方法及相关装置 | |
CN109448099B (zh) | 画面的渲染方法、装置、存储介质及电子装置 | |
US9420253B2 (en) | Presenting realistic designs of spaces and objects | |
CN108470379B (zh) | 三维图像融合方法和装置 | |
KR101636027B1 (ko) | 실세계 객체들의 3d 모델들 및 실제 스케일 메타데이터를 캡처하고 이동시키기 위한 방법들 및 시스템들 | |
EP1004988B1 (en) | Method, apparatus and computer program product for generating perspective corrected data from warped information | |
US8493380B2 (en) | Method and system for constructing virtual space | |
KR20210151114A (ko) | 하이브리드 렌더링 | |
CN110176197B (zh) | 一种全息化展示方法、系统、存储介质及设备 | |
US9754398B1 (en) | Animation curve reduction for mobile application user interface objects | |
JP2022141937A (ja) | 任意ビューの生成 | |
CN108960947A (zh) | 基于虚拟现实的样板房展示方法及系统 | |
CN110689626A (zh) | 游戏模型渲染方法和装置 | |
CN114047824A (zh) | 多终端用户在虚拟空间交互的方法 | |
CN113989468A (zh) | 一种全景漫游的生成方法、装置及计算机设备 | |
JP2023172893A (ja) | 対象物の双方向な三次元表現の制御方法、制御装置及び記録媒体 | |
KR20190061783A (ko) | 가상현실 콘텐츠 생성방법 및 프로그램 | |
CN111028362A (zh) | 图像显示、标注处理、图像处理方法和装置、存储介质 | |
Weber et al. | Editable indoor lighting estimation | |
CN114452646A (zh) | 虚拟对象透视处理方法、装置及计算机设备 | |
CN112511815B (zh) | 图像或视频生成方法及装置 | |
CN116243831A (zh) | 一种虚拟云展厅交互方法及系统 | |
CN115239856A (zh) | 3d虚拟对象的动画生成方法、装置、终端设备及介质 | |
CN115965519A (zh) | 一种模型处理方法、装置、设备及介质 | |
CN112802183A (zh) | 一种三维虚拟场景重建的方法、装置以及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |