CN116301531B - 基于虚拟数字人的化妆方法、装置及系统 - Google Patents
基于虚拟数字人的化妆方法、装置及系统 Download PDFInfo
- Publication number
- CN116301531B CN116301531B CN202310586190.9A CN202310586190A CN116301531B CN 116301531 B CN116301531 B CN 116301531B CN 202310586190 A CN202310586190 A CN 202310586190A CN 116301531 B CN116301531 B CN 116301531B
- Authority
- CN
- China
- Prior art keywords
- virtual digital
- digital person
- makeup
- user
- facial
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 239000002537 cosmetic Substances 0.000 title claims abstract description 118
- 238000000034 method Methods 0.000 title claims abstract description 67
- 230000001815 facial effect Effects 0.000 claims abstract description 52
- 238000012545 processing Methods 0.000 claims abstract description 23
- 230000004044 response Effects 0.000 claims abstract description 16
- 239000000463 material Substances 0.000 claims abstract description 9
- 238000007667 floating Methods 0.000 claims abstract description 8
- 230000000694 effects Effects 0.000 claims description 56
- 230000009471 action Effects 0.000 claims description 14
- 230000001172 regenerating effect Effects 0.000 claims description 4
- 239000000284 extract Substances 0.000 claims description 3
- 230000006870 function Effects 0.000 description 20
- 238000005286 illumination Methods 0.000 description 19
- 238000009877 rendering Methods 0.000 description 14
- 238000011156 evaluation Methods 0.000 description 12
- 238000004891 communication Methods 0.000 description 8
- 238000004422 calculation algorithm Methods 0.000 description 7
- 239000003086 colorant Substances 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 238000004590 computer program Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 238000013473 artificial intelligence Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 210000004709 eyebrow Anatomy 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 238000004134 energy conservation Methods 0.000 description 2
- 238000010195 expression analysis Methods 0.000 description 2
- 230000008921 facial expression Effects 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000002829 reductive effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- -1 facial features Substances 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000010422 painting Methods 0.000 description 1
- 230000000704 physical effect Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000026676 system process Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/005—General purpose rendering architectures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Architecture (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Processing Or Creating Images (AREA)
Abstract
本申请提供了一种基于虚拟数字人的化妆方法、装置及系统,该方法包括:提供化妆界面,并在所述化妆界面设置用于装扮所述虚拟数字人的多个妆容工具;响应于接收到用户的工具触发指令,确定所述用户选择的妆容工具,并显示包含多个附属妆容选项的浮层,其中,所述附属妆容选项包含附属于所选妆容工具的妆容素材;响应于接收到所述用户的上妆触发指令,确定所述用户选择的附属妆容选项,并基于所选妆容工具和所选附属妆容选项,对所述虚拟数字人进行面部处理。本申请解决了现有技术中虚拟数字人无法与用户交互进行试妆的技术问题。
Description
技术领域
本申请涉及数据处理技术领域,具体而言,涉及一种基于虚拟数字人的化妆方法、装置及系统。
背景技术
虚拟数字人是一种基于计算机技术和人工智能的数字化人,其外观和行为可以被程序控制和操纵。虚拟数字人通常被用于电影、电子游戏、虚拟现实、人工智能等领域。
目前已经存在一些虚拟人化妆的技术。其中一种常见的方法是使用计算机视觉和图像处理算法对面部图像进行操作,包括改变皮肤色调、涂抹化妆品、修饰轮廓等。这些技术可以应用于视频游戏、虚拟现实、电影和电视制作等领域,也可以用于改善视频会议或在线直播中的视觉效果。此外,还有一些人工智能技术可以生成虚拟人物,并在其中添加化妆效果。这些技术可以根据用户提供的信息生成虚拟人物,包括肤色、面部特征和化妆品的颜色、品牌等,生成的虚拟人物可以用于广告、电子商务和营销等领域。
但是,目前大部分虚拟数字人的化妆技术都是静态的,不能与用户进行实时交互。因此,这些技术主要适用于广告、媒体和其他非交互式应用,而不适用于需要实时交互的应用。
针对上述的问题,目前尚未提出有效的解决方案。
发明内容
本申请实施例提供了一种基于虚拟数字人的化妆方法、装置及系统,以至少解决虚拟数字人无法与用户交互进行试妆的技术问题。
根据本申请实施例的一个方面,提供了一种基于虚拟数字人的化妆方法,包括:提供化妆界面,并在所述化妆界面设置用于装扮所述虚拟数字人的多个妆容工具;响应于接收到用户的工具触发指令,确定所述用户选择的妆容工具,并显示包含多个附属妆容选项的浮层,其中,所述附属妆容选项包含附属于所选妆容工具的妆容素材;响应于接收到所述用户的上妆触发指令,确定所述用户选择的附属妆容选项,并基于所选妆容工具和所选附属妆容选项,对所述虚拟数字人进行面部处理。
根据本申请实施例的另一方面,还提供了一种基于虚拟数字人的化妆装置,包括:工具模块,被配置为提供化妆界面,并在所述化妆界面设置用于装扮所述虚拟数字人的多个妆容工具;选项模块,被配置为响应于接收到用户的工具触发指令,确定所述用户选择的妆容工具,并显示包含多个附属妆容选项的浮层,其中,所述附属妆容选项包含附属于所选妆容工具的妆容选项;化妆模块,被配置为响应于接收到所述用户的上妆触发指令,确定所述用户选择的附属妆容选项,并基于所选妆容工具和所选附属妆容选项,对所述虚拟数字人进行面部处理。
根据本申请实施例的另一方面,还提供了一种基于虚拟数字人的化妆系统,包括:虚拟数字人生成设备,被配置为生成虚拟数字人;虚拟数字人呈现设备,包括如上所述的基于虚拟数字人的化妆装置,被配置为用于呈现所述虚拟数字人。
在本申请实施例中,提供化妆界面,并在所述化妆界面设置用于装扮所述虚拟数字人的多个妆容工具;响应于接收到用户的工具触发指令,确定所述用户选择的妆容工具,并显示包含多个附属妆容选项的浮层,其中,所述附属妆容选项包含附属于所选妆容工具的妆容素材;响应于接收到所述用户的上妆触发指令,确定所述用户选择的附属妆容选项,并基于所选妆容工具和所选附属妆容选项,对所述虚拟数字人进行面部处理;从而解决了现有技术中虚拟数字人无法与用户交互进行试妆的技术问题。
附图说明
构成本申请的一部分的说明书附图用来提供对本申请的进一步理解,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1是根据本申请实施例的一种基于虚拟数字人的化妆方法的流程图;
图2是根据本申请实施例的另一种基于虚拟数字人的化妆方法的流程图;
图3是根据本申请实施例的对虚拟数字人的面部部位进行处理的方法的流程图;
图4是根据本申请实施例的虚拟数字人的皮肤的光照示意图;
图5是根据本申请实施例的又一种基于虚拟数字人的化妆方法的流程图;
图6是根据本申请实施例的一种基于虚拟数字人的化妆装置的结构示意图;
图7是根据本申请实施例的一种基于虚拟数字人的化妆系统的架构示意图;
图8示出了适于用来实现本公开实施例的电子设备的结构示意图。
其中,上述附图包括以下附图标记:
1001、CPU;1002、ROM;1003、RAM;1004、总线;1005、I/O接口;1006、输入部分;1007、输出部分;1008、存储部分;1009、通信部分;1010、驱动器;1011、可拆卸介质;100、化妆系统;101、第一终端设备;102、第二终端设备;103、第三终端设备;104、网络;105、服务器;62、工具模块;64、选项模块;66、化妆模块。
具体实施方式
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本申请的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值不限制本申请的范围。同时,应当明白,为了便于描述,附图中所示出的各个部分的尺寸并不是按照实际的比例关系绘制的。对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为授权说明书的一部分。在这里示出和讨论的所有示例中,任何具体值应被解释为仅仅是示例性的,而不是作为限制。因此,示例性实施例的其它示例可以具有不同的值。应注意到 :相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
实施例1
本申请实施例提供了一种基于虚拟数字人的化妆方法,如图1所示,该方法包括以下步骤:
步骤S102,提供化妆界面,并在所述化妆界面设置用于装扮所述虚拟数字人的多个妆容工具。
根据具体应用的需求和用户习惯,设计一个界面,用于展示多个妆容工具和虚拟数字人的模型。在界面上设置多个妆容工具,包括但不限于口红、眼影、眉笔等,让用户可以根据自己的喜好和需要选择适合的工具。在界面上呈现虚拟数字人的模型,以便用户可以直观地看到所做的化妆效果。为每个妆容工具提供一种或多种操作方式,如拖拽、点击、手势等,让用户可以轻松地使用这些工具。
步骤S104,响应于接收到用户的工具触发指令,确定所述用户选择的妆容工具,并显示包含多个附属妆容选项的浮层,其中,所述附属妆容选项包含附属于所选妆容工具的妆容素材。
在一些实施例中,所述附属妆容选项包括以下至少之一:用于基于颜色的面部属性的颜色属性选项;用于基于亮度的面部属性的亮度属性选项;用于基于尺寸的面部属性的尺寸属性选项;用于基于形状的面部属性的形状属性选项。
本申请实施例,提供了更加智能和个性化的妆容选项。用户可以通过选择妆容工具来筛选相关的妆容素材,然后在浮层中浏览和选择附属妆容选项。这些附属妆容选项包含多种面部属性选项,例如颜色、亮度、尺寸和形状等,可以更好地满足用户的个性化需求。此外,还可以帮助用户更加直观地了解妆容效果。在浮层中,用户可以看到多个妆容选项,可以更直观地了解每种妆容的效果,从而更好地做出选择。最后,提高了用户的使用体验。通过这种方式,用户可以更快地找到自己想要的妆容选项,节省时间和精力。这也使得用户更有可能使用该应用程序并享受使用体验,从而提高应用程序的用户满意度和忠诚度。
步骤S106,响应于接收到所述用户的上妆触发指令,确定所述用户选择的附属妆容选项,并基于所选妆容工具和所选附属妆容选项,对所述虚拟数字人进行面部处理。
首先,基于所选妆容工具,生成用于装扮所述虚拟数字人的妆容工具;接着,获取所述用户的手势动作,并根据所述手势动作控制所述妆容工具的移动轨迹;最后,基于所述移动轨迹和所选附属妆容选项,来重新生成所述虚拟数字人的面部,以对所述虚拟数字人进行面部处理。
在一些实施例中,检测所述移动轨迹是否落在所述虚拟数字人的面部的至少一个部位所对应的目标区域;在检测到所述移动轨迹落在所述目标区域的情况下,判断所选妆容工具与所述区域是否匹配;在所选妆容工具与所述区域匹配的情况下,基于所选附属妆容选项以及所述移动轨迹,来重新生成所述虚拟数字人的面部。例如,基于所选附属妆容选项以及所述移动轨迹,生成与所述目标区域对应的贴图;利用所述贴图来替换与所述虚拟数字人的所述目标区域对应的图像。
本实施例提供了更加智能和个性化的妆容选项。用户可以通过选择妆容工具来筛选相关的妆容素材,然后在浮层中浏览和选择附属妆容选项。这些附属妆容选项包含多种面部属性选项,例如颜色、亮度、尺寸和形状等,可以更好地满足用户的个性化需求。此外,还可以帮助用户更加直观地了解妆容效果。在浮层中,用户可以看到多个妆容选项,可以更直观地了解每种妆容的效果,从而更好地做出选择。最后,本实施例提高了用户的使用体验。通过这种方式,用户可以更快地找到自己想要的妆容选项,节省时间和精力。这也使得用户更有可能使用该应用程序并享受使用体验,从而提高应用程序的用户满意度和忠诚度。
在对所述虚拟数字人进行面部处理之后,所述方法还包括:获取所述虚拟数字人的面部属性信息;基于预设的评判标准,判断化妆后的所述虚拟数字人的妆容是否与所述面部属性信息匹配;基于判断结果,向所述用户提供化妆后的所述虚拟数字人的妆容的建议。
本实施例通过获取虚拟数字人的面部属性信息并基于预设的评判标准,能够判断化妆后的虚拟数字人的妆容是否与面部属性信息匹配。这能够帮助用户更好地理解妆容效果,从而提高化妆效果的匹配度。此外,根据判断结果,应用程序可以向用户提供化妆后的虚拟数字人的妆容的建议。这能够帮助用户更好地选择合适的妆容,提高化妆的效果和满意度。最后,应用程序使用虚拟数字人进行妆容展示和建议,不需要用户进行实际的化妆操作,减少了时间和成本的消耗。同时,虚拟数字人可以根据用户需求进行多次的试妆,提高了用户的体验和满意度。
在一些实施例中,还可以响应于接收到用户的换装触发指令,确定所述用户选择的用于装饰所述虚拟数字人的不同身体部分的服饰;基于所选服饰来装饰所述虚拟数字人,并呈现装饰后的所述虚拟数字人。
本实施例通过响应用户的换装触发指令,可以满足用户个性化的服饰需求,提供更加个性化的服务;此外,用户可以根据自己的兴趣和喜好选择不同的服饰来装扮虚拟数字人,增加用户的参与度和互动性。同时,用户可以通过不断更换不同的服饰,体验不同的造型效果,增加用户使用该应用的频率和时长,提高用户黏性。
实施例2
本申请实施例提供了另一种基于虚拟数字人的化妆方法,如图2所示,该方法包括以下步骤:
步骤S202,提供化妆界面。
提供化妆界面,并在所述化妆界面设置用于装扮所述虚拟数字人的多个妆容工具,以便用户可以在其中进行化妆操作。
设置妆容工具。在化妆界面上,设置多个妆容工具,以供用户选择。这些妆容工具可以包括口红、腮红、眉毛、眼影、粉底等,可以提供妆容工具的图标或者实际图片,以便用户可以直观地了解妆容工具的种类和功能。每个妆容工具都可以定义其作用和属性。例如,口红的属性可以包括颜色、质地和透明度等。
显示妆容工具列表。在化妆界面中,可以将妆容工具以可视化的形式呈现给用户。可以将妆容工具以图标的形式显示在屏幕上,用户可以点击这些图标来选择所需的妆容工具。
提供帮助信息。在化妆界面中,可以提供妆容工具的相关信息和使用方法,以便用户了解妆容工具的具体作用和操作方法。例如,可以在每个妆容工具的旁边提供一个帮助按钮,点击按钮后可以弹出帮助窗口,展示详细的使用说明。
本实施例为用户提供了一个直观、易于使用的界面,让用户可以方便地选择和使用不同的妆容工具,从而实现对虚拟数字人的化妆操作。
步骤S204,提供附属妆容选项。
当用户触发了妆容工具后,系统会显示包含多个附属妆容选项的浮层,这些选项包括附属于所选妆容工具的妆容素材。
具体地,系统会根据用户选择的妆容工具来预先准备多个与该工具相对应的妆容素材,并将它们显示在浮层上。例如,如果用户选择了唇妆工具下的口红工具,则浮层上会显示多种颜色和质地的口红选项;如果用户选择了眼妆工具下的眼影工具,则浮层上会显示多种颜色和纹理的眼影选项。每个妆容选项都会用一个缩略图或者颜色样本来展示。
当浮层显示后,用户可以通过点击或者拖拽的方式选择一个妆容选项,系统会响应用户的选择,并在虚拟数字人的面部进行相应的处理。同时,浮层也可以通过点击关闭或者超时自动关闭等方式来消失。
在一些实施例中,系统可以通过渲染出妆容工具的三维图像来提供更加真实的化妆效果。例如,如果用户选择的妆容工具是口红,则系统可以基于用户选择的口红和口红颜色,生成一个三维的口红模型,并将其渲染到化妆界面中。这样,用户可以更加清晰地看到所选口红的外观和颜色,并且可以更加准确地选择他们喜欢的口红。
在渲染口红或其他妆容工具的过程中,系统可以使用计算机图形技术,例如渲染引擎和着色器程序,以创建逼真的三维图像。这些技术可以模拟光照、阴影和反射等现实中的物理效应,并将它们应用于口红模型上,从而产生一个真实的渲染结果。
需要注意的是,在使用三维渲染技术时,系统可以处理一些复杂的技术细节,例如口红模型的几何形状、材质属性和纹理映射等。此外,系统还可以处理不同光照条件下的渲染结果,并保证其在不同屏幕上的显示效果一致。
步骤S206,获取所述用户的手势动作,并根据所述手势动作控制所述妆容工具的移动轨迹。
具体地,系统可以使用计算机视觉技术来识别用户的手势动作,例如手指的移动、点击或者拖拽等。系统还可以通过相机或者其他传感器来获取用户的手势信息,并使用算法来分析和解析这些信息。
一旦系统检测到用户的手势动作,就可以根据这些动作来控制妆容工具的移动轨迹。例如,如果用户向右滑动手指,系统可以将妆容工具向右移动;如果用户向左滑动手指,则系统可以将妆容工具向左移动。如果用户点击了妆容工具,则系统可以将工具固定在相应的位置上,以便用户进行精细的调整。
在实现手势控制功能时,系统能够确保手势控制是精准的,能够准确地响应用户的手势动作;同时,系统还能够确保手势控制是灵敏的,能够在用户手势发生变化时及时做出反应。此外,系统还能够减小延迟,以确保用户的手势动作能够实时地反映在虚拟数字人的妆容上。
本实施例通过手势控制功能,用户可以更加直观地控制妆容工具的移动,不再需要使用鼠标或触摸屏等传统的控制方式,从而提高了用户的体验和满意度。此外,系统使用计算机视觉技术和算法来解析和分析用户的手势动作,能够精确地控制妆容工具的移动轨迹,从而提高了控制精度。最后,系统能够在用户手势发生变化时及时做出反应,能够准确地响应用户的手势动作,从而提高了控制灵敏度。
步骤S208,判断妆容工具的移动轨迹是否落在目标区域。
为了实现检测移动轨迹是否落在虚拟数字人的面部的目标区域,可以使用计算机视觉技术来识别和定位虚拟数字人的面部部位。这可以通过使用现有的人脸检测算法,如OpenCV和Dlib来实现。
一旦识别出虚拟数字人的面部,就需要为每个目标区域定义一个相应的区域。这些目标区域可以通过使用人脸关键点检测算法。这些算法可以检测出面部的各个部位,例如眼睛、嘴巴、鼻子等,并为每个部位定义一个目标区域。
接下来,可以检测所述移动轨迹是否落在所述目标区域。可以通过使用计算机图形学中的射线跟踪技术来实现。这种技术可以追踪从相机到场景中物体表面的光线,并判断该光线是否与目标区域相交。如果相交,说明移动轨迹落在了目标区域。
本实施例通过使用计算机视觉技术来识别虚拟数字人的面部部位,并为每个目标区域定义一个相应的区域,可以使得妆容工具能够更加准确地落在目标区域内,从而提高了妆容工具的精度和准确度。通过检测移动轨迹是否落在目标区域内,可以避免妆容工具误操作到不相关的区域,从而减少了误操作的风险。通过使用手势控制来控制妆容工具的移动轨迹,用户可以更加自然地操作妆容工具,从而提高了用户体验。
在检测到移动轨迹落在目标区域的情况下,执行步骤S210,否则,执行步骤S208。
步骤S210,判断所选妆容工具与目标区域是否匹配。
在检测到移动轨迹落在目标区域的情况下,进一步判断所选妆容工具与目标区域是否匹配。例如,如果选择的是口红工具,但运动轨迹却落在了眼睛所在的目标区域,则判定妆容工具与目标区域不匹配,只有落在了唇部所在的目标区域,才可以判定妆容工具与目标区域相匹配。如果移动轨迹未在唇部区域内,则可以提示用户将工具移动到正确的区域内。这样可以提高用户对所选妆容工具和目标区域是否匹配的判断能力,并提高化妆效果的准确性。
本实施例通过进一步判断所选妆容工具与目标区域是否匹配,可以避免用户错误地将妆容工具应用于错误的面部区域,从而导致化妆效果不理想。此外,当移动轨迹未落在正确的区域时,提示用户将工具移动到正确的区域内,可以帮助用户更加准确地控制妆容工具,从而提高化妆效果的准确性和可靠性。
在检测到所选妆容工具与目标区域匹配的情况下,执行步骤S212,否则,执行步骤S208。
步骤S212,对虚拟数字人的面部部位进行处理。
在所选妆容工具与目标区域匹配的情况下,就可以基于所选附属妆容选项以及移动轨迹,来重新生成虚拟数字人的面部。这可以通过使用计算机图形学技术来实现,例如三维模型变形和纹理映射。根据所选的附属妆容选项和移动轨迹,可以调整虚拟数字人的面部部位的位置和形状,并为其添加新的纹理和颜色。最终,重新生成的虚拟数字人的面部将与所选的妆容工具和附属妆容选项匹配。
图3是本申请实施例提供的对虚拟数字人的面部部位进行处理的方法的流程图,如图3所示,该方法包括以下步骤:
步骤S2122,针对待渲染的皮肤上的每一个像素点,确定以该像素点的法线方向构成的半圆上任意一点的直接光照亮度和所述任意一点到所述每一个像素点的散射率。
首先,确定直接光照亮度。
参考图4,获取所述半圆圆心O至所述半圆上任意一点Q的直线OQ与所述半圆圆心O至所述每一个像素点P的直线OP之间的夹角x,以及光照方向L与法线方向N之间的夹角θ;基于所述OQ与所述OP之间的夹角x以及所述光照方向L与所述法线方向N之间的夹角θ来确定所述任意一点Q的直接光照亮度。在图4中,AB表示与法线方向N垂直且通过圆心的直线,N+θ表示法线方向N偏移角θ后的直线。
通过本步骤,可以更准确地计算待渲染皮肤表面每个像素点的亮度值,从而提高渲染质量和真实感。具体来说,本步骤考虑了光线从光源到皮肤表面上的反射和散射,通过计算任意一点Q到每一个像素点P的散射率,可以更准确地计算像素点P的亮度值。此外,本步骤还考虑了光源位置和表面法线的影响,因为不同角度的光线照射到表面上会产生不同的亮度值,而法线方向则决定了表面的反射方向。最后,通过本步骤可以更准确地计算每个像素点的亮度值,从而提高渲染质量和真实感。同时,该方案的计算量也比较小,可以在实时渲染中使用。
然后,确定散射率q(x)。散射率q(x)是与所述任意一点Q到所述每一个像素点P之间的距离d相关的函数,其中,距离所述任意一点Q越远的P点的散射率越小。
具体地,确定用于描述次表面散射特征和所述任意一点Q到所述每一个像素点P之间的距离d之间的关系的特性函数R(d)和所述散射率q(x)之间的关系。例如,可以基于所述半圆上散射率的能量守恒约束条件以及所述虚拟数字人的皮肤次表面,来确定所述特性函数R(d);基于所述特性函数R(d)来确定所述特性函数R(d)和所述散射率q(x)之间的关系。在一些实施例中,可以通过下式来表述二者之间的关系:q(x)= kR(d),其中,k为常数。
本实施例中,通过使用能量守恒约束条件和虚拟数字人的皮肤次表面,可以确定特性函数R(d)。然后,通过特性函数R(d)和散射率q(x)之间的关系来描述次表面散射特征,将特性函数R(d)与散射率q(x)联系起来,可以更好地理解和分析次表面散射现象。
步骤S2124,基于所述直接光照亮度和所述散射率q(x),将所述半圆对应的半球上的所有点进行积分,得到用于表示最终的亮度的预积分D(θ)。
例如,基于所述直接光照亮度、所述散射率q(x)以及任意一点Q所占半圆弧度,来确定所述任意一点Q散射到P点的亮度;基于所述任意一点Q散射到P点的亮度,将所述半球上所有的点进行积分,得到例如如下的预积分D(θ):
其中,R为特性函数,r为半圆半径。在一些实施例中,可将半径r设置为1以简化计算。
本实施例中,预积分D(θ)的计算是基于对半球上所有点的积分,因此可以用来表示在给定的散射率q(x)和直接光照亮度下,半球的总亮度。这对于渲染和光照模拟应用非常有用。
具体来说,通过对半圆弧度内的点进行积分,可以计算出散射到P点的亮度。然后,通过对整个半球上所有点的积分,可以得到在给定的散射率q(x)和直接光照亮度下,半球的总亮度D(θ)。这个预积分可以被用于计算光照场景中的各个部分的光照强度。在实际应用中,预积分D(θ)可以被存储为纹理或预计算的数据,以便在运行时快速地计算光照强度。
步骤S2126,利用所述预积分D(θ),来生成光照贴图,并基于所述光照贴图对虚拟数字人进行皮肤渲染。
具体来说,生成光照贴图的过程包括将预积分D(θ)映射到一个纹理中,这个纹理中包含了光照场景中不同位置的亮度值。然后,将这个光照贴图应用于虚拟数字人的皮肤渲染中,这样可以实现在不同光照条件下的真实感皮肤渲染。
实施例3
本申请实施例提供了又一种基于虚拟数字人的化妆方法,如图5所示,该方法包括以下步骤:
步骤S502,定义评估标准。
事先定义评估标准,为虚拟数字人的化妆效果分配一个评分。评估标准可以包括化妆效果的自然度、色彩的准确性、遮盖能力、准确性、细节和光照效果等面部属性。这些评估标准可以根据用户的个性化需求进行调整,以便为用户提供更好的数字化妆服务。
步骤S504,对虚拟数字人的面部特征点进行检测和提取。
获取虚拟数字人的面部图像。在数字化妆应用中,虚拟数字人的面部图像可以通过计算机图形学技术生成的。
使用计算机视觉技术检测虚拟数字人面部的关键特征点。计算机视觉技术可以对面部图像进行分析和处理,检测面部的关键特征点,比如眉毛、眼睛、嘴巴、鼻子等等。这些特征点可以用来描述面部的形状和结构,并用于后续的面部表情分析、化妆效果评估等任务。
提取关键特征点的坐标信息。检测到关键特征点之后,计算机视觉系统可以提取这些特征点的坐标信息,以便进行后续的计算和分析。通常情况下,这些坐标信息是以二维或三维坐标的形式进行表示的。
将特征点坐标信息存储在数据库中。为了方便后续的使用和管理,计算机视觉系统将提取的关键特征点的坐标信息存储在数据库中。这些数据可以用于后续的面部表情分析、化妆效果评估等任务。
步骤S506,获取真实人脸照片的化妆信息。
在这个步骤中,计算机视觉系统会对真实人脸照片进行处理,提取化妆信息,包括化妆品种类、颜色、涂抹位置、涂抹厚度等等。这些信息可以通过计算机视觉技术和图像处理技术进行提取和分析。
步骤S508,将化妆信息应用于虚拟数字人的面部特征点上。
在这个步骤中,计算机视觉系统会将前面获取的真实人脸照片的化妆信息应用到虚拟数字人的面部特征点上,模拟真实的化妆效果。比如,如果真实人脸照片上涂抹了红色口红,那么计算机视觉系统就会在虚拟数字人的嘴唇处模拟涂抹红色口红的效果。
例如,可以采用以下公式将化妆信息应用于虚拟数字人的面部特征点上:
其中,Fmakeup表示最终的化妆效果图像,abase表示虚拟数字人的原始面部图像的权重系数,Ibase表示虚拟数字人的原始面部图像,n表示表示面部区域的个数,ai表示面部区域的权重系数,Ii表示真实人脸照片的某个面部区域的图像,Mi表示该面部区域的化妆效果掩码图像。
通过上述方法,有助于计算机视觉系统更加准确地模拟化妆效果,增强了虚拟数字人的真实感和可信度。此外,可以快速地将真实人脸照片上的化妆效果应用到虚拟数字人的面部特征点上,提高了计算效率和处理速度。同时,还可以让用户更加方便地尝试不同的化妆风格,提高用户体验和购买转化率。
步骤S510,通过化妆界面进一步装饰虚拟数字人。
具体请参见实施例1或2中的描述,此处不再赘述。
步骤S512,评估虚拟数字人的化妆效果。
在这个步骤中,计算机视觉系统会分析虚拟数字人的化妆效果,并给出相应的评估结果。这些评估结果通常可以包括化妆品的适合程度、化妆品的涂抹效果、化妆品的颜色搭配效果等等。计算机视觉系统可以根据一定的算法和规则来对化妆效果进行评估,并给出相应的得分或建议。
根据上述评估结果,生成相应的化妆效果评估报告。这个报告可以包括虚拟数字人的化妆效果得分、化妆品适合程度、涂抹效果、颜色搭配效果等等。将化妆效果评估报告反馈给用户,让用户了解自己的化妆效果,并提供相应的建议和参考。
根据用户反馈进行调整。用户可以根据化妆效果评估报告提供的建议和参考,进行相应的调整和改进。比如,如果化妆效果得分较低,用户可以根据报告提供的建议和参考,重新涂抹化妆品,改善化妆效果。
具体地,假设化妆效果评估结果包括三个指标:适合程度(A)、涂抹效果(B)和颜色搭配效果(C),每个指标分别在0到1之间评分,其中1表示最佳表现,0表示最差表现。每个指标对于总体评分的权重可能不同,可以使用权重系数(wA,wB和wC)进行调整。则化妆效果评估总得分(S)可以计算为:
S = wA * A + wB * B + wC * C
其中,wA + wB + wC = 1,且wA、wB、wC的值可以根据需要进行调整。
例如,如果涂抹效果对于总体评分的重要性更高,可以将wB设置为0.5,而wA和wC设置为0.25。这样,涂抹效果的表现将占总体评分的一半,而适合程度和颜色搭配效果则各占总体评分的四分之一。
此外,化妆效果评估报告可以包括更详细的信息,例如每个指标的具体得分和建议。例如,针对涂抹效果,可以提供建议,如改变涂抹手法或使用不同的化妆工具,以改善涂抹效果。针对颜色搭配效果,可以提供建议,如选择与肤色相配的颜色或使用更适合的化妆品品牌。这些详细信息可以帮助用户更好地了解自己的化妆效果,并提供改进方向。
本实施例将化妆效果评估报告反馈给用户,让用户了解自己的化妆效果,并提供相应的建议和参考,帮助用户提升化妆技巧和效果。
实施例4
本申请实施例提供了一种基于虚拟数字人的化妆装置,如图6所示,包括工具模块62、选项模块64和化妆模块66。
工具模块62被配置为提供化妆界面,并在所述化妆界面设置用于装扮所述虚拟数字人的多个妆容工具;选项模块64被配置为响应于接收到用户的工具触发指令,确定所述用户选择的妆容工具,并显示包含多个附属妆容选项的浮层,其中,所述附属妆容选项包含附属于所选妆容工具的妆容选项;化妆模块66被配置为响应于接收到所述用户的上妆触发指令,确定所述用户选择的附属妆容选项,并基于所选妆容工具和所选附属妆容选项,对所述虚拟数字人进行面部处理。
需要说明的是:上述实施例提供的基于虚拟数字人的化妆装置,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的基于虚拟数字人的化妆装置与基于虚拟数字人的化妆方法实施例属于同一构思,其具体实现过程详见方法实施例,此处不再赘述。
实施例5
本申请实施例提供了一种基于虚拟数字人的化妆系统,如图7所示,基于虚拟数字人的化妆系统100可以包括终端设备例如第一终端设备101、第二终端设备102、第三终端设备103中的一个或多个、网络104、和服务器105。其中,终端设备相当于虚拟人呈现设备,服务器相当于虚拟人生成设备。
网络104用以在第一终端设备101、第二终端设备102、第三终端设备103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。第一终端设备101、第二终端设备102、第三终端设备103可以是具有显示屏的各种电子设备,包括但不限于台式计算机、便携式计算机、智能手机和平板电脑等等。应该理解,图7中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。比如服务器105可以是多个服务器组成的服务器集群等。
本公开实施例所提供的化妆方法一般由终端设备执行,相应地,化妆装置一般设置于终端设备中。但本领域技术人员容易理解的是,本公开实施例所提供的化妆装置也可以由服务器105和终端设备共同执行,例如,化妆装置的界面呈现部可以设置于第一终端设备101、第二终端设备102、第三终端设备103中,而化妆装置的数据处理部可以设置于服务器105中,本示例性实施例中对此不做特殊限定。
在一些示例性实施例中,可以是用户通过第一终端设备101、第二终端设备102、第三终端设备103上的应用程序对虚拟数字人进行化妆交互,服务器105通过本公开实施例所提供的化妆系统,生成音视频数据,并将音视频数据发送给第一终端设备101、第二终端设备102、第三终端设备103等。第一终端设备101、第二终端设备102、第三终端设备103可以基于音视频数据的类型,本地直接呈现服务器105渲染好的音视频数据。
实施例6
图8示出了适于用来实现本公开实施例的电子设备的结构示意图。需要说明的是,图8示出的电子设备仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图8所示,该电子设备包括中央处理单元(CPU)1001,其可以根据存储在只读存储器(ROM)1002中的程序或者从存储部分1008加载到随机访问存储器(RAM)1003中的程序而执行各种适当的动作和处理。在RAM 1003中,还存储有系统操作所需的各种程序和数据。CPU1001、ROM 1002以及RAM 1003通过总线1004彼此相连。输入/输出(I/O)接口1005也连接至总线1004。
以下部件连接至I/O接口1005:包括键盘、鼠标等的输入部分1006;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分1007;包括硬盘等的存储部分1008;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分1009。通信部分1009经由诸如因特网的网络执行通信处理。驱动器1010也根据需要连接至I/O接口1005。可拆卸介质1011,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器1010上,以便于从其上读出的计算机程序根据需要被安装入存储部分1008。
特别地,根据本公开的实施例,下文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分1009从网络上被下载和安装,和/或从可拆卸介质1011被安装。在该计算机程序被中央处理单元(CPU)1001执行时,执行本申请的方法和装置中限定的各种功能。在一些实施例中,电子设备还可以包括AI( ArtificialIntelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
需要说明的是,本公开所示的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现,所描述的单元也可以设置在处理器中。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被一个该电子设备执行时,使得该电子设备实现如下述实施例中所述的方法。例如,所述的电子设备可以实现上述方法实施例的各个步骤等。
上述实施例中的集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在上述计算机可读取的存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在存储介质中,包括若干指令用以使得一台或多台计算机设备(可为个人计算机、服务器或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。
在本申请的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的终端设备,可通过其它的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连接,可以是电性或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
以上所述仅是本申请的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本申请原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本申请的保护范围。
Claims (10)
1.一种基于虚拟数字人的化妆方法,其特征在于,包括:
对虚拟数字人的面部特征点进行检测和提取,获取真实人脸照片的化妆信息,将所述化妆信息应用于所述虚拟数字人的面部特征点上,得到处理后的所述虚拟数字人;
提供化妆界面,并在所述化妆界面设置用于装扮所述虚拟数字人的多个妆容工具;
响应于接收到用户的工具触发指令,确定所述用户选择的妆容工具,并显示包含多个附属妆容选项的浮层,其中,所述附属妆容选项包含附属于所选妆容工具的妆容素材;
响应于接收到所述用户的上妆触发指令,确定所述用户选择的附属妆容选项,并基于所选妆容工具和所选附属妆容选项,对处理后的所述虚拟数字人进行面部处理;
其中,将所述化妆信息应用于所述虚拟数字人的面部特征点上包括:基于所述虚拟数字人的原始面部图像的权重系数、所述虚拟数字人的原始面部图像、面部区域的个数、面部区域的权重系数、真实人脸照片的每个面部区域的图像、面部区域的化妆效果掩码图像来将所述化妆信息应用于所述虚拟数字人的面部特征点上。
2.根据权利要求1所述的方法,其特征在于,基于所选妆容工具和所选附属妆容选项,对所述虚拟数字人进行面部处理,包括:
基于所选妆容工具,生成用于装扮所述虚拟数字人的妆容工具;
获取所述用户的手势动作,并根据所述手势动作控制所述妆容工具的移动轨迹;
基于所述移动轨迹和所选附属妆容选项,来重新生成所述虚拟数字人的面部,以对所述虚拟数字人进行面部处理。
3.根据权利要求2所述的方法,其特征在于,基于所述移动轨迹和所选附属妆容选项,来重新生成所述虚拟数字人的面部,包括:
检测所述移动轨迹是否落在所述虚拟数字人的面部的至少一个部位所对应的目标区域;
在检测到所述移动轨迹落在所述目标区域的情况下,判断所选妆容工具与所述区域是否匹配;
在所选妆容工具与所述区域匹配的情况下,基于所选附属妆容选项以及所述移动轨迹,来重新生成所述虚拟数字人的面部。
4.根据权利要求3所述的方法,其特征在于,所述附属妆容选项包括以下至少之一:用于基于颜色的面部属性的颜色属性选项;用于基于亮度的面部属性的亮度属性选项;用于基于尺寸的面部属性的尺寸属性选项;用于基于形状的面部属性的形状属性选项。
5.根据权利要求3所述的方法,其特征在于,基于所选附属妆容选项以及所述移动轨迹,来重新生成所述虚拟数字人的面部,包括:
基于所选附属妆容选项以及所述移动轨迹,生成与所述目标区域对应的贴图;
利用所述贴图来替换与所述虚拟数字人的所述目标区域对应的图像。
6.根据权利要求1所述的方法,其特征在于,在对所述虚拟数字人进行面部处理之后,所述方法还包括:
获取所述虚拟数字人的面部属性信息;
基于预设的评判标准,判断化妆后的所述虚拟数字人的妆容是否与所述面部属性信息匹配;
基于判断结果,向所述用户提供化妆后的所述虚拟数字人的妆容的建议。
7.根据权利要求1至6中任一项所述的方法,其特征在于,所述方法还包括:
响应于接收到用户的换装触发指令,确定所述用户选择的用于装饰所述虚拟数字人的不同身体部分的服饰;
基于所选服饰来装饰所述虚拟数字人,并呈现装饰后的所述虚拟数字人。
8.一种基于虚拟数字人的化妆装置,其特征在于,包括:
工具模块,被配置为提供化妆界面,并在所述化妆界面设置用于装扮所述虚拟数字人的多个妆容工具;
选项模块,被配置为响应于接收到用户的工具触发指令,确定所述用户选择的妆容工具,并显示包含多个附属妆容选项的浮层,其中,所述附属妆容选项包含附属于所选妆容工具的妆容选项;
化妆模块,被配置为响应于接收到所述用户的上妆触发指令,确定所述用户选择的附属妆容选项,并基于所选妆容工具和所选附属妆容选项,对处理后的所述虚拟数字人进行面部处理;
其中,在提供化妆界面之前,所述化妆装置还被配置为对所述虚拟数字人的面部特征点进行检测和提取,获取真实人脸照片的化妆信息,将所述化妆信息应用于所述虚拟数字人的面部特征点上,得到处理后的所述虚拟数字人;
其中,将所述化妆信息应用于所述虚拟数字人的面部特征点上包括:基于所述虚拟数字人的原始面部图像的权重系数、所述虚拟数字人的原始面部图像、面部区域的个数、面部区域的权重系数、真实人脸照片的每个面部区域的图像、面部区域的化妆效果掩码图像来将所述化妆信息应用于所述虚拟数字人的面部特征点上。
9.一种基于虚拟数字人的化妆系统,其特征在于,包括:
虚拟数字人生成设备,被配置为生成虚拟数字人;
虚拟数字人呈现设备,包括如权利要求8所述的基于虚拟数字人的化妆装置,被配置为用于呈现所述虚拟数字人。
10.一种计算机可读存储介质,其上存储有程序,其特征在于,在所述程序运行时,使得计算机执行如权利要求1至7中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310586190.9A CN116301531B (zh) | 2023-05-23 | 2023-05-23 | 基于虚拟数字人的化妆方法、装置及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310586190.9A CN116301531B (zh) | 2023-05-23 | 2023-05-23 | 基于虚拟数字人的化妆方法、装置及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116301531A CN116301531A (zh) | 2023-06-23 |
CN116301531B true CN116301531B (zh) | 2023-08-11 |
Family
ID=86834502
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310586190.9A Active CN116301531B (zh) | 2023-05-23 | 2023-05-23 | 基于虚拟数字人的化妆方法、装置及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116301531B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117036157B (zh) * | 2023-10-09 | 2024-02-20 | 易方信息科技股份有限公司 | 可编辑的仿真数字人形象设计方法、系统、设备及介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102708575A (zh) * | 2012-05-17 | 2012-10-03 | 彭强 | 基于人脸特征区域识别的生活化妆容设计方法及系统 |
CN108292423A (zh) * | 2015-12-25 | 2018-07-17 | 松下知识产权经营株式会社 | 局部妆容制作装置、局部妆容利用装置、局部妆容制作方法、局部妆容利用方法、局部妆容制作程序和局部妆容利用程序 |
CN112330528A (zh) * | 2020-08-03 | 2021-02-05 | 北京沃东天骏信息技术有限公司 | 虚拟试妆方法、装置、电子设备和可读存储介质 |
CN115888116A (zh) * | 2021-08-17 | 2023-04-04 | 北京字跳网络技术有限公司 | 一种虚拟角色形象更换方法、装置以及计算机存储介质 |
CN115904191A (zh) * | 2022-12-07 | 2023-04-04 | 厦门理工学院 | 一种模拟化妆方法、模拟化妆系统及智能化妆台 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100241580A1 (en) * | 2009-03-19 | 2010-09-23 | Tagged, Inc. | System and method of selecting a relevant user for introduction to a user in an online environment |
-
2023
- 2023-05-23 CN CN202310586190.9A patent/CN116301531B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102708575A (zh) * | 2012-05-17 | 2012-10-03 | 彭强 | 基于人脸特征区域识别的生活化妆容设计方法及系统 |
CN108292423A (zh) * | 2015-12-25 | 2018-07-17 | 松下知识产权经营株式会社 | 局部妆容制作装置、局部妆容利用装置、局部妆容制作方法、局部妆容利用方法、局部妆容制作程序和局部妆容利用程序 |
CN112330528A (zh) * | 2020-08-03 | 2021-02-05 | 北京沃东天骏信息技术有限公司 | 虚拟试妆方法、装置、电子设备和可读存储介质 |
CN115888116A (zh) * | 2021-08-17 | 2023-04-04 | 北京字跳网络技术有限公司 | 一种虚拟角色形象更换方法、装置以及计算机存储介质 |
CN115904191A (zh) * | 2022-12-07 | 2023-04-04 | 厦门理工学院 | 一种模拟化妆方法、模拟化妆系统及智能化妆台 |
Also Published As
Publication number | Publication date |
---|---|
CN116301531A (zh) | 2023-06-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220301269A1 (en) | Utilizing topological maps for augmented or virtual reality | |
US20180075657A1 (en) | Attribute modification tools for mixed reality | |
US20170352091A1 (en) | Methods for generating a 3d virtual body model of a person combined with a 3d garment image, and related devices, systems and computer program products | |
JP2001268594A (ja) | 三次元ビューティーシミュレーション用クライアントサーバシステム | |
CN116301531B (zh) | 基于虚拟数字人的化妆方法、装置及系统 | |
US10832493B2 (en) | Programmatic hairstyle opacity compositing for 3D rendering | |
Treepong et al. | The development of an augmented virtuality for interactive face makeup system | |
Nam et al. | Interactive pixel-unit AR lip makeup system using RGB camera | |
US20190311424A1 (en) | Product visualization system and method for using two-dimensional images to interactively display photorealistic representations of three-dimensional objects based on smart tagging | |
CN116645495A (zh) | 虚拟化妆方法、装置及系统 | |
Arora | Creative visual expression in immersive 3D environments | |
Hou et al. | The application of augmented reality based on body parts recognition | |
CN118397153A (zh) | 实时表情渲染方法及装置 | |
Nagao | Viewer-Adaptive Control of Displayed Content for Digital Signage | |
Blatner | TangiPaint: Interactive tangible media |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CP03 | Change of name, title or address |
Address after: Building 60, 1st Floor, No.7 Jiuxianqiao North Road, Chaoyang District, Beijing 021 Patentee after: Shiyou (Beijing) Technology Co.,Ltd. Country or region after: China Address before: 4017, 4th Floor, Building 2, No.17 Ritan North Road, Chaoyang District, Beijing Patentee before: 4U (BEIJING) TECHNOLOGY CO.,LTD. Country or region before: China |
|
CP03 | Change of name, title or address |