CN113936086B - 毛发模型的生成方法、装置、电子设备以及存储介质 - Google Patents

毛发模型的生成方法、装置、电子设备以及存储介质 Download PDF

Info

Publication number
CN113936086B
CN113936086B CN202111548989.6A CN202111548989A CN113936086B CN 113936086 B CN113936086 B CN 113936086B CN 202111548989 A CN202111548989 A CN 202111548989A CN 113936086 B CN113936086 B CN 113936086B
Authority
CN
China
Prior art keywords
hair model
initial
transparency
rendering
parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111548989.6A
Other languages
English (en)
Other versions
CN113936086A (zh
Inventor
杨瑞健
姜伯汉
赵代平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Sensetime Technology Development Co Ltd
Original Assignee
Beijing Sensetime Technology Development Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Sensetime Technology Development Co Ltd filed Critical Beijing Sensetime Technology Development Co Ltd
Priority to CN202111548989.6A priority Critical patent/CN113936086B/zh
Publication of CN113936086A publication Critical patent/CN113936086A/zh
Application granted granted Critical
Publication of CN113936086B publication Critical patent/CN113936086B/zh
Priority to PCT/CN2022/134582 priority patent/WO2023109486A1/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Image Generation (AREA)

Abstract

本公开涉及计算机技术领域,具体提供了一种毛发模型的生成方法、装置、电子设备以及存储介质。一种毛发模型的生成方法,包括:获取初始毛发模型,以及所述初始毛发模型对应的第一噪声图和第二噪声图;其中,所述第一噪声图的噪点密度大于所述第二噪声图的噪点密度;根据所述第一噪声图和所述第二噪声图,确定所述初始毛发模型的透明度参数;基于所述透明度参数对所述初始毛发模型进行渲染处理,得到目标毛发模型。本公开实施方式提高毛发模型的视觉效果。

Description

毛发模型的生成方法、装置、电子设备以及存储介质
技术领域
本公开涉及计算机技术领域,具体涉及一种毛发模型的生成方法、装置、电子设备以及存储介质。
背景技术
随着计算机技术的发展,三维虚拟对象成为游戏制作、动画制作、短视频制作等领域的重要部分,并且三维虚拟对象丰富、逼真的视觉效果是三维建模和渲染领域的共同追求。
毛发模型是三维虚拟对象最为重要的组成部分,例如人物角色的头发、动物的毛发、毛绒玩具的绒毛等。相关技术中,毛发模型的整体视觉效果不佳。
发明内容
为提高毛发模型的视觉效果,本公开实施方式提供了一种毛发模型的生成方法、装置、电子设备以及存储介质。
第一方面,本公开实施方式提供了一种毛发模型的生成方法,包括:
获取初始毛发模型,以及所述初始毛发模型对应的第一噪声图和第二噪声图;其中,所述第一噪声图的噪点密度大于所述第二噪声图的噪点密度;
根据所述第一噪声图和所述第二噪声图,确定所述初始毛发模型的透明度参数;
基于所述透明度参数对所述初始毛发模型进行渲染处理,得到目标毛发模型。
在一些实施方式中,所述根据所述第一噪声图和所述第二噪声图,确定所述初始毛发模型的透明度参数,包括:
针对所述初始毛发模型的每一个片元,对所述第一噪声图采样得到第一像素透明度,对所述第二噪声图采样得到第二像素透明度;
基于所述第一像素透明度和所述第二像素透明度,对所述初始毛发模型的初始透明度参数进行融合处理,得到所述片元的目标透明度参数;
根据每个片元的目标透明度参数,确定所述初始毛发模型的透明度参数。
在一些实施方式中,所述基于所述第一像素透明度和所述第二像素透明度,对所述初始毛发模型的初始透明度参数进行融合处理,得到所述片元的目标透明度参数,包括:
基于预先设置的插值参数对所述第一像素透明度和所述第二像素透明度进行插值处理,得到所述片元的像素透明度;
根据所述像素透明度,以及所述初始毛发模型中所述片元的初始透明度参数,确定所述片元的目标透明度参数。
在一些实施方式中,所述获取初始毛发模型包括:
获取初始噪声图,所述初始噪声图包括多个顶点;
沿所述顶点的法线方向,对每个顶点按照预设偏移值进行偏移,得到所述初始毛发模型。
在一些实施方式中,所述沿所述顶点的法线方向,对每个顶点按照预设偏移值进行偏移,得到所述初始毛发模型,包括:
沿所述顶点的法线方向,对每个顶点按照预设偏移值进行偏移,得到第一毛发模型;
根据扰动纹理图中包括的各个顶点的移动向量信息,确定各个顶点的扰动方向;
根据所述扰动方向对所述第一毛发模型进行各个顶点进行偏移,得到所述初始毛发模型。
在一些实施方式中,所述方法还包括对所述初始毛发模型的多次渲染处理,其中,每次渲染处理的过程包括:
根据所述第一噪声图、所述第二噪声图以及本次渲染处理对应的插值参数和初始透明度参数,确定本次渲染处理对应的透明度参数;
基于所述透明度参数对前次渲染处理后得到的毛发模型进行渲染处理。
在一些实施方式中,所述方法应用于第一处理芯片,所述方法还包括:
对于所述多次渲染处理中的至少一次渲染处理,接收第二处理芯片发送的本次渲染处理对应的部分着色器参数,所述部分着色器参数包括本次渲染处理对应的所述插值参数和所述初始透明度参数;
对于所述多次渲染处理中除所述至少一次渲染处理之外的其他次渲染处理,接收所述第二处理芯片发送的本次渲染处理对应的全部着色器参数。
在一些实施方式中,所述第一处理芯片包括GPU芯片,和/或,所述第二处理芯片包括CPU芯片。
在一些实施方式中,所述基于所述透明度参数对所述初始毛发模型进行渲染处理,得到目标毛发模型,包括:
通过预设光照模型对所述初始毛发模型的初始光照参数进行处理,得到目标光照参数;
根据所述目标光照参数和所述透明度参数对所述初始毛发模型进行渲染处理,得到目标毛发模型。
第二方面,本公开实施方式提供了一种毛发模型的生成装置,包括:
获取模块,被配置为获取初始毛发模型,以及所述初始毛发模型对应的第一噪声图和第二噪声图;其中,所述第一噪声图的噪点密度大于所述第二噪声图的噪点密度;
确定模块,被配置为根据所述第一噪声图和所述第二噪声图,确定所述初始毛发模型的透明度参数;
得到模块,被配置为基于所述透明度参数对所述初始毛发模型进行渲染处理,得到目标毛发模型。
在一些实施方式中,所述确定模块被配置为:
针对所述初始毛发模型的每一个片元,对所述第一噪声图采样得到第一像素透明度,对所述第二噪声图采样得到第二像素透明度;
基于所述第一像素透明度和所述第二像素透明度,对所述初始毛发模型的初始透明度参数进行融合处理,得到所述片元的目标透明度参数;
根据每个片元的目标透明度参数,确定所述初始毛发模型的透明度参数。
在一些实施方式中,所述确定模块被配置为:
基于预先设置的插值参数对所述第一像素透明度和所述第二像素透明度进行插值处理,得到所述片元的像素透明度;
根据所述像素透明度,以及所述初始毛发模型中所述片元的初始透明度参数,确定所述片元的目标透明度参数。
在一些实施方式中,所述获取模块被配置为:
获取初始噪声图,所述初始噪声图包括多个顶点;
沿所述顶点的法线方向,对每个顶点按照预设偏移值进行偏移,得到所述初始毛发模型。
在一些实施方式中,所述获取模块被配置为:
沿所述顶点的法线方向,对每个顶点按照预设偏移值进行偏移,得到第一毛发模型;
根据扰动纹理图中包括的各个顶点的移动向量信息,确定各个顶点的扰动方向;
根据所述扰动方向对所述第一毛发模型进行各个顶点进行偏移,得到所述初始毛发模型。
在一些实施方式中,所述装置还包括处理模块,所述处理模块被配置为对所述初始毛发模型的多次渲染处理,其中,每次渲染处理的过程包括:
根据所述第一噪声图、所述第二噪声图以及本次渲染处理对应的插值参数和初始透明度参数,确定本次渲染处理对应的透明度参数;
基于所述透明度参数对前次渲染处理后得到的毛发模型进行渲染处理。
在一些实施方式中,所述装置应用于第一处理芯片,所述处理模块被配置为:
对于所述多次渲染处理中的至少一次渲染处理,接收第二处理芯片发送的本次渲染处理对应的部分着色器参数,所述部分着色器参数包括本次渲染处理对应的所述插值参数和所述初始透明度参数;
对于所述多次渲染处理中除所述至少一次渲染处理之外的其他次渲染处理,接收所述第二处理芯片发送的本次渲染处理对应的全部着色器参数。
在一些实施方式中,所述第一处理芯片包括GPU芯片,和/或,所述第二处理芯片包括CPU芯片。
在一些实施方式中,所述得到模块被配置为:
通过预设光照模型对所述初始毛发模型的初始光照参数进行处理,得到目标光照参数;
根据所述目标光照参数和所述透明度参数对所述初始毛发模型进行渲染处理,得到目标毛发模型。
第三方面,本公开实施方式提供了一种电子设备,包括:
处理器;以及
存储器,存储有能够被所述处理器读取的计算机指令,当所述计算机指令被读取时,所述处理器执行根据第一方面任一实施方式所述的方法。
第四方面,本公开实施方式提供了一种存储介质,用于存储计算机可读指令,所述计算机可读指令用于使计算机执行根据第一方面任一实施方式所述的方法。
本公开实施方式的毛发模型的生成方法,包括获取初始毛发模型以及初始毛发模型对应的第一噪声图和第二噪声图,其中第一噪声图的噪点密度大于第二噪声图的噪点密度,根据第一噪声图和第二噪声图确定初始毛发模型的透明度参数,基于透明度参数对初始毛发模型进行渲染处理,得到目标毛发模型。本公开实施方式中,通过第一噪声图和第二噪声图确定渲染毛发模型的透明度参数,使得生成的目标毛发模型更好的融合毛发纹理特征,由发根至发尖具有平滑的过渡效果,提高毛发模型的视觉效果。
附图说明
为了更清楚地说明本公开具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本公开的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是适于实现本公开方法的电子设备的结构框图。
图2是根据本公开一些实施方式中毛发模型的生成方法的流程图。
图3是根据本公开一些实施方式中初始噪声图的示意图。
图4是根据本公开一些实施方式中毛发模型的生成方法的流程图。
图5是根据本公开一些实施方式中毛发模型的生成方法的流程图。
图6是根据本公开一些实施方式中毛发模型的生成方法的流程图。
图7是根据本公开一些实施方式中毛发模型的生成方法的流程图。
图8是根据本公开一些实施方式中毛发模型的生成方法的流程图。
图9是根据本公开一些实施方式中毛发模型的生成方法的流程图。
图10是根据本公开一些实施方式中毛发模型的生成装置的结构框图。
具体实施方式
下面将结合附图对本公开的技术方案进行清楚、完整地描述,显然,所描述的实施方式是本公开一部分实施方式,而不是全部的实施方式。基于本公开中的实施方式,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施方式,都属于本公开保护的范围。此外,下面所描述的本公开不同实施方式中所涉及的技术特征只要彼此之间未构成冲突就可以相互结合。
近年来,随着电子设备硬件性能的不断提升,用户对于精致画面的视觉需求也越来越高,期望虚拟场景能够呈现更加精致细腻的毛发效果。例如动画或游戏制作中虚拟人物的头发、动物的毛发以及毛绒玩具的绒毛等,用户对于这些毛发的精致度和逼真度需求越来越高,制作人员需要不断优化毛发模型的视觉效果。
着色器也称为着色器程序(Shader Program),是指运行在图形处理器中负责渲染算法的一类模块总称。在生成毛发模型时,常用的着色器分别为顶点着色器(VS, VertexShader)和片元着色器(FS,Fragment Shader)。顶点着色器可以访问到毛发模型的顶点的三维位置、颜色、法向量等参数信息,实现毛发模型的顶点偏移和特定的渲染效果。片元着色器运行在顶点着色器之后,可以从顶点着色器接收参数,片元着色器可以访问到每个片元的坐标、深度信息、颜色等参数信息,通过改变参数信息实现特定的渲染效果。
相关技术中,片元着色器在进行渲染时,往往是根据中央处理器(CPU,centralprocessing unit)传输的着色器参数中的透明度参数(Alpha)对毛发模型进行渲染。但是,由于光照、色彩明暗变化等因素的影响,毛发模型的每个片元或者像素实际需要呈现处的透明度并不相同,因此渲染生成的毛发模型由发根底部到发尖顶部不能很好的过渡,导致视觉效果不佳。
正是基于上述相关技术中存在的缺陷,本公开实施方式提供了一种毛发模型的生成方法、装置、电子设备以及存储介质,旨在提高毛发模型的视觉效果。
第一方面,本公开实施方式提供了一种毛发模型的生成方法,该方法可以应用于电子设备中。在一些实施方式中,本公开示例的电子设备包括第一处理芯片和第二处理芯片,第一处理芯片与第二处理芯片可通信连接,从而在毛发模型的渲染生成过程中,第一处理芯片向第二处理芯片发送相关的着色器程序参数,第二处理芯片可执行本公开方法根据着色器程序参数生成毛发模型。
图1示出了本公开一些实施方式中电子设备的结构示意图,可以理解,本公开实施方式所述的电子设备可以是任何适于实施的设备类型,例如PC(个人计算机,PersonalComputer)终端、移动终端、服务器等,本公开对此不作限制。
如图1所示,在一些实施方式中,本公开示例的电子设备100包括CPU芯片100和GPU(graphics processing unit,图形处理器)芯片200。
CPU芯片100和GPU芯片200可以均包括处理器和存储器,处理器可以是任何类型,具体一个或者多个处理核心的处理器,其可以执行单线程或者多线程的操作,用于解析指令以执行获取数据、执行逻辑运算功能以及下发运算处理结果等操作。存储器可以包括易失性计算机可读存储介质和非易失性计算机可读存储介质,例如磁盘、闪存器件、硬盘、随机存储介质等。存储器可以具有程序存储区,用于存储非易失性软件程序、非易失性计算机可执行程序以及模块,供处理器调用以使处理器执行本公开实施方式中的一个或者多个方法步骤。存储器还可以包括数据存储区,用以存储处理器下发输出的运算处理结果及数据。
在本公开实施方式中,GPU芯片200通过运行着色器程序相关的可编辑程序代码,实现顶点着色器210和片元着色器220相关处理功能。
CPU芯片100连接至总线300,通过总线300实现数据指令的下发和接收。I/O接口400为输入/输出接口,其与总线300连接,I/O接口400用于连接各种类型的输入或输出部分,例如,键盘、鼠标等输入部分;显示屏、扬声器等输出部分;调制解调器、网卡等通信部分;磁盘、光盘、半导体存储器等存储部分等,本公开对此不再赘述。
本公开实施方式中,GPU芯片200连接至I/O接口400,从而通过I/O接口400和总线300,实现与CPU芯片100的可通信连接。
以毛发模型生成为例,CPU芯片100通过总线300和I/O接口400,向GPU芯片200传输相关的着色器程序参数(Shader Program Uniform),然后GPU芯片200根据接收到的着色器程序参数,通过运行顶点着色器和片元着色器程序,实现毛发模型的生成。在此基础上,图2示出了本公开一些实施方式中的毛发模型的生成方法,下面结合图2进行具体说明。
如图2所示,在一些实施方式中,本公开示例的毛发模型的生成方法包括:
S210、获取初始毛发模型,以及初始毛发模型对应的第一噪声图和第二噪声图。
可以理解,毛发模型的生成是指,通过渲染处理使毛发在初始毛发模型的表面“长”出来。因此,可以获取初始毛发模型,通过对初始毛发模型进行渲染处理得到最终的目标毛发模型。
在一些实施方式中,初始毛发模型可以由用户预先制作生成,例如可以在三维模型软件中输入相关的毛发模型参数生成相应的初始毛发模型;或者,也可以选择默认的毛发模型作为初始毛发模型。
对于电子设备来说,可以根据用户输入的毛发模型参数,基于初始噪声图进行顶点法向偏移和/或扰动方向偏移处理,来得到相应的初始毛发模型。初始噪声图是指用来制作毛发模型的噪声贴图(NoiseMap),如图3所示,初始噪声图包括多个噪点(也叫晶胞),噪点可以用于表示毛发的分布区域,其中每一个噪点或者每多个噪点可以作为一根毛发的生成位置。因此,通过设置不同噪点密度的初始噪声图,即可控制毛发模型的毛发密度。对于初始毛发模型的具体生成过程,本公开下文实施方式中进行说明,在此暂不详述。
值得说明的是,本公开实施方式中,在对初始毛发模型进行渲染处理,以得到目标毛发模型的过程中,并非直接基于CPU芯片100传输的着色器程序中的透明度参数(Alpha)对模型进行渲染处理,而是引入两张不同噪点密度的噪声图(NoiseTex),也即第一噪声图和第二噪声图,并且根据第一噪声图和第二噪声图确定初始毛发模型的透明度参数。
在一些实施方式中,第一噪声图和第二噪声图可以与图3所示的初始噪声图类似,但是噪点密度不同。具体来说,第一噪声图的噪点密度大于第二噪声图的噪点密度。
可以理解,以每一个噪点对应一根毛发生成位置为例,根据毛发生长的特点可知,噪声图的噪点密度越大,表示越接近毛发的发根底层特征,反之噪声图的噪点密度越小,表示越接近毛发的发尖顶层特征。因此,本公开实施方式中,利用第一噪声图和第二噪声图来确定对初始毛发模型渲染的透明度参数,使得透明度参数可以表征由发根至发尖平滑的过渡,提高渲染后的毛发模型视觉效果。本公开下文中进行具体说明。
S220、根据第一噪声图和第二噪声图,确定初始毛发模型的透明度参数。
可以理解,毛发模型的渲染处理过程包括多种参数,例如漫反射参数、二维坐标偏移参数、透明度参数等,在对毛发模型进行渲染处理时,通过改变这些参数类型的参数值,可以生成不同视觉效果的毛发模型。
相关技术中,GPU芯片200在对毛发模型进行渲染处理时,是根据CPU芯片100传输的着色器程序参数(Shader Program Uniform),对毛发模型进行渲染处理。例如,在一次渲染处理中,GPU芯片200通过接收到的着色器程序参数中的透明度参数(Alpha)对毛发模型进行透明度渲染。
而在本公开实施方式中,用于实现对初始毛发模型渲染的透明度参数,是根据第一噪声图和第二噪声图得到。例如一些实施方式中,在片元着色器220对初始毛发模型逐像素(Pixel)或者逐片元(Fragment)进行处理时,根据该像素或该片元对应的第一噪声图和第二噪声图的像素透明度,对接收到的着色器程序参数中的初始透明度参数进行融合处理,从而确定该像素或该片元的目标透明度参数,依次根据每个像素或者片元的目标透明度参数得到整个初始毛发模型的透明度参数。本公开下文实施方式中对此进行具体说明,在此暂不详述。
可以理解,本公开实施方式中,第一噪声图和第二噪声图分别表示毛发底层和顶层的透明度特征,基于第一噪声图和第二噪声图的像素透明度逐像素或者逐片元对初始透明度参数进行融合处理,得到用于对初始毛发模型渲染的透明度参数,使得透明度参数可以更好融合毛发纹理特征,提高生成的毛发模型的视觉效果。
S230、基于透明度参数对初始毛发模型进行渲染处理,得到目标毛发模型。
具体而言,在确定透明度参数之后,GPU芯片200即可根据确定的透明度参数对初始毛发模型进行渲染处理。当然可以理解,用于对初始毛发模型渲染处理的着色器参数不仅包括透明度参数,还包括其他参数类型,例如漫反射参数、高光参数等等,本公开对此不做赘述。
对于GPU进行渲染处理的过程,本领域技术人员参照相关技术即可理解并充分实施,本公开对此不再赘述。在根据着色器参数对初始毛发模型进行渲染处理之后,即可得到渲染完成的目标毛发模型。
通过上述可知,本公开实施方式中,通过引入的第一噪声图和第二噪声图确定用于渲染初始毛发模型的透明度参数,使得生成的目标毛发模型更好的融合毛发纹理特征,由发根至发尖具有平滑的过渡效果,提高毛发模型的视觉效果。
本公开实施方式中,GPU芯片200在对毛发模型进行一次渲染处理过程中包括两个阶段,也即顶点着色器210处理阶段和片元着色器220处理阶段。顶点着色器210主要用于对初始噪声图的顶点偏移处理,从而得到初始毛发模型。片元着色器220根据顶点着色器210输出的初始毛发模型实现例如透明度、漫反射、二位坐标偏移等渲染处理。
如图4所示,在一些实施方式中,本公开示例的毛发模型的生成方法,顶点着色器210处理得到初始毛发模型的过程包括:
S410、获取初始噪声图,初始噪声图包括多个顶点。
S420、沿顶点的法线方向,对每个顶点按照预设偏移值进行偏移,得到初始毛发模型。
具体来说,初始噪声图可以如图3中所示,初始噪声图中包括多个噪点。
初始噪声图包括多个顶点,在一些实施方式中,如图3所示,可以将每个噪点中的任意一点设置为顶点,也即每个噪点对应一个顶点。在另一些实施方式中,如图3所示,也可以将多个噪点中的任意一点设置为顶点,也即多个噪点对应一个顶点。可以理解,每个顶点对应一根毛发的生长位置,从而可以根据具体毛发模型的密度需求,确定初始噪声图的顶点数量,本公开对此不作限制。
在确定初始噪声图的顶点之后,即可沿每个顶点的法线方向对每个顶点进行偏移。可以理解,顶点沿法线方向偏移的目的是为了在毛发模型的每个顶点位置沿法线方向“生长”出毛发,因此每个顶点偏移的偏移值即表示毛发的长度。在一些实施方式中,每个顶点的偏移值可以由用户预先输入设置,也即预设偏移值。从而GPU芯片200的顶点着色器210可以读取针对每个顶点的预设偏移值,根据预设偏移值对每个顶点进行偏移,得到初始毛发模型。
在一些实施方式中,考虑到真实世界的毛发往往会受到各种外力的扰动,例如重力、风力等均会对毛发产生扰动。从而,为了提高毛发模型的视觉效果,本公开实施方式中,不仅对顶点进行法线方向的偏移,还对毛发模型融合扰动方向的偏移。
如图5所示,在一些实施方式中,本公开示例的毛发模型的生成方法中,对每个顶点进行偏移得到初始毛发模型的过程包括:
S510、沿顶点的法线方向,对每个顶点按照预设偏移值进行偏移,得到第一毛发模型。
S520、根据扰动纹理图中包括的各个顶点的移动向量,确定各个顶点的扰动方向。
S530、根据扰动方向对第一毛发模型各个顶点进行偏移,得到初始毛发模型。
具体而言,基于前述图4实施方式类似的过程,用户可以预先设置用于顶点法向偏移的偏移值,也即预设偏移值,从而GPU芯片200的顶点着色器210可以读取针对每个顶点的预设偏移值,根据预设偏移值对每个顶点沿法线方向偏移,得到第一毛发模型。
本公开实施方式中,根据扰动纹理图(FlowTex)确定毛发模型的扰动方向。扰动纹理图是一种流动贴图,其存储有顶点的移动向量信息,用于表示外力的扰动方向,例如风力、重力等。
在一些实施方式中,扰动纹理图可以由用户预先根据需求输入设置,从而可根据扰动纹理图确定每个顶点的扰动方向和位移,并基于扰动方向和位移对第一毛发模型的每个顶点进行偏移处理,得到初始毛发模型。可以理解,由于初始毛发模型中的每个毛发融合了外力扰动,从而得到的初始毛发模型具有更加真实和精致的视觉效果。
通过上述可知,本公开实施方式中,根据初始噪声图和扰动纹理图对毛发模型进行顶点偏移,从而提高生成的初始毛发模型的精致度和逼真度,提高视觉效果。
在一些实施方式中,在得到顶点着色器210生成的初始毛发模型之后,片元着色器220即可根据初始毛发模型,采用本公开实施方式的毛发模型的生成方法得到目标毛发模型。
如图6所示,在一些实施方式中,本公开示例的毛发模型的生成方法中,确定初始毛发模型的透明度参数的过程包括:
S610、针对初始毛发模型的每一个片元,对第一噪声图采样得到第一像素透明度,对第二噪声图采样得到第二像素透明度。
片元(Fragment)是指对毛发模型进行光栅化之后得到的最小组成单元,其与像素(Pixel)具有对应关系,例如一个片元可以对应颜色缓冲区中的一个像素点,或者一个片元也可以对应颜色缓冲区中的多个像素点,从而,片元着色器220在对初始毛发模型进行渲染处理时,可以是逐片元进行处理,也可以是逐像素进行处理。以逐片元处理为例,每一个片元处理过程中需要调用一次程序,因此本实施方式中,以任意一个片元为例对处理流程进行说明。
本公开实施方式中,片元着色器220可以访问到该片元在二维图像坐标系中的坐标,从而可以基于该坐标对第一噪声图和第二噪声图上对应位置进行采样。具体来说,对第一噪声图采样得到第一像素透明度,对第二噪声图采样得到第二像素透明度。
可以理解,由于第一噪声图表示接近发根底层的毛发特征,从而第一像素透明度可以表征接近发根的透明度。同理,由于第二噪声图表示接近发尖顶层的毛发特征,从而第二像素透明度可以表征接近发尖的透明度。
在本公开实施方式中,即是根据第一像素透明度和第二像素透明度,对CPU芯片100传输的着色器程序参数中的初始透明度参数进行融合处理,得到该片元的目标透明度参数。
S620、基于第一像素透明度和第二像素透明度,对初始毛发模型的初始透明度参数进行融合处理,得到片元的目标透明度参数。
可以理解,对于该片元来说,第一像素透明度表示更加接近发根底层的毛发特征的透明度,而第二像素透明度表示更加接近发尖特征的透明度。从而本公开实施方式中,利用第一像素透明度和第二像素透明度,对初始透明度参数进行融合处理,使得得到的目标透明度参数可以融合该位置的像素特征,使毛发的表现效果更加自然逼真。
在一些实施方式中,可以根据预先设置的插值参数对第一像素透明度和第二像素透明度进行插值处理,将插值处理的结果与初始透明度参数进行融合,得到目标透明度参数。下面结合图7进行说明。
如图7所示,在一些实施方式中,本公开示例的生成方法,对初始毛发模型的初始透明度参数进行融合处理的过程,包括:
S621、基于预先设置的插值参数对第一像素透明度和第二像素透明度进行插值处理,得到片元的像素透明度。
S622、根据片元的像素透明度,以及初始毛发模型中该片元的初始透明度参数,确定片元的目标透明度参数。
本公开实施方式中,插值参数(Pass_offset)的作用是对第一像素透明度和第二像素透明度进行插值处理,从而得到中间层过渡的透明度,将该透明度作为该片元的像素透明色。在一些实施方式中,插值参数的具体数值可以由用户根据需求进行输入设置,从而片元着色器220在对每个片元进行处理时,可以基于该插值参数和上述过程中采样得到的第一像素透明度和第二像素透明度确定该片元的像素透明度。
在一些实施方式中,基于插值参数对第一像素透明度和第二像素透明度进行插值处理的过程可表示为:
Figure 104239DEST_PATH_IMAGE001
式中,
Figure 379494DEST_PATH_IMAGE002
表示该片元的像素透明度,
Figure 196140DEST_PATH_IMAGE003
表示第一像素透 明度,
Figure 198731DEST_PATH_IMAGE004
表示第二像素透明度,
Figure 502542DEST_PATH_IMAGE005
表示插值参数。可以理解,第一像素 透明度为第一噪声图采样得到的透明度,第二像素透明度为第二噪声图采样得到的透明 度,插值处理后的片元的像素透明度也即位于两者之间,用户可以通过调整插值参数
Figure 463545DEST_PATH_IMAGE005
的参数值,调整片元的像素透明度。
基于上述可知,对于每次渲染流程,CPU芯片100会向GPU芯片200发送本次渲染流程所需的着色器程序参数,其中包括用于对初始毛发模型透明度渲染的初始透明度参数(Pass_alpha)。
本公开实施方式中,对于该片元进行渲染处理时,在得到该片元的像素透明度之后,即可根据该像素透明度对初始透明度参数进行融合调整,得到最终用于对片元进行渲染的目标透明度参数。在一些实施方式中,对初始透明度参数融合调整的过程表示为:
Figure 236329DEST_PATH_IMAGE006
式中,
Figure 855660DEST_PATH_IMAGE007
表示该片元的目标透明度参数,
Figure 295869DEST_PATH_IMAGE002
表示该片元的像素透 明度,
Figure 303856DEST_PATH_IMAGE008
表示初始透明度参数。
对于每一个片元的处理来说,均会根据第一噪声图和第二噪声图对应位置采样的像素透明度,对初始毛发模型的初始透明度参数(Pass_alpha)进行融合调整,从而使得每个片元的目标透明度参数可以融合该位置的像素特征,通过调整插值参数(Pass_offset)即可满足不同片元的透明度渲染需求。
S630、根据每个片元的目标透明度参数,确定初始毛发模型的透明度参数。
上述对初始毛发模型的其中一个片元的处理流程进行说明,本领域技术人员可以理解,依次对每个片元执行上述方法过程,从而即可得到每个片元的目标透明度参数,从而确定整个初始毛发模型的透明度参数。在得到初始毛发模型的透明度参数之后,基于上文S230所述,对初始毛发模型进行渲染处理,即可得到对应的目标毛发模型。
通过上述可知,本公开实施方式中,基于第一噪声图和第二噪声图的像素透明度确定每个片元的目标透明度参数,从而使得每个片元的目标透明度参数可以融合该位置的像素特征,并且通过差值参数可以对片元的目标透明度进行调整,满足不同片元的透明度渲染需求,减少不同片元之间的断层感,提高毛发模型的视觉效果。
值得说明的是,上述实施方式对片元着色器220的渲染处理流程中,仅针对透明度参数确定及透明度渲染进行说明,但是本领域技术人员应当理解,对于初始毛发模型的渲染并不仅限于透明度渲染,还可以有基于其他参数的渲染,例如漫反射参数、二位坐标偏移参数等。
在一些实施方式中,片元着色器220还可以根据CPU芯片100发送的着色器程序参数中的漫反射参数,对初始毛发模型进行渲染。例如图8所示,在一些实施方式中,本公开示例的毛发模型的生成方法还包括:
S810、通过预设光照模型对初始毛发模型的初始光照参数进行处理,得到目标光照参数。
S820、根据目标光照参数和透明度参数对初始毛发模型进行渲染处理,得到目标毛发模型。
在本公开示例中,片元着色器220可以根据预先选择的预设光照模型对初始毛发模型的初始光照参数进行光照计算和混合。例如,预设光照模型可以包括Lamber光照模型、Half Lamber光照模型等。
在一个示例中,片元着色器220采用Half Lamber光照模型,对初始毛发模型的初始光照参数进行光照计算和混合,从而得到往初始毛发模型上叠加渲染的目标光照参数,然后基于目标光照参数和前述实施方式中确定的透明度参数对初始毛发模型进行渲染处理,得到目标毛发模型。
本示例实施方式中,采用Half Lamber光照模型相较于其他光照模型可以有效提高暗部亮度,使得最终呈现的毛发模型更加符合真实毛发的视觉效果。
可以理解,对于渲染初始毛发模型的着色器程序参数,其不仅可以包括上述的光照参数、透明度参数等,还可以包括其他任何用于对毛发模型渲染的处理参数。例如在一些实施方式中,片元着色器220还可以根据CPU芯片100发送的着色器程序参数中的UV偏移参数,对初始毛发模型进行纹理采样坐标的偏移,从而提高生成的毛发的整齐度。
本领域技术人员可以理解,对于初始毛发模型的渲染并不局限于上述示例,对于未尽详述之处,本领技术人员参照相关技术即可理解并充分实施,本公开对此不作限制。
多pass毛发是指通过多次渲染生成毛发模型,每个pass也即相当于一次渲染处理。每个pass包括上述顶点着色器处理阶段和片元着色器处理阶段,每一个pass处理可以视为在前一个pass得到的毛发模型的基础上叠加一层处理。
因此如图9所示,在一些方式中,本公开示例的毛发模型的生成方法包括对初始毛发模型的多次渲染(多pass)处理,其中,每次渲染处理的过程包括:
S910、根据第一噪声图、第二噪声图以及本次渲染处理对应的差值参数和初始透明度参数,确定本次渲染处理对应的透明度参数。
S920、基于透明度参数对前次渲染处理后得到的毛发模型进行渲染处理。
具体来说,结合图1所示结构,对于每个pass的处理过程,CPU芯片100均需要向GPU芯片200传输本次渲染处理对应的全量着色器程序参数(Shader Program Uniform),GPU芯片200在接收到该着色器程序参数之后,根据着色器程序参数包括的例如透明度参数、漫反射参数等参数值进行本次渲染处理。
本公开实施方式中,基于上文所述,对于每个pass的处理流程中,GPU芯片200根据本次接收到着色器程序参数,通过例如图6实施方式的过程确定本次渲染处理的透明度参数(Alpha),然后利用本次渲染处理的透明度参数(Alpha)对前次渲染处理后得到的毛发模型进行渲染(如本次渲染处理为首次渲染处理,则对初始毛发模型进行渲染),如此循环渲染处理,直至渲染次数满足条件,得到最终的目标毛发模型。
每个pass处理中对于毛发模型的具体渲染处理过程,本领域技术人员参照前述实施方式即可理解并充分实施,本公开不再赘述。
基于上述可知,对于每个pass的处理过程,CPU芯片100均需要向GPU芯片200传输本次渲染处理对应的全量着色器程序参数,但是由于电子设备的硬件限制,电子设备的I/O接口400在传输着色器程序参数时负载很大,传输速率较慢,因此导致GPU芯片200的渲染速度较慢,尤其对于移动终端等电子设备,难以实现复杂的毛发模型建模。
为了解决该技术问题,本公开一些实施方式中,在多pass的毛发模型生成过程中引入weak-pass,也即,对于多次渲染处理的部分渲染处理中,无需CPU芯片向GPU芯片传输全量的着色器程序参数,而是仅传输用于实现片元渲染的部分着色器参数,下面具体进行说明。
在一些实施方式中,本公开示例的毛发模型的生成方法中,生成方法由第一处理芯片执行,第一处理芯片与第二处理芯片可通信连接。在一个示例中,如图1所示,第一处理芯片包括GPU芯片200,第二处理芯片包括CPU处理芯片100。当然,可以理解,第一处理芯片和第二处理芯片并不局限于本公开示例,还可以是其他类型的处理芯片,例如SoC(Systemon Chip,系统级芯片),本公开对此不作限制。
在一些实施方式中,本公开示例的毛发模型的生成方法包括:
对于多次渲染处理中的至少一次渲染处理,接收第二处理芯片发送的本次渲染处理对应的部分着色器参数,部分着色器参数包括本次渲染处理对应的插值参数和初始透明度参数;
对于多次渲染处理中除上述至少一次渲染处理之外的其他次渲染处理,接收第二处理芯片发送的本次渲染处理对应的全部着色器参数。
具体来说,对于多pass毛发模型的生成过程中,将多次渲染分为weak-pass处理和pass处理。在一个示例中,多pass毛发模型的生成共包括8次渲染处理,可将8次渲染处理中至少一次作为weak-pass,其余次的渲染处理作为pass。
对于每个pass的渲染处理过程中,参见图1所示,CPU芯片100向GPU芯片200发送全部的着色器参数,也即上文所述的着色器程序参数(Shader Program Uniform)。着色器参数中包括了本次渲染处理的全量参数,例如顶点着色器处理阶段参数、漫反射参数、上文所述的初始透明度参数(Pass_alpha)和插值参数(Pass_offset)。GPU芯片200根据着色器参数进行上述渲染处理的方法步骤,以完成本次渲染处理。具体渲染处理过程参见上述实施方式即可,本公开对此不作限制。
而对于每个weak-pass的渲染处理过程中,参见图1所示,CPU芯片100不再向GPU芯片200发送全部的着色器参数,而是发送部分着色器参数。例如,结合前述图6实施方式,CPU芯片100可以仅向GPU芯片200传输本次渲染处理的初始透明度参数(Pass_alpha)和插值参数(Pass_offset),从而GPU芯片200可以根据本次接收的初始透明度参数(Pass_alpha)和插值参数(Pass_offset),利用图6实施方式步骤完成本次渲染。而对于除透明度渲染之外的其他渲染参数,继续使用前次传输的参数即可。
换言之,对于weak-pass的渲染处理过程中,CPU芯片与GPU芯片的通信仅包括初始透明度参数(Pass_alpha)和插值参数(Pass_offset),大大减少了通信数据量,降低I/O接口400负载,提高渲染处理的效率。另外,值得说明的是,由于依旧传输了本次渲染处理的初始透明度参数(Pass_alpha)和插值参数(Pass_offset),因此同样可以基于上述图6实施方式的方法实现对毛发模型的渲染,具有上述全部的有益效果。
可以理解,对于多pass渲染中weak-pass的数量,本领域技术人员可以根据具体的硬件能力进行设置,本公开对此不作限制。同时,对于每个pass和weak-pass中对毛发模型的具体渲染过程,本领域技术人员参照上述实施方式和相关技术即可理解并充分实施,本公开对此不再赘述。
通过上述可知,本公开实施方式中,基于第一噪声图和第二噪声图的像素透明度确定每个片元的目标透明度参数,从而使得每个片元的目标透明度参数可以融合该位置的像素特征,并且通过差值参数可以对片元的目标透明度进行调整,满足不同片元的透明度渲染需求,减少不同片元之间的断层感,提高毛发模型的视觉效果。并且针对多pass场景,减少部分渲染处理的数据传输,提高数据传输效率,缩短数据插传输时间,提高渲染处理的效率,例如在移动终端等硬件性能较低的电子设备上实现。
第二方面,本公开实施方式提供了一种毛发模型的生成装置,该装置可以应用于电子设备中。在一些实施方式中,本公开示例的电子设备可参照前述图1所示,对此不再赘述。
如图10所示,在一些实施方式中,本公开示例的毛发模型的生成装置,包括:
获取模块101,被配置为获取初始毛发模型,以及初始毛发模型对应的第一噪声图和第二噪声图;其中,第一噪声图的噪点密度大于第二噪声图的噪点密度;
确定模块102,被配置为根据第一噪声图和第二噪声图,确定初始毛发模型的透明度参数;
得到模块103,被配置为基于透明度参数对初始毛发模型进行渲染处理,得到目标毛发模型。
通过上述可知,本公开实施方式中,通过引入的第一噪声图和第二噪声图确定用于渲染初始毛发模型的透明度参数,使得生成的目标毛发模型更好的融合毛发纹理特征,由发根至发尖具有平滑的过渡效果,提高毛发模型的视觉效果。
在一些实施方式中,确定模块102被配置为:
针对初始毛发模型的每一个片元,对第一噪声图采样得到第一像素透明度,对第二噪声图采样得到第二像素透明度;
基于第一像素透明度和第二像素透明度,对初始毛发模型的初始透明度参数进行融合处理,得到片元的目标透明度参数;
根据每个片元的目标透明度参数,确定初始毛发模型的透明度参数。
在一些实施方式中,确定模块102被配置为:
基于预先设置的插值参数对第一像素透明度和第二像素透明度进行插值处理,得到片元的像素透明度;
根据像素透明度,以及初始毛发模型中片元的初始透明度参数,确定片元的目标透明度参数。
在一些实施方式中,获取模块101被配置为:
获取初始噪声图,初始噪声图包括多个顶点;
沿顶点的法线方向,对每个顶点按照预设偏移值进行偏移,得到初始毛发模型。
在一些实施方式中,获取模块101被配置为:
沿顶点的法线方向,对每个顶点按照预设偏移值进行偏移,得到第一毛发模型;
根据扰动纹理图中包括的各个顶点的移动向量信息,确定各个顶点的扰动方向;
根据扰动方向对第一毛发模型进行各个顶点进行偏移,得到初始毛发模型。
在一些实施方式中,装置还包括处理模块,处理模块被配置为对初始毛发模型的多次渲染处理,其中,每次渲染处理的过程包括:
根据第一噪声图、第二噪声图以及本次渲染处理对应的插值参数和初始透明度参数,确定本次渲染处理对应的透明度参数;
基于透明度参数对前次渲染处理后得到的毛发模型进行渲染处理。
在一些实施方式中,装置应用于第一处理芯片,处理模块被配置为:
对于多次渲染处理中的至少一次渲染处理,接收第二处理芯片发送的本次渲染处理对应的部分着色器参数,部分着色器参数包括本次渲染处理对应的插值参数和初始透明度参数;
对于多次渲染处理中除至少一次渲染处理之外的其他次渲染处理,接收第二处理芯片发送的本次渲染处理对应的全部着色器参数。
在一些实施方式中,第一处理芯片包括GPU芯片,和/或,第二处理芯片包括CPU芯片。
在一些实施方式中,得到模块被配置为:
通过预设光照模型对初始毛发模型的初始光照参数进行处理,得到目标光照参数;
根据目标光照参数和透明度参数对初始毛发模型进行渲染处理,得到目标毛发模型。
通过上述可知,本公开实施方式中,通过引入的第一噪声图和第二噪声图确定用于渲染初始毛发模型的透明度参数,使得生成的目标毛发模型更好的融合毛发纹理特征,由发根至发尖具有平滑的过渡效果,提高毛发模型的视觉效果。
第三方面,本公开实施方式提供了一种电子设备,包括:
处理器;以及
存储器,存储有能够被处理器读取的计算机指令,当计算机指令被读取时,处理器执行根据第一方面任一实施方式的方法。
第四方面,本公开实施方式提供了一种存储介质,用于存储计算机可读指令,计算机可读指令用于使计算机执行根据第一方面任一实施方式的方法。
对于上述电子设备以及存储介质的相关实施方式,本领域技术人员参照前述图1即可理解并充分实施,本公开对此不再赘述。
通过上述可知,本公开实施方式中,基于第一噪声图和第二噪声图的像素透明度确定每个片元的目标透明度参数,从而使得每个片元的目标透明度参数可以融合该位置的像素特征,并且通过差值参数可以对片元的目标透明度进行调整,满足不同片元的透明度渲染需求,减少不同片元之间的断层感,提高毛发模型的视觉效果。并且针对多pass场景,减少部分渲染处理的数据传输,提高数据传输效率,缩短数据插传输时间,提高渲染处理的效率,例如在移动终端等硬件性能较低的电子设备上实现。
值得说明的是,在一些实施方式中,通过本公开上述实施方式得到的目标毛发模型可应用在AR(Augmented Reality,增强现实)场景下,作为AR场景下的虚拟特效素材来使用。
具体而言,本公开涉及增强现实AR领域,通过获取现实环境中的目标对象的图像信息,进而借助各类视觉相关算法实现对目标对象的相关特征、状态及属性进行检测或识别处理,从而得到与具体应用匹配的虚拟与现实相结合的AR效果。示例性的,目标对象可涉及与人体相关的脸部、肢体、手势、动作等,或者与物体相关的标识物、标志物,或者与场馆或场所相关的沙盘、展示区域或展示物品等。视觉相关算法可涉及视觉定位、SLAM、三维重建、图像注册、背景分割、对象的关键点提取及跟踪、对象的位姿或深度检测等。具体应用不仅可以涉及跟真实场景或物品相关的导览、导航、讲解、重建、虚拟效果叠加展示等交互场景,还可以涉及与人相关的特效处理,比如妆容美化、肢体美化、特效展示、虚拟模型展示等交互场景。可通过卷积神经网络,实现对目标对象的相关特征、状态及属性进行检测或识别处理。上述卷积神经网络是基于深度学习框架进行模型训练而得到的网络模型。
显然,上述实施方式仅仅是为清楚地说明所作的举例,而并非对实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。而由此所引伸出的显而易见的变化或变动仍处于本公开创造的保护范围之中。

Claims (12)

1.一种毛发模型的生成方法,其特征在于,包括:
获取初始毛发模型,以及所述初始毛发模型对应的第一噪声图和第二噪声图;其中,所述第一噪声图表示毛发底层的透明度特征,所述第二噪声图表示毛发顶层的透明度特征,并且所述第一噪声图的噪点密度大于所述第二噪声图的噪点密度;
根据所述第一噪声图和所述第二噪声图对所述初始毛发模型的初始透明度参数进行融合处理,确定所述初始毛发模型的透明度参数;
基于所述透明度参数对所述初始毛发模型进行渲染处理,得到目标毛发模型。
2.根据权利要求1所述的方法,其特征在于,根据所述第一噪声图和所述第二噪声图对所述初始毛发模型的初始透明度参数进行融合处理,确定所述初始毛发模型的透明度参数,包括:
针对所述初始毛发模型的每一个片元,对所述第一噪声图采样得到第一像素透明度,对所述第二噪声图采样得到第二像素透明度;
基于所述第一像素透明度和所述第二像素透明度,对所述初始毛发模型的初始透明度参数进行融合处理,得到所述片元的目标透明度参数;
根据每个片元的目标透明度参数,确定所述初始毛发模型的透明度参数。
3.根据权利要求2所述的方法,其特征在于,所述基于所述第一像素透明度和所述第二像素透明度,对所述初始毛发模型的初始透明度参数进行融合处理,得到所述片元的目标透明度参数,包括:
基于预先设置的插值参数对所述第一像素透明度和所述第二像素透明度进行插值处理,得到所述片元的像素透明度;
根据所述像素透明度,以及所述初始毛发模型中所述片元的初始透明度参数,确定所述片元的目标透明度参数。
4.根据权利要求1所述的方法,其特征在于,所述获取初始毛发模型包括:
获取初始噪声图,所述初始噪声图包括多个顶点;
沿所述顶点的法线方向,对每个顶点按照预设偏移值进行偏移,得到所述初始毛发模型。
5.根据权利要求4所述的方法,其特征在于,所述沿所述顶点的法线方向,对每个顶点按照预设偏移值进行偏移,得到所述初始毛发模型,包括:
沿所述顶点的法线方向,对每个顶点按照预设偏移值进行偏移,得到第一毛发模型;
根据扰动纹理图中包括的各个顶点的移动向量信息,确定各个顶点的扰动方向;
根据所述扰动方向对所述第一毛发模型的各个顶点进行偏移,得到所述初始毛发模型。
6.根据权利要求1至5任意一项所述的方法,其特征在于,还包括对所述初始毛发模型的多次渲染处理,其中,每次渲染处理的过程包括:
根据所述第一噪声图、所述第二噪声图以及本次渲染处理对应的插值参数和初始透明度参数,确定本次渲染处理对应的透明度参数;
基于所述本次渲染处理对应的透明度参数对前次渲染处理后得到的毛发模型进行渲染处理。
7.根据权利要求6所述的方法,其特征在于,所述方法应用于第一处理芯片,所述方法还包括:
对于所述多次渲染处理中的至少一次渲染处理,接收第二处理芯片发送的本次渲染处理对应的部分着色器参数,所述部分着色器参数包括本次渲染处理对应的所述插值参数和所述初始透明度参数;
对于所述多次渲染处理中除所述至少一次渲染处理之外的其他次渲染处理,接收所述第二处理芯片发送的本次渲染处理对应的全部着色器参数。
8.根据权利要求7所述的方法,其特征在于,
所述第一处理芯片包括GPU芯片,和/或,所述第二处理芯片包括CPU芯片。
9.根据权利要求1所述的方法,其特征在于,所述基于所述透明度参数对所述初始毛发模型进行渲染处理,得到目标毛发模型,包括:
通过预设光照模型对所述初始毛发模型的初始光照参数进行处理,得到目标光照参数;
根据所述目标光照参数和所述透明度参数对所述初始毛发模型进行渲染处理,得到目标毛发模型。
10.一种毛发模型的生成装置,其特征在于,包括:
获取模块,被配置为获取初始毛发模型,以及所述初始毛发模型对应的第一噪声图和第二噪声图;其中,所述第一噪声图表示毛发底层的透明度特征,所述第二噪声图表示毛发顶层的透明度特征,并且所述第一噪声图的噪点密度大于所述第二噪声图的噪点密度;
确定模块,被配置为根据所述第一噪声图和所述第二噪声图对所述初始毛发模型的初始透明度参数进行融合处理,确定所述初始毛发模型的透明度参数;
得到模块,被配置为基于所述透明度参数对所述初始毛发模型进行渲染处理,得到目标毛发模型。
11.一种电子设备,其特征在于,包括:
处理器;以及
存储器,存储有能够被所述处理器读取的计算机指令,当所述计算机指令被读取时,所述处理器执行根据权利要求1至9中任一项所述的方法。
12.一种存储介质,其特征在于,用于存储计算机可读指令,所述计算机可读指令用于使计算机执行根据权利要求1至9中任一项所述的方法。
CN202111548989.6A 2021-12-17 2021-12-17 毛发模型的生成方法、装置、电子设备以及存储介质 Active CN113936086B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202111548989.6A CN113936086B (zh) 2021-12-17 2021-12-17 毛发模型的生成方法、装置、电子设备以及存储介质
PCT/CN2022/134582 WO2023109486A1 (zh) 2021-12-17 2022-11-28 毛发模型的生成方法、装置、电子设备以及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111548989.6A CN113936086B (zh) 2021-12-17 2021-12-17 毛发模型的生成方法、装置、电子设备以及存储介质

Publications (2)

Publication Number Publication Date
CN113936086A CN113936086A (zh) 2022-01-14
CN113936086B true CN113936086B (zh) 2022-03-18

Family

ID=79289331

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111548989.6A Active CN113936086B (zh) 2021-12-17 2021-12-17 毛发模型的生成方法、装置、电子设备以及存储介质

Country Status (2)

Country Link
CN (1) CN113936086B (zh)
WO (1) WO2023109486A1 (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113936086B (zh) * 2021-12-17 2022-03-18 北京市商汤科技开发有限公司 毛发模型的生成方法、装置、电子设备以及存储介质
CN116883567A (zh) * 2023-07-07 2023-10-13 上海散爆信息技术有限公司 一种绒毛渲染方法和装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5758046A (en) * 1995-12-01 1998-05-26 Lucas Digital, Ltd. Method and apparatus for creating lifelike digital representations of hair and other fine-grained images
CN102800129B (zh) * 2012-06-20 2015-09-30 浙江大学 一种基于单幅图像的头发建模和肖像编辑方法
CN111429557B (zh) * 2020-02-27 2023-10-20 网易(杭州)网络有限公司 一种毛发生成方法、毛发生成装置及可读存储介质
CN111508053B (zh) * 2020-04-26 2023-11-28 网易(杭州)网络有限公司 模型的渲染方法、装置、电子设备及计算机可读介质
CN113409465B (zh) * 2021-06-23 2023-05-12 网易(杭州)网络有限公司 毛发模型的生成方法、装置、存储介质与电子设备
CN113936086B (zh) * 2021-12-17 2022-03-18 北京市商汤科技开发有限公司 毛发模型的生成方法、装置、电子设备以及存储介质

Also Published As

Publication number Publication date
CN113936086A (zh) 2022-01-14
WO2023109486A1 (zh) 2023-06-22

Similar Documents

Publication Publication Date Title
US20180276882A1 (en) Systems and methods for augmented reality art creation
CN113936086B (zh) 毛发模型的生成方法、装置、电子设备以及存储介质
Shi et al. Deep generative models on 3d representations: A survey
US11521362B2 (en) Messaging system with neural hair rendering
US7995060B2 (en) Multiple artistic look rendering methods and apparatus
CN109035381B (zh) 基于ue4平台的卡通画头发渲染方法、存储介质
US10650524B2 (en) Designing effective inter-pixel information flow for natural image matting
US6816159B2 (en) Incorporating a personalized wireframe image in a computer software application
JP2023029984A (ja) 仮想イメージを生成するための方法、装置、電子機器及び可読記憶媒体
US10891801B2 (en) Method and system for generating a user-customized computer-generated animation
CN115100334B (zh) 一种图像描边、图像动漫化方法、设备及存储介质
Jiang et al. Nerffacelighting: Implicit and disentangled face lighting representation leveraging generative prior in neural radiance fields
Fei et al. 3d gaussian splatting as new era: A survey
CN116958344A (zh) 虚拟形象的动画生成方法、装置、计算机设备及存储介质
Fei et al. Split: Single portrait lighting estimation via a tetrad of face intrinsics
CN114119821A (zh) 虚拟对象的毛发渲染方法、装置及设备
CN110084872B (zh) 一种数据驱动的烟雾动画合成方法及系统
CN117671110B (zh) 基于人工智能的实时渲染系统及方法
CN117078838B (zh) 一种对象渲染方法、装置、存储介质及电子设备
WO2023142756A1 (zh) 直播互动方法、装置以及系统
CN115588070B (zh) 一种三维图像风格化迁移方法及终端
Xie et al. GaussianCity: Generative Gaussian Splatting for Unbounded 3D City Generation
CN116012666B (zh) 图像生成、模型的训练、信息重建方法、装置及电子设备
US20240185498A1 (en) Graphic rendering using diffusion models
US20240203027A1 (en) Device and method for generating dynamic texture map for 3 dimensional digital human

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 40061481

Country of ref document: HK