CN115731326A - 虚拟角色生成方法及装置、计算机可读介质和电子设备 - Google Patents
虚拟角色生成方法及装置、计算机可读介质和电子设备 Download PDFInfo
- Publication number
- CN115731326A CN115731326A CN202111005210.6A CN202111005210A CN115731326A CN 115731326 A CN115731326 A CN 115731326A CN 202111005210 A CN202111005210 A CN 202111005210A CN 115731326 A CN115731326 A CN 115731326A
- Authority
- CN
- China
- Prior art keywords
- scene
- image
- texture
- virtual character
- pupil
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
Abstract
本公开提供一种虚拟角色生成方法、虚拟角色生成装置、计算机可读介质和电子设备,涉及图像处理技术领域。该方法包括:获取当前场景对应的至少一张第一场景图像;根据至少一张第一场景图像生成当前场景对应的场景纹理,并对场景纹理进行纹理光照反射处理,以对生成的虚拟角色的瞳孔进行渲染得到显示瞳孔纹理的虚拟角色。本公开通过获取当前场景对应第一场景图像生成场景纹理,可以得到当前真实场景的场景纹理,进而基于纹理光照反射处理将场景纹理渲染在虚拟角色瞳孔中,解决了虚拟角色无法模拟眼球中瞳孔反射真实环境的光学现象的问题,提高了虚拟角色的灵动性和真实性。
Description
技术领域
本公开涉及图像处理技术领域,具体涉及一种虚拟角色生成方法、虚拟角色生成装置、计算机可读介质和电子设备。
背景技术
在现实生活中,无论是人还是动物,其眼球中的瞳孔处通常可反射出眼前的真实环境。例如,在人眼观察树木时,眼球中通常会反射出树木的样子。
在相关技术中,对于虚拟角色的瞳孔通常采用固定模型进行显示。在进行模型制作时,通常只对眼睛的大小和形状等进行编辑,一旦编辑结束后,从各个角度观察到的瞳孔纹理都是固定的。然而,这种固定的瞳孔纹理无法模拟上述眼球中瞳孔反射真实环境的光学现象,因此生成的虚拟角色不够真实。
发明内容
本公开的目的在于提供一种虚拟角色生成方法、虚拟角色生成装置、计算机可读介质和电子设备,可以成功模拟眼球中瞳孔反射真实环境的光学现象,进而至少在一定程度上提高虚拟角色的真实程度。
根据本公开的第一方面,提供一种虚拟角色生成方法,包括:获取当前场景对应的至少一张第一场景图像;根据至少一张第一场景图像生成当前场景对应的场景纹理,并对场景纹理进行纹理光照反射处理,以对生成的虚拟角色的瞳孔进行渲染得到显示瞳孔纹理的虚拟角色。
根据本公开的第二方面,提供一种虚拟角色生成装置,包括:图像获取模块,用于获取当前场景对应的至少一张第一场景图像;瞳孔渲染模块,用于根据至少一张第一场景图像生成当前场景对应的场景纹理,并对场景纹理进行纹理光照反射处理,以对生成的虚拟角色的瞳孔进行渲染得到显示瞳孔纹理的虚拟角色。
根据本公开的第三方面,提供一种计算机可读介质,其上存储有计算机程序,计算机程序被处理器执行时实现上述的方法。
根据本公开的第四方面,提供一种电子设备,其特征在于,包括:处理器;以及存储器,用于存储一个或多个程序,当一个或多个程序被一个或多个处理器执行时,使得一个或多个处理器实现上述的方法。
本公开的一种实施例所提供的虚拟角色生成方法,通过获取当前场景对应的至少一张第一场景图像,然后根据至少一张第一场景图像生成当前场景对应的场景纹理,并利用场景纹理渲染虚拟角色的瞳孔,以实现根据场景显示瞳孔纹理的目的。通过获取当前场景对应第一场景图像生成场景纹理,可以得到当前真实场景的场景纹理,进而基于纹理光照反射处理将场景纹理渲染在虚拟角色瞳孔中,解决了虚拟角色无法模拟眼球中瞳孔反射真实环境的光学现象的问题,提高了虚拟角色的灵动性和真实性。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。在附图中:
图1示出了可以应用本公开实施例的一种示例性系统架构的示意图;
图2示出了可以应用本公开实施例的一种电子设备的示意图;
图3示意性示出相关技术中采用固定模型制作的虚拟角色的瞳孔;
图4示意性示出本公开示例性实施例中一种虚拟角色生成方法的流程图;
图5示意性示出本公开示例性实施例中一种同一终端设备上显示2个虚拟角色的示意图;
图6示意性示出本公开示例性实施例中一种存在未拼接区域的拼接图像的示意图;
图7示意性示出本公开示例性实施例生成的虚拟角色的瞳孔的示意图;
图8示意性示出本公开示例性实施例中虚拟角色生成装置的组成示意图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。
此外,附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
图1示出了可以应用本公开实施例的一种虚拟角色生成方法及装置的示例性应用环境的系统架构的示意图。
如图1所示,系统架构100可以包括终端设备101、102、103中的一个或多个,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。终端设备101、102、103可以是各种具有图像处理功能的电子设备,包括但不限于台式计算机、便携式计算机、智能手机和平板电脑等等。应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。比如服务器105可以是多个服务器组成的服务器集群等。
本公开实施例所提供的虚拟角色生成方法一般由终端设备101、102、103中执行,相应地,虚拟角色生成装置一般设置于终端设备101、102、103中。但本领域技术人员容易理解的是,本公开实施例所提供的虚拟角色生成方法也可以由服务器105执行,相应的,虚拟角色生成装置也可以设置于服务器105中,本示例性实施例中对此不做特殊限定。举例而言,在一种示例性实施例中,可以是终端设备101、102、103中的摄像模组获取至少一张第一场景图像,然后通过网络104发送至服务器105中,服务器105在得到至少一张第一场景图像后,根据第一场景图像生成场景纹理,然后将场景纹理返回给终端设备101、102、103,以渲染生成的虚拟角色的瞳孔。
本公开的示例性实施方式提供一种用于实现虚拟角色生成方法的电子设备,其可以是图1中的终端设备101、102、103或服务器105。该电子设备至少包括处理器和存储器,存储器用于存储处理器的可执行指令,处理器配置为经由执行可执行指令来执行虚拟角色生成方法。
下面以图2中的移动终端200为例,对电子设备的构造进行示例性说明。本领域技术人员应当理解,除了特别用于移动目的的部件之外,图2中的构造也能够应用于固定类型的设备。在另一些实施方式中,移动终端200可以包括比图示更多或更少的部件,或者组合某些部件,或者拆分某些部件,或者不同的部件布置。图示的部件可以以硬件、软件或软件和硬件的组合实现。各部件间的接口连接关系只是示意性示出,并不构成对移动终端200的结构限定。在另一些实施方式中,移动终端200也可以采用与图2不同的接口连接方式,或多种接口连接方式的组合。
如图2所示,移动终端200具体可以包括:处理器210、内部存储器221、外部存储器接口222、通用串行总线(Universal Serial Bus,USB)接口230、充电管理模块240、电源管理模块241、电池242、天线1、天线2、移动通信模块250、无线通信模块260、音频模块270、扬声器271、受话器272、麦克风273、耳机接口274、传感器模块280、显示屏290、摄像模组291、指示器292、马达293、按键294以及用户标识模块(subscriber identification module,SIM)卡接口295等。其中传感器模块280可以包括深度传感器2801、陀螺仪传感器2802、压力传感器2803等。
处理器210可以包括一个或多个处理单元,例如:处理器210可以包括应用处理器(Application Processor,AP)、调制解调处理器、图形处理器(Graphics ProcessingUnit,GPU)、图像信号处理器(Image Signal Processor,ISP)、控制器、视频编解码器、数字信号处理器(Digital Signal Processor,DSP)、基带处理器和/或神经网络处理器(Neural-Network Processing Unit,NPU)等。其中,不同的处理单元可以是独立的器件,也可以集成在一个或多个处理器中。
NPU为神经网络(Neural-Network,NN)计算处理器,通过借鉴生物神经网络结构,例如借鉴人脑神经元之间传递模式,对输入信息快速处理,还可以不断的自学习。通过NPU可以实现移动终端200的智能认知等应用,例如:图像识别,人脸识别,语音识别,文本理解等。在一些实施例中,可以通过NPU执行图像补全等步骤。
处理器210中设置有存储器。存储器可以存储用于实现六个模块化功能的指令:检测指令、连接指令、信息管理指令、分析指令、数据传输指令和通知指令,并由处理器210来控制执行。
移动终端200通过GPU、显示屏290及应用处理器等实现显示功能。GPU为图像处理的微处理器,连接显示屏290和应用处理器。GPU用于执行数学和几何计算,用于图形渲染。处理器210可包括一个或多个GPU,其执行程序指令以生成或改变显示信息。在一些实施例中,可以通过GPU、显示屏290及应用处理器实现显示虚拟角色的过程,同时GPU也可以用于实现利用场景纹理渲染虚拟角色的瞳孔的过程。
移动终端200可以通过ISP、摄像模组291、视频编解码器、GPU、显示屏290及应用处理器等实现拍摄功能。其中,ISP用于处理摄像模组291反馈的数据;摄像模组291用于捕获静态图像或视频;数字信号处理器用于处理数字信号,除了可以处理数字图像信号,还可以处理其他数字信号;视频编解码器用于对数字视频压缩或解压缩,移动终端200还可以支持一种或多种视频编解码器。在一些实施例中,可以通过摄像模组获取当前场景对应的第一场景图像。
深度传感器2801用于获取景物的深度信息。在一些实施例中,深度传感器可以设置于摄像模组291,用于采集第一场景图像对应的深度数据,进而通过深度数据辅助场景纹理的生成过程。
陀螺仪传感器2802可以用于确定移动终端200的运动姿态。在一些实施例中,陀螺仪传感器也可以设置于终端设备对应的摄像模组291,以获取摄像模组采集第一场景图像时的运动姿态,进而通过运动姿态辅助场景纹理的生成过程。
此外,还可以根据实际需要在传感器模块280中设置其他功能的传感器,例如压力传感器2803、气压传感器、磁传感器、加速度传感器、距离传感器、接近光传感器、指纹传感器、温度传感器、触摸传感器、环境光传感器、骨传导传感器等。
在相关技术中,虚拟角色的瞳孔通常是采用固定模型进行制作的,即使在一些可以进行捏脸的虚拟角色定制的场景中,通常也只能对眼睛的大小和形状进行选择或调整。而且在捏脸结束后,虚拟角色的形象就会固定(参照图3所示),此时,无论是从哪个角度观察虚拟形象的眼睛,瞳孔的纹理都将不再变化,无法模拟真实人眼瞳孔对周围环境的反射现象。
基于上述一个或多个问题,本示例实施方式提供了一种虚拟角色生成方法。该虚拟角色生成方法可以应用于上述服务器105,也可以应用于上述终端设备101、102、103中的一个或多个,本示例性实施例中对此不做特殊限定。参照图4所示,该虚拟角色生成方法可以包括以下步骤S410至S420:
在步骤S410中,获取当前场景对应的至少一张第一场景图像。
在一示例性实施例中,在获取当前场景对应的第一场景图像时,可以通过摄像模组进行获取。具体的,获取第一场景图像的摄像模组可以包括用户指定的摄像模组,也可以包括根据应用程序等对生成虚拟角色的预先设置确定对应的摄像模组,本公开对此不做特殊限定。例如,假设需要在某一终端设备上生成一虚拟角色,可以将获取第一场景图像的摄像模组设置为该终端设备本身配置的摄像模组,用于对在该终端设备上显示的虚拟角色的瞳孔进行渲染;再如,在通过两个终端设备进行视频聊天等远程场景下,终端设备A需要显示终端设备B的用户对应的虚拟角色B。此时,可以根据针对视频聊天应用的设置,将获取用于渲染虚拟角色B的瞳孔的第一场景图像的摄像模组设置为终端设备B配置的摄像模组。
需要说明的是,在一些实施例中,生成虚拟角色本身可能也需要摄像模组采集用户的特征。此时,用于获取第一场景图像的摄像模组也可以根据用户指定或应用配置进行设定,并不一定要与生成虚拟角色时采用用户特征的摄像模组相同。例如,可以基于前置摄像模组采集用户的特征,用于生成虚拟角色,同时通过后置摄像模组采集第一场景图像,进而可以使得虚拟角色瞳孔显示的瞳孔纹理与用户当前面向的场景一致。
此外,本公开实施例的技术方案对同一个虚拟角色对应的摄像模组的数量不做限定。例如,终端设备上同时包括前后两个摄像模组,此时可以同时采用前后两个摄像模组共同获取第一场景图像,然后对不同视角的第一场景图像进行后续处理,得到场景纹理以便于进行渲染。
需要说明的是,本公开实施例的技术方案对同一终端设备上可以显示的虚拟角色的数量不做限定;同时,同一终端设备中包括多个虚拟角色时,每个虚拟角色对应的摄像模组的设定可以相同,也可以不同,本公开也不做特殊限定。例如,参照图5所示,在通过两个终端设备进行视频聊天等远程场景下,终端设备A需要同时显示使用终端设备A的用户的虚拟角色A和使用终端设备B的用户的虚拟角色B共2个虚拟角色;再如,终端设备A上,使用终端设备A的用户的虚拟角色对应的摄像模组可以设定为终端设备A本身配置的摄像模组,而使用终端设备B的用户的虚拟角色对应的摄像模组则可以设置为终端设备B配置的摄像模组。
在一示例性实施例中,在得到第一场景图像之后,为了提高第一场景图像的质量,可以在根据至少一张第一场景图像生成当前场景对应的场景纹理之前,先对第一场景图像进行预处理。具体的,预处理过程可以包括直方图匹配处理、平滑滤波处理以及增强变换处理等处理过程中的一种或多种的组合。
其中,在获取的第一场景图像只包括一张第一场景图像时,可以基于自定义的图像对第一场景图像进行直方图匹配;在获取的第一场景图像包括多张图像时,可以在多张第一场景图像之间进行直方图匹配,也可以基于自定义的图像分别对每张第一场景图像进行直方图匹配。直方图匹配处理过程的具体方式可以根据不同的需求进行不同的设定,本公开对此不做特殊限定。
其中,平滑滤波处理用于去除第一场景图像中的噪点;增强变换处理用于增强图像中的有用信息,在进行增强变换时,可以根据不同类型的场景选择不同的增强变换方式,本公开对此不做特殊限定。
在步骤S420中,根据至少一张第一场景图像生成当前场景对应的场景纹理,并对场景纹理进行纹理光照反射处理,以对生成的虚拟角色的瞳孔进行渲染得到显示瞳孔纹理的虚拟角色。
在一示例性实施例中,在得到第一场景图像时,若仅有一张第一场景图像,则可以直接将第一场景图像作为当前场景对应的场景纹理。
进一步地,可以选择多张第一场景图像,以得到更完整的场景纹理。此时,在得到多张第一场景图像时,由于每张第一场景图像都是有限视场角下的图像,因此可以把多张有限视场角下的第一场景图像拼接到全景图像中,进而得到完整的场景纹理。具体的,可以先对多张第一场景图像进行图像配准,然后基于配准结果对多张第一场景图像进行图像拼接,并将得到的拼接图像作为场景纹理。
举例而言,在图像配准阶段,可以根据摄像模组的内外参数计算出以将第一场景图像变换为正视图的变化矩阵,进而基于变化矩阵得到将第一场景图像映射为全景图像的初步映射。在得到初步映射后,对于图像重叠区域,可以进行多角度下的特征点对齐的方式,定量评估匹配特征点之间的平均绝对误差来确定图像叠加的方式,以对图像重叠区域进行图像叠加;对于图像非重叠区域,可以利用网格在单应变换和相似变换后的顶点插值,以矫正非重叠区域的扭曲。经过对图像重叠区域和图像非重叠区域的处理,可以得到拼接准确、重影少的拼接结果。
其中,在计算变化矩阵时,可以以采集第一场景图像的摄像模组所在的场景的世界坐标系作为参考,将所有第一场景图像的坐标系都转换为该世界坐标系下,以得到更加准确的拼接结果;在进行特征点对齐时,可以采用多角度的MovingDLT等方式进行。
需要说明的是,在通过摄像模组获取当前场景对应的第一场景图像时,可以直接通过采集当前场景的视频,然后在视频帧中进行关键帧筛选的过程,并将选取的关键帧作为第一场景图像进行后续处理。其中,在进行关键帧选取时,可以根据不同视频进行不同的关键帧选取,以便于拼接得到的拼接图像可以反映完整的当前场景。例如,在采集第一场景图像时,若采集当前场景的视频时摄像模组的每一帧之间的位姿变化较大,则可以直接选择连续的视频帧作为关键帧,以避免相邻关键帧之间不存在重叠区域;反之,若采集当前场景的视频时摄像模组的每一帧之间的位姿变化较小,则可以每隔几帧选择一帧作为关键帧,以避免相邻关键帧相似度过大。
在一示例性实施例中,在进行图像拼接时,由于输入多张第一场景图像不一定会包含当前场景内的所有对象,所以将多张第一场景图像拼接之后得到的拼接图像中可能存在没有拼接到的空白区域。在这种情况下,为了避免场景纹理中存在空白区域,可以在将拼接图像作为当前场景对应的场景纹理之前,先对拼接图像进行图像补全得到补全后的拼接图像,然后将补全后的拼接图像作为当前场景对应的场景纹理,以进行后续处理。
具体的,参照图6所示,在对拼接图像进行补全时,可以先识别出拼接图像中的空白的空白区域(图6中的灰色区域),然后基于预设纹理填充该区域得到一个待补全掩膜。然后对待补全掩膜包含的区域进行图像补全,得到补全后的拼接图像。其中,预设纹理可以根据当前虚拟角色的瞳孔颜色进行设定,以避免空白区域颜色与瞳孔颜色跨度过大导致的色彩突兀、不真实等情况;对待补全掩膜包含的区域进行图像补全时,可以通过深度学习网络等方式对空白区域进行补全,以输出完整的拼接图像。
此外,在一示例性实施例中,经过反射后的光源通常会出现光斑等特殊的光照特性。因此,在得到场景纹理后,可以对场景纹理进行光照处理,以模拟真实环境中反射条件下的光斑等特殊的光照特性,然后利用模拟真实环境的场景纹理图像生成瞳孔纹理。
在一示例性实施例中,经过反射的光源通常会呈现出类似光斑的效果。举例而言,若用户处在黑暗的室内看向明亮的窗外时,瞳孔中反射窗外的区域通常会出现一个高亮的光斑。基于上述情况,在进行光照处理时,可以在场景纹理中确定光源所在的光源区域,并在光源区域中增加光源光斑,以模拟真实环境中反射条件下的光源光斑。其中,光源光斑的大小通常可以根据光源区域的大小进行确定。具体的,光源区域越大,对应的光源光斑越大;反之光源越小,对应的光源光斑越小。
在一示例性实施例中,在得到场景纹理后,可以对场景纹理进行纹理光照反射处理来渲染虚拟角色的瞳孔以显示瞳孔纹理。具体的,在实现上述过程时,可以在创建虚拟角色在瞳孔时,将瞳孔模型设置为瞳孔纹理可以替换的模型。在得到场景纹理后,对场景纹理进行纹理光照反射处理,以替换虚拟角色瞳孔模型对应的瞳孔纹理,实现虚拟角色瞳孔可以反射真实环境的目的。
其中,纹理光照反射处理可以通过反射探针等模型实现,用于反射场景纹理。此外,在基于场景纹理渲染瞳孔纹理时,可以采用立方体纹理映射,球型纹理映射、天空盒子等形式实现。对应的,在进行渲染之前,可以根据不同的渲染方式对场景纹理进行不同表现形式的相互转换,以便于后续渲染过程的实现。
需要说明的是,由于获取第一场景图像和生成场景纹理的过程需要花费时间,因此可以先设定一张默认的瞳孔纹理,在初始条件下以该默认的瞳孔纹理渲染瞳孔模型,并在得到场景纹理后,通过场景纹理对默认的瞳孔纹理进行替换,以实现反射过程。
在一示例性实施例中,在获取第一场景图像的摄像模组的位置发生变化时,可能造成周围的环境对应的发生变化。因此,可以通过实时检测摄像模组的位置变量,在摄像模组的位置变量大于预设变量时,可以通过摄像模组获取当前时刻对应的第二场景图像,然后基于第二场景图像对场景纹理进行更新,进而采用更新后的场景纹理和纹理光照反射模型渲染虚拟角色的瞳孔。
举例而言,在基于第二场景图像对场景纹理进行更新时,可以对第二场景图像进行单应变换和相似变换,然后将变换后的第二场景图像插值到场景纹理中,得到更新后的场景纹理,进而基于更新后的场景纹理进行后续的渲染等处理。
需要说明的是,在根据第二场景图像对场景纹理进行更新之前,也可以先对第二场景图像进行预处理,例如直方图匹配处理、平滑滤波处理、增强变换处理等处理过程,以提高第二场景图像的质量。
综上,本示例性实施方式中,通过真实环境的场景图像生成场景纹理,进而将场景纹理用于瞳孔反射中,可以实现在瞳孔中显示更自然的场景纹理的同时,还在场景纹理中增加了光源在反射条件下的光照特性,使得瞳孔显示更加真实、灵动(参照图7所示)。
需要注意的是,上述附图仅是根据本公开示例性实施例的方法所包括的处理的示意性说明,而不是限制目的。易于理解,上述附图所示的处理并不表明或限制这些处理的时间顺序。另外,也易于理解,这些处理可以是例如在多个模块中同步或异步执行的。
进一步的,参考图8所示,本示例的实施方式中还提供一种虚拟角色生成装置800,包括图像获取模块810和瞳孔渲染模块820。其中:
图像获取模块810可以用于获取当前场景对应的至少一张第一场景图像。
瞳孔渲染模块820可以用于根据至少一张第一场景图像生成当前场景对应的场景纹理,并对场景纹理进行纹理光照反射处理,以对生成的虚拟角色的瞳孔进行渲染得到显示瞳孔纹理的虚拟角色。
在一示例性实施例中,在第一场景图像包括多张时,瞳孔渲染模块820可以用于对多张第一场景图像进行图像配准得到配准结果;基于配准结果对多张第一场景图像进行图像拼接得到拼接图像,并将拼接图像作为当前场景对应的场景纹理。
在一示例性实施例中,瞳孔渲染模块820可以用于对拼接图像进行图像补全得到补全后的拼接图像,以将补全后的拼接图像作为当前场景对应的场景纹理。
在一示例性实施例中,瞳孔渲染模块820可以用于识别拼接图像中的空白区域,并基于预设纹理生成待补全掩膜;对待补全掩膜进行图像补全,得到补全后的拼接图像。
在一示例性实施例中,瞳孔渲染模块820可以用于对场景纹理进行光照处理得到处理后的场景纹理图像,以利用处理后的场景纹理图像生成瞳孔纹理。
在一示例性实施例中,瞳孔渲染模块820可以用于在场景纹理中确定光源区域,并在光源区域中增加光源光斑。
在一示例性实施例中,图像获取模块810可以用于对第一场景图像进行图像预处理;其中,预处理包括以下处理过程中的至少一种:直方图匹配处理、平滑滤波处理、增强变换处理。
在一示例性实施例中,图像获取模块810可以用于在检测到获取第一场景图像的摄像模组的位置变量大于预设变量时,通过摄像模组获取第二场景图像,并基于第二场景图像对场景纹理进行更新,以基于更新后的场景纹理渲染虚拟角色的瞳孔。
上述装置中各模块的具体细节在方法部分实施方式中已经详细说明,未披露的细节内容可以参见方法部分的实施方式内容,因而不再赘述。
所属技术领域的技术人员能够理解,本公开的各个方面可以实现为系统、方法或程序产品。因此,本公开的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“系统”。
本公开的示例性实施方式还提供了一种计算机可读存储介质,其上存储有能够实现本说明书上述方法的程序产品。在一些可能的实施方式中,本公开的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当程序产品在终端设备上运行时,程序代码用于使终端设备执行本说明书上述“示例性方法”部分中描述的根据本公开各种示例性实施方式的步骤,例如可以执行图4中任意一个或多个步骤。
需要说明的是,本公开所示的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
此外,可以以一种或多种程序设计语言的任意组合来编写用于执行本公开操作的程序代码,程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其他实施例。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限。
Claims (11)
1.一种虚拟角色生成方法,其特征在于,包括:
获取当前场景对应的至少一张第一场景图像;
根据所述至少一张第一场景图像生成所述当前场景对应的场景纹理,并对所述场景纹理进行纹理光照反射处理,以对生成的虚拟角色的瞳孔进行渲染得到显示瞳孔纹理的所述虚拟角色。
2.根据权利要求1所述的方法,其特征在于,在所述第一场景图像包括多张时,根据多张所述第一场景图像生成所述当前场景对应的场景纹理,包括:
对多张所述第一场景图像进行图像配准得到配准结果;
基于配准结果对多张所述第一场景图像进行图像拼接得到拼接图像,并将所述拼接图像作为所述当前场景对应的场景纹理。
3.根据权利要求2所述的方法,其特征在于,在所述将所述拼接图像作为所述当前场景对应的场景纹理之前,所述方法还包括:
对所述拼接图像进行图像补全得到补全后的拼接图像,以将所述补全后的拼接图像作为所述当前场景对应的场景纹理。
4.根据权利要求3所述的方法,其特征在于,所述对所述拼接图像进行图像补全得到补全后的拼接图像,包括:
识别所述拼接图像中的空白区域,并基于预设纹理生成待补全掩膜;
对所述待补全掩膜进行图像补全,得到补全后的拼接图像。
5.根据权利要求1所述的方法,其特征在于,在所述对所述场景纹理进行纹理光照反射处理之前,所述方法还包括:
对所述场景纹理进行光照处理得到处理后的场景纹理图像,以利用所述处理后的场景纹理图像生成瞳孔纹理。
6.根据权利要求5所述的方法,其特征在于,所述对所述场景纹理进行光照处理得到处理后的场景纹理图像,包括:
在所述场景纹理中确定光源区域,并在所述光源区域中增加光源光斑。
7.根据权利要求1所述的方法,其特征在于,在所述根据所述至少一张第一场景图像生成所述当前场景对应的场景纹理之前,所述方法还包括:
对所述第一场景图像进行图像预处理;
其中,所述预处理包括以下处理过程中的至少一种:
直方图匹配处理、平滑滤波处理、增强变换处理。
8.根据权利要求1所述的方法,其特征在于,所述方法还包括:
在检测到获取所述第一场景图像的摄像模组的位置变量大于预设变量时,通过所述摄像模组获取第二场景图像,并基于所述第二场景图像对所述场景纹理进行更新,以基于更新后的场景纹理渲染所述虚拟角色的瞳孔。
9.一种虚拟角色生成装置,其特征在于,包括:
图像获取模块,用于获取当前场景对应的至少一张第一场景图像;
瞳孔渲染模块,用于根据所述至少一张第一场景图像生成所述当前场景对应的场景纹理,并对所述场景纹理进行纹理光照反射处理,以对生成的虚拟角色的瞳孔进行渲染得到显示瞳孔纹理的所述虚拟角色。
10.一种计算机可读介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至8中任一项所述的方法。
11.一种电子设备,其特征在于,包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行权利要求1至8中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111005210.6A CN115731326A (zh) | 2021-08-30 | 2021-08-30 | 虚拟角色生成方法及装置、计算机可读介质和电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111005210.6A CN115731326A (zh) | 2021-08-30 | 2021-08-30 | 虚拟角色生成方法及装置、计算机可读介质和电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115731326A true CN115731326A (zh) | 2023-03-03 |
Family
ID=85290934
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111005210.6A Pending CN115731326A (zh) | 2021-08-30 | 2021-08-30 | 虚拟角色生成方法及装置、计算机可读介质和电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115731326A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110706300A (zh) * | 2019-09-19 | 2020-01-17 | 腾讯科技(深圳)有限公司 | 虚拟形象生成方法及装置 |
CN115953330A (zh) * | 2023-03-13 | 2023-04-11 | 腾讯科技(深圳)有限公司 | 虚拟场景图像的纹理优化方法、装置、设备和存储介质 |
-
2021
- 2021-08-30 CN CN202111005210.6A patent/CN115731326A/zh active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110706300A (zh) * | 2019-09-19 | 2020-01-17 | 腾讯科技(深圳)有限公司 | 虚拟形象生成方法及装置 |
CN115953330A (zh) * | 2023-03-13 | 2023-04-11 | 腾讯科技(深圳)有限公司 | 虚拟场景图像的纹理优化方法、装置、设备和存储介质 |
CN115953330B (zh) * | 2023-03-13 | 2023-05-26 | 腾讯科技(深圳)有限公司 | 虚拟场景图像的纹理优化方法、装置、设备和存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110766777B (zh) | 虚拟形象的生成方法、装置、电子设备及存储介质 | |
CN108961369B (zh) | 生成3d动画的方法和装置 | |
CN113822977A (zh) | 图像渲染方法、装置、设备以及存储介质 | |
WO2020103700A1 (zh) | 一种基于微表情的图像识别方法、装置以及相关设备 | |
CN115115688B (zh) | 一种图像处理方法及电子设备 | |
CN112598780B (zh) | 实例对象模型构建方法及装置、可读介质和电子设备 | |
CN112927362A (zh) | 地图重建方法及装置、计算机可读介质和电子设备 | |
CN108388889B (zh) | 用于分析人脸图像的方法和装置 | |
US11748913B2 (en) | Modeling objects from monocular camera outputs | |
CN110458924B (zh) | 一种三维脸部模型建立方法、装置和电子设备 | |
US11967018B2 (en) | Inferred shading | |
CN114332374A (zh) | 一种虚拟显示方法、设备以及存储介质 | |
CN115731326A (zh) | 虚拟角色生成方法及装置、计算机可读介质和电子设备 | |
EP3141985A1 (en) | A gazed virtual object identification module, a system for implementing gaze translucency, and a related method | |
CN111589138B (zh) | 动作预测方法、装置、设备及存储介质 | |
CN115049016A (zh) | 基于情绪识别的模型驱动方法及设备 | |
CN112991208B (zh) | 图像处理方法及装置、计算机可读介质和电子设备 | |
CN113920023B (zh) | 图像处理方法及装置、计算机可读介质和电子设备 | |
CN117916773A (zh) | 用于在移动设备中同时重建姿态和参数化3d人体模型的方法和系统 | |
CN110084306B (zh) | 用于生成动态图像的方法和装置 | |
CN115761565B (zh) | 视频生成方法、装置、设备与计算机可读存储介质 | |
CN109816791B (zh) | 用于生成信息的方法和装置 | |
CN112950516B (zh) | 图像局部对比度增强的方法及装置、存储介质及电子设备 | |
CN113610724A (zh) | 图像优化方法及装置、存储介质及电子设备 | |
CN111553286B (zh) | 用于捕捉耳朵动画特征的方法、电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |