CN115830196A - 虚拟形象处理方法及装置 - Google Patents
虚拟形象处理方法及装置 Download PDFInfo
- Publication number
- CN115830196A CN115830196A CN202211580659.XA CN202211580659A CN115830196A CN 115830196 A CN115830196 A CN 115830196A CN 202211580659 A CN202211580659 A CN 202211580659A CN 115830196 A CN115830196 A CN 115830196A
- Authority
- CN
- China
- Prior art keywords
- image
- user
- camera
- key points
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 33
- 238000013507 mapping Methods 0.000 claims abstract description 28
- 238000012545 processing Methods 0.000 claims description 36
- 239000003550 marker Substances 0.000 claims description 33
- 230000004927 fusion Effects 0.000 claims description 18
- 238000012549 training Methods 0.000 claims description 18
- 230000003287 optical effect Effects 0.000 claims description 11
- 238000009877 rendering Methods 0.000 claims description 5
- 238000000034 method Methods 0.000 description 54
- 230000008569 process Effects 0.000 description 34
- 238000010586 diagram Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 10
- 230000006872 improvement Effects 0.000 description 9
- 230000009471 action Effects 0.000 description 8
- 238000004590 computer program Methods 0.000 description 7
- 230000008859 change Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 238000007499 fusion processing Methods 0.000 description 4
- 210000000746 body region Anatomy 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000003631 expected effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 229920001296 polysiloxane Polymers 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
Abstract
本说明书实施例提供了虚拟形象处理方法及装置,其中,一种虚拟形象处理方法包括:获取虚拟世界的接入设备配置的摄像头集合中各摄像头采集的用户在物理世界的用户图像;对各用户图像进行图像特征识别,获得所述各用户图像在至少一个维度的图像特征;将所述图像特征和对应用户图像的稀疏关键点输入关键点确定模型进行关键点确定,获得所述各用户图像的稠密关键点;基于所述各用户图像的稠密关键点进行坐标映射,获得所述用户在所述虚拟世界中的虚拟形象。
Description
技术领域
本文件涉及虚拟化技术领域,尤其涉及一种虚拟形象处理方法及装置。
背景技术
虚拟世界提供了对真实世界的模拟,甚至能够提供在真实世界难以实现的场景,因此虚拟世界越来越多地应用在各种场景。在虚拟世界场景中,用户通过特定的身份ID登录三维虚拟世界,通过虚拟世界中虚拟的用户角色进行活动,通常,在虚拟世界中存在不同的用户角色,这些用户角色各自进行不同的活动。
发明内容
本说明书一个或多个实施例提供了一种虚拟形象处理方法。所述虚拟形象处理方法,包括:获取虚拟世界的接入设备配置的摄像头集合中各摄像头采集的用户在物理世界的用户图像。对各用户图像进行图像特征识别,获得所述各用户图像在至少一个维度的图像特征。将所述图像特征和对应用户图像的稀疏关键点输入关键点确定模型进行关键点确定,获得所述各用户图像的稠密关键点。基于所述各用户图像的稠密关键点进行坐标映射,获得所述用户在所述虚拟世界中的虚拟形象。
本说明书一个或多个实施例提供了一种虚拟形象处理装置,包括:用户图像获取模块,被配置为获取虚拟世界的接入设备配置的摄像头集合中各摄像头采集的用户在物理世界的用户图像。图像特征识别模块,被配置为对各用户图像进行图像特征识别,获得所述各用户图像在至少一个维度的图像特征。关键点确定模块,被配置为将所述图像特征和对应用户图像的稀疏关键点输入关键点确定模型进行关键点确定,获得所述各用户图像的稠密关键点。坐标映射模块,被配置为基于所述各用户图像的稠密关键点进行坐标映射,获得所述用户在所述虚拟世界中的虚拟形象。
本说明书一个或多个实施例提供了一种虚拟形象处理设备,包括:处理器;以及,被配置为存储计算机可执行指令的存储器,所述计算机可执行指令在被执行时使所述处理器:获取虚拟世界的接入设备配置的摄像头集合中各摄像头采集的用户在物理世界的用户图像。对各用户图像进行图像特征识别,获得所述各用户图像在至少一个维度的图像特征。将所述图像特征和对应用户图像的稀疏关键点输入关键点确定模型进行关键点确定,获得所述各用户图像的稠密关键点。基于所述各用户图像的稠密关键点进行坐标映射,获得所述用户在所述虚拟世界中的虚拟形象。
本说明书一个或多个实施例提供了一种存储介质,用于存储计算机可执行指令,所述计算机可执行指令在被处理器执行时实现以下流程:获取虚拟世界的接入设备配置的摄像头集合中各摄像头采集的用户在物理世界的用户图像。对各用户图像进行图像特征识别,获得所述各用户图像在至少一个维度的图像特征。将所述图像特征和对应用户图像的稀疏关键点输入关键点确定模型进行关键点确定,获得所述各用户图像的稠密关键点。基于所述各用户图像的稠密关键点进行坐标映射,获得所述用户在所述虚拟世界中的虚拟形象。
附图说明
为了更清楚地说明本说明书一个或多个实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本说明书中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图;
图1为本说明书一个或多个实施例提供的一种虚拟形象处理方法处理流程图;
图2为本说明书一个或多个实施例提供的一种应用于虚拟世界场景的虚拟形象处理方法处理流程图;
图3为本说明书一个或多个实施例提供的一种虚拟形象处理装置示意图;
图4为本说明书一个或多个实施例提供的一种虚拟形象处理设备的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本说明书一个或多个实施例中的技术方案,下面将结合本说明书一个或多个实施例中的附图,对本说明书一个或多个实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本说明书的一部分实施例,而不是全部的实施例。基于本说明书一个或多个实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本文件的保护范围。
本说明书提供的一种虚拟形象处理方法实施例:
本实施例提供的虚拟形象处理方法,从采集到的用户图像在多个维度的图像特征出发,结合用户图像的稀疏关键点,也即是低精度关键点对用户图像进行关键点的调整,得到用户图像的稠密关键点,也即是高精度关键点,基于高精度关键点对用户进行虚拟形象的生成,使生成的虚拟形象与物理世界中的用户形象更加接近;
具体的,对虚拟世界的接入设备配置的各摄像头采集的用户图像进行图像特征识别,获得各用户图像在多个维度的图像特征,基于各用户图像的图像特征和稀疏关键点确定各用户图像的稠密关键点,根据各用户图像的稠密关键点进行坐标映射,获得用户在虚拟世界中的虚拟形象;以此,结合图像特征和稀疏关键点,使确定的稠密关键点更加准确更加有效,进一步提升获得的虚拟形象的有效性。
参照图1,本实施例提供的虚拟形象处理方法,具体包括步骤S102至步骤S108。
步骤S102,获取虚拟世界的接入设备配置的摄像头集合中各摄像头采集的用户在物理世界的用户图像。
本实施例所述虚拟世界,是指基于去中心化协作实现并且具有开放经济系统的虚拟的拟真世界;具体的,物理世界,也即是真实世界中的用户可通过接入设备接入虚拟世界,以在虚拟世界中进行相关行为,比如用户通过接入设备进行游戏交互的游戏虚拟世界,再比如用户通过接入设备进行在线会议的会议虚拟世界;
进一步,还可建立虚拟世界中虚拟形象与真实世界中的用户的身份映射,基于建立的身份映射在虚拟世界中进行相关活动。所述虚拟世界的接入设备,可以是连接虚拟世界的VR(Virtual Reality,虚拟现实)设备、AR(Augmented Reality,增强现实)设备等,比如连接虚拟世界的头戴式VR设备。本实施例提供的虚拟形象处理方法,可应用于服务端,所述服务端,是指为接入虚拟世界的接入设备提供相应服务的服务器或者服务平台,或者,维护虚拟世界运行的服务器或者服务平台。
为了提升用户对虚拟世界中的虚拟形象的感知程度,在虚拟世界中生成的虚拟形象,可按照物理世界中用户的动作使虚拟世界中的虚拟形象展示相同的动作,以提升用户对于虚拟世界的感知程度;基于此,为了实现将物理世界中用户的动作虚拟化,使在虚拟世界中展示与真实世界中动作相同的虚拟形象,在虚拟世界的接入设备配置摄像头阵列;所述摄像头集合,是指由配置在虚拟世界的接入设备的摄像头阵列中的摄像头组成的集合;可选的,所述摄像头集合包括摄像头阵列。所述摄像头集合由多个摄像头组成,所述摄像头集合中的摄像头用户采集所述接入设备的佩戴用户的身体部位的用户图像;所述摄像头集合中各摄像头采集包含至少一个身体部位的用户图像。
所述用户图像,是指摄像头采集的真实世界中包含接入设备的佩戴用户至少一个身体部位的部位图像,包括包含佩戴用户至少一个身体部位的RGB(Red Green Blue)图像。所述用户包括接入设备的佩戴用户。
具体实施时,为了保证接入设备配置的摄像头阵列中的摄像头能够在用户佩戴接入设备并且活动的情况下,能够采集到佩戴用户各个身体部位的用户图像,在采集用户图像之前,需要对摄像头集合中各摄像头的摄像头参数进行初始化,使各摄像头采集到的佩戴用户的身体部位位于采集区域的中间位置;可选的,若摄像头采集的采集范围包括多个身体部位,则对各摄像头的初始化,使各摄像头采集到的佩戴用户的多个身体部位都位于采集区域的中间位置。
本实施例提供的一种可选实施方式中,采用如下方式进行摄像头的初始化:
基于所述各摄像头采集的初始用户图像,对所述各摄像头进行摄像头参数调节,以使所述各摄像头采集的用户的关键部位位于所述各摄像头的采集区域的中心位置。
具体的,基于所述各摄像头采集位于预设区域内用户的初始用户图像;核验所述各摄像头采集的初始用户图像对应用户的身体部位是否位于所述初始用户图像的中间位置;若是,则确定该摄像头初始化完成;若否,则对采集的用户的身体部位未位于初始用户图像的中间位置的初始用户图像对应的摄像头进行摄像头参数调节,以使该摄像头采集的初始用户图像中用户的身体部位位于初始用户图像的中间位置。
可选的,在对采集的用户的身体部位未位于初始用户图像的中间位置的初始用户图像对应的摄像头进行摄像头参数调节的过程中,根据初始用户图像中用户的身体部位位置与中间位置的差异进行摄像头参数调节。
所述预设区域,包括为进行接入设备的摄像头初始化圈定的具有边界的区域。
需要说明的是,对于接入设备配置的摄像头阵列中摄像头的初始化,可在接入设备出厂时对进行初始化,也可在每一次用户佩戴接入设备的一开始进行初始化,并在初始化后对接入设备的佩戴用户进行物理世界的用户图像的采集。
在具体执行过程中,为了在虚拟世界中渲染与物理世界中的用户更加接近的虚拟形象,对用户在物理世界中的用户图像进行采集,从用户在物理世界中的用户图像出发对用户在虚拟世界中的虚拟形象进行渲染,以使渲染获得的虚拟形象与用户在物理世界中的真实形象更加接近,因此,在用户佩戴虚拟世界的接入设备或者使用接入设备时,基于虚拟世界的接入设备配置的摄像头采集用户在物理世界的用户图像,也即是,获取虚拟世界的接入设备配置的摄像头采集的用户在物理世界的用户图像;且为了进一步保证用户的虚拟形象与物理形象更加接近,在基于接入设备配置摄像头矩阵采集用户真实形象的不同身体部位的用户图像,也即是,获取虚拟世界的接入设备配置的摄像头集合中各摄像头采集的用户在物理世界的用户图像。
可选的,所述各摄像头采集的用户图像包括各摄像头针对对应的身体部位采集的身体部位图像。
步骤S104,对各用户图像进行图像特征识别,获得所述各用户图像在至少一个维度的图像特征。
上述步骤中,获取到虚拟世界的接入设备配置的摄像头集合中各摄像头采集的用户在物理世界的用户图像后,为了进一步保证生成的虚拟形象的有效性,对各摄像头采集的用户图像,也即是各用户图像进行图像特征识别,获得各用户图像在至少一个维度的图像特征。
所述图像特征,包括能够表征图像中像素点信息的像素点参数;可选的,所述至少一个维度的图像特征,包括下述至少一项:移动维度的光流,第一像素维度的深度图谱,向量维度的法向向量,第二像素维度的显著性图谱。所述各用户图像在至少一个维度的图像特征包括各用户图像中各像素点在至少一个维度的图像特征。
实际应用中,由于用户在物理世界中并不一定保持长久的静止状态,会有一些动作变化,用户在物理世界中做出一些动作则会使用户的真实形象发生变化;为了尽可能地在用户的真实形象发生变化的情况下,使用户的虚拟形象也做出相应的变化,因此,通过对采集,也即是拍摄到的用户图像进行不同维度的图像特征识别,进而生成虚拟形象,保证生成的虚拟形象的有效性;
基于此,在具体执行过程中,对各用户图像进行图像特征识别,获得各用户图像在至少一个维度的图像特征;需要说明的是,对各用户图像进行图像特征识别的过程中,针对每一个用户图像分别进行图像特征识别,获得各摄像头采集的用户图像在至少一个维度的图像特征。
为了提升确定的图像特征的有效性,本实施例提供的一种可选实施方式中,通过特征识别模型进行图像特征识别,具体的,在对各用户图像进行图像特征识别,获得各用户图像在至少一个维度的图像特征的过程中,执行如下操作:
将所述各用户图像输入特征识别模型进行图像特征识别,获得所述各用户图像在至少一个维度的图像特征;
具体的,通过将每一个用户图像分别输入特征识别模型进行图像特征识别,获得每一个用户图像在至少一个维度的图像特征。
具体实施时,在获得各用户图像在至少一个维度的图像特征后,一方面,结合图像特征和对应用户图像的稀疏关键点确定各用户图像的稠密关键点,进一步基于各用户图像的稠密关键点生成用户在虚拟世界中的虚拟形象;
另一方面,为了使后续,也即是摄像头在采集时间点的用户图像之后的时间点采集的用户图像的有效性,使采集到的用户图像中的身体部位更加清晰更加有效,还可基于所述各用户图像和各用户图像在至少一个维度的图像特征,调节对应摄像头的摄像头参数。所述摄像头参数包括采集角度、清晰度等。
为了使调整后的摄像头能达到预期的效果,也即是使调节后的摄像头采集到用户的身体部位依然位于摄像头采集的用户图像的中间位置,换句话说,使摄像头根据用户在物理世界中的真实形象的移动方向进行采集角度的调节或者其他参数的调节,保证采集的对应的身体部位位于用户图像的中间位置,本实施例提供的一种可选实施方式中,通过如下方式进行摄像头参数调节:
(1)对所述图像特征和对应用户图像进行融合处理,获得携带特征标记的标记图像;
所述标记图像,包括将用户图像中各像素点的至少一个维度的图像特征标记在用户图像中对应像素点的位置后获得的图像。
在具体执行过程中,为了更加清晰更加准确地表示用户图像中每个像素点在至少一个维度的图像特征,对图像特征和对应用户图像进行融合处理,获得携带特征标记的标记图像。
用户在物理世界中的移动可能会引起用户在图像中的坐标发生变化,为了避免直接将各图像特征向用户图像标记使特征标记发生偏差,解决图像特征识别获得的至少一个维度的图像特征的误差问题,保证特征标记的有效性,由于采集到的用户图像是一个二维图像,坐标变化包括横坐标变化和纵坐标变化;因此,本实施例中,对图像特征和对应用户图像进行融合处理,获得携带特征标记的标记图像过程中,首先确定各用户图像的横向标记图像和纵向标记图像,再对横向标记图像和纵向标记图像进行特征合并获得各用户图像对应的标记图像。
本实施例提供的一种可选实施方式中,对图像特征和对应用户图像进行融合处理,获得携带特征标记的标记图像的过程,采用如下方式实现:
将所述图像特征和对应用户图像输入特征融合模型进行特征融合,获得横向标记图像和纵向标记图像;
对所述横向标记图像和所述纵向标记图像进行特征合并,获得所述标记图像。
具体的,对图像特征和对应用户图像进行方向特征融合,获得横向标记图像和纵向标记图像,对横向标记图像和纵向标记图像进行特征合并,获得标记图像。可选的,对图像特征和对应用户图像进行方向特征融合的过程中,首先需要对图像特征进行方向映射,获得各图像特征的横向特征和纵向特征,再基于横向(x轴方向)特征对对应用户图像进行特征标记,获得横向标记图像,以及,基于纵向(y轴方向)特征对对应用户图像进行特征标记,获得纵向标记图像。
进一步,为了提升基于横向标记图像和纵向标记图像进行特征合并获得的标记图像中各像素点标记的特征的准确性和有效性,本实施例提供的一种可选实施方式中,采用如下方式进行特征合并:
计算所述横向标记图像与所述纵向标记图像的相关性;
基于所述相关性对所述横向标记图像和所述纵向标记图像中的特征标记进行特征合并,获得所述标记图像。
具体的,计算横向标记图像中的像素点与纵向标记图像中的像素点的相关性,获得相关联,也即是相关性高于预设阈值的横向标记像素点和纵向标记像素点,将横向标记像素点和对应纵向标记像素点进行合并获得标记图像。
可选的,本实施例中,计算横向标记图像与纵向标记图像的相关性可通过transformer模型,也即是转换模型进行计算。
本实施例中,上述提供了特征识别模型和特征融合模型,具体执行过程中,特征识别模型和特征融合模型可预先训练,比如在云服务器上进行特征识别模型和特征融合模型的训练,具体在特征识别模型和特征融合模型的训练过程中,为了提升训练获得的特征识别模型和特征融合模型的模型性能,本实施例中,可将特征识别模型和特征融合模型进行共同训练,训练完成后可分别使用,也可一起使用;本实施例提供的一种可选实施方式中,采用如下方式进行特征识别模型和特征融合模型的训练:
将用户图像样本输入待训练的特征识别模型进行特征识别,获得至少一个维度的样本图像特征;
将所述至少一个维度的样本图像特征输入待训练的特征融合模型进行特征融合,获得样本横向标记图像和样本纵向标记图像;
对所述样本横向标记图像和所述样本纵向标记图像进行特征合并,获得样本标记图像;
根据所述至少一个维度的样本图像特征和所述用户图像样本的在所述至少一个维度的初始图像特征计算各维度下的特征损失,以及基于所述样本标记图像和所述初始图像特征计算标记损失;
基于所述各维度下的特征损失和所述标记损失计算训练损失,并基于所述训练损失对所述待训练的特征识别模型和所述待训练的特征融合模型进行参数更新。
可选的,基于所述各维度下的特征损失和所述标记损失计算训练损失包括,计算给维度下的特征损失和标记损失的和作为训练损失。
(2)基于各标记图像调节对应摄像头的摄像头参数;
在获得标记图像后,由于标记图像中记载了各个像素点的像素点特征,也即是图像特征,因此,基于标记图像中各像素点的图像特征调节对应摄像头的摄像头参数。
为了使对摄像头参数的调节更加有效,本实施例提供的一种可选实施方式中,以光流为例,对实现对应摄像头的摄像头参数调节过程进行说明:
基于各标记图像中的光流标记,确定各标记图像中身体部位的移动距离和移动方向;
按照所述移动距离和所述移动方向调节对应摄像头的摄像头参数。
具体的,光流表征了身体部位的移动距离和移动方向,因此,按照光流对摄像头参数的采集距离和采集方向进行调整;例如,用户在物理世界中向左后方移动了3米,则根据对应比例将摄像头的采集参数调整能对用户移动后的真实形象进行采集且采集质量与摄像头采集当前用户图像的效果一致。
需要说明的是,从第一像素维度、向量维度和第二像素维度对摄像头参数进行调节的过程与上述从光流维度对摄像头参数进行调节过程类似,可参照上述调节过程的具体说明,本实施例在此不再赘述。还需要说明的是,进行摄像头参数调节是为了保证摄像头采集移动后用户的用户图像与移动前采集的用户图像的采集效果接近,使不管怎么用户怎么移动都采集到预设效果的用户图像。
在基于各标记图像调节对应摄像头的摄像头参数的过程中,基于所述标记图像中至少一个维度的特征标记,从所述至少一个维度进行对应摄像头的摄像头参数调节。可选的,所述从所述至少一个维度进行对应摄像头的摄像头参数调节,包括:基于标记图像的光流和/或向量调节对应摄像头的角度采集参数,和/或,基于标记图像的深度和显著性调节对应摄像头的深度参数和显著性参数。
在具体执行过程中,在获取到各用户图像在至少一个维度的图像特征后,基于所述图像特征和对应用户图像的稀疏关键点确定各用户图像的稠密关键点,也即是执行下述步骤S106。
步骤S106,将所述图像特征和对应用户图像的稀疏关键点输入关键点确定模型进行关键点确定,获得所述各用户图像的稠密关键点。
所述稀疏关键点,包括对用户图像进行关键点回归,确定的精度较低的身体部位的部位坐标;所述稠密关键点,包括精度较高,对身体部位划分更细致的部位坐标。例如,用户图像中的身体部位为左手;确定的稀疏关键点为左手的掌心和左手中指的位置坐标;稠密关键点可以是掌心和各个手指的位置坐标。且相对于稀疏关键点来说,稠密关键点的坐标信息更加准确更加有效。
为了避免传统的关键点(部位坐标)回归过程导致确定的关键点的准确性较低,本实施例中,结合关键点回归的稀疏关键点和用户图像在至少一个维度的图像特征获得更加准确更加有效的稠密关键点。
本实施例提供的一种可选实施方式中,所述稀疏关键点,基于所述对应用户图像进行关键点识别处理获得;
所述基于所述对应用户图像进行关键点识别处理,包括:
将所述对应用户图像输入关键点识别模型进行关键点识别处理,获得所述稀疏关键点。
具体的,将用户图像输入关键点识别模型,也即是关键点回归模型进行关键点识别,获得稀疏关键点。
在获得稀疏关键点之后,为了使生成的虚拟形象更加有效且与真实形象更加接近,需要进一步获得稠密关键点来进行虚拟形象的生成,因此,在对用户图像进行关键点识别获得稀疏关键点后,将用户图像的稀疏关键点和图像特征输入关键点确定模型进行关键点确定,获得用户图像的稠密关键点。
具体执行过程中,关键点识别模型和关键点确定模型可预先训练,比如在云服务器上进行关键点识别模型和关键点确定模型的训练,具体在关键点识别模型和关键点确定模型的训练过程中,为了提升训练获得的关键点识别模型和关键点确定模型的模型性能,本实施例中,可将关键点识别模型和关键点确定模型进行共同训练,训练完成后可分别使用,也可一起使用;本实施例提供的一种可选实施方式中,采用如下方式训练关键点识别模型和关键点确定模型:
将用户图像样本输入待训练的关键点识别模型进行关键点识别,获得所述用户图像样本的样本稀疏关键点;
将所述样本稀疏关键点和所述用户图像样本的样本图像特征输入待训练的关键点确定模型进行关键点确定,获得所述用户图像样本的样本稠密关键点;
基于所述样本稀疏关键点、所述样本稠密关键点、所述用户图像样本的初始稀疏关键点和初始稠密关键点计算训练损失,并根据所述训练损失对所述待训练的关键点识别模型和所述待训练的关键点确定模型进行参数调节。
可选的,在计算训练损失的过程中,基于所述样本稀疏关键点和所述初始稀疏关键点计算稀疏关键点损失,以及,基于所述样本稠密关键点和所述初始稠密关键点计算稠密关键点损失;计算所述稀疏关键点损失和所述稠密关键点损失的和作为所述训练损失。
除此之外,步骤S106还可被替换为:根据所述图像特征和对应用户图像的稀疏关键点确定所述各用户图像的稠密关键点,并与本实施例其他的处理步骤组成新的实现方式。
步骤S108,基于所述各用户图像的稠密关键点进行坐标映射,获得所述用户在所述虚拟世界中的虚拟形象。
在具体执行过程中,在获得各用户图像的稠密关键点之后,由于各个摄像头采集到的是用户不同身体部位的用户图像,且各个摄像头的位置不同,对应的坐标也不相同,因此,为了构建一个完整的虚拟形象,也即是包含各个身体部位的虚拟形象,需要将各个摄像头采集的用户图像的稠密关键点映射在同一个坐标系,进一步根据同一个坐标系中各稠密关键点生成虚拟形象。且由于生成的虚拟形象需要进行三维展示,因此,将稠密关键点映射至空间坐标系中。
本实施例提供的一种可选实施方式中,采用如下方式实现坐标映射获得虚拟形象的过程:
基于所述各摄像头的标定关系,将所述各摄像头对应的稠密关键点映射至空间坐标系,获得所述用户各身体部位的空间坐标信息;
根据所述空间坐标信息渲染所述虚拟形象。
可选的,若各摄像头对应的稠密关键点对应的身体部位都不一致,则基于各摄像头的标定关系将各摄像头对应的稠密关键点映射在同一控件坐标系下,获得各身体部位的空间坐标信息;若至少两个摄像头对应的稠密关键点包含同一身体部位的重合关键点,所述同一身体部位的空间坐标信息,基于所述至少两个摄像头对应的稠密关键点包含的所述同一身体部位的至少两个重合关键点,计算所述同一身体部位的目标关键点;将所述目标关键点映射至所述预设坐标系,获得所述同一身体部位的空间坐标信息。
在获得各身体部位的空间坐标信息后,根据空间坐标信息渲染虚拟形象并通过接入设备进行展示。
综上所述,本实施例提供的虚拟形象处理方法,获取到虚拟世界的接入设备配置的摄像头阵列中各摄像头采集的用户在物理世界中的真实形象的用户图像;对各用户图像进行图像特征识别,获得各用户图像在至少一个维度的图像特征;摄像头、用户图像、图像特征、稀疏关键点和稠密关键点是一一对应的;
在获取到各用户图像的图像特征后,一方面,基于图像特征进行对应摄像头的摄像头参数调节,以保证后续采集到的用户图像的有效性;另一方面,结合用户图像的图像特征和稀疏关键点,确定用户图像的稠密关键点,将各用户图像的稠密关键点基于对应摄像头的标定关系映射在同一空间坐标系下,以基于各稠密关键点的空间坐标信息,也即是用户各身体部位的空间坐标信息生成用户在虚拟世界中的虚拟形象,以此,使获得的虚拟形象与用户的真实形象更加接近。
下述以本实施例提供的一种虚拟形象处理方法在虚拟世界场景的应用为例,对本实施例提供的虚拟形象处理方法进行进一步说明,参见图2,应用于虚拟世界场景的虚拟形象处理方法,具体包括如下步骤。
步骤S202,获取虚拟世界的接入设备配置的摄像头集合中各摄像头采集的用户在物理世界中真实形象的身体部位图像。
可选的,一个摄像头可采集包含至少一个身体部位的图像。
步骤S204,对各身体部位图像进行图像特征识别,获得各身体部位图像在至少一个维度的图像特征。
步骤S206,将各身体部位图像的图像特征输入特征融合模型进行特征融合,获得横向标记图像和纵向标记图像。
步骤S208,将横向标记图像和纵向标记图像输入转换模型进行相关性计算,获得横向标记图像和纵向标记图像相关的像素点。
步骤S210,对横向标记图像和纵向标记图像中相关的像素点进行特征合并,获得进行特征标记的标记图像。
步骤S212,基于各身体部位图像的标记图像调节对应摄像头的摄像头参数。
其中,步骤S206至步骤S210,还可被替换为,将各身体部位图像和对应的图像特征进行融合处理,获得各身体部位图像的标记图像,并与本实施例提供的其他处理步骤组成新的实现方式。
步骤S214,将各身体部位图像的图像特征和稀疏关键点输入关键点确定模型进行关键点确定,获得各身体部位图像的稠密关键点。
步骤S216,基于各摄像头的标定关系,将各身体部位图像的稠密关键点映射至同一空间坐标系,获得各身体部位的空间坐标信息。
步骤S218,根据各身体部位的空间坐标信息渲染用户在虚拟世界中的虚拟形象。
步骤S220,通过虚拟世界的接入设备展示渲染获得的虚拟形象。
需要说明的是,步骤S206至步骤S212和步骤S214至步骤S220是步骤S204执行之后的两个分支步骤,这两个分支步骤在本实施例执行的过程中可以单独存在。
本说明书提供的一种虚拟形象处理装置实施例如下:
在上述的实施例中,提供了一种虚拟形象处理方法,与之相对应的,还提供了一种虚拟形象处理装置,下面结合附图进行说明。
参照图3,其示出了本实施例提供的一种虚拟形象处理装置示意图。
由于装置实施例对应于方法实施例,所以描述得比较简单,相关的部分请参见上述提供的方法实施例的对应说明即可。下述描述的装置实施例仅仅是示意性的。
本实施例提供一种虚拟形象处理装置,包括:
用户图像获取模块302,被配置为获取虚拟世界的接入设备配置的摄像头集合中各摄像头采集的用户在物理世界的用户图像;
图像特征识别模块304,被配置为对各用户图像进行图像特征识别,获得所述各用户图像在至少一个维度的图像特征;
关键点确定模块306,被配置为将所述图像特征和对应用户图像的稀疏关键点输入关键点确定模型进行关键点确定,获得所述各用户图像的稠密关键点;
坐标映射模块308,被配置为基于所述各用户图像的稠密关键点进行坐标映射,获得所述用户在所述虚拟世界中的虚拟形象。
本说明书提供的一种虚拟形象处理设备实施例如下:
对应上述描述的一种虚拟形象处理方法,基于相同的技术构思,本说明书一个或多个实施例还提供一种虚拟形象处理设备,该虚拟形象处理设备用于执行上述提供的虚拟形象处理方法,图4为本说明书一个或多个实施例提供的一种虚拟形象处理设备的结构示意图。
本实施例提供的一种虚拟形象处理设备,包括:
如图4所示,虚拟形象处理设备可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上的处理器401和存储器402,存储器402中可以存储有一个或一个以上存储应用程序或数据。其中,存储器402可以是短暂存储或持久存储。存储在存储器402的应用程序可以包括一个或一个以上模块(图示未示出),每个模块可以包括虚拟形象处理设备中的一系列计算机可执行指令。更进一步地,处理器401可以设置为与存储器402通信,在虚拟形象处理设备上执行存储器402中的一系列计算机可执行指令。虚拟形象处理设备还可以包括一个或一个以上电源403,一个或一个以上有线或无线网络接口404,一个或一个以上输入/输出接口405,一个或一个以上键盘406等。
在一个具体的实施例中,虚拟形象处理设备包括有存储器,以及一个或一个以上的程序,其中一个或者一个以上程序存储于存储器中,且一个或者一个以上程序可以包括一个或一个以上模块,且每个模块可以包括对虚拟形象处理设备中的一系列计算机可执行指令,且经配置以由一个或者一个以上处理器执行该一个或者一个以上程序包含用于进行以下计算机可执行指令:
获取虚拟世界的接入设备配置的摄像头集合中各摄像头采集的用户在物理世界的用户图像;
对各用户图像进行图像特征识别,获得所述各用户图像在至少一个维度的图像特征;
将所述图像特征和对应用户图像的稀疏关键点输入关键点确定模型进行关键点确定,获得所述各用户图像的稠密关键点;
基于所述各用户图像的稠密关键点进行坐标映射,获得所述用户在所述虚拟世界中的虚拟形象。
本说明书提供的一种存储介质实施例如下:
对应上述描述的一种虚拟形象处理方法,基于相同的技术构思,本说明书一个或多个实施例还提供一种存储介质。
本实施例提供的存储介质,用于存储计算机可执行指令,所述计算机可执行指令在被处理器执行时实现以下流程:
获取虚拟世界的接入设备配置的摄像头集合中各摄像头采集的用户在物理世界的用户图像;
对各用户图像进行图像特征识别,获得所述各用户图像在至少一个维度的图像特征;
将所述图像特征和对应用户图像的稀疏关键点输入关键点确定模型进行关键点确定,获得所述各用户图像的稠密关键点;
基于所述各用户图像的稠密关键点进行坐标映射,获得所述用户在所述虚拟世界中的虚拟形象。
需要说明的是,本说明书中关于存储介质的实施例与本说明书中关于虚拟形象处理方法的实施例基于同一发明构思,因此该实施例的具体实施可以参见前述对应方法的实施,重复之处不再赘述。
上述对本说明书特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
在20世纪30年代,对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(Programmable Logic Device,PLD)(例如现场可编程门阵列(Field Programmable GateArray,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字系统“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(Hardware Description Language,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(Advanced Boolean Expression Language)、AHDL(Altera Hardware DescriptionLanguage)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(Java Hardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(RubyHardware Description Language)等,目前最普遍使用的是VHDL(Very-High-SpeedIntegrated Circuit Hardware Description Language)与Verilog。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
控制器可以按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC625D、Atmel AT91SAM、Microchip PIC18F26K20以及Silicone Labs C8051F320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本说明书实施例时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本说明书一个或多个实施例可提供为方法、系统或计算机程序产品。因此,本说明书一个或多个实施例可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本说明书可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书是参照根据本说明书实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本说明书一个或多个实施例可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本说明书的一个或多个实施例,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本文件的实施例而已,并不用于限制本文件。对于本领域技术人员来说,本文件可以有各种更改和变化。凡在本文件的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本文件的权利要求范围之内。
Claims (15)
1.一种虚拟形象处理方法,包括:
获取虚拟世界的接入设备配置的摄像头集合中各摄像头采集的用户在物理世界的用户图像;
对各用户图像进行图像特征识别,获得所述各用户图像在至少一个维度的图像特征;
将所述图像特征和对应用户图像的稀疏关键点输入关键点确定模型进行关键点确定,获得所述各用户图像的稠密关键点;
基于所述各用户图像的稠密关键点进行坐标映射,获得所述用户在所述虚拟世界中的虚拟形象。
2.根据权利要求1所述的虚拟形象处理方法,所述对各用户图像进行图像特征识别,获得所述各用户图像在至少一个维度的图像特征步骤执行之后,还包括:
对所述图像特征和对应用户图像进行融合处理,获得携带特征标记的标记图像;
基于各标记图像调节对应摄像头的摄像头参数。
3.根据权利要求2所述的虚拟形象处理方法,所述对所述图像特征和对应用户图像进行融合处理,获得携带特征标记的标记图像,包括:
将所述图像特征和对应用户图像输入特征融合模型进行特征融合,获得横向标记图像和纵向标记图像;
对所述横向标记图像和所述纵向标记图像进行特征合并,获得所述标记图像。
4.根据权利要求2所述的虚拟形象处理方法,所述基于各标记图像调节对应摄像头的摄像头参数,包括:
基于各标记图像中的光流标记,确定各标记图像中身体部位的移动距离和移动方向;
按照所述移动距离和所述移动方向调节对应摄像头的摄像头参数。
5.根据权利要求1所述的虚拟形象处理方法,所述稀疏关键点,基于所述对应用户图像进行关键点识别处理获得;
所述基于所述对应用户图像进行关键点识别处理,包括:
将所述对应用户图像输入关键点识别模型进行关键点识别处理,获得所述稀疏关键点。
6.根据权利要求1所述的虚拟形象处理方法,所述摄像头集合由多个摄像头组成,所述摄像头集合中的摄像头用户采集所述接入设备的佩戴用户的身体部位的用户图像;
所述摄像头集合中各摄像头采集包含至少一个身体部位的用户图像。
7.根据权利要求1所述的虚拟形象处理方法,所述基于所述各用户图像的稠密关键点进行坐标映射,获得所述用户在所述虚拟世界中的虚拟形象,包括:
基于所述各摄像头的标定关系,将所述各摄像头对应的稠密关键点映射至空间坐标系,获得所述用户各身体部位的空间坐标信息;
根据所述空间坐标信息渲染所述虚拟形象。
8.根据权利要求7所述的虚拟形象处理方法,若至少两个摄像头对应的稠密关键点包含同一身体部位的重合关键点,所述同一身体部位的空间坐标信息,采用如下方式确定:
基于所述至少两个摄像头对应的稠密关键点包含的所述同一身体部位的至少两个重合关键点,计算所述同一身体部位的目标关键点;
将所述目标关键点映射至所述预设坐标系,获得所述同一身体部位的空间坐标信息。
9.根据权利要求1所述的虚拟形象处理方法,所述获取虚拟世界的接入设备配置的摄像头集合中各摄像头采集的用户在物理世界的用户图像步骤执行之前,还包括:
基于所述各摄像头采集的初始用户图像,对所述各摄像头进行摄像头参数调节,以使所述各摄像头采集的用户的关键部位位于所述各摄像头的采集区域的中心位置。
10.根据权利要求3所述的虚拟形象处理方法,所述对所述横向标记图像和所述纵向标记图像进行特征合并,获得所述标记图像,包括:
计算所述横向标记图像与所述纵向标记图像的相关性;
基于所述相关性对所述横向标记图像和所述纵向标记图像中的特征标记进行特征合并,获得所述标记图像。
11.根据权利要求1所述的虚拟形象处理方法,所述对各用户图像进行图像特征识别,获得所述各用户图像在至少一个维度的图像特征,包括:
将所述各用户图像输入特征识别模型进行图像特征识别,获得所述各用户图像在至少一个维度的图像特征;
其中,所述至少一个维度的图像特征,包括下述至少一项:移动维度的光流,第一像素维度的深度图谱,向量维度的法向向量,第二像素维度的显著性图谱。
12.根据权利要求5所述的虚拟形象处理方法,所述关键点识别模型和所述关键点确定模型,采用如下方式训练:
将用户图像样本输入待训练的关键点识别模型进行关键点识别,获得所述用户图像样本的样本稀疏关键点;
将所述样本稀疏关键点和所述用户图像样本的样本图像特征输入待训练的关键点确定模型进行关键点确定,获得所述用户图像样本的样本稠密关键点;
基于所述样本稀疏关键点、所述样本稠密关键点、所述用户图像样本的初始稀疏关键点和初始稠密关键点计算训练损失,并根据所述训练损失对所述待训练的关键点识别模型和所述待训练的关键点确定模型进行参数调节。
13.一种虚拟形象处理装置,包括:
用户图像获取模块,被配置为获取虚拟世界的接入设备配置的摄像头集合中各摄像头采集的用户在物理世界的用户图像;
图像特征识别模块,被配置为对各用户图像进行图像特征识别,获得所述各用户图像在至少一个维度的图像特征;
关键点确定模块,被配置为将所述图像特征和对应用户图像的稀疏关键点输入关键点确定模型进行关键点确定,获得所述各用户图像的稠密关键点;
坐标映射模块,被配置为基于所述各用户图像的稠密关键点进行坐标映射,获得所述用户在所述虚拟世界中的虚拟形象。
14.一种虚拟形象处理设备,包括:
处理器;以及,被配置为存储计算机可执行指令的存储器,所述计算机可执行指令在被执行时使所述处理器:
获取虚拟世界的接入设备配置的摄像头集合中各摄像头采集的用户在物理世界的用户图像;
对各用户图像进行图像特征识别,获得所述各用户图像在至少一个维度的图像特征;
将所述图像特征和对应用户图像的稀疏关键点输入关键点确定模型进行关键点确定,获得所述各用户图像的稠密关键点;
基于所述各用户图像的稠密关键点进行坐标映射,获得所述用户在所述虚拟世界中的虚拟形象。
15.一种存储介质,用于存储计算机可执行指令,所述计算机可执行指令在被处理器执行时实现以下流程:
获取虚拟世界的接入设备配置的摄像头集合中各摄像头采集的用户在物理世界的用户图像;
对各用户图像进行图像特征识别,获得所述各用户图像在至少一个维度的图像特征;
将所述图像特征和对应用户图像的稀疏关键点输入关键点确定模型进行关键点确定,获得所述各用户图像的稠密关键点;
基于所述各用户图像的稠密关键点进行坐标映射,获得所述用户在所述虚拟世界中的虚拟形象。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211580659.XA CN115830196B (zh) | 2022-12-09 | 2022-12-09 | 虚拟形象处理方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211580659.XA CN115830196B (zh) | 2022-12-09 | 2022-12-09 | 虚拟形象处理方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115830196A true CN115830196A (zh) | 2023-03-21 |
CN115830196B CN115830196B (zh) | 2024-04-05 |
Family
ID=85546017
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211580659.XA Active CN115830196B (zh) | 2022-12-09 | 2022-12-09 | 虚拟形象处理方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115830196B (zh) |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111401318A (zh) * | 2020-04-14 | 2020-07-10 | 支付宝(杭州)信息技术有限公司 | 动作识别方法及装置 |
CN111652974A (zh) * | 2020-06-15 | 2020-09-11 | 腾讯科技(深圳)有限公司 | 三维人脸模型的构建方法、装置、设备及存储介质 |
CN111949111A (zh) * | 2019-05-14 | 2020-11-17 | Oppo广东移动通信有限公司 | 交互控制方法、装置、电子设备及存储介质 |
CN113407033A (zh) * | 2021-06-30 | 2021-09-17 | 重庆大学 | 一种基于vr的人体关键点数据扩充的方法 |
US20210312685A1 (en) * | 2020-09-14 | 2021-10-07 | Beijing Baidu Netcom Science And Technology Co., Ltd. | Method for synthesizing figure of virtual object, electronic device, and storage medium |
US20220051004A1 (en) * | 2020-11-27 | 2022-02-17 | Beijing Baidu Netcom Science Technology Co., Ltd. | Image processing method, apparatus, device and storage medium |
CN114529639A (zh) * | 2022-02-07 | 2022-05-24 | 新华智云科技有限公司 | 一种生成虚拟形象动画的方法、装置、设备及存储介质 |
CN114881893A (zh) * | 2022-07-05 | 2022-08-09 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、设备及计算机可读存储介质 |
CN114998935A (zh) * | 2022-06-28 | 2022-09-02 | 京东方智慧物联科技有限公司 | 图像处理方法、装置、计算机设备及存储介质 |
CN115359219A (zh) * | 2022-08-16 | 2022-11-18 | 支付宝(杭州)信息技术有限公司 | 虚拟世界的虚拟形象处理方法及装置 |
-
2022
- 2022-12-09 CN CN202211580659.XA patent/CN115830196B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111949111A (zh) * | 2019-05-14 | 2020-11-17 | Oppo广东移动通信有限公司 | 交互控制方法、装置、电子设备及存储介质 |
CN111401318A (zh) * | 2020-04-14 | 2020-07-10 | 支付宝(杭州)信息技术有限公司 | 动作识别方法及装置 |
CN111652974A (zh) * | 2020-06-15 | 2020-09-11 | 腾讯科技(深圳)有限公司 | 三维人脸模型的构建方法、装置、设备及存储介质 |
US20210312685A1 (en) * | 2020-09-14 | 2021-10-07 | Beijing Baidu Netcom Science And Technology Co., Ltd. | Method for synthesizing figure of virtual object, electronic device, and storage medium |
US20220051004A1 (en) * | 2020-11-27 | 2022-02-17 | Beijing Baidu Netcom Science Technology Co., Ltd. | Image processing method, apparatus, device and storage medium |
CN113407033A (zh) * | 2021-06-30 | 2021-09-17 | 重庆大学 | 一种基于vr的人体关键点数据扩充的方法 |
CN114529639A (zh) * | 2022-02-07 | 2022-05-24 | 新华智云科技有限公司 | 一种生成虚拟形象动画的方法、装置、设备及存储介质 |
CN114998935A (zh) * | 2022-06-28 | 2022-09-02 | 京东方智慧物联科技有限公司 | 图像处理方法、装置、计算机设备及存储介质 |
CN114881893A (zh) * | 2022-07-05 | 2022-08-09 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、设备及计算机可读存储介质 |
CN115359219A (zh) * | 2022-08-16 | 2022-11-18 | 支付宝(杭州)信息技术有限公司 | 虚拟世界的虚拟形象处理方法及装置 |
Non-Patent Citations (1)
Title |
---|
陈劲;郭献洲;: "基于三维图像处理的虚拟人物重构改进方法", 现代电子技术, no. 10, 14 May 2018 (2018-05-14), pages 158 - 161 * |
Also Published As
Publication number | Publication date |
---|---|
CN115830196B (zh) | 2024-04-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112819944B (zh) | 三维人体模型重建方法、装置、电子设备及存储介质 | |
CN110490960B (zh) | 一种合成图像生成方法及装置 | |
CN112884881B (zh) | 三维人脸模型重建方法、装置、电子设备及存储介质 | |
KR102104219B1 (ko) | 2차원 코드 내 위치 정보를 인지하기 위한 방법 및 시스템 | |
US20160171340A1 (en) | Labeling component parts of objects and detecting component properties in imaging data | |
CN109614983A (zh) | 训练数据的生成方法、装置及系统 | |
KR20210032678A (ko) | 환경 변화에 강인한 이미지의 위치 및 방향 추정 방법 및 시스템 | |
Prochazka et al. | Mobile augmented reality applications | |
CN109784232A (zh) | 一种融合深度信息的视觉slam回环检测方法及装置 | |
CN112102404B (zh) | 物体检测追踪方法、装置及头戴显示设备 | |
CN112861831A (zh) | 一种目标物的识别方法、装置、存储介质及电子设备 | |
CN112991441A (zh) | 相机定位方法、装置、电子设备及存储介质 | |
CN112882576A (zh) | Ar交互方法、装置、电子设备及存储介质 | |
CN115600157A (zh) | 一种数据处理的方法、装置、存储介质及电子设备 | |
Baker et al. | Localization and tracking of stationary users for augmented reality | |
KR102342738B1 (ko) | 거대 ar 영상 정보 생성 방법 및 장치 | |
CN114510173A (zh) | 基于增强现实的施工作业方法及装置 | |
US10417738B2 (en) | System and method for displaying graphical effects based on determined facial positions | |
CN115187307B (zh) | 虚拟世界的广告投放处理方法及装置 | |
CN115830196B (zh) | 虚拟形象处理方法及装置 | |
KR102668107B1 (ko) | 동적 가상객체 구현 시스템 및 방법 | |
CN107168514B (zh) | 一种图像处理方法及电子设备 | |
CN115546908A (zh) | 一种活体检测方法、装置及设备 | |
CN115374298A (zh) | 基于索引的虚拟形象数据处理方法及装置 | |
CN114187355A (zh) | 一种图像标定方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |