CN114373143A - 虚拟模型中节点间距离数据的获取方法及装置 - Google Patents

虚拟模型中节点间距离数据的获取方法及装置 Download PDF

Info

Publication number
CN114373143A
CN114373143A CN202111478530.3A CN202111478530A CN114373143A CN 114373143 A CN114373143 A CN 114373143A CN 202111478530 A CN202111478530 A CN 202111478530A CN 114373143 A CN114373143 A CN 114373143A
Authority
CN
China
Prior art keywords
distance
nodes
data
frame
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111478530.3A
Other languages
English (en)
Inventor
刘思阳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing IQIYI Science and Technology Co Ltd
Original Assignee
Beijing IQIYI Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing IQIYI Science and Technology Co Ltd filed Critical Beijing IQIYI Science and Technology Co Ltd
Priority to CN202111478530.3A priority Critical patent/CN114373143A/zh
Publication of CN114373143A publication Critical patent/CN114373143A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本申请提供了一种虚拟模型中节点间距离数据的获取方法及装置,通过识别的视频中的预先指定的位置点,获取视频中的目标像素,获取目标像素在各帧图像中的位置坐标,依据所述位置坐标以及所述各帧图像的时间戳的先后顺序,依次获取各帧图像的第一距离数组,得到第一距离序列,依据所述第一距离序列,获取第二距离数据。与现有人工测量的方式相比,准确性和获取效率均有较大的提升。

Description

虚拟模型中节点间距离数据的获取方法及装置
技术领域
本申请涉及电子信息领域,尤其涉及一种虚拟模型中节点间距离数据的获取方法及装置。
背景技术
3D虚拟对象(通常包括人物以及动物)的制作在动画制作以及电影特效等场景中有广泛的应用。以3D虚拟人物作为3D虚拟对象的一种示例,制作3D虚拟人物的大体流程为:通过动作捕捉技术捕捉实体如演员的各种动作,生成指示这些动作的数据,再将数据分配到指定的3D模型上。
其中,指定的3D模型由与实体中的关节点一一对应的各个驱动骨骼节点(以下简称为节点)构成,并且,需要预先配置各个节点之间的距离数据,即各个节点之间的距离,才能基于上述流程实现3D虚拟对象的制作。
目前,通过人工测量实体的各个关节点之间的距离,再按照实体与3D模型的比例,转换为3D模型中的各个节点之间的距离数据。因此,准确性和获取效率均有待提高。
发明内容
本申请提供了一种虚拟模型中节点间距离数据的获取方法及装置,目的在于解决3D模型的节点间距离数据的准确性低以及获取效率低的问题。
为了实现上述目的,本申请提供了以下技术方案:
一种虚拟对象中节点间距离数据的获取方法,包括:
获取视频,所述视频中包括实体的成像,所述实体上分布有预先指定的位置点;
通过在所述视频的各帧图像中识别所述位置点,得到目标像素;
获取所述目标像素在所述视频的各帧图像中的位置坐标;
依据所述位置坐标以及所述各帧图像的时间戳的先后顺序,依次获取所述各帧图像的第一距离数组,得到第一距离序列;目标帧的所述第一距离数组包括:所述目标帧中,所述目标像素之间的距离;所述目标帧为所述各帧图像中的任意一帧图像;
依据所述第一距离序列,获取第二距离数据,所述第二距离数据表示所述实体对应的3D模型中的各个节点之间的距离。
可选的,所述依据所述第一距离序列,获取第二距离数据,包括:
将输入数据输入估计模型,得到所述估计模型输出的所述第二距离数据;所述输入数据依据所述第一距离数据生成;
其中,所述估计模型使用样本实体中的所述指定位置点之间的距离、以及样本第二距离数据训练得到,所述样本第二距离数据为所述样本实体对应的3D模型中,各个节点之间的距离。
可选的,所述输入数据依据所述第一距离数据生成,包括:
在所述第一距离序列中填充目标数据,以将所述第一距离序列转换为与所述视频的各帧图像中的位置坐标的维度相同的数组;所述目标数据包括所述各帧图像的第一距离数组;
将填充后的所述第一距离序列与所述视频的各帧图像中的位置坐标进行拼接,得到所述输入数据。
可选的,所述第二距离数据为:
绝对距离与参照距离的比值,所述绝对距离为任意两个节点之间的距离,所述参照距离为参照节点之间的距离,所述参照节点为从所述节点中指定的两个节点。
可选的,所述获取包括实体的视频,包括:
采集处于运动状态的所述实体的视频。
可选的,所述位置点在所述实体上具有预设的拓扑关系;
所述目标像素之间的距离包括:具有所述拓扑关系的所述目标像素之间的距离;
所述节点之间的距离包括:具有所述拓扑关系的所述节点之间的距离。
一种虚拟对象中节点间距离数据的获取装置,其特征在于,包括:
第一获取模块,用于获取视频,所述视频中包括实体的成像,所述实体上分布有预先指定的位置点;
识别模块,用于通过在所述视频的各帧图像中识别所述位置点,得到目标像素;
第二获取模块,用于所述目标像素在所述视频的各帧图像中的位置坐标;
第三获取模块,用于依据所述位置坐标以及所述各帧图像的时间戳的先后顺序,依次获取所述各帧图像的第一距离数组,得到第一距离序列;目标帧的所述第一距离数组包括:所述目标帧中,所述目标像素之间的距离;所述目标帧为所述各帧图像中的任意一帧图像;
第四获取模块,用于依据所述第一距离序列,获取第二距离数据,所述第二距离数据表示所述实体对应的3D模型中的各个节点之间的距离。
可选的,所述第四获取模块包括:
估计模型,用于输入所述输入数据,输出所述第二距离数据;所述输入数据依据所述第一距离数据生成;
其中,所述估计模型使用样本实体中的所述指定位置点之间的距离、以及样本第二距离数据训练得到,所述样本第二距离数据为所述样本实体对应的3D模型中,各个节点之间的距离。
一种电子设备,包括:处理器和存储器;
所述存储器用于存储程序,所述处理器用于运行所述程序,以实现前述的虚拟对象中节点间距离数据的获取方法。
一种计算机可读存储介质,其上存储有程序,在电子设备运行所述程序时,实现前述的虚拟对象中节点间距离数据的获取方法。
本申请所述的虚拟模型中节点间距离数据的获取方法及装置,通过识别的视频中的预先指定的位置点,获取视频中的目标像素,获取目标像素在各帧图像中的位置坐标,依据所述位置坐标以及所述各帧图像的时间戳的先后顺序,依次获取各帧图像的第一距离数组,得到第一距离序列,依据所述第一距离序列,获取第二距离数据。与现有人工测量的方式相比,准确性和获取效率均有较大的提升。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例使用的一种人体3D模型的示例;
图2为本申请实施例公开的一种虚拟模型中节点间距离数据的获取方法的流程图;
图3为本申请实施例公开又一种虚拟模型中节点间距离数据的获取方法的流程图;
图4为人体3D模型中参照距离的举例;
图5为本申请实施例公开的一种距离数据的获取装置的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
下面先对一些定义进行解释和说明:
实体是指物理世界中实际存在的对象或物体等。结合本申请所述的技术方案,本申请实施例中所述的实体是指物理世界中实际存在的,可被映射为虚拟3D模型的对象,通常为人体、动物等。从实体映射得到的虚拟3D模型,通常用于模拟实体的动作,以实现动画效果。虚拟3D模型的一些示例包括:动漫人物或动物等。
因为要展示实体做出的动作,所以3D模型中的驱动骨骼节点(以下简称为节点)与实体中的关节点通常具有相同的拓扑关系,即指定的3D模型中的驱动骨骼节点,与实体中的全部或部分关节点一一对应。
拓扑关系是指节点的类型以及节点之间的连接关系。节点的类型为对应的实体中的关节点的类型,例如图1所示的各种节点。可以理解的是,图1所示为与人体的一部分关节点对应的节点。图1为本申请实施例使用的一种人体3D模型的示例,Hips表示臀部节点,Spine1表示脊柱第一(关)节点,Spine2表示脊柱第二(关)节点,Neck表示颈部(关)节点,Head表示头部(关)节点,LeftShoulder表示左肩(关)节点,RightShoulder表示右肩(关)节点,LeftElbow表示左肘(关)节点,RightElbow表示右肘(关)节点,LeftWrist表示左手腕(关)节点,RightWrist表示右手腕(关)节点,LeftHips表示左臀部(关)节点,RightHips表示右臀部(关)节点,LeftKnee表示左膝盖(关)节点,RightKnee表示右左膝盖(关)节点,LeftAnkle表示左脚踝(关)节点,RightAnkle表示右脚踝(关)节点。
模型与实体适配是指:模型中的节点与实体中的关节点一一对应,且,模型中的节点距离的比例,与实体中对应关节点距离的比例相同,例如,图1中Hips与LeftHips之间的距离除以Hips与RightHips之间的距离得到的比值,与人体中的Hips与LeftHips之间的骨骼距离除以人体中的Hips与RightHips的骨骼距离得到的比值相等。
模型中的节点与实体中的关节点对应是指:模型中的某个节点被分配的数据,是实体中的某个关节点的位移或旋转采集得到的数据,则该节点与该关节点对应。
在模型被构建时,被配置各个节点的位置坐标和节点之间的距离数据,而此时还没有为模型分配从实体采集的运动数据,此时模型的状态称为初始状态。以人体模型为例,通常,模型的初始的状态为T-Pose状态,即模型中的节点的连线呈“T”状。
从上述定义可以看出,因为模型中的节点间距离的比例,与实体中对应关节点之间距离的比例相同,所以可以理解的是,初始状态下,模型的节点间的距离数据,需要依据实体中对应节点间的距离确定。
现有技术中,初始状态下,模型的节点间的距离数据,通过人工测量实体中的关节点之间的距离,再换算至模型的节点间的距离数据,准确性和效率均有待提高。
本申请实施例公开的方法以及装置,通过对实体拍摄的视频,获得模型中节点间的距离数据,以获得更为准确的结果和更高的效率。
图2为本申请实施例公开的一种虚拟模型中节点间距离数据的获取方法的流程,包括以下步骤:
S21、获取视频。
视频中包括实体的成像,也就是说,视频通过对实体拍摄获得。
实体上分布有预先指定的位置点,结合前述定义,实体上的指定的位置点可以为全部或部分关节点。本实施例中,指定的位置点可以为图1所示的节点对应的关节点。
S22、通过在视频的各帧图像中识别位置点,得到目标像素。
视频由图像帧按照拍摄的先后时间构成。为了便于描述,这里将任意一帧图像称为目标帧。
目标帧中识别的位置点,为目标帧中的目标像素。可以理解的是,有可能某些图像帧中没有识别到位置点,即某些图像中没有目标像素。
可以理解的是,可以在实体上的指定位置点设置识别标识,例如发光片等,以帮助更为准确地识别出目标像素。
S23、获取目标像素在视频的各帧图像中的位置坐标。
可以理解的是,目标帧中的目标像素的位置坐标是指,在该帧图像中的目标像素,在该帧中的位置坐标。
S24、依据位置坐标以及各帧图像的时间戳的先后顺序,依次获取各帧图像的第一距离数组,得到第一距离序列。
各帧图像的时间戳与各帧图像的获取时刻相关,为视频的固有参数。
其中,目标帧的第一距离数组包括:目标帧中,目标像素之间的距离。可以理解的是,以人体为例,人体的任意一个关节在视频中的成像可能是一个区域,包括多个像素。多个关节对应的像素,就是多个区域,本实施例中所述的目标帧中的目标像素,即为目标帧中的多个像素区域。
可以理解的是,这多个像素区域可以被简化为一个像素,简化后的像素之间的距离,为节点之间的距离。还可以,计算区域与区域之间的距离,作为目标帧中目标像素之间的距离。第一区域与第二区域之间的距离,可以为第一区域中的中心像素与第二区域中的中心像素之前的距离。中心像素的确定方式可以参见现有技术,这里不再赘述。
S25、依据第一距离序列,获取第二距离数据。
第二距离数据表示实体对应的3D模型中的各个节点之间的距离。
图2所示的流程,通过包括实体成像的视频,获得实体对应的3D模型中的各个节点之间的距离,与现有的人工测量的方式相比,准确性和效率均有提高。
进一步的,通过视频中的目标像素点,获得第一距离序列,再从第一距离序列,获得第二距离数据,因为目标像素点更够反映实体的真实关节点之间的位置信息,所以有利于进一步提高准确性。
并且,需要强调的是,为了实现提升3D模型中节点的距离数据的准确性和获取效率,仅仅靠对实体采集的视频是不够的,发明人在研究的过程中发现,第一距离序列与第二距离数据之间存在映射关系,所以,基于视频才能够获得第二距离数据。
下面将对图2所示的流程进行更为详细的说明:具体的,先介绍模型的训练过程,再对依据模型进行的虚拟模型中节点间距离数据的获取方法的具体实现进行详细介绍。
在本实施例中,第一距离序列与第二距离数据之间存在的映射关系,通过模型表达。也就是说,通过将第一距离序列输入模型,得到模型输出的第二距离数据。
先对模型的训练过程进行说明。
本实施例中,将用于输出第二距离数据的模型称为估计模型。估计模型由全连接层构成。
选取多个对象(如多位人体模特),作为样本对象,在多个角度拍摄样本对象运动过程的视频,作为样本视频。
或者,还可以直接使用已有样本视频库如:Human3.6M,CMUMocap等中的视频作为样本视频。
测量样本对象的骨骼距离,即实体中关节点之间的距离,并换算为3D虚拟模型中节点间的距离,作为样本第二距离数据。
在样本视频中提取第二距离序列,可以理解的是,可以使用现有的图像处理以及模式识别方式,从视频中提取样本第二距离序列,这里不再赘述。
将样本视频中提取的样本第二距离序列,输入估计模型,得到估计模型输出的第二距离数据。
依据模型输出的第二距离数据、样本第二距离数据以及预设的损失函数,调整估计模型的参数。
训练模型后,模型具备了表达第一距离序列与第二距离数据之间存在的映射关系的功能,即向估计模型输入第一距离序列,模型能够输出与输入的第一距离序列存在映射关系的第二距离数据。使用该模型,结合视频,能够获得虚拟模型中节点之间的距离数据,可参加图3。
图3为本申请实施例公开的又一种虚拟模型中节点间距离数据的获取方法,本实施例中,以实体为人体为例进行说明,图3中包括以下步骤:
S31、获取对运动的人体采集的视频。
可以理解的是,对运动的人体采集视频,可以得到一段运动中的人体的视频,即视频的内容中包括运动状态的人体。
本实施例中,人体上的预先指定的位置点为人体的关节点,例如图1对应的各个关节点。
需要说明的是,对运动的人体采集的视频中,人体的关节点在不同的图像帧中的位置坐标不同,所有有利于提供相对位置信息更为丰富的第一距离序列,从而有利于提升第二距离数据的准确性。
通常视频由按照时间顺序排列的图像帧构成。本实施例中,假设视频中包括T帧图像,每帧图像的长为w,宽为h,每帧图像均为3通道(例如RGB)图像,则视频的数据构成可以被表示为T×w×h×3的矩阵。其中,在时间维度T上,T个矩阵按照各个图像帧的时间先后顺序构成矩阵序列。
S32、通过在视频的各帧图像中识别位置点,得到目标像素。
本实施例中,使用2D关节点提取模型,识别并提取视频中的人体的关节点。其中,2D关节点提取模型的具体类型可以为CPN、CPM、OpenPose等。
S33、获取目标像素在视频的各帧图像中的位置坐标。
可以理解的是,对每一帧图像均提取位置坐标,因此,提取的位置坐标构成为T×J×2的矩阵,其中,J为目标像素(区域)的数量,在时间维度T上,T个矩阵按照图像帧的时间戳的先后顺序构成矩阵序列。
S34、依据位置坐标以及各帧图像的时间戳的先后顺序,依次获取各帧图像的第一距离数组,得到第一距离序列。
第一距离序列构成为T×B×1的矩阵,其中,B为第一距离数组的数量,即目标帧中的目标像素(区域)之间的距离值的数量。
在维度T上,T个矩阵按照时间戳的先后顺序构成矩阵序列。
S35、将第一距离序列与目标像素的位置坐标进行拼接,得到估计模型的输入数据。
具体的,因为第一距离序列为T×B×1的矩阵,而目标像素的位置坐标为T×J×2的矩阵,所以,可以将T×B×1矩阵中的B维度的数值,即距离值进行复制,得到中间数据即T×B×2的矩阵,再将T×B×2的矩阵与T×J×2的矩阵在T维度拼接得到T×(J+B)×2的矩阵。
需要说明的是,通过前述说明可以看出,位置坐标是原始数据,而第一距离序列为对原始数据进行加工(如S34得到第一距离序列的步骤)的数据,加工后的数据相比与原始数据,通常是会减少原始数据的影响程度(如第一距离序列引入了时间的因素,所以就使得位置的影响程度被稀释),所以,第一距离序列与目标像素的位置坐标进行拼接,能够强化位置对模型输出结果的影响,从而有利于进一步提高结果的准确性。
S36、将第一距离序列输入估计模型,得到估计模型输出的第二距离数据。
本实施例中,第二距离数据可以为节点之间的绝对距离,也可以为绝对距离与参照距离的比值。
绝对距离是指节点之间的距离。参照距离为参照节点之间的距离,参照节点为从节点中指定的两个节点。
以图4为例,假设参照节点为头部节点和颈部节点,则参照距离L0为头部节点和颈部节点在3D模型中的距离。图4中,L1、L2、……L15均为比值,以L1为例,L1为颈部(关)节点Neck和脊椎第一(关)节点Spine1之间的距离与L0的比值。
使用比值有利于简化后续计算。例如,如果使用比值,参照距离被看作为1,其它距离为1的倍数,例如0.5、1、2等,相比于绝对距离:10.01,5.33等这样的绝对距离,因为数值更小,所以不仅利于存储,后续计算还更加简便。
可以理解的是,在第二距离数据为比值的情况下,估计模型训练的过程中,样本第二距离数据也为比值。
图3所示的流程,能够依据视频得到虚拟模型中的节点间的距离数据,所以,无需人工测量,因此,具有较高的准确性和获取效率。
在此基础上,使用对运动的人体采集的视频,人体的关节点在不同的图像帧中的位置坐标不同,所有有利于提供相对位置信息更为丰富的第一距离序列,从而能够进一步提升第二距离数据的准确性。
并且,模型输出的第二距离数据为比值的情况下,能够降低第二距离数据的存储复杂度,并且还能简化后续的计算。
图5为本申请实施例公开的一种虚拟对象中节点间距离数据的获取装置,包括:第一获取模块、识别模块、第二获取模块、第三获取模块以及第四获取模块。
其中,第一获取模块用于获取视频,所述视频中包括实体的成像,所述实体上分布有预先指定的位置点。识别模块用于通过在所述视频的各帧图像中识别所述位置点,得到目标像素。
第二获取模块用于所述目标像素在所述视频的各帧图像中的位置坐标。第三获取模块用于依据所述位置坐标以及所述各帧图像的时间戳的先后顺序,依次获取所述各帧图像的第一距离数组,得到第一距离序列;目标帧的所述第一距离数组包括:所述目标帧中,所述目标像素之间的距离;所述目标帧为所述各帧图像中的任意一帧图像。
第四获取模块用于依据所述第一距离序列,获取第二距离数据,所述第二距离数据表示所述实体对应的3D模型中的各个节点之间的距离。
可选的,所述第四获取模块包括:估计模型,用于输入输入数据,输出所述第二距离数据;所述输入数据依据所述第一距离数据生成。其中,所述估计模型使用样本实体中的所述指定位置点之间的距离、以及样本第二距离数据训练得到,所述样本第二距离数据为所述样本实体对应的3D模型中,各个节点之间的距离。
可选的,所述第四获取模块还包括:数据处理模块,用于在所述第一距离序列中填充目标数据,以将所述第一距离序列转换为与所述视频的各帧图像中的位置坐标的维度相同的数组;所述目标数据包括所述各帧图像的第一距离数组;将填充后的所述第一距离序列与所述视频的各帧图像中的位置坐标进行拼接,得到所述输入数据。
可选的,所述第二距离数据为:绝对距离与参照距离的比值,所述绝对距离为任意两个节点之间的距离,所述参照距离为参照节点之间的距离,所述参照节点为从所述节点中指定的两个节点。
可选的,第一获取模块用于获取视频,包括:第一获取模块具体用于,采集处于运动状态的所述实体的视频。
可选的,所述位置点在所述实体上具有预设的拓扑关系,所述目标像素之间的距离包括:具有所述拓扑关系的所述目标像素之间的距离,所述节点之间的距离包括:具有所述拓扑关系的所述节点之间的距离。
本实施例所述的装置,能够提高虚拟模型中节点间距离数据的准确性,以及获取效率。
本申请实施例还公开了一种电子设备,处理器和存储器,所述存储器用于存储程序,所述处理器用于运行所述程序,以实现上述实施例所述的虚拟对象中节点间距离数据的获取方法。
本申请实施例还公开了一种计算机可读存储介质,其上存储有程序,在电子设备运行所述程序时,实现上述实施例所述的虚拟对象中节点间距离数据的获取方法。
本申请实施例方法所述的功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算设备可读取存储介质中。基于这样的理解,本申请实施例对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该软件产品存储在一个存储介质中,包括若干指令用以使得一台计算设备(可以是个人计算机,服务器,移动计算设备或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其它实施例的不同之处,各个实施例之间相同或相似部分互相参见即可。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本申请。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本申请的精神或范围的情况下,在其它实施例中实现。因此,本申请将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

Claims (10)

1.一种虚拟对象中节点间距离数据的获取方法,其特征在于,包括:
获取视频,所述视频中包括实体的成像,所述实体上分布有预先指定的位置点;
通过在所述视频的各帧图像中识别所述位置点,得到目标像素;
获取所述目标像素在所述视频的各帧图像中的位置坐标;
依据所述位置坐标以及所述各帧图像的时间戳的先后顺序,依次获取所述各帧图像的第一距离数组,得到第一距离序列;目标帧的所述第一距离数组包括:所述目标帧中,所述目标像素之间的距离;所述目标帧为所述各帧图像中的任意一帧图像;
依据所述第一距离序列,获取第二距离数据,所述第二距离数据表示所述实体对应的3D模型中的各个节点之间的距离。
2.根据权利要求1所述的方法,其特征在于,所述依据所述第一距离序列,获取第二距离数据,包括:
将输入数据输入估计模型,得到所述估计模型输出的所述第二距离数据;所述输入数据依据所述第一距离数据生成;
其中,所述估计模型使用样本实体中的所述指定位置点之间的距离、以及样本第二距离数据训练得到,所述样本第二距离数据为所述样本实体对应的3D模型中,各个节点之间的距离。
3.根据权利要求2所述的方法,其特征在于,所述输入数据依据所述第一距离数据生成,包括:
在所述第一距离序列中填充目标数据,以将所述第一距离序列转换为与所述视频的各帧图像中的位置坐标的维度相同的数组;所述目标数据包括所述各帧图像的第一距离数组;
将填充后的所述第一距离序列与所述视频的各帧图像中的位置坐标进行拼接,得到所述输入数据。
4.根据权利要求1-3任一项所述的方法,其特征在于,所述第二距离数据为:
绝对距离与参照距离的比值,所述绝对距离为任意两个节点之间的距离,所述参照距离为参照节点之间的距离,所述参照节点为从所述节点中指定的两个节点。
5.根据权利要求1-4任一项所述的方法,其特征在于,所述获取视频,包括:
采集处于运动状态的所述实体的视频。
6.根据权利要求1所述的方法,其特征在于,所述位置点在所述实体上具有预设的拓扑关系;
所述目标像素之间的距离包括:具有所述拓扑关系的所述目标像素之间的距离;
所述节点之间的距离包括:具有所述拓扑关系的所述节点之间的距离。
7.一种虚拟对象中节点间距离数据的获取装置,其特征在于,包括:
第一获取模块,用于获取视频,所述视频中包括实体的成像,所述实体上分布有预先指定的位置点;
识别模块,用于通过在所述视频的各帧图像中识别所述位置点,得到目标像素;
第二获取模块,用于所述目标像素在所述视频的各帧图像中的位置坐标;
第三获取模块,用于依据所述位置坐标以及所述各帧图像的时间戳的先后顺序,依次获取所述各帧图像的第一距离数组,得到第一距离序列;目标帧的所述第一距离数组包括:所述目标帧中,所述目标像素之间的距离;所述目标帧为所述各帧图像中的任意一帧图像;
第四获取模块,用于依据所述第一距离序列,获取第二距离数据,所述第二距离数据表示所述实体对应的3D模型中的各个节点之间的距离。
8.根据权利要求7所述的装置,其特征在于,所述第四获取模块包括:
估计模型,用于输入输入数据,输出所述第二距离数据;所述输入数据依据所述第一距离数据生成;
其中,所述估计模型使用样本实体中的所述指定位置点之间的距离、以及样本第二距离数据训练得到,所述样本第二距离数据为所述样本实体对应的3D模型中,各个节点之间的距离。
9.一种电子设备,其特征在于,包括:处理器和存储器;
所述存储器用于存储程序,所述处理器用于运行所述程序,以实现权利要求1-6任一项所述的虚拟对象中节点间距离数据的获取方法。
10.一种计算机可读存储介质,其上存储有程序,其特征在于,在电子设备运行所述程序时,实现权利要求1-6任一项所述的虚拟对象中节点间距离数据的获取方法。
CN202111478530.3A 2021-12-06 2021-12-06 虚拟模型中节点间距离数据的获取方法及装置 Pending CN114373143A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111478530.3A CN114373143A (zh) 2021-12-06 2021-12-06 虚拟模型中节点间距离数据的获取方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111478530.3A CN114373143A (zh) 2021-12-06 2021-12-06 虚拟模型中节点间距离数据的获取方法及装置

Publications (1)

Publication Number Publication Date
CN114373143A true CN114373143A (zh) 2022-04-19

Family

ID=81140615

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111478530.3A Pending CN114373143A (zh) 2021-12-06 2021-12-06 虚拟模型中节点间距离数据的获取方法及装置

Country Status (1)

Country Link
CN (1) CN114373143A (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109191548A (zh) * 2018-08-28 2019-01-11 百度在线网络技术(北京)有限公司 动画制作方法、装置、设备及存储介质
CN109993819A (zh) * 2019-04-09 2019-07-09 网易(杭州)网络有限公司 虚拟角色的蒙皮方法及装置、电子设备
CN110868635A (zh) * 2019-12-04 2020-03-06 深圳追一科技有限公司 视频处理方法、装置、电子设备及存储介质
WO2021017606A1 (zh) * 2019-07-29 2021-02-04 腾讯科技(深圳)有限公司 视频处理方法、装置、电子设备及存储介质
WO2021164620A1 (zh) * 2020-02-17 2021-08-26 网易(杭州)网络有限公司 运动数据处理方法、装置、设备和存储介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109191548A (zh) * 2018-08-28 2019-01-11 百度在线网络技术(北京)有限公司 动画制作方法、装置、设备及存储介质
CN109993819A (zh) * 2019-04-09 2019-07-09 网易(杭州)网络有限公司 虚拟角色的蒙皮方法及装置、电子设备
WO2021017606A1 (zh) * 2019-07-29 2021-02-04 腾讯科技(深圳)有限公司 视频处理方法、装置、电子设备及存储介质
CN110868635A (zh) * 2019-12-04 2020-03-06 深圳追一科技有限公司 视频处理方法、装置、电子设备及存储介质
WO2021164620A1 (zh) * 2020-02-17 2021-08-26 网易(杭州)网络有限公司 运动数据处理方法、装置、设备和存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
陈姝;邹北骥;彭小宁;: "基于关键视频帧跟踪数据的三维虚拟人动画", 系统仿真学报, no. 21, 5 November 2008 (2008-11-05) *

Similar Documents

Publication Publication Date Title
CN110544301A (zh) 一种三维人体动作重建系统、方法和动作训练系统
CN106600626B (zh) 三维人体运动捕获方法与系统
CN113706699B (zh) 数据处理方法、装置、电子设备及计算机可读存储介质
CN109815776B (zh) 动作提示方法和装置、存储介质及电子装置
CN102171726B (zh) 信息处理装置、信息处理方法、程序以及信息存储介质
CN112381003B (zh) 动作捕捉方法、装置、设备及存储介质
CN109145788A (zh) 基于视频的姿态数据捕捉方法和系统
CN113298858A (zh) 一种虚拟形象的动作生成方法、装置、终端以及存储介质
KR102152436B1 (ko) 3차원 포인트 클라우드 기반의 동적 3차원 모델 생성을 위한 뼈대 정보 처리 시스템 및 방법
CN111862299A (zh) 人体三维模型构建方法、装置、机器人和存储介质
CN110544302A (zh) 基于多目视觉的人体动作重建系统、方法和动作训练系统
CN113449570A (zh) 图像处理方法和装置
CN110298279A (zh) 一种肢体康复训练辅助方法及系统、介质、设备
CN109523615B (zh) 用于虚拟动画人物动作的数据处理方法及装置
JP2013120556A (ja) 被写体姿勢推定装置および映像描画装置
CN114022645A (zh) 虚拟教师系统的动作驱动方法、装置、设备及存储介质
CN114373044A (zh) 生成脸部三维模型的方法、装置、计算设备和存储介质
CN115205737B (zh) 基于Transformer模型的运动实时计数方法和系统
WO2019156241A1 (ja) 学習装置、推定装置、学習方法、推定方法及びコンピュータプログラム
CN114373143A (zh) 虚拟模型中节点间距离数据的获取方法及装置
CN111105489A (zh) 数据合成方法和装置、存储介质和电子装置
CN109859306A (zh) 一种基于机器学习的从照片中提取人体模型的方法
AU2020480103B2 (en) Object three-dimensional localizations in images or videos
CN115145395B (zh) 虚拟现实交互控制方法、系统及虚拟现实设备
WO2023185241A1 (zh) 数据处理方法、装置、设备以及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination