CN109829982A - 模型匹配方法、装置、终端设备及存储介质 - Google Patents
模型匹配方法、装置、终端设备及存储介质 Download PDFInfo
- Publication number
- CN109829982A CN109829982A CN201910080521.5A CN201910080521A CN109829982A CN 109829982 A CN109829982 A CN 109829982A CN 201910080521 A CN201910080521 A CN 201910080521A CN 109829982 A CN109829982 A CN 109829982A
- Authority
- CN
- China
- Prior art keywords
- target object
- threedimensional model
- match information
- video stream
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 37
- 238000009877 rendering Methods 0.000 claims abstract description 32
- 230000001815 facial effect Effects 0.000 claims description 26
- 230000033001 locomotion Effects 0.000 claims description 16
- 230000004927 fusion Effects 0.000 claims description 15
- 230000001133 acceleration Effects 0.000 claims description 12
- 230000008859 change Effects 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 claims 1
- 230000000694 effects Effects 0.000 abstract description 11
- 241000208340 Araliaceae Species 0.000 description 9
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 description 9
- 235000003140 Panax quinquefolius Nutrition 0.000 description 9
- 235000008434 ginseng Nutrition 0.000 description 9
- 230000002093 peripheral effect Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 4
- 241000406668 Loxodonta cyclotis Species 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000012512 characterization method Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000010287 polarization Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 238000010030 laminating Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Landscapes
- Processing Or Creating Images (AREA)
Abstract
本申请实施例公开了一种模型匹配方法、装置、终端设备及存储介质,该方法包括根据传感数据和视频流数据确定当前画面中目标对象的匹配信息;依据所述匹配信息计算和所述目标对象对应的三维模型的变化参量,所述变化参量包括旋转角度和拉伸距离;依据所述变化参量对所述三维模型进行渲染,将渲染后的三维模型和所述目标对象进行融合,本方案提高了模型编辑效率,使得模型展示效果更佳。
Description
技术领域
本申请实施例涉及计算机技术,尤其涉及一种模型匹配方法、装置、终端设备及存储介质。
背景技术
三维建模是计算机图形领域最有价值的应用之一,通过三维建模生成的三维模型也在各个不同的领域被广泛应用。
目前,用户在选用三维模型时会出现三维模型的动态展示效果较差,如和用户的二维图像贴合程度差,易出现叠加碰撞的问题,如果通过手动模式进行编辑,则效率低下且效果较差。
发明内容
本申请提供了一种模型匹配方法、装置、终端设备及存储介质,提高了模型编辑效率,使得模型展示效果更佳,降低了终端设备的功耗。
第一方面,本申请实施例提供了一种模型匹配方法,包括:
根据传感数据和视频流数据确定当前画面中目标对象的匹配信息;
依据所述匹配信息计算和所述目标对象对应的三维模型的变化参量,所述变化参量包括旋转角度和/或拉伸距离;
依据所述变化参量对所述三维模型进行渲染,将渲染后的三维模型和所述目标对象进行融合。
第二方面,本申请实施例还提供了一种模型匹配装置,包括:
匹配信息确定模块,用于根据传感数据和视频流数据确定当前画面中目标对象的匹配信息;
变化参量确定模块,用于依据所述匹配信息计算和所述目标对象对应的三维模型的变化参量,所述变化参量包括旋转角度和/或拉伸距离;
渲染融合模块,用于依据所述变化参量对所述三维模型进行渲染,将渲染后的三维模型和所述目标对象进行融合。
第三方面,本申请实施例还提供了一种终端设备,包括:处理器、存储器以及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如本申请实施例所述的模型匹配方法。
第四方面,本申请实施例还提供了一种包含终端设备可执行指令的存储介质,所述终端设备可执行指令在由终端设备处理器执行时用于执行本申请实施例所述的模型匹配方法。
本方案中,根据传感数据和视频流数据确定当前画面中目标对象的匹配信息;依据所述匹配信息计算和所述目标对象对应的三维模型的变化参量,所述变化参量包括旋转角度和拉伸距离;依据所述变化参量对所述三维模型进行渲染,将渲染后的三维模型和所述目标对象进行融合,提高了模型编辑效率,使得模型展示效果更佳。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1是本申请实施例提供的一种模型匹配方法的流程图;
图2是本申请实施例提供的另一种模型匹配方法的流程图;
图3是本申请实施例提供的另一种模型匹配方法的流程图;
图4是本申请实施例提供的另一种模型匹配方法的流程图;
图5是本申请实施例提供的一种模型匹配装置的结构框图;
图6是本申请实施例提供的一种终端设备的结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例用于解释本申请,而非对本申请的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本申请相关的部分而非全部结构。
图1是本申请实施例提供的一种模型匹配方法的流程图,可适用于对终端设备的展示的三维模型和二维图像进行匹配的情况,该方法可以由本申请实施例提供的终端设备来执行,该终端设备的模型匹配装置可采用软件和/或硬件的方式实现,如图1所示,本实施例提供的具体方案如下:
步骤S101、根据传感数据和视频流数据确定当前画面中目标对象的匹配信息。
其中,传感数据可以是终端设备如手机的传感器检测到的数据,视频流数据为包含目标对象的视频流组成的数据,该视频流数据可以是终端设备摄像头拍摄的数据。
在一个实施例中,用户使用终端设备进行自身的拍摄,此时,在终端设备的展示界面对应展示一三维模型,其中,该三维模型可预先存储在数据库中,可以是用户三维模型,其为根据用户信息(如用户图像、用户视频)构建的三维模型,在显示三维模型的同时,摄像头拍摄到用户的二维图像数据,将二维图像数据和三维模型进行贴合以得到二维图像和三维模型融合后的动态展示效果。其中,用户的移动或者拍摄装置(手机)的拍摄角度以及手机自身的位移会使得二维图像和三维模型不匹配的问题,该匹配信息用于实现二维图像和三维模型的匹配,以使得二维图像和三维模型可以完美的贴合,不出现叠加冲突等问题。
在一个实施例中,该匹配信息可以是旋转角度信息,示例性的根据传感数据和视频流数据确定当前画面中目标对象的匹配信息包括:根据陀螺仪数据和视频流数据中的目标对象运动轨迹确定当前画面中目标对象的匹配信息。具体的,根据陀螺仪数据确定相机的第一旋转角度;根据视频流信息的每帧图像确定目标对象的关键点,根据关键点移动轨迹确定所述目标对象的第二旋转角度;根据所述第一旋转角度和所述第二旋转角度得到目标旋转角度,该目标旋转角度为三维模型需要对应调整的参量。在另一个实施例中,该匹配信息可以是距离信息,示例性的,根据传感数据和视频流数据确定当前画面中目标对象的匹配信息包括:根据加速度数据和视频流数据中目标对象的大小确定当前画面中目标对象的目标拉伸距离。
需要说明的是,该匹配信息可以是单独的旋转角度信息或距离信息,也可以同时包含旋转角度信息和距离信息。
步骤S102、依据所述匹配信息计算和所述目标对象对应的三维模型的变化参量,所述变化参量包括旋转角度和拉伸距离。
其中,该目标对象可以是前述视频流数据中的用户,还可以视频流数据中的其他对象,如拍摄对象为某一动物或者景物(相应的,在终端设备中存储对应的三维模型)。其中,不同的目标对象对应一三维模型,该三维模型为目标对象的模拟模型,用于在终端设备中同步表征、展示该目标对象。
示例性的,以用户为例,当拍摄用户的手机的位置发生变化,如从用户正面移动到偏正前方30°的位置,拍摄距离由距离用户30厘米变化到45厘米,此时三维模型需要进行相应的变换以和二维图像进行完美贴合,该匹配信息中包含两类数据即转角度信息和距离信息(转角度信息为30°和距离信息负向15厘米),根据该匹配信息以相应确定目标对象对应的三维模型的变化参量。
在一个实施例中,可依据所述匹配信息以及缩放参数计算和所述目标对象对应的三维模型的变化参量。其中,以匹配信息包括距离信息一种参量为例,如果确定出距离信息为负向15厘米,缩放参数为10倍,则三维模型相应的变化参量为负向1.5厘米(距离信息乘以缩放参数),即三维模型对应缩小1.5厘米,其中负向15厘米为显示世界坐标系中的实际距离,缩小1.5厘米中的1.5厘米为三维模型虚拟坐标系的虚拟距离,二者的比例为缩放参数的值,缩放参数可默认设定或者根据用户的设置进行调节。
步骤S103、依据所述变化参量对所述三维模型进行渲染,将渲染后的三维模型和所述目标对象进行融合。
示例性的,如果确定出该变化参量为右侧旋转15°,则三维模型相应的以向右侧旋转15°重新进行渲染,在三维模型的角度调整完毕后和目标对象进行融合,其中该目标对象即为拍摄的二维图像中的目标。在一个实施例中,将渲染后的三维模型和目标对象进行融合包括:依据渲染后的三维模型的轮廓和所述目标对象的轮廓进行数据融合,具体的,将目标对象的轮廓和三维模型的轮廓进行匹配,将目标对象的轮廓显示的内容叠加至对应的三维模型的轮廓内实现二者的融合。
由上述内容可知,根据传感数据和视频流数据确定当前画面中目标对象的匹配信息,进而得到对应的三维模型的变化参量对三维模型进行渲染并和目标对象融合,提高了模型编辑效率,使得模型展示效果更佳。
图2是本申请实施例提供的另一种模型匹配方法的流程图,可选的,所述根据传感数据和视频流数据确定当前画面中目标对象的匹配信息包括:根据陀螺仪数据和视频流数据中的目标对象运动轨迹确定当前画面中所述目标对象的匹配信息。如图2所示,技术方案具体如下:
步骤S201、根据陀螺仪数据和视频流数据中的目标对象运动轨迹确定当前画面中所述目标对象的匹配信息。
其中,陀螺仪数据可以是终端设备通过陀螺仪传感器采集的数据,用于表征终端设备的姿态(如拍摄角度)的变化,视频流数据中的目标对象运动轨迹用于表征目标对象的姿态(如转动角度)的变化,通过陀螺仪数据和视频流数据中的目标对象运动轨迹以最终确定目标对象的匹配信息。需要说明的是,陀螺仪数据和视频流数据中的目标对象运动轨迹可以其中之一发生变化,也可以是二者同时发生。
示例性的,以视频流数据中目标对象姿态不变而手机拍摄角度改变为例,如通过陀螺仪数据确定出拍摄角度有用户正面拍摄转动为沿x轴转动15°(其中x轴为用户双眼连线所在的轴,y轴为和x轴垂直的水平面方向上的另一轴,z轴为和xy轴平面垂直的轴,15°为正向角度,即和用户正对的手机的右侧向用户一侧转动的角度)则相应的匹配信息被确定为x_15°。
步骤S202、依据所述匹配信息计算和所述目标对象对应的三维模型的变化参量。
在一个实施例中,如果确定出的匹配信息为x_15°,则相应的根据该匹配信息确定出的三维模型的变化参量为x_-15°,其中在三维模型中的xyz坐标轴的建立和手机陀螺仪坐标轴的建立方式一致,x_-15°即为沿x轴负向转动15°,该转动的角度方向和依据陀螺仪确定出的匹配信息中转动角度的方向相反。
步骤S203、依据所述变化参量对所述三维模型进行渲染,将渲染后的三维模型和所述目标对象进行融合。
其中,三维模型根据确定出的形变参量进行旋转角度和/或拉伸距离的调整,调整完毕后(如沿x轴旋转-15°)和目标对象进行融合。
由上述可知,通过对三维模型的实时调整,使得和二维图像贴合效果良好,避免了融合过程中叠加碰撞的问题。
图3是本申请实施例提供的另一种模型匹配方法的流程图,可选的,所述根据传感数据和视频流数据确定当前画面中目标对象的匹配信息包括:根据加速度数据和视频流数据中目标对象的大小确定当前画面中目标对象的目标拉伸距离。如图3所示,技术方案具体如下:
步骤S301、根据加速度数据和视频流数据中目标对象的大小确定当前画面中目标对象的目标拉伸距离。
在一个实施例中,匹配信息可以是距离信息,距离信息的确定可利用终端设备集成的加速度传感器采集的加速度数据和视频流数据中目标对象的大小确定。示例性的,以终端设备在用户正前方为例,当用户将终端设备向远离用户的方向移动时,终端设备的加速度传感器采集的加速度数据会发生变化,如向y轴负方向(虚拟坐标系的具体方位如前述实施例,此处不再赘述)移动,此时会产生加速度a,根据加速度a的变化以及移动时间可计算出终端设备在y轴负方向的移动距离,如10厘米,若此时用户位置不变,则相应的得到距离信息-10厘米,若用户的位置进行了变动,则通过采集的视频流数据确定用户实际变动的位置,具体的,可根据用户变动前后在视频画面中的大小比例确定用户的位移距离(示例性的,可通过映射表的方式进行确定,如目标对象所占图像的面积比例由1/2变化到1/3,则相应的找到1/2至1/3变化方式对应的位移距离,如-1厘米),将距离信息乘以缩放参数后和用户的位移距离进行叠加以得到最终的目标拉伸距离。
步骤S302、依据所述目标拉伸距离计算和所述目标对象对应的三维模型的变化参量。
如前实施例所述,可根据目标拉伸距离以及缩放参数计算得到三维模型的变化参量,具体方式此处不再赘述。
步骤S303、依据所述变化参量对所述三维模型进行渲染,将渲染后的三维模型和所述目标对象进行融合。
由上述可知,通过获取到的传感数据以及视频流数据自动得到三维模型的变化参量以对三维模型进行渲染,提高了三维模型的编辑效率,满足了三维模型的实时变化需求。
图4是本申请实施例提供的另一种模型匹配方法的流程图,可选的,在所述将渲染后的三维模型和所述目标对象进行融合之前,还包括:如果检测到所述目标对象中包含人脸图像,则确定所述人脸图像的二维面部特征点以及皮肤纹理;在所述三维模型中确定和所述二维面部特征点匹配的的三维面部特征点;将所述三维面部特征点对应的三维模型与所述皮肤纹理进行渲染。如图4所示,技术方案具体如下:
步骤S401、根据传感数据和视频流数据确定当前画面中目标对象的匹配信息。
步骤S402、依据所述匹配信息计算和所述目标对象对应的三维模型的变化参量。
步骤S403、依据所述变化参量对所述三维模型进行渲染。
步骤S404、如果检测到所述目标对象中包含人脸图像,则确定所述人脸图像的二维面部特征点以及皮肤纹理,在所述三维模型中确定和所述二维面部特征点匹配的的三维面部特征点,将所述三维面部特征点对应的三维模型与所述皮肤纹理进行渲染。
在一个实施例中,如果检测到目标对象包含人脸,进一步的对人脸图像进行处理。其中,该皮肤纹理和用户的人脸皮肤相对应,其中,该二维面部特征点可选的为人脸五官处的关键点集群,如眼部和嘴角。其中,和三维模型中和二维面部特征点匹配的点相同位置中,二维面部特征点对应映射到的三维模型中的关键点集群,在相应的关键点集群被确立后,对应的,将皮肤纹理和三维模型进行贴合,如将眼部纹理和三维模型中有眼部对应的关键点集群标记的眼部部位相贴合。
步骤S405、将渲染后的三维模型和所述目标对象进行融合。
由上述可知,在模型匹配过程中,如果识别检测到人脸,则对人脸的皮肤纹理进行贴合,使得三维模型可以展现人脸的细微表情,优化了三维模型的展示效果。
图5是本申请实施例提供的一种模型匹配装置的结构框图,该装置用于执行上述实施例提供的模型匹配方法,具备执行方法相应的功能模块和有益效果。如图5所示,该装置具体包括:匹配信息确定模块101、变化参量确定模块102和渲染融合模块103,其中,
匹配信息确定模块101,用于根据传感数据和视频流数据确定当前画面中目标对象的匹配信息。
其中,传感数据可以是终端设备如手机的传感器检测到的数据,视频流数据为包含目标对象的视频流组成的数据,该视频流数据可以是终端设备摄像头拍摄的数据。
在一个实施例中,用户使用终端设备进行自身的拍摄,此时,在终端设备的展示界面对应展示一三维模型,其中,该三维模型可预先存储在数据库中,可以是用户三维模型,其为根据用户信息(如用户图像、用户视频)构建的三维模型,在显示三维模型的同时,摄像头拍摄到用户的二维图像数据,将二维图像数据和三维模型进行贴合以得到二维图像和三维模型融合后的动态展示效果。其中,用户的移动或者拍摄装置(手机)的拍摄角度以及手机自身的位移会使得二维图像和三维模型不匹配的问题,该匹配信息用于实现二维图像和三维模型的匹配,以使得二维图像和三维模型可以完美的贴合,不出现叠加冲突等问题。
在一个实施例中,该匹配信息可以是旋转角度信息,示例性的根据传感数据和视频流数据确定当前画面中目标对象的匹配信息包括:根据陀螺仪数据和视频流数据中的目标对象运动轨迹确定当前画面中目标对象的匹配信息。具体的,根据陀螺仪数据确定相机的第一旋转角度;根据视频流信息的每帧图像确定目标对象的关键点,根据关键点移动轨迹确定所述目标对象的第二旋转角度;根据所述第一旋转角度和所述第二旋转角度得到目标旋转角度,该目标旋转角度为三维模型需要对应调整的参量。在另一个实施例中,该匹配信息可以是距离信息,示例性的,根据传感数据和视频流数据确定当前画面中目标对象的匹配信息包括:根据加速度数据和视频流数据中目标对象的大小确定当前画面中目标对象的目标拉伸距离。
需要说明的是,该匹配信息可以是单独的旋转角度信息或距离信息,也可以同时包含旋转角度信息和距离信息。
变化参量确定模块102,用于依据所述匹配信息计算和所述目标对象对应的三维模型的变化参量,所述变化参量包括旋转角度和拉伸距离。
其中,该目标对象可以是前述视频流数据中的用户,还可以视频流数据中的其他对象,如拍摄对象为某一动物或者景物(相应的,在终端设备中存储对应的三维模型)。其中,不同的目标对象对应一三维模型,该三维模型为目标对象的模拟模型,用于在终端设备中同步表征、展示该目标对象。
示例性的,以用户为例,当拍摄用户的手机的位置发生变化,如从用户正面移动到偏正前方30°的位置,拍摄距离由距离用户30厘米变化到45厘米,此时三维模型需要进行相应的变换以和二维图像进行完美贴合,该匹配信息中包含两类数据即转角度信息和距离信息(转角度信息为30°和距离信息负向15厘米),根据该匹配信息以相应确定目标对象对应的三维模型的变化参量。
在一个实施例中,可依据所述匹配信息以及缩放参数计算和所述目标对象对应的三维模型的变化参量。其中,以匹配信息包括距离信息一种参量为例,如果确定出距离信息为负向15厘米,缩放参数为10倍,则三维模型相应的变化参量为负向1.5厘米(距离信息乘以缩放参数),即三维模型对应缩小1.5厘米,其中负向15厘米为显示世界坐标系中的实际距离,缩小1.5厘米中的1.5厘米为三维模型虚拟坐标系的虚拟距离,二者的比例为缩放参数的值,缩放参数可默认设定或者根据用户的设置进行调节。
渲染融合模块103,用于依据所述变化参量对所述三维模型进行渲染,将渲染后的三维模型和所述目标对象进行融合。
示例性的,如果确定出该变化参量为右侧旋转15°,则三维模型相应的以向右侧旋转15°重新进行渲染,在三维模型的角度调整完毕后和目标对象进行融合,其中该目标对象即为拍摄的二维图像中的目标。在一个实施例中,将渲染后的三维模型和目标对象进行融合包括:依据渲染后的三维模型的轮廓和所述目标对象的轮廓进行数据融合,具体的,将目标对象的轮廓和三维模型的轮廓进行匹配,将目标对象的轮廓显示的内容叠加至对应的三维模型的轮廓内实现二者的融合。
由上述内容可知,根据传感数据和视频流数据确定当前画面中目标对象的匹配信息,进而得到对应的三维模型的变化参量对三维模型进行渲染并和目标对象融合,提高了模型编辑效率,使得模型展示效果更佳。
在一个可能的实施例中,所述匹配信息确定模块101具体用于:
根据陀螺仪数据和视频流数据中的目标对象运动轨迹确定当前画面中所述目标对象的匹配信息。
在一个可能的实施例中,所述匹配信息确定模块101具体用于:
根据陀螺仪数据确定相机的第一旋转角度;
根据视频流信息的每帧图像确定目标对象的关键点,根据关键点移动轨迹确定所述目标对象的第二旋转角度;
根据所述第一旋转角度和所述第二旋转角度得到目标旋转角度。
在一个可能的实施例中,所述匹配信息确定模块101具体用于:
根据加速度数据和视频流数据中目标对象的大小确定当前画面中目标对象的目标拉伸距离。
在一个可能的实施例中,所述变化参量确定模块102具体用于:
依据所述匹配信息以及缩放参数计算和所述目标对象对应的三维模型的变化参量。
在一个可能的实施例中,所述渲染融合模块103还用于:
在所述将渲染后的三维模型和所述目标对象进行融合之前,如果检测到所述目标对象中包含人脸图像,则确定所述人脸图像的二维面部特征点以及皮肤纹理;
在所述三维模型中确定和所述二维面部特征点匹配的的三维面部特征点;
将所述三维面部特征点对应的三维模型与所述皮肤纹理进行渲染。
在一个可能的实施例中,所述渲染融合模块103具体用于:
依据渲染后的三维模型的轮廓和所述目标对象的轮廓进行数据融合。
本实施例在上述各实施例的基础上提供了一种终端设备,图6是本申请实施例提供的一种终端设备的结构示意图,如图6所示,该终端设备200包括:存储器201、处理器(Central Processing Unit,CPU)202、外设接口203、RF(Radio Frequency,射频)电路205、音频电路206、扬声器211、电源管理芯片208、输入/输出(I/O)子系统209、触摸屏212、Wifi模块213、其他输入/控制设备210以及外部端口204,这些部件通过一个或多个通信总线或信号线207来通信。
应该理解的是,图示终端设备200仅仅是终端设备的一个范例,并且终端设备200可以具有比图中所示出的更多的或者更少的部件,可以组合两个或更多的部件,或者可以具有不同的部件配置。图中所示出的各种部件可以在包括一个或多个信号处理和/或专用集成电路在内的硬件、软件、或硬件和软件的组合中实现。
下面就本实施例提供的用于模型匹配的终端设备进行详细的描述,该终端设备以智能手机为例。
存储器201,所述存储器201可以被CPU202、外设接口203等访问,所述存储器201可以包括高速随机存取存储器,还可以包括非易失性存储器,例如一个或多个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
外设接口203,所述外设接口203可以将设备的输入和输出外设连接到CPU202和存储器201。
I/O子系统209,所述I/O子系统209可以将设备上的输入输出外设,例如触摸屏212和其他输入/控制设备210,连接到外设接口203。I/O子系统209可以包括显示控制器2091和用于控制其他输入/控制设备210的一个或多个输入控制器2092。其中,一个或多个输入控制器2092从其他输入/控制设备210接收电信号或者向其他输入/控制设备210发送电信号,其他输入/控制设备210可以包括物理按钮(按压按钮、摇臂按钮等)、拨号盘、滑动开关、操纵杆、点击滚轮。值得说明的是,输入控制器2092可以与以下任一个连接:键盘、红外端口、USB接口以及诸如鼠标的指示设备。
触摸屏212,所述触摸屏212是用户终端与用户之间的输入接口和输出接口,将可视输出显示给用户,可视输出可以包括图形、文本、图标、视频等。
I/O子系统209中的显示控制器2091从触摸屏212接收电信号或者向触摸屏212发送电信号。触摸屏212检测触摸屏上的接触,显示控制器2091将检测到的接触转换为与显示在触摸屏212上的用户界面对象的交互,即实现人机交互,显示在触摸屏212上的用户界面对象可以是运行游戏的图标、联网到相应网络的图标等。值得说明的是,设备还可以包括光鼠,光鼠是不显示可视输出的触摸敏感表面,或者是由触摸屏形成的触摸敏感表面的延伸。
RF电路205,主要用于建立手机与无线网络(即网络侧)的通信,实现手机与无线网络的数据接收和发送。例如收发短信息、电子邮件等。具体地,RF电路205接收并发送RF信号,RF信号也称为电磁信号,RF电路205将电信号转换为电磁信号或将电磁信号转换为电信号,并且通过该电磁信号与通信网络以及其他设备进行通信。RF电路205可以包括用于执行这些功能的已知电路,其包括但不限于天线系统、RF收发机、一个或多个放大器、调谐器、一个或多个振荡器、数字信号处理器、CODEC(COder-DECoder,编译码器)芯片组、用户标识模块(Subscriber Identity Module,SIM)等等。
音频电路206,主要用于从外设接口203接收音频数据,将该音频数据转换为电信号,并且将该电信号发送给扬声器211。
扬声器211,用于将手机通过RF电路205从无线网络接收的语音信号,还原为声音并向用户播放该声音。
电源管理芯片208,用于为CPU202、I/O子系统及外设接口所连接的硬件进行供电及电源管理。
上述实施例中提供的终端设备的模型匹配装置及终端设备可执行本申请任意实施例所提供的终端设备的模型匹配方法,具备执行该方法相应的功能模块和有益效果。未在上述实施例中详尽描述的技术细节,可参见本申请任意实施例所提供的终端设备的模型匹配方法。
本申请实施例还提供一种包含终端设备可执行指令的存储介质,所述终端设备可执行指令在由终端设备处理器执行时用于执行一种模型匹配方法,该方法包括:
根据传感数据和视频流数据确定当前画面中目标对象的匹配信息;
依据所述匹配信息计算和所述目标对象对应的三维模型的变化参量,所述变化参量包括旋转角度和拉伸距离;
依据所述变化参量对所述三维模型进行渲染,将渲染后的三维模型和所述目标对象进行融合。
在一个可能的实施例中,所述根据传感数据和视频流数据确定当前画面中目标对象的匹配信息包括:
根据陀螺仪数据和视频流数据中的目标对象运动轨迹确定当前画面中所述目标对象的匹配信息。
在一个可能的实施例中,所述根据陀螺仪数据和视频流数据中的目标对象运动轨迹确定当前画面中所述目标对象的匹配信息包括:
根据陀螺仪数据确定相机的第一旋转角度;
根据视频流信息的每帧图像确定目标对象的关键点,根据关键点移动轨迹确定所述目标对象的第二旋转角度;
根据所述第一旋转角度和所述第二旋转角度得到目标旋转角度。
在一个可能的实施例中,所述根据传感数据和视频流数据确定当前画面中目标对象的匹配信息包括:
根据加速度数据和视频流数据中目标对象的大小确定当前画面中目标对象的目标拉伸距离。
在一个可能的实施例中,所述依据所述匹配信息计算和所述目标对象对应的三维模型的变化参量包括:
依据所述匹配信息以及缩放参数计算和所述目标对象对应的三维模型的变化参量。
在一个可能的实施例中,在所述将渲染后的三维模型和所述目标对象进行融合之前,还包括:
如果检测到所述目标对象中包含人脸图像,则确定所述人脸图像的二维面部特征点以及皮肤纹理;
在所述三维模型中确定和所述二维面部特征点匹配的的三维面部特征点;
将所述三维面部特征点对应的三维模型与所述皮肤纹理进行渲染。
在一个可能的实施例中,所述将渲染后的三维模型和所述目标对象进行融合包括:
依据渲染后的三维模型的轮廓和所述目标对象的轮廓进行数据融合。
存储介质——任何的各种类型的存储器设备或存储设备。术语“存储介质”旨在包括:安装介质,例如CD-ROM、软盘或磁带装置;计算机系统存储器或随机存取存储器,诸如DRAM、DDR RAM、SRAM、EDO RAM,兰巴斯(Rambus)RAM等;非易失性存储器,诸如闪存、磁介质(例如硬盘或光存储);寄存器或其它相似类型的存储器元件等。存储介质可以还包括其它类型的存储器或其组合。另外,存储介质可以位于程序在其中被执行的第一计算机系统中,或者可以位于不同的第二计算机系统中,第二计算机系统通过网络(诸如因特网)连接到第一计算机系统。第二计算机系统可以提供程序指令给第一计算机用于执行。术语“存储介质”可以包括可以驻留在不同位置中(例如在通过网络连接的不同计算机系统中)的两个或更多存储介质。存储介质可以存储可由一个或多个处理器执行的程序指令(例如具体实现为计算机程序)。
当然,本申请实施例所提供的一种包含计算机可执行指令的存储介质,其计算机可执行指令不限于如上所述的模型匹配方法操作,还可以执行本申请任意实施例所提供的模型匹配方法中的相关操作。
注意,上述仅为本申请的较佳实施例及所运用技术原理。本领域技术人员会理解,本申请不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本申请的保护范围。因此,虽然通过以上实施例对本申请进行了较为详细的说明,但是本申请不仅仅限于以上实施例,在不脱离本申请构思的情况下,还可以包括更多其他等效实施例,而本申请的范围由所附的权利要求范围决定。
Claims (10)
1.模型匹配方法,其特征在于,包括:
根据传感数据和视频流数据确定当前画面中目标对象的匹配信息;
依据所述匹配信息计算和所述目标对象对应的三维模型的变化参量,所述变化参量包括旋转角度和/或拉伸距离;
依据所述变化参量对所述三维模型进行渲染,将渲染后的三维模型和所述目标对象进行融合。
2.根据权利要求1所述的方法,其特征在于,所述根据传感数据和视频流数据确定当前画面中目标对象的匹配信息包括:
根据陀螺仪数据和视频流数据中的目标对象运动轨迹确定当前画面中所述目标对象的匹配信息。
3.根据权利要求2所述的方法,其特征在于,所述根据陀螺仪数据和视频流数据中的目标对象运动轨迹确定当前画面中所述目标对象的匹配信息包括:
根据陀螺仪数据确定相机的第一旋转角度;
根据视频流信息的每帧图像确定目标对象的关键点,根据关键点移动轨迹确定所述目标对象的第二旋转角度;
根据所述第一旋转角度和所述第二旋转角度得到目标旋转角度。
4.根据权利要求1所述的方法,其特征在于,所述根据传感数据和视频流数据确定当前画面中目标对象的匹配信息包括:
根据加速度数据和视频流数据中目标对象的大小确定当前画面中目标对象的目标拉伸距离。
5.根据权利要求1-4中任一项所述的方法,其特征在于,所述依据所述匹配信息计算和所述目标对象对应的三维模型的变化参量包括:
依据所述匹配信息以及缩放参数计算和所述目标对象对应的三维模型的变化参量。
6.根据权利要求1-4中任一项所述的方法,其特征在于,在所述将渲染后的三维模型和所述目标对象进行融合之前,还包括:
如果检测到所述目标对象中包含人脸图像,则确定所述人脸图像的二维面部特征点以及皮肤纹理;
在所述三维模型中确定和所述二维面部特征点匹配的的三维面部特征点;
将所述三维面部特征点对应的三维模型与所述皮肤纹理进行渲染。
7.根据权利要求1-4中任一项所述的方法,其特征在于,所述将渲染后的三维模型和所述目标对象进行融合包括:
依据渲染后的三维模型的轮廓和所述目标对象的轮廓进行数据融合。
8.模型匹配装置,其特征在于,包括:
匹配信息确定模块,用于根据传感数据和视频流数据确定当前画面中目标对象的匹配信息;
变化参量确定模块,用于依据所述匹配信息计算和所述目标对象对应的三维模型的变化参量,所述变化参量包括旋转角度和/或拉伸距离;
渲染融合模块,用于依据所述变化参量对所述三维模型进行渲染,将渲染后的三维模型和所述目标对象进行融合。
9.一种终端设备,包括:处理器、存储器以及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1-7中任一项所述的模型匹配方法。
10.一种包含终端设备可执行指令的存储介质,其特征在于,所述终端设备可执行指令在由终端设备处理器执行时用于执行如权利要求1-7中任一项所述的模型匹配方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910080521.5A CN109829982B (zh) | 2019-01-28 | 2019-01-28 | 模型匹配方法、装置、终端设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910080521.5A CN109829982B (zh) | 2019-01-28 | 2019-01-28 | 模型匹配方法、装置、终端设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109829982A true CN109829982A (zh) | 2019-05-31 |
CN109829982B CN109829982B (zh) | 2023-11-07 |
Family
ID=66862692
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910080521.5A Active CN109829982B (zh) | 2019-01-28 | 2019-01-28 | 模型匹配方法、装置、终端设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109829982B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110460922A (zh) * | 2019-08-21 | 2019-11-15 | 北京君林科技股份有限公司 | 一种麦克风、智能开启麦克风的方法及装置 |
CN111476870A (zh) * | 2020-02-29 | 2020-07-31 | 新华三大数据技术有限公司 | 一种对象渲染方法和装置 |
CN113593019A (zh) * | 2021-08-09 | 2021-11-02 | 北京金恒博远科技股份有限公司 | 一种物体结构变化展示方法、装置及电子设备 |
CN114748872A (zh) * | 2022-06-13 | 2022-07-15 | 深圳市乐易网络股份有限公司 | 一种基于信息融合的游戏渲染更新方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130063418A1 (en) * | 2011-09-12 | 2013-03-14 | Disney Enterprises, Inc. | Techniques for processing image data generated from three-dimensional graphic models |
CN109118569A (zh) * | 2018-08-16 | 2019-01-01 | Oppo广东移动通信有限公司 | 基于三维模型的渲染方法和装置 |
-
2019
- 2019-01-28 CN CN201910080521.5A patent/CN109829982B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130063418A1 (en) * | 2011-09-12 | 2013-03-14 | Disney Enterprises, Inc. | Techniques for processing image data generated from three-dimensional graphic models |
CN109118569A (zh) * | 2018-08-16 | 2019-01-01 | Oppo广东移动通信有限公司 | 基于三维模型的渲染方法和装置 |
Non-Patent Citations (1)
Title |
---|
王勇超等: "基于局部渲染的高精度模型自适应展示技术", 《浙江大学学报(工学版)》 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110460922A (zh) * | 2019-08-21 | 2019-11-15 | 北京君林科技股份有限公司 | 一种麦克风、智能开启麦克风的方法及装置 |
CN111476870A (zh) * | 2020-02-29 | 2020-07-31 | 新华三大数据技术有限公司 | 一种对象渲染方法和装置 |
CN111476870B (zh) * | 2020-02-29 | 2022-08-30 | 新华三大数据技术有限公司 | 一种对象渲染方法和装置 |
CN113593019A (zh) * | 2021-08-09 | 2021-11-02 | 北京金恒博远科技股份有限公司 | 一种物体结构变化展示方法、装置及电子设备 |
CN114748872A (zh) * | 2022-06-13 | 2022-07-15 | 深圳市乐易网络股份有限公司 | 一种基于信息融合的游戏渲染更新方法 |
Also Published As
Publication number | Publication date |
---|---|
CN109829982B (zh) | 2023-11-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11205282B2 (en) | Relocalization method and apparatus in camera pose tracking process and storage medium | |
US11481923B2 (en) | Relocalization method and apparatus in camera pose tracking process, device, and storage medium | |
US11393154B2 (en) | Hair rendering method, device, electronic apparatus, and storage medium | |
CN110189340B (zh) | 图像分割方法、装置、电子设备及存储介质 | |
US11436779B2 (en) | Image processing method, electronic device, and storage medium | |
CN109829982A (zh) | 模型匹配方法、装置、终端设备及存储介质 | |
WO2018076437A1 (zh) | 一种人脸贴图方法及装置 | |
CN110097576B (zh) | 图像特征点的运动信息确定方法、任务执行方法和设备 | |
US20170316598A1 (en) | 3d human face reconstruction method, apparatus and server | |
CN110276840B (zh) | 多虚拟角色的控制方法、装置、设备及存储介质 | |
CN103631768B (zh) | 协作数据编辑和处理系统 | |
CN111738220A (zh) | 三维人体姿态估计方法、装置、设备及介质 | |
CN112634416B (zh) | 虚拟形象模型的生成方法、装置、电子设备及存储介质 | |
CN110599593B (zh) | 数据合成的方法、装置、设备及存储介质 | |
WO2022052620A1 (zh) | 图像生成方法及电子设备 | |
CN107341827A (zh) | 一种视频处理方法、装置和存储介质 | |
CN111680758B (zh) | 图像训练样本生成方法和装置 | |
WO2020233403A1 (zh) | 三维角色的个性化脸部显示方法、装置、设备及存储介质 | |
WO2021034211A1 (ru) | Способ и система передачи движения субъекта из видео на анимированного персонажа | |
CN112581571B (zh) | 虚拟形象模型的控制方法、装置、电子设备及存储介质 | |
CN112581358B (zh) | 图像处理模型的训练方法、图像处理方法及装置 | |
WO2018209710A1 (zh) | 一种图像处理方法及装置 | |
CN113398583A (zh) | 游戏模型的贴花渲染方法、装置、存储介质及电子设备 | |
CN113556481A (zh) | 视频特效的生成方法、装置、电子设备及存储介质 | |
CN109407824A (zh) | 人体模型的同步运动方法与装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |