CN115861500B - 2d模型碰撞体生成方法及装置 - Google Patents

2d模型碰撞体生成方法及装置 Download PDF

Info

Publication number
CN115861500B
CN115861500B CN202211580722.XA CN202211580722A CN115861500B CN 115861500 B CN115861500 B CN 115861500B CN 202211580722 A CN202211580722 A CN 202211580722A CN 115861500 B CN115861500 B CN 115861500B
Authority
CN
China
Prior art keywords
skin
parameter set
skin parameter
real
collision
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202211580722.XA
Other languages
English (en)
Other versions
CN115861500A (zh
Inventor
刘家诚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Bilibili Technology Co Ltd
Original Assignee
Shanghai Bilibili Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Bilibili Technology Co Ltd filed Critical Shanghai Bilibili Technology Co Ltd
Priority to CN202211580722.XA priority Critical patent/CN115861500B/zh
Publication of CN115861500A publication Critical patent/CN115861500A/zh
Application granted granted Critical
Publication of CN115861500B publication Critical patent/CN115861500B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T90/00Enabling technologies or technologies with a potential or indirect contribution to GHG emissions mitigation

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

本申请公开了一种2D模型碰撞体生成方法及装置,方法包括:获取虚拟主播的实时面捕数据,根据实时面捕数据确定虚拟主播的虚拟形象的蒙皮调整参数;虚拟形象以2D模型展示;根据蒙皮调整参数对当前帧虚拟形象的第一蒙皮参数集进行调整,得到调整后的第二蒙皮参数集;根据第二蒙皮参数集绘制生成对应的碰撞体;展示生成的碰撞体。根据虚拟形象的第二蒙皮参数集来绘制生成的碰撞体精细度较高,从视觉上可以完全覆盖到整个虚拟形象,使依托碰撞体的交互能够正确的触发。根据虚拟主播的实时面捕数据,基于当前帧的第一蒙皮参数集调整后得到第二蒙皮参数集,根据第二蒙皮参数集绘制生成的碰撞体与虚拟主播的实时变化对应,从而保障动态的碰撞体的正确性。

Description

2D模型碰撞体生成方法及装置
技术领域
本申请涉及动画技术领域,具体涉及一种2D模型碰撞体生成方法及装置。
背景技术
主播使用虚拟角色对应的虚拟形象进行直播,即虚拟直播。随着虚拟直播越来越火热,主播和用户之间进行更深层次的互动成为大部分虚拟主播的诉求,如基于主播的虚拟形象进行触碰交互等。
现有技术基于虚拟形象构建碰撞体,为用户呈现出虚拟形象的碰撞体触发碰撞的三维动画效果,提升虚拟直播的趣味性。但现有技术在基于虚拟形象构建碰撞体时,大多采用如图1所示的方式,如基于虚拟形象的长方形外框构建整体的碰撞体,或者基于虚拟形象的胶囊形外框构建整体的碰撞体,即基于虚拟形象的整体来构建碰撞体,一方面构建的碰撞体比较单一,不同虚拟形象都是长方形或者胶囊形碰撞体;另一方面,构建的碰撞体存在较大碰撞空隙,如长方形外框中除虚拟形象之外的空隙,或者,胶囊形外框中除虚拟形象之外的空隙,碰撞体的精细度不高。在实际交互时,在视觉上已经触碰到虚拟形象的碰撞体,但由于碰撞体的精细度不高,导致实际并没有触发触碰交互。
发明内容
鉴于上述问题,提出了本申请实施例以便提供一种克服上述问题或者至少部分地解决上述问题的2D模型碰撞体生成方法及装置。
根据本申请实施例的第一方面,提供了一种2D模型碰撞体生成方法,其包括:
获取虚拟主播的实时面捕数据,根据实时面捕数据确定虚拟主播的虚拟形象的蒙皮调整参数;虚拟形象以2D模型展示;
根据蒙皮调整参数对当前帧虚拟形象的第一蒙皮参数集进行调整,得到调整后的第二蒙皮参数集;
根据第二蒙皮参数集绘制生成对应的碰撞体;
展示所述生成的碰撞体。
可选地,获取虚拟主播的实时面捕数据,根据实时面捕数据确定虚拟主播的虚拟形象的蒙皮调整参数进一步包括:
基于采集设备获取虚拟主播的实时视频数据,将实时视频数据转化为实时面捕数据;
根据实时面捕数据确定对应的蒙皮调整参数。
可选地,根据蒙皮调整参数对当前帧虚拟形象的第一蒙皮参数集进行调整,得到调整后的第二蒙皮参数集进一步包括:
获取当前帧虚拟形象的第一蒙皮参数集;
根据蒙皮调整参数,对应的调整第一蒙皮参数集,得到调整后的第二蒙皮参数集。
可选地,在根据第二蒙皮参数集绘制生成对应的碰撞体之前,方法还包括:
存储第二蒙皮参数集;其中,第二蒙皮参数集存储在内存中。
可选地,蒙皮参数包括蒙皮三角形位置以及蒙皮三角形各顶点坐标信息;第二蒙皮参数集包含多个第二蒙皮参数;
根据第二蒙皮参数集绘制生成对应的碰撞体进一步包括:
遍历第二蒙皮参数集中各个第二蒙皮参数,根据第二蒙皮参数对应的蒙皮三角形位置以及蒙皮三角形各顶点坐标信息绘制生成对应的碰撞体。
可选地,在根据第二蒙皮参数集绘制生成对应的碰撞体之后,方法还包括:
存储绘制生成的碰撞体,其中,碰撞体存储在内存中。
可选地,展示生成的碰撞体进一步包括:
根据虚拟主播的实时视频数据,展示生成的碰撞体,并利用第二蒙皮参数集更新替换虚拟形象的第一蒙皮参数集。
可选地,在展示生成的碰撞体之后,方法还包括:
删除存储的第二蒙皮参数集以及碰撞体。
可选地,方法还包括:
预先构建虚拟形象各部位的蒙皮参数集;
获取虚拟主播的实时面捕数据,根据实时面捕数据确定虚拟主播的虚拟形象的蒙皮调整参数进一步包括:
获取虚拟主播的实时面捕数据,根据实时面捕数据确定虚拟主播的虚拟形象的指定部位的蒙皮调整参数;
根据蒙皮调整参数对当前帧虚拟形象的第一蒙皮参数集进行调整,得到调整后的第二蒙皮参数集进一步包括:
根据蒙皮调整参数对当前帧虚拟形象的指定部位的第一蒙皮参数集进行调整,得到调整后的第二蒙皮参数集;
根据第二蒙皮参数集绘制生成对应的碰撞体进一步包括:
根据第二蒙皮参数集绘制生成虚拟形象的指定部位的碰撞体。
可选地,方法还包括:
获取虚拟形象的初始蒙皮参数集,根据初始蒙皮参数集绘制生成对应的碰撞体,并展示碰撞体。
可选地,2D模型包括live 2D模型。
根据本申请实施例的第二方面,提供了一种2D模型碰撞体生成装置,其包括:
获取模块,适于获取虚拟主播的实时面捕数据,根据实时面捕数据确定虚拟主播的虚拟形象的蒙皮调整参数;虚拟形象以2D模型展示;
调整模块,适于根据蒙皮调整参数对当前帧虚拟形象的第一蒙皮参数集进行调整,得到调整后的第二蒙皮参数集;
生成模块,适于根据第二蒙皮参数集绘制生成对应的碰撞体;
展示模块,适于展示生成的碰撞体。
根据本申请实施例的第三方面,提供了一种计算设备,包括:处理器、存储器、通信接口和通信总线,所述处理器、所述存储器和所述通信接口通过所述通信总线完成相互间的通信;
所述存储器用于存放至少一可执行指令,所述可执行指令使所述处理器执行上述2D模型碰撞体生成方法对应的操作。
根据本申请实施例的第四方面,提供了一种计算机存储介质,所述存储介质中存储有至少一可执行指令,所述可执行指令使处理器执行如上述2D模型碰撞体生成方法对应的操作。
根据本申请的提供的2D模型碰撞体生成方法及装置,根据虚拟形象的第二蒙皮参数集来绘制生成碰撞体,生成的碰撞体的精细度较高,从视觉上可以完全覆盖到整个虚拟形象,使依托碰撞体的交互能够正确的触发。进一步,根据虚拟主播的实时面捕数据,基于当前帧的第一蒙皮参数集调整后得到第二蒙皮参数集,保障第二蒙皮参数集与虚拟主播的动作对应,根据第二蒙皮参数集绘制生成的碰撞体与虚拟主播的实时变化对应,具有实时性,从而保障动态的碰撞体的正确性。
上述说明仅是本申请技术方案的概述,为了能够更清楚了解本申请的技术手段,而可依照说明书的内容予以实施,并且为了让本申请的上述和其它目的、特征和优点能够更明显易懂,以下特举本申请的具体实施方式。
附图说明
通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本申请的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:
图1示出了现有技术生成的虚拟形象的碰撞体示意图;
图2根据本申请一个实施例的2D模型碰撞体生成方法的流程图;
图3示出了根据第二蒙皮参数集绘制生成的碰撞体的示意图;
图4示出了根据本申请另一个实施例的2D模型碰撞体生成方法的流程图;
图5a示出了虚拟形象变化示意图;
图5b示出了与图5a对应的碰撞体变化示意图;
图6示出了根据本申请又一个实施例的2D模型碰撞体生成方法的流程图;
图7示出了绘制生成指定部位的碰撞体的示意图;
图8示出了根据本申请一个实施例的2D模型碰撞体生成装置的结构示意图;
图9示出了根据本申请一个实施例的一种计算设备的结构示意图。
具体实施方式
下面将参照附图更详细地描述本申请的示例性实施例。虽然附图中显示了本申请的示例性实施例,然而应当理解,可以以各种形式实现本申请而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本申请,并且能够将本申请的范围完整的传达给本领域的技术人员。
首先,对本申请一个或多个实施例涉及的名词术语进行解释。
碰撞体:一种可以进行物理交互的逻辑;
虚拟主播:使用虚拟角色进行直播的主播;
虚拟直播:使用虚拟角色进行的直播;
虚拟形象:主播自己独特的人物形象;
Live2D:一种绘图渲染技术,可将静态的人物产生动起来的效果;
art蒙皮:Live2D虚拟形象的组成元件;
三角形:3D世界中的任何面都是由三角形绘制而成,因为无规则的集合图形都可以由三角形组成;比如四边形可以由两个三角形组成。
图2示出了根据本申请一实施例的2D模型碰撞体生成方法的流程图,如图2所示,该方法包括如下步骤:
步骤S201,获取虚拟主播的实时面捕数据,根据实时面捕数据确定虚拟主播的虚拟形象的蒙皮调整参数。
虚拟主播即使用虚拟角色进行直播的主播,虚拟主播在进行虚拟直播时,会使用对应的虚拟形象进行直播,虚拟形象以2D模型展示,如使用live 2D模型,呈现类似三维效果的二维图片。虚拟形象可以预先设置,对应的虚拟形象的蒙皮参数集也可以预先设置,蒙皮参数集可以采用如art蒙皮,将虚拟形象分为多个三角形,蒙皮参数集中包含多个蒙皮参数,每个蒙皮参数包括蒙皮三角形位置以及蒙皮三角形各顶点坐标信息。
当虚拟主播发生实时动作时,根据虚拟主播的实时视频数据可以获取到虚拟主播的实时面捕数据,也可以包括实时动捕数据,根据实时面捕数据、实时动捕数据等可以确定虚拟主播的虚拟形象的变化,如虚拟主播向右转头、虚拟主播抬手等,对应调整需要对虚拟形象的蒙皮参数集也进行调整,与虚拟主播的变化相匹配,即需要根据实时面捕数据、实时动捕数据等确定虚拟形象的蒙皮调整参数,蒙皮调整参数对应虚拟主播的变化,蒙皮调整参数包括如涉及的蒙皮三角形位置、蒙皮三角形各顶点坐标信息的数值调整,具体调整数值根据实际实施情况设置,此处不做限定。
步骤S202,根据蒙皮调整参数对当前帧虚拟形象的第一蒙皮参数集进行调整,得到调整后的第二蒙皮参数集。
本实施例针对虚拟主播变化的每一帧视频均进行了处理,具体的,在得到蒙皮调整参数后,先获取当前帧虚拟形象的第一蒙皮参数集,即当前展示的虚拟形象的第一蒙皮参数集,在第一蒙皮参数集的基础之上根据蒙皮调整参数进行调整,得到调整后的第二蒙皮参数集。此处,为不影响当前帧的展示,可以将计算得到的调整后的第二蒙皮参数集先存储至内存中,当展示下一帧时,在展示对应的第二蒙皮参数集的虚拟形象。此处,对于当前任一帧的第一蒙皮参数集,需要在不影响第一蒙皮参数集的情况下进行调整,即在内存中对第一蒙皮参数集进行计算调整后,将调整后的第二蒙皮参数集作为临时数据在内存存储,下一帧时再使用第二蒙皮参数集。由于每一帧的虚拟形象都可能存在不一样的姿态,需要针对当前帧的第一蒙皮参数集都进行调整,确定第二蒙皮参数集,以便基于第二蒙皮参数集绘制生成对应的碰撞体。
步骤S203,根据第二蒙皮参数集绘制生成对应的碰撞体。
第二蒙皮参数集包含多个第二蒙皮参数,可以通过如遍历方式,遍历各个第二蒙皮参数,根据每个第二蒙皮参数中的蒙皮三角形位置、蒙皮三角形各顶点坐标信息等进行绘制生成对应的碰撞体,如绘制碰撞体时根据第二蒙皮参数中的蒙皮三角形位置、蒙皮三角形各顶点坐标信息等确定碰撞体的中心、size大小,生成对应的碰撞体,此处为举例说明,具体根据实施情况进行绘制,此处不做限定。
生成的碰撞体如图3所示,根据虚拟形象中第二蒙皮参数集中各第二蒙皮参数的蒙皮三角形位置、蒙皮三角形各顶点坐标信息等绘制生成碰撞体,生成的碰撞体从视觉上可以完全覆盖到整个虚拟形象,其精细度更高。
步骤S204,展示生成的碰撞体。
绘制生成的碰撞体与第二蒙皮参数集对应,为不影响当前帧展示的第一蒙皮参数集的碰撞体,可以将绘制生成的碰撞体先存储,待下一帧时展示生成的碰撞体。一秒内可以展示多帧画面,如一秒展示6帧等,每一帧的碰撞体根据虚拟形象的不同蒙皮参数集生成,随着虚拟主播的实时动作变化而变化,实时地反应了虚拟形象的不同姿态,展示的生成的碰撞体可以实时地反映出虚拟主播的动作变化,方便虚拟形象依托碰撞体的交互可以正确的触发,提升用户体验。
根据本申请提供的2D模型碰撞体生成方法,根据虚拟形象的第二蒙皮参数集来绘制生成碰撞体,生成的碰撞体的精细度较高,从视觉上可以完全覆盖到整个虚拟形象,使依托碰撞体的交互能够正确的触发。进一步,根据虚拟主播的实时面捕数据,基于当前帧的第一蒙皮参数集调整后得到第二蒙皮参数集,保障第二蒙皮参数集与虚拟主播的动作对应,根据第二蒙皮参数集绘制生成的碰撞体与虚拟主播的实时变化对应,具有实时性,从而保障动态的碰撞体的正确性。
图4示出了根据本申请一实施例的2D模型碰撞体生成方法的流程图,如图4所示,该方法包括以下步骤:
步骤S401,获取虚拟形象的初始蒙皮参数集,根据初始蒙皮参数集绘制生成对应的碰撞体,并展示碰撞体。
虚拟主播在进行虚拟直播时所使用的虚拟形象是预先设置的,虚拟形象的初始蒙皮参数集也可以预先设置。在虚拟主播进入直播间进行虚拟直播的初始展示时,可以获取到虚拟形象的初始蒙皮参数集,对应的绘制生成对应的碰撞体,展示生成的碰撞体。根据初始蒙皮参数集绘制生成碰撞体可以参照步骤S203,在此不再展开说明。
步骤S402,基于采集设备获取虚拟主播的实时视频数据,将实时视频数据转化为实时面捕数据。
虚拟主播在进行虚拟直播时,利用如摄像头等采集设备可以获取到虚拟主播的实时视频数据,实时视频数据记录了虚拟主播的实时动作变化等。将实时视频数据转化为实时面捕数据、实时动捕数据等,方便基于实时面捕数据、实时动捕数据确定对应的蒙皮调整参数。
步骤S403,根据实时面捕数据确定对应的蒙皮调整参数。
根据实时面捕数据、实时动捕数据等可以确定虚拟主播的实时动作变化对应的虚拟形象的调整部位,如实时面捕数据包含如头部转动、头发甩动、眼睛眨动等,对应的调整部位包括头部、头发、眼睛等;或者,实时动捕数据包括胳膊抬起、腿下蹲,弯腰等,对应的调整部位包括胳膊、腿、腰等。进一步,若虚拟主播的实时动作变化涉及多个部位,对应的调整部位为多个。
根据对应的调整部位、实时面捕数据、实时动捕数据等,确定对应的蒙皮调整参数。蒙皮调整参数包括如涉及的蒙皮三角形位置、蒙皮三角形各顶点坐标信息的数值调整,如将调整为原数值的二分之一等,具体根据实施情况设置,此处不做限定。
步骤S404,获取当前帧虚拟形象的第一蒙皮参数集,根据蒙皮调整参数,对应的调整第一蒙皮参数集,得到调整后的第二蒙皮参数集。
蒙皮调整参数是基于当前帧虚拟形象的第一蒙皮参数集的基础上进行调整,因此,需要先从内存中获取当前帧虚拟形象的第一蒙皮参数集,然后根据蒙皮调整参数,对应的调整第一蒙皮参数集中各个第一蒙皮参数,得到调整后的第二蒙皮参数集的各个第二蒙皮参数。
进一步,调整第一蒙皮参数集得到调整后的第二蒙皮参数集,与虚拟直播可以采用不同进程,也避免影响虚拟直播当前帧的展示效果。
步骤S405,存储第二蒙皮参数集。
为不影响当前帧的展示,在得到调整后的第二蒙皮参数集后,将第二蒙皮参数集先存储在内存中。此处,针对每一帧,都需要根据虚拟主播的实时动作变化,对应的确定蒙皮调整参数,在当前帧的第一蒙皮参数集的基础上,得到第二蒙皮参数集。将第二蒙皮参数集作为临时蒙皮参数集进行存储,避免影响当前帧的展示。
步骤S406,遍历第二蒙皮参数集中各个第二蒙皮参数,根据第二蒙皮参数对应的蒙皮三角形信息位置以及蒙皮三角形各顶点坐标信息绘制生成对应的碰撞体。
根据第二蒙皮参数集,可以对其进行遍历,遍历第二蒙皮参数集中各个第二蒙皮参数,根据每个第二蒙皮参数包含的蒙皮三角形信息位置、蒙皮三角形各顶点坐标信息等对应绘制各个三角形的碰撞体,最终生成虚拟形象对应的碰撞体。
步骤S407,存储绘制生成的碰撞体。
为不影响当前帧的展示,在绘制生成碰撞体后,将绘制生成的碰撞体先存储在内存中,避免影响当前帧虚拟形象的碰撞体的展示。针对每一帧,都需要根据虚拟主播的实时动作变化,为其绘制生成对应的碰撞体,保障生成的碰撞体与虚拟主播的实时变化对应,提升生成的动态的碰撞体的正确性,使实时的虚拟形象依托生成的碰撞体正确触发碰撞交互。
步骤S408,根据虚拟主播的实时视频数据,展示生成的碰撞体,并利用第二蒙皮参数集更新替换虚拟形象的第一蒙皮参数集。
根据虚拟主播的实时动作变化所产生的实时视频数据,为每一帧均生成对应的碰撞体,在展示时,对应的展示生成的碰撞体,以便可以依托碰撞体实时准确地触发碰撞交互。每一帧的碰撞体都与虚拟主播的实时动作变化相对应,与不同姿态的实时各帧的虚拟形象相对应,完全覆盖虚拟形象,精细度更高。
在生成并存储第二蒙皮参数集后,当从当前帧到下一帧展示时,可以利用第二蒙皮参数集更新替换虚拟形象的第一蒙皮参数集,即对第一蒙皮参数集进行更新,便于再根据虚拟主播的下一实时动作变化,可以基于更新后的第一蒙皮参数集进行调整,保障虚拟形象不同姿态间转换的连续性,使得虚拟形象与虚拟主播的实时动作变化对应。
具体的,如图5a所示,虚拟形象根据虚拟主播的实时动作变化从左侧的姿态转换为右侧的姿态,对应的碰撞体如图5b所示,展示左侧的碰撞体转换为展示右侧的碰撞体。图5b中生成的碰撞体的精细度较高,从视觉上可以完全覆盖到整个虚拟形象,使依托碰撞体的交互能够正确的触发,且生成的碰撞体与虚拟主播的实时动作变化相对应,生成的碰撞体正确性高。
步骤S409,删除存储的第二蒙皮参数集以及碰撞体。
在展示生成的碰撞体以及更新虚拟形象为第二蒙皮参数集后,删除存储的第二蒙皮参数集以及碰撞体,避免过多占用内存,清除临时数据,还可以继续用于存储后续每一帧再生成的第二蒙皮参数集以及对应的碰撞体。
根据本申请提供的2D模型碰撞体生成方法,根据虚拟形象的初始蒙皮参数集可以生成初始展示的碰撞体。根据虚拟主播的实时视频数据,即虚拟主播的实时动作变化,可以确定对应的蒙皮调整参数,针对每一帧,在当前帧虚拟形象的第一蒙皮参数集的基础之上,根据蒙皮调整参数,对应的调整第一蒙皮参数集,得到调整后的第二蒙皮参数集,并存储第二蒙皮参数集,避免影响当前帧的展示。遍历第二蒙皮参数集中各个第二蒙皮参数,根据每个第二蒙皮参数包含的蒙皮三角形信息位置、蒙皮三角形各顶点坐标信息来绘制得到各个三角形的碰撞体,最终得到虚拟形象对应的碰撞体,使得碰撞体可以完全覆盖到整个虚拟形象,从而依托于碰撞体的交互能够正确的触发。
图6示出了根据本申请一实施例的2D模型碰撞体生成方法的流程图,如图6所示,该方法包括以下步骤:
步骤S601,预先构建虚拟形象各部位的蒙皮参数集。
在预先构建虚拟形象时,可以以部位为单位,如将某一部位定义为一个组,构建各部位的蒙皮参数集,即一个部位对应一组的蒙皮参数集。如手臂,包含手部的所有蒙皮参数集;头发,包含头发的所有蒙皮参数集;面部,包含面部的所有蒙皮参数集等。进一步,也可以以多个部位为一个单位,如在虚拟形象中定义头发和面部2个部位的蒙皮参数集,以便绘制头发和面部部位的碰撞体。
基于部位构建各部位的蒙皮参数集,在获取时可以自定义指定部位,获取时仅获取指定部位的蒙皮参数集。初始化时,根据指定部位的蒙皮参数集来绘制生成初始化的碰撞体。
步骤S602,获取虚拟主播的实时面捕数据,根据实时面捕数据确定虚拟主播的虚拟形象的指定部位的蒙皮调整参数。
本实施例中在绘制碰撞体时,可以针对指定部位绘制。具体的,获取虚拟主播的实时面捕数据,根据实时面捕数据在确定虚拟形象的蒙皮调整参数时,可以仅对虚拟形象的指定部位,来确定对应的蒙皮调整参数。指定部位可以根据实施情况设置,可以自定义指定部位,如头发、面部,也可以是其他部位,此处不做限定。
具体确定虚拟主播的虚拟形象的指定部位的蒙皮调整参数可以参照步骤S201、步骤S402-S403的描述,在此不再赘述。
步骤S603,根据蒙皮调整参数对当前帧虚拟形象的指定部位的第一蒙皮参数集进行调整,得到调整后的第二蒙皮参数集。
根据蒙皮调整参数对当前帧虚拟形象的第一蒙皮参数集进行调整时,也仅获取当前帧虚拟形象的指定部位的第一蒙皮参数集,对当前帧虚拟形象的指定部位的第一蒙皮参数集进行调整,得到调整后的第二蒙皮参数集。调整后的第二蒙皮参数集为虚拟形象的指定部位的第二蒙皮参数集。
根据蒙皮调整参数对第一蒙皮参数集进行调整具体参照步骤S202、步骤S404的描述,在此不再赘述。
进一步,得到调整后的第二蒙皮参数集后,为避免影响当前帧的展示,可以将第二蒙皮参数集先存储在内存。
步骤S604,根据第二蒙皮参数集绘制生成虚拟形象的指定部位的碰撞体。
根据第二蒙皮参数集在绘制碰撞体时,可以仅生成虚拟形象的指定部位的碰撞体。即遍历指定部位的第二蒙皮参数集,根据第二蒙皮参数集包含的各个第二蒙皮参数绘制生成虚拟形象的指定部位的碰撞体。如图7所示,针对指定部位,头发和面部,绘制生成头发和面部的虚拟形象的碰撞体。
第二蒙皮参数集绘制生成碰撞体具体参照步骤S203、步骤S406的描述,在此不再赘述。
步骤S605,展示生成的碰撞体。
在绘制生成虚拟形象的指定部位的碰撞体后,可以将碰撞体先存储在内存,当从当前帧到下一帧展示时,可以利用第二蒙皮参数集更新替换虚拟形象的指定部位的第一蒙皮参数集,并展示存储的碰撞体。针对每一帧,均根据虚拟主播的实时动作变化,为每一帧生成对应的碰撞体,展示时可以从内存中获取碰撞体进行展示。
根据本申请提供的2D模型碰撞体生成方法,预先构建虚拟形象时,按照部位构建各部位的蒙皮参数集,方便获取指定部位的蒙皮参数集。根据虚拟主播的实时面捕数据,确定虚拟形象的指定部位的蒙皮调整参数,对当前帧虚拟形象的指定部位的第一蒙皮参数集进行调整,得到调整后的第二蒙皮参数集,第二蒙皮参数集为指定部位的第二蒙皮参数集,根据第二蒙皮参数集可以绘制生成虚拟形象的指定部位的碰撞体,可以根据不同需求设置不同指定部位,灵活机动地生成虚拟形象的指定部位的碰撞体。
图8示出了本申请一实施例提供的2D模型碰撞体生成装置的结构示意图。如图8所示,该装置包括:
获取模块810,适于获取虚拟主播的实时面捕数据,根据实时面捕数据确定虚拟主播的虚拟形象的蒙皮调整参数;虚拟形象以2D模型展示;
调整模块820,适于根据蒙皮调整参数对当前帧虚拟形象的第一蒙皮参数集进行调整,得到调整后的第二蒙皮参数集;
生成模块830,适于根据第二蒙皮参数集绘制生成对应的碰撞体;
展示模块840,适于展示生成的碰撞体。
可选地,获取模块810进一步适于:
基于采集设备获取虚拟主播的实时视频数据,将实时视频数据转化为实时面捕数据;
根据实时面捕数据确定对应的蒙皮调整参数。
可选地,调整模块820进一步适于:
获取当前帧虚拟形象的第一蒙皮参数集;
根据蒙皮调整参数,对应的调整第一蒙皮参数集,得到调整后的第二蒙皮参数集。
可选地,装置还包括:
第一存储模块850,适于存储第二蒙皮参数集;其中,第二蒙皮参数集存储在内存中。
可选地,蒙皮参数包括蒙皮三角形位置以及蒙皮三角形各顶点坐标信息;第二蒙皮参数集包含多个第二蒙皮参数;
生成模块830进一步适于:
遍历第二蒙皮参数集中各个第二蒙皮参数,根据第二蒙皮参数对应的蒙皮三角形位置以及蒙皮三角形各顶点坐标信息绘制生成对应的碰撞体。
可选地,装置还包括:
第二存储模块860,适于存储绘制生成的碰撞体,其中,碰撞体存储在内存中。
可选地,展示模块840进一步适于:
根据虚拟主播的实时视频数据,展示生成的碰撞体,并利用第二蒙皮参数集更新替换虚拟形象的第一蒙皮参数集。
可选地,装置还包括:
删除模块870,适于删除存储的第二蒙皮参数集以及碰撞体。
可选地,装置还包括:
构建模块880,适于预先构建虚拟形象各部位的蒙皮参数集;
获取模块810进一步适于:
获取虚拟主播的实时面捕数据,根据实时面捕数据确定虚拟主播的虚拟形象的指定部位的蒙皮调整参数;
调整模块820进一步适于:
根据蒙皮调整参数对当前帧虚拟形象的指定部位的第一蒙皮参数集进行调整,得到调整后的第二蒙皮参数集;
生成模块830进一步适于:
根据第二蒙皮参数集绘制生成虚拟形象的指定部位的碰撞体。
可选地,装置还包括:
初始化模块890,适于获取虚拟形象的初始蒙皮参数集,根据初始蒙皮参数集绘制生成对应的碰撞体,并展示碰撞体。
可选地,2D模型包括live 2D模型。
以上各模块的描述参照方法实施例中对应的描述,在此不再赘述。
根据本申请提供的2D模型碰撞体生成装置,根据虚拟形象的第二蒙皮参数集来绘制生成碰撞体,生成的碰撞体的精细度较高,从视觉上可以完全覆盖到整个虚拟形象,使依托碰撞体的交互能够正确的触发。进一步,根据虚拟主播的实时面捕数据,基于当前帧的第一蒙皮参数集调整后得到第二蒙皮参数集,保障第二蒙皮参数集与虚拟主播的动作对应,根据第二蒙皮参数集绘制生成的碰撞体与虚拟主播的实时变化对应,具有实时性,从而保障动态的碰撞体的正确性。
本申请还提供了一种非易失性计算机存储介质,计算机存储介质存储有至少一可执行指令,可执行指令可执行上述任意方法实施例中的2D模型碰撞体生成方法。
图9示出了根据本申请一实施例的一种计算设备的结构示意图,本申请的具体实施例并不对计算设备的具体实现做限定。
如图9所示,该计算设备可以包括:处理器(processor)902、通信接口(Communications Interface)904、存储器(memory)906、以及通信总线908。
其中:
处理器902、通信接口904、以及存储器906通过通信总线908完成相互间的通信。
通信接口904,用于与其它设备比如客户端或其它服务器等的网元通信。
处理器902,用于执行程序910,具体可以执行上述2D模型碰撞体生成方法实施例中的相关步骤。
具体地,程序910可以包括程序代码,该程序代码包括计算机操作指令。
处理器902可能是中央处理器CPU,或者是特定集成电路ASIC(ApplicationSpecific Integrated Circuit),或者是被配置成实施本申请的一个或多个集成电路。计算设备包括的一个或多个处理器,可以是同一类型的处理器,如一个或多个CPU;也可以是不同类型的处理器,如一个或多个CPU以及一个或多个ASIC。
存储器906,用于存放程序910。存储器906可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。
程序910具体可以用于使得处理器902执行上述任意方法实施例中的2D模型碰撞体生成方法。程序910中各步骤的具体实现可以参见上述2D模型碰撞体生成实施例中的相应步骤和单元中对应的描述,在此不赘述。所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的设备和模块的具体工作过程,可以参考前述方法实施例中的对应过程描述,在此不再赘述。
在此提供的算法或显示不与任何特定计算机、虚拟系统或者其它设备固有相关。各种通用系统也可以与基于在此的示教一起使用。根据上面的描述,构造这类系统所要求的结构是显而易见的。此外,本申请也不针对任何特定编程语言。应当明白,可以利用各种编程语言实现在此描述的本申请的内容,并且上面对特定语言所做的描述是为了披露本申请的较佳实施方式。
在此处所提供的说明书中,说明了大量具体细节。然而,能够理解,本申请的实施例可以在没有这些具体细节的情况下实践。在一些实例中,并未详细示出公知的方法、结构和技术,以便不模糊对本说明书的理解。
类似地,应当理解,为了精简本申请并帮助理解各个发明方面中的一个或多个,在上面对本申请的示例性实施例的描述中,本申请的各个特征有时被一起分组到单个实施例、图、或者对其的描述中。然而,并不应将该公开的方法解释成反映如下意图:即所要求保护的本申请要求比在每个权利要求中所明确记载的特征更多的特征。更确切地说,如下面的权利要求书所反映的那样,发明方面在于少于前面公开的单个实施例的所有特征。因此,遵循具体实施方式的权利要求书由此明确地并入该具体实施方式,其中每个权利要求本身都作为本申请的单独实施例。
本领域那些技术人员可以理解,可以对实施例中的设备中的模块进行自适应性地改变并且把它们设置在与该实施例不同的一个或多个设备中。可以把实施例中的模块或单元或组件组合成一个模块或单元或组件,以及此外可以把它们分成多个子模块或子单元或子组件。除了这样的特征和/或过程或者单元中的至少一些是相互排斥之外,可以采用任何组合对本说明书(包括伴随的权利要求、摘要和附图)中公开的所有特征以及如此公开的任何方法或者设备的所有过程或单元进行组合。除非另外明确陈述,本说明书(包括伴随的权利要求、摘要和附图)中公开的每个特征可以由提供相同、等同或相似目的的替代特征来代替。
此外,本领域的技术人员能够理解,尽管在此的一些实施例包括其它实施例中所包括的某些特征而不是其它特征,但是不同实施例的特征的组合意味着处于本申请的范围之内并且形成不同的实施例。例如,在下面的权利要求书中,所要求保护的实施例的任意之一都可以以任意的组合方式来使用。
本申请的各个部件实施例可以以硬件实现,或者以在一个或者多个处理器上运行的软件模块实现,或者以它们的组合实现。本领域的技术人员应当理解,可以在实践中使用微处理器或者数字信号处理器(DSP)来实现根据本申请的一些或者全部部件的一些或者全部功能。本申请还可以实现为用于执行这里所描述的方法的一部分或者全部的设备或者装置程序(例如,计算机程序和计算机程序产品)。这样的实现本申请的程序可以存储在计算机可读介质上,或者可以具有一个或者多个信号的形式。这样的信号可以从因特网网站上下载得到,或者在载体信号上提供,或者以任何其他形式提供。
应该注意的是上述实施例对本申请进行说明而不是对本申请进行限制,并且本领域技术人员在不脱离所附权利要求的范围的情况下可设计出替换实施例。在权利要求中,不应将位于括号之间的任何参考符号构造成对权利要求的限制。单词“包含”不排除存在未列在权利要求中的元件或步骤。位于元件之前的单词“一”或“一个”不排除存在多个这样的元件。本申请可以借助于包括有若干不同元件的硬件以及借助于适当编程的计算机来实现。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。单词第一、第二、以及第三等的使用不表示任何顺序。可将这些单词解释为名称。上述实施例中的步骤,除有特殊说明外,不应理解为对执行顺序的限定。

Claims (12)

1.一种2D模型碰撞体生成方法,其包括:
基于采集设备获取虚拟主播的实时视频数据,将所述实时视频数据转化为实时面捕数据,根据所述实时面捕数据确定所述虚拟主播的虚拟形象的蒙皮调整参数;所述虚拟形象以2D模型展示;所述蒙皮调整参数包括蒙皮三角形位置、蒙皮三角形各顶点坐标信息的数值调整;
获取当前帧虚拟形象的第一蒙皮参数集,根据所述蒙皮调整参数对所述当前帧虚拟形象的第一蒙皮参数集进行调整,得到调整后的第二蒙皮参数集;其中,下一帧展示时利用所述第二蒙皮参数集更新替换所述虚拟形象的第一蒙皮参数集;
根据所述第二蒙皮参数集绘制生成对应的碰撞体;
展示所述生成的碰撞体。
2.根据权利要求1所述的方法,其中,在所述根据所述第二蒙皮参数集绘制生成对应的碰撞体之前,所述方法还包括:
存储所述第二蒙皮参数集;其中,所述第二蒙皮参数集存储在内存中。
3.根据权利要求1或2所述的方法,其中,蒙皮参数包括蒙皮三角形位置以及所述蒙皮三角形各顶点坐标信息;所述第二蒙皮参数集包含多个第二蒙皮参数;
所述根据所述第二蒙皮参数集绘制生成对应的碰撞体进一步包括:
遍历所述第二蒙皮参数集中各个第二蒙皮参数,根据所述第二蒙皮参数对应的蒙皮三角形位置以及蒙皮三角形各顶点坐标信息绘制生成对应的碰撞体。
4.根据权利要求1或2所述的方法,其中,在所述根据所述第二蒙皮参数集绘制生成对应的碰撞体之后,所述方法还包括:
存储所述绘制生成的碰撞体,其中,所述碰撞体存储在内存中。
5.根据权利要求1或2所述的方法,其中,所述展示所述生成的碰撞体进一步包括:
根据虚拟主播的实时视频数据,展示生成的碰撞体,并利用所述第二蒙皮参数集更新替换所述虚拟形象的第一蒙皮参数集。
6.根据权利要求1或2所述的方法,其中,在所述展示所述生成的碰撞体之后,所述方法还包括:
删除存储的所述第二蒙皮参数集以及所述碰撞体。
7.根据权利要求1或2所述的方法,其中,所述方法还包括:
预先构建所述虚拟形象各部位的蒙皮参数集;
所述获取虚拟主播的实时面捕数据,根据所述实时面捕数据确定所述虚拟主播的虚拟形象的蒙皮调整参数进一步包括:
获取虚拟主播的实时面捕数据,根据所述实时面捕数据确定所述虚拟主播的虚拟形象的指定部位的蒙皮调整参数;
所述根据所述蒙皮调整参数对所述当前帧虚拟形象的第一蒙皮参数集进行调整,得到调整后的第二蒙皮参数集进一步包括:
根据所述蒙皮调整参数对当前帧虚拟形象的指定部位的第一蒙皮参数集进行调整,得到调整后的第二蒙皮参数集;
所述根据所述第二蒙皮参数集绘制生成对应的碰撞体进一步包括:
根据所述第二蒙皮参数集绘制生成虚拟形象的指定部位的碰撞体。
8.根据权利要求1或2所述的方法,其中,所述方法还包括:
获取虚拟形象的初始蒙皮参数集,根据所述初始蒙皮参数集绘制生成对应的碰撞体,并展示所述碰撞体。
9.根据权利要求1或2所述的方法,其中,所述2D模型包括live 2D模型。
10.一种2D模型碰撞体生成装置,其包括:
获取模块,适于基于采集设备获取虚拟主播的实时视频数据,将所述实时视频数据转化为实时面捕数据,根据所述实时面捕数据确定所述虚拟主播的虚拟形象的蒙皮调整参数;所述虚拟形象以2D模型展示;所述蒙皮调整参数包括蒙皮三角形位置、蒙皮三角形各顶点坐标信息的数值调整;
调整模块,适于获取当前帧虚拟形象的第一蒙皮参数集,根据所述蒙皮调整参数对所述当前帧虚拟形象的第一蒙皮参数集进行调整,得到调整后的第二蒙皮参数集;其中,下一帧展示时利用所述第二蒙皮参数集更新替换所述虚拟形象的第一蒙皮参数集;
生成模块,适于根据所述第二蒙皮参数集绘制生成对应的碰撞体;
展示模块,适于展示所述生成的碰撞体。
11.一种计算设备,包括:处理器、存储器、通信接口和通信总线,所述处理器、所述存储器和所述通信接口通过所述通信总线完成相互间的通信;
所述存储器用于存放至少一可执行指令,所述可执行指令使所述处理器执行如权利要求1-9中任一项所述的2D模型碰撞体生成方法对应的操作。
12.一种计算机存储介质,所述存储介质中存储有至少一可执行指令,所述可执行指令使处理器执行如权利要求1-9中任一项所述的2D模型碰撞体生成方法对应的操作。
CN202211580722.XA 2022-12-09 2022-12-09 2d模型碰撞体生成方法及装置 Active CN115861500B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211580722.XA CN115861500B (zh) 2022-12-09 2022-12-09 2d模型碰撞体生成方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211580722.XA CN115861500B (zh) 2022-12-09 2022-12-09 2d模型碰撞体生成方法及装置

Publications (2)

Publication Number Publication Date
CN115861500A CN115861500A (zh) 2023-03-28
CN115861500B true CN115861500B (zh) 2023-08-18

Family

ID=85671586

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211580722.XA Active CN115861500B (zh) 2022-12-09 2022-12-09 2d模型碰撞体生成方法及装置

Country Status (1)

Country Link
CN (1) CN115861500B (zh)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110930483A (zh) * 2019-11-20 2020-03-27 腾讯科技(深圳)有限公司 一种角色控制的方法、模型训练的方法以及相关装置
CN111260762A (zh) * 2020-01-19 2020-06-09 腾讯科技(深圳)有限公司 一种动画实现方法、装置、电子设备和存储介质
CN113099298A (zh) * 2021-04-08 2021-07-09 广州华多网络科技有限公司 虚拟形象的改变方法、装置和终端设备
CN113101666A (zh) * 2021-05-07 2021-07-13 网易(杭州)网络有限公司 游戏角色模型方法、装置、计算机设备及存储介质
CN114051148A (zh) * 2021-11-10 2022-02-15 拓胜(北京)科技发展有限公司 一种虚拟主播生成方法、装置及电子设备
WO2022057079A1 (zh) * 2020-09-16 2022-03-24 成都完美天智游科技有限公司 虚拟场景的数据处理方法、装置、计算机程序及可读介质
CN114241100A (zh) * 2022-02-25 2022-03-25 腾讯科技(深圳)有限公司 虚拟对象的蒙皮处理方法、装置、设备、介质及程序产品
WO2022062678A1 (zh) * 2020-09-25 2022-03-31 魔珐(上海)信息科技有限公司 虚拟直播方法、装置、系统及存储介质
CN115278293A (zh) * 2022-06-15 2022-11-01 平安科技(深圳)有限公司 虚拟主播生成方法、装置、存储介质及计算机设备
WO2022252823A1 (zh) * 2021-05-31 2022-12-08 北京字跳网络技术有限公司 直播视频生成方法及装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8284202B2 (en) * 2006-06-30 2012-10-09 Two Pic Mc Llc Methods and apparatus for capturing and rendering dynamic surface deformations in human motion
US20140152893A1 (en) * 2012-12-05 2014-06-05 Ivo Martinik Creating presentations by capturing the content of a computer generated virtual secondary display
CN105512377B (zh) * 2015-11-30 2017-12-12 腾讯科技(深圳)有限公司 实时虚拟场景中圆柱碰撞体与凸体碰撞探测的方法和系统
US10679511B2 (en) * 2016-09-30 2020-06-09 Sony Interactive Entertainment Inc. Collision detection and avoidance

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110930483A (zh) * 2019-11-20 2020-03-27 腾讯科技(深圳)有限公司 一种角色控制的方法、模型训练的方法以及相关装置
CN111260762A (zh) * 2020-01-19 2020-06-09 腾讯科技(深圳)有限公司 一种动画实现方法、装置、电子设备和存储介质
WO2022057079A1 (zh) * 2020-09-16 2022-03-24 成都完美天智游科技有限公司 虚拟场景的数据处理方法、装置、计算机程序及可读介质
WO2022062678A1 (zh) * 2020-09-25 2022-03-31 魔珐(上海)信息科技有限公司 虚拟直播方法、装置、系统及存储介质
CN113099298A (zh) * 2021-04-08 2021-07-09 广州华多网络科技有限公司 虚拟形象的改变方法、装置和终端设备
CN113101666A (zh) * 2021-05-07 2021-07-13 网易(杭州)网络有限公司 游戏角色模型方法、装置、计算机设备及存储介质
WO2022252823A1 (zh) * 2021-05-31 2022-12-08 北京字跳网络技术有限公司 直播视频生成方法及装置
CN114051148A (zh) * 2021-11-10 2022-02-15 拓胜(北京)科技发展有限公司 一种虚拟主播生成方法、装置及电子设备
CN114241100A (zh) * 2022-02-25 2022-03-25 腾讯科技(深圳)有限公司 虚拟对象的蒙皮处理方法、装置、设备、介质及程序产品
CN115278293A (zh) * 2022-06-15 2022-11-01 平安科技(深圳)有限公司 虚拟主播生成方法、装置、存储介质及计算机设备

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于角色几何碰撞体估计的实时服装仿真;孙守迁;徐爱国;黄琦;王鑫;;软件学报(第11期);第259-269页 *

Also Published As

Publication number Publication date
CN115861500A (zh) 2023-03-28

Similar Documents

Publication Publication Date Title
US11645801B2 (en) Method for synthesizing figure of virtual object, electronic device, and storage medium
US11521389B2 (en) Method for generating special effect program file package, method for generating special effect, electronic device, and storage medium
US11748934B2 (en) Three-dimensional expression base generation method and apparatus, speech interaction method and apparatus, and medium
CN109448099B (zh) 画面的渲染方法、装置、存储介质及电子装置
CN111641844B (zh) 直播互动方法、装置、直播系统及电子设备
US11282264B2 (en) Virtual reality content display method and apparatus
EP3992919A1 (en) Three-dimensional facial model generation method and apparatus, device, and medium
CN111803945B (zh) 界面渲染方法、装置、电子设备及存储介质
CN112933597A (zh) 图像处理方法、装置、计算机设备及存储介质
CN109739356A (zh) Vr系统中图像显示的控制方法、装置及vr头戴设备
CN109035415B (zh) 虚拟模型的处理方法、装置、设备和计算机可读存储介质
US10818078B2 (en) Reconstruction and detection of occluded portions of 3D human body model using depth data from single viewpoint
CN108090968B (zh) 增强现实ar的实现方法、装置和计算机可读存储介质
CN110322571B (zh) 一种页面处理方法、装置及介质
CN110570500B (zh) 角色绘制方法、装置、设备及计算机可读存储介质
CN109191593A (zh) 虚拟三维模型的运动控制方法、装置及设备
CN106782260A (zh) 用于虚拟现实运动场景的显示方法及装置
JP2022545598A (ja) 仮想対象の調整方法、装置、電子機器、コンピュータ記憶媒体及びプログラム
CN114047824A (zh) 多终端用户在虚拟空间交互的方法
WO2023138170A1 (zh) 捕捉待渲染虚拟对象的运动轨迹的方法、装置及电子设备
CN110544315B (zh) 虚拟对象的控制方法及相关设备
CN115861500B (zh) 2d模型碰撞体生成方法及装置
CN110719415B (zh) 一种视频图像处理方法、装置、电子设备及计算机可读介质
JP5920858B1 (ja) プログラム、情報処理装置、深度定義方法及び記録媒体
US20230120883A1 (en) Inferred skeletal structure for practical 3d assets

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant