CN115880441A - 一种3d可视化模拟人物生成方法及系统 - Google Patents
一种3d可视化模拟人物生成方法及系统 Download PDFInfo
- Publication number
- CN115880441A CN115880441A CN202310064261.9A CN202310064261A CN115880441A CN 115880441 A CN115880441 A CN 115880441A CN 202310064261 A CN202310064261 A CN 202310064261A CN 115880441 A CN115880441 A CN 115880441A
- Authority
- CN
- China
- Prior art keywords
- data
- simulation
- character
- limb
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
Abstract
本发明公开了一种3D可视化模拟人物生成方法及系统,通过获取教学过程的人物视频数据与基于VR模型的基础人物模型进行面部与肢体等部分的动态内容分析,得到VR人物模拟数据,通过对数据的压缩与优化得到总体优化模拟数据并导入VR展示模块进行模型展示。通过本发明能够根据用户的VR人物模拟需求,展示重要的VR模型部分,对冗余数据进行压缩,相较于传统的视频数据传输,能够大大降低数据传输量,并同时提升用户体验。
Description
技术领域
本发明涉及3D可视化领域,更具体的,涉及一种3D可视化模拟人物生成方法及系统。
背景技术
虚拟现实3D可视化技术简称为VR,是20世纪发展起来的一项全新的实用技术,虚拟现实3D可视化技术利用计算机模拟环境,给人带来一种环境的沉浸感。随着VR技术的发展,各行各业对VR的需求也日益渐增。
在教育、建筑、医疗等行业、如果能够有效结合虚拟现实的可视化技术,将能够为各行业进一步提高工作效率与用户体验感。特别在教育行业中,远程教育已成为当前的一种热门教育方式,但是,受制于传统技术,在视频教育与人物交互方面,依然存在用户体验差,交互能力弱,数据量大等问题。因此,如何利用虚拟现实的可视化技术运用在教学人员的教学过程中,如何运用可视化技术让各行业提供便利,是当下可视化技术的重要课题。
发明内容
为了解决上述至少一个技术问题,本发明提出了一种3D可视化模拟人物生成方法及系统。
本发明第一方面提供了一种3D可视化模拟人物生成方法,包括:
获取教学过程的人物视频数据与基于VR模型的基础人物模型;
根据所述人物视频数据导入VR系统进行面部与肢体部分识别,得到面部区域信息与肢体区域信息;
根据面部区域信息与肢体区域信息进行特征变化分析得到面部变化数据与肢体动作数据;
将所述面部变化数据与肢体动作数据导入VR系统进行人物模拟并生成VR人物模拟数据;
将所述VR人物模拟数据进行数据压缩与优化并通过VR展示模块进行展示。
本方案中,所述获取教学过程的人物视频数据与基于VR模型的基础人物模型,之前包括:
获取教学人员的VR扫描数据与脸部图像数据;
根据所述VR扫描数据生成基础人物模型;
根据脸部图像数据进行特征提取,得到脸部特征数据;
根据脸部特征数据对基础人物模型进行脸部特征细化操作。
本方案中,所述根据所述人物视频数据导入VR系统进行面部与肢体部分识别,得到面部区域信息与肢体区域信息,具体为:
VR系统将人物视频数据进行图像帧获取,得到关键图像帧集合;
将所述关键图像帧集合进行人物区域提取,得到人物区域信息
根据人物区域进行面部与肢体特征识别,得到面部区域信息与肢体区域信息。
本方案中,所述根据面部区域信息与肢体区域信息进行特征变化分析得到面部变化数据与肢体动作数据,具体为:
根据面部区域信息,对关键图像帧集合进行面部特征提取,得到脸部特征集;
根据时间顺序,将脸部特征集进行特征变化分析得到特征变化序列信息;
将特征变化序列与基础人物模型导入VR系统进行VR模拟变化分析,得到基于VR模型的面部变化数据。
本方案中,所述根据面部区域信息与肢体区域信息进行特征变化分析得到面部变化数据与肢体动作数据,具体为:
根据肢体区域信息,对关键图像帧集合进行人物肢体部分变化分析,得到肢体位移量数据;
分析基础人物模型中的肢体关节部位,得到肢体关节模型;
将肢体位移量数据、肢体关节模型、基础人物模型导入VR系统进行肢体模拟变化分析,得到肢体动作数据。
本方案中,所述将所述面部变化数据与肢体动作数据导入VR系统进行人物模拟并生成VR人物模拟数据,具体为:
根据人物视频数据对背景部分进行提取并进行虚拟数据转化,得到VR背景模型;
将面部变化数据、肢体动作数据、基础人物模型、VR背景模型导入VR系统进行人物运动过程模拟,得到VR人物模拟数据;
将VR背景模型与VR人物模拟数据进行VR数据结合,得到总体模拟数据。
本方案中,所述将所述VR人物模拟数据进行数据压缩与优化并通过VR展示模块进行展示,具体为:
根据总体模拟数据中的VR人物模拟数据与VR背景模型进行动态与静态数据类型分析,得到VR动态数据与VR静态数据;
根据用户预设虚拟化需求信息,将动态数据分为第一部分数据与第二部分数据;
所述第一部分数据为待压缩动态数据;
所述第二部分数据为待转化静态数据;
将所述第一部分数据进行动态数据压缩,得到动态压缩数据;
将所述第二部分数据进行虚拟静态数据转化得到转化静态数据;
将转化静态数据并入VR静态数据形成新的VR静态数据;
将动态压缩数据与VR静态数据进行虚拟融合得到总体优化模拟数据,并就所述总体优化模拟数据导入VR展示模块进行模型展示。
本发明第二方面还提供了一种3D可视化模拟人物生成系统,该系统包括:存储器、处理器,所述存储器中包括3D可视化模拟人物生成程序,所述3D可视化模拟人物生成程序被所述处理器执行时实现如下步骤:
获取教学过程的人物视频数据与基于VR模型的基础人物模型;
根据所述人物视频数据导入VR系统进行面部与肢体部分识别,得到面部区域信息与肢体区域信息;
根据面部区域信息与肢体区域信息进行特征变化分析得到面部变化数据与肢体动作数据;
将所述面部变化数据与肢体动作数据导入VR系统进行人物模拟并生成VR人物模拟数据;
将所述VR人物模拟数据进行数据压缩与优化并通过VR展示模块进行展示。
本方案中,所述获取教学过程的人物视频数据与基于VR模型的基础人物模型,之前包括:
获取教学人员的VR扫描数据与脸部图像数据;
根据所述VR扫描数据生成基础人物模型;
根据脸部图像数据进行特征提取,得到脸部特征数据;
根据脸部特征数据对基础人物模型进行脸部特征细化操作。
本方案中,所述根据面部区域信息与肢体区域信息进行特征变化分析得到面部变化数据与肢体动作数据,具体为:
根据面部区域信息,对关键图像帧集合进行面部特征提取,得到脸部特征集;
根据时间顺序,将脸部特征集进行特征变化分析得到特征变化序列信息;
将特征变化序列与基础人物模型导入VR系统进行VR模拟变化分析,得到基于VR模型的面部变化数据。
通过本发明,能够解决以下技术问题:在视频教育与人物交互方面用户体验差的问题,虚拟现实技术中人物交互能力弱的问题,虚拟人物交互中生成的数据量较大与数据传输量大的问题。
通过本发明方案,能够实现以下有益效果:
相较于传统的视频教学,本发明能够通过将VR模拟过程进行人物展示,有效提升用户体验感;
本发明能够根据用户的VR人物模拟需求,展示重要的VR模型部分,对冗余数据进行压缩,相较于传统的视频数据传输,能够大大降低数据传输量;
本发明通过提取视频数据中面部、肢体等部分的变化信息,进行通过VR系统对人物进行模拟,不需要较大数据量的完整视频数据,降低了对原视频的要求,能够在低质量视频数据的情况下生成VR人物模型与进行展示,同时提高用户体验感。
本发明公开了一种3D可视化模拟人物生成方法及系统,通过获取教学过程的人物视频数据与基于VR模型的基础人物模型进行面部与肢体等部分的动态内容分析,得到VR人物模拟数据,通过对数据的压缩与优化得到总体优化模拟数据并导入VR展示模块进行模型展示。通过本发明能够根据用户的VR人物模拟需求,展示重要的VR模型部分,对冗余数据进行压缩,相较于传统的视频数据传输,能够大大降低数据传输量,并同时提升用户体验。
附图说明
图1示出了本发明一种3D可视化模拟人物生成方法的流程图;
图2示出了本发明生成基础人物模型流程图;
图3示出了本发明获取面部变化数据流程图;
图4示出了本发明一种3D可视化模拟人物生成系统的框图。
具体实施方式
为了能够更清楚地理解本发明的上述目的、特征和优点,下面结合附图和具体实施方式对本发明进行进一步的详细描述。需要说明的是,在不冲突的情况下,本申请的实施例及实施例中的特征可以相互组合。
在下面的描述中阐述了很多具体细节以便于充分理解本发明,但是,本发明还可以采用其他不同于在此描述的其他方式来实施,因此,本发明的保护范围并不受下面公开的具体实施例的限制。
图1示出了本发明一种3D可视化模拟人物生成方法的流程图。
如图1所示,本发明第一方面提供了一种3D可视化模拟人物生成方法,包括:
S102,获取教学过程的人物视频数据与基于VR模型的基础人物模型;
S104,根据所述人物视频数据导入VR系统进行面部与肢体部分识别,得到面部区域信息与肢体区域信息;
S106,根据面部区域信息与肢体区域信息进行特征变化分析得到面部变化数据与肢体动作数据;
S108,将所述面部变化数据与肢体动作数据导入VR系统进行人物模拟并生成VR人物模拟数据;
S110,将所述VR人物模拟数据进行数据压缩与优化并通过VR展示模块进行展示。
需要说明的是,所述VR展示模块包括显示终端与VR交互设备。
图2示出了本发明生成基础人物模型流程图。
根据本发明实施例,所述获取教学过程的人物视频数据与基于VR模型的基础人物模型,之前包括:
S202,获取教学人员的VR扫描数据与脸部图像数据;
S204,根据所述VR扫描数据生成基础人物模型;
S206,根据脸部图像数据进行特征提取,得到脸部特征数据;
S208,根据脸部特征数据对基础人物模型进行脸部特征细化操作。
需要说明的是,所述基础人物模型为基于3D可视化的VR模型。所述根据脸部特征数据对基础人物模型进行脸部特征细化操作中,通过脸部特征数据能够完善并增加基础人物模型的脸部细节特征,从而在后续进行VR模拟展示时增加用户体验感。所述VR扫描数据为通过VR扫描设备进行物体扫描获取的。
根据本发明实施例,所述根据所述人物视频数据导入VR系统进行面部与肢体部分识别,得到面部区域信息与肢体区域信息,具体为:
VR系统将人物视频数据进行图像帧获取,得到关键图像帧集合;
将所述关键图像帧集合进行人物区域提取,得到人物区域信息
根据人物区域进行面部与肢体特征识别,得到面部区域信息与肢体区域信息。
需要说明的是,本发明通过分析出面部区域信息与肢体区域信息,能够对人物的面部与肢体部分进行不同的VR模拟分析,从而满足不同的领域对VR人物模拟的要求。
图3示出了本发明获取面部变化数据流程图。
根据本发明实施例,所述根据面部区域信息与肢体区域信息进行特征变化分析得到面部变化数据与肢体动作数据,具体为:
S302,根据面部区域信息,对关键图像帧集合进行面部特征提取,得到脸部特征集;
S304,根据时间顺序,将脸部特征集进行特征变化分析得到特征变化序列信息;
S306,将特征变化序列与基础人物模型导入VR系统进行VR模拟变化分析,得到基于VR模型的面部变化数据。
需要说明的是,所述时间顺序具体为关键图像帧集合中的图像帧时间顺顺序。
根据本发明实施例,所述根据面部区域信息与肢体区域信息进行特征变化分析得到面部变化数据与肢体动作数据,具体为:
根据肢体区域信息,对关键图像帧集合进行人物肢体部分变化分析,得到肢体位移量数据;
分析基础人物模型中的肢体关节部位,得到肢体关节模型;
将肢体位移量数据、肢体关节模型、基础人物模型导入VR系统进行肢体模拟变化分析,得到肢体动作数据。
根据本发明实施例,所述将所述面部变化数据与肢体动作数据导入VR系统进行人物模拟并生成VR人物模拟数据,具体为:
根据人物视频数据对背景部分进行提取并进行虚拟数据转化,得到VR背景模型;
将面部变化数据、肢体动作数据、基础人物模型、VR背景模型导入VR系统进行人物运动过程模拟,得到VR人物模拟数据;
将VR背景模型与VR人物模拟数据进行VR数据结合,得到总体模拟数据。
根据本发明实施例,所述将所述VR人物模拟数据进行数据压缩与优化并通过VR展示模块进行展示,具体为:
根据总体模拟数据中的VR人物模拟数据与VR背景模型进行动态与静态数据类型分析,得到VR动态数据与VR静态数据;
根据用户预设虚拟化需求信息,将动态数据分为第一部分数据与第二部分数据;
所述第一部分数据为待压缩动态数据;
所述第二部分数据为待转化静态数据;
将所述第一部分数据进行动态数据压缩,得到动态压缩数据;
将所述第二部分数据进行虚拟静态数据转化得到转化静态数据;
将转化静态数据并入VR静态数据形成新的VR静态数据;
将动态压缩数据与VR静态数据进行虚拟融合得到总体优化模拟数据,并就所述总体优化模拟数据导入VR展示模块进行模型展示。
需要说明的是,所述根据总体模拟数据中的VR人物模拟数据与VR背景模型进行动态与静态数据类型分析,得到VR动态数据与VR静态数据中,一般将人物整体作为动态数据,将背景数据作为静态数据。所述将所述第一部分数据进行动态数据压缩,得到动态压缩数据中,具体为系统提取第一部分数据中关键动态信息并将冗余信息进行去重得到动态压缩数据。
另外,所述用户预设虚拟化需求信息为用户预先设定的需求信息,所述需求信息包括任务面部表情与肢体动作的动态需求与VR模型的背景动态需求。一般在不同的教学应用场景中,用户预设虚拟化需求信息也有所差异,例如,在普通的书本知识授课教学中,用户的预设虚拟化需求一般为教学人员的面部与上半部分肢体对应数据标记为动态数据,将背景与其余部分标记为静态数据,此时,VR系统将人物面部表情部分与上肢部分作为第一部分数据(待压缩动态数据),将人物的下肢部分对应的动态数据作为第二部分数据(待转化静态数据)。又例如在舞蹈类课程的教学情况中,用户的预设虚拟化需求一般为将人物整体动态内容对应数据标记为第一部分数据,所述人物整体动态内容包括人物的面部变化与整个肢体变化,将人物以外得其余部分标记为第二部分数据。通过对不同用户设置的用户预设虚拟化需求信息,能够将总体模拟数据进行相应的压缩与优化,得到更加符合用户需求的虚拟现实模拟数据,从而在满足用户需求的同时,降低数据传输量,提高VR系统运行效率。
根据本发明实施例,还包括:
用户通过VR扫描设备获取教学物品扫描数据;
根据所述扫描数据生成第一VR教学模型;
获取教学内容数据;
根据所述教学内容数据进行物品关键词提取,得到教学物品关键词;
根据教学物品关键词从互联网中进行图像内容检索,将检索结果数据进行数据汇总,得到教学物品大数据;
将所述教学物品大数据进行图像立体化得到3D物品数据;
将所述3D物品数据进行虚拟现实数据转化与数据汇总得到VR物品大数据;
根据用户预设教学物品信息从VR物品大数据进行模型筛选,得到第二VR教学模型;
用户通过VR交互设备对第一VR教学模型与第二VR教学模型进行交互。
需要说明的是,在教学过程中,教学人员有时需要通过教学物品来辅助教学,在本发明中,教学人员可通过对已有的教学物品进行3D虚拟转化,也可以从VR物品大数据进行用户需求模型检索,从而实现教学人员多维度的教学模型获取,提高用户教学体验感。所述VR交互设备包括头戴式VR设备与VR手柄控制设备,用户通过VR交互设备能够对VR场景中的VR模型进行交互。
根据本发明实施例,还包括:
获取用户预设教学模型;
用户输入模型运动数据;
根据所述模型运动数据生成用户预设模型运动信息;
根据用户预设模型运动信息,对用户预设教学模型进行模型的拆解、组合等运动模拟,并将模型运动过程进行保存,得到VR教学模拟过程;
用户通过VR交互设备查看VR教学模拟过程并输入修改运动信息;
根据修改运动信息将VR教学模拟过程进行模型运动过程修正,得到最终VR教学模拟过程;
将最终VR教学模拟过程通过VR展示模块进行展示。
需要说明的是,在一些教学VR模拟过程中,需要对教学模型进行各种平移、旋转、组合等运动的展示,例如在汽车维修的VR模拟过程中,需要通过对各种汽车结构模型进行组装与拆解,并将组装与拆解过程进行保存与展示。通过本发明,用户只需输入模型运动数据,系统将自动根据输入数据生成相应的VR教学模拟过程数据,所述模型运动数据包括各模型的位置、位移量等数据,另外,用户可以自行查看模拟过程,并通过数据修正不符合预期的运动过程,进而让用户更加快捷与方便地体验VR教学模拟。
图4示出了本发明一种3D可视化模拟人物生成系统的框图。
本发明第二方面还提供了一种3D可视化模拟人物生成系统4,该系统包括:存储器41、处理器42,所述存储器中包括3D可视化模拟人物生成程序,所述3D可视化模拟人物生成程序被所述处理器执行时实现如下步骤:
获取教学过程的人物视频数据与基于VR模型的基础人物模型;
根据所述人物视频数据导入VR系统进行面部与肢体部分识别,得到面部区域信息与肢体区域信息;
根据面部区域信息与肢体区域信息进行特征变化分析得到面部变化数据与肢体动作数据;
将所述面部变化数据与肢体动作数据导入VR系统进行人物模拟并生成VR人物模拟数据;
将所述VR人物模拟数据进行数据压缩与优化并通过VR展示模块进行展示。
需要说明的是,所述VR展示模块包括显示终端与VR交互设备。
根据本发明实施例,所述获取教学过程的人物视频数据与基于VR模型的基础人物模型,之前包括:
获取教学人员的VR扫描数据与脸部图像数据;
根据所述VR扫描数据生成基础人物模型;
根据脸部图像数据进行特征提取,得到脸部特征数据;
根据脸部特征数据对基础人物模型进行脸部特征细化操作。
需要说明的是,所述基础人物模型为基于3D可视化的VR模型。所述根据脸部特征数据对基础人物模型进行脸部特征细化操作中,通过脸部特征数据能够完善并增加基础人物模型的脸部细节特征,从而在后续进行VR模拟展示时增加用户体验感。所述VR扫描数据为通过VR扫描设备进行物体扫描获取的。
根据本发明实施例,所述根据所述人物视频数据导入VR系统进行面部与肢体部分识别,得到面部区域信息与肢体区域信息,具体为:
VR系统将人物视频数据进行图像帧获取,得到关键图像帧集合;
将所述关键图像帧集合进行人物区域提取,得到人物区域信息
根据人物区域进行面部与肢体特征识别,得到面部区域信息与肢体区域信息。
需要说明的是,本发明通过分析出面部区域信息与肢体区域信息,能够对人物的面部与肢体部分进行不同的VR模拟分析,从而满足不同的领域对VR人物模拟的要求。
根据本发明实施例,所述根据面部区域信息与肢体区域信息进行特征变化分析得到面部变化数据与肢体动作数据,具体为:
根据面部区域信息,对关键图像帧集合进行面部特征提取,得到脸部特征集;
根据时间顺序,将脸部特征集进行特征变化分析得到特征变化序列信息;
将特征变化序列与基础人物模型导入VR系统进行VR模拟变化分析,得到基于VR模型的面部变化数据。
需要说明的是,所述时间顺序具体为关键图像帧集合中的图像帧时间顺顺序。
根据本发明实施例,所述根据面部区域信息与肢体区域信息进行特征变化分析得到面部变化数据与肢体动作数据,具体为:
根据肢体区域信息,对关键图像帧集合进行人物肢体部分变化分析,得到肢体位移量数据;
分析基础人物模型中的肢体关节部位,得到肢体关节模型;
将肢体位移量数据、肢体关节模型、基础人物模型导入VR系统进行肢体模拟变化分析,得到肢体动作数据。
根据本发明实施例,所述将所述面部变化数据与肢体动作数据导入VR系统进行人物模拟并生成VR人物模拟数据,具体为:
根据人物视频数据对背景部分进行提取并进行虚拟数据转化,得到VR背景模型;
将面部变化数据、肢体动作数据、基础人物模型、VR背景模型导入VR系统进行人物运动过程模拟,得到VR人物模拟数据;
将VR背景模型与VR人物模拟数据进行VR数据结合,得到总体模拟数据。
根据本发明实施例,所述将所述VR人物模拟数据进行数据压缩与优化并通过VR展示模块进行展示,具体为:
根据总体模拟数据中的VR人物模拟数据与VR背景模型进行动态与静态数据类型分析,得到VR动态数据与VR静态数据;
根据用户预设虚拟化需求信息,将动态数据分为第一部分数据与第二部分数据;
所述第一部分数据为待压缩动态数据;
所述第二部分数据为待转化静态数据;
将所述第一部分数据进行动态数据压缩,得到动态压缩数据;
将所述第二部分数据进行虚拟静态数据转化得到转化静态数据;
将转化静态数据并入VR静态数据形成新的VR静态数据;
将动态压缩数据与VR静态数据进行虚拟融合得到总体优化模拟数据,并就所述总体优化模拟数据导入VR展示模块进行模型展示。
需要说明的是,所述根据总体模拟数据中的VR人物模拟数据与VR背景模型进行动态与静态数据类型分析,得到VR动态数据与VR静态数据中,一般将人物整体作为动态数据,将背景数据作为静态数据。所述将所述第一部分数据进行动态数据压缩,得到动态压缩数据中,具体为系统提取第一部分数据中关键动态信息并将冗余信息进行去重得到动态压缩数据。
另外,所述用户预设虚拟化需求信息为用户预先设定的需求信息,所述需求信息包括任务面部表情与肢体动作的动态需求与VR模型的背景动态需求。一般在不同的教学应用场景中,用户预设虚拟化需求信息也有所差异,例如,在普通的书本知识授课教学中,用户的预设虚拟化需求一般为教学人员的面部与上半部分肢体对应数据标记为动态数据,将背景与其余部分标记为静态数据,此时,VR系统将人物面部表情部分与上肢部分作为第一部分数据(待压缩动态数据),将人物的下肢部分对应的动态数据作为第二部分数据(待转化静态数据)。又例如在舞蹈类课程的教学情况中,用户的预设虚拟化需求一般为将人物整体动态内容对应数据标记为第一部分数据,所述人物整体动态内容包括人物的面部变化与整个肢体变化,将人物以外得其余部分标记为第二部分数据。通过对不同用户设置的用户预设虚拟化需求信息,能够将总体模拟数据进行相应的压缩与优化,得到更加符合用户需求的虚拟现实模拟数据,从而在满足用户需求的同时,降低数据传输量,提高VR系统运行效率。
根据本发明实施例,还包括:
用户通过VR扫描设备获取教学物品扫描数据;
根据所述扫描数据生成第一VR教学模型;
获取教学内容数据;
根据所述教学内容数据进行物品关键词提取,得到教学物品关键词;
根据教学物品关键词从互联网中进行图像内容检索,将检索结果数据进行数据汇总,得到教学物品大数据;
将所述教学物品大数据进行图像立体化得到3D物品数据;
将所述3D物品数据进行虚拟现实数据转化与数据汇总得到VR物品大数据;
根据用户预设教学物品信息从VR物品大数据进行模型筛选,得到第二VR教学模型;
用户通过VR交互设备对第一VR教学模型与第二VR教学模型进行交互。
需要说明的是,在教学过程中,教学人员有时需要通过教学物品来辅助教学,在本发明中,教学人员可通过对已有的教学物品进行3D虚拟转化,也可以从VR物品大数据进行用户需求模型检索,从而实现教学人员多维度的教学模型获取,提高用户教学体验感。所述VR交互设备包括头戴式VR设备与VR手柄控制设备,用户通过VR交互设备能够对VR场景中的VR模型进行交互。
根据本发明实施例,还包括:
获取用户预设教学模型;
用户输入模型运动数据;
根据所述模型运动数据生成用户预设模型运动信息;
根据用户预设模型运动信息,对用户预设教学模型进行模型的拆解、组合等运动模拟,并将模型运动过程进行保存,得到VR教学模拟过程;
用户通过VR交互设备查看VR教学模拟过程并输入修改运动信息;
根据修改运动信息将VR教学模拟过程进行模型运动过程修正,得到最终VR教学模拟过程;
将最终VR教学模拟过程通过VR展示模块进行展示。
需要说明的是,在一些教学VR模拟过程中,需要对教学模型进行各种平移、旋转、组合等运动的展示,例如在汽车维修的VR模拟过程中,需要通过对各种汽车结构模型进行组装与拆解,并将组装与拆解过程进行保存与展示。通过本发明,用户只需输入模型运动数据,系统将自动根据输入数据生成相应的VR教学模拟过程数据,所述模型运动数据包括各模型的位置、位移量等数据,另外,用户可以自行查看模拟过程,并通过数据修正不符合预期的运动过程,进而让用户更加快捷与方便地体验VR教学模拟。
本发明公开了一种3D可视化模拟人物生成方法及系统,通过获取教学过程的人物视频数据与基于VR模型的基础人物模型进行面部与肢体等部分的动态内容分析,得到VR人物模拟数据,通过对数据的压缩与优化得到总体优化模拟数据并导入VR展示模块进行模型展示。通过本发明能够根据用户的VR人物模拟需求,展示重要的VR模型部分,对冗余数据进行压缩,相较于传统的视频数据传输,能够大大降低数据传输量,并同时提升用户体验。
在本申请所提供的几个实施例中,应该理解到,所揭露的设备和方法,可以通过其它的方式实现。以上所描述的设备实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,如:多个单元或组件可以结合,或可以集成到另一个系统,或一些特征可以忽略,或不执行。另外,所显示或讨论的各组成部分相互之间的耦合、或直接耦合、或通信连接可以是通过一些接口,设备或单元的间接耦合或通信连接,可以是电性的、机械的或其它形式的。
上述作为分离部件说明的单元可以是、或也可以不是物理上分开的,作为单元显示的部件可以是、或也可以不是物理单元;既可以位于一个地方,也可以分布到多个网络单元上;可以根据实际的需要选择其中的部分或全部单元来实现本实施例方案的目的。
另外,在本发明各实施例中的各功能单元可以全部集成在一个处理单元中,也可以是各单元分别单独作为一个单元,也可以两个或两个以上单元集成在一个单元中;上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储于计算机可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:移动存储设备、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
或者,本发明上述集成的单元如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实施例的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机、服务器、或者网络设备等)执行本发明各个实施例所述方法的全部或部分。而前述的存储介质包括:移动存储设备、ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。
Claims (10)
1.一种3D可视化模拟人物生成方法,其特征在于,包括:
获取教学过程的人物视频数据与基于VR模型的基础人物模型;
根据所述人物视频数据导入VR系统进行面部与肢体部分识别,得到面部区域信息与肢体区域信息;
根据面部区域信息与肢体区域信息进行特征变化分析得到面部变化数据与肢体动作数据;
将所述面部变化数据与肢体动作数据导入VR系统进行人物模拟并生成VR人物模拟数据;
将所述VR人物模拟数据进行数据压缩与优化并通过VR展示模块进行展示。
2.根据权利要求1所述的一种3D可视化模拟人物生成方法,其特征在于,所述获取教学过程的人物视频数据与基于VR模型的基础人物模型,之前包括:
获取教学人员的VR扫描数据与脸部图像数据;
根据所述VR扫描数据生成基础人物模型;
根据脸部图像数据进行特征提取,得到脸部特征数据;
根据脸部特征数据对基础人物模型进行脸部特征细化操作。
3.根据权利要求1所述的一种3D可视化模拟人物生成方法,其特征在于,所述根据所述人物视频数据导入VR系统进行面部与肢体部分识别,得到面部区域信息与肢体区域信息,具体为:
VR系统将人物视频数据进行图像帧获取,得到关键图像帧集合;
将所述关键图像帧集合进行人物区域提取,得到人物区域信息
根据人物区域进行面部与肢体特征识别,得到面部区域信息与肢体区域信息。
4.根据权利要求3所述的一种3D可视化模拟人物生成方法,其特征在于,所述根据面部区域信息与肢体区域信息进行特征变化分析得到面部变化数据与肢体动作数据,具体为:
根据面部区域信息,对关键图像帧集合进行面部特征提取,得到脸部特征集;
根据时间顺序,将脸部特征集进行特征变化分析得到特征变化序列信息;
将特征变化序列与基础人物模型导入VR系统进行VR模拟变化分析,得到基于VR模型的面部变化数据。
5.根据权利要求1所述的一种3D可视化模拟人物生成方法,其特征在于,所述根据面部区域信息与肢体区域信息进行特征变化分析得到面部变化数据与肢体动作数据,具体为:
根据肢体区域信息,对关键图像帧集合进行人物肢体部分变化分析,得到肢体位移量数据;
分析基础人物模型中的肢体关节部位,得到肢体关节模型;
将肢体位移量数据、肢体关节模型、基础人物模型导入VR系统进行肢体模拟变化分析,得到肢体动作数据。
6.根据权利要求1所述的一种3D可视化模拟人物生成方法,其特征在于,所述将所述面部变化数据与肢体动作数据导入VR系统进行人物模拟并生成VR人物模拟数据,具体为:
根据人物视频数据对背景部分进行提取并进行虚拟数据转化,得到VR背景模型;
将面部变化数据、肢体动作数据、基础人物模型、VR背景模型导入VR系统进行人物运动过程模拟,得到VR人物模拟数据;
将VR背景模型与VR人物模拟数据进行VR数据结合,得到总体模拟数据。
7.根据权利要求1所述的一种3D可视化模拟人物生成方法,其特征在于,所述将所述VR人物模拟数据进行数据压缩与优化并通过VR展示模块进行展示,具体为:
根据总体模拟数据中的VR人物模拟数据与VR背景模型进行动态与静态数据类型分析,得到VR动态数据与VR静态数据;
根据用户预设虚拟化需求信息,将动态数据分为第一部分数据与第二部分数据;
所述第一部分数据为待压缩动态数据;
所述第二部分数据为待转化静态数据;
将所述第一部分数据进行动态数据压缩,得到动态压缩数据;
将所述第二部分数据进行虚拟静态数据转化得到转化静态数据;
将转化静态数据并入VR静态数据形成新的VR静态数据;
将动态压缩数据与VR静态数据进行虚拟融合得到总体优化模拟数据,并就所述总体优化模拟数据导入VR展示模块进行模型展示。
8.一种3D可视化模拟人物生成系统,其特征在于,该系统包括:存储器、处理器,所述存储器中包括3D可视化模拟人物生成程序,所述3D可视化模拟人物生成程序被所述处理器执行时实现如下步骤:
获取教学过程的人物视频数据与基于VR模型的基础人物模型;
根据所述人物视频数据导入VR系统进行面部与肢体部分识别,得到面部区域信息与肢体区域信息;
根据面部区域信息与肢体区域信息进行特征变化分析得到面部变化数据与肢体动作数据;
将所述面部变化数据与肢体动作数据导入VR系统进行人物模拟并生成VR人物模拟数据;
将所述VR人物模拟数据进行数据压缩与优化并通过VR展示模块进行展示。
9.根据权利要求8所述的一种3D可视化模拟人物生成系统,其特征在于,所述获取教学过程的人物视频数据与基于VR模型的基础人物模型,之前包括:
获取教学人员的VR扫描数据与脸部图像数据;
根据所述VR扫描数据生成基础人物模型;
根据脸部图像数据进行特征提取,得到脸部特征数据;
根据脸部特征数据对基础人物模型进行脸部特征细化操作。
10.根据权利要求8所述的一种3D可视化模拟人物生成系统,其特征在于,所述根据面部区域信息与肢体区域信息进行特征变化分析得到面部变化数据与肢体动作数据,具体为:
根据面部区域信息,对关键图像帧集合进行面部特征提取,得到脸部特征集;
根据时间顺序,将脸部特征集进行特征变化分析得到特征变化序列信息;
将特征变化序列与基础人物模型导入VR系统进行VR模拟变化分析,得到基于VR模型的面部变化数据。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310064261.9A CN115880441B (zh) | 2023-02-06 | 2023-02-06 | 一种3d可视化模拟人物生成方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310064261.9A CN115880441B (zh) | 2023-02-06 | 2023-02-06 | 一种3d可视化模拟人物生成方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115880441A true CN115880441A (zh) | 2023-03-31 |
CN115880441B CN115880441B (zh) | 2023-05-09 |
Family
ID=85758770
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310064261.9A Active CN115880441B (zh) | 2023-02-06 | 2023-02-06 | 一种3d可视化模拟人物生成方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115880441B (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106951095A (zh) * | 2017-04-07 | 2017-07-14 | 胡轩阁 | 基于三维扫描技术的虚拟现实互动方法以及系统 |
US20180144553A1 (en) * | 2016-06-09 | 2018-05-24 | Screenovate Technologies Ltd. | Method for supporting the usage of a computerized source device within virtual environment of a head mounted device |
CN112596611A (zh) * | 2020-12-25 | 2021-04-02 | 南方电网深圳数字电网研究院有限公司 | 基于体感定位的虚拟现实角色同步控制方法和控制装置 |
CN113220130A (zh) * | 2021-06-02 | 2021-08-06 | 合肥云艺化科技有限公司 | 一种用于党建的vr体验系统及其设备 |
WO2022141894A1 (zh) * | 2020-12-31 | 2022-07-07 | 苏州源想理念文化发展有限公司 | 融合表情和肢体运动的三维特征情绪分析方法 |
-
2023
- 2023-02-06 CN CN202310064261.9A patent/CN115880441B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180144553A1 (en) * | 2016-06-09 | 2018-05-24 | Screenovate Technologies Ltd. | Method for supporting the usage of a computerized source device within virtual environment of a head mounted device |
CN106951095A (zh) * | 2017-04-07 | 2017-07-14 | 胡轩阁 | 基于三维扫描技术的虚拟现实互动方法以及系统 |
CN112596611A (zh) * | 2020-12-25 | 2021-04-02 | 南方电网深圳数字电网研究院有限公司 | 基于体感定位的虚拟现实角色同步控制方法和控制装置 |
WO2022141894A1 (zh) * | 2020-12-31 | 2022-07-07 | 苏州源想理念文化发展有限公司 | 融合表情和肢体运动的三维特征情绪分析方法 |
CN113220130A (zh) * | 2021-06-02 | 2021-08-06 | 合肥云艺化科技有限公司 | 一种用于党建的vr体验系统及其设备 |
Non-Patent Citations (1)
Title |
---|
熊伟;: "基于三维动画的虚拟人物表情动作系统设计", 现代电子技术 * |
Also Published As
Publication number | Publication date |
---|---|
CN115880441B (zh) | 2023-05-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112215927B (zh) | 人脸视频的合成方法、装置、设备及介质 | |
CN115064020B (zh) | 基于数字孪生技术的智慧教学方法、系统及存储介质 | |
CN113255052A (zh) | 一种基于虚拟现实的家装方案推荐方法、系统及存储介质 | |
CN113870395A (zh) | 动画视频生成方法、装置、设备及存储介质 | |
CN111599359A (zh) | 人机交互方法、服务端、客户端及存储介质 | |
CN116894711A (zh) | 商品推荐理由生成方法及其装置、电子设备 | |
CN112131431A (zh) | 一种数据处理方法、设备以及计算机可读存储介质 | |
CN114821004A (zh) | 虚拟空间构建方法、虚拟空间构建装置、设备及存储介质 | |
CN113257060A (zh) | 一种答疑解决方法、装置、设备和存储介质 | |
CN110585730B (zh) | 游戏的节奏感测试方法、装置以及相关设备 | |
CN115880441B (zh) | 一种3d可视化模拟人物生成方法及系统 | |
US11734389B2 (en) | Method for generating human-computer interactive abstract image | |
US11741846B2 (en) | Selecting lesson asset information based on a physicality assessment | |
Zhang et al. | Dynamic display design of cultural and creative products based on digital augmented reality technology | |
Yeo | The theory of process augmentability | |
CN114247143A (zh) | 基于云服务器的数字人互动方法、装置、设备及存储介质 | |
CN113534961A (zh) | 一种基于vr的保密教育培训方法和系统 | |
CN113393544A (zh) | 一种图像处理方法、装置、设备及介质 | |
CN114596140A (zh) | 一种面向开发人员的用户体验ar商品场景的重建系统 | |
CN113627399B (zh) | 题目处理方法、装置、设备及存储介质 | |
CN116204167B (zh) | 一种全流程可视化编辑虚拟现实vr实现方法与系统 | |
CN114666307B (zh) | 会议互动方法、会议互动装置、设备及存储介质 | |
CN116303928A (zh) | 一种基于gis系统的智能语音查询方法 | |
CN117456102A (zh) | 一种编码器的训练方法和相关装置 | |
CN117519483A (zh) | 基于数字虚拟的媒体动态交互方法、系统和介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |