CN117270721A - 基于多用户交互xr场景的数字形象渲染方法及装置 - Google Patents

基于多用户交互xr场景的数字形象渲染方法及装置 Download PDF

Info

Publication number
CN117270721A
CN117270721A CN202311548937.8A CN202311548937A CN117270721A CN 117270721 A CN117270721 A CN 117270721A CN 202311548937 A CN202311548937 A CN 202311548937A CN 117270721 A CN117270721 A CN 117270721A
Authority
CN
China
Prior art keywords
rendering
scene
interaction
parameter
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202311548937.8A
Other languages
English (en)
Other versions
CN117270721B (zh
Inventor
吴湛
车守刚
段会亮
刘永逵
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Virtual Reality Shenzhen Intelligent Technology Co ltd
Original Assignee
Virtual Reality Shenzhen Intelligent Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Virtual Reality Shenzhen Intelligent Technology Co ltd filed Critical Virtual Reality Shenzhen Intelligent Technology Co ltd
Priority to CN202311548937.8A priority Critical patent/CN117270721B/zh
Publication of CN117270721A publication Critical patent/CN117270721A/zh
Application granted granted Critical
Publication of CN117270721B publication Critical patent/CN117270721B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明涉及数据处理技术领域,公开了一种基于多用户交互XR场景的数字形象渲染方法及装置,用于提高基于多用户交互XR场景的数字形象渲染的准确率。包括:对每个交互指令进行数据解析得到每个交互指令对应的交互动作;控制多个目标数字形象进行场景交互,得到目标交互场景及多个待渲染数字形象;进行虚拟环境参数分析,得到虚拟环境参数集,对虚拟环境参数集进行数据序列化处理,得到序列化参数数据;对目标交互场景进行渲染参数匹配,得到第一渲染参数集合,对目标交互场景进行场景渲染得到渲染交互场景;对多个待渲染数字形象进行渲染参数提取,得到第二渲染参数集合,对多个待渲染数字形象进行渲染得到多个渲染数字形象。

Description

基于多用户交互XR场景的数字形象渲染方法及装置
技术领域
本发明涉及数据处理技术领域,尤其涉及一种基于多用户交互XR场景的数字形象渲染方法及装置。
背景技术
XR场景技术已经在多个领域取得了显著的进展,包括娱乐、医疗、教育、培训和模拟。这些技术能够提供沉浸式的虚拟环境,使用户能够与数字化的角色和对象进行互动。然而,有效的虚拟环境需要高质量的数字形象和视觉效果,以及用户友好的交互性。
传统的数字形象创建和虚拟环境渲染通常需要大量的人工工作,包括建模、纹理设计和参数配置。这不仅耗费时间和人力资源,而且导致虚拟环境的质量不稳定。同时,用户与虚拟环境的互动通常受到技术限制,难以实现多样性和个性化。
发明内容
本发明提供了一种基于多用户交互XR场景的数字形象渲染方法及装置,用于提高基于多用户交互XR场景的数字形象渲染的准确率。
本发明第一方面提供了一种基于多用户交互XR场景的数字形象渲染方法,所述基于多用户交互XR场景的数字形象渲染方法包括:通过预置的3D建模工具创建多个初始数字形象,并对每个所述初始数字形象进行参数匹配,得到每个所述初始数字形象对应的参数信息,其中,所述参数信息包括材质信息以及纹理信息;
通过每个所述初始数字形象对应的参数信息,对每个所述初始数字形象进行参数配置,得到多个目标数字形象,并将多个所述目标数字形象传输至预置的XR虚拟环境中;
采集多个目标用户的交互指令,并对每个所述交互指令进行数据解析,得到每个所述交互指令对应的交互动作;
通过每个所述交互指令对应的交互动作,在所述XR虚拟环境中控制多个所述目标数字形象进行场景交互,得到目标交互场景以及交互后的多个待渲染数字形象;
对所述目标交互场景进行虚拟环境参数分析,得到虚拟环境参数集,并对所述虚拟环境参数集进行数据序列化处理,得到序列化参数数据;
通过所述序列化参数数据对所述目标交互场景进行渲染参数匹配,得到第一渲染参数集合,并通过所述第一渲染参数集合对所述目标交互场景进行场景渲染,得到渲染交互场景;
基于所述渲染交互场景,对多个所述待渲染数字形象进行渲染参数提取,得到第二渲染参数集合,并通过所述第二渲染参数集合对多个所述待渲染数字形象进行渲染,得到多个渲染数字形象。
结合第一方面,在本发明第一方面的第一实施方式中,所述通过预置的3D建模工具创建多个初始数字形象,并对每个所述初始数字形象进行参数匹配,得到每个所述初始数字形象对应的参数信息,其中,所述参数信息包括材质信息以及纹理信息,包括:
获取数字形象描述信息,并通过所述3D建模工具对所述数字形象描述信息进行形象构建,得到多个初始数字形象;
对每个所述初始数字形象进行类型标定,得到每个所述初始数字形象的形象类型;
通过每个所述初始数字形象的形象类型,对每个所述初始数字形象进行参数匹配,得到每个所述初始数字形象对应的参数信息,其中,所述参数信息包括材质信息以及纹理信息。
结合第一方面,在本发明第一方面的第二实施方式中,所述采集多个目标用户的交互指令,并对每个所述交互指令进行数据解析,得到每个所述交互指令对应的交互动作,包括:
采集多个目标用户的交互指令,对每个所述交互指令进行用户身份识别,得到每个所述交互指令的用户身份信息;
对每个所述交互指令的用户身份信息进行安全性识别,得到多个安全性识别结果;
当每个所述安全性识别结果为通过安全性识别时,对多个所述交互指令进行指令分类,得到每个所述交互指令的指令类型;
基于每个所述交互指令的指令类型,对每个所述交互指令进行指令动作映射,得到每个所述交互指令对应的交互动作。
结合第一方面,在本发明第一方面的第三实施方式中,所述对所述目标交互场景进行虚拟环境参数分析,得到虚拟环境参数集,并对所述虚拟环境参数集进行数据序列化处理,得到序列化参数数据,包括:
对所述目标交互场景进行场景范围分析,得到目标场景范围;
基于所述目标场景范围对所述目标交互场景进行场景状态识别,得到场景状态数据;
通过所述场景状态数据对所述目标交互场景进行虚拟环境参数分析,得到所述虚拟环境参数集;
对所述虚拟环境参数集进行数据序列化处理,得到序列化参数数据。
结合第一方面的第三实施方式,在本发明第一方面的第四实施方式中,所述对所述虚拟环境参数集进行数据序列化处理,得到序列化参数数据,包括:
对所述虚拟环境参数集进行序列化格式匹配,得到所述虚拟环境参数集对应的序列化格式信息;
对所述虚拟环境参数集进行字段分割,得到字段信息集;
通过所述序列化格式信息对所述字段信息集进行字符串融合,得到多个目标字符串;
通过多个所述目标字符串,对所述虚拟环境参数集进行数据序列化处理,得到序列化参数数据。
结合第一方面,在本发明第一方面的第五实施方式中,所述通过所述序列化参数数据对所述目标交互场景进行渲染参数匹配,得到第一渲染参数集合,并通过所述第一渲染参数集合对所述目标交互场景进行场景渲染,得到渲染交互场景,包括:
对所述序列化参数数据进行反序列化处理,得到反序列化数据;
对所述反序列化数据进行场景渲染参数匹配,得到对应的场景渲染参数;
对所述场景渲染参数进行场景材质提取,得到对应的目标场景材质;
对所述目标场景材质进行场景效果分析,得到目标场景效果;
通过所述目标场景效果对所述场景渲染参数进行参数修正,得到所述第一渲染参数集合;
通过所述第一渲染参数集合对所述目标交互场景进行场景渲染,得到渲染交互场景。
结合第一方面,在本发明第一方面的第六实施方式中,所述基于所述渲染交互场景,对多个所述待渲染数字形象进行渲染参数提取,得到第二渲染参数集合,并通过所述第二渲染参数集合对多个所述待渲染数字形象进行渲染,得到多个渲染数字形象,包括:
通过所述渲染交互场景对多个所述待渲染数字形象进行外观轮廓提取,得到每个所述待渲染数字形象的外观轮廓数据;
对每个所述待渲染数字形象的外观轮廓数据进行平滑处理,得到每个所述待渲染数字形象的平滑外观数据;
对每个所述待渲染数字形象的平滑外观数据进行渲染参数提取,得到第二渲染参数集合,并通过所述第二渲染参数集合对多个所述待渲染数字形象进行渲染,得到多个渲染数字形象。
本发明第二方面提供了一种基于多用户交互XR场景的数字形象渲染装置,所述基于多用户交互XR场景的数字形象渲染装置包括:
创建模块,用于通过预置的3D建模工具创建多个初始数字形象,并对每个所述初始数字形象进行参数匹配,得到每个所述初始数字形象对应的参数信息,其中,所述参数信息包括材质信息以及纹理信息;
配置模块,用于通过每个所述初始数字形象对应的参数信息,对每个所述初始数字形象进行参数配置,得到多个目标数字形象,并将多个所述目标数字形象传输至预置的XR虚拟环境中;
解析模块,用于采集多个目标用户的交互指令,并对每个所述交互指令进行数据解析,得到每个所述交互指令对应的交互动作;
交互模块,用于通过每个所述交互指令对应的交互动作,在所述XR虚拟环境中控制多个所述目标数字形象进行场景交互,得到目标交互场景以及交互后的多个待渲染数字形象;
分析模块,用于对所述目标交互场景进行虚拟环境参数分析,得到虚拟环境参数集,并对所述虚拟环境参数集进行数据序列化处理,得到序列化参数数据;
匹配模块,用于通过所述序列化参数数据对所述目标交互场景进行渲染参数匹配,得到第一渲染参数集合,并通过所述第一渲染参数集合对所述目标交互场景进行场景渲染,得到渲染交互场景;
渲染模块,用于基于所述渲染交互场景,对多个所述待渲染数字形象进行渲染参数提取,得到第二渲染参数集合,并通过所述第二渲染参数集合对多个所述待渲染数字形象进行渲染,得到多个渲染数字形象。
本发明第三方面提供了一种基于多用户交互XR场景的数字形象渲染设备,包括:存储器和至少一个处理器,所述存储器中存储有指令;所述至少一个处理器调用所述存储器中的所述指令,以使得所述基于多用户交互XR场景的数字形象渲染设备执行上述的基于多用户交互XR场景的数字形象渲染方法。
本发明的第四方面提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有指令,当其在计算机上运行时,使得计算机执行上述的基于多用户交互XR场景的数字形象渲染方法。
本发明提供的技术方案中,通过预置的3D建模工具创建多个初始数字形象,并对每个初始数字形象进行参数匹配,得到每个初始数字形象对应的参数信息,其中,参数信息包括材质信息以及纹理信息;通过每个初始数字形象对应的参数信息,对每个初始数字形象进行参数配置,得到多个目标数字形象,并将多个目标数字形象传输至预置的XR虚拟环境中;采集多个目标用户的交互指令,并对每个交互指令进行数据解析,得到每个交互指令对应的交互动作;通过每个交互指令对应的交互动作,在XR虚拟环境中控制多个目标数字形象进行场景交互,得到目标交互场景以及交互后的多个待渲染数字形象;对目标交互场景进行虚拟环境参数分析,得到虚拟环境参数集,并对虚拟环境参数集进行数据序列化处理,得到序列化参数数据;通过序列化参数数据对目标交互场景进行渲染参数匹配,得到第一渲染参数集合,并通过第一渲染参数集合对目标交互场景进行场景渲染,得到渲染交互场景;基于渲染交互场景,对多个待渲染数字形象进行渲染参数提取,得到第二渲染参数集合,并通过第二渲染参数集合对多个待渲染数字形象进行渲染,得到多个渲染数字形象。在本申请方案中,通过预置的3D建模工具创建多个初始数字形象,并通过参数匹配和配置,可以轻松生成多样化的数字形象。这有助于在虚拟环境中展示不同外观和特性的角色,满足用户的个性化需求,增加用户的参与感和兴趣。通过采集多个目标用户的交互指令,并对其进行数据解析,能够实现用户与虚拟环境中的数字形象进行互动。这提供了更具吸引力的虚拟体验,使用户能够与数字形象互动,创造出各种交互场景,增强用户参与感和沉浸感。方案中的参数匹配和配置以及渲染参数提取都是自动化的过程,减少了手动工作的需要,提高了效率。这可以节省时间和资源,并降低了技术门槛,使更多人能够创建和控制虚拟环境中的数字形象。通过对目标交互场景进行虚拟环境参数分析,可以优化虚拟环境的性能,确保交互场景的流畅性和质量。
附图说明
图1为本发明实施例中基于多用户交互XR场景的数字形象渲染方法的一个实施例示意图;
图2为本发明实施例中对每个交互指令进行数据解析的流程图;
图3为本发明实施例中对目标交互场景进行虚拟环境参数分析的流程图;
图4为本发明实施例中对虚拟环境参数集进行数据序列化处理的流程图;
图5为本发明实施例中基于多用户交互XR场景的数字形象渲染装置的一个实施例示意图;
图6为本发明实施例中基于多用户交互XR场景的数字形象渲染设备的一个实施例示意图。
具体实施方式
本发明实施例提供了一种基于多用户交互XR场景的数字形象渲染方法及装置,用于提高基于多用户交互XR场景的数字形象渲染的准确率。
本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的实施例能够以除了在这里图示或描述的内容以外的顺序实施。此外,术语“包括”或“具有”及其任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
为便于理解,下面对本发明实施例的具体流程进行描述,请参阅图1,本发明实施例中基于多用户交互XR场景的数字形象渲染方法的一个实施例包括:
S101、通过预置的3D建模工具创建多个初始数字形象,并对每个初始数字形象进行参数匹配,得到每个初始数字形象对应的参数信息,其中,参数信息包括材质信息以及纹理信息;
可以理解的是,本发明的执行主体可以为基于多用户交互XR场景的数字形象渲染装置,还可以是终端或者服务器,具体此处不做限定。本发明实施例以服务器为执行主体为例进行说明。
具体的,获取数字形象的描述信息。这个描述信息可以包括数字形象的外观特征、结构、尺寸等。这些信息可以由数字形象的创作者提供,也可以从实际物体中获取,例如通过3D扫描或摄影。这个描述信息提供了数字形象的基本特征,为后续的3D建模提供了依据。通过使用预置的3D建模工具,可以对数字形象的描述信息进行形象构建。这个过程包括创建数字形象的三维模型,模拟其外观和结构。这可以包括模型的建立、雕刻细节、贴图的应用等。在这个阶段,数字形象的外观和形状开始逐渐具体化,使其准备好接受更多的参数信息。对每个初始数字形象进行类型标定。目的是将数字形象分类为不同的形象类型。这有助于进一步个性化数字形象,并确保为每种类型分配适当的参数信息。例如,一个多用户XR游戏包括不同的角色类型。通过标定每个数字形象的类型,可以确保它们在XR场景中具有适当的特征。随后,通过每个初始数字形象的形象类型,可以进行参数匹配。这涉及将每个形象类型映射到适当的参数信息,包括材质信息和纹理信息。每个初始数字形象都具有其对应的参数信息,包括材质信息和纹理信息。这些信息将用于在XR虚拟环境中进行数字形象的渲染。渲染的过程将考虑每个数字形象的参数信息,以确保它们在虚拟环境中呈现出逼真的外观。
S102、通过每个初始数字形象对应的参数信息,对每个初始数字形象进行参数配置,得到多个目标数字形象,并将多个目标数字形象传输至预置的XR虚拟环境中;
需要说明的是,使用参数信息对每个初始数字形象进行参数配置。根据参数信息来调整数字形象的外观和特性。这包括改变材质的颜色、调整纹理的密度、改变形状的比例等。通过参数配置,可以为每个初始数字形象创建多个不同的版本,使它们在外观上有所区别。例如,用户可以自定义他们的虚拟形象。每个用户的初始数字形象基于其提供的个人信息,如性别、肤色、发型、服装偏好等。这些个人信息被用作参数信息。随后,通过使用这些参数信息,平台对每个用户的初始数字形象进行参数配置,生成多个目标数字形象。用户A选择在虚拟社交平台中展示一个代表自己的数字形象,这个数字形象反映了他的实际外貌和个性特征。用户B希望在虚拟社交平台中呈现一个幻想中的虚构角色,所以他的初始数字形象参数配置会不同。用户C希望展示一个与动漫或科幻相关的虚拟形象,因此其初始数字形象也会有不同的参数配置。通过这种方式,每个用户都可以在虚拟社交平台中创建独特的数字形象,以展示他们的个性和创造力。它们可以被传输至预置的XR虚拟环境中,即虚拟社交平台。在这个虚拟环境中,用户可以与其他用户的数字形象互动,交流、参与各种活动,如聊天、游戏、虚拟旅行等。这种个性化的数字形象创建和传输过程为用户提供了更具参与感和个性化的虚拟社交体验。
S103、采集多个目标用户的交互指令,并对每个交互指令进行数据解析,得到每个交互指令对应的交互动作;
具体的,采集多个目标用户的交互指令。这可以通过各种输入设备完成,如语音识别、手势控制、触摸屏、VR控制器等。用户可以使用这些设备向虚拟环境中的数字形象发送指令,例如移动、旋转、交流、执行特定动作等。对每个采集到的交互指令进行用户身份识别。这是为了确定每个指令的来源,即哪个用户发送了指令。每个用户会被分配一个唯一的身份标识符,或者服务器使用生物特征识别来验证用户身份。这确保了服务器能够跟踪不同用户的指令。随后,进行安全性识别,以确保交互指令的来源是合法且安全的。这涉及到对用户身份进行验证,检查用户的权限或者确保指令不包含潜在的危险操作。只有通过安全性识别的指令才会被继续处理。对指令进行分类,以确定它们的类型。这包括将指令分为移动、互动、动作等不同类型。分类有助于服务器理解用户的意图并做出适当的响应。基于每个指令的类型,进行指令动作映射。将每个指令映射到特定的交互动作,以便在虚拟环境中执行。例如,如果用户发送了一个“向前移动”的指令,服务器将把这个指令映射为虚拟角色向前移动的动作。这个映射确保了用户的指令能够与虚拟环境中的数字形象进行互动。
S104、通过每个交互指令对应的交互动作,在XR虚拟环境中控制多个目标数字形象进行场景交互,得到目标交互场景以及交互后的多个待渲染数字形象;
需要说明的是,通过每个交互指令对应的互动动作,可以在XR虚拟环境中控制多个目标数字形象进行场景交互。这需要将用户的指令翻译成数字形象的具体行为,以便在虚拟环境中执行。这涉及到数字形象的动作、位置和表情等方面的调整,以响应用户的指令。例如,用户可以通过语音命令控制他们的虚拟角色。假设指令为“向前”,这个指令首先被收集并解析,以确定用户的意图是使角色向前移动。通过这个指令对应的互动动作,服务器将控制用户的虚拟角色在虚拟环境中执行前进动作。这包括改变角色的位置和姿势,使其向前移动。这个过程通过将用户的指令转化为虚拟场景中数字形象的具体动作来实现用户的互动。另一个用户发送指令为“跳跃”,这个指令也被收集和解析,然后通过相应的互动动作,服务器将控制虚拟角色执行跳跃动作。这包括角色腾空起跳,并在空中做出跳跃动作。通过这个互动,用户可以与虚拟环境中的其他数字形象互动,进行多样化的游戏体验。用户的交互将在虚拟环境中创造目标交互场景。例如,用户的指令将导致虚拟角色之间的互动、角色移动和环境中的变化,从而形成了目标交互场景。这些交互后的多个待渲染数字形象将准备好在虚拟环境中渲染。这涉及到将数字形象的外观、动作和位置与虚拟环境相结合,以呈现最终的虚拟场景。这个过程可以利用图形渲染技术来实现,确保数字形象在虚拟环境中看起来逼真。
S105、对目标交互场景进行虚拟环境参数分析,得到虚拟环境参数集,并对虚拟环境参数集进行数据序列化处理,得到序列化参数数据;
具体的,对目标交互场景的场景范围分析。确定虚拟环境的范围和特征,以确保服务器了解虚拟环境的物理属性。场景范围分析有助于确定虚拟环境的大小、形状、地理位置以及可操作区域。基于目标场景范围,进行场景状态识别。目标是识别虚拟环境中的当前状态,包括场景中存在的对象、数字形象的位置、物体的属性等。场景状态数据对于后续的虚拟环境参数分析非常关键,因为它提供了有关虚拟环境的当前情况的详细信息。通过场景状态数据对目标交互场景进行虚拟环境参数分析,得到虚拟环境参数集。服务器根据场景状态数据来调整虚拟环境的各种参数,以满足用户的需求和互动。虚拟环境参数可以包括光照、纹理、声音效果、物理特性等。通过这个分析,虚拟环境可以根据场景状态的变化进行实时调整,以提供更加逼真和交互性的体验。对虚拟环境参数集进行数据序列化处理,以获得序列化参数数据。序列化是将数据转换为可传输或存储的格式的过程,通常是二进制或文本。序列化参数数据可以被传输到远程设备,以确保多个用户在不同位置上获得相似的虚拟环境体验,而无需重新分析场景状态和参数。
其中,对虚拟环境参数集进行序列化格式匹配,以得到虚拟环境参数集对应的序列化格式信息。序列化格式定义了数据的编码方式,例如二进制、JSON、XML等。匹配序列化格式有助于确保虚拟环境参数集能够正确地转化为可传输或存储的格式。对虚拟环境参数集进行字段分割,以获得字段信息集。字段分割是将虚拟环境参数集分解为其组成部分或字段的过程。这些字段可以包括光照、材质、声音效果等虚拟环境参数。通过序列化格式信息,可以对字段信息集进行字符串融合,以得到多个目标字符串。将字段信息以特定的格式组合在一起,以便进行进一步的数据序列化处理。这些目标字符串可以代表虚拟环境参数的不同部分或属性。通过多个目标字符串,可以对虚拟环境参数集进行数据序列化处理,以获得序列化参数数据。数据序列化是将数据转化为可传输或存储的格式,通常是二进制或文本。序列化参数数据可以被传输到远程设备或存储在本地,以便在多用户交互XR场景中同步虚拟环境参数。
S106、通过序列化参数数据对目标交互场景进行渲染参数匹配,得到第一渲染参数集合,并通过第一渲染参数集合对目标交互场景进行场景渲染,得到渲染交互场景;
需要说明的是,对序列化参数数据进行反序列化处理,以将其还原为原始参数格式。反序列化是序列化的逆过程,它允许服务器将序列化数据还原为可操作的参数。这是为了确保数据在传输后可以被正确地解释和使用。反序列化后,进行场景渲染参数匹配。服务器将反序列化的参数与目标交互场景进行匹配,以确定适当的场景渲染参数。这些参数可以包括光照设置、材质属性、相机视角等。随后,服务器进行场景材质提取。从目标场景中提取材质信息,以便在渲染中使用。材质可以定义场景中不同对象的外观和质感,如石头、玻璃、金属等。进行场景效果分析。这包括考虑光照、阴影、反射、折射和其他视觉效果,以确保目标场景看起来逼真而引人入胜。这个步骤有助于确保渲染的场景不仅是静态的,还能反映动态环境和用户互动。通过目标场景效果,对场景渲染参数进行参数修正。服务器根据场景效果的需求来微调渲染参数,以确保渲染结果达到预期的视觉效果。例如,如果用户角色经过水面,水的折射效果需要进行特殊处理,以呈现出逼真的反射。通过第一渲染参数集合对目标交互场景进行场景渲染。这一步骤将应用调整后的渲染参数,使虚拟环境看起来逼真、沉浸和令人满意。用户可以在这个渲染交互场景中进行互动和体验,而整个过程始终保持高质量的视觉效果。例如,假设虚拟环境包括不同的场景,如森林、城市、河流等。每个场景都有独特的光照条件、材质和纹理,以创建逼真的视觉效果。当用户进入不同的场景时,他们的位置和视角会触发序列化参数数据的传输。服务器会反序列化这些数据,然后根据场景渲染参数匹配相应的场景设置,包括天气、时间和光照条件。随后,服务器会提取场景中的材质信息,如树木、建筑物、水面等,以便应用适当的纹理和质感。场景效果分析将考虑用户的动态互动,例如日落时的光线变化、雨天的雨滴效果等。这些效果将影响渲染参数,使整个虚拟世界更加逼真和引人入胜。
S107、基于渲染交互场景,对多个待渲染数字形象进行渲染参数提取,得到第二渲染参数集合,并通过第二渲染参数集合对多个待渲染数字形象进行渲染,得到多个渲染数字形象。
需要说明的是,根据渲染交互场景,对多个待渲染数字形象进行外观轮廓提取。外观轮廓提取是将数字形象的外部轮廓或形状从背景中分离出来的过程。这可以通过图像处理和计算机视觉技术来实现,以确定数字形象的边界。对每个待渲染数字形象的外观轮廓数据进行平滑处理。平滑处理有助于消除边缘的锯齿状或噪声,使外观数据更加平滑和连续。这可以通过应用滤波和插值技术来实现。对每个待渲染数字形象的平滑外观数据进行渲染参数提取。分析数字形象的外观特征,如颜色、纹理、材质等,以确定如何呈现数字形象的外观。这些参数可以包括光照条件、反射率、阴影设置等,以确保数字形象在渲染中看起来逼真。通过渲染参数提取,得到第二渲染参数集合,这些参数将用于指导数字形象的渲染过程。第二渲染参数集合包括了所有必要的信息,以确保数字形象在虚拟环境中看起来逼真、生动且个性化。使用第二渲染参数集合对多个待渲染数字形象进行渲染。这包括应用之前提取的渲染参数,将数字形象呈现在虚拟环境中。数字形象的外观将根据这些参数进行渲染,以反映其在虚拟环境中的外观。
本发明实施例中,通过预置的3D建模工具创建多个初始数字形象,并对每个初始数字形象进行参数匹配,得到每个初始数字形象对应的参数信息,其中,参数信息包括材质信息以及纹理信息;通过每个初始数字形象对应的参数信息,对每个初始数字形象进行参数配置,得到多个目标数字形象,并将多个目标数字形象传输至预置的XR虚拟环境中;采集多个目标用户的交互指令,并对每个交互指令进行数据解析,得到每个交互指令对应的交互动作;通过每个交互指令对应的交互动作,在XR虚拟环境中控制多个目标数字形象进行场景交互,得到目标交互场景以及交互后的多个待渲染数字形象;对目标交互场景进行虚拟环境参数分析,得到虚拟环境参数集,并对虚拟环境参数集进行数据序列化处理,得到序列化参数数据;通过序列化参数数据对目标交互场景进行渲染参数匹配,得到第一渲染参数集合,并通过第一渲染参数集合对目标交互场景进行场景渲染,得到渲染交互场景;基于渲染交互场景,对多个待渲染数字形象进行渲染参数提取,得到第二渲染参数集合,并通过第二渲染参数集合对多个待渲染数字形象进行渲染,得到多个渲染数字形象。在本申请方案中,通过预置的3D建模工具创建多个初始数字形象,并通过参数匹配和配置,可以轻松生成多样化的数字形象。这有助于在虚拟环境中展示不同外观和特性的角色,满足用户的个性化需求,增加用户的参与感和兴趣。通过采集多个目标用户的交互指令,并对其进行数据解析,能够实现用户与虚拟环境中的数字形象进行互动。这提供了更具吸引力的虚拟体验,使用户能够与数字形象互动,创造出各种交互场景,增强用户参与感和沉浸感。方案中的参数匹配和配置以及渲染参数提取都是自动化的过程,减少了手动工作的需要,提高了效率。这可以节省时间和资源,并降低了技术门槛,使更多人能够创建和控制虚拟环境中的数字形象。通过对目标交互场景进行虚拟环境参数分析,可以优化虚拟环境的性能,确保交互场景的流畅性和质量。
在一具体实施例中,执行步骤S101的过程可以具体包括如下步骤:
(1)获取数字形象描述信息,并通过3D建模工具对数字形象描述信息进行形象构建,得到多个初始数字形象;
(2)对每个初始数字形象进行类型标定,得到每个初始数字形象的形象类型;
(3)通过每个初始数字形象的形象类型,对每个初始数字形象进行参数匹配,得到每个初始数字形象对应的参数信息,其中,参数信息包括材质信息以及纹理信息。
具体的,获取数字形象的描述信息。这可以包括数字形象的外观、尺寸、颜色、形状以及其他相关特征。描述信息可以通过多种途径获取,包括从已有的数字模型中提取、从现实世界中的物体扫描中获取,或者由数字形象的创建者提供。使用3D建模工具对这些数字形象描述信息进行形象构建。将描述信息转化为数字形象的三维模型。这个过程包括建立模型的三维几何结构、添加纹理、设定颜色等。3D建模工具可以用来创建数字形象的基本结构,确保它们在虚拟环境中有逼真的外观。对每个初始数字形象进行类型标定。将每个数字形象分类到适当的形象类型中。形象类型可以根据数字形象的特征、外观或其他属性来定义。例如,如果有多个数字形象,其中一些代表人类角色,另一些代表动物,还有一些代表机器人,那么它们可以被分类为不同的形象类型。通过每个初始数字形象的形象类型来进行参数匹配。这个过程确保每个数字形象都有特定于其形象类型的参数信息,包括材质和纹理信息。例如,对于代表人类角色的数字形象,参数信息可以包括皮肤材质、服装纹理等;而对于代表动物的数字形象,参数信息包括毛发颜色、皮肤材质等。
在一具体实施例中,如图2所示,执行步骤S103的过程可以具体包括如下步骤:
S201、采集多个目标用户的交互指令,对每个交互指令进行用户身份识别,得到每个交互指令的用户身份信息;
S202、对每个交互指令的用户身份信息进行安全性识别,得到多个安全性识别结果;
S203、当每个安全性识别结果为通过安全性识别时,对多个交互指令进行指令分类,得到每个交互指令的指令类型;
S204、基于每个交互指令的指令类型,对每个交互指令进行指令动作映射,得到每个交互指令对应的交互动作。
需要说明的是,采集多个目标用户的交互指令。这可以通过各种交互设备和传感器实现,如虚拟现实头戴设备、手柄、语音识别系统等。用户使用这些设备进行动作、语音命令或手势,这些行为被捕捉并记录为交互指令。随后,对每个交互指令进行用户身份识别。确定发出交互指令的用户身份。用户身份可以通过多种方式识别,如生物特征识别、用户登录信息、虚拟现实设备的ID等。用户身份信息对后续的安全性识别和个性化交互至关重要。对每个交互指令的用户身份信息进行安全性识别,得到多个安全性识别结果,目的是验证用户的身份并评估其行为的安全性。这可以通过多层次的安全性检查来实现。例如,用户身份验证可以要求用户提供生物特征(如指纹或面部识别),并且检查用户的登录凭据。如果用户通过了身份验证,并且其行为不引起安全问题,那么安全性识别结果将被标记为“通过”。对这些交互指令进行指令分类。指令分类是将不同类型的指令分组,以便更容易进行后续的处理。例如,如果用户发出了一系列手势,这些手势可以被分类为"手势"类型;如果用户使用语音命令,这些命令可以被分类为"语音"类型。指令分类有助于组织和理解用户的交互行为。基于每个交互指令的指令类型,进行指令动作映射。这一步是将指令类型映射到特定的交互动作或虚拟环境中的响应。例如,如果一个用户通过手势发出了"向前走"的指令,那么这个指令可以映射到虚拟现实场景中的角色移动动作。如果用户通过语音命令请求"打开门",那么这个指令可以映射到虚拟环境中的门打开动作。
在一具体实施例中,如图3所示,执行步骤S105的过程可以具体包括如下步骤:
S301、对虚拟环境参数集进行序列化格式匹配,得到虚拟环境参数集对应的序列化格式信息;
S302、对虚拟环境参数集进行字段分割,得到字段信息集;
S303、通过序列化格式信息对字段信息集进行字符串融合,得到多个目标字符串;
S304、通过多个目标字符串,对虚拟环境参数集进行数据序列化处理,得到序列化参数数据。
需要说明的是,对虚拟环境参数集进行序列化格式匹配,得到虚拟环境参数集对应的序列化格式信息。虚拟环境参数可以包括各种信息,如虚拟场景的设置、物体的属性、交互规则等。为了将这些参数序列化,需要确定适当的序列化格式。常见的序列化格式包括JSON、XML、Protobuf等。选择合适的格式将有助于有效地存储和传输参数。对虚拟环境参数集进行字段分割。虚拟环境参数通常是一个包含多个字段的数据结构。字段可以包括场景的名称、光照设置、物体的位置、材质属性等等。字段分割的目的是将这些信息分开以便后续处理。这通常涉及到解析虚拟环境参数集并将其划分为独立的字段。通过序列化格式信息对字段信息集进行字符串融合。这一步是将字段信息转换为字符串表示,并将它们组合成多个目标字符串。不同的序列化格式有不同的规则,如JSON使用大括号和冒号来表示字段和值,而XML使用标签。字符串融合需要根据选择的序列化格式进行。通过多个目标字符串,对虚拟环境参数集进行数据序列化处理,得到序列化参数数据。将多个目标字符串转换为二进制或文本数据,以便在计算机系统中进行存储和传输。序列化的数据可以存储到文件中、传输到远程服务器或用于虚拟环境的配置。
在一具体实施例中,如图4所示,执行步骤S304的过程可以具体包括如下步骤:
S401、对虚拟环境参数集进行序列化格式匹配,得到虚拟环境参数集对应的序列化格式信息;
S402、对虚拟环境参数集进行字段分割,得到字段信息集;
S403、通过序列化格式信息对字段信息集进行字符串融合,得到多个目标字符串;
S404、通过多个目标字符串,对虚拟环境参数集进行数据序列化处理,得到序列化参数数据。
具体的,确定用于序列化的格式,例如JSON、XML、Protobuf等。不同格式具有不同的规则和语法,因此必须选择适合应用需求的格式。例如,JSON适用于易读的文本格式,而Protobuf适用于高效的二进制格式。选择后,将虚拟环境参数集与所选格式相匹配。虚拟环境参数集通常包含多个字段,每个字段包含不同类型的信息。字段可以包括场景设置、对象属性、交互规则等。分割字段的目的是将这些信息分离并整理成可序列化的数据。这需要解析虚拟环境参数集,并将其划分为独立的字段。对字段信息进行序列化格式化。根据选择的序列化格式,将字段信息转化为相应格式的字符串。例如,如果使用JSON格式,需要将字段信息格式化成JSON对象,其中字段名和对应的值按照JSON格式的语法规则进行排列。将经过格式化的字段信息组合成多个目标字符串。这通常需要根据序列化格式的规则,将各字段的字符串组合在一起,以形成完整的序列化数据。这些字符串可以包括字段名、值以及任何必要的分隔符或标记。将多个目标字符串转换为最终的序列化参数数据。将字符串编码为适当的格式,如JSON字符串编码为二进制数据。序列化的数据可以被存储、传输或用于虚拟环境的配置。
在一具体实施例中,执行步骤S106的过程可以具体包括如下步骤:
(1)对序列化参数数据进行反序列化处理,得到反序列化数据;
(2)对反序列化数据进行场景渲染参数匹配,得到对应的场景渲染参数;
(3)对场景渲染参数进行场景材质提取,得到对应的目标场景材质;
(4)对目标场景材质进行场景效果分析,得到目标场景效果;
(5)通过目标场景效果对场景渲染参数进行参数修正,得到第一渲染参数集合;
(6)通过第一渲染参数集合对目标交互场景进行场景渲染,得到渲染交互场景。
需要说明的是,对序列化参数数据进行反序列化处理,得到反序列化数据。序列化参数数据将被还原成可供计算机处理的数据格式,以便进行后续的渲染操作。这通常涉及将序列化数据(例如,以JSON或XML格式编码的数据)解码为内部数据结构。例如,如果序列化参数数据包含虚拟场景的描述信息,反序列化处理将转换该数据为计算机可理解的格式,如结构体、对象或变量。反序列化数据中包含与虚拟环境的渲染相关的参数,如光照、阴影、相机位置等。将这些参数匹配到虚拟场景的渲染引擎所需的参数上。这确保了渲染的一致性和质量。例如,如果渲染引擎需要了解虚拟场景中的太阳位置和光照信息,这些信息必须从反序列化的数据中提取并匹配到渲染引擎的参数中。从反序列化数据中提取物体的材质信息,包括纹理、颜色、反射属性等。这些信息将用于确保虚拟场景中的物体呈现出正确的外观。例如,如果场景描述中包含一棵树,场景材质提取将包括树叶和树干的纹理以及颜色属性。分析虚拟场景的各种效果,包括光照效果、声音效果、动画效果等。这些效果的分析有助于确定如何调整渲染参数以获得所需的效果。例如,如果场景中有日落景色,目标场景效果分析将包括日落时的光照效果和颜色变化。基于目标场景效果的分析结果,可以调整场景渲染参数以达到所需的效果。这包括调整光照、材质属性、相机位置等参数。例如,如果目标场景效果分析表明需要增加阴影效果以增强逼真度,参数修正将涉及调整阴影投射和接收的参数。最终,使用修正后的渲染参数,可以将虚拟场景渲染出来。这包括生成图像、渲染动画、处理声音等,以呈现最终的交互场景。用户将能够与渲染后的虚拟场景进行互动,获得沉浸式的体验。
在一具体实施例中,执行步骤S107的过程可以具体包括如下步骤:
(1)通过渲染交互场景对多个待渲染数字形象进行外观轮廓提取,得到每个待渲染数字形象的外观轮廓数据;
(2)对每个待渲染数字形象的外观轮廓数据进行平滑处理,得到每个待渲染数字形象的平滑外观数据;
(3)对每个待渲染数字形象的平滑外观数据进行渲染参数提取,得到第二渲染参数集合,并通过第二渲染参数集合对多个待渲染数字形象进行渲染,得到多个渲染数字形象。
具体的,通过渲染交互场景提取多个待渲染数字形象的外观轮廓数据。根据数字形象的模型和渲染参数,在虚拟场景中渲染数字形象,然后提取其轮廓。外观轮廓通常是数字形象的边缘轮廓,用于定义其整体形状。外观轮廓提取后,数据不够光滑,包含噪音或锯齿状的边缘。因此,需要对外观轮廓数据进行平滑处理,以获得更加连续和自然的外观。这通常涉及到数学方法和算法,如高斯滤波或Bezier曲线拟合,以减少锯齿和噪音。从平滑外观数据中提取渲染所需的参数。这包括颜色、光照、阴影、纹理等参数。提取这些参数是为了确保数字形象在渲染时能够呈现所需的外观。例如,从平滑外观数据中提取颜色信息可以确定数字形象的皮肤颜色,而提取光照信息可以确定光源的位置和强度。提取的渲染参数将组成第二渲染参数集合。这个集合包括了每个待渲染数字形象的渲染参数,这些参数将用于后续的渲染过程。第二渲染参数集合反映了数字形象的外观特征,以便在虚拟场景中呈现。使用第二渲染参数集合,对多个待渲染数字形象进行渲染。将数字形象放置到虚拟场景中,并根据提取的渲染参数呈现其外观。渲染的结果将是多个渲染数字形象,它们的外观是根据第二渲染参数集合定义的,这些数字形象将出现在虚拟场景中,可供用户互动或观察。
上面对本发明实施例中基于多用户交互XR场景的数字形象渲染方法进行了描述,下面对本发明实施例中基于多用户交互XR场景的数字形象渲染装置进行描述,请参阅图5,本发明实施例中基于多用户交互XR场景的数字形象渲染装置一个实施例包括:
创建模块501,用于通过预置的3D建模工具创建多个初始数字形象,并对每个所述初始数字形象进行参数匹配,得到每个所述初始数字形象对应的参数信息,其中,所述参数信息包括材质信息以及纹理信息;
配置模块502,用于通过每个所述初始数字形象对应的参数信息,对每个所述初始数字形象进行参数配置,得到多个目标数字形象,并将多个所述目标数字形象传输至预置的XR虚拟环境中;
解析模块503,用于采集多个目标用户的交互指令,并对每个所述交互指令进行数据解析,得到每个所述交互指令对应的交互动作;
交互模块504,用于通过每个所述交互指令对应的交互动作,在所述XR虚拟环境中控制多个所述目标数字形象进行场景交互,得到目标交互场景以及交互后的多个待渲染数字形象;
分析模块505,用于对所述目标交互场景进行虚拟环境参数分析,得到虚拟环境参数集,并对所述虚拟环境参数集进行数据序列化处理,得到序列化参数数据;
匹配模块506,用于通过所述序列化参数数据对所述目标交互场景进行渲染参数匹配,得到第一渲染参数集合,并通过所述第一渲染参数集合对所述目标交互场景进行场景渲染,得到渲染交互场景;
渲染模块507,用于基于所述渲染交互场景,对多个所述待渲染数字形象进行渲染参数提取,得到第二渲染参数集合,并通过所述第二渲染参数集合对多个所述待渲染数字形象进行渲染,得到多个渲染数字形象。
通过上述各个组成部分的协同合作,通过预置的3D建模工具创建多个初始数字形象,并对每个初始数字形象进行参数匹配,得到每个初始数字形象对应的参数信息,其中,参数信息包括材质信息以及纹理信息;通过每个初始数字形象对应的参数信息,对每个初始数字形象进行参数配置,得到多个目标数字形象,并将多个目标数字形象传输至预置的XR虚拟环境中;采集多个目标用户的交互指令,并对每个交互指令进行数据解析,得到每个交互指令对应的交互动作;通过每个交互指令对应的交互动作,在XR虚拟环境中控制多个目标数字形象进行场景交互,得到目标交互场景以及交互后的多个待渲染数字形象;对目标交互场景进行虚拟环境参数分析,得到虚拟环境参数集,并对虚拟环境参数集进行数据序列化处理,得到序列化参数数据;通过序列化参数数据对目标交互场景进行渲染参数匹配,得到第一渲染参数集合,并通过第一渲染参数集合对目标交互场景进行场景渲染,得到渲染交互场景;基于渲染交互场景,对多个待渲染数字形象进行渲染参数提取,得到第二渲染参数集合,并通过第二渲染参数集合对多个待渲染数字形象进行渲染,得到多个渲染数字形象。在本申请方案中,通过预置的3D建模工具创建多个初始数字形象,并通过参数匹配和配置,可以轻松生成多样化的数字形象。这有助于在虚拟环境中展示不同外观和特性的角色,满足用户的个性化需求,增加用户的参与感和兴趣。通过采集多个目标用户的交互指令,并对其进行数据解析,能够实现用户与虚拟环境中的数字形象进行互动。这提供了更具吸引力的虚拟体验,使用户能够与数字形象互动,创造出各种交互场景,增强用户参与感和沉浸感。方案中的参数匹配和配置以及渲染参数提取都是自动化的过程,减少了手动工作的需要,提高了效率。这可以节省时间和资源,并降低了技术门槛,使更多人能够创建和控制虚拟环境中的数字形象。通过对目标交互场景进行虚拟环境参数分析,可以优化虚拟环境的性能,确保交互场景的流畅性和质量。
上面图5从模块化功能实体的角度对本发明实施例中的基于多用户交互XR场景的数字形象渲染装置进行详细描述,下面从硬件处理的角度对本发明实施例中基于多用户交互XR场景的数字形象渲染设备进行详细描述。
图6是本发明实施例提供的一种基于多用户交互XR场景的数字形象渲染设备的结构示意图,该基于多用户交互XR场景的数字形象渲染设备600可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上处理器(centralprocessingunits,CPU)610(例如,一个或一个以上处理器)和存储器620,一个或一个以上存储应用程序633或数据632的存储介质630(例如一个或一个以上海量存储设备)。其中,存储器620和存储介质630可以是短暂存储或持久存储。存储在存储介质630的程序可以包括一个或一个以上模块(图示没标出),每个模块可以包括对基于多用户交互XR场景的数字形象渲染设备600中的一系列指令操作。更进一步地,处理器610可以设置为与存储介质630通信,在基于多用户交互XR场景的数字形象渲染设备600上执行存储介质630中的一系列指令操作。
基于多用户交互XR场景的数字形象渲染设备600还可以包括一个或一个以上电源640,一个或一个以上有线或无线网络接口650,一个或一个以上输入输出接口660,和/或,一个或一个以上操作系统631,例如WindowsServe,MacOSX,Unix,Linux,FreeBSD等等。本领域技术人员可以理解,图6示出的基于多用户交互XR场景的数字形象渲染设备结构并不构成对基于多用户交互XR场景的数字形象渲染设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
本发明还提供一种基于多用户交互XR场景的数字形象渲染设备,所述基于多用户交互XR场景的数字形象渲染设备包括存储器和处理器,存储器中存储有计算机可读指令,计算机可读指令被处理器执行时,使得处理器执行上述各实施例中的所述基于多用户交互XR场景的数字形象渲染方法的步骤。
本发明还提供一种计算机可读存储介质,该计算机可读存储介质可以为非易失性计算机可读存储介质,该计算机可读存储介质也可以为易失性计算机可读存储介质,所述计算机可读存储介质中存储有指令,当所述指令在计算机上运行时,使得计算机执行所述基于多用户交互XR场景的数字形象渲染方法的步骤。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或通过时,可以存储在一个计算机可读取存储介质中。基于的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(read-onlymemory,ROM)、随机存取存储器(randomacceSmemory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (10)

1.一种基于多用户交互XR场景的数字形象渲染方法,其特征在于,所述基于多用户交互XR场景的数字形象渲染方法包括:
通过预置的3D建模工具创建多个初始数字形象,并对每个所述初始数字形象进行参数匹配,得到每个所述初始数字形象对应的参数信息,其中,所述参数信息包括材质信息以及纹理信息;
通过每个所述初始数字形象对应的参数信息,对每个所述初始数字形象进行参数配置,得到多个目标数字形象,并将多个所述目标数字形象传输至预置的XR虚拟环境中;
采集多个目标用户的交互指令,并对每个所述交互指令进行数据解析,得到每个所述交互指令对应的交互动作;
通过每个所述交互指令对应的交互动作,在所述XR虚拟环境中控制多个所述目标数字形象进行场景交互,得到目标交互场景以及交互后的多个待渲染数字形象;
对所述目标交互场景进行虚拟环境参数分析,得到虚拟环境参数集,并对所述虚拟环境参数集进行数据序列化处理,得到序列化参数数据;
通过所述序列化参数数据对所述目标交互场景进行渲染参数匹配,得到第一渲染参数集合,并通过所述第一渲染参数集合对所述目标交互场景进行场景渲染,得到渲染交互场景;
基于所述渲染交互场景,对多个所述待渲染数字形象进行渲染参数提取,得到第二渲染参数集合,并通过所述第二渲染参数集合对多个所述待渲染数字形象进行渲染,得到多个渲染数字形象。
2.根据权利要求1所述的基于多用户交互XR场景的数字形象渲染方法,其特征在于,所述通过预置的3D建模工具创建多个初始数字形象,并对每个所述初始数字形象进行参数匹配,得到每个所述初始数字形象对应的参数信息,其中,所述参数信息包括材质信息以及纹理信息,包括:
获取数字形象描述信息,并通过所述3D建模工具对所述数字形象描述信息进行形象构建,得到多个初始数字形象;
对每个所述初始数字形象进行类型标定,得到每个所述初始数字形象的形象类型;
通过每个所述初始数字形象的形象类型,对每个所述初始数字形象进行参数匹配,得到每个所述初始数字形象对应的参数信息,其中,所述参数信息包括材质信息以及纹理信息。
3.根据权利要求1所述的基于多用户交互XR场景的数字形象渲染方法,其特征在于,所述采集多个目标用户的交互指令,并对每个所述交互指令进行数据解析,得到每个所述交互指令对应的交互动作,包括:
采集多个目标用户的交互指令,对每个所述交互指令进行用户身份识别,得到每个所述交互指令的用户身份信息;
对每个所述交互指令的用户身份信息进行安全性识别,得到多个安全性识别结果;
当每个所述安全性识别结果为通过安全性识别时,对多个所述交互指令进行指令分类,得到每个所述交互指令的指令类型;
基于每个所述交互指令的指令类型,对每个所述交互指令进行指令动作映射,得到每个所述交互指令对应的交互动作。
4.根据权利要求1所述的基于多用户交互XR场景的数字形象渲染方法,其特征在于,所述对所述目标交互场景进行虚拟环境参数分析,得到虚拟环境参数集,并对所述虚拟环境参数集进行数据序列化处理,得到序列化参数数据,包括:
对所述目标交互场景进行场景范围分析,得到目标场景范围;
基于所述目标场景范围对所述目标交互场景进行场景状态识别,得到场景状态数据;
通过所述场景状态数据对所述目标交互场景进行虚拟环境参数分析,得到所述虚拟环境参数集;
对所述虚拟环境参数集进行数据序列化处理,得到序列化参数数据。
5.根据权利要求4所述的基于多用户交互XR场景的数字形象渲染方法,其特征在于,所述对所述虚拟环境参数集进行数据序列化处理,得到序列化参数数据,包括:
对所述虚拟环境参数集进行序列化格式匹配,得到所述虚拟环境参数集对应的序列化格式信息;
对所述虚拟环境参数集进行字段分割,得到字段信息集;
通过所述序列化格式信息对所述字段信息集进行字符串融合,得到多个目标字符串;
通过多个所述目标字符串,对所述虚拟环境参数集进行数据序列化处理,得到序列化参数数据。
6.根据权利要求1所述的基于多用户交互XR场景的数字形象渲染方法,其特征在于,所述通过所述序列化参数数据对所述目标交互场景进行渲染参数匹配,得到第一渲染参数集合,并通过所述第一渲染参数集合对所述目标交互场景进行场景渲染,得到渲染交互场景,包括:
对所述序列化参数数据进行反序列化处理,得到反序列化数据;
对所述反序列化数据进行场景渲染参数匹配,得到对应的场景渲染参数;
对所述场景渲染参数进行场景材质提取,得到对应的目标场景材质;
对所述目标场景材质进行场景效果分析,得到目标场景效果;
通过所述目标场景效果对所述场景渲染参数进行参数修正,得到所述第一渲染参数集合;
通过所述第一渲染参数集合对所述目标交互场景进行场景渲染,得到渲染交互场景。
7.根据权利要求1所述的基于多用户交互XR场景的数字形象渲染方法,其特征在于,所述基于所述渲染交互场景,对多个所述待渲染数字形象进行渲染参数提取,得到第二渲染参数集合,并通过所述第二渲染参数集合对多个所述待渲染数字形象进行渲染,得到多个渲染数字形象,包括:
通过所述渲染交互场景对多个所述待渲染数字形象进行外观轮廓提取,得到每个所述待渲染数字形象的外观轮廓数据;
对每个所述待渲染数字形象的外观轮廓数据进行平滑处理,得到每个所述待渲染数字形象的平滑外观数据;
对每个所述待渲染数字形象的平滑外观数据进行渲染参数提取,得到第二渲染参数集合,并通过所述第二渲染参数集合对多个所述待渲染数字形象进行渲染,得到多个渲染数字形象。
8.一种基于多用户交互XR场景的数字形象渲染装置,其特征在于,所述基于多用户交互XR场景的数字形象渲染装置包括:
创建模块,用于通过预置的3D建模工具创建多个初始数字形象,并对每个所述初始数字形象进行参数匹配,得到每个所述初始数字形象对应的参数信息,其中,所述参数信息包括材质信息以及纹理信息;
配置模块,用于通过每个所述初始数字形象对应的参数信息,对每个所述初始数字形象进行参数配置,得到多个目标数字形象,并将多个所述目标数字形象传输至预置的XR虚拟环境中;
解析模块,用于采集多个目标用户的交互指令,并对每个所述交互指令进行数据解析,得到每个所述交互指令对应的交互动作;
交互模块,用于通过每个所述交互指令对应的交互动作,在所述XR虚拟环境中控制多个所述目标数字形象进行场景交互,得到目标交互场景以及交互后的多个待渲染数字形象;
分析模块,用于对所述目标交互场景进行虚拟环境参数分析,得到虚拟环境参数集,并对所述虚拟环境参数集进行数据序列化处理,得到序列化参数数据;
匹配模块,用于通过所述序列化参数数据对所述目标交互场景进行渲染参数匹配,得到第一渲染参数集合,并通过所述第一渲染参数集合对所述目标交互场景进行场景渲染,得到渲染交互场景;
渲染模块,用于基于所述渲染交互场景,对多个所述待渲染数字形象进行渲染参数提取,得到第二渲染参数集合,并通过所述第二渲染参数集合对多个所述待渲染数字形象进行渲染,得到多个渲染数字形象。
9.一种基于多用户交互XR场景的数字形象渲染设备,其特征在于,所述基于多用户交互XR场景的数字形象渲染设备包括:存储器和至少一个处理器,所述存储器中存储有指令;
所述至少一个处理器调用所述存储器中的所述指令,以使得所述基于多用户交互XR场景的数字形象渲染设备执行如权利要求1-7中任一项所述的基于多用户交互XR场景的数字形象渲染方法。
10.一种计算机可读存储介质,所述计算机可读存储介质上存储有指令,其特征在于,所述指令被处理器执行时实现如权利要求1-7中任一项所述的基于多用户交互XR场景的数字形象渲染方法。
CN202311548937.8A 2023-11-21 2023-11-21 基于多用户交互xr场景的数字形象渲染方法及装置 Active CN117270721B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311548937.8A CN117270721B (zh) 2023-11-21 2023-11-21 基于多用户交互xr场景的数字形象渲染方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311548937.8A CN117270721B (zh) 2023-11-21 2023-11-21 基于多用户交互xr场景的数字形象渲染方法及装置

Publications (2)

Publication Number Publication Date
CN117270721A true CN117270721A (zh) 2023-12-22
CN117270721B CN117270721B (zh) 2024-02-13

Family

ID=89201205

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311548937.8A Active CN117270721B (zh) 2023-11-21 2023-11-21 基于多用户交互xr场景的数字形象渲染方法及装置

Country Status (1)

Country Link
CN (1) CN117270721B (zh)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106648046A (zh) * 2016-09-14 2017-05-10 同济大学 一种基于虚拟现实技术的真实环境映射系统
CN109448099A (zh) * 2018-09-21 2019-03-08 腾讯科技(深圳)有限公司 画面的渲染方法、装置、存储介质及电子装置
CN111833423A (zh) * 2020-06-30 2020-10-27 北京市商汤科技开发有限公司 展示方法、装置、设备和计算机可读存储介质
US20210035350A1 (en) * 2019-08-02 2021-02-04 Microsoft Technology Licensing, Llc Sub-pixel data simulation system
CN113327316A (zh) * 2021-06-30 2021-08-31 联想(北京)有限公司 一种图像处理方法、装置、设备及存储介质
CN114067042A (zh) * 2021-11-08 2022-02-18 腾讯科技(深圳)有限公司 一种图像渲染方法、装置、设备、存储介质及程序产品
CN114247136A (zh) * 2021-12-24 2022-03-29 网易(杭州)网络有限公司 虚拟场景的制作方法及装置、电子设备、存储介质
CN115439616A (zh) * 2022-11-07 2022-12-06 成都索贝数码科技股份有限公司 基于多对象图像α叠加的异构对象表征方法
CN116524154A (zh) * 2023-03-29 2023-08-01 未石互动科技股份有限公司 一种ar系统及ar设备

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106648046A (zh) * 2016-09-14 2017-05-10 同济大学 一种基于虚拟现实技术的真实环境映射系统
CN109448099A (zh) * 2018-09-21 2019-03-08 腾讯科技(深圳)有限公司 画面的渲染方法、装置、存储介质及电子装置
US20210035350A1 (en) * 2019-08-02 2021-02-04 Microsoft Technology Licensing, Llc Sub-pixel data simulation system
CN111833423A (zh) * 2020-06-30 2020-10-27 北京市商汤科技开发有限公司 展示方法、装置、设备和计算机可读存储介质
CN113327316A (zh) * 2021-06-30 2021-08-31 联想(北京)有限公司 一种图像处理方法、装置、设备及存储介质
CN114067042A (zh) * 2021-11-08 2022-02-18 腾讯科技(深圳)有限公司 一种图像渲染方法、装置、设备、存储介质及程序产品
CN114247136A (zh) * 2021-12-24 2022-03-29 网易(杭州)网络有限公司 虚拟场景的制作方法及装置、电子设备、存储介质
CN115439616A (zh) * 2022-11-07 2022-12-06 成都索贝数码科技股份有限公司 基于多对象图像α叠加的异构对象表征方法
CN116524154A (zh) * 2023-03-29 2023-08-01 未石互动科技股份有限公司 一种ar系统及ar设备

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
邓春新;: "基于图形图像的三维建模技术研究", 工业设计, no. 11, 20 November 2017 (2017-11-20) *

Also Published As

Publication number Publication date
CN117270721B (zh) 2024-02-13

Similar Documents

Publication Publication Date Title
US11688120B2 (en) System and method for creating avatars or animated sequences using human body features extracted from a still image
CN109636886B (zh) 图像的处理方法、装置、存储介质和电子装置
CN108961369A (zh) 生成3d动画的方法和装置
EP4207080A1 (en) Avatar generation method, apparatus and device, and medium
US11176723B2 (en) Automated dance animation
US20230419578A1 (en) State-space system for pseudorandom animation
KR101743764B1 (ko) 감성 아바타 이모티콘 기반의 초경량 데이터 애니메이션 방식 제공 방법, 그리고 이를 구현하기 위한 감성 아바타 이모티콘 제공 단말장치
CN110555896A (zh) 一种图像生成方法、装置以及存储介质
CN113362263A (zh) 变换虚拟偶像的形象的方法、设备、介质及程序产品
CN114998490B (zh) 一种虚拟对象生成方法、装置、设备及存储介质
Cadi Yazli et al. Modeling craftspeople for cultural heritage: A case study
CN114299206A (zh) 三维卡通人脸生成方法、装置、电子设备及存储介质
US20130271460A1 (en) Apparatus and method for generating 3d tree images
US20220165024A1 (en) Transforming static two-dimensional images into immersive computer-generated content
CN117270721B (zh) 基于多用户交互xr场景的数字形象渲染方法及装置
CN114912574A (zh) 角色面部表情拆分方法、装置、计算机设备及存储介质
CN111991808A (zh) 人脸模型的生成方法及装置、存储介质、计算机设备
KR102652652B1 (ko) 아바타 생성 장치 및 방법
CN115999156B (zh) 角色控制方法、装置、设备及存储介质
CN117726725A (zh) 一种3d宠物角色生成控制方法及相关设备
CN117078269A (zh) 虚拟客服的处理方法及装置、存储介质和电子设备
CN116740247A (zh) 材质生成的方法、装置、电子设备及存储介质
KR20190115621A (ko) 가상 현실 기반의 작품 제공 방법 및 이를 수행하는 장치
CN117391122A (zh) 一种基于元宇宙中建立的3d数字人互助式聊天方法
CN117504296A (zh) 动作生成方法、动作显示方法、装置、设备、介质及产品

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant