CN117459702A - 一种数实融合裸眼3d的呈现方法、系统及相关设备 - Google Patents

一种数实融合裸眼3d的呈现方法、系统及相关设备 Download PDF

Info

Publication number
CN117459702A
CN117459702A CN202311378152.0A CN202311378152A CN117459702A CN 117459702 A CN117459702 A CN 117459702A CN 202311378152 A CN202311378152 A CN 202311378152A CN 117459702 A CN117459702 A CN 117459702A
Authority
CN
China
Prior art keywords
virtual
area
imaging
animation
space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202311378152.0A
Other languages
English (en)
Inventor
王俊寒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Bimu Lighting Design Co ltd
Original Assignee
Shanghai Bimu Lighting Design Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Bimu Lighting Design Co ltd filed Critical Shanghai Bimu Lighting Design Co ltd
Priority to CN202311378152.0A priority Critical patent/CN117459702A/zh
Publication of CN117459702A publication Critical patent/CN117459702A/zh
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/324Colour aspects

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本申请涉及增强现实的领域,公开了一种数实融合裸眼3D的呈现方法、系统及相关设备。其中数实融合裸眼3D的呈现方法包括:获取建筑主体于现实空间中的外立面数据;基于现实空间的坐标系设定虚拟空间;在现实空间中划定交互区和虚拟成像区,并基于外立面数据在虚拟空间中创建成像边框;利用透视原理创建虚拟动画;基于成像边框的特征点数据将虚拟动画与成像边框相融合;获取终端设备在现实空间中的坐标位置,在终端设备进入交互区后,响应于终端设备于交互区内的坐标位置,向终端设备呈现相融合的成像边框和虚拟动画。本申请不需要特殊的物理屏幕,降低了硬件成本,且不需要对主体建模,也不需要创建三维动画,降低了制作成本和减少了制作周期。

Description

一种数实融合裸眼3D的呈现方法、系统及相关设备
技术领域
本申请涉及增强现实的领域,尤其是涉及一种数实融合裸眼3D的呈现方法、系统及相关设备。
背景技术
目前网络上传播的3D动画与现实建筑相接合的视频通常是利用了裸眼3D的技术,具体地,想要拍摄出逼真的3D动画与现实建筑相接合的视频需要在建筑的外立面上安装昂贵的显示屏,比如自动立体视图(Auto-Stereoscopic)屏幕,这种屏幕使用多个透镜或屏幕微凹凸来使得不同的图像投射到不同的视角,从而允许观众在不使用特殊眼镜的情况下看到立体效果;比如投影式3D显示,这种现实通常使用立体投影仪,将不同的图像投射到不同的视角,以实现立体效果;比如LED或LCD屏幕:某些LED或LCD屏幕可以使用特殊的滤光片和透镜技术,使观众能够在不使用眼镜的情况下看到3D效果。
除了需要在建筑的外立面上安装显示屏,想要拍摄出逼真的3D动画与现实建筑相接合的视频还需要创建3D模型和动画,首先,需要建立建筑物的三维模型,以及与之交互的动画场景,并处理三维模型的材质、灯光和贴图,设定动画中物体的运动路径,以确保动画的真实感,最后还需要针对不同屏幕分辨率、折角率调试,制作周期和难度都很高。
如此,想要游客或拍摄者能够看到并拍摄出逼真的3D动画与现实建筑相接合的视频不仅需要投入较高的成本在建筑外立面上安装用于实现裸眼3D的显示屏,还需要花费较长的周期和较高的成本创建建筑的三维模型和与建筑交互的动画场景,且目前裸眼3D技术呈现给游客或拍摄者的观看视角也很有限,用户通常只能在对称视角才能观看到逼真的3D动画。
发明内容
为了能够花费较短的周期和较低的成本就能够使得游客或拍摄者能够看到并拍摄出逼真的3D动画与现实建筑相接合的视频,本申请提供一种数实融合裸眼3D的呈现方法、系统及相关设备。
本申请提供的一种数实融合裸眼3D的呈现方法,采用如下的技术方案:
一种数实融合裸眼3D的呈现方法,包括:
获取所述建筑主体于所述现实空间中的外立面数据,所述外立面数据包括所述建筑主体的色彩数据、结构数据和特征点数据;
基于所述现实空间的坐标系设定虚拟空间;
在所述现实空间中划定交互区和虚拟成像区,并基于所述外立面数据在所述虚拟空间中创建成像边框,所述成像边框用于在所述虚拟空间中覆盖所述虚拟成像区中的建筑主体;
利用透视原理创建虚拟动画;
基于所述成像边框的特征点数据将所述虚拟动画与所述成像边框相融合;
获取终端设备在所述现实空间中的坐标位置,在所述终端设备进入所述交互区后,响应于所述终端设备于所述交互区内的坐标位置,向所述终端设备呈现相融合的所述成像边框和所述虚拟动画;
其中,所述虚拟成像区位于所述建筑主体的外立面上。
通过采用上述技术方案,现实空间中划定有虚拟成像区,虚拟动画于虚拟成像区处呈现,具体地,在虚拟空间中创建成像边框,成像边框用于在虚拟空间覆盖虚拟成像区中的建筑主体,虚拟动画和成像边框相融合以使得虚拟动画在虚拟成像区处呈现。在创建成像边框时,不需要对建筑主体建模,只需要获取建筑主体的结构数据和特征点数据,结构数据包括建筑主体的尺寸、形状等,通过获取到的结构数据能够使得创建的成像边框与虚拟成像区域中的建筑主体部分相适配,通过获取到的特征点数据能够使得创建的成像边框在虚拟空间中设定与虚拟成像区的坐标相对应的地方。利用透视原理创建虚拟动画能够使得二维动画呈现出三维动画的效果,制作二维动画的周期相对于制作三维动画的周期短,且制作成本也低,如此进一步缩短了制作周期和减少了制作成本。通过获取终端设备在现实空间中的坐标位置,当终端设备进入交互区后,响应终端设备于交互区内的坐标位置,以向终端设备呈现相融合的成像边框和虚拟动画,成像边框用于覆盖虚拟成像区中的建筑主体,以模拟用于呈现虚拟动画的显示屏。
综上,相对于传统的裸眼3D的呈现方法,本申请公开的数实融合裸眼3D的呈现方法不需要特殊的物理屏幕,大大降低了硬件成本,且不需要对主体建模,也不需要创建三维动画,进一步降低了制作成本和减少了制作周期。且,本申请公开的数实融合裸眼3D的呈现方法还可以将城市中很多建筑的外立面利用起来,创作更多的艺术作品。
示例性地,所述在所述现实空间划定交互区和虚拟成像区,并基于所述外立面数据在所述虚拟空间创建成像边框包括:
基于所述结构数据创建基础框架,所述基础框架用于覆盖所述建筑主体用于展示所述虚拟动画的外立面;
基于所述色彩数据,为所述基础框架增加透视或投影或阴影效果,并将所述基础框架的颜色渲染为所述建筑主体的外立面的颜色;
基于所述特征点数据,将所述基础框架导入所述虚拟空间中以形成所述成像边框,所述成像边框的特征点数据与所述虚拟成像区的特征点数据相匹配。
通过采用上述技术方案,基于结构数据创建与虚拟成像区中的建筑主体的结构相适配的基础框架,基于色彩数据为基础框架增加透视、投影或阴影效果,并将基础框架的颜色渲染为建筑主体的外立面颜色,基于特征点数据将基础框架导入虚拟空间,以使得成像边框在虚拟空间中的坐标位置与虚拟成像区中建筑主体的坐标位置相匹配,以使得虚拟边框与建筑主体的外立面相融合。如此设置,成像边框能够替代传统裸眼3D呈现技术中的特殊屏幕,在建筑主体的外立面上展示虚拟动画。
示例性地,所述交互区划分有多个视角区域,多个所述视角区域之间设置有空白区域,所述视角区域用于向所述终端设备呈现所述虚拟动画,所述空白区域用于缓冲所述虚拟动画,所述利用透视原理创建虚拟动画包括:
基于多个所述视角区域的坐标位置和所述虚拟成像区的坐标位置,创建透视空间;
创建每个所述视角区域对应的所述虚拟动画所需的平面素材;
将每个所述视角区域的平面素材均放置于所述透视空间中,以形成对应的虚拟动画,其中,所述平面素材的大小以及所述平面素材之间的距离关系和层次关系依据透视原理设置。
通过采用上述技术方案,在不同的视角区域都能使得游客或拍摄者拍摄出三维动画与现实建筑相接合的视频,改善了传统裸眼3D的观看角度受限的问题。透视原理模拟了物体远近的感觉能够模拟平面素材之间的相对空间关系,将平面素材放置于透视空间中,并根据透视原理设置平面素材的大小和平面素材之间的距离关系和层次关系,使得不需要创建三维模型便可以实现三维动画效果,降低了制作周期。
示例性地,所述基于视角区域的坐标位置和虚拟成像区的坐标位置,创建透视空间包括:
确定每个视角区域的透视点和透视平面,以搭建出每个视角区域对应的三维空间框架,不同视角区域的三维空间框架形成所述透视空间。
通过采用上述技术方案,在每个视角区域中,选择一个透视点,透视点通常位于虚拟动画的中心,用于模拟透视效果。视线从观众到透视点的方向会在虚拟动画中变得更加收敛,模拟出物体远近的感觉。为每个视角区域定义一个透视平面,透视平面用于定义虚拟动画中的深度和距离关系。平面素材放置在透视平面上,根据观众和透视点的相对位置,平面素材的大小和位置会发生变化,模拟出透视效果。
通过使用透视点和透视平面,拍摄者可以感知虚拟动画中的深度和距离关系,使虚拟场景看起来更真实。
示例性地,所述获取终端设备在所述现实空间中的坐标位置,在所述终端设备进入所述交互区后,响应于所述终端设备于所述交互区内的坐标位置,向所述终端设备呈现相融合的所述成像边框和所述虚拟动画包括:
基于所述终端设备于所述交互区内的坐标位置,确定所述终端设备所处的位置;
当所述终端设备处于所述视角区域时,确定所述终端设备所处的视角区域,并向所述终端设备呈现所述视角区域对应的虚拟动画;
当所述终端设备处于所述空白区域时,缓冲所述空白区域相邻视角区域的虚拟动画。
通过采用上述技术方案,当终端设备进入一个新的视角区域时会经过相邻的空白区域,在空白区域终端设备可以缓冲相邻视角区域的虚拟动画,以使得用户在进入视角区域后顺畅的获取到虚拟动画,提高用户的沉浸感。
示例性地,所述成像边框的覆盖面积大于所述虚拟成像区内建筑主体的外立面的面积。
通过采用上述技术方案,如果成像边框覆盖面积与建筑主体外立面的面积相当,观众在不同位置观看时可能会遇到视觉不一致性。通过覆盖面积更大,可以减少这种不一致性,提供更一致的视觉体验。
本申请提供的一种数实融合裸眼3D的呈现系统,采用如下的技术方案:
数据获取模块,用于获取所述建筑主体于所述现实空间中的外立面数据,所述外立面数据包括所述建筑主体的色彩数据、结构数据和特征点数据;
空间搭建模块,用于基于所述现实空间的坐标系设定虚拟空间;
区域划分模块,用于在所述现实空间划定交互区和虚拟成像区,并基于所述外立面数据在所述虚拟空间创建成像边框,所述成像边框用于在虚拟空间覆盖所述虚拟成像区;
动画融合模块,用于利用透视原理创建虚拟动画,并基于所述成像边框的特征点数据将所述虚拟动画与所述成像边框相融合;
动画显示模块,用于获取终端设备在所述现实空间中的坐标位置,在所述终端设备进入所述交互区后,响应于所述终端设备于所述交互区内的坐标位置,向所述终端设备呈现相融合的所述成像边框和所述虚拟动画。
本申请提供的一种计算机可读存储介质,采用如下的技术方案:
一种计算机可读存储介质,所述存储介质存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现:
如上所述的数实融合裸眼3D的呈现方法。
本申请提供的一种计算机设备,采用如下的技术方案:
一种计算机设备,其包括:
一个或多个处理器;
存储器;
一个或多个应用程序,其中所述一个或多个应用程序被存储在所述存储器中并被配置为由所述一个或多个处理器执行,所述一个或多个程序配置用于:
执行如上所述的数实融合裸眼3D的呈现方法。
综上所述,本申请包括以下至少一种有益技术效果:
1.通过在虚拟空间中创建成像边框,成像边框用于在虚拟空间覆盖虚拟成像区,虚拟动画和成像边框相融合以使得虚拟动画在虚拟成像区处呈现。且在创建成像边框时,不需要对建筑主体建模,能够缩短制作周期。在本申请中,只需要获取建筑主体的结构数据和特征点数据,通过获取到的结构数据能够使得创建的成像边框与虚拟成像区域中的建筑主体部分相适配,通过获取到的特征点数据能够使得创建的成像边框在虚拟空间中设定与虚拟成像区的坐标相对应的地方。
2.通过利用透视原理创建虚拟动画能够使得二维动画呈现出三维动画的效果,制作二维动画的周期相对于制作三维动画的周期短,且制作成本也低,如此进一步缩短了制作周期和减少了制作成本。
3.通过获取终端设备在现实空间中的坐标位置,当终端设备进入交互区后,响应终端设备于交互区内的坐标位置,以向终端设备呈现相融合的成像边框和虚拟动画。成像边框用于覆盖虚拟成像区中的建筑主体,以模拟用于呈现虚拟动画的显示屏,不需要特殊的物理屏幕,大大降低了硬件成本,且不需要对主体建模,也不需要创建三维动画,进一步降低了制作成本和减少了制作周期。
附图说明
图1是一种数实融合裸眼3D的呈现方法的步骤图。
具体实施方式
以下结合附图,对本申请作进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
本申请实施例一公开一种数实融合裸眼3D的呈现方法。参照图1,一种数实融合裸眼3D的呈现方法,包括:
S1.获取建筑主体于现实空间中的外立面数据。
在不同的实施例中可以通过不同的方法获取建筑主体于现实空间中的外立面数据,在本申请实施例中,外立面数据包括建筑主体的色彩数据、结构数据和特征点数据,具体但非限定地本申请实施例提出一种数据采集方法,使用RGB摄像头和深度传感器来捕捉建筑主体的外立面数据。RGB摄像头是彩色摄像设备,能够捕捉视觉信息,以获得建筑主体外立面的色彩数据。深度传感器能够测量建筑主体的外立面各个结构点的距离信息,以得到建筑主体的结构数据。进一步地,使用计算机视觉技术,如特征点检测和追踪算法,来识别和提取建筑主体的外立面上的特征点,具体地,这些特征点可以是窗户、门、边缘等元素,以获取建筑主体的特征点数据。在本申请实施例中还采用了SLAM技术来进一步获取特征点数据,以使得后续现实空间和虚拟空间能够更好的匹配,为用户提供沉浸式的体验。
S2.基于现实空间的坐标系设定虚拟空间。
S3.在现实空间中划定交互区和虚拟成像区,并基于外立面数据在虚拟空间中创建成像边框。
虚拟成像区位于建筑主体的外立面上,在虚拟空间中创建成像边框,成像边框用于在虚拟空间覆盖虚拟成像区中的建筑主体,虚拟动画和成像边框相融合以使得虚拟动画在虚拟成像区处呈现。在创建成像边框时,不需要对建筑主体进行三维建模能够缩短制作周期。
本申请实施例中,只需要获取建筑主体的结构数据和特征点数据,结构数据包括建筑主体的尺寸、形状等,通过获取到的结构数据能够使得创建的成像边框与虚拟成像区域中的建筑主体部分相适配,通过获取到的特征点数据能够使得创建的成像边框在虚拟空间中设定与虚拟成像区的坐标相对应的地方。
值得一提的是,在本申请实施例中,成像边框的覆盖面积大于虚拟成像区内建筑主体的外立面的面积,以覆盖虚拟成像区中的建筑主体。如果成像边框覆盖面积与建筑主体外立面的面积相当,观众在不同位置观看时可能会遇到视觉不一致性。通过覆盖面积更大,可以减少这种不一致性,提供更一致的视觉体验。
具体地,上述步骤S3在现实空间划定交互区和虚拟成像区,并基于外立面数据在虚拟空间创建成像边框包括:
基于所述结构数据创建基础框架,所述基础框架用于覆盖所述建筑主体用于展示所述虚拟动画的外立面;
基于所述色彩数据,为所述基础框架增加透视或投影或阴影效果,并将所述基础框架的颜色渲染为所述建筑主体的外立面的颜色;
基于所述特征点数据,将所述基础框架导入所述虚拟空间中以形成所述成像边框,所述成像边框的特征点数据与所述虚拟成像区的特征点数据相匹配。
如此设置,成像边框能够替代传统裸眼3D呈现技术中的特殊屏幕,以在建筑主体的外立面上展示虚拟动画,既能够降低成本又可以在视频中达到以假乱真的效果。
S4.利用透视原理创建虚拟动画;
在不同的实施例中,上述步骤S4利用透视原理创建虚拟动画可以通过不同的方式实现,具体地,在本申请实施例中,交互区划分有多个视角区域,多个视角区域之间设置有空白区域,视角区域用于向终端设备呈现虚拟动画,空白区域用于缓冲虚拟动画。上述步骤S4利用透视原理创建虚拟动画可以通过以下方式实现:
基于多个视角区域的坐标位置和虚拟成像区的坐标位置,创建透视空间;
创建每个视角区域对应的虚拟动画所需的平面素材;
将每个视角区域的平面素材均放置于透视空间中,以形成对应的虚拟动画,其中,平面素材的大小以及平面素材之间的距离关系和层次关系依据透视原理设置。
透视原理模拟了物体远近的感觉能够模拟平面素材之间的相对空间关系,将平面素材放置于透视空间中,并根据透视原理设置平面素材的大小和平面素材之间的距离关系和层次关系,使得不需要创建三维模型便可以实现三维动画效果,降低了制作周期。且制作平面素材的周期相对于制作三维素材的周期短,且制作成本也低,如此进一步缩短了制作周期和减少了制作成本。
进一步地,上述基于视角区域的坐标位置和虚拟成像区的坐标位置,创建透视空间包括:确定每个视角区域的透视点和透视平面,以搭建出每个视角区域对应的三维空间框架,多个视角区域的三维空间框架形成透视空间。
在每个视角区域中,选择一个透视点,透视点通常位于虚拟动画的中心,用于模拟透视效果。视线从观众到透视点的方向会在虚拟动画中变得更加收敛,模拟出物体远近的感觉。为每个视角区域定义一个透视平面,透视平面用于定义虚拟动画中的深度和距离关系。平面素材放置在透视平面上,根据观众和透视点的相对位置,平面素材的大小和位置会发生变化,模拟出透视效果。通过使用透视点和透视平面,拍摄者可以感知虚拟动画中的深度和距离关系,使虚拟场景看起来更真实。
S5.基于成像边框的特征点数据将虚拟动画与成像边框相融合;
S6.获取终端设备在现实空间中的坐标位置,在终端设备进入交互区后,响应于终端设备于交互区内的坐标位置,向终端设备呈现相融合的成像边框和虚拟动画;
其中,虚拟成像区位于建筑主体的外立面上。
在本申请实施例中上述步骤S6获取终端设备在现实空间中的坐标位置,在终端设备进入交互区后,响应于终端设备于交互区内的坐标位置,向终端设备呈现相融合的成像边框和虚拟动画包括:
基于所述终端设备于所述交互区内的坐标位置,确定所述终端设备所处的位置;
当所述终端设备处于所述视角区域时,确定所述终端设备所处的视角区域,并向所述终端设备呈现所述视角区域对应的虚拟动画;
当所述终端设备处于所述空白区域时,缓冲所述空白区域相邻视角区域的虚拟动画。
如此设置,当终端设备进入一个新的视角区域时会经过相邻的空白区域,在空白区域终端设备可以缓冲相邻视角区域的虚拟动画,以使得用户在进入视角区域后顺畅的获取到虚拟动画,提高用户的沉浸感。
本申请实施例二公开了一种数实融合裸眼3D的呈现系统。一种数实融合裸眼3D的呈现系统包括:数据获取模块,用于获取建筑主体于现实空间中的外立面数据,外立面数据包括建筑主体的色彩数据、结构数据和特征点数据;空间搭建模块,用于基于现实空间的坐标系设定虚拟空间;区域划分模块,在现实空间划定交互区和虚拟成像区,并基于外立面数据在虚拟空间创建成像边框,成像边框用于在虚拟空间覆盖虚拟成像区;动画融合模块,利用透视原理创建虚拟动画,并基于成像边框的特征点数据将虚拟动画与成像边框相融合;动画显示模块,用于获取终端设备在现实空间中的坐标位置,在终端设备进入交互区后,响应于终端设备于交互区内的坐标位置,向终端设备呈现相融合的成像边框和虚拟动画。
数据获取模块用于收集建筑主体的外立面的颜色、结构和特征点数据,而动画融合模块利用透视原理创建虚拟动画。这使得虚拟成像能够与现实建筑逼真地融合在一起,为观众提供高度逼真的视觉体验且如此创建虚拟动画能够减少制作周期和制作成本。动画显示模块根据终端设备的坐标位置,响应观众的位置,以呈现与其视角相匹配的虚拟裸眼3D效果。这意味着观众可以在不同的视角看到虚拟动画。
相对于传统的裸眼3D的呈现方法,本申请公开的数实融合裸眼3D的呈现系统不需要特殊的物理屏幕,大大降低了硬件成本,且不需要对主体建模,也不需要创建三维动画,进一步降低了制作成本和减少了制作周期。且,本申请公开的数实融合裸眼3D的呈现方法还可以将城市中很多建筑的外立面利用起来,创作更多的艺术作品。
本申请实施例三公开了一种计算机可读存储介质。存储介质存储有至少一条指令、至少一段程序、代码集或指令集,至少一条指令、至少一段程序、代码集或指令集由处理器加载并执行以实现:如上的数实融合裸眼3D的呈现方法。
本申请实施例四公开了一种计算机设备,其包括:一个或多个处理器;存储器;一个或多个应用程序,其中一个或多个应用程序被存储在存储器中并被配置为由一个或多个处理器执行,一个或多个程序配置用于:执行如上的数实融合裸眼3D的呈现方法。
以上均为本申请的较佳实施例,并非依此限制本申请的保护范围,故:凡依本申请的结构、形状、原理所做的等效变化,均应涵盖于本申请的保护范围之内。

Claims (9)

1.一种数实融合裸眼3D的呈现方法,其特征在于,包括:
获取所述建筑主体于所述现实空间中的外立面数据,所述外立面数据包括所述建筑主体的色彩数据、结构数据和特征点数据;
基于所述现实空间的坐标系设定虚拟空间;
在所述现实空间中划定交互区和虚拟成像区,并基于所述外立面数据在所述虚拟空间中创建成像边框,所述成像边框用于在所述虚拟空间中覆盖所述虚拟成像区中的建筑主体;
利用透视原理创建虚拟动画;
基于所述成像边框的特征点数据将所述虚拟动画与所述成像边框相融合;
获取终端设备在所述现实空间中的坐标位置,在所述终端设备进入所述交互区后,响应于所述终端设备于所述交互区内的坐标位置,向所述终端设备呈现相融合的所述成像边框和所述虚拟动画;
其中,所述虚拟成像区位于所述建筑主体的外立面上。
2.根据权利要求1所述的数实融合裸眼3D的呈现方法,其特征在于,所述在所述现实空间划定交互区和虚拟成像区,并基于所述外立面数据在所述虚拟空间创建成像边框包括:
基于所述结构数据创建基础框架,所述基础框架用于覆盖所述建筑主体用于展示所述虚拟动画的外立面;
基于所述色彩数据,为所述基础框架增加透视或投影或阴影效果,并将所述基础框架的颜色渲染为所述建筑主体的外立面的颜色;
基于所述特征点数据,将所述基础框架导入所述虚拟空间中以形成所述成像边框,所述成像边框的特征点数据与所述虚拟成像区的特征点数据相匹配。
3.根据权利要求1所述的数实融合裸眼3D的呈现方法,其特征在于,所述交互区划分有多个视角区域,多个所述视角区域之间设置有空白区域,所述视角区域用于向所述终端设备呈现所述虚拟动画,所述空白区域用于缓冲所述虚拟动画,所述利用透视原理创建虚拟动画包括:
基于多个所述视角区域的坐标位置和所述虚拟成像区的坐标位置,创建透视空间;
创建每个所述视角区域对应的所述虚拟动画所需的平面素材;
将每个所述视角区域的平面素材均放置于所述透视空间中,以形成对应的虚拟动画,其中,所述平面素材的大小以及所述平面素材之间的距离关系和层次关系依据透视原理设置。
4.根据权利要求3所述的数实融合裸眼3D的呈现方法,其特征在于,所述基于视角区域的坐标位置和虚拟成像区的坐标位置,创建透视空间包括:
确定每个视角区域的透视点和透视平面,以搭建出每个所述视角区域对应的三维空间框架,多个所述视角区域的三维空间框架形成所述透视空间。
5.根据权利要求3所述的数实融合裸眼3D的呈现方法,其特征在于,所述获取终端设备在所述现实空间中的坐标位置,在所述终端设备进入所述交互区后,响应于所述终端设备于所述交互区内的坐标位置,向所述终端设备呈现相融合的所述成像边框和所述虚拟动画包括:
基于所述终端设备于所述交互区内的坐标位置,确定所述终端设备所处的位置;
当所述终端设备处于所述视角区域时,确定所述终端设备所处的视角区域,并向所述终端设备呈现所述视角区域对应的虚拟动画;
当所述终端设备处于所述空白区域时,缓冲所述空白区域相邻视角区域的虚拟动画。
6.根据权利要求2所述的数实融合裸眼3D的呈现方法,其特征在于,所述成像边框的覆盖面积大于所述虚拟成像区内建筑主体的外立面的面积。
7.一种数实融合裸眼3D的呈现系统,其特征在于,包括:
数据获取模块,用于获取所述建筑主体于所述现实空间中的外立面数据,所述外立面数据包括所述建筑主体的色彩数据、结构数据和特征点数据;
空间搭建模块,用于基于所述现实空间的坐标系设定虚拟空间;
区域划分模块,用于在所述现实空间划定交互区和虚拟成像区,并基于所述外立面数据在所述虚拟空间创建成像边框,所述成像边框用于在虚拟空间覆盖所述虚拟成像区;
动画融合模块,用于利用透视原理创建虚拟动画,并基于所述成像边框的特征点数据将所述虚拟动画与所述成像边框相融合;
动画显示模块,用于获取终端设备在所述现实空间中的坐标位置,在所述终端设备进入所述交互区后,响应于所述终端设备于所述交互区内的坐标位置,向所述终端设备呈现相融合的所述成像边框和所述虚拟动画。
8.一种计算机可读存储介质,其特征在于,所述存储介质存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现:
如权利要求1至6任一项所述的数实融合裸眼3D的呈现方法。
9.一种计算机设备,其特征在于,其包括:
一个或多个处理器;
存储器;
一个或多个应用程序,其中所述一个或多个应用程序被存储在所述存储器中并被配置为由所述一个或多个处理器执行,所述一个或多个程序配置用于:
执行权利要求1至6任一项所述的数实融合裸眼3D的呈现方法。
CN202311378152.0A 2023-10-23 2023-10-23 一种数实融合裸眼3d的呈现方法、系统及相关设备 Pending CN117459702A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311378152.0A CN117459702A (zh) 2023-10-23 2023-10-23 一种数实融合裸眼3d的呈现方法、系统及相关设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311378152.0A CN117459702A (zh) 2023-10-23 2023-10-23 一种数实融合裸眼3d的呈现方法、系统及相关设备

Publications (1)

Publication Number Publication Date
CN117459702A true CN117459702A (zh) 2024-01-26

Family

ID=89579125

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311378152.0A Pending CN117459702A (zh) 2023-10-23 2023-10-23 一种数实融合裸眼3d的呈现方法、系统及相关设备

Country Status (1)

Country Link
CN (1) CN117459702A (zh)

Similar Documents

Publication Publication Date Title
CN109615703B (zh) 增强现实的图像展示方法、装置及设备
US10127712B2 (en) Immersive content framing
EP3057066B1 (en) Generation of three-dimensional imagery from a two-dimensional image using a depth map
US9848184B2 (en) Stereoscopic display system using light field type data
US9460555B2 (en) System and method for three-dimensional visualization of geographical data
EP0583060A2 (en) Method and system for creating an illusion of three-dimensionality
US20100110069A1 (en) System for rendering virtual see-through scenes
US10606347B1 (en) Parallax viewer system calibration
CN101631257A (zh) 一种实现二维视频码流立体播放的方法及装置
AU2018249563B2 (en) System, method and software for producing virtual three dimensional images that appear to project forward of or above an electronic display
CN105704479A (zh) 3d显示系统用的测量人眼瞳距的方法及系统和显示设备
CN104102013A (zh) 影像显示装置和影像显示方法
CN104427230A (zh) 增强现实的方法和增强现实的系统
CN105282536A (zh) 一种基于Unity3D引擎的裸眼3D图文交互方法
CN108830944B (zh) 光学透视式三维近眼显示系统及显示方法
EP3057316B1 (en) Generation of three-dimensional imagery to supplement existing content
CN208506731U (zh) 图像展示系统
US20190281280A1 (en) Parallax Display using Head-Tracking and Light-Field Display
CN113470190A (zh) 场景显示方法及装置、设备、车辆、计算机可读存储介质
Takatori et al. Large-scale projection-based immersive display: The design and implementation of largespace
CN102662292A (zh) 一种3d场景成像方法、装置及显示终端
CN110870304A (zh) 向用户提供信息以观察多视图内容的方法和装置
JP2007323093A (ja) 仮想環境体験表示装置
CN117459702A (zh) 一种数实融合裸眼3d的呈现方法、系统及相关设备
CN113822936A (zh) 数据处理方法、装置、计算机设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination