CN116778127B - 一种基于全景图的三维数字场景构建方法及系统 - Google Patents

一种基于全景图的三维数字场景构建方法及系统 Download PDF

Info

Publication number
CN116778127B
CN116778127B CN202310815045.3A CN202310815045A CN116778127B CN 116778127 B CN116778127 B CN 116778127B CN 202310815045 A CN202310815045 A CN 202310815045A CN 116778127 B CN116778127 B CN 116778127B
Authority
CN
China
Prior art keywords
scene
simulated
pixel point
model
coordinate information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202310815045.3A
Other languages
English (en)
Other versions
CN116778127A (zh
Inventor
唐建文
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Shijing Medical Software Co ltd
Original Assignee
Guangzhou Shijing Medical Software Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Shijing Medical Software Co ltd filed Critical Guangzhou Shijing Medical Software Co ltd
Priority to CN202310815045.3A priority Critical patent/CN116778127B/zh
Publication of CN116778127A publication Critical patent/CN116778127A/zh
Application granted granted Critical
Publication of CN116778127B publication Critical patent/CN116778127B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Architecture (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明公开了一种基于全景图的三维数字场景构建方法及系统,包括:获取待模拟场景的全景图,并将全景图贴在预先构建的第一球体模型上,得到对应的第二球体模型;遍历第二球体模型上的每个像素点,按照预设的坐标调整算法,结合当前像素点的第一坐标信息、当前像素点在待模拟场景中的深度值和第二球体模型的圆心坐标信息,计算得到当前像素点的第二坐标信息;分别利用各个像素点的第二坐标信息,对第二球体模型上的各个像素点进行坐标调整,得到对应的第三球体模型,以完成对待模拟场景的三维数字场景构建。本发明基于各个像素点在待模拟场景中的深度值,适应性调整各个像素点的坐标信息,使得第三球体模型具备一定的立体感。

Description

一种基于全景图的三维数字场景构建方法及系统
技术领域
本发明涉及三维数字场景构建领域,尤其涉及一种基于全景图的三维数字场景构建方法及系统。
背景技术
目前主流的三维数字场景制作方式是先在三维软件中建模,再制作模型贴图,然后再将这些模型拼接起来,就组合成了三维场景。例如在Maya,Max等软件中制作单个三维模型(每一个模型是由多个三角形组合而成),然后在Unity3D或者Unreal等渲染软件中拼接三维场景,最后在这些软件中调节颜色、灯光、阴影后期效果,才制作出一个完整的三维场景。
然而,上述制作方式存在两个明显的缺点。第一,如果要制作一个与现实生活中一致(实景)的数字场景,则需要在三维软件中1:1完全制作各种单体模型,并且将它们拼接起来,另外,还需要按照现实中的灯光阴影等效果,在渲染软件中将灯光阴影等效果调节出来等,这个对技术人员的技术要求很高,对渲染软件模拟环境气氛的功能也极为严苛,因此最终制作出的三维场景基本上会和实景在视觉效果上存在较大的差异。第二,如果需要制作高保真的场景,则需要使用到高精度的3D模型,对应使用的贴图就要更复杂,模型数量越多和精细度越复杂,对计算机的配置要求、显卡渲染等方面的要求高,需要配置高显卡、大内存且计算能力强的计算机才能渲染出来,因此在实际运行过程中,随着模型复杂程度的增加,计算机会越发卡顿。
发明内容
本发明提供了一种基于全景图的三维数字场景构建方法及系统,对第二球体模型的各个像素点进行坐标调整,提升第三球体模型的立体视觉效果,从而形象生动地呈现出待模拟场景中各个物体的远近关系。
为了解决上述技术问题,本发明实施例提供了一种基于全景图的三维数字场景构建方法,包括:
获取待模拟场景的全景图,并将所述全景图贴在预先构建的第一球体模型上,得到对应的第二球体模型;
遍历所述第二球体模型上的每个像素点,按照预设的坐标调整算法,结合当前像素点的第一坐标信息、当前像素点在所述待模拟场景中的深度值和所述第二球体模型的圆心坐标信息,计算得到当前像素点对应的第二坐标信息;
分别利用各所述像素点对应的所述第二坐标信息,对所述第二球体模型上的各所述像素点进行坐标调整,得到对应的第三球体模型,以完成对所述待模拟场景的三维数字场景构建。
实施本发明实施例,由于在全景图制作过程中,待模拟场景中的物体是有远近凹凸而非平面的,而使用全景图制作的场景任意角度都是等距,所以在将待模拟场景的全景图贴合预先构建的第一球体模型而得到对应的第二球体模型之后,遍历第二球体模型上的每个像素点,按照预设的坐标调整算法,结合当前像素点的第一坐标信息、当前像素点在待模拟场景中的深度值、以及第二球体模型的圆心坐标信息,计算得到当前像素点对应的第二坐标信息,并利用当前像素点对应的第二坐标信息,对第二球体模型上的当前像素点进行坐标调整,以达到以任意视角观察球体模型时具备远近凹凸的视觉效果,从而使得最终构建得到的第三球体模型具备一定的立体感,并且形象生动地呈现出待模拟场景中各个物体的远近关系。此外,将全景图贴在预先构建的第一球体模型上,以初步构建三维场景,能够简化三维场景构建操作和模型的复杂程度,从而减少对计算机显卡等配置的性能的要求,避免产生运行卡顿等异常问题。
作为优选方案,所述预设的坐标调整算法,具体为:
a2=[Normalize(a1-o)]*d+a1
式中,a2表示当前像素点对应的第二坐标信息,a1表示当前像素点的第一坐标信息,o表示第二球体模型的圆心坐标信息,d表示当前像素点在待模拟场景中的深度值,Normalize表示取法向量。
实施本发明实施例的优选方案,利用Normalize取法向量,将当前像素点的第一坐标信息与第二球体模型的圆心坐标信息的差所形成的向量归一化为单位向量,并利用单位向量去乘以当前像素点在待模拟场景中的深度值,得到坐标调整值,以用于对当前像素点的第一坐标信息进行调整更新,从而得到当前像素点对应的第二坐标信息,使得最终构建得到的第三球体模型能够模拟出场景的远近凹凸的视觉效果。
作为优选方案,所述深度值的获取,具体为:
若所述待模拟场景为虚拟场景,则通过预先编写的脚本或者代码,获取渲染中心点到所述待模拟场景中的各个采集点的距离,并将渲染中心点到所述待模拟场景中的各个采集点的距离,作为所述第二球体模型上的各所述像素点在所述待模拟场景中的深度值;
若所述待模拟场景为真实场景,则通过测距仪,对所述待模拟场景进行测绘,得到所述测距仪到所述待模拟场景中的各个测距点的距离,并将所述测距仪到所述待模拟场景中的各个测距点的距离,作为所述第二球体模型上的各所述像素点在所述待模拟场景中的深度值。
实施本发明实施例的优选方案,当待模拟场景为虚拟场景时,将渲染中心点到待模拟场景中的各个采集点的距离,作为第二球体模型上的各个像素点在待模拟场景中的深度值,当待模拟场景为真实场景时,将测距仪到待模拟场景中的各个测距点的距离,作为第二球体模型上的各个像素点在待模拟场景中的深度值,以实现近的物体视差大、远的物体视差小的立体视觉效果。
作为优选方案,所述获取待模拟场景的全景图,并将所述全景图贴在预先构建的第一球体模型上,得到对应的第二球体模型,具体为:
若所述待模拟场景为真实场景,则使用全景相机,对所述待模拟场景进行实时拍摄,得到所述待模拟场景的所述全景图,并将所述全景图贴在预先构建的所述第一球体模型上,得到对应的所述第二球体模型;
若所述待模拟场景为虚拟场景,则通过三维渲染软件,获取所述待模拟场景的所述全景图,并将所述全景图贴在预先构建的所述第一球体模型上,得到对应的所述第二球体模型;其中,所述全景图是采用LatLong的方式将所述三维渲染软件所构建的场景进行输出而得到的。
实施本发明实施例的优选方案,在对虚拟场景进行三维数字场景构建的时候,采用LatLong的方式将三维渲染软件所构建的场景进行输出,能够得到一种记录上、下、左、右、前、后这六个面的纹理信息的全景图,从而使得第二球体模型能够充分展现虚拟场景的全部细节信息,以进一步提升虚拟场景的三维数字场景构建结果的精度。
作为优选方案,所述分别利用各所述像素点对应的所述第二坐标信息,对所述第二球体模型上的各所述像素点进行坐标调整,得到对应的第三球体模型,以完成对所述待模拟场景的三维数字场景构建,具体为:
遍历所述第二球体模型上的每个像素点,将所述第二球体模型上的当前像素点的坐标,实时调整为对应的所述第二坐标信息,并将完成所有像素点的坐标调整的第二球体模型,作为对应的所述第三球体模型,以完成对所述待模拟场景的三维数字场景构建。
实施本发明实施例的优选方案,由于第二球体模型的任意观察角度都是等距的,不符合待模拟场景的实际情况,因此将第二球体模型上的各个像素点的坐标,实时调整为各个像素点对应的第二坐标信息,即,将各个像素点的第一坐标信息改为对应的第二坐标信息,从而形成具备远近凹凸视觉效果的第三球体模型,作为待模拟场景的三维数字场景构建结果。
为了解决相同的技术问题,本发明实施例还提供了一种基于全景图的三维数字场景构建系统,包括:
数据获取模块,用于获取待模拟场景的全景图,并将所述全景图贴在预先构建的第一球体模型上,得到对应的第二球体模型;
计算分析模块,用于遍历所述第二球体模型上的每个像素点,按照预设的坐标调整算法,结合当前像素点的第一坐标信息、当前像素点在所述待模拟场景中的深度值和所述第二球体模型的圆心坐标信息,计算得到当前像素点对应的第二坐标信息;
坐标调整模块,用于分别利用各所述像素点对应的所述第二坐标信息,对所述第二球体模型上的各所述像素点进行坐标调整,得到对应的第三球体模型,以完成对所述待模拟场景的三维数字场景构建。
作为优选方案,所述预设的坐标调整算法,具体为:
a2=[Normalize(a1-o)]*d+a1
式中,a2表示当前像素点的第二坐标信息,a1表示当前像素点的第一坐标信息,o表示第二球体模型的圆心坐标信息,d表示当前像素点在待模拟场景中的深度值,Normalize表示取法向量。
作为优选方案,所述深度值的获取,具体为:
若所述待模拟场景为虚拟场景,则通过预先编写的脚本或者代码,获取渲染中心点到所述待模拟场景中的各个采集点的距离,并将渲染中心点到所述待模拟场景中的各个采集点的距离,作为所述第二球体模型上的各所述像素点在所述待模拟场景中的深度值;
若所述待模拟场景为真实场景,则通过测距仪,对所述待模拟场景进行测绘,得到所述测距仪到所述待模拟场景中的各个测距点的距离,并将所述测距仪到所述待模拟场景中的各个测距点的距离,作为所述第二球体模型上的各所述像素点在所述待模拟场景中的深度值。
作为优选方案,所述数据获取模块,具体包括:
第一获取单元,用于若所述待模拟场景为真实场景,则使用全景相机,对所述待模拟场景进行实时拍摄,得到所述待模拟场景的所述全景图,并将所述全景图贴在预先构建的所述第一球体模型上,得到对应的所述第二球体模型;
第二获取单元,用于若所述待模拟场景为虚拟场景,则通过三维渲染软件,获取所述待模拟场景的所述全景图,并将所述全景图贴在预先构建的所述第一球体模型上,得到对应的所述第二球体模型;其中,所述全景图是采用LatLong的方式将所述三维渲染软件所构建的场景进行输出而得到的。
作为优选方案,所述坐标调整模块,具体用于遍历所述第二球体模型上的每个像素点,将所述第二球体模型上的当前像素点的坐标,实时调整为对应的所述第二坐标信息,并将完成所有像素点的坐标调整的第二球体模型,作为对应的所述第三球体模型,以完成对所述待模拟场景的三维数字场景构建。
附图说明
图1:为本发明实施例一提供的一种基于全景图的三维数字场景构建方法的流程示意图;
图2:为本发明实施例一提供的第二球体模型与第三球体模型的对比示意图;
图3:为本发明实施例一提供的一种基于全景图的三维数字场景构建系统的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例一:
请参照图1,为本发明实施例提供的一种基于全景图的三维数字场景构建方法,该方法包括步骤S1至步骤S3,各步骤具体如下:
步骤S1,获取待模拟场景的全景图,并将全景图贴在预先构建的第一球体模型上,得到对应的第二球体模型。此时,第二球体模型即为待模拟场景的三维数字场景初步构建结果。
需要说明的是,预先构建第一球体模型,是为了将待模拟场景的全景图无缝显示出来。其中,由于整个三维数字场景仅由一个球体模型呈现,其三角形面数特别的少,并且灯光阴影等细节信息都存储在全景图上,因此不需要在渲染软件中额外采取灯光、阴影等耗性能的操作。而为了显示同样的视觉效果,传统的三维数字场景的制作方式就需要使用多个不规则的模型,拼接出来的场景的三角形面数就特别的多,而且需要加上灯光、阴影等细节,造成了极大的性能损耗。
作为优选方案,步骤S1包括步骤S11至步骤S12,各步骤具体如下:
步骤S11,若待模拟场景为真实场景,即当前的应用需求为复现真实场景,则使用全景相机,对待模拟场景进行实时拍摄,得到待模拟场景的全景图,并将全景图贴在预先构建的第一球体模型上,得到对应的第二球体模型。
需要说明的是,当使用全景相机对待模拟场景进行实时拍摄时,得到的全景图是实景全景图。其中,实景全景图,可以前后左右无缝地拼接起来,形成一张无缝的球面全景图。
步骤S12,若待模拟场景为虚拟场景,则通过三维渲染软件,获取待模拟场景的全景图,并将全景图贴在预先构建的第一球体模型上,得到对应的第二球体模型。
其中,虚拟场景的全景图是采用LatLong的方式将三维渲染软件所构建的场景进行输出而得到的,其是一种通过记录6个面(上、下、左、右、前、后六个面)的纹理信息的全景图。
步骤S2,遍历第二球体模型上的每个像素点,按照预设的坐标调整算法,结合当前像素点的第一坐标信息、当前像素点在待模拟场景中的深度值和第二球体模型的圆心坐标信息,计算得到当前像素点对应的第二坐标信息。
需要说明的是,由于全景图贴合在球体的表面,所以当渲染时,渲染的位置在球心,那么对于任意方向的渲染视角,场景里任何像素点到渲染位置都是等距的,即为球体半径R,然而,而在全景图制作过程中,场景的物体(实物或者三维单体模型)是有远近凹凸而非平面的,因此在虚拟现实、场景漫游等情况下,观察这些三维单体模型是应该存在双眼视差的(双眼的位置不一样),即近的物体视差大,远的物体视差小,但使用全景图制作的场景任意角度都是等距的,请参照图2(a)的第二球体模型效果图,此时所形成的第二单体模型明显不具备立体感。因此,需要对球体的各个点进行远近调整,以达到在球体内以任意视角观察时,有远近凹凸的视觉效果。
作为一种举例,请参照图2(b)的第三球体模型效果图,对于远的位置,比如云朵,调整的时候需要往外延伸,延伸的方向必须是基于球心往外,如果方向调整反了,那么原本应该调整为视差小的云朵,就会变得比较近,视差就会大,观察起来就不合理;而对于近的位置,比如石头,调整的时候则需要往内延伸,延伸的方向必须是基于球心往内,如果方向调整反了,那么原本应该调整为视差大的石头,就会变得比较近,视差就会小,观察起来就不合理。
作为优选方案,步骤S2中第二球体模型上的各个像素点在待模拟场景中的深度值的获取手段,包括步骤S21至步骤S22,各步骤具体如下:
步骤S21,若待模拟场景为虚拟场景,则通过预先编写的脚本或者代码,获取渲染中心点到待模拟场景中的各个采集点的距离,并将渲染中心点到待模拟场景中的各个采集点的距离,作为第二球体模型上的各个像素点在待模拟场景中的深度值。
需要说明的是,渲染中心点到待模拟场景中的各个采集点的距离,相当于第二球体模型上的各个像素点到人眼的距离。
作为一种举例,待模拟的虚拟场景中有一个三角形,那么此时分别记录渲染中心点到当前三角形的三个顶点的距离,并记为d1、d2、d3,然后在将调整第二球体模型上的各个像素点的远近时,如果当前三角形的三个顶点与第二球体模型的像素点重合或者在其附近,就应按照预设的坐标调整算法,分别根据距离d1、d2、d3,对第二球体模型上对应的三个像素点进行调整。
步骤S22,若待模拟场景为真实场景,则通过测距仪,对待模拟场景进行测绘,得到测距仪到待模拟场景中的各个测距点的距离,并将测距仪到待模拟场景中的各个测距点的距离,作为第二球体模型上的各个像素点在待模拟场景中的深度值。
作为优选方案,步骤S2中预设的坐标调整算法,具体请参见式(1)。
a2=[Normalize(a1-o)]*d+a1
(1)
式中,a2表示当前像素点对应的第二坐标信息,a1表示当前像素点的第一坐标信息,o表示第二球体模型的圆心坐标信息,d表示当前像素点在待模拟场景中的深度值,Normalize表示取法向量。
在本实施例中,Normalize取法向量表示,利用向量的坐标除以向量的长度,从而实现向量的归一化。
步骤S3,分别利用各个像素点对应的第二坐标信息,对第二球体模型上的各个像素点进行坐标调整,得到对应的第三球体模型,以完成对待模拟场景的三维数字场景构建。
作为优选方案,步骤S3具体为:遍历第二球体模型上的每个像素点,将第二球体模型上的当前像素点的坐标,实时调整为对应的第二坐标信息,并将完成所有像素点的坐标调整的第二球体模型,作为对应的第三球体模型(即,将第二球体模型上的所有像素点的第一坐标信息,修改为对应像素点的第二坐标信息,此时的第二球体模型则变成第三球体模型),以完成对待模拟场景的三维数字场景构建。
请参照图3,为本发明实施例提供的一种基于全景图的三维数字场景构建系统的结构示意图,该系统包括数据获取模块M1、计算分析模块M2和坐标调整模块M3,各模块具体如下:
数据获取模块M1,用于获取待模拟场景的全景图,并将全景图贴在预先构建的第一球体模型上,得到对应的第二球体模型;
计算分析模块M2,用于遍历第二球体模型上的每个像素点,按照预设的坐标调整算法,结合当前像素点的第一坐标信息、当前像素点在待模拟场景中的深度值和第二球体模型的圆心坐标信息,计算得到当前像素点对应的第二坐标信息;
坐标调整模块M3,用于分别利用各个像素点对应的第二坐标信息,对第二球体模型上的各个像素点进行坐标调整,得到对应的第三球体模型,以完成对待模拟场景的三维数字场景构建。
作为优选方案,预设的坐标调整算法,具体为:
a2=[Normalize(a1-o)]*d+a1
式中,a2表示当前像素点对应的第二坐标信息,a1表示当前像素点的第一坐标信息,o表示第二球体模型的圆心坐标信息,d表示当前像素点在待模拟场景中的深度值,Normalize表示取法向量。
作为优选方案,深度值的获取,具体为:
若待模拟场景为虚拟场景,则通过预先编写的脚本或者代码,获取渲染中心点到待模拟场景中的各个采集点的距离,并将渲染中心点到待模拟场景中的各个采集点的距离,作为第二球体模型上的各个像素点在待模拟场景中的深度值;
若待模拟场景为真实场景,则通过测距仪,对待模拟场景进行测绘,得到测距仪到待模拟场景中的各个测距点的距离,并将测距仪到待模拟场景中的各个测距点的距离,作为第二球体模型上的各个像素点在待模拟场景中的深度值。
作为优选方案,数据获取模块M1,具体包括第一获取单元11和第二获取单元12,各单元具体如下:
第一获取单元11,用于若待模拟场景为真实场景,则使用全景相机,对待模拟场景进行实时拍摄,得到待模拟场景的全景图,并将全景图贴在预先构建的第一球体模型上,得到对应的第二球体模型;
第二获取单元12,用于若待模拟场景为虚拟场景,则通过三维渲染软件,获取待模拟场景的全景图,并将全景图贴在预先构建的第一球体模型上,得到对应的第二球体模型;其中,全景图是采用LatLong的方式将三维渲染软件所构建的场景进行输出而得到的。
作为优选方案,坐标调整模块M3,具体用于遍历第二球体模型上的每个像素点,将第二球体模型上的当前像素点的坐标,实时调整为对应的第二坐标信息,并将完成所有像素点的坐标调整的第二球体模型,作为对应的第三球体模型,以完成对待模拟场景的三维数字场景构建。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
相比于现有技术,本发明实施例具有如下有益效果:
本发明提供了一种基于全景图的三维数字场景构建方法及系统,由于在全景图制作过程中,待模拟场景中的物体是有远近凹凸而非平面的,而使用全景图制作的场景任意角度都是等距,所以在将待模拟场景的全景图贴合预先构建的第一球体模型而得到对应的第二球体模型之后,遍历第二球体模型上的每个像素点,按照预设的坐标调整算法,结合当前像素点的第一坐标信息、当前像素点在待模拟场景中的深度值、以及第二球体模型的圆心坐标信息,计算得到当前像素点对应的第二坐标信息,并利用当前像素点对应的第二坐标信息,对第二球体模型上的当前像素点进行坐标调整,以达到以任意视角观察球体模型时具备远近凹凸的视觉效果,从而使得最终构建得到的第三球体模型具备一定的立体感,并且形象生动地呈现出待模拟场景中各个物体的远近关系。此外,将全景图贴在预先构建的第一球体模型上,以初步构建三维场景,能够简化三维场景构建操作和模型的复杂程度,从而减少对计算机显卡等配置的性能的要求,避免产生运行卡顿等异常问题。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步的详细说明,应当理解,以上所述仅为本发明的具体实施例而已,并不用于限定本发明的保护范围。特别指出,对于本领域技术人员来说,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (8)

1.一种基于全景图的三维数字场景构建方法,其特征在于,包括:
获取待模拟场景的全景图,并将所述全景图贴在预先构建的第一球体模型上,得到对应的第二球体模型;
遍历所述第二球体模型上的每个像素点,按照预设的坐标调整算法,结合当前像素点的第一坐标信息、当前像素点在所述待模拟场景中的深度值和所述第二球体模型的圆心坐标信息,计算得到当前像素点对应的第二坐标信息;其中,所述预设的坐标调整算法,具体为:
式中,表示当前像素点对应的第二坐标信息,/>表示当前像素点的第一坐标信息,/>表示第二球体模型的圆心坐标信息,/>表示当前像素点在待模拟场景中的深度值,表示取法向量;
分别利用各所述像素点对应的所述第二坐标信息,对所述第二球体模型上的各所述像素点进行坐标调整,得到对应的第三球体模型,以完成对所述待模拟场景的三维数字场景构建。
2.如权利要求1所述的一种基于全景图的三维数字场景构建方法,其特征在于,所述深度值的获取,具体为:
若所述待模拟场景为虚拟场景,则通过预先编写的脚本或者代码,获取渲染中心点到所述待模拟场景中的各个采集点的距离,并将渲染中心点到所述待模拟场景中的各个采集点的距离,作为所述第二球体模型上的各所述像素点在所述待模拟场景中的深度值;
若所述待模拟场景为真实场景,则通过测距仪,对所述待模拟场景进行测绘,得到所述测距仪到所述待模拟场景中的各个测距点的距离,并将所述测距仪到所述待模拟场景中的各个测距点的距离,作为所述第二球体模型上的各所述像素点在所述待模拟场景中的深度值。
3.如权利要求1所述的一种基于全景图的三维数字场景构建方法,其特征在于,所述获取待模拟场景的全景图,并将所述全景图贴在预先构建的第一球体模型上,得到对应的第二球体模型,具体为:
若所述待模拟场景为真实场景,则使用全景相机,对所述待模拟场景进行实时拍摄,得到所述待模拟场景的所述全景图,并将所述全景图贴在预先构建的所述第一球体模型上,得到对应的所述第二球体模型;
若所述待模拟场景为虚拟场景,则通过三维渲染软件,获取所述待模拟场景的所述全景图,并将所述全景图贴在预先构建的所述第一球体模型上,得到对应的所述第二球体模型;其中,所述全景图是采用LatLong的方式将所述三维渲染软件所构建的场景进行输出而得到的。
4.如权利要求1所述的一种基于全景图的三维数字场景构建方法,其特征在于,所述分别利用各所述像素点对应的所述第二坐标信息,对所述第二球体模型上的各所述像素点进行坐标调整,得到对应的第三球体模型,以完成对所述待模拟场景的三维数字场景构建,具体为:
遍历所述第二球体模型上的每个像素点,将所述第二球体模型上的当前像素点的坐标,实时调整为对应的所述第二坐标信息,并将完成所有像素点的坐标调整的第二球体模型,作为对应的所述第三球体模型,以完成对所述待模拟场景的三维数字场景构建。
5.一种基于全景图的三维数字场景构建系统,其特征在于,包括:
数据获取模块,用于获取待模拟场景的全景图,并将所述全景图贴在预先构建的第一球体模型上,得到对应的第二球体模型;
计算分析模块,用于遍历所述第二球体模型上的每个像素点,按照预设的坐标调整算法,结合当前像素点的第一坐标信息、当前像素点在所述待模拟场景中的深度值和所述第二球体模型的圆心坐标信息,计算得到当前像素点对应的第二坐标信息;其中,所述预设的坐标调整算法,具体为:
式中,表示当前像素点的第二坐标信息,/>表示当前像素点的第一坐标信息,/>表示第二球体模型的圆心坐标信息,/>表示当前像素点在待模拟场景中的深度值,/>表示取法向量;
坐标调整模块,用于分别利用各所述像素点对应的所述第二坐标信息,对所述第二球体模型上的各所述像素点进行坐标调整,得到对应的第三球体模型,以完成对所述待模拟场景的三维数字场景构建。
6.如权利要求5所述的一种基于全景图的三维数字场景构建系统,其特征在于,所述深度值的获取,具体为:
若所述待模拟场景为虚拟场景,则通过预先编写的脚本或者代码,获取渲染中心点到所述待模拟场景中的各个采集点的距离,并将渲染中心点到所述待模拟场景中的各个采集点的距离,作为所述第二球体模型上的各所述像素点在所述待模拟场景中的深度值;
若所述待模拟场景为真实场景,则通过测距仪,对所述待模拟场景进行测绘,得到所述测距仪到所述待模拟场景中的各个测距点的距离,并将所述测距仪到所述待模拟场景中的各个测距点的距离,作为所述第二球体模型上的各所述像素点在所述待模拟场景中的深度值。
7.如权利要求5所述的一种基于全景图的三维数字场景构建系统,其特征在于,所述数据获取模块,具体包括:
第一获取单元,用于若所述待模拟场景为真实场景,则使用全景相机,对所述待模拟场景进行实时拍摄,得到所述待模拟场景的所述全景图,并将所述全景图贴在预先构建的所述第一球体模型上,得到对应的所述第二球体模型;
第二获取单元,用于若所述待模拟场景为虚拟场景,则通过三维渲染软件,获取所述待模拟场景的所述全景图,并将所述全景图贴在预先构建的所述第一球体模型上,得到对应的所述第二球体模型;其中,所述全景图是采用LatLong的方式将所述三维渲染软件所构建的场景进行输出而得到的。
8.如权利要求5所述的一种基于全景图的三维数字场景构建系统,其特征在于,所述坐标调整模块,具体用于遍历所述第二球体模型上的每个像素点,将所述第二球体模型上的当前像素点的坐标,实时调整为对应的所述第二坐标信息,并将完成所有像素点的坐标调整的第二球体模型,作为对应的所述第三球体模型,以完成对所述待模拟场景的三维数字场景构建。
CN202310815045.3A 2023-07-05 2023-07-05 一种基于全景图的三维数字场景构建方法及系统 Active CN116778127B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310815045.3A CN116778127B (zh) 2023-07-05 2023-07-05 一种基于全景图的三维数字场景构建方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310815045.3A CN116778127B (zh) 2023-07-05 2023-07-05 一种基于全景图的三维数字场景构建方法及系统

Publications (2)

Publication Number Publication Date
CN116778127A CN116778127A (zh) 2023-09-19
CN116778127B true CN116778127B (zh) 2024-01-05

Family

ID=87987806

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310815045.3A Active CN116778127B (zh) 2023-07-05 2023-07-05 一种基于全景图的三维数字场景构建方法及系统

Country Status (1)

Country Link
CN (1) CN116778127B (zh)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102254340A (zh) * 2011-07-29 2011-11-23 北京麒麟网信息科技有限公司 一种基于gpu加速的环境光遮挡图像绘制方法及系统
CN103077509A (zh) * 2013-01-23 2013-05-01 天津大学 利用离散立方体全景图实时合成连续平滑全景视频的方法
KR20180083282A (ko) * 2018-07-05 2018-07-20 삼성전자주식회사 3차원 볼륨 파노라마 영상 생성 방법 및 장치
CN108629828A (zh) * 2018-04-03 2018-10-09 中德(珠海)人工智能研究院有限公司 三维大场景的移动过程中的场景渲染过渡方法
WO2019223463A1 (zh) * 2018-05-22 2019-11-28 腾讯科技(深圳)有限公司 图像处理方法、装置、存储介质和计算机设备
WO2019242262A1 (zh) * 2018-06-19 2019-12-26 亮风台(上海)信息科技有限公司 基于增强现实的远程指导方法、装置、终端和存储介质
WO2020207202A1 (zh) * 2019-04-11 2020-10-15 腾讯科技(深圳)有限公司 阴影渲染方法、装置、计算机设备及存储介质
CN112184815A (zh) * 2020-09-27 2021-01-05 北京鼎联网络科技有限公司 全景图像在三维模型中的位置和姿态确定方法及装置
CN112870707A (zh) * 2021-03-19 2021-06-01 腾讯科技(深圳)有限公司 虚拟场景中的虚拟物体展示方法、计算机设备及存储介质

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022031872A1 (en) * 2020-08-04 2022-02-10 Owl Labs Inc. Designated view within a multi-view composited webcam signal
CN113808261B (zh) * 2021-09-30 2022-10-21 大连理工大学 一种基于全景图的自监督学习场景点云补全的数据集生成方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102254340A (zh) * 2011-07-29 2011-11-23 北京麒麟网信息科技有限公司 一种基于gpu加速的环境光遮挡图像绘制方法及系统
CN103077509A (zh) * 2013-01-23 2013-05-01 天津大学 利用离散立方体全景图实时合成连续平滑全景视频的方法
CN108629828A (zh) * 2018-04-03 2018-10-09 中德(珠海)人工智能研究院有限公司 三维大场景的移动过程中的场景渲染过渡方法
WO2019223463A1 (zh) * 2018-05-22 2019-11-28 腾讯科技(深圳)有限公司 图像处理方法、装置、存储介质和计算机设备
WO2019242262A1 (zh) * 2018-06-19 2019-12-26 亮风台(上海)信息科技有限公司 基于增强现实的远程指导方法、装置、终端和存储介质
KR20180083282A (ko) * 2018-07-05 2018-07-20 삼성전자주식회사 3차원 볼륨 파노라마 영상 생성 방법 및 장치
WO2020207202A1 (zh) * 2019-04-11 2020-10-15 腾讯科技(深圳)有限公司 阴影渲染方法、装置、计算机设备及存储介质
CN112184815A (zh) * 2020-09-27 2021-01-05 北京鼎联网络科技有限公司 全景图像在三维模型中的位置和姿态确定方法及装置
CN112870707A (zh) * 2021-03-19 2021-06-01 腾讯科技(深圳)有限公司 虚拟场景中的虚拟物体展示方法、计算机设备及存储介质

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Marc Comino等 ; .Error-aware construction and rendering of multi-scan panoramas from massive point clouds.Computer Vision and Image Understanding.2016,全文. *
基于网格的球面虚拟实景空间搭建方法;叶强强;余烨;张静;刘晓平;;华南师范大学学报(自然科学版)(第04期);全文 *
球面全景空间缝合及漫游算法研究;崔汉国;王大宇;陈军;;海军工程大学学报(第01期);全文 *
移动车载视频的立体全景图生成方法;王胜春;罗四维;黄雅平;王亮;戴鹏;;光学学报(第12期);全文 *

Also Published As

Publication number Publication date
CN116778127A (zh) 2023-09-19

Similar Documents

Publication Publication Date Title
US11410320B2 (en) Image processing method, apparatus, and storage medium
CN108876926B (zh) 一种全景场景中的导航方法及系统、ar/vr客户端设备
EP3057066B1 (en) Generation of three-dimensional imagery from a two-dimensional image using a depth map
US11170561B1 (en) Techniques for determining a three-dimensional textured representation of a surface of an object from a set of images with varying formats
CN106101689B (zh) 利用手机单目摄像头对虚拟现实眼镜进行增强现实的方法
US6954202B2 (en) Image-based methods of representation and rendering of three-dimensional object and animated three-dimensional object
CN111028155B (zh) 一种基于多对双目相机的视差图像拼接方法
WO2020006941A1 (zh) 一种基于拍照重建三维空间场景的方法
KR101310589B1 (ko) 이미지들로부터의 빠른 스테레오 재구성을 위한 기술들
CN109191509A (zh) 一种基于结构光的虚拟双目三维重建方法
CN107330964B (zh) 一种复杂三维物体的显示方法及系统
WO2018188479A1 (zh) 基于增强现实的导航方法及装置
CN101631257A (zh) 一种实现二维视频码流立体播放的方法及装置
WO2023280038A1 (zh) 一种三维实景模型的构建方法及相关装置
CN105809729B (zh) 一种虚拟场景的球形全景渲染方法
CN106780759A (zh) 基于图片构建场景立体全景图的方法、装置及vr系统
JP4996922B2 (ja) 立体映像化
EP3057316B1 (en) Generation of three-dimensional imagery to supplement existing content
CN114926612A (zh) 空中全景图像处理与沉浸式显示系统
CN108564654B (zh) 三维大场景的画面进入方式
CN108765292B (zh) 基于空间三角面片拟合的图像拼接方法
CN108765582B (zh) 一种全景图片显示方法及设备
CN116778127B (zh) 一种基于全景图的三维数字场景构建方法及系统
Evers‐Senne et al. Image based interactive rendering with view dependent geometry
TWM630947U (zh) 立體影像播放裝置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant