CN114399597A - 场景空间模型的构建方法、装置以及存储介质 - Google Patents
场景空间模型的构建方法、装置以及存储介质 Download PDFInfo
- Publication number
- CN114399597A CN114399597A CN202210033988.6A CN202210033988A CN114399597A CN 114399597 A CN114399597 A CN 114399597A CN 202210033988 A CN202210033988 A CN 202210033988A CN 114399597 A CN114399597 A CN 114399597A
- Authority
- CN
- China
- Prior art keywords
- point cloud
- rotation matrix
- panoramic image
- point
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/04—Architectural design, interior design
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Processing Or Creating Images (AREA)
Abstract
本公开提供了一种场景空间模型的构建方法、装置以及存储介质,涉及计算机技术领域,其中的方法包括:获取通过移动式点云采集设备采集的第一点云信息,获取通过定点式深度摄像设备采集的深度图像信息;确定定点式深度摄像设备的相机坐标系与全局坐标系相对应的旋转矩阵,基于深度图像信息生成第一全景图像,将第一全景图像映射到三维单位球面上;基于旋转矩阵对三维单位球面进行旋转处理,用以生成第二全景图像;根据第一点云信息和第二全景图像,生成场景空间模型;本公开的方法、装置以及电子设备、存储介质,能够有效减少场景空间模型出现的扭曲现象,能够提高拍摄效率,提高场景空间模型的建模效率和准确度。
Description
技术领域
本公开涉及计算机技术领域,尤其涉及一种场景空间模型的构建方法、装置以及存储介质。
背景技术
在现有的室内三维重建技术中,通常在室内设置激光扫描设备或深度摄像设备,利用定点拍摄采集的方式,通过激光扫描设备或深度摄像设备采集彩色数据和深度数据,并采用拼接不同点位的点云的方式,生成室内场景的三维模型以及每个三维模型对应的全景图。但是,现有的室内三维重建技术对于大规模的场景(例如体育馆,博物馆等)存在比较大的缺陷:由于场景的场地面积大,拍摄点位远多于普通的室内拍摄,容易引入累积误差,导致由在不同点位采集的点云拼接而成的场景空间模型存在扭曲比较严重的问题。
发明内容
为了解决上述技术问题,提出了本公开。本公开的实施例提供了一种场景空间模型的构建方法、装置以及电子设备、存储介质。
根据本公开实施例的第一方面,提供一种场景空间模型的构建方法,包括:获取通过移动式点云采集设备采集的、与目标场景相对应的第一点云信息;获取通过定点式深度摄像设备采集的、与所述目标场景的部分区域相对应的深度图像信息;其中,所述深度图像信息包括:第二点云信息和对应的图像色彩信息;基于所述第一点云信息和所述第二点云信息,确定所述定点式深度摄像设备的相机坐标系与全局坐标系相对应的旋转矩阵;其中,所述全局坐标系为与所述第一点云信息相对应的坐标系;基于所述深度图像信息生成第一全景图像,将所述第一全景图像映射到三维单位球面上;基于所述旋转矩阵对所述三维单位球面进行旋转处理,用以生成第二全景图像;根据所述第一点云信息和所述第二全景图像,生成场景空间模型。
可选地,所述基于所述第一点云信息和所述第二点云信息,确定所述定点式深度摄像设备的相机坐标系与全局坐标系相对应的旋转矩阵包括:将各个定点式深度摄像设备采集的第二点云信息进行拼接处理,生成与所述目标场景的全景相对应第三点云信息;确定所述定点式深度摄像设备的相机坐标系与所述第三点云信息相对应的第一定点旋转矩阵;确定所述第一点云信息和所述第二点云信息之间的第二定点旋转矩阵;根据所述第一定点旋转矩阵和所述第二定点旋转矩阵,确定所述旋转矩阵。
可选地,所述确定所述第一点云信息和所述第二点云信息之间的第二定点旋转矩阵包括:基于预设的点云匹配算法对所述第一点云信息和所述第三点云信息进行匹配处理,用以获取所述第一点云信息和所述第二点云信息之间的第二定点旋转矩阵;其中,所述点云匹配算法包括:ICP算法。
可选地,所述根据所述第一定点旋转矩阵和所述第二定点旋转矩阵,确定所述旋转矩阵包括:将所述第一定点旋转矩阵和所述第二定点旋转矩阵的乘积,作为与所述定点式深度摄像设备相对应的第三定点旋转矩阵;使用所述点云匹配算法并将所述第三定点旋转矩阵作为初始值,计算所述旋转矩阵;其中,所述点云匹配算法包括:ICP算法。
可选地,所述将所述第一全景图像映射到三维单位球面上包括:通过将所述第一全景图像中的各个像素进行二维坐标到三维坐标的转换,用以将所述第一全景图像映射到三维单位球面上。
可选地,所述基于所述旋转矩阵对所述三维单位球面进行旋转处理,用以生成第二全景图像包括:基于所述旋转矩阵对所述三维单位球面进行旋转处理,用以获取所述第一全景图像的各个像素的新三维坐标;根据所述新三维坐标以及各个像素的色彩信息,生成第二全景图像。
可选地,所述根据所述新三维坐标以及各个像素的色彩信息,生成第二全景图像包括:基于所述新三维坐标确定所述第一全景图像的各个像素在所述三维单位球面上的新位置;将所述第一全景图像的各个像素的色彩信息添加在所述新位置,生成所述第二全景图像。
可选地,所述根据所述第一点云信息和所述第二全景图像,生成场景空间模型包括:基于表面重建算法对所述第一点云信息进行表面重建处理,生成与所述第一点云信息相对应的网格模型;根据所述网格模型的网格的位置信息和所述第二全景图像,生成所述网格的贴图;将所述贴图设置在对应的所述网格处,生成所述场景三维空间模型。
可选地,所述表面重建算法包括:Possion表面重建算法;所述网格包括:三角形网格、四边形网格。
根据本公开实施例的第二方面,提供一种场景空间模型的构建装置,包括:第一信息获取模块,用于获取通过移动式点云采集设备采集的、与目标场景相对应的第一点云信息;第二信息获取模块,用于获取通过定点式深度摄像设备采集的、与所述目标场景的部分区域相对应的深度图像信息;其中,所述深度图像信息包括:第二点云信息和对应的图像色彩信息;旋转矩阵确定模块,用于基于所述第一点云信息和所述第二点云信息,确定所述定点式深度摄像设备的相机坐标系与全局坐标系相对应的旋转矩阵;其中,所述全局坐标系为与所述第一点云信息相对应的坐标系;全景图像映射模块,用于基于所述深度图像信息生成第一全景图像,将所述第一全景图像映射到三维单位球面上;全景图像转换模块,用于基于所述旋转矩阵对所述三维单位球面进行旋转处理,用以生成第二全景图像;场景模型生成模块,用于根据所述第一点云信息和所述第二全景图像,生成场景空间模型。
可选地,所述旋转矩阵确定模块,用于将各个定点式深度摄像设备采集的第二点云信息进行拼接处理,生成与所述目标场景的全景相对应第三点云信息;确定所述定点式深度摄像设备的相机坐标系与所述第三点云信息相对应的第一定点旋转矩阵;确定所述第一点云信息和所述第二点云信息之间的第二定点旋转矩阵;根据所述第一定点旋转矩阵和所述第二定点旋转矩阵,确定所述旋转矩阵。
可选地,所述旋转矩阵确定模块,还用于基于预设的点云匹配算法对所述第一点云信息和所述第三点云信息进行匹配处理,用以获取所述第一点云信息和所述第二点云信息之间的第二定点旋转矩阵;其中,所述点云匹配算法包括:ICP算法。
可选地,所述旋转矩阵确定模块,还用于将所述第一定点旋转矩阵和所述第二定点旋转矩阵的乘积,作为与所述定点式深度摄像设备相对应的第三定点旋转矩阵;使用所述点云匹配算法并将所述第三定点旋转矩阵作为初始值,计算所述旋转矩阵;其中,所述点云匹配算法包括:ICP算法。
可选地,所述全景图像映射模块,具体用于通过将所述第一全景图像中的各个像素进行二维坐标到三维坐标的转换,用以将所述第一全景图像映射到三维单位球面上。
可选地,所述全景图像转换模块,具体用于基于所述旋转矩阵对所述三维单位球面进行旋转处理,用以获取所述第一全景图像的各个像素的新三维坐标;根据所述新三维坐标以及各个像素的色彩信息,生成第二全景图像。
可选地,所述全景图像转换模块,还用于基于所述新三维坐标确定所述第一全景图像的各个像素在所述三维单位球面上的新位置;将所述第一全景图像的各个像素的色彩信息添加在所述新位置,生成所述第二全景图像。
可选地,所述场景模型生成模块,具体用于基于表面重建算法对所述第一点云信息进行表面重建处理,生成与所述第一点云信息相对应的网格模型;根据所述网格模型的网格的位置信息和所述第二全景图像,生成所述网格的贴图;将所述贴图设置在对应的所述网格处,生成所述场景三维空间模型。
可选地,所述表面重建算法包括:Possion表面重建算法;所述网格包括:三角形网格、四边形网格。
根据本公开实施例的第三方面,提供一种电子设备,所述电子设备包括:处理器;用于存储所述处理器可执行指令的存储器;所述处理器,用于从所述存储器中读取所述可执行指令,并执行所述指令以实现上述的方法。
根据本公开实施例的第四方面,提供一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序用于执行上述的方法。
根据本公开实施例的第五方面,提供一种计算机程序,包括计算机可读代码,其特征在于,当所述计算机可读代码在设备上运行时,所述设备中的处理器执行用于实现上述的方法。
基于本公开上述实施例提供的场景空间模型的构建方法、装置以及电子设备、存储介质,能够融合定点式深度摄像设备和移动式点云采集设备的特点,生成场景空间模型,可以减少拍摄过程中不同点位的拼接误差,有效解决了现有的场景空间模型建立方法容易引入累积误差,导致场景空间模型存在扭曲比较严重的问题;能够提高拍摄效率,降低对于拍摄设备的要求,提高场景空间模型的建模效率和准确度;可以给用户呈现更好的VR展示体验,提高客户的使用感受度。
下面通过附图和实施例,对本公开的技术方案做进一步的详细描述。
附图说明
通过结合附图对本公开实施例进行更详细的描述,本公开的上述以及其他目的、特征以及优势将变得更加明显。附图用来提供对本公开实施例的进一步的理解,并且构成说明书的一部分,与本公开实施例一起用于解释本公开,并不构成对本公开的限制。在附图中,相同的参考标号通常代表相同部件或步骤。
图1为本公开的场景空间模型的构建方法的一个实施例的流程图;
图2为本公开的场景空间模型的构建方法的一个实施例中的确定旋转矩阵的流程图;
图3为本公开的场景空间模型的构建方法的另一个实施例中的根据第一定点旋转矩阵和第二定点旋转矩阵确定旋转矩阵的流程图;
图4为本公开的场景空间模型的构建方法的一个实施例中的生成场景空间模型的流程图;
图5为本公开的场景空间模型的构建装置的一个实施例的结构示意图;
图6是本公开的电子设备的一个实施例的结构图。
具体实施方式
下面将参考附图详细地描述根据本公开的示例实施例。显然,所描述的实施例仅仅是本公开的一部分实施例,而不是本公开的全部实施例,应理解,本公开不受这里描述的示例实施例的限制。
应注意到:除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值不限制本公开的范围。
本领域技术人员可以理解,本公开实施例中的“第一”、“第二”等术语仅用于区别不同步骤、设备或模块等,既不代表任何特定技术含义,也不表示它们之间的必然逻辑顺序。
还应理解,在本公开实施例中,“多个”可以指两个或者两个以上,“至少一个”可以指一个、两个或两个以上。
还应理解,对于本公开实施例中提及的任一部件、数据或结构,在没有明确限定或者在前后文给出相反启示的情况下,一般可以理解为一个或多个。
另外,本公开中术语“和/或”,仅是一种描述关联对象的关联关系,表示可以存在三种关系,如A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本公开中字符“/”,一般表示前后关联对象是一种“或”的关系。
还应理解,本公开对各个实施例的描述着重强调各个实施例之间的不同之处,其相同或相似之处可以相互参考,为了简洁,不再一一赘述。
同时,应当明白,为了便于描述,附图中所示出的各个部分的尺寸并不是按照实际的比例关系绘制的。
以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本公开及其应用或使用的任何限制。
对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为说明书的一部分。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
本公开的实施例可以应用于终端设备、计算机系统、服务器等电子设备,其可与众多其它通用或者专用计算系统环境或配置一起操作。适于与终端设备、计算机系统或者服务器等电子设备一起使用的众所周知的终端设备、计算系统、环境和/或配置的例子包括但不限于:个人计算机系统、服务器计算机系统、瘦客户机、厚客户机、手持或膝上设备、基于微处理器的系统、机顶盒、可编程消费电子产品、网络个人电脑、小型计算机系统、大型计算机系统和包括上述任何系统的分布式云计算技术环境等等。
终端设备、计算机系统、服务器等电子设备可以在由计算机系统执行的计算机系统可执行指令(诸如程序模块)的一般语境下描述。通常,程序模块可以包括例程、程序、目标程序、组件、逻辑、数据结构等等,它们执行特定的任务或者实现特定的抽象数据类型。计算机系统/服务器可以在分布式云计算环境中实施。在分布式云计算环境中,任务可以是由通过通信网络链接的远程处理设备执行的。在分布式云计算环境中,程序模块可以位于包括存储设备的本地或远程计算系统存储介质上。
申请概述
在实现本公开的过程中,发明人发现,对于场地面积较大的场景,在建立场景空间模型时,容易引入累积误差,使得在不同点位采集的点云拼接而成的场景空间模型扭曲比较严重,因此,需要一种新的场景空间模型的构建方案。
本公开提供的场景空间模型的构建方法,获取通过移动式点云采集设备采集的、与目标场景的全景相对应的第一点云信息,获取通过定点式深度摄像设备采集的、与目标场景的部分区域相对应的深度图像信息,基于第一点云信息和第二点云信息,确定定点式深度摄像设备的相机坐标系与全局坐标系相对应的旋转矩阵;基于深度图像信息生成第一全景图像,将第一全景图像映射到三维单位球面上;基于旋转矩阵对三维单位球面进行旋转处理,用以生成第二全景图像;根据第一点云信息和第二全景图像,生成场景空间模型;能够有效减少场景空间模型出现的扭曲现象,能够提高拍摄效率,降低对于拍摄设备的要求,提高场景空间模型的建模效率和准确度;可以给用户呈现更好的VR展示体验,提高客户的使用感受度。
示例性方法
本公开中的步骤标号,例如“步骤一”、“步骤二”、“S101”、“S102”等,仅为了区分不同步骤,不代表步骤之间的先后顺序,具有不同标号的步骤在执行时可以调整顺序。
图1为本公开的场景空间模型的构建方法的一个实施例的流程图,如图1所示的方法包括步骤:S101-S106。下面对各步骤分别进行说明。
S101,获取通过移动式点云采集设备采集的、与目标场景的全景相对应的第一点云信息。
在一个实施例中,目标场景可以为大规模的场景,例如为体育馆、博物馆等。移动式点云采集设备可以为多种,例如为手持式激光扫描仪等,移动式点云采集设备能够采集三维点云信息。
在体育馆、博物馆等目标场景内,用户手持移动式点云采集设备按照正常行走的速度在目标场景内行走,通过移动式点云采集设备采集目标场景内的全景点云信息,即第一点云信息。通过移动式点云采集设备采集的信息缺乏高清的彩色数据,不能提供高分辨率的彩色照片。
S102,获取通过定点式深度摄像设备采集的、与目标场景的部分区域相对应的深度图像信息;其中,深度图像信息包括第二点云信息和对应的图像色彩信息。
在一个实施例中,定点式深度摄像设备可以为多种,例如为深度相机等。在体育馆、博物馆等目标场景内设置各个拍摄点,在各个拍摄点处都安装深度摄像设备,作为定点式深度摄像设备。通过各个定点式深度摄像设备采集目标区域内的深度图像信息,包括第二点云信息和图像色彩信息。通过定点式深度摄像设备能够采集高清的彩色数据,可以提供高分辨率的彩色照片。
S103,基于第一点云信息和第二点云信息,确定定点式深度摄像设备的相机坐标系与全局坐标系相对应的旋转矩阵;其中,全局坐标系为与第一点云信息相对应的坐标系,定点式深度摄像设备的相机坐标系为与定点式深度摄像设备采集的点云数据相对应的坐标系。
在一个实施例中,第一点云信息为与目标场景的全景相对应的全景点云信息,第二点云信息为目标场景内的一部分区域的点云信息。将与第一点云信息对应的坐标系设置全局坐标系,通过确定定点式深度摄像设备在全局坐标系中的旋转矩阵,能够获得定点式深度摄像设备在通过第一点云信息生成的全景模型中的朝向信息。
S104,基于深度图像信息生成第一全景图像,将第一全景图像映射到三维单位球面上。
在一个实施例中,可以使用现有的多种方法将通过各个定点式深度摄像设备采集的深度图像信息拼接为第一全景图像,并将第一全景图像映射到三维单位球面上。
S105,基于旋转矩阵对三维单位球面进行旋转处理,用以生成第二全景图像。
S106,根据第一点云信息和第二全景图像,生成场景空间模型。
在一个实施例中,利用第一点云信息生成全局空间模型,获取深度图像信息中的图像色彩信息。通过将第二点云信息与第一点云信息进行匹配处理,获得定点式深度摄像设备在全景中的三维位置信息,用以将图像色彩信息映射到全局模型中对应的位置处,生成场景空间模型。
上述实施例中的场景空间模型的构建方法,能够融合定点式深度摄像设备和移动式点云采集设备的特点,生成场景空间模型,能够给用户呈现更好的VR展示体验。
图2为本公开的场景空间模型的构建方法的一个实施例中的确定旋转矩阵的流程图,如图2所示的方法包括步骤:S201-S204。下面对各步骤分别进行说明。
S201,将各个定点式深度摄像设备采集的第二点云信息进行拼接处理,生成与目标场景的全景相对应第三点云信息。
在一个实施例中,可以采用现有的多种拼接方法,例如现有的ICP(IterativeClosest Points,迭代最近邻点)算法等,将全部第二点云信息(区域点云信息)进行拼接处理,生成与目标场景的全景相对应第三点云信息(全景点云信息)。
S202,确定定点式深度摄像设备的相机坐标系与第三点云信息相对应的第一定点旋转矩阵。
在一个实施例中,通过ICP算法进行拼接时,能够确定定点式深度摄像设备与第三点云信息相对应的第一定点旋转矩阵。
S203,确定第一点云信息和第二点云信息之间的第二定点旋转矩阵。
在一个实施例中,利用人工定位或点云特征提取,或者通过点云匹配算法等,对第一点云信息和第三点云信息进行匹配处理,用以获取第一点云信息和第二点云信息之间的第二定点旋转矩阵,点云匹配算法包括ICP算法等。
S204,根据第一定点旋转矩阵和第二定点旋转矩阵,确定旋转矩阵。
图3为本公开的场景空间模型的构建方法的另一个实施例中的根据第一定点旋转矩阵和第二定点旋转矩阵确定旋转矩阵的流程图,如图3所示的方法包括步骤:S301-S302。下面对各步骤分别进行说明。
S301,将第一定点旋转矩阵和第二定点旋转矩阵的乘积,作为与定点式深度摄像设备相对应的第三定点旋转矩阵。
S302,使用点云匹配算法并将第三定点旋转矩阵作为初始值,计算旋转矩阵;其中,点云匹配算法包括ICP算法等。
在一个实施例中,用户手持移动式点云采集设备按照正常行走的速度在目标场景内行走,利用移动式点云采集设备采集整个拍摄场景的第一点云信息(记为GlobalCloud)。利用在各个拍摄点处的定点式深度摄像设备,采集目标场景内的一部分区域的深度图像信息,包括第二点云信息(记为subLocalCloud)和图像色彩信息。由于最终不采用定点式深度摄像设备采集的深度图像数据生成场景空间模型,因此,可以多人并行使用定点式深度摄像设备进行拍摄,能够提高拍摄效率,而且每人拍摄的面积不超过一定阈值,可以有效避免拍摄过程中不同点位的拼接误差。
与GlobalCloud相对应的坐标系为全局坐标系,定位每个LocalCloud在GlobalCloud内的旋转矩阵:把在每个拍摄点拍摄的subLocalCloud(第二点云信息)进行拼接,生成LocalCloud,可以获得在每个单独拍摄点位采集的subLocalCloud相对于LocalCloud的旋转矩阵M0(第一定点旋转矩阵)。
利用人工定位或点云特征提取以及ICP算法等,获得LocalCloud针对GlobalCloud的一个旋转矩阵M1(第二定点旋转矩阵)。获得每个单独拍摄点处的定点式深度摄像设备相对与全局坐标系的旋转矩阵M3(第三定点旋转矩阵)=M1*M0。
利用M3作为点云配置算法的初值,例如作为ICP算法等的初值,计算每个拍摄点处的定点式深度摄像设备在GlobalCloud的旋转矩阵M4,基于旋转矩阵M4可以确定每个LocalCloud在GlobalCloud内的旋转矩阵。
例如,旋转矩阵M4如下所示:
R矩阵(旋转矩阵)为:
「R11 R12 R13 R21 R22 R23 R31 R32 R33」;
T向量为:[T1 T2 T3]。
图4为本公开的场景空间模型的构建方法的一个实施例中的生成场景空间模型的流程图,如图4所示的方法包括步骤:S401-S406。下面对各步骤分别进行说明。
S401,通过将第一全景图像中的各个像素进行二维坐标到三维坐标的转换,用以将第一全景图像映射到三维单位球面上。
S402,基于旋转矩阵对三维单位球面进行旋转处理,用以获取第一全景图像的各个像素的新三维坐标。
S403,根据新三维坐标以及各个像素的色彩信息,生成第二全景图像。
在一个实施例中,基于新三维坐标确定第一全景图像的各个像素在三维单位球面上的新位置,将第一全景图像的各个像素的色彩信息添加在新位置,生成第二全景图像。
S404,基于表面重建算法对第一点云信息进行表面重建处理,生成与第一点云信息相对应的网格模型。网格模型可以为多边形网格模型,例如为三角形网格模型、四边形网格模型等。
S405,根据网格模型的网格的位置信息和第二全景图像,生成网格的贴图。
S406,将贴图设置在对应的网格处,生成场景三维空间模型。表面重建算法包括现有的Possion表面重建算法等,网格包括三角形网格、四边形网格等。
在一个实施例中,通过获得旋转矩阵M4,能够确定定点式深度摄像设备在GlobalCloud的位置以及相机的朝向,其中的R矩阵(旋转矩阵)即为相机朝向,T的三个分量即为subLocalClloud(定点式深度摄像设备)在GlobalCloud中的三维位置x,y,z。
基于各个定点式深度摄像设备采集的深度图像信息生成第一全景图像,旋转第一全景图像:把第一全景图像投影到单位球,利用R矩阵旋转单位球,再重投影到全景图,即可获得全局模式下全景图的视角,即获得第二全景图像。可以通过多种方法获得第一全景图像的每个像素的在单位球的三维坐标point3,例如相关的代码如下:
//2d->3d
void Pano2Cloud(int x_,int y_,PointTa point3,int rows,int cols)
{
float X,y,z;
double phi,theta;
phi=(MLPI*y_)/rows;
phi-=(M_PI/2);
y=sin(phi);
theta=(2*M_PI*x_)/cols;
if(theta>=1.5*M_PI){
x=sin(theta)*cos(phi);
z=-Sqrt(l-×*×-y*y);
}
if(theta>=M_PI*0.5&&theta<=1.5*M_PI){
theta-=M_PI;
×=sin(theta)*cos(phi);//
z=sgrt(1-x*×-Y*y);
}else{
theta=-theta;
×=sin(theta)*cos(phi);
z=-sqrt(1-×*x-y*y);
}
point3.x=x;
point3.y=y;
point3.z=z;
}
利用旋转矩阵R,获得第一全景图像的每个像素在旋转以后的新坐标R*point3。使用将第一全景图像投影到单位球的运算方法的逆运算,获得第一全景图像的每个像素在新的全景图中的位置,然后把第一全景图像的每个像素在原位置的彩色RGB信息写到新的位置处,即获得新的第二全景图像。
利用Possion表面重建算法,生成GlobalCloud点云的mesh网格模型,结合第二全景图像,生成mesh网格模型中的各个mesh网格的贴图,完成场景的模型重建,生成场景空间模型。
上述实施例中的场景空间模型的构建方法,有效减少场景空间模型出现的扭曲现象,能够提高拍摄效率,降低对于拍摄设备的要求,提高场景空间模型的建模效率和准确度;可以给用户呈现更好的VR展示体验,提高客户的使用感受度。
示例性装置
在一个实施例中,如图5所示,本公开提供一种场景空间模型的构建装置,包括:第一信息获取模块51、第二信息获取模块52、旋转矩阵确定模块53、全景图像映射模块54、全景图像转换模块55和场景模型生成模块56。
第一信息获取模块51获取通过移动式点云采集设备采集的、与目标场景的全景相对应的第一点云信息。第二信息获取模块52获取通过定点式深度摄像设备采集的、与目标场景的部分区域相对应的深度图像信息;其中,深度图像信息包括第二点云信息和对应的图像色彩信息。
旋转矩阵确定模块53基于第一点云信息和第二点云信息,确定定点式深度摄像设备的相机坐标系与全局坐标系相对应的旋转矩阵;其中,全局坐标系为与第一点云信息相对应的坐标系。全景图像映射模块54基于深度图像信息生成第一全景图像,将第一全景图像映射到三维单位球面上。全景图像转换模块55基于旋转矩阵对三维单位球面进行旋转处理,用以生成第二全景图像。场景模型生成模块56根据第一点云信息和第二全景图像,生成场景空间模型。
在一个实施例中,旋转矩阵确定模块53将各个定点式深度摄像设备采集的第二点云信息进行拼接处理,生成与目标场景的全景相对应第三点云信息。旋转矩阵确定模块53确定定点式深度摄像设备与第三点云信息相对应的第一定点旋转矩阵。旋转矩阵确定模块53确定第一点云信息和第二点云信息之间的第二定点旋转矩阵,根据第一定点旋转矩阵和第二定点旋转矩阵,确定旋转矩阵。
例如,旋转矩阵确定模块53基于预设的点云匹配算法对第一点云信息和第三点云信息进行匹配处理,用以获取第一点云信息和第二点云信息之间的第二定点旋转矩阵,点云匹配算法包括ICP算法等。
旋转矩阵确定模块53将第一定点旋转矩阵和第二定点旋转矩阵的乘积,作为与定点式深度摄像设备相对应的第三定点旋转矩阵。旋转矩阵确定模块53使用点云匹配算法并将第三定点旋转矩阵作为初始值,计算旋转矩阵。
在一个实施例中,全景图像映射模块54通过将第一全景图像中的各个像素进行二维坐标到三维坐标的转换,用以将第一全景图像映射到三维单位球面上。全景图像转换模块55基于旋转矩阵对三维单位球面进行旋转处理,用以获取第一全景图像的各个像素的新三维坐标。全景图像转换模块55根据新三维坐标以及各个像素的色彩信息,生成第二全景图像。
例如,全景图像转换模块55基于新三维坐标确定第一全景图像的各个像素在三维单位球面上的新位置。全景图像转换模块55将第一全景图像的各个像素的色彩信息添加在新位置,生成第二全景图像。
场景模型生成模块56基于表面重建算法对第一点云信息进行表面重建处理,生成与第一点云信息相对应的网格模型。场景模型生成模块56根据网格模型的网格的位置信息和第二全景图像,生成网格的贴图,将贴图设置在对应的网格处,生成场景三维空间模型。
上述实施例中的业务处理装置,有效解决了现有的场景空间模型建立方法容易引入累积误差,导致场景空间模型存在扭曲比较严重的问题;能够提高拍摄效率,降低对于拍摄设备的要求,提高场景空间模型的建模效率和准确度;可以给用户呈现更好的VR展示体验,提高客户的使用感受度。
图6是本公开的电子设备的一个实施例的结构图,如图6所示,电子设备61包括一个或多个处理器611和存储器612。
处理器611可以是中央处理单元(CPU)或者具有数据处理能力和/或指令执行能力的其他形式的处理单元,并且可以控制电子设备61中的其他组件以执行期望的功能。
存储器612可以包括一个或多个计算机程序产品,计算机程序产品可以包括各种形式的计算机可读存储介质,例如易失性存储器和/或非易失性存储器。易失性存储器,例如,可以包括:随机存取存储器(RAM)和/或高速缓冲存储器(cache)等。非易失性存储器,例如,可以包括:只读存储器(ROM)、硬盘以及闪存等。在计算机可读存储介质上可以存储一个或多个计算机程序指令,处理器611可以运行程序指令,以实现上文的本公开的各个实施例的场景空间模型的构建方法以及/或者其他期望的功能。在计算机可读存储介质中还可以存储诸如输入信号、信号分量、噪声分量等各种内容。
在一个示例中,电子设备61还可以包括:输入装置613以及输出装置614等,这些组件通过总线系统和/或其他形式的连接机构(未示出)互连。此外,该输入设备613还可以包括例如键盘、鼠标等等。该输出装置614可以向外部输出各种信息。该输出设备614可以包括例如显示器、扬声器、打印机、以及通信网络及其所连接的远程输出设备等等。
当然,为了简化,图6中仅示出了该电子设备61中与本公开有关的组件中的一些,省略了诸如总线、输入/输出接口等等的组件。除此之外,根据具体应用情况,电子设备61还可以包括任何其他适当的组件。
除了上述方法和设备以外,本公开的实施例还可以是计算机程序产品,其包括计算机程序指令,计算机程序指令在被处理器运行时使得处理器执行本说明书上述“示例性方法”部分中描述的根据本公开各种实施例的场景空间模型的构建方法中的步骤。
计算机程序产品可以以一种或多种程序设计语言的任意组合来编写用于执行本公开实施例操作的程序代码,所述程序设计语言包括面向对象的程序设计语言,诸如Java、C++等,还包括常规的过程式程序设计语言,诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。
此外,本公开的实施例还可以是计算机可读存储介质,其上存储有计算机程序指令,所述计算机程序指令在被处理器运行时使得所述处理器执行本说明书上述“示例性方法”部分中描述的根据本公开各种实施例的场景空间模型的构建方法中的步骤。
所述计算机可读存储介质可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以包括但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列举)可以包括:具有一个或者多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
以上结合具体实施例描述了本公开的基本原理,但是,需要指出的是,在本公开中提及的优点、优势、效果等仅是示例而非限制,不能认为这些优点、优势以及效果等是本公开的各个实施例必须具备的。另外,上述公开的具体细节仅是为了示例的作用和便于理解的作用,而非限制,上述细节并不限制本公开为必须采用上述具体的细节来实现。
上述实施例中的场景空间模型的构建方法、装置以及电子设备、存储介质,能够融合定点式深度摄像设备和移动式点云采集设备的特点,生成场景空间模型,可以减少拍摄过程中不同点位的拼接误差,有效解决了现有的场景空间模型建立方法容易引入累积误差,导致场景空间模型存在扭曲比较严重的问题;能够提高拍摄效率,降低对于拍摄设备的要求,提高场景空间模型的建模效率和准确度;可以给用户呈现更好的VR展示体验,提高客户的使用感受度。
本说明书中各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其它实施例的不同之处,各个实施例之间相同或相似的部分相互参见即可。对于系统实施例而言,由于其与方法实施例基本对应,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
本公开中涉及的器件、装置、设备、系统的方框图仅作为例示性的例子并且不意图要求或暗示必须按照方框图示出的方式进行连接、布置、配置。如本领域技术人员将认识到的,可以按任意方式连接、布置、配置这些器件、装置、设备以及系统。诸如“包括”、“包含、“具有”等等的词语是开放性词汇,指“包括但不限于”,且可与其互换使用。这里所使用的词汇“或”和“和”指词汇“和/或”,且可与其互换使用,除非上下文明确指示不是如此。这里所使用的词汇“诸如”指词组“诸如但不限于”,且可与其互换使用。
可能以许多方式来实现本公开的方法和装置。例如,可通过软件、硬件、固件或者软件、硬件、固件的任何组合来实现本公开的方法和装置。用于所述方法的步骤的上述顺序仅是为了进行说明,本公开的方法的步骤不限于以上具体描述的顺序,除非以其它方式特别说明。此外,在一些实施例中,还可将本公开实施为记录在记录介质中的程序,这些程序包括用于实现根据本公开的方法的机器可读指令。因而,本公开还覆盖存储用于执行根据本公开的方法的程序的记录介质。
还需要指出的是,在本公开的装置、设备和方法中,各部件或各步骤是可以分解和/或重新组合的。这些分解和/或重新组合应视为本公开的等效方案。
提供所公开的方面的以上描述,以使本领域的任何技术人员能够做出或者使用本公开。对这些方面的各种修改等对于本领域技术人员而言,是非常显而易见的,并且在此定义的一般原理可以应用于其他方面,而不脱离本公开的范围。因此,本公开不意图被限制到在此示出的方面,而是按照与在此公开的原理和新颖的特征一致的最宽范围。
为了例示和描述的目的已经给出了以上描述。此外,此描述不意图将本公开的实施例限制到在此公开的形式中。尽管以上已经讨论了多个示例方面以及实施例,但是本领域技术人员将认识到其某些变型、修改、改变、添加和子组合。
Claims (10)
1.一种场景空间模型的构建方法,包括:
获取通过移动式点云采集设备采集的、与目标场景相对应的第一点云信息;
获取通过定点式深度摄像设备采集的、与所述目标场景的部分区域相对应的深度图像信息;其中,所述深度图像信息包括:第二点云信息和对应的图像色彩信息;
基于所述第一点云信息和所述第二点云信息,确定所述定点式深度摄像设备的相机坐标系与全局坐标系相对应的旋转矩阵;其中,所述全局坐标系为与所述第一点云信息相对应的坐标系;
基于所述深度图像信息生成第一全景图像,将所述第一全景图像映射到三维单位球面上;
基于所述旋转矩阵对所述三维单位球面进行旋转处理,用以生成第二全景图像;
根据所述第一点云信息和所述第二全景图像,生成场景空间模型。
2.如权利要求1所述的方法,所述基于所述第一点云信息和所述第二点云信息,确定所述定点式深度摄像设备的相机坐标系与全局坐标系相对应的旋转矩阵包括:
将各个定点式深度摄像设备采集的第二点云信息进行拼接处理,生成与所述目标场景的全景相对应的第三点云信息;
确定所述定点式深度摄像设备的相机坐标系与所述第三点云信息相对应的第一定点旋转矩阵;
确定所述第一点云信息和所述第二点云信息之间的第二定点旋转矩阵;
根据所述第一定点旋转矩阵和所述第二定点旋转矩阵,确定所述旋转矩阵。
3.如权利要求2所述的方法,所述确定所述第一点云信息和所述第二点云信息之间的第二定点旋转矩阵包括:
基于预设的点云匹配算法对所述第一点云信息和所述第三点云信息进行匹配处理,用以获取所述第一点云信息和所述第二点云信息之间的第二定点旋转矩阵;
其中,所述点云匹配算法包括:ICP算法。
4.如权利要求2所述的方法,所述根据所述第一定点旋转矩阵和所述第二定点旋转矩阵,确定所述旋转矩阵包括:
将所述第一定点旋转矩阵和所述第二定点旋转矩阵的乘积,作为与所述定点式深度摄像设备相对应的第三定点旋转矩阵;
使用所述点云匹配算法并将所述第三定点旋转矩阵作为初始值,计算所述旋转矩阵。
5.如权利要求1所述的方法,所述将所述第一全景图像映射到三维单位球面上包括:
通过将所述第一全景图像中的各个像素进行二维坐标到三维坐标的转换,用以将所述第一全景图像映射到三维单位球面上。
6.如权利要求1所述的方法,所述基于所述旋转矩阵对所述三维单位球面进行旋转处理,用以生成第二全景图像包括:
基于所述旋转矩阵对所述三维单位球面进行旋转处理,用以获取所述第一全景图像的各个像素的新三维坐标;
根据所述新三维坐标以及各个像素的色彩信息,生成第二全景图像。
7.如权利要求6所述的方法,所述根据所述新三维坐标以及各个像素的色彩信息,生成第二全景图像包括:
基于所述新三维坐标确定所述第一全景图像的各个像素在所述三维单位球面上的新位置;
将所述第一全景图像的各个像素的色彩信息添加在所述新位置,生成所述第二全景图像。
8.如权利要求1所述的方法,所述根据所述第一点云信息和所述第二全景图像,生成场景空间模型包括:
基于表面重建算法对所述第一点云信息进行表面重建处理,生成与所述第一点云信息相对应的网格模型;
根据所述网格模型的网格的位置信息和所述第二全景图像,生成所述网格的贴图;
将所述贴图设置在对应的所述网格处,生成所述场景三维空间模型。
9.一种场景空间模型的构建装置,包括:
第一信息获取模块,用于获取通过移动式点云采集设备采集的、与目标场景相对应的第一点云信息;
第二信息获取模块,用于获取通过定点式深度摄像设备采集的、与所述目标场景的部分区域相对应的深度图像信息;其中,所述深度图像信息包括:第二点云信息和对应的图像色彩信息;
旋转矩阵确定模块,用于基于所述第一点云信息和所述第二点云信息,确定所述定点式深度摄像设备的相机坐标系与全局坐标系相对应的旋转矩阵;其中,所述全局坐标系为与所述第一点云信息相对应的坐标系;
全景图像映射模块,用于基于所述深度图像信息生成第一全景图像,将所述第一全景图像映射到三维单位球面上;
全景图像转换模块,用于基于所述旋转矩阵对所述三维单位球面进行旋转处理,用以生成第二全景图像;
场景模型生成模块,用于根据所述第一点云信息和所述第二全景图像,生成场景空间模型。
10.一种计算机可读存储介质,其特征在于,所述存储介质存储有计算机程序,所述计算机程序用于执行上述权利要求1-8任一项所述的方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210033988.6A CN114399597B (zh) | 2022-01-12 | 2022-01-12 | 场景空间模型的构建方法、装置以及存储介质 |
PCT/CN2023/070771 WO2023134546A1 (zh) | 2022-01-12 | 2023-01-05 | 场景空间模型的构建方法、装置以及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210033988.6A CN114399597B (zh) | 2022-01-12 | 2022-01-12 | 场景空间模型的构建方法、装置以及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114399597A true CN114399597A (zh) | 2022-04-26 |
CN114399597B CN114399597B (zh) | 2022-10-28 |
Family
ID=81231445
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210033988.6A Active CN114399597B (zh) | 2022-01-12 | 2022-01-12 | 场景空间模型的构建方法、装置以及存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN114399597B (zh) |
WO (1) | WO2023134546A1 (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115861039A (zh) * | 2022-11-21 | 2023-03-28 | 北京城市网邻信息技术有限公司 | 信息展示方法、装置、设备及介质 |
CN116071490A (zh) * | 2022-10-25 | 2023-05-05 | 杭州华橙软件技术有限公司 | 室内空间布局的重构方法及重构装置、电子设备和介质 |
WO2023134546A1 (zh) * | 2022-01-12 | 2023-07-20 | 如你所视(北京)科技有限公司 | 场景空间模型的构建方法、装置以及存储介质 |
CN116485634A (zh) * | 2023-04-10 | 2023-07-25 | 北京城市网邻信息技术有限公司 | 点云展示图生成方法、装置、电子设备及存储介质 |
CN116527663A (zh) * | 2023-04-10 | 2023-08-01 | 北京城市网邻信息技术有限公司 | 信息处理方法、装置、电子设备及存储介质 |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117218244B (zh) * | 2023-11-07 | 2024-02-13 | 武汉博润通文化科技股份有限公司 | 一种基于图像识别的3d动画模型智能生成方法 |
CN117274535B (zh) * | 2023-11-22 | 2024-02-02 | 北京飞渡科技股份有限公司 | 基于点云密度重构实景三维模型的方法、装置及电子设备 |
CN118071940B (zh) * | 2024-04-18 | 2024-09-03 | 山东捷瑞数字科技股份有限公司 | 基于三维引擎的阵列式场景构建方法、系统、设备和介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050128196A1 (en) * | 2003-10-08 | 2005-06-16 | Popescu Voicu S. | System and method for three dimensional modeling |
WO2018119889A1 (zh) * | 2016-12-29 | 2018-07-05 | 深圳前海达闼云端智能科技有限公司 | 三维场景定位方法和装置 |
CN108288292A (zh) * | 2017-12-26 | 2018-07-17 | 中国科学院深圳先进技术研究院 | 一种三维重建方法、装置及设备 |
CN111009002A (zh) * | 2019-10-16 | 2020-04-14 | 贝壳技术有限公司 | 点云配准检测方法、装置以及电子设备、存储介质 |
CN111476907A (zh) * | 2020-04-14 | 2020-07-31 | 青岛小鸟看看科技有限公司 | 基于虚拟现实技术的定位及三维场景重建装置、方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9025861B2 (en) * | 2013-04-09 | 2015-05-05 | Google Inc. | System and method for floorplan reconstruction and three-dimensional modeling |
CN106251399B (zh) * | 2016-08-30 | 2019-04-16 | 广州市绯影信息科技有限公司 | 一种基于lsd-slam的实景三维重建方法及实施装置 |
US20210327119A1 (en) * | 2020-04-17 | 2021-10-21 | Occipital, Inc. | System for Generating a Three-Dimensional Scene Reconstructions |
CN112308778B (zh) * | 2020-10-16 | 2021-08-10 | 香港理工大学深圳研究院 | 一种利用空间三维信息辅助全景相机拼接的方法及终端 |
CN113570721B (zh) * | 2021-09-27 | 2021-12-21 | 贝壳技术有限公司 | 三维空间模型的重建方法、装置和存储介质 |
CN114399597B (zh) * | 2022-01-12 | 2022-10-28 | 贝壳找房(北京)科技有限公司 | 场景空间模型的构建方法、装置以及存储介质 |
-
2022
- 2022-01-12 CN CN202210033988.6A patent/CN114399597B/zh active Active
-
2023
- 2023-01-05 WO PCT/CN2023/070771 patent/WO2023134546A1/zh unknown
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050128196A1 (en) * | 2003-10-08 | 2005-06-16 | Popescu Voicu S. | System and method for three dimensional modeling |
WO2018119889A1 (zh) * | 2016-12-29 | 2018-07-05 | 深圳前海达闼云端智能科技有限公司 | 三维场景定位方法和装置 |
CN108288292A (zh) * | 2017-12-26 | 2018-07-17 | 中国科学院深圳先进技术研究院 | 一种三维重建方法、装置及设备 |
CN111009002A (zh) * | 2019-10-16 | 2020-04-14 | 贝壳技术有限公司 | 点云配准检测方法、装置以及电子设备、存储介质 |
CN111476907A (zh) * | 2020-04-14 | 2020-07-31 | 青岛小鸟看看科技有限公司 | 基于虚拟现实技术的定位及三维场景重建装置、方法 |
Non-Patent Citations (2)
Title |
---|
张津铭: "基于点云的高精度表面三维重构研究与实现", 《中国优秀硕士学位论文全文数据库 (信息科技辑)》 * |
薛瑞: "基于RGB-D数据的点云配准", 《中国优秀硕士学位论文全文数据库 (信息科技辑)》 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023134546A1 (zh) * | 2022-01-12 | 2023-07-20 | 如你所视(北京)科技有限公司 | 场景空间模型的构建方法、装置以及存储介质 |
CN116071490A (zh) * | 2022-10-25 | 2023-05-05 | 杭州华橙软件技术有限公司 | 室内空间布局的重构方法及重构装置、电子设备和介质 |
CN116071490B (zh) * | 2022-10-25 | 2023-06-23 | 杭州华橙软件技术有限公司 | 室内空间布局的重构方法及重构装置、电子设备和介质 |
CN115861039A (zh) * | 2022-11-21 | 2023-03-28 | 北京城市网邻信息技术有限公司 | 信息展示方法、装置、设备及介质 |
CN115861039B (zh) * | 2022-11-21 | 2023-07-25 | 北京城市网邻信息技术有限公司 | 信息展示方法、装置、设备及介质 |
CN116485634A (zh) * | 2023-04-10 | 2023-07-25 | 北京城市网邻信息技术有限公司 | 点云展示图生成方法、装置、电子设备及存储介质 |
CN116527663A (zh) * | 2023-04-10 | 2023-08-01 | 北京城市网邻信息技术有限公司 | 信息处理方法、装置、电子设备及存储介质 |
CN116485634B (zh) * | 2023-04-10 | 2024-04-02 | 北京城市网邻信息技术有限公司 | 点云展示图生成方法、装置、电子设备及存储介质 |
CN116527663B (zh) * | 2023-04-10 | 2024-04-26 | 北京城市网邻信息技术有限公司 | 信息处理方法、装置、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN114399597B (zh) | 2022-10-28 |
WO2023134546A1 (zh) | 2023-07-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114399597B (zh) | 场景空间模型的构建方法、装置以及存储介质 | |
CN107113381B (zh) | 时空局部变形及接缝查找的容差视频拼接方法、装置及计算机可读介质 | |
CN111563950B (zh) | 纹理映射策略确定方法、装置及计算机可读存储介质 | |
CN111008985B (zh) | 全景图拼缝检测方法、装置、可读存储介质及电子设备 | |
CN112489114B (zh) | 图像转换方法、装置、计算机可读存储介质及电子设备 | |
CN111429354B (zh) | 图像拼接及全景图拼接方法和装置、存储介质、电子设备 | |
CN111402404B (zh) | 全景图补全方法、装置、计算机可读存储介质及电子设备 | |
US10354399B2 (en) | Multi-view back-projection to a light-field | |
CN113989376B (zh) | 室内深度信息的获取方法、装置和可读存储介质 | |
US11100617B2 (en) | Deep learning method and apparatus for automatic upright rectification of virtual reality content | |
CN113572978A (zh) | 全景视频的生成方法和装置 | |
CN114640833A (zh) | 投影画面调整方法、装置、电子设备和存储介质 | |
CN113132708B (zh) | 利用鱼眼相机获取三维场景图像的方法和装置、设备和介质 | |
CN114004890B (zh) | 姿态确定方法、装置、电子设备和存储介质 | |
CN111402136A (zh) | 全景图生成方法、装置、计算机可读存储介质及电子设备 | |
CN112950759B (zh) | 基于房屋全景图的三维房屋模型构建方法及装置 | |
CN113034582A (zh) | 位姿优化装置及方法、电子设备及计算机可读存储介质 | |
CN108920598B (zh) | 全景图浏览方法、装置、终端设备、服务器及存储介质 | |
CN116563460A (zh) | 三维重建优化方法及装置、介质、设备 | |
CN115619989A (zh) | 融合效果图生成方法、装置、电子设备及存储介质 | |
CN112184662B (zh) | 应用于无人机图像拼接中的相机外参数初始方法及系统 | |
KR102611481B1 (ko) | 이미지 내의 좌표들 간의 실제 거리를 계산하는 방법 및 장치 | |
CN115761114B (zh) | 视频生成方法、装置及计算机可读存储介质 | |
CN114022619B (zh) | 图像位姿优化方法和装置、设备、存储介质和程序产品 | |
CN111627061B (zh) | 位姿检测方法、装置以及电子设备、存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |