CN117115362B - 一种室内结构化场景三维重建方法 - Google Patents

一种室内结构化场景三维重建方法 Download PDF

Info

Publication number
CN117115362B
CN117115362B CN202311362222.3A CN202311362222A CN117115362B CN 117115362 B CN117115362 B CN 117115362B CN 202311362222 A CN202311362222 A CN 202311362222A CN 117115362 B CN117115362 B CN 117115362B
Authority
CN
China
Prior art keywords
point cloud
dimensional
plane
indoor
coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202311362222.3A
Other languages
English (en)
Other versions
CN117115362A (zh
Inventor
戴忠余
罗洋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chengdu Liangxin Integrated Technology Co ltd
Original Assignee
Chengdu Liangxin Integrated Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chengdu Liangxin Integrated Technology Co ltd filed Critical Chengdu Liangxin Integrated Technology Co ltd
Priority to CN202311362222.3A priority Critical patent/CN117115362B/zh
Publication of CN117115362A publication Critical patent/CN117115362A/zh
Application granted granted Critical
Publication of CN117115362B publication Critical patent/CN117115362B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明公开了一种室内结构化场景三维重建方法,包括同步利用相机和激光雷达进行数据采集,获取室内RGB图像数据以及对应的稀疏激光点云数据;将稀疏激光点云数据输入ransac算法拟合出多个平面方程,分割每个平面对应的像素区域;获取相邻帧RGB图像数据的特征点,基于特征点计算单应矩阵;通过平面方程恢复平面像素点的三维坐标,通过单应矩阵完成三维坐标的匹配;将匹配的三维坐标输入ICP算法计算变换矩阵,根据变换矩阵拼接每帧点云数据,得到带尺度信息的三维模型。本发明方法重建出的模型具备尺度信息,并且仅依靠稀疏激光点云数据实现室内三维重建,对硬件要求较低,有效降低了硬件成本。

Description

一种室内结构化场景三维重建方法
技术领域
本发明属于三维重建技术领域,具体涉及一种室内结构化场景三维重建方法。
背景技术
传统室内三维重建方法中,纯图像三维重建主要通过相机采集图像数据,利用视觉SLAM算法,如ORB-SLAM重建出稀疏点云地图,或是利用SFM算法估计相机位姿,再结合图像匹配算法恢复深度图,重建出稠密点云模型。
激光雷达三维重建主要通过激光雷达设备采集激光点云数据,通过相机采集图像数据,利用激光slam算法,例如Loam重建出稠密点云模型,图像数据用于对点云进行着色。
传统室内三维重建方法存在的缺陷为:纯图像三维重建的模型没有尺度信息,仅能用于观赏,适用范围小;激光雷达三维重建硬件成本高,较难普及。
针对上述传统室内三维重建方法存在的缺陷,本发明提供一种室内结构化场景三维重建方法,使得创建出的模型具备尺度信息,并且所使用硬件成本低,易于普及。
发明内容
本发明要解决的技术问题是:提供一种室内结构化场景三维重建方法,以解决纯图像三维重建模型无尺度信息,以及激光雷达三维重建方法硬件成本高、较难普及的技术问题。
为实现上述目的,本发明采用的技术方案如下:
一种室内结构化场景三维重建方法,包括如下步骤:
步骤1、同步利用相机和激光雷达进行数据采集,获取室内RGB图像数据以及对应的稀疏激光点云数据;
步骤2、将稀疏激光点云数据输入ransac算法拟合出多个平面方程,分割每个平面对应的像素区域;
步骤3、获取相邻帧RGB图像数据的特征点,基于特征点计算单应矩阵;
步骤4、通过平面方程恢复平面像素点的三维坐标,通过单应矩阵完成三维坐标的匹配;
步骤5、将匹配的三维坐标输入ICP算法计算变换矩阵,根据变换矩阵拼接每帧点云数据,得到带尺度信息的三维模型。
进一步地,在步骤1中:步骤11、同步利用相机和激光雷达进行数据采集,相机拍摄室内得到室内RGB图像数据,激光雷达设备多次发射激光至室内并接收室内平面反射激光得到世界坐标系下稀疏激光点云数据;步骤12、通过张正友标定法,得到相机内参矩阵,通过PnP算法标定世界坐标系至相机坐标系的外参矩阵,通过外参矩阵对世界坐标系下稀疏激光点云数据进行转换得到相机坐标系下稀疏激光点云数据。
进一步地,步骤2包括:
步骤21、将相机坐标系下稀疏激光点云数据输入ransac算法循环拟合出多个平面方程,每次循环删除已使用的稀疏点云数据,直到剩下的稀疏点云数据不足以拟合出一个平面方程;
步骤22、将稀疏点云数据通过内参矩阵转换成像素点,计算方法为:
其中,u、v表示像素坐标;Zc表示相机坐标系下的深度值;K表示相机内参矩阵;Tcw表示外参矩阵;Xw、Yw、Zw表示激光点云三维坐标数据。
进一步地,步骤4包括:
步骤41,找到平面方程对应平面的左上角、左下角、右上角和右下角对应的四个像素点,确定出该平面方程对应的像素区域;
步骤42,遍历获取像素区域内所有在这个区域内的像素点的像素坐标,将像素坐标转换为三维坐标;
步骤43,利用单应矩阵对每两帧图像之间像素坐标进行匹配,并将每两帧图像之间的三维坐标进行匹配。
进一步地,步骤42中,将像素坐标转换为三维坐标的计算方法为:
其中,u,v表示图像中像素点的像素坐标;Xc,Yc表示像素坐标转换至相机坐标系下对应的坐标,没有尺度信息;A、B、C是平面方程对应平面的法向量;D是平面方程的已知常数;X,Y,Z表示相机坐标系下的三维坐标,带有尺度信息; cx,cy,fx,fy表示相机内参参数。
进一步地,步骤43中,利用单应矩阵对每两帧图像之间像素坐标进行匹配的方法为:
其中,H表示单应矩阵;u1,v1表示其中一帧图像上的像素点的像素坐标;u2,v2表示另一帧图像上的像素点的像素坐标。
进一步地,步骤3包括:
步骤31:将RGB图像数据输入LoFTR算法得到相邻帧RGB图像数据的特征点;
步骤32:将特征点数据输入opencv算法计算出单应矩阵。
进一步地,步骤5包括:
步骤51:将匹配的三维坐标输入ICP算法计算变换矩阵,得到每帧图像的位姿;
步骤52:利用位姿数据,拼接每帧图像上三维点,得到带尺度的三维模型。
进一步地,所述步骤2中平面方程为:
Ax+By+Cz+D=0;
其中,A、B、C是平面方程对应平面的法向量;D是平面方程的已知常数;x、y、z为激光点云三维坐标变量。
与现有技术相比,本发明具有以下有益效果:
本发明设计科学合理,使用方便,通过相机采集室内平面RGB图像数据,激光雷达采集室内平面稀疏的激光点云数据,并基于所采集的RGB图像数据和稀疏的激光点云数据设计了一种位姿估计算法用于估计每帧RGB图像的相机位姿,基于计算的RGB图像位姿拼接每帧RGB图像上点云数据,得到真实尺度的三维模型。解决了纯图像三维重建的模型没有尺度的问题,并且仅依靠稀疏激光点云数据实现室内三维重建,对硬件要求较低,有效降低了硬件成本。
附图说明
图1为本发明步骤流程图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图,对本发明进一步详细说明。显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在本发明的描述中,需要说明的是,术语“中心”、“上”、“下”、“左”、“右”、“竖直”、“水平”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位或者以特定的方位构造和操作,因此其不能理解为对本发明的限制。此外,术语“第一”、“第二”、“第三”仅用于描述目的,而不能理解为指示或暗示相对重要性。
在本发明的描述中,需要说明的是,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;当然的,还可以是机械连接,也可以是电连接;另外的,还可以是直接相连,也可以是通过中间媒介间接相连,或者可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本发明中的具体含义。
如图1所示,本发明提供的一种室内结构化场景三维重建方法,包括如下步骤:
步骤1、同步利用相机和激光雷达进行数据采集,获取室内RGB图像数据以及对应的稀疏激光点云数据;
步骤2、将稀疏激光点云数据输入ransac算法拟合出多个平面方程,分割每个平面对应的像素区域;
步骤3、获取相邻帧RGB图像数据的特征点,基于特征点计算单应矩阵;
步骤4、通过平面方程恢复平面像素点的三维坐标,通过单应矩阵完成三维坐标的匹配;
步骤5、将匹配的三维坐标输入ICP算法计算变换矩阵,根据变换矩阵拼接每帧点云数据,得到带尺度信息的三维模型。
在一些实施例中,在步骤1中:步骤11、同步利用相机和激光雷达进行数据采集,相机拍摄室内得到室内RGB图像数据,激光雷达设备多次发射激光至室内并接收室内平面反射激光得到世界坐标系下稀疏激光点云数据;步骤12、通过张正友标定法,得到相机内参矩阵,通过PnP算法标定世界坐标系至相机坐标系的外参矩阵,通过外参矩阵对世界坐标系下稀疏激光点云数据进行转换得到相机坐标系下稀疏激光点云数据。
步骤2包括:
步骤21、将相机坐标系下稀疏激光点云数据输入ransac算法循环拟合出多个平面方程,每次循环删除已使用的稀疏点云数据,直到剩下的稀疏点云数据不足以拟合出一个平面方程;
步骤22、将稀疏点云数据通过内参矩阵转换成像素点,计算方法为:
其中,u、v表示像素坐标;Zc表示相机坐标系下的深度值;K表示相机内参矩阵;Tcw表示外参矩阵;Xw、Yw、Zw表示激光点云三维坐标数据,由硬件设备直接测量,带有真实尺度信息。
步骤4包括:
步骤41,找到平面方程对应平面的左上角、左下角、右上角和右下角对应的四个像素点,确定出该平面方程对应的像素区域;
步骤42,遍历获取像素区域内所有在这个区域内的像素点的像素坐标,将像素坐标转换为三维坐标;
步骤43,利用单应矩阵对每两帧图像之间像素坐标进行匹配,并将每两帧图像之间的三维坐标进行匹配。
步骤42中,将像素坐标转换为三维坐标的计算方法为:
其中,u,v表示图像中像素点的像素坐标;Xc,Yc表示像素坐标转换至相机坐标系下对应的坐标,没有尺度信息;A、B、C是平面方程对应平面的法向量;D是平面方程的已知常数;X,Y,Z表示相机坐标系下的三维坐标,带有尺度信息;cx,cy,fx,fy表示相机内参参数。
步骤43中,利用单应矩阵对每两帧图像之间像素坐标进行匹配的方法为:
其中,H表示单应矩阵;u1,v1表示其中一帧图像上的像素点的像素坐标;u2,v2表示另一帧图像上的像素点的像素坐标。
在一些实施例中,步骤3包括:
步骤31:将RGB图像数据输入LoFTR算法得到相邻帧RGB图像数据的特征点;
步骤32:将特征点数据输入opencv算法计算出单应矩阵。
在一些实施例中,步骤5包括:
步骤51:将匹配的三维坐标输入ICP算法计算变换矩阵,得到每帧图像的位姿;
步骤52:利用位姿数据,拼接每帧图像上三维点,得到带尺度的三维模型。
所述平面方程为:
Ax+By+Cz+D=0;
其中,A、B、C是平面方程对应平面的法向量;D是平面方程的已知常数;x、y、z为激光点云三维坐标变量。
最后应说明的是:以上各实施例仅仅为本发明的较优实施例用以说明本发明的技术方案,而非对其限制,当然更不是限制本发明的专利范围;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围;也就是说,但凡在本发明的主体设计思想和精神上作出的毫无实质意义的改动或润色,其所解决的技术问题仍然与本发明一致的,均应当包含在本发明的保护范围之内;另外,将本发明的技术方案直接或间接的运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。

Claims (6)

1.一种室内结构化场景三维重建方法,其特征在于,包括如下步骤:
步骤1、同步利用相机和激光雷达进行数据采集,获取室内RGB图像数据以及对应的稀疏激光点云数据;
步骤2、将稀疏激光点云数据输入ransac算法拟合出多个平面方程,分割每个平面对应的像素区域;
步骤3、获取相邻帧RGB图像数据的特征点,基于特征点计算单应矩阵;
步骤4、通过平面方程恢复平面像素点的三维坐标,通过单应矩阵完成三维坐标的匹配;
步骤5、将匹配的三维坐标输入ICP算法计算变换矩阵,根据变换矩阵拼接每帧点云数据,得到带尺度信息的三维模型;
在步骤1中:步骤11、同步利用相机和激光雷达进行数据采集,相机拍摄室内得到室内RGB图像数据,激光雷达设备多次发射激光至室内并接收室内平面反射激光得到世界坐标系下稀疏激光点云数据;步骤12、通过张正友标定法,得到相机内参矩阵,通过PnP算法标定世界坐标系至相机坐标系的外参矩阵,通过外参矩阵对世界坐标系下稀疏激光点云数据进行转换得到相机坐标系下稀疏激光点云数据;
步骤4包括:
步骤41,找到平面方程对应平面的左上角、左下角、右上角和右下角对应的四个像素点,确定出该平面方程对应的像素区域;
步骤42,遍历获取像素区域内所有在这个区域内的像素点的像素坐标,将像素坐标转换为三维坐标;
步骤43,利用单应矩阵对每两帧图像之间像素坐标进行匹配,并将每两帧图像之间的三维坐标进行匹配;
步骤42中,将像素坐标转换为三维坐标的计算方法为:
其中,u,v表示图像中像素点的像素坐标;Xc,Yc表示像素坐标转换至相机坐标系下对应的坐标,没有尺度信息;A、B、C是平面方程对应平面的法向量;D是平面方程的已知常数;X,Y,Z表示相机坐标系下的三维坐标,带有尺度信息;cx,cy,fx,fy表示相机内参参数。
2.根据权利要求1所述的一种室内结构化场景三维重建方法,其特征在于,步骤2包括:
步骤21、将相机坐标系下稀疏激光点云数据输入ransac算法循环拟合出多个平面方程,每次循环删除已使用的稀疏点云数据,直到剩下的稀疏点云数据不足以拟合出一个平面方程;
步骤22、将稀疏点云数据通过内参矩阵转换成像素点,计算方法为:
其中,u、v表示像素坐标;Zc表示相机坐标系下的深度值;K表示相机内参矩阵;Tcw表示外参矩阵;Xw、Yw、Zw表示激光点云三维坐标数据。
3.根据权利要求1所述的一种室内结构化场景三维重建方法,其特征在于,步骤43中,利用单应矩阵对每两帧图像之间像素坐标进行匹配的方法为:
其中,H表示单应矩阵;u1,v1表示其中一帧图像上的像素点的像素坐标;u2,v2表示另一帧图像上的像素点的像素坐标。
4.根据权利要求1所述的一种室内结构化场景三维重建方法,其特征在于,步骤3包括:
步骤31:将RGB图像数据输入LoFTR算法得到相邻帧RGB图像数据的特征点;
步骤32:将特征点数据输入opencv算法计算出单应矩阵。
5.根据权利要求1所述的一种室内结构化场景三维重建方法,其特征在于,步骤5包括:
步骤51:将匹配的三维坐标输入ICP算法计算变换矩阵,得到每帧图像的位姿;
步骤52:利用位姿数据,拼接每帧图像上三维点,得到带尺度的三维模型。
6.根据权利要求1所述的一种室内结构化场景三维重建方法,其特征在于,所述步骤2中平面方程为:
Ax+By+Cz+D=0;
其中,A、B、C是平面方程对应平面的法向量;D是平面方程的已知常数;x、y、z为激光点云三维坐标变量。
CN202311362222.3A 2023-10-20 2023-10-20 一种室内结构化场景三维重建方法 Active CN117115362B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311362222.3A CN117115362B (zh) 2023-10-20 2023-10-20 一种室内结构化场景三维重建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311362222.3A CN117115362B (zh) 2023-10-20 2023-10-20 一种室内结构化场景三维重建方法

Publications (2)

Publication Number Publication Date
CN117115362A CN117115362A (zh) 2023-11-24
CN117115362B true CN117115362B (zh) 2024-04-26

Family

ID=88793449

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311362222.3A Active CN117115362B (zh) 2023-10-20 2023-10-20 一种室内结构化场景三维重建方法

Country Status (1)

Country Link
CN (1) CN117115362B (zh)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112132972A (zh) * 2020-09-29 2020-12-25 凌美芯(北京)科技有限责任公司 一种激光与图像数据融合的三维重建方法及系统
CN114332348A (zh) * 2021-11-16 2022-04-12 西南交通大学 一种融合激光雷达与图像数据的轨道三维重建方法
CN114782636A (zh) * 2022-05-17 2022-07-22 江苏集萃深度感知技术研究所有限公司 三维重建方法、装置及系统
CN115187676A (zh) * 2022-08-03 2022-10-14 重庆中科摇橹船信息科技有限公司 一种高精度线激光三维重建标定方法
CN115984512A (zh) * 2023-03-22 2023-04-18 成都量芯集成科技有限公司 一种平面场景三维重建装置及方法
CN116051650A (zh) * 2022-12-20 2023-05-02 际络科技(上海)有限公司 激光雷达与相机联合的外部参数标定方法及装置
WO2023178729A1 (zh) * 2022-03-24 2023-09-28 香港大学深圳研究院 一种基于bim和视频监控的博物馆参观分析的方法及系统
CN116824067A (zh) * 2023-08-24 2023-09-29 成都量芯集成科技有限公司 一种室内三维重建方法及其装置
CN116883588A (zh) * 2023-06-16 2023-10-13 湖南大学 一种大场景下的三维点云快速稠密重建方法及系统

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112132972A (zh) * 2020-09-29 2020-12-25 凌美芯(北京)科技有限责任公司 一种激光与图像数据融合的三维重建方法及系统
CN114332348A (zh) * 2021-11-16 2022-04-12 西南交通大学 一种融合激光雷达与图像数据的轨道三维重建方法
WO2023178729A1 (zh) * 2022-03-24 2023-09-28 香港大学深圳研究院 一种基于bim和视频监控的博物馆参观分析的方法及系统
CN114782636A (zh) * 2022-05-17 2022-07-22 江苏集萃深度感知技术研究所有限公司 三维重建方法、装置及系统
CN115187676A (zh) * 2022-08-03 2022-10-14 重庆中科摇橹船信息科技有限公司 一种高精度线激光三维重建标定方法
CN116051650A (zh) * 2022-12-20 2023-05-02 际络科技(上海)有限公司 激光雷达与相机联合的外部参数标定方法及装置
CN115984512A (zh) * 2023-03-22 2023-04-18 成都量芯集成科技有限公司 一种平面场景三维重建装置及方法
CN116883588A (zh) * 2023-06-16 2023-10-13 湖南大学 一种大场景下的三维点云快速稠密重建方法及系统
CN116824067A (zh) * 2023-08-24 2023-09-29 成都量芯集成科技有限公司 一种室内三维重建方法及其装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Hybrid3D: learning 3D hybrid features with point clouds and multi-view images for point cloud registration;Bangbang YANG 等;《Science China Information Sciences 》;20230731;第66卷;172101:1–172101:17 *
基于三维重建的船舶合拢管测量技术;张洪瑞 等;《武汉理工大学学报(交通科学与工程版)》;20220926;第47卷(第6期);1083-1088 *

Also Published As

Publication number Publication date
CN117115362A (zh) 2023-11-24

Similar Documents

Publication Publication Date Title
US10764559B2 (en) Depth information acquisition method and device
CN111080724B (zh) 一种红外和可见光的融合方法
KR101666959B1 (ko) 카메라로부터 획득한 영상에 대한 자동보정기능을 구비한 영상처리장치 및 그 방법
CN112367514B (zh) 三维场景构建方法、装置、系统和存储介质
CN106023303B (zh) 一种基于轮廓有效性提高三维重建点云稠密程度的方法
CN111023970A (zh) 多模式三维扫描方法及系统
CN114399554B (zh) 一种多相机系统的标定方法及系统
CN108474658B (zh) 地面形态检测方法及系统、无人机降落方法和无人机
CN106705849B (zh) 线结构光传感器标定方法
WO2021203883A1 (zh) 三维扫描方法、三维扫描系统和计算机可读存储介质
CN108629829B (zh) 一种球幕相机与深度相机结合的三维建模方法和系统
CN110567441B (zh) 基于粒子滤波的定位方法、定位装置、建图及定位的方法
CN110349257B (zh) 一种基于相位伪映射的双目测量缺失点云插补方法
CN115035235A (zh) 三维重建方法及装置
CN110738731A (zh) 一种用于双目视觉的3d重建方法和系统
CN111787303B (zh) 三维图像的生成方法、装置、存储介质及计算机设备
JP7432793B1 (ja) 三次元点群に基づくマッピング方法、装置、チップ及びモジュール機器
CN116824067B (zh) 一种室内三维重建方法及其装置
CN110909571B (zh) 一种高精度面部识别空间定位方法
CN111325828A (zh) 一种基于三目相机的三维人脸采集方法及装置
CN112017259B (zh) 一种基于深度相机与热像仪的室内定位与建图方法
CN117115362B (zh) 一种室内结构化场景三维重建方法
CN112991457A (zh) 手术导航中投影仪空间位置和内外参标定方法、装置
CN116801115A (zh) 一种稀疏阵列相机部署方法
CN116205961A (zh) 多镜头组合影像和激光雷达点云的自动配准方法及其系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant