CN108470370A - 三维激光扫描仪外置相机联合获取三维彩色点云的方法 - Google Patents
三维激光扫描仪外置相机联合获取三维彩色点云的方法 Download PDFInfo
- Publication number
- CN108470370A CN108470370A CN201810258573.2A CN201810258573A CN108470370A CN 108470370 A CN108470370 A CN 108470370A CN 201810258573 A CN201810258573 A CN 201810258573A CN 108470370 A CN108470370 A CN 108470370A
- Authority
- CN
- China
- Prior art keywords
- dimensional
- image
- point
- camera
- laser scanner
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 82
- 238000013507 mapping Methods 0.000 claims abstract description 18
- 230000004927 fusion Effects 0.000 claims abstract description 10
- 239000011159 matrix material Substances 0.000 claims description 32
- 238000000265 homogenisation Methods 0.000 claims description 11
- 238000000354 decomposition reaction Methods 0.000 claims description 9
- 230000003287 optical effect Effects 0.000 claims description 9
- 238000012545 processing Methods 0.000 claims description 8
- 238000005286 illumination Methods 0.000 claims description 6
- 238000000513 principal component analysis Methods 0.000 claims description 6
- 238000007500 overflow downdraw method Methods 0.000 claims description 5
- 230000008569 process Effects 0.000 description 8
- 238000004422 calculation algorithm Methods 0.000 description 7
- 230000008901 benefit Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 230000005855 radiation Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000002474 experimental method Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000001914 filtration Methods 0.000 description 3
- 238000013178 mathematical model Methods 0.000 description 3
- 241000208340 Araliaceae Species 0.000 description 2
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 description 2
- 235000003140 Panax quinquefolius Nutrition 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 235000008434 ginseng Nutrition 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 241001269238 Data Species 0.000 description 1
- 239000000654 additive Substances 0.000 description 1
- 230000000996 additive effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 235000005770 birds nest Nutrition 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000010411 cooking Methods 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000012847 principal component analysis method Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 235000002020 sage Nutrition 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 238000009987 spinning Methods 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 230000009897 systematic effect Effects 0.000 description 1
- HOWHQWFXSLOJEF-MGZLOUMQSA-N systemin Chemical compound NCCCC[C@H](N)C(=O)N[C@@H](CCSC)C(=O)N[C@@H](CCC(N)=O)C(=O)N[C@@H]([C@@H](C)O)C(=O)N[C@@H](CC(O)=O)C(=O)OC(=O)[C@@H]1CCCN1C(=O)[C@H]1N(C(=O)[C@H](CC(O)=O)NC(=O)[C@H](CCCN=C(N)N)NC(=O)[C@H](CCCCN)NC(=O)[C@H](CO)NC(=O)[C@H]2N(CCC2)C(=O)[C@H]2N(CCC2)C(=O)[C@H](CCCCN)NC(=O)[C@H](CO)NC(=O)[C@H](CCC(N)=O)NC(=O)[C@@H](NC(=O)[C@H](C)N)C(C)C)CCC1 HOWHQWFXSLOJEF-MGZLOUMQSA-N 0.000 description 1
- 108010050014 systemin Proteins 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 239000011800 void material Substances 0.000 description 1
- 235000005765 wild carrot Nutrition 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/04—Texture mapping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2135—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Abstract
本发明公开了一种三维激光扫描仪外置相机联合获取三维彩色点云的方法,通过在三维激光扫描仪上外置相机,实现由三维激光扫描仪得到的全景三维点云与相机拍摄的多张影像的多源数据融合,从而得到三维彩色点云,其采用三维激光扫描仪和外置相机进行联合标定,并建立三维全景点云与多张影像的几何对应关系,实现全景影像与三维激光点云的纹理映射,获取具有丰富纹理信息的彩色点云,且精度和效率显著优于现有的获取方法。
Description
技术领域
本发明涉及图像三维信息重构的技术领域,特别涉及一种三维激光扫描仪外置相机联合获取三维彩色点云的方法。
背景技术
三维激光扫描技术作为快速获取场景表面三维信息的手段,正以其独有的优势广泛地应用于虚拟现实、逆向工程、历史遗迹保护等众多行业领域,具有十分广阔的应用前景。而数码影像作为丰富几何信息和表面纹理信息的数据载体,与点云数据是两种跨模态的异源数据,两种数据结合可以充分发挥各自的优势,实现复杂对象的精细化三维重建。
针对如何获取带有丰富纹理信息的全景三维点云的问题,现有方法主要有以下几种:
1、利用SIFT特征对影像序列进行匹配,然后利用“从运动中恢复结构”算法恢复稀疏的三维点云,最后将由数码影像生成的彩色密集点云与激光点云进行配准,得到带有纹理信息的全景彩色点云。该方法自动化程度较高,可以充分利用多张影像的纹理信息,且精度高,但该算法效率低下:对长城拍摄120张影像进行处理,需要花费将近3小时;对巴黎圣母院拍摄2635张影像进行处理,需要花费12天之久。该方法基于影像匹配精确寻找像对同名点,并生成密集彩色点云,因此对数码影像质量有较高的要求,算法运行时间主要消耗在影像匹配与光束法平差,重建精度较高,但效率较低。
2、全景影像序列与点云的整体配准方法,直接利用全景成像数学模型,对全景影像序列进行SFM,得到彩色密集点云,将其与激光点云进行ICP配准,从而得到具有纹理信息的彩色点云。
3、利用点云生成的全景强度影像与光学影像在互信息衡量标准的基础上对两者进行配准的方法,然而对于影响点云强度图像灰度值的因素很多,因此将点云全景强度影像像素点作为配准基元难度较大,而且点云全景强度影像与光学影像的成像原理不同,SIFT,SURF等特征监测算子不易获取正确特征点,因此难以与数码影像进行配准。
4、利用互信息对车载激光点云和全景影像进行配准。
5、将多张CCD数码影像拼接成全景影像,并且根据中心投影成像原理将全景影像转化为全景球面点云,在全景影像与三维激光扫描点云上建立对应控制点,使用罗德里格矩阵进行配准,得到彩色全景点云,但由于数码影像拼接需要进行影像匹配,因此影像分辨率越高,影像拼接效率越低,而且得到的全景影像易产生畸变,对后续纹理映射的精度产生较大影响。
发明内容
本发明的一个目的是解决至少上述问题,并提供至少后面将说明的优点。
本发明还有一个目的是提供一种三维激光扫描仪外置相机联合获取三维彩色点云的方法,采用三维激光扫描仪和外置相机进行联合标定,并建立三维全景点云与多张影像的几何对应关系,实现全景影像与三维激光点云的纹理映射,获取具有丰富纹理信息的彩色点云,且精度和效率显著优于现有的获取方法。
为了实现根据本发明的这些目的和其它优点,提供了一种三维激光扫描仪外置相机联合获取三维彩色点云的方法,通过在三维激光扫描仪上外置相机,实现由三维激光扫描仪得到的全景三维点云与相机拍摄的多张影像的多源数据融合,从而得到三维彩色点云,主要包括以下步骤:
步骤1、三维激光扫描仪携相机水平旋转一周,得到由所述三维激光扫描仪扫描的全景三维点云,以及由所述相机拍摄的多张影像;
步骤2、在拍摄对象上选取控制点,并分别求取所述控制点在相机坐标系下的坐标值,以恢复全景三维点云与影像之间的映射关系;
步骤3、由步骤2得到的坐标值求得影像中初始影像在世界坐标系中的位置姿态参数;
步骤4、由步骤3得到的位置姿态参数得到除初始影像外的其余影像在世界坐标系中的外参数;
步骤5、根据得到的位置姿态参数以及外参数按照步骤2得到的映射关系将影像映射到全景三维点云上,即得到所述拍摄对象的三维彩色点云。
优选的是,所述的三维激光扫描仪外置相机联合获取三维彩色点云的方法中,所述相机为固定焦距的高分辨率的数码相机。
优选的是,所述的三维激光扫描仪外置相机联合获取三维彩色点云的方法中,所述步骤2中通过将多个所述控制点转换为多个虚拟控制点的权重之和来求取控制点在相机坐标系以及世界坐标系下的坐标值,具体如公式1和2所示:
其中,Pi w为所述控制点在世界坐标系中的坐标;Pi c为所述控制点在相机坐标系中的坐标;aij为每个所述控制点用虚拟控制点表示的权重;ci w为所述虚拟控制点在世界坐标系中的坐标;为所述虚拟控制点在相机坐标系中的坐标;i为所述控制点的个数。
优选的是,所述的三维激光扫描仪外置相机联合获取三维彩色点云的方法中,所述虚拟控制点的权重采用主成分分析法进行得到,具体步骤为:
步骤A、采用公式3求取控制点Pi w的质心作为第1个虚拟控制点的坐标值;
其中,Pc为所述控制点的质心;n为所述控制点的个数;
步骤B、采用奇异值分解法分解由所述控制点Pi w按列组成的矩阵变换得到的协方差矩阵,得到所述协方差矩阵的奇异值,以及与所述奇异值对应的右奇异向量;
步骤C、将步骤B得到的奇异值和右奇异向量带入公式4中,得到除外的其余虚拟控制点的坐标值;
其中,σi为奇异值;vi为与所述奇异值对应的右奇异值;
步骤D、根据求得的各个虚拟控制点的坐标值得到相应的各个虚拟控制点的权重。
优选的是,所述的三维激光扫描仪外置相机联合获取三维彩色点云的方法中,所述步骤3中的位置姿态参数包括相机坐标系与世界坐标系之间的旋转矩阵R,以及平移向量t。
优选的是,所述的三维激光扫描仪外置相机联合获取三维彩色点云的方法中,所述步骤4中除初始影像外的其余影像在世界坐标系中的外参数是根据所述初始影像在世界坐标系中的位置姿态参数按照空间向量旋转法则得到的。
优选的是,所述的三维激光扫描仪外置相机联合获取三维彩色点云的方法中,通过判断相机中心和全景三维点云之间的方向向量与相机主光轴间的夹角来区别所述相机主光轴的直线上同时出现的两张影像;
其中,若所述夹角小于90度,则判断相应的影像在三维激光扫描仪的前方,并获取影像的RGB色彩信息;
若所述夹角大于90度,则判断相应的影像在三维激光扫描仪的后方,并将影像舍弃。
优选的是,所述的三维激光扫描仪外置相机联合获取三维彩色点云的方法中,所述步骤1中还包括对所述影像的匀光匀色处理;所述匀光匀色处理采用如下公式5描述的Mask匀光处理方法:
I′(x,y)=I(x,y)+B(x,y) 公式5,
其中,I′(x,y)代表原始影像;I(x,y)为希望得到的光照均匀的图像;B(x,y)为背景影像。
优选的是,所述的三维激光扫描仪外置相机联合获取三维彩色点云的方法中,所述步骤1中对匀光匀色处理后对得到的影像还采用线性融合方法进行接缝处理,以消除相邻影像间的色彩差异。
本发明至少包括以下有益效果:
本发明采用三维激光扫描仪获取点云数据的同时外置数码相机,使相机随扫描仪水平旋转一周拍摄多张影像,进行联合标定,求取每张影像相对于世界坐标系的绝对位置姿态,从而为三维全景点云与多张影像建立几何对应关系,实现全景影像与三维激光点云的纹理映射,获取具有丰富纹理信息的彩色点云,为后续利用点云进行精细化建模提供生动的纹理信息。相较于目前其他全景影像与三维点云数据的融合方法,本发明所述的方法在精度与效率上都具有明显优势。
本发明的其它优点、目标和特征将部分通过下面的说明体现,部分还将通过对本发明的研究和实践而为本领域的技术人员所理解。
附图说明
图1为本发明所述的三维激光扫描仪外置相机联合获取三维彩色点云的方法的流程图;
图2为本发明所述的相机与三维激光扫描仪共轴模型;
图3为本发明所述的相机透视投影模型;
图4为本发明所述的控制点主成分分析原理图;
图5为本发明所述的外置相机旋转示意图;
图6为本发明所述的线性拉伸示意图;
图7为采用本发明所述的方法和UPnP、DLT、Gao's P3P法的运算时间对比图;
图8为采用本发明所述的方法和UPnP、DLT、Gao's P3P法的反投影误差对比图。
具体实施方式
下面结合附图对本发明做进一步的详细说明,以令本领域技术人员参照说明书文字能够据以实施。
应当理解,本发明所使用的诸如“具有”、“包含”以及“包括”术语并不配出一个或多个其它元件或其组合的存在或添加。
如图1所示,本发明提供一种三维激光扫描仪1外置相机2联合获取三维彩色点云的方法,通过在三维激光扫描仪1上外置相机2,实现由三维激光扫描仪1得到的全景三维点云与相机2拍摄的多张影像的多源数据融合,从而得到三维彩色点云,主要包括以下步骤:
步骤1、三维激光扫描仪1携相机2水平旋转一周,得到由所述三维激光扫描仪1扫描的全景三维点云,以及由所述相机2拍摄的多张影像;
步骤2、在拍摄对象上选取控制点,并分别求取所述控制点在相机坐标系下的坐标值,以恢复全景三维点云与影像之间的映射关系;
步骤3、由步骤2得到的坐标值求得影像中初始影像在世界坐标系中的位置姿态参数;
步骤4、由步骤3得到的位置姿态参数得到除初始影像外的其余影像在世界坐标系中的外参数;
步骤5、根据得到的位置姿态参数以及外参数按照步骤2得到的映射关系将影像映射到全景三维点云上,即得到所述拍摄对象的三维彩色点云。
在上述方案中,采用三维激光扫描仪获取点云数据的同时外置数码相机,使相机随扫描仪水平旋转一周拍摄多张影像,进行联合标定,求取每张影像相对于世界坐标系的绝对位置姿态,从而为三维全景点云与多张影像建立几何对应关系,实现全景影像与三维激光点云的纹理映射,获取具有丰富纹理信息的彩色点云,为后续利用点云进行精细化建模提供生动的纹理信息。相较于目前其他全景影像与三维点云数据的融合方法,本发明所述的方法在精度与效率上都具有明显优势。
一个优选方案中,所述相机为固定焦距的高分辨率的数码相机。
在上述方案中,通过设置相机为固定焦距的高分辨率的数码相机,使得内参数可以视为已知,且能够将影像的畸变忽略不计,并与三维激光扫描仪的初始相对姿态固定,从而便于后续求取每张影像相对于世界坐标系的绝对位置姿态,并提高了获取的三维彩色点云的精度。
一个优选方案中,所述步骤2中通过将多个所述控制点转换为多个虚拟控制点的权重之和来求取控制点在相机坐标系以及世界坐标系下的坐标值,具体如公式1和2所示:
其中,Pi w为所述控制点在世界坐标系中的坐标;Pi c为所述控制点在相机坐标系中的坐标;aij为每个所述控制点用虚拟控制点表示的权重;为所述虚拟控制点在世界坐标系中的坐标;为所述虚拟控制点在相机坐标系中的坐标;i为所述控制点的个数。
在上述方案中,对控制点对进行处理,通过将多个控制点转换为几个虚拟控制点的权重之和,求取控制点在相机坐标系下的坐标,继而恢复2D-3D之间的映射关系。
一个优选方案中,所述虚拟控制点的权重采用主成分分析法进行得到,具体步骤为:
步骤A、采用公式3求取控制点Pi w的质心作为第1个虚拟控制点的坐标值;
其中,Pc为所述控制点的质心;n为所述控制点的个数;
步骤B、采用奇异值分解法分解由所述控制点Pi w按列组成的矩阵变换得到的协方差矩阵,得到所述协方差矩阵的奇异值,以及与所述奇异值对应的右奇异向量;
步骤C、将步骤B得到的奇异值和右奇异向量带入公式4中,得到除外的其余虚拟控制点的坐标值;
其中,σi为奇异值;vi为与所述奇异值对应的右奇异值;
步骤D、根据求得的各个虚拟控制点的坐标值得到相应的各个虚拟控制点的权重。
一个优选方案中,所述步骤3中的位置姿态参数包括相机坐标系与世界坐标系之间的旋转矩阵R,以及平移向量t。
一个优选方案中,所述步骤4中除初始影像外的其余影像在世界坐标系中的外参数是根据所述初始影像在世界坐标系中的位置姿态参数按照空间向量旋转法则得到的。
一个优选方案中,通过判断相机中心和全景三维点云之间的方向向量与相机主光轴间的夹角来区别所述相机主光轴的直线上同时出现的两张影像。
其中,若所述夹角小于90度,则判断相应的影像在三维激光扫描仪的前方,并获取影像的RGB色彩信息。
若所述夹角大于90度,则判断相应的影像在三维激光扫描仪的后方,并将影像舍弃。
在上述方案中,在相机进行水平旋转一周获取多张影像时,在过相机主光轴的直线上会同时出现两张影像,若不对其相对于扫描仪中心的前后关系进行判别,则会得到错误的纹理信息。因此通过判断相机中心与点云的之间的方向向量与相机主光轴即Z轴的夹角来区别扫描仪前后两张影像:若夹角小于90度,则该三维点在扫描仪前方,直接通过相机透视投影模型获取其RGB信息;若夹角大于90,则舍弃。
一个优选方案中,所述步骤1中还包括对所述影像的匀光匀色处理;所述匀光匀色处理采用如下公式5描述的Mask匀光处理方法:
I′(x,y)=I(x,y)+B(x,y) 公式5,
其中,I′(x,y)代表原始影像;I(x,y)为希望得到的光照均匀的图像;B(x,y)为背景影像。
在上述方案中,经过匀光处理后的各张数码影像辐射亮度值已经被统一,在后续纹理映射过程中,每个点云按照相机投影模型利用相机的内外参数解算三维点云投影在影像上的坐标并获取其RGB值,为点云附上纹理信息。
一个优选方案中,所述步骤1中对匀光匀色处理后对得到的影像还采用线性融合方法进行接缝处理,以消除相邻影像间的色彩差异。
在上述方案中,在实际拍摄状况下,相邻影像间必然具有一定的重叠度(本申请中为0.5)。根据透视投影原理,在重叠区域内同一个点云就可以投影到相邻的多张影像上去。虽然经过匀光和辐射纠正后的各个数码影像有着相同的亮度变化趋势,但同名点仍难免会有一定的色彩差异,实际效果中表现为色彩接缝,因而通过线性融合的方法消除相邻影像间的色彩差异。
具体计算过程
1、相机模型
本发明所述方法使用的几何数学模型如图2所示。世界坐标系为左手坐标系,原点为Ow,坐标轴朝向分别用Xw,Yw,Zw表示,坐标轴之间两两垂直;相机坐标系为左手坐标系,坐标轴原点Oc为摄影中心,三轴朝向分别Xc,Yc,Zc,世界坐标系原点Ow在相机坐标系下的坐标即为待求的平移矩阵t:
t=[Xs Ys Zs] 公式6
任意物方控制点Pi(i=1,2,···,n)在世界坐标系下的坐标为Pi w,在相机坐标系下的坐标为Pi c,用齐次矢量可以表示为
影像坐标系为笛卡尔直角坐标系,其原点在影像左上角O0,坐标轴u,v分别平行于影像扫描行列,u0、v0为影像中心点坐标。Pi在图像坐标系中的投影为
pi=(ui,vi)(i=1,2....n) 公式9
ui、vi均以像素为单位。由针孔相机透视模型的几何关系得
其中dx、dy为每个像素在u,v方向的物理长度,写为矩阵形式为:
此式表达了影像物理坐标与像素坐标之间的相互转换关系。同时,根据相似三角形原理,可以得到三维场景中任意点Pi的相机坐标与其影像物理坐标之间的转换关系:
写成矩阵形式为:
另外,三维点Pi的相机坐标与世界坐标之间有如下关系:
其中R、t即为相机外参数标定中所要求取的未知量,包含了世界坐标系在相机坐标系中的旋转角度与平移量。综合上述几式,可以得到三维点坐标与其投影在影像上的像素坐标之间的转换关系:
其中,K为相机内参数矩阵,P为相机矩阵,包含相机内参数矩阵与外参数矩阵,本发明假设相机内参数矩阵已知,相机透视投影模型如图3所示。
2、控制点主成分分析
本发明首先对控制点对进行处理,通过将多个控制点转换为几个虚拟控制点的权重之和,求取控制点在相机坐标系下的坐标,继而恢复2D-3D之间的映射关系。因此,虚拟控制点的选取成为关键问题。算法原理如图4所示。
若已知n对2D-3D控制点,其在世界坐标系中的坐标记为
在相机坐标系中的坐标记为:
同时,选取的四个虚拟控制点在相机坐标系与世界坐标系中的坐标分别记为:
因此可以利用虚拟控制点的权重和来表示其对应坐标系中的控制点坐标,分别为:
其中aij即为每个3D控制点用虚拟控制点表示的权重。首先利用主成分分析法(PCA)确定四个虚拟控制点在世界坐标系下的坐标,即主成分分析是一种统计方法,通过正交变换将一组可能存在相关性的变量转换成一组不相关的变量,同时得到的这组不相关的变量能最大程度反映原变量所代表的信息。本发明采用主成分分析法确定虚拟控制点。求解步骤总结如下:
(1)求取所有控制点Pi w的质心作为第一个虚拟控制点
(2)将控制点Pi w按列组成n行m列矩阵M,求取每一列的均值。
(3)将M的每一行进行零值化,即减去这一列的均值。
(4)求出M的协方差矩阵
(5)利用SVD分解协方差矩阵C=U∑VT。其中∑中对角线上的元素σ1,σ2,σ3为矩阵C的奇异值,组成VT的列向量v1,v2,v3分别为奇异值对应的右奇异向量。
(6)利用求得的奇异值与奇异向量求取其余控制点
在求得4个虚拟控制点后,即可求得每个控制点的权重系数aij。将公式19展开得
另有
1=αi1+αi2+αi3+αi4 公式22
联立即可解得aij。
3、求解相机坐标系虚拟控制点
对于每一个控制点,将公式19带入公式13中,可得到如下关系:
其中,展开得:
写成矩阵形式后提取系数矩阵记为M2n×12,虚拟控制点在相机坐标系中的坐标组成12行1列的未知数矩阵X12×1,有方程:
M2n×12X12×1=0 公式25
当n≥6时,方程组为超定方程组,有唯一解。当n<6时,方程组为欠定方程组,有无数个解,M2n×12的零空间即为方程组解的集合。由于直接对M2n×12进行SVD分解的时间复杂度为O(n3),而对M2n×12 TM2n×12进行SVD分解的时间复杂度为O(n),因此本发明采用对矩阵MTM12×12进行SVD分解求取其右奇异向量V来求解公式25。
当n≤6时,矩阵M2n×12的零空间记为MTM12×12的右奇异向量的线性组合:
式中Vj为MTM12×12零奇异值所对应的奇异向量;N是MTM12×12零空间的维数,根据虚拟控制点个数知N可取值1,2,3,4;δj为Vj的系数,未知。由于相机坐标系与世界坐标系均为三维笛卡尔直角坐标系,则虚拟控制点之间的矩阵在两个坐标系中是相等的。据此,有如下约束关系:
将公式26带入公式27得:
则4个虚拟控制点可以列出个方程。下文考虑N取值不同时如何求解δj。
当N=1时,有X12×1=δ1V1。只有一个未知数δj,则有封闭解:
当N=2时,公式26展开得:
X12×1=δ1V1+δ2V2 公式30
带入公式27中,方程组中有三个未知量:δ11=δ1 2,δ12=δ1δ2,因为有4个虚拟控制点,可以列出6个上述线性方程,即可组成超定方程组:
L6×3δ3×1=ρ6×1 公式31
利用最小二乘法进行迭代计算即可求得方程未知数δ3×1。
当N=3时,6个距离约束条件可以列出超定方程组:
L6×6δ6×1=ρ6×1 公式32
直接对L6×6求逆即可解得未知数。
当N=4时,可列出线性方程组
L6×10δ10×i=ρ6×1 公式33
然而此方程组的未知数个数大于方程个数,属于欠定方程组,展开后未知数向量δ有10个元素,然而实际上真正的未知数个数只有4个,即:
δ=(δ1,δ2,δ3,δ4)T 公式34
因此,本发明采用未知数子集近似约束的方法求解。即在δ的10个元素中,只选取δ11,δ22,δ33,δ44作为未知数进行求解,此时公式34变为超定方程组,利用最小二乘法或奇异值分解均可进行求解。
上述解法求得的未知数δ=(δ1,δ2,δ3,δ4)T由于精度较低,需要进行优化以提高精度。本发明采用高斯牛顿法将上述解法求得的未知数值作为初始值,通过最小化相机坐标系与世界坐标系中虚拟控制点两两之间的距离差值进行迭代优化,求得最终的系数向量δ,可表示为式:
将上文求得的δ作为初始值δ0带入,对δ求导并变形得:
Error′(δ)Δδ=-Error(δ0)=ρ-Lδ0 公式36
4个虚拟控制点可得到6个距离约束,即可得线性方程组
A6×4x4×1=b6×1 公式37
随后对A6×4进行QR分解,得未知数:
x4×1=R-1Q-1b 公式38
最后进行迭代即可求得系数δj。
4、绝对定向求解相机姿态
在求得了每个控制点与虚拟控制点的权重系数aij与矩阵M2n×12零空间的线性组合系数δ=(δ1,δ2,δ3,δ4)T后,即可恢复虚拟控制点在相机坐标系中的坐标结合公式19即可求得三维控制点在相机坐标系中的坐标Pi c。同时,三维控制点在世界坐标系下的坐标已知,则相机姿态可采用Horn的绝对定向法求出。
首先需分别计算三维控制点在相机坐标系与世界坐标系下的重心,即
然后将所有控制点重心化,即
接着计算矩阵H,
最后对矩阵H进行SVD分解得到H=U∑VT,则相机坐标系与世界坐标系之间的旋转矩阵R,平移向量t可根据下式求得:
5、多像外参数解算
多像外参数解算的目的在于利用初始影像的位置姿态求取其余影像的外参数。若其中一张影像的安置参数已由上述位姿估计方法求得,那么其余影像的姿态就可以根据影像数据采集的特点依次按照空间向量旋转法则直接获取。
如图2所示,假定仪器装配没有误差,即相机坐标系原点与仪器坐标系(世界坐标系)原点的连线与轴重合,相机旋转过程中只改变各个相机的朝向,旋转过程中相机坐标系与世界坐标值之间的平移量没有发生改变,即
上式中m为相机模型数量。外置数码相机旋转模型如图5所示。假设经过位姿估计的影像为IMGA,所求旋转矩阵为Ra,由IMGA经过顺次旋转所得影像依次为IMGB、IMGC,它们在世界坐标系下的旋转姿态依次为Rb、Rc,易知Rb、Rc均由Ra绕Z轴旋转所得。假设顺次旋转角度为β,则根据几何关系可以得到下式:
式中Rz为绕Z轴旋转的旋转矩阵。其余影像的旋转姿态可按公式44依次类推。
另外应该注意的是在相机进行水平旋转一周获取多张影像时,在过相机主光轴的直线上会同时出现两张影像,若不对其相对于扫描仪中心的前后关系进行判别,则会得到错误的纹理信息。因此本发明通过判断相机中心与点云的之间的方向向量与相机主光轴即Z轴的夹角来区别扫描仪前后两张影像。若夹角小于90度,则该三维点在扫描仪前方,直接通过相机透视投影模型获取其RGB信息;若夹角大于90,则舍弃。
6、影像匀光匀色
按Mask匀光处理方法的基本原理,数码相机拍摄的存在不均匀光照的影像可以采用如下数学模型描述。
I’(x,y)=I(x,y)+B(x,y) 公式5
其中,I′(x,y)代表亮度分布不均匀的原始数码影像;I(x,y)为希望获得的光照均匀的图像;B(x,y)为背景影像,那么可知Mask匀光处理方法首先对原始影像进行低通滤波获得近似的背景影像,然后将原始影像与背景影像进行相减运算,此过程可表示为式:
IMGout=IMGn-IMGblur+OS 公式46
上式中OS代表偏移量,决定了最终输出影像的平均亮度,同时保证相减后的影像像素灰度值分布在0~255之间。若希望输出影像的平均亮度值与输入影像近似相等,那么偏移量的值可取输入影像的亮度均值。
经过匀光处理后的各张数码影像辐射亮度值已经被统一,在后续纹理映射过程中,每个点云按照相机投影模型利用相机的内外参数解算三维点云投影在影像上的坐标并获取其RGB值,为点云附上纹理信息。
实际拍摄状况下,相邻影像间有一定的重叠度(本发明为0.5)。根据透视投影原理,在重叠区域内同一个点云Pi就可以投影到相邻的多张影像上去。虽然经过匀光和辐射纠正后的各个数码影像有着相同的亮度变化趋势,但同名点仍难免会有一定的色彩差异,实际效果中表现为色彩接缝。
本发明通过线性融合的方法消除相邻影像间的色彩差异,线性融合的方法如图6所示,其基本思想在于根据该点在影像中的位置判断其色彩权重,然后对该点的色彩值进行加权处理。
假设任意点云在IGMA和IGMB上的投影为点P,其位置如图6所示。点P在IMGA与IMGB上的像素坐标分别为(XA,YA)、(XB,YB),对应像素值分别为:pixA、pixB,经融合后的点云像素值为,线性融合公式为:
pixP=WApixA+WBpixB,WB=1-WA 公式47
式中为IMGA对应的像素权重。当点P位于影像的右半部分时,首先计算P点分别IMGA与IMGB右侧边界的距离,如图6所示,当Sb>Sa时,有如下关系:
Da=IMGW-XA,Db=XB 公式48
其中IMGW为相应影像的宽度。Sb<Sa的情况可类推获得,不再阐述。实际操作中可以根据具体情况只在接缝附近一定范围内进行拉伸融合以防止重影出现。
实验数据
1、实验准备
准备Rigel激光扫描仪加外置数码相机两套设备分别获取三维点云与数码影像。首先在室内墙面上均匀布设回光反射标志,Rigel扫描仪通过联机自动控制分别进行点云数据采集和数码影像获取,得到不含纹理信息的室内三维点云和彩色纹理影像,后期通过人工识别回光反射标志的方式获取可靠的同名点。
实验中采用Visual Studio 2015以及C++语言进行程序编写;使用的操作系统为Windows8.1专业版64位;CPU为8核Intel(R)Core(TM)i7-4790。
2、单像位姿估计及多像位姿解算
本发明首先利用4组真实数据进行单张影像位姿估计实验,然后将实验结果应用到多像位姿解算中。采用的实验数据如表1所示。
表1位姿估计实验数据
本发明主要从数值稳定性(平均反投影误差)、运算时间、实际贴图效果这三个方面对本发明所述的方法、UPnP、DLT、Gao's P3P方法进行对比。为了能够更加更精确地对比各种方法的运算效率,本发明对不同方法的运算时间迭代50次并记录运算时间,所得到的各个方法的实际运算时间如图7所示。
为了验证本发明位姿估计算法的精度,通过选取24对控制点,前12个点求解影像位姿,后12个点作为检核点,将其三维坐标带入公式15中反求其在影像上的像素坐标,并与在影像上选取的对应点像素坐标做差得到(Δxpixel,Δypixel)。利用公式49求取检核点的平均反投影误差res,表示为直方图如图8所示。
由于控制点均由工作人员进行选取,故各个控制点的系统误差以及分布状况大致相同,所包含的噪声也被限制在了一定范围内。从图7中可以看出直接线性变换(DLT)运算时间较本发明所述的方法与UPnP大,这主要是因为其需要进行迭代计算,同时需要提供初始值,初始值的差异决定了迭代次数;P3P方法由于其数学模型的限制结果必然为多解,对结果进行筛选的过程也必然会降低计算效率,P3P解法和DLT解法常与RANSAC或AC-RANSAC结合进行最优解的筛选。而本发明所述的方法与UPnP均大量使用矩阵分解来计算相机位置姿态,算法复杂度较低。同时从图7中可以看出本发明所述的方法较UPnP在算法效率上稍胜一筹。另外,在位姿估计精度方面,由图8可以看出DLT与反投影误差较大,这主要是因为DLT解法需要提供初始值进行迭代,若初始值与真实值差距过大,则在过少的迭代次数内可能无法得到精确值;而P3P解法只选择3个控制点进行解算,这种方法最多有四个解,需要另外加入至少一个控制点进行筛选,且三个控制点易分布在同一平面上,无法求解;UPnP解法在时间效率上与本发明所述的方法相当,但精度却稍逊一筹,这主要是由于其解算过程中较本发明所述的方法多了一个未知量——焦距f。
利用本发明所述的位姿估计方法,分别对后母戊鼎、太和门、北京建筑大学小鸟巢、北京建筑大学至善亭进行实验验证,均能得到相机在世界坐标系中正确的位置姿态,进而对其进行纹理映射验证其结果是否正确。
为了验证具体计算过程5中多像外方位元素解算方法以及位姿旋转方法的可行性,利用安置的数码相机进行全景拍摄,总共摄取10张影像,则每张影像间的旋转角为
β=360o/10。通过人工识别分别在点云与对应的初始影像上选取控制点,利用具体计算过程2所述方法进行单像位姿估计得到初始影像外参数,而后利用多像位姿解算得到其余影像的外参数,最后利用摄像机透视投影模型对点云进行纹理映射,得到全景点云纹理映射结果。
3、匀光匀色处理
由于数码相机在室内旋转拍摄的过程中光照条件变化剧烈,相邻影像产生辐射差异,导致纹理融合的过程中产生明显接缝。因此,在实验过程中,本发明选取了目前最流行的三种匀光方法——Mask匀光、Wallis滤波、直方图规定化进行实验对比,发现对于本发明所使用的数码影像,采用Mask匀光法能够很好地增强多张影像辐射值的整体一致性,而Wallis滤波在增强影像的对比度的同时抑制了影像的噪声,产生了多余的纹理以及较强的分块效应;直方图规定化选择第一张影像作为基础影像,其余影像的直方图与基础影像的直方图进行匹配,但由于基础影像的色调偏红,导致其余影像的红色通道所占比重增强,容易丧失原始色调。
经过综合考虑,本发明采用Mask匀光方法先对影像进行整体辐射矫正,然后用具体计算过程6中所述的线性融合方法进行接缝处理,接缝处可以得到完全消除。
尽管本发明的实施方案已公开如上,但其并不仅仅限于说明书和实施方式中所列运用,它完全可以被适用于各种适合本发明的领域,对于熟悉本领域的人员而言,可容易地实现另外的修改,因此在不背离权利要求及等同范围所限定的一般概念下,本发明并不限于特定的细节和这里示出与描述的图例。
Claims (9)
1.一种三维激光扫描仪外置相机联合获取三维彩色点云的方法,通过在三维激光扫描仪上外置相机,实现由三维激光扫描仪得到的全景三维点云与相机拍摄的多张影像的多源数据融合,从而得到三维彩色点云,其中,主要包括以下步骤:
步骤1、三维激光扫描仪携相机水平旋转一周,得到由所述三维激光扫描仪扫描的全景三维点云,以及由所述相机拍摄的多张影像;
步骤2、在拍摄对象上选取控制点,并分别求取所述控制点在相机坐标系下的坐标值,以恢复全景三维点云与影像之间的映射关系;
步骤3、由步骤2得到的坐标值求得影像中初始影像在世界坐标系中的位置姿态参数;
步骤4、由步骤3得到的位置姿态参数得到除初始影像外的其余影像在世界坐标系中的外参数;
步骤5、根据得到的位置姿态参数以及外参数按照步骤2得到的映射关系将影像映射到全景三维点云上,即得到所述拍摄对象的三维彩色点云。
2.如权利要求1所述的三维激光扫描仪外置相机联合获取三维彩色点云的方法,其中,所述相机为固定焦距的高分辨率的数码相机。
3.如权利要求1所述的三维激光扫描仪外置相机联合获取三维彩色点云的方法,其中,所述步骤2中通过将多个所述控制点转换为多个虚拟控制点的权重之和来求取控制点在相机坐标系以及世界坐标系下的坐标值,具体如公式1和2所示:
其中,Pi w为所述控制点在世界坐标系中的坐标;Pi c为所述控制点在相机坐标系中的坐标;aij为每个所述控制点用虚拟控制点表示的权重;为所述虚拟控制点在世界坐标系中的坐标;为所述虚拟控制点在相机坐标系中的坐标;i为所述控制点的个数。
4.如权利要求3所述的三维激光扫描仪外置相机联合获取三维彩色点云的方法,其中,所述虚拟控制点的权重采用主成分分析法进行得到,具体步骤为:
步骤A、采用公式3求取控制点Pi w的质心作为第1个虚拟控制点的坐标值;
其中,Pc为所述控制点的质心;n为所述控制点的个数;
步骤B、采用奇异值分解法分解由所述控制点Pi w按列组成的矩阵变换得到的协方差矩阵,得到所述协方差矩阵的奇异值,以及与所述奇异值对应的右奇异向量;
步骤C、将步骤B得到的奇异值和右奇异向量带入公式4中,得到除外的其余虚拟控制点的坐标值;
其中,σi为奇异值;vi为与所述奇异值对应的右奇异值;
步骤D、根据求得的各个虚拟控制点的坐标值得到相应的各个虚拟控制点的权重。
5.如权利要求1所述的三维激光扫描仪外置相机联合获取三维彩色点云的方法,其中,所述步骤3中的位置姿态参数包括相机坐标系与世界坐标系之间的旋转矩阵R,以及平移向量t。
6.如权利要求1所述的三维激光扫描仪外置相机联合获取三维彩色点云的方法,其中,所述步骤4中除初始影像外的其余影像在世界坐标系中的外参数是根据所述初始影像在世界坐标系中的位置姿态参数按照空间向量旋转法则得到的。
7.如权利要求1所述的三维激光扫描仪外置相机联合获取三维彩色点云的方法,其中,通过判断相机中心和全景三维点云之间的方向向量与相机主光轴间的夹角来区别所述相机主光轴的直线上同时出现的两张影像;
其中,若所述夹角小于90度,则判断相应的影像在三维激光扫描仪的前方,并获取影像的RGB色彩信息;
若所述夹角大于90度,则判断相应的影像在三维激光扫描仪的后方,并将影像舍弃。
8.如权利要求1所述的三维激光扫描仪外置相机联合获取三维彩色点云的方法,其中,所述步骤1中还包括对所述影像的匀光匀色处理;所述匀光匀色处理采用如下公式5描述的Mask匀光处理方法:
I′(x,y)=I(x,y)+B(x,y) 公式5,
其中,I′(x,y)代表原始影像;I(x,y)为希望得到的光照均匀的图像;B(x,y)为背景影像。
9.如权利要求8所述的三维激光扫描仪外置相机联合获取三维彩色点云的方法,其中,所述步骤1中对匀光匀色处理后对得到的影像还采用线性融合方法进行接缝处理,以消除相邻影像间的色彩差异。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810258573.2A CN108470370B (zh) | 2018-03-27 | 2018-03-27 | 三维激光扫描仪外置相机联合获取三维彩色点云的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810258573.2A CN108470370B (zh) | 2018-03-27 | 2018-03-27 | 三维激光扫描仪外置相机联合获取三维彩色点云的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108470370A true CN108470370A (zh) | 2018-08-31 |
CN108470370B CN108470370B (zh) | 2021-10-15 |
Family
ID=63264793
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810258573.2A Expired - Fee Related CN108470370B (zh) | 2018-03-27 | 2018-03-27 | 三维激光扫描仪外置相机联合获取三维彩色点云的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108470370B (zh) |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109410256A (zh) * | 2018-10-29 | 2019-03-01 | 北京建筑大学 | 基于互信息的点云与影像自动高精度配准方法 |
CN109448135A (zh) * | 2018-09-26 | 2019-03-08 | 速度时空信息科技股份有限公司 | 一种基于多源数据的三维模型修补的方法 |
CN109544481A (zh) * | 2018-11-28 | 2019-03-29 | 张禾 | 一种基于机器学习的航空影像匀光方法及系统 |
CN109579793A (zh) * | 2018-11-06 | 2019-04-05 | 广州供电局有限公司 | 地形测绘方法、装置、飞行平台、计算机设备和存储介质 |
CN109658457A (zh) * | 2018-11-02 | 2019-04-19 | 浙江大学 | 一种激光与相机任意相对位姿关系的标定方法 |
CN109767484A (zh) * | 2018-12-06 | 2019-05-17 | 武汉天际航信息科技股份有限公司 | 一种三维贴图中具有色彩一致性的匀光匀色方法及系统 |
CN109870118A (zh) * | 2018-11-07 | 2019-06-11 | 南京林业大学 | 一种面向绿色植物时序模型的点云采集方法 |
CN110163903A (zh) * | 2019-05-27 | 2019-08-23 | 百度在线网络技术(北京)有限公司 | 三维图像的获取及图像定位方法、装置、设备和存储介质 |
CN110207622A (zh) * | 2019-06-30 | 2019-09-06 | 武汉尺子科技有限公司 | 一种三维扫描仪标定方法及系统 |
CN110555880A (zh) * | 2019-08-26 | 2019-12-10 | 桂林电子科技大学 | 一种焦距未知的p6p相机位姿估计方法 |
CN111696141A (zh) * | 2020-05-22 | 2020-09-22 | 武汉天际航信息科技股份有限公司 | 一种三维全景扫描采集方法、设备及存储设备 |
CN112067337A (zh) * | 2020-09-21 | 2020-12-11 | 郑州轻工业大学 | 基于标准球双目机器人的快速手眼标定装置及标定方法 |
CN112308778A (zh) * | 2020-10-16 | 2021-02-02 | 香港理工大学深圳研究院 | 一种利用空间三维信息辅助全景相机拼接的方法及终端 |
CN112308895A (zh) * | 2019-07-31 | 2021-02-02 | 天津工业大学 | 一种构建真实感牙列模型的方法 |
CN112750165A (zh) * | 2019-10-29 | 2021-05-04 | 商汤集团有限公司 | 参数标定方法、智能驾驶方法及其装置、设备和存储介质 |
CN112767464A (zh) * | 2020-12-28 | 2021-05-07 | 三峡大学 | 一种地面激光扫描三维点云数据配准方法 |
CN113625288A (zh) * | 2021-06-15 | 2021-11-09 | 中国科学院自动化研究所 | 基于点云配准的相机与激光雷达位姿标定方法和装置 |
CN114235012A (zh) * | 2022-02-25 | 2022-03-25 | 四川省安全科学技术研究院 | 一种车载移动测量系统室外检校评定的方法及系统 |
CN116758160A (zh) * | 2023-06-20 | 2023-09-15 | 哈尔滨工业大学 | 基于正交视觉系统的光学元件装配过程位姿检测方法及装配方法 |
WO2024021355A1 (zh) * | 2022-07-27 | 2024-02-01 | 梅卡曼德(北京)机器人科技有限公司 | 三维激光相机及标定方法及用于获取彩色点云图像的方法 |
CN116758160B (zh) * | 2023-06-20 | 2024-04-26 | 哈尔滨工业大学 | 基于正交视觉系统的光学元件装配过程位姿检测方法及装配方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103744086A (zh) * | 2013-12-23 | 2014-04-23 | 北京建筑大学 | 一种地面激光雷达与近景摄影测量数据的高精度配准方法 |
CN103994779A (zh) * | 2014-05-27 | 2014-08-20 | 首都师范大学 | 基于三维激光点云的全景相机标定方法 |
CN104318616A (zh) * | 2014-11-07 | 2015-01-28 | 钟若飞 | 彩色点云系统及基于该系统的彩色点云生成方法 |
CN104732557A (zh) * | 2015-04-16 | 2015-06-24 | 武汉海达数云技术有限公司 | 一种地面激光扫描仪彩色点云生成方法 |
CN106910238A (zh) * | 2017-01-18 | 2017-06-30 | 北京建筑大学 | 基于大倾角近景影像的彩色纹理重建方法 |
-
2018
- 2018-03-27 CN CN201810258573.2A patent/CN108470370B/zh not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103744086A (zh) * | 2013-12-23 | 2014-04-23 | 北京建筑大学 | 一种地面激光雷达与近景摄影测量数据的高精度配准方法 |
CN103994779A (zh) * | 2014-05-27 | 2014-08-20 | 首都师范大学 | 基于三维激光点云的全景相机标定方法 |
CN104318616A (zh) * | 2014-11-07 | 2015-01-28 | 钟若飞 | 彩色点云系统及基于该系统的彩色点云生成方法 |
CN104732557A (zh) * | 2015-04-16 | 2015-06-24 | 武汉海达数云技术有限公司 | 一种地面激光扫描仪彩色点云生成方法 |
CN106910238A (zh) * | 2017-01-18 | 2017-06-30 | 北京建筑大学 | 基于大倾角近景影像的彩色纹理重建方法 |
Non-Patent Citations (2)
Title |
---|
GARMENDIA, IKER等: "In-process height control during laser metal deposition based on structured light 3D scanning", 《19TH CIRP CONFERENCE ON ELECTRO PHYSICAL AND CHEMICAL MACHINING》 * |
赵松: "三维激光扫描仪与数码相机联合标定方法研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
Cited By (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109448135A (zh) * | 2018-09-26 | 2019-03-08 | 速度时空信息科技股份有限公司 | 一种基于多源数据的三维模型修补的方法 |
CN109448135B (zh) * | 2018-09-26 | 2022-12-23 | 速度时空信息科技股份有限公司 | 一种基于多源数据的三维模型修补的方法 |
CN109410256A (zh) * | 2018-10-29 | 2019-03-01 | 北京建筑大学 | 基于互信息的点云与影像自动高精度配准方法 |
CN109410256B (zh) * | 2018-10-29 | 2021-10-15 | 北京建筑大学 | 基于互信息的点云与影像自动高精度配准方法 |
CN109658457B (zh) * | 2018-11-02 | 2021-09-17 | 浙江大学 | 一种激光与相机任意相对位姿关系的标定方法 |
CN109658457A (zh) * | 2018-11-02 | 2019-04-19 | 浙江大学 | 一种激光与相机任意相对位姿关系的标定方法 |
CN109579793A (zh) * | 2018-11-06 | 2019-04-05 | 广州供电局有限公司 | 地形测绘方法、装置、飞行平台、计算机设备和存储介质 |
CN109870118A (zh) * | 2018-11-07 | 2019-06-11 | 南京林业大学 | 一种面向绿色植物时序模型的点云采集方法 |
CN109870118B (zh) * | 2018-11-07 | 2020-09-11 | 南京林业大学 | 一种面向绿色植物时序模型的点云采集方法 |
CN109544481B (zh) * | 2018-11-28 | 2021-07-13 | 张禾 | 一种基于机器学习的航空影像匀光方法及系统 |
CN109544481A (zh) * | 2018-11-28 | 2019-03-29 | 张禾 | 一种基于机器学习的航空影像匀光方法及系统 |
CN109767484A (zh) * | 2018-12-06 | 2019-05-17 | 武汉天际航信息科技股份有限公司 | 一种三维贴图中具有色彩一致性的匀光匀色方法及系统 |
CN109767484B (zh) * | 2018-12-06 | 2022-09-23 | 武汉天际航信息科技股份有限公司 | 一种三维贴图中具有色彩一致性的匀光匀色方法及系统 |
CN110163903A (zh) * | 2019-05-27 | 2019-08-23 | 百度在线网络技术(北京)有限公司 | 三维图像的获取及图像定位方法、装置、设备和存储介质 |
CN110207622A (zh) * | 2019-06-30 | 2019-09-06 | 武汉尺子科技有限公司 | 一种三维扫描仪标定方法及系统 |
CN112308895A (zh) * | 2019-07-31 | 2021-02-02 | 天津工业大学 | 一种构建真实感牙列模型的方法 |
CN112308895B (zh) * | 2019-07-31 | 2022-09-23 | 天津工业大学 | 一种构建真实感牙列模型的方法 |
CN110555880A (zh) * | 2019-08-26 | 2019-12-10 | 桂林电子科技大学 | 一种焦距未知的p6p相机位姿估计方法 |
CN110555880B (zh) * | 2019-08-26 | 2022-05-10 | 桂林电子科技大学 | 一种焦距未知的p6p相机位姿估计方法 |
CN112750165A (zh) * | 2019-10-29 | 2021-05-04 | 商汤集团有限公司 | 参数标定方法、智能驾驶方法及其装置、设备和存储介质 |
CN112750165B (zh) * | 2019-10-29 | 2023-12-15 | 商汤集团有限公司 | 参数标定方法、智能驾驶方法及其装置、设备和存储介质 |
CN111696141B (zh) * | 2020-05-22 | 2023-10-27 | 武汉天际航信息科技股份有限公司 | 一种三维全景扫描采集方法、设备及存储设备 |
CN111696141A (zh) * | 2020-05-22 | 2020-09-22 | 武汉天际航信息科技股份有限公司 | 一种三维全景扫描采集方法、设备及存储设备 |
CN112067337B (zh) * | 2020-09-21 | 2022-09-23 | 郑州轻工业大学 | 基于标准球双目机器人的快速手眼标定装置及标定方法 |
CN112067337A (zh) * | 2020-09-21 | 2020-12-11 | 郑州轻工业大学 | 基于标准球双目机器人的快速手眼标定装置及标定方法 |
CN112308778A (zh) * | 2020-10-16 | 2021-02-02 | 香港理工大学深圳研究院 | 一种利用空间三维信息辅助全景相机拼接的方法及终端 |
CN112767464A (zh) * | 2020-12-28 | 2021-05-07 | 三峡大学 | 一种地面激光扫描三维点云数据配准方法 |
CN113625288A (zh) * | 2021-06-15 | 2021-11-09 | 中国科学院自动化研究所 | 基于点云配准的相机与激光雷达位姿标定方法和装置 |
CN114235012A (zh) * | 2022-02-25 | 2022-03-25 | 四川省安全科学技术研究院 | 一种车载移动测量系统室外检校评定的方法及系统 |
WO2024021355A1 (zh) * | 2022-07-27 | 2024-02-01 | 梅卡曼德(北京)机器人科技有限公司 | 三维激光相机及标定方法及用于获取彩色点云图像的方法 |
CN116758160A (zh) * | 2023-06-20 | 2023-09-15 | 哈尔滨工业大学 | 基于正交视觉系统的光学元件装配过程位姿检测方法及装配方法 |
CN116758160B (zh) * | 2023-06-20 | 2024-04-26 | 哈尔滨工业大学 | 基于正交视觉系统的光学元件装配过程位姿检测方法及装配方法 |
Also Published As
Publication number | Publication date |
---|---|
CN108470370B (zh) | 2021-10-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108470370A (zh) | 三维激光扫描仪外置相机联合获取三维彩色点云的方法 | |
CN108510573B (zh) | 一种基于深度学习的多视点人脸三维模型重建的方法 | |
Furukawa et al. | Accurate camera calibration from multi-view stereo and bundle adjustment | |
CN110211043B (zh) | 一种用于全景图像拼接的基于网格优化的配准方法 | |
US10217293B2 (en) | Depth camera-based human-body model acquisition method and network virtual fitting system | |
CN110349247B (zh) | 一种基于语义理解的室内场景cad三维重建方法 | |
JP5011168B2 (ja) | 仮想視点画像生成方法、仮想視点画像生成装置、仮想視点画像生成プログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体 | |
CN107155341B (zh) | 三维扫描系统和框架 | |
KR100681320B1 (ko) | 헬름홀츠 교환조건으로부터 유도되는 편미분 방정식의레벨셋 풀이 방법을 이용한 물체의 3차원 형상 모델링 방법 | |
CN107578376B (zh) | 基于特征点聚类四叉划分和局部变换矩阵的图像拼接方法 | |
CN108648264B (zh) | 基于运动恢复的水下场景重建方法及存储介质 | |
CN109118544B (zh) | 基于透视变换的合成孔径成像方法 | |
JP2003196327A (ja) | 3次元コンピュータモデリング | |
CN110648274B (zh) | 鱼眼图像的生成方法及装置 | |
CN114549746B (zh) | 一种高精度真彩三维重建方法 | |
CN108038886A (zh) | 双目摄像系统标定方法、装置及其汽车 | |
Vu et al. | Efficient hybrid tree-based stereo matching with applications to postcapture image refocusing | |
CN107610219A (zh) | 一种三维场景重构中几何线索感知的像素级点云稠密化方法 | |
CN112669436A (zh) | 一种基于3d点云的深度学习样本生成方法 | |
WO2020075252A1 (ja) | 情報処理装置、プログラム及び情報処理方法 | |
CN108447096B (zh) | kinect深度相机与热红外相机的信息融合方法 | |
CN112509127A (zh) | 一种高精度仿真点云模型的生成方法 | |
CN110517348B (zh) | 基于图像前景分割的目标物体三维点云重建方法 | |
CN116681839A (zh) | 一种基于改进NeRF的实景三维目标重建与单体化方法 | |
CN109446945A (zh) | 三维模型处理方法和装置、电子设备、计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20211015 |
|
CF01 | Termination of patent right due to non-payment of annual fee |