CN110415342B - 一种基于多融合传感器的三维点云重建装置与方法 - Google Patents

一种基于多融合传感器的三维点云重建装置与方法 Download PDF

Info

Publication number
CN110415342B
CN110415342B CN201910713938.0A CN201910713938A CN110415342B CN 110415342 B CN110415342 B CN 110415342B CN 201910713938 A CN201910713938 A CN 201910713938A CN 110415342 B CN110415342 B CN 110415342B
Authority
CN
China
Prior art keywords
point cloud
point
target
video
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910713938.0A
Other languages
English (en)
Other versions
CN110415342A (zh
Inventor
夏春秋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Vision Technology Co Ltd
Original Assignee
Shenzhen Vision Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Vision Technology Co Ltd filed Critical Shenzhen Vision Technology Co Ltd
Priority to CN201910713938.0A priority Critical patent/CN110415342B/zh
Publication of CN110415342A publication Critical patent/CN110415342A/zh
Application granted granted Critical
Publication of CN110415342B publication Critical patent/CN110415342B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/08Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开一种基于多融合传感器的三维点云重建装置与方法,所述装置包括:多融合传感器模块、系统数据处理模块、三维点云重建模块;所述方法包括:利用多融合传感器装置采集点云数据和视频图像,视频图像处理获取目标图像,包括目标态姿、位置、纹理信息;根据获取的原始点云与目标图像中的态姿位置信息,获取与原始点云对应的目标点云;对点云滤波以剔除杂乱点云;点云粗配准中包括对关键点质量分析;点云精配准;将配准后的点云输入点云重建单元,实现三维点云融合与重建。本发明通过提取与原始三维点云相对应的目标图像重建点云对应的特征点,获取目标三维空间位置信息、纹理、色彩信息,提高点云配准精度,有效减少误识别和跟踪丢失概率。

Description

一种基于多融合传感器的三维点云重建装置与方法
技术领域
本发明涉及计算机视觉及目标探测与识别、多传感器测量、三维重建等领域,尤其是涉及了一种基于多融合传感器的三维点云重建装置与方法。
背景技术
对于计算机视觉及目标探测与识别、多传感器测量技术的日臻成熟,计算机三维模型在人们当今的生和生产活动中,起着重要的基础性作用,对现实物体和场景建立真实、可靠的三维点云模型是很多三维系统的重要环节。建立模型的质量对3D技术在遗产保护、虚拟现实、电子游戏等诸多应用的实际效果有着相当重要的作用。
常用的三维重建方法,如利用视差法,模拟人类视觉系统对客观三维物体的感知方式,利用两个以上相机对同一个景物在不同位置进行成像,再根据两帧图像之间的视差图,转换为深度图,获得了物体的深度信息。此方法需要克服物体特征稀疏的问题,当纹理平坦时,计算得到的视差图存在大片的空白区域,点云的稠密程度很低。利用深度图像的方法,通过每帧图像的RGB图与深度图就能生成在当前相机坐标系下物体的点云,相邻两帧RGB图生成的两组点云进行匹配,计算出两帧相机的变换矩阵,就可以两组点云融合到世界坐标系。此方法计算得到的点云较为精确,且点云的稠密程度较高。但是其需要深度相机的协助,且对深度图的精度很敏感,在大范围重建场景中,深度相机的精度总是有限的,而深度相机的精度将直接关联重建点云的精度。
另外,点云采集设备的影响也是至关重要,点云质量受采集设备的精度、环境的干扰,以及被扫描物体的自身遮挡和材质问题的影响,直接使用扫描设备获取点云,得到的点云往往有大量的噪声、杂点和空洞,设备的快速移动会导致配准技术的失败,产生与真实数据误差较大的三维模型。
本发明公开一种基于多融合传感器的三维点云重建装置与方法,所述装置包括:多融合传感器模块、系统数据处理模块、三维点云重建模块。所述方法包括:利用多融合传感器装置中的激光雷达传感器采集点云数据,通过红外传感器与可见传感器获取的视频图像,对视频图像进行处理,获取目标图像,包括目标态姿、位置、纹理信息;根据获取的原始点云与目标图像中的态姿位置信息,获取与原始点云对应的目标点云;对点云滤波以剔除杂乱点云;点云配准,包括点云粗配准和精配准,其中点云粗配准中包括对关键点质量分析;将配准后的点云输入点云重建单元,实现点云融合与三维点云重建。
本发明通过提取与激光点云相对应的红外与可见光视频图像重建点云对应的特征点,获取目标三维空间位置信息、纹理、色彩信息,提高点云配准精度,对目标进行探测与识别的过程提供更加全面的信息,提高检测的快速性和对复杂环境的适应能力,减少误识别和跟踪丢失概率,可广泛用于目标探测与识别、遥感测绘、无人控制等领域。
发明内容
为解决上述问题,本发明的目的在于提供一种基于多融合传感器的三维点云重建装置与方法,装置中包括多融合传感器模块、系统数据处理模块、三维点云重建模块;所述方法包括:利用多融合传感器装置采集点云数据和视频图像,视频图像处理获取目标图像,包括目标态姿、位置、纹理信息;根据获取的原始点云与目标图像中的态姿位置信息,获取与原始点云对应的目标点云;对点云滤波以剔除杂乱点云;点云粗配准中包括对关键点质量分析;点云精配准;将配准后的点云输入点云融合与重建单元,进行三维点云重建。本发明通过提取与激光点云相对应的红外与可见光视频图像重建点云对应的特征点,获取目标三维空间位置信息、纹理、色彩信息,提高点云配准精度,减少误识别和跟踪丢失概率,实现可视化实时三维重建、三维路径规划和避障。
本发明提供的一种基于多融合传感器的三维点云重建装置,所述装置包括:多融合传感器模块、系统数据处理模块、三维点云重建模块。
其中,多融合传感器模块,包括激光雷达传感器、可见光传感器和红外传感器;所述可见光传感器和红外传感器与数据融合单元的输入端、与视频选择单元的输入端相连。
进一步的,利用所述激光雷达传感器获取原始三维点云、目标位置、态姿信息与三维坐标;
进一步的,利用所述红外传感器发射红外光束,获取目标红外波段,获取目标所在场景的红外视频;
进一步的,利用所述可见光传感器发出可见光光束,获取目标所在场景的可见光视频;
其中,系统数据处理模块,包括:视频选择跟踪单元、信号处理单元、视频图像处理单元、数据融合单元、数字时间转换单元、坐标实时转换单元。
进一步的,所述视频选择跟踪单元,在获取所述红外视频与所述可见光视频后,选择视频进行跟踪,将跟踪结果叠加在被跟踪视频上,以增强显示效果;视频选择跟踪单元与所述红外传感器、所述可见光传感器的输出端相连,与视频图像处理单元的输入端相连;
进一步的,所述视频图像处理单元,提取红外视频与可见光视频后,对视频帧按照1s间隔提取,视频图像处理单元对红外视频与可见光视频进行处理,提取图像帧,以每隔1s的时间间隔从视频流中提取出一帧图像,保存的图片格式为png、jpeg、jpg格式,图像尺寸640*640,相邻两张相片的目标轨迹重叠度在90%以上,周围环境重叠度在80%以上;
进一步的,所述数据融合单元,用于融合所述红外传感器与所述可见光传感器获取的视频图像数据,还用于将融合后的所述红外与可见光传感器数据与所述激光雷达传感器获取的数据相融合,融合结果经过坐标实时转换单元的处理,获得目标的距离、方位角以及俯仰角,输出到显示屏第3显示界面;
进一步的,所述坐标实时转换单元,用于实时转换极坐标、地心地固坐标以及屏幕坐标,解决目标在不同传感器、不同场景下坐标不一致的问题;
进一步的,所述数字时间转换单元,用于测量开始脉冲信号和停止脉冲信号之间的时间间隔,控制时间以及实现目标的精确测距,并对所述信号处理单元的干扰信号发生器工作时间进行设定并控制其间断工作,确保识别时间一致性;与电源、干扰信号发生器、所述激光雷达传感器、所述红外传感器、所述可见光传感器相连。
其中,所述三维点云重建模块,包括:三维点云数据输入单元、点云关键点提取与配准单元、点云重建单元。
进一步的,所述三维点云输入单元,输入点云数据来源于激光雷达传感器获取的数据、以及来自于经过所述视频图像处理单元输出的图像纹理、色彩信息;
进一步的,所述点云关键点特征提取与配准单元,首先对经过所述视频图像处理单元输出的图像进行处理,将图像转化成三维点云数据,并与激光雷达传感器获取的原始三维点云数据进行滤波,对两片点云实现配准;
进一步的,所述点云重建单元,对配准后的目标点云进行重建,实现目标物体及其周围环境的三维重建。
本发明还提供一种基于多融合传感器的三维点云重建方法,包括:
(一)多融合传感器装置采集点云数据,具体包括:视频图像处理单元获取目标图像,包括目标的态姿、纹理、色彩信息,激光雷达传感器获取目标的原始三维点云、位置、态姿;
(二)根据原始点云与目标图像中的态姿位置信息,获取与原始点云对应的目标点云;
(三)对点云进行滤波,剔除杂乱点云;
(四)点云粗配准,还包括对关键点质量分析;
(五)点云精配准;
(六)点云融合与重建。
进一步的,根据所述激光雷达传感器获取目标的原始三维点云,具体包括:激光雷达传感器获取目标点云深度信息,激光雷达传感器的扫描单元对目标进行扫描,获取点云数据,扫描单元,由垂直扫描电机、水平扫描点集以及反射镜组成,激光脉冲经过激光雷达传感器输出,照射垂直扫描电机,通过反射镜反射镜绕光轴旋转从而实现垂直方向360°扫描。
进一步的,所述视频图像处理,是对由红外传感器和可见光传感器获得的红外视频与可见光视频进行处理,提取图像帧,帧提取以每隔1s的时间间隔从视频流中提取出一帧图像,为png、jpeg、jpg格式,图像尺寸640*640,相邻两张相片的目标轨迹重叠度在90%以上,周围环境重叠度在80%以上。
进一步的,所述根据原始点云与目标图像中的态姿位置信息,获取与原始点云对应的目标点云,具体包括:得到所述目标图像后,将深度信息转化成三维点云,用SIFT提取特征,AC-RANSAC结合红外图像的温度信息,用交叉过滤算法消除误差匹配,利用SFM获取三维点云。
其中,对点云进行滤波,剔除杂乱点云,利用体素化网格法对点云数据进行点云滤波,优选的,步骤如下:
步骤1,为输入的点云数据创建一个三维体素栅格,搜索所有点云的坐标值,找出X、Y、Z方向的最大值Xmax、Ymax、Zmax与最小值Xmin、Ymin、Zmin,确定大立方体栅格的边长L,若大立方体栅格的边长L大于预设边长L0,则顺着X、Y、Z方向划分若干个体素栅格;
步骤2,预设点云数No,依次比较若干个体素栅格内的点云数n与预设点云数量阈值的大小,若超过预设值,则执行步骤3,否则删除该体素栅格;
步骤3,再次比较若干个小立方体栅格的边长Li与预设边长L0的大小,若边长大于L0,则继续划分若干小立方体,若小于等于L0,则遍历该体素栅格中的点,用该体素栅格的重心来近似代替体素栅格中的其他点,重心的计算公式为:
Figure GDA0004122765100000041
其中,di表示点(xi,yi,zi)到每个体素栅格的区域中心的距离,di表示距离的最小值,达到最小值时(xi,yi,zi)为重心,0≤i≤n;
Figure GDA0004122765100000042
其中,dj表示点(xj,yj,zj)到每个体素栅格的区域重心(x0,y0,z0)的距离,dmax表示距离的最大值,对应的点是所求的最远的点,max{dj}表示{dj}的最大值,0≤j≤n-1;
步骤4,保留体素栅格内的重心点(x0,y0,z0),利用RANSAC移除错误点对,处理所有体素栅格得到滤波后点云数据,设阈值τ,若τ≤dmax,则保留符合dj的j点,以及重心点,否则只保留重心点;重心点和满足距离最大值的点为保留的点;
点云经过滤波后,得到重心点以及满足距离最大值的点,构成点云。
其中,对所述点云进行粗配准,优选的,步骤包括:
步骤1,对满足要求的所述重心点以及满足距离最大的点构成的点云,提取所述点云3D-SIFT关键点,在关键点上进行特征提取,因此首先提取关键点,检测点云尺度空间所有点云的极值点,得到极值点坐标,查找极值点所在邻域内每个点的方位角和仰角,
Figure GDA0004122765100000051
其中,θ表示方位角,
Figure GDA0004122765100000052
表示仰角,(x0,y0,z0)表示极值所在空间体素的区域中心的坐标;得到关键点(x,y,z)坐标信息、尺度信息σ、以及方向信息θ和
Figure GDA0004122765100000053
Figure GDA0004122765100000054
步骤2,上述步骤得到所述关键点,对所述关键点进行质量排序,选择最优关键点,关键点质量取决于关键点附近局部表面的主曲率,基于变换后的局部表面特征所含数据,进行曲面拟合,得到拟合表面
Figure GDA0004122765100000055
并对
Figure GDA0004122765100000056
进行n×n采样,计算关键点质量Qk
所述拟合表面
Figure GDA0004122765100000057
拟合表面
Figure GDA0004122765100000058
采样提取的特征点向量具有旋转不变形和尺度不变性,利用PCA对特征进行降维,将特征投影到PCA子空间;
对降维后的特征,在特征数据集中随机选择k个特征点,作为聚类质心点,对于特征集Q中的每个特征点,按照如下公式计算其应该所属的类:
Qi=argmin||qi-ci||2        (6)
表示qi点计算其与k个质心之间的距离,ci表示拟合表面
Figure GDA00041227651000000510
降维后的聚类中心,Qi表示Q中的每个特征点,取值范围属于1到k,将所有的点分到对应的类别中,每个类计算当前维度下的平均值,平均值作为新的聚类中心。
步骤3,建立KD-tree和RANSAC计算初始变换矩阵:
在所述拟合表面
Figure GDA00041227651000000511
通过搜索所得到两个点云匹配点集P与Q,首先是三组匹配点的选取,根据选取规则,相同点云中的三个点不能处于同一条直线,即三个点可以构成三角形,选择不在同一条直线上的3个点{p1,p2,p3}构建三角平面,但是需要注意在对三角形的边长进行选取时,如果三角形的边长过短,则选取的三个点过于集中,很容易受到错误匹配点的影响;如果过长,就有可能跨过点云之间重叠的区域进而影响转换矩阵的正确性;
在目标点云Q中取{p1,p2,p3}的特征匹配点,计算刚体转换矩阵*H=【R,t】分别表示旋转矩阵和平移向量:
Figure GDA0004122765100000059
其中R表示变换矩阵中的旋转矩阵,t表示变换矩阵中的平移向量,arcsin(fp(fq)r部分增加变换矩误差判断:令p和q分别表示P和Q中对应的匹配点,fp与fq是对应的特征
计算两组之间特征的误差,
er=arccos(fp(fq)r           (5)
T表示转置,er在区间0到
Figure GDA0004122765100000061
之间分布,0表示向量完全相同,
Figure GDA0004122765100000062
表示特征完全不同,er最小时,两组为最佳匹配;
计算其法向量与K-近邻点法向量的夹角θ1,....θk,组成不变特征θi=(θ1,θ2,....θk)r,通过Q′=RQ+t计算参考点集。
其中,所述对所述点云进行精配准,优选的,步骤包括:
步骤1,点云粗配准后,得到粗配准点云Q′,将P与Q′作为配准的输入;
步骤2,通过不断迭代,当迭代次数大于预设次数,或计算两组之间特征的误差,误差小于预设误差时,计算此时的旋转矩阵R′和平移向量t′,得到Q″=R′Q′+t;
步骤3,若点云Q″没有发生刚性形变,则输出Q″;
若发生刚性形变,点云Q″和P之间存在相同点距离较远的情形,因此根据两个点云之间的对应关系,找出Q″中形变的控制点,以控制点作为计算非刚性系数的输入建立目标表达式如下:
Figure GDA0004122765100000063
其中,ui是完成粗配准后的目标点云Q″中的部分点云,vi是粗配准后的参考点云P中的部分点云,μ是弯曲能量函数,控制点云的形变程度,λ是对点云形变的容忍度,取值范围0.09~0.11;通过求解上述公式的最小值来求解线性方程组f;
步骤4,配准误差计算,使用相对旋转误差ER与相对平移误差Rr测量姿态与估计姿态之间的成对误差,对应的ui与vi两组之间特征的误差
Figure GDA0004122765100000064
Figure GDA0004122765100000065
其中,Rr是真值旋转矩阵,RE是估计旋转矩阵,TT是真值平移矢量,TE是估计平移矢量;
在ui和vi中,利用匹配特征点对之间的方向向量的夹角判断匹配点之间的正确性,由于粗配准后的点云数据相交区域基本重合,因此设置方向向量夹角阈值,在阈值范围内,视为精确配准,完成最佳匹配,否则判断为错误点对。
进一步的,本发明提供了一种基于多融合传感器的三维点云重建装置和方法,利用装置实现目标探测与识别、实现目标三维点云重建,所述目标,不单一只需要需要识别与重建的运动物体或静止物体本身,还包括物体周围环境中的需要重建的,即相当于多个目标;在所述关键点提取、关键点排序、点云滤波、配准,重建的过程中,对多个目标按照同一目标之间进行提取、排序、点云滤波、配准,重建;对运动物体或静止物体本身、对周围环境均提取、排序关键点,并对提取到的关键点进行排序、滤波、配准、重建;从而实现运动物体或静止物体的重建、实现周围环境的重建。
本发明提供了一种基于多融合传感器的三维点云重建方法,具有以下有益效果:本发明通过系统数据处理装置目标图像,并根据目标图像获得目标在该目标图像中的位置、纹理、色彩信息,以及通过激光雷达传感器获取目标的原始点云,根据原始点云和目标在目标图像中的位置、纹理、色彩信息,获得原始点云中与目标对应的点云,再由所获得的与目标对应的点云进行滤波、提取关键点、对关键点排序、点云粗配准、精配准、点云融合与重建,从而由所获得的目标在三维空间中的位置信息准确地确定目标在当前时刻的实时位置,在重建过程中剔除冗余信息和点云图中存留的噪点,减少误识别和跟踪丢失的概率,可以实现更准确的实时三维重建。
本发明提供的基于多融合传感器的三维点云重建装置,利用多融合传感器装置,获取原始点云数据和目标图像,利用系统数据处理模块,提取目标图像的三维点云,利用三维点云重建装置对目标图像的三维点云与原始三维点云进行滤波、配准、融合、重建,该装置可广泛用于目标探测与识别、遥感测绘、无人控制等领域。本发明提供的方法能够有效提高点云重建的精度和可靠性。
附图说明
图1是本发明一种基于多融合传感器的三维点云重建装置的系统装置结构图。
图2是本发明一种基于多融合传感器的三维点云重建方法的方法实现流程图。
图3是本发明一种基于多融合传感器的三维点云重建方法的从图像中提取点云效果图。
图4是本发明一种基于多融合传感器的三维点云重建装置和方法的图像与点云配准效果图。
具体实施方式
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互结合,下面结合附图和具体实施例对本发明作进一步详细说明。
图1是本发明一种基于多融合传感器的三维点云重建装置的系统装置结构图,主要显示了:
(1)多融合传感器模块,包括:激光雷达传感器11、红外传感器12、可见光传感器13,用于对目标进行探测与识别,根据探测的目标物体的融合图像与目标位置同时测量,使位置信息和色彩纹理信息对应;所述激光雷传感器11连接一个反光镜,通过设置不同的角度,实现目标全面扫描,利用雷达反复扫描,获取目标的位置信息;传感器应用SLAM用于测量目标物体的距离,根据目标扫描单元与红外传感器获取目标方位信息探测距离;所述红外传感器12,发出红外光束,获取目标的红外波段,因测角精度高,用于探测目标的方位角度信息,并按照激光雷达传感器的指示继续跟踪目标,同时获取目标所在场景的红外视频;所述可见光传感器13,发出可见光光束,获取目标可见光波段,获取目标所在场景的可见光视频以及可见光图像。
(2)系统数据处理模块,包括视频选择跟踪单元21、信号处理单元22、视频图像处理单元23、数据融合单元24、实时坐标转换单元25、时间数字转换器单元26;
所述视频选择跟踪单元21,包括视频选择与跟踪,用于在得到红外视频与可见光视频的图像特征后,进行特征重叠,计算重叠损失,用于跟踪被选择的视频,即用于跟踪可见光视频或红外视频,获得跟踪结果,将跟踪结果叠加到被跟踪视频,即获取叠加视频,达到视频信号增强效果,将叠加视频输出到显示单元;视频选择跟踪单元连接一个跟踪器201;
所述信号处理单元22,包括编码器221、解码器222、干扰信号发生器223;分别用于对叠加视频的信号进行处理,包括将视频数据转化成数字形式的编码器221,将数字形式转化成模拟信息输出给显示器的222解码器,优选的,该单元增加一个干扰信号发生器223用于当探测到威胁目标时对威胁目标进行电磁信号干扰;所述223干扰信号发生器与指挥控制模块相连;
所述视频图像处理单元23,提取红外视频和可见光视频图像,获取目标纹理、色彩信息,同时向跟踪器201发送目标位置,在显示器第2显示界面显示目标信息;与红外传感器12、可见光传感器13相连接;
所述数据融合单元24,用于融合红外传感器12与可见光传感器13获取的视频图像数据,还用于将融合后的红外与可见光传感器数据与激光雷达传感器11获取的数据相融合;
所述实时坐标转换单元25,用于实时转换极坐标、地心地固坐标以及屏幕坐标,解决目标在不同传感器、不同场景下坐标不一致的问题;所述实时坐标转换单元25与电源控制单元1相连,与数字时间转换器26相连,与多融合传感器装置连接;
所述数字时间转换器单元26,用于测量开始脉冲信号和停止脉冲信号之间的时间间隔的时间数字转换器,控制时间以及实现目标的精确测距,并对干扰信号发生器223工作时间进行设定并控制其间断工作;时间数字转换器26与电源控制电源1、干扰信号发生器223、激光雷达传感器11、红外传感器12、可见光传感器13相连。
(3)三维点云重建模块,包括:三维点云数据采集单元31、32点云关键特征提取与匹配单元32、点云重建单元33;
所述三维点云输入单元31,输入点云数据来源于激光雷达传感器获取的数据、以及来自于经过所述视频图像处理单元输出的图像纹理、色彩信息;
所述点云关键点特征提取与配准单元32,首先对经过所述视频图像处理单元输出的图像进行处理,将图像转化成三维点云数据,并与激光雷达传感器获取的原始三维点云数据进行滤波,对两片点云实现配准;
所述点云重建单元33,对配准后的目标点云进行重建,实现目标物体及其周围环境的三维重建。
(4)电源模块,包括两个电源控制单元,分别用于电源控制单元1为系统装置供电,电源控制单元2用对时间数字转换器、干扰信号发生器供电,用直流滤波器进行滤波;
(5)指挥控制模块,连接通信组网具有网络通讯模块52,利用4G、5G、卫星组网,将探测到的目标信息发送给指挥控制终端51,指挥控制终端自动将信息与样本库进行比对,判断识别的目标是否存在威胁,若存在威胁,则发出语音报警,设置一语音报警单元53,跟踪并对目标进行持续监听,使用干扰信号发生器223对威胁目标进行干扰,对目标进行驱离或者打击。
需要说明的是,所述目标,不单一只需要需要识别与重建的运动物体或静止物体本身,还包括物体周围环境中的需要重建的,即相当于多个目标;在所述关键点提取、关键点排序、点云滤波、配准,重建的过程中,对多个目标按照同一目标之间进行提取、排序、点云滤波、配准,重建;对运动物体或静止物体本身、对周围环境均提取、排序关键点,并对提取到的关键点进行排序、滤波、配准、重建;从而实现运动物体或静止物体的重建、实现周围环境的重建。
图2是本发明一种基于多融合传感器的三维点云重建方法的实现流程图。主要显示:通过所述红外传感器和所述可见光传感器获取目标红外视频和目标可见光视频,叠加视频,根据所述视频选择跟踪单元与所述视频图像选择单元获取目标图像;通过所述激光雷达传感器获取目标原始三维点云数据、目标位置信息;根据原始点云和所述目标在目标图像中的位置、纹理、色彩信息,获取与所示原始点云数据相对应的图像的点云;对点云滤波,剔除杂乱点云,保留点云集的重心点和最大距离点,构成新点云;对所述新点云粗配准,提取关键点特征并排序;点云精配准,获取完成配准后的点云数据;对所述完成配准后的点云数据进行融合,实现三维点云重建。
其中,由红外传感器和可见光传感器获得的叠加视频进行处理,提取图像帧,帧提取以每隔1s的时间间隔从视频流中提取出一帧图像,为png、jpeg、jpg格式,图像尺寸640*640,相邻两张相片的目标轨迹重叠度在90%以上,周围环境重叠度在80%以上,得到目标图像。
进一步的,先利用视频选择跟踪单元对所述红外视频和可见光视频进行判断,计算图像特征重叠损失,选择损失小的视频进行跟踪,将跟踪结果叠加至被跟踪视频,获取所述叠加视频;
其中,所述激光雷达传感器获取目标的原始三维点云,激光雷达传感器获取目标点云深度信息,激光雷达传感器的扫描单元对目标进行扫描,获取点云数据,扫描单元,由垂直扫描电机、水平扫描点集以及反射镜组成,激光脉冲经过激光雷达传感器输出,照射垂直扫描电机,通过反射镜反射镜绕光轴旋转从而实现垂直方向360°扫描。
其中,根据所述原始点云与所述目标图像中的态姿位置信息,获取与原始点云对应的目标点云,得到所述目标图像后,将深度信息转化成三维点云,用SIFT提取特征,AC-RANSAC结合红外图像的温度信息,用交叉过滤算法消除误差匹配,利用SFM获取所述三维点云。
图3是本发明一种基于多融合传感器的三维点云重建方法的从图像中提取点云效果图。
优选的,对所述三维点云进行滤波,剔除杂乱点云,利用体素化网格法构建模型,提取所述模型中的重心点与距离最大点,获得经过滤波后的点云;
进一步的,为输入的点云数据创建一个三维体素栅格,搜索所有点云的坐标值,找出X、Y、Z方向的最大值Xmax、Ymax、Zmax与最小值Xmin、Ymin、Zmin,确定大立方体栅格的边长L,若大立方体栅格的边长L大于预设边长L0,则顺着X、Y、Z方向划分若干个体素栅格;
预设点云数No,依次比较若干个体素栅格内的点云数n与预设点云数量阈值的大小,若超过预设值,则执行步骤3,否则删除该体素栅格;
再次比较若干个小立方体栅格的边长Li与预设边长L0的大小,若边长大于L0,则继续划分若干小立方体,若小于等于L0,则遍历该体素栅格中的点,用该体素栅格的重心来近似代替体素栅格中的其他点,重心的计算公式为:
Figure GDA0004122765100000101
其中,di表示点(xi,yi,zi)到每个体素栅格的区域中心的距离,di表示距离的最小值,达到最小值时(xi,yi,zi)为重心,0≤i≤n;
Figure GDA0004122765100000111
其中,dj表示点(xj,yj,zj)到每个体素栅格的区域重心(x0,y0,z0)的距离,dmax表示距离的最大值,对应的点是所求的最远的点,max{dj}表示{dj}的最大值,0≤j≤n-1;
进一步的,保留体素栅格内的重心点(x0,y0,z0),利用RANSAC移除错误点对,处理所有体素栅格得到滤波后点云数据,设阈值τ,若τ≤dmax,则保留符合dj的j点,以及重心点,否则只保留重心点;重心点和满足距离最大值的点为保留的点。
图4是本发明一种基于多融合传感器的三维点云重建装置和方法的图像与点云配准效果图,配准流程为,是对所述滤波后的点云进行配准,包括粗配准和精配准;
优选的,所述粗配准,包括:首先提取关键点,并对关键点质量排序,具体为:
提取经过滤波得到的点云3D-SIFT关键点,在关键点上进行特征提取,检测点云尺度空间所有点云的极值点,得到极值点坐标,查找极值点所在邻域内每个点的方位角和仰角,
Figure GDA0004122765100000112
其中,θ表示方位角,
Figure GDA0004122765100000113
表示仰角,(x0,y0,z0)表示极值所在空间体素的区域中心的坐标;得到关键点(x,y,z)坐标信息、尺度信息σ、以及方向信息θ和
Figure GDA0004122765100000114
Figure GDA0004122765100000115
对关键点质量进排序,选择最优关键点,关键点质量取决于关键点附近局部表面的主曲率,基于变换后的局部表面特征所含数据,进行曲面拟合,得到拟合表面
Figure GDA0004122765100000116
并对
Figure GDA0004122765100000117
进行n×n采样,计算关键点质量Qk
建立KD-tree和RANSAC计算初始变换矩阵:
在拟合表面
Figure GDA0004122765100000119
通过搜索所得到两个点云匹配点集P与Q,首先是三组匹配点的选取,根据选取规则,相同点云中的三个点不能处于同一条直线,即三个点可以构成三角形,选择不在同一条直线上的3个点{p1,p2,p3}构建三角平面,但是需要注意在对三角形的边长进行选取时,如果三角形的边长过短,则选取的三个点过于集中,很容易受到错误匹配点的影响;如果过长,就有可能跨过点云之间重叠的区域进而影响转换矩阵的正确性;
在目标点云Q中取{p1,p2,p3}的特征匹配点,计算刚体转换矩阵*H=【R,t】分别表示旋转矩阵和平移向量:
Figure GDA0004122765100000118
其中R表示变换矩阵中的旋转矩阵,t表示变换矩阵中的平移向量,arcsin(fp(fq)r部分增加变换矩误差判断:令p和q分别表示P和Q中对应的匹配点,fp与fq是对应的特征
计算两组之间特征的误差,
er=arccos(fp(fq)r         (5)
T表示转置,er在区间0到
Figure GDA0004122765100000121
之间分布,0表示向量完全相同,
Figure GDA0004122765100000122
表示特征完全不同,er最小时,两组为最佳匹配;
计算其法向量与K-近邻点法向量的夹角θ1,....θk,组成不变特征θi=(θ1,θ2,....θk)r,通过Q′=RQ+t计算参考点集。
进一步的,所述拟合表面
Figure GDA0004122765100000129
拟合表面
Figure GDA0004122765100000127
采样提取的特征点向量具有旋转不变形和尺度不变性,利用PCA对特征进行降维,将特征投影到PCA子空间;
对降维后的特征,在特征数据集中随机选择k个特征点,作为聚类质心点,对于特征集Q中的每个特征点,按照如下公式计算其应该所属的类:
Qi=argmin||qi-ci||2                 (6)
表示qi点计算其与k个质心之间的距离,ci表示拟合表面
Figure GDA0004122765100000128
降维后的聚类中心,Qi表示Q中的每个特征点,取值范围属于1到k,将所有的点分到对应的类别中,每个类计算当前维度下的平均值,平均值作为新的聚类中心。
对完成粗配准后的点云进行精配准,获取高质量点云数据集;
其中,所述精配准的输入,由点云粗配准后,得到粗配准点云Q′,将P与Q′作为精配准的输入;
通过不断迭代,当迭代次数大于预设次数,或计算两组之间特征的误差,误差小于预设误差时,计算此时的旋转矩阵R′和平移向量t′,得到Q″=R′Q′+t;
若点云Q″没有发生刚性形变,则输出Q″;
若发生刚性形变,点云Q″和P之间存在相同点距离较远的情形,因此根据两个点云之间的对应关系,找出Q″中形变的控制点,以控制点作为计算非刚性系数的输入建立目标表达式如下:
Figure GDA0004122765100000123
其中,ui是完成粗配准后的目标点云Q″中的部分点云,vi是粗配准后的参考点云P中的部分点云,μ是弯曲能量函数,控制点云的形变程度,λ是对点云形变的容忍度,取值范围0.09~0.11;通过求解上述公式的最小值来求解线性方程组f;
配准误差计算,使用相对旋转误差ER与相对平移误差Rr测量姿态与估计姿态之间的成对误差,对应的ui与vi两组之间特征的误差:
Figure GDA0004122765100000124
Figure GDA0004122765100000125
其中,Rr是真值旋转矩阵,RE是估计旋转矩阵,TT是真值平移矢量,TE是估计平移矢量;
在ui和vi中,利用匹配特征点对之间的方向向量的夹角判断匹配点之间的正确性,由于粗配准后的点云数据相交区域基本重合,因此设置方向向量夹角阈值,在阈值范围内,视为精确配准,完成最佳匹配,否则判断为错误点对。
本发明提供的基于多融合传感器的三维点云重建装置与方法,利用多融合传感器装置,获取原始点云数据和目标图像,利用系统数据处理模块,提取目标图像的三维点云,利用三维点云重建装置对目标图像的三维点云与原始三维点云进行滤波、配准、融合、重建,该装置可广泛用于目标探测与识别、遥感测绘、无人控制等领域。本发明提供的方法能够有效提高点云重建的精度和可靠性。
对于本领域技术人员,本发明不限制于上述实施例的细节,在不背离本发明的精神和范围的情况下,能够以其他具体形式实现本发明。此外,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围,这些改进和变型也应视为本发明的保护范围。因此,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。

Claims (8)

1.一种基于多融合传感器的三维点云重建方法,其特征在于,包括:
(一)利用多融合传感器装置采集点云数据,具体包括:视频图像处理单元获取目标图像,包括目标的态姿、纹理、色彩信息,激光雷达传感器获取目标的原始三维点云、位置、态姿;
(二)根据原始点云与目标图像中的态姿位置信息,获取与原始点云对应的目标点云;
(三)对点云进行滤波,剔除杂乱点云;
(四)点云粗配准,还包括对关键点质量分析;
(五)点云精配准;
(六)点云融合与重建;
所述(三)对点云进行滤波,剔除杂乱点云,包括:步骤1,为输入的点云数据创建一个三维体素栅格,搜索所有点云的坐标值,找出X、Y、Z方向的最大值Xmax、Ymax、Zmax与最小值Xmin、Ymin、Zmin,确定大立方体栅格的边长L,若大立方体栅格的边长L大于预设边长L0,则顺着X、Y、Z方向划分若干个体素栅格;步骤2,预设点云数N0,依次比较若干个体素栅格内的点云数n与预设点云数量阈值的大小,若超过预设值,则执行步骤3,否则删除该体素栅格;步骤3,再次比较若干个小立方体栅格的边长Li与预设边长L0的大小,若边长大于L0,则继续划分若干小立方体,若小于等于L0,则遍历该体素栅格中的点,用该体素栅格的重心来近似代替体素栅格中的其他点,重心的计算公式为:
Figure FDA0004117804190000011
其中,di表示点(xi,yi,zi)到每个体素栅格的区域中心的距离,dmin表示距离的最小值,达到最小值时(xi,yi,zi)为重心,0≤i≤n;
Figure FDA0004117804190000021
其中,dj表示点(xj,yj,zj)到每个体素栅格的区域重心(x0,y0,z0)的距离,dmax表示距离的最大值,对应的点是所求的最远的点,max{dj}表示{dj}的最大值,0≤j≤n-1;步骤4,保留体素栅格内的重心点(x0,y0,z0),利用RANSAC移除错误点对,处理所有体素栅格得到滤波后点云数据,设阈值τ,若τ≤dmax,则保留符合dj的j点,以及重心点,否则只保留重心点;
所述(四)点云粗配准,包括:提取经过滤波得到的点云3D-SIFT关键点;对关键点质量进排序,选择最优关键点,其中,关键点质量取决于关键点附近局部表面的主曲率,基于变换后的局部表面特征所含数据,进行曲面拟合,得到拟合表面
Figure FDA0004117804190000025
并对
Figure FDA0004117804190000026
进行n×n采样,计算关键点质量Qk;建立KD-tree和RANSAC计算初始变换矩阵;
所述计算初始变换矩阵为:在拟合表面
Figure FDA0004117804190000027
通过搜索所得到两个点云匹配点集P与Q,首先是三组匹配点的选取,根据选取规则,相同点云中的三个点不能处于同一条直线,即三个点可以构成三角形,选择不在同一条直线上的3个点{p1,p2,p3}构建三角平面;在目标点云Q中取{p1,p2,p3}的特征匹配点,计算刚体转换矩阵H=【R,t】,R、t分别表示旋转矩阵和平移向量:
Figure FDA0004117804190000022
其中R表示变换矩阵中的旋转矩阵,t表示变换矩阵中的平移向量,arcsin(fp(fq)T)部分增加变换矩误差判断:令p和q分别表示P和Q中对应的匹配点,fp与fq是对应的特征,计算两组之间特征的误差er=arccos(fp(fq)T),T表示转置,er在区间0到
Figure FDA0004117804190000023
之间分布,0表示向量完全相同,
Figure FDA0004117804190000024
表示特征完全不同,er最小时,两组为最佳匹配;计算其法向量与K-近邻点法向量的夹角θ1,....θk,组成不变特征θi=(θ12,....θk)T,通过Q′=RQ+t计算参考点集;
所述(五)点云精配准,包括:点云粗配准后,得到粗配准点云Q′,将P与Q′作为精配准的输入,Q′为由点云粗配准后得到粗配准点云;通过不断迭代,当迭代次数大于预设次数,或计算两组之间特征的误差,误差小于预设误差时,计算此时的旋转矩阵R′和平移向量t′,得到Q″=R′Q′+t′;若点云Q″没有发生刚性形变,则输出Q″,若发生刚性形变,点云Q″和P之间存在相同点距离较远的情形,因此根据两个点云之间的对应关系,找出Q″中形变的控制点,以控制点作为计算非刚性系数的输入,建立目标表达式如下:
Figure FDA0004117804190000031
其中,ui是完成粗配准后的目标点云Q″中的部分点云,vi是粗配准后的参考点云P中的部分点云,μ是弯曲能量函数,控制点云的形变程度,λ是对点云形变的容忍度,取值范围0.09~0.11;通过求解上述公式的最小值来求解线性方程组f;配准误差计算,使用相对旋转误差ER与相对平移误差ET测量姿态与估计姿态之间的成对误差,对应的ui与vi两组之间特征的误差
Figure FDA0004117804190000032
Figure FDA0004117804190000033
其中,RT是真值旋转矩阵,RE是估计旋转矩阵,TT是真值平移矢量,TE是估计平移矢量;在ui和vi中,利用匹配特征点对之间的方向向量的夹角判断匹配点之间的正确性,设置方向向量夹角阈值,在阈值范围内,视为精确配准,完成最佳匹配,否则判断为错误点对。
2.基于权利要求1所述的基于多融合传感器的三维点云重建方法,其特征在于,所述视频图像处理,具体包括:对由红外传感器和可见光传感器获得的红外视频与可见光视频进行叠加处理,提取叠加视频的图像帧,帧提取以每隔1s的时间间隔从视频流中提取出一帧图像,为png、jpeg、jpg格式,图像尺寸640*640,相邻两张相片的目标轨迹重叠度在90%以上,周围环境重叠度在80%以上,得到目标图像。
3.基于权利要求1所述的基于多融合传感器的三维点云重建方法,其特征在于,所述激光雷达传感器获取目标的原始三维点云,具体包括:激光雷达传感器获取目标点云深度信息,激光雷达传感器的扫描单元对目标进行扫描,获取点云数据,扫描单元,由垂直扫描电机、水平扫描电机以及反射镜组成,激光脉冲经过激光雷达传感器输出,照射垂直扫描电机,通过反射镜绕光轴旋转从而实现垂直方向360°扫描。
4.基于权利要求1所述的基于多融合传感器的三维点云重建方法,其特征在于,所述(二)根据原始点云与目标图像中的态姿位置信息,获取与原始点云对应的目标点云,具体包括:得到所述目标图像后,将深度信息转化成三维点云,用SIFT提取特征,AC-RANSAC结合红外图像的温度信息,用交叉过滤算法消除误差匹配,利用SFM获取三维点云。
5.基于权利要求1所述的基于多融合传感器的三维点云重建方法,其特征在于,所述(四)点云粗配准,具体包括:
步骤1,点云经过滤波,得到重心点以及满足距离最大值的点,构成点云;
步骤2,提取步骤1得到的点云3D-SIFT关键点,在关键点上进行特征提取,因此首先提取关键点,具体为:检测点云尺度空间所有点云的极值点,得到极值点坐标,查找极值点所在邻域内每个点的方位角和仰角,
Figure FDA0004117804190000041
其中,(x′,y′,z′)表示极值所在空间体素的区域中心的坐标;得到关键点(x,y,z)坐标信息、尺度信息σ、以及方向信息θ和
Figure FDA0004117804190000042
Figure FDA0004117804190000043
6.基于权利要求5所述的基于多融合传感器的三维点云重建方法,其特征在于,所述拟合表面
Figure FDA0004117804190000051
拟合表面
Figure FDA0004117804190000052
采样提取的特征点向量具有旋转不变形和尺度不变性,利用PCA对特征进行降维,将特征投影到PCA子空间;
对降维后的特征,在特征数据集中随机选择k个特征点,作为聚类质心点,对于特征集Q中的每个特征点,按照如下公式计算其应该所属的类:
Qi=argmin||qi-ci||2        (6)
表示qi点计算其与k个质心之间的距离,ci表示拟合表面
Figure FDA0004117804190000053
降维后的聚类中心,qi表示Q中的每个特征点,将所有的点分到对应的类别中,每个类计算当前维度下的平均值,平均值作为新的聚类中心。
7.基于权利要求1-6任一项所述的基于多融合传感器的三维点云重建方法,所述目标,不单一只需要识别与重建的运动物体或静止物体本身,还包括物体周围环境中的需要重建的,即相当于多个目标;在所述关键点提取、关键点排序、点云滤波、配准,重建的过程中,对多个目标按照同一目标之间进行提取、排序、点云滤波、配准,重建;对运动物体或静止物体本身、对周围环境均提取、排序关键点,并对提取到的关键点进行排序、滤波、配准、重建;从而实现运动物体或静止物体的重建、实现周围环境的重建。
8.一种如权利要求1-6任一项所述的基于多融合传感器的三维点云重建方法的装置,所述装置搭载于无人机、无人船,包括:多融合传感器模块、系统数据处理模块、三维点云重建模块;
所述多融合传感器模块,具体包括:激光雷达传感器、可见光传感器和红外传感器;所述可见光传感器和红外传感器与数据融合单元的输入端、与视频选择单元的输入端相连;
所述系统数据处理模块,具体包括:视频选择跟踪单元、信号处理单元、视频图像处理单元、数据融合单元、数字时间转换单元;
进一步的,所述视频选择跟踪单元,在获取红外视频与可见光视频后,选择视频进行跟踪,将跟踪结果叠加在被跟踪视频上,输出叠加视频,增强显示效果;应用SLAM实现目标定位获取目标坐标信息;所述视频选择跟踪单元的输出端与视频图像处理单元的输入端相连;
进一步的,所述视频图像处理单元,提取红外视频与可见光视频的叠加视频的图像帧,对视频帧按照1s间隔提取,视频图像处理单元对叠加进行处理,提取叠加视频图像帧,以每隔1s的时间间隔从视频流中提取出一帧图像,保存的图片格式为png、jpeg、jpg格式,图像尺寸640*640,相邻两张相片的目标轨迹重叠度在90%以上,周围环境重叠度在80%以上;
进一步的,数字时间转换单元,用于测量开始脉冲信号和停止脉冲信号之间的时间间隔,控制时间以及实现目标的精确测距,并对信号处理单元的干扰信号发生器工作时间进行设定并控制其间断工作,确保识别时间一致性;与电源、干扰信号发生器、激光雷达传感器、红外传感器、可见光传感器相连;
所述三维点云重建模块,具体包括:三维点云数据输入单元、点云关键点提取与配准单元、点云重建单元;
进一步的,所述三维点云输入单元,输入点云数据来源于激光雷达传感器获取的数据、以及来自于视频图像处理单元输出的图像纹理、色彩信息;
进一步的,所述点云关键点特征提取与配准单元,首先对图像进行处理,将图像转化成三维点云数据,并于激光雷达传感器获取的原始三维点云数据进行滤波,对两片点云实现配准;
进一步的,所述点云重建单元,对配准后的目标点云进行重建,实现目标物体及其周围环境的三维重建。
CN201910713938.0A 2019-08-02 2019-08-02 一种基于多融合传感器的三维点云重建装置与方法 Active CN110415342B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910713938.0A CN110415342B (zh) 2019-08-02 2019-08-02 一种基于多融合传感器的三维点云重建装置与方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910713938.0A CN110415342B (zh) 2019-08-02 2019-08-02 一种基于多融合传感器的三维点云重建装置与方法

Publications (2)

Publication Number Publication Date
CN110415342A CN110415342A (zh) 2019-11-05
CN110415342B true CN110415342B (zh) 2023-04-18

Family

ID=68365636

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910713938.0A Active CN110415342B (zh) 2019-08-02 2019-08-02 一种基于多融合传感器的三维点云重建装置与方法

Country Status (1)

Country Link
CN (1) CN110415342B (zh)

Families Citing this family (73)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110658850B (zh) * 2019-11-12 2022-07-12 重庆大学 一种基于贪心策略的无人飞行器的航迹规划方法
CN111009005A (zh) * 2019-11-27 2020-04-14 天津大学 几何信息与光度信息相结合的场景分类点云粗配准方法
CN111091075B (zh) * 2019-12-02 2023-09-05 北京华捷艾米科技有限公司 人脸识别方法、装置、电子设备及存储介质
CN110880202B (zh) * 2019-12-02 2023-03-21 中电科特种飞机系统工程有限公司 一种三维地形模型创建方法、装置、设备及存储介质
CN110969637B (zh) * 2019-12-02 2023-05-02 深圳市唯特视科技有限公司 一种基于生成对抗网络的多威胁目标重建及态势感知方法
CN110991468B (zh) * 2019-12-13 2023-12-19 深圳市商汤科技有限公司 三维目标检测和智能行驶方法、装置、设备
CN111091588A (zh) * 2019-12-23 2020-05-01 施努卡(苏州)智能装备有限公司 一种带噪无序点云自动配准方法
CN111145339B (zh) * 2019-12-25 2023-06-02 Oppo广东移动通信有限公司 图像处理方法及装置、设备、存储介质
CN111105695B (zh) * 2019-12-31 2022-11-25 智车优行科技(上海)有限公司 地图制作方法、装置、电子设备及计算机可读存储介质
CN111240216B (zh) * 2020-01-08 2021-04-23 珠海格力电器股份有限公司 智能起居辅助方法、系统、存储介质和电子设备
CN111260765B (zh) * 2020-01-13 2023-04-28 浙江未来技术研究院(嘉兴) 一种显微手术术野的动态三维重建方法
CN113138660A (zh) * 2020-01-17 2021-07-20 北京小米移动软件有限公司 信息的获取方法、装置、移动终端及存储介质
CN111275750B (zh) * 2020-01-19 2022-05-13 武汉大学 基于多传感器融合的室内空间全景图像生成方法
CN113143459B (zh) * 2020-01-23 2023-07-25 海信视像科技股份有限公司 腹腔镜增强现实手术导航方法、装置及电子设备
CN111340889B (zh) * 2020-02-19 2023-04-07 厦门大学 基于车载激光扫描自动获取匹配图像块与点云球的方法
CN111369603B (zh) * 2020-02-25 2023-09-29 阿波罗智能技术(北京)有限公司 点云配准技术的评估方法、装置、电子设备及可读存储介质
CN111369666A (zh) * 2020-03-02 2020-07-03 中国电子科技集团公司第五十二研究所 一种基于多台rgbd相机的动态目标重建方法和装置
CN111353985B (zh) * 2020-03-02 2022-05-03 电子科技大学 一种基于深度相机的机场自助托运行李的检测方法
CN111797675A (zh) * 2020-04-17 2020-10-20 深圳市豪恩声学股份有限公司 一种人耳特征点的提取方法、装置和电子设备
CN111539347B (zh) * 2020-04-27 2023-08-08 北京百度网讯科技有限公司 用于检测目标的方法和装置
CN111583391B (zh) * 2020-04-29 2023-07-14 北京深测科技有限公司 一种物体三维重建方法和系统
CN111583392B (zh) * 2020-04-29 2023-07-14 北京深测科技有限公司 一种物体三维重建方法和系统
CN111709934B (zh) * 2020-06-17 2021-03-23 浙江大学 一种基于点云特征对比的注塑叶轮翘曲缺陷检测方法
CN111815707B (zh) * 2020-07-03 2024-05-28 北京爱笔科技有限公司 点云确定方法、点云筛选方法、装置、计算机设备
CA3190613A1 (en) * 2020-08-01 2022-02-10 Curium Pte. Ltd. Method, system and computer readable medium for calibration of cooperative sensors
CN112017225B (zh) * 2020-08-04 2023-06-09 华东师范大学 一种基于点云配准的深度图像匹配方法
CN112102458A (zh) * 2020-08-31 2020-12-18 湖南盛鼎科技发展有限责任公司 基于激光雷达点云数据辅助的单镜头三维图像重构方法
CN112102380A (zh) * 2020-09-11 2020-12-18 北京华捷艾米科技有限公司 一种红外图像与可见光图像的配准方法及相关装置
CN112330723B (zh) * 2020-09-22 2023-08-01 广东工业大学 一种物理到图像/图像到物理的自动配准方法
CN112132972B (zh) * 2020-09-29 2024-03-22 凌美芯(北京)科技有限责任公司 一种激光与图像数据融合的三维重建方法及系统
CN112254670B (zh) * 2020-10-15 2022-08-12 天目爱视(北京)科技有限公司 一种基于光扫描和智能视觉融合的3d信息采集设备
CN112419482B (zh) * 2020-11-23 2023-12-01 太原理工大学 深度点云融合的矿井液压支架群位姿三维重建方法
CN112330815B (zh) * 2020-11-26 2024-05-14 北京百度网讯科技有限公司 基于障碍物融合的三维点云数据处理方法、装置和设备
CN114758333B (zh) * 2020-12-29 2024-02-13 北京瓦特曼科技有限公司 一种铸造起重机行车吊运钢包脱挂钩的识别方法及系统
CN112785724B (zh) * 2021-01-20 2024-05-07 中山大学 一种基于LiDAR点云和二维图像的古建筑可视化配色方法
CN112927273A (zh) * 2021-01-28 2021-06-08 北京字节跳动网络技术有限公司 三维视频的处理方法、设备及存储介质
CN112950696A (zh) * 2021-02-03 2021-06-11 珠海格力智能装备有限公司 导航地图的生成方法及生成装置、电子设备
CN113176544B (zh) * 2021-03-05 2022-11-11 河海大学 一种边坡雷达影像与地形点云的误匹配校正方法
CN113205547A (zh) * 2021-03-18 2021-08-03 北京长木谷医疗科技有限公司 点云配准方法、骨头配准方法、装置、设备及存储介质
CN113126115B (zh) * 2021-04-06 2023-11-17 北京航空航天大学杭州创新研究院 基于点云的语义slam方法、装置、电子设备和存储介质
CN113188476B (zh) * 2021-04-19 2023-01-31 思看科技(杭州)股份有限公司 三维扫描系统和三维扫描方法
CN113345025B (zh) * 2021-04-26 2022-09-09 香港理工大学深圳研究院 一种基于背包式激光雷达系统的建图和地面分割方法
CN117223031A (zh) * 2021-05-06 2023-12-12 Oppo广东移动通信有限公司 点云编解码方法、编码器、解码器及计算机存储介质
CN113177971A (zh) * 2021-05-07 2021-07-27 中德(珠海)人工智能研究院有限公司 一种视觉跟踪方法、装置、计算机设备及存储介质
CN113432734A (zh) * 2021-06-16 2021-09-24 南京江行联加智能科技有限公司 智能开关柜温度监测方法、装置、设备及存储介质
CN113379663B (zh) * 2021-06-18 2022-04-12 特斯联科技集团有限公司 一种空间定位方法和装置
CN113342055A (zh) * 2021-06-30 2021-09-03 广州极飞科技股份有限公司 无人机飞行控制方法、装置、电子设备及存储介质
CN113409450B (zh) * 2021-07-09 2022-08-26 浙江大学 一种包含rgbdt信息的鸡只三维重建方法
CN113671985A (zh) * 2021-07-28 2021-11-19 中国人民解放军32146部队 一种分阶段多基地无人机任务分配和航迹规划方法
CN113596335A (zh) * 2021-07-31 2021-11-02 重庆交通大学 基于图像融合的公路隧道火灾监测系统及方法
CN113776458B (zh) * 2021-08-31 2024-03-19 香港理工大学深圳研究院 一种高动态范围复杂曲面测量方法、系统及存储介质
CN113807366B (zh) * 2021-09-16 2023-08-08 电子科技大学 一种基于深度学习的点云关键点提取方法
CN114022636A (zh) * 2021-09-18 2022-02-08 杭州汇萃智能科技有限公司 一种基于3d线扫描相机点云畸变矫正方法和相关设备
CN114034343A (zh) * 2021-11-11 2022-02-11 珠海惠中智能技术有限公司 一种基于机器人的环境多模信息综合分析系统
CN114332348B (zh) * 2021-11-16 2023-06-02 西南交通大学 一种融合激光雷达与图像数据的轨道三维重建方法
CN114299318A (zh) * 2021-12-24 2022-04-08 电子科技大学 一种快速点云数据处理和目标图像匹配的方法及系统
CN114463411B (zh) * 2022-01-19 2023-02-28 无锡学院 基于三维相机的目标体积、质量与密度测量方法
CN114078151B (zh) * 2022-01-19 2022-04-22 季华实验室 一种点云融合方法、装置、电子设备及存储介质
CN114399446A (zh) * 2022-01-19 2022-04-26 广东皓行科技有限公司 目标处理方法、装置、电子设备以及控制系统
CN114596420A (zh) * 2022-03-16 2022-06-07 中关村科学城城市大脑股份有限公司 一种应用于城市大脑的激光点云建模方法和系统
CN114897967B (zh) * 2022-04-12 2024-04-26 盐城吉研智能科技有限公司 一种面向挖掘装备自主作业的物料形态识别方法
CN114581492B (zh) * 2022-05-07 2022-07-15 成都理工大学 融合道路多元特征的车载激光雷达点云非刚性配准方法
CN114910901A (zh) * 2022-05-30 2022-08-16 深圳市大族机器人有限公司 一种协作机器人高精度多传感器融合测距系统
CN115063465B (zh) * 2022-06-15 2023-07-18 华南理工大学 一种基于激光雷达的无人车行驶路况建模方法
CN115409953B (zh) * 2022-11-02 2023-03-28 汉斯夫(杭州)医学科技有限公司 基于多相机颜色一致性的颌面重建方法、设备及介质
CN115690332B (zh) * 2022-12-30 2023-03-31 华东交通大学 点云数据处理方法、装置、可读存储介质及电子设备
CN116883471B (zh) * 2023-08-04 2024-03-15 天津大学 面向胸腹部经皮穿刺的线结构光无接触点云配准方法
CN116821854B (zh) * 2023-08-30 2023-12-08 腾讯科技(深圳)有限公司 一种目标投影的匹配融合方法及相关装置
CN116935013B (zh) * 2023-09-14 2023-11-28 武汉工程大学 基于三维重建的电路板点云大范围拼接方法及系统
CN117036622B (zh) * 2023-10-08 2024-02-23 海纳云物联科技有限公司 融合航拍图像和地面扫描的三维重建方法、装置和设备
CN117433440A (zh) * 2023-10-24 2024-01-23 中南大学 一种基于激光点云的巷道形变实时检测方法、装置及存储介质
CN117557553B (zh) * 2023-12-28 2024-05-24 中核武汉核电运行技术股份有限公司 一种核电站管道焊缝检测方法及装置
CN117994309A (zh) * 2024-04-07 2024-05-07 绘见科技(深圳)有限公司 一种基于大模型的slam激光点云与全景影像自动配准方法

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101109818A (zh) * 2006-07-20 2008-01-23 中国科学院自动化研究所 遥感影像高精度控制点自动选择方法
CN104134216A (zh) * 2014-07-29 2014-11-05 武汉大学 基于16维特征描述的激光点云自动配准方法及系统
CN104299260A (zh) * 2014-09-10 2015-01-21 西南交通大学 一种基于sift和lbp的点云配准的接触网三维重建方法
WO2017166594A1 (zh) * 2016-03-31 2017-10-05 百度在线网络技术(北京)有限公司 一种室内地图构建方法、装置和存储介质
CN107240129A (zh) * 2017-05-10 2017-10-10 同济大学 基于rgb‑d相机数据的物体及室内小场景恢复与建模方法
CN107450577A (zh) * 2017-07-25 2017-12-08 天津大学 基于多传感器的无人机智能感知系统和方法
CN107886528A (zh) * 2017-11-30 2018-04-06 南京理工大学 基于点云的配电线路作业场景三维重建方法
CN108604301A (zh) * 2015-12-04 2018-09-28 欧特克公司 用于大rgb-d扫描的可缩放自动全局配准的基于关键点的点对特征
CN109919984A (zh) * 2019-04-15 2019-06-21 武汉惟景三维科技有限公司 一种基于局部特征描述子的点云自动配准方法
CN109934855A (zh) * 2018-12-28 2019-06-25 南京理工大学 一种基于点云的带电作业场景电力部件三维重建方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9715761B2 (en) * 2013-07-08 2017-07-25 Vangogh Imaging, Inc. Real-time 3D computer vision processing engine for object recognition, reconstruction, and analysis

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101109818A (zh) * 2006-07-20 2008-01-23 中国科学院自动化研究所 遥感影像高精度控制点自动选择方法
CN104134216A (zh) * 2014-07-29 2014-11-05 武汉大学 基于16维特征描述的激光点云自动配准方法及系统
CN104299260A (zh) * 2014-09-10 2015-01-21 西南交通大学 一种基于sift和lbp的点云配准的接触网三维重建方法
CN108604301A (zh) * 2015-12-04 2018-09-28 欧特克公司 用于大rgb-d扫描的可缩放自动全局配准的基于关键点的点对特征
WO2017166594A1 (zh) * 2016-03-31 2017-10-05 百度在线网络技术(北京)有限公司 一种室内地图构建方法、装置和存储介质
CN107240129A (zh) * 2017-05-10 2017-10-10 同济大学 基于rgb‑d相机数据的物体及室内小场景恢复与建模方法
CN107450577A (zh) * 2017-07-25 2017-12-08 天津大学 基于多传感器的无人机智能感知系统和方法
CN107886528A (zh) * 2017-11-30 2018-04-06 南京理工大学 基于点云的配电线路作业场景三维重建方法
CN109934855A (zh) * 2018-12-28 2019-06-25 南京理工大学 一种基于点云的带电作业场景电力部件三维重建方法
CN109919984A (zh) * 2019-04-15 2019-06-21 武汉惟景三维科技有限公司 一种基于局部特征描述子的点云自动配准方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
wei guan等.Point cloud registration based on improved ICP algorithm.《2018 Chinese Control And Decision Conference (CCDC)》.2018,全文. *
任鹏等."低空遥感影像的自动拼接与配准研究".《低能耗宜居建筑营造理论与实践一一全国建筑热工与节能学术会议论丈集》.2017,参见第2节. *
徐勇 ; 裴海龙 ; .基于特征的机载激光点云与影像数据的融合.计算机测量与控制.2014,(02),参见第1-3节. *

Also Published As

Publication number Publication date
CN110415342A (zh) 2019-11-05

Similar Documents

Publication Publication Date Title
CN110415342B (zh) 一种基于多融合传感器的三维点云重建装置与方法
CN106356757B (zh) 一种基于人眼视觉特性的电力线路无人机巡检方法
CN111563415B (zh) 一种基于双目视觉的三维目标检测系统及方法
Sun et al. Aerial 3D building detection and modeling from airborne LiDAR point clouds
Zhou et al. Seamless fusion of LiDAR and aerial imagery for building extraction
CN109598794B (zh) 三维gis动态模型的构建方法
CN108389256B (zh) 二三维交互式无人机电力杆塔巡检辅助方法
CN113568435B (zh) 一种基于无人机自主飞行态势感知趋势的分析方法与系统
CN112818925A (zh) 一种城市建筑和树冠识别方法
CN115900710A (zh) 基于视觉信息的动态环境导航方法
CN115797408A (zh) 融合多视角图像和三维点云的目标跟踪方法及装置
CN116978009A (zh) 基于4d毫米波雷达的动态物体滤除方法
CN106709432B (zh) 基于双目立体视觉的人头检测计数方法
Narayanan et al. A multi-purpose realistic haze benchmark with quantifiable haze levels and ground truth
Mharolkar et al. RGBDTCalibNet: End-to-end online extrinsic calibration between a 3D LiDAR, an RGB camera and a thermal camera
CN115131407B (zh) 面向数字仿真环境的机器人目标跟踪方法、装置和设备
CN116862832A (zh) 一种基于三维实景模型的作业人员定位方法
CN113920254B (zh) 一种基于单目rgb的室内三维重建方法及其系统
Ervan et al. Downsampling of a 3D LiDAR point cloud by a tensor voting based method
Karampinis et al. Ensuring UAV Safety: A Vision-only and Real-time Framework for Collision Avoidance Through Object Detection, Tracking, and Distance Estimation
Goron et al. 3D laser scanning system and 3D segmentation of urban scenes
Alboul et al. A system for reconstruction from point clouds in 3D: Simplification and mesh representation
Yang et al. Locator slope calculation via deep representations based on monocular vision
CN112862678A (zh) 一种无人机图像拼接方法、装置及存储介质
CN113836975A (zh) 基于yolov3的双目视觉无人机避障方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant