CN109544456B - 基于二维图像和三维点云数据融合的全景环境感知方法 - Google Patents
基于二维图像和三维点云数据融合的全景环境感知方法 Download PDFInfo
- Publication number
- CN109544456B CN109544456B CN201811413992.5A CN201811413992A CN109544456B CN 109544456 B CN109544456 B CN 109544456B CN 201811413992 A CN201811413992 A CN 201811413992A CN 109544456 B CN109544456 B CN 109544456B
- Authority
- CN
- China
- Prior art keywords
- cloud data
- point cloud
- image
- point
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 42
- 230000004927 fusion Effects 0.000 title claims abstract description 33
- 230000007613 environmental effect Effects 0.000 claims abstract description 11
- 238000009499 grossing Methods 0.000 claims abstract description 6
- 230000016776 visual perception Effects 0.000 claims abstract description 4
- 239000011159 matrix material Substances 0.000 claims description 16
- 238000004364 calculation method Methods 0.000 claims description 12
- 230000008447 perception Effects 0.000 claims description 10
- 238000000605 extraction Methods 0.000 claims description 9
- 238000001914 filtration Methods 0.000 claims description 9
- 230000009466 transformation Effects 0.000 claims description 8
- 230000008569 process Effects 0.000 claims description 7
- 239000004576 sand Substances 0.000 claims description 7
- 238000005457 optimization Methods 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 6
- 238000006243 chemical reaction Methods 0.000 claims description 5
- 238000005520 cutting process Methods 0.000 claims description 5
- 230000008030 elimination Effects 0.000 claims description 5
- 238000003379 elimination reaction Methods 0.000 claims description 5
- 238000012360 testing method Methods 0.000 claims description 5
- 230000000877 morphologic effect Effects 0.000 claims description 4
- 238000005070 sampling Methods 0.000 claims description 4
- 238000010998 test method Methods 0.000 claims description 3
- 230000007797 corrosion Effects 0.000 claims description 2
- 238000005260 corrosion Methods 0.000 claims description 2
- 230000010339 dilation Effects 0.000 claims description 2
- 230000005484 gravity Effects 0.000 claims description 2
- 238000012549 training Methods 0.000 claims description 2
- 238000007417 hierarchical cluster analysis Methods 0.000 claims 1
- 238000001514 detection method Methods 0.000 abstract description 2
- 230000007547 defect Effects 0.000 description 7
- 238000009616 inductively coupled plasma Methods 0.000 description 6
- 230000004044 response Effects 0.000 description 3
- 230000001131 transforming effect Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000004438 eyesight Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4038—Image mosaicing, e.g. composing plane images from plane sub-images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于二维图像和三维点云数据融合的全景环境感知方法,应用样本一致性初始对准(SAC‑IA)算法与迭代最近点(ICP)算法将多帧点云数据统一到世界坐标系;对这些点云数据对应的灰度图像进行相似特征匹配与图像拼接,对拼接图像采用像素加权的方法消除图像拼接区域的裂缝,平滑拼接区域像素点的亮度值,得到优化的全景图像;应用深度信息对世界坐标系中所有点云数据进行分割,得到不同深度范围中的点云数据,将这些点云数据分别投影为二维图像并二值化;将生成的二值图像与全景图像进行信息融合,实现对不同深度的环境信息全景视觉感知。本发明能满足背景复杂、存在较强干扰的检测场景快速全景信息重构的技术需求,可有效降低后续场景理解、路径规划等工作的难度。
Description
技术领域
本发明涉及及三维计算机视觉技术领域,特别是一种基于二维图像和三维点云数据融合的全景环境感知方法。
背景技术
点云是大多数三维信息获取设备的原始输出数据,与二维图像相比,点云数据能提供对真实世界的场景更全面的描述。近年来,随着计算机硬件性能的提升和点云数据获取设备的普及,点云数据利用技术在智能机器人、无人驾驶、先进制造、虚拟现实和增强现实等领域的应用越来越多。
然而,点云数据获取设备一次只能获取单一视角的点云,无法反应真实世界的全貌;点云数据通常质量较差,存在无效数据、噪声、孔洞等缺陷。点云数据难以直接被利用。
因此,为有效的利用点云数据,国内外科技人员开展了大量的工作,这些工作大都遵循以下技术框架:首先,通过数据预处理方法消除点云数据的一些缺陷;然后,采用点云数据配准的方法将多帧不同视角的点云数据统一到世界坐标系;最后,获取配准点云数据的法向和曲率等几何参数,通过插值或者拟合实现对真实世界的重建。
上述工作已能较好的满足干扰较少、对环境感知精确度和效率要求不高的应用场合技术需求。但是,现有技术采集的点云数据在复杂环境下存在较多的缺陷,对于这些缺陷造成的环境信息缺失,现有方法大多是通过拟合、插值的方法进行补充的,得到的信息只是对环境信息的估计,而不是真实准确的信息。现有点云数据利用技术不能满足复杂条件下环境实时精确感知的要求。
发明内容
本发明所要解决的技术问题是,针对现有技术不足,提供一种基于二维图像和三维点云数据融合的全景环境感知方法,通过点云数据和(采集点云数据时同时采集的)质量相对较高的图像数据进行信息融合,实现对于背景复杂、存在较强干扰的检测场景快速全景信息重构,降低后续场景理解、路径规划等工作的难度。为解决上述技术问题,本发明所采用的技术方案是:一种基于二维图像和三维点云数据融合的全景环境感知方法,包括以下步骤:
1)信息获取:从TOF相机中提取待检测的第一帧点云数据Cg1与其对应的灰度图像Ig1,将拍摄位置水平方向移动距离为0-15cm或将拍摄位置旋转0-60°提取待检测的第二帧点云数据Cg2与其对应的灰度图像Ig2,按照上述方式经过N次拍摄得到N帧不同场景的点云数据和其对应的灰度图像。
2)点云数据配准:应用SAC-IA算法与ICP算法将步骤1)中的N帧点云数据全部变换到第一帧点云数据Cg1的坐标系空间中;
3)点云数据对应的灰度图像配准:对步骤1)拍摄的第N帧图像与第N-1帧图像进行融合,生成两帧图像的融合图像,并利用像素加权的方法优化融合图像的拼接区域,得到优化的全景子图像PN-1;将PN-1与第N-2帧图像进行融合优化得到全景子图像PN-2,以此类推,最后将P2与第一帧图像融合优化得到全景子图像P1,即为全景图像Pmap。
4)点云和图像配准信息的融合感知:应用深度信息对步骤2)中Cg1坐标系空间中的所有点云数据进行分割,得到D个深度范围的点云数据,将不同深度范围的点云数据分别投影为二维图像,结合步骤3)生成的全景图像Pmap对生成的图像进行图像增强处理,实现对环境中不同深度的全景视觉感知。
所述步骤2)中,点云数据配准具体实现过程包括:
1)对点云数据CgN和CgN-1去除无效点,得到点云数据CvN和CvN-1,对CnN和CnN-1进行下采样滤波。得到滤波后的点云数据CfN和CfN-1。
2)计算CfN和CfN-1的法向量nN和nN-1,利用nN和nN-1计算点云数据的点特征直方图HistN和HistN-1。通过HistN和HistN-1对CfN和CFn--1进行SAC-IA粗配准,将CvN变换成CvN-1坐标系空间的粗配准点云数据CvN 1;
点云数据配准的步骤1)中,对点云数据进行下采样滤波,首先根据点云数据创建一个最小三维体素栅格,然后计算出小立方体栅格边长L,将点云数据划分到m×n×k个小立方栅格中,同时删除不包含数据点的小栅格,在其他栅格中保留离栅格重心最近的数据点并删除其他数据点。其中, Lx表示三维体素栅格X轴方向边长,Ly表示三维体素栅格Y轴方向边长,Lz表示三维体素栅格Z轴方向边长。a为比例因子,用来调节用来调节小立方体栅格的边长。s是比例系数,N表示点云数据中点的总数。Lx,Ly,Lz取值范围均为(0,5),单位为m。
其中,HC为协方差矩阵,pi是点云数据中一点,k是点pi邻近点的数目,表示最近邻元素的三维质心,λj是协方差矩阵的第j个特征值,是第j个特征向量。点云数据配准的步骤2)中,使用FPFH的方式来计算点特征直方图,搜索半径取值范围为(0,0.01),单位为m,FPFH的计算公式为:
其中,FPFH(p)为p点的快速点特征直方图,ps为查询点,pt为ps的k邻域内一个邻近点,wt为ps与pt间的距离;SPFH(p)为p点的简化点特征直方图,通过统计p点与它的k邻域内每一点之间的α,φ,θ三个特征值求出;在Ouvw坐标系中求这三个特征值,ns和nt分别为ps和pt的估计法线,(xs,ys)为ps的坐标,(xt,yt)为pt的坐标;Ouvw是以O为原点,u、v、w为uvw轴的坐标系,设定ps为O点,ps的法向量为u轴,以过原点分别垂直于pt-ps和u轴的向量为v轴,pt-ps为ps到pt的向量,以过原点分别垂直于v轴和u轴的向量为w轴。
点云数据配准的步骤2)中,点云数据SAC-IA配准时,配准次数取值范围为(50,150),单位为次。
点云数据配准的步骤3)中,点云数据ICP配准时,设定最大均方差误差阈值取值范围为(0,0.01),单位为m,均方差误差公式为:
其中,dk为均方差误差,Q(∑P,X)的最大特征值对应的特征向量即为最佳旋转向量R,Δ=[A23 A31 A12]T,I3为3×3单位矩阵,tr(ΣP,X)为矩阵ΣP,X的迹。最佳平移向量T公式为T=μX-RμP,NP,NX分别为点云数据P与点云数据X中点的个数,pi为点云数据P中的点,xi为点云数据X中与pi配准的点。
所述步骤3)中,点云数据对应的灰度图像配准具体实现过程包括:
1)读取TOF相机拍摄的灰度图像IgN和IgN-1;应用中值滤波法对IgN和IgN-1进行滤波得到IfN和IfN-1;
2)使用SURF算法分别对IfN和IfN-1进行特征提取,得到IfN的特征点集KN和描述符集DN,得到IfN-1的特征点集KN-1和描述符集DN-1;将DN作为查询集,DN-1作为训练集。使用Brute-Force匹配算法对DN和DN-1中的描述符进行欧几里德距离测试,KN中任一特征点与KN-1中所有特征点中欧几里德距离最近的一点作为KN中该特征点在KN-1中的最佳匹配点,KN中任一特征点与KN-1中所有特征点中欧几里德距离次近的一点作为KN中该特征点在KN-1中的次最佳匹配点。得到IfN和IfN-1特征点之间的M个匹配,使用比率测试的方法对所有匹配进行误匹配判定,通过判定结果消除M个匹配中的误匹配得到M’个匹配,通过设定最大匹配距离阈值消除M’匹配中匹配距离大于阈值的匹配,最终得到Q个匹配;
3)依据上一步骤中求出的Q个匹配生成IfN和IfN-1的单应性变换矩阵H,通过H对IfN-1做透视变换投影到IfN的图像坐标系中,得到IfN-1的变换图像IfN-1’。将IfN与IfN-1’进行拼接得到融合图像ImN-1,使用像素加权的方法对ImN-1的拼接区域进行裂缝消除和亮度平滑处理,生成全景子图像PN-1。
点云数据对应的灰度图像配准的步骤2)中,使用SURF算法对图像进行特征提取时,Hessian矩阵的响应公式为:
其中,为尺度参数,(x,y)为像素点A的坐标,g(σ)是高斯-拉普拉斯算子中的高斯扩展函数,TH为Hessian响应阈值,TH的取值范围为(0,1000)。
点云数据对应的灰度图像配准的步骤2)中,其特征在于,比率测试公式为:
D={d1,d1>a·d2};
其中,D为正确匹配,A(x1,y1)为KN中的点,B(x2,y2)为A点在KN-1中的最佳匹配点,C(x3,y3)为A点在KN-1中的次最佳匹配点,d1为最佳匹配距离,d2为次最佳匹配距离,a为比例因子,a的取值范围为(0.5,5)。
点云数据对应的灰度图像配准的步骤2)中,其特征在于,消除距离值大于阈值的匹配公式为:
其中,Do为优化匹配,d为阈值,d1为最佳匹配距离,dmin为所有最佳匹配中距离值最小的最佳匹配距离。A(xi,yi)为KN中的点,B(xp,yp)为A点在KN-1中的最佳匹配点,di为A点到B点的欧几里得距离,b为比例因子,b的取值范围为(2,10)。
点云数据对应的灰度图像配准的步骤3)中,IfN-1生成IfN-1’时IfN-1四个顶点坐标的变换公式为:
Qi(x',y',z')=Vi(xi,yi,zi)×HT,i=1,2,3,4;
Vi'(xi',yi',1)=Qi(x',y',z')/z',i=1,2,3,4;
xmin'=min(x1',x2',x3',x4'),ymin'=min(y1',y2',y3',y4');
其中,V1,V2,V3,V4为IfN-1的四个顶点,V1’,V2’,V3’,V4’为IfN-1’的四个顶点,HT为IfN-1变换到IfN-1’的单应性变换矩阵。
点云数据对应的灰度图像配准的步骤3)中,优化两帧图像拼接区域的公式为:
d(j)=p(j)×s+t(j)×(1-s);
其中,j点为IfN和IfN-1’在ImN-1的重合点,xj,yj为ImN-1拼接区域j点的x和y坐标,xmin为ImN-1拼接区域左边界上x坐标最小值,w为拼接区域宽度。d(j)为PN-1上j点的像素值,p(j)为IfN上j点的像素值,t(j)为IfN-1’上j点的像素值。
所述步骤4)中,点云和图像配准信息的融合感知具体实现过程包括:
1)以c为切割长度对CvN 2和CvN-1基于深度值切割,c的取值范围为(1,10),单位为dm。分别得到X组深度范围中的点云数据集CcN(X)和CcN-1(X),将带有典型环境信息的点云数据CcN i和CcN-1 i投影变换生成灰度图像IiN和Ii N-1,i为整数,取值范围为[1,X]。
2)对IjN和IjN-1进行二值化处理得到IbN和IbN-1,计算公式为其中,分别为IjN和IjN-1在i行j列像素点的灰度值,分别为IbN和IbN-1在i行j列像素点的灰度值。将IbN和IbN-1进行形态学腐蚀运算得到前景图像Ifront1和Ifront2,计算公式为I=XΘS。将IbN和IbN-1进行形态学膨胀运算得到Imiddle1和Imiddle2,计算公式为将Imiddle1和Imiddle2进行尺度二值化得到背景图像Iback1和Iback2。将对应前景图像与背景图像相加得到标记图像Imark1和Imark2,计算公式为Imarki=Ibacki+Ifronti,i=1,2,通过SURF算法对Imark1和Imark2进行融合,生成融合标记图像Imarks,对Imarks的拼接区域进行裂缝消除和亮度值平滑,得到优化标记图像Imarkso,利用Imarkso在全景子图像PN-1上进行分水岭分割得到连通域图像IwN-1。
3)对IwN-1进行二值化处理得到环境信息掩膜图像IrN-1,计算公式为其中,Gij为IwN-1在i行j列像素点的灰度值,Bij为IrN-1在i行j列像素点的灰度值。将IrN-1与全景子图像PN-1进行与运算得到环境信息全景提取结果PrN-1,运算公式为PrN-1=IrN-1∧PN-1。
点云和图像配准信息的融合感知的步骤1)中,分割点云数据的公式为:
其中,Ccut(i)为第i帧分割点云数据的点集,Cn为被切割点云数据的点集,zCn为Cn中点的z坐标值,(zj,zk)为第i帧点云数据的深度范围分割区间。
点云和图像配准信息的融合感知的步骤1)中,点云数据投影生成灰度图像公式为:
xI=xC·fx/zC+cx;
yI=yC·fy/zC+cy;
其中,(xI,yI)为二维点坐标,V(xI,yI)为二维点对应像素值,w为灰度图像宽度。(xC,yC,zC)为三维点坐标,V(xC,yC,zC)为三维点对应像素值。fx,fy为相机Y轴与X轴焦距,cx,cy为相机光心位置坐标。
点云和图像配准信息的融合感知的步骤2)中,对Imiddle1和Imiddle2进行尺度二值化的运算公式为:
与现有技术相比,本发明所具有的有益效果为:本发明通过将点云数据与质量相对较高的图像数据信息全景融合,可实现在复杂环境下,采集的点云数据存在较多缺陷时实现场景环境的精确重构;对场景环境信息重构是依据不同的深度范围分别进行的,得到的重构数据复杂度低,降低了后续场景理解、路径规划等工作的难度;采用的图像配准、点云配准算法及算法参数的选取经过了优化,在复杂环境下具有较强的鲁棒性;本发明对于需感知环境三维信息的应用场合具有广泛的适用性。
附图说明
图1为本发明一实施例方法流程图;图中,1、信息获取与点云数据配准,2、点云数据对应的灰度图像配准,3、点云和图像配准信息的融合感知;
图2为本发明待识别的两个场景的灰度图像;图2a)为待检测的第一帧图像,图2b)为水平方向相距8cm拍摄的待检测的第二帧图像;
图3为本发明图2两帧灰度图像对应的点云数据示意图;图3a)为待检测的第一帧点云数据,图3b)为待检测的第二帧点云数据;
图4为本发明图3两帧点云数据变换到一个基准坐标系空间的结果;
图5为本发明图2两帧图像的匹配结果;
图6为本发明图2两帧图像的融合结果;
图7为本发明在图6中提取的三组基于深度信息的全景环境信息结果,图7a)为距离相机镜头1m的环境信息掩膜图像,图7b)为距离1m的环境信息提取结果,图7c)为距离相机镜头0.8m的环境信息掩膜图像,图7d)为距离相机镜头0.8m的环境信息提取结果,图7e)为距离相机镜头0.5m的环境信息掩膜图像,图7f)为距离相机镜头0.5m的环境信息提取结果。
具体实施方式
如图1所示,本发明一实施例方法步骤为:
1)信息获取与点云数据配准:从TOF相机中提取待检测的第一帧点云数据Cg1与其对应的灰度图像Ig1,将拍摄位置水平方向移动距离为0-15cm或将拍摄位置旋转0-60°提取待检测的第二帧点云数据Cg2与其对应的灰度图像Ig2,按照上述方式经过N次拍摄得到N帧不同场景的点云数据和其对应的灰度图像。应用SAC-IA算法与ICP算法将N帧点云数据全部变换到第一帧点云数据Cg1的坐标系空间中;
2)点云数据对应的灰度图像配准:对步骤1)拍摄的第N帧图像与第N-1帧图像进行融合,生成两帧图像的融合图像,并利用像素加权的方法优化融合图像的拼接区域,得到优化的全景子图像PN-1;将PN-1与第N-2帧图像进行融合优化得到全景子图像PN-2,以此类推,最后将P2与第一帧图像融合优化得到全景子图像P1,即为全景图像Pmap。
3)点云和图像配准信息的融合感知:应用深度信息对步骤1)中Cg1坐标系空间中的所有点云数据进行分割,得到D个深度范围的点云数据,将不同深度范围的点云数据分别投影为二维图像,结合步骤2)生成的全景图像Pmap对生成的图像进行图像增强处理,实现对环境中不同深度的全景视觉感知。
如图1所示,本发明方法感知全景环境信息过程如下,
图2是两个待识别的场景,由图2可知,该待识别图像背景较复杂,环境信息在图像中的显著性不强,且由于相机拍摄的位置与角度差异,环境信息出现在图像中的位置会有所差异,环境信息形状与尺度大小也会有所差异;并且在环境信息复杂的场景中,环境信息之间难以区分,现有二维图像处理方法无法识别场景中不同深度范围的环境信息。
本发明方法首先通过TOF相机读取水平方向相距8cm的两帧大小分别为214306和223298个三维点的待识别点云数据,参见附图3。对两帧点云数据进行下采样,采样体素大小为2×2×2,单位为m。接着,分别计算两帧点云数据的法线和点特征直方图,使用FPFH的方式计算点特征直方图时,搜索半径设定为5cm。进行SAC-IA点云数据粗配准时,Hessian响应阈值设定为10,配准次数为100次,通过粗配准矩阵将两帧矩阵粗变换到同一坐标系空间,粗配准矩阵为:
对两帧点云数据继续进行ICP精配准,精配准最大均方差误差阈值设定为10^(-6)m,精配准最大变换矩阵误差阈值设定为10^(-10)m,通过精配准矩阵将两帧点云数据精变换到同一坐标系空间,对两帧点云数据进行拼接显示在同一坐标系空间中,精配准矩阵为:
精配准后x轴配准误差为0.0468869mm,y轴配准误差为0.200064mm,z轴配准误差为0.465643mm,同一坐标系空间点云数据结果见附图4。
由TOF相机读入与上述两帧点云对应的灰度图像,对两帧图像进行中值滤波。用SURF算法分别对两帧图像进行特征提取,使用Brute-Force匹配算法对两帧图像的特征描述符进行匹配。得到两帧图像特征点之间的所有匹配,使用比率测试的方法去除这些匹配中的误匹配,通过设定最大匹配距离阈值消除剩余匹配中匹配距离大于阈值的匹配,比率测试中,比例因子a设定为3。去除距离值大于阈值的匹配中,比例因子b设定为5。最终得到优化后的匹配,参见附图5。依据优化后的匹配生成两帧图像的单应性变换矩阵H,H如下所示:
通过H将两帧图像变换到同一像素坐标系中,将两帧图像进行融合,再使用像素加权的方法对融合图像的拼接区域进行裂缝消除和亮度平滑处理,生成全景图像,参见附图6。
对精配准变换后的两帧点云数据基于深度值进行切割,切割单位长度为1.2dm。对三组包含典型环境信息的分割结果进行投影变换,得到不同深度范围中的典型环境信息图像。使用SURF算法对同组图像进行匹配,利用匹配结果融合同组图像,对融合后的二值图像消除裂缝得到优化的标记图像,利用标记图像在全景图像上进行分水岭分割,得到环境信息的连通域集合,对连通域图像进行二值化处理得到掩膜图像。将掩膜图像与全景图像进行与运算,得到三组深度范围的环境信息提取输出,参见附图7。由图7可知,本发明方法准确的实现了空间环境信息的识别与提取。
本发明通过将点云数据与质量相对较高的图像数据信息全景融合,可实现在复杂环境下,采集的点云数据存在较多缺陷时实现场景环境的精确重构;对场景环境信息重构是依据不同的深度范围分别进行的,得到的重构数据复杂度低,降低了后续场景理解、路径规划等工作的难度;采用的图像配准、点云配准算法及算法参数的选取经过了优化,在复杂环境下具有较强的鲁棒性;本发明对于需感知环境三维信息的应用场合具有广泛的适用性。
Claims (10)
1.一种基于二维图像和三维点云数据融合的全景环境感知方法,其特征在于,包括以下步骤:
1)从飞行时间相机中提取待检测的第一帧点云数据Cg1与其对应的灰度图像Ig1,将拍摄位置水平方向移动距离0-15cm或将拍摄位置旋转0-60°提取待检测的第二帧点云数据Cg2与其对应的灰度图像Ig2,按照上述方式经过N次拍摄得到N帧不同场景的点云数据和其对应的灰度图像;
2)应用SAC-IA算法与ICP算法将步骤1)中的N帧点云数据全部变换到第一帧点云数据Cg1的坐标系空间中;
3)对步骤1)拍摄的第N帧图像与第N-1帧图像进行融合,生成两帧图像的融合图像,并利用像素加权的方法优化融合图像的拼接区域,得到优化的全景子图像PN-1;将PN-1与第N-2帧图像进行融合优化得到全景子图像PN-2,以此类推,最后将P2与第一帧图像融合优化得到全景子图像P1,即为全景图像Pmap;
4)应用深度信息对步骤2)中Cg1坐标系空间中的所有点云数据进行分割,得到D个深度范围的点云数据,将不同深度范围的点云数据分别投影为二维图像,结合步骤3)生成的全景图像Pmap对生成的图像进行图像增强处理,实现对环境中不同深度的全景视觉感知。
2.根据权利要求1所述的基于二维图像和三维点云数据融合的全景环境感知方法,其特征在于,步骤2)的具体实现过程包括:
1)对点云数据CgN和CgN-1去除无效点,得到点云数据CvN和CvN-1,对CnN和CnN-1进行下采样滤波,得到滤波后的点云数据CfN和CfN-1;
2)计算CfN和CfN-1的法向量nN和nN-1,利用nN和nN-1计算点云数据的点特征直方图HistN和HistN-1;通过HistN和HistN-1对CfN和CFn--1进行SAC-IA粗配准,将CvN变换成CvN-1坐标系空间的粗配准点云数据CvN 1;
5.根据权利要求2所述的基于二维图像和三维点云数据融合的全景环境感知方法,其特征在于,使用FPFH的方式来计算点特征直方图,搜索半径取值范围为(0,0.01),单位为m,FPFH的计算公式为:α=v·nt,θ=arctan(w·nt,u·nt);u=ns,v=(pt-ps)×u,w=u×v,其中,FPFH(p)为p点的快速点特征直方图,ps为查询点,pt为ps的k邻域内一个邻近点,wt为ps与pt间的距离;u,v,w构成ps和pt之间的局部坐标系;SPFH(p)为p点的简化点特征直方图,通过统计p点与它的k邻域内每一点之间的α,φ,θ三个特征值求出;在Ouvw坐标系中求这三个特征值,ns和nt分别为ps和pt的估计法线,(xs,ys)为ps的坐标,(xt,yt)为pt的坐标;Ouvw是以O为原点,u、v、w为uvw轴的坐标系,设定ps为O点,ps的法向量为u轴,以过原点分别垂直于pt-ps和u轴的向量为v轴,pt-ps为ps到pt的向量,以过原点分别垂直于v轴和u轴的向量为w轴。
6.根据权利要求2所述的基于二维图像和三维点云数据融合的全景环境感知方法,其特征在于,精配准次数取值范围为(50,150)。
7.根据权利要求1所述的基于二维图像和三维点云数据融合的全景环境感知方法,其特征在于,步骤3)的具体实现过程包括:
1)读取TOF相机拍摄的灰度图像IgN和IgN-1;应用中值滤波法对IgN和IgN-1进行滤波得到IfN和IfN-1;
2)使用SURF算法分别对IfN和IfN-1进行特征提取,得到IfN的特征点集KN和描述符集DN,得到IfN-1的特征点集KN-1和描述符集DN-1;将DN作为查询集,DN-1作为训练集;使用Brute-Force匹配算法对DN和DN-1中的描述符进行欧几里德距离测试,KN中任一特征点与KN-1中所有特征点中欧几里德距离最近的一点作为KN中该特征点在KN-1中的最佳匹配点,KN中任一特征点与KN-1中所有特征点中欧几里德距离次近的一点作为KN中该特征点在KN-1中的次最佳匹配点;得到IfN和IfN-1特征点之间的M个匹配,使用比率测试的方法对所有匹配进行误匹配判定,通过判定结果消除M个匹配中的误匹配得到M’个匹配,通过设定最大匹配距离阈值消除M’匹配中匹配距离大于阈值的匹配,最终得到Q个匹配;
3)依据上一步骤中求出的Q个匹配生成IfN和IfN-1的单应性变换矩阵H,通过H对IfN-1做透视变换投影到IfN的图像坐标系中,得到IfN-1的变换图像IfN-1’, 将IfN与IfN-1’进行拼接得到融合图像ImN-1,使用像素加权的方法对ImN-1的拼接区域进行裂缝消除和亮度平滑处理,生成全景子图像PN-1。
10.根据权利要求1所述的基于二维图像和三维点云数据融合的全景环境感知方法,其特征在于,步骤4)具体实现过程包括:
1)以c为切割长度对CvN 2和CvN-1基于深度值切割,c的取值范围为(1,10),单位为dm,分别得到X组深度范围中的点云数据集CcN(X)和CcN-1(X),将带有典型环境信息的点云数据CcN i和CcN-1 i投影变换生成灰度图像IiN和IiN-1,i为整数,取值范围为[1,X];
2)对IjN和IjN-1进行二值化处理得到IbN和IbN-1,计算公式为其中,分别为IjN和IjN-1在i行j列像素点的灰度值,分别为IbN和IbN-1在i行j列像素点的灰度值,将IbN和IbN-1进行形态学腐蚀运算得到前景图像Ifront1和Ifront2,计算公式为I=XΘS,将IbN和IbN-1进行形态学膨胀运算得到Imiddle1和Imiddle2,计算公式为将Imiddle1和Imiddle2进行尺度二值化得到背景图像Iback1和Iback2;将对应前景图像与背景图像相加得到标记图像Imark1和Imark2,计算公式为Imarki=Ibacki+Ifronti,i=1,2,通过SURF算法对Imark1和Imark2进行融合,生成融合标记图像Imarks,对Imarks的拼接区域进行裂缝消除和亮度值平滑,得到优化标记图像Imarkso,利用Imarkso在全景子图像PN-1上进行分水岭分割得到连通域图像IwN-1;
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811413992.5A CN109544456B (zh) | 2018-11-26 | 2018-11-26 | 基于二维图像和三维点云数据融合的全景环境感知方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811413992.5A CN109544456B (zh) | 2018-11-26 | 2018-11-26 | 基于二维图像和三维点云数据融合的全景环境感知方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109544456A CN109544456A (zh) | 2019-03-29 |
CN109544456B true CN109544456B (zh) | 2022-04-15 |
Family
ID=65849885
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811413992.5A Active CN109544456B (zh) | 2018-11-26 | 2018-11-26 | 基于二维图像和三维点云数据融合的全景环境感知方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109544456B (zh) |
Families Citing this family (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110176020A (zh) * | 2019-04-09 | 2019-08-27 | 广东工业大学 | 一种融合2d和3d图像的燕窝杂质分拣方法 |
CN111899162A (zh) * | 2019-05-06 | 2020-11-06 | 上海交通大学 | 基于分割的点云数据处理方法以及系统 |
CN110163903B (zh) * | 2019-05-27 | 2022-02-25 | 百度在线网络技术(北京)有限公司 | 三维图像的获取及图像定位方法、装置、设备和存储介质 |
CN111046765B (zh) * | 2019-12-02 | 2023-07-14 | 北京深测科技有限公司 | 一种用于高铁的危险预警方法和系统 |
CN112991510B (zh) * | 2019-12-13 | 2024-04-12 | 阿里巴巴集团控股有限公司 | 一种道路场景图像处理方法、装置以及电子设备 |
CN113012052B (zh) * | 2019-12-19 | 2022-09-20 | 浙江商汤科技开发有限公司 | 图像处理方法及装置、电子设备和存储介质 |
CN113379748B (zh) * | 2020-03-09 | 2024-03-01 | 北京京东乾石科技有限公司 | 一种点云全景分割方法和装置 |
CN111696141B (zh) * | 2020-05-22 | 2023-10-27 | 武汉天际航信息科技股份有限公司 | 一种三维全景扫描采集方法、设备及存储设备 |
CN112101374B (zh) * | 2020-08-01 | 2022-05-24 | 西南交通大学 | 基于surf特征检测和isodata聚类算法的无人机障碍物检测方法 |
CN114120795B (zh) * | 2020-09-01 | 2023-03-10 | 华为技术有限公司 | 一种地图绘制方法及装置 |
CN112000130B (zh) * | 2020-09-07 | 2023-04-25 | 哈尔滨工业大学 | 一种无人机的多机协同高精度建图定位系统 |
CN112288689B (zh) * | 2020-10-09 | 2024-03-22 | 浙江清华长三角研究院 | 一种显微手术成像过程中术区三维重建方法及系统 |
CN112697058A (zh) * | 2020-11-27 | 2021-04-23 | 北京机科国创轻量化科学研究院有限公司 | 一种基于机器视觉的大尺寸板材装配间隙在线测量系统与方法 |
CN112614166A (zh) * | 2020-12-11 | 2021-04-06 | 北京影谱科技股份有限公司 | 基于cnn-knn的点云匹配方法和装置 |
CN116097305A (zh) * | 2020-12-23 | 2023-05-09 | 深圳元戎启行科技有限公司 | 点云法向量的生成方法、装置、计算机设备和存储介质 |
CN113516694A (zh) * | 2021-04-13 | 2021-10-19 | 同济大学 | 一种基于多Kinect的远程医疗场景的动态可视化控制方法 |
CN113281780B (zh) * | 2021-05-27 | 2024-04-30 | 北京地平线信息技术有限公司 | 对图像数据进行标注的方法、装置及电子设备 |
CN113408456A (zh) * | 2021-06-29 | 2021-09-17 | 袁�嘉 | 一种环境感知算法、系统、装置、电子设备及存储介质 |
CN113593023B (zh) * | 2021-07-14 | 2024-02-02 | 中国科学院空天信息创新研究院 | 三维制图方法、装置、设备及存储介质 |
CN113721611B (zh) * | 2021-08-20 | 2024-09-06 | 河南牧原智能科技有限公司 | 用于清粪机器人的覆盖式路径规划方法、装置和存储介质 |
CN113643270B (zh) * | 2021-08-24 | 2024-04-26 | 凌云光技术股份有限公司 | 一种基于点云数据的图像配准方法及装置 |
CN113947729A (zh) * | 2021-11-12 | 2022-01-18 | 华南农业大学 | 基于竞争网络的植株点云数据深度图像处理方法及系统 |
CN114218638A (zh) * | 2021-12-14 | 2022-03-22 | 深圳须弥云图空间科技有限公司 | 全景图生成方法及装置、存储介质及电子设备 |
CN114895796B (zh) * | 2022-07-15 | 2022-11-11 | 杭州易绘科技有限公司 | 一种基于全景图的空间交互方法、装置及应用 |
CN115830424B (zh) * | 2023-02-09 | 2023-04-28 | 深圳酷源数联科技有限公司 | 基于融合图像的矿废识别方法、装置、设备及存储介质 |
CN115908519B (zh) * | 2023-02-24 | 2023-05-09 | 南京航空航天大学 | 一种大型复合材料构件三维测量配准误差控制方法 |
CN117115140B (zh) * | 2023-09-25 | 2024-04-05 | 重庆大学溧阳智慧城市研究院 | 基于点云分割配准的3d打印混凝土柱表面裂缝检测方法 |
CN117541537B (zh) * | 2023-10-16 | 2024-05-24 | 江苏星湖科技有限公司 | 基于全景点云融合技术的时空差异检测方法及其系统 |
CN117351156B (zh) * | 2023-12-01 | 2024-03-22 | 深圳市云鲸视觉科技有限公司 | 城市实时数字内容生成方法、系统及其电子设备 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014066405A1 (en) * | 2012-10-23 | 2014-05-01 | Bounce Imaging, Inc. | Remote surveillance sensor apparatus |
CN108053367A (zh) * | 2017-12-08 | 2018-05-18 | 北京信息科技大学 | 一种基于rgb-d特征匹配的3d点云拼接与融合方法 |
CN108230242A (zh) * | 2018-01-10 | 2018-06-29 | 大连理工大学 | 一种从全景激光点云到视频流的转换方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2880630B1 (en) * | 2012-08-02 | 2020-09-02 | HERE Global B.V. | Three-dimensional plane panorama creation through hough-based line detection |
-
2018
- 2018-11-26 CN CN201811413992.5A patent/CN109544456B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014066405A1 (en) * | 2012-10-23 | 2014-05-01 | Bounce Imaging, Inc. | Remote surveillance sensor apparatus |
CN108053367A (zh) * | 2017-12-08 | 2018-05-18 | 北京信息科技大学 | 一种基于rgb-d特征匹配的3d点云拼接与融合方法 |
CN108230242A (zh) * | 2018-01-10 | 2018-06-29 | 大连理工大学 | 一种从全景激光点云到视频流的转换方法 |
Also Published As
Publication number | Publication date |
---|---|
CN109544456A (zh) | 2019-03-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109544456B (zh) | 基于二维图像和三维点云数据融合的全景环境感知方法 | |
CN109872397B (zh) | 一种基于多目立体视觉的飞机零件的三维重建方法 | |
CN107292965B (zh) | 一种基于深度图像数据流的虚实遮挡处理方法 | |
CN107833270B (zh) | 基于深度相机的实时物体三维重建方法 | |
CN107767456A (zh) | 一种基于rgb‑d相机的物体三维重建方法 | |
CN108981672A (zh) | 基于单目机器人与测距传感器结合的舱门实时定位方法 | |
CN109961506A (zh) | 一种融合改进Census图的局部场景三维重建方法 | |
CN112067233B (zh) | 一种用于风洞模型六自由度运动捕获方法 | |
CN109470149B (zh) | 一种管路位姿的测量方法及装置 | |
CN108225319B (zh) | 基于目标特征的单目视觉快速相对位姿估计系统及方法 | |
CN111311679A (zh) | 一种基于深度相机的自由漂浮目标位姿估计方法 | |
JP2021168143A (ja) | ビジョンシステムで画像内のプローブを効率的に採点するためのシステム及び方法 | |
CN114170284B (zh) | 基于主动标志点投射辅助的多视图点云配准方法 | |
CN115222884A (zh) | 一种基于人工智能的空间对象分析及建模优化方法 | |
CN116563377A (zh) | 一种基于半球投影模型的火星岩石测量方法 | |
CN114331879A (zh) | 一种均衡化二阶梯度直方图描述子的可见光与红外图像配准方法 | |
Zheng et al. | LiDAR point cloud registration based on improved ICP method and SIFT feature | |
CN110176041B (zh) | 一种基于双目视觉算法的新型列车辅助装配方法 | |
CN113963107B (zh) | 一种基于双目视觉的大型目标三维重建方法及系统 | |
CN117541537B (zh) | 基于全景点云融合技术的时空差异检测方法及其系统 | |
CN112001954B (zh) | 一种基于极曲线约束的水下pca-sift图像匹配方法 | |
CN117611525A (zh) | 一种受电弓滑板磨耗视觉检测方法和系统 | |
CN113103226A (zh) | 一种面向陶瓷素坯加工制造的视觉引导机器人系统 | |
CN116596987A (zh) | 一种基于双目视觉的工件三维尺寸高精度测量方法 | |
CN114972948A (zh) | 一种基于神经检测网络的识别定位方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |