CN111860651B - 一种基于单目视觉的移动机器人半稠密地图构建方法 - Google Patents

一种基于单目视觉的移动机器人半稠密地图构建方法 Download PDF

Info

Publication number
CN111860651B
CN111860651B CN202010710365.9A CN202010710365A CN111860651B CN 111860651 B CN111860651 B CN 111860651B CN 202010710365 A CN202010710365 A CN 202010710365A CN 111860651 B CN111860651 B CN 111860651B
Authority
CN
China
Prior art keywords
pixel
depth
image
layer
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010710365.9A
Other languages
English (en)
Other versions
CN111860651A (zh
Inventor
倪建军
杨也
朱金秀
史朋飞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Changzhou Campus of Hohai University
Original Assignee
Changzhou Campus of Hohai University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Changzhou Campus of Hohai University filed Critical Changzhou Campus of Hohai University
Priority to CN202010710365.9A priority Critical patent/CN111860651B/zh
Publication of CN111860651A publication Critical patent/CN111860651A/zh
Application granted granted Critical
Publication of CN111860651B publication Critical patent/CN111860651B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods

Abstract

本发明属于视觉机器人构图技术领域,公开了一种基于单目视觉的移动机器人半稠密地图构建方法,本发明涉及ORB‑SLAM、卷积神经网络及半稠密地图构建,机器人根据单目相机构建稀疏点云地图,结合卷积神经网络构建带有语义标签的关键帧以及稀疏点云的地图,当机器人到达感兴趣区域时,开启半稠密地图构建。本发明利用卷积神经网络结合ORB‑SLAM构建带有语义信息的地图,利用归一化互相关进行立体视觉匹配达到较为稠密的匹配关系,高斯滤波对每次新的深度数据进行融合与传递;本发明在机器人构建半稠密地图以及自主导航等方面,具有重要理论和现实应用价值。

Description

一种基于单目视觉的移动机器人半稠密地图构建方法
技术领域
本发明涉及一种基于单目视觉的移动机器人半稠密地图构建方法,属于视觉机器人构图技术领域,是人工智能与机器人技术相结合的应用。
背景技术
视觉机器人构图的应用范围很广,可以在军事、航空航天、探测、灾害处理等方而做出突出的贡献,并且视觉机器人构图的研究是机器人研究领域的重要内容之一,其研究具有重要理论和现实应用价值,现有单目视觉机器人构图只能构建稀疏点云地图,并且缺乏一定的语义信息,本专利针对该问题进行改进。
发明内容
发明目的:为了克服现有技术中存在的不足,本发明提供一种基于单目视觉的移动机器人半稠密地图构建方法,包括以下步骤:
步骤(1):移动机器人视为一个智能体,移动机器人携带单目摄像头;
步骤(2):移动机器人利用单目相机采集其工作环境下的图像信息用于定位和构图等工作;
步骤(3):任务开始时,首先利用机器人采集所工作的环境图像,采集的图像作为卷积神经网络算法的训练数据集,同时也是同时定位与构图算法的数据集;
步骤(4):单目机器人采集完数据集后,为了提高卷积神经网络模型性能,进行数据增强工作,一方面可以增加训练数据,从而提升模型的泛化能力,另一方面可以在增加噪声数据,从而增强模型的鲁棒性。使用的卷积神经网络共有5层,在包含softmax的同时,具有卷积层、池化层和全连接层,分别为2层、2层和1层。网络的输入是经过降维处理32*32的图像,第一层卷积层的卷积核为5*5,卷积核移动步幅为1;第二层卷积层的卷积核为5*5,卷积核移动步幅为1;池化层采用2*2规模的窗口,池化步幅为2,并通过均值法实现降采样;网络的最终输出为分类的概率;
步骤(5):单目机器人在运行ORB-SLAM构建的稀疏特征地图的基础上,结合分类信息构建基于关键帧语义标签的映射地图;
步骤(6):单目机器人重定位到感兴趣区域时(包含语义信息区域),进行半稠密重建。在半稠密重建算法中,加入像素点梯度筛选策略,减少地图重建的误差以及时间消耗。接着逆深度估计部分利用仿射变换约束提高归一化互相关(NCC)匹配质量。算法中增添图像金字塔加快逆深度的收敛,同时改进深度信息的传递策略。
所述步骤(5)中语义关键帧具体是指,语义关键帧的内容和格式如下:
Kframe={T_c_w,cyml,f,n,P}
其中,T_c_w表示相机的位姿信息;cyml表示相机内部参数(固定值),f代表当前关键帧中观测到的稀疏ORB特征,n为分类信息,P为分类的权重信息,Kframe即表示语义关键帧。
所述步骤(6)中像素点梯度筛选具体是指:
(3a):半稠密地图构建是基于灰度值匹配方法,其对光照十分敏感,为了在匹配过程中体现出足够的区分度,筛选出梯度明显的像素点。所谓梯度,即函数的变化率(导数),图像是一个二维函数f(x,y),其偏微分为如式所示:
Figure BDA0002596330040000021
Figure BDA0002596330040000022
因为图像是一个离散的二维函数,f(x,y),f(x+ε,y),f(x,y+ε)表示相邻的像素值,ε表示相邻的单位,其在x和y方向上的像素梯度
Figure BDA0002596330040000023
Figure BDA0002596330040000024
的ε取值并不能无限趋于0,上述公式精简为:
Figure BDA0002596330040000025
Figure BDA0002596330040000026
式中g(x),g(y)分别是图像在点(x,y)处关于x方向上的梯度和关于y方向上的梯度,f(x,y),f(x+1,y),f(x,y+1)表示相邻一个像素单位的像素点;
M(x,y)=|gx|+|gy|
式中M(x,y)表示复合导,g(x),g(y)分别是图像在点(x,y)处关于x方向上的梯度和关于y方向上的梯度。
所述步骤(6)中逆深度估计步骤具体是指:
(4a):逆深度估计步骤分为三步:立体视觉匹配,极线搜索以及三角化恢复深度信息;
(4b):基于归一化互相关立体视觉匹配算法的计算方式如下:
为了进一步增强光照变化下的鲁棒性,通过在待匹配像素位置构建一个邻域匹配窗口,与目标像素位置构建同样大小的邻域匹配窗口的方式建立目标函数来对匹配窗口进行衡量相关性,本节这里构建相关窗口添加了仿射校正,否则匹配过程将消耗更多的计算资源,其主要思想是参考帧图片上一点附近都为一个平面且深度一样;其主要计算公式如下:
Pref=fref*depth
pcurr=F(T*Pref)
其中,Pref表示为根据仿射变换计算到参考帧影像上的坐标;fref表示像空间坐标;depth为深度,T为坐标转换矩阵,F为相机坐标系到像素,pcurr为当前帧按深度投影的像素。NCC评分公式为:
Figure BDA0002596330040000031
其中,p(i,j)、p'(i,j)分别表示参考帧图像上p像素块与当前帧图像上p'像素块之间的差异性。Score(p,p')表示NCC评分;其中ε为防止分母出现0这一情况的极小值;
(4c):极线搜索方法为:
将参考帧的像素点从像素坐标转换为摄像机坐标系下的三维坐标,接着将对应的三维坐标以旋转矩阵为变换矩阵转换到当前帧的摄像机坐标系下,然后再投影到当前帧图像上获得当前帧的像素坐标。考虑到深度的方差,在两个极端情况下,即最大和最小深度,将参考帧中转换后的三维坐标投影两次,得到两个投影坐标,这两点坐标的连线即为要搜索的极线。在极线上搜索NCC最相似的块。
(4d):三角化恢复逆深度信息公式为:
s1q1=s2Rq2+t
s1q1^q1=s2q1^Rq2+q1^t=0
其中q1,q2为归一化平面坐标,q2由q1经过一定程度的旋转和平移得到,s1,s2表示两帧图片上对应像素点的深度,R,t分别表示变换矩阵和平移,α,β分别表示基线与两帧对应像素点到空间中实际位置连线的夹角,δβ表示有一个像素误差造成的夹角误差,则它们必满足上式所示的旋转平移变换公式,接着通过转化,联立出一个线性方程组;
对于误差公式由下所示:
Figure BDA0002596330040000041
δp=||p||-||p'||
q1所在平面作为参考帧,q2所在平面则被称作当前帧,l2为q1在当前帧中所对应的极线,相机到成像面的距离都默认为焦距f。假设在l2进行极线搜索时,所找寻到的q'2点与真实的q2点之间具有一个像素的误差。其中p,t已知,α,β,δβ可以经过三角定理得到。δp正是深度的均方差,深度滤波器的目的便是要不断减小这个均方差;
每当新的数据传递过来,就需要利用新的观测数据更新原有的数据信息。这就是高斯融合,也是深度滤波器的原理,其主要公式为:
Figure BDA0002596330040000042
Figure BDA0002596330040000043
其中,μ,σ2为原深度值和原深度均方差,μnew,σnew 2为新深度值和新深度均方差,μfuse,σfuse 2为融合后深度值和深度均方差,
Figure BDA0002596330040000044
为获取的新的数据分布,P(d)=N(μ,σ2)为原有的逆深度值分布。
所述步骤(6)中基于图像金字塔的逆深度传递是指:
(5a):原图像经过高斯滤波,接着删除所有的偶数行和列,得到的图像的长和宽分别为原图像的一半。原图使用降采样后,上层的每一个像素对应着下层图像中彼此相邻的四个像素。若当前层为n,
Figure BDA0002596330040000051
表示当前层的第j行第j列像素灰度值,则下一层图像所对应的像素灰度值为:
Figure BDA0002596330040000052
(5b):并行处理图像金字塔每一层的匹配、搜索与逆深度估计,接着进行逆深度信息在图像金字塔中的传递策略,其主要步骤如下:
①并行处理图像金字塔每一层,包括像素点筛选、立体视觉匹配和三角化估计逆深度与融合。
②对图像金字塔上层像素点进行遍历。
③与图像金字塔下层相对应的四个像素点进行比较。
④对应下层像素是否存在逆深度估计,若存在进行下一步;若不存在判断下层对应四个像素点是否遍历结束,若未结束,回到步骤3;判断上层图像是否遍历结束,若结束,进行下一步;若未结束,回到步骤2。
⑤上层像素的逆深度估计与下层像素逆深度估计相似,相似的定义为:两像素逆深度值的差值绝对值小于两逆深度分布中的标准差的均值。若相似,通过高斯融合进行逆深度更新;若不相似,判断下层对应四个像素是否遍历结束。
进一步的,所述构建方法采用的设备包括机器人、单目摄像机、存储设备以及PC端,其中单目摄像机、存储设备均安装在机器人上面,机器人通过摄像机采集实时图像传输到PC端;机器人通过PC端进行算法运行以及系统控制。
有益效果
本发明提供的一种基于单目视觉的移动机器人半稠密地图构建方法,能提高构图效率,并且能够实时地感知环境,构建半稠密地图,具有如下优点:
(1)本发明利用机器人携带的单目相机视觉感器来得到环境的信息,并估计机器人的位姿信息,进行单目机器人定位与构建地图,可以更加有效地为机器人定位与构建环境信息;
(2)本发明利用ORB-SLAM算法为半稠密构建地图提供机器人的位姿信息,此算法不仅减小了机器人的位姿累积误差,而且提高了机器人系统的鲁棒性,对跟踪方面不会出现易丢失等情况;
(3)本发明提出利用一个5层的卷积神经网络对机器人工作环境做一个简单的二分类问题,划分出机器人感兴趣区域和非感兴趣区域,同时结合ORB-SLAM构建带有语义信息的关键帧,即为感兴趣区域;
(4)本发明在机器人定位到感兴趣区域时,将进行半稠密建图算法,此算法利用增添仿射不变约束的归一化互相关匹配算法提高匹配精度,接着进行极线搜索与三角化恢复深度信息,最后利用图像金字塔图像化处理手段加速深度信息的传递与收敛。
附图说明
图1为本发明的硬件设备框图;
图2为本发明中单目机器人半稠密构图方法流程图;
图3为本发明中基于卷积神经网络算法的语义关键帧构建流程图;
图4为本发明中半稠密地图算法流程图。
具体实施方式
下面结合附图对本发明作更进一步的说明。
如图1所示,为实施本发明的硬件设备框图,包括机器人1、单目摄像机2、存储设备3以及PC端4,其中单目摄像机2、存储设备3均安装在机器人1上面,机器人1通过摄像机2采集实时图像传输到PC端4。机器人1通过PC端4进行算法运行以及系统控制。
如图2所示,为一种基于单目视觉的移动机器人半稠密地图构建方法,包括以下步骤:
步骤(1):移动机器人视为一个智能体,移动机器人携带单目摄像头;
步骤(2):移动机器人利用单目相机采集其工作环境下的图像信息用于定位和构图等工作;
步骤(3):任务开始时,首先利用机器人采集所工作的环境图像,采集的图像作为卷积神经网络算法的训练数据集,同时也是同时定位与构图算法的数据集;
步骤(4):单目机器人采集完数据集后,为了提高卷积神经网络模型性能,进行数据增强工作,一方面可以增加训练数据,从而提升模型的泛化能力,另一方面可以在增加噪声数据,从而增强模型的鲁棒性。使用的卷积神经网络共有5层,在包含softmax的同时,具有卷积层、池化层和全连接层,分别为2层、2层和1层。网络的输入是经过降维处理32*32的图像,第一层卷积层的卷积核为5*5,卷积核移动步幅为1;第二层卷积层的卷积核为5*5,卷积核移动步幅为1;池化层采用2*2规模的窗口,池化步幅为2,并通过均值法实现降采样;网络的最终输出为分类的概率;
步骤(5):单目机器人在运行ORB-SLAM构建的稀疏特征地图的基础上,结合分类信息构建基于关键帧语义标签的映射地图;
步骤(6):单目机器人重定位到感兴趣区域时(包含语义信息区域),进行半稠密重建。在半稠密重建算法中,加入像素点梯度筛选策略,减少地图重建的误差以及时间消耗。接着逆深度估计部分利用仿射变换约束提高归一化互相关(NCC)匹配质量。算法中增添图像金字塔加快逆深度的收敛,同时改进深度信息的传递策略。
所述步骤(5)中语义关键帧具体是指,语义关键帧的内容和格式如下:
Kframe={T_c_w,cyml,f,n,P}
其中,T_c_w表示相机的位姿信息;cyml表示相机内部参数(固定值),f代表当前关键帧中观测到的稀疏ORB特征,n为分类信息,P为分类的权重信息。
(3a):半稠密地图构建是基于灰度值匹配方法,其对光照十分敏感,为了在匹配过程中体现出足够的区分度,筛选出梯度明显的像素点。所谓梯度,即函数的变化率(导数),图像是一个二维函数f(x,y),其偏微分为如式所示:
Figure BDA0002596330040000071
Figure BDA0002596330040000072
因为图像是一个离散的二维函数,其在x和y方向上的像素梯度的ε取值并不能无限趋于0,而图像是按照像素来离散的,ε所取的最小值是1像素。上述公式精简为:
Figure BDA0002596330040000073
Figure BDA0002596330040000074
式中分别是图像在点(x,y)处关于x方向上的梯度和关于y方向上的梯度。两个方向的梯度可以用如下的方式复合在一起表示为:
M(x,y)=|gx|+|gy|
所述步骤(6)中逆深度估计步骤具体是指:
(4a):逆深度估计步骤分为三步:立体视觉匹配,极线搜索以及三角化恢复深度信息;
(4b):基于归一化互相关立体视觉匹配算法的计算方式如下:
为了进一步增强光照变化下的鲁棒性,通过在待匹配像素位置构建一个邻域匹配窗口,与目标像素位置构建同样大小的邻域匹配窗口的方式建立目标函数来对匹配窗口进行衡量相关性,本节这里构建相关窗口添加了仿射校正,否则匹配过程将消耗更多的计算资源,其主要思想是参考帧图片上一点附近都为一个平面且深度一样;其主要计算公式如下:
Pref=fref*depth
pcurr=F(T*Pref)
其中,Pref表示为根据仿射变换计算到参考帧影像上的坐标;fref表示像空间坐标;depth为深度,T为坐标转换矩阵,F为相机坐标系到像素,pcurr为当前帧按深度投影的像素。NCC评分公式为:
Figure BDA0002596330040000081
其中,p(i,j)、p'(i,j)分别表示参考帧图像上p像素块与当前帧图像上p'像素块之间的差异性。其中ε为防止分母出现0这一情况的极小值;
(4c):极线搜索方法为:
将参考帧的像素点从像素坐标转换为摄像机坐标系下的三维坐标,接着将对应的三维坐标以旋转矩阵为变换矩阵转换到当前帧的摄像机坐标系下,然后再投影到当前帧图像上获得当前帧的像素坐标。考虑到深度的方差,在两个极端情况下,即最大和最小深度,将参考帧中转换后的三维坐标投影两次,得到两个投影坐标,这两点坐标的连线即为要搜索的极线。在极线上搜索NCC最相似的块。
(4d):三角化恢复逆深度信息公式为:
s1q1=s2Rq2+t
s1q1^q1=s2q1^Rq2+q1^t=0
其中q1,q2为归一化平面坐标,q2由q1经过一定程度的旋转和平移得到,则它们必满足上式所示的旋转平移变换公式,接着通过转化,联立出一个线性方程组;
对于误差公式由下所示:
Figure BDA0002596330040000091
δp=||p||-||p'||
q1所在平面作为参考帧,q2所在平面则被称作当前帧,l2为q1在当前帧中所对应的极线,相机到成像面的距离都默认为焦距f。假设在l2进行极线搜索时,所找寻到的q'2点与真实的q2点之间具有一个像素的误差。其中p,t已知,α,β,δβ可以经过三角定理得到。δp正是深度的均方差,深度滤波器的目的便是要不断减小这个均方差;
每当新的数据传递过来,就需要利用新的观测数据更新原有的数据信息。这就是高斯融合,也是深度滤波器的原理,其主要公式为:
Figure BDA0002596330040000092
Figure BDA0002596330040000093
其中,
Figure BDA0002596330040000094
为获取的新的数据分布,P(d)=N(μ,σ2)为原有的逆深度值分布,μnew实际上就是每次新三角化出来的深度值,而对于
Figure BDA0002596330040000095
就是上面提到的δp;
所述步骤(6)中基于图像金字塔的逆深度传递是指:
(5a):原图像经过高斯滤波,接着删除所有的偶数行和列,得到的图像的长和宽分别为原图像的一半。原图使用降采样后,上层的每一个像素对应着下层图像中彼此相邻的四个像素。若当前层为n,
Figure BDA0002596330040000096
表示当前层的第j行第j列像素灰度值,则下一层图像所对应的像素灰度值为:
Figure BDA0002596330040000097
(5b):并行处理图像金字塔每一层的匹配、搜索与逆深度估计,接着进行逆深度信息在图像金字塔中的传递策略,其主要步骤如下:
①并行处理图像金字塔每一层,包括像素点筛选、立体视觉匹配和三角化估计逆深度与融合。
②对图像金字塔上层像素点进行遍历。
③与图像金字塔下层相对应的四个像素点进行比较。
④对应下层像素是否存在逆深度估计,若存在进行下一步;若不存在判断下层对应四个像素点是否遍历结束,若未结束,回到步骤3;判断上层图像是否遍历结束,若结束,进行下一步;若未结束,回到步骤2。
⑤上层像素的逆深度估计与下层像素逆深度估计相似,相似的定义为:两像素逆深度值的差值绝对值小于两逆深度分布中的标准差的均值。若相似,通过高斯融合进行逆深度更新;若不相似,判断下层对应四个像素是否遍历结束。
如图3所示,为基于卷积神经网络的语义关键帧构建流程图,具体包括:
(6a)数据采集与处理;
(6b)神经网络训练模型训练;
(6c)根据场景分类构建语义关键帧;
(6d)结合ORB-SLAM构建语义稀疏地图。
所述步骤(5)中利用卷积神经网络构建语义关键帧是指:
Kframe={T_c_w,cyml,f,n,P}
其中,T_c_w表示相机的位姿信息;cyml表示相机内部参数(固定值),f代表当前关键帧中观测到的稀疏ORB特征,n为分类信息,P为分类的权重信息。
如图4所示,为所述步骤(6)中半稠密地图构建流程图,具体包括:
(7a)从数据集读取数据,并以图像金字塔方式处理;
(7b)第一张图作为参考帧,循环读取剩余图片;
(7c)并行执行每一层图像;
(7d)像素梯度筛选;
(7e)NCC匹配后进行极线搜索接着三角化恢复深度信息;
(7f)遍历当前层像素与下层对应四个像素比较。
本发明在机器人定位与构建半稠密地图以及自主导航等方面,具有重要理论和现实应用价值。
以上所述仅是本发明的优选实施方式,应当指出:对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (6)

1.一种基于单目视觉的移动机器人半稠密地图构建方法,其特征在于,包括如下步骤:
移动机器人利用单目相机采集其工作环境下的图像信息;
利用机器人采集的环境图像作为卷积神经网络算法的训练数据集,及定位与构图算法的数据集;
单目机器人完成数据采集后,进行卷积神经网络场景分类,在运行ORB-SLAM构建的稀疏特征地图的基础上,结合分类信息构建语义关键帧的映射地图;
单目机器人重定位到感兴趣区域,进行半稠密地图重建;在半稠密重建算法中,加入像素点梯度筛选策略;
逆深度估计步骤分为三步:立体视觉匹配,极线搜索以及三角化恢复深度信息;
基于归一化互相关立体视觉匹配算法的计算方式如下:
为了进一步增强光照变化下的鲁棒性,通过在待匹配像素位置构建一个邻域匹配窗口,与目标像素位置构建同样大小的邻域匹配窗口的方式建立目标函数来对匹配窗口进行衡量相关性,本节这里构建相关窗口添加了仿射校正,否则匹配过程将消耗更多的计算资源,其主要思想是参考帧图片上一点附近都为一个平面且深度一样;其主要计算公式如下:
Pref=fref*depth
pcurr=F(T*Pref)
其中,Pref表示为根据仿射变换计算到参考帧影像上的坐标;fref表示像空间坐标;depth为深度,T为坐标转换矩阵,F为相机坐标系到像素,pcurr为当前帧按深度投影的像素;NCC评分公式为:
Figure FDA0003746366420000011
其中,p(i,j)、p'(i,j)分别表示参考帧图像上p像素块与当前帧图像上p'像素块之间的差异性,Score(p,p')表示NCC评分;其中ε为防止分母出现0这一情况的极小值;
极线搜索方法为:
将参考帧的像素点从像素坐标转换为摄像机坐标系下的三维坐标,接着将对应的三维坐标以旋转矩阵为变换矩阵转换到当前帧的摄像机坐标系下,然后再投影到当前帧图像上获得当前帧的像素坐标;考虑到深度的方差,在两个极端情况下,即最大和最小深度,将参考帧中转换后的三维坐标投影两次,得到两个投影坐标,这两点坐标的连线即为要搜索的极线;在极线上搜索NCC最相似的块;
三角化恢复逆深度信息公式为:
s1q1=s2Rq2+t
s1q1^q1=s2q1^Rq2+q1^t=0
其中q1,q2为归一化平面坐标,q2由q1经过一定程度的旋转和平移得到,s1,s2表示两帧图片上对应像素点的深度,R,t分别表示变换矩阵和平移,α,β分别表示基线与两帧对应像素点到空间中实际位置连线的夹角,δβ表示有一个像素误差造成的夹角误差,则它们必满足上式所示的旋转平移变换公式,接着通过转化,联立出一个线性方程组;
对于误差公式由下所示:
Figure FDA0003746366420000021
δp=||p||-||p'||
q1所在平面作为参考帧,q2所在平面则被称作当前帧,l2为q1在当前帧中所对应的极线,相机到成像面的距离都默认为焦距f;假设在l2进行极线搜索时,所找寻到的q'2点与真实的q2点之间具有一个像素的误差;其中p,t已知,α,β,δβ可以经过三角定理得到;δp正是深度的均方差,深度滤波器的目的便是要不断减小这个均方差;
每当新的数据传递过来,就需要利用新的观测数据更新原有的数据信息;这就是高斯融合,也是深度滤波器的原理,其主要公式为:
Figure FDA0003746366420000022
Figure FDA0003746366420000023
其中,μ,σ2为原深度值和原深度均方差,μnew,σnew 2为新深度值和新深度均方差,μfuse,σfuse 2为融合后深度值和深度均方差,
Figure FDA0003746366420000031
为获取的新的数据分布,P(d)=N(μ,σ2)为原有的逆深度值分布;
基于图像金字塔的逆深度传递是指:
原图像经过高斯滤波,接着删除所有的偶数行和列,得到的图像的长和宽分别为原图像的一半;原图使用降采样后,上层的每一个像素对应着下层图像中彼此相邻的四个像素;若当前层为n,
Figure FDA0003746366420000032
表示当前层的第j行第j列像素灰度值,则下一层图像所对应的像素灰度值为:
Figure FDA0003746366420000033
并行处理图像金字塔每一层的匹配、搜索与逆深度估计,接着进行逆深度信息在图像金字塔中的传递策略,其主要步骤如下:
①并行处理图像金字塔每一层,包括像素点筛选、立体视觉匹配和三角化估计逆深度与融合;
②对图像金字塔上层像素点进行遍历;
③与图像金字塔下层相对应的四个像素点进行比较;
④对应下层像素是否存在逆深度估计,若存在进行下一步;若不存在判断下层对应四个像素点是否遍历结束,若未结束,回到步骤3;判断上层图像是否遍历结束,若结束,进行下一步;若未结束,回到步骤2;
⑤上层像素的逆深度估计与下层像素逆深度估计相似,相似的定义为:两像素逆深度值的差值绝对值小于两逆深度分布中的标准差的均值;若相似,通过高斯融合进行逆深度更新;若不相似,判断下层对应四个像素是否遍历结束。
2.根据权利要求1所述的基于单目视觉的移动机器人半稠密地图构建方法,其特征在于,在半稠密重建算法中,加入像素点梯度筛选策略,减少地图重建的误差以及时间消耗;接着逆深度估计部分利用仿射变换约束提高归一化互相关匹配质量;算法中增添图像金字塔加快逆深度的收敛,同时改进深度信息的传递策略。
3.根据权利要求1所述的基于单目视觉的移动机器人半稠密地图构建方法,其特征在于,卷积神经网络共有5层,在包含softmax的同时,具有卷积层、池化层和全连接层,分别为2层、2层和1层;网络的输入是经过降维处理32*32的图像,第一层卷积层的卷积核为5*5,卷积核移动步幅为1;第二层卷积层的卷积核为5*5,卷积核移动步幅为1;池化层采用2*2规模的窗口,池化步幅为2,并通过均值法实现降采样;网络的最终输出为分类的概率。
4.根据权利要求1所述的基于单目视觉的移动机器人半稠密地图构建方法,其特征在于,语义关键帧具体是指:
Kframe={T_c_w,cyml,f,n,P}
其中,T_c_w表示相机的位姿信息;cyml表示相机内部参数,f表示当前关键帧中观测到的稀疏ORB特征,n为分类信息,P为分类的权重信息,Kframe表示语义关键帧。
5.根据权利要求1所述的基于单目视觉的移动机器人半稠密地图构建方法,其特征在于,所述像素点梯度筛选具体是指:
半稠密地图构建是基于灰度值匹配方法,其对光照十分敏感,为了在匹配过程中体现出足够的区分度,筛选出梯度明显的像素点;所谓梯度,即函数的变化率,图像是一个二维函数f(x,y),其偏微分为如式所示:
Figure FDA0003746366420000041
Figure FDA0003746366420000042
因为图像是一个离散的二维函数,f(x,y),f(x+ε,y),f(x,y+ε)表示相邻的像素值,ε表示相邻的单位,其在x和y方向上的像素梯度
Figure FDA0003746366420000043
Figure FDA0003746366420000044
的ε取值并不能无限趋于0,而图像是按照像素来离散的,ε所取的最小值是1像素;上述公式精简为:
Figure FDA0003746366420000045
Figure FDA0003746366420000046
式中gx、gy分别是图像在点(x,y)处关于x方向上的梯度和关于y方向上的梯度,f(x,y),f(x+1,y),f(x,y+1)表示相邻一个像素单位的像素点;两个方向的梯度可以用如下的方式复合在一起表示为:
M(x,y)=|gx|+|gy|
式中M(x,y)表示复合导,gx、gy分别是图像在点(x,y)处关于x方向上的梯度和关于y方向上的梯度。
6.根据权利要求1所述的基于单目视觉的移动机器人半稠密地图构建方法,其特征在于,所述构建方法采用的设备包括机器人、单目摄像机、存储设备以及PC端,其中单目摄像机、存储设备均安装在机器人上面,机器人通过摄像机采集实时图像传输到PC端;机器人通过PC端进行算法运行以及系统控制。
CN202010710365.9A 2020-07-22 2020-07-22 一种基于单目视觉的移动机器人半稠密地图构建方法 Active CN111860651B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010710365.9A CN111860651B (zh) 2020-07-22 2020-07-22 一种基于单目视觉的移动机器人半稠密地图构建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010710365.9A CN111860651B (zh) 2020-07-22 2020-07-22 一种基于单目视觉的移动机器人半稠密地图构建方法

Publications (2)

Publication Number Publication Date
CN111860651A CN111860651A (zh) 2020-10-30
CN111860651B true CN111860651B (zh) 2022-09-13

Family

ID=73000834

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010710365.9A Active CN111860651B (zh) 2020-07-22 2020-07-22 一种基于单目视觉的移动机器人半稠密地图构建方法

Country Status (1)

Country Link
CN (1) CN111860651B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114445502A (zh) 2020-11-06 2022-05-06 财团法人工业技术研究院 多摄影机定位调度系统及方法
CN112258604B (zh) * 2020-11-18 2023-02-14 广州极飞科技股份有限公司 悬空线缆重建方法、装置及电子设备
CN113034601A (zh) * 2021-04-27 2021-06-25 贵州大学 一种在环境建模中场景地图点与图像帧的匹配方法
CN113608535A (zh) * 2021-08-04 2021-11-05 北京化工大学 一种低成本的室内移动机器人单目视觉导航系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108151728A (zh) * 2017-12-06 2018-06-12 华南理工大学 一种用于双目slam的半稠密认知地图创建方法
CN111325843A (zh) * 2020-03-09 2020-06-23 北京航空航天大学 一种基于语义逆深度滤波的实时语义地图构建方法
CN111368759A (zh) * 2020-03-09 2020-07-03 河海大学常州校区 基于单目视觉的移动机器人语义地图构建系统

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108151728A (zh) * 2017-12-06 2018-06-12 华南理工大学 一种用于双目slam的半稠密认知地图创建方法
CN111325843A (zh) * 2020-03-09 2020-06-23 北京航空航天大学 一种基于语义逆深度滤波的实时语义地图构建方法
CN111368759A (zh) * 2020-03-09 2020-07-03 河海大学常州校区 基于单目视觉的移动机器人语义地图构建系统

Also Published As

Publication number Publication date
CN111860651A (zh) 2020-10-30

Similar Documents

Publication Publication Date Title
CN111860651B (zh) 一种基于单目视觉的移动机器人半稠密地图构建方法
CN110675418B (zh) 一种基于ds证据理论的目标轨迹优化方法
CN112902953B (zh) 一种基于slam技术的自主位姿测量方法
CN111968129A (zh) 具有语义感知的即时定位与地图构建系统及方法
CN110189399B (zh) 一种室内三维布局重建的方法及系统
CN110689562A (zh) 一种基于生成对抗网络的轨迹回环检测优化方法
CN111060924B (zh) 一种slam与目标跟踪方法
CN108776989B (zh) 基于稀疏slam框架的低纹理平面场景重建方法
Petrovai et al. Exploiting pseudo labels in a self-supervised learning framework for improved monocular depth estimation
WO2021098083A1 (zh) 基于显著特征的多光谱相机动态立体标定算法
CN110910437B (zh) 一种复杂室内场景的深度预测方法
Gao et al. Ground and aerial meta-data integration for localization and reconstruction: A review
CN112750198B (zh) 一种基于非刚性点云的稠密对应预测方法
CN112991534B (zh) 一种基于多粒度物体模型的室内语义地图构建方法及系统
Zhang et al. Vehicle global 6-DoF pose estimation under traffic surveillance camera
CN110599545A (zh) 一种基于特征的构建稠密地图的系统
CN112270694B (zh) 基于激光雷达扫描图进行城市环境动态目标检测的方法
CN116449384A (zh) 基于固态激光雷达的雷达惯性紧耦合定位建图方法
CN114298946B (zh) 一种框架细节增强的深度学习点云补全方法
CN115900710A (zh) 基于视觉信息的动态环境导航方法
CN116310098A (zh) 一种基于注意力机制与可变卷积深度网络的多视图三维重建方法
CN117218343A (zh) 一种基于深度学习的语义部件姿态估计方法
CN116824433A (zh) 基于自监督神经网络的视觉-惯导-雷达融合自定位方法
CN115984587A (zh) 联合混合尺度特征描述子与邻居一致性的图像匹配方法
CN116151320A (zh) 一种抗动态目标干扰的视觉里程计方法及视觉里程计装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant