CN110006444A - 一种基于优化混合高斯模型的抗干扰视觉里程计构建方法 - Google Patents
一种基于优化混合高斯模型的抗干扰视觉里程计构建方法 Download PDFInfo
- Publication number
- CN110006444A CN110006444A CN201910215637.5A CN201910215637A CN110006444A CN 110006444 A CN110006444 A CN 110006444A CN 201910215637 A CN201910215637 A CN 201910215637A CN 110006444 A CN110006444 A CN 110006444A
- Authority
- CN
- China
- Prior art keywords
- gray level
- level image
- frame
- characteristic point
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000000007 visual effect Effects 0.000 title claims abstract description 30
- 238000005457 optimization Methods 0.000 title claims abstract description 18
- 238000010276 construction Methods 0.000 title claims abstract description 12
- 238000012545 processing Methods 0.000 claims abstract description 15
- 238000001514 detection method Methods 0.000 claims abstract description 9
- 238000000034 method Methods 0.000 claims description 22
- 238000004364 calculation method Methods 0.000 claims description 21
- 238000004422 calculation algorithm Methods 0.000 claims description 11
- 239000000203 mixture Substances 0.000 claims description 9
- 238000000605 extraction Methods 0.000 claims description 8
- 230000008569 process Effects 0.000 claims description 6
- 239000011159 matrix material Substances 0.000 claims description 3
- 238000004088 simulation Methods 0.000 claims description 3
- 230000007306 turnover Effects 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims 1
- 230000006870 function Effects 0.000 description 8
- 230000004069 differentiation Effects 0.000 description 5
- 241001062009 Indigofera Species 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 2
- 239000004744 fabric Substances 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000005034 decoration Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C22/00—Measuring distance traversed on the ground by vehicles, persons, animals or other moving solid bodies, e.g. using odometers, using pedometers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Abstract
本发明公开了一种基于优化混合高斯模型的抗干扰视觉里程计构建方法,包括:读取采集连续视频帧序列图像,进行灰度化处理;对图像进行相似度判定,若结果为相似度较小则舍弃,直至判定结果为相似度较大;提取前n1帧相邻帧灰度图像中的特征点;对每个特征点建立混合高斯模型;利用混合高斯模型进行目标检测,得到有效特征点;将有效特征点作为初始数据,获得有效特征点在当前帧序列灰度图像中的位置坐标,获取后续帧灰度图像的有效特征点;将获得的相邻灰度图像间的有效特征点组成有效特征点对,估算相机的位置与运动轨迹;循环上述步骤,重新获取有效特征点并进行运动估计,直到所有的序列帧图像处理完毕,完成视觉里程计的构建。
Description
技术领域
本发明涉及视觉导航及图像处理的技术领域,具体涉及一种基于优化混合高斯模型的抗干扰视觉里程计构建方法。
背景技术
移动机器人进入未知环境后实现定位和导航功能是自主搜索及识别目标的重要开端,视觉里程计指通过机器视觉技术,处理分析连续视频序列帧图像以完成对移动相机的位置及姿态估计,实现导航及定位功能,属于视觉导航技术范畴。视觉导航通过视觉传感器获取的视觉信息来引导移动机器人或移动载体完成运动估计。视觉传感器可提供更为丰富的场景信息,如色彩、纹理、形状等,也更接近人类的环境感知方式,且能够在高楼林立的城市环境中或室内环境中工作,并且在信号遮挡或屏蔽的环境下正常工作,这些是仅用GPS导航或激光、超声波传感器技术无法做到的;此外,视觉导航不存在惯性导航误差随工作时间累积的问题。通过视觉导航技术,机器人可获得自己的位置信息,进一步实现目标识别、自主避障、感知周围环境等功能。目前的视觉里程计构建方法存在无法较好的判别区分移动物体特征点及静止物体特征点,受外部环境中移动物体特征点的干扰较大问题,针对该问题,本发明公开了一种基于优化混合高斯模型的抗干扰视觉里程计构建方法,对动态及静止物体特征点进行判别区分,提高视觉里程计定位结果的稳定性、环境适应性及抗干扰性能,以应对复杂多变的环境。
发明内容
针对现有技术的不足,本发明公开了一种基于优化混合高斯模型的抗干扰视觉里程计构建方法,包括如下步骤:
步骤1,读取采集连续视频帧序列图像,进行灰度化处理,得到灰度图像;
步骤2,根据巴氏系数对灰度图像分别进行相似度检验,舍弃相似度低的图像;
步骤3,提取前n1(一般取值为50)帧相邻帧灰度图像的特征点。
步骤4,建立优化的混合高斯模型:利用前n1帧的相邻帧灰度图像的特征点建立混合高斯模型,只对特征点建立混合高斯模型而不是所有像素点,优化了传统的混合高斯模型,并对建立的混合高斯模型进行初始化;
步骤5,利用优化的混合高斯模型进行目标检测,通过判别前n1帧相邻帧灰度图像中的各特征点的w个高斯模型来区分静态物体与动态物体的特征点;滤除动态物体特征点,获得静态物体特征点,即为有效特征点;第r个有效特征点的行数xr和列数yr即为该有效特征点的位置坐标(xr,yr);
步骤6,将有效特征点的位置坐标作为初始数据,由于一般所获取图像的帧率为50~100帧/秒,所以连续50~100帧图像的相似度较高,因此可根据已获得的位置坐标获取第n1+1帧至第n1+30帧灰度图像的有效特征点;不必逐帧提取特征点,从而提高特征点提取的快速性;
步骤7,将前n1+30帧图像获取的相邻帧灰度图像的有效特征点组成特征点对,完成前n1+30帧图像的运动估计;
步骤8,循环步骤2~步骤7,重新获取有效特征点并进行运动估计直到采集的连续视频帧序列图像处理完毕,完成视觉里程计的构建。
本发明中,步骤1包括如下步骤:
步骤1-1,读取已采集的室内彩色图像,按照如下公式进行灰度化处理:
Gray(i,j)=0.30R(i,j)+0.59G(i,j)+0.11B(i,j) (1)
Gray(i,j)为灰度图像在彩色图像坐标(i,j)处的灰度值;R(i,j)为红色分量R在彩色图像坐标(i,j)处的分量值;G(i,j)为绿色分量G在彩色图像坐标(i,j)处的分量值;B(i,j)为蓝色分量B在彩色图像坐标(i,j)处的分量值;
在公式(1)中,根据重要性及其它指标,将绿红蓝RGB三个分量以不同的权值进行加权平均,由于人眼对绿色的敏感最高,对蓝色敏感最低,因此,按公式(1)对绿红蓝RGB三分量进行加权平均能得到较合理的灰度图像。
步骤2包括:
步骤2-1,根据巴氏系数对第1帧至第5帧灰度图像和第50帧至第55帧灰度图像分别进行相似度检验,每两帧灰度图像作为一对,得到每对灰度图像的相似度检验结果;
步骤2-2,判定相似度检验的结果,如果有2对以上的灰度图像的相似度小于60%,则判定为相似度低,舍弃相似度低的图像,并以5对图像为单位依次进行相似度判定,直到至少3对相似度都在60%以上。
步骤2-1包括:通过巴氏系数,根据两帧灰度图像灰度直方图的匹配程度衡量两帧灰度图像的相似度,具体过程为:
设定其中一帧灰度图像像素的灰度值概率分布即直方图数组p={p1,p2,…,pn,…,p256},pn为直方图数组p中的第n个元素,n取值为1~256,且满足以下条件:
另一帧灰度图像的灰度值概率分布即直方图数组为q={q1,q2,…,qn,…,q256},qn为直方图数组q中的第n个元素,q取值为1~256,则巴氏系数ρ[p,q]表示为:
其中,巴氏系数ρ[p,q]取值范围为0~1。
步骤3包括:
采用ORB(Oriented FAST and Rotated BRIEF)快速特征点提取算法提取前n1帧的相邻帧灰度图像特征点(可参考王慧国.基于ORB特征的视觉里程计与建图研究,中国科学院大学,硕士学位论文,2018,pp.20-23)。
步骤4包括如下步骤:
利用步骤3中提取的相邻帧灰度图像特征点,只对相邻帧灰度图像特征点建立混合高斯模型,并进行参数初始化,具体包括如下步骤:
步骤4-1,建立混合高斯模型模拟复杂背景,具体为:对步骤1中获得的相邻帧灰度图像特征点都分别建立w个高斯分布,设定t时刻特征点ft(x,y)的概率密度函数P(ft(x,y))为:
其中,x表示特征点的行坐标,y表示特征点的列坐标,w表示混合高斯模型中高斯模型的数目(w取值范围为3~5);Qn(t)表示t时刻第n个高斯分布的权值,且每个特征点的权值之和为1,即有μn(t)为t时刻第n个高斯分布的均值向量;Cn(t)为t时刻第n个高斯分布的协方差矩阵;F(ft(x,y),μn(t),Cn(t))表示t时刻第n个高斯分布的概率密度,具体计算方式如下:
上式中,m表示t时刻特征点ft(x,y)的维数,对灰度图像进行高斯建模时m取1;对高斯模型进行初始化操作时,取前n1帧灰度图像进行计算,计算出已建立的高斯模型的均值和方差参量,均值和方差的计算公式如下:
其中μ0表示初始时刻第n个高斯分布的均值向量,σ2表示方差;
步骤4-2,在生成混合高斯模型的过程中,由于每个高斯模型对运动检测结果的影响不同,因此算法通过优先级βn(t)来进行高斯模型权值的区分,按优先级的大小选取前s1个满足条件的高斯模型作为混合高斯模型的组成,优先级βn(t)的计算形式为:
s1的取值满足以下条件(argmin函数功能为括号内公式满足条件时取s1最小值,此外,此时的s1取值即为S的取值):
其中,s1取值即为S的取值,T为经验阈值,范围为0~1,σn(t)表示t时刻第n个高斯分布的标准差,S表示可生成混合高斯模型的高斯模型的最小值,仅有在s1个满足条件的高斯模型的高斯分布权值之和大于阈值T的情况下生成混合高斯模型。
步骤4-3,更新混合高斯模型参数:在检测过程中,如果当前特征点被判定为运动目标,则该特征点的模型参数不更新,否则更新模型参数,对t时刻的特征点的高斯分布有如下判定:
其中,Xn(t)表示t时刻的特征点第n个高斯分布的判定值;D表示置信参数,取值范围2~3,Xn(t)=1表示该特征点属于背景区域,进行参数的更新;Xn(t)=0表示该特征点和背景模型不匹配,不进行参数的更新。混合高斯模型的参数更新公式如下:
wn(t)=(1-α)wn(t-1)+α (10)
μn(t)=(1-ρ)μn(t-1)+ρft(x,y) (11)
其中,wn(t)表示t时刻第n个高斯分布的权值,μn(t)表示t时刻第n个高斯分布的均值,表示t时刻第n个高斯分布的方差,α表示权值更新频率,取值范围[0,1]。ρ表示均值与方差的更新率;F(ft(x,y)|μn(t-1),σn(t-1)表示t时刻第n个高斯分布的概率密度函数,计算时带入t-1时刻第n个高斯分布的均值和标准差,计算公式见式(5);ρ的具体计算公式如下:
ρ=α×F(ft(x,y)|μn(t-1),σn(t-1)) (13)
步骤5包括如下步骤:
步骤5-1,利用当前灰度图像与步骤4-3获得的更新混合高斯模型参数后的混合高斯模型进行差分计算,计算公式如下:
|ft(x,y)-μn(t-1)|>D1×δn(t-1) (14)
其中ft(x,y)表示当前灰度图像的一个特征点;μn(t-1)表示t-1时刻第n个高斯分布的均值,δn(t-1)表示t-1时刻第n个高斯分布的标准差,D1为经验阈值(取值范围为2.5~3);
步骤5-2,判断上述不等式即公式(14)左侧差分取值与不等式右侧差分阈值D1*δn(t-1)的大小,若差分取值大于差分阈值,判断该点为动态物体特征点,否则为静态物体特征点;选取静态物体的特征点为当前灰度图像的有效特征点。第r个有效特征点的行数xr和列数yr即为该有效特征点的位置坐标(xr,yr)。
步骤6包括:
通过步骤5-2得到有效特征点的位置坐标,在第n1+1帧至第n1+50帧灰度图像中分别标记所述位置坐标对应的点为第n1+1帧至第n1+30帧灰度图像有效特征点。
步骤7包括:
步骤7-1,将步骤6获得的有效特征点组成特征点对,通过这些特征点对的深度信息得到空间中特征点的三维坐标,从而得到相机位置,并构成相对应的特征点对三维坐标集合;
步骤7-2,根据获得的三维坐标集合,利用RANSAC算法求出连续两帧灰度图像之间的运动变换关系,再通过ICP算法对步骤7-1构成相对应的特征点对三维坐标集合进行点云配准运算,从而进行运动估计;
步骤7-3,重复步骤7-1~步骤7-2,直到没有新的灰度图像输入为止。
步骤7中涉及的三维坐标集合及运动估计的具体内容可参考“张阳.基于Kinect的视觉里程计研究,安徽工程大学,硕士学位论文,2018,pp.18-29。”
本发明为室内外环境下的视觉里程计建立提供解决方法,本发明针对普通视觉里程计中特征点提取数目多,计算量大,存在运动物体特征点干扰导致定位的不准确,提出基于优化混合高斯模型的抗干扰视觉里程计构建方法,通过建立混合高斯模型,提高视觉里程计方法的环境适应能力及抗干扰性能。
附图说明
下面结合附图和具体实施方式对本发明做更进一步的具体说明,本发明的上述或其他方面的优点将会变得更加清楚。
图1为本发明技术流程框图。
图2为本发明在室内场景下提取的特征点结果。
图3为本发明在室内场景下构建的视觉里程计结果。
图4为本发明在室外场景下提取的特征点结果。
图5为本发明在室外场景下构建的视觉里程计结果。
图6为本发明在室外场景下形成的闭环路线结果。
图7为本发明应用于巡检人员的视觉导航装备功能示意图。
具体实施方式
下面结合附图及实施例对本发明做进一步说明。
如图1所示,本发明公开了一种基于优化混合高斯模型的抗干扰视觉里程计构建方法,包括如下步骤:
步骤1,读取采集连续视频帧序列图像,进行灰度化处理,得到灰度图像;
步骤2,根据巴氏系数对灰度图像分别进行相似度检验,舍弃相似度低的图像;
步骤3,提取前n1(一般取值为50)帧相邻帧灰度图像的特征点。
步骤4,传统的混合高斯模型建立方法为:利用视频序列图像中的所有像素点建立混合高斯模型,本发明对建立的混合高斯模型进行优化,具体优化方法为:利用步骤3中提取的特征点,只对特征点建立混合高斯模型,并进行参数初始化;
步骤5,利用优化的混合高斯模型进行目标检测,通过判别前n1帧相邻帧灰度图像中的各特征点的w个高斯模型来区分静态物体与动态物体的特征点;滤除动态物体特征点,获得静态物体特征点,即为有效特征点;第r个有效特征点的行数xr和列数yr即为该有效特征点的位置坐标(xr,yr);
步骤6,将有效特征点的位置坐标作为初始数据,由于一般所获取图像的帧率为50~100帧/秒,所以连续50~100帧图像的相似度较高,因此可根据已获得的位置坐标获取第n1+1帧至第n1+30帧灰度图像的有效特征点;不必逐帧提取特征点,从而提高特征点提取的快速性;
步骤7,将前n1+30帧图像获取的相邻帧灰度图像的有效特征点组成特征点对,完成前n1+30帧图像的运动估计;
步骤8,循环步骤2~步骤7,重新获取有效特征点并进行运动估计直到采集的连续视频帧序列图像处理完毕,完成视觉里程计的构建。
本发明中,步骤1包括如下步骤:
步骤1-1,读取已采集的室内彩色图像,按照如下公式进行灰度化处理:
Gray(i,j)=0.30R(i,j)+0.59G(i,j)+0.11B(i,j) (1)
Gray(i,j)为灰度图像在彩色图像坐标(i,j)处的灰度值;R(i,j)为红色分量R在彩色图像坐标(i,j)处的分量值;G(i,j)为绿色分量G在彩色图像坐标(i,j)处的分量值;B(i,j)为蓝色分量B在彩色图像坐标(i,j)处的分量值;
在公式(1)中,根据重要性及其它指标,将绿红蓝RGB三个分量以不同的权值进行加权平均,由于人眼对绿色的敏感最高,对蓝色敏感最低,因此,按公式(1)对绿红蓝RGB三分量进行加权平均能得到较合理的灰度图像。
步骤2包括:
步骤2-1,根据巴氏系数对第1帧至第5帧灰度图像和第50帧至第55帧灰度图像分别进行相似度检验,每两帧灰度图像作为一对,得到每对灰度图像的相似度检验结果;
步骤2-2,判定相似度检验的结果,如果有2对以上的灰度图像的相似度小于60%,则判定为相似度低,舍弃相似度低的图像,并以5对图像为单位依次进行相似度判定,直到至少3对相似度都在60%以上。
步骤2-1包括:通过巴氏系数,根据两帧灰度图像灰度直方图的匹配程度衡量两帧灰度图像的相似度,具体过程为:
设定其中一帧灰度图像像素的灰度值概率分布即直方图数组p={p1,p2,…,pn,…,p256},pn为直方图数组p中的第n个元素,n取值为1~256,且满足以下条件:
另一帧灰度图像的灰度值概率分布即直方图数组为q={q1,q2,…,qn,…,q256},qn为直方图数组q中的第n个元素,q取值为1~256,则巴氏系数ρ[p,q]表示为:
其中,巴氏系数ρ[p,q]取值范围为0~1。
步骤3包括:
采用ORB(Oriented FAST and Rotated BRIEF)快速特征点提取算法提取前n1帧的相邻帧灰度图像特征点。
步骤4包括如下步骤:
利用步骤3中提取的相邻帧灰度图像特征点,只对相邻帧灰度图像特征点建立混合高斯模型,并进行参数初始化,具体包括如下步骤:
步骤4-1,建立混合高斯模型模拟复杂背景,具体为:对步骤1中获得的相邻帧灰度图像特征点都分别建立w个高斯分布(w取值范围为3~5),设定t时刻特征点ft(x,y)的概率密度函数P(ft(x,y))为:
其中,x表示特征点的行坐标,y表示特征点的列坐标,w表示混合高斯模型中高斯模型的数目;Qn(t)表示t时刻第n个高斯分布的权值,且每个特征点的权值之和为1,即有μn(t)为t时刻第n个高斯分布的均值向量;Cn(t)为t时刻第n个高斯分布的协方差矩阵;F(ft(x,y),μn(t),Cn(t))表示t时刻第n个高斯分布的概率密度,具体计算方式如下:
上式中,m表示t时刻特征点ft(x,y)的维数,对灰度图像进行高斯建模时m取1;对高斯模型进行初始化操作时,取前n1帧灰度图像进行计算,计算出已建立的高斯模型的均值和方差参量,均值和方差的计算公式如下:
其中μ0表示初始时刻第n个高斯分布的均值向量,σ2表示方差;
步骤4-2,在生成混合高斯模型的过程中,由于每个高斯模型对运动检测结果的影响不同,因此算法通过优先级βn(t)来进行高斯模型权值的区分,按优先级的大小选取前s1个满足条件的高斯模型作为混合高斯模型的组成,优先级βn(t)的计算形式为:
s1的取值满足以下条件(argmin函数功能为括号内公式满足条件时取s1最小值,此外,此时的s1取值即为S的取值):
其中,s1取值即为S的取值,T为经验阈值,范围为0~1,σn(t)表示t时刻第n个高斯分布的标准差,S表示可生成混合高斯模型的高斯模型的最小值,仅有在s1个满足条件的高斯模型的高斯分布权值之和大于阈值T的情况下生成混合高斯模型。
步骤4-3,更新混合高斯模型参数:在检测过程中,如果当前特征点被判定为运动目标,则该特征点的模型参数不更新,否则更新模型参数,对t时刻的特征点的高斯分布有如下判定:
其中,Xn(t)表示t时刻的特征点第n个高斯分布的判定值;D表示置信参数,取值范围2~3,Xn(t)=1表示该特征点属于背景区域,进行参数的更新;Xn(t)=0表示该特征点和背景模型不匹配,不进行参数的更新。混合高斯模型的参数更新公式如下:
wn(t)=(1-α)wn(t-1)+α (10)
μn(t)=(1-ρ)μn(t-1)+ρft(x,y) (11)
其中,wn(t)表示t时刻第n个高斯分布的权值,μn(t)表示t时刻第n个高斯分布的均值,表示t时刻第n个高斯分布的方差,α表示权值更新频率,取值范围[0,1]。ρ表示均值与方差的更新率,F(ft(x,y)|μn(t-1),σn(t-1)表示t时刻第n个高斯分布的概率密度函数,计算时带入t-1时刻第n个高斯分布的均值和标准差,计算公式见式(5);ρ的具体计算公式如下:
ρ=α×p(ft(x,y)|μn(t-1),σn(t-1)) (13)
步骤5包括如下步骤:
步骤5-1,利用当前灰度图像与步骤4-3获得的更新混合高斯模型参数后的混合高斯模型进行差分计算,计算公式如下:
|ft(x,y)-μn(t-1)|>D1×δn(t-1) (14)
其中ft(x,y)表示当前灰度图像的一个特征点;μn(t-1)表示t-1时刻第n个高斯分布的均值,δn(t-1)表示t-1时刻第n个高斯分布的标准差,D1为经验阈值(取值范围为(2.5~3);
步骤5-2,判断上述不等式即公式(14)左侧差分取值与不等式右侧差分阈值D1*δn(t-1)的大小,若差分取值大于差分阈值,判断该点为动态物体特征点,否则为静态物体特征点;选取静态物体的特征点为当前灰度图像的有效特征点,从而剔除动态物体特征点对后续步骤中相机位置和运动轨迹估计的干扰,室内场景下特征点提取结果由图2可见,室外场景下特征点提取结果由图4可见。第r个有效特征点的行数xr和列数yr即为该有效特征点的位置坐标(xr,yr)。
步骤6包括:
通过步骤5-2得到有效特征点的位置坐标,在第n1+1帧至第n1+50帧灰度图像中分别标记所述位置坐标对应的点为第n1+1帧至第n1+30帧灰度图像有效特征点。
步骤7包括:
步骤7-1,将步骤6获得的有效特征点组成特征点对,通过这些特征点对的深度信息得到空间中特征点的三维坐标,从而得到相机位置,并构成相对应的特征点对三维坐标集合;
步骤7-2,根据获得的三维坐标集合,利用RANSAC算法求出连续两帧灰度图像之间的运动变换关系,再通过ICP算法对步骤7-1构成相对应的特征点对三维坐标集合进行点云配准运算,从而进行运动估计;
步骤7-3,重复步骤7-1~步骤7-2,直到没有新的灰度图像输入为止,完成视觉里程计的构建。室内场景下构建的视觉里程计结果由图3可见,室外场景下构建的视觉里程计结果由图5可见。从图4-图5可以看出,本发明最终实现的基于优化混合高斯模型的抗干扰视觉里程计构建方法对外部环境具有较好的适应性,从而提高视觉里程计定位结果的稳定性及抗干扰性能。
通过上述技术方案的实施,本发明的有益效果是:(1)使用混合高斯模型并进行优化,减少计算量提高效率;(2)减少了运动物体的干扰,提高了抗干扰能力;(3)使用巴氏系数计算相似度,简便快速;(4)运算速度快,抗环境干扰能力强。
本发明最终实现的基于优化混合高斯模型的抗干扰视觉里程计构建方法可以应用于室内环境下的穿戴式视觉导航及定位装备,提供在室内环境下的个人位置信息服务,例如实现对巡检人员、井下及消防作业人员等行业的个人导航及定位功能,本发明方法在室外场景下形成的闭环路线结果如图6所示,本发明应用于巡检人员的视觉导航装备功能示意图如图7所示。
本发明提供了一种基于优化混合高斯模型的抗干扰视觉里程计构建方法,具体实现该技术方案的方法和途径很多,以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。本实施例中未明确的各组成部分均可用现有技术加以实现。
Claims (9)
1.一种基于优化混合高斯模型的抗干扰视觉里程计构建方法,其特征在于,包括如下步骤:
步骤1,读取采集连续视频帧序列图像,进行灰度化处理,得到灰度图像;
步骤2,根据巴氏系数对灰度图像分别进行相似度检验,舍弃相似度低的图像;
步骤3,提取前n1帧相邻帧灰度图像的特征点;
步骤4,建立优化的混合高斯模型:利用前n1帧的相邻帧灰度图像的特征点建立混合高斯模型,并对建立的混合高斯模型进行初始化;
步骤5,利用优化的混合高斯模型进行目标检测,通过判别前n1帧相邻帧灰度图像中的各特征点的w个高斯模型来区分静态物体与动态物体的特征点;滤除动态物体特征点,获得静态物体特征点,即为有效特征点;第r个有效特征点的行数xr和列数yr即为该有效特征点的位置坐标(xr,yr);
步骤6,将有效特征点的位置坐标作为初始数据,根据初始数据获取第n1+1帧至第n1+30帧灰度图像的有效特征点;
步骤7,将前n1+30帧图像获取的相邻帧灰度图像的有效特征点组成特征点对,完成前n1+30帧图像的运动估计;
步骤8,循环步骤2~步骤7,重新获取有效特征点并进行运动估计直到采集的连续视频帧序列图像处理完毕,完成视觉里程计的构建。
2.根据权利要求1所述的方法,特征在于,步骤1包括如下步骤:
读取已采集的彩色图像,按照如下公式进行灰度化处理:
Gray(i,j)=0.30R(i,j)+0.59G(i,j)+0.11B(i,j) (1)
Gray(i,j)为灰度图像在彩色图像坐标(i,j)处的灰度值;R(i,j)为红色分量R在彩色图像坐标(i,j)处的分量值;G(i,j)为绿色分量G在彩色图像坐标(i,j)处的分量值;B(i,j)为蓝色分量B在彩色图像坐标(i,j)处的分量值。
3.根据权利要求2所述的方法,特征在于,步骤2包括:
步骤2-1,根据巴氏系数对第1帧至第5帧灰度图像和第50帧至第55帧灰度图像分别进行相似度检验,每两帧灰度图像作为一对,得到每对灰度图像相似度检验结果;
步骤2-2,判定相似度检验的结果,如果有2对以上的灰度图像的相似度小于60%,则判定为相似度低,舍弃相似度低的图像,并以5对图像为单位依次进行相似度判定,直到至少3对相似度都在60%以上。
4.根据权利要求2所述的方法,其特征在于,步骤2-1包括:通过巴氏系数,根据两帧灰度图像灰度直方图的匹配程度衡量两帧灰度图像的相似度,具体过程为:
设定其中一帧灰度图像像素的灰度值概率分布即直方图数组p={p1,p2,…,pn,…,p256},pn为直方图数组p中的第n个元素,n取值为1~256,且满足以下条件:
另一帧灰度图像的灰度值概率分布即直方图数组为q={q1,q2,…,qn,…,q256},qn为直方图数组q中的第n个元素,q取值为1~256,则巴氏系数ρ[p,q]表示为:
其中,巴氏系数ρ[p,q]取值范围为0~1。
5.根据权利要求3所述的方法,其特征在于,步骤3包括:
采用ORB快速特征点提取算法提取前n1帧的相邻帧灰度图像特征点。
6.根据权利要求4所述的方法,其特征在于,步骤4包括如下步骤:
利用步骤3中提取的相邻帧灰度图像特征点,只对相邻帧灰度图像特征点建立混合高斯模型,并进行参数初始化,具体包括如下步骤:
步骤4-1,建立混合高斯模型模拟复杂背景,具体为:对步骤1中获得的相邻帧灰度图像特征点都分别建立w个高斯分布,设定t时刻特征点ft(x,y)的概率密度函数P(ft(x,y))为:
其中,x表示特征点的行坐标,y表示特征点的列坐标,w表示混合高斯模型中高斯模型的数目;Qn(t)表示t时刻第n个高斯分布的权值,且每个特征点的权值之和为1,即有μn(t)为t时刻第n个高斯分布的均值向量;Cn(t)为t时刻第n个高斯分布的协方差矩阵;F(ft(x,y),μn(t),Cn(t))表示t时刻第n个高斯分布的概率密度,具体计算方式如下:
上式中,m表示t时刻特征点ft(x,y)的维数,对灰度图像进行高斯建模时m取1;对高斯模型进行初始化操作时,取前n1帧灰度图像进行计算,计算出已建立的高斯模型的均值和方差参量,均值和方差的计算公式如下:
其中μ0表示初始时刻第n个高斯分布的均值向量,σ2表示方差;
步骤4-2,在生成混合高斯模型的过程中,通过优先级βn(t)来进行高斯模型权值的区分,按优先级的大小选取前s1个满足条件的高斯模型作为混合高斯模型的组成,优先级βn(t)的计算形式为:
s1的取值满足以下条件:
其中,s1取值即为S的取值,T为经验阈值,范围为0~1,σn(t)表示t时刻第n个高斯分布的标准差,S表示可生成混合高斯模型的高斯模型的最小值,仅有在s1个满足条件的高斯模型的高斯分布权值之和大于阈值T的情况下生成混合高斯模型;
步骤4-3,更新混合高斯模型参数:在检测过程中,如果当前特征点被判定为运动目标,则该特征点的模型参数不更新,否则更新模型参数,对t时刻的特征点的高斯分布有如下判定:
其中,Xn(t)表示t时刻的特征点第n个高斯分布的判定值;D表示置信参数,取值范围2~3,Xn(t)=1表示该特征点属于背景区域,进行参数的更新;Xn(t)=0表示该特征点和背景模型不匹配,不进行参数的更新;混合高斯模型的参数更新公式如下:
wn(t)=(1-α)wn(t-1)+α (10)
μn(t)=(1-ρ)μn(t-1)+ρft(x,y) (11)
其中,wn(t)表示t时刻第n个高斯分布的权值,μn(t)表示t时刻第n个高斯分布的均值,表示t时刻第n个高斯分布的方差,α表示权值更新频率,取值范围[0,1];ρ表示均值与方差的更新率;F(ft(x,y)|μn(t-1),σn(t-1)表示t时刻第n个高斯分布的概率密度函数,计算时带入t-1时刻第n个高斯分布的均值和标准差,计算公式见式(5);ρ的具体计算公式如下:
ρ=α×F(ft(x,y)|μn(t-1),σn(t-1)) (13)。
7.根据权利要求5所述的方法,其特征在于,步骤5包括如下步骤:
步骤5-1,利用当前灰度图像与步骤4-3获得的更新混合高斯模型参数后的混合高斯模型进行差分计算,计算公式如下:
|ft(x,y)-μn(t-1)|>D1×δn(t-1) (14)
其中ft(x,y)表示当前灰度图像的一个特征点;μn(t-1)表示t-1时刻第n个高斯分布的均值,δn(t-1)表示t-1时刻第n个高斯分布的标准差,D1为经验阈值;
步骤5-2,判断上述不等式即公式(14)左侧差分取值与不等式右侧差分阈值D1*δn(t-1)的大小,若差分取值大于差分阈值,判断该点为动态物体特征点,否则为静态物体特征点;选取静态物体的特征点为当前灰度图像的有效特征点;第r个有效特征点的行数xr和列数yr即为该有效特征点的位置坐标(xr,yr)。
8.根据权利要求6所述的方法,其特征在于,步骤6包括:
通过步骤5-2得到有效特征点的位置坐标,在第n1+1帧至第n1+50帧灰度图像中分别标记所述位置坐标对应的点为第n1+1帧至第n1+30帧灰度图像有效特征点。
9.根据权利要求7所述的方法,其特征在于,步骤7包括:
步骤7-1,将步骤6获得的有效特征点组成特征点对,通过这些特征点对的深度信息得到空间中特征点的三维坐标,从而得到相机位置,并构成相对应的特征点对三维坐标集合;
步骤7-2,根据获得的三维坐标集合,利用RANSAC算法求出连续两帧灰度图像之间的运动变换关系,再通过ICP算法对步骤7-1构成相对应的特征点对三维坐标集合进行点云配准运算,从而进行运动估计;
步骤7-3,重复步骤7-1~步骤7-2,直到没有新的灰度图像输入为止。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910215637.5A CN110006444B (zh) | 2019-03-21 | 2019-03-21 | 一种基于优化混合高斯模型的抗干扰视觉里程计构建方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910215637.5A CN110006444B (zh) | 2019-03-21 | 2019-03-21 | 一种基于优化混合高斯模型的抗干扰视觉里程计构建方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110006444A true CN110006444A (zh) | 2019-07-12 |
CN110006444B CN110006444B (zh) | 2020-09-22 |
Family
ID=67167602
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910215637.5A Active CN110006444B (zh) | 2019-03-21 | 2019-03-21 | 一种基于优化混合高斯模型的抗干扰视觉里程计构建方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110006444B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110542908A (zh) * | 2019-09-09 | 2019-12-06 | 阿尔法巴人工智能(深圳)有限公司 | 应用于智能驾驶车辆上的激光雷达动态物体感知方法 |
CN111002302A (zh) * | 2019-09-09 | 2020-04-14 | 浙江瀚镪自动化设备股份有限公司 | 结合高斯混合模型和动态系统的机械臂抓取轨迹规划方法 |
CN111460941A (zh) * | 2020-03-23 | 2020-07-28 | 南京智能高端装备产业研究院有限公司 | 一种穿戴式导航装备中视觉导航特征点提取与匹配方法 |
CN111982103A (zh) * | 2020-08-14 | 2020-11-24 | 北京航空航天大学 | 一种权值优化的点线综合视觉惯性里程计方法 |
CN112184763A (zh) * | 2020-09-09 | 2021-01-05 | 南京师范大学镇江创新发展研究院 | 一种机器人视觉导航中视觉里程计构建方法 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090262977A1 (en) * | 2008-04-18 | 2009-10-22 | Cheng-Ming Huang | Visual tracking system and method thereof |
CN101576384A (zh) * | 2009-06-18 | 2009-11-11 | 北京航空航天大学 | 一种基于视觉信息校正的室内移动机器人实时导航方法 |
CN103325108A (zh) * | 2013-05-27 | 2013-09-25 | 浙江大学 | 一种融合光流与特征点匹配的单目视觉里程计的设计方法 |
CN103700114A (zh) * | 2012-09-27 | 2014-04-02 | 中国航天科工集团第二研究院二O七所 | 一种基于可变高斯混合数的复杂背景建模方法 |
CN106952286A (zh) * | 2017-03-21 | 2017-07-14 | 中国人民解放军火箭军工程大学 | 基于运动显著图和光流矢量分析的动态背景目标分割方法 |
CN107025668A (zh) * | 2017-03-30 | 2017-08-08 | 华南理工大学 | 一种基于深度相机的视觉里程计的设计方法 |
CN107292911A (zh) * | 2017-05-23 | 2017-10-24 | 南京邮电大学 | 一种基于多模型融合和数据关联的多目标跟踪方法 |
US20180240249A1 (en) * | 2017-02-23 | 2018-08-23 | Hitachi, Ltd. | Image Recognition System |
CN109064498A (zh) * | 2018-08-01 | 2018-12-21 | 湖北工业大学 | 基于Meanshift、卡尔曼滤波和图像匹配的目标跟踪方法 |
-
2019
- 2019-03-21 CN CN201910215637.5A patent/CN110006444B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090262977A1 (en) * | 2008-04-18 | 2009-10-22 | Cheng-Ming Huang | Visual tracking system and method thereof |
CN101576384A (zh) * | 2009-06-18 | 2009-11-11 | 北京航空航天大学 | 一种基于视觉信息校正的室内移动机器人实时导航方法 |
CN103700114A (zh) * | 2012-09-27 | 2014-04-02 | 中国航天科工集团第二研究院二O七所 | 一种基于可变高斯混合数的复杂背景建模方法 |
CN103325108A (zh) * | 2013-05-27 | 2013-09-25 | 浙江大学 | 一种融合光流与特征点匹配的单目视觉里程计的设计方法 |
US20180240249A1 (en) * | 2017-02-23 | 2018-08-23 | Hitachi, Ltd. | Image Recognition System |
CN106952286A (zh) * | 2017-03-21 | 2017-07-14 | 中国人民解放军火箭军工程大学 | 基于运动显著图和光流矢量分析的动态背景目标分割方法 |
CN107025668A (zh) * | 2017-03-30 | 2017-08-08 | 华南理工大学 | 一种基于深度相机的视觉里程计的设计方法 |
CN107292911A (zh) * | 2017-05-23 | 2017-10-24 | 南京邮电大学 | 一种基于多模型融合和数据关联的多目标跟踪方法 |
CN109064498A (zh) * | 2018-08-01 | 2018-12-21 | 湖北工业大学 | 基于Meanshift、卡尔曼滤波和图像匹配的目标跟踪方法 |
Non-Patent Citations (3)
Title |
---|
KUAN-HUI LEE 等: ""Ground-Moving-Platform-Based Human Tracking"", 《IEEE TRANSACTIONS ON INTELLIGENT TRANSPORTATION SYSTEMS》 * |
王丹 等: ""基于改进混合高斯模型的背景提取与更新"", 《南京师范大学学报》 * |
茅正冲: ""一种基于混合高斯模型的运动"", 《科学技术与工程》 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110542908A (zh) * | 2019-09-09 | 2019-12-06 | 阿尔法巴人工智能(深圳)有限公司 | 应用于智能驾驶车辆上的激光雷达动态物体感知方法 |
CN111002302A (zh) * | 2019-09-09 | 2020-04-14 | 浙江瀚镪自动化设备股份有限公司 | 结合高斯混合模型和动态系统的机械臂抓取轨迹规划方法 |
CN110542908B (zh) * | 2019-09-09 | 2023-04-25 | 深圳市海梁科技有限公司 | 应用于智能驾驶车辆上的激光雷达动态物体感知方法 |
CN111460941A (zh) * | 2020-03-23 | 2020-07-28 | 南京智能高端装备产业研究院有限公司 | 一种穿戴式导航装备中视觉导航特征点提取与匹配方法 |
CN111982103A (zh) * | 2020-08-14 | 2020-11-24 | 北京航空航天大学 | 一种权值优化的点线综合视觉惯性里程计方法 |
CN112184763A (zh) * | 2020-09-09 | 2021-01-05 | 南京师范大学镇江创新发展研究院 | 一种机器人视觉导航中视觉里程计构建方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110006444B (zh) | 2020-09-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110006444A (zh) | 一种基于优化混合高斯模型的抗干扰视觉里程计构建方法 | |
CN104794737B (zh) | 一种深度信息辅助粒子滤波跟踪方法 | |
CN106056053B (zh) | 基于骨骼特征点提取的人体姿势识别方法 | |
CN104680559B (zh) | 基于运动行为模式的多视角室内行人跟踪方法 | |
CN107767400B (zh) | 基于层次化显著性分析的遥感图像序列动目标检测方法 | |
CN110188705A (zh) | 一种适用于车载系统的远距离交通标志检测识别方法 | |
CN106355147A (zh) | 一种活体人脸检测头部姿态回归器的获取方法及检测方法 | |
CN105279769B (zh) | 一种联合多特征的层次粒子滤波跟踪方法 | |
CN105447529A (zh) | 一种服饰检测及其属性值识别的方法和系统 | |
CN107909604A (zh) | 基于双目视觉的动态物体运动轨迹识别方法 | |
CN104881029B (zh) | 基于一点ransac和fast算法的移动机器人导航方法 | |
CN103426179B (zh) | 一种基于均值偏移多特征融合的目标跟踪方法及装置 | |
CN108074234A (zh) | 一种基于目标跟踪和多特征融合的大空间火焰检测方法 | |
CN110276785A (zh) | 一种抗遮挡红外目标跟踪方法 | |
CN105225230A (zh) | 一种识别前景目标对象的方法及装置 | |
CN105930795A (zh) | 一种基于人体骨骼关节点间空间向量的行走状态识别方法 | |
CN110176016B (zh) | 一种基于人体轮廓分割与骨骼识别的虚拟试衣方法 | |
CN114612769B (zh) | 一种融入局部结构信息的集成感知红外成像舰船检测方法 | |
CN110688898A (zh) | 基于时空双流卷积神经网络的跨视角步态识别方法 | |
CN109359549A (zh) | 一种基于混合高斯和hog_lbp的行人检测方法 | |
CN106871906A (zh) | 一种盲人导航方法、装置及终端设备 | |
CN109887029A (zh) | 一种基于图像颜色特征的单目视觉里程测量方法 | |
CN108765468A (zh) | 一种基于特征融合的目标跟踪方法和装置 | |
CN107230219A (zh) | 一种单目机器人上的目标人发现与跟随方法 | |
CN110110608A (zh) | 一种全景监控下基于视觉的叉车速度监测方法和系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |