CN111815667B - 一种相机移动条件下高精度检测运动目标的方法 - Google Patents
一种相机移动条件下高精度检测运动目标的方法 Download PDFInfo
- Publication number
- CN111815667B CN111815667B CN202010580724.3A CN202010580724A CN111815667B CN 111815667 B CN111815667 B CN 111815667B CN 202010580724 A CN202010580724 A CN 202010580724A CN 111815667 B CN111815667 B CN 111815667B
- Authority
- CN
- China
- Prior art keywords
- moving
- target
- candidate
- moving target
- credible
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 76
- 230000003287 optical effect Effects 0.000 claims abstract description 70
- 238000001514 detection method Methods 0.000 claims abstract description 41
- 230000033001 locomotion Effects 0.000 claims abstract description 27
- 238000012545 processing Methods 0.000 claims description 15
- 230000003068 static effect Effects 0.000 claims description 15
- 239000011159 matrix material Substances 0.000 claims description 8
- 238000012216 screening Methods 0.000 claims description 8
- 230000011218 segmentation Effects 0.000 claims description 4
- 238000000638 solvent extraction Methods 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 description 12
- 230000004927 fusion Effects 0.000 description 6
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000004888 barrier function Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000012827 research and development Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20228—Disparity calculation for image-based rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种相机移动条件下高精度检测运动目标的方法,包括:在移动机器人移动期间,设置在所述移动机器人上的双目立体相机通过采集当前的场景图像,得到当前的第t‑1帧图像和t帧图像;利用改进后的背景光流补偿差分法,计算出所述第t‑1帧图像和t帧图像中的包含M个候选运动目标的第一候选运动目标集合;采用基于YOLOv3的行人车辆检测算法计算出所述第t帧图像中的包含N个候选运动目标的第二候选运动目标集合;根据所述第一候选运动目标集合和所述第二候选运动目标集合,确定初始可信运动目标集合;利用所述第一候选运动目标集合、所述第二候选运动目标集合以及所述初始可信运动目标集合,得到可信运动目标集合。
Description
技术领域
本发明涉及移动机器人技术领域,特别是涉及一种相机移动条件下高精度检测运动目标的方法。
背景技术
对工作环境内动态障碍物的检测是很多移动机器人环境感知必须要完成的任务。如,无人车需要感知其行驶范围内运动目标,以为无人车决策和路径规划提供依据;商场导购机器人需要知道其工作范围内运动目标,这样机器人才能有效的避开障碍物,避免事故发生。这些问题都可归纳为相机移动条件下运动目标检测问题,因此该问题是移动机器人领域环境感知的基础问题。
需要说明的是,对运动目标的检测,现有的主流技术有采用激光雷达和视觉传感器的方法。激光雷达具有较高的探测精度,但是价格昂贵。视觉传感器价格便宜、体积小、包含信息丰富而受到越来越多研发机构的重视。本申请主要是针对纯视觉条件下运动目标检测。
现有技术的解决方案有如下三种:
(1)背景补偿差分法
背景补偿差分法的核心思想是将动态背景问题转化为静态背景问题,如此可直接利用相机静止条件下(静态背景)下各种运动目标检测方法。将动态背景问题转化为静态背景问题的关键为“背景补偿”。当相机运动时,相邻两帧图像的背景将发生运动,“背景补偿”的目的就是计算出背景的运动模型,借助该模型,将当前帧背景反推回运动前,以此得到估计的静态背景。计算背景运动参数首先要建立恰当的静止背景运动参数模型(全局运动)。根据全局运动参数模型的不同,可分为基于基础矩阵的方法、基于单应矩阵的方法、基于仿射变换的方法,以及基于混合几何模型的方法。
不管是单应约束,基本矩阵约束还是仿射变换约束,都有其特定的适用范围。单应矩阵仅适合于平面场景、基本矩阵仅能将一幅图像的像点映射到另一图像的一条线上、仿射变换仅仅是两幅图像的近似约束。因此,背景补偿差分法检测运动目标时存在原理上不可克服的缺陷。
(2)光流特征分类法
光流特征分类法认为背景运动产生的光流与目标运动产生的光流之间存在差异,故而可以根据这两类光流的差异性,找出运动目标。比如,兰红等认为场景中绝大部分背景的运动状态是一致并且是主要的。他们据此设计了基于光流的动态目标检测方法。首先,利用LK光流法得到相邻两幅图像的特征点光流,并同时创建光流长度,角度的状态向量。通过建立整幅图像光流长度、角度的直方图,去除直方图中最密集区域对应的特征点,进而初步去除背景。然后利用中心迭代法去除不属于目标运动区域的噪声特征点;最后,通过前N帧图像目标特征点的最大交集得到属于目标的稳定特征点并在后续帧中进行跟踪。崔智高等认为运动目标内部和场景背景的光流值大小和方向趋于一致,仅在目标与背景的边界处存在较大的差异。利用该性质,他们首先对目标边界进行定位。然后通过点在多边形内部原理获得边界内部的稀疏像素点,最后以超像素为节点,利用混合高斯模型拟合的表观信息和超像素的时空邻域关系构建马尔可夫随机场模型的能量函数,并通过使目标函数能量最小化得到最终的运动目标检测结果。
基于光流特征分类法的运动目标检测,其核心点是运动目标产生的光流在整体混合光流中存在可辨识。这在一些特定的场景下是可以实现的,比如无人车向前直行,背景的光流具有固定的特征,此时容易对背景光流特性进行建模;但是在车辆转弯时,背景光流和转弯大小、背景物结构都有很大关系,模型很难建立。因此光流特征分类法适应性有限。
(3)背景光流补偿差分法
该类方法一般分为三步。第一步:计算相机自运动参数。第二步:计算背景运动产生的光流场。第三步:从运动目标光流场中分割出运动目标。
该方法目前存在的问题有:基于背景光流补偿差分法运动目标检测法中,由于采用全局视差、光流来计算整幅图像的运动目标光流场,当全局运动目标光流场中某些区域光流计算误差较大时,就会导致运动目标分割误差较大,进而导致运动目标的误判。当前,视差计算、光流计算在低纹理区域、目标相互遮挡区域、目标发生大位移时,计算精度都会较低,属于行业内公认挑战性问题。因此,单一的背景光流补偿差分法存在不可避免的漏检和误检。
发明内容
根据本发明实施例提供的方案解决的技术问题是相机移动条件下运动目标检测精度低。
根据本发明实施例提供的一种相机移动条件下高精度检测运动目标的方法,包括:
在移动机器人移动期间,设置在所述移动机器人上的双目立体相机通过采集当前的场景图像,得到当前的第t-1帧图像和t帧图像;
利用改进后的背景光流补偿差分法,计算出所述第t-1帧图像和t帧图像中的包含M个候选运动目标的第一候选运动目标集合;
采用基于YOLOv3的行人车辆检测算法计算出所述第t帧图像中的包含N个候选运动目标的第二候选运动目标集合;
根据所述第一候选运动目标集合和所述第二候选运动目标集合,确定初始可信运动目标集合;
利用所述第一候选运动目标集合、所述第二候选运动目标集合以及所述初始可信运动目标集合,得到可信运动目标集合。
优选地,所述第t-1帧图像包括第t-1帧左图像和第t-1帧右图像;所述第t帧图像包括第t帧左图像和第t帧右图像。
优选地,所述改进后的背景光流补偿差分法是指融入SIFT匹配点筛选策略及动态阈值分割策略的背景光流补偿差分法;
其中,所述SIFT匹配点筛选策略包括:
计算第i个SIFT匹配点的视差di;
当indei<1,则将当前第i个SIFT点作为可用于计算相机自运动参数,并进行保存;
其中,所述动态阈值分割策略包括:
若r(x,y)≥ε,则将坐标为(x,y)的像素点作为运动像素,否则,将坐标为(x,y)的像素点作为静止像素;
其中,所述ε的确定方法如下:
优选地,所述根据所述第一候选运动目标集合和所述第二候选运动目标集合,确定初始可信运动目标集合包括:
根据所述第一候选运动目标集合和所述第二候选运动目标集合,选取出所述第一候选运动目标集合与所述第二候选运动目标集合施加多视图几何约束,得到施加多视图几何约束后的运动目标集合;
通过对所述施加多视图几何约束后的运动目标集合进行求交集处理,得到交集运动目标集合,并将所述交集运动目标集合作为初始可信运动目标集合;
所述多视图几何约束包括:
根据所述物点坐标Pt-1和所述相机自运动参数(R,t),计算t时刻物点坐标Pt;
优选地,所述利用所述第一候选运动目标集合、所述第二候选运动目标集合以及所述初始可信运动目标集合,得到可信运动目标集合包括:
根据所述第一候选运动目标集合和所述初始可信运动目标集合,得到所述第一候选运动目标集合中的第一剩余目标集合;
通过分别对所述第一剩余目标集合中每个第一剩余目标进行分析处理,判断所述第一剩余目标是否为可信运动目标;
当判断所述第一剩余目标为可信运动目标时,将其添加到所述可信运动目标集合。
优选地,所述通过分别对所述第一剩余目标集合中每个剩余目标进行分析处理,判断所述剩余目标是否为可信运动目标包括:
根据每个所述第一剩余目标,反跟踪至第t-1帧图像上的可信运动目标集合中;
当反跟踪至第t-1帧图像上的可信运动目标集合中包含所述第一剩余目标且满足高阈值运动目标光流约束时,则判断所述第一剩余目标为可信运动目标,否则,则判断所述第一剩余目标为伪运动目标。
所述高阈值运动目标光流约束指对候选运动目标Ω,当所述候选运动目标包含的像素个数为n个,则该n个像素的r(x,y)超过之前设定阈值x%的个数大于n/2,即表明该候选运动目标具有较强的运动可能性。
优选地,所述利用所述第一候选运动目标集合、所述第二候选运动目标集合以及所述初始可信目标集合,得到可信运动目标集合包括:
利用所述第二候选运动目标集合和所述初始可信目标集合,得到所述第二候选运动目标集合中的第二剩余目标集合;
通过分别对所述第二剩余目标集合中每个第二剩余目标进行分析处理,判断所述第二剩余目标是否为可信运动目标;
当判断所述第二剩余目标为可信运动目标时,将其添加到所述可信运动目标集合。
优选地,所述通过分别对所述第二剩余目标集合中每个第二剩余目标进行分析处理,判断所述第二剩余目标是否为可信运动目标包括:
根据每个所述第二剩余目标,反跟踪至第t-1帧图像上的可信运动目标集合中是否包含所述第二剩余目标;
当反跟踪至第t-1帧图像上的可信运动目标集合中包含所述第二剩余目标且局部满足运动目标光流约束时,则判断所述第二剩余目标为可信运动目标,否则,则判断所述第二剩余目标为伪运动目标。
优选地,所述利用所述第一候选运动目标集合、所述第二候选运动目标集合以及所述初始可信运动目标集合,得到可信运动目标集合:
将所述初始可信运动目标集合添加到所述可信运动目标集合。
根据本发明实施例提供的方案,提出融合多种视觉检测方法的高精度运动目标检测。其有益效果就是能大大提高运动目标检测的精度,降低传统方法的误检率和漏检率。我们以KITTI数据库中的数据为样本进行测试,所提出的方法较传统的背景光流补偿差分法检测准确率提高了19.36%。
附图说明
此处所说明的附图用来提供对本发明的进一步理解,构成本发明的一部分,本发明的示意性实施例及其说明用于理解本发明,并不构成对本发明的不当限定。
在附图中:
图1是本发明实施例提供的一种相机移动条件下高精度检测运动目标的方法流程图;
图2是本发明实施例提供的相机移动条件下高精度检测运动目标的示意图;
图3是本发明实施例提供的相邻帧双目图像及坐标系;
图4是本发明实施例提供的局部运动目标光流约束示意图。
具体实施方式
以下结合附图对本发明的优选实施例进行详细说明,应当理解,以下所说明的优选实施例仅用于说明和解释本发明,并不用于限定本发明。
图1是本发明实施例提供的一种相机移动条件下高精度检测运动目标的方法流程图,如图1所示,包括:
步骤1:在移动机器人移动期间,设置在所述移动机器人上的双目立体相机通过采集当前的场景图像,得到当前的第t-1帧图像和t帧图像;
步骤2:利用改进后的背景光流补偿差分法,计算出所述第t-1帧图像和t帧图像中的包含M个候选运动目标的第一候选运动目标集合;
步骤3:采用基于YOLOv3的行人车辆检测算法计算出所述第t帧图像中的包含N个候选运动目标的第二候选运动目标集合;
步骤4:根据所述第一候选运动目标集合和所述第二候选运动目标集合,确定初始可信运动目标集合;
步骤5:利用所述第一候选运动目标集合、所述第二候选运动目标集合以及所述初始可信运动目标集合,得到可信运动目标集合。
优选地,所述第t-1帧图像包括第t-1帧左图像和第t-1帧右图像;所述第t帧图像包括第t帧左图像和第t帧右图像。
优选地,所述改进后的背景光流补偿差分法是指融入SIFT匹配点筛选策略及动态阈值分割策略的背景光流补偿差分法;
其中,所述SIFT匹配点筛选策略包括:
计算第i个SIFT匹配点的视差di;
当indei<1,则将当前第i个SIFT点作为可用于计算相机自运动参数,并进行保存;
其中,所述动态阈值分割策略包括:
若r(x,y)≥ε,则将坐标为(x,y)的像素点作为运动像素,否则,将坐标为(x,y)的像素点作为静止像素;
其中,所述ε的确定方法如下:
优选地,所述根据所述第一候选运动目标集合和所述第二候选运动目标集合,确定初始可信运动目标集合包括:
根据所述第一候选运动目标集合和所述第二候选运动目标集合,选取出所述第一候选运动目标集合与所述第二候选运动目标集合施加多视图几何约束,得到施加多视图几何约束后的运动目标集合;
通过对所述施加多视图几何约束后的运动目标集合进行求交集处理,得到交集运动目标集合,并将所述交集运动目标集合作为初始可信运动目标集合;
所述多视图几何约束包括:
根据所述物点坐标Pt-1和所述相机自运动参数(R,t),计算t时刻物点坐标Pt;
优选地,所述利用所述第一候选运动目标集合、所述第二候选运动目标集合以及所述初始可信运动目标集合,得到可信运动目标集合包括:
根据所述第一候选运动目标集合和所述初始可信运动目标集合,得到所述第一候选运动目标集合中的第一剩余目标集合;
通过分别对所述第一剩余目标集合中每个第一剩余目标进行分析处理,判断所述第一剩余目标是否为可信运动目标;
当判断所述第一剩余目标为可信运动目标时,将其添加到所述可信运动目标集合。
优选地,所述通过分别对所述第一剩余目标集合中每个剩余目标进行分析处理,判断所述剩余目标是否为可信运动目标包括:
根据每个所述第一剩余目标,反跟踪至第t-1帧图像上的可信运动目标集合中;
当反跟踪至第t-1帧图像上的可信运动目标集合中包含所述第一剩余目标且满足高阈值运动目标光流约束时,则判断所述第一剩余目标为可信运动目标,否则,则判断所述第一剩余目标为伪运动目标。
所述高阈值运动目标光流约束指对候选运动目标Ω,当所述候选运动目标包含的像素个数为n个,则该n个像素的r(x,y)超过之前设定阈值x%的个数大于n/2,即表明该候选运动目标具有较强的运动可能性。
优选地,所述利用所述第一候选运动目标集合、所述第二候选运动目标集合以及所述初始可信目标集合,得到可信运动目标集合包括:
利用所述第二候选运动目标集合和所述初始可信目标集合,得到所述第二候选运动目标集合中的第二剩余目标集合;
通过分别对所述第二剩余目标集合中每个第二剩余目标进行分析处理,判断所述第二剩余目标是否为可信运动目标;
当判断所述第二剩余目标为可信运动目标时,将其添加到所述可信运动目标集合。
优选地,所述通过分别对所述第二剩余目标集合中每个第二剩余目标进行分析处理,判断所述第二剩余目标是否为可信运动目标包括:
根据每个所述第二剩余目标,反跟踪至第t-1帧图像上的可信运动目标集合中是否包含所述第二剩余目标;
当反跟踪至第t-1帧图像上的可信运动目标集合中包含所述第二剩余目标且局部满足运动目标光流约束时,则判断所述第二剩余目标为可信运动目标,否则,则判断所述第二剩余目标为伪运动目标。
优选地,所述利用所述第一候选运动目标集合、所述第二候选运动目标集合以及所述初始可信运动目标集合,得到可信运动目标集合:
将所述初始可信运动目标集合添加到所述可信运动目标集合。
本发明实施例在原有背景光流补偿差分法的基础上,提出了两条措施,能提高原有方法对运动目标的检测精度。措施1:在计算相机自运动参数时,提出特征匹配点筛选策略。通过该策略,去除对自运动参数计算误差影响较大的特征匹配点,提高相机自运动参数的精度;措施2:在由残差流分割运动区域时,提出了一种动态阈值分割方法;解决了用融合方法实现场景运动目标检测系统中融合源的选择问题。在融合源上采用了背景光流补偿差分法、YOLOv3车辆行人检测法、多视图几何约束、运动目标时空连续性约束、高阈值光流约束、局部光流约束。解决了融合源的融合策略问题。
图2是本发明实施例提供的相机移动条件下高精度检测运动目标的示意图,如图2所示,本方案采用提前标定好的双目立体相机,双目立体相机一般架设于移动自主体的前方。
对应要解决的总体问题,先用背景光流补偿差分法计算出候选运动目标。将背景光流补偿差分法检测结果(BOFCD-Background Optical Flow CompensationDifference)和YOLOv3行人车辆检测结果(PVD-Pedestrian and Vehicle Detection)先进行多视图几何约束,去除伪运动目标;然后两者求交集,交集中的元素视为可信运动目标。将BOFCD结果以及PVD结果视为两个集合,两者求交后,在各自的集合中可能还存在交集以外的元素,本文称之为剩余元素。(1)对于BOFCD中剩余的元素,其可能的情况有:运动的行人或者车辆、场景中其他目标。对于行人和车辆,是由于YOLOv3漏检产生,对该目标的有效处理可以弥补YOLOv3漏检对运动目标漏检的影响。此时,将剩余目标反跟踪至前一帧,如在前一帧中,该目标为运动目标,且该目标满足高阈值光流约束,则认为该目标在当前帧中仍为运动目标。如果在前一帧中该目标不是运动目标,则该目标被判为伪运动目标,需要被去除;(2)对于PVD中剩余的元素,主要是光流马氏距离较小的车辆以及行人。由于经过了多视图几何约束,这部分剩余目标具有极大的可能性是运动目标。为了更进一步的确认,仍将该目标反跟踪至前帧图像,若该目标在前帧图像上为运动目标,且该目标局部的光流值满足设定的运动目标判别要求,则将其视为可信的运动目标。具体步骤如下:
第一步:输入第t,t+1帧图像,t初始值为0。
第四步:计算Ωr=Ωc∩Ωc′,Ωr被判为可信运动目标区域。同时计算Ω1=Ωc-Ωr,以及Ω2=Ω′c-Ωr。当t>1时,执行第五步,反之t=t+1,返回第一步。
第五步:对Ω1中的每个目标,反跟踪至第t-1帧图像上,若反追踪目标为运动目标、且满足高阈值运动目标光流约束,则认为该目标为运动目标,加入可信运动目标集合。反之,被视为伪运动目标,去除。
第六步:对Ω2中的每个目标,反跟踪至第t-1帧图像上,若反追踪目标为运动目标,且局部满足运动目标光流约束,则被视为运动目标,加入可信运动目标集合。t=t+1,返回第一步。
下面对每个步骤中采用的技术进行具体阐述。
1、背景光流补偿差分法检测运动目标
具体步骤如下:
第一步:计算混合光流
在本发明中,混合光流指由左相机在相邻两时刻采集图像所计算的光流场,记为fmix。
第二步:计算运动背景光流
双目相机刚性连接,架设于自主移动体(无人车、移动机器人等)前方,自主移动体移动过程中,实时采集周围场景图像。令t-1,t时刻,左右相机采集图像分别为如图3所示。在t-1时刻,以左相机坐标系为t-1时刻世界坐标系Ot-1Xt- 1Yt-1Zt-1;在t时刻,仍以左相机坐标系为t时刻世界坐标系OtXtYtZt,坐标系Ot-1Xt-1Yt-1Zt-1和OtXtYtZt之间的转换关系为R和t,R和t即为相机自运动参数。其中,含有3个独立欧拉角变量,t=[Tx Ty Tz],含3个变量。
相机自运动参数计算,需要大于3对的特征匹配点作为输入,本发明采用SIFT(Scale-Invariant Feature Transform)特征匹配点。在本发明中,并非 上所有的SIFT匹配点都参与相机自运动参数的计算。首先要排除那些像点误差对三维重建后物点误差影响较大的SIFT匹配点,用剩余的SIFT匹配点参与相机自运动参数的计算,以保证自运动参数的计算精度。
SIFT匹配点筛选,包括:
步骤2.2、计算第i个SIFT匹配点的视差di。
步骤2.4、如果indei<1,则表明当前第i个SIFT点当像点误差较小时,其物点误差也较小,可用于计算相机自运动参数,存入变量S中。
步骤2.5、重复步骤2)~4),将所有满足用于参与相机自运动参数的SIFT匹配点存入S中。
自运动参数的计算
先设R、t参数初始值为0。
2)将xt-1代入式(1)计算t-1时刻同名像点对应的物点Pt-1,其中d表示两个同名点的视差。Pt-1所在的坐标系为Ot-1Xt-1Yt-1Zt-1。
3)利用式子(2)求得Pt-1在坐标系OtXtYtZt下的物点坐标Pt。
Pt=RPt-1+t (2)
5)以式(3)所示为目标函数,采用高斯牛顿迭代法求解。
第三步:残差流计算
fmoof=fmix-fmbof
第四步:从残差流中分离出运动区域
残差流的马氏距离为:其中ΣMOOF是残差流的协方差矩阵。令表示χ2分布在的概率值,若r(x,y)≥ε,则表示坐标为(x,y)的像素点为运动像素,反之为静止像素。ε的确定方法如下。令表示t时刻图像视差的均值,d(x,y)表示坐标为(x,y)处的视差值。
2.YOLOv3车辆行人检测
本发明中,采用YOLOv3对车辆行人进行检测。
2.1多视图几何约束
2.1.1用多视图集合约束判断单个匹配点的运动属性
2)根据相机自运动参数计算t时刻物点坐标
Pt=RPt-1+t (5)
2.1.2用特征点运动目标属性估计区域的运动属性
所需变量定义如下:
Ω:候选运动目标。
n1:Ω区域内存在特征匹配点的个数。
n2:Ω区域内满足多视几何约束点的个数,即静态点的个数。
伪运动目标判别准则如下:
1)若目标区域Ω内n2=0;则Ω为动态目标。
2)如果运动区域内匹配点个数很少,n2<3或者n1<3,则该区域为运动目标区域。
3、前帧可信运动目标约束
假定当前帧为第t帧,候选运动目标为的大小为w×h,在第t帧图像上的中心坐标为(xc,yc);则在第t-1帧上的搜索区域为以(xc,yc)为中心,2w×2h区域内进行跟踪搜索。反跟踪的实质就是在第t帧图像上获取目标模板,在第t-1帧上计算出模板所在的位置。如果该位置是运动区域,则认为目标在第t帧上也是运动目标。
具体步骤如下:
步骤二:在上计算temp的匹配区域①计算temp的HOG特征ftemp;②在上,以(xc,yc)为中心,2w×2h区域范围内搜索确定各候选匹配区域,搜索步长step_x=w/4;stepy=h/4;③计算各候选匹配区域的HOG特征fcan。④计算ftemp和所有fcan的欧式距离,若欧式距离超过设定的阈值(阈值一般为经验值);则认为对应的区域为模板temp在上对应的区域,令为集合
4、高阈值运动目标光流约束
高阈值光流约束指,对候选运动目标Ω,假定其包含的像素个数为n个,则该n个像素的r(x,y)超过之前设定阈值x%的个数大于n/2,即表明该目标具有较强的运动可能性。在本发明中,x=10。
5、局部运动目标光流约束
本发明提出了融合背景光流补偿差分法、YOLOv3车辆行人检测法、多视图几何约束、运动目标时空连续性约束、高阈值光流约束、局部光流约束的移动条件下运动目标检测总体方案。提出了详细的融合策略。将背景光流补偿差分法(BOFCD)检测结果和YOLOv3行人车辆(PVD)检测结果先进行多视图几何约束,去除伪运动目标;然后两者求交集,交集中的元素视为可信运动目标。将BOFCD结果以及PVD结果视为两个集合,两者求交后,在各自的集合中可能还存在交集以外的元素,本文称之为剩余元素。对于BOFCD中剩余的元素,反跟踪至前一帧,如在前一帧中该目标为运动目标,且该目标在本帧中满足高阈值光流约束,则在本帧中被视为运动目标,加入可信运动目标集合中;反之被视为伪运动目标,需要去除。对于PVD中剩余的元素,反跟踪至前帧图像,若该目标在前帧图像上为运动目标,且该目标局部的光流值满足设定的运动目标判别要求,则将其视为可信的运动目标。
根据本发明实施例提供的方案,能大大提高运动目标检测的精度,降低传统方法的误检率和漏检率。以KITTI数据库中的数据为样本进行测试,所提出的方法较传统的背景光流补偿差分法检测准确率提高了19.36%。
尽管上文对本发明进行了详细说明,但是本发明不限于此,本技术领域技术人员可以根据本发明的原理进行各种修改。因此,凡按照本发明原理所作的修改,都应当理解为落入本发明的保护范围。
Claims (8)
1.一种相机移动条件下高精度检测运动目标的方法,其特征在于,包括:
在移动机器人移动期间,设置在所述移动机器人上的双目立体相机通过采集当前的场景图像,得到当前的第t-1帧图像和第t帧图像;
利用改进后的背景光流补偿差分法,计算出所述第t-1帧图像和t帧图像中的包含M个候选运动目标的第一候选运动目标集合;所述改进后的背景光流补偿差分法是指融入SIFT匹配点筛选策略及动态阈值分割策略的背景光流补偿差分法;
采用基于YOLOv3的行人车辆检测算法计算出所述第t帧图像中的包含N个候选运动目标的第二候选运动目标集合;
根据所述第一候选运动目标集合和所述第二候选运动目标集合,确定初始可信运动目标集合,其包括:根据所述第一候选运动目标集合和所述第二候选运动目标集合,选取出所述第一候选运动目标集合与所述第二候选运动目标集合施加多视图几何约束,得到施加多视图几何约束后的运动目标集合;通过对所述施加多视图几何约束后的运动目标集合进行求交集处理求,得到交集运动目标集合,并将所述交集运动目标集合作为初始可信运动目标集合;
利用所述第一候选运动目标集合、所述第二候选运动目标集合以及所述初始可信运动目标集合,得到可信运动目标集合,其包括:根据所述第一候选运动目标集合和所述初始可信运动目标集合,得到所述第一候选运动目标集合中的第一剩余目标集合;通过分别对所述第一剩余目标集合中每个第一剩余目标进行分析处理,判断所述第一剩余目标是否为可信运动目标;当判断所述第一剩余目标为可信运动目标时,将其添加到所述可信运动目标集合。
3.根据权利要求2所述的相机移动条件下高精度检测运动目标的方法,其特征在于,
其中,所述SIFT匹配点筛选策略包括:
计算第i个SIFT匹配点的视差di;
当indei<1,则将当前第i个SIFT点作为可用于计算相机自运动参数,并进行保存;
其中,所述动态阈值分割策略包括:
若r(x,y)≥ε,则将坐标为(x,y)的像素点作为运动像素,否则,将坐标为(x,y)的像素点作为静止像素;
其中,所述ε的确定方法如下:
5.根据权利要求3所述的相机移动条件下高精度检测运动目标的方法,其特征在于,所述通过分别对所述第一剩余目标集合中每个剩余目标进行分析处理,判断所述剩余目标是否为可信运动目标包括:
根据每个所述第一剩余目标,反跟踪至第t-1帧图像上的可信运动目标集合中;
当反跟踪至第t-1帧图像上的可信运动目标集合中包含所述第一剩余目标且满足高阈值运动目标光流约束时,则判断所述第一剩余目标为可信运动目标,否则,则判断所述第一剩余目标为伪运动目标;
所述高阈值运动目标光流约束指对候选运动目标Ω,当所述候选运动目标包含的像素个数为n个,则该n个像素的r(x,y)超过之前设定阈值x%的个数大于n/2,即表明该候选运动目标具有较强的运动可能性。
6.根据权利要求4所述的相机移动条件下高精度检测运动目标的方法,其特征在于,所述利用所述第一候选运动目标集合、所述第二候选运动目标集合以及所述初始可信运动目标集合,得到可信运动目标集合包括:
利用所述第二候选运动目标集合和所述初始可信目标集合,得到所述第二候选运动目标集合中的第二剩余目标集合;
通过分别对所述第二剩余目标集合中每个第二剩余目标进行分析处理,判断所述第二剩余目标是否为可信运动目标;
当判断所述第二剩余目标为可信运动目标时,将其添加到所述可信运动目标集合。
7.根据权利要求6所述的相机移动条件下高精度检测运动目标的方法,其特征在于,所述通过分别对所述第二剩余目标集合中每个第二剩余目标进行分析处理,判断所述第二剩余目标是否为可信运动目标包括:
根据每个所述第二剩余目标,反跟踪至第t-1帧图像上的可信运动目标集合中是否包含所述第二剩余目标;
当反跟踪至第t-1帧图像上的可信运动目标集合中包含所述第二剩余目标且局部满足运动目标光流约束时,则判断所述第二剩余目标为可信运动目标,否则,则判断所述第二剩余目标为伪运动目标;
8.根据权利要求1所述的相机移动条件下高精度检测运动目标的方法,其特征在于,所述利用所述第一候选运动目标集合、所述第二候选运动目标集合以及所述初始可信运动目标集合,得到可信运动目标集合:
将所述初始可信运动目标集合添加到所述可信运动目标集合。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010580724.3A CN111815667B (zh) | 2020-06-23 | 2020-06-23 | 一种相机移动条件下高精度检测运动目标的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010580724.3A CN111815667B (zh) | 2020-06-23 | 2020-06-23 | 一种相机移动条件下高精度检测运动目标的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111815667A CN111815667A (zh) | 2020-10-23 |
CN111815667B true CN111815667B (zh) | 2022-06-17 |
Family
ID=72845634
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010580724.3A Active CN111815667B (zh) | 2020-06-23 | 2020-06-23 | 一种相机移动条件下高精度检测运动目标的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111815667B (zh) |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102110297A (zh) * | 2011-03-02 | 2011-06-29 | 无锡慧眼电子科技有限公司 | 一种基于累积光流和双背景滤波的探测方法 |
CN102497505A (zh) * | 2011-12-08 | 2012-06-13 | 合肥博微安全电子科技有限公司 | 基于改进的Meanshift算法的多球机联动目标跟踪方法及系统 |
CN102799883A (zh) * | 2012-06-29 | 2012-11-28 | 广州中国科学院先进技术研究所 | 一种从视频图像中提取运动目标的方法及装置 |
CN103065329A (zh) * | 2013-01-15 | 2013-04-24 | 西北工业大学 | 一种空间绳系机器人相机自运动检测与补偿方法 |
CN106447696A (zh) * | 2016-09-29 | 2017-02-22 | 郑州轻工业学院 | 一种基于双向sift流运动评估的大位移目标稀疏跟踪方法 |
CN106952286A (zh) * | 2017-03-21 | 2017-07-14 | 中国人民解放军火箭军工程大学 | 基于运动显著图和光流矢量分析的动态背景目标分割方法 |
CN107146239A (zh) * | 2017-04-21 | 2017-09-08 | 武汉大学 | 卫星视频运动目标检测方法及系统 |
CN208314856U (zh) * | 2018-04-11 | 2019-01-01 | 湖南城市学院 | 一种用于单目机载目标检测的系统 |
CN109544592A (zh) * | 2018-10-26 | 2019-03-29 | 天津理工大学 | 针对相机移动的运动目标检测算法 |
CN109978917A (zh) * | 2019-03-12 | 2019-07-05 | 黑河学院 | 一种运动目标监测系统监控装置及其监控方法 |
-
2020
- 2020-06-23 CN CN202010580724.3A patent/CN111815667B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102110297A (zh) * | 2011-03-02 | 2011-06-29 | 无锡慧眼电子科技有限公司 | 一种基于累积光流和双背景滤波的探测方法 |
CN102497505A (zh) * | 2011-12-08 | 2012-06-13 | 合肥博微安全电子科技有限公司 | 基于改进的Meanshift算法的多球机联动目标跟踪方法及系统 |
CN102799883A (zh) * | 2012-06-29 | 2012-11-28 | 广州中国科学院先进技术研究所 | 一种从视频图像中提取运动目标的方法及装置 |
CN103065329A (zh) * | 2013-01-15 | 2013-04-24 | 西北工业大学 | 一种空间绳系机器人相机自运动检测与补偿方法 |
CN106447696A (zh) * | 2016-09-29 | 2017-02-22 | 郑州轻工业学院 | 一种基于双向sift流运动评估的大位移目标稀疏跟踪方法 |
CN106952286A (zh) * | 2017-03-21 | 2017-07-14 | 中国人民解放军火箭军工程大学 | 基于运动显著图和光流矢量分析的动态背景目标分割方法 |
CN107146239A (zh) * | 2017-04-21 | 2017-09-08 | 武汉大学 | 卫星视频运动目标检测方法及系统 |
CN208314856U (zh) * | 2018-04-11 | 2019-01-01 | 湖南城市学院 | 一种用于单目机载目标检测的系统 |
CN109544592A (zh) * | 2018-10-26 | 2019-03-29 | 天津理工大学 | 针对相机移动的运动目标检测算法 |
CN109978917A (zh) * | 2019-03-12 | 2019-07-05 | 黑河学院 | 一种运动目标监测系统监控装置及其监控方法 |
Non-Patent Citations (4)
Title |
---|
Moving object detection using an object motion reflection model of motion vectors;Jisang Yoo and Gyu-cheol Lee;《symmetry》;20190102;第1-13页 * |
New trends on moving object detection in video images captured by a moving camera: A survey;Mehran Yazdi et al;《Computer Science Review》;20181231;第157-177页 * |
一种基于光流的无人机序列影像背景运动补偿方法;刘冰 等;《信息工程大学学报》;20161031;第17卷(第5期);第626-629页 * |
启发式RRT算法的AGV路径规划;杨瑶 等;《计算机工程与应用》;20190531;第125-133页 * |
Also Published As
Publication number | Publication date |
---|---|
CN111815667A (zh) | 2020-10-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111693972B (zh) | 一种基于双目序列图像的车辆位置与速度估计方法 | |
CN110988912B (zh) | 自动驾驶车辆的道路目标与距离检测方法、系统、装置 | |
CN111563415B (zh) | 一种基于双目视觉的三维目标检测系统及方法 | |
Du et al. | Car detection for autonomous vehicle: LIDAR and vision fusion approach through deep learning framework | |
Yao et al. | Estimating drivable collision-free space from monocular video | |
WO2022188663A1 (zh) | 一种目标检测方法及装置 | |
Parra et al. | Robust visual odometry for vehicle localization in urban environments | |
KR20180056685A (ko) | 비 장애물 영역 검출을 위한 시스템 및 방법 | |
JP6574611B2 (ja) | 立体画像に基づいて距離情報を求めるためのセンサシステム | |
Ding et al. | Vehicle pose and shape estimation through multiple monocular vision | |
CN112889071A (zh) | 用于确定二维图像中深度信息的系统和方法 | |
CN111814602B (zh) | 一种基于视觉的智能车环境动态目标检测的方法 | |
CN111738033B (zh) | 基于平面分割的车辆行驶信息确定方法及装置、车载终端 | |
CN109961461B (zh) | 一种基于三维分层图模型的多运动目标跟踪方法 | |
Arain et al. | Improving underwater obstacle detection using semantic image segmentation | |
CN114495064A (zh) | 一种基于单目深度估计的车辆周围障碍物预警方法 | |
Nair | Camera-based object detection, identification and distance estimation | |
CN111098850A (zh) | 一种自动停车辅助系统及自动泊车方法 | |
CN116310673A (zh) | 一种基于点云与图像特征融合的三维目标检测方法 | |
Valente et al. | Fusing laser scanner and stereo camera in evidential grid maps | |
CN117576665B (zh) | 一种面向自动驾驶的单摄像头三维目标检测方法及系统 | |
Mehtab et al. | 3D vehicle detection using cheap LiDAR and camera sensors | |
CN117232545A (zh) | 一种基于深度学习道路环境感知的路径规划方法 | |
CN116664851A (zh) | 一种基于人工智能的自动驾驶数据提取方法 | |
CN116189150A (zh) | 基于融合输出的单目3d目标检测方法、装置、设备和介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |