CN111814602B - 一种基于视觉的智能车环境动态目标检测的方法 - Google Patents
一种基于视觉的智能车环境动态目标检测的方法 Download PDFInfo
- Publication number
- CN111814602B CN111814602B CN202010580747.4A CN202010580747A CN111814602B CN 111814602 B CN111814602 B CN 111814602B CN 202010580747 A CN202010580747 A CN 202010580747A CN 111814602 B CN111814602 B CN 111814602B
- Authority
- CN
- China
- Prior art keywords
- image
- motion
- optical flow
- calculating
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 31
- 230000003287 optical effect Effects 0.000 claims abstract description 65
- 238000012545 processing Methods 0.000 claims abstract description 16
- 238000000034 method Methods 0.000 claims description 46
- 230000011218 segmentation Effects 0.000 claims description 34
- 238000004364 calculation method Methods 0.000 claims description 14
- 238000012216 screening Methods 0.000 claims description 6
- 238000001914 filtration Methods 0.000 claims description 5
- 238000000926 separation method Methods 0.000 claims description 2
- 239000011159 matrix material Substances 0.000 description 5
- 230000003068 static effect Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 230000006872 improvement Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000004888 barrier function Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000008092 positive effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于视觉的智能车环境动态目标检测的方法,包括:在智能车移动期间,设置在所述智能车上的双目立体相机通过采集当前的场景图像,得到当前的双目视频序列图像;从所述双目视频序列图像中选取第t时刻图像和t‑1时刻图像,并利用所述第t时刻图像和所述t‑1时刻图像,计算混合光流;根据所述第t时刻图像、所述t‑1时刻图像,计算所述双目立体相机运动背景光流;利用所述混合光流和所述运动背景光流,得到仅由目标运动产生的残差流;通过对所述残差流进行处理,得到独立的运动目标。
Description
技术领域
本发明涉及运动目标检测技术领域,特别是涉及一种基于视觉的智能车环境动态目标检测的方法。
背景技术
智能车行驶环境复杂,具有高动态性、高随机性等特点。对环境内动态目标的精确检测以及轨迹预测是智能车行为决策与控制的基础,是确保智能车安全行驶的关键,尤其是多车道行驶变道、从高速辅道汇入高速公路等情形时,场景内目标的运动信息对智能车决策显得尤为重要。
当前,智能车对运动目标的感知主要有基于激光雷达的方法和基于视觉的方法。激光雷达能够获得场景目标距离本车的精确距离信息,但是受角分辨率限制,对远距离小目标的探测能力较弱;除此以外,其高昂的价格也成为增加智能车成本的因素之一。相反,视觉传感器具有成本低廉、体积小,重量轻、信息大、算法复用性好等优势而备受关注。
现有技术的解决方案有如下三种:
(1)背景补偿差分法
背景补偿差分法的核心思想是将动态背景问题转化为静态背景问题,如此可直接利用相机静止条件下(静态背景)下各种运动目标检测方法。将动态背景问题转化为静态背景问题的关键为“背景补偿”。当相机运动时,相邻两帧图像的背景将发生运动,“背景补偿”的目的就是计算出背景的运动模型,借助该模型,将当前帧背景反推回运动前,以此得到估计的静态背景。计算背景运动参数首先要建立恰当的静止背景运动参数模型(全局运动)。根据全局运动参数模型的不同,可分为基于基础矩阵的方法、基于单应矩阵的方法、基于仿射变换的方法,以及基于混合几何模型的方法。
不管是单应约束,基本矩阵约束还是仿射变换约束,都有其特定的适用范围。单应矩阵仅适合于平面场景、基本矩阵仅能将一幅图像的像点映射到另一图像的一条线上、仿射变换仅仅是两幅图像的近似约束。因此,背景补偿差分法检测运动目标时存在原理上不可克服的缺陷。
(2)光流特征分类法
光流特征分类法认为背景运动产生的光流与目标运动产生的光流之间存在差异,故而可以根据这两类光流的差异性,找出运动目标。比如,兰红等认为场景中绝大部分背景的运动状态是一致并且是主要的。他们据此设计了基于光流的动态目标检测方法。首先,利用LK光流法得到相邻两幅图像的特征点光流,并同时创建光流长度,角度的状态向量。通过建立整幅图像光流长度、角度的直方图,去除直方图中最密集区域对应的特征点,进而初步去除背景。然后利用中心迭代法去除不属于目标运动区域的噪声特征点;最后,通过前N帧图像目标特征点的最大交集得到属于目标的稳定特征点并在后续帧中进行跟踪。崔智高等认为运动目标内部和场景背景的光流值大小和方向趋于一致,仅在目标与背景的边界处存在较大的差异。利用该性质,他们首先对目标边界进行定位。然后通过点在多边形内部原理获得边界内部的稀疏像素点,最后以超像素为节点,利用混合高斯模型拟合的表观信息和超像素的时空邻域关系构建马尔可夫随机场模型的能量函数,并通过使目标函数能量最小化得到最终的运动目标检测结果。
基于光流特征分类法的运动目标检测,其核心点是运动目标产生的光流在整体混合光流中存在可辨识。这在一些特定的场景下是可以实现的,比如智能车向前直行,背景的光流具有固定的特征,此时容易对背景光流特性进行建模;但是在车辆转弯时,背景光流和转弯大小、背景物结构都有很大关系,模型很难建立。因此光流特征分类法适应性有限。
(3)背景光流补偿差分法
该类方法一般分为三步。第一步:计算相机自运动参数。第二步:计算背景运动产生的光流场。第三步:从运动目标光流场中分割出运动目标。
该方法目前存在的问题有:(1)在计算相机自运动参数时误差多大,导致后续残差流计算误差大,进而导致运动目标分割准确率不高;(2)由残差流进行运动目标分割时,采用固定阈值,对不同图像的适应性较差;(3)计算运动区域时,仅利用了三维信息中的XOZ平面的数据。由于未对地面数据进行剔除,会出现地面数据将两个隔得很开的目标粘连起来的情况,导致单个目标无法分割。
发明内容
根据本发明实施例提供的方案解决的技术问题是用双目相机实现智能汽车行驶环境任意动态障碍物检测。分项问题包括:(1)相机自运动参数计算时相邻两时刻四幅图像同名特征点的选择策略问题;(2)由残差场分割出运动区域阈值设置问题;(3)由运动区域提取单个运动目标问题。
根据本发明实施例提供的一种基于视觉的智能车环境动态目标检测的方法,包括:
在智能车移动期间,设置在所述智能车上的双目立体相机通过采集当前的场景图像,得到当前的双目视频序列图像;
从所述双目视频序列图像中选取第t时刻图像和t-1时刻图像,并利用所述第t时刻图像和所述t-1时刻图像,计算混合光流;
根据所述第t时刻图像、所述t-1时刻图像,计算所述双目立体相机运动背景光流;
利用所述混合光流和所述运动背景光流,得到仅由目标运动产生的残差流;
通过对所述残差流进行处理,得到独立的运动目标。
优选地,所述混合光流是指由所述双目立体相机的左相机在相邻两时刻采集图像所计算的光流场。
优选地,所述根据所述第t时刻图像、所述t-1时刻图像,计算所述双目立体相机运动背景光流包括:
根据所述第t时刻图像、所述t-1时刻图像,计算出n个SIFT匹配点;
利用基于视差的SIFT匹配点筛选策略,过滤掉对所述双目立体相机自运动参数计算误差较大的SIFT匹配点,得到m个有效SIFT匹配点;
利用所述有效SIFT匹配点,计算所述双目立体相机的自运动参数;
根据所述双目立体相机的自运动参数,计算所述双目立体相机运动背景光流;
其中,n>m,且,n和m均为正整数。
优选地,所述利用所述混合光流和所述运动背景光流,得到仅由目标运动产生的残差流包括:
通过将所述混合光流与所述运动背景光流进行相减处理,得到仅由目标运动产生的残差流。
优选地,所述通过对所述残差流进行处理,得到独立的运动目标包括:
采用动态阈值分割法,从所述残差流中分割出运动区域;
通过结合2D和3D信息的方法,从所述运动区域内分割出独立的运动目标。
优选地,所述利用基于视差的SIFT匹配点筛选策略,过滤掉对所述双目立体相机自运动参数计算误差较大的SIFT匹配点,得到m个有效SIFT匹配点包括:
分别计算第i个SIFT匹配点的视差di;
根据所述第i个SIFT匹配点的视差di,计算第i个SIFT点的误差指标因子indei;
当所述第i个SIFT点的误差指标因子indei小于1时,则将所述第第i个SIFT匹配点作为有效SIFT匹配点;
当所述第i个SIFT点的误差指标因子indei不小于1时,则过滤掉所述第i个SIFT匹配点。
优选地,所述通过结合2D和3D信息的方法,从所述运动区域内分割出独立的运动目标包括:
利用3D信息对所述运动区域进行目标粗分割处理,得到粗分割目标;
利用2D信息对所述粗分割目标进行二次分割处理,得到独立的运动目标。
优选地,所述目标粗分割包括:地面点云去除、XOZ平面栅格图像的建立以及目标分割。
根据本发明实施例提供的方案,提出融合多种视觉检测方法的高精度运动目标检测。其有益效果就是能大大提高运动目标检测的精度,降低传统方法的误检率和漏检率。以KITTI数据库中的数据为样本进行测试,所提出的方法较传统的背景光流补偿差分法检测准确率提高了12.45%。
附图说明
此处所说明的附图用来提供对本发明的进一步理解,构成本发明的一部分,本发明的示意性实施例及其说明用于理解本发明,并不构成对本发明的不当限定。
在附图中:
图1是本发明实施例提供的一种基于视觉的智能车环境动态目标检测的方法流程图;
图2是本发明实施例提供的基于视觉的智能车环境动态目标检测的示意图;
图3是本发明实施例提供的相邻帧双目图像及坐标系示意图;
图4是本发明实施例提供的世界坐标系的建立示意图。
具体实施方式
以下结合附图对本发明的优选实施例进行详细说明,应当理解,以下所说明的优选实施例仅用于说明和解释本发明,并不用于限定本发明。
图1是本发明实施例提供的一种基于视觉的智能车环境动态目标检测的方法,如图1所示,包括:
步骤1:在智能车移动期间,设置在所述智能车上的双目立体相机通过采集当前的场景图像,得到当前的双目视频序列图像;
步骤2:从所述双目视频序列图像中选取第t时刻图像和t-1时刻图像,并利用所述第t时刻图像和所述t-1时刻图像,计算混合光流;
步骤3:根据所述第t时刻图像、所述t-1时刻图像,计算所述双目立体相机运动背景光流;
步骤4:利用所述混合光流和所述运动背景光流,得到仅由目标运动产生的残差流;
步骤5:通过对所述残差流进行处理,得到独立的运动目标。
优选地,所述混合光流是指由所述双目立体相机的左相机在相邻两时刻采集图像所计算的光流场。
优选地,所述根据所述第t时刻图像、所述t-1时刻图像,计算所述双目立体相机运动背景光流包括:
根据所述第t时刻图像、所述t-1时刻图像,计算出n个SIFT匹配点;
利用基于视差的SIFT匹配点筛选策略,过滤掉对所述双目立体相机自运动参数计算误差较大的SIFT匹配点,得到m个有效SIFT匹配点;
利用所述有效SIFT匹配点,计算所述双目立体相机的自运动参数;
根据所述双目立体相机的自运动参数,计算所述双目立体相机运动背景光流;
其中,n>m,且,n和m均为正整数。
优选地,所述利用所述混合光流和所述运动背景光流,得到仅由目标运动产生的残差流包括:
通过将所述混合光流与所述运动背景光流进行相减处理,得到仅由目标运动产生的残差流。
优选地,所述通过对所述残差流进行处理,得到独立的运动目标包括:
采用动态阈值分割法,从所述残差流中分割出运动区域;
通过结合2D和3D信息的方法,从所述运动区域内分割出独立的运动目标。
优选地,所述利用基于视差的SIFT匹配点筛选策略,过滤掉对所述双目立体相机自运动参数计算误差较大的SIFT匹配点,得到m个有效SIFT匹配点包括:
分别计算第i个SIFT匹配点的视差di;
根据所述第i个SIFT匹配点的视差di,计算第i个SIFT点的误差指标因子indei;
当所述第i个SIFT点的误差指标因子indei小于1时,则将所述第第i个SIFT匹配点作为有效SIFT匹配点;
当所述第i个SIFT点的误差指标因子indei不小于1时,则过滤掉所述第i个SIFT匹配点。
优选地,所述通过结合2D和3D信息的方法,从所述运动区域内分割出独立的运动目标包括:
利用3D信息对所述运动区域进行目标粗分割处理,得到粗分割目标;
利用2D信息对所述粗分割目标进行二次分割处理,得到独立的运动目标。
优选地,所述目标粗分割包括:地面点云去除、XOZ平面栅格图像的建立以及目标分割。
图2是本发明实施例提供的基于视觉的智能车环境动态目标检测的示意图,如图2所示,对于输入的双目视频序列图像,取前后两个时刻立体图像,先计算相邻时刻的混合光流MOF,再计算运动背景光流MBOF,两者求差得到运动目标光流MOOF。MOOF仅包含了由运动目标产生的光流,故而对其进行分割,即可得到运动目标区域。所分割出的运动目标区域可能包含了多个目标,对单个运动目标进行提取,以得到精确的单个运动目标。
1混合光流的计算
在本发明中,混合光流指由左相机在相邻两时刻采集图像所计算的光流场,记为fmix。
2计算运动背景光流
在计算背景光流前,需要先计算相机的自运动参数。
2.1相机自运动参数计算
(1)相机自运动参数的定义
双目相机刚性连接,架设于智能车前方,车辆行驶过程中,实时采集周围场景图像。令t-1,t时刻,左右相机采集图像分别为如图3所示。在t-1时刻,以左相机坐标系为t-1时刻世界坐标系Ot-1Xt-1Yt-1Zt-1;在t时刻,仍以左相机坐标系为t时刻世界坐标系OtXtYtZt,坐标系Ot-1Xt-1Yt-1Zt-1和OtXtYtZt之间的转换关系为R和t,R和t即为相机自运动参数。其中,含有3个独立欧拉角变量,t=[Tx Ty Tz],含3个变量。
相机自运动参数计算,需要大于3对的特征匹配点作为输入,本发明采用SIFT(Scale-Invariant Feature Transform)特征匹配点。在本发明中,并非 上所有的SIFT匹配点都参与相机自运动参数的计算。首先要排除那些像点误差对三维重建后物点误差影响较大的SIFT匹配点,用剩余的SIFT匹配点参与相机自运动参数的计算,以保证自运动参数的计算精度。
(2)SIFT匹配点筛选
2)计算第i个SIFT匹配点的视差di。
4)如果indei<1,则表明当前第i个SIFT点当像点误差较小时,其物点误差也较小,可用于计算相机自运动参数,存入变量S中。
5)重复步骤2)~4),将所有满足用于参与相机自运动参数的SIFT匹配点存入S中。
(3)自运动参数的计算
先设R、t参数初始值为0。
2)将xt-1代入式(1)计算t-1时刻同名像点对应的物点Pt-1,其中d表示两个同名点的视差。Pt-1所在的坐标系为Ot-1Xt-1Yt-1Zt-1。
3)利用式子(5)求得Pt-1在坐标系OtXtYtZt下的物点坐标Pt。
Pt=RPt-1+t (2)
5)以式(3)所示为目标函数,采用高斯牛顿迭代法求解。
2.2背景光流场计算
背景光流fmbof=(umb,vmb)的计算公式为:
合并式(4)、(5)可得背景光流fmbof的最后表达式:
由式(6)可知,要计算背景光流(umb,vmb),需要已知R、t,f、b、d。f、b为双目系统的焦距和基线,通过相机标定获得;R、t通过计算相机自运动参数获得。视差d通过两幅图像的稠密匹配获得。
3.运动目标光流(残差流)计算
fmoof=fmix-fmbof (7)
4.从残差流中分离出运动区域
残差流的马氏距离为:其中∑MOOF是残差流的协方差矩阵。表示坐标为(x,y)的像素的残差流马氏距离。值越小,表示坐标为(x,y)的像素是运动目标的概率越小。服从χ2分布,因此残差流运动似然性可以根据计算出。令表示χ2分布在的概率值,则表示像素点(x,y)是运动目标的概率。令对r(x,y)进行阈值分割,即可获得场景内运动区域。本发明的动态阈值分割法如下:
首先计算t时刻图像视差的均值对于坐标为(x,y)的像素,若其视差值大于视差均值则表明该像素计算的运动目标场误差较大,需要设定一个大的分割阈值,本申请设为0.8;若说明该像素的残差流误差一般,设定一个中等的分隔阈值,本申请设置为0.65;若说明该像素计算的运动目标场误差较小,设定一个小的分割阈值即可,本文设为0.5。值得注意的是,上述0.8,0.65,0.5是在申请人经过大量测试后得出的较佳的经验阈值。
5.从运动区域中提取单个运动目标
第4节仅仅是从残差流中分割出了运动区域,运动区域可能包含了多个运动目标。本节给出由多个运动目标区域分割出单个运动目标的方法。所提出的方法分为两部分:首先,利用三维信息实现目标的粗分割;然后,利用二维信息对粗分割目标再进行二次分割。
(1)目标粗分割
双目相机一般架设于汽车前方。世界坐标系如图4所示,X轴水平向右为正,Z轴向前为正,Y轴垂直向内为正。首先根据双目立体三角测量原理,重建出场景内稠密三维坐标。然后,将场景三维坐标投影到XOZ平面。当双目系统平行地面架设时,XOZ平面正好和地平面平行。此时,理论上,各目标在XOZ平面可以被分开。目标粗分割包括:地面点云去除、XOZ平面栅格图像的建立、目标分割。
·地面点云去除
当地面被误判为运动目标时,地面会将多个目标粘连在一起,导致多个目标在XOZ平面投影时无法被区分开,因此去除地面点云是保证在XOZ平面分割各目标的前提。当从天空往地面看时,场景世界坐标系中Y坐标垂直向下为正,因此地面点云的Y坐标具有最大值。通过去除场景三维点云中Y坐标大于一定阈值的点,达到去除地面点的目的。阈值的设定按实际情况给出,和项目所采用车的尺寸、相机XOZ平面和地面的夹角。本申请中,此处阈值设置为1.4米。
· XOZ平面栅格图像的建立
XOZ平面为实际的连续空间平面,需要将其离散化。首先,根据检测范围及相机视场,确定XOZ平面的范围。本申请中X范围为[-2m 2m],Z的范围限定为[0.5m 50m]。对连续的XOZ平面,以步长ε对其进行采样,建立栅格图像。栅格图像每个像素对应了实际的XOZ平面一片区域。统计该区域内三维投影点的数目,将该数目作为此栅格的“灰度值”,得到投影点在XOZ平面的密度直方图,如图4所示。通常,为了避免噪声的干扰,会去除“灰度值”小于一定值的区域,将此栅格图像二值化后,得到待分割的二值图像。
·目标分割
对二值栅格图像执行像素标记操作,分割出每个目标。
值得注意的是,在栅格图像建立过程中,步长大小的设定非常重要。步长设置过大,相邻的两个运动目标可能被判为一个运动目标,如果步长设置过小,除了计算量增加外,也可能过分割出多个目标。选择一个合适的阈值是很困难的。一般来说,将一个目标分割为多个目标并对智能车决策规划影响较小,故本申请选择小的阈值。
(2)目标二次分割
由于残差光流中存在噪声,这些噪声表现为一些零散的静止背景上的局部数据,目标二次分割的目的就是去除这些噪声。去除这些零散噪声的思想如下:同一个目标与相机距离不同时,在像平面的成像大小不同。因此,可以根据目标距离与其在像平面上面积的相关性去除噪声数据。
智能车行驶环境动态典型目标一般为车辆、行人。因此,可以根据所采用相机的焦距大小、分辨率、世界坐标系XOZ平面与地平面的关系,计算出一般形态下车辆、行人在不同距离下,在像平面上的面积大小。设前方目标的长宽分别为w×h,镜头焦距为f,物体距离相机的距离为D,像素大小为dx×dy,则目标在像平面上的面积为:建立常见运动目标不同距离下对应像平面面积表,如表1所示。
表1目标物理尺寸和像面尺寸对应关系
具体实施步骤如下:
1)对于粗分割后的区域,计算该区域内每个像素对应的三维坐标,再取所有三维坐标的平均值作为该目标与相机的距离D。
2)计算粗分割后目标面积s。
3)计算D和D1...Dn的差,选最小差值对应的Di作为参考对标距离
4)计算Δs=|si-s|;若Δs<ε,则认为粗分割后的区域为单个目标,保留该区域为动态目标区域;若Δs>ε,则认为该目标为噪声目标,需要去除。
根据本发明实施例提供的方案,本发明在传统背景光流补偿差分法的基础上做出了相关点的改进。这些改进的积极效果就是可以提高运动目标检测的准确性、减小漏检率和误检率。以KITTI数据库中的数据为样本进行测试,所提出的方法较传统的背景光流补偿差分法检测准确率提高了12.45%,漏检率降低了12.46%,误检率降低了16.94%。
尽管上文对本发明进行了详细说明,但是本发明不限于此,本技术领域技术人员可以根据本发明的原理进行各种修改。因此,凡按照本发明原理所作的修改,都应当理解为落入本发明的保护范围。
Claims (6)
1.一种基于视觉的智能车环境动态目标检测的方法,其特征在于,包括:
在智能车移动期间,设置在所述智能车上的双目立体相机通过采集当前的场景图像,得到当前的双目视频序列图像;
从所述双目视频序列图像中选取第t时刻图像和t-1时刻图像,并利用所述第t时刻图像和所述t-1时刻图像,计算混合光流;
根据所述第t时刻图像、所述t-1时刻图像,计算所述双目立体相机运动背景光流,其包括:
利用基于视差的SIFT匹配点筛选策略,过滤掉对所述双目立体相机自运动参数计算误差较大的SIFT匹配点,得到m个有效SIFT匹配点,其包括:
分别计算第i个SIFT匹配点的视差di;
当所述第i个SIFT点的误差指标因子indei小于1时,则将所述第i个SIFT匹配点作为有效SIFT匹配点;
当所述第i个SIFT点的误差指标因子indei不小于1时,则过滤掉所述第i个SIFT匹配点;
利用所述有效SIFT匹配点,计算所述双目立体相机的自运动参数;
根据所述双目立体相机的自运动参数,计算所述双目立体相机运动背景光流;
利用所述混合光流和所述运动背景光流,得到仅由目标运动产生的残差流;
通过对所述残差流进行处理,得到独立的运动目标;
2.根据权利要求1所述的基于视觉的智能车环境动态目标检测的方法,其特征在于,所述混合光流是指由所述双目立体相机的左相机在相邻两时刻采集图像所计算的光流场。
3.根据权利要求2所述的基于视觉的智能车环境动态目标检测的方法,其特征在于,所述利用所述混合光流和所述运动背景光流,得到仅由目标运动产生的残差流包括:
通过将所述混合光流与所述运动背景光流进行相减处理,得到仅由目标运动产生的残差流。
5.根据权利要求4所述的基于视觉的智能车环境动态目标检测的方法,其特征在于,所述通过结合2D和3D信息的方法,从所述运动区域内分割出独立的运动目标包括:
利用3D信息对所述运动区域进行目标粗分割处理,得到粗分割目标;
利用2D信息对所述粗分割目标进行二次分割处理,得到独立的运动目标。
6.根据权利要求5所述的基于视觉的智能车环境动态目标检测的方法,其特征在于,所述目标粗分割包括:地面点云去除、XOZ平面栅格图像的建立以及目标分割。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010580747.4A CN111814602B (zh) | 2020-06-23 | 2020-06-23 | 一种基于视觉的智能车环境动态目标检测的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010580747.4A CN111814602B (zh) | 2020-06-23 | 2020-06-23 | 一种基于视觉的智能车环境动态目标检测的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111814602A CN111814602A (zh) | 2020-10-23 |
CN111814602B true CN111814602B (zh) | 2022-06-17 |
Family
ID=72845646
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010580747.4A Active CN111814602B (zh) | 2020-06-23 | 2020-06-23 | 一种基于视觉的智能车环境动态目标检测的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111814602B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112734796B (zh) * | 2021-01-18 | 2023-04-18 | 烟台南山学院 | 一种运动目标检测方法及实现运动目标检测方法的检测系统 |
CN113343745B (zh) * | 2021-02-26 | 2024-06-18 | 北京中科慧眼科技有限公司 | 基于双目相机的远距离目标检测方法、系统和智能终端 |
CN113221739B (zh) * | 2021-05-12 | 2023-04-14 | 中国科学技术大学 | 基于单目视觉的车距测量方法 |
CN113358113A (zh) * | 2021-06-18 | 2021-09-07 | 刘治昊 | 一种基于衣架反射原理的导航装置 |
CN114782927B (zh) * | 2022-06-21 | 2022-09-27 | 苏州魔视智能科技有限公司 | 障碍物检测方法、装置、电子设备及存储介质 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101739829A (zh) * | 2009-12-03 | 2010-06-16 | 北京中星微电子有限公司 | 一种基于视频的车辆超速监控方法及系统 |
CN103236053A (zh) * | 2013-04-07 | 2013-08-07 | 南京理工大学 | 一种移动平台下运动目标检测的mof方法 |
CN104156978A (zh) * | 2014-07-04 | 2014-11-19 | 合肥工业大学 | 基于球载平台的多目标动态跟踪方法 |
CN107481315A (zh) * | 2017-06-29 | 2017-12-15 | 重庆邮电大学 | 一种基于Harris‑SIFT‑BRIEF算法的单目视觉三维环境重建方法 |
CN107657644A (zh) * | 2017-09-28 | 2018-02-02 | 浙江大华技术股份有限公司 | 一种移动环境下稀疏场景流检测方法和装置 |
CN108596032A (zh) * | 2018-03-21 | 2018-09-28 | 浙江大华技术股份有限公司 | 一种视频中打架行为检测方法、装置、设备及介质 |
CN109102523A (zh) * | 2018-07-13 | 2018-12-28 | 南京理工大学 | 一种运动目标检测和跟踪方法 |
CN109934283A (zh) * | 2019-03-08 | 2019-06-25 | 西南石油大学 | 一种融合cnn和sift光流的自适应运动目标检测方法 |
CN110245603A (zh) * | 2019-06-12 | 2019-09-17 | 成都信息工程大学 | 一种群体异常行为实时检测方法 |
CN110599522A (zh) * | 2019-09-18 | 2019-12-20 | 成都信息工程大学 | 一种视频序列中动态目标检测剔除方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR3020699A1 (fr) * | 2014-04-30 | 2015-11-06 | Centre Nat Rech Scient | Procede de suivi de forme dans une scene observee par un capteur asynchrone de lumiere |
CN108038866A (zh) * | 2017-12-22 | 2018-05-15 | 湖南源信光电科技股份有限公司 | 一种基于Vibe和视差图背景差法的运动目标检测方法 |
CN110782477A (zh) * | 2019-10-10 | 2020-02-11 | 重庆第二师范学院 | 基于序列图像的运动目标快速检测方法、计算机视觉系统 |
-
2020
- 2020-06-23 CN CN202010580747.4A patent/CN111814602B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101739829A (zh) * | 2009-12-03 | 2010-06-16 | 北京中星微电子有限公司 | 一种基于视频的车辆超速监控方法及系统 |
CN103236053A (zh) * | 2013-04-07 | 2013-08-07 | 南京理工大学 | 一种移动平台下运动目标检测的mof方法 |
CN104156978A (zh) * | 2014-07-04 | 2014-11-19 | 合肥工业大学 | 基于球载平台的多目标动态跟踪方法 |
CN107481315A (zh) * | 2017-06-29 | 2017-12-15 | 重庆邮电大学 | 一种基于Harris‑SIFT‑BRIEF算法的单目视觉三维环境重建方法 |
CN107657644A (zh) * | 2017-09-28 | 2018-02-02 | 浙江大华技术股份有限公司 | 一种移动环境下稀疏场景流检测方法和装置 |
CN108596032A (zh) * | 2018-03-21 | 2018-09-28 | 浙江大华技术股份有限公司 | 一种视频中打架行为检测方法、装置、设备及介质 |
CN109102523A (zh) * | 2018-07-13 | 2018-12-28 | 南京理工大学 | 一种运动目标检测和跟踪方法 |
CN109934283A (zh) * | 2019-03-08 | 2019-06-25 | 西南石油大学 | 一种融合cnn和sift光流的自适应运动目标检测方法 |
CN110245603A (zh) * | 2019-06-12 | 2019-09-17 | 成都信息工程大学 | 一种群体异常行为实时检测方法 |
CN110599522A (zh) * | 2019-09-18 | 2019-12-20 | 成都信息工程大学 | 一种视频序列中动态目标检测剔除方法 |
Non-Patent Citations (4)
Title |
---|
《Modeling the background and detecting moving objects based on Sift flow》;JianfangDou等;《Optik》;20141231;第125卷(第1期);第435-440页 * |
《SIFT Flow: Dense Correspondence across Scenes and its Applications》;Ce Liu等;《IEEE Transactions on Pattern Analysis and Machine Intelligence》;20111231;第33卷(第5期);第1-17页 * |
《复杂动态场景下目标检测与分割算法》;许冰 等;《北京航空航天大学学报》;20160228;第42卷(第02期);第310-317页 * |
《序列图像光流计算关键技术研究及其在三维重建中的应用》;袁建英;《中国博士学位论文全文数据库 信息科技辑》;20160815(第08期);第I138-104页 * |
Also Published As
Publication number | Publication date |
---|---|
CN111814602A (zh) | 2020-10-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111814602B (zh) | 一种基于视觉的智能车环境动态目标检测的方法 | |
US11461912B2 (en) | Gaussian mixture models for temporal depth fusion | |
CN114708585B (zh) | 一种基于注意力机制的毫米波雷达与视觉融合的三维目标检测方法 | |
CN114842438B (zh) | 用于自动驾驶汽车的地形检测方法、系统及可读存储介质 | |
Yao et al. | Estimating drivable collision-free space from monocular video | |
US5937079A (en) | Method for stereo image object detection | |
CN110688905B (zh) | 一种基于关键帧的三维物体检测与跟踪方法 | |
El Bouziady et al. | Vehicle speed estimation using extracted SURF features from stereo images | |
CN112115889B (zh) | 基于视觉的智能车运动目标检测方法 | |
EP3293700B1 (en) | 3d reconstruction for vehicle | |
Pantilie et al. | Real-time obstacle detection using dense stereo vision and dense optical flow | |
CN114821507A (zh) | 一种用于自动驾驶的多传感器融合车路协同感知方法 | |
Ouyang et al. | A cgans-based scene reconstruction model using lidar point cloud | |
Hultqvist et al. | Detecting and positioning overtaking vehicles using 1D optical flow | |
CN117934515A (zh) | 一种生成包括道路分割信息的栅格地图方法及相关装置 | |
Giosan et al. | Superpixel-based obstacle segmentation from dense stereo urban traffic scenarios using intensity, depth and optical flow information | |
CN112950786A (zh) | 一种基于神经网络的车辆三维重建方法 | |
Walz et al. | Gated stereo: Joint depth estimation from gated and wide-baseline active stereo cues | |
Condat et al. | Gfd-retina: Gated fusion double retinanet for multimodal 2d road object detection | |
Wang et al. | Robust obstacle detection based on a novel disparity calculation method and G-disparity | |
Kozonek et al. | On the fusion of camera and lidar for 3D object detection and classification | |
CN116189138A (zh) | 一种基于车路协同的视野盲区行人检测算法 | |
Soquet et al. | Free space estimation for autonomous navigation | |
Roddick et al. | On the road to large-scale 3d monocular scene reconstruction using deep implicit functions | |
Roth et al. | Reduction of the fronto-parallel bias for wide-baseline semi-global matching |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |