CN109727273B - 一种基于车载鱼眼相机的移动目标检测方法 - Google Patents

一种基于车载鱼眼相机的移动目标检测方法 Download PDF

Info

Publication number
CN109727273B
CN109727273B CN201811632119.5A CN201811632119A CN109727273B CN 109727273 B CN109727273 B CN 109727273B CN 201811632119 A CN201811632119 A CN 201811632119A CN 109727273 B CN109727273 B CN 109727273B
Authority
CN
China
Prior art keywords
vehicle
area
optical flow
moving
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811632119.5A
Other languages
English (en)
Other versions
CN109727273A (zh
Inventor
刘春霞
杨波
邓博
王俊红
宋平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Yinwo Automotive Technology Co ltd
Original Assignee
Beijing Yinwo Automotive Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Yinwo Automotive Technology Co ltd filed Critical Beijing Yinwo Automotive Technology Co ltd
Priority to CN201811632119.5A priority Critical patent/CN109727273B/zh
Publication of CN109727273A publication Critical patent/CN109727273A/zh
Application granted granted Critical
Publication of CN109727273B publication Critical patent/CN109727273B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明提供了一种基于车载鱼眼相机的移动目标检测方法,其能够准确、高效地检测出车辆周围的移动物体,检测结果的可靠性好,包括以下步骤:步骤一、采集图像;步骤二、相机标定;步骤三、计算感兴趣区域;步骤四、角点检测,得到对应特征点;步骤五、计算出特征点对应的光流;步骤六、光流聚类;步骤七、车辆的运动信息计算;步骤八、检测移动目标:通过每个候选目标对应的光流及特征点计算候选目标的运动信息,根据候选目标的运动信息判断候选目标是否为需要报警的移动目标;步骤九、跟踪需要报警的移动目标,得到其运动轨迹;步骤十、输出移动目标位置并报警。

Description

一种基于车载鱼眼相机的移动目标检测方法
技术领域
本发明涉及一种辅助驾驶和图像处理领域,特别涉及一种基于车载鱼眼相机的移动目标检测方法。
背景技术
随着我国生活水平的提高,汽车越来越多。随之而来的是交通事故的增多,给广大人民群众带来众多的精神和财产损失。因此辅助驾驶技术应运而生,越来越多的公司、研究机构对此技术进行研发。其中基于车载鱼眼相机的移动目标检测是辅助驾驶的关键技术之一,在汽车低速行驶,如果车前后方向有移动物体时予以提醒,从而减少交通事故的发生。
现有的移动目标检测算法更多的应用在监控领域,应用到车载环境的很少,而且车载环境非常复杂,常规的检测方法很不稳定。
发明内容
本发明提供了一种基于车载鱼眼相机的移动目标检测方法,其能够准确、高效地检测出车辆周围的移动物体,检测结果的可靠性好。
其技术方案是这样的:一种基于车载鱼眼相机的移动目标检测方法,其特征在于,包括以下步骤:步骤一、采集图像:通过摄像头实时采集图像;
步骤二、相机标定:对采集到的图像进行标定,得到图像坐标系和世界坐标系及其之间坐标转化关系;
步骤三、计算感兴趣区域:利用标定结果在图像中划分出感兴趣区域;
步骤四、角点检测:将所采集的图片转换成灰度图,利用Shi-Tomasi特征点检测算法,计算出灰度图中的角点,得到对应特征点;
步骤五、计算光流:利用L-K光流法计算出每个特征点对应的光流;
步骤六、光流聚类:将特征点的位置、光流值和像素灰度值的大小作为聚类特征将光流进行聚类,得到候选目标;
步骤七、车辆的运动信息计算:通过特征点对应的光流计算车辆的移动方向和移动距离,结合车辆的CAN总线传出的车辆的运动信息来估计车辆的运动信息;
步骤八、检测移动目标:通过每个候选目标对应的光流及特征点计算候选目标的运动信息,根据候选目标的运动信息判断候选目标是否为需要报警的移动目标;
步骤九、目标跟踪:跟踪需要报警的移动目标,根据采集的每帧图像中需要报警的移动目标的位置变化得到需要报警的移动目标的运动轨迹;
步骤十、输出移动目标位置并报警:输出移动目标在图像上的位置,如果移动目标连续N帧图像都能检测到,则在图像上用矩形框标记出该移动目标,以提示报警。
进一步的,在步骤二中,对采集到的图像进行标定时,得到图像坐标系和世界坐标系的单应性矩阵,通过所述单应性矩阵关联图像坐标系和世界坐标系,实现关联图像坐标系和世界坐标系的坐标之间的相互转换。
进一步的,在步骤三中,将感兴趣区域划分为四个区域:左侧区域、右侧区域、中间区域、近车区域。
进一步的,在步骤三中,近车区域的长度取车前N1米,N1的取值范围为0.5米-1米,宽度与车身等宽,覆盖区域面积为车身宽度*N1平方米;中间区域的长度取近车区域前侧N2米,N2的取值范围为5米到10米,宽度与车身等宽,覆盖区域面积为车身宽度*N2平方米;左侧区域的宽度取中间区域左侧的N3米,N3的取值范围为2米-6米,长度与中间区域等长,覆盖区域面积为N2*N3平方米;右侧区域的宽度取中间区域右侧N4米,N4的值范围为2米-6米,长度与中间区域等长,覆盖区域面积为N2*N4平方米。
进一步的,在步骤四中,计算灰度图中的角点过程中,先计算出特征提取矩阵,公式如下:
Figure BDA0001929195780000021
其中,w(x,y)表示滑动窗口,Ix表示x方向的梯度,Iy表示y方向的梯度;矩阵M对应的特征方程为:
f(λ)=λ2-(a+c)λ+ac-b2
采用如下方法提取特征点:取特征根的经验阈值λT带入特征方程,如果某个点对应的特征方程,满足以下两个不等式中的任意一个,则认为该点是特征点,两个不等式如下:
Figure BDA0001929195780000022
Figure BDA0001929195780000023
同时记录下该特征点的位置(x,y),得到满足不等式的图像中所有特征点的位置集合。
进一步的,在步骤五中,L-K光流法计算中光流属于局部光流,根据光流的约束条件,假设图像上(x,y)点在t时刻对应的亮度值为I(x,y,t),t+dt时刻对应的亮度值为I(x+dx,y+dy,t+dt),则
I(x,y,t)=I(x+dx,y+dy,t+dt)
将上述公式按照一阶泰勒公式展开,得到:
Figure BDA0001929195780000031
即:Ixdx+Iydy+Itdt=0,令
Figure BDA0001929195780000032
则:
Ixu+Iyv=-It,即:
Figure BDA0001929195780000033
设定光流(u,v)在一个局部小的范围内,亮度是恒定的,则:
Figure BDA0001929195780000034
表示成:
Figure BDA0001929195780000035
Figure BDA0001929195780000036
得到
Figure BDA0001929195780000037
最后推出每个特征点对应的光流的计算公式如下:
Figure BDA0001929195780000038
其中,
Figure BDA0001929195780000039
进一步的,在步骤六中,采用meanshift聚类算法将特征点的位置、光流值和像素灰度值的大小作为聚类特征将光流进行聚类,表示为((x,y),(u,v),(r,g,b)),其中(x,y)表示该点在图像中的位置,(u,v)表示该点对应的光流大小,(r,g,b)表示该点对应的三个通道的灰度值,将位置相近、对应的光流值近似和像素值近似的特征点聚集成一类,采用meanshift聚类算法每次迭代后,新的圆心坐标公式为:
Figure BDA00019291957800000310
其中,x表示新的聚类中心,是以((x,y),(u,v),(r,g,b))为坐标的高维空间的点坐标,xi表示第i个特征向量,g为影子核,即核函数求导的负方向,h为高维球的半径;
通过聚类,得到候选目标,将每个候选目标在图像上对应的位置及属于该候选目标的光流保存下来,用矩形框(x,y,w,h)来表示目标的位置,其中(x,y)表示矩形框左上角点,w表示矩形框的宽度,h表示矩形框的高度。
进一步的,在步骤七中,车辆的运动信息计算具体步骤如下:
取近车区域的光流来计算车辆的运动信息,设定近车区域的光流对应的特征点都是地面上的点,先去除计算错误的光流,如果特征点光流的方向与车的移动方向相反,则认为该特征点的光流计算错误去除该特征点;
然后,根据步骤二中的相机标定结果,通过单应性矩阵将剩余的特征点从图像坐标系转换到世界坐标系;
最后,根据剩余的特征点计算出车的移动方向和移动距离,如果路面光滑,没有特征点存在,则以CAN总线传出的车辆的运动信息为准。
进一步的,在步骤八中,通过每个候选目标对应的光流及特征点计算候选目标的运动信息,当候选目标对应多个光流时,取均值作为每个候选目标的最终的运动信息;
根据候选目标的运动信息判断候选目标是否为需要报警的移动目标,如果该候选目标的运动信息与车辆的运动信息近似,则丢弃该候选目标,如果该候选目标的运动信息与车辆的运动信息相差很大,则认为该候选目标是真正的移动目标,再判断是否报警;
在感兴趣区域的每个区域中,采用不同的判定规则决定每个候选目标是否报警,具体判定规则如下:
在左侧区域中,只检测从左向右移动的候选目标,即离车越来越近的目标;在右侧区域中,只检测从右向左移动的候选目标,即离车越来越近的目标;在中间区域中,检测朝任意方向移动的候选目标;不检测在近车区域中的候选目标。
进一步的,在步骤九中,跟踪需要报警的移动目标,记录需要报警的移动目标在每帧图像中的位置,如前后两帧之间的目标在图像的位置有重叠且重叠面积大于设定的阈值,则认为这两个目标是同一个目标,将该目标在当前帧的位置保存下来,根据采集的每帧图像中需要报警的移动目标的位置变化得到需要报警的移动目标的运动轨迹。
进一步的,所述摄像头为鱼眼相机。
本发明由于采取以上技术方案,其具有以下优点:本发明在车前及车后定义为感兴趣区域,并将每个感兴趣区域分为4个区域,即左侧区域,右侧区域,车前区域和近车区域,通过角点检测得到特征点,然后根据特征点计算这4个区域的光流,并对光流进行聚类,根据聚类结果及估算的车信号信息,对这4个区域制定不同的判断规则,分别判断每个区域是否存在移动目标;能够准确、高效地检测出车周围的移动物体,当车低速行驶时,如果有移动物体靠近,能够迅速的做出响应,给驾驶员以提示,本发明在车辆的运动信息计算时将筛选去除错误的车辆的运动信息特征点,在检测移动目标时会将候选目标的运动信息与车辆的运动信息进行比对,然后根据感兴趣区域的不同制定不同的判断规则,能够准确排出干扰和错误信息,能够有效实现移动目标检测,并且在计算特征点时,采用的计算方法运算简便,效率较高,同时本发明中摄像头采用鱼眼相机,视野比较宽,能看到两侧更大的区域,适用于车辆的全景系统。
附图说明
图1是本发明的整体流程示意图;
图2是本发明的感兴趣区域分布示意图。
具体实施方式
见图1,本发明的一种基于车载鱼眼相机的移动目标检测方法,包括以下步骤:步骤一、采集图像:通过摄像头实时采集图像;
步骤二、相机标定:对采集到的图像进行标定,得到图像坐标系和世界坐标系及其之间坐标转化关系,具体的,在对采集到的图像进行标定时,得到图像坐标系和世界坐标系的单应性矩阵,通过单应性矩阵关联图像坐标系和世界坐标系,实现关联图像坐标系和世界坐标系的坐标之间的相互转换;
步骤三、计算感兴趣区域:利用标定结果在图像中划分出感兴趣区域,见图2,将感兴趣区域划分为四个区域:左侧区域1、右侧区域2、中间区域3、近车区域4,在本实施例中,近车区域的长度取车前1米,宽度与车身等宽,覆盖区域面积为车身宽度*1平方米;中间区域的长度取近车区域前侧8米,宽度与车身等宽,覆盖区域面积为车身宽度*8平方米;左侧区域的宽度取中间区域左侧的4米,长度与中间区域等长,覆盖区域面积为32平方米;右侧区域的宽度取中间区域右侧4米,长度与中间区域等长,覆盖区域面积为32平方米;
步骤四、角点检测:将所采集的图片转换成灰度图,利用Shi-Tomasi特征点检测算法,计算出灰度图中的角点,得到对应特征点,具体的,在计算灰度图中的角点过程中,先计算出特征提取矩阵,公式如下:
Figure BDA0001929195780000051
其中,w(x,y)表示滑动窗口,Ix表示x方向的梯度,Iy表示y方向的梯度;矩阵M对应的特征方程为:
f(λ)=λ2-(a+c)λ+ac-b2
采用如下方法提取特征点:取特征根的经验阈值λT带入特征方程,如果某个点对应的特征方程,满足以下两个不等式中的任意一个,则认为该点是特征点,两个不等式如下:
Figure BDA0001929195780000061
Figure BDA0001929195780000062
同时记录下该特征点的位置(x,y),得到满足不等式的图像中所有特征点的位置集合;
常规计算特征值的方法中涉及到开根号等较复杂的运算,会降低的计算效率,因此为了提高运算速度,在保证计算精度的前提下采用本发明的方法,只有加减乘三种简单的运算,不存在开根号等复杂运算,计算速度快,能够明显的提高计算效率;
步骤五、计算光流:利用L-K光流法计算出每个特征点对应的光流,具体的,L-K光流法计算中光流属于局部光流,根据光流的约束条件,假设图像上(x,y)点在t时刻对应的亮度值为I(x,y,t),t+dt时刻对应的亮度值为I(x+dx,y+dy,t+dt),则
I(x,y,t)=I(x+dx,y+dy,t+dt)
将上述公式按照一阶泰勒公式展开,得到:
Figure BDA0001929195780000063
即:Ixdx+Iydy+Itdt=0,令
Figure BDA0001929195780000064
则:
Ixu+Iyv=-It,即:
Figure BDA0001929195780000065
设定光流(u,v)在一个局部小的范围内,亮度是恒定的,则:
Figure BDA0001929195780000066
表示成:
Figure BDA0001929195780000067
Figure BDA0001929195780000068
得到
Figure BDA0001929195780000069
最后推出每个特征点对应的光流的计算公式如下:
Figure BDA00019291957800000610
其中,
Figure BDA00019291957800000611
步骤六、光流聚类:同一目标上对应的特征点计算出的光流值近似,像素灰度值近似,且位置相近,因此可以利用聚类,将特征点的位置、光流值和像素灰度值的大小作为聚类特征将光流进行聚类,得到候选目标,具体的,采用meanshift聚类算法将特征点的位置、光流值和像素灰度值的大小作为聚类特征将光流进行聚类,表示为((x,y),(u,v),(r,g,b)),其中(x,y)表示该点在图像中的位置,(u,v)表示该点对应的光流大小,(r,g,b)表示该点对应的三个通道的灰度值,将位置相近、对应的光流值近似和像素值近似的特征点聚集成一类,采用meanshift聚类算法每次迭代后,新的圆心坐标公式为:
Figure BDA0001929195780000071
其中,x表示新的聚类中心,是以((x,y),(u,v),(r,g,b))为坐标的高维空间的点坐标,xi表示第i个特征向量,g为影子核,即核函数求导的负方向,h为高维球的半径;
通过聚类,得到候选目标,将每个候选目标在图像上对应的位置及属于该候选目标的光流保存下来,用矩形框(x,y,w,h)来表示目标的位置,其中(x,y)表示矩形框左上角点,w表示矩形框的宽度,h表示矩形框的高度;
步骤七、车辆的运动信息计算:通过特征点对应的光流计算车辆的移动方向和移动距离,结合车辆的CAN总线传出的车辆的运动信息来估计车辆的运动信息,具体的,车辆的运动信息计算具体步骤如下:
取近车区域的光流来计算车辆的运动信息,设定近车区域的光流对应的特征点都是地面上的点,先去除计算错误的光流,如果特征点光流的方向与车的移动方向相反,则认为该特征点的光流计算错误去除该特征点;
然后,根据步骤二中的相机标定结果,通过单应性矩阵将剩余的特征点从图像坐标系转换到世界坐标系;
最后,根据剩余的特征点计算出车的移动方向和移动距离,如果路面光滑,没有特征点存在,则以CAN总线传出的车辆的运动信息为准;
步骤八、检测移动目标:通过每个候选目标对应的光流及特征点计算候选目标的运动信息,根据候选目标的运动信息判断候选目标是否为需要报警的移动目标,具体的,当候选目标对应多个光流时,取均值作为每个候选目标的最终的运动信息;
根据候选目标的运动信息判断候选目标是否为需要报警的移动目标,如果该候选目标的运动信息与车辆的运动信息近似,则丢弃该候选目标,如果该候选目标的运动信息与车辆的运动信息相差很大,则认为该候选目标是真正的移动目标,再判断是否报警;
在感兴趣区域的每个区域中,采用不同的判定规则决定每个候选目标是否报警,具体判定规则如下:
在左侧区域中,只检测从左向右移动的候选目标,即离车越来越近的目标;在右侧区域中,只检测从右向左移动的候选目标,即离车越来越近的目标;在中间区域中,检测朝任意方向移动的候选目标;不检测在近车区域中的候选目标;
步骤九、目标跟踪:跟踪需要报警的移动目标,记录需要报警的移动目标在每帧图像中的位置,如前后两帧之间的目标在图像的位置有重叠且重叠面积大于设定的阈值,则认为这两个目标是同一个目标,将该目标在当前帧的位置保存下来,根据采集的每帧图像中需要报警的移动目标的位置变化得到需要报警的移动目标的运动轨迹,目标跟踪的目的是提高检测的准确性,尽量减小噪声的干扰;
步骤十、输出移动目标位置并报警:输出移动目标在图像上的位置,如果移动目标连续N帧图像都能检测到,则在图像上用矩形框标记出该移动目标,以提示报警。

Claims (8)

1.一种基于车载鱼眼相机的移动目标检测方法,其特征在于,包括以下步骤:
步骤一、采集图像:通过摄像头实时采集图像;
步骤二、相机标定:对采集到的图像进行标定,得到图像坐标系和世界坐标系及其之间坐标转化关系;
步骤三、计算感兴趣区域:利用标定结果在图像中划分出感兴趣区域;
步骤四、角点检测:将所采集的图片转换成灰度图,利用Shi-Tomasi特征点检测算法,计算出灰度图中的角点,得到对应特征点;
步骤五、计算光流:利用L-K光流法计算出每个特征点对应的光流;
步骤六、光流聚类:将特征点的位置、光流值和像素灰度值的大小作为聚类特征将光流进行聚类,得到候选目标;
步骤七、车辆的运动信息计算:通过特征点对应的光流计算车辆的移动方向和移动距离,结合车辆的CAN总线传出的车辆的运动信息来估计车辆的运动信息;
步骤八、检测移动目标:通过每个候选目标对应的光流及特征点计算候选目标的运动信息,根据候选目标的运动信息判断候选目标是否为需要报警的移动目标;
步骤九、目标跟踪:跟踪需要报警的移动目标,根据采集的每帧图像中需要报警的移动目标的位置变化得到需要报警的移动目标的运动轨迹;
步骤十、输出移动目标位置并报警:输出移动目标在图像上的位置,如果移动目标连续N帧图像都能检测到,则在图像上用矩形框标记出该移动目标,以提示报警;
在步骤八中,通过每个候选目标对应的光流及特征点计算候选目标的运动信息,当候选目标对应多个光流时,取均值作为每个候选目标的最终的运动信息;
根据候选目标的运动信息判断候选目标是否为需要报警的移动目标,如果该候选目标的运动信息与车辆的运动信息近似,则丢弃该候选目标,如果该候选目标的运动信息与车辆的运动信息相差很大,则认为该候选目标是真正的移动目标,再判断是否报警,其中,判断候选目标是否为需要报警的移动目标时,判断条件为车辆的移动方向和移动距离;
在感兴趣区域的每个区域中,采用不同的判定规则决定每个候选目标是否报警,具体判定规则如下:
将感兴趣区域划分为四个区域:左侧区域、右侧区域、中间区域、近车区域;近车区域的长度取车前N1米,N1的取值范围为0.5米-1米,宽度与车身等宽,覆盖区域面积为车身宽度*N1平方米;中间区域的长度取近车区域前侧N2米,N2的取值范围为5米到10米,宽度与车身等宽,覆盖区域面积为车身宽度*N2平方米;左侧区域的宽度取中间区域左侧的N3米,N3的取值范围为2米-6米,长度与中间区域等长,覆盖区域面积为N2*N3平方米;右侧区域的宽度取中间区域右侧N4米,N4的值范围为2米-6米,长度与中间区域等长,覆盖区域面积为N2*N4平方米;
在左侧区域中,只检测从左向右移动的候选目标,即离车越来越近的目标;在右侧区域中,只检测从右向左移动的候选目标,即离车越来越近的目标;在中间区域中,检测朝任意方向移动的候选目标;不在近车区域中检测候选目标。
2.根据权利要求1所述的一种基于车载鱼眼相机的移动目标检测方法,其特征在于:在步骤二中,对采集到的图像进行标定时,得到图像坐标系和世界坐标系的单应性矩阵,通过所述单应性矩阵关联图像坐标系和世界坐标系,实现关联图像坐标系和世界坐标系的坐标之间的相互转换。
3.根据权利要求2所述的一种基于车载鱼眼相机的移动目标检测方法,其特征在于:在步骤四中,计算灰度图中的角点过程中,先计算出特征提取矩阵,公式如下:
Figure FDA0002734508570000021
其中,w(x,y)表示滑动窗口,Ix表示x方向的梯度,Iy表示y方向的梯度;矩阵M对应的特征方程为:
f(λ)=λ2-(a+c)λ+ac-b2
采用如下方法提取特征点:取特征根的经验阈值λT带入特征方程,如果某个点对应的特征方程,满足以下两个不等式中的任意一个,则认为该点是特征点,两个不等式如下:
Figure FDA0002734508570000022
Figure FDA0002734508570000023
同时记录下该特征点的位置(x,y),得到满足不等式的图像中所有特征点的位置集合。
4.根据权利要求3所述的一种基于车载鱼眼相机的移动目标检测方法,其特征在于:在步骤五中,L-K光流法计算中光流属于局部光流,根据光流的约束条件,假设图像上(x,y)点在t时刻对应的亮度值为I(x,y,t),t+dt时刻对应的亮度值为I(x+dx,y+dy,t+dt),则
I(x,y,t)=I(x+dx,y+dy,t+dt)
将上述公式按照一阶泰勒公式展开,得到:
Figure FDA0002734508570000031
即:Ixdx+Iydy+Itdt=0,令
Figure FDA0002734508570000032
则:
Ixu+Iyv=-It,即:
Figure FDA0002734508570000033
设定光流(u,v)在一个局部小的范围内,亮度是恒定的,则:
Figure FDA0002734508570000034
表示成:
Figure FDA0002734508570000035
Figure FDA0002734508570000036
得到
Figure FDA0002734508570000037
最后推出每个特征点对应的光流的计算公式如下:
Figure FDA0002734508570000038
其中,
Figure FDA0002734508570000039
5.根据权利要求4所述的一种基于车载鱼眼相机的移动目标检测方法,其特征在于:在步骤六中,采用meanshift聚类算法将特征点的位置、光流值和像素灰度值的大小作为聚类特征将光流进行聚类,表示为((x,y),(u,v),(r,g,b)),其中(x,y)表示该点在图像中的位置,(u,v)表示该点对应的光流大小,(r,g,b)表示该点对应的三个通道的灰度值,将位置相近、对应的光流值近似和像素值近似的特征点聚集成一类,采用meanshift聚类算法每次迭代后,新的圆心坐标公式为:
Figure FDA00027345085700000310
其中,x表示新的聚类中心,是以((x,y),(u,v),(r,g,b))为坐标的高维空间的点坐标,xi表示第i个特征向量,g为影子核,即核函数求导的负方向,h为高维球的半径;
通过聚类,得到候选目标,将每个候选目标在图像上对应的位置及属于该候选目标的光流保存下来,用矩形框(x,y,w,h)来表示目标的位置,其中(x,y)表示矩形框左上角点,w表示矩形框的宽度,h表示矩形框的高度。
6.根据权利要求5所述的一种基于车载鱼眼相机的移动目标检测方法,其特征在于:在步骤七中,车辆的运动信息计算具体步骤如下:
取近车区域的光流来计算车辆的运动信息,设定近车区域的光流对应的特征点都是地面上的点,先去除计算错误的光流,如果特征点光流的方向与车的移动方向相反,则认为该特征点的光流计算错误去除该特征点;
然后,根据步骤二中的相机标定结果,通过单应性矩阵将剩余的特征点从图像坐标系转换到世界坐标系;
最后,根据剩余的特征点计算出车的移动方向和移动距离,如果路面光滑,没有特征点存在,则以CAN总线传出的车辆的运动信息为准。
7.根据权利要求1所述的一种基于车载鱼眼相机的移动目标检测方法,其特征在于:在步骤九中,跟踪需要报警的移动目标,记录需要报警的移动目标在每帧图像中的位置,如前后两帧之间的目标在图像的位置有重叠且重叠面积大于设定的阈值,则认为这两个目标是同一个目标,将该目标在当前帧的位置保存下来,根据采集的每帧图像中需要报警的移动目标的位置变化得到需要报警的移动目标的运动轨迹。
8.根据权利要求1所述的一种基于车载鱼眼相机的移动目标检测方法,其特征在于:所述摄像头为鱼眼相机。
CN201811632119.5A 2018-12-29 2018-12-29 一种基于车载鱼眼相机的移动目标检测方法 Active CN109727273B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811632119.5A CN109727273B (zh) 2018-12-29 2018-12-29 一种基于车载鱼眼相机的移动目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811632119.5A CN109727273B (zh) 2018-12-29 2018-12-29 一种基于车载鱼眼相机的移动目标检测方法

Publications (2)

Publication Number Publication Date
CN109727273A CN109727273A (zh) 2019-05-07
CN109727273B true CN109727273B (zh) 2020-12-04

Family

ID=66297568

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811632119.5A Active CN109727273B (zh) 2018-12-29 2018-12-29 一种基于车载鱼眼相机的移动目标检测方法

Country Status (1)

Country Link
CN (1) CN109727273B (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112015170A (zh) * 2019-05-29 2020-12-01 北京市商汤科技开发有限公司 运动物体检测及智能驾驶控制方法、装置、介质及设备
CN110211158B (zh) * 2019-06-04 2023-03-28 海信集团有限公司 候选区域确定方法、装置及存储介质
CN110473229B (zh) * 2019-08-21 2022-03-29 上海无线电设备研究所 一种基于独立运动特征聚类的运动目标检测方法
CN111382784B (zh) * 2020-03-04 2021-11-26 厦门星纵智能科技有限公司 一种运动目标跟踪方法
CN111563474A (zh) * 2020-05-18 2020-08-21 北京茵沃汽车科技有限公司 运动背景下的基于车载鱼眼镜头的障碍物检测方法、系统
CN112686209A (zh) * 2021-01-25 2021-04-20 深圳市艾为智能有限公司 基于车轮识别的车后盲区监测方法
CN113096151B (zh) * 2021-04-07 2022-08-09 地平线征程(杭州)人工智能科技有限公司 对目标的运动信息进行检测的方法和装置、设备和介质
CN114419106B (zh) * 2022-03-30 2022-07-22 深圳市海清视讯科技有限公司 车辆违章行为检测方法、设备及存储介质

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101295405A (zh) * 2008-06-13 2008-10-29 西北工业大学 人像与车辆识别报警跟踪方法
CN101767539B (zh) * 2008-12-30 2013-01-02 比亚迪股份有限公司 一种汽车巡航控制方法及巡航装置
CN102096803B (zh) * 2010-11-29 2013-11-13 吉林大学 基于机器视觉的行人安全状态识别系统
CN102999759B (zh) * 2012-11-07 2015-10-07 东南大学 一种基于光流的车辆运动状态估计方法
JP6532229B2 (ja) * 2014-12-18 2019-06-19 株式会社デンソーテン 物体検出装置、物体検出システム、物体検出方法及びプログラム
CN104881645B (zh) * 2015-05-26 2018-09-14 南京通用电器有限公司 基于特征点互信息量和光流法的车辆前方目标的检测方法
CN105023278B (zh) * 2015-07-01 2019-03-05 中国矿业大学 一种基于光流法的运动目标跟踪方法及系统
CN106845552B (zh) * 2017-01-31 2019-11-08 东南大学 在光强分布不均匀环境下的融合光流和sift特征点匹配的低动态载体速度计算方法
JP6717240B2 (ja) * 2017-03-08 2020-07-01 株式会社デンソー 物標検出装置
CN108674313A (zh) * 2018-06-05 2018-10-19 浙江零跑科技有限公司 一种基于车载后视广角相机的盲区预警系统及方法

Also Published As

Publication number Publication date
CN109727273A (zh) 2019-05-07

Similar Documents

Publication Publication Date Title
CN109727273B (zh) 一种基于车载鱼眼相机的移动目标检测方法
CN107031623B (zh) 一种基于车载盲区相机的道路预警方法
US9846812B2 (en) Image recognition system for a vehicle and corresponding method
CN111563474A (zh) 运动背景下的基于车载鱼眼镜头的障碍物检测方法、系统
JP7078021B2 (ja) 物体検出装置、物体検出方法及び物体検出用コンピュータプログラム
CN104282020A (zh) 一种基于目标运动轨迹的车辆速度检测方法
CN109064495A (zh) 一种基于Faster R-CNN与视频技术的桥面车辆时空信息获取方法
Mithun et al. Video-based tracking of vehicles using multiple time-spatial images
Kim Realtime lane tracking of curved local road
CN102999759A (zh) 一种基于光流的车辆运动状态估计方法
CN110348332B (zh) 一种交通视频场景下机非人多目标实时轨迹提取方法
Mahaur et al. Road object detection: a comparative study of deep learning-based algorithms
CN102176243A (zh) 一种基于可见光和红外摄像机的目标测距方法
Wang et al. Detection and classification of moving vehicle from video using multiple spatio-temporal features
CN112215306A (zh) 一种基于单目视觉与毫米波雷达融合的目标检测方法
CN111047626A (zh) 目标跟踪方法、装置、电子设备及存储介质
CN113370977A (zh) 一种基于视觉的智能车辆前向碰撞预警方法及系统
US10984264B2 (en) Detection and validation of objects from sequential images of a camera
CN108830131B (zh) 基于深度学习的交通目标检测与测距方法
Liu et al. A novel multi-sensor fusion based object detection and recognition algorithm for intelligent assisted driving
CN116310679A (zh) 多传感器融合目标检测方法、系统、介质、设备及终端
Tian et al. Vehicle detection grammars with partial occlusion handling for traffic surveillance
Li et al. Judgment and optimization of video image recognition in obstacle detection in intelligent vehicle
Haris et al. Multi-scale spatial convolution algorithm for lane line detection and lane offset estimation in complex road conditions
Faisal et al. Object detection and distance measurement using AI

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant