CN109727273B - 一种基于车载鱼眼相机的移动目标检测方法 - Google Patents
一种基于车载鱼眼相机的移动目标检测方法 Download PDFInfo
- Publication number
- CN109727273B CN109727273B CN201811632119.5A CN201811632119A CN109727273B CN 109727273 B CN109727273 B CN 109727273B CN 201811632119 A CN201811632119 A CN 201811632119A CN 109727273 B CN109727273 B CN 109727273B
- Authority
- CN
- China
- Prior art keywords
- vehicle
- area
- optical flow
- moving
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明提供了一种基于车载鱼眼相机的移动目标检测方法,其能够准确、高效地检测出车辆周围的移动物体,检测结果的可靠性好,包括以下步骤:步骤一、采集图像;步骤二、相机标定;步骤三、计算感兴趣区域;步骤四、角点检测,得到对应特征点;步骤五、计算出特征点对应的光流;步骤六、光流聚类;步骤七、车辆的运动信息计算;步骤八、检测移动目标:通过每个候选目标对应的光流及特征点计算候选目标的运动信息,根据候选目标的运动信息判断候选目标是否为需要报警的移动目标;步骤九、跟踪需要报警的移动目标,得到其运动轨迹;步骤十、输出移动目标位置并报警。
Description
技术领域
本发明涉及一种辅助驾驶和图像处理领域,特别涉及一种基于车载鱼眼相机的移动目标检测方法。
背景技术
随着我国生活水平的提高,汽车越来越多。随之而来的是交通事故的增多,给广大人民群众带来众多的精神和财产损失。因此辅助驾驶技术应运而生,越来越多的公司、研究机构对此技术进行研发。其中基于车载鱼眼相机的移动目标检测是辅助驾驶的关键技术之一,在汽车低速行驶,如果车前后方向有移动物体时予以提醒,从而减少交通事故的发生。
现有的移动目标检测算法更多的应用在监控领域,应用到车载环境的很少,而且车载环境非常复杂,常规的检测方法很不稳定。
发明内容
本发明提供了一种基于车载鱼眼相机的移动目标检测方法,其能够准确、高效地检测出车辆周围的移动物体,检测结果的可靠性好。
其技术方案是这样的:一种基于车载鱼眼相机的移动目标检测方法,其特征在于,包括以下步骤:步骤一、采集图像:通过摄像头实时采集图像;
步骤二、相机标定:对采集到的图像进行标定,得到图像坐标系和世界坐标系及其之间坐标转化关系;
步骤三、计算感兴趣区域:利用标定结果在图像中划分出感兴趣区域;
步骤四、角点检测:将所采集的图片转换成灰度图,利用Shi-Tomasi特征点检测算法,计算出灰度图中的角点,得到对应特征点;
步骤五、计算光流:利用L-K光流法计算出每个特征点对应的光流;
步骤六、光流聚类:将特征点的位置、光流值和像素灰度值的大小作为聚类特征将光流进行聚类,得到候选目标;
步骤七、车辆的运动信息计算:通过特征点对应的光流计算车辆的移动方向和移动距离,结合车辆的CAN总线传出的车辆的运动信息来估计车辆的运动信息;
步骤八、检测移动目标:通过每个候选目标对应的光流及特征点计算候选目标的运动信息,根据候选目标的运动信息判断候选目标是否为需要报警的移动目标;
步骤九、目标跟踪:跟踪需要报警的移动目标,根据采集的每帧图像中需要报警的移动目标的位置变化得到需要报警的移动目标的运动轨迹;
步骤十、输出移动目标位置并报警:输出移动目标在图像上的位置,如果移动目标连续N帧图像都能检测到,则在图像上用矩形框标记出该移动目标,以提示报警。
进一步的,在步骤二中,对采集到的图像进行标定时,得到图像坐标系和世界坐标系的单应性矩阵,通过所述单应性矩阵关联图像坐标系和世界坐标系,实现关联图像坐标系和世界坐标系的坐标之间的相互转换。
进一步的,在步骤三中,将感兴趣区域划分为四个区域:左侧区域、右侧区域、中间区域、近车区域。
进一步的,在步骤三中,近车区域的长度取车前N1米,N1的取值范围为0.5米-1米,宽度与车身等宽,覆盖区域面积为车身宽度*N1平方米;中间区域的长度取近车区域前侧N2米,N2的取值范围为5米到10米,宽度与车身等宽,覆盖区域面积为车身宽度*N2平方米;左侧区域的宽度取中间区域左侧的N3米,N3的取值范围为2米-6米,长度与中间区域等长,覆盖区域面积为N2*N3平方米;右侧区域的宽度取中间区域右侧N4米,N4的值范围为2米-6米,长度与中间区域等长,覆盖区域面积为N2*N4平方米。
进一步的,在步骤四中,计算灰度图中的角点过程中,先计算出特征提取矩阵,公式如下:
其中,w(x,y)表示滑动窗口,Ix表示x方向的梯度,Iy表示y方向的梯度;矩阵M对应的特征方程为:
f(λ)=λ2-(a+c)λ+ac-b2
采用如下方法提取特征点:取特征根的经验阈值λT带入特征方程,如果某个点对应的特征方程,满足以下两个不等式中的任意一个,则认为该点是特征点,两个不等式如下:
同时记录下该特征点的位置(x,y),得到满足不等式的图像中所有特征点的位置集合。
进一步的,在步骤五中,L-K光流法计算中光流属于局部光流,根据光流的约束条件,假设图像上(x,y)点在t时刻对应的亮度值为I(x,y,t),t+dt时刻对应的亮度值为I(x+dx,y+dy,t+dt),则
I(x,y,t)=I(x+dx,y+dy,t+dt)
将上述公式按照一阶泰勒公式展开,得到:
设定光流(u,v)在一个局部小的范围内,亮度是恒定的,则:
最后推出每个特征点对应的光流的计算公式如下:
进一步的,在步骤六中,采用meanshift聚类算法将特征点的位置、光流值和像素灰度值的大小作为聚类特征将光流进行聚类,表示为((x,y),(u,v),(r,g,b)),其中(x,y)表示该点在图像中的位置,(u,v)表示该点对应的光流大小,(r,g,b)表示该点对应的三个通道的灰度值,将位置相近、对应的光流值近似和像素值近似的特征点聚集成一类,采用meanshift聚类算法每次迭代后,新的圆心坐标公式为:
其中,x表示新的聚类中心,是以((x,y),(u,v),(r,g,b))为坐标的高维空间的点坐标,xi表示第i个特征向量,g为影子核,即核函数求导的负方向,h为高维球的半径;
通过聚类,得到候选目标,将每个候选目标在图像上对应的位置及属于该候选目标的光流保存下来,用矩形框(x,y,w,h)来表示目标的位置,其中(x,y)表示矩形框左上角点,w表示矩形框的宽度,h表示矩形框的高度。
进一步的,在步骤七中,车辆的运动信息计算具体步骤如下:
取近车区域的光流来计算车辆的运动信息,设定近车区域的光流对应的特征点都是地面上的点,先去除计算错误的光流,如果特征点光流的方向与车的移动方向相反,则认为该特征点的光流计算错误去除该特征点;
然后,根据步骤二中的相机标定结果,通过单应性矩阵将剩余的特征点从图像坐标系转换到世界坐标系;
最后,根据剩余的特征点计算出车的移动方向和移动距离,如果路面光滑,没有特征点存在,则以CAN总线传出的车辆的运动信息为准。
进一步的,在步骤八中,通过每个候选目标对应的光流及特征点计算候选目标的运动信息,当候选目标对应多个光流时,取均值作为每个候选目标的最终的运动信息;
根据候选目标的运动信息判断候选目标是否为需要报警的移动目标,如果该候选目标的运动信息与车辆的运动信息近似,则丢弃该候选目标,如果该候选目标的运动信息与车辆的运动信息相差很大,则认为该候选目标是真正的移动目标,再判断是否报警;
在感兴趣区域的每个区域中,采用不同的判定规则决定每个候选目标是否报警,具体判定规则如下:
在左侧区域中,只检测从左向右移动的候选目标,即离车越来越近的目标;在右侧区域中,只检测从右向左移动的候选目标,即离车越来越近的目标;在中间区域中,检测朝任意方向移动的候选目标;不检测在近车区域中的候选目标。
进一步的,在步骤九中,跟踪需要报警的移动目标,记录需要报警的移动目标在每帧图像中的位置,如前后两帧之间的目标在图像的位置有重叠且重叠面积大于设定的阈值,则认为这两个目标是同一个目标,将该目标在当前帧的位置保存下来,根据采集的每帧图像中需要报警的移动目标的位置变化得到需要报警的移动目标的运动轨迹。
进一步的,所述摄像头为鱼眼相机。
本发明由于采取以上技术方案,其具有以下优点:本发明在车前及车后定义为感兴趣区域,并将每个感兴趣区域分为4个区域,即左侧区域,右侧区域,车前区域和近车区域,通过角点检测得到特征点,然后根据特征点计算这4个区域的光流,并对光流进行聚类,根据聚类结果及估算的车信号信息,对这4个区域制定不同的判断规则,分别判断每个区域是否存在移动目标;能够准确、高效地检测出车周围的移动物体,当车低速行驶时,如果有移动物体靠近,能够迅速的做出响应,给驾驶员以提示,本发明在车辆的运动信息计算时将筛选去除错误的车辆的运动信息特征点,在检测移动目标时会将候选目标的运动信息与车辆的运动信息进行比对,然后根据感兴趣区域的不同制定不同的判断规则,能够准确排出干扰和错误信息,能够有效实现移动目标检测,并且在计算特征点时,采用的计算方法运算简便,效率较高,同时本发明中摄像头采用鱼眼相机,视野比较宽,能看到两侧更大的区域,适用于车辆的全景系统。
附图说明
图1是本发明的整体流程示意图;
图2是本发明的感兴趣区域分布示意图。
具体实施方式
见图1,本发明的一种基于车载鱼眼相机的移动目标检测方法,包括以下步骤:步骤一、采集图像:通过摄像头实时采集图像;
步骤二、相机标定:对采集到的图像进行标定,得到图像坐标系和世界坐标系及其之间坐标转化关系,具体的,在对采集到的图像进行标定时,得到图像坐标系和世界坐标系的单应性矩阵,通过单应性矩阵关联图像坐标系和世界坐标系,实现关联图像坐标系和世界坐标系的坐标之间的相互转换;
步骤三、计算感兴趣区域:利用标定结果在图像中划分出感兴趣区域,见图2,将感兴趣区域划分为四个区域:左侧区域1、右侧区域2、中间区域3、近车区域4,在本实施例中,近车区域的长度取车前1米,宽度与车身等宽,覆盖区域面积为车身宽度*1平方米;中间区域的长度取近车区域前侧8米,宽度与车身等宽,覆盖区域面积为车身宽度*8平方米;左侧区域的宽度取中间区域左侧的4米,长度与中间区域等长,覆盖区域面积为32平方米;右侧区域的宽度取中间区域右侧4米,长度与中间区域等长,覆盖区域面积为32平方米;
步骤四、角点检测:将所采集的图片转换成灰度图,利用Shi-Tomasi特征点检测算法,计算出灰度图中的角点,得到对应特征点,具体的,在计算灰度图中的角点过程中,先计算出特征提取矩阵,公式如下:
其中,w(x,y)表示滑动窗口,Ix表示x方向的梯度,Iy表示y方向的梯度;矩阵M对应的特征方程为:
f(λ)=λ2-(a+c)λ+ac-b2
采用如下方法提取特征点:取特征根的经验阈值λT带入特征方程,如果某个点对应的特征方程,满足以下两个不等式中的任意一个,则认为该点是特征点,两个不等式如下:
同时记录下该特征点的位置(x,y),得到满足不等式的图像中所有特征点的位置集合;
常规计算特征值的方法中涉及到开根号等较复杂的运算,会降低的计算效率,因此为了提高运算速度,在保证计算精度的前提下采用本发明的方法,只有加减乘三种简单的运算,不存在开根号等复杂运算,计算速度快,能够明显的提高计算效率;
步骤五、计算光流:利用L-K光流法计算出每个特征点对应的光流,具体的,L-K光流法计算中光流属于局部光流,根据光流的约束条件,假设图像上(x,y)点在t时刻对应的亮度值为I(x,y,t),t+dt时刻对应的亮度值为I(x+dx,y+dy,t+dt),则
I(x,y,t)=I(x+dx,y+dy,t+dt)
将上述公式按照一阶泰勒公式展开,得到:
设定光流(u,v)在一个局部小的范围内,亮度是恒定的,则:
最后推出每个特征点对应的光流的计算公式如下:
步骤六、光流聚类:同一目标上对应的特征点计算出的光流值近似,像素灰度值近似,且位置相近,因此可以利用聚类,将特征点的位置、光流值和像素灰度值的大小作为聚类特征将光流进行聚类,得到候选目标,具体的,采用meanshift聚类算法将特征点的位置、光流值和像素灰度值的大小作为聚类特征将光流进行聚类,表示为((x,y),(u,v),(r,g,b)),其中(x,y)表示该点在图像中的位置,(u,v)表示该点对应的光流大小,(r,g,b)表示该点对应的三个通道的灰度值,将位置相近、对应的光流值近似和像素值近似的特征点聚集成一类,采用meanshift聚类算法每次迭代后,新的圆心坐标公式为:
其中,x表示新的聚类中心,是以((x,y),(u,v),(r,g,b))为坐标的高维空间的点坐标,xi表示第i个特征向量,g为影子核,即核函数求导的负方向,h为高维球的半径;
通过聚类,得到候选目标,将每个候选目标在图像上对应的位置及属于该候选目标的光流保存下来,用矩形框(x,y,w,h)来表示目标的位置,其中(x,y)表示矩形框左上角点,w表示矩形框的宽度,h表示矩形框的高度;
步骤七、车辆的运动信息计算:通过特征点对应的光流计算车辆的移动方向和移动距离,结合车辆的CAN总线传出的车辆的运动信息来估计车辆的运动信息,具体的,车辆的运动信息计算具体步骤如下:
取近车区域的光流来计算车辆的运动信息,设定近车区域的光流对应的特征点都是地面上的点,先去除计算错误的光流,如果特征点光流的方向与车的移动方向相反,则认为该特征点的光流计算错误去除该特征点;
然后,根据步骤二中的相机标定结果,通过单应性矩阵将剩余的特征点从图像坐标系转换到世界坐标系;
最后,根据剩余的特征点计算出车的移动方向和移动距离,如果路面光滑,没有特征点存在,则以CAN总线传出的车辆的运动信息为准;
步骤八、检测移动目标:通过每个候选目标对应的光流及特征点计算候选目标的运动信息,根据候选目标的运动信息判断候选目标是否为需要报警的移动目标,具体的,当候选目标对应多个光流时,取均值作为每个候选目标的最终的运动信息;
根据候选目标的运动信息判断候选目标是否为需要报警的移动目标,如果该候选目标的运动信息与车辆的运动信息近似,则丢弃该候选目标,如果该候选目标的运动信息与车辆的运动信息相差很大,则认为该候选目标是真正的移动目标,再判断是否报警;
在感兴趣区域的每个区域中,采用不同的判定规则决定每个候选目标是否报警,具体判定规则如下:
在左侧区域中,只检测从左向右移动的候选目标,即离车越来越近的目标;在右侧区域中,只检测从右向左移动的候选目标,即离车越来越近的目标;在中间区域中,检测朝任意方向移动的候选目标;不检测在近车区域中的候选目标;
步骤九、目标跟踪:跟踪需要报警的移动目标,记录需要报警的移动目标在每帧图像中的位置,如前后两帧之间的目标在图像的位置有重叠且重叠面积大于设定的阈值,则认为这两个目标是同一个目标,将该目标在当前帧的位置保存下来,根据采集的每帧图像中需要报警的移动目标的位置变化得到需要报警的移动目标的运动轨迹,目标跟踪的目的是提高检测的准确性,尽量减小噪声的干扰;
步骤十、输出移动目标位置并报警:输出移动目标在图像上的位置,如果移动目标连续N帧图像都能检测到,则在图像上用矩形框标记出该移动目标,以提示报警。
Claims (8)
1.一种基于车载鱼眼相机的移动目标检测方法,其特征在于,包括以下步骤:
步骤一、采集图像:通过摄像头实时采集图像;
步骤二、相机标定:对采集到的图像进行标定,得到图像坐标系和世界坐标系及其之间坐标转化关系;
步骤三、计算感兴趣区域:利用标定结果在图像中划分出感兴趣区域;
步骤四、角点检测:将所采集的图片转换成灰度图,利用Shi-Tomasi特征点检测算法,计算出灰度图中的角点,得到对应特征点;
步骤五、计算光流:利用L-K光流法计算出每个特征点对应的光流;
步骤六、光流聚类:将特征点的位置、光流值和像素灰度值的大小作为聚类特征将光流进行聚类,得到候选目标;
步骤七、车辆的运动信息计算:通过特征点对应的光流计算车辆的移动方向和移动距离,结合车辆的CAN总线传出的车辆的运动信息来估计车辆的运动信息;
步骤八、检测移动目标:通过每个候选目标对应的光流及特征点计算候选目标的运动信息,根据候选目标的运动信息判断候选目标是否为需要报警的移动目标;
步骤九、目标跟踪:跟踪需要报警的移动目标,根据采集的每帧图像中需要报警的移动目标的位置变化得到需要报警的移动目标的运动轨迹;
步骤十、输出移动目标位置并报警:输出移动目标在图像上的位置,如果移动目标连续N帧图像都能检测到,则在图像上用矩形框标记出该移动目标,以提示报警;
在步骤八中,通过每个候选目标对应的光流及特征点计算候选目标的运动信息,当候选目标对应多个光流时,取均值作为每个候选目标的最终的运动信息;
根据候选目标的运动信息判断候选目标是否为需要报警的移动目标,如果该候选目标的运动信息与车辆的运动信息近似,则丢弃该候选目标,如果该候选目标的运动信息与车辆的运动信息相差很大,则认为该候选目标是真正的移动目标,再判断是否报警,其中,判断候选目标是否为需要报警的移动目标时,判断条件为车辆的移动方向和移动距离;
在感兴趣区域的每个区域中,采用不同的判定规则决定每个候选目标是否报警,具体判定规则如下:
将感兴趣区域划分为四个区域:左侧区域、右侧区域、中间区域、近车区域;近车区域的长度取车前N1米,N1的取值范围为0.5米-1米,宽度与车身等宽,覆盖区域面积为车身宽度*N1平方米;中间区域的长度取近车区域前侧N2米,N2的取值范围为5米到10米,宽度与车身等宽,覆盖区域面积为车身宽度*N2平方米;左侧区域的宽度取中间区域左侧的N3米,N3的取值范围为2米-6米,长度与中间区域等长,覆盖区域面积为N2*N3平方米;右侧区域的宽度取中间区域右侧N4米,N4的值范围为2米-6米,长度与中间区域等长,覆盖区域面积为N2*N4平方米;
在左侧区域中,只检测从左向右移动的候选目标,即离车越来越近的目标;在右侧区域中,只检测从右向左移动的候选目标,即离车越来越近的目标;在中间区域中,检测朝任意方向移动的候选目标;不在近车区域中检测候选目标。
2.根据权利要求1所述的一种基于车载鱼眼相机的移动目标检测方法,其特征在于:在步骤二中,对采集到的图像进行标定时,得到图像坐标系和世界坐标系的单应性矩阵,通过所述单应性矩阵关联图像坐标系和世界坐标系,实现关联图像坐标系和世界坐标系的坐标之间的相互转换。
5.根据权利要求4所述的一种基于车载鱼眼相机的移动目标检测方法,其特征在于:在步骤六中,采用meanshift聚类算法将特征点的位置、光流值和像素灰度值的大小作为聚类特征将光流进行聚类,表示为((x,y),(u,v),(r,g,b)),其中(x,y)表示该点在图像中的位置,(u,v)表示该点对应的光流大小,(r,g,b)表示该点对应的三个通道的灰度值,将位置相近、对应的光流值近似和像素值近似的特征点聚集成一类,采用meanshift聚类算法每次迭代后,新的圆心坐标公式为:
其中,x表示新的聚类中心,是以((x,y),(u,v),(r,g,b))为坐标的高维空间的点坐标,xi表示第i个特征向量,g为影子核,即核函数求导的负方向,h为高维球的半径;
通过聚类,得到候选目标,将每个候选目标在图像上对应的位置及属于该候选目标的光流保存下来,用矩形框(x,y,w,h)来表示目标的位置,其中(x,y)表示矩形框左上角点,w表示矩形框的宽度,h表示矩形框的高度。
6.根据权利要求5所述的一种基于车载鱼眼相机的移动目标检测方法,其特征在于:在步骤七中,车辆的运动信息计算具体步骤如下:
取近车区域的光流来计算车辆的运动信息,设定近车区域的光流对应的特征点都是地面上的点,先去除计算错误的光流,如果特征点光流的方向与车的移动方向相反,则认为该特征点的光流计算错误去除该特征点;
然后,根据步骤二中的相机标定结果,通过单应性矩阵将剩余的特征点从图像坐标系转换到世界坐标系;
最后,根据剩余的特征点计算出车的移动方向和移动距离,如果路面光滑,没有特征点存在,则以CAN总线传出的车辆的运动信息为准。
7.根据权利要求1所述的一种基于车载鱼眼相机的移动目标检测方法,其特征在于:在步骤九中,跟踪需要报警的移动目标,记录需要报警的移动目标在每帧图像中的位置,如前后两帧之间的目标在图像的位置有重叠且重叠面积大于设定的阈值,则认为这两个目标是同一个目标,将该目标在当前帧的位置保存下来,根据采集的每帧图像中需要报警的移动目标的位置变化得到需要报警的移动目标的运动轨迹。
8.根据权利要求1所述的一种基于车载鱼眼相机的移动目标检测方法,其特征在于:所述摄像头为鱼眼相机。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811632119.5A CN109727273B (zh) | 2018-12-29 | 2018-12-29 | 一种基于车载鱼眼相机的移动目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811632119.5A CN109727273B (zh) | 2018-12-29 | 2018-12-29 | 一种基于车载鱼眼相机的移动目标检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109727273A CN109727273A (zh) | 2019-05-07 |
CN109727273B true CN109727273B (zh) | 2020-12-04 |
Family
ID=66297568
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811632119.5A Active CN109727273B (zh) | 2018-12-29 | 2018-12-29 | 一种基于车载鱼眼相机的移动目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109727273B (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112015170A (zh) * | 2019-05-29 | 2020-12-01 | 北京市商汤科技开发有限公司 | 运动物体检测及智能驾驶控制方法、装置、介质及设备 |
CN110211158B (zh) * | 2019-06-04 | 2023-03-28 | 海信集团有限公司 | 候选区域确定方法、装置及存储介质 |
CN110473229B (zh) * | 2019-08-21 | 2022-03-29 | 上海无线电设备研究所 | 一种基于独立运动特征聚类的运动目标检测方法 |
CN111382784B (zh) * | 2020-03-04 | 2021-11-26 | 厦门星纵智能科技有限公司 | 一种运动目标跟踪方法 |
CN111563474A (zh) * | 2020-05-18 | 2020-08-21 | 北京茵沃汽车科技有限公司 | 运动背景下的基于车载鱼眼镜头的障碍物检测方法、系统 |
CN112686209A (zh) * | 2021-01-25 | 2021-04-20 | 深圳市艾为智能有限公司 | 基于车轮识别的车后盲区监测方法 |
CN113096151B (zh) * | 2021-04-07 | 2022-08-09 | 地平线征程(杭州)人工智能科技有限公司 | 对目标的运动信息进行检测的方法和装置、设备和介质 |
CN114419106B (zh) * | 2022-03-30 | 2022-07-22 | 深圳市海清视讯科技有限公司 | 车辆违章行为检测方法、设备及存储介质 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101295405A (zh) * | 2008-06-13 | 2008-10-29 | 西北工业大学 | 人像与车辆识别报警跟踪方法 |
CN101767539B (zh) * | 2008-12-30 | 2013-01-02 | 比亚迪股份有限公司 | 一种汽车巡航控制方法及巡航装置 |
CN102096803B (zh) * | 2010-11-29 | 2013-11-13 | 吉林大学 | 基于机器视觉的行人安全状态识别系统 |
CN102999759B (zh) * | 2012-11-07 | 2015-10-07 | 东南大学 | 一种基于光流的车辆运动状态估计方法 |
JP6532229B2 (ja) * | 2014-12-18 | 2019-06-19 | 株式会社デンソーテン | 物体検出装置、物体検出システム、物体検出方法及びプログラム |
CN104881645B (zh) * | 2015-05-26 | 2018-09-14 | 南京通用电器有限公司 | 基于特征点互信息量和光流法的车辆前方目标的检测方法 |
CN105023278B (zh) * | 2015-07-01 | 2019-03-05 | 中国矿业大学 | 一种基于光流法的运动目标跟踪方法及系统 |
CN106845552B (zh) * | 2017-01-31 | 2019-11-08 | 东南大学 | 在光强分布不均匀环境下的融合光流和sift特征点匹配的低动态载体速度计算方法 |
JP6717240B2 (ja) * | 2017-03-08 | 2020-07-01 | 株式会社デンソー | 物標検出装置 |
CN108674313A (zh) * | 2018-06-05 | 2018-10-19 | 浙江零跑科技有限公司 | 一种基于车载后视广角相机的盲区预警系统及方法 |
-
2018
- 2018-12-29 CN CN201811632119.5A patent/CN109727273B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN109727273A (zh) | 2019-05-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109727273B (zh) | 一种基于车载鱼眼相机的移动目标检测方法 | |
CN107031623B (zh) | 一种基于车载盲区相机的道路预警方法 | |
US9846812B2 (en) | Image recognition system for a vehicle and corresponding method | |
CN111563474A (zh) | 运动背景下的基于车载鱼眼镜头的障碍物检测方法、系统 | |
JP7078021B2 (ja) | 物体検出装置、物体検出方法及び物体検出用コンピュータプログラム | |
CN104282020A (zh) | 一种基于目标运动轨迹的车辆速度检测方法 | |
CN109064495A (zh) | 一种基于Faster R-CNN与视频技术的桥面车辆时空信息获取方法 | |
Mithun et al. | Video-based tracking of vehicles using multiple time-spatial images | |
Kim | Realtime lane tracking of curved local road | |
CN102999759A (zh) | 一种基于光流的车辆运动状态估计方法 | |
CN110348332B (zh) | 一种交通视频场景下机非人多目标实时轨迹提取方法 | |
Mahaur et al. | Road object detection: a comparative study of deep learning-based algorithms | |
CN102176243A (zh) | 一种基于可见光和红外摄像机的目标测距方法 | |
Wang et al. | Detection and classification of moving vehicle from video using multiple spatio-temporal features | |
CN112215306A (zh) | 一种基于单目视觉与毫米波雷达融合的目标检测方法 | |
CN111047626A (zh) | 目标跟踪方法、装置、电子设备及存储介质 | |
CN113370977A (zh) | 一种基于视觉的智能车辆前向碰撞预警方法及系统 | |
US10984264B2 (en) | Detection and validation of objects from sequential images of a camera | |
CN108830131B (zh) | 基于深度学习的交通目标检测与测距方法 | |
Liu et al. | A novel multi-sensor fusion based object detection and recognition algorithm for intelligent assisted driving | |
CN116310679A (zh) | 多传感器融合目标检测方法、系统、介质、设备及终端 | |
Tian et al. | Vehicle detection grammars with partial occlusion handling for traffic surveillance | |
Li et al. | Judgment and optimization of video image recognition in obstacle detection in intelligent vehicle | |
Haris et al. | Multi-scale spatial convolution algorithm for lane line detection and lane offset estimation in complex road conditions | |
Faisal et al. | Object detection and distance measurement using AI |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |