CN109886215B - 基于机器视觉的低速园区无人车巡航及紧急制动系统 - Google Patents
基于机器视觉的低速园区无人车巡航及紧急制动系统 Download PDFInfo
- Publication number
- CN109886215B CN109886215B CN201910141424.2A CN201910141424A CN109886215B CN 109886215 B CN109886215 B CN 109886215B CN 201910141424 A CN201910141424 A CN 201910141424A CN 109886215 B CN109886215 B CN 109886215B
- Authority
- CN
- China
- Prior art keywords
- road
- vehicle
- image
- distance
- module
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于机器视觉的低速园区无人车巡航方法。步骤1)建立道路语义分割模型,语义分割模型在ICNet的基础上通过制作道路本地数据集、训练道路本地数据、微调参数和网络结构,对ICNet的backbone做出调整,缩小卷积核的size;加载模型,输入待预测图像image,运行模型预测输入;步骤2)基于道路语义分割模型的识别结果计算车辆偏移道路中心的距离:本发明既解决了以激光雷达为主要传感器的自动驾驶方案的成本高昂问题,也解决了传统计算机视觉的车道线感知受环境复杂度影响的问题。本发明借由于本地化ICNet的模型的性能提高,使得Yolov3和ICNet模型同时运行依然能够达到20fps+。
Description
技术领域
本发明属于深度学习语义分割领域,更具体的涉及一种基于深度学习语义分割的低速园区无人车巡航及紧急制动系统。
背景技术
语义分割,对图片的每个像素都做分类。较为重要的语义分割数据集有:VOC2012 ;以及 MSCOCO ;现有的传统机器学习方法有:像素级的决策树分类,参考TextonForest ;以及 Random Forest based classifiers 。再有就是深度学习方法。更确切地说,是卷积神经网络。深度学习最初流行的分割方法是,打补丁式的分类方法 (patch classification )。逐像素地抽取周围像素对中心像素进行分类。由于当时的卷积网络末端都使用全连接层 ( full connected layers ) ,所以只能使用这种逐像素的分割方法。2014年,来自伯克利的 Fully Convolutional Networks(FCN) 卷积网络,去掉了末端的全链接层。随后的语义分割模型基本上都采用了这种结构。除了全链接层,语义分割另一个重要的问题是池化层。池化层能进一步提取抽象特征增加感受域,但是丢弃了像素的位置信息。但是语义分割需要类别标签和原图像对齐,因此需要从新引入像素的位置信息。有两种不同的架构可以解决此像素定位问题。第一种是编码-译码架构。编码过程通过池化层逐渐减少位置信息、抽取抽象特征;译码过程逐渐恢复位置信息。一般译码与编码间有直接的连接。该类架构中U-net 是最流行的。第二种架构是膨胀卷积 (dilated convolutions ) ,抛弃了池化层,使用的卷积核如图1。
条件随机场的后处理经常用来提高分割的精确度,后处理利用图像的光感强度(可理解为亮度),将周围强度相近的像素分为同一类,能提高 1-2个百分点。
PID横向控制,PID控制器(比例-积分-微分控制器)由比例单元P、积分单元I和微分单元D组成。PID控制的基础是比例控制;积分控制可消除稳态误差,但可能增加超调;微分控制可加快大惯性系统响应速度以及减弱超调趋势。PID控制在工业领域应用广泛,参数少,简单易用,消耗运算很少,成本极低。图2中,δ∈[δmin,δmax]为满足车辆动态姿态限制的方向盘转角,Vr∈[δmin,δmax]为前向速度。而对这些状态量的控制可以是一个典型的PID反馈控制系统。其中e(t)代表当前的跟踪误差,而这个跟踪的变量误差可以是轨迹的纵向/横向误差,角度/曲率误差或者是若干车辆姿态状态变量的综合误差。其中P控制器代表对当前误差的反馈,其增益由KP控制;I和D控制器分别代表积分项和微分项,其增益分别有KI和KD来控制。控制车辆尽可能遵循上游动作规划(Motion Planning)所输出的时空轨迹。可以使用两个基于PID反馈控制的控制器来分别控制方向盘转角δ以及前进速度Vs。
现有技术的不足和缺点:
A: 陈家凡. 基于机器视觉的车道线识别与预警[D].浙江理工大学,2018.
论文所选用的实验场景方面基本偏向于城市和高速两大主要场景,在这两个场景的基础上,对车道线识别与预警算法做了相应的改进,使其主要针对该场景。因为一套算法是无法都适合不同场景和不同天气条件。
B: 董莹莹. 基于机器视觉的车辆和车道线检测研究[D].湖南大学,2018.
通过计算机视觉的相关只是,设计实现了结构化道路中的车道线检测系统并验证其可靠性,最后,融合检测算法实现可行驶区域的简单预测。
A、B的技术方案中虽然对车道线检测的噪声做出一定的处理,但是传统计算机视觉的方案仍不能解决阴影、天气、光强等造成的影响。
本发明旨在借助深度学习的语义分割技术实现对任意场景下的道路进行语义分割检测,进而识别出可行驶区域。
发明内容
、发明目的。
为了排除环境因素对道路识别的影响,本发明提出了一种基于机器视觉的低速园区无人车巡航及紧急制动系统。
、本发明所采用的技术方案。
本发明公开了一种基于机器视觉的低速园区无人车巡航方法,步骤如下:
1)建立道路语义分割模型
语义分割模型在ICNet的基础上通过制作道路本地数据集、训练道路本地数据、微调参数和网络结构,对ICNet的backbone做出调整,缩小卷积核的size;加载模型,输入待预测图像image,运行模型预测输入;
2)基于道路语义分割模型的识别结果计算车辆偏移道路中心的距离:
①道路右边界识别:以ICNet的道路语义分割识别结果作为输入图像,具体为:Canny检测得到道路轮廓图像;Hough直线检测得到道路的轮廓的许多短小的直线组成直线集;过滤直线集中斜率符合要求的直线组成新的图像;
3)计算PID车辆横向控制公式参数
PID横向控制公式:
本发明公开了一种基于机器视觉的低速园区无人车紧急制动方法,步骤如下:
1)建立目标检测模型
加载目标检测模型,输入待预测图像image,运行模型预测图像中物体位置;
2)计算雷达点云映射到图像,雷达点云的前视图投影所需的参数,计算点云街道图像的投影矩阵需要三个参数,分别是相机内参矩阵、参考相机到相机图像平面的旋转矩阵和点云到相机的外参矩阵;见公式:
P为3*4的投影矩阵,Tr为3*4的变换矩阵,表示雷达点云到坐标系的平移变化,X为点云数据;
使用投影公式计算点云的前视图投影;
3)计算图像中检测到的2D目标的距离数据
在每个被检测到物体框所包含的点云;中计算合适的距离作为该物体的距离,具体方法为:
①将物体框所包含的点云的深度数据收集形成新的矩阵并直方化;
②在直方图中选取最长的深度数据作为该物体的距离;
4)计算行驶区域在图像中的感兴趣区域
因为紧急制动无需考虑行驶路径外的障碍物,所以感兴趣区域过滤出位于行驶区域内的物件;具体做法如下:
计算物体在图像中的实际位置:yolo的检测结果为目标框的宽w、高h以及左上点的坐标(x,y),实际物体在图像中的位置应以目标框的下边中心位置为准;
设置感兴趣区域,符合下式的物体被用来判断是否需要启动AEB
5)根据感兴趣区域中的目标的距离变化率判断是否需要启动紧急制动以及是启动缓刹还是启动急刹。
更进一步,步骤5)具体判定依据:
若目标的距离小于设定值:急刹
若目标的距离在设定该范围内:
计算距离区间内的物体的速度,若最快速度大于预设值:急刹,否则:缓刹。
本发明公开了一种基于机器视觉的低速园区无人车巡航及紧急制动系统,包括行驶区域感知模块、PID规划模块、障碍物检测模块、激光点云映射至图像模块、障碍物3D检测与追踪模块、ROI与AEB模块;
通过行驶区域感知模块对道路行驶区域建立语义分割模型;PID规划模块用于车辆横向控制,以达到控制车辆按照指定的路径行驶,车辆当前位置和参考线的距离,控制车辆的速度在设定的值;障碍物检测模块进行障碍物紧急制动;激光点云映射至图像模块,将实际物体与图像的位置进行映射;
更进一步,行驶区域感知模块,语义分割模型在ICNet的基础上通过制作本地数据集、训练本地数据、微调参数和网络结构,使训练出的模型在本地环境的识别效果更加准确,只需对道路进行语义分割,对ICNet的backbone做出调整,缩小卷积核的大小,以获得更高的运行速度,降低模型的显存占用;
语义分割得出的结果先进行二值化处理得到过滤出道路的二值化图像,接着使用Canny检测出道路的轮廓,Hough检测识别出组合成轮廓的直线,通过计算直线的斜率过滤出属于车辆右边的道路轮廓;
对道路右轮廓的二值化图像进行多项和拟合操作,寻找出能拟合道路边界的曲线,从而计算出当前车辆偏移道路中心的距离。
更进一步,PID规划模块, 将PID用于车辆横向控制,以达到控制车辆按照指定的路径行驶,车辆当前位置和参考线的距离,控制车辆的速度在设定的值,当前速度和设定速度的差值,求出误差以后,再根据误差求比例,积分和微分三项,其中Kp,Ki和Kd是三项的系数,它们决定着这三项对最后输出的影响的比重,将PID三项求和作为最后的输出信号。
更进一步,障碍物检测模块,采用Yolov3模型检测目标物体。
更进一步,激光点云映射至图像模块,包括内参标定步骤、外参标定步骤,具体为:
内参标定步骤:
步骤1. 检测每张图片中的棋盘图案的角点;
步骤2. 通过使用线性最小二乘法估算相机投影矩阵P;
步骤3. 根据P矩阵就解内参矩阵K和外参矩阵R,t;
步骤4. 通过非线性优化,提高K,R,t矩阵的精度;
外参标定:
计算点云到图像的投影矩阵需要三个参数,分别是相机内参矩阵和参考相机0到相机xx图像平面的旋转矩阵以及点云到相机的[R T]外参矩阵。
更进一步,障碍物3D检测与追踪模块,使用标识量保证计算计算映射在物体检测模块矩形框内的点云深度信息,并赋给物体检测模块;再通过光流法追踪:光流是空间运动物体在观察成像平面上的像素运动的瞬时速度,是利用图像序列中像素在时间域上的变化以及相邻帧之间的相关性来找到上一帧跟当前帧之间存在的对应关系,从而计算出相邻帧之间物体的运动信息;通过klt光流法追踪算法识别物体的ID,若当前帧的某物体符合物体检测模块历史序列中一个物体的特征则拷贝ID,若物体检测模块历史序列中某ID对应的物体多次未追踪到则丢弃该物体数据。
更进一步,ROI与AEB模块,物体在图像中的矩形框的下边中心为实际空间的位置,以该点为标准判断物体是否在感兴趣区域即ROI内;判断每一个感兴趣区域内物体的速度,据此判断是否需要刹车,属于急刹还是缓刹。
、本发明所产生的技术效果。
本发明基于视觉传感器实现自动驾驶,既解决了以激光雷达为主要传感器的自动驾驶方案的成本高昂问题,也解决了传统计算机视觉的车道线感知(可行驶区域感知)受环境复杂度影响的问题。本发明借助Yolov3模型检测目标物体(车、人等,由于本地化ICNet的模型的性能提高,使得Yolov3和ICNet模型同时运行依然能够达到20fps+。
附图说明
图1为现有卷积核示意图。
图2为本系统流程图。
图3为行驶区域感知流程图。
图4为PID规划模块流程图。
图5为障碍物检测模块流程图。
图6为激光点云映射至图像模块流程图。
图7为障碍物3D检测与追踪模块流程图。
图8为ROI与AEB模块流程图。
图9为语义分割识别结果示意图。
图10为道路右边界过滤结果示意图。
图11为曲线拟合结果示意图。
图12为车辆偏移距离计算示意图。
图13为物体检测结果示意图。
图14为激光点云前视图映射结果示意图。
具体实施方式
实施例
如图3行驶区域感知流程图,语义分割模型在ICNet的基础上通过制作本地数据集、训练本地数据、微调参数和网络结构,使训练出的模型在本地环境的识别效果更加准确。并且,因为本系统只需对道路进行语义分割,所以对ICNet的backbone做出调整,缩小卷积核的size,以获得更高的运行速度,降低模型的显存占用。
语义分割得出的结果先进行二值化处理得到过滤出道路的二值化图像,接着使用Canny检测出道路的轮廓,Hough检测识别出组合成轮廓的直线,通过计算直线的斜率过滤出属于车辆右边的道路轮廓。
对道路右轮廓的二值化图像进行多项和拟合操作,寻找出能拟合道路边界的曲线,从而计算出当前车辆偏移道路中心的距离。
如图4所示, PID规划PID控制属于反馈控制,本专利将PID用于车辆横向控制,以达到控制车辆按照指定的路径行驶,那么就是车辆当前位置和参考线的距离,控制车辆的速度在设定的值,那么就是当前速度和设定速度的差值,求出误差以后,再根据误差求比例,积分和微分三项,其中Kp,Ki和Kd是三项的系数,它们决定着这三项对最后输出的影响的比重。将PID三项求和作为最后的输出信号。
如图5所示,障碍物检测流程图,借助Yolov3模型检测目标物体(车、人等)。得益于本地化ICNet的模型的性能提高,使得Yolov3和ICNet模型同时运行依然能够达到20fps+。
如图6所示,激光点云映射至图像流程图。内参标定步骤:
1. 检测每张图片中的棋盘图案的角点;
2. 通过使用线性最小二乘法估算相机投影矩阵P;
3. 根据P矩阵就解内参矩阵K和外参矩阵R,t;
4. 通过非线性优化,提高K,R,t矩阵的精度。
外参标定:
计算点云到图像的投影矩阵需要三个参数,分别是P_rect(相机内参矩阵)和R_rect(参考相机0到相机xx图像平面的旋转矩阵)以及Tr_velo_to_cam(点云到相机的[R T]外参矩阵)。
如图7所示,障碍物3D检测与追踪,使用标识量保证计算Objects-distance模块对ImageObj和PointsImage两个话题的订阅正长。计算映射在Objects矩形框内的点云深度信息,并赋给Objects。
光流法追踪:光流是空间运动物体在观察成像平面上的像素运动的瞬时速度,是利用图像序列中像素在时间域上的变化以及相邻帧之间的相关性来找到上一帧跟当前帧之间存在的对应关系,从而计算出相邻帧之间物体的运动信息的一种方法。
通过klt追踪算法识别Objects的ID,若当前帧的某Object符合Objects历史序列中一个Object的特征则拷贝ID,若Objects历史序列中某ID对应的Object多次未追踪到则丢弃该Object。
如图8所示障碍物的热区过滤与刹车流程图,ROI与AEB Objects在图像中的矩形框的下边中心为实际空间的位置,以该点为标准判断objects是否在热区(ROI)内,若是,则压入Objects_new中。判断每一个Objects_new中的objects的速度,据此判断是否需要刹车,属于急刹还是缓刹。
实施例2
一、车辆巡航功能
1)建立道路语义分割模型
在ICNet的模型基础上修改模型的输出。
加载模型,输入待预测图像image(见图1),运行模型预测输入。
2)基于道路语义分割模型的识别结果计算车辆偏移道路中心的距离
①道路右边界识别:以ICNet的道路语义分割识别结果pred(见图9)作为输入图像pred,依次:Canny检测得到输入图像的轮廓图像(道路轮廓);Hough直线检测得到轮廓录像的直线集(道路的轮廓由许多短小的直线组成);过滤直线集中斜率符合要求的直线组成新的图像road_filter_img(见图10);
②曲线拟合及曲率计算:基于像素直方图算法识别图像中哪些像素(hotpixels)属于道路右边界(见图11),并使用马氏距离去除异常值;利用hotpixels拟合二阶多项式,以图像中心为车辆位置计算车辆偏移道路中心距离offset(车辆位置估计)(见图12)。
3)计算PID车辆横向控制公式参数
①PID横向控制公式:
y:当前帧的方向盘转角;y_:上一帧的方向盘转角。
P、i、d:系数。
二、车辆紧急制动功能
1)建立目标检测模型
加载模型,输入待预测图像image,运行模型预测图像中物体位置(见图13)。
2)计算雷达点云映射到图像(雷达点云的前视图投影)所需的参数
计算点云街道图像的投影矩阵需要三个参数,分别是相机内参矩阵、参考相机到相机图像平面的旋转矩阵和点云到相机的外参矩阵。见公式:
P为3*4的投影矩阵,Tr为3*4的变换矩阵,表示雷达点云到坐标系的平移变化,X为点云数据。
使用投影公式计算点云的前视图投影(见图14)。
3)计算图像中检测到的2D目标的距离数据
在每个被检测到物体框所包含的点云中计算合适的距离作为该物体的距离,具体方法为:
①将物体框所包含的点云的深度数据收集形成新的矩阵并直方化
②在直方图中选取最长的深度数据作为该物体的距离。
4)计算行驶区域在图像中的ROI区域
因为AEB(紧急制动)无需考虑行驶路径外的障碍物,所以ROI区域过滤出位于行驶区域内的物件。具体做法如下:
①计算物体在图像中的实际位置:yolo的检测结果为目标框的宽w、高h以及左上点的坐标(x,y),实际物体在图像中的位置应以目标框的下边中心位置为准。
②设置ROI区,符合下式的物体被用来判断是否需要启动AEB
5)根据ROI区域中的目标的距离变化率判断是否需要启动紧急制动以及是启动缓刹还是启动急刹。
具体判定依据:
①若nearest_obj的距离小于2m:急刹;
②若nearest_obj的距离大于2m小于5m:
计算距离区间内的物体的速度,若最快速度大于40km/h:急刹,否则:缓刹,注:根据车辆的制动距离、巡航速度计算而得。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。
Claims (6)
1.一种基于机器视觉的低速园区无人车巡航方法,其特征在于步骤如下:
1)建立道路语义分割模型
语义分割模型在ICNet的基础上通过制作道路本地数据集、训练道路本地数据、微调参数和网络结构,对ICNet的backbone做出调整,缩小卷积核的size;加载模型,输入待预测图像image,运行模型预测输入;
2)基于道路语义分割模型的识别结果计算车辆偏移道路中心的距离:
①道路右边界识别:以ICNet的道路语义分割识别结果作为输入图像,具体为:Canny检测得到道路轮廓图像;Hough直线检测得到道路的轮廓的许多短小的直线组成直线集;过滤直线集中斜率符合要求的直线组成新的图像;
3)计算PID车辆横向控制公式参数
PID横向控制公式:
2.一种使用如权利要求1所述的低速园区无人车巡航方法的巡航及紧急制动系统,其特征在于:包括行驶区域感知模块、PID规划模块、障碍物检测模块、激光点云映射至图像模块、障碍物3D检测与追踪模块、ROI与AEB模块;
通过行驶区域感知模块对道路行驶区域建立语义分割模型;PID规划模块用于车辆横向控制,以达到控制车辆按照指定的路径行驶,车辆当前位置和参考线的距离,控制车辆的速度在设定的值;障碍物检测模块进行障碍物紧急制动;激光点云映射至图像模块,将实际物体与图像的位置进行映射;
激光点云映射至图像模块,包括内参标定步骤、外参标定步骤,具体为:
内参标定步骤:
步骤1. 检测每张图片中的棋盘图案的角点;
步骤2. 通过使用线性最小二乘法估算相机投影矩阵P;
步骤3. 根据P矩阵求解内参矩阵K和外参矩阵R,T;
步骤4. 通过非线性优化,提高K,R,T矩阵的精度;
外参标定:
根据相机内参矩阵和包括参考相机到相机图像平面的旋转矩阵的点云到相机的[R T]外参矩阵,计算点云到图像的投影矩阵;
ROI与AEB模块,因为紧急制动无需考虑行驶路径外的障碍物,所以感兴趣区域过滤出位于行驶区域内的物件才对AEB模块有意义,物体目标检测框的下边中心为着地点的位置,以该点为标准判断物体是否在感兴趣区域即ROI内;计算感兴趣区域内每一个物体的距离和速度,据此判断刹车情况,具体判定依据是:
若目标的距离小于设定值min_distance:急刹;
若目标的距离大于min_distance且在distance_roi范围内:计算距离区间内的物体速度,若最快速度大于预设值:急刹,否则:缓刹。
3.根据权利要求2所述的巡航及紧急制动系统,其特征在于:
行驶区域感知模块,语义分割模型在ICNet的基础上通过制作本地数据集、训练本地数据、微调参数和网络结构,使训练出的模型在本地环境的识别效果更加准确,只需对道路进行语义分割,对ICNet的backbone做出调整,缩小卷积核的大小,以获得更高的运行速度,降低模型的显存占用;
语义分割得出的结果先进行二值化处理得到过滤出道路的二值化图像,接着使用Canny检测出道路的轮廓,Hough检测识别出组合成轮廓的直线,通过计算直线的斜率过滤出属于车辆右边的道路轮廓;
对道路右轮廓的二值化图像进行多项和拟合操作,寻找出能拟合道路边界的曲线,从而计算出当前车辆偏移道路中心的距离。
4.根据权利要求2所述的巡航及紧急制动系统,其特征在于:PID规划模块,
将PID用于车辆横向控制,以达到控制车辆按照指定的路径行驶,车辆当前位置和参考线的距离;控制车辆的速度在设定的值,当前速度和设定速度的差值,求出误差以后,再根据误差求比例,积分和微分三项,其中Kp,Ki和Kd是三项的系数,它们决定着这三项对最后输出的影响的比重,将PID三项求和作为最后的输出信号。
5.根据权利要求2所述的巡航及紧急制动系统,其特征在于:障碍物检测模块,采用Yolov3模型检测目标物体。
6.根据权利要求2所述的巡航及紧急制动系统,其特征在于:障碍物3D检测与追踪模块,使用标识量保证计算映射在物体检测模块矩形框内的点云深度信息,并赋给物体检测模块;再通过光流法追踪:光流是空间运动物体在观察成像平面上的像素运动的瞬时速度,是利用图像序列中像素在时间域上的变化以及相邻帧之间的相关性来找到上一帧跟当前帧之间存在的对应关系,从而计算出相邻帧之间物体的运动信息;通过klt光流法追踪算法识别物体的ID,若当前帧的某物体符合物体检测模块历史序列中一个物体的特征则拷贝ID,若物体检测模块历史序列中某ID对应的物体多次未追踪到则丢弃该物体数据。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910141424.2A CN109886215B (zh) | 2019-02-26 | 2019-02-26 | 基于机器视觉的低速园区无人车巡航及紧急制动系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910141424.2A CN109886215B (zh) | 2019-02-26 | 2019-02-26 | 基于机器视觉的低速园区无人车巡航及紧急制动系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109886215A CN109886215A (zh) | 2019-06-14 |
CN109886215B true CN109886215B (zh) | 2021-10-19 |
Family
ID=66929432
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910141424.2A Active CN109886215B (zh) | 2019-02-26 | 2019-02-26 | 基于机器视觉的低速园区无人车巡航及紧急制动系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109886215B (zh) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110705358B (zh) * | 2019-09-03 | 2023-09-26 | 湖南九域同创高分子新材料有限责任公司 | 一种列车aeb系统隧道场景控制决策方法 |
US10885386B1 (en) * | 2019-09-16 | 2021-01-05 | The Boeing Company | Systems and methods for automatically generating training image sets for an object |
CN111353417A (zh) * | 2020-02-26 | 2020-06-30 | 北京三快在线科技有限公司 | 一种目标检测的方法及装置 |
CN111291714A (zh) * | 2020-02-27 | 2020-06-16 | 同济大学 | 一种基于单目视觉和激光雷达融合的车辆检测方法 |
CN111551957B (zh) * | 2020-04-01 | 2023-02-03 | 上海富洁科技有限公司 | 基于激光雷达感知的园区低速自动巡航及紧急制动系统 |
US12008743B2 (en) * | 2020-05-22 | 2024-06-11 | Robert Bosch Gmbh | Hazard detection ensemble architecture system and method |
CN112462762B (zh) * | 2020-11-16 | 2022-04-19 | 浙江大学 | 一种基于路侧二维码单元的机器人室外自主移动系统及其方法 |
TWI755240B (zh) * | 2021-01-05 | 2022-02-11 | 鴻海精密工業股份有限公司 | 影像處理方法、電腦裝置 |
CN113269151A (zh) * | 2021-06-24 | 2021-08-17 | 中车大连机车车辆有限公司 | 一种基于视觉识别的列车控制方法及设备 |
CN114413881B (zh) * | 2022-01-07 | 2023-09-01 | 中国第一汽车股份有限公司 | 高精矢量地图的构建方法、装置及存储介质 |
CN114663855B (zh) * | 2022-03-11 | 2024-05-24 | 北京航空航天大学 | 一种面向非结构化道路的路面积水和不平度检测方法 |
CN114879704B (zh) * | 2022-07-11 | 2022-11-25 | 山东大学 | 一种机器人绕障控制方法及系统 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101713999A (zh) * | 2009-11-18 | 2010-05-26 | 北京矿冶研究总院 | 地下自主铲运机的导航控制方法 |
CN204688098U (zh) * | 2015-06-17 | 2015-10-07 | 长安大学 | 一种机动车紧急刹车辅助装置 |
CN105205805A (zh) * | 2015-08-19 | 2015-12-30 | 奇瑞汽车股份有限公司 | 基于视觉的智能车辆横向控制方法 |
CN106347351A (zh) * | 2016-09-28 | 2017-01-25 | 奇瑞汽车股份有限公司 | 一种带有自动紧急制动的自适应巡航方法及系统 |
CN106843231A (zh) * | 2017-03-24 | 2017-06-13 | 广州汽车集团股份有限公司 | 无人驾驶汽车、无人驾驶汽车的控制方法及其控制装置 |
CN107577996A (zh) * | 2017-08-16 | 2018-01-12 | 中国地质大学(武汉) | 一种车辆驾驶路径偏移的识别方法及系统 |
JP6271212B2 (ja) * | 2013-10-17 | 2018-01-31 | ヤマハ発動機株式会社 | 自律走行車両 |
CN108045435A (zh) * | 2017-11-29 | 2018-05-18 | 江苏大学 | 一种路面自适应的智能车辆横向混合控制方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102096803B (zh) * | 2010-11-29 | 2013-11-13 | 吉林大学 | 基于机器视觉的行人安全状态识别系统 |
CN102591332B (zh) * | 2011-01-13 | 2014-08-13 | 同济大学 | 用于无人驾驶汽车局部路径规划的装置及方法 |
CN104361760B (zh) * | 2014-11-24 | 2017-12-01 | 中国科学技术大学苏州研究院 | 一种基于车联网的紧急刹车智能控制方法 |
CN106056100B (zh) * | 2016-06-28 | 2019-03-08 | 重庆邮电大学 | 一种基于车道检测与目标跟踪的车辆辅助定位方法 |
CN106295560B (zh) * | 2016-08-09 | 2019-06-18 | 浙江零跑科技有限公司 | 基于车载双目相机和分段式pid控制的车道保持方法 |
-
2019
- 2019-02-26 CN CN201910141424.2A patent/CN109886215B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101713999A (zh) * | 2009-11-18 | 2010-05-26 | 北京矿冶研究总院 | 地下自主铲运机的导航控制方法 |
JP6271212B2 (ja) * | 2013-10-17 | 2018-01-31 | ヤマハ発動機株式会社 | 自律走行車両 |
CN204688098U (zh) * | 2015-06-17 | 2015-10-07 | 长安大学 | 一种机动车紧急刹车辅助装置 |
CN105205805A (zh) * | 2015-08-19 | 2015-12-30 | 奇瑞汽车股份有限公司 | 基于视觉的智能车辆横向控制方法 |
CN106347351A (zh) * | 2016-09-28 | 2017-01-25 | 奇瑞汽车股份有限公司 | 一种带有自动紧急制动的自适应巡航方法及系统 |
CN106843231A (zh) * | 2017-03-24 | 2017-06-13 | 广州汽车集团股份有限公司 | 无人驾驶汽车、无人驾驶汽车的控制方法及其控制装置 |
CN107577996A (zh) * | 2017-08-16 | 2018-01-12 | 中国地质大学(武汉) | 一种车辆驾驶路径偏移的识别方法及系统 |
CN108045435A (zh) * | 2017-11-29 | 2018-05-18 | 江苏大学 | 一种路面自适应的智能车辆横向混合控制方法 |
Non-Patent Citations (4)
Title |
---|
Model-predictive active steering and obstacle avoidance for autonomous ground vehicles;YongsoonYoon 等,;《Control Engineering Practice》;20090730;第17卷(第7期);第741-750页 * |
基于PID算法的汽车巡航系统研究;毕强,;《九江职业技术学院学报》;20120630;第2012年卷(第2期);第13页 * |
无人驾驶智能车制动控制系统研究;肖焱曦,;《中国优秀硕士学位论文全文数据库 工程科技Ⅱ辑》;20140615;第2014年卷(第6期);第C035-37页 * |
车辆自动紧急制动系统建模与仿真研究;郑杰,;《中国优秀硕士学位论文全文数据库 工程科技Ⅱ辑》;20180115;第2018年卷(第1期);第C035-156页 * |
Also Published As
Publication number | Publication date |
---|---|
CN109886215A (zh) | 2019-06-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109886215B (zh) | 基于机器视觉的低速园区无人车巡航及紧急制动系统 | |
CN108596129B (zh) | 一种基于智能视频分析技术的车辆越线检测方法 | |
CN109460709B (zh) | 基于rgb和d信息融合的rtg视觉障碍物检测的方法 | |
Diaz-Cabrera et al. | Robust real-time traffic light detection and distance estimation using a single camera | |
CN107577996A (zh) | 一种车辆驾驶路径偏移的识别方法及系统 | |
CN107609486A (zh) | 一种车辆前向防撞预警方法及系统 | |
CN114902070A (zh) | 传感器退化检测和修复 | |
CN106845547A (zh) | 一种基于摄像头的智能汽车定位与道路标识识别系统及方法 | |
CN106682586A (zh) | 一种复杂光照条件下基于视觉的实时车道线检测的方法 | |
EP1403615B1 (en) | Apparatus and method for processing stereoscopic images | |
CN115049700A (zh) | 一种目标检测方法及装置 | |
CN113516853B (zh) | 一种针对复杂监控场景的多车道车流量检测方法 | |
CN107133600A (zh) | 一种基于帧间关联的实时车道线检测方法 | |
CN114708567B (zh) | 一种基于双目摄像头的路面坑洼检测和避让方法及系统 | |
CN110533692B (zh) | 一种面向无人机航拍视频中移动目标的自动跟踪方法 | |
CN113895439B (zh) | 一种基于车载多源传感器概率融合的自动驾驶变道行为决策方法 | |
Joy et al. | Real time road lane detection using computer vision techniques in python | |
CN108182428A (zh) | 前车状态识别和车辆跟随的方法 | |
CN116901089B (zh) | 一种多角度视距的机器人控制方法及系统 | |
Sang et al. | A Robust Lane Detection Algorithm Adaptable to Challenging Weather Conditions | |
CN117710918A (zh) | 一种车道线检测方法和系统 | |
Gupta et al. | Robust lane detection using multiple features | |
CN117232545A (zh) | 一种基于深度学习道路环境感知的路径规划方法 | |
CN107292282B (zh) | 一种基于语义推理和时空记忆更新的车辆检测方法 | |
CN115294545A (zh) | 一种基于深度学习的复杂路面车道识别方法及芯片 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |