CN112766133A - 一种基于ReliefF-DBN的自动驾驶偏离处理方法 - Google Patents
一种基于ReliefF-DBN的自动驾驶偏离处理方法 Download PDFInfo
- Publication number
- CN112766133A CN112766133A CN202110046144.0A CN202110046144A CN112766133A CN 112766133 A CN112766133 A CN 112766133A CN 202110046144 A CN202110046144 A CN 202110046144A CN 112766133 A CN112766133 A CN 112766133A
- Authority
- CN
- China
- Prior art keywords
- lane line
- data
- image
- vehicle
- dbn
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 12
- 238000012549 training Methods 0.000 claims abstract description 40
- 238000000034 method Methods 0.000 claims abstract description 32
- 235000002566 Capsicum Nutrition 0.000 claims abstract description 18
- 239000006002 Pepper Substances 0.000 claims abstract description 18
- 235000016761 Piper aduncum Nutrition 0.000 claims abstract description 18
- 235000017804 Piper guineense Nutrition 0.000 claims abstract description 18
- 235000008184 Piper nigrum Nutrition 0.000 claims abstract description 18
- 150000003839 salts Chemical class 0.000 claims abstract description 18
- 238000012545 processing Methods 0.000 claims abstract description 10
- 230000008569 process Effects 0.000 claims description 20
- 241000722363 Piper Species 0.000 claims description 17
- 238000001514 detection method Methods 0.000 claims description 9
- 230000006870 function Effects 0.000 claims description 5
- 230000008859 change Effects 0.000 claims description 3
- 239000003086 colorant Substances 0.000 claims description 3
- 238000001914 filtration Methods 0.000 claims description 3
- 238000002372 labelling Methods 0.000 claims description 3
- 238000012544 monitoring process Methods 0.000 claims description 3
- 238000012360 testing method Methods 0.000 claims description 3
- 244000203593 Piper nigrum Species 0.000 abstract 1
- 238000013135 deep learning Methods 0.000 description 3
- 230000002787 reinforcement Effects 0.000 description 3
- 238000011161 development Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000007547 defect Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
- B60W40/06—Road conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24147—Distances to closest patterns, e.g. nearest neighbour classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/30—Noise filtering
Abstract
一种基于ReliefF‑DBN的自动驾驶偏离处理方法,该方法包括以下步骤:步骤1,实时采集路面行驶图像;步骤2,获取模拟噪声环境数据;步骤3,提取路面车道线图像;步骤4,训练ReliefF‑DBN车道线循迹模型;步骤5,校准车辆速度和角度参数;步骤6,开启车辆异常自动处理系统。本发明模拟了行车时的恶劣环境,在路面图像的基础上叠加了椒盐噪声,实现巡车辆的自动驾驶循迹功能,增强了车辆循迹的稳定性、可靠性和鲁棒性,并利用YOLOv3算法检测车道线的边缘线,可以精确的检测车道线,为循迹模型提供重要的车道线数据,同时使用ReliefF‑DBN模型训练车道线循迹模型,减少了车道线数据的输入维度,提高了循迹模型的运行速度和精确度。
Description
技术领域
本发明涉及自动驾驶领域,特别是涉及一种基于ReliefF-DBN的自动驾驶偏离处理方法。
背景技术
随着工业技术的不断发展,自动驾驶技术已经成为全球汽车产业发展的重要战略方向,因其能够提高车辆的安全性、动力性、经济性和舒适性而受到学术界和工业界的广泛研究。准确可靠的自动驾驶技术是其推广应用的基础,为了实现自动驾驶,经过几十年的探索研究,自动驾驶技术:目前主要有“感知-决策-控制”方法和端到端自动驾驶方法。
其中,端到端自动驾驶方法所采用的算法主要包括深度学习和强化学习算法。虽然相比于强化学习算法,深度学习算法有着其效果受到训练集制约且无法进行多目标优化的缺点,但是由于强化学习算法难以处理图像等高维数据,早期的端到端自动驾驶方法均以深度学习为主,自动驾驶系统能够将路径输入信息与车辆当前位置进行匹配,完成基本的循迹功能。
发明内容
为解决上述问题,本发明在实时图像采集系统采集的路面图像基础上,为提高模型的稳定性和鲁棒性,通过添加椒盐噪声来模拟车辆行驶过程中的恶劣环境,首先通过YOLOv3网络检测并分割车道线,以此作为数据集来训练ReliefF-DBN车道线循迹模型,本发明提供一种基于ReliefF-DBN的自动驾驶偏离处理方法,具体步骤如下,其特征在于:
步骤1,实时采集路面行驶图像:利用车载的实时图像采集系统采集车辆自动行驶时的路面行驶图像;
步骤2,获取模拟噪声环境数据:在采集的路面行驶图像中添加15%~25%的椒盐噪声,模拟在干扰环境下所采集信号受到的干扰;
步骤3,提取路面车道线图像:使用YOLOv3模型监测路面行驶图像中车道线,并分割出车道线图像;
步骤4,训练ReliefF-DBN车道线循迹模型:将车道线图像数据作为输入,对应的每张图像数据的行车匹配航向角作为输出,训练ReliefF-DBN模型,获得训练完成的车道线循迹模型;
步骤5,校准车辆速度和角度参数:结合角度传感器监测的车轮转向角、行车纵向速度,得到当前车辆运行的航向角度,最后根据步骤4中模型计算的匹配航向角度来校准行车速度和角度;
步骤6,开启车辆异常自动处理系统:启动车辆的避障、换道和紧急制动的功能。
进一步,步骤2中为采集图像添加椒盐噪声的过程可以表示为:
车辆在行驶过程中,有可能会受到极大的干扰,对此本发明通过添加的椒盐噪声来模拟车辆在恶劣环境下所受的干扰,添加椒盐噪声的公式为:
其中,Imax和Imin是路面行驶图像像素点的最大值和最小值,p为图像出现噪声的概率,p的取值范围为15%~25%,ixy是采集图像像素点(x,y)的实际值,f(x,y)是添加椒盐噪声后的图像像素点值。
进一步,步骤3中提取路面车道线图像的过程可以表示为:
步骤3.1,对步骤2处理过的路面行驶图像进行平滑滤波处理;
步骤3.2,将3.1处理过的图像进行灰度化处理,并标注数据集将数据集转化为YOLO模式;
R、G、B分别表示图像中的红、绿、蓝三原色分量值,Gray是像素点灰度化后的值。
步骤3.3,将数据集划分为训练样本和测试样本,训练YOLOv3模型,得到车道线YOLOv3检测模型;
步骤3.4,将待提取的车道线图像分别经过步骤3.1和步骤3.2后,输入到车道线YOLOv3检测模型,输出车道线检测数据。
进一步,步骤4中训练ReliefF-DBN车道线循迹模型的过程可以表示为:
车辆在行驶过程中需要通过车道线来匹配行车的角度,以此来调整行车的自动驾驶路线,作为训练数据集,需要人为的为车道线图像标注行车的匹配航向角,利用数据集来训练ReliefF-DBN车道线循迹。
步骤4.1,通过步骤3提取图像中的车道线数据,并标注行车的匹配航向角,得到车道线数据集;
步骤4.2,将车道线数据作为输入,行车的匹配航向角作为输出,利用ReliefF算法计算得到每一维车道线数据对于匹配航向角的重要性权重:
步骤4.2.1初始化每一维车道线数据重要性权重W[A]=0,A=1,2,...,a,a为车道线维数
步骤4.2.2在训练集u(i)中随机选出一维车道线数据值E
步骤4.2.3在训练集中找出k个和E最近邻的车道线数据Hj(j=1,2,...,k)
步骤4.2.4在训练集中找出k个和E不同类的最近邻车道线数据Mj(C)(j=1,2,...,k)
步骤4.2.5计算车道线数据重要性权重:
式中p(C)表示第C类行车匹配航向角的概率;Class(E)表示E所属的匹配航向角类别;m是样本个数;diff(A,R1,R2)表示车道线数据样本R1和车道线数据样本R2在A维车道线数据上的差:
重复步骤4.2.2至步骤4.2.5可得每一维车道线数据的重要性权重W[A],若重要性权重小于0.5,则删除该维的车道线数据,删除后的车道线数据和行车匹配航向角组成新的数据集D。
步骤4.3,使用新建立的数据集D,将删除后的车道线数据作为输入,行车匹配航向角作为输出训练DBN网络,DBN网络中受限玻尔兹曼机参数的训练更新规则如下:
Δωij=ε(<vihj>data-<vihj>recon) (5)
Δai=ε(<vi>data-<vi>recon) (6)
Δbj=ε(<hj>data-<hj>recon) (7)
式中,Δωij是节点vi和hj之间的连接权值,ε是预训练的学习率,<·>data是训练数据集分布上的数学期望,<·>recon是重构后模型分布上的数学期望期望,训练得到ReliefF-DBN车道线循迹模型。
进一步,步骤5中校准车辆速度和角度参数的过程可以表示为:
首先,通过实时图像采集系统采集车道线图像;再经过步骤3提取路面行驶图像中的车道线图像,并分割出车道线图像;然后将车道线图数据输入到训练完成的ReliefF-DBN车道线循迹模型中,输出行车的匹配航向角度;最后根据当前车辆运行的航向角度,控制系统控制车辆的速度和转向角来匹配航向角度。
本发明一种基于ReliefF-DBN的自动驾驶偏离处理方法,有益效果:本发明的技术效果在于:
1.本发明模拟了行车时的恶劣环境,在路面图像的基础上叠加了椒盐噪声,实现巡车辆的自动驾驶循迹功能,增强了车辆循迹的稳定性、可靠性和鲁棒性;
2.本发明利用YOLOv3算法检测车道线的边缘线,可以精确的检测车道线,为循迹模型提供重要的车道线数据;
3.本发明利用ReliefF-DBN模型训练车道线循迹模型,减少了车道线数据的输入维度,提高了循迹模型的运行速度和精确度。
附图说明
图1为本发明的流程图。
具体实施方式
下面结合附图与具体实施方式对本发明作进一步详细描述:
本发明提出了一种基于ReliefF-DBN的自动驾驶偏离处理方法,旨在提高自动驾驶技术的行车精度,同时提高算法模型再恶劣环境中的稳定性和鲁棒性。图1为本发明的流程图。下面结合流程图对本发明的步骤作详细介绍。
步骤1,实时采集路面行驶图像:利用车载的实时图像采集系统采集车辆自动行驶时的路面行驶图像;
步骤2,获取模拟噪声环境数据:在采集的路面行驶图像中添加15%~25%的椒盐噪声,模拟在干扰环境下所采集信号受到的干扰;
步骤2中为采集图像添加椒盐噪声的过程可以表示为:
车辆在行驶过程中,有可能会受到极大的干扰,对此本发明通过添加的椒盐噪声来模拟车辆在恶劣环境下所受的干扰,添加椒盐噪声的公式为:
其中,Imax和Imin是路面行驶图像像素点的最大值和最小值,p为图像出现噪声的概率,p的取值范围为15%~25%,ixy是采集图像像素点(x,y)的实际值,f(x,y)是添加椒盐噪声后的图像像素点值。
步骤3,提取路面车道线图像:使用YOLOv3模型监测路面行驶图像中车道线,并分割出车道线图像;
步骤3中提取路面车道线图像的过程可以表示为:
步骤3.1,对步骤2处理过的路面行驶图像进行平滑滤波处理;
步骤3.2,将3.1处理过的图像进行灰度化处理,并标注数据集将数据集转化为YOLO模式;
R、G、B分别表示图像中的红、绿、蓝三原色分量值,Gray是像素点灰度化后的值。
步骤3.3,将数据集划分为训练样本和测试样本,训练YOLOv3模型,得到车道线YOLOv3检测模型;
步骤3.4,将待提取的车道线图像分别经过步骤3.1和步骤3.2后,输入到车道线YOLOv3检测模型,输出车道线检测数据。
步骤4,训练ReliefF-DBN车道线循迹模型:将车道线图像数据作为输入,对应的每张图像数据的行车匹配航向角作为输出,训练ReliefF-DBN模型,获得训练完成的车道线循迹模型;
步骤4中训练ReliefF-DBN车道线循迹模型的过程可以表示为:
车辆在行驶过程中需要通过车道线来匹配行车的角度,以此来调整行车的自动驾驶路线,作为训练数据集,需要人为的为车道线图像标注行车的匹配航向角,利用数据集来训练ReliefF-DBN车道线循迹。
步骤4.1,通过步骤3提取图像中的车道线数据,并标注行车的匹配航向角,得到车道线数据集;
步骤4.2,将车道线数据作为输入,行车的匹配航向角作为输出,利用ReliefF算法计算得到每一维车道线数据对于匹配航向角的重要性权重:
步骤4.2.1初始化每一维车道线数据重要性权重W[A]=0,A=1,2,...,a,a为车道线维数
步骤4.2.2在训练集u(i)中随机选出一维车道线数据值E
步骤4.2.3在训练集中找出k个和E最近邻的车道线数据Hj(j=1,2,...,k)
步骤4.2.4在训练集中找出k个和E不同类的最近邻车道线数据Mj(C)(j=1,2,...,k)
步骤4.2.5计算车道线数据重要性权重:
式中p(C)表示第C类行车匹配航向角的概率;Class(E)表示E所属的匹配航向角类别;m是样本个数;diff(A,R1,R2)表示车道线数据样本R1和车道线数据样本R2在A维车道线数据上的差:
重复步骤4.2.2至步骤4.2.5可得每一维车道线数据的重要性权重W[A],若重要性权重小于0.5,则删除该维的车道线数据,删除后的车道线数据和行车匹配航向角组成新的数据集D。
步骤4.3,使用新建立的数据集D,将删除后的车道线数据作为输入,行车匹配航向角作为输出训练DBN网络,DBN网络中受限玻尔兹曼机参数的训练更新规则如下:
Δωij=ε(<vihj>data-<vihj>recon) (5)
Δai=ε(<vi>data-<vi>recon) (6)
Δbj=ε(<hj>data-<hj>recon) (7)
式中,Δωij是节点vi和hj之间的连接权值,ε是预训练的学习率,<·>data是训练数据集分布上的数学期望,<·>recon是重构后模型分布上的数学期望期望,训练得到ReliefF-DBN车道线循迹模型。
步骤5,校准车辆速度和角度参数:结合角度传感器监测的车轮转向角、行车纵向速度,得到当前车辆运行的航向角度,最后根据步骤4中模型计算的匹配航向角度来校准行车速度和角度;
步骤5中校准车辆速度和角度参数的过程可以表示为:
首先,通过实时图像采集系统采集车道线图像;再经过步骤3提取路面行驶图像中的车道线图像,并分割出车道线图像;然后将车道线图数据输入到训练完成的ReliefF-DBN车道线循迹模型中,输出行车的匹配航向角度;最后根据当前车辆运行的航向角度,控制系统控制车辆的速度和转向角来匹配航向角度。
步骤6,开启车辆异常自动处理系统:启动车辆的避障、换道和紧急制动的功能。当检测到前面存在障碍物时,车辆减速运行,并判断是否可以实现避障,若能避障则换道避障行驶,若不能成功避障则启动停车模式,同时将路面情况发送给后台人员,实施人工干预。
以上所述,仅是本发明的较佳实施例而已,并非是对本发明作任何其他形式的限制,而依据本发明的技术实质所作的任何修改或等同变化,仍属于本发明所要求保护的范围。
Claims (5)
1.一种基于ReliefF-DBN的自动驾驶偏离处理方法,具体步骤如下,其特征在于:
步骤1,实时采集路面行驶图像:利用车载的实时图像采集系统采集车辆自动行驶时的路面行驶图像;
步骤2,获取模拟噪声环境数据:在采集的路面行驶图像中添加15%~25%的椒盐噪声,模拟在干扰环境下所采集信号受到的干扰;
步骤3,提取路面车道线图像:使用YOLOv3模型监测路面行驶图像中车道线,并分割出车道线图像;
步骤4,训练ReliefF-DBN车道线循迹模型:将车道线图像数据作为输入,对应的每张图像数据的行车匹配航向角作为输出,训练ReliefF-DBN模型,获得训练完成的车道线循迹模型;
步骤5,校准车辆速度和角度参数:结合角度传感器监测的车轮转向角、行车纵向速度,得到当前车辆运行的航向角度,最后根据步骤4中模型计算的匹配航向角度来校准行车速度和角度;
步骤6,开启车辆异常自动处理系统:启动车辆的避障、换道和紧急制动的功能。
4.根据权利要求1所述的一种基于ReliefF-DBN的自动驾驶偏离处理方法,其特征在于:步骤4中训练ReliefF-DBN车道线循迹模型的过程可以表示为:
车辆在行驶过程中需要通过车道线来匹配行车的角度,以此来调整行车的自动驾驶路线,作为训练数据集,需要人为的为车道线图像标注行车的匹配航向角,利用数据集来训练ReliefF-DBN车道线循迹,训练训练ReliefF-DBN车道线循迹模型的步骤如下:
步骤4.1,通过步骤3提取图像中的车道线数据,并标注行车的匹配航向角,得到车道线数据集;
步骤4.2,将车道线数据作为输入,行车的匹配航向角作为输出,利用ReliefF算法计算得到每一维车道线数据对于匹配航向角的重要性权重:
步骤4.2.1初始化每一维车道线数据重要性权重W[A]=0,A=1,2,...,a,a为车道线维数
步骤4.2.2在训练集u(i)中随机选出一维车道线数据值E
步骤4.2.3在训练集中找出k个和E最近邻的车道线数据Hj(j=1,2,...,k)
步骤4.2.4在训练集中找出k个和E不同类的最近邻车道线数据Mj(C)(j=1,2,...,k)
步骤4.2.5计算车道线数据重要性权重
重复步骤4.2.2至步骤4.2.5可得每一维车道线数据的重要性权重W[A],若重要性权重小于0.5,则删除该维的车道线数据,删除后的车道线数据和行车匹配航向角组成新的数据集D;
步骤4.3,使用新建立的数据集D,将删除后的车道线数据作为输入,行车匹配航向角作为输出训练DBN网络,DBN网络中受限玻尔兹曼机参数的训练更新规则如下:
Δωij=ε(<vihj>data-<vihj>recon) (3)
Δai=ε(<vi>data-<vi>recon) (4)
Δbj=ε(<hj>data-<hj>recon) (5)
式中,Δωij是节点vi和hj之间的连接权值,ε是预训练的学习率,<·>data是训练数据集分布上的数学期望,<·>recon是重构后模型分布上的数学期望期望,训练得到ReliefF-DBN车道线循迹模型。
5.根据权利要求1所述的一种基于ReliefF-DBN的自动驾驶偏离处理方法,其特征在于:步骤5中校准车辆速度和角度参数的过程可以表示为:
首先,通过实时图像采集系统采集车道线图像;再经过步骤3提取路面行驶图像中的车道线图像,并分割出车道线图像;然后将车道线图数据输入到训练完成的ReliefF-DBN车道线循迹模型中,输出行车的匹配航向角度;最后根据当前车辆运行的航向角度,控制系统控制车辆的速度和转向角来匹配航向角度。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110046144.0A CN112766133A (zh) | 2021-01-14 | 2021-01-14 | 一种基于ReliefF-DBN的自动驾驶偏离处理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110046144.0A CN112766133A (zh) | 2021-01-14 | 2021-01-14 | 一种基于ReliefF-DBN的自动驾驶偏离处理方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112766133A true CN112766133A (zh) | 2021-05-07 |
Family
ID=75700370
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110046144.0A Pending CN112766133A (zh) | 2021-01-14 | 2021-01-14 | 一种基于ReliefF-DBN的自动驾驶偏离处理方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112766133A (zh) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6487501B1 (en) * | 2001-06-12 | 2002-11-26 | Hyundai Motor Company | System for preventing lane deviation of vehicle and control method thereof |
CN106057212A (zh) * | 2016-05-19 | 2016-10-26 | 华东交通大学 | 基于语音个性特征和模型自适应的驾驶疲劳检测方法 |
CN107031505A (zh) * | 2015-11-20 | 2017-08-11 | 株式会社万都 | 车道偏离警示装置和方法 |
CN107856668A (zh) * | 2017-09-22 | 2018-03-30 | 江西博能上饶客车有限公司 | 一种车辆转向自动防护系统及方法 |
CN108875603A (zh) * | 2018-05-31 | 2018-11-23 | 上海商汤智能科技有限公司 | 基于车道线的智能驾驶控制方法和装置、电子设备 |
CN112009491A (zh) * | 2019-05-31 | 2020-12-01 | 广州汽车集团股份有限公司 | 一种基于交通元素视觉增强的深度学习的自动驾驶方法及系统 |
CN112026782A (zh) * | 2019-06-04 | 2020-12-04 | 广州汽车集团股份有限公司 | 一种基于开关式深度学习网络模型的自动驾驶决策方法及系统 |
CN112132321A (zh) * | 2020-08-25 | 2020-12-25 | 航天信德智图(北京)科技有限公司 | 一种基于机器学习对森林火灾预测分析的方法 |
-
2021
- 2021-01-14 CN CN202110046144.0A patent/CN112766133A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6487501B1 (en) * | 2001-06-12 | 2002-11-26 | Hyundai Motor Company | System for preventing lane deviation of vehicle and control method thereof |
CN107031505A (zh) * | 2015-11-20 | 2017-08-11 | 株式会社万都 | 车道偏离警示装置和方法 |
CN106057212A (zh) * | 2016-05-19 | 2016-10-26 | 华东交通大学 | 基于语音个性特征和模型自适应的驾驶疲劳检测方法 |
CN107856668A (zh) * | 2017-09-22 | 2018-03-30 | 江西博能上饶客车有限公司 | 一种车辆转向自动防护系统及方法 |
CN108875603A (zh) * | 2018-05-31 | 2018-11-23 | 上海商汤智能科技有限公司 | 基于车道线的智能驾驶控制方法和装置、电子设备 |
CN112009491A (zh) * | 2019-05-31 | 2020-12-01 | 广州汽车集团股份有限公司 | 一种基于交通元素视觉增强的深度学习的自动驾驶方法及系统 |
CN112026782A (zh) * | 2019-06-04 | 2020-12-04 | 广州汽车集团股份有限公司 | 一种基于开关式深度学习网络模型的自动驾驶决策方法及系统 |
CN112132321A (zh) * | 2020-08-25 | 2020-12-25 | 航天信德智图(北京)科技有限公司 | 一种基于机器学习对森林火灾预测分析的方法 |
Non-Patent Citations (2)
Title |
---|
张小恒 等: "基于语音卷积稀疏迁移学习和并行优选的帕金森病分类算法研究", 《电子与信息学报》, vol. 41, no. 7, pages 1641 - 1649 * |
智淑亚 等: "基于多目标SMC汽车转向稳定性研究", 《汽车技术》, pages 102 - 103 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107492251B (zh) | 一种基于机器学习与深度学习的驾驶员身份识别与驾驶状态监测方法 | |
US9053433B2 (en) | Assisting vehicle guidance over terrain | |
CN105892471B (zh) | 汽车自动驾驶方法和装置 | |
CN111985494B (zh) | 一种基于轻量化车载终端的道路病害检测及分类方法 | |
CN112700470B (zh) | 一种基于交通视频流的目标检测和轨迹提取方法 | |
CN111753797B (zh) | 一种基于视频分析的车辆测速方法 | |
CN108230254A (zh) | 一种自适应场景切换的高速交通全车道线自动检测方法 | |
CN114612795A (zh) | 基于激光雷达点云的路面场景目标识别方法 | |
EP2405383A1 (en) | Assisting with guiding a vehicle over terrain | |
WO2024060529A1 (zh) | 一种道路病害识别方法、系统、设备及存储介质 | |
CN113933858A (zh) | 定位传感器的异常检测方法、装置及终端设备 | |
DE102021132082A1 (de) | Ende-zu-ende-system-training unter verwendung vereinigter bilder | |
CN115291515A (zh) | 一种基于数字孪生的自动驾驶仿真测试系统及评价方法 | |
DE102021132199A1 (de) | Bestimmen von Objektmobilitätsparametern unter Verwendung einer Objektsequenz | |
CN114235679A (zh) | 一种基于激光雷达的路面附着系数估计方法及系统 | |
CN112419345A (zh) | 基于回声状态网络的巡逻车高精度循迹方法 | |
CN110647877B (zh) | 一种基于神经网络的立体交通设施定位纠偏方法及装置 | |
CN112509321A (zh) | 一种基于无人机的城市复杂交通情景的驾驶控制方法、系统及可读存储介质 | |
CN112766133A (zh) | 一种基于ReliefF-DBN的自动驾驶偏离处理方法 | |
CN116631187A (zh) | 一种案件现场勘查信息智能采集分析系统 | |
DE102022104054A1 (de) | Die fahrzeugzustandsschätzung verbessernde sensordaten zur fahrzeugsteuerung und zum autonomen fahren | |
Zhao et al. | CPDM: An efficient crowdsensing-based pothole detection and measurement system design | |
Darwiche et al. | Speed bump detection for autonomous vehicles using signal-processing techniques | |
CN114895682B (zh) | 一种基于云端数据的无人驾驶矿车行走参数校正方法及系统 | |
AU2011275603B9 (en) | Assisting vehicle guidance over terrain |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210507 |