CN114217601A - 自驾车的混合决策方法及其系统 - Google Patents
自驾车的混合决策方法及其系统 Download PDFInfo
- Publication number
- CN114217601A CN114217601A CN202010913886.4A CN202010913886A CN114217601A CN 114217601 A CN114217601 A CN 114217601A CN 202010913886 A CN202010913886 A CN 202010913886A CN 114217601 A CN114217601 A CN 114217601A
- Authority
- CN
- China
- Prior art keywords
- obstacle
- vehicle
- scene
- driving
- learned
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 52
- 230000006870 function Effects 0.000 claims abstract description 38
- 238000005457 optimization Methods 0.000 claims abstract description 15
- 230000001133 acceleration Effects 0.000 claims description 47
- 238000012545 processing Methods 0.000 claims description 45
- 230000006399 behavior Effects 0.000 claims description 30
- 230000008859 change Effects 0.000 claims description 12
- 238000005070 sampling Methods 0.000 claims description 7
- 125000006239 protecting group Chemical group 0.000 claims 4
- 230000001681 protective effect Effects 0.000 claims 4
- 238000010586 diagram Methods 0.000 description 16
- 238000003745 diagnosis Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000012216 screening Methods 0.000 description 2
- 238000009966 trimming Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0253—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting relative motion information from a plurality of images taken successively, e.g. visual odometry, optical flow
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0214—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0223—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0257—Control of position or course in two dimensions specially adapted to land vehicles using a radar
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
- G05D1/0278—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using satellite positioning signals, e.g. GPS
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- Aviation & Aerospace Engineering (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Electromagnetism (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明提供一种自驾车的混合决策方法及其系统,自驾车的混合决策方法用以决策出本车的最佳轨迹函数。参数获得步骤是感测本车的周围场景而获得待学习参数组,并将待学习参数组储存至记忆体。基于学习的场景决策步骤是依据待学习参数组与基于学习模型从多个场景类别中判别出符合本车的周围场景的场景类别。基于学习的参数优化步骤是将待学习参数组执行基于学习模型而产生关键参数组。基于规则的路径规划步骤是将场景类别及关键参数组执行基于规则模型而规划出最佳轨迹函数。借此,不但可同时处理多维度变数,还能使系统具备学习能力,并符合轨迹规划的连续性。
Description
技术领域
本发明是关于一种自驾车的决策方法及其系统,特别是关于一种自驾车的混合决策方法及其系统。
背景技术
近几年自动驾驶汽车的发展蓬勃,许多车厂大量投入资源,为自驾时代来临预作准备,并已计划采用无人驾驶汽车来经营交通运输系统,而且已允许实验性质的自动驾驶汽车。
自动驾驶汽车使用多种感测器,如光达(Lidar)与雷达(Radar)持续做大范围的感测。在行驶期间自动驾驶汽车需要根据车身与环境动态的参考信息作为系统输入,借此规划出安全的车辆行驶轨迹。
现行自动驾驶车辆避障的决策大多采用基于规则模型(Rule-based model)或基于学习模型(Artificial Intelligence-based model;AI-based model)两种方法,其中基于规则模型须对每一组结果做评估,且仅适用于限制条件内的场景,而基于学习模型的轨迹会发生不连续的情况,且轨迹与速度的产生不具稳定性。由此可知,目前市场上缺乏一种可同时处理多维度变数、具备学习能力、稳定性高且符合轨迹规划的连续性及车辆动态限制的自驾车的混合决策方法及其系统,故相关业者均在寻求其解决之道。
发明内容
因此,本发明的目的在于提供一种自驾车的混合决策方法及其系统,其先利用基于学习模型学习驾驶避障行为,然后融合基于规则的路径规划,以建构出混合决策。此混合决策的基于规则模型透过特定场景类别及特定关键参数所规划出的轨迹已是最佳轨迹,可解决已知技术中需要生成多条轨迹而择一的额外筛选作动的问题。
依据本发明的方法态样的一实施方式提供一种自驾车的混合决策方法,其用以决策出本车的最佳轨迹函数,此自驾车的混合决策方法包含参数获得步骤、基于学习的场景决策步骤、基于学习的参数优化步骤以及基于规则的路径规划步骤。其中参数获得步骤是驱动感测单元感测本车发周围场景而获得待学习参数组,并将待学习参数组储存至记忆体。基于学习的场景决策步骤是驱动运算处理单元接收来自记忆体的待学习参数组,并依据待学习参数组与一基于学习模型从多个场景类别中判别出符合本车的周围场景的其中一场景类别。此外,基于学习的参数优化步骤是驱动运算处理单元将待学习参数组执行基于学习模型而产生关键参数组。基于规则的路径规划步骤是驱动运算处理单元将其中一场景类别及关键参数组执行一基于规则模型而规划出最佳轨迹函数。
借此,本发明的自驾车的混合决策方法透过基于学习模型学习驾驶避障行为,然后融合基于规则的路径规划,以建构出混合决策,不但可同时处理多维度变数,还能使系统具备学习能力,并符合轨迹规划的连续性及车辆动态限制。
依据本发明的结构态样的一实施方式提供一种自驾车的混合决策系统,其用以决策出本车的最佳轨迹函数。自驾车的混合决策系统包含感测单元、记忆体以及运算处理单元,其中感测单元用以感测本车的周围场景而获得待学习参数组。记忆体用以存取待学习参数组、多个场景类别、基于学习模型及基于规则模型。此外,运算处理单元电性连接记忆体与感测单元,运算处理单元经配置以实施包含以下步骤的操作:基于学习的场景决策步骤、基于学习的参数优化步骤及基于规则的路径规划步骤。其中基于学习的场景决策步骤是依据待学习参数组与基于学习模型从此些场景类别中判别出符合本车的周围场景的其中一场景类别。基于学习的参数优化步骤是将待学习参数组执行基于学习模型而产生关键参数组。基于规则的路径规划步骤是将其中一场景类别及关键参数组执行基于规则模型而规划出最佳轨迹函数。
借此,本发明的自驾车的混合决策系统利用基于学习模型学习驾驶避障行为,然后融合基于规则的路径规划,以建构出混合决策,既可同时处理多维度变数,亦能使系统具备学习能力,并符合轨迹规划的连续性及车辆动态限制。
附图说明
图1是绘示本发明第一实施例的自驾车的混合决策方法的流程示意图;
图2是绘示本发明第二实施例的自驾车的混合决策方法的流程示意图;
图3是绘示图2的自驾车的混合决策方法的信息感测步骤的示意图;
图4是绘示图2的自驾车的混合决策方法的信息感测步骤的输入数据及输出数据的示意图;
图5是绘示图2的自驾车的混合决策方法的数据处理步骤的示意图;
图6是绘示图2的自驾车的混合决策方法应用于同车道避障的示意图;
图7是绘示图2的自驾车的混合决策方法应用于障碍物占据场景的示意图;
图8是绘示图2的自驾车的混合决策方法应用于车道变换的示意图;
图9是绘示图2的自驾车的混合决策方法的基于规则的路径规划步骤的示意图;以及
图10是绘示本发明第三实施例的自驾车的混合决策系统的方块示意图。
【符号说明】
100,100a:自驾车的混合决策方法
101:输出数据
102:待学习参数组
103:已学习行为参数组
104:场景类别
1041:第一场景
1042:第二场景
1043:第三场景
1044:第四场景
1045:第五场景
106:关键参数组
108:最佳轨迹函数
200:自驾车的混合决策系统
300:感测单元
310:车辆动态感测装置
320:障碍物感测装置
330:车道感测装置
400:记忆体
500:运算处理单元
S02,S12:参数获得步骤
S04,S14:基于学习的场景决策步骤
S06,S16:基于学习的参数优化步骤
S08,S18:基于规则的路径规划步骤
S122:信息感测步骤
S1222:车辆动态感测步骤
S1224:障碍物感测步骤
S1226:车道感测步骤
S124:数据处理步骤
S1242:裁切步骤
S1244:分群步骤
S1246:镜射步骤
S162:基于学习的驾驶行为产生步骤
S164:关键参数产生步骤
S182:目标点生成步骤
S184:座标转换步骤
S186:轨迹生成步骤
S20:诊断步骤
S22:控制步骤
BTF:平面座标曲线方程式
Dobj:障碍物侧向距离
HV:本车
LD:本车道路宽
Lobj:障碍物长度
Obj:障碍物
RD:相对距离
TP:目标点
vh:本车速度
vobj:障碍物速度
xi,yj:驾驶行径路线参数组
具体实施方式
以下将参照附图说明本发明的多个实施例。为明确说明起见,许多实务上的细节将在以下叙述中一并说明。然而,应了解到,这些实务上的细节不应用以限制本发明。也就是说,在本发明部分实施例中,这些实务上的细节是非必要的。此外,为简化附图起见,一些已知惯用的结构与元件在附图中将以简单示意的方式绘示;并且重复的元件将可能使用相同的编号表示。
此外,本文中当某一元件(或单元或模块等)“连接”于另一元件,可指所述元件是直接连接于另一元件,亦可指某一元件是间接连接于另一元件,意即,有其他元件介于所述元件及另一元件之间。而当有明示某一元件是“直接连接”于另一元件时,才表示没有其他元件介于所述元件及另一元件之间。而第一、第二、第三等用语只是用来描述不同元件,而对元件本身并无限制,因此,第一元件亦可改称为第二元件。且本文中的元件/单元/电路的组合非此领域中的一般周知、常规或已知的组合,不能以元件/单元/电路本身是否为已知,来判定其组合关系是否容易被技术领域中的通常知识者轻易完成。
请参阅图1,图1是绘示本发明第一实施例的自驾车的混合决策方法100的流程示意图。自驾车的混合决策方法100用以决策出本车的最佳轨迹函数108,此自驾车的混合决策方法100包含参数获得步骤S02、基于学习(AI-based)的场景决策步骤S04、基于学习的参数优化步骤S06以及基于规则(Rule-based)的路径规划步骤S08。
参数获得步骤S02是驱动感测单元感测本车的周围场景而获得待学习参数组102,并将待学习参数组102储存至记忆体。基于学习的场景决策步骤S04是驱动运算处理单元接收来自记忆体的待学习参数组102,并依据待学习参数组102与一基于学习模型(AI-basedmodel)从多个场景类别104中判别出符合本车的周围场景的其中一场景类别104。此外,基于学习的参数优化步骤S06是驱动运算处理单元将待学习参数组102执行基于学习模型而产生关键参数组106。基于规则的路径规划步骤S08是驱动运算处理单元将其中一场景类别104及关键参数组106执行一基于规则模型(Rule-based model)而规划出最佳轨迹函数108。借此,本发明的自驾车的混合决策方法100透过基于学习模型学习驾驶避障行为,然后融合基于规则的路径规划,以建构出混合决策,不但可同时处理多维度变数,还能使系统具备学习能力,并符合轨迹规划的连续性及车辆动态限制。以下将透过较详细的实施例来说明上述各步骤的细节。
请一并参阅图2至图9,其中图2是绘示本发明第二实施例的自驾车的混合决策方法100a的流程示意图;图3是绘示图2的自驾车的混合决策方法100a的信息感测步骤S122的示意图;图4是绘示图2的自驾车的混合决策方法100a的信息感测步骤S122的输入数据及输出数据101的示意图;图是绘示图2的自驾车的混合决策方法100a的数据处理步骤S124的示意图;图6是绘示图2的自驾车的混合决策方法100a应用于同车道避障的示意图;图7是绘示图2的自驾车的混合决策方法100a应用于障碍物占据场景的示意图;图8是绘示图2的自驾车的混合决策方法100a应用于车道变换的示意图;以及图9是绘示图2的自驾车的混合决策方法100a的基于规则的路径规划步骤S18的示意图;如图所示,自驾车的混合决策方法100a用以决策出本车HV的最佳轨迹函数108,此自驾车的混合决策方法100a包含参数获得步骤S12、基于学习的场景决策步骤S14、基于学习的参数优化步骤S16、基于规则的路径规划步骤S18、诊断步骤S20以及控制步骤S22。
参数获得步骤S12是驱动感测单元感测本车HV的周围场景而获得待学习参数组102,并将待学习参数组102储存至记忆体。详细地说,待学习参数组102包含本车道路宽LD、相对距离RD、障碍物长度Lobj、障碍物侧向距离Dobj。其中本车道路宽LD代表本车HV所在的道路的宽度。相对距离RD代表本车HV与障碍物Obj的距离。障碍物长度Lobj代表障碍物Obj的长度。障碍物侧向距离Dobj代表障碍物Obj离车道中心线的距离。再者,参数获得步骤S12包含信息感测步骤S122与数据处理步骤S124。
信息感测步骤S122包含车辆动态感测步骤S1222、障碍物感测步骤S1224以及车道感测步骤S1226。车辆动态感测步骤S1222是驱动车辆动态感测装置依据地图信息定位本车HV的当前位置与路口停止线,并感测本车HV的当前航向角、当前速度及当前加速度。障碍物感测步骤S1224是驱动障碍物感测装置感测与本车HV相距预定距离范围内的障碍物Obj,以产生对应障碍物Obj的障碍物信息及对应本车HV的多个可行驶空间座标点。障碍物信息包含对应障碍物Obj的障碍物当前位置、障碍物速度vobj及障碍物加速度。车道感测步骤S1226是驱动车道感测装置感测本车车道线间距及道路曲率。此外,由图4可知,信息感测步骤S122的输入数据包含地图信息、全球定位系统(Global Positioning System,GPS)数据、影像数据、光达(Lidar)数据、雷达(Radar)数据、惯性测量单元(Inertial MeasurementUnit,IMU)数据。输出数据101包含当前位置、当前航向角、路口停止线、障碍物当前位置、障碍物速度vobj、障碍物加速度、可行驶空间座标点、本车车道线间距及道路曲率。
数据处理步骤S124由运算处理单元配置实施,数据处理步骤S124包含裁切步骤S1242、分群步骤S1244以及镜射步骤S1246。其中裁切步骤S1242是依据预设时间间隔与预设偏航变化率裁切对应本车HV的当前位置、当前航向角、当前速度、当前加速度、障碍物信息、此些可行驶空间座标点、本车车道线间距及道路曲率而产生一裁切数据。本车HV与障碍物Obj之间存在碰撞时间间隔,本车HV具有偏航率(yaw rate);当碰撞时间间隔小于等于预设时间间隔时,启动裁切步骤S1242;当偏航率的变化小于等于预设偏航变化率时,停止裁切步骤S1242。上述预设时间间隔可为3秒,预设偏航变化率可为0.5,而且偏航率的变化可针对连续多笔数据作综合判断(例如:连续5笔的偏航率的变化均小于等于0.5),但本发明不以此为限。此外,分群步骤S1244是依据多个预设加速度范围及多个对向障碍物信息将裁切数据分群为多个群体,此些预设加速度范围包含一保守预设加速度范围与一常态预设加速度范围,此些对向障碍物信息包含一对向有障碍物信息与一对向无障碍物信息,此些群体包含一保守群体与一常态群体。保守预设加速度范围与对向无障碍物信息对应保守群体,而常态预设加速度范围与对向有障碍物信息则对应常态群体。上述保守预设加速度范围可为-0.1g至0.1g,常态预设加速度范围可为-0.2g至-0.3g及0.2g至0.3g,亦即0.2g≤|常态预设加速度范围|≤0.3g,g代表重力加速度,但本发明不以此为限。借此,分群步骤S1244的目的在于区分驾驶行为的差异(保守或者常态),其可改善后续的基于学习模型所训练的成效。此外,分群步骤S1244可方便切换模型或参数,且能让系统在可执行的范围内切换加速程度,或者避开障碍物Obj。另外,镜射步骤S1246是依据各场景类别104沿一车辆行进方向(例如:Y轴)将一本车轨迹函数镜射而产生一镜射后本车轨迹函数。待学习参数组102包含镜射后本车轨迹函数。本车轨迹函数为本车HV行驶的轨迹,其代表驾驶行为数据。借此,镜射步骤S1246的本车轨迹函数与镜射后本车轨迹函数均可供后续的基于学习模型训练,以增加搜集数据的多样性,进而避免基于学习模型因为数据多样性不足而无法有效分辨场景类别104的问题。
基于学习的场景决策步骤S14是驱动运算处理单元接收来自记忆体的待学习参数组102,并依据待学习参数组102与基于学习模型从多个场景类别104中判别出符合本车HV的周围场景的其中一个场景类别104。详细地说,基于学习模型是基于机率统计方法并透过搜集真人驾驶行为数据来训练,其可包含端到端(End to End)或采样规划(Samplingbased planning)。场景类别104可包含障碍物占据场景、路口场景及进出站场景,其中障碍物占据场景包含一障碍物占据百分比,障碍物占据场景代表周围场景中具有障碍物Obj与道路,障碍物占据百分比代表障碍物Obj占据道路的比例。举图7为例,此场景类别104为障碍物占据场景,其可包含第一场景1041、第二场景1042、第三场景1043、第四场景1044及第五场景1045。其中第一场景1041代表障碍物Obj未占据车道(障碍物占据百分比=0%);第二场景1042代表障碍物Obj有三分之一车身占据车道(障碍物占据百分比=33.3%,三分之一车身为0.7m);第三场景1043代表障碍物Obj有二分之一车身占据车道(障碍物占据百分比=50%,二分之一车身为1.05m);第四场景1044代表障碍物Obj有三分之二车身占据车道(障碍物占据百分比=66.6%,三分之二车身为1.4m);第五场景1045代表障碍物Obj全车身占据车道(障碍物占据百分比=100%,全车身为2.1m)。此外,路口场景代表周围场景中具有一路口。当其中一个场景类别104为路口时,车辆动态感测装置透过地图信息得到一路口停止线。再者,进出站场景代表周围场景中具有一进出站。借此,基于学习的场景决策步骤S14可得到符合周围场景的场景类别104,以供后续的基于规则的路径规划步骤S18使用。
基于学习的参数优化步骤S16是驱动运算处理单元将待学习参数组102执行基于学习模型而产生关键参数组106。详细地说,基于学习的参数优化步骤S16包含基于学习的驾驶行为产生步骤S162及关键参数产生步骤S164,其中基于学习的驾驶行为产生步骤S162是依据基于学习模型将待学习参数组102学习而产生一已学习行为参数组103。已学习行为参数组103包含系统作动参数组、目标点纵向距离、目标点横向距离、目标点曲率、本车速度vh及目标速度。驾驶行径路线参数组(xi,yj)及驾驶加减速行为参数组可透过信息感测步骤S122得到;换言之,待学习参数组102包含驾驶行径路线参数组(xi,yj)及驾驶加减速行为参数组。再者,关键参数产生步骤S164是将已学习行为参数组103的系统作动参数组运算而求得一系统作动时间点,并将系统作动时间点、目标点纵向距离、目标点横向距离、目标点曲率、本车速度vh及目标速度组合形成关键参数组106。其中系统作动参数组包含本车速度vh、本车加速度、方向盘角度、偏航率、相对距离RD及障碍物侧向距离Dobj。
基于规则的路径规划步骤S18是驱动运算处理单元将其中一个场景类别104及关键参数组106执行基于规则模型而规划出最佳轨迹函数108。详细地说,此其中一个场景类别104是符合本车HV的当前周围场景。基于规则模型是基于确定行为制定规则,而决策结果取决于感测器信息,其包含多项式或插值曲线。再者,基于规则的路径规划步骤S18包含目标点生成步骤S182、座标转换步骤S184及轨迹生成步骤S186。其中目标点生成步骤S182是驱动运算处理单元依据场景类别104及关键参数组106运算而生成多个目标点TP。座标转换步骤S184是驱动运算处理单元依据可行驶空间座标点将此些目标点TP转换出多个目标二维座标。轨迹生成步骤S186是驱动运算处理单元将此些目标二维座标连接而产生最佳轨迹函数108。举图9为例,目标点生成步骤S182会生成三个目标点TP,然后座标转换步骤S184会产生对应三个目标点TP的三个目标二维座标,最后轨迹生成步骤S186依据目标二维座标产生最佳轨迹函数108。此外,最佳轨迹函数108包含平面座标曲线方程式BTF、切线速度及切线加速度,其中平面座标曲线方程式BTF代表本车HV于平面座标的最佳轨迹,亦即最佳轨迹函数108的座标方程式。切线速度代表本车HV于平面座标曲线方程式BTF的切点的速度。切线加速度代表本车HV于切点的加速度。另外值得一提的是,待学习参数组102可依据运算处理单元的取样时间更新,进而更新最佳轨迹函数108;换言之,最佳轨迹函数108可依据运算处理单元的取样时间更新。
诊断步骤S20是诊断本车HV的未来行驶轨迹与当前周围场景(例如:当前道路曲率、本车车道线间距或相对距离RD)是否皆维持在安全的容忍误差内,并产生一诊断结果,借此判断自动驾驶的路线是否安全,同时通过判断方程式也可直接判断出未来行驶轨迹中,需进行校正的参数并进行校正,以提升自动驾驶的安全性。
控制步骤S22是依据诊断结果控制本车HV的自动驾驶参数,其细节为已知技术,故不再赘述。
借此,本发明的自驾车的混合决策方法100a透过基于学习模型学习驾驶避障行为,然后融合基于规则的路径规划,以建构出混合决策,既可同时处理多维度变数,亦能使系统具备学习能力,并符合轨迹规划的连续性及车辆动态限制。
请一并参阅图2至图10,其中图10是绘示本发明第三实施例的自驾车的混合决策系统200的方块示意图。自驾车的混合决策系统200用以决策出本车HV的最佳轨迹函数108,自驾车的混合决策系统200包含感测单元300、记忆体400及运算处理单元500。
感测单元300用以感测本车HV的周围场景而获得一待学习参数组102。详细地说,感测单元300包含车辆动态感测装置310、障碍物感测装置320及车道感测装置330,其中车辆动态感测装置310、障碍物感测装置320及车道感测装置330均设置于本车HV。车辆动态感测装置310依据地图信息定位本车HV的当前位置,并感测本车HV的当前航向角、当前速度及当前加速度。上述车辆动态感测装置310包含GPS、陀螺仪(Gyroscope)、里程计(Odemeter)、车速计(Speed Meter)及惯性测量单元(IMU)。再者,障碍物感测装置320感测与本车HV相距一预定距离范围内的障碍物Obj,以产生对应障碍物Obj的障碍物信息及对应本车HV的多个可行驶空间座标点。障碍物信息包含对应障碍物Obj的障碍物当前位置、障碍物速度及障碍物加速度。此外,车道感测装置330感测本车车道线间距与道路曲率。上述障碍物感测装置320及车道感测装置330包含Lidar、Radar及相机。其结构细节为已知技术,故不再赘述。
记忆体400用以存取待学习参数组102、多个场景类别104、基于学习模型及基于规则模型,且记忆体400用以存取地图信息,此地图信息相关于本车HV所行驶的路线。
运算处理单元500电性连接记忆体400与感测单元300,运算处理单元500经配置以实施自驾车的混合决策方法100、100a,其可为微处理器、电子控制单元(ElectronicControl Unit;ECU)、计算机、移动装置或其他运算处理器。
借此,本发明的自驾车的混合决策系统200利用基于学习模型学习驾驶避障行为,然后融合基于规则的路径规划,以建构出混合决策,既可同时处理多维度变数,亦具备学习能力,并符合及车辆动态限制及轨迹规划的连续性。
由上述实施方式可知,本发明具有下列优点:其一,透过基于学习模型学习驾驶避障行为,然后融合基于规则的路径规划,以建构出混合决策,不但可同时处理多维度变数,还具备学习能力,并符合轨迹规划的连续性及车辆动态限制。其二,基于规则模型透过特定场景类别及特定关键参数所规划出的轨迹已是最佳轨迹,可解决已知技术中需要生成多条轨迹而择一的额外筛选作动的问题。其三,待学习参数组可依据运算处理单元的取样时间随时更新,进而随时更新最佳轨迹函数,进而大幅地提升自动驾驶的安全性与实用性。
虽然本发明已以实施方式揭露如上,然其并非用以限定本发明,任何熟悉此技艺者,在不脱离本发明的精神和范围内,当可作各种的更动与润饰,因此本发明的保护范围当视所附的权利要求书所界定的范围为准。
Claims (20)
1.一种自驾车的混合决策方法,用以决策出一本车的一最佳轨迹函数,其特征在于,该自驾车的混合决策方法包含以下步骤:
一参数获得步骤,是驱动一感测单元感测该本车的一周围场景而获得一待学习参数组,并将该待学习参数组储存至一记忆体;
一基于学习的场景决策步骤,是驱动一运算处理单元接收来自该记忆体的该待学习参数组,并依据该待学习参数组与一基于学习模型从多个场景类别中判别出符合该本车的该周围场景的其中一该场景类别;
一基于学习的参数优化步骤,是驱动该运算处理单元将该待学习参数组执行该基于学习模型而产生一关键参数组;以及
一基于规则的路径规划步骤,是驱动该运算处理单元将该其中一场景类别及该关键参数组执行一基于规则模型而规划出该最佳轨迹函数。
2.根据权利要求1所述的自驾车的混合决策方法,其特征在于,该待学习参数组包含:
一本车道路宽,代表该本车所在的一道路的一宽度;
一相对距离,代表该本车与一障碍物的一距离;
一障碍物长度,代表该障碍物的一长度;及
一障碍物侧向距离,代表该障碍物离一车道中心线的一距离。
3.根据权利要求1所述的自驾车的混合决策方法,其特征在于,该参数获得步骤包含:
一信息感测步骤,包含:
一车辆动态感测步骤,是驱动一车辆动态感测装置依据一地图信息定位该本车的一当前位置与一路口停止线,并感测该本车的一当前航向角、一当前速度及一当前加速度;
一障碍物感测步骤,是驱动一障碍物感测装置感测与该本车相距一预定距离范围内的一障碍物,以产生对应该障碍物的一障碍物信息及对应该本车的多个可行驶空间座标点,该障碍物信息包含对应该障碍物的一障碍物当前位置、一障碍物速度及一障碍物加速度;及
一车道感测步骤,是驱动一车道感测装置感测一本车车道线间距及一道路曲率。
4.根据权利要求3所述的自驾车的混合决策方法,其特征在于,该参数获得步骤还包含:
一数据处理步骤,由该运算处理单元配置实施,该数据处理步骤包含:
一裁切步骤,是依据一预设时间间隔与一预设偏航变化率裁切对应该本车的该当前位置、该当前航向角、该当前速度、该当前加速度、该障碍物信息、该些可行驶空间座标点、该本车车道线间距及该道路曲率而产生一裁切数据;
其中,该本车与该障碍物之间存在一碰撞时间间隔,该本车具有一偏航率;当该碰撞时间间隔小于等于该预设时间间隔时,启动该裁切步骤;当该偏航率的变化小于等于该预设偏航变化率时,停止该裁切步骤。
5.根据权利要求4所述的自驾车的混合决策方法,其特征在于,该数据处理步骤还包含:
一分群步骤,是依据多个预设加速度范围及多个对向障碍物信息将该裁切数据分群为多个群体,该些预设加速度范围包含一保守预设加速度范围与一常态预设加速度范围,该些对向障碍物信息包含一对向有障碍物信息与一对向无障碍物信息,该些群体包含一保守群体与一常态群体,该保守预设加速度范围与该对向无障碍物信息对应该保守群体,且该常态预设加速度范围与该对向有障碍物信息对应该常态群体。
6.根据权利要求4所述的自驾车的混合决策方法,其特征在于,该数据处理步骤还包含:
一镜射步骤,是依据各该场景类别沿一车辆行进方向将一本车轨迹函数镜射而产生一镜射后本车轨迹函数,该待学习参数组包含该镜射后本车轨迹函数。
7.根据权利要求1所述的自驾车的混合决策方法,其特征在于,该基于学习的参数优化步骤包含:
一基于学习的驾驶行为产生步骤,是依据该基于学习模型将该待学习参数组学习而产生一已学习行为参数组,该待学习参数组包含一驾驶行径路线参数组与一驾驶加减速行为参数组;及
一关键参数产生步骤,是将该已学习行为参数组的一系统作动参数组运算而求得一系统作动时间点,并将该系统作动时间点、一目标点纵向距离、一目标点横向距离、一目标点曲率、一本车速度及一目标速度组合形成一关键参数组。
8.根据权利要求7所述的自驾车的混合决策方法,其特征在于,
该已学习行为参数组包含该系统作动参数组、该目标点纵向距离、该目标点横向距离、该目标点曲率、该本车速度及该目标速度;及
该系统作动参数组包含该本车速度、一本车加速度、一方向盘角度、一偏航率、一相对距离及一障碍物侧向距离。
9.根据权利要求1所述的自驾车的混合决策方法,其特征在于,该最佳轨迹函数包含:
一平面座标曲线方程式,代表该本车于一平面座标的一最佳轨迹;
一切线速度,代表该本车于该平面座标曲线方程式的一切点的一速度;及
一切线加速度,代表该本车于该切点的一加速度;
其中,该最佳轨迹函数依据该运算处理单元的一取样时间更新。
10.根据权利要求1所述的自驾车的混合决策方法,其特征在于,该些场景类别包含:
一障碍物占据场景,包含一障碍物占据百分比,该障碍物占据场景代表该周围场景中具有一障碍物与一道路,该障碍物占据百分比代表该障碍物占据该道路的一比例;
一路口场景,代表该周围场景中具有一路口;及
一进出站场景,代表该周围场景中具有一进出站。
11.一种自驾车的混合决策系统,用以决策出一本车的一最佳轨迹函数,其特征在于该自驾车的混合决策系统包含:
一感测单元,用以感测该本车的一周围场景而获得一待学习参数组;
一记忆体,用以存取该待学习参数组、多个场景类别、一基于学习模型及一基于规则模型;以及
一运算处理单元,电性连接该记忆体与该感测单元,该运算处理单元经配置以实施包含以下步骤的操作:
一基于学习的场景决策步骤,是依据该待学习参数组与该基于学习模型从该些场景类别中判别出符合该本车的该周围场景的其中一该场景类别;
一基于学习的参数优化步骤,是将该待学习参数组执行该基于学习模型而产生一关键参数组;及
一基于规则的路径规划步骤,是将该其中一场景类别及该关键参数组执行该基于规则模型而规划出该最佳轨迹函数。
12.根据权利要求11所述的自驾车的混合决策系统,其特征在于,该待学习参数组包含:
一本车道路宽,代表该本车所在的一道路的一宽度;
一相对距离,代表该本车与一障碍物的一距离;
一障碍物长度,代表该障碍物的一长度;及
一障碍物侧向距离,代表该障碍物离一车道中心线的一距离。
13.根据权利要求11所述的自驾车的混合决策系统,其特征在于,
该记忆体用以存取一地图信息,该地图信息相关于该本车所行驶的一路线;及
该感测单元包含:
一车辆动态感测装置,依据该地图信息定位该本车的一当前位置,并感测该本车的一当前航向角、一当前速度及一当前加速度;
一障碍物感测装置,感测与该本车相距一预定距离范围内的一障碍物,以产生对应该障碍物的一障碍物信息及对应该本车的多个可行驶空间座标点,该障碍物信息包含对应该障碍物的一障碍物当前位置、一障碍物速度及一障碍物加速度;及
一车道感测装置,感测一本车车道线间距与一道路曲率。
14.根据权利要求13所述的自驾车的混合决策系统,其特征在于,该运算处理单元经配置以实施一数据处理步骤,该数据处理步骤包含:
一裁切步骤,是依据一预设时间间隔与一预设偏航变化率裁切对应该本车的该当前位置、该当前航向角、该当前速度、该当前加速度、该障碍物信息、该些可行驶空间座标点、该本车车道线间距及该道路曲率而产生一裁切数据;
其中,该本车与该障碍物之间存在一碰撞时间间隔,该本车具有一偏航率;当该碰撞时间间隔小于等于该预设时间间隔时,启动该裁切步骤;当该偏航率的变化小于等于该预设偏航变化率时,停止该裁切步骤。
15.根据权利要求14所述的自驾车的混合决策系统,其特征在于,该数据处理步骤还包含:
一分群步骤,是依据多个预设加速度范围及多个对向障碍物信息将该裁切数据分群为多个群体,该些预设加速度范围包含一保守预设加速度范围与一常态预设加速度范围,该些对向障碍物信息包含一对向有障碍物信息与一对向无障碍物信息,该些群体包含一保守群体与一常态群体,该保守预设加速度范围与该对向无障碍物信息对应该保守群体,且该常态预设加速度范围与该对向有障碍物信息对应该常态群体。
16.根据权利要求14所述的自驾车的混合决策系统,其特征在于,该数据处理步骤还包含:
一镜射步骤,是依据各该场景类别沿一车辆行进方向将一本车轨迹函数镜射而产生一镜射后本车轨迹函数,该待学习参数组包含该镜射后本车轨迹函数。
17.根据权利要求11所述的自驾车的混合决策系统,其特征在于,该基于学习的参数优化步骤包含:
一基于学习的驾驶行为产生步骤,是依据该基于学习模型将该待学习参数组学习而产生一已学习行为参数组,该待学习参数组包含一驾驶行径路线参数组与一驾驶加减速行为参数组;及
一关键参数产生步骤,是将该已学习行为参数组的一系统作动参数组运算而求得一系统作动时间点,并将该系统作动时间点、一目标点纵向距离、一目标点横向距离、一目标点曲率、一本车速度及一目标速度组合形成一关键参数组。
18.根据权利要求17所述的自驾车的混合决策系统,其特征在于,
该已学习行为参数组包含该系统作动参数组、该目标点纵向距离、该目标点横向距离、该目标点曲率、该本车速度及该目标速度;及
该系统作动参数组包含该本车速度、一本车加速度、一方向盘角度、一偏航率、一相对距离及一障碍物侧向距离。
19.根据权利要求11所述的自驾车的混合决策系统,其特征在于,该最佳轨迹函数包含:
一平面座标曲线方程式,代表该本车于一平面座标的一最佳轨迹;
一切线速度,代表该本车于该平面座标曲线方程式的一切点的一速度;及
一切线加速度,代表该本车于该切点的一加速度;
其中,该最佳轨迹函数依据该运算处理单元的一取样时间更新。
20.根据权利要求11所述的自驾车的混合决策系统,其特征在于,该些场景类别包含:
一障碍物占据场景,包含一障碍物占据百分比,该障碍物占据场景代表该周围场景中具有一障碍物与一道路,该障碍物占据百分比代表该障碍物占据该道路的一比例;
一路口场景,代表该周围场景中具有一路口;及
一进出站场景,代表该周围场景中具有一进出站。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010913886.4A CN114217601B (zh) | 2020-09-03 | 2020-09-03 | 自驾车的混合决策方法及其系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010913886.4A CN114217601B (zh) | 2020-09-03 | 2020-09-03 | 自驾车的混合决策方法及其系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114217601A true CN114217601A (zh) | 2022-03-22 |
CN114217601B CN114217601B (zh) | 2024-02-27 |
Family
ID=80695583
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010913886.4A Active CN114217601B (zh) | 2020-09-03 | 2020-09-03 | 自驾车的混合决策方法及其系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114217601B (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190025841A1 (en) * | 2017-07-21 | 2019-01-24 | Uber Technologies, Inc. | Machine Learning for Predicting Locations of Objects Perceived by Autonomous Vehicles |
CN110007675A (zh) * | 2019-04-12 | 2019-07-12 | 北京航空航天大学 | 一种基于行车态势图的车辆自动驾驶决策系统及基于无人机的训练集制备方法 |
CN110304045A (zh) * | 2019-06-25 | 2019-10-08 | 中国科学院自动化研究所 | 智能驾驶横向换道决策方法、系统和装置 |
CN110568760A (zh) * | 2019-10-08 | 2019-12-13 | 吉林大学 | 适用于换道及车道保持的参数化学习决策控制系统及方法 |
US20200026268A1 (en) * | 2015-11-11 | 2020-01-23 | Hitachi, Ltd. | Control device and diagnosis system |
CN111489578A (zh) * | 2020-04-01 | 2020-08-04 | 北京理工大学 | 一种基于车道时空间隙的高速道路无人驾驶决策规划方法 |
CN113242958A (zh) * | 2018-09-14 | 2021-08-10 | 华为技术有限公司 | 自动运载工具分层规划系统及方法 |
-
2020
- 2020-09-03 CN CN202010913886.4A patent/CN114217601B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200026268A1 (en) * | 2015-11-11 | 2020-01-23 | Hitachi, Ltd. | Control device and diagnosis system |
US20190025841A1 (en) * | 2017-07-21 | 2019-01-24 | Uber Technologies, Inc. | Machine Learning for Predicting Locations of Objects Perceived by Autonomous Vehicles |
CN113242958A (zh) * | 2018-09-14 | 2021-08-10 | 华为技术有限公司 | 自动运载工具分层规划系统及方法 |
CN110007675A (zh) * | 2019-04-12 | 2019-07-12 | 北京航空航天大学 | 一种基于行车态势图的车辆自动驾驶决策系统及基于无人机的训练集制备方法 |
CN110304045A (zh) * | 2019-06-25 | 2019-10-08 | 中国科学院自动化研究所 | 智能驾驶横向换道决策方法、系统和装置 |
CN110568760A (zh) * | 2019-10-08 | 2019-12-13 | 吉林大学 | 适用于换道及车道保持的参数化学习决策控制系统及方法 |
CN111489578A (zh) * | 2020-04-01 | 2020-08-04 | 北京理工大学 | 一种基于车道时空间隙的高速道路无人驾驶决策规划方法 |
Non-Patent Citations (1)
Title |
---|
熊璐;康宇宸;张培志;朱辰宇;余卓平;: "无人驾驶车辆行为决策系统研究", 汽车技术, no. 08 * |
Also Published As
Publication number | Publication date |
---|---|
CN114217601B (zh) | 2024-02-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3699048B1 (en) | Travelling track prediction method and device for vehicle | |
US11897518B2 (en) | Systems and methods for navigating with sensing uncertainty | |
US10970790B2 (en) | Safe state to safe state navigation | |
US20210142421A1 (en) | Navigation Based on Liability Constraints | |
EP3566106B1 (en) | Trajectory selection for an autonomous vehicle | |
US10824153B2 (en) | Cost design for path selection in autonomous driving technology | |
JP4416020B2 (ja) | 走行計画生成装置 | |
US11685371B2 (en) | Extension to safety protocols for autonomous vehicle operation | |
US20220080961A1 (en) | Control system and control method for sampling based planning of possible trajectories for motor vehicles | |
Raju et al. | Performance of open autonomous vehicle platforms: Autoware and Apollo | |
US20230286536A1 (en) | Systems and methods for evaluating domain-specific navigation system capabilities | |
CN113997950A (zh) | 车辆控制装置和车辆控制方法 | |
JP3973008B2 (ja) | 安全走行支援装置、その方法及び記録媒体 | |
CN114074681A (zh) | 基于概率的车道变更决策和运动规划系统及其方法 | |
Bonnin et al. | A generic concept of a system for predicting driving behaviors | |
CN112660128B (zh) | 用于确定自动驾驶车辆的车道变更路径的设备及其方法 | |
CN113895456A (zh) | 自动驾驶车辆的交叉路口行驶方法、装置、车辆及介质 | |
CN111830958A (zh) | 用于操作自动驾驶车辆的方法、系统和机器可读介质 | |
CN115140096A (zh) | 一种基于样条曲线与多项式曲线的自动驾驶轨迹规划方法 | |
WO2023097874A1 (zh) | 用于行驶轨迹规划的方法和装置 | |
CN114834443A (zh) | 车辆控制的方法、装置、控制器和智能汽车 | |
CN114475656A (zh) | 行驶轨迹预测方法、装置、电子设备以及存储介质 | |
US20220121213A1 (en) | Hybrid planning method in autonomous vehicle and system thereof | |
CN113525358B (zh) | 车辆控制装置以及车辆控制方法 | |
CN117227714A (zh) | 一种自动驾驶车辆转弯避让控制方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |