CN115200586B - 基于协同感知和智能边缘计算的自动驾驶路径规划方法 - Google Patents
基于协同感知和智能边缘计算的自动驾驶路径规划方法 Download PDFInfo
- Publication number
- CN115200586B CN115200586B CN202210830286.0A CN202210830286A CN115200586B CN 115200586 B CN115200586 B CN 115200586B CN 202210830286 A CN202210830286 A CN 202210830286A CN 115200586 B CN115200586 B CN 115200586B
- Authority
- CN
- China
- Prior art keywords
- task
- calculation
- road side
- collaborative
- target automobile
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004364 calculation method Methods 0.000 title claims abstract description 65
- 238000000034 method Methods 0.000 title claims abstract description 26
- 230000008447 perception Effects 0.000 claims abstract description 28
- 238000004891 communication Methods 0.000 claims abstract description 25
- 238000013468 resource allocation Methods 0.000 claims abstract description 20
- 238000012545 processing Methods 0.000 claims abstract description 18
- 230000004927 fusion Effects 0.000 claims abstract description 10
- 230000002093 peripheral effect Effects 0.000 claims description 15
- 230000005540 biological transmission Effects 0.000 claims description 11
- 238000005265 energy consumption Methods 0.000 claims description 9
- 239000000284 extract Substances 0.000 claims description 4
- 238000005516 engineering process Methods 0.000 description 11
- 238000001514 detection method Methods 0.000 description 4
- 230000033001 locomotion Effects 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/3453—Special cost functions, i.e. other than distance or default speed limit of road segments
- G01C21/3461—Preferred or disfavoured areas, e.g. dangerous zones, toll or emission zones, intersections, manoeuvre types, segments such as motorways, toll roads, ferries
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/3453—Special cost functions, i.e. other than distance or default speed limit of road segments
- G01C21/3476—Special cost functions, i.e. other than distance or default speed limit of road segments using point of interest [POI] information, e.g. a route passing visible POIs
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Traffic Control Systems (AREA)
Abstract
本公开实施例中提供了一种基于协同感知和智能边缘计算的自动驾驶路径规划方法,属于计算技术领域,具体包括:目标汽车发起感知任务,规划感知任务对应的兴趣区域;做出协同感知任务分配决策;为参与协同感知任务的周边车辆做出计算卸载决策;为接受卸载的路侧单元做出资源分配决策;将计算卸载决策和协同感知任务分配决策同步至路侧单元和周边车辆中,以及,将资源分配决策同步至路侧单元中;进行协同感知数据的采集与计算任务的卸载,任务处理结果通过车间通信和车路通信的链路返回至目标汽车;目标汽车将任务处理结果进行信息融合并根据融合后的结果进行轨迹预测和路径规划。通过本公开的方案,提高了路径规划的效率、精准度和适应性。
Description
技术领域
本公开实施例涉及计算技术领域,尤其涉及一种基于协同感知和智能边缘计算的自动驾驶路径规划方法。
背景技术
目前,为保证自动驾驶技术的安全性,自动驾驶车辆上通常配有各种各样的传感器,如摄像头、毫米波雷达、惯性测量单元等。然而,自动驾驶车辆由于天气、障碍物、光线等原因不可避免地存在视野盲区,单凭自动驾驶汽车(Autonomous Vehicles,简称AVs)上有限的传感器无法满足自动驾驶技术对动态环境进行实时观察的要求。视野盲区对自动驾驶车辆路径规划的可靠性带来极大的挑战。车路协同技术利用路侧单元以及附近车辆的传感器,为自动驾驶汽车提供了其盲区的传感信息。在基于车路协同的自动驾驶系统中,路侧单元(Roadside Units,简称RSUs)、AV相互协作,以延伸自动驾驶汽车的视线。协同感知信息经计算处理,其结果通过车间(Vehicle to Vehicle,简称V2V)通信与车路(Vehicle toInstructure,简称V2I)通信返回至TAV,为TAV的路径规划提供了更全面、更完整的信息,使得自动驾驶的安全性大大提升。
基于视觉传感器的协同感知技术通过摄像头成像,捕捉实时高清画面。捕捉到的画面以视频帧为单位,利用计算机视觉算法、深度学习、神经网络等技术,进行分析处理。视频采集的像素点多且分辨率高,广角摄像头、旋转摄像头等视觉传感器的动态范围广,对采集到的视频图像进行分析处理,能得到准确可靠的路面动静态分析结果。自动驾驶汽车利用计算结果中包含的信息,如道路标志、路面坑洼、行人、车等,对自身路径规划做出合理预判。近年来,车辆编排技术在自动驾驶领域中展现其风采。头车通过对传感数据分析计算,做出驾驶决策。其驾驶决策通过V2V通信传至跟随车辆。有文献提出将智能计算卸载技术运用到车辆编排系统中,通过车间计算卸载缓解头车的计算压力。然而,该架构无法解决头车视线盲区的问题。
可见,亟需一种精准高效且适应性强的于协同感知和智能边缘计算的自动驾驶路径规划方法。
发明内容
有鉴于此,本公开实施例提供一种基于协同感知和智能边缘计算的自动驾驶路径规划方法,至少部分解决现有技术中存在轨迹预测和路径规划效率、精准度和适应性较差的问题。
本公开实施例提供了一种基于协同感知和智能边缘计算的自动驾驶路径规划方法,包括:
步骤1,目标汽车发起感知任务,规划所述感知任务对应的兴趣区域,并将所述感知任务同步至中央单元;
步骤2,所述中央单元提取所述兴趣区域的区域特点,并根据所述区域特点、路侧单元、所述目标汽车周边车辆的位置向所述路侧单元、所述目标汽车及其周边车辆做出协同感知任务分配决策;
步骤3,所述中央单元根据参与协同感知任务的路侧单元和周边车辆的计算能力,为参与所述协同感知任务的周边车辆做出计算卸载决策;
步骤4,所述中央单元为接受卸载的路侧单元做出资源分配决策;
步骤5,所述中央单元将所述计算卸载决策和所述协同感知任务分配决策同步至参与所述协同感知任务的路侧单元和周边车辆中,以及,将所述资源分配决策同步至参与所述协同感知任务的路侧单元中;
步骤6,参与所述协同感知任务的路侧单元和周边车辆进行协同感知数据的采集与计算任务的卸载,任务处理结果通过车间通信和车路通信的链路返回至所述目标汽车;
步骤7,所述目标汽车将所述任务处理结果进行信息融合并根据融合后的结果进行轨迹预测和路径规划。
根据本公开实施例的一种具体实现方式,所述步骤2具体包括:
针对所述兴趣区域,将所述目标汽车能观察到的区域定义为可见区,将所述目标汽车的视觉传感器后方的区域定义为后盲区,以及,将所述目标汽车前方被障碍物遮挡的区域定义为前盲区;
将所述可见区内的感知任务分配至所述目标汽车;
将所述前盲区和所述后盲区内的感知任务分配至所述路侧单元和所述目标汽车周边车辆。
根据本公开实施例的一种具体实现方式,所述可见区的表达式为{Dv,α,φ},其中,Dv为传感半径,α为所述目标汽车能观察到的区域的可见顶角,φ为所述目标汽车能观察到的区域的中线与路边垂线所成角的差角。
根据本公开实施例的一种具体实现方式,所述协同感知任务分配决策以基于空间约束求解。
根据本公开实施例的一种具体实现方式,所述计算卸载决策以时延或能耗为最小化目标,以计算资源为约束进行分配。
根据本公开实施例的一种具体实现方式,所述资源分配决策以最小化协同感知任务的传输时延或者传输能耗为原则,遵循计算资源守恒约束。
根据本公开实施例的一种具体实现方式,所述步骤6具体包括:
对于本地计算的任务,所述周边车辆利用自身计算资源完成;
对于计算卸载的任务,所述路侧单元根据计算卸载的资源分配决策,为相应任务分配对应比例的计算资源;
任务处理结果通过车间通信和车路通信的链路返回至所述目标汽车。
本公开实施例中的基于协同感知和智能边缘计算的自动驾驶路径规划方案,包括:步骤1,目标汽车发起感知任务,规划所述感知任务对应的兴趣区域,并将所述感知任务同步至中央单元;步骤2,所述中央单元提取所述兴趣区域的区域特点,并根据所述区域特点、路侧单元、所述目标汽车周边车辆的位置向所述路侧单元、所述目标汽车及其周边车辆做出协同感知任务分配决策;步骤3,所述中央单元根据参与协同感知任务的路侧单元和周边车辆的计算能力,为参与所述协同感知任务的周边车辆做出计算卸载决策;步骤4,所述中央单元为接受卸载的路侧单元做出资源分配决策;步骤5,所述中央单元将所述计算卸载决策和所述协同感知任务分配决策同步至参与所述协同感知任务的路侧单元和周边车辆中,以及,将所述资源分配决策同步至参与所述协同感知任务的路侧单元中;步骤6,参与所述协同感知任务的路侧单元和周边车辆进行协同感知数据的采集与计算任务的卸载,任务处理结果通过车间通信和车路通信的链路返回至所述目标汽车;步骤7,所述目标汽车将所述任务处理结果进行信息融合并根据融合后的结果进行轨迹预测和路径规划。
本公开实施例的有益效果为:通过本公开的方案,结合协同感知技术与智能边缘计算卸载技术,自动驾驶车辆的盲区信息得以补充,自动驾驶车辆的计算资源瓶颈得以缓解,协同感知任务的输入数据由参与协同感知的对象利用本地摄像头进行分布式采集,采集后的数据可在本地计算,也可以进行计算卸载。基于协同感知和智能计算卸载的自动驾驶系统能快速获取更全面、更完整的感知计算结果信息,从而更精准高效地为自动驾驶车辆做出合理的路径规划决策。
附图说明
为了更清楚地说明本公开实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1为本公开实施例提供的一种基于协同感知和智能边缘计算的自动驾驶路径规划方法的流程示意图;
图2为本公开实施例提供的一种基于协同感知和计算卸载的自动驾驶系统示意图;
图3为本公开实施例提供的一种自动驾驶汽车摄像头视野示意图;
图4为本公开实施例提供的一种自动驾驶路径规划流程图;
图5为本公开实施例提供的一种自动驾驶技术各阶段示意图。
具体实施方式
下面结合附图对本公开实施例进行详细描述。
以下通过特定的具体实例说明本公开的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本公开的其他优点与功效。显然,所描述的实施例仅仅是本公开一部分实施例,而不是全部的实施例。本公开还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本公开的精神下进行各种修饰或改变。需说明的是,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。基于本公开中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本公开保护的范围。
需要说明的是,下文描述在所附权利要求书的范围内的实施例的各种方面。应显而易见,本文中所描述的方面可体现于广泛多种形式中,且本文中所描述的任何特定结构及/或功能仅为说明性的。基于本公开,所属领域的技术人员应了解,本文中所描述的一个方面可与任何其它方面独立地实施,且可以各种方式组合这些方面中的两者或两者以上。举例来说,可使用本文中所阐述的任何数目个方面来实施设备及/或实践方法。另外,可使用除了本文中所阐述的方面中的一或多者之外的其它结构及/或功能性实施此设备及/或实践此方法。
还需要说明的是,以下实施例中所提供的图示仅以示意方式说明本公开的基本构想,图式中仅显示与本公开中有关的组件而非按照实际实施时的组件数目、形状及尺寸绘制,其实际实施时各组件的型态、数量及比例可为一种随意的改变,且其组件布局型态也可能更为复杂。
另外,在以下描述中,提供具体细节是为了便于透彻理解实例。然而,所属领域的技术人员将理解,可在没有这些特定细节的情况下实践所述方面。
本公开实施例提供一种基于协同感知和智能边缘计算的自动驾驶路径规划方法,所述方法可以应用于自动驾驶场景的汽车路径规划过程中。
参见图1,为本公开实施例提供的一种基于协同感知和智能边缘计算的自动驾驶路径规划方法的流程示意图。如图1所示,所述方法主要包括以下步骤:
步骤1,目标汽车发起感知任务,规划所述感知任务对应的兴趣区域,并将所述感知任务同步至中央单元;
具体实施时,考虑到需要解决自动驾驶路径规划中的感知盲区、资源受限问题,本发明提出了一种基于车路协同和只能边缘计算的自动驾驶汽车路径规划方案。本发明采用车路协同和只能边缘计算的复合框架,该框架包含配有传感器的RSU、AV,其中,每个RSU上装配了一个server,为系统补充计算资源。此外,每个AV可利用其有限的计算能力执行一定量的计算任务。本发明考虑有限长度的单向双道的直线路段。注意到任何的拐弯路段、十字路口等复杂路段均可划分成无限小的有限单向路段,因此,本发明提出的场景可适用于现实复杂路段。基于车路协同和智能计算卸载的系统中,包含N个RSU,M个AV,RSU的监控覆盖半径、V2I通信半径均为Dr,为保证给该路段全部被RSU监控,RSU的部署间隔为2Dr。位于RSU的server具有计算资源fr。
在M辆AV中,有一辆AV欲变道,需要进行路径规划,称该AV为任务AV(TAV),当所述目标汽车TAV在即将进行的变道操作进行路径规划前,需要对周围区域的路面情况进行观察。将TAV感兴趣的区域(Region of Interest,RoI)表述成一个长为DRoI,宽为道路宽度的矩形。TAV要对该矩形RoI区域执行环境感知任务。设该RoI区域面积为Space,对应的感知任务为C,并将所述感知任务同步至所述中央单元。
步骤2,所述中央单元提取所述兴趣区域的区域特点,并根据所述区域特点、路侧单元、所述目标汽车周边车辆的位置向所述路侧单元、所述目标汽车及其周边车辆做出协同感知任务分配决策;
进一步的,所述步骤2具体包括:
针对所述兴趣区域,将所述目标汽车能观察到的区域定义为可见区,将所述目标汽车的视觉传感器后方的区域定义为后盲区,以及,将所述目标汽车前方被障碍物遮挡的区域定义为前盲区;
将所述可见区内的感知任务分配至所述目标汽车;
将所述前盲区和所述后盲区内的感知任务分配至所述路侧单元和所述目标汽车周边车辆。
可选的,所述可见区的表达式为{Dv,α,φ},其中,Dv为传感半径,α为所述目标汽车能观察到的区域的可见顶角,φ为所述目标汽车能观察到的区域的中线与路边垂线所成角的差角。
可选的,所述协同感知任务分配决策以基于空间约束求解。
具体实施时,TAV在即将进行的变道操作进行路径规划前,需要对周围区域的路面情况进行观察。将TAV感兴趣的区域(Region of Interest,RoI)表述成一个长为DRoI,宽为道路宽度的矩形。TAV要对该矩形RoI区域执行环境感知任务。设该RoI区域面积为Space,对应的感知任务为C。然而,在RoI区域内,由于前方车辆的阻挡以及TAV自身传感器的感知范围限制,TAV会不可避免地产生盲区。设RoI区域内,TAV前方的盲区为SpaceF,TAV后方的盲区为SpaceB,对应协同感知任务为Cf,Cb。RoI除盲区外的区域为SpaceV,AV的视觉传感可见区(Field of View,Fov)表述为{Dv,α,φ},其中,Dv为传感半径;α为FoV顶角,由相机的光圈孔径决定;φ为α/2、FoV中线与路边垂线所成角的差角,由相机方位决定。AV为计算资源为fv,V2V通信半径为R。对应协同感知任务为Cv。则有Space=SpaceF∪SpaceB∪SpaceV,C=Cf∪Cb∪Cv。由于感知任务Cf、Cb超出TAV传感器的感知范围,TAV只能完成感知任务Cv。通过将感知任务Cf、Cb分配给周围的AV、RSU,TAV可以观察到自身视线范围外的情况。参与协同感知的AV、RSU帮助TAV完成盲区部分的环境数据采集、计算、处理,协同感知计算结果返回至TAV,TAV进行信息融合,做出路径规划决策。AV、RSU相互配合,协同感知,自动驾驶的安全性进一步提升。
步骤3,所述中央单元根据参与协同感知任务的路侧单元和周边车辆的计算能力,为参与所述协同感知任务的周边车辆做出计算卸载决策;
可选的,所述计算卸载决策以时延或能耗为最小化目标,以计算资源为约束进行分配。
具体实施时,考虑到参与协同感知的AV的计算卸载决策应当考量AV自身的计算能力以及其所属区域的RSU计算资源情况。对于三个计算任务的计算资源要求L*M1/T1,L*M2/T2,L*M3/T3,若AV自身计算能力不足以提供足量的计算资源,则该计算任务应当通过V2I链路卸载至边缘server。但计算卸载是以传输时延、能耗为代价的。对于协同感知任务,其数据量较大,若将所有AV的计算任务全部卸载至server,则会引起较高的传输时延、能耗,甚至网络拥塞。因此,计算卸载应当在衡量传输时延、计算资源后做出合理决策。
步骤4,所述中央单元为接受卸载的路侧单元做出资源分配决策;
可选的,所述资源分配决策以最小化协同感知任务的传输时延或者传输能耗为原则,遵循计算资源守恒约束。
具体实施时,可以由所述中央单元为接受卸载的路侧单元做出资源分配决策,计算资源的分配决策,以最小化协同感知任务的传输时延或者传输能耗为原则,遵循计算资源守恒约束,即RSU分配给各个协同感知计算任务的资源比例和为1。
步骤5,所述中央单元将所述计算卸载决策和所述协同感知任务分配决策同步至参与所述协同感知任务的路侧单元和周边车辆中,以及,将所述资源分配决策同步至参与所述协同感知任务的路侧单元中;
具体实施时,所述中央单元可以将所述计算卸载决策和所述协同感知任务分配决策同步至参与所述协同感知任务的路侧单元和周边车辆中,以及,将所述资源分配决策同步至参与所述协同感知任务的路侧单元中,以通知相应的RSU、AV参与协同感知。并将计算卸载的资源分配决策同步至各个RSU。
步骤6,参与所述协同感知任务的路侧单元和周边车辆进行协同感知数据的采集与计算任务的卸载,任务处理结果通过车间通信和车路通信的链路返回至所述目标汽车;
在上述实施例的基础上,所述步骤6具体包括:
对于本地计算的任务,所述周边车辆利用自身计算资源完成;
对于计算卸载的任务,所述路侧单元根据计算卸载的资源分配决策,为相应任务分配对应比例的计算资源;
任务处理结果通过车间通信和车路通信的链路返回至所述目标汽车。
具体实施时,对于本地计算的任务,AV利用自身计算资源完成;对于计算卸载的任务,RSU根据计算卸载的资源分配决策,为相应任务分配对应比例的计算资源,所有协同感知的计算任务在这一阶段进行处理,然后将任务处理结果通过车间通信和车路通信的链路返回至所述目标汽车。
步骤7,所述目标汽车将所述任务处理结果进行信息融合并根据融合后的结果进行轨迹预测和路径规划。
具体实施时,所述目标汽车将通过V2V、V2I链路返回所有参与协同感知的AV、RSU的计算结果进行数据融合,然后TAV根据信息融合的结果进行轨迹预测并做出路径规划。
本实施例提供的基于协同感知和智能边缘计算的自动驾驶路径规划方法,通过结合协同感知技术与智能边缘计算卸载技术,自动驾驶车辆的盲区信息得以补充,自动驾驶车辆的计算资源瓶颈得以缓解,协同感知任务的输入数据由参与协同感知的对象利用本地摄像头进行分布式采集,采集后的数据可在本地计算,也可以进行计算卸载。基于协同感知和智能计算卸载的自动驾驶系统能快速获取更全面、更完整的感知计算结果信息,从而更精准高效地为自动驾驶车辆做出合理的路径规划决策。
下面将结合一个具体实施例对本方案进行说明,如图2所示,考虑具有一个RSU、若干个AV的系统,RSU上装有360°摄像头,其覆盖范围为一个半径为Dr的圆。RSU能进行V2I通信范围的半径也为Dr。此外,RSU配置了一个计算能力为fr的边缘server,使得RSU能为其通信覆盖范围内的AV提供计算卸载服务。现要为TAV进行路径规划,定义TAV的RoI为长度为DRoI,宽度为道路宽度的矩形。由于前方车辆的阻挡以及TAV自身的有限视野,在TAV前方、后方的RoI区域会包含视野盲区。前方视野盲区被前方AV的视觉传感器覆盖,后方视野盲区被RSU的摄像头覆盖。因此,相应区域的感知任务可由对应的AV、RSU协同完成。参与本次协同感知的TAV、AV、RSU都要由一个感知任务。
由于自身计算能力受限,AV、TAV可将部分计算任务卸载给计算资源丰富的RSU,以加速任务处理进程。参与协同感知的AV、RSU形成分布式处理结果,处理后的计算结果返回给TAV,作为其路径规划的输入。TAV融合各信息做出合理的行动决策。
如图3所示,自动驾驶汽车的视觉传感可见区(Field of View,简称Fov)表述为{Dv,α,φ},其中,Dv为传感半径;α为FoV顶角,由相机的光圈孔径决定;φ为α/2、FoV中线与路边垂线所成角的差角,由相机方位决定。
如图4所示,从视频流采集到行动决策需要经过两个并行处理过程。一是对视频帧进行目标检测,检测的结果为对象的坐标。将目标检测结果输入至追踪器,追踪器经计算输出对象的移动情况。同时,视频帧输入至定位器,定位器输出位置结果,发送到任务决策器,以提供规划信息。位置输出结果与目标移动的结果进行数据融合,结果传递到运动规划器。运动结合数据融合结果与规划信息,做出自动驾驶的路线规划决策。
如图5所示自动驾驶技术包括传感,感知,决策三个部分。数据传感包括用激光雷达,GNSS/IMU,相机进行感知数据收集。感知阶段,自动驾驶车辆利用深度神经网络、卷积神经网络进行目标检测、目标追踪、定位。决策阶段,自动驾驶车辆根据感知任务的处理结果进行路径规划。
应当理解,本公开的各部分可以用硬件、软件、固件或它们的组合来实现。
以上所述,仅为本公开的具体实施方式,但本公开的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本公开揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本公开的保护范围之内。因此,本公开的保护范围应以权利要求的保护范围为准。
Claims (7)
1.一种基于协同感知和智能边缘计算的自动驾驶路径规划方法,其特征在于,包括:
步骤1,目标汽车发起感知任务,规划所述感知任务对应的兴趣区域,并将所述感知任务同步至中央单元;
步骤2,所述中央单元提取所述兴趣区域的区域特点,并根据所述区域特点、路侧单元、所述目标汽车周边车辆的位置向所述路侧单元、所述目标汽车及其周边车辆做出协同感知任务分配决策;
步骤3,所述中央单元根据参与协同感知任务的路侧单元和周边车辆的计算能力,为参与所述协同感知任务的周边车辆做出计算卸载决策;
步骤4,所述中央单元为接受卸载的路侧单元做出资源分配决策;
步骤5,所述中央单元将所述计算卸载决策和所述协同感知任务分配决策同步至参与所述协同感知任务的路侧单元和周边车辆中,以及,将所述资源分配决策同步至参与所述协同感知任务的路侧单元中;
步骤6,参与所述协同感知任务的路侧单元和周边车辆进行协同感知数据的采集与计算任务的卸载,任务处理结果通过车间通信和车路通信的链路返回至所述目标汽车;
步骤7,所述目标汽车将所述任务处理结果进行信息融合并根据融合后的结果进行轨迹预测和路径规划。
2.根据权利要求1所述的方法,其特征在于,所述步骤2具体包括:
针对所述兴趣区域,将所述目标汽车能观察到的区域定义为可见区,将所述目标汽车的视觉传感器后方的区域定义为后盲区,以及,将所述目标汽车前方被障碍物遮挡的区域定义为前盲区;
将所述可见区内的感知任务分配至所述目标汽车;
将所述前盲区和所述后盲区内的感知任务分配至所述路侧单元和所述目标汽车周边车辆。
3.根据权利要求2所述的方法,其特征在于,所述可见区的表达式为{Dv,α,φ},其中,Dv为传感半径,α为所述目标汽车能观察到的区域的可见顶角,φ为所述目标汽车能观察到的区域的中线与路边垂线所成角的差角。
4.根据权利要求1所述的方法,其特征在于,所述协同感知任务分配决策以基于空间约束求解。
5.根据权利要求1所述的方法,其特征在于,所述计算卸载决策以时延或能耗为最小化目标,以计算资源为约束进行分配。
6.根据权利要求1所述的方法,其特征在于,所述资源分配决策以最小化协同感知任务的传输时延或者传输能耗为原则,遵循计算资源守恒约束。
7.根据权利要求1所述的方法,其特征在于,所述步骤6具体包括:
对于本地计算的任务,所述周边车辆利用自身计算资源完成;
对于计算卸载的任务,所述路侧单元根据计算卸载的资源分配决策,为相应任务分配对应比例的计算资源;
任务处理结果通过车间通信和车路通信的链路返回至所述目标汽车。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210830286.0A CN115200586B (zh) | 2022-07-15 | 2022-07-15 | 基于协同感知和智能边缘计算的自动驾驶路径规划方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210830286.0A CN115200586B (zh) | 2022-07-15 | 2022-07-15 | 基于协同感知和智能边缘计算的自动驾驶路径规划方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115200586A CN115200586A (zh) | 2022-10-18 |
CN115200586B true CN115200586B (zh) | 2024-07-09 |
Family
ID=83582827
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210830286.0A Active CN115200586B (zh) | 2022-07-15 | 2022-07-15 | 基于协同感知和智能边缘计算的自动驾驶路径规划方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115200586B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116933218A (zh) * | 2023-07-13 | 2023-10-24 | 广州汽车集团股份有限公司 | 一种感知数据融合方法、系统、存储介质及车辆 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020235766A1 (ko) * | 2019-05-21 | 2020-11-26 | 엘지전자 주식회사 | 경로 제공 장치 및 그것의 경로 제공 방법 |
CN113743479A (zh) * | 2021-08-19 | 2021-12-03 | 东南大学 | 端-边-云车路协同融合感知架构及其构建方法 |
-
2022
- 2022-07-15 CN CN202210830286.0A patent/CN115200586B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020235766A1 (ko) * | 2019-05-21 | 2020-11-26 | 엘지전자 주식회사 | 경로 제공 장치 및 그것의 경로 제공 방법 |
CN113743479A (zh) * | 2021-08-19 | 2021-12-03 | 东南大学 | 端-边-云车路协同融合感知架构及其构建方法 |
Also Published As
Publication number | Publication date |
---|---|
CN115200586A (zh) | 2022-10-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Chen et al. | Cooper: Cooperative perception for connected autonomous vehicles based on 3d point clouds | |
Zhao et al. | Detection and tracking of pedestrians and vehicles using roadside LiDAR sensors | |
US10445928B2 (en) | Method and system for generating multidimensional maps of a scene using a plurality of sensors of various types | |
US11100806B2 (en) | Multi-spectral system for providing precollision alerts | |
Zhao et al. | On-road vehicle trajectory collection and scene-based lane change analysis: Part i | |
CN111554088A (zh) | 一种多功能v2x智能路侧基站系统 | |
JP2021099793A (ja) | インテリジェント交通管制システム及びその制御方法 | |
CN108877269A (zh) | 一种交叉路口车辆状态检测及v2x广播方法 | |
CN114127822B (zh) | 信息处理装置、信息处理方法以及信息处理程序 | |
CN113850102B (zh) | 基于毫米波雷达辅助的车载视觉检测方法及系统 | |
Pantilie et al. | Real-time obstacle detection using dense stereo vision and dense optical flow | |
US10832428B2 (en) | Method and apparatus for estimating a range of a moving object | |
CN115200586B (zh) | 基于协同感知和智能边缘计算的自动驾驶路径规划方法 | |
Altekar et al. | Infrastructure-based sensor data capture systems for measurement of operational safety assessment (osa) metrics | |
Bai et al. | Cyber mobility mirror: Deep learning-based real-time 3d object perception and reconstruction using roadside lidar | |
Beymer et al. | Tracking vehicles in congested traffic | |
Dong et al. | Large field monitoring system of vehicle load on long-span bridge based on the fusion of multiple vision and wim data | |
CN110794821B (zh) | 车载控制装置、场端定位装置、车辆控制系统及车辆 | |
CN116958763A (zh) | 特征-结果级融合的车路协同感知方法、介质及电子设备 | |
Cordes et al. | Accuracy evaluation of camera-based vehicle localization | |
CN110775054B (zh) | 车载控制装置、场端定位装置、车辆控制系统及车辆 | |
Bu et al. | Toward map updates with crosswalk change detection using a monocular bus camera | |
Cordes et al. | Vehicle lane merge visual benchmark | |
CN110794822A (zh) | 车载控制装置、场端定位装置、车辆控制系统及车辆 | |
Liu et al. | Ubiquitous sensing for smart cities with autonomous vehicles |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant |