CN113537362A - 一种基于车路协同的感知融合方法、装置、设备及介质 - Google Patents
一种基于车路协同的感知融合方法、装置、设备及介质 Download PDFInfo
- Publication number
- CN113537362A CN113537362A CN202110819267.3A CN202110819267A CN113537362A CN 113537362 A CN113537362 A CN 113537362A CN 202110819267 A CN202110819267 A CN 202110819267A CN 113537362 A CN113537362 A CN 113537362A
- Authority
- CN
- China
- Prior art keywords
- perception
- vehicle
- information
- road
- fusion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000008447 perception Effects 0.000 title claims abstract description 420
- 238000007500 overflow downdraw method Methods 0.000 title claims abstract description 19
- 230000004927 fusion Effects 0.000 claims abstract description 204
- 238000000034 method Methods 0.000 claims abstract description 17
- 238000004590 computer program Methods 0.000 claims description 6
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 230000001960 triggered effect Effects 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 230000002093 peripheral effect Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 206010063385 Intellectualisation Diseases 0.000 description 2
- 230000002596 correlated effect Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000000875 corresponding effect Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 230000008707 rearrangement Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/28—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Automation & Control Theory (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明公开了一种基于车路协同的感知融合方法、装置、设备及介质,该方法包括:通过车端传感器采集第一车端感知信息,且通过路侧传感器采集第一路侧感知信息;若监测到感知融合事件,则根据第一车端感知信息和感知融合时间预测在所述感知融合时间的第二车端感知信息,且根据第一路侧感知信息和感知融合时间预测在所述感知融合时间的第二路侧感知信息;对所述第二车端感知信息和所述第二路侧感知信息进行融合,得到车路协同的感知融合结果。通过本实施例的技术方案,可以将时空独立的车端感知信息和路侧感知信息融合,实现自动驾驶车辆周边大范围交通参与者的精确感知及稳定跟踪。
Description
技术领域
本发明实施例涉及自动驾驶技术领域,具体属于自动驾驶感知融合领域,尤其涉及一种基于车路协同的感知融合方法、装置、设备及介质。
背景技术
近年来,汽车智能化和交通智能化高度融合,车路协同的高级别自动驾驶技术驶入发展快车道,也成为新基建产业增长的新动力。
感知融合是自动驾驶领域的研究热点,尤其是适用于城市结构化道路的高级别自动驾驶车辆。为了应对复杂的交通环境、获得更远的感知范围、适应不同的天气情况、克服各类传感器技术瓶颈,为自动驾驶车辆加装了种类越来越多、数量越来越多的传感器,如激光雷达、摄像头和毫米波雷达等。但是,现有的单车感知方案,由于传感器安装位置和视野限制,无法检测距离较远或被遮挡的交通参与者,特别是在路口场景,不能满足自动驾驶车辆的规划决策需求。
随着先进无线通信及新一代互联网技术的兴起、道路基础设施的愈发成熟,路端感知设备对交通参与者的感知能力逐渐提高,端到端通信延迟逐渐降低,可以极大辅助及扩展自动驾驶车辆的感知视野。但在现有车路协同系统中,路侧端感知设备和车端感知设备的感知结果是时空独立的,感知误差分布随机,需要新的融合方法实现交通参与者的稳定跟踪。
发明内容
本发明提供一种基于车路协同的感知融合方法、装置、设备及介质,以实现车端感知信息和路侧感知信息的融合。
第一方面,本发明实施例提供了一种基于车路协同的感知融合方法,该方法包括:
通过车端传感器采集第一车端感知信息,且通过路侧传感器采集第一路侧感知信息;
若监测到感知融合事件,则根据第一车端感知信息和感知融合时间预测在所述感知融合时间的第二车端感知信息,且根据第一路侧感知信息和感知融合时间预测在所述感知融合时间的第二路侧感知信息;
对所述第二车端感知信息和所述第二路侧感知信息进行融合,得到车路协同的感知融合结果。
第二方面,本发明实施例还提供了一种基于车路协同的感知融合装置,该装置包括:
信息采集模块,用于通过车端传感器采集第一车端感知信息,且通过路侧传感器采集第一路侧感知信息;
感知预测模块,用于若监测到感知融合事件,则根据第一车端感知信息和感知融合时间预测在所述感知融合时间的第二车端感知信息,且根据第一路侧感知信息和感知融合时间预测在所述感知融合时间的第二路侧感知信息;
感知融合模块,用于对所述第二车端感知信息和所述第二路侧感知信息进行融合,得到车路协同的感知融合结果。
第三方面,本发明实施例还提供了一种电子设备,该设备包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现本发明任意实施例所述的基于车路协同的感知融合方法。
第四方面,本发明实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本发明任意实施例所述的基于车路协同的感知融合方法。
本发明实施例提供的一种基于车路协同的感知融合方法、装置、设备及介质,通过车端传感器采集第一车端感知信息,且通过路侧传感器采集第一路侧感知信息;若监测到感知融合事件,则根据第一车端感知信息和感知融合时间预测在所述感知融合时间的第二车端感知信息,且根据第一路侧感知信息和感知融合时间预测在所述感知融合时间的第二路侧感知信息;对所述第二车端感知信息和所述第二路侧感知信息进行融合,得到车路协同的感知融合结果。通过本实施例的技术方案,可以将时空独立的车端感知信息和路侧感知信息融合,实现自动驾驶车辆周边大范围交通参与者的精确感知及稳定跟踪,进而提高感知准确性。
附图说明
图1为本发明实施例一提供的一种基于车路协同的感知融合方法流程图;
图2A是本发明实施例二提供的一种基于车路协同的感知融合方法流程图;
图2B是本发明实施例提供的基于车路协同的感知融合示意图;
图3是本发明实施例三提供的一种基于车路协同的感知融合装置结构图;
图4是本发明实施例四提供的一种电子设备的结构示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部结构。
实施例一
图1为本发明实施例一提供的一种基于车路协同的感知融合方法的流程图,本实施例可适用于自动驾驶车辆,尤其适用于城市结构化道路的高级别自动驾驶车辆。该方法可以由本发明实施例提供的基于车路协同的感知融合装置来执行,该装置可以采用软件和/或硬件的方式实现,并可集成在电子设备上。
具体的,如图1所示,本发明实施例提供的基于车路协同的感知融合方法,可以包括如下步骤:
S110、通过车端传感器采集第一车端感知信息,且通过路侧传感器采集第一路侧感知信息。
其中,车端传感器具体可包括车载激光雷达、摄像头、毫米波雷达等,各传感器感知信息更新频率固定;车端感知信息主要为交通参与者相对自车的位置、速度、采集时间等;路侧传感器具体可包括路侧激光雷达、摄像头、毫米波雷达等,各传感器感知信息更新频率固定;路侧感知信息主要为交通参与者在高精地图中的位置和速度、采集时间等。
可选的,当车辆离开预设位置范围时,可以关闭实时采集路侧传感器感知信息。也就是说,可以自定义能提供路段传感器感知信息的位置范围。
若监测到车端采集事件,则通过车端传感器采集第一车端感知信息;若监测到路侧采集事件,则通过路侧传感器采集第一路侧感知信息。需要说明的是,监测到车端采集事件和监测到路侧采集事件的时间可以不同,也可以相同。
本实施例中,除了需要采集车端感知信息和路侧感知信息,还需要接入高精地图和车辆定位信息,所有信息均通过连线或网络连接到自车计算平台。其中,车辆定位信息为车辆在高精地图中的坐标和朝向等信息,车辆定位信息的更新频率固定。
S120、若监测到感知融合事件,则根据第一车端感知信息和感知融合时间预测在感知融合时间的第二车端感知信息,且根据第一路侧感知信息和感知融合时间预测在感知融合时间的第二路侧感知信息。
其中,感知融合事件由自车计算平台周期触发,感知融合更新频率固定;感知融合时间为监测到感知融合事件的时间;车端感知信息至少包括交通参与者相对自车的位置、速度和采集时间;路侧感知信息至少包括交通参与者在高精地图中的位置、速度和采集时间。
由于感知信息的采集时间与监测到感知融合事件的感知融合时间不同,欲进行感知融合,首先需要完成车端传感器、路侧传感器和自车计算平台的时间同步。其中,各系统均由GPS授时。
因为交通参与者的运动通常具有一定的规律性和延续性,可以依据第一车端感知信息和感知融合时间预测在感知融合时间的第二车端感知信息,且根据第一路侧感知信息和感知融合时间预测在感知融合时间的第二路侧感知信息。
优选的,根据第一车端感知信息和感知融合时间预测在感知融合时间的第二车端感知信息,具体可以包括:根据感知融合时间、第一车端感知信息中交通参与者的位置、速度和采集时间,预测第二车端感知信息中交通参与者的位置;根据第一车端感知信息中交通参与者的速度,确定第二车端感知信息中交通参与者的速度。
相应的,根据第一路侧感知信息和感知融合时间预测在感知融合时间的第二路侧感知信息,具体可以包括:根据感知融合时间、第一路侧感知信息中交通参与者的位置、速度和采集时间,预测第二路侧感知信息中交通参与者的位置;根据第一路侧感知信息中交通参与者的速度,确定第二路侧感知信息中交通参与者的速度。
本实施例中,根据第一车端感知信息和感知融合时间预测在感知融合时间的第二车端感知信息,且根据第一路侧感知信息和感知融合时间预测在感知融合时间的第二路侧感知信息时,第二车端感知信息中的采集时间和第二路侧感知信息中的采集时间则是感知融合时间。
基于运动的规律性和延续性,根据第一车端感知信息和感知融合时间预测在感知融合时间的第二车端感知信息,且根据第一路侧感知信息和感知融合时间预测在感知融合时间的第二路侧感知信息,即完成车端传感器、路侧传感器和自车计算平台的时间同步。
S130、对第二车端感知信息和第二路侧感知信息进行融合,得到车路协同的感知融合结果。
其中,第二车端感知信息基于自车坐标系,至少包括交通参与者相对自车的位置和速度;而第二路侧感知信息基于高精地图坐标系,至少包括交通参与者在高精地图中的位置和速度。
由于第二车端感知信息和第二路侧感知信息基于不同的坐标系,欲对二者进行融合需要统一坐标系。
在本实施例一个可选的实施方式中,可以以高精地图坐标系作为感知融合结果的参考坐标系。具体的,对第二车端感知信息和第二路侧感知信息进行融合,可以先将第二车端感知信息由自车坐标系转换到高精地图坐标系,得到第三车端感知信息;再将第三车端感知信息和第二路侧感知信息关联,确定同一交通参与者在车端和路侧的感知信息;最后基于同一交通参与者在车端和路侧的感知信息,依据车端和路侧的感知权重,确定同一交通参与者的车路协同的感知融合结果。通过上述步骤,确定的感知融合结果则基于高精地图坐标系。
在另一个可选的实施方式中,也可以以自车坐标系作为感知融合结果的参考坐标系。具体的,对第二车端感知信息和第二路侧感知信息进行融合,可以先将第二路侧感知信息由高精地图坐标系转换到自车坐标系,得到第三路侧感知信息;再将第二车端感知信息和第三路侧感知信息关联,确定同一交通参与者在车端和路侧的感知信息;最后基于同一交通参与者在车端和路侧的感知信息,依据车端和路侧的感知权重,确定同一交通参与者的车路协同的感知融合结果。通过上述步骤,确定的感知融合结果则基于自车坐标系。
由于车端传感器至少有一个,当存在多个车端传感器时,对第二车端感知信息和第二路侧感知信息进行融合之前,需要将多个车端传感器的感知信息进行融合。
在本实施例一个可选的实施方式中,将多个车端传感器的感知信息进行融合时,可以对多个车端传感器的感知信息求平均,以均值作为车端感知融合结果。
在本实施例另一个可选的实施方式中,由于各个车端传感器的精度、采集角度等差异,可以为各个车端传感器预设感知权重,则将多个车端传感器的感知信息进行融合时,可以依据各车端传感器的感知权重,对各车端传感器的第二车端感知信息进行融合。
进行车端感知信息融合后,各车端传感器的感知信息关联,形成一个交通参与者信息列表,不同车端传感器感知到的同一个交通参与者在列表中唯一存在。
同理,当存在多个路侧传感器时,对第二车端感知信息和第二路侧感知信息进行融合之前,需要将多个路侧传感器的感知信息进行融合。
在本实施例一个可选的实施方式中,将多个路侧传感器的感知信息进行融合时,可以对多个路侧传感器的感知信息求平均,以均值作为路侧感知融合结果。
在本实施例另一个可选的实施方式中,由于各个路侧传感器的精度、采集角度等差异,可以为各个路侧传感器预设感知权重,则将多个路侧传感器的感知信息进行融合时,可以依据各路侧传感器的感知权重,对各路侧传感器的第二路侧感知信息进行融合。
进行路侧感知信息融合后,各路侧传感器的感知信息关联,形成一个交通参与者信息列表,不同路侧传感器感知到的同一个交通参与者在列表中也唯一存在。
本实施例的技术方案,通过车端传感器采集第一车端感知信息,且通过路侧传感器采集第一路侧感知信息;若监测到感知融合事件,则根据第一车端感知信息和感知融合时间预测在感知融合时间的第二车端感知信息,且根据第一路侧感知信息和感知融合时间预测在感知融合时间的第二路侧感知信息;对第二车端感知信息和第二路侧感知信息进行融合,得到车路协同的感知融合结果。通过本实施例的技术方案,可以将时空独立的车端感知信息和路侧感知信息融合,实现自动驾驶车辆周边大范围交通参与者的精确感知及稳定跟踪,进而提高感知准确性。
在上述技术方案的基础上,为了提高感知融合结果的准确性,若第一次检测到感知融合事件,则车路协同的感知融合结果为本周期的感知融合最终结果;否则,根据上一周期的感知融合结果和本周期的感知融合结果,确定本周期的感知融合最终结果。
在一个可选的实施方式中,在根据上一周期的感知融合结果和本周期的感知融合结果确定本周期的感知融合最终结果时,可以先根据上一周期的感知融合结果,确定本周期的预测结果,再根据本周期的预测结果和本周期的感知融合结果,结合卡尔曼方程,确定本周期的感知融合最终结果。
实施例二
图2A为本发明实施例二提供的一种基于车路协同的感知融合方法的流程图,该方法在上述实施例的基础上进一步的优化,具体的,将“对第二车端感知信息和第二路侧感知信息进行融合,得到车路协同的感知融合结果”优化为“将第二车端感知信息由自车坐标系转换到高精地图坐标系,得到第三车端感知信息;将第三车端感知信息和第二路侧感知信息关联,确定同一交通参与者在车端和路侧的感知信息;基于同一交通参与者在车端和路侧的感知信息,依据车端和路侧的感知权重,确定同一交通参与者的车路协同的感知融合结果”。
如图2A所示,该方法包括:
S210、通过车端传感器采集第一车端感知信息,且通过路侧传感器采集第一路侧感知信息。
S220、若监测到感知融合事件,则根据第一车端感知信息和感知融合时间预测在感知融合时间的第二车端感知信息,且根据第一路侧感知信息和感知融合时间预测在感知融合时间的第二路侧感知信息。
如图2B所示,建立两个坐标系,一个是自车坐标系,一个是高精地图坐标系。
进行车端感知融合,包括:
定周期实时采集自车坐标系中交通参与者1的车端激光雷达感知信息、车端摄像头感知信息和车辆定位信息。
在t0时刻,监测到感知融合事件,此时采集到的第一车端感知信息包括:交通参与者1的最临近的车端激光雷达感知信息为横向坐标(x0_l_v)、纵向坐标(y0_l_v)、横向速度(vx0_l_v)、纵向速度(vy0_l_v)、采集时间(t0_l),最临近的摄像头感知信息为横向坐标(x0_c_v)、纵向坐标(y0_c_v)、横向速度(vx0_c_v)、纵向速度(vy0_c_v)、采集时间(t0_c),定位信息为横向坐标(x0_lo)、纵向坐标(y0_lo)、朝向角(θ0_lo)。
进行各车端传感器感知信息的时间同步,预测t0时刻交通参与者1的第二车端感知信息,第二车端感知信息包括车端激光雷达感知信息(x0_l_v_s,y0_l_v_s,vx0_l_v_s,vy0_l_v_s)和车端摄像头感知信息(x0_c_v_s,y0_c_v_s,vx0_c_v_s,vy0_c_v_s),计算方法如下:
x0_l_v_s=x0_l_v+vx0_l_v*(t0-t0_l);
y0_l_v_s=y0_l_v+vy0_l_v*(t0-t0_l);
vx0_l_v_s=vx0_l_v;
vy0_l_v_s=vy0_l_v;
x0_c_v_s=x0_c_v+vx0_c_v*(t0-t0_c);
y0_c_v_s=y0_c_v+vy0_c_v*(t0-t0_c);
vx0_c_v_s=vx0_c_v;
vy0_c_v_s=vy0_c_v。
进行时间同步后的各车端传感器的感知信息关联,设置车端横向位置关联阈值X_V和纵向位置关联阈值Y_V。若|x0_l_v_s-x0_c_v_s|<X_V且|y0_l_v_s-y0_c_v_s|<Y_V,则确定车端激光雷达与车端摄像头感知信息关联。若车端激光雷达与车端摄像头感知信息关联,则设置车端激光雷达横向位置权重X_W_L、纵向位置权重Y_W_L、横向速度权重VX_W_L和纵向速度权重VY_W_L。基于各个车端传感器的感知权重,得到自车坐标系下的车端感知融合结果(x0_v_s,y0_v_s,vx0_v_s,vy0_v_s),计算方法如下:
x0_v_s=x0_l_v_s*X_W_L+x0_c_v_s*(1-X_W_L);
y0_v_s=y0_l_v_s*Y_W_L+y0_c_v_s*(1-Y_W_L);
vx0_v_s=vx0_l_v_s*VX_W_L+vx0_c_v_s*(1-VX_W_L);
vy0_v_s=vy0_l_v_s*VY_W_L+vy0_c_v_s*(1-VY_W_L)。
相应的,进行路侧感知融合,包括:
当车辆到达十字路口附近时,实时采集地图坐标系中交通参与者1的路侧激光雷达感知信息、路侧摄像头感知信息。
在t0时刻,监测到感知融合事件,此时采集到第一路侧感知信息包括:交通参与者1的最临近的路侧激光雷达感知信息为横向坐标(x0_lr_m)、纵向坐标(y0_lr_m)、横向速度(vx0_lr_m)、纵向速度(vy0_lr_m)、采集时间(t0_lr),最临近的路侧摄像头感知信息为横向坐标(x0_cr_m)、纵向坐标(y0_cr_m)、横向速度(vx0_cr_m)、纵向速度(vy0_cr_m)、采集时间(t0_cr)。
进行各路侧传感器感知信息的时间同步,预测t0时刻的第二路侧感知信息,第二路侧感知信息包括交通参与者1的路侧激光雷达感知信息(x0_lr_m_s,y0_lr_m_s,vx0_lr_m_s,vy0_lr_m_s)和路侧摄像头感知信息(x0_cr_m_s,y0_cr_m_s,vx0_cr_m_s,vy0_cr_m_s),计算方法如下:
x0_lr_m_s=x0_lr_m+vx0_lr_m*(t0-t0_lr);
y0_lr_m_s=y0_lr_m+vy0_lr_m*(t0-t0_lr);
vx0_lr_m_s=vx0_lr_m;
vy0_lr_m_s=vy0_lr_m;
x0_cr_m_s=x0_cr_m+vx0_cr_m*(t0-t0_cr);
y0_cr_m_s=y0_cr_m+vy0_cr_m*(t0-t0_cr);
vx0_cr_m_s=vx0_cr_m;
vy0_cr_m_s=vy0_cr_m。
进行各路侧传感器的感知信息关联,设置路侧横向位置关联阈值X_R、纵向位置关联阈值Y_R,若|x0_lr_m_s-x0_cr_m_s|<X_R且|x0_cr_m_s-y0_cr_m_s|<Y_R,则确定路侧激光雷达与路侧摄像头感知信息关联。若路侧激光雷达与路侧摄像头感知信息关联,则设置路侧激光雷达横向位置权重X_W_LR、纵向位置权重Y_W_LR、横向速度权重VX_W_LR和纵向速度权重VY_W_LR。基于各个路侧传感器的感知权重,得到路侧感知融合结果(x0_m_s,y0_m_s,vx0_m_s,vy0_m_s),计算方法如下:
x0_m_s=x0_lr_m_s*X_W_LR+x0_cr_m_s*(1-X_W_LR);
y0_m_s=y0_lr_m_s*Y_W_LR+y0_cr_m_s*(1-Y_W_LR);
vx0_m_s=vx0_lr_m_s*VX_W_LR+vx0_cr_m_s*(1-VX_W_LR);
vy0_m_s=vy0_lr_m_s*VY_W_LR+vy0_cr_m_s*(1-VY_W_LR)。
S230、将第二车端感知信息由自车坐标系转换到高精地图坐标系,得到第三车端感知信息。
进行交通参与者1信息从自车坐标系到高精地图坐标系转换,得到第三车端感知信息(x0_vtm_s,y0_vtm_s,vx0_vtm_s,vy0_vtm_s),计算方法如下:
x0_vtm_s=x0_lo+x0_v_s*sin(θ0_lo)+y0_v_s*cos(θ0_lo);
y0_vtm_s=y0_lo+x0_v_s*cos(θ0_lo)+y0_v_s*sin(θ0_lo);
vx0_vtm_s=vx0_v_s*sin(θ0_lo)+vy0_v_s*cos(θ0_lo);
vy0_vtm_s=vx0_v_s*cos(θ0_lo)+vy0_v_s*sin(θ0_lo)。
S240、将第三车端感知信息和第二路侧感知信息关联,确定同一交通参与者在车端和路侧的感知信息。
进行t0时刻第三车端感知信息(x0_vtm_s,y0_vtm_s,vx0_vtm_s,vy0_vtm_s)与路侧感知融合结果(x0_m_s,y0_m_s,vx0_m_s,vy0_m_s)的关联。设置横向位置关联阈值X和纵向位置关联阈值Y,若|x0_vtm_s-x0_m_s|<X且|y0_vtm_s-y0_m_s|<Y,则确定两者关联。
S250、基于同一交通参与者在车端和路侧的感知信息,依据车端和路侧的感知权重,确定同一交通参与者的车路协同的感知融合结果。
若两者关联,则设置车端横向位置权重X_W、纵向位置权重Y_W、横向速度权重VX_W和纵向速度权重VY_W。基于车端感知权重和路侧感知权重,得到t0时刻感知融合结果(x0,y0,vx0,vy0),计算方法如下:
x0=x0_vtm_s*X_W+x0_m_s*(1-X_W);
y0=y0_vtm_s*Y_W+y0_m_s*(1-Y_W);
vx0=vx0_vtm_s*VX_W+vx0_m_s*(1-VX_W);
vy0=vy0_vtm_s*VY_W+vy0_m_s*(1-VY_W)。
进行t1时刻车端感知融合,方法同上,得到(x1_vtm_s,y1_vtm_s,vx1_vtm_s,vy1_vtm_s)。
进行t1时刻路侧感知融合,方法同上,得到(x1_m_s,y1_m_s,vx1_m_s,vy1_m_s)。
进行t1时刻车端融合结果与路侧融合结果的关联,方法同上,得到t1时刻感知融合结果(x1_a,y1_a,vx1_a,vy1_a)。
进行t0时刻感知融合最终结果(x0,y0,vx0,vy0)到t1时刻的时间同步,得到预测结果(x0’,y0’,vx0’,vy0’),计算方法如下:
x0’=x0+vx0*(t1–t0);
y0’=y0+vy0*(t1–t0);
vx0’=vx0;
vy0’=vy0。
通过上述的t1时刻感知融合结果和预测结果,结合卡尔曼方程,得到t1时刻的感知融合最终结果(x1,y1,vx1,vy1)。
重复上述步骤进行后续周期性计算。
本实施例的技术方案,以高精地图坐标系作为目标坐标系,通过车端传感器采集第一车端感知信息,且通过路侧传感器采集第一路侧感知信息;若监测到感知融合事件,则根据第一车端感知信息和感知融合时间预测在感知融合时间的第二车端感知信息,且根据第一路侧感知信息和感知融合时间预测在感知融合时间的第二路侧感知信息;将第二车端感知信息由自车坐标系转换到高精地图坐标系,得到第三车端感知信息;将第三车端感知信息和第二路侧感知信息关联,确定同一交通参与者在车端和路侧的感知信息;基于同一交通参与者在车端和路侧的感知信息,依据车端和路侧的感知权重,确定同一交通参与者的车路协同的感知融合结果。通过本实施例的技术方案,可以将时空独立的车端感知信息和路侧感知信息融合,实现自动驾驶车辆周边大范围交通参与者的精确感知及稳定跟踪,进而提高感知准确性。
实施例三
图3是本发明实施例三所提供的一种基于车路协同的感知融合装置结构图,该装置适用于执行本发明实施例提供的基于车路协同的感知融合方法,可以实现车端感知信息和路侧感知信息的融合。如图3所示,该装置包括信息采集模块310、感知预测模块320和感知融合模块330。
其中,信息采集模块310,用于通过车端传感器采集第一车端感知信息,且通过路侧传感器采集第一路侧感知信息;
感知预测模块320,用于若监测到感知融合事件,则根据第一车端感知信息和感知融合时间预测在感知融合时间的第二车端感知信息,且根据第一路侧感知信息和感知融合时间预测在感知融合时间的第二路侧感知信息;
感知融合模块330,用于对第二车端感知信息和第二路侧感知信息进行融合,得到车路协同的感知融合结果。
本实施例的技术方案,通过车端传感器采集第一车端感知信息,且通过路侧传感器采集第一路侧感知信息;若监测到感知融合事件,则根据第一车端感知信息和感知融合时间预测在感知融合时间的第二车端感知信息,且根据第一路侧感知信息和感知融合时间预测在感知融合时间的第二路侧感知信息;对第二车端感知信息和第二路侧感知信息进行融合,得到车路协同的感知融合结果,可以将时空独立的车端感知信息和路侧感知信息融合,实现自动驾驶车辆周边大范围交通参与者的精确感知及稳定跟踪,进而提高感知准确性。
优选的,车端感知信息至少包括交通参与者相对自车的位置、速度和采集时间;路侧感知信息至少包括交通参与者在高精地图中的位置、速度和采集时间。上述感知预测模块320具体包括:车端感知预测单元和路侧感知预测单元。
其中,车端感知预测单元,用于根据感知融合时间、第一车端感知信息中交通参与者的位置、速度和采集时间,预测第二车端感知信息中交通参与者的位置;根据第一车端感知信息中交通参与者的速度,确定第二车端感知信息中交通参与者的速度;
路侧感知预测单元,用于根据感知融合时间、第一路侧感知信息中交通参与者的位置、速度和采集时间,预测第二路侧感知信息中交通参与者的位置;根据第一路侧感知信息中交通参与者的速度,确定第二路侧感知信息中交通参与者的速度。
优选的,上述感知融合模块330具体包括:坐标转换单元、信息关联单元和感知融合单元。
其中,坐标转换单元,用于将第二车端感知信息由自车坐标系转换到高精地图坐标系,得到第三车端感知信息;
信息关联单元,用于将第三车端感知信息和第二路侧感知信息关联,确定同一交通参与者在车端和路侧的感知信息;
感知融合单元,用于基于同一交通参与者在车端和路侧的感知信息,依据车端和路侧的感知权重,确定同一交通参与者的车路协同的感知融合结果。
优选的,感知融合事件以周期触发。该装置还包括:结果确定模块,用于若第一次检测到感知融合事件,则车路协同的感知融合结果为本周期的感知融合最终结果;否则,根据上一周期的感知融合结果和本周期的感知融合结果,确定本周期的感知融合最终结果。
其中,根据上一周期的感知融合结果和本周期的感知融合结果,确定本周期的感知融合最终结果,包括:根据上一周期的感知融合结果,确定本周期的预测结果;根据预测结果和本周期的感知融合结果,结合卡尔曼方程,确定本周期的感知融合最终结果。
优选的,上述感知融合模块330,还包括:车端融合单元和路侧融合单元。其中,车端融合单元,用于依据各车端传感器的感知权重,对各车端传感器的第二车端感知信息进行融合;路侧融合单元,用于依据各路侧传感器的感知权重,对各路侧传感器的第二路侧感知信息进行融合。
本发明实施例所提供的基于车路协同的感知融合装置可执行本发明任意实施例所提供的基于车路协同的感知融合方法,具备执行方法相应的功能模块和有益效果。
实施例四
图4为本发明实施例四提供的一种电子设备的结构示意图。图4示出了适于用来实现本发明实施方式的示例性电子设备12的框图。图4显示的电子设备12仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图4所示,电子设备12以通用计算设备的形式表现。电子设备12的组件可以包括但不限于:一个或者多个处理器或者处理单元16,系统存储器28,连接不同系统组件(包括系统存储器28和处理单元16)的总线18。
总线18表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(ISA)总线,微通道体系结构(MCA)总线,增强型ISA总线、视频电子标准协会(VESA)局域总线以及外围组件互连(PCI)总线。
电子设备12典型地包括多种计算机系统可读介质。这些介质可以是任何能够被电子设备12访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
系统存储器28可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(RAM)30和/或高速缓存存储器32。电子设备12可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举例,存储系统34可以用于读写不可移动的、非易失性磁介质(图4未显示,通常称为“硬盘驱动器”)。尽管图4中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如CD-ROM,DVD-ROM或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线18相连。系统存储器28可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明各实施例的功能。
具有一组(至少一个)程序模块42的程序/实用工具40,可以存储在例如系统存储器28中,这样的程序模块42包括但不限于操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块42通常执行本发明所描述的实施例中的功能和/或方法。
电子设备12也可以与一个或多个外部设备14(例如键盘、指向设备、显示器24等)通信,还可与一个或者多个使得用户能与该电子设备12交互的设备通信,和/或与使得该电子设备12能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口22进行。并且,电子设备12还可以通过网络适配器20与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器20通过总线18与电子设备12的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备12使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
处理单元16通过运行存储在系统存储器28中的程序,从而执行各种功能应用以及数据处理,例如实现本发明实施例所提供的一种基于车路协同的感知融合方法。
实施例五
本发明实施例五还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本申请任意发明实施例提供的一种基于车路协同的感知融合方法。
本发明实施例的计算机存储介质,可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言,诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络包括局域网(LAN)或广域网(WAN)连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。
Claims (10)
1.一种基于车路协同的感知融合方法,其特征在于,所述方法包括:
通过车端传感器采集第一车端感知信息,且通过路侧传感器采集第一路侧感知信息;
若监测到感知融合事件,则根据第一车端感知信息和感知融合时间预测在所述感知融合时间的第二车端感知信息,且根据第一路侧感知信息和感知融合时间预测在所述感知融合时间的第二路侧感知信息;
对所述第二车端感知信息和所述第二路侧感知信息进行融合,得到车路协同的感知融合结果。
2.根据权利要求1所述的方法,其特征在于,所述车端感知信息至少包括交通参与者相对自车的位置、速度和采集时间;所述路侧感知信息至少包括交通参与者在高精地图中的位置、速度和采集时间;
根据第一车端感知信息和感知融合时间预测在所述感知融合时间的第二车端感知信息,包括:
根据感知融合时间、第一车端感知信息中交通参与者的位置、速度和采集时间,预测第二车端感知信息中所述交通参与者的位置;
根据第一车端感知信息中交通参与者的速度,确定第二车端感知信息中所述交通参与者的速度;
根据第一路侧感知信息和感知融合时间预测在所述感知融合时间的第二路侧感知信息,包括:
根据感知融合时间、第一路侧感知信息中交通参与者的位置、速度和采集时间,预测第二路侧感知信息中所述交通参与者的位置;
根据第一路侧感知信息中交通参与者的速度,确定第二路侧感知信息中所述交通参与者的速度。
3.根据权利要求1所述的方法,其特征在于,对所述第二车端感知信息和所述第二路侧感知信息进行融合,得到车路协同的感知融合结果,包括:
将所述第二车端感知信息由自车坐标系转换到高精地图坐标系,得到第三车端感知信息;
将所述第三车端感知信息和所述第二路侧感知信息关联,确定同一交通参与者在车端和路侧的感知信息;
基于所述同一交通参与者在车端和路侧的感知信息,依据车端和路侧的感知权重,确定所述同一交通参与者的车路协同的感知融合结果。
4.根据权利要求1所述的方法,其特征在于,所述感知融合事件以周期触发;
若第一次检测到所述感知融合事件,则所述车路协同的感知融合结果为本周期的感知融合最终结果;
否则,根据上一周期的感知融合结果和本周期的感知融合结果,确定本周期的感知融合最终结果。
5.根据权利要求4所述的方法,其特征在于,根据上一周期的感知融合结果和本周期的感知融合结果,确定本周期的感知融合最终结果,包括:
根据上一周期的感知融合结果,确定本周期的预测结果;
根据所述预测结果和本周期的感知融合结果,结合卡尔曼方程,确定本周期的感知融合最终结果。
6.根据权利要求1所述的方法,其特征在于,对所述第二车端感知信息和所述第二路侧感知信息进行融合之前,还包括:
依据各车端传感器的感知权重,对各车端传感器的第二车端感知信息进行融合;
依据各路侧传感器的感知权重,对各路侧传感器的第二路侧感知信息进行融合。
7.一种基于车路协同的感知融合装置,其特征在于,所述装置包括:
信息采集模块,用于通过车端传感器采集第一车端感知信息,且通过路侧传感器采集第一路侧感知信息;
感知预测模块,用于若监测到感知融合事件,则根据第一车端感知信息和感知融合时间预测在所述感知融合时间的第二车端感知信息,且根据第一路侧感知信息和感知融合时间预测在所述感知融合时间的第二路侧感知信息;
感知融合模块,用于对所述第二车端感知信息和所述第二路侧感知信息进行融合,得到车路协同的感知融合结果。
8.根据权利要求7所述的装置,其特征在于,感知融合模块,包括:
坐标转换单元,用于将所述第二车端感知信息由自车坐标系转换到高精地图坐标系,得到第三车端感知信息;
信息关联单元,用于将所述第三车端感知信息和所述第二路侧感知信息关联,确定同一交通参与者在车端和路侧的感知信息;
感知融合单元,用于基于所述同一交通参与者在车端和路侧的感知信息,依据车端和路侧的感知权重,确定所述同一交通参与者的车路协同的感知融合结果。
9.一种电子设备,其特征在于,所述设备包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-6中任一所述的基于车路协同的感知融合方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-6中任一所述的基于车路协同的感知融合方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110819267.3A CN113537362A (zh) | 2021-07-20 | 2021-07-20 | 一种基于车路协同的感知融合方法、装置、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110819267.3A CN113537362A (zh) | 2021-07-20 | 2021-07-20 | 一种基于车路协同的感知融合方法、装置、设备及介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113537362A true CN113537362A (zh) | 2021-10-22 |
Family
ID=78128942
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110819267.3A Pending CN113537362A (zh) | 2021-07-20 | 2021-07-20 | 一种基于车路协同的感知融合方法、装置、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113537362A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114877883A (zh) * | 2022-03-22 | 2022-08-09 | 武汉大学 | 车路协同环境下考虑通信延迟的车辆定位方法及系统 |
CN115909728A (zh) * | 2022-11-02 | 2023-04-04 | 智道网联科技(北京)有限公司 | 路侧感知方法、装置及电子设备、存储介质 |
CN116321072A (zh) * | 2023-03-13 | 2023-06-23 | 阿里云计算有限公司 | 基于感知失效的数据补偿方法以及装置 |
WO2024007910A1 (zh) * | 2022-07-06 | 2024-01-11 | 腾讯科技(深圳)有限公司 | 一种数据处理方法、装置、计算机设备以及可读存储介质 |
CN117452392A (zh) * | 2023-12-26 | 2024-01-26 | 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) | 一种用于车载辅助驾驶系统的雷达数据处理系统和方法 |
WO2024045248A1 (zh) * | 2022-08-31 | 2024-03-07 | 广州软件应用技术研究院 | 一种基于端边云协同计算的车路协同驾驶方法及系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170124781A1 (en) * | 2015-11-04 | 2017-05-04 | Zoox, Inc. | Calibration for autonomous vehicle operation |
CN111216731A (zh) * | 2020-01-23 | 2020-06-02 | 南京锦和佳鑫信息科技有限公司 | 一种车路协同自动驾驶的主动感知系统 |
CN111768621A (zh) * | 2020-06-17 | 2020-10-13 | 北京航空航天大学 | 一种基于5g的城市道路路车融合全域感知方法 |
CN111770451A (zh) * | 2020-05-26 | 2020-10-13 | 同济大学 | 一种基于车路协同的道路车辆定位及感知方法和装置 |
CN112418092A (zh) * | 2020-11-23 | 2021-02-26 | 中国第一汽车股份有限公司 | 一种障碍物感知的融合方法、装置、设备及储存介质 |
CN112462381A (zh) * | 2020-11-19 | 2021-03-09 | 浙江吉利控股集团有限公司 | 一种基于车路协同的多激光雷达融合方法 |
-
2021
- 2021-07-20 CN CN202110819267.3A patent/CN113537362A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170124781A1 (en) * | 2015-11-04 | 2017-05-04 | Zoox, Inc. | Calibration for autonomous vehicle operation |
CN111216731A (zh) * | 2020-01-23 | 2020-06-02 | 南京锦和佳鑫信息科技有限公司 | 一种车路协同自动驾驶的主动感知系统 |
CN111770451A (zh) * | 2020-05-26 | 2020-10-13 | 同济大学 | 一种基于车路协同的道路车辆定位及感知方法和装置 |
CN111768621A (zh) * | 2020-06-17 | 2020-10-13 | 北京航空航天大学 | 一种基于5g的城市道路路车融合全域感知方法 |
CN112462381A (zh) * | 2020-11-19 | 2021-03-09 | 浙江吉利控股集团有限公司 | 一种基于车路协同的多激光雷达融合方法 |
CN112418092A (zh) * | 2020-11-23 | 2021-02-26 | 中国第一汽车股份有限公司 | 一种障碍物感知的融合方法、装置、设备及储存介质 |
Non-Patent Citations (2)
Title |
---|
国网江苏省电力有限公司 等: "《"三合一"电子公路技术及应用》", 30 September 2020, 东南大学出版社 * |
孙宁: ""基于多源信息融合的智能汽车环境感知技术研究"", 《中国优秀博硕士学位论文全文数据库(博士) 工程科技Ⅱ辑》 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114877883A (zh) * | 2022-03-22 | 2022-08-09 | 武汉大学 | 车路协同环境下考虑通信延迟的车辆定位方法及系统 |
CN114877883B (zh) * | 2022-03-22 | 2024-04-26 | 武汉大学 | 车路协同环境下考虑通信延迟的车辆定位方法及系统 |
WO2024007910A1 (zh) * | 2022-07-06 | 2024-01-11 | 腾讯科技(深圳)有限公司 | 一种数据处理方法、装置、计算机设备以及可读存储介质 |
WO2024045248A1 (zh) * | 2022-08-31 | 2024-03-07 | 广州软件应用技术研究院 | 一种基于端边云协同计算的车路协同驾驶方法及系统 |
CN115909728A (zh) * | 2022-11-02 | 2023-04-04 | 智道网联科技(北京)有限公司 | 路侧感知方法、装置及电子设备、存储介质 |
CN116321072A (zh) * | 2023-03-13 | 2023-06-23 | 阿里云计算有限公司 | 基于感知失效的数据补偿方法以及装置 |
CN116321072B (zh) * | 2023-03-13 | 2024-01-23 | 阿里云计算有限公司 | 基于感知失效的数据补偿方法以及装置 |
CN117452392A (zh) * | 2023-12-26 | 2024-01-26 | 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) | 一种用于车载辅助驾驶系统的雷达数据处理系统和方法 |
CN117452392B (zh) * | 2023-12-26 | 2024-03-08 | 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) | 一种用于车载辅助驾驶系统的雷达数据处理系统和方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113537362A (zh) | 一种基于车路协同的感知融合方法、装置、设备及介质 | |
CN108253975B (zh) | 一种建立地图信息及车辆定位的方法与设备 | |
CN109284348B (zh) | 一种电子地图的更新方法、装置、设备和存储介质 | |
WO2023001168A1 (zh) | 障碍物的轨迹预测方法、装置、电子设备及存储介质 | |
WO2023201964A1 (zh) | 一种跟车目标确定方法、装置、设备及介质 | |
JP2019182402A (ja) | 自動運転車両に用いられる検知支援 | |
US11648936B2 (en) | Method and apparatus for controlling vehicle | |
CN112015178B (zh) | 一种控制方法、装置、设备及存储介质 | |
CN112115857B (zh) | 智能汽车的车道线识别方法、装置、电子设备及介质 | |
CN114212110B (zh) | 障碍物轨迹预测方法、装置、电子设备及存储介质 | |
CN109635861B (zh) | 一种数据融合方法、装置、电子设备及存储介质 | |
CN109558854B (zh) | 障碍物感知方法、装置、电子设备及存储介质 | |
CN111380546A (zh) | 基于平行道路的车辆定位方法、装置、电子设备和介质 | |
CN109635868B (zh) | 障碍物类别的确定方法、装置、电子设备及存储介质 | |
WO2021254185A1 (zh) | 一种车辆定位方法、装置、设备及存储介质 | |
CN111352142A (zh) | 室内停车定位方法、装置、电子设备和介质 | |
CN114428504A (zh) | 无人驾驶车辆避障方法、系统、电子设备及存储介质 | |
CN112883058A (zh) | 用于车辆定位的标定方法、装置、设备、车辆和介质 | |
CN109883439A (zh) | 一种车辆导航方法、装置、电子设备及存储介质 | |
CN114475656B (zh) | 行驶轨迹预测方法、装置、电子设备以及存储介质 | |
US20230168368A1 (en) | Guardrail estimation method based on multi-sensor data fusion, and vehicle-mounted device | |
CN111951552B (zh) | 一种自动驾驶中风险管理的方法以及相关装置 | |
CN110497906B (zh) | 车辆控制方法、装置、设备和介质 | |
CN110113716B (zh) | 一种路径状态信息获取方法、装置及存储介质 | |
CN114578401B (zh) | 一种车道航迹点的生成方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20211022 |
|
RJ01 | Rejection of invention patent application after publication |