CN112313477A - 一种车辆环境映射的方法以及相应的系统、车辆和计算机程序产品 - Google Patents
一种车辆环境映射的方法以及相应的系统、车辆和计算机程序产品 Download PDFInfo
- Publication number
- CN112313477A CN112313477A CN201980042116.2A CN201980042116A CN112313477A CN 112313477 A CN112313477 A CN 112313477A CN 201980042116 A CN201980042116 A CN 201980042116A CN 112313477 A CN112313477 A CN 112313477A
- Authority
- CN
- China
- Prior art keywords
- fusion
- map
- sensor
- grid
- grid map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 61
- 238000013507 mapping Methods 0.000 title claims abstract description 16
- 238000004590 computer program Methods 0.000 title claims description 4
- 238000007499 fusion processing Methods 0.000 claims abstract description 53
- 238000012545 processing Methods 0.000 claims abstract description 50
- 230000002123 temporal effect Effects 0.000 claims abstract description 24
- 239000002131 composite material Substances 0.000 claims abstract description 18
- 230000004927 fusion Effects 0.000 claims description 99
- 230000003044 adaptive effect Effects 0.000 claims description 9
- 230000004931 aggregating effect Effects 0.000 claims description 2
- 238000004458 analytical method Methods 0.000 claims description 2
- 230000008569 process Effects 0.000 description 22
- 238000012937 correction Methods 0.000 description 17
- 238000001514 detection method Methods 0.000 description 16
- 238000005259 measurement Methods 0.000 description 14
- 230000006870 function Effects 0.000 description 12
- 230000000875 corresponding effect Effects 0.000 description 10
- 238000011156 evaluation Methods 0.000 description 10
- 238000013459 approach Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 230000000295 complement effect Effects 0.000 description 3
- 230000007704 transition Effects 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 230000002776 aggregation Effects 0.000 description 2
- 238000004220 aggregation Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000001427 coherent effect Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 230000002596 correlated effect Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000036961 partial effect Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- FFBHFFJDDLITSX-UHFFFAOYSA-N benzyl N-[2-hydroxy-4-(3-oxomorpholin-4-yl)phenyl]carbamate Chemical compound OC1=C(NC(=O)OCC2=CC=CC=C2)C=CC(=C1)N1CCOCC1=O FFBHFFJDDLITSX-UHFFFAOYSA-N 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000008094 contradictory effect Effects 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 239000000155 melt Substances 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000003752 polymerase chain reaction Methods 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/3407—Route searching; Route guidance specially adapted for specific applications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3833—Creation or updating of map data characterised by the source of data
- G01C21/3848—Data obtained from both position sensors and additional sensors
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3863—Structures of map data
- G01C21/387—Organisation of map data, e.g. version management or database structures
- G01C21/3881—Tile-based structures
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0214—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/60—Intended control result
- G05D1/617—Safety or protection, e.g. defining protection zones around obstacles or avoiding hazards
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/251—Fusion techniques of input or preprocessed data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/803—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/165—Anti-collision systems for passive traffic, e.g. including static obstacles, trees
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Automation & Control Theory (AREA)
- Electromagnetism (AREA)
- Computer Networks & Wireless Communication (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Databases & Information Systems (AREA)
- Aviation & Aerospace Engineering (AREA)
- Bioinformatics & Computational Biology (AREA)
- Medical Informatics (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Steering Control In Accordance With Driving Conditions (AREA)
Abstract
一种用于车辆(V)环境映射的方法(1000),包括以下操作:‑接收(1010)来自多个传感器的输入值集合,‑将时间融合处理应用(1030)到输入值集合,从而得到各自的占据栅格地图集合,‑将数据融合处理应用(1040、1050、1060)于占据栅格地图集合,从而得到至少一个融合占据栅格地图,其特征在于包括:‑通过比较地图集合中的占据栅格地图检测(1070)差异,从而得到检测到的差异的集合,‑处理(1090)至少一个融合占据栅格地图,输出可行驶空间的融合占据栅格地图,该处理操作包括在该至少一个融合占据栅格地图中执行冲突的仲裁(1090a,1090b)。可行驶空间的复合融合占据栅格地图被供应(IA)到用户电路,例如驾驶辅助接口。
Description
技术领域
本发明涉及地图构建技术和车辆环境映射。
一个或多个实施例可以涉及处理至少一个融合栅格地图以确定对象的占据,例如便于检测障碍物的位置以及如何避免与这种障碍物接触。
背景技术
多传感器数据融合可以促进组合来自不同源的信息以形成统一的图片,例如通过基于来自多个源的数据提供表示环境的融合占据栅格地图。
不同的映射技术可以提供不同类型的地图,例如:
-专用于结构化环境,因此取决于周围环境中这种结构的存在,例如基于特征的模型,
-针对非结构化环境定制,例如占据栅格地图。
这两种办法绝不是相互排斥的,而实际上它们是相辅相成的。
占据栅格地图非常适于路径规划和躲避障碍任务。相反地,基于特征的地图可能非常适于定位目的,其中可能需要对象的相对姿态以准确估计车辆的自身位置和定向。
占据栅格地图(简称栅格地图)将(车辆周围)环境表示为具有固定尺寸和空间分辨率的二维栅格地图。可以根据离散二进制网格的分辨率定义栅格地图的准确性。此外,它们可以沿车辆的纵轴和横轴的方向定向,并且可以具有彼此成直角放置的边缘部分。
可以提供栅格地图表示车辆环境,该栅格地图被分割成栅格单元格,每个单元格存储描述环境的特征。例如,每个单元格可以存储概率值/似然值,例如单元格是否被占据的概率。实际上,可以将地图构建公式化为优化问题,该优化问题在给定环境、车辆位置和传感器测量的在先知识的情况下最大化特定栅格单元格实际上被占据(或空闲)的概率。
栅格地图有助于给驾驶辅助系统提供关于周围映射环境中障碍物的存在及其空间占据的信息。因此,驾驶辅助系统可以基于该信息操作车辆功能操作。例如,驾驶辅助系统可以对交通状况做出反应。
如本领域技术人员已知的,栅格地图可以在各种坐标系(例如笛卡尔坐标或极坐标)中表示环境。
可以通过多个传感器/检测器(例如全球定位系统(GPS)天线和/或地理信息系统(GIS)天线、激光雷达(LIDAR)、摄像机等)对环境进行扫描。
根据单个传感器数据可以生成多个栅格地图,以提供关于环境的相关信息。
以高精度和高准确度组合(例如通过数据融合)所有传感器信息,尤其是与例如用于车辆和自动化车辆的驾驶辅助系统和方法相关的信息,将多个占据栅格地图融合为统一连贯的地图,是本发明的目的。
占据栅格地图可以有助于映射车辆周围的环境以便寻找可能的障碍物,从而以这种方式确定可行驶空间以便能够估计它自身位置的自主系统可以安全地导航通过所映射的环境。
与单个传感器映射相反,由于多传感器融合而构建的栅格地图严重依赖于传感器测量权重。除非用户特别规定,传统的映射办法(例如贝叶斯占据过滤器(Bayes OccupancyFilter)(BOF)或D-S理论(Dempster-Shafer theory)(DST))应用相等的权重。经验性地调整的传感器权重针对某些场景定制的,特别是在传感器读数不矛盾的情况下。
发明内容
一个或多个实施例的目的是克服从现有技术可获得的解决方案的固有的局限性。
根据一个或多个实施例,由于具有权利要求1所说明的特征的方法,该目的得以实现。一个或多个实施例可以涉及相应的系统、车辆和计算机程序产品。
权利要求形成本文提供的关于各种实施例的技术教导的组成部分。
根据本文描述的解决方案,该方法包括根据来自多个源的数据,提供车辆环境的融合栅格地图表示(例如以占据栅格地图的形式)。
在一个或多个实施例中,自适应传感器权重可以例如迭代地应用于多传感器融合地图。
附图说明
现在将参考附图仅通过非限制性示例来描述实施例,其中:
-图1是根据实施例的车辆的示例性功能图,
-图2是占据栅格地图的实施例的视图,
-图3是图1的处理的可能的布置部分的示例,
-图4是根据实施例的占据栅格地图的可能的视图的示例,
-图5和图6是图的处理的可能的布置部分的示例,
-图7是图1的处理的实施例的可能的视图的示例,
-图8a、图8b和图9是图1的处理的可能的布置部分的示例,
-图10是车辆环境映射方法的实施例的示例。
具体实施方式
在下文的说明书中,示出了一个或多个具体细节,旨在提供对本说明书的实施例的示例的深入理解。可以在没有一个或多个具体细节或者在具有其他方法、组件、材料等的情况下获得实施例。在其他情况下,没有详细示出或说明已知的结构、材料或操作,因此实施例的某些方面将不会被难以理解。
本说明书的框架中对“一个实施例(an embodiment)”或“一个实施例(oneembodiment)”的引用旨在表明所描述的与该实施例相关的特定配置、结构或特征被包含在至少一个实施例中。因此,可能在本说明书的一处或多处中出现的诸如“在一个实施例中”或“在一个实施例中”之类的措辞不一定指同一个实施例。
此外,特定的构造、结构或特征可以任何适当的方式组合在一个或多个实施例中。
本文中使用的引用仅出于方便起见而提供,且因此不定义实施例的保护程度或保护范围。
图1示出了根据本文描述的解决方案的一个实施例的车辆的功能性图的示例。这种实施例包括配备有多个传感器S1、S2、Si的车辆V和驾驶辅助系统100,该驾驶辅助系统100配置成:基于融合占据栅格地图的集合FF提供包括至少一个经仲裁的融合占据栅格地图M的经仲裁的融合栅格地图集合MM,融合占据栅格地图集合FF包括由系统100基于传感器S1、S2、Si的测量详细阐述的环境的至少一个融合占据栅格地图F,经仲裁的融合栅格地图例如是,获得至少一个融合占据栅格地图F的数据融合操作中确定的所有冲突的一部分已经确定的地图。在本文讨论的实施例中的这种确定的融合占据栅格地图M对应于可行驶空间的地图。
例如,所述车辆V可以是自主驾驶车辆例如无人驾驶汽车。车辆的其他示例可以是类似汽车的车辆、自动机器人等。
多个传感器/检测器设备S1、S2、Si包括本身已知的传感器,例如激光雷达/雷达传感器、摄像机、GPS天线以及使用GPS信息(诸如(GPS/GIS)背景地图)的源等,并且该设备耦合到系统100。具体地,在示出的示例中,传感器是激光雷达、摄像机和GPS/GIS系统,该GPS/GIS系统基于检测到的位置生成(GPS/GIS)背景地图。
传感器S1、S2、Si集合通常可以包括具有以下特征的传感器:
-互补功能,例如覆盖由车辆探索的环境的不同视场区域和/或在所利用的物理工作原理中,
-连贯功能,例如提供关于同一视场的数据和/或通过相同的物理工作原理获取同一视场上的数据。
通常系统100将经仲裁的地图M提供给用户,例如作为辅助驾驶的援助;或者提供给使用所确定的地图M来控制车辆V的另一系统,例如用于自动驾驶的系统。图1示出了系统100可以耦合到输出接口IA。例如,接口IA可以是包括显示单元的用户接口,该显示单元可用于显示可行驶空间的这种经仲裁的融合占据栅格地图M。可替代地,在输出接口IA处可用的地图数据可以由另一系统使用及处理。
系统100配置为处理来自传感器S1、S2、Si集合的测量数据(“读数”)Y1、Y2、Yi,向输出接口IA提供融合占据栅格地图F、E集合FF(在数据融合方框40之外)。
如上所述,在接口IA处可用的可行驶空间的经仲裁的融合占据栅格地图M可以由车辆的控制系统使用以操作车辆本身,例如,导航在由系统100提供的作为输出的融合占据栅格地图M中表示的环境。
如图1中所例示,系统100通常包括多个传感器S1、S2、Si、时间融合阶段30集合、数据融合阶段40和仲裁阶段90。
特别地,将多个传感器S1、S2、Si作为输入带入到时间融合阶段30集合。时间融合阶段集合30接收传感器读数Y1、Y2、Yi集合。
如图1所示,时间融合阶段30集合可以包括第一时间融合阶段301、第二时间融合阶段302、第i时间融合阶段30i,以处理来自多个传感器读数Y1、Y2、Yi中的每个传感器的单个读数(例如Yi),从而提供传感器占据栅格地图G1、G2、Gi集合作为输出,如下所述。
例如,时间融合阶段30集合可以分布在各自的传感器上,以本身已知的方式(例如经由软件)提供传感器读数的本地分散处理。
在图1所示的示例性实施例中:
-第一时间融合阶段301接收来自第一传感器S1的传感器读数的第一数据集Y1并提供第一地图G1作为输出,
-第二时间融合阶段302接收来自第二传感器S2的传感器读数的第二数据集Y2并提供第二地图G2作为输出,
-第i时间融合阶段30i接收来自第i传感器的传感器读数的第i数据集Yi并提供第i地图Gi作为输出。
因此,根据来自传感器S1、S2、Si集合的各自传感器读数Y1、Y2、Yi,时间融合阶段30集合中的每个时间融合阶段301、302、30i提供以车辆框架表示的占据栅格地图G1、G2、Gi集合。
可替代地,第i传感器/源也可以直接提供栅格地图Gi作为读数,例如可能是当涉及从遥感源获取GIS/GPS地图时的情况。
如上所述,在变型实施例中,在时间融合阶段30集合中的处理传感器读数Y1、Y2、Yi的操作可以包括:
-坐标系转换操作,例如从传感器框架到车辆框架,
-时间融合操作,例如根据车辆的工作时间进行数据标准化、数据同步,
-数据融合操作,例如数据的组合、关联、相关、估计。
优选地,由时间融合阶段30集合提供的在地图G1、G2、Gi集合中的至少一个第i地图Gi根据由第i传感器Si提供的测量的种类而提供关于环境特定特征的信息。
图2是示例性的占据栅格地图G0的视图,例如用于系统初始化以处理来自第i传感器的数据的先验栅格地图。
占据栅格地图通常包括数量为N=n*m的单个单元格gij k,其中n是行数,m是列数,分别由索引i和j索引。
具体地,如在笛卡尔坐标系中一样,栅格地图G0中的任何单个单元格gij k优选地具有固定的尺寸和预定的几何形状,例如正方形。
占据栅格地图G0=G0,k可以随时间演变,因此是时间k的函数。
栅格G0的每个单元格gij可以是变量(例如随机变量),其可以(在时间k)以一定概率假设一定数量的“状态”值。
示出的实施例中的栅格的每个单元格gij k包括随机变量数值和关联的(分类)“状态”值,例如:
-数值可以是概率值p(gij k),以便估计由单个单元格映射的环境的部分被正确估计为被对象“被占据”的概率,
-根据概率值p(gij k)可以从可能的状态值列表中分配“状态”标签值(例如,空闲/未知/被占据),以便表示由栅格地图的单元格映射的环境的部分的占据状态。
通常,如果存储在单元格中的概率值为:
-低于一定阈值,例如p(gij k)<0.5,用第一状态标签(例如“空闲”)对该单元格进行分类,该标签被分配给相应的单元格,
-高于一定阈值,例如p(gij k)>0.5,用第二状态标签(例如“被占据”)对该单元格进行分类,该标签被分配给相应的单元格,
-等于一定阈值,例如p(gij k)≈0.5,用第三状态标签(例如“未知”)对该单元格进行分类,该标签被分配给相应的单元格。
栅格地图通常以二维栅格描述,例如Gk={gij k:i≤i≤n,1≤j≤m}。
例如,图2、图4和图7所示的,当在显示器上或以任何图形形式可视化栅格地图时,与每个栅格单元格的分类标签有关的信息可以被编码为填充栅格单元格区域的图案/颜色。
与在每个栅格单元格gij k中的随机变量相关联的概率分布p(gij k)当从传感器获取新的传感器读数时会随时间演变,并且在每个时刻k时,会考虑传感器的测量Yi和车辆的姿态V进行相应的更新。
图3是示出第i时间融合处理阶段30i的实施例的示例图。
时间融合处理30i涉及汇总在传感器读数中接收到的信息,例如,将第i源Si在时间k得到的读数Yi,k与第i源Si在前一时间k-1的读数Yi,k-1进行汇总。
因此,根据来自传感器S1、S2、Si集合的各自传感器读数Y1、Y2、Yi,每个时间融合阶段301、302、30i提供以车辆框架表示的占据栅格地图G1、G2、Gi集合。
时间融合处理阶段30i可包括从传感器框架到车辆框架的坐标系转换操作301、302、30i,如下所述:
-将传感器读数格式化为具有与优选传感器模型相关联的特征的矢量,
-计算逆似然/传感器模型,以从测量值中提取与环境相关的信息,
-考虑传感器读数中存在的测量误差。
如图3所例示,第i时间阶段30i在给定时间k从第i传感器Si接收传感器读数/测量的数据集Yk,例如以n维向量Yk=(y1 k,y2 k,…,yn k)的形式。
类似地,车辆状态Vk(例如其位置)在给定时间k可能是已知的(例如存储在阶段312中),并且可以将其描述为m维向量,例如Vk=(v1 k,v2 k,…,vm k)。例如,通过车辆V相对于地平面的质心位置和定向角度可以参数化车辆Vk的姿态。
在某个时间k车辆姿态/状态Vk和传感器读数Yk进行组合,例如提供似然值形式的输入,例如p(Yk|Vk),以被输入到时间融合处理阶段30i。
如本文所述,贝叶斯占据过滤器(BOF)足够使用。例如,BOF是计算占据栅格地图Gk在时间K的后验概率p(Gk|Yk,Vk)的有效公式,以在考虑新的传感器读数集合的情况下,用于计算占据栅格地图Gi的栅格单元格的更新的概率值。
为了执行时间融合处理30i,提供例如在阶段324中存储/生成的初始占据栅格地图M0。初始栅格M0例如被初始化:
-将每个单元格的状态分类为“未知”,例如,如果没有关于车辆周围环境的先验信息是可用的,分配的概率值为0.45<p(gij 0)<0.55,和/或
-如果关于环境的先验信息是已知的,加载栅格单元格值。例如,当车辆进入/退出房屋车库时,阶段303可以被自主控制系统操作以根据先验已知的车库平面几何提供初始占据栅格地图M0。
此外,“前一个”栅格地图Gk-1在时间融合阶段30i的阶段307中生成/存储,其中栅格单元格具有在获取传感器读数的时间k之前的时间k-1中计算的概率值。
注意,在系统启动时,初始栅格M0和“前一个”栅格地图Mk-1可以具有相等的值,例如Mk-1=M0。
时间融合阶段30i融合先验地图知识M0和/或“前一个”栅格地图Mk-1,例如,在阶段322中,具有以测量似然p(yk|xk)的形式的新数据。
贝叶斯定理指出栅格地图Mk的单元格gij k在时间k被占据(或空闲)的概率p(gij k|yk,xk)是与下列成比例的:
-“前一个”栅格地图Mk-1的单元格gij k-1在时间k-1的概率p(gij k-1|yk-1,xk-1),以及
-例如根据逆似然模型计算的概率p(gij k|yk,xk),
-贝叶斯增益,f{p(not(gij k)|yk,xk)-p(gij k|yk,xk)}。
如图5中所示,在增益阶段520中计算贝叶斯增益。
注意,在对地图的先验未知边界的假设中,仅基于测量计算贝叶斯增益。
在图3所示的示例性实施例中,遗忘因子327也被应用于传感器占据栅格,例如被应用于“前一个”地图。遗忘因子阶段可以引入参数(例如指数衰减因子),作为用于增加或减少更新的栅格Gk在先前栅格Gk-1上的权重的设计参数而应用于栅格单元格值。
因此时间融合处理30可以被公式化为对以下问题的递归解:考虑到环境G0、车辆位置Vk和传感器读数Yk的先前知识,使特定的栅格单元格gk ij实际被占据(或空闲)的概率最大化。
注意,在时间k(表示为Gk)处的栅格地图G(例如G=Gi)是处理在时间k的传感器读数(例如Yi,k)和在时间k-1的先前地图G(表示为Gk-1)的结果。另外,先前地图Gk-1不仅包含与时间k-1本身相关的信息,还包含与地图从时间原点到时间k-1(例如,从时间1到时间k-1)的整个演化相关的信息。
此外,根据一阶马尔科夫假设,当表示传感器占据栅格地图Gi时,将参考地图G的演化在时间k的单个“时间帧”,但不限于实施例。否则,在时间k-1的单个地图G内表示/捕获从时间1到k-1的完整地图历史。
图4是从来自多个传感器S1、S2、Si中的各自传感器的多个传感器读数Y1、Y2、Yi处理的可能的传感器占据栅格地图-框架G1、G2、Gi的视图。特别地,图4的部分a)的各自部分a1)、a2)、a3)、a4)表示图4的部分b)的各自部分b1)、b2)、b3)、b4)的放大图。
分类自传感器占据栅格地图的栅格单元格内容的各自“状态”标签可以根据每个传感器的传感器读数参数/工作原理而改变。
实际上,各自的传感器占据栅格地图G1、G2、Gk可能每个都提供关于环境的特定特征的信息。
例如,在所示示例中:
-第一占据格地图G1是处理来自视觉传感器的数据的结果,从而提供有关静态对象和动态对象以及环境的拓扑(例如带车道的道路)的信息。
-第二栅格地图G2是处理来自激光雷达传感器的数据的结果,以便提供关于静态和/或动态障碍物的估计距离的信息。
-第i地图Gi是处理来自由地理信息系统(GIS)表示的传感器的数据的结果,以便提供环境的背景信息数据(例如,道路区域/道路以外区域)。众所周知,GIS集成了遥感影像图,即通过使用飞机或卫星上的传感器对地球进行测量而获得的影像。
具体地,在经过传感器读数Y1、Y2、Yi的时间融合处理30i在时间融合阶段30中生成各自的传感器占据栅格地图G1、G2、Gi之后,对于每个时间步k,传感器占据栅格地图G1、G2、Gi集合中的栅格地图被一起“融合”在包括至少一个“融合”占据栅格地图F、E的融合地图集合FF中。
为此,栅格融合阶段40接收地图集合G1、G2、Gi,并通过对地图集合G1、G2、Gi(的例如定时帧G1,k、G2,k、Gi,k)中数据执行融合操作而提供至少一个“融合”占据栅格地图F、E作为输出。
可以将不同的办法用于数据融合40,其可以包括对地图G1、G2、Gi集合(的定时帧)中的数据进行组合、关联、估计、相关操作中的至少一个。
这两种办法在图8和图9所示的两个实施例中进行了总结,其表示数据融合方框40的实现方式。
例如,如图1所例示,可以使用如图8所示的基于贝叶斯推断50或如图9所示的基于D-S理论60的数据融合。
因此,融合栅格地图可以促进准确地预测和/或检测沿车辆V的行驶路径的障碍物的占据率,从而有助于通过驾驶辅助系统/接口对车辆V的行驶路径进行在线校正。
例如,当车辆由自动驾驶系统(在图中不可见)操作时,可以有助于避免车辆与障碍物之间的碰撞。
如上所述,例如,栅格融合处理40可以包括以下至少之一:
-贝叶斯推断/贝叶斯占据过滤器(BOF)融合处理阶段50,
-D-S理论(DST)融合处理阶段60。
实际上,贝叶斯占据过滤器(BOF)(参见例如图5)和D-S证据理论(DST)(参见例如图6)中的至少一个适用于栅格融合处理阶段40。尽管在图8和图9中表示了各自单独的实现方式,但是栅格融合处理阶段40和仲裁阶段90可以包括并行操作的BOF和DST实施例。
如图5所例示,在BOF融合50中,基于权重Wk集合,例如Wk=[wk,1,wk,2,wk,i],融合处理公式将传感器占据栅格地图G1、G2、Gi集合中的各自传感器占据栅格地图的各自栅格单元格中的数据进行组合,表示在各自传感器读数Y1、Y2、Yi的准确性中的各自置信水平。
一般来说,BOF(栅格融合处理)50的结果可以用从时间融合产生的传感器占据栅格地图的加权(线性)组合来表示,例如:
除非由用户和/或设计事先指定,假设传感器均对BOF栅格融合处理50产生同等贡献,即,将地图以相等权重进行组合,例如wk,i=wk。
其中,将关于地图占据率的估算与以似然形式p(Gk|Fk)的每个单个传感器栅格Gk进行比较。
但是,基于栅格的办法没有能力预测对象的行为,因为这将需要特征识别和数据关联技术的实现,并因此仅依赖于测量权重。类似地,与时间融合一样,如果没有基于模型的预测,则预期的地图从时间k-1到k的变化是p(Fk|Fk-1)=0。因此,贝叶斯增益f{p(not(Fk))|Gk)-p(Fk|Gk)}可能无法确定传感器权重wk。根据经验调整的传感器权重可能仅为某些情况定制,因此可能不适合通用目的映射。因此,变得明显的是在栅格融合过程中需要递归地调整传感器权重。
提供迭代可调整的权重的反馈网络,例如,如以下所讨论的在由仲裁阶段90提供的数据集W中,可以便于BOF融合期间的自动传感器权重wk调整。
可替代地,例如在图9的方框60(在图6中详细描述)中,可以采用被称为D-S证据理论(DST)的一组组合规则。DST被开发以便通过利用应用在证据栅格上的组合规则(即证据理论)解决占据栅格之间发生的不确定性。
实际上,根据贝叶斯定理,基于每个单元格的单个概率评估单元格的占据率,而在DST中,基于四个“质量”的信任函数做出关于占据率的决策。此外,贝叶斯定理中的信任转变仅在两个状态之间是可能的,并且受到对称限制。
如图6所例示,DST处理60提供至少一个占据栅格地图Fk和/或互补占据栅格地图(例如not(Fk)和/或冲突栅格地图Ck)作为输出。被DST处理60提供作为输出的融合栅格地图的Fk集合、not(Fk)、Ck可以被统称为“证据栅格”E。
与关于图2所讨论的类似,证据栅格地图E具有分配有概率值的单个栅格单元格。此外,与概率值相关的分类包括的不只是单元格的“状态”的二进制集:实际上,不确定性被建模为信任函数Bel(X)。
关于环境占据率的“信任”(即支持状态主张的证据,分类被认为是真实的程度)被分类为被占据(O)或空闲(FR),从而得出随机变量的所有可能状态的集合X={O,FR}。X的可能子集的集合,即“识别框架”(简称FOD)表示为DST的主要目标是计算信任Bel(X),其是得出的概率,其对支持识别框架2X中的任何主张X的所有证据做出解释。因此,信任函数Bel(X)表示X被认为是真实的程度,并可以表示为:
其中:
-X是可能的状态2X中的任何状态,例如X=O,
-Bel(X)是2X的子集,其解释支持主张X的所有证据。
证据栅格地图E中的单元格的内容(也称为“似然”)是检测在车辆V周围环境空间中对象/障碍物存在的可靠程度的指标。
DST融合过程60通常从基本质量分配(BMA)阶段610开始,包括基于硬约束的过程,该过程能够将四个质量重新分布到占据栅格地图单元格p(gk,i)。如下所述,随后将BMA的结果提供带D-S组合规则阶段690中。
给定交换性质,传感器的融合顺序无关紧要。
在证据办法中,信任可以在四个状态之间转移,在这些状态中,每个转变具有不同的含义、动态和重要性。尽管DST在单元格中建模了更高的置信水平,而不仅是单个概率值,但传感器栅格权重wk在此阶段仍未解决。
如在图8中引用执行BOF的数据融合方框50的实施例中所示,在该实施例中,时间融合阶段集合30被耦合到栅格融合状态40,栅格融合状态40包括基于贝叶斯推断50和差异评估阶段70的数据融合方框50。
差异评估阶段70接收地图G1、G2、Gi集合并提供检测到的差异D集合,该集合D包含关于比较地图(例如,一对一)的操作的结果的信息。通过适合于识别地图之间的至少相等和不同(即冲突)的单元格的任何不同技术可以执行比较操作。
例如,检测到的差异D集合可以包括:
-在各自的传感器栅格地图之间有冲突的单元格的位置集合,如下所述,和/或
-指示在成对的传感器之间的不一致的值的集合,例如,将第一传感器栅格中的栅格单元格的概率值从第二传感器栅格中的相应栅格单元格的概率值中减去而得到。
例如,上述信息可以矩阵形式组合。
图7是在差异检测阶段70中处理地图集合的可能结果的示例。
如图7所示,部分a)是融合地图F的示例时间帧,在图7的部分b)、c)和d)中将其一部分(以黑方框为界)放大了。
因此,差异处理阶段70可以提供检测到的差异D集合,其包含关于在占据栅格地图的组之间的冲突存在的结构化信息,特别是用于说明冲突在哪里以及与冲突相关的是所比较的栅格地图的哪组(例如,对)。
具体地,检测到的差异D集合包括例如:
-第一差异Δ12,指示第一占据栅格地图G1和第二占据栅格地图G2之间的不一致;
-第二差异Δ2i,指示第二占据栅格地图G2和第i占据栅格地图Gi之间的不一致;
-第i差异Δi1,指示第i占据栅格地图Gi和第一占据格地图G1之间的不一致。
例如,这种信息可以以具有差异分量Δ12、Δ2i、Δi1的阵列的形式被存储/编码在检测到的差异D集合中,每个存储传感器栅格单元格组的每个比较的结果,例如,对于在各自的栅格地图单元格中的每个单元格包含“冲突”值。
通过将地图单元格中的概率值从不同地图单元格中的概率值中减去可以计算所述“冲突”值。
差异处理阶段70存在的效果是促进对由传感器S1、S2、Si提供的读数Y1、Y2、Yi生成的时间融合栅格地图G1、G2、Gi的合并和操纵的自动校准。实际上,对差异D集合中的“冲突”值Δ12、Δ21、Δi1的了解可用于通过冲突仲裁阶段处理90将“融合”地图F、E的“不确定”单元格的概率“提示”为“被占据”或“空闲”状态,以提供具有减少数量的冲突单元格的“协调的”或经仲裁的可行驶融合地图M。
如图8a所例示,数据融合阶段40和差异评估阶段70被耦合到仲裁阶段90,仲裁阶段90接收地图集合FF作为输入,在图8的实施例的情况下,地图集合FF包括BOF数据融合方框50、融合地图F和检测到的差异D集合。
在图9的实施例的情况下,仲裁阶段90′接收集合FF,该集合FF包括融合地图F和证据栅格E。
如图8、图9所例示的仲裁阶段90、90′基本上包括占据栅格处理阶段85(在图9中表示为85′),接收融合地图集合FF作为输入,并且提供经仲裁的融合地图集合MM作为输出,这种阶段85通常包括冲突检测阶段83、冲突解决阶段87和冲突校正阶段89。在图9中,变型实施例用90′指示,并且相应的方框用“主要”上标指示,如85′、83′、89′、87′,以示出相应功能的可能的不同内部实现。
根据在数据融合处理阶段40(例如BOF融合50和/或DST融合60)中使用的方法,冲突仲裁阶段90可以使用不同的方法以解决由传感器提供的关于融合栅格F和/或证据栅格E的单元格的占据状态的可能的冲突(例如矛盾)信息。
具体地,在如图8a所示的变型实施例中,数据融合处理阶段40和差异评估阶段70中的BOF融合处理阶段50被耦合到冲突仲裁阶段90。
在所考虑的实施例中,冲突仲裁阶段90还包括基于概率模型或替代地基于编码规则和逻辑公式的情况评估阶段80,以通过处理检测到的差异D集合解决融合地图F中的冲突单元格值。因此,冲突仲裁阶段90从BOF融合处理阶段50接收融合地图F并且从差异检测阶段70接收检测到的差异D集合作为输入。
在图8所例示的实施例中,情况评估阶段80包括冲突评估阶段84和基于差异的关系建模(简称DBRM)阶段82。占据栅格处理阶段85包括冲突检测阶段83、冲突解决阶段87和冲突校正阶段89。
占据栅格处理阶段85中的冲突检测阶段83从BOF处理阶段50接收融合地图F,并提供所述地图F和/或冲突单元格集合CA和/或触发信号作为输出。
冲突检测阶段83因此可以提供标记的单元格CA集合作为输出,以信号通知已发生了冲突。注意,在时间k可以标记融合栅格F内的多个标记的单元格CA。因此,在融合地图F内可以为每组单元格CA启用相同的标记。可替代地,可以将多个标记值在同一时间k与多个栅格单元格相关联,例如,以将较高的“冲突级别”与较低的“冲突级别”区分开。
触发信号可以周期性地生成,即在给定的时刻,或者根据冲突单元格CA集合中的概率值。触发信号及其可以在内部使用或提供给用户处理阶段87、84。
例如,冲突检测阶段83可以在应用标记之前在数据融合处理40中从BOF处理阶段50接收融合地图F的多个时间帧。冲突检测阶段83在标记所述冲突单元格CA集合之前可以等待一定时间k(例如一定数量的融合处理周期),和/或等待单元格概率值稳定。
可替代地,冲突单元格CA的非空集合的存在本身可以用作触发信号。
在所考虑的实施例中,冲突检测阶段83向情况评估阶段80中的冲突评估阶段84和占据栅格地图处理阶段85中的冲突解决阶段87提供所述标记的单元格CA和/或融合地图F和/或触发信号的集合。
在图8的示例性实施例中,情况评估阶段中的冲突评估阶段83接收以下作为输入:
-来自差异评估阶段70的检测到的差异D集合,
-由DBRM阶段82提供的基于差异的关系模型DM(例如存储在存储器82中),
-冲突单元格CA的集合,和/或融合地图F和/或触发信号。
由阶段82提供的基于差异的关系模型DM表示一组规则,以应用于融合栅格地图F和/或冲突单元格CA的集合中的冲突栅格单元格,以执行以下至少一项:
-冲突单元格的空间评估,例如单元格位置,
-占据概率的评估,例如通过差异解决逻辑。
因此,冲突评估阶段84配置为使用(例如组合)检测到的差异D集合和基于差异的关系模型DM,因此提供了方法以便解决冲突,其维持栅格单元格的状态“不确定/未知”。
与前述参考图7讨论的相似,通过观察不同传感器测量之间基于差异的关系的存在来开发第一示例性解析逻辑。
在图7的b)、c)和d)部分中,区域A是对应于道路边缘(例如车道)的栅格单元格。该信息通过视觉传感器确认为车道,并通过(GPS/GIS)背景地图确认为(圆形)边界。但是,激光雷达传感器可能会将产生的熔融地图的单元格分类为“空闲”,因为大部分光束能量被分散到周围环境中。
因此,如图7所例示,视觉传感器与激光雷达(部分c)的和背景地图(GIS/GPS)与激光雷达(部分d)的检测到的差异D集合中的差异D2i和Di1分别具有高差异值,因为两个传感器对的测量相互矛盾。相反,视觉传感器和GIS地图(b部分)之间的差异Δ12很小,因为来自两个传感器的测量相互确认。
障碍物检测是一个关心的事,尤其是关于准确确定临时护栏的存在,该临时护栏可能出现在道路上和/或确定道路边界的车道上。这些对象可能是不确定性的来源,因为它们的出现/存在可能在至少一对传感器读数中产生/处于冲突。
对于每个单元格,通过使用以下逻辑/规则,基于检测到的差异D可以评估所述对象的存在:
-如果差异Δ2i和Δ12表示传感器对S1、S2和Si、S2不一致,且Δi1表示传感器对Si、S1不一致,则该单元格被标记为“被占据”,
-如果Δ2i表示传感器对S2、Si不一致且Δ12表示传感器对S1、S2一致且Δi1表示传感器对Si、S1一致,则该单元格被标记为“被占据”,
-在任何其他情况下,该单元格被标记为“空闲”。
因此,“冲突”值是由差异建模阶段82提供的差异评估模型DM的参数。可以在阶段82提供的模型DM中参数化“冲突”。例如,如前面所讨论的,“conflict”=0.5可能意味着使用来自第一传感器的数据,栅格单元格gij k被标记为“空闲”,而根据来自第二传感器读数的栅格地图,栅格单元格gij k被标记为“被占据”。
冲突评估阶段83提供关于冲突单元格和冲突类型的信息(例如在数据集CR中)作为情况评估阶段80的输出。因此,如图8所例示,占据栅格处理阶段85中的冲突解决阶段87接收以下内容作为输入:
-由情况评估阶段80提供的数据集CR,以及
-由冲突检测阶段83提供的触发信号和/或融合地图F和/或冲突单元格CA的位置和值的集合。
冲突解决阶段87处理输入,例如将冲突概率评估为传感器测量中的时空置信度。因此,可以计算自适应权重值W以用于进一步处理。例如,权重值可以包括自适应权重值W,该自适应权重值W可以被传递“回”先前的阶段,例如经由反馈网络被传递到数据融合处理阶段40,特别是在BOF融合阶段50的阶段520中,以应用到数据融合处理中的传感器栅格值。
冲突解决阶段87处理所述输入,提供值CC的集合。
在一个或多个实施例中,值CC的集合表示在前馈校正的情况下应用于融合地图F的校正δF,或在校正应用于反馈变型的情况下的权重校正δW。
因此,这将“提示”(即推动或重新分配)所述冲突单元格进入定义状态(例如,被占据或空置状态)的概率。例如,可以根据所检测到的差异D集合中的“冲突”值的测量来计算所述解析的栅格单元格值,例如通过在由情况评估阶段80提供的数据集CR中应用规则。
冲突解决阶段87的输出被传送到冲突校正阶段89。
因此,冲突校正阶段89接收:
-来自冲突校正阶段87的值CC的集合,
-规则数据集CR,
-来自数据融合处理阶段40中的BOF融合阶段50的融合地图F。
冲突校正阶段89提供可行驶融合地图M作为输出,如前所述,可将其提供给驾驶辅助系统/接口IA。例如,通过将融合地图F中冲突栅格单元格的值与相应值CC(例如解析的栅格单元格值)进行合并和/或替换而在冲突校正阶段89中获得所述融合栅格地图M。
因此,融合栅格地图M有助于准确地预测和/或检测沿着车辆V的行驶路径的障碍物的占据,从而有助于通过驾驶辅助系统/接口IA对车辆V的行驶路径进行在线校正。
例如,当车辆由自动驾驶系统(在图中不可见)操控时,可以有助于避免车辆与障碍物之间的碰撞。
在图8b的示例中,为了提供简化的示例,传感器栅格地图G1、G2、Gi具有n=2行和m=1列的栅格单元格,其在差异阶段的处理提供检测到的差异D集合作为结果,例如:
-第一对传感器一致,例如Δ12=0,
-第二对传感器不一致,例如Δ2i=1,
-第三对传感器不一致,例如Δi1=1。
尽管在其他实施例中可以执行不同计算以确定差异,但是上面示出的计算当然表示简单的示例。
因此,冲突解决阶段87可以计算更新的权重值,例如以提供给栅格融合处理阶段40中的BOF融合阶段50。例如,权重可以如下计算:
CC=[w1,w2,w3]
其中:
-w1=w2=u/u1+u2+ui;
-w3=v/u1+u2+u3
以及
-u=CA+CA*CC=0.55,
-v=CA-CC=0.11。
因此,无论是前馈配置还是反馈配置,都可以根据融合栅格地图M中的这些权重,对传感器栅格地图的占据概率相应地进行融合和加权。
在仲裁阶段90的另一变型实施例中,如在图1、5和8中可见的,值CC可以包括自适应权重W以在数据融合处理阶段40中反馈到BOF融合处理50,例如特别是在BOF融合处理的阶段520中。这有助于在数据融合处理50中对传感器占据栅格地图的W、520、50进行迭代加权,例如提供加权的线性意见池融合。
如上所述,在如图9所例示的变型实施例中,数据融合处理阶段40中的DST融合处理阶段60被耦合到仲裁阶段90。
具体地,在如图9所例示的变型实施例中,仲裁阶段90′可以包括证据栅格处理阶段85′。
如图9中所例示的,与前面所讨论的类似,证据栅格处理阶段85′包括检测阶段83′和解决阶段87′。
在如图9所例示的变型实施例中,当从DST处理60接收也包括证据栅格E的融合地图的集合FF时,检测阶段83′配置为将所述证据栅格E传递至解决阶段87′,例如每次阶段83′收到证据栅格E时,传递值并触发阶段87′的激活。
在图9所例示的变型实施例中,冲突解决阶段87′包括例如存储比例冲突解决(PCR)规则,其适合于与DST栅格融合60结合使用。
在如图9所例示的变型实施例中,关于栅格单元格占据值的决策“逻辑”(例如,如何“提示”冲突单元格的概率)可以基于具有多个值的“信任函数”Bel(X),例如四个值(质量)-(空闲、被占据、冲突、未知),不同于二进制的贝叶斯值空闲/被占据。因此,由于有可能在四个“状态”之间分配“信任”,DST有助于提高映射的分辨率。实际上,这有助于以更详细、更真实的方式表示环境中发生的转变并提供更可靠的环境地图。
实际上,即使GPS信息指出没有墙壁,除非激光雷达传感器给出相反指示,则最好通过分配“冲突”值来突出显示此信息,将其与GPS和激光雷达对某区域均未给出信息因此将其标记为“未知”的情况区别开。在BOF融合50中,在先前示例的两种情况下,融合地图F的栅格单元格都会被分配相同的概率值(例如0.5)和相同的状态(例如“未知”)。另一方面,DST可以区分更多“证据”状态,例如四个状态空闲、被占据、冲突、未知。
然而,已经观察到,DST融合60在组合来自(高度)冲突源的信息时可能会产生违反直觉的结果,因此PCR处理87′可以用于应对不可预测的“证据”栅格地图E,扩展DST性能以自动解决潜在冲突。
例如,一个或多个实施例可以包括冲突的质量再分配的操作87′,例如,根据所有完整性约束与非空集合成比例地再分配。
例如,PCR阶段87′配置为对所有子集(空闲、被占据、冲突、未知)∈A计算所有来源n的结合组合,生成如下所示的基本DST公式:
全部冲突质量可以表示为如下所示:
其中:
-上式中的附录m(X1∩X2∩…∩Xn)是部分冲突质量。
因此,如图9所例示的,在使用证据栅格E的一个或多个实施例中,每个部分冲突质量与基本概率质量成比例地被再分配89′到其子集,该基本概率质量在仲裁阶段90′的冲突解决阶段87′中已经分配给这些子集。
再次注意,图8和图9的变型实施例可以在另一变型实施例中进行组合,其中仲裁阶段90可以耦合到BOF融合处理和DST融合60。
实际上,在证据栅格地图E上使用比例冲突再分配规则87′(简称PCR),以及使用通过由差异D的情况评估80提供的规则CR来解决冲突,其并不是互斥的办法。
两种办法可以在一个变型实施例中组合,包括例如在仲裁阶段90:
-多个专门的并行阶段,每个阶段执行特定功能,例如一对冲突解决阶段87、87′;
-执行两种操作的同一阶段,例如,同一处理阶段87配备为在具有PCR 87′的DST证据栅格E上和/或在BOF融合地图F和规则数据集CR上进行操作。
例如,如果在处理数据融合阶段40中包括处理阶段50和60,则后一种布置可以证明是有用的。实际上,在数据融合阶段40中可以例如并行地执行DST处理60和BF处理50,以改善两种方法的一致性并减少彼此的弱点,例如促进改进的鲁棒性。
因此,冲突仲裁阶段90可以促进对至少一个融合栅格地图F、E的栅格单元格中的冲突的连贯和可靠的校正,从而输出可行驶融合地图M。
将理解的是,前面讨论的处理阶段的表示-特别是数据融合阶段40、BOF融合50、DST融合60、仲裁阶段90和/或90′和差异检测阶段70-作为不同实体仅仅是为了清楚和简单起见。在一个或多个实施例中,那些阶段中的一个或多个阶段可以以多功能阶段和/或电路的形式被集成,例如在单个处理器或DSP中。
图10是根据所描述的实施例的车辆环境映射的方法1000的示例图。
用于映射车辆V(例如陆地车辆)的环境的所述方法1000包括以下操作:
-在方法操作的开始表明S1、S2、Si,以及存在多个传感器S1、S2、Si(例如包括激光雷达、相机和GPS/GIS);
-1010表示从多个传感器S1、S2、Si接收输入值Y1、Y2、Yi的集合的操作;
-1030表示将(分散的)时间融合处理30;301、302、30i应用到所述输入值Y1、Y2、Yi集合的操作,从而得到占据栅格地图G1、G2、Gi的各自集合;
-1040表示将数据融合处理40应用于所述占据栅格地图G1、G2、Gi集合的操作,从而得到融合占据栅格地图F、E的集合FF,例如使用1050表示的贝叶斯占据过滤器处理或1060表示的D-S证据理论处理,
-1070表示通过比较所述地图G1、G2、Gi集合中的占据栅格地图(例如占据栅格地图的成对组合(2-combinations))来检测差异(70)的操作,从而得到检测到的差异D集合,
-1090表示处理1090所述融合占据栅格地图的集合FF的操作,输出可行驶空间的融合占据栅格地图的集合MM,所述处理操作包括在所述至少一个融合占据栅格地图F、E中执行冲突仲裁1090a、1090b。操作1090a对应于图8中的由仲裁方框90的实施例执行的操作,而操作1090b对应于图9中的仲裁块90′的实施例执行的操作,这也将在下面详述;
-IA表示向至少一个驾驶者辅助设备提供可行驶的经仲裁的融合地图M的操作,驾驶者辅助设备IA配置为根据所述可行驶空间的所述经仲裁的融合占据栅格地图M进行操作。
如上所述,操作1090处理特别包括以下至少之一:
-前馈处理1090a、1090b,
-反馈处理1090a,包括传感器占据栅格单元格和/或传感器读数的自适应加权,例如通过向数据融合处理阶段40(例如向BOF融合50的阶段520)提供自适应权重W。
如上所述,操作1090a前馈处理特别地包括:
-例如在方框83处,在至少一个融合地图F或E中在一定时间段内标记被分类为不确定的栅格单元格集合,从而得到标记的栅格单元格集合,
-例如在方框84中分析所述检测到的差异D集合,根据(例如存储在方框82中的)存储的模型(例如模型DM)提供一组复合规则,
-例如在方框87中,将所述组复合规则(特别是自适应加权规则)应用于在至少一个融合地图F中的所述标记的栅格单元格集合的值,从而提供值CC(例如复合/校正栅格单元格值)的集合,
-例如在方框89中,通过将所述复合栅格单元格值的集合并入至少一个融合地图F中的标记栅格单元格中,提供可行驶空间的所述复合融合占据栅格地图(M)。
如上所述,操作1090b处理特别地包括:
-例如在方框83′处,传递证据栅格E中在一定时间段内被分类为不确定的栅格单元格集合,
-例如在方框87′中,在证据栅格E中应用“质量”的比例冲突再分配,从而提供复合栅格单元格值CC的集合,
-例如在方框89′中,通过将所述复合栅格单元格值集合并入证据栅格E中的标记栅格单元格中,提供可行驶空间的所述复合融合占据栅格地图(M)。
如上所述,该方法可以包括使用用于BOF的方框50和90或用于DST的方框60和90′,例如执行操作1050、1090a或1060、1090b。然而,在另一变型实施例中,数据融合方框40可以包括方框50和60,并且系统100可以包括仲裁方框90、90′,这意味着该方法可以包括并执行图10所示的所有操作,例如操作1040、1050、1070、1090a和1090b。
综上所述,一个或多个实施例:
-提供车辆(例如陆地车辆)环境映射,
-包括时间融合和数据融合操作,例如通过贝叶斯占据过滤器和/或D-S证据理论,
-时间融合处理可以在单个传感器中本地执行,并且单个传感器栅格地图可以以两个为一组进行比较以分析差异,
-通过冲突仲裁处理进一步处理差异分析和数据融合结果,例如使用基于差异的关系模型和/或成比例的冲突再分配,
-冲突仲裁可以提供复合融合栅格地图,例如具有由仲裁处理提供的用于冲突单元格的新值,
-可以将复合融合栅格地图提供给驾驶辅助系统,例如配备有系统的车辆上以执行根据实施例的方法。
还将理解的是,伴随本说明书在全部附图中例示的各种单独的实现选项不一定必须旨在以附图中例示的相同组合来采用。因此,一个或多个实施例可以相对于附图中例示的组合单独地和/或以不同的组合采用这些(即非强制性的)选项。
在不损害基本原理、不背离保护范围的情况下,细节和实施例可以相对于仅通过示例的方式描述的内容做出(甚至是显著的)改变。保护范围由所附权利要求书限定。
Claims (17)
1.一种车辆(V)环境映射的方法(1000),包括以下操作:
-接收(1010)来自多个传感器(S1、S2、Si)的输入值(Y1、Y2、Yi)集合,
-将时间融合处理(30,301、302、30i)应用(1030)到所述输入值(Y1、Y2、Yi)集合,从而得到各自的占据栅格地图(G1、G2、Gi)集合,
-将数据融合处理(40、50、60)应用(1040、1050、1060)到所述占据栅格地图(G1、G2、Gi)集合,从而得到融合占据栅格地图集合(FF),
其特征在于所述方法包括:
处理(1090)所述融合占据栅格地图集合(FF),所述处理操作(1090)包括在所述融合占据栅格地图集合(FF)中执行冲突仲裁(1090a、1090b);并输出经仲裁的融合占据栅格地图集合(MM),尤其是可行驶空间的经仲裁的融合占据栅格地图(M)。
2.根据权利要求1所述的方法,其特征在于,将数据融合处理(40)应用于所述传感器占据栅格地图(G1、G2、Gi)集合包括以下至少一项:
-贝叶斯推断/贝叶斯占据滤波器融合处理阶段(50),从而得到融合占据栅格地图(F);
-D-S理论融合处理阶段(60),从而得到证据融合栅格地图(E)。
3.根据权利要求1或2所述的方法,其特征在于,在所述融合占据栅格地图集合(FF)中执行冲突仲裁(1090a、1090b)包括对所述融合占据栅格地图(FF)的处理(1090a、1090b;85;85'),包括
-提供(87;87')一组复合规则(CR);
-将所述复合规则(CR)应用(85;85')于在所述融合地图集合(FF)中的至少一个融合地图(F;E)。
4.根据前述权利要求中的任一项所述的方法,其特征在于,所述处理(1090a、1090b;85;85')包括:
-在所述至少一个融合地图(F;E)中标记(83;83')栅格单元格(CA)集合,优选是包括被分类为不确定的栅格单元格的所述栅格单元格(CA)集合,
-将所述一组复合规则(CR)应用(87;87')于所述至少一个融合地图(F;E)中的栅格单元格,从而提供复合栅格单元格值(CC)集合,
-提供(89)所述可行驶空间的融合占据栅格地图(M),包括将所述复合栅格单元格值(CC)集合并入至少一个融合地图(F;E)中。
5.根据权利要求4所述的方法,其特征在于,将数据融合处理(40)应用到所述传感器占据栅格地图(G1、G2、Gi)集合包括贝叶斯推断/贝叶斯占据滤波器(简称BOF)融合处理阶段(50),从而得到融合占据栅格地图(F);并且包括通过比较所述地图(G1、G2、Gi)集合中的占据栅格地图以检测(1070)差异,从而得到检测到的差异(D、Δ12、Δ2i、Δi1)集合。
6.根据权利要求4或5所述的方法,其特征在于,提供一组复合规则(CR)包括处理(80)至少一个所述检测到的差异(D、Δ12、Δ2i、Δi1)集合,包括根据存储的模型(DM)分析(84)所述检测到的差异(D、Δ12、Δ2i、Δi1)集合,该模型配置为应用于从BOF融合处理阶段(50)接收的融合占据栅格地图(F),优选地所述存储的模型(DM)包括基于差异的关系模型(82),简称为DBRM。
7.根据权利要求4至6中任一项所述的方法,其特征在于,执行冲突仲裁(1090a)包括反馈处理(1090a;85),优选地通过给数据融合处理阶段(40;50,520,F)提供自适应权重W来包括传感器占据栅格单元格和/或传感器读数的自适应加权(W,50;520)。
8.根据权利要求3所述的方法,其特征在于,提供一组复合规则(CR)包括应用比例冲突再分配规则,该规则配置为应用(87')到从DST融合处理阶段(60)接收的证据融合栅格地图(E)。
9.根据权利要求6和8所述的方法,其特征在于,将数据融合处理(40)应用于所述传感器占据栅格地图(G1、G2、Gi)集合包括贝叶斯推断/贝叶斯占据滤波器融合处理阶段(50)和D-S理论融合处理阶段(60),以及包括
所述通过比较所述地图(G1、G2、Gi)集合中的占据栅格地图以检测(1070)差异,从而得到检测到的差异(D、Δ12、Δ2i、Δi1)集合;以及处理(80)所述检测到的差异(D、Δ12、Δ2i、Δi1)集合中至少一个的所述步骤,包括根据存储的模型(DM)分析(84)所述检测到的差异(D、Δ12、Δ2i、Δi1)集合,该模型配置为应用到从所述BOF融合处理阶段(50)接收到的融合占据栅格地图(F)。
10.根据前述权利要求中任一项所述的方法,其特征在于,将时间融合处理(30)应用到所述输入值(Y1、Y2、Yi)集合包括对多个传感器(S1、S2、Si)中的每个传感器(S1、S2、Si)在各自的时间融合阶段(301、302、30i)中的传感器读数进行本地分散处理。
11.根据权利要求5所述的方法,其特征在于,通过比较所述地图(G1、G2、Gi)集合中的占据栅格地图来检测差异(70)包括评估所述地图(G1、G2、Gi)的成对组合组的集合中的每个成对组合组之间的冲突栅格单元格位置和值(D、Δ12、Δ2i、Δi1)。
12.根据前述权利要求中任一项所述的方法,其特征在于,所述方法包括将所述可行驶空间的融合占据栅格地图(M)提供(1090)给接口(IA)。
13.根据前述权利要求中任一项所述的方法,其特征在于,该车辆(V)是陆地车辆。
14.一种环境映射系统(100),包括:
-至少一个传感器(S1、S2、Si),所述至少一个传感器配置为收集至少一个传感器读数(Y1、Y2、Yi),
-处理电路(30、40、70、90;30i;50、60),所述处理电路耦合到至少一个传感器(S1、S2、Si)以接收所述至少一个传感器读数(Y1、Y2、Yi),
-驾驶辅助系统接口(IA),
其特征在于:
所述处理电路配置为使用权利要求1至10中任一项的方法给所述驾驶辅助系统接口(IA)提供至少一个可行驶空间的融合占据栅格地图(M)。
15.根据权利要求14所述的系统,其特征在于,多个传感器(S1,S2,Si)优选地包含以下至少之一:
-激光雷达,
-GPS检测器,提供上下文信息,
-视觉传感器。
16.一种车辆(V),所述车辆配备有结合至少一个驾驶者辅助设备(IA)的根据权利要求14至15中任一项的系统(100),驾驶者辅助设备(IA)配置为根据所述可行驶空间的融合占据栅格地图(M)进行操作。
17.一种计算机程序产品,所述计算机程序产品可加载在至少一个处理电路的存储器中并包括软件代码部分,以在产品在至少一个处理电路上运行时用于执行根据权利要求1至13中任一项的方法的步骤。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
IT102018000006594A IT201800006594A1 (it) | 2018-06-22 | 2018-06-22 | "Procedimento per la mappatura dell’ambiente di un veicolo, corrispondenti sistema, veicolo e prodotto informatico" |
IT102018000006594 | 2018-06-22 | ||
PCT/IB2019/055145 WO2019244060A1 (en) | 2018-06-22 | 2019-06-19 | Method for vehicle environment mapping, corresponding system, vehicle and computer program product |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112313477A true CN112313477A (zh) | 2021-02-02 |
Family
ID=63491971
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201980042116.2A Pending CN112313477A (zh) | 2018-06-22 | 2019-06-19 | 一种车辆环境映射的方法以及相应的系统、车辆和计算机程序产品 |
Country Status (6)
Country | Link |
---|---|
US (1) | US11946750B2 (zh) |
EP (1) | EP3811029B1 (zh) |
JP (1) | JP7440013B2 (zh) |
CN (1) | CN112313477A (zh) |
IT (1) | IT201800006594A1 (zh) |
WO (1) | WO2019244060A1 (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113093221A (zh) * | 2021-03-31 | 2021-07-09 | 东软睿驰汽车技术(沈阳)有限公司 | 占据栅格地图的生成方法及装置 |
CN117289294A (zh) * | 2023-11-27 | 2023-12-26 | 睿羿科技(山东)有限公司 | 一种基于多分辨率贝叶斯网格的融合定位方法 |
Families Citing this family (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108983213B (zh) * | 2018-09-07 | 2021-01-01 | 百度在线网络技术(北京)有限公司 | 障碍物静止状态的确定方法、装置、设备及存储介质 |
FR3087559B1 (fr) * | 2018-10-17 | 2020-11-20 | Transdev Group | Dispositif electronique et procede de surveillance d'une scene via un ensemble de capteur(s) electronique(s), programme d'ordinateur associe |
DE102018127990A1 (de) * | 2018-11-08 | 2020-05-14 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren und Verarbeitungseinheit zur Ermittlung von Information in Bezug auf ein Objekt in einem Umfeld eines Fahrzeugs |
US11449705B2 (en) | 2019-01-08 | 2022-09-20 | Motional Ad Llc | Field theory based perception for autonomous vehicles |
US11808590B2 (en) * | 2019-01-11 | 2023-11-07 | Massachusetts Institute Of Technology | Autonomous navigation in a cluttered environment |
EP3739361A1 (en) * | 2019-05-13 | 2020-11-18 | Aptiv Technologies Limited | Method and system for fusing occupancy maps |
US11726492B2 (en) * | 2019-10-02 | 2023-08-15 | Zoox, Inc. | Collision avoidance perception system |
US11994866B2 (en) * | 2019-10-02 | 2024-05-28 | Zoox, Inc. | Collision avoidance perception system |
US11544899B2 (en) * | 2019-10-15 | 2023-01-03 | Toyota Research Institute, Inc. | System and method for generating terrain maps |
WO2021084731A1 (ja) * | 2019-11-01 | 2021-05-06 | 三菱電機株式会社 | 情報処理装置、情報処理システム、情報処理方法、及び情報処理プログラム |
DE102019132363A1 (de) * | 2019-11-28 | 2021-06-02 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren zum Betreiben einer Umgebungserfassungsvorrichtung mit einer gridbasierten Auswertung und mit einer Fusionierung, sowie Umgebungserfassungsvorrichtung |
EP3828587A1 (en) * | 2019-11-29 | 2021-06-02 | Aptiv Technologies Limited | Method for determining the position of a vehicle |
CA3166258A1 (en) * | 2020-02-04 | 2021-08-12 | Pindrop Security, Inc. | Dynamic account risk assessment from heterogeneous events |
JP7519792B2 (ja) * | 2020-03-19 | 2024-07-22 | 本田技研工業株式会社 | 制御装置、制御方法およびプログラム |
EP3882813A1 (en) * | 2020-03-20 | 2021-09-22 | Aptiv Technologies Limited | Method for generating a dynamic occupancy grid |
EP3905106A1 (en) | 2020-04-27 | 2021-11-03 | Aptiv Technologies Limited | Method for determining a drivable area |
EP3905105A1 (en) | 2020-04-27 | 2021-11-03 | Aptiv Technologies Limited | Method for determining a collision free space |
DE102021112349A1 (de) * | 2020-05-12 | 2021-11-18 | Motional Ad Llc | Fahrzeugbetrieb unter verwendung eines dynamischen belegungsrasters |
CN111580130A (zh) * | 2020-05-25 | 2020-08-25 | 中国计量大学 | 一种基于多传感器融合的建图方法 |
EP3926434B1 (en) * | 2020-06-18 | 2022-09-07 | Commissariat à l'Energie Atomique et aux Energies Alternatives | Method and apparatus for performing grid-based localization of a mobile body |
CN112581612B (zh) * | 2020-11-17 | 2022-11-01 | 上汽大众汽车有限公司 | 基于激光雷达和环视摄像头融合的车载栅格地图生成方法及系统 |
FR3116640B1 (fr) * | 2020-11-20 | 2023-11-17 | Commissariat Energie Atomique | Procédé itératif d’estimation du mouvement d’un corps matériel par génération d’une grille de mouvement filtrée |
EP4123336A1 (en) * | 2021-07-21 | 2023-01-25 | Hyundai Mobis Co., Ltd. | Apparatus and method for monitoring surrounding environment of vehicle |
EP4134623A1 (en) * | 2021-08-11 | 2023-02-15 | Hitachi Astemo, Ltd. | Drive device, vehicle, and method for automated driving and/or assisted driving |
US11994582B2 (en) * | 2021-09-13 | 2024-05-28 | Texas Instruments Incorporated | Inverse radar sensor model and evidential grid mapping processors |
US20230410490A1 (en) * | 2022-05-11 | 2023-12-21 | Aptiv Technologies Limited | Deep Association for Sensor Fusion |
EP4386319A1 (en) * | 2022-12-14 | 2024-06-19 | Aptiv Technologies AG | Method for building a reference map, and a control unit and software for the same |
FR3143814A1 (fr) * | 2022-12-16 | 2024-06-21 | Commissariat A L'energie Atomique Et Aux Energies Alternatives | Procédé de caractérisation de l’environnement d’un porteur mobile, produisant une grille d’espace statique et/ou une grille d’espace libre |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011054071A (ja) * | 2009-09-04 | 2011-03-17 | Casio Computer Co Ltd | 画像処理装置、画像処理方法及びプログラム |
JP2013077202A (ja) * | 2011-09-30 | 2013-04-25 | Secom Co Ltd | 移動物体追跡装置 |
JP2015106382A (ja) * | 2013-12-02 | 2015-06-08 | オムロン株式会社 | 画像処理装置、画像処理方法およびプログラム |
JP2017521761A (ja) * | 2014-06-05 | 2017-08-03 | ソフトバンク・ロボティクス・ヨーロッパSoftbank Robotics Europe | 自律ロボットの障害物の不在および存在の一方の確率のマップを構築する方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5287965B2 (ja) | 2011-10-28 | 2013-09-11 | カシオ計算機株式会社 | 画像処理装置、画像処理方法及びプログラム |
DE102014200279A1 (de) * | 2014-01-10 | 2015-07-16 | Robert Bosch Gmbh | Verfahren und Vorrichtung zum Detektieren von Objekten in einem Umfeld eines Fahrzeugs |
-
2018
- 2018-06-22 IT IT102018000006594A patent/IT201800006594A1/it unknown
-
2019
- 2019-06-19 JP JP2020560369A patent/JP7440013B2/ja active Active
- 2019-06-19 EP EP19759733.9A patent/EP3811029B1/en active Active
- 2019-06-19 CN CN201980042116.2A patent/CN112313477A/zh active Pending
- 2019-06-19 WO PCT/IB2019/055145 patent/WO2019244060A1/en active Application Filing
- 2019-06-19 US US17/253,028 patent/US11946750B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011054071A (ja) * | 2009-09-04 | 2011-03-17 | Casio Computer Co Ltd | 画像処理装置、画像処理方法及びプログラム |
JP2013077202A (ja) * | 2011-09-30 | 2013-04-25 | Secom Co Ltd | 移動物体追跡装置 |
JP2015106382A (ja) * | 2013-12-02 | 2015-06-08 | オムロン株式会社 | 画像処理装置、画像処理方法およびプログラム |
JP2017521761A (ja) * | 2014-06-05 | 2017-08-03 | ソフトバンク・ロボティクス・ヨーロッパSoftbank Robotics Europe | 自律ロボットの障害物の不在および存在の一方の確率のマップを構築する方法 |
Non-Patent Citations (5)
Title |
---|
CARLOS GÁLVEZ DEL POSTIGO FERNÁNDEZ: "基于网格的多传感器融合在道路障碍物检测中的应用", DEGREE PROJECT, IN COMPUTER SCIENCE, 13 May 2015 (2015-05-13), pages 1 - 158 * |
CHRISTOPH SEEGER: "多传感器占用网格融合中的局部自适应评估", 2016 IEEE INTELLIGENT VEHICLES SYMPOSIUM (IV), 22 June 2016 (2016-06-22), pages 266 - 271 * |
JEAN DEZERT: "基于置信函数的网格占用率估计的环境感知", 2015 18TH INTERNATIONAL CONFERENCE ON INFORMATION FUSION (FUSION), 9 July 2015 (2015-07-09), pages 1 - 8 * |
JUAN DAVID ADARVE: "使用线性意见库基于多个传感器计算占用栅格", 2012 IEEE INTERNATIONAL CONFERENCE ON ROBOTICS AND AUTOMATION, 18 May 2012 (2012-05-18), pages 4074 - 4079 * |
JULIEN MORAS: "车辆动态感知的可信占用栅格环境", 2011 IEEE INTERNATIONAL CONFERENCE ON ROBOTICS AND AUTOMATION, 13 May 2011 (2011-05-13), pages 84 - 89 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113093221A (zh) * | 2021-03-31 | 2021-07-09 | 东软睿驰汽车技术(沈阳)有限公司 | 占据栅格地图的生成方法及装置 |
CN117289294A (zh) * | 2023-11-27 | 2023-12-26 | 睿羿科技(山东)有限公司 | 一种基于多分辨率贝叶斯网格的融合定位方法 |
CN117289294B (zh) * | 2023-11-27 | 2024-03-15 | 睿羿科技(山东)有限公司 | 一种基于多分辨率贝叶斯网格的融合定位方法 |
Also Published As
Publication number | Publication date |
---|---|
WO2019244060A1 (en) | 2019-12-26 |
US11946750B2 (en) | 2024-04-02 |
IT201800006594A1 (it) | 2019-12-22 |
JP7440013B2 (ja) | 2024-02-28 |
EP3811029A1 (en) | 2021-04-28 |
US20210131823A1 (en) | 2021-05-06 |
EP3811029B1 (en) | 2023-10-11 |
JP2021527863A (ja) | 2021-10-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112313477A (zh) | 一种车辆环境映射的方法以及相应的系统、车辆和计算机程序产品 | |
CN114269620B (zh) | 机器人系统的性能测试 | |
US11899750B2 (en) | Quantile neural network | |
US20240001942A1 (en) | Performance testing for robotic systems | |
Parsley et al. | Towards the exploitation of prior information in SLAM | |
CN111103584A (zh) | 用于获知车辆的环境中的物体的高度信息的设备和方法 | |
CN114241448A (zh) | 障碍物航向角的获取方法、装置、电子设备及车辆 | |
Madhavan et al. | Moving object prediction for off-road autonomous navigation | |
Richter et al. | Advanced occupancy grid techniques for lidar based object detection and tracking | |
Barbosa et al. | Soft constrained autonomous vehicle navigation using gaussian processes and instance segmentation | |
CN118149796B (zh) | 退化环境下的地图构建方法、装置、电子设备及存储介质 | |
Kubertschak et al. | Fusion routine independent implementation of advanced driver assistance systems with polygonal environment models | |
US20230359926A1 (en) | Domain adaptation of event detection models: from simulation to large scale logistics environments | |
Becker | Dynamic Switching State Systems for Visual Tracking | |
Campbell et al. | Metric-based detection of robot kidnapping with an SVM classifier | |
JP6553586B2 (ja) | 計測十分度算出装置、方法、及びプログラム | |
Lee et al. | Decentralized Localization Framework using Heterogeneous Map-matchings | |
Onen | LiDAR and Radar-Based Occupancy Grid Mapping for Autonomous Driving Exploiting Clustered Sparsity | |
Li | Mapping in Uncertain Environments for Mobile Robots | |
Mutz | Novel techniques for mapping and localization of self-driving cars using grid maps | |
Yörük | Performance comparison of point and plane features for slam | |
CN116933086A (zh) | 道路边界检测模型的训练方法、道路边界检测方法及装置 | |
Tang | Multi-scale space smoothing and segmentation of range data for robot navigation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |