CN112313664A - 用于识别障碍物的方法和系统 - Google Patents
用于识别障碍物的方法和系统 Download PDFInfo
- Publication number
- CN112313664A CN112313664A CN201980042470.5A CN201980042470A CN112313664A CN 112313664 A CN112313664 A CN 112313664A CN 201980042470 A CN201980042470 A CN 201980042470A CN 112313664 A CN112313664 A CN 112313664A
- Authority
- CN
- China
- Prior art keywords
- vehicle
- segments
- environment
- subset
- sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 43
- 238000001514 detection method Methods 0.000 claims abstract description 70
- 230000003287 optical effect Effects 0.000 claims description 4
- 238000002604 ultrasonography Methods 0.000 claims description 3
- 238000000638 solvent extraction Methods 0.000 abstract description 2
- 230000004927 fusion Effects 0.000 description 8
- 230000003068 static effect Effects 0.000 description 7
- 230000008901 benefit Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000013459 approach Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 239000010432 diamond Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000002955 isolation Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/095—Predicting travel path or likelihood of collision
- B60W30/0956—Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Mechanical Engineering (AREA)
- Transportation (AREA)
- Automation & Control Theory (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Multimedia (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Probability & Statistics with Applications (AREA)
- Traffic Control Systems (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
本发明涉及一种用于检测车辆环境中的一个或多个对象的方法,所述环境由周边界定,该方法包括:将环境分割为多个区段,使得所述多个区段中的每个区段至少部分地通过环境的周边界定;基于车辆环境中的所述一个或多个对象检测一个或多个检测点;基于所述一个或多个检测点的空间接近度将所述一个或多个检测点合并为一个或多个簇;并且基于检测到的所述一个或多个检测点和/或基于合并的所述一个或多个簇为所述多个区段中的每个区段分配状态。本发明还涉及用于检测车辆环境中的一个或多个对象的系统以及包括该系统的车辆。
Description
技术领域
本发明涉及用于识别障碍物的方法和系统。本发明尤其是涉及用于识别车辆环境中的静态障碍物的方法和系统。
背景技术
在现有技术中已知用于识别车辆环境中的障碍物(即概括来说为对象)的各种方法和系统。在此借助各种传感器检测车辆的环境并基于传感器系统提供的数据查明车辆的环境中是否存在障碍物并且在可能的情况下确定障碍物的位置。为此目的使用的传感器系统通常包括车辆中存在的传感器、如超声波传感器(如PDC或者说停车辅助系统)、一个或多个摄像头、雷达(如具有距离保持功能的巡航控制器)等。车辆中通常存在各种传感器,其针对特定任务而优化,这例如涉及检测范围、动态方面以及关于精度等的要求。
车辆环境中的障碍物识别被用于各种驾驶员辅助系统、如用于避免碰撞(如制动辅助、避免侧向碰撞)、变道辅助、转向辅助等。
为了识别车辆环境中的静态障碍物,需要用于各种传感器的输入数据的融合算法。为了补偿传感器错误、如错误的肯定识别(如所谓的虚假目标(Geisterziele))或错误的否定识别(如未检测到的障碍物)和遮蔽(如通过运动的车辆或传感器视场的限制)需要追踪传感器对静态障碍物的检测。
使用不同的模型来描绘车辆周围的紧邻环境。一种在现有技术中已知的、用于识别静态障碍物的方法是占用栅格融合(OGF)。在OGF中将车辆环境划分为多个矩形单元(Zellen)。在融合范围中,针对每个单元计算关于静态障碍物的占用概率。单元的尺寸决定环境表示的精度。
在S.Thrun和A.Bücken的“移动机器人导航的基于栅格的整合和拓扑地图”(第十三届全国人工智能会议论文集,第2卷,俄勒冈州波特兰,1996年)中描述了移动机器人导航领域中的研究工作并且主要描述了用于反映内部空间环境的两种主要范例:基于栅格的和拓扑的。尽管基于网络的方法可生成准确的度量图,但其复杂性通常无法有效规划和解决大型内部空间中的问题。相反,拓扑地图可更有效地使用,但是在大型环境中很难学习准确且一致的拓扑地图。Thrun和Bücken描述了一种将两种范例整合的方法。基于栅格的地图利用人工神经网络和贝叶斯积分进行学习或者说训练。通过将基于栅格的地图划分为相关联的区域,拓扑地图可作为另外的上级层面生成在基于栅格的地图上。所描述的整合方法不能毫无问题地应用于其参数与所描述的内部空间环境不同的场景上。
关于在车辆中的应用,基于OGF的方法至少具有下述缺点。具有高精度的表示需要相应大量的相对小的单元并且因此导致高计算耗费并对可用存储容量提出很高的要求。因此,借助OGF对静态障碍物的有效识别通常是不精确的,因为由方法决定效率提高在实践中只能通过使用更大的单元来实现,这是以牺牲精度为代价的。
与当前在车辆中用于障碍物识别的情况那样,在许多应用中在紧邻区域中需要更精确的环境表示,而在中等到更大的距离下只需不够精确的表示。这些要求对于本文描述的具体应用是典型的并且这些要求也反映在可用的传感器系统中。通常,所使用的传感器系统的精度随着距离的增加而降低,从而在近距离中可提供足够或希望的精度,而在更远的区域中则不能。这些特性无法通过OGF反映,因为各单元是位置固定的。因此,一个单元可表示在一个时间点位于近距离中而在另一时间点却位于在远距离中的位置。
发明内容
本文公开的方法和系统的实施方式部分或完全消除一个或多个上述缺点并且实现一个或多个下述优点。
本文公开的方法和系统能够改进对车辆环境中的障碍物或对象的检测。尤其是本文公开的方法和系统能同时在效率和精度方面更好地检测车辆环境中的障碍物或对象。本文公开的方法和系统还能够根据与车辆的距离区别地观察对象,使得可更精确地检测更近的对象并且可以足够的精度和高效率检测更远的对象。此外,本文公开的方法和系统能够基于对象与车辆的相对位置有效地检测所有对象,使得可精确且有效地检测首要的对象(如车辆前方的对象)并以足够的精度且节约资源地检测次要的对象(如侧面的对象或车辆后部区域中的对象)。
本公开的任务在于提供一种用于检测车辆环境中的障碍物的方法和系统,它们避免一个或多个上述缺点并且实现一个或多个上述优点。本公开的另一任务在于提供具有这种系统的车辆,其避免一个或多个上述缺点并且实现一个或多个上述优点。
所述任务通过独立权利要求的相应技术方案来解决。在从属权利要求中给出有利的实施方式。
根据本公开的实施方式,在第一方面中提出一种用于检测车辆环境中的一个或多个对象的方法,所述环境由周边界定。该方法包括将环境分割为多个区段,使得所述多个区段中的每个区段至少部分地通过环境的周边界定,基于车辆环境中的所述一个或多个对象检测一个或多个检测点,基于所述一个或多个检测点的空间接近度将所述一个或多个检测点合并为一个或多个簇并且基于检测到的所述一个或多个检测点和/或(即附加或替代地)基于合并的所述一个或多个簇为所述多个区段中的每个区段分配状态。
优选地,在根据上述第一方面所述的第二方面中,所述环境包括原点,并且所述原点选择性地与车辆的一个位置、尤其是与车辆后轴中心的位置重合。
优选地,在根据上述第二方面所述的第三方面中,所述多个区段的第一子集的每个区段从原点出发以相应角度开口或者说开角的形式定义,所述第一子集包括所述多个区段中的一个、多个或所有区段。
优选地,在根据上述第三方面所述的第四方面中,第一子集的区段具有至少两种或者说两个不同的角度开口,尤其是基本上侧向于车辆延伸的区段比基本上沿纵向方向相对于车辆延伸的区段具有更大的角度开口;或基本上侧向于车辆延伸的区段具有比基本上沿纵向方向相对于车辆延伸的区段具有更小的角度开口。
优选地,在根据第三或四方面之一所述的第五方面中,第一子集的区段具有从原点出发基本上朝向车辆行驶方向的角度开口。
优选地,在根据上述第一至五方面和第三方面之一所述的第六方面中,所述多个区段的第二子集的每个区段是以笛卡尔子区域的形式定义的,所述第二子集——在可能的情况下基于第一子集——包括所述多个区段中的一个、多个或所有区段。
优选地,在根据上述第六方面所述的第七方面中,第二子集的区段在一个维度中具有至少两种不同的延伸。
优选地,在根据上述第六和七方面之一所述的第八方面中,第二子集的区段具有基本上横向于车辆行驶方向的第一延伸,该第一延伸大于基本上沿车辆行驶方向的第二延伸。
优选地,在根据上述第三和六方面所述的第九方面中,第一子集的区段定义在原点的一侧并且所述第二子集的区段定义在原点的相对置侧。尤其是第一子集的区段是从原点出发朝向车辆的行驶方向定义的。
优选地,在根据上述第一至九方面之一所述的第十方面中,基于使用卡尔曼滤波器将所述一个或多个检测点合并为一个或多个簇。
优选地,在根据上述方面所述的第十一方面中,将所述一个或多个簇作为一个或多个检测点进行处理。
优选地,在根据上述方面之一所述的第十二方面中,所述多个区段中的一个区段的状态指示对象与相应区段的至少部分重叠,优选所述状态包含至少一个离散值或一个概率值。
优选地,在根据上述方面之一所述的第十三方面中,所述车辆包括传感器系统,该传感器系统设计用于以检测点的形式检测对象。
优选地,在根据上述方面之一所述的第十四方面中,所述传感器系统包括至少一个第一传感器和第二传感器,并且第一传感器和第二传感器设计用于检测对象,可选地所述第一传感器和第二传感器彼此不同和/或所述第一传感器和第二传感器选自包括基于超声波的传感器、光学传感器、基于雷达的传感器、基于激光雷达的传感器的组。
优选地,在根据上述方面之一所述的第十五方面中,检测所述一个或多个检测点还包括借助所述传感器系统检测所述一个或多个检测点。
优选地,在根据上述方面之一所述的第十六方面中,所述环境基本上具有下述形状之一:正方形、矩形、圆形、椭圆形、多边形、梯形、平行四边形。
根据本公开的实施方式,在第十七方面中提出一种用于检测车辆环境中的一个或多个对象的系统。该系统包括控制单元和传感器系统,所述控制单元设计用于实施根据上述方面之一所述的方法。
根据本公开的实施方式,在第十八方面中提出一种车辆,其包括前述方面所述的系统。
附图说明
在附图中示出并且在下面详细阐述本公开的实施例。
图1示例性示出车辆的环境以及环境中存在的对象或障碍物的示意图;
图2示出使用基于OGF的车辆环境中的障碍物检测的示意图;
图3示出根据本公开实施方式的车辆环境中的对象检测的示意图;
图4示出根据本公开实施方式的示例性的基于区段的对象融合;和
图5示出根据本公开实施方式的用于检测车辆环境中的对象的方法的流程图。
具体实施方式
除非另有说明,否则在下文中为相同或相同作用的元件使用相同的附图标记。
图1示例性示出车辆100的环境80以及环境80中存在的对象50或者说障碍物的示意图。车辆100——在此以俯视图示例性显示为具有向右行驶方向的轿车——位于车辆100周围存在的环境80中。环境80包括车辆100周围存在的区域,可根据应用假定环境的适合空间定义。根据本发明的实施方式,环境具有最大400m的长度和最大200m的宽度、优选最大80m的长度和60m的宽度的延伸范围。
通常,考虑这样的环境80,其沿纵向方向、即沿车辆100行驶方向的延伸大于沿横向于车辆行驶方向的方向延伸。此外,环境沿行驶方向在车辆100前方可比在车辆100后方具有更大的延伸。优选地,环境80具有速度相关的延伸,使得可实现至少两秒、优选至少三秒的充分预测。
如图1中示例性所示,车辆100的环境80可包含多个对象50,这些对象在本公开的上下文中也可被称为“障碍物”。对象50表示车辆100不能或不应使用的环境80区域。此外,对象50可具有不同的尺寸或形状和/或可位于不同的位置上。对象50或者说障碍物的示例可以是其它交通参与者、尤其是静止交通、结构限制(如路缘石、人行道、防撞栏)或车道上的其它限制部。
在图1中以矩形形状示出环境80(参见周边82)。但环境80可具有适合于表示其的任何适合的形状和尺寸、如正方形、椭圆形、圆形、多边形等。周边82设计用于界定环境80。由此可排除对更远的对象50的检测。此外,环境80也可适配传感器系统的检测有效距离。优选地,环境80与可由安装在车辆100中的传感器系统(图1中未示出)检测到的区域的形状和尺寸一致。车辆100还可包括与车辆的传感器系统进行数据通信的控制单元120,其设计用于执行方法500的步骤。
图2示出根据现有技术使用基于OGF的车辆100环境80中的障碍物50检测的示意图。为简单起见,在图2中示出相对于车辆100的与图1中相同的对象50。此外,图2示出置于环境80上方的栅格结构60,通过该栅格结构将环境80示例性地划分为单元62、64。在此阴影所示的单元64标记栅格结构60的至少部分地包含对象50的子区域。相反,标记为“空闲”的单元62无阴影。
在图2中可以清楚地看到,单元62、64的尺寸在多个方面对于对象50的检测是重要的。如果一个单元64至少部分地被对象50覆盖,则可基于栅格结构60将其标记为已占用。因此,在所示示例中,单元64的组66可标记为已占用,尽管通过组66检测到的对象50与车辆100之间的有效(侧向)距离明显大于组66与车辆的距离。因此基于栅格结构精确确定与对象50的距离将需要相对小的单元。在一些情况下,基于栅格的方法也使用概率或“模糊”值,因而也可这样标记一个或多个单元,即,检测占用概率(如80%或30%)或使用相应值(如0.8或0.3)来代替离散评估(如“已占用”或“未占用”)。这些方面在基本条件上、如关于单元尺寸未改变。
此外,精确确定对象50的有效尺寸或推导其形状如图2所示那样也取决于适合的(小)单元尺寸。单元64的组66和67例如包含(就组的尺寸而言)相对小的对象50,而组68不仅包含一个对象50,而是包含两个。因此,借助所示的栅格结构只能有限地或相对不精确地推断一个相应连续的单元组66、67、68中的对象的尺寸、形状或数量。
如已经描述的那样,较小的单元尺寸相应地需要更多资源来用于检测或处理对象数据,因而更高的精度通常带来效率或资源要求方面的缺点。
图3示出根据本公开实施方式的车辆100环境80中的对象50检测的示意图。本公开的实施方式基于固定在车辆上的基于区段的表示中的静态对象50(或障碍物)的特性融合。图3中示出一种示例性的固定在车辆上的基于区段的表示。车辆100的环境80通过周边82界定。为了说明,图3中的环境80类似于图1所示也以矩形形状示出,而环境80并不固定为这种形状或尺寸(参见上文)。
基于区段的表示可由笛卡尔区段或极坐标区段或混合区段组成。在图3中示出基于混合区段220、230的表示。如图3所示,坐标网络的原点84可基本上设置在车辆100后轴的中心点上,以便定义固定在车辆上的表示。但根据本公开也可能是其它定义或相对定位。
如果各种部件或设计在空间上与车辆100相关,则这相对于车辆100的纵向轴线83进行,所述纵向轴线沿着或平行于假定的行驶方向向前延伸。在图1至3中,车辆100的假定前方行驶方向向右,纵向轴线83在图3中示出。与此相应,车辆的横向轴线应理解为与纵向轴线83成直角。因此,例如对象50-2相对于车辆100位于侧向或正侧方向并且对象50-6基本上在行驶方向上位于车辆100前方。
从坐标网络的原点84出发,环境80沿行驶方向(在图3中向右)被划分或者说分割为极坐标区段220,使得每个区段220通过位于原点的角度(以及相应的角度开口)和环境80的周边82定义。如图3所示,在此可通过不同大小的角度或者说角度开口来定义不同的区段220。例如基本上正侧方于车辆100(或者说侧向于行驶方向)地覆盖环境的区段220与基本上沿行驶方向覆盖环境80的区段220相比具有更大的角度。在图3所示示例中,通过侧向-纵向上的不同区段(正侧方向上较大的角度,纵向方向上较小的角度)实现行驶方向上的更精确的分辨率,而正侧方向则使用较低的分辨率。在其它实施方式中,例如如果希望检测精度的不同优先级,则可相应地调整区段的分割。在应以更高分辨率在正侧方向上进行检测的示例中,正侧方向上的区段可具有更小的开角(或更窄的区段)。
此外,将环境80从坐标网络的原点84出发逆着行驶方向(在图3中在车辆100左侧)分割为笛卡尔区段230,使得每个区段230通过一个一方面由轴线83(穿过原点84并平行于行驶方向延伸)并且另一方面由周边82界定的矩形定义。(矩形)区段230的宽度可适当地确定或通过预定值定义。
通过将环境80分割为不同的区段220、230(如极坐标区段和笛卡尔区段)可适应与具体应用相关的不同检测模态。例如在行驶方向上对车辆100环境80中对象50的检测可比逆着行驶方向(例如在车辆后方)或在车辆100侧面对车辆100环境80中对象50的检测具有更高的精度和有效距离。
根据本公开的方法使得可将障碍物在一个连续的尺寸上表示为一个区段内相对于原点的距离。此外,除了距离之外,也可检测并考虑识别出的障碍物的角度。与已知方法相比,这尤其是可提高障碍物的检测精度。另外,根据本公开的方法能够融合对障碍物的不同检测(通过一个或多个传感器)。可参考各个检测的特性(方差或不确定性)将各检测进行关联或分组。与已知方法相比,这也提高了检测的精度。
已知方法可包括例如借助多段线或多边形曲线(Polylinie)将多个检测点相对简单地合并。但这种合并从根本上不同于本公开中描述的对各个检测的合并或融合。例如借助多段线或多边形曲线的合并相应于障碍物的抽象表示或对形状或轮廓的检测。根据本公开的方法能够合并或融合一个连续障碍物的完全相同的特征或元素的不同检测。这尤其是能够更精确地确定障碍物各个组成部分的存在和/或位置。
图3示出一种示例性区段分割用以说明根据本公开的实施方式。在其它实施方式中可使用其它区段分割,例如仅基于极坐标或仅基于笛卡尔坐标以及基于与图3所示不同的混合坐标。
一般来说,一个区段220、230可包含零个、一个或多个对象50。在图3中将包含一个或多个对象50的区段220、230标记为区段220'和230'。由一个区段220、230表示的面至少在一侧通过环境80的周边82界定。通过极坐标表示(eine polare)尤其是反映精度随距离减小的特性。这是因为极坐标表示、即从原点84出发基于射线的区段随着与原点84距离的增加覆盖越来越大的区域,而在接近原点84处则观察相对小的局部和因此表面。
基于车辆100的传感器系统、即基于一个或多个传感器的信号在区段中识别零个、一个或多个检测点54、56。当使用多个传感器时,通常存在不同的视场或检测范围,它们允许可靠地或者说更可靠地检测对象50。在此,由一个传感器不能或只能很差地检测到的对象50(例如基于受限的检测范围、检测方式和/或干扰)常常可由另一传感器可靠地检测到。在检测时记录检测点,这些检测点可根据位置在坐标系中被分类。
车辆100的传感器系统优选包括一个或多个传感器,所述传感器选自包括基于超声波的传感器、激光雷达传感器、光学传感器和基于雷达的传感器的组。
周期性地可在每个时步中将彼此靠近的障碍点关联在一起并且关于其特性(如位置、存在概率、高度等)进行融合。将该融合的结果保存在所描述的表示中并且随着时间推移通过车辆运动对所述融合的结果进行追踪。融合连同追踪的结果在接下来的时步中附加地用于作为其它障碍点的新的传感器测量。
所述追踪或者说跟踪描述了已经检测到的对象50或检测点54、56基于车辆的位置变化的延续。在此,车辆的相对运动(例如基于航位推测法或里程计传感器或GPS坐标)相应地反映在所述表示中。
根据本实施方式的方法的重要优点在于,一个区段的相应状态与扇段无关和/或不被追踪,而是与可能识别的障碍物有关。此外,柔性状态、如概率或分类类型可作为信息被追踪。已知方法通常仅考虑离散状态(如已占用或未占用),所述离散状态仅具有抽象参考,但不表示已识别障碍物的特性。
图4示出根据本公开实施方式的对象54-1、54-2、54-3、54-4、54-5的示例性的基于区段的融合。图4示出具有示例性识别的五个检测点54-1、54-2、54-3、54-4和54-5的区段220'。优选地,所述检测点中的一个或多个基于不同传感器的信号被检测。所述菱形将检测到的对象位置大致标记为检测点并且各个椭圆相应于二维位置不确定性(方差)。根据传感器系统可假定不同的方差或可由各个传感器为每次检测提供估计的方差。
从最靠近的对象54-1开始,通过将在对象54-1的二维位置不确定性内的所有对象进行分组来生成一个对象簇。产生具有对象54-1、54-2和54-3的簇。无法将其它对象分配给对象54-4和54-5。因此,这些其它对象分别形成自己的簇。在一个簇内例如借助卡尔曼滤波器融合位置并借助贝叶斯或D-S证据理论(Dempster-Shafer)融合存在概率。
图5示出根据本公开实施方式的用于检测车辆100环境80中的对象50的方法500的流程图。方法500开始于步骤501。
在步骤502中,将环境80划分或分割为多个区段,使得所述多个区段中的每个区段220、230至少部分地通过环境80的周边82界定。这意味着(参见图3),每个所述区段至少部分地通过周边82界定并且因此环境完全被这些区段覆盖。换句话说,所有区段220、230的总和相应于环境80,面相同或全等。此外,每个区段与周边82或环境的边缘“接触”,使得没有区段孤立地设置在环境80内或与周边82分开。换句话说,每个区段220、230的周边的至少一个部段与环境80周边82的一个部段重合。
在步骤504中,基于车辆100环境80中的一个或多个对象50检测一个或多个检测点54、56。在此基于车辆100的传感器系统将对象的检测点检测为——优选相对于车辆100或另一适合的坐标体系中的——点(如坐标、位置信息)。如此检测到的检测点54、56因此标记车辆100环境80中的位置,在这些位置上检测到对象50或对象的局部区域。如在图3中可以看出,对于每个对象可检测多个检测点54、56,并且检测到的检测点54、56越多,对象50就能够被越精确地检测,并且当使用不同类型的传感器(如光学传感器、基于超声波的传感器)进行检测时,可最大程度地减少或者说最小化与传感器相关的或技术的影响(如视场或检测范围、分辨率、有效距离、精度)。
可选地,在步骤506中,基于一个或多个检测点54、56彼此间的空间接近度将所述一个或多个检测点合并成簇。如参考图4所描述的那样,以此方式可减少或避免可能存在的位置不确定性,从而能基于产生的检测点簇以提高的精度来检测对象50。
在步骤508中,基于所述一个或多个检测点54、56和/或检测到的簇为所述多个区段中的每个区段220、230分配状态。如果未形成簇,则步骤508基于检测到的检测点54、56。可选地,步骤508附加地或替代地可基于检测到的簇,以实现尽可能高的检测精度并相应地为区段设置状态。所述状态尤其是表明区段与一个或多个障碍物之间的关系。根据本公开的实施方式,状态可具有离散值(如“已占用”或“未占用”,或适合的表示、如“0”或“1”)或流动值(如表示占用概率的值、如“30%”或“80%”,或适合的表示、如“0.3”或“0.8”;或其它适合的值、如离散的占用程度、如“强”、“中等”、“弱”)。
在此提及的车辆优选是多车辙机动车(轿车、卡车、货车)。由此产生多个在本文范围内明确描述的优点以及多个其它本领域技术人员可以理解的优点。
尽管已经通过优选实施例对本发明进行了更详细的说明和解释,但本发明不受公开示例的限制并且本领域技术人员可从中得出其它变型,而不脱离本发明的保护范围。因此清楚的是,存在多种变型可能性。同样清楚的是,示例性提到的实施方式实际上仅表示示例,其不应以任何方式被理解为对本发明的保护范围、应用可能性或设计的限制。相反,上述说明和附图说明使本领域技术人员能够具体地实施示例性实施方式,由此,本领域技术人员在了解所公开的发明构思的情况下可做出各种改变,例如关于在一种示例性实施方式中提到的各个元件的功能或布置,而无需离开由权利要求及其法律等效物、如说明书中的进一步说明定义的保护范围。
Claims (12)
1.用于检测车辆(100)环境(80)中的一个或多个对象(50)的方法(500),所述环境(80)由周边(82)界定,该方法包括:
将环境(80)分割(502)为多个区段,使得所述多个区段中的每个区段(220、230)至少部分地通过环境(80)的周边(82)界定;
基于车辆(100)环境(80)中的所述一个或多个对象(50)检测(504)一个或多个检测点(54、56);
基于所述一个或多个检测点(54、56)的空间接近度将所述一个或多个检测点(54、56)合并(506)为一个或多个簇;并且
基于检测到的所述一个或多个检测点(54、56)和/或基于合并的所述一个或多个簇为所述多个区段中的每个区段(220、230)分配(508)状态。
2.根据前述权利要求1所述的方法,其中,所述环境(80)包括原点(84),并且原点(84)选择性地与车辆(100)的一个位置重合、尤其是与车辆(100)后轴中心的位置重合。
3.根据前述权利要求2所述的方法,其中,
-所述多个区段的第一子集的每个区段(220)从原点(84)出发是以相应角度开口的形式定义的,所述第一子集包括所述多个区段中的一个、多个或所有区段(220);进一步优选地
-第一子集的区段(220)具有至少两种不同的角度开口,尤其是
-基本上侧向于车辆(100)延伸的区段(220)比基本上沿纵向方向相对于车辆(100)延伸的区段(220)具有更大的角度开口;或
-基本上侧向于车辆(100)延伸的区段(220)具有比基本上沿纵向方向相对于车辆(100)延伸的区段(220)具有更小的角度开口;和/或
-第一子集的区段(220)从原点(84)出发具有基本上朝向车辆(100)行驶方向的角度开口。
4.根据权利要求2和权利要求3所述的方法,其中:
-所述多个区段的第二子集的每个区段(230)是以笛卡尔子区域的形式定义的,所述第二子集在可能的情况下基于第一子集而包括所述多个区段中的一个、多个或所有区段(220);进一步优选地
-第二子集的区段(230)在一个维度中具有至少两种不同的延伸;和/或
-第二子集的区段(230)具有基本上横向于车辆(100)行驶方向的第一延伸,该第一延伸大于基本上沿车辆(100)行驶方向的第二延伸。
5.根据前述权利要求3和4所述的方法,其中,所述第一子集的区段(220)定义在原点(84)的一侧并且所述第二子集的区段(230)定义在原点(84)的相对置侧;尤其是第一子集的区段(220)是从原点(84)出发朝向车辆(100)的行驶方向定义的。
6.根据前述权利要求1至5中任一项所述的方法,其中,基于使用卡尔曼滤波器将所述一个或多个检测点(54、56)合并(506)为一个或多个簇;优选地,将所述一个或多个簇作为一个或多个检测点(54、56)进行处理。
7.根据前述权利要求中任一项所述的方法,其中,所述多个区段中的一个区段(220、230)的状态表明对象(50)与相应区段(220、230)的至少部分重叠,优选地,所述状态包含至少一个离散值或至少一个概率值。
8.根据前述权利要求中任一项所述的方法,其中,所述车辆(100)包括传感器系统,该传感器系统设计用于以检测点(54、56)的形式检测对象(50);进一步优选地,所述传感器系统包括至少一个第一传感器和第二传感器,并且第一传感器和第二传感器设计用于检测对象(50),可选地,所述第一传感器与第二传感器彼此不同。
9.根据前述权利要求中任一项所述的方法,其中,所述第一传感器和第二传感器是选自如下组的传感器,所述组包括基于超声波的传感器、光学传感器、基于雷达的传感器、基于激光雷达的传感器。
10.根据前述权利要求中任一项所述的方法,其中,检测所述一个或多个检测点(54、56)包括:借助所述传感器系统检测所述一个或多个检测点(54、56)。
11.用于检测车辆(100)环境(80)中的一个或多个对象(50)的系统,该系统包括控制单元(120)和传感器系统,所述控制单元设计用于实施根据前述权利要求中任一项所述的方法(500)。
12.车辆(100),所述车辆包括前述权利要求所述的系统。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102018115895.5 | 2018-06-30 | ||
DE102018115895.5A DE102018115895A1 (de) | 2018-06-30 | 2018-06-30 | Verfahren und System zur Erkennung von Hindernissen |
PCT/DE2019/100558 WO2020001690A1 (de) | 2018-06-30 | 2019-06-18 | Verfahren und system zur erkennung von hindernissen |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112313664A true CN112313664A (zh) | 2021-02-02 |
Family
ID=67180480
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201980042470.5A Pending CN112313664A (zh) | 2018-06-30 | 2019-06-18 | 用于识别障碍物的方法和系统 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20210342605A1 (zh) |
CN (1) | CN112313664A (zh) |
DE (1) | DE102018115895A1 (zh) |
WO (1) | WO2020001690A1 (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220092738A (ko) * | 2020-12-24 | 2022-07-04 | 현대자동차주식회사 | 회피 조향 제어가 개선된 주차 지원 시스템 및 방법 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102013217486A1 (de) * | 2013-09-03 | 2015-03-05 | Conti Temic Microelectronic Gmbh | Verfahren zur Repräsentation eines Umfelds eines Fahrzeugs in einem Belegungsgitter |
CN105246754A (zh) * | 2013-04-30 | 2016-01-13 | 宝马股份公司 | 提供用于车辆的环境地图 |
US20160137207A1 (en) * | 2013-07-26 | 2016-05-19 | Bayerische Motoren Werke Aktiengesellschaft | Method and Apparatus For Efficiently Providing Occupancy Information on the Surroundings of a Vehicle |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8934666B2 (en) * | 2008-10-10 | 2015-01-13 | Adc Automotive Distance Control Systems Gmbh | Method and device for analyzing surrounding objects and/or surrounding scenes, such as for object and scene class segmenting |
DE102013214631A1 (de) * | 2013-07-26 | 2015-01-29 | Bayerische Motoren Werke Aktiengesellschaft | Effizientes Bereitstellen von Belegungsinformationen für das Umfeld eines Fahrzeugs |
US9766628B1 (en) * | 2014-04-04 | 2017-09-19 | Waymo Llc | Vision-based object detection using a polar grid |
WO2017079341A2 (en) * | 2015-11-04 | 2017-05-11 | Zoox, Inc. | Automated extraction of semantic information to enhance incremental mapping modifications for robotic vehicles |
DE102016208634B4 (de) * | 2016-05-19 | 2024-02-01 | Volkswagen Aktiengesellschaft | Verfahren zum Ausgeben einer Warninformation in einem Fahrzeug |
KR102313026B1 (ko) * | 2017-04-11 | 2021-10-15 | 현대자동차주식회사 | 차량 및 차량 후진 시 충돌방지 보조 방법 |
US10444759B2 (en) * | 2017-06-14 | 2019-10-15 | Zoox, Inc. | Voxel based ground plane estimation and object segmentation |
JP2019008519A (ja) * | 2017-06-23 | 2019-01-17 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 移動体検出方法、移動体学習方法、移動体検出装置、移動体学習装置、移動体検出システム、および、プログラム |
JP2019159380A (ja) * | 2018-03-07 | 2019-09-19 | 株式会社デンソー | 物体検知装置、物体検知方法およびプログラム |
US10916014B2 (en) * | 2018-06-01 | 2021-02-09 | Ford Global Technologies, Llc | Distinguishing virtual objects from one another |
-
2018
- 2018-06-30 DE DE102018115895.5A patent/DE102018115895A1/de active Pending
-
2019
- 2019-06-18 CN CN201980042470.5A patent/CN112313664A/zh active Pending
- 2019-06-18 WO PCT/DE2019/100558 patent/WO2020001690A1/de active Application Filing
- 2019-06-18 US US17/255,539 patent/US20210342605A1/en not_active Abandoned
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105246754A (zh) * | 2013-04-30 | 2016-01-13 | 宝马股份公司 | 提供用于车辆的环境地图 |
US20160137207A1 (en) * | 2013-07-26 | 2016-05-19 | Bayerische Motoren Werke Aktiengesellschaft | Method and Apparatus For Efficiently Providing Occupancy Information on the Surroundings of a Vehicle |
DE102013217486A1 (de) * | 2013-09-03 | 2015-03-05 | Conti Temic Microelectronic Gmbh | Verfahren zur Repräsentation eines Umfelds eines Fahrzeugs in einem Belegungsgitter |
Also Published As
Publication number | Publication date |
---|---|
US20210342605A1 (en) | 2021-11-04 |
WO2020001690A1 (de) | 2020-01-02 |
DE102018115895A1 (de) | 2020-01-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11768286B2 (en) | Method of determining the yaw rate of a target vehicle | |
CN109254289B (zh) | 道路护栏的检测方法和检测设备 | |
CN109870680B (zh) | 一种目标分类方法及装置 | |
US7729857B2 (en) | System for and method of detecting a collision and predicting a vehicle path | |
US20200049511A1 (en) | Sensor fusion | |
US11313976B2 (en) | Host vehicle position estimation device | |
Darms et al. | Obstacle detection and tracking for the urban challenge | |
US8605947B2 (en) | Method for detecting a clear path of travel for a vehicle enhanced by object detection | |
Schubert et al. | Situation assessment for automatic lane-change maneuvers | |
US9340207B2 (en) | Lateral maneuver planner for automated driving system | |
Lundquist et al. | Road intensity based mapping using radar measurements with a probability hypothesis density filter | |
US20170316684A1 (en) | Vehicle lane map estimation | |
US8233663B2 (en) | Method for object formation | |
US10325163B2 (en) | Vehicle vision | |
Li et al. | High Resolution Radar-based Occupancy Grid Mapping and Free Space Detection. | |
Kim et al. | Probabilistic threat assessment with environment description and rule-based multi-traffic prediction for integrated risk management system | |
US11042160B2 (en) | Autonomous driving trajectory determination device | |
US20200001877A1 (en) | Determining Visibility Distances Based on a Dynamic Field of View of a Vehicle | |
Valldorf et al. | Advanced Microsystems for Automotive Applications 2007 | |
US11087147B2 (en) | Vehicle lane mapping | |
US11210941B2 (en) | Systems and methods for mitigating anomalies in lane change detection | |
US10970870B2 (en) | Object detection apparatus | |
CN113432615A (zh) | 基于多传感器融合可驾驶区域的检测方法、系统和车辆 | |
CN112313664A (zh) | 用于识别障碍物的方法和系统 | |
CN117651880A (zh) | 雷达数据分析和隐藏对象检测 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |