CN109522784A - 用于区分可越过物体与不可越过物体的装置和方法 - Google Patents

用于区分可越过物体与不可越过物体的装置和方法 Download PDF

Info

Publication number
CN109522784A
CN109522784A CN201811086694.XA CN201811086694A CN109522784A CN 109522784 A CN109522784 A CN 109522784A CN 201811086694 A CN201811086694 A CN 201811086694A CN 109522784 A CN109522784 A CN 109522784A
Authority
CN
China
Prior art keywords
cell
free space
grid map
unit
cells
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811086694.XA
Other languages
English (en)
Other versions
CN109522784B (zh
Inventor
M·福鲁吉
U·伊乌格尔
亚历山大·伊奥澳夫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Delphi Technologies PLC
Original Assignee
Delphi Technologies PLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Delphi Technologies PLC filed Critical Delphi Technologies PLC
Publication of CN109522784A publication Critical patent/CN109522784A/zh
Application granted granted Critical
Publication of CN109522784B publication Critical patent/CN109522784B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/02Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
    • G01S5/0294Trajectory determination or predictive filtering, e.g. target tracking or Kalman filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Software Systems (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

用于区分可越过物体与不可越过物体的装置和方法。区分可越过物体与不可越过物体的装置包括:物体检测传感器单元,其监测其周围的空间并生成该空间的数据;地图生成单元,其使用由物体检测传感器单元生成的数据,生成所述空间的占用网格地图和空闲空间网格地图,所述地图包括单元格阵列,占用网格地图的单元格包含单元格的占用空间概率值,空闲空间网格地图包含单元格的空闲空间概率值;及分类器单元,其通过计算从与至少一个单元格相邻的至少两个单元格的空闲空间概率值导出的两个空闲空间概率值的差异,利用该差异以及所述至少一个单元格的占用空间概率值,将所述至少一个单元格分类为包含可越过或不可越过物体,以分类所述至少一个单元格。

Description

用于区分可越过物体与不可越过物体的装置和方法
技术领域
本发明涉及一种用于区分可越过物体与不可越过物体的装置和方法。
背景技术
近几十年来,已经开发出高级驾驶员辅助系统(ADAS)来帮助和协助驾驶员并防止事故。ADAS通过以精确的机器任务和警告支持人类意识和行动,来提供更舒适且更安全的驾驶体验。ADAS显著减少了由驾驶员错误造成的事故的数量。
ADAS通常基于接近传感器,例如,雷达、激光和/或超声、摄像机系统、全球定位系统(GPS)、车对车系统以及车对基础设施系统。接近传感器被用于开发诸如自适应巡航控制(ACC)、自动驻车、变道辅助、盲点检测(BSD)系统、紧急制动辅助(EBA)等的系统。精确的世界模型是成功实施ADAS的基本要求之一,其将大大减少诸如导航、路径规划以及避障的任务的复杂性。
可越过物体和不可越过物体的区分是ADAS的一个重要主题。其提供了车辆在特殊条件下可以行驶的重要信息。例如,路缘是雷达看到的可越过的障碍物,但不限制可行驶区域,例如,车辆可以越过路缘停在人行道上。如果将任何雷达探测直接解释为不可越过的障碍物,则会产生对环境的错误理解。
通常来说,为了区分可越过的障碍物与不可越过的障碍物,需要高度信息。没有特殊高程测量功能的汽车雷达(2D雷达)不提供高度信息,而具有全分辨率垂直角度的3D雷达仍然很昂贵。
发明内容
因此,本发明的基本目的是提供一种允许在不需要关于物体的高度信息的情况下区分可越过物体和不可越过物体这两种类型物体的装置。本发明的另一目的是提供一种车辆,该车辆包括用于区分可越过物体与不可越过物体的装置和方法。
本发明的根本目的由独立权利要求的特征来满足。本发明进一步的有利开发和方面在附属权利要求书中加以阐述。
在本发明的一个方面,提供了一种用于区分可越过物体与不可越过物体的装置。所述装置包括:物体检测传感器单元、地图生成单元以及分类器单元。
所述物体检测传感器单元被配置成监视物体检测传感器单元周围的空间并且生成关于该空间的数据。由所述物体检测传感器单元提供的数据可以用于检测所述物体检测传感器单元附近的物体(或障碍物)。而且,所述物体检测传感器单元可以安装在车辆上以检测该车辆附近的物体(或障碍物)。
所述地图生成单元被配置成使用由所述物体检测传感器单元生成的数据,以便生成所述物体检测传感器单元周围的空间的占用网格地图和空闲空间网格地图。所述占用网格地图和所述空闲空间网格地图中的每一方包括单元格阵列。具体来说,所述占用网格地图和所述空闲空间网格地图包括同一单元格阵列。而且,所述占用网格地图中的每个单元格包含占用空间概率值,占用空间概率值表示相应单元格被占用的概率。所述空闲网格地图中的每个单元格包含空闲空间概率值,空闲空间概率值表示相应单元格空闲(即,空的)的概率。
所述分类器单元被配置成对至少一个单元格进行分类。作为至少一个单元格的分类结果,所述分类器单元可以预测所述至少一个单元格包含现实世界中的可越过物体或不可越过物体。因此,所述分类器单元将所述至少一个单元格分类为可越过或不可越过。为了所述至少一个单元格的分类,所述分类器单元使用与所述至少一个单元格相邻的至少两个单元格的空闲空间概率值。所述分类器单元计算从作为所述至少一个单元格的邻近单元格的所述至少两个单元格的空闲空间概率值导出的两个空闲空间概率值之差值。由所述分类器单元计算出的所述差值与所述至少一个单元格的所述占用空间概率值用于预测所述至少一个单元格是否包含现实世界中的可越过物体或不可越过物体,从而对所述至少一个单元格进行分类。
在一个实施方式中,用于计算所述差值的所述两个空闲空间概率值是作为所述至少一个单元格的邻近单元格的两个单元格的空闲空间概率值。在另一实施方式中,通过计算围绕所述至少一个单元格的单元格的空闲空间概率值的平均值,从围绕所述至少一个单元格的单元格的空闲空间概率值导出用于计算所述差值的两个空闲空间概率值。所述平均值的两个极值(具体来说,最高平均值和最低平均值)用于计算所述两个极值的差值。换句话说,在本实施方式中,所述两个极值是从所述至少两个单元格的空闲空间概率值导出的两个空闲空间概率值。
因此,所述分类器单元使用根据所述物体检测传感器单元的检测而创建的两个环境表示:所述占用网格地图和所述空闲空间网格地图。两个地图都被用于对可越过物体和不可越过物体进行分类。这将所述装置与其它当前使用的方法和装置区分开来:大多数其它方法(具体为Bayesian方法)使用旨在标识空闲空间和占用信息二者的单个网格地图。根据本发明,该信息未集成到单个地图中,从而提供对可越过/不可越过物体的分类来说很重要的更多信息。换句话说,所述空闲空间网格地图中的空闲或空闲空间的概率以及所述占用网格地图中的占用空间的概率不是互补的。
根据本发明的装置的优点在于,所述装置可以在不需要关于物体的高度信息的情况下区分可越过物体与不可越过物体。
在一个实施方式中,预先确定多个组,其中,每个组包含多个单元格。所述组的所有单元格与所述至少一个单元格相邻,即,包含在所述组中的所述单元格是所述至少一个单元格的邻近单元格。而且,每个组中的单元格彼此相邻地定位,即,每个组中的单元格是连续的单元格。所述分类器单元被配置成,针对每个组计算包含在相应组中的单元格的所述空闲空间概率值的平均值。另外,所述分类器单元确定所述多个组的平均值中的最高平均值和最低平均值。在本实施方式中,两个空闲空间概率值之差值是所述最高平均值与所述最低平均值之间的差值,所述差值由所述分类器单元计算并且被用于对所述至少一个单元格进行分类。
另外,前述实施方式可以规定每个组包含预定数量的单元格。每个组可以包含相同数量的单元格,例如,三个单元格或超过三个单元格。而且,每个组包含不同的单元格,这意味着两个组在至少一个单元格不同。而且,所述组的数量等于位置与所述至少一个单元格相邻的单元格的数量。例如,如果单元格具有矩形形状,则所述阵列中的每个单元格被八个单元格包围,因此具有八个邻近单元格。在这种情况下,所述组的数量是八。
所述物体检测传感器单元可以包括雷达单元,具体为不能提供物体高度信息的2D雷达单元。
所述分类器单元还可以被配置成,按如上所述的相同方式,将多个所述单元格中的每个单元格分类为包含可越过物体或不可越过物体。具体来说,在计算从与相应单元格相邻的至少两个单元格的空闲空间概率值导出的两个空闲空间概率值之差值之前,所述分类器单元可以检查相应单元格的占用空间概率值是否等于或大于预定值。如果相应单元格的占用空间概率值等于或大于所述预定值,则所述分类器单元可以仅计算所述两个空闲空间概率值的差值。因此,所述分类器可以仅地占用空间概率值等于或大于所述预定值的那些单元格进行分类。
所述分类器单元可以包括分类器模型。可以生成特征矢量,所述特征矢量被输入到针对将被分类的每个单元格的所述分类器模型中。所述特征矢量可以包含第一特征和第二特征。相应单元格的所述第一特征可以从该单元格的占用空间概率值导出。相应单元格的所述第二特征可以是从与该单元格相邻的至少两个单元格的空闲空间概率值导出的两个空闲空间概率值之差值。所述分类器模型使用所述特征矢量来对相应单元格进行分类。所述分类器模型可以将相应单元格分类为包含可越过物体的单元格或包含不可越过物体的单元格。
可以使用机器学习算法来建立所述分类器模型。
根据本发明另一方面,一种车辆包括如上所述用于区分可越过物体与不可越过物体的装置。在这种情况下,所述物体检测传感器单元(具体为雷达单元)被安装在所述车辆上,以便监测所述车辆周围的空间。
根据本发明的又一方面,一种用于区分可越过物体与不可越过物体的方法包括以下步骤。使用物体检测传感器单元(具体为2D雷达单元)来监测所述物体检测传感器单元周围的空间,并且生成关于所述空间的数据。借助于由所述物体检测传感器单元生成的数据,针对所述物体检测传感器单元周围的空间,生成占用网格地图和空闲空间网格地图。所述占用网格地图和所述空闲空间网格地图中的每一方包括单元格阵列。所述占用网格地图中的每个单元格包含表示相应单元格被占用的概率的占用空间概率值,并且所述空闲空间网格地图中的每个单元格包含表示相应单元格空闲的概率的空闲空间概率值。通过计算从与至少一个单元格相邻的至少两个单元格的空闲空间概率值导出的两个空闲空间概率值之差值,并且利用所述差值以及所述至少一个单元格的占用空间概率值,将所述至少一个单元格分类为包含可越过物体的单元格或包含不可越过物体的单元格,以便对所述至少一个单元格进行分类。
该方法可以包括上面结合用于区分可越过物体与不可越过物体装置而公开的实施方式。
附图说明
下面,参照实施方式并且参照附图,按示例性方式对本发明进行更详细描述。这些示出如下:
图1是用于区分可越过物体与不可越过物体的装置的示意性示图;
图2A是占用网格地图的示例;
图2B是空闲空间网格地图的示例;
图3是从占用网格地图和空闲空间网格地图中提取特征的示意性示图;
图4是分类器模型的功能的示意性示图;
图5是用于建立分类器模型的机器学习模型的示意性示图;
图6是从占用网格地图和空闲空间网格地图中选择并且剪切关注区域的示意性示图;以及
图7是从空闲空间网格地图中提取特征的示意性示图。
具体实施方式
图1例示了装置1,装置1允许区分可越过物体与不可越过物体。装置1包括:物体检测传感器单元2、地图生成单元3以及分类器单元4。物体检测传感器单元2安装在车辆(例如,汽车)上,并且监测车辆周围的空间,即,车辆的环境。而且,物体检测传感器单元2记录关于车辆周围空间的数据。可以根据由物体检测传感器单元2生成的数据来检测位于车辆周围的物体(或障碍物)。
在本实施方式中,物体检测传感器单元2包括不具有高程测量的2D雷达单元。
物体检测传感器单元2向地图生成单元3提供关于车辆周围空间的记录数据。地图生成单元3使用由物体检测传感器单元2记录的数据,以便生成车辆周围空间的占用网格地图和空闲空间网格地图。占用网格地图和空闲空间网格地图中的每一方包括同一单元格阵列,其中,占用网格地图中的每个单元格包含表示相应单元格被占用的概率的占用空间概率值,并且空闲空间网格地图中的每个单元格包含表示相应单元格空闲的概率的空闲空间概率值。
地图生成单元3向分类器单元4提供占用网格地图和空闲空间网格地图。分类器单元4将多个单元格分类为包含现实世界中的可越过物体或不可越过物体。为此,分类器单元4针对待分类的每个单元格计算从与相应单元格相邻的至少两个单元格的空闲空间概率值导出的两个空闲空间概率值的差值。分类器单元4使用所计算的差值和相应单元格的占用空间概率值,以便对所述至少一个单元格进行分类。
图2A示出了占用网格地图的示例,而图2B示出了空闲空间网格地图的示例。两个地图都根据物体检测传感器单元2在同一位置记录的数据生成,因此两张地图显示了车辆的同一环境。
占用网格地图和空闲空间网格地图是现实世界环境的两种表示。两个地图表示任何给定环境中的占用空间和空闲空间。
占用网格地图是表示现实世界内的特定区域的单元格阵列。占用网格地图中的每个单元格包含现实世界中的每个区域被占用的占用空间概率值。类似地,空闲空间网格地图是表示现实世界内的特定区域的单元格阵列。空闲空间网格地图中的每个单元格包含现实世界中的每个区域空闲(即,空的)的空闲空间概率值。占用网格地图中的任何空间的占用概率由暗度(darkness intensity)显现,如图2A所示。换句话说,给定点被占用的概率越高,该点在占用网格地图上的颜色就越深。类似地,空闲空间网格地图中“空闲”空间的概率通过亮度显现,如图2B所示,即,给定点空闲的概率越高,该点在空闲空间网格地图中就更亮或颜色更浅。
在图2A和图2B的示例中,在车辆周围的环境中存在两个不同的障碍物:路缘和栅栏,它们分别被认为是可越过物体和不可越过物体。比较两个障碍物,将认识到栅栏的占用空间概率值大于路缘的占用空间概率值。而且,栅栏包围占用网格地图的更多单元格,以具有高于默认值或初始值的占用空间概率值。参照空闲空间网格地图,将认识到栅栏后面的空闲空间概率值非常低,而路缘两侧的空闲空间概率值大致相等。
如图3示意性地示出的,为了区分可越过物体和不可越过物体,基于来自根据物体检测传感器单元2的2D雷达检测生成的占用网格地图和空闲空间网格地图的信息来定义特征矢量。由于雷达地图的占用概率和空闲概率通常不构建个体(unit)(尤其对于像路缘等的透明物体来说)的事实,分别从占用网格地图和空闲空间网格地图导出相应特征。这些特征被专门且精心选择以使最适合所述问题,从而最大化性能。
任何机器学习算法都可以用于表征这些物体。在本实施方式中,通过利用具有线性内核的SVM(支持矢量机)分类器的分类器单元4执行分类。如图4中示意性示出的,从占用网格地图和空闲空间网格地图提取的特征被输入到包括分类器模型的分类器单元中。分类器单元从预测单元格是否包含可越过物体或不可越过物体的特征来生成标签。
在SVM分类器可以用于区分可越过物体与不可越过物体之前,必须训练SVM分类器。在训练阶段,从占用网格地图和空闲空间网格地图提取的特征被输入到机器学习算法中,如图5示意性地示出的。另外,包含在占用网格地图和空闲空间网格地图中的物体被标注为可越过或不可越过,即,机器学习算法被告知路缘,特别是具有指定高度的类似物体被视为可越过物体,而栅栏和墙壁,特别是类似的物体被认为是不可越过物体。根据该信息,机器学习算法生成分类器模型。
为了训练和测试该方法,使用对数并创建包含具有两种类型物体的情况的占用网格地图和空闲空间网格地图:可越过物体和不可越过物体。
为了训练分类器单元4,手动选择占用网格地图和空闲空间网格地图的、包含路缘和/或栅栏的子区域。所选部分的宽度例如是大约六个像素,并且它们的长度取决于路缘或栅栏的长度。
图6示出了可以如何选择区段的示例。在图6的顶部,例示了原始占用网格地图。首先旋转占用网格地图和空闲空间网格地图两者,使得路缘或栅栏或任何其它障碍物的区域被放置在垂直线或任何其它预定义线上。因此,应选择的关注区域总是具有预定的取向,具体为垂直方向,这使得更容易从占用网格地图和空闲空间网格地图确定和剪切关注区域。当从占用网格地图和空闲空间网格地图中剪切了关注区域时,仅对这些区域进行进一步处理,并且对于这些区域中的每个单元格位置,计算包含从占用网格地图和空闲空间网格地图提取的特征的特征矢量,如下面进一步详细说明的。
当训练阶段完成并且分类器模型已建立时,分类器模型可以由装置1的分类器单元4使用,以对物体检测传感器单元2检测到的物体进行分类。每个单元格被分类为可越过或不可越过。类别“可越过”(其例如包含路缘)可以被定义为正的(+1),而类别“不可越过”(其例如包含栅栏和墙壁)可以被定义为负的(-1)。
针对该分类,生成特征矢量。相应单元格的每个特征矢量包含第一特征分量和第二特征分量。第一特征从占用网格地图导出。为了计算最终特征矢量的第一特征分量,存储在占用网格地图的关注区域内的每个单元格中的对数几率(log-odds)概率值可以线性地绘制到预定范围。在本实施方式中,存储在占用网格地图的单元格中的对数几率概率值被线性地绘制到0到255的范围。该值被用作第一特征。
由于可越过物体与不可越过物体之间存在高度差异,因而,不可越过物体后面的空闲空间的概率通常小于可越过物体后面的空闲空间的概率。具体来说,路缘两侧的空闲空间概率是相似的。这被用于为相应单元格创建第二特征。
为了计算相应单元格的第二特征,考虑与相应单元格相邻的单元格,如图7中示例性地示出的。在该示例中,这些单元格具有矩形形状,因此每个单元格具有与这个单元格相邻的八个邻近单元格。在图7中,示出了中心的一个单元格和该单元格的八个邻近单元格。而且,针对每个单元格标注了空闲空间概率值。
中心单元格的八个邻近单元格被考虑如下。首先,从中心单元格的三个连续邻近单元格起,计算这三个单元格的空闲空间概率值的平均值。这三个单元格定义了一组单元格。针对三个连续相邻单元格的所有组合重复这一过程,如图7所示。一共存在八个不同的单元格组,其中每组由围绕相应组的单元格的虚线标记。针对每个组,计算相应组中的三个单元格的空闲空间概率值的平均值。假设最大平均值表示物体前面的区域,而最小平均值表示物体后面的区域,计算八个平均值的最大平均值与最小平均值之间的差值。该差值用作中心单元格的特征矢量的第二特征。
在图7所示示例中,最大平均值为236,而最小平均值为211。因此,最大平均值与最小平均值之间的差值是236-211=25。将值25用作中心单元格的特征矢量的第二特征。
在训练阶段,使用相同种类的特征矢量来训练SVM分类器。
其它单元格可以按与上述相同的方式分类。要注意,如占用网格地图中所标注的,仅具有足够大的占用概率的单元格可以包含障碍物。因此,可以规定的是,仅针对占用空间概率值等于或大于预定值的单元格创建特征矢量。然后,将所创建的特征矢量输入到分类器模型中来预测单元格的类别,如图4所示。
如上所述,评估了用于对每个网格单元格进行分类的装置和方法。使用SVM作为分类方法,在训练和测试装置上实现95.22%的准确度。所有评估测量可参见表1。
准确度(%) 精度(%) 召回(%) F-测量
95.22 94.81 96.46 95.63
表1
标号列表
1 装置
2 物体检测传感器单元
3 地图生成单元
4 分类器单元

Claims (15)

1.一种用于区分可越过物体与不可越过物体的装置(1),所述装置包括:
物体检测传感器单元(2),所述物体检测传感器单元被配置成监测所述物体检测传感器单元(2)周围的空间并且生成关于所述空间的数据;
地图生成单元(3),所述地图生成单元被配置成使用由所述物体检测传感器单元(2)生成的数据,以生成所述物体检测传感器单元(2)周围的所述空间的占用网格地图和空闲空间网格地图,其中,所述占用网格地图和所述空闲空间网格地图中的每一方包括单元格阵列,所述占用网格地图中的每个单元格包含表示相应单元格被占用的概率的占用空间概率值,并且所述空闲空间网格地图中的每个单元格包含表示相应单元格空闲的概率的空闲空间概率值;以及
分类器单元(4),所述分类器单元被配置成,通过计算从与至少一个单元格相邻的至少两个单元格的所述空闲空间概率值导出的两个空闲空间概率值之差值,并且利用所述差值以及所述至少一个单元格的所述占用空间概率值,将所述至少一个单元格分类为包含可越过物体的单元格或包含不可越过物体的单元格,以便对所述至少一个单元格进行分类。
2.根据权利要求1所述的装置(1),
其中,预先确定与所述至少一个单元格相邻的多组单元格,
其中,每个组中的单元格的位置相互邻近,
其中,所述分类器单元(4)还被配置成,针对每个组计算相应组中的单元格的所述空闲空间概率值的平均值,并确定最高平均值和最低平均值,并且
其中,由所述分类器单元(4)计算出的两个空闲空间概率值之差值是所述最高平均值与所述最低平均值之间的差值。
3.根据权利要求2所述的装置(1),
其中,每个组包含预定数量的单元格,
其中,每个组包含不同的单元格,并且
其中,所述组的数量等于位置与所述至少一个单元格相邻的单元格的数量。
4.根据前述权利要求中任一项所述的装置(1),
其中,所述物体检测传感器单元(2)包括雷达单元,具体为2D雷达单元。
5.根据前述权利要求中任一项所述的装置(1),
其中,所述分类器单元(4)还被配置成将多个单元格分类为包含可越过物体的单元格或包含不可越过物体的单元格,并且
其中,所述分类器单元(4)具体地被配置成仅对所述占用空间概率值等于或大于预定值的单元格进行分类。
6.根据前述权利要求中任一项所述的装置(1),
其中,所述分类器单元(4)包括分类器模型,
其中,针对每个单元格将特征矢量输入到所述分类器模型中,并且所述分类器模型使用所述特征矢量将相应单元格分类为包含可越过物体的单元格或包含不可越过物体的单元格,
其中,相应单元格的所述特征矢量包括第一特征和第二特征,并且
其中,所述第一特征是从相应单元格的所述占用空间概率值导出的,并且所述第二特征是根据从与相应单元格相邻的至少两个单元格的所述空闲空间概率值导出的两个空闲空间概率值之差值而导出的。
7.根据权利要求6所述的装置(1),
其中,所述分类器模型是通过机器学习算法建立的。
8.一种包括根据前述权利要求中任一项所述的装置(1)的车辆。
9.一种用于区分可越过物体与不可越过物体的方法,所述方法包括以下步骤:
利用物体检测传感器单元(2)来监测所述物体检测传感器单元(2)周围的空间并且生成关于所述空间的数据;
借助于由所述物体检测传感器单元(2)生成的数据,生成所述物体检测传感器单元(2)周围的所述空间的占用网格地图和空闲空间网格地图,其中,所述占用网格地图和所述空闲空间网格地图中的每一方包括单元格阵列,所述占用网格地图中的每个单元格包含表示相应单元格被占用的概率的占用空间概率值,并且所述空闲空间网格地图中的每个单元格包含表示相应单元格空闲的概率的空闲空间概率值;以及
通过计算从与至少一个单元格相邻的至少两个单元格的所述空闲空间概率值导出的两个空闲空间概率值之差值,并且利用所述差值以及所述至少一个单元格的所述占用空间概率值,将所述至少一个单元格分类为包含可越过物体的单元格或包含不可越过物体的单元格,以便对所述至少一个单元格进行分类。
10.根据权利要求9所述的方法,
其中,预先确定与所述至少一个单元格相邻的多组单元格,
其中,每个组中的所述单元格的位置相互邻近,
其中,针对每个组计算相应组中的单元格的所述空闲空间概率值的平均值,并确定最高平均值和最低平均值,并且
其中,所计算的两个空闲空间概率值之差值是所述最高平均值与所述最低平均值之间的差值。
11.根据权利要求10所述的方法,
其中,每个组包含预定数量的单元格,
其中,每个组包含不同的单元格,并且
其中,所述组的数量等于位置与所述至少一个单元格相邻的单元格的数量。
12.根据权利要求9至11中任一项所述的方法,
其中,所述物体检测传感器单元(2)包括雷达单元,具体为2D雷达单元。
13.根据权利要求9至12中任一项所述的方法,
其中,将多个单元格分类为包含可越过物体的单元格或包含不可越过物体的单元格,并且
其中,仅对所述占用空间概率值等于或大于预定值的单元格进行分类。
14.根据权利要求9至13中任一项所述的方法,
其中,提供分类器模型,
其中,针对每个单元格将特征矢量输入到所述分类器模型中,并且所述分类器模型使用所述特征矢量将相应单元格分类为包含可越过物体的单元格或包含不可越过物体的单元格,
其中,相应单元格的所述特征矢量包括第一特征和第二特征,并且
其中,所述第一特征是从相应单元格的所述占用空间概率值导出的,而所述第二特征是根据从与相应单元格相邻的至少两个单元格的所述空闲空间概率值导出的两个空闲空间概率值之差值而导出的。
15.根据权利要求14所述的方法,
其中,使用机器学习算法来建立所述分类器模型。
CN201811086694.XA 2017-09-20 2018-09-18 用于区分可越过物体与不可越过物体的装置和方法 Active CN109522784B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP17192173.7 2017-09-20
EP17192173.7A EP3460516B1 (en) 2017-09-20 2017-09-20 A device and a method for distinguishing between traversable and non-traversable objects

Publications (2)

Publication Number Publication Date
CN109522784A true CN109522784A (zh) 2019-03-26
CN109522784B CN109522784B (zh) 2023-08-08

Family

ID=59923337

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811086694.XA Active CN109522784B (zh) 2017-09-20 2018-09-18 用于区分可越过物体与不可越过物体的装置和方法

Country Status (3)

Country Link
US (1) US10657393B2 (zh)
EP (1) EP3460516B1 (zh)
CN (1) CN109522784B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111932644A (zh) * 2019-05-13 2020-11-13 Aptiv技术有限公司 融合占用地图的方法及系统
CN112729322A (zh) * 2020-12-30 2021-04-30 北京云迹科技有限公司 一种构建网格地图的方法、装置及电子设备

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11077756B2 (en) * 2017-11-23 2021-08-03 Intel Corporation Area occupancy determining device
US20190204834A1 (en) * 2018-01-04 2019-07-04 Metawave Corporation Method and apparatus for object detection using convolutional neural network systems
EP3514648B1 (en) * 2018-01-22 2023-09-06 Continental Autonomous Mobility Germany GmbH Method and apparatus for detecting a boundary in an envi-ronment of an object
US11126199B2 (en) * 2018-04-16 2021-09-21 Baidu Usa Llc Learning based speed planner for autonomous driving vehicles
US11372424B2 (en) * 2018-05-10 2022-06-28 GM Global Technology Operations LLC Generalized 3D inverse sensor model
US10642275B2 (en) 2018-06-18 2020-05-05 Zoox, Inc. Occulsion aware planning and control
US11353577B2 (en) * 2018-09-28 2022-06-07 Zoox, Inc. Radar spatial estimation
US20220057232A1 (en) * 2018-12-12 2022-02-24 Intel Corporation Time-aware occupancy grid mapping for robots in dynamic environments
WO2020157530A1 (en) * 2019-02-01 2020-08-06 Carit Automotive GmbH & Co. KG Vehicle park assist systems
DE102020210887B3 (de) * 2020-08-28 2021-12-09 Robert Bosch Gesellschaft mit beschränkter Haftung Vermehrung und Verarbeitung von Radardaten mit Machine Learning
US20220196828A1 (en) * 2020-12-17 2022-06-23 Aptiv Technologies Limited Radar Reference Map Generation
US11994582B2 (en) * 2021-09-13 2024-05-28 Texas Instruments Incorporated Inverse radar sensor model and evidential grid mapping processors

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120053755A1 (en) * 2010-08-30 2012-03-01 Denso Corporation Traveling environment recognition device and method
JP5494845B1 (ja) * 2013-01-17 2014-05-21 株式会社デンソーアイティーラボラトリ 情報提供システム
EP2883769A2 (de) * 2013-12-12 2015-06-17 Robert Bosch Gmbh Verfahren und Vorrichtung zur Querführung eines Kraftfahrzeugs, insbesondere zur Ausweichunterstützung
CN106291736A (zh) * 2016-08-16 2017-01-04 张家港长安大学汽车工程研究院 无人驾驶汽车车道动态障碍物检测方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6295367B1 (en) * 1997-06-19 2001-09-25 Emtera Corporation System and method for tracking movement of objects in a scene using correspondence graphs
US7609172B2 (en) * 2006-10-12 2009-10-27 Garmin Ltd. System and method for providing real-time traffic information
EP2383679A1 (en) * 2006-12-06 2011-11-02 Mobileye Technologies Limited Detecting and recognizing traffic signs
TWI327536B (en) * 2007-05-16 2010-07-21 Univ Nat Defense Device and method for detecting obstacle by stereo computer vision
JP5194679B2 (ja) * 2007-09-26 2013-05-08 日産自動車株式会社 車両用周辺監視装置および映像表示方法
DE102009007395B4 (de) * 2008-03-25 2015-11-26 Volkswagen Ag Verfahren zur kartenbasierten Umfelddarstellung eines Fahrzeugs
DE102008001409A1 (de) 2008-04-28 2009-11-05 Robert Bosch Gmbh Verfahren zur Bestimmung von freien Bereichen in der, insbesondere für die Fahrzeugführung relevanten Umgebung eines Kraftfahrzeugs
JP5483535B2 (ja) * 2009-08-04 2014-05-07 アイシン精機株式会社 車両周辺認知支援装置
US9126045B2 (en) * 2011-08-24 2015-09-08 Cardiac Pacemakers, Inc. Method and apparatus for adaptive control of neurostimulation using cardiac restitution
DE102011113016A1 (de) * 2011-09-09 2012-03-29 Daimler Ag Verfahren zur Umgebungsrepräsentation eines Fahrzeugs
DE102015205048A1 (de) * 2015-03-20 2016-09-22 Robert Bosch Gmbh Verfahren und Vorrichtung zum Überwachen einer von einem Fahrzeug abzufahrenden Soll-Trajektorie auf Kollisionsfreiheit

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120053755A1 (en) * 2010-08-30 2012-03-01 Denso Corporation Traveling environment recognition device and method
JP5494845B1 (ja) * 2013-01-17 2014-05-21 株式会社デンソーアイティーラボラトリ 情報提供システム
EP2883769A2 (de) * 2013-12-12 2015-06-17 Robert Bosch Gmbh Verfahren und Vorrichtung zur Querführung eines Kraftfahrzeugs, insbesondere zur Ausweichunterstützung
CN106291736A (zh) * 2016-08-16 2017-01-04 张家港长安大学汽车工程研究院 无人驾驶汽车车道动态障碍物检测方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111932644A (zh) * 2019-05-13 2020-11-13 Aptiv技术有限公司 融合占用地图的方法及系统
CN111932644B (zh) * 2019-05-13 2024-01-02 Aptiv技术有限公司 融合占用地图的方法及系统
CN112729322A (zh) * 2020-12-30 2021-04-30 北京云迹科技有限公司 一种构建网格地图的方法、装置及电子设备
CN112729322B (zh) * 2020-12-30 2023-07-28 北京云迹科技股份有限公司 一种构建网格地图的方法、装置及电子设备

Also Published As

Publication number Publication date
US20190087667A1 (en) 2019-03-21
EP3460516A1 (en) 2019-03-27
US10657393B2 (en) 2020-05-19
CN109522784B (zh) 2023-08-08
EP3460516B1 (en) 2020-05-27

Similar Documents

Publication Publication Date Title
CN109522784A (zh) 用于区分可越过物体与不可越过物体的装置和方法
CN111886603B (zh) 用于目标检测和表征的神经网络
US11783568B2 (en) Object classification using extra-regional context
US9767368B2 (en) Method and system for adaptive ray based scene analysis of semantic traffic spaces and vehicle equipped with such system
CN105096340B (zh) 用于检测静态和动态对象以及控制车辆的方法和系统
CN102076531B (zh) 车辆畅通路径检测
CN110660270B (zh) 车辆碰撞风险评价模型的建立方法和碰撞风险评价方法
CN107609483B (zh) 面向驾驶辅助系统的危险目标检测方法、装置
CN111383480B (zh) 用于交通工具的危险预警的方法、装置、设备和介质
CN102800207A (zh) 交通信号检测系统和方法
CN112334906B (zh) 从机器学习模型输出推断出的实例分割
CN103770704A (zh) 用于识别车辆的停车位标志线的系统和方法
JP2008285015A (ja) 運転タイプ判別装置、プログラム、及び運転支援装置
CN108960083B (zh) 基于多传感器信息融合的自动驾驶目标分类方法及系统
US11270525B2 (en) Automated vehicle occupancy detection
Koloushani et al. Introducing Automatic Control Method of Safety Standards in Horizontal Curves by Processing Images Taken by Mobile Mapping System.
Alam et al. Deep Learning Envisioned Accident Detection System
US12005926B2 (en) Traffic light viewsheds
US20220204032A1 (en) Traffic light viewsheds
Sazid et al. Advanced Driving Assistance System using Computer Vision and Deep Learning Algorithms
Khan et al. Image-Based Rain Detection with Local Binary Pattern-Based Features Using Machine Learning
CN116776713A (zh) 一种通行决策模型训练方法、装置、介质及设备
CN117280390A (zh) 用于预测对象的对象数据的方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant