CN108734732A - 用于生成车辆环境的占用地图的方法和装置 - Google Patents

用于生成车辆环境的占用地图的方法和装置 Download PDF

Info

Publication number
CN108734732A
CN108734732A CN201810326246.6A CN201810326246A CN108734732A CN 108734732 A CN108734732 A CN 108734732A CN 201810326246 A CN201810326246 A CN 201810326246A CN 108734732 A CN108734732 A CN 108734732A
Authority
CN
China
Prior art keywords
points
ray
cell
function
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810326246.6A
Other languages
English (en)
Other versions
CN108734732B (zh
Inventor
J·韦斯特霍夫
J·西格蒙德
M·莫伊特
S·莱斯曼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Delphi Technologies PLC
Delphi Technologies Inc
Original Assignee
Delphi Technologies PLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Delphi Technologies PLC filed Critical Delphi Technologies PLC
Publication of CN108734732A publication Critical patent/CN108734732A/zh
Application granted granted Critical
Publication of CN108734732B publication Critical patent/CN108734732B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/18Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/30Polynomial surface description
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Computational Mathematics (AREA)
  • Algebra (AREA)
  • Geometry (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Operations Research (AREA)
  • Probability & Statistics with Applications (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Remote Sensing (AREA)
  • Traffic Control Systems (AREA)

Abstract

用于生成车辆环境的占用地图的方法和装置。一种生成表示车辆周围的可用空间和占用空间的占用地图的方法,其中,占用地图被划分成多个单元格Mx,y,该方法包括以下步骤:通过安装在车辆上的摄像机拍摄两个连续图像;根据所述两个连续图像生成光流矢量;根据所述光流矢量估计车辆周围的空间中的3D点;生成从摄像机到所估计的3D点中的每一个3D点的射线,其中,所述射线与单元格Mx,y的交点限定另一些3D点;针对每个所述单元格Mx,y,确定时间步长t的函数以及根据针对每个所述单元格Mx,y的函数确定占用概率。

Description

用于生成车辆环境的占用地图的方法和装置
技术领域
本发明涉及用于生成表示车辆周围的可用空间和占用空间的占用地图(occupancy map)的方法和装置。
背景技术
在驾驶时建立车辆环境地图对于与驾驶员辅助系统和自主驾驶领域有关的不同高级应用至关重要。车辆周围的可用空间/占用空间的详细表示为诸如路径规划、紧急制动、碰撞警告等系统提供了基础。关于该2D地图中的环境的信息由该地图中的不同单元格(例如,大小20cm×20cm的单元格)的占用概率表示。
这个研究领域的许多系统都依赖于立体摄像机,LIDAR(光检测和测距)或基于雷达的传感器,这些都很昂贵和/或难以处理。文献中经常使用的方法是通过“语义分割”来确定车辆前方的可用空间。这种方法是基于图像的,并且需要一个大标注(含有地面真实信息)数据库来训练分类器(classifier)。分类器通常在具有看起来像沥青或类似质地的地区进行训练。在与沥青有关的训练后,分类器很难将草坪检测为可用空间。但出于防撞策略的规划,将草坪检测为自由空间可以挽救生命。
发明内容
本发明的基本目的是提供一种以低工作量来生成表示车辆周围的可用空间和占用空间的占用地图的有效方法。本发明的另一目的是提供用于生成表示车辆周围的可用空间和占用空间的占用地图的装置。
基于本发明的目的由独立权利要求的特征来满足。本发明进一步的有利开发和方面在附属权利要求书中加以阐述。
在本发明的一个方面,提供了一种用于生成表示车辆周围的可用空间和占用空间的占用地图的方法,其中,所述占用地图被划分成多个单元格Mx,y。根据所述方法,在所述车辆移动的同时,通过安装在所述车辆上的摄像机拍摄两个连续图像。根据所述两个连续图像生成光流矢量,并且根据所述光流矢量来估计所述车辆周围空间中的3D点。例如,可以采用常规的从运动恢复结构(structure from motion(SfM))技术,根据所述光流矢量来估计所述车辆环境中的所述3D点。然后,生成从所述摄像机到所估计的3D点中的每一个3D点的射线。例如,可以采用常规的射线追踪(ray tracing)技术来生成所述射线。所述单元格Mx,y可以限定在平面(例如,x-y平面)中。所述单元格Mx,y还从所述平面以正交方式延伸到3D空间中,并由此构成所述车辆周围的3D空间。所述射线与所述车辆周围的3D空间中的所述单元格Mx,y的交点限定另一些3D点。
针对所述单元格Mx,y中的每一个单元格,确定时间步长t的函数(具体为所谓的对数差异比(log-odds ratio)):
其中,i指示位于相应的单元格Mx,y内的3D点,并且3D点i中的每一个由地面之上的高度hi以及3D点i与相应射线上的、该射线命中地面或对象的3D点之间的距离di来限定。是时间步长t-1的函数或对数差异比。根据所述光流矢量在所述车辆周围的空间中估计的所述3D点和由所述射线与所述单元格Mx,y的交点限定的所述3D点有助于方程(1)。
项P(Mx,y|hi,di)是项的函数。具体来说,项P(Mx,y|hi,di)由下式给出:
其中,P(Mx,y|S,hi)是3D点i的、依赖于该3D点的状况S和高度hi的占用概率贡献,L(S|di)是所述3D点i的、依赖于距离di的状况的似然,并且S={hit(命中)、pass(通行)、covered(遮蔽)}。
如果3D点表示对象或者地面,则在基于概率的意义下,该3D点的状况S为S=命中。如果3D点位于所述摄像机与相应所述射线上的、该射线命中地面或对象的3D点之间,则在基于概率的意义下,3D点的状况S为S=通行。如果所述3D点以超出相应射线上该射线命中对象的3D点的方式位于相应射线上,则在基于概率的意义下,3D点的状况S为S=遮蔽。
最后,根据每个单元格Mx,y的函数确定占用概率。
完整的占用地图可以在时间t=0时以来初始化。
与常规方法相比,根据本发明的方法未遭遇前述训练问题,因为本发明的方法根本不需要训练。简单地说,本发明的方法可以使用常规SfM技术来确定环境中的3D点,并将3D点转换成环境占用地图。
可以将根据SfM估计和光学追踪技术估计的3D点用于收集尽可能多的环境信息。然后,根据本发明的方法能够通过考虑所有收集的信息来执行3D信息到占用地图的、基于概率的直接变换。
本发明中用于映射方法的仅有的传感器是单个前视摄像机和简单的速度传感器,例如,标准的基于轮子的速度传感器。
在另一实施方式中,项P(Mx,y|hi,di)由下式给出:
P(Mx,y|hi,di)=φThφTdDhφDdVhφVd (3)
其中,根据hi和di,函数φTh、φDh以及φVh皆生成概率,而函数φTd、φDd以及φVd皆生成似然:
φTh=P(Mx,y|S=hit,hi), (4)
φDh=P(Mx,y|S=pass,hi), (5)
φVh=P(Mx,y|S=covered,hi), (6)
函数φTh可以是逆高斯函数,该函数在hi=0时具有最小值。
函数φVh可以针对hi的所有值呈现为恒定值。所述恒定值可以为0.5。
函数φDh可以在hi的hi=0附近的第一范围中具有最小值。而且,函数φDh可以针对小于所述第一范围的hi的值呈现为1,并且可以针对大于所述第一范围的hi的值呈现为所述恒定值。
函数φTd可以是高斯函数,该函数在hi=0时具有最大值。
函数φDd可以针对di的di=0附近的第二范围中的值具有过渡区,其中,函数φDd可以从0上升至1。而且,所述函数φDd可以针对小于所述第二范围的di的值呈现为0,并且可以针对大于所述第二范围的di的值呈现为1。
函数φVd可以针对di的di=0附近的第二范围中的值具有过渡区,其中,函数φVd从1下降至0。而且,所述函数φVd可以针对小于所述第二范围的di的值呈现为1,并且可以针对大于所述第二范围的di的值呈现为0。
在又一实施方式中,通过下式,根据单元格Mx,y中的每一个的函数确定占用概率
根据本文所述方法生成的所述占用地图可以用作用于驾驶员辅助系统和/或自主驾驶系统的输入,特别是自主驾驶的路径规划系统、障碍物检测系统、车道偏离警告的系统、前向碰撞警告系统和/或自主紧急制动系统。而且,占用地图可以用于控制前述系统,特别是控制致动器,例如,转向和制动。
根据本发明另一方面,提供了一种用于生成表示车辆周围的可用空间和占用空间的占用地图的装置,其中,占用地图被划分成多个单元格Mx,y。所述装置被配置成接收通过安装在车辆上的摄像机拍摄的两个连续图像,根据所述两个连续图像生成光流矢量,根据光流矢量估计车辆周围的空间中的3D点,生成从摄像机到所估计的3D点中的每一个3D点的射线,其中,单元格Mx,y构成所述车辆周围的空间,并且所述射线与所述车辆周围空间中的所述单元格Mx,y的交点限定另一些3D点,并且针对每个所述单元格Mx,y,具体根据方程(1)和(2),确定时间步长t的函数另外,所述装置被配置成根据单元格Mx,y中的每一个的函数确定占用概率。
所述装置可以包括上面结合生成表示车辆周围的可用空间和占用空间的占用地图的方法而公开的实施方式。
根据本发明的又一方面,提供了一种系统,该系统包括用于生成占用地图的前述装置以及驾驶员辅助系统和/或自主驾驶系统,其中,由所述装置生成的占用地图是驾驶员辅助系统和/或自主驾驶系统中的输入。而且,占用地图可以用于控制驾驶员辅助系统和/或自主驾驶系统。具体来说,驾驶员辅助系统和/或自主驾驶系统可以包括:自主驾驶的路径规划系统、障碍物检测系统、车道偏离警告系统、前向碰撞警告系统和/或自主紧急制动系统。而且,占用地图可以被用于控制前述系统,具体用于控制致动器,例如,转向和制动。
附图说明
下面,参照实施方式并且参照附图,按示例性方式对本发明进行更详细描述。其中示出有:
图1是用于生成表示车辆周围的可用空间和占用空间的占用地图的系统的示意性表示图;
图2是用于生成表示车辆周围的可用空间和占用空间的占用地图的装置和方法的示意性表示图;
图3A是具有穿过摄像机的射线和所估计的3D点的示例的路面表面的俯视图;
图3B是图3A所示路面表面的侧视图;
图4是依赖于高度h的逆传感器模型的建模;
图5是临界通行的示意性表示图;
图6是依赖于距离d的逆向传感器模型的建模;
图7是依赖于距离d的逆传感器模型的归一化模型;
图8是依赖于高度h和距离d的逆传感器模型的表示图;以及
图9是占用地图的示例。
具体实施方式
图1例示了允许生成表示车辆周围的可用空间和占用空间的占用地图的系统1。系统1包括装置2、摄像机3以及速度传感器4。摄像机3安装在车辆上并拍摄车辆前方区域的图像。速度传感器4(其可以是标准的基于轮子的速度传感器)测量车辆的速度。摄像机3和速度传感器4分别向装置2提供拍摄的图像和测量的速度数据。装置2使用拍摄的图像和测量的速度数据,以便生成并特别是更新表示车辆周围的可用空间和占用空间的占用地图。为此,装置2可以包括处理器并且采用下面说明的生成占用地图的方法。
图2例示了执行生成表示车辆周围的可用空间和占用空间的占用地图的方法的装置2。装置2包括:用于估计自我运动的单元10、用于估计外在取向的单元11、用于过滤的单元12以及用于映射的单元13。
在车辆移动时由摄像机3拍摄的两个连续图像和由速度传感器4生成的速度信息用作装置2和由装置2执行的方法的输入20。在驾驶时呈现为恒定的非动态输入数据是摄像机3在地面之上的高度以及摄像机3的内在校准。下面,按照摄像机3相对于路面的俯仰角(pitch angle)和侧倾角(roll angle)给出外在取向,并且按照摄像机3在拍摄两个连续图像的两个摄像机位置之间的俯仰与侧倾旋转运动给出相对取向。
在21,根据覆盖所述两个连续图像的均匀分布的特征网格来计算光流矢量(OF:optical flow vector)。光流矢量线性连接所述两个图像中的、表示该世界中同一对象的两个点。例如,选择两个图像中的第一图像的第一点和两个图像中的第二图像的第二点,其中,第一点和第二点表示相同对象。光流矢量然后连接第一点和第二点。通过标准KLT(Kanade-Lucas-Tomasi)追踪器为每个网格点计算这种光流矢量。
在22,单元10使用光流矢量进行自我运动(EM:ego-motion)估计,即,单元10估计旋转和平移参数。具体而言,自我运动估计提供摄像机3的相对取向(诸如相对俯仰角(pitch angle)和相对侧倾角(roll angle))以及另一些参数。用于估计自我运动的方法是公知的。例如,用于估计自我运动的方法在2016年1月15日提交的欧洲专利申请No.16 151517.6中进行了描述,其通过引用并入于此。
在23,单元10检查所估计的相对取向是否有效和/或有用。例如,用于执行该步骤的方法在2016年3月24日提交的欧洲专利申请No.16 162 369.6中进行了描述,其通过引用并入于此。如果为假,则该方法以24继续,其中,重置占用地图并加载下一图像和速度信息。如果为真,则该方法以25继续。
在25,单元11估计摄像机3的外在取向,在摄像机坐标系与占用地图坐标系之间进行变换需要该外在取向。估计外在取向的示例在2016年1月15日提交的欧洲专利申请No.16151 517.6中进行了描述,其通过引用并入于此。
在26,单元11检查外在取向估计是否有效和/或有用。例如,用于执行该步骤的方法在2016年3月24日提交的欧洲专利申请No.16 162 369.6中进行了描述,其通过引用并入于此。
如果外在取向估计有效和/或有用,则该方法继续进行至27。单元12利用外在取向的实际估计来更新外在取向。而且,更新卡尔曼滤波器(KF:Kalman filter)。然后,该方法以28继续。
如果外在取向估计无效和/或无用,则该方法以29继续,其中,仅利用自我运动估计的相对取向来预测外在取向,并且未更新卡尔曼滤波器。
在30,单元12检查卡尔曼滤波器是否有效。具体来说,单元12检查所预测的外在取向是否仍然有用。
如果为真,则所预测的外在取向被用于进一步处理,并且该方法进行至28。如果为假,则在31,使用静态外在取向以供进一步处理。通过对有效外在取向估计进行时间滤波,可以在驾驶的同时确定静态外在取向。
在28,单元13通过标准三角测量技术估计摄像机坐标系中的3D点。具体而言,采用常规从运动恢复结构(SfM)技术来估计车辆环境中的3D点。
在32,估计3D点估计的不确定性。需要3D点估计的不确定性作为用于下面进一步描述的逆传感器模型的输入。
在33,更新车辆的位置。而且,基于下面进一步描述的逆传感器模型来更新占用地图中的针对每个单元格的占用概率。
因为移动车辆的图像通常导致具有错误坐标的3D点,所以在34,车辆检测器检测图像中的移动车辆。包括移动车辆的区域在占用地图中未被更新,以便避免映射处理中的错误3D点。
在35,输出经更新的占用地图,并可以将其用于其它系统,诸如路径规划、紧急制动以及碰撞警告。
下面,对被用于生成占用地图的概率逆传感器模型进行说明。
占用地图被划分成布置在占用地图坐标系(即,地面坐标系)的x-y平面中的不同单元格Mx,y。利用常规的射线追踪技术,可以生成从摄像机3到车辆环境中的每个估计3D点的射线,如图3A和图3B中示例性地例示的。
图3A示出了路面的表面39、摄像机3以及对象40的俯视图,即,图3A示出占用地图坐标系的x-y平面。而且,图3B示出了路面、摄像机3以及对象40的侧视图,即,图3B示出占用地图坐标系的x-z平面。
作为示例,图3A和图3B例示了位于对象40的表面上并且可以在由摄像机3拍摄的图像中看到的3D点41。生成射线42,射线42是摄像机3与3D点41之间的光线。
图3A还例示了单元格Mx,y。射线42与从x-y平面正交地延伸到3D空间中的单元格Mx,y的交点限定了车辆环境中的另一些3D点。作为示例,附图标记43指示单元格Mx,y中的一个单元格上方的空间与射线42的交点。每个3D点由地面之上的高度h以及相应3D点与相应射线上的、该射线命中地面或对象的3D点之间的Euclidean距离d来限定。在射线42的情况下,3D点41是射线41命中对象40的3D点。因此,3D点43的距离d是3D点41与3D点43之间的Euclidean距离。
公知的“占用网格地图”理论是环境映射的基础。函数Lx,y的更新方程,即,针对时间步长t,标准方法的所谓对数差异比率为:
逆传感器模型P(Mx,y|wt)基于测量wt来考虑占用概率。
基于3D点估计和射线追踪算法,能够定义不同的3D点特性(点状况)
S={命中、通行、遮蔽} (12)
如果相应3D点命中对象或地面,则该3D点的状况S在基于概率的意义上为S=命中,即,该3D点表示该对象或地面。在图3A和图3B所示的示例中,3D点41具有状况S=命中。如果相应3D点位于摄像机3与相应射线上的、该射线命中地面或对象的3D点之间,则该相应3D点的状况S为S=通行。在图3A和图3B所示的示例中,3D点43以及位于摄像机3与3D点41之间的射线42上的所有其它点在基于概率的意义上具有状况S=通行。如果相应3D点位于相应射线上、超出相应射线上的其中该射线命中对象的3D点,则该相应3D点的状况S为S=遮蔽。作为示例,图3A和图3B示出了在基于概率的意义上具有状况S=遮蔽的3D点44。而且,射线42上的、位于3D点41的与摄像机3相反一侧上的所有3D点在基于概率的意义具有状况S=遮蔽,即,具有状况S=遮蔽的3D点比3D点41更远离摄像机3。
因为具有其附着点状况的多个3D点可能出现在同一单元格Mx,y内,所以更新方程通过不同的点i来扩展,其中,i指示位于同一单元格Mx,y内的3D点:
先验概率P(Mx,y)呈现为0.5,因此项趋于零。
在下面,逆传感器模型将被定义为P(Mx,y|wi)=P(Mx,y|hi,di),其中,hi是3D点i在地面之上的高度,而di是视线上的3D点i与该视线结束处的相关3D点之间的Euclidean距离。
没有机会一下子对复杂的逆传感器模型P(Mx,y|hi,di)建模。因此,需要借助于概率微积分并且借助于有关问题本身的考虑来分解(dissemble)该模型。
因为希望能够分开建模点状况(stati)以对集合S进行边缘化开始
P(Mx,y|hi,di)=∑SP(Mx,y,S|hi,di)。 (14)
通过定义条件概率,得到
SP(Mx,y,S|hi,di)=∑SP(Mx,y|S,hi,di)P(S|hi,di). (15)
根据距离di的独立性假设P(Mx,y|S,hi,di)是合理的,因为占用概率充分地由3D点i的点状况S和高度hi编码。而且,可以从高度hi来假定独立性P(S|hi,di),因为点状况S仅由视线上的距离di限定。3D点的高度hi与点状况S无关。
这些发现使能写出
这是推导的重要部分。接下来,利用Bayes规则,其导致每个单元格Mx,y的占用概率的优雅公式化
而L是点状况S依赖于距离di的似然。利用公知关系P(di)=∑SL(S|di)P(S),可以找到最终逆传感器模型
项P(Mx,y|hi,di)可以公式化为
P(Mx,y|hi,di)=φThφTdDhφDdVhφVd (19)
其中,函数φTh、φDh及φVh皆生成概率,并且函数φTd、φDd以及φVd皆生成似然:
φTh=P(Mx,y|S=hit,hi), (20)
φDh=P(Mx,y|S=pass,hi), (21)
φVh=P(Mx,y|S=covered,hi), (22)
函数φTh、φDh及φVh和函数φTd、φDd及φVd必需建模。这些函数的定义基于与车辆通常移动的环境有关的考虑因素和详细观察结果,并将在下文中进行说明。
首先,函数φTh、φDh及φVh的建模依赖于相应3D点在路面表面39之上的高度h来进行。依赖于高度h的函数φTh、φDh及φVh如图4所示。
函数φTh的定义
函数φTh根据相对于路面(地面)的命中高度h来说明占用概率。对于在地面附近(即,在h=0附近)的命中来说,占用概率较低,因为低的对象被假定为可用空间。对于路面或地面之上(即,h>0)的命中,占用概率随着高度增加而增加。可用空间与占用空间之间的边界(即,φTh=0.5)通过图4所示的Gaussian函数被定义为25cm。通过这种方式,可以确保识别出障碍物,并且另一方面防止错误检测。还应针对路面侧的下降灌木丛或沟渠生成很高的占用概率,这利用在h<0时轴对称的所选Gaussian函数φTh确保。
函数φDh的定义
如果存在通行(或失控(runaway)),则在地面附近的占用概率同样较低,这可以参照图4中的函数φDh来识别。随着通行的高度增加,占用概率必须增加至值0.5。然而,不允许超出该值0.5。图5中强调了这样的理由。如果概率小于针对通行的值0.5,则所谓临界通行(critical pass)的高通行(high pass)(其例如可以由房屋墙壁形成)将降低由存在于观看视线中的对象(例如,人)所造成的占用概率。无论如何不希望降低呈现在观看视线中的对象前方的对象的概率,并且通过建模的函数来防止。
对于地面高度以下(即,h<0)的通行,与位于路面上方的命中相比,占用概率增加超过值0.5。基本上这会导致不对应于真实占用概率的占用概率,因为那里没有任何对象存在。然而,这种建模因映射的应用而被选择,因为该区域应当被映射为不可通行或被占用,例如,下降的灌木丛和沟渠。
函数φDh在hi=0附近的hi的第一范围50中具有最小值,并且针对小于该范围50的hi的值呈现为值1,而针对大于该范围50的hi的值呈现为值0.5。
函数φVh的定义
射线追踪在对象后面(当从摄像机3观看时)继续,直到道路表面的高度。由此产生具有状况S=遮蔽的3D点。函数φVh被呈现为与具有值0.5的高度无关的常数,因为无法确定对象背后的东西。
函数φTd、φDd及φVd未被直接建模,因为它们是由通过项∑SL(S|d)对似然L(S=hit|d)、L(S=pass|d)及L(S=covered|d)进行归一化而产生的。相反,对原始函数进行建模。这些函数的定义是基于以下考虑来推动的。所选函数的图形例示可以在图6中找到。图7例示了通过归一化产生的似然函数。
似然L(S=hit|d)的定义
函数L(S=hit|d)根据距离d来说明命中的似然。假设沿着观看射线的点估计的散射正常分布,该似然对应于Gaussian函数。随着相距关联3D点(d=0)的距离增加,命中的d的似然沿正方向(朝向摄像机,d>0)并且还沿负方向(远离摄像机,d<0)减小。
3D点估计准确度根据所估计的3D点到摄像机的相对位置、摄像机在两个不同时间点拍摄图像的相对位置以及光流估计准确度来计算。计算每个3D点的3D点估计准确度。通过这种方式,可以在所导出的概率模型中将3D点的不确定性视为尽可能真实的现实。沿着视线的3D点的不确定性直接用于Gaussian函数L(S=hit|d)的建模。该函数的进一步缩放通过∑SL(S|d)来确保被调谐成有关归一化的其它函数的加权。
似然L(S=pass|d)的定义
从所述3D点在摄像机3的方向上开始的射线追踪提供了具有增加的距离的3D点(被称为通行(或失控))。为此,关联的似然对于通行L(S=pass|d)来说,随着相对于关联命中的间距增加而增加。通行不能位于对象后面。然而,由于3D点估计包含不确定性,因而在这种情况下,似然L(S=pass|d)的连续降低也被建模成值“0”。
似然L(S=pass|d)在di=0附近的范围51中具有di的值的过渡区,其中,似然L(S=pass|d)从值0上升至值1,其中,似然L(S=pass|d)针对小于范围51的di的值呈现为值0,而针对大于范围51的di的值呈现为值1。
似然L(S=covered|d)的定义
在3D点后面的射线追踪直到路面的平面为止的基础上,出现具有状况S=遮蔽的点。因此,就3D点后面的区域而言,更有可能遇到遮蔽点。出于这个理由,函数L(S=covered|d)针对点d<0增加,反之针对点d>0减小。
似然L(S=covered|d)在di=0附近的范围51中具有di的值具有过渡区,其中,似然L(S=covered|d)从值1下降至值0,其中,似然L(S=covered|d)针对小于范围51的di的值呈现为值1,而针对大于范围51的di的值呈现为值0。
在图8中,例示了根据高度h和距离d的逆传感器模型P(Mx,y|hi,di),每个3D点有助于确定占用地图。由于方程(13)中随时间累积的占用概率,因此逆传感器模型必须按照因子fscale来适应单个点P(Mx,y|hi,di)
Pfinal(Mx,y|hi,di)=fscale(P(Mx,y|hi,di)-0.5)+0.5, (26)
以这种方式,可以产生可直接用于对象检测的地图占用概率。如评估所示,值fscale=0.1在车辆环境的映射上提供了良好结果。
一般来说,上面为建模函数φTh、φDh以及φVh和函数φTd、φDd以及φVd所确定和希望的特性可以在Pfinal(Mx,y|hi,di)中再现,如下面段落中所述。
对于0m范围内的h,命中和通行被评估为可用空间。与此相反,对于小于0米的高度,被遮蔽点越来越多地以概率0.5进行评估。在路面下的命中和通行因沟渠等而产生希望的高占用概率。与此相比,路面平面之上的命中导致对象检测所需的高占用概率。如上所述,路面之上的通行不被允许改变当前占用概率,由于P=0.5的值,其针对这种情况也不会发生。针对遮蔽点的路面下方的高度区域没有相关性,因为遮蔽点的射线追踪仅执行到路面高度。
图9示出了利用本文所述方法生成的占用地图的示例。在图9的左侧,示出了由摄像机拍摄的图像的示意性表示图。在右侧描绘了最终的占用地图(40m×80m,单元格大小20cm×20cm)。浅色表示高占用概率,深色表示低占用概率。可以看出,可用空间清晰可见。另外,场景中的对象以高占用概率正确地映射。

Claims (12)

1.一种生成表示车辆周围的可用空间和占用空间的占用地图的方法,其中,所述占用地图被划分成多个单元格Mx,y,所述方法包括以下步骤:
通过安装在所述车辆上的摄像机(3)拍摄两个连续图像;
根据所述两个连续图像生成光流矢量;
根据所述光流矢量估计所述车辆周围的空间中的3D点;
生成从所述摄像机(3)到所估计的3D点中的每一个3D点的射线,其中,所述单元格Mx,y构成所述车辆周围的空间,并且所述射线与所述车辆周围的空间中的所述单元格Mx,y的交点限定另一些3D点;
针对所述单元格Mx,y中的每一个单元格,确定时间步长t的函数
其中,i表示位于相应的单元格Mx,y内的3D点,并且3D点i中的每一个3D点由地面之上的高度hi及3D点i与相应射线上的、该射线命中地面或对象的3D点之间的距离di来限定,
其中,P(Mx,y|hi,di)是的函数,
其中,P(Mx,y|S,hi)是3D点i的、依赖于该3D点的状况S和高度hi的占用概率贡献,L(S|di)是所述3D点i的、依赖于距离di的状况的似然,并且S={命中、通行、遮蔽},其中,如果3D点i命中地面或对象,则该3D点的状况S为S=命中,如果所述3D点位于所述摄像机(3)与相应的射线上的、该射线命中地面或对象的3D点之间,则S=通行,并且如果所述3D点位于相应的射线上的、超出所述相应的射线上的该射线命中对象的3D点,则S=遮蔽;以及
根据针对所述单元格Mx,y中的每一个单元格的函数确定占用概率。
2.根据权利要求1所述的方法,其中,P(Mx,y|hi,di)由下式给出:
P(Mx,y|hi,di)=φThφTdDhφDdVhφVd
其中,函数φTh、φDh及φVh皆生成概率,并且函数φTd、φDd及φVd皆生成似然:
φTh=P(Mx,y|S=hit,hi),
φDh=P(Mx,y|S=pass,hi),
φVh=P(Mx,y|S=covered,hi),
以及
3.根据权利要求2所述的方法,其中,函数φTh是逆高斯函数,该函数在hi=0时具有最小值。
4.根据权利要求2至4中的一项所述的方法,其中,函数φVh对hi的所有值呈现为恒定值。
5.根据权利要求3和4所述的方法,其中,函数φDh在hi的hi=0附近的第一范围(50)中具有最小值,并且针对小于所述第一范围(50)的hi的值呈现为1,并且针对大于所述第一范围(50)的hi的值呈现为恒定值。
6.根据权利要求2至5中的一项所述的方法,其中,函数φTd是高斯函数,该函数在hi=0时具有最大值。
7.根据权利要求2至6中的一项所述的方法,其中,函数φDd针对处于di=0附近的第二范围(51)中的di的值具有过渡区,其中,函数φDd从0上升至1,其中,函数φDd针对小于所述第二范围(51)的di的值呈现为0,并且针对大于所述第二范围(51)的di的值呈现为1。
8.根据权利要求2至6中的一项所述的方法,其中,函数φVd针对处于di=0附近的第二范围(51)中的di的值具有过渡区,其中,函数φVd从1下降至0,其中,函数φVd针对小于所述第二范围(51)的di的值呈现为1,并且针对大于所述第二范围(51)的di的值呈现为0。
9.根据前述权利要求中的一项所述的方法,其中,所述占用概率根据针对所述单元格Mx,y中的每一个单元格的函数通过下式来确定
10.根据前述权利要求中的一项所述的方法,其中,所述占用地图被用作用于驾驶员辅助系统和/或自主驾驶系统的输入,所述系统特别是用于自主驾驶的路径规划系统、用于障碍物检测的系统、用于车道偏离警告的系统、用于前向碰撞警告的系统和/或用于自主紧急制动的系统。
11.一种生成表示车辆周围的可用空间和占用空间的占用地图的装置(2),其中,所述占用地图被划分成多个单元格Mx,y,所述装置(2)被配置成:
接收通过安装在所述车辆上的摄像机(3)拍摄的两个连续图像;
根据所述两个连续图像生成光流矢量;
根据所述光流矢量来估计所述车辆周围的空间中的3D点;
生成从所述摄像机(3)到所估计的3D点中的每一个3D点的射线,其中,所述单元格Mx,y构成所述车辆周围的空间,并且所述射线与所述车辆周围的空间中的所述单元格Mx,y的交点限定另一些3D点;
针对所述单元格Mx,y中的每一个单元格,确定时间步长t的函数
其中,i表示位于相应的单元格Mx,y内的3D点,并且3D点i中的每一个3D点由地面之上的高度hi和3D点i与相应射线上的、该射线命中地面或对象的3D点之间的距离di来限定,
其中,P(Mx,y|hi,di)是的函数,
其中,P(Mx,y|S,hi)是3D点i的、依赖于该3D点的状况S和高度hi的占用概率贡献,L(S|di)是所述3D点i的、依赖于距离di的状况的似然,并且S={命中、通行、遮蔽},其中,如果3D点i命中地面或对象,则该3D点的状况S为S=命中,如果所述3D点位于所述摄像机(3)与相应的射线上的、该射线命中地面或对象的3D点之间,则S=通行,而如果所述3D点位于相应的射线上的、超出所述相应的射线上的该射线命中对象的3D点,则S=遮蔽;以及
根据针对所述单元格Mx,y中的每一个单元格的函数确定占用概率。
12.一种系统,该系统包括:
根据权利要求11所述的用于生成占用地图的装置(2);以及
驾驶员辅助系统和/或自主驾驶系统,其中,所述占用地图是所述驾驶员辅助系统和/或所述自主驾驶系统的输入。
CN201810326246.6A 2017-04-13 2018-04-12 生成车辆环境的占用地图的方法、装置和系统 Active CN108734732B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP17166468.3A EP3388972B1 (en) 2017-04-13 2017-04-13 A method and a device for generating an occupancy map of an environment of a vehicle
EP17166468.3 2017-04-13

Publications (2)

Publication Number Publication Date
CN108734732A true CN108734732A (zh) 2018-11-02
CN108734732B CN108734732B (zh) 2022-03-18

Family

ID=58744974

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810326246.6A Active CN108734732B (zh) 2017-04-13 2018-04-12 生成车辆环境的占用地图的方法、装置和系统

Country Status (3)

Country Link
US (1) US10354154B2 (zh)
EP (1) EP3388972B1 (zh)
CN (1) CN108734732B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111510635A (zh) * 2020-05-08 2020-08-07 浙江大华技术股份有限公司 云台故障的确定方法、装置、存储介质及电子装置
TWI728811B (zh) * 2020-05-19 2021-05-21 奇美車電股份有限公司 車輛轉向判斷方法
CN113518957A (zh) * 2019-03-06 2021-10-19 索尼集团公司 地图创建设备、地图创建方法和程序

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11372424B2 (en) * 2018-05-10 2022-06-28 GM Global Technology Operations LLC Generalized 3D inverse sensor model
KR20200016627A (ko) * 2018-08-07 2020-02-17 삼성전자주식회사 자체 운동 추정 방법 및 장치
US10809073B2 (en) * 2018-12-05 2020-10-20 Here Global B.V. Local window-based 2D occupancy grids for localization of autonomous vehicles
EP3739361A1 (en) * 2019-05-13 2020-11-18 Aptiv Technologies Limited Method and system for fusing occupancy maps
JP7226553B2 (ja) * 2019-07-22 2023-02-21 日本電気株式会社 情報処理装置、データ生成方法、及びプログラム
DE102020203543A1 (de) * 2020-03-19 2021-09-23 Continental Automotive Gmbh Verfahren und System zur Erstellung einer semantischen Repräsentation eines Umfelds eines Fahrzeugs
GB2593481A (en) 2020-03-24 2021-09-29 Continental Automotive Romania Srl Method for detecting elevated objects in an environment of a vehicle
CN112835063B (zh) * 2021-01-08 2024-04-12 北京京东尚科信息技术有限公司 物体动静属性的确定方法、装置、设备及存储介质
DE102021125653A1 (de) * 2021-10-04 2023-04-06 Valeo Schalter Und Sensoren Gmbh Entfernen nicht relevanter Punkte aus einer Punktwolke

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8364366B2 (en) * 2005-06-24 2013-01-29 Deere & Company System and method for providing a safety zone associated with a vehicle
CN103576154A (zh) * 2012-08-01 2014-02-12 通用汽车环球科技运作有限责任公司 使用雷达和摄像机的障碍物探测的融合
US20140211012A1 (en) * 2012-08-06 2014-07-31 Cloudparc, Inc. Tracking Traffic Violations within an Intersection and Controlling Use of Parking Spaces Using Cameras
CN104484899A (zh) * 2014-12-26 2015-04-01 天津恒达文博科技有限公司 一种基于版块连续性判断算法的地图生成系统
DE102014200279A1 (de) * 2014-01-10 2015-07-16 Robert Bosch Gmbh Verfahren und Vorrichtung zum Detektieren von Objekten in einem Umfeld eines Fahrzeugs
CN105246754A (zh) * 2013-04-30 2016-01-13 宝马股份公司 提供用于车辆的环境地图
CN105264586A (zh) * 2013-06-03 2016-01-20 罗伯特·博世有限公司 用于车辆的占用地图
US9367966B2 (en) * 2012-04-06 2016-06-14 Xerox Corporation Smartphone augmented video-based on-street parking management system
CN105717939A (zh) * 2016-01-20 2016-06-29 李万鸿 一种支持汽车无人自动驾驶的道路路面的信息化和网络化实施方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8965677B2 (en) * 1998-10-22 2015-02-24 Intelligent Technologies International, Inc. Intra-vehicle information conveyance system and method
US9104202B2 (en) * 2010-05-11 2015-08-11 Irobot Corporation Remote vehicle missions and systems for supporting remote vehicle missions
US20140071240A1 (en) * 2012-09-11 2014-03-13 Automotive Research & Testing Center Free space detection system and method for a vehicle using stereo vision
CN114675671A (zh) * 2014-09-05 2022-06-28 深圳市大疆创新科技有限公司 多传感器环境地图构建
DE102015104065A1 (de) * 2015-03-18 2016-09-22 Connaught Electronics Ltd. Verfahren zum Bestimmen einer Position eines Objekts in einem dreidimensionalen Weltkoordinatensystem, Computerprogrammprodukt, Kamerasystem und Kraftfahrzeug
EP3563265B1 (en) * 2016-12-30 2021-06-02 DeepMap Inc. High definition map updates
CN111108342B (zh) * 2016-12-30 2023-08-15 辉达公司 用于高清地图创建的视觉测程法和成对对准

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8364366B2 (en) * 2005-06-24 2013-01-29 Deere & Company System and method for providing a safety zone associated with a vehicle
US9367966B2 (en) * 2012-04-06 2016-06-14 Xerox Corporation Smartphone augmented video-based on-street parking management system
CN103576154A (zh) * 2012-08-01 2014-02-12 通用汽车环球科技运作有限责任公司 使用雷达和摄像机的障碍物探测的融合
US20140211012A1 (en) * 2012-08-06 2014-07-31 Cloudparc, Inc. Tracking Traffic Violations within an Intersection and Controlling Use of Parking Spaces Using Cameras
CN105246754A (zh) * 2013-04-30 2016-01-13 宝马股份公司 提供用于车辆的环境地图
CN105264586A (zh) * 2013-06-03 2016-01-20 罗伯特·博世有限公司 用于车辆的占用地图
DE102014200279A1 (de) * 2014-01-10 2015-07-16 Robert Bosch Gmbh Verfahren und Vorrichtung zum Detektieren von Objekten in einem Umfeld eines Fahrzeugs
CN104484899A (zh) * 2014-12-26 2015-04-01 天津恒达文博科技有限公司 一种基于版块连续性判断算法的地图生成系统
CN105717939A (zh) * 2016-01-20 2016-06-29 李万鸿 一种支持汽车无人自动驾驶的道路路面的信息化和网络化实施方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
BRAILLON 等: "Occupancy grids from stereo and optical flow data", 《SPRINGER TRACTS IN ADVANCED ROBOTICS》 *
金康 等: "基于停车位可用概率的停车位发现算法", 《网络与通信》 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113518957A (zh) * 2019-03-06 2021-10-19 索尼集团公司 地图创建设备、地图创建方法和程序
CN111510635A (zh) * 2020-05-08 2020-08-07 浙江大华技术股份有限公司 云台故障的确定方法、装置、存储介质及电子装置
CN111510635B (zh) * 2020-05-08 2022-02-08 浙江大华技术股份有限公司 云台故障的确定方法、装置、存储介质及电子装置
TWI728811B (zh) * 2020-05-19 2021-05-21 奇美車電股份有限公司 車輛轉向判斷方法

Also Published As

Publication number Publication date
EP3388972A1 (en) 2018-10-17
US20180300560A1 (en) 2018-10-18
CN108734732B (zh) 2022-03-18
EP3388972B1 (en) 2020-08-26
US10354154B2 (en) 2019-07-16

Similar Documents

Publication Publication Date Title
CN108734732A (zh) 用于生成车辆环境的占用地图的方法和装置
KR102566724B1 (ko) 항만 모니터링 장치 및 항만 모니터링 방법
US10991156B2 (en) Multi-modal data fusion for enhanced 3D perception for platforms
CN112567201B (zh) 距离测量方法以及设备
CN108496178B (zh) 用于估计未来路径的系统和方法
CN108230361B (zh) 用无人机探测器和追踪器融合来增强目标追踪方法及系统
US10437252B1 (en) High-precision multi-layer visual and semantic map for autonomous driving
US9990736B2 (en) Robust anytime tracking combining 3D shape, color, and motion with annealed dynamic histograms
US8564657B2 (en) Object motion detection system based on combining 3D warping techniques and a proper object motion detection
EP4318397A2 (en) Method of computer vision based localisation and navigation and system for performing the same
JP5023186B2 (ja) 3dワーピング手法と固有対象物運動(pom)の検出の組み合わせに基づく対象物の動き検出システム
KR102235787B1 (ko) 접안 모니터링 장치 및 방법
Shim et al. An autonomous driving system for unknown environments using a unified map
CN112639502A (zh) 机器人位姿估计
US20230237210A1 (en) 3d multi-object simulation
US11373328B2 (en) Method, device and storage medium for positioning object
CN111510704A (zh) 校正摄像头错排的方法及利用其的装置
JP2022190173A (ja) 位置推定装置
Gao et al. 3D reconstruction for road scene with obstacle detection feedback
US20230102186A1 (en) Apparatus and method for estimating distance and non-transitory computer-readable medium containing computer program for estimating distance
JP2022079954A (ja) 物体検出装置
Petrescu et al. Self-supervised learning of depth maps for autonomous cars
CN117576199A (zh) 一种驾驶场景视觉重建方法、装置、设备及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant