CN110954912B - 用于光学距离测量的方法和设备 - Google Patents

用于光学距离测量的方法和设备 Download PDF

Info

Publication number
CN110954912B
CN110954912B CN201910941468.3A CN201910941468A CN110954912B CN 110954912 B CN110954912 B CN 110954912B CN 201910941468 A CN201910941468 A CN 201910941468A CN 110954912 B CN110954912 B CN 110954912B
Authority
CN
China
Prior art keywords
lidar
dynamic
grid map
point cloud
static
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910941468.3A
Other languages
English (en)
Other versions
CN110954912A (zh
Inventor
R·舒尔茨
H·阿尔卡迪里
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microvision Inc
Original Assignee
Microvision Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microvision Inc filed Critical Microvision Inc
Publication of CN110954912A publication Critical patent/CN110954912A/zh
Application granted granted Critical
Publication of CN110954912B publication Critical patent/CN110954912B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/50Systems of measurement based on relative movement of target
    • G01S13/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/50Systems of measurement based on relative movement of target
    • G01S17/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/66Tracking systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

提出一种用于光学距离测量的方法(100),该方法包括:进行雷达测量(101);基于所述雷达测量建立(102)包含多个元素(25)的栅格地图(24);提取(103)有关每个元素(25)动态状态的信息;以及将所述信息分配(105)到相应元素(25)。该方法(100)还包括执行(106)激光雷达测量,从而产生激光雷达点云(26),并将激光雷达点云(26)与栅格地图(24)关联(107)。

Description

用于光学距离测量的方法和设备
技术领域
本发明涉及用于光学距离测量的方法和设备。
背景技术
使用激光雷达测量来感知车辆的环境是众所周知的。激光雷达的测量基于发出测量脉冲并接收这些脉冲在车辆环境中对象上的反射。基于飞行时间方法,可以确定到反射测量脉冲的对象的距离。
但是,激光雷达的主要缺点是不能提供反射了测量脉冲的对象的速度信息。例如,在复杂的驾驶情况下,数据关联非常具有挑战性,因为使用高分辨率传感器,动态对象上反映的测量值很难与附近静态对象生成的其他测量值区分开。由于动态对象跟踪和静态对象代表的性能受到很大影响,因此这将导致非常具有挑战性的数据降级。
发明内容
本发明的目的是改进一种用于光学距离测量的方法,使得它考虑到测量是在动态对象上还是在静态对象上的反射的结果。换句话说,应该改善数据关联。
该目的通过一种用于光学距离测量的方法得以解决,其中该方法包括进行雷达测量和基于雷达测量(优选仅基于雷达测量)建立包含多个元素的栅格地图。另外,该方法包括基于雷达测量提取有关每个元素动态状态的信息,将所述信息分配到相应元素。另外,执行激光雷达测量,从而产生激光雷达点云,其中该方法包括将激光雷达点云与栅格地图关联。
用于光学距离测量的方法尤其用于导航车辆,特别是用于通过自主驾驶导航车辆。为此目的,优选地通过上述方法确定到用于执行该方法的设备的周围和/或测量区域内与任何对象的距离。
术语“雷达测量”是指使用无线电波确定到对象的距离的测量。该方法尤其包括发出反射在测量区域中的对象上的无线电波。所述测量区域具体代表借助于发出无线电波来测量的区域。特别地,测量区域被理解为视野,本文是雷达视野。视野特别地代表由相应的接收单元可观察到的区域,例如雷达传感器。无线电波被反射,其中反射被吸收。特别地,测量区域被无线电波扫描。换句话说,该方法包括通过进行雷达测量来扫描测量区域。特别地,使用成像雷达,使得作为雷达测量的结果的进一步优选的是获得测量区域的图像。
雷达的一大优点是它能够确定其上已经反射无线电波的对象的速度。特别地,确定相对径向速度。术语“相对径向速度”是指用于执行可能也正在移动的方法的设备与可能动态并因此移动的对象之间的相对速度,其中在径向上确定该相对速度。雷达测量,换句话说,是雷达测量的结果,用于建立包括多个元素的栅格地图。术语“元素”可是指栅格元素。
栅格地图可以是3D体素栅格地图,使得所述元素是体素。体素优选代表3D体素栅格地图上的值,其中该地图可以基于三维空间中的规则栅格。可选择地,栅格地图可以是2D栅格地图,包括单元或换句话说,像素作为元素。
特别地,栅格地图代表已通过雷达测量进行测量的测量区域。尤其是,栅格地图的每个元素代表测量区域的一部分,或者换句话说,是测量区域的片段,因此每个元素都与测量区域的相应部分相关并可以分配给测量区域的相应部分。换句话说,栅格地图是2D或3D中测量区域的离散表示。特别地,栅格地图将测量区域离散化,并且因此有利地将用于距离测量的各个设备的周围离散化为一组元素或是一组单元,或者换句话说是2D像素或3D体素集,其中每个元素代表测量区域中的唯一位置。
该方法包括提取有关每个元素动态状态的信息,将信息分配到相应元素。每个元素的动态状态代表在测量区域相应部分内对象的动态状态。因此,该方法有利地包括:提取关于测量区域的相应部分的动态状态的信息,并将其分配给相应元素。
另外,该方法可包括估计每个元素的动态概率。特别地,栅格地图是概率栅格地图,代表已在其中进行雷达测量的测量区域的动态概率。由于栅格地图的每个元素都代表已在其中已经进行雷达测量的测量区域的一部分,因此每个元素的动态状态直接与测量区域各个部分的动态状态相关。例如,如果元素的动态概率非常低,则意味着在测量区域的各个部分内,很可能仅已经检测到静态对象,换句话说,无线电波仅已经在测量区域这一部分中的静态对象上反射。
例如,动态概率的范围可以从0%到100%,其中0%是指静态确定性,并且“100%”是指动态运动确定性。动态概率将位于这些最小值和最大值之间,使得例如80%的动态概率仍然是在测量区域的各个部分中存在移动对象的高概率的指示。
由于通过使用雷达可以提取有关其上无线电波已反射的对象的速度、尤其是相对径向速度的信息,因此雷达测量可用于提取有关栅格地图的每个元素的动态状态的信息。该信息被分配给各个元素。有利的是,栅格地图因此表示其中已经进行雷达测量的测量区域的动态状态。
该方法还包括执行激光雷达测量,从而产生激光雷达点云。特别地,执行激光雷达测量包括发送测量脉冲并接收它们的反射。测量脉冲尤其是电磁信号,优选是光信号。测量脉冲尤其具有人眼不可见的波长。有利地,使用不可见的红外长。优选地,每个测量脉冲具有脉冲持续时间,使得测量脉冲可以被理解为电磁辐射的时间限制部分。由于测量脉冲是电磁信号,并且因此已知其速度,因此可以通过测量测量脉冲需要返回的时间来确定到其上已经反射测量脉冲的对象的距离。特别地,激光雷达点云的每个点代表激光雷达测量的结果,这意味着已经接收到反射的测量脉冲。激光雷达点云有利地是3D点云,这意味着激光雷达测量的点不设置在一个平面中而是在三维空间中。
有利地,执行激光雷达测量尤其包括发出在测量区域中的对象上反射的测量脉冲。特别是将测量区域理解为视野,本文是激光雷达视野。视野尤其表示由相应的接收单元可观察到的区域,例如激光雷达传感器。有利地,激光雷达测量在与雷达测量相同的测量区域中进行。换句话说,激光雷达视野和雷达视野至少是重叠的或相同的。特别地,进行激光雷达测量意味着扫描与雷达测量相同的测量区域。
根据本发明,该方法包括将激光雷达点云与栅格地图关联。特别地,激光雷达点云包括这样的点,其中每个点代表激光雷达测量的结果。优选将一个激光雷达测量理解为发出测量脉冲并在其已经被反射后接收。
特别地,激光雷达点云的每个点都与栅格地图的至少一个元素相关联。有利的是,激光雷达点云的每个点被分配给栅格地图的至少一个元素。
通过基于雷达测量提取有关栅格地图的每个元素的动态状态的信息,并将该信息分配给相应元素,根据本发明的方法考虑有关测量区域的速度信息。通过将源自激光雷达测量的激光雷达点云与包含有关每个元素的动态状态信息的栅格地图相关联,其可以考虑激光雷达点云的点是动态对象还是静态对象反射的结果。该信息的可用性改善了用于光学距离测量的方法的性能。特别地,在困难的驾驶场景中变得越来越具有挑战性的数据关联可以大大增加。从这个意义上讲,数据关联是指将每个测量分配给产生该测量的正确对象。换句话说,数据关联的目标是知道哪个测量属于哪个目标。
特别地,上述方法是用于距离测量的基于激光雷达的融合方法,因为该方法融合了雷达和激光雷达信息。
优选地,该方法包括估计每个元素的动态概率。估计每个元素的动态概率是指估计其上雷达测量的无线电波已经被反射的对象当前和/或将来将是静态或动态的概率。特别地,基于关于相同元素的先前测量来确定将来每个元素的动态概率。因此,该方法可以包括定期地估计动态概率,从而保存概率并且使用它们来估计未来的动态概率。可以将元素的动态概率建模为随机点过程,特别是非均匀泊松过程。
该方法还可包括基于所述雷达测量提取有关每个元素的占用的信息,并将该信息分配给相应元素。元素的占用代表在测量区域的相应部分内存在对象。因此,该方法有利地包括通过雷达测量提取有关测量区域的相应部分的占用的信息,并将该信息分配给对应的元素。使用二进制贝叶斯滤波器可特别估计占用概率。特别地,该方法包括估计每个元素的占用概率和/或将每个元素分类为被占用或未被占用。因此栅格地图可代表占用栅格地图。
特别地,激光雷达点云的每个点都与栅格地图的多于一个元素相关联。将激光雷达点云与栅格地图相关联可包括将激光雷达点云投射到栅格地图中。换句话说,激光雷达点云的每个点都投射到栅格地图中。
在将激光雷达点云的点投射到栅格地图中之后,该方法还可包括确定到该点的栅格地图的最靠近元素。特别地,预定半径,并且在该半径内围绕投射点的每个元素都被关联。
尤其是,栅格地图的所有元素都是同等大小的,由每个维度上的一个大小定义。半径例如可以是元素的尺寸、特别是元素的最大尺寸的一倍至三倍之间,尤其是一倍至两倍之间。
该方法还可包括检查最靠近元素(因此相关联元素)的动态概率。对于激光雷达点云的每个点,该方法有利地包括确定栅格地图的相关联元素的动态概率的平均值,并将该平均值与预定阈值进行比较以用于将该点分类为静态或动态。平均值可以是加权平均值,这意味着某些元素的动态概率比其他元素具有更大的“权重”。例如,在确定平均值时,更接近该点的最靠近元素的一些元素可比远离该点放置的最靠近元素的其他元素具有更高的“权重”。可选择地,不能对平均值进行加权,使得对每个最靠近元素进行平均加权。
该方法可包括将激光雷达点云的每个点分类为动态或静态。如果平均值高于阈值,则将激光雷达点云的各个点分类为动态。如果平均值在阈值以下,则该点分类为静态。如果将点分类为静态,则意味着该点很可能是由于在静态对象上的反射而导致的。如果将点分类为动态,则意味着该点很可能是由于在动态对象上的反射而导致的。例如,阈值可以设置为70%。
通过分类,该方法能够区分由于在静态对象上反射而导致的激光雷达点云的点和由于在移动对象上反射而导致的激光雷达点云的点。换句话说,对于激光雷达点云的每个点,可以确定相应的激光雷达测量脉冲是否已经反射到静态或动态对象上。这可以通过激光雷达点云和栅格地图之间的关联来实现。结果,该方法显着改善从静态和动态对象反射的激光雷达点之间的模糊数据关联。换句话说,由于在静态对象上的反射而导致分类的点将不会与动态对象相关联,反之亦然。结果,该方法能够基于其上已经反射各个激光雷达测量脉冲的对象的动力学来分离相同点云内的点。
优选地,该方法还包括建立基于激光雷达的静态栅格地图,特别是基于激光雷达的静态栅格地图。该基于激光雷达的静态栅格地图优选基于已经被分类为静态的激光雷达点云的点,这意味着这些点是由于在静态对象上的反射而导致。基于激光雷达的静态栅格地图用于代表测量区域中的所有静态对象。基于激光雷达的静态栅格地图可以不断更新,优选在每次扫描后更新,并且可以确认静态对象。
特别地,该方法包括对雷达和激光雷达进行多次扫描,其中激光雷达扫描在雷达扫描之后,或者激光雷达扫描和雷达扫描是同时执行的。特别地,基于激光雷达的静态栅格地图每次在执行激光雷达扫描后都会更新。由于数据关联已大大改善,因此基于激光雷达的静态对象代表不会被激光雷达点云的动态点错误地更新。因此,极大改善静态对象代表以及每次扫描后对静态对象的确认。
该方法还可包括动态对象的基于激光雷达的跟踪。特别地,动态对象的基于激光雷达的跟踪基于已经被分类为动态的激光雷达点云的点,这意味着由于在对象物体上反射而导致的点。有利地,仅考虑由于在移动对象上反射而导致的激光雷达点。
特别地,动态对象的基于激光雷达的跟踪包括用于跟踪的数据关联。由激光雷达测量而导致的激光雷达点云的点被区分为是各个测量脉冲在静态对象或动态对象上的反射结果。将由动态对象而导致的点初始化以进行跟踪。这些点表示要跟踪的动态对象。在每次激光雷达扫描这些点之后,或者换句话说,它们代表的动态对象都将得到验证和追随,以便启用跟踪。由于改善数据关联,因此增强动态对象的跟踪初始化和验证。在基于激光雷达的跟踪的数据关联过程中,将仅考虑在动态对象上反射而导致的点。因此,这将减少与动态对象错误关联的点的数量。而且,基于激光雷达的跟踪数据关联的计算时间将减少。
特别地,该方法包括基于所述基于激光雷达的静态栅格地图和动态对象的基于激光雷达的跟踪来提取车辆的可驾驶空间。特别地,该方法用于提取车辆的可驾驶空间,有利地是用于通过自主驾驶导航车辆。
在另一方面,本发明涉及一种用于光学距离测量的设备,其中该设备能够执行上述方法。特别地,设备被配置为执行上述方法。设备可以用于车辆的导航,尤其是通过自动驾驶的车辆的导航。为此,设备特别地布置在要导航的车辆上,特别是在其前部区域中。
该设备特别包括传输单元,其中传输单元进一步优选地包括激光雷达源,该激光雷达源用于传输用于激光雷达测量的测量脉冲,特别是多个激光器。特别地,激光雷达源被配置为激光阵列。此外,传输单元可以包括用于传输无线电波的雷达源。
设备可以包括接收单元,该接收单元进一步优选地具有用于接收无线电波的反射的雷达传感器以及用于接收激光雷达测量的测量脉冲的反射的激光雷达传感器。激光雷达传感器尤其包括多个接收元件,这些接收元件被配置为二极管,特别是雪崩光电二极管,最优选的单光子雪崩二极管或引脚二极管。
而且,设备可以包括用于控制传输单元以及接收单元的控制单元。设备可以进一步包括用于执行上述方法的评估单元。特别地,该设备是基于激光雷达的融合系统,其中激光雷达和雷达融合在一起。
特别地,设备是飞行时间探测器。
而且,本发明涉及一种计算机程序产品,包括其上存储有程序的计算机可读存储介质,该程序在被加载到计算机的存储器中之后,使计算机能够与上述设备配合执行上述方法。
另外,本发明涉及一种其上存储有程序的计算机可读存储介质,该程序在被加载到计算机的存储器中之后,使计算机能够与上述设备协作地执行上述方法。
附图说明
以示意方式示出下面内容:
图1根据本发明的方法的流程图;
图2根据本发明的设备;
图3a驾驶场景的图片;和
图3b与激光雷达点云相关联的栅格地图。
具体实施方式
在图1中,示出根据本发明的方法(100)的流程图。该方法包括进行雷达测量(101)以及建立(102)包含多个元素的栅格地图。该方法包括提取(103)有关每个元素动态状态的信息,将所述信息分配(105)到相应元素。
对于提取(103)有关每个元素动态状态的信息,该方法(100)可包括估计(103a)每个元素的动态概率。
另外,该方法可包括提取(104)有关每个元素的占用的信息。特别地,估计每个元素的占用概率,并将每个元素分类为已占用或未占用。另外,方法(100)可包括将有关每个元素的占用的信息分配(105)到相应元素。
而且,该方法包括进行(106)激光雷达测量,从而产生激光雷达点云,并将激光雷达点云与栅格地图相关联(107)。后面步骤优选包括将激光雷达点云投射(107a)到栅格地图中,并且进一步优选地对于激光雷达点云的每个点确定(107b)栅格地图的最靠近元素,甚至进一步优选地确定(107c)栅格地图的最靠近元素的动态概率的平均值,并且将平均值与预定阈值进行比较。
该方法还可包括基于与预定阈值的上述比较,将所述激光雷达点云的每个点分类(108)为动态或静态。
而且,该方法还可包括建立(109)基于激光雷达的静态栅格地图,其优选基于由在静态对象上反射而导致的激光雷达点云的点。该方法还可包括优选基于由在动态对象上反射而导致的激光雷达点云的点的动态对象的基于激光雷达的跟踪(110)。而且,优选基于所述基于激光雷达的静态栅格地图和动态对象的基于激光雷达的跟踪,方法(100)可包括提取(111)车辆的可驾驶空间。
图2示出根据本发明的的设备(10),包括传输单元(11),优选地包括激光雷达源和雷达源。
设备(10)还包括接收单元(12),优选各自用于激光雷达和雷达的接收单元以及估计单元(13)、和被配置为控制传输单元(11)、接收单元(12)和估计单元(13)的控制单元(14)。
图3a示出包括用于执行根据本发明的方法(100)的根据本发明的设备(10)的车辆的驾驶场景(20)。
为了简单起见,在该驾驶场景(20)中有多个用矩形表示的机动车(21)。而且,驾驶场景(20)包括交通信号灯(22)和人行道(23)。单独使用激光雷达无法导致有关驾驶场景中有关机动车(21)速度的任何信息。但是,通过使用根据本发明的方法,可以确定有关驾驶场景中的动态和静态区域的信息。
图3b示出图3a的驾驶场景(20)的栅格地图(24)。栅格地图(24)包括元素(25),其中在这种情况下,每个元素通过将栅格地图(24)投射到驾驶场景(20)上,与驾驶场景(20)的各个部分相关并且可以被分配给驾驶场景(20)的各个部分。图3b的栅格地图(24)高度简化。
在当前情况下,以虚线示出具有高动态概率的元素。即,元素(25)在第5行,第3和第4列;第6行,第1、3和4列;第7行,第1列和第2列;以及第8行,第1列。这些元素(25)显然对应于驾驶场景(20)的非常左侧上的机动车(21)以及该机动车前面的机动车,即驾驶场景(20)中左侧的第二机动车(21)。方法(100)的该结果仅仅是自然的,因为驾驶场景(20)示出机动车(21)排在交通信号灯(22)的前面。直接布置在交通信号灯(22)前面的机动车(21)已经减速并因此是静态的,而靠近交通信号灯(22)前方的“交通拥堵”的机动车(21)仍然是动态的。
另外,包括多个点(27)的激光雷达点云(26)在图3b中示出,其已经通过投射与栅格地图(24)相关联。点(27)显然是由于各个测量脉冲在驾驶场景(20)中的机动车上的反射(这些点在第1、3、4、5、7和8列)以及由于各个测量脉冲在人行道(23)上的反射(这是第13和14列中的点)。
每个点都与栅格地图(24)的最靠近元素相关联。例如,示出已经投射到第6行第3列的元素(25)中的第一点(27a)。该方法(100)包括确定在一定的预定半径内的最靠近元素。这些最靠近元素在这种情况下是第5行第3列和第4列以及第6行第3列和第4列中的元素(25)。第一点(27a)与这四个元素相关联。该方法(100)包括确定这些元素(25)的动态概率的平均值并将其与阈值进行比较。由于所有最靠近元素都具有很高的动态概率(可通过虚线所示观察到),因此平均值位于阈值之上,并且第一点(27a)被归类为动态。
关于第二点(27b)解释第二例子,该第二点投射到第7行第13列中的元素(25)中。在围绕该点的预定半径内,确定最靠近元素在第6行,第13和14列;以及第7行,第13和14列。这些元素(25)的平均动态概率低于预定阈值,因此第二点(27b)被归类为静态。
因此,通过将激光雷达点云(26)与栅格地图(24)相关联,可以将由在静态对象上反射而导致的点与由在动态对象上反射而导致的点分离。虽然因此可以将由在动态对象上而导致的点用于基于激光雷达的对象跟踪,但是将由在静态对象上反射而导致的点用于建立代表驾驶场景(20)中的静态对象的基于激光雷达的静态栅格地图。
附图标识
100 根据本发明的方法
101 进行雷达测量
102建立包含多个元素的栅格地图
103提取有关每个元素动态状态的信息
103a估计每个元素的动态概率
104提取有关每个元素的占用的信息
105将该信息分配给相应元素
106执行激光雷达测量,从而产生激光雷达点云
107将激光雷达点云与栅格地图关联
107a将激光雷达点云投射到栅格地图中
107b对于激光雷达点云的每个点确定栅格地图的最靠近元素
107c确定栅格地图的最靠近元素的动态概率的平均值,并将该平均值与预定阈值进行比较以用于将该点分类为静态或动态。
108将激光雷达点云的每个点分类为动态或静态
109建立基于激光雷达的静态栅格地图
110动态对象的基于激光雷达的跟踪
111 提取车辆的可驾驶空间
10 根据本发明的设备
11传输单元
12 接收单元
13 估计单元
14 控制单元
20 驾驶场景
21 机动车
22交通信号灯s
23side walk
24 栅格地图
25 元素
26 激光雷达点云
27 点
27a 第一点
27b 第二点

Claims (9)

1.一种用于光学距离测量的方法,其中所述方法包括
进行雷达测量;
基于所述雷达测量建立包含多个元素的栅格地图;
其中,该方法还包括基于所述雷达测量提取有关每个元素动态状态的信息,将所述信息分配到相应元素,并执行激光雷达测量,从而产生激光雷达点云,
其中该方法还包括将所述激光雷达点云与所述栅格地图关联,
其中,该方法还包括估计每个元素的动态概率,
其中,将所述激光雷达点云与所述栅格地图关联包括将所述激光雷达点云投射到所述栅格地图中,以及,对于所述激光雷达点云的每个点确定栅格地图的最靠近元素,
其中,该方法还包括:对于所述激光雷达点云的每个点,确定栅格地图的最靠近元素的动态概率的平均值,并将该平均值与预定阈值进行比较以用于将该点分类为静态或动态,其中,如果平均值高于阈值,则将该点分类为动态,如果平均值在阈值以下,则将该点分类为静态。
2.根据权利要求1所述的方法,其中,所述方法还包括:
基于所述雷达测量提取有关每个元素的占用的信息,并且将该信息分配给相应元素。
3.根据权利要求1所述的方法,其中,所述方法还包括:
建立基于激光雷达的静态栅格地图。
4.根据权利要求3所述的方法,其中
基于激光雷达的静态栅格地图是基于所述激光雷达点云的静态点。
5.根据权利要求1所述的方法,其中,所述方法还包括:
动态对象的基于激光雷达的跟踪。
6.根据权利要求5所述的方法,其中
动态对象的基于激光雷达的跟踪是基于所述激光雷达点云的动态点。
7.根据权利要求3所述的方法,其中,所述方法还包括:
基于所述基于激光雷达的静态栅格地图和动态对象的基于激光雷达的跟踪提取车辆的可驾驶空间。
8.一种用于光学距离测量的设备,其中
所述设备能够执行根据权利要求1至7中任一项所述的方法。
9.一种其上存储程序的计算机可读存储介质,在将程序加载到计算机的存储器中之后,使所述计算机能够与根据权利要求8所述的设备配合执行根据权利要求1至7中任一项所述的方法。
CN201910941468.3A 2018-10-02 2019-09-30 用于光学距离测量的方法和设备 Active CN110954912B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP18198096.2 2018-10-02
EP18198096.2A EP3633404B1 (en) 2018-10-02 2018-10-02 Method and apparatus for optical distance measurements

Publications (2)

Publication Number Publication Date
CN110954912A CN110954912A (zh) 2020-04-03
CN110954912B true CN110954912B (zh) 2023-08-08

Family

ID=63722171

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910941468.3A Active CN110954912B (zh) 2018-10-02 2019-09-30 用于光学距离测量的方法和设备

Country Status (5)

Country Link
US (1) US10989804B2 (zh)
EP (1) EP3633404B1 (zh)
CN (1) CN110954912B (zh)
CA (1) CA3056979C (zh)
IL (1) IL269745B2 (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11420647B2 (en) * 2020-08-13 2022-08-23 Argo AI, LLC Enhanced static object classification using lidar
CN116097305A (zh) * 2020-12-23 2023-05-09 深圳元戎启行科技有限公司 点云法向量的生成方法、装置、计算机设备和存储介质
CN114442101B (zh) * 2022-01-28 2023-11-14 南京慧尔视智能科技有限公司 基于成像毫米波雷达的车辆导航方法、装置、设备及介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000147102A (ja) * 1998-09-07 2000-05-26 Denso Corp Fmcwレ―ダ装置及び記録媒体
KR20050078670A (ko) * 2004-01-31 2005-08-08 학교법인 인하학원 라이다 데이터로부터 셰도-그리드를 이용한 건물 외곽선자동추출방법
JP2014123200A (ja) * 2012-12-20 2014-07-03 Toyota Motor Corp 移動体制御装置、移動体制御方法及び制御プログラム
CN105573318A (zh) * 2015-12-15 2016-05-11 中国北方车辆研究所 基于概率分析的环境构建方法
CN107316048A (zh) * 2017-05-03 2017-11-03 深圳市速腾聚创科技有限公司 点云分类方法及装置
US20180203124A1 (en) * 2017-01-17 2018-07-19 Delphi Technologies, Inc. Object detection system
US10029804B1 (en) * 2015-05-14 2018-07-24 Near Earth Autonomy, Inc. On-board, computerized landing zone evaluation system for aircraft
CN108445480A (zh) * 2018-02-02 2018-08-24 重庆邮电大学 基于激光雷达的移动平台自适应扩展目标跟踪系统及方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3078935A1 (en) * 2015-04-10 2016-10-12 The European Atomic Energy Community (EURATOM), represented by the European Commission Method and device for real-time mapping and localization
US9916703B2 (en) * 2015-11-04 2018-03-13 Zoox, Inc. Calibration for autonomous vehicle operation
US20170357267A1 (en) * 2016-06-10 2017-12-14 Cnh Industrial America Llc Autonomous work vehicle obstacle detection system
US10445928B2 (en) * 2017-02-11 2019-10-15 Vayavision Ltd. Method and system for generating multidimensional maps of a scene using a plurality of sensors of various types
US10474161B2 (en) * 2017-07-03 2019-11-12 Baidu Usa Llc High resolution 3D point clouds generation from upsampled low resolution lidar 3D point clouds and camera images
US10528851B2 (en) * 2017-11-27 2020-01-07 TuSimple System and method for drivable road surface representation generation using multimodal sensor data

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000147102A (ja) * 1998-09-07 2000-05-26 Denso Corp Fmcwレ―ダ装置及び記録媒体
KR20050078670A (ko) * 2004-01-31 2005-08-08 학교법인 인하학원 라이다 데이터로부터 셰도-그리드를 이용한 건물 외곽선자동추출방법
JP2014123200A (ja) * 2012-12-20 2014-07-03 Toyota Motor Corp 移動体制御装置、移動体制御方法及び制御プログラム
US10029804B1 (en) * 2015-05-14 2018-07-24 Near Earth Autonomy, Inc. On-board, computerized landing zone evaluation system for aircraft
CN105573318A (zh) * 2015-12-15 2016-05-11 中国北方车辆研究所 基于概率分析的环境构建方法
US20180203124A1 (en) * 2017-01-17 2018-07-19 Delphi Technologies, Inc. Object detection system
CN107316048A (zh) * 2017-05-03 2017-11-03 深圳市速腾聚创科技有限公司 点云分类方法及装置
CN108445480A (zh) * 2018-02-02 2018-08-24 重庆邮电大学 基于激光雷达的移动平台自适应扩展目标跟踪系统及方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于车载32线激光雷达点云的车辆目标识别算法;孔栋 等;科学技术与工程;全文 *

Also Published As

Publication number Publication date
IL269745A (en) 2020-04-30
CA3056979C (en) 2023-02-28
US20200103518A1 (en) 2020-04-02
US10989804B2 (en) 2021-04-27
CN110954912A (zh) 2020-04-03
IL269745B1 (en) 2023-03-01
CA3056979A1 (en) 2020-04-02
EP3633404A1 (en) 2020-04-08
IL269745B2 (en) 2023-07-01
EP3633404B1 (en) 2022-09-07

Similar Documents

Publication Publication Date Title
CN111344647B (zh) 具有低延时运动规划更新的智能激光雷达系统
US11226413B2 (en) Apparatus for acquiring 3-dimensional maps of a scene
JP6696697B2 (ja) 情報処理装置、車両、情報処理方法およびプログラム
US11250288B2 (en) Information processing apparatus and information processing method using correlation between attributes
CN110954912B (zh) 用于光学距离测量的方法和设备
US10860034B1 (en) Barrier detection
CN111201448B (zh) 用于产生反演传感器模型的方法和设备以及用于识别障碍物的方法
CN109307869B (zh) 用于增加激光雷达探测器的视场的设备和照明装置
CN111712828A (zh) 物体检测方法、电子设备和可移动平台
KR102565778B1 (ko) 객체 인식 방법 및 이를 수행하는 객체 인식 장치
JP2007114831A (ja) 物体検出装置
US20210117702A1 (en) Methods and systems for identifying material composition of objects
US20240077586A1 (en) Method for generating intensity information having extended expression range by reflecting geometric characteristic of object, and lidar apparatus performing same method
KR20230032632A (ko) 차량 및 차량의 제어방법
US11619725B1 (en) Method and device for the recognition of blooming in a lidar measurement
US20230341558A1 (en) Distance measurement system
US20210018596A1 (en) Method and device for identifying objects detected by a lidar device
CN115597649A (zh) 占用网格校准
US11899108B2 (en) Time-of-flight imaging system for autonomous movable objects
KR20230113343A (ko) 능동형 센서 시스템 및 물체 검출
JPWO2019151106A1 (ja) 周辺情報処理方法
US12125269B2 (en) Sensor fusion
US20230237783A1 (en) Sensor fusion
US20240288555A1 (en) Lidar data processing method
JP2023045830A (ja) 物体検出装置及び物体検出方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right

Effective date of registration: 20230419

Address after: Washington, DC

Applicant after: Microvision, Inc.

Address before: Nuremberg, Germany

Applicant before: MICROVISION, Inc.

Effective date of registration: 20230419

Address after: Nuremberg, Germany

Applicant after: MICROVISION, Inc.

Address before: Hamburg, Germany

Applicant before: IBEO AUTOMOTIVE SYSTEMS GmbH

TA01 Transfer of patent application right
GR01 Patent grant
GR01 Patent grant