CN114518566A - 用于运载工具的方法和感知系统 - Google Patents
用于运载工具的方法和感知系统 Download PDFInfo
- Publication number
- CN114518566A CN114518566A CN202110845469.5A CN202110845469A CN114518566A CN 114518566 A CN114518566 A CN 114518566A CN 202110845469 A CN202110845469 A CN 202110845469A CN 114518566 A CN114518566 A CN 114518566A
- Authority
- CN
- China
- Prior art keywords
- depth image
- point
- data
- intensity
- data points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 67
- 230000008447 perception Effects 0.000 claims abstract description 14
- 230000003287 optical effect Effects 0.000 claims description 25
- 230000015654 memory Effects 0.000 claims description 24
- 230000005540 biological transmission Effects 0.000 claims description 12
- 238000001514 detection method Methods 0.000 claims description 8
- 238000001914 filtration Methods 0.000 claims description 8
- 238000000605 extraction Methods 0.000 claims description 6
- 238000004891 communication Methods 0.000 description 36
- 238000012545 processing Methods 0.000 description 14
- 230000006870 function Effects 0.000 description 11
- 241000282412 Homo Species 0.000 description 6
- 230000008901 benefit Effects 0.000 description 6
- 238000013500 data storage Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 6
- 239000007787 solid Substances 0.000 description 6
- 230000001133 acceleration Effects 0.000 description 5
- 230000004044 response Effects 0.000 description 5
- 230000004927 fusion Effects 0.000 description 4
- 239000003550 marker Substances 0.000 description 4
- 238000001228 spectrum Methods 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 230000000875 corresponding effect Effects 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 230000002596 correlated effect Effects 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 238000009792 diffusion process Methods 0.000 description 2
- 238000002592 echocardiography Methods 0.000 description 2
- 230000033001 locomotion Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000005855 radiation Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000001429 visible spectrum Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 206010039203 Road traffic accident Diseases 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000002238 attenuated effect Effects 0.000 description 1
- 238000013475 authorization Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000034994 death Effects 0.000 description 1
- 231100000517 death Toxicity 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 125000001475 halogen functional group Chemical group 0.000 description 1
- 238000002329 infrared spectrum Methods 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 238000001556 precipitation Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 239000011435 rock Substances 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000010998 test method Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 239000012780 transparent material Substances 0.000 description 1
- 238000002211 ultraviolet spectrum Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/497—Means for monitoring or calibrating
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4802—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/08—Systems determining position data of a target for measuring distance only
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/491—Details of non-pulse systems
- G01S7/4912—Receivers
- G01S7/4915—Time delay measurement, e.g. operational details for pixel components; Phase measurement
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/408—Radar; Laser, e.g. lidar
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Theoretical Computer Science (AREA)
- Automation & Control Theory (AREA)
- Mathematical Physics (AREA)
- Mechanical Engineering (AREA)
- Transportation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Traffic Control Systems (AREA)
- Aviation & Aerospace Engineering (AREA)
Abstract
本发明涉及一种用于运载工具的方法和感知系统。描述了用于获得与在环境中操作的运载工具的深度传感器相关的深度图像的技术。在深度图像中识别具有等于或低于第一强度阈值的强度的第一数据点。在深度图像中确定在深度图像的第一区域中具有等于或高于第二强度阈值的强度的数据点的第一数目。然后,确定数据点的第一数目是否等于或高于区域数阈值。在数据点的第一数目等于或高于区域数目阈值的情况下,从深度图像去除第一数据点。然后,至少部分地基于深度图像来促进运载工具在环境中的操作。可以描述或要求保护其它实施例。
Description
技术领域
本说明涉及从由诸如光探测和测距(LiDAR)系统等的飞行时间(ToF)系统产生的点云去除伪影点(ghost point)。
背景技术
通常,诸如LiDAR等的ToF系统将收集ToF数据并生成与该数据相关的点云。在一些情况下,点云可能包括由于ToF系统的发送器或接收器内的反射错误而导致的点。在本文的描述中,这些点被称为“伪影”点,并且它们在点云中的存在常常在点云的伪影点和周围点的解释和处理中引起错误。例如,基于点云识别障碍物的自主运载工具可能基于点云内的伪影点误识别对象的存在,这可能对运载工具的控制产生负面影响。
发明内容
根据本发明的一方面,一种用于运载工具的方法,包括:使用至少一个处理器,获得与在环境中操作的运载工具的深度传感器相关的深度图像;使用所述至少一个处理器,识别所述深度图像中的具有等于或低于第一强度阈值的强度的第一数据点;使用所述至少一个处理器,确定所述深度图像中的在所述深度图像的第一区域中具有等于或高于第二强度阈值的强度的数据点的第一数目;使用所述至少一个处理器,确定数据点的所述第一数目是否等于或高于区域数目阈值;使用所述至少一个处理器,在数据点的所述第一数目等于或高于所述区域数目阈值的情况下,从所述深度图像去除所述第一数据点;以及使用所述至少一个处理器,至少部分地基于所述深度图像来促进所述运载工具在所述环境中的操作。
根据本发明的另一方面,一种感知系统,其包括用于在运载工具中使用的伪影点过滤器,其中,所述感知系统包括:至少一个处理器;以及至少一个存储器,其上存储有指令,所述指令在由所述至少一个处理器执行时使得所述运载工具:通过所述伪影点过滤器,在表示所述运载工具所处的环境的深度图像中识别具有等于或低于第一强度阈值的强度的第一数据点;在所述深度图像的第一区域中具有等于或高于第二强度阈值的强度的数据点的数目等于或高于区域数目阈值的情况下,通过所述伪影点过滤器从所述深度图像去除所述第一数据点;以及通过前景提取系统对所述深度图像进行过滤。
根据本发明的又一方面,一种用于运载工具的方法,包括:通过运载工具的一个或多个处理器,基于与所述运载工具的环境相关的深度图像中的点云的数据点的地点,来识别所述深度图像的第一区域中的数据点的数目和所述深度图像的第二区域中的数据点的数目;以及基于所述深度图像的所述第一区域和所述第二区域中的数据点的数目来更改与数据点相关的信息,其中,所述第一区域和所述第二区域是基于对深度传感器的电路在所述深度传感器的预期传输和接收路径之外接收到的光信号的预先识别。
附图说明
图1示出具有自主能力的自主运载工具的示例。
图2示出计算机系统。
图3示出了用于自主运载工具的示例架构。
图4示出感知系统可以使用的输入和输出的示例。
图5示出LiDAR系统的示例。
图6示出操作中的LiDAR系统。
图7更详细地示出LiDAR系统的操作。
图8示出现实世界图像和可能由ToF系统产生的点云之间的示例比较。
图9a和图9b描绘ToF系统的示例传输结构和接收结构。
图10描绘伪影点区域的示例。
图11描绘用于通过伪影点去除过滤器进行的处理的深度图像(range image)的示例。
图12描绘从深度图像去除伪影点的高级示例技术。
图13描绘基于伪影点区域的伪影点的识别和去除的图形示例。
图14描绘LiDAR流水线的示例。
图15描绘与从点云识别和去除伪影点相关的技术的示例。
具体实施方式
在以下描述中,为了解释的目的,阐述了许多具体细节,以便提供对本公开的透彻理解。然而,本公开可以在没有这些具体细节的情况下实施将是明显的。在其它实例中,众所周知的构造和装置是以框图形式示出的,以避免不必要地使本公开模糊。
在附图中,为了便于描述,示出了示意要素(诸如表示装置、系统、指令块和数据要素的那些要素)的具体排列或次序。然而,本领域技术人员应理解,附图中示意要素的具体次序或排列并不意在意味着要求特定的处理次序或序列、或处理过程的分离。此外,在附图中包含示意要素并不意在意味着在所有实施例中都需要这种要素,也不意在意味着由这种要素表示的特征不能包括在一些实施例中或不能在一些实施例中与其它要素结合。
此外,在附图中,连接要素、诸如实线或虚线或箭头用于例示两个或更多个其它示意要素之间的连接、关系或关联,没有任何此类连接要素并不意在意味着不能存在连接、关系或关联。换句话说,一些要素之间的连接、关系或关联未在附图中示出,以便不使本公开内容模糊。此外,为了便于例示,使用单个连接要素来表示要素之间的多个连接、关系或关联。例如,如果连接要素表示信号、数据或指令的通信,本领域技术人员应理解,这种要素表示影响通信可能需要的一个或多个信号路径(例如,总线)。
现在将详细参考实施例,其示例在附图中例示出。在以下的详细描述中,阐述了许多具体细节,以便提供对所描述的各种实施例的透彻理解。然而,对于本领域的普通技术人员来说将明显的是,可以在没有这些具体细节的情况下实施所描述的各种实施例。在其它情况下,没有详细描述众所周知的方法、程序、组件、电路和网络,以便不会不必要地使实施例的方面模糊。
下面描述的若干特征各自可以彼此独立地使用,也可以与其它特征的任何组合一起使用。然而,任何个别特征可能不能解决以上所讨论的任何问题,或者只能解决以上所讨论的问题之一。以上所讨论的一些问题可能不能通过本文所描述的任何一个特征得到充分解决。虽然提供了标题,但在本说明书的其它地方也可以找到与具体标题有关但在具有该标题的部分中未找到的信息。本文根据以下概要描述实施例:
1.总体概述
2.系统概述
3.自主运载工具架构
4.自主运载工具输入
5.伪影点发生
6.伪影点过滤技术
总体概述
运载工具(例如自主运载工具等)将包括至少一个处理器,该处理器使用伪影点过滤器从被包括在运载工具中或运载工具上的LiDAR系统或一些其它ToF系统(例如无线电检测和测距(RADAR)或一些其它系统)所生成的三维(3D)点云中去除伪影点。如上所述,伪影点是在LiDAR扫描期间由LiDAR系统捕获的点云的错误点,这些错误点不与实际对象反射相对应,而是光学伪像(artifact)的结果。在实施例中,伪影点过滤器识别点云中的低强度点(例如,具有低光学强度的点,其也可被认为是具有低接收能量的光学回波)。伪影点过滤器识别与所识别的低强度点相对的点云的预定义区域中的高强度点(例如,具有高光学强度的点,其也可被认为是使接收器饱和的光学回波)的数目。基于预定义区域中的高强度点的数目,低强度点可以被识别为伪影点,并从点云中去除或保留在点云中。应理解,本文的实施例将参考LiDAR来描述,然而,另一实施例将附加地或可替代地包括一些其它类型的ToF检测。
使用公开的伪影点过滤器去除伪影点的优点在于提高了点云的准确度以及运载工具的部分依赖于准确的点云而产生的操作。值得注意的是,该优点通过软件解决方案来实现,否则可能需要对大量LiDAR系统进行昂贵的硬件修改。在实施例中,软件解决方案将被认为是计算高效的,因为该软件解决方案被设计成在系统的初始深度图像(例如,在对由LiDAR系统产生的深度图像进行任何后处理之前的深度图像)上操作。
系统概述
图1示出具有自主能力的自主运载工具(AV)100的示例。
如本文所使用的,术语“自主能力”是指一种功能、特征或设施,该功能、特征或设施使运载工具能够部分地或完全地操作,而无需实时的人类干预,包括但不限于完全自主运载工具、高度自主运载工具和有条件自主运载工具。
如本文所使用的,AV是一种具有自主能力的运载工具。
如本文所使用的,“运载工具”包括货物或人员的运输方式。例如,小汽车、公共汽车、火车、飞机、无人机、卡车、船只、舰艇、潜水器、飞船等。无人驾驶的小汽车是运载工具的示例。
如本文所使用的,“轨迹”是指将AV从第一时空地点导航到第二时空地点的路径或路线。在实施例中,第一时空地点被称为初始地点或起始地点,第二时空地点被称为目的地、最终地点、目标、目标位置或目标地点。在一些示例中,轨迹由一个或多个路段(例如,道路的数段)组成,并且各路段由一个或多个块(例如,车道或交叉口的一部分)组成。在实施例中,时空地点对应于现实世界地点。例如,时空地点是上车或下车地点,以使人员或货物上车或下车。
如本文所使用的,“(一个或多个)传感器”包括一个或多个硬件组件,用于检测与传感器周围环境有关的信息。一些硬件组件可包括感测组件(例如,图像传感器、生物特征传感器)、传输和/或接收组件(例如,激光或射频波发送器和接收器)、电子组件(诸如,模数转换器)、数据存储装置(诸如,随机存取存储器(RAM)和/或非易失性存储器)、软件或固件组件和数据处理组件(诸如,专用集成电路)、微处理器和/或微控制器。
如本文所使用的,“场景描述”是一种数据结构(例如,列表)或数据流,其包括由AV运载工具上的一个或多个传感器检测到的一个或多个分类或标记的对象,或由AV外部的源提供的一个或多个分类或标记的对象。
如本文所使用的,“道路”是一个可以被运载工具穿过的物理区域,并且可以对应于已命名的通道(例如,城市街道、州际高速公路等)或可对应于未命名的通道(例如,房屋或办公楼内的行车道、停车场的一段、空置停车场的一段、乡村区域的污物通道等)。因为有些运载工具(例如,四轮驱动的小卡车、越野车(SUV)等)能够穿过各种不特别适合运载工具行驶的物理区域,因此“道路”可以是任何市政当局或其它政府或行政机构没有正式定义为一条通道的物理区域。
如本文所使用的,“车道”是道路的可被运载工具穿过的部分。有时基于车道标记来识别车道。例如,车道可对应于车道标记之间的大部分或全部空间,或仅对应于车道标记之间的一些空间(例如,小于50%)。例如,具有相距远的车道标记的道路可能在标记之间容纳两个或更多个运载工具,使得一个运载工具可以在不穿过车道标记的情况下超过另一个运载工具,并且因此可被解释为具有比车道标记之间的空间窄的车道,或具有车道之间的两个车道。在没有车道标记的情况下,也可以对车道进行解释。例如,可以基于环境的物理特征(例如乡村区域沿着通道的岩石和树木,或者例如在未开发地区要避免的自然障碍物)来定义车道。车道也可以独立于车道标记或物理特征来解释。例如,可以基于区域中没有障碍物的任意路径来解释车道,否则该区域中缺少将被解释为车道边界的特征。在示例情景中,AV可以解释通过田野或空地的无障碍物部分的车道。在另一示例情景中,AV可以解释通过不具有车道标记的宽(例如,足够两个或更多个车道宽)道路的车道。在该情景中,AV可以将与车道有关的信息通信至其它AV,使得其它AV可以使用相同的车道信息来协调AV之间的路径规划。
“一个或多个”包括由一个要素执行的功能、由多个要素例如以分布式的方式执行的功能、由一个要素执行的若干功能、由若干要素执行的若干功能、或上述的任何组合。
还将理解的是,尽管在一些情况下,术语“第一”、“第二”等在本文中是用来描述各种要素的,但这些要素不应受到这些术语的限制。这些术语仅用于区分一个要素与另一个要素。例如,在未背离各种所描述的实施例的范围的情况下,第一触点可被称为第二触点,并且类似地,第二触点可被称为第一触点。第一触点和第二触点两者都是触点,但它们不是相同触点。
在本文所描述的各种实施例的说明书中使用的术语仅用于描述特定实施例的目的,而不是意在限制。如在所描述的各种实施例的说明书和所附权利要求书中所使用的,单数形式“a”、“an”和“the”也意在包括复数形式,除非上下文另有明确说明。还将理解的是,如本文所使用的“和/或”是指并且包括一个或多个相关清单项目的任何和所有可能的组合。还将理解的是,当在本说明书中使用术语“包括”、“包含”、“具备”和/或“具有”时,具体说明存在所陈述的特征、整数、步骤、操作、要素和/或组件,但并不排除存在或添加一个或多个其它特征、整数、步骤、操作、要素、组件、和/或其群组。
如本文所使用的,取决于上下文,术语“如果”可选地被理解为意指“当”或“在当时”或“响应于确定为”或“响应于检测到”。类似地,取决于上下文,短语“如果已确定”或“如果[所陈述的条件或事件]已被检测到”可选地被理解为意指“在确定时”或“响应于确定为“或”在检测到[所陈述的条件或事件]时”或“响应于检测到[所陈述的条件或事件]”。
如本文所使用的,AV系统是指AV以及支持AV操作的硬件、软件、存储的数据和实时生成的数据的阵列。在实施例中,AV系统并入在AV内。在实施例中,AV系统跨若干地点分布。例如,AV系统的一些软件是在云计算环境中实现的。
一般而言,本文件描述了适用于任何具有一种或多种自主能力的运载工具的技术,包括完全AV、高度AV和有条件自主运载工具,诸如分别为所谓的第5级、第4级和第3级运载工具(见SAE国际标准J3016:道路上机动车自动驾驶系统相关术语的分类和定义,通过引用将其全部内容并入本文件,用于了解运载工具自主权等级的更多详细信息)。本文件所描述的技术也适用于部分自主运载工具和驾驶员辅助运载工具,诸如所谓的第2级和第1级运载工具(见SAE国际标准J3016:道路上机动车自动驾驶系统相关术语的分类和定义)。在实施例中,一个或多个第1级、第2级、第3级、第4级和第5级运载工具系统可基于对传感器输入的处理,在某些操作条件下自动执行某些运载工具操作(例如,转向、制动和使用地图)。本文件中所描述的技术可以使从完全自主运载工具到人类操作的运载工具范围内的任何级别的运载工具受益。
自主运载工具与需要人类驾驶员的运载工具相比存在优势。一个优势是安全性。例如,在2016年,美国经历了600万起汽车事故、240万人受伤、40000人死亡和1300万辆运载工具碰撞事故,估计社会成本为9100亿美元多。从1965年到2015年,每行驶1亿英里的美国交通事故死亡人数已从约6人减少到约1人,部分是由于运载工具中所部署的附加安全措施。例如,认为与将发生碰撞有关的额外半秒的警告减轻了60%的前后碰撞。然而,被动安全特征(例如,安全带、安全气囊)在改进该数字方面有可能已达到它们的极限。因而,诸如运载工具的自动控制等的主动安全措施是改进这些统计数据的可能的下一步。由于在95%的碰撞中认为人类驾驶员是造成严重碰撞前事件的原因,因此自动驾驶系统例如通过以下操作,有可能实现更好的安全结果:比人类更好地可靠地识别和避免紧急情况;做出比人类更好的决策,比人类更好地遵守交通法规,并且比人类更好地预测将来事件;并且比人类更好地可靠地控制运载工具。
参考图1,AV系统120使AV 100沿着轨迹198操作,穿过环境190至目的地199(有时称为最终地点),同时避开对象(例如,自然障碍物191、运载工具193、行人192、骑车者和其它障碍物)和遵守道路规则(例如,操作规则或驾驶偏好)。
在实施例中,AV系统120包括被装备以从计算机处理器146接收操作命令并对其进行操作的装置101。我们使用术语“操作命令”来意指导致运载工具执行动作(例如,驾驶操纵)的可执行指令(或指令集)。操作命令可以包括但不限于用于运载工具开始向前移动、停止向前移动、开始向后移动、停止向后移动、加速、减速、执行左转和执行右转的指令。在实施例中,计算处理器146与下面参考图2描述的处理器204类似。装置101的示例包括转向控制器102、制动器103、挡位、加速踏板或其它加速控制机构、挡风玻璃雨刮器、侧门锁、窗控器和转向指示器。
在实施例中,AV系统120包括用于测量或推断AV 100的状态或条件的属性的传感器121,这些属性诸如是AV的位置、线速度和角速度及线加速度和角加速度、以及航向(例如,AV 100的前端的方向)。传感器121的示例是GPS、测量运载工具线加速度和角速率两者的惯性测量单元(IMU)、用于测量或估计轮滑移率的轮速率传感器、轮制动压力或制动扭矩传感器、引擎扭矩或轮扭矩传感器以及转向角度和角速率传感器。
在实施例中,传感器121还包括用于感测或测量AV的环境的属性的传感器。例如,可见光、红外或热(或两者兼有)光谱的单目或立体摄像机122,LiDAR 123,RADAR,超声波传感器,ToF深度传感器,速率传感器,温度传感器,湿度传感器和降水传感器。
在实施例中,AV系统120包括数据存储单元142和存储器144,用于存储与计算机处理器146相关联的机器指令或由传感器121收集的数据。在实施例中,数据存储单元142与以下关于图2描述的ROM 208或存储装置210类似。在实施例中,存储器144与下面描述的主存储器206类似。在实施例中,数据存储单元142和存储器144存储有关环境190的历史、实时和/或预测性信息。在实施例中,存储的信息包括地图、驾驶性能、交通拥堵更新或天气条件。在实施例中,与环境190有关的数据从远程数据库134通过通信通道传输到AV100。
在实施例中,AV系统120包括通信装置140,用于将对其它运载工具的状态和条件(诸如位置、线速度和角速度、线加速度和角加速度、以及线航向和角航向)测量或推断的属性传送到AV 100。这些装置包括运载工具到运载工具(V2V)和运载工具到基础设施(V2I)通信装置以及用于通过点对点或自组织(ad hoc)网络或两者进行无线通信的装置。在实施例中,通信装置140跨电磁频谱(包括无线电和光通信)或其它介质(例如,空气和声介质)进行通信。运载工具对运载工具(V2V)、运载工具对基础设施(V2I)通信(以及在一些实施例中为一种或多种其它类型的通信)的组合有时被称为运载工具对所有事物(V2X)通信。V2X通信通常符合一个或多个通信标准,用于与自主运载工具进行的和在自主运载工具之间的通信。
在实施例中,通信装置140包括通信接口。例如,有线、无线、WiMAX、Wi-Fi、蓝牙、卫星、蜂窝、光、近场、红外或无线电接口。通信接口将数据从远程数据库134传输到AV系统120。在实施例中,远程数据库134嵌入在云计算环境中。通信装置140将从传感器121收集的数据或与AV 100操作有关的其它数据传输到远程数据库134。在实施例中,通信装置140向AV 100传输与遥操作有关的信息。在一些实施例中,AV 100与其它远程(例如,“云”)服务器136通信。
在实施例中,远程数据库134还存储和传输数字数据(例如,存储诸如道路和街道地点的数据)。这些数据存储在AV 100上的存储器144中,或者通过通信通道从远程数据库134传输到AV 100。
在实施例中,远程数据库134存储和传输与以前在一天中类似时间沿着轨迹198行驶的运载工具的驾驶属性有关的历史信息(例如,速率和加速度分布)。在一个实现中,这种数据可以存储在AV 100上的存储器144中,或者通过通信通道从远程数据库134传输到AV100。
位于AV 100上的计算处理器146基于实时传感器数据和先验信息两者以算法方式生成控制动作,允许AV系统120执行其自主驾驶能力。
在实施例中,AV系统120包括耦接到计算处理器146的计算机外围设备132,用于向AV 100的用户(例如,乘员或远程用户)提供信息和提醒并接收来自该用户的输入。在实施例中,外围设备132类似于下面参考图2讨论的显示器212、输入装置214和光标控制器216。耦接是无线的或有线的。任意两个或更多个的接口装置可以集成到单个装置中。
在实施例中,AV系统120接收并强制执行例如由乘员指定的或者存储在与乘员相关联的简档中的乘员的隐私级别。乘员的隐私级别确定了如何许可使用存储在乘员简档中的以及/或者存储在云服务器136上且与乘员简档相关联的、与乘员相关联的特定信息(例如,乘员舒适度数据、生物测量数据等)。在实施例中,隐私级别指定了一旦搭乘完成则被删除的与乘员相关联的特定信息。在实施例中,隐私级别指定了与乘员相关联的特定信息,并且标识被授权访问该信息的一个或多个实体。被授权访问信息的所指定的实体的示例可以包括其它AV、第三方AV系统、或者可以潜在地访问该信息的任何实体。
可以在一个或多个粒度级别指定乘员的隐私级别。在实施例中,隐私级别标识要存储或共享的特定信息。在实施例中,隐私级别适用于与乘员相关联的所有信息,使得乘员可以指定不存储或共享她的个人信息。被许可访问特定信息的实体的指定也可以在各种粒度级别指定。被许可访问特定信息的各种实体集例如可以包括其它AV、云服务器136、特定第三方AV系统等。
在实施例中,AV系统120或云服务器136确定AV 100或另一实体是否可访问与乘员相关联的某些信息。例如,试图访问与特定时空地点有关的乘员输入的第三方AV系统必须例如从AV系统120或云服务器136获得授权,以访问与乘员相关联的信息。例如,AV系统120使用乘员的指定隐私级别来确定是否可以将与时空地点有关的乘员输入呈现给第三方AV系统、AV 100或另一AV。这使得乘员的隐私级别能够指定允许哪些其它实体接收与乘员的动作有关的数据或与乘员相关联的其它数据。
图2例示计算机系统200。在实现中,计算机系统200是一种专用计算装置。专用计算装置被硬连线以执行这些技术,或包括诸如一个或多个ASIC或现场可编程门阵列(FPGA)的被持久编程为执行上述技术的数字电子装置,或可包括一个或多个通用硬件处理器,这些硬件处理器经编程以根据固件、存储器、其它存储器、或者组合中的程序指令执行这些技术。这种专用的计算装置还可以将定制的硬线逻辑、ASIC或FPGA与定制的编程相结合来完成这些技术。在各种实施例中,专用计算装置是台式计算机系统、便携式计算机系统、手持装置、网络装置或包含硬线和/或程序逻辑以实现这些技术的任何其它装置。
在实施例中,计算机系统200包括总线202或用于传达信息的其它通信机制、以及与总线202耦接以处理信息的处理器204。处理器204是例如通用微处理器。计算机系统200还包括主存储器206,诸如RAM或其它动态存储装置,该主存储器206耦接到总线202以存储信息和指令,该信息和指令由处理器204执行。在一个实现中,主存储器206用于在执行要由处理器204执行的指令期间存储临时变量或其它中间信息。当这些指令存储在处理器204可访问的非暂时性存储介质中时,使计算机系统200变成一个专用机器,该机器被定制以执行指令中指定的操作。
在实施例中,计算机系统200还包括只读存储器(ROM)208或耦接到总线202的其它静态存储装置,用于存储处理器204的静态信息和指令。提供诸如磁盘、光盘、固态驱动器或三维交叉点存储器的存储装置210,并且该存储装置210耦接到总线202以存储信息和指令。
在实施例中,计算机系统200通过总线202耦接到诸如阴极射线管(CRT)、液晶显示器(LCD)、等离子体显示器、发光二极管(LED)显示器或用于向计算机用户显示信息的有机发光二极管(OLED)显示器的显示器212。包括字母数字键和其它键的输入装置214耦接到总线202,用于向处理器204传送信息和命令选择。另一种类型的用户输入装置是光标控制器216,诸如鼠标、轨迹球、触控显示器或光标方向键,用于将方向信息和命令选择传送到处理器204,并用于控制光标在显示器212上的移动。这种输入装置通常具有两个轴(第一轴(例如,x轴)和第二轴(例如,y轴))上的两个自由度,这两个轴允许装置指定平面上的位置。
根据一个实施例,本文的技术由计算机系统200响应于处理器204执行主存储器206中包含的一个或多个指令的一个或多个序列而执行。这些指令从诸如存储装置210的另一存储介质读入主存储器206。执行主存储器206中包含的指令序列使处理器204执行本文所描述的过程步骤。在替代实施例中,使用硬连线电路代替或与软件指令结合使用。
如本文所使用的术语“存储介质”是指存储数据和/或指令的任何非暂时性介质,这些数据和/或指令使机器以特定方式操作。这种存储介质包括非易失性介质和/或易失性介质。非易失性介质例如包括诸如存储装置210的光盘、磁盘、固态驱动器或三维交叉点存储器。易失性介质包括动态存储器,诸如主存储器206。存储介质的常见形式包括例如软盘、软磁盘、硬盘、固态驱动器、磁带或任何其它磁数据存储介质、CD-ROM、任何其它光数据存储介质、任何具有孔型的物理介质、RAM、PROM和EPROM、FLASH-EPROM、NV-RAM、或任何其它存储芯片或存储盒。
存储介质有别于传输介质,但可以与传输介质相结合使用。传输介质参与存储介质之间的信息传输。例如,传输介质包括同轴电缆、铜线和光纤,其包括具备总线202的电线。传输介质也可以采取声波或光波的形式,诸如在无线电波和红外数据通信过程中产生的声波或光波。
在实施例中,各种形式的介质涉及将一个或多个指令的一个或多个序列承载到处理器204以供执行。例如,这些指令最初是在远程计算机的磁盘或固态驱动器上执行的。远程计算机将指令加载到其动态存储器中,并使用调制解调器通过电话线路发送指令。计算机系统200的本地调制解调器接收电话线路上的数据,并使用红外发送器将数据转换为红外信号。红外检测器接收红外信号中承载的数据,并且适当的电路将数据放置在总线202上。总线202将数据承载到主存储器206,处理器204从主存储器206检索并执行指令。主存储器206接收的指令可以可选地在处理器204执行之前或之后存储在存储装置210上。
计算机系统200还包括耦接到总线202的通信接口218。通信接口218提供耦接到连接至本地网络222的网络链路220的双向数据通信。例如,通信接口218是综合业务数字网(ISDN)卡、电缆调制解调器、卫星调制解调器或用以提供与相应类型电话线路的数据通信连接的调制解调器。作为另一示例,通信接口218是局域网(LAN)卡,用于提供与兼容LAN的数据通信连接。在一些实现中,无线链路也被实现。在任何这种实现中,通信接口218发送和接收承载表示各种类型的信息的数字数据流的电、电磁或光信号。
网络链路220通常通过一个或多个网络向其它数据装置提供数据通信。例如,网络链路220通过本地网络222提供与主计算机224或与由因特网服务提供商(ISP)226运营的云数据中心或设备的连接。ISP 226又通过现在通常称为“因特网”228的世界范围分组数据通信网络来提供数据通信服务。本地网络222和因特网228两者都使用承载数字数据流的电、电磁或光信号。通过各种网络的信号以及网络链路220上并通过通信接口218的信号是传输介质的示例形式,其中这些信号承载了进出计算机系统200的数字数据。在实施例中,网络220包含云或云的一部分。
计算机系统200通过(一个或多个)网络、网络链路220和通信接口218发送消息和接收包括程序代码的数据。在实施例中,计算机系统200接收用于处理的代码。接收到的代码在接收到时由处理器204执行,和/或存储在存储装置210中,或存储在其它非易失性存储装置中以便以后执行。
自主运载工具架构
图3示出用于AV(例如,图1所示的AV 100)的示例架构300。架构300包括感知系统302(有时称为感知电路)、规划系统304(有时称为规划电路)、控制系统306(有时称为控制电路)、定位系统308(有时称为定位电路)和数据库系统310(有时称为数据库电路)。各系统在AV 100的操作中发挥作用。共同地,系统302、304、306、308和310可以是图1所示的AV系统120的一部分。在一些实施例中,系统302、304、306、308和310中的任何系统是计算机软件(例如,计算机可读介质上所存储的可执行代码)和计算机硬件(例如,一个或多个微处理器、微控制器、专用集成电路[ASIC]、硬件存储器装置、其它类型的集成电路、其它类型的计算机硬件、或者这些硬件中的任何或所有的组合)的组合。系统302、304、306、308和310中的各个有时称为处理电路(例如,计算机硬件、计算机软件或两者的组合)。系统302、304、306、308和310中的任何一个或全部的组合也是处理电路的示例。
在使用中,规划系统304接收表示目的地312的数据,并且确定表示AV100为了到达(例如,抵达)目的地312而可以行驶的轨迹314(有时称为路线)的数据。为了使规划系统304确定表示轨迹314的数据,规划系统304从感知系统302、定位系统308和数据库系统310接收数据。
感知系统302使用例如也如图1所示的一个或多个传感器121来识别附近的物理对象。将对象分类(例如,分组成诸如行人、自行车、汽车、交通标志等的类型),并且将包括经分类的对象316的场景描述提供至规划系统304。
规划系统304还从定位系统308接收表示AV位置318的数据。定位系统308通过使用来自传感器121的数据和来自数据库系统310的数据(例如,地理数据)以计算位置来确定AV位置。例如,定位系统308使用来自GNSS(全球导航卫星系统)传感器的数据和地理数据来计算AV的经度和纬度。在实施例中,定位系统308所使用的数据包括具有行车道几何属性的高精度地图、描述道路网络连接属性的地图、描述行车道物理属性(诸如交通速率、交通量、运载工具和自行车车道的数量、车道宽度、车道交通方向、或车道标记类型和地点,或者它们的组合)的地图、以及描述道路特征(诸如十字路口、交通标志或各种类型的其它行驶信号等)的空间地点的地图。在实施例中,高精度地图是通过将数据经由自动或手动注释添加到低精度地图所构建的。
控制系统306接收表示轨迹314的数据和表示AV位置318的数据,并且以将使得AV100行驶轨迹314到达目的地312的方式来操作AV的控制功能320a~320c(例如,转向、油门、制动、以及点火)。例如,如果轨迹314包括左转,则控制系统306将以如下方式操作控制功能320a~320c:转向功能的转向角度将使得AV 100左转,并且油门和制动将使得AV 100在进行转弯之前暂停并等待经过的行人或运载工具。
AV输入
图4示出感知系统302(图3)所使用的输入402a-402d(例如,图1中所示的传感器121)和输出404a-404d(例如,传感器数据)的示例。一个输入402a是LiDAR系统(例如,图1所示的LiDAR 123)。LiDAR是使用光(例如,诸如红外光等的一道光)来获得与其视线中的物理对象有关的数据的技术。LiDAR系统产生LiDAR数据作为输出404a。例如,LiDAR数据是用于构造环境190的表示的3D或2D点(也称为点云)的集合。
另一输入402b是RADAR(雷达)系统。RADAR是使用无线电波来获得与附近的物理对象有关的数据的技术。RADAR可以获得与不在LiDAR系统的视线内的对象有关的数据。RADAR系统产生RADAR数据作为输出404b。例如,RADAR数据是用于构造环境190的表示的一个或多个射频电磁信号。
另一输入402c是照相机系统。照相机系统使用一个或多个照相机(例如,使用诸如电荷耦合器件[CCD]等的光传感器的数字照相机)来获取与附近的物理对象有关的信息。照相机系统产生照相机数据作为输出404c。照相机数据通常采用图像数据(例如,诸如RAW、JPEG、PNG等的图像数据格式的数据)的形式。在一些示例中,照相机系统具有例如为了立体影像(立体视觉)的目的的多个独立照相机,这使得照相机系统能够感知深度。尽管照相机系统所感知的对象在这里被描述为“附近”,但这是相对于AV而言的。在一些示例中,照相机系统被配置为“看见”远处的(例如,AV前方的远至1公里或更远的)对象。因此,在一些示例中,照相机系统具有为了感知遥远的对象而优化的诸如传感器和镜头等的特征。
另一输入402d是交通灯检测(TLD)系统。TLD系统使用一个或多个照相机来获得与交通灯、街道标志和提供视觉导航信息的其它物理对象有关的信息。TLD系统产生TLD数据作为输出404d。TLD数据经常采用图像数据(例如,诸如RAW、JPEG、PNG等的图像数据格式的数据)的形式。TLD系统与包含照相机的系统的不同之处在于:TLD系统使用具有宽视场(例如,使用广角镜头或鱼眼镜头)的照相机,以获得与尽可能多的提供视觉导航信息的物理对象有关的信息,使得AV 100能够访问这些对象所提供的所有相关导航信息。例如,TLD系统的视角为约120度或更大。
在一些实施例中,使用传感器融合技术来组合输出404a-404d。因而,将个体输出404a-404d提供至AV 100的其它系统(例如,提供至如图3所示的规划系统304),或者可以采用相同类型的单个组合输出或多个组合输出(例如,使用相同组合技术或组合相同输出或者这两者)或不同类型的单个组合输出或多个组合输出(例如,使用不同的各个组合技术或组合不同的各个输出或者这两者)的形式,将组合输出提供至其它系统。在一些实施例中,使用早期融合技术。早期融合技术的特征在于:在将一个或多个数据处理步骤应用到组合输出之前,将输出组合。在一些实施例中,使用后期融合技术。后期融合技术的特征在于:在将一个或多个数据处理步骤应用到个体输出之后,将输出组合。
图5示出LiDAR系统502的示例(例如,图4所示的输入402a)。LiDAR系统502从发射器506(例如,激光发送器)发射光504a-504c。LiDAR系统所发射的光通常不在可见光谱中;例如,经常使用红外光。所发射的光504b中的一些光遇到物理对象508(例如,运载工具)并且反射回到LiDAR系统502。(从LiDAR系统发射的光通常不会穿透物理对象,例如,实心形式的物理对象。)LiDAR系统502还具有用于检测反射光的一个或多个光检测器510。在实施例中,与LiDAR系统相关联的一个或多个数据处理系统生成表示LiDAR系统的视场514的图像512。图像512包括表示物理对象508的边界516的信息。这样,图像512用于确定AV附近的一个或多个物理对象的边界516。
图6示出操作中的LiDAR系统502。在该图所示的情境中,AV 100接收采用图像602的形式的照相机系统输出404c和采用LiDAR数据点604的形式的LiDAR系统输出404a两者。在使用中,AV 100的数据处理系统将图像602与数据点604进行比较。特别地,在数据点604中也识别在图像602中识别出的物理对象606。这样,AV 100基于数据点604的轮廓和密度来感知物理对象的边界。
图7示出LiDAR系统502的操作的附加细节。如上所述,AV 100基于LiDAR系统502所检测到的数据点的特性来检测物理对象的边界。如图7所示,诸如地面702等的平坦对象将以一致的方式反射从LiDAR系统502发射的光704a-704d。换句话说,由于LiDAR系统502使用一致的间隔发射光,因此地面702将以相同的一致间隔将光反射回到LiDAR系统502。在AV100在地面702上行驶时,在没有东西阻挡道路的情况下,LiDAR系统502将继续检测到由下一个有效地面点706反射的光。然而,如果对象708阻挡道路,则LiDAR系统502所发射的光704e-704f将以与预期一致方式不一致的方式从点710a-710b反射。根据该信息,AV 100可以确定存在对象708。
伪影点发生
如前所述,术语“伪影点”是指基于在LiDAR扫描期间捕获的点云中的错误返回点的LiDAR点云中的点。更具体地,伪影点是在传输和返回路径(例如,从LiDAR发射器到对象、然后从对象反射到LiDAR接收器的路径)期间LiDAR光束的水平扩散导致多路径效应的结果。伪影点的存在将在点云中引入不准确,这可能会对AV的动作产生负面影响,该AV依赖于点云数据以进行诸如自主导航等的功能。
图8示出现实世界图像和可能由ToF系统产生的点云之间的示例比较。具体地,图8描绘场景的现实世界图像805和场景的结果模型800的示例。在现实世界图像805中,个体810与标志815相邻但分开。在800处的模型中,分别描绘个体810和标志815的点云820、825。
将理解,在一些实施例中,点云820和825可以被认为是单个点云或合并的点云的不同区域(region)或区(zone)。然而,为了便于在此描述,要素820和825将被称为单独的点云。在一个实施例中,点云820和825可以是由单个LiDAR系统产生的点云,而在其它实施例中,点云820和825可以是由单独的LiDAR系统产生的点云。
如可以从图8中看出,多个点830分别位于个体和标志的点云820、825之间。另外,还存在点835。通过将模型800与现实世界图像805进行比较,可以看出在个体810和标志815之间没有对象。更准确地说,构成点云830的点是伪影点,这些伪影点是由于生成点云820和825的LiDAR系统的操作而生成的反射的水平扩散的结果。具体地,点云830可以是基于诸如标志815或一些其它后向反射器等的后向反射器中的一个或两个的扩散的结果。如本文所使用的,后向反射器是以最小散射和最小衰减将辐射(通常为光)反射回辐射源的装置或表面。
另外,可以看出,在现实世界图像805中在标志815的右侧没有对象。更准确地说,构成点云835的点是伪影点,这些伪影点是由于LiDAR系统的操作而生成的反射的水平扩散的结果。与点云830类似,点云835可以是基于标志815的扩散的结果。
与要素820和825类似,在另一实施例中,点云830和835可以被称为单个较大点云的区域或区。然而,为了在此便于描述,要素830将被称为个体的点云。
在一个场景中,点云830将被感知系统(例如,AV 100的感知系统302)的对象检测器(例如,深度神经网络)解释为实心对象,因此AV(例如,规划系统304)将尝试在对象周围导航。另外,因为点云830基于由于LiDAR系统的操作而生成的扩散反射(或者,可替代地,“多路径返回”),所以当LiDAR系统随着AV移动并且重新采样环境时,点云830可能改变或消失,这可能进一步影响对象检测器的准确度并且因此影响AV的操作。
图9a和图9b描绘诸如LiDAR系统等的ToF系统的示例传输结构和接收结构。具体地,图9a描绘LiDAR系统的传输结构(例如,“发送器”)的简化示例,图9b描绘LiDAR系统的接收结构(例如,“接收器”)的简化示例。
示例发送器包括发射器905。在LiDAR系统的实施例中,发射器905是光学发射器(例如,激光二极管),该光学发射器被配置为发射可见光谱、红外光谱、紫外光谱或一些其它光谱中的光束910。在另一实施例中,发射器905是发射无线电频谱中的信号或一些其它类型的电磁信号的不同类型的发射器。
在所示的示例发送器中,腔915包括反射表面,该反射表面在光束910传播了腔915的长度直到光束910到达透镜920时反射光束910。透镜920被配置成沿着预定义的视场935聚焦光束910。发送器还包括光学圆顶925,在实施例中,光学圆顶925是透明材料,其被布置成大体覆盖透镜920以保护透镜免受诸如划痕等的损坏。在实施例中,光学圆顶925是弯曲的并且如可以从图9a中看出,引起光束910的反射,然后光束910被透镜920反射以作为反射光束923离开光学圆顶925。反射光束923中的一个或多个撞击到诸如后向反射器930等的反射表面,该反射表面将光束反射回接收器。
参考图9b,接收器接收由透镜920折射并聚焦到腔915中的反射光束945和950,在腔915中反射光束945和950传播通过腔915直到它们到达光电二极管940为止。光电二极管940被配置为登记光信号的到达并将光信号转换成电信号,该电信号然后被提供给LiDAR系统的另一元件(或与LiDAR系统通信耦接的电装置)。在实施例中,光电二极管940是雪崩光电二极管(APD)。
在图9a和图9b所描绘的实施例中,传输视场935和光接收路径945被认为是标称方向。即,与APD 940耦接的处理器期望APD 940接收到的光信号将在由光路径945指示的方向上到达。然而,由于后向反射器930,将接收到与由光路径945指示的标称方向不同的反射光束950。这些反射光束950将被高度衰减,因此具有低的光学强度。在这种情况下,沿光路径950接收到的反射光束将登记为从标称方向(例如,沿光路径945)接收到的低强度点,从而产生了如上所述的“伪影点”。
通常,伪影点将出现在后向反射器(诸如街道标志或一些其它对象等)的任一侧,或作为对象周围的光环。伪影点将具有与后向反射器类似的形状和物理结构,并且出现在与后向反射器本身距LiDAR系统相同的深度处。
伪影点过滤技术
伪影点基于来自后向反射器(例如,如上所述的街道标志、运载工具等)的反射,该后向反射器相对于LiDAR系统的标称方向成角度。在实施例中,对于给定系统,后向反射器的存在将导致伪影点的角度是固定角度,对于LiDAR系统,该给定系统与光学设计相关。例如,当LiDAR系统(例如,可以是与上述LiDAR系统502相同或类似的LiDAR系统)接近后向反射器(例如,附于AV 100的顶部)时,观察到的伪影点可能移动更靠近后向反射器,或者在某些情况下从LiDAR扫描中消失,这取决于确定光将如何反射的后向反射器的材料和形状。
基于该固定角度,如参考图10和图11充分描述的那样,“伪影区”被广义地定义为与LiDAR系统成固定角度的区域,该LiDAR系统导致伪影点的存在。
图10描绘伪影点区域的示例。具体地,图10描绘基于被进行以识别所述伪影点区域1005/1010的地点的校准测试的在中心点1000(在下面定义)的任一侧上的伪影点区域1005和1010的示例。
为了进行校准测试,在本实施例中,LiDAR系统固定,并用中心点1000标记标称方向的地点。换句话说,中心点1000的地点与标称光路径945相对应。中心点1000是包括多个LED的测试面板上的点。然后激活测试面板的各个LED。伪影点区域1005/1010中的LED将生成与上述参考图9所述的光电二极管接收到的反射光束950类似的光束。即,伪影点区域1005/1010中的LED将使实际LiDAR系统的接收器登记低强度光信号,尽管它们在LiDAR系统的预期标称传输和接收路径之外。
通过该校准测试过程,针对特定中心点1000识别伪影点区域1005/1010。在一个实施例中,单个伪影点区域或一对伪影点区域(例如,伪影点区域1005/1010)用于LiDAR系统。在另一实施例中,针对中心点1000的不同地点定义不同的伪影点区域。即,针对LiDAR扫描的不同仰角(例如扫描线)或不同方位(例如横向)地点使用不同的校准的伪影点区域。
为了应用基于所识别的伪影点区域的伪影点去除过滤器,深度图像被识别并存储为张量。具体地,LiDAR系统生成包括多个LiDAR返回点的深度图像。图11描绘用于通过伪影点去除过滤器进行处理的深度图像的示例。
如1100所示,深度图像包括多个数据点1110。各个数据点1110具有与仰角相关的数据(在一个实施例中,仰角为0.60度、0.26度和-0.08度),该仰角是在生成深度图像时从LiDAR系统正指向的方向测量的。另外,各个数据点1110具有方位角(在一个实施例中,方位角是-0.4度、0度、0.4度和0.8度),该方位角是在收集数据点时从LiDAR系统正指向的方向测量的。将理解,这些示例角度仅意在用作与张量的一种配置相关的示例,并且另一实施例可以包括用于仰角或方位角的不同值或者各个数据点1110之间的不同的间隔。
然后,数据点1110被组织为张量1105,张量1105包括多个行、列和通道。具体地,行和列分别与仰角和方位角相对应,如1100中所示。然后张量1105包括多个通道1115、1120和1125,多个通道1115、1120和1125对应于与各个数据点1110相关的不同值。例如,一个通道1125对应于与各个数据点1110相关的深度信息(例如,反射了光信号并生成数据点1110的对象的测量距离)。另一通道1120与数据点1110的强度(即,光信号的接收能量)相对应。另一通道1115与数据点1110的点索引(即,深度图像内的数据点的标识符)相对应。然而,这些通道是根据一个实施例的示例,并且另一实施例可以具有更多或更少的通道或者以不同配置布置在张量1105中的通道。
在深度图像被转换为张量(诸如张量1105等)并且伪影点区域被识别之后,构造核(kernel)以从深度图像过滤低强度伪影点。一般而言,核是应用于图像(或更具体地,张量1105)以根据该图像来识别和改变或提取某些特征(例如,伪影点)的矩阵。在一个实施例中,核是卷积核、卷积神经网络(CNN)核、基于机器学习(ML)的核等。在核是CNN核或基于ML的核的实施例中,该核可以基于例如所识别或所使用的特定伪影点区、根据核的使用而被识别或过滤的伪影点的数目、后向反射器的大小或形状等,或者通过这些来修改该核。
图12描绘基于核从深度图像去除伪影点的高级示例技术。在实施例中,该技术全部或部分地由诸如图3的感知系统302等的感知系统、诸如图2的处理器204等的处理器、或如本文所述的LiDAR系统或运载工具的一些其它元件来进行。
最初,该技术包括:在1205处找到深度图像中的所有低强度点。具体地,该技术包括:在张量1105中找到低强度点。在一个实施例中,识别低强度点包括:识别张量中的具有等于或低于阈值的强度值(例如,数据点1110的强度通道1120的值)的数据点。在一个实施例中,基于例如所使用的LiDAR系统的类型或LiDAR系统的一些其它特性来预先识别阈值。作为一个示例,在如参考图10所描述的LiDAR系统的校准过程期间,预先识别阈值。在另一实施例中,基于深度图像的强度值来识别阈值。即,通过分析深度图像中的各个数据点的强度值来识别阈值。作为该实施例的示例,阈值是动态的(例如,阈值基于深度图像或一些其它因素随时间变化)。在另一实施例中,基于一个或多个附加或可替代因素来识别阈值。
该技术还包括:在1210处选择要测试的所识别的低强度点。具体地,然后选择在1205处识别的低强度点其中之一以进行检查。
该技术还包括:在1215处基于所选择的低强度点来识别过滤核。如前所述,在一个实施例中,单个过滤核用于整个张量1105。在另一实施例中,基于所选择的低强度点使用不同的过滤核。例如,基于不同仰角、方位角等使用不同的过滤核。
该技术还包括:在1220处找到落入基于核的伪影区内的所有高强度点。具体地,如将参考图13更详细地说明的,过滤核的应用包括将过滤核叠加在张量1105上。过滤核基于参考图10描述的伪影点区域1005/1010和中心点1000。在概念上,并且为了描述起见以高级的方式,将中心点1000与在1210处选择的低强度点对齐。然后在1220处识别多个高强度点(例如,具有强度通道1120的值等于或高于阈值的数据点1110)。与上述低强度点类似,在一个实施例中,基于预先识别的阈值来识别高强度点。在另一实施例中,基于对深度图像中的各数据点的强度值的分析来识别阈值,并且作为特定示例,如上所述,阈值是动态的。在又一实施例中,基于一个或多个附加或可替代因素来识别阈值。
在一个实施例中,低强度阈值和高强度阈值彼此分离,使得低强度阈值具介于0和x之间的光学强度值,并且高强度阈值具有介于y和255之间的光学强度值。可以认为介于x和y之间的值既不是低强度值也不是高强度值,因此在1205或1220处都未被识别。在另一实施例中,低强度值介于0和x之间,高强度值介于x和255之间。
然后在1225处对伪影区中的高强度点的数目进行计数。在一个实施例中,仅计数单个伪影区(例如,伪影区1005或1010中的仅一个)中的高强度点。在另一实施例中,对两个或多个伪影区(例如,伪影区1005和1010)中的高强度点进行计数。
在一个实施例中,确定到在1205处识别的低强度点的距离。具体地,确定从运载工具或LiDAR系统到低强度点的距离。在该实施例中,在1220处仅识别或在1225处仅计数具有到低强度点的距离范围内的距离的高强度点。以这种方式,系统能够验证为低强度点和高强度点彼此相关,使得低强度点可以是由高强度点引起的伪影点,而不是两个不同距离处的数据点引起的伪影点(这意味着它们可能彼此不相关)。在一个实施例中,距离范围可以是大约+/-1米(m),而在其它实施例中,距离范围可以是大约+/-0.5m、+/-0.25m等。特定距离范围可以基于例如所使用的LiDAR系统的类型、到在1205处所识别的低强度点的初始距离等而不同。
然后在1230处将高强度点的数目与区域数目阈值进行比较。具体地,将在1225处识别的伪影区内的高强度点的数目和与区域数目阈值相关联的值进行比较。在高强度点的数目在高于(或可选地,等于或高于)与区域数目阈值相关联的值的情况下,在1210处选择的低强度点被识别为伪影点,并从张量1105所基于的深度图像(或更具体地,深度图像的点云)中去除。在高强度点的数目低于(或可选地,等于或低于)与区域数目阈值相关联的值的情况下,低强度点不被识别为伪影点并且不从深度图像去除。与上述其它阈值类似,在一个实施例中,区域数目阈值基于与诸如LiDAR系统的类型(例如,LiDAR系统的一个或多个组件)、LiDAR系统所在的环境等因素相关的预先识别的值。在另一实施例中,基于对深度图像或一些其它因素的分析来识别区域数目阈值。然后,该技术可以返回到1210以选择在1205处识别出的低强度点中的另一低强度点。
应理解,该技术意在作为示例技术,并且另一实施例将包括与图12中描绘的技术相比具有一个或多个变型的技术。例如,另一实施例可以具有比所描绘的要素更多或更少的要素、与所描绘的要素顺序不同的要素等。
图13描绘基于伪影点区域的伪影点的识别和去除的图形示例。具体地,图13描绘包括与图8的模型800中描绘的那些要素类似的要素的深度图像1325。深度图像1325描绘与个体相关的点云1305、与标志相关的点云1307、以及分别与个体810的点云820、标志815的点云825和点云830类似的低强度点的点云1300。
图13还描绘过滤核在深度图像1325上的叠加。具体地,图13描绘被选择用于分析的低强度点1315,例如如上参考要素1210所述的那样。如参考要素1215所述的那样,基于该低强度点,识别过滤核。过滤核包括伪影区1310a和1310b,它们分别与图10的伪影区1005和1010类似。
点云1305和1307这两者包括高强度点。如参考要素1220和1225所述的,识别并计数伪影区1310a和1310b中的高强度点。例如,识别并计数与伪影区1310b内的标志相关的点云1307相对应的高强度点1320。附加地或可替代地,识别并计数与伪影区1310a内的个体相关的点云1305的高强度点1330(如果有的话)。然后,如参考要素1230所述的那样,将高强度点的数目和与区域数目阈值相关联的值进行比较。在高强度点的数目高于(或者可替代地,等于或高于)与区域数目阈值相关联的值的情况下,低强度点1315被识别为伪影点,并从点云1300和深度图像1325中去除。
图14描绘LiDAR流水线1400的示例。通常,LiDAR流水线1400由诸如图3的感知系统302等的系统来实现或为诸如图3的感知系统302等的系统的要素。更一般而言,LiDAR流水线1400由诸如图2的处理器204等的处理器来实现或为诸如图2的处理器204等的处理器的要素。
最初,多个LiDAR深度图像1405a和1405b被输入到流水线1400。将理解,虽然在图14中仅描绘两个LiDAR深度图像,但是另一实施例包括更多或更少的深度图像1405a/1405b。LiDAR深度图像1405a/1405b中的各个与上述深度图像1325类似,并且包括各种点云,诸如点云1300、1305和1307等。
深度图像1405a/1405b被输入到伪影点过滤器1410a/1410b。伪影点过滤器1410a/1410b中的各个应用过滤核来识别和去除伪影点,如参考图12所描述的那样。如图14中所示,伪影点过滤器1410a和1410b彼此独立。例如,伪影点过滤器1410a和1410b可以由不同的硬件、软件、固件等实现。在另一实施例中,伪影点过滤器1410a和1410b可以是相同的过滤器或相同过滤器的子要素。
在伪影点过滤之后,深度图像然后被提供给LiDAR流水线的其它要素。例如,在一个实施例中,深度图像被输出并提供给前景提取系统1410,在前景提取系统1410中这些图像被合并和处理。在一个实施例中,前景提取系统1415被配置为提取深度图像中的前景对象。前景提取系统1415的输出包括所提取的前景对象,并且被提供给分割系统,该分割系统被配置为将点云分类为具有彼此类似属性的同质区域。分割系统1420的输出包括经分类的点云的指示,更具体地,包括被单独分类的点云的指示。将经分类的点云提供给噪声过滤器1425,噪声过滤器1425被配置为从点云中去除噪声(例如,来自错误的伪像或不与来自分割系统的一个或多个同质区域相对应的其它数据点)。
将理解,该流水线意在作为根据一个实施例的示例流水线,并且其它实施例将包括更多或更少的要素或以不同顺序布置的要素。然而,还将理解,在LiDAR流水线的初始阶段存在伪影点过滤器1410a/1410b将提供如下的显著的益处:过滤器将独立地在各LiDAR点云上操作,并且因此计算效率高。
图15描绘与从点云识别和去除伪影点相关的技术的示例。一般而言,可以认为图15的技术与图12的技术类似。与图12的技术类似,该技术全部或部分地由诸如图3的感知系统302等的感知系统、诸如图2的处理器204等的处理器或如本文所述的LiDAR系统或运载工具的一些其它要素来执行。
该技术包括:在1505处从在环境中操作的运载工具的深度传感器获得深度图像。深度图像与例如深度图像1325或本文描述的一些其它深度图像类似。
该技术还包括:在1510处识别深度图像中具有等于或低于第一强度阈值的强度的第一数据点。该数据点例如是参考图12的要素1210描述的低强度数据点。第一强度阈值是参考例如图12的要素1205描述的强度阈值。
该技术还包括:在1515处确定深度图像中的在该深度图像的第一区域中具有等于或高于第二强度阈值的强度的数据点的数目。具体地,该技术包括确定深度图像的区域(诸如,参考例如要素1005/1010或1310a/1310b描述的伪影区等)中的高强度数据点的数目。这些区域中的高强度数据点的数目的确定如参考例如要素1220和1225所描述的。
该技术还包括:在1520处确定在1515处识别的数据点的数目是否等于或高于区域数目阈值。该确定和区域数目阈值与例如参考要素1230描述的确定和阈值类似。
该技术还包括:在1525处,在数据点的数目等于或高于区域数目阈值的情况下,从深度图像去除第一数据点。例如,如参考要素1230所述的,在伪影区内所识别的高强度数据点的数目等于或高于区域数目阈值的情况下,从深度图像去除第一数据点(例如,低强度数据点)。这是因为,基于伪影区内存在高强度数据点,将低强度数据点识别为伪影点。
该技术还包括:在1530处至少部分地基于深度图像来在环境中操作(或促进操作)运载工具。例如,在实施例中,处理器然后使用输出深度图像作为诸如运载工具的路径规划等的功能的基础。在另一实施例中,处理器将深度图像输出到运载工具的另一处理器或系统(例如,图3的控制系统306),然后该处理器或系统使用深度图像来控制运载工具的一个或多个功能。
与上述图12类似,将认识到图15的技术意在作为根据一个实施例的示例技术,并且另一实施例可以变化。例如,另一实施例将包括比图15中所描绘的那些要素更多或更少的要素、以与所描绘的顺序不同的顺序布置的要素等。
在又一实施例中可以存在其它变型。例如,一个实施例包括与区分由不同LiDAR系统产生的不同点云相关的附加要素,以识别哪个点云是哪个伪影点的原因。在另一实施例中,不从图像去除第一数据点(例如,伪影点),而是更改与第一数据点相关的信息。例如,添加或更改标志值以指示第一个数据点被识别为“伪影点”。在该实施例中,第一数据点保留在图像中,但是由诸如流水线1400等的LiDAR流水线的下游组件以不同的方式进行处理。
在先前描述中,已经参考许多具体细节描述了本发明的实施例,这些具体细节可因实现而不同。因此,说明书和附图应被视为说明性的,而非限制性意义的。本发明范围的唯一且排他的指示、以及申请人期望是本发明范围的内容是以发布权利要求书的具体形式从本申请发布的权利要求书的字面和等同范围,包括任何后续修正。本文中明确阐述的用于被包括在此类权利要求中的术语的任何定义应当以此类术语如在权利要求书中所使用的意义为准。另外,当在先前的说明书或所附权利要求书使用术语“还包括”时,该短语的下文可以是附加的步骤或实体、或先前所述的步骤或实体的子步骤/子实体。
Claims (20)
1.一种用于运载工具的方法,包括:
使用至少一个处理器,获得与在环境中操作的运载工具的深度传感器相关的深度图像;
使用所述至少一个处理器,识别所述深度图像中的具有等于或低于第一强度阈值的强度的第一数据点;
使用所述至少一个处理器,确定所述深度图像中的在所述深度图像的第一区域中具有等于或高于第二强度阈值的强度的数据点的第一数目;
使用所述至少一个处理器,确定数据点的所述第一数目是否等于或高于区域数目阈值;
使用所述至少一个处理器,在数据点的所述第一数目等于或高于所述区域数目阈值的情况下,从所述深度图像去除所述第一数据点;以及
使用所述至少一个处理器,至少部分地基于所述深度图像来促进所述运载工具在所述环境中的操作。
2.根据权利要求1所述的方法,其中,所述第一数据点是所述深度图像中的点云的数据点。
3.根据权利要求1所述的方法,还包括:
使用所述至少一个处理器,确定所述深度图像中的在所述深度图像的第二区域中具有等于或高于所述第二强度阈值的强度的数据点的第二数目;以及
使用所述至少一个处理器,在数据点的所述第一数目和数据点的所述第二数目的总和等于或高于所述区域数目阈值的情况下,去除所述第一数据点。
4.根据权利要求1所述的方法,其中,所述第一强度阈值和所述第二强度阈值是预先确定的强度阈值。
5.根据权利要求1所述的方法,其中,所述深度图像包括多个扫描线,以及其中,所述多个扫描线中的第一扫描线的第一强度阈值和第二强度阈值与所述多个扫描线中的第二扫描线的相应的第一强度阈值和第二强度阈值不同。
6.根据权利要求1所述的方法,其中,确定数据点的所述第一数目是基于过滤核的使用。
7.根据权利要求6所述的方法,其中,所述过滤核是基于所述第一区域。
8.根据权利要求6所述的方法,其中,所述深度图像包括多个扫描线,以及其中,应用于所述多个扫描线中的第一扫描线的过滤核与应用于所述多个扫描线中的第二扫描线的过滤核不同。
9.根据权利要求1所述的方法,其中,所述第一强度阈值具有第一范围内的强度值,并且所述第二强度阈值具有第二范围内的强度值,所述第二范围比所述第一范围大。
10.根据权利要求1所述的方法,其中,从所述深度图像去除所述第一数据点还基于确定为所述第一数目的数据点距所述第一数据点在距离范围内,所述距离范围是从所述运载工具的深度传感器测量的。
11.一种感知系统,其包括用于在运载工具中使用的伪影点过滤器,其中,所述感知系统包括:
至少一个处理器;以及
至少一个存储器,其上存储有指令,所述指令在由所述至少一个处理器执行时使得所述运载工具:
通过所述伪影点过滤器,在表示所述运载工具所处的环境的深度图像中识别具有等于或低于第一强度阈值的强度的第一数据点;
在所述深度图像的第一区域中具有等于或高于第二强度阈值的强度的数据点的数目等于或高于区域数目阈值的情况下,通过所述伪影点过滤器从所述深度图像去除所述第一数据点;以及
通过前景提取系统对所述深度图像进行过滤。
12.根据权利要求11所述的感知系统,其中,在i)所述深度图像的所述第一区域中具有等于或高于所述第二强度阈值的强度的数据点的数目和ii)所述深度图像的第二区域中具有等于或高于所述第二强度阈值的强度的数据点的数目的总和等于或高于所述区域数目阈值的情况下,所述指令还用于通过所述伪影点过滤器从所述深度图像去除所述第一数据点。
13.根据权利要求11所述的感知系统,其中,所述指令还用于通过所述伪影点过滤器,基于卷积核的使用,来识别在所述深度图像的所述第一区域中具有等于或高于所述第二强度阈值的强度的数据点的数目。
14.根据权利要求11所述的感知系统,其中,所述深度图像是基于所述运载工具的深度传感器的深度图像。
15.根据权利要求11所述的感知系统,其中,在所述深度图像的所述第一区域中具有等于或高于所述第二强度阈值的强度的数据点的数目低于所述区域数目阈值的情况下,所述前景提取系统从所述伪影点过滤器接收到的深度图像包括所述第一数据点。
16.一种用于运载工具的方法,包括:
通过运载工具的一个或多个处理器,基于与所述运载工具的环境相关的深度图像中的点云的数据点的地点,来识别所述深度图像的第一区域中的数据点的数目和所述深度图像的第二区域中的数据点的数目;以及
基于所述深度图像的所述第一区域和所述第二区域中的数据点的数目来更改与数据点相关的信息,
其中,所述第一区域和所述第二区域是基于对深度传感器的电路在所述深度传感器的预期传输和接收路径之外接收到的光信号的预先识别。
17.根据权利要求16所述的方法,其中,更改与数据点相关的信息包括由所述一个或多个处理器从所述点云去除该数据点。
18.根据权利要求16所述的方法,其中,更改与数据点相关的信息包括由所述一个或多个处理器向与该数据点相关的信息附加指示,其中,该信息用于指示该数据点要以与未包括所述指示的其它数据点不同的方式进行处理。
19.根据权利要求16所述的方法,其中,所述第一区域相对于所述点云的数据点位于第一方向,并且所述第二区域相对于所述点云的数据点位于第二方向,所述第二方向与所述第一方向相反。
20.根据权利要求16所述的方法,其中,所述深度传感器是光检测和测距传感器即LiDAR传感器。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/952,046 US11158120B1 (en) | 2020-11-18 | 2020-11-18 | Ghost point filtering |
US16/952,046 | 2020-11-18 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114518566A true CN114518566A (zh) | 2022-05-20 |
CN114518566B CN114518566B (zh) | 2024-01-26 |
Family
ID=75338994
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110845469.5A Active CN114518566B (zh) | 2020-11-18 | 2021-07-26 | 用于运载工具的方法和感知系统 |
Country Status (5)
Country | Link |
---|---|
US (2) | US11158120B1 (zh) |
KR (1) | KR102518209B1 (zh) |
CN (1) | CN114518566B (zh) |
DE (1) | DE102021128727A1 (zh) |
GB (1) | GB2601204A (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220221585A1 (en) * | 2021-01-14 | 2022-07-14 | Argo AI, LLC | Systems and methods for monitoring lidar sensor health |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150334372A1 (en) * | 2014-05-19 | 2015-11-19 | Samsung Electronics Co., Ltd. | Method and apparatus for generating depth image |
CN105264402A (zh) * | 2013-04-05 | 2016-01-20 | 洛克希德马丁公司 | 具有lidar的水下平台和相关方法 |
US20180172830A1 (en) * | 2015-06-24 | 2018-06-21 | Konica Minolta, Inc. | Distance image processing device, distance image processing method, distance image processing program, and recording medium |
CN110031823A (zh) * | 2019-04-22 | 2019-07-19 | 上海禾赛光电科技有限公司 | 可用于激光雷达的噪点识别方法以及激光雷达系统 |
CN110431447A (zh) * | 2017-03-10 | 2019-11-08 | 微软技术许可有限责任公司 | 基于点的飞行时间 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9488721B2 (en) * | 2009-12-25 | 2016-11-08 | Honda Motor Co., Ltd. | Image processing apparatus, image processing method, computer program, and movable body |
CN111492403A (zh) * | 2017-10-19 | 2020-08-04 | 迪普迈普有限公司 | 用于生成高清晰度地图的激光雷达到相机校准 |
US11841437B2 (en) * | 2018-10-12 | 2023-12-12 | Baidu Usa Llc | Automatic lidar calibration based on pre-collected static reflection map for autonomous driving |
US20210003683A1 (en) * | 2019-07-03 | 2021-01-07 | DeepMap Inc. | Interactive sensor calibration for autonomous vehicles |
-
2020
- 2020-11-18 US US16/952,046 patent/US11158120B1/en active Active
-
2021
- 2021-02-16 GB GB2102140.7A patent/GB2601204A/en active Pending
- 2021-03-02 KR KR1020210027617A patent/KR102518209B1/ko active IP Right Grant
- 2021-07-26 CN CN202110845469.5A patent/CN114518566B/zh active Active
- 2021-10-25 US US17/509,436 patent/US20220157015A1/en not_active Abandoned
- 2021-11-04 DE DE102021128727.8A patent/DE102021128727A1/de active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105264402A (zh) * | 2013-04-05 | 2016-01-20 | 洛克希德马丁公司 | 具有lidar的水下平台和相关方法 |
US20150334372A1 (en) * | 2014-05-19 | 2015-11-19 | Samsung Electronics Co., Ltd. | Method and apparatus for generating depth image |
US20180172830A1 (en) * | 2015-06-24 | 2018-06-21 | Konica Minolta, Inc. | Distance image processing device, distance image processing method, distance image processing program, and recording medium |
CN110431447A (zh) * | 2017-03-10 | 2019-11-08 | 微软技术许可有限责任公司 | 基于点的飞行时间 |
CN110031823A (zh) * | 2019-04-22 | 2019-07-19 | 上海禾赛光电科技有限公司 | 可用于激光雷达的噪点识别方法以及激光雷达系统 |
Non-Patent Citations (1)
Title |
---|
JI-IL PARK 等: "Fast and Accurate Desnowing Algorithm for LiDAR Point Clouds" * |
Also Published As
Publication number | Publication date |
---|---|
GB2601204A (en) | 2022-05-25 |
US20220157015A1 (en) | 2022-05-19 |
KR20220068101A (ko) | 2022-05-25 |
CN114518566B (zh) | 2024-01-26 |
DE102021128727A1 (de) | 2022-05-19 |
US11158120B1 (en) | 2021-10-26 |
KR102518209B1 (ko) | 2023-04-04 |
GB202102140D0 (en) | 2021-03-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111915917A (zh) | 用于规划和更新运载工具的轨迹的系统和方法 | |
CN113196291A (zh) | 自动选择用于注释的数据样本 | |
CN114510018B (zh) | 用于子系统性能评价的度量反向传播 | |
CN114556139A (zh) | 用于传感器校准的系统和方法 | |
US11970183B2 (en) | AV path planning with calibration information | |
CN114387322A (zh) | 用于运载工具的方法、运载工具和存储介质 | |
CN114120687A (zh) | 条件运动预测 | |
CN114089375A (zh) | 运载工具、用于运载工具的方法和存储介质 | |
CN115565149A (zh) | 用于对象检测的方法、运载工具和存储介质 | |
CN113970924A (zh) | 用于运载工具的方法和系统 | |
CN114625118A (zh) | 运载工具、用于运载工具的方法以及存储介质 | |
CN114518566B (zh) | 用于运载工具的方法和感知系统 | |
US20210078580A1 (en) | Vehicle route modification to improve vehicle location information | |
US20220357453A1 (en) | Lidar point cloud segmentation using box prediction | |
KR20230017904A (ko) | LiDAR 스캔 평탄화 | |
KR102532179B1 (ko) | 주변 차량에 기초한 로컬화 | |
CN115540888A (zh) | 导航最优路径的方法、存储介质和运载工具 | |
CN116229407A (zh) | 用于运载工具的方法、运载工具和存储介质 | |
CN114442066A (zh) | 针对LiDAR的鲁棒性眼安全的方法、系统、设备和存储介质 | |
KR20230156770A (ko) | Gpu 가속 신경망의 실시간 무결성 체크 | |
CN115931029A (zh) | 通用校准目标、运载工具、用于校准传感器的方法和介质 | |
CN115373379A (zh) | 用于运载工具的系统、方法和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |