CN109814130A - 用于在车辆感知系统中自由空间推断以分开群集对象的系统和方法 - Google Patents
用于在车辆感知系统中自由空间推断以分开群集对象的系统和方法 Download PDFInfo
- Publication number
- CN109814130A CN109814130A CN201811334471.0A CN201811334471A CN109814130A CN 109814130 A CN109814130 A CN 109814130A CN 201811334471 A CN201811334471 A CN 201811334471A CN 109814130 A CN109814130 A CN 109814130A
- Authority
- CN
- China
- Prior art keywords
- voxel
- column
- laser radar
- vehicle
- voxel grid
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 46
- 230000001953 sensory effect Effects 0.000 title description 14
- 230000008569 process Effects 0.000 description 17
- 238000004891 communication Methods 0.000 description 13
- 238000003860 storage Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 9
- 230000005540 biological transmission Effects 0.000 description 7
- 230000005611 electricity Effects 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 238000013500 data storage Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 150000001875 compounds Chemical class 0.000 description 2
- 235000013399 edible fruits Nutrition 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000002688 persistence Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 240000007594 Oryza sativa Species 0.000 description 1
- 235000007164 Oryza sativa Nutrition 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000009118 appropriate response Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000002485 combustion reaction Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000000151 deposition Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000000116 mitigating effect Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 230000032696 parturition Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000008929 regeneration Effects 0.000 description 1
- 238000011069 regeneration method Methods 0.000 description 1
- 235000009566 rice Nutrition 0.000 description 1
- 230000036299 sexual function Effects 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/647—Three-dimensional objects by matching two-dimensional images to three-dimensional objects
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/42—Simultaneous measurement of distance and other co-ordinates
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4802—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4808—Evaluating distance, position or velocity data
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0248—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means in combination with a laser
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Optics & Photonics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Aviation & Aerospace Engineering (AREA)
- Automation & Control Theory (AREA)
- Traffic Control Systems (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
提供了用于识别对象之间的自由空间的系统和方法。该方法包括由处理器检索车辆周围的体素网格,其中体素网格具有多个列。该方法还包括:由处理器跟踪来自车辆上的激光雷达系统的激光雷达束通过体素网格;由处理器识别体素网格中每个列的最大子阵列;由处理器对每个列分类自由空间级别;以及由处理器将经分类的列输出为图像。
Description
技术领域
本公开总体上涉及车辆感知系统,并且更具体地涉及用于在车辆感知系统中区分群集对象的系统和方法。
背景技术
车辆感知系统已经被引入到车辆中以允许车辆感测其环境并且在一些情况下允许车辆自主地或半自主地导航。可以在车辆感知系统中采用的感测装置包括雷达、激光雷达、图像传感器等。
虽然近年来已经看到车辆感知系统的显著进步,但是这样的系统在许多方面仍然可以得到改进。例如,激光雷达可以用于检测车辆附近的对象。然而,激光雷达数据可能难以区分彼此非常接近的多个对象。彼此非常接近的多个对象可以呈现为激光雷达数据中的单个对象。
因此,期望提供用于分离激光雷达数据中的群集对象的系统和方法,以便可以区分彼此非常接近的多个对象。此外,从以下结合附图和前述技术领域和背景技术的详细描述和所附权利要求,本发明的其他期望特征和特性将变得显而易见。
发明内容
提供了用于在车辆感知系统中区分群集对象的系统和方法。在一个实施例中,提供了一种用于识别对象之间的自由空间的在车辆中的处理器实现的方法。该方法包括由处理器检索车辆周围的体素网格,其中体素网格具有多个列。该方法还包括:由处理器跟踪来自车辆上的激光雷达系统的激光雷达束通过体素网格;由处理器识别体素网格中每个列的最大子阵列;由处理器对每个列分类自由空间级别;以及由处理器将经分类的列输出为图像。
在一个实施例中,检索体素网格包括检索激光雷达点云数据、检索相对于车辆的激光雷达位置信息、以及检索车辆位置信息。
在一个实施例中,检索体素网格还包括基于激光雷达点云数据、激光雷达位置信息和车辆位置信息来移动预先存在的体素网格。
在一个实施例中,跟踪激光雷达束通过体素网格包括:如果激光雷达束之一行进通过体素,则将第一特征分配给体素;如果没有激光雷达束行进通过体素,则将第二特征分配给体素;以及如果激光雷达束之一终止于体素,则将第三特征分配给体素。
在一个实施例中,第一特征是清除,第二特征是未知,并且第三特征是被占用。
在一个实施例中,识别体素网格中的每个列的最大子阵列包括为每个体素分配分数。
在一个实施例中,为每个体素分配分数包括:如果已经将第一特征分配给体素,则将第一值分配给体素;如果已经将第二特征分配给体素,则将第二值分配给体素;以及如果已经将第三特征分配给体素,则将第三值分配给体素。
在一个实施例中,第一值大于第二值和第三值,并且第二值大于第三值。
在一个实施例中,识别体素网格中的每个列的最大子阵列还包括:识别最大化列的分数的连续元素序列;识别所识别的连续元素序列的子阵列长度;以及识别所识别的连续元素序列中的最低单元的高度。
在一个实施例中,对每个列分类自由空间级别包括:基于列的已识别最大子阵列中的最低单元的高度和子阵列长度为每个列确定来自启发式查找表的自由空间级别分类。
在一个实施例中,具有最高自由空间级别分类的列指示图像中的对象之间的自由空间。
在一个实施例中,具有最低自由空间级别分类的列指示图像中的对象之间没有自由空间。
在另一个实施例中,提供了一种车辆中的系统,用于从激光雷达数据生成识别对象之间的自由空间的二维图。该系统包括体素网格调整模块,其包括通过编程在非暂态计算机可读介质中编码的指令配置的一个或多个处理器,其中体素网格调整模块被配置为生成围绕车辆的体素网格,其中体素网格具有多个列。。该系统还包括:激光雷达束跟踪模块,其包括通过编程在非暂态计算机可读介质中编码的指令配置的一个或多个处理器,其中激光雷达束跟踪模块被配置为跟踪来自车辆上的激光雷达系统的激光雷达束通过体素网格;最大子阵列模块,其包括通过编程在非暂态计算机可读介质中编码的指令配置的一个或多个处理器,其中最大子阵列模块被配置为识别体素网格中的每个列的最大子阵列;以及自由空间级别分类模块,其包括通过编程在非暂态计算机可读介质中编码的指令配置的一个或多个处理器,其中自由空间级别分类模块被配置为根据自由空间级别对每个列分类。该系统被配置为将经分类的列输出为图像。
在一个实施例中,激光雷达束跟踪模块被配置为使用激光雷达点云数据、相对于车辆的激光雷达位置信息和车辆位置信息来生成体素网格。
在一个实施例中,激光雷达束跟踪模块被配置成通过如下跟踪激光雷达束通过体素网格:如果激光雷达束中之一行进通过体素,则将体素表征为清除;如果没有激光雷达束行进通过体素,则将体素表征为未知;以及如果激光雷达束中之一终止于体素,则将体素表征为被占用。
在一个实施例中,最大子阵列模块被配置为通过向每个体素分配分数来识别体素网格中的每个列的最大子阵列,其中分配分数包括:如果激光雷达束之一行进通过体素,则将第一值分配给该体素;如果激光雷达束没有行进通过体素,则将第二值分配给该体素;以及如果激光雷达束之一终止于体素,则将第三值分配给该体素。
在一个实施例中,最大子阵列模块还被配置为通过如下来识别体素网格中的每个列的最大子阵列:识别最大化列的分数的连续元素序列;识别所识别的连续元素序列的子阵列长度;以及识别所识别的连续元素序列中的最低单元的高度。
在一个实施例中,自由空间级别分类模块被配置为通过基于列的已识别最大子阵列中的最低单元的高度和子阵列长度为每个列确定来自启发式查找表的自由空间级别来对每个列分类自由空间级别。
在另一个实施例中,自主车辆包括生成激光雷达数据的激光雷达系统和配置成从激光雷达数据生成识别对象之间的自由空间的二维图像的映射系统。映射系统包括通过编程在非暂态计算机可读介质中编码的指令配置的一个或多个处理器。映射系统被配置为检索车辆周围的体素网格,其中体素网格具有多个列。映射系统还被配置为跟踪来自激光雷达系统的激光雷达束通过体素网格,识别体素网格中每个列的最大子阵列,对每个列分类自由空间级别,并将经分类的列输出为图像。
在一个实施例中,映射系统被配置为通过如下来识别体素网格中的每个列的最大子阵列:对每个体素进行评分;识别最大化列的分数的连续元素序列;识别所识别的连续元素序列的子阵列长度;以及识别所识别的连续元素序列中的最低单元的高度。
附图说明
在下文中将结合以下附图描述示例性实施例,其中相同的附图标记表示相同的要素,并且其中:
图1A描绘了根据各种实施例的包括激光雷达(光检测和测距)系统的示例性车辆;
图1B呈现了根据各种实施例的图1A的示例性车辆的示出了激光雷达系统的俯视图;
图1C描绘了根据各种实施例的示例性车辆周围空间的计算机化三维表示中的可以被可视化为围绕图1A的示例性车辆形成的示例性体素网格;
图2是示出根据各种实施例的与自主车辆相关联的自主驾驶系统(ADS)的功能框图;
图3是根据各种实施例的示例性车辆中的示例性映射系统的框图;
图4A描绘了根据各种实施例的在激光雷达束跟踪操作之后的示例性体素网格的侧视图;
图4B描绘了根据各种实施例的在激光雷达束跟踪操作之后的另一示例性体素网格的侧视图;
图4C示出了根据各种实施例的体素列中的体素状态到分数的转换;
图4D示出了根据各种实施例的示例性列中的最大子阵列的确定;
图4E示出了根据各种实施例的示例性列中最大子阵列的最低元素的长度和高度的确定;
图5是描绘了根据各种实施例的用于从激光雷达数据生成的用于识别对象之间的自由空间的俯视二维(2D)图像的在车辆中的示例性过程的过程流程图;
图6是描绘根据各种实施例的用于通过自由空间级别对体素网格中的列分类的车辆中的示例性过程的过程流程图;以及
图7是根据各种实施例的从激光雷达数据生成的识别对象之间的自由空间的示例性俯视二维(2D)图像。
具体实施方式
以下详细描述本质上仅是示例性的,并不旨在限制应用和用途。此外,无意受前述技术领域、背景技术、概述或以下详细描述中呈现的任何明示或暗示的理论的约束。如本文所使用的,术语“模块”是指单独的或以任何组合的任何硬件、软件、固件、电子控制组件、处理逻辑和/或处理器装置,包括但不限于:专用集成电路(ASIC)、现场可编程门阵列(FPGA)、电子电路、处理器(共享、专用或组)和执行一个或多个软件或固件程序的存储器、组合逻辑电路和/或提供所描述的功能的其他合适组件。
本文中可以在功能和/或逻辑块组件和各种处理步骤方面描述本公开的实施例。应当理解,这样的块组件可以由被配置为执行指定功能的任何数量的硬件、软件和/或固件组件来实现。例如,本公开的实施例可以采用各种集成电路组件,例如,存储器元件、数字信号处理元件、逻辑元件、查找表等,其可以在一个或多个微处理器或其他控制装置的控制下执行各种功能。另外,本领域技术人员将理解,本公开的实施例可以结合任何数量的系统来实践,并且本文描述的系统仅仅是本公开的示例性实施例。
为简洁起见,与信号处理、数据传输、信令、控制、机器学习模型、雷达、激光雷达、图像分析以及系统的其他功能方面(以及系统的各个操作组件)相关的传统技术可以不在本文进行详细描述。此外,本文包含的各种图中所示的连接线旨在表示各种元件之间的示例性功能关系和/或物理耦接。应当注意,在本公开的实施例中可以存在许多替代或附加的功能关系或物理连接。
图1A和图1B描绘了包括激光雷达(光检测和测距)系统102的示例性车辆100。图1A呈现了示例性车辆100的侧视图,并且图1B呈现了示例性车辆100的俯视图。示例性激光雷达系统102安装在示例性车辆100的表面(例如,顶表面)上。示例性激光雷达系统102包括旋转(例如,沿逆时针方向)并发射多个光束104的传感器。示例性激光雷达系统102测量光束返回到车辆100的时间量,以测量车辆100周围的对象的距离。示例性车辆100包括映射系统106,该映射系统106被配置为提供车辆周围的区域的二维俯视图,该区域已被处理以突出显示视图中的对象之间的自由空间。
图1C描绘了示例性体素网格108,其可以被视觉化为在示例性车辆100周围的空间的计算机化三维表示中围绕示例性车辆100形成。示例性体素网格108由多个体素110(在该示例中具有阴影的单个体素)组成。示例性体素网格108中的每个体素110可以被表征为处于如下三种状态之一:清除状态、占用状态或未知状态。在该示例中,基于来自示例性车辆100的激光雷达束104是否已经进入或穿过体素110来确定体素状态。如果从激光雷达数据中可以确定激光雷达束在遇到对象之前将穿过体素,则认为该体素处于清除状态。如果从激光雷达数据可以确定对象将存在于体素处,则认为该体素处于被占用状态。如果不能从激光雷达数据确定体素的状态,则认为体素处于未知状态。多个连续体素可以指示单个对象或一个或多个群集对象。映射系统106被配置为指示多个连续体素是指示单个对象或一个或多个群集对象。
如图1A所示,车辆100通常包括底盘12、车身14、前轮16和后轮18。车身14布置在底盘12上并且基本上包围车辆100的组件。车身14和底盘12可以共同形成框架。车轮16至18各自在车身14的相应拐角附近可旋转地联接到底盘12。
在各种实施例中,车辆100是自主车辆,并且映射系统106并入到自主车辆100中。自主车辆100例如是自动控制以将乘客从一个位置运送到另一个位置的车辆。在所示实施例中,车辆100被描绘为乘用车,但是也可以使用其他车辆类型,包括摩托车、卡车、运动型多功能车(SUV)、休闲车(RV)、船舶、飞机等。
在示例性实施例中,自主车辆100对应于汽车工程师协会(SAE)自主驾驶级别的“J3016”标准分类法下的四级或五级自动化系统。使用该术语,四级系统表示“高自动化”,指的是自主驾驶系统执行动态驾驶任务的所有方面——即使人类驾驶员没有对干预请求做出适当响应也是如此——的驾驶模式。另一方面,五级系统表示“完全自动化”,指的是其中自主驾驶系统在可由人类驾驶员管理的所有道路和环境条件下执行动态驾驶任务的所有方面的驾驶模式。然而,应当理解,根据本主题的实施例不限于自动化类别的任何特定的分类法或标题。此外,根据本实施例的系统可以与可以实现本主题的任何车辆结合使用,而不管其自主等级如何。
如图所示,自主车辆100通常包括推进系统20、传动系统22、转向系统24、制动系统26、传感器系统28、致动器系统30、至少一个数据存储装置32、至少一个控制器34和通信系统36。在各种实施例中,推进系统20可以包括内燃机、诸如牵引电动机的电机、和/或燃料电池推进系统。传动系统22被配置成根据可选择的速度比将动力从推进系统20传递到车轮16和18。根据各种实施例,传动系统22可以包括步进比自动变速器、无级变速器或其他适当的变速器。
制动系统26配置成向车轮16和18提供制动扭矩。在各种实施例中,制动系统26可以包括摩擦制动器、线控制动器、再生制动系统例如电机、和/或其他适当的制动系统。
转向系统24影响车轮16和/或18的位置。虽然为了说明的目的被描绘为包括方向盘25,但是在本公开的范围内预期的一些实施例中,转向系统24可以不包括方向盘。
传感器系统28包括一个或多个传感装置40a至40n,其感测自主车辆100的外部环境和/或内部环境的可观察状况(例如一个或多个乘员的状态)并生成与其相关的传感器数据。感测装置40a至40n可以包括但不限于雷达(例如,远程、中程、短程)、激光雷达、全球定位系统、光学相机(例如,前向、360度、后向、侧向、立体等)、热(例如,红外)相机、超声波传感器、测距传感器(例如,编码器)和/或可以结合根据本主题的系统和方法使用的其他传感器。
致动器系统30包括一个或多个致动器装置42a至42n,其控制一个或多个车辆特征,例如但不限于推进系统20、传动系统22、转向系统24和制动系统26。在各种实施例中,自主车辆100还可以包括图1A中未示出的内部和/或外部车辆特征,诸如各种门、行李箱和诸如空气、音乐、照明、触摸屏显示组件(诸如与导航系统结合使用的那些组件)的舱室特征等。
数据存储装置32存储用于自动控制车辆100的数据。在各种实施例中,数据存储装置32存储可导航环境的定义的映射。在各种实施例中,定义的映射可以由远程系统预定义并从远程系统获得。例如,定义的地图可以由远程系统组装并且(以无线方式和/或以有线方式)传送到自主车辆100并存储在数据存储装置32中。路线信息也可以存储在数据存储装置32中——即,一组路段(在地理上与一个或多个定义的地图相关联)一起定义用户可以从起始位置(例如,用户的当前位置)行进到目标位置的路线。可以理解,数据存储装置32可以是控制器34的一部分,与控制器34分开,或者是控制器34的一部分并且单独系统的一部分。
控制器34包括至少一个处理器44和计算机可读存储装置或介质46。处理器44可以是任何定制的或商业上可用的处理器、中央处理单元(CPU)、图形处理单元(GPU)、专用集成电路(ASIC)(例如,实现神经网络的定制ASIC)、现场可编程门阵列(FPGA)、与控制器34相关联的若干处理器中的辅助处理器、基于半导体的微处理器(以微芯片或芯片组的形式)、其任何组合、或通常用于执行指令的任何装置。计算机可读存储装置或介质46可以包括例如只读存储器(ROM)、随机存取存储器(RAM)和保活存储器(KAM)中的易失性和非易失性存储器。KAM是可用于在处理器44断电时存储各种操作变量的持久性或非易失性存储器。计算机可读存储装置或介质46可以使用许多已知存储器装置中的任何一种来实现,例如可编程只读存储器(PROM)、电PROM(EPROM)、电可擦除PROM(EEPROM)、闪存或能够存储数据的任何其他电、磁、光或组合存储器装置,所述数据中的一些表示由控制器34用于控制自主车辆100的可执行指令。在各种实施例中,控制器34被配置为实现如下面详细讨论的映射系统。
指令可以包括一个或多个单独的程序,每个程序包括用于实现逻辑功能的可执行指令的有序列表。当由处理器44执行时,指令从传感器系统28接收和处理信号(例如,传感器数据),执行用于自动控制自主车辆10的组件的逻辑、计算、方法和/或算法,并基于逻辑、计算、方法和/或算法生成传输到致动器系统30以自动控制自主车辆100的组件的控制信号。尽管图1A中仅示出了一个控制器34,但是自主车辆100的实施例可以包括任何数量的控制器34,其通过任何合适的通信介质或通信介质的组合进行通信,并且协作以处理传感器信号、执行逻辑、计算、方法和/或算法,以及生成控制信号以自动控制自主车辆100的特征。
通信系统36被配置为向如下其他实体48无线地传送信息以及从如下其他实体48无线地接收信息:例如但不限于其他车辆(“V2V”通信)、基础设施(“V2I”通信)、网络(“V2N”通信)、行人(“V2P”通信)、远程运输系统和/或用户装置。在示例性实施例中,通信系统36是无线通信系统,其被配置为使用IEEE802.11标准或通过使用蜂窝数据通信经由无线局域网(WLAN)进行通信。然而,诸如专用短程通信(DSRC)信道的附加或替代通信方法也被认为在本公开的范围内。DSRC信道是指专为汽车应用而设计的单向或双向短距离到中距离无线通信信道以及相应的协议和标准集。
根据各种实施例,控制器34实现如图2所示的自主驾驶系统(ADS)70。也就是说,控制器34的合适的软件和/或硬件组件(例如,处理器44和计算机可读存储装置46)用于提供与车辆100结合使用的自主驾驶系统70。
在各种实施例中,自主驾驶系统70的指令可以通过功能或系统来组织。例如,如图2所示,自主驾驶系统70可以包括感知系统74、定位系统76、路径规划系统78和车辆控制系统80。可以理解,在各种实施例中,指令可以被组织成任何数量的系统(例如,组合、进一步划分等),因为本公开不限于本示例。
在各种实施例中,感知系统74合成并处理所获取的传感器数据并预测车辆100的环境的对象和特征的存在、位置、分类和/或路径。在各种实施例中,感知系统74可以合并来自如下多个传感器(例如,传感器系统28)的信息:包括但不限于相机、激光雷达、雷达和/或任何数量的其他类型的传感器。
定位系统76处理传感器数据以及其他数据以确定车辆100相对于环境的位置(例如,相对于地图的本地位置、相对于道路的车道的精确位置、车辆航向等)。可以理解,可以采用各种技术来实现这种定位,包括例如同时定位和映射(SLAM)、粒子滤波器、卡尔曼滤波器、贝叶斯滤波器等。
路径规划系统78处理传感器数据以及其他数据以确定车辆100遵循的路径。车辆控制系统80根据确定的路径生成用于控制车辆100的控制信号。
在各种实施例中,控制器34实现机器学习技术以辅助控制器34的功能,例如特征检测/分类、障碍物减轻、路线遍历、映射、传感器集成、地面实况确定等。
在各种实施例中,映射系统106的全部或部分可以包括在感知系统74、定位系统76、路径规划系统78和/或车辆控制系统80内。如上面简要提到的,图1A的映射系统106被配置为以突出显示对象之间的自由空间的方式处理激光雷达数据,以提供车辆周围区域的二维俯视图。
图3是示例性车辆300中的示例性映射系统302的框图。示例性映射系统302被配置为从激光雷达数据生成车辆300周围区域的识别图像304中的对象之间的自由空间的二维图像304。为了生成图像304,示例性映射系统302被配置为:针对当前实例实时检索车辆周围的体素网格,其中体素网格具有多个列;跟踪来自激光雷达系统的激光雷达束通过体素网格;识别体素网格中的每个列的最大子阵列;对每个列分类自由空间级别;以及将经分类的列输出为图像。示例性映射系统302包括体素网格调整模块306、激光雷达束跟踪模块308、最大子阵列模块310、自由空间分类模块312和启发式查找表(LUT)314。
映射系统包括控制器,该控制器被配置为实现体素网格调整模块306、激光雷达束跟踪模块308、最大子阵列模块310、自由空间分类模块312和LUT314。控制器包括至少一个处理器和编码有用于配置控制器的编程指令的计算机可读存储装置或介质。处理器可以是任何定制的或商业上可用的处理器、中央处理单元(CPU)、图形处理单元(GPU)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)、与控制器相关联的若干处理器中的辅助处理器、基于半导体的微处理器(以微芯片或芯片组的形式)、其任何组合、或通常用于执行指令的任何装置。
计算机可读存储装置或介质可以包括例如只读存储器(ROM)、随机存取存储器(RAM)和保活存储器(KAM)中的易失性和非易失性存储器。KAM是可用于在处理器断电时存储各种操作变量的持久性或非易失性存储器。计算机可读存储装置或介质可以使用许多已知存储器装置中的任何一种来实现,例如可编程只读存储器(PROM)、电PROM(EPROM)、电可擦除PROM(EEPROM)、闪存或能够存储数据的任何其他电、磁、光或组合存储器装置,所述数据中的一些表示由控制器使用的可执行编程指令。
示例性体素网格调整模块306被配置为针对当前实例实时生成围绕车辆的体素网格307,其中体素网格307具有多个列。示例性体素网格调整模块306被配置为检索预先存在的体素网格(或构造一个)并检索激光雷达点云数据301、相对于车辆的激光雷达位置信息303、以及来自其他车辆系统的车辆位置信息305。使用检索到的体素网格、激光雷达点云数据301、激光雷达位置信息303和车辆位置信息305,示例性体素网格调整模块306被配置为针对当前实例实时调整/生成体素网格307。
示例性激光雷达束跟踪模块308被配置为跟踪来自车辆上的激光雷达系统的激光雷达束通过体素网格307。示例性激光雷达束跟踪模块被配置成通过如下来跟踪激光雷达束通过体素网格307:如果激光雷达束行进通过体素,则将体素表征为清除;如果没有激光雷达束行进通过体素,则将体素表征为未知;以及如果激光雷达束终止于体素,则将该体素表征为被占用。示例性激光雷达束跟踪模块308被配置为使用激光雷达点云数据301、相对于车辆的激光雷达位置信息303和来自其他车辆系统的车辆位置信息305来跟踪激光雷达束。
图4A描绘了在激光雷达束跟踪操作之后的示例性体素网格400的侧视图。示例性体素网格400包括多个体素,其通过如下三种状态之一来表征:清除状态(C)、被占用状态(O)或未知状态(U)。如果激光雷达束行进通过体素,则体素被表征为清除,如果没有激光雷达束行进通过体素,则体素被表征为未知,或者如果激光雷达束终止于体素,则该体素被表征为被占用。此外,出于说明性目的,覆盖在体素网格400上的是示例性车辆402和示例性激光雷达束404。
返回参考图3,示例性最大子阵列模块310被配置为识别体素网格中的每个列的最大子阵列。示例性最大子阵列模块310被配置为通过向每个体素分配分数来识别体素网格中的每个列的最大子阵列311。分配分数可以包括:如果激光雷达束行进通过体素,则将第一值(例如,10)分配给体素,如果激光雷达束终止于体素,则将第二值(例如,-50)分配给该体素,以及如果没有激光雷达束行进通过体素,则将第三值(例如,-2)分配给体素。示例性最大子阵列模块310还被配置为通过如下来识别体素网格中每个列的最大子阵列311:识别最大化列的分数的连续元素序列;识别所识别的连续元素序列的子阵列长度;以及识别所识别的连续元素序列中的最低单元(即,具有最低高度的单元)的高度。可以使用地面高度图309来识别最低单元的高度。
图4B描绘了在激光雷达束跟踪操作之后的示例性体素网格410的侧视图。示例性体素网格410包括多个体素,其通过如下三种状态之一来表征:清除状态(C)、被占用状态(O)或未知状态(U)。在该示例中,如果激光雷达束行进通过体素,则体素被表征为清除,如果没有激光雷达束行进通过体素,则体素被表征为未知,或者如果激光雷达束终止于体素,则该体素被表征为被占用。示例性体素网格410按列分组。
图4C示出了体素列中的体素状态到分数的转换。特别地,图4C描绘了来自具有由以下三个状态之一来表征的六个体素的体素网格的示例性列420——清除(C)、被占用(O)或未知(U)——以及示例性列420',其中体素状态已经被转换为分数。在该示例中,处于“C”状态的体素被分配为10的分数,处于“O”状态的体素被分配为-50的分数,并且处于“U”状态的体素被分配为-2的分数。
图4D示出了示例性列430中的最大子阵列432的确定。在该示例中,通过在序列中的各个体素分数被加在一起时识别具有最大总分的列430中的连续体素序列来确定最大子阵列432。在该示例中,列430顶部的四个体素序列的总分数具有列430中的任何体素序列的最大分数。在该示例中,具有最大分数的体素序列的总分等于28(10+10-2+10=28)。没有其他连续的体素序列在加在一起时具有更高的总分数。
最大子阵列的长度等于子阵列中元素的数目,并且子阵列的高度等于最大子阵列中最低单元的地面以上的高度。如图4E的示例中所示,长度等于4并且高度等于0.5米,因为从列顶部起第四个体素的高度等于0.5米。
返回参考图3,示例性最大子阵列模块310包括列评分模块316、用于识别列中的最大子阵列的标识(ID)模块318、以及用于识别列中的最大子阵列的子阵列长度和高度的ID模块320。示例性列评分模块316被配置为通过向每个体素分配分数来识别体素网格中的每个列的最大子阵列。示例性ID模块318被配置为通过识别列中最大化列的分数的连续元素序列来识别最大子阵列。示例性ID模块320被配置为识别所识别的连续元素序列的子阵列长度,并使用来自地面高度图309的数据识别所识别的连续元素序列中的最低单元的高度。
示例性自由空间级别分类模块被配置为根据自由空间级别对每个列分类。示例性自由空间级别分类模块被配置为通过针对每个列确定来自启发式LUT314的自由空间级别来对每个列分类自由空间级别。将列中的最大子阵列的子阵列长度和高度输入到启发式LUT314,其对列分类自由空间级别。此示例中的自由空间级别包括四个级别:高自由级别、中自由级别、低自由级别和非常低自由级别。自由空间级别可以指示具有如下的列中的对象的可能性:高自由级别,其指示列中没有对象的较高可能性;以及非常低自由级别,其指示列中存在对象的较高可能性。
示例性LUT314可以包括以下常数(以米为单位):
HIGH_FREE_SPACE__MIN_CLEAR_COLUMN_LENGTH=1.0;HIGH_FREE_SPACE__MAX_CLEAR_COLUMN_ELEVATION=0.5;MEDIUM_FREE_SPACE__MIN_CLEAR_COLUMN_LENGTH=0.5;MEDIUM_FREE_SPACE__MAX_CLEAR_COLUMN_ELEVATION=1.0;LOW_FREE_SPACE__MIN_CLEAR_COLUMN_LENGTH=0.25;LOW_FREE_SPACE__MAX_CLEAR_COLUMN_ELEVATION=1.5;VERY_LOW_FREE_SPACE__MIN_CLEAR_COLUMN_LENGTH=0.25;并且VERY_LOW_FREE_SPACE__MAX_CLEAR_COLUMN_ELEVATION=2.0。
示例性LUT314可以根据以下对列分类:
如果((高度<HIGH_FREE_SPACE__MAX_CLEAR_COLUMN_ELEVATION)并且(长度>HIGH_FREE_SPACE__MIN_CLEAR_COLUMN_LENGTH))那么free_space_output=FREE_SPACE_OUTPUT__HIGHLY_FREE。
如果((高度<MEDIUM_FREE_SPACE__MAX_CLEAR_COLUMN_ELEVATION)并且(长度>MEDIUM_FREE_SPACE__MIN_CLEAR_COLUMN_LENGTH))那么free_space_output=FREE_SPACE_OUTPUT__MEDIUM_FREE。
如果((高度<LOW_FREE_SPACE__MAX_CLEAR_COLUMN_ELEVATION)并且(长度>LOW_FREE_SPACE__MIN_CLEAR_COLUMN_LENGTH))那么free_space_output=FREE_SPACE_OUTPUT__LOW_FREE。
如果((高度<VERY_LOW_FREE_SPACE__MAX_CLEAR_COLUMN_ELEVATION)并且(长度>VERY_LOW_FREE_SPACE__MIN_CLEAR_COLUMN_LENGTH))那么free_space_output=FREE_SPACE_OUTPUT__VERY_LOW_FREE。
如果没有满足上述条件,那么free_space_output=FREE_SPACE_OUTPUT__UNKNOWN。
作为示例,如果示例性最大子阵列模块310已经找到10米长的最大子阵列,其开始于地面以上0.1米,则该列将被分类为“高自由”。在该示例中,第一个“if”语句被执行是因为高度=0.1<HIGH_FREE_SPACE__MAX_CLEAR_COLUMN_ELEVATION=0.5并且长度=10>HIGH_FREE_SPACE__MIN_CLEAR_COLUMN_LENGTH=1.0。
在另一示例中,示例性最大子阵列模块310已经找到了10.0米长并且在地面上方5.0米处开始的最大子阵列。尽管最大子阵列的长度可以暗示自由空间,但是从地面以上这样的高度开始的最大子阵列可以表明可能存在阻止最大子阵列开始更靠近地面的某些事物(例如,汽车引擎盖或其他阻挡物)。在这种情况下,没有执行“if”语句,因为高度太高。在此示例中,最大子阵列标记为FREE_SPACE_OUTPUT__UNKNOWN。
示例性映射系统302还被配置为将经分类的列输出为图像304。在自由空间级别中分类的列可以显示为车辆周围区域的俯视图。具有高自由级别的列可以指示图像中的对象之间的空间。
示例性映射系统302还被配置为将经分类的列输出为图像304。在自由空间级别中分类的列可以显示为车辆周围区域的俯视图。具有高自由级别的列可以指示图像中的对象之间的空间。
图5是描绘车辆中用于从激光雷达数据生成识别对象之间的自由空间的俯视二维(2D)图像的示例性过程500的过程流程图。示例性过程500包括针对当前实例实时检索车辆周围的体素网格,其中体素网格具有多个列(操作502)。检索体素网格可以包括检索预先存在的体素网格(或构建一个)以及检索激光雷达点云数据、相对于车辆的激光雷达位置信息、以及来自其他车辆系统的车辆位置信息。检索体素网格还可以包括针对当前实例实时基于激光雷达点云数据、激光雷达位置信息和车辆位置信息移动体素网格(例如,将体素的列添加到车辆运动方向上的体素网格)。体素网格可以通过如下两者来移动:对于先前时间实例,将体素添加到体素网格的正面,其中所添加的体素的数量对应于在时间增量上在正面方向上的车辆移动量;以及针对先前时间实例,将体素从体素网格的后面移除,其中移除的体素的数量对应于在时间增量上在与后面方向相反的方向上的车辆移动量。
示例性过程500包括跟踪来自车辆上的激光雷达系统的激光雷达束通过体素网格(操作504)。跟踪激光雷达束通过体素网格可以包括为每个体素分配三个特征中的一个,例如,如果激光雷达束行进通过体素,则将体素表征为清除,如果没有激光雷达束行进通过体素,则将体素表征为未知,以及如果激光雷达束终止于体素,则将该体素表征为被占用。激光雷达点云数据、相对于车辆的激光雷达位置信息以及来自其他车辆系统的车辆位置信息可以用在激光雷达束跟踪操作中。
示例性过程500包括识别体素网格中的每个列的最大子阵列(操作506)。识别体素网格中的每个列的最大子阵列可以包括为每个体素分配分数,其中分数可以包括基于分配给体素的特征的三个不同值中的一个。作为示例,如果激光雷达束行进通过体素,则可以将值10分配给体素,如果没有激光雷达束行进通过体素,则可以将值-50分配给体素,并且如果激光雷达束终止于体素,则可以将值-2分配给体素。识别体素网格中的每个列的最大子阵列可以进一步包括:识别最大化列的分数的连续元素序列;识别所识别的连续元素序列的子阵列长度;以及识别所识别的连续元素序列中的最低单元的高度。
示例性过程500包括对每个列分类自由空间级别(操作508)。对每个列分类自由空间级别可以包括通过向启发式查找表输入列的最大子阵列中的最低单元的高度以及最大子阵列的长度来确定每个列的自由空间级别以及接收为输出自由空间级别。此示例中的自由空间级别可以是以下四个级别之一:高自由级别、中自由级别、低自由级别和非常低自由级别。
示例性过程500包括将经分类的列输出为图像(操作510)。经分类的列可以用于生成车辆周围区域的俯视图。具有高自由级别的列可以指示图像中的对象之间的空间。
图6是描绘车辆中用于通过自由空间级别对体素网格中的列分类的示例性过程600的过程流程图。在体素网格中对激光雷达束进行光线跟踪之后,示例性过程包括为每个体素分配分数(操作602)。作为示例,处于第一状态(例如,“C”状态)的体素可以被分配为10的分数,处于第二状态(例如,“O”状态)的体素可以被分配为-50的分数,并且处于第三状态(例如,“U”状态)的体素可以被分配为-2的分数。
示例性过程600包括在每个列中找到最大子阵列(操作604)。对于每个列,识别最大化列的分数的连续元素序列。
示例性过程600包括识别最大子阵列的长度和最大子阵列的高度(操作606)。此示例中的长度等于最大子阵列中的元素数目。在该示例中,高度是包含最大子阵列中的连续元素序列中的最后元素的体素的地面高度。
示例性过程600还包括通过应用启发式查找表根据列中的自由空间的程度对每个列分类(操作608)。在此示例中,启发式查找表的输入包括最大子阵列的长度和高度。输出包括列的自由空间的程度。在此示例中,输出如下四个级别之一:高自由级别、中自由级别、低自由级别和非常低自由级别。经分类的列可以用于生成车辆周围区域的俯视图。具有高自由级别的列可以指示图像中的对象之间的自由空间。
图7是从激光雷达数据生成的识别对象之间的自由空间的示例性俯视二维(2D)图像。图示的是第一车辆上的激光雷达传感器708。示例性图像示出了第一车辆左侧的第一对象702的局部轮廓、第一车辆前方的第二对象(例如,第二车辆)704的局部轮廓、以及第二对象704的左侧的第三对象(例如,第三车辆)706的局部轮廓。在第二对象704和第三对象706之间示出的是黑色空间的突出部700,其示出了第二对象704和第三对象706之间的自由空间。自由空间的突出部700在评估两个车辆704、706是分离的实体方面是有价值的。在没有突出部700的情况下,计算机算法可能将两个车辆704、706视为单个大型对象,因为它们的点彼此非常接近。使用示例性映射系统允许通过突出显示对象之间的自由空间的突出部700来区分示例性图像中的第二对象704和第三对象706。
从本文描述的技术生成的2D图像可以用于检测错误对象和追踪错误。如果车辆中的感知系统(例如感知系统74)使用例如不正确的速度来追踪对象,则车辆对被追踪对象的位置的感知可能偏离现实世界对象的实际位置。作为示例,车辆对被追踪对象的位置的错误感知可能将对象放置在高度自由的区域中。从本文描述的技术生成的2D图像可以示出被追踪对象实际上处于自由空间区域中并且因此发生追踪错误。
虽然在前面的详细描述中已经呈现了至少一个示例性实施例,但是应该理解存在大量的变型。还应当理解,一个或多个示例性实施例仅是示例,并不旨在以任何方式限制本公开的范围、适用性或配置。更确切地,前面的详细描述将为本领域技术人员提供用于实现一个或多个示例性实施例的便利路线图。应当理解,在不脱离所附权利要求及其合法等同内容所阐述的本公开的范围的情况下,可以对要素的功能和布置进行各种改变。
Claims (10)
1.一种车辆中处理器实现的方法,用于从激光雷达数据生成的用于识别对象之间的自由空间的俯视二维(2D)图像,所述方法包括:
由处理器针对当前实例实时检索车辆周围的体素网格,所述体素网格具有多个列;
由所述处理器跟踪来自所述车辆上的激光雷达系统的激光雷达束通过所述体素网格;
由所述处理器识别所述体素网格中每个列的最大子阵列;
由所述处理器对每个列分类自由空间级别;以及
由所述处理器将经分类的列输出为图像。
2.根据权利要求1所述的方法,其中,检索体素网格包括:
检索激光雷达点云数据;
检索相对于所述车辆的激光雷达位置信息;以及
检索车辆位置信息。
3.根据权利要求2所述的方法,其中,检索体素网格还包括:基于所述激光雷达点云数据、所述激光雷达位置信息和所述车辆位置信息来移动预先存在的体素网格。
4.根据权利要求1所述的方法,其中,跟踪激光雷达束通过所述体素网格包括:
如果激光雷达束行进通过体素,则为所述体素分配第一特征;
如果没有激光雷达束行进通过体素,则为所述体素分配第二特征;以及
如果激光雷达束终止于体素,则为所述体素分配第三特征。
5.根据权利要求1所述的方法,其中,识别所述体素网格中的每个列的最大子阵列包括为每个体素分配分数,并且其中,为每个体素分配分数包括:
如果已经将第一特征分配给体素,则将第一值分配给所述体素;
如果已经将第二特征分配给体素,则将第二值分配给所述体素;以及如果已经将第三特征分配给体素,则将第三值分配给所述体素。
6.根据权利要求5所述的方法,其中,识别所述体素网格中的每个列的最大子阵列还包括:
识别最大化所述列的分数的连续元素序列;
识别所识别的连续元素序列的子阵列长度;以及
识别所识别的连续元素序列中的最低单元的高度。
7.根据权利要求6所述的方法,其中,对每个列分类自由空间级别包括:
基于列的已识别最大子阵列中的最低单元的高度和所述子阵列长度为每个列确定来自启发式查找表的自由空间级别。
8.根据权利要求7所述的方法,其中,所述自由空间级别包括高自由级别、中自由级别、低自由级别和非常低自由级别。
9.一种车辆中用于从激光雷达数据生成识别对象之间的自由空间的二维图的系统,所述系统包括:
体素网格调整模块,包括通过编程在非暂态计算机可读介质中编码的指令配置的一个或多个处理器,所述体素网格调整模块被配置为针对当前实例实时生成车辆周围的体素网格,其中,所述体素网格具有多个列;
激光雷达束跟踪模块,包括由编程在非暂态计算机可读介质中编码的指令配置的一个或多个处理器,所述激光雷达束跟踪模块被配置成跟踪来自所述车辆上的激光雷达系统的激光雷达束通过所述体素网格;
最大子阵列模块,包括通过编程在非暂态计算机可读介质中编码的指令配置的一个或多个处理器,所述最大子阵列模块被配置成识别所述体素网格中的每个列的最大子阵列;以及
自由空间级别分类模块,包括通过编程在非暂态计算机可读介质中编码的指令配置的一个或多个处理器,所述自由空间级别分类模块被配置为根据自由空间级别对每个列分类;
其中,所述系统被配置为将经分类的列输出为图像。
10.一种自主驾驶车辆,包括:
激光雷达系统,其生成激光雷达数据;以及
映射系统,其被配置为从所述激光雷达数据生成识别对象之间的自由空间的二维图像,所述映射系统包括通过编程在非暂态计算机可读介质中编码的指令配置的一个或多个处理器,所述映射系统被配置为:
针对当前实例实时检索车辆周围的体素网格,所述体素网格具有多个列;
跟踪来自所述激光雷达系统的激光雷达束通过所述体素网格;
识别所述体素网格中每个列的最大子阵列;
对每个列分类自由空间级别;以及
将经分类的列输出为图像。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/820,163 US10733420B2 (en) | 2017-11-21 | 2017-11-21 | Systems and methods for free space inference to break apart clustered objects in vehicle perception systems |
US15/820163 | 2017-11-21 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109814130A true CN109814130A (zh) | 2019-05-28 |
CN109814130B CN109814130B (zh) | 2023-06-23 |
Family
ID=61830053
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811334471.0A Active CN109814130B (zh) | 2017-11-21 | 2018-11-09 | 用于在车辆感知系统中自由空间推断以分开群集对象的系统和方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10733420B2 (zh) |
CN (1) | CN109814130B (zh) |
DE (1) | DE102018129063A1 (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112904370A (zh) * | 2019-11-15 | 2021-06-04 | 辉达公司 | 用于激光雷达感知的多视图深度神经网络 |
US12050285B2 (en) | 2019-11-21 | 2024-07-30 | Nvidia Corporation | Deep neural network for detecting obstacle instances using radar sensors in autonomous machine applications |
US12051206B2 (en) | 2019-07-25 | 2024-07-30 | Nvidia Corporation | Deep neural network for segmentation of road scenes and animate object instances for autonomous driving applications |
US12072443B2 (en) | 2019-11-15 | 2024-08-27 | Nvidia Corporation | Segmentation of lidar range images |
US12080078B2 (en) | 2019-11-15 | 2024-09-03 | Nvidia Corporation | Multi-view deep neural network for LiDAR perception |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10733420B2 (en) * | 2017-11-21 | 2020-08-04 | GM Global Technology Operations LLC | Systems and methods for free space inference to break apart clustered objects in vehicle perception systems |
US11077756B2 (en) * | 2017-11-23 | 2021-08-03 | Intel Corporation | Area occupancy determining device |
US10810792B2 (en) * | 2018-05-31 | 2020-10-20 | Toyota Research Institute, Inc. | Inferring locations of 3D objects in a spatial environment |
DE102018123779A1 (de) * | 2018-09-26 | 2020-03-26 | HELLA GmbH & Co. KGaA | Verfahren und Vorrichtung zum Verbessern einer Objekterkennung eines Radargeräts |
DK180562B1 (en) * | 2019-01-31 | 2021-06-28 | Motional Ad Llc | Merging data from multiple lidar devices |
US20200256999A1 (en) * | 2019-02-07 | 2020-08-13 | Atulya Yellepeddi | Lidar techniques for autonomous vehicles |
CN110009741B (zh) * | 2019-06-04 | 2019-08-16 | 奥特酷智能科技(南京)有限公司 | 一种在Unity中生成环境点云地图的方法 |
US11455806B2 (en) * | 2019-07-10 | 2022-09-27 | Deka Products Limited Partnership | System and method for free space estimation |
CN111596298B (zh) * | 2020-05-13 | 2022-10-14 | 北京百度网讯科技有限公司 | 目标对象的定位方法、装置、设备及存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080027591A1 (en) * | 2006-07-14 | 2008-01-31 | Scott Lenser | Method and system for controlling a remote vehicle |
CN105787502A (zh) * | 2015-01-14 | 2016-07-20 | 通用汽车环球科技运作有限责任公司 | 用于物体融合的目标分类集合技术 |
CN105793730A (zh) * | 2013-06-14 | 2016-07-20 | 优步技术公司 | 对象运动的基于激光雷达的分类 |
CN105849587A (zh) * | 2015-10-30 | 2016-08-10 | 株式会社小松制作所 | 作业机械的控制系统、作业机械、作业机械的管理系统、作业机械的控制方法以及程序 |
WO2016170333A1 (en) * | 2015-04-24 | 2016-10-27 | Oxford University Innovation Limited | A method of detecting objects within a 3d environment |
US20170329008A1 (en) * | 2015-02-02 | 2017-11-16 | Bayerische Motoren Werke Aktiengesellschaft | Processing Sensor Measurements of a Vehicle Environment with Low Transverse Resolution |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100066587A1 (en) * | 2006-07-14 | 2010-03-18 | Brian Masao Yamauchi | Method and System for Controlling a Remote Vehicle |
US10026308B2 (en) * | 2015-10-30 | 2018-07-17 | Komatsu Ltd. | Construction machine control system, construction machine, construction machine management system, and construction machine control method and program |
US20170197615A1 (en) * | 2016-01-11 | 2017-07-13 | Ford Global Technologies, Llc | System and method for reverse perpendicular parking a vehicle |
US10025317B2 (en) * | 2016-09-30 | 2018-07-17 | Faraday&Future Inc. | Methods and systems for camera-based autonomous parking |
EP3340181A1 (en) * | 2016-12-21 | 2018-06-27 | Dassault Systèmes | Automatic partitioning of a 3d scene into a plurality of zones processed by a computing resource |
US20180074200A1 (en) * | 2017-11-21 | 2018-03-15 | GM Global Technology Operations LLC | Systems and methods for determining the velocity of lidar points |
US10733420B2 (en) * | 2017-11-21 | 2020-08-04 | GM Global Technology Operations LLC | Systems and methods for free space inference to break apart clustered objects in vehicle perception systems |
-
2017
- 2017-11-21 US US15/820,163 patent/US10733420B2/en active Active
-
2018
- 2018-11-09 CN CN201811334471.0A patent/CN109814130B/zh active Active
- 2018-11-19 DE DE102018129063.2A patent/DE102018129063A1/de active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080027591A1 (en) * | 2006-07-14 | 2008-01-31 | Scott Lenser | Method and system for controlling a remote vehicle |
CN105793730A (zh) * | 2013-06-14 | 2016-07-20 | 优步技术公司 | 对象运动的基于激光雷达的分类 |
CN105787502A (zh) * | 2015-01-14 | 2016-07-20 | 通用汽车环球科技运作有限责任公司 | 用于物体融合的目标分类集合技术 |
US20170329008A1 (en) * | 2015-02-02 | 2017-11-16 | Bayerische Motoren Werke Aktiengesellschaft | Processing Sensor Measurements of a Vehicle Environment with Low Transverse Resolution |
WO2016170333A1 (en) * | 2015-04-24 | 2016-10-27 | Oxford University Innovation Limited | A method of detecting objects within a 3d environment |
CN105849587A (zh) * | 2015-10-30 | 2016-08-10 | 株式会社小松制作所 | 作业机械的控制系统、作业机械、作业机械的管理系统、作业机械的控制方法以及程序 |
US20170122741A1 (en) * | 2015-10-30 | 2017-05-04 | Komatsu Ltd. | Construction machine control system, construction machine, construction machine management system, and construction machine control method and program |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US12051206B2 (en) | 2019-07-25 | 2024-07-30 | Nvidia Corporation | Deep neural network for segmentation of road scenes and animate object instances for autonomous driving applications |
CN112904370A (zh) * | 2019-11-15 | 2021-06-04 | 辉达公司 | 用于激光雷达感知的多视图深度神经网络 |
US12072443B2 (en) | 2019-11-15 | 2024-08-27 | Nvidia Corporation | Segmentation of lidar range images |
US12080078B2 (en) | 2019-11-15 | 2024-09-03 | Nvidia Corporation | Multi-view deep neural network for LiDAR perception |
US12050285B2 (en) | 2019-11-21 | 2024-07-30 | Nvidia Corporation | Deep neural network for detecting obstacle instances using radar sensors in autonomous machine applications |
Also Published As
Publication number | Publication date |
---|---|
US10733420B2 (en) | 2020-08-04 |
US20180101720A1 (en) | 2018-04-12 |
CN109814130B (zh) | 2023-06-23 |
DE102018129063A1 (de) | 2019-05-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109814130A (zh) | 用于在车辆感知系统中自由空间推断以分开群集对象的系统和方法 | |
US11802969B2 (en) | Occlusion aware planning and control | |
CN113366486B (zh) | 使用区域外上下文的对象分类 | |
US11312372B2 (en) | Vehicle path prediction | |
US11475675B2 (en) | Systems and methods for identifying unknown instances | |
CN111442776B (zh) | 顺序地面场景图像投影合成与复杂场景重构的方法及设备 | |
US11048265B2 (en) | Occlusion aware planning | |
CN114390990B (zh) | 用于确定目标车辆速度的系统和方法 | |
CN109814125A (zh) | 用于确定激光雷达点的速度的系统和方法 | |
US11250576B2 (en) | Systems and methods for estimating dynamics of objects using temporal changes encoded in a difference map | |
US20200307561A1 (en) | System and method for radar cross traffic tracking and maneuver risk estimation | |
CN109522784B (zh) | 用于区分可越过物体与不可越过物体的装置和方法 | |
JP2022539245A (ja) | アクションデータに基づくトップダウンシーンの予測 | |
WO2019245982A1 (en) | Occlusion aware planning | |
JP2021522585A (ja) | マスクを使用したデータセグメンテーション | |
CN113646222A (zh) | 将自主行驶功能扩展到新地域 | |
US20200149896A1 (en) | System to derive an autonomous vehicle enabling drivable map | |
CN116324661A (zh) | 基于激光雷达数据的地面高度估计 | |
CN114072841A (zh) | 根据图像使深度精准化 | |
US11756317B2 (en) | Methods and systems for labeling lidar point cloud data | |
US20240037961A1 (en) | Systems and methods for detecting lanes using a segmented image and semantic context | |
US10556584B2 (en) | Vehicle vision | |
US12125269B2 (en) | Sensor fusion | |
US20230391358A1 (en) | Retrofit vehicle computing system to operate with multiple types of maps | |
US20230237783A1 (en) | Sensor fusion |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |