CN113048995A - 支持自主运载工具导航的长期对象跟踪 - Google Patents
支持自主运载工具导航的长期对象跟踪 Download PDFInfo
- Publication number
- CN113048995A CN113048995A CN202011578210.0A CN202011578210A CN113048995A CN 113048995 A CN113048995 A CN 113048995A CN 202011578210 A CN202011578210 A CN 202011578210A CN 113048995 A CN113048995 A CN 113048995A
- Authority
- CN
- China
- Prior art keywords
- data
- trace
- sensor
- tracking
- trace data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 230000007774 longterm Effects 0.000 title description 4
- 238000001514 detection method Methods 0.000 claims abstract description 61
- 238000000034 method Methods 0.000 claims abstract description 58
- 238000012545 processing Methods 0.000 claims description 56
- 230000015654 memory Effects 0.000 claims description 34
- 230000008859 change Effects 0.000 claims description 10
- 238000003384 imaging method Methods 0.000 claims description 7
- 230000000007 visual effect Effects 0.000 claims description 5
- 230000002123 temporal effect Effects 0.000 claims description 4
- 238000005286 illumination Methods 0.000 claims 1
- 230000033001 locomotion Effects 0.000 abstract description 16
- 238000004891 communication Methods 0.000 description 37
- 230000000694 effects Effects 0.000 description 35
- 238000010586 diagram Methods 0.000 description 18
- 230000004927 fusion Effects 0.000 description 17
- 238000013500 data storage Methods 0.000 description 14
- 230000003287 optical effect Effects 0.000 description 14
- 230000006870 function Effects 0.000 description 11
- 230000001133 acceleration Effects 0.000 description 7
- 230000008447 perception Effects 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 230000006399 behavior Effects 0.000 description 6
- 238000005259 measurement Methods 0.000 description 6
- 239000007787 solid Substances 0.000 description 6
- 230000008901 benefit Effects 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 5
- 230000004044 response Effects 0.000 description 5
- 230000009471 action Effects 0.000 description 3
- 230000000875 corresponding effect Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 230000001276 controlling effect Effects 0.000 description 2
- 230000002596 correlated effect Effects 0.000 description 2
- 239000000446 fuel Substances 0.000 description 2
- 230000004313 glare Effects 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000013213 extrapolation Methods 0.000 description 1
- 230000004438 eyesight Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 238000001556 precipitation Methods 0.000 description 1
- 239000011435 rock Substances 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000001429 visible spectrum Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/3407—Route searching; Route guidance specially adapted for specific applications
- G01C21/343—Calculating itineraries, i.e. routes leading from a starting point to a series of categorical destinations using a global route restraint, round trips, touristic trips
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0274—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/865—Combination of radar systems with lidar systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/28—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
- G01C21/30—Map- or contour-matching
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
- G05D1/024—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0242—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using non-visible light signals, e.g. IR or UV signals
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0257—Control of position or course in two dimensions specially adapted to land vehicles using a radar
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
Abstract
本发明通常涉及用于跟踪接近自主运载工具的对象的系统和方法。特别地,描述了能够重新识别暂时丢失视线的对象的对象跟踪系统。重新识别对象允许更有效地使用较早的对象检测来预测对象更有可能采取的运动。
Description
技术领域
本说明书涉及支持自主运载工具的导航的对象跟踪系统。
背景技术
自主运载工具可用于将人和/或货物(例如,包裹、对象或其它物品)从一个地点运输到另一地点。例如,自主运载工具可以导航到某人的地点,等待该人登上该自主运载工具,并导航到所指定的目的地(例如,由该人选择的地点)。为了在环境中导航,这些自主运载工具配备有各种传感器以检测周围的对象。
发明内容
尽管已知使用传感器来检测接近自主运载工具的对象,但期望改进运载工具的用以检测、连续跟踪和预计对象的将来动作的能力。本说明书中所述的主题涉及用于检测自主运载工具周围的环境中的对象的计算机系统和技术。通常,计算机系统被配置为从运载工具的一个或多个传感器接收输入,基于所接收到的输入来检测运载工具周围的环境中的一个或多个对象,并且基于对象的检测来操作运载工具。
例如,系统可被配置为从一个或多个传感器检测重新识别已被暂时隐藏或遮掩的对象,使得可以使用先前检测到的该对象所采取的活动来更准确地预测该对象的行为。示例性方法包括:使用自主运载工具的传感器来捕获传感器数据;使用处理电路来从所述传感器数据检测对象,其中检测所述对象包括创建检测数据;使用所述处理电路来将所述检测数据与第一跟踪数据相关联;使用所述处理电路来获得符合过时踪迹标准的第二跟踪数据;使用所述处理电路来将所述第一跟踪数据与所述第二跟踪数据进行比较;以及根据确定为所述第一跟踪数据和所述第二跟踪数据的比较符合匹配标准:使用所述处理电路来将所述第二跟踪数据与所述第一跟踪数据相关联;以及使用控制电路,至少部分基于所述第二跟踪数据来导航所述自主运载工具。
一种存储有指令的计算机可读存储介质,所述指令被配置为由计算装置的一个或多个电路执行,所述指令使得所述计算装置执行包括以下的步骤:使用自主运载工具的传感器来捕获传感器数据;使用处理电路来从所述传感器数据检测对象,其中检测所述对象包括创建检测数据;使用所述处理电路来将所述检测数据与第一跟踪数据相关联;使用所述处理电路来获得符合过时踪迹标准的第二跟踪数据;使用所述处理电路来将所述第一跟踪数据与所述第二跟踪数据进行比较;以及根据确定为所述第一跟踪数据和所述第二跟踪数据的比较符合匹配标准,使用所述处理电路来将所述第二跟踪数据与所述第一跟踪数据相关联;以及使用控制电路,至少部分基于所述第二跟踪数据来导航所述自主运载工具。
一种自主运载工具,包括:传感器;处理电路;控制电路;以及存储有一个或多个程序的存储器,所述一个或多个程序被配置为由所述自主运载工具的电路执行,所述一个或多个程序包括用于进行以下操作的指令:使用所述传感器来捕获传感器数据;使用所述处理电路来从所述传感器数据检测对象,其中检测所述对象包括创建检测数据;使用所述处理电路来将所述检测数据与第一跟踪数据相关联;使用所述处理电路来获得符合过时踪迹标准的第二跟踪数据;使用所述处理电路来将所述第一跟踪数据与所述第二跟踪数据进行比较;以及根据确定为所述第一跟踪数据和所述第二跟踪数据的比较符合匹配标准,使用所述处理电路来将所述第二跟踪数据与所述第一跟踪数据相关联;以及使用所述控制电路,至少部分基于所述第二跟踪数据来导航所述自主运载工具。
一种存储有指令的存储介质,所述指令在由一个或多个计算装置执行时,使得进行上述方法。
一种装置,包括:处理电路;以及存储有一个或多个程序的存储器,所述一个或多个程序被配置为由所述处理电路执行,所述一个或多个程序包括用于进行上述方法的指令。
一种装置,包括用于进行上述方法的部件。
这些和其它方面、特征和实现可被表示为方法、设备、系统、组件、程序产品、用于进行功能的方法或步骤以及其它方式。
从以下的包括权利要求书的说明书,这些和其它方面、特征和实现将变得明显。
附图说明
图1示出具有自主能力的自主运载工具的示例。
图2例示示例“云”计算环境。
图3例示计算机系统。
图4示出自主运载工具的示例架构。
图5示出感知模块可以使用的输入和输出的示例。
图6示出LiDAR系统的示例。
图7示出操作中的LiDAR系统。
图8示出LiDAR系统的操作的附加细节。
图9示出规划模块的输入和输出之间的关系的框图。
图10示出路径规划中所使用的有向图。
图11示出控制模块的输入和输出的框图。
图12示出控制器的输入、输出和组件的框图。
图13示出视觉对象跟踪系统的框图。
图14A-14C示出例示根据一些实施例的传感器踪迹和地面踪迹的处理的框图。
图15示出参考图14B的块一般地说明的处理的流程图。
图16A-16B示出在自主运载工具接近交通交叉口时由位于自主运载工具上的对象检测系统捕获到的图像的示例性表示。
图17A-17C描绘图16A-16B所描绘的交叉口以及自主运载工具及其对象检测传感器的顶视图。
图18示出参考图14A的块一般地说明的处理的流程图。
具体实施方式
在以下描述中,为了解释的目的,阐述了许多具体细节,以便提供对本发明的透彻理解。然而,显而易见的是,本发明可以在没有这些具体细节的情况下实施。在其它实例中,众所周知的构造和装置是以框图形式示出的,以避免不必要地使本发明模糊。
在附图中,为了便于描述,显示了示意要素的具体安排或次序,例如表示设备、模块、指令块和数据要素的那些要素。然而,本领域技术人员应当理解,附图中示意要素的具体排序或安排并不意味着要求特定的处理顺序或序列、或处理过程的分离。此外,在附图中包含示意性要素并不意味着在所有实施例中都需要这种要素,也不意味着由这种要素表示的特征不能包括在一些实施例中或不能在一些实施例中与其它要素结合。
此外,在附图中,连接要素、例如实线或虚线或箭头用于说明两个或两个以上其它示意要素之间的连接、关系或关联,没有任何此类连接要素并不意味着不能存在连接、关系或关联。换句话说,一些要素之间的连接、关系或关联未在附图中显示,以便不掩盖本发明。此外,为了便于说明,使用单个连接要素来表示要素之间的多个连接、关系或关联。例如,如果连接元件代表信号、数据或指令的通信,本领域技术人员应理解,该元件代表影响通信可能需要的一个或多个信号路径(例如,总线)。
现在将详细参考实施例,其示例在附图中示出。在下面的详细描述中,阐述了许多具体细节,以便提供对所描述的各种实施例的透彻理解。然而,对于本领域的普通技术人员来说明显的是,可以在没有这些具体细节的情况下实施所描述的各种实施例。在其它情况下,没有详细描述众所周知的方法、程序、组件、电路和网络,以便不会不必要地掩盖实施例的方面。
下面描述的若干特征可以彼此独立地使用,也可以与其它特征的任何组合一起使用。但是,任何个别特征可能不能解决上述任何问题,或者只能解决上述问题之一。上文讨论的一些问题可能不能通过本文所述的任何一个特征得到充分解决。虽然提供了标题,但在本说明的其它地方也可以找到与某一标题有关但在该标题部分未找到的信息。本文根据以下概要描述实施例:
1.总体概述
2.硬件概述
3.自主运载工具架构
4.自主运载工具输入
5.自主运载工具规划
6.自主运载工具控制
7.使用柱(pillar)的对象检测所用的计算系统
8.示例点云和柱
9.用于检测对象并基于对象的检测来操作运载工具的示例处理
总体概述
在复杂环境(例如,城市环境)中驾驶的自主运载工具带来巨大的技术挑战。为了使自主运载工具在这些环境中导航,运载工具使用诸如光学传感器、LiDAR和/或RADAR等的传感器来实时地检测诸如运载工具、行人和自行车等的各种对象。用于进行对象检测的一个方法利用图像分析来跟踪接近于自主运载工具的对象。
在一些实施例中,本文所述的系统和技术实现了基于车载传感器的跟踪系统,该基于车载传感器的跟踪系统能够基于由安装到自主运载工具的或紧靠自主运载工具安装的一个或多个传感器所捕获到的自主运载工具周围的对象的位置来确定这些对象的位置。借助由自主运载工具的基于卫星的导航接收器提供的地点信息,可以知晓传感器在捕获图像时的位置。当该一个或多个传感器是光学传感器、并且在捕获时已知传感器的地点时,对象在图像内的位置提供了在捕获到图像时对象的位置所沿着的方位线。附加图像中的对象的先前和/或后续检测允许进一步细化对象沿着方位线位于何处。这样,对象的地点信息可以包括在当绕着对象导航自主运载工具时该运载工具可以参考的活动踪迹(activetrack)中。应当注意,代替光学/影像型传感器或者除光学/影像型传感器之外,可以使用诸如LiDAR(光检测和测距)和RADAR(雷达)等的其它类型的传感器。
除了基于一个或多个类型的传感器数据来识别对象的地点之外,还可以通过参考先前捕获到的跟踪数据来细化对象的地点。通过分析先前收集到的跟踪数据,可以确定对象的预测位置。该预测位置可以通过多个方式进行帮助。第一,预测位置可以帮助识别哪些新对象检测应与哪个活动踪迹链接。例如,相对于自主运载工具以高速率行驶的运载工具可以位于与该运载工具的最后检测位置相距长距离的位置处。通过基于快速移动对象的先前观测到的行驶速率预测该快速移动对象的地点,可以将新踪迹与对象的预测地点匹配,以将新跟踪数据和旧跟踪数据匹配。第二,由自主运载工具的意外振动和/或对象检测传感器的暂时不稳定性引起的跟踪数据的周期性不准确可以产生与先前收集的跟踪数据实质上不同的图像数据。在一些实施例中,可以组合检测位置和预测位置以生成这两个位置的加权平均。这可以帮助降低由传感器检测期间的问题造成的暂时错误的严重性。在一些实施例中,与传感器检测相关联的元数据可以包括来自例如陀螺仪或被设计为指示传感器的稳定问题的其它运动检测装置的输入。第三,预测位置还可用于帮助将新跟踪数据与同较旧或过时踪迹相关联的跟踪数据相关。这样,可以重新识别与对象相关联的历史数据,以帮助更准确地预测对象的行为。
除上述益处之外,该系统还得益于能够应用于多个不同类型的对象,这些对象包括诸如小汽车和卡车等的移动对象、以及诸如消防栓、灯杆和建筑物等的静止对象。所述的实施例也不必局限于基于地面的对象,并且还可应用于具有在地面上或在海上行驶的能力的运载工具。还应当注意,所述的系统可被配置为具有使得更容易并行地运行进程的无状态数据流管道。这至少部分是因为与跟踪数据相关联的所有状态信息都保持属于该跟踪数据的关联对象踪迹。
硬件概述
图1示出具有自主能力的自主运载工具100的示例。
如本文所使用的,术语“自主能力”是指一种功能、特征或设施,该功能、特征或设施使运载工具能够部分地或完全地运行,而无需实时的人类干预,包括但不限于完全自主运载工具、高度自主运载工具和有条件自主运载工具。
如本文所使用的,自主运载工具(AV)是一种具有自主能力的运载工具。
如本文所使用的,“运载工具”包括货物或人员的运输方式。例如,小汽车、公共汽车、火车、飞机、无人机、卡车、船只、舰艇、潜水器、飞船等。无人驾驶的小汽车是运载工具的示例。
如本文所使用的,“轨迹”是指将AV从第一时空地点导航到第二时空地点的路径或路线。在实施例中,第一时空地点被称为初始地点或起始地点,第二时空地点被称为目的地、最终地点、目标、目标位置或目标地点。在一些示例中,轨迹由一个或多个路段(例如,道路的数段)组成,并且各路段由一个或多个块(例如,车道或交叉口的一部分)组成。在实施例中,时空地点对应于真实世界地点。例如,时空地点是上车或下车地点,以使人员或货物上车或下车。
如本文所使用的,“(一个或多个)传感器”包括一个或多个硬件组件,用于检测与传感器周围环境有关的信息。一些硬件组件可包括感测组件(例如,图像传感器、生物测量传感器)、发送和/或接收组件(例如,激光或射频波发射器和接收器)、电子组件(例如,模数转换器)、数据存储装置(例如,RAM和/或非易失性存储器)、软件或固件组件和数据处理组件(例如,专用集成电路)、微处理器和/或微控制器。
如本文所使用的,“场景描述”是一种数据结构(例如,列表)或数据流,其包括由AV运载工具上的一个或多个传感器检测到的一个或多个分类或标记的对象,或由AV外部的源提供的一个或多个分类或标记的对象。
如本文所使用的,“道路”是一个可以被运载工具穿过的物理区域,并且可以对应于已命名的通道(例如,城市街道、州际高速公路等)或可对应于未命名的通道(例如,房屋或办公楼内的行车道、停车场的一段、空置停车场的一段、乡村地区的污物通道等)。因为有些运载工具(如四轮驱动的小卡车、越野车(SUV)等)能够穿越各种不特别适合运载工具行驶的物理区域,因此“道路”可以是任何市政当局或其它政府或行政机构没有正式界定为一条通道的物理区域。
如本文所使用的,“车道”是道路的可被运载工具穿过的部分,并且可对应于车道标记之间的大部分或全部空间,或仅对应于车道标记之间的部分空间(例如,小于50%)。例如,具有相距很远的车道标记的道路可能容纳两个或两个以上的运载工具,使得一个运载工具可以在不穿过车道标记的情况下超过另一个运载工具,因此可被解释为车道比车道标记之间的空间窄,或车道之间有两个车道。在没有车道标记的情况下,也可以对车道进行解释。例如,可以基于环境的物理特征(例如,农村地区的岩石和沿着大道的树木)来定义车道。
“一个或多个”包括由一个要素执行的功能,由多个要素执行的功能、例如以分布式的方式,由一个要素执行的几个功能,由几个要素执行的几个功能,或上述的任意组合。
还将理解的是,尽管在某些情况下,术语“第一”、“第二”等是用来描述各种要素的,但这些要素不应受到这些术语的限制。这些术语仅用于区分一个要素与另一个要素。例如,在未背离各种所述实施例的范围的情况下,第一触点可被称为第二触点,并且同样,第二触点可被称为第一触点。除非另外说明,否则第一触点和第二触点都是触点,但这两者不是相同触点。
此处描述的各种实施例的描述中使用的术语仅用于描述特定实施例,而不是意在限制。正如在所描述的各种实施例和所附权利要求书的描述中所使用的,单数形式“a”、“an”和“the”也意在包括复数形式,除非上下文另有明确说明。还应理解,本文所用的"和/或"一词是指并且包括一个或多个相关清单项目的任何和所有可能的组合。还应理解的是,在本说明中使用的术语“包括”、“包含”、“具备”和/或“具有”具体说明存在所述的特征、整数、步骤、操作、要素和/或组成部分,但并不排除存在或添加一个或多个其它特征、整数、步骤、操作、要素、组成部分、和/或上述的组。
如本文所使用的,“如果”一词可选择地理解为在该情况下、在当时、或者响应于检测到、或响应于确定为,视上下文而定。同样,“如果已确定”或“如果[所述条件或事件]已被检测到”这一短语,视情境而定,可以理解为“在确定时”或“响应于确定为“或”在检测到[所述条件或事件]时”或“响应于检测到[所述条件或事件]”。
如本文所使用的,AV系统是指AV以及实时生成的支持AV操作的硬件、软件、存储的数据和实时生成的支持AV运作的数据。在实施例中,AV系统并入在AV内。在实施例中,AV系统跨多个地点分布。例如,AV系统的一些软件是在类似于下面结合图2描述的云计算环境200的云计算环境中实现的。
一般而言,本文件描述了适用于任何具有一种或多种自主能力的运载工具的技术,包括完全自主运载工具、高度自主运载工具和有条件自主运载工具,如所谓的第5级、第4级和第3级运载工具(见SAE国际标准J3016:道路上机动车自动驾驶系统相关术语的分类和定义,通过引用将其全部内容纳入本说明,以了解运载工具自主权等级的更多详细信息)。本说明所述技术也适用于部分自主运载工具和驾驶员辅助运载工具,如所谓的2级和1级运载工具(见SAE国际标准J3016:道路上机动车自动驾驶系统相关术语的分类和定义)。在实施例中,一个或多个1级、2级、3级、4级和5级运载工具系统可根据对传感器输入的处理,在某些操作条件下自动执行某些运载工具操作(例如,转向、制动和使用地图)。本文件中所述的技术可以使从完全自主运载工具到人类操作的运载工具的各级运载工具受益。
参考图1,AV系统120使AV 100沿着轨迹198运行,穿过环境190至目的地199(有时称为最终地点),同时避开对象(例如,自然障碍物191、运载工具193、行人192、骑车者和其它障碍物)和遵守道路规则(例如,操作规则或驾驶偏好)。
在实施例中,AV系统120包括用于从计算机处理器146接收操作命令并对其进行操作的装置101。在实施例中,计算处理器146与下面参考图3描述的处理器304相似。装置101的示例包括转向控制器102、制动器103、挡位、加速踏板或其它加速控制机构、挡风玻璃雨刮器、侧门锁、窗控器和转向指示器。
在实施例中,AV系统120包括用于测量或推断AV 100的状态或条件的属性的传感器121,这些属性例如是AV的位置、线速度和加速度及角速度和加速度、以及航向(例如,AV100的前端的方向)。传感器121的示例是GPS、以及测量运载工具线性加速度和角速率的惯性测量单元(IMU)、用于测量或估计车轮滑移率的车轮速率传感器、车轮制动压力或制动扭矩传感器、引擎扭矩或车轮扭矩传感器以及转向角度和角速率传感器。
在实施例中,传感器121还包括用于感测或测量AV的环境的属性的传感器。例如,可见光、红外或热(或两者兼有)光谱的单目或立体摄像机122、LiDAR 123、RADAR、超声波传感器、飞行时间(TOF)深度传感器、速率传感器、温度传感器、湿度传感器和降水传感器。
在实施例中,AV系统120包括数据存储单元142和存储器144,用于存储与计算机处理器146或由传感器121收集的数据相关的机器指令。在实施例中,数据存储单元142与以下结合图3描述的ROM 308或存储装置310类似。在实施例中,存储器144与下面描述的主存储器306类似。在实施例中,数据存储单元142和存储器144存储有关环境190的历史、实时和/或预测性信息。在实施例中,存储的信息包括地图、驾驶性能、交通拥堵更新或天气条件。在实施例中,与环境190有关的数据通过来自远程数据库134的通信信道传输到AV100。
在实施例中,AV系统120包括通信装置140,用于将对其它运载工具的状态和条件(诸如位置、线性和角速度、线性和角加速度以及线性和角航向等)的测量到或推断的属性传送到AV 100。这些装置包括运载工具到运载工具(V2V)和运载工具到基础设施(V2I)通信装置以及用于通过点对点或自组织(ad hoc)网络或两者兼而有之进行无线通信的装置。在实施例中,通信装置140跨电磁频谱(包括无线电和光通信)或其它介质(例如,空气和声学介质)进行通信。运载工具对运载工具(V2V)、运载工具对基础设施(V2I)通信(以及在一些实施例中为一种或多种其它类型的通信)的组合有时被称为运载工具对所有事物(V2X)通信。V2X通信通常符合一个或多个通信标准,用于与自主运载工具进行的和在自主运载工具之间的通信。
在实施例中,通信装置140包括通信接口。例如,有线、无线、WiMAX、WiFi、蓝牙、卫星、蜂窝、光、近场、红外或无线电接口。通信接口将数据从远程数据库134传输到AV系统120。在实施例中,远程数据库134嵌入云计算环境200中,如图2中所述。通信接口140将从传感器121收集的数据或与AV100操作有关的其它数据传输到远程数据库134。在实施例中,通信接口140向AV 100传输与远程操作有关的信息。在一些实施例中,AV 100与其它远程(例如,“云”)服务器136通信。
在实施例中,远程数据库134还存储和传输数字数据(例如,存储道路和街道地点等的数据)。这些数据存储在AV 100上的存储器144中,或者通过通信信道从远程数据库134传输到AV 100。
在实施例中,远程数据库134存储和传输与以前在一天中类似时间沿着轨迹198行驶的运载工具的驾驶属性有关的历史信息(例如,速率和加速率分布)。在一个实现中,这种数据可以存储在AV 100上的存储器144中,或者通过通信信道从远程数据库134传输到AV100。
位于AV 100上的计算装置146基于实时传感器数据和先验信息以算法方式生成控制动作,使得AV系统120能够执行其自主驾驶能力。
在实施例中,AV系统120包括连接到计算装置146的计算机外围设备132,用于向AV100的用户(例如,乘员或远程用户)提供信息和提醒并接收来自该用户的输入。在实施例中,外围设备132类似于下面参考图3讨论的显示器312、输入装置314和光标控制器316。连接是无线的或有线的。任意两个或更多的接口设备可以集成到单个设备中。
图2例示示例“云”计算环境。云计算是一种服务交付模式,可以方便、按需地在网络上访问共享的可配置计算资源池(例如网络、网络带宽、服务器、处理、内存、存储、应用程序、虚拟机和服务)。在典型的云计算系统中,一个或多个大型云数据中心容纳用于递送云所提供的服务的机器。现在参考图2,云计算环境200包括通过云202互连的云数据中心204a、204b和204c。数据中心204a、204b和204c为连接到云202的计算机系统206a、206b、206c、206d、206e和206f提供云计算服务。
云计算环境200包括一个或多个云数据中心。通常,云数据中心(例如图2中所示的云数据中心204a)是指构成云(例如图2中所示的云202或云的特定部分)的服务器的物理排列。例如,服务器在云数据中心中物理排列成房间、组、行和机架。云数据中心有一个或多个区域,其中包括一个或多个服务器房间。每个房间有一行或多行服务器,每行都包括一个或多个机架。每个机架包括一个或多个单独的服务器节点。在一些实现中,区域、房间、机架和/或行中的服务器根据数据中心设施的物理基础设施要求(包括电力、能源、热力、热源和/或其它要求)分为若干组。在实施例中,服务器节点类似于图3中描述的计算机系统。数据中心204a具有许多分布在多个机架上的计算系统。
云202包括云数据中心204a、204b和204c以及用于连接云数据中心204a、204b和204c并有助于促进计算系统206a-f对云计算服务的访问的网络和网络资源(例如,网络设备、节点、路由器、交换机和网络电缆)。在实施例中,该网络表示一个或多个本地网络、广域网或通过使用地面或卫星连接部署的有线或无线链路连接的网际网络的任意组合。通过网络交换的数据采用多种网络层协议(如Internet协议(IP)、多协议标签交换(MPLS)、异步传输模式(ATM)、帧中继(FrameRelay)等)进行传输。此外,在网络代表多个子网络的组合的实施例中,在每个底层子网络上使用不同的网络层协议。在一些实施例中,网络代表一个或多个互连网际网络(例如公共互联网等)。
计算系统206a-f或云计算服务消费者通过网络链路和网络适配器连接到云202。在实施例中,计算系统206a-f被实现为各种计算装置,例如服务器、台式机、膝上型计算机、平板电脑、智能手机、物联网(IoT)设备、自主运载工具(包括小汽车、无人机、航天飞机、火车、公共汽车等)和消费电子产品。在实施例中,计算系统206a-f在其它系统中实现或作为其它系统的一部分实现。
图3例示计算机系统300。在实现中,计算机系统300是一种专用计算装置。专用计算装置被硬连线以执行这些技术,或包括诸如一个或多个专用集成电路(ASIC)或现场可编程门阵列(FPGA)等的被持久编程为进行上述技术的数字电子装置,或可包括一个或多个通用硬件处理器,这些硬件处理器经编程以根据固件、存储器、其它存储器、或者组合中的程序指令执行这些技术。这种专用的计算装置还可以将定制的硬线逻辑、ASIC或FPGA与定制的编程相结合来完成这些技术。在各种实施例中,专用计算装置是台式计算机系统、便携式计算机系统、手持设备、网络设备或包含硬线和/或程序逻辑以实现这些技术的任何其它设备。
在实施例中,计算机系统300包括总线302或用于通信信息的其它通信机制、以及与总线302连接以处理信息的硬件处理器304。硬件处理器304是例如通用微处理器。计算机系统300还包括主存储器306,例如随机存取存储器(RAM)或其它动态存储装置,连接到总线302以存储信息和指令,该信息和指令由处理器304执行。在一个实现中,主存储器306用于在执行要由处理器304执行的指令期间存储临时变量或其它中间信息。当这些指令存储在处理器304可访问的非暂时性存储介质中时,使计算机系统300变成一个专用机器,该机器被定制以执行指令中指定的操作。
在实施例中,计算机系统300还包括只读存储器(ROM)308或连接到总线302的其它静态存储装置,用于存储处理器304的静态信息和指令。提供诸如磁盘、光盘、固态驱动器或三维交叉点存储器等的存储装置310,并连接到总线302以存储信息和指令。
在实施例中,计算机系统300通过总线302连接到诸如阴极射线管(CRT)、液晶显示器(LCD)、等离子体显示器、发光二极管(LED)显示器或用于向计算机用户显示信息的有机发光二极管(OLED)显示器等的显示器312。包括字母数字键和其它键的输入装置314连接到总线302,用于向处理器304传送信息和命令选择。另一种类型的用户输入装置是光标控制器316,例如鼠标、轨迹球、触控显示器或光标方向键,用于将方向信息和命令选择传送到处理器304,并用于控制光标在显示器312上的移动。这种输入装置通常具有两个轴线上的两个自由度,第一轴线(例如,x轴)和第二轴线(例如,y轴),这两个轴线允许装置指定平面上的位置。
根据一个实施例,这里的技术由计算机系统300执行,以响应处理器304执行主存储器306中包含的一个或多个指令的一个或多个序列。这些指令从诸如存储装置310等的另一存储介质读入主存储器306。执行主存储器306中包含的指令序列使处理器304执行本文所述的处理步骤。在替代实施例中,使用硬连线电路代替或与软件指令结合使用。
此处使用的术语“存储介质”是指存储数据和/或指令的任何非暂时性介质,这些数据和/或指令使机器以特定方式运行。这种存储介质包括非易失性介质和/或易失性介质。非易失性介质例如包括诸如存储装置310等的光盘、磁盘、固态驱动器或三维交叉点存储器。易失性介质包括动态存储器,诸如主存储器306等。存储介质的常见形式包括例如软盘、软盘、硬盘、固态驱动器、磁带或任何其它磁数据存储介质、CD-ROM、任何其它光数据存储介质、任何具有孔型的物理介质、RAM、PROM和EPROM、FLASH-EPROM、NV-RAM、或任何其它存储芯片或存储盒。
存储介质有别于传输介质,但可以与传输介质相结合使用。传输介质参与存储介质之间的信息传输。例如,传输介质包括同轴电缆、铜线和光纤,其包括具备总线302的电线。传输介质也可以采取声波或光波的形式,如在无线电波和红外数据通信过程中产生的声波或光波。
在实施例中,各种形式的介质涉及向处理器304携带一个或多个指令序列以供执行。例如,这些指令最初是在远程计算机的磁盘或固态驱动器上执行的。远程计算机将指令加载到其动态存储器中,并使用调制解调器通过电话线路发送指令。计算机系统300的本地调制解调器接收电话线路上的数据,并使用红外发射机将数据转换为红外信号。红外检测器接收红外信号中携带的数据,并且适当的电路将数据放置在总线302上。总线302将数据承载到主存储器306,处理器304从主存储器306检索并执行指令。主存储器306接收的指令可以任选地在处理器304执行之前或之后存储在存储装置310上。
计算机系统300还包括连接到总线302的通信接口318。通信接口318提供耦合到连接至本地网络322的网络链路320多双向数据通信。例如,通信接口318是综合业务数字网(ISDN)卡、电缆调制解调器、卫星调制解调器或用以提供与相应类型电话线路的数据通信连接的调制解调器。作为另一示例,通信接口318是局域网(LAN)卡,用于提供与兼容LAN的数据通信连接。在一些实现中,无线链路也被实现。在任何这种实现中,通信接口318发送和接收承载代表各种信息的数字数据流的电、电磁或光信号。
网络链路320通常通过一个或多个网络向其它数据装置提供数据通信。例如,网络链路320通过本地网络322提供与主计算机324或与由因特网服务提供商(ISP)326运营的云数据中心或设备的连接。ISP 326又通过现在通常称为“因特网”的世界范围分组数据通信网络来提供数据通信服务。本地网络322和因特网328都使用携带数字数据流的电、电磁或光信号。通过各种网络的信号以及网络链路320上并通过通信接口318的信号是传输介质的示例形式,其中通信接口318承载了进出计算机系统300的数字数据。在实施例中,网络320包含上述云202或云202的一部分。
计算机系统300通过(一个或多个)网络、网络链路320和通信接口318发送消息和接收包括程序代码的数据。在实施例中,计算机系统300接收用于处理的代码。接收到的代码在接收到时由处理器304执行,和/或存储在存储装置310中,或存储在其它非易失性存储装置中以便以后执行。
自主运载工具架构
图4示出用于自主运载工具(例如,图1所示的AV 100)的示例架构400。架构400包括感知模块402(有时称为感知电路)、规划模块404(有时称为规划电路)、控制模块406(有时称为控制电路)、定位模块408(有时称为定位电路)和数据库模块410(有时称为数据库电路)。各模块在AV 100的操作中发挥作用。共同地,模块402、404、406、408和410可以是图1所示的AV系统120的一部分。在一些实施例中,模块402、404、406、408和410中的任何模块是计算机软件(例如,计算机可读介质上所存储的可执行代码)和计算机硬件(例如,一个或多个微处理器、微控制器、专用集成电路[ASIC]、硬件存储器装置、其它类型的集成电路、其它类型的计算机硬件、或者这些硬件中的任何或所有的组合)的组合。
在使用中,规划模块404接收表示目的地412的数据,并且确定表示AV100为了到达(例如,抵达)目的地412而可以行驶的轨迹414(有时称为路线)的数据。为了使规划模块404确定表示轨迹414的数据,规划模块404从感知模块402、定位模块408和数据库模块410接收数据。
感知模块402使用例如也如图1所示的一个或多个传感器121来识别附近的物理对象。将对象分类(例如,分组成诸如行人、自行车、汽车、交通标志等的类型),并且将包括经分类的对象416的场景描述提供至规划模块404。
规划模块404还从定位模块408接收表示AV位置418的数据。定位模块408通过使用来自传感器121的数据和来自数据库模块410的数据(例如,地理数据)以计算位置来确定AV位置。例如,定位模块408使用来自GNSS(全球导航卫星系统)传感器的数据和地理数据来计算AV的经度和纬度。在实施例中,定位模块408所使用的数据包括具有行车道几何属性的高精度地图、描述道路网络连接属性的地图、描述行车道物理属性(诸如交通速率、交通量、运载工具和自行车车道的数量、车道宽度、车道交通方向、或车道标记类型和地点,或者它们的组合)的地图、以及描述道路特征(诸如十字路口、交通标志或各种类型的其它行驶信号等)的空间地点的地图。
控制模块406接收表示轨迹414的数据和表示AV位置418的数据,并且以将使得AV100行驶轨迹414到达目的地412的方式来操作AV的控制功能420a~420c(例如,转向、油门、制动、点火)。例如,如果轨迹414包括左转,则控制模块406将以如下方式操作控制功能420a~420c:转向功能的转向角度将使得AV 100左转,并且油门和制动将使得AV 100在进行转弯之前暂停并等待经过的行人或运载工具。
自主运载工具输入
图5示出感知模块402(图4)所使用的输入502a-502d(例如,图1中所示的传感器121)和输出504a-504d(例如,传感器数据)的示例。一个输入502a是LiDAR(光检测和测距)系统(例如,图1所示的LiDAR 123)。LiDAR是使用光(例如,诸如红外光等的一道光)来获得与其视线中的物理对象有关的数据的技术。LiDAR系统产生LiDAR数据作为输出504a。例如,LiDAR数据是用于构造环境190的表现的3D或2D点(也称为点云)的集合。
另一输入502b是RADAR(雷达)系统。RADAR是使用无线电波来获得与附近的物理对象有关的数据的技术。RADAR可以获得与不在LiDAR系统的视线内的对象有关的数据。RADAR系统502b产生RADAR数据作为输出504b。例如,RADAR数据是用于构造环境190的表现的一个或多个射频电磁信号。
另一输入502c是照相机系统。照相机系统使用一个或多个照相机(例如,使用诸如电荷耦合器件[CCD]等的光传感器的数字照相机)来获取与附近的物理对象有关的信息。照相机系统产生照相机数据作为输出504c。照相机数据通常采用图像数据的形式(例如,诸如RAW、JPEG、PNG等的图像数据格式的数据)。在一些示例中,照相机系统具有例如为了立体影像(立体视觉)的目的的多个独立照相机,这使得照相机系统能够感知深度。尽管照相机系统所感知的对象在这里被描述为“附近”,但这是相对于AV而言的。在使用中,照相机系统可被配置为“看见”远处的(例如,AV前方的远至1公里以上的)对象。因此,照相机系统可以具有为了感知遥远的对象而优化的诸如传感器和透镜等的特征。
另一输入502d是交通灯检测(TLD)系统。TLD系统使用一个或多个照相机来获得与交通灯、街道标志和提供视觉导航信息的其它物理对象有关的信息。TLD系统产生TLD数据作为输出504d。TLD数据经常采用图像数据的形式(例如,诸如RAW、JPEG、PNG等的图像数据格式的数据)。TLD系统与包含照相机的系统的不同之处在于:TLD系统使用具有宽视场(例如,使用广角镜头或鱼眼镜头)的照相机,以获得与尽可能多的提供视觉导航信息的物理对象有关的信息,使得AV 100有权访问这些对象所提供的所有相关导航信息。例如,TLD系统的视角可以为约120度以上。
在一些实施例中,使用传感器融合技术来组合输出504a-504d。因而,将个体输出504a-504d提供至AV 100的其它系统(例如,提供至如图4所示的规划模块404),或者采用相同类型(例如,使用相同组合技术或组合相同输出或者这两者)或不同类型(例如,使用不同的各个组合技术或组合不同的各个输出或者这两者)的单个组合输出或多个组合输出的形式,可以将组合输出提供至其它系统。在一些实施例中,使用早期融合技术。早期融合技术的特征在于:将输出组合,之后将一个或多个数据处理步骤应用到组合输出。在一些实施例中,使用后期融合技术。后期融合技术的特征在于:在将一个或多个数据处理步骤应用到个体输出之后,将输出组合。
图6示出LiDAR系统602的示例(例如,图5所示的输入502a)。LiDAR系统602从发光器606(例如,激光发射器)发射光604a-604c。LiDAR系统所发射的光通常不在可见光谱中;例如,经常使用红外光。所发射的光604b中的一些光遇到物理对象608(例如,运载工具)并且反射回到LiDAR系统602。(从LiDAR系统发射的光通常不会穿透物理对象,例如,实心形式的物理对象。)LiDAR系统602还具有用于检测反射光的一个或多个光检测器610。在实施例中,与LiDAR系统相关联的一个或多个数据处理系统生成表示LiDAR系统的视场614的图像612。图像612包括表示物理对象608的边界616的信息。这样,图像612用于确定AV附近的一个或多个物理对象的边界616。
图7示出操作中的LiDAR系统602。在该图所示的情境中,AV 100接收采用图像702的形式的照相机系统输出504c和采用LiDAR数据点704的形式的LiDAR系统输出504a。在使用中,AV 100的数据处理系统将图像702与数据点704进行比较。特别地,在数据点704中也识别出在图像702中识别出的物理对象706。这样,AV 100基于数据点704的轮廓和密度来感知物理对象的边界。
图8示出LiDAR系统602的操作的附加细节。如上所述,AV 100基于LiDAR系统602所检测到的数据点的特性来检测物理对象的边界。如图8所示,诸如地面802等的平坦对象将以一致的方式反射从LiDAR系统602发射的光804a-804d。换句话说,由于LiDAR系统602使用一致的间隔发射光,因此地面802将以相同的一致间隔将光反射回到LiDAR系统602。在AV100在地面802上行驶时,在没有东西阻挡道路的情况下,LiDAR系统602将继续检测到由下一个有效地面点806反射的光。然而,如果对象808阻挡道路,则LiDAR系统602所发射的光804e-804f将以不符合预期一致方式的方式从点810a-810b反射。根据该信息,AV 100可以确定为存在对象808。
路径规划
图9示出(例如,如图4所示的)规划模块404的输入和输出之间的关系的框图900。通常,规划模块404的输出是从起点904(例如,源地点或初始地点)到终点906(例如,目的地或最终地点)的路线902。路线902通常由一个或多个路段定义。例如,路段是指要行驶经过街道、道路、公路、行车道或适合汽车行驶的其它物理区域的至少一部分的距离。在一些示例中,例如,如果AV 100是诸如四轮驱动(4WD)或全轮驱动(AWD)小汽车、SUV或小型卡车等的越野运载工具,则路线902包括诸如未铺面道路或开阔田野等的“越野”路段。
除路线902之外,规划模块还输出车道级路线规划数据908。车道级路线规划数据908用于在特定时间基于路线902的路段的条件来驶过这些路段。例如,如果路线902包括多车道公路,则车道级路线规划数据908包括轨迹规划数据910,其中AV 100可以使用该轨迹规划数据910以例如基于出口是否临近、多个车道中的一个以上的车道是否存在其它运载工具、或者在几分钟或更少时间的过程中变化的其它因素,来从这多个车道中选择某车道。同样地,在一些实现中,车道级路线规划数据908包括路线902的某路段特有的速率约束912。例如,如果该路段包括行人或非预期交通,则速率约束912可以将AV 100限制到比预期速率慢的行驶速率,例如基于该路段的限速数据的速率。
在实施例中,向规划模块404的输入包括(例如,来自图4所示的数据库模块410的)数据库数据914、当前地点数据916(例如,图4所示的AV位置418)、(例如,用于图4所示的目的地412的)目的地数据918和对象数据920(例如,如图4所示的感知模块402所感知的经分类的对象416)。在一些实施例中,数据库数据914包括规划时所使用的规则。规则是使用形式语言(例如,使用布尔逻辑)指定的。在AV 100所遇到的任何给定情形中,这些规则中的至少一些规则将适用于该情形。如果规则具有基于AV 100可用的信息(例如,与周围环境有关的信息)所满足的条件,则该规则适用于给定情形。规则可以具有优先级。例如,“如果公路是高速公路,则移动到最左侧车道”这一规则与“如果出口在一英里内临近,则移动到最右侧车道”相比可以具有更低的优先级。
图10示出在路径规划中(例如,由规划模块404(图4))使用的有向图1000。通常,如图10所示的有向图那样的有向图1000用于确定任何起点1002和终点1004之间的路径。在现实世界中,分隔起点1002和终点1004的距离可能相对较大(例如,在两个不同的都市区域中),或者可能相对较小(例如,毗邻城市街区的两个十字路口或多车道道路的两条车道)。
在实施例中,有向图1000具有表示起点1002和终点1004之间的AV 100可能占用的不同地点的节点1006a-1006d。在一些示例中,例如,在起点1002和终点1004表示不同的都市区域时,节点1006a-1006d表示道路的路段。在一些示例中,例如,在起点1002和终点1004表示相同道路上的不同地点时,节点1006a-1006d表示该道路上的不同位置。这样,有向图1000包括不同粒度级别的信息。在实施例中,具有高粒度的有向图也是具有更大规模的另一有向图的子图。例如,起点1002和终点1004相距远(例如,相距许多英里)的有向图的大部分信息处于低粒度,并且该有向图是基于所存储的数据,但该有向图还包括供该有向图中的表示AV 100的视场中的物理地点的一部分用的一些高粒度信息。
节点1006a-1006d不同于无法与节点重叠的对象1008a-1008b。在实施例中,在粒度低时,对象1008a-1008b表示汽车不能驶过的地区,例如无街道或道路的区域。在粒度高时,对象1008a-1008b表示AV 100的视场中的物理对象,例如其它汽车、行人、或AV 100不能与之共用物理空间的其它实体。在实施例中,对象1008a-1008b的一部分或全部是静态对象(例如,不改变位置的对象,诸如街灯或电线杆等)或动态对象(例如,能够改变位置的对象,诸如行人或其它小汽车等)。
节点1006a-1006d通过边缘1010a-1010c连接。如果两个节点1006a-1006b通过边缘1010a连接,则AV 100可以在一个节点1006a和另一节点1006b之间行驶,例如,而不必在到达另一节点1006b之前行驶到中间节点。(当提到AV100在节点之间行驶时,意味着AV 100在由相应节点表示的两个物理位置之间行驶。)边缘1010a-1010c通常是双向的,从某种意义上,AV 100从第一节点行驶到第二节点,或者从第二节点行驶到第一节点。在实施例中,边缘1010a-1010c是单向的,从某种意义上,AV 100可以从第一节点行驶到第二节点,然而AV 100不能从第二节点行驶到第一节点。在边缘1010a-1010c表示例如单向街道、街道、道路或公路的单独车道、或者由于法律或物理约束因而仅能沿一个方向驶过的其它特征的情况下,边缘1010a-1010c是单向的。
在实施例中,规划模块404使用有向图1000来识别由起点1002和终点1004之间的节点和边缘组成的路径1012。
边缘1010a-1010c具有关联成本1014a-1014b。成本1014a-1014b是表示在AV 100选择该边缘的情况下将花费的资源的值。典型的资源是时间。例如,如果一个边缘1010a所表示的物理距离是另一边缘1010b所表示的物理距离的两倍,则第一边缘1010a的关联成本1014a可以是第二边缘1010b的关联成本1014b的两倍。影响时间的其它因素包括预期交通、十字路口的数量、限速等。另一典型的资源是燃料经济性。两个边缘1010a-1010b可以表示相同的物理距离,但例如由于道路条件、预期天气等,因此一个边缘1010a与另一边缘1010b相比需要更多的燃料。
在规划模块404识别起点1002和终点1004之间的路径1012时,规划模块404通常选择针对成本优化的路径,例如,在将边缘的各个成本相加到一起时具有最小总成本的路径。
自主运载工具控制
图11示出(例如,如图4所示的)控制模块406的输入和输出的框图1100。控制模块根据控制器1102而工作,该控制器1102例如包括:与处理器304类似的一个或多个处理器(例如,诸如微处理器或微控制器或这两者等的一个或多个计算机处理器);与主存储器306、ROM 308和存储装置310类似的短期和/或长期数据存储装置(例如,存储器随机存取存储器或闪速存储器或这两者);以及存储器中所存储的指令,这些指令在(例如,由一个或多个处理器)执行时执行控制器1102的操作。
在实施例中,控制器1102接收表示期望输出1104的数据。期望输出1104通常包括速度,例如速率和航向。期望输出1104例如可以基于从(例如,如图4所示的)规划模块404接收到的数据。根据期望输出1104,控制器1102产生可用作油门输入1106和转向输入1108的数据。油门输入1106表示例如通过接合转向踏板或接合另一油门控件来接合AV 100的油门(例如,加速控制)以实现期望输出1104的大小。在一些示例中,油门输入1106还包括可用于接合AV100的制动器(例如,减速控制)的数据。转向输入1108表示转向角度,例如AV的转向控制(例如,方向盘、转向角致动器或用于控制转向角度的其它功能)应被定位成实现期望输出1104的角度。
在实施例中,控制器1102接收在调整提供至油门和转向的输入时使用的反馈。例如,如果AV 100遇到诸如山丘等的干扰1110,则AV 100的测量速率1112降至低于期望输出速率。在实施例中,任何测量输出1114均被提供至控制器1102,使得例如基于测量速率和期望输出之间的差分1113来进行所需的调整。测量输出1114包括测量位置1116、测量速度1118(包括速率和航向)、测量加速度1120和AV 100的传感器可测量的其它输出。
在实施例中,例如通过诸如照相机或LiDAR传感器等的传感器预先检测与干扰1110有关的信息,并且该信息被提供至预测性反馈模块1122。然后,预测性反馈模块1122将控制器1102可用于相应地调整的信息提供至控制器1102。例如,如果AV 100的传感器检测到(“看见”)山丘,则控制器1102可以使用该信息来准备在适当时间接合油门,以避免显著减速。
图12示出控制器1102的输入、输出和组件的框图1200。控制器1102具有影响油门/制动器控制器1204的操作的速率分析器1202。例如,速率分析器1202根据例如由控制器1102接收到并由速率分析器1202处理后的反馈,来指示油门/制动器控制器1204使用油门/制动器1206进行加速或进行减速。
控制器1102还具有影响方向盘控制器1210的操作的横向跟踪控制器1208。例如,横向跟踪控制器1208根据例如由控制器1102接收到并由横向跟踪控制器1208处理后的反馈,来指示方向盘控制器1210调整转向角致动器1212的位置。
控制器1102接收用于确定如何控制油门/制动器1206和转向角致动器1212的多个输入。规划模块404提供控制器1102例如选择AV 100开始操作时的航向并确定在AV 100到达十字交叉路口时驶过哪个道路路段所使用的信息。定位模块408例如将描述AV 100的当前地点的信息提供至控制器1102,使得控制器1102可以确定AV 100是否处于基于正控制油门/制动器1206和转向角致动器1212的方式而预期所处的地点。在实施例中,控制器1102接收来自其它输入1214的信息,例如从数据库、计算机网络等接收到的信息。
对象跟踪架构
图13示出说明例如在AV系统120中实现的对象跟踪系统1300的框图。对象检测器1302用于捕获可以包括自主运载工具(例如,AV 100)周围的区域的一个或多个图像的传感器数据、或者覆盖自主运载工具周围的区域的诸如RADAR或LiDAR数据等的非成像数据,并且对该传感器数据或非成像数据进行分析。传感器数据可以是由诸如高速照相机、摄像机(例如,照相机122)、LiDAR系统或RADAR系统等的对象检测器1302的捕获装置捕获到的。捕获装置通常将被配置为覆盖宽视场,以最小化跟踪接近自主运载工具的对象所需的捕获装置的数量。在一些实施例中,捕获装置可以采取具有非常适合于跟踪接近自主运载工具的对象的固定焦距和景深的宽视场成像装置的形式。对象检测器1302可以具有处理电路,该处理电路包括一个或多个处理器146,该一个或多个处理器146分析传感器数据,以识别和分类所检测到的对象(参见在伴随各个图1和图3的文本中对处理器146和304的说明)。视觉跟踪器可被配置为对在捕获装置所捕获到的一个或多个图像内包含的任何对象进行分析,而非成像传感器可被配置为基于诸如所检测到的移动和/或形状等的基于传感器的度量来进行分析。在一些实施例中,处理器146可被配置为执行例如主存储器306或其它存储介质(例如,存储装置310)中所存储的分类例程。分类例程可以是用于进行识别和/或分类处理的相关滤波器跟踪器、深度跟踪器和/或卡尔曼滤波器。分类例程可被配置为将静止对象(诸如灯杆、消防栓或建筑物等)与移动对象(诸如小汽车、卡车、摩托车或行人等)区分开。可以安全地忽略被分类为静止且完全位于自主运载工具的计划移动路径之外的对象(例如,超过与计划移动路径的阈值距离的对象),同时可以跟踪在计划移动路径内或接近计划移动路径的静止对象。在被确定为在运动中的对象以及被分类为移动对象的对象(无论是运动还是静止)在从计划移动路径起的阈值距离内时,可以将这些对象作为检测数据传递至跟踪器1304以供进一步分析和跟踪用。当从多个影像帧导出时的检测数据可以采取多个形式,并且包括诸如对象位置、速率、朝向、角速度和接近速度等的度量。不同类型的检测数据可以影响任何特定对象的阈值距离。例如,阈值距离可以取决于对象的行驶的方向和速率,并且可以在对象的行进的方向和速率改变时随时间的经过而改变。
跟踪器1304可被配置为从检测数据生成传感器踪迹。跟踪器1304可能需要多次检测来生成准确地预测所检测到的对象有可能遍历传感器的视场的速率的传感器踪迹。例如,光学系统可以生成采用相对于图像帧内的对象位置的图像面踪迹的形式的传感器踪迹,而非成像传感器可以从相对于传感器的方位角和仰角方面生成踪迹、或者可以针对AV100的朝向测量参考系。在一些实施例中,该检测数据以及在各图像捕获时的自主运载工具的位置数据可被从广义上称为跟踪数据。由跟踪器1304生成的传感器踪迹及其伴随的跟踪数据被转发到跟踪和融合引擎1306。
跟踪和融合引擎1306包括一个或多个处理电路,该一个或多个处理电路被配置为将传感器踪迹转换成地面踪迹。尽管将传感器踪迹转换成地面踪迹可以是有用的中间步骤,但应当理解,在一些实施例中,可以作为代替在单个步骤中进行地面踪迹的创建,其中在该单个步骤中,将检测数据和地图数据组合以形成地面踪迹。地面踪迹描述检测对象相对于地球表面的地点、而不是与传感器有关的地点。为了将传感器踪迹转换成地面踪迹,可以使用传感器视场内的传感器踪迹的地点和在各次图像捕获时的自主运载工具的地点来提供自主运载工具和相应的检测对象之间的方位线。可能很难以高精度水平从基于影像的数据来确定分离自主运载工具的精确距离。在一些实施例中,距离信息可以基于将检测对象周围的图像帧中的图像线索与同先前捕获到的影像相关联的已知地点相关。例如,通过确定方位线与由影像中可见的车道标记所限定的车道的交点,可以将具有汽车外观、相对于自主运载工具横向偏移且位于车道标记之间的对象的位置确定到合理的确定性水平。在从图像导出的车道与方位线之间的角度变大时,更高水平的横向偏移和更近的范围使得该类型的确定更准确。跟踪对象向诸如交通信号等的视觉上的不同特征以及图像帧内的其它可辨别对象的接近也可以帮助确定特定对象和自主运载工具之间的距离。在一些实施例中,距离信息可以由诸如RADAR、LiDAR或红外传感器等的单独距离传感器来确定。对于测距传感器的某些配置,测距传感器可以仅指向与从视觉上检测到对象的地点相对应的区域。
在使用方位和所确定的范围信息将传感器踪迹转换成地面踪迹之后,跟踪和融合系统1306可以基于例如地图数据来向地面踪迹添加附加的预测信息,以基于相对于地图数据的对象位置来更准确地确定对象的可能行为。地图数据可以包括诸如运载工具可以在特定交叉口处沿哪个方向转弯等的信息,由此限制位于特定车道中的运载工具将采取的可能行驶方向的数量。行为预测可以采取多个形式,并且依赖于以下将更详细地论述的许多不同因素。跟踪和融合系统1306可以将地面踪迹和预测信息转发到自主导航系统1308,以帮助自主导航系统1306确定自主运载工具的路径(例如,避免检测对象)。在一些实施例中,自主导航系统1306包括负责引导自主运载工具的导航的控制电路。
在一些实施例中,可以组合跟踪器1304以及跟踪和融合系统1306的功能,从而允许创建允许跳过中间踪迹类型的生成的单个类型的踪迹。
图14A示出例示关于跟踪器1304如何将检测数据转换成传感器踪迹的更详细说明的框图1400。特别地,将检测数据从对象检测器1302发送至踪迹生成器1402。检测数据可以采取多个形式,这些形式包括:自主运载工具和对象之间的范围、该范围的变化率、对象相对于自主运载工具的角朝向、以及对象的速度。踪迹生成器1402将该检测数据转换成传感器踪迹。传感器踪迹至少可以包括对象检测器1302所识别的各对象的检测位置。在从多于一个的影像帧生成检测数据的情况下,可以根据从这多个影像帧显而易见的对象跨图像帧的任何运动来确定诸如速度或帧穿过率等的附加度量。在一些实施例中,可以一次分析5-10个图像帧。例如,通过从每秒收集60个图像的光学传感器一次分析5-10个图像,可以利用考虑到所收集的每个图像的系统来每秒进行多达6-12次踪迹分析。例如每秒5-10个图像的较慢速率也可以减轻处理负担,并且存在预计很少的附近对象甚至无附近对象干扰自主运载工具的计划行驶路线的情形。在一些实施例中,采样速率可以基于存在以可能导致即将发生的碰撞的方式定位的任何感知对象而变化。应当注意,传感器捕获也可以跨不同的传感器类型而极大地变化。例如,如本领域普通技术人员所理解的,由于非成像传感器的检测事件可以采取单光子或反射无线电波的形式,因此非成像传感器与影像传感器相比可以具有采用高得多的速率的传感器读数。
然后,踪迹生成器1402生成传感器踪迹,这些传感器踪迹包括在特定时间检测对象相对于传感器的最少检测位置,并且将相同的踪迹ID指派至与各传感器踪迹相关联的各数据。所生成的传感器踪迹然后被发送至相关引擎1408。跟踪器1304还从踪迹数据存储装置1404接收活动踪迹数据。踪迹数据存储装置1404被示出为跟踪和融合系统1306的子组件,但在一些实施例中,踪迹数据存储装置1404可以与跟踪和融合系统1306分开。踪迹数据存储装置1404可以包传感器踪迹和地面踪迹这两者。在一些实施例中,踪迹数据可以被组织在可以包括相对于传感器的对象位置以及地面位置信息这两者的踪迹文件或对象中。由踪迹数据存储装置1404发送至跟踪器1304的活动踪迹数据可以由预测引擎1406处理。预测引擎1406可被配置为确定活动踪迹数据中所包括的各对象的可能位置。由于活动踪迹数据可以包括地面踪迹数据,因此预测引擎1406还可以得益于从地图数据导出的活动踪迹数据中所存储的任何如下的预测信息:该预测信息用于限制对象在比活动踪迹数据所包括的最新跟踪数据晚的特定时间点的可能移动。
预测引擎1406输出至少包括对象的预测位置的传感器踪迹。匹配引擎1408将从活动踪迹数据导出的对象的预测位置与来自踪迹生成器1402所生成的图像踪迹的对象的检测位置进行比较。在一些实施例中,诸如行驶方向和行驶速率、对象形状和对象颜色等的附加度量可以包括在该比较中。该比较帮助匹配引擎1408识别检测位置中的哪些检测位置与从踪迹数据存储装置1404提供的活动踪迹数据所生成的预测位置相关。在一些实施例中,不与活动踪迹的预测位置相关的任何传感器踪迹将被作为无任何历史跟踪数据的新踪迹转发到跟踪和融合系统1306。具有与预测位置相关的检测位置的图像踪迹文件可以与来自活动踪迹的数据组合。数据的组合可以包括将相同的踪迹ID指派至所有的组合跟踪数据。在一些实施例中,可以通过将对象的预测位置和检测位置一起进行平均来组合这些预测位置和检测位置。将预测位置和检测位置一起进行平均的方式可以基于各种因素(诸如与活动踪迹相关联的跟踪数据中的置信度水平以及对象检测数据的质量的置信度水平等)而不同。
图14B示出框图1410,其中除了踪迹数据存储装置1404被配置为将过时踪迹数据提供至匹配引擎1408以外,该框图1410包括以与图14A所述的相同方式工作的相同组件。过时踪迹是尚未由于太旧和/或具有不符合特定阈值的置信度水平而被删除的踪迹。过时踪迹保持在踪迹数据存储装置内的存储器中,直到这些过时踪迹与新跟踪数据相关并且符合活动踪迹分类标准、或者被删除为止。通常基于诸如跟踪数据年龄、相对于自主运载工具的对象位置、以及跟踪数据置信度等的因素来将活动踪迹标准和过时踪迹标准彼此区分开。例如,当踪迹的跟踪数据已在阈值时间段内被更新、以及/或者基于与踪迹相关联的对象的行驶位置和/或行驶方向被指派了阈值跟踪数据置信度水平的情况下,该踪迹可被视为活动踪迹。过时踪迹标准也可以至少部分基于在未检测到对象的情况下捕获到的图像帧的数量。在一些实施例中,跟踪数据置信度水平也可以基于构成跟踪数据的数据的时间一致性。数据的时间一致性是用于形成第二跟踪数据的传感器数据遵循预期趋势的紧密程度的度量。
考虑到在一些实施例中没有针对过时踪迹计算预测位置,过时踪迹数据的匹配标准可以主要基于对象的大小和形状。也可以考虑对象相对于传感器的朝向。例如,在所检测到的朝向和/或位置变化被视为引起了大小/形状的变化的情况下,仍可以匹配所检测到的具有相同的颜色但不同的大小和/或形状的对象。在这种情况下,可以忽视大小和/或形状数据,或者可以在匹配标准中至少较弱地对这些因素进行加权。也可以仅在尝试寻找与新生成的传感器踪迹其中之一匹配的活动踪迹之后才应用过时踪迹数据的匹配标准。在一些实施例中,与过时踪迹数据中所包括的一个或多个最新检测相关联的位置数据也可用作用于确定过时踪迹数据与同新生成的传感器踪迹相同的对象相关联的可能性的因素。例如,如果对象必须以不太可能的速率加速或减速以到达新检测位置,则与先前检测对象的相关性可被视为不符合匹配标准。当将过时踪迹数据与新生成的传感器踪迹组合时,匹配引擎1408通常将使用检测位置来代替尝试将检测位置与同过时踪迹数据相关联的任何预测位置信息进行平均。如关于旧跟踪数据和新跟踪数据的活动踪迹组合所述,可以通过向所有的跟踪数据指派相同的踪迹ID来组合旧数据和新数据。应当注意,在一些实施例中,预测引擎1406可被配置为在匹配引擎1408之前接收过时踪迹数据以允许预测引擎1406生成置信度水平特别高的过时踪迹数据的预测位置数据。例如,已被检测到打开车灯的停放小汽车的较旧位置数据即使在销售踪迹的年龄通常将无资格进行预测的情况下也仍可具有高置信度水平,由此允许过时踪迹数据用于帮助细化被视为有可能很快移动的停放小汽车的位置。
图14C示出例示与利用跟踪和融合系统1306的传感器踪迹的处理的不同具体实现有关的附加详情的框图。特别地,图14C示出如下:代替如在前面的图14A-14B中所述的跟踪器1304,跟踪和融合系统1306如何将新收集的跟踪数据与历史跟踪数据组合。在1422处,如前面在伴随图13的文本中所述,跟踪和融合系统1306被配置为将新的传感器踪迹转换成地面踪迹。在1424和1426处,将新的地面踪迹分别与较旧的活动和过时踪迹进行比较。过时踪迹是尚未由于太旧和/或不可靠而被删除、但也不符合活动踪迹分类标准的踪迹。通常基于诸如跟踪数据年龄、相对于自主运载工具的对象位置、以及跟踪数据置信度等的因素来将活动踪迹标准和过时踪迹标准彼此区分开。例如,当跟踪数据已在阈值时间段内被更新、以及/或者基于与踪迹相关联的对象的行驶位置和/或行驶方向被指派了阈值跟踪数据置信度水平的情况下,该踪迹可被视为活动踪迹。过时踪迹标准也可以至少部分基于在未检测到对象的情况下捕获到的图像帧的数量。在一些实施例中,跟踪数据置信度水平也可以基于构成跟踪数据的数据的时间一致性。
特别地,在1424处,将新转换得到的地面踪迹与活动踪迹进行比较。在1428处,将与较旧的活动踪迹符合匹配标准的新地面踪迹与匹配的活动踪迹融合,以形成单个更新活动踪迹。在一些实施例中,通过将新跟踪数据的踪迹ID指派至较旧活动踪迹的踪迹ID,将来自较旧活动踪迹的跟踪数据与来自新踪迹的跟踪数据融合。以这种方式,可以将与新地面踪迹相关联的传感器数据与较旧的跟踪数据组合,使得自主导航系统1308能够使用当前数据和历史数据这两者以更容易地预测对象的将来移动。在一些实施例中,可以将与较旧活动踪迹相关联的跟踪数据的踪迹ID改变为具有与新跟踪数据相关联的踪迹ID。新跟踪数据和旧跟踪数据之间的匹配标准可以基于自主运载工具的操作条件而变化,但该匹配标准通常是基于新地面踪迹根据与活动踪迹相关联的历史跟踪数据而接近于对象的预期或预计地点。
跟踪和融合系统1306可以可选地包括1426处的如下处理:将其余未匹配的地面踪迹与具有过时状况的较旧踪迹进行比较。这允许重新识别可能已临时被另一对象、太阳眩光、或者由于阴影/云引起的光照变化等遮掩的一些对象。在1430处,将与较旧过时踪迹其中之一符合匹配标准的未匹配地面踪迹与来自过时踪迹的数据融合,以生成单个更新活动踪迹,该单个更新活动踪迹被转发至自主导航系统1308。这样,可以将新传感器数据与较旧跟踪数据组合,使得自主导航系统1308能够使用当前数据和历史数据这两者来更好地预测对象的将来移动。匹配标准可以基于自主运载工具的操作条件而变化,但该匹配标准通常是基于新地面踪迹根据历史地面踪迹而位于对象的预期地点附近。应当注意,由于过时踪迹通常至少在短时间段内未被更新、这使得更难进行可靠预测,因此可靠地进行匹配过时踪迹可能更成问题。因此,供当前踪迹与较旧过时踪迹融合用的匹配标准与供活动踪迹用的匹配标准相比可以是更谨慎地配置的,以避免不匹配。这样,可以将新传感器数据可靠地与较旧跟踪数据组合,使得自主导航系统1308能够使用当前数据和历史数据这两者以在对象中的一个或多个在短时间段内未被检测到的情形中更容易地预测对象的将来行为。
当存在不与任何较旧的活动或过时踪迹匹配的新地面踪迹时,在1432处,可以在无任何历史跟踪数据的情况下将未匹配的地面踪迹转发至自主导航系统1308,以用于预测用以辅助导航自主运载工具的行为。
图15示出例示用于将新检测对象与在图14B的块1408处一般地说明的符合过时踪迹标准的踪迹相关联的方法的流程图。在1502处,通过处理电路执行存储介质(例如,主存储器306或存储装置310)上所存储的指令,将尚未与活动踪迹相关联的包括第一跟踪数据的新传感器踪迹与符合过时踪迹标准的踪迹中所包括的第二跟踪数据进行比较。应当注意,在块1408处进行的活动和过时踪迹匹配处理也可以同时进行,在这种情况下,在进行最终相关之前,甚至还将最终与活动踪迹相关联的新传感器踪迹与符合过时踪迹标准的踪迹进行比较。在1504处,第一跟踪数据和第二跟踪数据的比较可以由处理电路使用,以确定第一跟踪数据和第二跟踪数据是否共享足以符合匹配标准的类似特征。在一些实施例中,匹配标准可用于确定与新传感器踪迹和过时踪迹相关联的跟踪数据的差异与在同过时踪迹相关联的最新数据和用于生成新传感器踪迹的跟踪数据的收集时间之间所经过的时间段是否一致。
在1506处,可以将来自匹配踪迹的跟踪数据合并在一起以创建包含来自第一跟踪数据和第二跟踪数据这两者的信息的更新活动传感器踪迹。在一些实施例中,可以将从过时踪迹的跟踪数据所生成的对象的预测位置与来自新传感器踪迹的对象的检测位置组合,以提高对象的准确度。该类型的组合通常将在以下情况下进行:过时踪迹最近刚刚变得过时;以及/或者由于对象检测系统跟踪多个对象,因此预期将发生对象被另一被跟踪对象的遮掩、并且检测位置和预测位置之间的变化处于预期公差内。在将跟踪数据并入活动传感器踪迹之后,该传感器踪迹被转发至检测和跟踪系统1306,在该检测和跟踪系统1306处,活动传感器踪迹被转换成地面踪迹,然后被提供至自主导航系统1308,该自主导航系统1308允许控制电路使用地面踪迹中所包括的跟踪数据来导航自主运载工具。在一些实施例中,来自地面踪迹的跟踪数据可用于帮助自主运载工具避免与更新后的活动踪迹相关联的对象。应当理解,关于图15所述的方法在稍作修改的情况下,也可应用于来自图14C的块1430。
图16A-16B示出在自主运载工具接近交通交叉口时由位于自主运载工具上的对象检测系统捕获到的图像。特别地,图16A示出对象检测系统正如何跟踪运载工具1602。矩形标记1604指示活动踪迹正用于监视运载工具1602的活动。对象检测系统也正跟踪运载工具1606,这由矩形标记1608示出。尽管在该场景中示出许多其它运载工具,但为清楚起见,仅论述运载工具1602和1606的移动。此时也可以很好地建立与运载工具1602和1604这两者相关联的活动踪迹,并且这些活动踪迹包括至少多秒的跟踪数据。
图16B示出运载工具1606在通过运载工具1602的后方之后如何重新出现。当运载工具以这种方式被遮掩时,在某些情况下,与运载工具相关联的踪迹可以从活动踪迹转变为过时踪迹。在该特定示例中,由于运载工具1606在向交叉口的入口处变得模糊,因此由于运载工具1606的轨迹的不确定性,对运载工具1606的移动的外推变得不确定而不足以将关联踪迹标记为过时。例如,在运载工具1606被遮掩期间,运载工具1606可以继续通过交叉口,保持停止在交叉口处、或者开始在交叉口处右转。尽管运载工具遮掩是系统丢失对象的踪迹的一个原因,但其它因素也可能导致对象检测系统不能保持对特定对象的跟踪。例如,太阳眩光也可能阻止对运载工具1606的连续跟踪。跟踪丢失的其它原因包括由于光学传感器的透镜中固有的变形而引起的对象的变形,这阻止了跟踪系统继续将因透镜变形而变形的对象视为同一对象。
当运载工具1606从运载工具1602的后方重新出现时,如下的事实允许对象检测系统将从图16B所示的图像外推得到的运载工具1606的位置信息与在运载工具1606被运载工具1602遮掩之前在运载工具1606上收集到的跟踪数据相关联:运载工具1606的位置与运载工具1606的可能行驶路线其中之一一致(保持静止)并且运载工具1606的颜色和形状与在先前捕获到的图像中看到的颜色和形状一致。从图16A和16B所示的描绘图像应当理解,在某些情况下,改变运载工具1606后方的背景形状可能使运载工具1606的某个识别更加困难。在所描述的示例中,在运载工具1602继续通过交通交叉口时,建筑物1610的不同部分将位于运载工具1606的后方,从而改变运载工具1606后方的背景。在某个运载工具特征被误认为小汽车的特征的情况下,该变化可能会潜在地影响对象识别系统将旧跟踪数据与运载工具1606重新关联的能力。
在一些实施例中,在预计运载工具1606的移动时,也可以考虑由自主运载工具的对象跟踪系统或独立交通灯检测系统所捕获到的交通灯的活动。例如,一旦利用运载工具1606重新识别出先前的跟踪数据,运载工具1606在交叉口处的静止位置可以使得运载工具1606不太可能打算在右转红灯信号被批准的交叉口处进行右转。这样,对象检测系统可以预计到运载工具1606将继续在交叉口处保持静止,直到交通灯改变状态为止,此时运载工具1606可以继续通过交叉口或者左转穿过交叉口。
图17A-17C描绘在图16A-16B中描述的交叉口以及自主运载工具1702和光学传感器1704的顶视图。特别地,图17A和17C对应于在相应的图16A和16B中描述的图像。如前面所述,可以将在图16A和16B所示的图像中的运载工具1602和1606的位置转换成如图17A-17B所示的地面踪迹。将影像数据转换成基于地点的跟踪数据,这允许自主运载工具通过将对象的位置与地图数据相关来更准确地预测和避免该自主运载工具正跟踪的其它对象。由于地图包括诸如限速、车道的数量和位置、交通信号的位置和操作、以及停车位的位置等的信息,因此将跟踪数据与地图数据的融合允许与方向、速率和可能行为有关的甚至更多的确定性。例如,在已知为停车位的地点检测到的运载工具对象可被假定为维持其位置且不太可能从其位置移动。
图17B示出在图16A和16B所示的图像之间的运载工具的中间位置。特别地,图17B示出在运载工具1602离开自主运载工具1702的前方更远时、运载工具1602可以如何从视野中遮掩运载工具1606。该类型的对象遮掩可被称为对象遮挡。如前面所述,在没有向着运载工具1606的清晰视线的情况下,此时的对象检测系统仅可以猜测运载工具1606在停止期间采取了什么动作。在图17C中,运载工具1602不再遮掩运载工具1606的视线,从而允许对象检测系统重新获取运载工具1606。
图18示出例示前面在图14A的块1408处所述并进行的处理的附加详情的流程图。特别地,将匹配的传感器踪迹和活动踪迹相关联包括:在1802处,使用来自匹配的活动踪迹的跟踪数据来预测时间T0处的对象的第一位置。由于与活动踪迹相关联的跟踪数据可以包括在多个帧的过程中收集的位置数据,因此由于在单个位置的测量可能不准确,该预测位置与检测位置相比可以更加准确。在1804处,可以从构成最近转换得到的传感器踪迹的跟踪数据获得从时间T0捕获到的传感器数据中所提取的对象的第二位置。在1806处,代替将对象的第二位置登记为时间T0处的对象的位置,将时间T0处的对象的位置登记为第二位置和第一位置的加权平均值。该平均值的加权可以基于多个因素而变化,这些因素包括历史数据的一致性、在时间T0捕获到的传感器数据的质量、以及影响预测或检测位置是否被视为有可能更准确地表示时间T0处的对象的实际位置的其它因素。应当注意,尽管图18所述的检测和跟踪系统是有效的,但在替代实施例中,新跟踪数据可以仅包括检测位置,而未在更新地面踪迹的跟踪数据之前考虑预测位置这一因素。
在先前描述中,已经参考许多具体细节描述了本发明的实施例,这些具体细节可因实现而不同。因此,说明书和附图应被视为说明性的,而非限制性意义的。本发明范围的唯一且排他的指示、以及申请人期望是本发明范围的内容是以发布权利要求书的具体形式从本申请发布的权利要求书的字面和等同范围,包括任何后续修正。本文中明确阐述的用于被包括在此类权利要求中的术语的任何定义应当以此类术语如在权利要求书中所使用的意义为准。另外,当在先前的说明书或所附权利要求书使用术语“还包括”时,该短语的下文可以是附加的步骤或实体、或先前所述的步骤或实体的子步骤/子实体。
相关申请的交叉引用
本申请要求2019年12月27日提交的标题为“LONG-TERM OBJECT TRACKINGSUPPORTING AUTONOMOUS VEHICLE NAVIGATION”的美国临时专利申请62/954,264的权益,其全部内容通过引用而被包含于此。
Claims (23)
1.一种方法,包括:
使用自主运载工具的传感器来捕获传感器数据;
使用处理电路来从所述传感器数据检测对象,其中检测所述对象包括创建检测数据;
使用所述处理电路来将所述检测数据与第一跟踪数据相关联;
使用所述处理电路来获得符合过时踪迹标准的第二跟踪数据;
使用所述处理电路来将所述第一跟踪数据与所述第二跟踪数据进行比较;以及
根据确定为所述第一跟踪数据和所述第二跟踪数据的比较符合匹配标准,
使用所述处理电路来将所述第二跟踪数据与所述第一跟踪数据相关联;以及
使用控制电路,至少部分基于所述第二跟踪数据来导航所述自主运载工具。
2.根据权利要求1所述的方法,其中,所述检测数据包括所检测到的范围、范围变化率、角位置和速度至少之一。
3.根据权利要求1所述的方法,其中,所述第一跟踪数据被指派了第一踪迹ID。
4.根据权利要求3所述的方法,其中,使用所述处理电路来将所述第二跟踪数据与所述第一跟踪数据相关联包括:向所述第二跟踪数据指派所述第一踪迹ID。
5.根据权利要求1至4中任一项所述的方法,还包括:至少部分基于所述第一跟踪数据和所述第二跟踪数据来预测所述对象的将来位置。
6.根据权利要求5所述的方法,还包括:
捕获附加传感器数据;
从所述附加传感器数据生成新跟踪数据;以及
根据确定为所述新跟踪数据包括与所述对象的预测将来位置相对应的所述对象的位置,将指派至所述第一跟踪数据的踪迹ID指派至所述新跟踪数据。
7.根据权利要求1所述的方法,其中,所述过时踪迹标准至少部分基于跟踪数据年龄。
8.根据权利要求7所述的方法,其中,所述第二跟踪数据的跟踪数据置信度至少部分基于构成所述第二跟踪数据的数据的时间一致性。
9.根据权利要求1所述的方法,其中,所述第一跟踪数据还包括所述对象的速度、所述对象的形状、所述对象的大小、所述对象的颜色和所述对象的朝向至少之一。
10.根据权利要求1所述的方法,其中,所述第二跟踪数据由于发生了对象遮挡、光照变化和变形至少之一因而符合所述过时踪迹标准。
11.根据权利要求7至10中任一项所述的方法,其中,所述传感器数据包括影像,并且创建所述检测数据包括:从所述影像的包括所述对象的部分中提取视觉特征。
12.根据权利要求1所述的方法,其中,所述传感器是固定焦点成像传感器。
13.根据权利要求1所述的方法,其中,所述传感器是LiDAR传感器和RADAR传感器其中之一。
14.根据权利要求1所述的方法,其中,跟踪数据是由相关滤波器跟踪器、深度跟踪器和卡尔曼滤波器跟踪器至少之一生成的。
15.根据权利要求1所述的方法,其中,在与跟踪数据相关联的最新数据早于第一阈值时间段的情况下,符合所述过时踪迹标准。
16.根据权利要求15所述的方法,还包括:
根据确定为与跟踪数据相关联的最新数据早于比所述第一阈值时间段大的第二阈值时间段,删除被分类为过时的跟踪数据。
17.根据权利要求12至16中任一项所述的方法,其中,在所述第一跟踪数据中所包括的对象形状、大小和位置至少之一与所述第二跟踪数据中所包括的形状、大小或位置匹配的情况下,所述比较符合所述匹配标准。
18.根据权利要求17所述的方法,其中,
根据确定为所述第一跟踪数据和所述第二跟踪数据的差异是由于所述对象相对于所述传感器的朝向的变化而引起的,将所述第一跟踪数据与所述第二跟踪数据进行比较忽视由于所述对象相对于所述传感器的朝向的变化而引起的所述第一跟踪数据和所述第二跟踪数据的差异。
19.一种存储有指令的计算机可读存储介质,所述指令被配置为由计算装置的一个或多个电路执行,所述指令使得所述计算装置执行包括以下的步骤:
使用自主运载工具的传感器来捕获传感器数据;
使用处理电路来从所述传感器数据检测对象,其中检测所述对象包括创建检测数据;
使用所述处理电路来将所述检测数据与第一跟踪数据相关联;
使用所述处理电路来获得符合过时踪迹标准的第二跟踪数据;
使用所述处理电路来将所述第一跟踪数据与所述第二跟踪数据进行比较;以及
根据确定为所述第一跟踪数据和所述第二跟踪数据的比较符合匹配标准,
使用所述处理电路来将所述第二跟踪数据与所述第一跟踪数据相关联;以及
使用控制电路,至少部分基于所述第二跟踪数据来导航所述自主运载工具。
20.一种自主运载工具,包括:
传感器;
处理电路;
控制电路;以及
存储有一个或多个程序的存储器,所述一个或多个程序被配置为由所述自主运载工具的电路执行,所述一个或多个程序包括用于进行以下操作的指令:
使用所述传感器来捕获传感器数据;
使用所述处理电路来从所述传感器数据检测对象,其中检测所述对象包括创建检测数据;
使用所述处理电路来将所述检测数据与第一跟踪数据相关联;
使用所述处理电路来获得符合过时踪迹标准的第二跟踪数据;
使用所述处理电路来将所述第一跟踪数据与所述第二跟踪数据进行比较;以及
根据确定为所述第一跟踪数据和所述第二跟踪数据的比较符合匹配标准,
使用所述处理电路来将所述第二跟踪数据与所述第一跟踪数据相关联;以及
使用所述控制电路,至少部分基于所述第二跟踪数据来导航所述自主运载工具。
21.一种存储有指令的存储介质,所述指令在由一个或多个计算装置执行时,使得进行根据权利要求1至18中任一项所述的方法。
22.一种装置,包括:
处理电路;以及
存储有一个或多个程序的存储器,所述一个或多个程序被配置为由所述处理电路执行,所述一个或多个程序包括用于进行根据权利要求1至18中任一项所述的方法的指令。
23.一种装置,包括用于进行根据权利要求1至18中任一项所述的方法的部件。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962954264P | 2019-12-27 | 2019-12-27 | |
US62/954,264 | 2019-12-27 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113048995A true CN113048995A (zh) | 2021-06-29 |
Family
ID=74221216
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011578210.0A Withdrawn CN113048995A (zh) | 2019-12-27 | 2020-12-28 | 支持自主运载工具导航的长期对象跟踪 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11675366B2 (zh) |
KR (2) | KR102549266B1 (zh) |
CN (1) | CN113048995A (zh) |
DE (1) | DE102020134835A1 (zh) |
GB (2) | GB202305739D0 (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022527429A (ja) * | 2019-02-07 | 2022-06-02 | ボルボトラックコーポレーション | 車両のフリートを運用する方法及びシステム |
KR20200117261A (ko) * | 2019-04-03 | 2020-10-14 | 현대자동차주식회사 | 엣지 컴퓨팅을 이용한 자율 주행 셔틀 운행 방법 및 장치 |
US20210229641A1 (en) * | 2020-01-29 | 2021-07-29 | GM Global Technology Operations LLC | Determination of vehicle collision potential based on intersection scene |
US11625909B1 (en) * | 2022-05-04 | 2023-04-11 | Motional Ad Llc | Track segment cleaning of tracked objects |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090228204A1 (en) * | 2008-02-04 | 2009-09-10 | Tela Atlas North America, Inc. | System and method for map matching with sensor detected objects |
US20170124476A1 (en) * | 2015-11-04 | 2017-05-04 | Zoox, Inc. | Automated extraction of semantic information to enhance incremental mapping modifications for robotic vehicles |
CN108290579A (zh) * | 2015-11-04 | 2018-07-17 | 祖克斯有限公司 | 用于自主车辆的模拟系统和方法 |
CN109283549A (zh) * | 2017-07-19 | 2019-01-29 | 安波福技术有限公司 | 用于被遮挡对象的自动车辆激光雷达跟踪系统 |
JP2019517702A (ja) * | 2016-06-10 | 2019-06-24 | デューク・ユニバーシティDuke University | 自律型車両用動作計画及び再構成可能な動作計画プロセッサ |
US20190228232A1 (en) * | 2016-09-13 | 2019-07-25 | Genetec Inc. | Auto-calibration of tracking systems |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013188597A2 (en) | 2012-06-12 | 2013-12-19 | Amrit Bandyopadhyay | Irregular feature mapping |
US9791541B2 (en) * | 2014-12-19 | 2017-10-17 | The Boeing Company | System and method to improve object tracking using multiple tracking systems |
WO2017079341A2 (en) * | 2015-11-04 | 2017-05-11 | Zoox, Inc. | Automated extraction of semantic information to enhance incremental mapping modifications for robotic vehicles |
DE102016203472A1 (de) * | 2016-03-03 | 2017-09-07 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren und Verarbeitungseinheit zur Detektion von Objekten auf Basis von asynchronen Sensordaten |
US10585409B2 (en) | 2016-09-08 | 2020-03-10 | Mentor Graphics Corporation | Vehicle localization with map-matched sensor measurements |
KR102267040B1 (ko) * | 2016-11-23 | 2021-06-21 | 한국전자통신연구원 | 객체 인식 장치, 이를 포함하는 자율 주행 시스템, 및 객체 인식 장치를 이용한 객체 인식 방법 |
US11042155B2 (en) | 2017-06-06 | 2021-06-22 | Plusai Limited | Method and system for closed loop perception in autonomous driving vehicles |
US11966838B2 (en) | 2018-06-19 | 2024-04-23 | Nvidia Corporation | Behavior-guided path planning in autonomous machine applications |
-
2020
- 2020-12-16 US US17/124,288 patent/US11675366B2/en active Active
- 2020-12-23 GB GBGB2305739.1A patent/GB202305739D0/en not_active Ceased
- 2020-12-23 DE DE102020134835.5A patent/DE102020134835A1/de active Pending
- 2020-12-23 GB GB2020548.0A patent/GB2593264B/en active Active
- 2020-12-24 KR KR1020200183595A patent/KR102549266B1/ko active IP Right Grant
- 2020-12-28 CN CN202011578210.0A patent/CN113048995A/zh not_active Withdrawn
-
2023
- 2023-06-23 KR KR1020230080933A patent/KR20230119069A/ko active Application Filing
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090228204A1 (en) * | 2008-02-04 | 2009-09-10 | Tela Atlas North America, Inc. | System and method for map matching with sensor detected objects |
US20170124476A1 (en) * | 2015-11-04 | 2017-05-04 | Zoox, Inc. | Automated extraction of semantic information to enhance incremental mapping modifications for robotic vehicles |
CN108290579A (zh) * | 2015-11-04 | 2018-07-17 | 祖克斯有限公司 | 用于自主车辆的模拟系统和方法 |
JP2019517702A (ja) * | 2016-06-10 | 2019-06-24 | デューク・ユニバーシティDuke University | 自律型車両用動作計画及び再構成可能な動作計画プロセッサ |
US20190228232A1 (en) * | 2016-09-13 | 2019-07-25 | Genetec Inc. | Auto-calibration of tracking systems |
CN109283549A (zh) * | 2017-07-19 | 2019-01-29 | 安波福技术有限公司 | 用于被遮挡对象的自动车辆激光雷达跟踪系统 |
Also Published As
Publication number | Publication date |
---|---|
GB2593264A (en) | 2021-09-22 |
GB202020548D0 (en) | 2021-02-03 |
DE102020134835A1 (de) | 2021-07-01 |
KR102549266B1 (ko) | 2023-06-28 |
US20210200238A1 (en) | 2021-07-01 |
GB202305739D0 (en) | 2023-05-31 |
GB2593264B (en) | 2023-06-07 |
US11675366B2 (en) | 2023-06-13 |
KR20210084313A (ko) | 2021-07-07 |
KR20230119069A (ko) | 2023-08-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DK180774B1 (en) | Automatic annotation of environmental features in a map during navigation of a vehicle | |
KR102537412B1 (ko) | Radar를 사용한 확장 대상체 추적 | |
KR102593948B1 (ko) | 주석 달기를 위한 데이터 샘플의 자동 선택 | |
CN112703423B (zh) | 合并来自多个LiDAR装置的数据 | |
KR102552520B1 (ko) | 융합된 카메라/LiDAR 데이터 포인트를 사용한 자동화된 대상체 주석 달기 | |
CN111915917A (zh) | 用于规划和更新运载工具的轨迹的系统和方法 | |
CN113012187A (zh) | 使用曲面拟合的前景提取 | |
CN111664854A (zh) | 物体位置指示器系统和方法 | |
KR102549266B1 (ko) | 자율 주행 차량 운행을 지원하는 장기 대상체 추적 | |
KR102543567B1 (ko) | 자율 주행 차량 운행을 지원하는 대상체 추적 | |
KR102410182B1 (ko) | 환경의 미리 정의된 특징부에 기초한 로컬화 | |
EP4163595A1 (en) | Automatic annotation of environmental features in a map during navigation of a vehicle | |
CN113156935A (zh) | 用于交通灯检测的系统和方法 | |
US20220185324A1 (en) | Merging LiDAR Information and Camera Information | |
CN113176584A (zh) | 解决传感器回波中的距变率模糊 | |
KR20220012804A (ko) | 이미지 시맨틱스 네트워크로부터의 단안 3d 대상체 검출 | |
CN115079687A (zh) | 用于自主运载工具的系统、方法和存储介质 | |
CN112486163A (zh) | 基于导航信息的可用性的自主运载工具的操作 | |
CN113196356A (zh) | 交通灯估计 | |
CN115220439A (zh) | 用于运载工具的系统和方法以及存储介质 | |
CN115016452A (zh) | 用于运载工具的系统和方法以及计算机可读介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20210629 |