CN113906271A - 用于自主机器应用的使用地图信息增强的地面实况数据的神经网络训练 - Google Patents

用于自主机器应用的使用地图信息增强的地面实况数据的神经网络训练 Download PDF

Info

Publication number
CN113906271A
CN113906271A CN202080041221.7A CN202080041221A CN113906271A CN 113906271 A CN113906271 A CN 113906271A CN 202080041221 A CN202080041221 A CN 202080041221A CN 113906271 A CN113906271 A CN 113906271A
Authority
CN
China
Prior art keywords
data
vehicle
map
sensor
ground truth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202080041221.7A
Other languages
English (en)
Inventor
M·博亚尔斯基
U·穆勒
B·菲尔纳
A·阿克巴扎德
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nvidia Corp
Original Assignee
Nvidia Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nvidia Corp filed Critical Nvidia Corp
Publication of CN113906271A publication Critical patent/CN113906271A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/04Traffic conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0027Planning or execution of driving tasks using trajectory prediction for other traffic participants
    • B60W60/00274Planning or execution of driving tasks using trajectory prediction for other traffic participants considering possible movement changes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/40Correcting position, velocity or attitude
    • G01S19/41Differential correction, e.g. DGPS [differential GPS]
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0002Automatic control, details of type of controller or control system architecture
    • B60W2050/0018Method for the design of a control system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0062Adapting control system settings
    • B60W2050/0075Automatic parameter input, automatic initialising or calibrating means
    • B60W2050/0083Setting, resetting, calibration
    • B60W2050/0088Adaptive recalibration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2400/00Indexing codes relating to detected, measured or calculated conditions or factors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/54Audio sensitive means, e.g. ultrasound
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/40High definition maps
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Data Mining & Analysis (AREA)
  • Medical Informatics (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)
  • Image Analysis (AREA)

Abstract

在各种示例中,由自主机器的一个或更多个传感器生成的训练传感器数据可以被定位为高清(HD)地图数据,在实施例中,用于例如自动地增强和/或生成地面实况数据。地面实况数据可与训练传感器数据相关联,用于训练一个或更多个深度神经网络(DNN)以计算与自主机器操作相对应的输出——例如对象或特征检测、道路特征检测和分类、等待条件识别和分类等。因此,可以在训练期间利用高清地图数据,以便DNN在部署中可以帮助自主机器安全地导航环境,而无需依赖于高清地图数据这样做。

Description

用于自主机器应用的使用地图信息增强的地面实况数据的神 经网络训练
背景技术
为了让自主车辆在环境中安全导航,车辆可依赖于与车辆打算运行的区域相对应的高清(HD)地图。由于高清地图具有详细、三维、高精度的性质,事实证明,根据高清地图数据进行导航已被证明对于在高清地图信息可用的环境中进行安全导航是有效的。然而,在某些情况下,高清地图信息不可用、不准确或不最新,和/或可能不能(至少完全)依赖高清地图来帮助在环境中导航。在这种情况下,常规方法利用车辆的车载传感器——例如视觉传感器(例如相机、LIDAR、RADAR等)——来检测对象、道路特征(例如车道标记、道路边缘等)、自由空间边界、等待条件信息、路口结构和姿态等。例如,可以利用深度神经网络(DNN)来处理来自车载传感器的传感器数据并计算与上述任何操作相对应的输出。
然而,为了取得成功并在自主操作所需的精度水平上执行,DNN需要大量不同的训练数据和训练期间与之对应的地面实况数据(例如,标签、注释等)。地面实况数据可以包括例如识别车道标记或道路边缘的折线、围绕对象或环境特征的边界框和/或其他地面实况数据类型。生成地面实况数据的过程需要大量的手动工作,并且通常是基于DNN产品的成本和开发时间的重要组成部分——例如,用于训练数据实例(例如,图像)的单组地面实况数据可能需要超过20分钟的标记或注释工作。此外,手动标记可能不会产生使DNN尽可能准确地执行的地面实况数据——例如,由于标记或注释过程中的人为错误。因此,在高清地图不可用的情况下,DNN可能无法按安全自主操作所需的准确度执行和/或可能需要大量成本和手动工作来实现。
发明内容
本公开的实施例涉及利用地图信息来生成用于训练自主机器应用的神经网络的地面实况数据。公开了使用定位技术来确定对应于高清(HD)地图的信息的系统和方法,所述高清(HD)地图对应于使用自主机器的一个或更多个传感器捕获的训练数据(例如,图像、置信度图、LIDAR数据、RADAR数据等)。然后可以利用来自HD地图的信息来生成与训练数据相对应的训练标签、注释或其他地面实况数据,以训练一个或更多个神经网络来执行与自主机器操作(例如,对象检测、等待条件分析、道路结构确定、定位、特征检测等)相对应的计算。
与诸如上述那些的常规系统相比,本公开的实施例将HD地图数据与深度神经网络(DNN)的训练相结合以解决HD地图以及DNN的常规训练过程中的缺陷或缺点。例如,准确和最新的高清地图的有限覆盖范围可以通过使用地面实况数据训练的DNN来解决,所述地面实况数据是使用高清地图生成的并且对应于在高清地图准确和最新的区域内捕获的传感器数据。此外,可以使用从高清地图信息自动生成准确的地面实况数据来补救常规DNN训练技术的昂贵且可能不准确的地面实况生成过程。因此,DNN的训练在时间和人工方面的成本可能会大大降低,并且由此产生的可用于辅助自主机器各种操作的DNN可能更加准确和可靠——尤其是在高清地图信息不可用或不是最新的位置。
附图说明
下面参考所附附图详细描述利用地图信息来生成用于训练自主机器应用的神经网络的地面实况数据的本系统和方法,其中:
图1包括根据本公开的一些实施例的用于将训练数据定位到高清(HD)地图数据以增强或生成用于训练深度神经网络(DNN)的标签的过程的示例数据流程图;
图2A描绘了根据本公开的一些实施例的对应于道路特征的自动生成的地面实况标签的示例可视化;
图2B描绘了根据本公开的一些实施例的对应于路口检测和分类的自动生成的地面实况标签的示例可视化;
图2C描绘了根据本公开的一些实施例的与包括杆、道路标记、车道线、道路边界和人行横道的环境特征相对应的自动生成的地面实况标签的示例可视化;
图3描绘了根据本公开的一些实施例的对应于与行驶车道的中心或轨道的偏离的示例直方图;
图4是示出根据本公开的一些实施例的用于将训练数据定位到HD地图数据以增强或生成用于训练DNN的标签的方法的流程图;
图5A是根据本公开的一些实施例的示例自主车辆的图示;
图5B是根据本公开的一些实施例的图5A的示例自主车辆的相机位置和视场的示例;
图5C是根据本公开的一些实施例的图5A的示例自主车辆的示例系统架构的框图;
图5D是根据本公开的一些实施例的的基于云的服务器和图5A的示例自主车辆之间的通信的系统图;以及
图6是适合用于实现本公开的一些实施例的示例计算设备的框图。
具体实施方式
公开了与利用地图信息生成地面实况数据以用于训练用于自主机器应用的神经网络相关的系统和方法。虽然本公开可以关于示例自主车辆500(在本文中可替代地称为“车辆500”、“自我车辆500”、“数据收集车辆500”或“动态参与者(actor)500”,其示例相对于图5A-5D进行描述)进行描述,但这不是限制性的。例如,本文描述的系统和方法可以由但不限于非自主车辆、半自主车辆(例如,在一个或更多个自适应驾驶辅助系统(ADAS)中)、机器人、仓库车辆、越野车、飞船、船只、穿梭车、应急响应车辆、摩托车、电动或机动自行车、飞机、工程车辆、水下航行器、无人机、和/或其他车辆类型使用。此外,虽然本公开可以关于自主驾驶或ADAS系统进行描述,但这并不旨在进行限制。例如,本文描述的系统和方法可以用于生成用于训练深度神经网络(DNN)的地面实况数据,以在模拟环境、机器人技术(例如,使用室内环境、室外环境、仓库等的地图信息)、航空系统、船舶系统和/或其他技术领域中实现。
参考图1,图1包括根据本公开的一些实施例的将训练数据定位到高清(HD)地图数据以增强或生成用于训练深度神经网络(DNN)的标签的过程100的示例数据流程图。尽管可以关于自主车辆500和/或示例计算设备600(图6)来描述过程100,但这并不旨在进行限制。应当理解,本文描述的这种和其他布置仅作为示例提出。除了所示的那些之外或代替所示的那些,可以使用其他布置和元件(例如,机器、接口、功能、顺序、功能分组等),并且可以完全省略一些元件。此外,本文描述的许多元件是功能实体,其可以被实现为离散或分布式组件或与其他组件结合,并且以任何合适的组合和位置来实现。本文描述为由实体执行的各种功能可以由硬件、固件和/或软件来执行。例如,各种功能可以由执行存储在存储器中的指令的处理器来执行。
过程100可以包括从数据收集车辆500(其可以类似于车辆500,或者可以包括非自主或半自主车辆)的一个或更多个传感器生成和/或接收传感器数据102。传感器数据102可在过程100内用于定位、关联和地面实况生成,以及用于深度神经网络(DNN)116的输入数据。传感器数据102可包括但不限于来自任何类型的传感器的传感器数据102,例如但不限于本文关于车辆500和/或其他车辆或对象(例如机器人设备、VR系统、AR系统等,在一些示例中)描述的那些。对于非限制性示例,并参考图5A-5C,传感器数据102可以包括但不限于由全球导航卫星系统(GNSS)传感器558(例如,全球定位系统(GPS)传感器、差分GPS(DGPS)传感器等)、RADAR传感器560、超声波传感器562、LIDAR传感器564、惯性测量单元(IMU)传感器566(例如加速度计、陀螺仪、磁罗盘、磁力计等)、麦克风596、立体相机568、广角相机570(例如鱼眼相机)、红外相机572、环绕相机574(例如,360度相机)、远程和/或中程相机598、速度传感器544(例如,用于测量数据收集车辆的速度和/或行进距离)和/或其他传感器类型生成的数据。
在一些示例中,传感器数据102可以包括由一个或更多个前向传感器、侧视传感器和/或后视传感器生成的传感器数据。该传感器数据102可用于识别、检测、分类和/或跟踪环境内数据收集车辆周围的对象——例如,用于定位、与HD地图104关联、地面实况生成等。在实施例中,可以使用任意数量的传感器来合并多个视场(例如,图5B的远程相机598、前向立体相机568和/或前向广角相机570的视场)和/或感测场(例如,LIDAR传感器564、RADAR传感器560等的)。
在一些实施例中,传感器数据102可以包括表示图像的图像数据、表示视频的图像数据(例如,视频的快照)和/或表示传感器的感测场的表示的传感器数据(例如,用于LIDAR传感器的深度图、超声波传感器的值图等)。在传感器数据102包括图像数据的情况下,可以使用任何类型的图像数据格式,例如但不限于,诸如联合图像专家组(JPEG)或亮度/色度(YUV)格式的压缩图像、作为源自压缩视频格式(例如H.264/高级视频编码(AVC)或H.265/高效视频编码(HEVC))的帧的压缩图像,原始图像(例如源自红色透明蓝色(RCCB)、红色透明(RCCC)、或其他类型的成像传感器),和/或其他格式。此外,在一些示例中,传感器数据102可以在没有任何预处理(例如,以原始或捕获格式)的情况下在过程100内使用,而在其他示例中,传感器数据102可以经历预处理(例如、噪声平衡、去马赛克、缩放、裁剪、增强、白平衡、色调曲线调整等,例如使用传感器数据预处理器(未示出))。如本文所使用的,传感器数据102可以参考未处理的传感器数据、预处理的传感器数据或其组合。
此外,过程100可包括从地图——例如HD地图104(其可以类似于图5C的HD地图522)——生成和/或接收地图数据,其可由数据收集车辆500访问和/或由数据收集车辆500存储。在一些实施例中,HD地图104和/或定位器106可以是HD地图管理器的组件。在一些实施例中,高清地图104可包括厘米级或更精细的精度,使得数据收集车辆500可以依靠高清地图104进行精确的指令、规划和定位。HD地图104可以表示车道、道路边界、道路形状、海拔、坡度和/或等高线、航向信息、等待条件、静态对象位置和/或其他信息。因此,过程100可以使用来自HD地图104的信息——例如车道的位置和形状——来生成用于训练DNN 116的地面实况数据。虽然在本文中被描述为HD地图104,但这并不旨在限制,并且地图数据可以从精度高于或低于HD地图104的任何类型的地图生成。例如,并且在不脱离本公开的范围的情况下,除了或替代地使用从高清地图104生成的地图数据,还可以使用从导航或GPS应用程序生成的地图数据。
传感器数据102和地图数据(例如,来自HD地图104)可由定位器106使用以相对于HD地图104定位(例如,对于位置和/或方位(orientation))数据收集车辆500。例如,由基于位置的传感器(例如,GNSS传感器558)生成的传感器数据102可用于确定数据收集车辆500在HD地图104上的大致位置。该信息可用于确定HD地图104的区域,其应该被分析以在HD地图104内准确地定位数据收集车辆500。例如,由基于视觉的传感器——例如相机、RADAR传感器560、超声波传感器562、LIDAR传感器564和/或其他传感器——生成的传感器数据102可用于识别在使用基于位置的传感器确定的HD地图104的区域内具有已知和准确位置的环境内的特征和/或对象。一旦车辆500第一次被定位在高清地图104内,车辆500随时间的位置和/或方位可以使用相同的定位技术来跟踪——例如,使用基于视觉的传感器来识别在HD地图104中具有已知位置的对象和/或特征——和/或可以使用由车辆500的自我运动传感器(例如,IMU传感器566、速度传感器544、转向传感器540跟踪方向盘角度等)生成的传感器数据102进行跟踪。例如,一旦车辆500被初始定位,自我运动传感器可用于准确地跟踪车辆500的位置和/或方位随时间的变化。然而,即使在使用自我运动传感器的情况下,也可以周期性地(例如,每3秒、每10秒等)执行使用基于视觉的传感器的定位技术,以重新校准系统,以在高清地图104内定位车辆500。
在一些非限制性实施例中,传感器数据102和/或来自高清地图104的信息可以应用于坐标变换器,以将传感器数据102和/或高清地图104变换到车辆500的坐标系和/或将地图数据从HD地图104变换到传感器数据102的坐标空间(例如,以将3D世界空间地图数据变换到2D图像空间或传感器空间)。为了使坐标变换器108执行本文描述的变换或转移(shift),内在的(例如,光学中心、焦距等)和/或外在的(例如,传感器在车辆500上的位置、旋转、平移等)传感器的参数可用于确定HD地图104上的2D像素位置(或其他图像或传感器空间位置)与2D或3D世界空间位置之间的相关性。
例如,坐标变换器108可以相对于车辆500和/或相对于捕获传感器数据102的实例的传感器的视场来定向高清地图104。在一些实施例中,坐标变换器108可以相对于数据收集车辆500和/或其传感器的位置和/或方位转移地图数据的视角。因此,可由地面实况生成器112用来生成地面实况数据的HD地图104的部分可以相对于车辆500(例如,其中数据收集车辆500在中心,在(x,y)坐标为(0,0)处,其中y是从车辆的前部到后部延伸的纵向尺寸,x是垂直于y并从车辆的左侧至右侧延伸的横向尺寸)和/或其传感器(例如,生成对应于高清地图104的传感器数据102的实例的传感器的视场或感测场)转移。在一些实施例中,除了或替代地相对于车辆500和/或其传感器转移视角或坐标系,坐标变换器108还可以针对每种类型的数据将视角转移到相同的视场。例如,在HD地图104可以从环境的自上而下的视角生成数据的情况下,生成传感器数据102的传感器可以从不同的视角这样做——例如正面、侧面、向下倾斜、倾斜向上等。因此,为了从相同的视角生成地面实况数据,坐标变换器108可以将传感器数据102和/或地图数据调整到相同的视角。在一些非限制性实施例中,传感器数据102和HD地图104中的每一个可以被转移到HD地图104的自上而下视图视角或坐标系、传感器数据102的坐标系或视角,和/或其他视角或坐标系。
除了坐标变换器108将高清地图104的坐标系转移或变换到车辆500和/或其传感器的坐标系或替代地,在一些实施例中,坐标变换器108可以将地图数据转移或变换到传感器数据102的坐标系或维度。例如,在训练DNN 116以计算2D图像空间中的输出118的情况下,地图数据可以从2D或3D世界空间坐标变换或转移到2D图像或传感器空间坐标。作为另一个示例,在训练DNN 116以计算3D世界空间中的输出118的情况下,即使输入到DNN 116的传感器数据102表示二维空间中的传感器数据表示,也可能不会将地图数据变换或转移到2D图像空间。因此,DNN 116可以被训练以计算2D或3D世界空间坐标中的输出118,并且因此,为训练DNN 116而生成的地面实况可以对应于2D或3D世界空间坐标系。在至少一些实施例中,地面实况所对应的传感器数据102中的一些(例如,特征、对象等,由其表示)或全部可以由坐标变换器108从2D图像空间或传感器空间转换到2D或3D世界空间,以生成对应于2D或3D世界空间的地面实况。
一旦定位器106已执行定位,和/或传感器数据102和/或地图数据已由坐标变换器108变换或转移,相关器110(其可包括或替代地在本文中称为特征确定器110)可以将地图数据与传感器数据102相关联。例如,根据要生成的地面实况数据的类型,相关器可以确定由地图数据表示的特征和/或对象与由传感器数据102表示的特征和/或对象间的相关性。例如,在训练DNN 116以预测车道线、分隔线和/或驾驶表面的其他特征的位置的情况下,表示车道线、分隔线和/或其他特征的地图数据可以与每个传感器数据实例(例如,每个图像或帧)处的传感器数据102相关(例如,类似于图2A的可视化200)。作为另一个示例,在训练DNN 116以生成轨迹的情况下,如本文所述,相关器110可以确定与地面实况轨迹相对应的车道的轨道(例如,中心),使得地面实况生成器112可以生成最终的地面实况轨迹,其更紧密地对应于车道的轨道或以车道的轨道为中心(例如,类似于图2A的可视化200)。作为进一步的示例,在训练DNN 116以生成对应于路口的输出(例如,对应于包围路口的边界形状的边界形状顶点)的情况下,相关器110可以确定与路口相对应的路口的每个特征(例如,交通灯、交通标志、驾驶表面上的标签或标记等),使得地面实况生成器112可以生成包含每个特征的边界形状(例如,类似于图2B的可视化240)。
根据DNN 116被训练为计算的输出118和输出118的格式,地面实况生成器112可以使用传感器数据102和/或来自HD地图104的地图数据生成地面实况数据。例如,在训练DNN116以生成与定义车道的折线的点相对应的输出的情况下,地面实况生成器112可以通过从地图数据确定沿车道标记的点(以某个增量),并将这些点与折线的点相关联,来从地图数据生成地面实况数据。因此,当DNN 116生成对应于折线点的输出118时,可以由训练引擎114(例如,使用一个或更多个损失函数)比较由地面实况生成器112生成的地面实况数据与来自输出118的点,以确定对DNN 116的参数(例如,权重和偏差)的更新。
类似地,在DNN 116被训练为预测与路口的边界形状相对应的输出118的情况下,地面实况生成器112可以根据DNN 116的预测的格式生成地面实况边界形状。例如,DNN 116可以被训练以将边界形状坐标输出为2D图像空间中边界形状的两个或更多个顶点的像素位置,因此,地面实况生成器112可以根据这种格式生成地面实况数据——例如,通过生成与边界形状的两个或更多个顶点的位置相对应的地面实况数据。作为另一个示例,DNN 116可以被训练为输出边界形状坐标作为边界形状的质心的像素位置和2D图像空间中的尺寸(例如,高度和宽度),因此,地面实况生成器112可以根据这种格式生成地面实况数据——例如,通过生成与质心的位置和边界形状的尺寸相对应的地面实况数据。作为进一步的示例,DNN 116可以被训练为将边界形状坐标输出为边界形状的两个或更多个顶点在3D世界空间中的位置,并且因此,地面实况生成器112可以根据这种格式生成地面实况数据——例如,通过生成与边界形状的两个或更多个顶点在3D世界空间中的位置相对应的地面实况数据。
在一些实施例中,取决于传感器数据102的任何预处理,地面实况生成器112可以补偿地面实况数据的生成中的预处理。例如,在对传感器数据102的实例(例如,图像、深度图等)进行预处理的情况下——例如,通过调整空间分辨率、翻转、旋转、裁剪、缩放、增强等——地面实况生成器112可能会考虑生成地面实况数据中的这些变化。例如,在一些实施例中,可以以某种方式调整传感器数据102的每个实例。在这样的示例中,地面实况生成器112可以针对地面实况数据的每个实例相应地调整地面实况数据(例如,在由传感器数据102表示的每个图像被裁剪的情况下,地面实况数据的每个实例可以被调整为考虑裁剪)。在其他示例中,传感器数据102的一些实例可以被调整,而其他实例可能不会——例如,以将DNN 116训练为不过度拟合并且准确地计算跨任何传感器数据实例变化的输出118。在这样的示例中,地面实况生成器112可以接收表示对传感器数据102的实例的调整的数据,并且可以在生成地面实况数据时补偿这些调整。例如,如果传感器数据102的第一实例没有改变,则可以正常生成地面实况数据,但是在传感器数据102的第二实例在输入到DNN 116之前被旋转的情况下,地面实况生成器112可以通过类似地旋转地面实况数据以对应于传感器数据102的旋转实例来考虑这个。
一旦生成了地面实况数据——在实施例中自动地——地面实况数据可以由训练引擎114用来训练DNN 116。例如,传感器数据102可以被应用到DNN 116,DNN 116可以生成输出118,训练引擎114可以使用一个或更多个损失函数鉴于来自地面实况生成器112的地面实况数据来分析输出118,并且可以使用训练引擎114的计算来更新DNN 116,直到DNN116收敛到理想或可接受的精度。
取决于实施例,DNN 116可以包括任何类型的DNN或机器学习模型。例如但不限于,DNN 116可以包括任何类型的机器学习模型,例如使用线性回归、逻辑回归、决策树、支持向量机(SVM)、朴素贝叶斯、k-最近邻(Knn),K均值聚类、随机森林、降维算法、梯度提升算法、神经网络(例如,自动编码器、卷积、循环、感知器、长/短期记忆/LSTM、霍普菲尔德、玻尔兹曼、深度信念、解卷积、生成对抗、液体状态机等)、车道检测算法、计算机视觉算法的机器学习模型和/或其他类型的机器学习模型。
作为示例,例如在DNN 116包括CNN的情况下,DNN 116可以包括任意数量的层。多个层中的一个或更多个层可以包括输入层。输入层可以保存与传感器数据102相关联的值(例如,在后处理之前或之后)。例如,当传感器数据102是图像时,输入层可以将表示图像的原始像素值的值保存为体(例如,宽度、高度和颜色通道(例如,RGB),例如32x32x3)。
一个或更多个层可以包括卷积层。卷积层可以计算连接到输入层中局部区域的神经元的输出,每个神经元计算它们的权重与它们在输入体中连接到的小区域之间的点积。卷积层的结果可能是另一个体,其中一个维度基于应用的滤波器的数量(例如,宽度、高度和滤波器数量,例如32x32x12,如果12是滤波器的数量)。
一个或更多个层可以包括整流线性单元(ReLU)层。例如,ReLU层可以应用逐元素激活函数,例如max(0,x)、例如阈值设置为零。ReLU层的结果体可能与ReLU层的输入的体相同。
一个或更多个层可以包括池化层。池化层可以沿着空间维度(例如,高度和宽度)执行下采样操作,这可能导致比池化层的输入更小的体(例如,来自32x32 x12输入体的16x16x12)。
一个或更多个层可包括一个或更多个全连接层。全连接层中的每个神经元都可以连接到在前体中的每个神经元。全连接层可以计算类分数,结果体可以是1x1x类数。在一些示例中,CNN可以包括一个或更多个全连接层,使得CNN的一个或更多个层的输出可以作为输入提供给CNN的一个或更多个全连接层。在一些示例中,一个或更多个卷积流可以由DNN116实现,并且一些或所有卷积流可以包括相应的全连接层。
在一些非限制性实施例中,DNN 116可以包括一系列卷积层和最大池化层,用于促进图像特征提取,随后是多尺度膨胀卷积层和上采样层,用于促进全局上下文特征提取。
尽管本文关于DNN 116讨论了输入层、卷积层、池化层、ReLU层和全连接层,但这并不旨在进行限制。例如,可以在DNN 116中使用附加层或替代层,例如归一化层、SoftMax层和/或其他层类型。
在DNN 116包括CNN的实施例中,可以使用CNN的不同顺序和数量的层,这取决于实施例。换言之,DNN 116的层的顺序和数量不限于任何一种架构。
此外,某些层可包括参数(例如权重和/或偏差),例如卷积层和全连接层,而其他层可能不包括例如ReLU层和池化层。在一些示例中,参数可以在训练期间由DNN 116学习。此外,一些层可包括额外的超参数(例如,学习率、步幅、时期等),例如卷积层、全连接层和池化层,而其他层可能不包括,例如ReLU层。参数和超参数不受限制并且可以根据实施例而不同。
现在参考图2A-2C,图2A-2C包括表示使用过程100自动生成地面实况的各种实例的示例可视化。本文描述的可视化仅用于示例目的,并不旨在限制本公开的范围。参考图2A,图2A描绘了根据本公开的一些实施例的对应于道路特征的自动生成的地面实况标签的示例可视化200。可视化200可以表示传感器数据102(例如,图像)的实例和可以使用来自HD地图104的地图数据和/或来自自我运动传感器数据的轨迹信息生成的相应地面实况数据。例如,在将DNN 116训练为预测道路特征(例如,车道轨道或中心、车道分隔线、道路边界等)的情况下,从地图数据生成的地面实况数据可包括可视化200中的每个地面实况标签。在一个或更多个实施例中,地面实况标签可以包括除了自我轨迹202(在此更详细地描述)之外的所有标签。例如,在车辆500被定位到高清地图104之后,坐标变换器108相对于车辆500、其传感器和/或传感器数据102的坐标系或维度空间来定向地图数据,相关器110可以确定每个道路边界204(例如,204A和204B)、每个车道分隔线206(例如,206A-206D)、每个车道轨道210(例如,210A-210C、208)和/或道路的其他特征以及它们相对于传感器数据的实例的相应位置。地面实况生成器112然后可以按照DNN 116被训练为预测输出的格式从对应于这些特征的每个标签生成地面实况数据,如本文所述。
作为另一个示例,再次参照图2A,来自HD地图的地图数据可用于增强其他地面实况数据。例如,在使用自我运动传感器自动生成自我轨迹202的情况下,自我轨迹202可以被调整为更紧密地对应于与车辆500的行驶车道相对应的车道轨道208。因此,地面实况生成器112可以生成对应于车道轨道208而不是自我轨迹202的最终地面实况轨迹——或表示其的数据,例如沿着定义最终地面实况轨迹的折线的点。在一些非限制性实施例中,可以使用如在2019年5月10日提交的美国非临时申请第16/409,056号中描述的方法和系统生成自我轨迹,该申请通过引用整体并入本文。例如,并参考图3,因为自我轨迹202可以基于人类驾驶员的驾驶路径生成,所以自我轨迹可能偏离行驶车道的中心或轨道。图3的图表300图示了对应于生成的自我轨迹的偏移量,描绘了偏离行驶车道的中心或轨道超过半米或更多的轨迹。在这些自我轨迹直接用于训练DNN 116以计算车辆的未来轨迹的情况下,部署中的计算轨迹可以类似地包括从行驶车道的轨道或中心的偏移。因此,通过使用地图数据增强自我轨迹以生成更接近地沿着行驶车道中心或轨道的地面实况数据,部署中的车辆的计算轨迹也可更接近地沿着行驶车道的中心或轨道。此外,由于轨迹可包括改变车道、转弯和/或诸如此类,因此对用于生成地面实况的自我轨迹的调整还可以使DNN 116的计算轨迹的转弯、变道和/或其他操作能够从行驶车道的中心或轨道转移到其他行驶车道的中心或轨道。结果,当车辆沿着行驶车道的中心或轨道更接近地穿过驾驶表面时,计算轨迹可以将部署中的车辆置于与周围对象更安全的距离处。
现在参考图2B,图2B描绘了根据本公开的一些实施例的对应于路口检测和分类的自动生成的地面实况标签的示例可视化240。例如,DNN 116可以被训练为生成表示对应于路口的边界形状(例如,可视化240的边界形状242)、对应于路口的分类(例如,路口、红绿灯控制的)、到路口的距离和/或与路口对应的其他信息的输出118。因为来自HD地图的地图数据可以表示路口的特征及其位置,所以地图数据可以用于生成地面实况数据。例如,在边界形状242将包含路口的每个特征的情况下——例如,交通灯244、人行横道246A和246B、路口入口线248等——这些特征的位置和存在可以从地图确定数据确定,并且相关器110可以确定包围所有这些的边界形状242的维度、路口的分类和到路口的距离(例如,到路口入口线248中的入口线)。因此,地面实况生成器212可以生成与分类信息、边界形状维度和/或顶点、和/或到路口的距离相对应的地面实况数据。在一些非限制性实施例中,为路口生成的地面实况可以类似于在2020年3月10日提交的美国非临时申请第16/814,351号中生成的地面实况数据,该申请通过引用整体并入本文。
现在参考图2C,图2C描绘了根据本公开的一些实施例的与环境的特征(包括杆、道路标记、车道线、道路边界和人行横道)相对应的自动生成的地面实况标签的示例可视化280。例如,可以将DNN 116训练为计算与环境的特征(例如,线、标记、杆等)相对应的输出118。因此,来自HD地图104的地图数据可用于生成可表示杆282、人行横道284、车道标记286、道路标记288和/或环境的其他特征的地面实况数据。因此,在定位、坐标变换和/或关联之后,地面实况生成器112可以生成与DNN 116被训练为计算的环境的每个特征相对应的地面实况数据。在非限制性示例中,生成的地面实况可与2019年7月17日提交的美国非临时申请第16/514,230号中描述的相似,该申请通过引用整体并入本文。
现在参考图4,本文描述的方法400的每个框包括可以使用硬件、固件和/或软件的任何组合来执行的计算过程。例如,各种功能可以由执行存储在存储器中的指令的处理器来执行。方法400还可以体现为存储在计算机存储介质上的计算机可用指令。方法400可以由独立应用、服务或托管服务(独立地或与另一托管服务组合)或另一产品的插件提供,仅举几例。此外,通过示例的方式,关于图1的过程100和图5A-5D的自主车辆500描述了方法400。然而,这些方法可以附加地或替代地由任何一个系统或在任何一个过程或系统和过程的任何组合内执行,包括但不限于本文所述的那些。
图4是示出根据本公开的一些实施例的用于将训练数据定位到HD地图数据以增强或生成用于训练DNN的标签的方法400的流程图。在框B402,方法400包括在某时间接收对应于包括动态参与者的位置的区域的HD地图数据。例如,可以生成和/或接收对应于高清地图104的包括数据收集车辆500的区域的地图数据——例如,使用高清地图管理器。
在框B404,方法400包括相对于HD地图数据定位动态参与者。例如,定位器106可以在HD地图104内定位数据收集车辆500。
在框B406,方法400包括在某时间接收由动态参与者的传感器生成的传感器数据。例如,可以生成和/或接收由数据收集车辆500的传感器生成的传感器数据102的实例。
在框B408,方法400包括至少部分地基于HD地图数据和定位,生成对应于传感器数据的地面实况数据。例如,地面实况生成器112可以使用地图数据生成与传感器数据102的实例相对应的地面实况数据。在一些实施例中,这可以包括将高清地图104的坐标系变换或转移到车辆500的坐标系,将地图数据与传感器数据102相关联,和/或本文关于坐标变换器108、相关器110和/或地面实况生成器112描述的其他过程。
在框B410,方法400包括使用传感器数据和地面实况数据训练神经网络。例如,可以使用传感器数据102和使用地面实况生成器112生成的地面实况数据来训练DNN 116——例如,使用训练引擎114。
示例自主车辆
图5A为根据本公开一些实施例的示例自主车辆500的图示。自主车辆500(可替代地,在本文称为“车辆500”)可以包括但不限于乘用车,例如汽车、卡车、公共汽车、急救车、穿梭车、电动或机动自行车、摩托车、消防车、警车、救护车、船、工程车辆、水下船只、无人机和/或其他类型的车辆(例如,无人驾驶和/或可容纳一名或多名乘客)。自主车辆通常按照美国运输部的一个部门——国家公路交通安全管理局(NHTSA)以及汽车工程师协会(SAE)“Taxonomy and Definitions for Terms Related to Driving Automation Systems forOn-Road Motor Vehicles”(2018年6月15日发布的标准No.J3016-201806,2016年9月30日发布的标准No.J3016-201609,以及该标准的先前和未来的版本)定义的自动化级别进行描述。车辆500可能够实现符合自主驾驶级别的3级-5级中的一个或更多个的功能。例如,取决于实施例,车辆500可能够实现条件自动化(3级)、高自动化(4级)和/或全自动化(5级)。
车辆500可以包括诸如底盘、车身、车轮(例如2个、4个、6个、8个、18个等)、轮胎、车轴之类的部件以及车辆的其他部件。车辆500可以包括推进系统550,例如内燃机、混合动力发电厂、全电动发动机和/或另一种推进系统类型。推进系统550可以连接到可以包括变速器的车辆500的传动系以便实现车辆500的推进。可以响应于接收到来自油门/加速器552的信号而控制推进系统550。
可以包括方向盘的转向(steering)系统554可以用来在推进系统550操作时(例如在车辆运动时)使车辆500转向(例如沿着希望的路径或路线)。转向系统554可以接收来自转向致动器556的信号。对于全自动(5级)功能而言,方向盘可以是可选的。
制动传感器系统546可以用来响应于接收到来自制动致动器548和/或制动传感器的信号而操作车辆制动器。
可以包括一个或更多个片上系统(SoC)504(图5C)和/或一个或更多个GPU的一个或更多个控制器536可以向车辆500的一个或更多个部件和/或系统提供(例如表示命令的)信号。例如,一个或更多个控制器可以发送经由一个或更多个制动致动器548操作车辆制动器、经由一个或更多个转向致动器556操作转向系统554、经由一个或更多个油门/加速器552操作推进系统550的信号。一个或更多个控制器536可以包括一个或更多个板载(例如集成)计算设备(例如超级计算机),所述计算设备处理传感器信号并且输出操作命令(例如表示命令的信号),以实现自主驾驶和/或辅助人类驾驶员驾驶车辆500。一个或更多个控制器536可以包括用于自主驾驶功能的第一控制器536、用于功能性安全功能的第二控制器536、用于人工智能功能(例如计算机视觉)的第三控制器536、用于信息娱乐功能的第四控制器536、用于紧急情况下的冗余的第五控制器536和/或其他控制器。在一些示例中,单个控制器536可以处理上述功能中的两个或更多,两个或更多控制器536可以处理单个功能,和/或其任意组合。
一个或更多个控制器536可以响应于接收自一个或更多个传感器的传感器数据(例如传感器输入),提供用于控制车辆500的一个或更多个部件和/或系统的信号。传感器数据可以接收自例如且不限于全球导航卫星系统传感器558(例如全球定位系统传感器)、RADAR传感器560、超声传感器562、LIDAR传感器564、惯性测量单元(IMU)传感器566(例如加速度计、陀螺仪、磁罗盘、磁力计等)、麦克风596、立体相机568、广角相机570(例如鱼眼相机)、红外相机572、环绕相机574(例如360度相机)、远程和/或中程相机598、速度传感器544(例如用于测量车辆500的速率)、振动传感器542、转向传感器540、制动传感器(例如作为制动传感器系统546的部分)和/或其他传感器类型。
控制器536中的一个或更多个可以接收来自车辆500的仪表组532的输入(例如由输入数据表示),并且经由人机接口(HMI)显示器534、听觉信号器、扬声器和/或经由车辆500的其他部件提供输出(例如输出数据、显示数据等表示的)。这些输出可以包括诸如车辆速度、速率、时间、地图数据(例如图5C的HD地图522)、位置数据(例如,车辆500例如在地图上的位置)、方向、其他车辆的位置(例如占用网格)之类的信息,如控制器536所感知的关于对象和对象状态的信息等等。例如,HMI显示器534可以显示关于一个或更多个对象(例如街道指示牌、警示牌、交通灯变化等)的存在性的信息和/或关于车辆已经做出、正在做出或者将会做出的驾驶机动的信息(例如现在变道、两英里后离开34B,等等)。
车辆500进一步包括网络接口524,其可以使用一个或更多个无线天线526和/或调制解调器通过一个或更多个网络通信。例如,网络接口524可能够通过LTE、WCDMA、UMTS、GSM、CDMA2000等通信。一个或更多个无线天线526也可以使用诸如蓝牙、蓝牙LE、Z波、ZigBee等等之类的一个或更多个局域网和/或诸如LoRaWAN、SigFox等等之类的一个或更多个低功率广域网(LPWAN)实现环境中的对象(例如车辆、移动设备等等)之间的通信。
图5B为根据本公开一些实施例的用于图5A的示例自主车辆500的相机位置和视场的示例。相机和各自的视场是一个示例实施例,并不意图是限制性的。例如,可以包括附加的和/或可替换的相机,和/或这些相机可以位于车辆500上的不同位置。
用于相机的相机类型可以包括但不限于可以适于与车辆500的部件和/或系统一起使用的数字相机。所述相机可以在汽车安全完整性级别(ASIL)B下和/或在另一个ASIL下操作。相机类型可以具有任何图像捕获率,例如60帧每秒(fps)、520fps、240fps等等,这取决于实施例。相机可能够使用滚动快门、全局快门、另一种类型的快门或者其组合。在一些示例中,滤色器阵列可以包括红白白白(RCCC)滤色器阵列、红白白蓝(RCCB)滤色器阵列、红蓝绿白(RBGC)滤色器阵列、Foveon X3滤色器阵列、拜耳传感器(RGGB)滤色器阵列、单色传感器滤色器阵列和/或另一种类型的滤色器阵列。在一些实施例中,诸如具有RCCC、RCCB和/或RBGC滤色器阵列的相机之类的清晰像素相机可以用在提高光敏感度的努力中。
在一些示例中,所述相机中的一个或更多个可以用来执行高级驾驶员辅助系统(ADAS)功能(例如作为冗余或故障安全设计的部分)。例如,可以安装多功能单目相机以提供包括车道偏离警告、交通指示牌辅助和智能前照灯控制在内的功能。所述相机中的一个或更多个(例如全部相机)可以同时记录和提供图像数据(例如视频)。
所述相机中的一个或更多个可以安装在诸如定制设计的(3-D打印的)组件之类的安装组件中,以便切断可能干扰相机的图像数据捕获能力的杂散光和来自汽车内的反射(例如挡风玻璃镜中反射的来自仪表板的反射)。关于翼镜安装组件,翼镜组件可以是定制3-D打印的,使得相机安装板匹配翼镜的形状。在一些示例中,一个或更多个相机可以集成到翼镜中。对于侧视相机而言,一个或更多个相机也可以集成到驾驶室每个拐角的四根柱子内。
具有包括车辆500前面的环境部分的视场的相机(例如前置相机)可以用于环视,以帮助识别前向路径和障碍,以及在一个或更多个控制器536和/或控制SoC的帮助下辅助提供对于生成占用网格和/或确定优选车辆路径至关重要的信息。前置相机可以用来执行许多与LIDAR相同的ADAS功能,包括紧急制动、行人检测和碰撞避免。前置相机也可以用于ADAS功能和系统,包括车道偏离警告(“LDW”)、自主巡航控制(“ACC”),和/或诸如交通指示牌识别之类的其他功能。
各种各样的相机可以用于前置配置中,包括例如包括CMOS(互补金属氧化物半导体)彩色成像仪在内的单目相机平台。另一个示例可以是广角相机570,其可以用来感知从周边进入视野的对象(例如行人、十字路口交通或者自行车)。尽管图5B中图示出仅仅一个广角相机,但是在车辆500上可以存在任意数量的广角相机570。此外,远程相机598(例如长视立体相机对)可以用于基于深度的对象检测,尤其是用于尚未针对其训练神经网络的对象。远程相机598也可以用于对象检测和分类以及基本的对象跟踪。
一个或更多个立体相机568也可以包括在前置配置中。立体相机568可以包括集成控制单元,该单元包括可扩展处理单元,其可以提供在单个芯片上具有集成的CAN或以太网接口的多核微处理器和可编程逻辑(FPGA)。这样的单元可以用来生成车辆环境的3-D地图,包括针对图像中的所有点的距离估计。可替代的立体相机568可以包括紧凑型立体视觉传感器,其可以包括两个相机镜头(左右各一个)以及可以测量从车辆到目标对象的距离并且使用生成的信息(例如元数据)激活自主紧急制动和车道偏离警告功能的图像处理芯片。除了本文所描述的那些之外或者可替代地,可以使用其他类型的立体相机568。
具有包括车辆500的侧面的环境部分的视场的相机(例如侧视相机)可以用于环视,提供用来创建和更新占用网格以及生成侧撞击碰撞警告的信息。例如,环绕相机574(例如如图5B中所示的四个环绕相机574)可以置于车辆500上。环绕相机574可以包括广角相机570、鱼眼相机、360度相机和/或类似物。四个示例,四个鱼眼相机可以置于车辆的前面、后面和侧面。在一种可替代的布置中,车辆可以使用三个环绕相机574(例如左边、右边和后面),并且可以利用一个或更多个其他相机(例如前向相机)作为第四环视相机。
具有包括车辆500后面的环境部分的视场的相机(例如后视相机)可以用于辅助停车、环视、后面碰撞警告以及创建和更新占用网格。可以使用各种各样的相机,包括但不限于也适合作为如本文所描述的前置相机(例如远程和/或中程相机598、立体相机568、红外相机572等等)的相机。
图5C为根据本公开一些实施例的用于图5A的示例自主车辆500的示例系统架构的框图。应当理解,这种布置和本文描述的其他布置仅仅作为示例而被阐述。除了所示的那些之外或者代替它们的是,可以使用其他的布置和元素(例如机器、接口、功能、顺序、功能分组等等),并且一些元素可以完全省略。进一步,许多本文描述的元素是功能实体,其可以实现为分立的或分布式部件或者结合其他部件实现,以及以任何适当的组合和位置实现。本文描述为由实体执行的各个功能可以通过硬件、固件和/或软件实现。例如,各个功能可以通过处理器执行存储在内存中的指令而实现。
图5C中车辆500的部件、特征和系统中的每一个被图示为经由总线502连接。总线502可以包括控制器区域网络(CAN)数据接口(可替代地,本文称为“CAN总线”)。CAN可以是车辆500内部的网络,用来辅助控制车辆500的各种特征和功能,例如制动器、加速、制动、转向、挡风玻璃雨刷等等的驱动。CAN总线可以被配置为具有数十或者甚至数百个节点,每个节点具有其自己的唯一标识符(例如CAN ID)。可以读取CAN总线以找到方向盘角度、地速、每分钟发动机转速(RPM)、按钮位置和/或其他车辆状态指示符。CAN总线可以是ASIL B兼容的。
尽管这里将总线502描述为CAN总线,但是这并不意图是限制性的。例如,除了CAN总线之外或者可替代地,可以使用FlexRay和/或以太网。此外,尽管用单条线来表示总线502,但是这并不意图是限制性的。例如,可以存在任意数量的总线502,其可以包括一条或更多条CAN总线、一条或更多条FlexRay总线、一条或更多条以太网总线和/或一条或更多条使用不同协议的其他类型的总线。在一些示例中,两条或更多总线502可以用来执行不同的功能,和/或可以用于冗余。例如,第一总线502可以用于碰撞避免功能,并且第二总线502可以用于驱动控制。在任何示例中,每条总线502可以与车辆500的任何部件通信,并且两条或更多总线502可以与相同的部件通信。在一些示例中,车辆内的每个SoC 504、每个控制器536和/或每个计算机可以有权访问相同的输入数据(例如来自车辆500的传感器的输入),并且可以连接到诸如CAN总线之类的公共总线。
车辆500可以包括一个或更多个控制器536,例如本文关于图5A所描述的那些控制器。控制器536可以用于各种各样的功能。控制器536可以耦合到车辆500的任何其他不同的部件和系统,并且可以用于车辆500的控制、车辆500的人工智能、用于车辆500的信息娱乐和/或类似物。
车辆500可以包括一个或更多个片上系统(SoC)504。SoC 504可以包括CPU 506、GPU 508、处理器510、高速缓存512、加速器514、数据存储516和/或未图示出的其他部件和特征。在各种各样的平台和系统中,SoC 504可以用来控制车辆500。例如,一个或更多个SoC504可以在系统(例如车辆500的系统)中与HD地图522结合,所述HD地图可以经由网络接口524从一个或更多个服务器(例如图5D的一个或更多个服务器578)获得地图刷新和/或更新。
CPU 506可以包括CPU簇或CPU复合体(替代地,本文称为“CCPLEX”)。CPU 506可以包括多个核和/或L2高速缓存。例如,在一些实施例中,CPU 506在一致性多处理器配置中可以包括八个核。在一些实施例中,CPU 506可包括四个双核簇,其中每个簇具有专用的L2高速缓存(例如2MB L2高速缓存)。CPU 506(例如CCPLEX)可以被配置为支持同时簇操作,使得CPU 506的簇的任意组合能够在任何给定时间是活动的。
CPU 506可以实现包括以下特征中的一个或更多个的功率管理能力:各硬件块在空闲时可以自动进行时钟门控以节省动态功率;由于WFI/WFE指令的执行,每个核时钟可以在该核不主动地执行指令时进行门控;每个核可以独立地进行功率门控;当所有核都进行时钟门控或者功率门控时,可以独立地对每个核簇进行时钟门控;和/或当所有核都进行功率门控时,可以独立地对每个核簇进行功率门控。CPU 506可以进一步实现用于管理功率状态的增强算法,其中指定允许的功率状态和期望的唤醒时间,并且硬件/微代码为所述核、簇和CCPLEX确定要进入的最佳的功率状态。处理核可以在软件中支持简化的功率状态进入序列,该工作被卸载到微代码。
GPU 508可以包括集成的GPU(可替代地,本文称为“iGPU”)。GPU 508可以是可编程的,并且对于并行工作负载而言是高效的。在一些示例中,GPU 508可以使用增强张量指令集。GPU 508可以包括一个或更多个流式微处理器,其中每个流式微处理器可以包括L1高速缓存(例如具有至少96KB存储能力的L1高速缓存),并且这些流式微处理器中的两个或更多可以共享L2高速缓存(例如具有512KB存储能力的L2高速缓存)。在一些实施例中,GPU 508可以包括至少八个流式微处理器。GPU 508可以使用计算应用编程接口(API)。此外,GPU508可以使用一个或更多个并行计算平台和/或编程模型(例如NVIDIA的CUDA)。
在汽车和嵌入式使用的情况下,可以对GPU 508进行功率优化以实现最佳性能。例如,可以在鳍式场效应晶体管(FinFET)上制造GPU 508。然而,这并不意图是限制性的,并且GPU 508可以使用其他半导体制造工艺来制造。每个流式微处理器可以合并划分成多个块的若干混合精度处理核。例如且非限制性地,可以将64个PF32核和32个PF64核划分成四个处理块。在这样的示例中,每个处理块可以分配16个FP32核、8个FP64核、16个INT32核、用于深层学习矩阵算术的两个混合精度NVIDIA张量核、L0指令高速缓存、线程束(warp)调度器、分派单元和/或64KB寄存器文件。此外,流式微处理器可以包括独立的并行整数和浮点数据路径,以利用计算和寻址计算的混合提供工作负载的高效执行。流式微处理器可以包括独立线程调度能力,以允许实现并行线程之间的更细粒度的同步和协作。流式微处理器可以包括组合的L1数据高速缓存和共享内存单元,以便在简化编程的同时提高性能。
GPU 508可以包括在一些示例中提供大约900GB/s的峰值内存带宽的高带宽内存(HBM)和/或16GB HBM2内存子系统。在一些示例中,除了HBM内存之外或者可替代地,可以使用同步图形随机存取存储器(SGRAM),例如第五代图形双倍数据速率同步随机存取存储器(GDDR5)。
GPU 508可以包括统一内存技术,其包括访问计数器以允许内存页面更精确地迁移到最频繁地访问它们的处理器,从而提高处理器之间共享的内存范围的效率。在一些示例中,地址转换服务(ATS)支持可以用来允许GPU 508直接访问CPU 506页表。在这样的示例中,当GPU 508内存管理单元(MMU)经历遗漏时,可以将地址转换请求传输至CPU 506。作为响应,CPU 506可以在其页表中寻找用于地址的虚拟-物理映射,并且将转换传输回GPU508。这样,统一内存技术可以允许单个统一虚拟地址空间用于CPU 506和GPU 508二者的内存,从而简化了GPU 508编程和将应用程序移(port)到GPU 508。
此外,GPU 508可以包括访问计数器,其可以跟踪GPU 508访问其他处理器的内存的频率。访问计数器可以帮助确保内存页面移至最频繁地访问这些页面的处理器的物理内存。
SoC 504可以包括任意数量的高速缓存512,包括本文描述的那些高速缓存。例如,高速缓存512可以包括CPU 506和GPU 508二者可用的L3高速缓存(例如,其连接到CPU 506和GPU 508二者)。高速缓存512可以包括回写高速缓存,其可以例如通过使用高速缓存一致性协议(例如MEI、MESI、MSI等)跟踪行的状态。取决于实施例,L3高速缓存可以包括4MB或者更多,但是也可以使用更小的高速缓存大小。
SoC 504可包括一个或更多个算术逻辑单元(ALU),其可用于执行关于车辆500的各种任务或操作中的任一个的处理,例如处理DNN。此外,SoC 504可以包括浮点单元(FPU)或其他数学协处理器或数字协处理器类型,用于在系统内执行数学运算。例如,SoC 504可以包括一个或更多个集成为CPU 506和/或GPU 508内的执行单元的FPU。
SoC 504可以包括一个或更多个加速器514(例如硬件加速器、软件加速器或者其组合)。例如,SoC 504可以包括硬件加速簇,其可以包括优化的硬件加速器和/或大型片上内存。该大型片上内存(例如4MB SRAM)可以使得硬件加速簇能够加速神经网络和其他计算。硬件加速簇可以用来补充GPU 508,并且卸载GPU 508的一些任务(例如释放GPU 508的更多周期以用于执行其他任务)。作为一个示例,加速器514可以用于足够稳定以易于控制加速的有针对性的工作负载(例如感知、卷积神经网络(CNN)等等)。当在本文中使用时,术语“CNN”可以包括所有类型的CNN,包括基于区域的或者区域卷积神经网络(RCNN)和快速RCNN(例如用于对象检测)。
加速器514(例如硬件加速簇)可以包括深度学习加速器(DLA)。DLA可以包括可以被配置成为深度学习应用和推理提供额外的每秒10万亿次操作的一个或更多个张量处理单元(TPU)。TPU可以是被配置为执行图像处理功能(例如用于CNN、RCNN等)且针对执行图像处理功能而优化的加速器。DLA可以进一步针对特定的一组神经网络类型和浮点运算以及推理进行优化。DLA的设计可以比通用GPU提供每毫米更高的性能,并且远远超过CPU的性能。TPU可以执行若干功能,包括单实例卷积函数,支持例如用于特征和权重二者的INT8、INT16和FP16数据类型,以及后处理器功能。
DLA可以在处理的或者未处理的数据上针对各种各样的功能中的任何功能快速且高效地执行神经网络,尤其是CNN,例如且不限于:用于使用来自相机传感器的数据进行对象识别和检测的CNN;用于使用来自相机传感器的数据进行距离估计的CNN;用于使用来自麦克风的数据进行应急车辆检测和识别与检测的CNN;用于使用来自相机传感器的数据进行面部识别和车主识别的CNN;和/或用于安全和/或安全相关事件的CNN。
DLA可以执行GPU 508的任何功能,并且通过使用推理加速器,例如,设计者可以使DLA或GPU 508针对任何功能。例如,设计者可以将CNN的处理和浮点运算聚焦在DLA上,并且将其他功能留给GPU 508和/或其他加速器514。
加速器514(例如硬件加速簇)可以包括可编程视觉加速器(PVA),其在本文中可以可替代地称为计算机视觉加速器。PVA可以被设计和配置为加速用于高级驾驶员辅助系统(ADAS)、自主驾驶和/或增强现实(AR)和/或虚拟现实(VR)应用的计算机视觉算法。PVA可以提供性能与灵活性之间的平衡。例如,每个PVA可以包括例如且不限于任意数量的精简指令集计算机(RISC)核、直接内存访问(DMA)和/或任意数量的向量处理器。
RISC核可以与图像传感器(例如本文描述的任何相机的图像传感器)、图像信号处理器和/或类似物交互。这些RISC核中的每一个可以包括任意数量的内存。取决于实施例,RISC核可以使用若干协议中的任何协议。在一些示例中,RISC核可以执行实时操作系统(RTOS)。RISC核可以使用一个或更多个集成电路设备、专用集成电路(ASIC)和/或存储设备实现。例如,RISC核可以包括指令高速缓存和/或紧密耦合的RAM。
DMA可以使得PVA的部件能够独立于CPU 506访问系统内存。DMA可以支持用来向PVA提供优化的任意数量的特征,包括但不限于支持多维寻址和/或循环寻址。在一些示例中,DMA可以支持高达六个或更多维度的寻址,其可以包括块宽度、块高度、块深度、水平块步进、竖直块步进和/或深度步进。
向量处理器可以是可编程处理器,其可以被设计为高效且灵活地执行用于计算机视觉算法的编程并且提供信号处理能力。在一些示例中,PVA可以包括PVA核和两个向量处理子系统分区。PVA核可以包括处理器子系统、一个或更多个DMA引擎(例如两个DMA引擎)和/或其他外围设备。向量处理子系统可以作为PVA的主处理引擎而操作,并且可以包括向量处理单元(VPU)、指令高速缓存和/或向量内存(例如VMEM)。VPU核可以包括数字信号处理器,诸如例如单指令多数据(SIMD)、超长指令字(VLIW)数字信号处理器。SIMD和VLIW的组合可以增强吞吐量和速率。
向量处理器中的每一个可以包括指令高速缓存并且可以耦合到专用内存。结果,在一些示例中,向量处理器中的每一个可以被配置为独立于其他向量处理器执行。在其他示例中,包括在特定PVA中的向量处理器可以被配置为采用数据并行化。例如,在一些实施例中,包括在单个PVA中的多个向量处理器可以执行相同的计算机视觉算法,但是在图像的不同区域上执行。在其他示例中,包括在特定PVA中的向量处理器可以在相同的图像上同时执行不同的计算机视觉算法,或者甚至在序列图像或者图像的部分上执行不同的算法。除其他的以外,任意数量的PVA可以包括在硬件加速簇中,并且任意数量的向量处理器可以包括在这些PVA中的每一个中。此外,PVA可以包括附加的纠错码(ECC)内存,以增强总体系统安全性。
加速器514(例如硬件加速簇)可以包括片上计算机视觉网络和SRAM,以提供用于加速器514的高带宽、低延迟SRAM。在一些示例中,片上内存可以包括由例如且不限于八个现场可配置的内存块组成的至少4MB SRAM,其可以由PVA和DLA二者访问。每对内存块可以包括高级外围总线(APB)接口、配置电路系统、控制器和复用器。可以使用任何类型的内存。PVA和DLA可以经由向PVA和DLA提供高速内存访问的主干(backbone)访问内存。主干可以包括(例如使用APB)将PVA和DLA互连到内存的片上计算机视觉网络。
片上计算机视觉网络可以包括在传输任何控制信号/地址/数据之前确定PVA和DLA二者都提供就绪且有效的信号的接口。这样的接口可以提供用于传输控制信号/地址/数据的单独相位和单独信道,以及用于连续数据传输的突发式通信。这种类型的接口可以符合ISO 26262或者IEC 61508标准,但是也可以使用其他标准和协议。
在一些示例中,SoC 504可以包括例如在2018年8月10日提交的美国专利申请No.16/101,232中描述的实时光线追踪硬件加速器。该实时光线追踪硬件加速器可以用来快速且高效地确定(例如世界模型内的)对象的位置和范围,以便生成实时可视化仿真,以用于RADAR信号解释、用于声音传播合成和/或分析、用于SONAR系统仿真、用于一般波传播仿真、用于为了定位和/或其他功能的目的与LIDAR数据相比较和/或用于其他用途。在一些实施例中,一个或更多个树遍历单元(TTU)可用于执行一个或更多个光线追踪相关操作。
加速器514(例如硬件加速器簇)具有广泛的自主驾驶用途。PVA可以是可编程视觉加速器,其可以用于ADAS和自主车辆中的关键处理阶段。PVA的能力是需要可预测处理、低功率和低延迟的算法域的良好匹配。换言之,PVA在半密集或者密集规则计算上,甚至在需要具有低延迟和低功率的可预测运行时间的小数据集上都表现良好。因此,在用于自主车辆的平台的背景下,PVA被设计为运行经典计算机视觉算法,因为它们在对象检测和整数数学运算方面很有效。
例如,根据该技术的一个实施例,PVA用来执行计算机立体视觉。在一些示例中,可以使用基于半全局匹配的算法,但是这并不意图是限制性的。许多用于3-5级自主驾驶的应用都需要即时运动估计/立体匹配(例如来自运动的结构、行人识别、车道检测等等)。PVA可以在来自两个单目相机的输入上执行计算机立体视觉功能。
在一些示例中,PVA可以用来执行密集的光流。根据过程原始RADAR数据(例如使用4D快速傅立叶变换)以提供经处理的RADAR。在其他示例中,PVA用于飞行时间深度处理,其例如通过处理原始飞行时间数据以提供经处理的飞行时间数据。
DLA可以用来运行任何类型的网络以增强控制和驾驶安全性,包括例如输出用于每个对象检测的置信度度量的神经网络。这样的置信度值可以解释为概率,或者解释为提供每个检测与其他检测相比的相对“权重”。该置信度值使得系统能够做出关于哪些检测应当被认为是真阳性检测而不是假阳性检测的进一步决策。例如,系统可以为置信度设置阈值,并且仅仅将超过阈值的检测看作真阳性检测。在自动紧急制动(AEB)系统中,假阳性检测会使得车辆自动地执行紧急制动,这显然是不希望的。因此,只有最确信的检测才应当被认为是AEB的触发因素。DLA可以运行用于回归置信度值的神经网络。该神经网络可以将至少一些参数子集作为其输入,例如边界框维度,(例如从另一个子系统)获得的地平面估计,与车辆500方位、距离相关的惯性测量单元(IMU)传感器566输出,从神经网络和/或其他传感器(例如LIDAR传感器564或RADAR传感器560)获得的对象的3D位置估计等。
SoC 504可以包括一个或更多个数据存储516(例如内存)。数据存储516可以是SoC504的片上内存,其可以存储要在GPU和/或DLA上执行的神经网络。在一些示例中,为了冗余和安全,数据存储516可以容量足够大以存储神经网络的多个实例。数据存储512可以包括L2或L3高速缓存512。对数据存储516的引用可以包括对与如本文所描述的PVA、DLA和/或其他加速器514关联的内存的引用。
SoC 504可以包括一个或更多个处理器510(例如嵌入式处理器)。处理器510可以包括启动和功率管理处理器,其可以是用于处理启动功率和管理功能以及有关安全实施的专用处理器和子系统。启动和功率管理处理器可以是SoC 504启动序列的一部分,并且可以提供运行时间功率管理服务。启动功率和管理处理器可以提供时钟和电压编程、辅助系统低功率状态转换、SoC 504热和温度传感器管理和/或SoC 504功率状态管理。每个温度传感器可以实现为环形振荡器,其输出频率与温度成比例,并且SoC 504可以使用环形振荡器检测CPU 506、GPU 508和/或加速器514的温度。如果确定温度超过阈值,那么启动和功率管理处理器可以进入温度故障例程并且将SoC 504置于较低功率状态和/或将车辆500置于司机安全停车模式(例如使车辆500安全停车)。
处理器510可以进一步包括可以用作音频处理引擎的一组嵌入式处理器。音频处理引擎可以是一种音频子系统,其允许实现对于通过多个接口的多声道音频的完全硬件支持以及一系列广泛而灵活的音频I/O接口。在一些示例中,音频处理引擎是具有带有专用RAM的数字信号处理器的专用处理器核。
处理器510可以进一步包括始终在处理器上的引擎,其可以提供必要的硬件特征以支持低功率传感器管理和唤醒用例。该始终在处理器上的引擎可以包括处理器核、紧密耦合的RAM、支持外围设备(例如定时器和中断控制器)、各种I/O控制器外围设备和路由逻辑。
处理器510可以进一步包括安全簇引擎,其包括处理汽车应用的安全管理的专用处理器子系统。安全簇引擎可以包括两个或更多处理器核、紧密耦合的RAM、支持外围设备(例如定时器、中断控制器等等)和/或路由逻辑。在安全模式下,所述两个或更多核可以操作于锁步模式下,并且用作具有检测它们的操作之间的任何差异的比较逻辑的单核。
处理器510可以进一步包括实时相机引擎,其可以包括用于处理实时相机管理的专用处理器子系统。
处理器510可以进一步包括高动态范围信号处理器,其可以包括图像信号处理器,该图像信号处理器是一种硬件引擎,该硬件引擎是相机处理管线的部分。
处理器510可包括可以是(例如微处理器上实现的)处理块的视频图像复合器,其实现视频回放应用程序产生用于播放器窗口的最终图像所需的视频后处理功能。视频图像复合器可以对广角相机570、环绕相机574和/或对驾驶室内监控相机传感器执行镜头畸变校正。驾驶室内监控相机传感器优选地由运行在高级SoC的另一实例上的神经网络监控,被配置为识别驾驶室内事件并且相对应地做出响应。驾驶室内系统可以执行唇读,以激活移动电话服务并拨打电话、口述电子邮件、改变车辆目的地、激活或改变车辆的信息娱乐系统和设置或者提供语音激活的网上冲浪。某些功能仅在车辆操作于自主模式下时对于驾驶员可用,并且在其他情况下被禁用。
视频图像复合器可以包括用于空间和时间降噪的增强时间降噪。例如,在视频中出现运动的情况下,降噪适当地对空间信息加权,降低邻近帧提供的信息的权重。在图像或者图像的部分不包括运动的情况下,视频图像复合器执行的时间降噪可以使用来自先前的图像的信息以降低当前图像中的噪声。
视频图像复合器也可以被配置为对输入立体镜头帧执行立体校正。当操作系统桌面正在使用并且GPU 508无需连续地渲染(render)新的表面时,视频图像复合器可以进一步用于用户接口组成。甚至在GPU 508上电并且激活,进行3D渲染时,视频图像复合器可以用来减轻GPU 508的负担以提高性能和响应能力。
SoC 504可以进一步包括用于从相机接收视频和输入的移动行业处理器接口(MIPI)相机串行接口、高速接口和/或可以用于相机和有关像素输入功能的视频输入块。SoC 504可以进一步包括可以由软件控制并且可以用于接收未提交到特定角色的I/O信号的输入/输出控制器。
SoC 504可以进一步包括大范围的外围设备接口,以使能与外围设备、音频编解码器、功率管理和/或其他设备通信。SoC 504可以用来处理来自(通过千兆多媒体串行链路和以太网连接的)相机、传感器(例如可以通过以太网连接的LIDAR传感器564、RADAR传感器560等等)的数据,来自总线502的数据(例如车辆500的速率、方向盘位置等等),来自(通过以太网或CAN总线连接的)GNSS传感器558的数据。SoC 504可以进一步包括专用高性能大容量存储控制器,其可以包括它们自己的DMA引擎,并且其可以用来从日常数据管理任务中释放CPU 506。
SoC 504可以是具有灵活架构的端到端平台,该架构跨越自动化3-5级,从而提供利用和高效使用计算机视觉和ADAS技术以实现多样性和冗余、连同深度学习工具一起提供用于灵活可靠驾驶软件堆栈的平台的综合功能安全架构。SoC 504可以比常规的系统更快、更可靠,甚至更加能量高效和空间高效。例如,当与CPU 506、GPU 508和数据存储516结合时,加速器514可以提供用于3-5级自主车辆的快速高效平台。
因此该技术提供了不能通过常规系统实现的能力和功能。例如,计算机视觉算法可以在CPU上执行,这些CPU可以使用诸如C编程语言之类的高级编程语言配置为跨各种各样的视觉数据执行各种各样的处理算法。然而,CPU常常不能满足许多计算机视觉应用的性能要求,诸如与例如执行时间和功耗有关的那些要求。特别地,许多CPU不能实时地执行复杂的对象检测算法,这是车载ADAS应用的要求和实用3-5级自主车辆的要求。
与常规系统形成对比的是,通过提供CPU复合体、GPU复合体和硬件加速簇,本文描述的技术允许同时和/或顺序地执行多个神经网络,并且将结果组合在一起以实现3-5级自主驾驶功能。例如,在DLA或dGPU(例如GPU 520)上执行的CNN可以包括文本和单词识别,允许超级计算机读取和理解交通指示牌,包括尚未针对其特别地训练神经网络的指示牌。DLA可以进一步包括能够识别、解释和提供对指示牌的语义理解,并且将该语义理解传递给运行在CPU复合体上的路径规划模块的神经网络。
作为另一个示例,如3、4或5级驾驶所需的,多个神经网络可以同时运行。例如,由“注意:闪烁的灯指示结冰条件”组成的警告指示牌连同电灯可以由若干神经网络独立地或者共同地进行解释。指示牌本身可以由部署的第一神经网络(例如经过训练的神经网络)识别为交通指示牌,文本“闪烁的灯指示结冰条件”可以由部署的第二神经网络解释,该部署的第二神经网络告知车辆的路径规划软件(优选地在CPU复合体上执行)当检测到闪烁的灯时,存在结冰条件。闪烁的灯可以通过在多个帧上操作部署的第三神经网络而识别,该神经网络告知车辆的路径规划软件闪烁的灯的存在(或不存在)。所有三个神经网络可以例如在DLA内和/或在GPU 508上同时运行。
在一些示例中,用于面部识别和车主识别的CNN可以使用来自相机传感器的数据识别车辆500的授权的驾驶员和/或车主的存在。始终在传感器上的处理引擎可以用来在车主接近驾驶员车门时解锁车辆并且打开灯,并且在安全模式下,在车主离开车辆时禁用车辆。按照这种方式,SoC 504提供了防范盗窃和/或劫车的安全性。
在另一个示例中,用于应急车辆检测和识别的CNN可以使用来自麦克风596的数据来检测并且识别应急车辆警报(siren)。与使用通用分类器检测警报并且手动地提取特征的常规系统形成对比的是,SoC 504使用CNN以对环境和城市声音分类以及对视觉数据分类。在优选的实施例中,运行在DLA上的CNN被训练为识别应急车辆的相对关闭速率(例如通过使用多普勒效应)。CNN也可以被训练为识别如GNSS传感器558所识别的特定于车辆在其中操作的局部区域的应急车辆。因此,例如,当在欧洲操作时,CNN将寻求检测欧洲警报,并且当在美国时,CNN将寻求识别仅仅北美的警报。一旦检测到应急车辆,在超声传感器562的辅助下,控制程序可以用来执行应急车辆安全例程,使车辆放慢速度,开到路边,停下车辆,和/或使车辆空转,直到应急车辆通过。
车辆可以包括可以经由高速互连(例如PCIe)耦合到SoC 504的CPU 518(例如分立的CPU或dCPU)。CPU 518可以包括例如X86处理器。CPU 518可以用来执行各种各样的功能中的任何功能,包括例如仲裁ADAS传感器与SoC 504之间潜在地不一致的结果,和/或监控控制器536和/或信息娱乐SoC 530的状态和健康状况。
车辆500可以包括可以经由高速互连(例如NVIDIA的NVLINK)耦合到SoC 504的GPU520(例如分立的GPU或dGPU)。GPU 520可以例如通过执行冗余的和/或不同的神经网络而提供附加的人工智能功能,并且可以用来基于来自车辆500的传感器的输入(例如传感器数据)来训练和/或更新神经网络。
车辆500可以进一步包括网络接口524,该网络接口可以包括一个或更多个无线天线526(例如用于不同通信协议的一个或更多个无线天线,例如蜂窝天线、蓝牙天线等等)。网络接口524可以用来使能通过因特网与云(例如与服务器578和/或其他网络设备)、与其他车辆和/或与计算设备(例如乘客的客户端设备)的无线连接。为了与其他车辆通信,可以在这两辆车之间建立直接链接,和/或可以建立间接链接(例如跨网络以及通过因特网)。直接链接可以使用车对车通信链路提供。车对车通信链路可以向车辆500提供关于接近车辆500的车辆(例如车辆500前面、侧面和/或后面的车辆)的信息。该功能可以是车辆500的协作自适应巡航控制功能的部分。
网络接口524可以包括提供调制和解调功能并且使得控制器536能够通过无线网络通信的SoC。网络接口524可以包括用于从基带到射频的上转换以及从射频到基带的下转换的射频前端。频率转换可以通过公知的过程执行,和/或可以使用超外差(super-heterodyne)过程执行。在一些示例中,射频前端功能可以由单独的芯片提供。网络接口可以包括用于通过LTE、WCDMA、UMTS、GSM、CDMA2000、蓝牙、蓝牙LE、Wi-Fi、Z波、ZigBee、LoRaWAN和/或其他无线协议通信的无线功能。
车辆500可以进一步包括可包括片外(例如SoC 504外)存储装置的数据存储528。数据存储528可以包括一个或更多个存储元件,包括RAM、SRAM、DRAM、VRAM、闪存、硬盘和/或可以存储至少一个比特的数据的其他部件和/或设备。
车辆500可以进一步包括GNSS传感器558。GNSS传感器558(例如GPS和/或辅助GPS传感器)用于辅助映射、感知、占用网格生成和/或路径规划功能。可以使用任意数量的GNSS传感器558,包括例如且不限于使用带有以太网到串行(RS-232)网桥的USB连接器的GPS。
车辆500可以进一步包括RADAR传感器560。RADAR传感器560可以甚至在黑暗和/或恶劣天气条件下也由车辆500用于远程车辆检测。RADAR功能安全级别可以是ASIL B。RADAR传感器560可以使用CAN和/或总线502(例如以传输RADAR传感器560生成的数据)以用于控制以及访问对象跟踪数据,在一些示例中接入以太网以访问原始数据。可以使用各种各样的RADAR传感器类型。例如且非限制性地,RADAR传感器560可以适合前面、后面和侧面RADAR使用。在一些示例中,使用脉冲多普勒RADAR传感器。
RADAR传感器560可以包括不同的配置,例如具有窄视场的远程、具有宽视场的短程、短程侧覆盖等等。在一些示例中,远程RADAR可以用于自适应巡航控制功能。远程RADAR系统可以提供通过两个或更多独立浏览实现的广阔视场(例如250m范围内)。RADAR传感器560可以帮助区分静态对象和运动对象,并且可以由ADAS系统用于紧急制动辅助和前方碰撞警告。远程RADAR传感器可以包括具有多根(例如六根或更多)固定RADAR天线以及高速CAN和FlexRay接口的单站多模RADAR。在具有六根天线的示例中,中央四根天线可以创建聚焦的波束图案,其被设计为在更高速率下以来自邻近车道的最小交通干扰记录车辆500的周围环境。其他两根天线可以扩展视场,使得快速地检测进入或离开车辆500的车道的车辆成为可能。
作为一个示例,中程RADAR系统可以包括高达560m(前面)或80m(后面)的范围以及高达42度(前面)或550度(后面)的视场。短程RADAR系统可以包括但不限于被设计为安装在后保险杠两端的RADAR传感器。当安装在后保险杠两端时,这样的RADAR传感器系统可以创建持续地监控后方和车辆旁边的盲点的两个波束。
短程RADAR系统可以在ADAS系统中用于盲点检测和/或变道辅助。
车辆500可以进一步包括超声传感器562。可以置于车辆500的前面、后面和/或侧面的超声传感器562可以用于停车辅助和/或创建和更新占用网格。可以使用各种各样的超声传感器562,并且不同的超声传感器562可以用于不同的检测范围(例如2.5m、4m)。超声传感器562可以操作于功能安全级别的ASIL B。
车辆500可以包括LIDAR传感器564。LIDAR传感器564可以用于对象和行人检测、紧急制动、碰撞避免和/或其他功能。LIDAR传感器564可以为功能安全级别的ASIL B。在一些示例中,车辆500可以包括可以使用以太网(例如以将数据提供给千兆以太网交换机)的多个LIDAR传感器564(例如两个、四个、六个等等)。
在一些示例中,LIDAR传感器564可能够对360度视场提供对象列表及其距离。商业上可用的LIDAR传感器564可以具有例如近似500m的广告范围,精度为2cm-3cm,支持500Mbps以太网连接。在一些示例中,可以使用一个或更多个非突出的LIDAR传感器564。在这样的示例中,LIDAR传感器564可以实现为可以嵌入到车辆500的前面、后面、侧面和/或拐角的小设备。在这样的示例中,LIDAR传感器564可以甚至对于低反射率对象提供高达520度水平的和35度竖直的视场,具有200m的范围。前面安装的LIDAR传感器564可以被配置用于45度与135度之间的水平视场。
在一些示例中,也可以使用诸如3D闪光LIDAR之类的LIDAR技术。3D闪光LIDAR使用激光的闪光作为发射源,以照亮高达约200m的车辆周围环境。闪光LIDAR单元包括接受器,该接受器将激光脉冲传输时间和反射光记录在每个像素上,其进而与从车辆到对象的范围相对应。闪光LIDAR可以允许利用每个激光闪光生成周围环境的高度精确且无失真的图像。在一些示例中,可以部署四个闪光LIDAR传感器,车辆500的每一侧一个。可用的3D闪光LIDAR系统包括没有风扇以外的运动部件(moving part)的固态3D凝视阵列LIDAR相机(例如非浏览LIDAR设备)。闪光LIDAR设备可以使用每帧5纳秒I类(眼睛安全)激光脉冲,并且可以以3D范围点云和共同寄存的强度数据的形式捕获反射的激光。通过使用闪光LIDAR,并且因为闪光LIDAR是没有运动部件的固态设备,LIDAR传感器564可以不太容易受到运动模糊、振动和/或震动的影响。
该车辆可以进一步包括IMU传感器566。在一些示例中,IMU传感器566可以位于车辆500的后轴的中心。IMU传感器566可以包括例如且不限于加速度计、磁力计、陀螺仪、磁罗盘和/或其他传感器类型。在一些示例中,例如在六轴应用中,IMU传感器566可以包括加速度计和陀螺仪,而在九轴应用中,IMU传感器566可以包括加速度计、陀螺仪和磁力计。
在一些实施例中,IMU传感器566可以实现为微型高性能GPS辅助惯性导航系统(GPS/INS),其结合微机电系统(MEMS)惯性传感器、高灵敏度GPS接收器和高级卡尔曼滤波算法以提供位置、速度和姿态的估计。这样,在一些示例中,IMU传感器566可以使得车辆500能够在无需来自磁传感器的输入的情况下通过直接观察从GPS到IMU传感器566的速度变化并且将其相关来估计方向(heading)。在一些示例中,IMU传感器566和GNSS传感器558可以结合到单个集成单元中。
该车辆可以包括置于车辆500中和/或车辆500周围的麦克风596。除别的以外,麦克风596可以用于应急车辆检测和识别。
该车辆可以进一步包括任意数量的相机类型,包括立体相机568、广角相机570、红外相机572、环绕相机574、远程和/或中程相机598和/或其他相机类型。这些相机可以用来捕获车辆500整个外围周围的图像数据。使用的相机类型取决于实施例和车辆500的要求,并且相机类型的任意组合可以用来提供车辆500周围的必要覆盖。此外,相机的数量可以根据实施例而不同。例如,该车辆可以包括六个相机、七个相机、十个相机、十二个相机和/或另一数量的相机。作为一个示例且非限制性地,这些相机可以支持千兆多媒体串行链路(GMSL)和/或千兆以太网。所述相机中的每一个在本文关于图5A和图5B更详细地进行了描述。
车辆500可以进一步包括振动传感器542。振动传感器542可以测量车辆的诸如车轴之类的部件的振动。例如,振动的变化可以指示道路表面的变化。在另一个示例中,当使用两个或更多振动传感器542时,振动之间的差异可以用来确定道路表面的摩擦或滑移(例如当动力驱动轴与自由旋转轴之间存在振动差异时)。
车辆500可以包括ADAS系统538。在一些示例中,ADAS系统538可以包括SoC。ADAS系统538可以包括自主/自适应/自动巡航控制(ACC)、协作自适应巡航控制(CACC)、前方撞车警告(FCW)、自动紧急制动(AEB)、车道偏离警告(LDW)、车道保持辅助(LKA)、盲点警告(BSW)、后方穿越交通警告(RCTW)、碰撞警告系统(CWS)、车道居中(LC)和/或其他特征和功能。
ACC系统可以使用RADAR传感器560、LIDAR传感器564和/或相机。ACC系统可包括纵向ACC和/或横向ACC。纵向ACC监控并控制到紧接在车辆500前方的车辆的距离,并且自动地调节车速以维持离前方车辆的安全距离。横向ACC执行距离保持,并且在必要时建议车辆500改变车道。横向ACC与诸如LCA和CWS之类的其他ADAS应用程序有关。
CACC使用来自其他车辆的信息,该信息可以经由网络接口524和/或无线天线526经由无线链路或者通过网络连接(例如通过因特网)间接地从其他车辆接收。直接链接可以由车对车(V2V)通信链路提供,而间接链接可以是基础设施到车辆(I2V)的通信链路。通常,V2V通信概念提供关于紧接在前的车辆(例如紧接在车辆500前方且与其处于相同车道的车辆)的信息,而I2V通信概念提供关于前方更远处的交通的信息。CACC系统可以包括I2V和V2V信息源中的任一个或者二者。给定车辆500前方车辆的信息,CACC可以更加可靠,并且它有可能提高交通流的畅通性且降低道路拥堵。
FCW系统被设计为提醒驾驶员注意危险,使得驾驶员可以采取纠正措施。FCW系统使用耦合到专用处理器、DSP、FPGA和/或ASIC的前置相机和/或RADAR传感器560,该专用处理器、DSP、FPGA和/或ASIC电耦合至诸如显示器、扬声器和/或振动部件之类的驾驶员反馈。FCW系统可以提供例如声音、视觉警告、振动和/或快速制动脉冲形式的警告。
AEB系统检测即将发生的与另一车辆或其他对象的前方碰撞,并且可以在驾驶员在指定的时间或距离参数内没有采取纠正措施的情况下自动地应用制动器。AEB系统可以使用耦合到专用处理器、DSP、FPGA和/或ASIC的前置相机和/或RADAR传感器560。当AEB系统检测到危险时,它典型地首先提醒(alert)驾驶员采取纠正措施以避免碰撞,并且如果驾驶员没有采取纠正措施,那么AEB系统可以自动地应用制动器以努力防止或者至少减轻预测的碰撞的影响。AEB系统可以包括诸如动态制动支持和/或碰撞迫近制动之类的技术。
LDW系统提供了诸如方向盘或座位振动之类的视觉、听觉和/或触觉警告,以在车辆500穿过车道标记时提醒驾驶员。当驾驶员指示有意偏离车道时,通过激活转弯信号,不激活LDW系统。LDW系统可以使用耦合到专用处理器、DSP、FPGA和/或ASIC的前侧朝向相机,该专用处理器、DSP、FPGA和/或ASIC电耦合至诸如显示器、扬声器和/或振动部件之类的驾驶员反馈。
LKA系统是LDW系统的变型。如果车辆500开始离开车道,那么LKA系统提供纠正车辆500的转向输入或制动。
BSW系统检测并向驾驶员警告汽车盲点中的车辆。BSW系统可以提供视觉、听觉和/或触觉警报以指示合并或改变车道是不安全的。系统可以在驾驶员使用转弯信号时提供附加的警告。BSW系统可以使用耦合到专用处理器、DSP、FPGA和/或ASIC的后侧朝向相机和/或RADAR传感器560,该专用处理器、DSP、FPGA和/或ASIC电耦合至诸如显示器、扬声器和/或振动部件之类的驾驶员反馈。
RCTW系统可以在车辆500倒车时在后置相机范围之外检测到对象时提供视觉、听觉和/或触觉通知。一些RCTW系统包括AEB以确保应用车辆制动器以避免撞车。RCTW系统可以使用耦合到专用处理器、DSP、FPGA和/或ASIC的一个或更多个后置RADAR传感器560,该专用处理器、DSP、FPGA和/或ASIC电耦合至诸如显示器、扬声器和/或振动部件之类的驾驶员反馈。
常规的ADAS系统可能易于出现假阳性结果,这可能会让驾驶员烦恼并分散注意力,但是典型地不是灾难性的,因为ADAS系统提醒驾驶员并且允许驾驶员决定安全条件是否真正存在并且相对应地采取行动。然而,在自主车辆500中,在冲突结果的情况下,车辆500本身必须决定是否注意(heed)来自主计算机或者辅助计算机(例如第一控制器536或第二控制器536)的结果。例如,在一些实施例中,ADAS系统538可以是用于向备用计算机合理性模块提供感知信息的备用和/或辅助计算机。备用计算机合理性监视器可以在硬件部件上运行冗余多样的软件,以检测感知和动态驾驶任务中的故障。来自ADAS系统538的输出可以提供给监督MCU。如果来自主计算机和辅助计算机的输出冲突,那么监督MCU必须确定如何协调该冲突以确保安全操作。
在一些示例中,主计算机可以被配置为向监督MCU提供置信度评分,指示主计算机对所选结果的置信度。如果置信度评分超过阈值,那么监督MCU可以遵循主计算机的方向,而不管辅助计算机是否提供冲突或不一致的结果。在置信度评分不满足阈值的情况下并且在主计算机和辅助计算机指示不同的结果(例如冲突)的情况下,监督MCU可以在这些计算机之间进行仲裁以确定适当的结果。
监督MCU可以被配置为运行神经网络,所述神经网络被训练并且被配置为基于来自主计算机和辅助计算机的输出,确定辅助计算机提供假警报的条件。因此,监督MCU中的神经网络可以了解何时可以信任辅助计算机的输出以及何时不能。例如,当辅助计算机为基于RADAR的FCW系统时,监督MCU中的神经网络可以了解FCW系统何时正在识别事实上不是危险的金属对象,例如触发警报的排水栅格或井盖。类似地,当辅助计算机是基于相机的LDW系统时,监督MCU中的神经网络可以学习在骑车者或行人在场并且车道偏离实际上是最安全的策略时无视该LDW。在包括运行在监督MCU上的神经网络的实施例中,监督MCU可以包括适合于利用关联的内存运行神经网络的DLA或GPU中的至少一个。在优选的实施例中,监督MCU可以包括SoC 504的部件和/或作为SoC 504的部件而被包括。
在其他示例中,ADAS系统538可以包括使用传统计算机视觉规则执行ADAS功能的辅助计算机。这样,辅助计算机可以使用经典的计算机视觉规则(如果-那么),并且在监督MCU中存在神经网络可以提高可靠性、安全性和性能。例如,多样化的实现方式和有意的非完全相同(non-identity)使得整个系统更加容错,对于软件(或者软件-硬件接口)功能造成的故障而言尤其如此。例如,如果在主计算机上运行的软件中存在软件漏洞或错误并且运行在辅助计算机上的非完全相同的软件代码提供相同的总体结果,那么监督MCU可以更加确信总体结果是正确的,并且主计算机上的软件或硬件中的漏洞不造成实质性的错误。
在一些示例中,ADAS系统538的输出可以馈送至主计算机的感知块和/或主计算机的动态驾驶任务块。例如,如果ADAS系统538由于对象紧接在前的原因而指示前方碰撞警告,那么感知块可以在识别对象时使用该信息。在其他示例中,辅助计算机可以具有它自己的神经网络,其被训练并且因此如本文所描述的降低假阳性的风险。
车辆500可以进一步包括信息娱乐SoC 530(例如车载信息娱乐系统(IVI))。尽管被图示和描述为SoC,但是信息娱乐系统可以不是SoC,并且可以包括两个或更多分立的部件。信息娱乐SoC 530可以包括可以用来向车辆500提供音频(例如音乐、个人数字助理、导航指令、新闻、广播等等)、视频(例如TV、电影、流媒体等等)、电话(例如免提呼叫)、网络连接(例如LTE、Wi-Fi等等)和/或信息服务(例如导航系统,后停车援助,无线电数据系统,诸如燃油水平、覆盖的总距离、制动燃油水平、油位、车门开/关、空气过滤器信息之类的车辆有关信息,等等)的硬件和软件的组合。例如,信息娱乐SoC 530可以包括收音机、盘播放器、导航系统、视频播放器、USB和蓝牙连接、车载电脑、车载娱乐、Wi-Fi、方向盘音频控件、免提语音控件、平视显示器(HUD)、HMI显示器534、远程信息处理设备、控制面板(例如用于控制各种部件、特征和/或系统,和/或与其交互)和/或其他部件。信息娱乐SoC 530可以进一步用来向车辆的用户提供信息(例如视觉的和/或听觉的),例如来自ADAS系统538的信息,诸如规划的车辆机动、轨迹、周围环境信息(例如交叉路口信息、车辆信息、道路信息等等)之类的自主驾驶信息,和/或其他信息。
信息娱乐SoC 530可以包括GPU功能。信息娱乐SoC 530可以通过总线502(例如CAN总线、以太网等)与车辆500的其他设备、系统和/或部件通信。在一些示例中,信息娱乐SoC530可以耦合至监督MCU,使得在主控制器536(例如车辆500的主和/或备用计算机)出现故障的情况下,信息娱乐系统的GPU可以执行一些自驾驶功能。在这样的示例中,信息娱乐SoC530可以如本文所描述的将车辆500置于司机安全停车模式。
车辆500可以进一步包括仪表组532(例如数字仪表板、电子仪表组、数字仪表面板等等)。仪表组532可以包括控制器和/或超级计算机(例如分立的控制器或超级计算机)。仪表组532可以包括一套仪器,例如车速表、燃油水平、油压、转速表、里程表、转弯指示器、换档位置指示器、安全带警告灯、停车制动警告灯、发动机故障灯、安全气囊(SRS)系统信息、照明控件、安全系统控件、导航信息等等。在一些示例中,信息可以被显示和/或在信息娱乐SoC 530和仪表组532之间共享。换言之,仪表组532可以作为信息娱乐SoC 530的部分而被包括,或者反之亦然。
图5D为根据本公开一些实施例的基于云的服务器与图5A的示例自主车辆500之间的通信的系统示意图。系统576可以包括服务器578、网络590以及包括车辆500在内的车辆。服务器578可以包括多个GPU 584(A)-584(H)(这里统称为GPU 584)、PCIe交换机582(A)-582(H)(这里统称为PCIe交换机582)和/或CPU 580(A)-580(B)(这里统称为CPU 580)。GPU584、CPU 580和PCIe交换机可以与诸如例如且不限于NVIDIA开发的NVLink接口588之类的高速互连和/或PCIe连接586互连。在一些示例中,GPU 584经由NVLink和/或NVSwitch SoC连接,并且GPU 584和PCIe交换机582经由PCIe互连连接。尽管图示出八个GPU 584、两个CPU580和两个PCIe交换机,但是这并不意图是限制性的。取决于实施例,服务器578中的每一个可以包括任意数量的GPU 584、CPU 580和/或PCIe交换机。例如,服务器578中的每一个可以包括八个、十六个、三十二个和/或更多GPU 584。
服务器578可以通过网络590并且从车辆接收图像数据,该图像数据表示示出诸如最近开始的道路工程之类的意外或改变的道路状况的图像。服务器578可以通过网络590并且向车辆传输神经网络592、更新的神经网络592和/或地图信息594,包括关于交通和道路状况的信息。对地图信息594的更新可以包括对于HD地图522的更新,例如关于建筑工地、坑洼、弯道、洪水或其他障碍物的信息。在一些示例中,神经网络592、更新的神经网络592和/或地图信息594可以已从新的训练和/或从环境中的任意数量的车辆接收的数据中表示和/或基于数据中心处执行的训练(例如使用服务器578和/或其他服务器)的经验产生。
服务器578可以用来基于训练数据训练机器学习模型(例如神经网络)。训练数据可以由车辆生成,和/或可以在仿真中生成(例如使用游戏引擎)。在一些示例中,训练数据被标记(例如在神经网络受益于有监督学习的情况下)和/或经历其他预处理,而在其他示例中,训练数据不被标记和/或预处理(例如在神经网络无需有监督学习的情况下)。训练可以根据任何一类或更多类机器学习技术来执行,包括但不限于以下类:监督训练、半监督训练、无监督训练、自学习、强化学习、联合学习、迁移学习、特征学习(包括主成分和聚类分析)、多线性子空间学习、流形学习、表示学习(包括备用字典学习)、基于规则的机器学习、异常检测及其任何变体或组合。一旦机器学习模型被训练,机器学习模型可以由车辆使用(例如通过网络590传输至车辆),和/或机器学习模型可以由服务器578用来远程地监控车辆。
在一些示例中,服务器578可以接收来自车辆的数据,并且将该数据应用到最新的实时神经网络以用于实时智能推理。服务器578可以包括由GPU 584供电的深度学习超级计算机和/或专用AI计算机,例如NVIDIA开发的DGX和DGX站机器。然而,在一些示例中,服务器578可以包括仅使用CPU供电的数据中心的深度学习基础设施。
服务器578的深度学习基础设施可能够快速实时推理,并且可以使用该能力来评估并验证车辆500中的处理器、软件和/或关联硬件的健康状况。例如,深度学习基础设施可以接收来自车辆500的定期更新,例如图像序列和/或车辆500已经定位的位于该图像序列中的对象(例如经由计算机视觉和/或其他机器学习对象分类技术)。深度学习基础设施可以运行它自己的神经网络以识别对象并且将它们与车辆500识别的对象相比较,如果结果不匹配并且该基础设施得出车辆500中的AI发生故障的结论,那么服务器578可以向车辆500传输信号,指示车辆500的故障保护计算机进行控制,通知乘客,并且完成安全停车操作。
为了推理,服务器578可以包括GPU 584和一个或更多个可编程推理加速器(例如NVIDIA的TensorRT 3)。GPU供电的服务器和推理加速的组合可以使得实时响应成为可能。在其他示例中,例如在性能不那么重要的情况下,CPU、FPGA和其他处理器供电的服务器可以用于推理。
示例计算设备
图6为适合用于实现本公开一些实施例的示例计算设备600的框图。计算设备600可以包括直接或间接耦合下列设备的总线602:内存604,一个或更多个中央处理单元(CPU)606,一个或更多个图形处理单元(GPU)608,通信接口610,输入/输出(I/O)端口612,输入/输出组件614,电源616,和一个或更多个呈现组件618(例如显示器)。
尽管图6的各个框被示为经由具有线路的总线602连接,但是这并不意图是限制性的,并且仅仅为了清楚起见。例如,在一些实施例中,诸如显示设备之类的呈现组件618可以被认为是I/O组件614(例如如果显示器为触摸屏)。作为另一个示例,CPU 606和/或GPU 608可以包括内存(例如,内存604可以表示除了GPU 608、CPU 606和/或其他组件的内存以外的存储设备)。换言之,图6的计算设备仅仅是说明性的。在诸如“工作站”、“服务器”、“膝上型电脑”、“台式机”、“平板电脑”、“客户端设备”、“移动设备”、“手持式设备”、“游戏控制台”、“电子控制单元(ECU)”、“虚拟现实系统”和/或其他设备或系统类型之类的类别之间不进行区分,因为所有这些都被考虑在图6的计算设备的范围内。
总线602可以表示一条或更多条总线,例如地址总线、数据总线、控制总线或者其组合。总线602可以包括一种或更多种总线类型,例如行业标准架构(ISA)总线、扩展行业标准架构(EISA)总线、视频电子标准协会(VESA)总线、外围组件互连(PCI)总线、外围组件互连快速(PCIe)总线,和/或另一种类型的总线。
内存604可以包括各种各样的计算机可读介质中的任何介质。计算机可读介质可以是可以由计算设备600访问的任何可用介质。计算机可读介质可以包括易失性和非易失性介质以及可移除和不可移除介质。举例而言且非限制性地,计算机可读介质可以包括计算机存储介质和通信介质。
计算机存储介质可以包括易失性和非易失性介质和/或可移除和不可移除介质,其以用于存储诸如计算机可读指令、数据结构、程序模块和/或其他数据类型之类的信息的任何方法或技术实现。例如,内存604可以存储计算机可读指令(例如其表示程序和/或程序元素,例如操作系统)。计算机存储介质可以包括但不限于RAM、ROM、EEPROM、闪存或者其他存储技术、CD-ROM、数字多功能盘(DVD)或其他光盘存储装置、磁带盒、磁带、磁盘存储装置或其他磁存储设备,或者可以用来存储期望的信息且可以由计算设备600访问的任何其他介质。当在本文使用时,计算机存储介质并不包括信号本身。
通信介质可以在诸如载波之类的调制数据信号或其他传输机制中包含计算机可读指令、数据结构、程序模块和/或其他数据类型,并且包括任何信息输送介质。术语“调制数据信号”可以指这样的信号,该信号使它的特性中的一个或更多个以这样的将信息编码到该信号中的方式设置或改变。举例而言且非限制性地,通信介质可以包括诸如有线网络或直接有线连接之类的有线介质,以及诸如声音、RF、红外和其他无线介质之类的无线介质。任何以上所述的组合也应当包含在计算机可读介质的范围内。
CPU 606可以被配置为执行计算机可读指令以便控制计算设备600的一个或更多个组件执行本文描述的方法和/或过程中的一个或更多个。CPU 606中的每一个可以包括能够同时处理大量软件线程的一个或更多个核(例如一个、两个、四个、八个、二十八个、七十二个等等)。CPU 606可以包括任何类型的处理器,并且可以包括不同类型的处理器,这取决于实现的计算设备600的类型(例如具有用于移动设备的较少核的处理器以及具有用于服务器的更多核的处理器)。例如,取决于计算设备600的类型,处理器可以是使用精简指令集计算(RISC)实现的ARM处理器或者使用复杂指令集计算(CISC)实现的x86处理器。除了一个或更多个微处理器或者诸如数学协处理器之类的补充协处理器之外,计算设备600还可以包括一个或更多个CPU 606。
计算设备600可以使用GPU 608来渲染图形(例如,3D图形)。GPU 608可以包括能够同时处理数百或数千个软件线程的数百或数千个核。GPU 608可以响应于渲染命令(例如经由主机接口接收的来自CPU 606的渲染命令)而生成用于输出图像的像素数据。GPU 608可以包括诸如显示内存之类的用于存储像素数据的图形内存。显示内存可以作为内存604的部分而被包括。GPU 708可以包括(例如经由链路)并行操作的两个或更多GPU。当组合在一起时,每个GPU 608可以生成用于输出图像的不同部分或者用于不同输出图像的像素数据(例如,第一GPU用于第一图像,第二GPU用于第二图像)。每个GPU可以包括它自己的内存,或者可以与其他GPU共享内存。
在计算设备600不包括GPU 608的示例中,CPU 606可以用于渲染图形。
通信接口610可以包括一个或更多个接收器、发送器和/或收发器,其使得计算设备700能够经由电子通信网络与其他计算设备通信,包括有线和/或无线通信。通信接口610可以包括使能通过若干不同网络中的任何网络进行通信的组件和功能,所述网络例如无线网络(例如Wi-Fi、Z波、蓝牙、蓝牙LE、ZigBee等等)、有线网络(例如通过以太网通信)、低功率广域网(例如LoRaWAN、SigFox等等)和/或因特网。
I/O端口612可以使得计算设备600能够逻辑地耦合到包括I/O组件614、呈现组件618和/或其他组件在内的其他设备,其中一些可以内置到(例如集成到)计算设备600中。说明性I/O组件614包括麦克风、鼠标、键盘、操纵杆、游戏垫、游戏控制器、碟形卫星天线、浏览仪、打印机、无线设备等等。I/O组件614可以提供处理用户生成的空中手势、语音或其他生理输入的自然用户接口(NUI)。在一些实例中,输入可以传输至适当的网络元件以便进一步处理。NUI可以实现语音识别、手写笔识别、面部识别、生物特征识别、屏幕上和邻近屏幕的手势识别、空中手势、头部和眼睛跟踪以及与计算设备600的显示器关联的触摸识别(如下文更详细地描述的)的任意组合。计算设备600可以包括诸如立体相机系统之类的深度相机、红外相机系统、RGB相机系统、触摸屏技术以及这些的组合,以用于手势检测和识别。此外,计算设备600可以包括使能运动检测的加速度计或陀螺仪(例如作为惯性测量单元(IMU)的部分)。在一些示例中,加速度计或陀螺仪的输出可以由计算设备600用来渲染沉浸式增强现实或者虚拟现实。
电源616可以包括硬接线电源、电池电源或者其组合。电源616可以向计算设备600供电以使得计算设备600的组件能够操作。
呈现组件618可以包括显示器(例如监视器、触摸屏、电视屏幕、平视显示器(HUD)、其他显示器类型或者其组合)、扬声器和/或其他呈现组件。呈现组件618可以接收来自其他组件(例如GPU 608、CPU 606等等)的数据,并且输出该数据(例如作为图像、视频、声音等等)。
本公开可以在由计算机或者诸如个人数字助理或其他手持式设备之类的其他机器执行的、包括诸如程序模块之类的计算机可执行指令的机器可使用指令或者计算机代码的通用上下文中进行描述。通常,包括例程、程序、对象、组件、数据结构等等的程序模块指的是执行特定任务或者实现特定抽象数据类型的代码。本公开可以在各种各样的系统配置中实践,这些配置包括手持式设备、消费电子器件、通用计算机、更专业的计算设备等等。本公开也可以在其中任务由通过通信网络链接的远程处理设备执行的分布式计算环境中实践。
如在本文中使用的,“和/或”关于两个或更多元素的叙述应当解释为仅指一个元素或者元素组合。例如,“元素A、元素B和/或元素C”可以包括仅仅元素A,仅仅元素B,仅仅元素C,元素A和元素B,元素A和元素C,元素B和元素C,或者元素A、B和C。此外,“元素A或元素B中的至少一个”可以包括元素A中的至少一个,元素B中的至少一个,或者元素A中的至少一个和元素B中的至少一个。进一步,“元素A和元素B中的至少一个”可以包括元素A中的至少一个,元素B中的至少一个,或者元素A中的至少一个和元素B中的至少一个。
本文详细地描述了本公开的主题以满足法定要求。然而,描述本身并非意在限制本公开的范围。相反地,本发明人已经设想到,要求保护的主题也可以以其他的方式具体化,以包括与本文中结合其他当前或未来技术描述的步骤不同的步骤或者相似的步骤的组合。而且,尽管术语“步骤”和/或“块”在本文中可以用来隐含采用的方法的不同元素,但是这些术语不应当被解释为暗示本文公开的各个步骤之中或之间的任何特定顺序,除非明确描述了各步骤的顺序。

Claims (20)

1.一种方法,包括:接收与包括某时间动态参与者的位置的区域相对应的地图数据;相对于所述地图数据定位所述动态参与者;接收在该时间由所述动态参与者的传感器生成的传感器数据;至少部分地基于所述地图数据和所述定位,生成与所述传感器数据相对应的地面实况数据;以及使用所述传感器数据和所述地面实况数据训练神经网络。
2.如权利要求1所述的方法,其中生成所述地面实况数据包括:将所述地图数据变换到所述动态参与者的坐标系;确定由所述地图数据表示的一个或更多个特征;以及在所述坐标系内生成与所述一个或更多个特征相对应的标签或注释,其中所述地面实况数据表示所述标签或所述注释。
3.如权利要求1所述的方法,还包括:至少部分地基于全球导航卫星系统(GNSS)数据、全球定位系统(GPS)数据或由所述动态参与者的一个或更多个基于位置的传感器生成的差分GPS(DGPS)数据中的至少一个来确定包括所述位置的所述区域。
4.如权利要求1所述的方法,其中训练所述神经网络包括:训练所述神经网络以针对以下至少一项执行推理:对象检测、特征检测、道路特征检测、等待条件检测或分类、或未来轨迹生成。
5.如权利要求1所述的方法,还包括:接收表示所述动态参与者穿过由所述传感器数据表示的视场的至少一部分的轨迹的数据,其中生成所述地面实况数据包括:至少部分基于所述高清地图数据调整所述轨迹。
6.如权利要求5所述的方法,其中调整所述轨迹包括:将所述轨迹移向所述动态参与者的行进车道的轨道。
7.如权利要求1所述的方法,其中所述传感器数据包括图像数据、LIDAR数据、RADAR数据、SONAR数据或超声波数据中的至少一个。
8.如权利要求1所述的方法,其中生成所述地面实况数据包括:将所述地图数据从所述地图数据的第一坐标系变换到所述传感器数据的第二坐标系,其中所述地面实况数据对应于所述第二坐标系。
9.如权利要求8所述的方法,其中所述第一坐标系是三维(3D)世界空间坐标系,以及所述第二坐标系是二维(2D)图像空间坐标系。
10.一种方法,包括:接收表示高清(HD)地图的地图数据;接收由动态参与者的至少一个第一传感器生成的第一传感器数据;至少部分地基于所述第一传感器数据相对于所述高清地图定位所述动态参与者;接收由所述动态参与者的第二传感器生成的第二传感器数据;至少部分地基于所述定位将所述地图数据与所述第二传感器数据进行关联;以及至少部分地基于所述关联生成与所述第二传感器数据相对应的地面实况数据以用于训练神经网络。
11.如权利要求10所述的方法,其中所述关联包括:将所述地图数据变换到相对于所述动态参与者定向的坐标空间。
12.如权利要求11所述的方法,其中所述关联还包括:在所述变换之后,将所述地图数据从世界空间坐标转换为对应于所述第二传感器数据的传感器空间坐标。
13.如权利要求10所述的方法,其中所述第一传感器数据表示所述一个或更多个第一传感器的视场内的一个或更多个特征,以及定位所述动态参与者包括:将所述一个或更多个特征与由所述高清地图表示的一个或更多个对应特征相关联。
14.如权利要求10所述的方法,还包括:接收由所述动态参与者的一个或更多个第三传感器生成的并且表示所述动态参与者穿过由所述第二传感器数据表示的视场的至少一部分的轨迹的第三传感器数据,其中生成所述地面实况数据包括:至少部分地基于所述地图数据调整所述轨迹。
15.如权利要求10所述的方法,其中所述地面实况数据与所述神经网络的输出在三维(3D)世界空间坐标中生成。
16.一种系统,包括:传感器,用于生成表示传感器数据表示的传感器数据;计算设备,包括一个或更多个处理设备和通信地耦合到所述一个或更多个处理设备的一个或更多个存储器设备,其上存储有编程指令,所述编程指令在由所述处理器执行时,使得以下项实例化:地图管理器,用于相对于高清(HD)地图定位动态参与者;特征确定器,用于确定由所述高清地图表示的一个或更多个特征;地面实况生成器,用于:将所述一个或更多个特征的第一位置与所述传感器数据表示内的所述一个或更多个特征的第二位置进行关联;以及至少部分地基于所述关联生成与所述一个或更多个特征的第二位置相对应的地面实况数据;和训练引擎,用于使用所述传感器数据和所述地面实况数据训练神经网络。
17.如权利要求16所述的系统,其中所述一个或更多个特征包括对象、道路特征或等待条件。
18.如权利要求16所述的系统,还包括:轨迹生成器,用于生成与由所述传感器数据表示的所述传感器的视场相对应的轨迹,其中生成所述地面实况数据包括:至少部分地基于所述一个或更多个特征调整所述轨迹。
19.如权利要求18所述的系统,其中所述一个或更多个特征包括所述动态参与者的行进车道的轨道。
20.如权利要求16所述的系统,其中所述地图管理器还用于相对于所述动态参与者的位置和方位来对所述高清地图进行定向。
CN202080041221.7A 2019-04-12 2020-04-03 用于自主机器应用的使用地图信息增强的地面实况数据的神经网络训练 Pending CN113906271A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201962833185P 2019-04-12 2019-04-12
US62/833,185 2019-04-12
PCT/US2020/026668 WO2020210127A1 (en) 2019-04-12 2020-04-03 Neural network training using ground truth data augmented with map information for autonomous machine applications

Publications (1)

Publication Number Publication Date
CN113906271A true CN113906271A (zh) 2022-01-07

Family

ID=72748809

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202080041221.7A Pending CN113906271A (zh) 2019-04-12 2020-04-03 用于自主机器应用的使用地图信息增强的地面实况数据的神经网络训练

Country Status (5)

Country Link
US (1) US20200324795A1 (zh)
JP (1) JP2022526825A (zh)
CN (1) CN113906271A (zh)
DE (1) DE112020001897T5 (zh)
WO (1) WO2020210127A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11449053B2 (en) * 2017-10-10 2022-09-20 Toyota Jidosha Kabushiki Kaisha Autonomous driving system

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10252717B2 (en) * 2017-01-10 2019-04-09 Toyota Jidosha Kabushiki Kaisha Vehicular mitigation system based on wireless vehicle data
US11966838B2 (en) 2018-06-19 2024-04-23 Nvidia Corporation Behavior-guided path planning in autonomous machine applications
FR3084631B1 (fr) * 2018-07-31 2021-01-08 Valeo Schalter & Sensoren Gmbh Assistance a la conduite pour le controle longitudinal et/ou lateral d'un vehicule automobile
KR102483649B1 (ko) * 2018-10-16 2023-01-02 삼성전자주식회사 차량 위치 결정 방법 및 차량 위치 결정 장치
WO2020163390A1 (en) 2019-02-05 2020-08-13 Nvidia Corporation Driving lane perception diversity and redundancy in autonomous driving applications
US11776390B2 (en) * 2019-04-24 2023-10-03 Toyota Motor Engineering & Manufacturing North America, Inc. Machine learning system for roadway feature extraction from wireless vehicle data
US11010927B2 (en) * 2019-10-16 2021-05-18 Automotive Research & Testing Center Method and system for generating dynamic map information capable of providing environment information
CN112667837A (zh) * 2019-10-16 2021-04-16 上海商汤临港智能科技有限公司 图像数据自动标注方法及装置
US11978266B2 (en) 2020-10-21 2024-05-07 Nvidia Corporation Occupant attentiveness and cognitive load monitoring for autonomous and semi-autonomous driving applications
US20220198200A1 (en) * 2020-12-22 2022-06-23 Continental Automotive Systems, Inc. Road lane condition detection with lane assist for a vehicle using infrared detecting device
EP4020111B1 (en) * 2020-12-28 2023-11-15 Zenseact AB Vehicle localisation
US11568625B2 (en) * 2021-01-07 2023-01-31 Nvidia Corporation Targeted object detection in image processing applications
US20220227397A1 (en) * 2021-01-19 2022-07-21 Baidu Usa Llc Dynamic model evaluation package for autonomous driving vehicles
US11741724B2 (en) * 2021-02-25 2023-08-29 Toyota Research Institute, Inc. Configuring a neural network to produce an electronic road map that has information to distinguish lanes of a road
EP4109191A1 (en) * 2021-06-18 2022-12-28 Aptiv Technologies Limited Methods and systems for generating ground truth data
US20230136860A1 (en) * 2021-10-28 2023-05-04 Nvidia Corporation 3d surface structure estimation using neural networks for autonomous systems and applications
CN116416584A (zh) * 2021-12-31 2023-07-11 罗伯特·博世有限公司 用于其他交通参与方的参考值生成方法及设备
CN116416591A (zh) * 2021-12-31 2023-07-11 罗伯特·博世有限公司 用于行车边界的参考值生成方法及设备
GB2617866A (en) * 2022-04-21 2023-10-25 Continental Automotive Romania Srl Computer implemented method for training a decision tree model for detecting an intersection, computer implemented method detecting an intersection,
DE102022120240A1 (de) 2022-08-11 2024-02-22 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Erzeugen von Trainingsdaten durch Bildtransformation, Verfahren zum Trainieren eines Maschinenlernmodells und Assistenzsystem

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180188041A1 (en) * 2016-12-30 2018-07-05 DeepMap Inc. Detection of misalignment hotspots for high definition maps for navigating autonomous vehicles
US20180293466A1 (en) * 2017-04-05 2018-10-11 Here Global B.V. Learning a similarity measure for vision-based localization on a high definition (hd) map
CN108780523A (zh) * 2016-03-18 2018-11-09 高通股份有限公司 使用本地设备提供的传感器数据和标签的基于云的处理
KR101919098B1 (ko) * 2017-05-18 2018-11-16 전남대학교산학협력단 지진 감지 시스템 및 방법
WO2019023628A1 (en) * 2017-07-27 2019-01-31 Waymo Llc NEURAL NETWORKS FOR VEHICLE TRACK PLANNING
US20190065866A1 (en) * 2017-08-22 2019-02-28 TuSimple Deep module and fitting module system and method for motion-based lane detection with multiple sensors
CN109405824A (zh) * 2018-09-05 2019-03-01 武汉契友科技股份有限公司 一种适用于智能网联汽车的多源感知定位系统
US20190102631A1 (en) * 2017-09-30 2019-04-04 TuSimple System and method for instance-level lane detection for autonomous vehicle control

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US514230A (en) 1894-02-06 Socket for dippers
US10909721B2 (en) * 2016-06-29 2021-02-02 Seeing Machines Limited Systems and methods for identifying pose of cameras in a scene
CA2993575A1 (en) * 2017-02-03 2018-08-03 Richard Pollock Active driving map for self-driving road vehicle
US10452959B1 (en) * 2018-07-20 2019-10-22 Synapse Tehnology Corporation Multi-perspective detection of objects
US20200050191A1 (en) * 2018-08-07 2020-02-13 GM Global Technology Operations LLC Perception uncertainty modeling from actual perception systems for autonomous driving
US11651244B2 (en) * 2018-10-04 2023-05-16 Here Global B.V. Method and apparatus for predicting sensor error
US11475678B2 (en) * 2019-01-04 2022-10-18 Qualcomm Incorporated Lane marker detection and lane instance recognition

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108780523A (zh) * 2016-03-18 2018-11-09 高通股份有限公司 使用本地设备提供的传感器数据和标签的基于云的处理
US20180188041A1 (en) * 2016-12-30 2018-07-05 DeepMap Inc. Detection of misalignment hotspots for high definition maps for navigating autonomous vehicles
US20180293466A1 (en) * 2017-04-05 2018-10-11 Here Global B.V. Learning a similarity measure for vision-based localization on a high definition (hd) map
KR101919098B1 (ko) * 2017-05-18 2018-11-16 전남대학교산학협력단 지진 감지 시스템 및 방법
WO2019023628A1 (en) * 2017-07-27 2019-01-31 Waymo Llc NEURAL NETWORKS FOR VEHICLE TRACK PLANNING
US20190065866A1 (en) * 2017-08-22 2019-02-28 TuSimple Deep module and fitting module system and method for motion-based lane detection with multiple sensors
US20190102631A1 (en) * 2017-09-30 2019-04-04 TuSimple System and method for instance-level lane detection for autonomous vehicle control
CN109405824A (zh) * 2018-09-05 2019-03-01 武汉契友科技股份有限公司 一种适用于智能网联汽车的多源感知定位系统

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
BITTEL, S: "Estimating High Definition Map Parameters with Convolutional Neural Networks", 2017 IEEE INTERNATIONAL CONFERENCE ON SYSTEMS, MAN, AND CYBERNETICS (SMC), 28 December 2018 (2018-12-28), pages 52 - 56 *
MARIUSZ BOJARSKI: "End to End Learning for Self-Driving Cars", ARXIV, 25 April 2016 (2016-04-25), pages 1 - 9 *
潘霞;张庆余;朱强;: "高精度地图在自动驾驶领域的作用及意义解析", 时代汽车, no. 04, 5 April 2019 (2019-04-05), pages 49 - 51 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11449053B2 (en) * 2017-10-10 2022-09-20 Toyota Jidosha Kabushiki Kaisha Autonomous driving system
US11797002B2 (en) 2017-10-10 2023-10-24 Toyota Jidosha Kabushiki Kaisha Autonomous driving system

Also Published As

Publication number Publication date
WO2020210127A1 (en) 2020-10-15
JP2022526825A (ja) 2022-05-26
DE112020001897T5 (de) 2021-12-30
US20200324795A1 (en) 2020-10-15

Similar Documents

Publication Publication Date Title
US11989642B2 (en) Future object trajectory predictions for autonomous machine applications
US11897471B2 (en) Intersection detection and classification in autonomous machine applications
US11769052B2 (en) Distance estimation to objects and free-space boundaries in autonomous machine applications
US11688181B2 (en) Sensor fusion for autonomous machine applications using machine learning
US11308338B2 (en) Distance to obstacle detection in autonomous machine applications
US20240112036A1 (en) Leveraging multidimensional sensor data for computationally efficient object detection for autonomous machine applications
US11704890B2 (en) Distance to obstacle detection in autonomous machine applications
US20200341466A1 (en) Intersection pose detection in autonomous machine applications
US20200324795A1 (en) Neural network training using ground truth data augmented with map information for autonomous machine applications
US11531088B2 (en) Deep neural network for detecting obstacle instances using radar sensors in autonomous machine applications
EP3828592A1 (en) Deep neural network for detecting obstacle instances using radar sensors in autonomous machine applications
EP3832341A1 (en) Deep neural network for detecting obstacle instances using radar sensors in autonomous machine applications
CN114008685A (zh) 用于自主机器应用的路口区域检测和分类
CN113168505A (zh) 用于自主驾驶机器的基于回归的线检测
US11830160B2 (en) Object detection using planar homography and self-supervised scene structure understanding
CN114155272A (zh) 自主机器应用中的自适应目标跟踪算法
CN112989914A (zh) 具有自适应加权输入的注视确定机器学习系统
US11538231B2 (en) Projecting images captured using fisheye lenses for feature detection in autonomous machine applications
CN114450724A (zh) 用于自主机器应用的多活动者环境中的未来轨迹预测
US20230213945A1 (en) Obstacle to path assignment for autonomous systems and applications
US20230099494A1 (en) Assigning obstacles to lanes using neural networks for autonomous machine applications
CN113609888A (zh) 利用平面单应性和自监督的场景结构理解进行对象检测

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination