CN114930303A - 用于自主机器应用的虚拟环境场景和观察器 - Google Patents
用于自主机器应用的虚拟环境场景和观察器 Download PDFInfo
- Publication number
- CN114930303A CN114930303A CN202180008425.5A CN202180008425A CN114930303A CN 114930303 A CN114930303 A CN 114930303A CN 202180008425 A CN202180008425 A CN 202180008425A CN 114930303 A CN114930303 A CN 114930303A
- Authority
- CN
- China
- Prior art keywords
- vehicle
- autonomous
- virtual
- simulation
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012360 testing method Methods 0.000 claims abstract description 70
- 230000006399 behavior Effects 0.000 claims abstract description 24
- 238000004088 simulation Methods 0.000 claims description 154
- 238000000034 method Methods 0.000 claims description 104
- 230000006870 function Effects 0.000 claims description 70
- 238000012545 processing Methods 0.000 claims description 51
- 238000013528 artificial neural network Methods 0.000 claims description 45
- VEMKTZHHVJILDY-UHFFFAOYSA-N resmethrin Chemical compound CC1(C)C(C=C(C)C)C1C(=O)OCC1=COC(CC=2C=CC=CC=2)=C1 VEMKTZHHVJILDY-UHFFFAOYSA-N 0.000 claims description 10
- 230000009471 action Effects 0.000 claims description 9
- 238000011156 evaluation Methods 0.000 claims description 9
- 238000010801 machine learning Methods 0.000 claims description 9
- 230000007246 mechanism Effects 0.000 claims description 2
- 230000015654 memory Effects 0.000 description 61
- 238000013473 artificial intelligence Methods 0.000 description 50
- 238000001514 detection method Methods 0.000 description 34
- 238000004891 communication Methods 0.000 description 33
- 238000013527 convolutional neural network Methods 0.000 description 21
- 230000008569 process Effects 0.000 description 21
- 230000004438 eyesight Effects 0.000 description 20
- 230000008859 change Effects 0.000 description 17
- 238000010586 diagram Methods 0.000 description 16
- 238000007726 management method Methods 0.000 description 16
- 238000004422 calculation algorithm Methods 0.000 description 15
- 230000000670 limiting effect Effects 0.000 description 15
- 238000003860 storage Methods 0.000 description 15
- 239000013598 vector Substances 0.000 description 15
- 238000005516 engineering process Methods 0.000 description 12
- 230000001133 acceleration Effects 0.000 description 11
- 230000033001 locomotion Effects 0.000 description 11
- 230000004044 response Effects 0.000 description 10
- 230000000007 visual effect Effects 0.000 description 10
- 238000013135 deep learning Methods 0.000 description 9
- 230000002093 peripheral effect Effects 0.000 description 9
- 238000009877 rendering Methods 0.000 description 8
- 238000012549 training Methods 0.000 description 8
- 238000004458 analytical method Methods 0.000 description 7
- 238000013461 design Methods 0.000 description 7
- 238000013439 planning Methods 0.000 description 6
- 238000012795 verification Methods 0.000 description 6
- 238000006243 chemical reaction Methods 0.000 description 5
- 238000012937 correction Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 230000007613 environmental effect Effects 0.000 description 5
- 230000003993 interaction Effects 0.000 description 5
- 239000000203 mixture Substances 0.000 description 5
- 238000012544 monitoring process Methods 0.000 description 5
- 230000003044 adaptive effect Effects 0.000 description 4
- 230000003190 augmentative effect Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 4
- 238000007667 floating Methods 0.000 description 4
- 238000009434 installation Methods 0.000 description 4
- 230000009467 reduction Effects 0.000 description 4
- 230000003068 static effect Effects 0.000 description 4
- 230000002123 temporal effect Effects 0.000 description 4
- 241001465754 Metazoa Species 0.000 description 3
- 238000005266 casting Methods 0.000 description 3
- 239000003795 chemical substances by application Substances 0.000 description 3
- 238000010276 construction Methods 0.000 description 3
- 230000001815 facial effect Effects 0.000 description 3
- 239000000446 fuel Substances 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 230000008447 perception Effects 0.000 description 3
- 125000000914 phenoxymethylpenicillanyl group Chemical group CC1(S[C@H]2N([C@H]1C(=O)*)C([C@H]2NC(COC2=CC=CC=C2)=O)=O)C 0.000 description 3
- 229920002451 polyvinyl alcohol Polymers 0.000 description 3
- 235000019422 polyvinyl alcohol Nutrition 0.000 description 3
- 230000001360 synchronised effect Effects 0.000 description 3
- 238000013519 translation Methods 0.000 description 3
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000004313 glare Effects 0.000 description 2
- 231100001261 hazardous Toxicity 0.000 description 2
- 230000036541 health Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000004926 polymethyl methacrylate Substances 0.000 description 2
- 238000013442 quality metrics Methods 0.000 description 2
- 230000002829 reductive effect Effects 0.000 description 2
- 238000002310 reflectometry Methods 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 239000000725 suspension Substances 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 238000002604 ultrasonography Methods 0.000 description 2
- HPTJABJPZMULFH-UHFFFAOYSA-N 12-[(Cyclohexylcarbamoyl)amino]dodecanoic acid Chemical compound OC(=O)CCCCCCCCCCCNC(=O)NC1CCCCC1 HPTJABJPZMULFH-UHFFFAOYSA-N 0.000 description 1
- 101100248200 Arabidopsis thaliana RGGB gene Proteins 0.000 description 1
- 238000006424 Flood reaction Methods 0.000 description 1
- PEDCQBHIVMGVHV-UHFFFAOYSA-N Glycerine Chemical compound OCC(O)CO PEDCQBHIVMGVHV-UHFFFAOYSA-N 0.000 description 1
- 101000595182 Homo sapiens Podocan Proteins 0.000 description 1
- 102100030148 Integrator complex subunit 8 Human genes 0.000 description 1
- 101710092891 Integrator complex subunit 8 Proteins 0.000 description 1
- 206010034960 Photophobia Diseases 0.000 description 1
- 102100036036 Podocan Human genes 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 230000003042 antagnostic effect Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000001427 coherent effect Effects 0.000 description 1
- 238000002485 combustion reaction Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000005094 computer simulation Methods 0.000 description 1
- 238000001816 cooling Methods 0.000 description 1
- 238000013481 data capture Methods 0.000 description 1
- 238000013523 data management Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000005669 field effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000012905 input function Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 208000018910 keratinopathic ichthyosis Diseases 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 208000013469 light sensitivity Diseases 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000001693 membrane extraction with a sorbent interface Methods 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 239000003973 paint Substances 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 239000000047 product Substances 0.000 description 1
- 230000004043 responsiveness Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 230000035939 shock Effects 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 230000002269 spontaneous effect Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000000153 supplemental effect Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000007723 transport mechanism Effects 0.000 description 1
- 238000012384 transportation and delivery Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
- -1 waterfalls Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/36—Preventing errors by testing or debugging software
- G06F11/3668—Software testing
- G06F11/3672—Test management
- G06F11/3684—Test management for test design, e.g. generating new test cases
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/20—Design optimisation, verification or simulation
- G06F30/27—Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0088—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/22—Detection or location of defective computer hardware by testing during standby operation or during idle time, e.g. start-up testing
- G06F11/26—Functional testing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/30—Monitoring
- G06F11/34—Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
- G06F11/3457—Performance evaluation by simulation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/36—Preventing errors by testing or debugging software
- G06F11/3664—Environments for testing or debugging software
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/36—Preventing errors by testing or debugging software
- G06F11/3668—Software testing
- G06F11/3672—Test management
- G06F11/3676—Test management for coverage analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/36—Preventing errors by testing or debugging software
- G06F11/3668—Software testing
- G06F11/3672—Test management
- G06F11/3688—Test management for test execution, e.g. scheduling of test suites
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/36—Preventing errors by testing or debugging software
- G06F11/3668—Software testing
- G06F11/3672—Test management
- G06F11/3692—Test management for test results analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
- G06N5/022—Knowledge engineering; Knowledge acquisition
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0062—Adapting control system settings
- B60W2050/0075—Automatic parameter input, automatic initialising or calibrating means
- B60W2050/0083—Setting, resetting, calibration
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- Evolutionary Computation (AREA)
- Quality & Reliability (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Automation & Control Theory (AREA)
- Medical Informatics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Geometry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Business, Economics & Management (AREA)
- Game Theory and Decision Science (AREA)
- Aviation & Aerospace Engineering (AREA)
- Electromagnetism (AREA)
- Computer Networks & Wireless Communication (AREA)
- Debugging And Monitoring (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Stored Programmes (AREA)
Abstract
本公开涉及用于自主机器应用的虚拟环境场景和观察器。在各个示例中,可以使用声明性描述——例如,定义感兴趣的行为——来定义场景,本系统可以将该声明性描述转换成用于生成用于在虚拟环境中测试自主或半自主机器的场景的一个或更多个实例和/或变化的过程性描述。系统可执行用于测试机器的性能和准确度的观察器或评估器,并且可基于所生成的虚拟场景来计算各个元素的覆盖率,并且可将结果反馈给系统以生成覆盖率或准确度低于期望水平的额外实例和/或变化。因此,系统可包括用于在虚拟环境中生成场景,测试和校验场景本身,和/或测试和校验机器的底层自主或半自主系统的端到端框架——全部基于声明性描述。
Description
背景技术
在自主或半自主车辆的开发过程中(并且由于此类系统的安全关键性质),能够在大量情况和环境中准确且可靠地测试车辆的功能和性能对于确保车辆安全执行是至关重要的。具体地,测试可以用于验证车辆可以安全地在现实世界环境内操作。测试自主车辆(包括车辆的硬件和/或底层软件)的一种方式是使用模拟环境。例如,可以针对从虚拟表示或变化环境(例如,视觉或虚拟环境、抽象计算环境等)内收集的数据来测试对应于自主或半自主软件栈(诸如用于对象检测、车道和道路边界检测、安全分析、可驾驶自由空间分析、在车辆操纵期间的控制生成等)的一个或更多个抽象表示和/或计算模型(例如,机器学习模型、深度神经网络(DNN)、计算机视觉算法等)。
例如,在常规系统中,在测试自主车辆的尝试中,感兴趣的场景可以在虚拟和/或计算环境内被硬编码(或手动创建)。例如,测试者可以尝试通过手动定义虚拟和/或计算环境中的特定场景、交通、代理和/或行动者来对其场景进行编程(例如,使用诸如Python、MATLAB、Simulink规范等编程语言)。然而,由于用于验证和校验自主车辆的场景的复杂性,以这种方式创建场景经常导致错误和/或不理解整个域、搜索空间和/或所有可能的测试目标和/或安全关键系统要求(例如,在代码、场景等中)的有意义覆盖范围。此外,因为必须手动地定义每个场景,并且还必须手动地定义场景的任何变化,所以以适合于验证和校验自主系统以实现所需安全水平的规模测试全范围场景的能力是有挑战性的任务。因此,这些常规系统不提供用于容易地定义数百万个感兴趣的角落场景及其变型的直观方法。此外,因为这些常规系统一般依赖于模块级和/或标准应用测试,所以常规系统未能提供对与安全关键系统行为有关的场景的有效端到端评估。
发明内容
本公开的实施例涉及使用模拟环境来训练、测试和验证自主机器。公开了允许基于所定义的观察器来生成虚拟环境场景并校验与所生成的环境场景相关的自主机器的功能和性能的系统和方法。
与常规系统(诸如以上所描述的那些系统)相比,本公开的系统和方法允许使用声明性描述(例如,声明性范例、一阶逻辑)来定义场景,以实现在模拟校验搜索空间内创建有意义的表示的自动化和算法增强的方式。具体地,感兴趣的行为可以用描述和/或声明性方式来定义,并且本系统的框架然后可以在实施例中自动地将声明性描述转换成过程性描述,该过程性描述可以用于以技术上有意义的方式(例如,覆盖信号的所有等价类、覆盖某些组成中的多个信号的所有相关组合等)来生成所定义的场景的一个或更多个实例和/或变化。这样的变化可以在用户不必手动定义(例如,手动编码)超出场景和评估器和/或观察器的初始声明性描述的任何内容的情况下生成。
此外,可以使用声明性描述内的任何级别的细节,并且在省略细节的情况下,系统和/或系统计算引擎可以确定与未定义标准相对应的具体值和/或参数,以便生成一个或更多个场景和/或观察器(包括它们中的很多缩放成数百万)。例如,如果感兴趣的行为涉及汽车转弯,则声明性描述可能是“汽车向右转弯”。本公开的系统可采取该声明性描述并确定代表来填充在该场景中未明确定义的不同度量(例如,交通、转弯速度、激进驾驶、车辆数量、车辆类型、建筑物位置、树、等待条件等)。使用这些各种度量,系统可以构建定义场景的不同变化,对照这些定义场景测试自主车辆的虚拟实例,确定和评估自主系统的功能和/或性能,并将结果反馈至系统以用于生成更准确地符合期望场景的更新场景,和/或更新自主系统的特征或模块(例如,用于被测系统的自我监控或自我修复目的,以提升其自身的功能)。结果,本公开的系统提供了端对端解决方案,用于使用一阶逻辑声明性语言来定义抽象和/或具体场景、评估器/观察器和/或覆盖模型,该一阶逻辑声明性语言可用谓词、计算世界模型或其组合来丰富。
附图说明
下面参考附图详细描述用于使用模拟环境来训练、测试和验证自主机器的本系统和方法,其中:
图1A是根据本公开的一些实施例的用于基于所定义的观察器生成虚拟环境场景并校验与所生成的虚拟环境场景相关的自主机器的功能和性能的示例系统;
图1B包括根据本公开的一些实施例的用于基于所定义的观察器生成虚拟环境场景并校验与所生成的虚拟环境场景相关的自主机器的功能和性能的数据流程图;
图2A-2E包括根据本公开的一些实施例的用于生成虚拟环境场景的域本体的表示;
图3是示出了根据本公开的一些实施例的用于生成与描述定义的可观察量的可解释描述相关的多个场景的方法的流程图;
图4是示出了根据本公开的一些实施例的用于生成和分析与描述定义的可观察量的声明性描述有关的多个场景的方法的流程图;
图5是示出了根据本公开的一些实施例的用于生成并评估包括由声明性语言表示的可观察量的多个场景的方法的流程图;
图6A-6F包括适用于实施本公开的至少一些实施例的示例性模拟系统的组件、特征和功能的示例图示;
图7A是根据本公开的一些实施例的在运行时的模拟系统的示例图示;
图7B包括根据本公开的一些实施例的用于模拟系统的基于云的架构;
图8A是根据本公开一些实施例的示例自主车辆的图示;
图8B是根据本公开的一些实施例的图8A的示例自主车辆的相机位置和视野的示例;
图8C是根据本公开的一些实施例的图8A的示例自主车辆的示例系统架构的框图;
图8D是根据本公开的一些实施例的用于在基于云的服务器与图8A的示例自主车辆之间通信的系统图;和
图9是适合用于实现本公开的一些实施例的示例计算设备的框图。
具体实施方式
所公开的系统和方法涉及校验模拟环境中的自主机器或对象的功能和性能。虽然可相对于示例自主车辆102(在本文中可替代地称为“车辆102”或“本车102”,相对于图8A至图8D描述了其示例)来描述本公开,但是这并非旨在限制。例如,本文所述的系统和方法可由但不限于非自主车辆、半自主车辆(例如,在一个或更多个高级驾驶员辅助系统(ADAS)中)、机器人、仓库车辆、越野车辆、飞行船只、船、摆渡车、紧急响应车辆、摩托车、电动自行车或机动自行车、飞机、施工车辆、水下船、无人机和/或其他车辆类型使用。此外,尽管本公开可以关于自主驾驶或ADAS系统进行描述,但是这不旨在是限制性的。例如,本文所述的系统和方法可用于机器人(例如,用于在模拟环境中测试、校验和/或验证机器人系统)、空中系统(例如,用于在模拟环境中测试飞机)、船上系统和/或可采用虚拟或模拟环境中的测试的其他技术领域。
设计观察器和评估器
现在参见图1A,图1A是根据本公开的一些实施例的用于基于所定义的观察器来生成虚拟环境场景并校验所生成的虚拟环境中的自主机器的功能和性能、游戏环境的性能、场景和其中的虚拟行动者、土木工程和/或街道规划架构、所生成的虚拟环境场景内的挖掘和/或其他工业相关应用和/或用于其他技术或应用空间的示例系统100A。照此,虽然本公开主要相对于虚拟环境中的自主或半自主机器来描述,但是这不旨在是限制性的,并且本文所描述的方法和系统可以在任何技术空间中实现。
特别地,关于观察器,可使用可解释的描述来定义观察器。例如,系统100A可用于以描述性和/或声明性方式来定义感兴趣的行为。此外,示例系统100A的框架然后可以将可解释的描述转换成过程描述,所述过程描述可以用于以技术上有意义的方式(例如,覆盖信号的所有等价类、覆盖某个组成中的多个信号的所有相关组合等)来生成所定义的场景的一个或更多个实例和/或变化。在实施例中,该转换可自动执行。在一些示例中,系统100A可包括在此描述的其他系统(诸如图6A-6E、7A-7B和8A-8D的系统)的组件、特征和/或功能中的一些或全部,和/或可包括这些系统的附加和/或替代的组件、特征和功能。应当理解,本文所述的这种和其他布置仅作为示例进行阐述。除了或代替所示的布置和元件,可使用其他布置和元件(例如,机器、接口、功能、次序、功能分组等),并且可完全省略一些元件。进一步,本文描述的许多元件是可以被实现为分立或分布式组件或与其他组件结合、并且以任何合适的组合和位置的功能实体。本文描述为由实体执行的各个功能可由硬件、固件和/或软件执行。例如,各个功能可以通过处理器执行存储在存储器中的指令来实现。
图1A还包括根据本公开的一些实施例的定义、确定、生成和实现虚拟环境场景的过程118的数据流程图。过程118可包括场景设计器122、场景确定器124、场景生成器126、模拟实施器128和/或分析器132。过程118可包括循环,借此来自分析器132的数据可用于测试自主车辆相对于这些定义的场景的虚拟实例,并确定和评估自动系统的功能和/或性能。例如,该系统可用于确定所定义的场景的覆盖率(例如,在捕捉所提出的行为和/或场景时的功效)、评估所定义的场景的变化、和/或分析检验器在所定义的场景的变化中的(一个或更多个)行为。基于这个分析的结果,在实例中,该系统可以生成更精确地符合所希望的场景的更新场景,使得该自主系统的特征、功能、和/或组件在所希望的场景上被完全测试和校验(例如,出于在测系统的自我监测或自我修复的目的以提升其自身的功能)。
(一个或更多个)数据存储120可存储域本体,以基于定义的声明性描述来提供与操作设计域内的行动者行为和关系有关的规范。具体地,这种域本体可以提供模拟环境的操作设计领域底层的基本概念的术语和分类学。本体可提供可用于表示与模拟环境相关的复杂知识的知识表示手段。例如,本体可以提供与计算模拟对象、模拟对象的分组、管理各个模拟对象之间的交互的关系和规则等相关的信息。域本体表示通常可以使测试系统的模型之间能够语义互操作,并且可以定义可以使用的公理和从公理逻辑推导的事实。
场景设计器122可以接收定义自主驾驶校验搜索空间内的场景的声明性描述。这样的声明性描述可以包括声明性范例、一阶逻辑或其他可解释的描述,这些描述能够以自动化和算法增强的方式创建有意义的代表。具体而言,场景设计器122可以接收以描述和/或声明性方式定义的感兴趣行为。此外,可以使用声明性描述内的任何级别的细节。例如,如果感兴趣的行为涉及汽车转弯,则声明性描述可以是“汽车向右转弯”。
场景确定器124可包括以技术上有意义的方式生成所定义的场景的一个或更多个实例和/或变化(例如,覆盖信号的所有等价类、覆盖某个组成中的多个信号的所有相关组合等)。例如,场景确定器124可将声明性描述转换成过程性描述。该过程性描述随后可用于生成所定义的场景的一个或更多个实例和/或变化。这样的变化可以在用户不必手动定义(例如,手动编码)超出场景和评估器和/或观察器的初始声明性描述的任何内容的情况下生成。例如,在声明性描述中省去细节或参数的情况下,场景确定器124可确定对应于未定义标准的具体值和/或参数,以便生成一个或更多个场景和/或观察器(包括它们中的很多缩放成数百万)。具体而言,场景确定器124可采取声明性描述(例如,由场景设计器122接收)并确定代表来填充在该场景中未明确定义的不同度量(例如,交通、转弯速度、激进驾驶、车辆数量、车辆类型、建筑物位置、树、等待条件等)。使用这些各种度量,场景确定器124可构建所定义的场景的不同变化。
场景生成器126可用于生成定义场景的变化。使用由场景确定器124确定的数据,场景生成器126可以以技术上有意义的方式生成所定义的场景的一个或更多个实例和/或变化。这可以包括生成不同物理环境中的场景的变化,具有不同的行动者、不同的路径结构、不同的速度、速率、行动者在环境中的不同移动、不同的静止物体、不同的等待条件、交通等,和/或具有其他差异,这些差异可以尝试在足够的变化中捕获所定义的可观察量以帮助训练自主车辆的底层系统以在任何现实世界场景中安全且有效的操作。
模拟实施器128可用于实施所生成的场景。例如,在生成定义场景的不同变化之后(例如,使用场景生成器126),模拟实施器128可运行定义场景的变化。模拟实施器128可用于针对使用场景生成器126生成的定义场景测试自主车辆102、半自主车辆和/或其组件或特征的虚拟实例。
分析器132可用于确定和评估自主系统的功能和/或性能。例如,分析器132可评估所生成的场景的准确度、在测系统的准确度、和/或要求和/或测试目标的覆盖率。具体地,在一些实施例中,分析器132可确定所定义的场景的覆盖率(例如,场景实际表现用于生成场景的定义和/或测试目标的程度)。在另外的实施例中,分析器132可以评估所定义的场景的变化(例如,场景是否足够多样以提供对各种可能性的充分测试)。在其他实施例中,分析器132可以分析检验器在所定义的场景的变体中的(一个或更多个)行为。
更详细地,分析器132可用于确定定义的场景的覆盖率。具体地,分析器132可以使用覆盖率检验器来评估所定义的场景的变化以确定与所定义的场景相关的测试的完整性。覆盖率检验器可用于基于所定义的场景的变化来分析模拟,并且以此方式,覆盖率收集器可用于确定与场景相关的控制值是否实际上在模拟中导致期望的可观察量。分析器132可以使用覆盖率检验器来分析所定义的场景的变化,以确认基于变化的模拟实际上按计划运行(例如,包括在声明性描述中和/或在引擎可理解的可解释描述中描述的期望可观察量)。覆盖率可以使用所定义的场景的多少变化满足用户指定的声明性描述的百分比(例如,90%)和/或任何其他关键性能指标(KPI)度量来表示。覆盖率还可指示非覆盖场景的关键性。例如,如果存在90%的覆盖率但是非覆盖场景是非常关键的,则覆盖率检验器可以做出该确定并且提供相同的指示。当覆盖率检验器指示不满足覆盖率时(例如,基于百分比或当非覆盖场景高度关键时),可以运行所定义的场景的额外变化——例如,基于从分析器132到系统中的反馈,该反馈可以基于所识别的问题自动生成。
此外,分析器132可用于评估所定义的场景的变化。具体地,分析器132可使用上下文特定的评估器来将功能和性能与预期的行为、预期的参数和/或任何种类的基值(groundtruth)进行比较。此外,场景质量度量可用于确定所定义场景的变化有多好(例如,变化是否实现可观察量、变化是否跨不同平台上的多个测试可重用等)。这样的评估器可以在被测系统的执行期间实时地、离线地和/或以以上情况的任何组合来运行。在一些情况下,评估器可以在系统的后台中运行,这可以在任何给定的场景中主动搜索问题或缺陷——例如,在运行时期间。例如,评估器可以用于确定错误的根源。具体地,评估器可用于在模拟运行时获取自主车辆102(或其虚拟表示)的状态,然后可基于预期行为搜索用户指定的声明性描述的目标。在一些实施例中,可以同时运行多个评估器,并且基于这些评估器中的每一个的分析,可以优化搜索空间(例如,以帮助调试,因为可以忽略不是根本原因的其他问题)。
进一步,分析器132可用于分析检验器在所定义场景的变化中的行为。检验器可以类似于先前讨论的评估器,除了检验器可以包括基于枚举和/或二进制评估手段之外。例如,检验器可以确定是否发生了某事。具体地,检验器可以添加“断言”,如果发生某事,断言将生成通过标记。检验器可以评估变化以确定在整个场景执行期间条件是否成立(例如,在整个场景执行期间,本车始终与其前面的汽车保持安全距离)。
此外,分析器132可评估自主系统的特征、功能或组件(例如,硬件或软件)的个体或组合,并使用来自评估的反馈来更新场景和/或生成虚拟计算环境内的新场景,以进一步或充分测试特征、功能和/或组件,和/或更新自主系统本身(例如,更新DNN或用于重新测试的其他机器学习算法,以提高准确度、更新传感器模型或校准信息等)。具体地,分析器132可以进一步将分析结果反馈至系统100A以用于生成更准确地符合期望的场景的更新场景,和/或更新自主系统的特征或模块(例如,出于被测系统的自我监测或自我修复目的以提升其自身的功能)。
现在参见图1B,图1B包括用于基于定义的观察器生成虚拟环境场景并验证与所生成的虚拟环境场景相关的自主机器的功能和性能的过程100B的数据流程图。过程100B可包括场景设计器122,其可除了使用域本体130以外还使用声明性描述来定义场景生成器126的信息。可以使用数据集存储120(例如,处理不可变数据集以供进一步处理的服务)来存储域本体。域本体130可以用于确定与和声明性描述相关的定义和未定义标准对应的具体值和/或参数,以便生成一个或更多个场景和/或观察器。例如,场景确定器124可采取声明性描述(例如,由场景设计器122接收)并访问域本体130以确定代表来填充未在场景中明确定义的不同度量(例如,交通、转弯速度、激进驾驶、车辆数量、车辆类型、建筑物位置、树、等待条件等)。使用所选值(例如,各种度量),可由场景生成器126构建所定义的场景的不同变化。例如,场景生成器126可以使用来自域本体130的选定值来生成定义场景的一个或更多个实例和/或变化。一旦生成了所定义场景的变化(这些变化可以各自包括至少一些不同的选定值),模拟实施器128可以用于使用所定义的场景的变化来运行模拟。
在一些实施例中,可以对系统的性能进行评估,并且评估的输出可以用于为用户生成通知或信息。例如,在覆盖率低于期望水平的情况下,该信息可以用图形用户界面(GUI)填充(例如,“该模拟的覆盖率是87%)。作为另一个示例,当覆盖率高(例如,高于阈值)但是场景错过关键方面时,该信息可填充在GUI中(例如,“覆盖率是90%,但是安全关键测试变化没有被捕获”)。类似地,在自主或半自主车辆的特征的性能不足或充分的情况下,此信息也可被填充在GUI内(例如,“用于以低于期望准确度水平的78%准确度执行的对象检测的DNN”)。在填充该信息的任何示例中,性能问题、覆盖未命中等的根本原因也可以由系统(例如,自动地)确定并且在GUI内填充(例如,“覆盖率低于阈值覆盖率,但模拟9、17和30不匹配所定义的可观察量”)。在这样的示例中,系统还可以生成新的命令或声明性描述以解决后续或更新的场景中的这些问题。因此,该过程可以包括端到端解决方案,该解决方案可以包括在整个过程中自动校正以及为用户生成信息。
域本体
域本体200(例如,由在本文中更详细描述的至少本体200A、200B、200C、200D和200E表示)可以涉及定义明确的操作设计域(“ODD”)的概念。可能难以精确地和完全地定义ODD内的操作要求。例如,常规验证和校验系统不提供ODD内的行动者行为和关系的完整规范。进一步,定义行动者与正在进行测试的本车之间的交互可能是困难的。本公开的系统允许使用可观察的期望系统结果(例如,安全地完成特定使命、任务或目标)来定义这样的交互。具体地,可以使用声明性描述和/或一阶逻辑来定义可观察的期望系统结果,如本文所描述的。
具体地,本公开的系统可以使用域本体来基于所定义的声明性描述提供与ODD内的行动者行为和关系有关的规范。具体地,这种域本体可以提供模拟环境的ODD底层的基本概念的术语和分类。本体可提供可用于表示与模拟环境相关的复杂知识的知识表示手段。例如,本体可以提供与计算模拟对象、模拟对象的分组、管理各个模拟对象之间的交互的关系和规则等相关的信息。域本体表示通常可以使测试系统的模型之间能够语义互操作,并且可以定义可以使用的公理和从公理逻辑推导的事实。
域本体可以包括代表最普遍(例如,抽象)概念的上部本体,该概念在与自主车辆域相关的其他更专业的下级本体(例如,地图、行动者、控件等)的下面。通常,实体可以是存在于计算模拟环境中的任何事物。对于非限制性示例,实体可以被划分为实例(你的汽车,我的SUV)和通用或类型(汽车,SUV)。进一步,连续体可以是在维持其身份时随着时间持续、持久、或持续存在的实体。在实施例中,连续体还可以包括空间区域。材料实体(例如,连续体)可以保持其身份,即使在获得和失去物质部分时也是如此。这样,可以将连续体与可以在连续的时间部分或阶段中自身展开的发生体进行对比。在这个意义上,连续体可不包括时间部分。实体可通过实例和类型两者级别的关系来链接。
以这种方式,计算引擎中的域本体表示可以包括与模拟环境的不同方面有关的各种本体。每个本体可以包括层级类别和/或对象集合。关于这些层级类别或对象集合,本体可以定义相关属性和特征(例如,层级类别或对象集合的属性)。本体可以进一步定义对象之间的关系和角色以及公理,公理约束与分层类别或对象集合有关的概念或角色。例如,每个本体可以包括原始概念(例如,对象、活动、活动发生、时间点等)、约束、函数(例如,开始、结束)和关系(发生、参与、之间、之前、存在、发生)。包括域本体的本体可以包括行动者本体、地图本体、环境本体、控制本体、和/或其他本体,诸如但不限于在此描述的那些。
作为示例,并且参照图2A,图2A描述了本公开的系统可以关于所期望的场景和/或观察器的声明性描述如何利用域本体。声明性描述202可用于描述期望的场景、观察器和/或评估器。在一些实施例中,声明性描述202可以使用一阶逻辑来描述,并且通常可以描述在特定时间和空间中并行和/或顺序发生的可观察量。以此方式,声明性描述202可定义域本体200A中的至少第一层。该第一层可以描述时间上或特定空间中的特定时刻,并且可以是非域特定的(例如,自主设备、自主机器人、智能设备等)。域本体200A中的下一个第二层可以是自主机器特定204,并且可以基于与自主机器相关的谓词和功能。这些谓词和功能可以是在特定时间或或地图上的特定空间中描述某些事实(例如,可观察的)的原语。域本体200A中的第三层然后可以将所引用的原语拼接在一起,并且如此,可以是属性特定层206,其中可以指定行为。
可以使用这些层(和/或额外或替代层)使得当用户在最顶层中指定期望场景的声明性描述时,该系统可以采取该声明性描述并将其反转。例如,该系统可使用下一层(例如,自主车辆特定层204)将用户指定的声明性描述(例如,声明性描述202)分解成其组成部分(例如,原语)。由此,系统可以开始评估那些原语(例如,使用属性特定层206)。例如,系统可以通过时间序列数据扫描时间变量,然后根据用户指定的声明性描述评估定义的信息。
参照图2B-2E,图2B-2E描述了具体示例域本体。图2B描述了示例性行动者本体200B。行动者本体200B可以包括静态和/或动态行动者。静态行动者可以包括(例如,模拟环境的)地图上不改变或不移动的对象,诸如基础设施、屏障、建筑物、分隔物、车道、交叉口、交通信号、道路标志等。动态行动者可以包括地图上改变和/或移动的对象。这种改变和/或移动可以是自发的或基于外力或场景命令的影响。动态行动者的示例可包括本车的部件(例如,传感器、机械部件、计算部件)、环境中的其他对象(例如,人、动物、不同类型的车辆)等。
图2C描绘了示例道路网络本体200C。道路网络本体200C可包括路径结构信息。这种路径结构信息的示例包括车道的数量、曲率、等待条件的位置或等待条件的类型中的至少一个。
图2D描绘了示例环境本体200D。环境本体200D可以包括与环境相关的信息。这样的环境信息的示例包括天气条件(例如,太阳、云、雪、温度等)和可见度条件(例如,照明、雾等)。
图2E描绘了示例控制本体200E。控制本体200E可以包括控制信息。该控制信息可涉及场景内自主车辆的具体路线、任务、路径或轨迹。这种控制信息的示例包括至少一个驾驶命令、交通信号、目的地、地图位置等。
现在参照图3、图4和图5,本文中描述的方法300、400和500的每个框包括可使用硬件、固件和/或软件中的任一个或组合执行的计算过程。例如,各个功能可以通过处理器执行存储在存储器中的指令来实现。所述方法还可实施为存储于计算机存储介质上的计算机可用指令。仅举几例,所述方法可由独立应用、服务或托管服务(独立或与其他托管服务组合)或到另一产品的插件提供。此外,举例来说,相对于图1A的系统100A、图6A-6C的模拟系统600和图7A-7B的模拟系统700来描述方法300、400和500。然而,这些方法可以另外地或可替代地由任何一个系统或系统的任何组合来执行,这些系统包括但不限于在此描述的那些系统。
图3是示出了根据本公开的一些实施例的用于生成与描述定义的可观察量的可解释描述相关的多个模拟场景的方法300的流程图。在框B302处,方法300包括接收描述定义的可观察量的可解释描述。例如,场景设计器122可以接收定义自主驾驶校验搜索空间内的场景的可解释的描述。在一些实施例中,场景设计器122可以接收以描述和/或声明性方式定义的感兴趣行为。在一些示例中,可解释的描述可以表示声明性范例、一阶逻辑或其他可解释的描述,其能够以自动化和算法增强的方式创建有意义的代表。
在框B304处,方法300包括确定路径结构信息和动态行动者信息。例如,场景确定器124可采取声明性描述(例如,由场景设计器122接收)并访问域本体130。域本体130可用于确定路径结构信息和动态行动者信息。该路径结构信息和动态行动者信息可用于确定代表来填充声明性描述中未明确定义的不同度量(例如,交通、转弯速度、激进驾驶、车辆数量、车辆类型、建筑物位置、树、等待条件等)。在实施例中,可以使用道路网络本体200C来确定路径结构信息。道路网络本体200C可包括路径结构信息,该路径结构信息包括车道数量、曲率、等待条件位置或等待条件类型中的至少一个。在实施例中,动态行动者信息可使用行动者本体200B来确定。行动者本体200B可包括静态行动者(地图上不改变或移动的对象,诸如基础设施)和动态行动者(地图上改变和/或移动的对象)。
在框B306处,方法300包括生成表示与可解释描述相关的多个场景的数据。例如,至少部分基于从域本体130接收的路径结构信息和动态行动者信息,场景确定器124可以生成表示多个场景的数据。例如,场景确定器124可采取声明性描述(例如,由场景设计器122接收)并访问域本体130以确定代表来填充未在场景中明确定义的不同度量(例如,交通、转弯速度、激进驾驶、车辆数量、车辆类型、建筑物位置、树、等待条件等)。使用所选择的值(例如,各种度量),可以建立所定义的场景的不同变化。
在框B308处,方法300至少部分地基于该数据生成多个场景。场景生成器126可以用于生成所定义的场景的变化。例如,场景生成器126可以使用来自域本体130的选定值来生成与定义场景相关的多个场景。
图4是示出了根据本公开的一些实施例的用于生成和分析与描述定义的可观察量的声明性描述有关的多个场景的方法400的流程图。例如,在一些实施例中,方法400可以用于确定与期望的可观察量相关的功能和性能的准确度。在另外的实施例中,方法400可用于鉴于期望的可观察量来确定覆盖率值。在框B402处,方法400包括接收期望的可观察量的声明性描述。例如,场景设计器122可以接收定义自主驾驶校验搜索空间内的场景的声明性描述。在一些实施例中,声明性描述可指示以描述和/或声明性方式定义的感兴趣的行为。
在框B404处,方法400包括确定用于生成与模拟系统内的可观察量相关的多个场景的命令。例如,可以使用与用于校验自主车辆的模拟环境相关的域本体来确定命令。进一步,可以至少部分地基于声明性描述来确定命令。例如,场景确定器124可采取声明性描述(例如,由场景设计器122接收)并访问域本体130。域本体130可用于确定命令,其中命令可涉及确定代表以填充在声明性描述中未明确定义的不同度量(例如,交通、转弯速度、激进驾驶、车辆数量、车辆类型、建筑物位置、树、等待条件等)。
在框B406处,方法400包括生成多个场景。例如,场景生成器126可以用于生成所定义的场景的变化。例如,场景生成器126可以使用来自域本体130的信息生成与所定义的场景相关的多个场景。
在框B408处,方法400包括运行多个场景的模拟。例如,模拟实施器128可用于实施所生成的场景。在(例如,使用场景生成器126)生成定义场景的不同变化之后,模拟实施器128可运行定义场景的变化。模拟实施器128可用于针对使用场景生成器126生成的定义场景测试自主车辆的虚拟实例。
在框B410处,方法400包括鉴于期望的可观察量,基于对多个场景的分析来确定被测系统的功能和性能的准确度。例如,分析器132可以用于鉴于期望的可观察量,基于多个场景来确定功能和性能的准确度或精度。具体地,分析器132可使用上下文特定的评估器来将功能和性能与预期的行为、预期的参数和/或任何种类的基值进行比较。此外,分析器132可使用一个或更多个场景质量度量来确定所定义的场景的变化有多好(例如,变化是否实现可观察量、变化是否跨不同平台上的多个测试可重用等)。
在框B412处,方法400包括鉴于期望的可观察量基于多个场景来确定用于选择元素的覆盖率值。例如,分析器132可以使用覆盖率检验器来评估所定义的场景的变化以确定与所定义的场景相关的测试的完整性。分析器132可以使用覆盖率检验器来分析所定义的场景的变化,以确认基于变化的模拟实际上按计划运行(例如,包括在声明性描述中和/或在引擎可理解的可解释描述中描述的期望可观察量)。
图5是示出了根据本公开的一些实施例用于生成和评估包括由声明性语言表示的可观察量的多个场景的方法500的流程图。在框B502处,方法500包括访问与用于测试自主车辆的模拟环境相关的域本体。例如,域本体130可以包括模拟环境的操作设计领域底层的基本概念的术语和分类。
在框B504处,方法500包括基于场景的声明性语言描述从域本体选择值。例如,场景确定器124可采取场景的声明性描述并访问域本体130。域本体130可用于确定对应于与场景的声明性描述相关的定义和/或未定义标准的具体值和/或参数。
在框B506处,方法500包括在模拟环境内生成包括由声明性语言表示的可观察量的多个场景。例如,场景生成器126可用于生成多个场景。例如,场景生成器126可以使用来自域本体130的信息生成包括由声明性语言表示的可观察量的多个场景。
在框B508处,方法500包括通过模拟环境内的多个场景执行虚拟自主车辆的至少一个特征的模拟。例如,模拟实施器128可用于实施所生成的场景。在(例如,使用场景生成器126)生成定义场景的不同变化之后,模拟实施器128可运行定义场景的变化。模拟实施器128可用于针对使用场景生成器126生成的定义场景来测试自主车辆的虚拟实例和/或自主车辆的实际硬件或软件(例如,HIL或SIL)。
在框B510处,方法500包括在模拟期间评估至少一个特征的性能。例如,分析器132可用于在模拟期间评估自主车辆102(或其虚拟表示)的至少一个特征、功能和/或组件(例如,硬件或软件)的性能。
模拟系统
例如,由在本文中更详细描述的模拟系统600A、600B、600C和600D表示的模拟系统600可生成模拟虚拟世界或环境(例如,模拟环境)的全局模拟,该虚拟世界或环境可包括人工智能(AI)车辆或其他对象(例如,行人、动物等)、环内硬件(HIL)车辆或其他对象、环内软件(SIL)车辆或其他对象、和/或环内人员(PIL)车辆或其他对象。全局模拟可以维持在引擎(例如,游戏引擎)或其他软件开发环境内,其可以包括渲染引擎(例如,用于2D和/或3D图形)、物理引擎(例如,用于冲突检测、冲突响应等)、声音、脚本、动画、AI、联网、流传输、存储器管理、线程、定位支持、场景图形、电影和/或其他特征。在一些示例中,如本文所描述的,模拟系统600内的一个或更多个车辆或对象(例如,HIL对象、SIL对象、PIL对象、AI对象等)可被保持在它们自己的引擎实例内。在这样的示例中,每个虚拟对象的每个虚拟传感器可以包括它们自己的引擎实例(例如,虚拟相机的实例、虚拟LIDAR传感器的第二实例、另一虚拟LIDAR传感器的第三实例等)。这样,引擎的实例可以用于相对于传感器对全局模拟的感知来处理每个传感器的传感器数据。照此,对于虚拟相机,实例可以用于相对于相机在模拟环境中的视场处理图像数据。作为另一示例,对于IMU传感器,实例可以用于处理在模拟环境中对象的IMU数据(例如,表示取向)。
AI(例如,机器人)车辆或其他对象可包括行人、动物、第三方车辆、车辆和/或其他对象类型。模拟环境中的AI对象可使用人工智能(例如,机器学习,诸如神经网络、基于规则的控制、其组合等)以模拟或仿真相应的现实世界对象将如何表现的方式来控制。在一些示例中,AI对象的规则或动作可以从一个或更多个HIL对象、SIL对象和/或PIL对象学习。在模拟环境中的AI对象(例如,机器人)对应于行人的示例中,机器人可以被训练为在多个不同场景或环境(例如,跑步、步行、慢跑、不关注、在电话、下雨、下雪、在城市、在郊区、在农村社区等)中的任意场景或环境中像行人一样行动。照此,当模拟的环境用于测试车辆性能(例如,对于HIL或SIL实施例)时,机器人(例如,行人)可能会像现实世界的行人一样行事(例如,通过在下雨或黑暗条件下乱穿马路、未能注意停止标志或交通灯等),以便更准确地模拟现实世界环境。该方法可以用于模拟环境中的任何AI机器人,诸如车辆、骑自行车者或摩托车,其AI机器人也可以被训练成表现得像现实世界的对象那样(例如,穿梭进出车流、转弯、无信号或突然改变车道、意外刹车等)。
可以远离感兴趣的车辆(例如,在模拟环境中的本车)的AI对象可以以简化的形式表示,例如,径向距离函数,或者平面中的已知位置处的点的列表,具有相关联的瞬时运动矢量。照此,可以对AI对象进行建模,与如何在视频游戏引擎中对AI代理进行建模类似。
HIL车辆或对象可以使用在物理车辆或对象中使用的硬件,以至少帮助模拟环境中的HIL车辆或对象的一些控制。例如,在HIL环境中控制的车辆可在用于在模拟环境中控制车辆的数据流回路中使用一个或更多个SoC 804(图8C)、CPU 818、GPU 820等。在一些示例中,来自车辆的硬件可以是NVIDIA DRIVE AGX计算平台和/或NVIDIA DRIVEPX计算平台。例如,车辆硬件(例如,车辆硬件104)可以包括在2018年11月9日提交的美国非临时申请No.16/186,473中所描述的部件和/或功能性中的一些或全部,其通过引用全文并入本文。在这样的示例中,可以使用被配置为用于安装在现实世界自主车辆(例如,车辆102)内以执行(一个或更多个)软件栈642(例如,自主驾驶软件栈)的至少一部分的硬件来生成控制决策中的至少一些。
SIL车辆或对象可以使用软件来模拟或仿真来自HIL车辆或对象的硬件。例如,代替使用可以被配置成用于在物理车辆(例如,车辆102)中使用的实际硬件,软件、硬件或其组合可以用于模拟或仿真实际硬件(例如,模拟SoC 804)。
PIL车辆或对象可使用允许远程操作者(例如,人、机器人等)在模拟环境内控制PIL车辆或对象的一个或更多个硬件组件。例如,人或机器人可使用远程控制系统(例如,包括一个或更多个踏板、方向盘、VR系统等)来控制PIL车辆,诸如于2019年3月27日提交的美国非临时申请No.16/366,506描述的远程控制系统,并且特此将其通过引用全文并入本文。在一些示例中,远程操作者可使用VR头盔和CPU(例如,X86处理器)、GPU或它们的组合来控制自动驾驶等级0、1或2(例如,根据汽车工程师协会文档J3016)的虚拟车辆。在其他示例中,远程操作者可控制使用一个或更多个高级SoC平台建模的高级AI辅助的2级、3级或4级车辆。在一些示例中,PIL车辆或对象可以被记录和/或跟踪,并且记录和/或跟踪数据可以用于训练或以其他方式至少部分地有助于AI对象(如在此描述的那些)的控制。
现在参考图6A,图6A是根据本公开的一些实施例的模拟系统600A的示例图示。模拟系统600A可以生成模拟环境610,该模拟环境可以包括AI对象612(例如,AI对象612A和612B)、HIL对象614、SIL对象616、PIL对象618、和/或其他对象类型。模拟环境610可包括驾驶环境的特征,诸如道路、桥梁、隧道、街道标志、停车灯、人行道、建筑物、树木和树叶、太阳、月亮、反射、阴影等,以努力在模拟环境610内准确地模拟现实世界环境。在一些示例中,在模拟环境610内的驾驶环境的特征可以通过包括碎片、油漆、涂鸦、磨损和撕裂、损坏等而更真实。虽然关于驾驶环境进行了描述,但是这不旨在是限制性的,并且模拟的环境可以包括室内环境(例如,用于机器人、无人机等)、空中环境(例如,用于UAV、无人机、飞机等)、水上环境(例如,用于小船、大船、潜水艇等)和/或另一种环境类型。
可使用虚拟数据、现实世界数据或其组合来生成模拟环境610。例如,所模拟的环境可包括使用虚拟数据增强或改变以产生组合数据的现实世界数据,所述组合数据可用以模拟具有不同和/或添加的元素(例如,附加AI对象、环境特征、天气条件等)的某些场景或情形。例如,预记录视频可被增强或改变以包括附加行人、障碍物等,使得虚拟对象(例如,执行作为HIL对象和/或SIL对象的(一个或更多个)软件栈642)可针对现实世界数据中的变化来测试。
可使用光栅化、光线追踪、使用诸如生成对抗网络(GAN)之类的DNN、另一渲染技术和/或其组合来生成模拟的环境。例如,为了创建更真实、现实的照明条件(例如,阴影、反射、眩光、全局照明、环境遮挡等),模拟系统600A可以使用实时光线追踪。在一个或更多个实施例中,模拟系统600A可以使用一个或更多个硬件加速器来执行实时光线追踪。光线追踪可以用于模拟LIDAR传感器用于LIDAR数据的准确生成。例如,可以使用光线投射来试图模拟LIDAR反射率。在任何示例中,由模拟系统600A使用的光线追踪技术可以包括以下所描述的一种或更多种技术:2018年3月17日提交的美国临时专利申请No.62/644385,2018年3月17日提交的美国临时专利申请No.62/644386,2018年3月19日提交的美国临时专利申请No.62/644601和2018年3月19日提交的美国临时申请No.62/644806,2019年3月15日提交的美国非临时专利申请No.16/354983和/或2019年3月15日提交的美国非临时专利申请No.16/355214,每个申请特此通过引用以其全文并入在此。
在一些示例中,可以至少部分地使用诸如生成对抗神经网络(GAN)之类的一个或更多个DNN来呈现所模拟的环境。例如,可收集现实世界数据,诸如由自主车辆(例如,相机、LIDAR传感器、RADAR传感器等)、机器人和/或其他对象捕捉的现实世界数据,以及可由任何传感器捕捉的现实世界数据(例如,从数据存储、诸如搜索引擎等在线资源拉取的图像或视频)。现实世界数据然后可被分段、分类和/或归类,诸如通过基于类别标记现实世界数据的不同部分(例如,对于风景的图像,图像的部分-诸如像素或像素组-可被标记为汽车、天空、树、道路、建筑物、水、瀑布、车辆、公共汽车、卡车、轿车等)。GAN(或其他DNN)可随后使用分段、分类和/或归类的数据来训练以生成不同类型的对象、风景和/或作为模拟环境内的图形的其他特征的新版本。
模拟系统600的(一个或更多个)模拟器组件602可以通过有线和/或无线连接与车辆模拟器组件606通信。在一些示例中,连接可以是使用一个或更多个传感器开关608的有线连接,其中传感器开关可以提供低压差分信号(LVDS)输出。例如,传感器数据(例如,图像数据)可以通过模拟器组件602和车辆模拟器组件606之间的HDMI到LVDS连接来传输。模拟器组件602可以包括互连的任何数量的计算节点(例如,计算机、服务器等)以便确保世界状态的同步。在一些示例中,如本文所描述的,计算节点中的每个(例如,车辆模拟器组件计算节点和模拟器组件计算节点)之间的通信可以由分布式共享存储器(DSM)系统(例如,图6C的DSM624)使用分布式共享存储器协议(例如,一致性协议)来管理。DSM可以包括硬件(高速缓存一致性电路、网络接口等)和软件的组合。该共享存储器架构可以将存储器分成在节点和主存储器之间分布的共享部分,或者在所有节点之间分布所有存储器。在一些示例中,可以使用无限带宽(IB)接口和相关联的通信标准。例如,在模拟系统600(和/或600)的不同节点之间和之中的通信可以使用IB。
模拟器组件602可以包括一个或更多个GPU 604。被模拟的虚拟车辆可以包括任何数量的传感器(例如,虚拟或模拟传感器),这些传感器可以对应于在此至少关于图8A-8C描述的一个或更多个传感器。在一些示例中,车辆的每个传感器可以对应于GPU 604之一或者由GPU 604之一托管。例如,LIDAR传感器的处理可在第一GPU 604上执行,广角相机的处理可在第二GPU 604上执行,RADAR传感器的处理可在第三GPU上执行,等等。照此,每个传感器相对于模拟环境的处理可以能够使用多个GPU 604与每个其他传感器并行地执行以实现实时模拟。在其他示例中,两个或更多个传感器可以对应于GPU 604中的一个或者由GPU 604中的一个托管。在这些示例中,两个或更多个传感器可由GPU 604上的单独线程处理,且可并行地处理。在其他示例中,用于单个传感器的处理可分布在多于一个GPU上。作为GPU 604的补充或替代,一个或更多个TPU、CPU和/或其他处理器类型可用于处理传感器数据。
(一个或更多个)车辆模拟器组件606可以包括对应于在模拟的环境610中表示的单个车辆的模拟系统600A的计算节点。每个其他车辆(例如,614、618、616等)可以包括模拟系统的相应节点。因此,模拟系统600A可以可扩展至任何数量的车辆或对象,因为每个车辆或对象可以由系统600A中的其自身的节点托管或管理。在图6A的图示中,车辆模拟器组件606可以对应于HIL车辆(例如,由于使用车辆硬件104)。然而,这不旨在是限制性的,并且如图6B和图6C所示,模拟系统600可包括SIL车辆、HIL车辆、PIL车辆和/或AI车辆。(一个或更多个)模拟器组件602(例如,模拟器主机设备)可以包括模拟系统600A的一个或更多个计算节点,并且可以托管关于每个行动者(例如,关于每个HIL、SIL、PIL和AI行动者)的环境的模拟,以及托管环境或世界状态(例如,道路、标志、树、叶、天空、太阳、照明等)的渲染和管理。在一些示例中,(一个或更多个)模拟器组件602可以包括可以托管模拟器(例如,NVIDIA的星座AV模拟器)的(一个或更多个)服务器和相关联的组件(例如,(一个或更多个)CPU、(一个或更多个)GPU、计算机等)。
如本文中描述的,车辆硬件104可以对应于可以在物理车辆102中使用的图1的车辆硬件104。然而,在模拟系统600A中,车辆硬件104可以并入车辆模拟器组件606中。因此,因为车辆硬件104可以被配置成用于安装在车辆102内,所以模拟系统600A可以具体地被配置成使用模拟系统600A的(例如,服务器平台的)节点内的车辆硬件104。例如,在物理车辆102中使用的类似接口可能需要由(一个或更多个)车辆模拟器组件606使用以与车辆硬件104通信。在一些示例中,接口可以包括:(1)CAN接口,包括PCAN适配器;(2)以太网接口,包括具有全部保留的IP地址、来源、VLA和/或源IP的RAW UDP套接字;(3)串行接口,具有USB到串行适配器;(4)相机接口;(5)无限带宽(IB)接口;和/或其他接口类型。
在任何示例中,一旦已经生成和/或处理了表示在模拟环境中的车辆的传感器的视场的传感器数据(例如,使用如在此所描述的一个或更多个编解码器),传感器数据(和/或编码的传感器数据)就可以由在车辆硬件104上执行的软件栈642(例如,自主驾驶软件栈)用于执行一个或更多个操作(例如,生成一个或更多个控制、路线规划、检测对象、识别可驾驶自由空间、监测环境以便避免障碍物等)。因此,由车辆102(例如,物理车辆)使用以在现实世界环境中执行自主驾驶软件栈的相同或基本上相同的硬件组件可用于在模拟环境610中执行自主驾驶软件栈。因此,在模拟系统600A中使用车辆硬件104提供了车辆102在现实世界情况、场景和环境中将如何执行的更准确的模拟,而不必在现实世界中实际发现和测试车辆102。这可减少测试物理车辆102中所使用的硬件/软件组合所需的驾驶时间量,并且可通过不要求实际现实世界测试来降低安全风险(尤其是对于危险情况,诸如不规律地或以不安全速度驾驶的其他车辆、街道上玩耍的儿童、桥梁上的冰等)。
除了车辆硬件104之外,(一个或更多个)车辆模拟器组件606还可以使用诸如计算机(例如,X86盒)的额外硬件来管理车辆(或其他对象)的模拟。在一些示例中,可使用车辆模拟组件606来执行虚拟对象的虚拟传感器的额外处理。在这样的示例中,至少一些处理可以由(一个或更多个)模拟器组件602执行,并且其他处理可以由(一个或更多个)车辆模拟器组件606(或620或622,如本文所描述的)执行。在其他示例中,虚拟传感器的处理可以完全在车辆模拟器组件606上执行。
现在参考图6B,图6B是根据本公开的一些实施例的模拟系统600B的另一个示例图示。模拟系统600B可以包括模拟器组件602(作为一个或更多个计算节点)、HIL对象的车辆模拟器组件606(作为一个或更多个计算节点)、SIL对象的车辆模拟器组件620(作为一个或更多个计算节点)、PIL对象的车辆模拟器组件606(作为一个或更多个计算节点)、和/或AI对象和/或其他对象类型的额外组件(或计算节点)。PIL、HIL、SIL、AI和/或其他对象类型计算节点中的每一个可以与模拟器组件602通信以从全局模拟至少捕获对应于模拟环境610内的相应对象的数据。
例如,(一个或更多个)车辆模拟器组件622可以从由(一个或更多个)模拟器组件602托管的(例如,由模拟环境610表示的)全局模拟接收(例如,检索、获得等)与(一个或更多个)车辆模拟器组件622对应、与(一个或更多个)车辆模拟器组件622相关联和/或由(一个或更多个)车辆模拟器组件622执行针对PIL对象的车辆模拟器组件622的一个或更多个操作所需的数据。在这样的示例中,可以从模拟器组件602接收对应于PIL对象的每个传感器的数据(例如,对应于虚拟车辆的虚拟相机的视场的虚拟传感器数据、虚拟LIDAR数据、虚拟RADAR数据、虚拟位置数据、虚拟IMU数据等)。该数据可以用于生成对应于由远程操作者控制的虚拟车辆的远程操作者的视场的模拟环境的实例,并且模拟环境的该部分可以投影在显示器(例如,VR头戴设备的显示器、计算机或电视显示器等)上,用于辅助远程操作者通过模拟环境610控制虚拟车辆。由远程操作者使用车辆模拟器组件622生成或输入的控制可以被传输至模拟器组件602用于更新模拟环境610内的虚拟车辆的状态。
作为另一示例,(一个或更多个)车辆模拟器组件620可以从(一个或更多个)模拟器组件602托管的全局模拟接收(例如,检索、获得等)对应于(一个或更多个)车辆模拟器组件620、与(一个或更多个)车辆模拟器组件620相关联和/或由(一个或更多个)车辆模拟器组件620针对SIL对象执行车辆模拟器组件620的一个或更多个操作所需的数据。在这样的示例中,对应于SIL对象的每个传感器的数据(例如,对应于虚拟车辆的虚拟相机的视场的虚拟传感器数据、虚拟LIDAR数据、虚拟RADAR数据、虚拟位置数据、虚拟IMU数据等)可以从模拟器组件602接收。该数据可以用于针对每个传感器生成模拟环境的实例(例如,来自虚拟车辆的第一虚拟相机的视场的第一实例、来自第二虚拟相机的视场的第二实例、来自虚拟LIDAR传感器的视场的第三实例等)。模拟环境的实例因此可用于通过车辆模拟器组件620生成每个传感器的传感器数据。在一些示例中,可使用一个或更多个编解码器(例如,每个传感器可使用其自身的编解码器,或者每个传感器类型可使用其自身的编解码器)来编码传感器数据,以便生成可对于由车辆模拟器组件620模拟或仿真的自主驾驶软件栈理解或熟悉的编码传感器数据。例如,第一车辆制造商可使用第一类型的LIDAR数据,第二车辆制造商可使用第二类型的LIDAR数据等,且因此编解码器可根据制造商所使用的传感器数据的类型来定制传感器数据。因此,模拟系统600可以是通用的、可定制的和/或可由任何数量的不同传感器类型使用的,这取决于传感器的类型和不同制造商所使用的相应数据类型。在任何示例中,传感器数据和/或编码的传感器数据可以由自主驾驶软件栈使用以执行一个或更多个操作(例如,对象检测、路径规划、控制确定、致动类型等)。例如,传感器数据和/或编码数据可用作对自主驾驶软件栈的一个或更多个DNN的输入,并且一个或更多个DNN的输出可用于更新虚拟车辆在模拟环境610内的状态。照此,包括一个或更多个DNN的自主驾驶软件栈的可靠性和有效性可在模拟环境内被测试、微调、验证和/或校验。
在又一示例中,(一个或更多个)车辆模拟器组件606可以从由(一个或更多个)模拟器组件602托管的全局模拟接收(例如,检索、获得等)对应于(一个或更多个)车辆模拟器组件606、与(一个或更多个)车辆模拟器组件606相关联和/或由(一个或更多个)车辆模拟器组件606针对HIL对象执行车辆模拟器组件606的一个或更多个操作所需的数据。在这样的示例中,对应于HIL对象的每个传感器的数据(例如,对应于虚拟车辆的虚拟相机的视场的虚拟传感器数据、虚拟LIDAR数据、虚拟RADAR数据、虚拟位置数据、虚拟IMU数据等)可以从模拟器组件602接收。该数据可以用于针对每个传感器生成模拟环境的实例(例如,来自虚拟车辆的第一虚拟相机的视场的第一实例、来自第二虚拟相机的视场的第二实例、来自虚拟LIDAR传感器的视场的第三实例等)。模拟环境的实例因此可用于由车辆模拟器组件620生成每个传感器的传感器数据。在一些示例中,可以使用一个或更多个编解码器(例如,每个传感器可以使用其自身的编解码器,或者每个传感器类型可以使用其自身的编解码器)对传感器数据进行编码,以便生成可以对在车辆模拟器组件620的车辆硬件104上执行的自主驾驶软件栈理解或熟悉的经编码的传感器数据。类似于在此描述的SIL对象,传感器数据和/或编码的传感器数据可以被自主驾驶软件栈用于执行一个或更多个操作(例如,对象检测、路径规划、控制确定、致动类型等)。
现在参照图6C,图6C是根据本公开的一些实施例的模拟系统600C的另一示例图示。模拟系统600C可以包括分布式共享存储器(DSM)系统624、模拟器组件602(作为一个或更多个计算节点)、HIL对象的车辆模拟器组件606(作为一个或更多个计算节点)、SIL对象的车辆模拟器组件620(作为一个或更多个计算节点)、PIL对象的车辆模拟器组件606(作为一个或更多个计算节点)、和/或AI对象和/或其他对象类型(未示出)的额外组件(或计算节点)。模拟系统600C可包括任何数量的HIL对象(例如,各自包括其自己的车辆模拟器组件606)、任何数量的SIL对象(例如,各自包括其自己的车辆模拟器组件620)、任何数量的PIL对象(例如,各自包括其自己的车辆模拟器组件622)和/或任何数量的AI对象(未示出,但可取决于实施例由(一个或更多个)模拟组件602和/或单独的计算节点托管)。
(一个或更多个)车辆模拟器组件606可以包括可以被配置用于在物理车辆内安装和使用的一个或更多个SoC 804(或其他组件)。如此,如在此所描述的,模拟系统600C可以被配置成通过使用特定接口来与SoC 804和/或其他车辆硬件通信来使用SoC 804和/或其他车辆硬件104。(一个或更多个)车辆模拟器组件620可以包括一个或更多个软件实例630,其可以被托管在一个或更多个GPU和/或CPU上以模拟或仿真(一个或更多个)SoC 804。除了可以由远程操作者使用的组件(例如,键盘、鼠标、操纵杆、监视器、VR系统、方向盘、踏板、车载组件,诸如灯开关、闪光灯、(一个或更多个)HMI显示器等、和/或(一个或更多个)其他组件)之外,(一个或更多个)车辆模拟器组件622还可以包括一个或更多个SoC 626、(一个或更多个)CPU 628(例如,X86框)、和/或其组合。
(一个或更多个)模拟组件602可以包括任何数量的CPU 632(例如,X86框)、(一个或更多个)GPU和/或其组合。CPU 632可以托管用于维护全局模拟的模拟软件,并且GPU 634可以用于渲染、物理和/或用于生成模拟的环境610的其他功能。
如本文所描述的,模拟系统600C可以包括DSM 624。DSM 624可以使用一个或更多个分布式共享存储器协议来使用对象(例如,HIL对象、SIL对象、PIL对象、AI对象等)中的每一个的状态维护全局模拟的状态。这样,对应于车辆模拟器组件606、620和/或622的计算节点中的每一个可以经由DSM 624与模拟组件602通信。通过使用DSM 624和相关的协议,实时模拟是可能的。例如,与在大型多人在线(MMO)游戏中如何使用网络协议(例如,TCP、UDP等)相反,模拟系统600可以使用分布式共享存储器协议来实时地维护全局模拟的状态和模拟的每个实例(例如,通过每个车辆、对象和/或传感器)。
现在参照图6D,图6D是根据本发明的一些实施例的环内硬件配置的示例图示。一个或更多个车辆模拟器组件606可以包括如在此所描述的车辆硬件104,并且可以包括一个或更多个计算机636、一个或更多个GPU(未示出)、和/或一个或更多个CPU(未示出)。计算机636、GPU和/或CPU可以管理或托管在车辆模拟器组件606上执行的模拟软件638或其实例。车辆硬件104可以执行(一个或更多个)软件栈642(例如,自主驾驶软件栈、IX软件栈等)。
如在此所描述的,通过使用车辆硬件104,模拟环境600内的其他车辆模拟器组件606可能需要被配置成用于与车辆硬件104进行通信。例如,因为车辆硬件104可以被配置成用于安装在物理车辆(例如,车辆102)内,所以车辆硬件104可以被配置成通过在计算环境中(例如,在基于服务器的平台中、在通用计算机等中)不标准的一种或更多种连接类型和/或通信协议进行通信。例如,车辆硬件104可以使用CAN接口、LVDS接口、USB接口、以太网接口、无限带宽(IB)接口、和/或其他接口以与物理车辆的其他组件传送信号。如此,在模拟系统600中,车辆模拟器组件606(和/或模拟系统600的其他组件,作为车辆模拟器组件606的补充或替代)可能需要被配置为与车辆硬件104一起使用。为了实现这一点,一个或更多个CAN接口、LVDS接口、USB接口、以太网接口和/或其他接口可以用于提供车辆硬件104与模拟系统600的其他组件之间的通信(例如,通过一个或更多个通信协议,诸如LVDS)。
在一些示例中,可以对应于模拟系统600内的(一个或更多个)车辆模拟器组件606的虚拟车辆可以被建模为游戏引擎的实例内的游戏对象。此外,虚拟车辆的每个虚拟传感器可以使用在车辆硬件104上执行的虚拟车辆的软件栈642内的套接字对接。在一些示例中,除了与用于虚拟车辆的模拟软件638相关联的游戏引擎的实例之外,虚拟车辆的虚拟传感器中的每个还可以包括游戏引擎的实例。在车辆模拟器组件606包括多个GPU的示例中,传感器中的每个可以在单个GPU上执行。在其他示例中,可在单个GPU上执行多个传感器,或至少尽可能多的传感器以确保虚拟传感器数据的实时产生。
在模拟器系统600中使用HIL对象可提供可升级的解决方案,该解决方案可模拟或仿真用于自主软件和硬件系统的各个驱动条件(例如,NVIDIA的驱动AGX计算平台和/或Drive PX计算平台)。HIL对象的一些益处可包括比实时更快地测试DNN的能力、用计算资源(例如,而不是车辆或测试轨道)来缩放验证的能力,执行确定性回归测试(例如,现实世界环境从不相同两次,但模拟环境可以)的能力、最优基值标记(例如,不需要人工标记),测试在现实世界中难以产生的场景的能力、测试置换的快速生成、以及在模拟中测试与现实世界相比更大的置换空间的能力。
现在参见图6E,图6E是根据本公开的一些实施例的环内硬件配置的示例图示。图6E的HIL配置可以包括(一个或更多个)车辆模拟器组件606,包括(一个或更多个)SoC 804、(一个或更多个)底盘风扇656和/或水冷却系统。HIL配置可包括两盒解决方案(例如,第一盒中的模拟器组件602和第二盒中的车辆模拟器组件606)。使用这种方法可以减少系统占用的空间量以及减少数据中心中外部电缆的数量(例如,通过在车辆模拟器组件606(例如,第一盒)中包括多个组件以及SoC 804)。(一个或更多个)车辆模拟器组件606可以包括一个或更多个GPU 652(例如,NVIDIA QUADRO GPU),其在示例、非限制性实施例中可以提供可以使用(一个或更多个)同步组件654(例如,通过QUADRO Sync II卡)进行同步的8DP/HDMI视频流。这些GPU 652(和/或其他GPU类型)可以将传感器输入提供给SoC 804(例如,提供给车辆硬件104)。在一些示例中,车辆模拟器组件606可以包括网络接口(例如,一个或更多个网络接口卡(NIC)650),其可以模拟或仿真RADAR传感器、LIDAR传感器和/或IMU传感器(例如,通过提供具有精确时间协议(PTP)支持的8千兆位端口)。此外,车辆模拟器组件606可以包括输入/输出(I/O)模拟集成电路(AIC)658。注册的插孔(RJ)接口(例如,RJ45)、高速数据(HSD)接口、USB接口、每秒脉冲(PPS)时钟、以太网(例如,10Gb以太网(GbE))接口、CAN接口、HDMI接口和/或其他接口类型可用于在系统的各个组件之间和之中有效地传输和通信数据。
现在参照图6F,图6F是根据本公开的一些实施例的环内软件配置的示例图示。车辆模拟器组件620可以包括计算机640、GPU(未示出)、CPU(未示出)和/或其他组件。计算机640、GPU和/或CPU可以管理或托管在车辆模拟器组件620上执行的模拟软件638或其实例,并且可以托管软件栈642。例如,(一个或更多个)车辆模拟器组件620可以使用软件来模拟或仿真车辆硬件104,以尽力尽可能准确地执行(一个或更多个)软件栈642。
为了增加SIL实施例中的准确度,(一个或更多个)车辆模拟器组件620可以被配置为通过计算环境中不标准的一个或更多个虚拟连接类型和/或通信协议进行通信。例如,虚拟CAN接口、虚拟LVDS接口、虚拟USB接口、虚拟以太网接口和/或其他虚拟接口可由车辆模拟器组件620的计算机640、CPU和/或GPU使用,以提供模拟系统600内的软件栈642和模拟软件638之间的通信(例如,通过一个或更多个通信协议,诸如LVDS)。例如,虚拟接口可以包括中间件,该中间件可以用于提供与软件栈642的连续反馈回路。如此,虚拟接口可以使用一个或更多个软件协议、硬件(例如,(一个或更多个)CPU、(一个或更多个)GPU、(一个或更多个)计算机640等)、或其组合来模拟或仿真车辆硬件104与物理车辆之间的通信。
在一些示例中,(一个或更多个)计算机640可以包括X86 CPU硬件,并且一个或更多个X86 CPU可以执行模拟软件638和软件栈642两者。在其他示例中,(一个或更多个)计算机640可以包括GPU硬件(例如,NVIDIA DGX系统和/或基于云的NVIDIA Tesla服务器)。
在一些示例中,可以对应于模拟系统600内的(一个或更多个)车辆模拟器组件620的虚拟车辆可以被建模为游戏引擎的实例内的游戏对象。此外,虚拟车辆的每个虚拟传感器可以使用在车辆模拟器组件620上执行的虚拟车辆的软件栈642内的套接字对接。在一些示例中,除了与用于虚拟车辆的模拟软件638相关联的游戏引擎的实例之外,虚拟车辆的虚拟传感器中的每个还可以包括游戏引擎的实例。在车辆模拟器组件606包括多个GPU的示例中,传感器中的每个可以在单个GPU上执行。在其他示例中,可在单个GPU上执行多个传感器,或至少尽可能多的传感器以确保虚拟传感器数据的实时产生。
现在参考图7A,图7A是根据本公开的一些实施例的在运行时的模拟系统700的示例示图。模拟系统700的一些或所有组件可以在模拟系统600中使用,并且模拟系统600的一些或所有组件可以在模拟系统700中使用。照此,关于模拟系统600描述的组件、特征和/或功能可以与模拟系统700相关联,反之亦然。此外,模拟系统700A和700B(图7B)中的每一个可以包括类似的和/或共享的组件、特征和/或功能。
模拟系统700A(例如,表示模拟系统700的一个示例)可包括(一个或更多个)模拟器组件602、(一个或更多个)编解码器714、(一个或更多个)内容数据存储702、(一个或更多个)场景数据存储704、(一个或更多个)车辆模拟器组件620(例如,针对SIL对象)和(一个或更多个)车辆模拟器组件606(例如,针对HIL对象)。内容数据存储702可以包括用于对汽车、卡车、人、骑自行车者、标志、建筑物、树、路缘石和/或模拟环境的其他特征建模的详细内容信息。场景数据存储704可包括场景信息,其可包括危险场景信息(例如,对现实世界环境中的测试是不安全的),诸如十字路口中的行人。
模拟器组件602可以包括AI引擎708(在本文中可替代地称为“自动化智能引擎708”),该AI引擎708使用人工智能、自动化智能和/或其他方法和技术来模拟交通、行人、天气和/或模拟环境的其他特征。虽然在本文中被称为AI引擎,但是这并非旨在是限制性的,并且AI引擎708可以另外地或可替代地执行不是AI相关的功能。模拟器组件602可以包括管理全局模拟的世界状态的虚拟世界管理器710。模拟器组件602可以还包括可以管理虚拟传感器的虚拟传感器管理器712。AI引擎708可以类似于在汽车视频游戏中如何对交通建模来对交通进行建模,并且可以使用游戏引擎来完成,如本文所描述的。在其他示例中,定制AI可以用于提供大型可再现汽车模拟所必需的确定性和计算细节水平。在一些示例中,可以使用SIL对象、HIL对象、PIL对象、AI对象和/或其组合来对交通建模。系统700可以创建AI控制器的子类,该AI控制器检查地图数据、计算路线并且在避免其他汽车的同时驾驶路线。AI控制器可以计算期望的转向、加速度和/或制动,并且可以将这些值应用于虚拟对象。所使用的车辆属性可以包括质量、最大RPM、扭矩曲线、和/或其他属性。物理引擎可以用于确定AI对象的状态。如本文所描述的,对于可能远离并且可能对(一个或更多个)电流传感器没有影响的车辆或其他对象,系统可以选择不对那些对象应用物理学并且仅确定位置和/或瞬时运动向量。射线投射可以用于每个车轮以确保车辆的车轮接触。在一些示例中,交通AI可以根据脚本(例如,基于规则的交通)操作。用于虚拟对象的交通AI操纵可包括横向车道改变(例如,方向、距离、持续时间、形状等)、纵向移动(例如,匹配速度、相对目标、增量到目标、绝对值)、路线跟随和/或路径跟随。用于交通AI操纵的触发器可以是基于时间的(例如,三秒)、基于速度的(例如,以60mph)、基于接近度的地图(例如,在交叉路口的二十英尺内)、基于接近度的行动者(例如,在另一对象的二十英尺内)、车道畅通和/或其他。
AI引擎708可类似于本文所述的交通AI对行人AI建模,但针对行人。行人可类似于真实行人而建模,且系统700可基于所学习的行为推断行人行为。
模拟器组件602可以用于调整一天中的时间,使得考虑路灯打开和关闭、前灯打开和关闭、阴影、眩光和/或日落等。在一些示例中,可以考虑仅在到虚拟对象的阈值距离内的光来提高效率。
天气可由模拟器组件602(例如,由虚拟世界管理器710)考虑。天气可以用于更新驾驶表面的摩擦系数,并且温度信息可以用于更新轮胎与驾驶表面的相互作用。在存在雨或雪的情况下,系统700可以基于场景的结构生成网格以描述雨水和雪可以在哪里积聚,并且当在模拟中存在雨或雪时可以采用网格。
在一些示例中,如本文所描述的,(一个或更多个)模拟器组件602中的至少一些可以替代地被包括在(一个或更多个)车辆模拟器组件620和/或606中。例如,(一个或更多个)车辆模拟器组件620和/或(一个或更多个)车辆模拟器组件606可以包括用于管理相关联的虚拟对象的每个传感器的虚拟传感器管理器712。此外,编解码器714中的一个或更多个可被包括在车辆模拟器组件620和/或车辆模拟器组件606中。在这样的示例中,虚拟传感器管理器712可以生成与虚拟对象的传感器相对应的传感器数据,并且(一个或更多个)编解码器714的传感器仿真器716可以使用该传感器数据来根据(一个或更多个)软件栈642(例如,在(一个或更多个)车辆模拟器组件620和/或(一个或更多个)车辆模拟器组件606上执行的(一个或更多个)软件栈642)所使用的传感器数据格式或类型来对传感器数据进行编码。
编解码器714可提供到软件栈642的接口。编解码器714(和/或本文描述的其他编解码器)可包括编码器/解码器框架。在SIL和HIL实施例中,(一个或更多个)编解码器714可以包括CAN转向、节流请求、和/或可以用于向(一个或更多个)软件栈642发送传感器数据。编解码器714可有益于本文所述的模拟系统(例如,600和700)。例如,当数据由重新模拟系统100和模拟系统600和700产生时,数据可以被传输到(一个或更多个)软件栈642,使得可以满足以下标准。数据可以被传输至软件栈642,从而使得最小影响被引入至软件栈642和/或车辆硬件104(在HIL实施例中)。这可导致更精确的模拟,因为软件栈642和/或车辆硬件104可能在非常类似于现实世界环境中的部署的环境中操作。数据可被传输到软件栈642,使得模拟器和/或重新模拟器可能不知道被测系统的实际硬件配置。取决于模拟配置,这可以减少由于错误或单独的代码路径引起的开发开销。数据可以被传输至软件栈642,使得数据可以匹配(例如,位对位)从物理车辆(例如,车辆102)的物理传感器发送的数据。可以在SIL和HIL实施例中有效地传送数据。
传感器仿真器716可至少仿真相机、LIDAR传感器和/或RADAR传感器。关于LIDAR传感器,一些LIDAR传感器报告被跟踪对象。照此,对于由虚拟传感器数据表示的每个帧,(一个或更多个)模拟器组件602可以创建在具有虚拟LIDAR传感器的虚拟对象的范围内的所有被跟踪对象(例如,树、车辆、行人、树叶等)的列表,并且可以向被跟踪对象投射虚拟射线。当大量光线撞击被追踪对象时,该对象可被添加到LIDAR数据的报告中。在一些示例中,可以使用无反射的简单光线投射、可调节视场、可调节噪声和/或可调节掉落来对LIDAR传感器进行建模。可以模拟具有移动部件、有限视野和/或可变分辨率的LIDAR。例如,LIDAR传感器可以建模为固态LIDAR和/或基于Optix的LIDAR。在示例中,使用基于Optix的LIDAR,光线可以从水、反射材料和/或窗口反弹。可将纹理指派给道路、标志和/或车辆以在对应于纹理的波长下对激光反射建模。RADAR可类似于LIDAR来实施。如本文所描述的,可使用光线追踪技术来模拟RADAR和/或LIDAR。
在一些示例中,车辆模拟器组件606、620和/或622可以包括具有模拟器组件602(和/或生成虚拟传感器数据的组件)的反馈回路。反馈回路可用于提供用于更新虚拟传感器数据捕获或生成的信息。例如,对于虚拟相机,反馈回路可基于传感器反馈,诸如响应于光照条件的曝光改变(例如,在暗光照条件下增加曝光以使得图像数据可由DNN适当地处理)。作为另一示例,对于虚拟LIDAR传感器,反馈回路可表示能级的变化(例如,提升能量以产生更多可用或准确的LIDAR数据)。
可在模拟空间内模拟GNNS传感器(例如,GPS传感器)以产生现实世界坐标。为此,噪声函数可用于近似不准确度。与本文中所描述的任何虚拟传感器一样,虚拟传感器数据可使用编解码器714传输至软件栈642以转换成位对位校正信号(例如,准确地对应于由物理车辆的物理传感器生成的信号)。
可以使用一个或更多个插件应用编程接口(API)706。插件API 706可以包括第一方和/或第三方插件。例如,第三方可以使用它们自己的插件API 706定制模拟系统700B,用于提供定制信息,例如性能定时、悬架动态、轮胎动态等。
插件API 706可以包括自我动态组件(未示出),它可以从模拟器组件602接收包括位置、速度、汽车状态和/或其他信息的信息,并且可以向模拟器组件602提供包括性能定时、悬架动态、轮胎动态和/或其他信息的信息。例如,模拟器组件602可以将CAN油门、转向和行驶表面信息提供给自我动态组件。在一些示例中,(一个或更多个)自我动态组件可包括现货车辆动态包(例如,IPG汽车制造商或虚拟测试驱动),而在其他示例中,(一个或更多个)自我动态组件可被定制和/或接收(例如,从第一方和/或第三方)。
插件API 706可以包括关键性能指示器(KPI)API。KPI API可以(例如,从(一个或更多个)软件栈642)从(一个或更多个)模拟器组件602接收CAN数据、基值和/或虚拟对象状态信息,并且可以生成和/或提供报告(实时地),所述报告包括用于保存状态、恢复状态和/或应用改变的KPI和/或命令。
现在参考图7B,图7B包括根据本公开的一些实施例的用于模拟系统700B的基于云的架构。模拟系统700B可以至少部分地驻留在云中,并且可以通过一个或更多个网络(诸如但不限于此处所描述的(例如,关于图8D的网络890))与一个或更多个GPU平台724(例如,其可以包括GPU、CPU、TPUS、和/或其他处理器类型)和/或一个或更多个HIL平台726(例如,其可以包括来自此处所描述的(一个或更多个)车辆模拟器组件606的组件中的一些或全部)进行通信。
模拟环境728(例如,其可类似于本文描述的模拟环境610)可由互连组件建模,所述互连组件包括模拟引擎730、AI引擎732、全局照明(GI)引擎734、资产数据存储736和/或其他组件。在一些示例中,这些组件可以用于在虚拟化的交互平台(例如,类似于大规模多人在线(MMO)游戏环境)中对模拟环境(例如,虚拟世界)进行建模。模拟的环境还可以包括物理学、交通模拟、天气模拟和/或用于模拟环境的其他特征和模拟。GI引擎734可一次计算环境中的全局照明且与节点718(1)-718(N)和720(1)-720(N)中的每一者共享所述计算(例如,GI的计算可为视图无关的)。模拟环境728可以包括向GPU平台724(例如,GPU服务器)提供数据的AI宇宙722,所述GPU平台724可以为车辆的每个传感器创建渲染(例如,在用于第一虚拟对象的虚拟传感器/编解码器718处和在用于第二虚拟对象的虚拟传感器编解码器720处)。例如,GPU平台724可以接收关于模拟环境728的数据,并且可以创建用于718(1)-718(N)、720(1)-720(N)和/或对应于其他虚拟对象的虚拟传感器/编解码器对中的每一个的传感器输入(取决于实施例)。在使用HIL对象来模拟虚拟对象的示例中,可以将传感器输入提供给车辆硬件104,车辆硬件104可以使用软件栈642来执行一个或更多个操作和/或生成一个或更多个命令,如本文所描述的那些命令。在一些示例中,如本文所描述的,来自每个虚拟传感器的虚拟传感器数据可以在由(或传送到)软件栈642使用之前使用编解码器来编码。另外,在一些示例中,传感器中的每一者可在GPU平台724内的其自身的GPU上执行,而在其他示例中,两个或更多个传感器可共享GPU平台724内的同一GPU。
一个或更多个操作或命令可被传送到模拟引擎730,该模拟引擎可基于操作和/或命令来更新一个或更多个虚拟对象的行为。例如,模拟引擎730可以使用AI引擎732来更新模拟环境728中的AI代理以及虚拟对象的行为。模拟引擎730然后可以更新对象数据和特性(例如,在(一个或更多个)资产数据存储736内),可以更新GI(和/或诸如反射、阴影等的其他方面),并且然后可以生成更新的传感器输入并将其提供给GPU平台724。该过程可以重复直到模拟完成。
示例自主车辆
图8A是根据本公开的一些实施例的示例自主车辆102的图示。自主车辆102(可替代地在此被称为“车辆102”)可以包括但不限于,客运车辆,如小汽车、卡车、公共汽车、第一响应车辆、摆渡车、电动或机动自行车、摩托车、消防车、警用车辆、救护车、船、建筑车辆、水下船只、无人机和/或另一类型的车辆(例如,无人机和/或容纳一个或更多个乘客的车辆)。自主车辆通常按照美国运输部的一个部门——国家公路交通安全管理局(NHTSA)以及汽车工程师协会(SAE)“Taxonomy and Definitions for Terms Related to DrivingAutomation Systems for On-Road Motor Vehicles”(2018年6月15日发布的标准No.J3016-201806,2016年9月30日发布的标准No.J3016-201609,以及该标准的先前和未来的版本)定义的自动化级别进行描述。车辆102可能够实现符合自主驾驶级别的3级-5级中的一个或更多个的功能。例如,取决于实施例,车辆102可能够实现条件自动化(3级)、高自动化(4级)和/或全自动化(5级)。
车辆102可以包括诸如底盘、车身、车轮(例如2个、4个、6个、8个、18个等)、轮胎、车轴之类的部件以及车辆的其他部件。车辆102可以包括推进系统850,例如内燃机、混合动力发电厂、全电动发动机和/或另一种推进系统类型。推进系统850可以连接到可以包括变速器的车辆102的传动系以便实现车辆102的推进。可以响应于接收到来自油门/加速器852的信号而控制推进系统850。
可以包括方向盘的转向(steering)系统854可以用来在推进系统850操作时(例如在车辆运动时)使车辆102转向(例如沿着希望的路径或路线)。转向系统854可以接收来自转向致动器856的信号。对于全自动(5级)功能而言,方向盘可以是可选的。
制动传感器系统846可以用来响应于接收到来自制动致动器848和/或制动传感器的信号而操作车辆制动器。
可以包括一个或更多个片上系统(SoC)804(图8C)和/或一个或更多个GPU的一个或更多个控制器836可以向车辆102的一个或更多个部件和/或系统提供(例如表示命令的)信号。例如,一个或更多个控制器可以发送经由一个或更多个制动致动器848操作车辆制动器、经由一个或更多个转向致动器856操作转向系统854、经由一个或更多个油门/加速器852操作推进系统850的信号。一个或更多个控制器836可以包括一个或更多个板载(例如集成)计算设备(例如超级计算机),所述计算设备处理传感器信号并且输出操作命令(例如表示命令的信号),以实现自主驾驶和/或辅助人类驾驶员驾驶车辆102。一个或更多个控制器836可以包括用于自主驾驶功能的第一控制器836、用于功能性安全功能的第二控制器836、用于人工智能功能(例如计算机视觉)的第三控制器836、用于信息娱乐功能的第四控制器836、用于紧急情况下的冗余的第五控制器836和/或其他控制器。在一些示例中,单个控制器836可以处理上述功能中的两个或更多,两个或更多控制器836可以处理单个功能,和/或其任意组合。
一个或更多个控制器836可以响应于接收自一个或更多个传感器的传感器数据(例如传感器输入),提供用于控制车辆102的一个或更多个部件和/或系统的信号。传感器数据可以接收自例如且不限于全球导航卫星系统传感器858(例如全球定位系统传感器)、RADAR传感器860、超声传感器862、LIDAR传感器864、惯性测量单元(IMU)传感器866(例如加速度计、陀螺仪、磁罗盘、磁力计等)、麦克风896、立体相机868、广角相机870(例如鱼眼相机)、红外相机872、环绕相机874(例如360度相机)、远程和/或中程相机898、速度传感器844(例如用于测量车辆102的速率)、振动传感器842、转向传感器840、制动传感器(例如作为制动传感器系统846的部分)和/或其他传感器类型。
控制器836中的一个或更多个可以接收来自车辆102的仪表组832的输入(例如由输入数据表示),并且经由人机接口(HMI)显示器834、听觉信号器、扬声器和/或经由车辆102的其他部件提供输出(例如输出数据、显示数据等表示的)。这些输出可以包括诸如车辆速度、速率、时间、地图数据(例如图8C的HD地图822)、位置数据(例如,车辆102例如在地图上的位置)、方向、其他车辆的位置(例如占用网格)之类的信息,如控制器836所感知的关于对象和对象状态的信息等等。例如,HMI显示器834可以显示关于一个或更多个对象(例如街道指示牌、警示牌、交通灯变化等)的存在性的信息和/或关于车辆已经做出、正在做出或者将会做出的驾驶机动的信息(例如现在变道、两英里后离开34B,等等)。
车辆102还包括网络接口824,其可以使用一个或更多个无线天线826和/或调制解调器通过一个或更多个网络通信。例如,网络接口824可能够通过LTE、WCDMA、UMTS、GSM、CDMA2000等通信。一个或更多个无线天线826也可以使用诸如蓝牙、蓝牙LE、Z波、ZigBee等等之类的一个或更多个局域网和/或诸如LoRaWAN、SigFox等等之类的一个或更多个低功率广域网(LPWAN)实现环境中的对象(例如车辆、移动设备等等)之间的通信。
图8B为根据本公开一些实施例的用于图8A的示例自主车辆102的相机位置和视场的示例。相机和各自的视场是一个示例实施例,并不意图是限制性的。例如,可以包括附加的和/或可替换的相机,和/或这些相机可以位于车辆102上的不同位置。
用于相机的相机类型可以包括但不限于可以适于与车辆102的部件和/或系统一起使用的数字相机。所述相机可以在汽车安全完整性级别(ASIL)B下和/或在另一个ASIL下操作。相机类型可以具有任何图像捕获率,例如60帧每秒(fps)、820fps、240fps等等,这取决于实施例。相机可能够使用滚动快门、全局快门、另一种类型的快门或者其组合。在一些示例中,滤色器阵列可以包括红白白白(RCCC)滤色器阵列、红白白蓝(RCCB)滤色器阵列、红蓝绿白(RBGC)滤色器阵列、Foveon X3滤色器阵列、拜耳传感器(RGGB)滤色器阵列、单色传感器滤色器阵列和/或另一种类型的滤色器阵列。在一些实施例中,诸如具有RCCC、RCCB和/或RBGC滤色器阵列的相机之类的清晰像素相机可以用在提高光敏感度的努力中。
在一些示例中,所述相机中的一个或更多个可以用来执行高级驾驶员辅助系统(ADAS)功能(例如作为冗余或故障安全设计的部分)。例如,可以安装多功能单目相机以提供包括车道偏离警告、交通指示牌辅助和智能前照灯控制在内的功能。所述相机中的一个或更多个(例如全部相机)可以同时记录和提供图像数据(例如视频)。
所述相机中的一个或更多个可以安装在诸如定制设计的(3-D打印的)组件之类的安装组件中,以便切断可能干扰相机的图像数据捕获能力的杂散光和来自汽车内的反射(例如挡风玻璃镜中反射的来自仪表板的反射)。关于翼镜安装组件,翼镜组件可以是定制3-D打印的,使得相机安装板匹配翼镜的形状。在一些示例中,一个或更多个相机可以集成到翼镜中。对于侧视相机而言,一个或更多个相机也可以集成到驾驶室每个拐角的四根柱子内。
具有包括车辆102前面的环境部分的视场的相机(例如前置相机)可以用于环视,以帮助识别前向路径和障碍,以及在一个或更多个控制器836和/或控制SoC的帮助下辅助提供对于生成占用网格和/或确定优选车辆路径至关重要的信息。前置相机可以用来执行许多与LIDAR相同的ADAS功能,包括紧急制动、行人检测和碰撞避免。前置相机也可以用于ADAS功能和系统,包括车道偏离警告(“LDW”)、自主巡航控制(“ACC”),和/或诸如交通指示牌识别之类的其他功能。
各种各样的相机可以用于前置配置中,包括例如包括CMOS(互补金属氧化物半导体)彩色成像仪在内的单目相机平台。另一个示例可以是广角相机870,其可以用来感知从周边进入视野的对象(例如行人、十字路口交通或者自行车)。尽管图8B中图示出仅仅一个广角相机,但是在车辆102上可以存在任意数量的广角相机870。此外,远程相机898(例如长视立体相机对)可以用于基于深度的对象检测,尤其是用于尚未针对其训练神经网络的对象。远程相机898也可以用于对象检测和分类以及基本的对象跟踪。
一个或更多个立体相机868也可以包括在前置配置中。立体相机868可以包括集成控制单元,该单元包括可扩展处理单元,其可以提供在单个芯片上具有集成的CAN或以太网接口的多核微处理器和可编程逻辑(FPGA)。这样的单元可以用来生成车辆环境的3-D地图,包括针对图像中的所有点的距离估计。可替代的立体相机868可以包括紧凑型立体视觉传感器,其可以包括两个相机镜头(左右各一个)以及可以测量从车辆到目标对象的距离并且使用生成的信息(例如元数据)激活自主紧急制动和车道偏离警告功能的图像处理芯片。除了本文所描述的那些之外或者可替代地,可以使用其他类型的立体相机868。
具有包括车辆102的侧面的环境部分的视场的相机(例如侧视相机)可以用于环视,提供用来创建和更新占用网格以及生成侧撞击碰撞警告的信息。例如,环绕相机874(例如如图8B中所示的四个环绕相机874)可以置于车辆102上。环绕相机874可以包括广角相机870、鱼眼相机、360度相机和/或类似物。四个示例,四个鱼眼相机可以置于车辆的前面、后面和侧面。在一种可替代的布置中,车辆可以使用三个环绕相机874(例如左边、右边和后面),并且可以利用一个或更多个其他相机(例如前向相机)作为第四环视相机。
具有包括车辆102的后面的环境部分的视场的相机(例如后视相机)可以用于辅助停车、环视、后面碰撞警告以及创建和更新占用网格。可以使用各种各样的相机,包括但不限于也适合作为如本文所描述的前置相机(例如远程和/或中程相机898、立体相机868、红外相机872等等)的相机。
图8C为根据本公开一些实施例的用于图8A的示例自主车辆102的示例系统架构的框图。应当理解,这种布置和本文描述的其他布置仅仅作为示例而被阐述。除了所示的那些之外或者代替它们的是,可以使用其他的布置和元素(例如机器、接口、功能、顺序、功能分组等等),并且一些元素可以完全省略。进一步,许多本文描述的元素是功能实体,其可以实现为分立的或分布式部件或者结合其他部件实现,以及以任何适当的组合和位置实现。本文描述为由实体执行的各个功能可以通过硬件、固件和/或软件实现。例如,各个功能可以通过处理器执行存储在存储器中的指令而实现。
图8C中车辆102的部件、特征和系统中的每一个被图示为经由总线802连接。总线802可以包括控制器区域网络(CAN)数据接口(可替代地,本文称为“CAN总线”)。CAN可以是车辆102内部的网络,用来辅助控制车辆102的各种特征和功能,例如制动器、加速、制动、转向、挡风玻璃雨刷等等的驱动。CAN总线可以被配置为具有数十或者甚至数百个节点,每个节点具有其自己的唯一标识符(例如CAN ID)。可以读取CAN总线以找到方向盘角度、地速、每分钟发动机转速(RPM)、按钮位置和/或其他车辆状态指示符。CAN总线可以是ASIL B兼容的。
尽管这里将总线802描述为CAN总线,但是这并不意图是限制性的。例如,除了CAN总线之外或者可替代地,可以使用FlexRay和/或以太网。此外,尽管用单条线来表示总线802,但是这并不意图是限制性的。例如,可以存在任意数量的总线802,其可以包括一条或更多条CAN总线、一条或更多条FlexRay总线、一条或更多条以太网总线和/或一条或更多条使用不同协议的其他类型的总线。在一些示例中,两条或更多总线802可以用来执行不同的功能,和/或可以用于冗余。例如,第一总线802可以用于碰撞避免功能,并且第二总线802可以用于驱动控制。在任何示例中,每条总线802可以与车辆102的任何部件通信,并且两条或更多总线802可以与相同的部件通信。在一些示例中,车辆内的每个SoC 804、每个控制器836和/或每个计算机可以有权访问相同的输入数据(例如来自车辆102的传感器的输入),并且可以连接到诸如CAN总线之类的公共总线。
车辆102可以包括一个或更多个控制器836,例如本文关于图8A所描述的那些控制器。控制器836可以用于各种各样的功能。控制器836可以耦合到车辆102的任何其他不同的部件和系统,并且可以用于车辆102的控制、车辆102的人工智能、用于车辆102的信息娱乐和/或类似物。
车辆102可以包括一个或更多个片上系统(SoC)804。SoC 804可以包括CPU 806、GPU 808、处理器810、高速缓存812、加速器814、数据存储816和/或未图示出的其他部件和特征。在各种各样的平台和系统中,SoC 804可以用来控制车辆102。例如,一个或更多个SoC804可以在系统(例如车辆102的系统)中与HD地图822结合,所述HD地图可以经由网络接口824从一个或更多个服务器(例如图8D的一个或更多个服务器878)获得地图刷新和/或更新。
CPU 806可以包括CPU簇或者CPU复合体(可替代地,本文称为“CCPLEX”)。CPU 806可以包括多个核和/或L2高速缓存。例如,在一些实施例中,CPU 806在一致性多处理器配置中可以包括八个核。在一些实施例中,CPU 806可以包括四个双核簇,其中每个簇具有专用的L2高速缓存(例如2MB L2高速缓存)。CPU 806(例如CCPLEX)可以被配置为支持同时簇操作,使得CPU 806的簇的任意组合能够在任何给定时间是活动的。
CPU 806可以实现包括以下特征中的一个或更多个的功率管理能力:各硬件块在空闲时可以自动进行时钟门控以节省动态功率;由于WFI/WFE指令的执行,每个核时钟可以在该核不主动地执行指令时进行门控;每个核可以独立地进行功率门控;当所有核都进行时钟门控或者功率门控时,可以独立地对每个核簇进行时钟门控;和/或当所有核都进行功率门控时,可以独立地对每个核簇进行功率门控。CPU 806可以进一步实现用于管理功率状态的增强算法,其中指定允许的功率状态和期望的唤醒时间,并且硬件/微代码为所述核、簇和CCPLEX确定要进入的最佳的功率状态。处理核可以在软件中支持简化的功率状态进入序列,该工作被卸载到微代码。
GPU 808可以包括集成的GPU(可替代地,本文称为“iGPU”)。GPU808可以是可编程的,并且对于并行工作负载而言是高效的。在一些示例中,GPU 808可以使用增强张量指令集。GPU 808可以包括一个或更多个流式微处理器,其中每个流式微处理器可以包括L1高速缓存(例如具有至少96KB存储能力的L1高速缓存),并且这些流式微处理器中的两个或更多可以共享L2高速缓存(例如具有512KB存储能力的L2高速缓存)。在一些实施例中,GPU 808可以包括至少八个流式微处理器。GPU 808可以使用计算应用编程接口(API)。此外,GPU808可以使用一个或更多个并行计算平台和/或编程模型(例如NVIDIA的CUDA)。
在汽车和嵌入式使用的情况下,可以对GPU 808进行功率优化以实现最佳性能。例如,可以在鳍式场效应晶体管(FinFET)上制造GPU 808。然而,这并不意图是限制性的,并且GPU 808可以使用其他半导体制造工艺来制造。每个流式微处理器可以合并划分成多个块的若干混合精度处理核。例如且非限制性地,可以将64个PF32核和32个PF64核划分成四个处理块。在这样的示例中,每个处理块可以分配16个FP32核、8个FP64核、16个INT32核、用于深层学习矩阵算术的两个混合精度NVIDIA张量核、L0指令高速缓存、线程束(warp)调度器、分派单元和/或64KB寄存器文件。此外,流式微处理器可以包括独立的并行整数和浮点数据路径,以利用计算和寻址计算的混合提供工作负载的高效执行。流式微处理器可以包括独立线程调度能力,以允许实现并行线程之间的更细粒度的同步和协作。流式微处理器可以包括组合的L1数据高速缓存和共享存储器单元,以便在简化编程的同时提高性能。
GPU 808可以包括在一些示例中提供大约900GB/s的峰值存储器带宽的高带宽存储器(HBM)和/或16GB HBM2存储器子系统。在一些示例中,除了HBM存储器之外或者可替代地,可以使用同步图形随机存取存储器(SGRAM),例如第五代图形双倍数据速率同步随机存取存储器(GDDR5)。
GPU 808可以包括统一存储器技术,其包括访问计数器以允许存储器页面更精确地迁移到最频繁地访问它们的处理器,从而提高处理器之间共享的存储器范围的效率。在一些示例中,地址转换服务(ATS)支持可以用来允许GPU 808直接访问CPU 806页表。在这样的示例中,当GPU 808存储器管理单元(MMU)经历遗漏时,可以将地址转换请求传输至CPU806。作为响应,CPU 806可以在其页表中寻找用于地址的虚拟-物理映射,并且将转换传输回GPU 808。这样,统一存储器技术可以允许单个统一虚拟地址空间用于CPU 806和GPU 808二者的存储器,从而简化了GPU 808编程和将应用程序移(port)到GPU 808。
此外,GPU 808可以包括访问计数器,其可以跟踪GPU 808访问其他处理器的存储器的频率。访问计数器可以帮助确保存储器页面移至最频繁地访问这些页面的处理器的物理存储器。
SoC 804可以包括任意数量的高速缓存812,包括本文描述的那些高速缓存。例如,高速缓存812可以包括CPU 806和GPU 808二者可用的L3高速缓存(例如,其连接到CPU 806和GPU 808二者)。高速缓存812可以包括回写高速缓存,其可以例如通过使用高速缓存一致性协议(例如MEI、MESI、MSI等)跟踪行的状态。取决于实施例,L3高速缓存可以包括4MB或者更多,但是也可以使用更小的高速缓存大小。
SoC 804可以包括算术逻辑单元(ALU),算术逻辑单元可以在相对于车辆102的各种任务或操作中的任何一种执行处理(如处理DNN)时被利用。此外,SoC 804可以包括用于在系统内执行数学运算的浮点单元(FPU)或其他数学协处理器或数字协处理器类型。例如,SoC 104可以包括被集成为CPU 806和/或GPU 808内的执行单元的一个或更多个FPU。
SoC 804可以包括一个或更多个加速器814(例如硬件加速器、软件加速器或者其组合)。例如,SoC 804可以包括硬件加速簇,其可以包括优化的硬件加速器和/或大型片上存储器。该大型片上存储器(例如4MB SRAM)可以使得硬件加速簇能够加速神经网络和其他计算。硬件加速簇可以用来补充GPU 808,并且卸载GPU 808的一些任务(例如释放GPU 808的更多周期以用于执行其他任务)。作为一个示例,加速器814可以用于足够稳定以易于控制加速的有针对性的工作负载(例如感知、卷积神经网络(CNN)等等)。当在本文中使用时,术语“CNN”可以包括所有类型的CNN,包括基于区域的或者区域卷积神经网络(RCNN)和快速RCNN(例如用于对象检测)。
加速器814(例如硬件加速簇)可以包括深度学习加速器(DLA)。DLA可以包括可以被配置成为深度学习应用和推理提供额外的每秒10万亿次操作的一个或更多个张量处理单元(TPU)。TPU可以是被配置为执行图像处理功能(例如用于CNN、RCNN等)且针对执行图像处理功能而优化的加速器。DLA可以进一步针对特定的一组神经网络类型和浮点运算以及推理进行优化。DLA的设计可以比通用GPU提供每毫米更高的性能,并且远远超过CPU的性能。TPU可以执行若干功能,包括单实例卷积函数,支持例如用于特征和权重二者的INT8、INT16和FP16数据类型,以及后处理器功能。
DLA可以在处理的或者未处理的数据上针对各种各样的功能中的任何功能快速且高效地执行神经网络,尤其是CNN,例如且不限于:用于使用来自相机传感器的数据进行对象识别和检测的CNN;用于使用来自相机传感器的数据进行距离估计的CNN;用于使用来自麦克风的数据进行应急车辆检测和识别与检测的CNN;用于使用来自相机传感器的数据进行面部识别和车主识别的CNN;和/或用于安全和/或安全相关事件的CNN。
DLA可以执行GPU 808的任何功能,并且通过使用推理加速器,例如,设计者可以使DLA或GPU 808针对任何功能。例如,设计者可以将CNN的处理和浮点运算聚焦在DLA上,并且将其他功能留给GPU 808和/或其他加速器814。
加速器814(例如硬件加速簇)可以包括可编程视觉加速器(PVA),其在本文中可以可替代地称为计算机视觉加速器。PVA可以被设计和配置为加速用于高级驾驶员辅助系统(ADAS)、自主驾驶和/或增强现实(AR)和/或虚拟现实(VR)应用的计算机视觉算法。PVA可以提供性能与灵活性之间的平衡。例如,每个PVA可以包括例如且不限于任意数量的精简指令集计算机(RISC)核、直接存储器访问(DMA)和/或任意数量的向量处理器。
RISC核可以与图像传感器(例如本文描述的任何相机的图像传感器)、图像信号处理器和/或类似物交互。这些RISC核中的每一个可以包括任意数量的存储器。取决于实施例,RISC核可以使用若干协议中的任何协议。在一些示例中,RISC核可以执行实时操作系统(RTOS)。RISC核可以使用一个或更多个集成电路设备、专用集成电路(ASIC)和/或存储设备实现。例如,RISC核可以包括指令高速缓存和/或紧密耦合的RAM。
DMA可以使得PVA的部件能够独立于CPU 806访问系统存储器。DMA可以支持用来向PVA提供优化的任意数量的特征,包括但不限于支持多维寻址和/或循环寻址。在一些示例中,DMA可以支持高达六个或更多维度的寻址,其可以包括块宽度、块高度、块深度、水平块步进、竖直块步进和/或深度步进。
向量处理器可以是可编程处理器,其可以被设计为高效且灵活地执行用于计算机视觉算法的编程并且提供信号处理能力。在一些示例中,PVA可以包括PVA核和两个向量处理子系统分区。PVA核可以包括处理器子系统、一个或更多个DMA引擎(例如两个DMA引擎)和/或其他外围设备。向量处理子系统可以作为PVA的主处理引擎而操作,并且可以包括向量处理单元(VPU)、指令高速缓存和/或向量存储器(例如VMEM)。VPU核可以包括数字信号处理器,诸如例如单指令多数据(SIMD)、超长指令字(VLIW)数字信号处理器。SIMD和VLIW的组合可以增强吞吐量和速率。
向量处理器中的每一个可以包括指令高速缓存并且可以耦合到专用存储器。结果,在一些示例中,向量处理器中的每一个可以被配置为独立于其他向量处理器执行。在其他示例中,包括在特定PVA中的向量处理器可以被配置为采用数据并行化。例如,在一些实施例中,包括在单个PVA中的多个向量处理器可以执行相同的计算机视觉算法,但是在图像的不同区域上执行。在其他示例中,包括在特定PVA中的向量处理器可以在相同的图像上同时执行不同的计算机视觉算法,或者甚至在序列图像或者图像的部分上执行不同的算法。除其他的以外,任意数量的PVA可以包括在硬件加速簇中,并且任意数量的向量处理器可以包括在这些PVA中的每一个中。此外,PVA可以包括附加的纠错码(ECC)存储器,以增强总体系统安全性。
加速器814(例如硬件加速簇)可以包括片上计算机视觉网络和SRAM,以提供用于加速器814的高带宽、低延迟SRAM。在一些示例中,片上存储器可以包括由例如且不限于八个现场可配置的存储器块组成的至少4MB SRAM,其可以由PVA和DLA二者访问。每对存储器块可以包括高级外围总线(APB)接口、配置电路系统、控制器和复用器。可以使用任何类型的存储器。PVA和DLA可以经由向PVA和DLA提供高速存储器访问的主干(backbone)访问存储器。主干可以包括(例如使用APB)将PVA和DLA互连到存储器的片上计算机视觉网络。
片上计算机视觉网络可以包括在传输任何控制信号/地址/数据之前确定PVA和DLA二者都提供就绪且有效的信号的接口。这样的接口可以提供用于传输控制信号/地址/数据的单独相位和单独信道,以及用于连续数据传输的突发式通信。这种类型的接口可以符合ISO 26262或者IEC 61508标准,但是也可以使用其他标准和协议。
在一些示例中,SoC 804可以包括例如在2018年8月10日提交的美国专利申请No.16/101,232中描述的实时光线追踪硬件加速器。该实时光线追踪硬件加速器可以用来快速且高效地确定(例如世界模型内的)对象的位置和范围,以便生成实时可视化模拟,以用于RADAR信号解释、用于声音传播合成和/或分析、用于SONAR系统模拟、用于一般波传播模拟、用于为了定位和/或其他功能的目的与LIDAR数据相比较和/或用于其他用途。在一些实施例中,一个或更多个树遍历单元(TTU)可以用于执行一个或更多个光线追踪相关操作。
加速器814(例如硬件加速器簇)具有广泛的自主驾驶用途。PVA可以是可编程视觉加速器,其可以用于ADAS和自主车辆中的关键处理阶段。PVA的能力是需要可预测处理、低功率和低延迟的算法域的良好匹配。换言之,PVA在半密集或者密集规则计算上,甚至在需要具有低延迟和低功率的可预测运行时间的小数据集上都表现良好。因此,在用于自主车辆的平台的背景下,PVA被设计为运行经典计算机视觉算法,因为它们在对象检测和整数数学运算方面很有效。
例如,根据该技术的一个实施例,PVA用来执行计算机立体视觉。在一些示例中,可以使用基于半全局匹配的算法,但是这并不意图是限制性的。许多用于3-5级自主驾驶的应用都需要即时运动估计/立体匹配(例如来自运动的结构、行人识别、车道检测等等)。PVA可以在来自两个单目相机的输入上执行计算机立体视觉功能。
在一些示例中,PVA可以用来执行密集的光流。根据过程原始RADAR数据(例如使用4D快速傅立叶变换)以提供经处理的RADAR。在其他示例中,PVA用于飞行时间深度处理,其例如通过处理原始飞行时间数据以提供经处理的飞行时间数据。
DLA可以用来运行任何类型的网络以增强控制和驾驶安全性,包括例如输出用于每个对象检测的置信度度量的神经网络。这样的置信度值可以解释为概率,或者解释为提供每个检测与其他检测相比的相对“权重”。该置信度值使得系统能够做出关于哪些检测应当被认为是真阳性检测而不是假阳性检测的进一步决策。例如,系统可以为置信度设置阈值,并且仅仅将超过阈值的检测看作真阳性检测。在自动紧急制动(AEB)系统中,假阳性检测会使得车辆自动地执行紧急制动,这显然是不希望的。因此,只有最确信的检测才应当被认为是AEB的触发因素。DLA可以运行用于回归置信度值的神经网络。该神经网络可以将至少一些参数子集作为其输入,例如边界框维度,(例如从另一个子系统)获得的地平面估计,与车辆102取向、距离相关的惯性测量单元(IMU)传感器866输出,从神经网络和/或其他传感器(例如LIDAR传感器864或RADAR传感器860)获得的对象的3D位置估计等。
SoC 804可以包括一个或更多个数据存储816(例如存储器)。数据存储816可以是SoC 804的片上存储器,其可以存储要在GPU和/或DLA上执行的神经网络。在一些示例中,为了冗余和安全,数据存储816可以容量足够大以存储神经网络的多个实例。数据存储812可以包括L2或L3高速缓存812。对数据存储816的引用可以包括对与如本文所描述的PVA、DLA和/或其他加速器814关联的存储器的引用。
SoC 804可以包括一个或更多个处理器810(例如嵌入式处理器)。处理器810可以包括启动和功率管理处理器,其可以是用于处理启动功率和管理功能以及有关安全实施的专用处理器和子系统。启动和功率管理处理器可以是SoC 804启动序列的一部分,并且可以提供运行时间功率管理服务。启动功率和管理处理器可以提供时钟和电压编程、辅助系统低功率状态转换、SoC 804热和温度传感器管理和/或SoC 804功率状态管理。每个温度传感器可以实现为环形振荡器,其输出频率与温度成比例,并且SoC804可以使用环形振荡器检测CPU 806、GPU 808和/或加速器814的温度。如果确定温度超过阈值,那么启动和功率管理处理器可以进入温度故障例程并且将SoC 804置于较低功率状态和/或将车辆102置于司机安全停车模式(例如使车辆102安全停车)。
处理器810可以还包括可以用作音频处理引擎的一组嵌入式处理器。音频处理引擎可以是一种音频子系统,其允许实现对于通过多个接口的多声道音频的完全硬件支持以及一系列广泛而灵活的音频I/O接口。在一些示例中,音频处理引擎是具有带有专用RAM的数字信号处理器的专用处理器核。
处理器810可以还包括始终在处理器上的引擎,其可以提供必要的硬件特征以支持低功率传感器管理和唤醒用例。该始终在处理器上的引擎可以包括处理器核、紧密耦合的RAM、支持外围设备(例如定时器和中断控制器)、各种I/O控制器外围设备和路由逻辑。
处理器810可以还包括安全簇引擎,其包括处理汽车应用的安全管理的专用处理器子系统。安全簇引擎可以包括两个或更多处理器核、紧密耦合的RAM、支持外围设备(例如定时器、中断控制器等等)和/或路由逻辑。在安全模式下,所述两个或更多核可以操作于锁步模式下,并且用作具有检测它们的操作之间的任何差异的比较逻辑的单核。
处理器810可以还包括实时相机引擎,其可以包括用于处理实时相机管理的专用处理器子系统。
处理器810可以还包括高动态范围信号处理器,其可以包括图像信号处理器,该图像信号处理器是一种硬件引擎,该硬件引擎是相机处理管线的部分。
处理器810可以包括可以是(例如微处理器上实现的)处理块的视频图像复合器,其实现视频回放应用程序产生用于播放器窗口的最终图像所需的视频后处理功能。视频图像复合器可以对广角相机870、环绕相机874和/或对驾驶室内监控相机传感器执行镜头畸变校正。驾驶室内监控相机传感器优选地由运行在高级SoC的另一个实例上的神经网络监控,被配置为识别驾驶室内事件并且相对应地做出响应。驾驶室内系统可以执行唇读,以激活移动电话服务并拨打电话、口述电子邮件、改变车辆目的地、激活或改变车辆的信息娱乐系统和设置或者提供语音激活的网上冲浪。某些功能仅在车辆操作于自主模式下时对于驾驶员可用,并且在其他情况下被禁用。
视频图像复合器可以包括用于空间和时间降噪的增强时间降噪。例如,在视频中出现运动的情况下,降噪适当地对空间信息加权,降低邻近帧提供的信息的权重。在图像或者图像的部分不包括运动的情况下,视频图像复合器执行的时间降噪可以使用来自先前的图像的信息以降低当前图像中的噪声。
视频图像复合器也可以被配置为对输入立体镜头帧执行立体校正。当操作系统桌面正在使用并且GPU 808无需连续地渲染(render)新的表面时,视频图像复合器可以进一步用于用户接口组成。甚至在GPU 808上电并且激活,进行3D渲染时,视频图像复合器可以用来减轻GPU 808的负担以提高性能和响应能力。
SoC 804可以还包括用于从相机接收视频和输入的移动行业处理器接口(MIPI)相机串行接口、高速接口和/或可以用于相机和有关像素输入功能的视频输入块。SoC 804可以还包括可以由软件控制并且可以用于接收未提交到特定角色的I/O信号的输入/输出控制器。
SoC 804可以还包括大范围的外围设备接口,以使能与外围设备、音频编解码器、功率管理和/或其他设备通信。SoC 804可以用来处理来自(通过千兆多媒体串行链路和以太网连接的)相机、传感器(例如可以通过以太网连接的LIDAR传感器864、RADAR传感器860等等)的数据,来自总线802的数据(例如车辆102的速率、方向盘位置等等),来自(通过以太网或CAN总线连接的)GNSS传感器858的数据。SoC 804可以还包括专用高性能大容量存储控制器,其可以包括它们自己的DMA引擎,并且其可以用来从日常数据管理任务中释放CPU806。
SoC 804可以是具有灵活架构的端到端平台,该架构跨越自动化3-5级,从而提供利用和高效使用计算机视觉和ADAS技术以实现多样性和冗余、连同深度学习工具一起提供用于灵活可靠驾驶软件堆栈的平台的综合功能安全架构。SoC 804可以比常规的系统更快、更可靠,甚至更加能量高效和空间高效。例如,当与CPU 806、GPU 808和数据存储816结合时,加速器814可以提供用于3-5级自主车辆的快速高效平台。
因此该技术提供了不能通过常规系统实现的能力和功能。例如,计算机视觉算法可以在CPU上执行,这些CPU可以使用诸如C编程语言之类的高级编程语言配置为跨各种各样的视觉数据执行各种各样的处理算法。然而,CPU常常不能满足许多计算机视觉应用的性能要求,诸如与例如执行时间和功耗有关的那些要求。特别地,许多CPU不能实时地执行复杂的对象检测算法,这是车载ADAS应用的要求和实用3-5级自主车辆的要求。
与常规系统形成对比的是,通过提供CPU复合体、GPU复合体和硬件加速簇,本文描述的技术允许同时和/或顺序地执行多个神经网络,并且将结果组合在一起以实现3-5级自主驾驶功能。例如,在DLA或dGPU(例如GPU 820)上执行的CNN可以包括文本和单词识别,允许超级计算机读取和理解交通指示牌,包括尚未针对其特别地训练神经网络的指示牌。DLA可以还包括能够识别、解释和提供对指示牌的语义理解,并且将该语义理解传递给运行在CPU复合体上的路径规划模块的神经网络。
作为另一个示例,如3、4或5级驾驶所需的,多个神经网络可以同时运行。例如,由“注意:闪烁的灯指示结冰条件”组成的警告指示牌连同电灯可以由若干神经网络独立地或者共同地进行解释。指示牌本身可以由部署的第一神经网络(例如经过训练的神经网络)识别为交通指示牌,文本“闪烁的灯指示结冰条件”可以由部署的第二神经网络解释,该部署的第二神经网络告知车辆的路径规划软件(优选地在CPU复合体上执行)当检测到闪烁的灯时,存在结冰条件。闪烁的灯可以通过在多个帧上操作部署的第三神经网络而识别,该神经网络告知车辆的路径规划软件闪烁的灯的存在(或不存在)。所有三个神经网络可以例如在DLA内和/或在GPU 808上同时运行。
在一些示例中,用于面部识别和车主识别的CNN可以使用来自相机传感器的数据识别车辆102的授权的驾驶员和/或车主的存在。始终在传感器上的处理引擎可以用来在车主接近驾驶员车门时解锁车辆并且打开灯,并且在安全模式下,在车主离开车辆时禁用车辆。按照这种方式,SoC 804提供了防范盗窃和/或劫车的安全性。
在另一个示例中,用于应急车辆检测和识别的CNN可以使用来自麦克风896的数据来检测并且识别应急车辆警报(siren)。与使用通用分类器检测警报并且手动地提取特征的常规系统形成对比的是,SoC 804使用CNN以对环境和城市声音分类以及对视觉数据分类。在优选的实施例中,运行在DLA上的CNN被训练为识别应急车辆的相对关闭速率(例如通过使用多普勒效应)。CNN也可以被训练为识别如GNSS传感器858所识别的特定于车辆在其中操作的局部区域的应急车辆。因此,例如,当在欧洲操作时,CNN将寻求检测欧洲警报,并且当在美国时,CNN将寻求识别仅仅北美的警报。一旦检测到应急车辆,在超声传感器862的辅助下,控制程序可以用来执行应急车辆安全例程,使车辆放慢速度,开到路边,停下车辆,和/或使车辆空转,直到应急车辆通过。
车辆可以包括可以经由高速互连(例如PCIe)耦合到SoC 804的CPU818(例如分立的CPU或dCPU)。CPU 818可以包括例如X86处理器。CPU818可以用来执行各种各样的功能中的任何功能,包括例如仲裁ADAS传感器与SoC 804之间潜在地不一致的结果,和/或监控控制器836和/或信息娱乐SoC 830的状态和健康状况。
车辆102可以包括可以经由高速互连(例如NVIDIA的NVLINK)耦合到SoC 804的GPU820(例如分立的GPU或dGPU)。GPU 820可以例如通过执行冗余的和/或不同的神经网络而提供附加的人工智能功能,并且可以用来基于来自车辆102的传感器的输入(例如传感器数据)来训练和/或更新神经网络。
车辆102可以还包括网络接口824,该网络接口可以包括一个或更多个无线天线826(例如用于不同通信协议的一个或更多个无线天线,例如蜂窝天线、蓝牙天线等等)。网络接口824可以用来使能通过因特网与云(例如与服务器878和/或其他网络设备)、与其他车辆和/或与计算设备(例如乘客的客户端设备)的无线连接。为了与其他车辆通信,可以在这两辆车之间建立直接链接,和/或可以建立间接链接(例如跨网络以及通过因特网)。直接链接可以使用车对车通信链路提供。车对车通信链路可以向车辆102提供关于接近车辆102的车辆(例如车辆102前面、侧面和/或后面的车辆)的信息。该功能可以是车辆102的协作自适应巡航控制功能的部分。
网络接口824可以包括提供调制和解调功能并且使得控制器836能够通过无线网络通信的SoC。网络接口824可以包括用于从基带到射频的上转换以及从射频到基带的下转换的射频前端。频率转换可以通过公知的过程执行,和/或可以使用超外差(super-heterodyne)过程执行。在一些示例中,射频前端功能可以由单独的芯片提供。网络接口可以包括用于通过LTE、WCDMA、UMTS、GSM、CDMA2000、蓝牙、蓝牙LE、Wi-Fi、Z波、ZigBee、LoRaWAN和/或其他无线协议通信的无线功能。
车辆102可以还包括可包括片外(例如SoC 804外)存储装置的数据存储828。数据存储828可以包括一个或更多个存储元件,包括RAM、SRAM、DRAM、VRAM、闪存、硬盘和/或可以存储至少一个比特的数据的其他部件和/或设备。
车辆102可以还包括GNSS传感器858。GNSS传感器858(例如GPS和/或辅助GPS传感器)用于辅助映射、感知、占用网格生成和/或路径规划功能。可以使用任意数量的GNSS传感器858,包括例如且不限于使用带有以太网到串行(RS-232)网桥的USB连接器的GPS。
车辆102可以还包括RADAR传感器860。RADAR传感器860可以甚至在黑暗和/或恶劣天气条件下也由车辆102用于远程车辆检测。RADAR功能安全级别可以是ASIL B。RADAR传感器860可以使用CAN和/或总线802(例如以传输RADAR传感器860生成的数据)以用于控制以及访问对象跟踪数据,在一些示例中接入以太网以访问原始数据。可以使用各种各样的RADAR传感器类型。例如且非限制性地,RADAR传感器860可以适合前面、后面和侧面RADAR使用。在一些示例中,使用脉冲多普勒RADAR传感器。
RADAR传感器860可以包括不同的配置,例如具有窄视场的远程、具有宽视场的短程、短程侧覆盖等等。在一些示例中,远程RADAR可以用于自适应巡航控制功能。远程RADAR系统可以提供通过两个或更多独立扫描实现的广阔视场(例如250m范围内)。RADAR传感器860可以帮助区分静态对象和运动对象,并且可以由ADAS系统用于紧急制动辅助和前方碰撞警告。远程RADAR传感器可以包括具有多根(例如六根或更多)固定RADAR天线以及高速CAN和FlexRay接口的单站多模RADAR。在具有六根天线的示例中,中央四根天线可以创建聚焦的波束图案,其被设计为在更高速率下以来自邻近车道的最小交通干扰记录车辆102的周围环境。其他两根天线可以扩展视场,使得快速地检测进入或离开车辆102的车道的车辆成为可能。
作为一个示例,中程RADAR系统可以包括高达860m(前面)或80m(后面)的范围以及高达42度(前面)或850度(后面)的视场。短程RADAR系统可以包括但不限于被设计为安装在后保险杠两端的RADAR传感器。当安装在后保险杠两端时,这样的RADAR传感器系统可以创建持续地监控后方和车辆旁边的盲点的两个波束。
短程RADAR系统可以在ADAS系统中用于盲点检测和/或变道辅助。
车辆102可以还包括超声传感器862。可以置于车辆102的前面、后面和/或侧面的超声传感器862可以用于停车辅助和/或创建和更新占用网格。可以使用各种各样的超声传感器862,并且不同的超声传感器862可以用于不同的检测范围(例如2.5m、4m)。超声传感器862可以操作于功能安全级别的ASIL B。
车辆102可以包括LIDAR传感器864。LIDAR传感器864可以用于对象和行人检测、紧急制动、碰撞避免和/或其他功能。LIDAR传感器864可以为功能安全级别的ASIL B。在一些示例中,车辆102可以包括可以使用以太网(例如以将数据提供给千兆以太网交换机)的多个LIDAR传感器864(例如两个、四个、六个等等)。
在一些示例中,LIDAR传感器864可能够对360度视场提供对象列表及其距离。商业上可用的LIDAR传感器864可以具有例如近似102m的广告范围,精度为2cm-3cm,支持102Mbps以太网连接。在一些示例中,可以使用一个或更多个非突出的LIDAR传感器864。在这样的示例中,LIDAR传感器864可以实现为可以嵌入到车辆102的前面、后面、侧面和/或拐角的小设备。在这样的示例中,LIDAR传感器864可以甚至对于低反射率对象提供高达820度水平的和35度竖直的视场,具有200m的范围。前面安装的LIDAR传感器864可以被配置用于45度与135度之间的水平视场。
在一些示例中,也可以使用诸如3D闪光LIDAR之类的LIDAR技术。3D闪光LIDAR使用激光的闪光作为发射源,以照亮高达约200m的车辆周围环境。闪光LIDAR单元包括接受器,该接受器将激光脉冲传输时间和反射光记录在每个像素上,其进而与从车辆到对象的范围相对应。闪光LIDAR可以允许利用每个激光闪光生成周围环境的高度精确且无失真的图像。在一些示例中,可以部署四个闪光LIDAR传感器,车辆102的每一侧一个。可用的3D闪光LIDAR系统包括没有风扇以外的运动部件(moving part)的固态3D凝视阵列LIDAR相机(例如非扫描LIDAR设备)。闪光LIDAR设备可以使用每帧5纳秒I类(眼睛安全)激光脉冲,并且可以以3D范围点云和共同寄存的强度数据的形式捕获反射的激光。通过使用闪光LIDAR,并且因为闪光LIDAR是没有运动部件的固态设备,LIDAR传感器864可以不太容易受到运动模糊、振动和/或震动的影响。
该车辆可以还包括IMU传感器866。在一些示例中,IMU传感器866可以位于车辆102的后轴的中心。IMU传感器866可以包括例如且不限于加速度计、磁力计、陀螺仪、磁罗盘和/或其他传感器类型。在一些示例中,例如在六轴应用中,IMU传感器866可以包括加速度计和陀螺仪,而在九轴应用中,IMU传感器866可以包括加速度计、陀螺仪和磁力计。
在一些实施例中,IMU传感器866可以实现为微型高性能GPS辅助惯性导航系统(GPS/INS),其结合微机电系统(MEMS)惯性传感器、高灵敏度GPS接收器和高级卡尔曼滤波算法以提供位置、速度和姿态的估计。这样,在一些示例中,IMU传感器866可以使得车辆102能够在无需来自磁传感器的输入的情况下通过直接观察从GPS到IMU传感器866的速度变化并且将其相关来估计方向(heading)。在一些示例中,IMU传感器866和GNSS传感器858可以结合到单个集成单元中。
该车辆可以包括置于车辆102中和/或车辆102周围的麦克风896。除别的以外,麦克风896可以用于应急车辆检测和识别。
该车辆可以还包括任意数量的相机类型,包括立体相机868、广角相机870、红外相机872、环绕相机874、远程和/或中程相机898和/或其他相机类型。这些相机可以用来捕获车辆102整个外围周围的图像数据。使用的相机类型取决于实施例和车辆102的要求,并且相机类型的任意组合可以用来提供车辆102周围的必要覆盖。此外,相机的数量可以根据实施例而不同。例如,该车辆可以包括六个相机、七个相机、十个相机、十二个相机和/或另一数量的相机。作为一个示例且非限制性地,这些相机可以支持千兆多媒体串行链路(GMSL)和/或千兆以太网。所述相机中的每一个在本文关于图8A和图8B更详细地进行了描述。
车辆102可以还包括振动传感器842。振动传感器842可以测量车辆的诸如车轴之类的部件的振动。例如,振动的变化可以指示道路表面的变化。在另一个示例中,当使用两个或更多振动传感器842时,振动之间的差异可以用来确定道路表面的摩擦或滑移(例如当动力驱动轴与自由旋转轴之间存在振动差异时)。
车辆102可以包括ADAS系统838。在一些示例中,ADAS系统838可以包括SoC。ADAS系统838可以包括自主/自适应/自动巡航控制(ACC)、协作自适应巡航控制(CACC)、前方撞车警告(FCW)、自动紧急制动(AEB)、车道偏离警告(LDW)、车道保持辅助(LKA)、盲点警告(BSW)、后方穿越交通警告(RCTW)、碰撞警告系统(CWS)、车道居中(LC)和/或其他特征和功能。
ACC系统可以使用RADAR传感器860、LIDAR传感器864和/或相机。ACC系统可以包括纵向ACC和/或横向ACC。纵向ACC监控并控制到紧接在车辆102前方的车辆的距离,并且自动地调节车速以维持离前方车辆的安全距离。横向ACC执行距离保持,并且在必要时建议车辆102改变车道。横向ACC与诸如LCA和CWS之类的其他ADAS应用程序有关。
CACC使用来自其他车辆的信息,该信息可以经由网络接口824和/或无线天线826经由无线链路或者通过网络连接(例如通过因特网)间接地从其他车辆接收。直接链接可以由车对车(V2V)通信链路提供,而间接链接可以是基础设施到车辆(I2V)的通信链路。通常,V2V通信概念提供关于紧接在前的车辆(例如紧接在车辆102前方且与其处于相同车道的车辆)的信息,而I2V通信概念提供关于前方更远处的交通的信息。CACC系统可以包括I2V和V2V信息源中的任一个或者二者。给定车辆102前方车辆的信息,CACC可以更加可靠,并且它有可能提高交通流的畅通性且降低道路拥堵。
FCW系统被设计为提醒驾驶员注意危险,使得驾驶员可以采取纠正措施。FCW系统使用耦合到专用处理器、DSP、FPGA和/或ASIC的前置相机和/或RADAR传感器860,该专用处理器、DSP、FPGA和/或ASIC电耦合至诸如显示器、扬声器和/或振动部件之类的驾驶员反馈。FCW系统可以提供例如声音、视觉警告、振动和/或快速制动脉冲形式的警告。
AEB系统检测即将发生的与另一车辆或其他对象的前方碰撞,并且可以在驾驶员在指定的时间或距离参数内没有采取纠正措施的情况下自动地应用制动器。AEB系统可以使用耦合到专用处理器、DSP、FPGA和/或ASIC的前置相机和/或RADAR传感器860。当AEB系统检测到危险时,它典型地首先提醒(alert)驾驶员采取纠正措施以避免碰撞,并且如果驾驶员没有采取纠正措施,那么AEB系统可以自动地应用制动器以努力防止或者至少减轻预测的碰撞的影响。AEB系统可以包括诸如动态制动支持和/或碰撞迫近制动之类的技术。
LDW系统提供了诸如方向盘或座位振动之类的视觉、听觉和/或触觉警告,以在车辆102穿过车道标记时提醒驾驶员。当驾驶员指示有意偏离车道时,通过激活转弯信号,不激活LDW系统。LDW系统可以使用耦合到专用处理器、DSP、FPGA和/或ASIC的前侧朝向相机,该专用处理器、DSP、FPGA和/或ASIC电耦合至诸如显示器、扬声器和/或振动部件之类的驾驶员反馈。
LKA系统是LDW系统的变型。如果车辆102开始离开车道,那么LKA系统提供纠正车辆102的转向输入或制动。
BSW系统检测并向驾驶员警告汽车盲点中的车辆。BSW系统可以提供视觉、听觉和/或触觉警报以指示合并或改变车道是不安全的。系统可以在驾驶员使用转弯信号时提供附加的警告。BSW系统可以使用耦合到专用处理器、DSP、FPGA和/或ASIC的后侧朝向相机和/或RADAR传感器860,该专用处理器、DSP、FPGA和/或ASIC电耦合至诸如显示器、扬声器和/或振动部件之类的驾驶员反馈。
RCTW系统可以在车辆102倒车时在后置相机范围之外检测到对象时提供视觉、听觉和/或触觉通知。一些RCTW系统包括AEB以确保应用车辆制动器以避免撞车。RCTW系统可以使用耦合到专用处理器、DSP、FPGA和/或ASIC的一个或更多个后置RADAR传感器860,该专用处理器、DSP、FPGA和/或ASIC电耦合至诸如显示器、扬声器和/或振动部件之类的驾驶员反馈。
常规的ADAS系统可能易于出现假阳性结果,这可能会让驾驶员烦恼并分散注意力,但是典型地不是灾难性的,因为ADAS系统提醒驾驶员并且允许驾驶员决定安全条件是否真正存在并且相对应地采取行动。然而,在自主车辆102中,在冲突结果的情况下,车辆102本身必须决定是否注意(heed)来自主计算机或者辅助计算机(例如第一控制器836或第二控制器836)的结果。例如,在一些实施例中,ADAS系统838可以是用于向备用计算机合理性模块提供感知信息的备用和/或辅助计算机。备用计算机合理性监视器可以在硬件组件上运行冗余多样的软件,以检测感知和动态驾驶任务中的故障。来自ADAS系统838的输出可以提供给监督MCU。如果来自主计算机和辅助计算机的输出冲突,那么监督MCU必须确定如何协调该冲突以确保安全操作。
在一些示例中,主计算机可以被配置为向监督MCU提供置信度评分,指示主计算机对所选结果的置信度。如果置信度评分超过阈值,那么监督MCU可以遵循主计算机的方向,而不管辅助计算机是否提供冲突或不一致的结果。在置信度评分不满足阈值的情况下并且在主计算机和辅助计算机指示不同的结果(例如冲突)的情况下,监督MCU可以在这些计算机之间进行仲裁以确定适当的结果。
监督MCU可以被配置为运行神经网络,所述神经网络被训练并且被配置为基于来自主计算机和辅助计算机的输出,确定辅助计算机提供假警报的条件。因此,监督MCU中的神经网络可以了解何时可以信任辅助计算机的输出以及何时不能。例如,当辅助计算机为基于RADAR的FCW系统时,监督MCU中的神经网络可以了解FCW系统何时正在识别事实上不是危险的金属对象,例如触发警报的排水栅格或井盖。类似地,当辅助计算机是基于相机的LDW系统时,监督MCU中的神经网络可以学习在骑车者或行人在场并且车道偏离实际上是最安全的策略时无视该LDW。在包括运行在监督MCU上的神经网络的实施例中,监督MCU可以包括适合于利用关联的存储器运行神经网络的DLA或GPU中的至少一个。在优选的实施例中,监督MCU可以包括SoC 804的部件和/或作为SoC 804的部件而被包括。
在其他示例中,ADAS系统838可以包括使用传统计算机视觉规则执行ADAS功能的辅助计算机。这样,辅助计算机可以使用经典的计算机视觉规则(如果-那么),并且在监督MCU中存在神经网络可以提高可靠性、安全性和性能。例如,多样化的实现方式和有意的非完全相同(non-identity)使得整个系统更加容错,对于软件(或者软件-硬件接口)功能造成的故障而言尤其如此。例如,如果在主计算机上运行的软件中存在软件漏洞或错误并且运行在辅助计算机上的非完全相同的软件代码提供相同的总体结果,那么监督MCU可以更加确信总体结果是正确的,并且主计算机上的软件或硬件中的漏洞不造成实质性的错误。
在一些示例中,ADAS系统838的输出可以馈送至主计算机的感知块和/或主计算机的动态驾驶任务块。例如,如果ADAS系统838由于对象紧接在前的原因而指示前方碰撞警告,那么感知块可以在识别对象时使用该信息。在其他示例中,辅助计算机可以具有它自己的神经网络,其被训练并且因此如本文所描述的降低假阳性的风险。
车辆102可以还包括信息娱乐SoC 830(例如车载信息娱乐系统(IVI))。尽管被图示和描述为SoC,但是信息娱乐系统可以不是SoC,并且可以包括两个或更多分立的部件。信息娱乐SoC 830可以包括可以用来向车辆102提供音频(例如音乐、个人数字助理、导航指令、新闻、广播等等)、视频(例如TV、电影、流媒体等等)、电话(例如免提呼叫)、网络连接(例如LTE、Wi-Fi等等)和/或信息服务(例如导航系统,后停车援助,无线电数据系统,诸如燃油水平、覆盖的总距离、制动燃油水平、油位、车门开/关、空气过滤器信息之类的车辆有关信息,等等)的硬件和软件的组合。例如,信息娱乐SoC 830可以包括收音机、盘播放器、导航系统、视频播放器、USB和蓝牙连接、车载电脑、车载娱乐、Wi-Fi、方向盘音频控件、免提语音控件、平视显示器(HUD)、HMI显示器834、远程信息处理设备、控制面板(例如用于控制各种部件、特征和/或系统,和/或与其交互)和/或其他部件。信息娱乐SoC 830可以进一步用来向车辆的用户提供信息(例如视觉的和/或听觉的),例如来自ADAS系统838的信息,诸如规划的车辆机动、轨迹、周围环境信息(例如交叉路口信息、车辆信息、道路信息等等)之类的自主驾驶信息,和/或其他信息。
信息娱乐SoC 830可以包括GPU功能。信息娱乐SoC 830可以通过总线802(例如CAN总线、以太网等)与车辆102的其他设备、系统和/或部件通信。在一些示例中,信息娱乐SoC830可以耦合至监督MCU,使得在主控制器836(例如车辆102的主和/或备用计算机)出现故障的情况下,信息娱乐系统的GPU可以执行一些自驾驶功能。在这样的示例中,信息娱乐SoC830可以如本文所描述的将车辆102置于司机安全停车模式。
车辆102可以还包括仪表组832(例如数字仪表板、电子仪表组、数字仪表面板等等)。仪表组832可以包括控制器和/或超级计算机(例如分立的控制器或超级计算机)。仪表组832可以包括一套仪器,例如车速表、燃油水平、油压、转速表、里程表、转弯指示器、换档位置指示器、安全带警告灯、停车制动警告灯、发动机故障灯、安全气囊(SRS)系统信息、照明控件、安全系统控件、导航信息等等。在一些示例中,信息可以被显示和/或在信息娱乐SoC 830和仪表组832之间共享。换言之,仪表组832可以作为信息娱乐SoC 830的部分而被包括,或者反之亦然。
图8D为根据本公开一些实施例的基于云的服务器与图8A的示例自主车辆102之间的通信的系统示意图。系统876可以包括服务器878、网络890以及包括车辆102在内的车辆。服务器878可以包括多个GPU884(A)-884(H)(这里统称为GPU 884)、PCIe交换机882(A)-882(H)(这里统称为PCIe交换机882)和/或CPU 880(A)-880(B)(这里统称为CPU 880)。GPU884、CPU 880和PCIe交换机可以与诸如例如且不限于NVIDIA开发的NVLink接口888之类的高速互连和/或PCIe连接886互连。在一些示例中,GPU 884经由NVLink和/或NVSwitch SoC连接,并且GPU 884和PCIe交换机882经由PCIe互连连接。尽管图示出八个GPU 884、两个CPU880和两个PCIe交换机,但是这并不意图是限制性的。取决于实施例,服务器878中的每一个可以包括任意数量的GPU 884、CPU 880和/或PCIe交换机。例如,服务器878中的每一个可以包括八个、十六个、三十二个和/或更多GPU 884。
服务器878可以通过网络890并且从车辆接收图像数据,该图像数据表示示出诸如最近开始的道路工程之类的意外或改变的道路状况的图像。服务器878可以通过网络890并且向车辆传输神经网络892、更新的神经网络892和/或地图信息894,包括关于交通和道路状况的信息。对地图信息894的更新可以包括对于HD地图822的更新,例如关于建筑工地、坑洼、弯道、洪水或其他障碍物的信息。在一些示例中,神经网络892、更新的神经网络892和/或地图信息894可以已从新的训练和/或从环境中的任意数量的车辆接收的数据中表示和/或基于数据中心处执行的训练(例如使用服务器878和/或其他服务器)的经验产生。
服务器878可以用来基于训练数据训练机器学习模型(例如神经网络)。训练数据可以由车辆生成,和/或可以在模拟中生成(例如使用游戏引擎)。在一些示例中,训练数据被标记(例如在神经网络受益于有监督学习的情况下)和/或经历其他预处理,而在其他示例中,训练数据不被标记和/或预处理(例如在神经网络无需有监督学习的情况下)。一旦机器学习模型被训练,机器学习模型可以由车辆使用(例如通过网络890传输至车辆),和/或机器学习模型可以由服务器878用来远程地监控车辆。
在一些示例中,服务器878可以接收来自车辆的数据,并且将该数据应用到最新的实时神经网络以用于实时智能推理。服务器878可以包括由GPU 884供电的深度学习超级计算机和/或专用AI计算机,例如NVIDIA开发的DGX和DGX站机器。然而,在一些示例中,服务器878可以包括仅使用CPU供电的数据中心的深度学习基础设施。
服务器878的深度学习基础设施可能够快速实时推理,并且可以使用该能力来评估并验证车辆102中的处理器、软件和/或关联硬件的健康状况。例如,深度学习基础设施可以接收来自车辆102的定期更新,例如图像序列和/或车辆102已经定位的位于该图像序列中的对象(例如经由计算机视觉和/或其他机器学习对象分类技术)。深度学习基础设施可以运行它自己的神经网络以识别对象并且将它们与车辆102识别的对象相比较,如果结果不匹配并且该基础设施得出车辆102中的AI发生故障的结论,那么服务器878可以向车辆102传输信号,指示车辆102的故障保护计算机进行控制,通知乘客,并且完成安全停车操作。
为了推理,服务器878可以包括GPU 884和一个或更多个可编程推理加速器(例如NVIDIA的TensorRT)。GPU供电的服务器和推理加速的组合可以使得实时响应成为可能。在其他示例中,例如在性能不那么重要的情况下,CPU、FPGA和其他处理器供电的服务器可以用于推理。
示例计算设备
图9为适合用于实现本公开一些实施例的示例计算设备900的框图。计算设备900可以包括直接或间接耦合下列设备的总线902:存储器904,一个或更多个中央处理单元(CPU)906,一个或更多个图形处理单元(GPU)908,通信接口910,输入/输出(I/O)端口912,输入/输出组件914,电源916,以及一个或更多个呈现组件918(例如显示器)。
尽管图9的各个框被示为经由具有线路的总线902连接,但是这并不意图是限制性的,并且仅仅为了清楚起见。例如,在一些实施例中,诸如显示设备之类的呈现组件918可以被认为是I/O组件914(例如如果显示器为触摸屏)。作为另一个示例,CPU 906和/或GPU 908可以包括存储器(例如,存储器904可以表示除了GPU 908、CPU 906和/或其他组件的存储器以外的存储设备)。换言之,图9的计算设备仅仅是说明性的。在诸如“工作站”、“服务器”、“膝上型电脑”、“台式机”、“平板电脑”、“客户端设备”、“移动设备”、“手持式设备”、“游戏控制台”、“电子控制单元(ECU)”、“虚拟现实系统”和/或其他设备或系统类型之类的类别之间不进行区分,因为所有这些都被考虑在图9的计算设备的范围内。
总线902可以表示一条或更多条总线,例如地址总线、数据总线、控制总线或者其组合。总线902可以包括一种或更多种总线类型,例如行业标准架构(ISA)总线、扩展行业标准架构(EISA)总线、视频电子标准协会(VESA)总线、外围组件互连(PCI)总线、外围组件互连快速(PCIe)总线,和/或另一种类型的总线。
存储器904可以包括各种各样的计算机可读介质中的任何介质。计算机可读介质可以是可以由计算设备900访问的任何可用介质。计算机可读介质可以包括易失性和非易失性介质以及可移除和不可移除介质。举例而言且非限制性地,计算机可读介质可以包括计算机存储介质和通信介质。
计算机存储介质可以包括易失性和非易失性介质和/或可移除和不可移除介质,其以用于存储诸如计算机可读指令、数据结构、程序模块和/或其他数据类型之类的信息的任何方法或技术实现。例如,存储器904可以存储计算机可读指令(例如其表示程序和/或程序元素,例如操作系统)。计算机存储介质可以包括但不限于RAM、ROM、EEPROM、闪存或者其他存储技术、CD-ROM、数字多功能盘(DVD)或其他光盘存储装置、磁带盒、磁带、磁盘存储装置或其他磁存储设备,或者可以用来存储期望的信息且可以由计算设备900访问的任何其他介质。当在本文使用时,计算机存储介质并不包括信号本身。
通信介质可以在诸如载波之类的调制数据信号或其他传输机制中包括计算机可读指令、数据结构、程序模块和/或其他数据类型,并且包括任何信息输送介质。术语“调制数据信号”可以指这样的信号,该信号使它的特性中的一个或更多个以这样的将信息编码到该信号中的方式设置或改变。举例而言且非限制性地,通信介质可以包括诸如有线网络或直接有线连接之类的有线介质,以及诸如声音、RF、红外和其他无线介质之类的无线介质。任何以上所述的组合也应当包括在计算机可读介质的范围内。
CPU 906可以被配置为执行计算机可读指令以便控制计算设备900的一个或更多个组件执行本文描述的方法和/或过程中的一个或更多个。CPU 906中的每一个可以包括能够同时处理大量软件线程的一个或更多个核(例如一个、两个、四个、八个、二十八个、七十二个等等)。CPU 906可以包括任何类型的处理器,并且可以包括不同类型的处理器,这取决于实现的计算设备900的类型(例如具有用于移动设备的较少核的处理器以及具有用于服务器的更多核的处理器)。例如,取决于计算设备900的类型,处理器可以是使用精简指令集计算(RISC)实现的ARM处理器或者使用复杂指令集计算(CISC)实现的x86处理器。除了一个或更多个微处理器或者诸如数学协处理器之类的补充协处理器之外,计算设备900还可以包括一个或更多个CPU 906。
GPU 908可以由计算设备900用来渲染图形(例如3D图形)。GPU 908可以包括能够同时处理数百或数千个软件线程的数百或数千个核。GPU908可以响应于渲染命令(例如经由主机接口接收的来自CPU 906的渲染命令)而生成用于输出图像的像素数据。GPU 908可以包括诸如显示存储器之类的用于存储像素数据的图形存储器。显示存储器可以作为存储器904的部分而被包括。GPU 908可以包括(例如经由链路)并行操作的两个或更多GPU。当组合在一起时,每个GPU 908可以生成用于输出图像的不同部分或者用于不同输出图像的像素数据(例如,第一GPU用于第一图像,第二GPU用于第二图像)。每个GPU可以包括它自己的存储器,或者可以与其他GPU共享存储器。
在其中计算设备900不包括GPU 908的示例中,CPU 906可以用来渲染图形。
通信接口910可以包括一个或更多个接收器、发送器和/或收发器,其使得计算设备900能够经由电子通信网络与其他计算设备通信,包括有线和/或无线通信。通信接口910可以包括使能通过若干不同网络中的任何网络进行通信的组件和功能,所述网络例如无线网络(例如Wi-Fi、Z波、蓝牙、蓝牙LE、ZigBee等等)、有线网络(例如通过以太网通信)、低功率广域网(例如LoRaWAN、SigFox等等)和/或因特网。
I/O端口912可以使得计算设备900能够逻辑地耦合到包括I/O组件914、呈现组件918和/或其他组件在内的其他设备,其中一些可以内置到(例如集成到)计算设备900中。说明性I/O组件914包括麦克风、鼠标、键盘、操纵杆、游戏垫、游戏控制器、碟形卫星天线、扫描仪、打印机、无线设备等等。I/O组件914可以提供处理用户生成的空中手势、语音或其他生理输入的自然用户接口(NUI)。在一些实例中,输入可以传输至适当的网络元件以便进一步处理。NUI可以实现语音识别、手写笔识别、面部识别、生物特征识别、屏幕上和邻近屏幕的手势识别、空中手势、头部和眼睛跟踪以及与计算设备900的显示器关联的触摸识别(如下文更详细地描述的)的任意组合。计算设备900可以包括诸如立体相机系统之类的深度相机、红外相机系统、RGB相机系统、触摸屏技术以及这些的组合,以用于手势检测和识别。此外,计算设备900可以包括使能运动检测的加速度计或陀螺仪(例如作为惯性测量单元(IMU)的部分)。在一些示例中,加速度计或陀螺仪的输出可以由计算设备900用来渲染沉浸式增强现实或者虚拟现实。
电源916可以包括硬接线电源、电池电源或者其组合。电源916可以向计算设备900供电以使得计算设备900的组件能够操作。
呈现组件918可以包括显示器(例如监视器、触摸屏、电视屏幕、平视显示器(HUD)、其他显示器类型或者其组合)、扬声器和/或其他呈现组件。呈现组件918可以接收来自其他组件(例如GPU 908、CPU 906等等)的数据,并且输出该数据(例如作为图像、视频、声音等等)。
本公开可以在由计算机或者诸如个人数字助理或其他手持式设备之类的其他机器执行的、包括诸如程序模块之类的计算机可执行指令的机器可使用指令或者计算机代码的一般背景下进行描述。通常,包括例程、程序、对象、组件、数据结构等等的程序模块指的是执行特定任务或者实现特定抽象数据类型的代码。本公开可以在各种各样的系统配置中实践,这些配置包括手持式设备、消费电子器件、通用计算机、更专业的计算设备等等。本公开也可以在其中任务由通过通信网络链接的远程处理设备执行的分布式计算环境中实践。
如在本文中使用的,“和/或”关于两个或更多元素的叙述应当解释为仅指一个元素或者元素组合。例如,“元素A、元素B和/或元素C”可以包括仅仅元素A,仅仅元素B,仅仅元素C,元素A和元素B,元素A和元素C,元素B和元素C,或者元素A、B和C。此外,“元素A或元素B中的至少一个”可以包括元素A中的至少一个,元素B中的至少一个,或者元素A中的至少一个和元素B中的至少一个。进一步,“元素A和元素B中的至少一个”可以包括元素A中的至少一个,元素B中的至少一个,或者元素A中的至少一个和元素B中的至少一个。
本文详细地描述了本公开的主题以满足法定要求。然而,描述本身并非意在限制本公开的范围。相反地,本发明人已经设想到,要求保护的主题也可以以其他的方式具体化,以包括与本文中结合其他当前或未来技术描述的步骤不同的步骤或者相似的步骤的组合。而且,尽管术语“步骤”和/或“块”在本文中可以用来隐含采用的方法的不同元素,但是这些术语不应当被解释为暗示本文公开的各个步骤之中或之间的任何特定顺序,除非明确描述了各步骤的顺序。
权利要求书(按照条约第19条的修改)
1.一种方法,包括:接收至少部分地定义与模拟计算环境内的自主机器相关的可观察元素的第一数据;至少部分地基于所述第一数据确定与所述模拟环境内的一个或更多个定义的路径相关的路径信息以及与所述模拟环境内的一个或更多个动态行动者相关的动态行动者信息;至少部分地基于所述路径信息和所述动态行动者信息,生成表示与所述模拟环境内所定义的可观察元素相关的多个场景的第二数据;至少部分基于所述第二数据生成所述多个场景,其中所述多个场景中的每个场景包括至少部分地基于所述路径信息和所述动态行动者信息而确定的一组变量;对于所述多个场景并且鉴于所定义的可观察元素,评估所述自主机器的至少一个特征的性能;以及至少部分地基于所评估的性能更新所述至少一个特征。
2.根据权利要求1所述的方法,其中所述第一数据使用一阶逻辑定义所述可观察元素。
3.根据权利要求1所述的方法,其中所述动态行动者信息包括至少一个动态行动者和与其对应的动作的描述。
4.根据权利要求1所述的方法,其中所述路径信息包括车道的数量、曲率、等待条件的位置或等待条件的类型中的至少一个。
5.根据权利要求1所述的方法,其中评估所述性能包括针对所述多个场景测试所述自主机器的至少一个特征;以及进一步其中至少部分地基于所述测试来更新所述自主机器的所述至少一个特征。
6.根据权利要求5所述的方法,其中所述至少一个特征与硬件组件、软件组件或传感器模型中的至少一个对应。
7.根据权利要求1所述的方法,还包括:确定对应于所述多个场景的覆盖率值低于阈值覆盖率值;以及至少部分地基于所述路径信息和所述动态行动者信息来生成至少一个额外场景以增加所述覆盖率值。
8.根据权利要求7所述的方法,还包括:至少部分地基于所述自主机器的预期行为、所述路径信息以及所述动态行动者信息来生成至少一个额外的评估机制以增加所述覆盖率值。
9.根据权利要求7所述的方法,其中所述至少一个额外场景至少部分地基于评估所述多个场景的输出而自动生成。
10.根据权利要求1所述的方法,还包括:在所述多个场景内测试所述自主机器的虚拟实例;在所述测试期间评估关于所述虚拟实例的条件;至少部分地基于所述评估来确定是否满足所述条件;以及当不满足所述条件时,更新所述自主机器的至少一个特征。
11.一种方法,包括:接收期望的可观察元素的声明性描述;使用与用于校验自主机器的模拟环境相关的域本体并且至少部分地基于所述声明性描述来确定用于生成与模拟系统内的所述可观察元素有关的多个场景的命令;使用所述模拟系统并且至少部分地基于所述命令来生成所述多个场景;在所述模拟系统内运行所述多个场景的模拟;鉴于所述期望的可观察元素,基于所述多个场景来确定功能和性能的准确度;以及至少部分地基于所述功能和性能的准确度,鉴于所述期望的可观察元素来确定所述多个场景的覆盖率值。
12.根据权利要求11所述的方法,其中当所述覆盖率值低于定义的阈值时,所述方法还包括:生成用于生成新的多个场景的新命令;以及鉴于所述新的多个场景来确定更新的覆盖率值。
13.根据权利要求11所述的方法,还包括:对于所述多个场景中不满足所述期望的可观察元素的场景的子集,分析所述场景的子集以确定所述场景的子集对测试所述自主机器的关键性;以及至少部分地基于所述分析,确定为新的多个场景生成新的命令。
14.根据权利要求11所述的方法,还包括:针对所述多个场景测试自主或半自主机器的至少一个特征;以及至少部分地基于所述测试来更新所述自主或半自主机器的所述至少一个特征。
15.根据权利要求14所述的方法,其中所述至少一个特征包括硬件组件、软件组件或传感器模型中的至少一个。
16.根据权利要求14所述的方法,其中测试所述至少特征是至少部分地基于所述覆盖率值超过阈值。
17.一种系统,包括:计算设备,其包括一个或更多个处理设备和一个或更多个存储器设备,所述一个或更多个存储器设备通信地耦接至所述一个或更多个处理设备,所述一个或更多个存储器设备在其上存储有编程指令,当由所述处理器执行所述编程指令时,引起以下的实例化:域本体管理器,用于:访问与用于测试虚拟机的模拟环境相关的域本体;以及至少部分基于场景的声明性语言描述来从所述域本体选择值;场景生成器,用于生成模拟环境内的多个场景,每个场景包括由所述声明性语言和计算引擎表示的可观察元素;模拟实施器,用于通过所述模拟环境内的所述多个场景来执行虚拟机的至少一个特征的模拟;以及分析器,用于在所述模拟期间评估所述至少一个特征的性能。
18.根据权利要求17所述的系统,还包括至少一个特征,其中所述至少一个特征包括以下项中的至少一个:所述虚拟机的虚拟硬件组件、对应于所述虚拟机的现实世界自主机器的现实世界硬件组件、或自主驾驶软件栈或半自主驾驶软件栈的软件组件。
19.根据权利要求18所述的系统,其中所述现实世界硬件组件包括图形处理单元GPU、片上系统SoC、现场可编程门阵列FPGA、中央处理单元CPU或电子控制单元ECU中的至少一个。
20.根据权利要求18所述的系统,其中所述虚拟硬件组件包括虚拟传感器。
21.根据权利要求18所述的系统,其中所述软件组件包括深度神经网络DNN、机器学习模型、抽象表示模型或传感器数据处理器中的至少一个。
22.根据权利要求17所述的系统,还包括:当所述性能低于期望水平时,生成所述性能低于所述期望水平的潜在原因的报告;以及在图形用户界面GUI中填充所述报告。
Claims (22)
1.一种方法,包括:接收至少部分地定义与模拟计算环境内的自主机器相关的可观察量的第一数据;至少部分地基于所述第一数据确定与所述模拟环境内的一个或更多个定义的路径相关的路径信息以及与所述模拟环境内的一个或更多个动态行动者相关的动态行动者信息;至少部分地基于所述路径信息和所述动态行动者信息,生成表示与所述模拟环境内所定义的可观察量相关的多个场景的第二数据;以及至少部分基于所述第二数据生成所述多个场景,其中所述多个场景中的每个场景包括至少部分地基于所述路径信息和所述动态行动者信息而确定的一组变量。
2.根据权利要求1所述的方法,其中所述第一数据使用一阶逻辑定义所述可观察量。
3.根据权利要求1所述的方法,其中所述动态行动者信息包括至少一个动态行动者和与其对应的动作的描述。
4.根据权利要求1所述的方法,其中所述路径信息包括车道的数量、曲率、等待条件的位置或等待条件的类型中的至少一个。
5.根据权利要求1所述的方法,还包括:针对所述多个场景测试自主或半自主机器的至少一个特征;以及至少部分地基于所述测试来更新所述自主或半自主机器的所述至少一个特征。
6.根据权利要求5所述的方法,其中所述至少一个特征包括硬件组件、软件组件或传感器模型中的至少一个。
7.根据权利要求1所述的方法,还包括:鉴于所定义的可观察量来评估所述多个场景;至少部分地基于所述评估,确定对应于所述多个场景的覆盖率值低于阈值覆盖率值;以及至少部分地基于所述路径信息和所述动态行动者信息来生成至少一个额外场景以增加所述覆盖率值。
8.根据权利要求7所述的方法,还包括:至少部分地基于所述自主机器的预期行为、所述路径信息以及所述动态行动者信息来生成至少一个额外的评估机制以增加所述覆盖率值。
9.根据权利要求7所述的方法,其中所述至少一个额外场景至少部分地基于评估所述多个场景的输出而自动生成。
10.根据权利要求1所述的方法,还包括:在所述多个场景内测试自主或半自主机器的虚拟实例;在所述测试期间评估关于所述虚拟实例的条件;至少部分地基于所述评估来确定是否满足所述条件;以及当不满足所述条件时,更新所述自主或半自主机器的至少一个特征。
11.一种方法,包括:接收期望的可观察量的声明性描述;使用与用于校验自主机器的模拟环境相关的域本体并且至少部分地基于所述声明性描述来确定用于生成与模拟系统内的所述可观察量有关的多个场景的命令;使用所述模拟系统并且至少部分地基于所述命令来生成所述多个场景;在所述模拟系统内运行所述多个场景的模拟;鉴于所述期望的可观察量,基于所述多个场景来确定功能和性能的准确度;以及至少部分地基于所述功能和性能的准确度,鉴于所述期望的可观察量来确定所述多个场景的覆盖率值。
12.根据权利要求11所述的方法,其中当所述覆盖率值低于定义的阈值时,所述方法还包括:生成用于生成新的多个场景的新命令;以及鉴于所述新的多个场景来确定更新的覆盖率值。
13.根据权利要求11所述的方法,还包括:对于所述多个场景中不满足所述期望的可观察量的场景的子集,分析所述场景的子集以确定所述场景的子集对测试所述自主机器的关键性;以及至少部分地基于所述分析,确定为新的多个场景生成新的命令。
14.根据权利要求11所述的方法,还包括:针对所述多个场景测试自主或半自主机器的至少一个特征;以及至少部分地基于所述测试来更新所述自主或半自主机器的所述至少一个特征。
15.根据权利要求14所述的方法,其中所述至少一个特征包括硬件组件、软件组件或传感器模型中的至少一个。
16.根据权利要求14所述的方法,其中测试所述至少特征是至少部分地基于所述覆盖率值超过阈值。
17.一种系统,包括:计算设备,其包括一个或更多个处理设备和一个或更多个存储器设备,所述一个或更多个存储器设备通信地耦接至所述一个或更多个处理设备,所述一个或更多个存储器设备在其上存储有编程指令,当由所述处理器执行所述编程指令时,引起以下的实例化:域本体管理器,用于:访问与用于测试虚拟机的模拟环境相关的域本体;以及至少部分基于场景的声明性语言描述来从所述域本体选择值;场景生成器,用于生成模拟环境内的多个场景,每个场景包括由所述声明性语言和计算引擎表示的可观察量;模拟实施器,用于通过所述模拟环境内的所述多个场景来执行虚拟机的至少一个特征的模拟;以及分析器,用于在所述模拟期间评估所述至少一个特征的性能。
18.根据权利要求17所述的系统,还包括至少一个特征,其中所述至少一个特征包括以下项中的至少一个:所述虚拟机的虚拟硬件组件、对应于所述虚拟机的现实世界自主机器的现实世界硬件组件、或自主驾驶软件栈或半自主驾驶软件栈的软件组件。
19.根据权利要求18所述的系统,其中所述现实世界硬件组件包括图形处理单元GPU、片上系统SoC、现场可编程门阵列FPGA、中央处理单元CPU或电子控制单元ECU中的至少一个。
20.根据权利要求18所述的系统,其中所述虚拟硬件组件包括虚拟传感器。
21.根据权利要求18所述的系统,其中所述软件组件包括深度神经网络DNN、机器学习模型、抽象表示模型或传感器数据处理器中的至少一个。
22.根据权利要求17所述的系统,还包括:当所述性能低于期望水平时,生成所述性能低于所述期望水平的潜在原因的报告;以及在图形用户界面GUI中填充所述报告。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/824,202 | 2020-03-19 | ||
US16/824,202 US20210294944A1 (en) | 2020-03-19 | 2020-03-19 | Virtual environment scenarios and observers for autonomous machine applications |
PCT/US2021/023343 WO2021189011A1 (en) | 2020-03-19 | 2021-03-19 | Virtual environment scenarios and observers for autonomous machine applications |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114930303A true CN114930303A (zh) | 2022-08-19 |
Family
ID=75498034
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202180008425.5A Pending CN114930303A (zh) | 2020-03-19 | 2021-03-19 | 用于自主机器应用的虚拟环境场景和观察器 |
Country Status (4)
Country | Link |
---|---|
US (2) | US20210294944A1 (zh) |
CN (1) | CN114930303A (zh) |
DE (1) | DE112021000213T5 (zh) |
WO (1) | WO2021189011A1 (zh) |
Families Citing this family (39)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10144419B2 (en) * | 2015-11-23 | 2018-12-04 | Magna Electronics Inc. | Vehicle dynamic control system for emergency handling |
US10427305B2 (en) * | 2016-07-21 | 2019-10-01 | Autodesk, Inc. | Robotic camera control via motion capture |
US10768629B2 (en) | 2018-07-24 | 2020-09-08 | Pony Ai Inc. | Generative adversarial network enriched driving simulation |
US11548494B2 (en) * | 2019-02-11 | 2023-01-10 | Ford Global Technologies, Llc | Lap learning for vehicle energy management optimization |
US11568246B2 (en) * | 2019-05-09 | 2023-01-31 | Sri International | Synthetic training examples from advice for training autonomous agents |
US11364883B2 (en) * | 2020-03-27 | 2022-06-21 | Nvidia Corporation | Leveraging rear-view sensors for automatic emergency braking in autonomous machine applications |
US11814083B2 (en) * | 2020-03-31 | 2023-11-14 | Uatc, Llc | Asynchronous processing for autonomous vehicle computing systems |
US11518406B2 (en) * | 2020-04-02 | 2022-12-06 | Toyota Research Institute, Inc. | Test failure detection using a governing agent data set |
AU2021265107A1 (en) * | 2020-04-30 | 2022-11-24 | Joseph Fields | Systems and methods for augmented-or virtual reality-based decision-making simulation |
US11535257B2 (en) * | 2020-05-22 | 2022-12-27 | Robert Bosch Gmbh | Lane localization system and method |
US20210406562A1 (en) * | 2020-06-24 | 2021-12-30 | Keysight Technologies, Inc. | Autonomous drive emulation methods and devices |
JP2022007246A (ja) * | 2020-06-26 | 2022-01-13 | ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツング | 鞍乗型車両の制御装置、ライダー支援システム、及び、鞍乗型車両の制御方法 |
DE102020210600A1 (de) * | 2020-08-20 | 2022-02-24 | Ford Global Technologies, Llc | System zum Durchführen einer XiL-basierten Simulation |
US11809790B2 (en) * | 2020-09-22 | 2023-11-07 | Beijing Voyager Technology Co., Ltd. | Architecture for distributed system simulation timing alignment |
US11639185B2 (en) * | 2020-10-16 | 2023-05-02 | Here Global B.V. | Method to predict, react to, and avoid loss of traction events |
US11648959B2 (en) * | 2020-10-20 | 2023-05-16 | Argo AI, LLC | In-vehicle operation of simulation scenarios during autonomous vehicle runs |
CN112150575B (zh) * | 2020-10-30 | 2023-09-01 | 深圳市优必选科技股份有限公司 | 场景数据获取方法及模型训练方法、装置及计算机设备 |
US11775706B2 (en) * | 2020-11-16 | 2023-10-03 | Toyota Research Institute, Inc. | Deterministic agents for simulation |
US12084071B1 (en) * | 2020-12-22 | 2024-09-10 | Zoox, Inc. | Simulation stability analyses based on parameter perturbation |
US12019449B2 (en) | 2021-02-18 | 2024-06-25 | Argo AI, LLC | Rare event simulation in autonomous vehicle motion planning |
EP4047483A1 (en) * | 2021-02-23 | 2022-08-24 | Aptiv Technologies Limited | Computer card for testing in-vehicle software |
US11940793B1 (en) * | 2021-02-26 | 2024-03-26 | Zoox, Inc. | Vehicle component validation using adverse event simulation |
US11932260B2 (en) * | 2021-03-30 | 2024-03-19 | Motional Ad Llc | Selecting testing scenarios for evaluating the performance of autonomous vehicles |
US11858514B2 (en) | 2021-03-30 | 2024-01-02 | Zoox, Inc. | Top-down scene discrimination |
US11810225B2 (en) * | 2021-03-30 | 2023-11-07 | Zoox, Inc. | Top-down scene generation |
US11995761B2 (en) * | 2021-10-07 | 2024-05-28 | Denso Corporation | Methods and system for generating virtual sensor data of a virtual single-photon avalanche diode (SPAD) lidar sensor of a virtual vehicle simulator |
WO2023069556A1 (en) * | 2021-10-19 | 2023-04-27 | Cyngn, Inc. | System and method of same-loop adaptive simulation for autonomous driving |
US20230138084A1 (en) * | 2021-11-04 | 2023-05-04 | Ford Global Technologies, Llc | Sensor optimization |
US20230202507A1 (en) * | 2021-12-22 | 2023-06-29 | Gm Cruise Holdings Llc | Control system for autonomous vehicle simulator |
US11904870B2 (en) * | 2021-12-27 | 2024-02-20 | Gm Cruise Holdings Llc | Configuration management system for autonomous vehicle software stack |
IT202200002903A1 (it) * | 2022-02-16 | 2023-08-16 | Granstudio S R L | Sistema per la progettazione, revisione e/o presentazione di soluzioni prototipali per veicoli, procedimento di funzionamento e prodotto informatico corrispondenti |
US12008681B2 (en) * | 2022-04-07 | 2024-06-11 | Gm Technology Operations Llc | Systems and methods for testing vehicle systems |
WO2023250046A1 (en) * | 2022-06-21 | 2023-12-28 | Applied Intuition, Inc. | Parallelized and asynchronous evaluation to optimize for maximal efficiency of information gain |
DE102022206238A1 (de) * | 2022-06-22 | 2023-12-28 | Psa Automobiles Sa | Auslegen eines automatischen Fahrsteuersystems in massiv parallelen Simulationen |
CN115034960A (zh) * | 2022-06-23 | 2022-09-09 | 北京百度网讯科技有限公司 | 动态图转静态图的方法、装置、电子设备和存储介质 |
DE102022207655A1 (de) | 2022-07-26 | 2024-02-01 | Siemens Mobility GmbH | Vorrichtung und Verfahren zur Prüfung einer KI-basierten Sicherheitsfunktion eines Steuerungssystems eines Fahrzeugs |
US11770518B1 (en) * | 2022-09-21 | 2023-09-26 | Ghost Autonomy Inc. | Detecting stereoscopic camera desynchronization |
KR20240082791A (ko) * | 2022-12-02 | 2024-06-11 | 한국전자기술연구원 | 시나리오 유사성 검색 기반의 시나리오 자동 생성 시스템 및 방법 |
DE102023102523A1 (de) | 2023-02-02 | 2023-04-06 | Daimler Truck AG | Verfahren zum effizienten szenariobasierten Testen eines automatisierten Fahrsystems |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US62644A (en) | 1867-03-05 | William h | ||
US385A (en) | 1837-09-20 | Plating-machine |
-
2020
- 2020-03-19 US US16/824,202 patent/US20210294944A1/en not_active Abandoned
-
2021
- 2021-03-19 CN CN202180008425.5A patent/CN114930303A/zh active Pending
- 2021-03-19 DE DE112021000213.9T patent/DE112021000213T5/de active Pending
- 2021-03-19 WO PCT/US2021/023343 patent/WO2021189011A1/en active Application Filing
-
2023
- 2023-11-09 US US18/505,672 patent/US20240078363A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
WO2021189011A1 (en) | 2021-09-23 |
WO2021189011A4 (en) | 2021-11-11 |
US20210294944A1 (en) | 2021-09-23 |
US20240078363A1 (en) | 2024-03-07 |
DE112021000213T5 (de) | 2022-09-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20240078363A1 (en) | Virtual environment scenarios and observers for autonomous machine applications | |
CN111919225B (zh) | 使用模拟环境对自主机器进行培训、测试和验证 | |
US11966673B2 (en) | Sensor simulation and learning sensor models with generative machine learning methods | |
US11897471B2 (en) | Intersection detection and classification in autonomous machine applications | |
CN113496290B (zh) | 使用采用模拟对象增强的图像训练机器学习模型 | |
CN113767389B (zh) | 从用于自主机器应用的经变换的真实世界传感器数据模拟逼真的测试数据 | |
CN113139642B (zh) | 在自主驾驶应用中使用神经网络执行故障检测 | |
JP2022530091A (ja) | 自律マシン・アプリケーションにおける交差点姿勢検出 | |
WO2021138010A1 (en) | Three-dimensional intersection structure prediction for autonomous driving applications | |
CN114631117A (zh) | 使用机器学习的用于自主机器应用的传感器融合 | |
CN113950702A (zh) | 在视频分析应用中使用相关滤波器的多对象跟踪 | |
CN110618678A (zh) | 自主机器应用中的行为引导路径规划 | |
JP2023548721A (ja) | 自律システム及びアプリケーションにおけるビヘイビア予測のためのモデルベースの強化学習 | |
CN113597613A (zh) | 用于图像分析的形状融合 | |
US20230213945A1 (en) | Obstacle to path assignment for autonomous systems and applications | |
CN116051779A (zh) | 用于自主系统和应用的使用深度神经网络利用点云致密化的3d表面重建 | |
CN116051780A (zh) | 用于自主系统和应用的使用人工智能利用点云致密化的3d表面重建 | |
CN116767245A (zh) | 使用自主系统和应用的神经网络的地图信息对象数据管理 | |
CN114973050A (zh) | 自动驾驶应用中深度神经网络感知的地面实况数据生成 | |
CN116795091A (zh) | 自主系统和应用程序的环境重建和路径规划 | |
CN118119981A (zh) | 用于自主系统和应用的使用机器学习的自由空间检测 | |
CN117581117A (zh) | 自主机器系统和应用中使用LiDAR数据的动态对象检测 | |
CN116767182A (zh) | 用于自主机器系统和应用的基于感知的停车辅助 | |
CN117396926A (zh) | 用于自主机器系统和应用的基于感知的标志检测和解释 | |
CN112970029A (zh) | 用于自主机器应用中传感器视盲检测的深度神经网络处理 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |