CN113442916A - 车辆不确定性共享 - Google Patents
车辆不确定性共享 Download PDFInfo
- Publication number
- CN113442916A CN113442916A CN202110305265.2A CN202110305265A CN113442916A CN 113442916 A CN113442916 A CN 113442916A CN 202110305265 A CN202110305265 A CN 202110305265A CN 113442916 A CN113442916 A CN 113442916A
- Authority
- CN
- China
- Prior art keywords
- vehicle
- data
- uncertainty
- map
- sensor data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 claims description 50
- 238000013528 artificial neural network Methods 0.000 claims description 39
- 230000007613 environmental effect Effects 0.000 claims description 21
- 238000012545 processing Methods 0.000 claims description 18
- 230000000704 physical effect Effects 0.000 claims description 10
- 230000015654 memory Effects 0.000 abstract description 15
- 238000004422 calculation algorithm Methods 0.000 description 50
- 230000008447 perception Effects 0.000 description 47
- 238000012549 training Methods 0.000 description 26
- 230000008569 process Effects 0.000 description 24
- 238000004891 communication Methods 0.000 description 20
- 238000013507 mapping Methods 0.000 description 10
- 230000005540 biological transmission Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 230000006399 behavior Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 238000002485 combustion reaction Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000003709 image segmentation Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000000205 computational method Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 239000000428 dust Substances 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000004313 glare Effects 0.000 description 1
- 238000003754 machining Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 238000000053 physical method Methods 0.000 description 1
- 238000001556 precipitation Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- ZLIBICFPKPWGIZ-UHFFFAOYSA-N pyrimethanil Chemical compound CC1=CC(C)=NC(NC=2C=CC=CC=2)=N1 ZLIBICFPKPWGIZ-UHFFFAOYSA-N 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/095—Predicting travel path or likelihood of collision
- B60W30/0956—Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3807—Creation or updating of map data characterised by the type of data
- G01C21/3815—Road data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/28—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
- G01C21/30—Map- or contour-matching
- G01C21/32—Structuring or formatting of map data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/3453—Special cost functions, i.e. other than distance or default speed limit of road segments
- G01C21/3461—Preferred or disfavoured areas, e.g. dangerous zones, toll or emission zones, intersections, manoeuvre types, segments such as motorways, toll roads, ferries
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B13/00—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
- G05B13/02—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
- G05B13/0265—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
- G05B13/027—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion using neural networks only
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/408—Radar; Laser, e.g. lidar
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/54—Audio sensitive means, e.g. ultrasound
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/402—Type
- B60W2554/4029—Pedestrians
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/404—Characteristics
- B60W2554/4042—Longitudinal speed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/404—Characteristics
- B60W2554/4043—Lateral speed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/404—Characteristics
- B60W2554/4044—Direction of movement, e.g. backwards
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2555/00—Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
- B60W2555/20—Ambient conditions, e.g. wind or rain
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Artificial Intelligence (AREA)
- Theoretical Computer Science (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mechanical Engineering (AREA)
- Transportation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Traffic Control Systems (AREA)
Abstract
本公开提供了“车辆不确定性共享”。一种计算机,所述计算机包括处理器和存储器,所述存储器包括指令,所述指令待由所述处理器执行以进行以下操作:基于车辆中的传感器数据,确定包括多个对象的对象数据的数据库,对于每个对象,所述对象数据包括对象标识、一个或多个对象属性的测量值以及针对基于所述传感器数据确定的所述对象标识和所述对象属性指定正确对象标识的概率的不确定性,其中所述对象属性包括对象大小、对象形状和对象位置。所述指令包括另外的指令,用于进行以下操作:基于所述数据库确定地图,所述地图包括针对车辆类型的相应位置和对应不确定性;以及基于所述车辆位置和所述车辆类型将所述地图下载到车辆。
Description
技术领域
本公开总体上涉及车辆传感器。
背景技术
车辆可以配备有计算装置、网络、传感器和控制器以获取关于车辆的环境的数据并基于所述数据来操作车辆。车辆传感器可以提供关于在车辆环境中要行驶的路线和要避开的对象的数据。车辆的操作可以依赖于在车辆正在道路上进行操作时获取关于车辆的环境中的对象的准确且及时的数据。
发明内容
车辆可以被配备为以自主模式或乘员驾驶模式操作。半自主或完全自主模式意指其中车辆可以由作为具有传感器和控制器的系统的一部分的计算装置部分地或完全地驾驶的操作模式。车辆可以被占用或未被占用,但是在任何一种情况下,都可以在没有乘员辅助的情况下部分地或完全地驾驶车辆。出于本公开的目的,自主模式被限定为其中车辆推进(例如,经由包括内燃发动机和/或电动马达的动力传动系统)、制动和转向中的每一者由一个或多个车辆计算机控制的模式;在半自主模式中,车辆计算机控制车辆推进、制动和转向中的一者或两者。在非自主模式中,这些都不由计算机控制。
在车辆中的计算装置可以被编程为获取关于车辆的外部环境的传感器数据并将传感器数据传达到服务器计算机。服务器计算机可以维护数据库,所述数据库包括关于使用传感器数据标识和定位的对象的数据以及关于标识和位置数据的准确性的数据。服务器计算机可以基于所标识对象的真实世界位置来映射准确性数据以形成热点,并在车辆运行时将热点地图数据下载到车辆。服务器计算机可以基于获取传感器数据的车辆类型和获取热点地图数据的环境条件对热点地图数据进行分类,以确保准确性数据与接收下载的热点地图数据的车辆相关。
本文公开了一种方法,所述方法包括:基于车辆中的传感器数据,确定包括多个对象的对象数据的数据库,对于每个对象,所述对象数据包括相应位置、对象标识、所述对象的物理属性的测量值以及针对所述车辆的类型、针对基于所述传感器数据确定的所述对象标识和所述对象属性指定正确对象标识的概率的不确定性,其中所述物理属性包括对象位置。可以基于包括针对所述车辆类型的所述相应位置和所述对应不确定性的所述数据库来确定地图,并且可以基于车辆位置和所述车辆类型将所述地图下载到车辆。所述车辆中的计算机可以包括车辆计算机处理器和车辆计算机存储器,所述车辆计算机存储器包括可由所述车辆计算机处理器执行以基于所述下载的地图来操作所述车辆的指令。所述对象可以包括车辆和行人中的一者或多者。所述车辆传感器数据可以包括车辆视频传感器数据、车辆激光雷达传感器数据、车辆雷达传感器数据和车辆超声传感器数据中的一者或多者。所述车辆类型可以包括车辆品牌和车辆型号中的一者或多者。
可以通过将具有相同位置并且由所述相同车辆类型的多个第二车辆所报告的一个或多个对象的不确定性相结合来确定所述不确定性。可以通过将所述不确定性与包括当日时间、季节和天气条件中的一者或多者的环境条件相结合来确定所述数据库。所述对象数据可以包括所述对象的速度,其中速度包括对象速度和对象方向。可以通过利用深度神经网络处理车辆传感器数据以确定所述对象物理属性、所述对象标识和所述不确定性来确定所述对象数据。可以将所述地图输入到所述深度神经网络以确定所述对象标识、所述对象物理属性和所述不确定性。可以基于所述地图来训练所述深度神经网络。所述地图可以包括一个或多个热点,其中每个热点包括真实世界位置和对应于所述真实世界位置的所述不确定性。所述一个或多个热点可以包括车辆品牌和型号。可以经由服务器数据处理程序和客户端数据处理程序将所述地图下载到所述车辆。
还公开了一种计算机可读介质,所述计算机可读介质存储用于执行上述方法步骤中的一些或全部的程序指令。还公开了一种被编程用于执行上述方法步骤中的一些或全部的计算机,所述计算机包括计算机设备,所述计算机设备被编程为进行以下操作:基于车辆中的传感器数据,确定包括多个对象的对象数据的数据库,对于每个对象,所述对象数据包括相应位置、对象标识、所述对象的物理属性的测量值以及针对所述车辆的类型、针对基于所述传感器数据确定的所述对象标识和所述对象属性指定正确对象标识的概率的不确定性,其中所述物理属性包括对象位置。可以基于包括针对所述车辆类型的所述相应位置和所述对应不确定性的所述数据库来确定地图,并且可以基于车辆位置和所述车辆类型将所述地图下载到车辆。所述车辆中的计算机可以包括车辆计算机处理器和车辆计算机存储器,所述车辆计算机存储器包括可由所述车辆计算机处理器执行以基于所述下载的地图来操作所述车辆的指令。所述对象可以包括车辆和行人中的一者或多者。所述车辆传感器数据可以包括车辆视频传感器数据、车辆激光雷达传感器数据、车辆雷达传感器数据和车辆超声传感器数据中的一者或多者。所述车辆类型可以包括车辆品牌和车辆型号中的一者或多者。
所述计算机还可以被配置为通过将具有相同位置并且由所述相同车辆类型的多个第二车辆所报告的一个或多个对象的不确定性相结合来确定所述不确定性。可以通过将所述不确定性与包括当日时间、季节和天气条件中的一者或多者的环境条件相结合来确定所述数据库。所述对象数据可以包括所述对象的速度,其中速度包括对象速度和对象方向。可以通过利用深度神经网络处理车辆传感器数据以确定所述对象物理属性、所述对象标识和所述不确定性来确定所述对象数据。可以将所述地图输入到所述深度神经网络以确定所述对象标识、所述对象物理属性和所述不确定性。可以基于所述地图来训练所述深度神经网络。所述地图可以包括一个或多个热点,其中每个热点包括真实世界位置和对应于所述真实世界位置的所述不确定性。所述一个或多个热点可以包括车辆品牌和型号。可以经由服务器数据处理程序和客户端数据处理程序将所述地图下载到所述车辆。
附图说明
图1是示例性交通基础设施系统的图示。
图2是具有传感器的示例性车辆的图示。
图3是包括车辆对象数据库的示例性系统的图示。
图4是用于确定车辆热点数据的示例性过程的流程图图示。
图5是用于基于车辆热点数据来训练车辆感知算法的示例性过程的流程图图示。
具体实施方式
图1是交通基础设施系统100的图示,所述交通基础设施系统包括可以自主(“自主”本身在本公开中意指“完全自主”)、半自主和乘员驾驶(也称为非自主)模式操作的车辆101。一个或多个车辆101计算装置105可以从传感器110接收关于车辆101的操作的数据。计算装置105可以以自主模式、半自主模式或非自主模式操作车辆101。
计算装置105包括诸如已知的处理器和存储器。此外,存储器包括一种或多种形式的计算机可读介质,并且存储可由处理器执行的用于执行包括如本文所公开的各种操作的指令。例如,计算装置105可以包括编程以操作车辆制动、推进(例如,通过控制内燃发动机、电动马达、混合动力发动机等中的一者或多者来控制车辆101的加速度)、转向、气候控制、内部灯和/或外部灯等中的一者或多者,以及确定计算装置105(而不是人类操作员)是否以及何时控制此类操作。
计算装置105可以包括多于一个计算装置(例如,包括在车辆101中以用于监测和/或控制各种车辆部件115的控制器等(例如,动力传动系统控制器、制动控制器、转向控制器等)),或例如经由如下面进一步描述的车辆通信总线通信地耦合到所述多于一个计算装置。计算装置105通常被布置用于通过车辆通信网络(例如,包括车辆101中的总线,诸如控制器局域网(CAN)等)通信;另外或替代地,车辆101网络可以包括诸如已知的有线或无线通信机制,例如以太网或其他通信协议。
计算装置105可以经由车辆网络向车辆中的各种装置(例如,控制器、致动器、传感器(包括传感器110)等)传输消息和/或从所述各种装置接收消息。替代地或另外地,在计算装置105实际上包括多个装置的情况下,可使用车辆通信网络来用于在本公开中表示为计算装置105的装置之间进行通信。此外,如下文所提及,各种控制器或感测元件(诸如传感器110)可经由车辆通信网络向计算装置105提供数据。
另外,计算装置105可被配置用于经由网络120通过车辆对基础设施(V对I)接口与服务器125(例如,云服务器或远程服务器)进行通信,如下所述,所述接口包括允许计算装置105经由诸如无线互联网或蜂窝网络的网络120与服务器125进行通信的硬件、固件和软件。因此,计算装置105可被配置为包括被配置为利用各种有线和/或无线联网技术(例如,蜂窝、和有线和/或无线分组网络)的处理器、存储器、收发器等。计算装置105可被配置用于使用例如在附近车辆101间在移动自组网的基础上形成或通过基于基础设施的网络形成的车辆对车辆(V对V)网络(例如,根据专用短程通信(DSRC)和/或类似的通信)经由V对I通信与其他车辆101进行通信。计算装置105还包括诸如已知的非易失性存储器。计算装置105可以通过将数据存储在非易失性存储器中来记录数据,以便以后检索并经由车辆通信网络传输到服务器125或用户移动装置。服务器125是可以包括在路边基础设施或边缘计算节点中的计算装置,其中边缘计算节点是包括在固定基础设施元件(诸如杆、桥、壁等)中或其上的服务器125或计算装置105,所述服务器或计算装置获取传感器数据并与车辆101在道路、停车场或停车结构等中的一者或多者的局部部分中经由V对I接口等进行通信。
如已经提及的,用于在没有人类操作员干预的情况下操作一个或多个车辆部件115(例如,制动、转向、推进等)的编程通常包括在存储器中所存储的并可由计算装置105的处理器执行的指令中。使用在计算装置105中接收的数据(例如,来自传感器110、服务器125等的传感器数据),计算装置105可在没有驾驶员的情况下作出各种确定和/或控制各种车辆部件115和/或操作以操作车辆101。例如,计算装置105可包括编程以调节车辆101操作行为(即,车辆101操作的物理表现),诸如速度、加速度、减速度、转向等,以及策略性行为(即,通常以预期实现路线的安全且有效的行驶的方式进行的操作行为控制),诸如车辆之间的距离和/或车辆之间的时间量、车道改变、车辆之间的最小间隙、左转跨过路径最小值、在特定位置处的到达时间和为了通过十字路口的十字路口(无信号灯)最小到达时间。
如本文使用的术语控制器包括通常被编程来监测和/或控制特定车辆子系统的计算装置。示例包括动力传动系统控制器、制动控制器和转向控制器。控制器可以是诸如已知的电子控制单元(ECU),可能包括如本文所描述的附加的编程。控制器可通信地连接到计算装置105并从计算装置接收指令以根据指令致动子系统。例如,制动控制器可从计算装置105接收指令以操作车辆101的制动器。
用于车辆101的一个或多个控制器可包括已知的电子控制单元(ECU)等,作为非限制性示例,包括一个或多个动力传动系统控制器、一个或多个制动控制器和一个或多个转向控制器。控制器中的每一个可包括相应的处理器和存储器以及一个或多个致动器。控制器可被编程并且连接到诸如控制器局域网(CAN)总线或局域互连网(LIN)总线的车辆101通信总线,以从计算装置105接收指令并基于指令来控制致动器。
传感器110可包括已知的多种装置,以经由车辆通信总线提供数据。例如,固定到车辆101的前保险杠(未示出)的雷达可提供从车辆101到车辆101前方的下一车辆的距离,或者设置在车辆101中的全球定位系统(GPS)传感器可提供车辆101的地理坐标。惯性测量单元(IMU)传感器可以使用加速度计来确定车辆101的三维位置和取向。例如,由雷达和/或其他传感器110提供的距离和/或由GPS和/或IMU传感器提供的地理坐标可由计算装置105用来自主或半自主地操作车辆101。
车辆101通常是能够自主和/或半自主操作并且具有三个或更多个车轮的陆基车辆101(例如,客车、轻型卡车等)。车辆101包括一个或多个传感器110、V对I接口、V对V接口、计算装置105和车辆部件115(包括一个或多个控制器)。传感器110可收集与车辆101以及车辆101正在运行的环境有关的数据。以举例的方式而非限制,传感器110可包括例如测高仪、相机、激光雷达、雷达、超声传感器、红外传感器、压力传感器、加速度计、陀螺仪、温度传感器、压力传感器、霍尔传感器、光学传感器、电压传感器、电流传感器、机械传感器(诸如开关)等。传感器110可用来感测车辆101的操作环境,例如,传感器110可以检测诸如天气条件(降雨、外部环境温度等)的现象、道路坡度、道路位置(例如,使用道路边缘、车道标记等)或目标对象(诸如邻近车辆101)的位置。传感器110还可用于收集数据,包括与车辆101的操作相关的动态车辆101数据,诸如速度、横摆率、转向角度、发动机转速、制动压力、油压、施加到车辆101中的车辆部件115的功率水平、在车辆部件115之间的连接性以及车辆部件115的准确且及时的性能。
图2是包括对应于多个传感器模态的多个车辆传感器110的车辆101的图示。传感器模态是指其中传感器检测物理现象的介质,例如,声介质、电磁频谱的一部分等。传感器模态可以包括例如激光雷达、视频、雷达和超声。传感器110包括激光雷达传感器206和视频传感器204a、204b、204c、204e(统称为视频传感器204),所有传感器都包括在附接到车辆101的车顶部分的传感器舱202中。车辆101还包括车辆101的车身部分中包括的雷达传感器208a、208b、208c(统称为雷达传感器208)。计算装置105可以从激光雷达传感器206、视频传感器204和雷达传感器208获取数据,并使用所获取的数据来在道路上操作车辆101。在道路上操作车辆可以包括检测包括车辆和行人在内的对象的位置并避免与对象接触。
图3是不确定性共享系统300的图示。不确定性是介于0.0和1.0之间的数字,其与感知算法322错误地标识对象的概率相对应。介于0.0和1.0之间的不确定性也可以表示为介于0和100之间的百分比。不确定性共享系统300将不确定性数据存储在不确定性数据库316中。不确定性数据被定义为包括不确定性和用于确定和定位不确定性的相关数据的数据结构。不确定性数据是不确定性、传感器数据302、位置和映射数据304、环境和车辆数据306、对象数据308和不确定性地图310。传感器数据302由车辆传感器生成,如上面关于图2所述,所述车辆传感器包括视频传感器204、激光雷达传感器206和雷达传感器208。位置和映射数据304是由车辆101中包括的GPS传感器和IMU传感器生成的车辆101的真实世界位置和取向数据。位置和映射数据304还包括地图数据。地图数据是示出了车辆101周围的地理的图示。可以从诸如GOOGLETM地图的源获取地图数据并将其存储在计算机105存储器中,或者可以经由网络120从服务器125下载地图数据。可以使用位置和映射数据304来相对于车辆101周围环境的地图确定车辆101在真实世界坐标中的位置和取向。
环境和车辆数据306可以包括温度、湿度、降水量、当日时间等。一些环境数据(诸如温度和湿度)可以直接从车辆传感器110获取或经由网络120从服务器125下载。其他环境数据可以从互联网下载,例如包括车辆101所在位置的大气条件的天气预报。环境和车辆数据306包括车辆品牌和型号数据,包括制造年份。可以从存储在计算机105中包括的存储器中的数据中调出车辆品牌和型号数据,并且所述车辆品牌和型号数据可以包括车辆传感器110的类型和位置。
可以通过感知算法322来生成对象数据308和不确定性地图310。对象数据306是包括关于由感知算法322确定的对象的数据的数据结构,所述数据包括对象标识、对象大小、对象形状、对象位置、对象速度和对象方向。对象标识是标识对象类型的标签。例如,对象标识可以是行人、车辆、动物或未知对象。感知算法322是在车辆101中包括的计算机105上执行的软件程序。感知算法322可以包括深度神经网络,所述深度神经网络输入由车辆传感器输出的车辆传感器数据302,所述车辆传感器包括视频传感器204、激光雷达传感器206和雷达传感器208。感知算法322处理输入的传感器数据302,以确定关于车辆101周围环境中的对象的数据。深度神经网络是包括多个卷积层和多个全连接层的软件程序。可以使用多个测试图像以及对应的基准真相数据来训练深度神经网络。基准真相数据被定义为与将由深度神经网络响应于输入的图像数据而输出的正确结果相对应的数据,即被认为准确表示物理世界的数据。例如,可以通过基于手动测量输入的图像数据以检测、标识和定位图像中的对象的用户输入来确定基准真相数据。
感知算法322可以检测和标识车辆传感器的视野中的对象,例如车辆和行人。对象被定义为由传感器数据形成的图像的一部分,所述部分可以基于处理形成图像的像素数据而与图像的其余部分区分开。对象检测被定义为将图像的与一个或多个对象相对应的部分(称为前景)与图像的其余部分(称为背景)分开。感知算法322可以通过图像分割来执行对象检测,所述图像分割基于像素值(诸如强度和颜色)将图像的前景部分与图像的背景部分分开,以确定具有类似强度或颜色的图像部分。可以通过处理像素值以形成边缘并确定由所确定的边缘界定的前景部分来执行图像分割。在其中感知算法322包括深度神经网络的示例中,通过使用训练图像的数据集训练深度神经网络来执行对象标识,所述训练图像包括对象和标识对象的基准真相的示例。可以由用户通过检查训练图像的数据集并手动标识对象来确定基准真相。将训练图像输入到深度神经网络,并将深度神经网络的输出进行反向传播以与基准真相进行比较。训练图像的处理将继续进行,直到输出与基准真相相符的结果并进行反向传播。
感知算法322可以确定对象属性,其中对象属性是指定对象的物理测量值的数据,通常包括对象大小、对象形状、对象位置、对象速度和对象方向。对象大小是对对象的真实世界大小的估计,通过测量由车辆传感器获取的图像中对象的轮廓来估计。例如,可以通过对从图像背景分割出的对象中的连续图像像素进行计数来估计对象大小。对象形状是图像中的对象轮廓的量度,可以与对象大小一起用于标识对象。例如,行人和车辆将具有不同的对象大小和对象形状。例如,可以通过在所检测的对象周围形成的边界矩形的高度与宽度的比来确定对象的形状。还可以通过将所检测的对象与对应于预期对象的模板相关联来测量对象形状。例如,可以通过处理样本图像中的预期对象(包括车辆和行人)来确定模板。用户可以处理样本图像以确定预期对象的轮廓,并基于所确定的轮廓形成二进制模板。通过使用由用户检查训练数据集而确定的对象大小和形状的基准真相来训练深度神经网络,以输出对象的物理大小和形状。
对象位置是通过确定与由车辆传感器获取的图像中的对象相对应的像素的位置而估计的对象的真实世界位置的估计。可以通过感知算法322中包括的深度神经网络来估计对象位置。可以通过测量由车辆传感器获取的传感器数据中的对象的真实世界位置来确定关于相对于车辆101确定的真实世界坐标中的位置的基准真相。由于车辆传感器不会改变相对于车辆101的位置和取向,因此可以通过对象在与从车辆传感器输出的传感器数据相对应的像素数据阵列中的位置来确定对象在传感器视野中的真实世界位置。该技术取决于对象位于与车辆101在其上行驶的道路相对应的地平面上。可以基于训练数据集来训练深度神经网络以估计位于道路上的对象的对象位置,所述训练数据集具有示例性对象和关于对象的真实世界位置的对应基准真相。
感知算法322可以确定相对于车辆101所测量的所检测的对象的行驶方向和行驶速度。例如,可以在一个或多个时间步长上获取关于对象位置的数据,以确定对象的速度和方向。感知算法322输出对象数据306。感知算法322还可以确定关于对象标识、对象大小、对象形状、对象位置、对象速度和对象方向的不确定性,并将不确定性包括在输出的对象数据308中。在这种背景下,不确定性被定义为感知算法322已正确确定了对象大小、对象形状、对象位置、对象速度和对象方向中的每一者的概率。在其中针对对象属性(包括对象标识、对象大小、对象形状、对象位置、对象速度和对象方向)中的每一者确定不确定性的示例中,可以通过对各个不确定性求平均或对不确定性取最大值来确定不确定性。取决于环境条件,使用传感器数据302确定对象属性可能更加确定或更加不确定。例如,与在白天相比,在夜间在视频数据中标识和定位行人可能更加不确定。使对象属性的确定更加不确定的其他环境条件包括恶劣的天气,例如雨和雪,以及大气条件,包括雾和灰尘。
车辆101中包括的计算机105可以使用对象数据308来确定车辆101在其上行驶的车辆路径。例如,计算机105可以确定避开与诸如车辆或行人的对象接触的车辆路径。计算机105可以在确定车辆路径时使用与对象标识、速度和方向相对应的不确定性。在其中感知算法322已经以高不确定性(>80%)识别出车辆101周围的环境中的对象的示例中,由于对象的标识具有较高的概率为不正确,因此计算机105可以确定在更大距离处避开所标识对象的车辆路径。例如,对象可能以与通过感知算法输出为对象数据308的速度和方向相比更大的速度或不同的方向移动。
感知算法322可以通过处理输入的传感器数据302来确定不确定性。可以训练感知算法322中包括的深度神经网络来输出不确定性以及对象标识和位置数据。可以使用训练数据集来训练深度神经网络以输出不确定性,所述训练数据集除了对象位置和标识数据外还包括估计的基准真相的不确定性。可以通过让人类观察员基于在输入的训练图像数据中观察到的特性,对训练数据集中的不确定性进行评分,来确定估计的基准真相的不确定性。人类观察员可以基于一个或多个人类观察员识别对象的能力来估计深度神经网络在识别对象方面的不确定性。在输入的训练图像数据中观察到的特性可以包括是否存在诸如雨、雪和雾的大气条件。观察到的特性还可以包括照明条件,诸如夜晚或明亮阳光下的眩光。基于训练数据集中的基准真相,可以训练深度神经网络以输出与感知算法300错误标识对象的概率相对应的不确定性。
还可以通过使用图像处理软件处理图像数据中包括的对比率和空间频率来估计用于训练深度神经网络的不确定性。对比率是指图像各部分之间的灰度值或色彩饱和度的比较。可以将图像划分为具有相似灰度值或色彩饱和度值的连续区域。例如,可以通过对所有与平均灰度或色彩饱和度值相差小于10%的像素分组来形成连续区域。对比率比较区域之间的平均灰度或色彩饱和度值。例如,平均对比率小于约2的低对比度图像与具有其中对象的标识将具有高不确定性的环境条件(诸如雨、雪、雾或昏暗照明)的图像相对应。
可以应用于输入的传感器数据以确定不确定性的另一种计算方法是空间频率分析。空间频率是指图像的特征,所述特征与在图像的二维傅立叶变换中将出现的值相对应。例如,图像中的大而平滑的特征对应于低空间频率,而小而详细的特征对应于高空间频率。感知算法可以通过对输入的图像数据应用低通滤波器和高通滤波器来确定低空间频率与高空间频率的比,从而分析输入的图像数据中存在的空间频率。低空间频率与高空间频率的比更大的输入图像具有更大的正确识别不确定性。低空间频率与高空间频率的高的比对应于低能见度条件,诸如雨、雪、雾或昏暗照明。
感知算法322可以输入关于车辆101的位置和取向的位置和映射数据304,以允许感知算法322确定对象在真实世界坐标中所处的位置。位置和映射数据304可以与对象位置数据和不确定性数据相结合以创建不确定性地图310。不确定性地图310包括在真实世界坐标中在车辆101周围的环境中的位置,所述坐标被标记有对象数据308,所述对象数据包括关于对象属性的不确定性。
可以通过在车辆传感器110被安装在车辆101中时测量车辆传感器110相对于车辆101的相应的位置和取向来确定车辆传感器110的真实世界位置和取向;通常,然后可以根据传感器110到其安装位置和取向的校准来提供传感器110的测量值。例如,可以通过获取包括放置在车辆传感器110的视野中的测量位置处的基准目标的数据来确定车辆传感器110的位置和取向以进行这种校准。
客户端数据处理程序312接收不确定性数据作为输入。不确定性数据是一种数据结构,其包括传感器数据302、位置和映射数据304、环境和车辆数据306、对象数据308以及不确定性地图310,所述不确定性地图包括由感知算法322确定的不确定性,如上面关于图3所讨论的。客户端数据处理程序312是在车辆101中包括的计算机105上执行的软件程序。客户端数据处理程序将不确定性数据格式化为一个或多个不确定性数据包以进行传输,同时过滤掉有关对象标识的数据。
不确定性数据包是一种数据包,即,除了不确定性数据之外还包括多个字段的数字数据。不确定性数据包可以包括将数据包识别为不确定性数据包的标识符字段。不确定性数据包可以具有固定的长度,或者可以包括与所述长度相对应的字段。不确定性数据包包括不确定性数据的全部或一部分。不确定性数据可以包含在单个包中,也可以分成多个包。不确定性数据包可以包括与将不确定性数据划分为包的顺序相对应的序列号,所述序列号可以用于从不确定性数据包中提取不确定性数据。不确定性数据包还可以包括用于检测传输错误的校验和。客户端数据处理程序312管理不确定性数据包经由网络120向服务器数据处理程序314的传输。
服务器数据处理程序314是例如在基于云的服务器125上执行的软件程序。服务器数据处理程序314从多个车辆101接收不确定性数据包。服务器数据处理程序314可以使用不确定性数据包中包括的序列号和校验和,以确保已经以正确的顺序并且没有错误地接收到不确定性数据包。如果服务器数据处理程序314确定不确定性数据包丢失或包括传输错误,则服务器数据处理程序314可以请求从客户端数据处理程序312重新传输一个或多个不确定性数据包。服务器数据处理程序314将不确定性数据包解包,如果需要则重新整合不确定性数据,并将经过解包的不确定性数据存储在不确定性数据库316中。根据车辆的地理位置以及品牌和型号对不确定性数据进行索引并将其存储在不确定性数据库316中。
服务器数据处理程序314可以在多个地理位置处从多个车辆101接收不确定性数据包,并且将不确定性数据解包并存储在不确定性数据库316中。可以由不确定性数据库316从车辆101和在与服务器125通信的计算机上执行的其他程序接收查询318,所述其他程序从不确定性数据库316请求不确定性数据。查询318可以通过指定关于不确定性数据的属性来请求不确定性数据。不确定性数据的属性是用于索引数据库以访问不确定性数据的数据。属性可以包括指定地理位置、车辆品牌和型号以及环境条件的数据。响应于查询318,不确定性数据库316基于查询中包含的属性来聚合不确定性数据以形成不确定性热点,并且输出320不确定性热点。不确定性热点是真实世界位置,其包括关于所述真实世界位置处的对象标识的不确定性。将真实世界位置与不确定性数据相关联可以称为“对不确定性数据进行地理标记”。不确定性热点可以作为地图输出,所述地图包括关于在地图中包括的每个不确定性热点处的对象标识不正确的概率的对象不确定性。响应于来自服务器数据处理程序314或来自在服务器125或与服务器125通信的另一计算装置上运行的另一软件程序的查询318,可以从不确定性数据库316输出320不确定性热点。
不确定性热点数据可以在输出320之前由不确定性数据库316进行过滤,以确保不确定性热点数据仅包括与不确定性数据库316所接收的查询318有关的不确定性热点。例如,查询318可以请求不确定性热点数据,所述不确定性热点数据仅包括车辆的特定品牌和型号,或者仅包括在诸如恶劣天气或夜间的某些环境条件下收集的不确定性数据。
图4是关于图1至图3所描述的用于确定不确定性热点的过程400的流程图图示。过程400可以由计算装置的处理器实施,例如,将来自传感器的信息作为输入,以及执行命令,以及输出对象信息。过程400包括可以所示顺序执行的多个框。过程400可以替代地或另外地包括更少的框,或者可以包括以不同顺序执行的框。
过程400开始于框402,在框402处,在服务器125上执行的不确定性数据库316接收查询318作为输入。可以经由网络120从客户端数据处理程序312经由服务器数据处理程序314或从在服务器125或与服务器125通信的计算装置上运行的软件程序接收查询318。查询可以是对关于车辆101周围环境的不确定性热点的数据的请求。所述查询可以包括车辆101的真实世界位置以及车辆101行驶的方向和速度。所述查询还可以包括关于车辆101的品牌和型号的数据,所述数据包括车辆101中包括的车辆传感器110的类型和设置或布置。所述查询还可以包括关于车辆101周围的环境条件的数据,所述数据包括可能影响车辆传感器110的性能的当日时间、季节和天气条件。
在框404处,不确定性数据库316基于查询318中包括的属性来检索与查询318相对应的不确定性热点数据。不确定性数据库316可以测试每个所检索的不确定性热点,以将与每个热点相对应的不确定性水平与阈值进行比较。可以由用户基于经验数据来选择阈值,所述经验数据将不确定性水平与车辆101中的感知算法322的性能进行比较。可以选择不确定性作为不确定性阈值,低于所述不确定性阈值时,在查询318中包括的属性中所指定的环境条件下,通过感知算法322正确识别位于热点处的高百分比(例如,95%)的对象。
在框406处,拒绝从数据储存库302中包括的数据库中输出的不确定性小于阈值的热点。这意味着拒绝有高概率正确标识对象的热点。拒绝热点意味着不将所述热点传递到框408上以进行进一步处理。
在框408处,传递从数据储存库302中包括的数据库中输出的不确定性大于阈值的热点以进行进一步处理。在框408处,经由网络120和服务器数据处理程序308从客户端数据处理程序310接收关于车辆101的品牌和型号的车辆数据。车辆101的品牌和型号数据包括关于车辆中包括的传感器110的类型和设置的数据。在框408处,利用不确定性数据库316中包括的车辆101的品牌和型号数据来标记不确定性热点。
在框410处,输出320经过标记的不确定性热点。可以将经过标记的不确定性热点包括在地图中。可以经由服务器数据处理程序314和客户端数据处理程序312将不确定性热点数据和不确定性热点地图输出到在服务器125、与服务器125通信的计算装置上运行的软件程序或输出到车辆101中包括的感知算法322。这通过图3中的虚线来表示。感知算法322可以使用不确定性热点来与感知算法322生成的不确定性地图310相结合。例如,车辆101中包括的计算机105可以使用相结合的不确定性热点数据和不确定性地图310来确定车辆101在其上行驶的车辆路径。在框410之后,过程400结束。
可以使用不确定性热点数据来改善车辆101的操作。可以由车辆101中的客户端数据处理程序312下载包括标记有与每个热点相对应的不确定性的不确定性热点的地图,以帮助车辆101确定车辆101周围的环境中的对象。虽然可以使用包括1000幅图像的大数据集来训练用作感知算法322的深度神经网络,但通常不可能使用在操作车辆101时预期会遇到的每个位置的图像来训练深度神经网络。通过包括关于未在其上训练深度神经网络的热点或位置的不确定性数据,可以将由多个车辆101确定的关于特定热点的结合不确定性下载到感知算法322,以与由车辆内感知算法322计算的不确定性地图310进行比较。与通过第一次处理来自特定位置的传感器数据而确定的不确定性相比,基于来自多个车辆101的数据的结合不确定性可能更准确。
不确定性共享系统302可以改善由与服务器125通信的计算装置控制的车队车辆101的操作。不确定性共享系统300可以用于识别不确定性热点,在所述不确定性热点处,由于位置的原因,在车辆101中包括的计算机105上执行的感知算法300对于特定品牌和型号的车辆101倾向于更加不确定。在基于云的计算装置上执行的路由算法可以接收输出320的包括有高不确定性正确标识对象的位置的不确定性热点,并且可以使用不确定性热点地图以基于不确定性热点地图来规划路线。例如,不确定性共享系统300可以通过允许管理车辆101车队的基于云的计算机系统使用热点数据来规划避开高不确定性热点的车辆101的路线,从而改善车辆101的操作。
不确定性共享系统300可以通过允许在基于云的计算机上执行的软件程序跨具有不同车辆传感器110设置的车辆的不同品牌和型号比较不确定性热点来改善车辆101的操作。在不同车辆传感器110设置之间的不确定性热点的比较可以用来确定哪些车辆传感器110在识别各种环境条件下的对象方面表现最佳。比较数据可以用于设计未来的车辆101或选择在某些环境条件期间在某些区域中使用的车辆101。例如,一些车辆传感器110设置可以在冬季天气条件下比其他车辆传感器110设置更好地执行。可以通过基于环境条件比较不确定性热点来确定车辆传感器110设置的相对性能。通过允许车辆设计人员针对给定的热点不确定性水平确定最便宜的车辆传感器110配置,以这种方式评估车辆传感器110的性能可以改善车辆设计。
不确定性共享系统300可以通过使用不确定性热点来训练包括深度神经网络的感知算法,从而改善车辆101的操作。可以使用上传到不确定性数据库316的传感器数据302来训练包括深度神经网络的感知算法,以检测和标识传感器数据302中的对象。基于不确定性热点添加附加训练数据可以通过从确定为在标识对象方面表现出高不确定性的位置提供更多训练示例来改善感知算法检测和标识传感器数据302数据中的对象的能力。通过提供更多与高不确定性位置相对应的训练数据,可以改善对深度神经网络进行标识对象的训练。
不确定性共享系统300可以通过使用不确定性热点对车辆传感器110进行质量检查来改善车辆101的操作。通过将下载的不确定性热点与从车辆101感知算法输出的不确定性地图310进行比较,车辆101中的计算机105可以确定输入到感知算法322的传感器数据302是否有故障或可能需要重新校准。如果操作正确,则车辆传感器110应该能够产生与在相似环境条件下包括在相似车辆101中的相似传感器的不确定热点结果相匹配的不确定性热点结果。如果车辆传感器110产生的不确定性结果比预期的要差,则车辆101中包括的计算机105可以警告车辆的乘员或基于云的计算机中的控制程序已检测到车辆传感器110存在问题。收到警告后,可以对车辆101进行适当的测试和维修,以确保车辆传感器110正常运行。
图5是关于图1至图4所描述的用于基于不确定性热点来训练感知算法的过程500的流程图图示。过程500可以由计算装置的处理器实施,例如,将来自传感器的信息作为输入,以及执行命令,以及输出对象信息。过程500包括可以以所示顺序执行的多个框。过程500可以替代地或另外地包括更少的框,或者可以包括以不同顺序执行的框。
过程500开始于框502,在框502处,在服务器125计算机上执行的不确定性共享系统300经由如以上关于图3所讨论的客户端数据处理程序312和服务器数据处理程序314从车辆101接收关于不确定性数据的输入数据,所述不确定性数据包括传感器数据302、位置和映射数据304、环境和车辆数据306、对象数据308和不确定性地图310。输入数据包括在不确定性数据库316中。在不确定性数据库316中,可以将输入数据组织为不确定性热点数据。
在框504处,将不确定性热点数据与阈值进行比较,以确定不确定性是否大于阈值。可以如以上关于图4所讨论的那样确定阈值。低不确定性热点(意味着热点有高的概率(例如,>90%)包括对象的正确标识)被传递到框506,在框506处,将拒绝热点进行进一步处理。高不确定性热点(意味着热点没有高的概率(例如,<90%)包括正确标识的对象)被传递到框508以进行进一步处理。
在框506处,拒绝从数据储存库302中包括的数据库中输出的不确定性阈值小于阈值的热点。拒绝热点意味着不将所述热点传递到框508上以进行进一步处理。
在框508处,将车辆位置和映射数据304以及传感器数据304与热点数据相结合。
在框510处,将包括不确定性数据的热点数据与车辆位置和映射数据304以及传感器数据302相结合,以确定用于感知算法322中包括的深度神经网络的训练数据集。确定训练数据集包括确定对象位置和标识以及不确定性的基准真相。可以通过经由用户检查在传感器数据302中标识和定位对象来确定用于训练深度神经网络以输出对象数据308的基准真相。可以使用从不确定性数据库316获得的不确定性和热点位置来训练深度神经网络以输出不确定性地图310。
在步骤512处,使用包括基于热点数据的基准真相的训练数据集来训练感知算法322以标识传感器数据302中的对象并输出不确定性地图310。感知算法322可以是如以上关于图3所讨论的深度神经网络。
在步骤514处,可以将经过训练的感知算法322输出到车辆101。输出经过训练的感知算法322可以包括将经过训练的感知算法322从交通信息系统100中包括的服务器125经由网络120下载到车辆101。基于数据储存库302数据库中包括的热点数据来训练感知算法322可以通过包括针对车辆101的特定品牌和型号的训练数据来改善感知算法322的性能,所述训练数据包括车辆101中包括的传感器110的类型。在框504处,处理热点数据以包括与高不确定性相关的热点。这允许训练感知算法322以识别难以进行对象标识(例如,高度不确定)的位置,并将该不确定性输出到车辆101中包括的计算机105。识别对象标识高度不确定的位置可以允许计算机105确定避开高度不确定位置的车辆路径。在步骤514后,过程500结束。
诸如本文讨论的那些计算装置的计算装置通常各自包括命令,所述命令可由诸如上文所识别的那些计算装置的一个或多个计算装置执行并用于执行上文所描述的过程的框或步骤。例如,上文所讨论的过程框可以体现为计算机可执行命令。
计算机可执行命令可以根据使用各种编程语言和/或技术创建的计算机程序来编译或解译,所述编程语言和/或技术单独地或组合地包括但不限于:JavaTM、C、C++、Python、Julia、SCALA、Visual Basic、Java Script、Perl、HTML等。一般来说,处理器(例如,微处理器)接收例如来自存储器、计算机可读介质等的命令,并且执行这些命令,从而执行一个或多个过程,包括本文所描述的过程中的一者或多者。此类命令和其他数据可以存储在文件中并使用各种计算机可读介质来传输。计算装置中的文件通常是存储在诸如存储介质、随机存取存储器等计算机可读介质上的数据的集合。
计算机可读介质包括参与提供可由计算机读取的数据(例如,命令)的任何介质。这种介质可以采用许多形式,包括但不限于非易失性介质、易失性介质等。非易失性介质包括例如光盘或磁盘以及其他持久性存储器。易失性介质包括通常构成主存储器的动态随机存取存储器(DRAM)。计算机可读介质的常见形式包括例如软盘、柔性磁盘、硬盘、磁带、任何其他磁性介质、CD-ROM、DVD、任何其他光学介质、穿孔卡片、纸带、具有孔图案的任何其他物理介质、RAM、PROM、EPROM、FLASH-EEPROM、任何其他存储器芯片或盒、或者计算机可从其读取的任何其他介质。
除非本文作出相反的明确指示,否则权利要求中使用的所有术语意图给出如本领域技术人员所理解的普通和通常的含义。具体地,除非权利要求叙述相反的明确限制,否则使用诸如“一个”、该”、“所述”等单数冠词应被解读为叙述所指示的要素中的一者或多者。
术语“示例性”在本文中以表示示例的意义使用,例如,对“示例性小部件”的引用应被解读为仅指代小部件的示例。
修饰值或结果的副词“大约”意味着形状、结构、测量值、值、确定、计算等可能因材料、机加工、制造、传感器测量、计算、处理时间、通信时间等的缺陷而与确切描述的几何形状、距离、测量值、值、确定、计算等有偏差。
在附图中,相同的附图标记指示相同的元件。此外,可以改变这些元件中的一些或全部。关于本文所描述的介质、过程、系统、方法等,应理解,虽然此类过程等的步骤或框已被描述为按照特定顺序的序列发生,但是此类过程可以通过以本文所描述的顺序以外的顺序执行的所描述步骤来实践。还应理解,可以同时执行某些步骤,可以添加其他步骤,或者可以省略本文所描述的某些步骤。换句话说,本文对过程的描述是出于说明某些实施例的目的而提供的,并且决不应解释为限制所要求保护的发明。
根据本发明,提供了一种包括管理计算机的系统,所述管理计算机具有:处理器;以及存储器,所述存储器包括指令,所述指令可由所述处理器执行以进行以下操作:基于车辆中的传感器数据,确定包括多个对象的对象数据的数据库,对于每个对象,所述对象数据包括对象标识、一个或多个对象属性的测量值以及针对基于所述传感器数据确定的所述对象标识和所述对象属性指定正确对象标识的概率的不确定性,其中所述对象属性包括对象大小、对象形状和对象位置;基于所述数据库确定地图,所述地图包括针对车辆类型的相应位置和对应不确定性;以及基于车辆位置和所述车辆类型将所述地图下载到车辆。
根据一个实施例,本发明的特征还在于所述车辆中的计算机,所述计算机包括车辆计算机处理器和车辆计算机存储器,所述车辆计算机存储器包括可由所述车辆计算机处理器执行以基于所述下载的地图来操作所述车辆的指令。
根据一个实施例,所述对象包括车辆和行人中的一者或多者。
根据一个实施例,所述车辆传感器数据包括车辆视频传感器数据、车辆激光雷达传感器数据、车辆雷达传感器数据和车辆超声传感器数据中的一者或多者。
根据一个实施例,所述车辆类型包括车辆品牌和车辆型号中的一者或多者。
根据一个实施例,本发明的特征还在于用于通过将具有相同位置并且由所述相同车辆类型的多个第二车辆所报告的一个或多个对象的不确定性相结合来确定所述不确定性的指令。
根据一个实施例,本发明的特征还在于用于通过将所述不确定性与包括当日时间、季节和天气条件中的一者或多者的环境条件相结合来确定所述数据库的指令。
根据一个实施例,对象属性包括对象速度和对象方向。
根据一个实施例,本发明的特征还在于用于通过利用深度神经网络处理车辆传感器数据以确定所述对象标识、所述对象属性和所述不确定性来确定所述对象数据的指令。
根据一个实施例,将所述地图输入到所述深度神经网络以确定所述对象标识、所述对象物理属性和所述不确定性。
根据一个实施例,基于所述地图来训练所述深度神经网络。
根据本发明,一种方法包括:基于车辆中的传感器数据,确定包括多个对象的对象数据的数据库,对于每个对象,所述对象数据包括对象标识、所述对象的一个或多个属性的测量值以及针对基于所述传感器数据确定的所述对象标识和所述对象属性指定正确对象标识的概率的不确定性,其中所述对象属性包括对象大小、对象形状和对象位置;基于所述数据库确定地图,所述地图包括针对车辆类型的相应位置和对应不确定性;以及基于车辆位置和所述车辆类型将所述地图下载到车辆上。
在本发明的一个方面,所述方法包括所述车辆中的计算机,所述计算机包括车辆计算机处理器和车辆计算机存储器,所述车辆计算机存储器包括可由所述车辆计算机处理器执行以基于所述下载的地图来操作所述车辆的指令。
在本发明的一个方面,所述对象包括车辆和行人中的一者或多者。
在本发明的一个方面,所述车辆传感器数据包括车辆视频传感器数据、车辆激光雷达传感器数据、车辆雷达传感器数据和车辆超声传感器数据中的一者或多者。
在本发明的一个方面,所述车辆类型包括车辆品牌和车辆型号中的一者或多者。
在本发明的一个方面,所述方法包括通过将具有相同位置并且由所述相同车辆类型的多个第二车辆所报告的一个或多个对象的不确定性相结合来确定所述不确定性。
在本发明的一个方面,所述方法包括通过将所述不确定性与包括当日时间、季节和天气条件中的一者或多者的环境条件相结合来确定所述数据库。
在本发明的一个方面,所述对象属性包括对象速度和对象方向。
在本发明的一个方面,所述方法包括通过利用深度神经网络处理车辆传感器数据以确定所述对象标识、所述对象属性和所述不确定性来确定所述对象数据。
Claims (15)
1.一种方法,其包括:
基于车辆中的传感器数据,确定包括多个对象的对象数据的数据库,对于每个对象,所述对象数据包括对象标识、所述对象的一个或多个属性的测量值以及针对基于所述传感器数据确定的所述对象标识和所述对象属性指定正确对象标识的概率的不确定性,其中所述对象属性包括对象大小、对象形状和对象位置;
基于所述数据库确定地图,所述地图包括针对车辆类型的相应位置和对应不确定性;以及
基于车辆位置和所述车辆类型将所述地图下载到车辆。
2.如权利要求1所述的方法,其还包括所述车辆中的计算机,所述计算机包括车辆计算机处理器和车辆计算机存储器,所述车辆计算机存储器包括可由所述车辆计算机处理器执行以基于所述下载的地图来操作所述车辆的指令。
3.如权利要求1所述的方法,其中所述对象包括车辆和行人中的一者或多者。
4.如权利要求1所述的方法,其中所述车辆传感器数据包括车辆视频传感器数据、车辆激光雷达传感器数据、车辆雷达传感器数据和车辆超声传感器数据中的一者或多者。
5.如权利要求1所述的方法,其中所述车辆类型包括车辆品牌和车辆型号中的一者或多者。
6.如权利要求1所述的方法,其还包括通过将具有相同位置并且由所述相同车辆类型的多个第二车辆所报告的一个或多个对象的不确定性相结合来确定所述不确定性。
7.如权利要求1所述的方法,其还包括通过将所述不确定性与包括当日时间、季节和天气条件中的一者或多者的环境条件相结合来确定所述数据库。
8.如权利要求1所述的方法,其中所述对象属性包括对象速度和对象方向。
9.如权利要求1所述的方法,其还包括通过利用深度神经网络处理车辆传感器数据以确定所述对象标识、所述对象属性和所述不确定性来确定所述对象数据。
10.如权利要求9所述的方法,其中将所述地图输入到所述深度神经网络以确定所述对象标识、所述对象物理属性和所述不确定性。
11.如权利要求10所述的方法,其中基于所述地图来训练所述深度神经网络。
12.如权利要求1所述的方法,其中所述地图包括一个或多个热点,其中每个热点包括真实世界位置和对应于所述真实世界位置的所述不确定性。
13.如权利要求12所述的方法,其中所述一个或多个热点包括车辆品牌和型号。
14.如权利要求1所述的方法,其中经由服务器数据处理程序和客户端数据处理程序将所述地图下载到所述车辆。
15.一种系统,其包括计算机,所述计算机被编程为执行如权利要求1至14中任一项所述的方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/829,207 | 2020-03-25 | ||
US16/829,207 US20210300356A1 (en) | 2020-03-25 | 2020-03-25 | Vehicle uncertainty sharing |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113442916A true CN113442916A (zh) | 2021-09-28 |
Family
ID=77659242
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110305265.2A Pending CN113442916A (zh) | 2020-03-25 | 2021-03-19 | 车辆不确定性共享 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20210300356A1 (zh) |
CN (1) | CN113442916A (zh) |
DE (1) | DE102021106900A1 (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102020207065B3 (de) * | 2020-06-05 | 2021-02-11 | Volkswagen Aktiengesellschaft | Fahrzeug, Verfahren, Computerprogramm und Vorrichtung zum Zusammenführen von Objektinformationen über ein oder mehrere Objekte in einem Umfeld eines Fahrzeugs |
US11713060B2 (en) * | 2020-09-18 | 2023-08-01 | Guident Ltd. | Systems and methods for remote monitoring of a vehicle, robot or drone |
US20230194275A1 (en) * | 2021-12-20 | 2023-06-22 | Here Global B.V. | Systems and methods for communicating uncertainty around stationary objects |
-
2020
- 2020-03-25 US US16/829,207 patent/US20210300356A1/en active Pending
-
2021
- 2021-03-19 CN CN202110305265.2A patent/CN113442916A/zh active Pending
- 2021-03-19 DE DE102021106900.9A patent/DE102021106900A1/de active Pending
Also Published As
Publication number | Publication date |
---|---|
DE102021106900A1 (de) | 2021-09-30 |
US20210300356A1 (en) | 2021-09-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10853670B2 (en) | Road surface characterization using pose observations of adjacent vehicles | |
US10528055B2 (en) | Road sign recognition | |
US10345822B1 (en) | Cognitive mapping for vehicles | |
US10949684B2 (en) | Vehicle image verification | |
US11460851B2 (en) | Eccentricity image fusion | |
CN113646222A (zh) | 将自主行驶功能扩展到新地域 | |
US20170316684A1 (en) | Vehicle lane map estimation | |
US10955857B2 (en) | Stationary camera localization | |
CN113442916A (zh) | 车辆不确定性共享 | |
CN110858325A (zh) | 车辆自适应学习 | |
US11042758B2 (en) | Vehicle image generation | |
US20200020117A1 (en) | Pose estimation | |
US11645360B2 (en) | Neural network image processing | |
US11055859B2 (en) | Eccentricity maps | |
US11662741B2 (en) | Vehicle visual odometry | |
CN111791814A (zh) | 车辆胶囊网络 | |
US11521494B2 (en) | Vehicle eccentricity mapping | |
US11270164B1 (en) | Vehicle neural network | |
CN110858866A (zh) | 前景检测 | |
US11119491B2 (en) | Vehicle steering control | |
US11702044B2 (en) | Vehicle sensor cleaning and cooling | |
CN112172778A (zh) | 车辆姿势确定 | |
US11176823B2 (en) | Enhanced vehicle operation | |
US11610412B2 (en) | Vehicle neural network training | |
CN116136414A (zh) | 传感器定位 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |