CN111507372A - 方法和装置 - Google Patents
方法和装置 Download PDFInfo
- Publication number
- CN111507372A CN111507372A CN202010071586.6A CN202010071586A CN111507372A CN 111507372 A CN111507372 A CN 111507372A CN 202010071586 A CN202010071586 A CN 202010071586A CN 111507372 A CN111507372 A CN 111507372A
- Authority
- CN
- China
- Prior art keywords
- learning
- vehicle
- fusion
- test
- sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 78
- 230000004927 fusion Effects 0.000 claims abstract description 302
- 238000001514 detection method Methods 0.000 claims abstract description 25
- 238000012360 testing method Methods 0.000 claims description 326
- 239000013598 vector Substances 0.000 claims description 119
- 238000007499 fusion processing Methods 0.000 claims description 51
- 238000004891 communication Methods 0.000 claims description 49
- 230000008569 process Effects 0.000 claims description 49
- 238000013527 convolutional neural network Methods 0.000 claims description 31
- 238000013528 artificial neural network Methods 0.000 claims description 25
- 238000011176 pooling Methods 0.000 claims description 19
- 230000015654 memory Effects 0.000 claims description 15
- 230000004044 response Effects 0.000 claims description 13
- 238000004422 calculation algorithm Methods 0.000 claims description 9
- 230000000306 recurrent effect Effects 0.000 claims description 9
- 230000007423 decrease Effects 0.000 claims description 4
- 241001522296 Erithacus rubecula Species 0.000 claims description 3
- 230000002787 reinforcement Effects 0.000 description 13
- 239000003795 chemical substances by application Substances 0.000 description 8
- 230000000694 effects Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000007787 long-term memory Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000006403 short-term memory Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 239000000654 additive Substances 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 238000004574 scanning tunneling microscopy Methods 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
- 238000004804 winding Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/30—Services specially adapted for particular environments, situations or purposes
- H04W4/40—Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
- H04W4/46—Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P] for vehicle-to-vehicle communication [V2V]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2155—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/251—Fusion techniques of input or preprocessed data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/006—Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
- G06N5/043—Distributed expert systems; Blackboards
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/776—Validation; Performance evaluation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/803—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/09—Arrangements for giving variable traffic instructions
- G08G1/091—Traffic information broadcasting
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/20—Monitoring the location of vehicles belonging to a group, e.g. fleet of vehicles, countable or determined number of vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Multimedia (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Automation & Control Theory (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Aviation & Aerospace Engineering (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种用于学习传感器融合网络的方法,该传感器融合网络用于执行协同驾驶的自动驾驶车辆的传感器融合。该方法包括以下步骤:学习设备(a)将(i)包括所述自动驾驶车辆、m个协同驾驶车辆以及第二虚拟车辆的驾驶图像,和(ii)所述m个协同驾驶车辆的n个传感器的传感器状态信息输入到传感器融合网络,以生成传输n个传感器的传感器值的传感器融合概率,(b)将道路行驶视频输入至检测网络,以检测第二虚拟车辆、行人和车道并输出附近的对象信息,将传感器值和所述附近对象信息输入到驾驶网络,以生成移动方向概率并驱动该自动驾驶车辆,以及(c)获取交通状况信息,产生反馈并学习传感器融合网络。
Description
技术领域
本发明涉及一种用于自动驾驶车辆、虚拟驾驶等的方法和设备;更具体地,涉及基于自动驾驶中的强化学习来执行多智能体传感器融合的方法和设备。
背景技术
车辆产业最近已转变为结合了IT技术的环保和先进的车辆的时代。除了车辆技术的发展,智能车辆也正在商业化,其中应用了诸如事故预防、事故避免、碰撞安全、便利性提高、车辆信息化、以及自动驾驶技术等。
这种智能车辆通过对驾驶员的注意力分散以及不熟练的操作提供辅助技术和语音识别等来提供舒适功能,从而减少了驾驶员疏忽引起的事故,而且还期待减少时间、燃料浪费、废气的减少等优点。
自动驾驶车辆是智能车辆技术的集合体。当驾驶员进入车辆并输入所需的目的地,会生成从当前位置到目的地的最佳路线,并且车辆会自行驾驶,而不会受到驾驶员的任何干预。
此外,车辆可以识别交通信号灯或道路标志并根据交通流量保持适当的速度,通过识别危险情况积极应对可能的事故,保持在车道上,必要时可以自行换车道、超车、避障等到达目的地。
同时,自动驾驶车辆使用各种传感器来检测其驾驶环境,并且这些传感器设置为无论驾驶环境如何始终都处于工作状态。
因此,存在这样一个问题:即使是根据当前的驾驶环境不必要的传感器也被连续地操作,使得自动驾驶车辆消耗大量的电力。
为了解决该问题,常规方法采用传感器融合,从而仅使用检测驾驶环境所需的最佳传感器。
另外,近来,尽管自动驾驶车辆可以通过V2V通讯(即,车辆到车辆的通讯)彼此共享信息,但是由于发送和接收大量的传感器数据,消耗了大量的通讯资源,并且由于所有发送和接收的传感器数据都必须进行处理,计算资源的消耗也很大。
发明内容
本发明的一个目的是解决所有前述问题。
本发明的另一个目的是通过V2V(车辆到车辆)通讯仅发送和接收必要的传感器信息。
本发明的又一个目的是通过V2V通讯来获取所需的准确的传感器信息。
本发明的又一个目的是在协同驾驶的情况下获取最佳的传感器信息。
为了达到如上所述的本发明的目的,实现如下所述的本发明的特定效果,本发明的特定构成如下。
根据本发明的一个实施方式,提供了一种用于学习传感器融合网络的方法,该传感器融合网络用于执行协同驾驶的自动驾驶车辆的传感器融合,该方法包括以下步骤:(a)如果获取包括(i-1)对象自动驾驶车辆,(i-2)包括第一虚拟车辆的m个学习用协同驾驶车辆,该第一虚拟车辆与对象自动驾驶车辆执行协同驾驶,和(i-3)执行非协同驾驶的第二虚拟车辆的(i)学习用驾驶图像,以及(ii)对应于所述m个学习用协同驾驶车辆中的每一辆的n个学习用传感器的多个学习用传感器状态信息,则学习设备执行如下过程:将所述学习用驾驶图像和所述多个学习用传感器状态信息输入到所述传感器融合网络,使得传感器融合网络(a-1)生成学习用传感器融合概率(sensor fusion probabilities),该传感器融合概率是所述m个学习用协同驾驶车辆中的每一辆,通过将神经网络运算应用于所述学习用行驶图像和所述多个学习用传感器状态信息,通过V2V通讯传输所述n个学习用传感器中的每一个传感器值以进行协同驾驶的概率,和(a-2)生成学习用融合传感器信息,所述学习用融合传感器信息是对应于在所述学习用传感器融合概率中具有预设阈值以上的概率的s个学习用传感器的信息,所述s为1至m×n的整数;(b)学习设备执行如下过程:将通过响应于所述学习用融合传感器信息,通过V2V通讯获得的学习用道路驾驶视频输入至检测网络,使得检测网络检测在所述对象自动驾驶车辆的行驶道路上的至少一部分所述第二虚拟车辆、一个或多个行人以及一个或多个车道,从而输出学习用附近对象信息;以及将通过响应于所述学习用融合传感器信息,通过所述V2V通讯获取的学习用传感器值和所述学习用附近物体信息输入到驾驶网络,使得驾驶网络通过参考学习用传感器值和所述学习用附近对象信息,来生成所述m个学习用协同驾驶车辆中的每一个的学习用移动方向概率,从而通过参考学习用移动方向概率来驾驶所述对象自动驾驶车辆;以及(c)学习设备执行如下过程:获取基于驾驶网络驾驶的所述对象自动驾驶车辆的学习用交通状况信息,通过参考所述学习用交通状况信息来生成反馈,通过利用反馈来学习所述传感器融合网络。
在一实施例中,在步骤(a)中,学习设备执行将学习用驾驶图像和多个学习用传感器状态信息输入到传感器融合网络,使得传感器融合网络(i)将基于CNN的卷积运算应用于所述学习用驾驶图像,生成学习用特征映射,并通过将完全连接运算应用于学习用特征映射,生成学习用图像特征向量,(ii)通过使用至少一个LSTM将递归神经网络运算应用于所述多个学习用传感器状态信息,生成学习用传感器状态特征向量,以及(iii)通过将所述学习用图像特征向量和所述学习用传感器状态特征向量进行级联,生成学习用级联特征向量(concatenated feature vector),通过将至少一个完全连接层的完全连接操作应用于所述学习用级联特征向量,生成学习用传感器融合概率。
在一实施例中,所述学习设备通过利用所述反馈,更新包括在所述传感器融合网络中的所述CNN、至少一个LSTM以及至少一个完全连接层的至少一个参数。
在一实施例中,所述学习设备指令传感器融合网络,通过池化层将最大池化操作应用于所述学习用特征映射,将完全连接操作应用于其结果值,从而生成所述学习用图像特征向量。
在一实施例中,所述学习设备使用softmax算法对每个学习用传感器融合概率进行归一化并输出。
在一实施例中,所述反馈通过从所述m个学习用协同驾驶车辆中的每一个中的所述n个学习用传感器的数量之和中减去所述s个学习用传感器的数量来产生,所述学习设备通过参考所述学习用交通状况信息来增加或减少所述反馈。
在一实施例中,所述学习用驾驶图像是对应于m个学习用协同驾驶车辆进行协同驾驶的整个道路的整个道路图像,且具有m+1个通道,该通道表示每一个特定大小的块(将整个道路图像划分为网格)是否被所述m个学习用协同驾驶车辆分别占据或被整个所述第二虚拟车辆占据。所述m+1个通道中的每个m个通道分别对应于每个所述m个学习用协同驾驶车辆,其余一个通道对应于第二虚拟车辆。
根据本发明的另一实施方式,提供一种用于测试传感器融合网络的方法,该传感器融合网络用于执行协同驾驶的自动驾驶车辆的传感器融合,该方法包括以下步骤:
(a)如果获得包括(i-1)学习用对象自动驾驶车辆,(i-2)包括第一虚拟车辆m个学习用协同驾驶车辆,该第一虚拟车辆与学习用对象自动驾驶车辆执行协同驾驶,以及(i-3)执行非协同驾驶的第二虚拟车辆的(i)学习用驾驶图像、(ii)对于所述m个学习用协同驾驶车辆中的每一辆的n个学习用传感器的多个学习用传感器状态信息,则(1)将所述学习用驾驶图像和多个学习用传感器状态信息输入到传感器融合网络,从而使得传感器融合网络(1-1)生成学习用传感器融合概率,该传感器融合概率是m个学习用协同驾驶车辆中的每一辆,通过神经网络运算应用于学习用行驶图像和多个学习用传感器状态信息,使得通过V2V通讯传输n个学习用传感器中的每一个传感器值以进行协同驾驶的概率,和(1-2)生成学习用融合传感器信息,该学习用融合传感器信息是对应于所述学习用传感器融合概率中具有预设阈值以上的概率的s个学习用传感器的信息,其中,s为1至m×n的整数,(2)将通过响应于所述学习用融合传感器信息,通过V2V通讯获得的学习用道路驾驶视频输入至检测网络,使得检测网络检测所述学习用对象自动驾驶车辆的行驶道路上的至少一部分第二虚拟车辆、一个或多个行人以及一个或多个车道,从而输出学习用附近物体信息,(3)将通过响应于学习用融合传感器信息,通过V2V通讯获取的学习用传感器值和学习用附近物体信息输入到驾驶网络,从而使得驾驶网络通过参考所述学习用传感器值和所述学习用附近对象信息,来生成所述m个学习用协同驾驶车辆的每一个的学习用移动方向概率,通过参考所述学习用移动方向概率来驾驶对象自动驾驶车辆;以及(4)获取通过驾驶网络驱动的所述学习用对象自动驾驶车辆的学习用交通状况信息,参考所述学习用交通状况信息来生成反馈,通过利用反馈来学习传感器融合网络:在学习设备已执行上述过程的情况下,如果获得包括(i-1)测试用对象自动驾驶车辆,(i-2)包括第一车辆的k个测试用协同驾驶车辆,该第一车辆与该测试用对象自动驾驶车辆进行协同驾驶,和(i-3)执行所述非协同驾蛾驶的第二车辆的(i)测试用驾驶图像,以及(ii)在所述k个测试用协同驾驶车辆中的每一辆中的i个测试用传感器的多个测试用传感器状态信息,则所述k个测试用协同驾驶车辆中的至少一个协同驾驶车辆的测试设备执行如下过程,即将所述测试用驾驶图像和所述测试用多个传感器状态信息输入到所述传感器融合网络,使得所述传感器融合网络,(a-1)生成测试用传感器融合概率,该传感器融合概率是k个测试用协同驾驶车辆中的每一辆,通过将神经网络运算应用于所述测试用行驶图像和所述多个测试用传感器状态信息,使得通过V2V通讯传输i个测试用传感器中的每一个传感器值以进行协同驾驶的概率,和(a-2)生成测试用融合传感器信息,所述测试用融合传感器信息是对应于所述测试用传感器融合概率中具有预设阈值以上的概率的s个测试用传感器的信息,(a-3)通过V2V通讯,将对应于所述s个测试用传感器的测试用融合传感器信息发送给至少一部分的所述k个测试用协同驾驶车辆;以及
(b)所述k个测试用协同驾驶车辆中的至少一个协同驾驶车辆的所述测试设备执行过程:将通过响应于测试用融合传感器信息,通过V2V通讯获取的测试用道路行驶视频输入到检测网络,使得所述检测网络检测所述测试用对象自动驾驶车辆的行驶道路上的至少部分第二车辆、行人和车道,从而输出测试用附近物体信息,来输出测试用附近对象信息;将通过响应于所述测试用融合传感器信息,通过V2V通讯获取的测试用传感器值和所述测试用附近物体信息输入到驾驶网络,使得所述驾驶网络通过参考所述测试用传感器值和所述测试用附近对象信息,来生成k个测试用协同驾驶车辆中的每一个的移动方向概率,从而通过参考所述测试用移动方向概率来驾驶所述测试用对象自动驾驶车辆。
在一实施例中,在步骤(a)中,所述k个测试用协同驾驶车辆中的至少一个的协同驾驶车辆的所述测试设备执行过程:将测试用驾驶图像和测试用多个传感器状态信息输入到传感器融合网络,使得传感器融合网络,(i)通过将使用CNN的卷积运算应用于所述测试用驾驶图像,生成测试用特征映射,并通过将完全连接操作应用于所述测试用特征映射,生成测试用图像特征向量,(ii)将通过至少一个LSTM的递归神经网络运算应用于多个测试用传感器状态信息,生成测试用传感器状态特征向量,(iii)通过将所述测试用图像特征向量和所述测试用传感器状态特征向量进行级联,生成测试用级联特征向量,通过将至少一个完全连接层的完全连接操作应用于所述测试用级联特征向量,生成测试用传感器融合概率。
在一实施例中,所述k个测试用协同驾驶车辆中的至少一个协同驾驶车辆的测试设备指令传感器融合网络,通过池化层将最大池化操作应用于所述测试用特征映射,然后将完全连接操作应用于上述结果,从而生成测试用图像特征向量。
在一实施例中,所述k个测试用协同驾驶车辆中的至少一个的协同驾驶车辆的所述测试设备通过softmax算法对测试用传感器融合概率进行归一化并输出。
在一实施例中,在步骤(a)中,所述k个测试用协同驾驶车辆中的至少一个协同驾驶车辆的测试设备执行如下过程:(i)通过将使用特定CNN的多次卷积运算应用于从所述k个测试用协同驾驶车辆中的特定的协同驾驶车辆获取的测试驾驶图像,生成测试用特征映射;如果通过将完全连接操作应用于所述测试用特征映射生成了测试用图像特征向量,则通过V2V通讯从特定的协同驾驶车辆获取所述测试用图像特征向量,(ii)将通过使用至少一个LSTM的递归神经网络运算应用于所述多个测试用传感器状态信息来生成测试用传感器状态特征向量,以及(iii)将通过V2V通讯获取的所述测试用图像特征向量和所述测试用传感器状态特征向量进行级联,生成测试用级联特征向量;以及通过将至少一个完全连接层的完全连接操作应用于所述测试用级联特征向量来生成所述测试用传感器融合概率。
在一实施例中,所述特定车辆使得特定的CNN将卷积运算应用于所述测试用驾驶图像,从而生成测试用特征映射,将完全连接的运算应用于所述测试用特征映射,从而生成测试用图像特征向量,该特定车辆可以是根据循环调度(Round Robin Scheduling)以规定的间隔依次指定的所述k个测试用协同驾驶车辆之一。
根据本发明的又一实施方式,提供了一种用于学习传感器融合网络学习设备,该传感器融合网络用于执行协同驾驶的自动驾驶车辆的传感器融合,该学习设备包括:至少一个存储指令的存储器;以及至少一个处理器,所述处理器配置为执行所述指令来完成如下过程:(I)如果获得包括(i-1)对象自动驾驶车辆,(i-2)包括第一虚拟车辆的m个学习用协同驾驶车辆,该第一虚拟车辆与所述对象自动驾驶车辆执行所述协同驾驶,以及(i-3)执行非协同驾驶的第二虚拟车辆的(i)学习用驾驶图像,(ii)对应于m个学习用协同驾驶车辆中的每一辆中的n个学习用传感器的多个学习用传感器状态信息,则将学习用驾驶图像和多个学习用传感器状态信息输入到传感器融合网络,使得传感器融合网络,(I-1)生成学习用传感器融合概率,该传感器融合概率是m个学习用协同驾驶车辆中的每一辆通过将神经网络运算应用于学习用行驶图像和多个学习用传感器状态信息,通过V2V通讯传输n个学习用传感器的每一个传感器值以进行协同驾驶的概率,(I-2)生成学习用融合传感器信息,所述学习用融合传感器信息是对应于在学习用传感器融合概率中具有预设阈值以上的概率的s个学习用传感器的信息,其中,s为1至m×n的整数,(II)将通过响应于学习用融合传感器信息,通过V2V通讯获得的学习用道路驾驶视频输入检测网络,使得检测网络检测所述对象自动驾驶车辆的行驶道路上的至少一部分第二虚拟车辆、一个或多个行人以及一个或多个车道,从而输出学习用附近物体信息;以及将通过响应于所述学习用融合传感器信息,通过V2V通讯获取的学习用传感器值和学习用附近物体信息输入到驾驶网络中,使得驾驶网络通过参考所述学习用传感器值和所述学习用附近对象信息,来生成m个所述学习用协同驾驶车辆中的每一个的所述学习用移动方向概率,通过参考所述学习用移动方向概率来驾驶所述对象自动驾驶车辆;和(III)获取通过所述驾驶网络驱动的所述对象自动驾驶车辆的学习用交通状况信息,通过参考所述学习用交通状况信息来生成反馈;以及通过利用所述反馈来学习传感器融合网络。
在一实施例中,在上述过程(I)中,所述处理器执行过程:将所述学习用驾驶图像和所述多个学习用传感器状态信息输入到所述传感器融合网络,使得所述传感器融合网络,(i)将通过使用CNN的卷积运算应用于所述学习用驾驶图像,生成所述学习用特征映射,通过将完全连接的操作应用于所述学习用特征映射,生成所述学习用图像特征向量,(ii)通过使用至少一个LSTM的递归神经网络运算应用于所述多个学习用传感器状态信息,生成所述学习用传感器状态特征向量,(iii)通过将所述学习用图像特征向量和所述学习用传感器状态特征向量进行级联,生成所述学习用级联特征向量,通过将至少一个完全连接层的完全连接操作应用于所述学习用级联特征向量,生成所述学习用传感器融合概率。
在一实施例中,所述处理器通过利用所述反馈更新包括在所述传感器融合网络中的所述CNN、至少一个LSTM以及至少一个完全连接层的至少一个参数。
在一实施例中,所述处理器指令所述传感器融合网络,通过池化层将最大池化操作应用于所述学习用特征映射,然后将完全连接操作应用于上述结果,从而生成所述学习用图像特征向量。
在一实施例中,所述处理器通过softmax算法将每个学习用传感器融合概率进行归一化并输出。
在一实施例中,所述反馈从所述m个学习用协同驾驶车辆中的每一个中的所述n个学习用传感器的数量之和中减去所述s个学习用传感器的数量来产生,所述处理器通过参考所述学习用交通状况信息来增加或减少所述反馈。
在一实施例中,所述学习用驾驶图像是m个学习用协同驾驶车辆进行协同驾驶的整个道路中的整个道路图像,并且是具有m+1个通道的图像,该通道表示每一个特定大小的块(将整个道路图像划分为网格)是否被每个所述m个学习用协同驾驶车辆占据或被整个第二虚拟车辆占据。其中,所述m+1个通道中的所述m个通道中的每一个分别对应于每个所述m个学习用协同驾驶车辆,其余一个通道对应于第二虚拟车辆。
根据本发明的又一实施方式,提供了一种k个测试用协同驾驶车辆中的至少一个协同驾驶车辆的测试设备,该测试设备用于测试传感器融合网络,该传感器融合网络用于执行协同驾驶的自动驾驶车辆的传感器融合,该测试设备包括:至少一个存储指令的存储器;至少一个处理器,所述处理器用于执行所述指令以完成如下过程:(I)如果获得包括(i-1)学习用对象自动驾驶车辆,(i-2)包括第一虚拟车辆的m个学习用协同驾驶车辆,该第一虚拟车辆与学习用对象自动驾驶车辆执行协同驾驶,和(i-3)执行非协同驾驶的第二虚拟车辆的(i)学习用驾驶图像,以及(ii)对应于m个学习用协同驾驶车辆中的每一辆中的n个学习用传感器的多个学习用传感器状态信息,则执行如下过程:(1)将所述学习用驾驶图像和所述多个学习用传感器状态信息输入到传感器融合网络,使得传感器融合网络,(1-1)生成所述学习用传感器融合概率,该传感器融合概率是所述m个学习用协同驾驶车辆中的每一辆,通过将神经网络运算应用于学习用行驶图像和多个学习用传感器状态信息,通过V2V通讯传输n个学习用传感器中的每一个传感器值以进行协同驾驶的概率,(1-2)生成学习用融合传感器信息,所述学习用融合传感器信息是对应于所述学习用传感器融合概率中具有预设阈值以上的概率的s个学习用传感器的信息,其中,s为1至m×n的整数,(2)将通过响应于学习用融合传感器信息,通过V2V通讯获得的学习用道路驾驶视频输入至检测网络,使得检测网络检测所述学习用对象自动驾驶车辆的行驶道路上的至少一部分第二虚拟车辆、一个或多个行人以及一个或多个车道,从而输出学习用附近物体信息,(3)将通过响应于学习用融合传感器信息,通过V2V通讯获取的学习用传感器值和学习用附近物体信息输入到驾驶网络中,使得驾驶网络通过参考学习用传感器值和学习用附近对象信息,来生成m个学习用协同驾驶车辆中的每一个的移动方向概率,从而通过参考学习用移动方向概率来驾驶对象自动驾驶车辆;和(4)获取通过驾驶网络驱动的所述学习用对象自动驾驶车辆的学习用交通状况信息,通过参考学习用交通状况信息来产生反馈的过程,以及通过利用反馈来学习传感器融合网络;在学习设备执行了上述过程的情况下,如果获得了包括(i-1)测试用对象自动驾驶车辆,(i-2)包括第一车辆的k个测试用协同驾驶车辆,该第一车辆与该测试用对象自动驾驶车辆进行协同驾驶,以及(i-3)执行非协同驾驶的第二车辆的(i)测试用驾驶图像,和(ii)对应于k个测试用协同驾驶车辆中的每一辆中i个测试用传感器的多个测试用传感器状态信息,则执行如下过程:将测试用驾驶图像和多个测试用传感器状态信息输入到传感器融合网络,从而使得传感器融合网络,(I-1)生成测试用传感器融合概率,该传感器融合概率是k个测试用协同驾驶车辆中的每一辆通过将神经网络运算应用于测试用驾驶图像和多个测试用传感器状态信息,使得通过V2V通讯传输i个测试用传感器中的每一个传感器值以进行协同驾驶的概率,(I-2)生成测试用融合传感器信息,所述测试用融合传感器信息是对应于学习用传感器融合概率中具有预设阈值以上的概率的s个测试用传感器的信息,(I-3)通过V2V通讯,将s个测试用传感器上的测试用融合传感器信息发送给至少一部分的k个测试用协同驾驶车辆中;(II)将通过响应于测试用融合传感器信息,通过V2V通讯获取的测试用道路行驶视频输入到检测网络的过程,使得检测网络检测所述测试用对象自动驾驶车辆的行驶道路上的至少部分第二车辆、行人和车道,从而输出测试用附近物体信息;以及通过响应于测试用融合传感器信息,通过V2V通讯获取的测试用传感器值和测试用附近物体信息输入到驾驶网络,使得驾驶网络通过参考测试用传感器值和测试用附近对象信息,来生成k个测试用协同驾驶车辆中的每一个的移动方向概率,从而通过参考测试用移动方向概率来驾驶对象自动驾驶车辆。
在一实施例中,在过程(I)中,处理器执行过程:将测试用驾驶图像和多个测试用传感器状态信息输入到传感器融合网络,使得传感器融合网络(i)通过将使用CNN的卷积运算应用于测试用驾驶图像,生成测试用特征映射,通过将完全连接的操作应用于测试用特征映射,生成测试用图像特征向量,(ii)通过将使用至少一个LSTM的递归神经网络运算应用于多个测试用传感器状态信息,生成测试用传感器状态特征向量,(iii)通过将测试用图像特征向量和测试用传感器状态特征向量进行级联,生成测试用级联特征向量,通过将至少一个完全连接层的完全连接操作应用于测试用级联特征向量,生成测试用传感器融合概率。
在一实施例中,处理器指示传感器融合网络,通过池化层将最大池化操作应用于测试用特征映射,然后(将完全连接操作应用于上述结果,从而生成测试用图像特征向量。
在一实施例中,处理器使用softmax算法对每个传感器融合概率进行归一化并输出测试用。
在一实施例中,在过程(I)中,处理器执行如下过程:(i)通过将使用特定的CNN的多次卷积运算应用于k个测试用协同驾驶车辆中的特定的协同驾驶车辆获取的测试用驾驶图像,生成测试用特征映射的过程;以及如果通过将完全连接操作应用于测试用特征映射生成了测试用图像特征向量,则通过V2V通讯从特定的协同驾驶车辆获取测试用图像特征向量的过程,(ii)通过将使用至少一个LSTM的递归神经网络运算应用于多个测试用传感器状态信息来生成测试用传感器状态特征向量,以及(iii)将通过该V2V通讯获取的测试用图像特征向量和测试用传感器状态特征向量级联,生成测试用级联特征向量的过程;以及通过将至少一个完全连接层的完全连接操作应用于测试用级联特征向量,生成测试用传感器融合概率的过程。
在一实施例中,特定车辆允许特定的CNN将卷积运算应用于测试用驾驶图像从而生成测试用特征映射,将完全连接的运算应用于测试用特征映射从而生成测试用图像特征向量,该特定车辆可以是根据循环调度以规定的间隔依次指定的k个测试用协同驾驶车辆之一。
另外,进一步提供了计算机可读的、用于存储执行本发明的方法的计算机程序的可记录介质。
发明效果:
本发明具有提高自动驾驶车辆的可靠性的效果,因为即使自动驾驶车辆的一部分传感器发生故障之后,也可以利用来自处于协同驾驶模式的其它自动驾驶车辆的传感器信息。
本发明具有另一效果,通过V2V通讯仅发送/接收必要的传感器信息而使发送/接收的数据量最小化。
本发明还有另一效果,即根据处于协同驾驶中的自动驾驶车辆的适当的行驶位置,获取所需的准确的传感器信息。
本发明还有另一效果,通过协同驾驶在每个自动驾驶车辆之间分散运算并共享共用的传感器信息,从而减少自动驾驶车辆的运算负荷。
附图说明
以下用于解释本发明的实施例的附图仅是本发明的实施例的一部分,并且本领域技术人员无需进行创造性劳动即可基于这些附图获得其他附图。
图1示意性地示出了根据本发明的一个实施例的基于强化学习的,用于学习传感器融合网络的学习设备,该传感器融合网络用于协同驾驶中的对象自动驾驶车辆的传感器融合。
图2示意性地示出了根据本发明的一个实施例的对象自动驾驶车辆的协同驾驶的状态。
图3示意性地示出了根据本发明的一个实施例的基于强化学习的,用于学习传感器融合网络的学习方法,该传感器融合网络用于协同驾驶中的对象自动驾驶车辆的传感器融合。
图4示意性地示出了根据本发明的一个实施例的基于强化学习的,在协同驾驶中用于对象自动驾驶车辆的传感器融合的传感器融合网络。
图5示意性地示出了根据本发明的一个实施例的基于强化学习的,用于测试传感器融合网络的测试设备,该传感器融合网络用于协同驾驶中的对象自动驾驶车辆的传感器融合。
具体实施方式
下面将对本发明进行的详细说明参照作为特定实施例的示例示出的附图和图,在该附图和附图下可以实施本发明以使本发明的目的、技术方案和优点清楚。对这些实施例进行了足够详细的描述,以使本领域技术人员能够实施本发明。
此外,在本发明的详细描述和权利要求中,术语“包括”及其变化形式并不旨在排除其他技术特征,添加物,组件或步骤。本发明的其他目的,益处和特征将部分地从说明书中并且部分地从本发明的实施中向本领域技术人员揭示。以下示例和附图将作为示例提供,但是它们并不意图限制本发明。
此外,本发明涵盖了本说明书中指示的示例实施例的所有可能的组合。应当理解,本发明的各种实施例尽管不同,但不一定是相互排斥的。例如,在不背离本发明的精神和范围的情况下,可以在其他实施例内实现本文结合一个实施例描述的特定特征,结构或特性。另外,应当理解,在不脱离本发明的精神和范围的情况下,可以修改每个发明的实施例内的各个元件的位置或布置。因此,以下详细描述不应被理解为限制性的,并且本发明的范围仅由适当地解释的所附权利要求以及权利要求所赋予的等同物的全部范围来限定。在附图中,贯穿几个方面,相似的附图标记指代相同或相似的功能。
本发明内容中提及的任何图像都可以包括与任何已铺设或未铺设的道路有关的图像,在这种情况下,能够假设为可能出现在与道路有关的场景中的物体可能包括车辆、人员、动物、植物、物体、建筑物、飞行物体(例如飞机或无人机),或其他障碍物,但是本发明的范围不限于此。作为另一示例,本发明中提及的所述任何图像可以包括与任何道路都不相关的图像,诸如与土路、小巷、空地、海洋、湖泊、河流、山脉、森林、沙漠、天空或任何室内空间有关的图像,在这种情况下,能够假设为土路、小巷、空地、海洋、湖泊、河流、山脉、森林、沙漠、天空或任何室内场景中的物体(例如、车辆、人员、动物、植物、物体、建筑物、飞机或无人机等飞行物体、或任何其他障碍物),但是本发明的范围不限于此。
为了使本领域技术人员能够容易地实施本发明,将通过参考附图详细说明本发明的示例实施方式,如下所示。
图1示意性地示出了根据本发明的一个实施例的基于强化学习的,用于学习传感器融合网络的学习设备,该传感器融合网络用于在协同驾驶中进行多对象传感器融合。参考图1,所述学习设备100可包括:存储器120,用于存储指令,以基于强化学习来学习在对象自动驾驶车辆的协同驾驶中用于多对象传感器融合的传感器融合网络;处理器130,用于执行与存储器120中的指令相对应的处理。
具体地,所述学习设备100通常可以通过使用至少一个计算设备和至少一个计算机软件的组合来实现期望的系统性能,例如,计算机处理器、内存、存储器、输入设备、输出设备或任何其他常规计算组件、电子通讯设备(例如,路由器或交换机)、电子信息存储系统(例如,作为计算设备的网络附加存储(NAS)设备和存储区域网络(SAN))、以及任何允许计算设备以特定方式充当计算机软件的指令。
计算设备的处理器可以包括MPU(微处理单元)或CPU(中央处理单元)、高速缓冲存储器、数据总线等硬件配置。另外,计算设备可进一步包括操作系统、实现特定目的的应用的软件配置。
然而,对计算设备的这种描述不排除包括用于实现本发明的处理器、存储器、介质或任何其他计算组件的任何组合的集成设备。
同时,对象自动驾驶车辆可包括:通讯部分110,用于与一个或多个附近车辆进行V2V(车辆到车辆)通讯;传感器融合网络140,用于在协同驾驶中进行多对象传感器融合;检测网络150,用于通过检测该自动驾驶车辆的行驶道路上的至少一部分的附近车辆、一个或多个行人以及一个或多个车道来输出附近的物体信息;驾驶网络160,用于通过参考附近的物体信息和通过响应于融合传感器信息的V2V通讯获取的传感器值来允许驾驶对象自动驾驶车辆。
参照图1至图4,描述了通过使用根据本发明的一个示例的学习设备100,基于强化学习来学习用于协同驾驶中的多对象传感器融合的传感器融合网络的方法。
首先,通过参考图2,学习设备100可以获取(i)学习用驾驶图像,该驾驶图像包括(i-1)对象自动驾驶车辆,(i-2)包括第一虚拟车辆的m个学习用协同驾驶车辆,该第一虚拟车辆与对象自动驾驶车辆进行协同驾驶,(i-3)执行非协同驾驶的第二虚拟车辆;以及(ii)对应于m个学习用协同驾驶车辆中的每一个的n个学习用传感器的多个传感器状态信息。
在此,在对象自动驾驶车辆处于协同驾驶的情况下,学习过程可能需要在道路上的实际驾驶期间执行,不同于用于对象检测的CNN(卷积神经网络)虚拟学习过程,在该过程中,只需简单输入准备好的训练图像即可。也就是说,在学习不完全的情况下,对象自动驾驶车辆在实际道路上发生碰撞的可能性很高。因此,在本发明中,学习在虚拟世界中执行从而解决问题,对象自动驾驶车辆和与距对象自动驾驶车辆一定距离内的至少一个附近的虚拟车辆编程为存在于虚拟世界中。在此,包括与对象自动驾驶车辆协同驾驶的第一虚拟车辆的m个学习用协同驾驶车辆以及对象自动驾驶车辆,所有这些车辆可通过同一网络确定动作。
并且,图2示出了三辆以协同驾驶模式行驶的车辆。但是,如果在协同驾驶模式下行驶的车辆超过三辆,则它们之间的连接可表示为三角形网格,并且三角形网格的最简单的形式是三辆车的三角形。因此,尽管图2显示了三辆车,但是在协同驾驶模式下,可以容易地扩展到包括多于三辆的多辆车辆的情况。
同时,学习用驾驶图像是对于m个学习用协同驾驶车辆处于行驶中的整个道路的整个道路图像,并且是具有m+1个通道的图像,该通道表示每一个特定大小的块(将整个道路图像划分为网格)是否被所述学习用每一个m个协同驾驶车辆占据或被整个所述第二虚拟车辆占据,所述m+1个通道中的每个所述m个通道分别对应于每个所述m个学习用协同驾驶车辆,其余一个通道对应于第二虚拟车辆。在此,学习用驾驶图像的生成可以通过使用(i)m个学习用协同驾驶车辆的位置信息,该位置信息通过在V2V通讯中共享的自己的GPS信息确认,(ii)由第二虚拟车辆的位置信息确认的第二虚拟车辆的位置信息,该第二虚拟车辆的位置信息由m个学习用协同驾驶车辆中的每一个从先前的动作,即前一帧中检测到。
并且,多个学习用传感器状态信息可表示关于安装在m个学习用协同驾驶车辆中的每一个上的n个传感器的状态信息,即,为表示传感器是否可运行的信息。在一实施例中,多个学习用传感器状态信息中的至少一部分可以是表示m×n个传感器的状态的向量,其中,如果其相应的传感器可操作,则其向量分量为1;如果由于故障等原因其相应的传感器不可操作,则其向量分量为0。并且,多个学习用传感器状态信息可进一步包括m个学习用协同驾驶车辆中的每一辆的速度。在此,可以在虚拟驾驶环境中通过迫使传感器在正常状态和故障状态之间切换来获取多个学习用传感器状态信息。在整个说明书中,“速度”可以是标量(scalar),但视情况而定也可以是向量。
接下来,通过参考图3,学习设备100可以将学习用驾驶图像和多个学习用传感器状态信息输入到对象自动驾驶车辆的传感器融合网络140中,从而使得传感器融合网络140分析关于m辆学习用协同驾驶车辆的传感器状态信息以及关于在协同驾驶中对象自动驾驶车辆的行驶道路状况的信息,从而可以输出信息,该信息包括是否将获得自某个传感器的某个信息通过V2V通讯传输到协同驾驶中的协同驾驶车辆。
也就是说,学习设备100可以执行将学习用驾驶图像和多个学习用传感器状态信息输入到传感器融合网络140中的处理,使得传感器融合网络140(i)生成学习用传感器融合概率,该传感器融合概率是m个学习用协同驾驶车辆中的每一辆,通过将神经网络运算应用于学习用行驶图像和多个学习用传感器状态信息,使得通过V2V通讯传输n个学习用传感器中的每一个传感器值以进行协同驾驶的概率,和(ii)生成学习用融合传感器信息,所述学习用融合传感器信息是对应于学习用传感器融合概率中具有预设阈值以上的概率的s个学习用传感器的信息,在此,s可以是1至m×n的整数。
作为一个例子,参考图4,学习设备100可以作为输入1,通过使用CNN将其操作应用于学习用驾驶图像。即,学习设备100可以将学习用驾驶图像输入到至少一个卷积层中,并且可以指示卷积层将其至少一项卷积操作应用于学习用驾驶图像,从而生成至少一个学习用特征映射。在此,卷积层可以包括多层,并且可以将多个卷积操作应用于学习用驾驶图像。
并且,学习设备100可以将学习用特征映射输入到至少一个FC层中,使得FC层对学习用特征映射进行完全连接的操作,从而生成学习用图像特征向量。
在此,FC层可以由多层构成。而且,学习设备100可以通过至少一个池化层将最大池化操作应用于学习用特征映射,视情况可以将学习用最大池化特征映射输入到FC层中。
另外,学习设备100可以作为输入2,将多个学习用传感器状态信息输入到至少一个LSTM(长短期存储器)中,使得LSTM将其递归神经网络运算应用于多个学习用传感器状态信息,从而生成学习用传感器状态特征向量。在此,LSTM可以为多个,并且LSTM可以重复一次以上。
此后,学习设备100可将学习用图像特征向量和学习用传感器状态特征向量进行级联来生成学习用级联特征向量,并可以将学习用级联特征向量输入至FC层,允许FC层,通过将完全连接的操作应用于学习用级联特征向量,生成学习用传感器融合概率。这里,学习设备100可以允许传感器融合网络140使用softmax算法对每个学习用传感器融合概率进行归一化并输出。
也就是说,学习设备100可允许传感器融合网络140级联来自CNN和LSTM的结果;可将级联结果输入到FC层中;并可将softmax操作应用于FC层的输出结果,从而生成最终结果,即可以输出多对象传感器融合的结果。
在一实施例中,如果在协同驾驶模式下的三辆车中的每一辆都具有n个传感器,可以输出3×n个值,其表示从每个传感器获取的每个传感器信息通过V2V通讯发送的概率。
在此,可以预先对每辆车的三个车辆中的每一个的n个概率进行归一化,并且,如果要通过V2V通讯发送在协同驾驶中的车辆的n个传感器中的每个传感器获取的传感器信息,可以选择概率最高的前s个。
再次参考图3,学习设备100可以执行如下过程:将通过响应于学习用融合传感器信息,通过V2V通讯获取的学习用道路驾驶视频输入到检测网络150中,使得检测网络150检测对象自动驾驶车辆的行驶道路上的至少一部分第二虚拟车辆、行人和车道,从而输出学习用附近的物体信息。在此,检测网络150可以已经学习过检测输入图像中的对象。
接下来,学习设备100可以执行以下过程:将通过响应于学习用融合传感器信息,通过V2V通讯获取的学习用传感器值以及学习用附近的对象信息输入到驾驶网络160中,使得驾驶网络160通过参考学习用传感器值和附近的学习用物体信息,生成m个学习用协同驾驶车辆中的每一个的移动方向概率,从而通过参考学习用移动方向概率来驾驶对象自动驾驶车辆。在此,驾驶网络160可能已经学习过通过参考传感器值和附近的物体信息,产生在协同驾驶中对象自动驾驶车辆的移动方向概率。
也就是说,学习设备100可允许驾驶网络160通过使用学习用传感器值和学习用附近物体信息来确定应当如何改变协同驾驶方式。在一实施例中,在每个协同驾驶车辆要向左或向右或不移动的情况下,可以输出表示每种情况的概率的3×m值。在此,对于每个协同驾驶车辆,三个概率之和可能已经预先归一化了,并且,每个协同驾驶车辆可以执行每个最高概率的动作。
接下来,学习设备100可执行如下过程,即获得对通过驾驶网络160驱动的对象自动驾驶车辆的学习用交通状况信息,通过参考学习用交通状况信息来产生反馈,以及通过利用反馈来学习传感器融合网络。
也就是说,学习设备100可以通过利用反馈来更新传感器融合网络140中包括的CNN、LSTM和完全连接层的至少一个参数。
在此,可通过从m个学习用协同驾驶车辆中的每一个中的n个学习用传感器的总数中减去s个学习用传感器的总数来产生反馈,并且学习设备100可通过参考学习用交通状况信息来增加或减少反馈。
该过程在下面进行更具体的描述。
该对象自动驾驶车辆可获取交通状况信息,即情况数据,所述交通状况信息表示该对象自动驾驶车辆在操作中的情况的至少一种变化。情况数据可包括以下至少一部分:(i)有关在距对象自动驾驶车一定距离内的附近至少一辆车辆的至少一个车辆喇叭是否在使用的信息,(ii)有关该至少一辆附近车辆的速度变化的信息,(iii)有关对象自动驾驶车辆与所述至少一辆附近车辆之间的至少一个事故的信息。学习设备100或驾驶网络160可以通过参考交通状况信息来产生反馈,由于反馈参与调整神经网络运算的一个或多个参数,因此这意味着通过参考这些信息来调整过程。
有关喇叭的使用、速度的变化和事故的信息可以是用于确定对象自动驾驶车辆是否被安全驾驶的标准。这是因为,如果对象自动驾驶车辆正处于安全驾驶,则附近的车辆将不会发出鸣响,不会降低其速度并且不会与对象自动驾驶发生碰撞。如果发生至少一个类似喇叭声、速度降低和车祸的事件,则学习设备100或驾驶网络160可降低反馈以迫使对象自动驾驶车辆更安全地驾驶。同样,如果s是其概率等于或大于预设阈值的传感器数量,使得在多对象传感器融合中选择的传感器数量较少,则学习设备100或驾驶网络160可以通过使用s来生成反馈。在一实施例中,可通过从m个学习用协同驾驶车辆中的每一个中的n个学习用传感器的总数中减去s个学习用传感器的总数来产生反馈。
在此,学习设备100可学习传感器融合网络140,使得在反馈较低的情况下,学习用融合传感器信息包括更多传感器;并且可学习传感器融合网络140,使得在反馈较高的情况下,学习用融合传感器信息包括较少传感器,使得更安全地驾驶对象自动驾驶车辆。
为了获取交通状况信息,附近虚拟车辆发出警鸣并降低速度的逻辑必须预先编程。具体地,虚拟世界可编程为:(i)如果检测到附近车辆在第一阈值时间内有可能与对象自动驾驶车辆发生碰撞,则使得在虚拟世界中距对象自动驾驶车辆一定距离内的至少一辆附近车辆产生喇叭声,(ii)如果检测到附近车辆在第二阈值时间内有可能与对象自动驾驶车辆发生碰撞,则使附近车辆降低其速度。在此,第一阈值时间可以等于或大于第二阈值时间,因为驾驶员将鸣喇叭,以避免降低自己的车辆的速度。显然,这仅仅是示例实施例中的一个,并且第一阈值时间和第二阈值时间可以任意设置。
如果附近虚拟车辆的逻辑是按照这样实现的,则可以与现实情况类似地获取交通状况信息。该自动驾驶车辆可以在虚拟世界中按照这样实现,并且可以通过在虚拟世界中驾驶自动驾驶车辆的过程中调整神经网络运算的参数来学习。在实施如上所述的学习过程之后,可以在虚拟世界中实现与现实情况类似的环境,因此,可以针对虚拟世界中的各种情况进行安全的学习,而不会发生任何事故,例如,交通拥堵、在蜿蜒的道路上或在山路上行驶等。
图5是示意性地示出了根据本发明的一个实施例的基于强化学习来测试在协同驾驶中用于自动驾驶车辆的传感器融合的传感器融合网络的测试设备。测试设备200可包括:存储器220,用于存储指令,以基于强化学习在自动驾驶车辆的协同驾驶中测试传感器融合网络的多对象传感器;以及处理器230,用于执行与存储器220中的指令相对应的处理。
具体地,测试设备200通常可以通过使用至少一个计算设备和至少一个计算机软件的组合来实现期望的系统性能,例如,计算机处理器、内存、存储器、输入设备、输出设备或任何其他常规计算组件、电子通讯设备(例如,路由器或交换机)、电子信息存储系统(例如,作为计算设备的网络附加存储(NAS)设备和存储区域网络(SAN))、以及任何允许计算设备以特定方式充当计算机软件的指令。
计算设备的处理器可以包括MPU(微处理单元)或CPU(中央处理单元)、高速缓冲存储器、数据总线等硬件配置。另外,计算设备可进一步包括操作系统、实现特定目的的应用的软件配置。
然而,对计算设备的这种描述不排除包括用于实现本发明的处理器、存储器、介质或任何其他计算组件的任何组合的集成设备。
以下描述了一种方法的方法,该方法用于通过使用根据本发明的一个示例的测试设备200在基于强化学习的协同驾驶中测试用于多对象传感器融合的传感器融合网络。在下面的描述中,从图2至图4的说明容易得出的部分将省略。
首先,如上所述,可以基于强化学习来学习过用于对象自动驾驶车辆的传感器融合的传感器融合网络。
也就是说,传感器融合网络可能已经执行以下过程的学习设备来学习:(a)如果获得包括(i-1)对象自动驾驶车辆,(i-2)包括第一虚拟车辆的m个学习用协同驾驶车辆,该第一虚拟车辆与对象自动驾驶车辆执行协同驾驶,以及(i-3)在虚拟环境中执行非协同驾驶的第二虚拟车辆的(i)学习用驾驶图像,以及(ii)在m个学习用协同驾驶车辆的每一辆中的n个学习用传感器的多个学习用传感器状态信息,则将学习用驾驶图像和多个学习用传感器状态信息输入到传感器融合网络140,使得传感器融合网络140,(i)生成学习用传感器融合概率,该传感器融合概率是m个学习用协同驾驶车辆中的每一辆,通过将神经网络运算应用于学习用行驶图像和多个学习用传感器状态信息,使得通过V2V通讯传输n个学习用传感器中的每一个传感器值以进行协同驾驶的概率,(ii)生成学习用融合传感器信息,所述学习用融合传感器信息是对应于学习用传感器融合概率中具有预设阈值以上的概率的s个学习用传感器的信息,(b)将通过响应于学习用融合传感器信息,通过V2V通讯获得的学习用道路驾驶视频输入检测网络,使得检测网络检测学习用对象自动驾驶车辆的行驶道路上的至少一部分第二虚拟车辆、一个或多个行人以及一个或多个车道,从而输出学习用附近物体信息;将通过响应于学习用融合传感器信息,通过V2V通讯获取的学习用传感器值和学习用附近物体信息输入到驾驶网络,使得驾驶网络通过参考学习用传感器值和学习用附近对象信息,来生成m个学习用协同驾驶车辆中的每一个的移动方向概率,从而通过参考学习用移动方向概率来驾驶对象自动驾驶车辆;和(c)获取通过驾驶网络驱动的对象自动驾驶车辆的学习用交通状况信息,通过参考学习用交通状况信息来产生反馈的过程,通过利用反馈来学习传感器融合网络。
此时,如果获得包括(i-1)测试用对象自动驾驶车辆,(i-2)包括第一车辆的k个测试用协同驾驶车辆,该第一车辆与该测试用对象自动驾驶车辆进行协同驾驶,以及(i-3)执行非协同驾驶的第二车辆的(i)测试用驾驶图像,以及(ii)对应于k个学习用协同驾驶车辆中的每一辆中的i个学习用传感器的多个测试用传感器状态信息,则所述k个测试用协同驾驶车辆中的至少一个的测试设备200执行如下过程:将测试用驾驶图像和测试用多个传感器状态信息输入到传感器融合网络,从而使得传感器融合网络(i)生成测试用传感器融合概率,该传感器融合概率是k个测试用协同驾驶车辆中的每一辆,通过将神经网络运算应用于测试用行驶图像和多个测试用传感器状态信息,使得通过V2V通讯传输测试用n个传感器中的每一个传感器值以进行协同驾驶的概率,和(ii)生成测试用融合传感器信息,所述测试用融合传感器信息是对应于学习用传感器融合概率具有预设阈值以上的s个测试用传感器的信息,以及(iii)通过V2V通讯,将s个测试用传感器上的测试用融合传感器信息发送给至少一部分的k个测试用协同驾驶车辆中。
也就是说,所述k个测试用协同驾驶车辆中的至少一个的测试设备200执行如下过程:将测试用驾驶图像和多个测试用传感器信息输入到传感器融合网络140,使得传感器融合网络140,(i)通过将使用CNN的卷积运算应用于测试用驾驶图像,生成测试用特征映射,通过将完全连接的操作应用于测试用特征映射,生成测试用图像特征向量,(ii)通过将使用至少一个LSTM的递归神经网络运算应用于测试用多个传感器状态信息,生成测试用传感器状态特征向量,以及(iii)通过将测试用图像特征向量和测试用传感器状态特征向量进行级联,生成测试用级联特征向量,通过将至少一个完全连接层的完全连接操作应用于测试用级联特征向量,生成测试用传感器融合概率。
在一实施例中,测试设备200可以作为输入1,将CNN应用于所述测试用驾驶图像。即,测试设备200可以将测试用驾驶图像输入到至少一个卷积层中,并且可以指示卷积层将其至少一项卷积操作应用于测试用驾驶图像,从而生成至少一个测试用特征映射。
并且,测试设备200可以将测试用特征映射输入到至少一个FC层中,使得FC层对测试用特征映射适用完全连接的操作,从而生成测试用图像特征向量。
另外,测试设备200可以作为输入2,将多个测试用传感器状态信息输入到至少一个LSTM(长短期存储器)中,使得LSTM将递归神经网络运算应用于多个测试用传感器状态信息,从而生成测试用传感器状态特征向量。
此后,测试设备200可将测试用图像特征向量和测试用传感器状态特征向量进行级联来生成测试用级联特征向量,并可以将测试用级联特征向量输入至FC层,从而通过将完全连接的操作应用于测试用级联特征向量,允许FC层生成测试用传感器融合概率。
接下来,k个测试用协同驾驶车辆中的至少一个的测试设备200可以执行以下过程:将通过响应于测试用融合传感器信息,通过V2V通讯获取的测试用道路驾驶视频输入到检测网络150中,使得检测网络150检测对象自动驾驶车辆的行驶道路上的至少一部分第二虚拟车辆、行人和车道,从而输出测试用附近的物体信息。
此后,测试设备200可执行以下过程:将通过响应于学习用融合传感器信息,通过V2V通讯获取的测试用传感器值以及测试用附近的对象信息输入到驾驶网络160中,使得驾驶网络160通过参考测试用传感器值和附近的测试用物体信息,生成测试用k个测试用协同驾驶车辆中的每一个的移动方向概率,从而通过参考测试用移动方向概率来驾驶对象自动驾驶车辆。
同时,如果测试设备200以集中形式执行网络运算,则单个代理可以通过V2V通讯以聚集的形式从所有代理(即,k个测试用协同驾驶车辆)接收测试用驱动图像和多个测试用传感器状态信息,即多对一(all-to-one),单个代理可以执行计算并将其结果作为V2V广播发送,即一对多(one-to-all)。
另外,如果将网络运算的至少一部分划分为分布式处理,所有代理都可以执行计算负荷较轻的LSTM部分的网络运算,所有代理中的特定代理可以执行计算负荷较重的CNN部分的网络运算,并可以通过V2V通讯广播其中间结果,并且所有代理都可以执行汇总LSTM和CNN中间结果的部分以及计算最终结果的部分。因此,特定代理处理重负载的CNN部分,并且所有代理都轮流处理重负载,因此平均负载可能会降低。
也就是说,如果k个测试用协同驾驶车辆中的特定车辆允许特定的CNN将多个卷积运算应用于测试用行驶图像从而生成测试用特征映射,将完全连接的操作应用于测试用特征映射,从而生成测试用图像特征向量,则k个测试用协同驾驶车辆中的至少一个的测试设备200可以通过V2V通讯从k个测试用协同驾驶车辆中的至少一个获取测试用图像特征向量。并且,测试设备200可允许至少一个LSTM将递归神经网络运算应用于多个测试用传感器状态信息,从而生成测试用传感器状态特征向量。之后,测试设备200可以通过将V2V通讯获取的测试用图像特征向量和测试用传感器状态特征向量进行级联来生成测试用级联特征向量,并可以通过对测试用级联特征向量进行完全连接的操作,使得至少一个FC层生成测试用传感器融合概率。
在此,特定车辆允许特定的CNN将卷积运算应用于测试用驾驶图像从而生成测试用特征映射,并允许特定的CNN将完全连接的运算应用于测试用特征映射从而生成测试用图像特征向量,该特定车辆可以是根据循环调度以规定的间隔依次指定的k个测试用协同驾驶车辆之一。
根据本发明,可以根据行进路的情况以及自动驾驶车辆的一种或多种传感器状态,在协同驾驶模式下运行的基于多对象强化学习的自动驾驶车辆,可以选择应通过V2V通讯将传感器信息中的哪一部分相互传输,确定应如何改变在协同驾驶模式下的所有自动驾驶车辆的至少一部分的协同驾驶形式,并且可以通过使用V2V信息融合和多对象传感器融合中的一种得到传感器信息执行自动驾驶,并可以将自己重新定位到最佳位置以进行协同驾驶,如果它们自己的传感器的一部分不能工作,则可以在协同驾驶模式下利用来自其他自动驾驶车辆的传感器信息,从而实现功能安全。并且,可以通过来自虚拟驾驶的训练来更新自动驾驶车辆的可靠性。如上所述的本发明的实施例可通过可记录到计算机可读记录介质的各种计算机装置以可执行程序命令的形式来实现。计算机可读介质可以单独地或组合地包括程序命令、数据文件和数据结构等。记录到所述计算机可读记录介质的程序命令可以是为本发明专门设计并构成的命令,或者可以是对计算机软件领域的技术人员公知的可用的命令。计算机可读记录介质包括磁性介质(例如硬盘,软盘和磁带),光学介质(例如CD-ROM和DVD),磁光介质(例如光磁软盘)和硬件设备(例如专门设计用于存储和执行程序命令的ROM、RAM和闪存)。所述程序命令不仅包括由编译器生成的机器语言代码,而且包括可由计算机适用解释器等执行的高级语言代码。前述硬件设备可以作为至少一个软件模块来执行本发明的处理,反之亦然。
如上所述,本发明已通过诸如详细的构成要素等特定事项以及有限的实施例和附图来进行说明。提供它们仅仅是为了帮助对本发明的进一步整体上的理解。然而,可以在不背离如所附权利要求所限定的本发明的主旨和范围的前提下,根据说明书进行各种改变和修改。
因此,本发明的思想不应该限于所解释的实施例,并且以下权利要求书以及包括与权利要求书的范围等同或等价的变型在内的所有内容都属于本发明的思想范畴。
Claims (26)
1.一种用于学习传感器融合网络的方法,该传感器融合网络用于执行协同驾驶的自动驾驶车辆的传感器融合,包括以下步骤:
(a)如果获取到包括(i-1)对象自动驾驶车辆,(i-2)包括具有第一虚拟车辆的m个学习用协同驾驶车辆,该第一虚拟车辆与对象自动驾驶车辆执行协同驾驶,和(i-3)执行非协同驾驶的第二虚拟车辆的(i)学习用驾驶图像,以及(ii)对应于所述m个学习用协同驾驶车辆中的每一辆的n个学习用传感器的多个学习用传感器状态信息,则学习设备执行如下过程:将所述学习用驾驶图像和所述多个学习用传感器状态信息输入到所述传感器融合网络的过程,从而使得传感器融合网络执行如下过程:(a-1)生成学习用传感器融合概率(sensorfusion probabilities),该传感器融合概率是所述m个学习用协同驾驶车辆中的每一辆,通过将神经网络运算应用于所述学习用行驶图像和所述多个学习用传感器状态信息,使得通过V2V通讯传输所述n个学习用传感器中的每一个传感器值以进行协同驾驶的概率,(a-2)生成学习用融合传感器信息,所述学习用融合传感器信息是对应于所述学习用传感器融合概率中具有预设阈值以上的概率的s个学习用传感器的信息,其中,s为1至m×n的整数;
(b)所述学习设备执行如下过程:将通过响应于所述学习用融合传感器信息、通过V2V通讯获得的所述学习用道路驾驶视频输入至检测网络,使得检测网络检测所述对象自动驾驶车辆的行驶道路上的至少一部分第二虚拟车辆、一个或多个行人以及一个或多个车道,从而输出学习用附近对象信息;以及将通过响应于所述学习用融合传感器信息、通过V2V通讯获取的学习用传感器值和所述学习用附近物体信息输入到驾驶网络,使得驾驶网络通过参考所述学习用传感器值和所述学习用附近对象信息,来生成所述m个学习用协同驾驶车辆中的每一个的移动方向概率,通过参考所述学习用移动方向概率来驾驶所述对象自动驾驶车辆;以及
(c)所述学习设备执行以下过程:获取由所述驾驶网络驱动的所述对象自动驾驶车辆的学习用交通状况信息,通过参考学习用交通状况信息来产生反馈,通过利用所述反馈来学习传感器融合网络。
2.如权利要求1所述的方法,其中,在所述步骤(a)中,所述学习设备执行如下过程:将所述学习用驾驶图像和所述多个学习用传感器状态信息输入到所述传感器融合网络,使得传感器融合网络,(i)通过将使用CNN的卷积运算应用于所述学习用驾驶图像,从而生成学习用特征映射,通过将完全连接的操作应用于所述学习用特征映射,从而生成学习用图像特征向量,(ii)通过将使用至少一个LSTM的递归神经网络运算应用于所述多个学习用传感器状态信息,从而生成学习用传感器状态特征向量,(iii)通过将所述学习用图像特征向量和所述学习用传感器状态特征向量进行级联,从而生成学习用级联特征向量,通过将至少一个完全连接层的完全连接操作应用于所述学习用级联特征向量,从而生成学习用传感器融合概率。
3.如权利要求2所述的方法,其中,所述学习设备通过利用所述反馈更新包括在所述传感器融合网络中的所述CNN、所述至少一个LSTM以及所述至少一个完全连接层的至少一个参数。
4.如权利要求2所述的方法,其中,所述学习设备使得所述传感器融合网络,(i)通过池化层将最大池化操作应用于所述学习用特征映射,将完全连接操作应用于上述结果,从而生成学习用图像特征向量。
5.如权利要求2所述的方法,其中,所述学习设备通过使用softmax算法对每个所述学习用传感器融合概率进行归一化并输出。
6.如权利要求1所述的方法,其中,所述反馈通过从所述m个学习用协同驾驶车辆中的每一个的所述n个学习用传感器的数量之和中减去所述s个学习用传感器的数量来产生,
所述学习设备通过参考所述学习用交通状况信息来增加或减少所述反馈。
7.如权利要求1所述的方法,其中,所述学习用驾驶图像是所述m个学习用协同驾驶车辆处于协同驾驶中整个道路的整个道路图像,是具有m+1个通道的图像,该通道表示将整个道路图像划分为网格而生成的每个特定大小的块是否被每个所述m个学习用协同驾驶车辆占据或被整个所述第二虚拟车辆占据,所述m+1个通道中的每个m个通道分别对应于每个所述m个学习用协同驾驶车辆,其余一个通道对应于第二虚拟车辆。
8.一种用于测试传感器融合网络的方法,该传感器融合网络用于执行协同驾驶的自动驾驶车辆的传感器融合,包括以下步骤:
(a)在学习设备执行如下过程:如果获得到包括(i-1)学习用对象自动驾驶车辆,(i-2)包括第一虚拟车辆的m个学习用协同驾驶车辆,该第一虚拟车辆与所述学习用对象自动驾驶车辆执行协同驾驶,以及(i-3)执行非协同驾驶的第二虚拟车辆的(i)学习用驾驶图像,以及(ii)对应于每个所述m个学习用协同驾驶车辆的n个学习用传感器的多个学习用传感器状态信息,则执行如下过程:(1)将所述学习用驾驶图像和所述多个学习用传感器状态信息输入到所述传感器融合网络,使得传感器融合网络,(1-1)生成学习用传感器融合概率,该传感器融合概率是每个m个学习用协同驾驶车辆,通过将神经网络运算应用于所述学习用行驶图像和所述多个学习用传感器状态信息,使得通过V2V通讯传输所述n个学习用传感器中的每个传感器值以进行协同驾驶的概率,(1-2)生成学习用融合传感器信息,所述学习用融合传感器信息是对应于学习用传感器融合概率中具有预设阈值以上的概率的s个学习用传感器的信息,s为1至m×n的整数,(2)通过将响应于所述学习用融合传感器信息,通过V2V通讯获得的学习用道路驾驶视频输入至检测网络的过程,使得所述检测网络检测所述学习用对象自动驾驶车辆的行驶道路上的至少一部分第二虚拟车辆、一个或多个行人以及一个或多个车道,从而输出学习用附近物体信息,(3)通将过响应于所述学习用融合传感器信息,通过V2V通讯获取的学习用传感器值和所述学习用附近物体信息输入到驾驶网络,使得驾驶网络通过参考所述学习用传感器值和所述学习用附近对象信息,来生成每个所述m个学习用协同驾驶车辆的移动方向概率,从而通过参考学习用移动方向概率来驾驶对象自动驾驶车辆;和(4)获取通过所述驾驶网络驱动的所述学习用对象自动驾驶车辆的学习用交通状况信息,通过参考所述学习用交通状况信息来产生反馈,通过利用所述反馈来学习传感器融合网络,在已经执行了上述过程的情况下,如果获得到包括(i-1)测试用对象自动驾驶车辆,(i-2)包括第一车辆的k个测试用协同驾驶车辆,该第一车辆与该测试用对象自动驾驶车辆进行协同驾驶以及(i-3)执行非协同驾驶的第二车辆的(i)测试用驾驶图像,以及(ii)对应于每个所述k个测试用协同驾驶车辆的i个测试用传感器的多个学习用传感器状态信息,则所述k个测试用协同驾驶车辆中的至少一个协同驾驶车辆的测试设备执行如下过程:将所述测试用驾驶图像和所述多个测试用传感器状态信息输入到传感器融合网络,使得所述传感器融合网络,(a-1)生成测试用传感器融合概率,该传感器融合概率是每个所述k个测试用协同驾驶车辆,通过将神经网络运算应用于所述测试用行驶图像和所述多个测试用传感器状态信息,使得通过V2V通讯传输每个所述测试用n个传感器的每个传感器值以进行协同驾驶的概率,(a-2)生成测试用融合传感器信息,所述测试用融合传感器信息是对应于测试用传感器融合概率中具有预设阈值以上的概率的s个测试用传感器的信息,(a-3)通过V2V通讯,将所述s个测试用传感器上的所述测试用融合传感器信息发送至至少一部分的所述k个测试用协同驾驶车辆;
(b)所述k个测试用协同驾驶车辆中的至少一个协同驾驶车辆的测试设备执行过程:将通过响应于测试用融合传感器信息、通过V2V通讯获取的测试用道路驾驶视频输入到所述检测网络,使得所述检测网络检测所述测试用对象自动驾驶车辆的行驶道路上的至少部分第二车辆、行人和车道,从而输出测试用附近物体信息;以及将通过响应于所述测试用融合传感器信息、通过V2V通讯获取的所述测试用传感器值和所述测试用附近物体信息输入到驾驶网络中,使得所述驾驶网络通过参考所述测试用传感器值和所述测试用附近对象信息,来生成每个所述k个学习用协同驾驶车辆的移动方向概率,从而通过参考所述测试用移动方向概率来驾驶对象自动驾驶车辆。
9.如权利要求8所述的方法,其中,在所述步骤(a)中,所述k个测试用协同驾驶车辆中的至少一个协同驾驶车辆的测试设备执行过程:将所述测试用驾驶图像和多个测试用传感器状态信息输入到所述传感器融合网络,使得传感器融合网络,(i)通过将使用CNN的卷积运算应用于所述测试用驾驶图像,生成测试用特征映射,通过将完全连接的操作应用于所述测试用特征映射,生成测试用图像特征向量,(ii)通过将使用至少一个LSTM的递归神经网络运算应用于所述多个测试用传感器状态信息,生成所述测试用传感器状态特征向量,(iii)通过将所述测试用图像特征向量和所述测试用传感器状态特征向量进行级联,生成测试用级联特征向量,通过将至少一个完全连接层的完全连接操作应用于所述测试用级联特征向量,生成测试用传感器融合概率。
10.如权利要求9所述的方法,其中,所述k个测试用协同驾驶车辆中的至少一个协同驾驶车辆的所述测试设备通过指令所述传感器融合网络,使得池化层将最大池化操作应用于所述测试用特征映射,然后将完全连接操作应用于上述结果,从而生成测试用图像特征向量。
11.如权利要求9所述的方法,其中,所述k个测试用协同驾驶车辆中的至少一个协同驾驶车辆的所述测试设备使用softmax算法对每个所述测试用传感器融合概率进行归一化并输出。
12.如权利要求8所述的方法,其中,在上述步骤(a)中,所述k个测试用协同驾驶车辆中的至少一个协同驾驶车辆的测试设备执行如下过程:(i)通过将使用特定的CNN的多次卷积运算应用于从所述k个测试用协同驾驶车辆中的特定的协同驾驶车辆获取的所述测试用驾驶图像,生成测试用特征映射;以及,如果通过将完全连接操作应用于所述测试用特征映射生成测试用图像特征向量,则通过V2V通讯从特定的协同驾驶车辆获取所述测试用图像特征向量,(ii)通过将使用至少一个LSTM的递归神经网络运算应用于所述多个测试用传感器状态信息来生成测试用传感器状态特征向量,以及(iii)通过级联通过V2V通讯获取的所述测试用图像特征向量和所述测试用传感器状态特征向量,生成测试用级联特征向量;以及通过将至少一个完全连接层的完全连接操作应用于所述测试用级联特征向量,生成所述测试用传感器融合概率。
13.如权利要求12所述的方法,其中,所述特定车辆使得特定的CNN将卷积运算应用于所述测试用驾驶图像从而生成测试用特征映射,使得完全连接运算应用于所述测试用特征映射从而生成所述测试用图像特征向量,该特定车辆可以是根据循环调度以规定的间隔依次指定的所述k个测试用协同驾驶车辆之一。
14.一种用于学习传感器融合网络的学习设备,该传感器融合网络用于执行协同驾驶的自动驾驶车辆的传感器融合,该学习设备包括:
至少一个存储指令的存储器;以及
至少一个处理器,配置为执行指令以完成如下过程:(I)如果获得到包括(i-1)对象自动驾驶车辆,(i-2)包括第一虚拟车辆的m个学习用协同驾驶车辆,该第一虚拟车辆与所述对象自动驾驶车辆执行协同驾驶,以及(i-3)执行非协同驾驶的第二虚拟车辆的(i)学习用驾驶图像,以及(ii)对应于每个所述m个学习用协同驾驶车辆的n个学习用传感器的多个学习用传感器状态信息,则通过将学习用驾驶图像和所述多个学习用传感器状态信息输入到所述传感器融合网络,使得所述传感器融合网络(I-1)生成学习用传感器融合概率,该传感器融合概率是每个所述m个学习用协同驾驶车辆,通过将神经网络运算应用于所述学习用行驶图像和多个学习用传感器状态信息,使得通过V2V通讯传输n个学习用传感器中的每个传感器值以进行协同驾驶的概率,(I-2)生成学习用融合传感器信息,所述学习用融合传感器信息是对应于学习用传感器融合概率中预设阈值以上的概率的s个学习用传感器的信息,s为1至m×n的整数,(II)将通过响应于所述学习用融合传感器信息,通过V2V通讯获得的学习用道路驾驶视频输入至所述检测网络,使得所述检测网络检测对象自动驾驶车辆的行驶道路上的至少一部分第二虚拟车辆、一个或多个行人以及一个或多个车道,从而输出学习用附近物体信息,将通过响应于学习用融合传感器信息,通过V2V通讯获取的所述学习用传感器值和所述学习用附近物体信息输入到驾驶网络,使得驾驶网络通过参考学习用传感器值和学习用附近对象信息,来生成每个所述m个学习用协同驾驶车辆的移动方向概率,从而通过参考所述学习用移动方向概率来驾驶对象自动驾驶车辆;和(III)获取通过所述驾驶网络驱动的所述对象自动驾驶车辆的所述学习用交通状况信息,通过参考学习用交通状况信息来生成反馈,通过利用所述反馈来学习传感器融合网络。
15.如权利要求14所述的学习设备,其中,在所述过程(I)中,所述处理器执行如下过程:将所述学习用驾驶图像和所述多个学习用传感器状态信息输入到所述传感器融合网络,使得所述传感器融合网络(i)通过将使用CNN的卷积运算应用于所述学习用驾驶图像,生成学习用特征映射,通过将完全连接的操作应用于所述学习用特征映射,生成学习用图像特征向量,(ii)通过将使用至少一个LSTM的递归神经网络运算应用于所述多个学习用传感器状态信息,生成学习用传感器状态特征向量,(iii)通过将学习用图像特征向量和学习用传感器状态特征向量进行级联,生成学习用级联特征向量,通过将至少一个完全连接层的完全连接操作应用于学习用级联特征向量,生成学习用传感器融合概率。
16.如权利要求15所述的学习设备,其中,所述处理器通过利用所述反馈更新包括在所述传感器融合网络中的所述CNN、所述至少一个LSTM以及所述至少一个完全连接层的至少一个参数。
17.如权利要求15所述的学习设备,其中,所述处理器使得传感器融合网络,通过池化层将最大池化操作应用于所述学习用特征映射,然后将完全连接操作应用于上述结果,从而生成学习用图像特征向量。
18.如权利要求15所述的学习设备,其中,所述处理器通过softmax算法对每个学习用传感器融合概率进行归一化并输出。
19.如权利要求14所述的学习设备,其中,所述反馈通过从每个所述m个学习用协同驾驶车辆的所述n个学习用传感器的数量之和中减去所述s个学习用传感器的数量来生成,
所述处理器通过参考学习用交通状况信息来增加或减少所述反馈。
20.如权利要求14所述的学习设备,其中,所述学习用驾驶图像是所述m个学习用协同驾驶车辆处于协同驾驶的整个道路的整个道路图像,,是具有m+1个通道的图像,该通道表示将整个道路图像划分为网格的每个特定大小的块是否被每个所述m个学习用协同驾驶车辆占据或被整个所述第二虚拟车辆占据,所述m+1个通道中的每个所述m个通道分别对应于每个所述m个学习用协同驾驶车辆,其余一个通道对应于所述第二虚拟车辆。
21.一种k个测试用协同驾驶车辆中的至少一个协同驾驶车辆的测试设备,该测试设备用于测试传感器融合网络,该传感器融合网络用于执行协同驾驶的自动驾驶车辆的传感器融合,该测试设备包括:
至少一个存储指令的存储器;和
至少一个处理器,用于执行所述指令来完成如下过程:(I)所述学习设备执行如下过程,如果获得到包括(i-1)学习用对象自动驾驶车辆,(i-2)包括第一虚拟车辆的m个学习用协同驾驶车辆,该第一虚拟车辆与学习用对象自动驾驶车辆执行协同驾驶,以及(i-3)执行非协同驾驶的第二虚拟车辆的(i)学习用驾驶图像,以及(ii)对应于每个所述m个学习用协同驾驶车辆的n个学习用传感器的多个学习用传感器状态信息,则执行如下过程:(1)将所述学习用驾驶图像和所述多个学习用传感器状态信息输入到所述传感器融合网络,使得所述传感器融合网络,(1-1)生成学习用传感器融合概率,该传感器融合概率是每个所述m个学习用协同驾驶车辆,通过将神经网络运算应用于所述学习用行驶图像和所述多个学习用传感器状态信息,通过V2V通讯传输每个所述n个学习用传感器的传感器值以进行协同驾驶的概率,(1-2)生成学习用融合传感器信息,所述学习用融合传感器信息是对应于所述学习用传感器融合概率中具有预设阈值以上的概率的s个学习用传感器的信息,s为1至m×n的整数,(2)将通过响应于所述学习用融合传感器信息,通过V2V通讯获得的所述学习用道路驾驶视频输入至检测网络,使得所述检测网络检测所述学习用对象自动驾驶车辆的行驶道路上的至少一部分第二虚拟车辆、一个或多个行人以及一个或多个车道,从而输出学习用附近物体信息,(3)将通过响应于学习用融合传感器信息、通过V2V通讯获取的所述学习用传感器值和所述学习用附近物体信息输入到所述驾驶网络,使得所述驾驶网络通过参考所述学习用传感器值和所述学习用附近对象信息,来生成所述m个学习用协同驾驶车辆中的每一个的移动方向概率,从而通过参考所述学习用移动方向概率来驾驶对象自动驾驶车辆;以及(4)获取通过所述驾驶网络驱动的所述对象自动驾驶车辆的所述学习用交通状况信息,通过参考所述学习用交通状况信息来生成反馈,通过利用所述反馈来学习所述传感器融合网络,在已执行上述过程的情况下:如果获得到包括(i-1)测试用对象自动驾驶车辆,(i-2)包括第一车辆的k个测试用协同驾驶车辆,该第一车辆与该测试用对象自动驾驶车辆进行协同驾驶,以及(i-3)执行非协同驾驶的第二车辆的(i)测试用驾驶图像,以及(ii)对应于每个所述k个测试用协同驾驶车辆的i个测试用传感器的多个测试用传感器状态信息,则执行如下过程:通过将测试用驾驶图像和多个测试用传感器状态信息输入到所述传感器融合网络,使得所述传感器融合网络,(I-1)生成测试用传感器融合概率,该传感器融合概率是所述k个测试用协同驾驶车辆中的每一辆,通过将神经网络运算应用于所述测试用行驶图像和所述多个测试用传感器状态信息,通过V2V通讯传输所述i个测试用传感器中的每个传感器值以进行协同驾驶的概率,(I-2)生成测试用融合传感器信息,所述测试用融合传感器信息对应于在学习用传感器融合概率中具有预设阈值以上的概率的s个测试用传感器的信息,以及(I-3)通过V2V通讯,将对应于所述s个测试用传感器的测试用融合传感器信息发送给至少一部分的所述k个测试用协同驾驶车辆;(II)将通过响应于所述测试用融合传感器信息,通过V2V通讯获取的所述测试用行车视频输入到所述检测网络,使得所述检测网络检测所述测试用对象自动驾驶车辆的行驶道路上的至少部分第二车辆、行人和车道,从而输出测试用附近物体信息;以及将通过响应于用于训测试的融合传感器信息,通过V2V通讯获取的所述测试用传感器值和所述测试用附近物体信息输入到所述驾驶网络,使得所述驾驶网络通过参考所述测试用传感器值和所述测试用附近对象信息,来生成所述k个学习用协同驾驶车辆中的每一个的移动方向概率,从而通过参考所述测试用移动方向概率来驾驶对象自动驾驶车辆。
22.如权利要求21所述的学习设备,其中,在所述过程(I)中,所述处理器执行过程:将所述测试用驾驶图像和所述多个测试用传感器状态信息输入到所述传感器融合网络,使得所述传感器融合网络,(i)通过将使用CNN的卷积运算应用于所述测试用驾驶图像,生成测试用特征映射,通过将完全连接的操作应用于测试用特征映射,生成测试用图像特征向量,(ii)通过将使用至少一个LSTM的递归神经网络运算应用于所述多个测试用传感器状态信息,生成测试用传感器状态特征向量,以及(iii)通过将所述测试用图像特征向量和所述测试用传感器状态特征向量进行级联,生成测试用级联特征向量,通过将至少一个完全连接层的完全连接操作应用于所述测试用级联特征向量,生成测试用传感器融合概率。
23.如权利要求22所述的学习设备,其中,所述处理器使得所述传感器融合网络,通过池化层将最大池化操作应用于所述测试用特征映射,然后(将完全连接操作应用于上述结果,从而生成测试用图像特征向量。
24.如权利要求22所述的学习设备,其中,所述处理器通过使用softmax算法对每个所述测试用传感器融合概率进行归一化并输出。
25.如权利要求21所述的学习设备,其中,在所述(I)的过程中,所述处理器执行如下过程:(i)通过将使用特定的CNN的多次卷积运算应用于从所述k个测试用协同驾驶车辆中的特定的协同驾驶车辆获取的测试用驾驶图像,生成测试用特征映射;以及如果通过将完全连接操作应用于所述测试用特征映射生成测试用图像特征向量,则通过V2V通讯从所述特定的协同驾驶车辆获取所述测试用图像特征向量,(ii)通过将使用至少一个LSTM的递归神经网络运算应用于所述多个测试用传感器状态信息来生成测试用传感器状态特征向量,以及(iii)通过V2V通讯,将获取的所述测试用图像特征向量和所述测试用传感器状态特征向量进行级联,生成测试用级联特征向量;以及通过将至少一个完全连接层的完全连接操作应用于所述测试用级联特征向量,生成测试用传感器融合概率。
26.如权利要求25所述的学习设备,其中,所述特定车辆使得特定的CNN,将卷积运算应用于所述测试用驾驶图像从而生成测试用特征映射,使得将完全连接的运算应用于所述测试用特征映射从而生成测试用图像特征向量,该特定车辆是根据循环调度以规定的间隔依次指定的所述k个测试用协同驾驶车辆之一。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962798967P | 2019-01-30 | 2019-01-30 | |
US62/798,967 | 2019-01-30 | ||
US16/723,820 US10627823B1 (en) | 2019-01-30 | 2019-12-20 | Method and device for performing multiple agent sensor fusion in cooperative driving based on reinforcement learning |
US16/723,820 | 2019-12-20 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111507372A true CN111507372A (zh) | 2020-08-07 |
CN111507372B CN111507372B (zh) | 2023-10-20 |
Family
ID=70285087
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010071586.6A Active CN111507372B (zh) | 2019-01-30 | 2020-01-21 | 在执行协同驾驶中的多智能体传感器的方法和装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10627823B1 (zh) |
EP (1) | EP3690711A1 (zh) |
JP (1) | JP6913969B2 (zh) |
KR (1) | KR102325028B1 (zh) |
CN (1) | CN111507372B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114205053A (zh) * | 2021-11-15 | 2022-03-18 | 北京邮电大学 | 卫星通信系统强化学习自适应编码调制方法、系统及装置 |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109977793B (zh) * | 2019-03-04 | 2022-03-04 | 东南大学 | 基于变尺度多特征融合卷积网络的路侧图像行人分割方法 |
US11095741B2 (en) * | 2019-07-11 | 2021-08-17 | Ghost Locomotion Inc. | Value-based transmission in an autonomous vehicle |
US11221897B2 (en) * | 2019-09-11 | 2022-01-11 | International Business Machines Corporation | Managing device maintenance via artificial intelligence |
CN111625942B (zh) * | 2020-05-12 | 2023-09-01 | 招商局检测车辆技术研究院有限公司 | 基于综测仪的车路协同应用测评系统及方法 |
DE102020121150A1 (de) * | 2020-08-11 | 2022-02-17 | Bayerische Motoren Werke Aktiengesellschaft | Trainieren eines Reinforcement Learning Agenten zur Steuerung eines autonomen Systems |
DE102020210376A1 (de) * | 2020-08-14 | 2022-02-17 | Robert Bosch Gesellschaft mit beschränkter Haftung | Vorrichtung und Verfahren zum Steuern eines Hardware-Agenten in einer Steuersituation mit mehreren Hardware-Agenten |
CN112085165A (zh) * | 2020-09-02 | 2020-12-15 | 中国第一汽车股份有限公司 | 一种决策信息生成方法、装置、设备及存储介质 |
US20240031786A1 (en) * | 2020-09-15 | 2024-01-25 | Lg Electronics Inc. | Method for performing reinforcement learning by v2x communication device in autonomous driving system |
US20220114433A1 (en) * | 2020-10-08 | 2022-04-14 | Toyota Motor Engineering & Manufacturing North America, Inc. | Methods and systems for enhanced scene perception using vehicle platoon |
KR20220098503A (ko) * | 2021-01-04 | 2022-07-12 | 오드컨셉 주식회사 | 중복 이미지 검출 방법 및 장치 |
CN113053122B (zh) * | 2021-03-23 | 2022-02-18 | 成都信息工程大学 | 基于wmgirl算法的可变交通管控方案中区域流量分布预测方法 |
US11809190B2 (en) | 2021-04-30 | 2023-11-07 | Zoox, Inc. | Methods and systems to assess vehicle capabilities |
KR20220150096A (ko) | 2021-05-03 | 2022-11-10 | 현대모비스 주식회사 | 딥러닝 머신 및 그 운용방법 |
WO2023204319A1 (ko) * | 2022-04-18 | 2023-10-26 | ㈜와토시스 | 차량 영상 데이터의 처리 장치 및 방법과 이 장치를 포함하는 시스템 |
CN117094377A (zh) * | 2022-05-10 | 2023-11-21 | 华为技术有限公司 | 测量方法及装置 |
KR102561345B1 (ko) * | 2023-02-02 | 2023-07-27 | 홍익대학교 산학협력단 | Drqn 기반 hvac 제어 방법 및 장치 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102009006113A1 (de) * | 2008-03-03 | 2009-09-10 | Volkswagen Ag | Vorrichtung und Verfahren zur Sensorfusion mit dynamischen Objekten |
US20130222127A1 (en) * | 2012-02-16 | 2013-08-29 | Bianca RAY AVALANI | Intelligent driver assist system based on multimodal sensor fusion |
US9139204B1 (en) * | 2014-06-12 | 2015-09-22 | GM Global Technology Operations LLC | Road surface condition detection with recursive adaptive learning and validation |
CN106218638A (zh) * | 2016-08-17 | 2016-12-14 | 北方工业大学 | 一种智能网联汽车协同换道控制方法 |
US20180067487A1 (en) * | 2016-09-08 | 2018-03-08 | Ford Global Technologies, Llc | Perceiving Roadway Conditions from Fused Sensor Data |
US20180136660A1 (en) * | 2016-11-17 | 2018-05-17 | GM Global Technology Operations LLC | Automated Co-Pilot Control For Autonomous Vehicles |
CN108196535A (zh) * | 2017-12-12 | 2018-06-22 | 清华大学苏州汽车研究院(吴江) | 基于增强学习和多传感器融合的自动驾驶系统 |
US20180237027A1 (en) * | 2017-02-21 | 2018-08-23 | Allstate Insurance Company | Data Processing System for Guidance, Control, and Testing Autonomous Vehicle Features and Driver Response |
US20190026597A1 (en) * | 2017-07-24 | 2019-01-24 | GM Global Technology Operations LLC | Deeply integrated fusion architecture for automated driving systems |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19855400A1 (de) * | 1998-12-01 | 2000-06-15 | Bosch Gmbh Robert | Verfahren und Vorrichtung zur Bestimmung eines zukünftigen Kursbereichs eines Fahrzeugs |
US7729857B2 (en) * | 2005-08-18 | 2010-06-01 | Gm Global Technology Operations, Inc. | System for and method of detecting a collision and predicting a vehicle path |
US9052207B2 (en) * | 2009-10-22 | 2015-06-09 | Tomtom Polska Sp. Z O.O. | System and method for vehicle navigation using lateral offsets |
US8473144B1 (en) * | 2012-10-30 | 2013-06-25 | Google Inc. | Controlling vehicle lateral lane positioning |
JP5991332B2 (ja) * | 2014-02-05 | 2016-09-14 | トヨタ自動車株式会社 | 衝突回避制御装置 |
DE102015220821A1 (de) * | 2015-10-26 | 2017-04-27 | Robert Bosch Gmbh | Steuern eines Kraftfahrzeugs |
US10486707B2 (en) * | 2016-01-06 | 2019-11-26 | GM Global Technology Operations LLC | Prediction of driver intent at intersection |
DE102016000185A1 (de) * | 2016-01-11 | 2017-07-13 | Trw Automotive Gmbh | Steuerungs-System und Verfahren zum Ermitteln einer Fahrspur eines nachfolgenden Kraftfahrzeugs |
DE102016000201A1 (de) * | 2016-01-11 | 2017-07-13 | Trw Automotive Gmbh | Steuerungs-System und Verfahren zum Ermitteln einer Fahrspurbelegung durch Kraftfahrzeuge |
EP3559600A2 (en) * | 2016-12-23 | 2019-10-30 | Mobileye Vision Technologies Ltd. | Navigational system with imposed liability constraints |
US10061322B1 (en) | 2017-04-06 | 2018-08-28 | GM Global Technology Operations LLC | Systems and methods for determining the lighting state of a vehicle |
US10553117B1 (en) * | 2018-11-06 | 2020-02-04 | Toyota Motor Engineering & Manufacturing North America, Inc. | System and method for determining lane occupancy of surrounding vehicles |
-
2019
- 2019-12-20 US US16/723,820 patent/US10627823B1/en active Active
-
2020
- 2020-01-06 KR KR1020200001715A patent/KR102325028B1/ko active IP Right Grant
- 2020-01-14 EP EP20151662.2A patent/EP3690711A1/en active Pending
- 2020-01-20 JP JP2020007152A patent/JP6913969B2/ja active Active
- 2020-01-21 CN CN202010071586.6A patent/CN111507372B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102009006113A1 (de) * | 2008-03-03 | 2009-09-10 | Volkswagen Ag | Vorrichtung und Verfahren zur Sensorfusion mit dynamischen Objekten |
US20130222127A1 (en) * | 2012-02-16 | 2013-08-29 | Bianca RAY AVALANI | Intelligent driver assist system based on multimodal sensor fusion |
US9139204B1 (en) * | 2014-06-12 | 2015-09-22 | GM Global Technology Operations LLC | Road surface condition detection with recursive adaptive learning and validation |
CN106218638A (zh) * | 2016-08-17 | 2016-12-14 | 北方工业大学 | 一种智能网联汽车协同换道控制方法 |
US20180067487A1 (en) * | 2016-09-08 | 2018-03-08 | Ford Global Technologies, Llc | Perceiving Roadway Conditions from Fused Sensor Data |
US20180136660A1 (en) * | 2016-11-17 | 2018-05-17 | GM Global Technology Operations LLC | Automated Co-Pilot Control For Autonomous Vehicles |
CN108073170A (zh) * | 2016-11-17 | 2018-05-25 | 通用汽车环球科技运作有限责任公司 | 用于自主车辆的自动化协同驾驶控制 |
US20180237027A1 (en) * | 2017-02-21 | 2018-08-23 | Allstate Insurance Company | Data Processing System for Guidance, Control, and Testing Autonomous Vehicle Features and Driver Response |
US20190026597A1 (en) * | 2017-07-24 | 2019-01-24 | GM Global Technology Operations LLC | Deeply integrated fusion architecture for automated driving systems |
CN108196535A (zh) * | 2017-12-12 | 2018-06-22 | 清华大学苏州汽车研究院(吴江) | 基于增强学习和多传感器融合的自动驾驶系统 |
Non-Patent Citations (1)
Title |
---|
AHMAD EL SALLAB ET AL.: ""Deep Reinforcement Learning framework for Autonomous Driving"", vol. 29, pages 70 - 76 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114205053A (zh) * | 2021-11-15 | 2022-03-18 | 北京邮电大学 | 卫星通信系统强化学习自适应编码调制方法、系统及装置 |
CN114205053B (zh) * | 2021-11-15 | 2023-04-07 | 北京邮电大学 | 卫星通信系统强化学习自适应编码调制方法、系统及装置 |
Also Published As
Publication number | Publication date |
---|---|
KR20200094641A (ko) | 2020-08-07 |
CN111507372B (zh) | 2023-10-20 |
JP6913969B2 (ja) | 2021-08-04 |
JP2020123335A (ja) | 2020-08-13 |
US10627823B1 (en) | 2020-04-21 |
KR102325028B1 (ko) | 2021-11-12 |
EP3690711A1 (en) | 2020-08-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111507372B (zh) | 在执行协同驾驶中的多智能体传感器的方法和装置 | |
US10688991B2 (en) | Systems and methods for unprotected maneuver mitigation in autonomous vehicles | |
US11783232B2 (en) | System and method for multi-agent reinforcement learning in a multi-agent environment | |
KR102328732B1 (ko) | 다양한 소스로부터 획득되는 정보의 퓨전을 통해 주변 객체의 모션을 예측함으로써, 사고 위험을 회피하여 안전한 자율 주행을 지원하는 학습 방법, 그리고 이를 이용한 학습 장치, 테스트 방법, 및 테스트 장치 | |
US10437247B2 (en) | Multi-stage operation of autonomous vehicles | |
KR102306939B1 (ko) | V2x 통신 및 이미지 처리를 이용한 정보 융합을 통해 자율 주행의 단기 경로를 플래닝하기 위한 방법 및 장치 | |
Zhan et al. | A non-conservatively defensive strategy for urban autonomous driving | |
CN110244701B (zh) | 用于基于自动生成的课程序列的自主车辆的强化学习的方法和装置 | |
RU2744640C1 (ru) | Варианты управления работой автономного транспортного средства | |
Sun et al. | Behavior planning of autonomous cars with social perception | |
US20200346666A1 (en) | Reinforcement and Model Learning for Vehicle Operation | |
JP2022119802A (ja) | 自律走行車動作管理のための方向調整アクション | |
US20210261123A1 (en) | Autonomous Vehicle Operation with Explicit Occlusion Reasoning | |
CN111833597B (zh) | 具有规划控制的交通情形中的自主决策 | |
CN109460042B (zh) | 一种自动驾驶控制方法及系统 | |
CN112714729A (zh) | 车辆的路径规划方法以及车辆的路径规划装置 | |
JP2021509992A (ja) | 集中型共有自律走行車動作管理 | |
US10836405B2 (en) | Continual planning and metareasoning for controlling an autonomous vehicle | |
Zhao et al. | Vehicle to vehicle communication and platooning for EV with wireless sensor network | |
US11529966B2 (en) | Risk prediction on a peer-to-peer network | |
US20210370984A1 (en) | System and method for estimating take-over time | |
US20230033297A1 (en) | Complementary control system for an autonomous vehicle | |
US20210398014A1 (en) | Reinforcement learning based control of imitative policies for autonomous driving | |
CN117002530A (zh) | 车辆未来运动轨迹预测方法、装置及无人驾驶设备 | |
CN116674593A (zh) | 用于自主车辆的具有异常检测的安全增强规划系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |