JP2020123335A - 強化学習に基づいて協同走行で多重エージェントセンサフュージョンを遂行する方法及び装置 - Google Patents
強化学習に基づいて協同走行で多重エージェントセンサフュージョンを遂行する方法及び装置 Download PDFInfo
- Publication number
- JP2020123335A JP2020123335A JP2020007152A JP2020007152A JP2020123335A JP 2020123335 A JP2020123335 A JP 2020123335A JP 2020007152 A JP2020007152 A JP 2020007152A JP 2020007152 A JP2020007152 A JP 2020007152A JP 2020123335 A JP2020123335 A JP 2020123335A
- Authority
- JP
- Japan
- Prior art keywords
- learning
- test
- sensor
- traveling
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000004927 fusion Effects 0.000 title claims abstract description 236
- 238000000034 method Methods 0.000 title claims abstract description 90
- 230000002787 reinforcement Effects 0.000 title description 14
- 230000002093 peripheral effect Effects 0.000 claims abstract description 54
- 238000001514 detection method Methods 0.000 claims abstract description 31
- 238000012360 testing method Methods 0.000 claims description 413
- 239000013598 vector Substances 0.000 claims description 118
- 238000004891 communication Methods 0.000 claims description 77
- 230000008569 process Effects 0.000 claims description 65
- 238000013527 convolutional neural network Methods 0.000 claims description 37
- 238000013528 artificial neural network Methods 0.000 claims description 34
- 230000004044 response Effects 0.000 claims description 29
- 238000011176 pooling Methods 0.000 claims description 19
- 230000015654 memory Effects 0.000 claims description 17
- 238000004422 calculation algorithm Methods 0.000 claims description 9
- 125000004122 cyclic group Chemical group 0.000 claims description 7
- 230000006403 short-term memory Effects 0.000 claims description 7
- 230000007423 decrease Effects 0.000 claims description 6
- 230000000306 recurrent effect Effects 0.000 claims description 3
- 238000010998 test method Methods 0.000 claims description 2
- 239000003795 chemical substances by application Substances 0.000 description 20
- 238000010586 diagram Methods 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 241001465754 Metazoa Species 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000002265 prevention Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000007616 round robin method Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/30—Services specially adapted for particular environments, situations or purposes
- H04W4/40—Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
- H04W4/46—Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P] for vehicle-to-vehicle communication [V2V]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2155—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/251—Fusion techniques of input or preprocessed data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/006—Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
- G06N5/043—Distributed expert systems; Blackboards
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/776—Validation; Performance evaluation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/803—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/09—Arrangements for giving variable traffic instructions
- G08G1/091—Traffic information broadcasting
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/20—Monitoring the location of vehicles belonging to a group, e.g. fleet of vehicles, countable or determined number of vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Multimedia (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Automation & Control Theory (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Aviation & Aerospace Engineering (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
Claims (26)
- 協同走行を遂行する自律走行車両のセンサフュージョン(Sensor Fusion)に使用されるセンサフュージョンネットワークを学習する方法において、
(a)(i)(i−1)対象自律走行車両と、(i−2)前記対象自律走行車両と前記協同走行を遂行する第1バーチャル車両を含むm個の学習用協同走行車両と、(i−3)非協同走行を遂行する第2バーチャル車両と、を含む学習用走行イメージ、及び(ii)前記m個の学習用協同走行車両それぞれのn個の学習用センサに関する多数の学習用センサ状態情報が取得されると、学習装置が、前記学習用走行イメージ及び前記多数の学習用センサ状態情報を前記センサフュージョンネットワークに入力することによって、前記センサフュージョンネットワークをもって、(a−1)前記学習用走行イメージ及び前記多数の学習用センサ状態情報にニューラルネットワーク演算を適用させて、前記m個の学習用協同走行車両それぞれが前記協同走行のためにV2V(vehicle−to−vehicle)通信を介して前記n個の学習用センサそれぞれの各センサ値を伝送する確率値である学習用センサフュージョン確率値を生成させ、(a−2)前記学習用センサフュージョン確率値のうち、予め設定された閾値以上の確率値を有するs個の学習用センサ(前記sは1以上m×n以下の整数(integer)である)に関する学習用フュージョンセンサ情報を生成させる段階;
(b)前記学習装置が、前記学習用フュージョンセンサ情報に応答して前記V2V通信を介して取得される学習用道路走行映像を検出ネットワークに入力して、前記検出ネットワークをもって、前記対象自律走行車両の走行道路上の前記第2バーチャル車両と、一人以上の歩行者と、一つ以上の車線とのうち少なくとも一部を検出させて学習用周辺物体情報を出力させるプロセス、及び前記学習用フュージョンセンサ情報に応答して前記V2V通信を介して取得される学習用センサ値と前記学習用周辺物体情報とを走行ネットワークに入力して、前記走行ネットワークをもって、前記学習用センサ値及び前記学習用周辺物体情報を参照して前記m個の学習用協同走行車両それぞれの学習用移動方向確率値を生成させて、前記学習用移動方向確率値を参照して前記対象自律走行車両を運行させる段階;及び
(c)前記学習装置が、前記走行ネットワークにより運行される前記対象自律走行車両の学習用交通状況情報を取得し、前記学習用交通状況情報を参照してリワード(reward)を生成し、前記リワードを利用して前記センサフュージョンネットワークを学習する段階;
を含む方法。 - 前記(a)段階で、
前記学習装置は、前記学習用走行イメージと前記多数の学習用センサ状態情報とを前記センサフュージョンネットワークに入力して、前記センサフュージョンネットワークをもって、(i)CNN(convolutional neural network)を介したコンボリューション演算を前記学習用走行イメージに適用して学習用特徴マップを生成し、前記学習用特徴マップにFC(fully−connected)演算を適用して学習用イメージ特徴ベクトルを生成させ、(ii)少なくとも一つのLSTM(Long short−term memory)を介した循環(recurrent)ニューラルネットワーク演算を前記多数の学習用センサ状態情報に適用して学習用センサ状態特徴ベクトルを生成させ、(iii)前記学習用イメージ特徴ベクトル及び前記学習用センサ状態特徴ベクトルをコンカチネート(concatenating)して学習用コンカチネート済み特徴ベクトルを生成し、前記学習用コンカチネート済み特徴ベクトルに少なくとも一つのFCレイヤのFC演算を適用して前記学習用センサフュージョン確率値を生成させる請求項1に記載の方法。 - 前記学習装置は、前記リワードを利用して、前記センサフュージョンネットワークに含まれている、前記CNNと、前記少なくとも一つのLSTMと、前記少なくとも一つのFCレイヤとのうち少なくとも一つのパラメータをアップデートする請求項2に記載の方法。
- 前記学習装置は、前記センサフュージョンネットワークをもって、プーリングレイヤを通じて前記学習用特徴マップにマックスプーリング(max−pooling)演算を適用し、その結果値にFC演算を適用することによって、前記学習用イメージ特徴ベクトルを生成させる請求項2に記載の方法。
- 前記学習装置は、ソフトマックス(softmax)アルゴリズムを通じて前記学習用センサフュージョン確率値それぞれを正規化して出力する請求項2に記載の方法。
- 前記リワードは、前記m個の学習用協同走行車両それぞれの前記n個の学習用センサの個数の合計から前記s個の学習用センサの個数を減算して生成されたものであり、
前記学習装置は、前記学習用交通状況情報を参照して前記リワードを増加又は減少させる請求項1に記載の方法。 - 前記学習用走行イメージは、前記m個の学習用協同走行車両が前記協同走行中である全体道路に対する全体道路イメージであって、前記全体道路イメージがグリッド(grid)形態に分割されて生成された一定サイズのブロックそれぞれが前記m個の学習用協同走行車両それぞれにより占有されているか、前記第2バーチャル車両全体により占有されているのかを表す(m+1)個のチャンネルのイメージであり、前記(m+1)個のチャンネルのうちm個のチャンネルそれぞれは、前記m個の学習用協同走行車両それぞれに対応し、残りの一つのチャンネルは、前記第2バーチャル車両に対応するものである請求項1に記載の方法。
- 協同走行を遂行する自律走行車両のセンサフュージョン(Sensor Fusion)に使用されるセンサフュージョンネットワークをテストする方法において、
(a)(i)(i−1)学習用対象自律走行車両と、(i−2)前記学習用対象自律走行車両と前記協同走行を遂行する第1バーチャル車両を含むm個の学習用協同走行車両と、(i−3)非協同走行を遂行する第2バーチャル車両と、を含む学習用走行イメージ、及び(ii)前記m個の学習用協同走行車両それぞれのn個の学習用センサに関する多数の学習用センサ状態情報が取得されると、学習装置が、(1)前記学習用走行イメージ及び前記多数の学習用センサ状態情報を前記センサフュージョンネットワークに入力することによって、前記センサフュージョンネットワークをもって、(1−1)前記学習用走行イメージ及び前記多数の学習用センサ状態情報にニューラルネットワーク演算を適用させて、前記m個の学習用協同走行車両それぞれが前記協同走行のためにV2V(vehicle−to−vehicle)通信を介して前記n個の学習用センサそれぞれの各センサ値を伝送する確率値である学習用センサフュージョン確率値を生成させ、(1−2)前記学習用センサフュージョン確率値のうち、予め設定された閾値以上の確率値を有するs個の学習用センサ(前記sは1以上m×n以下の整数である)に関する学習用フュージョンセンサ情報を生成させるプロセス、(2)前記学習用フュージョンセンサ情報に応答して前記V2V通信を介して取得される学習用道路走行映像を検出ネットワークに入力して、前記検出ネットワークをもって、前記学習用対象自律走行車両の走行道路上の前記第2バーチャル車両と、一人以上の歩行者と、一つ以上の車線とのうち少なくとも一部を検出させて学習用周辺物体情報を出力させるプロセス、(3)前記学習用フュージョンセンサ情報に応答して前記V2V通信を介して取得される学習用センサ値と前記学習用周辺物体情報とを走行ネットワークに入力して、前記走行ネットワークをもって、前記学習用センサ値及び前記学習用周辺物体情報を参照して前記m個の学習用協同走行車両それぞれの学習用移動方向確率値を生成させて、前記学習用移動方向確率値を参照して前記学習用対象自律走行車両を運行させるプロセス、及び(4)前記走行ネットワークにより運行される前記学習用対象自律走行車両の学習用交通状況情報を取得し、前記学習用交通状況情報を参照してリワード(reward)を生成し、前記リワードを利用して前記センサフュージョンネットワークを学習するプロセスを遂行した状態で、(i)(i−1)テスト用対象自律走行車両と、(i−2)前記テスト用対象自律走行車両と前記協同走行を遂行する第1車両を含むk個のテスト用協同走行車両と、(i−3)前記非協同走行を遂行する第2車両と、を含むテスト用走行イメージ、及び(ii)前記k個のテスト用協同走行車両それぞれのi個のテスト用センサに関する多数のテスト用センサ状態情報が取得されると、前記k個のテスト用協同走行車両のうち少なくとも一つの協同走行車両のテスティング装置が、前記テスト用走行イメージ及び前記多数のテスト用センサ状態情報を前記センサフュージョンネットワークに入力することによって、前記センサフュージョンネットワークをもって、(a−1)前記テスト用走行イメージ及び前記多数のテスト用センサ状態情報に前記ニューラルネットワーク演算を適用させて、前記k個のテスト用協同走行車両それぞれが前記協同走行のために前記V2V通信を介して前記i個のテスト用センサそれぞれの各センサ値を伝送する確率値であるテスト用センサフュージョン確率値を生成させ、(a−2)前記テスト用センサフュージョン確率値のうち、予め設定された閾値以上の確率値を有するs個のテスト用センサに関するテスト用フュージョンセンサ情報を生成させ、(a−3)前記s個のテスト用センサに関する前記テスト用フュージョンセンサ情報を、前記V2V通信を介して前記k個のテスト用協同走行車両のうち少なくとも一部に伝送させる段階;及び
(b)前記k個のテスト用協同走行車両のうち前記少なくとも一つの協同走行車両の前記テスティング装置が、前記テスト用フュージョンセンサ情報に応答して前記V2V通信を介して取得されるテスト用道路走行映像を前記検出ネットワークに入力して、前記検出ネットワークをもって、前記テスト用対象自律走行車両の走行道路上の前記第2車両と、前記歩行者と、前記車線とのうち少なくとも一部を検出してテスト用周辺物体情報を出力させるプロセス、及び前記テスト用フュージョンセンサ情報に応答して前記V2V通信を介して取得されたテスト用センサ値と前記テスト用周辺物体情報とを前記走行ネットワークに入力して、前記走行ネットワークをもって、前記テスト用センサ値と前記テスト用周辺物体情報とを参照して前記k個のテスト用協同走行車両それぞれのテスト用移動方向確率値を生成させることによって、前記テスト用移動方向確率値を参照して前記テスト用対象自律走行車両を運行させるプロセスを遂行する段階;
を含む方法。 - 前記(a)段階で、
前記k個のテスト用協同走行車両のうち前記少なくとも一つの協同走行車両の前記テスティング装置が、前記テスト用走行イメージと前記多数のテスト用センサ状態情報とを前記センサフュージョンネットワークに入力することによって、前記センサフュージョンネットワークをもって、(i)CNNを通じたコンボリューション演算を前記テスト用走行イメージに適用してテスト用特徴マップを生成し、前記テスト用特徴マップにFC演算を適用してテスト用イメージベクトルを生成させ、(ii)少なくとも一つのLSTMを通じた循環ニューラルネットワーク演算を前記多数のテスト用センサ状態情報に適用してテスト用センサ状態特徴ベクトルを生成させ、(iii)前記テスト用イメージ特徴ベクトル及び前記テスト用センサ状態特徴ベクトルをコンカチネートしてテスト用コンカチネート済み特徴ベクトルを生成し、前記テスト用コンカチネート済み特徴ベクトルに少なくとも一つのFCレイヤのFC演算を適用して前記テスト用センサフュージョン確率値を生成させる請求項8に記載の方法。 - 前記k個のテスト用協同走行車両のうち前記少なくとも一つの協同走行車両の前記テスティング装置は、前記センサフュージョンネットワークをもって、プーリングレイヤを通じて前記テスト用特徴マップにマックスプーリング演算を適用し、その結果値にFC演算を適用することによって、前記テスト用イメージ特徴ベクトルを生成させる請求項9に記載の方法。
- 前記k個のテスト用協同走行車両のうち前記少なくとも一つの協同走行車両の前記テスティング装置は、ソフトマックスアルゴリズムを通じて前記テスト用センサフュージョン確率値それぞれを正規化して出力する請求項9に記載の方法。
- 前記(a)段階で、
前記k個のテスト用協同走行車両のうち前記少なくとも一つの協同走行車両の前記テスティング装置が、(i)前記テスト用k個の協同走行車両のうち特定の協同走行車両から取得された前記テスト用走行イメージに、特定のCNNを通じた多重コンボリューション演算を適用してテスト用特徴マップを生成するプロセス、及び前記テスト用特徴マップにFC演算を適用してテスト用イメージ特徴ベクトルが生成されると、前記特定の協同走行車両から前記V2V通信を介して前記テスト用イメージ特徴ベクトルを取得するプロセス、(ii)少なくとも一つのLSTMを通じた循環ニューラルネットワーク演算を前記多数のテスト用センサ状態情報に適用してテスト用センサ状態特徴ベクトルを生成するプロセス、及び(iii)前記V2V通信を介して取得された、前記テスト用イメージ特徴ベクトルと前記テスト用センサ状態特徴ベクトルとをコンカチネートしてテスト用コンカチネート済み特徴ベクトルを生成するプロセス、及び前記テスト用コンカチネート済み特徴ベクトルに少なくとも一つのFCレイヤを介したFC演算を適用して前記テスト用センサフュージョン確率値を生成するプロセスを遂行する請求項8に記載の方法。 - 前記特定の車両は、特定のCNNをもって、前記テスト用走行イメージにコンボリューション演算を適用させてテスト用特徴マップを生成させ、前記テスト用特徴マップにFC演算を適用して前記テスト用イメージ特徴ベクトルを生成させ、前記特定の車両は、ラウンドロビンスケジューリング(Round Robin Scheduling)によって順次に一定時間の間隔で指定される前記k個のテスト用協同走行車両のうち一つの協同走行車両である請求項12に記載の方法。
- 協同走行を遂行する自律走行車両のセンサフュージョン(Sensor Fusion)に使用されるセンサフュージョンネットワークを学習するための学習装置において、
各インストラクションを格納する一つ以上のメモリと、
(I)(i)(i−1)対象自律走行車両と、(i−2)前記対象自律走行車両と前記協同走行を遂行する第1バーチャル車両を含むm個の学習用協同走行車両と、(i−3)非協同走行を遂行する第2バーチャル車両と、を含む学習用走行イメージ、及び(ii)前記m個の学習用協同走行車両それぞれのn個の学習用センサに関する多数の学習用センサ状態情報が取得されると、前記学習用走行イメージ及び前記多数の学習用センサ状態情報を前記センサフュージョンネットワークに入力することによって、前記センサフュージョンネットワークをもって、(I−1)前記学習用走行イメージ及び前記多数の学習用センサ状態情報にニューラルネットワーク演算を適用させて、前記m個の学習用協同走行車両それぞれが前記協同走行のためにV2V(vehicle−to−vehicle)通信を介して前記n個の学習用センサそれぞれの各センサ値を伝送する確率値である学習用センサフュージョン確率値を生成させ、(I−2)前記学習用センサフュージョン確率値のうち、予め設定された閾値以上の確率値を有するs個の学習用センサ(前記sは1以上m×n以下の整数である)に関する学習用フュージョンセンサ情報を生成させるプロセス、(II)前記学習用フュージョンセンサ情報に応答して前記V2V通信を介して取得される学習用道路走行映像を検出ネットワークに入力して、前記検出ネットワークをもって、前記対象自律走行車両の走行道路上の前記第2バーチャル車両と、一人以上の歩行者と、一つ以上の車線とのうち少なくとも一部を検出させて学習用周辺物体情報を出力させるプロセス、及び前記学習用フュージョンセンサ情報に応答して前記V2V通信を介して取得される学習用センサ値と前記学習用周辺物体情報とを走行ネットワークに入力して、前記走行ネットワークをもって、前記学習用センサ値及び前記学習用周辺物体情報を参照して前記m個の学習用協同走行車両それぞれの学習用移動方向確率値を生成させて、前記学習用移動方向確率値を参照して前記対象自律走行車両を運行させるプロセス、及び(III)前記走行ネットワークにより運行される前記対象自律走行車両の学習用交通状況情報を取得し、前記学習用交通状況情報を参照してリワード(reward)を生成し、前記リワードを利用して前記センサフュージョンネットワークを学習するプロセスを遂行するための前記各インストラクションを実行するように構成された少なくとも一つのプロセッサと、
を含む学習装置。 - 前記(I)プロセスで、
前記プロセッサが、前記学習用走行イメージと前記多数の学習用センサ状態情報とを前記センサフュージョンネットワークに入力して、前記センサフュージョンネットワークを通じて、(i)CNN(convolutional neural network)を介したコンボリューション演算を前記学習用走行イメージに適用して学習用特徴マップを生成し、前記学習用特徴マップにFC(fully−connected)演算を適用して学習用イメージ特徴ベクトルを生成させ、(ii)少なくとも一つのLSTM(Long short−term memory)を介した循環(recurrent)ニューラルネットワーク演算を前記多数の学習用センサ状態情報に適用して学習用センサ状態特徴ベクトルを生成させ、(iii)前記学習用イメージ特徴ベクトル及び前記学習用センサ状態特徴ベクトルをコンカチネート(concatenating)して学習用コンカチネート済み特徴ベクトルを生成し、前記学習用コンカチネート済み特徴ベクトルに少なくとも一つのFCレイヤのFC演算を適用して前記学習用センサフュージョン確率値を生成させる請求項14に記載の学習装置。 - 前記プロセッサは、前記リワードを利用して、前記センサフュージョンネットワークに含まれている、前記CNNと、前記少なくとも一つのLSTMと、前記少なくとも一つのFCレイヤとのうち少なくとも一つのパラメータをアップデートする請求項15に記載の学習装置。
- 前記プロセッサは、前記センサフュージョンネットワークをもって、プーリングレイヤを通じて前記学習用特徴マップにマックスプーリング(max−pooling)演算を適用し、その結果値にFC演算を適用することによって、前記学習用イメージ特徴ベクトルを生成させる請求項15に記載の学習装置。
- 前記プロセッサは、ソフトマックス(softmax)アルゴリズムを通じて前記学習用センサフュージョン確率値それぞれを正規化して出力する請求項15に記載の学習装置。
- 前記リワードは、前記m個の学習用協同走行車両それぞれの前記n個の学習用センサの個数の合計から前記s個の学習用センサの個数を減算して生成されたものであり、
前記プロセッサは、前記学習用交通状況情報を参照して前記リワードを増加又は減少させる請求項14に記載の学習装置。 - 前記学習用走行イメージは、前記m個の学習用協同走行車両が前記協同走行中である全体道路に対する全体道路イメージであって、前記全体道路イメージがグリッド(grid)形態に分割されて生成された一定サイズのブロックそれぞれが前記m個の学習用協同走行車両それぞれにより占有されているか、前記第2バーチャル車両全体により占有されているのかを表す(m+1)個のチャンネルのイメージであり、前記(m+1)個のチャンネルのうちm個のチャンネルそれぞれは、前記m個の学習用協同走行車両それぞれに対応し、残りの一つのチャンネルは、前記第2バーチャル車両に対応するものである請求項14に記載の学習装置。
- 協同走行を遂行する自律走行車両のセンサフュージョン(Sensor Fusion)に使用されるセンサフュージョンネットワークをテストするための、k個のテスト用協同走行車両のうち少なくとも一つの協同走行車両のテスティング装置において、
各インストラクションを格納する一つ以上のメモリと、
(I)(i)(i−1)学習用対象自律走行車両と、(i−2)前記学習用対象自律走行車両と前記協同走行を遂行する第1バーチャル車両を含むm個の学習用協同走行車両と、(i−3)非協同走行を遂行する第2バーチャル車両と、を含む学習用走行イメージ、及び(ii)前記m個の学習用協同走行車両それぞれのn個の学習用センサに関する多数の学習用センサ状態情報が取得されると、学習装置が、(1)前記学習用走行イメージ及び前記多数の学習用センサ状態情報を前記センサフュージョンネットワークに入力することによって、前記センサフュージョンネットワークをもって、(1−1)前記学習用走行イメージ及び前記多数の学習用センサ状態情報にニューラルネットワーク演算を適用させて、前記m個の学習用協同走行車両それぞれが前記協同走行のためにV2V(vehicle−to−vehicle)通信を介して前記n個の学習用センサそれぞれの各センサ値を伝送する確率値である学習用センサフュージョン確率値を生成させ、(1−2)前記学習用センサフュージョン確率値のうち、予め設定された閾値以上の確率値を有するs個の学習用センサ(前記sは1以上m×n以下の整数である)に関する学習用フュージョンセンサ情報を生成させるプロセス、(2)前記学習用フュージョンセンサ情報に応答して前記V2V通信を介して取得される学習用道路走行映像を検出ネットワークに入力して、前記検出ネットワークをもって、前記学習用対象自律走行車両の走行道路上の前記第2バーチャル車両と、一人以上の歩行者と、一つ以上の車線とのうち少なくとも一部を検出させて学習用周辺物体情報を出力させるプロセス、(3)前記学習用フュージョンセンサ情報に応答して前記V2V通信を介して取得される学習用センサ値と前記学習用周辺物体情報とを走行ネットワークに入力して、前記走行ネットワークをもって、前記学習用センサ値及び前記学習用周辺物体情報を参照して前記m個の学習用協同走行車両それぞれの学習用移動方向確率値を生成させて、前記学習用移動方向確率値を参照して前記学習用対象自律走行車両を運行させるプロセス、及び(4)前記走行ネットワークにより運行される前記学習用対象自律走行車両の学習用交通状況情報を取得し、前記学習用交通状況情報を参照してリワード(reward)を生成し、前記リワードを利用して前記センサフュージョンネットワークを学習するプロセスを遂行した状態で、(i)(i−1)テスト用対象自律走行車両と、(i−2)前記テスト用対象自律走行車両と前記協同走行を遂行する第1車両を含むk個のテスト用協同走行車両と、(i−3)前記非協同走行を遂行する第2車両と、を含むテスト用走行イメージ、(ii)前記k個のテスト用協同走行車両それぞれのi個のテスト用センサに関する多数のテスト用センサ状態情報が取得されると、前記テスト用走行イメージ及び前記多数のテスト用センサ状態情報を前記センサフュージョンネットワークに入力することによって、前記センサフュージョンネットワークをもって、(I−1)前記テスト用走行イメージ及び前記多数のテスト用センサ状態情報に前記ニューラルネットワーク演算を適用させて、前記k個のテスト用協同走行車両それぞれが前記協同走行のために前記V2V通信を介して前記i個のテスト用センサそれぞれの各センサ値を伝送する確率値であるテスト用センサフュージョン確率値を生成させ、(I−2)前記テスト用センサフュージョン確率値のうち、予め設定された閾値以上の確率値を有するs個のテスト用センサに関するテスト用フュージョンセンサ情報を生成させ、(I−3)前記s個のテスト用センサに関する前記テスト用フュージョンセンサ情報を、前記V2V通信を介して前記k個のテスト用協同走行車両のうち少なくとも一部に伝送させるプロセス、及び(II)前記テスト用フュージョンセンサ情報に応答して前記V2V通信を介して取得されるテスト用道路走行映像を前記検出ネットワークに入力して、前記検出ネットワークをもって、前記テスト用対象自律走行車両の走行道路上の前記第2車両と、前記歩行者と、前記車線とのうち少なくとも一部を検出してテスト用周辺物体情報を出力させるプロセス、及び前記テスト用フュージョンセンサ情報に応答して前記V2V通信を介して取得されたテスト用センサ値と前記テスト用周辺物体情報とを前記走行ネットワークに入力して、前記走行ネットワークをもって、前記テスト用センサ値と前記テスト用周辺物体情報とを参照して、前記k個のテスト用協同走行車両それぞれのテスト用移動方向確率値を生成させることによって、前記テスト用移動方向確率値を参照して前記テスト用対象自律走行車両を運行させるプロセスを遂行するプロセスを遂行するための前記各インストラクションを実行するように構成された少なくとも一つのプロセッサと、
を含むテスティング装置。 - 前記(I)プロセスで、
前記プロセッサが、前記テスト用走行イメージと前記多数のテスト用センサ状態情報とを前記センサフュージョンネットワークに入力することによって、前記センサフュージョンネットワークをもって、(i)CNNを通じたコンボリューション演算を前記テスト用走行イメージに適用してテスト用特徴マップを生成し、前記テスト用特徴マップにFC演算を適用してテスト用イメージ特徴ベクトルを生成させ、(ii)少なくとも一つのLSTMを通じた循環ニューラルネットワーク演算を前記多数のテスト用センサ状態情報に適用してテスト用センサ状態特徴ベクトルを生成させ、(iii)前記テスト用イメージ特徴ベクトル及び前記テスト用センサ状態特徴ベクトルをコンカチネートしてテスト用コンカチネート済み特徴ベクトルを生成し、前記テスト用コンカチネート済み特徴ベクトルに少なくとも一つのFCレイヤのFC演算を適用して前記テスト用センサフュージョン確率値を生成させる請求項21に記載のテスティング装置。 - 前記プロセッサは、前記センサフュージョンネットワークをもって、プーリングレイヤを通じて前記テスト用特徴マップにマックスプーリング演算を適用し、その結果値にFC演算を適用することによって、前記テスト用イメージ特徴ベクトルを生成させる請求項22に記載のテスティング装置。
- 前記プロセッサは、ソフトマックスアルゴリズムを通じて前記テスト用センサフュージョン確率値それぞれを正規化して出力する請求項22に記載のテスティング装置。
- 前記(I)プロセスで、
前記プロセッサが、(i)前記テスト用k個の協同走行車両のうち特定の協同走行車両から取得された前記テスト用走行イメージに、特定のCNNを通じた多重コンボリューション演算を適用してテスト用特徴マップを生成するプロセス、及び前記テスト用特徴マップにFC演算を適用してテスト用イメージ特徴ベクトルが生成されると、前記特定の協同走行車両から前記V2V通信を介して前記テスト用イメージ特徴ベクトルを取得するプロセスと、(ii)少なくとも一つのLSTMを通じた循環ニューラルネットワーク演算を前記多数のテスト用センサ状態情報に適用してテスト用センサ状態特徴ベクトルを生成するプロセスと、(iii)前記V2V通信を介して取得された、前記テスト用イメージ特徴ベクトルと前記テスト用センサ状態特徴ベクトルとをコンカチネートしてテスト用コンカチネート済み特徴ベクトルを生成するプロセス、及び前記テスト用コンカチネート済み特徴ベクトルに少なくとも一つのFCレイヤを介したFC演算を適用して前記テスト用センサフュージョン確率値を生成するプロセスとを遂行する請求項21に記載のテスティング装置。 - 前記特定の車両は、特定のCNNをもって、前記テスト用走行イメージにコンボリューション演算を適用させてテスト用特徴マップを生成させ、前記テスト用特徴マップにFC演算を適用して前記テスト用イメージ特徴ベクトルを生成させ、前記特定の車両は、ラウンドロビンスケジューリング(Round Robin Scheduling)によって順次に一定時間の間隔で指定される前記k個のテスト用協同走行車両のうち一つの協同走行車両である請求項25に記載のテスティング装置。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962798967P | 2019-01-30 | 2019-01-30 | |
US62/798,967 | 2019-01-30 | ||
US16/723,820 US10627823B1 (en) | 2019-01-30 | 2019-12-20 | Method and device for performing multiple agent sensor fusion in cooperative driving based on reinforcement learning |
US16/723,820 | 2019-12-20 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020123335A true JP2020123335A (ja) | 2020-08-13 |
JP6913969B2 JP6913969B2 (ja) | 2021-08-04 |
Family
ID=70285087
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020007152A Active JP6913969B2 (ja) | 2019-01-30 | 2020-01-20 | 強化学習に基づいて協同走行で多重エージェントセンサフュージョンを遂行する方法及び装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10627823B1 (ja) |
EP (1) | EP3690711A1 (ja) |
JP (1) | JP6913969B2 (ja) |
KR (1) | KR102325028B1 (ja) |
CN (1) | CN111507372B (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102561345B1 (ko) * | 2023-02-02 | 2023-07-27 | 홍익대학교 산학협력단 | Drqn 기반 hvac 제어 방법 및 장치 |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109977793B (zh) * | 2019-03-04 | 2022-03-04 | 东南大学 | 基于变尺度多特征融合卷积网络的路侧图像行人分割方法 |
US11095741B2 (en) * | 2019-07-11 | 2021-08-17 | Ghost Locomotion Inc. | Value-based transmission in an autonomous vehicle |
US11221897B2 (en) * | 2019-09-11 | 2022-01-11 | International Business Machines Corporation | Managing device maintenance via artificial intelligence |
CN111625942B (zh) * | 2020-05-12 | 2023-09-01 | 招商局检测车辆技术研究院有限公司 | 基于综测仪的车路协同应用测评系统及方法 |
DE102020121150A1 (de) * | 2020-08-11 | 2022-02-17 | Bayerische Motoren Werke Aktiengesellschaft | Trainieren eines Reinforcement Learning Agenten zur Steuerung eines autonomen Systems |
DE102020210376A1 (de) * | 2020-08-14 | 2022-02-17 | Robert Bosch Gesellschaft mit beschränkter Haftung | Vorrichtung und Verfahren zum Steuern eines Hardware-Agenten in einer Steuersituation mit mehreren Hardware-Agenten |
CN112085165A (zh) * | 2020-09-02 | 2020-12-15 | 中国第一汽车股份有限公司 | 一种决策信息生成方法、装置、设备及存储介质 |
WO2022059808A1 (ko) * | 2020-09-15 | 2022-03-24 | 엘지전자 주식회사 | 자율 주행 시스템에서 v2x 통신 장치의 강화 학습 수행 방법 |
US20220114433A1 (en) * | 2020-10-08 | 2022-04-14 | Toyota Motor Engineering & Manufacturing North America, Inc. | Methods and systems for enhanced scene perception using vehicle platoon |
KR20220098503A (ko) * | 2021-01-04 | 2022-07-12 | 오드컨셉 주식회사 | 중복 이미지 검출 방법 및 장치 |
CN113053122B (zh) * | 2021-03-23 | 2022-02-18 | 成都信息工程大学 | 基于wmgirl算法的可变交通管控方案中区域流量分布预测方法 |
US11809190B2 (en) * | 2021-04-30 | 2023-11-07 | Zoox, Inc. | Methods and systems to assess vehicle capabilities |
KR20220150096A (ko) | 2021-05-03 | 2022-11-10 | 현대모비스 주식회사 | 딥러닝 머신 및 그 운용방법 |
CN114205053B (zh) * | 2021-11-15 | 2023-04-07 | 北京邮电大学 | 卫星通信系统强化学习自适应编码调制方法、系统及装置 |
WO2023204319A1 (ko) * | 2022-04-18 | 2023-10-26 | ㈜와토시스 | 차량 영상 데이터의 처리 장치 및 방법과 이 장치를 포함하는 시스템 |
CN117094377A (zh) * | 2022-05-10 | 2023-11-21 | 华为技术有限公司 | 测量方法及装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017084367A (ja) * | 2015-10-26 | 2017-05-18 | ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツングRobert Bosch Gmbh | 自動車の制御 |
US10061322B1 (en) * | 2017-04-06 | 2018-08-28 | GM Global Technology Operations LLC | Systems and methods for determining the lighting state of a vehicle |
JP2020504860A (ja) * | 2016-12-23 | 2020-02-13 | モービルアイ ビジョン テクノロジーズ リミテッド | 課せられる責任の制約を伴うナビゲーションシステム |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19855400A1 (de) * | 1998-12-01 | 2000-06-15 | Bosch Gmbh Robert | Verfahren und Vorrichtung zur Bestimmung eines zukünftigen Kursbereichs eines Fahrzeugs |
US7729857B2 (en) * | 2005-08-18 | 2010-06-01 | Gm Global Technology Operations, Inc. | System for and method of detecting a collision and predicting a vehicle path |
DE102009006113B4 (de) * | 2008-03-03 | 2019-03-28 | Volkswagen Ag | Vorrichtung und Verfahren zur Sensorfusion mit dynamischen Objekten |
EP2491344B1 (en) * | 2009-10-22 | 2016-11-30 | TomTom Global Content B.V. | System and method for vehicle navigation using lateral offsets |
US8976040B2 (en) * | 2012-02-16 | 2015-03-10 | Bianca RAY AVALANI | Intelligent driver assist system based on multimodal sensor fusion |
US8473144B1 (en) * | 2012-10-30 | 2013-06-25 | Google Inc. | Controlling vehicle lateral lane positioning |
JP5991332B2 (ja) * | 2014-02-05 | 2016-09-14 | トヨタ自動車株式会社 | 衝突回避制御装置 |
US9139204B1 (en) * | 2014-06-12 | 2015-09-22 | GM Global Technology Operations LLC | Road surface condition detection with recursive adaptive learning and validation |
US10486707B2 (en) * | 2016-01-06 | 2019-11-26 | GM Global Technology Operations LLC | Prediction of driver intent at intersection |
DE102016000185A1 (de) * | 2016-01-11 | 2017-07-13 | Trw Automotive Gmbh | Steuerungs-System und Verfahren zum Ermitteln einer Fahrspur eines nachfolgenden Kraftfahrzeugs |
DE102016000201A1 (de) * | 2016-01-11 | 2017-07-13 | Trw Automotive Gmbh | Steuerungs-System und Verfahren zum Ermitteln einer Fahrspurbelegung durch Kraftfahrzeuge |
CN106218638B (zh) * | 2016-08-17 | 2018-08-03 | 北方工业大学 | 一种智能网联汽车协同换道控制方法 |
US10394237B2 (en) * | 2016-09-08 | 2019-08-27 | Ford Global Technologies, Llc | Perceiving roadway conditions from fused sensor data |
US10073456B2 (en) * | 2016-11-17 | 2018-09-11 | GM Global Technology Operations LLC | Automated co-pilot control for autonomous vehicles |
US10118628B2 (en) * | 2017-02-21 | 2018-11-06 | Allstate Insurance Company | Data processing system for guidance, control, and testing autonomous vehicle features and driver response |
US10395144B2 (en) * | 2017-07-24 | 2019-08-27 | GM Global Technology Operations LLC | Deeply integrated fusion architecture for automated driving systems |
CN108196535B (zh) * | 2017-12-12 | 2021-09-07 | 清华大学苏州汽车研究院(吴江) | 基于增强学习和多传感器融合的自动驾驶系统 |
US10553117B1 (en) * | 2018-11-06 | 2020-02-04 | Toyota Motor Engineering & Manufacturing North America, Inc. | System and method for determining lane occupancy of surrounding vehicles |
-
2019
- 2019-12-20 US US16/723,820 patent/US10627823B1/en active Active
-
2020
- 2020-01-06 KR KR1020200001715A patent/KR102325028B1/ko active IP Right Grant
- 2020-01-14 EP EP20151662.2A patent/EP3690711A1/en active Pending
- 2020-01-20 JP JP2020007152A patent/JP6913969B2/ja active Active
- 2020-01-21 CN CN202010071586.6A patent/CN111507372B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017084367A (ja) * | 2015-10-26 | 2017-05-18 | ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツングRobert Bosch Gmbh | 自動車の制御 |
JP2020504860A (ja) * | 2016-12-23 | 2020-02-13 | モービルアイ ビジョン テクノロジーズ リミテッド | 課せられる責任の制約を伴うナビゲーションシステム |
US10061322B1 (en) * | 2017-04-06 | 2018-08-28 | GM Global Technology Operations LLC | Systems and methods for determining the lighting state of a vehicle |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102561345B1 (ko) * | 2023-02-02 | 2023-07-27 | 홍익대학교 산학협력단 | Drqn 기반 hvac 제어 방법 및 장치 |
Also Published As
Publication number | Publication date |
---|---|
JP6913969B2 (ja) | 2021-08-04 |
EP3690711A1 (en) | 2020-08-05 |
KR20200094641A (ko) | 2020-08-07 |
US10627823B1 (en) | 2020-04-21 |
CN111507372B (zh) | 2023-10-20 |
KR102325028B1 (ko) | 2021-11-12 |
CN111507372A (zh) | 2020-08-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2020123335A (ja) | 強化学習に基づいて協同走行で多重エージェントセンサフュージョンを遂行する方法及び装置 | |
JP6857371B2 (ja) | 安全な自律走行を支援する学習方法、そしてこれを利用した学習装置、テスト方法、及びテスト装置 | |
US10296004B2 (en) | Autonomous operation for an autonomous vehicle objective in a multi-vehicle environment | |
EP3359436B1 (en) | Method and system for operating autonomous driving vehicles based on motion plans | |
US20210339741A1 (en) | Constraining vehicle operation based on uncertainty in perception and/or prediction | |
US10514697B2 (en) | Vehicle remote assistance mode | |
US10816973B2 (en) | Utilizing rule-based and model-based decision systems for autonomous driving control | |
US11260852B2 (en) | Collision behavior recognition and avoidance | |
JP2020123341A (ja) | 自律走行モードと手動走行モードとの間の走行モードを変更するリモートコントロール自律走行自動車のための方法及び装置 | |
US11860634B2 (en) | Lane-attention: predicting vehicles' moving trajectories by learning their attention over lanes | |
CN112180912A (zh) | 用于为自动驾驶车辆规划路径的分级路径决策系统 | |
CN111746557A (zh) | 用于车辆的路径规划融合 | |
CN116917827A (zh) | 驾驶仿真中的代理转换 | |
US20220266859A1 (en) | Simulated agents based on driving log data | |
JP2022539557A (ja) | テレオペレータに連絡するための技法 | |
US11745747B2 (en) | System and method of adaptive distribution of autonomous driving computations | |
CN116674593A (zh) | 用于自主车辆的具有异常检测的安全增强规划系统 | |
US20230256999A1 (en) | Simulation of imminent crash to minimize damage involving an autonomous vehicle | |
US11018974B1 (en) | Context based bandwidth switching | |
US11858507B2 (en) | Methods for cognitive situation awareness using an attention-based event structure | |
TWI838994B (zh) | 針對緊急車輛的自駕車路徑預測系統及自駕車路徑預測方法 | |
CN114217601B (zh) | 自驾车的混合决策方法及其系统 | |
JP2024509086A (ja) | 運転シミュレーションにおけるエージェント変換 | |
CN117261936A (zh) | 用于测试自主车辆意图的原型车道 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200120 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200122 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210302 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210602 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210629 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210706 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6913969 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |