JP2022547611A - 道路シーンにおける多様な長期将来軌道のシミュレーション - Google Patents
道路シーンにおける多様な長期将来軌道のシミュレーション Download PDFInfo
- Publication number
- JP2022547611A JP2022547611A JP2022516390A JP2022516390A JP2022547611A JP 2022547611 A JP2022547611 A JP 2022547611A JP 2022516390 A JP2022516390 A JP 2022516390A JP 2022516390 A JP2022516390 A JP 2022516390A JP 2022547611 A JP2022547611 A JP 2022547611A
- Authority
- JP
- Japan
- Prior art keywords
- scene
- vehicles
- sampled
- behavior
- real
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000004088 simulation Methods 0.000 title description 33
- 230000007774 longterm Effects 0.000 title description 2
- 230000006399 behavior Effects 0.000 claims abstract description 59
- 238000000034 method Methods 0.000 claims abstract description 46
- 230000009471 action Effects 0.000 claims abstract description 35
- 238000012800 visualization Methods 0.000 claims abstract description 8
- 238000005070 sampling Methods 0.000 claims description 26
- 230000001133 acceleration Effects 0.000 claims description 16
- 230000015654 memory Effects 0.000 claims description 13
- 238000012549 training Methods 0.000 claims description 8
- 230000000694 effects Effects 0.000 claims description 5
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 claims description 4
- 230000007423 decrease Effects 0.000 claims description 3
- 230000006403 short-term memory Effects 0.000 claims description 3
- 238000004891 communication Methods 0.000 claims description 2
- 239000003795 chemical substances by application Substances 0.000 description 50
- 238000010586 diagram Methods 0.000 description 21
- 238000012545 processing Methods 0.000 description 19
- 230000008859 change Effects 0.000 description 15
- 230000008569 process Effects 0.000 description 10
- 238000004590 computer program Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 4
- 230000003993 interaction Effects 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 230000008447 perception Effects 0.000 description 3
- 238000011176 pooling Methods 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 241000282412 Homo Species 0.000 description 2
- 230000003542 behavioural effect Effects 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000016571 aggressive behavior Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000010304 firing Methods 0.000 description 1
- 238000009472 formulation Methods 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/095—Predicting travel path or likelihood of collision
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/0088—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/20—Design optimisation, verification or simulation
- G06F30/27—Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/10—Historical data
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
- B60W40/09—Driving style or behaviour
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3807—Creation or updating of map data characterised by the type of data
- G01C21/3815—Road data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
Abstract
Description
本出願は、2019年11月14日に出願された米国仮出願第62/935,326号、および2020年11月5日に出願された米国特許出願第17/090,399号の優先権を主張し、それぞれ、参照により全体が本明細書に組み込まれる。
本発明は、軌道予測に関し、より詳細には、道路シーンにおける多様な長期将来軌道をシミュレーションするための方法およびシステムに関する。
シーンにおけるエージェントの将来の状態および意図について推論する能力は、車両の自律性にとって重要なタスクである。人間は、任意の所与のシナリオにおいて、様々な妥当な行動について予測し、理由をつける固有の能力を有する。それにもかかわらず、人間は、予測不可能な状況のために、依然として多くの予測不可能な日常事象に直面している。例えば、車両が交差点に向かって接近する交差点シナリオが想定される場合、車両が実行することができる複数の可能な操縦がある。車両がそれらの意図および現在の交通状況に基づいて車線変更操縦を実行することができる高速道路シナリオも同様である。単一の運動方向に偏った予測を有することは、そうでない場合において実行可能な解を提供しないかもしれない。しかしながら、様々なドライバの意図を有するデータへのアクセスは、既存のデータセットが焦点を当てているものではない。軌道予測において最先端の結果を得るために、深層学習において目標とされた努力がなされてきたが、このような努力は大規模なデータを必要とする。このような大規模な軌道データを得ることは、特に、散発的に発生するが、予測の観点からは重要であると考えられる「興味深い」場合には稀である。有意義な予測は、データの十分な多様性を必要とするが、現実世界のシナリオでは、同じシーンのデータのそのような多様性を捕捉することはしばしば妥当ではない。
前記車両をそれらの最も近い車線識別に割り当てることと、前記シーン内の全ての車両について多様な妥当な行動(behavior)を識別することと、多様な行動生成器によって、前記多様な妥当な行動から1つの行動をサンプリングし、前記サンプリングされた1つの行動に類似する前記データセットの前記実世界データからサンプリングされた関連する速度プロファイルを選択することと、前記道路グラフおよび前記サンプリングされた速度プロファイルを所望の目的地とともにダイナミクスシミュレータに供給し、ユーザが所望の運転シナリオを再現するために前記複数のシミュレーションされた多様な軌道のうちの1つまたは複数を選択することが可能なように、可視化装置上に出力される複数のシミュレーションされた多様な軌道を生成することと、を含む。
Claims (20)
- 同時マルチエージェント回帰軌道予測のためのプロセッサ上で実行されるコンピュータ実装方法であって、
シーン生成器を介して、実世界データを含むデータセットからシーンのトポロジーレイアウトを再構成する(801)ことと、
相互接続された車線の階層構造を捕捉する前記シーンの道路グラフを生成する(803)ことと、
前記データセットで利用可能なトラックレット情報を利用することによって、前記生成された道路グラフ上で前記シーンから車両を組み込む(805)ことと、
前記車両をそれらの最も近い車線識別に割り当てる(807)ことと、
前記シーン内の全ての車両について多様な妥当な行動を識別する(809)ことと、
多様な行動生成器によって、前記多様な妥当な行動から1つの行動をサンプリングし、前記サンプリングされた1つの行動に類似する前記データセットの前記実世界データからサンプリングされた関連する速度プロファイルを選択する(811)ことと、
前記道路グラフおよび前記サンプリングされた速度プロファイルを所望の目的地とともにダイナミクスシミュレータに供給し、ユーザが所望の運転シナリオを再現するために前記複数のシミュレーションされた多様な軌道のうちの1つまたは複数を選択することが可能なように、可視化装置上に出力される複数のシミュレーションされた多様な軌道を生成する(813)ことと、を含む、コンピュータ実装方法。 - 前記多様な行動生成器は、操縦識別および速度プロファイルサンプリングを含む、請求項1に記載の方法。
- 前記操縦識別は、前記シーン内の全ての車両に対して異なる妥当な操縦を識別して、車両毎に1つの操縦をサンプリングし、前記速度プロファイルサンプリングは、前記実世界データから適切な速度をサンプリングする、請求項2に記載の方法。
- 前記道路グラフは、前記シーンの鳥瞰図再構成または上面視表現である、請求項1に記載の方法。
- 交差点までの距離および平均速度のような発見的手法に基づいて、前記サンプリングされた1つの行動に従って、速度プロファイルがサンプリングされる、請求項1に記載の方法。
- 前記ダイナミクスシミュレータは、前記シーン内の全ての車両に対して安全な軌道を生成する、請求項1に記載の方法。
- 潜在エンコーダおよび条件付き生成器をさらに含み、前記潜在エンコーダは認識モジュールとして動作し、訓練段階中に使用される、請求項1に記載の方法。
- 前記条件付き生成器は、畳み込みエンコーダと、畳み込み長短期記憶(ConvLSTM)デコーダとを含む、請求項8に記載の方法。
- 同時マルチエージェント回帰軌道予測のためのコンピュータ可読プログラムを有する非一時的コンピュータ可読記憶媒体であって、前記コンピュータ可読プログラムは、コンピュータ上で実行されると、
シーン生成器を介して、実世界データを含むデータセットからシーンのトポロジーレイアウトを再構成するステップ(801)と、
相互接続された車線の階層構造を捕捉する前記シーンの道路グラフを生成するステップ(803)と、
前記データセット内で利用可能なトラックレット情報を利用することによって、前記生成された道路グラフ上で前記シーンから車両を組み込むステップ(805)と、
前記車両をそれらの最も近い車線識別に割り当てるステップ(807)と、
前記シーン内の全ての車両について多様な妥当な行動を識別するステップ(809)と、
多様な行動生成器によって、前記多様な妥当な行動から1つの行動をサンプリングし、前記サンプリングされた1つの行動に類似する前記データセットの前記実世界データからサンプリングされた関連する速度プロファイルを選択するステップ(811)と、
前記道路グラフおよび前記サンプリングされた速度プロファイルを所望の目的地とともにダイナミクスシミュレータに供給し、ユーザが所望の運転シナリオを再現するために前記複数のシミュレーションされた多様な軌道のうちの1つまたは複数を選択することが可能なように、可視化装置上に出力される複数のシミュレーションされた多様な軌道を生成するステップ(813)と、を前記コンピュータに実行させる、非一時的コンピュータ可読記憶媒体。 - 前記多様な行動生成器は、操縦識別および速度プロファイルサンプリングを含む、請求項10に記載の非一時的コンピュータ可読記憶媒体。
- 前記操縦識別は、前記シーン内の全ての車両に対して異なる妥当な操縦を識別して、車両毎に1つの操縦をサンプリングし、前記速度プロファイルサンプリングは、前記実世界データから適切な速度をサンプリングする、請求項11に記載の非一時的なコンピュータ可読記憶媒体。
- 前記道路グラフは、前記シーンの鳥瞰図再構成または上面視表現である、請求項10に記載の非一時的コンピュータ可読記憶媒体。
- 交差点までの距離および平均速度のような発見的手法に基づいて、前記サンプリングされた1つの行動に従って、速度プロファイルがサンプリングされる、請求項10に記載の非一時的コンピュータ可読記憶媒体。
- 前記ダイナミクスシミュレータは、前記シーン内の全ての車両に対して安全な軌道を生成する、請求項10に記載の非一時的なコンピュータ可読記憶媒体。
- 潜在エンコーダおよび条件付き生成器をさらに含み、前記潜在エンコーダは認識モジュールとして動作し、訓練段階中に使用される、請求項10に記載の非一時的コンピュータ可読記憶媒体。
- 前記条件付き生成器は、畳み込みエンコーダと、畳み込み長短期記憶(ConvLSTM)デコーダとを含む、請求項17に記載の非一時的コンピュータ可読記憶媒体。
- 同時マルチエージェント回帰軌道予測のためのシステムであって、
メモリと、
前記メモリと通信する1つ以上のプロセッサとを含み、該プロセッサは、
シーン生成器を介して、実世界データを含むデータセットからシーンのトポロジーレイアウトを再構成し(801)、
相互接続された車線の階層構造を捕捉する前記シーンの道路グラフを生成し(803)、
前記データセット内で利用可能なトラックレット情報を利用することによって、前記生成された道路グラフ上で前記シーンから車両を組み込み(805)、
前記車両をそれらの最も近い車線識別に割り当て(807)、
前記シーン内の全ての車両について多様な妥当な行動を識別し(809)、
多様な行動生成器によって、前記多様な妥当な行動から1つの行動をサンプリングし、前記サンプリングされた1つの行動に類似するデータセットの前記実世界データからサンプリングされた関連する速度プロファイルを選択し(811)、
前記道路グラフおよび前記サンプリングされた速度プロファイルを所望の目的地とともにダイナミクスシミュレータに供給し、ユーザが所望の運転シナリオを再現するために前記複数のシミュレーションされた多様な軌道のうちの1つまたは複数を選択することが可能なように、可視化装置上に出力される複数のシミュレーションされた多様な軌道を生成する(813)ように構成されている、システム。 - 前記多様な行動生成器は、操縦識別および速度プロファイルサンプリングを含み、前記操縦識別は、前記シーン内の全ての車両に対して異なる妥当な操縦を識別して、車両毎に1つの操縦をサンプリングし、前記速度プロファイルサンプリングは、前記実世界データから適切な速度をサンプリングする、請求項19に記載のシステム。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962935326P | 2019-11-14 | 2019-11-14 | |
US62/935,326 | 2019-11-14 | ||
US17/090,399 | 2020-11-05 | ||
US17/090,399 US20210148727A1 (en) | 2019-11-14 | 2020-11-05 | Simulating diverse long-term future trajectories in road scenes |
PCT/US2020/059384 WO2021096776A1 (en) | 2019-11-14 | 2020-11-06 | Simulating diverse long-term future trajectories in road scenes |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022547611A true JP2022547611A (ja) | 2022-11-14 |
JP7471397B2 JP7471397B2 (ja) | 2024-04-19 |
Family
ID=75909909
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022516390A Active JP7471397B2 (ja) | 2019-11-14 | 2020-11-06 | 道路シーンにおける多様な長期将来軌道のシミュレーション |
Country Status (4)
Country | Link |
---|---|
US (1) | US20210148727A1 (ja) |
JP (1) | JP7471397B2 (ja) |
DE (1) | DE112020005577T5 (ja) |
WO (1) | WO2021096776A1 (ja) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11776273B1 (en) * | 2020-11-30 | 2023-10-03 | Amazon Technologies, Inc. | Ensemble of machine learning models for automatic scene change detection |
US20220185289A1 (en) * | 2020-12-14 | 2022-06-16 | Zoox, Inc. | Lane change gap finder |
US20220198096A1 (en) * | 2020-12-23 | 2022-06-23 | Woven Planet North America, Inc. | Generating Accurate and Diverse Simulations for Evaluation of Autonomous-Driving Systems |
US20220308581A1 (en) * | 2021-03-23 | 2022-09-29 | Honda Motor Co., Ltd. | System and method for completing continual multi-agent trajectory forecasting |
US11748988B1 (en) | 2021-04-21 | 2023-09-05 | Amazon Technologies, Inc. | Shot contras five self-supervised learning of a plurality of machine learning models for video analysis applications |
CN113341960B (zh) * | 2021-05-26 | 2022-06-03 | 重庆大学 | 基于监督式dqn算法的自动驾驶汽车转向控制方法 |
CN113536612B (zh) * | 2021-09-17 | 2021-12-31 | 北京理工大学 | 一种基于仿真平台的可交互数据集重现方法与系统 |
CN114943943B (zh) * | 2022-05-16 | 2023-10-03 | 中国电信股份有限公司 | 目标轨迹获得方法、装置、设备及存储介质 |
CN115140048B (zh) * | 2022-06-28 | 2023-07-25 | 哈尔滨工业大学 | 一种自动驾驶行为决策与轨迹规划模型与方法 |
CN115009275B (zh) * | 2022-08-08 | 2022-12-16 | 北京理工大学前沿技术研究院 | 面向城市场景下车辆轨迹预测方法、系统及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017181392A (ja) * | 2016-03-31 | 2017-10-05 | アイシン・エィ・ダブリュ株式会社 | 経路探索装置及びコンピュータプログラム |
US20180124423A1 (en) * | 2016-10-28 | 2018-05-03 | Nec Laboratories America, Inc. | Dynamic scene prediction with multiple interacting agents |
JP2018197758A (ja) * | 2018-07-23 | 2018-12-13 | 株式会社ゼンリン | 車線変更支援装置及び地図データのデータ構造 |
US20190129436A1 (en) * | 2017-10-28 | 2019-05-02 | TuSimple | System and method for real world autonomous vehicle trajectory simulation |
JP2019073271A (ja) * | 2017-10-12 | 2019-05-16 | 本田技研工業株式会社 | 自律走行車ポリシー生成 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9495874B1 (en) * | 2012-04-13 | 2016-11-15 | Google Inc. | Automated system and method for modeling the behavior of vehicles and other agents |
US20130278441A1 (en) * | 2012-04-24 | 2013-10-24 | Zetta Research and Development, LLC - ForC Series | Vehicle proxying |
US8948995B2 (en) * | 2012-06-28 | 2015-02-03 | Toyota Motor Engineering & Manufacturing North America, Inc. | Preceding vehicle state prediction |
US9070202B2 (en) * | 2013-03-14 | 2015-06-30 | Nec Laboratories America, Inc. | Moving object localization in 3D using a single camera |
WO2017090399A1 (ja) | 2015-11-24 | 2017-06-01 | オリンパス株式会社 | 内視鏡装置 |
WO2018125939A1 (en) * | 2016-12-30 | 2018-07-05 | DeepMap Inc. | Visual odometry and pairwise alignment for high definition map creation |
US11195418B1 (en) * | 2018-10-04 | 2021-12-07 | Zoox, Inc. | Trajectory prediction on top-down scenes and associated model |
US11691650B2 (en) * | 2019-07-08 | 2023-07-04 | Uatc, Llc | Systems and methods for generating motion forecast data for a plurality of actors with respect to an autonomous vehicle |
US20210056863A1 (en) * | 2019-08-19 | 2021-02-25 | Samsung Electronics Co., Ltd. | Hybrid models for dynamic agents in a simulation environment |
-
2020
- 2020-11-05 US US17/090,399 patent/US20210148727A1/en active Pending
- 2020-11-06 JP JP2022516390A patent/JP7471397B2/ja active Active
- 2020-11-06 DE DE112020005577.9T patent/DE112020005577T5/de active Pending
- 2020-11-06 WO PCT/US2020/059384 patent/WO2021096776A1/en active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017181392A (ja) * | 2016-03-31 | 2017-10-05 | アイシン・エィ・ダブリュ株式会社 | 経路探索装置及びコンピュータプログラム |
US20180124423A1 (en) * | 2016-10-28 | 2018-05-03 | Nec Laboratories America, Inc. | Dynamic scene prediction with multiple interacting agents |
JP2019073271A (ja) * | 2017-10-12 | 2019-05-16 | 本田技研工業株式会社 | 自律走行車ポリシー生成 |
US20190129436A1 (en) * | 2017-10-28 | 2019-05-02 | TuSimple | System and method for real world autonomous vehicle trajectory simulation |
JP2018197758A (ja) * | 2018-07-23 | 2018-12-13 | 株式会社ゼンリン | 車線変更支援装置及び地図データのデータ構造 |
Also Published As
Publication number | Publication date |
---|---|
WO2021096776A1 (en) | 2021-05-20 |
JP7471397B2 (ja) | 2024-04-19 |
US20210148727A1 (en) | 2021-05-20 |
DE112020005577T5 (de) | 2022-09-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7471397B2 (ja) | 道路シーンにおける多様な長期将来軌道のシミュレーション | |
US11667301B2 (en) | Symbolic modeling and simulation of non-stationary traffic objects for testing and development of autonomous vehicle systems | |
US11734885B2 (en) | Systems and methods for generating synthetic light detection and ranging data via machine learning | |
US11842261B2 (en) | Deep reinforcement learning with fast updating recurrent neural networks and slow updating recurrent neural networks | |
US11137762B2 (en) | Real time decision making for autonomous driving vehicles | |
EP3776370A1 (en) | Graph neural network systems for behavior prediction and reinforcement learning in multple agent environments | |
Chen et al. | Driving maneuvers prediction based autonomous driving control by deep Monte Carlo tree search | |
US11740620B2 (en) | Operational testing of autonomous vehicles | |
US20230419113A1 (en) | Attention-based deep reinforcement learning for autonomous agents | |
US11926347B2 (en) | Conditional agent trajectory prediction | |
WO2022156181A1 (zh) | 一种运动轨迹的预测方法及装置 | |
Cai et al. | DQ-GAT: Towards safe and efficient autonomous driving with deep Q-learning and graph attention networks | |
Hu et al. | How simulation helps autonomous driving: A survey of sim2real, digital twins, and parallel intelligence | |
Chandra et al. | Using graph-theoretic machine learning to predict human driver behavior | |
Kim et al. | An open-source low-cost mobile robot system with an RGB-D camera and efficient real-time navigation algorithm | |
Katyal et al. | Occupancy map prediction using generative and fully convolutional networks for vehicle navigation | |
Khanum et al. | Involvement of Deep Learning for Vision Sensor-Based Autonomous Driving Control: A Review | |
US20200334530A1 (en) | Differentiable neuromodulated plasticity for reinforcement learning and supervised learning tasks | |
Feng et al. | Autonomous RC-car for education purpose in iSTEM projects | |
Trumpp et al. | Efficient Learning of Urban Driving Policies Using Bird's-Eye-View State Representations | |
CN113807460B (zh) | 智能体动作的确定方法和装置、电子设备和介质 | |
Sreedhar et al. | Deep Learning for Hardware-Constrained Driverless Cars | |
US20230082365A1 (en) | Generating simulated agent trajectories using parallel beam search | |
US20230278582A1 (en) | Trajectory value learning for autonomous systems | |
US20230347932A1 (en) | Evaluation of components of autonomous vehicles based on driving recommendations |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220314 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230316 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230509 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230731 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231107 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240123 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240402 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240409 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7471397 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |