JP2020123351A - Method and device for creating traffic scenario adapted to domain for virtual traveling environment for learning, testing, and verification of autonomous travel vehicle - Google Patents
Method and device for creating traffic scenario adapted to domain for virtual traveling environment for learning, testing, and verification of autonomous travel vehicle Download PDFInfo
- Publication number
- JP2020123351A JP2020123351A JP2020009531A JP2020009531A JP2020123351A JP 2020123351 A JP2020123351 A JP 2020123351A JP 2020009531 A JP2020009531 A JP 2020009531A JP 2020009531 A JP2020009531 A JP 2020009531A JP 2020123351 A JP2020123351 A JP 2020123351A
- Authority
- JP
- Japan
- Prior art keywords
- traffic
- scenario
- data
- sequential
- log
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 70
- 238000012795 verification Methods 0.000 title claims description 8
- 238000012360 testing method Methods 0.000 title description 7
- 239000000284 extract Substances 0.000 claims abstract description 12
- 238000013480 data collection Methods 0.000 claims abstract description 5
- 102100034112 Alkyldihydroxyacetonephosphate synthase, peroxisomal Human genes 0.000 claims abstract 5
- 101000799143 Homo sapiens Alkyldihydroxyacetonephosphate synthase, peroxisomal Proteins 0.000 claims abstract 5
- 238000000848 angular dependent Auger electron spectroscopy Methods 0.000 claims abstract 5
- 230000008569 process Effects 0.000 claims description 45
- 230000003416 augmentation Effects 0.000 claims description 21
- 230000015654 memory Effects 0.000 claims description 11
- 238000001514 detection method Methods 0.000 claims description 9
- 230000003190 augmentative effect Effects 0.000 claims description 7
- 230000008859 change Effects 0.000 claims description 7
- 230000001133 acceleration Effects 0.000 claims description 5
- 238000013507 mapping Methods 0.000 claims description 5
- 238000012545 processing Methods 0.000 claims description 3
- 238000000605 extraction Methods 0.000 abstract 1
- 238000004088 simulation Methods 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000013434 data augmentation Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 238000010845 search algorithm Methods 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B9/00—Simulators for teaching or training purposes
- G09B9/02—Simulators for teaching or training purposes for teaching control of vehicles or other craft
- G09B9/04—Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of land vehicles
- G09B9/05—Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of land vehicles the view from a vehicle being simulated
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/20—Design optimisation, verification or simulation
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B17/00—Systems involving the use of models or simulators of said systems
- G05B17/02—Systems involving the use of models or simulators of said systems electric
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0108—Measuring and analyzing of parameters relative to traffic conditions based on the source of data
- G08G1/0112—Measuring and analyzing of parameters relative to traffic conditions based on the source of data from the vehicle, e.g. floating car data [FCD]
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0125—Traffic data processing
- G08G1/0129—Traffic data processing for creating historical data or processing based on historical data
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0125—Traffic data processing
- G08G1/0133—Traffic data processing for classifying traffic situation
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0137—Measuring and analyzing of parameters relative to traffic conditions for specific applications
- G08G1/0141—Measuring and analyzing of parameters relative to traffic conditions for specific applications for traffic information dissemination
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B9/00—Simulators for teaching or training purposes
- G09B9/02—Simulators for teaching or training purposes for teaching control of vehicles or other craft
- G09B9/04—Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of land vehicles
- G09B9/052—Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of land vehicles characterised by provision for recording or measuring trainee's performance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2111/00—Details relating to CAD techniques
- G06F2111/18—Details relating to CAD techniques using virtual or augmented reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/006—Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/44—Event detection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Analytical Chemistry (AREA)
- Chemical & Material Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Aviation & Aerospace Engineering (AREA)
- Business, Economics & Management (AREA)
- Educational Technology (AREA)
- Educational Administration (AREA)
- Automation & Control Theory (AREA)
- Geometry (AREA)
- Computer Hardware Design (AREA)
- Traffic Control Systems (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Electromagnetism (AREA)
- Game Theory and Decision Science (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
本発明は、自律走行車両の学習のための仮想走行環境に関し;より詳しくは、前記自律走行車両を学習、テスティング及び検証するための仮想走行環境における交通シナリオを生成する方法及び装置に関する。 The present invention relates to a virtual driving environment for learning an autonomous vehicle; more particularly, to a method and apparatus for generating a traffic scenario in the virtual driving environment for learning, testing and validating the autonomous vehicle.
現代の車両、特に自動車は、自律走行と、ブラインドスポットモニター、自動駐車、及び自動ナビゲーションのような走行補助システムをますます提供している。しかしながら、自律走行及び自律補助システムをテスティングし、検証することは非常に複雑であり、長期的な道路走行テスティング(例えば、数百万時間とマイル)が必要であり得る。自律走行及び走行補助システムのアップデートは再検証を必要とし、車種によって個別の検証が求められることを踏まえると、テスティングや検証の努力が倍になり得る。 Modern vehicles, especially automobiles, are increasingly offering autonomous driving and driving assistance systems such as blind spot monitors, automatic parking, and automatic navigation. However, testing and verifying autonomous driving and autonomous assistance systems is very complex and may require long-term road driving testing (eg, millions of hours and miles). Given that autonomous driving and updating of driving assistance systems require re-verification and individual verification is required depending on the vehicle type, testing and verification efforts can be doubled.
また、自律走行自動車の自律走行システム及び走行補助システムを学習させるための学習データを十分に確保することにも困難がある。 In addition, it is difficult to secure sufficient learning data for learning the autonomous traveling system and the traveling assistance system of the autonomous vehicle.
したがって、実際の走行状況を仮想化した仮想走行環境で走行する自律走行自動車の自律走行システム及び走行補助システムを学習、テスティング、及び検証する方法が提案されている。 Therefore, there has been proposed a method for learning, testing, and verifying an autonomous traveling system and a traveling assistance system of an autonomous traveling vehicle that travels in a virtual traveling environment in which the actual traveling situation is virtualized.
仮想走行環境における自律走行自動車の自律走行システム及び走行補助システムを学習、テスティング、及び検証をするために、仮想走行環境における周辺情報についてのシナリオが提供されるべきである。 In order to learn, test and verify the autonomous driving system and driving assistance system of an autonomous vehicle in a virtual driving environment, a scenario about surrounding information in the virtual driving environment should be provided.
しかし、従来の仮想走行環境において、特定の交通状況に対するシナリオのみを提供してくれるので、実際の走行環境のような多様で精巧なシナリオを提供できないという問題点がある。 However, in the conventional virtual traveling environment, since only scenarios for specific traffic situations are provided, there is a problem that it is not possible to provide various elaborate scenarios like the actual traveling environment.
本発明は、前述した問題点を全て解決することを目的とする。 The present invention aims to solve all the above-mentioned problems.
本発明は、仮想走行環境において、実際の走行環境のような多様で精巧なシナリオを生成できるようにすることを他の目的とする。 Another object of the present invention is to enable generation of various sophisticated scenarios in a virtual driving environment, such as an actual driving environment.
本発明は、データ増強によって仮想走行環境において多様で精巧な交通シナリオを生成できるようにすることをまた他の目的とする。 It is another object of the present invention to enable data augmentation to generate diverse and sophisticated traffic scenarios in a virtual driving environment.
前記のような本発明の目的を達成し、後述する本発明の特徴的な効果を実現するための、本発明の特徴的な構成は下記の通りである。 The characteristic constitution of the present invention for achieving the above-mentioned object of the present invention and realizing the characteristic effects of the present invention described later is as follows.
本発明の一態様によれば、少なくとも一つの仮想走行環境における少なくとも一つの交通シナリオを生成する方法において、(a)以前交通データと、詳細交通データとを参照して生成された走行データが取得された状態で、交通シナリオ生成装置が、前記走行データを状況分析器に入力して、前記状況分析器をもって、前記走行データから走行環境情報を抽出するようにするプロセス、前記走行データを車両情報抽出器に入力して、前記車両情報抽出器をもって、前記走行データから自車両(ego−vehicle)に対する車両状態情報を抽出させるプロセス、及び前記走行環境情報と前記車両状態情報とを参照して、走行イベントを含む走行シークエンス(sequence)による順次交通ログ(log)を生成するプロセスを遂行する段階;及び(b)前記交通シナリオ生成装置が、前記順次交通ログをシナリオ増強ネットワークに入力して、前記シナリオ増強ネットワークをもって、少なくとも一つのクリティカルイベントを少なくとも一つの条件として利用して、前記順次交通ログを前記クリティカルイベントのイベント走行環境に対応するように前記順次交通ログを増強させることにより、前記交通シナリオを生成するプロセス、予め設定された参照交通情報を参照して前記交通シナリオを検証するプロセス、及び前記交通シナリオが有効であると決定されると、前記交通シナリオを仮想走行環境の交通シミュレータにマッピング(mapping)するプロセスを遂行する段階;を含み、前記以前交通データは、映像基盤(Vision−based)ADAS(Advanced Driver Assistance System)により少なくとも一つの前記走行イベントを含む少なくとも一つの既存の走行映像から抽出された離散(discrete)交通データに対応するメタデータであり、前記詳細交通データは、実際の走行環境で走行される一つ以上のデータ収集車両の一つ以上のセンサから収集された順次(sequential)交通データに対応するメタデータであることを特徴とする方法が提供される。 According to an aspect of the present invention, in a method of generating at least one traffic scenario in at least one virtual traveling environment, (a) traveling data generated by referring to previous traffic data and detailed traffic data is acquired. In this state, the traffic scenario generation device inputs the traveling data to the situation analyzer, and the traveling condition information is extracted from the traveling data by the situation analyzer. With reference to the process of inputting to the extractor and having the vehicle information extractor extract the vehicle state information for the own vehicle (ego-vehicle) from the traveling data, and the traveling environment information and the vehicle state information, Performing a process of generating a sequential traffic log according to a driving sequence including a driving event; and (b) the traffic scenario generating device inputs the sequential traffic log to a scenario augmentation network, and By using at least one critical event as at least one condition with a scenario augmentation network, and augmenting the sequential traffic log so as to correspond to the event traveling environment of the critical event, the traffic scenario Generating the traffic scenario, verifying the traffic scenario with reference to preset reference traffic information, and mapping the traffic scenario to a traffic simulator in a virtual driving environment when the traffic scenario is determined to be valid. Performing the mapping process, the previous traffic data is obtained from at least one existing driving image including at least one of the driving events according to a vision-based ADAS (Advanced Driver Assistance System). The detailed traffic data is metadata corresponding to the extracted discrete traffic data, and the detailed traffic data are sequentially collected from one or more sensors of one or more data collection vehicles that are driven in an actual driving environment. A method characterized in that it is metadata corresponding to traffic data is provided.
一実施例として、LSTM(long short−term memory)を含む生成器が、前記順次交通ログのうちの初期交通ログを、前記LSTMのうちの初期LSTMの次の動作を取得するために利用される前記生成器の状態として設定した状態で、前記交通シナリオ生成装置は、前記シナリオ増強ネットワークをもって、前記生成器によって予測交通ログをそれに対応する次の動作として生成することにより前記生成器によって前記交通シナリオを生成するようにし、前記初期交通ログ以降の前記予測交通ログが前記イベント走行環境に対応するように増強される。 As an example, a generator including an LSTM (long short-term memory) is used to obtain an initial traffic log of the sequential traffic logs and a next operation of the initial LSTM of the LSTMs. With the scenario set up as the state of the generator, the traffic scenario generator causes the generator to generate a predicted traffic log as the next operation corresponding to the traffic scenario, thereby causing the generator to generate the traffic scenario. And the predicted traffic log after the initial traffic log is enhanced to correspond to the event driving environment.
一実施例として、前記交通シナリオ生成装置は、判別器が、前記順次交通ログと前記予測交通ログとの間を区別するように前記判別器を学習させるプロセスと、前記順次交通ログ、前記予測交通ログ、及び前記条件を参照して生成された前記判別器の少なくとも一つのリワード(reward)を利用した方策勾配(policy gradient)によって前記生成器の少なくとも一つのパラメータを最適化させるプロセスとを遂行する。 As one example, the traffic scenario generation device includes a process in which a discriminator learns the discriminator so as to distinguish between the sequential traffic log and the predicted traffic log, the sequential traffic log, and the predicted traffic. And a process of optimizing at least one parameter of the generator by a policy gradient using at least one reward of the discriminator generated by referring to the log. ..
一実施例として、前記(b)段階で、前記交通シナリオが有効でないものと決定されたら、前記交通シナリオ生成装置は、前記検証するプロセスを参照して前記条件を変更することで少なくとも一つの変更された条件を生成し、前記シナリオ増強ネットワークをもって、前記変更された条件を利用して前記順次交通ログを増強することで新たな交通シナリオを生成させる。 As an example, if it is determined that the traffic scenario is not valid in the step (b), the traffic scenario generation device changes at least one of the conditions by changing the condition with reference to the verification process. The generated condition is generated, and the scenario increasing network is used to generate a new traffic scenario by increasing the sequential traffic log using the changed condition.
一実施例として、前記交通シナリオ生成装置は、順次データから前記クリティカルイベントを抽出するか、クリティカルイベントデータベースから前記クリティカルイベントを抽出する。 As one example, the transportation scenario generation device extracts the critical event from sequential data or extracts the critical event from a critical event database.
一実施例として、前記順次交通ログそれぞれは、少なくとも一つの物体の数と、前記物体の位置と、少なくとも一つの歩行者の数と、前記歩行者の位置と、前記物体の少なくとも一つの軌跡と、交通信号変化情報とを含む。 As one example, each of the sequential traffic logs, the number of at least one object, the position of the object, the number of at least one pedestrian, the position of the pedestrian, and at least one trajectory of the object, , Traffic signal change information.
一実施例として、前記映像基盤ADASは、前記既存走行映像を利用する、物体検出と、距離予測と、TSR(Traffic−sign Recognition)と、車道検出と、車線検出と、TTC(time−to−collision)予測と、相対速度予測とのうちの少なくとも一つを遂行する。 As one example, the image-based ADAS uses the existing running image to detect an object, predict a distance, TSR (Traffic-sign Recognition), a roadway, a lane, and a TTC (time-to-). at least one of a collision prediction and a relative speed prediction.
一実施例として、前記車両状態情報は、前記自車両の速度と、前記自車両の加速度と、前記自車両のステアリングホイール状態と、前記自車両の加速ペダルの位置と、前記自車両のブレーキ状態とのうちの少なくとも一つを含む。 As one example, the vehicle state information includes a speed of the host vehicle, an acceleration of the host vehicle, a steering wheel state of the host vehicle, a position of an accelerator pedal of the host vehicle, and a brake state of the host vehicle. And at least one of
本発明の他の態様によれば、少なくとも一つの仮想走行環境における少なくとも一つの交通シナリオを生成する交通シナリオ生成装置において、インストラクションを格納する少なくとも一つのメモリ;及び(I)以前交通データと、詳細交通データとを参照して生成された走行データが取得された状態で、前記走行データを状況分析器に入力して、前記状況分析器をもって、前記走行データから走行環境情報を抽出するようにするプロセス、前記走行データを車両情報抽出器に入力して、前記車両情報抽出器をもって、前記走行データから自車両に対する車両状態情報を抽出するようにするプロセス、及び前記走行環境情報と前記車両状態情報とを参照して、走行イベントを含む走行シークエンス(sequence)による順次交通ログを生成するプロセスを遂行するプロセス、及び(II)前記順次交通ログをシナリオ増強ネットワークに入力して、前記シナリオ増強ネットワークをもって、少なくとも一つのクリティカルイベントを少なくとも一つの条件として利用して、前記順次交通ログを前記クリティカルイベントのイベント走行環境に対応するように前記順次交通ログを増強させることにより、前記交通シナリオを生成するプロセス、予め設定された参照交通情報を参照して前記交通シナリオを検証するプロセス、及び前記交通シナリオが有効であると決定されると、前記交通シナリオを仮想走行環境の交通シミュレータにマッピングするプロセスを遂行するための、前記インストラクションを実行するように構成された少なくとも一つのプロセッサ;を含み、前記以前交通データは、映像基盤ADASにより少なくとも一つの前記走行イベントを含む少なくとも一つの既存の走行映像から抽出された離散交通データに対応するメタデータであり、前記詳細交通データは、実際の走行環境で走行される一つ以上のデータ収集車両の一つ以上のセンサから収集された順次交通データに対応するメタデータであることを特徴とする交通シナリオ生成装置が提供される。 According to another aspect of the present invention, in a traffic scenario generation device for generating at least one traffic scenario in at least one virtual driving environment, at least one memory storing instructions; and (I) previous traffic data, and details. In a state where the traveling data generated by referring to the traffic data is acquired, the traveling data is input to the situation analyzer, and the situation analyzer extracts the traveling environment information from the traveling data. A process, a process of inputting the traveling data to a vehicle information extractor, and having the vehicle information extractor extract vehicle state information for the own vehicle from the traveling data; and the traveling environment information and the vehicle state information. And (II) inputting the sequential traffic log to the scenario augmentation network, and performing the process of performing a process of generating a sequential traffic log according to a traveling sequence including traveling events, A process of generating the traffic scenario by using the at least one critical event as at least one condition to augment the sequential traffic log to correspond to an event driving environment of the critical event Performing a process of verifying the traffic scenario with reference to preset reference traffic information, and a process of mapping the traffic scenario to a traffic simulator in a virtual driving environment when the traffic scenario is determined to be valid. At least one processor configured to execute the instructions, the prior traffic data is extracted from at least one existing driving image including at least one driving event by the video-based ADAS. The detailed traffic data is metadata corresponding to sequential traffic data collected from one or more sensors of one or more data collection vehicles that are driven in an actual driving environment. There is provided a traffic scenario generation device characterized by being data.
一実施例として、LSTMを含む生成器が、前記順次交通ログのうちの初期交通ログを、前記LSTMのうちの初期LSTMの次の動作を取得するために利用される前記生成器の状態として設定した状態で、前記プロセッサは、前記シナリオ増強ネットワークをもって、前記生成器によって予測交通ログをそれに対応する次の動作として生成することにより前記生成器によって前記交通シナリオを生成するようにし、前記初期交通ログ以降の前記予測交通ログが前記イベント走行環境に対応するように増強される。 As an example, a generator including an LSTM sets an initial traffic log of the sequential traffic logs as a state of the generator used to obtain a next operation of the initial LSTM of the LSTM. Then, the processor causes the generator to generate the predicted traffic log as a corresponding next operation with the scenario augmentation network to generate the traffic scenario, and the initial traffic log The subsequent predictive traffic log is augmented to correspond to the event driving environment.
一実施例として、前記プロセッサは、判別器が、前記順次交通ログと前記予測交通ログとの間を区別するように前記判別器を学習させるプロセスと、前記順次交通ログ、前記予測交通ログ、及び前記条件を参照して生成された前記判別器の少なくとも一つのリワードを利用した方策勾配によって前記生成器の少なくとも一つのパラメータを最適化させるプロセスとを遂行する。 As one example, the processor includes a process in which a discriminator trains the discriminator to distinguish between the sequential traffic log and the predicted traffic log, the sequential traffic log, the predicted traffic log, and Performing a process of optimizing at least one parameter of the generator according to a policy gradient using at least one reward of the discriminator generated by referring to the condition.
一実施例として、前記(II)プロセスで、前記交通シナリオが有効でないものと決定されたら、前記プロセッサは、前記検証するプロセスを参照して前記条件を変更することで少なくとも一つの変更された条件を生成し、前記シナリオ増強ネットワークをもって、前記変更された条件を利用して前記順次交通ログを増強することで新たな交通シナリオを生成させる。 As an example, if the process (II) determines that the traffic scenario is not valid, the processor changes at least one of the modified conditions by referring to the verification process. And generate a new traffic scenario by sequentially increasing the traffic log using the changed condition with the scenario increasing network.
一実施例として、前記プロセッサは、順次データから前記クリティカルイベントを抽出するか、クリティカルイベントデータベースから前記クリティカルイベントを抽出する。 As one example, the processor extracts the critical event from sequential data or extracts the critical event from a critical event database.
一実施例として、前記順次交通ログそれぞれは、少なくとも一つの物体の数と、前記物体の位置と、少なくとも一つの歩行者の数と、前記歩行者の位置と、前記物体の少なくとも一つの軌跡と、交通信号変化情報とを含む。 As one example, each of the sequential traffic logs, the number of at least one object, the position of the object, the number of at least one pedestrian, the position of the pedestrian, and at least one trajectory of the object, , Traffic signal change information.
一実施例として、前記映像基盤ADASは、前記既存走行映像を利用する、物体検出と、距離予測と、TSR(Traffic−sign Recognition)と、車道検出と、車線検出と、TTC(time−to−collision)予測と、相対速度予測とのうちの少なくとも一つを遂行する。 As one example, the image-based ADAS uses the existing running image to detect an object, predict a distance, TSR (Traffic-sign Recognition), a roadway, a lane, and a TTC (time-to-). at least one of a collision prediction and a relative speed prediction.
一実施例として、前記車両状態情報は、前記自車両の速度と、前記自車両の加速度と、前記自車両のステアリングホイール状態と、前記自車両の加速ペダルの位置と、前記自車両のブレーキ状態とのうちの少なくとも一つを含む。 As one example, the vehicle state information includes a speed of the host vehicle, an acceleration of the host vehicle, a steering wheel state of the host vehicle, a position of an accelerator pedal of the host vehicle, and a brake state of the host vehicle. And at least one of
この他にも、本発明の方法を実行するためのコンピュータプログラムを記録するためのコンピュータ読取可能な記録媒体がさらに提供される。 In addition, a computer-readable recording medium for recording a computer program for executing the method of the present invention is further provided.
本発明によれば、実際の走行データを基盤に仮想走行環境での精巧な交通シナリオを生成できる効果がある。 According to the present invention, there is an effect that an elaborate traffic scenario in a virtual traveling environment can be generated based on actual traveling data.
また、本発明によれば、特定交通状況に対する離散及び順次データの増強により仮想走行環境で多様な交通シナリオを生成できる効果がある。 Further, according to the present invention, there is an effect that various traffic scenarios can be generated in a virtual traveling environment by increasing discrete and sequential data for a specific traffic situation.
本発明の実施例の説明に利用されるために添付された以下の各図面は、本発明の実施例のうちの一部に過ぎず、本発明が属する技術分野でおいて、通常の知識を有する者(以下「通常の技術者」)は、発明的作業が行われることなくこの図面に基づいて他の図面が得られ得る。
後述する本発明に対する詳細な説明は、本発明の各目的、技術的解決方法及び長所を明確にするために、本発明が実施され得る特定実施例を例示として示す添付図面を参照する。これらの実施例は、通常の技術者が本発明を実施することができるように充分詳細に説明される。 DETAILED DESCRIPTION The following detailed description of the invention refers to the accompanying drawings that illustrate, by way of illustration, specific embodiments in which the invention may be practiced, in order to clarify each object, technical solution, and advantage of the invention. These examples are described in sufficient detail to enable a person of ordinary skill in the art to practice the invention.
また、本発明の詳細な説明及び各請求項にわたって、「含む」という単語及びそれらの変形は、他の技術的各特徴、各付加物、構成要素又は段階を除外することを意図したものではない。通常の技術者にとって本発明の他の各目的、長所及び各特性が、一部は本説明書から、また一部は本発明の実施から明らかになるであろう。以下の例示及び図面は実例として提供され、本発明を限定することを意図したものではない。 Also, the word "comprising" and variations thereof throughout the detailed description of the invention and the claims are not intended to exclude other technical features, additions, components or steps. .. Other objects, advantages and features of the invention will be apparent to one of ordinary skill in the art, in part, from the description and partly from the practice of the invention. The following illustrations and drawings are provided by way of illustration and are not intended to limit the invention.
さらに、本発明は、本明細書に示された実施例のあらゆる可能な組み合わせを網羅する。本発明の多様な実施例は相互異なるが、相互排他的である必要はないことを理解されたい。例えば、ここに記載されている特定の形状、構造及び特性は一例と関連して、本発明の精神及び範囲を逸脱せず、かつ他の実施例で実装され得る。また、各々の開示された実施例内の個別構成要素の位置または配置は、本発明の精神及び範囲を逸脱せずに変更され得ることを理解されたい。従って、後述する詳細な説明は限定的な意味で捉えようとするものではなく、本発明の範囲は、適切に説明されれば、その請求項が主張することと均等なすべての範囲と、併せて添付された請求項によってのみ限定される。図面で類似する参照符号はいくつかの側面にかけて同一か類似する機能を指称する。 Furthermore, the invention covers all possible combinations of the examples presented herein. It should be understood that the various embodiments of the invention differ from each other, but need not be mutually exclusive. For example, the particular shapes, structures and characteristics described herein are, in connection with one example, without departing from the spirit and scope of the invention and may be implemented in other embodiments. It should also be understood that the location or arrangement of individual components within each disclosed embodiment may be changed without departing from the spirit and scope of the invention. Accordingly, the detailed description set forth below is not to be taken in a limiting sense, and the scope of the present invention, when properly described, includes all ranges equivalent to what the claims claim It is limited only by the claims appended hereto. In the drawings, like reference numerals refer to the same or similar features across several aspects.
本発明で言及している各種イメージは、舗装または非舗装道路関連のイメージを含み得、この場合、道路環境で登場し得る物体(例えば、自動車、人、動物、植物、物、建物、飛行機やドローンのような飛行体、その他の障害物)を想定し得るが、必ずしもこれに限定されるものではなく、本発明で言及している各種イメージは、道路と関係のないイメージ(例えば、非舗装道路、路地、空き地、海、湖、川、山、森、砂漠、空、室内と関連したイメージ)でもあり得、この場合、非舗装道路、路地、空き地、海、湖、川、山、森、砂漠、空、室内環境で登場し得る物体(例えば、自動車、人、動物、植物、物、建物、飛行機やドローンのような飛行体、その他の障害物)を想定し得るが、必ずしもこれに限定されるものではない。 The various images referred to in the present invention may include images related to paved or unpaved roads, where objects that may appear in the road environment (eg, cars, people, animals, plants, objects, buildings, airplanes, A flying object such as a drone and other obstacles can be assumed, but the invention is not limited to this. The various images referred to in the present invention are images not related to roads (for example, unpaved roads). Images associated with roads, alleys, vacant lots, seas, lakes, rivers, mountains, forests, deserts, sky, indoors), in which case unpaved roads, alleys, vacant lots, seas, lakes, rivers, mountains, forests , Deserts, sky, objects that may appear in indoor environments (eg, cars, people, animals, plants, objects, buildings, air vehicles such as airplanes and drones, and other obstacles), but not necessarily It is not limited.
本願に提供されている本発明の題名及び要約は、便宜のためのものであり、実施例の範囲を限定したり、実施例の意味を解析したりするものではない。 The titles and abstracts of the present invention provided herein are for convenience only and are not intended to limit the scope of the examples or to analyze the meaning of the examples.
以下、本発明が属する技術分野で通常の知識を有する者が本発明を容易に実施することができるようにするために、本発明の好ましい実施例について添付の図面を参照して詳細に説明する。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those having ordinary skill in the art to which the present invention pertains can easily implement the present invention. ..
図1は、本発明の一実施例に係る仮想走行環境での少なくとも一つの交通シナリオを生成する交通シナリオ生成装置を概略的に示した図面である。図1を参照すれば、前記交通シナリオ生成装置100は、前記仮想走行環境での前記交通シナリオを生成するためのインストラクションを格納するメモリ110及び前記メモリ110に格納された前記インストラクションに対応して仮想走行環境での前記交通シナリオを生成するプロセスを遂行するプロセッサ120を含むことができる。
FIG. 1 is a diagram schematically illustrating a traffic scenario generation device that generates at least one traffic scenario in a virtual driving environment according to an exemplary embodiment of the present invention. Referring to FIG. 1, the traffic
具体的に、前記交通シナリオ生成装置100は、典型的にコンピューティング装置(例えば、コンピュータのプロセッサ、メモリ、ストレージ、入力装置及び出力装置、または、その他の既存のコンピューティング構成要素を含み得る装置;ルータ、スイッチなどのような電子通信装置;ネットワーク接続ストレージ(NAS)及びストレージエリアネットワーク(SAN)のような電子情報ストレージシステム)と、コンピュータソフトウェア(つまり、前記コンピューティング装置をもって、特定の方式で機能させるインストラクション)との組み合わせを利用して、希望するシステム性能を達成するものであり得る。
Specifically, the
前記コンピューティング装置の前記プロセッサは、MPU(Micro Processing Unit)またはCPU(Central Processing Unit)、キャッシュメモリ(Cache Memory)、データバス(Data Bus)などを含み得る。また、前記コンピューティング装置は、オペレーティングシステム及び特定の目的を遂行するアプリケーションのソフトウェア構成をさらに含むこともできる。 The processor of the computing device may include an MPU (Micro Processing Unit) or a CPU (Central Processing Unit), a cache memory (Cache Memory), a data bus (Data Bus), or the like. In addition, the computing device may further include an operating system and a software configuration of an application performing a specific purpose.
しかし、前記コンピューティング装置100が本発明を行うためのミディアム(medium)、プロセッサ、メモリまたはほかのコンピューティング構成要素が統合された形である統合プロセッサを含む場合を排除するものではない。
However, it is not excluded that the
このように構成された本発明の一実施例に係る交通シナリオ生成装置100を利用して前記仮想の走行環境での前記交通シナリオを生成する方法を、図2を参照して説明する。
A method of generating the traffic scenario in the virtual traveling environment by using the traffic
まず、前記交通シナリオ生成装置100は、以前交通データと詳細交通データとを取得するか、他の装置をもって取得するよう支援することができる。
First, the traffic
その際、前記以前交通データは、車両事故のように実際の走行環境において取得しにくいデータであり得、現在のコンピュータ映像技術基盤のADAS(Advanced Driver Assistance System)を活用して、少なくとも一つの走行イベントを含む少なくとも一つの既存走行映像から抽出されたメタデータであり得る。一方、前記映像基盤ADASは、前記既存走行映像を利用する、物体検出と、距離予測と、TSR(Traffic−sign Recognition)と、車道検出と、車線検出と、TTC(time−to−collision)予測と、相対速度予測とのうちの少なくとも一つを遂行することができる。 At this time, the previous traffic data may be data that is difficult to be acquired in an actual driving environment such as a vehicle accident, and at least one driving is performed by using the current computer image technology base ADAS (Advanced Driver Assistance System). The metadata may be extracted from at least one existing driving image including an event. On the other hand, the image-based ADAS uses the existing running image to detect an object, predict a distance, TSR (Traffic-sign Recognition), a roadway, a lane, and a TTC (time-to-collision). And at least one of relative velocity prediction.
そして、前記詳細交通データは、実際の走行環境で走行される車両の一つ以上のセンサ、例えばライダ(LiDAR)、レーダ(Radar)、カメラ、GPS装置などから収集されたメタデータであり得る。 The detailed traffic data may be metadata collected from one or more sensors of a vehicle traveling in an actual traveling environment, such as a lidar (LiDAR), a radar (Radar), a camera, and a GPS device.
一方、前記以前交通データは、離散(discrete)交通データであり得、前記詳細交通データは順次(sequential)交通データであり得る。 Meanwhile, the previous traffic data may be discrete traffic data, and the detailed traffic data may be sequential traffic data.
次に、前記交通シナリオ生成装置100は、前記以前交通データ及び前記詳細交通データを参照して走行データを取得することができる。一例として、前記走行データは、前記車両の入力センサに対応する、前記GPS装置、前記ライダ、前記レーダ、前記カメラ等から取得した情報のような、前記車両に関連する前記走行データであり得る。
Next, the traffic
そして、前記交通シナリオ生成装置100は、前記走行データを状況分析器130に入力して、前記状況分析器130をもって、前記走行データから走行環境情報を抽出するようにするプロセス、及び、前記走行データを車両情報抽出器140に入力して、前記車両情報抽出器140をもって、前記走行データから自車両(ego−vehicle)に対する車両状態情報を抽出するようにするプロセスを遂行することができる。その際、通常の技術者に広く知られているように、前記自車両は対象車両、例えば本発明に係る前記仮想走行環境において走行される車両を意味し得る。
Then, the traffic
一例として、前記状況分析機130は、物体検出情報、距離予測情報、TSR(Traffic−sign Recognition)情報、車道検出情報、車線検出情報、TTC(time−to−collision)予測情報、相対速度予測情報等の中から少なくとも一部を前記走行データから取得することができる。
As an example, the
また、前記車両情報抽出器140は、前記自車両の速度と、前記自車両の加速度と、前記自車両のステアリングホイール状態と、前記自車両の加速ペダルの位置と、前記自車両のブレーキ状態とのうちの少なくとも一つを抽出することができる。
In addition, the
次に、前記交通シナリオ生成装置100は、前記状況分析器130からの前記走行環境情報と、前記車両情報抽出器140からの前記車両状態情報とを参照して、前記走行イベントを含む走行シークエンス(sequence)による順次交通ログ(log)を生成することができる。
Next, the traffic
一例として、前記交通シナリオ生成装置100は、前記状況分析器130によって取得された前記走行環境情報を前記車両情報抽出器140から取得された前記車両状態情報にマッチングさせることにより、イメージフレームを生成することができる。この際、前記イメージフレームは、離散及び順次データであり得、これは、トンネルまたは橋梁進入イベント、車線変更イベント、トンネルまたは橋梁通過イベント等の特定イベントが発生する前後の前記走行データであり得る。
As an example, the traffic
そして、前記交通シナリオ生成装置100は、前記離散及び順次データに含まれた前記走行イベントを後処理(post−processing)することにより、離散的及び順次的二次加工データである一つ以上の順次交通ログを生成することができる。
Then, the traffic
この際、前記順次交通ログそれぞれは、少なくとも一つの物体の数と、前記物体の位置と、少なくとも一つの歩行者の数と、前記歩行者の位置と、前記物体の少なくとも一つの軌跡と、交通信号変化情報とを含み得る。 At this time, each of the sequential traffic logs includes the number of at least one object, the position of the object, the number of at least one pedestrian, the position of the pedestrian, at least one trajectory of the object, and the traffic. Signal change information.
その後、前記交通シナリオ生成装置100は、前記順次交通ログを順次メタデータに変換することができる。
Then, the traffic
つまり、前記交通シナリオ生成装置100は、少なくとも一つの順次メタコンバータをもって、前記順次交通ログに含まれた、前記状況分析器130及び前記車両情報抽出器140によって抽出されたデータをエンコードするようにして、少なくとも一つの交通シミュレータが前記エンコードされたデータを識別するようにすることができる。
That is, the traffic
次に、前記交通シナリオ生成装置100は、前記順次交通ログをシナリオ増強ネットワーク150に入力して、前記シナリオ増強ネットワーク150をもって、少なくとも一つのクリティカルイベントを少なくとも一つの条件として利用して、前記順次交通ログを前記クリティカルイベントのイベント走行環境に対応するように前記順次交通ログを増強させることにより、前記交通シナリオを生成するプロセスを遂行することができる。
Next, the traffic
一例として、LSTM(long short−term
memory)を含む生成器151が、前記順次交通ログのうちの初期交通ログを、前記LSTMのうちの初期LSTMの次の動作を取得するために利用される前記生成器151の状態として設定した状態で、前記シナリオ増強ネットワーク150は、前記生成器151によって一つ以上の予測交通ログをそれに対応する次の動作として生成することにより前記生成器151によって前記交通シナリオを生成するようにし、前記初期交通ログ以降の前記予測交通ログは、前記イベント走行環境に対応するように増強され得る。
As an example, LSTM (long short-term)
state in which the
図3を参照すれば、前記シナリオ増強ネットワーク150は、少なくとも一つのレイテントコード(latent code)zと少なくとも一つのクリティカルイベントyとを前記生成器151に入力することにより、前記生成器151をもって、前記初期交通ログに対応する前記予測交通ログを生成するようにして、前記予測交通ログが前記走行環境内の前記クリティカルイベントに対応するようにすることができる。
Referring to FIG. 3, the
この際、順次データから前記クリティカルイベントが抽出され得、または多様なクリティカルイベントを格納するクリティカルイベントデータベース160から特定クリティカルイベントが検索され得る。
At this time, the critical event may be sequentially extracted from the data, or a specific critical event may be retrieved from the
一例として、前記クリティカルイベントは、緊急状況での急停車、交差点での交通信号変化などのような走行イベントのうちの特定走行イベントであり得、前記交差点で青信号が赤信号に変更されるのと同じく、多様な条件が設定され得、このようなクリティカルイベント及び前記様々な条件によって、前記生成器151は、前記実際の走行状況のように様々な交通シナリオを生成することができる。
As an example, the critical event may be a specific driving event among driving events such as a sudden stop in an emergency situation, a traffic light change at an intersection, and the like, in which the green light is changed to a red light at the intersection. Various conditions may be set, and the
一方で、前記シナリオ増強ネットワーク150は、前記交通シナリオを生成する前記生成器151と、前記交通シナリオを評価する判別器152とが互いに並列に、競争的に学習して、前記生成器が前記判別器を騙すことができるほどに精巧なデータを生成するようにする構成を有することができる。
On the other hand, in the
前記シナリオ増強ネットワーク150は、少なくとも一つの状態と少なくとも一つの動作とで構成され、前記離散データをモデリングするのに容易であり、リワード(reward)を基盤にして部分的に確率的方策(stochastic policy)を取得することができる方策基盤強化学習技法である方策勾配(policy gradient)を利用することにより、前記生成器151を学習させることができる。また、方策勾配技法のうちのモンテカルロ方策勾配(Monte Carlo policy gradient)が利用され得る。この際、前記モンテカル方策勾配は、(i)現在の状態から次の状態を予測できるネットワークの一つであるロールアウト方策、及び(ii)効率的非全面(non−exhaustive)探索アルゴリズムの一つであるMCTS(Monte Carlo Tree Search)を用いて、前記確率的方策を生成する学習手法であり得る。一例として、前記状態は、トークン(token)として設定され得、前記動作は、次のトークンを付与する行動として設定され得、エージェント(agent)は、前記生成器151として設定され得る。前記判別器152によって決定されるラベルは、前記リワードとしてモデリングされることにより、前記生成器151を学習させ得る。この際、前記生成器151は、RNN(Recurrent Neural Network)内、勾配消失(vanishing gradient)問題のない少なくとも一つのLSTMを利用することができ、前記判別器152は、CNNを利用することができる。
The
つまり、図4及び図5を参照すれば、前記シナリオ増強ネットワーク150は、前記生成器151をもって生成された前記予測交通ログ及び前記順次交通ログを前記判別器152に入力することにより、前記判別器152をもって、これの入力データが実際のデータであるか偽のデータであるかを決定させることができ、前記判別器152の一つ以上の出力を利用して、前記判別器152を学習させて前記判別器152が前記順次交通ログと、前記予測交通ログとを区別するようにすることができる。
That is, referring to FIG. 4 and FIG. 5, the
また、前記判別器152を学習させた後、前記LSTMを含む生成器151が、前記順次交通ログのうちの初期交通ログを、前記LSTMのうちの初期LSTMの次の動作を取得するために利用される前記生成器151の状態として設定した状態で、前記シナリオ増強ネットワーク150は、前記生成器151によって、前記予測交通ログをそれに対応する次の動作として生成し、前記順次交通ログと、前記予測交通ログと、前記条件とを前記判別器152に入力することにより、前記判別器152をもって、前記予測交通ログが前記順次交通ログ及び前記条件に合わせて生成されたか否かを示す、少なくとも一つのリワードを出力するようにすることができる。そして、前記シナリオ増強ネットワーク150は、前記リワードを利用する前記方策勾配を参照して前記生成器151を学習させることができる。
In addition, after learning the
次に、前記交通シナリオ生成装置100が、予め設定された参照交通情報を参照して前記交通シナリオを検証するプロセスを遂行することができる。
Next, the traffic
この際、前記交通シナリオ生成装置100は、最小限の予め設定された交通規則情報と、前記交通シナリオとを比較して、前記交通シナリオが有効であるかどうかを決定することができる。一例として、前記交通シナリオが高速道路進入イベントを含み、前記交通シナリオ内の全てのイベントが前記高速道路上の走行中に発生すると想定し、交通法規データベースを参照した場合、前記高速道路上で交通信号が許可されない前記交通規則情報が存在する場合、前記交通信号に係るイベントは有効でないものであり得る。
At this time, the traffic
そして、前記生成された交通シナリオが有効であると決定されると、前記交通シナリオ生成装置100が前記交通シナリオを前記仮想走行環境の前記交通シミュレータにマッチングさせることができる。
When it is determined that the generated traffic scenario is valid, the traffic
一方で、前記交通シナリオが有効ではないことが決定されると、前記交通シナリオ生成装置100は、前記のような検証プロセスを参照して前記条件を変更することで少なくとも一つの変更された条件を生成するプロセスを遂行し、前記シナリオ増強ネットワーク150をもって、前記変更された条件を利用して前記順次交通ログを増強させることで新たな交通シナリオを生成することができる。
On the other hand, when it is determined that the traffic scenario is not valid, the traffic
前記で説明したように、本発明は、特定交通状況に対する静的データと前記順次データとを生成し、前記仮想走行環境内の周辺情報であるターゲット車両及び歩行者等に対する前記交通シナリオを生成し、前記生成された交通シナリオを前記仮想走行環境の前記交通シミュレータにマッピング(mapping)し、仮想走行の前記生成された交通シナリオを活用することができるようになる。 As described above, the present invention generates static data for a specific traffic situation and the sequential data, and generates the traffic scenario for a target vehicle, a pedestrian, etc., which is peripheral information in the virtual traveling environment. The generated traffic scenario can be mapped to the traffic simulator in the virtual traveling environment, and the generated traffic scenario for virtual traveling can be utilized.
また、以上で説明された本発明に係る実施例は、多様なコンピュータ構成要素を通じて遂行できるプログラム命令語の形態で具現されてコンピュータで判読可能な記録媒体に記録され得る。前記コンピュータで読取り可能な記録媒体はプログラム命令語、データファイル、データ構造などを単独でまたは組み合わせて含まれ得る。前記コンピュータ読取り可能な記録媒体に記録されるプログラム命令語は、本発明のために特別に設計されて構成されたものであるか、コンピュータソフトウェア分野の当業者に公知となって利用可能なものでもよい。コンピュータで判読可能な記録媒体の例には、ハードディスク、フロッピーディスク及び磁気テープのような磁気媒体、CD−ROM、DVDのような光記録媒体、フロプティカルディスク(flopticaldisk)のような磁気−光媒体(magneto−opticalmedia)、及びROM、RAM、フラッシュメモリなどといったプログラム命令語を格納して遂行するように特別に構成されたハードウェア装置が含まれる。プログラム命令語の例には、コンパイラによって作られるもののような機械語コードだけでなく、インタプリタなどを用いてコンピュータによって実行され得る高級言語コードも含まれる。前記ハードウェア装置は、本発明に係る処理を遂行するために一つ以上のソフトウェアモジュールとして作動するように構成され得、その逆も同様である。 Also, the embodiments of the present invention described above may be embodied in the form of program command words that can be executed through various computer components and recorded on a computer-readable recording medium. The computer-readable recording medium may include a program command word, a data file, a data structure, etc., alone or in combination. The program command words recorded on the computer-readable recording medium may be those specially designed and constructed for the present invention, or those known and available to those skilled in the computer software field. Good. Examples of computer-readable recording media are magnetic media such as hard disks, floppy disks and magnetic tapes, optical recording media such as CD-ROMs and DVDs, magnetic-optical media such as floppy disks. Included are magneto-optical media and hardware devices specially configured to store and execute program command words such as ROM, RAM, flash memory, and the like. Examples of program instruction words include not only machine language codes such as those produced by a compiler, but also high level language codes that can be executed by a computer using an interpreter or the like. The hardware device may be configured to operate as one or more software modules to perform the process of the present invention, and vice versa.
以上、本発明が具体的な構成要素などのような特定事項と限定された実施例及び図面によって説明されたが、これは本発明のより全般的な理解を助けるために提供されたものであるに過ぎず、本発明が前記実施例に限られるものではなく、本発明が属する技術分野において通常の知識を有する者であれば係る記載から多様な修正及び変形が行われ得る。
従って、本発明の思想は前記説明された実施例に局限されて定められてはならず、後述する特許請求の範囲だけでなく、本特許請求の範囲と均等または等価的に変形されたものすべては、本発明の思想の範囲に属するといえる。
The present invention has been described above with reference to specific examples such as specific components and limited examples and drawings, which are provided to help a more general understanding of the present invention. However, the present invention is not limited to the above-mentioned embodiments, and various modifications and variations can be made by those skilled in the art to which the present invention pertains.
Therefore, the idea of the present invention should not be limited to the above-described embodiments, and is not limited to the scope of the claims to be described later, and all modifications equivalent or equivalent to the scope of the claims. Can be said to belong to the scope of the idea of the present invention.
Claims (16)
(a)以前交通データと、詳細交通データとを参照して生成された走行データが取得された状態で、交通シナリオ生成装置が、前記走行データを状況分析器に入力して、前記状況分析器をもって、前記走行データから走行環境情報を抽出するようにするプロセス、前記走行データを車両情報抽出器に入力して、前記車両情報抽出器をもって、前記走行データから自車両に対する車両状態情報を抽出させるプロセス、及び前記走行環境情報と前記車両状態情報とを参照して、走行イベントを含む走行シークエンスによる順次交通ログを生成するプロセスを遂行する段階;及び
(b)前記交通シナリオ生成装置が、前記順次交通ログをシナリオ増強ネットワークに入力して、前記シナリオ増強ネットワークをもって、少なくとも一つのクリティカルイベントを少なくとも一つの条件として利用して、前記順次交通ログを前記クリティカルイベントのイベント走行環境に対応するように前記順次交通ログを増強させることにより、前記交通シナリオを生成するプロセス、予め設定された参照交通情報を参照して前記交通シナリオを検証するプロセス、及び前記交通シナリオが有効であると決定されると、前記交通シナリオを仮想走行環境の交通シミュレータにマッピングするプロセスを遂行する段階;
を含み、前記以前交通データは、映像基盤ADASにより少なくとも一つの前記走行イベントを含む少なくとも一つの既存の走行映像から抽出された離散交通データに対応するメタデータであり、前記詳細交通データは、実際の走行環境で走行される一つ以上のデータ収集車両の一つ以上のセンサから収集された順次交通データに対応するメタデータであることを特徴とする方法。 In a method of generating at least one traffic scenario in at least one virtual driving environment,
(A) With the travel data generated by referring to the previous traffic data and the detailed traffic data being acquired, the traffic scenario generation device inputs the travel data to the situation analyzer, and the situation analyzer And a process for extracting traveling environment information from the traveling data, inputting the traveling data to a vehicle information extractor, and causing the vehicle information extractor to extract vehicle state information for the own vehicle from the traveling data. Performing a process, and a process of generating a sequential traffic log according to a driving sequence including a driving event, with reference to the driving environment information and the vehicle state information; and (b) the traffic scenario generation device performs the sequential processing. The traffic log is input to the scenario augmentation network, the scenario augmentation network is used to utilize at least one critical event as at least one condition, and the sequential traffic log is adapted to correspond to the event traveling environment of the critical event. By sequentially increasing the traffic log, a process of generating the traffic scenario, a process of verifying the traffic scenario with reference to preset reference traffic information, and the traffic scenario is determined to be effective, Performing a process of mapping the traffic scenario to a traffic simulator of a virtual driving environment;
The previous traffic data is metadata corresponding to discrete traffic data extracted from at least one existing driving video including at least one driving event by the video-based ADAS, and the detailed traffic data is actually The method is characterized in that it is metadata corresponding to sequential traffic data collected from one or more sensors of one or more data collection vehicles that are driven in the driving environment.
前記交通シナリオが有効でないものと決定されたら、前記交通シナリオ生成装置は、前記検証するプロセスを参照して前記条件を変更することで少なくとも一つの変更された条件を生成し、前記シナリオ増強ネットワークをもって、前記変更された条件を利用して前記順次交通ログを増強することで新たな交通シナリオを生成させることを特徴とする請求項1に記載の方法。 In the step (b),
When it is determined that the traffic scenario is not valid, the traffic scenario generation device generates at least one changed condition by changing the condition with reference to the verification process, The method according to claim 1, wherein a new traffic scenario is generated by augmenting the sequential traffic log using the changed condition.
インストラクションを格納する少なくとも一つのメモリ;及び
(I)以前交通データと、詳細交通データとを参照して生成された走行データが取得された状態で、前記走行データを状況分析器に入力して、前記状況分析器をもって、前記走行データから走行環境情報を抽出するようにするプロセス、前記走行データを車両情報抽出器に入力して、前記車両情報抽出器をもって、前記走行データから自車両に対する車両状態情報を抽出するようにするプロセス、及び前記走行環境情報と前記車両状態情報とを参照して、走行イベントを含む走行シークエンスによる順次交通ログを生成するプロセスを遂行するプロセス、及び(II)前記順次交通ログをシナリオ増強ネットワークに入力して、前記シナリオ増強ネットワークをもって、少なくとも一つのクリティカルイベントを少なくとも一つの条件として利用して、前記順次交通ログを前記クリティカルイベントのイベント走行環境に対応するように前記順次交通ログを増強させることにより、前記交通シナリオを生成するプロセス、予め設定された参照交通情報を参照して前記交通シナリオを検証するプロセス、及び前記交通シナリオが有効であると決定されると、前記交通シナリオを仮想走行環境の交通シミュレータにマッピングするプロセスを遂行するための、前記インストラクションを実行するように構成された少なくとも一つのプロセッサ;
を含み、前記以前交通データは、映像基盤ADASにより少なくとも一つの前記走行イベントを含む少なくとも一つの既存の走行映像から抽出された離散交通データに対応するメタデータであり、前記詳細交通データは、実際の走行環境で走行される一つ以上のデータ収集車両の一つ以上のセンサから収集された順次交通データに対応するメタデータであることを特徴とする交通シナリオ生成装置。 In a traffic scenario generation device for generating at least one traffic scenario in at least one virtual traveling environment,
At least one memory storing instructions; and (I) inputting the travel data into the situation analyzer with the travel data generated by referring to the previous traffic data and the detailed traffic data, A process for extracting traveling environment information from the traveling data by the situation analyzer, inputting the traveling data to a vehicle information extractor, and using the vehicle information extractor, a vehicle state for the own vehicle from the traveling data. A process for extracting information, a process for performing a process for generating a sequential traffic log by a driving sequence including a driving event with reference to the driving environment information and the vehicle state information, and (II) the sequential The traffic log is input to the scenario augmentation network, the scenario augmentation network is used to utilize at least one critical event as at least one condition, and the sequential traffic log is adapted to correspond to the event traveling environment of the critical event. By sequentially increasing the traffic log, a process of generating the traffic scenario, a process of verifying the traffic scenario with reference to preset reference traffic information, and the traffic scenario is determined to be effective, At least one processor configured to execute the instructions for performing a process of mapping the traffic scenario to a traffic simulator of a virtual driving environment;
The previous traffic data is metadata corresponding to discrete traffic data extracted from at least one existing driving video including at least one driving event by the video-based ADAS, and the detailed traffic data is actually A traffic scenario generation device characterized by being metadata corresponding to sequential traffic data collected from one or more sensors of one or more data collection vehicles that are driven in the driving environment.
前記交通シナリオが有効でないものと決定されたら、前記プロセッサは、前記検証するプロセスを参照して前記条件を変更することで少なくとも一つの変更された条件を生成し、前記シナリオ増強ネットワークをもって、前記変更された条件を利用して前記順次交通ログを増強することで新たな交通シナリオを生成させることを特徴とする請求項9に記載の交通シナリオ生成装置。 In the process (II),
If the traffic scenario is determined to be invalid, the processor generates at least one modified condition by modifying the condition with reference to the verifying process, and the processor augments the modified condition with the scenario augmentation network. The traffic scenario generation device according to claim 9, wherein a new traffic scenario is generated by increasing the sequential traffic log using the specified condition.
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962798705P | 2019-01-30 | 2019-01-30 | |
US62/798,705 | 2019-01-30 | ||
US16/731,066 | 2019-12-31 | ||
US16/731,066 US10636295B1 (en) | 2019-01-30 | 2019-12-31 | Method and device for creating traffic scenario with domain adaptation on virtual driving environment for testing, validating, and training autonomous vehicle |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020123351A true JP2020123351A (en) | 2020-08-13 |
JP6935948B2 JP6935948B2 (en) | 2021-09-15 |
Family
ID=70332697
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020009531A Active JP6935948B2 (en) | 2019-01-30 | 2020-01-23 | Methods and devices for generating domain-adapted traffic scenarios for virtual driving environments for learning, testing and validating autonomous vehicles |
Country Status (5)
Country | Link |
---|---|
US (1) | US10636295B1 (en) |
EP (1) | EP3690754A1 (en) |
JP (1) | JP6935948B2 (en) |
KR (1) | KR102440938B1 (en) |
CN (1) | CN111506980B (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210050150A (en) * | 2019-10-28 | 2021-05-07 | 고려대학교 세종산학협력단 | Method and procedure for driving autonomous test scenario using traffic accident image based on operational environment information in road traffic |
Families Citing this family (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AT521607B1 (en) * | 2018-10-24 | 2020-03-15 | Avl List Gmbh | Method and device for testing a driver assistance system |
JP7192709B2 (en) * | 2019-08-09 | 2022-12-20 | トヨタ自動車株式会社 | Vehicle remote instruction training device |
CN111932869A (en) * | 2020-06-25 | 2020-11-13 | 厦门迅优通信科技有限公司 | Three-parameter analysis method based on traffic flow particle characteristics |
CN111983934B (en) * | 2020-06-28 | 2021-06-01 | 中国科学院软件研究所 | Unmanned vehicle simulation test case generation method and system |
CN111967124A (en) * | 2020-06-30 | 2020-11-20 | 中汽数据有限公司 | Generation method for universal amplification of intelligent automobile recombination scene |
CN111599181B (en) * | 2020-07-22 | 2020-10-27 | 中汽院汽车技术有限公司 | Typical natural driving scene recognition and extraction method for intelligent driving system test |
KR20220039903A (en) * | 2020-09-21 | 2022-03-30 | 현대자동차주식회사 | Apparatus and method for controlling autonomous driving of vehicle |
US11755469B2 (en) * | 2020-09-24 | 2023-09-12 | Argo AI, LLC | System for executing structured tests across a fleet of autonomous vehicles |
CN112053433A (en) * | 2020-09-30 | 2020-12-08 | 中国汽车技术研究中心有限公司 | Construction method of civil aviation airport dynamic scene and airport special vehicle training method |
CN112462759B (en) * | 2020-11-12 | 2024-02-27 | 浙江吉利控股集团有限公司 | Evaluation method, system and computer storage medium of rule control algorithm |
CN114694449B (en) * | 2020-12-25 | 2023-04-18 | 华为技术有限公司 | Method and device for generating vehicle traffic scene, training method and device |
WO2022145506A1 (en) * | 2020-12-28 | 2022-07-07 | 한국전자기술연구원 | Method and system for generating hierarchical dataset for artificial intelligence learning, including data acquisition situation information |
DE102021201177A1 (en) | 2021-02-09 | 2022-08-11 | Zf Friedrichshafen Ag | Computer-implemented method and computer program for generating routes for an automated driving system |
DE102021104077B3 (en) | 2021-02-22 | 2022-05-25 | Dr. Ing. H.C. F. Porsche Aktiengesellschaft | Method, system and computer program product for the automated generation of traffic data |
CN113139644B (en) * | 2021-03-24 | 2024-02-09 | 北京科技大学顺德研究生院 | Information source navigation method and device based on deep Monte Carlo tree search |
KR102568969B1 (en) | 2021-03-31 | 2023-08-23 | 주식회사 한국디지털트윈연구소 | Driving environment scenario generator for autonomous driving testing using digital twin technology |
JP2022157321A (en) * | 2021-03-31 | 2022-10-14 | トヨタ自動車株式会社 | Traffic control system, traffic control method, and program |
CN113254336B (en) * | 2021-05-24 | 2022-11-08 | 公安部道路交通安全研究中心 | Method and system for simulation test of traffic regulation compliance of automatic driving automobile |
CN116761998A (en) * | 2021-05-28 | 2023-09-15 | 深圳市大疆创新科技有限公司 | Safety test method of vehicle system and vehicle for testing |
DE102021206737A1 (en) | 2021-06-29 | 2022-12-29 | Psa Automobiles Sa | Designing an automation algorithm for a vehicle |
CN113361144B (en) * | 2021-07-15 | 2022-05-20 | 中交第二公路勘察设计研究院有限公司 | BIM-based road driving simulation environment establishment method |
CN113642108B (en) * | 2021-08-11 | 2023-11-10 | 北京航空航天大学 | Method for generating key test cases of traffic scene of unmanned vehicle crossroad |
CN113836701A (en) * | 2021-09-03 | 2021-12-24 | 东风小康汽车有限公司重庆分公司 | Simulation scene construction method and device, computer equipment and storage medium |
CN113532888B (en) * | 2021-09-17 | 2022-03-18 | 北京智能车联产业创新中心有限公司 | Pure vision automatic driving vehicle testing method and device |
KR20230075300A (en) | 2021-11-22 | 2023-05-31 | 오토아이티(주) | Indoor learning system for autonomous vehicles |
KR102580532B1 (en) | 2021-11-22 | 2023-09-20 | 오토아이티(주) | Indoor test system for evaluating performance of autonomous vehicles |
CN114913620A (en) * | 2022-05-18 | 2022-08-16 | 一汽解放汽车有限公司 | Data extraction method and device, computer equipment and storage medium |
US20240096232A1 (en) * | 2022-08-31 | 2024-03-21 | Zoox, Inc. | Safety framework with calibration error injection |
KR20240043971A (en) | 2022-09-28 | 2024-04-04 | (주)이노시뮬레이션 | Automatic creating virtual environment and proposal method and system for autonomous driving simulation |
KR102598898B1 (en) * | 2022-10-07 | 2023-11-06 | 주식회사 자동차공학연구소 | Design method of virtual road driving space and design system of virtual road driving space |
KR102489534B1 (en) * | 2022-11-14 | 2023-01-18 | 주식회사 마키나락스 | Method for predicting the areas of information needed to be collected |
KR102579590B1 (en) * | 2022-12-28 | 2023-09-18 | 도로교통공단 | Autonomous Vehicle ability evaluation scenario generation system based on the Road Traffic Act |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06259407A (en) * | 1993-03-09 | 1994-09-16 | Mitsubishi Electric Corp | Simulation device for road traffic control |
JP2002157673A (en) * | 2000-11-22 | 2002-05-31 | Natl Inst For Land & Infrastructure Management Mlit | Road traffic evaluating device |
JP2002163747A (en) * | 2000-11-24 | 2002-06-07 | Natl Inst For Land & Infrastructure Management Mlit | Traffic simulation method |
WO2014024264A1 (en) * | 2012-08-08 | 2014-02-13 | 株式会社 日立製作所 | Traffic-volume prediction device and method |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010002714A (en) * | 2008-06-20 | 2010-01-07 | Toyota Motor Corp | Simulator device and operation challenge providing method |
US8874301B1 (en) * | 2013-07-09 | 2014-10-28 | Ford Global Technologies, Llc | Autonomous vehicle with driver presence and physiological monitoring |
CN105718065B (en) * | 2016-01-27 | 2018-08-21 | 北京交通大学 | Interactive inspection analogue system under bus or train route cooperative surroundings |
CN105807922B (en) * | 2016-03-07 | 2018-10-02 | 湖南大学 | Implementation method that a kind of amusement of virtual reality drives, apparatus and system |
KR101902824B1 (en) * | 2016-04-12 | 2018-10-02 | 자동차부품연구원 | Driving integrated simulation apparatus based on v2x communication |
KR101850038B1 (en) * | 2016-05-24 | 2018-06-07 | (주)이노시뮬레이션 | Apparatus and method for simulating car |
KR102057532B1 (en) * | 2016-10-12 | 2019-12-20 | 한국전자통신연구원 | Device for sharing and learning driving environment data for improving the intelligence judgments of autonomous vehicle and method thereof |
CN106777747A (en) * | 2016-12-29 | 2017-05-31 | 广西航程威特科技有限公司 | A kind of three-dimensional traffic analogue simulation system |
US10118628B2 (en) * | 2017-02-21 | 2018-11-06 | Allstate Insurance Company | Data processing system for guidance, control, and testing autonomous vehicle features and driver response |
US10229590B2 (en) * | 2017-08-14 | 2019-03-12 | GM Global Technology Operations LLC | System and method for improved obstable awareness in using a V2X communications system |
CN108091203A (en) * | 2017-12-07 | 2018-05-29 | 中国航空工业集团公司西安航空计算技术研究所 | It is a kind of based on virtual reality technology stress traffic scene driving training system |
EP3543985A1 (en) * | 2018-03-21 | 2019-09-25 | dSPACE digital signal processing and control engineering GmbH | Simulation of different traffic situations for a test vehicle |
US11994860B2 (en) * | 2018-06-15 | 2024-05-28 | Allstate Insurance Company | Processing system for evaluating autonomous vehicle control systems through continuous learning |
-
2019
- 2019-12-31 US US16/731,066 patent/US10636295B1/en active Active
-
2020
- 2020-01-13 KR KR1020200004510A patent/KR102440938B1/en active IP Right Grant
- 2020-01-16 EP EP20152231.5A patent/EP3690754A1/en active Pending
- 2020-01-23 JP JP2020009531A patent/JP6935948B2/en active Active
- 2020-01-23 CN CN202010077029.5A patent/CN111506980B/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06259407A (en) * | 1993-03-09 | 1994-09-16 | Mitsubishi Electric Corp | Simulation device for road traffic control |
JP2002157673A (en) * | 2000-11-22 | 2002-05-31 | Natl Inst For Land & Infrastructure Management Mlit | Road traffic evaluating device |
JP2002163747A (en) * | 2000-11-24 | 2002-06-07 | Natl Inst For Land & Infrastructure Management Mlit | Traffic simulation method |
WO2014024264A1 (en) * | 2012-08-08 | 2014-02-13 | 株式会社 日立製作所 | Traffic-volume prediction device and method |
Non-Patent Citations (1)
Title |
---|
JENKINS IAN RHYS ET AL: "Accident Scenario Generation withRecurrent Neural Networks", 2018 21ST INTERNATIONAL CONFERENCE ON INTELLIGENT TRANSPORTATION SYSTEMS (ITSC), JPN6021007367, 4 November 2018 (2018-11-04), pages 3340 - 3345, XP033470305, ISSN: 0004457545, DOI: 10.1109/ITSC.2018.8569661 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210050150A (en) * | 2019-10-28 | 2021-05-07 | 고려대학교 세종산학협력단 | Method and procedure for driving autonomous test scenario using traffic accident image based on operational environment information in road traffic |
KR102306085B1 (en) | 2019-10-28 | 2021-09-28 | 고려대학교 세종산학협력단 | Method and procedure for driving autonomous test scenario using traffic accident image based on operational environment information in road traffic |
Also Published As
Publication number | Publication date |
---|---|
KR102440938B1 (en) | 2022-09-06 |
KR20200094650A (en) | 2020-08-07 |
CN111506980A (en) | 2020-08-07 |
EP3690754A1 (en) | 2020-08-05 |
CN111506980B (en) | 2023-09-08 |
US10636295B1 (en) | 2020-04-28 |
JP6935948B2 (en) | 2021-09-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6935948B2 (en) | Methods and devices for generating domain-adapted traffic scenarios for virtual driving environments for learning, testing and validating autonomous vehicles | |
JP6738932B2 (en) | System and method for training machine learning models located on a simulation platform | |
CN109598066B (en) | Effect evaluation method, apparatus, device and storage medium for prediction module | |
CN112703459B (en) | Iterative generation of confrontational scenarios | |
US10919543B2 (en) | Learning method and learning device for determining whether to switch mode of vehicle from manual driving mode to autonomous driving mode by performing trajectory-based behavior analysis on recent driving route | |
JP6916552B2 (en) | A method and device for detecting a driving scenario that occurs during driving and providing information for evaluating a driver's driving habits. | |
CN110597086A (en) | Simulation scene generation method and unmanned system test method | |
KR20200075344A (en) | Detector, method of object detection, learning apparatus, and learning method for domain transformation | |
JP2023510136A (en) | Geolocation models for perception, prediction or planning | |
KR20190013689A (en) | Evaluation Framework for Trajectory Predicted in Autonomous Vehicle Traffic Forecasting | |
JP6418574B2 (en) | Risk estimation device, risk estimation method, and computer program for risk estimation | |
JP2023533507A (en) | Systems and methods for optimizing trajectory planners based on human driving behavior | |
KR102301631B1 (en) | Method for integrating driving images acquired from vehicles performing cooperative driving and driving image integrating device using same | |
CN112163446B (en) | Obstacle detection method and device, electronic equipment and storage medium | |
CN111178286B (en) | Gesture track prediction method and device and electronic equipment | |
CN113095125B (en) | Diagnosing a perception system based on scene continuity | |
KR20200082672A (en) | Simulation method for autonomous vehicle linked game severs | |
KR20210118995A (en) | Method and apparatus for generating u-turn path of autonomous vehicle based on deep learning | |
CN114077541A (en) | Method and system for validating automatic control software for an autonomous vehicle | |
US20230331250A1 (en) | Method and apparatus for configuring deep learning algorithm for autonomous driving | |
CN114444208A (en) | Method, device, equipment and medium for determining reliability of automatic driving system | |
KR20230143961A (en) | Vehicle action selection based on simulated states | |
US20230182754A1 (en) | Determining an anomalous event from a scenario and an action of interest | |
CN113276860A (en) | Vehicle control method, device, electronic device, and storage medium | |
US20230195958A1 (en) | Generating simulations based on real-world scenarios |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200123 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210309 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210608 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210817 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210819 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6935948 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |