JP2020123351A - Method and device for creating traffic scenario adapted to domain for virtual traveling environment for learning, testing, and verification of autonomous travel vehicle - Google Patents

Method and device for creating traffic scenario adapted to domain for virtual traveling environment for learning, testing, and verification of autonomous travel vehicle Download PDF

Info

Publication number
JP2020123351A
JP2020123351A JP2020009531A JP2020009531A JP2020123351A JP 2020123351 A JP2020123351 A JP 2020123351A JP 2020009531 A JP2020009531 A JP 2020009531A JP 2020009531 A JP2020009531 A JP 2020009531A JP 2020123351 A JP2020123351 A JP 2020123351A
Authority
JP
Japan
Prior art keywords
traffic
scenario
data
sequential
log
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020009531A
Other languages
Japanese (ja)
Other versions
JP6935948B2 (en
Inventor
桂賢 金
Kye-Hyeon Kim
桂賢 金
鎔重 金
Yongjoong Kim
鎔重 金
鶴京 金
Hak-Kyoung Kim
鶴京 金
雲鉉 南
Woonhyun Nam
雲鉉 南
碩▲ふん▼ 夫
Sukhoon Boo
碩▲ふん▼ 夫
明哲 成
Myungchul Sung
明哲 成
東洙 申
Toshu Shin
東洙 申
東勳 呂
Donghun Yeo
東勳 呂
宇宙 柳
Wooju Ryu
宇宙 柳
明春 李
Myong-Chun Lee
明春 李
炯樹 李
Hyungsoo Lee
炯樹 李
泰雄 張
Taiyu Cho
泰雄 張
景中 鄭
Kyungjoong Jeong
景中 鄭
泓模 諸
Hongmo Je
泓模 諸
浩辰 趙
Hojin Cho
浩辰 趙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Stradvision Inc
Original Assignee
Stradvision Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Stradvision Inc filed Critical Stradvision Inc
Publication of JP2020123351A publication Critical patent/JP2020123351A/en
Application granted granted Critical
Publication of JP6935948B2 publication Critical patent/JP6935948B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • G09B9/02Simulators for teaching or training purposes for teaching control of vehicles or other craft
    • G09B9/04Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of land vehicles
    • G09B9/05Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of land vehicles the view from a vehicle being simulated
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B17/00Systems involving the use of models or simulators of said systems
    • G05B17/02Systems involving the use of models or simulators of said systems electric
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0112Measuring and analyzing of parameters relative to traffic conditions based on the source of data from the vehicle, e.g. floating car data [FCD]
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • G08G1/0129Traffic data processing for creating historical data or processing based on historical data
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • G08G1/0133Traffic data processing for classifying traffic situation
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0137Measuring and analyzing of parameters relative to traffic conditions for specific applications
    • G08G1/0141Measuring and analyzing of parameters relative to traffic conditions for specific applications for traffic information dissemination
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • G09B9/02Simulators for teaching or training purposes for teaching control of vehicles or other craft
    • G09B9/04Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of land vehicles
    • G09B9/052Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of land vehicles characterised by provision for recording or measuring trainee's performance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2111/00Details relating to CAD techniques
    • G06F2111/18Details relating to CAD techniques using virtual or augmented reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/006Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/44Event detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Analytical Chemistry (AREA)
  • Chemical & Material Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Business, Economics & Management (AREA)
  • Educational Technology (AREA)
  • Educational Administration (AREA)
  • Automation & Control Theory (AREA)
  • Geometry (AREA)
  • Computer Hardware Design (AREA)
  • Traffic Control Systems (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Game Theory and Decision Science (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

To provide a method and a device for creating an elaborate traffic scenario in a virtual travel environment on the basis of actual travel data.SOLUTION: A traffic scenario creation device inputs travel data into a situation analyzing device to extract travel environment information in a state where travel data has been acquired by using detailed traffic data corresponding to sequential traffic data collected from a sensor of a data collection vehicle of prior traffic data and an actual travel environment, which correspond to discrete traffic data extracted from existing travel video image by a video image base ADAS, and extracts vehicle state information for an own vehicle by inputting the travel data with a vehicle information extraction device to create a sequential traffic log with a travel sequence. Then, by inputting the sequential traffic log to a scenario enhancement network and using a critical event with a prior scenario enhancement network, the prior sequential traffic log is enhanced, the traffic scenario is verified, and the traffic scenario is mapped to a traffic simulation.SELECTED DRAWING: Figure 2

Description

本発明は、自律走行車両の学習のための仮想走行環境に関し;より詳しくは、前記自律走行車両を学習、テスティング及び検証するための仮想走行環境における交通シナリオを生成する方法及び装置に関する。 The present invention relates to a virtual driving environment for learning an autonomous vehicle; more particularly, to a method and apparatus for generating a traffic scenario in the virtual driving environment for learning, testing and validating the autonomous vehicle.

現代の車両、特に自動車は、自律走行と、ブラインドスポットモニター、自動駐車、及び自動ナビゲーションのような走行補助システムをますます提供している。しかしながら、自律走行及び自律補助システムをテスティングし、検証することは非常に複雑であり、長期的な道路走行テスティング(例えば、数百万時間とマイル)が必要であり得る。自律走行及び走行補助システムのアップデートは再検証を必要とし、車種によって個別の検証が求められることを踏まえると、テスティングや検証の努力が倍になり得る。 Modern vehicles, especially automobiles, are increasingly offering autonomous driving and driving assistance systems such as blind spot monitors, automatic parking, and automatic navigation. However, testing and verifying autonomous driving and autonomous assistance systems is very complex and may require long-term road driving testing (eg, millions of hours and miles). Given that autonomous driving and updating of driving assistance systems require re-verification and individual verification is required depending on the vehicle type, testing and verification efforts can be doubled.

また、自律走行自動車の自律走行システム及び走行補助システムを学習させるための学習データを十分に確保することにも困難がある。 In addition, it is difficult to secure sufficient learning data for learning the autonomous traveling system and the traveling assistance system of the autonomous vehicle.

したがって、実際の走行状況を仮想化した仮想走行環境で走行する自律走行自動車の自律走行システム及び走行補助システムを学習、テスティング、及び検証する方法が提案されている。 Therefore, there has been proposed a method for learning, testing, and verifying an autonomous traveling system and a traveling assistance system of an autonomous traveling vehicle that travels in a virtual traveling environment in which the actual traveling situation is virtualized.

仮想走行環境における自律走行自動車の自律走行システム及び走行補助システムを学習、テスティング、及び検証をするために、仮想走行環境における周辺情報についてのシナリオが提供されるべきである。 In order to learn, test and verify the autonomous driving system and driving assistance system of an autonomous vehicle in a virtual driving environment, a scenario about surrounding information in the virtual driving environment should be provided.

しかし、従来の仮想走行環境において、特定の交通状況に対するシナリオのみを提供してくれるので、実際の走行環境のような多様で精巧なシナリオを提供できないという問題点がある。 However, in the conventional virtual traveling environment, since only scenarios for specific traffic situations are provided, there is a problem that it is not possible to provide various elaborate scenarios like the actual traveling environment.

本発明は、前述した問題点を全て解決することを目的とする。 The present invention aims to solve all the above-mentioned problems.

本発明は、仮想走行環境において、実際の走行環境のような多様で精巧なシナリオを生成できるようにすることを他の目的とする。 Another object of the present invention is to enable generation of various sophisticated scenarios in a virtual driving environment, such as an actual driving environment.

本発明は、データ増強によって仮想走行環境において多様で精巧な交通シナリオを生成できるようにすることをまた他の目的とする。 It is another object of the present invention to enable data augmentation to generate diverse and sophisticated traffic scenarios in a virtual driving environment.

前記のような本発明の目的を達成し、後述する本発明の特徴的な効果を実現するための、本発明の特徴的な構成は下記の通りである。 The characteristic constitution of the present invention for achieving the above-mentioned object of the present invention and realizing the characteristic effects of the present invention described later is as follows.

本発明の一態様によれば、少なくとも一つの仮想走行環境における少なくとも一つの交通シナリオを生成する方法において、(a)以前交通データと、詳細交通データとを参照して生成された走行データが取得された状態で、交通シナリオ生成装置が、前記走行データを状況分析器に入力して、前記状況分析器をもって、前記走行データから走行環境情報を抽出するようにするプロセス、前記走行データを車両情報抽出器に入力して、前記車両情報抽出器をもって、前記走行データから自車両(ego−vehicle)に対する車両状態情報を抽出させるプロセス、及び前記走行環境情報と前記車両状態情報とを参照して、走行イベントを含む走行シークエンス(sequence)による順次交通ログ(log)を生成するプロセスを遂行する段階;及び(b)前記交通シナリオ生成装置が、前記順次交通ログをシナリオ増強ネットワークに入力して、前記シナリオ増強ネットワークをもって、少なくとも一つのクリティカルイベントを少なくとも一つの条件として利用して、前記順次交通ログを前記クリティカルイベントのイベント走行環境に対応するように前記順次交通ログを増強させることにより、前記交通シナリオを生成するプロセス、予め設定された参照交通情報を参照して前記交通シナリオを検証するプロセス、及び前記交通シナリオが有効であると決定されると、前記交通シナリオを仮想走行環境の交通シミュレータにマッピング(mapping)するプロセスを遂行する段階;を含み、前記以前交通データは、映像基盤(Vision−based)ADAS(Advanced Driver Assistance System)により少なくとも一つの前記走行イベントを含む少なくとも一つの既存の走行映像から抽出された離散(discrete)交通データに対応するメタデータであり、前記詳細交通データは、実際の走行環境で走行される一つ以上のデータ収集車両の一つ以上のセンサから収集された順次(sequential)交通データに対応するメタデータであることを特徴とする方法が提供される。 According to an aspect of the present invention, in a method of generating at least one traffic scenario in at least one virtual traveling environment, (a) traveling data generated by referring to previous traffic data and detailed traffic data is acquired. In this state, the traffic scenario generation device inputs the traveling data to the situation analyzer, and the traveling condition information is extracted from the traveling data by the situation analyzer. With reference to the process of inputting to the extractor and having the vehicle information extractor extract the vehicle state information for the own vehicle (ego-vehicle) from the traveling data, and the traveling environment information and the vehicle state information, Performing a process of generating a sequential traffic log according to a driving sequence including a driving event; and (b) the traffic scenario generating device inputs the sequential traffic log to a scenario augmentation network, and By using at least one critical event as at least one condition with a scenario augmentation network, and augmenting the sequential traffic log so as to correspond to the event traveling environment of the critical event, the traffic scenario Generating the traffic scenario, verifying the traffic scenario with reference to preset reference traffic information, and mapping the traffic scenario to a traffic simulator in a virtual driving environment when the traffic scenario is determined to be valid. Performing the mapping process, the previous traffic data is obtained from at least one existing driving image including at least one of the driving events according to a vision-based ADAS (Advanced Driver Assistance System). The detailed traffic data is metadata corresponding to the extracted discrete traffic data, and the detailed traffic data are sequentially collected from one or more sensors of one or more data collection vehicles that are driven in an actual driving environment. A method characterized in that it is metadata corresponding to traffic data is provided.

一実施例として、LSTM(long short−term memory)を含む生成器が、前記順次交通ログのうちの初期交通ログを、前記LSTMのうちの初期LSTMの次の動作を取得するために利用される前記生成器の状態として設定した状態で、前記交通シナリオ生成装置は、前記シナリオ増強ネットワークをもって、前記生成器によって予測交通ログをそれに対応する次の動作として生成することにより前記生成器によって前記交通シナリオを生成するようにし、前記初期交通ログ以降の前記予測交通ログが前記イベント走行環境に対応するように増強される。 As an example, a generator including an LSTM (long short-term memory) is used to obtain an initial traffic log of the sequential traffic logs and a next operation of the initial LSTM of the LSTMs. With the scenario set up as the state of the generator, the traffic scenario generator causes the generator to generate a predicted traffic log as the next operation corresponding to the traffic scenario, thereby causing the generator to generate the traffic scenario. And the predicted traffic log after the initial traffic log is enhanced to correspond to the event driving environment.

一実施例として、前記交通シナリオ生成装置は、判別器が、前記順次交通ログと前記予測交通ログとの間を区別するように前記判別器を学習させるプロセスと、前記順次交通ログ、前記予測交通ログ、及び前記条件を参照して生成された前記判別器の少なくとも一つのリワード(reward)を利用した方策勾配(policy gradient)によって前記生成器の少なくとも一つのパラメータを最適化させるプロセスとを遂行する。 As one example, the traffic scenario generation device includes a process in which a discriminator learns the discriminator so as to distinguish between the sequential traffic log and the predicted traffic log, the sequential traffic log, and the predicted traffic. And a process of optimizing at least one parameter of the generator by a policy gradient using at least one reward of the discriminator generated by referring to the log. ..

一実施例として、前記(b)段階で、前記交通シナリオが有効でないものと決定されたら、前記交通シナリオ生成装置は、前記検証するプロセスを参照して前記条件を変更することで少なくとも一つの変更された条件を生成し、前記シナリオ増強ネットワークをもって、前記変更された条件を利用して前記順次交通ログを増強することで新たな交通シナリオを生成させる。 As an example, if it is determined that the traffic scenario is not valid in the step (b), the traffic scenario generation device changes at least one of the conditions by changing the condition with reference to the verification process. The generated condition is generated, and the scenario increasing network is used to generate a new traffic scenario by increasing the sequential traffic log using the changed condition.

一実施例として、前記交通シナリオ生成装置は、順次データから前記クリティカルイベントを抽出するか、クリティカルイベントデータベースから前記クリティカルイベントを抽出する。 As one example, the transportation scenario generation device extracts the critical event from sequential data or extracts the critical event from a critical event database.

一実施例として、前記順次交通ログそれぞれは、少なくとも一つの物体の数と、前記物体の位置と、少なくとも一つの歩行者の数と、前記歩行者の位置と、前記物体の少なくとも一つの軌跡と、交通信号変化情報とを含む。 As one example, each of the sequential traffic logs, the number of at least one object, the position of the object, the number of at least one pedestrian, the position of the pedestrian, and at least one trajectory of the object, , Traffic signal change information.

一実施例として、前記映像基盤ADASは、前記既存走行映像を利用する、物体検出と、距離予測と、TSR(Traffic−sign Recognition)と、車道検出と、車線検出と、TTC(time−to−collision)予測と、相対速度予測とのうちの少なくとも一つを遂行する。 As one example, the image-based ADAS uses the existing running image to detect an object, predict a distance, TSR (Traffic-sign Recognition), a roadway, a lane, and a TTC (time-to-). at least one of a collision prediction and a relative speed prediction.

一実施例として、前記車両状態情報は、前記自車両の速度と、前記自車両の加速度と、前記自車両のステアリングホイール状態と、前記自車両の加速ペダルの位置と、前記自車両のブレーキ状態とのうちの少なくとも一つを含む。 As one example, the vehicle state information includes a speed of the host vehicle, an acceleration of the host vehicle, a steering wheel state of the host vehicle, a position of an accelerator pedal of the host vehicle, and a brake state of the host vehicle. And at least one of

本発明の他の態様によれば、少なくとも一つの仮想走行環境における少なくとも一つの交通シナリオを生成する交通シナリオ生成装置において、インストラクションを格納する少なくとも一つのメモリ;及び(I)以前交通データと、詳細交通データとを参照して生成された走行データが取得された状態で、前記走行データを状況分析器に入力して、前記状況分析器をもって、前記走行データから走行環境情報を抽出するようにするプロセス、前記走行データを車両情報抽出器に入力して、前記車両情報抽出器をもって、前記走行データから自車両に対する車両状態情報を抽出するようにするプロセス、及び前記走行環境情報と前記車両状態情報とを参照して、走行イベントを含む走行シークエンス(sequence)による順次交通ログを生成するプロセスを遂行するプロセス、及び(II)前記順次交通ログをシナリオ増強ネットワークに入力して、前記シナリオ増強ネットワークをもって、少なくとも一つのクリティカルイベントを少なくとも一つの条件として利用して、前記順次交通ログを前記クリティカルイベントのイベント走行環境に対応するように前記順次交通ログを増強させることにより、前記交通シナリオを生成するプロセス、予め設定された参照交通情報を参照して前記交通シナリオを検証するプロセス、及び前記交通シナリオが有効であると決定されると、前記交通シナリオを仮想走行環境の交通シミュレータにマッピングするプロセスを遂行するための、前記インストラクションを実行するように構成された少なくとも一つのプロセッサ;を含み、前記以前交通データは、映像基盤ADASにより少なくとも一つの前記走行イベントを含む少なくとも一つの既存の走行映像から抽出された離散交通データに対応するメタデータであり、前記詳細交通データは、実際の走行環境で走行される一つ以上のデータ収集車両の一つ以上のセンサから収集された順次交通データに対応するメタデータであることを特徴とする交通シナリオ生成装置が提供される。 According to another aspect of the present invention, in a traffic scenario generation device for generating at least one traffic scenario in at least one virtual driving environment, at least one memory storing instructions; and (I) previous traffic data, and details. In a state where the traveling data generated by referring to the traffic data is acquired, the traveling data is input to the situation analyzer, and the situation analyzer extracts the traveling environment information from the traveling data. A process, a process of inputting the traveling data to a vehicle information extractor, and having the vehicle information extractor extract vehicle state information for the own vehicle from the traveling data; and the traveling environment information and the vehicle state information. And (II) inputting the sequential traffic log to the scenario augmentation network, and performing the process of performing a process of generating a sequential traffic log according to a traveling sequence including traveling events, A process of generating the traffic scenario by using the at least one critical event as at least one condition to augment the sequential traffic log to correspond to an event driving environment of the critical event Performing a process of verifying the traffic scenario with reference to preset reference traffic information, and a process of mapping the traffic scenario to a traffic simulator in a virtual driving environment when the traffic scenario is determined to be valid. At least one processor configured to execute the instructions, the prior traffic data is extracted from at least one existing driving image including at least one driving event by the video-based ADAS. The detailed traffic data is metadata corresponding to sequential traffic data collected from one or more sensors of one or more data collection vehicles that are driven in an actual driving environment. There is provided a traffic scenario generation device characterized by being data.

一実施例として、LSTMを含む生成器が、前記順次交通ログのうちの初期交通ログを、前記LSTMのうちの初期LSTMの次の動作を取得するために利用される前記生成器の状態として設定した状態で、前記プロセッサは、前記シナリオ増強ネットワークをもって、前記生成器によって予測交通ログをそれに対応する次の動作として生成することにより前記生成器によって前記交通シナリオを生成するようにし、前記初期交通ログ以降の前記予測交通ログが前記イベント走行環境に対応するように増強される。 As an example, a generator including an LSTM sets an initial traffic log of the sequential traffic logs as a state of the generator used to obtain a next operation of the initial LSTM of the LSTM. Then, the processor causes the generator to generate the predicted traffic log as a corresponding next operation with the scenario augmentation network to generate the traffic scenario, and the initial traffic log The subsequent predictive traffic log is augmented to correspond to the event driving environment.

一実施例として、前記プロセッサは、判別器が、前記順次交通ログと前記予測交通ログとの間を区別するように前記判別器を学習させるプロセスと、前記順次交通ログ、前記予測交通ログ、及び前記条件を参照して生成された前記判別器の少なくとも一つのリワードを利用した方策勾配によって前記生成器の少なくとも一つのパラメータを最適化させるプロセスとを遂行する。 As one example, the processor includes a process in which a discriminator trains the discriminator to distinguish between the sequential traffic log and the predicted traffic log, the sequential traffic log, the predicted traffic log, and Performing a process of optimizing at least one parameter of the generator according to a policy gradient using at least one reward of the discriminator generated by referring to the condition.

一実施例として、前記(II)プロセスで、前記交通シナリオが有効でないものと決定されたら、前記プロセッサは、前記検証するプロセスを参照して前記条件を変更することで少なくとも一つの変更された条件を生成し、前記シナリオ増強ネットワークをもって、前記変更された条件を利用して前記順次交通ログを増強することで新たな交通シナリオを生成させる。 As an example, if the process (II) determines that the traffic scenario is not valid, the processor changes at least one of the modified conditions by referring to the verification process. And generate a new traffic scenario by sequentially increasing the traffic log using the changed condition with the scenario increasing network.

一実施例として、前記プロセッサは、順次データから前記クリティカルイベントを抽出するか、クリティカルイベントデータベースから前記クリティカルイベントを抽出する。 As one example, the processor extracts the critical event from sequential data or extracts the critical event from a critical event database.

一実施例として、前記順次交通ログそれぞれは、少なくとも一つの物体の数と、前記物体の位置と、少なくとも一つの歩行者の数と、前記歩行者の位置と、前記物体の少なくとも一つの軌跡と、交通信号変化情報とを含む。 As one example, each of the sequential traffic logs, the number of at least one object, the position of the object, the number of at least one pedestrian, the position of the pedestrian, and at least one trajectory of the object, , Traffic signal change information.

一実施例として、前記映像基盤ADASは、前記既存走行映像を利用する、物体検出と、距離予測と、TSR(Traffic−sign Recognition)と、車道検出と、車線検出と、TTC(time−to−collision)予測と、相対速度予測とのうちの少なくとも一つを遂行する。 As one example, the image-based ADAS uses the existing running image to detect an object, predict a distance, TSR (Traffic-sign Recognition), a roadway, a lane, and a TTC (time-to-). at least one of a collision prediction and a relative speed prediction.

一実施例として、前記車両状態情報は、前記自車両の速度と、前記自車両の加速度と、前記自車両のステアリングホイール状態と、前記自車両の加速ペダルの位置と、前記自車両のブレーキ状態とのうちの少なくとも一つを含む。 As one example, the vehicle state information includes a speed of the host vehicle, an acceleration of the host vehicle, a steering wheel state of the host vehicle, a position of an accelerator pedal of the host vehicle, and a brake state of the host vehicle. And at least one of

この他にも、本発明の方法を実行するためのコンピュータプログラムを記録するためのコンピュータ読取可能な記録媒体がさらに提供される。 In addition, a computer-readable recording medium for recording a computer program for executing the method of the present invention is further provided.

本発明によれば、実際の走行データを基盤に仮想走行環境での精巧な交通シナリオを生成できる効果がある。 According to the present invention, there is an effect that an elaborate traffic scenario in a virtual traveling environment can be generated based on actual traveling data.

また、本発明によれば、特定交通状況に対する離散及び順次データの増強により仮想走行環境で多様な交通シナリオを生成できる効果がある。 Further, according to the present invention, there is an effect that various traffic scenarios can be generated in a virtual traveling environment by increasing discrete and sequential data for a specific traffic situation.

本発明の実施例の説明に利用されるために添付された以下の各図面は、本発明の実施例のうちの一部に過ぎず、本発明が属する技術分野でおいて、通常の知識を有する者(以下「通常の技術者」)は、発明的作業が行われることなくこの図面に基づいて他の図面が得られ得る。
図1は、本発明の一実施例に係る仮想走行環境での少なくとも一つの交通シナリオを生成する交通シナリオ生成装置を概略的に示した図面である。 図2は、本発明の一実施例に係る前記仮想走行環境での前記交通シナリオを生成するシナリオ生成方法を概略的に示した図面である。 図3は、本発明の一実施例に係る前記仮想走行環境での前記交通シナリオを生成する前記方法において少なくとも一つの条件を追加するプロセスを概略的に示した図面である。 図4は、本発明の一実施例に係る前記仮想走行環境での前記交通シナリオを生成する前記方法においてシナリオ増強ネットワークを学習するプロセスを概略的に示した図面である。 図5は、本発明の一実施例に係る前記仮想走行環境での前記交通シナリオを生成する前記方法においてシナリオ増強ネットワークを学習するプロセスを概略的に示した図面である。
The following drawings, which are attached to explain the embodiments of the present invention, are merely some of the embodiments of the present invention, and have no ordinary knowledge in the technical field to which the present invention belongs. Those who have (hereinafter, "regular technician") can obtain other drawings based on this drawing without performing the inventive work.
FIG. 1 is a diagram schematically illustrating a traffic scenario generation device that generates at least one traffic scenario in a virtual driving environment according to an exemplary embodiment of the present invention. FIG. 2 is a diagram schematically illustrating a scenario generation method for generating the traffic scenario in the virtual driving environment according to an exemplary embodiment of the present invention. FIG. 3 is a diagram schematically illustrating a process of adding at least one condition in the method of generating the traffic scenario in the virtual driving environment according to an embodiment of the present invention. FIG. 4 is a diagram schematically illustrating a process of learning a scenario augmentation network in the method of generating the traffic scenario in the virtual driving environment according to an embodiment of the present invention. FIG. 5 is a diagram schematically illustrating a process of learning a scenario augmentation network in the method of generating the traffic scenario in the virtual driving environment according to an embodiment of the present invention.

後述する本発明に対する詳細な説明は、本発明の各目的、技術的解決方法及び長所を明確にするために、本発明が実施され得る特定実施例を例示として示す添付図面を参照する。これらの実施例は、通常の技術者が本発明を実施することができるように充分詳細に説明される。 DETAILED DESCRIPTION The following detailed description of the invention refers to the accompanying drawings that illustrate, by way of illustration, specific embodiments in which the invention may be practiced, in order to clarify each object, technical solution, and advantage of the invention. These examples are described in sufficient detail to enable a person of ordinary skill in the art to practice the invention.

また、本発明の詳細な説明及び各請求項にわたって、「含む」という単語及びそれらの変形は、他の技術的各特徴、各付加物、構成要素又は段階を除外することを意図したものではない。通常の技術者にとって本発明の他の各目的、長所及び各特性が、一部は本説明書から、また一部は本発明の実施から明らかになるであろう。以下の例示及び図面は実例として提供され、本発明を限定することを意図したものではない。 Also, the word "comprising" and variations thereof throughout the detailed description of the invention and the claims are not intended to exclude other technical features, additions, components or steps. .. Other objects, advantages and features of the invention will be apparent to one of ordinary skill in the art, in part, from the description and partly from the practice of the invention. The following illustrations and drawings are provided by way of illustration and are not intended to limit the invention.

さらに、本発明は、本明細書に示された実施例のあらゆる可能な組み合わせを網羅する。本発明の多様な実施例は相互異なるが、相互排他的である必要はないことを理解されたい。例えば、ここに記載されている特定の形状、構造及び特性は一例と関連して、本発明の精神及び範囲を逸脱せず、かつ他の実施例で実装され得る。また、各々の開示された実施例内の個別構成要素の位置または配置は、本発明の精神及び範囲を逸脱せずに変更され得ることを理解されたい。従って、後述する詳細な説明は限定的な意味で捉えようとするものではなく、本発明の範囲は、適切に説明されれば、その請求項が主張することと均等なすべての範囲と、併せて添付された請求項によってのみ限定される。図面で類似する参照符号はいくつかの側面にかけて同一か類似する機能を指称する。 Furthermore, the invention covers all possible combinations of the examples presented herein. It should be understood that the various embodiments of the invention differ from each other, but need not be mutually exclusive. For example, the particular shapes, structures and characteristics described herein are, in connection with one example, without departing from the spirit and scope of the invention and may be implemented in other embodiments. It should also be understood that the location or arrangement of individual components within each disclosed embodiment may be changed without departing from the spirit and scope of the invention. Accordingly, the detailed description set forth below is not to be taken in a limiting sense, and the scope of the present invention, when properly described, includes all ranges equivalent to what the claims claim It is limited only by the claims appended hereto. In the drawings, like reference numerals refer to the same or similar features across several aspects.

本発明で言及している各種イメージは、舗装または非舗装道路関連のイメージを含み得、この場合、道路環境で登場し得る物体(例えば、自動車、人、動物、植物、物、建物、飛行機やドローンのような飛行体、その他の障害物)を想定し得るが、必ずしもこれに限定されるものではなく、本発明で言及している各種イメージは、道路と関係のないイメージ(例えば、非舗装道路、路地、空き地、海、湖、川、山、森、砂漠、空、室内と関連したイメージ)でもあり得、この場合、非舗装道路、路地、空き地、海、湖、川、山、森、砂漠、空、室内環境で登場し得る物体(例えば、自動車、人、動物、植物、物、建物、飛行機やドローンのような飛行体、その他の障害物)を想定し得るが、必ずしもこれに限定されるものではない。 The various images referred to in the present invention may include images related to paved or unpaved roads, where objects that may appear in the road environment (eg, cars, people, animals, plants, objects, buildings, airplanes, A flying object such as a drone and other obstacles can be assumed, but the invention is not limited to this. The various images referred to in the present invention are images not related to roads (for example, unpaved roads). Images associated with roads, alleys, vacant lots, seas, lakes, rivers, mountains, forests, deserts, sky, indoors), in which case unpaved roads, alleys, vacant lots, seas, lakes, rivers, mountains, forests , Deserts, sky, objects that may appear in indoor environments (eg, cars, people, animals, plants, objects, buildings, air vehicles such as airplanes and drones, and other obstacles), but not necessarily It is not limited.

本願に提供されている本発明の題名及び要約は、便宜のためのものであり、実施例の範囲を限定したり、実施例の意味を解析したりするものではない。 The titles and abstracts of the present invention provided herein are for convenience only and are not intended to limit the scope of the examples or to analyze the meaning of the examples.

以下、本発明が属する技術分野で通常の知識を有する者が本発明を容易に実施することができるようにするために、本発明の好ましい実施例について添付の図面を参照して詳細に説明する。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those having ordinary skill in the art to which the present invention pertains can easily implement the present invention. ..

図1は、本発明の一実施例に係る仮想走行環境での少なくとも一つの交通シナリオを生成する交通シナリオ生成装置を概略的に示した図面である。図1を参照すれば、前記交通シナリオ生成装置100は、前記仮想走行環境での前記交通シナリオを生成するためのインストラクションを格納するメモリ110及び前記メモリ110に格納された前記インストラクションに対応して仮想走行環境での前記交通シナリオを生成するプロセスを遂行するプロセッサ120を含むことができる。 FIG. 1 is a diagram schematically illustrating a traffic scenario generation device that generates at least one traffic scenario in a virtual driving environment according to an exemplary embodiment of the present invention. Referring to FIG. 1, the traffic scenario generation device 100 includes a memory 110 storing instructions for generating the traffic scenario in the virtual driving environment, and a virtual memory corresponding to the instructions stored in the memory 110. A processor 120 may be included to perform the process of generating the traffic scenario in a driving environment.

具体的に、前記交通シナリオ生成装置100は、典型的にコンピューティング装置(例えば、コンピュータのプロセッサ、メモリ、ストレージ、入力装置及び出力装置、または、その他の既存のコンピューティング構成要素を含み得る装置;ルータ、スイッチなどのような電子通信装置;ネットワーク接続ストレージ(NAS)及びストレージエリアネットワーク(SAN)のような電子情報ストレージシステム)と、コンピュータソフトウェア(つまり、前記コンピューティング装置をもって、特定の方式で機能させるインストラクション)との組み合わせを利用して、希望するシステム性能を達成するものであり得る。 Specifically, the traffic scenario generator 100 is typically a computing device (eg, a computer processor, memory, storage, input and output device, or other device that may include existing computing components; Electronic communication devices such as routers, switches, etc.; electronic information storage systems such as network attached storage (NAS) and storage area networks (SAN)), and computer software (ie, having the computing device to function in a specific manner) Can be used to achieve desired system performance.

前記コンピューティング装置の前記プロセッサは、MPU(Micro Processing Unit)またはCPU(Central Processing Unit)、キャッシュメモリ(Cache Memory)、データバス(Data Bus)などを含み得る。また、前記コンピューティング装置は、オペレーティングシステム及び特定の目的を遂行するアプリケーションのソフトウェア構成をさらに含むこともできる。 The processor of the computing device may include an MPU (Micro Processing Unit) or a CPU (Central Processing Unit), a cache memory (Cache Memory), a data bus (Data Bus), or the like. In addition, the computing device may further include an operating system and a software configuration of an application performing a specific purpose.

しかし、前記コンピューティング装置100が本発明を行うためのミディアム(medium)、プロセッサ、メモリまたはほかのコンピューティング構成要素が統合された形である統合プロセッサを含む場合を排除するものではない。 However, it is not excluded that the computing device 100 includes an integrated processor that is an integrated form of a medium, processor, memory or other computing component for carrying out the present invention.

このように構成された本発明の一実施例に係る交通シナリオ生成装置100を利用して前記仮想の走行環境での前記交通シナリオを生成する方法を、図2を参照して説明する。 A method of generating the traffic scenario in the virtual traveling environment by using the traffic scenario generation device 100 according to the embodiment of the present invention configured as described above will be described with reference to FIG.

まず、前記交通シナリオ生成装置100は、以前交通データと詳細交通データとを取得するか、他の装置をもって取得するよう支援することができる。 First, the traffic scenario generation device 100 may support the previous traffic data and the detailed traffic data, or may be supported by another device.

その際、前記以前交通データは、車両事故のように実際の走行環境において取得しにくいデータであり得、現在のコンピュータ映像技術基盤のADAS(Advanced Driver Assistance System)を活用して、少なくとも一つの走行イベントを含む少なくとも一つの既存走行映像から抽出されたメタデータであり得る。一方、前記映像基盤ADASは、前記既存走行映像を利用する、物体検出と、距離予測と、TSR(Traffic−sign Recognition)と、車道検出と、車線検出と、TTC(time−to−collision)予測と、相対速度予測とのうちの少なくとも一つを遂行することができる。 At this time, the previous traffic data may be data that is difficult to be acquired in an actual driving environment such as a vehicle accident, and at least one driving is performed by using the current computer image technology base ADAS (Advanced Driver Assistance System). The metadata may be extracted from at least one existing driving image including an event. On the other hand, the image-based ADAS uses the existing running image to detect an object, predict a distance, TSR (Traffic-sign Recognition), a roadway, a lane, and a TTC (time-to-collision). And at least one of relative velocity prediction.

そして、前記詳細交通データは、実際の走行環境で走行される車両の一つ以上のセンサ、例えばライダ(LiDAR)、レーダ(Radar)、カメラ、GPS装置などから収集されたメタデータであり得る。 The detailed traffic data may be metadata collected from one or more sensors of a vehicle traveling in an actual traveling environment, such as a lidar (LiDAR), a radar (Radar), a camera, and a GPS device.

一方、前記以前交通データは、離散(discrete)交通データであり得、前記詳細交通データは順次(sequential)交通データであり得る。 Meanwhile, the previous traffic data may be discrete traffic data, and the detailed traffic data may be sequential traffic data.

次に、前記交通シナリオ生成装置100は、前記以前交通データ及び前記詳細交通データを参照して走行データを取得することができる。一例として、前記走行データは、前記車両の入力センサに対応する、前記GPS装置、前記ライダ、前記レーダ、前記カメラ等から取得した情報のような、前記車両に関連する前記走行データであり得る。 Next, the traffic scenario generation device 100 may acquire traveling data by referring to the previous traffic data and the detailed traffic data. As an example, the travel data may be the travel data associated with the vehicle, such as information obtained from the GPS device, the rider, the radar, the camera, etc. corresponding to an input sensor of the vehicle.

そして、前記交通シナリオ生成装置100は、前記走行データを状況分析器130に入力して、前記状況分析器130をもって、前記走行データから走行環境情報を抽出するようにするプロセス、及び、前記走行データを車両情報抽出器140に入力して、前記車両情報抽出器140をもって、前記走行データから自車両(ego−vehicle)に対する車両状態情報を抽出するようにするプロセスを遂行することができる。その際、通常の技術者に広く知られているように、前記自車両は対象車両、例えば本発明に係る前記仮想走行環境において走行される車両を意味し得る。 Then, the traffic scenario generation device 100 inputs the travel data to the situation analyzer 130 and causes the situation analyzer 130 to extract travel environment information from the travel data, and the travel data. To the vehicle information extractor 140, and the vehicle information extractor 140 may perform a process of extracting vehicle state information for the own vehicle (ego-vehicle) from the travel data. At that time, as is generally known to a person skilled in the art, the own vehicle may mean a target vehicle, for example, a vehicle which is driven in the virtual traveling environment according to the present invention.

一例として、前記状況分析機130は、物体検出情報、距離予測情報、TSR(Traffic−sign Recognition)情報、車道検出情報、車線検出情報、TTC(time−to−collision)予測情報、相対速度予測情報等の中から少なくとも一部を前記走行データから取得することができる。 As an example, the situation analyzer 130 includes object detection information, distance prediction information, TSR (Traffic-sign Recognition) information, roadway detection information, lane detection information, TTC (time-to-collision) prediction information, relative speed prediction information. At least a part of the above can be acquired from the travel data.

また、前記車両情報抽出器140は、前記自車両の速度と、前記自車両の加速度と、前記自車両のステアリングホイール状態と、前記自車両の加速ペダルの位置と、前記自車両のブレーキ状態とのうちの少なくとも一つを抽出することができる。 In addition, the vehicle information extractor 140 includes the speed of the host vehicle, the acceleration of the host vehicle, the steering wheel state of the host vehicle, the position of the accelerator pedal of the host vehicle, and the brake state of the host vehicle. At least one of these can be extracted.

次に、前記交通シナリオ生成装置100は、前記状況分析器130からの前記走行環境情報と、前記車両情報抽出器140からの前記車両状態情報とを参照して、前記走行イベントを含む走行シークエンス(sequence)による順次交通ログ(log)を生成することができる。 Next, the traffic scenario generation device 100 refers to the traveling environment information from the situation analyzer 130 and the vehicle state information from the vehicle information extractor 140 to refer to a traveling sequence including the traveling event ( Sequential traffic logs can be generated.

一例として、前記交通シナリオ生成装置100は、前記状況分析器130によって取得された前記走行環境情報を前記車両情報抽出器140から取得された前記車両状態情報にマッチングさせることにより、イメージフレームを生成することができる。この際、前記イメージフレームは、離散及び順次データであり得、これは、トンネルまたは橋梁進入イベント、車線変更イベント、トンネルまたは橋梁通過イベント等の特定イベントが発生する前後の前記走行データであり得る。 As an example, the traffic scenario generation device 100 generates an image frame by matching the traveling environment information acquired by the condition analyzer 130 with the vehicle state information acquired from the vehicle information extractor 140. be able to. Here, the image frame may be discrete and sequential data, which may be the traveling data before and after a specific event such as a tunnel or bridge entry event, a lane change event, a tunnel or bridge passage event, and the like.

そして、前記交通シナリオ生成装置100は、前記離散及び順次データに含まれた前記走行イベントを後処理(post−processing)することにより、離散的及び順次的二次加工データである一つ以上の順次交通ログを生成することができる。 Then, the traffic scenario generation device 100 post-processes the travel event included in the discrete and sequential data to thereby generate one or more sequential discrete processed data. Traffic logs can be generated.

この際、前記順次交通ログそれぞれは、少なくとも一つの物体の数と、前記物体の位置と、少なくとも一つの歩行者の数と、前記歩行者の位置と、前記物体の少なくとも一つの軌跡と、交通信号変化情報とを含み得る。 At this time, each of the sequential traffic logs includes the number of at least one object, the position of the object, the number of at least one pedestrian, the position of the pedestrian, at least one trajectory of the object, and the traffic. Signal change information.

その後、前記交通シナリオ生成装置100は、前記順次交通ログを順次メタデータに変換することができる。 Then, the traffic scenario generation device 100 may sequentially convert the sequential traffic log into metadata.

つまり、前記交通シナリオ生成装置100は、少なくとも一つの順次メタコンバータをもって、前記順次交通ログに含まれた、前記状況分析器130及び前記車両情報抽出器140によって抽出されたデータをエンコードするようにして、少なくとも一つの交通シミュレータが前記エンコードされたデータを識別するようにすることができる。 That is, the traffic scenario generation device 100 encodes the data extracted by the condition analyzer 130 and the vehicle information extractor 140 included in the sequential traffic log by using at least one sequential meta-converter. , At least one traffic simulator can identify the encoded data.

次に、前記交通シナリオ生成装置100は、前記順次交通ログをシナリオ増強ネットワーク150に入力して、前記シナリオ増強ネットワーク150をもって、少なくとも一つのクリティカルイベントを少なくとも一つの条件として利用して、前記順次交通ログを前記クリティカルイベントのイベント走行環境に対応するように前記順次交通ログを増強させることにより、前記交通シナリオを生成するプロセスを遂行することができる。 Next, the traffic scenario generation device 100 inputs the sequential traffic log to the scenario augmentation network 150 and uses the scenario augmentation network 150 to utilize at least one critical event as at least one condition to generate the sequential traffic. The process of generating the traffic scenario may be performed by augmenting the sequential traffic log so that the log corresponds to the event driving environment of the critical event.

一例として、LSTM(long short−term
memory)を含む生成器151が、前記順次交通ログのうちの初期交通ログを、前記LSTMのうちの初期LSTMの次の動作を取得するために利用される前記生成器151の状態として設定した状態で、前記シナリオ増強ネットワーク150は、前記生成器151によって一つ以上の予測交通ログをそれに対応する次の動作として生成することにより前記生成器151によって前記交通シナリオを生成するようにし、前記初期交通ログ以降の前記予測交通ログは、前記イベント走行環境に対応するように増強され得る。
As an example, LSTM (long short-term)
state in which the generator 151 including the memory sets the initial traffic log of the sequential traffic logs as the state of the generator 151 used to obtain the next operation of the initial LSTM of the LSTM. Then, the scenario augmentation network 150 causes the generator 151 to generate the traffic scenario by generating one or more predicted traffic logs as the next operation corresponding to the predicted traffic log. The predicted traffic log after the log may be augmented to correspond to the event driving environment.

図3を参照すれば、前記シナリオ増強ネットワーク150は、少なくとも一つのレイテントコード(latent code)zと少なくとも一つのクリティカルイベントyとを前記生成器151に入力することにより、前記生成器151をもって、前記初期交通ログに対応する前記予測交通ログを生成するようにして、前記予測交通ログが前記走行環境内の前記クリティカルイベントに対応するようにすることができる。 Referring to FIG. 3, the scenario augmentation network 150 inputs the at least one latent code z and the at least one critical event y to the generator 151 so that the generator 151 has The predicted traffic log corresponding to the initial traffic log may be generated so that the predicted traffic log corresponds to the critical event in the traveling environment.

この際、順次データから前記クリティカルイベントが抽出され得、または多様なクリティカルイベントを格納するクリティカルイベントデータベース160から特定クリティカルイベントが検索され得る。 At this time, the critical event may be sequentially extracted from the data, or a specific critical event may be retrieved from the critical event database 160 that stores various critical events.

一例として、前記クリティカルイベントは、緊急状況での急停車、交差点での交通信号変化などのような走行イベントのうちの特定走行イベントであり得、前記交差点で青信号が赤信号に変更されるのと同じく、多様な条件が設定され得、このようなクリティカルイベント及び前記様々な条件によって、前記生成器151は、前記実際の走行状況のように様々な交通シナリオを生成することができる。 As an example, the critical event may be a specific driving event among driving events such as a sudden stop in an emergency situation, a traffic light change at an intersection, and the like, in which the green light is changed to a red light at the intersection. Various conditions may be set, and the generator 151 may generate various traffic scenarios such as the actual driving conditions according to the critical event and the various conditions.

一方で、前記シナリオ増強ネットワーク150は、前記交通シナリオを生成する前記生成器151と、前記交通シナリオを評価する判別器152とが互いに並列に、競争的に学習して、前記生成器が前記判別器を騙すことができるほどに精巧なデータを生成するようにする構成を有することができる。 On the other hand, in the scenario enhancement network 150, the generator 151 that generates the traffic scenario and the discriminator 152 that evaluates the traffic scenario are learned in parallel and competitively, and the generator discriminates the discrimination. It can be configured to generate so sophisticated data that it can be tricked into trickery.

前記シナリオ増強ネットワーク150は、少なくとも一つの状態と少なくとも一つの動作とで構成され、前記離散データをモデリングするのに容易であり、リワード(reward)を基盤にして部分的に確率的方策(stochastic policy)を取得することができる方策基盤強化学習技法である方策勾配(policy gradient)を利用することにより、前記生成器151を学習させることができる。また、方策勾配技法のうちのモンテカルロ方策勾配(Monte Carlo policy gradient)が利用され得る。この際、前記モンテカル方策勾配は、(i)現在の状態から次の状態を予測できるネットワークの一つであるロールアウト方策、及び(ii)効率的非全面(non−exhaustive)探索アルゴリズムの一つであるMCTS(Monte Carlo Tree Search)を用いて、前記確率的方策を生成する学習手法であり得る。一例として、前記状態は、トークン(token)として設定され得、前記動作は、次のトークンを付与する行動として設定され得、エージェント(agent)は、前記生成器151として設定され得る。前記判別器152によって決定されるラベルは、前記リワードとしてモデリングされることにより、前記生成器151を学習させ得る。この際、前記生成器151は、RNN(Recurrent Neural Network)内、勾配消失(vanishing gradient)問題のない少なくとも一つのLSTMを利用することができ、前記判別器152は、CNNを利用することができる。 The scenario augmentation network 150 includes at least one state and at least one operation, is easy to model the discrete data, and is partially stochastic policy based on the reward. ) Can be acquired, the generator 151 can be trained by using a policy gradient, which is a policy-based reinforcement learning technique. Also, the Monte Carlo policy gradient among the policy gradient techniques may be used. In this case, the Monte Cal policy gradient is (i) a roll-out policy that is one of the networks that can predict the next state from the current state, and (ii) one of efficient non-exhaustive search algorithms. MCTS (Monte Carlo Tree Search) is a learning method for generating the probabilistic policy. As an example, the state may be set as a token, the action may be set as an action of giving a next token, and an agent may be set as the generator 151. The label determined by the discriminator 152 may be modeled as the reward to train the generator 151. In this case, the generator 151 may use at least one LSTM in the RNN (Recurring Neutral Network) without any vanishing gradient problem, and the discriminator 152 may use the CNN. ..

つまり、図4及び図5を参照すれば、前記シナリオ増強ネットワーク150は、前記生成器151をもって生成された前記予測交通ログ及び前記順次交通ログを前記判別器152に入力することにより、前記判別器152をもって、これの入力データが実際のデータであるか偽のデータであるかを決定させることができ、前記判別器152の一つ以上の出力を利用して、前記判別器152を学習させて前記判別器152が前記順次交通ログと、前記予測交通ログとを区別するようにすることができる。 That is, referring to FIG. 4 and FIG. 5, the scenario augmentation network 150 inputs the predicted traffic log and the sequential traffic log generated by the generator 151 to the discriminator 152, thereby determining the discriminator. 152, it is possible to determine whether the input data of this is actual data or false data, and use one or more outputs of the discriminator 152 to train the discriminator 152. The discriminator 152 may distinguish the sequential traffic log and the predicted traffic log.

また、前記判別器152を学習させた後、前記LSTMを含む生成器151が、前記順次交通ログのうちの初期交通ログを、前記LSTMのうちの初期LSTMの次の動作を取得するために利用される前記生成器151の状態として設定した状態で、前記シナリオ増強ネットワーク150は、前記生成器151によって、前記予測交通ログをそれに対応する次の動作として生成し、前記順次交通ログと、前記予測交通ログと、前記条件とを前記判別器152に入力することにより、前記判別器152をもって、前記予測交通ログが前記順次交通ログ及び前記条件に合わせて生成されたか否かを示す、少なくとも一つのリワードを出力するようにすることができる。そして、前記シナリオ増強ネットワーク150は、前記リワードを利用する前記方策勾配を参照して前記生成器151を学習させることができる。 In addition, after learning the discriminator 152, the generator 151 including the LSTM uses the initial traffic log of the sequential traffic log to obtain the next operation of the initial LSTM of the LSTM. In the state set as the state of the generator 151, the scenario augmentation network 150 causes the generator 151 to generate the predicted traffic log as the next operation corresponding thereto, and the sequential traffic log and the prediction are generated. By inputting the traffic log and the condition to the discriminator 152, the discriminator 152 indicates whether or not the predicted traffic log is generated in accordance with the sequential traffic log and the condition. Rewards can be output. Then, the scenario enhancement network 150 may train the generator 151 by referring to the policy gradient using the reward.

次に、前記交通シナリオ生成装置100が、予め設定された参照交通情報を参照して前記交通シナリオを検証するプロセスを遂行することができる。 Next, the traffic scenario generation device 100 may perform a process of verifying the traffic scenario with reference to preset reference traffic information.

この際、前記交通シナリオ生成装置100は、最小限の予め設定された交通規則情報と、前記交通シナリオとを比較して、前記交通シナリオが有効であるかどうかを決定することができる。一例として、前記交通シナリオが高速道路進入イベントを含み、前記交通シナリオ内の全てのイベントが前記高速道路上の走行中に発生すると想定し、交通法規データベースを参照した場合、前記高速道路上で交通信号が許可されない前記交通規則情報が存在する場合、前記交通信号に係るイベントは有効でないものであり得る。 At this time, the traffic scenario generation device 100 may determine whether or not the traffic scenario is valid by comparing the minimum traffic traffic information set in advance with the traffic scenario. As an example, assuming that the traffic scenario includes a highway approach event, all events in the traffic scenario occur during traveling on the highway, and referring to the traffic regulation database, the traffic on the highway is If there is the traffic rule information that the signal is not allowed, the event related to the traffic signal may not be valid.

そして、前記生成された交通シナリオが有効であると決定されると、前記交通シナリオ生成装置100が前記交通シナリオを前記仮想走行環境の前記交通シミュレータにマッチングさせることができる。 When it is determined that the generated traffic scenario is valid, the traffic scenario generation device 100 can match the traffic scenario with the traffic simulator in the virtual traveling environment.

一方で、前記交通シナリオが有効ではないことが決定されると、前記交通シナリオ生成装置100は、前記のような検証プロセスを参照して前記条件を変更することで少なくとも一つの変更された条件を生成するプロセスを遂行し、前記シナリオ増強ネットワーク150をもって、前記変更された条件を利用して前記順次交通ログを増強させることで新たな交通シナリオを生成することができる。 On the other hand, when it is determined that the traffic scenario is not valid, the traffic scenario generation device 100 changes at least one changed condition by changing the condition with reference to the verification process as described above. A new traffic scenario can be generated by performing the process of generating, and having the scenario augmentation network 150 augment the sequential traffic log using the changed conditions.

前記で説明したように、本発明は、特定交通状況に対する静的データと前記順次データとを生成し、前記仮想走行環境内の周辺情報であるターゲット車両及び歩行者等に対する前記交通シナリオを生成し、前記生成された交通シナリオを前記仮想走行環境の前記交通シミュレータにマッピング(mapping)し、仮想走行の前記生成された交通シナリオを活用することができるようになる。 As described above, the present invention generates static data for a specific traffic situation and the sequential data, and generates the traffic scenario for a target vehicle, a pedestrian, etc., which is peripheral information in the virtual traveling environment. The generated traffic scenario can be mapped to the traffic simulator in the virtual traveling environment, and the generated traffic scenario for virtual traveling can be utilized.

また、以上で説明された本発明に係る実施例は、多様なコンピュータ構成要素を通じて遂行できるプログラム命令語の形態で具現されてコンピュータで判読可能な記録媒体に記録され得る。前記コンピュータで読取り可能な記録媒体はプログラム命令語、データファイル、データ構造などを単独でまたは組み合わせて含まれ得る。前記コンピュータ読取り可能な記録媒体に記録されるプログラム命令語は、本発明のために特別に設計されて構成されたものであるか、コンピュータソフトウェア分野の当業者に公知となって利用可能なものでもよい。コンピュータで判読可能な記録媒体の例には、ハードディスク、フロッピーディスク及び磁気テープのような磁気媒体、CD−ROM、DVDのような光記録媒体、フロプティカルディスク(flopticaldisk)のような磁気−光媒体(magneto−opticalmedia)、及びROM、RAM、フラッシュメモリなどといったプログラム命令語を格納して遂行するように特別に構成されたハードウェア装置が含まれる。プログラム命令語の例には、コンパイラによって作られるもののような機械語コードだけでなく、インタプリタなどを用いてコンピュータによって実行され得る高級言語コードも含まれる。前記ハードウェア装置は、本発明に係る処理を遂行するために一つ以上のソフトウェアモジュールとして作動するように構成され得、その逆も同様である。 Also, the embodiments of the present invention described above may be embodied in the form of program command words that can be executed through various computer components and recorded on a computer-readable recording medium. The computer-readable recording medium may include a program command word, a data file, a data structure, etc., alone or in combination. The program command words recorded on the computer-readable recording medium may be those specially designed and constructed for the present invention, or those known and available to those skilled in the computer software field. Good. Examples of computer-readable recording media are magnetic media such as hard disks, floppy disks and magnetic tapes, optical recording media such as CD-ROMs and DVDs, magnetic-optical media such as floppy disks. Included are magneto-optical media and hardware devices specially configured to store and execute program command words such as ROM, RAM, flash memory, and the like. Examples of program instruction words include not only machine language codes such as those produced by a compiler, but also high level language codes that can be executed by a computer using an interpreter or the like. The hardware device may be configured to operate as one or more software modules to perform the process of the present invention, and vice versa.

以上、本発明が具体的な構成要素などのような特定事項と限定された実施例及び図面によって説明されたが、これは本発明のより全般的な理解を助けるために提供されたものであるに過ぎず、本発明が前記実施例に限られるものではなく、本発明が属する技術分野において通常の知識を有する者であれば係る記載から多様な修正及び変形が行われ得る。
従って、本発明の思想は前記説明された実施例に局限されて定められてはならず、後述する特許請求の範囲だけでなく、本特許請求の範囲と均等または等価的に変形されたものすべては、本発明の思想の範囲に属するといえる。
The present invention has been described above with reference to specific examples such as specific components and limited examples and drawings, which are provided to help a more general understanding of the present invention. However, the present invention is not limited to the above-mentioned embodiments, and various modifications and variations can be made by those skilled in the art to which the present invention pertains.
Therefore, the idea of the present invention should not be limited to the above-described embodiments, and is not limited to the scope of the claims to be described later, and all modifications equivalent or equivalent to the scope of the claims. Can be said to belong to the scope of the idea of the present invention.

Claims (16)

少なくとも一つの仮想走行環境における少なくとも一つの交通シナリオを生成する方法において、
(a)以前交通データと、詳細交通データとを参照して生成された走行データが取得された状態で、交通シナリオ生成装置が、前記走行データを状況分析器に入力して、前記状況分析器をもって、前記走行データから走行環境情報を抽出するようにするプロセス、前記走行データを車両情報抽出器に入力して、前記車両情報抽出器をもって、前記走行データから自車両に対する車両状態情報を抽出させるプロセス、及び前記走行環境情報と前記車両状態情報とを参照して、走行イベントを含む走行シークエンスによる順次交通ログを生成するプロセスを遂行する段階;及び
(b)前記交通シナリオ生成装置が、前記順次交通ログをシナリオ増強ネットワークに入力して、前記シナリオ増強ネットワークをもって、少なくとも一つのクリティカルイベントを少なくとも一つの条件として利用して、前記順次交通ログを前記クリティカルイベントのイベント走行環境に対応するように前記順次交通ログを増強させることにより、前記交通シナリオを生成するプロセス、予め設定された参照交通情報を参照して前記交通シナリオを検証するプロセス、及び前記交通シナリオが有効であると決定されると、前記交通シナリオを仮想走行環境の交通シミュレータにマッピングするプロセスを遂行する段階;
を含み、前記以前交通データは、映像基盤ADASにより少なくとも一つの前記走行イベントを含む少なくとも一つの既存の走行映像から抽出された離散交通データに対応するメタデータであり、前記詳細交通データは、実際の走行環境で走行される一つ以上のデータ収集車両の一つ以上のセンサから収集された順次交通データに対応するメタデータであることを特徴とする方法。
In a method of generating at least one traffic scenario in at least one virtual driving environment,
(A) With the travel data generated by referring to the previous traffic data and the detailed traffic data being acquired, the traffic scenario generation device inputs the travel data to the situation analyzer, and the situation analyzer And a process for extracting traveling environment information from the traveling data, inputting the traveling data to a vehicle information extractor, and causing the vehicle information extractor to extract vehicle state information for the own vehicle from the traveling data. Performing a process, and a process of generating a sequential traffic log according to a driving sequence including a driving event, with reference to the driving environment information and the vehicle state information; and (b) the traffic scenario generation device performs the sequential processing. The traffic log is input to the scenario augmentation network, the scenario augmentation network is used to utilize at least one critical event as at least one condition, and the sequential traffic log is adapted to correspond to the event traveling environment of the critical event. By sequentially increasing the traffic log, a process of generating the traffic scenario, a process of verifying the traffic scenario with reference to preset reference traffic information, and the traffic scenario is determined to be effective, Performing a process of mapping the traffic scenario to a traffic simulator of a virtual driving environment;
The previous traffic data is metadata corresponding to discrete traffic data extracted from at least one existing driving video including at least one driving event by the video-based ADAS, and the detailed traffic data is actually The method is characterized in that it is metadata corresponding to sequential traffic data collected from one or more sensors of one or more data collection vehicles that are driven in the driving environment.
LSTMを含む生成器が、前記順次交通ログのうちの初期交通ログを、前記LSTMのうちの初期LSTMの次の動作を取得するために利用される前記生成器の状態として設定した状態で、前記交通シナリオ生成装置は、前記シナリオ増強ネットワークをもって、前記生成器によって予測交通ログをそれに対応する次の動作として生成することにより前記生成器によって前記交通シナリオを生成するようにし、前記初期交通ログ以降の前記予測交通ログが前記イベント走行環境に対応するように増強されることを特徴とする請求項1に記載の方法。 With the generator including the LSTM setting the initial traffic log of the sequential traffic logs as the state of the generator used to obtain the next operation of the initial LSTM of the LSTM, The traffic scenario generation device causes the generator to generate the traffic scenario by generating a predicted traffic log as the next operation corresponding to the predicted traffic log with the scenario augmentation network. The method of claim 1, wherein the predictive traffic log is augmented to correspond to the event driving environment. 前記交通シナリオ生成装置は、判別器が、前記順次交通ログと前記予測交通ログとの間を区別するように前記判別器を学習させるプロセスと、前記順次交通ログ、前記予測交通ログ、及び前記条件を参照して生成された前記判別器の少なくとも一つのリワードを利用した方策勾配によって前記生成器の少なくとも一つのパラメータを最適化させるプロセスとを遂行することを特徴とする請求項2に記載の方法。 In the traffic scenario generation device, a discriminator learns the discriminator so as to distinguish between the sequential traffic log and the predicted traffic log, the sequential traffic log, the predicted traffic log, and the condition. The method of optimizing at least one parameter of the generator by a policy gradient utilizing at least one reward of the discriminator generated with reference to. .. 前記(b)段階で、
前記交通シナリオが有効でないものと決定されたら、前記交通シナリオ生成装置は、前記検証するプロセスを参照して前記条件を変更することで少なくとも一つの変更された条件を生成し、前記シナリオ増強ネットワークをもって、前記変更された条件を利用して前記順次交通ログを増強することで新たな交通シナリオを生成させることを特徴とする請求項1に記載の方法。
In the step (b),
When it is determined that the traffic scenario is not valid, the traffic scenario generation device generates at least one changed condition by changing the condition with reference to the verification process, The method according to claim 1, wherein a new traffic scenario is generated by augmenting the sequential traffic log using the changed condition.
前記交通シナリオ生成装置は、順次データから前記クリティカルイベントを抽出するか、クリティカルイベントデータベースから前記クリティカルイベントを抽出することを特徴とする請求項1に記載の方法。 The method according to claim 1, wherein the traffic scenario generation device extracts the critical event from sequential data or extracts the critical event from a critical event database. 前記順次交通ログそれぞれは、少なくとも一つの物体の数と、前記物体の位置と、少なくとも一つの歩行者の数と、前記歩行者の位置と、前記物体の少なくとも一つの軌跡と、交通信号変化情報とを含むことを特徴とする請求項1に記載の方法。 Each of the sequential traffic logs includes at least one object number, the position of the object, the number of at least one pedestrian, the position of the pedestrian, at least one trajectory of the object, and traffic signal change information. The method of claim 1, comprising: 前記映像基盤ADASは、前記既存走行映像を利用する、物体検出と、距離予測と、TSRと、車道検出と、車線検出と、TTC予測と、相対速度予測とのうちの少なくとも一つを遂行することを特徴とする請求項1に記載の方法。 The image-based ADAS performs at least one of object detection, distance prediction, TSR, roadway detection, lane detection, TTC prediction, and relative speed prediction using the existing running video. The method according to claim 1, wherein: 前記車両状態情報は、前記自車両の速度と、前記自車両の加速度と、前記自車両のステアリングホイール状態と、前記自車両の加速ペダルの位置と、前記自車両のブレーキ状態とのうちの少なくとも一つを含むことを特徴とする請求項1に記載の方法。 The vehicle state information is at least one of a speed of the own vehicle, an acceleration of the own vehicle, a steering wheel state of the own vehicle, a position of an accelerator pedal of the own vehicle, and a brake state of the own vehicle. The method of claim 1 including one. 少なくとも一つの仮想走行環境における少なくとも一つの交通シナリオを生成する交通シナリオ生成装置において、
インストラクションを格納する少なくとも一つのメモリ;及び
(I)以前交通データと、詳細交通データとを参照して生成された走行データが取得された状態で、前記走行データを状況分析器に入力して、前記状況分析器をもって、前記走行データから走行環境情報を抽出するようにするプロセス、前記走行データを車両情報抽出器に入力して、前記車両情報抽出器をもって、前記走行データから自車両に対する車両状態情報を抽出するようにするプロセス、及び前記走行環境情報と前記車両状態情報とを参照して、走行イベントを含む走行シークエンスによる順次交通ログを生成するプロセスを遂行するプロセス、及び(II)前記順次交通ログをシナリオ増強ネットワークに入力して、前記シナリオ増強ネットワークをもって、少なくとも一つのクリティカルイベントを少なくとも一つの条件として利用して、前記順次交通ログを前記クリティカルイベントのイベント走行環境に対応するように前記順次交通ログを増強させることにより、前記交通シナリオを生成するプロセス、予め設定された参照交通情報を参照して前記交通シナリオを検証するプロセス、及び前記交通シナリオが有効であると決定されると、前記交通シナリオを仮想走行環境の交通シミュレータにマッピングするプロセスを遂行するための、前記インストラクションを実行するように構成された少なくとも一つのプロセッサ;
を含み、前記以前交通データは、映像基盤ADASにより少なくとも一つの前記走行イベントを含む少なくとも一つの既存の走行映像から抽出された離散交通データに対応するメタデータであり、前記詳細交通データは、実際の走行環境で走行される一つ以上のデータ収集車両の一つ以上のセンサから収集された順次交通データに対応するメタデータであることを特徴とする交通シナリオ生成装置。
In a traffic scenario generation device for generating at least one traffic scenario in at least one virtual traveling environment,
At least one memory storing instructions; and (I) inputting the travel data into the situation analyzer with the travel data generated by referring to the previous traffic data and the detailed traffic data, A process for extracting traveling environment information from the traveling data by the situation analyzer, inputting the traveling data to a vehicle information extractor, and using the vehicle information extractor, a vehicle state for the own vehicle from the traveling data. A process for extracting information, a process for performing a process for generating a sequential traffic log by a driving sequence including a driving event with reference to the driving environment information and the vehicle state information, and (II) the sequential The traffic log is input to the scenario augmentation network, the scenario augmentation network is used to utilize at least one critical event as at least one condition, and the sequential traffic log is adapted to correspond to the event traveling environment of the critical event. By sequentially increasing the traffic log, a process of generating the traffic scenario, a process of verifying the traffic scenario with reference to preset reference traffic information, and the traffic scenario is determined to be effective, At least one processor configured to execute the instructions for performing a process of mapping the traffic scenario to a traffic simulator of a virtual driving environment;
The previous traffic data is metadata corresponding to discrete traffic data extracted from at least one existing driving video including at least one driving event by the video-based ADAS, and the detailed traffic data is actually A traffic scenario generation device characterized by being metadata corresponding to sequential traffic data collected from one or more sensors of one or more data collection vehicles that are driven in the driving environment.
LSTMを含む生成器が、前記順次交通ログのうちの初期交通ログを、前記LSTMのうちの初期LSTMの次の動作を取得するために利用される前記生成器の状態として設定した状態で、前記プロセッサは、前記シナリオ増強ネットワークをもって、前記生成器によって予測交通ログをそれに対応する次の動作として生成することにより前記生成器によって前記交通シナリオを生成するようにし、前記初期交通ログ以降の前記予測交通ログが前記イベント走行環境に対応するように増強されることを特徴とする請求項9に記載の交通シナリオ生成装置。 With the generator including the LSTM setting the initial traffic log of the sequential traffic logs as the state of the generator used to obtain the next operation of the initial LSTM of the LSTM, The processor causes the generator to generate the traffic scenario by causing the generator to generate a predicted traffic log as a corresponding next operation with the scenario augmentation network, and the predicted traffic after the initial traffic log. The traffic scenario generation device according to claim 9, wherein the log is augmented to correspond to the event driving environment. 前記プロセッサは、判別器が、前記順次交通ログと前記予測交通ログとの間を区別するように前記判別器を学習させるプロセスと、前記順次交通ログ、前記予測交通ログ、及び前記条件を参照して生成された前記判別器の少なくとも一つのリワードを利用した方策勾配によって前記生成器の少なくとも一つのパラメータを最適化させるプロセスとを遂行することを特徴とする請求項10に記載の交通シナリオ生成装置。 The processor refers to a process in which a discriminator learns the discriminator so as to distinguish between the sequential traffic log and the predicted traffic log, the sequential traffic log, the predicted traffic log, and the condition. The process of optimizing at least one parameter of the generator according to a policy gradient using at least one reward of the discriminator generated by the traffic scenario generation device according to claim 10. .. 前記(II)プロセスで、
前記交通シナリオが有効でないものと決定されたら、前記プロセッサは、前記検証するプロセスを参照して前記条件を変更することで少なくとも一つの変更された条件を生成し、前記シナリオ増強ネットワークをもって、前記変更された条件を利用して前記順次交通ログを増強することで新たな交通シナリオを生成させることを特徴とする請求項9に記載の交通シナリオ生成装置。
In the process (II),
If the traffic scenario is determined to be invalid, the processor generates at least one modified condition by modifying the condition with reference to the verifying process, and the processor augments the modified condition with the scenario augmentation network. The traffic scenario generation device according to claim 9, wherein a new traffic scenario is generated by increasing the sequential traffic log using the specified condition.
前記プロセッサは、順次データから前記クリティカルイベントを抽出するか、クリティカルイベントデータベースから前記クリティカルイベントを抽出することを特徴とする請求項9に記載の交通シナリオ生成装置。 The traffic scenario generation device according to claim 9, wherein the processor extracts the critical event from sequential data or extracts the critical event from a critical event database. 前記順次交通ログそれぞれは、少なくとも一つの物体の数と、前記物体の位置と、少なくとも一つの歩行者の数と、前記歩行者の位置と、前記物体の少なくとも一つの軌跡と、交通信号変化情報とを含むことを特徴とする請求項9に記載の交通シナリオ生成装置。 Each of the sequential traffic logs includes at least one object number, the position of the object, the number of at least one pedestrian, the position of the pedestrian, at least one trajectory of the object, and traffic signal change information. The traffic scenario generation device according to claim 9, comprising: 前記映像基盤ADASは、前記既存走行映像を利用する、物体検出と、距離予測と、TSRと、車道検出と、車線検出と、TTC予測と、相対速度予測とのうちの少なくとも一つを遂行することを特徴とする請求項9に記載の交通シナリオ生成装置。 The image-based ADAS performs at least one of object detection, distance prediction, TSR, roadway detection, lane detection, TTC prediction, and relative speed prediction using the existing running video. The traffic scenario generation device according to claim 9, wherein 前記車両状態情報は、前記自車両の速度と、前記自車両の加速度と、前記自車両のステアリングホイール状態と、前記自車両の加速ペダルの位置と、前記自車両のブレーキ状態とのうちの少なくとも一つを含むことを特徴とする請求項9に記載の交通シナリオ生成装置。 The vehicle state information is at least one of a speed of the own vehicle, an acceleration of the own vehicle, a steering wheel state of the own vehicle, a position of an accelerator pedal of the own vehicle, and a brake state of the own vehicle. The traffic scenario generation device according to claim 9, wherein the traffic scenario generation device includes one.
JP2020009531A 2019-01-30 2020-01-23 Methods and devices for generating domain-adapted traffic scenarios for virtual driving environments for learning, testing and validating autonomous vehicles Active JP6935948B2 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201962798705P 2019-01-30 2019-01-30
US62/798,705 2019-01-30
US16/731,066 2019-12-31
US16/731,066 US10636295B1 (en) 2019-01-30 2019-12-31 Method and device for creating traffic scenario with domain adaptation on virtual driving environment for testing, validating, and training autonomous vehicle

Publications (2)

Publication Number Publication Date
JP2020123351A true JP2020123351A (en) 2020-08-13
JP6935948B2 JP6935948B2 (en) 2021-09-15

Family

ID=70332697

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020009531A Active JP6935948B2 (en) 2019-01-30 2020-01-23 Methods and devices for generating domain-adapted traffic scenarios for virtual driving environments for learning, testing and validating autonomous vehicles

Country Status (5)

Country Link
US (1) US10636295B1 (en)
EP (1) EP3690754A1 (en)
JP (1) JP6935948B2 (en)
KR (1) KR102440938B1 (en)
CN (1) CN111506980B (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210050150A (en) * 2019-10-28 2021-05-07 고려대학교 세종산학협력단 Method and procedure for driving autonomous test scenario using traffic accident image based on operational environment information in road traffic

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AT521607B1 (en) * 2018-10-24 2020-03-15 Avl List Gmbh Method and device for testing a driver assistance system
JP7192709B2 (en) * 2019-08-09 2022-12-20 トヨタ自動車株式会社 Vehicle remote instruction training device
CN111932869A (en) * 2020-06-25 2020-11-13 厦门迅优通信科技有限公司 Three-parameter analysis method based on traffic flow particle characteristics
CN111983934B (en) * 2020-06-28 2021-06-01 中国科学院软件研究所 Unmanned vehicle simulation test case generation method and system
CN111967124A (en) * 2020-06-30 2020-11-20 中汽数据有限公司 Generation method for universal amplification of intelligent automobile recombination scene
CN111599181B (en) * 2020-07-22 2020-10-27 中汽院汽车技术有限公司 Typical natural driving scene recognition and extraction method for intelligent driving system test
KR20220039903A (en) * 2020-09-21 2022-03-30 현대자동차주식회사 Apparatus and method for controlling autonomous driving of vehicle
US11755469B2 (en) * 2020-09-24 2023-09-12 Argo AI, LLC System for executing structured tests across a fleet of autonomous vehicles
CN112053433A (en) * 2020-09-30 2020-12-08 中国汽车技术研究中心有限公司 Construction method of civil aviation airport dynamic scene and airport special vehicle training method
CN112462759B (en) * 2020-11-12 2024-02-27 浙江吉利控股集团有限公司 Evaluation method, system and computer storage medium of rule control algorithm
CN114694449B (en) * 2020-12-25 2023-04-18 华为技术有限公司 Method and device for generating vehicle traffic scene, training method and device
WO2022145506A1 (en) * 2020-12-28 2022-07-07 한국전자기술연구원 Method and system for generating hierarchical dataset for artificial intelligence learning, including data acquisition situation information
DE102021201177A1 (en) 2021-02-09 2022-08-11 Zf Friedrichshafen Ag Computer-implemented method and computer program for generating routes for an automated driving system
DE102021104077B3 (en) 2021-02-22 2022-05-25 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Method, system and computer program product for the automated generation of traffic data
CN113139644B (en) * 2021-03-24 2024-02-09 北京科技大学顺德研究生院 Information source navigation method and device based on deep Monte Carlo tree search
KR102568969B1 (en) 2021-03-31 2023-08-23 주식회사 한국디지털트윈연구소 Driving environment scenario generator for autonomous driving testing using digital twin technology
JP2022157321A (en) * 2021-03-31 2022-10-14 トヨタ自動車株式会社 Traffic control system, traffic control method, and program
CN113254336B (en) * 2021-05-24 2022-11-08 公安部道路交通安全研究中心 Method and system for simulation test of traffic regulation compliance of automatic driving automobile
CN116761998A (en) * 2021-05-28 2023-09-15 深圳市大疆创新科技有限公司 Safety test method of vehicle system and vehicle for testing
DE102021206737A1 (en) 2021-06-29 2022-12-29 Psa Automobiles Sa Designing an automation algorithm for a vehicle
CN113361144B (en) * 2021-07-15 2022-05-20 中交第二公路勘察设计研究院有限公司 BIM-based road driving simulation environment establishment method
CN113642108B (en) * 2021-08-11 2023-11-10 北京航空航天大学 Method for generating key test cases of traffic scene of unmanned vehicle crossroad
CN113836701A (en) * 2021-09-03 2021-12-24 东风小康汽车有限公司重庆分公司 Simulation scene construction method and device, computer equipment and storage medium
CN113532888B (en) * 2021-09-17 2022-03-18 北京智能车联产业创新中心有限公司 Pure vision automatic driving vehicle testing method and device
KR20230075300A (en) 2021-11-22 2023-05-31 오토아이티(주) Indoor learning system for autonomous vehicles
KR102580532B1 (en) 2021-11-22 2023-09-20 오토아이티(주) Indoor test system for evaluating performance of autonomous vehicles
CN114913620A (en) * 2022-05-18 2022-08-16 一汽解放汽车有限公司 Data extraction method and device, computer equipment and storage medium
US20240096232A1 (en) * 2022-08-31 2024-03-21 Zoox, Inc. Safety framework with calibration error injection
KR20240043971A (en) 2022-09-28 2024-04-04 (주)이노시뮬레이션 Automatic creating virtual environment and proposal method and system for autonomous driving simulation
KR102598898B1 (en) * 2022-10-07 2023-11-06 주식회사 자동차공학연구소 Design method of virtual road driving space and design system of virtual road driving space
KR102489534B1 (en) * 2022-11-14 2023-01-18 주식회사 마키나락스 Method for predicting the areas of information needed to be collected
KR102579590B1 (en) * 2022-12-28 2023-09-18 도로교통공단 Autonomous Vehicle ability evaluation scenario generation system based on the Road Traffic Act

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06259407A (en) * 1993-03-09 1994-09-16 Mitsubishi Electric Corp Simulation device for road traffic control
JP2002157673A (en) * 2000-11-22 2002-05-31 Natl Inst For Land & Infrastructure Management Mlit Road traffic evaluating device
JP2002163747A (en) * 2000-11-24 2002-06-07 Natl Inst For Land & Infrastructure Management Mlit Traffic simulation method
WO2014024264A1 (en) * 2012-08-08 2014-02-13 株式会社 日立製作所 Traffic-volume prediction device and method

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010002714A (en) * 2008-06-20 2010-01-07 Toyota Motor Corp Simulator device and operation challenge providing method
US8874301B1 (en) * 2013-07-09 2014-10-28 Ford Global Technologies, Llc Autonomous vehicle with driver presence and physiological monitoring
CN105718065B (en) * 2016-01-27 2018-08-21 北京交通大学 Interactive inspection analogue system under bus or train route cooperative surroundings
CN105807922B (en) * 2016-03-07 2018-10-02 湖南大学 Implementation method that a kind of amusement of virtual reality drives, apparatus and system
KR101902824B1 (en) * 2016-04-12 2018-10-02 자동차부품연구원 Driving integrated simulation apparatus based on v2x communication
KR101850038B1 (en) * 2016-05-24 2018-06-07 (주)이노시뮬레이션 Apparatus and method for simulating car
KR102057532B1 (en) * 2016-10-12 2019-12-20 한국전자통신연구원 Device for sharing and learning driving environment data for improving the intelligence judgments of autonomous vehicle and method thereof
CN106777747A (en) * 2016-12-29 2017-05-31 广西航程威特科技有限公司 A kind of three-dimensional traffic analogue simulation system
US10118628B2 (en) * 2017-02-21 2018-11-06 Allstate Insurance Company Data processing system for guidance, control, and testing autonomous vehicle features and driver response
US10229590B2 (en) * 2017-08-14 2019-03-12 GM Global Technology Operations LLC System and method for improved obstable awareness in using a V2X communications system
CN108091203A (en) * 2017-12-07 2018-05-29 中国航空工业集团公司西安航空计算技术研究所 It is a kind of based on virtual reality technology stress traffic scene driving training system
EP3543985A1 (en) * 2018-03-21 2019-09-25 dSPACE digital signal processing and control engineering GmbH Simulation of different traffic situations for a test vehicle
US11994860B2 (en) * 2018-06-15 2024-05-28 Allstate Insurance Company Processing system for evaluating autonomous vehicle control systems through continuous learning

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06259407A (en) * 1993-03-09 1994-09-16 Mitsubishi Electric Corp Simulation device for road traffic control
JP2002157673A (en) * 2000-11-22 2002-05-31 Natl Inst For Land & Infrastructure Management Mlit Road traffic evaluating device
JP2002163747A (en) * 2000-11-24 2002-06-07 Natl Inst For Land & Infrastructure Management Mlit Traffic simulation method
WO2014024264A1 (en) * 2012-08-08 2014-02-13 株式会社 日立製作所 Traffic-volume prediction device and method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JENKINS IAN RHYS ET AL: "Accident Scenario Generation withRecurrent Neural Networks", 2018 21ST INTERNATIONAL CONFERENCE ON INTELLIGENT TRANSPORTATION SYSTEMS (ITSC), JPN6021007367, 4 November 2018 (2018-11-04), pages 3340 - 3345, XP033470305, ISSN: 0004457545, DOI: 10.1109/ITSC.2018.8569661 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210050150A (en) * 2019-10-28 2021-05-07 고려대학교 세종산학협력단 Method and procedure for driving autonomous test scenario using traffic accident image based on operational environment information in road traffic
KR102306085B1 (en) 2019-10-28 2021-09-28 고려대학교 세종산학협력단 Method and procedure for driving autonomous test scenario using traffic accident image based on operational environment information in road traffic

Also Published As

Publication number Publication date
KR102440938B1 (en) 2022-09-06
KR20200094650A (en) 2020-08-07
CN111506980A (en) 2020-08-07
EP3690754A1 (en) 2020-08-05
CN111506980B (en) 2023-09-08
US10636295B1 (en) 2020-04-28
JP6935948B2 (en) 2021-09-15

Similar Documents

Publication Publication Date Title
JP6935948B2 (en) Methods and devices for generating domain-adapted traffic scenarios for virtual driving environments for learning, testing and validating autonomous vehicles
JP6738932B2 (en) System and method for training machine learning models located on a simulation platform
CN109598066B (en) Effect evaluation method, apparatus, device and storage medium for prediction module
CN112703459B (en) Iterative generation of confrontational scenarios
US10919543B2 (en) Learning method and learning device for determining whether to switch mode of vehicle from manual driving mode to autonomous driving mode by performing trajectory-based behavior analysis on recent driving route
JP6916552B2 (en) A method and device for detecting a driving scenario that occurs during driving and providing information for evaluating a driver's driving habits.
CN110597086A (en) Simulation scene generation method and unmanned system test method
KR20200075344A (en) Detector, method of object detection, learning apparatus, and learning method for domain transformation
JP2023510136A (en) Geolocation models for perception, prediction or planning
KR20190013689A (en) Evaluation Framework for Trajectory Predicted in Autonomous Vehicle Traffic Forecasting
JP6418574B2 (en) Risk estimation device, risk estimation method, and computer program for risk estimation
JP2023533507A (en) Systems and methods for optimizing trajectory planners based on human driving behavior
KR102301631B1 (en) Method for integrating driving images acquired from vehicles performing cooperative driving and driving image integrating device using same
CN112163446B (en) Obstacle detection method and device, electronic equipment and storage medium
CN111178286B (en) Gesture track prediction method and device and electronic equipment
CN113095125B (en) Diagnosing a perception system based on scene continuity
KR20200082672A (en) Simulation method for autonomous vehicle linked game severs
KR20210118995A (en) Method and apparatus for generating u-turn path of autonomous vehicle based on deep learning
CN114077541A (en) Method and system for validating automatic control software for an autonomous vehicle
US20230331250A1 (en) Method and apparatus for configuring deep learning algorithm for autonomous driving
CN114444208A (en) Method, device, equipment and medium for determining reliability of automatic driving system
KR20230143961A (en) Vehicle action selection based on simulated states
US20230182754A1 (en) Determining an anomalous event from a scenario and an action of interest
CN113276860A (en) Vehicle control method, device, electronic device, and storage medium
US20230195958A1 (en) Generating simulations based on real-world scenarios

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200123

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210309

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210608

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210817

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210819

R150 Certificate of patent or registration of utility model

Ref document number: 6935948

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150