KR20220066711A - Autonomous Driving Distributed Simulation Synchronous Control Method - Google Patents

Autonomous Driving Distributed Simulation Synchronous Control Method Download PDF

Info

Publication number
KR20220066711A
KR20220066711A KR1020200153043A KR20200153043A KR20220066711A KR 20220066711 A KR20220066711 A KR 20220066711A KR 1020200153043 A KR1020200153043 A KR 1020200153043A KR 20200153043 A KR20200153043 A KR 20200153043A KR 20220066711 A KR20220066711 A KR 20220066711A
Authority
KR
South Korea
Prior art keywords
simulation
simulator
global
sensor
time
Prior art date
Application number
KR1020200153043A
Other languages
Korean (ko)
Other versions
KR102412539B1 (en
Inventor
김구
Original Assignee
(주)이노시뮬레이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)이노시뮬레이션 filed Critical (주)이노시뮬레이션
Priority to KR1020200153043A priority Critical patent/KR102412539B1/en
Publication of KR20220066711A publication Critical patent/KR20220066711A/en
Application granted granted Critical
Publication of KR102412539B1 publication Critical patent/KR102412539B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0011Planning or execution of driving tasks involving control alternatives for a single driving scenario, e.g. planning several paths to avoid obstacles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0002Automatic control, details of type of controller or control system architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2400/00Special features of vehicle units
    • B60Y2400/30Sensors

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Artificial Intelligence (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Human Computer Interaction (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Traffic Control Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

The present invention relates to a synchronous control method for autonomous driving distributed simulation, by which virtual sensors, artificial intelligence simulators, and global simulators with characteristics such as various simulation cycles can be synchronized with each other while being processed in parallel. In the autonomous driving simulator for vehicle simulation, which includes loading of control force, dynamics simulation, and a 3D image rendering system, each sensor simulator for generating virtual sensor training data and an AI simulator are provided distinct from a global simulator, in consideration of the processing performance of sensors and artificial intelligence algorithms. The global simulator includes distributed simulation to handle autonomous driving scenarios and vehicle dynamics by using global simulation timestamps. To this end, a parallel simulation method for each simulator using shared buffers and a simulation synchronous control and interpolation method using a fixed time interval manner are presented. The synchronous control method for autonomous driving distributed simulation comprises the steps in which: vehicle control simulation for an AI simulator processes autonomous driving ground truth data collected from a plurality of, sensors through machine learning, and generates vehicle control force; and the AI simulator processes events in parallel with a global simulator by using shared buffers.

Description

자율주행 분산 시뮬레이션 동기 제어 방법{Autonomous Driving Distributed Simulation Synchronous Control Method}Autonomous Driving Distributed Simulation Synchronous Control Method

본 발명은 자율주행 분산 시뮬레이션 동기 제어 방법에 관한 것으로, 더 상세하게는 다양한 시뮬레이션 주기 등의 특성을 갖는 가상 센서 및 인공지능 시뮬레이터들과 전역 시뮬레이터가 병렬적으로 처리되면서 서로 동기화될 수 있는, 자율주행 분산 시뮬레이션 동기 제어 방법에 관한 것이다.The present invention relates to a method for controlling autonomous driving distributed simulation synchronous control, and more particularly, to autonomous driving, in which virtual sensors and artificial intelligence simulators having characteristics such as various simulation cycles and global simulators are processed in parallel and synchronized with each other. It relates to a distributed simulation synchronous control method.

출원번호 10-2019-0156179(2019.11.28)호에 따르면, "인공지능 VILS 기반의 자율주행 제어 장치 및 방법에 관한 것으로, 특히 생산적 적대 학습(GAN: Generative Adversarial Network) 모델을 통해 실제와 같은 주행 환경을 생성하여 실도로의 운행을 통해 자율주행차의 도로 운행을 검증하는 기술에 관한 것이다. 본 발명은, 가상 환경에서 자율주행차를 자율 주행시키기 위해, 검증이 필요한 모델링된 도로 환경을 나타내는 상태 정보와 상기 자율주행차의 주변 차량에 대한 정보를 포함하는 주행 정보를 통해 상기 가상 환경을 생성하는 주행환경 생성부; 상기 주행환경 생성부에서 획득된 상태 정보 및 주행 정보를 3차원 OGM(Occupancy Grid Map)을 통해 레이어 분류를 이용하여 데이터화를 진행하는 결과물 생성부; 및 상기 결과물 생성부에서 생성된 데이터로부터 산출된 자율주행 알고리즘을 작동시켜 상기 자율주행차를 제어하고 상기 자율주행차의 실제의 움직이는 궤적을 추적 및 기록하여 상기 가상 환경에 입력하는 자율주행 검증부를 포함하는 인공지능 VILS 기반의 자율주행 제어 장치를 제공한다. 본 발명에 의해, 실제 다양한 운전자들의 주행을 학습한 고도화된 인공지능 운전자 모사 모델을 VILS 검증에 활용함으로써, 자율주행 평가의 신뢰성을 높일 수 있을 것이다."라고 개시된 바가 있다.According to Application No. 10-2019-0156179 (November 28, 2019), "It relates to a device and method for autonomous driving control based on artificial intelligence VILS, and in particular, realistic driving through a Generative Adversarial Network (GAN) model. BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a technology for verifying road operation of an autonomous vehicle through operation on a real road by creating an environment.The present invention provides a state indicating a modeled road environment that requires verification in order to autonomously drive the autonomous vehicle in a virtual environment A driving environment generating unit that generates the virtual environment through driving information including information and information on surrounding vehicles of the autonomous vehicle; A result generating unit that dataizes using layer classification through a map), and an autonomous driving algorithm calculated from the data generated by the result generating unit to control the autonomous vehicle and actually move the autonomous vehicle An artificial intelligence VILS-based autonomous driving control device including an autonomous driving verification unit that tracks and records a trajectory and inputs it into the virtual environment is provided. By using the model for VILS verification, it will be possible to increase the reliability of autonomous driving evaluation.”

출원번호 10-2013-0011463(2013.01.31)호에 따르면, " 물리적인 요소와 계산적인 요소의 특성을 모두 갖는 가상-물리 시스템(CPS; Cyber Physical System)과 같은 하이브리드 시스템(Hybrid system)을 구성하는 서브시스템(Subsystem)들을 모델링한 서브시스템 모델들에 대해 다수의 분산 시뮬레이터들을 이용하여 분산 시뮬레이션을 수행함에 있어서, 실시간을 기반으로 동기화된 전역 시뮬레이션 시간을 다수의 분산 시뮬레이터들에게 제공하고, 다수의 분산 시뮬레이터들이 동기화된 전역 시뮬레이션 시간에 따라 지역 시뮬레이션 시간을 조정하여 자신에게 할당된 서브시스템 모델에 대한 시뮬레이션을 수행하도록 하는 분산 시뮬레이션 수행 시스템 및 방법을 개시한다."라고 공표된 바가 있다.According to Application No. 10-2013-0011463 (2013.01.31), "a hybrid system such as a virtual-physical system (CPS) having both physical and computational elements is configured. In performing distributed simulation using a plurality of distributed simulators for subsystem models modeling subsystems to Disclosed is a system and method for performing distributed simulations that allow distributed simulators to perform simulations on subsystem models assigned to them by adjusting local simulation times according to synchronized global simulation times."

1. 출원번호 10-2019-0156179(2019.11.28); 인공지능 VILS 기반의 자율주행 제어 장치 및 방법1. Application No. 10-2019-0156179 (2019.11.28); AI VILS-based autonomous driving control device and method 2. 출원번호 10-2013-0011463(2013.01.31); 분산 시뮬레이션 수행 시스템 및 방법2. Application No. 10-2013-0011463 (2013.01.31); Distributed simulation system and method

최근 인공지능 및 센서 융합, 통신 등 자율주행과 관련하여 많은 연구가 이루어지고 있다. 특히, 인공지능 학습에 필요한 다양한 주행환경 및 시나리오의 방대한 데이터를 가상의 자율주행 시뮬레이터를 통해 쉽게 재현해낼 수 있어, 이와 관련된 연구가 활발히 진행 중이다.Recently, a lot of research has been done in relation to autonomous driving such as artificial intelligence, sensor fusion, and communication. In particular, the vast amount of data of various driving environments and scenarios required for AI learning can be easily reproduced through a virtual autonomous driving simulator, and related research is being actively conducted.

라이다, 레이다, 카메라, GPS, IMU 및 차량 ECU 등의 다양한 센서 들이 자율주행 차량에 탑재되어야 하는데, 센서 마다 다른 샘플링 주기, 해상도, 화각 등의 물리적 특성을 반영하여야 한다. 하지만, 자율주행 시뮬레이터의 가상 센서는 센서 들의 종류와 수가 증가함에 따라 시간 동기화 비용도 증가하므로 전체적인 통합시뮬레이션의 성능이 저하되는 문제가 있다.Various sensors, such as lidar, radar, camera, GPS, IMU, and vehicle ECU, must be installed in an autonomous vehicle, and each sensor must reflect physical characteristics such as sampling period, resolution, and angle of view. However, the virtual sensor of the autonomous driving simulator has a problem in that the overall integrated simulation performance is degraded because the time synchronization cost increases as the types and number of sensors increase.

또한, 자율주행 시뮬레이터는 가상 센서, 인공지능, 동역학, 주행 시나리오 처리가 함께 시뮬레이션 되어야 하는데 각 처리 모듈들의 연산 부하가 크고, 센서 이벤트의 발생 시간부터 시뮬레이션 된 다음 주기의 가상 세계 정보를 얻기 까지 대기 시간으로 인해 통합 시뮬레이션 파이프라인과의 병렬처리가 어려운 문제가 있다. 각 센서 시뮬레이터는 전역 시뮬레이터로부터 동일한 시뮬레이션 결과를 전역 클록의 매 사이클 마다 전달 받아, 각 시뮬레이터 클록의 사이클로 동기가 필요하기 때문에 병렬적 수행에 어려움이 있다.In addition, in the autonomous driving simulator, virtual sensor, artificial intelligence, dynamics, and driving scenario processing must be simulated together. The computational load of each processing module is large, and the waiting time from the occurrence of a sensor event to obtaining the virtual world information of the next simulated cycle Therefore, parallel processing with the integrated simulation pipeline is difficult. Since each sensor simulator receives the same simulation result from the global simulator every cycle of the global clock and requires synchronization with each simulator clock cycle, there is a difficulty in parallel execution.

최근 들어 분산 시뮬레이션 방법에 관한 많은 연구가 진행되고 있으나, 다양한 센서를 포함한 다수의 시뮬레이터들의 통합 시뮬레이션 동기 방법에 대한 연구가 부족한 현실이다. 특히, 실제 센서의 사양에 따른 시뮬레이션과 분산 시뮬레이션 동기화를 통한, 사실적인 센서 영상 생성 및 통합 시뮬레이션 기술 개발이 시급한 상황이다.Recently, many studies on distributed simulation methods have been conducted, but the reality is that studies on integrated simulation synchronization methods of multiple simulators including various sensors are lacking. In particular, there is an urgent need to generate realistic sensor images and develop integrated simulation technology through synchronization of simulation and distributed simulation according to the specifications of the actual sensor.

본 발명은 상술한 문제점들을 해소하고, 필요성을 충족시키기 위한 것으로, 다양한 시뮬레이션 주기 등의 특성을 갖는 가상 센서 및 인공지능 시뮬레이터들과 전역 시뮬레이터가 병렬적으로 처리되면서 서로 동기화될 수 있는, 자율주행 분산 시뮬레이션 동기 제어 방법을 제공하는데 그 목적이 있다.The present invention solves the above problems and satisfies the necessity, and the virtual sensor and artificial intelligence simulators having characteristics such as various simulation cycles and the global simulator are processed in parallel and synchronized with each other, autonomous driving distributed An object of the present invention is to provide a simulation synchronous control method.

상기 목적을 달성하기 위한 본 발명의 특징을 살펴보도록 한다.Let's look at the features of the present invention for achieving the above object.

전통적인 차량 시뮬레이션은 제어 힘 로딩, 동역학 시뮬레이션, 3차원 영상 렌더링 시스템을 포함 하여 구성된다. 본 발명의 자율주행 시뮬레이터에서는 센서와 인공지능 알고리즘의 처리 성능을 고려하여 가상 센서 학습 데이터의 생성을 담당하는 각 센서 시뮬레이터와 AI 시뮬레이터를 전역 시뮬레이터에서 분리하여 구성하고, 전역 시뮬레이터에서는 전역 시뮬레이션 타임스탬프의 자율 주행 시나리오 및 차량 동역학을 처리하도록 분산형 시뮬레이션을 구성한다.Traditional vehicle simulation consists of control force loading, dynamics simulation, and 3D image rendering system. In the autonomous driving simulator of the present invention, in consideration of the processing performance of sensors and artificial intelligence algorithms, each sensor simulator and AI simulator responsible for generating virtual sensor learning data are configured separately from the global simulator, and the global simulation timestamp is configured in the global simulator. Distributed simulations are constructed to handle autonomous driving scenarios and vehicle dynamics.

이를 위해 공유 버퍼를 이용한 각 시뮬레이터들의 병렬 시뮬레이션 방법과 고정 시간 간격 방식의 시뮬레이션 동기 제어 및 보간 방법을 제시한다.To this end, we present a parallel simulation method of each simulator using a shared buffer and a simulation synchronous control and interpolation method using a fixed time interval method.

본 발명의 바람직한 효과에 따르면, 1)센서 융합을 위한 시뮬레이터들의 데이터 및 시간 동기화 기반을 구축하고, 2)전역, AI, 센서 3종의 자율주행 분산 시뮬레이션 시스템 구성 방법을 제안하며, 3)센서 스캔 시간 간격 시뮬레이션을 위한 고정 시간 간격 기반 장면 보간 알고리즘을 구성하는데 도움을 줄 수 있으며, 4)가상 센서 시뮬레이션 및 인공지능 데이터 동기화 및 병렬 분산 처리 성능을 개선하는 효과가 있으며, 5)호환성 높은 자율주행 시뮬레이션 시스템으로 확장시키고, 모델의 검증 및 모의실험 환경을 개선시키는 장점이 있다.According to a preferred effect of the present invention, 1) establishing a data and time synchronization basis of simulators for sensor fusion, 2) proposing a method for configuring a distributed simulation system for autonomous driving of three types of global, AI, and sensors, 3) sensor scanning It can help to construct a fixed time interval-based scene interpolation algorithm for time interval simulation, 4) has the effect of improving virtual sensor simulation and artificial intelligence data synchronization and parallel distributed processing performance, 5) highly compatible autonomous driving simulation It has the advantage of extending it to the system and improving the model validation and simulation environment.

도 1은 본 발명에 따른 자율주행 분산시뮬레이션 동기 제어방법에서, 공유버퍼를 이용한 병렬처리와 데이터 동기를 설명하기 위한 흐름도.
도 2는 본 발명에 따른 자율주행 분산시뮬레이션 동기 제어방법에서, 고정시간 간격 기반 전역 시뮬레이션 타임스탬프 획득을 설명하기 위한 흐름도.
도 3은 본 발명에 따른 자율주행 분산시뮬레이션 동기 제어방법에서, 시간경과율에 따른 이전 장면 보간 렌더링을 설명하기 위한 흐름도.
도 4는 본 발명에 따른 자율주행 분산시뮬레이션 동기 제어방법에서, 동역학 주기를 반영한 센서 스캔 시간 시뮬레이션을 설명하기 위한 흐름도.
도 5는 본 발명에 따른 자율주행 분산시뮬레이션 동기 제어방법에서, 실시간 자율주행 시뮬레이션 제어흐름을 설명하기 위한 흐름도.
1 is a flowchart illustrating parallel processing and data synchronization using a shared buffer in the autonomous driving distributed simulation synchronization control method according to the present invention.
FIG. 2 is a flowchart for explaining the acquisition of a global simulation timestamp based on a fixed time interval in the autonomous driving distributed simulation synchronization control method according to the present invention; FIG.
3 is a flowchart illustrating interpolation rendering of a previous scene according to a time elapse rate in the autonomous driving distributed simulation synchronization control method according to the present invention.
4 is a flowchart for explaining a sensor scan time simulation reflecting a dynamic period in the autonomous driving distributed simulation synchronization control method according to the present invention;
5 is a flowchart illustrating a real-time autonomous driving simulation control flow in the autonomous driving distributed simulation synchronous control method according to the present invention.

이하, 첨부된 도면을 참조하여 본 발명을 상세히 설명하도록 한다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

전통적인 차량 시뮬레이션은 제어 힘 로딩, 동역학 시뮬레이션, 3차원 영상 렌더링 시스템을 포함 하여 구성된다. 본 발명의 자율주행 시뮬레이터에서는 센서와 인공지능 알고리즘의 처리 성능을 고려하여 가상 센서 학습 데이터의 생성을 담당하는 각 센서 시뮬레이터와 AI 시뮬레이터를 전역 시뮬레이터에서 분리하여 구성하고, 전역 시뮬레이터에서는 전역 시뮬레이션 타임스탬프의 자율 주행 시나리오 및 차량 동역학을 처리하도록 분산형 시뮬레이션을 구성한다. 이를 위해 공유 버퍼를 이용한 각 시뮬레이터들의 병렬 시뮬레이션 방법과 고정 시간 간격 방식의 시뮬레이션 동기 제어 및 보간 방법을 제시한다.Traditional vehicle simulation consists of control force loading, dynamics simulation, and 3D image rendering system. In the autonomous driving simulator of the present invention, in consideration of the processing performance of sensors and artificial intelligence algorithms, each sensor simulator and AI simulator responsible for generating virtual sensor learning data are configured separately from the global simulator, and the global simulation timestamp is configured in the global simulator. Distributed simulations are constructed to handle autonomous driving scenarios and vehicle dynamics. To this end, we present a parallel simulation method of each simulator using a shared buffer and a simulation synchronous control and interpolation method using a fixed time interval method.

1. AI 시뮬레이터 : 제어 힘 로딩1. AI Simulator: Control Force Loading

AI 시뮬레이터는 제어 힘을 로딩하는 기능을 수행한다.The AI simulator performs the function of loading control forces.

AI 시뮬레이터의 차량 제어 시뮬레이션은 다수의 센서에서 수집된 자율주행 정답(ground truth) 데이터를 기계학습을 통해 처리하고 차량 제어 힘(control force)을 생성하는 과정을 수행한다. 센서 시뮬레이션 주기에 맞게 수집된 정답 데이터는 전역 시뮬레이션 주기와 동기하여 전역 시뮬레이터에 이벤트 형태로 전달되는데, 각 센서 시뮬레이션 주기의 타임스탬프가 포함된 이벤트들은 모두 시뮬레이션 메시지 큐에 추가된다. The AI simulator's vehicle control simulation processes autonomous driving ground truth data collected from multiple sensors through machine learning and generates a vehicle control force. The correct answer data collected according to the sensor simulation cycle is transmitted in the form of an event to the global simulator in synchronization with the global simulation cycle, and all events including the timestamp of each sensor simulation cycle are added to the simulation message queue.

도 1은 공유버퍼를 이용한 병렬처리와 데이터 동기를 설명하기 위한 흐름도로서, AI 시뮬레이션 주기에서 발생된 이전(tn-1) 동기 신호(①)에 따라, 다음(tn+1) 이벤트를 읽고 센서의 타임스탬프에 따라 정렬하여 AI 시뮬레이터에 전달한다(②). 이때 AI 시뮬레이터는 이전(tn-1) 처리 결과인 제어 힘을 전역 시뮬레이터에 동기 신호로 전송 후(①), 다음(tn+1) 센서 이벤트 대기 없이 현재(tn) 이벤트로부터 새로운 연산을 수행(③) 하여 전역 시뮬레이터와의 병렬처리를 가능하게 한다.1 is a flowchart for explaining parallel processing and data synchronization using a shared buffer. According to the previous (t n-1 ) synchronization signal (①) generated in the AI simulation cycle, the next (t n+1 ) event is read and They are sorted according to the timestamp of the sensor and delivered to the AI simulator (②). At this time, the AI simulator transmits the control force, which is the result of the previous (t n-1 ) processing, as a synchronization signal to the global simulator (①), and then performs a new operation from the current (t n ) event without waiting for the next (t n+1 ) sensor event. Execute (③) to enable parallel processing with the global simulator.

AI 시뮬레이터는 공유된 요청 버퍼에 메시지가 있을 때 마다 최대한 자주 시뮬레이션을 반복하여 빠른 응답을 가능하게 한다. 요청 버퍼는 초기 버퍼가 모두 채워진 이후부터, 이전 연산 결과 읽기(①)와 다음 데이터 쓰기(②), 그리고 현재 데이터 연산(③)의 과정을 반복적으로 수행 한다.The AI simulator allows for a quick response by repeating the simulation as often as possible whenever there is a message in the shared request buffer. The request buffer repeats the process of reading the previous operation result (①), writing the next data (②), and operating the current data (③) after the initial buffer is all filled.

2. 전역 시뮬레이터 : 동역학 시뮬레이션2. Global Simulator: Dynamics Simulation

전역시뮬레이터는 동역학 시뮬레이션 기능을 수행한다.The global simulator performs the dynamics simulation function.

도 2는 고정시간 간격 기반 전역 시뮬레이션 타임스탬프 획득을 설명하기 위한 흐름도로서, 전역 시뮬레이터는 미리 정의된 다양한 주행 시나리오를 실시간 시뮬레이션 하고, AI에서 전달된 제어 힘을 로딩하여 차량 동역학 시뮬레이션을 주기적으로 수행 한다. 2 is a flowchart for explaining the acquisition of global simulation timestamps based on fixed time intervals. The global simulator simulates various predefined driving scenarios in real time, and loads the control force transmitted from AI to periodically perform vehicle dynamics simulation. .

일반적으로, 전역 시뮬레이션 주기는 AI 주기보다 높아 제어 힘이 변경되지 않아도 지속적인 제어 힘으로 차량 동역학을 시뮬레이션 할 수 있다. 하지만, 동역학 엔진은 물리적 특성을 계산하기 위해 더 높은 주기를 요구 하므로, 동역학 시뮬레이션 주기를 별도로 관리해야 한다. 즉, 3차원 장면의 갱신을 위한 전역 시뮬레이션 수행 중 동역학 시뮬레이션이 한번 이상 수행 될 수 있도록 수행 주기를 포함하여 구성 한다.In general, the global simulation period is higher than the AI period, allowing the simulation of vehicle dynamics with continuous control force even if the control force does not change. However, since the dynamics engine requires a higher cycle to calculate the physical properties, the dynamics simulation cycle must be managed separately. That is, the execution cycle is included so that the dynamics simulation can be performed more than once during the global simulation for updating the 3D scene.

수학식 1에 나타낸 바와 같이, 전역 시뮬레이터는 최대한 자주 렌더링을 수행 하고 이때 측정된 현재 시스템 클록이 정의된 고정 시간 이상이 될 때 마다 반복해서(steps) 시뮬레이션을 수행하고, 그 시간 간격(tdelta) 만큼 증가한 시뮬레이션 타임스탬프(tfixed)를 얻는다.As shown in Equation 1, the global simulator performs rendering as often as possible, and at this time, whenever the measured current system clock exceeds the defined fixed time, the simulation is repeatedly performed (steps), and the time interval (t delta ) We get the simulation timestamp (t fixed ) incremented by

Figure pat00001
Figure pat00001

동역학 시뮬레이션으로 얻어진 자율주행 차량(ego vehicle) 정보는 AI 제어 로직에서 사용할 수 있도록, 고정된 시간의 전역 시뮬레이션 주기에 맞게 AI 시뮬레이터에 전달한다. 또한, 전역 시뮬레이터는 주기에 맞는 시나리오 및 동역학으로 얻어진 3차원 장면 정보를 계산된 시뮬레이션 타임스탬프와 함께 각 센서 시뮬레이터들에 전달한다. The ego vehicle information obtained from the dynamics simulation is transmitted to the AI simulator according to the global simulation cycle of a fixed time so that it can be used in the AI control logic. In addition, the global simulator transmits the 3D scene information obtained by the scenario and dynamics corresponding to the period along with the calculated simulation timestamp to each sensor simulator.

3. 센서 시뮬레이터 : 센서 렌더링3. Sensor Simulator: Sensor Rendering

센서시뮬레이터는 센서 렌더링 기능을 수행한다.The sensor simulator performs the sensor rendering function.

전역 시뮬레이터에서 전달된 장면 정보에는 동적 객체 및 환경 등 실시간 가상 시나리오와 자율 주행 차량의 정보가 포함된다. 전역 시뮬레이션 주기와 센서 시뮬레이션 주기가 다르기 때문에 3차원 가상세계의 상태가 갱신되는 시점까지 센서는 동일한 결과를 얻는 문제가 있다.The scene information transmitted from the global simulator includes real-time virtual scenarios such as dynamic objects and environments and information about autonomous vehicles. Since the global simulation cycle and the sensor simulation cycle are different, there is a problem in that the sensor obtains the same result until the state of the 3D virtual world is updated.

도 3은 시간경과율에 따른 이전 장면 보간 렌더링을 설명하기 위한 흐름도로서, 상기 문제는 전역 시뮬레이션의 타임스탬프 계산을 참고로 센서 렌더링 시간을 전역 시뮬레이션 시간보다 이전 시간 간격을 시뮬레이션 하여 해결 할 수 있다. 3 is a flowchart for explaining interpolation rendering of a previous scene according to a time lapse rate. The above problem can be solved by simulating a time interval before the global simulation time for the sensor rendering time with reference to the timestamp calculation of the global simulation.

수학식 2에 나타낸 바와 같이, 이미 계산된 이전 시뮬레이션 시간 장면 정보(f(20))와 현재 시뮬레이션 시간 장면 정보(f(40))를 소요된 시간 비율의 선형 보간으로 현재 센서 시간의 장면 정보(f(50))를 얻을 수 있다.As shown in Equation 2, the scene information of the current sensor time (f(20)) and the current simulation time scene information (f(40)) that have already been calculated are linear interpolation of the time ratio f(50)) can be obtained.

Figure pat00002
Figure pat00002

또한, 실제 LiDAR 센서의 경우 3차원 공간을 스캔할 때 360도 점군을 동시에 얻을 수 없어 특정 각도로 회전하며 스캔하기 때문에, 한 장면을 스캔한 센서의 위치와 시간이 달라 질 수 있다. 이처럼 특정 센서가 동시에 스캔 가능한 시간 간격이 동기화된 전역 시뮬레이션의 시간 간격 보다 작은 경우에도, 이전 장면과 현재 장면의 행렬을 여러 번 보간 할 수 있어 보다 세밀한 센서 시뮬레이션을 가능하게 한다.In addition, in the case of an actual LiDAR sensor, a 360-degree point cloud cannot be obtained at the same time when scanning a 3D space, so it rotates at a specific angle and scans, so the position and time of the sensor that scanned a scene may be different. As such, even when the time interval that a specific sensor can scan simultaneously is smaller than the time interval of the synchronized global simulation, the matrix of the previous scene and the current scene can be interpolated multiple times, enabling more detailed sensor simulation.

앞에서 언급한 것처럼 시뮬레이션 타임스탬프는 시나리오의 장면 갱신 주기로 결정 되는데, 동역학 시뮬레이션은 시나리오 보다 세밀한 동역학 차량 정보를 생성할 수 있다. As mentioned earlier, the simulation timestamp is determined by the scene update cycle of the scenario, and the dynamics simulation can generate more detailed dynamic vehicle information than the scenario.

도 4는 동역학 주기를 반영한 센서 스캔 시간 시뮬레이션을 설명하기 위한 흐름도로서, 전역 시뮬레이터는 동역학 주기 비율만큼의 차량 정보 버퍼를 별도로 구성하여 전달하고, 이를 수신한 각 시뮬레이터는 센서 스캔 주기로 개별 차량 정보를 보간하여 보다 세밀한 시뮬레이션을 할 수 있다. 즉, 시나리오의 장면 정보는 전역 시뮬레이션 시간 간격(20)을 보간하여 얻고, 자율주행 차량 정보는 보다 높은 동역학 시뮬레이션 시간 간격(2)를 보간하여 얻을 수 있기 때문에, 각 센서의 샘플링 주기(20Hz) 및 스캔 시간(75°, 10)의 물리적 특성을 반영하여 보다 정밀한 센서 시뮬레이션 결과를 얻을 수 있다.4 is a flowchart for explaining a sensor scan time simulation reflecting the dynamics cycle. The global simulator separately configures and transmits a vehicle information buffer equal to the dynamics cycle rate, and each simulator that receives this interpolates individual vehicle information with the sensor scan cycle. This enables more detailed simulations. That is, since the scene information of the scenario can be obtained by interpolating the global simulation time interval (20), and the autonomous vehicle information can be obtained by interpolating the higher dynamics simulation time interval (2), the sampling period of each sensor (20 Hz) and A more precise sensor simulation result can be obtained by reflecting the physical characteristics of the scan time (75°, 10).

4. 통합 시뮬레이터 : 실시간 분산 시뮬레이션4. Integrated simulator: real-time distributed simulation

통합시뮬레이터는 실시간 분산 시뮬레이션 기능을 수행한다.The integrated simulator performs a real-time distributed simulation function.

도 5는 실시간 자율주행 시뮬레이션 제어흐름을 설명하기 위한 흐름도로서, 본 특허에서 제안된 분산 자율주행 시뮬레이터는 센서와 AI 알고리즘 처리 전용 시뮬레이터를 개별 시뮬레이터로 구성하여 부하를 분산 시키고, 시뮬레이터들 사이의 주행 정보를 고정 시간 간격의 동기화 방법을 통해 동기화 한다. 5 is a flowchart for explaining the real-time autonomous driving simulation control flow. The distributed autonomous driving simulator proposed in this patent consists of individual simulators dedicated to processing sensors and AI algorithms to distribute the load, and driving information between the simulators. are synchronized through the synchronization method of fixed time intervals.

이를 통해, 센서 시뮬레이션은 포토리얼리즘 실현을 용이하게 하며 다양한 고성능 게임 렌더링 엔진으로의 확장을 용이하게 한다. In this way, sensor simulation facilitates the realization of photorealism and facilitates extension to various high-performance game rendering engines.

또한, 자율주행 인공지능 알고리즘의 복잡한 딥러닝 연산을 실시간으로 처리할 수 있는 시뮬레이션의 확장 가능한 토대를 마련하는 장점이 있다. In addition, it has the advantage of laying a scalable foundation for simulation that can process complex deep learning operations of autonomous driving AI algorithms in real time.

물리적으로 분리된 다수의 시뮬레이터가 연결될 때 전역 시뮬레이터로부터 전달받은 전역 클록으로부터 시작 시간 동기가 수행되고, 각 시뮬레이터의 렌더링 시간은 이 시간 차이 만큼 보정 하여 전역 시뮬레이션 시간과 동기 한다.When multiple physically separated simulators are connected, start time synchronization is performed from the global clock received from the global simulator, and the rendering time of each simulator is corrected by this time difference to synchronize with the global simulation time.

각 센서 시뮬레이터에서 발생된 캡처 이벤트는 전역 시뮬레이션 주기로 전역 메시지 큐에 추가되고, AI 시뮬레이터 주기 마다 정렬하여 AI에 전달된다. 또한, 전역 시뮬레이터는 주기적으로 다음 시뮬레이션 시간의 차량 동역학 정보를 갱신하고 각 센서 시뮬레이터에 동시에 전달하여 전체 시뮬레이터의 시간을 동기 한다. Capture events generated by each sensor simulator are added to the global message queue as a global simulation cycle, and are delivered to AI by sorting them at each AI simulator cycle. In addition, the global simulator periodically updates the vehicle dynamics information of the next simulation time and transmits it to each sensor simulator at the same time to synchronize the time of the entire simulator.

자율주행 차량 제어 뿐 아니라 다양한 주변 객체 및 주행 환경 조건들과의 상호 작용을 미리 정의한 시나리오상의 시간에 따라 재현하도록 하였고, 시나리오의 전역 시뮬레이션 주기로 3차원 장면 정보를 동기 하여 갱신되도록 구성 하였다. 그리고 AI 및 센서는 딥러닝 처리성능 및 각 센서의 물리적 특성에 따라 가변 및 고정 시간 간격의 시뮬레이션 주기를 선택적으로 사용한다.In addition to autonomous vehicle control, interactions with various surrounding objects and driving environment conditions were reproduced according to the time in a predefined scenario, and 3D scene information was synchronized and updated with the global simulation cycle of the scenario. And AI and sensors selectively use simulation cycles with variable and fixed time intervals according to the deep learning processing performance and the physical characteristics of each sensor.

또한, 시뮬레이터들에 요청된 메시지는 하나 이상의 장면 및 센서 버퍼를 관리하여 데이터 요청 대기 없이 다음 시뮬레이션을 수행하여 병렬 처리를 용이하도록 구성한다. In addition, the message requested by the simulators is configured to facilitate parallel processing by managing one or more scenes and sensor buffers to perform the next simulation without waiting for data request.

①; 이전 연산결과 읽기
②; 다음 데이터쓰기
③; 현재 데이터연산
①; Read previous operation result
②; Write next data
③; Current data operation

Claims (5)

제어 힘 로딩, 동역학 시뮬레이션, 3차원 영상 렌더링 시스템을 포함하는 전통적인 차량 시뮬레이션을 위한 자율주행 시뮬레이터에서 센서와 인공지능 알고리즘의 처리 성능을 고려하여 가상 센서 학습 데이터의 생성을 담당하는 각 센서 시뮬레이터와 AI 시뮬레이터를 전역 시뮬레이터에서 분리하여 구성하고, 전역 시뮬레이터에서는 전역 시뮬레이션 타임스탬프의 자율 주행 시나리오 및 차량 동역학을 처리하도록 분산형 시뮬레이션을 구성하며, 이를 위한 공유 버퍼를 이용한 각 시뮬레이터들의 병렬 시뮬레이션 방법과 고정 시간 간격 방식의 시뮬레이션 동기 제어 및 보간 방법을 제시하는 자율주행 분산 시뮬레이션 동기 제어방법에 있어서,
제어 힘을 로딩하는 AI 시뮬레이터의 차량 제어 시뮬레이션은 다수의 센서에서 수집된 자율주행 정답(ground truth) 데이터를 기계학습을 통해 처리하고 차량 제어 힘(control force)을 생성하는 과정을 수행하고;
센서 시뮬레이션 주기에 맞게 수집된 정답 데이터는 전역 시뮬레이션 주기와 동기하여 전역 시뮬레이터에 이벤트 형태로 전달되며;
각 센서 시뮬레이션 주기의 타임스탬프가 포함된 이벤트들은 모두 시뮬레이션 메시지 큐에 추가되며;
공유버퍼를 이용한 병렬처리와 데이터 동기는, AI 시뮬레이션 주기에서 발생된 이전(tn-1) 동기 신호(①)에 따라, 다음(tn+1) 이벤트를 읽고 센서의 타임스탬프에 따라 정렬하여 AI 시뮬레이터에 전달하며(②). 이때 AI 시뮬레이터는 이전(tn-1) 처리 결과인 제어 힘을 전역 시뮬레이터에 동기 신호로 전송 후(①), 다음(tn+1) 센서 이벤트 대기 없이 현재(tn) 이벤트로부터 새로운 연산을 수행(③) 하여 전역 시뮬레이터와의 병렬처리를 가능하게 하며;
AI 시뮬레이터는 공유된 요청 버퍼에 메시지가 있을 때 마다 최대한 자주 시뮬레이션을 반복하여 빠른 응답을 가능하게 하며;
요청 버퍼는 초기 버퍼가 모두 채워진 이후부터, 이전 연산 결과 읽기(①)와 다음 데이터 쓰기(②), 그리고 현재 데이터 연산(③)의 과정을 반복적으로 수행하는 것을 특징으로 하는 자율주행 분산 시뮬레이션 동기 제어방법.
Each sensor simulator and AI simulator responsible for generating virtual sensor learning data by considering the processing performance of sensors and artificial intelligence algorithms in the autonomous driving simulator for traditional vehicle simulation including control force loading, dynamics simulation, and 3D image rendering system is configured separately from the global simulator, and distributed simulation is configured to process the autonomous driving scenario and vehicle dynamics of the global simulation timestamp in the global simulator. In an autonomous driving distributed simulation synchronous control method that presents a simulation synchronous control and interpolation method of
Vehicle control simulation of AI simulator loading control force processes autonomous driving ground truth data collected from multiple sensors through machine learning and generates vehicle control force;
Correct answer data collected according to the sensor simulation cycle is transmitted to the global simulator in the form of an event in synchronization with the global simulation cycle;
All events with timestamps of each sensor simulation cycle are added to the simulation message queue;
Parallel processing and data synchronization using a shared buffer reads the next (t n+1 ) event according to the previous (t n-1 ) synchronization signal (①) generated in the AI simulation cycle and sorts it according to the sensor’s timestamp. It is transmitted to the AI simulator (②). At this time, the AI simulator transmits the control force, which is the result of the previous (t n-1 ) processing, as a synchronization signal to the global simulator (①), and then performs a new operation from the current (t n ) event without waiting for the next (t n+1 ) sensor event. execute (③) to enable parallel processing with the global simulator;
The AI simulator repeats the simulation as often as possible whenever there is a message in the shared request buffer, enabling a fast response;
Autonomous driving distributed simulation synchronous control, characterized in that the request buffer repeatedly performs the processes of reading the previous operation result (①), writing the next data (②), and calculating the current data (③) after the initial buffer is all filled Way.
청구항 1에 있어서,
동역학 시뮬레이션을 수행하는 전역 시뮬레이터는 미리 정의된 다양한 주행 시나리오를 실시간 시뮬레이션 하고, AI에서 전달된 제어 힘을 로딩하여 차량 동역학 시뮬레이션을 주기적으로 수행하며;
전역 시뮬레이션 주기는 AI 주기보다 높아 제어 힘이 변경되지 않아도 지속적인 제어 힘으로 차량 동역학을 시뮬레이션 할 수 있지만, 동역학 엔진은 물리적 특성을 계산하기 위해 더 높은 주기를 요구 하므로, 동역학 시뮬레이션 주기를 별도로 관리하도록, 3차원 장면의 갱신을 위한 전역 시뮬레이션 수행 중 동역학 시뮬레이션이 한번 이상 수행 될 수 있도록 수행 주기를 포함하여 구성하며;
수학식 1과 같이, 전역 시뮬레이터는 최대한 자주 렌더링을 수행 하고 이때 측정된 현재 시스템 클록이 정의된 고정 시간 이상이 될 때 마다 반복해서(steps) 시뮬레이션을 수행하고, 그 시간 간격(tdelta) 만큼 증가한 시뮬레이션 타임스탬프(tfixed)를 얻으며;
(수학식 1)
Figure pat00003

동역학 시뮬레이션으로 얻어진 자율주행 차량(ego vehicle) 정보는 AI 제어 로직에서 사용할 수 있도록, 고정된 시간의 전역 시뮬레이션 주기에 맞게 AI 시뮬레이터에 전달하며,
전역 시뮬레이터는 주기에 맞는 시나리오 및 동역학으로 얻어진 3차원 장면 정보를 계산된 시뮬레이션 타임스탬프와 함께 각 센서 시뮬레이터들에 전달하는 것을 더 포함하는 자율주행 분산 시뮬레이션 동기 제어방법.
The method according to claim 1,
The global simulator performing dynamics simulation simulates various predefined driving scenarios in real time, and loads the control force transmitted from AI to periodically perform vehicle dynamics simulation;
The global simulation period is higher than the AI period, so that vehicle dynamics can be simulated with continuous control force even if the control force does not change, but the dynamics engine requires a higher period to calculate the physical properties, so to manage the dynamics simulation period separately, Configure including the execution cycle so that the dynamics simulation can be performed more than once during the global simulation for updating the 3D scene;
As shown in Equation 1, the global simulator performs rendering as often as possible, and at this time, whenever the measured current system clock exceeds the defined fixed time, the simulation is repeatedly performed (steps) and increased by the time interval (t delta ). get the simulation timestamp (t fixed );
(Equation 1)
Figure pat00003

The ego vehicle information obtained by dynamic simulation is transmitted to the AI simulator according to the global simulation cycle of a fixed time so that it can be used in the AI control logic.
The global simulator is a distributed simulation synchronous control method for autonomous driving, further comprising transmitting 3D scene information obtained through a scenario and dynamics corresponding to a cycle to each sensor simulator together with a calculated simulation timestamp.
청구항 1에 있어서,
센서 렌더링을 위한 센서 시뮬레이터에서,
전역 시뮬레이터에서 전달된 장면 정보에는 동적 객체 및 환경 등 실시간 가상 시나리오와 자율 주행 차량의 정보가 포함되며;
전역 시뮬레이션 주기와 센서 시뮬레이션 주기가 다르기 때문에 3차원 가상세계의 상태가 갱신되는 시점까지 센서는 동일한 결과를 얻는 문제는 전역 시뮬레이션의 타임스탬프 계산을 참고로 센서 렌더링 시간을 전역 시뮬레이션 시간보다 이전 시간 간격을 시뮬레이션 하여 해결하며;
수학식 2와 같이, 이미 계산된 이전 시뮬레이션 시간 장면 정보(f(20))와 현재 시뮬레이션 시간 장면 정보(f(40))를 소요된 시간 비율의 선형 보간으로 현재 센서 시간의 장면 정보(f(50))를 얻을 수 있으며;
(수학식 2)
Figure pat00004

실제 LiDAR 센서의 경우 3차원 공간을 스캔할 때 360도 점군을 동시에 얻을 수 없어 특정 각도로 회전하며 스캔하기 때문에, 한 장면을 스캔한 센서의 위치와 시간이 달라 질 수 있으므로, 특정 센서가 동시에 스캔 가능한 시간 간격이 동기화된 전역 시뮬레이션의 시간 간격 보다 작은 경우에도, 이전 장면과 현재 장면의 행렬을 여러 번 보간 할 수 있어 보다 세밀한 센서 시뮬레이션을 가능하게 하며;
상술한 바와 같이 시뮬레이션 타임스탬프는 시나리오의 장면 갱신 주기로 결정 되는데, 동역학 시뮬레이션은 시나리오 보다 세밀한 동역학 차량 정보를 생성할 수 있는 것을 더 포함하는 자율주행 분산 시뮬레이션 동기 제어방법.
The method according to claim 1,
In the sensor simulator for sensor rendering,
The scene information transmitted from the global simulator includes real-time virtual scenarios such as dynamic objects and environments and information of autonomous vehicles;
Because the global simulation cycle and the sensor simulation cycle are different, the sensor gets the same result until the state of the 3D virtual world is updated. Solve by simulation;
As shown in Equation 2, the scene information (f() 50)) can be obtained;
(Equation 2)
Figure pat00004

In the case of an actual LiDAR sensor, when scanning a 3D space, it is not possible to obtain a 360-degree point cloud at the same time, so the scan is rotated at a specific angle. Even when the possible time interval is smaller than the time interval of the synchronized global simulation, the matrix of the previous scene and the current scene can be interpolated multiple times, enabling a more detailed sensor simulation;
As described above, the simulation timestamp is determined by the scene update period of the scenario, and the dynamics simulation further includes being able to generate more detailed dynamic vehicle information than the scenario.
청구항 1에 있어서,
동역학 주기를 반영한 센서 스캔 시간 시뮬레이션에서, 전역 시뮬레이터는 동역학 주기 비율만큼의 차량 정보 버퍼를 별도로 구성하여 전달하고, 이를 수신한 각 시뮬레이터는 센서 스캔 주기로 개별 차량 정보를 보간하여 보다 세밀한 시뮬레이션을 할 수 있도록, 시나리오의 장면 정보는 전역 시뮬레이션 시간 간격(20)을 보간하여 얻고, 자율주행 차량 정보는 보다 높은 동역학 시뮬레이션 시간 간격(2)를 보간하여 얻을 수 있기 때문에, 각 센서의 샘플링 주기(20Hz) 및 스캔 시간(75°, 10)의 물리적 특성을 반영하여 보다 정밀한 센서 시뮬레이션 결과를 얻을 수 있도록 한 것을 더 포함하는 자율주행 분산 시뮬레이션 동기 제어방법.
The method according to claim 1,
In the sensor scan time simulation that reflects the dynamics cycle, the global simulator separately configures and transmits a vehicle information buffer equal to the dynamics cycle ratio, and each simulator that receives this interpolates individual vehicle information with the sensor scan cycle to perform a more detailed simulation. , since the scene information of the scenario can be obtained by interpolating the global simulation time interval (20), and the autonomous vehicle information can be obtained by interpolating the higher dynamics simulation time interval (2), the sampling period (20 Hz) of each sensor and the scan The autonomous driving distributed simulation synchronous control method further comprising allowing more precise sensor simulation results to be obtained by reflecting the physical characteristics of time (75°, 10).
청구항 1에 있어서,
실시간 분산 시뮬레이션을 수행하는 통합 시뮬레이터인 분산 자율주행 시뮬레이터는 센서와 AI 알고리즘 처리 전용 시뮬레이터를 개별 시뮬레이터로 구성하여 부하를 분산 시키고, 시뮬레이터들 사이의 주행 정보를 고정 시간 간격의 동기화 방법을 통해 동기화하며;
센서 시뮬레이션은 포토리얼리즘 실현을 용이하게 하며 다양한 고성능 게임 렌더링 엔진으로의 확장을 용이하게 하며;
자율주행 인공지능 알고리즘의 복잡한 딥러닝 연산을 실시간으로 처리할 수 있는 시뮬레이션의 확장 가능한 토대를 마련하며;
물리적으로 분리된 다수의 시뮬레이터가 연결될 때 전역 시뮬레이터로부터 전달받은 전역 클럭으로부터 시작 시간 동기가 수행되고, 각 시뮬레이터의 렌더링 시간은 이 시간 차이 만큼 보정 하여 전역 시뮬레이션 시간과 동기하며;
각 센서 시뮬레이터에서 발생된 캡처 이벤트는 전역 시뮬레이션 주기로 전역 메시지 큐에 추가되고, AI 시뮬레이터 주기 마다 정렬하여 AI에 전달되며;
전역 시뮬레이터는 주기적으로 다음 시뮬레이션 시간의 차량 동역학 정보를 갱신하고 각 센서 시뮬레이터에 동시에 전달하여 전체 시뮬레이터의 시간을 동기 하며;
자율주행 차량 제어 뿐 아니라 다양한 주변 객체 및 주행 환경 조건들과의 상호 작용을 미리 정의한 시나리오상의 시간에 따라 재현하도록 하였고, 시나리오의 전역 시뮬레이션 주기로 3차원 장면 정보를 동기 하여 갱신되도록 구성하며;
AI 및 센서는 딥러닝 처리성능 및 각 센서의 물리적 특성에 따라 가변 및 고정 시간 간격의 시뮬레이션 주기를 선택적으로 사용하며;
시뮬레이터들에 요청된 메시지는 하나 이상의 장면 및 센서 버퍼를 관리하여 데이터 요청 대기 없이 다음 시뮬레이션을 수행하여 병렬 처리를 용이하도록 구성하는 것을 더 포함하는 자율주행 분산 시뮬레이션 동기 제어방법.
The method according to claim 1,
Distributed autonomous driving simulator, an integrated simulator that performs real-time distributed simulation, distributes the load by configuring a simulator dedicated to processing sensors and AI algorithms into individual simulators, and synchronizes driving information between simulators through a synchronization method at fixed time intervals;
Sensor simulation facilitates the realization of photorealism and facilitates extension to a variety of high-performance game rendering engines;
Laying a scalable foundation for simulation capable of real-time processing of complex deep learning operations of autonomous driving AI algorithms;
When a plurality of physically separated simulators are connected, start time synchronization is performed from the global clock received from the global simulator, and the rendering time of each simulator is corrected by this time difference to synchronize with the global simulation time;
Capture events generated by each sensor simulator are added to the global message queue at the global simulation cycle, sorted and delivered to the AI at each AI simulator cycle;
The global simulator periodically updates the vehicle dynamics information of the next simulation time and simultaneously transmits it to each sensor simulator to synchronize the time of the entire simulator;
Not only autonomous vehicle control, but also interactions with various surrounding objects and driving environment conditions are reproduced according to time in a predefined scenario, and 3D scene information is synchronized and updated with the global simulation cycle of the scenario;
AI and sensors selectively use simulation cycles with variable and fixed time intervals according to the deep learning processing performance and physical characteristics of each sensor;
The method further comprising configuring one or more scenes and sensor buffers to manage one or more scenes and sensor buffers to facilitate parallel processing by performing the next simulation without waiting for data request.
KR1020200153043A 2020-11-16 2020-11-16 Autonomous Driving Distributed Simulation Synchronous Control Method KR102412539B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200153043A KR102412539B1 (en) 2020-11-16 2020-11-16 Autonomous Driving Distributed Simulation Synchronous Control Method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200153043A KR102412539B1 (en) 2020-11-16 2020-11-16 Autonomous Driving Distributed Simulation Synchronous Control Method

Publications (2)

Publication Number Publication Date
KR20220066711A true KR20220066711A (en) 2022-05-24
KR102412539B1 KR102412539B1 (en) 2022-06-23

Family

ID=81807494

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200153043A KR102412539B1 (en) 2020-11-16 2020-11-16 Autonomous Driving Distributed Simulation Synchronous Control Method

Country Status (1)

Country Link
KR (1) KR102412539B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115356951A (en) * 2022-10-19 2022-11-18 北京易控智驾科技有限公司 Simulation method, simulation system, storage medium thereof and electronic equipment
CN116225024A (en) * 2023-04-11 2023-06-06 酷黑科技(北京)有限公司 Data processing method and device and automatic driving rack

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130011463A (en) 2011-07-21 2013-01-30 삼성디스플레이 주식회사 Organic light emitting diode display
WO2013095239A1 (en) * 2011-12-22 2013-06-27 Scania Cv Ab Method and module for determining of reference values for a vehicle control system
KR20140098602A (en) * 2013-01-31 2014-08-08 한국전자통신연구원 System and method for performing distributed simulation
KR101926110B1 (en) * 2017-09-26 2018-12-07 대한민국 DEVS Based Continuous System Simulator, Simulation Method, Recording Medium For The Same, and System Comprising The Same
KR20190105172A (en) * 2018-02-22 2019-09-16 자동차부품연구원 System and method for agent of smart driving
JP2019156179A (en) 2018-03-13 2019-09-19 トヨタ自動車株式会社 Vehicular occupant protection device
KR20200003309A (en) * 2018-06-19 2020-01-09 한국자동차연구원 System and method for agent of smart driving
JP2020502615A (en) * 2016-10-14 2020-01-23 ズークス インコーポレイテッド Scenario description language for autonomous vehicle simulation
KR20200095590A (en) * 2019-01-21 2020-08-11 한양대학교 산학협력단 Method and Apparatus for Controlling of Autonomous Vehicle using Deep Reinforcement Learning and Driver Assistance System

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130011463A (en) 2011-07-21 2013-01-30 삼성디스플레이 주식회사 Organic light emitting diode display
WO2013095239A1 (en) * 2011-12-22 2013-06-27 Scania Cv Ab Method and module for determining of reference values for a vehicle control system
KR20140098602A (en) * 2013-01-31 2014-08-08 한국전자통신연구원 System and method for performing distributed simulation
JP2020502615A (en) * 2016-10-14 2020-01-23 ズークス インコーポレイテッド Scenario description language for autonomous vehicle simulation
KR101926110B1 (en) * 2017-09-26 2018-12-07 대한민국 DEVS Based Continuous System Simulator, Simulation Method, Recording Medium For The Same, and System Comprising The Same
KR20190105172A (en) * 2018-02-22 2019-09-16 자동차부품연구원 System and method for agent of smart driving
JP2019156179A (en) 2018-03-13 2019-09-19 トヨタ自動車株式会社 Vehicular occupant protection device
KR20200003309A (en) * 2018-06-19 2020-01-09 한국자동차연구원 System and method for agent of smart driving
KR20200095590A (en) * 2019-01-21 2020-08-11 한양대학교 산학협력단 Method and Apparatus for Controlling of Autonomous Vehicle using Deep Reinforcement Learning and Driver Assistance System

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115356951A (en) * 2022-10-19 2022-11-18 北京易控智驾科技有限公司 Simulation method, simulation system, storage medium thereof and electronic equipment
CN116225024A (en) * 2023-04-11 2023-06-06 酷黑科技(北京)有限公司 Data processing method and device and automatic driving rack

Also Published As

Publication number Publication date
KR102412539B1 (en) 2022-06-23

Similar Documents

Publication Publication Date Title
KR102282970B1 (en) the method for configuring and controling real-time distributed autonomous driving simulation framework
CN107966693B (en) Vehicle-mounted laser radar simulation method based on depth rendering
US10832478B2 (en) Method and system for virtual sensor data generation with depth ground truth annotation
KR102412539B1 (en) Autonomous Driving Distributed Simulation Synchronous Control Method
US10885240B2 (en) Deterministic simulation framework for autonomous vehicle testing
US20190278698A1 (en) Autonomous Vehicle Simulation And Testing
CN105843978A (en) Interactive 3D experiences on the basis of data
Siltanen et al. Rays or waves? Understanding the strengths and weaknesses of computational room acoustics modeling techniques
CN102136204A (en) Virtual maintenance distribution interactive simulation support platform of large equipment and collaborative maintenance method
CN102467589A (en) Interactive traffic simulation system
US11514212B2 (en) Method of simulating autonomous vehicle in virtual environment
CN112904827B (en) Unmanned virtual simulation test system for multiple ICUs
US20240144576A1 (en) 3d object management data, computer program, and distributed management method for 3d object
Fouladinejad et al. Modeling virtual driving environment for a driving simulator
Thieling et al. Scalable sensor models and simulation methods for seamless transitions within system development: from first digital prototype to final real system
Wu et al. VR+ BIM: perception and design optimization of highway
CN110705021B (en) Data-driven test driving method
Abdelhameed Micro-simulation function to display textual data in virtual reality
Koduri et al. AUREATE: An Augmented Reality Test Environment for Realistic Simulations
Bognar et al. Virtual Reality Assisted Human Perception in ADAS Development: a Munich 3D Model Study
CN106875480B (en) Method for organizing urban three-dimensional data
Wittek et al. Learning state mappings in multi-level-simulation
US20220058318A1 (en) System for performing an xil-based simulation
Burger et al. Virtual reality for enhanced computer vision
KR101526050B1 (en) Crowd simulation reproducing apparatus and the method

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant