KR102601534B1 - 자율 운전 시스템의 장면 복원 테스트 방법, 장치, 기기 및 프로그램 - Google Patents

자율 운전 시스템의 장면 복원 테스트 방법, 장치, 기기 및 프로그램 Download PDF

Info

Publication number
KR102601534B1
KR102601534B1 KR1020210118860A KR20210118860A KR102601534B1 KR 102601534 B1 KR102601534 B1 KR 102601534B1 KR 1020210118860 A KR1020210118860 A KR 1020210118860A KR 20210118860 A KR20210118860 A KR 20210118860A KR 102601534 B1 KR102601534 B1 KR 102601534B1
Authority
KR
South Korea
Prior art keywords
scene
autonomous driving
driving system
obstacle
data
Prior art date
Application number
KR1020210118860A
Other languages
English (en)
Other versions
KR20210130113A (ko
Inventor
샤오롱 왕
Original Assignee
아폴로 인텔리전트 커넥티비티 (베이징) 테크놀로지 씨오., 엘티디.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 아폴로 인텔리전트 커넥티비티 (베이징) 테크놀로지 씨오., 엘티디. filed Critical 아폴로 인텔리전트 커넥티비티 (베이징) 테크놀로지 씨오., 엘티디.
Publication of KR20210130113A publication Critical patent/KR20210130113A/ko
Application granted granted Critical
Publication of KR102601534B1 publication Critical patent/KR102601534B1/ko

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B23/00Testing or monitoring of control systems or parts thereof
    • G05B23/02Electric testing or monitoring
    • G05B23/0205Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults
    • G05B23/0208Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults characterized by the configuration of the monitoring system
    • G05B23/0213Modular or universal configuration of the monitoring system, e.g. monitoring system having modules that may be combined to build monitoring program; monitoring system that can be applied to legacy systems; adaptable monitoring system; using different communication protocols
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M17/00Testing of vehicles
    • G01M17/007Wheeled or endless-tracked vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M17/00Testing of vehicles
    • G01M17/007Wheeled or endless-tracked vehicles
    • G01M17/06Steering behaviour; Rolling behaviour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/3003Monitoring arrangements specially adapted to the computing system or computing system component being monitored
    • G06F11/3013Monitoring arrangements specially adapted to the computing system or computing system component being monitored where the computing system is an embedded system, i.e. a combination of hardware and software dedicated to perform a certain function in mobile devices, printers, automotive or aircraft systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/34Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
    • G06F11/3466Performance evaluation by tracing or monitoring
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/36Preventing errors by testing or debugging software
    • G06F11/3668Software testing
    • G06F11/3672Test management
    • G06F11/3684Test management for test design, e.g. generating new test cases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/36Preventing errors by testing or debugging software
    • G06F11/3668Software testing
    • G06F11/3672Test management
    • G06F11/3688Test management for test execution, e.g. scheduling of test suites
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/10Geometric CAD
    • G06F30/15Vehicle, aircraft or watercraft design
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • G06F30/27Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0002Automatic control, details of type of controller or control system architecture
    • B60W2050/0004In digital systems, e.g. discrete-time systems involving sampling
    • B60W2050/0005Processor details or data handling, e.g. memory registers or chip architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0019Control system elements or transfer functions
    • B60W2050/0028Mathematical models, e.g. for simulation
    • B60W2050/0031Mathematical model of the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/50Barriers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/20Pc systems
    • G05B2219/24Pc safety
    • G05B2219/24065Real time diagnostics

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Computer Hardware Design (AREA)
  • Geometry (AREA)
  • Evolutionary Computation (AREA)
  • Quality & Reliability (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Human Computer Interaction (AREA)
  • Computing Systems (AREA)
  • Multimedia (AREA)
  • Computational Mathematics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

본 출원에서 제공하는 자율 운전 시스템의 장면 복원 테스트 방법, 장치, 기기 및 프로그램은 자율 운전 분야에 관한 것이다. 해당 방법은, 제1 자율 운전 시스템이 탑재된 자율 운전 차량이 테스트할 때 생성된 문제 장면 데이터를 획득하고, 문제 장면 데이터를 기초로 핵심 장애물 정보와 비핵심 장애물 정보를 결정하는 단계; 비핵심 장애물 정보를 기초로 가상 장애물 모델을 생성하고, 핵심 장애물 정보를 기초로 핵심 장애물을 시뮬레이션하기 위한 실제 기기를 결정하되; 여기서, 실제 기기는 테스트 환경에 실제로 존재하는 기기인 단계; 가상 장애물 모델과 실제 기기를 이용하여 제2 자율 운전 시스템이 탑재된 자율 운전 차량에 대해 복원 테스트를 수행하는 단계를 포함한다. 본 출원에서 제공하는 방안에서, 테스트 대상은 실제의 자율 운전 차량이며, 핵심 장애물은 실제 기기이므로, 문제 장면을 더욱 효과적으로 재현할 수 있으며, 이에 따라 정확한 테스트 결과를 획득한다.

Description

자율 운전 시스템의 장면 복원 테스트 방법, 장치, 기기 및 프로그램{SCENE REPRODUCTION TEST METHOD, APPARATUS, DEVICE AND PROGRAM OF AUTONOMOUS DRIVING SYSTEM}
본 출원은 컴퓨터 분야 중 자율 운전 기술에 관한 것이며, 특히 자율 운전 시스템의 장면 복원 테스트 방법, 장치, 기기 및 프로그램에 관한 것이다.
현재, 자율 운전 기술이 점점 성숙되고 있으며, 자율 운전 시스템이 설치된 차량도 출시되고 있다. 이러한 자율 운전 차량이 도로에서 안전하게 주행할 수 있도록 확보하기 위하여, 자율 운전 차량에 대해 테스트하여야 한다.
종래기술에서, 자율 운전 차량이 열린 도로에서 테스트하고, 테스트 결과를 기초로 자율 운전 차량에 탑재된 자율 운전 시스템에 대해 조정하도록 제어할 수 있다.
열린 도로에서 나타나게 되는 장면은 랜덤성이 매우 크므로, 테스트 과정에서 문제가 발생한 장면이 다시 나타날 확률이 극히 낮아, 이러한 문제가 복구된 후에도, 실제 차량을 기초로 해당 문제가 효과적으로 해결되었는지 여부를 검증할 수 없다.
본 출원은 자율 운전 시스템의 장면 복원 테스트 방법, 장치, 기기 및 프로그램을 제공하여, 열린 도로에서 나타나게 되는 장면의 랜덤성이 매우 높아, 테스트 과정에서 문제가 발생한 장면이 다시 나타날 확률이 극히 낮아, 이러한 문제가 복구된 후에도, 실제 차량을 기초로 해당 문제가 효과적으로 해결되었는지 여부를 검증할 수 없는 종래기술에 따른 기술적 문제점을 해결한다.
본 출원의 제1 측면에 따르면, 자율 운전 시스템의 장면 복원 테스트 방법을 제공하며, 해당 방법은,
제1 자율 운전 시스템이 탑재된 자율 운전 차량이 테스트할 때 생성된 문제 장면 데이터를 획득하고, 상기 문제 장면 데이터를 기초로 핵심 장애물 정보와 비핵심 장애물 정보를 결정하는 단계;
상기 비핵심 장애물 정보를 기초로 가상 장애물 모델을 생성하고, 상기 핵심 장애물 정보를 기초로 핵심 장애물을 시뮬레이션하기 위한 실제 기기를 결정하되; 여기서, 상기 실제 기기는 테스트 환경에 실제로 존재하는 기기인 단계;
상기 가상 장애물 모델과 상기 실제 기기를 이용하여 제2 자율 운전 시스템이 탑재된 자율 운전 차량에 대해 복원 테스트를 수행하되; 여기서, 상기 제2 자율 운전 시스템은 상기 제1 자율 운전 시스템에 대해 최적화한 후의 시스템이고; 상기 복원 테스트는 상기 문제 장면 데이터에서 나타내는 문제 장면에 대해 복원 테스트를 수행하기 위한 것인 단계를 포함한다.
본 출원의 제2 측면에 따르면, 자율 운전 시스템의 장면 복원 테스트 장치를 제공하며, 해당 장치는,
제1 자율 운전 시스템이 탑재된 자율 운전 차량이 테스트할 때 생성된 문제 장면 데이터를 획득하고, 상기 문제 장면 데이터를 기초로 핵심 장애물 정보와 비핵심 장애물 정보를 결정하는 획득 유닛;
상기 비핵심 장애물 정보를 기초로 가상 장애물 모델을 생성하고, 상기 핵심 장애물 정보를 기초로 핵심 장애물을 시뮬레이션하기 위한 실제 기기를 결정하되; 여기서, 상기 실제 기기는 테스트 환경에 실제로 존재하는 기기인 시뮬레이션 유닛;
상기 가상 장애물 모델과 상기 실제 기기를 이용하여 제2 자율 운전 시스템이 탑재된 자율 운전 차량에 대해 복원 테스트를 수행하되; 여기서, 상기 제2 자율 운전 시스템은 상기 제1 자율 운전 시스템에 대해 최적화한 후의 시스템이고; 상기 복원 테스트는 상기 문제 장면 데이터에서 나타내는 문제 장면에 대해 복원 테스트를 수행하기 위한 것인 테스트 유닛을 포함한다.
본 출원의 제3 측면에 따르면, 전자기기를 제공하며,
적어도 하나의 프로세서; 및
상기 적어도 하나의 프로세서와 통신 연결되는 메모리;를 포함하고,
상기 메모리에 상기 적어도 하나의 프로세서에 의해 실행 가능한 명령이 저장되어 있고, 상기 명령은 상기 적어도 하나의 프로세서에 의해 실행되어, 상기 적어도 하나의 프로세서가 제1 측면에 따른 자율 운전 시스템의 장면 복원 테스트 방법을 수행할 수 있도록 한다.
본 출원의 제4 측면에 따르면, 컴퓨터 명령이 저장된 비일시적 컴퓨터 판독 가능 저장매체를 제공하며, 여기서, 상기 컴퓨터 명령은 컴퓨터가 제1 측면에 따른 자율 운전 시스템의 장면 복원 테스트 방법을 수행하도록 하기 위한 것이다.
본 출원의 제5 측면에 따르면, 컴퓨터 프로그램을 제공하며, 상기 컴퓨터 프로그램은 판독 가능 저장매체에 저장되고, 전자기기의 적어도 하나의 프로세서는 상기 판독 가능 저장매체로부터 상기 컴퓨터 프로그램을 판독할 수 있으며, 상기 적어도 하나의 프로세서는 상기 컴퓨터 프로그램을 실행하여 전자기기가 제1 측면에 따른 자율 운전 시스템의 장면 복원 테스트 방법을 수행하도록 한다.
본 출원에서 제공하는 자율 운전 시스템의 장면 복원 테스트 방법, 장치, 기기 및 프로그램은, 제1 자율 운전 시스템이 탑재된 자율 운전 차량이 테스트할 때 생성된 문제 장면 데이터를 획득하고, 문제 장면 데이터를 기초로 핵심 장애물 정보와 비핵심 장애물 정보를 결정하는 단계; 비핵심 장애물 정보를 기초로 가상 장애물 모델을 생성하고, 핵심 장애물 정보를 기초로 핵심 장애물을 시뮬레이션하기 위한 실제 기기를 결정하되; 여기서, 실제 기기는 테스트 환경에 실제로 존재하는 기기인 단계; 가상 장애물 모델과 실제 기기를 이용하여 제2 자율 운전 시스템이 탑재된 자율 운전 차량에 대해 복원 테스트를 수행하되; 여기서, 제2 자율 운전 시스템은 제1 자율 운전 시스템에 대해 최적화한 후의 시스템인 단계; 복원 테스트는 문제 장면 데이터에서 나타내는 문제 장면에 대해 복원 테스트를 수행하기 위한 것인 단계를 포함한다. 본 출원에서 제공하는 방안에서, 가상 장애물 모델과 실제 기기를 이용하여 문제 장면을 복원할 수 있으며, 이에 따라 복원된 문제 장면에서 제2 자율 운전 시스템이 탑재된 자율 운전 차량에 대해 테스트를 수행할 수 있고, 테스트 대상은 실제의 자율 운전 차량이며, 핵심 장애물은 실제 기기이므로, 문제 장면을 더욱 효과적으로 재현할 수 있으며, 이에 따라 정확한 테스트 결과를 획득한다.
본 부분에 기재되는 내용은 본 출원의 실시예의 핵심 또는 중요 특징을 특정하려는 목적이 아니며, 본 출원의 범위를 한정하는 것도 아닌 것으로 이해하여야 한다. 본 출원의 기타 특징은 아래의 명세서로부터 쉽게 이해할 수 있다.
첨부된 도면은 본 방안을 더 충분히 이해하도록 제공되는 것으로서, 본 출원에 대한 한정은 아니다. 여기서,
도 1은 본 출원의 예시적 실시예에 따른 응용 장면 도면이다.
도 2는 본 출원의 예시적 실시예에 따른 자율 운전 시스템의 장면 복원 테스트 방법의 흐름도이다.
도 3은 본 출원의 예시적 실시예에 따른 자율 운전 시스템의 장면 복원 테스트 방법의 흐름도이다.
도 4는 본 출원의 예시적 실시예에 따른 자율 운전 시스템의 장면 복원 테스트 시스템을 나타내는 도면이다.
도 5는 본 출원의 예시적 실시예에 따른 자율 운전 시스템의 장면 복원 테스트 장치의 구성도이다.
도 6은 본 출원의 예시적 실시예에 따른 자율 운전 시스템의 장면 복원 테스트 장치의 구성도이다.
도 7은 본 출원의 실시예의 자율 운전 시스템의 장면 복원 테스트 방법을 구현하기 위한 전자기기의 블록도이다.
아래에서는 첨부 도면을 결합하여 본 출원의 예시적인 실시예에 대해 설명하며, 이해를 돕기 위하여 본 출원의 실시예의 다양한 세부 사항을 포함하며, 이들은 단지 예시적인 것으로만 간주하여야 한다. 따라서, 본 분야의 통상적인 지식을 가진 자라면, 여기에 기재되는 실시예에 대해 다양한 변경과 수정을 가할 수 있으며, 이는 본 출원의 범위와 정신을 벗어나지 않는다는 것을 이해하여야 한다. 마찬가지로, 명확성과 간결성을 위하여, 아래의 기재에서 공지 기능과 구조에 대한 설명을 생략한다.
자율 운전 시스템에 대해 테스트하기 위하여, 자율 운전 시스템이 탑재된 차량이 열린 도로에서 주행하도록 제어할 수 있다. 차량이 주행하는 과정에서, 자율 운전 시스템이 설치된 차량 컴퓨터는 차량 외부 환경을 기초로 주행 전략을 계획하여, 차량의 주행을 제어할 수 있다.
여기서, 도로 환경이 끊임없이 변화하므로, 차량이 주행하는 과정에서 자율 운전 시스템이 안전하게 처리할 수 없는 문제 장면에 직면할 수 있다. 문제 장면은 자율 운전 시스템을 기반으로 차량의 주행을 제어할 때, 안전상의 문제가 존재하는 장면을 가리킨다.
도 1은 본 출원의 예시적 실시예에 따른 응용 장면 도면이다.
도 1에 도시된 바와 같이, 차량(11) 전방에 장애물 차량(12)이 존재하고, 차량(11)에 존재하는 자율 운전 시스템이 현재 도로 환경을 기초로 결정한 주행 전략은 차량(11)이 차도를 변경하여 제1 차도(13)로 진입하도록 제어하는 것이다.
제1 차도에 하나의 장애물(14)이 존재한다고 가정하면, 만약 차량(11)이 현재 주행 전략에 따라 제1 차도(13)로 진입하면, 장애물(14)과 충돌이 발생할 수 있다.
만약 이러한 경우에, 자율 운전 시스템이 주행 전략을 업데이트함으로써, 차량(11)이 장애물(14)을 회피하도록 제어하지 않으면, 현재 장면은 일 문제 장면인 것으로 간주할 수 있다.
구체적으로, 테스트 과정에서 만약 문제 장면이 나타나게 되면, 테스터는 차량을 제어하여, 교통 사고의 발생을 방지할 수 있다.
자율 운전 시스템은 문제 장면에 대해 안전하게 처리할 수 없으므로, 자율 운전 시스템에 대해 최적화하여 해당 문제를 해결할 수 있다. 하지만, 열린 도로에서 테스트할 때 나타나게 되는 문제 장면은 랜덤성이 매우 높으므로, 해당 문제 장면이 다시 나타날 확률이 극히 낮다. 따라서 자율 운전 시스템을 최적화하더라도, 최적화된 후의 자율 운전 시스템이 탑재된 차량을 기초로 회귀 테스트를 수행할 수 없으며, 나아가 해당 문제 장면이 효과적으로 해결되었는지 여부를 확인할 수 없다.
상술한 기술적 문제점을 해결하기 위하여, 본 출원에서 제공하는 방안에서, 가상 결합 기술을 사용하여, 문제 장면을 복원하고, 나아가 복원된 문제 장면에서 최적화된 후의 자율 운전 시스템이 탑재된 차량에 대해 복원 테스트를 수행할 수 있다. 구체적으로, 테스트 과정에서 발생되는 문제 장면 데이터를 기초로 핵심 장애물 정보와 비핵심 장애물 정보를 결정할 수 있으며, 핵심 장애물에 대하여, 실제 기기를 사용하여 복원할 수 있고, 비핵심 장애물에 대하여, 가상 기술을 사용하여 구축할 수 있으며, 이에 따라 문제 장면을 복원해낼 수 있다.
본 출원은 자율 운전 시스템의 장면 복원 테스트 방법, 장치, 기기 및 프로그램을 제공하며, 컴퓨터 분야 중의 자율 운전 기술에 적용되어, 열린 도로에서 자율 운전 시스템이 탑재된 자율 운전 차량에 대해 테스트할 때 나타난 문제 장면을 더욱 효과적으로 재현할 수 있으며, 이에 따라 재현된 문제 장면을 이용하여 최적화된 후의 자율 운전 시스템에 대해 복원 테스트를 수행할 수 있다.
도 2는 본 출원의 예시적 실시예에 따른 자율 운전 시스템의 장면 복원 테스트 방법의 흐름도이다.
도 2에 도시된 바와 같이, 본 출원에서 제공하는 자율 운전 시스템의 장면 복원 테스트 방법은 아래의 단계들을 포함한다.
단계(201), 제1 자율 운전 시스템이 탑재된 자율 운전 차량이 테스트할 때 생성된 문제 장면 데이터를 획득하고, 문제 장면 데이터를 기초로 핵심 장애물 정보와 비핵심 장애물 정보를 결정한다.
여기서, 본 출원에서 제공하는 방법은 장면 복원 테스트 시스템에 설치될 수 있고, 해당 장면 복원 테스트 시스템은 하나 또는 복수의 전자기기에 설치될 수 있다. 예컨대, 장면 복원 테스트 시스템은 복수의 모듈을 포함할 수 있고, 각각의 모듈은 서로 다른 전자기기에 설치될 수 있다.
구체적으로, 복원 테스트를 수행할 때, 우선 문제 장면 데이터를 획득할 수 있다. 해당 문제 장면 데이터는 제1 자율 운전 시스템이 탑재된 자율 운전 차량에 대해 테스트할 때, 생성된 문제 장면 데이터이다.
나아가, 제1 자율 운전 시스템이 탑재된 자율 운전 차량에 대해 테스트할 때, 제1 자율 운전 시스템은 도로 테스트 데이터, 예컨대 차량의 각각의 시점에서의 주행 상태, 또 예컨대 각각의 시점에서의 차량 외부 환경에 존재하는 장애물 정보를 기록할 수 있다.
만약 테스트 과정에 문제가 존재하면, 도로 테스트 데이터로부터 문제 발생 시의 문제 장면 데이터를 획득할 수 있다. 예를 들어, 테스터는 실제 테스트 상황을 기초로 차량 주행 과정에서 문제가 발생한 시간을 결정할 수 있으며, 이에 따라 해당 시간을 기초로 도로 테스트 데이터로부터 대응되는 문제 장면 데이터를 획득할 수 있다. 예컨대, 문제가 발생한 시간이 12:00이면, 도로 테스트 데이터로부터 12:00 전후 각각 60초의 데이터를 해당 문제 장면에 대응되는 문제 장면 데이터로서 획득할 수 있다.
실제 응용 시, 장면 복원 테스트 시스템은 획득한 문제 장면 데이터를 기초로 핵심 장애물 정보와 비핵심 장애물 정보를 결정할 수 있다.
일 실시형태에서, 핵심 장애물과 비핵심 장애물을 구분하기 위한 룰을 미리 설정할 수 있다.
예를 들어, 이동하는 장애물을 핵심 장애물로 할 수 있으며, 이동하는 장애물은 예컨대 움직이는 사람, 차량 등일 수 있다. 또한 고정된 장애물을 비핵심 장애물로 할 수 있으며, 고정된 장애물은 예컨대 움직임이 없는 차량일 수 있고, 또 예를 들어 길가의 초목, 가로등 등의 기기일 수 있다.
또 예를 들어, 자율 운전 차량과의 거리가 거리 임계값보다 작은 장애물을 핵심 장애물로 하고, 자율 운전 차량과의 거리가 거리 임계값보다 큰 장애물을 비핵심 장애물로 할 수 있다.
다른 실시형태에서, 사용자가 문제 장면 데이터를 기초로, 그 중 핵심 장애물을 결정할 수 있다. 예를 들어, 장면 복원 테스트 시스템은 문제 장면 데이터를 기초로 가시적으로 문제 장면을 표시할 수 있으며, 예를 들어 비디오 방식으로 차량 테스트 시의 장면을 표시할 수 있으며, 표시되는 문제 장면은 차량 주위의 장애물을 포함하고, 사용자는 표시되는 문제 장면에서, 수요에 따라 그 중에서 핵심 장애물을 마크할 수 있다.
이러한 실시형태에서, 표기되지 않은 장애물은 비핵심 장애물이다.
여기서, 장면 복원 테스트 시스템은 문제 장면 데이터 중 핵심 장애물의 정보를 핵심 장애물 정보로 하고, 비핵심 장애물의 정보를 비핵심 장애물 정보로 할 수 있다.
단계(202), 비핵심 장애물 정보를 기초로 가상 장애물 모델을 시뮬레이션하고, 핵심 장애물 정보를 기초로 핵심 장애물을 생성하기 위한 실제 기기를 결정하며; 여기서, 실제 기기는 테스트 환경에 실제로 존재하는 기기이다.
구체적으로, 핵심 장애물은 자율 운전 시스템이 운전 전략을 설계함에 있어서 보다 큰 영향을 미치는 장애물이고, 비핵심 장애물은 자율 운전 시스템이 운전 전략을 설계함에 있어서 별로 큰 영향을 미치지 않는 장애물인 것으로 간주할 수 있으므로, 실제 기기를 사용하여 핵심 장애물을 시뮬레이션하고, 가상 모델을 사용하여 비핵심 장애물을 시뮬레이션할 수 있다.
나아가, 장면 복원 테스트 시스템은 비핵심 장애물 정보를 기초로 가상 장애물 모델을 생성할 수 있으며, 예를 들어, 비핵심 장애물의 크기, 프로파일 등을 기초로, 비핵심 장애물을 시뮬레이션하기 위한 가상 장애물 모델을 생성할 수 있다.
여기서, 가상 장면 생성 컨트롤러를 설치할 수 있으며, 장면 복원 테스트 시스템은 해당 가상 장면 생성 컨트롤러를 이용하여, 가상 장애물 모델을 생성할 수 있다.
실제 응용 시, 장면 복원 테스트 시스템은 또한 핵심 장애물 정보를 기초로 핵심 장애물을 시뮬레이션하기 위한 실제 기기를 결정할 수 있다. 예를 들어, 핵심 장애물 정보에 포함된 장애물 프로파일, 크기를 기초로 상응한 핵심 장애물을 시뮬레이션하기 위한 실제 기기를 결정할 수 있다. 예를 들어, 핵심 장애물이 하나의 차량이면, 하나의 제어 가능한 차량을 장애물 차량을 시뮬레이션하기 위한 실제 기기로 할 수 있다. 또 예를 들어, 하나의 핵심 장애물이 보행자이면, 제어 가능한 머신을 해당 보행자를 시뮬레이션하기 위한 실제 기기로 할 수 있다.
나아가, 핵심 장애물을 시뮬레이션하기 위한 실제 기기는 테스트 환경에 실제로 존재하는 기기로서, 예를 들어 하나의 차량, 머신 또는 기타 제어 가능 기기일 수 있다.
실제 기기는 닫힌 도로 환경에 배치될 수 있으며, 이에 따라 닫힌 도로 환경에서 문제 장면을 고도로 복원할 수 있다.
단계(203), 가상 장애물 모델과 실제 기기를 이용하여 제2 자율 운전 시스템이 탑재된 자율 운전 차량에 대해 복원 테스트를 수행하되; 여기서, 제2 자율 운전 시스템은 제1 자율 운전 시스템에 대해 최적화한 후의 시스템이고; 복원 테스트는 문제 장면 데이터에서 나타내는 문제 장면에 대해 복원 테스트를 수행하기 위한 것이다.
실제 응용 시, 만약 제1 자율 운전 시스템이 탑재된 자율 운전 차량에 대해 테스트할 때, 문제가 존재하는 장면을 발견하면, 해당 제1 자율 운전 시스템에 대해 최적화하여 제2 자율 운전 시스템을 획득함으로써, 자율 운전 시스템이 해당 문제 장면에 대처할 수 있도록 할 수 있다.
여기서, 제2 자율 운전 시스템이 탑재된 자율 운전 차량에 대해 복원 테스트를 수행하여, 동일한 문제 장면에 직면하였을 때, 제2 자율 운전 시스템이 합리적이고 안전한 운전 전략을 설계할 수 있는지 여부를 검증할 수 있다.
구체적으로, 생성된 가상 장애물 모델 및 결정된 실제 기기를 이용하여 문제 장면을 복원하고, 복원된 문제 장면에서 제2 자율 운전 시스템이 탑재된 자율 운전 차량에 대해 복원 테스트를 수행할 수 있으며, 해당 복원 테스트는 구체적으로 문제 장면 데이터에서 나타내는 문제 장면에 대해 복원 테스트를 수행하기 위한 것이다.
나아가, 테스트 과정에서, 가상 장애물 모델에 대응되는 비핵심 장애물 정보를 이용하여, 가상 장애물이 이동하도록 제어할 수 있다. 또한 실제 기기에 대응되는 핵심 장애물 정보를 이용하여, 실제 기기가 이동하도록 제어할 수도 있다. 예를 들어, 문제 장면 데이터를 기초로 결정된 핵심 장애물 정보가, 제1 핵심 장애물의 문제 장면에서의 각각의 시점에 대응되는 위치를 포함하면, 해당 정보를 기초로, 제1 핵심 장애물을 시뮬레이션하기 위한 제1 실제 기기의 이동을 제어하여, 해당 제1 실제 기기가 제1 핵심 장애물의 이동 궤적을 시뮬레이션할 수 있도록 할 수 있다.
실제 응용 시, 또한 제2 자율 운전 시스템이 탑재된 자율 운전 차량이 스타트 시간을 결합하여 가상 장애물 모델과 실제 기기에 대해 제어할 수 있다. 예를 들어, 자율 운전 차량이 스타트한 후, 자율 운전 차량과 가상 장애물 모델, 실제 기기의 상대적 위치를 기초로, 가상 장애물 모델과 실제 기기가 이동하도록 제어할 수 있다.
예를 들어, 자율 운전 차량과 가상 장애물 모델, 실제 기기의 상대적 위치가 문제 장면 데이터 중 초기 시점에 대응되는 데이터에서 나타내는 차량과 장애물 사이의 상대적 위치에 부합될 때, 가상 장애물 모델에 대응되는 비핵심 장애물 정보를 이용하여, 가상 장애물이 이동하도록 제어하고, 및 실제 기기에 대응되는 핵심 장애물 정보를 이용하여, 실제 기기가 이동하도록 제어할 수 있다.
이러한 실시형태에서, 테스트 대상은 제2 자율 운전 시스템이 탑재된 자율 운전 차량이며, 핵심 장애물은 실제 기기이므로, 문제 장면을 더욱 효과적으로 재현하고, 테스트를 완성할 수 있다.
여기서, 테스트 시, 자율 운전 차량이 닫힌 도로에서 주행하도록 제어하여, 닫힌 도로에서 열린 도로에서 나타난 문제 장면에 대해 복원 테스트를 수행할 수 있다.
본 출원에서 제공하는 자율 운전 시스템의 장면 복원 테스트 방법은, 제1 자율 운전 시스템이 탑재된 자율 운전 차량이 테스트할 때 생성된 문제 장면 데이터를 획득하고, 문제 장면 데이터를 기초로 핵심 장애물 정보와 비핵심 장애물 정보를 결정하는 단계; 비핵심 장애물 정보를 기초로 가상 장애물 모델을 생성하고, 핵심 장애물 정보를 기초로 핵심 장애물을 시뮬레이션하기 위한 실제 기기를 결정하되; 여기서, 실제 기기는 테스트 환경에 실제로 존재하는 기기인 단계; 가상 장애물 모델과 실제 기기를 이용하여 제2 자율 운전 시스템이 탑재된 자율 운전 차량에 대해 복원 테스트를 수행하되; 여기서, 제2 자율 운전 시스템은 제1 자율 운전 시스템에 대해 최적화한 후의 시스템이고; 복원 테스트는 문제 장면 데이터에서 나타내는 문제 장면에 대해 복원 테스트를 수행하기 위한 것인 단계를 포함한다. 본 출원에서 제공하는 방법에서, 가상 장애물 모델과 실제 기기를 이용하여 문제 장면을 복원할 수 있으며, 이에 따라 복원된 문제 장면에서 제2 자율 운전 시스템이 탑재된 자율 운전 차량에 대해 테스트를 수행할 수 있으며, 테스트 대상은 실제 자율 운전 차량이고, 핵심 장애물은 실제 기기이므로, 문제 장면을 더욱 효과적으로 재현할 수 있어, 정확한 테스트 결과를 획득한다.
도 3은 본 출원의 예시적 실시예에 따른 자율 운전 시스템의 장면 복원 테스트 방법의 흐름도이다.
도 3에 도시된 바와 같이, 본 출원에서 제공하는 자율 운전 시스템의 장면 복원 테스트 방법은 아래의 단계들을 포함한다.
단계(301), 문제 장면 라이브러리를 기초로 제1 자율 운전 시스템이 탑재된 자율 운전 차량에 대응되는 문제 시점을 결정한다.
여기서, 본 출원에서 제공하는 방법은 장면 복원 테스트 시스템에 설치될 수 있고, 해당 장면 복원 테스트 시스템은 하난 또는 복수의 전자기기에 설치될 수 있다. 예를 들어, 장면 복원 테스트 시스템은 복수의 모듈을 포함할 수 있고, 각각의 모듈은 상이한 전자기기에 설치될 수 있다.
구체적으로, 문제 장면 데이터 베이스를 설치할 수 있으며, 해당 문제 장면 데이터 베이스는 복수의 문제 장면의 정보를 저장할 수 있다. 테스트 과정에서, 테스터는 테스트 상황에 따라 문제 장면의 정보를 기록할 수 있다.
예컨대, 테스터는 자율 운전 시스템이 탑재된 차량에 탑승하여 도로 테스트를 수행할 때, 자율 운전 시스템이 차량의 주행을 제어할 때 문제가 존재하는 것을 발견하면, 예컨대 비합리적인 급제동 상황 등이 존재하면, 테스터는 문제 장면 라이브러리에 해당 상황이 발생한 시간을 입력할 수 있고, 테스터는 또한 문제 장면 라이브러리에 해당 문제 장면의 표시 정보를 추가할 수 있으며, 예를 들어 "비합리적인 급제동"일 수 있다.
나아가, 문제 장면을 기반으로, 제1 자율 운전 시스템에 대해 최적화하여 제2 자율 운전 시스템을 획득한 후, 해당 제2 운전 시스템에 대해 복원 테스트를 수행할 수 있다. 테스트 시, 구체적으로 문제 장면 라이브러리에 존재하는 데이터를 기초로, 제1 자율 운전 시스템이 탑재된 자율 운전 차량에 대응되는 문제 시점을 결정할 수 있으며, 해당 시점에 대응되는 문제 장면은 하나 또는 복수의 최적화된 문제 장면일 수 있다.
단계(302), 문제 시점을 기초로, 제1 자율 운전 시스템이 탑재된 자율 운전 차량의 도로 테스트 데이터로부터, 문제 시점에 대응되는 문제 장면 데이터를 획득한다.
실제 응용 시, 제1 자율 운전 시스템이 탑재된 자율 운전 차량에 대해 테스트를 수행할 때, 도로 테스트 데이터가 생성된다. 도로 테스트 데이터는 예컨대 차량의 운전 상태를 포함할 수 있고, 또한 제1 자율 운전 시스템에 의해 감지된 주위 환경 정보, 예를 들어 장애물 정보를 포함할 수 있으며, 장애물 정보는 구체적으로 장애물의 크기, 프로파일, 위치, 속도, 주행 방향 중 하나 또는 복수의 정보를 더 포함할 수 있다.
여기서, 문제 시점을 기초로, 제1 자율 운전 시스템이 탑재된 자율 운전 차량의 도로 테스트 데이터로부터 문제 시점에 대응되는 문제 장면 데이터를 획득할 수 있다. 이에 따라 테스트 과정에서, 해당 문제 시점에 나타난 문제 장면의 데이터를 획득한다. 이러한 실시형태에서, 문제 장면에 대응되는 문제 장면 데이터를 정확하게 획득할 수 있으며, 이에 따라 실제 도로 테스트 과정에서 발생된 데이터를 기초로, 문제 장면에 대해 복원하여, 복원된 장면이 실제 도로 장면과 더욱 유사하도록 할 수 있다.
구체적으로, 제1 자율 운전 시스템이 탑재된 자율 운전 차량의 도로 테스트 데이터 중, 데이터 생성 시간이 문제 시점 전 기설정 기간에 있는 제1 데이터, 및 데이터 생성 시간이 문제 시점 후 기설정 기간에 있는 제2 데이터를, 문제 장면 데이터로 할 수 있다. 수요에 따라 기설정 기간을 설정할 수 있으며, 예를 들어 60s로 설정할 수 있고, 이때 도로 테스트 데이터로부터 문제 시점 전 60s의 제1 데이터를 획득하고, 문제 시점 후 60s의 제2 데이터를 획득하여, 이를 문제 장면 데이터로 할 수 있다. 예를 들어, 문제 시점이 14:00이면, 테스트 당일 14:00 전후에 생성된 도로 테스트 데이터를 획득할 수 있으며, 예를 들어 14:00 전 60s의 데이터, 및 14:00 후 60s의 데이터일 수 있으며, 이를 문제 장면 데이터로 한다.
이러한 실시형태에서, 문제 시점 전후 일정한 기간의 도로 테스트 데이터를 문제 장면 데이터로서 획득할 수 있으며, 이러한 데이터는 문제 장면 중 차량 및 주변 환경의 변화 상황을 반영할 수 있으며, 이에 따라 획득한 문제 장면 데이터를 기초로 문제 장면에 대해 복원하여, 복원된 장면이 실제 도로 장면과 더욱 유사하도록 할 수 있다.
단계(303), 문제 장면 데이터를 기초로 장애물 파라미터 파일을 생성하되; 장애물 파라미터 파일은 핵심 장애물 정보, 비핵심 장애물 정보를 포함한다.
여기서, 문제 장면 데이터를 기초로 핵심 장애물 정보, 비핵심 장애물 정보를 포함하는 장애물 파라미터 파일을 생성할 수 있다.
구체적으로, 문제 장면 데이터를 기초로 장면 중 핵심 장애물, 비핵심 장애물을 결정할 수 있다. 문제 장면 데이터를 기초로 해당 장면에 포함된 장애물을 결정하고, 장애물을 핵심 장애물과 비핵심 장애물로 구분하여, 핵심 장애물의 정보, 비핵심 장애물의 정보를 기초로, 장애물 파라미터 파일을 생성할 수 있다.
예를 들어, 각각의 장애물의 유형을 기초로 핵심 장애물과 비핵심 장애물을 구분할 수 있으며, 예를 들어, 이동 가능한 장애물을 핵심 장애물로 하고, 이동 불가능한 장애물을 비핵심 장애물로 할 수 있다.
또 예를 들어, 자율 운전 차량과의 거리가 임계값보다 작은 장애물을 핵심 장애물로 하고, 장면 중 핵심 장애물 이외의 장애물을 비핵심 장애물로 할 수 있다.
이러한 실시형태에서, 문제 장면에서 핵심 장애물과 비핵심 장애물을 구분할 수 있으며, 이에 따라 실제 기기를 이용하여 핵심 장애물을 시뮬레이션하고, 가상 모델을 이용하여 비핵심 장애물을 시뮬레이션할 수 있으며, 이에 따라 허실을 결합하는 방식을 통해, 실제 문제 장면과 유사한 환경을 고도로 복원해낼 수 있다.
일 선택적인 실시형태에서, 사용자에 의해 문제 장면 중 핵심 장애물을 결정할 수도 있다. 구체적으로 문제 장면 데이터 중 각 장애물 정보를 기초로, 문제 장면을 생성 및 표시할 수 있으며; 표시되는 문제 장면에 작용하는 마크 명령에 응답하여, 문제 장면 중 핵심 장애물을 마크하고; 장애물 정보, 마크된 핵심 장애물을 기초로 장애물 파라미터 파일을 생성한다.
여기서, 문제 장면 데이터를 기초로 해당 문제 장면을 표시할 수 있으며, 예를 들어 비디오 방식을 통해 동적으로 문제 장면을 표시할 수 있다. 예컨대, 문제 장면 데이터가 길이가 120s인 데이터이면, 길이가 120s인 비디오를 표시할 수 있다.
구체적으로, 사용자는 표시된 문제 장면에서 조작할 수 있는 바, 그 중 핵심 장애물을 마크할 수 있다. 예를 들어, 사용자는 표시되는 장애물을 클릭할 수 있고, 클릭된 장애물은 핵심 장애물이다. 표기되지 않은 장애물은 비핵심 장애물이다.
문제 장면에 표시된 각각의 장애물의 정보, 및 사용자가 마크한 핵심 장애물을 기초로 장애물 파라미터 파일을 생성할 수 있다. 장애물 파라미터 파일은 각각의 핵심 장애물 정보를 포함하고, 각각의 비핵심 장애물 정보를 더 포함한다. 이러한 실시형태에서, 사용자가 문제 장면을 관찰하고, 차량을 운전하는 차원으로부터 차량의 정상적인 주행에 영향을 미치는 핵심 장애물을 결정할 수 있다.
단계(304), 장애물 파라미터 파일을 기초로 핵심 장애물 정보와 비핵심 장애물 정보를 결정한다.
실제 기기와 가상 모델을 이용하여 장애물에 대해 시뮬레이션할 때, 장애물 파라미터 파일을 기초로 핵심 장애물 정보와 비핵심 장애물 정보를 결정할 수 있다. 예를 들어, 장면 데이터 마이닝 모듈을 통해 장애물 파라미터 파일을 생성하고, 허실 결합 테스트 시스템이 해당 장애물 파라미터 파일을 이용하여 장애물의 시뮬레이션을 수행할 수 있다.
여기서, 장애물 파라미터 파일에는 장애물의 정보가 포함될 수 있고, 각각의 장애물이 핵심 장애물인지 여부에 대한 정보를 더 포함할 수 있다. 예를 들어, 변수 i를 설정하여, 장애물이 핵심 장애물인지 여부를 나타낼 수 있으며, 만약 하나의 장애물의 변수 i가 1이면, 해당 장애물이 핵심 장애물인 것으로 간주할 수 있다.
구체적으로, 핵심 장애물의 정보를 핵심 장애물 정보로 하고, 비핵심 장애물의 정보를 비핵심 장애물 정보로 할 수 있다.
단계(305), 가상 장면 컨트롤러를 이용하여 비핵심 장애물 정보 중 프로파일 크기를 기초로 가상 장애물 모델을 생성하고; 실제 기기 컨트롤러를 이용하여 핵심 장애물 정보를 기초로 핵심 장애물을 시뮬레이션하기 위한 실제 기기를 결정할 수 있으며; 여기서, 실제 기기는 테스트 환경에 실제로 존재하는 기기이다.
나아가, 가상 장면 컨트롤러를 미리 설정할 수 있으며, 해당 가상 장면 컨트롤러는 가상 장애물 모델을 생성할 수 있다.
실제 응용 시, 각각의 비핵심 장애물의 비핵심 장애물 정보를 가상 장면 컨트롤러에 입력하여, 가상 장면 컨트롤러가 각각의 비핵심 장애물에 대응되는 가상 장애물 모델을 생성할 수 있도록 할 수 있다.
여기서, 비핵심 장애물 정보는 장애물의 프로파일 크기를 포함할 수 있고, 가상 장면 컨트롤러는 비핵심 장애물의 프로파일 크기를 기초로 해당 비핵심 장애물 사이즈, 형상과 유사한 가상 장애물 모델을 생성할 수 있으며, 이에 따라 가상 장애물 모델이 테스트 시 나타난 문제 장면 중 비핵심 장애물과 더욱 유사하도록 함으로써, 더욱 정확하게 문제 장면을 재현할 수 있다.
구체적으로, 사전에 실제 기기 컨트롤러를 더 설치할 수 있으며, 각각의 핵심 장애물의 핵심 장애물 정보를 실제 기기 컨트롤러에 입력하여, 실제 기기 컨트롤러가 핵심 장애물과 유사한 실제 기기를 결정할 수 있도록 할 수 있으며, 이러한 실제 기기를 연결하여 실제 기기에 대해 제어할 수도 있다.
여기서, 핵심 장애물 정보에는 핵심 장애물의 유형, 또는 프로파일 크기 등의 정보가 포함될 수 있으며, 실제 기기 컨트롤러는 핵심 장애물의 타입 또는 프로파일 크기를 기초로 핵심 장애물과 유사한 실제 기기를 결정할 수 있으며, 이로써 실제 기기가 테스트 시 나타난 문제 장면 중 핵심 장애물과 더욱 유사하도록 함으로써, 더욱 정확하게 문제 장면을 재현할 수 있다.
해당 핵심 장애물의 유형은 예컨대 차량, 보행자 등일 수 있다. 예를 들어 실제 차량을 이용하여 유형이 차량인 핵심 장애물을 시뮬레이션할 수 있으며, 예를 들어 로봇을 이용하여 유형이 보행자인 핵심 장애물을 시뮬레이션할 수 있다.
단계(306), 제2 자율 운전 시스템이 탑재된 자율 운전 차량을 스타트시키며; 여기서, 제2 자율 운전 시스템은 제1 자율 운전 시스템에 대해 최적화한 후의 시스템이다.
구체적으로, 제1 자율 운전 시스템이 일부 문제 장면을 해결할 수 없다는 것을 발견하거나, 제1 자율 운전 시스템이 특정 문제 장면에서 차량에 대한 제어 상에 문제가 존재하는 것을 발견하였을 때, 이러한 문제에 대해 제1 자율 운전 시스템에 대해 최적화하여 제2 자율 운전 시스템을 획득할 수 있다.
나아가, 제2 자율 운전 시스템이 탑재된 자율 운전 차량에 대해 복원 테스트를 수행하여 제2 자율 운전 시스템이 상술한 문제 장면을 합리적으로 처리할 수 있는지 여부를 결정한다.
실제 응용 시, 제2 자율 운전 시스템이 탑재된 자율 운전 차량을 스타트시켜, 해당 자율 운전 차량이 재현되는 문제 장면에서 주행하도록 할 수 있다.
단계(307), 비핵심 장애물 정보를 기초로 가상 장애물 모델이 움직이도록 제어하고, 핵심 장애물 정보를 기초로 실제 기기가 움직이도록 제어하여, 문제 장면을 시뮬레이션한다.
여기서, 비핵심 장애물 정보를 기초로 생성된 가상 장애물 모델이 움직이도록 제어할 수 있다. 구체적으로 가상 장애물 모델에 대응되는 비핵심 장애물 정보를 기초로, 해당 가상 장애물 모델이 움직이도록 제어할 수 있다. 예를 들어, 제1 비핵심 장애물 정보를 기초로 제1 가상 장애물 모델이 생성되었으면, 제1 비핵심 장애물 정보를 기초로 제1 가상 장애물 모델을 제어할 수 있다. 구체적으로, 제1 가상 장애물 모델이 이동, 회전 등의 동작을 수행하도록 제어할 수 있다.
구체적으로, 만약 가상 장애물 모델이 정지 장애물을 시뮬레이션하기 위한 모델이면, 해당 가상 장애물 모델의 위치는 변하지 않는다.
나아가, 또한 핵심 장애물 정보를 기초로 실제 기기가 움직이도록 제어할 수 있다. 구체적으로, 실제 기기에 대응되는 핵심 장애물 정보를 기초로, 해당 실제 기기가 움직이도록 제어할 수 있다. 예를 들어, 제1 핵심 장애물 정보를 기초로 제1 실제 기기가 결정되면, 제1 핵심 장애물 정보를 기초로 제1 실제 기기를 제어할 수 있다. 구체적으로 제1 실제 기기가 이동, 회전 등의 동작을 수행하도록 제어할 수 있다.
실제 응용 시, 이러한 방식을 통해 문제 장면을 시뮬레이션할 수 있으며, 이에 따라 시뮬레이션되는 문제 장면을 기초로 제2 자율 운전 시스템이 탑재된 차량에 대해 테스트할 수 있다.
여기서, 비핵심 장애물 정보는 문제 장면의 각각의 시점에 대응되는 이동 정보를 포함한다. 제2 자율 운전 시스템이 탑재된 자율 운전 차량이 스타트한 시점, 비핵심 장애물 정보 중 문제 장면의 각각의 시점에 대응되는 이동 정보를 기초로, 가상 장애물 모델이 움직이도록 제어할 수 있다.
구체적으로, 핵심 장애물 정보는 문제 장면의 각각의 시점에 대응되는 이동 정보를 포함한다. 제2 자율 운전 시스템이 탑재된 자율 운전 차량이 스타트한 시점, 핵심 장애물 정보 중 문제 장면의 각각의 시점에 대응되는 이동 정보를 기초로, 실제 기기가 움직이도록 제어할 수 있다.
나아가, 제2 자율 운전 시스템이 탑재된 자율 운전 차량을 스타트시킬 때, 실시간으로 핵심 장애물 정보, 비핵심 장애물 정보를 기초로 문제 장면을 구축할 수 있다.
실제 응용 시, 만약 구축이 필요한 것이 제1 자율 운전 시스템이 탑재된 차량이 스타트할 때 나타난 문제 장면이면, 제2 자율 운전 시스템이 탑재된 자율 운전 차량의 스타트 시점에, 직접 비핵심 장애물 정보 중 문제 장면의 각각의 시점에 대응되는 이동 정보를 기초로, 가상 장애물 모델이 움직이도록 제어하고, 핵심 장애물 정보 중 문제 장면의 각각의 시점에 대응되는 이동 정보를 기초로, 실제 기기가 움직이도록 제어할 수 있다.
핵심 장애물 정보 및/또는 비핵심 장애물 정보에 포함된 이동 정보는 구체적으로 속도, 주행 방향, 위치 중 하나 또는 복수의 정보를 포함할 수 있다.
일 선택적인 실시형태에서, 차량 스타트 시점을 문제 장면의 스타트 시점(t0)으로 할 수 있다.
다른 선택적인 실시형태에서, 차량 스타트 시점에, 각각의 가상 장애물 모델과 실제 기기에 대한 제어를 준비할 수 있다. 또한, 실제의 문제 장면을 기초로, 자율 운전 차량의 주행 속도가 소정 속도에 도달한 시점을 문제 장면의 시작 시점(t0)으로 하거나, 또는, 자율 운전 차량의 위치와 각각의 가상 장애물 모델, 실제 기기 사이의 상대적 위치가 실제의 문제 장면과 부합되는 시점을, 문제 장면의 시작 시점(t0)으로 할 수 있다.
여기서, 하나의 비핵심 장애물 정보가 존재하며, 구체적으로 문제 장면의 각각의 시점에 대응되는 이동 정보를 포함하며, 예를 들어 t0 내지 tn 시점에 대응되는 이동 정보를 포함하면, 해당 비핵심 장애물 정보에 대응되는 가상 장애물 모델의 위치를 t0 시점에 대응되는 위치로 하고, t1 시점에 도달하였을 때, 해당 가상 장애물 모델이 비핵심 장애물 정보 중 t1 시점에 대응되는 속도, 주행 방향으로, 비핵심 장애물 정보 중 t1 시점에 대응되는 위치로 이동하도록 제어할 수 있다.
이러한 실시형태에서, 생성된 가상 장애물 모델에 대해 제어하고, 가상 장애물 모델의 이동 과정이 실제의 문제 장면에서와 일치하도록 제어할 수 있으므로, 차량이 열린 도로에서 주행할 때 나타난 비핵심 장애물을 정확하게 복원하여, 문제 장면을 정확하게 재현할 수 있다.
실제 응용 시, 실제 기기 컨트롤러를 이용하여 실제 기기가 이동하도록 제어한다. 예를 들어, 실제 기기 컨트롤러는 실제 기기로 제어 명령을 발송하여, 실제 기기가 이동하도록 제어한다.
여기서, 실제 기기 컨트롤러는 핵심 장애물 정보를 기초로 실제 기기를 제어하기 위한 제어 명령을 생성할 수 있다. 예를 들어, 실제 세계에서 문제 장면의 시작 시점 t0, 및 핵심 장애물 정보에 포함된 문제 장면 중 각각의 시점에 대응되는 속도, 주행 방향, 위치를 기초로, 제어 명령을 생성할 수 있다. 예를 들어, 문제 장면의 t1 시점에 제1 제어 명령을 생성하고, 문제 장면의 t2 시점에 제2 제어 명령을 생성한다. 제어 명령은 이동 방향, 이동 속도, 목표 위치 등을 포함할 수 있다.
이러한 실시형태에서, 결정된 실제 기기에 대해 제어하고, 실제 기기의 이동 과정이 실제의 문제 장면과 일치하도록 제어 할 수 있으며, 이에 따라 차량이 열린 도로에서 주행할 때 나타난 핵심 장애물을 정확하게 복원할 수 있으므로, 문제 장면을 정확하게 재현할 수 있다.
단계(308), 제2 자율 운전 시스템을 기초로 자율 운전 차량이 시뮬레이션되는 문제 장면에서 주행하도록 제어한다.
여기서, 자율 운전 차량에 탑재된 제2 자율 운전 시스템을 기초로 주행 전략을 결정하고, 자율 운전 차량이 시뮬레이션되는 문제 장면에서 주행하도록 제어할 수 있다.
자율 운전 차량이 스타트한 후, 자율 운전 차량은 정상적으로 주행할 수 있으며, 자율 운전 차량의 차량 상황을 기초로, 가상 장애물 모델이 움직이도록 제어하고, 및 실제 기기가 움직이도록 제어하여, 시뮬레이션되는 장면이 열린 도로에서의 문제 장면을 고도로 복원할 수 있도록 할 수 있다.
제2 자율 운전 시스템은 가상 장애물 모델 및 실제 기기를 감지할 수 있으며, 이러한 장애물을 기초로 주행 전략을 계획하고, 차량이 주행하도록 제어할 수 있다. 만약 최적화된 후의 제2 자율 운전 시스템이 문제 장면을 합리적으로 처리할 수 있으면, 해당 자율 운전 차량은 고도로 복원된 문제 장면에서, 평온하고 안전하게 주행할 수 있다.
선택적으로, 제2 자율 운전 시스템이 탑재된 자율 운전 차량에 대해 복원 테스트를 수행한 후, 본 출원에서 제공하는 방법은 아래의 단계들을 더 포함할 수 있다.
단계(309), 제2 자율 운전 시스템이 탑재된 자율 운전 차량의 시뮬레이션되는 문제 장면에서의 주행 상태, 가상 장애물 모델에 대응되는 제1 이동 데이터, 실제 기기에 대응되는 제2 이동 데이터를 획득한다.
선택적으로, 재현된 문제 장면을 기반으로 제2 자율 운전 시스템이 탑재된 자율 운전 차량에 대한 테스트를 완료한 후, 또한 복원 테스트 과정에서의 데이터를 획득할 수 있으며, 구체적으로 제2 자율 운전 시스템이 탑재된 자율 운전 차량의 시뮬레이션되는 문제 장면에서의 주행 상태, 가상 장애물 모델에 대응되는 제1 이동 데이터, 실제 기기에 대응되는 제2 이동 데이터를 포함할 수 있다.
여기서, 자율 운전 차량에 탑재된 제2 자율 운전 시스템, 또는 자율 운전 차량에 설치된 기타 전자기기는 차량의 주행 상태를 기록할 수 있다.
주행 상태는 구체적으로 차량의 속도, 주행 방향 등을 포함할 수 있고, 차량의 제어 정보, 예를 들어 차량이 급제동하도록 제어, 차량이 가속, 회전하도록 제어하는 것 등의 정보를 포함할 수 있다. 또한 차량이 주위 환경을 감지한 정보, 예를 들어 인식된 장애물 정보, 주변 장애물과의 거리 등의 정보를 더 포함할 수 있다.
구체적으로, 각각의 가상 장애물 모델에 대응되는 제1 이동 데이터를 더 획득할 수 있다. 예를 들어, 각각의 가상 장애물 모델의 테스트 과정에서의 각각의 시점에서의 이동 속도, 방향, 위치 등의 정보를 획득할 수 있다.
또한 각각의 실제 기기에 대응되는 제2 이동 데이터를 더 획득할 수 있다. 예를 들어, 각각의 실제 기기의 테스트 과정에서의 각각의 시점에서의 이동 속도, 방향, 위치 등의 정보를 획득할 수 있다.
단계(310), 주행 상태, 제1 이동 데이터, 제2 이동 데이터를 기초로 테스트 리포트를 생성한다.
나아가, 본 출원에서 제공하는 방법은 또한 차량의 주행 상태, 가상 장애물의 제1 이동 데이터, 실제 기기의 제2 이동 데이터를 기초로, 본 차 복원 테스트의 테스트 리포트를 생성하여, 사용자가 직접 테스트 리포트를 기초로 제2 자율 운전 시스템이 문제 장면에 합리적으로 대처할 수 있는지를 결정할 수 있도록 함으로써, 사용자가 복원 테스트 시의 데이터에 대해 분석한 후, 제2 자율 운전 시스템이 요구에 부합되는지 여부를 결정할 필요가 없으며, 이러한 실시형태는 복원 테스트 결과 분석 효율을 향상시킬 수 있다.
실제 응용 시, 주행 상태, 제1 이동 데이터, 제2 이동 데이터를 기초로 기설정 데이터에 대응되는 테스트 데이터를 생성할 수 있으며; 기설정 데이터는 미리 설정된 문제 장면에 대응되는 데이터이다.
여기서, 문제 장면에 대응되는 기설정 데이터를 미리 설정할 수 있으며, 예를 들어, 기설정 데이터는 차량의 속도일 수 있고, 예를 들어 문제 장면에서, 자율 운전 차량은 장애물과의 거리가 2m일 때, 차속이 기설정 차속보다 작아야 한다. 이때, 기설정 차속은 바로 기설정 데이터이다.
구체적으로, 주행 상태, 제1 이동 데이터, 제2 이동 데이터를 기초로 기설정 데이터에 대응되는 테스트 데이터를 생성할 수 있다. 예를 들어, 기설정 데이터가 특정 조건에서의 차속이면, 테스트 과정에서의 차량의 주행 상태 및 제1 이동 데이터, 제2 이동 데이터를 기초로 차량의 상술한 특정 조건에서의 차속을 생성할 수 있으며, 이러한 경우, 해당 특정 조건에서의 차속은 테스트 데이터이다.
나아가, 기설정 데이터, 테스트 데이터를 기초로 테스트 리포트를 생성할 수 있다. 구체적으로 비교하는 방식을 통해 기설정 데이터, 테스트 데이터를 포함하는 테스트 리포트를 생성하여, 사용자가 제2 자율 운전 시스템이 탑재된 자율 운전 차량에 대해 복원 테스트할 때, 테스트 데이터가 기설정 데이터를 만족하는지 여부를 직관적으로 파악할 수 있으며, 이에 따라 제2 자율 운전 시스템이 합리적으로 해당 문제 장면을 처리할 수 있는지를 결정한다.
도 4는 본 출원의 예시적 실시예에 따른 자율 운전 시스템의 장면 복원 테스트 시스템을 나타내는 도면이다.
도 4에 도시된 바와 같이, 상술한 어느 하나의 자율 운전 시스템의 장면 복원 테스트 방법은 모두 자율 운전 시스템의 장면 복원 테스트 시스템(400)에 의해 수행될 수 있다.
자율 운전 시스템의 장면 복원 테스트 시스템(400)에서, 장면 마이닝 모듈(410)을 포함할 수 있고, 장면 마이닝 모듈(410)은 문제 장면 라이브러리(41)와 연결될 수 있으며, 문제 장면 라이브러리(41)로부터 문제 시점(411)을 획득하고, 문제 시점(411)을 기초로 문제 장면 데이터(412)를 획득한다.
장면 마이닝 모듈(410)은 또한 문제 장면 데이터(412) 중의 데이터를 추출하여, 문제 장면을 생성 및 표시함으로써, 사용자가 표시된 문제 장면에서 마크하도록 할 수 있다. 장면 마이닝 모듈(410)은 사용자의 마크 결과를 기초로 핵심 장애물 정보, 비핵심 장애물 정보를 포함하는 장애물 파라미터 파일(413)을 생성할 수 있다.
자율 운전 시스템의 장면 복원 테스트 시스템(400)에서, 시뮬레이션 모듈(420)을 더 포함할 수 있다. 시뮬레이션 모듈(420)은 장면 마이닝 모듈(410)에서 생성한 장애물 파라미터 파일(413)을 읽을 수 있으며, 구체적으로 장애물 파라미터 파일(413)로부터 장애물의 파라미터를 읽을 수 있다. 가상 장면 컨트롤러(421)에 의해 생성된 가상 장애물 모델을 더 이용하고, 실제 기기 컨트롤러(422)를 이용하여 실제 기기를 결정한다.
자율 운전 시스템의 장면 복원 테스트 시스템(400)에서, 테스트 모듈(430)을 더 포함할 수 있다. 테스트 모듈(430)은 제2 자율 운전 시스템이 탑재된 자율 운전 차량을 시뮬레이션 모듈(420)에 접속시키고, 시뮬레이션 모듈(420)을 이용하여 시뮬레이션되는 문제 장면을 이용하여 제2 자율 운전 시스템이 탑재된 자율 운전 차량에 대해 테스트할 수 있다. 구체적으로 접속된 자율 운전 차량을 스타트시킬 수 있으며, 또한 자율 운전 차량의 스타트 시간을 기초로, 또는 자율 운전 차량의 주행 상태를 기초로, 실시간으로 가상 장애물 모델과 실제 기기를 이용하여 문제 장면을 구축할 수 있다.
자율 운전 시스템의 장면 복원 테스트 시스템(400)에서, 리포트 생성 모듈(440)을 더 포함할 수 있다. 리포트 생성 모듈(440)은 자율 운전 차량의 테스트 과정에서의 주행 상태를 획득할 수 있으며, 가상 장애물 모델에 대응되는 제1 이동 데이터, 실제 기기에 대응되는 제2 이동 데이터를 더 획득하고, 이러한 데이터들을 기초로 테스트 리포트를 생성할 수 있다.
상술한 장면 복원 테스트 시스템(400)의 각각의 모듈은 동일한 기기에 구비될 수 있고, 복수의 기기에 구비될 수도 있으며, 본 출원은 이에 대해 한정하지 않는다.
도 5는 본 출원의 예시적 실시예에 따른 자율 운전 시스템의 장면 복원 테스트 장치의 구성도이다.
도 5에 도시된 바와 같이, 본 출원에서 제공하는 자율 운전 시스템의 장면 복원 테스트 장치(500)는,
제1 자율 운전 시스템이 탑재된 자율 운전 차량이 테스트할 때 생성된 문제 장면 데이터를 획득하고, 상기 문제 장면 데이터를 기초로 핵심 장애물 정보와 비핵심 장애물 정보를 결정하는 획득 유닛(510);
상기 비핵심 장애물 정보를 기초로 가상 장애물 모델을 생성하고, 상기 핵심 장애물 정보를 기초로 핵심 장애물을 시뮬레이션하기 위한 실제 기기를 결정하되; 여기서, 상기 실제 기기는 테스트 환경에 실제로 존재하는 기기인 시뮬레이션 유닛(520);
상기 가상 장애물 모델과 상기 실제 기기를 이용하여 제2 자율 운전 시스템이 탑재된 자율 운전 차량에 대해 복원 테스트를 수행하되; 여기서, 상기 제2 자율 운전 시스템은 상기 제1 자율 운전 시스템에 대해 최적화한 후의 시스템이고; 상기 복원 테스트는 상기 문제 장면 데이터에서 나타내는 문제 장면에 대해 복원 테스트를 수행하기 위한 것인 테스트 유닛(530)을 포함한다.
본 출원에서 제공하는 자율 운전 시스템의 장면 복원 테스트 장치는 도 2에 도시된 실시예와 유사하며, 여기서는 반복되는 설명을 생략한다.
도 6은 본 출원의 예시적 실시예에 따른 자율 운전 시스템의 장면 복원 테스트 장치의 구성도이다.
도 6에 도시된 바와 같이, 본 실시예에서의 획득 유닛(610)은 도 5에 도시된 획득 유닛(510)과 유사하며, 본 실시예에서의 시뮬레이션 유닛(620)은 도 5에 도시된 시뮬레이션 유닛(520)과 유사하며, 본 실시예에서의 테스트 유닛(630)은 도 5에 도시된 테스트 유닛(530))과 유사하다.
이 기초 상에서, 본 실시예에서 제공하는 자율 운전 시스템의 장면 복원 테스트 장치(600)에서, 상기 획득 유닛(610)은,
문제 장면 라이브러리를 기초로 제1 자율 운전 시스템이 탑재된 자율 운전 차량에 대응되는 문제 시점을 결정하는 시간 획득 모듈(611);
상기 문제 시점을 기초로, 제1 자율 운전 시스템이 탑재된 자율 운전 차량의 도로 테스트 데이터로부터, 상기 문제 시점에 대응되는 상기 문제 장면 데이터를 획득하는 데이터 획득 모듈(612)을 포함하고,
여기서, 상기 문제 장면 라이브러리에 자율 운전 차량이 열린 도로 상에서 테스트할 때 발생한 문제 장면의 시간 정보가 설치되어 있다.
선택적으로, 여기서, 상기 시간 획득 모듈(611)은 구체적으로,
제1 자율 운전 시스템이 탑재된 자율 운전 차량의 도로 테스트 데이터 중, 데이터 생성 시간이 상기 문제 시점 전 기설정 기간에 있는 제1 데이터, 및 데이터 생성 시간이 상기 문제 시점 후 기설정 기간에 있는 제2 데이터를, 상기 문제 장면 데이터로 한다.
선택적으로, 획득 유닛(610)은,
상기 문제 장면 데이터를 기초로 장애물 파라미터 파일을 생성하고; 상기 장애물 파라미터 파일은 상기 핵심 장애물 정보, 상기 비핵심 장애물 정보를 포함하는 파일 생성 모듈(613);
상기 장애물 파라미터 파일을 기초로, 상기 핵심 장애물 정보와 상기 비핵심 장애물 정보를 결정하는 파일 읽기 모듈(614)을 포함한다.
선택적으로, 여기서, 파일 생성 모듈(613)은 구체적으로,
상기 문제 장면 데이터 중 각 장애물 정보를 기초로, 문제 장면을 생성 및 표시하고;
표시되는 문제 장면에 작용하는 마크 명령에 응답하여, 상기 문제 장면 중의 핵심 장애물을 마크하고;
상기 장애물 정보, 마크된 상기 핵심 장애물을 기초로, 상기 장애물 파라미터 파일을 생성한다.
선택적으로, 상기 비핵심 장애물 정보는 프로파일 크기를 포함하고;
상기 시뮬레이션 유닛(620)은 가상 장면 컨트롤러(621)를 포함하고,
상기 비핵심 장애물 정보 중의 프로파일 크기를 기초로 상기 가상 장애물 모델을 생성한다.
선택적으로, 여기서, 상기 테스트 유닛(630)은,
상기 제2 자율 운전 시스템이 탑재된 자율 운전 차량을 스타트시키는 스타트 모듈(631);
상기 비핵심 장애물 정보를 기초로 상기 가상 장애물 모델이 움직이도록 제어하고, 상기 핵심 장애물 정보를 기초로 상기 실제 기기가 움직이도록 제어하여, 문제 장면을 시뮬레이션하는 제어 모듈(632)을 포함하고,
상기 제어 모듈(632)은 또한 상기 제2 자율 운전 시스템을 기초로 상기 자율 운전 차량이 시뮬레이션되는 문제 장면에서 주행하도록 제어한다.
선택적으로, 상기 비핵심 장애물 정보는 상기 문제 장면의 각각의 시점에 대응되는 이동 정보를 포함하고; 제어 모듈(632)은 구체적으로,
상기 제2 자율 운전 시스템이 탑재된 자율 운전 차량을 스타트시킨 시점, 상기 비핵심 장애물 정보 중 상기 문제 장면의 각각의 시점에 대응되는 이동 정보를 기초로, 상기 가상 장애물 모델이 움직이도록 제어한다.
선택적으로, 상기 핵심 장애물 정보는 상기 문제 장면의 각각의 시점에 대응되는 이동 정보를 포함하고;
제어 모듈(632)은 구체적으로,
상기 제2 자율 운전 시스템이 탑재된 자율 운전 차량을 스타트시킨 시점, 상기 핵심 장애물 정보 중 상기 문제 장면의 각각의 시점에 대응되는 이동 정보를 기초로, 상기 실제 기기가 움직이도록 제어한다.
선택적으로, 상기 장치(600)는,
제2 자율 운전 시스템이 탑재된 자율 운전 차량의 시뮬레이션되는 상기 문제 장면에서의 주행 상태, 상기 가상 장애물 모델에 대응되는 제1 이동 데이터, 상기 실제 기기에 대응되는 제2 이동 데이터를 획득하는 테스트 데이터 획득 유닛(640);
상기 주행 상태, 상기 제1 이동 데이터, 상기 제2 이동 데이터를 기초로, 테스트 리포트를 생성하는 리포트 생성 유닛(650)을 더 포함한다.
선택적으로, 상기 리포트 생성 유닛(650)은,
상기 주행 상태, 상기 제1 이동 데이터, 상기 제2 이동 데이터를 기초로 기설정 데이터에 대응되는 테스트 데이터를 생성하되; 상기 기설정 데이터는 사전에 설정된 상기 문제 장면에 대응되는 데이터인 분석 모듈(651);
상기 기설정 데이터, 상기 테스트 데이터를 기초로, 상기 테스트 리포트를 생성하는 생성 모듈(652)을 더 포함한다.
본 출원의 실시예에 따르면, 본 출원은 전자기기와 판독 가능 저장매체를 더 제공한다.
본 출원의 실시예에 따르면, 본 출원은 컴퓨터 프로그램을 더 제공하며, 컴퓨터 프로그램은 판독 가능 저장매체에 저장되며, 전자기기의 적어도 하나의 프로세서는 판독 가능 저장매체로부터 컴퓨터 프로그램을 판독할 수 있으며, 적어도 하나의 프로세서는 컴퓨터 프로그램을 실행하여 전자기기가 상술한 어느 일 실시예에서 제공하는 방안을 수행하도록 한다.
도 7은 본 출원의 실시예를 수행할 수 있는 예시적인 전자기기(700)를 나타내는 블록도이다. 전자기기는 랩톱 컴퓨터, 데스크톱 컴퓨터, 워크 스테이션, 개인 정보 단말, 서버, 블레이드 서버, 대형 컴퓨터, 및 기타 적합한 컴퓨터와 같은 다양한 형태의 디지털 컴퓨터를 의미한다. 전자기기는 개인 정보 단말, 셀폰, 스마트 폰, 웨어러블 기기 및 기타 유사한 컴퓨팅 장치와 같은 다양한 형태의 모바일 장치를 의미할 수도 있다. 본문에 개시된 부재, 이들의 연결 및 관계, 및 이들의 기능은 단지 예시적인 것이며, 본문에 개시된 것 및/또는 요구하는 본 출원의 구현을 한정하려는 의도가 아니다.
도 7에 도시된 바와 같이, 전자기기(700)는 컴퓨팅 유닛(701)을 포함하여, 읽기 전용 메모리(ROM, 702)에 저장된 컴퓨터 프로그램 또는 저장 유닛(708)으로부터 랜덤 액세스 메모리(703, RAM)에 로딩된 컴퓨터 프로그램을 기초로, 다양한 적합한 동작 및 처리를 수행할 수 있다. RAM(703)에서, 기기(700)의 조작에 필요한 다양한 프로그램과 데이터를 더 저장할 수 있다. 컴퓨팅 유닛(701), ROM(702) 및 RAM(703)은 버스(704)를 통해 서로 연결된다. 입력/출력(I/O) 인터페이스(705)도 버스(704)에 연결된다.
기기(700)의 복수의 부재는 I/O 인터페이스(705)에 연결되고, 예를 들어 키보드, 마우스 등과 같은 입력 유닛(706); 예를 들어 다양한 유형의 디스플레이, 스피커 등과 같은 출력 유닛(707); 예를 들어 자기 디스크, 광 디스크 등과 같은 저장 유닛(708); 및 예를 들어 네트워크 카드, 모뎀, 무선 통신 트랜시버 등과 같은 통신 유닛(709)을 포함한다. 통신 유닛(709)은 기기(700)가 인터넷과 같은 컴퓨터 네트워크 및/또는 다양한 통신 네트워크를 통해 기타 기기와 정보/데이터를 교환하는 것을 허용한다.
컴퓨팅 유닛(701)은 다양한 처리 및 연산 능력을 갖춘 범용 및/또는 전용 처리 모듈일 수 있다. 컴퓨팅 유닛(701)의 일부 예시로서 중앙 처리 유닛(CPU), 그래픽 처리 유닛(GPU), 다양한 전용 인공지능(AI) 연산 칩, 다양한 기계 학습 모델 알고리즘을 실행하는 컴퓨팅 유닛, 디지털 신호 프로세서(DSP), 및 임의의 적합한 프로세서, 컨트롤러, 마이크로 컨트롤러 등을 포함하지만 이에 한정되는 것은 아니다. 컴퓨팅 유닛(701)은 상술한 각각의 방법 및 처리를 수행하는 바, 예를 들어 자율 주행 시스템의 장면 복원 테스트 방법을 들 수 있다. 예를 들어, 일부 실시예에서, 자율 주행 시스템의 장면 복원 테스트 방법은 컴퓨터 소프트웨어 프로그램으로 구현되어, 명시적으로 저장 유닛(708)과 같은 기계 판독 가능 매체에 저장될 수 있다. 일부 실시예에서, 컴퓨터 프로그램의 부분 또는 전부는 ROM(702) 및/또는 통신 유닛(709)을 통해 기기(700) 상에 로딩 및/또는 설치될 수 있다. 컴퓨터 프로그램이 RAM(703)에 로딩되어 컴퓨팅 유닛(701)에 의해 실행될 때, 상술한 자율 주행 시스템의 장면 복원 테스트 방법의 하나 또는 복수의 단계를 수행할 수 있다. 대안으로서, 기타 실시예에서, 컴퓨팅 유닛(701)은 기타 임의의 적합한 방식(예를 들어, 펌웨어를 통해)을 통해 자율 주행 시스템의 장면 복원 테스트 방법을 수행하도록 구성될 수 있다.
본 명세서에 기재되는 시스템 및 기술의 다양한 실시형태는 디지털 전자 회로 시스템, 집적 회로 시스템, 필드 프로그래머블 어레이(FPGA), 전용 집적 회로(ASIC), 전용 표준 제품(ASSP), 시스템 온 칩 시스템(SOC), 부하 프로그래머블 논리 장치, 컴퓨터 하드웨어, 펌웨어, 소프트웨어, 및/또는 이들의 조합에서 구현될 수 있다. 이러한 다양한 실시형태는 하나 또는 복수의 컴퓨터 프로그램에서 구현되는 것을 포함할 수 있고, 해당 하나 또는 복수의 컴퓨터 프로그램은 적어도 하나의 프로그래머블 프로세서를 포함하는 프로그래머블 시스템 상에서 실행 및/또는 해석될 수 있으며, 해당 프로그래머블 프로세서는 전용 또는 범용 프로그래머블 프로세서일 수 있고, 저장 시스템, 적어도 하나의 입력 장치, 및 적어도 하나의 출력 장치로부터 데이터와 명령을 수신할 수 있으며, 데이터와 명령을 해당 저장 시스템, 해당 적어도 하나의 입력 장치, 및 해당 적어도 하나의 출력 장치로 전송한다.
본 출원의 방법을 실시하기 위한 프로그램 코드는 하나 또는 복수의 프로래밍 언어의 임의의 조합으로 작성될 수 있다. 이러한 프로그램 코드는 범용 컴퓨터, 전용 컴퓨터 또는 기타 프로그래머블 데이터 처리 장치의 프로세서 또는 컨트롤러에 제공되어, 프로그램 코드가 프로세서 또는 컨트롤러에 의해 실행될 때 흐름도 및/또는 블록도에서 규정하는 기능/조작이 실시되도록 할 수 있다. 프로그램 코드는 완전히 기계 상에서 실행되거나, 부분적으로 기계 상에서 실행될 수 있으며, 독립 소프트웨어 패키지로서 부분적으로 기계 상에서 실행되고 부분적으로 원격 기계 상에서 실행되거나 완전히 원격 기계 또는 서버 상에서 실행될 수도 있다.
본 출원의 문맥에서, 기계 판독 가능 매체는 유형의 매체일 수 있고, 명령 수행 시스템, 장치 또는 기기에 의해 사용되거나 명령 수행 시스템, 장치 또는 기기와 결합되어 사용되는 프로그램을 포함하거나 저장할 수 있다. 기계 판독 가능 매체는 기계 판독 가능 신호 매체이거나 기계 판독 가능 저장 매체일 수 있다. 기계 판독 가능 매체는 전자적, 자기적, 광학적, 전자기적, 적외선, 또는 반도체 시스템, 장치 또는 기기, 또는 상술한 내용의 임의의 적합한 조합을 포함할 수 있지만 이에 한정되는 것은 아니다. 기계 판독 가능 저장매체의 더 구체적인 예시로서 하나 또는 복수의 선을 기반으로 하는 전기적 연결, 휴대형 컴퓨터 디스크, 하드 디스크, 랜덤 액세스 메모리(RAM), 읽기 전용 메모리(ROM), 소거 가능 및 프로그래머블 읽기 전용 메모리(EPROM 또는 플래쉬 메모리), 광섬유, 휴대용 컴팩트 읽기 전용 메모리(CD-ROM), 광학 저장 장치, 자기 저장 장치, 또는 상술한 내용의 임의의 조합을 포함한다.
사용자와의 인터랙션을 제공하기 위하여, 컴퓨터 상에서 본 명세서에 기재되는 시스템 및 기술을 실시할 수 있으며, 해당 컴퓨터는 사용자에게 정보를 표시하기 위한 표시장치(예를 들어, CRT(캐소드레이 튜브) 또는 LCD(액정 디스플레이) 모니터); 및 키보드와 지향 장치(예를 들어, 마우스 또는 트랙볼)를 구비하고, 사용자는 해당 키보드와 해당 지향 장치를 통해 입력을 컴퓨터로 제공할 수 있다. 기타 종류의 장치는 사용자와의 인터랙션을 제공할 수도 있다. 예를 들어, 사용자에게 제공되는 피드백은 임의의 형태의 센싱 피드백(예를 들어, 시각적 피드백, 청각적 피드백, 또는 촉각적 피드백)일 수 있고; 임의의 형태(사운드 입력, 음성 입력 또는 촉각 입력)을 통해 사용자로부터의 입력을 수신할 수 있다.
여기에 기재되는 시스템과 기술은 백그라운드 부재를 포함하는 컴퓨팅 시스템(예를 들어, 데이터 서버로서), 또는 중간부재를 포함하는 컴퓨팅 시스템(예를 들어, 응용 서버), 또는 프론트 엔드 부재를 포함하는 컴퓨팅 시스템(예를 들어, 그래픽 유저 인터페이스 또는 인터넷 브라우저를 구비하는 사용자 컴퓨터, 사용자는 해당 그래픽 유저 인터페이스 또는 해당 인터넷 브라우저를 통해 여기에 기재되는 시스템 및 기술의 실시형태와 인터랙션할 수 있다), 또는 이러한 백그라운드 부재, 중간 부재, 또는 프론트 엔드 부재를 포함하는 임의의 조합의 컴퓨팅 시스템에서 실시될 수 있다. 임의의 형태 또는 매체의 디지털 데이터 통신(예를 들어, 통신 네트워크)을 통해 시스템의 부재를 서로 연결시킬 수 있다. 통신 네트워크의 예시로서, 근거리 통신망(LAN), 광역 통신망(WAN) 및 인터넷을 포함한다.
컴퓨터 시스템은 클라이언트와 서버를 포함할 수 있다. 클라이언트와 서버는 일반적으로 서로 멀리 떨어져 있으며, 통상적으로 통신 네트워크를 통해 인터랙션한다. 상응한 컴퓨터 상에서 실행되며 서로 클라이언트 - 서버 관계를 가지는 컴퓨터 프로그램을 통해 클라이언트와 서버의 관계를 생성한다. 서버는 클라우드 서버일 수 있고, 클라우드 컴퓨팅 서버 또는 클라우드 호스트라고도 불리우며, 클라우드 컴퓨팅 서비스 시스템 중의 일 호스트 제품으로서, 기존의 물리 호스트와 가상 사설 서버("Virtual Private Server", 또는 "VPS"로 약칭)에 존재하는 관리 상의 어려움이 크고, 서비스 확장이 약한 흠결을 해결한다. 서버는 분포식 시스템의 서버, 또는 블록 체인이 결합된 서버일 수도 있다.
상술한 다양한 형태의 프로세스를 사용하여 단계를 재배열, 추가 또는 삭제할 수 있다는 것을 이해하여야 한다. 예를 들어, 본 출원에 기재된 각 단계는 병열로 수행될 수 있고 순차적으로 수행될 수도 있고 서로 다른 순서로 수행될 수도 있으며, 본 출원에 개시된 기술적 해결수단이 원하는 결과를 얻을 수만 있다면, 본 명세서에서는 이에 대해 한정하지 않는다.
상술한 구체적인 실시형태는 본 출원의 보호범위에 대한 한정이 아니다. 본 분야의 통상의 지식을 가진 자라면, 설계 요구와 기타 요소를 기초로, 다양한 수정, 조합, 서브 조합 및 대체를 수행할 수 있다는 것 이해하여야 한다. 본 출원의 사상과 원칙 내에서 이루어진 모든 수정, 동등한 치환 및 개선 등은 모두 본 출원의 보호 범위 내에 포함되어야 한다.

Claims (15)

  1. 자율 운전 시스템의 장면 복원 테스트 장치에 의해 구현되는 자율 운전 시스템의 장면 복원 테스트 방법에 있어서,
    제1 자율 운전 시스템이 탑재된 자율 운전 차량이 테스트할 때 생성된 문제 장면 데이터를 획득하고, 상기 문제 장면 데이터를 기초로 핵심 장애물 정보와 비핵심 장애물 정보를 결정하는 단계;
    상기 비핵심 장애물 정보를 기초로 가상 장애물 모델을 생성하고, 상기 핵심 장애물 정보를 기초로 핵심 장애물을 시뮬레이션하기 위한 실제 기기를 결정하되; 여기서, 상기 실제 기기는 테스트 환경에 실제로 존재하는 기기인 단계;
    상기 가상 장애물 모델과 상기 실제 기기를 이용하여 제2 자율 운전 시스템이 탑재된 자율 운전 차량에 대해 복원 테스트를 수행하되; 여기서, 상기 제2 자율 운전 시스템은 상기 제1 자율 운전 시스템에 대해 최적화한 후의 시스템이고; 상기 복원 테스트는 상기 문제 장면 데이터에서 나타내는 문제 장면에 대해 복원 테스트를 수행하기 위한 것인 단계를 포함하는, 자율 운전 시스템의 장면 복원 테스트 방법.
  2. 제1항에 있어서,
    상기 제1 자율 운전 시스템이 탑재된 자율 운전 차량이 테스트할 때 생성된 문제 장면 데이터를 획득하는 단계는,
    문제 장면 라이브러리를 기초로 제1 자율 운전 시스템이 탑재된 자율 운전 차량에 대응되는 문제 시점을 결정하는 단계;
    상기 문제 시점을 기초로, 제1 자율 운전 시스템이 탑재된 자율 운전 차량의 도로 테스트 데이터로부터, 상기 문제 시점에 대응되는 상기 문제 장면 데이터를 획득하는 단계를 포함하고,
    여기서, 상기 문제 장면 라이브러리에 자율 운전 차량이 열린 도로 상에서 테스트할 때 발생한 문제 장면의 시간 정보가 설치되어 있는 자율 운전 시스템의 장면 복원 테스트 방법.
  3. 제2항에 있어서,
    상기 문제 시점을 기초로, 제1 자율 운전 시스템이 탑재된 자율 운전 차량의 도로 테스트 데이터로부터, 상기 문제 시점에 대응되는 상기 문제 장면 데이터를 획득하는 단계는,
    제1 자율 운전 시스템이 탑재된 자율 운전 차량의 도로 테스트 데이터 중, 데이터 생성 시간이 상기 문제 시점 전 기설정 기간에 있는 제1 데이터, 및 데이터 생성 시간이 상기 문제 시점 후 기설정 기간에 있는 제2 데이터를, 상기 문제 장면 데이터로 하는 단계를 포함하는 자율 운전 시스템의 장면 복원 테스트 방법.
  4. 제1항에 있어서,
    상기 문제 장면 데이터를 기초로 핵심 장애물 정보와 비핵심 장애물 정보를 결정하는 단계는,
    상기 문제 장면 데이터를 기초로 장애물 파라미터 파일을 생성하되; 상기 장애물 파라미터 파일은 상기 핵심 장애물 정보, 상기 비핵심 장애물 정보를 포함하는 단계;
    상기 장애물 파라미터 파일을 기초로, 상기 핵심 장애물 정보와 상기 비핵심 장애물 정보를 결정하는 단계를 포함하는 자율 운전 시스템의 장면 복원 테스트 방법.
  5. 제4항에 있어서,
    상기 문제 장면 데이터를 기초로 장애물 파라미터 파일을 생성하는 단계는,
    상기 문제 장면 데이터 중 각 장애물 정보를 기초로, 문제 장면을 생성 및 표시하는 단계;
    사용자가 입력한 표시되는 문제 장면에 작용하는 마크 명령에 응답하여, 상기 문제 장면 중의 핵심 장애물을 마크하는 단계;
    상기 장애물 정보, 마크된 상기 핵심 장애물을 기초로, 상기 장애물 파라미터 파일을 생성하는 단계를 포함하는 자율 운전 시스템의 장면 복원 테스트 방법.
  6. 제1항에 있어서,
    상기 비핵심 장애물 정보는 프로파일 크기를 포함하고; 상기 비핵심 장애물 정보를 기초로 가상 장애물 모델을 생성하는 단계는,
    가상 장면 컨트롤러를 이용하여 상기 비핵심 장애물 정보 중 프로파일 크기를 기초로 상기 가상 장애물 모델을 생성하는 단계를 포함하는 자율 운전 시스템의 장면 복원 테스트 방법.
  7. 제1항에 있어서,
    상기 가상 장애물 모델과 상기 실제 기기를 이용하여 제2 자율 운전 시스템이 탑재된 자율 운전 차량에 대해 복원 테스트를 수행하는 단계는,
    상기 제2 자율 운전 시스템이 탑재된 자율 운전 차량을 스타트시키는 단계;
    상기 비핵심 장애물 정보를 기초로 상기 가상 장애물 모델이 움직이도록 제어하고, 상기 핵심 장애물 정보를 기초로 상기 실제 기기가 움직이도록 제어하여, 문제 장면을 시뮬레이션하는 단계;
    상기 제2 자율 운전 시스템을 기초로 상기 자율 운전 차량이 시뮬레이션되는 문제 장면에서 주행하도록 제어하는 단계를 포함하는 자율 운전 시스템의 장면 복원 테스트 방법.
  8. 제7항에 있어서,
    상기 비핵심 장애물 정보는 상기 문제 장면의 각각의 시점에 대응되는 이동 정보를 포함하고; 상기 비핵심 장애물 정보를 기초로 상기 가상 장애물 모델이 움직이도록 제어하는 단계는,
    상기 제2 자율 운전 시스템이 탑재된 자율 운전 차량을 스타트시킨 시점, 상기 비핵심 장애물 정보 중 상기 문제 장면의 각각의 시점에 대응되는 이동 정보를 기초로, 상기 가상 장애물 모델이 움직이도록 제어하는 단계를 포함하는 자율 운전 시스템의 장면 복원 테스트 방법.
  9. 제7항에 있어서,
    상기 핵심 장애물 정보는 상기 문제 장면의 각각의 시점에 대응되는 이동 정보를 포함하고; 상기 핵심 장애물 정보를 기초로 상기 실제 기기가 움직이도록 제어하는 단계는,
    상기 제2 자율 운전 시스템이 탑재된 자율 운전 차량을 스타트시킨 시점, 상기 핵심 장애물 정보 중 상기 문제 장면의 각각의 시점에 대응되는 이동 정보를 기초로, 상기 실제 기기가 움직이도록 제어하는 단계를 포함하는 자율 운전 시스템의 장면 복원 테스트 방법.
  10. 제1항에 있어서,
    제2 자율 운전 시스템이 탑재된 자율 운전 차량의 시뮬레이션되는 상기 문제 장면에서의 주행 상태, 상기 가상 장애물 모델에 대응되는 제1 이동 데이터, 상기 실제 기기에 대응되는 제2 이동 데이터를 획득하는 단계;
    상기 주행 상태, 상기 제1 이동 데이터, 상기 제2 이동 데이터를 기초로, 테스트 리포트를 생성하는 단계를 더 포함하는 자율 운전 시스템의 장면 복원 테스트 방법.
  11. 제10항에 있어서,
    상기 주행 상태, 상기 제1 이동 데이터, 상기 제2 이동 데이터를 기초로, 테스트 리포트를 생성하는 단계는,
    상기 주행 상태, 상기 제1 이동 데이터, 상기 제2 이동 데이터를 기초로 기설정 데이터에 대응되는 테스트 데이터를 생성하되; 상기 기설정 데이터는 사전에 설정된 상기 문제 장면에 대응되는 데이터인 단계;
    상기 기설정 데이터, 상기 테스트 데이터를 기초로, 상기 테스트 리포트를 생성하는 단계를 포함하는 자율 운전 시스템의 장면 복원 테스트 방법.
  12. 제1 자율 운전 시스템이 탑재된 자율 운전 차량이 테스트할 때 생성된 문제 장면 데이터를 획득하고, 상기 문제 장면 데이터를 기초로 핵심 장애물 정보와 비핵심 장애물 정보를 결정하는 획득 유닛;
    상기 비핵심 장애물 정보를 기초로 가상 장애물 모델을 생성하고, 상기 핵심 장애물 정보를 기초로 핵심 장애물을 시뮬레이션하기 위한 실제 기기를 결정하되; 여기서, 상기 실제 기기는 테스트 환경에 실제로 존재하는 기기인 시뮬레이션 유닛;
    상기 가상 장애물 모델과 상기 실제 기기를 이용하여 제2 자율 운전 시스템이 탑재된 자율 운전 차량에 대해 복원 테스트를 수행하되; 여기서, 상기 제2 자율 운전 시스템은 상기 제1 자율 운전 시스템에 대해 최적화한 후의 시스템이고; 상기 복원 테스트는 상기 문제 장면 데이터에서 나타내는 문제 장면에 대해 복원 테스트를 수행하기 위한 것인 테스트 유닛을 포함하는, 자율 운전 시스템의 장면 복원 테스트 장치.
  13. 적어도 하나의 프로세서; 및
    상기 적어도 하나의 프로세서와 통신 연결되는 메모리;를 포함하되,
    상기 메모리에 상기 적어도 하나의 프로세서에 의해 실행 가능한 명령이 저장되어 있고, 상기 명령은 상기 적어도 하나의 프로세서에 의해 실행되어, 상기 적어도 하나의 프로세서가 제1항 내지 제11항 중 어느 한 항에 따른 자율 운전 시스템의 장면 복원 테스트 방법을 수행할 수 있도록 하는 전자기기.
  14. 컴퓨터 명령이 저장된 비일시적 컴퓨터 판독 가능 저장매체에 있어서, 상기 컴퓨터 명령은 컴퓨터가 제1항 내지 제11항 중 어느 한 항에 따른 자율 운전 시스템의 장면 복원 테스트 방법을 수행하도록 하는 것인 저장매체.
  15. 컴퓨터 판독 가능 저장매체에 저장된 컴퓨터 프로그램에 있어서, 프로세서에 의해 실행될 때 제1항 내지 제11항 중 어느 한 항에 따른 자율 운전 시스템의 장면 복원 테스트 방법을 구현하는 컴퓨터 판독 가능 저장매체에 저장된 컴퓨터 프로그램.
KR1020210118860A 2021-02-18 2021-09-07 자율 운전 시스템의 장면 복원 테스트 방법, 장치, 기기 및 프로그램 KR102601534B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202110187446.X 2021-02-18
CN202110187446.XA CN112965466B (zh) 2021-02-18 2021-02-18 自动驾驶系统的还原测试方法、装置、设备及程序产品

Publications (2)

Publication Number Publication Date
KR20210130113A KR20210130113A (ko) 2021-10-29
KR102601534B1 true KR102601534B1 (ko) 2023-11-14

Family

ID=76284986

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210118860A KR102601534B1 (ko) 2021-02-18 2021-09-07 자율 운전 시스템의 장면 복원 테스트 방법, 장치, 기기 및 프로그램

Country Status (5)

Country Link
US (1) US11893800B2 (ko)
EP (1) EP4047342B1 (ko)
JP (1) JP7305733B2 (ko)
KR (1) KR102601534B1 (ko)
CN (1) CN112965466B (ko)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113589798A (zh) * 2021-08-12 2021-11-02 上海裹动科技有限公司 自动测试行为的生成方法及服务器
CN113589707A (zh) * 2021-08-17 2021-11-02 北京三快在线科技有限公司 一种增强现实的自动驾驶系统测试方法及装置
CN114063613A (zh) * 2021-10-25 2022-02-18 浙江小族智能科技有限公司 游乐车及其控制方法、装置、存储介质、终端
CN114244741B (zh) * 2021-12-16 2023-11-14 阿波罗智联(北京)科技有限公司 一种链路测试方法、装置、系统、电子设备及存储介质
CN114355864B (zh) * 2021-12-28 2024-05-03 重庆长安汽车股份有限公司 用于智能驾驶模型开发的模型在环测试方法、系统及计算机可读存储介质
CN114579088A (zh) * 2021-12-31 2022-06-03 杭州宏景智驾科技有限公司 基于数据挖掘和测试闭环的无人驾驶算法开发方法
CN114371015B (zh) * 2022-01-04 2024-06-04 一汽解放汽车有限公司 自动驾驶测试方法、装置、计算机设备、存储介质
CN114475660A (zh) * 2022-02-28 2022-05-13 苏州挚途科技有限公司 自动驾驶车辆防碰撞的方法、装置及电子设备
CN114936515B (zh) * 2022-04-25 2023-09-19 北京宾理信息科技有限公司 一种生成仿真交通场景文件的方法及系统
CN114970112B (zh) * 2022-04-29 2023-05-09 阿波罗智能技术(北京)有限公司 用于自动驾驶仿真的方法、装置、电子设备及存储介质
CN115145246B (zh) * 2022-06-27 2024-06-11 小米汽车科技有限公司 控制器的测试方法、装置、车辆、存储介质及芯片
CN115202234B (zh) * 2022-07-12 2023-10-17 小米汽车科技有限公司 仿真测试方法、装置、存储介质和车辆
CN115544817B (zh) * 2022-12-02 2023-03-28 广汽埃安新能源汽车股份有限公司 驾驶场景生成方法、装置、电子设备和计算机可读介质
CN116106035B (zh) * 2023-02-22 2024-06-04 吉林大学 基于可移动平台的场地测试方法、设备及存储介质
CN116229800B (zh) * 2023-05-08 2023-07-21 武汉木仓科技股份有限公司 驾考场景的控制方法及相关设备
CN117593892B (zh) * 2024-01-19 2024-04-09 福思(杭州)智能科技有限公司 真值数据的获取方法和装置、存储介质及电子设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109211574A (zh) * 2017-07-05 2019-01-15 百度在线网络技术(北京)有限公司 无人驾驶汽车的场地测试方法、装置、设备及可读介质
US20190049342A1 (en) 2018-09-28 2019-02-14 Intel Corporation Method and an autonomous ground vehicle
CN109993849A (zh) 2019-03-22 2019-07-09 山东省科学院自动化研究所 一种自动驾驶测试场景再现模拟方法、装置及系统
KR102011664B1 (ko) 2018-06-07 2019-08-19 계명대학교 산학협력단 자동 긴급 제동 시스템의 시험평가 장치 및 그 제어 방법
CN111226268A (zh) * 2017-05-02 2020-06-02 密歇根大学董事会 用于自动驾驶车辆的模拟车辆交通
CN111611711A (zh) * 2020-05-21 2020-09-01 北京百度网讯科技有限公司 自动驾驶数据处理方法、装置及电子设备

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11137763B2 (en) * 2016-05-30 2021-10-05 Faraday & Future Inc. Generating and fusing traffic scenarios for automated driving systems
WO2018066351A1 (ja) * 2016-10-06 2018-04-12 株式会社アドバンスド・データ・コントロールズ シミュレーションシステム、シミュレーションプログラム及びシミュレーション方法
CN109495530B (zh) 2017-09-13 2022-03-04 杭州海康威视系统技术有限公司 一种实时交通数据传输方法、传输装置及传输系统
US10586118B2 (en) 2018-01-13 2020-03-10 Toyota Jidosha Kabushiki Kaisha Localizing traffic situation using multi-vehicle collaboration
CN109215092B (zh) * 2018-09-10 2020-03-13 百度在线网络技术(北京)有限公司 仿真场景的生成方法及装置
CN111142402B (zh) * 2018-11-05 2023-12-15 百度在线网络技术(北京)有限公司 仿真场景构建方法、装置和终端
CN109781431B (zh) * 2018-12-07 2019-12-10 山东省科学院自动化研究所 基于混合现实的自动驾驶测试方法及系统
US10890907B2 (en) 2018-12-14 2021-01-12 Toyota Jidosha Kabushiki Kaisha Vehicle component modification based on vehicular accident reconstruction data
CN109900493A (zh) * 2019-02-20 2019-06-18 苏州风图智能科技有限公司 无人车测试场景中的障碍物模拟方法及装置
US11208113B2 (en) 2019-05-31 2021-12-28 Tusimple, Inc. Hybrid simulation system for autonomous vehicles
CN110276947B (zh) 2019-06-05 2021-03-23 中国科学院深圳先进技术研究院 一种交通融合分析预测方法、系统及电子设备
CN110795818B (zh) * 2019-09-12 2022-05-17 腾讯科技(深圳)有限公司 一种确定虚拟测试场景方法、装置、电子设备和存储介质
US11551414B2 (en) * 2019-12-02 2023-01-10 Woven Planet North America, Inc. Simulation architecture for on-vehicle testing and validation
KR102139172B1 (ko) 2020-01-06 2020-07-29 주식회사 모라이 가상환경에서의 자율주행차량 시뮬레이션 방법
CN111859618B (zh) * 2020-06-16 2024-03-29 长安大学 多端在环的虚实结合交通综合场景仿真测试系统及方法
CN112015164A (zh) 2020-08-24 2020-12-01 苏州星越智能科技有限公司 基于数字孪生的智能网联汽车复杂测试场景实现系统
CN112198859B (zh) * 2020-09-07 2022-02-11 西安交通大学 混合场景下车辆在环的自动驾驶车辆测试方法、系统及装置
US20220227397A1 (en) * 2021-01-19 2022-07-21 Baidu Usa Llc Dynamic model evaluation package for autonomous driving vehicles

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111226268A (zh) * 2017-05-02 2020-06-02 密歇根大学董事会 用于自动驾驶车辆的模拟车辆交通
CN109211574A (zh) * 2017-07-05 2019-01-15 百度在线网络技术(北京)有限公司 无人驾驶汽车的场地测试方法、装置、设备及可读介质
KR102011664B1 (ko) 2018-06-07 2019-08-19 계명대학교 산학협력단 자동 긴급 제동 시스템의 시험평가 장치 및 그 제어 방법
US20190049342A1 (en) 2018-09-28 2019-02-14 Intel Corporation Method and an autonomous ground vehicle
CN109993849A (zh) 2019-03-22 2019-07-09 山东省科学院自动化研究所 一种自动驾驶测试场景再现模拟方法、装置及系统
CN111611711A (zh) * 2020-05-21 2020-09-01 北京百度网讯科技有限公司 自动驾驶数据处理方法、装置及电子设备

Also Published As

Publication number Publication date
CN112965466A (zh) 2021-06-15
EP4047342B1 (en) 2023-02-15
JP7305733B2 (ja) 2023-07-10
CN112965466B (zh) 2022-08-30
US11893800B2 (en) 2024-02-06
KR20210130113A (ko) 2021-10-29
EP4047342A1 (en) 2022-08-24
US20210397856A1 (en) 2021-12-23
JP2022033945A (ja) 2022-03-02

Similar Documents

Publication Publication Date Title
KR102601534B1 (ko) 자율 운전 시스템의 장면 복원 테스트 방법, 장치, 기기 및 프로그램
CN113408141B (zh) 一种自动驾驶测试方法、装置及电子设备
US20230138650A1 (en) Test method for automatic driving, and electronic device
CN110909460A (zh) 车联网v2x仿真测试方法、装置、设备和存储介质
CN111611711B (zh) 自动驾驶数据处理方法、装置及电子设备
US11718306B2 (en) Method and apparatus for acquiring sample deviation data, and electronic device
US20230415787A1 (en) Method and apparatus for generating a simulation scene, electronic device and storage medium
JP2021131894A (ja) シミュレーション車両を制御するための方法、装置、電子機器及び記憶媒体
CN109297725A (zh) 车辆边界能力的测试方法、装置、设备、介质和车辆
CN112926135B (zh) 场景信息确定方法、装置、设备、存储介质和程序产品
CN111859528A (zh) 自动驾驶策略控制模块的仿真测试方法、设备及存储介质
CN114415542A (zh) 自动驾驶仿真系统、方法、服务器及介质
CN113312397A (zh) 轨道交通全自动运行模拟方法及其系统、介质及电子设备
CN114637274A (zh) 自动紧急制动测试系统及方法
CN112461250A (zh) 车辆航位推算服务的评估方法、装置、仿真设备及介质
CN113422817A (zh) 用于辅助驾驶培训的移动设备、方法和电子设备
KR20220022383A (ko) 멀티미디어 기기의 테스트 방법 및 시스템
US11772681B2 (en) Method and apparatus for processing autonomous driving simulation data, and electronic device
CN116822130A (zh) 测试场景复现方法、装置、电子设备、存储介质及产品
CN112950469B (zh) 高程地图的边界识别方法、拼接方法及系统、设备及介质
WO2023046125A1 (zh) 地图有效性检测方法和相关产品
CN115983033A (zh) 一种自动驾驶仿真测试方法、系统及模拟机设备
CN117826631A (zh) 自动驾驶仿真测试场景数据生成方法及装置
KR20240081163A (ko) 자율 주행 시나리오 실행 모듈을 이용한 오픈 시나리오 파일 시뮬레이션 방법 및 시스템
CN117668761A (zh) 自动驾驶模型的训练方法、装置、设备及存储介质

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant