KR20210108600A - Autonomous driving situation recognition program performance test method and apparatus for porceeding the same - Google Patents

Autonomous driving situation recognition program performance test method and apparatus for porceeding the same Download PDF

Info

Publication number
KR20210108600A
KR20210108600A KR1020200023372A KR20200023372A KR20210108600A KR 20210108600 A KR20210108600 A KR 20210108600A KR 1020200023372 A KR1020200023372 A KR 1020200023372A KR 20200023372 A KR20200023372 A KR 20200023372A KR 20210108600 A KR20210108600 A KR 20210108600A
Authority
KR
South Korea
Prior art keywords
data
autonomous driving
driving situation
performance test
result
Prior art date
Application number
KR1020200023372A
Other languages
Korean (ko)
Other versions
KR102337034B1 (en
Inventor
이창수
신병철
Original Assignee
슈어소프트테크주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 슈어소프트테크주식회사 filed Critical 슈어소프트테크주식회사
Priority to KR1020200023372A priority Critical patent/KR102337034B1/en
Publication of KR20210108600A publication Critical patent/KR20210108600A/en
Application granted granted Critical
Publication of KR102337034B1 publication Critical patent/KR102337034B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/36Preventing errors by testing or debugging software
    • G06F11/3668Software testing
    • G06F11/3672Test management
    • G06F11/3688Test management for test execution, e.g. scheduling of test suites
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/36Preventing errors by testing or debugging software
    • G06F11/3604Software analysis for verifying properties of programs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/36Preventing errors by testing or debugging software
    • G06F11/3668Software testing
    • G06F11/3672Test management
    • G06F11/3692Test management for test results analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • G06F40/169Annotation, e.g. comment data or footnotes
    • G06K9/00798
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Computer Hardware Design (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Traffic Control Systems (AREA)

Abstract

According to an embodiment of the present invention, an autonomous driving situation recognition program performance test method comprises: a step of obtaining original data related to autonomous driving of a vehicle; a step of obtaining reference data processed from the original data to conform to a predetermined data type; a step of executing the original data through a predetermined test program to generate result data; and a step of outputting verification data comparing the reference data with the result data.

Description

자율 주행 상황 인지 프로그램 성능 테스트 방법 및 동일 방법을 수행하기 위한 자율 주행 상황 인지 프로그램 성능 테스트 장치{AUTONOMOUS DRIVING SITUATION RECOGNITION PROGRAM PERFORMANCE TEST METHOD AND APPARATUS FOR PORCEEDING THE SAME}AUTONOMOUS DRIVING SITUATION RECOGNITION PROGRAM PERFORMANCE TEST METHOD AND APPARATUS FOR PORCEEDING THE SAME

본 발명은, 자율 주행 상황 인지 프로그램 성능 테스트 방법에 관한 것으로, 보다 구체적으로 자율 주행 상황에서 취득된 원본 데이터들을 소정의 테스트 프로그램을 통해 실행시켜 획득된 결과 데이터와 원본 데이터를 소정의 데이터 형식에 적합하도록 가공한 기준 데이터를 비교하여 테스트 프로그램의 성능을 측정하기 위한 것이고, 특히, 오브젝트 타입, 거리, 속도 정보 등을 함께 참조함으로서 테스트 프로그램의 성능 측정 결과의 정확도를 보다 향상시키고자 하는 테스트 방법에 관한 것이다. The present invention relates to a method for testing performance of an autonomous driving situation recognition program, and more specifically, by executing original data acquired in an autonomous driving situation through a predetermined test program, and matching the result data and the original data obtained to a predetermined data format This is to measure the performance of the test program by comparing the reference data processed to will be.

차량 주행 시, 차량 주변 상황을 정확하게 인지하고 차량과 부딪히지 않도록 정지를 하는 등 차량을 정확하게 제어하는 것이 필요하고, 이를 위해서는 주변에 위치한 오브젝트 위치 판단 등을 정확하게 하는 것이 중요하다. 이를 위하여, 자율 주행 테스트 프로그램의 신뢰성 확보가 중요하며, 테스트 프로그램의 성능을 측정하기 위해 오브젝트 인식 정보를 활용하기도 한다. 다만, 종래의 테스트 프로그램 성능 측정 방식의 경우, 단순히 오브젝트 인식 정보만을 활용함으로서 테스트 프로그램 성능 측정 결과의 정확도가 상대적으로 낮다는 문제점이 있었다. When driving a vehicle, it is necessary to accurately recognize the surrounding conditions of the vehicle and to accurately control the vehicle, such as stopping so as not to collide with the vehicle. To this end, it is important to secure the reliability of the autonomous driving test program, and object recognition information is sometimes used to measure the performance of the test program. However, in the case of the conventional test program performance measurement method, there is a problem that the accuracy of the test program performance measurement result is relatively low because only object recognition information is used.

본 발명은 전술한 문제점을 해결하기 위한 것으로, 원본 데이터를 소정의 데이터 형식에 적합하도록 가공된 기준 데이터를 소정의 테스트 프로그램을 통해 실행시킨 결과 데이터와 함께 비교하여 테스트 프로그램의 성능을 측정하고자 하는 데에 그 목적이 있다. The present invention is to solve the above problems, and to measure the performance of the test program by comparing the original data with reference data processed to fit a predetermined data format with the result data executed through a predetermined test program. has its purpose in

본 발명은 또한, 기준 데이터에 포함되는 오브젝트 인식 여부 정보 이외에도 오브젝트의 타입, 오브젝트의 거리, 및 오브젝트의 속도 정보 정보까지 함께 고려함으로서, 자율 주행 테스트 프로그램의 성능 측정의 정확도가 보다 향상되도록 하는 데에 그 목적이 있다. The present invention also considers object type, object distance, and object speed information in addition to object recognition information included in the reference data, so that the accuracy of performance measurement of the autonomous driving test program is further improved. There is a purpose.

본 발명은 또한, 오브젝트의 타입, 오브젝트의 거리, 및 오브젝트의 속도 정보에 가중치 정보를 부여하여 산출된 계산값을 이용함으로서, 자율 주행 테스트 프로그램의 성능 측정의 정확도가 보다 향상될 수 있도록 하는 데에 그 목적이 있다. The present invention is also used to improve the accuracy of performance measurement of an autonomous driving test program by using a calculated value calculated by giving weight information to the type of object, the distance of the object, and the speed information of the object. There is a purpose.

본 발명은 또한, 영상 데이터와 센싱 데이터의 융합 정보를 활용하여 보다 정확한 오브젝트 인식 결과를 획득할 수 있도록 하는 데에 그 목적이 있다. Another object of the present invention is to obtain a more accurate object recognition result by using fusion information of image data and sensing data.

실시예에 따른 자율 주행 상황 인지 프로그램 성능 테스트 방법은, 차량의 자율 주행에 관련된 원본 데이터를 취득하는 단계, 상기 원본 데이터가 소정의 데이터 형식에 적합하도록 가공된 기준 데이터를 취득하는 단계, 상기 원본 데이터를 소정의 테스트 프로그램을 통해 실행시켜 결과 데이터를 생성하는 단계 및 상기 기준 데이터와 상기 결과 데이터를 비교한 검증 데이터를 출력하는 단계를 포함할 수 있다.An autonomous driving situation recognition program performance test method according to an embodiment includes: acquiring original data related to autonomous driving of a vehicle; acquiring reference data processed so that the original data is suitable for a predetermined data format; the original data and generating result data by executing the ? through a predetermined test program and outputting verification data obtained by comparing the reference data with the result data.

상기 검증 데이터 출력 단계는, 상기 기준 데이터에 포함되는 오브젝트 인식 여부, 상기 오브젝트의 타입, 상기 오브젝트의 거리, 및 상기 오브젝트의 속도 정보 중 적어도 하나에 기초하여 수행될 수 있다.The outputting of the verification data may be performed based on at least one of whether an object included in the reference data is recognized, a type of the object, a distance of the object, and speed information of the object.

상기 검증 데이터는, 상기 오브젝트의 타입, 상기 오브젝트의 거리, 및 상기 오브젝트의 속도 정보 중 적어도 하나에 가중치 정보를 부여하여 산출될 수 있다.The verification data may be calculated by giving weight information to at least one of the type of the object, the distance of the object, and the speed information of the object.

상기 검증 데이터 출력은 상기 오브젝트가 포함되는 프레임 단위로 수행되고,The verification data output is performed in units of frames including the object,

상기 프레임 단위로 출력된 검증 데이터들의 평균치로 상기 소정의 테스트 프로그램의 성능을 측정하는 단계를 더 포함할 수 있다.The method may further include measuring the performance of the predetermined test program with an average value of the verification data output in units of the frame.

상기 기준 데이터에 포함되는 상기 오브젝트 인식 여부는, 상기 기준 데이터에 포함되는 상기 오브젝트와 상기 결과 데이터에 포함되는 오브젝트가 일치한 경우의 정인식, 상기 기준 데이터에 포함되지 않는 오브젝트 정보가 상기 결과 데이터에 포함되는 오인식, 및 상기 기준 데이터에 포함되는 상기 오브젝트 정보가 상기 결과 데이터에 포함되지 않은 미인식 중 어느 하나에 해당할 수 있다.Whether the object included in the reference data is recognized is a positive recognition when the object included in the reference data matches the object included in the result data, and object information not included in the reference data is included in the result data It may correspond to any one of erroneous recognition and unrecognized object information included in the reference data is not included in the result data.

상기 기준 데이터에 포함되는 상기 오브젝트의 타입과 상기 결과 데이터에 포함되는 상기 오브젝트의 타입이 일치하고, 상기 기준 데이터에 포함되는 상기 오브젝트의 좌표 정보와 상기 결과 데이터에 포함되는 상기 오브젝트의 좌표 정보 중 서로 일치하는 영역이 소정의 임계치 이상인 경우 상기 정인식으로 판별될 수 있다.The type of the object included in the reference data matches the type of the object included in the result data, and the object coordinate information included in the reference data and the object coordinate information included in the result data match each other. When the matching area is equal to or greater than a predetermined threshold, it may be determined as the correct recognition.

상기 기준 데이터는 상기 오브젝트를 라벨링하여 상기 소정의 데이터 형식에 적합하도록 주석을 부가하는 과정을 통해 생성될 수 있다.The reference data may be generated through a process of labeling the object and adding an annotation to fit the predetermined data format.

상기 소정의 데이터 형식은 JSON(JavaScript Object Notation) 형식일 수 있다.The predetermined data format may be a JavaScript Object Notation (JSON) format.

상기 원본 데이터는 상기 차량의 주변이 촬영되어 생성된 영상 데이터와 상기 차량의 센서로부터 생성된 센싱 데이터가 융합되어 생성된 것일 수 있다.The original data may be generated by fusion of image data generated by photographing the surroundings of the vehicle and sensing data generated by a sensor of the vehicle.

본 발명의 다른 실시예에 따른 자율 주행 상황 인지 프로그램 성능 테스트 장치는, 차량의 자율 주행 상황에 관련된 원본 데이터를 취득하는 원본 데이터 취득부, 상기 원본 데이터가 소정의 데이터 형식에 적합하도록 가공된 기준 데이터를 취득하는 기준 데이터 취득부, 상기 원본 데이터를 소정의 테스트 프로그램을 통해 실행시켜 결과 데이터를 생성하는 결과 데이터 생성부 및 상기 기준 데이터와 상기 결과 데이터를 비교한 검증 데이터를 출력하는 검증 결과 출력부를 포함할 수 있다.An autonomous driving situation recognition program performance test apparatus according to another embodiment of the present invention includes an original data acquisition unit that acquires original data related to an autonomous driving situation of a vehicle, and reference data processed so that the original data conforms to a predetermined data format. a reference data acquisition unit for obtaining can do.

기준 데이터에 포함되는 오브젝트 인식 여부 정보 이외에도 오브젝트의 타입, 오브젝트의 거리, 및 오브젝트의 속도 정보 정보까지 함께 고려함으로서, 자율 주행 테스트 프로그램의 성능 측정의 정확도가 보다 향상될 수 있게 된다.In addition to the object recognition information included in the reference data, by considering the object type, object distance, and object speed information, the accuracy of performance measurement of the autonomous driving test program can be further improved.

오브젝트의 타입, 오브젝트의 거리, 및 오브젝트의 속도 정보에 가중치 정보를 부여하여 산출된 계산값을 이용함으로서, 자율 주행 테스트 프로그램의 성능 측정의 정확도가 보다 향상될 수 있게 된다.By using a calculated value calculated by giving weight information to the object type, the object distance, and the object speed information, the accuracy of the performance measurement of the autonomous driving test program can be further improved.

영상 데이터와 센싱 데이터의 융합 정보를 활용하여 보다 정확한 오브젝트 인식 결과를 획득할 수 있게 된다. It is possible to obtain a more accurate object recognition result by utilizing the fusion information of the image data and the sensing data.

도 1은 실시예에 따른 자율 주행 상황 인지 프로그램 성능 테스트 장치 및 차량의 전체 시스템도
도 2는 실시예에 따른 자율 주행 상황 인지 프로그램 테스트 방법을 설명하기 위한 순서도
도 3 내지 도 8은 실시예에 따른 자율 주행 상황 인지 프로그램 테스트 방법을 설명하기 위해 참조되는 도면들
1 is an overall system diagram of an autonomous driving situation recognition program performance test apparatus and vehicle according to an embodiment;
2 is a flowchart illustrating a method for testing an autonomous driving situation recognition program according to an embodiment;
3 to 8 are diagrams referenced to describe a method for testing an autonomous driving situation recognition program according to an embodiment;

후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예에 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS [0012] DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS [0014] DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS [0010] Reference is made to the accompanying drawings, which show by way of illustration specific embodiments in which the present invention may be practiced. These embodiments are described in sufficient detail to enable those skilled in the art to practice the present invention. It should be understood that the various embodiments of the present invention are different but need not be mutually exclusive. For example, certain shapes, structures, and characteristics described herein with respect to one embodiment may be embodied in other embodiments without departing from the spirit and scope of the invention. In addition, it should be understood that the location or arrangement of individual components within each disclosed embodiment may be changed without departing from the spirit and scope of the present invention. Accordingly, the following detailed description is not intended to be taken in a limiting sense, and the scope of the present invention, if properly described, is limited only by the appended claims, along with all scope equivalents to those claimed. Like reference numerals in the drawings refer to the same or similar functions throughout the various aspects.

도 1은 실시예에 따른 자율 주행 상황 인지 프로그램 성능 테스트 장치(1) 및 차량(2)의 전체 시스템도와 함께 자율 주행 상황 인지 프로그램 성능 테스트 장치(1)의 상세 블록도를 나타낸 도면이고, 도 2는 실시예에 따른 자율 주행 상황 인지 프로그램 테스트 방법을 설명하기 위한 순서도이다. 1 is a view showing a detailed block diagram of an autonomous driving situation recognition program performance test apparatus 1 together with an overall system diagram of an autonomous driving situation awareness program performance testing apparatus 1 and a vehicle 2 according to an embodiment, and FIG. 2 is a flowchart for describing a method for testing an autonomous driving situation recognition program according to an embodiment.

그리고, 도 3 내지 도 8은 실시예에 따른 자율 주행 상황 인지 프로그램 테스트 방법을 설명하기 위해 참조되는 도면들이다. 3 to 8 are diagrams referenced to describe a method for testing an autonomous driving situation recognition program according to an embodiment.

도 1에 도시한 바와 같이, 실시예에 따른 자율 주행 상황 인지 프로그램 테스트 장치(1)는, 제어부(10) 및 저장부(20)를 포함할 수 있다.As shown in FIG. 1 , the autonomous driving situation recognition program test apparatus 1 according to the embodiment may include a control unit 10 and a storage unit 20 .

제어부(10)는 자율 주행 상황 인지 프로그램 테스트 장치(1)의 데이터 송수신, 처리 등을 위한 전반적인 제어를 담당하는 것으로, 원본 데이터 취득부(110), 기준 데이터 취득부(120), 결과 데이터 생성부(130), 및 검증 결과 출력부(140)를 포함할 수 있다.The control unit 10 is in charge of overall control for data transmission/reception and processing of the autonomous driving situation recognition program test device 1 , and includes an original data acquisition unit 110 , a reference data acquisition unit 120 , and a result data generation unit. 130 , and a verification result output unit 140 .

저장부(20)는 제어부(10)가 처리한 데이터를 저장하거나 차량(2)등의 외부 기기로부터 수신한 데이터를 저장할 수 있다. 제어부(10)는 저장부(20)에 저장된 데이터를 독출할 수 있다. The storage unit 20 may store data processed by the control unit 10 or may store data received from an external device such as the vehicle 2 . The control unit 10 may read data stored in the storage unit 20 .

저장부(20)는 원본 데이터 DB(21)와 검증 데이터 DB(22)를 포함할 수 있다. The storage unit 20 may include an original data DB 21 and a verification data DB 22 .

원본 데이터 DB(21)는 차량의 자율 주행에 관련된 영상 데이터와 센싱 데이터를 시나리오별로 저장할 수 있다.The original data DB 21 may store image data and sensing data related to autonomous driving of a vehicle for each scenario.

검증 데이터 DB(22)는 기준 데이터와 결과 데이터를 비교한 검증 데이터를 저장할 수 있다.The verification data DB 22 may store verification data obtained by comparing reference data and result data.

이하, 도 1 및 도 2를 함께 참조하여 자율 주행 상황 인지 프로그램 테스트 방법을 상세하게 설명한다. Hereinafter, a method for testing an autonomous driving situation recognition program will be described in detail with reference to FIGS. 1 and 2 together.

먼저, 원본 데이터 취득부(110)는 차량(2)으로부터 차량의 자율 주행에 관련된 원본 데이터를 취득할 수 있다(S210).First, the original data acquisition unit 110 may acquire original data related to autonomous driving of the vehicle from the vehicle 2 ( S210 ).

실시예에 따른 차량(2)의 자율 주행에 관련된 원본 데이터는, 차량(2)의 주변이 촬영되어 차량(2)에서 생성된 영상 데이터와 차량(2)의 센서(222)로부터 생성된 센싱 데이터가 융합되어 생성된 것일 수 있다. The original data related to autonomous driving of the vehicle 2 according to the embodiment includes image data generated in the vehicle 2 by photographing the surroundings of the vehicle 2 and sensing data generated from the sensor 222 of the vehicle 2 . may be generated by fusion.

차량(2)에서 생성된 영상 데이터는 차량(2)의 카메라(221)가 주변 환경을 촬영하여 획득된 것으로, 360도 카메라 같이 차량의 주변 환경을 전방위로 촬영하여 획득된 전방위 영상 데이터를 포함할 수 있다. The image data generated in the vehicle 2 is obtained by photographing the surrounding environment by the camera 221 of the vehicle 2, and includes omnidirectional image data obtained by photographing the surrounding environment of the vehicle in all directions, such as a 360-degree camera. can

차량(2)의 센서(222)는 차량(2) 외부에 위치하는 오브젝트를 검출하기 위한 것으로, 센싱 데이터에 기초하여 오브젝트 정보를 생성하고, 생성된 오브젝트 정보를 ECU(210)로 전달할 수 있다. 오브젝트는 예를 들어, 차량(2)의 운행과 관련된 다양한 물체, 예를 들면, 차선, 타 차량, 보행자, 교통 신호, 및, 도로, 구조물, 과속 방지턱, 동물, 지형물 등을 포함할 수 있다.The sensor 222 of the vehicle 2 is for detecting an object located outside the vehicle 2 , and may generate object information based on sensing data and transmit the generated object information to the ECU 210 . The objects may include, for example, various objects related to the operation of the vehicle 2 , for example, lanes, other vehicles, pedestrians, traffic signals, and roads, structures, speed bumps, animals, features, and the like. .

실 시예에 따른 센서(222)는 라이다 센서(미도시), 레이더 센서(미도시), 적외선 센서(미도시), 초음파 센서(미도시) 등을 포함할 수 있다.The sensor 222 according to the embodiment may include a lidar sensor (not shown), a radar sensor (not shown), an infrared sensor (not shown), an ultrasonic sensor (not shown), and the like.

라이다 센서(미도시)는 레이저 광 펄스를 오브젝트에 조사하고 그 오브젝트로부터 반사된 빛을 분석하여 오브젝트의 크기와 배치를 감지하고 오브젝트와의 거리를 맵핑할 수 있다.The lidar sensor (not shown) may detect the size and arrangement of the object by irradiating a laser light pulse to the object and analyzing the light reflected from the object, and may map the distance to the object.

센서(222)는 그밖에 충돌 센서, 휠 센서, 속도 센서, 자이로 센서, 스티어링 휠 센서 등을 포함하며, 차량(2)의 상태에 관한 신호를 감지할 있는 모든 종류의 센서를 포함할 수 있다. 차량 충돌 정보, 차량 방향 정보, 차량 위치 정보, 차량 가속도 정보, 차량 기울기 정보 등이 센싱 데이터로 생성될 수 있다. The sensor 222 may include a collision sensor, a wheel sensor, a speed sensor, a gyro sensor, a steering wheel sensor, and the like, and may include any kind of sensor capable of detecting a signal related to the state of the vehicle 2 . Vehicle collision information, vehicle direction information, vehicle location information, vehicle acceleration information, vehicle inclination information, and the like may be generated as sensing data.

센서(222) 및 카메라(221)의 정보들은 CAN, LIN, 이더넷 등의 차량 내 통신을 통해 ECU(210)로 전송될 수 있다.Information of the sensor 222 and the camera 221 may be transmitted to the ECU 210 through in-vehicle communication such as CAN, LIN, or Ethernet.

ECU(210)로 전송된 센서(222) 및 카메라(221)의 정보들은 차량(2) 내 통신부(미도시)를 통해 유/무선 통신을 이용하여 자율 주행 상황 인지 프로그램 테스트 장치(1)로 전송될 수 있다. 다른 실시예에 따르면, ECU(210)로 전송된 센서(222) 및 카메라(221)의 정보들은 미리 저장부(20)에 원본 데이터 DB(21)로 기록된 후, 원본 데이터 취득부(110)에 의해 취득될 수 있다. 원본 데이터 DB(21)는 영상 데이터와 센싱 데이터의 융합 정보가 자율 주행 상황별로 작성되어 시나리오 리스트로서 기록될 수 있다. 각 시나리오 리스트는 영상 정보를 포함하고, 각 영상이 오브젝트 정보를 포함하는 프레임들로 구성될 수 있다. The information of the sensor 222 and the camera 221 transmitted to the ECU 210 is transmitted to the autonomous driving situation awareness program test device 1 using wired/wireless communication through a communication unit (not shown) in the vehicle 2 . can be According to another embodiment, the information of the sensor 222 and the camera 221 transmitted to the ECU 210 is previously recorded in the storage unit 20 as the original data DB 21 , and then the original data acquisition unit 110 . can be obtained by In the original data DB 21 , fusion information of image data and sensing data may be prepared for each autonomous driving situation and recorded as a scenario list. Each scenario list may include image information, and each image may be composed of frames including object information.

기준 데이터 취득부(120)는 원본 데이터가 소정의 데이터 형식에 적합하도록 가공된 기준 데이터를 취득할 수 있다(S220). The reference data acquisition unit 120 may acquire reference data processed so that the original data conforms to a predetermined data format ( S220 ).

구체적으로, 기준 데이터는 도 3a 및 도 3b에 예시한 바와 같이, 오브젝트를 라벨링하여 소정의 데이터 형식에 적합하도록 주석을 부가하는 과정Specifically, as illustrated in FIGS. 3A and 3B , the reference data is a process of labeling an object and annotating it to fit a predetermined data format.

(Annotation)을 통해 생성된 것일 수 있다. 여기서, 소정의 데이터 형식은 JSON(JavaScript Object Notation) 형식일 수 있으나 본 발명의 권리범위가 이에 제한되는 것은 아니다. It may be created through (Annotation). Here, the predetermined data format may be a JSON (JavaScript Object Notation) format, but the scope of the present invention is not limited thereto.

원본 데이터는 영상, Lidar, Radar 등의 센서 데이터이며, 이를 기준 데이터로 출력하기 위해 Annotation 과정을 거칠 수 있다. 취득 영상을 프레임 단위(예> 초당 3~30 프레임)로 나누고 미리 개발된 Annotation 도구를 이용해 작업자들이 수동으로 프레임 내의 오브젝트 라벨링하고, 센싱 데이터를 이용해 거리 정보 등을 입력하는 방식으로 수행될 수 있다. Annotation 작업이 끝나면 이를 데이터 표준에 맞게 출력하게 되는데, 이때 데이터 형식은 확장이 용이하고 오브젝트 별 속성을 정리하기 좋은 JSON(JavaScript Object Notation) 형식을 이용할 수 있다. The original data is sensor data such as image, lidar, and radar, and an annotation process may be performed to output it as reference data. It can be performed by dividing the acquired image into frame units (eg 3 to 30 frames per second), using a pre-developed annotation tool to manually label objects within the frame, and input distance information using sensing data. When the annotation work is finished, it is output according to the data standard. At this time, the data format can be easily extended and JSON (JavaScript Object Notation) format can be used to organize the properties of each object.

도 3a 및 도 3b에 예시한 바와 같이, 이동 오브젝트의 경우, 오브젝트의 속성값은 오브젝트의 타입(종류), 상대 속도, 절대 속도, 거리 정보, 각도, 길이, 너비, 높이, 오브젝트 검출 위치 등의 정보를 포함할 수 있다. 그리고, lane(비이동 고정 오브젝트)의 경우, 오브젝트의 속성값은, lane style, lane type, lane direction 등의 정보를 포함할 수 있다. 도 3에 도시한 각 오브젝트들에 관련된 정보를 ANNOTAION을 이용해 테이블 형태로 보관하는 과정에서, 기준 데이터 및/또는 결과 데이터에 각 오브젝트 속성 정보가 포함되는 지 여부를 식별하기 위한 필드 정보도 반영될 수 있다. As illustrated in FIGS. 3A and 3B , in the case of a moving object, the attribute value of the object includes object type (type), relative speed, absolute speed, distance information, angle, length, width, height, object detection position, etc. may contain information. And, in the case of a lane (non-moving fixed object), the attribute value of the object may include information such as lane style, lane type, and lane direction. In the process of storing the information related to each object shown in FIG. 3 in the form of a table using ANNOTAION, field information for identifying whether each object attribute information is included in the reference data and/or result data may also be reflected. have.

특히, 오브젝트 검출 위치의 경우, 오브젝트의 타입에 따라 상이한 정보를 출력할 수 있다. 예를 들어, 보행자, 자동차 등 이동 오브젝트는 바운딩 박스 (2D box)의 좌상, 우하 좌표를 출력하고, 차선이나 주차선 등의 고정 오브젝트는 Polyline 형으로 vertices(정점)의 좌표를 출력할 수 있다. 참고로, 바운딩 박스(bounding box)는 검출하기 위한 오브젝트를 둘러싼 윈도우 영역으로 정의될 수 있다. In particular, in the case of an object detection position, different information may be output according to the type of object. For example, a moving object such as a pedestrian or a car outputs the upper left and lower right coordinates of a bounding box (2D box), and a fixed object such as a lane or parking line can output the coordinates of vertices in a polyline type. For reference, a bounding box may be defined as a window area surrounding an object to be detected.

결과 데이터 생성부(130)는 원본 데이터를 소정의 테스트 프로그램을 통해 실행시켜 결과 데이터를 생성할 수 있다(S230). The result data generation unit 130 may generate result data by executing the original data through a predetermined test program (S230).

결과 데이터는 원본 데이터를 소정의 테스트 프로그램에 적용했을 때 출력되는 결과물로, 이 때 출력되는 결과 데이터의 포맷도 소정의 데이터 형식에 맞도록 출력될 수 있다. 실시예에 따르면, 결과 데이터의 소정의 데이터 형식 또한 JSON(JavaScript Object Notation) 형식을 이용할 수도 있다. The result data is a result output when the original data is applied to a predetermined test program, and the format of the output result data at this time may also be output to conform to a predetermined data format. According to an embodiment, a predetermined data format of the result data may also use a JSON (JavaScript Object Notation) format.

결과 데이터는 이동 오브젝트의 검출 위치 정보(좌표 정보) 및 차선의 위치 정보(좌표 정보)를 반드시 포함하도록 구현할 수 있다. The result data may be implemented to necessarily include detection position information (coordinate information) of a moving object and position information of a lane (coordinate information).

검증 데이터 출력부(140)는 기준 데이터와 결과 데이터를 비교한 검증 데이터를 출력할 수 있다. 출력된 검증 데이터는 시각화되어 작업자에게 보여질 수 있다. The verification data output unit 140 may output verification data obtained by comparing the reference data and the result data. The output verification data can be visualized and shown to the operator.

검증 데이터 출력부(140)는 기준 데이터를 기준으로 결과 데이터의 오브젝트 인식 결과를 비교하고, 비교 측정한 결과를 기준에 따라 평가하여 검증 데이터를 출력할 수 있다(S240). The verification data output unit 140 may compare the object recognition result of the result data with reference to the reference data, evaluate the result of comparison and measurement according to the reference, and output the verification data (S240).

검증 데이터 출력부(140)는 기준 데이터에 포함되는 오브젝트 인식 여부, 오브젝트의 타입, 오브젝트의 거리, 및 오브젝트의 속도 정보 중 적어도 하나에 기초하여 검증 데이터를 출력할 수 있다.The verification data output unit 140 may output verification data based on at least one of whether the object included in the reference data is recognized, the type of the object, the distance of the object, and the speed of the object.

검증 데이터 출력부(140)는 오브젝트가 포함되는 프레임 단위로 검증 데이터 출력을 수행할 수 있고, 프레임 단위로 출력된 검증 데이터들의 평균치로 상기 소정의 테스트 프로그램의 성능을 측정할 수 있다. The verification data output unit 140 may output verification data in units of frames including objects, and may measure the performance of the predetermined test program with an average value of the verification data output in units of frames.

실시예에 따르면, 기준 데이터에 포함되는 오브젝트 인식 여부는, 기준 데이터에 포함되는 오브젝트와 결과 데이터에 포함되는 오브젝트가 일치한 경우의 정인식, 기준 데이터에 포함되지 않는 오브젝트 정보가 결과 데이터에 포함되는 오인식, 및 기준 데이터에 포함되는 오브젝트 정보가 결과 데이터에 포함되지 않은 미인식 중 어느 하나에 해당할 수 있다.According to an embodiment, whether an object included in the reference data is recognized is a positive recognition when an object included in the reference data and an object included in the result data match, and a misrecognition that object information not included in the reference data is included in the result data. , and object information included in the reference data may correspond to any one of unrecognized that is not included in the result data.

구체적으로, 기준 데이터에 포함되는 오브젝트와 결과 데이터에 포함되는 오브젝트의 타입이 일치(예를 들어, 차량-차량, 보행자-보행자, 차선-차선)하고 상기 기준 데이터에 포함되는 상기 오브젝트의 좌표 정보와 상기 결과 데이터에 포함되는 상기 오브젝트의 좌표 정보 중 서로 일치하는 영역이 소정의 임계치 이상인 경우(예를 들어, IOU 수치가 0.5 이상인 경우), 정인식으로 판단할 수 있다. Specifically, the object included in the reference data and the type of the object included in the result data match (eg, vehicle-vehicle, pedestrian-pedestrian, lane-lane) and coordinate information of the object included in the reference data and When the matching area among the coordinate information of the object included in the result data is greater than or equal to a predetermined threshold (eg, when the IOU value is greater than or equal to 0.5), it may be determined as the correct recognition.

여기서, 오브젝트의 좌표 정보가 소정의 임계치 이상인지 여부는 IOU(Intersection of Union) 지표를 통해 측정될 수 있다. 오브젝트 검출은 바운딩 박스를 얼마나 잘 예측하였는지에 관한 지표인 IOU를 측정하는 것을 통해 수행될 수 있다.Here, whether the coordinate information of the object is equal to or greater than a predetermined threshold may be measured through an IOU (Intersection of Union) index. Object detection may be performed by measuring IOU, which is an indicator of how well the bounding box is predicted.

오브젝트 검출에서 정확도 계산은 정답(Ground Truth, GT)과 테스트 프로그램이 예측한 예측 결과(Predeciton)와의 비교를 통해 이루어질 수 있다. 정답(GT)과 예측 결과(Predection)과 100%일치하는 경우에 IOU 값은 1을 가질 수 있고, IOU 값이 0.5 이상인 경우 정답으로 인정하도록 할 수 있다. 다만, 0.5는 실시예일 뿐이며 다른 수치로도 적용 가능하다. Accuracy calculation in object detection may be performed by comparing the correct answer (Ground Truth, GT) with the prediction result predicted by the test program (Predeciton). When the correct answer (GT) and the prediction result (Prediction) match 100%, the IOU value can have 1, and when the IOU value is 0.5 or more, it can be recognized as the correct answer. However, 0.5 is only an example and can be applied to other numerical values.

예를 들어, 도 4b에 도시한 바와 같이, 2개의 바운딩 박스를 비교할 수 있는데, 오브젝트의 타입이 일치하고 IOU 계산 결과가 0.5 이상이면 해당 오브젝트는 정인식된 것으로 판별할 수 있다. For example, as shown in FIG. 4B , two bounding boxes can be compared. If the types of objects match and the IOU calculation result is 0.5 or more, the corresponding object can be determined to be correctly recognized.

실시예에 따르면, 바운딩 박스 뿐 아니라 Polygon 형태로 인식된 오브젝트의 경우에도 IOU를 적용할 수 있는데, 특히 오브젝트 중 Polyline 형태로 출력된 데이터를 비교 측정할 때 Polygon IOU를 이용할 수 있다. 도 4c에 도시한 바와 같이, 차선을 인식할 때, 데이터 표준 상 Polyline의 vertices가 입력되는데 이 vertices를 연결하여 Polygon을 생성할 수 있다. 그리고 기준 데이터와 결과 데이터의 Polygon이 겹치는 부분과 전체의 크기를 계산하여 Polygon의 IOU를 측정할 수 있다. According to the embodiment, the IOU can be applied not only to the bounding box but also to the object recognized in the polygon shape. In particular, the polygon IOU can be used when comparing and measuring data output in the polyline shape among the objects. As shown in FIG. 4C , when recognizing a lane, vertices of a polyline are input on a data standard, and a Polygon can be created by connecting these vertices. And the IOU of the polygon can be measured by calculating the size of the part where the polygons of the reference data and the result data overlap and the total size.

오인식의 경우는, 존재하지 않은 오브젝트를 인식한 것으로, 기준 데이터에는 포함되지 않는 오브젝트 정보가 결과 데이터에서 오브젝트 좌표 정보나 오브젝트 타입 등의 정보를 출력하는 경우 오인식으로 분류할 수 있다. In the case of misrecognition, an object that does not exist is recognized, and when object information not included in the reference data outputs information such as object coordinate information or object type from the result data, it can be classified as misrecognition.

미인식의 경우는, 오브젝트가 존재하지만 이를 인식하지 못한 것으로, 프레임 내에 인식해야하는 오브젝트가 존재함에도 결과 데이터에서 해당 오브젝트의 정보를 출력하지 않은 경우, 또는 오브젝트를 인식하여 정보를 출력하였음에도 오류가 발생하여 오브젝트의 타입이 불일치한다거나 IOU 수치가 임계치 미만인 경우에 미인식으로 분류할 수 있다. In the case of unrecognized, an object exists but it is not recognized, and an error occurs even though the object information is not output in the result data even though there is an object to be recognized in the frame, or even though the object is recognized and information is output. It can be classified as unrecognized when the type of object does not match or the number of IOUs is less than a threshold.

예를 들어, 도 4a를 참조하면, 점선이 기준 데이터의 오브젝트 좌표를 나타내는 바운딩 박스이고, 실선이 결과 데이터의 오브젝트 좌표를 나타내는 바운딩 박스이며, 여기서, 정인식, 미인식, 오인식은 다음과 같이 판별될 수 있다.For example, referring to FIG. 4A , the dotted line is a bounding box indicating the object coordinates of the reference data, and the solid line is a bounding box indicating the object coordinates of the result data. can

A가 Type = 차량이고 IoU가 0.5 이상일 경우 정인식이다. If A is Type = vehicle, and IoU is 0.5 or higher, it is correct recognition.

A가 Type ≠ 차량이거나 IoU가 0.5 미만일 경우 미인식이다. If A is Type ≠ vehicle or IoU is less than 0.5, it is not recognized.

B가 Type = Dotted Lane이고 IoU가 0.5 이상일 경우 정인식이다. If B is Type = Dotted Lane, and IoU is 0.5 or higher, it is correct.

B가 Type ≠ Dotted Lane이거나 IoU가 0.5 미만일 경우 미인식이다. If B is Type ≠ Dotted Lane or IoU is less than 0.5, it is not recognized.

C는 기준 데이터에 없는 오브젝트의 좌표를 결과 데이터에서 출력하고 있으므로 오인식이다. C is a misrecognition because the coordinates of objects not in the reference data are output from the result data.

D는 기준 데이터에 존재하는 오브젝트의 좌표를 결과 데이터에서 출력하지 못하고 있으므로 미인식이다.D is unrecognized because the coordinates of the object existing in the reference data cannot be output from the result data.

이하, 참고로 오브젝트 타입을 비교하는 방법에 대해 기술한다.Hereinafter, a method of comparing object types will be described for reference.

일반적으로 Object Detection에서 정확도의 계산은 주로 정답(Ground Truth, 이하 GT)과 모델이 예측한 결과(Prediction) 간의 비교를 통해 이루어진다. Object Detection에서 GT는 이미지의 각 object의 해당하는 Bounding Box와 Box 안의 class를 의미한다. 즉 정확도가 높다는 것은 모델이 GT와 유사한 Bounding Box를 예측(Regression)하면서 동시에 Box 안의 object의 class를 잘 예측(Classification)하는 것을 의미한다. 즉 class도 정확하게 예측하면서, 동시에 object의 영역까지 잘 예측을 해야 한다.In general, the calculation of accuracy in object detection is mainly performed through comparison between the correct answer (Ground Truth, hereinafter GT) and the result predicted by the model (Prediction). In object detection, GT means the corresponding bounding box of each object of the image and the class in the box. That is, high accuracy means that the model predicts (regression) the bounding box similar to GT and at the same time predicts the class of the object in the box well (classification). In other words, it is necessary to accurately predict the class and at the same time predict the area of the object well.

Object Detection에서 사용하는 정확도의 경우 Class를 예측하지 못하면 실패로 간주된다. Class를 올바르게 예측하였을 때의 Bounding Box의 정확도를 기준으로 정확도를 측정하게 된다. 본 발명에서도 마찬가지로 Class를 정확히 예측하지 못하면 인지 실패로 한다. 다만 본 발명에서는 Class란 용어대신 데이터 표준에 맞게 Object Type이란 이름으로 사용한다.In the case of accuracy used in object detection, if the class cannot be predicted, it is considered a failure. The accuracy is measured based on the accuracy of the bounding box when the class is correctly predicted. Similarly in the present invention, if the class is not accurately predicted, it is a cognitive failure. However, in the present invention, instead of the term "Class", the name "Object Type" is used according to the data standard.

이하, 도 5a 및 도 5b를 참조하여 실시예에 따른 오브젝트 검출 메트릭 및 테스트 프로그램의 성능 측정 방식에 대하여 기술한다. Hereinafter, an object detection metric and a performance measurement method of a test program according to an embodiment will be described with reference to FIGS. 5A and 5B .

기계 학습 분야의 통계적 분류 같은 문제에서 Confusion matrix 란 분류 알고리즘의 성능을 시각화 할 수 있는 표이며 도 5a는 이의 예시이다. 행렬의 각 행은 예측 된 클래스의 인스턴스를 나타내며 각 열은 실제 클래스의 인스턴스를 나타낸다(또는 그 반대). 이를 각 case별로 살펴보면 아래와 같다. In a problem such as statistical classification in the field of machine learning, a confusion matrix is a table that can visualize the performance of a classification algorithm, and FIG. 5A is an example thereof. Each row of the matrix represents an instance of the predicted class, and each column represents an instance of the actual class (or vice versa). A look at this for each case is as follows.

True Positive(TP): 실제 True인 정답을 True라고 예측 (정답)True Positive (TP): Predicting a true answer as true (correct answer)

False Positive(FP): 실제 False인 정답을 True라고 예측 (오답)False Positive (FP): Predicting a true false answer as true (wrong answer)

False Negative(FN): 실제 True인 정답을 False라고 예측 (오답)False Negative (FN): Predict a true true answer as False (wrong answer)

True Negative(TN): 실제 False인 정답을 False라고 예측 (정답)True Negative (TN): Predicting a correct answer that is actually False as False (correct answer)

본 발명의 테스트 프로그램에 전술한 Confusion matrix를 적용하면 아래와 같이 정의될 수 있다.When the above-described confusion matrix is applied to the test program of the present invention, it can be defined as follows.

True Positive - 실제 존재하는 object를 인지함 (정인식)True Positive - Recognizes an object that actually exists.

False Positive - 실제 존재하지 않는 object를 인지함 (오인식)False Positive - Recognizes an object that does not actually exist (misrecognition)

False Negative - 실제 존재하는 object를 인지하지 않음 (미인식)False Negative - Does not recognize an actual object (unrecognized)

True Negative - 실제 존재하지 않는 object를 인지하지 않음 (Don't care)True Negative - Does not recognize objects that do not actually exist (Don't care)

위의 네 가지 인지 여부를 가지고 Precision, Recall, Average Precision등의 지표들을 계산해서 성능을 측정한다.Performance is measured by calculating indices such as Precision, Recall, and Average Precision based on the above four perceptions.

가. Precision (정밀도)go. Precision

정밀도는 Object를 인지한 (좌표를 출력한) 것 중에서 실제로 Object가 존재하는 것의 비율이다. 아래와 같은 식으로 표현할 수 있다. Precision is the ratio of objects that actually exist among recognized objects (output coordinates). It can be expressed in the following way.

Figure pat00001
Figure pat00001

본 발명에서는 결과지가 출력한 인지 결과 중 정인식인 것의 비율로 나타낼 수 있다. In the present invention, it can be expressed as a ratio of the recognition results output by the result sheet that are genuine recognition.

나. Recall (재현율)me. Recall (recall rate)

재현율은 실제 존재하는 Object 중에서 결과지도 존재한다고 인지한 것의 비율이다. 아래와 같은 식으로 표현할 수 있다. Recall is the ratio of the perceived existence of the result map among the actually existing objects. It can be expressed in the following way.

Figure pat00002
Figure pat00002

본 발명에서는 정답지에 출력된 인지 결과(인지 대상 객체) 중 정답지가 인지한 것(정인식)의 비율로 나타낼 수 있다. In the present invention, it can be expressed as a ratio of the recognition results (recognition target object) outputted on the correct answer sheet (correct recognition) recognized by the correct answer sheet.

Precision와 Recall은 알고리즘의 파라미터 조절에 따라 유동적으로 변하는 값이다. 가령 오인식의 비율을 줄이기 위해 확실히 인지된 것만 결과지로 출력한다면 Precision은 1에 가까워진다. 반대로 모든 좌표에 대해 결과를 출력한다면 미인식이 없어지므로 Recall이 1이 되게 된다. 따라서 Precision과 Recall은 반비례 관계를 갖게 되며, 테스트 프로그램의 성능을 제대로 비교하기 위해서는 precision과 recall의 성능변화 전체를 살펴봐야 한다. 이때 사용하는 개념이 Average Precision(AP)이다. Average precision은 인식 알고리즘의 성능을 하나의 값으로 표현한 것이다. Average precision이 높으면 높을수록 그 알고리즘의 성능이 전체적으로 우수하다는 의미이다. 컴퓨터 비전 분야에서 물체인식 알고리즘의 성능은 대부분 average precision으로 평가한다.Precision and Recall are values that change dynamically according to the parameter adjustment of the algorithm. For example, in order to reduce the rate of misrecognition, if only clearly recognized results are outputted, the precision is close to 1. Conversely, if the result is output for all coordinates, the Recall becomes 1 because there is no recognition. Therefore, precision and recall have an inverse relationship, and in order to properly compare the performance of the test program, it is necessary to look at the entire performance change of precision and recall. The concept used here is Average Precision (AP). Average precision expresses the performance of the recognition algorithm as a single value. The higher the average precision, the better the overall performance of the algorithm. In the field of computer vision, the performance of object recognition algorithms is mostly evaluated with average precision.

도 5b의 그래프처럼 Average Precision의 계산은 Recall을 0부터 0.1 단위로 증가시켜서 1까지(0, 0.1, 0.2,…, 1) 증가시킬 때 필연적으로 Precision이 감소하는데, 각 단위마다 Precision 값을 계산하여 평균을 내어 계산한다. 즉 11 가지의 Recall 값에 따른 Precision 값들의 평균이 AP를 의미한다. 이렇게 전체 Class에 대해 AP를 계산하여 평균을 낸 값이 mean Average Precision(mAP)이다. 1개의 object당 1개의 AP 값을 구하고, 여러 object-detector 에 대해서 mean 값을 구한 것이 mAP 이다. As in the graph of Figure 5b, the calculation of Average Precision inevitably decreases the precision when the Recall is increased from 0 to 0.1 unit and increased to 1 (0, 0.1, 0.2, ..., 1). By calculating the Precision value for each unit, Calculate by averaging That is, the average of the precision values according to the 11 recall values means the AP. In this way, the average value obtained by calculating the AP for the entire class is the mean average precision (mAP). mAP is obtained by obtaining one AP value per one object and obtaining the mean value for several object-detectors.

본 발명에서도 기준 데이터와 결과 데이터 비교를 통해 mAP는 측정이 가능하다. 기준 데이터와 결과 데이터의 객체 인지 결과를 IOU와 Class (Type)을 비교 측정함으로써 해당 object의 인지 여부 등을 판정가능하고 그 결과에 대한 지표로 mAP를 계산해서 성능 측정 지표로 삼을 수 있다. 다만, 여타의 객체 인식 과는 다르게 본 발명은 특히 차량의 자율 주행 상황을 인지하기 위한 테스트 프로그램을 검증해야 한다. 주행 상황이라는 특수성을 반영해야 하기 때문에 mAP와 같은 측정 지표 외에 더 고려해야 할 사항이 있다. Also in the present invention, the mAP can be measured by comparing the reference data and the result data. By comparing and measuring the object recognition result of the reference data and the result data with the IOU and Class (Type), it is possible to determine whether the object is recognized or not, and it can be used as a performance measurement index by calculating the mAP as an index for the result. However, unlike other object recognition, in the present invention, in particular, a test program for recognizing the autonomous driving situation of a vehicle needs to be verified. Since the specificity of the driving situation must be reflected, there are other factors to consider besides metrics such as mAP.

이를 고려하여, 전술한 바와 같이, 본 발명의 실시예에 따른 검증 데이터 출력부(140)는 기준 데이터에 포함되는 오브젝트 인식 여부 이외에도 오브젝트의 타입, 오브젝트의 거리, 및 오브젝트의 속도 정보 중 적어도 하나에 기초하여 검증 데이터를 출력할 수 있다. In consideration of this, as described above, the verification data output unit 140 according to an embodiment of the present invention provides information on at least one of the type of object, the distance of the object, and the speed of the object in addition to whether the object included in the reference data is recognized. Based on the verification data can be output.

1) 구체적으로, 오브젝트의 타입 정보는 아래와 같이 기술될 수 있다. One) Specifically, the type information of the object may be described as follows.

일반적으로 자율 주행 중 교통 사고 발생은 보행자가 차량보다 더 위험할 수 있으므로, 오브젝트의 타입까지 고려하여 테스트 프로그램의 인지 평가 결과가 달라지면 오브젝트 검출의 정확도가 높아지게 된다.In general, since the occurrence of a traffic accident during autonomous driving may be more dangerous for a pedestrian than a vehicle, if the cognitive evaluation result of the test program is changed in consideration of the type of object, the accuracy of object detection increases.

2) 구체적으로, 오브젝트의 거리 정보는 아래와 같이 기술될 수 있다.2) Specifically, the distance information of the object may be described as follows.

본 발명에서 테스트 프로그램을 검증하기 위해 취득한 데이터는 카메라 영상만이 아니라 Lidar, Radar, 초음파 센서 등 각종 센서 데이터를 포함한다. 이 센서 데이터들을 각각의 영상 frame에 synchronization하면 (이하 sensor fusion) 영상 frame안의 객체들에 대한 거리 정도를 알 수 있게 된다. Annotation 과정에서 이 거리 정보들을 객체에 속성값으로 지정해주면 기준 데이터에서 차량과 각 객체 사이의 거리 정보를 가지고 있게 된다. In the present invention, the data acquired to verify the test program includes not only camera images but also various sensor data such as lidar, radar, and ultrasonic sensors. By synchronizing these sensor data to each image frame (hereinafter, sensor fusion), it is possible to know the degree of distance to the objects in the image frame. If this distance information is assigned to an object as an attribute value during the annotation process, the reference data has distance information between the vehicle and each object.

주행 상황 인지 테스트 프로그램 평가에서 차량과 객체간의 거리를 감안해야 하는 이유는 두 가지 이다. 먼저 최대 인식 거리를 정해야 한다. 카메라 영상에는 취득 조건이나 환경에 따라 거리가 너무 멀거나 다른 객체에 가려져서 작게 보이는 객체 등이 있을 수 있는데 이러한 객체들도 인지 대상으로 (인지 테스트 프로그램 평가의 성능 측정 대상으로) 하기는 어렵다. 따라서 우선 인지 대상으로 하고자 하는 객체의 최대 거리를 정해야 한다. 다만 인지 테스트 프로그램 검증에 대한 국제 표준이 제정된 것이 없으므로 ADAS시스템의 개별 국제 표준 등의 자료를 참고하여 기준을 세울 수 있다.There are two reasons to consider the distance between the vehicle and the object in the evaluation of the driving situation awareness test program. First, you need to determine the maximum recognition distance. Depending on the acquisition conditions or environment, there may be objects that are too far away or appear small because they are obscured by other objects. Therefore, first, the maximum distance of the object to be recognized should be determined. However, since no international standard for cognitive test program verification has been established, standards can be established by referring to data such as individual international standards of the ADAS system.

먼저 Adaptive Cruise Control System에 대한 표준 (ISO 15622)을 참고하면 ACC 방식 중 전방 차량 추종에 대해서 직선 도로에서의 탐지 범위가 규정되어있다.First, referring to the standard for Adaptive Cruise Control System (ISO 15622), the detection range on a straight road for following vehicle in the ACC method is stipulated.

도 6a를 참조하면, 직선 도로에서 전방 차량에 대한 distance_max는 100m로 설정되어있다. Referring to FIG. 6A , distance_max for the vehicle in front on a straight road is set to 100m.

또한 교통공학상 정지거리 계산법 등을 참고할 수 있다.Also, reference can be made to the method of calculating the stopping distance in traffic engineering.

도 6b는 교통공학상 제동거리와 공주거리를 포함한 정지거리를 구하는 방식을 보여준다. 100km/h(27.8m/s)의 속도로 주행하는 차량이 전방에 위험인자를 발견하여 제동을 하였을 때, 공주거리와 제동거리에 운전자 반응시간을 더한 안전거리는 100m가 된다. 자율 주행의 특성상 운전자 반응시간은 제외될 수 있는 인자이나 SAE Level3 정도를 대상으로 함을 고려하면 위 계산상 @(반응시간)도 포함됨이 타당하다. 현행 교통법상 고속도로에서의 100km/h속도 제한을 지킨다고 전제하고 최대 제동거리를 100m로 적용한다. 따라서 본 과제에서 인지 대상으로 하는 객체의 최대거리는 취득 차량으로부터 100m이다. Figure 6b shows a method of obtaining the stopping distance including the braking distance and the gonggong distance in terms of traffic engineering. When a vehicle traveling at a speed of 100 km/h (27.8 m/s) detects a risk factor in front and brakes, the safe distance is 100 m by adding the driver's reaction time to the idle distance and braking distance. Driver reaction time is a factor that can be excluded due to the nature of autonomous driving, but considering that SAE Level 3 is targeted, it is reasonable to include @ (reaction time) in the above calculation. Under the current traffic law, it is assumed that the speed limit of 100 km/h on highways is observed, and the maximum braking distance is applied to 100 m. Therefore, the maximum distance of the object to be recognized in this task is 100m from the acquisition vehicle.

인지 대상의 최대거리 외에도 인지 대상과 취득 차량간의 거리도 인지SW 평가의 고려대상이다. Type에서 고려한 것과 마찬가지로 취득 차량과 인지대상 객체와의 거리는 자율주행 차량의 사고에 영향을 줄 수 있는 요인이기 때문이다. 가령 하나의 영상 frame에 두 개의 인지대상 객체 (차량)이 있는데 하나는 취득차량으로부터 20m, 하나는 취득차량으로부터 60m 떨어져있다면 기존의 mAP계산처럼 동일한 수준으로 취급할 순 없다. Sensor fusion을 전제로 한다면 각 객체의 거리를 이용해 거리에 따라 인지 결과를 다르게 평가하는 것이 필요하다.In addition to the maximum distance of the perceived object, the distance between the perceived object and the acquired vehicle is also a consideration in the cognitive SW evaluation. This is because, as considered in Type, the distance between the acquisition vehicle and the object to be recognized is a factor that can affect the accident of an autonomous vehicle. For example, if there are two recognition target objects (vehicles) in one image frame, one is 20m away from the acquisition vehicle and the other is 60m away from the acquisition vehicle, it cannot be treated at the same level as in the existing mAP calculation. Assuming sensor fusion, it is necessary to evaluate the cognitive result differently according to the distance using the distance of each object.

3) 구체적으로, 오브젝트의 속도 정보는 아래와 같이 기술될 수 있다.3) Specifically, the speed information of the object may be described as follows.

주행 상황을 전제로 하는 인지 SW의 평가이기 때문에 차량의 속도는 평가에Since it is an evaluation of cognitive SW based on the driving situation, the speed of the vehicle cannot be evaluated.

고려해야 하는 중요한 지표이다. 인지 SW평가에 필요한 속도 관련 지표는 차량의 속도와 인지 대상 객체와의 상대 속도이다. This is an important indicator to consider. The speed-related index required for cognitive SW evaluation is the speed of the vehicle and the relative speed of the object to be recognized.

본 발명에서 인지SW를 검증하기 위해 취득하는 데이터에는 취득 차량의 CAN 정보도 포함되어 있다. CAN 정보를 통해 취득 당시 차량의 속도를 알 수 있다. CAN 정보를 통해 속도가 입력된다는 점, 도로교통법상 최대 속도가 규정되어있다는 점을 종합하여 주행상 취득차량의 속도를 감안한 평가 지표를 수립하는 것이 필요하다.In the present invention, the data acquired to verify the cognitive SW also includes CAN information of the acquired vehicle. Through CAN information, it is possible to know the speed of the vehicle at the time of acquisition. It is necessary to establish an evaluation index that takes into account the speed of the vehicle acquired while driving, taking into account the fact that the speed is input through CAN information and that the maximum speed is stipulated in the Road Traffic Act.

본 발명에서, 취득차량의 속도보다 더 중요하게 참고해야 하는 지표는 인지대상 객체와의 상대 속도(Relative Velocity) 이다. 상대속도는 물체 A, B가 운동하고 있을 때 A와 함께 운동하고 있는 관측자가 B의 운동을 보았을 때의 속도이다. 한 좌표계에서 A 물체의 속도를

Figure pat00003
라 하고, B 물체의 속도를
Figure pat00004
라고 할 때, A가 측정한 B의 속도(A에 대한 B의 상대속도)는 In the present invention, an index to be referred to more important than the speed of the acquisition vehicle is the relative velocity with the recognition target object. Relative velocity is the velocity at which an observer moving with A sees the motion of B when objects A and B are in motion. The velocity of object A in one coordinate system
Figure pat00003
, and the velocity of object B is
Figure pat00004
, the speed of B measured by A (relative speed of B with respect to A) is

Figure pat00005
이다.
Figure pat00005
am.

본 발명에서 필요로 하는 상대 속도는 취득 차량을 기준으로 한 인지 대상 객체의 상대 속도이다. 예를 들어 50km/h로 주행 중인 차량에서 취득한 frame에 동일한 거리만큼 떨어진 두 개의 인지대상 차량이 있는데, 한대의 상대속도는 50 km/h이고 다른 한대의 상대속도는 -50km/h라면 전자의 차량은 취득차량보다 50km/h 빠르게 (100km/h 의 속도로) 주행중인 차량인 것이고, 후자의 차량은 50km/h 느린 (0km/h의 속도이므로 정지 중) 상태이다. 전자의 인지 객체는 다음 frame으로 넘어갈수록 멀어질 것이지만, 후자의 객체는 점점 가까워 질 것이다. 이 경우 두 객체를 같은 수준으로 취급한다면 이는 정확도가 떨어지는 데이터가 될 것이다. 따라서, 각 객체와의 상대속도가 측정이 가능하고, sensor fusion을 통해 그 데이터를 가지고 있다는 전제에서는 위와 같은 상대 속도도 평가에 고려대상이 된다. The relative speed required in the present invention is the relative speed of the object to be recognized with respect to the acquisition vehicle. For example, if there are two recognition target vehicles that are the same distance apart in the frame acquired from a vehicle traveling at 50 km/h, and one has a relative speed of 50 km/h and the other has a relative speed of -50 km/h, the former vehicle is a vehicle running 50 km/h faster (100 km/h speed) than the acquired vehicle, and the latter vehicle is 50 km/h slower (stopped due to 0 km/h speed). The former perception object will move away from it as it goes to the next frame, but the latter object will get closer and closer. In this case, if the two objects are treated at the same level, the data will be inaccurate. Therefore, on the premise that the relative speed with each object can be measured and the data is obtained through sensor fusion, the above relative speed is also considered for evaluation.

본 발명의 실시예에 따른 검증 데이터 출력부(140)는 오브젝트의 타입, 오브젝트의 거리, 및 오브젝트의 속도 정보 중 적어도 하나에 가중치 정보를 부여하여 검증 데이터를 산출할 수 있다. The verification data output unit 140 according to an embodiment of the present invention may calculate verification data by assigning weight information to at least one of an object type, an object distance, and an object speed information.

1) 구체적으로, 오브젝트의 타입을 반영한 가중치는 아래와 같이 기술된다. One) Specifically, the weight reflecting the type of object is described as follows.

특정 frame에서 거리 등 나머지 조건이 동일한 상황에서 서로 다른 type의 두 객체가 있을 때, 두 객체 사이에 어느 정도의 중요도 차이를 줄 것인가가 Type별 가중치를 결정하는 방법이다. 인지 객체 속성에 대한 표준상의 Object 분류에 따라 Type 별 가중치를 도 7a와 같이 부여하였다. 본 발명에서는, 객체 속성 중 보행자와 차량만을 중심으로 중요도를 선정하였는데, Type별로 차이가 아주 크지 않게 설정한 것은 가중치를 부여할 다른 지표들과의 계산을 거쳤을 때 점수 역전 현상 등을 방지 하기 위한 것이다.When there are two objects of different types in a situation where the remaining conditions such as distance are the same in a specific frame, how much difference in importance will be given between the two objects is the method to determine the weight for each type. According to the standard object classification for cognitive object properties, weights for each type were assigned as shown in FIG. 7A. In the present invention, the importance was selected based on only pedestrians and vehicles among the object properties, but the difference in each type was set to prevent a score reversal when calculating with other indicators to be weighted. will be.

차량보다 보행자가 중요도가 높은 이유는 차 대 사람의 교통사고에서의 보행자가 차 대 차의 교통사고의 탑승자보다 높은 사망률을 보이기 때문이다. 동일 조건 두 객체의 Type 차이로 인한 가중치는 이처럼 두 객체 사이에 중요도에 따른 차이를 주는 정도에서 가중치를 선정할 수 있다.The reason that pedestrians are more important than vehicles is that pedestrians in car-to-person traffic accidents have a higher mortality rate than occupants in car-to-vehicle accidents. The weight due to the difference in the type of two objects under the same condition can be selected in such a way that the difference in importance is given between the two objects.

2) 구체적으로, 오브젝트의 거리를 반영한 가중치는 아래와 같이 기술된다.2) Specifically, the weight reflecting the distance of the object is described as follows.

인지 SW 평가 시에 고려하는 거리는 취득 차량과 인지대상 객체간의 거리이다. 객체와 취득차량 사이의 거리가 가까울수록 주행상황에서 해당 객체와의 사고발생 가능성이 더 높아지기 때문에 취득 영상의 프레임에서 상대적으로 더 가까운 거리에 있는 객체는 가중치를 부여한다. 본 발명에서 인지 대상 객체의 최장거리는 100m로 설정하였으므로 100m 안쪽에서 20m 세분하여 가중치 구간을 만들어 더 가까울수록 가중치가 높아지게 설정하였다(도 7b). 각 구간 내에서의 가중치는 Interpolation하여 반영한다.The distance considered when evaluating the cognitive SW is the distance between the acquisition vehicle and the object to be recognized. The closer the distance between the object and the acquisition vehicle, the higher the probability of an accident with the object in the driving situation. In the present invention, since the longest distance of the object to be recognized is set to 100 m, a weight section is made by subdividing it by 20 m inside 100 m, and the weight is set to increase as the distance increases (FIG. 7b). The weights within each section are reflected by interpolation.

거리 별 가중치는 인지 대상 객체의 거리가 가까울수록 높은 가중치를 부여함으로써 사고 유발 가능성이 높은 객체는 더 엄격하게 평가하겠다는 평가 방식에는 적합하긴 하나 자율 주행 상황임을 감안했을 때 차량의 속도 정보까지 고려해야 할 필요도 있다. 따라서 본 발명에서는 이러한 거리 지표에 속도 지표를 합친 TTC(time to collision)을 평가 지표로 활용한다.The weight for each distance is suitable for the evaluation method in which a higher weight is given as the distance of the object to be recognized is closer, so that the object with a high probability of causing an accident is evaluated more strictly, but considering the autonomous driving situation, it is necessary to consider the vehicle speed there is also Therefore, in the present invention, time to collision (TTC), which is a combination of the distance index and the speed index, is used as an evaluation index.

3) 구체적으로, 오브젝트의 속도 정보를 반영한 가중치는 아래와 같이 기술된다.3) Specifically, the weight reflecting the speed information of the object is described as follows.

TTC(Time to collision)란 차량간 충돌까지 남은 시간을 뜻하는데, 현재는 FCW (Forward Collision Warning 전방추돌경보)나 AEB(Autonomous Emergency Braking 자동긴급제동) 등의 기능에서 사용되고 있다. TTC는 상대 거리를 상대 속도로 나누어 계산한다. 전방 차량과의 거리를 D, 차량 주행속도를 Vr, 전방 차량의 속도를 Vf라 하면 추돌 예상 시간은 T = D / (Vr - Vf) 이 된다. FCW나 AEB에 쓰이는 TTC는 주행차량과 동일한 차선에 있는 차량을 대상으로 하므로 상대속도와 상대거리 그리고 TTC의 계산이 위와 같이 간단하게 이루어진다. 그러나 본 발명에서는 전방 추돌뿐만 아니라 주변 차선에서의 변경이나 주차장에서의 횡단 차량, 교차로에서의 충돌의 경우에도 적용할 수 있도록 범위가 다른 지표가 필요하다. 따라서 동일 차선이 아니더라도 사용할 수 있도록 TTC를 2차원 공간상에서 사용 가능하도록 확장할 수 있다.Time to collision (TTC) refers to the time remaining until a collision between vehicles, and is currently used in functions such as Forward Collision Warning (FCW) and Autonomous Emergency Braking (AEB). TTC is calculated by dividing the relative distance by the relative speed. If the distance from the vehicle ahead is D, the vehicle traveling speed is Vr, and the speed of the vehicle in front is Vf, then the expected collision time is T = D / (Vr - Vf). The TTC used for FCW or AEB targets a vehicle in the same lane as the driving vehicle, so the calculation of relative speed, relative distance, and TTC is performed simply as above. However, in the present invention, an index having a different range is required to be applicable not only to a front collision, but also to a change in a surrounding lane, a vehicle crossing in a parking lot, or a collision at an intersection. Therefore, it is possible to extend the TTC so that it can be used in a two-dimensional space so that it can be used even if it is not in the same lane.

도 7c는 상대거리와 상대속도의 개념도를 나타낸다.7C shows a conceptual diagram of a relative distance and a relative speed.

도 7c에 도시한 바와 같이, 동일 차선이 아닌 위치에 있는 상대 차량(혹은 객체)에 대해서 상대 거리와 상대 속도를 측정하여 TTC를 계산할 필요가 있다. As shown in FIG. 7C , it is necessary to calculate the TTC by measuring the relative distance and relative speed with respect to the other vehicle (or object) located in a position other than the same lane.

도 7c를 기준으로 상대거리와 상대 속도는 다음과 같이 나타낼 수 있다. 7c, the relative distance and the relative speed can be expressed as follows.

Figure pat00006
Figure pat00006

위 상대 거리와 상대 속도를 이용한 TTC의 계산식은 아래와 같다. The formula for calculating TTC using the above relative distance and relative speed is as follows.

Figure pat00007
Figure pat00007

Sensor fusion을 통해 취득된 데이터에서 필요한 위 값들을 산출해내고, 인지 대상 객체가 차량이거나 보행자 등 Moving Object일 경우에는 취득차량과 인지 대상 객체와의 TTC까지 계산하여 기준 데이터에 포함한다. 즉, 기준 데이터 JSON에는 인지 대상 객체의 type, 좌표 만이 아니라 최소한 상대 거리, 속도 (혹은 TTC)가 포함되도록 구현할 수 있다.The above values are calculated from the data acquired through sensor fusion, and if the recognition target object is a vehicle or a moving object such as a pedestrian, the TTC between the acquired vehicle and the recognition target object is calculated and included in the reference data. That is, the reference data JSON can be implemented to include at least the relative distance and speed (or TTC) as well as the type and coordinates of the object to be recognized.

비교 결과 평가 시에 인지 대상 객체가 정인식인지 미인식인지에 따라 성능 측정을 할 때, 이 TTC를 반영할 수 있다. 가령 인지 대상 객체가 이동 중인 자동차일 경우, 취득 차량과 해당 차량간의 TTC가 얼마인지에 따라 해당 객체의 중요도가 달라지게 되고, 평가 시에 가중치가 다르게 부여되는 방식이다. 본 발명에서 최대 인식거리로 정한 100m안에 인지 대상 객체 (차량)이 있을 때, 상대 속도에 따른 TTC 계산은 도 7d와 같다.This TTC can be reflected when performance is measured according to whether the recognition target object is authentic or unrecognized when evaluating the comparison result. For example, if the object to be recognized is a moving vehicle, the importance of the object varies depending on the TTC between the acquired vehicle and the vehicle, and different weights are given during evaluation. In the present invention, when there is a recognition target object (vehicle) within 100 m determined as the maximum recognition distance, the TTC calculation according to the relative speed is as shown in FIG. 7D.

상대 속도가 100km/h 라는 것은 취득 차량이 고속도로 최고 속도 100km/h로 주행하고 있을 때, 상대 차량이 정지해있는 경우에 해당 차량과의 상대속도는 100km/h (27.78m/s)가 되고, 이 경우 TTC는 두 차량간의 거리에서 상대속도를 나누어서 계산할 수 있다. 같은 방식으로 일반도로에서 나올 수 있는 최대 상대속도인 60km/h(16.67m/s)로도 TTC를 계산 할 수 있다.If the relative speed is 100 km/h, the relative speed with the vehicle is 100 km/h (27.78 m/s) when the vehicle is traveling at the maximum speed of 100 km/h on the highway and the other vehicle is stopped, In this case, TTC can be calculated by dividing the relative speed by the distance between the two vehicles. In the same way, the TTC can also be calculated from the maximum relative speed that can come out of a general road, 60 km/h (16.67 m/s).

위와 같은 방식으로 계산된 TTC를 특정 조건에 따라 경계를 나누어서 가중치를 도 7e와 같이 부여하였다. 맨 우측의 가중치가 현재 시뮬레이션 툴에 적용한 방식이고 지속적인 테스트를 통해 최종 값은 변경 될 수 있다. The TTC calculated in the above manner was assigned a weight as shown in FIG. 7E by dividing the boundary according to specific conditions. The weight on the far right is the method applied to the current simulation tool, and the final value can be changed through continuous testing.

TTC가 0s 이하인 것은 이미 충돌한 상황이므로 별도의 가중치가 없다. 각각의 경계를 1.6초, 3.6초, 6.0초로 하여 TTC가 해당 극간에 포함되어 있으면 오른쪽과 같은 가중치를 부여한다. 문턱 값은 1.6초 3.6초 6초로 설정된 것은 TTC에 따른 위험 발생률에 따른 것이다.If TTC is 0s or less, there is no weight because it has already collided. Each boundary is set to 1.6 sec, 3.6 sec, and 6.0 sec, and if TTC is included in the corresponding pole, the same weight as on the right is given. The threshold value set to 1.6 sec 3.6 sec 6 sec is according to the risk occurrence rate according to the TTC.

그 다음 3.6초와 6.0초의 경계는 앞에서 설명한 것처럼 고속도로 최고속도, 일반도로 최고속도기준인 100km/h(27.78m/s)와 60km/h(16.67m/s)로 상대속도가 측정될 때, 최대 거리인 100m를 기준으로 계산되는 TTC를 기준으로 삼았다. TTC가 6.0초를 넘는 경우에는 자율주행 상황에서 사실상 충돌 가능성이 낮은 것으로 보아 그 가중치를 가장 낮게 결정하였다. 각각의 구간에 TTC가 해당할 때마다 해당 object의 정인식 여부는 가중치를 반영하여 평가하게 된다. Then, the boundary between 3.6 seconds and 6.0 seconds is as described above, when the relative speed is measured as the highway maximum speed and general road maximum speed standards of 100 km/h (27.78 m/s) and 60 km/h (16.67 m/s), the maximum The TTC, which is calculated based on the distance of 100m, was taken as the standard. When the TTC exceeds 6.0 seconds, the weight was determined to be the lowest, considering that the probability of a collision in the autonomous driving situation was low. Whenever TTC corresponds to each section, whether the object is properly recognized is evaluated by reflecting the weight.

또한 각각의 구간 내에서의 가중치는 Interpolation하여 같은 구간 내라 하더라도 TTC 정도에 따라 가중치가 차등하여 적용될 수 있도록 한다. In addition, the weights within each section are interpolated so that the weights can be differentially applied according to the degree of TTC even within the same section.

만약 Sensor Fusion을 통해 취득되는 데이터 중 상대 속도 부분이 정확히 산출 되지 않아 TTC 계산이 어렵게 되면, 거리 가중치를 대신 반영하여 평가할 수도 있다. If the TTC calculation is difficult because the relative speed part of the data acquired through Sensor Fusion is not accurately calculated, the distance weight may be reflected instead for evaluation.

본 발명의 실시예에 따른 검증 데이터 출력부(140)는 오브젝트의 타입, 오브젝트의 거리, 및 오브젝트의 속도 정보 중 적어도 하나에 가중치 정보를 부여하여 검증 데이터를 산출할 수 있음은 전술한 바와 같다. 이하에서는, 가중치를 부여하여 검증 데이터를 산출하는 계산 예를 기술한다. As described above, the verification data output unit 140 according to an embodiment of the present invention can calculate the verification data by giving weight information to at least one of the object type, the object distance, and the object speed information. Hereinafter, a calculation example of calculating the verification data by assigning weights will be described.

인지 대상 객체의 Type, TTC 가중치가 적용된 경우 객체 인지 점수는 아래와 같다. When the type and TTC weight of the object to be recognized is applied, the object recognition score is as follows.

수학식 1: 객체 인지 점수 = 1 * (type 가중치) * (TTC 가중치) Equation 1: Object recognition score = 1 * (type weight) * (TTC weight)

객체 인지 점수는 객체 인지가 정인식이면 +되고, 미인식이면 0점이 된다. The object recognition score is + if object recognition is positive, and 0 if not recognized.

가령 ① 특정 프레임에 3개의 인지 대상 객체(차량, TTC가중치는 1로 가정)가 있는데, 2개는 정인식이고 1개가 미인식이면, 객체당 점수는 1*2(Type: 차량)*1(TTC) = 2 점이 되고, 해당 프레임의 점수는 4/6점(분자에는 인식된 객체의 인지 점수만 반영함, 미인식된 객체의 인지 점수는 0으로 산정)(분모에는 미인식된 객체의 인지 점수까지 반영함, 미인식된 객체라도 1*2*1로 계산), 이를 100점 만점으로 환산해서 66.67 점이 된다. For example, ① If there are 3 recognition target objects (vehicle, TTC weight is assumed to be 1) in a specific frame, 2 are positive and 1 is unrecognized, the score per object is 1*2(Type: vehicle)*1(TTC) ) = 2 points, and the score of the frame is 4/6 (only the recognition score of the recognized object is reflected in the numerator, the recognition score of the unrecognized object is calculated as 0) up to, count as 1*2*1 even for unrecognized objects).

② ①의 예에서 TTC가중치가 다르면(미인식 객체의 TTC만 1.5초인 것으로 가정) 미인식 객체의 점수는 1*2(type: 차량)*30(TTC가중치) = 60이 되고 해당 프레임의 점수는 4/64, 이를 100점 만점으로 환산해서 6.25점이 된다. 이 예시의 상황은 TTC가 1.6초 이하인 고위험 객체의 인식에는 실패했으나 덜 중요한 객체 2개는 인지가 된 상태이기 때문에 가중치를 적용하여 낮은 성능평가가 되도록 한 것이다. ② In the example of ①, if the TTC weight is different (only the TTC of the unrecognized object is assumed to be 1.5 seconds), the score of the unrecognized object is 1*2(type: vehicle)*30(TTC weight) = 60, and the score of the frame is 4/64, which is converted to a score of 100 points, is 6.25 points. The situation in this example failed to recognize a high-risk object with a TTC of 1.6 seconds or less, but two less important objects were recognized.

③ ②의 예에서 미인식 객체(TTC 1.5초)가 Type이 사람일 경우에 점수는 1*3(type: 사람)*30(TTC가중치) = 90이 되고 해당 프레임의 점수는 4/94, 환산해서 100점 만점에 4.25점이 된다. 똑같이 고위험 객체이더라도 Type이 사람일 경우엔 더 낮은 성능평가가 되도록 한 것이다. ③ In the example of ②, if the type of unrecognized object (TTC 1.5 seconds) is human, the score is 1*3(type: person)*30(TTC weight) = 90, and the score of the frame is 4/94, converted This gives a score of 4.25 out of 100. Even if it is a high-risk object, if the Type is human, the performance evaluation is lower.

객체 미인식의 경우에 위와 같이 성능평가가 가능하나 위의 객체 인지 점수에 가중치를 주는 방식으로는 오인식을 처리하지 못하는 문제가 있다. 기준 데이터의 객체를 기준으로 가중치를 반영한 객체 별 점수를 산정하고, 해당 객체를 인지 못할 경우 점수를 깎아나가는 방식이기 때문에 기준 데이터에 존재하지 않는 객체를 오인식해서 결과 데이터에 출력했을 경우에 성능 측정 방식이 추가로 필요하다. 오인식을 성능 평가하기 위해서 위 계산으로 나온 점수에 오인식률을 반영하는 방식을 이용할 수 있다. 결과 데이터에 포함된 출력 결과의 총수 대비 오인식 개수를 오인식률이라 하고 이를 수식에 반영할 때는 (1-오인식률)을 곱한다. 예를 들어 ④ 특정 프레임에 5개의 객체가 있는데 결과 데이터가 6개의 인지결과를 출력했고, 그 중에 4개가 정인식, 1개가 미인식일 경우, 가중치를 통해 계산한 객체 인지 점수에 (1-오인식률)인 5/6을 곱하는 방식이다. 미인식된 한 개의 객체에 대한 점수는 위 ①②③과 같은 방식으로 계산 될 것이고, 1개의 오인식에 대한 성능 평가 결과는 오인식률을 반영한 결과에 따라 더 낮아지게 될 것이다. 결과 데이터In the case of object unrecognition, performance evaluation is possible as above, but there is a problem in that misrecognition cannot be handled by weighting the above object recognition score. Since it is a method of calculating the score for each object that reflects the weight based on the object of the reference data, and deducting the score if the object is not recognized, it is a performance measurement method when an object that does not exist in the reference data is misrecognized and output to the result data I need this extra In order to evaluate the performance of the misrecognition, a method in which the misrecognition rate is reflected in the score obtained from the above calculation may be used. The number of false recognitions compared to the total number of output results included in the result data is called the false recognition rate, and when it is reflected in the formula, it is multiplied by (1 - false recognition rate). For example, ④ there are 5 objects in a specific frame, and the result data outputs 6 recognition results, and if 4 of them are correct and 1 is unrecognized, the object recognition score calculated through weight is (1 - false recognition rate) ) by 5/6. The score for one unrecognized object will be calculated in the same way as ①②③ above, and the performance evaluation result for one misrecognition will be lower according to the result reflecting the false recognition rate. result data

위와 같은 방식으로 frame 단위의 성능 평가 결과가 나오면, 이를 영상 단위에서는 이 프레임 점수들의 평균치로 성능 측정 한다. 최종적으로는 인지 알고리즘의 성능을 100점 만점 단위로 측정할 수 있다. If the performance evaluation result in frame unit is obtained in the same way as above, it is measured by the average value of these frame scores in the image unit. Finally, the performance of the cognitive algorithm can be measured on a scale of 100 points.

도 8a 및 도 8b는 전술한 기준 데이터와 결과 데이터의 비교를 통한 오브젝트 정인식, 미인식, 오인식 정보에 객체 인지 점수를 반영한 결과로 프레임 단위의 성능을 평가하기 위한 추가적인 예시를 나타낸다. 8A and 8B show additional examples for evaluating the performance of the frame unit as a result of reflecting the object recognition score in the object recognition, unrecognized, and misrecognized information through comparison of the aforementioned reference data and result data.

참고로, 정답지는 기준 데이터를 의미하고 결과지는 결과 데이터를 의미한다.For reference, the correct answer sheet refers to the reference data and the result sheet refers to the result data.

도 8a는 정답지에 대한 예시이다. 각 정답지 마다 3개의 객체를 가지고 있는 것으로 가정하고, 각 객체의 Type이 차량 혹은 사람으로 다른 경우와 TTC가 각각 다른 경우를 설정하였다. 이에 따라 각각의 결과지 별로 만점이 다르게 산정된다. 8A is an example of an answer sheet. It is assumed that there are 3 objects for each correct answer sheet, and the case where the type of each object is different (vehicle or person) and the case where the TTC is different were set. Accordingly, the perfect score is calculated differently for each result sheet.

도 8b는 위 정답지에 대해 알고리즘이 인지한 결과에 따라 평가 점수가 어떻게 다른지에 대한 내용이다. &는 IoU 수치를 나타내고 0.5 이상이어야 정인식이다. FIG. 8B shows how the evaluation score differs according to the result recognized by the algorithm for the above correct answer. & represents the IoU value and must be 0.5 or higher to be correct.

결과지 1은 3개의 객체에 대해 3개의 결과를 출력했고, 모두 정인식이므로 인지 점수가 만점이 된다. The result sheet 1 outputs 3 results for 3 objects, and since they are all authentic, the cognitive score is a perfect score.

결과지 2는 3개의 객체에 대해 3개의 결과를 출력했고, 그 중 A객체 대한 인식이 미인식이므로 해당 객체 점수를 감하여 인지 점수를 산정한다. Result sheet 2 outputs 3 results for 3 objects, and since the recognition of object A among them is unrecognized, the recognition score is calculated by subtracting the corresponding object score.

결과지 3은 3개의 객체에 대해 4개의 결과를 출력했고, 3개의 객체에 대해서는 정인식이지만 하나의 오인식이 포함되어 있다. 이때 A객체와 IoU가 계산된 결과는 X, W 두 개인데, X의 IoU가 W보다 높으므로 X가 A객체를 정인식한 것이고 W는 없는 객체에 대한 결과를 출력한 것이 되어 W가 오인식이 된다. 한 개의 객체에 두 개의 결과가 IoU를 출력하면 더 높은 IoU를 가지는 결과가 해당 객체를 인식한 것으로 본다. 따라서 정인식으로 계산된 점수에 (1-오인식률)인 3/4를 곱하여 인지 점수를 산정한다. Result Sheet 3 outputs 4 results for 3 objects, and 3 objects are correct, but one misrecognition is included. At this time, the result of calculating object A and IoU is X and W. Since the IoU of X is higher than W, X correctly recognizes object A, and W outputs the result for an object that does not exist, so W is misrecognized. . If two results on one object output IoU, the result with higher IoU is considered to have recognized the object. Therefore, the cognitive score is calculated by multiplying the score calculated by correct recognition by 3/4, which is (1-misrecognition rate).

결과지 4는 3개의 객체에 대해 5개의 결과를 출력했고, 2개의 객체는 정인식, A객체는 미인식이고, 2개의 오인식이 포함되어 있다. X, W는 A객체와의 IoU가 계산되지만 둘 다 정인식의 Threshold인 0.5를 넘기지 못했으므로 A는 미인식이 된다. 이때 IoU 수치가 더 높은 X가 A에 대한 미인식 결과이고 W는 오인식이 된다. B객체에 대해서는 Y와 V 두 결과가 IoU가 계산되고 0.5를 넘었지만 더 높은 수치를 보이는 Y가 B에 대한 정인식 결과가 되고, V는 다른 객체와의 IoU가 계산되지 않으므로 오인식이 된다. 따라서 모두 정인식이었을 경우의 만점에서 A의 미인식 객체 점수를 뺀 점수에 (1-오인식률)인 3/5를 곱하여 인지 점수를 산정한다.Result sheet 4 outputs 5 results for 3 objects, 2 objects are correct recognition, object A is unrecognized, and 2 misrecognitions are included. IoU with object A is calculated for X and W, but A is unrecognized because both of them did not exceed 0.5, the threshold of positive recognition. At this time, X with a higher IoU value is the result of not recognizing A, and W is misrecognized. For object B, IoU is calculated for both results of Y and V and exceeds 0.5, but Y, which shows a higher value, becomes a positive recognition result for B, and V is misrecognized because IoU with other objects is not calculated. Therefore, the recognition score is calculated by multiplying the score obtained by subtracting the unrecognized object score of A from the full score in the case of all correct recognition, which is (1-misrecognition rate), 3/5.

이상 설명된 실시 형태는 다양한 컴퓨터 구성요소를 통하여 실행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터로 판독가능한 기록매체에 기록될 수 있다. 상기 컴퓨터로 판독가능한 기록매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. The embodiments described above may be implemented in the form of program instructions that can be executed through various computer components and recorded in a computer-readable recording medium. The computer-readable recording medium may include program instructions, data files, data structures, etc. alone or in combination.

상기 컴퓨터로 판독가능한 기록매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수도 있다.The program instructions recorded on the computer-readable recording medium may be specially designed and configured for the present invention, or may be known and available to those skilled in the art of computer software.

컴퓨터로 판독가능한 기록매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 실행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 상기 하드웨어 장치는 본 발명에 따른 처리를 실행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Examples of the computer-readable recording medium include a hard disk, a magnetic medium such as a floppy disk and a magnetic tape, an optical recording medium such as a CD-ROM and DVD, and a magneto-optical medium such as a floppy disk. optical media), and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware device may be configured to operate as one or more software modules for carrying out the processing according to the present invention, and vice versa.

본 명세서의 양상들은 전체적으로 하드웨어, 전체적으로 소프트웨어 (펌웨어, 상주 소프트웨어, 마이크로 코드 등을 포함 함) 또는 컴퓨터 판독 가능 프로그램 코드가 구현 된 하나 이상의 컴퓨터 판독 가능 매체에 구현 된 컴퓨터 프로그램 제품의 형태를 취할 수 있다.Aspects herein may take the form of a computer program product embodied on one or more computer readable media embodied in hardware entirely, software entirely (including firmware, resident software, microcode, etc.) or computer readable program code. .

이상에서 실시예들에 설명된 특징, 구조, 효과 등은 본 발명의 하나의 실시예에 포함되며, 반드시 하나의 실시예에만 한정되는 것은 아니다. 나아가, 각 실시예에서 예시된 특징, 구조, 효과 등은 실시예들이 속하는 분야의 통상의 지식을 가지는 자에 의해 다른 실시예들에 대해서도 조합 또는 변형되어 실시 가능하다. 따라서 이러한 조합과 변형에 관계된 내용들은 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다.Features, structures, effects, etc. described in the above embodiments are included in one embodiment of the present invention, and are not necessarily limited to one embodiment. Furthermore, the features, structures, effects, etc. illustrated in each embodiment can be combined or modified for other embodiments by those of ordinary skill in the art to which the embodiments belong. Accordingly, the contents related to such combinations and modifications should be interpreted as being included in the scope of the present invention.

또한, 이상에서 실시예를 중심으로 설명하였으나 이는 단지 예시일 뿐 본 발명을 한정하는 것이 아니며, 본 발명이 속하는 분야의 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성을 벗어나지 않는 범위에서 이상에 예시되지 않은 여러 가지의 변형과 응용이 가능함을 알 수 있을 것이다. 예를 들어, 실시예에 구체적으로 나타난 각 구성 요소는 변형하여 실시할 수 있는 것이다. 그리고 이러한 변형과 응용에 관계된 차이점들은 첨부된 청구 범위에서 규정하는 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다.In addition, although the embodiment has been described above, it is merely an example and does not limit the present invention, and those of ordinary skill in the art to which the present invention pertains are exemplified above in a range that does not depart from the essential characteristics of the present embodiment. It can be seen that various modifications and applications that have not been made are possible. For example, each component specifically shown in the embodiment can be implemented by modification. And differences related to such modifications and applications should be construed as being included in the scope of the present invention defined in the appended claims.

Claims (18)

차량의 자율 주행에 관련된 원본 데이터를 취득하는 단계;
상기 원본 데이터가 소정의 데이터 형식에 적합하도록 가공된 기준 데이터를 취득하는 단계;
상기 원본 데이터를 소정의 테스트 프로그램을 통해 실행시켜 결과 데이터를 생성하는 단계; 및
상기 기준 데이터와 상기 결과 데이터를 비교한 검증 데이터를 출력하는 단계;를 포함하는,
자율 주행 상황 인지 프로그램 성능 테스트 방법.
acquiring original data related to autonomous driving of the vehicle;
obtaining reference data processed so that the original data conforms to a predetermined data format;
generating result data by executing the original data through a predetermined test program; and
Including; outputting verification data comparing the reference data and the result data;
Autonomous driving situation awareness program performance test method.
제 1항에 있어서,
상기 검증 데이터 출력 단계는,
상기 기준 데이터에 포함되는 오브젝트 인식 여부, 상기 오브젝트의 타입, 상기 오브젝트의 거리, 및 상기 오브젝트의 속도 정보 중 적어도 하나에 기초하여 수행되는,
자율 주행 상황 인지 프로그램 성능 테스트 방법.
The method of claim 1,
The verification data output step includes:
It is performed based on at least one of whether the object included in the reference data is recognized, the type of the object, the distance of the object, and the speed information of the object,
Autonomous driving situation awareness program performance test method.
제 2항에 있어서,
상기 검증 데이터는,
상기 오브젝트의 타입, 상기 오브젝트의 거리, 및 상기 오브젝트의 속도 정보 중 적어도 하나에 가중치 정보를 부여하여 산출되는,
자율 주행 상황 인지 프로그램 성능 테스트 방법.
3. The method of claim 2,
The verification data is
It is calculated by giving weight information to at least one of the type of the object, the distance of the object, and the speed information of the object,
Autonomous driving situation awareness program performance test method.
제 3항에 있어서,
상기 검증 데이터 출력은 상기 오브젝트가 포함되는 프레임 단위로 수행되고,
상기 프레임 단위로 출력된 검증 데이터들의 평균치로 상기 소정의 테스트 프로그램의 성능을 측정하는 단계;를 더 포함하는,
자율 주행 상황 인지 프로그램 성능 테스트 방법.
4. The method of claim 3,
The verification data output is performed in units of frames including the object,
Measuring the performance of the predetermined test program with an average value of the verification data output in units of the frame;
Autonomous driving situation awareness program performance test method.
제 2항에 있어서,
상기 기준 데이터에 포함되는 상기 오브젝트 인식 여부는, 상기 기준 데이터에 포함되는 상기 오브젝트와 상기 결과 데이터에 포함되는 오브젝트가 일치한 경우의 정인식, 상기 기준 데이터에 포함되지 않는 오브젝트 정보가 상기 결과 데이터에 포함되는 오인식, 및 상기 기준 데이터에 포함되는 상기 오브젝트 정보가 상기 결과 데이터에 포함되지 않은 미인식 중 어느 하나에 해당하는,
자율 주행 상황 인지 프로그램 성능 테스트 방법.
3. The method of claim 2,
Whether the object included in the reference data is recognized is a positive recognition when the object included in the reference data and the object included in the result data match, and object information not included in the reference data is included in the result data erroneous recognition, and the object information included in the reference data corresponds to any one of unrecognized not included in the result data,
Autonomous driving situation awareness program performance test method.
제 5항에 있어서,
상기 기준 데이터에 포함되는 상기 오브젝트의 타입과 상기 결과 데이터에 포함되는 상기 오브젝트의 타입이 일치하고, 상기 기준 데이터에 포함되는 상기 오브젝트의 좌표 정보와 상기 결과 데이터에 포함되는 상기 오브젝트의 좌표 정보 중 서로 일치하는 영역이 소정의 임계치 이상인 경우 상기 정인식으로 판별되는,
자율 주행 상황 인지 프로그램 성능 테스트 방법.
6. The method of claim 5,
The type of the object included in the reference data and the type of the object included in the result data match, and each other among the coordinate information of the object included in the reference data and the coordinate information of the object included in the result data If the matching area is greater than or equal to a predetermined threshold, it is determined as the correct recognition,
Autonomous driving situation awareness program performance test method.
제 1항에 있어서,
상기 기준 데이터는 상기 오브젝트를 라벨링하여 상기 소정의 데이터 형식에 적합하도록 주석을 부가하는 과정을 통해 생성되는,
자율 주행 상황 인지 프로그램 성능 테스트 방법.
The method of claim 1,
The reference data is generated through the process of labeling the object and adding an annotation to suit the predetermined data format,
Autonomous driving situation awareness program performance test method.
제 7항에 있어서,
상기 소정의 데이터 형식은 JSON(JavaScript Object Notation) 형식인,
자율 주행 상황 인지 프로그램 성능 테스트 방법.
8. The method of claim 7,
The predetermined data format is JSON (JavaScript Object Notation) format,
Autonomous driving situation awareness program performance test method.
제 1항에 있어서,
상기 원본 데이터는 상기 차량의 주변이 촬영되어 생성된 영상 데이터와 상기 차량의 센서로부터 생성된 센싱 데이터가 융합되어 생성된 것인,
자율 주행 상황 인지 프로그램 성능 테스트 방법.
The method of claim 1,
The original data is generated by fusion of image data generated by photographing the surroundings of the vehicle and sensing data generated from a sensor of the vehicle,
Autonomous driving situation awareness program performance test method.
차량의 자율 주행 상황에 관련된 원본 데이터를 취득하는 원본 데이터 취득부;
상기 원본 데이터가 소정의 데이터 형식에 적합하도록 가공된 기준 데이터를 취득하는 기준 데이터 취득부;
상기 원본 데이터를 소정의 테스트 프로그램을 통해 실행시켜 결과 데이터를 생성하는 결과 데이터 생성부; 및
상기 기준 데이터와 상기 결과 데이터를 비교한 검증 데이터를 출력하는 검증 결과 출력부;를 포함하는,
자율 주행 상황 인지 프로그램 성능 테스트 장치.
an original data acquisition unit configured to acquire original data related to the autonomous driving situation of the vehicle;
a reference data acquisition unit for acquiring reference data processed so that the original data conforms to a predetermined data format;
a result data generation unit generating result data by executing the original data through a predetermined test program; and
A verification result output unit for outputting verification data obtained by comparing the reference data and the result data;
Autonomous driving situation awareness program performance test device.
제 10항에 있어서,
상기 검증 결과 출력부는,
상기 기준 데이터에 포함되는 오브젝트 인식 여부, 상기 오브젝트의 타입, 상기 오브젝트의 거리, 및 상기 오브젝트의 속도 정보 중 적어도 하나에 기초하여 상기 검증 데이터를 출력하는,
자율 주행 상황 인지 프로그램 성능 테스트 장치.
11. The method of claim 10,
The verification result output unit,
outputting the verification data based on at least one of whether the object included in the reference data is recognized, the type of the object, the distance of the object, and the speed information of the object,
Autonomous driving situation awareness program performance test device.
제 11항에 있어서,
상기 검증 결과 출력부는,
상기 오브젝트의 타입, 상기 오브젝트의 거리, 및 상기 오브젝트의 속도 정보 중 적어도 하나에 가중치 정보를 부여하여 상기 검증 데이터를 산출하는,
자율 주행 상황 인지 프로그램 성능 테스트 장치.
12. The method of claim 11,
The verification result output unit,
calculating the verification data by giving weight information to at least one of the type of the object, the distance of the object, and the speed information of the object,
Autonomous driving situation awareness program performance test device.
제 12항에 있어서,
상기 검증 결과 출력부는 상기 검증 데이터 출력을 상기 오브젝트가 포함되는 프레임 단위로 수행하고, 상기 프레임 단위로 출력된 검증 데이터들의 평균치로 상기 소정의 테스트 프로그램의 성능을 측정하는,
자율 주행 상황 인지 프로그램 성능 테스트 장치.
13. The method of claim 12,
The verification result output unit outputs the verification data in units of frames including the object, and measures the performance of the predetermined test program with an average value of the verification data output in units of frames;
Autonomous driving situation awareness program performance test device.
제 11항에 있어서,
상기 기준 데이터에 포함되는 상기 오브젝트 인식 여부는, 상기 기준 데이터에 포함되는 상기 오브젝트와 상기 결과 데이터에 포함되는 오브젝트가 일치한 경우의 정인식, 상기 기준 데이터에 포함되지 않는 오브젝트 정보가 상기 결과 데이터에 포함되는 오인식, 및 상기 기준 데이터에 포함되는 상기 오브젝트 정보가 상기 결과 데이터에 포함되지 않은 미인식 중 어느 하나에 해당하는,
자율 주행 상황 인지 프로그램 성능 테스트 장치.
12. The method of claim 11,
Whether the object included in the reference data is recognized is a positive recognition when the object included in the reference data and the object included in the result data match, and object information not included in the reference data is included in the result data erroneous recognition, and the object information included in the reference data corresponds to any one of unrecognized not included in the result data,
Autonomous driving situation awareness program performance test device.
제 14항에 있어서,
상기 검증 결과 출력부는,
상기 기준 데이터에 포함되는 상기 오브젝트의 타입과 상기 결과 데이터에 포함되는 상기 오브젝트의 타입이 일치하고, 상기 기준 데이터에 포함되는 상기 오브젝트의 좌표 정보와 상기 결과 데이터에 포함되는 상기 오브젝트의 좌표 정보 중 서로 일치하는 영역이 소정의 임계치 이상인 경우 상기 정인식으로 판별하는,
자율 주행 상황 인지 프로그램 성능 테스트 장치.
15. The method of claim 14,
The verification result output unit,
The type of the object included in the reference data matches the type of the object included in the result data, and the object coordinate information included in the reference data and the object coordinate information included in the result data match each other. If the matching area is greater than or equal to a predetermined threshold, it is determined by the correct recognition,
Autonomous driving situation awareness program performance test device.
제 10항에 있어서,
상기 기준 데이터는 상기 오브젝트를 라벨링하여 상기 소정의 데이터 형식에 적합하도록 주석을 부가하는 과정을 통해 생성되는,
자율 주행 상황 인지 프로그램 성능 테스트 장치.
11. The method of claim 10,
The reference data is generated through the process of labeling the object and adding an annotation to suit the predetermined data format,
Autonomous driving situation awareness program performance test device.
제 16항에 있어서,
상기 소정의 데이터 형식은 JSON(JavaScript Object Notation) 형식인,
자율 주행 상황 인지 프로그램 성능 테스트 장치.
17. The method of claim 16,
The predetermined data format is JSON (JavaScript Object Notation) format,
Autonomous driving situation awareness program performance test device.
제 10항에 있어서,
상기 원본 데이터는 상기 차량의 주변이 촬영되어 생성된 영상 데이터와 상기 차량의 센서로부터 생성된 센싱 데이터가 융합되어 생성된 것인,
자율 주행 상황 인지 프로그램 성능 테스트 장치.
11. The method of claim 10,
The original data is generated by fusion of image data generated by photographing the surroundings of the vehicle and sensing data generated from a sensor of the vehicle,
Autonomous driving situation awareness program performance test device.
KR1020200023372A 2020-02-26 2020-02-26 Autonomous driving situation recognition program performance test method and apparatus for porceeding the same KR102337034B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200023372A KR102337034B1 (en) 2020-02-26 2020-02-26 Autonomous driving situation recognition program performance test method and apparatus for porceeding the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200023372A KR102337034B1 (en) 2020-02-26 2020-02-26 Autonomous driving situation recognition program performance test method and apparatus for porceeding the same

Publications (2)

Publication Number Publication Date
KR20210108600A true KR20210108600A (en) 2021-09-03
KR102337034B1 KR102337034B1 (en) 2021-12-09

Family

ID=77784958

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200023372A KR102337034B1 (en) 2020-02-26 2020-02-26 Autonomous driving situation recognition program performance test method and apparatus for porceeding the same

Country Status (1)

Country Link
KR (1) KR102337034B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230055168A (en) * 2021-10-18 2023-04-25 한국건설기술연구원 LiDAR performance evaluation system and method
KR20230079855A (en) * 2021-11-29 2023-06-07 주식회사 와이즈오토모티브 Apparatus and method for evaluating obstacle recognition performance of autonomous vehicle

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101464344B1 (en) * 2014-03-25 2014-11-25 (주)그린아이티코리아 Surveillance camera and image managing system, and method for detecting abnormal state by training normal state of surveillance image
KR20180067199A (en) * 2016-12-12 2018-06-20 현대모비스 주식회사 Apparatus and method for recognizing object
KR101943422B1 (en) * 2018-05-11 2019-01-29 윤여표 A system and a method of safety inspection for an autonomous vehicle
KR102031503B1 (en) * 2018-11-23 2019-11-08 유니셈(주) Method and system for detecting multi-object
KR102065693B1 (en) * 2018-10-26 2020-01-13 인하대학교 산학협력단 Method and system for standardizing machine learning data for autonomous vehicles

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101464344B1 (en) * 2014-03-25 2014-11-25 (주)그린아이티코리아 Surveillance camera and image managing system, and method for detecting abnormal state by training normal state of surveillance image
KR20180067199A (en) * 2016-12-12 2018-06-20 현대모비스 주식회사 Apparatus and method for recognizing object
KR101943422B1 (en) * 2018-05-11 2019-01-29 윤여표 A system and a method of safety inspection for an autonomous vehicle
KR102065693B1 (en) * 2018-10-26 2020-01-13 인하대학교 산학협력단 Method and system for standardizing machine learning data for autonomous vehicles
KR102031503B1 (en) * 2018-11-23 2019-11-08 유니셈(주) Method and system for detecting multi-object

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230055168A (en) * 2021-10-18 2023-04-25 한국건설기술연구원 LiDAR performance evaluation system and method
KR20230079855A (en) * 2021-11-29 2023-06-07 주식회사 와이즈오토모티브 Apparatus and method for evaluating obstacle recognition performance of autonomous vehicle

Also Published As

Publication number Publication date
KR102337034B1 (en) 2021-12-09

Similar Documents

Publication Publication Date Title
JP6714513B2 (en) An in-vehicle device that informs the navigation module of the vehicle of the presence of an object
US9524643B2 (en) Orientation sensitive traffic collision warning system
US10032085B2 (en) Method and system to identify traffic lights by an autonomous vehicle
KR100854766B1 (en) Method for detecting of parking area by using range sensor
JP5410730B2 (en) Automobile external recognition device
US10336252B2 (en) Long term driving danger prediction system
JP6450294B2 (en) Object detection apparatus, object detection method, and program
US8885889B2 (en) Parking assist apparatus and parking assist method and parking assist system using the same
US10712445B2 (en) Method for detecting at least one parking space for a vehicle
CN109720348B (en) In-vehicle device, information processing system, and information processing method
JP5178276B2 (en) Image recognition device
US11238731B2 (en) Method and device for detecting the passage of a motor vehicle through a road sign gantry
KR101857554B1 (en) External data intrusion detection apparatus and method for vehicles
US10964137B2 (en) Risk information collection device mounted on a vehicle
KR102337034B1 (en) Autonomous driving situation recognition program performance test method and apparatus for porceeding the same
CN108021899A (en) Vehicle intelligent front truck anti-collision early warning method based on binocular camera
JP2010132056A (en) Sensing device, sensing method, and vehicle control device
KR102557620B1 (en) Radar apparatus and method for classifying object
JP2022532941A (en) Devices and methods for processing vehicle signals to calculate behavioral risk measures
JP6263453B2 (en) Momentum estimation device and program
JP5321640B2 (en) Vehicular road shape recognition method and apparatus, and recording medium
US20050004719A1 (en) Device and method for determining the position of objects in the surroundings of a motor vehicle
CN110095776B (en) Method for determining the presence and/or the characteristics of an object and surrounding identification device
CN113591673A (en) Method and device for recognizing traffic signs
US20220156972A1 (en) Long range distance estimation using reference objects

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right