KR20210115819A - Apparatus and Method for Verifying Radar Performance - Google Patents

Apparatus and Method for Verifying Radar Performance Download PDF

Info

Publication number
KR20210115819A
KR20210115819A KR1020200032142A KR20200032142A KR20210115819A KR 20210115819 A KR20210115819 A KR 20210115819A KR 1020200032142 A KR1020200032142 A KR 1020200032142A KR 20200032142 A KR20200032142 A KR 20200032142A KR 20210115819 A KR20210115819 A KR 20210115819A
Authority
KR
South Korea
Prior art keywords
detection data
radar
processor
performance analysis
analysis apparatus
Prior art date
Application number
KR1020200032142A
Other languages
Korean (ko)
Inventor
이철효
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020200032142A priority Critical patent/KR20210115819A/en
Publication of KR20210115819A publication Critical patent/KR20210115819A/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4052Means for monitoring or calibrating by simulation of echoes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

According to an embodiment, disclosed is an apparatus for analyzing radar performance comprising: a radar sensor; a LiDAR sensor; and a processor. The processor acquires first sensing data and second sensing data respectively through the radar sensor and the LiDAR sensor, detects a target object based on the first sensing data and the second sensing data respectively, and evaluates performance of the radar sensor based on a location difference of the target object between the first sensing data and the second sensing data.

Description

레이더 성능 분석 장치 및 방법{Apparatus and Method for Verifying Radar Performance}Apparatus and Method for Verifying Radar Performance

본 문서에서 개시되는 다양한 실시 예들은, 레이더 성능 평가 기술과 관련된다.Various embodiments disclosed in this document are related to radar performance evaluation technology.

레이더 센서는 목표물에 대한 거리, 각도 및 속도와 같은 정보를 검출할 수 있다. 예를 들어, 레이더 센서는 송수신기를 이용하여 송신 후 목표물에 반사되어 수신된 신호의 세기가 임계치 이상이면, 목표물을 인식할 수 있다. 그런데, 레이더 센서는 존재하는 목표물을 인식하지 못하거나, 실제 존재하지 않은 목표물을 오인식할 수 있다. The radar sensor can detect information such as distance, angle and speed to the target. For example, the radar sensor may recognize the target when the intensity of the signal received by being reflected by the target after transmission using the transceiver is greater than or equal to a threshold value. However, the radar sensor may not recognize an existing target or may misrecognize a target that does not actually exist.

레이더 센서의 성능을 평가하는 장치(이하, “레이더 성능 분석 장치”라고 언급될 수 있음)는 레이더 센서에 의해 인식된 목표물의 위치 및 속도를 정확히 인식할 필요가 있다. 이를 위하여, 시험자가 목표물의 좌표를 측정하고, 상기 좌표에 기반하여 레이더 센서의 감지 데이터를 분석 및 측정할 수 있다. 또는, 고도 정밀도를 갖는 장치(예: GPS 모듈)를 목표물에 부착하고, 상기 부착된 장치에 기반하여 레이더 센서의 감지 데이터를 분석 및 측정할 수 있다. An apparatus for evaluating the performance of a radar sensor (hereinafter, may be referred to as a "radar performance analysis apparatus") needs to accurately recognize the position and speed of a target recognized by the radar sensor. To this end, the tester may measure the coordinates of the target, and analyze and measure the detection data of the radar sensor based on the coordinates. Alternatively, a device having high precision (eg, a GPS module) may be attached to the target, and the detection data of the radar sensor may be analyzed and measured based on the attached device.

하지만, 상기 부착 장치에 기반한 레이더 성능 분석 장치는 GPS 모듈을 부착한 목표물에 대해서만 레이더의 감지 데이터를 분석할 수 있다. 따라서, 부착 장치에 기반한 레이더 성능 분석 장치는 레이더에 의해 검출된 다수의 부착 장치를 장착하지 않은 목표물들의 위치를 일일이 정확하게 파악하거나, 분석하는 것이 어려울 수 있다. However, the radar performance analysis apparatus based on the attachment device may analyze the detection data of the radar only for the target to which the GPS module is attached. Therefore, it may be difficult for the radar performance analysis apparatus based on the attachment device to accurately identify or analyze the positions of a plurality of targets that are not equipped with attachment devices detected by the radar.

본 문서에 개시되는 다양한 실시 예들은 라이다 센서에 기반하여 레이더 센서의 성능을 확인할 수 있는 레이더 성능 분석 장치 및 방법을 제공할 수 있다.Various embodiments disclosed in this document may provide a radar performance analysis apparatus and method capable of confirming the performance of the radar sensor based on the lidar sensor.

본 문서에 개시되는 일 실시 예에 따른 레이더 성능 분석 장치는, 레이더 센서(radar); 라이다 센서(lidar); 및 프로세서를 포함하고, 상기 프로세서는, 상기 레이더 센서 및 상기 라이다 센서를 통해 제1 감지 데이터 및 제2 감지 데이터를 각기 획득하고, 상기 제1 감지 데이터 및 상기 제2 감지 데이터에 각기 기반하여 목표물을 검출하고, 상기 제1 감지 데이터와 상기 제2 감지 데이터 간 목표물의 위치 차이에 기반하여 상기 레이더 센서의 성능을 평가하도록 설정될 수 있다.A radar performance analysis apparatus according to an embodiment disclosed in this document, a radar sensor (radar); lidar sensors; and a processor, wherein the processor acquires first detection data and second detection data through the radar sensor and the lidar sensor, respectively, and based on the first detection data and the second detection data, respectively and to evaluate the performance of the radar sensor based on a difference in position of a target between the first sensed data and the second sensed data.

또한, 본 문서에 개시되는 일 실시 예에 따른 레이더 성능 분석 방법은, 레이더 센서 및 라이다 센서를 통해 제1 감지 데이터 및 제2 감지 데이터를 각기 획득하는 동작; 상기 제1 감지 데이터 및 상기 제2 감지 데이터에 각기 기반하여 목표물을 검출하는 동작; 및 상기 제1 감지 데이터와 상기 제2 감지 데이터 간 목표물의 위치 차이에 기반하여 상기 레이더 센서의 성능을 평가하는 동작을 포함할 수 있다.In addition, the radar performance analysis method according to an embodiment of the present disclosure may include: acquiring first detection data and second detection data through a radar sensor and a lidar sensor, respectively; detecting a target based on the first sensed data and the second sensed data, respectively; and evaluating the performance of the radar sensor based on a position difference of a target between the first detection data and the second detection data.

본 문서에 개시되는 일 실시 예에 따른 레이더 성능 분석 장치는, 레이더 센서(radar); 라이다 센서(lidar); 디스플레이; 및 프로세서를 포함하고, 상기 프로세서는, 상기 레이더 센서 및 상기 라이다 센서를 통해 제1 감지 데이터 및 제2 감지 데이터를 각기 획득하고, 상기 제1 감지 데이터 및 상기 제2 감지 데이터에 각기 기반하여 목표물을 검출하고, 상기 제2 감지 데이터와 상기 제1 감지 데이터 간 목표물의 위치 차이를 상기 디스플레이에 표시하도록 설정될 수 있다. A radar performance analysis apparatus according to an embodiment disclosed in this document, a radar sensor (radar); lidar sensors; display; and a processor, wherein the processor acquires first detection data and second detection data through the radar sensor and the lidar sensor, respectively, and based on the first detection data and the second detection data, respectively , and a difference in position of a target between the second sensed data and the first sensed data may be set to be displayed on the display.

본 문서에 개시되는 다양한 실시 예들에 따르면, 라이다 센서에 기반하여 레이더 센서의 성능을 확인할 수 있다. 이 외에, 본 문서를 통해 직접적 또는 간접적으로 파악되는 다양한 효과들이 제공될 수 있다.According to various embodiments disclosed herein, the performance of the radar sensor may be checked based on the lidar sensor. In addition, various effects directly or indirectly identified through this document may be provided.

도 1은 일 실시예에 따른 레이더 성능 분석 장치의 성능 표시 화면을 나타낸다.
도 2는 일 실시예에 따른 레이더 성능 분석 장치의 구성도를 나타낸다.
도 3은 일 실시예에 따른 목표물 위치 검출 및 시각화를 설명하기 위한 도면을 나타낸다.
도 4는 일 실시예에 따른 레이더 성능 분석 방법을 나타낸다.
도면의 설명과 관련하여, 동일 또는 유사한 구성요소에 대해서는 동일 또는 유사한 참조 부호가 사용될 수 있다.
1 illustrates a performance display screen of a radar performance analysis apparatus according to an exemplary embodiment.
2 is a block diagram of a radar performance analysis apparatus according to an embodiment.
3 is a view for explaining the detection and visualization of a target position according to an embodiment.
4 illustrates a radar performance analysis method according to an embodiment.
In connection with the description of the drawings, the same or similar reference numerals may be used for the same or similar components.

도 1은 일 실시예에 따른 레이더 성능 분석 장치의 성능 표시 화면을 나타낸다.1 illustrates a performance display screen of a radar performance analysis apparatus according to an exemplary embodiment.

도 1을 참조하면, 일 실시예에 따르면, 레이더 성능 분석 장치는 레이다 센서 및 라이다 센서를 통해 주변 물체를 검출할 수 있다. 레이더 성능 분석 장치는 레이더 센서 및 라이다 센서를 통해 물체를 검출하는 동안에, 카메라를 통해 물체를 촬영한 프리뷰 영상(130)을 생성할 수 있다.Referring to FIG. 1 , according to an embodiment, the apparatus for analyzing radar performance may detect a nearby object through a radar sensor and a lidar sensor. The radar performance analysis apparatus may generate the preview image 130 obtained by photographing the object through the camera while detecting the object through the radar sensor and the lidar sensor.

일 실시예에 따르면, 레이더 성능 분석 장치가 레이더 센서를 통해 검출한 목표물의 제1 위치 정보와 라이더 센서를 통해 검출한 목표물의 제2 위치 정보는 레이더 센서 및 라이다 센서의 성능 차이로 인하여 편차가 있을 수 있다. 하지만, 복수 채널의 광원을 포함하는 라이다 센서가 레이더 센서에 비해 해상도가 우수하므로 레이더 센서보다 정확히 물체 위치를 검출할 수 있다.According to an embodiment, the first position information of the target detected through the radar sensor by the radar performance analyzing apparatus and the second position information of the target detected through the lidar sensor may have a deviation due to the difference in performance between the radar sensor and the lidar sensor. there may be However, since a lidar sensor including a light source of multiple channels has better resolution than a radar sensor, it is possible to detect an object position more accurately than a radar sensor.

레이더 성능 분석 장치는 카메라의 프리뷰 영상(130)에 상기 편차를 표시할 수 있다. 예를 들어, 레이더 성능 분석 장치는 상기 제1 위치 정보 및 상기 제2 위치 정보를 카메라의 좌표계에 따른 위치로 각기 변환할 수 있다. 레이더 성능 분석 장치는 각기 변환된 제1 및 제2 위치 정보를 프리뷰 영상에 표시할 수 있다. The radar performance analysis apparatus may display the deviation on the preview image 130 of the camera. For example, the radar performance analyzing apparatus may convert the first position information and the second position information into positions according to a coordinate system of a camera, respectively. The radar performance analysis apparatus may display the converted first and second location information on the preview image.

상술한 실시예에 따르면, 레이더 성능 분석 장치는 주변 물체에 GPS 센서를 설치하거나, 주변 물체의 위치를 수동으로 측정하는 번거로운 과정 없이 레이더 센서의 시험 평가 과정에서 목표물의 위치를 자동으로 측정할 수 있다.According to the above-described embodiment, the radar performance analysis apparatus can automatically measure the position of the target in the test evaluation process of the radar sensor without installing a GPS sensor on the surrounding object or manually measuring the position of the surrounding object. .

또한, 상술한 실시예에 따르면, 레이더 성능 분석 장치는 레이더 센서보다 물체의 위치를 보다 정확히 검출 가능하고 물체의 형상도 검출 가능한 라이다 센서에 기반하여 레이더 센서의 성능을 평가할 수 있다.In addition, according to the above-described embodiment, the radar performance analysis apparatus may evaluate the performance of the radar sensor based on the lidar sensor capable of detecting the position of the object more accurately than the radar sensor and detecting the shape of the object.

도 2는 일 실시예에 따른 레이더 성능 분석 장치의 구성도를 나타낸다.2 is a block diagram of a radar performance analysis apparatus according to an embodiment.

도 2를 참조하면, 일 실시예에 따른 레이더 성능 분석 장치(200)는 레이더 센서(210), 라이다 센서(220), 카메라(230), 메모리(250) 및 프로세서(260)를 포함할 수 있다. 일 실시 예에서, 레이더 성능 분석 장치(200)는 일부 구성요소가 생략되거나, 추가적인 구성요소를 더 포함할 수 있다. 예를 들어, 레이더 성능 분석 장치(200)는 디스플레이(240)를 더 포함할 수 있다. 또한, 레이더 성능 분석 장치(200)의 구성요소들 중 일부가 결합되어 하나의 개체로 구성되되, 결합 이전의 해당 구성요소들의 기능을 동일하게 수행할 수 있다. Referring to FIG. 2 , the radar performance analysis apparatus 200 according to an embodiment may include a radar sensor 210 , a lidar sensor 220 , a camera 230 , a memory 250 , and a processor 260 . have. In an embodiment, the radar performance analysis apparatus 200 may omit some components or further include additional components. For example, the radar performance analysis apparatus 200 may further include a display 240 . In addition, some of the components of the radar performance analysis apparatus 200 are combined to form a single entity, and functions of the components prior to the combination may be performed identically.

레이더 센서(radar: Radio Detecting And Ranging)(210)는 전자기파(마이크로파)를 송신하고, 주변 물체에 의해 반사되는 전자기파의 세기에 기반하여 물체를 감지할 수 있다. 일 실시예에 따르면, 레이더 센서(210)는 제1 시야각(field of view) 내에 위치한 물체의 거리, 방향 및 고도를 감지할 수 있다. 또는, 레이다 센서(210)는 물체의 길이 정보를 포함하는 영역 정보(2차원 목표물 정보) 또는 입체 영역 정보(3차원 목표물 정보)를 획득될 수 있다. 레이다 센서(210)는 레이다 센서(210)의 해상도보다 큰 물체에 대하여, 부가적인 신호처리 기능을 통해서 상기 2차원 목표물 정보 또는 상기 3차원 목표물 정보를 획득할 수 있다. 레이더 센서(210)는 성능 분석의 대상으로서 교체될 수 있다. 상기 제1 시야각은 레이더 센서(210)에 포함된 전자기파를 방사하는 안테나의 방사 패턴에 따라 결정될 수 있다. The radar sensor (radar: Radio Detecting And Ranging) 210 may transmit an electromagnetic wave (microwave) and detect an object based on the intensity of the electromagnetic wave reflected by a surrounding object. According to an embodiment, the radar sensor 210 may detect a distance, a direction, and an altitude of an object located within a first field of view. Alternatively, the radar sensor 210 may acquire area information (2D target information) or stereoscopic area information (3D target information) including length information of the object. The radar sensor 210 may acquire the 2D target information or the 3D target information through an additional signal processing function with respect to an object having a larger resolution than that of the radar sensor 210 . The radar sensor 210 may be replaced as an object of performance analysis. The first viewing angle may be determined according to a radiation pattern of an antenna emitting electromagnetic waves included in the radar sensor 210 .

라이다 센서(lidar: Light Detection And Ranging)(220)는 빛(또는, 펄스 레이저)을 쏘고, 다시 돌아오는 빛에 기반하여 물체를 감지할 수 있다. 일 실시예에 따르면, 라이다 센서(220)는 제1 시야각을 포함하는 제2 시야각 내에 위치하는 물체를 감지할 수 있다. 라이다 센서(220)는 레이더 센서(210)의 성능 분석을 위한 비교 대상일 수 있다. 상기 제2 시야각은 라이다 센서(220)에 포함된 광원의 지향각에 따라 결정될 수 있다. 상기 지향각은 프로세서(260)에 의해 제어될 수 있다. 라이다 센서(220)가 360도 회전 가능한 경우에 제2 시야각은 라이다 센서(220)의 회전에 따라 확장될 수 있다. 본 문서에서는 설명의 편의성을 위하여 레이더 센서(210) 및 라이다 센서(220)가 일정 방향으로 전자기파 또는 빛을 송신하여 물체를 감지하는 경우를 예로 들어 설명한다. The lidar sensor (Light Detection And Ranging) 220 may detect an object based on the light (or pulse laser) emitted and returned back. According to an embodiment, the lidar sensor 220 may detect an object located within the second viewing angle including the first viewing angle. The lidar sensor 220 may be a comparison target for performance analysis of the radar sensor 210 . The second viewing angle may be determined according to an orientation angle of a light source included in the lidar sensor 220 . The orientation angle may be controlled by the processor 260 . When the lidar sensor 220 is rotatable 360 degrees, the second viewing angle may be expanded according to the rotation of the lidar sensor 220 . In this document, for convenience of description, a case in which the radar sensor 210 and the lidar sensor 220 transmit electromagnetic waves or light in a predetermined direction to detect an object will be described as an example.

카메라(230)는 정지 영상 및 동영상을 촬영할 수 있다. 카메라(230)는 CCD(charged coupled device) 센서 또는 CMOS(complementary metal oxide semiconductor) 센서로 구현되는 이미지 센서를 포함할 수 있다. 이미지 센서는 외부 객체로부터 렌즈 어셈블리를 거쳐 전달된 빛을 전기적 신호로 변환함으로써, 외부 객체(예: 피사체)에 대응하는 이미지를 획득할 수 있다. 일 실시예에 따르면, 카메라(230)는 제1 시야각을 포함하는 제3 시야각을 촬영할 수 있다. 카메라(230)는 단안 카메라일 수 있다. 카메라(230)는 레이더 센서(210)의 성능 분석을 위한 시각화 도구로 사용될 수 있다.The camera 230 may capture still images and moving images. The camera 230 may include an image sensor implemented as a charged coupled device (CCD) sensor or a complementary metal oxide semiconductor (CMOS) sensor. The image sensor may acquire an image corresponding to an external object (eg, a subject) by converting light transmitted from an external object through the lens assembly into an electrical signal. According to an embodiment, the camera 230 may capture a third viewing angle including the first viewing angle. The camera 230 may be a monocular camera. The camera 230 may be used as a visualization tool for performance analysis of the radar sensor 210 .

디스플레이(240)는 프로세서(260)의 명령에 따른 컨텐츠를 출력할 수 있다. 디스플레이는, 예를 들면, 액정 디스플레이(LCD), 발광 다이오드(LED) 디스플레이 또는 유기 발광 다이오드(OLED) 디스플레이를 포함할 수 있다. The display 240 may output content according to a command of the processor 260 . The display may include, for example, a liquid crystal display (LCD), a light emitting diode (LED) display, or an organic light emitting diode (OLED) display.

메모리(250)는 레이더 성능 분석 장치(200)의 적어도 하나의 구성요소(예: 프로세서(260))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는 예를 들어, 소프트웨어 및 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 예를 들어, 메모리(250)는 레이더 성능 분석을 위한 적어도 하나의 인스트럭션(instruction)을 저장할 수 있다. 메모리(250)는 휘발성 메모리 또는 비휘발성 메모리를 포함할 수 있다.The memory 250 may store various data used by at least one component (eg, the processor 260 ) of the radar performance analysis apparatus 200 . Data may include, for example, input data or output data for software and related instructions. For example, the memory 250 may store at least one instruction for analyzing radar performance. The memory 250 may include a volatile memory or a non-volatile memory.

프로세서(260)는 적어도 하나의 인스트럭션을 실행함에 따라 레이더 성능 분석 장치(200)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 프로세서(260)는 예를 들어, 중앙처리장치(CPU), 그래픽처리장치(GPU), 마이크로프로세서, 애플리케이션 프로세서(application processor), 주문형 반도체(ASIC(application specific integrated circuit), FPGA(field programmable gate arrays)) 중 적어도 하나를 포함할 수 있으며, 복수의 코어를 가질 수 있다.The processor 260 may control at least one other component (eg, a hardware or software component) of the radar performance analysis apparatus 200 by executing at least one instruction, and perform various data processing or calculations. can The processor 260 may include, for example, a central processing unit (CPU), a graphics processing unit (GPU), a microprocessor, an application processor, an application specific integrated circuit (ASIC), or field programmable gate arrays (FPGA). )), and may have a plurality of cores.

일 실시예에 따르면, 프로세서(260)는 레이더 센서(210)가 장착되면, 레이더 센서(210), 라이다 센서(220) 및 카메라(230)의 정렬 상태 정보를 확인할 수 있다. 상기 정렬 상태 정보는 메모리(250)에 저장된 디폴트 설정이거나, 입력 장치를 통해 설정된 것일 수 있다. 프로세서(260)는 확인된 정렬 상태 정보에 기반하여 레이더 센서(210), 라이다 센서(220) 및 카메라(230)를 캘리브레이션(calibration)할 수 있다. 상기 캘리브레이션은 예를 들면, 레이더 센서(210), 라이다 센서(220) 및 카메라(230)의 기준점(예: 원점)을 일치시키는 것일 수 있다. 예를 들어, 레이더 센서(210), 라이다 센서(220) 및 카메라(230)는 수직으로(또는, 상하 방향으로) 정렬될 수 있다. 이 경우, 프로세서(260)는 캘리브레이션을 통해서 레이더 센서(210), 라이다 센서(220) 및 카메라(230) 각각의 기준점의 상하 편차를 보정할 수 있다. 다른 예를 들어, 레이더 센서(210), 라이다 센서(220) 및 카메라(230)는 수평으로(또는, 좌우 방향으로) 정렬될 수 있다. 이 경우, 프로세서(260)는 캘리브레이션을 통해서 레이더 센서(210), 라이다 센서(220) 및 카메라(230) 각각의 기준점의 좌우 편차를 보정할 수 있다. 일 실시예에서, 프로세서(260)는 레이더 센서(210), 라이다 센서(220) 및 카메라(230)의 정렬 상태가 변경될 경우에는 적어도 1회 상기 캘리브레이션을 수행할 수 있다. According to an embodiment, when the radar sensor 210 is mounted, the processor 260 may check alignment state information of the radar sensor 210 , the lidar sensor 220 , and the camera 230 . The arrangement state information may be a default setting stored in the memory 250 or may be set through an input device. The processor 260 may calibrate the radar sensor 210 , the lidar sensor 220 , and the camera 230 based on the checked alignment state information. The calibration may be, for example, matching a reference point (eg, origin) of the radar sensor 210 , the lidar sensor 220 , and the camera 230 . For example, the radar sensor 210 , the lidar sensor 220 , and the camera 230 may be vertically (or vertically) aligned. In this case, the processor 260 may correct the vertical deviation of the reference points of the radar sensor 210 , the lidar sensor 220 , and the camera 230 through calibration. For another example, the radar sensor 210 , the lidar sensor 220 , and the camera 230 may be aligned horizontally (or in a left-right direction). In this case, the processor 260 may correct the left and right deviations of the reference points of the radar sensor 210 , the lidar sensor 220 , and the camera 230 through calibration. In an embodiment, when the alignment state of the radar sensor 210 , the lidar sensor 220 , and the camera 230 is changed, the processor 260 may perform the calibration at least once.

일 실시예에 따르면, 프로세서(260)는 레이더 센서(210)를 통해 제1 감지 데이터를 획득하고, 획득된 제1 감지 데이터에 기반하여 주변 물체의 방향 및 거리를 감지할 수 있다. 상기 제1 감지 데이터는 레이더 센서(210)와 물체 간의 거리(이하, "거리 정보"라고 함) 및 레이더 센서(210)에 기준한 물체의 좌/우 방향 각도(이하, "제1 방향각 정보"이라 함)를 포함하는 2차원 데이터일 수 있다. 또는, 상기 제1 감지 데이터는 물체의 영역 정보를 포함하는 2차원 데이터일 수 있다. 상기 제1 감지 데이터는 거리 정보, 제1 방향각 정보 및 물체의 상/하 방향 각도(이하, "제2 방향각 정보"라 함)를 포함하는 3차원 데이터일 수 있다. 또는, 상기 제1 감지 데이터는 입체 영역 정보(3차원 목표물 검출 정보)를 포함하는 3차원 데이터일 수 있다. 프로세서(260)는 레이다 센서(210)의 해상도보다 큰 물체에 대하여, 레이다 센서(210)를 대신하여 레이더 센서(210)로부터 획득된 제1 감지 데이터에 대한 부가적인 신호처리 기능을 통해서 상기 2차원 목표물 정보 또는 상기 3차원 목표물 정보를 획득할 수 있다.According to an embodiment, the processor 260 may acquire first detection data through the radar sensor 210 and detect the direction and distance of a nearby object based on the acquired first detection data. The first detection data includes the distance between the radar sensor 210 and the object (hereinafter referred to as “distance information”) and the left/right direction angle of the object based on the radar sensor 210 (hereinafter, “first direction angle information”). It may be two-dimensional data including "). Alternatively, the first sensing data may be two-dimensional data including area information of the object. The first sensing data may be 3D data including distance information, first direction angle information, and an up/down direction angle (hereinafter, referred to as “second direction angle information”) of an object. Alternatively, the first sensing data may be 3D data including 3D area information (3D target detection information). The processor 260 uses an additional signal processing function for the first detection data acquired from the radar sensor 210 on behalf of the radar sensor 210 for an object larger than the resolution of the radar sensor 210 through the two-dimensional Target information or the 3D target information may be acquired.

일 실시예에 따르면, 프로세서(260)는 제1 감지 데이터를 획득하는 동안에, 라이다 센서(220)를 통해 제2 감지 데이터를 획득할 수 있다. 제2 감지 데이터는 라이다 센서(220)에 기준한 물체의 x, y, z 좌표 정보를 포함하는 3차원 데이터일 수 있다.According to an embodiment, the processor 260 may acquire the second detection data through the lidar sensor 220 while acquiring the first detection data. The second sensing data may be 3D data including x, y, and z coordinate information of an object based on the lidar sensor 220 .

일 실시예에 따르면, 프로세서(260)는 제1 감지 데이터 및 제2 감지 데이터를 획득하는 동안에, 카메라(230)를 통해 제3 시야각에 대한 프리뷰 영상을 획득하고, 프리뷰 영상을 메모리(250)에 저장하거나, 디스플레이(240)에 표시할 수 있다. According to an embodiment, the processor 260 acquires a preview image for the third viewing angle through the camera 230 while acquiring the first detection data and the second detection data, and stores the preview image in the memory 250 . It may be stored or displayed on the display 240 .

일 실시예에 따르면, 프로세서(260)는 제1 감지 데이터를 통해 물체를 검출하면, 제2 감지 데이터에 기반하여 물체의 형상을 검출할 수 있다. 프로세서(260)는 제1 감지 데이터의 포맷에 따라 제2 감지 데이터를 달리 처리할 수 있다. 예를 들어, 물체 검출에 관련된 제1 감지 데이터가 3차원 데이터인 경우, 프로세서(260)는 제2 감지 데이터에 포함된 근접한 포인트 클라우드들을 클러스터링하여 물체의 3차원 형상을 감지할 수 있다. 다른 예를 들어, 물체 검출에 관련된 제1 감지 데이터가 2차원 데이터인 경우, 프로세서(260)는 제2 감지 데이터를 제1 감지 데이터의 포맷에 따라 2차원 데이터로 변환할 수 있다. 프로세서(260)는 2차원으로 변환된 제2 감지 데이터에 포함된 점들을 클러스터링하여 물체의 2차원 형상을 결정할 수 있다. According to an embodiment, when the processor 260 detects an object through the first sensed data, the processor 260 may detect the shape of the object based on the second sensed data. The processor 260 may differently process the second sensed data according to the format of the first sensed data. For example, when the first sensing data related to object detection is 3D data, the processor 260 may detect the 3D shape of the object by clustering adjacent point clouds included in the second sensing data. As another example, when the first sensing data related to object detection is 2D data, the processor 260 may convert the second sensing data into 2D data according to the format of the first sensing data. The processor 260 may determine the two-dimensional shape of the object by clustering points included in the second sensed data converted into two dimensions.

일 실시예에 따르면, 프로세서(260)는 제1 감지 데이터 및 제2 감지 데이터에 각기 기반하여 주변 환경의 물체들 중 가장 근거리에 위치한 목표물을 검출할 수 있다. 예를 들어, 프로세서(260)는 제1 감지 데이터 및 제2 감지 데이터 중 적어도 하나의 감지 데이터에 기반하여 복수의 물체들을 검출한 경우에, 검출된 복수의 물체들 중에서 가장 근거리에 위치한 목표물을 검출할 수 있다. 다양한 실시예에 따르면, 프로세서(260)는 상기 복수의 물체들 중에서 지정된 거리 또는 방향에 위치한 목표물을 검출할 수 있다. According to an embodiment, the processor 260 may detect a target located closest to the objects in the surrounding environment based on the first detection data and the second detection data, respectively. For example, when the processor 260 detects a plurality of objects based on at least one of the first detection data and the second detection data, the processor 260 detects a target located closest to the detected plurality of objects. can do. According to various embodiments, the processor 260 may detect a target located at a specified distance or direction from among the plurality of objects.

일 실시예에 따르면, 프로세서(260)는 제1 감지 데이터에 의해 검출된 목표물(이하, “제1 객체”라 함) 및 제2 감지 데이터에 의해 검출된 목표물(이하, “제2 객체”라 함) 간의 유사도를 확인할 수 있다. 예를 들어, 프로세서(260)는 제1 감지 데이터에 따른 제1 객체 관련 정보 및 제2 감지 데이터에 따른 제2 객체 관련 정보(거리 정보 및 형상 정보) 간을 연관시킬 수 있다. 프로세서(260)는 상호 연관된 제1 객체 관련 정보 및 제2 객체 관련 정보에 기반하여 제1 객체와 제2 객체의 무게 중심, 거리 정보, 제1 방향각, 영역 정보(예: 물체의 길이 혹은 물체의 영역 크기), 제2 방향각 및 영역 정보(예: 영역 크기) 간의 유사도를 확인할 수 있다. 상기 제1 객체 관련 정보는 예를 들면, 거리 정보, 입체 영역 정보(예: 물체의 길이 혹은 3차원 영역 크기), 제1 방향각 정보 및 제2 방향각 정보 중 적어도 하나를 포함할 수 있다. 상기 제2 객체 관련 정보는 예를 들면, 거리 정보 및 형상 정보를 포함할 수 있다. 이 과정에서, 프로세서(260)는 제1 객체 및 제2 객체를 비교하기 위하여 제1 감지 데이터의 해상도에 맞추어 제1 감지 데이터(또는, 제1 객체 관련 정보) 및 제2 감지 데이터(또는, 제1 객체 관련 정보)를 연관시킬 수 있다. 프로세서(260)는 연관된 제1 감지 데이터(또는, 제1 객체 관련 정보) 및 제2 감지 데이터(또는, 제2 객체 관련 정보)에 기반하여 제1 객체 및 제2 객체 간의 유사도를 확인할 수 있다. 차량 검출이 목적이라면, 차량의 최소 크기(예: 4m*2m*1.5m)를 레이더 센서(210)의 해상도에 따른 단위 볼륨(0.5m*0.5m*0.5)에 따라 제1 감지 데이터 및 제2 감지 데이터를 연관시킬 수 있다. According to an exemplary embodiment, the processor 260 may configure a target detected by the first detection data (hereinafter, referred to as a “first object”) and a target detected by the second detection data (hereinafter referred to as a “second object”). ), the similarity between them can be confirmed. For example, the processor 260 may associate between the first object-related information according to the first sensed data and the second object-related information (distance information and shape information) according to the second sensed data. The processor 260 is configured to provide center of gravity, distance information, first direction angle, and area information (eg, the length of the object or the object) of the first object and the second object based on the first object-related information and the second object-related information related to each other. ), the second direction angle, and the similarity between the area information (eg, area size) may be checked. The first object-related information may include, for example, at least one of distance information, three-dimensional area information (eg, the length of an object or a size of a three-dimensional area), first direction angle information, and second direction angle information. The second object-related information may include, for example, distance information and shape information. In this process, in order to compare the first object and the second object, the processor 260 performs the first detection data (or the first object related information) and the second detection data (or the second detection data) according to the resolution of the first detection data. 1 object-related information). The processor 260 may check the similarity between the first object and the second object based on the associated first detection data (or first object-related information) and the second detection data (or second object-related information). If the purpose of vehicle detection is to determine the minimum size of the vehicle (eg, 4m*2m*1.5m) according to the unit volume (0.5m*0.5m*0.5) according to the resolution of the radar sensor 210, the first detection data and the second Sensing data can be correlated.

일 실시예에 따르면, 제1 객체 및 제2 객체 간의 유사도가 임계 유사도 이상이면, 프로세서(260)는 제1 객체 및 제2 객체가 상호 일치하는 목표물 또는 동일한 목표물로 결정할 수 있다. According to an embodiment, if the similarity between the first object and the second object is equal to or greater than the threshold similarity, the processor 260 may determine that the first object and the second object are mutually identical or identical targets.

이 과정에서, 프로세서(260)는 제1 객체 및 제2 객체가 복수 횟수 일치하는 것을 확인함에 따라 제1 객체 및 제2 객체를 동일한 목표물로 결정할 수 있다. 예를 들어, 프로세서(260)는 제1 지정된 횟수(예: 10회)만큼 레이더 센서(210) 및 라이다 센서(220)를 통해 주변 물체를 탐지할 수 있다. 프로세서(260)는 주변 물체 탐지를 통해서 제1 객체 및 제2 객체를 검출하면, 제1 객체 및 제2 객체 간의 유사도에 기반하여 제1 객체 및 제2 객체가 상호 일치하는지를 확인할 수 있다. 프로세서(260)는 제1 지정된 횟수 이하의 제2 지정된 횟수(예: 5회)만큼 제1 객체 및 제2 객체가 일치하는 것을 확인하면, 제1 객체 및 제2 객체를 동일한 목표물로 결정할 수 있다. In this process, the processor 260 may determine the first object and the second object as the same target as it is confirmed that the first object and the second object match a plurality of times. For example, the processor 260 may detect a surrounding object through the radar sensor 210 and the lidar sensor 220 a first predetermined number of times (eg, 10 times). When the first object and the second object are detected through the detection of the surrounding object, the processor 260 may determine whether the first object and the second object match each other based on the degree of similarity between the first object and the second object. The processor 260 may determine the first object and the second object as the same target when it is confirmed that the first object and the second object match for a second specified number of times (eg, 5 times) less than the first specified number of times. .

일 실시예에 따르면, 제1 객체 및 제2 객체가 동일한 목표물로 결정되면, 프로세서(260)는 레이더 센서(210)에 의해 검출된 제1 객체의 위치 정보 및 라이다 센서(220)에 의해 검출된 제1 객체의 위치 정보 간의 차이를 확인할 수 있다. 예를 들어, 프로세서(260)는 레이더 센서(210)의 해상도 또는 라이다 센서(220)의 해상도에 맞추어 제1 객체의 위치 정보(이하, "제1 위치 정보"라 함) 및 제2 객체의 위치 정보(이하, "제2 위치 정보"라 함) 간의 차이를 산출할 수 있다. 상기 산출된 차이는 기준점에 따른 거리 차이, 각도 차이 및 검출된 객체의 크기 차이 중 적어도 하나를 포함할 수 있다. 상기 산출된 거리 차이는 예를 들면, 제1 객체의 무게 중심과 제2 객체의 무게 중심 간의 거리 차이를 포함할 수 있다. According to an embodiment, when the first object and the second object are determined to be the same target, the processor 260 detects the position information of the first object detected by the radar sensor 210 and the lidar sensor 220 . It is possible to check a difference between the location information of the first object. For example, the processor 260 may determine the location information of the first object (hereinafter referred to as “first location information”) and the second object according to the resolution of the radar sensor 210 or the resolution of the lidar sensor 220 . A difference between location information (hereinafter, referred to as “second location information”) may be calculated. The calculated difference may include at least one of a distance difference according to a reference point, an angle difference, and a size difference of the detected object. The calculated distance difference may include, for example, a distance difference between the center of gravity of the first object and the center of gravity of the second object.

일 실시예에 따르면, 프로세서(260)는 제1 위치 정보 및 제2 위치 정보 간의 차이에 기반하여 레이더 센서(210)의 성능을 확인할 수 있다. 예를 들어, 프로세서(260)는 제1 위치 정보 및 제2 위치 정보 간의 차이가 클수록 레이더 센서(210)의 성능이 낮은 것으로 결정할 수 있다. According to an embodiment, the processor 260 may check the performance of the radar sensor 210 based on a difference between the first location information and the second location information. For example, the processor 260 may determine that the performance of the radar sensor 210 is lower as the difference between the first location information and the second location information increases.

일 실시예에 따르면, 프로세서(260)는 카메라(230)의 프리뷰 영상에 기반하여 레이더 센서(210)의 성능과 관련된 이미지를 표시할 수 있다. According to an embodiment, the processor 260 may display an image related to the performance of the radar sensor 210 based on the preview image of the camera 230 .

프로세서(260)는 카메라(230)를 통해 제1 객체 및 제2 객체를 포함하는 프리뷰 영상을 생성할 수 있다. 프로세서(260)는 제1 감지 데이터에 기반하여 결정된 제1 위치 정보 및 제2 감지 데이터에 기반하여 결정된 제1 위치 정보를 카메라(230)의 좌표계에 대응하는 위치 정보로 변환할 수 있다. 프로세서(260)는 프리뷰 영상에서 변환된 제1 위치 정보에 제1 객체의 위치를 나타내는 제1 객체 이미지를 나타내고 변환된 제2 위치 정보에 제2 객체의 위치와 형상을 나타내는 제2 객체 이미지를 나타낼 수 있다. 다양한 실시예에 따르면, 프로세서(260)는 목표물에 대하여 상기 카메라(230)의 초점을 맞추고, 프리뷰 영상을 생성 및 표시할 수 있다.The processor 260 may generate a preview image including the first object and the second object through the camera 230 . The processor 260 may convert the first location information determined based on the first detection data and the first location information determined based on the second detection data into location information corresponding to the coordinate system of the camera 230 . The processor 260 displays a first object image indicating the position of the first object in the first position information converted from the preview image, and displays a second object image indicating the position and shape of the second object in the converted second position information. can According to various embodiments, the processor 260 may focus the camera 230 on a target, and may generate and display a preview image.

추가적으로, 프로세서(260)는 프리뷰 영상에서 또는 다른 이미지를 통해 제1 위치 정보 및 제2 위치 정보 간의 차이를 텍스트 또는 기호를 통해서 표시할 수 있다. 예를 들어, 프로세서(260)는 프리뷰 영상에서 제1 객체 이미지 또는 제2 객체 이미지에 대한 선택을 확인하면, 상기 다른 이미지를 표시할 수 있다. 상기 텍스트 또는 기호는 예를 들면, 제1 위치 정보 및 제2 위치 정보 간의 차이가 속하는 범위에 대응하는 성능 지수(예: 우수, 보통, 미달)를 포함할 수 있다. Additionally, the processor 260 may display a difference between the first location information and the second location information in the preview image or through another image through text or a symbol. For example, when the processor 260 confirms selection of the first object image or the second object image in the preview image, the processor 260 may display the other image. The text or symbol may include, for example, a figure of merit (eg, excellent, average, or poor) corresponding to a range to which a difference between the first location information and the second location information belongs.

다양한 실시예에 따르면, 프로세서(260)는 제1 객체 관련 정보 및 제2 객체 관련 정보에 기반하여 제1 객체 및 제2 객체 간의 유사도를 확인하는 과정에서 획득된 정보에 기반하여 레이더 센서(210)의 성능을 확인할 수 있다. 예를 들어, 프로세서(260)는 제1 지정된 횟수만큼 주변 물체를 탐지하는 과정을 통해서 동일한 목표물을 검출하지 못한 횟수가 많을수록 레이더 센서(210)의 성능 지수가 낮은 것으로 결정할 수 있다.According to various embodiments, the processor 260 is configured to perform the radar sensor 210 based on information obtained in the process of confirming the similarity between the first object and the second object based on the first object-related information and the second object-related information. performance can be checked. For example, the processor 260 may determine that the performance index of the radar sensor 210 is lower as the number of times that the same target is not detected through the process of detecting the surrounding object by the first specified number of times.

상술한 실시예에 따르면, 레이더 성능 분석 장치(200)는 주변 물체에 GPS 센서를 설치하거나, 주변 물체의 위치를 수동으로 측정하는 번거로운 과정 없이 레이더 센서(210)의 시험 평가 과정에서 목표물의 위치를 자동으로 측정할 수 있다.According to the above-described embodiment, the radar performance analysis apparatus 200 determines the position of the target in the test evaluation process of the radar sensor 210 without the cumbersome process of installing a GPS sensor on the surrounding object or manually measuring the position of the surrounding object. can be measured automatically.

또한, 상술한 실시예에 따르면, 레이더 성능 분석 장치(200)는 카메라(230) 및 라이다 센서(220)를 보조적으로 활용하여 레이더 센서(210)에 의해 감지된 목표물의 위치와 형상을 나타낼 수 있다.In addition, according to the above-described embodiment, the radar performance analysis apparatus 200 may indicate the position and shape of the target detected by the radar sensor 210 by auxiliaryly utilizing the camera 230 and the lidar sensor 220 . have.

뿐만 아니라, 레이더 성능 분석 장치(200)는 목표물의 위치를 시각화함에 따라 시험자가 용이하게 레이더 센서(210)의 성능을 평가하도록 지원할 수 있다.In addition, the radar performance analysis apparatus 200 may support the tester to easily evaluate the performance of the radar sensor 210 as the location of the target is visualized.

도 3은 일 실시예에 따른 목표물 위치 검출 및 시각화를 설명하기 위한 도면을 나타낸다. 도 3에서, y축은 카메라(230)의 촬영 방향, 라이다 센서(220)와 레이더 센서(210)의 조사 방향을 나타내고, x축과 z축은 카메라(230)의 좌표계를 나타낸다. 제1 영역(310)은 라이다 센서(220)의 시야각을 나타내고, 제2 영역(320)은 레이더 센서(210)의 시야각을 나타낸다. 제3 영역(330)은 카메라(230)의 프리뷰 영상을 나타낸다.3 is a view for explaining the detection and visualization of a target position according to an embodiment. In FIG. 3 , the y-axis represents the photographing direction of the camera 230 , the irradiation direction of the lidar sensor 220 and the radar sensor 210 , and the x-axis and z-axis represent the coordinate system of the camera 230 . The first area 310 represents the viewing angle of the lidar sensor 220 , and the second area 320 represents the viewing angle of the radar sensor 210 . The third area 330 represents a preview image of the camera 230 .

도 3을 참조하면, 레이더 성능 분석 장치(200)는 동일한 목표물에 대하여 레이더 센서(210)에 기반하여 제1 위치 정보(p1)로 검출하고, 라이다 센서(220)에 기반하여 제2 위치 정보(p2)로 검출할 수 있다. 레이더 성능 분석 장치(200)는 레이더 센서(210)를 통해서는 목표물의 위치 혹은 레이다 센서의(210)의 해상도보다 큰 물체의 대략적인 형상(레이다 이미지)을 검출 가능하고, 라이다 센서(220)를 통해서는 목표물의 위치와 형상을 검출할 수 있다. 제1 위치 정보(p1) 및 제2 위치 정보(p2) 간 차이는 레이더 센서(210)와 라이다 센서(220) 간의 성능 차이로 인한 것일 수 있다. 이에, 레이더 성능 분석 장치(200)는 제1 위치 정보(p1) 및 제2 위치 정보(p2) 간의 차이를 산출하고, 확인된 차이에 기반하여 레이더 센서(210)의 성능을 평가할 수 있다. Referring to FIG. 3 , the radar performance analysis apparatus 200 detects the same target as the first location information p1 based on the radar sensor 210 and the second location information based on the lidar sensor 220 . (p2) can be detected. The radar performance analysis apparatus 200 may detect a position of a target or an approximate shape (radar image) of an object larger than the resolution of the radar sensor 210 through the radar sensor 210 , and the lidar sensor 220 . Through this, the position and shape of the target can be detected. The difference between the first location information p1 and the second location information p2 may be due to a performance difference between the radar sensor 210 and the lidar sensor 220 . Accordingly, the radar performance analysis apparatus 200 may calculate a difference between the first location information p1 and the second location information p2 and evaluate the performance of the radar sensor 210 based on the identified difference.

레이더 성능 분석 장치(200)는 제1 위치 정보(p1) 및 제2 위치 정보(p2)를 카메라(230)의 좌표계에 대응하도록 변환할 수 있다. 레이더 성능 분석 장치(200)는 변환된 제1 위치 정보(p1'또는, p1")(또는, 제1 객체 이미지) 및 변환된 제2 위치 정보(p2')(또는, 제2 객체 이미지)를 프리뷰 영상에 표시할 수 있다. 예를 들어, 레이더 성능 분석 장치(200)는 레이더 센서(210)를 통해 획득된 제1 감지 데이터가 2차원 데이터인 경우에는 목표물의 제2 방향각을 알 수 없다. 이에, 레이더 성능 분석 장치(200)는 제2 방향각 정보를 제1 시야각의 전체 상하 범위를 나타내는 제1 객체 이미지(p1')를 표시할 수 있다. 다른 예를 들어, 레이더 성능 분석 장치(200)는 레이더 센서(210)를 통해 획득된 제1 감지 데이터가 3차원 데이터인 경우에는 제2 방향각 정보를 제1 시야각의 전체 상하 범위 중 감지된 상하 범위를 나타내는 제1 객체 이미지(p1")를 표시할 수 있다.The radar performance analysis apparatus 200 may convert the first location information p1 and the second location information p2 to correspond to the coordinate system of the camera 230 . The radar performance analysis apparatus 200 calculates the converted first location information p1' or p1" (or the first object image) and the converted second location information p2' (or the second object image). may be displayed on the preview image, for example, the radar performance analysis apparatus 200 may not know the second direction angle of the target when the first detection data acquired through the radar sensor 210 is 2D data Accordingly, the radar performance analyzing apparatus 200 may display the first object image p1 ′ representing the entire upper and lower ranges of the first viewing angle using the second direction angle information. For another example, the radar performance analyzing apparatus ( When the first detected data acquired through the radar sensor 210 is three-dimensional data, 200 indicates a first object image p1" indicating a sensed upper and lower range among the entire upper and lower ranges of the first viewing angle for the second direction angle information. ) can be displayed.

도 4는 일 실시예에 따른 레이더 성능 분석 방법을 나타낸다.4 illustrates a radar performance analysis method according to an embodiment.

도 4를 참조하면, 동작 410에서, 레이더 성능 분석 장치(200)는 레이더 센서(210) 및 라이다 센서(220)를 통해 제1 감지 데이터 및 제2 감지 데이터를 각기 획득할 수 있다. 레이더 성능 분석 장치(200)는 캘리브레이션을 통해 레이더 센서(210) 및 라이다 센서(220)의 기준점을 일치시킬 수 있다.Referring to FIG. 4 , in operation 410 , the radar performance analysis apparatus 200 may acquire first and second detection data respectively through the radar sensor 210 and the lidar sensor 220 . The radar performance analysis apparatus 200 may match the reference points of the radar sensor 210 and the lidar sensor 220 through calibration.

동작 420에서, 레이더 성능 분석 장치(200)는 제1 감지 데이터 및 제2 감지 데이터에 각기 기반하여 목표물을 검출할 수 있다. 레이더 성능 분석 장치(200)는 레이더 센서(210) 및 라이다 센서(220)를 통해 주변을 탐지하여 제1 및 제2 감지 데이터를 획득하고, 제1 및 제2 감지 데이터에 기반하여 검출된 객체들 간의 유사도에 기반하여 목표물을 검출할 수 있다. 레이더 성능 분석 장치(200)는 객체들 간의 무게 중심, 거리 정보, 제1 방향각, 제2 방향각 및 영역 정보 중 적어도 하나에 대한 유사도를 확인할 수 있다.In operation 420, the radar performance analysis apparatus 200 may detect a target based on the first detection data and the second detection data, respectively. The radar performance analysis apparatus 200 detects the surroundings through the radar sensor 210 and the lidar sensor 220 to obtain first and second detection data, and an object detected based on the first and second detection data A target can be detected based on the similarity between them. The radar performance analysis apparatus 200 may check a similarity with respect to at least one of a center of gravity between objects, distance information, a first direction angle, a second direction angle, and area information.

동작 430에서, 레이더 성능 분석 장치(200)는 제1 감지 데이터와 상기 제2 감지 데이터 간 목표물의 위치 차이에 기반하여 레이더 센서(210)의 성능을 평가할 수 있다. 추가적으로, 레이더 성능 분석 장치(200)는 제1 감지 데이터 및 제2 감지 데이터를 획득하는 동안에 카메라(230)를 통해 목표물을 포함하는 프리뷰 영상을 생성하고, 프리뷰 영상에 상기 위치 차이를 나타낼 수 있다.In operation 430 , the radar performance analysis apparatus 200 may evaluate the performance of the radar sensor 210 based on a difference in the position of the target between the first detection data and the second detection data. Additionally, the radar performance analysis apparatus 200 may generate a preview image including a target through the camera 230 while acquiring the first detection data and the second detection data, and indicate the position difference in the preview image.

일 실시예에 따르면, 레이더 성능 분석 장치(예: 도 2의 200)는, 레이더 센서(radar)(예: 도 2의 210), 라이다 센서(lidar)(예: 도 2의 220); 및 프로세서(예: 도 2의 260)를 포함하고, 상기 프로세서는, 상기 레이더 센서 및 상기 라이다 센서를 통해 제1 감지 데이터 및 제2 감지 데이터를 각기 획득하고, 상기 제1 감지 데이터 및 상기 제2 감지 데이터에 각기 기반하여 목표물을 검출하고, 상기 제1 감지 데이터와 상기 제2 감지 데이터 간 목표물의 위치 차이에 기반하여 상기 레이더 센서의 성능을 평가하도록 설정될 수 있다. According to an embodiment, the radar performance analysis apparatus (eg, 200 in FIG. 2 ) may include a radar sensor (eg, 210 in FIG. 2 ), a lidar sensor (eg, 220 in FIG. 2 ); and a processor (eg, 260 in FIG. 2 ), wherein the processor acquires first and second detection data through the radar sensor and the lidar sensor, respectively, and the first detection data and the second detection data It may be configured to detect a target based on the two detection data, respectively, and evaluate the performance of the radar sensor based on a difference in position of the target between the first detection data and the second detection data.

상기 프로세서는, 상기 제1 감지 데이터에 따른 상기 목표물과의 제1 거리 및 상기 제2 감지 데이터에 따른 상기 목표물과의 제2 거리 간의 차이를 산출하고, 상기 산출된 차이에 기반하여 상기 레이더 센서의 성능을 평가하도록 설정될 수 있다.The processor calculates a difference between a first distance to the target according to the first detection data and a second distance to the target according to the second detection data, and based on the calculated difference, It can be set to evaluate performance.

상기 프로세서는, 상기 제1 감지 데이터의 해상도에 맞추어 상기 제1 감지 데이터 및 상기 제2 감지 데이터를 연관시키도록 설정될 수 있다.The processor may be configured to associate the first sensed data and the second sensed data according to a resolution of the first sensed data.

상기 프로세서는, 상기 제1 감지 데이터가 2차원 데이터이면, 상기 제2 감지 데이터의 차원을 2차원으로 축소하도록 설정될 수 있다.The processor may be configured to reduce a dimension of the second sensed data to two dimensions when the first sensed data is two-dimensional data.

상기 프로세서는, 상기 레이더 센서 및 상기 라이다 센서를 통해 제1 지정된 횟수만큼 주변 물체를 탐지하고, 상기 레이더 센서에 기반하여 검출된 제1 객체와 상기 라이다 센서에 기반하여 검출된 제2 객체가 제2 지정된 횟수 이상 일치하면, 상기 제1 객체와 상기 제2 객체가 동일한 목표물에 해당하는 것으로 결정하도록 설정될 수 있다. The processor detects a surrounding object a first specified number of times through the radar sensor and the lidar sensor, and a first object detected based on the radar sensor and a second object detected based on the lidar sensor It may be set to determine that the first object and the second object correspond to the same target when the second specified number of times or more coincide.

상기 프로세서는, 상기 제1 객체와 상기 제2 객체 간의 유사도에 기반하여 상기 제1 객체와 상기 제2 객체가 일치하는지를 확인하도록 설정될 수 있다.The processor may be configured to check whether the first object and the second object match, based on a degree of similarity between the first object and the second object.

상기 프로세서는, 상기 제1 객체와 상기 제2 객체의 무게 중심, 거리 정보, 제1 방향각, 제2 방향각 및 영역 정보 중 적어도 하나에 대하여 상기 유사도를 확인하도록 설정될 수 있다.The processor may be configured to check the similarity with respect to at least one of a center of gravity, distance information, a first direction angle, a second direction angle, and area information of the first object and the second object.

상기 레이더 성능 분석 장치(예: 도 2의 200)는, 카메라(예: 도 2의 230)를 더 포함하고, 상기 프로세서는, 상기 제1 감지 데이터 및 상기 제2 감지 데이터를 획득하는 동안에, 상기 카메라를 통해 프리뷰 영상을 획득하고, 상기 프리뷰 영상에 상기 제1 감지 데이터에 기반하여 검출된 제1 객체와 상기 제2 감지 데이터에 기반하여 검출된 제2 객체를 중첩하여 표시하도록 설정될 수 있다.The radar performance analysis apparatus (eg, 200 in FIG. 2 ) further includes a camera (eg, 230 in FIG. 2 ), and the processor, while acquiring the first detection data and the second detection data, the A preview image may be acquired through a camera, and a first object detected based on the first detection data and a second object detected based on the second detection data may be superimposed and displayed on the preview image.

상기 프로세서는, 상기 제1 객체의 위치 정보와 상기 제2 객체의 위치 정보를 확인하고, 상기 제1 객체의 위치 정보와 상기 제2 객체의 위치 정보 간의 차이를 상기 프리뷰 영상에 표시하도록 설정될 수 있다.The processor may be configured to check the location information of the first object and the location information of the second object, and to display a difference between the location information of the first object and the location information of the second object on the preview image have.

상기 프로세서는, 상기 제1 객체의 위치 정보 및 상기 제2 객체의 위치 정보를 상기 카메라의 좌표계에 대응하는 위치 정보로 각기 변환하고, 상기 프리뷰 영상에서 상기 각 변환된 위치 정보에 제1 객체 이미지 및 제2 객체 이미지를 표시하도록 설정될 수 있다.The processor converts the position information of the first object and the position information of the second object into position information corresponding to the coordinate system of the camera, respectively, and in the preview image, a first object image and It may be set to display the second object image.

상기 프로세서는, 상기 제1 객체의 위치 정보 또는 상기 제2 객체의 위치 정보 중 적어도 하나의 위치 정보에 상기 카메라의 초점을 맞추고, 상기 제1 객체 및 상기 제2 객체를 포함하는 상기 프리뷰 영상을 획득하도록 설정될 수 있다.The processor is configured to focus the camera on at least one of location information of the first object and location information of the second object, and obtain the preview image including the first object and the second object can be set to

일 실시예에 따르면, 레이더 성능 분석 방법은, 레이더 센서 및 라이다 센서를 통해 제1 감지 데이터 및 제2 감지 데이터를 각기 획득하는 동작, 상기 제1 감지 데이터 및 상기 제2 감지 데이터에 각기 기반하여 목표물을 검출하는 동작, 및 상기 제1 감지 데이터와 상기 제2 감지 데이터 간 목표물의 위치 차이에 기반하여 상기 레이더 센서의 성능을 평가하는 동작을 포함할 수 있다. According to an embodiment, the radar performance analysis method includes an operation of respectively acquiring first detection data and second detection data through a radar sensor and a lidar sensor, based on the first detection data and the second detection data, respectively The method may include detecting a target, and evaluating the performance of the radar sensor based on a position difference of the target between the first sensed data and the second sensed data.

상기 검출하는 동작은, 상기 레이더 센서 및 상기 라이다 센서를 통해 제1 지정된 횟수만큼 주변 물체를 탐지하는 동작; 및 상기 제1 객체와 상기 제2 객체가 제2 지정된 횟수 이상 일치하면, 상기 제1 객체와 상기 제2 객체가 동일한 목표물에 해당하는 것으로 결정할 수 있다. The detecting may include: detecting a surrounding object a first predetermined number of times through the radar sensor and the lidar sensor; and when the first object and the second object match a second specified number of times or more, it may be determined that the first object and the second object correspond to the same target.

상기 결정하는 동작은, 상기 제1 객체와 상기 제2 객체 간의 유사도에 기반하여 상기 제1 객체와 상기 제2 객체가 일치하는지를 확인하는 동작을 포함할 수 있다. The determining may include checking whether the first object and the second object match based on a degree of similarity between the first object and the second object.

상기 레이더 성능 분석 방법은, 상기 제1 감지 데이터 및 상기 제2 감지 데이터를 획득하는 동안에, 카메라를 통해 프리뷰 영상을 획득하는 동작, 및 상기 프리뷰 영상에 상기 제1 감지 데이터에 기반하여 검출된 제1 객체와 상기 제2 감지 데이터에 기반하여 검출된 제2 객체를 중첩하여 표시하는 동작을 더 포함할 수 있다. The radar performance analysis method includes: while acquiring the first detection data and the second detection data, acquiring a preview image through a camera; and a first detected based on the first detection data in the preview image The method may further include overlapping the object and the second object detected based on the second sensed data and displaying the overlapping operation.

상기 표시하는 동작은, 상기 제1 객체의 위치 정보와 상기 제2 객체의 위치 정보를 확인하는 동작; 및 상기 제1 객체의 위치 정보와 상기 제2 객체의 위치 정보 간의 차이를 상기 프리뷰 영상에 표시하는 동작을 포함할 수 있다. The displaying may include: checking location information of the first object and location information of the second object; and displaying a difference between the location information of the first object and the location information of the second object on the preview image.

상기 표시하는 동작은, 상기 제1 객체의 위치 정보 및 상기 제2 객체의 위치 정보를 상기 카메라의 좌표계에 대응하는 위치 정보로 각기 변환하는 동작, 및 상기 프리뷰 영상에서 상기 각 변환된 위치 정보에 제1 객체 이미지 및 제2 객체 이미지를 표시하는 동작을 포함할 수 있다. The displaying may include converting the position information of the first object and the position information of the second object into position information corresponding to the coordinate system of the camera, and adding the second object to each of the converted position information in the preview image. It may include an operation of displaying the first object image and the second object image.

일 실시예에 따르면, 레이더 성능 분석 장치(예: 도 2의 200)는, 레이더 센서(예: 도 2의 210), 라이다 센서(예: 도 2의 220), 디스플레이(예: 도 2의 240), 및 프로세서(예: 도 2의 260)를 포함하고, 상기 프로세서는, 상기 레이더 센서 및 상기 라이다 센서를 통해 제1 감지 데이터 및 제2 감지 데이터를 각기 획득하고, 상기 제1 감지 데이터 및 상기 제2 감지 데이터에 각기 기반하여 목표물을 검출하고, 상기 제2 감지 데이터와 상기 제1 감지 데이터 간 목표물의 위치 차이를 상기 디스플레이에 표시하도록 설정될 수 있다. According to an embodiment, the radar performance analysis apparatus (eg, 200 in FIG. 2 ) includes a radar sensor (eg, 210 in FIG. 2 ), a lidar sensor (eg 220 in FIG. 2 ), and a display (eg, in FIG. 2 ). 240), and a processor (eg, 260 in FIG. 2 ), wherein the processor acquires first and second detection data through the radar sensor and the lidar sensor, respectively, and the first detection data and detecting a target based on each of the second sensing data, and displaying a position difference of the target between the second sensing data and the first sensing data on the display.

상기 프로세서는, 상기 제1 감지 데이터 및 상기 제2 감지 데이터를 획득하는 동안에, 카메라를 통해 프리뷰 영상을 획득하고, 상기 프리뷰 영상에 상기 제1 감지 데이터에 기반하여 검출된 제1 객체와 상기 제2 감지 데이터에 기반하여 검출된 제2 객체를 중첩하여 표시하도록 설정될 수 있다.The processor, while acquiring the first detection data and the second detection data, acquires a preview image through a camera, the first object and the second detected based on the first detection data in the preview image It may be set to overlap and display the second object detected based on the sensed data.

상기 프로세서는, 상기 제1 객체의 위치 정보 및 상기 제2 객체의 위치 정보를 상기 카메라의 좌표계에 대응하는 위치 정보로 각기 변환하고, 상기 프리뷰 영상에서 상기 각 변환된 위치 정보에 제1 객체 이미지 및 제2 객체 이미지를 표시하도록 설정될 수 있다. The processor converts the position information of the first object and the position information of the second object into position information corresponding to the coordinate system of the camera, respectively, and in the preview image, a first object image and It may be set to display the second object image.

본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나",“A 또는 B 중 적어도 하나”, "A, B 또는 C", "A, B 및 C 중 적어도 하나” 및 “A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제1", "제2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제1) 구성요소가 다른(예: 제2) 구성요소에, “기능적으로” 또는 “통신적으로”라는 용어와 함께 또는 이런 용어 없이, “커플드” 또는 “커넥티드”라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.It should be understood that the various embodiments of this document and the terms used therein are not intended to limit the technical features described in this document to specific embodiments, and include various modifications, equivalents, or substitutions of the embodiments. In connection with the description of the drawings, like reference numerals may be used for similar or related components. The singular form of the noun corresponding to the item may include one or more of the item, unless the relevant context clearly dictates otherwise. As used herein, “A or B”, “at least one of A and B”, “at least one of A or B”, “A, B or C”, “at least one of A, B and C” and “A, Each of the phrases "at least one of B, or C" may include any one of, or all possible combinations of, items listed together in the corresponding one of the phrases. Terms such as “first”, “second”, or “first” or “second” may simply be used to distinguish the component from other such components, and refer to the component in another aspect (e.g., importance or order) is not limited. that one (e.g., first) component is "coupled" or "connected" to another (e.g., second) component with or without the terms "functionally" or "communicatively" When referenced, it means that one component can be connected to the other component directly (eg by wire), wirelessly, or through a third component.

본 문서에서 사용된 용어 "모듈", "부" 및 "수단"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다.As used herein, the terms “module,” “part,” and “means” may include units implemented in hardware, software, or firmware, and include terms such as, for example, logic, logical blocks, components, or circuits; They can be used interchangeably. A module may be an integrally formed part or a minimum unit or a part of the part that performs one or more functions. For example, according to an embodiment, the module may be implemented in the form of an application-specific integrated circuit (ASIC).

본 문서의 다양한 실시예들은 기기(machine)(예: 레이더 성능 분석 장치(200))에 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리 또는 외장 메모리)(메모리(250))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램)로서 구현될 수 있다. 예를 들면, 기기(예: 레이더 성능 분석 장치(200))의 프로세서(예: 프로세서(260)는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체 는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, ‘비일시적’은 저장매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.Various embodiments of the present document are stored in a storage medium (eg, internal memory or external memory) (memory 250) readable by a machine (eg, radar performance analysis device 200). It may be implemented as software (eg, a program) including one or more instructions. For example, the processor (eg, the processor 260) of the device (eg, the radar performance analysis apparatus 200) may call at least one of the one or more instructions stored from the storage medium and execute it. Enables a device to be operated to perform at least one function according to the called at least one instruction, The one or more instructions may include code generated by a compiler or code that can be executed by an interpreter. A device-readable storage medium may be provided in the form of a non-transitory storage medium, where 'non-transitory' is a device in which the storage medium is tangible, and a signal (eg, : electromagnetic waves), and this term does not distinguish between a case in which data is semi-permanently stored in a storage medium and a case in which data is temporarily stored.

일실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to one embodiment, the method according to various embodiments disclosed in this document may be provided in a computer program product (computer program product). Computer program products may be traded between sellers and buyers as commodities. The computer program product is distributed in the form of a machine-readable storage medium (eg compact disc read only memory (CD-ROM)), or through an application store (eg Play Store TM ) or on two user devices ( It can be distributed (eg downloaded or uploaded) directly, online between smartphones (eg: smartphones). In the case of online distribution, at least a part of the computer program product may be temporarily stored or temporarily generated in a machine-readable storage medium such as a memory of a server of a manufacturer, a server of an application store, or a relay server.

다양한 실시예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있다. 다양한 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.According to various embodiments, each component (eg, a module or a program) of the above-described components may include a singular or a plurality of entities. According to various embodiments, one or more components or operations among the above-described corresponding components may be omitted, or one or more other components or operations may be added. Alternatively or additionally, a plurality of components (eg, a module or a program) may be integrated into one component. In this case, the integrated component may perform one or more functions of each component of the plurality of components identically or similarly to those performed by the corresponding component among the plurality of components prior to the integration. . According to various embodiments, operations performed by a module, program, or other component are executed sequentially, in parallel, repeatedly, or heuristically, or one or more of the operations are executed in a different order, or omitted. or one or more other operations may be added.

Claims (20)

레이더 성능 분석 장치에 있어서,
레이더 센서(radar);
라이다 센서(lidar); 및
프로세서를 포함하고,
상기 프로세서는,
상기 레이더 센서 및 상기 라이다 센서를 통해 제1 감지 데이터 및 제2 감지 데이터를 각기 획득하고,
상기 제1 감지 데이터 및 상기 제2 감지 데이터에 각기 기반하여 목표물을 검출하고,
상기 제1 감지 데이터와 상기 제2 감지 데이터 간 목표물의 위치 차이에 기반하여 상기 레이더 센서의 성능을 평가하도록 설정된, 레이더 성능 분석 장치.
In the radar performance analysis apparatus,
radar sensor;
lidar sensors; and
including a processor;
The processor is
first detection data and second detection data are respectively acquired through the radar sensor and the lidar sensor;
detecting a target based on each of the first sensed data and the second sensed data;
The radar performance analysis apparatus is set to evaluate the performance of the radar sensor based on a difference in the position of the target between the first detection data and the second detection data.
청구항 1에 있어서, 상기 프로세서는,
상기 제1 감지 데이터에 따른 상기 목표물과의 제1 거리 및 상기 제2 감지 데이터에 따른 상기 목표물과의 제2 거리 간의 차이를 산출하고,
상기 산출된 차이에 기반하여 상기 레이더 센서의 성능을 평가하도록 설정된, 레이더 성능 분석 장치.
The method according to claim 1, wherein the processor,
calculating a difference between a first distance from the target according to the first detection data and a second distance from the target according to the second detection data;
A radar performance analysis apparatus configured to evaluate the performance of the radar sensor based on the calculated difference.
청구항 1에 있어서, 상기 프로세서는,
상기 제1 감지 데이터의 해상도에 맞추어 상기 제1 감지 데이터 및 상기 제2 감지 데이터를 연관시키도록 설정된, 레이더 성능 분석 장치.
The method according to claim 1, wherein the processor,
The radar performance analysis apparatus is set to correlate the first sensed data and the second sensed data according to the resolution of the first sensed data.
청구항 3에 있어서, 상기 프로세서는,
상기 제1 감지 데이터가 2차원 데이터이면, 상기 제2 감지 데이터의 차원을 2차원으로 축소하도록 설정된, 레이더 성능 분석 장치.
The method according to claim 3, wherein the processor,
When the first sensed data is two-dimensional data, the radar performance analysis apparatus is set to reduce the dimension of the second sensed data to two dimensions.
청구항 1에 있어서, 상기 프로세서는,
상기 레이더 센서 및 상기 라이다 센서를 통해 제1 지정된 횟수 만큼 주변 물체를 탐지하고,
상기 레이더 센서에 기반하여 검출된 제1 객체와 상기 라이다 센서에 기반하여 검출된 제2 객체가 제2 지정된 횟수 이상 일치하면, 상기 제1 객체와 상기 제2 객체가 동일한 목표물에 해당하는 것으로 결정하도록 설정된, 레이더 성능 분석 장치.
The method according to claim 1, wherein the processor,
Detecting a surrounding object a first specified number of times through the radar sensor and the lidar sensor,
When the first object detected based on the radar sensor and the second object detected based on the lidar sensor match a second specified number of times or more, it is determined that the first object and the second object correspond to the same target A radar performance analysis device, set to
청구항 5에 있어서, 상기 프로세서는,
상기 제1 객체와 상기 제2 객체 간의 유사도에 기반하여 상기 제1 객체와 상기 제2 객체가 일치하는지를 확인하도록 설정된, 레이더 성능 분석 장치.
The method according to claim 5, wherein the processor,
The radar performance analysis apparatus, configured to check whether the first object and the second object match based on the degree of similarity between the first object and the second object.
청구항 6에 있어서, 상기 프로세서는,
상기 제1 객체와 상기 제2 객체의 무게 중심, 거리 정보, 제1 방향각, 제2 방향각 및 영역 정보 중 적어도 하나에 대하여 상기 유사도를 확인하도록 설정된, 레이더 성능 분석 장치.
The method according to claim 6, wherein the processor,
The radar performance analysis apparatus is set to check the similarity with respect to at least one of a center of gravity, distance information, a first direction angle, a second direction angle, and area information of the first object and the second object.
청구항 1에 있어서,
카메라를 더 포함하고, 상기 프로세서는,
상기 제1 감지 데이터 및 상기 제2 감지 데이터를 획득하는 동안에, 상기 카메라를 통해 프리뷰 영상을 획득하고,
상기 프리뷰 영상에 상기 제1 감지 데이터에 기반하여 검출된 제1 객체와 상기 제2 감지 데이터에 기반하여 검출된 제2 객체를 중첩하여 표시하도록 설정된, 레이더 성능 분석 장치.
The method according to claim 1,
Further comprising a camera, the processor comprising:
While acquiring the first detection data and the second detection data, acquiring a preview image through the camera,
The radar performance analysis apparatus is set to overlap the preview image with a first object detected based on the first detection data and a second object detected based on the second detection data.
청구항 8에 있어서, 상기 프로세서는,
상기 제1 객체의 위치 정보와 상기 제2 객체의 위치 정보를 확인하고,
상기 제1 객체의 위치 정보와 상기 제2 객체의 위치 정보 간의 차이를 상기 프리뷰 영상에 표시하도록 설정된, 레이더 성능 분석 장치.
The method of claim 8, wherein the processor,
Check the location information of the first object and the location information of the second object,
and a difference between the location information of the first object and the location information of the second object is set to be displayed on the preview image.
청구항 8에 있어서, 상기 프로세서는,
상기 제1 객체의 위치 정보 및 상기 제2 객체의 위치 정보를 상기 카메라의 좌표계에 대응하는 위치 정보로 각기 변환하고,
상기 프리뷰 영상에서 상기 각 변환된 위치 정보에 제1 객체 이미지 및 제2 객체 이미지를 표시하도록 설정된, 레이더 성능 분석 장치.
The method of claim 8, wherein the processor,
Converting the position information of the first object and the position information of the second object into position information corresponding to the coordinate system of the camera, respectively;
The radar performance analysis apparatus is set to display a first object image and a second object image on each of the converted position information in the preview image.
청구항 8에 있어서, 상기 프로세서는,
상기 제1 객체의 위치 정보 또는 상기 제2 객체의 위치 정보 중 적어도 하나의 위치 정보에 상기 카메라의 초점을 맞추고,
상기 제1 객체 및 상기 제2 객체를 포함하는 상기 프리뷰 영상을 획득하도록 설정된, 레이더 성능 분석 장치.
The method of claim 8, wherein the processor,
focusing the camera on at least one of the location information of the first object and the location information of the second object;
A radar performance analysis apparatus configured to acquire the preview image including the first object and the second object.
프로세서에 의한 레이더 성능 분석 방법에 있어서,
레이더 센서 및 라이다 센서를 통해 제1 감지 데이터 및 제2 감지 데이터를 각기 획득하는 동작;
상기 제1 감지 데이터 및 상기 제2 감지 데이터에 각기 기반하여 목표물을 검출하는 동작; 및
상기 제1 감지 데이터와 상기 제2 감지 데이터 간 목표물의 위치 차이에 기반하여 상기 레이더 센서의 성능을 평가하는 동작을 포함하는, 레이더 성능 분석 방법.
In the radar performance analysis method by the processor,
acquiring the first detection data and the second detection data through the radar sensor and the lidar sensor, respectively;
detecting a target based on the first sensed data and the second sensed data, respectively; and
and evaluating the performance of the radar sensor based on a position difference of a target between the first detection data and the second detection data.
청구항 12에 있어서, 상기 검출하는 동작은,
상기 레이더 센서 및 상기 라이다 센서를 통해 제1 지정된 횟수 만큼 주변 물체를 탐지하는 동작; 및
상기 제1 객체와 상기 제2 객체가 제2 지정된 횟수 이상 일치하면, 상기 제1 객체와 상기 제2 객체가 동일한 목표물에 해당하는 것으로 결정하는, 레이더 성능 분석 방법.
The method of claim 12, wherein the detecting comprises:
detecting a surrounding object a first predetermined number of times through the radar sensor and the lidar sensor; and
When the first object and the second object match more than a second specified number of times, it is determined that the first object and the second object correspond to the same target.
청구항 13에 있어서, 상기 결정하는 동작은,
상기 제1 객체와 상기 제2 객체 간의 유사도에 기반하여 상기 제1 객체와 상기 제2 객체가 일치하는지를 확인하는 동작을 포함하는, 레이더 성능 분석 방법.
The method according to claim 13, The determining operation,
and determining whether the first object and the second object match based on a degree of similarity between the first object and the second object.
청구항 1에 있어서,
상기 제1 감지 데이터 및 상기 제2 감지 데이터를 획득하는 동안에, 카메라를 통해 프리뷰 영상을 획득하는 동작; 및
상기 프리뷰 영상에 상기 제1 감지 데이터에 기반하여 검출된 제1 객체와 상기 제2 감지 데이터에 기반하여 검출된 제2 객체를 중첩하여 표시하는 동작을 더 포함하는, 레이더 성능 분석 방법.
The method according to claim 1,
acquiring a preview image through a camera while acquiring the first detection data and the second detection data; and
The method of claim 1 , further comprising overlapping a first object detected based on the first detection data and a second object detected based on the second detection data on the preview image and displaying the overlapped image.
청구항 15에 있어서, 상기 표시하는 동작은,
상기 제1 객체의 위치 정보와 상기 제2 객체의 위치 정보를 확인하는 동작; 및
상기 제1 객체의 위치 정보와 상기 제2 객체의 위치 정보 간의 차이를 상기 프리뷰 영상에 표시하는 동작을 포함하는, 레이더 성능 분석 방법.
The method according to claim 15, The displaying operation,
checking the location information of the first object and the location information of the second object; and
and displaying a difference between the location information of the first object and the location information of the second object on the preview image.
청구항 15에 있어서, 상기 표시하는 동작은,
상기 제1 객체의 위치 정보 및 상기 제2 객체의 위치 정보를 상기 카메라의 좌표계에 대응하는 위치 정보로 각기 변환하는 동작; 및
상기 프리뷰 영상에서 상기 각 변환된 위치 정보에 제1 객체 이미지 및 제2 객체 이미지를 표시하는 동작을 포함하는, 레이더 성능 분석 방법.
The method according to claim 15, The displaying operation,
converting the position information of the first object and the position information of the second object into position information corresponding to the coordinate system of the camera, respectively; and
and displaying a first object image and a second object image on each of the converted position information in the preview image.
레이더 성능 분석 장치에 있어서,
레이더 센서(radar);
라이다 센서(lidar);
디스플레이; 및
프로세서를 포함하고,
상기 프로세서는,
상기 레이더 센서 및 상기 라이다 센서를 통해 제1 감지 데이터 및 제2 감지 데이터를 각기 획득하고,
상기 제1 감지 데이터 및 상기 제2 감지 데이터에 각기 기반하여 목표물을 검출하고,
상기 제2 감지 데이터와 상기 제1 감지 데이터 간 목표물의 위치 차이를 상기 디스플레이에 표시하도록 설정된, 레이더 성능 분석 장치.
In the radar performance analysis apparatus,
radar sensor;
lidar sensors;
display; and
including a processor;
The processor is
first detection data and second detection data are respectively acquired through the radar sensor and the lidar sensor;
detecting a target based on each of the first sensed data and the second sensed data;
A radar performance analysis apparatus configured to display a position difference of a target between the second detection data and the first detection data on the display.
청구항 18에 있어서, 상기 프로세서는,
상기 제1 감지 데이터 및 상기 제2 감지 데이터를 획득하는 동안에, 카메라를 통해 프리뷰 영상을 획득하고,
상기 프리뷰 영상에 상기 제1 감지 데이터에 기반하여 검출된 제1 객체와 상기 제2 감지 데이터에 기반하여 검출된 제2 객체를 중첩하여 표시하도록 설정된, 레이더 성능 분석 장치.
The method of claim 18, wherein the processor,
While acquiring the first detection data and the second detection data, a preview image is acquired through a camera,
The radar performance analysis apparatus is set to overlap the preview image with a first object detected based on the first detection data and a second object detected based on the second detection data.
청구항 19에 있어서, 상기 프로세서는,
상기 제1 객체의 위치 정보 및 상기 제2 객체의 위치 정보를 상기 카메라의 좌표계에 대응하는 위치 정보로 각기 변환하고,
상기 프리뷰 영상에서 상기 각 변환된 위치 정보에 제1 객체 이미지 및 제2 객체 이미지를 표시하도록 설정된, 레이더 성능 분석 장치.
The method of claim 19, wherein the processor,
Converting the position information of the first object and the position information of the second object into position information corresponding to the coordinate system of the camera, respectively;
The radar performance analysis apparatus is set to display a first object image and a second object image on each of the converted position information in the preview image.
KR1020200032142A 2020-03-16 2020-03-16 Apparatus and Method for Verifying Radar Performance KR20210115819A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200032142A KR20210115819A (en) 2020-03-16 2020-03-16 Apparatus and Method for Verifying Radar Performance

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200032142A KR20210115819A (en) 2020-03-16 2020-03-16 Apparatus and Method for Verifying Radar Performance

Publications (1)

Publication Number Publication Date
KR20210115819A true KR20210115819A (en) 2021-09-27

Family

ID=77925631

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200032142A KR20210115819A (en) 2020-03-16 2020-03-16 Apparatus and Method for Verifying Radar Performance

Country Status (1)

Country Link
KR (1) KR20210115819A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023054883A1 (en) * 2021-09-29 2023-04-06 주식회사 에스오에스랩 Method and apparatus for evaluating performance with respect to lidar apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023054883A1 (en) * 2021-09-29 2023-04-06 주식회사 에스오에스랩 Method and apparatus for evaluating performance with respect to lidar apparatus

Similar Documents

Publication Publication Date Title
US10240914B2 (en) Dimensioning system with guided alignment
US10402956B2 (en) Image-stitching for dimensioning
US11002839B2 (en) Method and apparatus for measuring angular resolution of multi-beam lidar
US10775165B2 (en) Methods for improving the accuracy of dimensioning-system measurements
US10417769B2 (en) Automatic mode switching in a volume dimensioner
GB2531928A (en) Image-stitching for dimensioning
US20140078519A1 (en) Laser Scanner
US9633450B2 (en) Image measurement device, and recording medium
CN111750804B (en) Object measuring method and device
EP3435026B1 (en) Dual-pattern optical 3d dimensioning
US20120076400A1 (en) Method and system for fast three-dimensional imaging using defocusing and feature recognition
KR101523046B1 (en) Distance measurement apparatus of an image processing-based
CN113124763B (en) Optical axis calibration method, device, terminal, system and medium for optical axis detection system
US20220215582A1 (en) Conversion parameter calculation method, displacement amount calculation method, conversion parameter calculation device, and displacement amount calculation device
Kettelgerdes et al. Correlating intrinsic parameters and sharpness for condition monitoring of automotive imaging sensors
KR20210115819A (en) Apparatus and Method for Verifying Radar Performance
US20210256729A1 (en) Methods and systems for determining calibration quality metrics for a multicamera imaging system
CN105571491A (en) Binocular vision-based automobile chassis data measuring system and method thereof
CN114046768B (en) Laser ranging method, device, laser ranging equipment and storage medium
US20140307266A1 (en) Three-dimensional distance measuring method and associated system
Langmann Wide area 2D/3D imaging: development, analysis and applications
CN113227719A (en) Measurement system, measurement device, measurement method, and program
JP2009174974A (en) 3-d sensor
JP7363545B2 (en) Calibration judgment result presentation device, calibration judgment result presentation method and program
Cho et al. Optical design of photometric techniques for specular reflection