KR102613536B1 - Proximity Object Distance/Pose Precision Calculation Apparatus and Method by Radar 3D map and Stereo Depth map - Google Patents

Proximity Object Distance/Pose Precision Calculation Apparatus and Method by Radar 3D map and Stereo Depth map Download PDF

Info

Publication number
KR102613536B1
KR102613536B1 KR1020230118201A KR20230118201A KR102613536B1 KR 102613536 B1 KR102613536 B1 KR 102613536B1 KR 1020230118201 A KR1020230118201 A KR 1020230118201A KR 20230118201 A KR20230118201 A KR 20230118201A KR 102613536 B1 KR102613536 B1 KR 102613536B1
Authority
KR
South Korea
Prior art keywords
map
distance
radar
data
depth
Prior art date
Application number
KR1020230118201A
Other languages
Korean (ko)
Inventor
박장한
Original Assignee
한화시스템(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한화시스템(주) filed Critical 한화시스템(주)
Priority to KR1020230118201A priority Critical patent/KR102613536B1/en
Application granted granted Critical
Publication of KR102613536B1 publication Critical patent/KR102613536B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • G01S13/72Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/04Display arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Geometry (AREA)
  • Image Processing (AREA)

Abstract

본 발명은 레이다 3D 맵과 스테레오 깊이 맵에 의한 근접 객체 거리/자세 정밀 계산 장치 및 그 방법에 관한 것으로서, 특히 0.2m이상의 근접거리에서 객체의 정밀 거리/자세 측정 장치를 보유하고 있지 않은 상태에서 Point Cloud 방식의 레이다 3D맵과 참조 값의 스테레오 깊이 2.5D 맵을 통해 객체의 정밀 거리/자세를 계산할 수 있도록 한 레이다 3D 맵과 스테레오 깊이 맵에 의한 근접 객체 거리/자세 정밀 계산 장치 및 그 방법에 관한 것이다.The present invention relates to a device and method for precisely calculating the distance/posture of a close-up object using a radar 3D map and a stereo depth map. In particular, the present invention relates to a point A device and method for precise calculation of close object distance/posture using a radar 3D map and stereo depth map that allows calculating the precise distance/posture of an object through a cloud-based radar 3D map and a stereo depth 2.5D map of reference values will be.

Description

레이다 3D 맵과 스테레오 깊이 맵에 의한 근접 객체 거리/자세 정밀 계산 장치 및 그 방법{Proximity Object Distance/Pose Precision Calculation Apparatus and Method by Radar 3D map and Stereo Depth map}Proximity Object Distance/Pose Precision Calculation Apparatus and Method by Radar 3D map and Stereo Depth map}

본 발명은 레이다 3D 맵과 스테레오 깊이 맵에 의한 근접 객체 거리/자세 정밀 계산 장치 및 그 방법에 관한 것으로서, 특히 0.2m이상의 근접거리에서 객체의 정밀 거리/자세 측정 장치를 보유하고 있지 않은 상태에서 Point Cloud 방식의 레이다 3D맵과 참조 값의 스테레오 깊이 2.5D 맵을 통해 객체의 정밀 거리/자세를 계산할 수 있도록 한 레이다 3D 맵과 스테레오 깊이 맵에 의한 근접 객체 거리/자세 정밀 계산 장치 및 그 방법에 관한 것이다. The present invention relates to a device and method for precisely calculating the distance/posture of a close-up object using a radar 3D map and a stereo depth map. In particular, the present invention relates to a point A device and method for precise calculation of close object distance/posture using a radar 3D map and stereo depth map that allows calculating the precise distance/posture of an object through a cloud-based radar 3D map and a stereo depth 2.5D map of reference values will be.

종래 기술은 Point 방식의 레이다와 가시광 센서(CCD, CMOS) 또는 적외선 센서(열영상, thermal)의 2D 영상을 활용하여 거리 및 자세를 측정이 용이하나 가시광 센서 또는 적외선 센서가 없는 Point 방식의 레이다만 있는 경우에, 개략적으로 상대 거리를 추정하는 방법이 있다.Conventional technology uses point-type radar and 2D images from visible light sensors (CCD, CMOS) or infrared sensors (thermal imaging, thermal) to easily measure distance and attitude, but only point-type radar without a visible light sensor or infrared sensor is used. In that case, there is a way to roughly estimate the relative distance.

이러한 종래 기술에서 Point 방식의 레이다와 가시광 센서 또는 적외선 센서의 2D 영상을 활용하여 객체의 거리 및 자세를 계산하는 방법은, Point를 활용한 결과가 미세하지 않기 때문에 상대거리의 계산이 부정확하다는 단점이 있다. In this conventional technology, the method of calculating the distance and posture of an object using a point-type radar and 2D images of a visible light sensor or an infrared sensor has the disadvantage that the calculation of the relative distance is inaccurate because the results using the point are not precise. there is.

또한, 가시광 센서 또는 적외선 센서의 2D 영상에서 객체의 수평 및 수직의 변화량은 계산이 가능하지만, 객체에 대해 사전 정보를 알고 있지 않으면 객체의 틀어짐(tilting) 정도를 예측이 어려울 뿐만 아니라 계산이 부정확할 수밖에 없는 문제점이 있다. In addition, the amount of horizontal and vertical change of an object can be calculated from the 2D image of a visible light sensor or an infrared sensor, but if prior information about the object is not known, it is difficult to predict the degree of tilting of the object and the calculation may be inaccurate. There is an inevitable problem.

따라서, 본 발명은 상기한 종래 기술에 따른 문제점을 해결하기 위한 것으로, 본 발명의 목적은, Point Cloud 방식의 레이다 3D맵을 활용하여 대상 객체의 오차를 줄여 거리 및 자세를 계산하는 방법을 제시함으로써 가시광 센서 및 적외선센서의 2D 영상을 별도로 사용하지 않아도 정확한 거리와 자세측정이 가능하도록 한 레이다 3D 맵과 스테레오 깊이 맵에 의한 근접 객체 거리/자세 정밀계산 장치 및 그 방법을 제공함에 있다. Therefore, the present invention is to solve the problems caused by the above-described prior art, and the purpose of the present invention is to propose a method of calculating the distance and posture by reducing the error of the target object using a point cloud-type radar 3D map. The aim is to provide a device and method for precisely calculating close object distance/position using a radar 3D map and stereo depth map that enable accurate distance and attitude measurement without separately using 2D images from visible light sensors and infrared sensors.

즉, 본 발명은 0.2m이상의 근접거리에서 객체의 정밀 거리/자세 측정 장치를 보유하고 있지 않은 상태에서 Point Cloud 방식의 레이다 3D맵과 참조 값의 스테레오 깊이 2.5D 맵을 통해 객체의 정밀 거리/자세를 계산할 수 있도록 한 레이다 3D 맵과 스테레오 깊이 맵에 의한 근접 객체 거리/자세 정밀계산 장치 및 그 방법을 제공함에 그 목적이 있는 것이다. In other words, the present invention measures the precise distance/posture of an object through a point cloud-type radar 3D map and a stereo depth 2.5D map of reference values without having a device for measuring the precise distance/position of the object at a close distance of 0.2 m or more. The purpose is to provide a device and method for precise calculation of close object distance/posture using a radar 3D map and stereo depth map that can calculate .

다만, 본 발명이 해결하고자 하는 과제는 상기된 바와 같은 과제로 한정되지 않으며, 또 다른 과제들이 존재할 수 있다.However, the problem to be solved by the present invention is not limited to the problems described above, and other problems may exist.

상기한 목적을 달성하기 위한 본 발명의 일 실시예에 따른 레이다 3D 맵과 스테레오 깊이 맵에 의한 근접 객체 거리/자세 정밀계산 장치는, 전방의 거리와 자세를 측정하는 Point Cloud방식의 레이다 3D맵와 측정된 데이터를 처리하여 스테레오 깊이 2.5D 맵으로 정밀한 거리 및 자세를 계산하는 데이터 처리부; 및 상기 계산된 거리 및 자세를 전시하는 전시부를 포함할 수 있다. In order to achieve the above object, a device for precisely calculating close object distance/posture using a radar 3D map and a stereo depth map according to an embodiment of the present invention uses a Point Cloud type radar 3D map and measurement to measure the distance and attitude in front. A data processing unit that processes the processed data and calculates precise distance and posture as a stereo depth 2.5D map; and an exhibition unit that displays the calculated distance and posture.

상기 데이터 처리부는, 검출된 전방의 객체에 대한 객체 데이터를 획득하는 객체 데이터 획득부; 상기 획득한 객체 데이터를 이용하여 레이다 2D 맵을 생성하는 레이더 2D 맵 생성부; 상기 생성된 레이더 2D 맵에 깊이 데이터를 추가하여 레이다 3D 맵을 생성하는 레이더 3D 맵 생성부; 상기 생성된 레이다 3D 맵과 기 저장된 스테레오 2.5D 맵을 비교하여 객체 거리를 추정하는 비교부; 상기 비교부에서 추정된 객체 거리 정보와 기 저장된 스테레오 깊이 2.5D 맵을 이용하여 객체의 거리 및 각도를 계산하는 거리 및 각도 검출부; 및 상기 계산된 거리 및 각도 데이터를 이용하여 객체의 틀어짐 변화를 검출하고, 검출된 객체의 틀어짐 변화량에 정밀 거리/자세 정보를 상기 전시부에 전시하는 틀어짐 변화 검출부를 포함할 수 있다. The data processing unit may include an object data acquisition unit that acquires object data for a detected object in front; a radar 2D map generator that generates a radar 2D map using the acquired object data; A radar 3D map generator that generates a radar 3D map by adding depth data to the generated radar 2D map; a comparison unit that estimates an object distance by comparing the generated radar 3D map with a previously stored stereo 2.5D map; a distance and angle detection unit that calculates the distance and angle of the object using the object distance information estimated by the comparison unit and a previously stored stereo depth 2.5D map; and a distortion change detection unit that detects the distortion change of the object using the calculated distance and angle data, and displays precise distance/posture information on the display unit based on the detected distortion change amount of the object.

상기 레이다 2D 맵 생성부는, 레이다의 전자파 빔을 송신하여 특정 시간 동안에 객체로부터 반사되어 수신된 값을 객체의 왼쪽 상단부터 오른쪽 방향으로 기록하고, 또 다음 라인으로 객체의 왼쪽부터 오른쪽 방향으로 수신된 데이터를 기록하며, 특성 시간의 마지막까지 수신되는 데이터가 기록되도록 반복 작업을 수행하여 생성할 수 있다. The radar 2D map generator transmits the electromagnetic wave beam of the radar and records the values reflected from the object during a specific time from the upper left to the right of the object, and also records the data received from the left to the right of the object in the next line. It can be created by performing repetitive tasks so that the data received until the end of the characteristic time is recorded.

상기 깊이 데이터는 두 카메라 간의 픽셀 차로 정보를 추출할 수 있다. The depth data can extract information about the pixel difference between the two cameras.

상기 객체의 거리는, 스테레오 카메라인 왼쪽 카메라와 오른쪽 카메라 간의 화소 수를 계산하여 추출할 수 있다. The distance of the object can be extracted by calculating the number of pixels between the left and right cameras, which are stereo cameras.

상기 거리 및 각도 검출부는, 상기 검출된 객체의 거리와 객체 프레임 정보를 포함하여 유사도가 95% 이상인 임계 값을 가지는 스테레오 깊이 2.5D 맵을 메모리로부터 찾아 객체의 거리 및 각도 값을 계산할 수 있다. The distance and angle detector may calculate the distance and angle values of the object by finding a stereo depth 2.5D map with a threshold of 95% or more similarity, including the distance of the detected object and object frame information, from the memory.

상기 틀어짐 변화 검출부는, 메모리에 저장된 스테레오 깊이 맵의 영상 좌표(x, y)에서의 깊이 정보(dx, dy)에 대해 △dx, △dy를 계산하여 객체의 틀어짐을 계산할 수 있다. The distortion change detection unit may calculate the distortion of the object by calculating △d x and △d y for the depth information (d x , d y ) in the image coordinates (x, y) of the stereo depth map stored in the memory. .

한편, 본 발명의 다른 실시예에 따른 레이다 3D 맵과 스테레오 깊이 맵에 의한 근접 객체 거리/자세 정밀계산 방법은, 전방의 거리와 자세를 측정하는 Point Cloud방식의 레이다 3D맵와 측정된 데이터를 처리하여 스테레오 깊이 2.5D 맵으로 정밀한 거리 및 자세를 계산하는 데이터 처리 단계; 및 상기 계산된 거리 및 자세를 전시장치에 전시하는 전시단계를 포함할 수 있다. Meanwhile, the method for precisely calculating close object distance/posture using a radar 3D map and a stereo depth map according to another embodiment of the present invention processes the point cloud-type radar 3D map and measured data to measure the distance and posture in front. A data processing step to calculate precise distance and pose with stereo depth 2.5D maps; And it may include a display step of displaying the calculated distance and posture on a display device.

상기 데이터 처리 단계는, 검출된 전방의 객체에 대한 객체 데이터를 획득하는 단계; 상기 획득한 객체 데이터를 이용하여 레이다 2D 맵을 생성하는 단계; 상기 생성된 레이더 2D 맵에 깊이 데이터를 추가하여 레이다 3D 맵을 생성하는 단계; 상기 생성된 레이다 3D 맵과 기 저장된 스테레오 2.5D 맵을 비교하여 객체 거리를 추정하는 단계; 상기 추정된 객체 거리 정보와 기 저장된 스테레오 깊이 2.5D 맵을 이용하여 객체의 거리 및 각도를 계산하는 단계; 및 상기 계산된 거리 및 각도 데이터를 이용하여 객체의 틀어짐 변화를 검출하고, 검출된 객체의 틀어짐 변화량에 정밀 거리/자세 정보를 상기 전시장치에 전시하는 단계를 포함할 수 있다. The data processing step includes obtaining object data for a detected object in front; Generating a radar 2D map using the acquired object data; Generating a radar 3D map by adding depth data to the generated radar 2D map; estimating an object distance by comparing the generated radar 3D map with a previously stored stereo 2.5D map; calculating the distance and angle of the object using the estimated object distance information and a previously stored stereo depth 2.5D map; And it may include detecting a change in the distortion of the object using the calculated distance and angle data, and displaying precise distance/posture information based on the amount of change in the detected distortion of the object on the display device.

상기 레이다 2D 맵을 생성하는 단계는, 레이다의 전자파 빔을 송신하여 특정 시간 동안에 객체로부터 반사되어 수신된 값을 객체의 왼쪽 상단부터 오른쪽 방향으로 기록하고, 또 다음 라인으로 객체의 왼쪽부터 오른쪽 방향으로 수신된 데이터를 기록하며, 특성 시간의 마지막까지 수신되는 데이터가 기록되도록 반복 작업을 수행하여 생성할 수 있다. In the step of generating the radar 2D map, the electromagnetic wave beam of the radar is transmitted and the received value reflected from the object during a specific time is recorded from the top left of the object to the right, and in the next line from the left to the right of the object. Received data is recorded and can be created by performing a repetitive task so that the received data is recorded until the end of the characteristic time.

상기 깊이 데이터는 두 카메라 간의 픽셀 차로 정보를 추출할 수 있다. The depth data can extract information about the pixel difference between the two cameras.

상기 객체의 거리는, 스테레오 카메라인 왼쪽 카메라와 오른쪽 카메라 간의 화소 수를 계산하여 추출할 수 있다. The distance of the object can be extracted by calculating the number of pixels between the left and right cameras, which are stereo cameras.

상기 거리 및 각도를 계산하는 단계는, 상기 검출된 객체의 거리와 객체 프레임 정보를 포함하여 유사도가 95% 이상인 임계 값을 가지는 스테레오 깊이 2.5D 맵을 메모리로부터 찾아 객체의 거리 및 각도 값을 계산할 수 있다. In the step of calculating the distance and angle, the distance and angle values of the object can be calculated by finding a stereo depth 2.5D map with a threshold of 95% or more similarity including the distance of the detected object and object frame information from the memory. there is.

상기 객체의 틀어짐 변화 검출은, 메모리에 저장된 스테레오 깊이 맵의 영상 좌표(x, y)에서의 깊이 정보(dx, dy)에 대해 △dx, △dy를 계산하여 객체의 틀어짐을 계산할 수 있다. To detect a change in the object's distortion, the distortion of the object is calculated by calculating △d x andd y for the depth information (d You can.

상술한 과제를 해결하기 위한 본 발명의 다른 면에 따른 컴퓨터 프로그램은, 하드웨어인 컴퓨터와 결합되어 상기 항공기 레이다 시스템에서의 PRF 선택 방법을 실행하며, 컴퓨터 판독가능 기록매체에 저장된다.A computer program according to another aspect of the present invention for solving the above-described problem is combined with a computer as hardware to execute a PRF selection method in the aircraft radar system, and is stored in a computer-readable recording medium.

본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other specific details of the invention are included in the detailed description and drawings.

본 발명에 따르면, 0.2m이상의 근접거리에서 객체의 정밀 거리/자세 측정 장치를 보유하고 있지 않은 상태에서 Point Cloud 방식의 레이다 3D 맵과 참조 값의 스테레오 깊이 2.5D 맵을 통해 객체의 정밀 거리/자세를 계산할 수 있는 방법을 제시함으로써 가시광센서 및 적외선센서의 2D 영상을 별도로 사용하지 않아도 정확한 거리와 자세를 측정할 수 있는 효과를 가지게 된다. According to the present invention, the precise distance/posture of an object can be measured through a point cloud-type radar 3D map and a stereo depth 2.5D map of reference values without having a device for measuring the precise distance/position of the object at a close distance of 0.2 m or more. By presenting a method to calculate , it is possible to measure accurate distance and posture without separately using 2D images from visible light sensors and infrared sensors.

본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below.

이하에 첨부되는 도면들은 본 실시 예에 관한 이해를 돕기 위한 것으로, 상세한 설명과 함께 실시 예들을 제공한다. 다만, 본 실시 예의 기술적 특징이 특정 도면에 한정되는 것은 아니며, 각 도면에서 개시하는 특징들은 서로 조합되어 새로운 실시 예로 구성될 수 있다.
도 1은 본 발명에 따른 레이다 3D 맵과 스테레오 깊이 맵에 의한 근접 객체 거리/자세 정밀계산 장치에 대한 블록 구성을 나타낸 도면이다.
도 2는 도 1에 도시된 본 발명에서 획득한 객체 데이터를 이용하여 Point Cloud 방식의 레이다 3D 맵을 생성하는 동작을 설명하기 위한 도면.
도 3은 도 1에 도시된 본 발명에서 획득한 객체 데이터를 이용하여 생성된 Point Cloud 방식의 레이다 2D 맵의 예시를 나타낸 도면.
도 4는 도 1에 도시된 저장부에 미리 설정된 스테레오 깊이 2.5D 맵의 화면 예시도.
도 5는 본 발명에서 스테레오 카메라에서 객체 거리를 추정하는 동작을 설명하기 위한 도면.
도 6은 본 발명에서, 객체 프레임과 스테레오 깊이 2.5D 맵네서 각도를 추정하는 동작을 설명하기 위한 도면.
도 7은 스테레오 깊이 2.5D 맵을 이용한 틀어짐(Tilting) 변화량을 추출하는 동작을 설명하기 위한 화면 예시도.
도 8은 본 발명에 따른 레이다 3D 맵과 스테레오 깊이 맵에 의한 근접 객체 거리/자세 정밀계산 방법에 대한 동작 플로우챠트를 나타낸 도면이다.
The drawings attached below are intended to aid understanding of the present embodiment and provide examples along with a detailed description. However, the technical features of this embodiment are not limited to specific drawings, and the features disclosed in each drawing may be combined to form a new embodiment.
Figure 1 is a diagram showing the block configuration of a close object distance/position precision calculation device using a radar 3D map and a stereo depth map according to the present invention.
FIG. 2 is a diagram illustrating the operation of generating a point cloud-type radar 3D map using object data obtained in the present invention shown in FIG. 1.
Figure 3 is a diagram showing an example of a point cloud type radar 2D map generated using object data obtained in the present invention shown in Figure 1.
Figure 4 is a screen example of a stereo depth 2.5D map preset in the storage unit shown in Figure 1.
Figure 5 is a diagram for explaining the operation of estimating an object distance in a stereo camera in the present invention.
Figure 6 is a diagram for explaining the operation of estimating the angle between an object frame and a stereo depth 2.5D mapper in the present invention.
Figure 7 is an example screen diagram for explaining the operation of extracting the amount of tilting change using a stereo depth 2.5D map.
Figure 8 is a diagram illustrating an operation flowchart for a method for calculating close object distance/pose precisely using a radar 3D map and a stereo depth map according to the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. The advantages and features of the present invention and methods for achieving them will become clear by referring to the embodiments described in detail below along with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below and may be implemented in various different forms. The present embodiments are merely provided to ensure that the disclosure of the present invention is complete and to provide a general understanding of the technical field to which the present invention pertains. It is provided to fully inform the skilled person of the scope of the present invention, and the present invention is only defined by the scope of the claims.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.The terminology used herein is for describing embodiments and is not intended to limit the invention. As used herein, singular forms also include plural forms, unless specifically stated otherwise in the context. As used in the specification, “comprises” and/or “comprising” does not exclude the presence or addition of one or more other elements in addition to the mentioned elements. Like reference numerals refer to like elements throughout the specification, and “and/or” includes each and every combination of one or more of the referenced elements. Although “first”, “second”, etc. are used to describe various components, these components are of course not limited by these terms. These terms are merely used to distinguish one component from another. Therefore, it goes without saying that the first component mentioned below may also be a second component within the technical spirit of the present invention.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used in this specification may be used with meanings commonly understood by those skilled in the art to which the present invention pertains. Additionally, terms defined in commonly used dictionaries are not interpreted ideally or excessively unless clearly specifically defined.

이하, 본 발명의 바람직한 실시예에 따른 레이다 3D 맵과 스테레오 깊이 맵에 의한 근접 객체 거리/자세 정밀계산 방법에 대하여 첨부한 도면을 참조하여 상세하게 설명하기로 한다. Hereinafter, a method for precisely calculating a close object distance/posture using a radar 3D map and a stereo depth map according to a preferred embodiment of the present invention will be described in detail with reference to the attached drawings.

도 1은 본 발명에 따른 레이다 3D 맵과 스테레오 깊이 맵에 의한 근접 객체 거리/자세 정밀계산 장치에 대한 블록 구성을 나타낸 도면, 도 2는 도 1에 도시된 본 발명에서 획득한 객체 데이터를 이용하여 Point Cloud 방식의 레이다 3D 맵을 생성하는 동작을 설명하기 위한 도면, 도 3은 도 1에 도시된 본 발명에서 획득한 객체 데이터를 이용하여 생성된 Point Cloud 방식의 레이다 2D 맵의 예시를 나타낸 도면, 도 4는 도 1에 도시된 저장부에 미리 설정된 스테레오 깊이 2.5D 맵의 화면 예시도, 도 5는 본 발명에서 스테레오 카메라에서 객체 거리를 추정하는 동작을 설명하기 위한 도면, 도 6은 본 발명에서, 객체 프레임과 스테레오 깊이 2.5D 맵네서 각도를 추정하는 동작을 설명하기 위한 도면 및 도 7은 스테레오 깊이 2.5D 맵을 이용한 틀어짐(Tilting) 변화량을 추출하는 동작을 설명하기 위한 화면 예시도이다. Figure 1 is a diagram showing the block configuration of a device for precision calculating close object distance/posture using a radar 3D map and a stereo depth map according to the present invention, and Figure 2 is a block diagram using object data obtained from the present invention shown in Figure 1. A diagram for explaining the operation of generating a point cloud-type radar 3D map. FIG. 3 is a diagram showing an example of a point cloud-type radar 2D map generated using object data obtained in the present invention shown in FIG. 1. Figure 4 is a screen example of a stereo depth 2.5D map preset in the storage unit shown in Figure 1, Figure 5 is a diagram for explaining the operation of estimating an object distance in a stereo camera in the present invention, and Figure 6 is a diagram in the present invention. , a diagram to explain the operation of estimating the angle between the object frame and the stereo depth 2.5D map, and FIG. 7 is an example screen diagram to explain the operation of extracting the amount of tilting change using the stereo depth 2.5D map.

이러한 본 발명은 전방의 거리와 자세를 측정하는 Point Cloud방식의 레이다 3D맵와 측정된 데이터를 처리하여 스테레오 깊이 2.5D 맵으로 정밀한 거리 및 자세를 계산하여 계산된 거리 및 자세데이터를 전시하는 것이다. This invention processes the point cloud type radar 3D map that measures the distance and posture in front and the measured data to calculate precise distance and posture as a stereo depth 2.5D map and displays the calculated distance and posture data.

도 1을 참조하면, 본 발명에 따른 레이다 3D 맵과 스테레오 깊이 맵에 의한 근접 객체 거리/자세 정밀계산 장치는, 객체 검출부(100), 객체 데이터 획득부(110), 레이다 2D 맵 생성부(120), 레이다 3D 맵 생성부(130), 비교부(140), 스테레오 깊이 2.5D 맵 저장부(150), 거리 각도 추정부(160), 틀어짐 변화 검출부(170) 및 정밀 거리/자세 전시부(180)를 포함할 수 있다. Referring to FIG. 1, the device for precisely calculating a close object distance/position using a radar 3D map and a stereo depth map according to the present invention includes an object detection unit 100, an object data acquisition unit 110, and a radar 2D map generation unit 120. ), radar 3D map generator 130, comparison unit 140, stereo depth 2.5D map storage unit 150, distance angle estimation unit 160, distortion change detection unit 170, and precise distance/position display unit 180 ) may include.

먼저, 객체 검출부(100)는 레이다를 이용하여 전방의 객체를 검출하고, 검출된 정보를 객체 데이터 획득부(110)로 제공한다. First, the object detection unit 100 detects an object in front using radar and provides the detected information to the object data acquisition unit 110.

객체 데이터 획득부(110)는 상기 객체 검출부(100)로부터 검출된 객체로부터 객체 데이터를 획득하게 된다. 여기서, 획득되는 객체 데이터는, 특정 위치(point)에 대한 거리를 추정할 수 있는 데이터이고, 자세를 추정할 수 있는 데이터는 시야각(Field of View) 내의 공간적인 측면과 시간적인 측면으로 일정 영역에 해당하는 레이다 2D 맵(도 2 참조) 생성해야만 한다.The object data acquisition unit 110 acquires object data from the object detected by the object detection unit 100. Here, the acquired object data is data that can estimate the distance to a specific location (point), and the data that can estimate the posture is in a certain area in terms of space and time within the field of view. The corresponding radar 2D map (see Figure 2) must be created.

즉, 레이다 2D 맵 생성부(120)는 획득한 객체 데이터(거리 및 자세 데이터)를 이용하여 도 2와 같은 레이다 2D 맵을 생성한 후, 생성된 레이다 2D 맵을 레이다 3D 맵 생성부(130)로 제공한다. That is, the radar 2D map generator 120 generates a radar 2D map as shown in FIG. 2 using the acquired object data (distance and posture data), and then generates the generated radar 2D map into the radar 3D map generator 130. Provided as.

상기 레이다 2D 맵 생성부(120)에서의 레이다 2D 맵 생성은 예를 들어, 객체 크기가 5m이라면, 레이다의 전자파 빔을 송신하여 특정 시간 동안에 반사되어 수신된 값을 객체의 왼쪽 상단부터 오른쪽 방향으로 기록하고, 또 다음 라인으로 객체의 왼쪽부터 오른쪽 방향으로 수신된 데이터를 기록하며, 특성 시간의 마지막까지 수신되는 데이터가 기록되도록 반복 작업을 수행한다. 이렇게 생성된 데이터가 레이다 2D 맵인 것이다. The radar 2D map generation in the radar 2D map generator 120, for example, if the size of the object is 5 m, transmits the electromagnetic wave beam of the radar and reflects and receives the value during a specific time from the upper left to the right of the object. It records the received data from left to right of the object in the next line, and repeats the operation so that the received data is recorded until the end of the characteristic time. The data generated in this way is a radar 2D map.

레이다 3D 맵 생성부(130)는 상기 레이다 2D 맵 생성부(120)으로부터 제공되는 레이다 2D 맵에 깊이 데이터를 추가하여 도 1에 도시된 바와 같은 레이다 3D 맵을 생성한 후, 생성된 레이다 3D 맵을 비교부(140)로 제공한다. The radar 3D map generator 130 adds depth data to the radar 2D map provided from the radar 2D map generator 120 to generate a radar 3D map as shown in FIG. 1, and then creates the radar 3D map. is provided to the comparison unit 140.

비교부(140)는 상기 레이다 3D 맵 생성부(130)에서 생성되는 레이다 3D 맵과 스테레오 깊이 2.5D 맵 저장부(150)에 저장된 스테레오 깊이 맵을 비교하고 비교 결과값을 거리 및 각도 추정부(160)로 제공한다. The comparison unit 140 compares the radar 3D map generated by the radar 3D map generator 130 with the stereo depth map stored in the stereo depth 2.5D map storage unit 150 and stores the comparison result in the distance and angle estimation unit ( 160).

거리 및 각도 추정부(160)는 상기 비교부(140)로부터 제공되는 레이다 3D 맵과 스테레오 깊이 2.5D 맵의 비교 결과 값을 이용하여 거리 및 각도를 추정한 후, 추정된 거리 및 각도 값을 틀어짐 변화 검출부(170)로 제공한다. The distance and angle estimation unit 160 estimates the distance and angle using the comparison result between the radar 3D map and the stereo depth 2.5D map provided by the comparison unit 140, and then distorts the estimated distance and angle values. It is provided to the change detection unit 170.

틀어짐 변화 검출부(170)는 거리 및 각도 추정부(160)로부터 제공되는 거리 및 각도 추정값을 이용하여 검출 객체의 틀어짐의 변화를 검출한 후, 정밀 거리/자세 전시부(180)에 전시하는 것이다. The distortion change detection unit 170 detects changes in the distortion of the detected object using the distance and angle estimate values provided by the distance and angle estimation unit 160 and then displays the distortion in the precision distance/posture display unit 180.

이와 같은 구성을 갖는 본 발명에 따른 레이다 3D 맵과 스테레오 깊이 맵에 의한 근접 객체 거리/자세 정밀계산 장치의 구체적인 동작에 대하여 설명해 보기로 한다. We will now explain the specific operation of the device for precision calculating close object distance/position using a radar 3D map and a stereo depth map according to the present invention, which has the above configuration.

먼저, 도 1에 도시된 객체 데이터 획득부(110)을 통해 객체 데이터를 획득한다. 여기에서 획득된 데이터는 특정 위치(point)에 대한 거리를 추정할 수 있는 데이터이며, 자세를 추정할 수 있는 데이터는 시야각(Field of View) 내의 공간적인 측면과 시간적인 측면으로 일정 영역에 해당하는 레이다 2D 맵(도 3 참조)을 레이다 2D 맵 생성부(120)을 통해 생성하게 된다. First, object data is acquired through the object data acquisition unit 110 shown in FIG. 1. The data obtained here is data that can estimate the distance to a specific location (point), and the data that can estimate posture corresponds to a certain area in terms of space and time within the field of view. A radar 2D map (see FIG. 3) is generated through the radar 2D map generator 120.

여기에서 레이다 2D 맵의 생성은 예를 들어, 레이다의 전자파 빔을 송신하여 특정 시간 동안에 반사되어 수신된 값을 객체의 왼쪽 상단부터 오른쪽 방향으로 기록하고, 또 다음 라인으로 객체의 왼쪽부터 오른쪽 방향으로 수신된 데이터를 기록하며, 특성 시간의 마지막까지 수신되는 데이터가 기록되도록 반복 작업을 수행한다. Here, the creation of a radar 2D map involves, for example, transmitting a radar electromagnetic wave beam and recording the reflected and received values during a certain time from the top left of the object to the right, and then from the left to the right of the object in the next line. Received data is recorded, and repetitive tasks are performed so that the received data is recorded until the end of the characteristic time.

레이다 3D 맵 생성부(130)에서는 상기와 같이 레이다 2D 맵 생성부(120)에서 생성된 레이다 2D맵에 깊이 데이터까지 추가하여 도 2와 같은 레이다 3D 맵을 생성하여 비교부(140)에 제공한다. The radar 3D map generator 130 adds depth data to the radar 2D map generated by the radar 2D map generator 120 as described above to generate a radar 3D map as shown in FIG. 2 and provides it to the comparison unit 140. .

이와 같이 생성된 레이다 3D 맵의 데이터만으로는 정확한 깊이, 즉 거리를 추정할 수 없기 때문에, 비교부(140)에서는 사전에 작업되어 스테레오 깊이 2.5D 맵 저장부(150)에 저장된 스테레오 깊이 2.5D 맵(도 4 참조)과 상기 생성된 레이다 3D 맵을 비교하여 깊이 및 거리를 추출하여 거리 및 각도 추정부(160)로 제공한다. Since the accurate depth, or distance, cannot be estimated only with the data of the radar 3D map generated in this way, the comparison unit 140 uses a stereo depth 2.5D map ( By comparing the generated radar 3D map (see FIG. 4), the depth and distance are extracted and provided to the distance and angle estimation unit 160.

여기서, 비교부(140)는 두 카메라 간의 픽셀 차로 깊이 정보를 추출하며, 도 5와 같이, 스테레오 카메라인 왼쪽 카메라와 오른쪽 카메라 간의 화소 수를 계산하여 객체의 거리를 추출할 수 있다. Here, the comparison unit 140 extracts depth information based on the pixel difference between the two cameras, and as shown in FIG. 5, the distance to the object can be extracted by calculating the number of pixels between the left and right cameras, which are stereo cameras.

틀어짐 변화 검출부(170)는 상기 추출된 깊이/길이 정보와 도 6에 도시된 바와 같이 객체 프레임 정보를 비교하여 유사도가 95% 이상인 임계 값을 가지는 스테레오 깊이 2.5D 맵을 찾아 객체의 거리 및 각도 값을 계산할 수 있는 것이다. 여기에서 계산된 값은 사전에 정밀하게 측정하여 스테레오 깊이 2.5D 맵 저장부(150)에 저장된 스테레오 깊이 맵의 값을 이용할 수 있다. The distortion change detection unit 170 compares the extracted depth/length information with the object frame information as shown in FIG. 6, finds a stereo depth 2.5D map with a threshold of 95% or more similarity, and determines the distance and angle values of the object. can be calculated. The value calculated here can use the value of a stereo depth map that has been precisely measured in advance and stored in the stereo depth 2.5D map storage unit 150.

즉, 도 7에 도시된 바와 같이, 틀어짐 변화 검출부(170)은 객체 틀어짐(tilting)의 변화량을 계산하기 위해 스테레오 깊이 2.5D 맵 저장부(150)에 저장된 스테레오 깊이 맵의 영상 좌표(x, y)에서의 깊이 정보(dx, dy)에 대해 △dx, △dy를 계산함으로써 객체의 틀어짐을 계산할 수 있는 것이다. That is, as shown in FIG. 7, the tilt change detection unit 170 uses the image coordinates (x, y) of the stereo depth map stored in the stereo depth 2.5D map storage unit 150 to calculate the amount of change in object tilting. ), the distortion of the object can be calculated by calculating △d x , △d y for the depth information (d x , d y ).

이와 같이 틀어짐 변화 검출부(170)에서 검출된 객체의 틀어짐 변화량에 따라 객체의 정확한 거리/자세 정보를 정밀 거리/자세 전시부(180)에 전시하게 되는 것이다. In this way, the exact distance/posture information of the object is displayed on the precise distance/posture display unit 180 according to the amount of change in the object's distortion detected by the distortion change detection unit 170.

이와 같은 본 발명에 따른 레이다 3D 맵과 스테레오 깊이 맵에 의한 근접 객체 거리/자세 정밀 계산방법에 대하여 도 8을 참조하여 단계적으로 설명해 보기로 하자. Let us explain step by step the method of calculating close object distance/position accurately using the radar 3D map and stereo depth map according to the present invention with reference to FIG. 8.

도 8은 본 발명에 따른 레이다 3D 맵과 스테레오 깊이 맵에 의한 근접 객체 거리/자세 정밀계산 방법에 대한 동작 플로우챠트를 나타낸 도면이다. Figure 8 is a diagram illustrating an operation flowchart for a method for calculating close object distance/pose precisely using a radar 3D map and a stereo depth map according to the present invention.

도 8을 참조하면, 먼저, 레이더를 통해 객체가 검출되면(S801), 검출된 객체에 대한 데이터를 획득한다(S802). 여기에서 획득된 데이터는 특정 위치(point)에 대한 거리를 추정할 수 있는 데이터이며, 자세를 추정할 수 있는 데이터는 시야각(Field of View) 내의 공간적인 측면과 시간적인 측면으로 일정 영역에 해당하는 레이다 2D 맵(도 3 참조)을 생성하게 된다(S803). Referring to FIG. 8, first, when an object is detected through radar (S801), data on the detected object is acquired (S802). The data obtained here is data that can estimate the distance to a specific location (point), and the data that can estimate posture corresponds to a certain area in terms of space and time within the field of view. A radar 2D map (see FIG. 3) is created (S803).

여기에서 레이다 2D 맵의 생성은 예를 들어, 객체 크기가 5m이라면, 레이다의 전자파 빔을 송신하여 특정 시간 동안에 반사되어 수신된 값을 객체의 왼쪽 상단부터 오른쪽 방향으로 기록하고, 또 다음 라인으로 객체의 왼쪽부터 오른쪽 방향으로 수신된 데이터를 기록하며, 특성 시간의 마지막까지 수신되는 데이터가 기록되도록 반복 작업을 수행한다. Here, the creation of a radar 2D map is, for example, if the object size is 5m, the electromagnetic wave beam of the radar is transmitted and the reflected and received values during a specific time are recorded from the upper left of the object to the right, and then the object is recorded in the next line. The received data is recorded from left to right, and a repetitive operation is performed so that the received data is recorded until the end of the characteristic time.

이어, S803 단계를 통해 생성된 레이다 2D맵에 깊이 데이터까지 추가하여 도 2와 같은 레이다 3D 맵을 생성한다(S804). Next, depth data is added to the radar 2D map generated through step S803 to generate a radar 3D map as shown in FIG. 2 (S804).

이와 같이 생성된 레이다 3D 맵의 데이터만으로는 정확한 깊이, 즉 거리를 추정할 수 없기 때문에, 사전에 작업되어 메모리에 저장된 스테레오 깊이 2.5D 맵(도 4 참조)과 상기 생성된 레이다 3D 맵을 비교하여 깊이 및 거리를 추출한다(S805). Since the accurate depth, or distance, cannot be estimated only with the data of the radar 3D map generated in this way, the depth is estimated by comparing the generated radar 3D map with the stereo depth 2.5D map (see FIG. 4) worked in advance and stored in memory. and extract the distance (S805).

여기서, 상기 S805 단계는 두 카메라 간의 픽셀 차로 깊이 정보를 추출하며, 도 5와 같이, 스테레오 카메라인 왼쪽 카메라와 오른쪽 카메라 간의 화소 수를 계산하여 객체의 거리를 추출한다. Here, in step S805, depth information is extracted from the pixel difference between the two cameras, and the distance of the object is extracted by calculating the number of pixels between the left and right cameras, which are stereo cameras, as shown in FIG. 5.

이어, 상기 S805 단계를 통해 추출된 깊이/길이 정보와 도 6에 도시된 바와 같이 객체 프레임 정보를 비교하여 유사도가 95% 이상인 임계 값을 가지는 객체의 거리 및 각도 값을 계산할 수 있는 것이다(S806). 여기에서 계산된 값은 사전에 정밀하게 측정하여 메모리에 저장된 스테레오 깊이 맵의 값을 이용할 수 있다. Next, by comparing the depth/length information extracted through step S805 with the object frame information as shown in FIG. 6, the distance and angle values of the object having a threshold similarity of 95% or more can be calculated (S806). . The value calculated here can use the value of the stereo depth map that has been precisely measured in advance and stored in memory.

이어, 도 7에 도시된 바와 같이, 상기 메모리에 저장된 스테레오 깊이 맵의 영상 좌표(x, y)에서의 깊이 정보(dx, dy)에 대해 △dx, △dy를 계산함으로써 객체의 틀어짐을 계산할 수 있는 것이다(S807). Then, as shown in FIG. 7, △d x and △d y are calculated for the depth information (d x , d y ) in the image coordinates ( x , y) of the stereo depth map stored in the memory, thereby The distortion can be calculated (S807).

이와 같이, 검출된 객체의 틀어짐 변화량에 따라 객체의 정확한 거리/자세 정보를 전시장치에 전시하게 되는 것이다(S808). In this way, the exact distance/posture information of the object is displayed on the display device according to the amount of change in distortion of the detected object (S808).

결국, 본 발명은 0.2m이상의 근접거리에서 객체의 정밀 거리/자세 측정 장치를 보유하고 있지 않은 상태에서 Point Cloud 방식의 Radar 3D 맵과 참조 값의 스테레오 깊이 2.5D 맵을 통해 객체의 정밀 거리/자세를 계산할 수 있는 방법을 제시함으로써 가시광 센서 및 적외선센서의 2D 영상을 별도로 사용하지 않아도 정확한 거리와 자세측정이 가능한 것이다. In the end, the present invention measures the precise distance/posture of an object through a point cloud-type radar 3D map and a stereo depth 2.5D map of reference values without possessing a device for measuring the precise distance/posture of the object at a close distance of 0.2 m or more. By presenting a method to calculate , it is possible to measure accurate distance and posture without separately using 2D images from visible light sensors and infrared sensors.

이상에서 전술한 본 발명의 일 실시예에 따른 레이다 3D 맵과 스테레오 깊이 맵에 의한 근접 객체 거리/자세 정밀 계산방법 은, 하드웨어인 컴퓨터와 결합되어 실행되기 위해 프로그램(또는 어플리케이션)으로 구현되어 매체에 저장될 수 있다.The method for calculating close object distance/position precisely using a radar 3D map and a stereo depth map according to an embodiment of the present invention described above is implemented as a program (or application) to be executed in combination with a computer, which is hardware, and is transmitted to the media. It can be saved.

상기 전술한 프로그램은, 상기 컴퓨터가 프로그램을 읽어 들여 프로그램으로 구현된 상기 방법들을 실행시키기 위하여, 상기 컴퓨터의 프로세서(CPU)가 상기 컴퓨터의 장치 인터페이스를 통해 읽힐 수 있는 C, C++, JAVA, Ruby, 기계어 등의 컴퓨터 언어로 코드화된 코드(Code)를 포함할 수 있다. 이러한 코드는 상기 방법들을 실행하는 필요한 기능들을 정의한 함수 등과 관련된 기능적인 코드(Functional Code)를 포함할 수 있고, 상기 기능들을 상기 컴퓨터의 프로세서가 소정의 절차대로 실행시키는데 필요한 실행 절차 관련 제어 코드를 포함할 수 있다. 또한, 이러한 코드는 상기 기능들을 상기 컴퓨터의 프로세서가 실행시키는데 필요한 추가 정보나 미디어가 상기 컴퓨터의 내부 또는 외부 메모리의 어느 위치(주소 번지)에서 참조되어야 하는지에 대한 메모리 참조관련 코드를 더 포함할 수 있다. 또한, 상기 컴퓨터의 프로세서가 상기 기능들을 실행시키기 위하여 원격(Remote)에 있는 어떠한 다른 컴퓨터나 서버 등과 통신이 필요한 경우, 코드는 상기 컴퓨터의 통신 모듈을 이용하여 원격에 있는 어떠한 다른 컴퓨터나 서버 등과 어떻게 통신해야 하는지, 통신 시 어떠한 정보나 미디어를 송수신해야 하는지 등에 대한 통신 관련 코드를 더 포함할 수 있다.The above-mentioned program is C, C++, JAVA, Ruby, and It may include code encoded in a computer language such as machine language. These codes may include functional codes related to functions that define the necessary functions for executing the methods, and include control codes related to execution procedures necessary for the computer's processor to execute the functions according to predetermined procedures. can do. In addition, these codes may further include memory reference-related codes that indicate at which location (address address) in the computer's internal or external memory additional information or media required for the computer's processor to execute the above functions should be referenced. there is. In addition, if the computer's processor needs to communicate with any other remote computer or server in order to execute the above functions, the code uses the computer's communication module to determine how to communicate with any other remote computer or server. It may further include communication-related codes regarding whether communication should be performed and what information or media should be transmitted and received during communication.

상기 저장되는 매체는, 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상기 저장되는 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있지만, 이에 제한되지 않는다. 즉, 상기 프로그램은 상기 컴퓨터가 접속할 수 있는 다양한 서버 상의 다양한 기록매체 또는 사용자 컴퓨터상의 다양한 기록매체에 저장될 수 있다. 또한, 상기 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장될 수 있다.The storage medium refers to a medium that stores data semi-permanently and can be read by a device, rather than a medium that stores data for a short period of time, such as a register, cache, or memory. Specifically, examples of the storage medium include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc., but are not limited thereto. That is, the program may be stored in various recording media on various servers that the computer can access or on various recording media on the user's computer. Additionally, the medium may be distributed to computer systems connected to a network, and computer-readable code may be stored in a distributed manner.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The description of the present invention described above is for illustrative purposes, and those skilled in the art will understand that the present invention can be easily modified into other specific forms without changing the technical idea or essential features of the present invention. will be. Therefore, the embodiments described above should be understood in all respects as illustrative and not restrictive. For example, each component described as unitary may be implemented in a distributed manner, and similarly, components described as distributed may also be implemented in a combined form.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is indicated by the claims described below rather than the detailed description above, and all changes or modified forms derived from the meaning and scope of the claims and their equivalent concepts should be construed as being included in the scope of the present invention. do.

100 : 객체 검출부
110 : 객체 데이터 획득부
120 : 레이다 2D 맵 생성부
130 : 레이다 3D 맵 생성부
140 : 비교부
150 : 스테레오 깊이 2.5D 맵 저장부
160 : 거리 및 각도 추정부
170 : 틀어짐 변화 검출부
180 : 정밀 거리/자세 전시부
100: object detection unit
110: object data acquisition unit
120: Radar 2D map generation unit
130: Radar 3D map generation unit
140: comparison unit
150: Stereo depth 2.5D map storage unit
160: Distance and angle estimation unit
170: Twisting change detection unit
180: Precision distance/posture display section

Claims (14)

레이다 3D 맵과 스테레오 깊이 맵에 의한 근접 객체 거리/자세 정밀계산 장치에 있어서,
전방의 거리와 자세를 측정하는 Point Cloud방식의 레이다 3D맵와 측정된 데이터를 처리하여 스테레오 깊이 2.5D 맵으로 정밀한 거리 및 자세를 계산하는 데이터 처리부; 및
상기 계산된 거리 및 자세를 전시하는 전시부를 포함하고,
상기 데이터 처리부는,
검출된 전방의 객체에 대한 객체 데이터를 획득하는 객체 데이터 획득부;
상기 획득한 객체 데이터를 이용하여 레이다 2D 맵을 생성하는 레이더 2D 맵 생성부;
상기 생성된 레이더 2D 맵에 깊이 데이터를 추가하여 레이다 3D 맵을 생성하는 레이더 3D 맵 생성부;
상기 생성된 레이다 3D 맵과 기 저장된 스테레오 2.5D 맵을 비교하여 객체 거리를 추정하는 비교부;
상기 비교부에서 추정된 객체 거리 정보와 기 저장된 스테레오 깊이 2.5D 맵을 이용하여 객체의 거리 및 각도를 계산하는 거리 및 각도 검출부; 및
상기 계산된 거리 및 각도 데이터를 이용하여 객체의 틀어짐 변화를 검출하고, 검출된 객체의 틀어짐 변화량에 정밀 거리/자세 정보를 상기 전시부에 전시하는 틀어짐 변화 검출부를 포함하며,
상기 레이다 2D 맵 생성부는,
레이다의 전자파 빔을 송신하여 특정 시간 동안에 객체로부터 반사되어 수신된 값을 객체의 왼쪽 상단부터 오른쪽 방향으로 기록하고, 또 다음 라인으로 객체의 왼쪽부터 오른쪽 방향으로 수신된 데이터를 기록하며, 특성 시간의 마지막까지 수신되는 데이터가 기록되도록 반복 작업을 수행하여 생성하고,
상기 깊이 데이터는 두 카메라 간의 픽셀 차로 정보를 추출하며,
상기 객체의 거리는, 스테레오 카메라인 왼쪽 카메라와 오른쪽 카메라 간의 화소 수를 계산하여 추출하고,
상기 거리 및 각도 검출부는,
상기 검출된 객체의 거리와 객체 프레임 정보를 포함하여 유사도가 95% 이상인 임계 값을 가지는 스테레오 깊이 2.5D 맵을 메모리로부터 찾아 객체의 거리 및 각도 값을 계산하며,
상기 틀어짐 변화 검출부는,
메모리에 저장된 스테레오 깊이 맵의 영상 좌표(x, y)에서의 깊이 정보(dx, dy)에 대해 △dx, △dy를 계산하여 객체의 틀어짐을 계산하는 것인 레이다 3D 맵과 스테레오 깊이 맵에 의한 근접 객체 거리/자세 정밀 계산 장치.
In a device for precise calculation of close object distance/posture using radar 3D map and stereo depth map,
A data processing unit that processes the point cloud-type radar 3D map that measures the distance and posture in front and the measured data to calculate precise distance and posture using a stereo depth 2.5D map; and
Includes an exhibition unit that displays the calculated distance and posture,
The data processing unit,
an object data acquisition unit that acquires object data for the detected object in front;
a radar 2D map generator that generates a radar 2D map using the acquired object data;
A radar 3D map generator that generates a radar 3D map by adding depth data to the generated radar 2D map;
a comparison unit that estimates an object distance by comparing the generated radar 3D map with a previously stored stereo 2.5D map;
a distance and angle detection unit that calculates the distance and angle of the object using the object distance information estimated by the comparison unit and a previously stored stereo depth 2.5D map; and
A distortion change detection unit that detects a distortion change of an object using the calculated distance and angle data and displays precise distance/posture information on the display unit based on the detected distortion change amount of the object,
The radar 2D map generator,
By transmitting the radar's electromagnetic wave beam, the values reflected from the object and received during a specific time are recorded from the top left of the object to the right. In addition, the data received from the left to the right of the object are recorded in the next line, and the characteristic time It is created by performing repetitive tasks so that the data received until the end is recorded,
The depth data extracts information about the pixel difference between the two cameras,
The distance of the object is extracted by calculating the number of pixels between the left and right cameras, which are stereo cameras,
The distance and angle detector,
Calculate the distance and angle values of the object by finding a stereo depth 2.5D map with a threshold of 95% or more similarity, including the distance and object frame information of the detected object, from memory,
The distortion change detection unit,
Radar 3D map and stereo, which calculates the distortion of an object by calculating △d x , △d y for the depth information (d x , d y ) in the image coordinates (x, y) of the stereo depth map stored in memory Close object distance/pose precision calculation device using depth map.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 레이다 3D 맵과 스테레오 깊이 맵에 의한 근접 객체 거리/자세 정밀계산 방법에 있어서,
전방의 거리와 자세를 측정하는 Point Cloud방식의 레이다 3D맵와 측정된 데이터를 처리하여 스테레오 깊이 2.5D 맵으로 정밀한 거리 및 자세를 계산하는 데이터 처리 단계; 및
상기 계산된 거리 및 자세를 전시장치에 전시하는 단계를 포함하고,
상기 데이터 처리 단계는,
검출된 전방의 객체에 대한 객체 데이터를 획득하는 단계;
상기 획득한 객체 데이터를 이용하여 레이다 2D 맵을 생성하는 단계;
상기 생성된 레이더 2D 맵에 깊이 데이터를 추가하여 레이다 3D 맵을 생성하는 단계;
상기 생성된 레이다 3D 맵과 기 저장된 스테레오 2.5D 맵을 비교하여 객체 거리를 추정하는 단계;
상기 추정된 객체 거리 정보와 기 저장된 스테레오 깊이 2.5D 맵을 이용하여 객체의 거리 및 각도를 계산하는 단계; 및
상기 계산된 거리 및 각도 데이터를 이용하여 객체의 틀어짐 변화를 검출하고, 검출된 객체의 틀어짐 변화량에 정밀 거리/자세 정보를 상기 전시장치에 전시하는 단계를 포함하며,
상기 레이다 2D 맵을 생성하는 단계는,
레이다의 전자파 빔을 송신하여 특정 시간 동안에 객체로부터 반사되어 수신된 값을 객체의 왼쪽 상단부터 오른쪽 방향으로 기록하고, 또 다음 라인으로 객체의 왼쪽부터 오른쪽 방향으로 수신된 데이터를 기록하며, 특성 시간의 마지막까지 수신되는 데이터가 기록되도록 반복 작업을 수행하여 생성하고,
상기 깊이 데이터는 두 카메라 간의 픽셀 차로 정보를 추출하며,
상기 객체의 거리는, 스테레오 카메라인 왼쪽 카메라와 오른쪽 카메라 간의 화소 수를 계산하여 추출하고,
상기 거리 및 각도를 계산하는 단계는,
상기 검출된 객체의 거리와 객체 프레임 정보를 포함하여 유사도가 95% 이상인 임계 값을 가지는 스테레오 깊이 2.5D 맵을 메모리로부터 찾아 객체의 거리 및 각도 값을 계산하며,
상기 객체의 틀어짐 변화 검출은,
메모리에 저장된 스테레오 깊이 맵의 영상 좌표(x, y)에서의 깊이 정보(dx, dy)에 대해 △dx, △dy를 계산하여 객체의 틀어짐을 계산하는 것인 레이다 3D 맵과 스테레오 깊이 맵에 의한 근접 객체 거리/자세 정밀 계산 방법.
In the method of calculating close object distance/pose precisely using radar 3D map and stereo depth map,
A data processing step that processes the point cloud-type radar 3D map that measures the distance and posture in front and the measured data to calculate precise distance and posture using a stereo depth 2.5D map; and
Comprising the step of displaying the calculated distance and posture on a display device,
The data processing step is,
Obtaining object data for the detected object in front;
Generating a radar 2D map using the acquired object data;
Generating a radar 3D map by adding depth data to the generated radar 2D map;
estimating an object distance by comparing the generated radar 3D map with a previously stored stereo 2.5D map;
calculating the distance and angle of the object using the estimated object distance information and a previously stored stereo depth 2.5D map; and
Detecting a change in distortion of an object using the calculated distance and angle data, and displaying precise distance/posture information based on the amount of change in distortion of the detected object on the display device,
The step of generating the radar 2D map is,
By transmitting the radar's electromagnetic wave beam, the values reflected from the object and received during a specific time are recorded from the top left of the object to the right. In addition, the data received from the left to the right of the object are recorded in the next line, and the characteristic time It is created by performing repetitive tasks so that the data received until the end is recorded,
The depth data extracts information about the pixel difference between the two cameras,
The distance of the object is extracted by calculating the number of pixels between the left and right cameras, which are stereo cameras,
The step of calculating the distance and angle is,
Calculate the distance and angle values of the object by finding a stereo depth 2.5D map with a threshold of 95% or more similarity, including the distance and object frame information of the detected object, from memory,
Detection of changes in distortion of the object,
Radar 3D map and stereo, which calculates the distortion of an object by calculating △d x , △d y for the depth information (d x , d y ) in the image coordinates (x, y) of the stereo depth map stored in memory Precise calculation method of close object distance/pose using depth map.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete
KR1020230118201A 2023-09-06 2023-09-06 Proximity Object Distance/Pose Precision Calculation Apparatus and Method by Radar 3D map and Stereo Depth map KR102613536B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230118201A KR102613536B1 (en) 2023-09-06 2023-09-06 Proximity Object Distance/Pose Precision Calculation Apparatus and Method by Radar 3D map and Stereo Depth map

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020230118201A KR102613536B1 (en) 2023-09-06 2023-09-06 Proximity Object Distance/Pose Precision Calculation Apparatus and Method by Radar 3D map and Stereo Depth map

Publications (1)

Publication Number Publication Date
KR102613536B1 true KR102613536B1 (en) 2023-12-12

Family

ID=89159463

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230118201A KR102613536B1 (en) 2023-09-06 2023-09-06 Proximity Object Distance/Pose Precision Calculation Apparatus and Method by Radar 3D map and Stereo Depth map

Country Status (1)

Country Link
KR (1) KR102613536B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020126607A (en) * 2019-01-31 2020-08-20 株式会社ストラドビジョンStradvision,Inc. Learning method and learning device for integrating image acquired from camera and point cloud map acquired through corresponding radar or lidar for each convolution stage of neural network, and test method and test device utilizing the same
KR20210116856A (en) * 2020-03-18 2021-09-28 한국생산기술연구원 Driving control system of unmanned vehicle using stereo camera and LIDAR
KR20210123076A (en) * 2020-04-02 2021-10-13 함영국 Method for operation unmanned moving vehivle based on binary 3d space map
US20210398313A1 (en) * 2020-06-17 2021-12-23 Fotonation Limited Method and system to determine the location and/or orientation of a head

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020126607A (en) * 2019-01-31 2020-08-20 株式会社ストラドビジョンStradvision,Inc. Learning method and learning device for integrating image acquired from camera and point cloud map acquired through corresponding radar or lidar for each convolution stage of neural network, and test method and test device utilizing the same
KR20210116856A (en) * 2020-03-18 2021-09-28 한국생산기술연구원 Driving control system of unmanned vehicle using stereo camera and LIDAR
KR20210123076A (en) * 2020-04-02 2021-10-13 함영국 Method for operation unmanned moving vehivle based on binary 3d space map
US20210398313A1 (en) * 2020-06-17 2021-12-23 Fotonation Limited Method and system to determine the location and/or orientation of a head

Similar Documents

Publication Publication Date Title
JP6239594B2 (en) 3D information processing apparatus and method
KR100480780B1 (en) Method and apparatus for tracking an object from video data
US9875408B2 (en) Setting apparatus, output method, and non-transitory computer-readable storage medium
CN112384891B (en) Method and system for point cloud coloring
KR20150096922A (en) Apparatus for estimating camera pose and method for estimating camera pose
KR20050089266A (en) Method and apparatus for detecting people using a stereo camera
US7764284B2 (en) Method and system for detecting and evaluating 3D changes from images and a 3D reference model
JP2002024807A (en) Object movement tracking technique and recording medium
KR101556593B1 (en) Method for Image Processing
EP2901236A1 (en) Video-assisted target location
WO2022135594A1 (en) Method and apparatus for detecting target object, fusion processing unit, and medium
CN113092079A (en) Definition detection target plate and method and system, electronic equipment and detection platform
CN112666550B (en) Moving object detection method and device, fusion processing unit and medium
EP3051492B1 (en) Method and apparatus for determining disparity
JP2006318064A (en) Image sensor
KR102613536B1 (en) Proximity Object Distance/Pose Precision Calculation Apparatus and Method by Radar 3D map and Stereo Depth map
JP2015507736A (en) System and method for estimating target size
KR20220015056A (en) Cctv control system for being enable to measure real size of subject using 3d environment model
CN111161357B (en) Information processing method and device, augmented reality device and readable storage medium
JP7279892B2 (en) FACE POSITION DETECTION DEVICE, FACE POSITION DETECTION METHOD, AND PROGRAM
JP6780639B2 (en) Image analysis device, image analysis method, and image analysis program
JPWO2020175085A1 (en) Image processing device and image processing method
Ma et al. Depth from defocus via active quasi-random point projections
JP6546898B2 (en) Three-dimensional space identification apparatus, method, and program
JP3432937B2 (en) Moving object detecting device and moving object detecting method

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant