KR102618924B1 - System and method for detecting object based fmcw radar - Google Patents

System and method for detecting object based fmcw radar Download PDF

Info

Publication number
KR102618924B1
KR102618924B1 KR1020230139443A KR20230139443A KR102618924B1 KR 102618924 B1 KR102618924 B1 KR 102618924B1 KR 1020230139443 A KR1020230139443 A KR 1020230139443A KR 20230139443 A KR20230139443 A KR 20230139443A KR 102618924 B1 KR102618924 B1 KR 102618924B1
Authority
KR
South Korea
Prior art keywords
information
radar
distance
map information
depth map
Prior art date
Application number
KR1020230139443A
Other languages
Korean (ko)
Inventor
박장한
Original Assignee
한화시스템(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한화시스템(주) filed Critical 한화시스템(주)
Priority to KR1020230139443A priority Critical patent/KR102618924B1/en
Application granted granted Critical
Publication of KR102618924B1 publication Critical patent/KR102618924B1/en

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R23/00Arrangements for measuring frequencies; Arrangements for analysing frequency spectra
    • G01R23/005Circuits for comparing several input signals and for indicating the result of this comparison, e.g. equal, different, greater, smaller (comparing phase or frequency of 2 mutually independent oscillations in demodulators)
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/42Simultaneous measurement of distance and other co-ordinates
    • G01S13/426Scanning radar, e.g. 3D radar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/50Systems of measurement based on relative movement of target
    • G01S13/52Discriminating between fixed and moving objects or between objects moving at different speeds
    • G01S13/536Discriminating between fixed and moving objects or between objects moving at different speeds using transmission of continuous unmodulated waves, amplitude-, frequency-, or phase-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/04Display arrangements
    • G01S7/06Cathode-ray tube displays or other two dimensional or three-dimensional displays
    • G01S7/20Stereoscopic displays; Three-dimensional displays; Pseudo-three-dimensional displays
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/35Details of non-pulse systems
    • G01S7/352Receivers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Geometry (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

본 발명에 따른 FMCW 레이다 기반의 객체 탐지 시스템에 의해 수행되는 방법은 상기 FMCW 레이다를 통해 소정 거리 이내의 근접하는 객체(이하, 근접 객체)에 대한 레이다 센싱 정보를 수신하는 단계; 상기 레이다 센싱 정보에 기초하여 3D 특징맵 정보를 생성하는 단계; 상기 근접 객체를 대상으로 스테레오 카메라를 통해 촬영된 스테레오 영상 정보를 수신하는 단계; 상기 스테레오 영상 정보에 기초하여 3D 깊이맵 정보를 생성하는 단계; 상기 3D 특징맵 정보와 상기 3D 깊이맵 정보를 결합하여 결합 3D 맵을 생성하는 단계; 및 상기 결합 3D 맵에 기초하여 객체의 거리 및 자세 정보를 전시하는 단계를 포함한다.The method performed by the FMCW radar-based object detection system according to the present invention includes the steps of receiving radar sensing information about an object approaching within a predetermined distance (hereinafter referred to as a proximity object) through the FMCW radar; Generating 3D feature map information based on the radar sensing information; Receiving stereo image information captured through a stereo camera targeting the nearby object; generating 3D depth map information based on the stereo image information; generating a combined 3D map by combining the 3D feature map information and the 3D depth map information; and displaying distance and posture information of the object based on the combined 3D map.

Description

FMCW 레이다 기반의 객체 탐지 시스템 및 방법{SYSTEM AND METHOD FOR DETECTING OBJECT BASED FMCW RADAR}FMCW radar based object detection system and method {SYSTEM AND METHOD FOR DETECTING OBJECT BASED FMCW RADAR}

본 발명은 FMCW 레이다 기반의 객체 탐지 시스템 및 방법에 관한 것으로, 특히 위협체와 같은 표적(객체)를 FMCW 레이다 및 스테레오 카메라를 통해 획득한 정보를 기반으로 탐지하기 위한 시스템 및 방법에 관한 것이다.The present invention relates to an FMCW radar-based object detection system and method, and particularly to a system and method for detecting a target (object) such as a threat based on information acquired through an FMCW radar and a stereo camera.

종래 기술에 따른 레이다 시스템은 포인트 방식으로 객체를 탐지하며, 일반적으로 레이돔, 안테나, 송수신기, 신호처리 장치, 그리고 하우징으로 구성된다. 레이다 안테나는 전파를 발사하고 수신하여 반사된 신호를 수집한다. 송수신기는 전파의 송수신을 관리하고 도플러 주파수를 계산한다. 신호처리 장치는 수신된 데이터를 분석하고 객체의 거리, 속도, 각도를 추출할 수 있다. 하우징은 레이다 시스템을 보호하고 안정성을 유지할 수 있다.Radar systems according to the prior art detect objects using a point method and generally consist of a radome, an antenna, a transceiver, a signal processing device, and a housing. Radar antennas emit and receive radio waves and collect reflected signals. The transceiver manages the transmission and reception of radio waves and calculates the Doppler frequency. The signal processing device can analyze the received data and extract the distance, speed, and angle of the object. The housing can protect the radar system and maintain its stability.

일반적으로 레이다는 거리, 각도 및 속도를 하나의 포인트로 탐지하는데, 특히 연속파 주파수 변조(Frequency-Modulated Continuous Wave, 이하 FMCW) 레이다는 여러 객체의 거리와 속도를 탐지할 수 있으며, 이용할 수 있는 객체의 데이터, 복잡성, 비용 특성들 사이에서 적절한 절충이 가능하다. 그리고 다중 레이다를 장착하여 레이다 영상을 기반으로 서라운드 환경의 객체 정보를 추출하면, 정확한 객체의 정보를 생성할 수 있다.In general, radar detects distance, angle, and speed as a single point. In particular, Continuous Wave Frequency Modulated Continuous Wave (FMCW) radar can detect the distance and speed of multiple objects, and can detect the distance and speed of multiple objects. An appropriate compromise is possible between data, complexity, and cost characteristics. And by installing multiple radars and extracting object information in the surround environment based on radar images, accurate object information can be generated.

참고로, 도 1은 레이다에 의한 객체의 거리 추출에 대한 거리-도플러 예시를 도시한 도면이다. 도 2는 레이다에 의한 객체의 각도 추출에 대한 거리-각도의 예시를 도시한 도면이다.For reference, Figure 1 is a diagram showing an example of distance-Doppler for extracting the distance of an object by radar. Figure 2 is a diagram showing an example of distance-angle for angle extraction of an object by radar.

한편, 종래 기술에서 레이다 센서는 비교적 비나 안개의 외부 환경에 강인하고, 전파의 왕복시간으로 정확한 거리를 탐지하며, 객체로부터 반사된 도플러 주파수를 이용하여 속도 정보를 직접 획득한다. 이때, 레이다 시스템의 크기로 인하여 수신 안테나 개수의 확장에 한계가 있기 때문에, 각도 탐지 성능이 낮아서 모든 객체가 하나의 포인트로 인지되며, 이로 인하여 객체의 종류를 분류 및 인식하기가 매우 어렵지만, 도플러 스펙트럼을 이용하여 객체의 특징 벡터 추출하여 객체를 인지/분류하는 기법을 활용하고 있다.Meanwhile, in the prior art, radar sensors are relatively robust to external environments such as rain or fog, detect accurate distances using the round-trip time of radio waves, and directly obtain speed information using Doppler frequencies reflected from objects. At this time, because there is a limit to the expansion of the number of receiving antennas due to the size of the radar system, the angle detection performance is low and all objects are recognized as one point, which makes it very difficult to classify and recognize the type of object, but the Doppler spectrum A technique is used to recognize/classify objects by extracting feature vectors of objects.

레이다 센서 시스템으로 객체에 대해 정밀도 높게 탐지하려면, 다중 레이다로 장착하여 서라운드 환경의 레이다 영상을 생성해야 하며, 이러한 레이다 영상을 기반으로 객체 정보를 추출하는 것이 가능하지만, 각 레이더 센서는 객체를 단순히 포인트로 탐지하면 안되며, 거리 및 각도 탐지 성능이 고해상도로 고도화되어야 한다. 이때, 고해상도로 객체의 각도를 탐지하기 위한 시분할 MIMO(Multiple Input Multiple Output) 기법이 있으며, 이 기법은 2D(거리, 각도) 맵 뿐만 아니라 거리-수평좌표-수직좌표로 구성된 3D 객체 정보도 탐지할 수 있지만, 기존 가시광 센서 또는 적외선 센서에 비해 특히, 근접거리에서 낮은 해상도의 문제가 있다. In order to detect objects with high precision with a radar sensor system, multiple radars must be installed to generate radar images in a surround environment. Although it is possible to extract object information based on these radar images, each radar sensor simply points out the object. , and the distance and angle detection performance must be advanced to high resolution. At this time, there is a time-division MIMO (Multiple Input Multiple Output) technique to detect the angle of an object at high resolution, and this technique can detect not only a 2D (distance, angle) map but also 3D object information consisting of distance-horizontal coordinates-vertical coordinates. However, compared to existing visible light sensors or infrared sensors, there is a problem of low resolution, especially at close range.

또한, 레이다 센서 시스템은 가시광 센서 또는 적외선 센서와 달리 레이다에서 탐지된 각 포인트마다 도플러 정보를 함께 추출할 수 있기 때문에, 단순한 전파 영상뿐만 아니라 각 산란점마다 존재하는 도플러 스펙트럼을 함께 이용하는 경우에 4D 영상 기반으로 객체의 인지율을 향상시킬 수 있지만, 여전히 포인트-클라우드로 생성된 데이터는 근접거리에서 낮은 해상도가 문제이다.In addition, unlike visible light sensors or infrared sensors, the radar sensor system can extract Doppler information for each point detected by the radar, so 4D images can be obtained when using not only simple radio images but also the Doppler spectrum that exists at each scattering point. Although it is possible to improve the recognition rate of objects based on point-cloud data, there is still a problem with low resolution at close range.

본 발명이 해결하고자 하는 과제는 FMCW 레이다로 근접하는 객체에 대해, 거리 및 각도 탐지 성능이 고해상도로 고도화된 레이다를 보유하고 있지 않은 상태에서, FMCW 레이다의 포인트 클라우드 3D 영상과 스테레오 영상을 결합하여 객체의 정밀한 3D 맵을 생성할 수 있는, FMCW 레이다 기반의 객체 탐지 시스템 및 방법에 관한 것이다.The problem that the present invention aims to solve is to detect objects approaching by FMCW radar by combining the point cloud 3D image and stereo image of the FMCW radar in the absence of a radar with advanced, high-resolution distance and angle detection performance. It relates to an FMCW radar-based object detection system and method that can generate a precise 3D map.

다만, 본 발명이 해결하고자 하는 과제는 상기된 바와 같은 과제로 한정되지 않으며, 또다른 과제들이 존재할 수 있다.However, the problem to be solved by the present invention is not limited to the problems described above, and other problems may exist.

상술한 과제를 해결하기 위한 본 발명의 제1 측면에 따른 FMCW 레이다 기반의 객체 탐지 시스템에 의해 수행되는 방법은 상기 FMCW 레이다를 통해 소정 거리 이내의 근접하는 객체(이하, 근접 객체)에 대한 레이다 센싱 정보를 수신하는 단계; 상기 레이다 센싱 정보에 기초하여 3D 특징맵 정보를 생성하는 단계; 상기 근접 객체를 대상으로 스테레오 카메라를 통해 촬영된 스테레오 영상 정보를 수신하는 단계; 상기 스테레오 영상 정보에 기초하여 3D 깊이맵 정보를 생성하는 단계; 상기 3D 특징맵 정보와 상기 3D 깊이맵 정보를 결합하여 결합 3D 맵을 생성하는 단계; 및 상기 결합 3D 맵에 기초하여 객체의 거리 및 자세 정보를 전시하는 단계를 포함한다.The method performed by the FMCW radar-based object detection system according to the first aspect of the present invention to solve the above-described problem involves radar sensing of an object approaching within a predetermined distance (hereinafter referred to as a nearby object) through the FMCW radar. receiving information; Generating 3D feature map information based on the radar sensing information; Receiving stereo image information captured through a stereo camera targeting the nearby object; generating 3D depth map information based on the stereo image information; generating a combined 3D map by combining the 3D feature map information and the 3D depth map information; and displaying distance and posture information of the object based on the combined 3D map.

본 발명의 일부 실시예에 있어서, 상기 레이다 센싱 정보에 기초하여 3D 특징맵 정보를 생성하는 단계는, 상기 레이다 센싱 정보로부터 특징점을 추출하는 단계; 상기 레이다 센싱 정보로부터 객체와의 거리 정보 및 각도 정보를 추정하는 단계; 및 상기 특징점과 거리 정보 및 각도 정보를 기반으로 3D 특징맵 정보를 생성하는 단계를 포함할 수 있다.In some embodiments of the present invention, generating 3D feature map information based on the radar sensing information includes extracting feature points from the radar sensing information; estimating distance information and angle information to an object from the radar sensing information; And it may include generating 3D feature map information based on the feature point, distance information, and angle information.

본 발명의 일부 실시예에 있어서, 상기 레이다 센싱 정보로부터 객체와의 거리 정보 및 각도 정보를 추정하는 단계는, 상기 레이다 센싱 신호의 전송 신호 주파수와 수신 신호 주파수의 차이값을 산출하는 단계; 상기 차이값과 지연시간을 반영한 기울기를 산출하는 단계; 및 상기 차이값과 기울기값을 기반으로 상기 거리 정보를 추정하는 단계를 포함할 수 있다.In some embodiments of the present invention, estimating distance information and angle information to an object from the radar sensing information includes calculating a difference between a transmitted signal frequency and a received signal frequency of the radar sensing signal; calculating a slope reflecting the difference value and delay time; And it may include estimating the distance information based on the difference value and the slope value.

본 발명의 일부 실시예에 있어서, 상기 레이다 센싱 정보로부터 객체와의 거리 정보 및 각도 정보를 추정하는 단계는, 레이다의 작동 주파수와 복수의 수신 안테나 사이의 거리 정보를 획득하는 단계; 상기 객체로 레이다 신호를 전송 및 수신하는 단계; 상기 수신된 레이다 신호의 주파수 차이를 계산하는 단계; 및 상기 레이다의 작동 주파수, 레이다 신호의 주파수 차이 및 수신 안테나 사이의 거리 정보에 기반하여 상기 각도 정보를 산출하는 단계를 포함할 수 있다.In some embodiments of the present invention, estimating distance information and angle information to an object from the radar sensing information includes obtaining distance information between an operating frequency of the radar and a plurality of receiving antennas; Transmitting and receiving radar signals to the object; calculating a frequency difference between the received radar signals; And it may include calculating the angle information based on the operating frequency of the radar, the frequency difference between radar signals, and distance information between receiving antennas.

본 발명의 일부 실시예에 있어서, 상기 수신된 레이다 신호의 주파수 차이를 계산하는 단계는, 레이다 안테나와 객체 사이의 거리 변화 정보 및 상기 레이다의 작동 주파수에 기초하여 산출할 수 있다.In some embodiments of the present invention, the step of calculating the frequency difference between the received radar signals may be calculated based on distance change information between the radar antenna and the object and the operating frequency of the radar.

본 발명의 일부 실시예에 있어서, 상기 스테레오 영상 정보에 기초하여 3D 깊이맵 정보를 생성하는 단계는, 상기 스테레오 영상 정보로부터 특징점을 추출하는 단계; 상기 특징점에 기초하여 3D 깊이맵 정보를 생성하는 단계; 및 상기 3D 깊이맵 정보에 기반하여 객체와의 거리 정보 및 각도 정보를 추정하는 단계를 포함할 수 있다.In some embodiments of the present invention, generating 3D depth map information based on the stereo image information includes extracting feature points from the stereo image information; generating 3D depth map information based on the feature points; And it may include estimating distance information and angle information to an object based on the 3D depth map information.

본 발명의 일부 실시예에 있어서, 상기 3D 특징맵 정보와 상기 3D 깊이맵 정보를 결합하여 결합 3D 맵을 생성하는 단계는, 상기 3D 특징맵 정보로부터 제1 객체 틀어짐 변화량을 추출하는 단계; 상기 3D 깊이맵 정보로부터 제2 객체 틀어짐 변화량을 추출하는 단계; 및 상기 제1 및 제2 객체 틀어짐 변화량에 기초하여 상기 3D 특징맵 정보와 상기 3D 깊이맵 정보를 결합하는 단계를 포함할 수 있다.In some embodiments of the present invention, generating a combined 3D map by combining the 3D feature map information and the 3D depth map information includes extracting a first object distortion change amount from the 3D feature map information; extracting a second object distortion change amount from the 3D depth map information; and combining the 3D feature map information and the 3D depth map information based on the first and second object distortion changes.

또한, 본 발명의 제2 측면에 따른 FMCW 레이다 기반의 객체 탐지 시스템은 상기 FMCW 레이다를 통해 소정 거리 이내의 근접하는 객체(이하, 근접 객체)에 대한 레이다 센싱 정보를 수신하고, 상기 근접 객체를 대상으로 스테레오 카메라를 통해 촬영된 스테레오 영상 정보를 수신하는 통신모듈, 상기 레이다 센싱 정보 및 스테레오 영상 정보에 기초하여 객체를 탐지하기 위한 프로그램이 저장된 메모리 및 상기 메모리에 저장된 프로그램을 실행시킴에 따라, 상기 레이다 센싱 정보에 기초하여 3D 특징맵 정보를 생성하고, 상기 스테레오 영상 정보에 기초하여 3D 깊이맵 정보를 생성한 후, 상기 3D 특징맵 정보와 상기 3D 깊이맵 정보를 결합하여 결합 3D 맵을 생성하고, 상기 결합 3D 맵에 기초하여 객체의 거리 및 자세 정보를 전시하도록 제어하는 프로세서를 포함한다.In addition, the FMCW radar-based object detection system according to the second aspect of the present invention receives radar sensing information about an object approaching within a predetermined distance (hereinafter referred to as a proximity object) through the FMCW radar, and targets the proximity object. A communication module that receives stereo image information captured through a stereo camera, a memory storing a program for detecting an object based on the radar sensing information and the stereo image information, and executing the program stored in the memory, the radar Generating 3D feature map information based on sensing information, generating 3D depth map information based on the stereo image information, and then combining the 3D feature map information and the 3D depth map information to generate a combined 3D map, and a processor that controls display of distance and posture information of the object based on the combined 3D map.

본 발명의 일부 실시예에 있어서, 상기 프로세서는 상기 레이다 센싱 정보로부터 특징점을 추출하고, 상기 레이다 센싱 정보로부터 객체와의 거리 정보 및 각도 정보를 추정한 후, 상기 특징점과 거리 정보 및 각도 정보를 기반으로 3D 특징맵 정보를 생성할 수 있다.In some embodiments of the present invention, the processor extracts a feature point from the radar sensing information, estimates distance information and angle information to an object from the radar sensing information, and then calculates the feature point based on the distance information and angle information. You can generate 3D feature map information.

본 발명의 일부 실시예에 있어서, 상기 프로세서는 상기 레이다 센싱 신호의 전송 신호 주파수와 수신 신호 주파수의 차이값을 산출하고, 상기 차이값과 지연시간을 반영한 기울기를 산출한 후, 상기 차이값과 기울기값을 기반으로 상기 거리 정보를 추정할 수 있다.In some embodiments of the present invention, the processor calculates a difference between the transmitted signal frequency and the received signal frequency of the radar sensing signal, calculates a slope reflecting the difference and delay time, and then calculates the difference and slope. The distance information can be estimated based on the value.

본 발명의 일부 실시예에 있어서, 상기 프로세서는 레이다의 작동 주파수와 복수의 수신 안테나 사이의 거리 정보를 획득하고, 상기 객체로 레이다 신호가 전송 및 수신됨에 따라 상기 수신된 레이다 신호의 주파수 차이를 계산하고, 상기 레이다의 작동 주파수, 레이다 신호의 주파수 차이 및 수신 안테나 사이의 거리 정보에 기반하여 상기 각도 정보를 산출할 수 있다.In some embodiments of the present invention, the processor obtains distance information between the operating frequency of the radar and a plurality of receiving antennas, and calculates the frequency difference of the received radar signal as the radar signal is transmitted and received from the object. And, the angle information can be calculated based on the operating frequency of the radar, the frequency difference between radar signals, and distance information between receiving antennas.

본 발명의 일부 실시예에 있어서, 상기 프로세서는 레이다 안테나와 객체 사이의 거리 변화 정보 및 상기 레이다의 작동 주파수에 기초하여 산출할 수 있다.In some embodiments of the present invention, the processor may calculate the distance change information between the radar antenna and the object and the operating frequency of the radar.

본 발명의 일부 실시예에 있어서, 상기 프로세서는 상기 스테레오 영상 정보로부터 특징점을 추출하고, 상기 특징점에 기초하여 3D 깊이맵 정보를 생성한 후, 상기 3D 깊이맵에 기반하여 객체와의 거리 정보 및 각도 정보를 추정할 수 있다.In some embodiments of the present invention, the processor extracts feature points from the stereo image information, generates 3D depth map information based on the feature points, and then generates distance information and angle with the object based on the 3D depth map. Information can be estimated.

본 발명의 일부 실시예에 있어서, 상기 프로세서는 상기 3D 특징맵 정보로부터 제1 객체 틀어짐 변화량을 추출하고, 상기 3D 깊이맵 정보로부터 제2 객체 틀어짐 변화량을 추출하며, 상기 제1 및 제2 객체 틀어짐 변화량에 기초하여 상기 3D 특징맵 정보와 상기 3D 깊이맵 정보를 결합할 수 있다.In some embodiments of the present invention, the processor extracts a first object distortion change amount from the 3D feature map information, extracts a second object distortion change amount from the 3D depth map information, and determines the first and second object distortion changes. Based on the amount of change, the 3D feature map information and the 3D depth map information can be combined.

상술한 과제를 해결하기 위한 본 발명의 다른 면에 따른 컴퓨터 프로그램은, 하드웨어인 컴퓨터와 결합되어 상기 FMCW 레이다 기반의 객체 탐지 방법을 실행하며, 컴퓨터 판독가능 기록매체에 저장된다.A computer program according to another aspect of the present invention for solving the above-described problem is combined with a computer as hardware to execute the FMCW radar-based object detection method, and is stored in a computer-readable recording medium.

본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other specific details of the invention are included in the detailed description and drawings.

전술한 본 발명의 일 실시예에 의하면, 기존의 고해상도 레이다를 보유하지 않는 환경에서도, FMCW 레이다를 사용하여 0.2m 이내까지 근접하는 객체의 거리 및 각도를 고해상도로 정밀하게 탐지할 수 있다. According to an embodiment of the present invention described above, even in an environment that does not have an existing high-resolution radar, the distance and angle of an object approaching within 0.2 m can be precisely detected with high resolution using an FMCW radar.

또한, FMCW 레이다를 통해 수집한 데이터를 사용하여 객체의 위치를 3D 포인트 클라우드로 표현하고, 스테레오 카메라를 사용하여 이미지를 촬영하고, 두 개의 이미지 간의 변위를 기반으로 깊이 정보를 생성한 후, FMCW Radar로부터 얻은 3D 포인트 클라우드와 스테레오 카메라로부터 얻은 3D 맵을 결합하여 객체의 정밀한 3D 맵을 생성함으로써, 객체의 거리와 방향, 그리고 깊이 정보를 고해상도로 제공할 수 있다. 이러한, 정밀 3D 맵을 활용하여 객체의 정밀한 거리 및 자세 정보를 생성하여 제공할 수 있으며, 객체의 위치와 방향을 보다 정밀하게 파악할 수 있다.Additionally, data collected through the FMCW radar is used to express the object's location as a 3D point cloud, images are taken using a stereo camera, and depth information is generated based on the displacement between the two images, and then the FMCW radar By combining the 3D point cloud obtained from the 3D map and the 3D map obtained from the stereo camera to create a precise 3D map of the object, the distance, direction, and depth information of the object can be provided in high resolution. By using these precise 3D maps, precise distance and posture information of an object can be generated and provided, and the location and direction of the object can be determined more precisely.

본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below.

이하에 첨부되는 도면들은 본 실시 예에 관한 이해를 돕기 위한 것으로, 상세한 설명과 함께 실시 예들을 제공한다. 다만, 본 실시 예의 기술적 특징이 특정 도면에 한정되는 것은 아니며, 각 도면에서 개시하는 특징들은 서로 조합되어 새로운 실시 예로 구성될 수 있다.
도 1은 레이다에 의한 객체의 거리 추출에 대한 거리-도플러 예시를 도시한 도면이다.
도 2는 레이다에 의한 객체의 각도 추출에 대한 거리-각도의 예시를 도시한 도면이다.
도 3은 본 발명의 일 실시예에 따른 FMCW 레이다 기반의 객체 탐지 방법의 순서도이다.
는 본 발명의 일 실시예에 따른 FMCW 레이다 기반의 객체 탐지 방법을 기능 중심으로 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시예에 따른 3D 특징맵 정보의 일 예시를 도시한 도면이다.
도 6은 본 발명의 일 실시예에서 FMCW 레이다 기반 거리 산출 과정을 설명하기 위한 도면이다.
도 7a 및 도 7b는 본 발명의 일 실시예에서 FMCW 레이다 기반 각도 산출 과정을 설명하기 위한 도면이다.
도 8은 FMCW 레이다에서 추출된 특징점 정보를 도시한 도면이다.
도 9는 본 발명의 일 실시예에 따른 스테레오 카메라를 통한 특징점 정보의 일 예시를 도시한 도면이다.
도 10은 본 발명의 일 실시예에 따른 스테레오 영상 생성시 깊이 및 거리 변화량을 추출하는 과정을 설명하기 위한 도면이다.
도 11은 본 발명의 일 실시예에 따른 3D 특징맵 정보의 일 예시를 도시한 도면이다.
도 12는 본 발명의 일 실시예에서 생성된 결합 3D 맵의 일 예시를 도시한 도면이다.
도 13은 본 발명의 일 실시예에 따른 FMCW 레이다 기반 객체 탐지 시스템의 블록도이다.
The drawings attached below are intended to aid understanding of the present embodiment and provide examples along with a detailed description. However, the technical features of this embodiment are not limited to specific drawings, and the features disclosed in each drawing may be combined to form a new embodiment.
Figure 1 is a diagram illustrating a range-Doppler example for distance extraction of an object by radar.
Figure 2 is a diagram showing an example of distance-angle for angle extraction of an object by radar.
Figure 3 is a flowchart of an FMCW radar-based object detection method according to an embodiment of the present invention.
is a diagram for explaining the FMCW radar-based object detection method in terms of functions according to an embodiment of the present invention.
Figure 5 is a diagram showing an example of 3D feature map information according to an embodiment of the present invention.
Figure 6 is a diagram for explaining the FMCW radar-based distance calculation process in one embodiment of the present invention.
Figures 7a and 7b are diagrams for explaining the FMCW radar-based angle calculation process in one embodiment of the present invention.
Figure 8 is a diagram showing feature point information extracted from the FMCW radar.
Figure 9 is a diagram illustrating an example of feature point information through a stereo camera according to an embodiment of the present invention.
Figure 10 is a diagram for explaining the process of extracting depth and distance changes when generating a stereo image according to an embodiment of the present invention.
Figure 11 is a diagram showing an example of 3D feature map information according to an embodiment of the present invention.
Figure 12 is a diagram showing an example of a combined 3D map generated in an embodiment of the present invention.
Figure 13 is a block diagram of an FMCW radar-based object detection system according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. The advantages and features of the present invention and methods for achieving them will become clear by referring to the embodiments described in detail below along with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below and may be implemented in various different forms. The present embodiments are merely provided to ensure that the disclosure of the present invention is complete and to provide a general understanding of the technical field to which the present invention pertains. It is provided to fully inform the skilled person of the scope of the present invention, and the present invention is only defined by the scope of the claims.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.The terminology used herein is for describing embodiments and is not intended to limit the invention. As used herein, singular forms also include plural forms, unless specifically stated otherwise in the context. As used in the specification, “comprises” and/or “comprising” does not exclude the presence or addition of one or more other elements in addition to the mentioned elements. Like reference numerals refer to like elements throughout the specification, and “and/or” includes each and every combination of one or more of the referenced elements. Although “first”, “second”, etc. are used to describe various components, these components are of course not limited by these terms. These terms are merely used to distinguish one component from another. Therefore, it goes without saying that the first component mentioned below may also be a second component within the technical spirit of the present invention.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used in this specification may be used with meanings commonly understood by those skilled in the art to which the present invention pertains. Additionally, terms defined in commonly used dictionaries are not interpreted ideally or excessively unless clearly specifically defined.

이하에서는 도 3 내지 도 12를 참조하여 본 발명의 일 실시예에 따른 FMCW 레이다 기반의 객체 탐지 시스템(100)에 의해 수행되는 방법을 설명하도록 한다.Hereinafter, a method performed by the FMCW radar-based object detection system 100 according to an embodiment of the present invention will be described with reference to FIGS. 3 to 12.

도 3은 본 발명의 일 실시예에 따른 FMCW 레이다 기반의 객체 탐지 방법의 순서도이다. 도 4는 본 발명의 일 실시예에 따른 FMCW 레이다 기반의 객체 탐지 방법을 기능 중심으로 설명하기 위한 도면이다. 도 5는 본 발명의 일 실시예에 따른 3D 특징맵 정보의 일 예시를 도시한 도면이다.Figure 3 is a flowchart of an FMCW radar-based object detection method according to an embodiment of the present invention. Figure 4 is a diagram for explaining the FMCW radar-based object detection method in terms of functionality according to an embodiment of the present invention. Figure 5 is a diagram showing an example of 3D feature map information according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 FMCW 레이다 기반의 객체 탐지 방법은 먼저, FMCW 레이다를 통해 소정 거리 이내의 근접하는 객체(이하, 근접 객체)에 대한 레이다 센싱 정보를 수신한다(S110).The FMCW radar-based object detection method according to an embodiment of the present invention first receives radar sensing information about an object approaching within a predetermined distance (hereinafter referred to as a proximity object) through the FMCW radar (S110).

본 발명의 일 실시예는 FMCW 레이다로 근접하는 객체를 탐지하기 위한 것을 그 대상으로 하며 일 예로, FMCW 레이다와 객체 간의 소정의 거리는 0.2m 이내로 설정될 수 있으나 반드시 이에 한정되는 것은 아니다. One embodiment of the present invention is aimed at detecting an object approaching with an FMCW radar. For example, the predetermined distance between the FMCW radar and the object may be set to within 0.2 m, but is not necessarily limited thereto.

다음으로, 레이다 센싱 정보에 기초하여 3D 특징맵 정보를 생성한다(S120).Next, 3D feature map information is generated based on the radar sensing information (S120).

일 실시예로, 레이다 센싱 정보를 통해 3D 특징맵 정보를 생성하기 위해서는 먼저, 레이다 센싱 정보로부터 특징점을 추출하고(S121), 레이다 센싱 정보로부터 객체와의 거리 정보 및 각도 정보를 추정한 후(S122), 특징점과 거리 정보 및 각도 정보를 기반으로 3D 특징맵 정보를 생성할 수 있다(S133). 이와 같이 생성된 3D 특징맵 정보의 일 예시는 도 5에 도시된 바와 같다.In one embodiment, in order to generate 3D feature map information through radar sensing information, first, feature points are extracted from the radar sensing information (S121), and then distance information and angle information to the object are estimated from the radar sensing information (S122) ), 3D feature map information can be generated based on feature points, distance information, and angle information (S133). An example of the 3D feature map information generated in this way is shown in FIG. 5.

도 6은 본 발명의 일 실시예에서 FMCW 레이다 기반 거리 산출 과정을 설명하기 위한 도면이다.Figure 6 is a diagram for explaining the FMCW radar-based distance calculation process in one embodiment of the present invention.

일 실시예로, 객체와의 거리 정보를 산출하기 위해서는 레이다 센싱 신호의 전송 신호 주파수와 수신 신호 주파수의 차이값을 산출한다. 그 다음, 차이값과 지연시간(τ)을 반영한 기울기를 산출한다. 전송 신호 주파수와 수신 신호 주파수의 차이값을 △fFMCW라 할 때, 기울기는 다음 식 1을 통해 산출할 수 있다.In one embodiment, in order to calculate distance information to an object, the difference between the transmitted signal frequency and the received signal frequency of the radar sensing signal is calculated. Next, calculate the slope reflecting the difference value and delay time (τ). When the difference between the transmitted signal frequency and the received signal frequency is △f FMCW , the slope can be calculated through the following equation 1.

[식 1][Equation 1]

그 다음, 차이값과 기울기값을 기반으로 거리 정보(R)를 다음 식 2에 따라 추정할 수 있다. 이때, 식 2에서 c는 전자기파 속도를 의미한다.Next, the distance information (R) can be estimated based on the difference value and the slope value according to Equation 2 below. At this time, c in Equation 2 refers to the electromagnetic wave speed.

[식 2][Equation 2]

한편, 본 발명의 일 실시예는 FMCW 레이다를 이용하여 객체의 상대속도()를 산출할 수 있으며, 이는 수신 신호 주파수의 변화를 기반으로 다음 식 3을 통해 산출할 수 있다.Meanwhile, an embodiment of the present invention uses an FMCW radar to determine the relative speed of an object ( ) can be calculated, which can be calculated through the following equation 3 based on the change in the received signal frequency.

[식 3][Equation 3]

또는 or

이때, 식 3에서 f0는 평균주파수, B는 대역폭, △fa는 상승 ramp의 주파수 차이, △fb는 하강 ramp의 주파수 차이, △fD는 수신 주파수의 변화 값을 나타낸다.At this time, in Equation 3, f 0 is the average frequency, B is the bandwidth, △f a is the frequency difference of the rising ramp, △f b is the frequency difference of the falling ramp, and △f D is the change value of the received frequency.

도 7a 및 도 7b는 본 발명의 일 실시예에서 FMCW 레이다 기반 각도 산출 과정을 설명하기 위한 도면이다. 이때, 도 7a는 송신 안테나(Tx) 및 2개의 수신 안테나(Rx)를 나타낸 것이며, 도 7b은 2개의 수신 안테나(a, b)로부터 각도 추정하는 과정을 설명하기 위한 것이다.Figures 7a and 7b are diagrams for explaining the FMCW radar-based angle calculation process in one embodiment of the present invention. At this time, Figure 7a shows a transmitting antenna (Tx) and two receiving antennas (Rx), and Figure 7b is for explaining the process of estimating the angle from the two receiving antennas (a, b).

일 실시예로, 객체와의 각도 정보를 산출하기 위해서는 먼저 레이다의 작동 주파수()와 복수의 수신 안테나 사이의 거리 정보(d)를 획득한다. 그 다음, 객체로 레이다 신호를 전송하여 수신하고, 수신된 레이다 신호의 주파수 차이 를 식 4에 기초하여 계산한다. 이때, 식 4에서 은 레이다 안테나와 객체 사이의 거리 변화로 이다.In one embodiment, in order to calculate angle information with an object, first the operating frequency of the radar ( ) and obtain distance information (d) between the plurality of receiving antennas. Then, the radar signal is transmitted to the object and received, and the frequency difference of the received radar signal is Calculate based on Equation 4. At this time, in equation 4 As the distance between the radar antenna and the object changes, am.

[식 4][Equation 4]

그 다음, 레이다 신호의 작동 주파수, 레이다 신호의 주파수 차이 및 수신 안테나 사이의 거리 정보에 기초하여 FMCW 레이다를 이용한 객체와의 각도 정보()를 다음 식 5에 기초하여 산출할 수 있다.Then, based on the operating frequency of the radar signal, the frequency difference between the radar signals, and the distance information between the receiving antennas, the angle information with the object using the FMCW radar ( ) can be calculated based on the following equation 5.

[식 5][Equation 5]

이때, 식 4의 경우 로도 표현할 수 있다.At this time, in the case of equation 4 It can also be expressed as

도 8은 FMCW 레이다에서 추출된 특징점 정보(F(x, y, z))를 도시한 것으로, 앞서 산출한 거리 정보() 및 각도 정보(y, z)가 특징점에 반영되어 3D 특징맵 정보로 생성될 수 있다.Figure 8 shows feature point information (F(x, y, z)) extracted from the FMCW radar, and the previously calculated distance information ( ) and angle information (y, z) can be reflected in the feature points to generate 3D feature map information.

다시 도 1을 참조하면, 다음으로 근접 객체를 대상으로 스테레오 카메라를 통해 촬영된 스테레오 영상 정보를 수신하고(S130), 스테레오 영상 정보에 기초하여 3D 깊이맵 정보를 생성한다(S140).Referring again to FIG. 1, next, stereo image information captured through a stereo camera targeting a nearby object is received (S130), and 3D depth map information is generated based on the stereo image information (S140).

도 9는 본 발명의 일 실시예에 따른 스테레오 카메라를 통한 특징점 정보의 일 예시를 도시한 도면이다. 도 10은 본 발명의 일 실시예에 따른 스테레오 영상 생성시 깊이 및 거리 변화량을 추출하는 과정을 설명하기 위한 도면이다. 도 11은 본 발명의 일 실시예에 따른 3D 특징맵 정보의 일 예시를 도시한 도면이다. Figure 9 is a diagram illustrating an example of feature point information through a stereo camera according to an embodiment of the present invention. Figure 10 is a diagram for explaining the process of extracting depth and distance changes when generating a stereo image according to an embodiment of the present invention. Figure 11 is a diagram showing an example of 3D feature map information according to an embodiment of the present invention.

일 실시예로, 스테레오 영상 정보에 기반하여 3D 깊이맵을 생성하기 위해서는 먼저, 스테레오 영상 정보로부터 특징점을 추출한다(S141). 그 다음, 특징점에 기초하여 3D 깊이맵 정보를 생성하고(S142), 3D 깊이맵 정보에 기반하여 객체와의 거리 정보 및 각도 정보를 추정한다(S143).In one embodiment, in order to generate a 3D depth map based on stereo image information, feature points are first extracted from the stereo image information (S141). Next, 3D depth map information is generated based on the feature points (S142), and distance information and angle information to the object are estimated based on the 3D depth map information (S143).

이때, 스테레오 영상을 통해 추출한 특징점 I(x, y, z)에는 도 10에 도시된 바와 같이 스테레오에서 특정 위치의 추출된 거리(), 각도(y, z) 값에 대한 정보가 포함될 수 있다.At this time, the feature point I (x, y, z) extracted through the stereo image contains the extracted distance ( ), information about angle (y, z) values may be included.

일 실시예로, 스테레오 영상 정보로부터 객체와의 거리 정보를 산출하는 과정의 경우, 도 6에서 설명한 FMCW 레이다의 거리 정보 계산 방법에서 표현된 수신 신호 주파수(①, ②, ③, ④, ⑤)에 대하여 스테레오 깊이 맵을 생성(①', ②', ③', ④', ⑤')시 각각 대응하는 위치에 대한 거리 정보를 산출해야 한다. 이는 이후 단계에서 3D 특징맵 정보와 3D 깊이맵 정보를 결합하기 위함이다. In one embodiment, in the case of calculating distance information to an object from stereo image information, the received signal frequencies (①, ②, ③, ④, ⑤) expressed in the distance information calculation method of the FMCW radar described in FIG. 6 When creating a stereo depth map (①', ②', ③', ④', ⑤'), distance information for each corresponding location must be calculated. This is to combine 3D feature map information and 3D depth map information in a later step.

다시 도 3을 참조하면, 다음으로 3D 특징맵 정보와 상기 3D 깊이맵 정보를 결합하여 결합 3D 맵을 생성하고(S150), 결합 3D 맵에 기초하여 객체의 거리 및 자세 정보를 전시한다(S160)Referring again to FIG. 3, next, the 3D feature map information and the 3D depth map information are combined to generate a combined 3D map (S150), and the distance and posture information of the object are displayed based on the combined 3D map (S160).

도 12는 본 발명의 일 실시예에서 생성된 결합 3D 맵의 일 예시를 도시한 도면이다.Figure 12 is a diagram showing an example of a combined 3D map generated in an embodiment of the present invention.

일 실시예로, 결합 3D 맵을 생성하는 과정은, 먼저 3D 특징맵 정보로부터 제1 객체 틀어짐 변화량을 추출하고(S151), 3D 깊이맵 정보로부터 제2 객체 틀어짐 변화량을 추출한다(S152). 그 다음, 제1 및 제2 객체 틀어짐 변화량에 기초하여 3D 특징맵 정보와 3D 깊이맵 정보를 결합할 수 있다(S153).In one embodiment, the process of generating a combined 3D map first extracts the first object distortion change amount from 3D feature map information (S151) and extracts the second object distortion change amount from 3D depth map information (S152). Next, 3D feature map information and 3D depth map information can be combined based on the first and second object distortion changes (S153).

이때, 스테레오 3D 깊이맵 정보에서 FMCW 레이다 기반 3D 특징맵에서의 특징점 반영한 데이터 결합 3D 맵은 도 13에 도시된 바와 같으며, 여기에서 특징점을 반영한 데이터 결합의 표현은 다음 식 6과 같이 표현할 수 있다.At this time, the data combination 3D map reflecting the feature points in the FMCW radar-based 3D feature map in the stereo 3D depth map information is as shown in FIG. 13, where the expression of data combination reflecting the feature points can be expressed as Equation 6 below. .

[식 6][Equation 6]

한편, 상술한 설명에서, 단계 S110 내지 S160는 본 발명의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다. 아울러, 기타 생략된 내용이라 하더라도 도 3 내지 도 12에 기술된 내용과 도 13에 기술된 내용은 상호 적용될 수 있다.Meanwhile, in the above description, steps S110 to S160 may be further divided into additional steps or combined into fewer steps, depending on the implementation of the present invention. Additionally, some steps may be omitted or the order between steps may be changed as needed. In addition, even if other omitted content, the content described in FIGS. 3 to 12 and the content described in FIG. 13 can be mutually applied.

도 13은 본 발명의 일 실시예에 따른 FMCW 레이다 기반 객체 탐지 시스템(100)의 블록도이다.Figure 13 is a block diagram of the FMCW radar-based object detection system 100 according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 객체 탐지 시스템(100)은 통신모듈(110), 메모리(120) 및 프로세서(130)를 포함한다.The object detection system 100 according to an embodiment of the present invention includes a communication module 110, a memory 120, and a processor 130.

통신모듈(110)은 FMCW 레이다를 통해 소정 거리 이내의 근접하는 객체에 대한 레이다 센싱 정보를 수신하고, 근접 객체를 대상으로 스테레오 카메라를 통해 촬영된 스테레오 영상 정보를 수신한다. 이와 같은 통신모듈(110)은 유선 통신 모듈 및 무선 통신 모듈을 모두 포함할 수 있다. 유선 통신 모듈은 전력선 통신 장치, 전화선 통신 장치, 케이블 홈(MoCA), 이더넷(Ethernet), IEEE1294, 통합 유선 홈 네트워크 및 RS-485 제어 장치로 구현될 수 있다. 또한, 무선 통신 모듈은 WLAN(wireless LAN), Bluetooth, HDR WPAN, UWB, ZigBee, Impulse Radio, 60GHz WPAN, Binary-CDMA, 무선 USB 기술 및 무선 HDMI 기술, 그밖에 5G(5th generation communication), LTE-A(long term evolution-advanced), LTE(long term evolution), Wi-Fi(wireless fidelity) 등의 기능을 구현하기 위한 모듈로 구성될 수 있다.The communication module 110 receives radar sensing information about a nearby object within a predetermined distance through the FMCW radar, and receives stereo image information captured through a stereo camera targeting the nearby object. This communication module 110 may include both a wired communication module and a wireless communication module. The wired communication module can be implemented as a power line communication device, telephone line communication device, home cable (MoCA), Ethernet, IEEE1294, integrated wired home network, and RS-485 control device. In addition, wireless communication modules include WLAN (wireless LAN), Bluetooth, HDR WPAN, UWB, ZigBee, Impulse Radio, 60GHz WPAN, Binary-CDMA, wireless USB technology and wireless HDMI technology, as well as 5G (5th generation communication) and LTE-A. It may be composed of modules to implement functions such as (long term evolution-advanced), LTE (long term evolution), and Wi-Fi (wireless fidelity).

메모리(120)에는 레이다 센싱 정보 및 스테레오 영상 정보에 기초하여 객체를 탐지하기 위한 프로그램이 저장된다. 여기에서, 메모리(120)는 전원이 공급되지 않아도 저장된 정보를 계속 유지하는 비휘발성 저장장치 및 휘발성 저장장치를 통칭하는 것이다. 예를 들어, 메모리(120)는 콤팩트 플래시(compact flash; CF) 카드, SD(secure digital) 카드, 메모리 스틱(memory stick), 솔리드 스테이트 드라이브(solid-state drive; SSD) 및 마이크로(micro) SD 카드 등과 같은 낸드 플래시 메모리(NAND flash memory), 하드 디스크 드라이브(hard disk drive; HDD) 등과 같은 마그네틱 컴퓨터 기억 장치 및 CD-ROM, DVD-ROM 등과 같은 광학 디스크 드라이브(optical disc drive) 등을 포함할 수 있다. A program for detecting objects based on radar sensing information and stereo image information is stored in the memory 120. Here, the memory 120 is a general term for non-volatile storage devices and volatile storage devices that continue to retain stored information even when power is not supplied. For example, memory 120 may include compact flash (CF) cards, secure digital (SD) cards, memory sticks, solid-state drives (SSD), and micro SD. This includes NAND flash memory such as cards, magnetic computer storage devices such as hard disk drives (HDD), and optical disc drives such as CD-ROM, DVD-ROM, etc. You can.

프로세서(130)는 메모리(120)에 저장된 프로그램을 실행시킴에 따라, 레이다 센싱 정보에 기초하여 3D 특징맵 정보를 생성하고, 스테레오 영상 정보에 기초하여 3D 깊이맵 정보를 생성한다. 그리고 프로세서(130)는 3D 특징맵 정보와 3D 깊이맵 정보를 결합하여 결합 3D 맵을 생성하고, 결합 3D 맵에 기초하여 객체의 거리 및 자세 정보를 전시하도록 제어한다.As the processor 130 executes the program stored in the memory 120, it generates 3D feature map information based on radar sensing information and 3D depth map information based on stereo image information. Then, the processor 130 generates a combined 3D map by combining the 3D feature map information and the 3D depth map information, and controls the display of the distance and posture information of the object based on the combined 3D map.

한편, 본 발명의 일 실시예에서, 프로세서(130)는 결합 3D 맵 생성 과정에서, 인공지능(Artificial Intelligence) 알고리즘으로서 기계학습, 신경망 네트워크(neural network), 또는 딥러닝 알고리즘 중 적어도 하나를 이용할 수 있다. 일 예로, 인공지능(Artificial Intelligence) 알고리즘으로서 기계학습, 신경망 네트워크(neural network), 또는 딥러닝 알고리즘 중 적어도 하나를 이용할 수 있으며, 신경망 네트워크의 예로는, CNN (Convolutional Neural Network), DNN (Deep Neural Network), RNN (Recurrent Neural Network)과 같은 모델을 포함할 수 있다.Meanwhile, in one embodiment of the present invention, the processor 130 may use at least one of machine learning, neural network, or deep learning algorithms as an artificial intelligence algorithm in the combined 3D map generation process. there is. For example, as an artificial intelligence algorithm, at least one of machine learning, neural network, or deep learning algorithm may be used. Examples of neural network networks include Convolutional Neural Network (CNN) and Deep Neural Network (DNN). Network) and RNN (Recurrent Neural Network).

이상에서 전술한 본 발명의 일 실시예에 따른 FMCW 레이다 기반의 객체 탐지 시스템(100) 및 방법은, 하드웨어인 컴퓨터와 결합되어 실행되기 위해 프로그램(또는 어플리케이션)으로 구현되어 매체에 저장될 수 있다.The FMCW radar-based object detection system 100 and method according to an embodiment of the present invention described above may be implemented as a program (or application) and stored in a medium to be executed in combination with a computer, which is hardware.

상기 전술한 프로그램은, 상기 컴퓨터가 프로그램을 읽어 들여 프로그램으로 구현된 상기 방법들을 실행시키기 위하여, 상기 컴퓨터의 프로세서(CPU)가 상기 컴퓨터의 장치 인터페이스를 통해 읽힐 수 있는 C, C++, JAVA, Ruby, 기계어 등의 컴퓨터 언어로 코드화된 코드(Code)를 포함할 수 있다. 이러한 코드는 상기 방법들을 실행하는 필요한 기능들을 정의한 함수 등과 관련된 기능적인 코드(Functional Code)를 포함할 수 있고, 상기 기능들을 상기 컴퓨터의 프로세서가 소정의 절차대로 실행시키는데 필요한 실행 절차 관련 제어 코드를 포함할 수 있다. 또한, 이러한 코드는 상기 기능들을 상기 컴퓨터의 프로세서가 실행시키는데 필요한 추가 정보나 미디어가 상기 컴퓨터의 내부 또는 외부 메모리의 어느 위치(주소 번지)에서 참조되어야 하는지에 대한 메모리 참조관련 코드를 더 포함할 수 있다. 또한, 상기 컴퓨터의 프로세서가 상기 기능들을 실행시키기 위하여 원격(Remote)에 있는 어떠한 다른 컴퓨터나 서버 등과 통신이 필요한 경우, 코드는 상기 컴퓨터의 통신 모듈을 이용하여 원격에 있는 어떠한 다른 컴퓨터나 서버 등과 어떻게 통신해야 하는지, 통신 시 어떠한 정보나 미디어를 송수신해야 하는지 등에 대한 통신 관련 코드를 더 포함할 수 있다.The above-mentioned program is C, C++, JAVA, Ruby, and It may include code encoded in a computer language such as machine language. These codes may include functional codes related to functions that define the necessary functions for executing the methods, and include control codes related to execution procedures necessary for the computer's processor to execute the functions according to predetermined procedures. can do. In addition, these codes may further include memory reference-related codes that indicate at which location (address address) in the computer's internal or external memory additional information or media required for the computer's processor to execute the above functions should be referenced. there is. In addition, if the computer's processor needs to communicate with any other remote computer or server in order to execute the above functions, the code uses the computer's communication module to determine how to communicate with any other remote computer or server. It may further include communication-related codes regarding whether communication should be performed and what information or media should be transmitted and received during communication.

상기 저장되는 매체는, 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상기 저장되는 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있지만, 이에 제한되지 않는다. 즉, 상기 프로그램은 상기 컴퓨터가 접속할 수 있는 다양한 서버 상의 다양한 기록매체 또는 사용자의 상기 컴퓨터상의 다양한 기록매체에 저장될 수 있다. 또한, 상기 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장될 수 있다.The storage medium refers to a medium that stores data semi-permanently and can be read by a device, rather than a medium that stores data for a short period of time, such as a register, cache, or memory. Specifically, examples of the storage medium include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc., but are not limited thereto. That is, the program may be stored in various recording media on various servers that the computer can access or on various recording media on the user's computer. Additionally, the medium may be distributed to computer systems connected to a network, and computer-readable code may be stored in a distributed manner.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The description of the present invention described above is for illustrative purposes, and those skilled in the art will understand that the present invention can be easily modified into other specific forms without changing the technical idea or essential features of the present invention. will be. Therefore, the embodiments described above should be understood in all respects as illustrative and not restrictive. For example, each component described as unitary may be implemented in a distributed manner, and similarly, components described as distributed may also be implemented in a combined form.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is indicated by the claims described below rather than the detailed description above, and all changes or modified forms derived from the meaning and scope of the claims and their equivalent concepts should be construed as being included in the scope of the present invention. do.

Claims (14)

FMCW 레이다 기반의 객체 탐지 시스템에 의해 수행되는 방법에 있어서,
상기 FMCW 레이다를 통해 소정 거리 이내의 근접하는 객체(이하, 근접 객체)에 대한 레이다 센싱 정보를 수신하는 단계;
상기 레이다 센싱 정보에 기초하여 3D 특징맵 정보를 생성하는 단계;
상기 근접 객체를 대상으로 스테레오 카메라를 통해 촬영된 스테레오 영상 정보를 수신하는 단계;
상기 스테레오 영상 정보에 기초하여 3D 깊이맵 정보를 생성하는 단계;
상기 3D 특징맵 정보와 상기 3D 깊이맵 정보를 결합하여 결합 3D 맵을 생성하는 단계; 및
상기 결합 3D 맵에 기초하여 객체의 거리 및 자세 정보를 전시하는 단계를 포함하는, FMCW 레이다 기반의 객체 탐지 방법.
In a method performed by an FMCW radar-based object detection system,
Receiving radar sensing information about an object approaching within a predetermined distance (hereinafter referred to as a proximity object) through the FMCW radar;
Generating 3D feature map information based on the radar sensing information;
Receiving stereo image information captured through a stereo camera targeting the nearby object;
generating 3D depth map information based on the stereo image information;
generating a combined 3D map by combining the 3D feature map information and the 3D depth map information; and
FMCW radar-based object detection method, comprising displaying distance and pose information of the object based on the combined 3D map.
제1항에 있어서,
상기 레이다 센싱 정보에 기초하여 3D 특징맵 정보를 생성하는 단계는,
상기 레이다 센싱 정보로부터 특징점을 추출하는 단계;
상기 레이다 센싱 정보로부터 객체와의 거리 정보 및 각도 정보를 추정하는 단계; 및
상기 특징점과 거리 정보 및 각도 정보를 기반으로 3D 특징맵 정보를 생성하는 단계를 포함하는, FMCW 레이다 기반의 객체 탐지 방법.
According to paragraph 1,
The step of generating 3D feature map information based on the radar sensing information includes:
extracting feature points from the radar sensing information;
estimating distance information and angle information to an object from the radar sensing information; and
An FMCW radar-based object detection method comprising generating 3D feature map information based on the feature points, distance information, and angle information.
제2항에 있어서,
상기 레이다 센싱 정보로부터 객체와의 거리 정보 및 각도 정보를 추정하는 단계는,
상기 레이다 센싱 신호의 전송 신호 주파수와 수신 신호 주파수의 차이값을 산출하는 단계;
상기 차이값과 지연시간을 반영한 기울기를 산출하는 단계; 및
상기 차이값과 기울기값을 기반으로 상기 거리 정보를 추정하는 단계를 포함하는, FMCW 레이다 기반의 객체 탐지 방법.
According to paragraph 2,
The step of estimating distance information and angle information to an object from the radar sensing information,
calculating a difference between the transmitted signal frequency and the received signal frequency of the radar sensing signal;
calculating a slope reflecting the difference value and delay time; and
FMCW radar-based object detection method, including the step of estimating the distance information based on the difference value and the slope value.
제2항에 있어서,
상기 레이다 센싱 정보로부터 객체와의 거리 정보 및 각도 정보를 추정하는 단계는,
레이다의 작동 주파수와 복수의 수신 안테나 사이의 거리 정보를 획득하는 단계;
상기 객체로 레이다 신호를 전송 및 수신하는 단계;
상기 수신된 레이다 신호의 주파수 차이를 계산하는 단계; 및
상기 레이다의 작동 주파수, 레이다 신호의 주파수 차이 및 수신 안테나 사이의 거리 정보에 기반하여 상기 각도 정보를 산출하는 단계를 포함하는, FMCW 레이다 기반의 객체 탐지 방법.
According to paragraph 2,
The step of estimating distance information and angle information to an object from the radar sensing information,
Obtaining information on the operating frequency of the radar and the distance between the plurality of receiving antennas;
Transmitting and receiving radar signals to the object;
calculating a frequency difference between the received radar signals; and
An FMCW radar-based object detection method comprising calculating the angle information based on the operating frequency of the radar, the frequency difference between radar signals, and distance information between receiving antennas.
제4항에 있어서,
상기 수신된 레이다 신호의 주파수 차이를 계산하는 단계는,
레이다 안테나와 객체 사이의 거리 변화 정보 및 상기 레이다의 작동 주파수에 기초하여 산출하는 것인, FMCW 레이다 기반의 객체 탐지 방법.
According to paragraph 4,
The step of calculating the frequency difference of the received radar signal is,
An FMCW radar-based object detection method that is calculated based on distance change information between the radar antenna and the object and the operating frequency of the radar.
제1항에 있어서,
상기 스테레오 영상 정보에 기초하여 3D 깊이맵 정보를 생성하는 단계는,
상기 스테레오 영상 정보로부터 특징점을 추출하는 단계;
상기 특징점에 기초하여 3D 깊이맵 정보를 생성하는 단계; 및
상기 3D 깊이맵 정보에 기반하여 객체와의 거리 정보 및 각도 정보를 추정하는 단계를 포함하는, FMCW 레이다 기반의 객체 탐지 방법.
According to paragraph 1,
The step of generating 3D depth map information based on the stereo image information includes:
extracting feature points from the stereo image information;
generating 3D depth map information based on the feature points; and
FMCW radar-based object detection method, including the step of estimating distance information and angle information to an object based on the 3D depth map information.
제1항에 있어서,
상기 3D 특징맵 정보와 상기 3D 깊이맵 정보를 결합하여 결합 3D 맵을 생성하는 단계는,
상기 3D 특징맵 정보로부터 제1 객체 틀어짐 변화량을 추출하는 단계;
상기 3D 깊이맵 정보로부터 제2 객체 틀어짐 변화량을 추출하는 단계; 및
상기 제1 및 제2 객체 틀어짐 변화량에 기초하여 상기 3D 특징맵 정보와 상기 3D 깊이맵 정보를 결합하는 단계를 포함하는, FMCW 레이다 기반의 객체 탐지 방법.
According to paragraph 1,
The step of generating a combined 3D map by combining the 3D feature map information and the 3D depth map information,
extracting a first object distortion change amount from the 3D feature map information;
extracting a second object distortion change amount from the 3D depth map information; and
An FMCW radar-based object detection method comprising combining the 3D feature map information and the 3D depth map information based on the first and second object distortion changes.
FMCW 레이다 기반의 객체 탐지 시스템에 있어서,
상기 FMCW 레이다를 통해 소정 거리 이내의 근접하는 객체(이하, 근접 객체)에 대한 레이다 센싱 정보를 수신하고, 상기 근접 객체를 대상으로 스테레오 카메라를 통해 촬영된 스테레오 영상 정보를 수신하는 통신모듈,
상기 레이다 센싱 정보 및 스테레오 영상 정보에 기초하여 객체를 탐지하기 위한 프로그램이 저장된 메모리 및
상기 메모리에 저장된 프로그램을 실행시킴에 따라, 상기 레이다 센싱 정보에 기초하여 3D 특징맵 정보를 생성하고, 상기 스테레오 영상 정보에 기초하여 3D 깊이맵 정보를 생성한 후, 상기 3D 특징맵 정보와 상기 3D 깊이맵 정보를 결합하여 결합 3D 맵을 생성하고, 상기 결합 3D 맵에 기초하여 객체의 거리 및 자세 정보를 전시하도록 제어하는 프로세서를 포함하는, FMCW 레이다 기반의 객체 탐지 시스템.
In the FMCW radar-based object detection system,
A communication module that receives radar sensing information about a nearby object (hereinafter referred to as a close object) within a predetermined distance through the FMCW radar and receives stereo image information captured through a stereo camera targeting the close object,
A memory storing a program for detecting an object based on the radar sensing information and stereo image information, and
By executing the program stored in the memory, 3D feature map information is generated based on the radar sensing information, 3D depth map information is generated based on the stereo image information, and then the 3D feature map information and the 3D An FMCW radar-based object detection system comprising a processor that combines depth map information to generate a combined 3D map, and controls to display distance and posture information of an object based on the combined 3D map.
제8항에 있어서,
상기 프로세서는 상기 레이다 센싱 정보로부터 특징점을 추출하고, 상기 레이다 센싱 정보로부터 객체와의 거리 정보 및 각도 정보를 추정한 후, 상기 특징점과 거리 정보 및 각도 정보를 기반으로 3D 특징맵 정보를 생성하는 것인, FMCW 레이다 기반의 객체 탐지 시스템.
According to clause 8,
The processor extracts feature points from the radar sensing information, estimates distance information and angle information to an object from the radar sensing information, and then generates 3D feature map information based on the feature points, distance information, and angle information. In,FMCW radar-based object detection system.
제9항에 있어서,
상기 프로세서는 상기 레이다 센싱 신호의 전송 신호 주파수와 수신 신호 주파수의 차이값을 산출하고, 상기 차이값과 지연시간을 반영한 기울기를 산출한 후, 상기 차이값과 기울기값을 기반으로 상기 거리 정보를 추정하는 것인, FMCW 레이다 기반의 객체 탐지 시스템.
According to clause 9,
The processor calculates a difference between the transmitted signal frequency and the received signal frequency of the radar sensing signal, calculates a slope reflecting the difference and delay time, and then estimates the distance information based on the difference and slope. FMCW radar-based object detection system.
제9항에 있어서,
상기 프로세서는 레이다의 작동 주파수와 복수의 수신 안테나 사이의 거리 정보를 획득하고, 상기 객체로 레이다 신호가 전송 및 수신됨에 따라 상기 수신된 레이다 신호의 주파수 차이를 계산하고, 상기 레이다의 작동 주파수, 레이다 신호의 주파수 차이 및 수신 안테나 사이의 거리 정보에 기반하여 상기 각도 정보를 산출하는 것인, FMCW 레이다 기반의 객체 탐지 시스템.
According to clause 9,
The processor obtains distance information between the operating frequency of the radar and a plurality of receiving antennas, calculates the frequency difference of the received radar signal as the radar signal is transmitted and received to the object, and determines the operating frequency of the radar and the radar. An FMCW radar-based object detection system that calculates the angle information based on the frequency difference between signals and distance information between receiving antennas.
제11항에 있어서,
상기 프로세서는 레이다 안테나와 객체 사이의 거리 변화 정보 및 상기 레이다의 작동 주파수에 기초하여 산출하는 것인, FMCW 레이다 기반의 객체 탐지 시스템.
According to clause 11,
The FMCW radar-based object detection system wherein the processor calculates the calculation based on distance change information between the radar antenna and the object and the operating frequency of the radar.
제8항에 있어서,
상기 프로세서는 상기 스테레오 영상 정보로부터 특징점을 추출하고, 상기 특징점에 기초하여 3D 깊이맵 정보를 생성한 후, 상기 3D 깊이맵에 기반하여 객체와의 거리 정보 및 각도 정보를 추정하는 것인, FMCW 레이다 기반의 객체 탐지 시스템.
According to clause 8,
The processor extracts feature points from the stereo image information, generates 3D depth map information based on the feature points, and then estimates distance information and angle information to the object based on the 3D depth map. based object detection system.
제8항에 있어서,
상기 프로세서는 상기 3D 특징맵 정보로부터 제1 객체 틀어짐 변화량을 추출하고, 상기 3D 깊이맵 정보로부터 제2 객체 틀어짐 변화량을 추출하며, 상기 제1 및 제2 객체 틀어짐 변화량에 기초하여 상기 3D 특징맵 정보와 상기 3D 깊이맵 정보를 결합하는 것인, FMCW 레이다 기반의 객체 탐지 시스템.
According to clause 8,
The processor extracts a first object distortion change amount from the 3D feature map information, extracts a second object distortion change amount from the 3D depth map information, and extracts the 3D feature map information based on the first and second object distortion change amounts. An FMCW radar-based object detection system that combines the 3D depth map information.
KR1020230139443A 2023-10-18 2023-10-18 System and method for detecting object based fmcw radar KR102618924B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230139443A KR102618924B1 (en) 2023-10-18 2023-10-18 System and method for detecting object based fmcw radar

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020230139443A KR102618924B1 (en) 2023-10-18 2023-10-18 System and method for detecting object based fmcw radar

Publications (1)

Publication Number Publication Date
KR102618924B1 true KR102618924B1 (en) 2023-12-28

Family

ID=89384907

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230139443A KR102618924B1 (en) 2023-10-18 2023-10-18 System and method for detecting object based fmcw radar

Country Status (1)

Country Link
KR (1) KR102618924B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110060600A (en) * 2009-11-30 2011-06-08 재단법인대구경북과학기술원 Apparatus and method for extracting location and velocity of obstacle
KR20160047863A (en) * 2014-10-23 2016-05-03 현대모비스 주식회사 Object detecting apparatus, and method for operating the same
KR20200071959A (en) * 2018-12-12 2020-06-22 충북대학교 산학협력단 Method and Apparatus for Vehicle Detection Using Ladar Sensor and Camera
KR20210116856A (en) * 2020-03-18 2021-09-28 한국생산기술연구원 Driving control system of unmanned vehicle using stereo camera and LIDAR
KR20220128779A (en) * 2021-03-15 2022-09-22 주식회사 바이다 Vehicle detection system and vehicle detection method using stereo camera and radar

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110060600A (en) * 2009-11-30 2011-06-08 재단법인대구경북과학기술원 Apparatus and method for extracting location and velocity of obstacle
KR20160047863A (en) * 2014-10-23 2016-05-03 현대모비스 주식회사 Object detecting apparatus, and method for operating the same
KR20200071959A (en) * 2018-12-12 2020-06-22 충북대학교 산학협력단 Method and Apparatus for Vehicle Detection Using Ladar Sensor and Camera
KR20210116856A (en) * 2020-03-18 2021-09-28 한국생산기술연구원 Driving control system of unmanned vehicle using stereo camera and LIDAR
KR20220128779A (en) * 2021-03-15 2022-09-22 주식회사 바이다 Vehicle detection system and vehicle detection method using stereo camera and radar

Similar Documents

Publication Publication Date Title
US11927668B2 (en) Radar deep learning
CN112969934A (en) System and method for mitigating optical crosstalk in optical ranging and detection systems
US11506776B2 (en) Method and device with improved radar resolution
CN106842210B (en) A kind of new multiple submatrixes synthetic aperture sonar fast imaging algorithm
KR20210061597A (en) Method and device to improve radar data using reference data
KR101360572B1 (en) Method for multi target detecting fmcw radar and apparatus thereof
KR101628154B1 (en) Multiple target tracking method using received signal strengths
CN109270529B (en) Forward-looking array SAR high-resolution imaging method and system based on virtual antenna
JP2017156219A (en) Tracking device, tracking method, and program
Patra et al. mm-wave radar based gesture recognition: Development and evaluation of a low-power, low-complexity system
CN115166714B (en) Single-channel SAR moving ship two-dimensional speed estimation and repositioning method and device
CN105044785A (en) Probing method for underground pipeline with ground penetrating radar based on fuzzy clustering and Hough transform
WO2020133223A1 (en) Target detection method, radar, vehicle and computer-readable storage medium
KR102618924B1 (en) System and method for detecting object based fmcw radar
Stinco et al. Non‐cooperative target recognition in multistatic radar systems
CN116466307B (en) Millimeter wave Lei Dadian cloud simulation method and device based on depth map
US20200018821A1 (en) Object sensing apparatus, object sensing method, and computer readable recording medium
JP6879386B2 (en) Signal processing device and signal processing method for synthetic aperture radar
KR102132296B1 (en) A target detection apparatus and method using the fmcw radar
KR20200117602A (en) Method and system for high resolving object response of sar images
KR102279563B1 (en) Radar signal prcessing apparatus and radar signal processing method
CN115131756A (en) Target detection method and device
KR102169874B1 (en) Vehicle radar using azimuth high resolution processing algorithm and operating method thereof
Wang et al. Multipath ghosts mitigation for radar-based positioning systems
KR20220066796A (en) Method and apparatus for radar signal processing

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant