KR102456151B1 - Sensor fusion system based on radar and camera and method of calculating the location of nearby vehicles - Google Patents

Sensor fusion system based on radar and camera and method of calculating the location of nearby vehicles Download PDF

Info

Publication number
KR102456151B1
KR102456151B1 KR1020220002998A KR20220002998A KR102456151B1 KR 102456151 B1 KR102456151 B1 KR 102456151B1 KR 1020220002998 A KR1020220002998 A KR 1020220002998A KR 20220002998 A KR20220002998 A KR 20220002998A KR 102456151 B1 KR102456151 B1 KR 102456151B1
Authority
KR
South Korea
Prior art keywords
target
radar
cost function
calculating
sensor fusion
Prior art date
Application number
KR1020220002998A
Other languages
Korean (ko)
Inventor
박동규
서지원
이용욱
Original Assignee
포티투닷 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 포티투닷 주식회사 filed Critical 포티투닷 주식회사
Priority to KR1020220002998A priority Critical patent/KR102456151B1/en
Application granted granted Critical
Publication of KR102456151B1 publication Critical patent/KR102456151B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/50Systems of measurement based on relative movement of target
    • G01S13/52Discriminating between fixed and moving objects or between objects moving at different speeds
    • G01S13/536Discriminating between fixed and moving objects or between objects moving at different speeds using transmission of continuous unmodulated waves, amplitude-, frequency-, or phase-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/35Details of non-pulse systems
    • G01S7/352Receivers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0062Adapting control system settings
    • B60W2050/0075Automatic parameter input, automatic initialising or calibrating means
    • B60W2050/0083Setting, resetting, calibration
    • B60W2420/42
    • B60W2420/52

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Traffic Control Systems (AREA)

Abstract

The present invention relates to a sensor fusion system including radar and a camera and a method for calculating positions of nearby vehicles by using the sensor fusion system. In accordance with one embodiment of the present invention, the method for calculating positions of nearby vehicles, includes: a first method of calculating location information on a target estimated to be a nearby vehicle from a plurality of radar measurement points sensed through radar; a second method of recognizing the nearby vehicle included in a sensor fusion image between a camera and the radar as a target, and tracking location information of the target; calculating a cost function by using a center point of a target with respect to each target estimated or recognized based on at least one of the first method and the second method; and comparing the calculated cost function with respect to each target and selecting an optimal cost function value, and calculating location information about the target based on the selected cost function. Therefore, the present invention is capable of replacing high-priced and high-precision equipment for recognizing nearby vehicles.

Description

레이더 및 카메라 기반의 센서 퓨전 시스템 및 주변 차량의 위치 산출 방법{SENSOR FUSION SYSTEM BASED ON RADAR AND CAMERA AND METHOD OF CALCULATING THE LOCATION OF NEARBY VEHICLES}SENSOR FUSION SYSTEM BASED ON RADAR AND CAMERA AND METHOD OF CALCULATING THE LOCATION OF NEARBY VEHICLES

본 레이더 및 카메라 기반의 센서 퓨전 시스템 및 주변 차량의 위치 산출 방법에 관한 기술이다. The present radar and camera-based sensor fusion system and a method for calculating the position of surrounding vehicles are related.

레이더(RADAR, Radio Detection And Ranging)는 물체의 위치, 방향을 탐지하고, 해당 물체와의 거리, 속도 등을 측정을 가능하게 한다. 레이더는 전파를 이용한 주변 환경 탐지 등에 많이 활용되고 있으나, 차량용 레이더의 경우 낮은 각도 인지 성능으로 인해 객체가 종류에 상관없이 하나의 점으로 탐지되므로 레이더 만으로 그 객체의 종류를 구별하는데 한계가 있을 수 있다.Radar (Radio Detection And Ranging) detects the position and direction of an object, and makes it possible to measure the distance and speed of the object. Radar is widely used for detecting the surrounding environment using radio waves, but in the case of vehicle radar, due to low angle recognition performance, an object is detected as a single point regardless of type, so there may be a limitation in distinguishing the type of object only by radar. .

또한, 최근 딥러닝 기술이 발달하면서 차량내 다수의 카메라를 통해 주변 환경을 인식하고 이를 기초로 차량의 주행 경로를 생성하는 자율주행 기술이 크게 급부상하고 있다. 다만, 도로 교통 환경 내에서 발생할 수 있는 여러 상황들이 가변적이고, 주변 환경을 실시간으로 인지 후 판단해야 하기 때문에 자율 주행 관련하여 아직까지도 여러 난제들이 많이 있을 수 있다. 한편, 여러 개의 센서들을 융합하여 주변 환경을 파악하기 위한 센서 퓨전 기술도 많이 각광받고 있다. In addition, with the recent development of deep learning technology, autonomous driving technology that recognizes the surrounding environment through multiple cameras in the vehicle and creates a driving route for the vehicle based on this is rapidly emerging. However, since various situations that can occur within the road traffic environment are variable, and the surrounding environment must be recognized and judged in real time, there may still be many difficulties related to autonomous driving. On the other hand, sensor fusion technology for detecting the surrounding environment by fusion of several sensors is also in the spotlight.

본 개시는 레이더 및 카메라를 포함하는 센서 퓨전 시스템 및 센서 퓨전 시스템을 이용하여 주변 차량의 위치를 산출하는 방법을 제공하는데 있다. An object of the present disclosure is to provide a sensor fusion system including a radar and a camera, and a method for calculating a position of a surrounding vehicle using the sensor fusion system.

그러나 본 발명의 목적들은 상기에 언급된 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.However, the objects of the present invention are not limited to the above-mentioned objects, and other objects not mentioned will be clearly understood by those skilled in the art from the following description.

본 개시의 제1 측면은, 주변 차량의 위치를 산출하는 방법에 있어서, 레이더를 통해 감지되는 복수개의 레이더 측정 포인트들로부터 주변 차량으로 추정되는 타겟에 대한 위치 정보를 산출하는 제1 방법; 카메라 및 레이더간 센서 퓨전 영상에 포함된 주변 차량을 타겟으로 인식하고, 상기 타겟에 대한 위치 정보를 트래킹하는 제2 방법; 제1 방법 및 제2 방법 중 적어도 하나에 기초하여 추정되거나 인식된 각각의 타겟에 대해 타겟의 중심점을 이용하여 비용 함수를 산출하는 단계; 및 상기 산출한 각각의 타겟에 대한 비용 함수를 비교하여 최적의 비용 함수값을 선택하고, 상기 선택된 비용 함수를 기초로 타겟에 대한 위치 정보를 산출하는 단계;를 포함할 수 있다. A first aspect of the present disclosure provides a method of calculating a location of a surrounding vehicle, the method comprising: a first method of calculating location information on a target estimated as a surrounding vehicle from a plurality of radar measurement points sensed through a radar; a second method of recognizing a surrounding vehicle included in a sensor fusion image between a camera and a radar as a target, and tracking location information about the target; calculating a cost function using a center point of the target for each target estimated or recognized based on at least one of the first method and the second method; and selecting an optimal cost function value by comparing the calculated cost functions for each target, and calculating location information about the target based on the selected cost function.

상기 제1 방법은, 레이더에서 전파를 방사하고, 객체에 반사되어 입사되는 반사파들을 감지함으로써 복수개의 레이더 측정 포인트들을 획득하는 단계; 타겟 검출 확률에 기반하여 상기 복수개의 레이더 측정 포인트들을 소정의 그룹으로 클러스터링하는 단계; 연속적으로 획득되는 복수개의 레이더 측정 포인트들을 이용하여 상기 클러스터링된 그룹을 업데이트함으로써 연속성을 유지하는 클러스터링된 그룹을 주변 차량으로 추정하는 단계;를 포함할 수 있다. The first method includes: emitting radio waves from a radar, and acquiring a plurality of radar measurement points by detecting reflected waves that are reflected and incident on an object; clustering the plurality of radar measurement points into a predetermined group based on a target detection probability; and estimating the clustered group maintaining continuity as surrounding vehicles by updating the clustered group using a plurality of continuously acquired radar measurement points.

상기 제2 방법은, 상기 센서 퓨전 영상에 객체 인식 알고리즘을 적용하여 주변 차량을 검출하는 단계; 상기 검출한 주변 차량 영역에 대한 바인딩 박스를 설정하고, 상기 바인딩 박스가 설정된 영역을 타겟으로, 상기 타겟에 대한 위치 정보를 트래킹하는 단계;를 포함할 수 있다.The second method may include detecting a surrounding vehicle by applying an object recognition algorithm to the sensor fusion image; setting a binding box for the detected surrounding vehicle area, and tracking the location information on the target using the area in which the binding box is set as a target.

상기 타겟에 대한 위치 정보를 트래킹하는 단계는, 상기 센서 퓨전 영상 중 이전의 이미지 프레임과 현재 이미지 프레임을 비교함으로써 상기 타겟의 실시간 위치 변화를 반영한 타겟에 대한 연속적인 위치 정보를 산출하는 단계일 수 있다. The step of tracking the location information on the target may be a step of calculating continuous location information on the target reflecting real-time location change of the target by comparing a previous image frame and a current image frame in the sensor fusion image. .

상기 비용 함수를 산출하는 단계는, 상기 제1 방법에 의해 추정된 타겟의 횡방향 중심점에 수직한 가상선을 기준으로, 상기 가상선과 복수개의 레이더 측정 포인트들 사이 수평 거리를 합산한 제1 비용 함수를 계산하는 단계; 상기 제2 방법에 의해 인식된 주변 차량을 타겟으로 하여 각 타겟에 설정된 바인딩 박스의 중심점을 관통하는 차량의 헤딩 방향(Yaw)에 상응하는 가상선을 기준으로, 상기 가상선과 상기 복수개의 레이더 측정 포인트들 사이 수평 거리를 합산한 제2 비용 함수를 계산하는 단계; 상기 제1 비용 함수와 상기 제2 비용 함수를 비교하여 최소의 비용 함수값을 가지는 타겟을 선택하는 단계;를 포함할 수 있다. The calculating of the cost function may include a first cost function obtained by summing horizontal distances between the virtual line and a plurality of radar measurement points based on an imaginary line perpendicular to the lateral center point of the target estimated by the first method. calculating ; Based on the virtual line corresponding to the heading direction (Yaw) of the vehicle passing through the center point of the binding box set in each target by targeting the surrounding vehicle recognized by the second method, the virtual line and the plurality of radar measurement points calculating a second cost function summing the horizontal distances between them; and selecting a target having a minimum cost function value by comparing the first cost function with the second cost function.

상기 비용 함수를 산출하는 단계는, 이전에 결정된 타겟의 위치 정보를 누적함으로써 소정의 커브 곡선을 산출하는 단계; 상기 커브 곡선 및 차량의 이동 가능 영역을 고려한 현재 시점의 타겟의 위치 정보를 예상하는 단계; 상기 예상되는 타겟의 중심점을 관통하는 차량의 헤딩 방향(Yaw)에 상응하는 가상선을 기준으로, 상기 가상선과 상기 복수개의 레이더 측정 포인트들 사이 수평 거리를 합산한 제3 비용 함수를 계산하는 단계를 더 포함할 수 있다. Calculating the cost function may include calculating a predetermined curve curve by accumulating previously determined target location information; estimating the location information of the target at the current time in consideration of the curve curve and the movable area of the vehicle; Calculating a third cost function summing the horizontal distance between the virtual line and the plurality of radar measurement points based on the virtual line corresponding to the heading direction (Yaw) of the vehicle passing through the expected center point of the target may include more.

본 개시의 제2 측면은, 레이더 및 카메라 기반의 센서 퓨전 시스템에 있어서, 주변에 전파를 방사하고, 객체에 반사되어 입사되는 반사파들을 감지함으로써 객체와의 횡방향 거리 정보를 산출하는 레이더; 차량의 전방, 후방, 측면 중 적어도 하나의 위치에 탑재되고, 촬영 영상을 획득하여 프로세서에 전달하는 카메라; 상기 레이더 및 카메라를 캘리브레이션하고, 상기 레이더로부터 획득한 객체와의 횡방향 거리 정보 및 상기 촬영 영상을 정합함으로써 센서 퓨전 영상을 생성하고, 레이더 측정 포인트들 및 상기 센서 퓨전 영상을 해석함으로써 주변 차량의 위치를 산출하는, 프로세서;를 포함할 수 있다. A second aspect of the present disclosure provides a sensor fusion system based on a radar and a camera, comprising: a radar emitting radio waves to the surroundings and calculating lateral distance information with an object by detecting reflected waves that are reflected and incident on the object; a camera mounted on at least one of the front, rear, and side of the vehicle, the camera acquires the captured image and transmits it to the processor; The radar and the camera are calibrated, the sensor fusion image is generated by matching the lateral distance information with the object acquired from the radar and the captured image, and the location of the surrounding vehicle by analyzing the radar measurement points and the sensor fusion image It may include a processor, which calculates .

상기 프로세서가 주변 차량의 위치를 산출하는 것은, 레이더를 통해 감지되는 복수개의 레이더 측정 포인트들로부터 주변 차량으로 추정되는 타겟에 대한 위치 정보를 산출하는 제1 방법; 카메라 및 레이더간 센서 퓨전 영상에 포함된 주변 차량을 타겟으로 인식하고, 상기 타겟에 대한 위치 정보를 트래킹하는 제2 방법; 제1 방법 및 제2 방법 중 적어도 하나에 기초하여 추정되거나 인식된 각각의 타겟에 대해 타겟의 중심점을 이용하여 비용 함수를 산출하는 단계; 및 상기 산출한 각각의 타겟에 대한 비용 함수를 비교하여 최적의 비용 함수값을 선택하고, 상기 선택된 비용 함수를 기초로 타겟에 대한 위치 정보를 산출하는 단계;를 포함할 수 있다. Calculating the location of the surrounding vehicle by the processor may include: a first method of calculating location information on a target estimated to be a surrounding vehicle from a plurality of radar measurement points sensed through a radar; a second method of recognizing a surrounding vehicle included in a sensor fusion image between a camera and a radar as a target, and tracking location information about the target; calculating a cost function using a center point of the target for each target estimated or recognized based on at least one of the first method and the second method; and selecting an optimal cost function value by comparing the calculated cost functions for each target, and calculating location information about the target based on the selected cost function.

이 외에도, 본 발명을 구현하기 위한 다른 방법, 다른 시스템 및 상기 방법을 실행하기 위한 컴퓨터 프로그램이 저장된 컴퓨터로 판독 가능한 기록매체가 더 제공될 수 있다.In addition to this, another method for implementing the present invention, another system, and a computer-readable recording medium storing a computer program for executing the method may be further provided.

본 발명의 일 실시 예에 따르면 레이더와 카메라에 의해 수집된 정보를 가공하여 높은 수준의 정밀도를 가지는 위치 추적이 가능하기 때문에, 주변 차랑 인식을 위한 고가, 고정밀 장비를 대체할 수 있다.According to an embodiment of the present invention, since location tracking with a high level of precision is possible by processing the information collected by the radar and the camera, it can replace expensive, high-precision equipment for recognizing a nearby vehicle.

본 발명의 일 실시 예에 따르는 센서 퓨전 시스템(100)은 여러 방법에 의해 산출된 비용 함수를 비교 분석함으로써, 각각 하나의 방법으로만 주변 차량을 측위했을 때 보다 더 높은 정확도를 가지고 주변 차량의 현재 위치를 실시간 트래킹할 수 있다.The sensor fusion system 100 according to an embodiment of the present invention compares and analyzes the cost functions calculated by various methods, so that the current value of the surrounding vehicle is higher than when the surrounding vehicle is located only by one method, respectively. Location can be tracked in real time.

도 1은 도로 환경에서 차량이 카메라 및 레이더를 이용해 주변 차량을 인식하는 것을 설명하기 위한 예시적인 도면이다.
도 2는 본 발명의 일 실시 예에 따른 센서 퓨전 시스템에 관한 블록도이다.
도 3은 본 발명의 일 실시 예에 따른 센서 퓨전 시스템(100)에서 주변 차량의 위치를 산출하는 방법에 관한 흐름도이다.
도 4는 본 발명의 일 실시 예에 따라 여러 방법을 통해 비용 함수를 산출하는 것을 설명하기 위한 예시적인 도면이다.
도 5는 본 발명의 일 실시 예에 따른 각 단계 별 사용하는 좌표계를 비교 설명하기 위한 예시적인 도면이다.
도 6a 내지 도 6b는 레이더를 통해 획득한 레이더 측정 포인트들 및 타겟 추적 알고리즘에 기초하여 추정된 타겟의 위치 정보를 예시적으로 나타내는 도면이다.
도 7은 본 발명의 일 실시 예에 따라 카메라를 통해 주변 차량의 위치 정보를 획득하는 것을 설명하기 위한 도면이다.
도 8은 본 발명의 일 실시 예에 따른 제1 비용 함수 산출 방법을 설명하기 위한 예시적인 도면이다.
도 9는 본 발명의 다른 실시 예에 따른 제2 비용 함수 산출 방법을 설명하기 위한 예시적인 도면이다.
도 10 내지 도 11은 과거의 타겟 위치 정보로부터 현재 시점의 타겟 위치 정보를 예측하는 것을 설명하기 위한 예시적인 도면이다.
1 is an exemplary diagram for explaining that a vehicle recognizes a surrounding vehicle using a camera and a radar in a road environment.
2 is a block diagram of a sensor fusion system according to an embodiment of the present invention.
3 is a flowchart illustrating a method of calculating the location of a nearby vehicle in the sensor fusion system 100 according to an embodiment of the present invention.
4 is an exemplary diagram for explaining calculating a cost function through various methods according to an embodiment of the present invention.
5 is an exemplary diagram for comparing and explaining a coordinate system used for each step according to an embodiment of the present invention.
6A to 6B are diagrams exemplarily illustrating location information of a target estimated based on radar measurement points acquired through a radar and a target tracking algorithm.
7 is a view for explaining obtaining location information of a surrounding vehicle through a camera according to an embodiment of the present invention.
8 is an exemplary view for explaining a method of calculating a first cost function according to an embodiment of the present invention.
9 is an exemplary view for explaining a method of calculating a second cost function according to another embodiment of the present invention.
10 to 11 are exemplary diagrams for explaining prediction of target location information of a current view from past target location information.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 설명되는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 아래에서 제시되는 실시 예들로 한정되는 것이 아니라, 서로 다른 다양한 형태로 구현될 수 있고, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 아래에 제시되는 실시 예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.Advantages and features of the present invention, and a method for achieving them will become apparent with reference to the detailed description in conjunction with the accompanying drawings. However, it should be understood that the present invention is not limited to the embodiments presented below, but may be implemented in a variety of different forms, and includes all transformations, equivalents, and substitutes included in the spirit and scope of the present invention. . The embodiments presented below are provided to complete the disclosure of the present invention, and to completely inform those of ordinary skill in the art to the scope of the present invention. In describing the present invention, if it is determined that a detailed description of a related known technology may obscure the gist of the present invention, the detailed description thereof will be omitted.

본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. The terms used in the present application are only used to describe specific embodiments, and are not intended to limit the present invention. The singular expression includes the plural expression unless the context clearly dictates otherwise. In the present application, terms such as “comprise” or “have” are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other features It is to be understood that this does not preclude the possibility of the presence or addition of numbers, steps, operations, components, parts, or combinations thereof.

본 개시의 일부 실시예는 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들의 일부 또는 전부는, 특정 기능들을 실행하는 다양한 개수의 하드웨어 및/또는 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 본 개시의 기능 블록들은 하나 이상의 마이크로프로세서들에 의해 구현되거나, 소정의 기능을 위한 회로 구성들에 의해 구현될 수 있다. 또한, 예를 들어, 본 개시의 기능 블록들은 다양한 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능 블록들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 본 개시는 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다."매커니즘", "요소", "수단" 및 "구성"등과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로써 한정되는 것은 아니다.Some embodiments of the present disclosure may be represented by functional block configurations and various processing steps. Some or all of these functional blocks may be implemented in various numbers of hardware and/or software configurations that perform specific functions. For example, the functional blocks of the present disclosure may be implemented by one or more microprocessors, or by circuit configurations for a given function. Also, for example, the functional blocks of the present disclosure may be implemented in various programming or scripting languages. The functional blocks may be implemented as an algorithm running on one or more processors. Further, the present disclosure may employ prior art techniques for electronic configuration, signal processing, and/or data processing, etc. Terms such as "mechanism", "element", "means" and "configuration" will be used broadly. and is not limited to mechanical and physical configurations.

또한, 도면에 도시된 구성 요소들 간의 연결 선 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것일 뿐이다. 실제 장치에서는 대체 가능하거나 추가된 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들에 의해 구성 요소들 간의 연결이 나타내어 질 수 있다.In addition, the connecting lines or connecting members between the components shown in the drawings only exemplify functional connections and/or physical or circuit connections. In an actual device, a connection between components may be represented by various functional connections, physical connections, or circuit connections that are replaceable or added.

이하 첨부된 도면을 참고하여 본 개시를 상세히 설명하기로 한다.Hereinafter, the present disclosure will be described in detail with reference to the accompanying drawings.

도 1은 도로 환경에서 차량이 카메라 및 레이더를 이용해 주변 차량을 인식하는 것을 설명하기 위한 예시적인 도면이다. 1 is an exemplary diagram for explaining that a vehicle recognizes a surrounding vehicle using a camera and a radar in a road environment.

도 1을 참고하면, 차량(10)에 탑재될 수 있는 센서 퓨전 시스템은 다양한 센서를 통해 인지된 외부 환경 정보와 차량 자체 정보를 기반으로 차량 주변의 상황들을 파악할 수 있다. 일 예로, 레이더는 조명 및 날씨와 같은 외부 환경에 비교적 강인하며, 거리 및 속도를 물리적으로 직접 획득할 수 있어 차량과 차량간 거리 정보의 획득이 용이하다. 또한, 레이더는 객체의 도플러 성분을 추출할 수 있어 정지한 객체와 이동하는 객체를 구분할 수 있고, 이러한 도플러 스펙트럼을 객체의 인지 또는 분류에 활용할 수 있다. Referring to FIG. 1 , a sensor fusion system that may be mounted on a vehicle 10 may identify situations around the vehicle based on external environment information recognized through various sensors and vehicle own information. For example, radar is relatively robust to external environments such as lighting and weather, and can directly acquire distance and speed, so that it is easy to acquire distance information between the vehicle and the vehicle. In addition, the radar can extract a Doppler component of an object, so that a stationary object and a moving object can be distinguished, and this Doppler spectrum can be used for object recognition or classification.

또한, 차량(10)에 탑재되는 카메라는 주변 환경을 실시간으로 촬영하고, 촬영 영상 내 포함된 객체를 피쳐(feature) 형태로 인지함으로써 다양한 형상과 모양을 가지는 객체의 종류를 구별할 수 있다.In addition, the camera mounted on the vehicle 10 may photograph the surrounding environment in real time and recognize the object included in the captured image in the form of a feature, thereby distinguishing the types of objects having various shapes and shapes.

도 1을 참고하면, 센서 퓨전 시스템은 차량(10)에 탑재된 레이더가 주변을 향해 전파를 방사하고, 주변 차량(15)에 반사되는 반사파(26, 27, 28)를 수신함으로써 레이더 측정 포인트들을 획득할 수 있다. 이때 획득한 레이더 측정 포인트들은, 차량용 레이더의 타겟 추적 알고리즘에 기초하여 차량(10)에 필요한 소정의 정보, 예를 들어 차량(10)과 주변 차량(15) 사이의 횡방향 거리 정보, 주변 차량(15)의 상대 속도 등을 산출할 수 있다. Referring to FIG. 1 , in the sensor fusion system, the radar mounted on the vehicle 10 emits radio waves toward the surroundings and receives the reflected waves 26 , 27 , and 28 reflected by the surrounding vehicle 15 to determine the radar measurement points. can be obtained At this time, the acquired radar measurement points are, based on the target tracking algorithm of the vehicle radar, predetermined information necessary for the vehicle 10, for example, lateral distance information between the vehicle 10 and the surrounding vehicle 15, the surrounding vehicle ( 15) can be calculated.

또한, 센서 퓨전 시스템에서, 차량(10)에 탑재된 카메라는 촬영 영상(30)을 획득할 수 있다. 일 예로, 센서 퓨전 시스템은 촬영 영상(30)으로부터 피처 클래스(feature class)를 추출하여, 촬영 영상(30) 내 몇 대의 차량이 있는지 파악하고, 차량별 바인딩 박스를 설정해 놓음으로써 타겟이 되는 주변 차량의 실시간 추적(tracking)을 수행할 수 있다. Also, in the sensor fusion system, the camera mounted on the vehicle 10 may acquire the captured image 30 . As an example, the sensor fusion system extracts a feature class from the captured image 30 , determines how many vehicles are in the captured image 30 , and sets a binding box for each vehicle, thereby targeting nearby vehicles real-time tracking of

또한, 센서 퓨전 시스템은 레이더 및 카메라에서 획득한 정보들을 동일 좌표계 상에서 융합 함으로써 차량(10)의 근처에 위치해 있는 주변 차량(15)과의 횡방향 거리 정보, x축 및 y축을 포함하는 좌표 정보, 또는 해당 좌표 정보를 글로벌 좌표계(x, y, z)로 변환한 데이터들을 획득할 수 있다. In addition, the sensor fusion system fuses the information acquired from the radar and the camera on the same coordinate system, so that the lateral distance information with the surrounding vehicle 15 located in the vicinity of the vehicle 10, coordinate information including the x-axis and the y-axis, Alternatively, data obtained by converting the corresponding coordinate information into a global coordinate system (x, y, z) may be obtained.

본 발명의 일 실시 예에 따르면, 센서 퓨전 시스템은 레이더 및 카메라가 획득한 촬영 영상을 매핑함으로써 센서 퓨전 영상을 생성하고, 레이더 측정 포인트들에 대한 해석을 여러 버전으로 수행함으로써 타겟의 위치 정보를 보다 더 정밀하게 측위할 수 있다. According to an embodiment of the present invention, the sensor fusion system generates a sensor fusion image by mapping the captured image acquired by the radar and the camera, and analyzes the radar measurement points in multiple versions to view the location information of the target. More precise positioning is possible.

도 2는 본 발명의 일 실시 예에 따른 센서 퓨전 시스템(100)에 관한 블록도이다. 일 예에 따르면, 센서 퓨전 시스템(100)은 레이더(110), 카메라(120), 프로세서(130)를 포함할 수 있다. 2 is a block diagram of a sensor fusion system 100 according to an embodiment of the present invention. According to an example, the sensor fusion system 100 may include a radar 110 , a camera 120 , and a processor 130 .

레이더(110)는 주변에 전파를 방사하고, 객체에 반사되어 입사되는 반사파들을 감지함으로써 객체와의 횡방향 거리 정보를 산출할 수 있다. 이때, 레이더(110)는 안테나, 송수신단, 신호처리단을 통해 차량의 상태 정보를 판단할 수 있다. 일 예로, 레이더(110)는 송신 안테나와 다수의 수신 안테나를 이용하여 객체별 거리, 각도, 속도를 탐지할 수 있다. 여기서, 레이더(110)는 비교적 외부 환경에 강인하고, 전파의 왕복 시간으로 정확한 거리를 탐지할 수 있다. 또한, 레이더(110)는 객체들로부터 반사된 도플러 주파수를 이용하여 주변 차량의 속도 정보를 직접적으로 획득할 수 있다. 다만, 레이더(110)의 각도 탐지 성능이 낮아서 모든 객체가 하나의 포인트로 인지될 수 있으며, 이에 따라 레이더(110)를 통해 획득한 정보들 중 주변 차량을 인식하기 위한 별도의 프로세스가 필요할 수 있다. The radar 110 may calculate lateral distance information with an object by emitting radio waves to the surroundings and detecting reflected waves that are reflected and incident on the object. At this time, the radar 110 may determine the state information of the vehicle through the antenna, the transceiver terminal, and the signal processing terminal. For example, the radar 110 may detect a distance, an angle, and a speed for each object using a transmit antenna and a plurality of receive antennas. Here, the radar 110 is relatively robust to the external environment, and can detect an accurate distance with the round trip time of radio waves. In addition, the radar 110 may directly acquire speed information of the surrounding vehicle by using the Doppler frequency reflected from the objects. However, since the angle detection performance of the radar 110 is low, all objects may be recognized as one point, and accordingly, a separate process for recognizing surrounding vehicles among the information acquired through the radar 110 may be required. .

카메라(120)는 차량의 전방, 후방, 측면 중 적어도 하나의 위치에 탑재되고, 촬영 영상을 획득하여 프로세서에 전달할 수 있다. 여기서, 카메라(120)는 촬영 영상으로부터 형상 그룹(feature class)을 추출하여 추출한 형상 그룹에 바인딩 박스를 설정하고, 실시간 객체 인식 결과 업데이트를 통해 해당 객체에 대한 트래킹 정보를 획득할 수 있다. The camera 120 may be mounted on at least one of the front, rear, and side of the vehicle, and may acquire a captured image and transmit it to the processor. Here, the camera 120 may extract a feature class from the captured image, set a binding box in the extracted feature group, and obtain tracking information for the corresponding object through real-time object recognition result update.

프로세서는 기본적인 산술, 로직 및 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 명령은 저장 매체 또는 통신 모듈에 의해 프로세서로 제공될 수 있다. 예를 들어 프로세서는 저장 매체와 같은 기록 장치에 저장된 프로그램 코드에 따라 수신되는 명령을 실행하도록 구성될 수 있다.The processor may be configured to process instructions of a computer program by performing basic arithmetic, logic, and input/output operations. Instructions may be provided to the processor by a storage medium or a communication module. For example, the processor may be configured to execute instructions received according to program code stored in a recording device such as a storage medium.

프로세서(130)는 레이더(110) 및 카메라(120)를 캘리브레이션하고, 상기 레이더로부터 획득한 객체와의 횡방향 거리 정보 및 상기 촬영 영상을 정합함으로써 센서 퓨전 영상을 생성하고, 레이더 측정 포인트들 및 센서 퓨전 영상을 해석함으로써 촬영 영상에 포함된 주변 차량의 위치를 산출할 수 있다. The processor 130 calibrates the radar 110 and the camera 120, and generates a sensor fusion image by matching the lateral distance information with the object acquired from the radar and the captured image, and the radar measurement points and the sensor. By analyzing the fusion image, it is possible to calculate the location of the surrounding vehicle included in the captured image.

한편 본 발명의 일 실시 예에 따른 센서 퓨전 시스템(100)은 다수의 레이더(110), 카메라(120)등을 포함하여 각각의 레이더(110) 및 각각의 카메라(120)의 설치 위치에 기반하여 캘리브레이션 적용 후 일대 다 관계의 매핑이 가능하다. Meanwhile, the sensor fusion system 100 according to an embodiment of the present invention includes a plurality of radars 110 and cameras 120 based on the installation positions of each radar 110 and each camera 120 . After calibration is applied, mapping of a one-to-many relationship is possible.

일 예로, 프로세서(130)는 레이더(110)에서 획득한 정보를 카메라 좌표계로 투영하여 카메라가 촬영한 2D 영상에 레이더(110)로부터 획득한 차량과, 주변 차량 사이의 횡방향 거리 정보를 매핑할 수 있다. As an example, the processor 130 projects information obtained from the radar 110 into a camera coordinate system to map the lateral distance information between the vehicle obtained from the radar 110 and surrounding vehicles on the 2D image captured by the camera. can

또한, 프로세서(130)는 레이더를 통해 감지되는 복수개의 레이더 측정 포인트들로부터 주변 차량으로 추정되는 타겟에 대한 위치 정보를 산출하는 제1 방법, 카메라 및 레이더간 센서 퓨전 영상에 포함된 주변 차량을 타겟으로 인식하고, 상기 타겟에 대한 위치 정보를 트래킹하는 제2 방법을 통해 각각 주변 차량의 위치 정보를 산출할 수 있다.In addition, the processor 130 targets the surrounding vehicle included in the first method of calculating the location information on the target estimated as the surrounding vehicle from a plurality of radar measurement points detected through the radar, and the sensor fusion image between the camera and the radar. , and through the second method of tracking the location information on the target, location information of each surrounding vehicle may be calculated.

일 예로, 프로세서(130)는 레이더에서 전파를 방사하고, 객체에 반사되어 입사되는 반사파들을 감지함으로써 복수개의 레이더 측정 포인트들을 획득하고, 타겟 검출 확률에 기반하여 상기 복수개의 레이더 측정 포인트들을 소정의 그룹으로 클러스터링하고, 연속적으로 획득되는 복수개의 레이더 측정 포인트들을 이용하여 상기 클러스터링된 그룹을 업데이트함으로써 연속성을 유지하는 클러스터링된 그룹을 주변 차량으로 추정하는 제1 방법을 수행할 수 있다. As an example, the processor 130 acquires a plurality of radar measurement points by emitting radio waves from the radar, detecting reflected waves that are reflected and incident on an object, and selects the plurality of radar measurement points into a predetermined group based on a target detection probability. The first method of estimating the clustered group maintaining continuity as a neighboring vehicle may be performed by clustering the clusters to .

다른 예로, 프로세서(130)는 상기 센서 퓨전 영상에 객체 인식 알고리즘을 적용하여 주변 차량을 검출하고, 상기 검출한 주변 차량 영역에 대한 바인딩 박스를 설정하고, 상기 바인딩 박스가 설정된 영역을 타겟으로, 상기 타겟에 대한 위치 정보를 트래킹하는 제2 방법을 수행할 수 있다. As another example, the processor 130 detects a surrounding vehicle by applying an object recognition algorithm to the sensor fusion image, sets a binding box for the detected surrounding vehicle area, and targets the area in which the binding box is set, A second method of tracking location information for a target may be performed.

여기서, 프로세서(130)는 상기 센서 퓨전 영상 중 이전의 이미지 프레임과 현재 이미지 프레임을 비교함으로써 상기 타겟의 실시간 위치 변화를 반영한 타겟에 대한 연속적인 위치 정보를 산출함으로써 상기 타겟에 대한 위치 정보를 트래킹할 수 있다.Here, the processor 130 compares the previous image frame with the current image frame among the sensor fusion image to calculate continuous position information for the target reflecting the real-time position change of the target, thereby tracking the position information on the target. can

프로세서(130)은 단지 하나의 방법에 의해 주변 차량의 위치를 대략적으로 추정하는 것이 아니라 여러 개의 방법을 비교 분석하여 최적의 차량 위치 정보를 선택함으로써 주변 차량에 대한 고정밀 측위가 가능하다. The processor 130 does not roughly estimate the location of the surrounding vehicle by just one method, but compares and analyzes several methods to select the optimal vehicle location information, so that high-precision positioning of the surrounding vehicle is possible.

프로세서(130)는 제1 방법 및 제2 방법 중 적어도 하나에 기초하여 추정되거나 인식된 각각의 타겟에 대해 타겟의 중심점을 이용하여 비용 함수를 산출할 수 있다.The processor 130 may calculate a cost function using the center point of the target for each target estimated or recognized based on at least one of the first method and the second method.

예를 들어, 프로세서(130)는 상기 제1 방법에 의해 추정된 타겟의 횡방향 중심점에 수직한 가상선을 기준으로, 상기 가상선과 복수개의 레이더 측정 포인트들 사이 수평 거리를 합산한 제1 비용 함수를 계산하고, 상기 제2 방법에 의해 인식된 주변 차량 각각을 타겟으로, 각 타겟에 대해 설정된 바인딩 박스의 중심점을 관통하는 차량의 헤딩 방향(Yaw)에 상응하는 가상선을 기준으로, 상기 복수개의 레이더 측정 포인트들 사이 수평 거리를 합산한 제2 비용 함수를 계산하고, 상기 제1 비용 함수와 상기 제2 비용 함수를 비교하여 최소의 비용 함수값을 가지는 타겟을 선택함으로써 비용 함수를 산출할 수 있다. 이때, 프로세서(130)는 상기 산출한 각각의 타겟에 대한 비용 함수를 비교하여 최적의 비용 함수값을 선택하고, 상기 선택된 비용 함수를 기초로 타겟에 대한 위치 정보를 산출할 수 있다.For example, the processor 130 may be configured to calculate a first cost function obtained by summing horizontal distances between the virtual line and a plurality of radar measurement points based on an imaginary line perpendicular to the lateral center point of the target estimated by the first method. , and with each of the surrounding vehicles recognized by the second method as a target, based on an imaginary line corresponding to the heading direction Yaw of the vehicle passing through the center point of the binding box set for each target, the plurality of The cost function may be calculated by calculating a second cost function summing the horizontal distances between radar measurement points, and selecting a target having a minimum cost function value by comparing the first cost function and the second cost function. . In this case, the processor 130 may select an optimal cost function value by comparing the calculated cost functions for each target, and may calculate location information about the target based on the selected cost function.

한편, 프로세서(130)는 이전에 결정된 타겟의 위치 정보를 누적함으로써 소정의 커브 곡선을 산출하고, 상기 커브 곡선 및 차량의 이동 가능 영역을 고려한 현재 시점의 타겟의 위치 정보를 예상하고, 상기 예상되는 타겟의 중심점을 관통하는 차량의 헤딩 방향(Yaw)에 상응하는 가상선을 기준으로, 상기 가상선과 상기 복수개의 레이더 측정 포인트들 사이 수평 거리를 합산한 제3 비용 함수를 계산할 수 있다. 이때, 프로세서(130)는 상기 제3 비용 함수를 더 고려하여, 제1 비용 함수, 제2 비용 함수, 제3 비용 함수 중 최소의 값을 가지는 비용 함수를 최적의 비용 함수로 선택할 수 있다. On the other hand, the processor 130 calculates a predetermined curve curve by accumulating the previously determined location information of the target, estimates the location information of the target at the current time in consideration of the curve curve and the movable area of the vehicle, and Based on the virtual line corresponding to the heading direction (Yaw) of the vehicle passing through the center point of the target, a third cost function may be calculated by summing the horizontal distances between the virtual line and the plurality of radar measurement points. In this case, the processor 130 may further consider the third cost function and select a cost function having a minimum value among the first cost function, the second cost function, and the third cost function as the optimal cost function.

도 3은 본 발명의 일 실시 예에 따른 센서 퓨전 시스템(100)에서 주변 차량의 위치를 산출하는 방법에 관한 흐름도이다. 3 is a flowchart illustrating a method of calculating the location of a nearby vehicle in the sensor fusion system 100 according to an embodiment of the present invention.

단계 S110에서, 센서 퓨전 시스템(100)은 레이더를 통해 감지되는 복수개의 레이더 측정 포인트들로부터 주변 차량으로 추정되는 타겟에 대한 위치 정보를 산출하는 제1 방법을 수행할 수 있다. 예를 들어, 레이더를 통해 수신되는 반사파 자체만으로는 타겟이 특정 위치에 존재한다는 것을 파악할 수는 있지만, 해당 위치에 어떤 타겟이 있는지를 판별할 수 없다. 그러나, 복수개의 레이더 측정 포인터들이 있다면, 아래와 같은 제1 방법에 의해 주변 차량으로 추정되는 타겟에 대한 정확한 위치 정보를 추정할 수 있다. 이때, 레이더 측정 포인터들은 2축 좌표계 상에서 레이더가 포함된 차량과 주변 차량간 종방향, 횡방향 정보를 포함하는 정확한 좌표값을 추정할 수 있다. In operation S110 , the sensor fusion system 100 may perform a first method of calculating location information on a target estimated as a nearby vehicle from a plurality of radar measurement points sensed through the radar. For example, it is possible to determine that a target exists at a specific location only by the reflected wave received through the radar, but it is not possible to determine which target exists at the corresponding location. However, if there are a plurality of radar measurement pointers, accurate location information on a target estimated as a nearby vehicle may be estimated by the first method as follows. In this case, the radar measurement pointers may estimate accurate coordinate values including longitudinal and lateral direction information between the vehicle including the radar and the surrounding vehicle on the two-axis coordinate system.

예를 들어, 레이더(110)에 기반한 타겟 추적 알고리즘은 칼만 필터, 확장 칼만 필터(Extended Kalman Filter), PDAF(probabilistic data-association filter), IPDAF(Integrated probabilistic data-association filter), LM-IPDAF(Linear Multi-target IPDAF), JPDAF(joint probabilistic data-association filtter), CFAR(Constant false alarm rate) 와 같은 필터 또는 위치 추적 알고리즘을 통해 타겟의 현재 및 과거 경로를 이용하여 미래 경로를 추정할 수 있다.For example, the target tracking algorithm based on the radar 110 includes a Kalman filter, an extended Kalman filter, a probabilistic data-association filter (PDAF), an integrated probabilistic data-association filter (IPDAF), and a linear LM-IPDAF (Linear) filter. A future path may be estimated using the current and past paths of the target through filters or location tracking algorithms such as multi-target IPDAF), joint probabilistic data-association filter (JPDAF), and constant false alarm rate (CFAR).

본 발명의 일 실시 예에 따르면, 상기 기재한 필터 또는 위치 추적 알고리즘 중 어떠한 방법을 사용하여도 무방하며, 종래 기술들을 보완하여 레이더와 카메라만으로 자율주행 차량에 요구되는 높은 수준의 정밀한 주변 차량의 위치 산출을 가능하게 한다. 본 발명에 따르면 레이더와 카메라에 의해 수집된 정보를 가공하여 높은 수준의 정밀도를 가지는 위치 추적이 가능하기 때문에, 주변 차랑 인식을 위한 고가, 고정밀 장비를 대체할 수 있다. 레이더를 이용한 측위 기술은 여러 개가 있을 수 있지만, 그 중 하나에 관하여 아래와 같은 실시 예를 설명한다.According to an embodiment of the present invention, any method of the above-described filter or position tracking algorithm may be used, and the high level of precision required for an autonomous vehicle by a radar and a camera only by supplementing the prior art techniques make the output possible. According to the present invention, since location tracking with a high level of precision is possible by processing the information collected by the radar and the camera, it can replace expensive, high-precision equipment for recognizing a nearby vehicle. Although there may be several positioning techniques using radar, the following embodiment will be described with respect to one of them.

일 예로, 센서 퓨전 시스템(100)은 제1 방법을 통해 주변 차량으로 추정되는 타겟에 대한 위치 정보를 산출할 수 있고, 여기서 제1 방법은 레이더에서 전파를 방사하고, 객체에 반사되어 입사되는 반사파들을 감지함으로써 복수개의 레이더 측정 포인트들을 획득하는 단계, 타겟 검출 확률에 기반하여 상기 복수개의 레이더 측정 포인트들을 소정의 그룹으로 클러스터링하는 단계, 연속적으로 획득되는 복수개의 레이더 측정 포인트들을 이용하여 상기 클러스터링된 그룹을 업데이트함으로써 연속성을 유지하는 클러스터링된 그룹을 주변 차량으로 추정하는 단계를 포함할 수 있다. For example, the sensor fusion system 100 may calculate location information on a target estimated as a nearby vehicle through a first method, wherein the first method is a reflected wave that radiates a radio wave from a radar and is reflected by an object acquiring a plurality of radar measurement points by detecting estimating the clustered group maintaining continuity as surrounding vehicles by updating .

일 예로, 센서 퓨전 시스템(100)은 타겟 추적 기술을 통해 현재 시점 t를 기준으로 소정의 시간 이전인 t-1, t-2, … 시간에 획득한 타겟에 대한 위치 정보를 이용하여 타겟의 위치 정보를 트래킹 할 수 있다. 이때, 타겟은 3차원 좌표계에서 소정의 볼륨을 가지는 실물이지만, 레이더를 통해 획득되는 레이더 측정 포인트들은 2축 좌표계 상의 소정의 포인트들로 획득될 수 있다. 여기서, 센서 퓨전 시스템(100)은 선형 모델 판정법(residual sum)을 통해 타겟으로 추정되는 소정의 영역을 클러스터링 하고, 클러스터링된 영역에 대한 예측(prediction), 보정(correction)을 반복적으로 수행하여 연속성을 가지는 클러스터링 영역을 구분할 수 있다. As an example, the sensor fusion system 100 uses a target tracking technology to t-1, t-2, . The location information of the target can be tracked by using the location information about the target acquired over time. In this case, the target is a real object having a predetermined volume in the three-dimensional coordinate system, but radar measurement points obtained through the radar may be acquired as predetermined points in the two-axis coordinate system. Here, the sensor fusion system 100 clusters a predetermined region estimated as a target through a linear model decision method (residual sum), and repeatedly performs prediction and correction on the clustered region to ensure continuity. Branches can distinguish clustering regions.

또한, 센서 퓨전 시스템(100)에서 레이더를 통해 획득된 정보는 차량과 타겟과의 거리(횡방향 거리 정보), 타겟의 속도 정보를 포함할 수 있고, 클러스터링 영역 중 한 지점을 타겟의 위치 정보로 추정할 수 있다. 여기서 타겟은 주로 주변에 위치한 차량이 될 수 있으며, 센서 퓨전 시스템(100)은 멀티 객체 추적 기술을 통해 레이더를 이용해 차량 주변에 위치한 주변 차량들 각각의 위치 정보 및 이동 속도 정보를 획득할 수 있다. In addition, the information obtained through the radar in the sensor fusion system 100 may include the distance between the vehicle and the target (lateral distance information) and the speed information of the target, and one point of the clustering area is used as the location information of the target. can be estimated Here, the target may be a vehicle mainly located in the vicinity, and the sensor fusion system 100 may acquire location information and movement speed information of each of the surrounding vehicles located in the vicinity of the vehicle using radar through a multi-object tracking technology.

단계 S120에서, 센서 퓨전 시스템(100)은 카메라 및 레이더간 센서 퓨전 영상에 포함된 주변 차량을 타겟으로 인식하고, 상기 타겟에 대한 위치 정보를 트래킹하는 제2 방법을 수행할 수 있다. 예를 들어, 센서 퓨전 영상은 레이더에서 획득한 차량과 차량간 횡방향 거리 정보를 카메라가 촬영한 2차원 좌표계 상의 영상과 매핑한 영상일 수 있다. 한편, 센서 퓨전 영상은 자율주행 차량을 위해 글로벌 좌표계로 변환되거나, 해당 좌표계에 소정의 데이터를 추가적으로 확장 기재할 수 있는 어노테이션 정보 등이 추가될 수 있다. In step S120 , the sensor fusion system 100 may recognize a nearby vehicle included in the sensor fusion image between the camera and the radar as a target, and perform a second method of tracking location information on the target. For example, the sensor fusion image may be an image obtained by mapping vehicle-to-vehicle lateral distance information obtained from radar with an image on a two-dimensional coordinate system captured by a camera. Meanwhile, the sensor fusion image may be converted into a global coordinate system for an autonomous vehicle, or annotation information for additionally expanding and writing predetermined data in the corresponding coordinate system may be added.

일 예로, 센서 퓨전 시스템(100)에서 상기 제2 방법은, 센서 퓨전 시스템(100)이 상기 센서 퓨전 영상에 객체 인식 알고리즘을 적용하여 주변 차량을 검출하는 단계, 상기 검출한 주변 차량 영역에 대한 바인딩 박스를 설정하고, 상기 바인딩 박스가 설정된 영역을 타겟으로, 상기 타겟에 대한 위치 정보를 트래킹하는 단계를 포함할 수 있다. 여기서, 센서 퓨전 시스템(100)이 타겟에 대한 위치 정보를 트래킹하는 단계는, 상기 센서 퓨전 영상 중 이전의 이미지 프레임과 현재 이미지 프레임을 비교함으로써 상기 타겟의 실시간 위치 변화를 반영한 타겟에 대한 연속적인 위치 정보를 산출하는 단계일 수 있다. As an example, the second method in the sensor fusion system 100 includes the step of detecting, by the sensor fusion system 100, an object recognition algorithm to the sensor fusion image to detect a surrounding vehicle, and binding to the detected surrounding vehicle area. It may include setting a box, and tracking location information about the target by using an area in which the binding box is set as a target. Here, the step of the sensor fusion system 100 tracking the location information on the target is a continuous location of the target reflecting the real-time location change of the target by comparing the previous image frame and the current image frame among the sensor fusion images. It may be a step of calculating information.

단계 S130에서, 센서 퓨전 시스템(100)은 제1 방법 및 제2 방법 중 적어도 하나에 기초하여 추정되거나 인식된 각각의 타겟에 대해 타겟의 중심점을 이용하여 비용 함수를 산출할 수 있다. 예를 들어, 센서 퓨전 시스템(100)이 레이더 및 카메라 중 어느 하나를 이용하여 획득한 정보들을 기초로, 주변 차량의 위치 정보를 산출하는 방법은 여러 개가 있을 수 있다. 센서 퓨전 시스템(100)은 고정밀 측위를 위해, 여러개의 방법을 적용했을 때 주변 차량의 위치 정보를 산출하고, 이에 대한 비용 함수 산출하여 각 방법의 효용을 비교 분석할 수 있다. 예를 들어, 센서 퓨전 시스템(100)은 복수개의 방법 간 비교를 위해 아래와 같은 비용 함수 산출을 수행할 수 있다.In operation S130 , the sensor fusion system 100 may calculate a cost function using a center point of the target for each target estimated or recognized based on at least one of the first method and the second method. For example, there may be several methods of calculating the location information of the surrounding vehicle based on information obtained by the sensor fusion system 100 using any one of a radar and a camera. For high-precision positioning, the sensor fusion system 100 may calculate location information of surrounding vehicles when multiple methods are applied, calculate a cost function for this, and compare and analyze the utility of each method. For example, the sensor fusion system 100 may perform the following cost function calculation for comparison between a plurality of methods.

일 예로, 센서 퓨전 시스템(100)은 제1 방법에 의해 추정된 타겟의 횡방향 중심점에 수직한 가상선을 기준으로, 가상선과 복수개의 레이더 측정 포인트들 사이 수평 거리를 합산한 제1 비용 함수를 계산할 수 있다. 예를 들어, 레이더 측정 포인트들이 복수개 획득되고, 제1 방법을 통해 클러스팅된 소정의 영역 내에서 각 레이저 측정 포인트들간 위치 비교를 위해, 타겟의 횡방향 중심점에 수직한 종방향 가상선과 각 레이더 측정 포인트들 간 수평 거리를 산출할 수 있다. 이때, 센서 퓨전 시스템(100)은 복수개의 레이더 측정 포인트들의 수평 거리를 합산하여, 상기 종방향 가상선을 기준으로 얼마나 많은 레이더 측정 포인트들이 밀집해 있는지 지표를 비용 함수로 산출할 수 있다. As an example, the sensor fusion system 100 calculates a first cost function by summing the horizontal distance between the virtual line and the plurality of radar measurement points based on the virtual line perpendicular to the lateral center point of the target estimated by the first method. can be calculated For example, a plurality of radar measurement points are acquired, and a longitudinal imaginary line perpendicular to the lateral center point of the target and each radar measurement for position comparison between each laser measurement point within a predetermined area clustered through the first method The horizontal distance between points can be calculated. In this case, the sensor fusion system 100 may calculate an index of how many radar measurement points are concentrated based on the vertical virtual line as a cost function by summing the horizontal distances of the plurality of radar measurement points.

다른 예로, 센서 퓨전 시스템(100)은 제2 방법에 의해 인식된 주변 차량 각각을 타겟으로, 각 타겟에 대해 설정된 바인딩 박스의 중심점을 관통하는 차량의 헤딩 방향(Yaw)에 상응하는 가상선을 기준으로, 상기 복수개의 레이더 측정 포인트들 사이 수평 거리를 합산한 제2 비용 함수를 계산할 수 있다. 상기 차량의 헤딩 방향(Yaw)에 상응하는 가상선과 전술한 종방향 가상선은 각 지칭하는 명칭은 다르지만, 센서 퓨전 시스템(100)에서 각 방법이 설정하는 타겟의 중심점을 지나는 가상선이라는 점에서 공통될 수 있다. As another example, the sensor fusion system 100 targets each of the surrounding vehicles recognized by the second method, based on an imaginary line corresponding to the heading direction Yaw of the vehicle passing through the center point of the binding box set for each target. , a second cost function obtained by summing the horizontal distances between the plurality of radar measurement points may be calculated. The virtual line corresponding to the heading direction Yaw of the vehicle and the aforementioned vertical virtual line have different names, but are common in that they are virtual lines passing through the center point of the target set by each method in the sensor fusion system 100 . can be

또 다른 예로, 센서 퓨전 시스템(100)은 이전에 결정된 타겟의 위치 정보를 누적함으로써 소정의 커브 곡선을 산출하는 단계, 상기 커브 곡선 및 차량의 이동 가능 영역을 고려한 현재 시점의 타겟의 위치 정보를 예상하는 단계, 상기 예상되는 타겟의 중심점을 관통하는 차량의 헤딩 방향(Yaw)에 상응하는 가상선을 기준으로, 상기 가상선과 상기 복수개의 레이더 측정 포인트들 사이 수평 거리를 합산한 제3 비용 함수를 계산하는 단계를 포함할 수 있다. As another example, the sensor fusion system 100 calculates a predetermined curve curve by accumulating previously determined location information of the target, and predicts the location information of the target at the current time in consideration of the curve curve and the movable area of the vehicle calculating a third cost function summing the horizontal distance between the virtual line and the plurality of radar measurement points based on the virtual line corresponding to the heading direction (Yaw) of the vehicle passing through the expected center point of the target may include the step of

일 예로, 센서 퓨전 시스템(100)은 X축으로 촬영 영상의 프레임 시점(t, t-1, t-2, … )을, Y축으로 횡방향 거리 정보를 플롯하여, 하나의 타겟에 대해 과거의 기록으로부터 소정의 커브 곡선에 상응하는 현재 시간 t에서의 타겟의 횡방향 거리 정보를 추정할 수 있다. 다만, 이때 주변 차량의 주행 차선 정보를 고려하여 해당 주변 차량이 직진하는지, 또는 좌회전/우회전, 또는 차선 변경 등을 수행하는지 트래킹 결과를 고려하여 상기 소정의 커브 곡선의 정도를 조정할 수 있다. 예를 들어, 센서 퓨전 시스템(100)은 과거 t-n번째 프레임으로부터 t-1번째 프레임까지 누적된 횡방향 거리 정보를, 주변 차량의 왼쪽 차선(1차로), 해당 차선(2차로), 오른쪽 차선(3차로) 구간에 대해 누적된 횡방향 거리 정보를 이용하여 예측되는 커브 곡선의 예측 값을 통해 현재 시점 t번째 프레임에서의 3개의 예측 프레임(1차로, 2차로, 3차로)을 획득할 수 있다. As an example, the sensor fusion system 100 plots frame time points (t, t-1, t-2, ...) of the captured image on the X-axis and lateral distance information on the Y-axis, From the recording of , it is possible to estimate the lateral distance information of the target at the current time t corresponding to a predetermined curve curve. However, in this case, the degree of the predetermined curve curve may be adjusted in consideration of the tracking result of whether the corresponding surrounding vehicle goes straight, left/right turn, or lane change in consideration of driving lane information of the surrounding vehicle. For example, the sensor fusion system 100 collects the lateral distance information accumulated from the past t-nth frame to the t-1th frame in the left lane (1st lane) of the surrounding vehicle, the corresponding lane (2nd lane), the right lane ( Three prediction frames (1st lane, 2nd lane, 3rd lane) in the t-th frame at the current time point can be obtained through the predicted value of the curve curve predicted using the lateral distance information accumulated for the section (3 lane). .

전술한 바와 같이 과거의 기록으로부터 t번째 프레임에 대해 예측되는 횡방향 거리 정보는, 만일 해당 주변 차량이 차선을 변경하는 경우에도 해당 차량의 횡방향 거리 정보를 더욱 잘 트래킹 할 수 있게 하고, 과거의 기록들이 실시간으로 업데이트되면서 정밀한 수준의 연속적인 위치 정보 트래킹이 가능하다. 즉, 본 발명에 따른 주변 차량 위치 방법이 주변 차량에 대한 실시간 트래킹을 지향하는 만큼, 주변 차량이 차선을 변경하고 있는 해당 순간에도 정밀한 위치 정보 트래킹이 가능하다. As described above, the lateral distance information predicted for the t-th frame from the past record enables better tracking of the lateral distance information of the corresponding vehicle even if the corresponding neighboring vehicle changes lanes, and Records are updated in real time, enabling a precise level of continuous location tracking. That is, as the surrounding vehicle location method according to the present invention aims for real-time tracking of the surrounding vehicle, accurate location information tracking is possible even at the moment when the surrounding vehicle changes lanes.

단계 S140에서, 센서 퓨전 시스템(100)은 산출한 각각의 타겟에 대한 비용 함수를 비교 선택하고 상기 선택된 타겟에 대해 횡방향 거리 정보를 포함하는 위치 정보를 산출할 수 있다. 일 예로, 센서 퓨전 시스템(100)은 다양한 방법을 통해 복수개의 비용 함수를 산출할 수 있다. 이때, 센서 퓨전 시스템은 여러 개의 비용 함수를 비교하여 최적의 비용 함수를 선택하고 이에 기초하여 선택된 타겟의 위치 정보를 산출할 수 있다. In step S140 , the sensor fusion system 100 may compare and select a cost function for each calculated target and calculate location information including lateral distance information for the selected target. For example, the sensor fusion system 100 may calculate a plurality of cost functions through various methods. In this case, the sensor fusion system may select an optimal cost function by comparing several cost functions, and may calculate location information of the selected target based thereon.

예를 들어, 센서 퓨전 시스템(100)은 제1 비용 함수와 상기 제2 비용 함수를 비교하여 최소의 비용 함수값을 가지는 타겟을 선택하고, 해당 타겟에 대한 위치 정보를 산출할 수 있다. 다른 예로 센서 퓨전 시스템(100)은 제1 비용 함수 내지 제3 비용 함수를 산출한 경우, 이를 기초로 최소의 비용 함수값을 가지는 타겟을 선택하고, 해당 타겟에 대한 위치 정보를 산출할 수 있다. 이때 각 타겟의 위치 정보에는 레이더를 통해 획득한 횡방향 거리 정보가 포함될 수 있다. For example, the sensor fusion system 100 may select a target having a minimum cost function value by comparing the first cost function and the second cost function, and calculate location information about the target. As another example, when the first to third cost functions are calculated, the sensor fusion system 100 may select a target having a minimum cost function value based on the calculated first cost function to the third cost function, and may calculate location information for the target. In this case, the location information of each target may include lateral distance information obtained through radar.

전술한 바와 같이 센서 퓨전 시스템(100)은 여러 방법에 의해 산출된 비용 함수를 비교 분석함으로써, 각각 하나의 방법으로만 주변 차량을 측위했을 때 보다 더 높은 정확도를 가지고 주변 차량의 현재 위치를 실시간 트래킹할 수 있다. As described above, the sensor fusion system 100 compares and analyzes the cost function calculated by various methods, and tracks the current location of the surrounding vehicle in real time with higher accuracy than when the surrounding vehicle is located only by one method, respectively. can do.

도 4는 본 발명의 일 실시 예에 따라 여러 방법을 통해 비용 함수를 산출하는 것을 설명하기 위한 예시적인 도면이다. 4 is an exemplary diagram for explaining calculating a cost function through various methods according to an embodiment of the present invention.

도 4를 참고하면, 센서 퓨전 시스템(100)은 카메라(200)를 통해 촬영 영상(210, 220, 230)을 획득할 수 있다. 여기서, 카메라(200)는 차량 내 전방, 후방, 측면 중 어느 하나 이상의 지점에 탑재될 수 있으며, 복수개의 카메라에 대한 캘리브레이션 과정을 거쳐 카메라에서 촬영 영상(210, 220, 230)을 획득할 수 있다. Referring to FIG. 4 , the sensor fusion system 100 may acquire captured images 210 , 220 , and 230 through the camera 200 . Here, the camera 200 may be mounted on any one or more points of the front, rear, and side of the vehicle, and may acquire the captured images 210 , 220 , 230 from the camera through a calibration process for a plurality of cameras. .

한편, 센서 퓨전 시스템(100)은 레이더(310)를 통해 전파를 소정의 영역에 방사하고, 이때 객체로부터 반사되어 되돌아오는 반사파를 수집할 수 있다(320). 이때, 수집된 반사파로부터 획득된 정보를 레이더 측정 포인트라 부를 수 있다. 레이더 측정 포인트는 객체가 있을 것으로 추정되는 좌표, 차량과 객체 사이의 횡방향 거리 정보, 객체의 속도 정보 등을 포함할 수 있다.Meanwhile, the sensor fusion system 100 may emit radio waves to a predetermined area through the radar 310 , and collect reflected waves that are reflected from the object and return ( 320 ). In this case, information obtained from the collected reflected wave may be referred to as a radar measurement point. The radar measurement point may include coordinates at which the object is estimated, lateral distance information between the vehicle and the object, speed information of the object, and the like.

또한, 센서 퓨전 시스템(100)은 레이더(310)를 통해 획득한 레이더 측정 포인트들에 대해 소정의 프로세싱을 거쳐 타겟을 주변 차량으로 인식하거나, 주변 차량의 정확한 위치 정보를 산출하는 과정을 수행할 수 있다. In addition, the sensor fusion system 100 may perform a process of recognizing a target as a surrounding vehicle or calculating accurate location information of the surrounding vehicle through predetermined processing on the radar measurement points acquired through the radar 310 . have.

한편, 센서 퓨전 시스템(100)은 카메라(200)와 레이더(310)에서 획득한 각 촬영 영상(210, 220, 230)과, 레이더 측정 포인트(320)를 동일 좌표계 상에 매핑한 센서 퓨전 영상을 획득할 수 있다(330). 이때, 센서 퓨전 영상은 영상 좌표계인 2차원 좌표계에 레이더 측정 포인트들로부터 가공 처리된 차량과 주변 차량간 횡방향 거리 정보 등을 포함할 수 있다. On the other hand, the sensor fusion system 100 is a sensor fusion image in which each captured image 210 , 220 , 230 obtained from the camera 200 and the radar 310 and the radar measurement point 320 are mapped on the same coordinate system. can be obtained (330). In this case, the sensor fusion image may include lateral distance information between a vehicle and a surrounding vehicle processed from radar measurement points in a two-dimensional coordinate system that is an image coordinate system.

센서 퓨전 시스템(100)은 여러 방법을 통해 주변 차량의 위치 정보를 산출하고, 각 방법을 비교 분석하기 위한 비용 함수를 산출할 수 있다. 일 예로, 센서 퓨전 시스템(100)은 레이더(110)의 타겟 추적 알고리즘에 기초하여 레이더 측정 포인트(320)들을 기초로 타겟의 위치 정보를 추정하고, 상기 레이더 측정 포인트들을 이용하여 소정의 프로세스에 따라 제1 비용 함수를 산출할 수 있다(340). The sensor fusion system 100 may calculate location information of surrounding vehicles through various methods, and may calculate a cost function for comparing and analyzing each method. For example, the sensor fusion system 100 estimates the location information of the target based on the radar measurement points 320 based on the target tracking algorithm of the radar 110 and uses the radar measurement points according to a predetermined process. A first cost function may be calculated ( 340 ).

다른 예로, 센서 퓨전 시스템(100)은 획득한 센서 퓨전 영상을 해석하여, 촬영 영상으로부터 추출한 타겟에 대한 바인딩 박스와, 해당 바인딩 박스 주변의 레이더 측정 포인트들을 이용하여 소정의 프로세스에 따라 제2 비용 함수를 산출할 수 있다(350).As another example, the sensor fusion system 100 interprets the acquired sensor fusion image, and uses a binding box for a target extracted from the captured image and radar measurement points around the binding box according to a predetermined process according to a second cost function. can be calculated (350).

센서 퓨전 시스템(100)은 제1 비용 함수와, 제2 비용 함수를 비교하여 최소 비용 함수값을 선택함으로써, 제1 방법 또는 제2 방법에 의한 주변 차랑 위치 정보 측위 값 중 한 측위값을 최적의 주변 차량 위치 정보로 결정할 수 있다. The sensor fusion system 100 compares the first cost function and the second cost function and selects the minimum cost function value, so that one of the location values of the surrounding vehicle location information by the first method or the second method is optimally selected. It can be determined based on the location information of the surrounding vehicle.

한편, 다른 실시 예에 따르면, 전술한 과정을 거쳐 결정된 최적의 주변 차량 위치 정보는 다음 프레임에서의 주변 차량 위치 정보 결정시, 과거의 데이터로부터 새로운 예측값을 생성하고, 소정의 프로세스에 따라 상기 생성한 예측값에 대한 제3 비용 함수를 산출함으로써 상기 제1 비용 함수, 제2 비용 함수와 비교 예를 더 생성할 수 있다. Meanwhile, according to another embodiment, the optimal surrounding vehicle location information determined through the above-described process generates a new predicted value from past data when determining the surrounding vehicle location information in the next frame, and generates the generated information according to a predetermined process. By calculating the third cost function for the predicted value, the first cost function, the second cost function, and the comparative example may be further generated.

예를 들어, 센서 퓨전 시스템(100)은 과거(t-1, t-2, t-3, ??) 프레임에서의 최적의 값으로 결정된 주변 차량 위치 정보를 과거 데이터로써 누적하고, 이로부터 현재 프레임(t)에서의 주변 차량 위치 예측값을 생성할 수 있다.이때, 센서 퓨전 시스템(100)은 보다 정확한 측위를 위해 상기 주변 차량이 1차로 내지 3차로 사이의 차선 변경 가능성을 더 고려하여 현재 프레임(t)에 대해 세 개의 시뮬레이션 값을 더 예측할 수 있다. 이에 관한 내용은 추후 도 10a 내지 10c를 통해 후술하여 설명한다. For example, the sensor fusion system 100 accumulates surrounding vehicle location information determined as an optimal value in past (t-1, t-2, t-3, ??) frames as past data, and from this, It is possible to generate a predicted value of the position of the surrounding vehicle in the frame t. In this case, the sensor fusion system 100 further considers the possibility that the surrounding vehicle changes lanes between the first lane and the third lane for more accurate positioning of the current frame. Three more simulation values can be predicted for (t). This will be described later with reference to FIGS. 10A to 10C.

한편, 센서 퓨전 시스템(100)은 제1 비용 함수, 제2 비용 함수, 제3 비용 함수 중 최소 비용 함수값을 가지는 적어도 하나의 비용 함수를 선택하고, 선택된 방법으로 측위된 값을 최적의 주변 차량 위치 정보로 결정할 수 있다(380). Meanwhile, the sensor fusion system 100 selects at least one cost function having a minimum cost function value from among the first cost function, the second cost function, and the third cost function, and sets the value positioned by the selected method to the optimal surrounding vehicle. It may be determined based on location information ( 380 ).

도 5는 본 발명의 일 실시 예에 따른 각 단계 별 사용하는 좌표계를 비교 설명하기 위한 예시적인 도면이다. 본 발명의 일 실시 예에 따르면, 센서 퓨전 시스템(100) 내 포함된 각 센서(레이더, 카메라 등) 들은 각각 별도의 좌표계를 기초로 데이터를 수집하므로 이를 하나의 센서 퓨전 영상으로 매핑하거나 글로벌 좌표계로 변환하는 과정이 필요할 수 있다. 5 is an exemplary diagram for comparing and explaining a coordinate system used for each step according to an embodiment of the present invention. According to an embodiment of the present invention, since each sensor (radar, camera, etc.) included in the sensor fusion system 100 collects data based on a separate coordinate system, it is mapped to a single sensor fusion image or a global coordinate system. A conversion process may be required.

도 5를 참고하면, 레이더 좌표계(400)는 레이더가 탑재된 차량(10)을 기준으로 주변 차량(15)과 상대적인 좌표로 직교 좌표계(rectangular coordinated system)인 x축, y축 좌표계가 사용될 수 있다. 도 5를 참고하면, 주변 차량(15)는 차량(10)에서 바라 봤을때 상대적인 좌표값(x,y)로 표시될 수 있다. 이때, 횡방향 거리 정보는 상기 좌표값(x,y)을 기초로 차량(10)과 주변 차량(15)간 직선 거리 정보로 계산될 수 있다. Referring to FIG. 5 , the radar coordinate system 400 is a coordinate system relative to the surrounding vehicle 15 with respect to the vehicle 10 on which the radar is mounted. . Referring to FIG. 5 , the surrounding vehicle 15 may be displayed as relative coordinate values (x, y) when viewed from the vehicle 10 . In this case, the lateral distance information may be calculated as linear distance information between the vehicle 10 and the surrounding vehicle 15 based on the coordinate values (x,y).

도 5를 참고하면, 카메라 좌표계(410)는 데카르트 좌표계(Cartesian coordinate system, 410)를 사용하여 x축 내지 z 축의 3축 좌표계를 사용하지만, 카메라로부터 촬영된 영상은 이미지 평면(Image plane, 425) 상의 픽셀 좌표계(420) 를 사용하여 기록될 수 있다. 이에 따르면, 카메라가 촬영한 촬영 영상 만으로는 차량과 주변 차량과의 횡방향 거리 정보를 명확하게 알 수 없으나, 본 발명의 일 실시 예에 따른 센서 퓨전 시스템(100)은 레이더를 통해 획득한 횡방향 거리 정보를 상기 촬영 영상에 매핑함으로써 2D 좌표 이외에 횡방향 거리 정보를 더 포함하는 센서 퓨전 영상을 생성할 수 있다. Referring to FIG. 5 , the camera coordinate system 410 uses a 3-axis coordinate system of the x-axis to the z-axis using a Cartesian coordinate system 410, but the image taken from the camera is an image plane (Image plane, 425). may be recorded using the pixel coordinate system 420 of the Accordingly, the lateral distance information between the vehicle and the surrounding vehicle cannot be clearly known only from the captured image taken by the camera, but the sensor fusion system 100 according to an embodiment of the present invention provides the lateral distance obtained through the radar. By mapping the information to the captured image, it is possible to generate a sensor fusion image further including lateral distance information in addition to 2D coordinates.

한편, 위와 같이 센싱 퓨전 시스템(100)에서 획득한 정보 들은, 차량의 진행 방향(x축), 차량 진행 방향에 수직한 방향(y축), 차량의 헤드 방향(z축)을 가지는 글로벌 좌표계(430)로 변환될 수 있다. On the other hand, the information obtained from the sensing fusion system 100 as described above is a global coordinate system ( 430).

도 6a 내지 도 6b는 레이더를 통해 획득한 레이더 측정 포인트들 및 타겟 추적 알고리즘에 기초하여 추정된 타겟의 위치 정보를 예시적으로 나타내는 도면이다. 6A to 6B are diagrams exemplarily illustrating location information of a target estimated based on radar measurement points acquired through a radar and a target tracking algorithm.

일 예에 따르면, 레이더에서 객체로부터 반사되어 온 반사파들을 수집하고, 이를 영상 평면(image plane) 상에서 대응시키면 도 6a와 같은 도면이 나타날 수 있다. 레이더 측정 포인트들(501~508)은 특정 위치에 어떠한 객체가 있다는 것을 알려주는 지표가 될 수 있다. According to an example, when the radar collects reflected waves reflected from an object and corresponds them on an image plane, a view as shown in FIG. 6A may appear. The radar measurement points 501 to 508 may be indicators indicating that there is an object at a specific location.

센서 퓨전 시스템(100)이 복수개의 레이더 측정 포인트들(501~508)을 획득하면, 타겟이 존재할 확률을 기초로 소정의 클러스터링을 통해 타겟의 위치 정보를 추정하여 클러스터링 영역(500)을 설정할 수 있다. 센서 퓨전 시스템(100)은 클러스터링 영역(500)에 대해 소정의 기간 동안 예측과 보정을 통한 클러스터링 영역 업데이트를 통해 클러스터링 영역(500)을 타 영역과 구별할 수 있다. 이때, 클러스터링 영역은 도 5와 같이 직사각형 바인딩 박스가 아닌 원, 타원, 또는 불규칙한 영역을 가지는 소정의 영역이 될 수도 있다. When the sensor fusion system 100 acquires a plurality of radar measurement points 501 to 508, the clustering area 500 may be set by estimating the location information of the target through predetermined clustering based on the probability that the target exists. . The sensor fusion system 100 may distinguish the clustering region 500 from other regions by updating the clustering region through prediction and correction for a predetermined period for the clustering region 500 . In this case, the clustering region may be a predetermined region having a circle, an ellipse, or an irregular region rather than a rectangular binding box as shown in FIG. 5 .

도 6a를 참고하면 센서 퓨전 시스템(100)은 소정의 타겟 추적 알고리즘에 기초하여 타겟의 위치를 추정(550)할 수 있다. 관련하여 타겟 추적 알고리즘에 관하여 이하 도 6b을 통해 설명한다. Referring to FIG. 6A , the sensor fusion system 100 may estimate ( 550 ) the location of the target based on a predetermined target tracking algorithm. In this regard, a target tracking algorithm will be described with reference to FIG. 6B below.

도 6b는 본 발명의 일 실시 예에 따라 레이더의 타겟 추적 알고리즘을 설명하는 예시적인 도면이다. 6B is an exemplary diagram for explaining a target tracking algorithm of a radar according to an embodiment of the present invention.

일 예로, 추정 알고리즘에서 추정하고자 하는 대상을 타겟(target)이라 할 수 있고, 타겟의 상태 벡터인 X는 상대위치, 상대 속도, 상대 가속도로 구성된 상태 변수이다. 여기서, 센서 퓨전 시스템(100)은 선행 차량의 과거 상태 벡터로부터 선행 차량의 현재 상태 벡터를 예측(Predict)하고, 상기 선행 차량으로부터 반사되어 입사되는 레이더 측정 포인트들을 이용하여 선행 차량의 상태 벡터를 갱신(Update)하는 동역학 모델을 이용하여 타겟을 추적할 수 있다.For example, a target to be estimated in the estimation algorithm may be referred to as a target, and X, which is a state vector of the target, is a state variable composed of a relative position, a relative velocity, and a relative acceleration. Here, the sensor fusion system 100 predicts the current state vector of the preceding vehicle from the past state vector of the preceding vehicle, and updates the state vector of the preceding vehicle using radar measurement points reflected and incident from the preceding vehicle. (Update) The target can be tracked using the dynamic model.

도 6b를 참고하면, 센서 퓨전 시스템(100)은 소정의 타겟 추적 알고리즘에 기초하여 선행 차량의 상태 벡터 예측값(600)를 예측할 수 있다. 여기서, 센서 퓨전 시스템(100)은 상태 벡터 예측값(600) 주변 소정의 거리에 일정한 확률로 계산된 게이트(gate, 650)을 설정하고, 상기 게이트(650)내 들어온 레이더 측정 포인트들(610, 620)을 갱신에 이용할 수 있다. 일 예로, 센서 퓨전 시스템(100)은 칼만 필터(Kalman filter)를 이용하여 게이트(650) 영역을 필터링하여, 측정 레이더 포인트 z1(k)(610)과, 다른 측정 레이더 포인트 z2(k)(620)을 해당 예측값(600)의 갱신에 사용할 수 있다.일 실시 예에 따르면 센서 퓨전 시스템(100)은 상태 공간(state space)에서의 이산시간 동역학 모델을 이용하여 선행 차량의 상태 변수 예측값을 산출할 수 있다. 일 예로 센서 퓨전 시스템은 선행 차량의 k-1번째 주기의 상태 벡터(600) X(k-1)와, 예측 오차 공분산(the error covariance), 필터의 게인(Kk, gain)을 산출하고, 레이더 측정 포인트 z1(k)(610) 및 z2(k)(620)을 통해 선행 차량의 상태 변수를 갱신함으로써 오차를 보정한 현재 시점의 선행 차량의 상태 벡터 예측값 X(k|k-1)을 산출할 수 있다. Referring to FIG. 6B , the sensor fusion system 100 may predict a state vector prediction value 600 of the preceding vehicle based on a predetermined target tracking algorithm. Here, the sensor fusion system 100 sets the gate 650 calculated with a constant probability at a predetermined distance around the state vector predicted value 600 , and the radar measurement points 610 and 620 entered in the gate 650 . ) can be used for updates. As an example, the sensor fusion system 100 filters the gate 650 region using a Kalman filter, and includes a measurement radar point z 1 (k) 610 and another measurement radar point z 2 (k). 620 can be used to update the corresponding predicted value 600. According to an embodiment, the sensor fusion system 100 calculates the predicted value of the state variable of the preceding vehicle by using a discrete-time dynamics model in a state space. can be calculated. For example, the sensor fusion system calculates the state vector 600 X(k-1) of the k-1th cycle of the preceding vehicle, the error covariance of the prediction error, and the gain of the filter (Kk, gain), and the radar By updating the state variable of the preceding vehicle through the measurement points z1(k) 610 and z2(k) 620 , the predicted state vector X(k|k-1) of the current time point in which the error is corrected is calculated. can do.

한편, 센서 퓨전 시스템(100)은 선행 차량의 상태 벡터 예측값(600)을 타겟 검출 확률로 나타낼 수 있으며, 타겟 검출 확률에 기초한 선형 모델 판별법(Residual Sum)을 이용하여 타겟의 위치 정보를 추정할 수 있다. On the other hand, the sensor fusion system 100 may represent the state vector predicted value 600 of the preceding vehicle as the target detection probability, and the target location information can be estimated using a linear model discrimination method (Residual Sum) based on the target detection probability. have.

이때, 센서 퓨전 시스템(100)은 주변에 복수개의 차량들이 있는 경우 각 타겟 별로 위치 정보를 추적하는 멀티 추적을 수행할 수 있다. In this case, the sensor fusion system 100 may perform multi-tracking for tracking location information for each target when there are a plurality of vehicles in the vicinity.

도 7은 본 발명의 일 실시 예에 따라 카메라를 통해 주변 차량의 위치 정보를 획득하는 것을 설명하기 위한 도면이다. 도 7을 참고하면, 차량 내 다수의 카메라가 탑재될 수 있으며, 각 카메라의 위치에 따라 다수의 촬영 영상(710, 720, 730)이 획득될 수 있다. 일 예로, 센서 퓨전 시스템(100)은 다수의 카메라에 대해 캘리브레이션을 통해 차량내 각 카메라의 위치를 파악하고, 각각의 카메라가 촬영한 영상(710, 720, 730) 중 포함된 객체를 인식할 수 있다. 7 is a view for explaining obtaining location information of a surrounding vehicle through a camera according to an embodiment of the present invention. Referring to FIG. 7 , a plurality of cameras may be mounted in a vehicle, and a plurality of captured images 710 , 720 , and 730 may be acquired according to positions of the respective cameras. As an example, the sensor fusion system 100 may determine the position of each camera in the vehicle through calibration for a plurality of cameras, and recognize an object included in the images 710 , 720 , 730 captured by each camera. have.

도 7을 참고하면, 차량에 탑재된 카메라를 통해 다수의 시점의 촬영 영상(710, 720, 730)이 획득될 수 있다. 일 예로, 센서 퓨전 시스템(100)은 영상 해석 알고리즘에 기초하여 각 영상에 포함된 객체들을 피처 클래스(feature class)를 통해 분류하고, 이를 기초로 주변 차량들을 인식할 수 있다. Referring to FIG. 7 , captured images 710 , 720 , and 730 of a plurality of viewpoints may be acquired through a camera mounted on a vehicle. For example, the sensor fusion system 100 may classify objects included in each image through a feature class based on an image interpretation algorithm, and recognize surrounding vehicles based on this.

일 예로, 센서 퓨전 시스템(100)은 전방 좌측 영상(Front Left image, 710), 전방 중앙 영상(Front Central image, 720), 전방 우측 영상(Front Right image, 730)에 포함된 주변 차량들을 인식하고, 이를 바인딩 박스 형태로 촬영 영상 내 중첩적으로 표시할 수 있다. For example, the sensor fusion system 100 recognizes surrounding vehicles included in the front left image 710, the front central image 720, and the front right image 730, and , it can be displayed superimposed in the captured image in the form of a binding box.

도 8은 제1 방법, 도 9는 제2 방법에 의해 획득한 레이더 측정 포인트들을 해석하고, 이를 기초로 비용 함수를 산출하는 것을 설명하는 일 예이다. 도 8 및 도 9를 참고하면, 레이더 측정 포인트들이 동일하다(r01~r06, R01~R06). 그러나, 본 발명의 일 실시 예에 따르면, 타겟의 중심점을 포함하는 보다 정밀한 위치 정보 획득을 위해, 상기 레이더 측정 포인트들을 각각 다른 방법에 기초하여 해석할 수 있다. FIG. 8 is an example of analyzing radar measurement points obtained by the first method and FIG. 9 is an example of calculating a cost function based on the analysis points. 8 and 9 , the radar measurement points are the same (r01 to r06, R01 to R06). However, according to an embodiment of the present invention, in order to obtain more precise location information including the center point of the target, the radar measurement points may be analyzed based on different methods.

도 8은 본 발명의 일 실시 예에 따른 제1 비용 함수 산출 방법을 설명하기 위한 예시적인 도면이다. 센서 퓨전 시스템(100)은 레이더 측정 포인트들(r01~r06)로부터 주변 차량으로 추정되는 타겟의 위치 정보를 직접 산출하는 제1 방법과, 제 1방법에 의해 추정된 타겟의 횡방향 중심점에 수직한 가상선을 기준으로 가상선과 복수의 레이더 측정 포인트들 사이 수평 거리를 합산한 제1 비용 함수를 계산할 수 있다. 8 is an exemplary view for explaining a method of calculating a first cost function according to an embodiment of the present invention. The sensor fusion system 100 includes a first method for directly calculating the position information of a target estimated as a surrounding vehicle from the radar measurement points r01 to r06, and a lateral center point of the target estimated by the first method. A first cost function obtained by summing horizontal distances between the virtual line and the plurality of radar measurement points may be calculated based on the virtual line.

제1 비용 함수:

Figure 112022002578976-pat00001
-----------------------------------수학식 (1)First cost function:
Figure 112022002578976-pat00001
-----------------------------------Equation (1)

복수개의 레이더 측정 포인트들 중 만일 도 8과 같이 약 6개의 레이더 측정 포인트들을 선택하면, 이때 제1 비용함수는 가상선(850)과 각 레이더 측정 포인트들 간 수평 거리인 d01 + d02 + d03 + d04 + d05 + d06으로 계산될 수 있다. Among the plurality of radar measurement points, if about 6 radar measurement points are selected as shown in FIG. 8 , then the first cost function is d01 + d02 + d03 + d04 which is the horizontal distance between the virtual line 850 and each radar measurement point. It can be calculated as + d05 + d06.

도 9는 본 발명의 다른 실시 예에 따른 제2 비용 함수 산출 방법을 설명하기 위한 예시적인 도면이다. 센서 퓨전 시스템(100)은 센서 퓨전 영상으로부터 객체 인식을 통해 주변 차량을 인식하고, 상기 주변 차량에 대한 바인딩 박스(900)를 설정할 수 있다. 이때, 센서 퓨전 시스템(100)은 상기 바인딩 박스(900)의 중심점을 관통하는 차량의 헤딩 방향(Yaw)에 상응하는 가상선(950)과, 상기 가상선(950)과 레이더 측정 포인트들(R01~R06)까지의 수평 거리의 합을 제2 비용 함수로 계산할 수 있다. 9 is an exemplary view for explaining a method of calculating a second cost function according to another embodiment of the present invention. The sensor fusion system 100 may recognize a surrounding vehicle through object recognition from the sensor fusion image, and set a binding box 900 for the surrounding vehicle. At this time, the sensor fusion system 100 includes an imaginary line 950 corresponding to the heading direction Yaw of the vehicle passing through the center point of the binding box 900 , the imaginary line 950 , and the radar measurement points R01 . The sum of the horizontal distances to R06) can be calculated as a second cost function.

제2 비용 함수:

Figure 112022002578976-pat00002
-------------------------------------수학식(2) A second cost function:
Figure 112022002578976-pat00002
-------------------------------------Equation (2)

복수개의 레이더 측정 포인트들 중 만일 도 9와 같이 약 6개의 레이더 측정 포인트들을 선택하면, 이때 제2 비용함수는 가상선(950)과 각 레이더 측정 포인트들 간 수평 거리인 D01 + D02 + D03 + D04 + D05 + D06으로 계산될 수 있다. Among the plurality of radar measurement points, if about 6 radar measurement points are selected as shown in FIG. 9 , then the second cost function is D01 + D02 + D03 + D04 which is the horizontal distance between the virtual line 950 and each radar measurement point. It can be calculated as + D05 + D06.

도 8과 도 9를 비교하여 보면, 센서 퓨전 시스템(100)이 각 방법에서 설정한 타겟의 중심점 및 이에 수직한 가상선(또는 차량의 헤딩 방향에 상응하는 가상선)이 다르게 적용되었으므로 이를 기준으로 산출된 비용 함수는 상이할 수 있다. 이때, 각 방법에 의해 산출한 비용 함수를 비교하면, 비교 함수가 최소 값을 가지는 경우 보다 더 많은 레이더 측정 포인트들이 상기 가상선으로부터 더 가까운 거리에 분포되어 있음을 알 수 있다. 이를 기초로, 센서 퓨전 시스템(100)은 최소값을 가지는 비교 함수의 기초가 되는 타겟의 중심점을 기준으로 타겟에 대한 정확한 위치 정보를 산출할 수 있다. 8 and 9, since the center point of the target set by the sensor fusion system 100 in each method and an imaginary line perpendicular thereto (or imaginary line corresponding to the heading direction of the vehicle) are applied differently, based on this The calculated cost function may be different. In this case, when the cost functions calculated by each method are compared, it can be seen that more radar measurement points are distributed at a closer distance from the virtual line than when the comparison function has a minimum value. Based on this, the sensor fusion system 100 may calculate accurate location information about the target based on the center point of the target, which is the basis of the comparison function having the minimum value.

도 10 내지 도 11은 과거의 타겟 위치 정보로부터 현재 시점의 타겟 위치 정보를 예측하는 것을 설명하기 위한 예시적인 도면이다. 10 to 11 are exemplary diagrams for explaining prediction of target location information of a current view from past target location information.

도 10은 센서 퓨전 시스템(100)이 탑재된 차량(10)의 t번째 프레임(현재)과, t-1번째 프레임에서의 위치와, 이때 주변 차량(15)이 각 시점(t, t-1, t-2, ??)에서의 위치 정보를 동일 평면 상에 예시적으로 도시해 놓았다. 이에 따르면, 주변 차량(15)는 t-2번째 프레임에서 2차로를 주행하다가 t-1 번째 프레임에서 차선 변경을 시도하여 t번째 프레임에서는 1차로로 차선을 변경하였다. 즉, 도로 주행 환경에서 주변 차량(15)도 동적으로 가변하는 위치 정보를 가지기 때문에 해당 주변 차량(15)의 움직임에 대한 예측값을 산출할 수 있다면 예측값에 기초하여 보다 더 빠르고 정밀한 위치 정보를 산출할 수 있다. 10 is a t-th frame (current) of the vehicle 10 on which the sensor fusion system 100 is mounted, and a position in the t-1 th frame, at which time the surrounding vehicle 15 is at each time point (t, t-1). , t-2, ??) is exemplarily shown on the same plane. According to this, the surrounding vehicle 15 drives in the second lane in the t-2 th frame and attempts a lane change in the t-1 th frame to change the lane to the first lane in the t th frame. That is, since the surrounding vehicle 15 also has location information that varies dynamically in the road driving environment, if a predicted value for the motion of the surrounding vehicle 15 can be calculated, faster and more precise location information can be calculated based on the predicted value. can

또한, 차량(10)내 센서 퓨전 시스템(100)은 t번째 프레임에서 차량(10)과 주변 차량(15)간 횡방향 거리 정보 Rt, t-1번째 프레임에서 차량(10)과 주변 차량(15)간 횡방향 거리 정보 R(t-1)을 산출할 수 있다. In addition, the sensor fusion system 100 in the vehicle 10 provides lateral distance information Rt between the vehicle 10 and the surrounding vehicle 15 in the t-th frame, and the vehicle 10 and the surrounding vehicle 15 in the t-1 frame. ), the lateral distance information R(t-1) can be calculated.

도 11은 과거의 타겟 위치 정보로부터 현재의 타겟 위치 정보를 예측하는 것을 설명하기 위한 그래프이다. 이때, 과거의 타겟 위치 정보는 전술한 여러 개의 방법들 중 최적의 비용 함수를 가지는 방법에 의해 측위된 주변 차량의 위치 정보일 수 있다. 11 is a graph for explaining prediction of current target location information from past target location information. In this case, the past target location information may be location information of a nearby vehicle located by a method having an optimal cost function among the above-described several methods.

센서 퓨전 시스템(100)은 이전에 결정된 타겟의 위치 정보를 누적함으로써 소정의 커브 곡선을 산출할 수 있다. 이때에도 주변 차량인 타겟은 언제든 이동이 가능하기 때문에 차량이 이동할 수 있는 경로, 예를 들어 주변 차량의 t-1번째 프레임의 위치를 2차로라고 가정하고, 주변 차량이 1차로로 이동할 확률 또는 3차로로 이동할 확률 등에 기초하여 여러 버전의 시뮬레이션이 수행될 수 있다. The sensor fusion system 100 may calculate a predetermined curve curve by accumulating previously determined target position information. Even at this time, since the target, which is a nearby vehicle, can move at any time, it is assumed that the path on which the vehicle can move, for example, the location of the t-1th frame of the surrounding vehicle is the second lane, and the probability that the surrounding vehicle moves to the first lane or 3 Several versions of the simulation may be performed based on the probability of moving into a lane or the like.

도 11을 참고하면, 시간 축에 대응하는 이미지 프레임(Image Frame)을 x축으로, 횡방향 거리 정보를 y축으로 설정한 2차원 그래프에 대해 각각 주변 차량이 직진 차로(2차로)를 유지하는 경우(1020), 1차로로 이동하는 경우(1010), 3차로로 이동하는 경우(1030) 등에 따라 주변 차량의 현재 시점(t)에서의 예측값이 달라질 수 있다. 센서 퓨전 시스템(100)은 상기 커브 곡선 및 차량의 이동 가능 영역을 고려한 현재 시점의 타겟의 위치 정보를 예상하는 횡방향 거리 정보를 산출할 수 있다. Referring to FIG. 11 , for a two-dimensional graph in which an image frame corresponding to the time axis is set as the x-axis and lateral distance information is set as the y-axis, the surrounding vehicles maintain a straight lane (two lanes), respectively. The predicted value at the current time t of the surrounding vehicle may vary depending on the case 1020 , the case of moving to the first lane 1010 , the case of moving to the third lane 1030 , and the like. The sensor fusion system 100 may calculate lateral distance information for predicting the location information of the target at the current time in consideration of the curve curve and the movable area of the vehicle.

한편, 센서 퓨전 시스템(100)은 상기 예상되는 타겟의 중심점을 관통하는 차량의 헤딩 방향(Yaw)에 상응하는 가상선을 기준으로, 상기 가상선과 상기 복수개의 레이더 측정 포인트들 사이 수평 거리를 합산한 제3 비용 함수를 계산하는 단계를 더 포함할 수 있다. 만일 센서 퓨전 시스템(100)이 도 11과 같이 주변 차량의 차선 변경 가능성을 고려하여 3개의 시뮬레이션을 수행했다면, 위와 같이 세 가지 버전의 제3 비용 함수가 더 계산될 수 있다. 이 경우 센서 퓨전 시스템(100)은 제1 비용 함수, 제2 비용함수, 세 개의 제3 비용 함수를 비교하여 총 5개의 비용 함수 중 최소의 비용 함수값을 가지는 비용 함수를 선택하고, 해당 방법에 기초하여 산출한 주변 차량의 위치 정보를 최종 위치 정보로 결정할 수 있다. On the other hand, the sensor fusion system 100 adds up the horizontal distance between the virtual line and the plurality of radar measurement points based on the virtual line corresponding to the heading direction (Yaw) of the vehicle passing through the expected center point of the target. The method may further include calculating a third cost function. If the sensor fusion system 100 performs three simulations in consideration of the possibility of lane change of surrounding vehicles as shown in FIG. 11 , three versions of the third cost function may be further calculated as described above. In this case, the sensor fusion system 100 compares the first cost function, the second cost function, and the three third cost functions, selects a cost function having a minimum cost function value among a total of five cost functions, and uses the method according to the method. It is possible to determine the position information of the surrounding vehicle calculated based on the final position information.

본 발명에 따른 실시 예는 컴퓨터 상에서 다양한 구성요소를 통하여 실행될 수 있는 컴퓨터 프로그램의 형태로 구현될 수 있으며, 이와 같은 컴퓨터 프로그램은 컴퓨터로 판독 가능한 매체에 기록될 수 있다. 이때, 매체는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등과 같은, 프로그램 명령어를 저장하고 실행하도록 특별히 구성된 하드웨어 장치를 포함할 수 있다.Embodiments according to the present invention may be implemented in the form of a computer program that can be executed through various components on a computer, and such a computer program may be recorded in a computer-readable medium. In this case, the medium includes a hard disk, a magnetic medium such as a floppy disk and a magnetic tape, an optical recording medium such as a CD-ROM and DVD, a magneto-optical medium such as a floppy disk, and a ROM. , RAM, flash memory, and the like, hardware devices specially configured to store and execute program instructions.

한편, 상기 컴퓨터 프로그램은 본 발명을 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 프로그램의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함될 수 있다.Meanwhile, the computer program may be specially designed and configured for the present invention, or may be known and used by those skilled in the computer software field. Examples of the computer program may include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like.

일 실시 예에 따르면, 본 개시의 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to an embodiment, the method according to various embodiments of the present disclosure may be provided by being included in a computer program product. Computer program products may be traded between sellers and buyers as commodities. The computer program product is distributed in the form of a machine-readable storage medium (eg compact disc read only memory (CD-ROM)), or via an application store (eg Play Store™) or between two user devices. It can be distributed directly or online (eg, downloaded or uploaded). In the case of online distribution, at least a portion of the computer program product may be temporarily stored or temporarily created in a machine-readable storage medium such as a memory of a server of a manufacturer, a server of an application store, or a relay server.

본 발명에 따른 방법을 구성하는 단계들에 대하여 명백하게 순서를 기재하거나 반하는 기재가 없다면, 상기 단계들은 적당한 순서로 행해질 수 있다. 반드시 상기 단계들의 기재 순서에 따라 본 발명이 한정되는 것은 아니다. 본 발명에서 모든 예들 또는 예시적인 용어(예들 들어, 등등)의 사용은 단순히 본 발명을 상세히 설명하기 위한 것으로서 특허청구범위에 의해 한정되지 않는 이상 상기 예들 또는 예시적인 용어로 인해 본 발명의 범위가 한정되는 것은 아니다. 또한, 당업자는 다양한 수정, 조합 및 변경이 부가된 특허청구범위 또는 그 균등물의 범주 내에서 설계 조건 및 팩터에 따라 구성될 수 있음을 알 수 있다.The steps constituting the method according to the present invention may be performed in an appropriate order, unless the order is explicitly stated or there is no description to the contrary. The present invention is not necessarily limited to the order in which the steps are described. The use of all examples or exemplary terms (eg, etc.) in the present invention is merely for the purpose of describing the present invention in detail, and the scope of the present invention is limited by the examples or exemplary terms unless defined by the claims. it's not going to be In addition, those skilled in the art will appreciate that various modifications, combinations, and changes may be made in accordance with design conditions and factors within the scope of the appended claims or their equivalents.

따라서, 본 발명의 사상은 상기 설명된 실시 예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 또는 이로부터 등가적으로 변경된 모든 범위는 본 발명의 사상의 범주에 속한다고 할 것이다.Therefore, the spirit of the present invention should not be limited to the above-described embodiments, and the scope of the spirit of the present invention is not limited to the scope of the scope of the present invention. will be said to belong to

10: 차량
15: 주변 차량
100: 센서 퓨전 시스템
110: 레이더
120: 카메라
130: 프로세서
10: vehicle
15: surrounding vehicles
100: sensor fusion system
110: radar
120: camera
130: processor

Claims (9)

주변 차량의 위치를 산출하는 방법에 있어서,
레이더를 통해 감지되는 복수개의 레이더 측정 포인트들로부터 주변 차량으로 추정되는 타겟에 대한 위치 정보를 산출하는 제1 방법;
카메라 및 레이더간 센서 퓨전 영상에 포함된 주변 차량을 타겟으로 인식하고, 상기 타겟에 대한 위치 정보를 트래킹하는 제2 방법;
제1 방법 및 제2 방법 중 적어도 하나에 기초하여 추정되거나 인식된 각각의 타겟에 대해 타겟의 중심점을 이용하여 비용 함수를 산출하는 단계; 및
상기 산출한 각각의 타겟에 대한 비용 함수를 비교하여 최적의 비용 함수값을 선택하고, 상기 선택된 비용 함수를 기초로 타겟에 대한 위치 정보를 산출하는 단계;를 포함하고,
상기 비용 함수를 산출하는 단계는,
상기 제1 방법에 의해 추정된 타겟의 횡방향 중심점에 수직한 가상선을 기준으로, 상기 가상선과 복수개의 레이더 측정 포인트들 사이 수평 거리를 합산한 제1 비용 함수를 계산하는 단계;
상기 제2 방법에 의해 인식된 주변 차량을 타겟으로 하여 각 타겟에 설정된 바인딩 박스의 중심점을 관통하는 차량의 헤딩 방향(Yaw)에 상응하는 가상선을 기준으로, 상기 가상선과 상기 복수개의 레이더 측정 포인트들 사이 수평 거리를 합산한 제2 비용 함수를 계산하는 단계; 및
상기 제1 비용 함수와 상기 제2 비용 함수를 비교하여 최소의 비용 함수값을 가지는 타겟을 선택하는 단계;를 포함하는, 방법.
In the method of calculating the position of the surrounding vehicle,
a first method of calculating location information on a target estimated as a nearby vehicle from a plurality of radar measurement points sensed through a radar;
a second method of recognizing a surrounding vehicle included in a sensor fusion image between a camera and a radar as a target, and tracking location information about the target;
calculating a cost function using a center point of the target for each target estimated or recognized based on at least one of the first method and the second method; and
Comparing the calculated cost functions for each target, selecting an optimal cost function value, and calculating location information on the target based on the selected cost function;
Calculating the cost function comprises:
calculating a first cost function summing the horizontal distances between the virtual line and the plurality of radar measurement points based on an imaginary line perpendicular to the lateral center point of the target estimated by the first method;
Based on the virtual line corresponding to the heading direction (Yaw) of the vehicle passing through the center point of the binding box set in each target by targeting the surrounding vehicle recognized by the second method, the virtual line and the plurality of radar measurement points calculating a second cost function summing the horizontal distances between them; and
comparing the first cost function and the second cost function to select a target having a minimum cost function value.
제1항에 있어서,
상기 제1 방법은,
레이더에서 전파를 방사하고, 객체에 반사되어 입사되는 반사파들을 감지함으로써 복수개의 레이더 측정 포인트들을 획득하는 단계;
타겟 검출 확률에 기반하여 상기 복수개의 레이더 측정 포인트들을 소정의 그룹으로 클러스터링하는 단계;
연속적으로 획득되는 복수개의 레이더 측정 포인트들을 이용하여 상기 클러스터링된 그룹을 업데이트함으로써 연속성을 유지하는 클러스터링된 그룹을 주변 차량으로 추정하는 단계;를 포함하는, 방법.
The method of claim 1,
The first method is
acquiring a plurality of radar measurement points by emitting radio waves from the radar and detecting reflected waves that are reflected and incident on an object;
clustering the plurality of radar measurement points into a predetermined group based on a target detection probability;
estimating the clustered group maintaining continuity as surrounding vehicles by updating the clustered group using a plurality of continuously acquired radar measurement points.
제1항에 있어서,
상기 제2 방법은,
상기 센서 퓨전 영상에 객체 인식 알고리즘을 적용하여 주변 차량을 검출하는 단계;
상기 주변 차량 영역에 대한 바인딩 박스를 설정하고, 상기 바인딩 박스가 설정된 영역을 타겟으로, 상기 타겟에 대한 위치 정보를 트래킹하는 단계;를 포함하는, 방법.
According to claim 1,
The second method is
detecting a surrounding vehicle by applying an object recognition algorithm to the sensor fusion image;
Setting a binding box for the surrounding vehicle area, and tracking the location information on the target with the area in which the binding box is set as a target;
제3항에 있어서,
상기 타겟에 대한 위치 정보를 트래킹하는 단계는,
상기 센서 퓨전 영상 중 이전의 이미지 프레임과 현재 이미지 프레임을 비교함으로써 상기 타겟의 실시간 위치 변화를 반영한 타겟에 대한 연속적인 위치 정보를 산출하는 단계인, 방법.
4. The method of claim 3,
The step of tracking the location information for the target,
Comparing a previous image frame and a current image frame among the sensor fusion image, calculating continuous position information about the target reflecting the real-time position change of the target, the method.
삭제delete 제1 항에 있어서,
상기 비용 함수를 산출하는 단계는,
이전에 결정된 타겟의 위치 정보를 누적함으로써 소정의 커브 곡선을 산출하는 단계;
상기 커브 곡선 및 차량의 이동 가능 영역을 고려한 현재 시점의 타겟의 위치 정보를 예상하는 단계;
예상되는 타겟의 중심점을 관통하는 차량의 헤딩 방향(Yaw)에 상응하는 가상선을 기준으로, 상기 가상선과 상기 복수개의 레이더 측정 포인트들 사이 수평 거리를 합산한 제3 비용 함수를 계산하는 단계를 더 포함하는, 방법.
The method of claim 1,
Calculating the cost function comprises:
calculating a predetermined curve curve by accumulating previously determined target position information;
estimating the location information of the target at the current time in consideration of the curve curve and the movable area of the vehicle;
Based on the virtual line corresponding to the heading direction (Yaw) of the vehicle passing through the expected center point of the target, calculating a third cost function summing the horizontal distance between the virtual line and the plurality of radar measurement points further Including method.
레이더 및 카메라 기반의 센서 퓨전 시스템에 있어서,
주변에 전파를 방사하고, 객체에 반사되어 입사되는 반사파들을 감지함으로써 객체와의 횡방향 거리 정보를 산출하는 레이더;
차량의 전방, 후방, 측면 중 적어도 하나의 위치에 탑재되고, 촬영 영상을 획득하여 프로세서에 전달하는 카메라;
상기 레이더 및 카메라를 캘리브레이션하고,
상기 레이더로부터 획득한 객체와의 횡방향 거리 정보 및 상기 촬영 영상을 정합함으로써 센서 퓨전 영상을 생성하고,
레이더 측정 포인트들 및 상기 센서 퓨전 영상을 해석함으로써 주변 차량의 위치를 산출하는, 프로세서;를 포함하는, 센서 퓨전 시스템
In the radar and camera-based sensor fusion system,
a radar that emits radio waves to the surroundings and detects reflected waves that are reflected and incident on the object, thereby calculating lateral distance information with the object;
a camera mounted on at least one of the front, rear, and side of the vehicle, the camera acquires the captured image and transmits it to the processor;
calibrate the radar and camera;
generating a sensor fusion image by matching the lateral distance information with the object acquired from the radar and the captured image,
A processor that calculates a location of a nearby vehicle by analyzing the radar measurement points and the sensor fusion image; including a sensor fusion system
제7항에 있어서,
상기 프로세서가 주변 차량의 위치를 산출하는 것은,
레이더를 통해 감지되는 복수개의 레이더 측정 포인트들로부터 주변 차량으로 추정되는 타겟에 대한 위치 정보를 산출하는 제1 방법;
카메라 및 레이더간 센서 퓨전 영상에 포함된 주변 차량을 타겟으로 인식하고, 상기 타겟에 대한 위치 정보를 트래킹하는 제2 방법;
제1 방법 및 제2 방법 중 적어도 하나에 기초하여 추정되거나 인식된 각각의 타겟에 대해 타겟의 중심점을 이용하여 비용 함수를 산출하고,
상기 산출한 각각의 타겟에 대한 비용 함수를 비교하여 최적의 비용 함수값을 선택하고, 상기 선택된 비용 함수를 기초로 타겟에 대한 위치 정보를 산출하는 것을 포함하고,
상기 비용 함수를 산출하는 것은,
상기 제1 방법에 의해 추정된 타겟의 횡방향 중심점에 수직한 가상선을 기준으로, 상기 가상선과 복수개의 레이더 측정 포인트들 사이 수평 거리를 합산한 제1 비용 함수를 계산하고,
상기 제2 방법에 의해 인식된 주변 차량을 타겟으로 하여 각 타겟에 설정된 바인딩 박스의 중심점을 관통하는 차량의 헤딩 방향(Yaw)에 상응하는 가상선을 기준으로, 상기 가상선과 상기 복수개의 레이더 측정 포인트들 사이 수평 거리를 합산한 제2 비용 함수를 계산하고,
상기 제1 비용 함수와 상기 제2 비용 함수를 비교하여 최소의 비용 함수값을 가지는 타겟을 선택하는 것을 포함하는, 센서 퓨전 시스템.
8. The method of claim 7,
Calculating the location of the surrounding vehicle by the processor,
a first method of calculating location information on a target estimated as a nearby vehicle from a plurality of radar measurement points sensed through a radar;
a second method of recognizing a surrounding vehicle included in a sensor fusion image between a camera and a radar as a target, and tracking location information about the target;
calculating a cost function using the center point of the target for each target estimated or recognized based on at least one of the first method and the second method;
Comparing the calculated cost functions for each target, selecting an optimal cost function value, and calculating location information about the target based on the selected cost function,
Calculating the cost function is
Based on an imaginary line perpendicular to the lateral center point of the target estimated by the first method, calculate a first cost function summing the horizontal distance between the imaginary line and a plurality of radar measurement points,
Based on the virtual line corresponding to the heading direction (Yaw) of the vehicle passing through the center point of the binding box set in each target by targeting the surrounding vehicle recognized by the second method, the virtual line and the plurality of radar measurement points Calculate a second cost function summing the horizontal distances between the
and selecting a target having a minimum cost function value by comparing the first cost function and the second cost function.
제1항의 방법을 컴퓨터에서 실행하기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.A computer-readable recording medium in which a program for executing the method of claim 1 in a computer is recorded.
KR1020220002998A 2022-01-07 2022-01-07 Sensor fusion system based on radar and camera and method of calculating the location of nearby vehicles KR102456151B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220002998A KR102456151B1 (en) 2022-01-07 2022-01-07 Sensor fusion system based on radar and camera and method of calculating the location of nearby vehicles

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220002998A KR102456151B1 (en) 2022-01-07 2022-01-07 Sensor fusion system based on radar and camera and method of calculating the location of nearby vehicles

Publications (1)

Publication Number Publication Date
KR102456151B1 true KR102456151B1 (en) 2022-10-20

Family

ID=83804940

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220002998A KR102456151B1 (en) 2022-01-07 2022-01-07 Sensor fusion system based on radar and camera and method of calculating the location of nearby vehicles

Country Status (1)

Country Link
KR (1) KR102456151B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117636671A (en) * 2024-01-24 2024-03-01 四川君迪能源科技有限公司 Cooperation scheduling method and system for intelligent vehicle meeting of rural roads
KR102672321B1 (en) * 2023-10-26 2024-06-07 (주)이씨스 Sensor fusion system and method using multiple radars and cameras
KR102672315B1 (en) * 2023-10-26 2024-06-07 (주)이씨스 System and method for calculating the location of surrounding objects based on sensor fusion

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140114594A (en) * 2013-03-19 2014-09-29 주식회사 일리시스 Auto-Camera Calibration Method Based on Human Object Tracking
KR20190053612A (en) * 2017-11-10 2019-05-20 현대오트론 주식회사 Apparatus for tracking vehicle and operating method thereof
KR20210029927A (en) * 2019-09-09 2021-03-17 주식회사 만도 RaDAR apparatus, recognizing target Method of RaDAR apparatus, and system for controlling vehicle including it
KR20210122101A (en) * 2020-03-31 2021-10-08 주식회사 비트센싱 Radar apparatus and method for classifying object

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140114594A (en) * 2013-03-19 2014-09-29 주식회사 일리시스 Auto-Camera Calibration Method Based on Human Object Tracking
KR20190053612A (en) * 2017-11-10 2019-05-20 현대오트론 주식회사 Apparatus for tracking vehicle and operating method thereof
KR20210029927A (en) * 2019-09-09 2021-03-17 주식회사 만도 RaDAR apparatus, recognizing target Method of RaDAR apparatus, and system for controlling vehicle including it
KR20210122101A (en) * 2020-03-31 2021-10-08 주식회사 비트센싱 Radar apparatus and method for classifying object

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102672321B1 (en) * 2023-10-26 2024-06-07 (주)이씨스 Sensor fusion system and method using multiple radars and cameras
KR102672315B1 (en) * 2023-10-26 2024-06-07 (주)이씨스 System and method for calculating the location of surrounding objects based on sensor fusion
CN117636671A (en) * 2024-01-24 2024-03-01 四川君迪能源科技有限公司 Cooperation scheduling method and system for intelligent vehicle meeting of rural roads
CN117636671B (en) * 2024-01-24 2024-04-30 四川君迪能源科技有限公司 Cooperation scheduling method and system for intelligent vehicle meeting of rural roads

Similar Documents

Publication Publication Date Title
KR102456151B1 (en) Sensor fusion system based on radar and camera and method of calculating the location of nearby vehicles
KR102338370B1 (en) Vehicle and sensing device of utilizing spatial information acquired using sensor, and server for the same
Barth et al. Estimating the driving state of oncoming vehicles from a moving platform using stereo vision
Rodríguez Flórez et al. Multi-modal object detection and localization for high integrity driving assistance
KR102151814B1 (en) Method and Apparatus for Vehicle Detection Using Ladar Sensor and Camera
KR101882483B1 (en) Apparatus and method for detecting obstacle by unmanned surface vessel
EP3851870A1 (en) Method for determining position data and/or motion data of a vehicle
US11958480B2 (en) Electronic control device and operation method
Muresan et al. Multi-object tracking of 3D cuboids using aggregated features
JPWO2012086821A1 (en) Positioning device and positioning method
EP1649334A1 (en) Sensing apparatus for vehicles
US20230236038A1 (en) Position estimation method, position estimation device, and position estimation program
JP6589410B2 (en) Map generating apparatus and program
KR20190051601A (en) Apparatus and method for associating sensor data of vehicle
CN114002667A (en) Multi-neighbor extended target tracking algorithm based on random matrix method
CN116681730A (en) Target tracking method, device, computer equipment and storage medium
Muresan et al. Multimodal sparse LIDAR object tracking in clutter
JP5168134B2 (en) ENVIRONMENTAL MAP GENERATION PROGRAM, ENVIRONMENTAL MAP GENERATION METHOD, AND MOBILE ROBOT
CN113160280B (en) Dynamic multi-target tracking method based on laser radar
US11288554B2 (en) Determination method and determination device
Diaz-Ruiz et al. Vision-only 3d tracking for self-driving cars
Christiansen et al. Monocular vehicle distance sensor using HOG and Kalman tracking
KR102618680B1 (en) Real-time 3D object detection and tracking system using visual and LiDAR
CN114119465B (en) Point cloud data processing method and device
US20230103178A1 (en) Systems and methods for onboard analysis of sensor data for sensor fusion

Legal Events

Date Code Title Description
GRNT Written decision to grant