KR20190053612A - Apparatus for tracking vehicle and operating method thereof - Google Patents

Apparatus for tracking vehicle and operating method thereof Download PDF

Info

Publication number
KR20190053612A
KR20190053612A KR1020170149685A KR20170149685A KR20190053612A KR 20190053612 A KR20190053612 A KR 20190053612A KR 1020170149685 A KR1020170149685 A KR 1020170149685A KR 20170149685 A KR20170149685 A KR 20170149685A KR 20190053612 A KR20190053612 A KR 20190053612A
Authority
KR
South Korea
Prior art keywords
radar
logic
coordinate
vehicle
coordinates
Prior art date
Application number
KR1020170149685A
Other languages
Korean (ko)
Other versions
KR102008257B1 (en
Inventor
김봉주
Original Assignee
현대오트론 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대오트론 주식회사 filed Critical 현대오트론 주식회사
Priority to KR1020170149685A priority Critical patent/KR102008257B1/en
Publication of KR20190053612A publication Critical patent/KR20190053612A/en
Application granted granted Critical
Publication of KR102008257B1 publication Critical patent/KR102008257B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • B60W30/16Control of distance between vehicles, e.g. keeping a distance to preceding vehicle
    • B60W30/165Automatically following the path of a preceding lead vehicle, e.g. "electronic tow-bar"
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0214Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • B60W2420/42
    • B60W2420/52
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/802Longitudinal distance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2300/00Purposes or special features of road vehicle drive control systems
    • B60Y2300/14Cruise control
    • B60Y2300/16Control of distance between vehicles, e.g. keeping a distance to preceding vehicle
    • B60Y2300/165Automatically following the path of a preceding lead vehicle, e.g. "electronic tow-bar"

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Traffic Control Systems (AREA)

Abstract

According to the present invention, an apparatus for tracking a vehicle comprises: a radar transmitting a radar signal to a front vehicle, and receiving the reflected radar signal to generate first vehicle information with respect to the front vehicle; a camera generating second vehicle information by detecting an image of the front vehicle; and a front vehicle tracking device tracking the front vehicle based on the first vehicle information, the second vehicle information, and lane information. The front vehicle tracking device has sensor fusion logic for fusing the first vehicle information with the second vehicle information using the lane information and search logic for tracking the front vehicle in a curve road driving condition.

Description

차량 추적 장치 및 그것의 동작 방법{APPARATUS FOR TRACKING VEHICLE AND OPERATING METHOD THEREOF}[0001] APPARATUS FOR TRACKING VEHICLE AND OPERATING METHOD THEREOF [0002]

본 발명은 차량 추적 장치 및 그것의 동작 방법에 관한 것이다.The present invention relates to a vehicle tracking apparatus and a method of operating the same.

최근 대부분의 차량에는 내비게이션이 장착되어, 운전자에게 목적지와 길 안내를 제공하도록 하고 있으며, 또한 최근에는 차량의 앞 유리창에 원하는 정보를 투사하여 운전자가 전방을 주시하면서도 투사된 정보를 획득할 수 있도록 하는 헤드업 디스플레이(HUD; head-up display)를 장착한 차량이 출시되고 있기도 하다. 나아가 상기 헤드업 디스플레이를 통해 특정 정보를 증강현실의 형식으로 디스플레이 할 수 있도록 하는 연구가 진행되고 있는 상황이다. 증강 현실 헤드 업 디스플레이 장치의 레이저와 비전 센서 퓨전 기술과 관련된 기존 연구는 주로 전방 차량의 인지와 관련된 연구가 주를 이루고 있다. 전방 차량의 추적과 관련된 연구는 전방 객체 주변의 차선 정보를 추정하여, 전방 객체가 호스트(호스트) 차량의 진행 방향에 있는지를 판단하는 연구들이 진행되어 오고 있다. 이와 관련된 기존 연구들에선 전방 객체가 호스트 차량의 차선 내에 있는지를 판단할 때, 차선이 희미하거나 끊어진 경우 로직(로직)의 판단에 문제를 일으켜, 잘못된 객체를 추적할 수 있으며, 차선이 없는 경우 전방 차량을 인지하기 힘든 문제가 있다.In recent years, most vehicles have been equipped with a navigation system, which allows the driver to provide the destination and route guidance. In recent years, the user has also been able to project desired information to the windshield of the vehicle, Vehicles with a head-up display (HUD) are also on the market. Further, studies are being conducted to enable specific information to be displayed in the form of an augmented reality through the head-up display. Conventional researches related to laser and vision sensor fusion technologies of augmented reality head-up display devices are mainly focused on the recognition of forward vehicles. Studies related to the tracking of the front vehicle have been conducted to estimate the lane information around the front object and determine whether the front object is in the traveling direction of the host vehicle. In previous researches related to this, when judging whether the front object is in the lane of the host vehicle, it is possible to track the wrong object by causing the judgment of the logic (logic) when the lane is blurred or broken, There is a problem that is difficult to recognize the vehicle.

등록특허: 10-1644370, 등록일: 2016년 07월 26일, 제목: 물체 검출 장치 및 그 동작 방법.Registered Patent: 10-1644370, Registered Date: Jul. 26, 2016 Title: Object Detecting Apparatus and Its Operation Method. 등록특허: 10-1742365, 등록일: 2017년 05월 25일, 제목: 다른 차량들의 예측 동작에 기초하는 자율 차량의 동작 변경.Registered Patent: 10-1742365, Registered: May 25, 2017 Title: Change in the behavior of autonomous vehicles based on the predictive behavior of other vehicles. 공개특허: 10-2015-0055181, 공개일: 2015년 05월 21일, 제목: 헤드-업 디스플레이를 이용한 나이트 비전 정보 표시 장치 및 방법.Open Patent: 10-2015-0055181, Pub. Date: May 21, 2015 Title: Apparatus and method for displaying night vision information using head-up display.

본 발명의 목적은 차선이 없더라도 전방 차량을 인지하는 차량 추적 장치 및 그것의 동작 방법을 제공하는데 있다.It is an object of the present invention to provide a vehicle tracking apparatus that recognizes a front vehicle even when there is no lane and an operation method thereof.

본 발명의 실시 예에 따른 차량 추적 장치의 동작 방법은: 호스트 차량의 차선 정보를 근거로 하여 상기 호스트 차량의 직전 주행 인지를 판별하는 단계; 상기 호스트 차량이 직진 주행이라면, 레이더에서 감지한 타겟의 좌표와 카메라에서 감지한 타겟들의 좌표 사이의 거리를 계산하는 단계; 상기 계산된 거리들 중에서 제 1 최소 거리, 상기 제 1 최소 거리보다 긴 제 2 최소 거리, 및 상기 제 2 최소 거리보다 긴 제 3 최소 거리에 대응하는 상기 카메라의 좌표들을 추출하는 단계; 상기 추출된 좌표들의 각각과 상기 호스트 차량의 차선 내의 횡방향 좌표 혹은 종방향 좌표와의 상대 각도를 계산하는 단계; 및 상기 계산된 상대 각도를 이용하여 상기 추출된 좌표들 중에서 어느 하나를 상기 타겟의 출력 좌표로 선택하는 단계를 포함할 수 있다.A method of operating a vehicle tracking device according to an embodiment of the present invention includes: determining whether the host vehicle is driving immediately on the basis of lane information of the host vehicle; Calculating the distance between the coordinates of the target sensed by the radar and the coordinates of the targets sensed by the camera if the host vehicle is a straight run; Extracting coordinates of the camera corresponding to a first minimum distance, a second minimum distance longer than the first minimum distance, and a third minimum distance longer than the second minimum distance among the calculated distances; Calculating a relative angle between each of the extracted coordinates and a lateral or longitudinal coordinate within a lane of the host vehicle; And selecting one of the extracted coordinates as the output coordinates of the target using the calculated relative angle.

실시 예에 있어서, 상기 호스트 차량이 직진 주행이 아니라면, 상기 1 최소 거리에 대응하는 카메라 좌표와 상기 레이더의 좌표 중에서 어느 하나를 선택하기 위하여 프론트_디펜스_로직을 수행하는 단계를 더 포함할 수 있다.In the embodiment, if the host vehicle is not in the straight run, performing the front_dest_logic to select one of the camera coordinates corresponding to the one minimum distance and the coordinates of the radar .

실시 예에 있어서, 상기 프론트_디펜스_로직을 수행하는 단계는, 커브 비율이 노면 각도의 문턱값보다 크고, 상기 레이더의 종방향 좌표가 종방향 레이더 좌표의 최대값이라면, 상기 레이더 좌표를 선택하는 단계를 포함할 수 있다.In one embodiment, the step of performing the front_destination_logic logic comprises: if the curve ratio is greater than the threshold value of the road surface angle and the longitudinal coordinate of the radar is the maximum value of the longitudinal radar coordinate, Step < / RTI >

실시 예에 있어서, 커브 비율이 노면 각도의 문턱값보다 크지 않거나, 혹은 상기 레이더의 종방향 좌표가 종방향 레이더 좌표의 최대값이 아니라면, 탐색 알고리즘에 의해 미들_디펜스_로직을 수행하는 단계를 포함할 수 있다.In the embodiment, if the curve ratio is not greater than the threshold of the road surface angle, or if the longitudinal coordinate of the radar is not the maximum value of the longitudinal radar coordinate, performing the middle_dest_ logic by the search algorithm can do.

실시 예에 있어서, 상기 미들_디펜스_로직을 수행하는 단계는, 상기 레이더의 횡방향 좌표가 0이 아니거나, 혹은 상기 호스트 차량의 차선 내에 센서 퓨전 로직의 출력 좌표가 있지 않을 때, 상기 센서 퓨전 로직의 출력 좌표를 선택하는 단계를 포함할 수 있다.In one embodiment, performing the middle_destination logic comprises: when the lateral coordinate of the radar is not zero, or when there is no output coordinate of the sensor fusion logic in the lane of the host vehicle, And selecting the output coordinates of the logic.

실시 예에 있어서, 상기 미들_디펜스_로직을 수행하는 단계는, 상기 레이더의 횡방향 좌표가 0 이면서 상기 호스트 차량의 차선 내에 센서 퓨전 로직의 출력 좌표가 존재할 때, 상기 레이더의 종방향 좌표와 상기 카메라의 종방향 좌표의 차이가 사전에 결정된 문턱값보다 작은 지를 판별하는 단계; 및 상기 레이더의 종방향 좌표와 상기 카메라의 종방향 좌표의 차이가 상기 사전에 결정된 문턱값보다 작을 때 상기 레이더 좌표를 선택하는 단계를 포함할 수 있다.In the embodiment, the step of performing the middle_destination_logic logic may further include, when the lateral coordinates of the radar are zero and the output coordinates of the sensor fusion logic are present in the lane of the host vehicle, Determining whether the difference in the longitudinal coordinates of the camera is less than a predetermined threshold; And selecting the radar coordinate when the difference between the longitudinal coordinate of the radar and the longitudinal coordinate of the camera is less than the predetermined threshold value.

실시 예에 있어서, 상기 미들_디펜스_로직을 수행하는 단계는, 상기 레이더의 종방향 좌표와 상기 카메라의 종방향 좌표의 차이가 사전에 결정된 문턱값보다 작지 않을 때, 상기 레이더의 종방향 좌표가 종방향 레이더 좌표의 최대값인 지를 판별하는 단계; 상기 호스트 차량의 차선 내에 센서 퓨전 로직의 출력 좌표가 있는 지를 판별하는 단계; 및 상기 레이더의 종방향 좌표가 상기 종방향 레이더 좌표의 최대값이면서 상기 호스트 차량의 차선 내에 상기 센서 퓨전 로직의 출력 좌표가 있을 때, 상기 레이더 좌표를 선택하는 단계를 포함할 수 있다.In one embodiment, the step of performing the middle_destination_logic logic comprises: when the difference between the longitudinal coordinate of the radar and the longitudinal coordinate of the camera is not less than a predetermined threshold, Determining whether the longitudinal radar coordinate is a maximum value; Determining whether the output coordinate of the sensor fusion logic is present in the lane of the host vehicle; And selecting the radar coordinate when the longitudinal coordinate of the radar is the maximum value of the longitudinal radar coordinate and the output coordinate of the sensor fusion logic is in the lane of the host vehicle.

실시 예에 있어서, 상기 미들_디펜스_로직을 수행하는 단계는, 상기 레이더의 종방향 좌표가 종방향 레이더 좌표의 최대값보다 크거나 같은지를 판별하는 단계; 상기 호스트 차량의 차선 내에 센서 퓨전 로직의 출력 좌표가 있는 지를 판별하는 단계; 및 상기 레이더의 종방향 좌표가 상기 종방향 레이더 좌표의 최대값 보다 크거나 같으면서 상기 호스트 차량의 차선 내에 센서 퓨전 로직의 출력 좌표가 있을 때, 종방향 좌표를 종방향 레이더 최대값으로, 횡방향 좌표를 0으로 초기화시키는 단계를 포함할 수 있다.In one embodiment, performing the middle_destination logic comprises: determining whether the longitudinal coordinate of the radar is greater than or equal to a maximum value of the longitudinal radar coordinate; Determining whether the output coordinate of the sensor fusion logic is present in the lane of the host vehicle; And when the longitudinal coordinate of the radar is greater than or equal to the maximum value of the longitudinal radar coordinates and there is an output coordinate of the sensor fusion logic in the lane of the host vehicle, the longitudinal coordinate is set as the longitudinal radar maximum value, Gt; 0 < / RTI >

실시 예에 있어서, 상기 미들_디펜스_로직을 수행하는 단계는, 상기 레이더의 종방향 좌표가 상기 종방향 레이더 좌표의 최대값 보다 작거나 혹은 상기 호스트 차량의 차선 내에 센서 퓨전 로직의 출력 좌표가 있지 않을 때, 상기 레이더의 횡방향 좌표와 상기 카메라의 횡방향 좌표의 차이가 상기 호스트 차량의 좌표보다 큰 지를 판별하는 단계; 상기 호스트 차량의 차선 내에 센서 퓨전 로직의 출력 좌표가 있는 지를 판별하는 단계; 및 상기 레이더의 횡방향 좌표와 상기 카메라의 횡방향 좌표의 차이가 상기 호스트 차량의 좌표보다 크면서 상기 호스트 차량의 차선 내에 상기 센서 퓨전 로직의 출력 좌표가 있을 때, 상기 레이더 좌표를 선택하는 단계를 포함할 수 있다.In one embodiment, the step of performing the middle_destination_logic logic comprises: if the longitudinal coordinate of the radar is less than a maximum value of the longitudinal radar coordinate, or if the output coordinate of the sensor fusion logic is within the lane of the host vehicle Determining whether a difference between the lateral coordinate of the radar and the lateral coordinate of the camera is larger than the coordinates of the host vehicle, Determining whether the output coordinate of the sensor fusion logic is present in the lane of the host vehicle; And selecting the radar coordinate when the difference between the lateral coordinate of the radar and the lateral coordinate of the camera is larger than the coordinates of the host vehicle and the output coordinate of the sensor fusion logic is present in the lane of the host vehicle .

실시 예에 있어서, 상기 레이더의 횡방향 좌표와 상기 카메라의 횡방향 좌표의 차이가 상기 호스트 차량의 좌표보다 크지 않거나 혹은 상기 호스트 차량의 차선 내에 상기 센서 퓨전 로직의 출력 좌표가 있지 않을 때, 리어_디펜스_로직을 수행하는 단계를 더 포함할 수 있다.When the difference between the lateral coordinate of the radar and the lateral coordinate of the camera is not larger than the coordinates of the host vehicle or when there is no output coordinate of the sensor fusion logic in the lane of the host vehicle, Defense < RTI ID = 0.0 > logic. ≪ / RTI >

실시 예에 있어서, 상기 리어_디펜스_로직을 수행하는 단계는, 상기 프론트_디펜스_로직에서 선택한 좌표, 상기 미들_디펜스_로직에서 선택한 좌표, 및 상기 레이더 좌표 중에서 어느 하나를 상기 타겟의 출력 좌표로 선택하는 단계를 포함할 수 있다.In one embodiment, the step of performing the Rear_Destination_logic logic may include: selecting one of the coordinates selected by the front_destination_logic, the coordinates selected by the middle_destination_ logic, and the radar coordinates as the output coordinates As shown in FIG.

본 발명의 실시 예에 따른 차량 추적 장치는, 레이더 신호를 전방 차량에 송신하고, 반사되는 레이더 신호를 수신함으로써 상기 전방 차량에 대한 제 1 차량 정보를 발생하는 레이더; 상기 전방 차량의 영상을 감지함으로써 제 2 차량 정보를 발생하는 카메라; 및 상기 제 1 차량 정보, 상기 제 2 차량 정보 및 차선 정보를 근거로 하여 상기 전방 차량을 추적하는 전방 차량 추적기를 포함하고, 상기 전방 차량 추적기는, 상기 차선 정보를 이용하여 상기 제 1 차량 정보와 상기 제 2 차량 정보를 융합하는 센서 퓨전 로직; 및 커브 길 주행 조건에서 상기 전방 차량을 추적하기 위한 탐색 로직을 포함할 수 있다.A vehicle tracking apparatus according to an embodiment of the present invention includes: a radar that transmits a radar signal to a preceding vehicle and generates first vehicle information for the preceding vehicle by receiving a reflected radar signal; A camera for generating second vehicle information by sensing an image of the preceding vehicle; And a forward vehicle tracker that tracks the forward vehicle based on the first vehicle information, the second vehicle information, and the lane information, wherein the forward vehicle tracker uses the lane information to generate the first vehicle information and the second vehicle information, Sensor fusion logic fusing the second vehicle information; And search logic for tracking the forward vehicle in curve road driving conditions.

실시 예에 있어서, 상기 센서 퓨전 로직은 최소 거리 탐색 알고리즘에 의거하여 상기 레이더에서 감지한 상기 전방 차량의 좌표와 상기 카메라에서 감지한 상기 전방 차량의 좌표 사이의 상대적인 유클리디안 거리를 계산할 수 있다.In an embodiment, the sensor fusion logic may calculate a relative Euclidean distance between the coordinates of the preceding vehicle sensed by the radar and the coordinates of the preceding vehicle sensed by the camera based on a minimum distance search algorithm.

실시 예에 있어서, 상기 센서 퓨전 로직은 호스트 차량이 커브 길을 주행할 때 상기 카메라의 좌표를 상기 전방 차량의 좌표로 선택하는 프론트_디펜스_로직을 포함할 수 있다.In an embodiment, the sensor fusion logic may include front_display_ logic for selecting the coordinates of the camera as the coordinates of the front vehicle when the host vehicle is traveling along a curve path.

실시 예에 있어서, 상기 탐색 로직은 커브 비율이 노면 각도의 문턱값보다 크거나 혹은 상기 레이더의 종방향 좌표가 최대값이 아닐 때 외란이 있는 운전 상황을 고려하여 상기 전방 차량의 좌표를 선택하는 미들_디펜스_로직을 포함할 수 있다.In one embodiment, the search logic is configured to select the coordinates of the preceding vehicle in consideration of a driving situation in which disturbance occurs when the curve ratio is larger than a threshold value of the road surface angle, or when the longitudinal coordinate of the radar is not the maximum value. Gt; _ < / RTI > defense logic.

실시 예에 있어서, 상기 탐색 로직의 출력값을 수신하고, 상기 전방 차량에 대한 최종적인 출력 좌표를 출력하는 리어_디펜스_로직을 갖는 조합 결정 로직을 더 포함할 수 있다.In an embodiment, the apparatus may further comprise a combinational decision logic having a rear_dest_logic for receiving an output value of the search logic and outputting a final output coordinate for the preceding vehicle.

본 발명의 실시 예에 따른 전방 차량 추적 장치 및 그것의 동작 방법은, 최대 2가지 조건만을 비교하는 디펜스 로직들로 호스 차량의 진행 경로 차선 내의 전방 타겟 차량을 추적할 수 있기 때문에 판단 알고리즘 구조가 단순하다.The forward vehicle tracking apparatus and the operation method thereof according to the embodiment of the present invention are capable of tracking the forward target vehicle in the course lanes of the hose vehicle with the defense logic comparing only the maximum of two conditions, Do.

또한 본 발명의 실시 예에 따른 전방 차량 추적 장치 및 그것의 동작 방법은, 차선 정보가 부정확 하거나 레이더나 카메라가 전방 차량을 미 검지 하는 경우에도 레이더와 카메라 신호의 상호 보완적인 특성을 이용한 디펜스 로직들에 의해 호스트 차량의 진행 경로 차선 내의 전방 타겟 차량을 추적할 수 있다.Further, the front vehicle tracking apparatus and the operation method thereof according to the embodiment of the present invention can be applied to a vehicle tracking system and a method of operating the same, in which even when the lane information is inaccurate or the radar or camera detects the front vehicle, The host vehicle can track the target target vehicle in the progress path lane of the host vehicle.

이하에 첨부되는 도면들은 본 실시 예에 관한 이해를 돕기 위한 것으로, 상세한 설명과 함께 실시 예들을 제공한다. 다만, 본 실시예의 기술적 특징이 특정 도면에 한정되는 것은 아니며, 각 도면에서 개시하는 특징들은 서로 조합되어 새로운 실시 예로 구성될 수 있다.
도 1은 본 발명의 실시 예에 따른 전방 차량을 추적하는 장치(10)를 예시적으로 보여주는 도면이다.
도 2은 본 발명의 실시 예에 따른 전방 차량 추적기(300)를 예시적으로 보여주는 블록도이다.
도 3은 본 발명의 실시 예에 따른 전방 차량 추적기(300)의 좌표 출력 방법을 예시적으로 보여주는 도면이다.
도 4는 최소 거리 탐색 알고리즘(312)을 예시적으로 보여주는 도면이다.
도 5는 본 발명의 실시 예에 따른 프론트_디펜스_로직(311)의 동작을 예시적으로 보여주는 흐름도이다.
도 6은 도 5에 도시된 미들_디펜스_로직(331)을 예시적으로 보여주는 도면이다.
도 7은 본 발명의 실시 예에 따른 미들_디펜스_로직(331)의 첫 번째 기능 블록(331-1)의 동작을 예시적으로 보여주는 흐름도이다.
도 8은 본 발명의 실시 예에 따른 미들_디펜스_로직(331)의 두 번째 기능 블록(331-2)의 동작을 예시적으로 보여주는 흐름도이다.
도 9는 본 발명의 실시 예에 따른 미들_디펜스_로직(331)의 세 번째 기능 블록(331-3)의 동작을 예시적으로 보여주는 흐름도이다.
도 10은 본 발명의 실시 예에 따른 미들_디펜스_로직(331)의 네 번째 기능 블록(331-4)의 동작을 예시적으로 보여주는 흐름도이다.
도 11은 본 발명의 실시 예에 따른 미들_디펜스_로직(331)의 다섯 번째 기능 블록(331-5)의 동작을 예시적으로 보여주는 흐름도이다.
도 12는 본 발명의 실시 예에 따른 리어_디펜스_로직(351)의 동작을 예시적으로 보여주는 흐름도이다.
BRIEF DESCRIPTION OF THE DRAWINGS The accompanying drawings, which are included to provide a further understanding of the invention and are incorporated in and constitute a part of this application, illustrate embodiments of the invention and, together with the description, serve to explain the principles of the invention. However, the technical features of the present embodiment are not limited to the specific drawings, and the features disclosed in the drawings may be combined with each other to constitute a new embodiment.
1 is an exemplary illustration of an apparatus 10 for tracking a forward vehicle in accordance with an embodiment of the present invention.
2 is an exemplary block diagram illustrating a forward vehicle tracker 300 in accordance with an embodiment of the present invention.
FIG. 3 is an exemplary diagram illustrating a coordinate output method of a forward vehicle tracker 300 according to an embodiment of the present invention.
FIG. 4 is an exemplary diagram illustrating the minimum distance search algorithm 312. FIG.
FIG. 5 is a flow diagram illustrating an operation of the front_display_logic 311 according to an embodiment of the present invention.
FIG. 6 is an exemplary illustration of the middle_dest_ logic 331 shown in FIG.
7 is a flow diagram illustrating an exemplary operation of a first function block 331-1 of a middle_destination_logic 331 according to an embodiment of the present invention.
FIG. 8 is a flow diagram illustrating an exemplary operation of a second function block 331-2 of the middle_destination_logic 331 according to an embodiment of the present invention.
FIG. 9 is a flow diagram illustrating an operation of a third function block 331-3 of the middle_destination_logic 331 according to an embodiment of the present invention.
10 is a flow chart illustrating an operation of a fourth function block 331-4 of the middle_dest_ logic 331 according to an embodiment of the present invention.
FIG. 11 is a flow diagram illustrating an operation of the fifth function block 331-5 of the middle_destination_logic 331 according to an embodiment of the present invention.
12 is a flowchart illustrating an exemplary operation of the Rear_Defence_logic 351 according to an embodiment of the present invention.

아래에서는 도면들을 이용하여 본 발명의 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있을 정도로 본 발명의 내용을 명확하고 상세하게 기재할 것이다.BRIEF DESCRIPTION OF THE DRAWINGS The above and other objects, features and advantages of the present invention will be more apparent from the following detailed description taken in conjunction with the accompanying drawings, in which: FIG.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있는바, 특정 실시 예들을 도면에 예시하고 본문에 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 제 1, 제 2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다.The present invention is capable of various modifications and various forms, and specific embodiments are illustrated in the drawings and described in detail in the text. It is to be understood, however, that the invention is not intended to be limited to the particular forms disclosed, but on the contrary, is intended to cover all modifications, equivalents, and alternatives falling within the spirit and scope of the invention. The terms first, second, etc. may be used to describe various components, but the components should not be limited by the terms.

상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로 사용될 수 있다. 예를 들어, 본 발명의 권리 범위로부터 이탈되지 않은 채 제 1 구성요소는 제 2 구성요소로 명명될 수 있고, 유사하게 제 2 구성요소도 제 1 구성요소로 명명될 수 있다. 어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 혹은 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.The terms may be used for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component. It is to be understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, . On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between.

구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 혹은 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다. 본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.Other expressions that describe the relationship between components, such as "between" and "between" or "neighboring to" and "directly adjacent to" should be interpreted as well. The terminology used in this application is used only to describe a specific embodiment and is not intended to limit the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise.

본 출원에서, "포함하다" 혹은 "가지다" 등의 용어는 실시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 혹은 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 혹은 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 혹은 이들을 조합한 것들의 존재 혹은 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미이다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미인 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.In this application, the terms "comprises" or "having" are intended to specify the presence of stated features, integers, steps, operations, components, parts, or combinations thereof, wherein one or more other features, , Steps, operations, components, parts, or combinations thereof, as a matter of course. Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries should be construed as meaning consistent with meaning in the context of the relevant art and are not to be construed as ideal or overly formal in meaning unless expressly defined in the present application .

도 1은 본 발명의 실시 예에 따른 전방 차량을 추적하는 차량 추적 장치(10)를 예시적으로 보여주는 도면이다. 도 1을 참조하면, 차량 추적 장치(10)는 레이더(100), 카메라(200), 및 전방 차량 추적기(300)를 포함할 수 있다.1 is an exemplary illustration of a vehicle tracking device 10 for tracking a forward vehicle in accordance with an embodiment of the present invention. Referring to FIG. 1, the vehicle tracking device 10 may include a radar 100, a camera 200, and a forward vehicle tracker 300.

레이더(100)는 차량 주변에 레이더 신호를 송신하고, 타 차량으로부터 반사되는 레이더 신호를 수신하도록 구현될 수 있다. The radar 100 may be implemented to transmit radar signals around the vehicle and receive radar signals reflected from other vehicles.

카메라(200)는 전방 차량의 영상을 감지하기 위한 감지 센서로 구현될 수 있다. 실시 예에 있어서, 카메라(200)는 CCD(charge coupled device) 영상센서(image sensor), MOS(metal oxide semi-conductor) 영상센서, CPD(charge priming device) 영상센서 및 CID(charge injection device) 영상센서 등과 같은 영상센서들 중 어느 하나의 영상센서로 구현될 수 있다.The camera 200 may be implemented as a sensing sensor for sensing an image of the vehicle ahead. In an embodiment, the camera 200 may include a charge coupled device (CCD) image sensor, a metal oxide semi-conductor (MOS) image sensor, a charge priming device (CPD) And may be implemented as any one of image sensors such as a sensor.

전방 차량 추적기(300)는 레이더(100)에 의해 검출된 타겟 차량에 대한 제 1 차량 정보 및 카메라(200)에 의해 검출된 타겟 차량에 대한 제 2 차량 정보를 수신하고, 제 1 및 제 2 차량 정보를 융합하여 전방의 타겟 차량을 추적하도록 구현될 수 있다.The forward vehicle tracker 300 receives the first vehicle information for the target vehicle detected by the radar 100 and the second vehicle information for the target vehicle detected by the camera 200, Information can be fused to track the target vehicle ahead.

실시 예에 있어서, 전방 차량 추정기(300)는 다양한 운전 상황에서도 호스트(호스트) 차량의 진행 경로 전방에 있는 목표물을 정확히 추적하기 위해서, 레이더(100) 및 카메라(200)의 센서 퓨전 로직과, 커브 길 주행 조건에서 호스트 차량 전방의 객체를 추적하기 위한 디펜스 로직(디펜스 로직)를 포함할 수 있다. 실시 예에 있어서, 전방 차량 추적기(300)는 하드웨어/소프트웨어/펌웨어적으로 구현될 수 있다.In an embodiment, the forward vehicle estimator 300 is configured to determine the sensor fusion logic of the radar 100 and the camera 200, and the sensor fusion logic of the radar 100 and the camera 200 to precisely track a target in front of the path of travel of the host And may include defense logic (defense logic) for tracking an object ahead of the host vehicle in road driving conditions. In an embodiment, the forward vehicle tracker 300 may be implemented in hardware / software / firmware.

일반적인 레이더와 비전 센서퓨전 알고리즘은 특정 시나리오를 기반으로 연구되고 있다. 즉, 레이더가 단일 장애물에 대해서 여러 개의 타겟으로 인식하는 경우, 차량이 아닌 다른 장애물(가드레일과 같은 도로 구조물)을 인식하는 경우, 곡선로 주행 시 횡방향 위치정보가 다른 경우에 대해서 대부분 연구가 수행되고 있다. 하지만 실제 고속도로 주행의 경우 레이더의 성능에 따라 다소 차이는 있을 수 있지만, 대부분 교통혼잡에 의해서 정지차량을 포함하여 전방에 많은 차량이 있는 경우 혹은 차선변경 차량 등에 의해서 레이더의 미검지나 오검지가 발생한다. 특히 ACC(adaptive cruise control)나 FCW(forward collision warning) 시스템의 경우 자 차량의 제어대상이 되는 호스트 차량 주행 경로 내 선행 차량(primary vehicle)의 선정이 필수적이며 이러한 레이더의 미검지나 오검지는 추돌, 급제동의 위험성이 높으므로 시스템의 안정성에 치명적일 수 밖에 없다. 즉, 전방 차량의 추적과 관련된 기존 연구들은 전방 차량 주변의 차선 정보나 IMU(inertial measurement unit) 센서 정보를 이용하여, 전방 차량이 호스트 차량의 진행 방향에 있는지를 판단하는 연구들이 진행되고 있다. 이와 관련된 기존 연구들에선 전방 객체가 호스트 차량의 차선 내에 있는지를 판단할 때, 차선이 희미하거나 끊어진 경우 로직의 판단에 문제를 일으켜, 잘못된 객체를 추적할 수 있으며, 차선이 없는 경우에는 레이더나 카메라에 의해 인지된 전방 차량이 호스트 차량 주행 경로 내에 위치하고 있는지를 판단하기 힘든 문제가 있다.Common radar and vision sensor fusion algorithms are being studied based on specific scenarios. In other words, when the radar recognizes multiple targets for a single obstacle, recognizes obstacles other than the vehicle (road structures such as guard rails), and most cases where the lateral position information is different when traveling on a curve . However, in case of actual highway driving, there may be some difference depending on the performance of the radar. However, when there are many vehicles in front, including a stationary vehicle due to traffic congestion, do. In particular, in the case of adaptive cruise control (ACC) or forward collision warning (ACC) systems, it is essential to select a primary vehicle in the host vehicle travel route to be controlled by the host vehicle. , There is a high risk of sudden braking, so the stability of the system is inevitable. In other words, previous researches related to the tracking of the front vehicle have been conducted to determine whether the front vehicle is in the traveling direction of the host vehicle using the lane information of the front vehicle or the inertial measurement unit (IMU) sensor information. In previous researches related to this, when judging whether the front object is in the lane of the host vehicle, if the lane is blurred or broken, it may cause a problem in the judgment of the logic, so that the wrong object can be tracked. There is a problem that it is difficult to judge whether the front vehicle recognized by the host vehicle is located in the host vehicle traveling route.

반면에, 본 발명의 실시 예에 따른 차량 추적 장치(10)는 센서 퓨전 로직과 디펜스 로직을 이용함으로써 다양한 운전 상황에서도 호스트 차량의 진행 경로 전방에 있는 목표물을 정확히 추적하고, 커브 길 주행 조건에서 호스트 차량 전방의 객체를 추적할 수 있다.On the other hand, the vehicle tracking device 10 according to the embodiment of the present invention accurately tracks the target in the forward path of the host vehicle in various driving situations by using the sensor fusion logic and the defense logic, You can track the object in front of the vehicle.

도 2은 본 발명의 실시 예에 따른 전방 차량 추적기(300)를 예시적으로 보여주는 블록도이다. 도 2를 참조하면, 전방 차량 추적기(300)는 센서 퓨전 로직(310), 도로 조건 결정 로직(320), 탐색 로직(330), 타겟 차량 차선 추정 로직(340), 및 조합 결정 로직(350)을 포함할 수 있다.2 is an exemplary block diagram illustrating a forward vehicle tracker 300 in accordance with an embodiment of the present invention. 2, forward vehicle tracker 300 includes sensor fusion logic 310, road condition determination logic 320, search logic 330, target vehicle lane estimation logic 340, and combination decision logic 350, . ≪ / RTI >

센서 퓨전 로직(310)은 레이더(100)로부터 제 1 차량 정보 및 카메라(200)로부터 제 2 차량 정보를 수신하고, 도로 조건 정보를 이용하여 차량 정보를 융합 하도록 구현될 수 있다. 실시 예에 있어서, 센서 퓨전 로직(310)은 커브길 주행시 제 1 디펜스 로직으로써 프론트_디펜스_로직(310)을 포함할 수 있다.The sensor fusion logic 310 may be implemented to receive first vehicle information from the radar 100 and second vehicle information from the camera 200 and to fuse the vehicle information using road condition information. In an embodiment, the sensor fusion logic 310 may include front_display_logic 310 as first defense logic during curve travel.

도로 조건 결정 로직(320)은 차선 정보를 수신하고, 도로 조건 정보를 발생하도록 구현될 수 있다. 여기서 차선 정보는 외부의 ECU(electronic control unit)로부터 CAN(controller area network) 통신을 통해 전송될 수 있다. 한편, 통신 방식이 반드시 CAN 통신에 제한되지 않는다고 이해되어야 할 것이다. 차선 정보는, 예를 들어, MOST, LIN, FlexRay 등 다양한 통신 방식에 의해 전송될 수 있다. The road condition determination logic 320 may be implemented to receive lane information and generate road condition information. Here, the lane information can be transmitted from an external electronic control unit (ECU) via controller area network (CAN) communication. On the other hand, it should be understood that the communication method is not necessarily restricted to CAN communication. The lane information can be transmitted by various communication methods such as MOST, LIN, FlexRay, and the like.

또한, 주행 중인 호스트 차량의 직진 또는 커브를 판단하기 위한 기능 모듈은 다음의 수식으로 구성된다.Further, the function module for determining the straight line or curve of the host vehicle on the road is composed of the following equation.

우선, Curvature 정보는 CAN 통신으로 수신된다.First, Curvature information is received via CAN communication.

호스트 차량의 직진 또는 커브를 판단하기 위한 수식은 다음과 같다.The formula for determining the straight ahead or curve of the host vehicle is as follows.

Min_Max_Normalize {(Exponential_Smoothing_Function(left lane Curvature) + Exponential_Smoothing_Function(right lane Curvature) ) / 2 }Min_Max_Normalize {(Exponential_Smoothing_Function (left lane Curvature) + Exponential_Smoothing_Function (right lane Curvature)) / 2}

여기서, 상기 함수의 출력 값은 0 ~ 100 %의 값을 갖는데, 이 값의 비율로 호스트 차량의 직진 또는 커브 주행 상황을 판단한다.Here, the output value of the function has a value of 0 to 100%, and the straightness or curve running state of the host vehicle is determined based on the ratio.

여기서, Exponential_Smoothing_Function은 내부적으로 Kalman Filter와 Moving Average Filter로 구성되는데, 수식은 다음과 같다.Here, Exponential_Smoothing_Function is internally composed of Kalman Filter and Moving Average Filter. The formula is as follows.

Exponential_Smoothing_Function(Curvature) = Moving Average Filter(taps, Curvature) * (1 - weight factor) + Kalman Filter(Curvature) * weight factorExponential_Smoothing_Function (Curvature) = Moving Average Filter (taps, Curvature) * (1 - weight factor) + Kalman Filter (Curvature) * weight factor

여기서, weight factor는 실제 차선 정보를 잘 반영하기 위해 Kalman Filter의 출력 비율이 높은 방향으로 설정하며, 또한 큰 주기의 떨림을 줄이기 위해 Moving Average Filter의 taps은 높은 값으로 설정한다.In this case, the weight factor sets the output ratio of the Kalman filter to a high direction in order to reflect the actual lane information, and sets the taps of the moving average filter to a high value in order to reduce the tremble of the large period.

탐색 로직(330)은 타겟 차량의 차선 정보에 근거로 하여 타겟 차량을 탐색하도록 구현될 수 있다. 실시 예에 있어서, 탐색 로직(330)은 커브길 주행시 제 2 디펜스 로직으로써 미들_디펜스_로직(330)을 포함할 수 있다. 여기서 미들_디펜스 로직(330)은 외란이 있는 운전 상황을 고려하는 실질적인 디펜스 로직을 포함할 수 있다.The search logic 330 may be implemented to search for a target vehicle based on the lane information of the target vehicle. In an embodiment, the search logic 330 may include middle_dest_flush 330 as second defense logic during curve driving. Here, the middle_destrength logic 330 may include substantial defense logic that takes into account disturbing driving situations.

타겟 차량 차선 추정 로직(340)은 차선 정보를 수신하고, 수신된 차선 정보를 근거로 하여 타겟 차량의 차선 정보를 발생하도록 구현될 수 있다. 여기서 차선 정보는 외부의 ECU(electronic control unit)로부터 CAN(controller area network) 통신을 통해 전송될 수 있다.The target vehicle lane estimation logic 340 may be configured to receive lane information and generate lane information of the target vehicle based on the received lane information. Here, the lane information can be transmitted from an external electronic control unit (ECU) via controller area network (CAN) communication.

또한, 주행 중인 타겟 차량 주변의 차선 정보를 계산하기 위한 기능 모듈은 다음의 수식 구성된다. 우선, 차선 관련 정보는 CAN 통신으로 수신된다.The function module for calculating the lane information around the target vehicle that is running is composed of the following equations. First, lane-related information is received via CAN communication.

미들_디펜스_로직(3330)의 조건 식의 입력 값인 타겟 차량 옆의 차선을 추정하는 수식은 다음과 같다. The formula for estimating the lane next to the target vehicle, which is the input value of the condition expression of the middle_dest_type 3330, is as follows.

타겟 vehicle’s left lane = d(left curvature)/dt * (left latitudinal coordinate of the 호스트 vehicle’s lane)^3 + left curvature* (left latitudinal coordinate of the 호스트 vehicle’s lane)^2 + 호스트 vehicle’s heading angle * (left latitudinal coordinate of the 호스트 vehicle’s lane) + 호스트 vehicle’s positionThe left vehicle's lane is the left vehicle's lane and the left vehicle's lane is the left vehicle's lane. coordinate of the host vehicle's lane) + host vehicle's position

타겟 vehicle’s right lane = d(right curvature)/dt * (right latitudinal coordinate of the 호스트 vehicle’s lane)^3 + right curvature* (right latitudinal coordinate of the 호스트 vehicle’s lane)^2 + 호스트 vehicle’s heading angle * (right latitudinal coordinate of the 호스트 vehicle’s lane) + 호스트 vehicle’s positionThe host vehicle's lane is the host vehicle's lane and the host vehicle's lane is the host vehicle's lane * 3 + right curvature * coordinate of the host vehicle's lane) + host vehicle's position

타겟 차량의 추정된 차선은 리플(ripple)을 함유하고 있으므로, 떨림은 개선하면서 원래 신호의 추세를 파악하기 위해 Exponential_Smoothing_Function(Curvature)의 수식을 적용하였다.Since the estimated lane of the target vehicle contains ripples, the formula of Exponential_Smoothing_Function (Curvature) was applied to grasp the original signal trend while improving tremor.

조합 결정 로직(350)은 커브길 주행시 제 3 디펜스 로직으로써 리어_디펜스_로직(350)을 포함할 수 있다. 실시 예에 있어서, 리어_디펜스_로직(350)은 미들_디펜스_로직(330)을 보완하고, 출력 값들을 하나로 합치는 기능을 수행할 수 있다.Combination decision logic 350 may include a lear_destination_logic 350 as third defense logic during curve driving. In an embodiment, the Rear_Defence_ logic 350 may complement the middle_dest_ logic 330 and perform the function of combining the output values together.

일반적으로, 레이더와 카메라는 주행 상황에 따라 진행 경로 전방에 있는 목표물이 아닌 다른 객체를 추적할 수도 있다. 이러한 문제 상황을 개선하기 위해 카메라(200)의 차선 정보를 비롯한 여러 신호들을 이용하여 호스트 차량 진행 경로에 있는 객체를 추적할 수 있도록 로직을 구성하여야 한다. 하지만, 레이더나 카메라 신호는 실제 주행 환경에서 외란에 의해 불연속적인 경우가 발생되는데, 특히 카메라의 경우, 차선이 희미하거나 끊어진 경우 차선 정보 신호의 신뢰성이 크게 떨어진다. 반면에 본 발명의 실시 예에 따른 전방 차량 추적기(300)는 이러한 다양한 외란 조건의 운전 상황에서도 레이더와 카메라의 센서 퓨전 로직(310)과 디펜스 로직(310, 330, 350)을 구현함으로써, 호스트 차량의 진행 경로 전방에 있는 목표물을 정확히 추적할 수 있다.In general, radar and camera may track objects other than the target ahead of the path, depending on the driving situation. In order to solve such a problem, it is necessary to configure the logic to track an object in the path of the host vehicle using various signals including the lane information of the camera 200. [ However, the radar or camera signal may be discontinuous due to disturbance in the actual driving environment. In the case of the camera in particular, the reliability of the lane information signal is greatly degraded when the lane is blurred or disconnected. The front vehicle tracker 300 according to the embodiment of the present invention implements the sensor fusion logic 310 and the defense logic 310, 330 and 350 of the radar and the camera even in the driving state of the various disturbance conditions, It is possible to accurately track the target ahead of the travel path of the vehicle.

본 발명의 실시 예에 따른 전방 차량 추적기(300)는 다양한 운전 상황에서도 호스트 차량의 진행 경로 전방에 있는 목표물을 정확히 추적하기 위해서, 레이더(100)와 카메라(200)의 센서 퓨전 방법과 커브 길 주행 조건에서 호스트 차량 전방의 객체를 추적하기 위한 디펜스 로직을 개시한다.The forward vehicle tracker 300 according to the embodiment of the present invention can perform the sensor fusion method of the radar 100 and the camera 200 and the curve driving method of the curve driving method in order to accurately track the target in the forward path of the host vehicle, Discloses defense logic for tracking an object in front of a host vehicle in a condition.

우선, 레이더(100)와 카메라(200)의 센서 퓨전을 위한 기능 모듈은 아래와 같이 구성된다.First, a function module for sensor fusion between the radar 100 and the camera 200 is configured as follows.

도 3은 본 발명의 실시 예에 따른 전방 차량 추적기(300)의 좌표 출력 방법을 예시적으로 보여주는 도면이다.FIG. 3 is an exemplary diagram illustrating a coordinate output method of a forward vehicle tracker 300 according to an embodiment of the present invention.

호스트 차량의 차선 정보를 이용하여 호스트 차량이 직진 주행 인지 커브 주행인지가 판단될 수 있다(S110). 만일, 직진 주행이라면, 아래의 S120, S130, S140의 과정을 통해 앞서 구한 3개의 좌표 중 하나의 좌표가 선택될 수 있다. 반면에, 직진 주행이 아니라면, S150 과정을 거쳐 좌표가 선택될 수 있다.Using the lane information of the host vehicle, it can be determined whether the host vehicle is a straight running or a curve running (S110). If it is a straight-ahead driving, one of the three coordinates obtained previously may be selected through the following steps S120, S130, and S140. On the other hand, if it is not a straight travel, coordinates can be selected through step S150.

도 4에 도시된 바와 같이, 최소 거리 탐색 알고리즘(312)에 의거하여 레이더(100)에서 감지한 타겟의 x, y 좌표와 카메라(200)에서 감지한 타겟들의 x, y 좌표의 상대적인 유클리디안 거리(relative Euclidean distance)가 계산될 수 있다. 여기서 상대적인 유클리디안 거리는 구하는 수학식은 다음과 같다.4, the x and y coordinates of the target sensed by the radar 100 and the x and y coordinates of the targets sensed by the camera 200 are calculated based on the minimum distance search algorithm 312, The relative Euclidean distance can be calculated. Here, the equation for obtaining the relative Euclidean distance is as follows.

상대적인 유클리디안 거리 = sqrt{(Radar_xn - Camera_xn)2 + (Radar_yn - Camera_yn)2 }Relative Euclidean distance = sqrt {(Radar_xn - Camera_xn) 2 + (Radar_yn - Camera_yn) 2 }

여기서 sqrt는 루트 함수이고, Radar_xn는 레이더의 x 좌표, Radar_yn는 레이더의 y 좌표, Camera_xn은 카메라의 x 좌표, 및 Camera_yn은 카메라의 y 좌표이다. 계산된 거리 값들 중 최소 거리(제 1 최소 거리)에 해당되는 좌표(xc1, yc1), 두 번째 최소 거리(제 2 최소 거리 > 제 1 최소 거리)에 해당되는 좌표(xc2, yc2), 세 번째 최소 거리(제 3 최소 거리 > 제 2 최소 거리)에 해당되는 좌표(xc3, yc3)가 추출될 수 있다(S120).Where sqrt is the root function, Radar_xn is the x coordinate of the radar, Radar_yn is the y coordinate of the radar, Camera_xn is the x coordinate of the camera, and Camera_yn is the y coordinate of the camera. (Xc2, yc2) corresponding to the coordinates (xc1, yc1) corresponding to the minimum distance (first minimum distance), the second minimum distance (second minimum distance> first minimum distance) Coordinates (xc3, yc3) corresponding to the minimum distance (third minimum distance> second minimum distance) may be extracted (S120).

실시 예에 있어서, 추출된 3개의 최소 거리에 해당되는 좌표들과 호스트 차량의 차선 내의 횡 방향, 종 방향 좌표와의 상대 각도(relative angle)가 계산될 수 있다(S130). 계산된 상대 각도 중 90도에 가까운 좌표 값이 추출될 수 있다(S140).In an embodiment, a relative angle between the coordinates corresponding to the extracted three minimum distances and the lateral and longitudinal coordinates within the lane of the host vehicle may be calculated (S130). Coordinate values close to 90 degrees out of the calculated relative angles can be extracted (S140).

실시 예에 있어서, 호스트 차량이 직진이 아니라면, 프론트_디펜스_로직(311, 도 2참조))의 출력 좌표가 선택될 수 있다(S140).In an embodiment, if the host vehicle is not straight ahead, the output coordinates of the front_dest_logic 311 (see FIG. 2)) may be selected (S140).

실시 예에 있어서, 프론트_디펜스_로직(311)은 가장 최소의 상대적인 유클리디안 거리에 해당되는 좌표(xc1, yc1)와 레이더(100) 좌표 중 하나를 선택할 수 있다. 레이더(100)의 횡 방향 좌표가 0인 경우에, 호스트 차량의 주행 각도가 문턱값1과 비교될 수 있다. 비교 결과로써, 주행 각도(θ)가 문턱값 1(TH1)보다 작은 경우(θ < TH1), 앞서 계산한 xc1의 절대 값이 문턱값2(TH2)보다 작으면서( |xc1| < TH2 ) 동시에 호스트 차량의 주행 각도( θ )가 문턱값3(TH3)보다 큰 경우(( θ > TH3) , 그리고, 동시에 호스트 차량의 주행 각도( θ )가 문턱값2(TH2)보다 작은 경우(θ < TH2), 레이더(100)의 좌표가 사용될 수 있다.In the embodiment, the front_display_logic 311 can select one of coordinates (xc1, yc1) and radar 100 coordinates corresponding to the smallest relative Euclidian distance. When the lateral coordinate of the radar 100 is zero, the running angle of the host vehicle can be compared with the threshold 1. As a result of comparison, when the running angle? Is smaller than the threshold value 1 (TH1) (? TH1), the absolute value of xc1 calculated above is smaller than the threshold value 2 (| xc1 | <TH2) When the driving angle? Of the host vehicle is larger than the threshold value TH3 ((? TH3) and the driving angle? Of the host vehicle is smaller than the threshold value 2 (?? TH2 , The coordinates of the radar 100 may be used.

그리고, 앞의 조건들과 반대의 조건에선 xc1과 yc1가 선택될 수 있다. 이 조건들의 물리적 의미는, 레이더(100)에는 전방 객체가 감지되지 않았는데, 카메라(200)에는 전방에 특정 객체가 탐지된 경우를 판단해서 호스트 차량이 급격한 커브 길에서 주행하는 경우에만 xc1, yc1가 사용되고, 그 이외의 경우에는 레이더(100)의 신호가 사용된다.And, in the opposite condition to the previous conditions, xc1 and yc1 can be selected. The physical meaning of these conditions is that the front object is not detected in the radar 100 but the camera 200 is judged that a specific object has been detected in front of the camera 200 and xc1 and yc1 are detected only when the host vehicle is traveling in a rapid curve path And in the other cases, the signal of the radar 100 is used.

도 5는 본 발명의 실시 예에 따른 프론트_디펜스_로직(311)의 동작을 예시적으로 보여주는 흐름도이다. 도 5를 참조하면, 프론트_디펜스_로직(311)의 동작은 다음과 같이 진행될 수 있다.FIG. 5 is a flow diagram illustrating an operation of the front_display_logic 311 according to an embodiment of the present invention. Referring to FIG. 5, the operation of the front_dest_flag 311 may proceed as follows.

프론트_디펜스_로직(311)은 커브 비율이 노면 각도의 문턱값보다 큰지를 판별하고(S210), 레이더(100)의 종방향 좌표와 종방향 레이더 좌표의 최대값과 동일한 지를 판별할 수 있다(S220). 만일, 모두 아니라면, 즉 커브 비율이 노면 각도의 문턱값보다 크지 않으면서 레이더(100)의 종방향 좌표가 최대값이 아닐 때, 레이더 좌표가 미들_디펜스_로직 2(331-2)의 출력으로 선택되고, 그 외에는 도 4에 도시된 바와 같이 탐색 알고리즘에 의한 좌표가 선택될 수 있다(S230).The front_dest_logic 311 can determine whether the curve ratio is greater than the threshold value of the road surface angle at step S210 and determine whether the radar 100 is equal to the maximum value of the longitudinal coordinate and the longitudinal radar coordinate S220). If not, that is, when the longitudinal coordinate of the radar 100 is not the maximum value while the curve ratio is not larger than the threshold value of the road surface angle, the radar coordinate becomes the output of the middle_dest_logic2 331-2 Otherwise, the coordinate by the search algorithm may be selected as shown in FIG. 4 (S230).

다양한 운전 상황에서도 호스트 차량의 진행 경로 전방에 있는 목표물을 정확히 추적하기 위해서 본 발명의 전방 차량 추적기(300)는 3단계의 디펜스 로직으로 구현될 수 있다. 첫 번째 디펜스 로직은 레이더(100)와 카메라(200)의 센서 퓨전 로직(310)에 프론트_디펜스_로직(311, 도 2 참조)으로 명명된 기능 블록으로 적용될 수 있다. 두 번째 디펜스 로직은 미들_디펜스_로직(331, 도 2 참조)으로, 도 6에 도시된 바와 같이 총 5개의 기능 블록들(331-1, 331-2, 331-3, 331-4, 331-5)으로 구성될 수 있다. 미들_디펜스_로직(331)은 외란이 있는 운전 상황을 고려하는 실질적인 디펜스 로직에 해당할 수 있다. 세 번째 디펜스 로직은 리어_디펜스_로직(351, 도 2 참조)으로 미들_디펜스_로직(331)을 보완하고, 출력 값들을 하나로 합치는 기능을 수행할 수 있다.In order to accurately track the target ahead of the host vehicle in various driving situations, the forward vehicle tracker 300 of the present invention can be implemented with three levels of defense logic. The first defense logic may be applied to the sensor fusion logic 310 of the radar 100 and the camera 200 as a functional block named Front_Dest_logic 311 (see FIG. 2). The second defense logic is a middle_destination_logic 331 (see FIG. 2), and a total of five functional blocks 331-1, 331-2, 331-3, 331-4, 331 -5). The middle_dest_ logic 331 may correspond to substantial defense logic that takes into account disturbing driving situations. The third defense logic can complement the middle_dest_ logic 331 with the rear_dest_ logic 351 (see FIG. 2) and perform the function of combining the output values into one.

도 7은 본 발명의 실시 예에 따른 미들_디펜스_로직(331)의 첫 번째 기능 블록(331-1)의 동작을 예시적으로 보여주는 흐름도이다. 도 7을 참조하면, 제 1 미들_디펜스_로직(331-1)은 다음과 같이 수행될 수 있다.7 is a flow diagram illustrating an exemplary operation of a first function block 331-1 of a middle_destination_logic 331 according to an embodiment of the present invention. Referring to FIG. 7, the first middle_dest_ logic 331-1 may be performed as follows.

레이더(100)의 횡 방향 좌표 값이 0이면서 동시에, 센서 퓨전 로직(310)의 최종 출력 좌표 중 횡 좌표의 값이 호스트 차량의 진행 경로 처선 내에 있다면, 센서 퓨전 로직(310)의 최종 출력 좌표를 사용하지 않고, 미들_디펜스_로직(331)의 두 번째부터 다섯 번째 기능 블록들(331-2 ~ 331-5)의 출력 좌표 중 하나를 선택하도록 제 1 미들_디펜스_로직(331-1)이 구성될 수 있다.If the lateral coordinate value of the radar 100 is 0 and the value of the lateral coordinate among the final output coordinates of the sensor fusion logic 310 is within the traveling path of the host vehicle, the final output coordinate of the sensor fusion logic 310 is The first middle_dest_ logic 331-1 is used to select one of the output coordinates of the second through fifth functional blocks 331-2 through 331-5 of the middle_dest_ logic 331, Can be configured.

제 1 미들_디펜스_로직(331-1)은 레이더(100)의 횡 방향 좌표 값이 0인지를 판별하고(S310), 호스트 차량의 차선에 센서 퓨전 로직 모듈의 출력 좌표가 있는 지를 판별하고(S320), 만일, 모두 참이라면, 제 2 ~ 제 5 미들_디펜스_로직(331-2 ~ 331-5)를 고려한 좌표로 선택하고, 그 외에는 센서 퓨전 로직(310)의 좌표를 선택할 수 있다(S330).The first middle_destination_logic 331-1 determines whether the lateral coordinate value of the radar 100 is zero (S310), determines whether there is an output coordinate of the sensor fusion logic module in the lane of the host vehicle S320). If all are true, the coordinates of the second through fifth middle_dest_ logic 331-2 through 331-5 may be selected, and the coordinates of the sensor fusion logic 310 may be selected otherwise S330).

제 1 미들_디펜스_로직(331-1)의 물리적 의미는, 레이더(100)의 전방에는 객체가 없는데 카메라(200)는 전방에 객체를 감지한 경우, 커브 길에 해당됨으로 직진 주행 시의 운전 상황을 고려하는 제 2 미들_디펜스_로직(331-2)을 비활성화(Disable) 시키고, 커브길 주행 시의 운전 상황을 고려하는 제 3 미들_디펜스_로직(331-3)을 실행시키는 것이다.The physical meaning of the first middle defense_logic 331-1 is that there is no object in front of the radar 100. When the camera 200 senses an object ahead of the object, the camera corresponds to a curve path, The second middle_dest_ logic 331-2 which considers the situation is disabled and the third middle_dest_ logic 331-3 which considers the driving state at the time of the curve driving is executed.

도 8은 본 발명의 실시 예에 따른 미들_디펜스_로직(331)의 두 번째 기능 블록(331-2)의 동작을 예시적으로 보여주는 흐름도이다. 도 8을 참조하면, 제 2 미들_디펜스_로직(331-2)은 아래와 같이 수행될 수 있다.FIG. 8 is a flow diagram illustrating an exemplary operation of a second function block 331-2 of the middle_destination_logic 331 according to an embodiment of the present invention. Referring to FIG. 8, the second middle_dest_ logic 331-2 may be performed as follows.

레이더(100)의 종 방향 좌표 값의 절대값과 센서 퓨전 로직(310)의 최종 출력 좌표 중 종 방향 좌표 값의 절대값의 차이 값에 대한 절대 값이 문턱값4(TH4) 보다 작으면서, 동시에 레이더(100)의 횡 방향 좌표 값의 절대 값과 xc1의 절대 값의 차이 값에 대한 절대 값이 문턱값4(TH4))보다 크다면, 레이더(100) 좌표를 선택하도록 제 2 미들_디펜스_로직(331-2)이 구성될 수 있다.The absolute value of the absolute value of the longitudinal coordinate value of the radar 100 and the absolute value of the absolute value of the longitudinal coordinate value of the final output coordinate of the sensor fusion logic 310 is smaller than the threshold value 4 (TH4) If the absolute value of the absolute value of the lateral coordinate value of the radar 100 and the absolute value of the absolute value of xc1 is greater than the threshold value 4 (TH4)), Logic 331-2 may be configured.

제 2 미들_디펜스_로직(331-2)은, 레이더(100)의 종방향 좌표와 카메라(200)의 종방향 좌표의 차이가 문턱값4(TH4) 보다 큰지를 판별하고(S410), 만일 종방향 차이가 문턱값4(TH4)보다 작다면, 레이더(100)의 좌표를 선택하고, 그 외에는 제 3 ~ 제 5 미들_디펜스_로직(331-3 ~ 331-5)를 고려한 좌표를 선택할 수 있다(S420). The second middle_destination_logic 331-2 determines whether the difference between the longitudinal coordinate of the radar 100 and the longitudinal coordinate of the camera 200 is greater than a threshold value 4 (S410) If the longitudinal difference is smaller than the threshold value 4 (TH4), the coordinates of the radar 100 are selected, and other coordinates other than the third to fifth middle_destination_ logic 331-3 to 331-5 are selected (S420).

제 2 미들_디펜스_로직(331-2)의 물리적 의미는, 호스트 차량과 타겟 차량이 직진 주행인 경우, 레이더(100) 좌표와 센서 퓨전 로직(310)의 최종 출력 좌표가 동일한 객체를 추적한다면, 레이더(100) 좌표를 선택하는 것이다. 이는 종 방향 좌표에 있어서, 카메라(200) 대비 레이더(100)의 좌표가 리플(ripple) 특성이 우수하기 때문이다.The physical meaning of the second middle_dest_ logic 331-2 is that if the host vehicle and the target vehicle are running straight ahead and the radar 100 coordinates and the final output coordinates of the sensor fusion logic 310 are the same , And the radar 100 coordinates. This is because the coordinate of the radar 100 with respect to the camera 200 is excellent in the ripple characteristic in the longitudinal direction.

도 9는 본 발명의 실시 예에 따른 미들_디펜스_로직(331)의 세 번째 기능 블록(331-3)의 동작을 예시적으로 설명하는 도면이다. 도 9를 참조하면, 제 3 미들_디펜스_로직(331-3)은 아래와 같이 수행 될 수 있다.FIG. 9 is an exemplary diagram illustrating the operation of a third function block 331-3 of the middle_destination_logic 331 according to an embodiment of the present invention. Referring to FIG. 9, the third middle_dest_ logic 331-3 may be performed as follows.

레이더(100)의 종 방향 좌표값이 최대값이면서 동시에, 센서 퓨전 로직(310)의 최종 출력 좌표 중 횡 방향 좌표 값이 호스트 차량의 진행 경로 차선 내에 있다면, 센서 퓨전 로직(310)의 최종 출력 좌표를 선택하도록 제 3 미들_디펜스_로직(331-3)이 구성될 수 있다.If the longitudinal coordinate value of the radar 100 is the maximum value and the lateral coordinate value of the final output coordinate of the sensor fusion logic 310 is within the host vehicle's progress path lane, the final output coordinate of the sensor fusion logic 310 The third middle_dest_ logic 331-3 may be configured to select the third middle_dest_ logic 331-3.

제 3 미들_디펜스_로직(331-3)은, 레이더(100)의 종방향 좌표값이 종방향 레이더 좌표의 최대값인지 판별하고(S510), 호스트 차량 차선 내에 센서 퓨전 로직(310)의 출력 좌표가 있는지 판별하고(S520), S510과 S520이 모두 참이라면 레이더 좌표를 선택하고, 그 외에는 제 4 ~ 제 5 미들_디펜스_로직(331-4 ~ 331-5)을 고려한 좌표를 선택할 수 있다(S530).The third middle_destination_logic 331-3 determines whether the longitudinal coordinate value of the radar 100 is the maximum value of the longitudinal radar coordinate (S510), and the output of the sensor fusion logic 310 in the host vehicle lane (S520). If S510 and S520 are both true, the radar coordinate may be selected and other coordinates may be selected in consideration of the fourth to fifth middle_destination_logic 331-4 to 331-5 (S530).

제 3 미들_디펜스_로직(331-3)의 물리적 의미는, 레이더(100)에는 타겟 차량이 포착되지 않았는데, 카메라(200)에는 타겟 차량이 포착되었으므로, 커브 길에 해당되고, 또한 제 2 미들_디펜스_로직(331-2)의 출력이 선택되지 않은 경우이므로, AR Hud의 시야 각을 약간 벗어난 거리의 객체를 추적하고 있는 상황이다. 이런 상황에선 레이더(100)에 객체가 없으므로, 센서 퓨전 로직(310)의 최종 출력 좌표가 선택될 수 있다.The physical meaning of the third middle defense_logic 331-3 is that the target vehicle is not captured in the radar 100 but the target vehicle is caught in the camera 200 and therefore corresponds to the curve path, Since the output of the _Defence_logic 331-2 is not selected, it is in the situation that an object with a distance slightly out of the view angle of the AR Hud is being tracked. In this situation, since there is no object in the radar 100, the final output coordinates of the sensor fusion logic 310 may be selected.

도 10은 본 발명의 실시 예에 따른 미들_디펜스_로직(331)의 네 번째 기능 블록(331-4)의 동작을 예시적으로 설명하는 도면이다. 도 10을 참조하면, 제 4 미들_디펜스_로직(331-4)은 아래와 같이 수행 될 수 있다.10 is an exemplary diagram illustrating the operation of the fourth function block 331-4 of the middle_destination_logic 331 according to an embodiment of the present invention. Referring to FIG. 10, the fourth middle_dest_ logic 331-4 may be performed as follows.

레이더(100)의 종 방향 좌표가 문턱값5(TH5)보다 크거나 같으면서 센서 퓨전 로직(310)의 출력이 문턱값6(TH6)보다 크고, 동시에 센서 퓨전 로직(310)에서 추적하는 객체가 호스트 차량 진행 방향 차선 내에 있다면, 최종 출력 횡방향 좌표는 0으로 그리고 최종 출력 종 방향 좌표는 문턱값5(TH5)의 값으로 초기화 하도록 제 4 미들_디펜스_로직(331-4)이 구성될 수 있다.The output of the sensor fusion logic 310 is greater than the threshold value 6 (TH6) while the longitudinal coordinate of the radar 100 is greater than or equal to the threshold value 5 (TH5) If it is in the vehicle heading lane, the fourth middle_display_ logic 331-4 can be configured to initialize the final output lateral coordinate to zero and the final output longitudinal coordinate to a value of the threshold 5 (TH5) .

제 4 미들_디펜스_로직(331-4)은, 레이더(100)의 종방향 좌표값이 종방향 레이더 좌표의 최대값보다 크거나 같은 지를 판별하고(S610), 호스트 차량 차선 내에 센서 퓨전 로직(310)의 출력 좌표가 있는 지를 판별하고(S620), 만일 S610과 S620의 판별결과가 모두 참이라면 종방향 좌표를 종방향 레이더 최대값으로, 횡방향 좌표를 0으로 초기화시키고, 그 외에는 제 5 미들_디펜스_로직(331-5)을 고려한 좌표를 선택할 수 있다(S630).The fourth middle defense_ logic 331-4 determines whether the longitudinal coordinate value of the radar 100 is equal to or greater than the maximum value of the longitudinal radar coordinate (S610), and determines whether the sensor fusion logic 310 in step S620. If both of the determination results in S610 and S620 are true, the vertical coordinate is set to the vertical radar maximum value and the horizontal coordinate is set to zero. Otherwise, It is possible to select a coordinate in consideration of the def_logic 331-5 (S630).

제 4 미들_디펜스_로직(331-4)의 물리적 의미는, 제 2 ~ 제 3 미들_디펜스_로직(331-2, 331-3)이 선택되지 않은 상황에서 제 4 미들_디펜스_로직(331-4)의 조건이 참이라면, 타겟 차량은 완만한 커브 길에서 멀리 떨어져서 주행 중인 상황이고, 또한 타겟 차량은 호스트 차량의 주행 차선에 없을 확률이 높은 상황이다. 이런 상황에선 타겟을 추적하는 것이 무의미 하므로, 비록 카메라(200)에서 타겟 차량을 인지했다 하더라도, 이를 무시하고 최종 출력 좌표를 다음과 같이 초기화 시키라는 의미이다. 즉, 종 방향 좌표는 레이더(100)의 종 방향 최대 값으로 설정하고, 횡 방향 좌표는 0으로 설정될 수 있다.The physical meaning of the fourth middle_destination_logic 331-4 is that the fourth middle_destination_logic 331-4 in the situation where the second to third middle_destination_logic 331-2 and 331-3 are not selected 331-4 are true, the target vehicle is in a state of running away from a gentle curve road, and the target vehicle is highly likely not to be in the driving lane of the host vehicle. In this situation, it is meaningless to track the target, so even if the camera 200 recognizes the target vehicle, it will ignore it and initialize the final output coordinates as follows. That is, the longitudinal coordinate may be set to the maximum vertical value of the radar 100, and the lateral coordinate may be set to zero.

도 11은 본 발명의 실시 예에 따른 미들_디펜스_로직(331)의 다섯 번째 기능 블록(331-5)의 동작을 예시적으로 설명하는 도면이다. 도 11을 참조하면, 제 5 미들_디펜스_로직(331-5)은 아래와 같이 수행될 수 있다.11 is an exemplary diagram illustrating the operation of the fifth function block 331-5 of the middle_destination_logic 331 according to an embodiment of the present invention. Referring to FIG. 11, the fifth middle_dest_ logic 331-5 may be performed as follows.

레이더(100)의 횡 방향 좌표와 센서 퓨전 로직(310)의 최종 출력 좌표 중 횡 방향 좌표 값의 차이 값에 대한 절대 값이 호스트 차량의 좌우 차선 좌표 값 보다 크고 동시에, 레이더(100)의 횡 방향 좌표 값이 0이 아니라면, 레이더(100) 좌표를 최종 출력 좌표로 선택하도록 제 5 미들_디펜스_로직(331-5)이 구성될 수 있다.The absolute value of the difference between the lateral coordinate of the radar 100 and the lateral coordinate value of the final output coordinate of the sensor fusion logic 310 is larger than the left and right lane coordinate values of the host vehicle, If the coordinate value is not 0, the fifth middle_dest_ logic 331-5 can be configured to select the radar 100 coordinate as the final output coordinate.

제 5 미들_디펜스_로직(331-5)은, 레이더 횡방향 좌표와 카메라 횡방향 좌표의 차이값이 호스트 차량의 좌표보다 큰 지를 판별하고(S710), 호스트 차량 차선 내에 센서 퓨전 로직(310)의 출력 좌표가 있는 지를 판별하고(S720), 만일, S710과 S720이 모두 참이라면 레이더 좌표를 선택하고, 그 외에는 리어_프론트_로직(351)을 고려한 좌표를 선택할 수 있다(S730).The fifth middle defense_ logic 331-5 determines whether the difference between the radar lateral coordinate and the camera lateral coordinate is larger than the coordinates of the host vehicle (S710), and detects the sensor fusion logic 310 in the host vehicle lane. (S720). If both of S710 and S720 are true, it is possible to select the radar coordinate and otherwise, the coordinates considering the rear_front_logic 351 (S730).

제 5 미들_디펜스_로직(331-5)의 물리적 의미는 레이더(100)의 횡 방향 좌표 값이 0이 아니므로, 레이더(100)와 카메라(200)는 전방에 타겟 차량을 추적하고 있다는 의미인데, 레이더(100)의 횡 방향 좌표와 센서 퓨전 로직(310)의 최종 출력 좌표 중 횡 방향 좌표 값의 차이 값의 절대 값이 호스트 차량의 차선을 벗어난 경우이므로, 서로 다른 차선의 객체를 추적하고 있는 상황이다. 이러한 상황에선 카메라(200)는 옆 차선의 타겟 차량을 추적하고, 레이더(100)는 직선 거리에 있는 타겟 차량을 추적하는 상황이므로, 최종 출력 좌표로 레이더(100)의 좌표를 사용하라는 의미이다.The physical meaning of the fifth middle defense_logic 331-5 is that the radar 100 and the camera 200 are tracking the target vehicle ahead because the lateral coordinate value of the radar 100 is not zero Since the absolute value of the difference value between the lateral coordinate of the radar 100 and the final coordinate of the output of the sensor fusion logic 310 is out of the lane of the host vehicle, There is a situation. In this situation, the camera 200 tracks the target vehicle in the next lane, and the radar 100 tracks the target vehicle at a straight line distance. Therefore, the coordinate of the radar 100 is used as the final output coordinate.

도 12는 본 발명의 실시 예에 따른 리어_디펜스_로직(351)의 동작을 예시적으로 설명하는 흐름도이다. 도 12를 참조하면, 리어_디펜스_로직(351)의 기능 블록은 아래와 같이 수행될 수 있다.12 is a flowchart illustrating an operation of the Rear_Defence_logic 351 according to an embodiment of the present invention. Referring to FIG. 12, the functional block of the Rear_Defence_logic 351 may be implemented as follows.

리어_디펜스_로직(351)은, 제 1 ~ 제 5 미들_디펜스_로직(331-1 ~ 331-5)을 모두 고려한 출력 좌표, 제 1 ~ 제 3 미들_디펜스_로직(331-3 ~331-3)까지만 고려한 출력 좌표, 및 레이더(100)의 좌표 중 하나의 좌표를 최종 선택할 수 있다.The rear_destination_logic 351 includes output coordinates in which the first to fifth middle_destination_logic 331-1 to 331-5 are all considered, first to third middle_destination_logic 331-3, 331-3), and coordinates of one of the coordinates of the radar 100 can be finally selected.

제 1 ~ 제 3 미들_디펜스_로직(331-3 ~331-3)까지만 고려한 출력 좌표 중에서 종 방향 좌표 값이 제 1 ~ 제 5 미들_디펜스_로직(331-1 ~ 331-5)를 모두 고려한 출력 좌표 중에서 종 방향 좌표 값보다 크고 이와 동시에 문턱값5(TH5)의 값이 아니라면, 최종 출력 좌표 값으로 제 1 ~ 제 3 미들_디펜스_로직(331-1 ~ 331-3)까지만 고려한 출력 좌표를 선택하게 되고, 만약 이러한 조건이 거짓인 경우에는 제 1 ~ 제 5 미들_디펜스_로직(331-1 ~ 331-5)을 모두 고려한 출력 좌표 중에서 종 방향 좌표 값이 문턱값7(TH7)보다 작다면 최종 출력 좌표 값으로 레이더(100) 좌표 값을 사용하고, 제 1 ~ 제 5 미들_디펜스_로직(331-1 ~ 331-5)을 모두 고려한 출력 좌표 중에서 종 방향 좌표 값이 문턱값7(TH7)보다 크다면, 최종 출력 좌표 값으로 제 1 ~ 제 5 미들_디펜스_로직(331-1 ~ 331-5)을 모두 고려한 출력 좌표를 선택하도록 리어_디펜스_로직(351)이 구성될 수 있다.Among the output coordinates considered only from the first to third middle_destination_logic 331-3 to 331-3, the vertical coordinate value is set to the first to fifth middle_destination_logic 331-1 to 331-5 If the output coordinate is larger than the longitudinal coordinate value and at the same time is not the value of the threshold value 5 (TH5), the output considering only the first to third middle_destination_logic 331-1 to 331-3 as the final output coordinate value And if the condition is false, the coordinate value of the longitudinal direction is set to the threshold value 7 (TH7) among the output coordinates considering all of the first to fifth middle_destination_logic 331-1 to 331-5, The coordinate values of the radar 100 are used as the final output coordinate values, and among the output coordinates considering all of the first to fifth middle_destination_logic 331-1 to 331-5, 7 (TH7), the output coordinate values considering all of the first to fifth middle_dest_ logic 331-1 to 331-5 as final output coordinate values And the Rear_Dest_ logic 351 can be configured to select the Rear_Dest_ logic 351.

리어_디펜스_로직(351)은, 제 1 ~ 제 3 미들_디펜스_로직(331-1 ~ 331-3)을 고려한 종방향 좌표 출력값이 제 1 ~ 제 5 미들_디펜스_로직(331-1 ~ 331-5)을 고려한 종방향 좌표 출력값보다 큰 지를 판별하고(S810), 제 1 ~ 제 3 미들_디펜스_로직(331-1 ~ 331-3)을 고려한 출력 종방향 좌표와 종방향 레이더 최대 값이 같지 않는 지를 판별하고(S820), 만일, S810과 S820이 모두 참이라면, 미들_디펜스_로직을 고려한 종방향 좌표를 선택하고 그 외에는 아래의 단계를 진행하고(S830), 제 1 ~ 제 5 미들_디펜스_로직(331-1 ~ 331-5)을 고려한 출력 종방향 좌표가 문턱값7(TH7)보다 작은 지를 판별하고(S840), 만일 S840이 참이라면 레이더 좌표를 선택하고, 그 외에는 미들_디펜스_로직을 고려한 출력 종방향 좌표를 선택할 수 있다(S850).The rear_destination_logic 351 is configured such that the longitudinal coordinate output value considering the first to third middle_destination_logic 331-1 to 331-3 is the first to fifth middle_destination_logic 331-1 331-5 in step S810. If the output longitudinal coordinate and the longitudinal radar maximum value in consideration of the first to third middle_destination_logics 331-1 to 331-3 are determined (S820). If both S810 and S820 are true, it is determined whether or not the vertical coordinate in consideration of the middle_destination_logic is selected, otherwise, the following steps are performed (S830) It is determined whether the output longitudinal coordinate in consideration of the fifth_dest_rodies 331-1 to 331-5 is smaller than the threshold value 7 (S840). If S840 is true, the radar coordinate is selected. Otherwise, It is possible to select the output longitudinal coordinate in consideration of the middle_destination_logic (S850).

리어_디펜스_로직(351)은 최종 출력 좌표에 제 4 ~ 제 5 미들_디펜스_로직(331-4 ~ 331-5)을 고려할지 결정할 수 있다. 제 4 미들_디펜스_로직(331-4)는 최종 출력 좌표를 초기화 하는 기능 블록인데, 여기서의 주요 튜닝 인자는 AR Head up display device의 종 방향 최대 시야 각에 대한 거리 값인 문턱값6(TH6)이므로, 이 값의 설정에 따라 초기화 여부를 결정할 수 있다. 그리고, 제 5 미들_디펜스_로직(331-5)는 센서 퓨전 로직(310)의 출력 좌표 중 횡 방향 출력 좌표가 호스트 차량의 진행 방향 차선 밖에 있다면, 최종 출력 좌표로 레이더(100) 좌표를 선택하는 것이다. 여기서, 제 1 ~ 제 3 미들_디펜스_로직(331-1 ~ 331-3)의 종 방향 좌표 값이 제 1 ~ 제 5 미들_디펜스_로직(331-1 ~ 331-5)의 종 방향 좌표 값 보다 크다면, 제 1 ~ 제 3 미들_디펜스_로직(331-1 ~ 331-3)의 출력 좌표를 선택할 수 있다. 그 이유는 멀리 떨어진 객체일 수록 제 5 미들_디펜스_로직(331-5)의 조건 식인 타겟 차량이 호스트 차량의 진행 방향 차선에 있는 지를 고려하기 힘들기 때문이다.The rear_dest_ logic 351 may determine whether to consider the fourth through fifth middle_dest_ logic 331-4 through 331-5 in the final output coordinate. The fourth middle_destination_logic 331-4 is a functional block that initializes the final output coordinates, where the main tuning factor is the threshold 6 (TH6), which is the distance value for the longitudinal maximum viewing angle of the AR Head up display device, Therefore, it is possible to determine whether or not to initialize according to the setting of this value. The fifth middle_destination_logic 331-5 selects the coordinates of the radar 100 as final output coordinates if the lateral output coordinates of the output coordinates of the sensor fusion logic 310 are outside the lane of the host vehicle's traveling direction . In this case, if the longitudinal coordinate values of the first to third middle_destination_logic 331-1 to 331-3 are the longitudinal coordinates of the first to fifth middle_destination_logic 331-1 to 331-5 The output coordinates of the first to third middle_dest_ logic 331-1 to 331-3 can be selected. This is because it is difficult to consider whether the target vehicle, which is a condition expression of the fifth middle_dest_logic 331-5, is in the proceeding direction lane of the host vehicle, as the farther the object is.

만약, 반대의 상황이라면, 근거리의 타겟 차량에 대해 제 1 ~ 제 5 미들_디펜스_로직(331-1 ~ 331-5)를 고려하는 상황이다. 여기서, 예외 상황인 문턱값7(TH7)의 값과 제 1 ~ 제 5 미들_디펜스_로직(331-1 ~ 331-5)의 종 방향 좌표 값을 비교하는 것은, 문턱값7(TH7)의 값은 호스트 차량과 매우 근접한 거리 범위 이내의 값으로 설정함으로써, 만약 타겟 차량이 문턱값7(TH7) 범위 이내라면 레이더(100) 좌표 값을 선택하라는 의미이다. 만약, 최대 근거리 객체를 추적하는 특성이 레이더(100) 보다 카메라(200)가 더 좋다면, 카메라(200) 좌표를 선택하도록 리어_디펜스_로직(351)이 변경될 수 있다.If the situation is reversed, the first to fifth middle_dest_logic 331-1 to 331-5 are considered for the target vehicle in the close range. Here, comparing the value of the threshold 7 (TH7), which is an exception condition, with the longitudinal coordinate values of the first to fifth middle_destination_logic 331-1 to 331-5 is equivalent to setting the threshold 7 (TH7) Value is set to a value within a distance range very close to the host vehicle, meaning that if the target vehicle is within the range of the threshold value 7 (TH7), the radar 100 coordinate value is selected. If the camera 200 is more likely to track the nearest object than the radar 100, the rear_display_logic 351 may be modified to select the camera 200 coordinates.

상술된 바와 같이, 프론트_디펜스_로직(311), 미들_디펜스_로직(331)은 운전 상황을 고려하여 추가될 수 있으며, 또한 리어_디펜스_로직(351) 내에서 선택될 미들_디펜스_로직(331)의 기능 모듈 조합 또한 운전 상황을 고려하여 추가될 수 있다.As described above, the Front_Defence_logic 311 and the Middle_Dest__ logic 331 can be added in consideration of the driving situation, and the Middle_Dest_Plus_logic 311, The functional module combination of the logic 331 may also be added in consideration of the operating situation.

본 발명에 따른 단계들 및/또는 동작들은 기술분야의 통상의 기술자에 의해 이해될 수 있는 것과 같이, 다른 순서로, 또는 병렬적으로, 또는 다른 에포크(epoch) 등을 위해 다른 실시 예들에서 동시에 일어날 수 있다.The steps and / or operations in accordance with the present invention may occur in different orders, in parallel, or concurrently in other embodiments for other epochs or the like, as may be understood by one of ordinary skill in the art .

실시 예에 따라서는, 단계들 및/또는 동작들의 일부 또는 모두는 하나 이상의 비-일시적 컴퓨터-판독가능 매체에 저장된 명령, 프로그램, 상호작용 데이터 구조(interactive data structure), 클라이언트 및/또는 서버를 구동하는 하나 이상의 프로세서들을 사용하여 적어도 일부가 구현되거나 또는 수행될 수 있다. 하나 이상의 비-일시적 컴퓨터-판독가능 매체는 예시적으로 소프트웨어, 펌웨어, 하드웨어, 및/또는 그것들의 어떠한 조합일 수 있다. 또한, 본 명세서에서 논의된 "모듈"의 기능은 소프트웨어, 펌웨어, 하드웨어, 및/또는 그것들의 어떠한 조합으로 구현될 수 있다.Depending on the embodiment, some or all of the steps and / or operations may be performed on one or more non-transitory computer-readable media, including instructions, programs, interactive data structures, At least some of which may be implemented or performed using one or more processors. The one or more non-transitory computer-readable media can be, by way of example, software, firmware, hardware, and / or any combination thereof. Further, the functions of the " module " discussed herein may be implemented in software, firmware, hardware, and / or any combination thereof.

본 발명의 실시 예들의 하나 이상의 동작들/단계들/모듈들을 구현/수행하기 위한 하나 이상의 비-일시적 컴퓨터-판독가능 매체 및/또는 수단들은 ASICs(application-specific integrated circuits), 표준 집적 회로들, 마이크로 컨트롤러를 포함하는, 적절한 명령들을 수행하는 컨트롤러, 및/또는 임베디드 컨트롤러, FPGAs(field-programmable gate arrays), CPLDs(complex programmable 로직 devices), 및 그와 같은 것들을 포함할 수 있지만, 여기에 한정되지는 않는다.One or more non-transitory computer-readable media and / or means for implementing / performing one or more operations / steps / modules of embodiments of the present invention may be implemented as application-specific integrated circuits (ASICs), standard integrated circuits, But are not limited to, controllers that perform appropriate instructions, including microcontrollers, and / or embedded controllers, field-programmable gate arrays (FPGAs), complex programmable logic devices (CPLDs) .

한편, 본 발명의 실시 예에 따른 차량 추적 장치(10)는 다양한 종류의 차량(EV, PHEV, HEV, 등)에 장착될 수 있다. 한편, 본 발명의 차량 추적 장치가 차량 외에도 장착될 수 있다고 이해되어야 할 것이다.Meanwhile, the vehicle tracking device 10 according to the embodiment of the present invention can be mounted on various kinds of vehicles (EV, PHEV, HEV, etc.). On the other hand, it should be understood that the vehicle tracking device of the present invention can be mounted in addition to the vehicle.

한편, 상술 된 본 발명의 내용은 발명을 실시하기 위한 구체적인 실시 예들에 불과하다. 본 발명은 구체적이고 실제로 이용할 수 있는 수단 자체뿐 아니라, 장차 기술로 활용할 수 있는 추상적이고 개념적인 아이디어인 기술적 사상을 포함할 것이다.The above-described contents of the present invention are only specific examples for carrying out the invention. The present invention will include not only concrete and practical means themselves, but also technical ideas which are abstract and conceptual ideas that can be utilized as future technologies.

10: 차량 추적 장치
100: 레이더
200: 카메라
300: 전방 차량 추적기
310: 센서 퓨전 로직
320: 도로 조건 결정 로직
330: 탐색 로직
340: 타겟 차량 차선 추정 로직
350: 조합 결정 로직
311: 프론트_디펜스_로직
331: 미들_디펜스_로직
351: 리어_디펜스_로직
331-1 ~ 331-5 : 제 1 ~ 제 5 미들_디펜스_로직
10: vehicle tracking device
100: Radar
200: camera
300: Forward vehicle tracker
310: Sensor Fusion logic
320: Road condition determination logic
330: search logic
340: Target vehicle lane estimation logic
350: Combination decision logic
311: Front_Defence_logic
331: Middle_Defence_Rogic
351: Rear_Defence_logic
331-1 to 331-5: 1st to 5th Middle_Defence_Logic

Claims (16)

차량 추적 장치의 동작 방법에 있어서:
호스트 차량의 차선 정보를 근거로 하여 상기 호스트 차량의 직전 주행 인지를 판별하는 단계;
상기 호스트 차량이 직진 주행이라면, 레이더에서 감지한 타겟의 좌표와 카메라에서 감지한 타겟들의 좌표 사이의 거리를 계산하는 단계;
상기 계산된 거리들 중에서 제 1 최소 거리, 상기 제 1 최소 거리보다 긴 제 2 최소 거리, 및 상기 제 2 최소 거리보다 긴 제 3 최소 거리에 대응하는 상기 카메라의 좌표들을 추출하는 단계;
상기 추출된 좌표들의 각각과 상기 호스트 차량의 차선 내의 횡방향 좌표 혹은 종방향 좌표와의 상대 각도를 계산하는 단계; 및
상기 계산된 상대 각도를 이용하여 상기 추출된 좌표들 중에서 어느 하나를 상기 타겟의 출력 좌표로 선택하는 단계를 포함하는 방법.
A method of operating a vehicle tracking device comprising:
Determining whether the host vehicle is immediately preceding the host vehicle based on lane information of the host vehicle;
Calculating the distance between the coordinates of the target sensed by the radar and the coordinates of the targets sensed by the camera if the host vehicle is a straight run;
Extracting coordinates of the camera corresponding to a first minimum distance, a second minimum distance longer than the first minimum distance, and a third minimum distance longer than the second minimum distance among the calculated distances;
Calculating a relative angle between each of the extracted coordinates and a lateral or longitudinal coordinate within a lane of the host vehicle; And
Selecting one of the extracted coordinates as an output coordinate of the target using the calculated relative angle.
제 1 항에 있어서,
상기 호스트 차량이 직진 주행이 아니라면, 상기 1 최소 거리에 대응하는 카메라 좌표와 상기 레이더의 좌표 중에서 어느 하나를 선택하기 위하여 프론트_디펜스_로직을 수행하는 단계를 더 포함하는 방법.
The method according to claim 1,
If the host vehicle is not a straight run, performing front_dest_logic to select either the camera coordinates corresponding to the one minimum distance and the coordinates of the radar.
제 2 항에 있어서,
상기 프론트_디펜스_로직을 수행하는 단계는,
커브 비율이 노면 각도의 문턱값보다 크고, 상기 레이더의 종방향 좌표가 종방향 레이더 좌표의 최대값이라면, 상기 레이더 좌표를 선택하는 단계를 포함하는 방법.
3. The method of claim 2,
The step of performing the &lt; RTI ID = 0.0 &gt; front-defense-
Selecting the radar coordinate if the curve ratio is greater than the threshold of the road surface angle and the longitudinal coordinate of the radar is the maximum value of the longitudinal radar coordinate.
제 2 항에 있어서,
커브 비율이 노면 각도의 문턱값보다 크지 않거나, 혹은 상기 레이더의 종방향 좌표가 종방향 레이더 좌표의 최대값이 아니라면, 탐색 알고리즘에 의해 미들_디펜스_로직을 수행하는 단계를 포함하는 방법.
3. The method of claim 2,
If the curve rate is not greater than the threshold of the road surface angle, or if the longitudinal coordinate of the radar is not the maximum value of the longitudinal radar coordinate, performing the middle_dest_ logic by the search algorithm.
제 4 항에 있어서,
상기 미들_디펜스_로직을 수행하는 단계는,
상기 레이더의 횡방향 좌표가 0이 아니거나, 혹은 상기 호스트 차량의 차선 내에 센서 퓨전 로직의 출력 좌표가 존재하지 않을 때, 상기 센서 퓨전 로직의 출력 좌표를 선택하는 단계를 포함하는 방법.
5. The method of claim 4,
The step of performing the middle_dest_ logic comprises:
Selecting the output coordinates of the sensor fusion logic when the lateral coordinates of the radar are not zero or the output coordinates of the sensor fusion logic are not present in the lane of the host vehicle.
제 4 항에 있어서,
상기 미들_디펜스_로직을 수행하는 단계는,
상기 레이더의 횡방향 좌표가 0 이면서 상기 호스트 차량의 차선 내에 센서 퓨전 로직의 출력 좌표가 존재할 때, 상기 레이더의 종방향 좌표와 상기 카메라의 종방향 좌표의 차이가 사전에 결정된 문턱값보다 작은 지를 판별하는 단계; 및
상기 레이더의 종방향 좌표와 상기 카메라의 종방향 좌표의 차이가 상기 사전에 결정된 문턱값보다 작을 때 상기 레이더 좌표를 선택하는 단계를 포함하는 방법.
5. The method of claim 4,
The step of performing the middle_dest_ logic comprises:
It is determined whether the difference between the longitudinal coordinate of the radar and the longitudinal coordinate of the camera is smaller than a predetermined threshold value when the lateral coordinate of the radar is 0 and the output coordinate of the sensor fusion logic is present in the lane of the host vehicle ; And
Selecting the radar coordinate when the difference between the longitudinal coordinate of the radar and the longitudinal coordinate of the camera is less than the predetermined threshold.
제 4 항에 있어서,
상기 미들_디펜스_로직을 수행하는 단계는,
상기 레이더의 종방향 좌표와 상기 카메라의 종방향 좌표의 차이가 사전에 결정된 문턱값보다 작지 않을 때, 상기 레이더의 종방향 좌표가 종방향 레이더 좌표의 최대값인 지를 판별하는 단계;
상기 호스트 차량의 차선 내에 센서 퓨전 로직의 출력 좌표가 있는 지를 판별하는 단계; 및
상기 레이더의 종방향 좌표가 상기 종방향 레이더 좌표의 최대값이면서 상기 호스트 차량의 차선 내에 상기 센서 퓨전 로직의 출력 좌표가 있을 때, 상기 레이더 좌표를 선택하는 단계를 포함하는 방법.
5. The method of claim 4,
The step of performing the middle_dest_ logic comprises:
Determining whether the longitudinal coordinate of the radar is the maximum value of the longitudinal radar coordinate when the difference between the longitudinal coordinate of the radar and the longitudinal coordinate of the camera is not less than a predetermined threshold;
Determining whether the output coordinate of the sensor fusion logic is present in the lane of the host vehicle; And
Selecting the radar coordinate when the longitudinal coordinate of the radar is the maximum value of the longitudinal radar coordinate and the output coordinate of the sensor fusion logic is in the lane of the host vehicle.
제 4 항에 있어서,
상기 미들_디펜스_로직을 수행하는 단계는,
상기 레이더의 종방향 좌표가 종방향 레이더 좌표의 최대값보다 크거나 같은지를 판별하는 단계;
상기 호스트 차량의 차선 내에 센서 퓨전 로직의 출력 좌표가 있는 지를 판별하는 단계; 및
상기 레이더의 종방향 좌표가 상기 종방향 레이더 좌표의 최대값 보다 크거나 같으면서 상기 호스트 차량의 차선 내에 센서 퓨전 로직의 출력 좌표가 있을 때, 종방향 좌표를 종방향 레이더 최대값으로, 횡방향 좌표를 0으로 초기화시키는 단계를 포함하는 방법.
5. The method of claim 4,
The step of performing the middle_dest_ logic comprises:
Determining whether the longitudinal coordinate of the radar is greater than or equal to the maximum value of the longitudinal radar coordinate;
Determining whether the output coordinate of the sensor fusion logic is present in the lane of the host vehicle; And
When the coordinate of the longitudinal direction of the radar is greater than or equal to the maximum value of the longitudinal radar coordinates and the output coordinate of the sensor fusion logic is present in the lane of the host vehicle, the longitudinal coordinate is defined as the longitudinal radar maximum value, RTI ID = 0.0 &gt; 0. &Lt; / RTI &gt;
제 4 항에 있어서,
상기 미들_디펜스_로직을 수행하는 단계는,
상기 레이더의 종방향 좌표가 상기 종방향 레이더 좌표의 최대값 보다 작거나 혹은 상기 호스트 차량의 차선 내에 센서 퓨전 로직의 출력 좌표가 있지 않을 때, 상기 레이더의 횡방향 좌표와 상기 카메라의 횡방향 좌표의 차이가 상기 호스트 차량의 좌표보다 큰 지를 판별하는 단계;
상기 호스트 차량의 차선 내에 센서 퓨전 로직의 출력 좌표가 있는 지를 판별하는 단계; 및
상기 레이더의 횡방향 좌표와 상기 카메라의 횡방향 좌표의 차이가 상기 호스트 차량의 좌표보다 크면서 상기 호스트 차량의 차선 내에 상기 센서 퓨전 로직의 출력 좌표가 있을 때, 상기 레이더 좌표를 선택하는 단계를 포함하는 방법.
5. The method of claim 4,
The step of performing the middle_dest_ logic comprises:
When the longitudinal coordinate of the radar is smaller than the maximum value of the longitudinal radar coordinate or when there is no output coordinate of the sensor fusion logic in the lane of the host vehicle, the lateral coordinate of the radar and the lateral coordinate of the camera Determining whether the difference is greater than the coordinates of the host vehicle;
Determining whether the output coordinate of the sensor fusion logic is present in the lane of the host vehicle; And
Selecting the radar coordinates when the difference between the lateral coordinates of the radar and the lateral coordinates of the camera is greater than the coordinates of the host vehicle and the output coordinates of the sensor fusion logic are in the lane of the host vehicle How to.
제 9 항에 있어서,
상기 레이더의 횡방향 좌표와 상기 카메라의 횡방향 좌표의 차이가 상기 호스트 차량의 좌표보다 크지 않거나 혹은 상기 호스트 차량의 차선 내에 상기 센서 퓨전 로직의 출력 좌표가 있지 않을 때, 리어_디펜스_로직을 수행하는 단계를 더 포함하는 방법.
10. The method of claim 9,
When the difference between the lateral coordinate of the radar and the lateral coordinate of the camera is not larger than the coordinates of the host vehicle or when there is no output coordinate of the sensor fusion logic in the lane of the host vehicle, &Lt; / RTI &gt;
제 10 항에 있어서,
상기 리어_디펜스_로직을 수행하는 단계는,
상기 프론트_디펜스_로직에서 선택한 좌표, 상기 미들_디펜스_로직에서 선택한 좌표, 및 상기 레이더 좌표 중에서 어느 하나를 상기 타겟의 출력 좌표로 선택하는 단계를 포함하는 방법.
11. The method of claim 10,
The step of performing the Rear_Defence_ logic includes:
Selecting one of the coordinates selected in the front_destination_logic, the coordinates selected in the middle_destination_logic, and the radar coordinate as the output coordinates of the target.
레이더 신호를 전방 차량에 송신하고, 반사되는 레이더 신호를 수신함으로써 상기 전방 차량에 대한 제 1 차량 정보를 발생하는 레이더;
상기 전방 차량의 영상을 감지함으로써 제 2 차량 정보를 발생하는 카메라; 및
상기 제 1 차량 정보, 상기 제 2 차량 정보 및 차선 정보를 근거로 하여 상기 전방 차량을 추적하는 전방 차량 추적기를 포함하고,
상기 전방 차량 추적기는,
상기 차선 정보를 이용하여 상기 제 1 차량 정보와 상기 제 2 차량 정보를 융합하는 센서 퓨전 로직; 및
커브 길 주행 조건에서 상기 전방 차량을 추적하기 위한 탐색 로직을 포함하는 차량 추적 장치.
A radar that transmits a radar signal to a preceding vehicle and generates first vehicle information for the preceding vehicle by receiving a reflected radar signal;
A camera for generating second vehicle information by sensing an image of the preceding vehicle; And
And a forward vehicle tracker for tracking the forward vehicle based on the first vehicle information, the second vehicle information, and the lane information,
Said forward vehicle tracker comprising:
Sensor fusion logic for fusing the first vehicle information with the second vehicle information using the lane information; And
And navigation logic for tracking said forward vehicle in curve road driving conditions.
제 12 항에 있어서,
상기 센서 퓨전 로직은 최소 거리 탐색 알고리즘에 의거하여 상기 레이더에서 감지한 상기 전방 차량의 좌표와 상기 카메라에서 감지한 상기 전방 차량의 좌표 사이의 상대적인 유클리디안 거리를 계산하는 차량 추적 장치.
13. The method of claim 12,
Wherein the sensor fusion logic calculates a relative Euclidean distance between the coordinates of the preceding vehicle sensed by the radar and the coordinates of the preceding vehicle sensed by the camera based on a minimum distance search algorithm.
제 13 항에 있어서,
상기 센서 퓨전 로직은 호스트 차량이 커브 길을 주행할 때 상기 카메라의 좌표를 상기 전방 차량의 좌표로 선택하는 프론트_디펜스_로직을 포함하는 차량 추적 장치.
14. The method of claim 13,
Wherein the sensor fusion logic comprises front_display_ logic for selecting the coordinates of the camera as coordinates of the front vehicle when the host vehicle is traveling along a curve path.
제 14 항에 있어서,
상기 탐색 로직은 커브 비율이 노면 각도의 문턱값보다 크거나 혹은 상기 레이더의 종방향 좌표가 최대값이 아닐 때 외란이 있는 운전 상황을 고려하여 상기 전방 차량의 좌표를 선택하는 미들_디펜스_로직을 포함하는 차량 추적 장치.
15. The method of claim 14,
The search logic may select the coordinates of the preceding vehicle in consideration of a driving situation in which disturbance occurs when the curve ratio is larger than a threshold value of the road surface angle or when the longitudinal coordinate of the radar is not the maximum value Included vehicle tracking device.
제 15 항에 있어서,
상기 탐색 로직의 출력값을 수신하고, 상기 전방 차량에 대한 최종적인 출력 좌표를 출력하는 리어_디펜스_로직을 갖는 조합 결정 로직을 더 포함하는 차량 추적 장치.
16. The method of claim 15,
And combine decision logic having a rear_dest_ logic for receiving an output value of the search logic and outputting a final output coordinate for the preceding vehicle.
KR1020170149685A 2017-11-10 2017-11-10 Apparatus for tracking vehicle and operating method thereof KR102008257B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170149685A KR102008257B1 (en) 2017-11-10 2017-11-10 Apparatus for tracking vehicle and operating method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170149685A KR102008257B1 (en) 2017-11-10 2017-11-10 Apparatus for tracking vehicle and operating method thereof

Publications (2)

Publication Number Publication Date
KR20190053612A true KR20190053612A (en) 2019-05-20
KR102008257B1 KR102008257B1 (en) 2019-08-07

Family

ID=66678783

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170149685A KR102008257B1 (en) 2017-11-10 2017-11-10 Apparatus for tracking vehicle and operating method thereof

Country Status (1)

Country Link
KR (1) KR102008257B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112287719A (en) * 2019-07-23 2021-01-29 厦门雅迅网络股份有限公司 Lane line filtering method, terminal device and storage medium
CN114228713A (en) * 2021-12-07 2022-03-25 江铃汽车股份有限公司 Traffic jam auxiliary driving method, system, storage medium and equipment
KR102456151B1 (en) * 2022-01-07 2022-10-20 포티투닷 주식회사 Sensor fusion system based on radar and camera and method of calculating the location of nearby vehicles

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102505353B1 (en) 2022-03-11 2023-02-28 김익균 Smart illegal monitoring prevention system using smartphone interlocking function
KR102480011B1 (en) 2022-03-11 2022-12-20 김익균 Smart illegal surveillance prevention system using vehicle black box and GPS

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090103165A (en) * 2008-03-27 2009-10-01 주식회사 만도 Monocular Motion Stereo-Based Free Parking Space Detection Apparatus and Method
JP2012014520A (en) * 2010-07-01 2012-01-19 Toyota Motor Corp Obstacle detection device
KR20150055181A (en) 2013-11-12 2015-05-21 현대오트론 주식회사 Apparatus for displaying night vision information using head-up display and method thereof
KR101644370B1 (en) 2014-10-23 2016-08-01 현대모비스 주식회사 Object detecting apparatus, and method for operating the same
KR101742365B1 (en) 2012-03-15 2017-05-31 구글 인코포레이티드 Modifying behavior of autonomous vehicle based on predicted behavior of other vehicles
JP2017117345A (en) * 2015-12-25 2017-06-29 株式会社デンソー Drive support device and drive support method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090103165A (en) * 2008-03-27 2009-10-01 주식회사 만도 Monocular Motion Stereo-Based Free Parking Space Detection Apparatus and Method
JP2012014520A (en) * 2010-07-01 2012-01-19 Toyota Motor Corp Obstacle detection device
KR101742365B1 (en) 2012-03-15 2017-05-31 구글 인코포레이티드 Modifying behavior of autonomous vehicle based on predicted behavior of other vehicles
KR20150055181A (en) 2013-11-12 2015-05-21 현대오트론 주식회사 Apparatus for displaying night vision information using head-up display and method thereof
KR101644370B1 (en) 2014-10-23 2016-08-01 현대모비스 주식회사 Object detecting apparatus, and method for operating the same
JP2017117345A (en) * 2015-12-25 2017-06-29 株式会社デンソー Drive support device and drive support method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112287719A (en) * 2019-07-23 2021-01-29 厦门雅迅网络股份有限公司 Lane line filtering method, terminal device and storage medium
CN112287719B (en) * 2019-07-23 2024-05-03 厦门雅迅网络股份有限公司 Lane line filtering method, terminal equipment and storage medium
CN114228713A (en) * 2021-12-07 2022-03-25 江铃汽车股份有限公司 Traffic jam auxiliary driving method, system, storage medium and equipment
CN114228713B (en) * 2021-12-07 2024-01-26 江铃汽车股份有限公司 Traffic jam assisted driving method, system, storage medium and device
KR102456151B1 (en) * 2022-01-07 2022-10-20 포티투닷 주식회사 Sensor fusion system based on radar and camera and method of calculating the location of nearby vehicles

Also Published As

Publication number Publication date
KR102008257B1 (en) 2019-08-07

Similar Documents

Publication Publication Date Title
KR102008257B1 (en) Apparatus for tracking vehicle and operating method thereof
US11662733B2 (en) Trajectory setting device and trajectory setting method
US11703876B2 (en) Autonomous driving system
US10606278B2 (en) Constraint relaxation in a navigational system
US11288890B2 (en) Vehicular driving assist system
US10311618B2 (en) Virtual viewpoint position control device and virtual viewpoint position control method
Franke et al. 6d-vision: Fusion of stereo and motion for robust environment perception
Polychronopoulos et al. Sensor fusion for predicting vehicles' path for collision avoidance systems
US9708004B2 (en) Method for assisting a driver in driving an ego vehicle and corresponding driver assistance system
US10875530B2 (en) Travel control method and travel control device for drive-assisted vehicle
US7710246B2 (en) Vehicle driving assist system
US8706417B2 (en) Anchor lane selection method using navigation input in road change scenarios
US10179588B2 (en) Autonomous vehicle control system
KR101438941B1 (en) Apparatus and method for controlling parking assistance
JP2018517979A (en) Method for estimating driving lane
US11433897B2 (en) Method and apparatus for determination of optimal cruising lane in an assisted driving system
WO2011040119A1 (en) Vehicle controller
CN110490217B (en) Method and system for improved object detection and object classification
KR102569900B1 (en) Apparatus and method for performing omnidirectional sensor-fusion and vehicle including the same
CN110969059A (en) Lane line identification method and system
JP2021039659A (en) Drive support device
JP2017067535A (en) Periphery recognition device
Casapietra et al. Building a probabilistic grid-based road representation from direct and indirect visual cues
US20210026358A1 (en) Method and apparatus for method for dynamic multi-segment path and speed profile shaping
JP5249696B2 (en) Vehicle driving support device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant