KR20180079880A - Apparatus and method for tracking object - Google Patents

Apparatus and method for tracking object Download PDF

Info

Publication number
KR20180079880A
KR20180079880A KR1020170000583A KR20170000583A KR20180079880A KR 20180079880 A KR20180079880 A KR 20180079880A KR 1020170000583 A KR1020170000583 A KR 1020170000583A KR 20170000583 A KR20170000583 A KR 20170000583A KR 20180079880 A KR20180079880 A KR 20180079880A
Authority
KR
South Korea
Prior art keywords
sensing data
information
tracking
data
sensor
Prior art date
Application number
KR1020170000583A
Other languages
Korean (ko)
Other versions
KR102198810B1 (en
Inventor
신성근
이혁기
Original Assignee
자동차부품연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 자동차부품연구원 filed Critical 자동차부품연구원
Priority to KR1020170000583A priority Critical patent/KR102198810B1/en
Publication of KR20180079880A publication Critical patent/KR20180079880A/en
Application granted granted Critical
Publication of KR102198810B1 publication Critical patent/KR102198810B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/34Protecting non-occupants of a vehicle, e.g. pedestrians
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R2021/003Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks characterised by occupant or pedestian
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • B60W2420/42
    • B60W2420/52
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • B60W2550/10
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/802Longitudinal distance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2400/00Special features of vehicle units
    • B60Y2400/30Sensors

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)

Abstract

The present invention proposes an apparatus and a method for tracking an object, capable of robustly tracking the object based on data selected through validation verification between a predicted value and a measured value. An apparatus according to the present invention includes: an object information predicting unit for predicting information about an object based on first sensing data obtained at a previous time; a valid data determination unit that compares second sensing data obtained at a current time with information about the object to determine whether valid data exists in the second sensing data; and an object tracking unit for tracking the object based on at least one valid data if the existence of the valid data is determined.

Description

오브젝트 추적 장치 및 방법 {Apparatus and method for tracking object}[0001] Apparatus and method for tracking object [0002]

본 발명은 오브젝트를 추적하는 장치 및 방법에 관한 것이다. 보다 상세하게는, 차량에서 오브젝트를 추적하는 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for tracking an object. More particularly, the present invention relates to an apparatus and method for tracking an object in a vehicle.

오브젝트 추적(object tracking)은 센서로부터 계측된 데이터를 기반으로 오브젝트의 이동 경로를 추적하는 기법을 말한다. 이러한 오브젝트 추적은 차량에 적용되어 자동 긴급 제동 장치(AEBS; Auto Emergency Braking System) 등 능동 안전 시스템(Active safety system)에서 많이 활용되고 있다.Object tracking refers to a technique for tracking an object's movement path based on measured data from a sensor. Such object tracking is applied to vehicles and is widely used in an active safety system such as an automatic emergency braking system (AEBS).

그런데 종래의 오브젝트 추적은 센서 자체의 결함이나 가려짐(occlusion)과 같은 환경적 요인으로 인해 오브젝트가 미인식(miss detection)되면 오브젝트의 추적 성능이 저하되는 문제점이 있다. 차량이 주행중에 이러한 문제점에 노출되면 교통 사고를 회피하지 못하는 문제점이 생길 수 있다.However, conventional object tracking has a problem in that tracking performance of an object is degraded if an object is missed due to an environmental factor such as a defect or an occlusion of the sensor itself. If the vehicle is exposed to such a problem while driving, a traffic accident can not be avoided.

한국공개특허 제10-2016-0071162호 (공개일 : 2016.06.21.)Korean Patent Publication No. 10-2016-0071162 (Publication date: Jun. 2016)

본 발명은 상기한 문제점을 해결하기 위해 안출된 것으로서, 예측값과 측정값 사이의 유효성 검증을 통해 선별된 데이터들을 기초로 오브젝트를 강인하게 추적하는 오브젝트 추적 장치 및 방법을 제안하는 것을 목적으로 한다.It is an object of the present invention to provide an apparatus and method for tracking an object robustly based on data selected through validation between a predicted value and a measured value.

그러나 본 발명의 목적은 상기에 언급된 사항으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.However, the objects of the present invention are not limited to those mentioned above, and other objects not mentioned can be clearly understood by those skilled in the art from the following description.

본 발명은 상기한 목적을 달성하기 위해 안출된 것으로서, 이전 시간에 획득된 제1 센싱 데이터들을 기초로 오브젝트에 대한 정보를 예측하는 오브젝트 정보 예측부; 현재 시간에 획득된 제2 센싱 데이터들과 상기 오브젝트에 대한 정보를 비교하여 상기 제2 센싱 데이터들 중에 유효 데이터들이 존재하는지 여부를 판단하는 유효 데이터 판단부; 및 상기 유효 데이터들이 존재하는 것으로 판단되면 적어도 하나의 유효 데이터를 기초로 오브젝트를 추적하는 오브젝트 추적부를 포함하는 것을 특징으로 하는 오브젝트 추적 장치를 제안한다.According to an aspect of the present invention, there is provided an information processing apparatus including an object information predicting unit for predicting information about an object based on first sensing data acquired at a previous time; A valid data determination unit for comparing second sensing data obtained at a current time with information about the object to determine whether valid data exists among the second sensing data; And an object tracking unit for tracking the object based on at least one valid data if it is determined that the valid data exists.

바람직하게는, 상기 유효 데이터 판단부는 상기 제2 센싱 데이터들과 상기 오브젝트에 대한 정보 사이의 오차가 기준값 이하인지 여부를 기초로 상기 유효 데이터들이 존재하는지 여부를 판단한다.Preferably, the valid data determination unit determines whether the valid data exists based on whether an error between the second sensing data and the object information is less than or equal to a reference value.

바람직하게는, 상기 유효 데이터 판단부는 상기 유효 데이터들이 존재하는지 여부를 판단할 때 센서의 측정 오차, 상기 오브젝트의 주행 속도, 상기 오브젝트를 추적하는 차량의 주행 속도, 상기 오브젝트가 위치한 주변 환경에 대한 정보, 및 상기 차량이 위치한 주변 환경에 대한 정보 중 적어도 하나를 기초로 결정된 상기 기준값을 이용한다.Preferably, the valid data determination unit determines the presence or absence of the valid data based on at least one of a measurement error of the sensor, a traveling speed of the object, a traveling speed of the vehicle tracking the object, And information on a surrounding environment in which the vehicle is located.

바람직하게는, 상기 오브젝트 정보 예측부는 상기 오브젝트와 상기 오브젝트를 추적하는 차량 사이의 거리 정보, 상기 오브젝트와 상기 차량 사이의 속도 정보 및 상태 천이 행렬(state transition matrix)을 연산하여 상기 오브젝트에 대한 정보를 예측한다.Preferably, the object information predicting unit calculates distance information between the object and the vehicle tracking the object, velocity information between the object and the vehicle, and a state transition matrix to obtain information about the object Predict.

바람직하게는, 상기 오브젝트 정보 예측부는 상기 오브젝트의 종류에 대한 정보를 더 포함하여 상기 오브젝트에 대한 정보를 예측한다.Preferably, the object information predicting unit further includes information on the type of the object to predict information on the object.

바람직하게는, 상기 오브젝트 추적 장치는 상기 유효 데이터들이 존재하는지 여부와 관련된 제1 판단 결과를 기초로 상기 오브젝트의 미인식에 대응하기 위한 상기 오브젝트의 상태 정보를 생성하는 오브젝트 상태 생성부를 더 포함한다.Preferably, the object tracking device further includes an object state generator for generating state information of the object corresponding to the unrecognized object based on a first determination result related to whether or not the valid data exists.

바람직하게는, 상기 오브젝트 상태 생성부는 상기 오브젝트의 상태 정보를 생성할 때 상기 제1 센싱 데이터들이 존재하는지 여부와 관련된 제2 판단 결과, 상기 제2 센싱 데이터들이 최초로 획득된 데이터들인지 여부와 관련된 제3 판단 결과, 상기 유효 데이터들이 존재하는지 여부가 최초 판단인지 여부와 관련된 제4 판단 결과, 연속적으로 상기 유효 데이터들이 존재하는 것으로 판단되는지 여부와 관련된 제5 판단 결과, 및 연속적으로 상기 유효 데이터들이 존재하는 것으로 판단된 지 미리 정해진 시간이 경과했는지 여부와 관련된 제6 판단 결과 중 적어도 하나의 판단 결과를 더 이용한다.Preferably, when generating the object state information, the object state generator may generate the object state information based on a result of a second determination as to whether the first sensing data exists or not, As a result of the determination, as a result of the fourth determination as to whether or not the valid data exists, a fifth determination result related to whether or not the valid data continuously exists is determined. Or a sixth determination result related to whether or not a predetermined time has elapsed.

바람직하게는, 상기 오브젝트 상태 생성부는 상기 제2 판단 결과 내지 상기 제6 판단 결과를 모두 이용할 때 상기 제2 판단 결과, 상기 제3 판단 결과, 상기 제4 판단 결과, 상기 제5 판단 결과 및 상기 제6 판단 결과의 순서로 차례대로 이용한다.Preferably, the object state generation unit may generate the second determination result, the third determination result, the fourth determination result, the fifth determination result, and the second determination result when using the second determination result to the sixth determination result, 6 Use judgment results in order.

바람직하게는, 상기 오브젝트 추적 장치는 상기 오브젝트의 상태 정보를 기초로 상기 오브젝트를 계속 추적할 것인지 여부를 판단하는 오브젝트 추적 판단부를 더 포함한다.Preferably, the object tracking apparatus further includes an object tracking determination unit that determines whether to continue tracking the object based on the state information of the object.

바람직하게는, 상기 오브젝트 상태 생성부는 카메라 센서, 레이더 센서 및 라이다 센서 중 어느 하나의 센서에 의해 상기 제1 센싱 데이터들이 획득되고 다른 두 센서들에 의해 제6 센싱 데이터들과 제7 센싱 데이터들이 획득되면 상기 제1 센싱 데이터들과 상기 제6 센싱 데이터들 및 상기 제7 센싱 데이터들 중에서 선택된 적어도 하나의 센싱 데이터들을 기초로 상기 오브젝트의 상태 정보를 생성한다.Preferably, the object state generator is configured to acquire the first sensing data by one of a camera sensor, a radar sensor, and a ladder sensor, and generate second sensing data and seventh sensing data And generates state information of the object on the basis of at least one sensing data selected from the first sensing data, the sixth sensing data, and the seventh sensing data.

바람직하게는, 상기 오브젝트 상태 생성부는 상기 제1 센싱 데이터들이 상기 카메라 센서에 의해 획득된 센싱 데이터들이고 상기 제6 센싱 데이터들이 상기 레이더 센서에 의해 획득된 센싱 데이터들이며 상기 제7 센싱 데이터들이 상기 라이다 센서에 의해 획득된 센싱 데이터들이면, 먼저 상기 제7 센싱 데이터들을 기초로 상기 오브젝트의 상태 정보를 생성하고, 이후 상기 제1 센싱 데이터들과 상기 제6 센싱 데이터들 및 상기 제7 센싱 데이터들을 기초로 상기 오브젝트의 상태 정보를 생성하며, 이후 미리 정해진 조건에 부합할 때 상기 제1 센싱 데이터들 및 상기 제6 센싱 데이터들을 기초로 상기 오브젝트의 상태 정보를 생성하고, 이후 상기 제1 센싱 데이터들을 기초로 상기 오브젝트의 상태 정보를 생성하며, 이후 상기 제6 센싱 데이터들을 기초로 상기 오브젝트의 상태 정보를 생성한다.Preferably, the object state generation unit is configured to generate the object state data based on the sensed data obtained by the camera sensor and the sixth sensing data are sensed data obtained by the radar sensor, The sensing data obtained by the sensor may be generated by first generating state information of the object on the basis of the seventh sensing data and then, based on the first sensing data, the sixth sensing data, and the seventh sensing data Generates state information of the object, generates state information of the object based on the first sensing data and the sixth sensing data when the predetermined condition is satisfied, and then generates state information of the object based on the first sensing data Generates state information of the object, and then generates state information of the object based on the sixth sensing data And generates status information of the object.

바람직하게는, 상기 오브젝트 추적 장치는 상기 오브젝트의 상태 정보를 기초로 상기 오브젝트를 추적하는 차량의 주행을 제어하는 주행 제어부를 더 포함한다.Preferably, the object tracking apparatus further includes a travel control unit for controlling travel of the vehicle that tracks the object based on the state information of the object.

바람직하게는, 상기 오브젝트 추적부는 상기 유효 데이터들과 상기 오브젝트에 대한 정보 사이의 오차를 기초로 선택된 상기 적어도 하나의 유효 데이터를 기초로 오브젝트를 추적한다.Preferably, the object tracking unit tracks an object based on the at least one valid data selected based on an error between the valid data and the information about the object.

바람직하게는, 상기 유효 데이터 판단부는 관심 영역에 위치하는 오브젝트와 관련된 제2 센싱 데이터들 중에 상기 유효 데이터들이 존재하는지 여부를 판단한다.Preferably, the effective data determination unit determines whether the valid data exists among second sensing data related to the object located in the ROI.

바람직하게는, 상기 오브젝트 추적 장치는 상기 제1 센싱 데이터들과 다른 센서에 의해 획득된 제3 센싱 데이터들을 기초로 상기 오브젝트에 대한 정보가 예측되면 상기 제1 센싱 데이터들을 기초로 예측된 상기 오브젝트에 대한 정보 및 상기 제3 센싱 데이터들을 기초로 예측된 상기 오브젝트에 대한 정보를 기초로 제1 기준 범위를 결정하는 제1 범위 결정부를 더 포함하며, 상기 유효 데이터 판단부는 상기 제1 센싱 데이터들과 동일 센서에 의해 획득된 제4 센싱 데이터들 및 상기 제3 센싱 데이터들과 동일 센서에 의해 획득된 제5 센싱 데이터들을 상기 제1 기준 범위와 순차적으로 비교하여 상기 제4 센싱 데이터들 및 상기 제5 센싱 데이터들 중에 상기 유효 데이터들이 존재하는지 여부를 판단한다.Preferably, the object tracking apparatus estimates information on the object on the basis of the first sensing data and third sensing data obtained by another sensor, and if the object is predicted based on the first sensing data, And a first range determination unit for determining a first reference range based on the information on the object and the information on the predicted object based on the third sensing data, Sequentially comparing the fourth sensing data obtained by the sensor and the fifth sensing data obtained by the same sensor with the third sensing data to the first reference range to generate the fourth sensing data and the fifth sensing data, It is determined whether the valid data exists among the data.

바람직하게는, 상기 오브젝트 추적 장치는 상기 제1 센싱 데이터들과 다른 센서에 의해 획득된 제3 센싱 데이터들을 기초로 상기 오브젝트에 대한 정보가 예측되면 상기 제1 센싱 데이터들을 기초로 예측된 상기 오브젝트에 대한 정보를 기초로 제2 기준 범위를 결정하고, 상기 제3 센싱 데이터들을 기초로 예측된 상기 오브젝트에 대한 정보를 기초로 제3 기준 범위를 결정하는 제2 범위 결정부를 더 포함하며, 상기 유효 데이터 판단부는 상기 제1 센싱 데이터들과 동일 센서에 의해 획득된 제4 센싱 데이터들을 상기 제2 기준 범위와 비교하여 상기 제4 센싱 데이터들 중에 상기 유효 데이터들이 존재하는지 여부를 판단하고, 상기 제3 센싱 데이터들과 동일 센서에 의해 획득된 제5 센싱 데이터들을 상기 제3 기준 범위와 비교하여 상기 제5 센싱 데이터들 중에 상기 유효 데이터들이 존재하는지 여부를 판단한다.Preferably, the object tracking apparatus estimates information on the object on the basis of the first sensing data and third sensing data obtained by another sensor, and if the object is predicted based on the first sensing data, Further comprising a second range determination unit for determining a second reference range based on the information on the first sensing data and determining a third reference range based on information on the predicted object based on the third sensing data, The determination unit compares the fourth sensing data obtained by the same sensor with the first sensing data to the second sensing range to determine whether the valid data exists among the fourth sensing data, Comparing the fifth sensing data obtained by the same sensor with the data to the third reference range, Whether or not the valid data exists.

바람직하게는, 상기 오브젝트 정보 예측부는 상기 제1 센싱 데이터들과 다른 센서에 의해 제3 센싱 데이터들이 획득되면 상기 제1 센싱 데이터들과 상기 제3 센싱 데이터들을 결합하여 얻은 데이터들을 기초로 상기 오브젝트에 대한 정보를 예측한다.Preferably, when the third sensing data is acquired by a sensor different from the first sensing data, the object information predicting unit may predict the object based on the data obtained by combining the first sensing data and the third sensing data Predicts information about the user.

바람직하게는, 상기 오브젝트 정보 예측부는 상기 제1 센싱 데이터들과 다른 센서에 의해 제3 센싱 데이터들이 획득되면 상기 제1 센싱 데이터들과 상기 제3 센싱 데이터들 중에서 동일 아이템에 대하여 우선순위에 따라 선택된 센싱 데이터들을 기초로 상기 오브젝트에 대한 정보를 예측한다.Preferably, when the third sensing data is acquired by the sensor different from the first sensing data, the object information predicting unit may select the same item among the first sensing data and the third sensing data, And predicts information on the object based on the sensing data.

바람직하게는, 상기 오브젝트 추적 장치는 상기 유효 데이터들 중에 상기 오브젝트의 종류에 대한 정보가 포함되어 있지 않으면 상기 유효 데이터들 중에 상기 오브젝트의 속도 정보가 포함되어 있는지 여부를 판단하는 오브젝트 속도 판단부; 및 상기 유효 데이터들 중에 상기 오브젝트의 속도 정보가 포함되어 있는 것으로 판단되면 상기 오브젝트의 속도 정보를 기초로 상기 오브젝트의 종류에 대한 정보를 추정하는 제1 오브젝트 종류 추정부를 더 포함한다.Preferably, the object tracking apparatus includes an object speed determiner for determining whether the speed information of the object is included in the valid data if the information on the type of the object is not included in the valid data; And a first object type estimating unit for estimating information on the type of the object based on the speed information of the object if it is determined that the speed information of the object is included in the valid data.

바람직하게는, 상기 오브젝트 추적 장치는 상기 제1 센싱 데이터들 중에 상기 오브젝트의 종류에 대한 정보가 포함되어 있으면 상기 오브젝트의 종류에 대한 정보가 보행자인지 여부를 판단하는 제1 오브젝트 종류 판단부; 상기 오브젝트의 종류에 대한 정보가 보행자인 것으로 판단되면 상기 유효 데이터들 중에 상기 오브젝트의 종류에 대한 정보가 포함되어 있는지 여부를 판단하는 제2 오브젝트 종류 판단부; 및 상기 유효 데이터들 중에 상기 오브젝트의 종류에 대한 정보가 포함되어 있지 않은 것으로 판단되면 상기 제1 센싱 데이터들에 포함되어 있는 상기 오브젝트의 종류에 대한 정보를 상기 유효 데이터들에 포함시키는 제2 오브젝트 종류 추정부를 더 포함한다.Preferably, the object tracking apparatus includes a first object type determination unit determining whether information on a type of the object is a pedestrian if information on the type of the object is included in the first sensing data. A second object type determination unit for determining whether information on the type of the object is included in the valid data if it is determined that the information on the type of the object is a pedestrian; And if it is determined that information on the type of the object is not included in the valid data, information on the type of the object included in the first sensing data is included in the valid data And further includes an estimation unit.

또한 본 발명은 이전 시간에 획득된 제1 센싱 데이터들을 기초로 오브젝트에 대한 정보를 예측하는 오브젝트 정보 예측 단계; 현재 시간에 획득된 제2 센싱 데이터들과 상기 오브젝트에 대한 정보를 비교하여 상기 제2 센싱 데이터들 중에 유효 데이터들이 존재하는지 여부를 판단하는 유효 데이터 판단 단계; 및 상기 유효 데이터들이 존재하는 것으로 판단되면 적어도 하나의 유효 데이터를 기초로 오브젝트를 추적하는 오브젝트 추적 단계를 포함하는 것을 특징으로 하는 오브젝트 추적 방법을 제안한다.According to another aspect of the present invention, there is provided an information processing method including: an object information prediction step of predicting information on an object based on first sensing data obtained at a previous time; A valid data determination step of determining whether valid data exists among the second sensing data by comparing second sensing data obtained at a current time with information about the object; And an object tracking step of tracking an object based on at least one valid data if it is determined that the valid data exists.

바람직하게는, 상기 유효 데이터 판단 단계는 상기 제2 센싱 데이터들과 상기 오브젝트에 대한 정보 사이의 오차가 기준값 이하인지 여부를 기초로 상기 유효 데이터들이 존재하는지 여부를 판단한다.Preferably, the effective data determination step determines whether the valid data exists based on whether an error between the second sensing data and the object information is less than a reference value.

바람직하게는, 상기 유효 데이터 판단 단계는 상기 유효 데이터들이 존재하는지 여부를 판단할 때 센서의 측정 오차, 상기 오브젝트의 주행 속도, 상기 오브젝트를 추적하는 차량의 주행 속도, 상기 오브젝트가 위치한 주변 환경에 대한 정보, 및 상기 차량이 위치한 주변 환경에 대한 정보 중 적어도 하나를 기초로 결정된 상기 기준값을 이용한다.Preferably, the valid data determination step may include a step of determining whether the valid data exists, a measurement error of the sensor, a traveling speed of the object, a traveling speed of the vehicle tracking the object, Information based on at least one of information on the environment in which the vehicle is located and information on a surrounding environment in which the vehicle is located.

바람직하게는, 상기 오브젝트 정보 예측 단계는 상기 오브젝트와 상기 오브젝트를 추적하는 차량 사이의 거리 정보, 상기 오브젝트와 상기 차량 사이의 속도 정보 및 상태 천이 행렬(state transition matrix)을 연산하여 상기 오브젝트에 대한 정보를 예측한다.Preferably, the object information prediction step calculates distance information between the object and the vehicle tracking the object, velocity information between the object and the vehicle, and a state transition matrix to obtain information about the object .

바람직하게는, 상기 오브젝트 정보 예측 단계는 상기 오브젝트의 종류에 대한 정보를 더 포함하여 상기 오브젝트에 대한 정보를 예측한다.Preferably, the object information prediction step further includes information on the type of the object to predict information on the object.

바람직하게는, 상기 유효 데이터 판단 단계와 상기 오브젝트 추적 단계 사이에, 상기 유효 데이터들이 존재하는지 여부와 관련된 제1 판단 결과를 기초로 상기 오브젝트의 미인식에 대응하기 위한 상기 오브젝트의 상태 정보를 생성하는 오브젝트 상태 생성 단계를 더 포함한다.Preferably, state information of the object corresponding to the unrecognized object is generated between the valid data determination step and the object tracking step based on a first determination result related to whether or not the valid data exists And an object state generating step.

바람직하게는, 상기 오브젝트 상태 생성 단계는 상기 오브젝트의 상태 정보를 생성할 때 상기 제1 센싱 데이터들이 존재하는지 여부와 관련된 제2 판단 결과, 상기 제2 센싱 데이터들이 최초로 획득된 데이터들인지 여부와 관련된 제3 판단 결과, 상기 유효 데이터들이 존재하는지 여부가 최초 판단인지 여부와 관련된 제4 판단 결과, 연속적으로 상기 유효 데이터들이 존재하는 것으로 판단되는지 여부와 관련된 제5 판단 결과, 및 연속적으로 상기 유효 데이터들이 존재하는 것으로 판단된 지 미리 정해진 시간이 경과했는지 여부와 관련된 제6 판단 결과 중 적어도 하나의 판단 결과를 더 이용한다.Preferably, the object state generating step may include a step of, when generating the state information of the object, determining whether or not the first sensing data exists and a second determination result related to whether the second sensing data is the first acquired data 3 is a result of a fourth determination as to whether or not the valid data is present as a first determination result, and a fifth determination result related to whether or not the valid data is continuously determined to be present, Or a sixth determination result related to whether or not a predetermined time has elapsed since the determination of whether or not the predetermined time has elapsed.

바람직하게는, 상기 오브젝트 상태 생성 단계는 상기 제2 판단 결과 내지 상기 제6 판단 결과를 모두 이용할 때 상기 제2 판단 결과, 상기 제3 판단 결과, 상기 제4 판단 결과, 상기 제5 판단 결과 및 상기 제6 판단 결과의 순서로 차례대로 이용한다.Preferably, the object state generation step may include the second determination result, the third determination result, the fourth determination result, the fifth determination result, and the fourth determination result when using the second determination result to the sixth determination result. And the sixth determination result.

바람직하게는, 상기 오브젝트 상태 생성 단계와 상기 오브젝트 추적 단계 사이에, 상기 오브젝트의 상태 정보를 기초로 상기 오브젝트를 계속 추적할 것인지 여부를 판단하는 오브젝트 추적 판단 단계를 더 포함한다.Preferably, the method further includes an object tracking determination step between the object state generation step and the object tracking step to determine whether to continue tracking the object based on the object state information.

바람직하게는, 상기 오브젝트 상태 생성 단계는 카메라 센서, 레이더 센서 및 라이다 센서 중 어느 하나의 센서에 의해 상기 제1 센싱 데이터들이 획득되고 다른 두 센서들에 의해 제6 센싱 데이터들과 제7 센싱 데이터들이 획득되면 상기 제1 센싱 데이터들과 상기 제6 센싱 데이터들 및 상기 제7 센싱 데이터들 중에서 선택된 적어도 하나의 센싱 데이터들을 기초로 상기 오브젝트의 상태 정보를 생성한다.Preferably, the object state generation step may include a step of generating the object state data by obtaining the first sensing data by a sensor of a camera sensor, a radar sensor, and a ladder sensor, The state information of the object is generated based on at least one sensing data selected from the first sensing data, the sixth sensing data and the seventh sensing data.

바람직하게는, 상기 오브젝트 상태 생성 단계는 상기 제1 센싱 데이터들이 상기 카메라 센서에 의해 획득된 센싱 데이터들이고 상기 제6 센싱 데이터들이 상기 레이더 센서에 의해 획득된 센싱 데이터들이며 상기 제7 센싱 데이터들이 상기 라이다 센서에 의해 획득된 센싱 데이터들이면, 먼저 상기 제7 센싱 데이터들을 기초로 상기 오브젝트의 상태 정보를 생성하고, 이후 상기 제1 센싱 데이터들과 상기 제6 센싱 데이터들 및 상기 제7 센싱 데이터들을 기초로 상기 오브젝트의 상태 정보를 생성하며, 이후 미리 정해진 조건에 부합할 때 상기 제1 센싱 데이터들 및 상기 제6 센싱 데이터들을 기초로 상기 오브젝트의 상태 정보를 생성하고, 이후 상기 제1 센싱 데이터들을 기초로 상기 오브젝트의 상태 정보를 생성하며, 이후 상기 제6 센싱 데이터들을 기초로 상기 오브젝트의 상태 정보를 생성한다.Preferably, the object state generation step may be performed such that the first sensing data is the sensing data obtained by the camera sensor, the sixth sensing data is the sensing data obtained by the radar sensor, The first sensing data, the sixth sensing data, and the seventh sensing data are first generated based on the seventh sensing data, and then the first sensing data, the sixth sensing data, And generates state information of the object based on the first sensing data and the sixth sensing data when the predetermined condition is satisfied, and then generates the state information of the object based on the first sensing data and the sixth sensing data, To generate status information of the object, and then, based on the sixth sensing data, The state information of the object.

바람직하게는, 오브젝트 상태 생성 단계와 오브젝트 추적 단계 사이에, 상기 오브젝트의 상태 정보를 기초로 상기 오브젝트를 추적하는 차량의 주행을 제어하는 주행 제어 단계를 더 포함한다.Preferably, a traveling control step of controlling the traveling of the vehicle that tracks the object based on the state information of the object is provided between the object state generating step and the object tracking step.

바람직하게는, 상기 오브젝트 추적 단계는 상기 유효 데이터들과 상기 오브젝트에 대한 정보 사이의 오차를 기초로 선택된 상기 적어도 하나의 유효 데이터를 기초로 오브젝트를 추적한다.Advantageously, the tracking of the object tracks an object based on the at least one valid data selected based on an error between the valid data and the information about the object.

바람직하게는, 상기 유효 데이터 판단 단계는 관심 영역에 위치하는 오브젝트와 관련된 제2 센싱 데이터들 중에 상기 유효 데이터들이 존재하는지 여부를 판단한다.Preferably, the effective data determination step determines whether the valid data exists among second sensing data related to the object located in the ROI.

바람직하게는, 상기 오브젝트 정보 예측 단계와 상기 유효 데이터 판단 단계 사이에, 상기 제1 센싱 데이터들과 다른 센서에 의해 획득된 제3 센싱 데이터들을 기초로 상기 오브젝트에 대한 정보가 예측되면 상기 제1 센싱 데이터들을 기초로 예측된 상기 오브젝트에 대한 정보 및 상기 제3 센싱 데이터들을 기초로 예측된 상기 오브젝트에 대한 정보를 기초로 제1 기준 범위를 결정하는 제1 범위 결정 단계를 더 포함하며, 상기 유효 데이터 판단 단계는 상기 제1 센싱 데이터들과 동일 센서에 의해 획득된 제4 센싱 데이터들 및 상기 제3 센싱 데이터들과 동일 센서에 의해 획득된 제5 센싱 데이터들을 상기 제1 기준 범위와 순차적으로 비교하여 상기 제4 센싱 데이터들 및 상기 제5 센싱 데이터들 중에 상기 유효 데이터들이 존재하는지 여부를 판단한다.Preferably, when the information about the object is predicted based on the third sensing data obtained by the sensor different from the first sensing data, between the object information predicting step and the valid data determination step, Further comprising a first range determining step of determining a first reference range based on information about the object predicted based on the data and information about the object predicted based on the third sensing data, The determining step sequentially compares the first sensing data with the fourth sensing data obtained by the same sensor and the fifth sensing data obtained by the same sensor with the third sensing data sequentially with the first reference range And determines whether the valid data exists among the fourth sensing data and the fifth sensing data.

바람직하게는, 상기 오브젝트 정보 예측 단계와 상기 유효 데이터 판단 단계 사이에, 상기 제1 센싱 데이터들과 다른 센서에 의해 획득된 제3 센싱 데이터들을 기초로 상기 오브젝트에 대한 정보가 예측되면 상기 제1 센싱 데이터들을 기초로 예측된 상기 오브젝트에 대한 정보를 기초로 제2 기준 범위를 결정하고, 상기 제3 센싱 데이터들을 기초로 예측된 상기 오브젝트에 대한 정보를 기초로 제3 기준 범위를 결정하는 제2 범위 결정 단계를 더 포함하며, 상기 유효 데이터 판단 단계는 상기 제1 센싱 데이터들과 동일 센서에 의해 획득된 제4 센싱 데이터들을 상기 제2 기준 범위와 비교하여 상기 제4 센싱 데이터들 중에 상기 유효 데이터들이 존재하는지 여부를 판단하고, 상기 제3 센싱 데이터들과 동일 센서에 의해 획득된 제5 센싱 데이터들을 상기 제3 기준 범위와 비교하여 상기 제5 센싱 데이터들 중에 상기 유효 데이터들이 존재하는지 여부를 판단한다.Preferably, when the information about the object is predicted based on the third sensing data obtained by the sensor different from the first sensing data, between the object information predicting step and the valid data determination step, Determining a second reference range based on information about the object predicted based on the data and determining a third reference range based on information on the predicted object based on the third sensing data, Wherein the valid data determination step includes comparing the fourth sensing data obtained by the sensor with the first sensing data to the second reference range to determine whether the valid data is included in the fourth sensing data Determining whether or not the third sensing data is present, and comparing the fifth sensing data obtained by the same sensor with the third sensing data, Compared to the standard range, it is determined whether the valid data are present in said fifth sensing data.

바람직하게는, 상기 오브젝트 정보 예측 단계는 상기 제1 센싱 데이터들과 다른 센서에 의해 제3 센싱 데이터들이 획득되면 상기 제1 센싱 데이터들과 상기 제3 센싱 데이터들을 결합하여 얻은 데이터들을 기초로 상기 오브젝트에 대한 정보를 예측한다.Preferably, the object information predicting step may include the step of predicting the object information based on the data obtained by combining the first sensing data and the third sensing data when the third sensing data is acquired by a sensor different from the first sensing data, Lt; / RTI >

바람직하게는, 상기 오브젝트 정보 예측 단계는 상기 제1 센싱 데이터들과 다른 센서에 의해 제3 센싱 데이터들이 획득되면 상기 제1 센싱 데이터들과 상기 제3 센싱 데이터들 중에서 동일 아이템에 대하여 우선순위에 따라 선택된 센싱 데이터들을 기초로 상기 오브젝트에 대한 정보를 예측한다.Preferably, when the third sensing data is acquired by the sensor different from the first sensing data, the object information predicting step may predict the same item among the first sensing data and the third sensing data according to a priority order And predicts information on the object based on the selected sensing data.

바람직하게는, 상기 유효 데이터 판단 단계와 상기 오브젝트 추적 단계 사이에, 상기 유효 데이터들 중에 상기 오브젝트의 종류에 대한 정보가 포함되어 있지 않으면 상기 유효 데이터들 중에 상기 오브젝트의 속도 정보가 포함되어 있는지 여부를 판단하는 오브젝트 속도 판단 단계; 및 상기 유효 데이터들 중에 상기 오브젝트의 속도 정보가 포함되어 있는 것으로 판단되면 상기 오브젝트의 속도 정보를 기초로 상기 오브젝트의 종류에 대한 정보를 추정하는 제1 오브젝트 종류 추정 단계를 더 포함한다.Preferably, if information on the type of the object is not included in the valid data between the valid data determination step and the object tracking step, whether or not the speed information of the object is included in the valid data Determining an object speed; And a first object type estimating step of estimating information on the type of the object based on the speed information of the object if it is determined that the speed information of the object is included in the valid data.

바람직하게는, 상기 유효 데이터 판단 단계와 상기 오브젝트 추적 단계 사이에, 상기 제1 센싱 데이터들 중에 상기 오브젝트의 종류에 대한 정보가 포함되어 있으면 상기 오브젝트의 종류에 대한 정보가 보행자인지 여부를 판단하는 제1 오브젝트 종류 판단 단계; 상기 오브젝트의 종류에 대한 정보가 보행자인 것으로 판단되면 상기 유효 데이터들 중에 상기 오브젝트의 종류에 대한 정보가 포함되어 있는지 여부를 판단하는 제2 오브젝트 종류 판단 단계; 및 상기 유효 데이터들 중에 상기 오브젝트의 종류에 대한 정보가 포함되어 있지 않은 것으로 판단되면 상기 제1 센싱 데이터들에 포함되어 있는 상기 오브젝트의 종류에 대한 정보를 상기 유효 데이터들에 포함시키는 제2 오브젝트 종류 추정 단계를 더 포함한다.Preferably, if the information on the type of the object is included in the first sensing data between the valid data determination step and the object tracking step, it is determined whether information on the type of the object is a pedestrian 1 object type determination step; A second object type determination step of determining whether information on the type of the object is included in the valid data if it is determined that the information on the type of the object is a pedestrian; And if it is determined that information on the type of the object is not included in the valid data, information on the type of the object included in the first sensing data is included in the valid data And an estimation step.

또한 본 발명은 컴퓨터에서 오브젝트 추적 방법을 실행시키기 위한 컴퓨터 판독 가능 매체에 저장된 컴퓨터 프로그램을 제안한다.The present invention also proposes a computer program stored on a computer readable medium for executing an object tracking method in a computer.

본 발명은 상기한 목적 달성을 위한 구성들을 통하여 다음 효과를 얻을 수 있다.The present invention can achieve the following effects through the above-described configurations.

첫째, 오브젝트가 일시적으로 미인식되더라도 오브젝트를 강건하게 추적하는 것이 가능해진다.First, it is possible to track the object robustly even if the object is temporarily unrecognized.

둘째, 선별된 유효 데이터들을 이용하기 때문에 다중 센서 환경에서도 빠르고 정확하게 오브젝트를 추적하는 것이 가능해진다.Second, using selected valid data makes it possible to track objects quickly and accurately even in a multi-sensor environment.

도 1은 본 발명의 일실시예에 따른 오브젝트 추적 관리 절차를 설명하기 위한 개념도이다.
도 2는 본 발명의 일실시예에 따른 오브젝트 추적 시스템의 작동 방법을 순차적으로 도시한 흐름도이다.
도 3은 본 발명의 일실시예에 따른 유효성 검증을 설명하기 위한 참고도이다.
도 4는 본 발명의 일실시예에 따른 유효성 검증 방식을 설명하기 위한 참고도이다.
도 5 및 도 6은 본 발명의 일실시예에 따른 오브젝트 추적 시스템의 오브젝트 추적 결과를 설명하기 위한 참고도들이다.
도 7은 다중 센서 환경에서 본 발명의 제1 실시예에 따라 오브젝트를 추적하는 방법을 설명하기 위한 흐름도이다.
도 8은 다중 센서 환경에서 본 발명의 제2 실시예에 따라 오브젝트를 추적하는 방법을 설명하기 위한 흐름도이다.
도 9는 본 발명의 일실시예에 따른 제2 퓨전 전략을 설명하기 위한 개념도이다.
도 10은 본 발명의 바람직한 실시예에 따른 오브젝트 추적 장치의 내부 구성들을 개략적으로 도시한 블록도이다.
도 11은 도 10의 오브젝트 추적 장치에 추가될 수 있는 내부 구성들을 도시한 블록도이다.
도 12는 본 발명의 바람직한 실시예에 따른 오브젝트 추적 방법을 개략적으로 도시한 흐름도이다.
FIG. 1 is a conceptual diagram for explaining an object tracking management procedure according to an embodiment of the present invention.
2 is a flowchart sequentially illustrating an operation method of an object tracking system according to an embodiment of the present invention.
3 is a reference diagram for explaining validity verification according to an embodiment of the present invention.
4 is a reference diagram for explaining a validity verification method according to an embodiment of the present invention.
5 and 6 are reference diagrams for explaining object tracking results of an object tracking system according to an embodiment of the present invention.
7 is a flowchart illustrating a method of tracking an object in a multi-sensor environment according to a first embodiment of the present invention.
8 is a flowchart illustrating a method of tracking an object in a multi-sensor environment according to a second embodiment of the present invention.
9 is a conceptual diagram illustrating a second fusion strategy according to an embodiment of the present invention.
FIG. 10 is a block diagram schematically illustrating internal configurations of an object tracking apparatus according to a preferred embodiment of the present invention.
11 is a block diagram illustrating internal configurations that may be added to the object tracking apparatus of FIG.
12 is a flowchart schematically illustrating an object tracking method according to a preferred embodiment of the present invention.

이하, 본 발명의 바람직한 실시예를 첨부된 도면들을 참조하여 상세히 설명한다. 우선 각 도면의 구성요소들에 참조 부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다. 또한, 이하에서 본 발명의 바람직한 실시예를 설명할 것이나, 본 발명의 기술적 사상은 이에 한정하거나 제한되지 않고 당업자에 의해 변형되어 다양하게 실시될 수 있음은 물론이다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the drawings, the same reference numerals are used to designate the same or similar components throughout the drawings. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear. In addition, the preferred embodiments of the present invention will be described below, but it is needless to say that the technical idea of the present invention is not limited thereto and can be variously modified by those skilled in the art.

본 발명은 오브젝트를 일시적으로 인식하지 못하더라도 그 오브젝트를 강인하게 추적하는 기술에 관한 것이다. 본 발명에서는 오브젝트의 일시적인 미인식 상황에 대응하기 위해 포텐셜 트랙(potential track)을 이용하며, 포텐셜 트랙을 통해 오브젝트를 계속적으로 추적함으로써 오브젝트에 대한 추적 성능을 향상시키고자 한다.The present invention relates to a technology for robustly tracking an object even if the object can not be recognized temporarily. In the present invention, a potential track is used to cope with a temporary unrecognized situation of an object, and an object is continuously tracked through a potential track to improve tracking performance of the object.

포텐셜 트랙은 반복적인 추적 과정을 통해 충분히 검증된 오브젝트를 대상으로 정의한다. 이러한 포텐셜 트랙은 오직 충분히 검증된 트랙(confirmed track)에서 전환되며, 전환 이후 일정 시간동안 재차 검증되지 않으면 스스로 소멸된다. 트랙의 상태 결정을 위한 검증 방법은 예측값과 측정값의 유효성을 확인하는 게이팅(gating) 과정을 통해 수행된다.The potential track defines a target that is sufficiently verified through a repetitive tracking process. These potential tracks are switched only on a fully confirmed track and disappear by themselves if they are not verified again for a certain period of time after switching. A verification method for determining the state of a track is performed through a gating process for verifying the validity of the predicted value and the measured value.

이하 도면들을 참조하여 본 발명에 대해 자세하게 설명한다.Hereinafter, the present invention will be described in detail with reference to the drawings.

도 1은 본 발명의 일실시예에 따른 오브젝트 추적 관리 절차를 설명하기 위한 개념도이다.FIG. 1 is a conceptual diagram for explaining an object tracking management procedure according to an embodiment of the present invention.

추적 대상 오브젝트의 상태를 정의하기 위한 라이프 사이클은 트랙 생성 단계, 트랙 상태 갱신 단계, 트랙 상태 유지 단계, 트랙 소멸 단계 등으로 구성된다. 라이프 사이클의 각 단계의 진행 상황에 따라 추적 대상 오브젝트의 상태는 도 1에 도시된 바와 같이 6가지 타입으로 정의된다.The life cycle for defining the state of the object to be tracked includes a track creation step, a track state update step, a track state maintenance step, a track extinction step, and the like. According to the progress of each stage of the life cycle, the state of the object to be tracked is defined as six types as shown in FIG.

엠프티 트랙(Empty track; 110)은 차량의 주행에 아무런 영향을 미치지 않는 오브젝트의 상태를 정의한 것이다. 오브젝트가 차량으로부터 미리 정해진 거리 이내에 위치하지 않는 경우, 오브젝트가 추적 대상에서 제외된 경우 등일 때 이 오브젝트의 상태는 엠프티 트랙(110)으로 정의된다.Empty track 110 defines the state of an object that has no effect on the running of the vehicle. The state of this object is defined as the empty track 110 when the object is not located within a predetermined distance from the vehicle, when the object is excluded from the tracking object, and the like.

제1 이니시에이터 트랙(Initiator 1 track; 120)은 차량 센서에 의해 최초로 인식된 오브젝트의 상태를 정의한 것이다. 오브젝트가 차량으로부터 미리 정해진 거리 이내에 진입하여 이 오브젝트가 차량 센서에 의해 감지되는 경우 이 오브젝트의 상태는 제1 이니시에이터 트랙(120)으로 정의된다.A first initiator track (Initiator 1 track) 120 defines the state of the object initially recognized by the vehicle sensor. The state of this object is defined as the first initiator track 120 when the object is within a predetermined distance from the vehicle and this object is sensed by the vehicle sensor.

제2 이니시에이터 트랙(Initiator 2 track; 130)은 차량 센서에 의해 인식된 뒤 첫번째 사이클에서 유효성이 검증된 오브젝트의 상태를 정의한 것이다. 본 발명에서는 유효성이 1회 검증되면 이 오브젝트의 상태를 제2 이니시에이터 트랙(130)으로 정의하는데, 제2 이니시에이터 트랙(130)으로 정의하기 위한 유효성 검증 횟수가 반드시 1회에 한정되는 것은 아니다. 차량 센서에 의해 인식된 뒤 첫번째 사이클에서 유효성이 검증되지 않으면 이 오브젝트의 상태는 이후 엠프티 트랙(110)으로 초기화된다.The second initiator track 130 defines the state of the validated object in the first cycle after being recognized by the vehicle sensor. In the present invention, once the validity is verified once, the state of this object is defined as the second initiator track 130, and the number of validity verifications for defining the second initiator track 130 is not necessarily limited to one. If the validity is not verified in the first cycle after being recognized by the vehicle sensor, the state of this object is then initialized to the empty track 110.

한편 상기에서 사이클(cycle)은 센서의 측정 주기를 의미한다. 유효성 검증 방법에 대한 자세한 설명은 후술한다.In the meantime, the cycle means a measurement period of the sensor. A detailed description of the validation method will be given later.

컨펌드 트랙(Confirmed track; 150)은 차량 센서에 의해 인식된 뒤 첫번째 사이클에 이어 두번째 사이클에서도 유효성이 검증된 오브젝트의 상태를 정의한 것이다. 본 발명에서는 유효성이 2회 연속 검증되면 이 오브젝트의 상태를 컨펌드 트랙(150)으로 정의하는데, 컨펌드 트랙(150)으로 정의하기 위한 유효성 연속 검증 횟수가 반드시 2회에 한정되는 것은 아니다. 오브젝트의 상태가 컨펌드 트랙(150)으로 정의되면, 차량은 이 오브젝트를 충돌 가능성이 있는 것으로 판단하고 이 오브젝트를 회피하여 주행할 수 있도록 제어하거나, 긴급 제동(EB; Emergency Braking) 기능을 수행한다.The Confirmed track 150 defines the state of the validated object in the second cycle after the first cycle after being recognized by the vehicle sensor. In the present invention, when the validity is verified twice consecutively, the state of the object is defined as the conformed track 150, and the number of validity successive verifications to be defined as the concurrent track 150 is not necessarily limited to two times. When the state of the object is defined as the conformed track 150, the vehicle determines that the object is likely to be collided and controls the vehicle to travel by avoiding the object, or performs an emergency braking (EB) function .

제3 이니시에이터 트랙(Initiator 3 track; 140)은 이전 사이클에서 제2 이니시에이터 트랙(130)으로 정의된 오브젝트에 대하여 현재 사이클에서 유효성이 검증되지 않은 오브젝트의 상태를 정의한 것이다. 일례로, 제3 이니시에이터 트랙(140)은 차량 센서에 의해 인식된 뒤 첫번째 사이클에서는 유효성이 검증되었으나 두번째 사이클에서 유효성이 검증되지 않은 오브젝트의 상태를 정의한 것이다.The third initiator track 140 defines the state of the object that has not been validated in the current cycle for the object defined as the second initiator track 130 in the previous cycle. In one example, the third initiator track 140 defines the state of an object that has been validated in the first cycle but not yet validated in the second cycle after being recognized by the vehicle sensor.

현재 사이클에서 제3 이니시에이터 트랙(140)으로 정의된 오브젝트가 다음 사이클에서 유효성이 검증되면 이 오브젝트의 상태는 이후 컨펌드 트랙(150)으로 정의된다. 반면 현재 사이클에서 제3 이니시에이터 트랙(140)으로 정의된 오브젝트가 다음 사이클에서 유효성이 검증되지 않으면 이 오브젝트의 상태는 이후 엠프티 트랙(110)으로 초기화된다.If the object defined as the third initiator track 140 in the current cycle is validated in the next cycle, the state of this object is then defined as the concatenated track 150. [ On the other hand, if the object defined as the third initiator track 140 in the current cycle is not validated in the next cycle, the state of this object is then initialized to the empty track 110.

포텐셜 트랙(Potential track; 160)은 컨펌드 트랙(150)으로 정의된 오브젝트에 대하여 유효성 검증과 관련된 조건에 부합하지 않는 오브젝트의 상태를 정의한 것이다. 일례로, 포텐셜 트랙(160)은 컨펌드 트랙(150)으로 정의된 오브젝트를 대상으로 N회(ex. 3회)의 사이클 동안 유효성이 연속적으로 검증되지 않은 오브젝트의 상태를 정의한 것이거나, 또는 컨펌드 트랙(150)으로 정의된 오브젝트를 대상으로 제1 시간동안 유효성이 검증되지 않은 오브젝트의 상태를 정의한 것이다.A potential track 160 defines a state of an object defined as a concert track 150 that does not meet conditions related to validation. For example, the potential track 160 may define the state of an object for which validity is not continuously verified during a cycle of N times (eg, three) for an object defined as a concert track 150, And defines the state of an object whose validity is not verified during the first time period with respect to the object defined by the track 150. [

현재 사이클에서 포텐셜 트랙(160)으로 정의된 오브젝트가 다음 사이클에서 유효성이 검증되면 이 오브젝트의 상태는 이후 컨펌드 트랙(150)으로 정의된다. 반면 현재 사이클에서 포텐셜 트랙(160)으로 정의된 오브젝트가 다음 사이클에서 유효성이 검증되지 않으면 이 오브젝트의 상태는 이후 엠프티 트랙(110)으로 정의된다. 현재 사이클에서 포텐셜 트랙(160)으로 정의된 오브젝트가 제2 시간(ex. 2초)동안 유효성이 검증되지 않을 경우 이 오브젝트의 상태를 이후 엠프티 트랙(110)으로 정의하는 것도 가능하다.If the object defined as the potential track 160 in the current cycle is validated in the next cycle, the state of this object is then defined as the concatenated track 150. [ On the other hand, if the object defined as the potential track 160 in the current cycle is not validated in the next cycle, the state of this object will be defined as the empty track 110 thereafter. It is also possible to define the state of this object as the empty track 110 if the object defined as the potential track 160 in the current cycle is not validated for a second time (e.g., 2 seconds).

한편 본 발명에서는 센서의 FOV(Field Of View)를 기초로 오브젝트의 상태를 결정하는 것도 가능하다.In the present invention, it is also possible to determine the state of an object based on the FOV (Field Of View) of the sensor.

이전 사이클(K 시점)에서 오브젝트의 상태가 컨펌드 트랙(150)일 때 다음 사이클(K+1 시점)에서 오브젝트가 센서의 FOV를 벗어나면 센서에 의해 오브젝트에 대한 측정값이 계측되지 않는다. 따라서 이러한 경우에는 오브젝트의 상태를 컨펌드 트랙(150)에서 포텐셜 트랙(160)으로 변경한다. 또한 이전 사이클(K 시점)에서 오브젝트의 상태가 포텐셜 트랙(160)일 때 다음 사이클(K+1 시점)에서 오브젝트가 센서의 FOV를 벗어나면 정해진 룰을 따르지 않고 그 즉시 오브젝트의 상태를 포텐셜 트랙(160)에서 엠프티 트랙(110)으로 변경한다.The measured value for the object is not measured by the sensor when the object is out of the sensor's FOV at the next cycle (K + 1 time point) when the state of the object at the previous cycle (K point) is the concert track 150. [ Therefore, in this case, the state of the object is changed from the conformed track 150 to the potential track 160. [ When the object is out of the sensor FOV at the next cycle (K + 1 time) when the state of the object is the potential track 160 in the previous cycle (K time point), the state of the object is not immediately followed by the potential track 160 to the empty track 110.

한편 오브젝트가 센서의 FOV 이내에 위치함에도 불구하고 오브젝트의 상태가 컨펌드 트랙(150)에서 포텐셜 트랙(160)으로 변경되었다면 센서에 의해 오브젝트가 인식되지 않았거나 센서가 고장난 것으로 판단할 수 있다. 따라서 이러한 경우에는 오브젝트의 상태가 컨펌드 트랙(150)으로 유지된 시간을 기초로 오브젝트의 상태를 결정할 수 있다.On the other hand, if the object state is within the FOV of the sensor but the state of the object is changed from the track 150 to the potential track 160, it can be determined that the object is not recognized by the sensor or that the sensor has failed. Therefore, in this case, the state of the object can be determined based on the time at which the state of the object is held in the concatenated track 150. [

일례로, K 시점에서 오브젝트의 상태가 컨펌드 트랙(150)에서 포텐셜 트랙(160)으로 변경된 경우, K 시점까지 오브젝트의 상태가 컨펌드 트랙(150)으로 유지된 시간이 기준 시간 이상인 것으로 판단되면, K+1 시점에서 오브젝트의 상태를 포텐셜 트랙(160)에서 모어 포텐셜 트랙(More potential track)으로 결정할 수 있다. 본 발명에서 모어 포텐셜 트랙은 컨펌드 트랙(150)으로 정의된 오브젝트를 대상으로 M회(단, M < N)의 사이클 동안 유효성이 연속적으로 검증되지 않은 오브젝트의 상태를 정의한 것이거나, 또는 컨펌드 트랙(150)으로 정의된 오브젝트를 대상으로 제3 시간(단, 제3 시간 < 제1 시간)동안 유효성이 검증되지 않은 오브젝트의 상태를 정의한 것이다.For example, if the state of the object at point K is changed from the track 150 to the potential track 160, if the time at which the state of the object is maintained until the point K is equal to or longer than the reference time , The state of the object at the time K + 1 can be determined as a more potential track in the potential track 160. In the present invention, the mower potential track is defined as a state in which the validity is not continuously verified during a cycle of M times (where M < N) with respect to the object defined as the concert track 150, And defines the state of an object whose validity is not verified during a third time (third time < first time) with respect to an object defined by the track 150. [

다음으로 유효성 검증 방법에 대해서 설명한다.Next, the validation method will be described.

유효성 검증 즉, 게이팅(Gating)은 이전 측정값과 관련된 예측값과 현재 측정값을 기초로 예측값과 현재 측정값 사이의 상관관계를 통해 유효한 현재 측정값을 추출하여 오브젝트의 상태를 판단하는 방법을 말한다. 상기에서 이전 측정값은 이전 시간에 센서에 의해 획득된 측정값을 의미하며, 현재 측정값은 현재 시간에 센서에 의해 획득된 측정값을 의미한다.Validation, or gating, refers to a method of determining the state of an object by extracting a valid current measurement value through a correlation between the predicted value and the current measured value based on the predicted value associated with the previous measurement and the current measured value. The previous measurement value means a measurement value obtained by the sensor at the previous time, and the current measurement value means the measurement value obtained by the sensor at the present time.

본 발명에서 오브젝트를 추적하는 시스템 즉, 오브젝트 추적 시스템은 도 2에 도시된 순서에 따라 오브젝트를 추적하고 그 추적 결과를 관리할 수 있다. 도 2는 본 발명의 일실시예에 따른 오브젝트 추적 시스템의 작동 방법을 순차적으로 도시한 흐름도이다.In the present invention, a system for tracking an object, that is, an object tracking system, can track objects and manage the tracking results according to the order shown in FIG. 2 is a flowchart sequentially illustrating an operation method of an object tracking system according to an embodiment of the present invention.

먼저 오브젝트 추적 시스템은 차량에 장착된 각종 센서들을 이용하여 센싱 데이터들을 획득한다(S210). 일례로, 오브젝트 추적 시스템은 카메라 센서를 이용하여 영상 데이터를 획득할 수 있으며, 거리 센서를 이용하여 차량에서 각 오브젝트까지의 상대 거리(relative distance) 데이터를 획득할 수 있다. 또한 오브젝트 추적 시스템은 속도 센서를 이용하여 차량에 대한 각 오브젝트의 상대 속도(relative speed) 데이터를 획득하는 것도 가능하다.First, the object tracking system acquires sensing data using various sensors mounted on the vehicle (S210). For example, the object tracking system can acquire image data using a camera sensor, and can acquire relative distance data from the vehicle to each object using the distance sensor. It is also possible for the object tracking system to obtain relative speed data of each object with respect to the vehicle using a speed sensor.

이후 오브젝트 추적 시스템은 센싱 데이터들을 기초로 각 오브젝트에 대하여 유효성 검증(Gating)을 실행한다(S220). 본 발명에서 오브젝트 추적 시스템은 관심 영역(ROI; Region Of Interest)에 위치하는 오브젝트에 대하여 유효성 검증을 실행할 수 있다. 이 경우 오브젝트 추적 시스템은 유효성 검증을 실행하기 전에 관심 영역을 설정할 수 있다. 오브젝트 추적 시스템은 센서의 FOV(Field Of View)를 기초로 관심 영역을 설정할 수 있다.Thereafter, the object tracking system performs validation (Gating) on each object based on the sensing data (S220). In the present invention, the object tracking system can perform validation on an object located in a region of interest (ROI). In this case, the object tracking system can set the region of interest before executing the validation. The object tracking system can set the region of interest based on the field of view (FOV) of the sensor.

각 오브젝트에 대한 유효성 검증(S220)은 다음 순서에 따라 수행될 수 있다.Validation (S220) for each object can be performed in the following order.

도 3은 본 발명의 일실시예에 따른 유효성 검증을 설명하기 위한 참고도이다. 이하 설명은 도 2 및 도 3을 참조한다.3 is a reference diagram for explaining validity verification according to an embodiment of the present invention. The following description refers to Fig. 2 and Fig.

먼저 오브젝트 추적 시스템은 도 3의 (a)에 도시된 바와 같이 이전 측정값 xk-1(310)을 획득한다(S221). 일례로 카메라 센서를 이용하는 경우, 오브젝트 추적 시스템은 이전 측정값 xk-1(310)로 오브젝트의 클래스 정보(class), 오브젝트의 종방향/횡방향 거리 정보(px, py), 오브젝트의 종방향/횡방향 속도 정보(vx, vy), 오브젝트의 폭 정보(width or w), 시간 정보 등을 획득할 수 있다. 레이더 센서를 이용하는 경우, 오브젝트 추적 시스템은 이전 측정값 xk-1(310)로 오브젝트의 종방향/횡방향 거리 정보, 오브젝트의 종방향/횡방향 속도 정보, 오브젝트의 폭 정보, 시간 정보 등을 획득할 수 있다.First, the object tracking system acquires the previous measurement value x k-1 310 as shown in FIG. 3 (a) (S221). When using a camera sensor for example, the object tracking system previously measured value x k-1 (310) class information (class) of the object, the longitudinal / lateral distance information of an object (px, py), the longitudinal direction of the object / Transverse velocity information (vx, vy), width information of the object (width or w), time information, and the like. In the case of using the radar sensor, the object tracking system uses the previous measurement value x k-1 (310) to determine the longitudinal / lateral distance information of the object, the longitudinal / lateral velocity information of the object, Can be obtained.

이후 오브젝트 추적 시스템은 도 3의 (b)에 도시된 바와 같이 이전 측정값 xk-1(310)을 기초로 현재 시간의 오브젝트와 관련된 예측값 x'k(320)를 생성한다(S222). 오브젝트 추적 시스템이 예측값 x'k(320)를 생성하는 방법에 대해서는 그 자세한 설명을 후술한다.The object tracking system then generates a predicted value x ' k 320 (S222) associated with the object of the current time based on the previous measurement x k-1 310 as shown in FIG. 3 (b). A detailed description of how the object tracking system generates the predicted value x ' k (320) will be described later.

이후 현재 측정값 zk(331, 332, 333)가 획득되면(S223), 오브젝트 추적 시스템은 도 3의 (c)에 도시된 바와 같이 예측값 x'k(320)와 현재 측정값 zk(331, 332, 333)를 비교하여 현재 측정값 zk(331, 332, 333)가 유효한 데이터인지 여부를 판단한다(S224). 본 발명에서 오브젝트 추적 시스템은 칼만 필터(kalman filter)를 이용하여 현재 측정값 zk(331, 332, 333)가 유효한 데이터인지 여부를 판단할 수 있다. 일례로, 오브젝트 추적 시스템은 예측값 x'k(320)를 기준으로 미리 정해진 범위(340) 이내에 현재 측정값 zk(331, 332, 333)가 위치하는지 여부를 기초로 현재 측정값 zk(331, 332, 333)가 유효한 데이터인지 여부를 판단할 수 있다.When the current measurement values z k (331, 332, 333) are obtained (S223), the object tracking system compares the predicted value x ' k (320) and the current measured value z k (331 , 332, and 333 to determine whether the current measured values z k (331, 332, and 333) are valid data (S224). In the present invention, the object tracking system can determine whether the current measurement values z k (331, 332, 333) are valid data using a Kalman filter. In one example, the object tracking system, a predicted value x 'k (320), the current measured value to within a predetermined range 340 based on the z k (331, 332, 333) is based on whether z k (331 current measurements that position , 332, and 333 are valid data.

이후 오브젝트 추적 시스템은 도 3의 (d)에 도시된 바와 같이 현재 측정값 zk(331, 332, 333) 중에서 예측값 x'k(320)를 기준으로 지정된 범위(340) 이내에 위치하는 제1 측정값 xk(331)을 유효한 데이터로 판단한다(S225).The object tracking system then determines a first measurement (x, y) that is within a specified range 340 based on the predicted value x ' k (320) among the current measurements z k (331, 332, 333) The value x k (331) is determined to be valid data (S225).

반면 오브젝트 추적 시스템은 현재 측정값 zk(331, 332, 333) 중에서 예측값 x'k(320)를 기준으로 지정된 범위(340) 이내에 위치하지 않는 제2 측정값(332)과 제3 측정값(333)을 유효하지 않은 데이터로 판단한다(S226).The object tracking system, on the other hand, includes a second measurement 332 and a third measurement 332 that are not located within the specified range 340 based on the predicted value x ' k 320 among the current measurements z k 331, 332, 333) as invalid data (S226).

이후 오브젝트 추적 시스템은 유효성 검증(S220)을 통해 유효한 데이터로 판단된 센싱 데이터들(ex. xk(331))을 기초로 각 오브젝트를 추적한다(S230).Then, the object tracking system tracks each object based on the sensing data (ex. X k (331)) determined as valid data through validation (S220) (S230).

또한 오브젝트 추적 시스템은 현재 측정값 zk(331, 332, 333)가 유효한 데이터인지 여부를 판단하여 얻은 결과를 기초로 오브젝트의 상태 정보를 생성한다(S240). 오브젝트의 상태 정보에 대해서는 도 1을 참조하여 전술하였는 바, 여기서는 그 자세한 설명을 생략한다.In addition, the object tracking system determines whether the current measurement values z k (331, 332, 333) are valid data, and generates state information of the object based on the obtained result (S240). The state information of the object has been described above with reference to FIG. 1, and a detailed description thereof will be omitted here.

이후 오브젝트 추적 시스템은 유효한 데이터로 판단된 센싱 데이터들 및 오브젝트의 상태 정보를 묶어서 오브젝트의 추적 정보로 저장 및 관리함으로써(S250) 이후 오브젝트를 다시 추적할 때에 이전 측정값으로 활용한다.Thereafter, the object tracking system stores the sensing data determined as valid data and the state information of the object as the tracking information of the object (S250), and then utilizes the sensing data as a previous measurement value when tracking the object again.

본 발명에서는 유효성 검증 방식으로 게이팅(Gating)을 이용할 수 있다. 도 4는 본 발명의 일실시예에 따른 유효성 검증 방식을 설명하기 위한 참고도이다.In the present invention, gating may be used as a validation method. 4 is a reference diagram for explaining a validity verification method according to an embodiment of the present invention.

도 4에 따르면, 오브젝트 추적 시스템은 이전 측정값을 기초로 생성된 예측값(320)을 기준으로 원형 게이트(gate; 350)를 생성한다.According to FIG. 4, the object tracking system generates a circular gate (gate) 350 based on the predicted value 320 generated based on the previous measurement.

이후 오브젝트 추적 시스템은 현재 측정값이 게이트(350) 내에 위치하는지 여부를 기초로 추적에 대한 유효성을 검증한다.The object tracking system then verifies the validity of the trace based on whether the current measurement is located within the gate 350.

게이트(350) 내에 2개 이상의 현재 측정값(o1(361), o2(362), o3(363), o4(364))이 위치하는 경우, 오브젝트 추적 시스템은 GNN(Global Nearest Neighbor) 방식을 이용하여 가장 인접한 현재 측정값(o4(364))을 선택한다.Gate 350 in the at least two current measured values (o 1 (361), o 2 (362), o 3 (363), o 4 (364)) If the position, the object tracking system Global Nearest Neighbor (GNN ) Method to select the closest current measurement (o 4 (364)).

이후 오브젝트 추적 시스템은 예측값(320)과 가장 인접한 현재 측정값 o4(364)을 융합하여 추정값을 생성한다.Since object tracking system to fuse the prediction value 320, and the closest current measured value o 4 (364) generates an estimated value.

다시 도 2 및 도 3을 참조하여 설명한다.Referring back to FIG. 2 and FIG.

본 발명에서는 기준 범위(또는 기준값)로 유효성 검증을 위한 게이트 사이즈(gate size)를 이용할 수 있다. 게이트 사이즈는 센서의 오차, 주행 속도, 주행 환경 등 센서의 정확도에 영향을 미칠 수 있는 팩터(factor)를 반영하여 설계하는 값으로서, 예컨대 2m가 이에 해당할 수 있다. 게이트 사이즈를 2m로 정의하는 경우, 도 3의 (c)에 도시된 바와 같이 예측값(320)의 2m(350) 이내에 현재 측정값(341)이 있으면 예측값(320)을 유효성이 있는 것으로 판단하며, 예측값(320)의 2m(350) 이내에 현재 측정값(342, 343)이 없으면 예측값(320)을 유효성이 없는 것으로 판단한다.In the present invention, a gate size for validity verification can be used as a reference range (or reference value). The gate size is a value designed to reflect a factor that may affect the accuracy of the sensor such as the error of the sensor, the running speed, and the running environment, for example, 2 m may correspond to this. When the gate size is defined as 2 m, if the current measured value 341 exists within 2 m (350) of the predicted value 320 as shown in FIG. 3 (c), the predicted value 320 is determined to be valid. If the current measured values 342 and 343 do not exist within 2m (350) of the predicted value 320, the predicted value 320 is judged to be invalid.

S243 단계 이후, 오브젝트 추적 시스템은 유효성 검증 결과를 기초로 추적 대상에 해당하는 오브젝트들을 관리한다(S244). 오브젝트 추적 시스템은 추적 리스트(track list)에 오브젝트의 상태, 오브젝트의 종류(type), 종방향 상대 거리(longitudinal relative distance), 횡방향 상대 거리(lateral relative distance) 등 차량에서 오브젝트까지의 상대 거리 정보, 종방향 상대 속도(longitudinal relative velocity), 횡방향 상대 속도(lateral relative velocity) 등 차량에 대한 오브젝트의 상대 속도 정보 등을 기록하여 추적 대상에 해당하는 오브젝트들을 관리할 수 있다.After step S243, the object tracking system manages the objects corresponding to the tracking object based on the result of the validation (S244). The object tracking system includes a track list in which information on the relative distance from the vehicle to the object, such as the state of the object, the type of the object, the longitudinal relative distance, and the lateral relative distance, The relative velocity of the object relative to the vehicle such as the longitudinal relative velocity and the lateral relative velocity may be recorded to manage objects corresponding to the object to be tracked.

한편 오브젝트 추적 시스템은 추적 대상에 해당하는 오브젝트들을 관리할 때 추적 대상과 추적 비대상을 구분하여 관리할 수 있다.On the other hand, the object tracking system can manage the tracking object and the tracking object when managing the objects corresponding to the tracking object.

오브젝트의 상태가 엠프티 트랙(110)이면, 오브젝트 추적 시스템은 이 오브젝트를 추적 비대상으로 결정하고, 이후부터는 관리 대상에서 제외시킨다. 반면 오브젝트의 상태가 엠프티 트랙(110)이 아니면 즉, 오브젝트의 상태가 제1 이니시에이터 트랙(120), 제2 이니시에이터 트랙(130), 제3 이니시에이터 트랙(140), 컨펌드 트랙(150), 포텐셜 트랙(160) 등이면, 오브젝트 추적 시스템은 이 오브젝트를 추적 대상으로 결정하고, 계속적으로 관리 대상에 포함시킨다.If the state of the object is the empty track 110, the object tracking system determines the object to be tracked and then excludes it from the management object. If the state of the object is not the empty track 110, that is, if the state of the object is the first initiator track 120, the second initiator track 130, the third initiator track 140, the concert track 150, The potential track 160, etc., the object tracking system determines the object to be tracked and continuously includes it in the object of management.

다음으로 오브젝트 추적 시스템이 예측값(320)을 생성하는 방법에 대하여 설명한다.Next, how the object tracking system generates the predicted value 320 will be described.

먼저 오브젝트 추적 시스템이 카메라 센서에 의해 획득된 정보를 기초로 예측값(320)을 생성하는 방법에 대하여 설명한다. 이하 카메라 센서에 의해 획득된 정보를 기초로 생성되는 예측값(320)을 제1 예측값으로 정의한다.First, a method for the object tracking system to generate the predicted value 320 based on the information obtained by the camera sensor will be described. Hereinafter, the predicted value 320 generated based on the information obtained by the camera sensor is defined as a first predicted value.

오브젝트 추적 시스템은 이전 상태를 기반으로 운동학적 예측 모델(dynamics model)을 통해 제1 예측값을 산출한다. 오브젝트 추적 시스템이 제1 예측값을 산출할 때 적용하는 예측 모델은 CV(Constant Velocity) 모델이다. 오브젝트 추적 시스템은 다음 수학식 1을 이용하여 이전 시점(k-1)에 다음 시점(k)에 대한 제1 예측값을 산출할 수 있다.The object tracking system calculates a first predicted value through a kinematic prediction model based on the previous state. The prediction model applied when the object tracking system calculates the first predicted value is a CV (Constant Velocity) model. The object tracking system can calculate the first predicted value for the next time point k at the previous point-in-time k-1 using the following equation (1).

Figure pat00001
Figure pat00001

상기에서 xc k|k-1은 현재 시점이 k-1일 때 다음 시점 k(time step k)에서의 추적 대상 오브젝트(object tracker)의 예측 위치(predicted state)를 의미하며, Classk|k-1은 다음 시점 k에서의 추적 대상 오브젝트의 종류를 의미한다. pxk|k-1은 다음 시점 k에서의 추적 대상 오브젝트의 종방향 상대 거리를 의미하며, pyk|k-1은 다음 시점 k에서의 추적 대상 오브젝트의 횡방향 상대 거리를 의미한다. vxk|k-1은 다음 시점 k에서의 추적 대상 오브젝트의 종방향 상대 속도를 의미하며, vyk|k-1은 다음 시점 k에서의 추적 대상 오브젝트의 횡방향 상대 속도를 의미한다.Means the predicted position (predicted state) of the tracking target object (object tracker) in the k-1 is the next point k (time step k) when the present time one k-1 and, Class k | | x c k from the k -1 indicates the type of the object to be tracked at the next point k. px k | k-1 represents the longitudinal relative distance of the tracking object at the next point k, and py k | k-1 represents the lateral relative distance of the tracking object at the next point k. vxk | k-1 denotes the longitudinal relative speed of the object to be traced at the next point k, and vyk | k-1 denotes the transverse relative speed of the object to be traced at the next point k.

한편 수학식 1에서 후자의 행렬식을 얻기 위해 전자의 행렬식과 연산하는 데에 이용되는 상태 천이 행렬(state transition matrix)은 다음 수학식 2와 같다.In order to obtain the latter determinant in Equation (1), the state transition matrix used to compute the determinant of the former is expressed by Equation (2).

Figure pat00002
Figure pat00002

다음으로 오브젝트 추적 시스템이 레이더 센서에 의해 획득된 정보를 기초로 예측값(320)을 생성하는 방법에 대하여 설명한다. 이하 레이더 센서에 의해 획득된 정보를 기초로 생성되는 예측값(320)을 제2 예측값으로 정의한다.Next, how the object tracking system generates the predicted value 320 based on the information obtained by the radar sensor will be described. The predicted value 320 generated based on the information obtained by the radar sensor is defined as a second predicted value.

제1 예측값을 산출할 때와 마찬가지로, 오브젝트 추적 시스템은 제2 예측값을 산출할 때에도 예측 모델로 CV 모델을 적용한다. 그런데 카메라 센서에 의해 획득되는 정보에는 오브젝트의 클래스 정보도 포함되어 있으나, 레이더 센서에 의해 획득되는 정보에는 오브젝트의 클래스 정보가 포함되어 있지 않다. 그래서 제2 예측값을 산출할 때에는 제1 예측값을 산출할 때와 달리 오브젝트의 클래스 정보를 제외시킨다.Similar to the case of calculating the first predicted value, the object tracking system applies the CV model as a prediction model even when calculating the second predicted value. However, the information obtained by the camera sensor includes the class information of the object, but the information obtained by the radar sensor does not include the class information of the object. Therefore, when calculating the second predicted value, the class information of the object is excluded unlike the case of calculating the first predicted value.

오브젝트 추적 시스템은 다음 수학식 3을 이용하여 이전 시점(k-1)에 다음 시점(k)에 대한 제2 예측값을 산출할 수 있다.The object tracking system can calculate the second predicted value for the next time point k at the previous time point (k-1) using the following Equation (3).

Figure pat00003
Figure pat00003

상기에서 xr k|k-1은 현재 시점이 k-1일 때 다음 시점 k에서의 추적 대상 오브젝트의 예측 위치를 의미한다.In the above, x r k | k-1 indicates the predicted position of the tracking object at the next point k when the current point of time is k-1.

한편 수학식 3에서 후자의 행렬식을 얻기 위해 전자의 행렬식과 연산하는 데에 이용되는 상태 천이 행렬(state transition matrix)은 다음 수학식 2와 같다.Meanwhile, in order to obtain the latter determinant in Equation (3), the state transition matrix used for calculating the matrix of the former is expressed by Equation (2).

다음으로 오브젝트 추적 시스템이 라이다 센서에 의해 획득된 정보를 기초로 예측값(320)을 생성하는 방법에 대하여 설명한다. 이하 설명에서는 라이다 센서에 의해 획득된 정보를 기초로 생성되는 예측값(320)을 제3 예측값으로 정의한다.Next, a method for the object tracking system to generate the predictive value 320 based on the information obtained by the lidar sensor will be described. In the following description, the predicted value 320 generated based on the information obtained by the Lidar sensor is defined as a third predicted value.

제2 예측값을 산출할 때와 마찬가지로, 오브젝트 추적 시스템은 제3 예측값을 산출할 때에도 예측 모델로 CV 모델을 적용한다. 오브젝트 추적 시스템은 수학식 3을 이용하여 이전 시점(k-1)에 다음 시점(k)에 대한 제3 예측값을 산출할 수 있다. 이때 오브젝트 추적 시스템은 xr k|k-1 대신 xl k|k-1을 수학식 3에 적용한다. xl k|k-1은 현재 시점이 k-1일 때 다음 시점 k에서의 추적 대상 오브젝트의 예측 위치를 의미한다.Similar to the case of calculating the second predicted value, the object tracking system applies the CV model as a prediction model even when calculating the third predicted value. The object tracking system can calculate the third predicted value for the next time point k at the previous point-in-time k-1 using the equation (3). The object tracking system x r k | k-1 is applied to the equation 3 | k-1 instead of l x k. x l k | k-1 is the predicted position of the object to be tracked at the next point k when the current point is k-1.

도 5 및 도 6은 본 발명의 일실시예에 따른 오브젝트 추적 시스템의 오브젝트 추적 결과를 설명하기 위한 참고도들이다.5 and 6 are reference diagrams for explaining object tracking results of an object tracking system according to an embodiment of the present invention.

도 5에 따르면, 자차량(410)에 장착된 오브젝트 추적 시스템(미도시)은 카메라 센서를 이용하여 미리 정해진 시간마다 타차량(420)과 보행자(430)를 인식한다.5, an object tracking system (not shown) mounted on the child vehicle 410 recognizes the other vehicle 420 and the pedestrian 430 at predetermined time intervals using a camera sensor.

이후 오브젝트 추적 시스템은 유효성 검증 방법을 이용하여 타차량(420)의 상태와 보행자(430)의 상태를 도 1에서 제안된 트랙들(110 ~ 160) 중 어느 하나로 결정한다.The object tracking system then uses the validation method to determine the state of the other vehicle 420 and the state of the pedestrian 430 as one of the tracks 110 to 160 suggested in FIG.

도 6의 (a)는 카메라 센서를 이용하여 얻은 정보를 기초로 미리 정해진 시간마다 타차량(420)의 상태와 보행자(430)의 상태를 결정하는 과정을 보여준다. 도 6의 (a)에서 상태값(state value)이 0이라는 것은 오브젝트의 상태가 엠프티 트랙(110)임을 의미하며, 상태값이 1이라는 것은 오브젝트의 상태가 제1 이니시에이터 트랙(120)임을 의미한다. 또한 상태값이 2라는 것은 오브젝트의 상태가 제2 이니시에이터 트랙(130)임을 의미하며, 상태값이 3이라는 것은 오브젝트의 상태가 제3 이니시에이터 트랙(140)임을 의미한다. 또한 상태값이 4라는 것은 오브젝트의 상태가 포텐셜 트랙(160)임을 의미하며, 상태값이 6이라는 것은 오브젝트의 상태가 컨펌드 트랙(150)임을 의미한다.6A shows a process of determining the state of the other vehicle 420 and the state of the pedestrian 430 at predetermined time intervals based on the information obtained using the camera sensor. The state value of 0 in FIG. 6A means that the state of the object is the empty track 110. The state value of 1 means that the state of the object is the first initiator track 120 do. A state value of 2 means that the state of the object is the second initiator track 130, and a state value of 3 means that the state of the object is the third initiator track 140. The state value of 4 means that the state of the object is the potential track 160, and the state value of 6 means that the state of the object is the concrete track 150. [

도 6의 (b)는 자차량(410)으로부터 오브젝트(420, 430)까지의 종방향 상대 거리를 시간별로 구분하여 표시한 것이며, 도 6의 (c)는 자차량(410)으로부터 오브젝트(420, 430)까지의 횡방향 상대 거리를 시간별로 구분하여 표시한 것이다. 종래에는 타차량(420)에 의해 보행자(430)가 은폐되면 더이상 보행자(430)를 추적하지 못하는 문제점이 있었다. 본 발명에서는 도 1에서 제안한 바와 같이 오브젝트의 상태를 구분하여 표시함으로써 오브젝트가 일시적으로 은폐되더라도 오브젝트를 강건하게 추적할 수 있다.6B is a diagram showing the longitudinal relative distances from the child vehicle 410 to the objects 420 and 430 in a time division manner and FIG. , 430) are shown separately by time. Conventionally, when the pedestrian 430 is hidden by another vehicle 420, the pedestrian 430 can not be traced. According to the present invention, as shown in FIG. 1, the state of an object is classified and displayed so that the object can be tracked robustly even if the object is temporarily hidden.

이상 도 1 내지 도 6을 참조하여 설명한 본 발명은 단일 센서 환경에서 유효성 검증을 통해 오브젝트를 추적하는 방법에 관한 것이다. 그러나 다중 센서 환경에서 유효성 검증을 통해 오브젝트를 추적하는 것도 가능하다. 이하에서는 이에 대해 설명한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention described with reference to FIGS. 1 through 6 relates to a method for tracking an object through validation in a single sensor environment. However, it is also possible to track objects through validation in a multi-sensor environment. This will be described below.

다중 센서 환경에서는 센서 자체의 오차 등 다양한 이유로 각 센서에 의한 오브젝트 추적 결과가 서로 상이해질 수 있다. 본 발명에서는 이러한 문제점을 해결하기 위해 센서 퓨전(sensor fusion) 전략을 제안한다. 본 발명에서 제안하는 센서 퓨전 전략에는 센싱 데이터들을 융합하여 오브젝트의 상태를 판단하는 방법, 각 센싱 데이터에 의한 유효성 검증 결과를 융합하여 오브젝트의 상태를 판단하는 방법 등이 있다. 이하에서는 전자의 방법을 제1 퓨전 전략으로 정의하고, 후자의 방법을 제2 퓨전 전략으로 정의한다.In a multi-sensor environment, object tracking results by each sensor may be different for various reasons such as the error of the sensor itself. In order to solve such a problem, the present invention proposes a sensor fusion strategy. The sensor fusion strategy proposed in the present invention includes a method of determining the state of an object by fusing sensed data and a method of determining the state of the object by fusing the results of validity verification by each sensing data. In the following, the former method is defined as the first fusion strategy, and the latter method is defined as the second fusion strategy.

먼저 제1 퓨전 전략에 대하여 설명한다. 본 발명에서 제1 퓨전 전략은 집중적 센서 퓨전(centralized sensor fusion) 구조를 가질 수 있다. 이하에서 설명할 제1 퓨전 전략은 2개의 센서들을 이용하는 환경을 일례로 들어 설명할 것이나, 본 발명에서 제1 퓨전 전략은 3개 이상의 센서들을 이용하는 것도 가능하다. 도 7은 다중 센서 환경에서 본 발명의 제1 실시예에 따라 오브젝트를 추적하는 방법을 설명하기 위한 흐름도이다.First, the first fusion strategy will be described. In the present invention, the first fusion strategy may have a centralized sensor fusion structure. A first fusion strategy to be described below will be described by way of example of an environment using two sensors, but it is also possible in the present invention to use three or more sensors as the first fusion strategy. 7 is a flowchart illustrating a method of tracking an object in a multi-sensor environment according to a first embodiment of the present invention.

먼저 오브젝트 추적 시스템은 이전 사이클에 제1 센서에 의해 획득된 제1 센싱 데이터와 제2 센서에 의해 획득된 제2 센싱 데이터를 수집한다(S510). 상기에서 제1 센싱 데이터는 이전 사이클에 제1 센서에 의해 획득된 오브젝트의 위치에 대한 정보(Detection from 1st sensor object only), 이전 사이클까지 제1 센서에 의해 획득된 오브젝트의 추적에 대한 정보(Detection from track only) 등을 포함할 수 있다. 제2 센싱 데이터도 제1 센싱 데이터와 마찬가지로 이전 사이클에 제2 센서에 의해 획득된 오브젝트의 위치에 대한 정보, 이전 사이클까지 제1 센서에 의해 획득된 오브젝트의 추적에 대한 정보 등을 포함할 수 있다.First, the object tracking system collects the first sensing data acquired by the first sensor and the second sensing data acquired by the second sensor in the previous cycle (S510). First sensing data from the information about the tracking of the object obtained by the first sensor information (Detection from 1 st sensor object only) for the position of the object obtained by the first sensor in the previous cycle, until the previous cycle ( Detection from track only). The second sensing data may include information on the position of the object acquired by the second sensor in the previous cycle, information on the tracking of the object acquired by the first sensor up to the previous cycle, and the like, as well as the first sensing data .

이후 오브젝트 추적 시스템은 제1 센싱 데이터를 기초로 다음 사이클에 대한 제1 예측값을 생성하며, 제2 센싱 데이터를 기초로 다음 사이클에 대한 제2 예측값을 생성한다(S520).The object tracking system then generates a first predicted value for the next cycle based on the first sensed data, and generates a second predicted value for the next cycle based on the second sensed data (S520).

이후 오브젝트 추적 시스템은 제1 예측값 및 제2 예측값과 관련하여 제1 기준 범위를 설정한다(S530). 이때 오브젝트 추적 시스템은 제1 예측값과 관련된 제1 범위와 제2 예측값과 관련된 제2 범위 사이의 교집합(cap)을 제1 기준 범위로 설정할 수 있으며, 제1 범위와 제2 범위 사이의 합집합(cup)을 제1 기준 범위로 설정하는 것도 가능하다.The object tracking system then sets a first reference range in relation to the first predicted value and the second predicted value (S530). The object tracking system may then set an intersection cap between a first range associated with the first predicted value and a second range associated with the second predicted value to a first reference range, ) May be set to the first reference range.

이후 오브젝트 추적 시스템은 현재 사이클에 제1 센서에 의해 획득된 제3 센싱 데이터와 제2 센서에 의해 획득된 제4 센싱 데이터를 수집한다(S540). 상기에서 제3 센싱 데이터는 현재 사이클에 제1 센서에 의해 획득된 오브젝트의 위치에 대한 정보, 현재 사이클까지 제1 센서에 의해 획득된 오브젝트의 추적에 대한 정보 등을 포함할 수 있다. 제4 센싱 데이터도 제3 센싱 데이터와 마찬가지로 현재 사이클에 제2 센서에 의해 획득된 오브젝트의 위치에 대한 정보, 현재 사이클까지 제2 센서에 의해 획득된 오브젝트의 추적에 대한 정보 등을 포함할 수 있다.The object tracking system then collects the third sensing data obtained by the first sensor and the fourth sensing data obtained by the second sensor in the current cycle (S540). The third sensing data may include information on the position of the object obtained by the first sensor in the current cycle, information on the tracking of the object obtained by the first sensor up to the current cycle, and the like. Like the third sensing data, the fourth sensing data may include information on the position of the object acquired by the second sensor in the current cycle, information on the tracking of the object acquired by the second sensor up to the current cycle, .

이후 오브젝트 추적 시스템은 제3 센싱 데이터와 제4 센싱 데이터가 제1 기준 범위 이내인지 여부를 판단한다(S550).Thereafter, the object tracking system determines whether the third sensing data and the fourth sensing data are within a first reference range (S550).

제3 센싱 데이터와 제4 센싱 데이터가 제1 기준 범위 이내인 것으로 판단되면, 오브젝트 추적 시스템은 오브젝트 추적에 대한 유효성이 검증된 것으로 판단한다(S560). 반면 제3 센싱 데이터와 제4 센싱 데이터 중 적어도 하나의 센싱 데이터가 제1 기준 범위 이내이지 않은 것으로 판단되면, 오브젝트 추적 시스템은 오브젝트 추적에 대한 유효성이 검증되지 않은 것으로 판단한다(S570).If it is determined that the third sensing data and the fourth sensing data are within the first reference range, the object tracking system determines that the validity of the object tracking is verified (S560). On the other hand, if it is determined that at least one of the third sensing data and the fourth sensing data is not within the first reference range, the object tracking system determines that the validity of the object tracking is not verified (S570).

한편 본 발명에서는 제3 센싱 데이터와 제4 센싱 데이터 중 적어도 하나의 센싱 데이터가 제1 기준 범위 이내인 것으로 판단되면, 오브젝트 추적 시스템이 오브젝트 추적에 대한 유효성이 검증된 것으로 판단하는 것도 가능하다.According to the present invention, if at least one of the third sensing data and the fourth sensing data is determined to be within the first reference range, it is also possible that the object tracking system determines that the validity of the object tracking is verified.

한편 본 발명에서는 S510 단계에서 제1 센싱 데이터와 제2 센싱 데이터가 수집되면 이 센싱 데이터들을 결합하여 결합 데이터를 생성하고, S520 단계에서 결합 데이터를 기초로 다음 사이클에 대한 하나의 예측값을 생성하는 것도 가능하다.In the present invention, when the first sensing data and the second sensing data are collected in step S510, the sensing data is combined to generate combined data, and in step S520, one prediction value for the next cycle is generated based on the combined data It is possible.

일례로, 제1 센싱 데이터가 카메라 센서에 의해 획득되는 정보들이며 제2 센싱 데이터가 레이더 센서에 의해 획득되는 정보들인 경우, 오브젝트의 클래스 정보, 오브젝트의 종방향/횡방향 거리 정보, 오브젝트의 종방향/횡방향 속도 정보, 오브젝트의 폭 정보, 시간 정보 등을 결합 데이터로 생성할 수 있다. 이 경우 결합 데이터는 카메라 센서에 의해 획득되는 정보들과 동일하므로, 카메라 센서에 의해 획득되는 정보들을 기초로 예측값을 생성하는 방법을 결합 데이터를 기초로 예측값을 생성하는 방법에 적용할 수 있다.For example, when the first sensing data is information obtained by the camera sensor and the second sensing data is information obtained by the radar sensor, the class information of the object, the longitudinal / lateral distance information of the object, / Lateral speed information, width information of an object, time information, and the like can be generated as combined data. In this case, since the combined data is the same as the information obtained by the camera sensor, a method of generating a predicted value based on information obtained by the camera sensor can be applied to a method of generating predicted values based on combined data.

한편 본 발명에서는 오브젝트 추적 시스템이 제1 센서와 제2 센서를 함께 이용하여 하나의 제5 센싱 데이터가 획득되면 이 제5 센싱 데이터를 수집하는 것도 가능하다. 이 경우 제5 센싱 데이터는 특정 사이클에 제1 센서와 제2 센서에 의해 획득된 오브젝트의 위치에 대한 정보(Detection from 1st sensor and 2nd sensor object), 특정 사이클까지 제1 센서에 의해 획득된 오브젝트의 추적에 대한 정보(Detection of associated track (1st sensor)), 특정 사이클까지 제2 센서에 의해 획득된 오브젝트의 추적에 대한 정보(Detection of associated track (2nd sensor)), 특정 사이클까지 제1 센서와 제2 센서에 의해 획득된 오브젝트의 추적에 대한 정보(Detection of associated track (1st sensor and 2nd sensor)) 등을 포함할 수 있다.In the present invention, it is also possible that the object tracking system collects the fifth sensing data when one fifth sensing data is obtained using the first sensor and the second sensor together. In this case, the fifth sensing data includes information on the position of the object obtained by the first sensor and the second sensor in a specific cycle (Detection from 1 st sensor and 2 nd sensor object) information (Detection of associated track (1 st sensor)), the tracking information (Detection of associated track (2 nd sensor)) for the object obtained by the second sensor to a specific cycle to the tracking of the object, claim to a certain cycle, (1 st sensor and 2 nd sensor) of the object obtained by the first sensor and the second sensor, and the like.

한편 본 발명에서는 오브젝트 추적 시스템이 제1 센서와 제2 센서를 함께 이용하여 제5 센싱 데이터를 수집하는 경우, 동일 내용 정보(ex. 차량에 대한 오브젝트의 종방향 상대 속도, 차량에 대한 오브젝트의 횡방향 상대 속도 등)에 대해 우선순위를 적용하여 제1 센서에 의해 획득된 정보와 제2 센서에 의해 획득된 정보 중 어느 하나의 정보를 제5 센싱 데이터로 수집하는 것도 가능하다.Meanwhile, in the present invention, when the object tracking system collects the fifth sensing data by using the first sensor and the second sensor together, the same content information (eg, longitudinal relative speed of the object with respect to the vehicle, Direction relative speed, and the like), it is possible to collect information of any one of the information obtained by the first sensor and the information obtained by the second sensor as the fifth sensing data.

다음으로 제2 퓨전 전략에 대하여 설명한다. 본 발명에서 제2 퓨전 전략은 분산적 센서 퓨전(decentralized sensor fusion) 구조를 가질 수 있다. 제2 퓨전 전략도 제1 퓨전 전략과 마찬가지로 2개의 센서가 적용된 환경을 일례로 들어 설명할 것이나, 본 발명에서 제2 퓨전 전략이 이에 한정되는 것은 아니다. 도 8은 다중 센서 환경에서 본 발명의 제2 실시예에 따라 오브젝트를 추적하는 방법을 설명하기 위한 흐름도이다.Next, the second fusion strategy will be described. In the present invention, the second fusion strategy may have a decentralized sensor fusion structure. As in the first fusion strategy, the second fusion strategy will be described as an example in which two sensors are applied, but the second fusion strategy is not limited thereto. 8 is a flowchart illustrating a method of tracking an object in a multi-sensor environment according to a second embodiment of the present invention.

먼저 오브젝트 추적 시스템은 이전 사이클에 제1 센서에 의해 획득된 제1 센싱 데이터와 제2 센서에 의해 획득된 제2 센싱 데이터를 수집한다(S610).First, the object tracking system collects the first sensing data obtained by the first sensor and the second sensing data obtained by the second sensor in the previous cycle (S610).

이후 오브젝트 추적 시스템은 제1 센싱 데이터를 기초로 다음 사이클에 대한 제1 예측값을 생성하며, 제2 센싱 데이터를 기초로 다음 사이클에 대한 제2 예측값을 생성한다(S620).Thereafter, the object tracking system generates a first predicted value for the next cycle based on the first sensed data, and generates a second predicted value for the next cycle based on the second sensed data (S620).

이후 오브젝트 추적 시스템은 제1 예측값과 관련하여 제2 기준 범위를 설정하며, 제2 예측값과 관련하여 제3 기준 범위를 설정한다(S630).Thereafter, the object tracking system sets a second reference range in relation to the first predicted value, and sets a third reference range in relation to the second predicted value (S630).

이후 오브젝트 추적 시스템은 현재 사이클에 제1 센서에 의해 획득된 제3 센싱 데이터와 제2 센서에 의해 획득된 제4 센싱 데이터를 수집한다(S640).The object tracking system then collects the third sensing data acquired by the first sensor and the fourth sensing data acquired by the second sensor in the current cycle (S640).

이후 오브젝트 추적 시스템은 제3 센싱 데이터가 제2 기준 범위 이내인지 여부를 판단하며(S650), 제4 센싱 데이터가 제3 기준 범위 이내인지 여부를 판단한다(S660).Thereafter, the object tracking system determines whether the third sensing data is within the second reference range (S650), and determines whether the fourth sensing data is within the third reference range (S660).

제3 센싱 데이터가 제2 기준 범위 이내인 것으로 판단되고 제4 센싱 데이터가 제3 기준 범위 이내인 것으로 판단되면, 오브젝트 추적 시스템은 오브젝트 추적에 대한 유효성이 검증된 것으로 판단한다(S670). 반면 제3 센싱 데이터가 제2 기준 범위 이내이지 않은 것으로 판단되거나 제4 센싱 데이터가 제3 기준 범위 이내이지 않은 것으로 판단되면, 오브젝트 추적 시스템은 오브젝트 추적에 대한 유효성이 검증되지 않은 것으로 판단한다(S680).If it is determined that the third sensing data is within the second reference range and the fourth sensing data is within the third reference range, the object tracking system determines that the validity of the object tracking is verified (S670). On the other hand, if it is determined that the third sensing data is not within the second reference range or the fourth sensing data is not within the third reference range, the object tracking system determines that the validity of the object tracking is not verified (S680 ).

한편 본 발명에서는 제3 센싱 데이터가 제2 기준 범위 이내인 것으로 판단되거나 제4 센싱 데이터가 제3 기준 범위 이내인 것으로 판단되면, 오브젝트 추적 시스템이 오브젝트 추적에 대한 유효성이 검증된 것으로 판단하는 것도 가능하다.According to the present invention, when it is determined that the third sensing data is within the second reference range or the fourth sensing data is within the third reference range, it is also possible that the object tracking system determines that the validity of the object tracking is verified Do.

제1 퓨전 전략은 집중적 센서 퓨전 구조를 가지는 것으로서, 오브젝트를 추적하기 전에 카메라 센서, 라이다 센서, 레이더 센서 등 각각의 센서에 의해 획득된 데이터들의 융합(data fusion)이 수행된다. 반면 제2 퓨전 전략은 분산적 센서 퓨전 구조를 가지는 것으로서, 카메라 센서, 라이다 센서, 레이더 센서 등 각각의 센서를 통해 오브젝트를 추적한 후에 이러한 센서들에 의해 획득된 데이터들의 융합이 수행된다. 본 발명에서는 후자의 데이터 융합을 트랙 투 트랙 데이터 퓨전(track to track data fusion)으로 정의한다.The first fusion strategy has an intensive sensor fusion structure, and data fusion of data obtained by each sensor such as a camera sensor, a lidar sensor, a radar sensor, etc. is performed before tracking an object. On the other hand, the second fusion strategy has a distributed sensor fusion structure. After the object is traced through each sensor such as a camera sensor, a lidar sensor, a radar sensor, etc., fusion of data obtained by these sensors is performed. In the present invention, the latter data fusion is defined as track to track data fusion.

도 9는 본 발명의 일실시예에 따른 제2 퓨전 전략을 설명하기 위한 개념도이다.9 is a conceptual diagram illustrating a second fusion strategy according to an embodiment of the present invention.

제2 퓨전 전략이 분산적 센서 퓨전 구조를 가질 경우 다음과 같은 특징들을 가질 수 있다.When the second fusion strategy has a distributed sensor fusion structure, it may have the following characteristics.

첫째, 카메라 센서, 레이더 센서, 라이다 센서 등 각 센서의 트래커(tracker)에 의해 상위 레벨에서 데이터 퓨전이 수행된다. 본 발명에서는 이를 상위 레벨 데이터 퓨전(high level data fusion)으로 정의한다.First, data fusion is performed at a higher level by a tracker of each sensor such as a camera sensor, a radar sensor, and a Lidar sensor. In the present invention, this is defined as high level data fusion.

카메라 센서(camera sensor)는 보통 90msec의 업데이트율(update rate)을 가진다(S710a). 레이더 센서(radar sensor)는 보통 50msec의 업데이트율을 가지며(S710b), 라이다 센서(lidar sensor)는 보통 80msec의 업데이트율을 가진다(S710c). 여기서 업데이트율은 센싱 데이터를 신규 획득하는 데에 걸리는 시간을 의미한다.The camera sensor usually has an update rate of 90 msec (S710a). The radar sensor usually has an update rate of 50 msec (S710b), and the lidar sensor usually has an update rate of 80 msec (S710c). Here, the update rate means the time taken to newly acquire the sensing data.

이와 같이 카메라 센서, 레이더 센서, 라이다 센서 등의 업데이트율은 서로 다르지만, 카메라 센서에 의해 획득되는 센싱 데이터들과 레이더 센서에 의해 획득되는 센싱 데이터들은 대체로 유사한 유형을 가지기 때문에, 카메라 센서와 레이더 센서의 경우 오브젝트를 추적하고(tracking) 그 오브젝트에 대한 추적 결과를 관리하는(track management) 데에 걸리는 시간을 예컨대 10ms로 서로 일치시킬 수 있다(S720a, S720b).Since the update rates of the camera sensor, the radar sensor, the Lidar sensor, and the like are different from each other, the sensing data obtained by the camera sensor and the sensing data obtained by the radar sensor have substantially similar types, The time taken to track the object and track management of the tracking result for the object may be matched to each other, for example, 10 ms (S720a, S720b).

하지만 라이다 센서의 경우 카메라 센서, 레이더 센서 등과 획득되는 센싱 데이터들의 유형이 서로 다르기 때문에, 카메라 센서, 레이더 센서 등보다 오브젝트를 추적하고 그 오브젝트에 대한 추적 결과를 관리하는 데에 걸리는 시간을 예컨대 1ms로 짧게 설정한다(S720c).However, since the types of sensing data obtained with the camera sensor and the radar sensor are different from each other in the case of the LIDAR sensor, the time required to track the object and manage the tracking result for the object such as the camera sensor, the radar sensor, (S720c).

카메라 센서에 의한 추적 결과(track(C)), 레이더 센서에 의한 추적 결과(track(R)), 라이다 센서에 의한 추적 결과(track(L)) 등이 생성되면, 오브젝트 추적 시스템은 다중 센서 데이터 퓨전(multi-sensor data fusion) 절차를 수행한다(S730).When the tracking result (track (C)) by the camera sensor, the tracking result (track (R) by the radar sensor) and the tracking result (track (L) A multi-sensor data fusion procedure is performed (S730).

먼저 오브젝트 추적 시스템은 레이트 트랜지션(rate transition)을 통해 각 센서에 의한 추적 결과가 획득되는 시간을 동기화시킨다(S731). 오브젝트 추적 시스템은 예컨대 동기화 시간(synchronization time)을 10ms로 설정할 수 있다.First, the object tracking system synchronizes the time at which the tracking result by each sensor is obtained through a rate transition (S731). The object tracking system may set the synchronization time to, for example, 10 ms.

이후 오브젝트 추적 시스템은 상위 레벨 데이터 퓨전 절차(S732), 추적 결과 관리 절차(S733), 오브젝트 분류 절차(S734) 등을 차례대로 수행한다.Thereafter, the object tracking system sequentially performs a high-level data fusion procedure S732, a tracking result management procedure S733, an object classification procedure S734, and the like.

상위 레벨 데이터 퓨전 절차(S732)는 카메라 센서에 의한 추적 결과, 레이더 센서에 의한 추적 결과, 라이다 센서에 의한 추적 결과 등을 통합시키는 단계를 의미한다. 상위 레벨 데이터 퓨전 절차(S732)는 트랙 투 트랙 데이터 퓨전(track to track data fusion) 방식에 따라 센싱 데이터들을 융합시키는데, 보다 자세한 설명은 후술하기로 한다.The high-level data fusion procedure S732 is a step of integrating the tracking result by the camera sensor, the tracking result by the radar sensor, and the tracking result by the Raidar sensor. The high-level data fusion procedure S732 fuses the sensing data according to a track to track data fusion method, which will be described later in more detail.

추적 결과 관리 절차(S733)는 카메라 센서에 의한 추적 결과, 레이더 센서에 의한 추적 결과, 라이다 센서에 의한 추적 결과 등을 저장 및 관리하는 단계를 의미한다.The tracking result management procedure (S733) is a step of storing and managing the tracking result by the camera sensor, the tracking result by the radar sensor, and the tracking result by the Raidar sensor.

오브젝트 추적 시스템은 추적 결과 관리 절차(S733)에서 각 센서에 의한 추적 결과를 저장 및 관리할 때 오브젝트의 존재 확률(existence probability 또는 existence level)을 계산하여 추적 결과로써 저장 및 관리할 수 있다. 여기서 오브젝트의 존재 확률은 게이팅 과정을 통해 오브젝트의 추적 이력을 모니터링하고, 유효성 검증에 따라 도 1에서 제안된 바와 같이 표현되는 오브젝트의 상태 정보를 의미한다.The object tracking system can store and manage the existence probability (existence probability or existence level) of the object when storing and managing the tracking result by each sensor in the tracking result management procedure (S733) as a result of tracking. Here, the existence probability of the object means the state information of the object which is expressed as shown in FIG. 1 according to the validity check, and monitors the trace history of the object through the gating process.

오브젝트 분류 절차(object classification; S734)는 카메라 센서에 의해 획득된 정보들을 기초로 오브젝트를 종류별로 구분하는 단계를 의미한다. 본 발명에서는 카메라 센서가 정상적으로 작동하지 않을 경우, 레이더 센서, 라이다 센서 등에 의해 획득된 정보들(ex. 차량의 속도, 오브젝트의 속도 등)을 기초로 오브젝트를 종류별로 구분하는 것도 가능하다.The object classification procedure (object classification S734) refers to a step of sorting objects by type based on information obtained by the camera sensor. In the present invention, when the camera sensor does not operate normally, it is also possible to classify objects based on information (e.g., vehicle speed, object speed, etc.) obtained by a radar sensor, a Lidar sensor, or the like.

이후 오브젝트 추적 시스템은 다중 센서들에 의해 획득된 정보들을 융합하여 얻은 결과를 기초로 오브젝트를 추적한다(S735). 본 발명에서는 이를 멀티 센서 퓨전 트랙(multi-sensor fusion track)으로 정의한다.The object tracking system then tracks the object based on the result obtained by fusing the information obtained by the multiple sensors (S735). In the present invention, this is defined as a multi-sensor fusion track.

둘째, 트랙 관리 절차(S720a, S720b, S720c)에서 각 센서의 트래커는 각 센서에 의해 획득된 정보, 오브젝트를 추적하여 얻은 결과 등을 저장 및 관리하며, 이외에 컨펌드 트랙(confirmed track), 포텐셜 트랙(potential track) 등 칼만 필터를 이용하여 얻은 오브젝트의 상태 정보 등도 함께 저장 및 관리한다.Second, in the track management procedure (S720a, S720b, S720c), the tracker of each sensor stores and manages the information acquired by each sensor, the result obtained by tracking the object, and the like, and the status information of the object obtained by using the Kalman filter such as a potential track.

셋째, 다중 센서들에 의한 오브젝트의 최종적인 상태 정보는 상위 레벨 데이터 퓨전 절차(S732)에서 결정된다.Third, the final state information of the object by the multiple sensors is determined in an upper level data fusion procedure (S732).

다음으로 상위 레벨 데이터 퓨전 절차(S732)에 대하여 설명한다. 이하에서는 카메라 센서, 레이더 센서, 라이다 센서 등이 구비된 다중 센서 환경을 일례로 들어 설명할 것이나, 본 발명에서 다중 센서 환경이 이에 한정되는 것은 아니다.Next, the high-level data fusion procedure S732 will be described. Hereinafter, a multi-sensor environment including a camera sensor, a radar sensor, a radar sensor, etc. will be described as an example, but the multi-sensor environment is not limited thereto.

① 라이다 기준 게이팅 및 어소시에이션(gating & association)① Lada standard gating and association (gating & association)

오브젝트 추적 시스템은 라이다 센서를 기준으로 게이팅을 수행하여 제1 트랙을 생성한다. 오브젝트 추적 시스템은 이를 통해 제1 단독 트랙, 제1 융합 트랙 등을 생성할 수 있다. 상기에서 제1 단독 트랙은 라이다 센서를 통해 얻은 센싱 데이터들만을 기초로 생성한 트랙을 의미하며, 제1 융합 트랙은 라이다 센서, 카메라 센서 및 레이더 센서를 통해 얻은 센싱 데이터들을 기초로 생성한 트랙을 의미한다.The object tracking system performs gating based on the Raider sensor to generate a first track. The object tracking system can thereby generate a first independent track, a first fusion track, and the like. In the above description, the first independent track means a track generated based only on the sensing data obtained through the Lydia sensor, and the first fusion track is generated based on the sensing data obtained through the Lydia sensor, the camera sensor, and the radar sensor Means a track.

② 카메라 기준 게이팅 및 어소시에이션② Camera-based gating and association

오브젝트 추적 시스템은 라이다 센서와 융합되지 않은 트랙 중 확신 트랙(confirmed track)에 대하여 카메라 센서 및 레이더 센서 간 융합을 수행하여 제2 트랙을 생성한다. 오브젝트 추적 시스템은 이를 통해 제2 융합 트랙을 생성할 수 있다. 상기에서 제2 융합 트랙은 카메라 센서 및 레이더 센서를 통해 얻은 센싱 데이터들을 기초로 생성한 트랙을 의미한다.The object tracking system generates a second track by performing a fusion between the camera sensor and the radar sensor with respect to the confirmed track among the tracks not fused with the Raider sensor. The object tracking system can thereby create a second fusion track. The second fusion track is a track generated based on sensing data obtained through a camera sensor and a radar sensor.

③ 단독 트랙③ Single track

오브젝트 추적 시스템은 ① 및 ②를 통해 융합되지 않은 검증 트랙을 단독으로 구성하여 제3 트랙을 생성한다. 오브젝트 추적 시스템은 이를 통해 제2 단독 트랙, 제3 단독 트랙 등을 생성할 수 있다. 상기에서 제2 단독 트랙은 카메라 센서를 통해 얻은 센싱 데이터들만을 기초로 생성한 트랙을 의미하며, 제3 단독 트랙은 레이더 센서를 통해 얻은 센싱 데이터들만을 기초로 생성한 트랙을 의미한다.The object tracking system generates the third track by independently composing the unfused verification tracks through (1) and (2). The object tracking system can thereby create a second independent track, a third independent track, and the like. The second independent track means a track generated based only on sensing data obtained through a camera sensor and the third independent track means a track generated based on only sensing data obtained through a radar sensor.

④ 게이팅 과정을 통해 클러스터링 기반 센서의 우선순위 기반 데이터 융합 수행④ Priority-based data fusion of clustering-based sensor through gating process

다중 센서들에 의해 획득되는 센싱 데이터들을 융합할 때 각 센싱 데이터별 우선순위는 일례로 다음 표 1에 도시된 바와 같이 나타낼 수 있다.The priority of each sensing data when fusing the sensing data obtained by the multiple sensors can be represented as shown in Table 1 below as an example.

우선순위Priority ClassClass PxPx PyPy VxVx VyVy WidthWidth 1One 카메라camera 라이다Lada 라이다Lada 라이다Lada 라이다Lada 카메라camera 22 EstimationEstimation 레이더Radar 카메라camera 레이더Radar 카메라camera Default valueDefault value 33 EstimationEstimation 카메라camera 레이더Radar 카메라camera 레이더Radar --

상기에서 Class는 오브젝트의 클래스 정보를 의미하며, Width는 오브젝트의 폭 정보를 의미한다. Px는 오브젝트의 종방향 거리 정보를 의미하며, Py는 오브젝트의 횡방향 거리 정보를 의미한다. Vx는 오브젝트의 종방향 속도 정보를 의미하며, Vy는 오브젝트의 횡방향 속도 정보를 의미한다.In the above, Class represents the class information of the object, and Width represents the width information of the object. Px denotes the longitudinal distance information of the object, and Py denotes the lateral distance information of the object. Vx denotes the longitudinal velocity information of the object, and Vy denotes the lateral velocity information of the object.

오브젝트의 클래스 정보, 오브젝트의 폭 정보 등은 카메라 센서에 의해 획득되는 센싱 데이터들에만 포함되어 있다. 따라서 오브젝트의 클래스 정보의 경우, 데이터 융합시 카메라 센서에 의해 획득된 센싱 데이터들이 융합되지 않으면 오브젝트 분류 절차(S734)를 통해 오브젝트의 타입을 추정한다(Estimation). 반면 오브젝트의 폭 정보의 경우, 데이터 융합시 카메라 센서에 의해 획득된 센싱 데이터들이 융합되지 않으면 미리 정해진 디폴트 값(default value)을 적용한다. 본 발명에서는 디폴트 값을 예컨대 0.3m ~ 1.5m로 설정할 수 있다.The class information of the object, the width information of the object, and the like are contained only in the sensing data obtained by the camera sensor. Accordingly, in the case of the class information of the object, if the sensing data acquired by the camera sensor is not fused during the data fusion, the object type is estimated through the object classification procedure S734. On the other hand, in the case of object width information, a predetermined default value is applied if the sensing data obtained by the camera sensor is not fused when data fusion is performed. In the present invention, the default value can be set to, for example, 0.3 m to 1.5 m.

한편 다중 센서 환경에서 오브젝트의 이전 상태가 포텐셜 트랙(160)인 경우 오브젝트의 현재 상태를 판단하는 방법은 다음과 같이 수행될 수 있다.Meanwhile, when the previous state of the object in the multiple sensor environment is the potential track 160, a method of determining the current state of the object may be performed as follows.

포텐셜 트랙(160)은 오브젝트의 존재 확률이 높은 상태를 의미하므로, 복수개의 센서들이 하나의 오브젝트에 대해 포텐셜 트랙(160)의 결과를 보일 경우 오브젝트의 존재 확률이 높다고 판단할 수 있다.Since the potential track 160 indicates a high probability of existence of an object, if the plurality of sensors show the result of the potential track 160 for one object, it can be determined that the probability of existence of the object is high.

일례로, 3개의 센서들로 구성된 환경에서 오브젝트의 현재 상태는 다음과 같은 방법으로 결정될 수 있다.For example, in an environment composed of three sensors, the current state of an object may be determined in the following manner.

① 센서 1종 이상의 추적 결과가 컨펌드 트랙(150)일 경우 해당 트랙은 제어 대상 트랙(즉 컨펌드 트랙(150))으로 결정한다.(1) When the tracking result of one or more sensors is the concurrent track 150, the corresponding track is determined as the controlled track (that is, the concurrent track 150).

② 센서 2종 이상의 추적 결과가 포텐셜 트랙(160)일 경우 해당 트랙은 제어 대상 트랙(즉 컨펌드 트랙(150))으로 결정한다.(2) When the tracking result of two or more kinds of sensors is the potential track 160, the track is determined as the control target track (that is, the concert track 150).

③ 오직 센서 1종의 추적 결과만이 포텐셜 트랙(160)일 경우 해당 트랙은 경고 대상 트랙(즉 포텐셜 트랙(160))으로 결정한다.(3) When only the tracking result of the sensor 1 is the potential track 160, the track is determined as the warning target track (i.e., the potential track 160).

한편 이전 시간에서 오브젝트의 클래스 식별값이 보행자(pedestrian)로 산출된 뒤 현재 시간에서 카메라 센서에 의해 센싱 데이터가 획득되지 않거나 카메라 센서에 의해 획득된 센싱 데이터가 유효하지 않은 것으로 판단되면 현재 시간에서의 오브젝트의 클래스 식별값을 여전히 보행자로 유지하는 것도 가능하다.On the other hand, if the class identification value of the object is calculated as a pedestrian at the previous time and the sensing data is not acquired by the camera sensor at the current time or the sensing data acquired by the camera sensor is not valid, It is also possible to keep the class identification value of the object as a pedestrian.

오브젝트의 클래스 식별값은 보행자, 자전거 등 교통 약자(VRU; Vulnerable Road Users), 차량(vehicle) 등 오브젝트의 종류에 대한 정보를 의미한다. 오브젝트의 클래스 식별값은 유효성을 검증하는 대상이 동일 오브젝트인지 여부를 판단하기 위해 필요하다.The class identification value of an object refers to information on the type of object such as a pedestrian, a bicycle, a Vulnerable Road Users (VRU), a vehicle, and the like. The class identification value of the object is necessary to determine whether the object to be validated is the same object.

오브젝트 추적 시스템은 K 시점에 오브젝트의 클래스 정보(ex. 교통 약자, 차량 등), 오브젝트의 상태 정보(ex. 포텐셜 트랙, 컨펌드 트랙 등), 오브젝트의 위치 정보, 오브젝트의 속도 정보, 오브젝트의 폭 정보 등을 포함하여 융합 트랙(fusion tracker)을 생성한다.The object tracking system includes class information of the object (e.g., traffic abbreviation, vehicle, etc.), state information of the object (e.g., potential track or concert track), position information of the object, velocity information of the object, Information, and the like, to generate a fusion tracker.

이후 오브젝트 추적 시스템은 K+1 시점에 카메라 센서, 레이더 센서, 라이다 센서 등을 이용하여 측정값들을 획득하며, K 시점에 생성된 융합 트랙을 기초로 K+1 시점에서의 예측값도 생성한다.Then, the object tracking system acquires the measured values using the camera sensor, the radar sensor, the radar sensor, etc. at the K + 1 time point, and also generates the predicted value at the K + 1 time point based on the fusion track generated at the K point.

이후 오브젝트 추적 시스템은 게이팅을 통해 측정값들 중에서 유효한 측정값을 식별한 후, 칼만 필터를 이용한 예측(estimation) 절차를 통해 유효한 측정값과 예측값을 융합시킨다.The object tracking system then identifies valid measurement values among the measured values through gating, and then fuses the valid measurement values and predicted values through an estimation procedure using a Kalman filter.

그런데 K 시점에서 오브젝트의 클래스 정보가 보행자이고, K+1 시점에서 유효한 측정값이 레이더 센서에 의해 획득된 센싱 데이터들인 경우, 레이더 센서에 의해 획득된 센싱 데이터들에는 오브젝트의 클래스 정보가 포함되어 있지 않다.However, when the class information of the object is the pedestrian at the point K and the measured value effective at the point K + 1 is the sensing data obtained by the radar sensor, the sensing data obtained by the radar sensor does not include the class information of the object not.

관심 영역(ex. 차량의 주행 경로 상에 위치하는 적어도 하나의 지점) 내에 하나의 오브젝트가 위치한다면 오브젝트의 클래스 정보는 구비되지 않아도 무방하다. 그러나 관심 영역 내에 복수개의 오브젝트들이 위치한다면 유효성을 검증하는 대상이 동일한 오브젝트인지 여부를 판단하기 위해 오브젝트의 클래스 정보가 필요하다.If one object is located within the region of interest (ex. At least one point located on the traveling path of the vehicle), the class information of the object need not be provided. However, if a plurality of objects are located within the region of interest, class information of the object is required to determine whether the object to be validated is the same object.

그래서 이러한 경우에는 오브젝트의 속도 정보를 기초로 오브젝트의 클래스 정보를 추정해야 하는데, 오브젝트의 클래스 정보를 추정한 결과가 언노운(unknown)이면, K+1 시점에서도 오브젝트의 클래스 정보를 보행자로 유지한다. 여기서 언노운은 오브젝트의 클래스 정보가 보행자, 자전거, 차량 등 중에서 어느 것인지 불분명할 때를 의미한다.Therefore, in this case, the class information of the object should be estimated based on the speed information of the object. If the result of estimating the class information of the object is unknown, the class information of the object is also maintained as a pedestrian at the time of K + 1. Here, unreal means that the class information of an object is unclear as to whether it is a pedestrian, a bicycle, or a vehicle.

한편 앞서 설명한 바와 같이 카메라 센서의 경우와 달리 레이더 센서를 이용하는 경우 오브젝트의 클래스 정보를 획득할 수 없다. 따라서 본 발명에서는 이러한 경우에 오브젝트의 종방향/횡방향 속도 정보(ex. 종방향/횡방향 절대 속도), 속도비 등을 기초로 오브젝트를 분류함으로써 오브젝트의 클래스 정보를 획득할 수 있다.As described above, unlike the case of the camera sensor, the class information of the object can not be obtained when the radar sensor is used. Therefore, in the present invention, in this case, the class information of the object can be obtained by classifying the object based on the longitudinal / transverse speed information (e.g., longitudinal / transverse absolute speed) and the speed ratio of the object.

이상 도 1 내지 도 9를 참조하여 본 발명의 일실시 형태에 대하여 설명하였다. 이하에서는 이러한 일실시 형태로부터 추론 가능한 본 발명의 바람직한 형태에 대하여 설명한다.DESCRIPTION OF THE PREFERRED EMBODIMENTS One embodiment of the present invention has been described with reference to Figs. Best Mode for Carrying Out the Invention Hereinafter, preferred forms of the present invention that can be inferred from the above embodiment will be described.

도 10은 본 발명의 바람직한 실시예에 따른 오브젝트 추적 장치의 내부 구성들을 개략적으로 도시한 블록도이다.FIG. 10 is a block diagram schematically illustrating internal configurations of an object tracking apparatus according to a preferred embodiment of the present invention.

도 10을 참조하면, 오브젝트 추적 장치(800)는 오브젝트 정보 예측부(810), 유효 데이터 판단부(820), 오브젝트 추적부(830), 전원부(840) 및 주제어부(850)를 포함한다.Referring to FIG. 10, the object tracking apparatus 800 includes an object information prediction unit 810, a valid data determination unit 820, an object tracking unit 830, a power supply unit 840, and a main control unit 850.

전원부(840)는 오브젝트 추적 장치(800)를 구성하는 각 구성에 전원을 공급하는 기능을 수행한다. 오브젝트 추적 장치(800)가 차량에 장착될 경우 오브젝트 추적 장치(800)는 차량용 배터리를 전원으로 이용할 수 있으므로, 이 경우 전원부(840)는 오브젝트 추적 장치(800)에 구비되지 않아도 무방하다.The power supply unit 840 performs a function of supplying power to each configuration of the object tracking device 800. [ When the object tracking device 800 is mounted on a vehicle, the object tracking device 800 can use the vehicle battery as a power source. In this case, the power source 840 may not be provided in the object tracking device 800.

주제어부(850)는 오브젝트 추적 장치(800)를 구성하는 각 구성의 전체 작동을 제어하는 기능을 수행한다.The main control unit 850 controls the overall operation of each of the components constituting the object tracking apparatus 800.

오브젝트 정보 예측부(810)는 이전 시간에 획득된 제1 센싱 데이터들을 기초로 오브젝트에 대한 정보를 예측하는 기능을 수행한다.The object information predicting unit 810 predicts information about the object based on the first sensing data obtained at the previous time.

레이더 센서를 이용하는 경우, 오브젝트 정보 예측부(810)는 오브젝트와 이 오브젝트를 추적하는 차량 사이의 거리 정보, 오브젝트와 차량 사이의 속도 정보 및 상태 천이 행렬(state transition matrix)을 연산하여 오브젝트에 대한 정보를 예측할 수 있다. 자세하게는, 오브젝트 정보 예측부(810)는 상기 거리 정보로 종방향 거리 정보와 횡방향 거리 정보를 이용할 수 있으며, 상기 속도 정보로 종방향 속도 정보와 횡방향 속도 정보를 이용할 수 있다.In the case of using the radar sensor, the object information prediction unit 810 calculates distance information between the object and the vehicle that tracks the object, velocity information between the object and the vehicle, and state transition matrix, Can be predicted. In more detail, the object information prediction unit 810 can use the vertical distance information and the horizontal distance information as the distance information, and the vertical direction information and the horizontal direction information can be used as the speed information.

카메라 센서를 이용하는 경우, 오브젝트 정보 예측부(810)는 오브젝트와 이 오브젝트를 추적하는 차량 사이의 거리 정보, 오브젝트와 차량 사이의 속도 정보 및 상태 천이 행렬(state transition matrix)을 연산하여 오브젝트에 대한 정보를 예측할 수 있으며, 이에 더하여 오브젝트의 종류에 대한 정보를 더 포함하여 오브젝트에 대한 정보를 예측할 수 있다.In the case of using a camera sensor, the object information prediction unit 810 calculates distance information between the object and the vehicle that tracks the object, velocity information between the object and the vehicle, and state transition matrix, In addition, information on an object can be predicted by including information on the type of the object.

오브젝트 정보 예측부(810)는 제1 센싱 데이터들과 다른 센서에 의해 제3 센싱 데이터들이 획득되면 제1 센싱 데이터들과 제3 센싱 데이터들을 결합하여 얻은 데이터들을 기초로 오브젝트에 대한 정보를 예측할 수 있다.The object information predicting unit 810 predicts the information about the object based on the data obtained by combining the first sensing data and the third sensing data when the third sensing data is acquired by the sensor different from the first sensing data have.

오브젝트 정보 예측부(810)는 제1 센싱 데이터들과 다른 센서에 의해 제3 센싱 데이터들이 획득되면 제1 센싱 데이터들과 제3 센싱 데이터들 중에서 동일 아이템에 대하여 우선순위에 따라 선택된 센싱 데이터들을 기초로 오브젝트에 대한 정보를 예측할 수 있다.The object information predicting unit 810 predicts the sensed data selected in accordance with the priority order for the same item among the first sensing data and the third sensing data when the third sensing data is acquired by the sensor different from the first sensing data Information on the object can be predicted.

유효 데이터 판단부(820)는 현재 시간에 획득된 제2 센싱 데이터들과 오브젝트 정보 예측부(810)에 의해 예측된 오브젝트에 대한 정보를 비교하여 제2 센싱 데이터들 중에 유효 데이터들이 존재하는지 여부를 판단하는 기능을 수행한다.The valid data determination unit 820 compares the second sensing data obtained at the current time with the information about the object predicted by the object information prediction unit 810 to determine whether valid data exists in the second sensing data And performs a function of judging.

유효 데이터 판단부(820)는 제2 센싱 데이터들과 오브젝트에 대한 정보 사이의 오차가 기준값 이하인지 여부를 기초로 유효 데이터들이 존재하는지 여부를 판단할 수 있다. 제2 센싱 데이터와 오브젝트에 대한 정보 사이의 오차가 기준값 이하인 것으로 판단되면, 유효 데이터 판단부(820)는 이 제2 센싱 데이터를 유효 데이터로 판단한다. 반면 제2 센싱 데이터와 오브젝트에 대한 정보 사이의 오차가 기준값 초과인 것으로 판단되면, 유효 데이터 판단부(820)는 이 제2 센싱 데이터를 비유효 데이터(유효하지 않은 데이터)로 판단한다.The valid data determination unit 820 may determine whether valid data exists based on whether an error between the second sensing data and the object information is less than a reference value. If it is determined that the error between the second sensing data and the object information is less than the reference value, the valid data determination unit 820 determines the second sensing data as valid data. On the other hand, if it is determined that the error between the second sensing data and the object information is greater than the reference value, the valid data determination unit 820 determines the second sensing data as invalid data (invalid data).

유효 데이터 판단부(820)는 유효 데이터들이 존재하는지 여부를 판단할 때 센서의 측정 오차, 오브젝트의 주행 속도, 오브젝트를 추적하는 차량의 주행 속도, 오브젝트가 위치한 주변 환경에 대한 정보, 및 차량이 위치한 주변 환경에 대한 정보 중 적어도 하나를 기초로 결정된 기준값을 이용할 수 있다.When judging whether valid data exists, the valid data judging unit 820 judges whether valid data exist or not based on the measurement error of the sensor, the traveling speed of the object, the traveling speed of the vehicle for tracking the object, And a reference value determined based on at least one of information on the surrounding environment.

유효 데이터 판단부(820)는 관심 영역에 위치하는 오브젝트와 관련된 제2 센싱 데이터들 중에 유효 데이터들이 존재하는지 여부를 판단할 수 있다. 이 경우 오브젝트 추적 장치(800)는 관심 영역을 설정하는 관심 영역 설정부(미도시)를 더 포함할 수 있다. 관심 영역 설정부는 센서의 FOV를 기초로 관심 영역을 설정할 수 있다.The valid data determination unit 820 may determine whether valid data exists among the second sensing data related to the object located in the region of interest. In this case, the object tracking apparatus 800 may further include a region of interest setting unit (not shown) for setting a region of interest. The region of interest setting unit may set the region of interest based on the FOV of the sensor.

오브젝트 추적부(830)는 유효 데이터 판단부(820)에 의해 유효 데이터들이 존재하는 것으로 판단되면 적어도 하나의 유효 데이터를 기초로 오브젝트를 추적하는 기능을 수행한다.The object tracking unit 830 performs a function of tracking an object based on at least one valid data if the valid data determining unit 820 determines that valid data exists.

오브젝트 추적부(830)는 유효 데이터들과 오브젝트에 대한 정보 사이의 오차를 기초로 선택된 적어도 하나의 유효 데이터를 기초로 오브젝트를 추적할 수 있다. 본 발명에서 오브젝트 추적부(830)는 오브젝트에 대한 정보와의 오차가 가장 적은 유효 데이터를 오브젝트 추적에 이용할 수 있다.The object tracking unit 830 may track an object based on at least one valid data selected based on an error between valid data and information about the object. In the present invention, the object tracking unit 830 can use the valid data having the smallest error with the information on the object for the object tracking.

도 11은 도 10의 오브젝트 추적 장치에 추가될 수 있는 내부 구성들을 도시한 블록도이다.11 is a block diagram illustrating internal configurations that may be added to the object tracking apparatus of FIG.

도 11을 참조하면, 오브젝트 추적 장치(800)는 오브젝트 상태 생성부(861)를 더 포함할 수 있다.Referring to FIG. 11, the object tracking apparatus 800 may further include an object state generation unit 861.

오브젝트 상태 생성부(861)는 유효 데이터들이 존재하는지 여부와 관련된 제1 판단 결과를 기초로 오브젝트의 미인식에 대응하기 위한 오브젝트의 상태 정보를 생성하는 기능을 수행한다. 오브젝트 추적 장치(800)는 이에 더하여 오브젝트의 상태 정보 및 유효 데이터들을 저장 및 관리하는 오브젝트 정보 관리부(미도시)를 더 포함할 수 있다.The object state generation unit 861 generates state information of an object corresponding to an unrecognized object based on a first determination result related to whether or not valid data exists. The object tracking apparatus 800 may further include an object information management unit (not shown) for storing and managing object status information and valid data.

오브젝트 상태 생성부(861)는 오브젝트의 상태 정보를 생성할 때 제1 센싱 데이터들이 존재하는지 여부와 관련된 제2 판단 결과, 제2 센싱 데이터들이 최초로 획득된 데이터들인지 여부와 관련된 제3 판단 결과, 유효 데이터들이 존재하는지 여부가 최초 판단인지 여부와 관련된 제4 판단 결과, 연속적으로 유효 데이터들이 존재하는 것으로 판단되는지 여부와 관련된 제5 판단 결과, 및 연속적으로 유효 데이터들이 존재하는 것으로 판단된 지 미리 정해진 시간이 경과했는지 여부와 관련된 제6 판단 결과 중 적어도 하나의 판단 결과를 더 이용할 수 있다.The object state generation unit 861 generates a state information of the object by validating whether the first sensing data exists or not based on a result of the third determination as to whether or not the second sensing data is the first acquired data As a result of the fourth determination as to whether or not the data exists, it is determined as a result of the fifth determination as to whether or not the valid data is continuously judged. A result of at least one of the sixth determination results related to whether or not the predetermined time has elapsed.

오브젝트 상태 생성부(861)는 제2 판단 결과 내지 제6 판단 결과를 모두 이용할 때 제2 판단 결과, 제3 판단 결과, 제4 판단 결과, 제5 판단 결과 및 제6 판단 결과의 순서로 차례대로 이용할 수 있다. 그 일례는 다음과 같다.The object state generation unit 861 sequentially outputs the second determination result to the sixth determination result in the order of the second determination result, the third determination result, the fourth determination result, the fifth determination result, and the sixth determination result Can be used. An example is as follows.

먼저 오브젝트 상태 생성부(861)는 제2 판단 결과를 기초로 오브젝트의 상태 정보를 생성한다. 즉 제1 센싱 데이터들이 존재하지 않는 것으로 판단되면, 오브젝트 상태 생성부(861)는 오브젝트의 상태 정보를 엠프티 트랙(empty track)과 제1 이니시에이터 트랙(initiator 1 track) 중 어느 하나로 생성한다. 반면 제1 센싱 데이터들이 존재하는 것으로 판단되면, 오브젝트 상태 생성부(861)는 오브젝트의 상태 정보를 제2 이니시에이터 트랙(initiator 2 track), 제3 이니시에이터 트랙(initiator 3 track), 포텐셜 트랙(potential track) 및 컨펌드 트랙(confirmed track) 중 어느 하나로 생성한다.First, the object state generation unit 861 generates state information of the object based on the second determination result. That is, if it is determined that the first sensing data does not exist, the object state generation unit 861 generates the state information of the object as either an empty track or a first initiator track. On the other hand, if it is determined that the first sensing data exists, the object state generation unit 861 outputs the object state information to the second initiator 2 track, the third initiator 3 track, the potential track ) And a confirmed track.

다음으로 오브젝트 상태 생성부(861)는 제3 판단 결과를 기초로 오브젝트의 상태 정보를 생성한다. 즉 제2 센싱 데이터들이 최초로 획득된 데이터들이 아닌 것으로 판단되면, 오브젝트 상태 생성부(861)는 오브젝트의 상태 정보를 엠프티 트랙으로 생성한다. 반면 제2 센싱 데이터들이 최초로 획득된 데이터들인 것으로 판단되면, 오브젝트 상태 생성부(861)는 오브젝트의 상태 정보를 제1 이니시에이터 트랙으로 생성한다.Next, the object state generation unit 861 generates state information of the object based on the third determination result. That is, if it is determined that the second sensing data is not the first acquired data, the object state generation unit 861 generates state information of the object as an empty track. On the other hand, if it is determined that the second sensing data is the first acquired data, the object state generation unit 861 generates the state information of the object as the first initiator track.

다음으로 오브젝트 상태 생성부(861)는 제4 판단 결과를 기초로 오브젝트의 상태 정보를 생성한다. 즉 유효 데이터들이 존재하는지 여부가 최초 판단인 것으로 판단되면, 오브젝트 상태 생성부(861)는 오브젝트의 상태 정보를 제2 이니시에이터 트랙으로 생성한다. 반면 유효 데이터들이 존재하는지 여부가 최초 판단이 아닌 것으로 판단되면, 오브젝트 상태 생성부(861)는 오브젝트의 상태 정보를 제3 이니시에이터 트랙, 포텐셜 트랙 및 컨펌드 트랙 중 어느 하나로 생성한다.Next, the object state generation unit 861 generates object state information based on the fourth determination result. That is, if it is determined that the valid data exists, the object state generation unit 861 generates the state information of the object as the second initiator track. On the other hand, if it is determined that the valid data does not exist, the object state generation unit 861 generates the state information of the object as one of the third initiator track, the potential track, and the concurrent track.

다음으로 오브젝트 상태 생성부(861)는 제5 판단 결과를 기초로 오브젝트의 상태 정보를 생성한다. 즉 연속적으로 유효 데이터들이 존재하지 않는 것으로 판단되면, 오브젝트 상태 생성부(861)는 오브젝트의 상태 정보를 제3 이니시에이터 트랙으로 생성한다. 반면 연속적으로 유효 데이터들이 존재하는 것으로 판단되면, 오브젝트 상태 생성부(861)는 오브젝트의 상태 정보를 포텐셜 트랙 및 컨펌드 트랙 중 어느 하나로 생성한다.Next, the object state generation unit 861 generates state information of the object based on the fifth determination result. That is, if it is determined that the valid data does not exist continuously, the object state generation unit 861 generates the state information of the object as the third initiator track. On the other hand, if it is determined that the valid data continuously exist, the object state generation unit 861 generates the state information of the object as either a potential track or a conformed track.

다음으로 오브젝트 상태 생성부(861)는 제6 판단 결과를 기초로 오브젝트의 상태 정보를 생성한다. 즉 연속적으로 유효 데이터들이 존재하는 것으로 판단된 지 미리 정해진 시간이 경과하지 않은 것으로 판단되면, 오브젝트 상태 생성부(861)는 오브젝트의 상태 정보를 컨펌드 트랙으로 생성한다. 반면 연속적으로 유효 데이터들이 존재하는 것으로 판단된 지 미리 정해진 시간이 경과한 것으로 판단되면, 오브젝트 상태 생성부(861)는 오브젝트의 상태 정보를 포텐셜 트랙으로 생성한다.Next, the object state generation unit 861 generates state information of the object based on the sixth determination result. That is, if it is determined that the predetermined period of time has not elapsed since the valid data is continuously determined, the object state generator 861 generates the state information of the object as a conformed track. On the other hand, if it is determined that a predetermined period of time has elapsed since the valid data is continuously determined, the object state generation unit 861 generates the state information of the object as a potential track.

한편 오브젝트 상태 생성부(861)는 카메라 센서, 레이더 센서 및 라이다 센서 중 어느 하나의 센서에 의해 제1 센싱 데이터들이 획득되고 다른 두 센서들에 의해 제6 센싱 데이터들과 제7 센싱 데이터들이 획득되면 제1 센싱 데이터들과 제6 센싱 데이터들 및 제7 센싱 데이터들 중에서 선택된 적어도 하나의 센싱 데이터들을 기초로 오브젝트의 상태 정보를 생성할 수 있다.On the other hand, the object state generation unit 861 acquires first sensing data by a sensor of a camera sensor, a radar sensor and a ladder sensor, and acquires sixth sensing data and seventh sensing data by the other two sensors The state information of the object can be generated based on at least one sensing data selected from the first sensing data, the sixth sensing data, and the seventh sensing data.

제1 센싱 데이터들이 카메라 센서에 의해 획득된 센싱 데이터들이고 제6 센싱 데이터들이 레이더 센서에 의해 획득된 센싱 데이터들이며 제7 센싱 데이터들이 라이다 센서에 의해 획득된 센싱 데이터들이면, 오브젝트 상태 생성부(861)는 다음 순서에 따라 작동될 수 있다.If the first sensing data are the sensing data obtained by the camera sensor, the sixth sensing data are the sensing data obtained by the radar sensor, and the seventh sensing data are the sensing data obtained by the LR sensor, the object state generator 861 ) Can be operated in the following order.

먼저 오브젝트 상태 생성부(861)는 제7 센싱 데이터들을 기초로 오브젝트의 상태 정보를 생성하며, 제1 센싱 데이터들과 제6 센싱 데이터들 및 제7 센싱 데이터들을 기초로 오브젝트의 상태 정보를 생성한다.First, the object state generation unit 861 generates object state information based on the seventh sensing data, and generates object state information based on the first sensing data, the sixth sensing data, and the seventh sensing data .

이후 오브젝트 상태 생성부(861)는 미리 정해진 조건에 부합할 때 제1 센싱 데이터들 및 제6 센싱 데이터들을 기초로 오브젝트의 상태 정보를 생성한다.The object state generation unit 861 then generates state information of the object based on the first sensing data and the sixth sensing data when the predetermined condition is met.

이후 오브젝트 상태 생성부(861)는 제1 센싱 데이터들을 기초로 오브젝트의 상태 정보를 생성하며, 제6 센싱 데이터들을 기초로 오브젝트의 상태 정보를 생성한다.Then, the object state generation unit 861 generates state information of the object based on the first sensing data, and generates state information of the object based on the sixth sensing data.

오브젝트 추적 장치(800)는 오브젝트 상태 생성부(861)와 더불어 오브젝트 추적 판단부(862)를 더 포함할 수 있다.The object tracking apparatus 800 may further include an object tracking determination unit 862 in addition to the object state generation unit 861.

오브젝트 추적 판단부(862)는 오브젝트의 상태 정보를 기초로 오브젝트를 계속 추적할 것인지 여부를 판단하는 기능을 수행한다.The object tracking determination unit 862 performs a function of determining whether to continue to track the object based on the state information of the object.

오브젝트 추적 장치(800)는 오브젝트 상태 생성부(861)와 더불어 주행 제어부(863)를 더 포함할 수 있다.The object tracking apparatus 800 may further include a driving control unit 863 in addition to the object state generating unit 861.

주행 제어부(863)는 오브젝트의 상태 정보를 기초로 오브젝트를 추적하는 차량의 주행을 제어하는 기능을 수행한다.The travel control unit 863 controls the travel of the vehicle that tracks the object based on the state information of the object.

도 11을 참조하면, 오브젝트 추적 장치(800)는 제1 범위 결정부(871)를 더 포함할 수 있다.Referring to FIG. 11, the object tracking apparatus 800 may further include a first range determination unit 871.

제1 범위 결정부(871)는 제1 센싱 데이터들과 다른 센서에 의해 획득된 제3 센싱 데이터들을 기초로 오브젝트에 대한 정보가 예측되면 제1 센싱 데이터들을 기초로 예측된 오브젝트에 대한 정보 및 제3 센싱 데이터들을 기초로 예측된 오브젝트에 대한 정보를 기초로 제1 기준 범위를 결정하는 기능을 수행한다. 이 경우 유효 데이터 판단부(820)는 제1 센싱 데이터들과 동일 센서에 의해 획득된 제4 센싱 데이터들 및 제3 센싱 데이터들과 동일 센서에 의해 획득된 제5 센싱 데이터들을 제1 기준 범위와 순차적으로 비교하여 제4 센싱 데이터들 및 제5 센싱 데이터들 중에 유효 데이터들이 존재하는지 여부를 판단할 수 있다.If the information on the object is predicted based on the first sensing data and the third sensing data obtained by the other sensor, the first range determining unit 871 determines information on the predicted object based on the first sensing data, 3 &lt; / RTI &gt; sensing data based on information about the predicted object. In this case, the valid data determination unit 820 determines the fourth sensing data, the third sensing data, and the fifth sensing data obtained by the same sensor with the first sensing data, It is possible to determine whether valid data exists among the fourth sensing data and the fifth sensing data.

오브젝트 추적 장치(800)는 제2 범위 결정부(872)를 더 포함하는 것도 가능하다.The object tracking apparatus 800 may further include a second range determination unit 872. [

제2 범위 결정부(872)는 제1 센싱 데이터들과 다른 센서에 의해 획득된 제3 센싱 데이터들을 기초로 오브젝트에 대한 정보가 예측되면 제1 센싱 데이터들을 기초로 예측된 오브젝트에 대한 정보를 기초로 제2 기준 범위를 결정하고, 제3 센싱 데이터들을 기초로 예측된 오브젝트에 대한 정보를 기초로 제3 기준 범위를 결정하는 기능을 수행한다. 이 경우 유효 데이터 판단부(820)는 제1 센싱 데이터들과 동일 센서에 의해 획득된 제4 센싱 데이터들을 제2 기준 범위와 비교하여 제4 센싱 데이터들 중에 유효 데이터들이 존재하는지 여부를 판단하고, 제3 센싱 데이터들과 동일 센서에 의해 획득된 제5 센싱 데이터들을 제3 기준 범위와 비교하여 제5 센싱 데이터들 중에 유효 데이터들이 존재하는지 여부를 판단할 수 있다.When the information on the object is predicted based on the first sensing data and the third sensing data obtained by the other sensor, the second range determination unit 872 determines the information on the predicted object based on the first sensing data And determines a third reference range based on the information about the predicted object based on the third sensing data. In this case, the valid data determination unit 820 compares the first sensing data and the fourth sensing data obtained by the same sensor with the second reference range to determine whether valid data exists among the fourth sensing data, The third sensing data and the fifth sensing data obtained by the same sensor may be compared with a third reference range to determine whether there is valid data among the fifth sensing data.

도 11을 참조하면, 오브젝트 추적 장치(800)는 오브젝트 속도 판단부(881) 및 제1 오브젝트 종류 추정부(882)를 더 포함할 수 있다.Referring to FIG. 11, the object tracking apparatus 800 may further include an object rate determination unit 881 and a first object type estimation unit 882.

오브젝트 속도 판단부(881)는 유효 데이터들 중에 오브젝트의 종류에 대한 정보가 포함되어 있지 않으면 유효 데이터들 중에 오브젝트의 속도 정보가 포함되어 있는지 여부를 판단하는 기능을 수행한다.The object speed determination unit 881 determines whether the object speed information is included in the valid data if the object type information is not included in the valid data.

제1 오브젝트 종류 추정부(882)는 오브젝트 속도 판단부(881)에 의해 유효 데이터들 중에 오브젝트의 속도 정보가 포함되어 있는 것으로 판단되면 오브젝트의 속도 정보를 기초로 오브젝트의 종류에 대한 정보를 추정하는 기능을 수행한다.The first object type estimating unit 882 estimates information on the type of the object based on the speed information of the object if the object speed determining unit 881 determines that the speed information of the object is included in the valid data Function.

도 11을 참조하면, 오브젝트 추적 장치(800)는 제1 오브젝트 종류 판단부(891), 제2 오브젝트 종류 판단부(892) 및 제2 오브젝트 종류 추정부(893)를 더 포함할 수 있다.Referring to FIG. 11, the object tracking apparatus 800 may further include a first object type determination unit 891, a second object type determination unit 892, and a second object type estimation unit 893.

제1 오브젝트 종류 판단부(891)는 제1 센싱 데이터들 중에 오브젝트의 종류에 대한 정보가 포함되어 있으면 오브젝트의 종류에 대한 정보가 보행자인지 여부를 판단하는 기능을 수행한다.The first object type determination unit 891 determines whether information on the type of the object is a pedestrian if information on the type of the object is included in the first sensing data.

제2 오브젝트 종류 판단부(892)는 제1 오브젝트 종류 판단부(891)에 의해 오브젝트의 종류에 대한 정보가 보행자인 것으로 판단되면 유효 데이터들 중에 오브젝트의 종류에 대한 정보가 포함되어 있는지 여부를 판단하는 기능을 수행한다.If the first object type determination unit 891 determines that the information on the type of the object is a pedestrian, the second object type determination unit 892 determines whether information on the type of the object is included in the valid data .

제2 오브젝트 종류 추정부(893)는 제2 오브젝트 종류 판단부(892)에 의해 유효 데이터들 중에 오브젝트의 종류에 대한 정보가 포함되어 있지 않은 것으로 판단되면 제1 센싱 데이터들에 포함되어 있는 오브젝트의 종류에 대한 정보를 유효 데이터들에 포함시키는 기능을 수행한다.If it is determined by the second object type determination unit 892 that the information on the type of the object is not included in the valid data, the second object type estimation unit 893 determines whether the object included in the first sensing data And the information about the type is included in the valid data.

다음으로 오브젝트 추적 장치(800)의 작동 방법에 대하여 설명한다. 도 12는 본 발명의 바람직한 실시예에 따른 오브젝트 추적 방법을 개략적으로 도시한 흐름도이다.Next, an operation method of the object tracking apparatus 800 will be described. 12 is a flowchart schematically illustrating an object tracking method according to a preferred embodiment of the present invention.

먼저 오브젝트 정보 예측부(810)가 이전 시간에 획득된 제1 센싱 데이터들을 기초로 오브젝트에 대한 정보를 예측한다(S910).First, the object information prediction unit 810 predicts information about the object based on the first sensing data obtained at the previous time (S910).

이후 유효 데이터 판단부(820)가 현재 시간에 획득된 제2 센싱 데이터들과 오브젝트에 대한 정보를 비교하여 제2 센싱 데이터들 중에 유효 데이터들이 존재하는지 여부를 판단한다(S920).Thereafter, the valid data determination unit 820 compares the second sensing data obtained at the current time with the information about the object to determine whether valid data exists in the second sensing data (S920).

유효 데이터들이 존재하는 것으로 판단되면, 이후 오브젝트 추적부(830)가 적어도 하나의 유효 데이터를 기초로 오브젝트를 추적한다(S930).If it is determined that valid data exists, the object tracking unit 830 then tracks the object based on at least one valid data (S930).

한편 S920 단계와 S930 단계 사이에, 오브젝트 상태 생성부(861)가 유효 데이터들이 존재하는지 여부와 관련된 제1 판단 결과를 기초로 오브젝트의 미인식에 대응하기 위한 오브젝트의 상태 정보를 생성할 수 있다(STEP A).Between step S920 and step S930, the object state generation unit 861 may generate object state information to correspond to an unrecognized object based on a first determination result related to whether or not valid data exists STEP A).

한편 STEP A와 S930 단계 사이에, 오브젝트 추적 판단부(862)가 오브젝트의 상태 정보를 기초로 오브젝트를 계속 추적할 것인지 여부를 판단할 수 있다.Between STEP A and S930, the object tracking determination unit 862 can determine whether to continue to track the object based on the state information of the object.

한편 STEP A와 S930 단계 사이에, 주행 제어부(863)가 오브젝트의 상태 정보를 기초로 오브젝트를 추적하는 차량의 주행을 제어할 수 있다.Between STEP A and S930, the travel control unit 863 can control the traveling of the vehicle that tracks the object based on the state information of the object.

한편 S910 단계와 S920 단계 사이에, 제1 범위 결정부(871)가 제1 센싱 데이터들과 다른 센서에 의해 획득된 제3 센싱 데이터들을 기초로 오브젝트에 대한 정보가 예측되면 제1 센싱 데이터들을 기초로 예측된 오브젝트에 대한 정보 및 제3 센싱 데이터들을 기초로 예측된 오브젝트에 대한 정보를 기초로 제1 기준 범위를 결정할 수 있다. 이 경우 유효 데이터 판단부(820)는 제1 센싱 데이터들과 동일 센서에 의해 획득된 제4 센싱 데이터들 및 제3 센싱 데이터들과 동일 센서에 의해 획득된 제5 센싱 데이터들을 제1 기준 범위와 순차적으로 비교하여 제4 센싱 데이터들 및 제5 센싱 데이터들 중에 유효 데이터들이 존재하는지 여부를 판단할 수 있다.Between steps S910 and S920, when the first range determination unit 871 predicts information about the object based on the third sensing data obtained by the sensor other than the first sensing data, The first reference range can be determined on the basis of the information about the predicted object based on the third sensing data and the information on the predicted object based on the third sensing data. In this case, the valid data determination unit 820 determines the fourth sensing data, the third sensing data, and the fifth sensing data obtained by the same sensor with the first sensing data, It is possible to determine whether valid data exists among the fourth sensing data and the fifth sensing data.

한편 S910 단계와 S920 단계 사이에, 제2 범위 결정부(872)가 제1 센싱 데이터들과 다른 센서에 의해 획득된 제3 센싱 데이터들을 기초로 오브젝트에 대한 정보가 예측되면 제1 센싱 데이터들을 기초로 예측된 오브젝트에 대한 정보를 기초로 제2 기준 범위를 결정하고, 제3 센싱 데이터들을 기초로 예측된 오브젝트에 대한 정보를 기초로 제3 기준 범위를 결정할 수 있다. 이 경우 유효 데이터 판단부(820)는 제1 센싱 데이터들과 동일 센서에 의해 획득된 제4 센싱 데이터들을 제2 기준 범위와 비교하여 제4 센싱 데이터들 중에 유효 데이터들이 존재하는지 여부를 판단하고, 제3 센싱 데이터들과 동일 센서에 의해 획득된 제5 센싱 데이터들을 제3 기준 범위와 비교하여 제5 센싱 데이터들 중에 유효 데이터들이 존재하는지 여부를 판단할 수 있다.Between steps S910 and S920, if the second range determination unit 872 predicts the information about the object based on the third sensing data obtained by the sensor other than the first sensing data, The second reference range can be determined based on the information about the predicted object and the third reference range can be determined based on the information about the predicted object based on the third sensing data. In this case, the valid data determination unit 820 compares the first sensing data and the fourth sensing data obtained by the same sensor with the second reference range to determine whether valid data exists among the fourth sensing data, The third sensing data and the fifth sensing data obtained by the same sensor may be compared with a third reference range to determine whether there is valid data among the fifth sensing data.

한편 S920 단계와 S930 단계 사이에, 오브젝트 속도 판단부(881)가 유효 데이터들 중에 오브젝트의 종류에 대한 정보가 포함되어 있지 않으면 유효 데이터들 중에 오브젝트의 속도 정보가 포함되어 있는지 여부를 판단할 수 있다. 유효 데이터들 중에 오브젝트의 속도 정보가 포함되어 있는 것으로 판단되면, 제1 오브젝트 종류 추정부(882)는 오브젝트의 속도 정보를 기초로 오브젝트의 종류에 대한 정보를 추정할 수 있다.Between steps S920 and S930, if the object speed determination unit 881 does not include information on the type of object among the valid data, it may determine whether or not the speed information of the object is included in the valid data . If it is determined that the speed information of the object is included in the valid data, the first object type estimating unit 882 can estimate the information about the object type based on the speed information of the object.

한편 S920 단계와 S930 단계 사이에, 제1 오브젝트 종류 판단부(891)가 제1 센싱 데이터들 중에 오브젝트의 종류에 대한 정보가 포함되어 있으면 오브젝트의 종류에 대한 정보가 보행자인지 여부를 판단할 수 있다. 오브젝트의 종류에 대한 정보가 보행자인 것으로 판단되면, 제2 오브젝트 종류 판단부(892)는 유효 데이터들 중에 오브젝트의 종류에 대한 정보가 포함되어 있는지 여부를 판단할 수 있다. 유효 데이터들 중에 오브젝트의 종류에 대한 정보가 포함되어 있지 않은 것으로 판단되면, 제2 오브젝트 종류 추정부(893)는 제1 센싱 데이터들에 포함되어 있는 오브젝트의 종류에 대한 정보를 유효 데이터들에 포함시킬 수 있다.Between steps S920 and S930, if the first object type determination unit 891 includes information on the type of the object among the first sensing data, it can be determined whether or not information on the type of the object is a pedestrian . If it is determined that the information on the type of the object is a pedestrian, the second object type determination unit 892 can determine whether information on the object type is included in the valid data. If it is determined that information on the type of the object is not included in the valid data, the second object type estimating unit 893 stores information about the type of the object included in the first sensing data in the valid data .

이상에서 설명한 본 발명의 실시예를 구성하는 모든 구성요소들이 하나로 결합하거나 결합하여 동작하는 것으로 기재되어 있다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 또한, 이와 같은 컴퓨터 프로그램은 USB 메모리, CD 디스크, 플래쉬 메모리 등과 같은 컴퓨터가 읽을 수 있는 기록매체(Computer Readable Media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시예를 구현할 수 있다. 컴퓨터 프로그램의 기록매체로서는 자기 기록매체, 광 기록매체 등이 포함될 수 있다.It is to be understood that the present invention is not limited to these embodiments, and all elements constituting the embodiment of the present invention described above are described as being combined or operated in one operation. That is, within the scope of the present invention, all of the components may be selectively coupled to one or more of them. In addition, although all of the components may be implemented as one independent hardware, some or all of the components may be selectively combined to perform a part or all of the functions in one or a plurality of hardware. As shown in FIG. In addition, such a computer program may be stored in a computer readable medium such as a USB memory, a CD disk, a flash memory, etc., and read and executed by a computer to implement an embodiment of the present invention. As the recording medium of the computer program, a magnetic recording medium, an optical recording medium, or the like can be included.

또한, 기술적이거나 과학적인 용어를 포함한 모든 용어들은, 상세한 설명에서 다르게 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 갖는다. 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥상의 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Furthermore, all terms including technical or scientific terms have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs, unless otherwise defined in the Detailed Description. Commonly used terms, such as predefined terms, should be interpreted to be consistent with the contextual meanings of the related art, and are not to be construed as ideal or overly formal, unless expressly defined to the contrary.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위 내에서 다양한 수정, 변경 및 치환이 가능할 것이다. 따라서, 본 발명에 개시된 실시예 및 첨부된 도면들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예 및 첨부된 도면에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구 범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리 범위에 포함되는 것으로 해석되어야 할 것이다.It will be apparent to those skilled in the art that various modifications, substitutions and substitutions are possible, without departing from the scope and spirit of the invention as disclosed in the accompanying claims. will be. Therefore, the embodiments disclosed in the present invention and the accompanying drawings are intended to illustrate and not to limit the technical spirit of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments and the accompanying drawings . The scope of protection of the present invention should be construed according to the following claims, and all technical ideas within the scope of equivalents should be construed as falling within the scope of the present invention.

Claims (31)

이전 시간에 획득된 제1 센싱 데이터들을 기초로 오브젝트에 대한 정보를 예측하는 오브젝트 정보 예측부;
현재 시간에 획득된 제2 센싱 데이터들과 상기 오브젝트에 대한 정보를 비교하여 상기 제2 센싱 데이터들 중에 유효 데이터들이 존재하는지 여부를 판단하는 유효 데이터 판단부; 및
상기 유효 데이터들이 존재하는 것으로 판단되면 적어도 하나의 유효 데이터를 기초로 오브젝트를 추적하는 오브젝트 추적부
를 포함하는 것을 특징으로 하는 오브젝트 추적 장치.
An object information predicting unit for predicting information on an object based on first sensing data obtained at a previous time;
A valid data determination unit for comparing second sensing data obtained at a current time with information about the object to determine whether valid data exists among the second sensing data; And
An object tracking unit for tracking an object based on at least one valid data if it is determined that the valid data exists,
And an object tracking device for tracking the object.
제 1 항에 있어서,
상기 유효 데이터 판단부는 상기 제2 센싱 데이터들과 상기 오브젝트에 대한 정보 사이의 오차가 기준값 이하인지 여부를 기초로 상기 유효 데이터들이 존재하는지 여부를 판단하는 것을 특징으로 하는 오브젝트 추적 장치.
The method according to claim 1,
Wherein the effective data determination unit determines whether the valid data exists based on whether an error between the second sensing data and the object information is less than a reference value.
제 2 항에 있어서,
상기 유효 데이터 판단부는 상기 유효 데이터들이 존재하는지 여부를 판단할 때 센서의 측정 오차, 상기 오브젝트의 주행 속도, 상기 오브젝트를 추적하는 차량의 주행 속도, 상기 오브젝트가 위치한 주변 환경에 대한 정보, 및 상기 차량이 위치한 주변 환경에 대한 정보 중 적어도 하나를 기초로 결정된 상기 기준값을 이용하는 것을 특징으로 하는 오브젝트 추적 장치.
3. The method of claim 2,
The valid data determination unit determines whether or not the valid data exists by using the measurement error of the sensor, the traveling speed of the object, the traveling speed of the vehicle tracking the object, information on the surrounding environment in which the object is located, Wherein the reference value is determined based on at least one of information on a surrounding environment in which the object is located.
제 1 항에 있어서,
상기 오브젝트 정보 예측부는 상기 오브젝트와 상기 오브젝트를 추적하는 차량 사이의 거리 정보, 상기 오브젝트와 상기 차량 사이의 속도 정보 및 상태 천이 행렬(state transition matrix)을 연산하여 상기 오브젝트에 대한 정보를 예측하는 것을 특징으로 하는 오브젝트 추적 장치.
The method according to claim 1,
The object information predicting unit predicts information about the object by calculating distance information between the object and the vehicle tracking the object, velocity information between the object and the vehicle, and a state transition matrix, .
제 4 항에 있어서,
상기 오브젝트 정보 예측부는 상기 오브젝트의 종류에 대한 정보를 더 포함하여 상기 오브젝트에 대한 정보를 예측하는 것을 특징으로 하는 오브젝트 추적 장치.
5. The method of claim 4,
Wherein the object information predicting unit predicts information on the object further including information on the type of the object.
제 1 항에 있어서,
상기 유효 데이터들이 존재하는지 여부와 관련된 제1 판단 결과를 기초로 상기 오브젝트의 미인식에 대응하기 위한 상기 오브젝트의 상태 정보를 생성하는 오브젝트 상태 생성부
를 더 포함하는 것을 특징으로 하는 오브젝트 추적 장치.
The method according to claim 1,
An object state generating unit for generating state information of the object corresponding to the unrecognized object based on a first determination result related to whether or not the valid data exists,
And an object tracking device for tracking the object.
제 6 항에 있어서,
상기 오브젝트 상태 생성부는 상기 오브젝트의 상태 정보를 생성할 때 상기 제1 센싱 데이터들이 존재하는지 여부와 관련된 제2 판단 결과, 상기 제2 센싱 데이터들이 최초로 획득된 데이터들인지 여부와 관련된 제3 판단 결과, 상기 유효 데이터들이 존재하는지 여부가 최초 판단인지 여부와 관련된 제4 판단 결과, 연속적으로 상기 유효 데이터들이 존재하는 것으로 판단되는지 여부와 관련된 제5 판단 결과, 및 연속적으로 상기 유효 데이터들이 존재하는 것으로 판단된 지 미리 정해진 시간이 경과했는지 여부와 관련된 제6 판단 결과 중 적어도 하나의 판단 결과를 더 이용하는 것을 특징으로 하는 오브젝트 추적 장치.
The method according to claim 6,
The object state generation unit may generate a state information of the object based on a result of a second determination as to whether or not the first sensing data exists and a third determination as to whether the second sensing data is data obtained first, As a result of the fourth determination as to whether or not the valid data exists in the first judgment, a fifth determination result related to whether or not the valid data is continuously judged to exist, And a sixth determination result related to whether or not a predetermined time has elapsed.
제 7 항에 있어서,
상기 오브젝트 상태 생성부는 상기 제2 판단 결과 내지 상기 제6 판단 결과를 모두 이용할 때 상기 제2 판단 결과, 상기 제3 판단 결과, 상기 제4 판단 결과, 상기 제5 판단 결과 및 상기 제6 판단 결과의 순서로 차례대로 이용하는 것을 특징으로 하는 오브젝트 추적 장치.
8. The method of claim 7,
The object state generation unit may generate the second determination result, the third determination result, the fourth determination result, the fifth determination result, and the sixth determination result when using the second determination result to the sixth determination result. In order from the object side.
제 6 항에 있어서,
상기 오브젝트의 상태 정보를 기초로 상기 오브젝트를 계속 추적할 것인지 여부를 판단하는 오브젝트 추적 판단부
를 더 포함하는 것을 특징으로 하는 오브젝트 추적 장치.
The method according to claim 6,
An object tracking determination unit for determining whether to continue to track the object based on the state information of the object,
And an object tracking device for tracking the object.
제 6 항에 있어서,
상기 오브젝트 상태 생성부는 카메라 센서, 레이더 센서 및 라이다 센서 중 어느 하나의 센서에 의해 상기 제1 센싱 데이터들이 획득되고 다른 두 센서들에 의해 제6 센싱 데이터들과 제7 센싱 데이터들이 획득되면 상기 제1 센싱 데이터들과 상기 제6 센싱 데이터들 및 상기 제7 센싱 데이터들 중에서 선택된 적어도 하나의 센싱 데이터들을 기초로 상기 오브젝트의 상태 정보를 생성하는 것을 특징으로 하는 오브젝트 추적 장치.
The method according to claim 6,
The object state generator may generate the object sensing data by using one of a camera sensor, a radar sensor, and a ladder sensor, and when the sixth sensing data and the seventh sensing data are obtained by the other two sensors, And generates the state information of the object based on at least one sensing data selected from among the first sensing data, the sixth sensing data, and the seventh sensing data.
제 10 항에 있어서,
상기 오브젝트 상태 생성부는 상기 제1 센싱 데이터들이 상기 카메라 센서에 의해 획득된 센싱 데이터들이고 상기 제6 센싱 데이터들이 상기 레이더 센서에 의해 획득된 센싱 데이터들이며 상기 제7 센싱 데이터들이 상기 라이다 센서에 의해 획득된 센싱 데이터들이면, 먼저 상기 제7 센싱 데이터들을 기초로 상기 오브젝트의 상태 정보를 생성하고, 이후 상기 제1 센싱 데이터들과 상기 제6 센싱 데이터들 및 상기 제7 센싱 데이터들을 기초로 상기 오브젝트의 상태 정보를 생성하며, 이후 미리 정해진 조건에 부합할 때 상기 제1 센싱 데이터들 및 상기 제6 센싱 데이터들을 기초로 상기 오브젝트의 상태 정보를 생성하고, 이후 상기 제1 센싱 데이터들을 기초로 상기 오브젝트의 상태 정보를 생성하며, 이후 상기 제6 센싱 데이터들을 기초로 상기 오브젝트의 상태 정보를 생성하는 것을 특징으로 하는 오브젝트 추적 장치.
11. The method of claim 10,
The object state generation unit may generate the object sensing data based on the sensing data obtained by the camera sensor and the sixth sensing data are sensing data obtained by the radar sensor, The state information of the object is first generated based on the seventh sensing data, and then, based on the first sensing data, the sixth sensing data, and the seventh sensing data, Generates state information of the object on the basis of the first sensing data and the sixth sensing data when the predetermined condition is satisfied, and thereafter generates state information of the object based on the first sensing data, And then, based on the sixth sensing data, Object-tracking device, characterized in that for generating the status information.
제 6 항에 있어서,
상기 오브젝트의 상태 정보를 기초로 상기 오브젝트를 추적하는 차량의 주행을 제어하는 주행 제어부
를 더 포함하는 것을 특징으로 하는 오브젝트 추적 장치.
The method according to claim 6,
A running control unit for controlling the running of the vehicle that tracks the object based on the state information of the object;
And an object tracking device for tracking the object.
제 1 항에 있어서,
상기 오브젝트 추적부는 상기 유효 데이터들과 상기 오브젝트에 대한 정보 사이의 오차를 기초로 선택된 상기 적어도 하나의 유효 데이터를 기초로 오브젝트를 추적하는 것을 특징으로 하는 오브젝트 추적 장치.
The method according to claim 1,
Wherein the object tracking unit tracks an object based on the at least one valid data selected based on an error between the valid data and information about the object.
제 1 항에 있어서,
상기 유효 데이터 판단부는 관심 영역에 위치하는 오브젝트와 관련된 제2 센싱 데이터들 중에 상기 유효 데이터들이 존재하는지 여부를 판단하는 것을 특징으로 하는 오브젝트 추적 장치.
The method according to claim 1,
Wherein the valid data determination unit determines whether the valid data exists among second sensing data related to an object located in a ROI.
제 1 항에 있어서,
상기 제1 센싱 데이터들과 다른 센서에 의해 획득된 제3 센싱 데이터들을 기초로 상기 오브젝트에 대한 정보가 예측되면 상기 제1 센싱 데이터들을 기초로 예측된 상기 오브젝트에 대한 정보 및 상기 제3 센싱 데이터들을 기초로 예측된 상기 오브젝트에 대한 정보를 기초로 제1 기준 범위를 결정하는 제1 범위 결정부
를 더 포함하며,
상기 유효 데이터 판단부는 상기 제1 센싱 데이터들과 동일 센서에 의해 획득된 제4 센싱 데이터들 및 상기 제3 센싱 데이터들과 동일 센서에 의해 획득된 제5 센싱 데이터들을 상기 제1 기준 범위와 순차적으로 비교하여 상기 제4 센싱 데이터들 및 상기 제5 센싱 데이터들 중에 상기 유효 데이터들이 존재하는지 여부를 판단하는 것을 특징으로 하는 오브젝트 추적 장치.
The method according to claim 1,
If information on the object is predicted based on the third sensing data obtained by the sensor and the first sensing data, information on the object predicted based on the first sensing data and the third sensing data A first range determination unit for determining a first reference range based on information on the object predicted on a basis,
Further comprising:
The valid data determination unit may compare the fourth sensing data obtained by the same sensor with the first sensing data and the fifth sensing data obtained by the same sensor with the third sensing data to the first reference range sequentially And determines whether the valid data exists among the fourth sensing data and the fifth sensing data.
제 1 항에 있어서,
상기 제1 센싱 데이터들과 다른 센서에 의해 획득된 제3 센싱 데이터들을 기초로 상기 오브젝트에 대한 정보가 예측되면 상기 제1 센싱 데이터들을 기초로 예측된 상기 오브젝트에 대한 정보를 기초로 제2 기준 범위를 결정하고, 상기 제3 센싱 데이터들을 기초로 예측된 상기 오브젝트에 대한 정보를 기초로 제3 기준 범위를 결정하는 제2 범위 결정부
를 더 포함하며,
상기 유효 데이터 판단부는 상기 제1 센싱 데이터들과 동일 센서에 의해 획득된 제4 센싱 데이터들을 상기 제2 기준 범위와 비교하여 상기 제4 센싱 데이터들 중에 상기 유효 데이터들이 존재하는지 여부를 판단하고, 상기 제3 센싱 데이터들과 동일 센서에 의해 획득된 제5 센싱 데이터들을 상기 제3 기준 범위와 비교하여 상기 제5 센싱 데이터들 중에 상기 유효 데이터들이 존재하는지 여부를 판단하는 것을 특징으로 하는 오브젝트 추적 장치.
The method according to claim 1,
If information on the object is predicted based on third sensing data obtained by a sensor different from the first sensing data, based on information about the object predicted based on the first sensing data, And determines a third reference range based on information on the predicted object based on the third sensing data,
Further comprising:
Wherein the valid data determination unit compares the fourth sensing data obtained by the same sensor with the first sensing data to the second reference range to determine whether the valid data exists among the fourth sensing data, And compares the third sensing data with fifth sensing data obtained by the same sensor with the third reference range to determine whether the valid data exists among the fifth sensing data.
제 1 항에 있어서,
상기 오브젝트 정보 예측부는 상기 제1 센싱 데이터들과 다른 센서에 의해 제3 센싱 데이터들이 획득되면 상기 제1 센싱 데이터들과 상기 제3 센싱 데이터들을 결합하여 얻은 데이터들을 기초로 상기 오브젝트에 대한 정보를 예측하는 것을 특징으로 하는 오브젝트 추적 장치.
The method according to claim 1,
Wherein the object information predicting unit predicts information about the object based on data obtained by combining the first sensing data and the third sensing data when the third sensing data is acquired by a sensor different from the first sensing data, And the object tracking device.
제 1 항에 있어서,
상기 오브젝트 정보 예측부는 상기 제1 센싱 데이터들과 다른 센서에 의해 제3 센싱 데이터들이 획득되면 상기 제1 센싱 데이터들과 상기 제3 센싱 데이터들 중에서 동일 아이템에 대하여 우선순위에 따라 선택된 센싱 데이터들을 기초로 상기 오브젝트에 대한 정보를 예측하는 것을 특징으로 하는 오브젝트 추적 장치.
The method according to claim 1,
Wherein the object information predicting unit determines the third sensing data based on the first sensing data and the third sensing data based on the priority of the same item among the first sensing data and the third sensing data when the third sensing data is acquired by a sensor different from the first sensing data, And predicts the information about the object with the object.
제 1 항에 있어서,
상기 유효 데이터들 중에 상기 오브젝트의 종류에 대한 정보가 포함되어 있지 않으면 상기 유효 데이터들 중에 상기 오브젝트의 속도 정보가 포함되어 있는지 여부를 판단하는 오브젝트 속도 판단부; 및
상기 유효 데이터들 중에 상기 오브젝트의 속도 정보가 포함되어 있는 것으로 판단되면 상기 오브젝트의 속도 정보를 기초로 상기 오브젝트의 종류에 대한 정보를 추정하는 제1 오브젝트 종류 추정부
를 더 포함하는 것을 특징으로 하는 오브젝트 추적 장치.
The method according to claim 1,
An object speed determiner for determining whether the valid data includes the speed information of the object if the valid data does not include information on the type of the object; And
Estimating information on the type of the object based on the velocity information of the object if it is determined that the velocity information of the object is included among the valid data;
And an object tracking device for tracking the object.
제 1 항에 있어서,
상기 제1 센싱 데이터들 중에 상기 오브젝트의 종류에 대한 정보가 포함되어 있으면 상기 오브젝트의 종류에 대한 정보가 보행자인지 여부를 판단하는 제1 오브젝트 종류 판단부;
상기 오브젝트의 종류에 대한 정보가 보행자인 것으로 판단되면 상기 유효 데이터들 중에 상기 오브젝트의 종류에 대한 정보가 포함되어 있는지 여부를 판단하는 제2 오브젝트 종류 판단부; 및
상기 유효 데이터들 중에 상기 오브젝트의 종류에 대한 정보가 포함되어 있지 않은 것으로 판단되면 상기 제1 센싱 데이터들에 포함되어 있는 상기 오브젝트의 종류에 대한 정보를 상기 유효 데이터들에 포함시키는 제2 오브젝트 종류 추정부
를 더 포함하는 것을 특징으로 하는 오브젝트 추적 장치.
The method according to claim 1,
A first object type determination unit for determining whether information on the type of the object is a pedestrian if information on the type of the object is included in the first sensing data;
A second object type determination unit for determining whether information on the type of the object is included in the valid data if it is determined that the information on the type of the object is a pedestrian; And
If it is determined that the information on the type of the object is not included in the valid data, a second object type adder that includes information on the type of the object included in the first sensing data, government
And an object tracking device for tracking the object.
이전 시간에 획득된 제1 센싱 데이터들을 기초로 오브젝트에 대한 정보를 예측하는 오브젝트 정보 예측 단계;
현재 시간에 획득된 제2 센싱 데이터들과 상기 오브젝트에 대한 정보를 비교하여 상기 제2 센싱 데이터들 중에 유효 데이터들이 존재하는지 여부를 판단하는 유효 데이터 판단 단계; 및
상기 유효 데이터들이 존재하는 것으로 판단되면 적어도 하나의 유효 데이터를 기초로 오브젝트를 추적하는 오브젝트 추적 단계
를 포함하는 것을 특징으로 하는 오브젝트 추적 방법.
An object information prediction step of predicting information on an object based on first sensing data obtained at a previous time;
A valid data determination step of determining whether valid data exists among the second sensing data by comparing second sensing data obtained at a current time with information about the object; And
An object tracking step of tracking an object based on at least one valid data if it is determined that the valid data exists;
The object tracking method comprising:
제 21 항에 있어서,
상기 오브젝트 정보 예측 단계는 상기 오브젝트와 상기 오브젝트를 추적하는 차량 사이의 거리 정보, 상기 오브젝트와 상기 차량 사이의 속도 정보 및 상태 천이 행렬(state transition matrix)을 연산하여 상기 오브젝트에 대한 정보를 예측하는 것을 특징으로 하는 오브젝트 추적 방법.
22. The method of claim 21,
The object information prediction step may include estimating information on the object by calculating distance information between the object and the vehicle tracking the object, velocity information between the object and the vehicle, and a state transition matrix A method for tracking an object.
제 21 항에 있어서,
상기 유효 데이터들이 존재하는지 여부와 관련된 제1 판단 결과를 기초로 상기 오브젝트의 미인식에 대응하기 위한 상기 오브젝트의 상태 정보를 생성하는 오브젝트 상태 생성 단계
를 더 포함하는 것을 특징으로 하는 오브젝트 추적 방법.
22. The method of claim 21,
An object state generating step of generating state information of the object corresponding to the unrecognized object based on a first determination result related to whether or not the valid data exists;
The object tracking method further comprising:
제 23 항에 있어서,
상기 오브젝트의 상태 정보를 기초로 상기 오브젝트를 계속 추적할 것인지 여부를 판단하는 오브젝트 추적 판단 단계
를 더 포함하는 것을 특징으로 하는 오브젝트 추적 방법.
24. The method of claim 23,
An object tracking determination step of determining whether to continue to track the object based on the state information of the object
The object tracking method further comprising:
제 23 항에 있어서,
상기 오브젝트의 상태 정보를 기초로 상기 오브젝트를 추적하는 차량의 주행을 제어하는 주행 제어 단계
를 더 포함하는 것을 특징으로 하는 오브젝트 추적 방법.
24. The method of claim 23,
A traveling control step of controlling traveling of the vehicle that tracks the object based on the state information of the object;
The object tracking method further comprising:
제 21 항에 있어서,
상기 오브젝트 추적 단계는 상기 유효 데이터들과 상기 오브젝트에 대한 정보 사이의 오차를 기초로 선택된 상기 적어도 하나의 유효 데이터를 기초로 오브젝트를 추적하는 것을 특징으로 하는 오브젝트 추적 방법.
22. The method of claim 21,
Wherein the object tracking step tracks an object based on the at least one valid data selected based on an error between the valid data and the information about the object.
제 21 항에 있어서,
상기 제1 센싱 데이터들과 다른 센서에 의해 획득된 제3 센싱 데이터들을 기초로 상기 오브젝트에 대한 정보가 예측되면 상기 제1 센싱 데이터들을 기초로 예측된 상기 오브젝트에 대한 정보 및 상기 제3 센싱 데이터들을 기초로 예측된 상기 오브젝트에 대한 정보를 기초로 제1 기준 범위를 결정하는 제1 범위 결정 단계
를 더 포함하며,
상기 유효 데이터 판단 단계는 상기 제1 센싱 데이터들과 동일 센서에 의해 획득된 제4 센싱 데이터들 및 상기 제3 센싱 데이터들과 동일 센서에 의해 획득된 제5 센싱 데이터들을 상기 제1 기준 범위와 순차적으로 비교하여 상기 제4 센싱 데이터들 및 상기 제5 센싱 데이터들 중에 상기 유효 데이터들이 존재하는지 여부를 판단하는 것을 특징으로 하는 오브젝트 추적 방법.
22. The method of claim 21,
If information on the object is predicted based on the third sensing data obtained by the sensor and the first sensing data, information on the object predicted based on the first sensing data and the third sensing data A first range determination step of determining a first reference range based on information on the object predicted on a basis;
Further comprising:
The valid data determination step may include comparing the fourth sensing data obtained by the same sensor with the first sensing data and the fifth sensing data obtained by the same sensor with the third sensing data, And determines whether the valid data exists among the fourth sensing data and the fifth sensing data.
제 21 항에 있어서,
상기 제1 센싱 데이터들과 다른 센서에 의해 획득된 제3 센싱 데이터들을 기초로 상기 오브젝트에 대한 정보가 예측되면 상기 제1 센싱 데이터들을 기초로 예측된 상기 오브젝트에 대한 정보를 기초로 제2 기준 범위를 결정하고, 상기 제3 센싱 데이터들을 기초로 예측된 상기 오브젝트에 대한 정보를 기초로 제3 기준 범위를 결정하는 제2 범위 결정 단계
를 더 포함하며,
상기 유효 데이터 판단 단계는 상기 제1 센싱 데이터들과 동일 센서에 의해 획득된 제4 센싱 데이터들을 상기 제2 기준 범위와 비교하여 상기 제4 센싱 데이터들 중에 상기 유효 데이터들이 존재하는지 여부를 판단하고, 상기 제3 센싱 데이터들과 동일 센서에 의해 획득된 제5 센싱 데이터들을 상기 제3 기준 범위와 비교하여 상기 제5 센싱 데이터들 중에 상기 유효 데이터들이 존재하는지 여부를 판단하는 것을 특징으로 하는 오브젝트 추적 방법.
22. The method of claim 21,
If information on the object is predicted based on third sensing data obtained by a sensor different from the first sensing data, based on information about the object predicted based on the first sensing data, And a second range determination step of determining a third reference range based on information on the predicted object based on the third sensing data
Further comprising:
The valid data determination step may include comparing the fourth sensing data obtained by the sensor with the first sensing data to the second reference range to determine whether the valid data exists among the fourth sensing data, And comparing the fifth sensing data obtained by the same sensor with the third sensing data to the third reference range to determine whether the valid data exists in the fifth sensing data .
제 21 항에 있어서,
상기 유효 데이터들 중에 상기 오브젝트의 종류에 대한 정보가 포함되어 있지 않으면 상기 유효 데이터들 중에 상기 오브젝트의 속도 정보가 포함되어 있는지 여부를 판단하는 오브젝트 속도 판단 단계; 및
상기 유효 데이터들 중에 상기 오브젝트의 속도 정보가 포함되어 있는 것으로 판단되면 상기 오브젝트의 속도 정보를 기초로 상기 오브젝트의 종류에 대한 정보를 추정하는 제1 오브젝트 종류 추정 단계
를 더 포함하는 것을 특징으로 하는 오브젝트 추적 방법.
22. The method of claim 21,
Determining whether the valid data includes the speed information of the object if the valid data does not include information on the type of the object; And
A first object type estimation step of estimating information on the type of the object based on the speed information of the object if it is determined that the speed information of the object is included among the valid data
The object tracking method further comprising:
제 21 항에 있어서,
상기 제1 센싱 데이터들 중에 상기 오브젝트의 종류에 대한 정보가 포함되어 있으면 상기 오브젝트의 종류에 대한 정보가 보행자인지 여부를 판단하는 제1 오브젝트 종류 판단 단계;
상기 오브젝트의 종류에 대한 정보가 보행자인 것으로 판단되면 상기 유효 데이터들 중에 상기 오브젝트의 종류에 대한 정보가 포함되어 있는지 여부를 판단하는 제2 오브젝트 종류 판단 단계; 및
상기 유효 데이터들 중에 상기 오브젝트의 종류에 대한 정보가 포함되어 있지 않은 것으로 판단되면 상기 제1 센싱 데이터들에 포함되어 있는 상기 오브젝트의 종류에 대한 정보를 상기 유효 데이터들에 포함시키는 제2 오브젝트 종류 추정 단계
를 더 포함하는 것을 특징으로 하는 오브젝트 추적 방법.
22. The method of claim 21,
A first object type determination step of determining whether information on the type of the object is a pedestrian if information on the type of the object is included in the first sensing data;
A second object type determination step of determining whether information on the type of the object is included in the valid data if it is determined that the information on the type of the object is a pedestrian; And
If the information on the type of the object is not included in the valid data, information on the type of the object included in the first sensing data is included in the valid data, step
The object tracking method further comprising:
컴퓨터에서 제 21 항 내지 제 30 항 중 어느 한 항에 따른 오브젝트 추적 방법을 실행시키기 위한 컴퓨터 판독 가능 매체에 저장된 컴퓨터 프로그램.31. A computer program stored in a computer readable medium for executing an object tracking method according to any one of claims 21 to 30 in a computer.
KR1020170000583A 2017-01-03 2017-01-03 Apparatus and method for tracking object KR102198810B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170000583A KR102198810B1 (en) 2017-01-03 2017-01-03 Apparatus and method for tracking object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170000583A KR102198810B1 (en) 2017-01-03 2017-01-03 Apparatus and method for tracking object

Publications (2)

Publication Number Publication Date
KR20180079880A true KR20180079880A (en) 2018-07-11
KR102198810B1 KR102198810B1 (en) 2021-01-05

Family

ID=62917796

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170000583A KR102198810B1 (en) 2017-01-03 2017-01-03 Apparatus and method for tracking object

Country Status (1)

Country Link
KR (1) KR102198810B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210079992A (en) 2019-12-20 2021-06-30 한양대학교 산학협력단 Multi-sensor fusion method and apparatus

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240047712A (en) 2022-10-05 2024-04-12 주식회사 제이이노텍 Autonomous mobile robot equipped with multi-camera for obstacle avoidance

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009133780A (en) * 2007-11-30 2009-06-18 Isuzu Motors Ltd Obstacle detector for vehicle
JP2014209387A (en) * 2010-03-17 2014-11-06 本田技研工業株式会社 Vehicle periphery monitoring device
JP5888407B2 (en) * 2012-04-12 2016-03-22 トヨタ自動車株式会社 Driving assistance device
KR20160071162A (en) 2014-12-11 2016-06-21 현대자동차주식회사 Apparatus for tracking multi object using lidar and method thereof

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009133780A (en) * 2007-11-30 2009-06-18 Isuzu Motors Ltd Obstacle detector for vehicle
JP2014209387A (en) * 2010-03-17 2014-11-06 本田技研工業株式会社 Vehicle periphery monitoring device
JP5888407B2 (en) * 2012-04-12 2016-03-22 トヨタ自動車株式会社 Driving assistance device
KR20160071162A (en) 2014-12-11 2016-06-21 현대자동차주식회사 Apparatus for tracking multi object using lidar and method thereof

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
신성근, 안대룡, 이준오, 이혁기. 보행자 경로 추적을 위한 다중 센서 데이터 융합 알고리즘. 한국자동차공학회 춘계학술대회 논문집. 2016.5., pp 1270-1274. 1부.* *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210079992A (en) 2019-12-20 2021-06-30 한양대학교 산학협력단 Multi-sensor fusion method and apparatus

Also Published As

Publication number Publication date
KR102198810B1 (en) 2021-01-05

Similar Documents

Publication Publication Date Title
JP6214995B2 (en) Parked vehicle detection device, vehicle management system, control method, and control program
JP2020052694A (en) Object detection apparatus, object detection method, and computer program for object detection
CN110383363A (en) Information processing unit and information processing method
KR20180077623A (en) Hybrid vehicle and method of predicting driving pattern
CN112046501A (en) Automatic driving device and method
JP6418574B2 (en) Risk estimation device, risk estimation method, and computer program for risk estimation
CN104865579A (en) Vehicle-installed Obstacle Detection Apparatus Having Function For Judging Motion Condition Of Detected Object
KR102569900B1 (en) Apparatus and method for performing omnidirectional sensor-fusion and vehicle including the same
CN104183131A (en) Apparatus and method for detecting traffic lane using wireless communication
US11748593B2 (en) Sensor fusion target prediction device and method for vehicles and vehicle including the device
CN104635731B (en) The kinetic characteristic judgment means of target and the driving path control device for possessing this
JP2021113816A (en) Output device, control method, program, and storage medium
JP2008257652A (en) Traffic environment prediction device
KR20180079880A (en) Apparatus and method for tracking object
JP2006226824A (en) Information reporting device for vehicle
JP2011191894A (en) Driving support apparatus and program
CN115700204A (en) Confidence determination method and device of automatic driving strategy
JP2021190119A (en) Method and device for predicting route of traffic participant, and sensor system
KR101965043B1 (en) Region selection method and device for generating precise map
KR102616571B1 (en) System and method for providing road traffic information based on image analysis using artificial intelligence
JP5212004B2 (en) Vehicle tracking device and vehicle tracking method
JP7277202B2 (en) Vehicle behavior prediction method, vehicle behavior prediction device, and vehicle control device
KR102350197B1 (en) Apparatus and method for setting driving route
JP7172491B2 (en) Traffic flow prediction device, traffic flow prediction method and program
KR20200133852A (en) Autonomous driving apparatus and method

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant