KR20190078270A - System and method for tracking object - Google Patents

System and method for tracking object Download PDF

Info

Publication number
KR20190078270A
KR20190078270A KR1020170180103A KR20170180103A KR20190078270A KR 20190078270 A KR20190078270 A KR 20190078270A KR 1020170180103 A KR1020170180103 A KR 1020170180103A KR 20170180103 A KR20170180103 A KR 20170180103A KR 20190078270 A KR20190078270 A KR 20190078270A
Authority
KR
South Korea
Prior art keywords
occlusion
state
tracking
information
obscured
Prior art date
Application number
KR1020170180103A
Other languages
Korean (ko)
Other versions
KR102198809B1 (en
Inventor
신성근
이혁기
Original Assignee
자동차부품연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 자동차부품연구원 filed Critical 자동차부품연구원
Priority to KR1020170180103A priority Critical patent/KR102198809B1/en
Publication of KR20190078270A publication Critical patent/KR20190078270A/en
Application granted granted Critical
Publication of KR102198809B1 publication Critical patent/KR102198809B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • B60R21/0134Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to imminent contact with an obstacle, e.g. using radar systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0002Automatic control, details of type of controller or control system architecture
    • B60W2050/0004In digital systems, e.g. discrete-time systems involving sampling
    • B60W2050/0005Processor details or data handling, e.g. memory registers or chip architecture
    • B60W2550/10
    • B60W2550/30
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/802Longitudinal distance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/804Relative longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2300/00Purposes or special features of road vehicle drive control systems
    • B60Y2300/08Predicting or avoiding probable or impending collision

Abstract

According to the present invention, a method for tracking an object comprises the following steps of: estimating an occlusion region covered a the first object based on information of the first object; generating an occlusion map including the occlusion region; and determining whether the second object is occluded by the first object based on information of the second object that is being tracked and the occlusion map.

Description

객체 추적 시스템 및 방법{SYSTEM AND METHOD FOR TRACKING OBJECT}[0001] SYSTEM AND METHOD FOR TRACKING OBJECT [0002]

본 발명은 객체 추적 시스템 및 방법에 관한 것이다.The present invention relates to an object tracking system and method.

객체 추적은 센서로부터 측정된 오브젝트 정보를 기반으로 오브젝트의 이동이나 경로를 추적하는 기술이다. 이러한 객체 추적 기술에 있어서 차량 전방에 존재하는 객체와의 충돌을 예방하거나 방지하는 것을 목적으로 하는 능동안전시스템 및 운전자지원시스템(ADAS)은 정확하고 강인한 객체의 추적이 매주 중요한 요소 기술에 해당한다.Object tracking is a technique for tracking the movement or path of an object based on object information measured from a sensor. In this object tracking technology, Active Safety System and Driver Assistance System (ADAS), which aims to prevent or prevent collision with objects existing in front of the vehicle, corresponds to important element technology of accurate and robust tracking of objects every week.

하지만 현재 센서의 측정 성능의 한계 및 노이즈 와, 매우 복잡하게 변화하는 실도로 환경은 객체 추적 성능을 저하시킨다. 객체를 추적함에 있어 추적 성능 저하는 시스템 관점에서 매우 위험한 상황을 야기할 수 있다.However, the limitations and noise of the current measurement performance of the sensor, as well as the highly complex real world environment, deteriorate the object tracking performance. Tracking performance degradation in tracking objects can lead to very dangerous situations from a system point of view.

예를 들어, 주행시 스스로 위험을 판단하여 조치를 수행하는 능동안전시스템(Active Safety System) 관점에서는 잘못된 객체 추적으로 인하여 전방 장애물(객체)과의 충돌 위험을 판단하지 못하여 충돌을 회피할 수 없게 되거나, 전방 장애물이 없는 상황에서 잘못된 충돌 위험을 판단함으로써 의도치 않는 제동 또는 조향과 같은 동작이 수행되어 운전자의 주행을 방해하거나 안전을 위협하는 상황을 야기할 수 있다.For example, from the viewpoint of an active safety system in which a danger is judged by the driver himself / herself during a running operation, a collision can not be avoided because a wrong object tracking can not determine a risk of collision with a front obstacle (object) In the absence of a frontal obstacle, judging the risk of a false collision can lead to unintentional braking or steer-like movements that can interfere with the driver's driving or threaten safety.

따라서, 이와 같은 문제를 해소하기 위해 복잡한 실도로 환경에서 객체의 추적 성능을 향상시킬 수 있는 강인한 객체 추적 기술이 필요한 실정이다.Therefore, in order to solve such a problem, robust object tracking technology that can improve the tracking performance of an object in a complex real environment is needed.

이와 관련하여, 한국공개특허공보 제10-2010-0072779호(발명의 명칭: 차량의 보행자 회피 장치 및 방법)는 3차원 센서를 이용하여 보행자의 이동 방향을 감지하여 자동으로 회피하는 기술을 개시하고 있다.In this regard, Korean Patent Laid-Open Publication No. 10-2010-0072779 (entitled "Vehicle Pedestrian Avoiding Apparatus and Method") discloses a technique of automatically detecting a moving direction of a pedestrian by using a three-dimensional sensor have.

본 발명의 실시예는 오클루젼 예측 과정 및 오클루젼을 고려한 트랙 관리 과정을 통해 강인한 객체 추적을 가능하게 하는 객체 추적 시스템 및 방법을 제공하고자 한다.An object of the present invention is to provide an object tracking system and method that enable robust object tracking through an occlusion prediction process and a track management process considering occlusion.

다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.It should be understood, however, that the technical scope of the present invention is not limited to the above-described technical problems, and other technical problems may exist.

상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 제 1 측면에 따른 객체 추적 방법은 제 1 객체의 정보에 기초하여 상기 제 1 객체에 의해 가려지는 오클루젼 영역을 추정하는 단계; 상기 오클루젼 영역이 포함된 오클루젼 맵을 생성하는 단계; 및 추적 중인 제 2 객체의 정보 및 상기 오클루젼 맵에 기초하여 상기 제 2 객체의 상기 제 1 객체로 인한 오클루젼 여부를 판단하는 단계를 포함한다.According to an aspect of the present invention, there is provided an object tracking method comprising: estimating an occlusion area covered by a first object based on information of a first object; Generating an occlusion map including the occlusion region; And determining whether or not occlusion due to the first object of the second object based on the information of the second object being tracked and the occlusion map.

제 1 객체의 정보에 기초하여 상기 제 1 객체에 의해 가려지는 오클루젼 영역을 추정하는 단계는, 상기 제 1 객체와 센서와의 상대 위치 및 방위각과, 상기 제 1 객체의 크기 및 위치에 기초하여 상기 오클루젼 영역을 추정할 수 있다.Estimating an occlusion area covered by the first object based on information of the first object may include estimating an occlusion area covered by the first object based on the relative position and azimuth of the first object and the sensor, To estimate the occlusion region.

상기 오클루젼 영역이 포함된 오클루젼 맵을 생성하는 단계는, 상기 제 1 객체 또는 상기 제 2 객체가 이동 중인 경우 상기 오클루젼 맵은 복수 개의 오클루젼 영역을 포함할 수 있다.The occlusion map including the occlusion region may include a plurality of occlusion regions when the first object or the second object is in motion.

상기 제 2 객체의 상기 제 1 객체로 인한 오클루젼 여부를 판단하는 단계는, 상기 제 2 객체의 위치, 속도 및 크기 중 하나 이상의 정보에 기초하여, 현재 시점에서 다음 시점에서의 위치를 예측하여 상기 제 2 객체의 오클루젼 여부를 판단할 수 있다.Wherein the step of determining whether or not occlusion is caused by the first object of the second object includes predicting a position of the next object at the current point of time based on at least one of the position, Whether or not the second object is occlusion can be determined.

상기 제 2 객체의 상기 제 1 객체로 인한 오클루젼 여부를 판단하는 단계는, 상기 제 2 객체의 상기 오클루젼 영역으로의 진입 이전 시간을 측정하는 단계; 상기 제 2 객체의 정보에 기초하여 상기 오클루젼 영역의 진출까지의 예측 시간을 산출하는 단계; 및 상기 진입 이전 시간부터 상기 진출까지의 예측 시간 동안 상기 제 2 객체를 트래킹하는 단계를 포함할 수 있다.Wherein the determining whether the second object is occlusive due to the first object comprises: measuring a time before entry of the second object into the occlusion region; Calculating a predicted time until the occlusion area advances based on the information of the second object; And tracking the second object for a predicted time from the pre-entry time to the advancement.

본 발명에 따른 객체 추적 방법은 상기 제 2 객체를 추적하는 단계를 더 포함하되, 상기 제 2 객체의 추적 상태는 초기 상태, 불확실 상태, 확신 상태, 가려진 상태 및 잠재 상태를 포함할 수 있다.The object tracking method according to the present invention may further include tracking the second object, wherein the tracking state of the second object may include an initial state, an uncertain state, a confidential state, an obscured state, and a latent state.

상기 제 2 객체를 추적하는 단계는, 상기 초기 상태에서 상기 제 2 객체의 정보를 획득하는 경우 상기 불확실 상태로 전환하는 단계; 상기 불확실 상태에서 상기 제 2 객체의 정보를 획득하여 상기 제 2 객체가 확인되는 경우 상기 확신 상태로 전환하는 단계; 및 상기 확신 상태에서 상기 제 2 객체가 추적되지 않는 경우 상기 가려진 상태로 전환하는 단계를 포함할 수 있다.The step of tracking the second object may include switching to the uncertain state when acquiring information of the second object in the initial state; Acquiring information of the second object in the uncertainty state and switching to the confident state when the second object is confirmed; And switching to the obscured state if the second object is not tracked in the asserted state.

상기 제 2 객체를 추적하는 단계는, 상기 가려진 상태에서 상기 오클루젼인 것으로 판단된 경우 상기 가려진 상태를 유지하는 단계를 더 포함할 수 있다.The step of tracking the second object may further include maintaining the obscured state when it is determined that the occlusion is in the obscured state.

상기 제 2 객체를 추적하는 단계는, 상기 가려진 상태에서 상기 오클루젼 상태가 아닌 것으로 판단된 경우 상기 가려진 상태에서 상기 잠재 상태로 전환하는 단계를 더 포함할 수 있다.The step of tracking the second object may further include switching from the obscured state to the latent state when it is determined that the observer is not in the occlusion state.

또한, 본 발명의 제 2 측면에 따른 객체 추적 시스템은 객체의 정보를 센싱하기 위한 센서부, 상기 센싱된 정보에 기초하여 객체를 추적하기 위한 프로그램이 저장된 메모리 및 상기 메모리에 저장된 프로그램을 실행시키는 프로세서를 포함한다. 이때, 상기 프로세서는 상기 프로그램을 실행시킴에 따라, 상기 센서부에 의해 센싱된 제 1 객체의 정보에 기초하여 제 1 객체에 의해 가려지는 오클루젼 영역을 추정하여 오클루젼 맵을 생성하고, 상기 센서부에 의해 센싱된 제 2 객체의 정보 및 상기 오클루젼 맵에 기초하여 상기 제 2 객체의 상기 제 1 객체로 인한 오클루젼 여부를 판단한다.According to a second aspect of the present invention, there is provided an object tracking system including a sensor unit for sensing information of an object, a memory for storing a program for tracking an object based on the sensed information, . At this time, as the program is executed, the processor generates an occlusion map by estimating an occlusion area covered by the first object based on the information of the first object sensed by the sensor unit, Whether or not the second object is occluded due to the first object based on the information of the second object sensed by the sensor unit and the occlusion map.

상기 센서부는 상기 제 1 객체와의 상대 위치 및 방위각과, 상기 제 1 객체의 크기 및 위치를 센싱하고, 상기 프로세서는 이에 기초하여 상기 오클루젼 영역을 추정할 수 있다.The sensor unit senses a relative position and an azimuth with respect to the first object, a size and a position of the first object, and the processor can estimate the occlusion region based on the sensed position.

상기 센서부는 상기 제 2 객체의 위치, 속도 및 크기 중 하나 이상의 정보를 센싱하고, 상기 프로세서는 상기 센싱된 정보 및 현재 시점에서 다음 시점에서의 위치를 예측하여 상기 제 2 객체의 오클루젼 여부를 판단할 수 있다.Wherein the sensor unit senses at least one of the position, velocity, and magnitude of the second object, and the processor estimates the sensed information and the position at the next time point at the current time point to determine whether or not the second object is occluded It can be judged.

전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 오클루젼 예측을 통해 종래 객체 간의 오클루젼 및 중첩 상황으로 인한 센서의 오인식 및 미인식 문제를 해소할 수 있다.According to any one of the above-mentioned objects of the present invention, it is possible to solve the problem of misrecognition and unrecognition of the sensor due to occlusion and superposition situation between conventional objects through occlusion prediction.

도 1a 내지 도 1c는 객체 추정 기술을 설명하기 위한 도면이다.
도 2는 본 발명의 일 실시예에 따른 객체 추적 시스템의 블록도이다.
도 3은 본 발명의 일 실시예에 따른 객체 추적 방법의 순서도이다.
도 4는 오클루젼 맵을 설명하기 위한 도면이다.
도 5는 오클루젼 발생 여부를 판단하는 내용을 설명하기 위한 도면이다.
도 6은 오클루젼을 고려한 제 2 객체의 추적 상태를 설명하기 위한 도면이다.
도 7 내지 도 9는 본 발명의 일 실시예에 따른 테스트 결과를 설명하기 위한 도면이다.
FIGS. 1A to 1C are diagrams for explaining an object estimation technique.
2 is a block diagram of an object tracking system in accordance with an embodiment of the present invention.
3 is a flowchart of an object tracking method according to an embodiment of the present invention.
Fig. 4 is a diagram for explaining an occlusion map. Fig.
FIG. 5 is a diagram for explaining contents for determining whether occlusion has occurred. FIG.
6 is a diagram for explaining the tracking state of the second object in consideration of occlusion.
7 to 9 are views for explaining test results according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, which will be readily apparent to those skilled in the art. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. In order to clearly explain the present invention in the drawings, parts not related to the description are omitted.

명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Whenever a component is referred to as "including" an element throughout the specification, it is to be understood that the element may include other elements, not the exclusion of any other element, unless the context clearly dictates otherwise.

도 1a 내지 도 1c는 객체 추정 기술을 설명하기 위한 도면이다.FIGS. 1A to 1C are diagrams for explaining an object estimation technique.

객체 추적 과정은 과거 측정된 정보와 현재 측정된 정보의 상관성을 기반으로 실제 위치를 확률적으로 예측함으로써 측정 정확도를 향상하며, 객체의 유효성(존재 여부) 판단 및 동일한 객체 분류 등의 검증 과정을 통해 객체의 존재를 확신하거나 제거하는 등의 추적 상태를 관리하는 과정이다.The object tracking process improves the measurement accuracy by stochastically predicting the actual position based on the correlation between the past measured information and the currently measured information, and verifies the validity of the object and verifies the same object classification It is the process of managing the tracking state such as confirming or removing the existence of the object.

일반적으로 객체의 유효성을 검증하는 방법으로는 객체의 이전 상태(위치, 속도 등)를 바탕으로 예측한 상태와 현재 측정된 상태의 유사성을 판단하여 유효성을 검증하며, 몇번의 반복된 검증을 통해 객체의 존재를 확신하는 방법이 활용된다.In general, the validity of an object is verified by verifying the similarity between the predicted state and the currently measured state based on the previous state (position, speed, etc.) of the object, A method of assuring the existence of

한편, 센서로부터 측정된 객체의 이전 상태(위치, 속도 및 형태 등)를 통해 다음 상태를 예측하는 것이 필요한데, 이때 칼만 필터 및 파티클 필터와 같은 예측 필터를 활용하여 새로운 측정값과 예측값을 통해 현재 상태를 추정할 수 있다.On the other hand, it is necessary to predict the next state through the previous state (position, velocity, shape, etc.) of the measured object from the sensor, using predictive filters such as Kalman filter and particle filter, Can be estimated.

이와 같은 일련의 과정을 반복하게 될 경우, 추적 중인 객체의 생성, 상태 갱신, 소멸 등의 객체 추적 상태를 관리하는 방법이 필요하게 된다.If this process is repeated, it is necessary to manage the object tracking state such as creation of the object being tracked, state update, and disappearance.

기존 기술에서는 일반적으로 센서로부터 객체가 연속해서 몇회 동안 측정되지 않게 되면 해당 객체는 가려졌다고 판단하여, 추적 상태를 삭제하는 방법을 사용하였다.In the conventional technology, when the object is not measured continuously for several times from the sensor, it is determined that the object is obscured and the tracking state is deleted.

구체적으로 도 1a를 참조하면, 기존 객체 추적 과정에서는 객체를 추적하기 위해 센서의 측정값과 운동학적인 모델을 기반으로 예측된 값을 비교하여 추적 대상임을 확인하는 게이팅(Gating) 과정을 통해 추적 대상의 유효성을 검증한다.Specifically, referring to FIG. 1A, in an existing object tracking process, a gating process for comparing an estimated value of a sensor and a predicted value based on a kinematic model to track an object to track the object, Verify validity.

그리고 유효성이 검증된 객체에 대해 트랙 관리 절차(Track Management)에서는 도 1b와 같이 초기 상태(P1)에서 새로운 트랙을 생성(P2)하거나 기존 트랙을 유지 및 갱신하고(P3), 기존 트랙을 삭제하는 과정(P4)을 수행하여 객체를 추적하게 된다.As shown in FIG. 1B, the track management procedure (Track Management) for the validated object creates a new track (P2) in the initial state (P1), maintains and updates the existing track (P3) And performs the process (P4) to track the object.

그러나 종래 기술의 경우에는 도 1c와 같이 다수의 객체가 존재하는 실도로 환경에서, 이동하는 객체 간의 오클루젼(Occlusion) 상황에서 센서는 객체 감지 성능이 저하되며, 이로 인해 객체가 감지되지 않게 되어 결국 개체의 추적이 지속되지 않는다는 문제가 있다.However, in the conventional art, in the actual road environment in which a plurality of objects exist as shown in FIG. 1C, in the occlusion situation between the moving objects, the sensor deteriorates the object detection performance and the object is not detected Eventually, there is a problem that tracking of the object does not continue.

이러한 문제점은 긴급제동을 수행하여 충돌 회피를 목적으로 하는 AEB와 같은 능동 안전 시스템에서 더욱 크게 작용하게 될 수 있다.Such a problem can be further exerted in an active safety system such as AEB for collision avoidance by performing emergency braking.

이와 같이 객체의 추적 성능 저하는 시스템에 있어 결과적으로 충돌을 회피할 수 없거나 잘못된 긴급제동이 수행되게끔 하는 문제로 작용하게 되므로, 이를 해결하기 위한 방안이 필요한바, 이하 본 발명의 일 실시예에 따른 객체 추적 시스템(100) 및 방법에 대해 구체적으로 설명하도록 한다.As described above, deterioration in tracking performance of an object results in a problem that a collision can not be avoided or an erroneous emergency braking is performed in the system. Therefore, a method for solving the problem is required. The object tracking system 100 and the method according to the present invention will be described in detail.

도 2는 본 발명의 일 실시예에 따른 객체 추적 시스템(100)의 블록도이다.2 is a block diagram of an object tracking system 100 in accordance with an embodiment of the present invention.

본 발명의 일 실시예에 따른 객체 추적 시스템(100)은 센서부(110), 메모리(120) 및 프로세서(130)를 포함한다.The object tracking system 100 according to an embodiment of the present invention includes a sensor unit 110, a memory 120, and a processor 130.

센서부(110)는 객체의 정보를 센싱하기 위한 것으로, 카메라 또는 라이더 센서로 구성될 수 있으며, 이들 각각 또는 모두를 포함하여 구성될 수 있다.The sensor unit 110 is for sensing information of an object, and may include a camera or a rider sensor, and may include each or all of them.

메모리(120)에는 센서부(110)에 의해 센싱된 정보에 기초하여 객체를 추적하기 위한 프로그램이 저장된다. 여기에서, 메모리(120)는 전원이 공급되지 않아도 저장된 정보를 계속 유지하는 비휘발성 저장장치 및 휘발성 저장장치를 통칭하는 것이다. In the memory 120, a program for tracking an object based on information sensed by the sensor unit 110 is stored. Herein, the memory 120 is collectively referred to as a nonvolatile storage device and a volatile storage device which keep the stored information even when power is not supplied.

예를 들어, 메모리(120)는 콤팩트 플래시(compact flash; CF) 카드, SD(secure digital) 카드, 메모리 스틱(memory stick), 솔리드 스테이트 드라이브(solid-state drive; SSD) 및 마이크로(micro) SD 카드 등과 같은 낸드 플래시 메모리(NAND flash memory), 하드 디스크 드라이브(hard disk drive; HDD) 등과 같은 마그네틱 컴퓨터 기억 장치 및 CD-ROM, DVD-ROM 등과 같은 광학 디스크 드라이브(optical disc drive) 등을 포함할 수 있다.For example, the memory 120 may be a compact flash (CF) card, a secure digital (SD) card, a memory stick, a solid-state drive (SSD) A magnetic computer storage device such as a NAND flash memory, a hard disk drive (HDD) and the like, and an optical disc drive such as a CD-ROM, a DVD-ROM, etc. .

프로세서(130)는 메모리(120)에 저장된 프로그램을 실행시킴에 따라, 제 1 객체에 의한 제 2 객체의 오클루젼 여부를 판단할 수 있다.The processor 130 may determine whether or not the second object is occluded by the first object by executing the program stored in the memory 120. [

참고로, 본 발명의 실시예에 따른 도 2에 도시된 구성 요소들은 소프트웨어 또는 FPGA(Field Programmable Gate Array) 또는 ASIC(Application Specific Integrated Circuit)와 같은 하드웨어 형태로 구현될 수 있으며, 소정의 역할들을 수행할 수 있다.2 may be implemented in hardware such as software or an FPGA (Field Programmable Gate Array) or ASIC (Application Specific Integrated Circuit), and may perform predetermined roles can do.

그렇지만 '구성 요소들'은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니며, 각 구성 요소는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다.However, 'components' are not meant to be limited to software or hardware, and each component may be configured to reside on an addressable storage medium and configured to play one or more processors.

따라서, 일 예로서 구성 요소는 소프트웨어 구성 요소들, 객체지향 소프트웨어 구성 요소들, 클래스 구성 요소들 및 태스크 구성 요소들과 같은 구성 요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다.Thus, by way of example, an element may comprise components such as software components, object-oriented software components, class components and task components, processes, functions, attributes, procedures, Routines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays, and variables.

구성 요소들과 해당 구성 요소들 안에서 제공되는 기능은 더 작은 수의 구성 요소들로 결합되거나 추가적인 구성 요소들로 더 분리될 수 있다.The components and functions provided within those components may be combined into a smaller number of components or further separated into additional components.

이하에서는 도 3 내지 8을 참조하여 본 발명의 일 실시예에 따른 객체 추적 시스템(100)에서의 객체 추적 방법에 대해 구체적으로 설명하도록 한다.Hereinafter, an object tracking method in the object tracking system 100 according to an embodiment of the present invention will be described in detail with reference to FIGS.

도 3은 본 발명의 일 실시예에 따른 객체 추적 방법의 순서도이다.3 is a flowchart of an object tracking method according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 객체 추적 방법은 먼저 센서부(110)에 의해 센싱된 제 1 객체의 정보에 기초하여 제 1 객체에 의해 가려지는 오클루젼 영역을 추정한다(S110). 다음으로, 오클루젼 영역이 포함된 오클루젼 맵을 생성한다(S120.)The object tracking method according to an embodiment of the present invention first estimates an occlusion area covered by a first object based on information of a first object sensed by the sensor unit (S110). Next, an occlusion map including an occlusion region is generated (S120.).

도 4는 오클루젼 맵을 설명하기 위한 도면이다.Fig. 4 is a diagram for explaining an occlusion map. Fig.

본 발명의 일 실시예에서 오클루젼 영역을 추정하는 단계는, 제 1 객체(A)와 센서부(110)와의 상대 위치 및 방위각과, 제 1 객체(A)의 크기 및 위치에 기초하여 오클루젼 영역이 추정될 수 있다. 뿐만 아니라, 오클루젼 영역은 제 1 객체(A)의 모양, 형태에 영향을 받게 된다.The step of estimating the occlusion region in the embodiment of the present invention may include estimating the occlusion area based on the relative position and the azimuth angle between the first object A and the sensor unit 110, The clusogenic region can be estimated. In addition, the occlusion region is affected by the shape and shape of the first object A.

이러한 오클루젼 영역은 도 4와 같이 센서부(110)가 객체를 감지할 수 없는 가려진 영역을 의미한다. 이러한 오클루젼 영역을 포함하는 오클루젼 맵은 제 1 객체(A)가 이동 중인 객체일 경우 복수 개의 오클루젼 영역을 포함할 수도 있다.This occlusion region means an obscured region where the sensor unit 110 can not detect an object as shown in FIG. The occlusion map including the occlusion region may include a plurality of occlusion regions when the first object A is a moving object.

한편, 오클루젼 맵을 생성하는 과정을 수학식을 통해 설명하면 다음과 같다.Meanwhile, the process of generating occlusion map will be described as follows.

예를 들어, 타임 스텝 k에서 객체 추적 알고리즘을 통해 카메라 센서와 라이더 센서와 같은 센서부(110)로부터 센싱된 객체의 측정값을 기반으로 생성된 트랙(

Figure pat00001
)과 트랙의 상태 벡터(class, px, py, vx, vy, w, l)는 다음 수학식 1과 같이 표현할 수 있다.For example, in a time step k, a track generated based on a measurement value of an object sensed from a sensor unit 110 such as a camera sensor and a rider sensor through an object tracking algorithm
Figure pat00001
) And the track state vector (class, px, py, vx, vy, w, l) can be expressed by the following equation (1).

[수학식 1][Equation 1]

Figure pat00002
Figure pat00002

여기에서 class는 객체의 유형을 의미하고, px 및 py는 센서부(110)로부터의 세로 및 가로의 상대거리를 의미하며, vx 및 vy는 세로 및 가로의 상대 속도를 의미한다. 또한, w와 l은 너비와 길이를 의미하고, k는 시점을 의미한다.Here, class represents the type of object, px and py refer to the relative distance between the vertical and horizontal directions from the sensor unit 110, and vx and vy refer to the relative velocity between the vertical and horizontal directions. Also, w and l mean width and length, and k means time.

이에 따라 결정되는 오클루젼 맵은 수학식 2와 같이 표현될 수 있다.The occlusion map thus determined can be expressed as Equation (2).

[수학식 2]&Quot; (2) "

Figure pat00003
Figure pat00003

여기에서 px는 센서부(110)와 물체 사이의 종 방향 상대거리를 의미하고, θc, θl 및 θr은 센서부(110)로부터 바닥 중앙, 객체의 왼쪽 및 오른쪽 코너 부분과의 방위각을 의미한다. I는 기존 트랙의 인덱스를 의미하고, k+1은 이전상태 k로부터 예측되는 다음 시점을 의미한다.Here, px represents the longitudinal relative distance between the sensor unit 110 and the object, and θc, θl, and θr represent the azimuth angle from the sensor unit 110 to the center of the bottom and the left and right corner portions of the object. I denotes an index of an existing track, and k + 1 denotes a next time point predicted from the previous state k.

오클루젼 맵의 상태 벡터, px, θc, θl 및 θr은 다음 수학식 3을 이용하여 기존 객체의 상태 벡터로부터 산출될 수 있다.The state vectors px,? C,? L and? R of the occlusion map can be calculated from the state vectors of existing objects using the following Equation (3).

[수학식 3]&Quot; (3) "

Figure pat00004
Figure pat00004

위 수학식 3은 객체의 위치가 센서부(110)의 오른쪽에 있음을 보여주는 것이나, 움직이는 객체의 경우 센서부(110)의 왼쪽, 오른쪽 및 가운데에 배치될 수 있음은 물론이다. 따라서, θc, θl 및 θr은 오클루젼 맵 생성시 객체의 위치에 따라 달라질 수 있다.Equation (3) shows that the position of the object is on the right side of the sensor unit 110, but it can be disposed on the left, right, and center of the sensor unit 110 in case of a moving object. Therefore, θc, θl, and θr may vary depending on the position of the object when creating occlusion maps.

다시 도 3을 참조하면, 센서부(110)를 통해 추적중인 제 2 객체의 정보 및 상기 생성된 오클루젼 맵에 기초하여 제 2 객체의 제 1 객체로 인한 오클루젼 여부를 판단한다(S130). Referring again to FIG. 3, whether the occlusion due to the first object of the second object is determined based on the information of the second object being tracked through the sensor unit 110 and the generated occlusion map (S130 ).

즉, 생성된 오클루젼 맵을 기반으로 제 1 객체와 다른 객체인 제 2 객체가 해당 오클루젼 영역에 진입하는지 여부를 통해 오클루젼 여부를 판단하게 된다.That is, whether or not occlusion occurs is determined based on whether the first object and the second object, which are objects different from each other, enter the occlusion region based on the generated occlusion map.

예를 들어, 오클루젼 여부의 판단은 상기 수학식 1을 통해 생성된 오클루젼 영역을 개별 센서(예를 들어 라이더 센서)에 의해 생성된 트랙(

Figure pat00005
)의 상태 벡터를 통한 예측된 다음 상태와 비교함으로써 수행될 수 있다. 라이더 센서로부터 생성된 추적 중인 트랙과 트랙의 상태 벡터는 수학식 4와 같이 표현할 수 있다. For example, the determination of occlusion may be made by comparing the occlusion area generated through Equation (1) with the track generated by an individual sensor (e.g., a rider sensor)
Figure pat00005
≪ / RTI > with the next state predicted through the state vector of the state vector < RTI ID = 0.0 > The state vector of the track and track being generated from the rider sensor can be expressed by Equation (4).

[수학식 4]&Quot; (4) "

Figure pat00006
Figure pat00006

라이더 센서에 의해 생성된 트랙의 현재 상태를 기반으로 미래 상태를 예측하는 방식을 통해 오클루젼 영역과의 비교가 이루어질 수 있다. 본 예시에서는 상기 예측을 위해 일정 속도(constant velocity, CV) 모델을 사용하였다.A comparison with the occlusion region can be made through a method of predicting the future state based on the current state of the track generated by the rider sensor. In this example, a constant velocity (CV) model is used for the prediction.

[수학식 5]&Quot; (5) "

Figure pat00007
Figure pat00007

상기 모델에 의해 예측된 라이더 센서의 추적 위치는 오클루젼 맵과의 비교를 위해 수학식 6과 같이 방위각으로 변환될 수 있다.The tracking position of the rider sensor predicted by the model can be converted to an azimuth angle as shown in Equation (6) for comparison with the occlusion map.

[수학식 6]&Quot; (6) "

Figure pat00008
Figure pat00008

그리고 오클루젼 여부의 예측을 위해, 오클루젼 맵과 최종적으로 비교될 트랙의 예측 상태는 다음 수학식 7에 의해 정의될 수 있다.For prediction of occlusion, the predicted state of the track to be finally compared with the occlusion map can be defined by the following equation (7).

[수학식 7]&Quot; (7) "

Figure pat00009
Figure pat00009

도 5는 오클루젼 발생 여부를 판단하는 내용을 설명하기 위한 도면이다.FIG. 5 is a diagram for explaining contents for determining whether occlusion has occurred. FIG.

제 2 객체(B)의 제 1 객체(A)로 인한 오클루젼 여부의 판단은, 제 2 객체(B)의 위치, 속도 및 크기 중 하나 이상의 정보에 기초하여, 현재 시점에서 다음 시점에서의 위치를 예측하여 판단될 수 있다.The determination of occlusion by the first object A of the second object B may be made based on at least one of the position, velocity and size of the second object B, It can be judged by predicting the position.

한편, 오클루젼은 도 5와 같이 제 2 객체(B)의 일부만이 가려진 상태와 전체가 가려진 상태로 구분될 수 있다.On the other hand, the occlusion can be divided into a state in which only a part of the second object B is hidden and a state in which the entire object is hidden as shown in FIG.

도 5에서 초기상태 (a)에서는 제 2 객체(B)가 제 1 객체(A)에 의해 가려지지 않으므로 센서부(110)는 제 2 객체(B)를 측정할 수 있다. 5, the sensor unit 110 can measure the second object B because the second object B is not covered by the first object A in the initial state (a).

다음으로, (b), (c), (d) 상태에서는 제 2 객체(B)의 이동에 따라 오클루젼 영역으로 진입하게 되고, (e) 상태에서는 오클루젼 영역을 벗어나게 된다.Next, in the states (b), (c), and (d), the object enters the occlusion region in accordance with the movement of the second object B, and in the state (e), it is out of the occlusion region.

본 발명의 일 실시예는 이전 절차에서 산출된 오클루젼 영역(맵)과 이동 중인 제 2 객체(B)의 예측된 상태를 기반으로 제 2 객체(B)의 오클루젼 여부를 아래 수학식 8 내지 수학식 11과 같이 감지할 수 있다.An embodiment of the present invention can determine whether or not occlusion of the second object B based on the occlusion area (map) calculated in the previous procedure and the predicted state of the moving second object B by the following equation 8 to Equation (11).

[수학식 8] 내지 [수학식 11]Equations (8) to (11)

Figure pat00010
Figure pat00010

상기 수학식 8 내지 11은 (b) 내지 (d)의 상태를 예측하기 위한 것으로, i는 라이더 센서의 트랙 인덱스를 나타내고, j는 오클루젼 맵의 인덱스를 의미한다. Equations (8) to (11) are for predicting the states of (b) to (d), where i represents the track index of the rider sensor and j represents the index of the occlusion map.

마지막으로 제 2 객체(B)에 대한 오클루젼을 검출하는 수학식은 다음과 같이 정리할 수 있다.Finally, the equation for detecting occlusion for the second object B can be summarized as follows.

[수학식 12]&Quot; (12) "

Figure pat00011
Figure pat00011

한편, 오클루젼 여부에 대한 결정은 제 2 객체의 상대적 위치에 따라 결정되는바, 상기 수학식 8 내지 11과 달리 제 2 객체(B)가 센서부(110)의 왼쪽 또는 중앙에 위치할 경우 위 수학식에서의 부호의 위치 관계는 달라질 수 있다.On the other hand, if the second object B is located on the left or the center of the sensor unit 110, as in the case of Equations (8) to (11), the determination of occlusion is determined according to the relative position of the second object The positional relationship of the sign in the above equation can be changed.

본 발명의 일 실시예는 상술한 과정을 통해 오클루젼을 예측하고 나면, 제 2 객체는 제 1 객체에 의한 오클루젼으로 인하여 센서부(110)로부터 임의의 시간동안 센싱되지 않을 것을 예측할 수 있다. 그리고 이를 고려하여 제 2 객체의 추적 상태를 관리할 수 있다.In one embodiment of the present invention, after the occlusion is predicted through the above process, the second object can be predicted not to be sensed from the sensor unit 110 for a certain time due to occlusion by the first object have. The tracking state of the second object can be managed in consideration of this.

즉, 본 발명의 일 실시예는 오클루젼 영역에 진입하기 전의 제 2 객체의 크기와 이동 정보를 바탕으로, 어느 정도 시간이 경과한 후 다시 측정이 가능하게 될 것임을 판단할 수 있기 때문에, 제 2 객체의 오클루젼 영역으로의 진입 이전 시간을 측정하고, 제 2 객체의 정보에 기초하여 오클루젼 영역의 진출까지의 예측 시간을 산출한 다음, 진입 이전 시간부터 진출까지의 예측 시간 동안 제 2 객체를 추적할 수 있다.That is, since it is possible to determine that measurement can be performed again after a certain period of time has elapsed based on the size and movement information of the second object before entering the occlusion region according to an embodiment of the present invention, 2 object is measured before the entry into the occlusion region, the predicted time until the entry of the occlusion region is calculated based on the information of the second object, 2 You can track objects.

이때, 제 2 객체의 추적 상태는 초기 상태(Empty), 불확실 상태(Initiator-1, Initiator-2), 확신 상태(Comfirmed) 가려진 상태(Obscured) 및 잠재 상태(Potential)를 포함할 수 있다.At this time, the tracking state of the second object may include an initial state (Empty), an uncertain state (Initiator-1, Initiator-2), a state of being Comfirmed (Obscured), and a potential state (Potential).

도 6은 오클루젼을 고려한 제 2 객체의 추적 상태를 설명하기 위한 도면이다.6 is a diagram for explaining the tracking state of the second object in consideration of occlusion.

추적 상태 관리는 객체 추적 과정 중 발생할 수 있는 누락되거나 잘못된 탐지를 처리하기 위한 과정으로서, 센서부(110)에 의해 측정된 객체는 실제 존재하는 것인지 검증되며, 허구의 객체나 잘못된 객체로 판단된 경우 해당 객체는 추적 대상에서 삭제될 수 있다.The tracking state management is a process for processing a missing or erroneous detection that may occur during the object tracking process. It is verified that the object measured by the sensor unit 110 exists, and when it is determined that the object is a fictitious object or an invalid object The object can be deleted from the tracked object.

구체적으로 도 6의 (a)에서 초기 상태는 추적 대상 즉, 트랙이 생성되지 않았거나 삭제된 상태를 의미한다. Specifically, the initial state in FIG. 6A means a track object, that is, a state in which a track is not created or deleted.

이 상태에서 센서부(110)가 객체를 측정하게 되면(Measurement) 트랙은 시작상태 1로 이동되며, 해당 상태에서 관련성이 있는 제 2 객체에 대한 정보를 반복적으로 획득되는 경우 시작상태 2로 이동된다. 이때, 시작상태 2의 경우 아직 제 2 객체가 최종적으로 확인되기 이전인 불확실한 트랙 상태를 의미한다. 그리고 시작상태 2에서 트랙과 관련이 없는 측정 데이터가 획득되는 경우 해당 트랙은 삭제되어 다시 초기 상태로 전환된다.In this state, when the sensor unit 110 measures an object (measurement), the track is moved to the start state 1, and if the information about the second object, which is related in the state, is repeatedly acquired, . In the case of the start state 2, it means an uncertain track state before the second object is finally confirmed. If measurement data irrelevant to the track is obtained in the start state 2, the track is deleted and then switched back to the initial state.

최종적으로 제 2 객체가 확인되는 경우 확신 상태로 전환되며, 확신 상태에서의 트랙을 반복 수행할때마다 Age를 1씩 증가시켜 상태 관리를 하게 된다.When the second object is finally confirmed, the state is switched to the asserted state. The state is managed by incrementing Age by 1 each time the track in the asserted state is repeatedly performed.

반면, 확신 상태에서 제 2 객체가 추적되지 않는 경우 가려진 상태로 전환되게 되며, 가려진 상태에서 오클루젼인 것으로 판단된 경우 오클루젼 상태를 유지할 수 있다.On the other hand, if the second object is not tracked in the asserted state, it is switched to the obstructed state. If it is determined that the second object is occluded in the occluded state, the occlusion state can be maintained.

또한, 가려진 상태에서 오클루젼 상태가 아닌 것으로 판단되면 잠재 상태로 전환되며 Age를 감소시켜 상태 관리를 하게 된다. 또한, 확신 상태에서 제 2 객체에 대한 정보와 관련이 없는 측정 데이터가 획득되는 경우에도 잠재 상태로 전환될 수 있으며, 다시 관련 있는 측정 데이터가 획득되는 경우 확신 상태로 전환될 수도 있다.Also, if it is judged that it is not in the occlusion state in the occluded state, it is converted into the latent state, and the state is managed by decreasing the age. Further, even if measurement data irrelevant to the information on the second object is obtained in the asserted state, the state can be switched to the latent state, and the asserted state can be switched again when related measurement data is acquired.

잠재 상태에서는 현재 Age가 기 설정된 Age 미만인 경우에는 다시 초기 상태로 상태를 전환시키게 된다.In the latent state, if the current Age is less than the predetermined Age, the state is switched back to the initial state.

이와 같이 본 발명의 일 실시예는 도 6의 (b)와 같이 추적 대상임을 확인하는 Gating 과정과 측정 데이터의 관련성을 판단하는 Data Association 과정을 반복하면서 트랙을 생성 및 유지하고, 확인 및 삭제하게 되며, 도 6의 (a)에서 설명한 오클루젼 트랙에 대해서는 가려진 상태를 적용하여 오클루젼 상태에서 트랙 삭제를 방지할 수 있다.As described above, according to an embodiment of the present invention, a track is generated, maintained, checked, and deleted while repeating a data association process for determining the relevance of the measurement data to the gating process, , It is possible to prevent tracks from being deleted in the occlusion state by applying the obscured state to the occlusion track described in Fig. 6 (a).

상술한 설명에서, 단계 S110 내지 S130는 본 발명의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다. 아울러, 기타 생략된 내용이라 하더라도 도 1 내지 도 2에서의 객체 추적 시스템(100)에 관하여 이미 기술된 내용은 도 3 내지 도 6의 객체 추적 방법에도 적용된다.In the above description, steps S110 to S130 may be further divided into additional steps or combined into fewer steps, according to an embodiment of the present invention. Also, some of the steps may be omitted as necessary, and the order between the steps may be changed. In addition, the contents already described with respect to the object tracking system 100 in FIGS. 1 and 2 apply to the object tracking method of FIGS. 3 to 6 even if other contents are omitted.

도 7 내지 도 9는 본 발명의 일 실시예에 따른 테스트 결과를 설명하기 위한 도면이다.7 to 9 are views for explaining test results according to an embodiment of the present invention.

도 7은 라이더 센서의 측정 및 오클루전 예측 결과를 설명하기 위한 도면이다.7 is a diagram for explaining measurement and occlusion prediction results of the rider sensor.

도 7의 (a)는 라이더 센서에서 측정한 보행자의 상대적인 측면 거리를 나타낸 것으로, 보행자(Child)가 성인(Adult)에 의해 가려지는 상황에서 센서는 (b)와 같이 특정 시간(약 13.5 내지 14.3초) 동안 보행자를 측정할 수 없다.Figure 7 (a) shows the relative lateral distance of the pedestrian measured by the rider sensor. In a situation where the pedestrian is covered by an adult, the sensor is operated at a specific time (about 13.5 to 14.3 The pedestrian can not be measured during the second.

본 발명의 테스트에서는 이와 같은 상황에서 오클루젼 맵을 이용하여 해당 시간동안 아동 보행자가 성인 보행자에 의해 가려지는 상황을 예측하였으며, 예측 결과로부터 관리되는 아동 보행자에 대한 트랙 상태는 도 8 및 표 1과 같다.In the test of the present invention, the occlusion map was used to predict the situation in which the pedestrian of the pedestrian was blocked by the pedestrian during the time, and the track status of the pedestrian controlled by the pedestrian is shown in FIG. 8 and Table 1 Respectively.

IndexIndex 00 1One 22 StateState EmptyEmpty Initiator-1Initiator-1 Initiator-2Initiator-2 IndexIndex 44 55 66 StateState PotentialPotential ObscuredObscured ConfurmedConfurmed

오클루젼이 발생하기 이전에, 아동 보행자에 대한 측정이 지속되기 때문에 추적 상태는 확신 상태가 된다. 그리고 확신 상태에서 잠재 상태로 일시적으로 전환되는데, 이는 센서의 측정에 있어 지연이 발생하였기 때문이다.Prior to occlusion, the tracking status is assured because the measurement of the pedestrian is continued. It is then transiently transitioned from a state of assurance to a latent state because of the delay in the measurement of the sensor.

오클루젼 예측 시간인 13.5~14.3초에서 상태는 가려진 상태로 전환되었으며, 아동 보행자는 센싱되지 않았으나 Age는 유지되었음을 확인할 수 있다.At the occlusion prediction time of 13.5 ~ 14.3 seconds, the state was switched to the obscured state, and the pedestrian was not sensed but the Age was maintained.

오클루젼 영역을 통과하게 되면, 상태는 다시 센서의 측정된 값과 다시 연관되게 되므로 가려진 상태에서 확신 상태로 전환된다.When passing through the occlusion region, the state is again associated with the measured value of the sensor, so it switches from the obscured state to the assured state.

그 후 아동 보행자는 센서의 FOV 영역 밖으로 나오기 때문에 측정할 수 없어, 트랙의 Age는 점차 감소되어 삭제된다.The child pedestrian then goes out of the FOV area of the sensor and can not be measured, so the age of the track is gradually reduced and eliminated.

도 9의 (a) 및 (b)는 라이더 센서에 의해 측정된 보행자의 상대 거리와 본 발명에 따른 추적 결과를 도시한 도면이다.9 (a) and 9 (b) are diagrams showing the relative distance of the pedestrian measured by the rider sensor and the tracking result according to the present invention.

이와 같이 본 발명의 일 실시예는 오클루젼 예측 및 오클루젼을 고려한 트랙 관리를 통해 아동 보행자를 탐지할 수 없는 상황에서도 기존 추적 기록을 유지하면서 아동 보행자를 추적할 수 있는 것을 확인할 수 있다.As described above, according to the embodiment of the present invention, it is possible to track the pedestrian of a child while maintaining the existing track record even when the pedestrian can not be detected through track management considering occlusion prediction and occlusion.

본 발명의 일 실시예는 컴퓨터에 의해 실행되는 매체에 저장된 컴퓨터 프로그램 또는 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다. One embodiment of the present invention may also be embodied in the form of a computer program stored on a medium executed by a computer or a recording medium including instructions executable by the computer. Computer readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media. In addition, the computer-readable medium may include both computer storage media and communication media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data. Communication media typically includes any information delivery media, including computer readable instructions, data structures, program modules, or other data in a modulated data signal such as a carrier wave, or other transport mechanism.

본 발명의 방법 및 시스템은 특정 실시예와 관련하여 설명되었지만, 그것들의 구성 요소 또는 동작의 일부 또는 전부는 범용 하드웨어 아키텍쳐를 갖는 컴퓨터 시스템을 사용하여 구현될 수 있다.While the methods and systems of the present invention have been described in connection with specific embodiments, some or all of those elements or operations may be implemented using a computer system having a general purpose hardware architecture.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.It will be understood by those skilled in the art that the foregoing description of the present invention is for illustrative purposes only and that those of ordinary skill in the art can readily understand that various changes and modifications may be made without departing from the spirit or essential characteristics of the present invention. will be. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive. For example, each component described as a single entity may be distributed and implemented, and components described as being distributed may also be implemented in a combined form.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is defined by the appended claims rather than the detailed description and all changes or modifications derived from the meaning and scope of the claims and their equivalents are to be construed as being included within the scope of the present invention do.

100: 객체 추적 시스템
110: 센서부
120: 메모리
130: 프로세서
100: Object Tracking System
110:
120: Memory
130: Processor

Claims (12)

객체 추적 시스템에서의 객체 추적 방법에 있어서,
제 1 객체의 정보에 기초하여 상기 제 1 객체에 의해 가려지는 오클루젼 영역을 추정하는 단계;
상기 오클루젼 영역이 포함된 오클루젼 맵을 생성하는 단계; 및
추적 중인 제 2 객체의 정보 및 상기 오클루젼 맵에 기초하여 상기 제 2 객체의 상기 제 1 객체로 인한 오클루젼 여부를 판단하는 단계를 포함하는 객체 추척 방법.
An object tracking method in an object tracking system,
Estimating an occlusion area covered by the first object based on information of the first object;
Generating an occlusion map including the occlusion region; And
Determining whether or not occlusion due to the first object of the second object based on the information of the second object being tracked and the occlusion map.
제 1 항에 있어서,
제 1 객체의 정보에 기초하여 상기 제 1 객체에 의해 가려지는 오클루젼 영역을 추정하는 단계는,
상기 제 1 객체와 센서와의 상대 위치 및 방위각과, 상기 제 1 객체의 크기 및 위치에 기초하여 상기 오클루젼 영역을 추정하는 것인 객체 추척 방법.
The method according to claim 1,
Estimating an occlusion area covered by the first object based on information of the first object,
Estimating the occlusion area based on a relative position and an azimuth of the first object and a sensor, and a size and a position of the first object.
제 1 항에 있어서,
상기 오클루젼 영역이 포함된 오클루젼 맵을 생성하는 단계는,
상기 제 1 객체 또는 상기 제 2 객체가 이동 중인 경우 상기 오클루젼 맵은 복수 개의 오클루젼 영역을 포함하는 것인 객체 추적 방법.
The method according to claim 1,
Wherein generating an occlusion map including the occlusion region comprises:
Wherein the occlusion map includes a plurality of occlusion regions when the first object or the second object is in motion.
제 1 항에 있어서,
상기 제 2 객체의 상기 제 1 객체로 인한 오클루젼 여부를 판단하는 단계는,
상기 제 2 객체의 위치, 속도 및 크기 중 하나 이상의 정보에 기초하여, 현재 시점에서 다음 시점에서의 위치를 예측하여 상기 제 2 객체의 오클루젼 여부를 판단하는 것인 객체 추적 방법.
The method according to claim 1,
Wherein the step of determining whether or not occlusion due to the first object of the second object comprises:
And determining whether or not the second object is occlusion by predicting a position at the next point in time based on at least one of the position, velocity, and size of the second object.
제 4 항에 있어서,
상기 제 2 객체의 상기 제 1 객체로 인한 오클루젼 여부를 판단하는 단계는,
상기 제 2 객체의 상기 오클루젼 영역으로의 진입 이전 시간을 측정하는 단계;
상기 제 2 객체의 정보에 기초하여 상기 오클루젼 영역의 진출까지의 예측 시간을 산출하는 단계; 및
상기 진입 이전 시간부터 상기 진출까지의 예측 시간 동안 상기 제 2 객체를 트래킹하는 단계를 포함하는 것인 객체 추적 방법.
5. The method of claim 4,
Wherein the step of determining whether or not occlusion due to the first object of the second object comprises:
Measuring a time before entry of the second object into the occlusion region;
Calculating a predicted time until the occlusion area advances based on the information of the second object; And
And tracking the second object for a predicted time from the pre-entry time to the advance.
제 1 항에 있어서,
상기 제 2 객체를 추적하는 단계를 더 포함하되,
상기 제 2 객체의 추적 상태는 초기 상태, 불확실 상태, 확신 상태, 가려진 상태 및 잠재 상태를 포함하는 것인 객체 추적 방법.
The method according to claim 1,
Further comprising tracking the second object,
Wherein the tracking state of the second object includes an initial state, an uncertain state, a confident state, an obscured state, and a latent state.
제 6 항에 있어서,
상기 제 2 객체를 추적하는 단계는,
상기 초기 상태에서 상기 제 2 객체의 정보를 획득하는 경우 상기 불확실 상태로 전환하는 단계;
상기 불확실 상태에서 상기 제 2 객체의 정보를 획득하여 상기 제 2 객체가 확인되는 경우 상기 확신 상태로 전환하는 단계; 및
상기 확신 상태에서 상기 제 2 객체가 추적되지 않는 경우 상기 가려진 상태로 전환하는 단계를 포함하는 객체 추적 방법.
The method according to claim 6,
Wherein tracking the second object comprises:
Switching to the uncertain state when acquiring information of the second object in the initial state;
Acquiring information of the second object in the uncertainty state and switching to the confident state when the second object is confirmed; And
And switching to the obscured state if the second object is not tracked in the confident state.
제 7 항에 있어서,
상기 제 2 객체를 추적하는 단계는,
상기 가려진 상태에서 상기 오클루젼인 것으로 판단된 경우 상기 가려진 상태를 유지하는 단계를 더 포함하는 객체 추적 방법.
8. The method of claim 7,
Wherein tracking the second object comprises:
And maintaining the obscured state when it is determined that the observer is occlusion in the obscured state.
제 7 항에 있어서,
상기 제 2 객체를 추적하는 단계는,
상기 가려진 상태에서 상기 오클루젼 상태가 아닌 것으로 판단된 경우 상기 가려진 상태에서 상기 잠재 상태로 전환하는 단계를 더 포함하는 객체 추적 방법.
8. The method of claim 7,
Wherein tracking the second object comprises:
And switching from the obscured state to the latent state when it is determined that the observer is not in the occlusion state in the obscured state.
객체 추적 시스템에 있어서,
객체의 정보를 센싱하기 위한 센서부,
상기 센싱된 정보에 기초하여 객체를 추적하기 위한 프로그램이 저장된 메모리 및
상기 메모리에 저장된 프로그램을 실행시키는 프로세서를 포함하되,
상기 프로세서는 상기 프로그램을 실행시킴에 따라, 상기 센서부에 의해 센싱된 제 1 객체의 정보에 기초하여 제 1 객체에 의해 가려지는 오클루젼 영역을 추정하여 오클루젼 맵을 생성하고, 상기 센서부에 의해 센싱된 제 2 객체의 정보 및 상기 오클루젼 맵에 기초하여 상기 제 2 객체의 상기 제 1 객체로 인한 오클루젼 여부를 판단하는 것인 객체 추적 시스템.
An object tracking system comprising:
A sensor unit for sensing information of the object,
A memory for storing a program for tracking an object based on the sensed information,
And a processor for executing a program stored in the memory,
The processor generates an occlusion map by estimating an occlusion area covered by the first object based on the information of the first object sensed by the sensor unit as the program is executed, And determines whether or not occlusion due to the first object of the second object based on the information of the second object sensed by the second sensor and the occlusion map.
제 10 항에 있어서,
상기 센서부는 상기 제 1 객체와의 상대 위치 및 방위각과, 상기 제 1 객체의 크기 및 위치를 센싱하고, 상기 프로세서는 이에 기초하여 상기 오클루젼 영역을 추정하는 것인 객체 추적 시스템.
11. The method of claim 10,
Wherein the sensor unit senses a relative position and an azimuth with respect to the first object, a size and a position of the first object, and the processor estimates the occlusion area based thereon.
제 10 항에 있어서,
상기 센서부는 상기 제 2 객체의 위치, 속도 및 크기 중 하나 이상의 정보를 센싱하고, 상기 프로세서는 상기 센싱된 정보 및 현재 시점에서 다음 시점에서의 위치를 예측하여 상기 제 2 객체의 오클루젼 여부를 판단하는 것인 객체 추적 시스템.
11. The method of claim 10,
Wherein the sensor unit senses at least one of the position, velocity, and magnitude of the second object, and the processor estimates the sensed information and the position at the next time point at the current time point to determine whether or not the second object is occluded Object tracking system.
KR1020170180103A 2017-12-26 2017-12-26 System and method for tracking object KR102198809B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170180103A KR102198809B1 (en) 2017-12-26 2017-12-26 System and method for tracking object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170180103A KR102198809B1 (en) 2017-12-26 2017-12-26 System and method for tracking object

Publications (2)

Publication Number Publication Date
KR20190078270A true KR20190078270A (en) 2019-07-04
KR102198809B1 KR102198809B1 (en) 2021-01-05

Family

ID=67259061

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170180103A KR102198809B1 (en) 2017-12-26 2017-12-26 System and method for tracking object

Country Status (1)

Country Link
KR (1) KR102198809B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210114309A (en) 2020-03-10 2021-09-23 연세대학교 산학협력단 Apparatus and method for tracking pedestrians in multiple cctv environment
KR20220104426A (en) 2021-01-18 2022-07-26 연세대학교 산학협력단 Apparatus and Method for Person Re-Identification based on Heterogeneous Sensor Camera
KR20230035020A (en) * 2020-12-11 2023-03-10 모셔널 에이디 엘엘씨 Systems and methods for implementing occlusion representations over road features

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010072836A (en) * 2008-09-17 2010-04-02 Toyota Motor Corp Peripheral monitoring device
JP4720386B2 (en) * 2005-09-07 2011-07-13 株式会社日立製作所 Driving assistance device
KR20170129251A (en) * 2015-04-23 2017-11-24 닛산 지도우샤 가부시키가이샤 Occlusion control device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4720386B2 (en) * 2005-09-07 2011-07-13 株式会社日立製作所 Driving assistance device
JP2010072836A (en) * 2008-09-17 2010-04-02 Toyota Motor Corp Peripheral monitoring device
KR20170129251A (en) * 2015-04-23 2017-11-24 닛산 지도우샤 가부시키가이샤 Occlusion control device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210114309A (en) 2020-03-10 2021-09-23 연세대학교 산학협력단 Apparatus and method for tracking pedestrians in multiple cctv environment
KR20230035020A (en) * 2020-12-11 2023-03-10 모셔널 에이디 엘엘씨 Systems and methods for implementing occlusion representations over road features
KR20220104426A (en) 2021-01-18 2022-07-26 연세대학교 산학협력단 Apparatus and Method for Person Re-Identification based on Heterogeneous Sensor Camera

Also Published As

Publication number Publication date
KR102198809B1 (en) 2021-01-05

Similar Documents

Publication Publication Date Title
US9058521B2 (en) Mobile robot and simultaneous localization and map building method thereof
US11620837B2 (en) Systems and methods for augmenting upright object detection
US11615629B2 (en) Estimation of time to collision in a computer vision system
US7042344B2 (en) Alarming system for vehicle and alarm generating method for vehicle
US20160209217A1 (en) Gyroscope assisted scalable visual simultaneous localization and mapping
KR102126670B1 (en) Apparatus and method for tracking objects with optimizing region of interest
JP6520740B2 (en) Object detection method, object detection device, and program
US20190362163A1 (en) Method for validation of obstacle candidate
CN110608746B (en) Method and device for determining the position of a motor vehicle
KR20190078270A (en) System and method for tracking object
KR102082254B1 (en) a vehicle recognizing system
KR20140074343A (en) Method for determining position data of a vehicle
US20190362512A1 (en) Method and Apparatus for Estimating a Range of a Moving Object
US10796167B2 (en) Periphery recognition device
KR20200067506A (en) Apparatus and method for performing omnidirectional sensor-fusion and vehicle including the same
Lim et al. Event-driven track management method for robust multi-vehicle tracking
KR20100066952A (en) Apparatus for tracking obstacle using stereo vision and method thereof
JP2021043146A (en) Obstacle detection system and obstacle detection method
US20200202541A1 (en) Detection of visual tracker divergence
Schütz et al. Multiple extended objects tracking with object-local occupancy grid maps
KR20230018656A (en) SLAM system and method with fusion of vision and lidar for indoor environment
US20130142388A1 (en) Arrival time estimation device, arrival time estimation method, arrival time estimation program, and information providing apparatus
CN109188419B (en) Method and device for detecting speed of obstacle, computer equipment and storage medium
US10783350B2 (en) Method and device for controlling a driver assistance system by using a stereo camera system including a first and a second camera
US11580663B2 (en) Camera height calculation method and image processing apparatus

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant