KR20180041525A - Object tracking system in a vehicle and method thereof - Google Patents

Object tracking system in a vehicle and method thereof Download PDF

Info

Publication number
KR20180041525A
KR20180041525A KR1020160133803A KR20160133803A KR20180041525A KR 20180041525 A KR20180041525 A KR 20180041525A KR 1020160133803 A KR1020160133803 A KR 1020160133803A KR 20160133803 A KR20160133803 A KR 20160133803A KR 20180041525 A KR20180041525 A KR 20180041525A
Authority
KR
South Korea
Prior art keywords
tracking
vehicle
sensed
image
kalman filter
Prior art date
Application number
KR1020160133803A
Other languages
Korean (ko)
Inventor
Kumar Singh Jitesh
Naidu Hitesh
Kallakuri Sankalp
Original Assignee
주식회사 만도
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 만도 filed Critical 주식회사 만도
Priority to KR1020160133803A priority Critical patent/KR20180041525A/en
Publication of KR20180041525A publication Critical patent/KR20180041525A/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • B60R21/0134Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to imminent contact with an obstacle, e.g. using radar systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0043Signal treatments, identification of variables or parameters, parameter estimation or state estimation
    • B60W2050/0052Filtering, filters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0043Signal treatments, identification of variables or parameters, parameter estimation or state estimation
    • B60W2050/0057Frequency analysis, spectral techniques or transforms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • B60W2420/52
    • B60W2550/10
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03HIMPEDANCE NETWORKS, e.g. RESONANT CIRCUITS; RESONATORS
    • H03H17/00Networks using digital techniques
    • H03H17/02Frequency selective networks
    • H03H17/0202Two or more dimensional filters; Filters for complex signals
    • H03H2017/0205Kalman filters

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

According to the present invention, disclosed are an object tracking control method for a vehicle and an object tracking system for a vehicle. According to the embodiment of the present invention, disclosed are a pedestrian sensing system and a control method for the same. According to the embodiment of the present invention, the pedestrian sensing method for a vehicle includes: a step of photographing an outside image of a vehicle; a step of detecting an object included in the photographed image; a step of detecting the object by transmitting and receiving a radar signal to and from the front of the vehicle; a step of firstly tracking the object based on three-dimensional information on the object detected based on the radar signal; and a step of secondly tracking the object based on two-dimensional information on the object detected in the photographed image. According to the embodiments of the present invention, the object tracking control method for a vehicle and the object tracking system for a vehicle can continuously track an object even in case detecting the object is failed, by using both a radar sensor and a camera sensor.

Description

차량의 물체 트래킹 시스템 및 그 제어 방법{OBJECT TRACKING SYSTEM IN A VEHICLE AND METHOD THEREOF}BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an object tracking system for a vehicle,

본 발명은 차량에 설치된 적어도 하나 이상의 센서를 기초로 차량 전방의 물체를 인식하고, 인식한 물체를 트래킹(Tracking)하는 시스템 및 그 제어 방법에 관한 것이다. BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a system for recognizing an object ahead of a vehicle based on at least one sensor installed in a vehicle and tracking the recognized object and a control method thereof.

오늘날 운전자가 외부 상황을 감지하지 못하는 경우를 대비하여 차량 전방에 설치된 카메라가 촬영한 영상으로부터 보행자를 인식하여 차량의 전방에 보행자가 위치함을 운전자에게 알려주는 시스템이 개발되고 있다. A system has been developed to notify the driver that a pedestrian is located in front of the vehicle by recognizing the pedestrian from the image photographed by the camera installed in the front of the vehicle in case the driver can not detect the external situation.

예를 들어, 야간에는 운전 시야가 급격히 감소하기 때문에 운전자가 보행자를 보지 못하는 경우가 발생할 수 있다. 이러한 경우를 방지하기 위하여 근적외선 카메라나 원적외선 카메라와 같은 센서를 이용하여 운전자가 시야를 확보할 수 있도록 하거나 야간 보행자 인식을 통해 사전 경고하는 시스템에 관한 연구의 진행이 계속되고 있다.For example, in the nighttime, the driver's view may suddenly decrease so that the driver may not see the pedestrian. In order to prevent such a case, researches on a system that enables a driver to secure a view by using a sensor such as a near infrared ray camera or a far-infrared ray camera, or a warning system by recognizing a pedestrian at night,

또한, 보행자 보호와 관련하여, 차량에 탑재된 카메라를 이용하여 보행자를 사전에 인식하고, 운전자에게 경보를 해주거나 차량을 제어하여 제동하는 구성을 통해 보행자 사고를 미연에 방지하기 위한 시스템이 개발되고 있다.In addition, with respect to the pedestrian protection, a system has been developed to prevent a pedestrian accident in advance by recognizing a pedestrian using a camera mounted on the vehicle, and giving an alarm to the driver or controlling the vehicle to brak have.

뿐만 아니라, 차량 전방에 설치된 레이더를 이용하여 차량 전방의 물체를 감지하여 차량의 전방에 보행자가 위치함을 운전자에게 알려주는 시스템 또한 개발되고 있다.In addition, a system for detecting an object in front of the vehicle using a radar installed in front of the vehicle and notifying the driver that a pedestrian is located in front of the vehicle is being developed.

다만, 차량 전방에 설치된 레이더의 경우 3차원 좌표계(X,Y,Z)를 이용하여 물체를 감지함과 달리, 카메라를 통하여 획득한 영상을 통하여는 2차원 정보를 획득하는 바, 레이더 센서 및 카메라 센서의 융합을 통하여 보행자를 포함하는 물체의 위치 및 이동을 통한 트래킹의 정확성을 향상시키기 위한 기술 개발이 계속되고 있다.However, in the case of a radar installed in front of a vehicle, two-dimensional information is obtained through an image obtained through a camera, unlike a case where an object is detected using a three-dimensional coordinate system (X, Y, Z) Techniques for improving the accuracy of tracking through position and movement of an object including a pedestrian through fusion of sensors are continuing.

이에 본 발명의 실시예들은 레이더 센서 및 카메라 센서 모두를 사용하여 물체 감지에 실패하였을 경우에도 물체를 지속적으로 트래킹(Tracking)하고자 한다.Therefore, embodiments of the present invention use both the radar sensor and the camera sensor to continuously track the object even when the object detection fails.

본 발명의 일 측면에 따르면, 차량의 외부 영상을 촬영하는 단계;와 상기 촬영된 영상에 포함된 물체를 감지(Detection)하는 단계;와 상기 차량의 전방에 레이더 신호를 송수신하여 물체를 감지하는 단계;와 상기 레이더 신호를 기초로 감지된 물체의 3차원 정보를 기초로 상기 물체를 제 1 트래킹하는 단계; 및 상기 촬영된 영상 내 감지된 물체의 2차원 정보를 기초로 상기 물체를 제 2트래킹(Tracking)을 수행하는 단계; 를 포함하는 차량의 물체 트래킹 제어 방법이 제공될 수 있다.According to an aspect of the present invention, there is provided a method of detecting an object, comprising: capturing an external image of a vehicle; detecting an object included in the captured image; sensing an object by transmitting and receiving a radar signal in front of the vehicle; First tracking the object based on three-dimensional information of the object sensed based on the radar signal; And performing second tracking on the object based on the two-dimensional information of the sensed object in the photographed image; A method of controlling an object tracking of a vehicle can be provided.

또한, 상기 레이더 신호를 기초로 감지된 물체의 3차원 정보를 기초로 상기 물체를 제 1트래킹하는 단계;는 상기 감지된 물체와 상기 차량 사이의 거리 및 레이더 센서의 해상도에 대한 노이즈 모델을 포함한 칼만 필터(Kalman-Filter)를 적용하여 트래킹할 수 있다.The first tracking of the object based on the three-dimensional information of the object sensed based on the radar signal may include a step of detecting a distance between the sensed object and the vehicle and a Kalman It can be tracked by applying a filter (Kalman-Filter).

또한, 상기 촬영된 영상 내 감지된 물체의 2차원 정보를 기초로 상기 물체를 제 2트래킹(Tracking)을 수행하는 단계;는 상기 감지된 물체를 CSK(Circulant Tracking by detection with Kernels)기법을 기초로 트래킹하는 단계; 및 상기 감지된 물체의 위치 및 상기 차량의 속도에 대한 노이즈 모델을 포함한 칼만 필터(Kalman-Filter)를 적용하여 트래킹하는 단계;를 포함할 수 있다.A second step of performing tracking of the object based on the two-dimensional information of the sensed object in the photographed image may include: detecting the sensed object based on a CSK (Circulant Tracking by Detection with Kernels) technique; Tracking; And tracking and applying a Kalman filter including a noise model for the position of the sensed object and the speed of the vehicle.

또한, 제 1 트래킹 정보 및 제2 트래킹 정보는 상호 교환할 수 있다.Further, the first tracking information and the second tracking information can be exchanged.

본 발명의 다른 일 측면에 따르면, 차량의 외부 영상을 촬영하여, 영상에 포함된 물체를 감지하는 영상 촬영부;와 상기 차량의 전방에 레이더 신호를 송수신하여 물체를 감지하는 레이더 센서부;와 상기 레이더 신호를 기초로 감지된 물체의 3차원 정보를 기초로 상기 물체를 제 1 트래킹하고, 상기 촬영된 영상 내 감지된 물체의 2차원 정보를 기초로 상기 물체를 제 2 트래킹하는 제어부;를 포함하는 차량의 물체 트래킹 시스템이 제공될 수 있다.According to another aspect of the present invention, there is provided a vehicular navigation system comprising: an image capturing unit capturing an external image of a vehicle and sensing an object included in the image; a radar sensor unit transmitting and receiving a radar signal in front of the vehicle to detect an object; And a control unit for first tracking the object on the basis of the three-dimensional information of the object sensed based on the radar signal and secondly tracking the object based on the two-dimensional information of the sensed object in the sensed image An object tracking system of the vehicle can be provided.

또한, 상기 영상에 포함된 물체를 바운딩 박스(Bounding Box)로 표시하여 운전자에게 보여주는 표시부;를 더 포함할 수 있다.The display unit may further include a display unit for displaying an object included in the image in a bounding box and displaying the object to a driver.

또한, 상기 제어부는 상기 감지된 물체의 3차원 정보를 기초로 상기 차량 사이의 거리 및 레이더 센서의 해상도에 대한 노이즈 모델을 포함한 칼만 필터(Kalman-Filter)를 적용하여 트래킹하는 제 1 칼만필터 변환부;와 상기 감지된 물체의 2차원 정보를 기초로 CSK(Circulant Tracking by detection with Kernels)기법으로 트래킹하는 트래킹부; 및 상기 감지된 물체의 2차원 위치 및 상기 차량의 속도에 대한 노이즈 모델을 포함한 칼만 필터(Kalman-Filter)를 적용하여 트래킹하는 제 2 칼만필터 변환부;를 더 포함할 수 있다.The controller may further include a first Kalman filter converting unit for applying and tracking a Kalman filter including a noise model for the distance between the vehicle and the resolution of the radar sensor based on the three- And a tracking unit tracking the object based on the two-dimensional information of the sensed object by a CSK (Circulant Tracking by Detection with Kernels) technique. And a second Kalman filter converting unit for applying and tracking a Kalman filter including a noise model for the two-dimensional position of the sensed object and the speed of the vehicle.

또한, 상기 제 1 칼만 필터 변환부의 제 1 트래킹 정보와 상기 제 2 칼만 필터 변환부의 제 2 트래킹 정보는 상호 교환될 수 있다.The first tracking information of the first Kalman filter conversion unit and the second tracking information of the second Kalman filter conversion unit may be interchanged.

이에 본 발명의 실시예들은 레이더 센서 및 카메라 센서 모두를 사용하여 물체 감지에 실패하였을 경우에도 물체를 지속적으로 트래킹(Tracking)할 수 있다.Therefore, the embodiments of the present invention can continuously track the object even when the object detection fails using both the radar sensor and the camera sensor.

도 1은 본 발명의 일 실시예에 따른 물체 트래킹 시스템의 구성 블록도이다.
도 2는 본 발명의 일 실시예에 따른 물체 트래킹 시스템을 장착한 차량의 외관 사시도이다.
도 3은 본 발명의 일 실시예에 따른 물체 트래킹 시스템의 제어 방법을 설명하기 위하여 도시된 차량의 인식된 보행를 나타낸 개략도이다.
도 4는 본 발명의 일 실시예에 따른 물체 트래킹 시스템의 동작을 설명하는 구성 블록도이다.
도 5는 본 발명의 일 실시예에 따른 트래킹 방법을 설명하기 위한 좌표계를 도시한 개략도이다.
도 6은 본 발명의 일 실시예에 따른 물체 트래킹 방법을 나타낸 순서도이다.
도 7은 본 발명의 다른 실시예에 따른 물체 트래킹 방법을 나타낸 순서도이다.
1 is a block diagram of an object tracking system according to an embodiment of the present invention.
2 is an external perspective view of a vehicle equipped with an object tracking system according to an embodiment of the present invention.
3 is a schematic diagram illustrating the recognized walk of a vehicle shown to illustrate a method of controlling an object tracking system in accordance with an embodiment of the present invention.
4 is a block diagram illustrating the operation of an object tracking system according to an embodiment of the present invention.
5 is a schematic diagram showing a coordinate system for explaining a tracking method according to an embodiment of the present invention.
6 is a flowchart illustrating an object tracking method according to an embodiment of the present invention.
7 is a flowchart illustrating an object tracking method according to another embodiment of the present invention.

이하에서는 본 발명의 실시 예를 첨부 도면을 참조하여 상세히 설명한다. 이하의 실시 예는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 본 발명의 사상을 충분히 전달하기 위해 제시하는 것이다. 본 발명은 여기서 제시한 실시 예만으로 한정되지 않고 다른 형태로 구체화될 수도 있다. 도면은 본 발명을 명확히 하기 위해 설명과 관계 없는 부분의 도시를 생략하고, 이해를 돕기 위해 구성요소의 크기를 다소 과장하여 표현할 수 있다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. The following embodiments are provided to fully convey the spirit of the present invention to a person having ordinary skill in the art to which the present invention belongs. The present invention is not limited to the embodiments shown herein but may be embodied in other forms. For the sake of clarity, the drawings are not drawn to scale, and the size of the elements may be slightly exaggerated to facilitate understanding.

도 1은 본 발명에 따른 물체의 트래킹 시스템(1)의 구성 블록도이고, 도 2는 본 발명의 일 실시예에 따른 물체 트래킹 시스템(1)을 장착한 차량(2)의 외관 사시도이고, 도 3은 본 발명의 일 실시예에 따른 물체 트래킹 시스템의 제어 방법을 설명하기 위하여 도시된 차량의 인식된 보행를 나타낸 개략도이다.Fig. 1 is a block diagram showing the configuration of an object tracking system 1 according to the present invention, Fig. 2 is an external perspective view of a vehicle 2 equipped with an object tracking system 1 according to an embodiment of the present invention, 3 is a schematic diagram illustrating the recognized walk of the vehicle shown to illustrate a method of controlling an object tracking system in accordance with an embodiment of the present invention.

도 1을 참조하면, 물체의 트래킹 시스템(1)은 레이더 센서부(10), 영상 촬영부(20), 제어부(30) 표시부(40)를 포함한다.Referring to FIG. 1, an object tracking system 1 includes a radar sensor unit 10, an image capturing unit 20, and a control unit 30 display unit 40.

레이더 센서부(10)는 레이더 모듈(11)을 포함하는 것으로, 도 2에 도시된 바와 같이, 레이더 모듈(11)은 차량 전방의 차량 또는 보행자를 포함하는 하나 이상의 물체를 감지하기 위하여 차량(2) 전방 후드(hood)의 아래쪽에 위치할 수 있다.The radar sensor unit 10 includes a radar module 11 and the radar module 11 detects a vehicle or a pedestrian in the vehicle 2 ) May be located below the front hood (hood).

이러한 레이더 모듈(11)은 차량(2)의 전방에 존재하는 차량 또는 보행자를 감지하는 것으로, 레이더 센서(미도시)를 포함한다. 이 때, 레이더 센서는 77GHZ 레이더가 통상적으로 사용될 수 있으며, 레이더를 송신하고, 그 수신되는 시간을 측정하여 전방에 감지한 차량 또는 보행자와 같은 하나 이상의 물체와의 거리를 산출할 있다.The radar module 11 detects a vehicle or a pedestrian present in front of the vehicle 2 and includes a radar sensor (not shown). At this time, a 77 GHz radar is typically used for the radar sensor, and the radar is transmitted, and the received time is measured to calculate the distance to one or more objects such as a vehicle or pedestrian sensed ahead.

특히, 레이더 센서(미도시)를 포함하는 레이더 모듈(11)은 감지한 전방의 물체에 대하여 3차원 위치 정보를 포함하는 것으로, 구체적으로, 차량(2)의 진행 방향을 Y축이라고 할 때, Y축과 각각의 수평축을 X축 및 Z축으로 하여 물체의 위치 정보를 획득할 수 있다.Particularly, the radar module 11 including the radar sensor (not shown) includes three-dimensional position information about the detected front object. Specifically, when the traveling direction of the vehicle 2 is the Y-axis, The position information of the object can be obtained with the Y axis and each horizontal axis as the X axis and the Z axis.

예를 들어, 도 3에 도시된 바와 같이, 차량(2)의 진행 방향을 Y축이라 할 때, 레이더 센서를 통하여 인식한 보행자의 위치 정보에 대하여 X, Y, Z 좌표를 산출할 수 있다.For example, as shown in FIG. 3, when the traveling direction of the vehicle 2 is the Y-axis, the X, Y, and Z coordinates can be calculated with respect to the positional information of the pedestrian recognized through the radar sensor.

따라서, 레이더 센서를 통하여 획득한 물체의 좌표를 포함하는 위치 정보는 제어부(30)에 전송될 수 있다.Accordingly, the position information including the coordinates of the object acquired through the radar sensor can be transmitted to the control unit 30. [

다음으로, 영상 촬영부(20)는 차량(2) 전방의 영상을 획득한다. 구체적으로, 영상 촬영부(20)는 카메라 모듈(21)을 포함하는 것으로, 도 2에 도시된 바와 같이, 카메라 센서(21)는 차량의 프런트 윈도(17) 뒤에 위치한 백미러(22) 하단 또는 상단에 설치되어 전방의 영상을 촬영할 수 있다.Next, the image capturing section 20 acquires an image in front of the vehicle 2. [ 2, the camera sensor 21 is mounted on the lower or upper side of the rearview mirror 22 located behind the front window 17 of the vehicle, So that a forward image can be captured.

이러한, 카메라 모듈(21)은 카메라 센서(미도시)를 포함하는데, 대개 1채널 이상의 카메라를 사용하는데 보통 그 이미지 센서로 CMOS를 사용한다. CMOS 이미지 센서는 노출된 이미지를 전기적인 형태로 바꾸어 전송하는 반도체 소자이다. 다만, 이에 한정되는 것은 아니고, CCD(Change Coupled Device)이미지 센서(미도시)로 구현될 수도 있다.The camera module 21 includes a camera sensor (not shown), and usually uses a camera having one or more channels, and usually uses CMOS as the image sensor. A CMOS image sensor is a semiconductor device that converts exposed images into electrical form and transmits them. However, the present invention is not limited to this, and may be realized by a CCD (Change Coupled Device) image sensor (not shown).

이때, 카메라 모듈(21)는 카메라 센서로 획득한 영상에서 물체를 감지(Detection)을 할 수 있다. 구체적으로, 카메라 센서(미도시)로부터 촬영된 물체의 움직임을 검출하고, 물체의 영역을 추출하며, 복수의 물체를 구분할 수 있다. 이 때 해당되는 물체란 영상 처리의 인식 대상이 되는 것으로, 예를 들어, 풍경, 전경, 특정 사물, 보행자 등의 물체가 될 수 있으며, 인식 대상이 되는 물체에는 그 제한이 없다.At this time, the camera module 21 can detect an object from the image acquired by the camera sensor. Specifically, it is possible to detect the movement of an object photographed from a camera sensor (not shown), to extract an object region, and to distinguish a plurality of objects. At this time, the corresponding object is an object to be recognized of the image processing. For example, it may be an object such as a landscape, a foreground, a specific object, a pedestrian, and the like.

먼저, 획득한 이미지에서 물체의 윤곽을 이웃한 RGB값의 편차를 이용하여 추출하며, 이전 영상과 비교하여 윤곽의 변화를 분석하여 물체의 움직임을 판별할 수 있다. First, the outline of the object is extracted from the acquired image using the deviation of neighboring RGB values, and the motion of the object can be determined by analyzing the change of the outline in comparison with the previous image.

또한, 검지한 영역구간을 설정구간들의 집합으로 하여 물체의 움직임이 발생한 영역을 구할 수 있다.In addition, an area where motion of an object occurs can be obtained by using the detected area period as a set of setting intervals.

또한, 하나의 영상에서 두 개 이상의 물체가 합쳐지거나 나눠질 수 있어, 정확한 물체의 영역을 구분하기 위하여 객체추적을 통한 물체의 추정 위치와 크기를 산출하여 해당 물체의 위치와 영역을 추출할 수도 있다. In addition, two or more objects may be merged or divided in one image. In order to distinguish an area of an accurate object, an estimated position and size of the object through object tracking may be calculated to extract the position and area of the object .

이 때, 카메라 모듈(21)은 획득한 영상 정보를 포함하여 추출한 물체의 정보를 일정 시간 간격으로 제어부(20)로 송신한다.At this time, the camera module 21 transmits information of the extracted object including the acquired image information to the control unit 20 at predetermined time intervals.

따라서, 카메라 모듈(21)은 영상에서 촬영된 물체의 움직임의 검출, 물체의 영역, 복수의 물체 겹친 정보를 제어부(20)로 전송하는데, 이러한 물체는 획득한 영상의 2차원 정보를 기초로 위치 정보가 산출될 수 있다.Therefore, the camera module 21 transmits the detection of the motion of the object photographed in the image, the region of the object, and the plurality of object overlapping information to the control unit 20, Information can be calculated.

예를 들어, 도 3에 도시된 바와 같이, 카메라 모듈(21)을 통하여 획득한 영상에 포함된 보행자는 도시된 바와 같이 2차원의 U,V축 좌표 정보로 획득될 수 있다.For example, as shown in FIG. 3, a pedestrian included in the image acquired through the camera module 21 can be obtained as two-dimensional U, V-axis coordinate information, as shown in FIG.

다음으로, 본 발명에 따른 물체의 트래킹 시스템(1)의 제어부(30)는 물체의 트래킹 시스템(1)을 총괄 제어한다.Next, the control unit 30 of the tracking system 1 of the object according to the present invention controls the overall tracking system 1 of the object.

구체적으로, 제어부(30)는 물체의 트래킹 시스템(1)에 포함된 각종 구성 장치와 제어부(20) 사이에서의 데이터 출입을 매개하며, 레이더 센서부(10) 또는 영상 촬영부(20)를 통하여 감지한 물체의 좌표 정보를 기초로 트레킹을 수행하는 메인 프로세서(Main Processor)(31)와 메인 프로세서, 프로그램 및 데이터를 기억하는 메모리(32)를 포함할 수 있다.Specifically, the control unit 30 mediates data input / output between the various constituent devices included in the object tracking system 1 and the control unit 20, and transmits the data through the radar sensor unit 10 or the image pickup unit 20 A main processor 31 for performing trekking based on coordinate information of the sensed object, and a memory 32 for storing a main processor, a program, and data.

특히, 도 4는 본 발명의 일 실시예에 따른 물체 트래킹 시스템의 동작을 설명하는 구성 블록도이다.In particular, FIG. 4 is a block diagram illustrating the operation of the object tracking system according to an embodiment of the present invention.

이와 같은 제어부(30)는 도 4에 도시된 바와 같이, 감지한 물체의 트래킹(Tracking)을 단계적으로 수행하는 본 발명은 소프트웨어적으로 제 1 칼만필터 변환부(33), 트래킹부(34), 및 제 2 칼만필터 변환부(35)를 포함한다. 이러한, 제 1 칼만필터 변환부(33), 트래킹부(34), 및 제 2 칼만필터 변환부(35)는 물체의 감지(Detection) 이후 단계로 진행된다.As shown in FIG. 4, the controller 30 performs tracking of the sensed object in stages. The controller 30 includes a first Kalman filter converting unit 33, a tracking unit 34, And a second Kalman filter conversion unit 35. [ The first Kalman filter conversion unit 33, the tracking unit 34, and the second Kalman filter conversion unit 35 proceed to the step after the detection of the object.

먼저, 제 1 칼만 필터 변환부(33)는 단순 칼만 필터(Simple Kalman-Filter)를 사용하여 물체의 트래킹을 진행한다.First, the first Kalman filter converting unit 33 proceeds to track an object using a simple Kalman filter.

구체적으로, 하기 설명하는 [식 1] 내지 [식 4]를 통하여 제 1 칼만 필터 변환부(33)는 물체의 3차원 좌표를 이용한 트래킹을 수행할 수 있다.Specifically, the first Kalman filter conversion unit 33 can perform tracking using the three-dimensional coordinates of the object through the following [Expression 1] to [Expression 4].

[식 1][Equation 1]

Figure pat00001
Figure pat00001

단, Xk는 특정 시간 K[sec] 에서 감지된 물체의 상태 벡터를 의미하는 것으로, x는 시점 K[sec]에서 X축에서의 위치 및 X'은 시점 K[sec]에서의 X축 방향의 속도를 의미한다. 뿐만 아니라, 물체에 가해지는 가속도를 a 로 정의하면, 뉴턴의 운동 법칙에 의하여 하기 [식 2] 내지 [식 4]가 성립할 수 있다.Here, Xk denotes a state vector of the object detected at a specific time K [sec], where x is the position in the X axis at the time point K [sec] and X 'is the position in the X axis direction at the time point K [sec] . In addition, the acceleration applied to the object is a , The following equations (2) to (4) can be established by Newton's law of motion.

[식 2][Formula 2]

Figure pat00002
Figure pat00002

[식 3] [Formula 3]

Figure pat00003
Figure pat00003

[식 4][Formula 4]

Figure pat00004
Figure pat00004

단,

Figure pat00005
및 는
Figure pat00006
시간 K[sec]에 관계없이 일정한 것으로,
Figure pat00007
는 상태 변경 매트릭스(State transition matrix)이고, β는 평균이 0이고 표준편차가 일정한 가속도에 대한 노이즈(Random White Gaussian Noise)를 의미하고,
Figure pat00008
는 가속도에 곱하여지는 곱수(Multiplier)이다.only,
Figure pat00005
And
Figure pat00006
Is constant regardless of the time K [sec]
Figure pat00007
Is a state transition matrix, and β is a random white Gaussian noise with zero mean and constant standard deviation,
Figure pat00008
Is the multiplication multiplied by the acceleration.

또한, [식 1] 내지 [식 4]에서는 X축에 대하여 물체의 상태 벡터에 대하여 설명하였으나, Y축 및 Z축에 대하여 동일하게 특정 시간 K[sec]에서의 감지한 물체의 상태 벡터가 존재할 수 있다.Although the state vectors of the object are described with respect to the X axis in [Expression 1] to [Expression 4], there is a state vector of the sensed object at the specified time K [sec] for the Y axis and the Z axis .

따라서, 제 1 칼만필터 변환부(33)는 [식 1] 내지 [식 4]를 통하여 물체에 대한 트래킹을 수행할 수 있다.Therefore, the first Kalman filter conversion unit 33 can perform tracking on the object through [Equation 1] to [Equation 4].

이러한 제 1 칼만필터 변환부(33)는 레이더 센서부(10)에 포함된 레이더 모듈(11)을 통하여 획득한 물체와의 거리 및 레이더 해상도에 의존한 노이즈 모델을 포함한 것이 특징이다.The first Kalman filter conversion unit 33 includes a noise model that depends on the distance to the object acquired through the radar module 11 included in the radar sensor unit 10 and the radar resolution.

이 때, 레이더 해상도는 레이더 모듈(11)의 복셀(Volume element)를 의미하는 좌우(azimuth), 상하(elevation) 및 거리(range)에 의해 정의되는 것으로, 최소 복셀의 크기가 레이더의 해상도 능력을 의미한다.At this time, the radar resolution is defined by azimuth, elevation, and distance, which means a volume element of the radar module 11, and the minimum voxel size is defined as the resolution capability of the radar it means.

제 1 칼만필터 변환부(33)에서 레이더 센서부(10)를 통하여 획득한 물체의 3차원 좌표에 기초한 트래킹을 수행하면, 트래킹부(34)에서는 기존의 CSK(Circulant When tracking is performed based on the three-dimensional coordinates of the object acquired through the first Kalman filter conversion unit 33 through the radar sensor unit 10, the tracking unit 34 acquires the existing CSK

Tracking By Detection with kernels)방법에 의한 물체의 트래킹을 수행한다.Tracking By Detection with kernels.

구체적으로, 트래킹부(34)는 영상 촬영부(20)에 포함된 카메라 모듈(21)에서 감지한 물체에 대하여 Haar-Like Feature기법을 적용하여 물체를 추출한 다음, 이에 대하여 Kernelized 최소 자승법(Kernelized least squares)을 활용한 분류기를 통하여 물체를 트래킹한다.Specifically, the tracking unit 34 extracts an object by applying a Haar-Like feature technique to an object sensed by the camera module 21 included in the image sensing unit 20, and then performs a Kernelized least method Squares are used to track objects through a classifier.

이 때, Haar-Like Feature 기법이란, 영상에서 영역과 영역의 밝기 차를 이용한 것으로 사각형 모양에 따른 기본 feature 들에 따라 다수 조합하여 다양한 위치 및 크기에서 물체에 대한 특징을 추출하는 방법을 말한다.In this case, Haar-Like Feature technique refers to a method of extracting features of objects in various positions and sizes by combining a plurality of basic features according to a rectangular shape using brightness difference between regions and regions in an image.

또한, Kernelized 최소 자승법(Kernelized least squares)을 활용한 분류기는 다양한 위치 및 크기의 물체에 대한 특징을 포함하는 사각형 모양에 대한 물체 또는 배경의 분류를 수행하는 방법을 의미한다.In addition, a classifier using kernelized least squares means a method of classifying objects or backgrounds of a rectangular shape including features of objects of various positions and sizes.

따라서, 트래킹부(34)는 영상 촬영부(20)에 포함된 카메라 모듈(21)에서 감지한 2차원의 물체에 대한 트래킹을 수행할 수 있다.Accordingly, the tracking unit 34 can perform tracking on a two-dimensional object sensed by the camera module 21 included in the image capturing unit 20. [

다음으로, 제 2 칼만 필터 변환부(35)에서는 2차원 평면에서 적용된 칼만 필터에 따른 트래킹을 수행한다.Next, the second Kalman filter conversion unit 35 performs tracking according to the Kalman filter applied in the two-dimensional plane.

구체적으로, 도 5는 제 2 칼만필터 변환부(35) 에 따른 트래킹 방법을 설명하기 위한 좌표계를 도시한 개략도이다. 5 is a schematic diagram showing a coordinate system for explaining a tracking method according to the second Kalman filter conversion unit 35. In FIG.

즉, 영상을 평면의 가로 및 세로 축을 U, V 축이라고 할 때, 감지한 물체에 대하여 사각형 모형의 바운딩 박스(bounding box)(100)를 도시하였다. 구체적으로, (a)는 영상의 평면 좌표계에 있어서, 시간 K-2[sec]에 감지된 물체의 바운딩 박스(100)의 위치를 표시하고 있고, (b)는 영상의 평면 좌표계에 있어서, 시간 K-1[sec]에 감지된 물체의 바운딩 박스(100)의 위치(영상의 중심으로부터의 거리 정보를 포함하는)를 표시하고 있고, (c)는 영상의 평면 좌표계에 있어서, 시간 K[sec]에 감지된 물체의 바운딩 박스(100)를 나타낸다.That is, a bounding box 100 of a rectangular model is shown for a sensed object when an image is a U and V axis in the horizontal and vertical axes of the plane. Specifically, (a) shows the position of the bounding box 100 of the object detected at time K-2 [sec] in the plane coordinate system of the image, (b) (Including distance information from the center of the image) of the bounding box 100 of the object sensed at the time K-1 [sec], and (c) The bounding box 100 of the object sensed by the user.

이 때, 시간 K-2[sec]에서 바운딩 박스(100)의 좌측 상단의 꼭지점의 좌표를 U1k-2라 하고, 해당 꼭지점의 속도를 V1k -2, 시간 K-2[sec]에서 바운딩 박스(100)의 우측 하단의 꼭지점의 좌표를 U2k -2라 하고, 해당 꼭지점의 속도를 V2k -2이라고 할 수 있다.At this time, the coordinate of the upper left vertex of the bounding box 100 at time K-2 [sec] is U1 k-2 , and the velocity of the corresponding vertex is bounded at V1 k -2 and at time K-2 [sec] The coordinate of the vertex at the lower right end of the box 100 is U2 k -2 and the velocity of the corresponding vertex is V2 k -2 .

또한, 시간 K-1[sec]에서 바운딩 박스(100)의 좌측 상단의 꼭지점의 좌표를 U1k-1라 하고, 해당 꼭지점의 속도를 V1k -1, 시간 K-1[sec]에서 바운딩 박스(100)의 우측 하단의 꼭지점의 좌표를 U2k -1라 하고, 해당 꼭지점의 속도를 V2k -1이라고 할 수 있다.Further, K-1 time [sec] from the vertex coordinates of La at the top of the left side of the bounding box (100) U1 k-1, and the speed of the vertices V1 k -1, hours K-1 bounding box in [sec] The coordinate of the vertex of the lower right end of the vertex 100 is U2 k -1 and the velocity of the vertex is V2 k -1 .

이 때, 시간 K[sec]에서 바운딩 박스(100)의 좌측 상단의 꼭지점의 좌표를 U1k라 하고, 해당 꼭지점의 속도를 V1k, 시간 K[sec]에서 바운딩 박스(100)의 우측 하단의 꼭지점의 좌표를 U2k라 하고, 해당 꼭지점의 속도를 V2k이라고 나타낼 수 있다.At this time, the coordinate of the vertex at the upper left of the bounding box 100 at time K [sec] is U1 k , and the velocity of the corresponding vertex at V1 k and the time K [sec] referred to the coordinates of the point k and U2, it may represent the speed of the vertex V2 is called k.

따라서, 제 2 칼만필터 변환부(35)에서는 바운딩 박스(100)의 위치 정보 및 속도 정보를 기초로 트래킹을 수행할 수 있다. 다만, 제 1 칼만필터 변환부(35)에서 적용된 칼만 필터와 달리, 본 단계에 따른 제 2 칼만필터 변환부(35)에서는 차량(2)의 속도와 감지한 물체의 영상의 중심으로부터의 거리 정보에 의존한 노이즈 모델을 포함한 것이 특징이다.Therefore, the second Kalman filter conversion unit 35 can perform tracking based on the position information and the velocity information of the bounding box 100. [ Unlike the Kalman filter applied in the first Kalman filter converting unit 35, the second Kalman filter converting unit 35 according to this step converts the speed of the vehicle 2 and the distance information from the center of the image of the sensed object And a noise model that is dependent on the noise model.

이에 본 발명에 따른 물체 트래킹 시스템(1)에 있어서, 제어부(30)는 제 1 칼만필터 변환부(33), 트래킹부(34) 및 제 2 칼만필터 변환부(35)에서 레이더 센서부(10) 또는 영상 촬영부(20)에서 감지한 물체의 위치 정보를 기초로 트래킹 함에 따라, 레이더 센서부(10)의 레이더 모듈(11) 또는 영상 촬영부(20)의 카메라 모듈(21)에서 물체 감지 실패 시 또는 트래킹 실패 시 대체 가능할 수 있다.In the object tracking system 1 according to the present invention, the controller 30 controls the radar sensor unit 10 (not shown) in the first and second Kalman filter units 33, 34, ) Of the radar sensor unit 10 or the camera module 21 of the image capturing unit 20 according to the tracking of the object based on the position information of the object detected by the image capturing unit 20 or the position information of the object sensed by the image capturing unit 20 It can be replaced in case of failure or tracking failure.

다음으로, 메인 프로세서(31)에서 처리한 정보는 메모리(32)에 저장될 수 있다.Next, the information processed by the main processor 31 can be stored in the memory 32. [

즉, 메모리(32)는 물체 트래킹 시스템(1)의 동작을 제어하기 위한 제어 프로그램 및 제어 데이터와 레이더 센서부(10) 및 영상 촬영부(20)에서 획득한 정보 및 메인 프로세서(31)에서 처리된 물체 트래킹 정보를 포함하는 각종 제어 신호 등을 임시로 기억할 수 있다.That is, the memory 32 stores control programs and control data for controlling the operation of the object tracking system 1, information obtained from the radar sensor unit 10 and the image capturing unit 20, And various control signals including object tracking information can be temporarily stored.

특히, 메모리(32)는 S램(S-RAM), D램(D-RAM) 등의 휘발성 메모리뿐만 아니라 플래시 메모리, 롬(Read Only Memory), 이피롬(Erasable Programmable Read Only Memory: EPROM), 이이피롬(Electrically Erasable Programmable Read OnlyMemory: EEPROM) 등의 비휘발성 메모리를 포함할 수 있다.In particular, the memory 32 may be a flash memory, a read only memory, an erasable programmable read only memory (EPROM), or the like, as well as a volatile memory such as an S-RAM and a D- And non-volatile memory such as Electrically Erasable Programmable Read Only Memory (EEPROM).

구체적으로, 비휘발성 메모리는 물체 트래킹 시스템(1)의 동작을 제어하기 위한 제어 프로그램 및 제어 데이터 등을 반 영구적으로 저장할 수 있으며, 휘발성 메모리는 비휘발성 메모리로부터 제어 프로그램 및 제어 데이터를 불러와 임시로 기억할 수 있으며, 영상 촬영부(20) 및 레이더 센서부(10)에서 획득한 정보 및 제어부(30)에서 처리한 트래킹 정보를 임시로 저장할 수 있다. Specifically, the non-volatile memory may semi-permanently store a control program and control data for controlling the operation of the object tracking system 1, and the volatile memory temporarily loads the control program and control data from the non- And can temporarily store the information acquired by the image capturing unit 20 and the radar sensor unit 10 and the tracking information processed by the control unit 30. [

다음으로, 표시부(40)는 제어부(30)에서 인식 및 추적한 물체 정보를 디스플레이에 의하여 운전자에게 보여줄 수 있으며, 도시되지는 않았으나 본 발명에 따른 물체 트래킹 시스템(1)은 경고부(미도시)를 포함하여 인식 및 추적한 물체가 차량과 근접한 경우에 이를 경고할 수 있는 것으로 예를 들어, 음향을 이용한 경고가 가능할 수 있다.Next, the display unit 40 can display the object information recognized and tracked by the control unit 30 to the driver. Although not shown, the object tracking system 1 according to the present invention includes a warning unit (not shown) For example, a warning using sound may be possible, for example.

이상에서는 일 실시예에 따른 물체 트래킹 시스템(1)의 구성에 대하여 설명하였다.The configuration of the object tracking system 1 according to the embodiment has been described above.

이하에서는 일 실시에에 따른 물체 트래킹 시스템(1)의 동작에 대하여 설명한다.Hereinafter, the operation of the object tracking system 1 according to one embodiment will be described.

도 6 및 도 7은 본 발명의 일 실시예에 따른 물체 트래킹 시스템(1)의 동작 방법을 나타낸 순서도이다. 6 and 7 are flowcharts showing an operation method of the object tracking system 1 according to an embodiment of the present invention.

구체적으로, 도 6은 레이더 모듈(11)에서 감지한 물체를 제어부(30) 내 제1 칼만 필터 변환부(33)를 통하여 물체를 트래킹하는 방법을 설명한 순서도이고, 도 7은 카메라 모듈(21)에서 감지한 물체를 제어부(30) 내 트래킹부(34) 및 제2 칼만 필터 변환부(35)를 통하여 물체를 트래킹하는 방법을 설명한 순서도이다.6 is a flowchart illustrating a method of tracking an object sensed by the radar module 11 through the first Kalman filter conversion unit 33 in the control unit 30 and FIG. And tracking the object through the tracking unit 34 and the second Kalman filter conversion unit 35 in the control unit 30 according to an embodiment of the present invention.

도 6에 도시된 바와 같이, 레이더 모듈(11)이 동작을 하여 본 발명에 따른 물체 트래킹 제어 방법이 동작을 시작한다(S10).As shown in FIG. 6, the radar module 11 operates to start the object tracking control method according to the present invention (S10).

이 때, 레이더 모듈(11)이 차량 전방의 물체를 감지한다(S20). 구체적으로, 레이더 모듈(11)은 레이더를 전방 물체에 송신하고, 돌아오는 데 걸리는 시간, 방향 정보를 토대로 전방 물체의 3차원 좌표를 산출할 수 있다(S30). 따라서, 감지된 전방 물체의 3차원 좌표를 제어부(30)로 송신하여, 물체 트래킹 시스템(1)은 해당 물체의 위치와 속도 정보를 기초로 물체의 트래킹을 수행한다(S40).At this time, the radar module 11 detects an object in front of the vehicle (S20). Specifically, the radar module 11 transmits the radar to the forward object, and calculates the three-dimensional coordinates of the forward object based on the time and direction information required for returning (S30). Accordingly, the three-dimensional coordinates of the detected forward object are transmitted to the control unit 30, and the object tracking system 1 performs tracking of the object based on the position and velocity information of the object (S40).

구체적으로, 본 발명의 물체 트래킹 시스템(1) 내 포함된 제 1 칼만 필터 변환부(33)는 단순 칼만 필터(Simple Kalman-Filter)를 사용하여 물체의 트래킹을 진행하는데, 이러한 제 1 칼만필터 변환부(33)는 레이더 센서부(10)에 포함된 레이더 모듈(11)을 통하여 획득한 물체와의 거리 및 레이더 해상도에 의존한 노이즈 모델을 포함하여 물체를 트래킹 할 수 있다.Specifically, the first Kalman filter transformer 33 included in the object tracking system 1 of the present invention uses a simple Kalman filter to track an object. This first Kalman filter transform The unit 33 can track an object including a noise model depending on the distance to the object acquired through the radar module 11 included in the radar sensor unit 10 and the radar resolution.

다음으로, 도 7에 도시된 바와 같이, 물체 트래킹 시스템(1) 내 카메라 모듈(21)이 동작하여 본 발명에 따른 물체 트래킹 제어 방법이 동작을 시작한다(S15).Next, as shown in FIG. 7, the camera module 21 in the object tracking system 1 operates, and the object tracking control method according to the present invention starts operation (S15).

이 때, 카메라 모듈(21)은 전방 영상을 획득한다(S25). 구체적으로, 물체 트래킹 시스템(1)이 확보한 전방 영상은 2차원 정보를 가지는 것으로, 획득한 영상 속에 포함된 물체를 감지한다(S35).At this time, the camera module 21 obtains the forward image (S25). Specifically, the forward image obtained by the object tracking system 1 has two-dimensional information, and detects an object contained in the acquired image (S35).

예를 들어, 감지한 물체를 보행자라고 할 때, 보행자의 외곽에 사각형 모형의 바운딩 박스(Bounding Box)를 표시하여, 바운딩 박스의 이동을 트래킹 할 수 있다.For example, when a sensed object is a pedestrian, a bounding box of a rectangular model may be displayed on the outside of the pedestrian to track the movement of the bounding box.

즉, 본 발명에 따른 물체 트래킹 시스템(1)은 감지된 물체의 위치와, 물체 트래킹 시스템(1)을 탑재한 차량(2)의 속도를 기초로 감지한 물체의 트래킹을 수행한다(S45). 구체적으로, 제어부(30) 내 포함된 트래킹부(34)에서는 영상 촬영부(20)에 포함된 카메라 모듈(21)에서 감지한 물체에 대하여 Haar-Like Feature기법을 적용하여 물체를 추출한 다음, 이에 대하여 Kernelized 최소 자승법(Kernelized least squares)을 활용한 분류기를 통하여 물체를 트래킹을 수행한다.That is, the object tracking system 1 according to the present invention performs tracking of an object sensed based on the position of the sensed object and the speed of the vehicle 2 on which the object tracking system 1 is mounted (S45). Specifically, in the tracking unit 34 included in the control unit 30, the object sensed by the camera module 21 included in the image capturing unit 20 is extracted by applying the Haar-Like Feature technique, The object is tracked through a classifier using Kernelized least squares.

또한, 제어부(30) 내 포함된 제2 칼만 필터 변환부(35)에서는 2차원 평면에서 적용된 칼만 필터에 따른 트래킹을 수행하는 것으로, 제 2 칼만필터 변환부(35)에서는 바운딩 박스(100)의 위치 정보 및 속도 정보를 기초로 트래킹을 수행할 수 있다. The second Kalman filter conversion unit 35 included in the control unit 30 performs tracking according to the Kalman filter applied in the two-dimensional plane. In the second Kalman filter conversion unit 35, Tracking can be performed based on position information and speed information.

도 6 및 도 7에서는 병렬적으로 각기 레이더 모듈(11) 또는 카메라 모듈(21)을 통하여 감지한 물체를 트래킹하는 방법을 나타낸 순서도이나, 동일한 제어부(30) 내 트래킹이 이루어지는 것으로, 레이더 모듈(11)을 통하여 물체의 감지가 실패하거나, 카메라 모듈(21)을 통하여 물체 감지가 실패한 경우, 제 1 칼만 필터 변환부(33), 트래킹부(34), 및 제 2 칼만필터 변환부(35)에서 수행된 트래킹 방법을 통하여 물체의 트래킹을 대체할 수 있다.6 and 7 are flowcharts showing a method of tracking an object sensed through the radar module 11 or the camera module 21 in parallel, but tracking is performed in the same control unit 30, and the radar module 11 The tracking unit 34 and the second Kalman filter conversion unit 35 can not detect the object through the camera module 21 or fail to detect the object through the camera module 21. [ Tracking of the object can be replaced by the tracking method performed.

이상에서는 개시된 발명의 일 실시예에 대하여 도시하고 설명하였지만, 개시된 발명은 상술한 특정의 실시예에 한정되지 아니하며 청구범위에서 청구하는 요지를 벗어남 없이 개시된 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의하여 다양한 변형실시가 가능함을 물론이고 이러한 변형실시들은 개시된 발명으로부터 개별적으로 이해될 수 없다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is clearly understood that the same is by way of illustration and example only and is not to be construed as limited to the embodiments set forth herein; It will be understood that various modifications may be made without departing from the spirit and scope of the invention.

1: 물체 트래킹 시스템
2: 차량
1: Object tracking system
2: vehicle

Claims (8)

차량의 외부 영상을 촬영하는 단계;
상기 촬영된 영상에 포함된 물체를 감지(Detection)하는 단계;
상기 차량의 전방에 레이더 신호를 송수신하여 물체를 감지하는 단계;
상기 레이더 신호를 기초로 감지된 물체의 3차원 정보를 기초로 상기 물체를 제 1 트래킹하는 단계; 및
상기 촬영된 영상 내 감지된 물체의 2차원 정보를 기초로 상기 물체를 제 2트래킹(Tracking)을 수행하는 단계; 를 포함하는 차량의 물체 트래킹 제어 방법.
Capturing an external image of the vehicle;
Detecting an object included in the photographed image;
Transmitting and receiving a radar signal in front of the vehicle to detect an object;
First tracking the object based on three-dimensional information of the object sensed based on the radar signal; And
Performing a second tracking of the object based on the two-dimensional information of the sensed object in the sensed image; Wherein the object tracking control method comprises:
제 1항에 있어서,
상기 레이더 신호를 기초로 감지된 물체의 3차원 정보를 기초로 상기 물체를 제 1트래킹하는 단계;는
상기 감지된 물체와 상기 차량 사이의 거리 및 레이더 센서의 해상도에 대한 노이즈 모델을 포함한 칼만 필터(Kalman-Filter)를 적용하여 트래킹하는 차량의 물체 트래킹 제어 방법.
The method according to claim 1,
First tracking the object based on three-dimensional information of the object sensed based on the radar signal;
And a Kalman filter including a noise model for the distance between the sensed object and the vehicle and the resolution of the radar sensor.
제 1항에 있어서,
상기 촬영된 영상 내 감지된 물체의 2차원 정보를 기초로 상기 물체를 제 2트래킹(Tracking)을 수행하는 단계;는
상기 감지된 물체를 CSK(Circulant Tracking by detection with Kernels)기법을 기초로 트래킹하는 단계; 및
상기 감지된 물체의 위치 및 상기 차량의 속도에 대한 노이즈 모델을 포함한 칼만 필터(Kalman-Filter)를 적용하여 트래킹하는 단계;를 포함하는 차량의 물체 트래킹 제어 방법.
The method according to claim 1,
Performing second tracking of the object based on the two-dimensional information of the sensed object in the photographed image;
Tracking the sensed object based on a CSK (Circulant Tracking by Detection with Kernels) technique; And
And tracking and applying a Kalman filter including a noise model for the position of the sensed object and the speed of the vehicle.
제 1항 내지 제 3항 중 어느 한 항에 있어서,
제 1 트래킹 정보 및 제2 트래킹 정보는 상호 교환하는 차량의 물체 트래킹 제어 방법.
4. The method according to any one of claims 1 to 3,
Wherein the first tracking information and the second tracking information are interchanged.
차량의 외부 영상을 촬영하여, 영상에 포함된 물체를 감지하는 영상 촬영부;
상기 차량의 전방에 레이더 신호를 송수신하여 물체를 감지하는 레이더 센서부;
상기 레이더 신호를 기초로 감지된 물체의 3차원 정보를 기초로 상기 물체를 제 1 트래킹하고, 상기 촬영된 영상 내 감지된 물체의 2차원 정보를 기초로 상기 물체를 제 2 트래킹하는 제어부;를 포함하는 차량의 물체 트래킹 시스템.
An image capturing unit capturing an external image of the vehicle and detecting an object included in the image;
A radar sensor unit for transmitting / receiving a radar signal to the front of the vehicle and sensing an object;
And a controller for first tracking the object on the basis of the three-dimensional information of the object sensed based on the radar signal and secondly tracking the object based on the two-dimensional information of the sensed object in the sensed image The object tracking system of the vehicle.
제 5항에 있어서,
상기 영상에 포함된 물체를 바운딩 박스(Bounding Box)로 표시하여 운전자에게 보여주는 표시부;를 더 포함하는 차량의 물체 트래킹 시스템.
6. The method of claim 5,
And a display unit for displaying an object included in the image by a bounding box and displaying the object to a driver.
제 6항에 있어서,
상기 제어부는
상기 감지된 물체의 3차원 정보를 기초로 상기 차량 사이의 거리 및 레이더 센서의 해상도에 대한 노이즈 모델을 포함한 칼만 필터(Kalman-Filter)를 적용하여 트래킹하는 제 1 칼만필터 변환부;
상기 감지된 물체의 2차원 정보를 기초로 CSK(Circulant Tracking by detection with Kernels)기법으로 트래킹하는 트래킹부; 및
상기 감지된 물체의 2차원 위치 및 상기 차량의 속도에 대한 노이즈 모델을 포함한 칼만 필터(Kalman-Filter)를 적용하여 트래킹하는 제 2 칼만필터 변환부;를 더 포함하는 차량의 물체 트래킹 시스템.
The method according to claim 6,
The control unit
A first Kalman filter converting unit for applying and tracking a Kalman filter including a noise model for the distance between the vehicle and the resolution of the radar sensor based on the three-dimensional information of the sensed object;
A tracking unit tracking based on the two-dimensional information of the sensed object by the CSK (Circulant Tracking by Detection with Kernels) technique; And
And a second Kalman filter converting unit for applying and tracking a Kalman filter including a noise model for the two-dimensional position of the sensed object and the speed of the vehicle.
제 7항에 있어서,
상기 제 1 칼만 필터 변환부의 제 1 트래킹 정보와 상기 제 2 칼만 필터 변환부의 제 2 트래킹 정보는 상호 교환되는 차량의 물체 트래킹 시스템.
8. The method of claim 7,
Wherein the first tracking information of the first Kalman filter conversion unit and the second tracking information of the second Kalman filter conversion unit are interchanged.
KR1020160133803A 2016-10-14 2016-10-14 Object tracking system in a vehicle and method thereof KR20180041525A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160133803A KR20180041525A (en) 2016-10-14 2016-10-14 Object tracking system in a vehicle and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160133803A KR20180041525A (en) 2016-10-14 2016-10-14 Object tracking system in a vehicle and method thereof

Publications (1)

Publication Number Publication Date
KR20180041525A true KR20180041525A (en) 2018-04-24

Family

ID=62084990

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160133803A KR20180041525A (en) 2016-10-14 2016-10-14 Object tracking system in a vehicle and method thereof

Country Status (1)

Country Link
KR (1) KR20180041525A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2585332A (en) * 2019-02-12 2021-01-13 Chidziva Pasihapaori Vehicle with moving object detector
US11320830B2 (en) 2019-10-28 2022-05-03 Deere & Company Probabilistic decision support for obstacle detection and classification in a working area

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005332218A (en) * 2004-05-20 2005-12-02 Nissan Motor Co Ltd Driving support device
KR20120034352A (en) * 2010-10-01 2012-04-12 한국전자통신연구원 System and method for detecting obstacle applying to vehicle
JP2013190421A (en) * 2012-03-14 2013-09-26 Honda Motor Co Ltd Method for improving detection of traffic-object position in vehicle
KR20140004291A (en) * 2012-06-29 2014-01-13 엘지이노텍 주식회사 Forward collision warning system and forward collision warning method
KR20160091040A (en) * 2015-01-23 2016-08-02 엘지전자 주식회사 Vehicle and Control Method Thereof

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005332218A (en) * 2004-05-20 2005-12-02 Nissan Motor Co Ltd Driving support device
KR20120034352A (en) * 2010-10-01 2012-04-12 한국전자통신연구원 System and method for detecting obstacle applying to vehicle
JP2013190421A (en) * 2012-03-14 2013-09-26 Honda Motor Co Ltd Method for improving detection of traffic-object position in vehicle
KR20140004291A (en) * 2012-06-29 2014-01-13 엘지이노텍 주식회사 Forward collision warning system and forward collision warning method
KR20160091040A (en) * 2015-01-23 2016-08-02 엘지전자 주식회사 Vehicle and Control Method Thereof

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
김귀식, 정수웅, 이상근. (2015). 효과적인 업데이트 모델을 이용한 개선된 CSK TRACKER. 대한전자공학회 학술대회, , 580_581. *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2585332A (en) * 2019-02-12 2021-01-13 Chidziva Pasihapaori Vehicle with moving object detector
US11320830B2 (en) 2019-10-28 2022-05-03 Deere & Company Probabilistic decision support for obstacle detection and classification in a working area

Similar Documents

Publication Publication Date Title
KR101967305B1 (en) Pedestrian detecting method in a vehicle and system thereof
CN107272021B (en) Object detection using radar and visually defined image detection areas
US20200208970A1 (en) Method and device for movable object distance detection, and aerial vehicle
JP6623044B2 (en) Stereo camera device
US9898671B2 (en) Vehicle vision system with structure and motion estimation
JP4876118B2 (en) Three-dimensional object appearance detection device
US20180114067A1 (en) Apparatus and method for extracting objects in view point of moving vehicle
KR101656162B1 (en) Method for operating a driver assistance device of a motor vehicle, driver assistance device and motor vehicle
EP2924655B1 (en) Disparity value deriving device, equipment control system, movable apparatus, robot, disparity value deriving method, and computer-readable storage medium
US11200432B2 (en) Method and apparatus for determining driving information
JP6032034B2 (en) Object detection device
KR101431373B1 (en) Apparatus for estimating of vehicle movement using stereo matching
JP5539250B2 (en) Approaching object detection device and approaching object detection method
JP6410231B2 (en) Alignment apparatus, alignment method, and computer program for alignment
JP2018503195A (en) Object detection method and object detection apparatus
KR101491305B1 (en) Apparatus and method for detecting obstacle
EP3207523B1 (en) Obstacle detection apparatus and method
US20060115122A1 (en) Vehicle surroundings monitoring apparatus
KR20180041525A (en) Object tracking system in a vehicle and method thereof
KR20190134303A (en) Apparatus and method for image recognition
KR20160125803A (en) Apparatus for defining an area in interest, apparatus for detecting object in an area in interest and method for defining an area in interest
JP6466679B2 (en) Object detection device
JP5785515B2 (en) Pedestrian detection device and method, and vehicle collision determination device
JP4788399B2 (en) Pedestrian detection method, apparatus, and program
JP3994954B2 (en) Object detection apparatus and object detection method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application