KR20130020151A - Vehicle detection device and method - Google Patents

Vehicle detection device and method Download PDF

Info

Publication number
KR20130020151A
KR20130020151A KR1020110082586A KR20110082586A KR20130020151A KR 20130020151 A KR20130020151 A KR 20130020151A KR 1020110082586 A KR1020110082586 A KR 1020110082586A KR 20110082586 A KR20110082586 A KR 20110082586A KR 20130020151 A KR20130020151 A KR 20130020151A
Authority
KR
South Korea
Prior art keywords
vehicle
roi
image data
detected
detection
Prior art date
Application number
KR1020110082586A
Other languages
Korean (ko)
Inventor
김형기
Original Assignee
주식회사 만도
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 만도 filed Critical 주식회사 만도
Priority to KR1020110082586A priority Critical patent/KR20130020151A/en
Publication of KR20130020151A publication Critical patent/KR20130020151A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Electromagnetism (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Traffic Control Systems (AREA)

Abstract

PURPOSE: A vehicle detection device and a method are provided to perform image processing within a concerned region based on an object sensed in a radar sensor, thereby rapidly detecting a vehicle. CONSTITUTION: An image sensor(110) photographs a surrounding user vehicle. A radar sensor(120) senses an object of the surrounding user vehicle. A concerned region generation unit(130) sets up a concerned region in image data based on location information of the detected object. A vehicle extraction unit(140) extracts the vehicle from the image data. [Reference numerals] (110) Image sensor; (120) Radar sensor; (121) Transmitting antenna unit; (122) Receiving antenna unit; (123) Location extraction unit; (124) Speed extraction unit; (130) Concerned region generation unit; (140) Vehicle extraction unit; (150) Vehicle tracking unit

Description

차량 검출 장치 및 방법{Vehicle Detection Device and Method}Vehicle Detection Device and Method

본 발명은 차량 검출 장치 및 방법에 관한 것으로서, 레이더 인식 결과를 기초로 영상을 처리하여 차량을 검출하는 차량 검출 장치 및 방법에 관한 것이다.The present invention relates to a vehicle detection apparatus and method, and more particularly, to a vehicle detection apparatus and method for detecting a vehicle by processing an image based on radar recognition results.

자차의 전방에 위치하는 차량이 자차에 근접하여 충돌의 위험성이 있는 경우, 운전자에게 위험 경보를 주거나 자차의 속도 및 조향을 자동으로 제어하여 충돌을 방지하는 시스템이 제공되고 있다. 차량과의 충돌 가능성을 탐지하기 위해 영상 센서 또는 레이더 센서 등이 이용될 수 있다.When a vehicle located in front of the own vehicle is close to the own vehicle and there is a danger of collision, a system for preventing a collision by providing a warning to a driver or automatically controlling the speed and steering of the own vehicle is provided. An image sensor or a radar sensor may be used to detect a possibility of collision with the vehicle.

영상 센서를 이용하는 경우, 영상 센서에서 촬영된 영상 데이터에서 차량을 검출하기 위해 영상 내의 전 영역에 대하여 영상 처리를 수행하여야 할 필요가 있다. 이때 차량 검출을 위해 영상 처리를 수행하는데 소요되는 시간이 많아지게 되고, 실시간 처리에 어려울 수 있다.In the case of using an image sensor, it is necessary to perform image processing on all regions in the image in order to detect a vehicle from the image data captured by the image sensor. In this case, the time required to perform image processing for vehicle detection becomes large, and it may be difficult to process in real time.

레이더 센서를 이용하는 경우, 운동하는 물체는 차량으로 식별하고 가드레일, 차선 변경 금지봉, 표지판 등과 같은 정지한 물체는 차량이 아닌 것으로 식별하는 방식을 이용한다. 이러한 경우, 정지한 차량은 차량으로 식별되지 않고, 이후의 차량 추적에서 제외될 수 있다. When the radar sensor is used, a moving object is identified as a vehicle, and a stationary object such as a guard rail, a lane change bar, a sign, and the like is used as a vehicle. In this case, the stopped vehicle is not identified as a vehicle and may be excluded from subsequent vehicle tracking.

본 발명은 전술한 문제점을 극복하기 위해 안출된 것으로서, 빠른 시간 내에 차량을 정확하게 검출할 수 있는 차량 검출 장치 및 방법을 제공하는 것을 목적으로 한다.SUMMARY OF THE INVENTION The present invention has been made to overcome the above-described problems, and an object thereof is to provide a vehicle detecting apparatus and method capable of accurately detecting a vehicle within a short time.

상술한 목적을 달성하기 위해 본 발명의 일 실시예는, 자차 주변을 촬영하는 영상 센서; 상기 자차 주변의 물체를 감지하는 레이더 센서; 상기 레이더 센서에서 검출된 물체의 위치 정보에 기초하여 상기 영상 센서에서 촬영된 영상 데이터에 관심 영역(Region of Interest, ROI)을 설정하는 관심 영역 생성부; 및 상기 관심 영역 내의 영상 데이터에서 차량을 추출하는 차량 추출부를 포함하는 차량 검출 장치를 제공한다.In order to achieve the above object, an embodiment of the present invention, the image sensor for photographing the surrounding vehicle; A radar sensor detecting an object around the host vehicle; A region of interest generator configured to set a region of interest (ROI) on image data captured by the image sensor based on position information of the object detected by the radar sensor; And a vehicle extracting unit extracting a vehicle from the image data in the ROI.

또한, 본 발명의 다른 실시예는, 영상 센서를 이용하여 자차 주변을 촬영하는 단계; 레이더 센서를 이용하여 상기 자차 주변의 물체를 감지하는 단계; 상기 레이더 센서에서 검출된 물체의 위치 정보에 기초하여 상기 영상 센서에서 촬영된 영상 데이터에 관심 영역(Region of Interest, ROI)을 설정하는 단계; 및 상기 관심 영역 내의 영상 데이터에서 차량을 추출하는 단계를 포함하는 차량 검출 방법을 제공한다.In addition, another embodiment of the present invention, the step of photographing the surrounding vehicle using an image sensor; Detecting an object around the host vehicle using a radar sensor; Setting a region of interest (ROI) on image data captured by the image sensor based on position information of the object detected by the radar sensor; And extracting a vehicle from image data in the ROI.

상술한 본 발명에 따르면, 레이더 센서에서 감지된 물체를 기초로 설정된 관심 영역 내에서만 영상 처리를 수행하여 빠른 시간 내에 차량을 검출할 수 있다. 또한, 레이더 센서의 결과와 영상 센서의 결과를 모두 이용함으로써 차량을 정확하게 검출할 수 있다.According to the present invention described above, the vehicle can be detected in a short time by performing image processing only within the ROI set based on the object detected by the radar sensor. In addition, the vehicle can be detected accurately by using both the results of the radar sensor and the results of the image sensor.

도 1은 본 발명의 일 실시예에 따른 차량 검출 시스템의 블럭도이다.
도 2는 본 발명의 일 실시예에 따른 차량 검출 방법의 흐름도이다.
도 3은 레이더 센서에서 검출된 물체의 위치 정보를 예시하는 도면이다.
도 4는 영상 데이터에 설정된 관심 영역을 예시하는 도면이다.
도 5a 및 5b는 관심 영역 및 관심 영역에서 검출된 차량의 하부 라인을 예시하는 도면이다.
도 6a 및 6b는 관심 영역 및 관심 영역에서 검출된 차량의 측면 라인을 예시하는 도면이다.
도 7은 관심 영역 및 관심 영역에서 검출된 차량의 중심 라인을 예시하는 도면이다.
도 8a 및 8b는 영상 데이터에 설정된 관심 영역 및 차량 검출 결과를 예시하는 도면이다.
1 is a block diagram of a vehicle detection system according to an embodiment of the present invention.
2 is a flowchart of a vehicle detection method according to an embodiment of the present invention.
3 is a diagram illustrating position information of an object detected by the radar sensor.
4 is a diagram illustrating an ROI set in image data.
5A and 5B illustrate a region of interest and a bottom line of a vehicle detected in the region of interest.
6A and 6B illustrate a region of interest and a side line of a vehicle detected in the region of interest.
7 is a diagram illustrating a center line of a vehicle detected in the ROI and the ROI.
8A and 8B are diagrams illustrating an ROI and a vehicle detection result set in image data.

이하, 본 발명의 일부 실시예들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.Hereinafter, some embodiments of the present invention will be described in detail with reference to exemplary drawings. In adding reference numerals to the components of each drawing, it should be noted that the same reference numerals are assigned to the same components as much as possible even though they are shown in different drawings. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear.

또한, 본 발명의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성 요소는 그 다른 구성요소에 직접적으로 연결되거나 또는 접속될 수 있지만, 각 구성 요소 사이에 또 다른 구성 요소가 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다.In addition, in describing the component of this invention, terms, such as 1st, 2nd, A, B, (a), (b), can be used. These terms are intended to distinguish the constituent elements from other constituent elements, and the terms do not limit the nature, order or order of the constituent elements. When a component is described as being "connected", "coupled", or "connected" to another component, the component may be directly connected to or connected to the other component, It should be understood that an element may be "connected," "coupled," or "connected."

도 1은 본 발명의 일 실시예에 따른 차량 검출 시스템(100)의 블럭도이다. 도 1에 도시되는 차량 검출 시스템(100)은 자차 내에 위치하는 시스템일 수 있다. 차량 검출 시스템(100)은 자차 주변의 차량을 검출하기 위한 시스템으로서, 차량의 충돌을 방지하는 시스템 또는 차량의 충돌 위험성을 운전자에게 알려주는 시스템, 예를 들면, CDM(Collision Damage Mitigation), SCC(Smart Cruise Control), FCW(Forward Collision Warning) 시스템의 일부일 수 있다. 1 is a block diagram of a vehicle detection system 100 according to an embodiment of the present invention. The vehicle detection system 100 shown in FIG. 1 may be a system located in a host vehicle. The vehicle detection system 100 is a system for detecting a vehicle around a host vehicle. The vehicle detection system 100 is a system for preventing a collision of a vehicle or a system for notifying a driver of a collision risk of a vehicle, for example, collision damage mitigation (CDM), SCC ( It may be part of a Smart Cruise Control (FCW), Forward Collision Warning (FCW) system.

도 1을 참조하면, 차량 검출 시스템(100)은 영상 센서(110), 레이더 센서(120), 관심 영역 생성부(130), 차량 추출부(140) 및 차량 추적부(150)를 포함한다.Referring to FIG. 1, the vehicle detection system 100 includes an image sensor 110, a radar sensor 120, a region of interest generator 130, a vehicle extractor 140, and a vehicle tracker 150.

영상 센서(110)는 자차 주변의 영상을 촬영할 수 있는 카메라 장치이다. 영상 센서(110)는 자차 주변을 촬영하여 영상 데이터를 출력한다.The image sensor 110 is a camera device capable of capturing an image around the host vehicle. The image sensor 110 outputs image data by capturing the surrounding vehicle.

레이더 센서(120)는 레이더를 이용하여 자차 주변의 물체를 탐지하는 장치이다. 레이더 센서(120)가 탐지하는 영역은 영상 센서(110)에서 촬영되는 영역과 유사할 수 있다. 레이더 센서(120)는 전파를 송신하는 송신 안테나부(121), 물체에 반사되어 수신되는 전파를 수신하는 수신 안테나부(122), 송신 안테나부(121)에서 송신되는 전파의 빔 방향 또는 수신 안테나부(122)에서 수신되는 전파의 빔 방향, 송신 전파와 수신 전파의 시간 차이에 기초하여 물체의 위치를 추출하는 위치 추출부(123), 송신 전파와 수신 전파의 주파수 차이에 기초하여 물체의 상대 속도를 추출하는 속도 추출부(124)를 포함할 수 있다.The radar sensor 120 is a device that detects an object around the host vehicle using the radar. The area detected by the radar sensor 120 may be similar to the area photographed by the image sensor 110. The radar sensor 120 includes a transmission antenna unit 121 for transmitting radio waves, a reception antenna unit 122 for receiving radio waves reflected by an object, and a beam direction or reception antenna of radio waves transmitted from the transmission antenna unit 121. The position extraction unit 123 which extracts the position of the object based on the beam direction of the radio wave received by the unit 122 and the time difference between the transmission radio wave and the reception radio wave, and the relative of the object based on the frequency difference between the transmission radio wave and the reception radio wave. It may include a speed extractor 124 for extracting the speed.

송신 안테나부(121) 및 수신 안테나부(122)는 각각 하나 이상의 안테나를 포함한다. 송신 안테나부(121) 및 수신 안테나부(122) 중 적어도 하나는 지향성 안테나(directional antenna) 장치로서, 수평 및 수직 방향으로 빔 분해능을 갖는다. 예를 들면, 송신 안테나부(121)는 지향성 안테나 장치이고 수신 안테나부(122)는 무지향성 안테나(omni-directional antenna) 장치로서, 송신 안테나부(121)로부터 송신되는 전파의 빔 방향에 의해 물체가 위치하는 수평 및 수직 방향을 알 수 있다. 다른 예를 들면, 송신 안테나부(121)는 무지향성 안테나 장치이고 수신 안테나부(122)는 지향성 안테나 장치로서, 수신 안테나(122)에 수신되는 전파의 빔 방향에 의해 물체가 위치하는 수평 및 수직 방향을 알 수 있다. The transmitting antenna unit 121 and the receiving antenna unit 122 each include one or more antennas. At least one of the transmitting antenna unit 121 and the receiving antenna unit 122 is a directional antenna device, and has beam resolution in horizontal and vertical directions. For example, the transmitting antenna unit 121 is a directional antenna device and the receiving antenna unit 122 is an omni-directional antenna device, the object by the beam direction of the radio wave transmitted from the transmitting antenna unit 121 The horizontal and vertical directions in which the is located can be seen. For another example, the transmitting antenna unit 121 is a non-directional antenna device and the receiving antenna unit 122 is a directional antenna device, the horizontal and vertical in which the object is located by the beam direction of the radio wave received by the receiving antenna 122 The direction is known.

송신 안테나부(121)는 펄스를 송신하고 수신 안테나부(122)는 물체에 반사된 펄스를 수신한다. 자차로부터 물체까지의 거리를 'R'이라고 하면, 송신 안테나부(121)에서 펄스가 송신된 시간과 수신 안테나부(122)에서 펄스가 수신된 시간의 차이(T)는 T=2R/c(c는 광속)이다. 그러므로, 송신 안테나부(121)에서 펄스가 송신된 시간과 수신 안테나부(122)에서 펄스가 수신된 시간의 차이로부터 물체까지의 거리를 알 수 있다.The transmitting antenna unit 121 transmits a pulse, and the receiving antenna unit 122 receives a pulse reflected by an object. When the distance from the host vehicle to the object is 'R', the difference T between the time when the pulse is transmitted by the transmitting antenna unit 121 and the time when the pulse is received by the receiving antenna unit 122 is T = 2R / c ( c is the speed of light). Therefore, the distance to the object can be known from the difference between the time at which the pulse is transmitted at the transmitting antenna unit 121 and the time at which the pulse is received at the receiving antenna unit 122.

위치 추출부(123)는 물체가 위치하는 수평 및 수직 방향과 물체까지의 거리에 기초하여 물체의 위치를 추출한다. 물체의 위치는 자차의 위치를 기준으로 한 3차원 좌표로 표현될 수 있다. 또는, 물체의 위치는 물체의 수평 및 수직 방향과 물체까지의 거리로 표현될 수 있다.The position extractor 123 extracts the position of the object based on the horizontal and vertical directions in which the object is located and the distance to the object. The position of the object may be expressed in three-dimensional coordinates based on the position of the host vehicle. Alternatively, the position of the object may be expressed by the horizontal and vertical directions of the object and the distance to the object.

송신 안테나부(121)에서 송신하는 전파의 주파수와 수신 안테나부(122)에서 수신하는 전파의 주파수는 도플러 효과에 의하여 물체의 상대 속도에 따라 차이를 갖게 된다. 속도 추출부(124)는 송신 안테나부(121)에서 송신하는 전파의 주파수와 수신 안테나부(122)에서 수신하는 전파의 주파수 차이에 기초하여 자차에 대한 물체의 상대 속도를 추출한다. The frequency of the radio wave transmitted from the transmitting antenna unit 121 and the frequency of the radio wave received from the receiving antenna unit 122 have a difference according to the relative speed of the object due to the Doppler effect. The speed extractor 124 extracts a relative velocity of the object with respect to the host vehicle based on the frequency difference between the frequency of the radio wave transmitted by the transmitting antenna unit 121 and the radio wave received by the receiving antenna unit 122.

관심 영역 생성부(130)는 레이더 센서(120)에서 추출된 물체의 위치 정보에 기초하여 영상 센서(110)에서 촬영된 영상 데이터에 관심 영역(Region of Interest, ROI)을 설정한다.The ROI generator 130 sets a region of interest (ROI) on the image data photographed by the image sensor 110 based on the position information of the object extracted by the radar sensor 120.

레이더 센서(120)는 물체가 위치하는 방향과 물체의 거리를 통해 자차를 기준으로 물체의 3차원 좌표를 알 수 있다. 물체의 좌표를 이용하여 영상 센서(110)에 의해 생성된 영상 데이터에서 물체의 픽셀 좌표를 구할 수 있다. 이러한 물체의 픽셀 좌표를 기준으로 관심 영역이 설정될 수 있다. The radar sensor 120 may know the three-dimensional coordinates of the object based on the host vehicle through the direction in which the object is located and the distance of the object. The pixel coordinates of the object may be obtained from the image data generated by the image sensor 110 using the coordinates of the object. The ROI may be set based on the pixel coordinates of the object.

관심 영역은 적어도 차량의 후방 형상을 포함할 수 있다. 차량의 후방 형상이 차지하는 영역의 절대적인 넓이는 사전에 설정된 값일 수 있다. 영상 데이터에서 차량의 후방 형상이 차지하는 영역의 넓이는 자차로부터 차량까지의 거리의 제곱에 반비례한다. 그러므로, 관심 영역은 상술한 물체의 픽셀 좌표를 기준으로 자차로부터 물체까지의 거리에 반비례하는 넓이로 설정될 수 있다.The region of interest may comprise at least the rear shape of the vehicle. The absolute width of the area occupied by the rear shape of the vehicle may be a preset value. The area of the rear shape of the vehicle in the image data is inversely proportional to the square of the distance from the host vehicle to the vehicle. Therefore, the region of interest may be set to an area inversely proportional to the distance from the host vehicle to the object based on the pixel coordinates of the object described above.

상기에서 물체의 3차원 좌표로부터 관심 영역을 설정하는 것에 대하여 기재하였지만, 레이더 센서(120)에서 측정된 물체의 방향으로부터 영상 데이터 내에서 물체의 픽셀 좌표를 추출하고, 측정된 물체까지의 거리로부터 영상 데이터 내에서 관심 영역의 크기를 추출하는 것도 가능하다.Although setting the ROI from the three-dimensional coordinates of the object has been described above, the pixel coordinates of the object are extracted in the image data from the direction of the object measured by the radar sensor 120, and the image is measured from the distance to the measured object. It is also possible to extract the size of the region of interest in the data.

차량 추출부(140)는 영상 데이터 중 관심 영역 내에서 차량을 추출한다. 본 실시예에서, 차량 추출부(140)는 영상 데이터 전체에 대하여 영상 처리를 수행하여 차량을 추출하는 것이 아니라, 영상 데이터 중 관심 영역 생성부(130)에 의해 생성된 관심 영역 내에서 영상 처리를 하여 차량을 추출한다. 즉, 레이더 센서(120)에서 추출된 물체를 기준으로 영상 처리를 하여 차량을 추출한다. 차량 추출부(140)에서 차량을 추출하는 방법의 상세는 후술될 것이다. The vehicle extractor 140 extracts a vehicle in the ROI of the image data. In the present embodiment, the vehicle extraction unit 140 does not extract the vehicle by performing image processing on the entire image data, but performs image processing within the ROI generated by the ROI generator 130 of the image data. To extract the vehicle. That is, the vehicle is extracted by image processing based on the object extracted by the radar sensor 120. Details of the method of extracting the vehicle from the vehicle extraction unit 140 will be described later.

차량 추적부(150)는 차량 추출부(140)에서 인식된 차량을 추적한다. 일 예로서, 차량 추적부(150)는 인식된 차량에 평균 이동 트래킹(Mean Shift Tracking, MST) 및 칼만 필터링(Kalman Filtering, KF)을 적용하여 차량을 추적할 수 있다. The vehicle tracking unit 150 tracks the vehicle recognized by the vehicle extraction unit 140. As an example, the vehicle tracking unit 150 may track a vehicle by applying mean shift tracking (MST) and Kalman filtering (KF) to the recognized vehicle.

도 2는 도 1의 차량 검출 시스템(100)에서 실행되는 본 발명의 일 실시예에 따른 차량 검출 방법의 흐름도이다.2 is a flowchart of a vehicle detection method according to an embodiment of the present invention executed in the vehicle detection system 100 of FIG.

도 2를 참조하면, 영상 센서(110)는 자차 주변을 촬영하여 영상 데이터를 생성한다(S210). 그리고, 레이더 센서(120)는 레이더를 이용하여 자차 주변의 물체를 감지한다(S220). 영상 센서(110)가 영상 데이터를 생성하는 S210 단계와 레이더 센서(120)가 물체를 감지하는 S220 단계는 S210, S220 단계의 순서로 실행되거나, S220, S210 단계의 순서로 실행되거나, 또는 동시에 실행될 수 있다. 레이더 센서(120)에 의하여 자차 주변의 물체의 좌표, 또는 물체의 방향 및 거리가 검출된다. 도 3은 레이더 센서(120)에 의해 감지된 물체에 대하여 자차를 기준으로 한 평면 좌표를 예시한다.Referring to FIG. 2, the image sensor 110 generates image data by capturing the surrounding vehicle (S210). The radar sensor 120 detects an object around the host vehicle using the radar (S220). Step S210 in which the image sensor 110 generates image data and step S220 in which the radar sensor 120 detects an object may be performed in the order of S210, S220, or may be executed in the order of S220, S210, or simultaneously. Can be. The radar sensor 120 detects the coordinates of the object around the host vehicle, or the direction and distance of the object. 3 illustrates plane coordinates based on the host vehicle with respect to an object detected by the radar sensor 120.

관심 영역 생성부(130)는 도 3에서 나타나는 바와 같은 물체의 인식 결과에 기초하여 영상 센서(110)에서 생성된 영상 데이터에 관심 영역을 설정한다(S230). 도 4는 도 3에서 검출된 물체의 좌표로부터 설정된 영상 데이터 내의 관심 영역을 도시한다. 관심 영역 생성부(130)는 물체의 좌표를 영상 데이터 내의 픽셀 데이터로 변환하여 영상 데이터 내에서 관심 영역의 위치를 추출한다. 또한, 관심 영역 생성부(130)는 자차로부터 물체까지의 거리에 기초하여 관심 영역의 넓이를 추출한다. 관심 영역의 넓이는, 예를 들면, 차량의 후면의 형상을 포함할 수 있도록 설정된다. 관심 영역의 넓이는 자차로부터 물체까지의 거리의 제곱에 반비례할 수 있다. 관심 영역은 물체의 좌표로부터 추출된 관심 영역의 위치를 기준으로 물체까지의 거리로부터 추출된 넓이를 가지고 설정될 수 있다. The ROI generator 130 sets an ROI on the image data generated by the image sensor 110 based on the recognition result of the object as shown in FIG. 3 (S230). FIG. 4 illustrates a region of interest in image data set from coordinates of the object detected in FIG. 3. The ROI generator 130 extracts the location of the ROI in the image data by converting the coordinates of the object into pixel data in the image data. Also, the ROI generator 130 extracts an area of the ROI based on the distance from the host vehicle to the object. The width of the region of interest is set to include, for example, the shape of the back of the vehicle. The width of the region of interest may be inversely proportional to the square of the distance from the host vehicle to the object. The ROI may be set to have an area extracted from the distance to the object based on the location of the ROI extracted from the coordinates of the object.

차량 추출부(140)는 관심 영역 내에서 차량을 추출한다. 차량 추출부(140)는 영상 데이터 전체가 아니라 설정된 관심 영역 내에서만 차량을 추출하여 차량 검출에 소요되는 시간이 감소할 수 있다.The vehicle extractor 140 extracts a vehicle in the ROI. The vehicle extracting unit 140 extracts the vehicle only within the set ROI, not the entire image data, thereby reducing the time required for detecting the vehicle.

차량 추출부(140)는 차량을 추출하기 위해 복수의 영상 처리 과정을 병렬로 처리할 수 있다.The vehicle extractor 140 may process a plurality of image processing processes in parallel to extract a vehicle.

차량 추출부(140)는 차량을 추출하기 위해 경계 탐지 알고리즘을 이용하여 차량의 하부 라인(bottom line)을 검출할 수 있다(S240). The vehicle extractor 140 may detect a bottom line of the vehicle using a boundary detection algorithm to extract the vehicle (S240).

도 5a는 영상 데이터 내에서 관심 영역의 예를 도시하고, 도 5b는 관심 영역 내에서 검출된 차량의 하부 라인의 예를 도시한다. 예를 들면, 도 5a에 도시된 관심 영역(501) 내에서 수직 방향으로 경계 탐지 알고리즘을 적용하여 도 5b에 도시된 차량의 하부 라인(502)을 검출할 수 있다. 예를 들면, 관심 영역(501) 내에서 수직 방향으로 배열된 픽셀들 중에서, 픽셀 값이 급격하게 변하는 픽셀을 경계로 검출할 수 있다. 경계로 검출된 픽셀들이 수평으로 연결된 경우, 이러한 픽셀들을 차량의 하부 라인(502)으로 검출할 수 있다. 차량의 하부 라인(502)을 검출하면서 하부 라인 검출의 정확도를 예측할 수 있는 수치(score1)가 계산될 수 있다. 예를 들면, 수치(score1)는 경계선 강도(edge strength)일 수 있다.FIG. 5A shows an example of the region of interest in the image data, and FIG. 5B shows an example of the lower line of the vehicle detected in the region of interest. For example, a boundary detection algorithm may be applied in the vertical direction in the ROI 501 illustrated in FIG. 5A to detect the lower line 502 of the vehicle illustrated in FIG. 5B. For example, among pixels arranged in the vertical direction in the region of interest 501, a pixel in which the pixel value rapidly changes may be detected as a boundary. When the pixels detected as the boundary are horizontally connected, the pixels may be detected as the lower line 502 of the vehicle. A numerical value score1 that can predict the accuracy of the lower line detection while detecting the lower line 502 of the vehicle can be calculated. For example, the score score1 may be edge strength.

또한, 차량 추출부(140)는 차량을 추출하기 위해 경계 탐지 알고리즘을 이용하여 차량의 측면 라인(side line)을 검출할 수 있다(S250).In addition, the vehicle extraction unit 140 may detect a side line of the vehicle using a boundary detection algorithm to extract the vehicle (S250).

도 6a는 영상 데이터 내에서 관심 영역의 예를 도시하고, 도 6b는 관심 영역 내에서 검출된 차량의 측면 라인의 예를 도시한다. 예를 들면, 도 6a에 도시된 관심 영역(601) 내에서 수평 방향으로 경계 탐지 알고리즘을 적용하여 도 6b에 도시된 차량의 측면 라인(602, 603)을 검출할 수 있다. 예를 들면, 관심 영역(601) 내에서 수평 방향으로 배열된 픽셀들 중에서, 픽셀 값이 급격하게 변하는 픽셀을 경계로 검출할 수 있다. 경계로 검출된 픽셀들이 수직으로 연결된 경우, 이러한 픽셀들을 차량의 측면 라인(602, 603)으로 검출할 수 있다. 차량의 측면 라인(602, 603)을 검출하면서 측면 라인 검출의 정확도를 예측할 수 있는 수치(score2)가 계산될 수 있다. 예를 들면, 수치(score2)는 경계선 강도일 수 있다.6A shows an example of a region of interest in the image data, and FIG. 6B shows an example of a side line of the vehicle detected in the region of interest. For example, a boundary detection algorithm may be applied in the horizontal direction in the ROI 601 illustrated in FIG. 6A to detect side lines 602 and 603 of the vehicle illustrated in FIG. 6B. For example, among pixels arranged in the horizontal direction in the region of interest 601, a pixel in which the pixel value rapidly changes may be detected as a boundary. When the pixels detected as the boundary are vertically connected, these pixels may be detected by the side lines 602 and 603 of the vehicle. While detecting the side lines 602 and 603 of the vehicle, a numerical value score2 that can predict the accuracy of the side line detection can be calculated. For example, the value score2 may be borderline intensity.

또한, 차량 추출부(150)는 차량을 추출하기 위해 대칭 탐지 알고리즘을 이용하여 차량의 중심 라인(center line)을 검출할 수 있다(S260).In addition, the vehicle extractor 150 may detect a center line of the vehicle by using a symmetric detection algorithm to extract the vehicle (S260).

도 7은 관심 영역 및 관심 영역 내에서 검출된 중심 라인을 도시한다. 예를 들면, 도 7에 도시된 관심 영역(701) 내에서 수평 방향으로 대칭 탐지 알고리즘을 적용하여 차량의 중심 라인(702)을 검출할 수 있다. 예를 들면, 관심 영역(701) 내에서 수평 방향으로 배열된 픽셀들의 픽셀 값의 분포로부터 이들이 대칭이 되는 중심 픽셀을 검출할 수 있다. 중심 픽셀들이 수직으로 연결된 선을 차량의 중심 라인(702)으로 검출할 수 있다. 차량의 중심 라인(702)을 검출하면서 중심 라인 검출의 정확도를 예측할 수 있는 수치(score3)가 계산될 수 있다. 예를 들면, 수치(score3)는 관심 영역 내에서 픽셀 값들의 대칭성을 나타내는 값일 수 있다.7 shows a region of interest and a center line detected within the region of interest. For example, the center line 702 of the vehicle may be detected by applying a symmetry detection algorithm in the horizontal direction in the ROI 701 illustrated in FIG. 7. For example, from the distribution of pixel values of the pixels arranged in the horizontal direction in the region of interest 701, the center pixel to which they are symmetric can be detected. The line in which the center pixels are vertically connected may be detected as the center line 702 of the vehicle. A value score3 that can predict the accuracy of the center line detection while detecting the center line 702 of the vehicle can be calculated. For example, the numerical score3 may be a value representing the symmetry of pixel values within the region of interest.

그리고, 차량 추출부(150)는 차량을 추출하기 위해 HoG(Histogram of Gradient) 정보를 이용한 SVM(Support Vector Machine) 분류기(classifier)를 통해 차량 유사도를 검출할 수 있다(S270).In addition, the vehicle extractor 150 may detect a vehicle similarity through a support vector machine (SVM) classifier using histogram of gradient (HoG) information to extract a vehicle (S270).

HoG는, 예를 들면, 대상인 영상을 복수의 영역으로 분할하고, 각 영역에 대해 휘도의 구배 강도 및 구배 방향을 산출하며, 이들의 구배 강도 및 구배 방향에 기초하여 작성될 수 있다. SVM 분류기는 벡터의 분포를 학습하고, 학습 과정에서 얻어진 확률 분포에 기초하여 의사를 결정한다(차량인지 여부를 결정한다). 본 실시예에서는 HoG 정보를 이용한 SVM 분류기에 대하여 기재하였지만, HoG가 아닌 다른 값을 이용하거나, SVM 분류기가 아닌 다른 알고리즘을 이용하여 차량 유사도를 검출하는 것도 가능하다. 차량 유사도를 검출하면서 차량 유사도를 나타내는 통계적인 수치(score4)가 계산될 수 있다.HoG can, for example, divide a target image into a plurality of regions, calculate the gradient intensity and the gradient direction of luminance for each region, and can be created based on the gradient intensity and the gradient direction thereof. The SVM classifier learns the distribution of the vector and makes a decision (determines whether it is a vehicle) based on the probability distribution obtained in the learning process. In the present embodiment, the SVM classifier using HoG information is described, but vehicle similarity may be detected by using a value other than HoG or by using an algorithm other than the SVM classifier. A statistical value score4 representing vehicle similarity may be calculated while detecting vehicle similarity.

상술한 예에서, 하부 라인 검출(S240), 측면 라인 검출(S250), 중심 라인 검출(S260) 및 차량 유사도 검출(S270)은 병렬로 실행되고, 각 검출의 결과는 다른 검출의 결과에 영향을 받지 않을 수 있다. 하부 라인 검출(S240), 측면 라인 검출(S250), 중심 라인 검출(S260) 및 차량 유사도 검출(S270)의 실행 순서는 어떠한 경우도 가능할 수 있다.In the above example, the lower line detection S240, the side line detection S250, the center line detection S260, and the vehicle similarity detection S270 are executed in parallel, and the results of each detection affect the results of other detections. You may not receive it. The execution order of the lower line detection S240, the side line detection S250, the center line detection S260, and the vehicle similarity detection S270 may be possible in any case.

상술한 예에서, 하부 라인 검출(S240), 측면 라인 검출(S250), 중심 라인 검출(S260) 및 차량 유사도 검출(S270)에 대하여 기재하였지만, 영상 데이터로부터 차량인지 여부를 판정할 수 있는 다양한 알고리즘이 더 포함될 수 있다.In the above-described example, the lower line detection (S240), the side line detection (S250), the center line detection (S260), and the vehicle similarity detection (S270) have been described, but various algorithms that can determine whether the vehicle is from the image data This may be further included.

상술한 예에서, 차량을 검출하기 위해 하부 라인 검출(S240), 측면 라인 검출(S250), 중심 라인 검출(S260) 및 차량 유사도 검출(S270) 모두를 실행하는 것으로 기재하였지만, 이들 중 하나 이상을 이용하여 차량을 검출할 수 있다.In the above example, it has been described that all of the lower line detection (S240), the side line detection (S250), the center line detection (S260), and the vehicle similarity detection (S270) are executed to detect the vehicle, but one or more of these are described. Vehicle can be detected.

다음으로, 수학식 1에서와 같이, 전술한 수치들(score1~score4) 각각에 가중치(weight1~weight4)를 곱하고, 이들을 합하여 최종 수치(final score)를 계산한다(S280).Next, as in Equation 1, each of the aforementioned values score1 to score4 is multiplied by the weights 1 to 4, and the sum is calculated to calculate a final score (S280).

[수학식 1][Equation 1]

final score=score1*weight1+score2*weight2+score3*weight3+score4*weight4final score = score1 * weight1 + score2 * weight2 + score3 * weight3 + score4 * weight4

각 가중치(weight1~weight4)는 각 차량 검출 방법(하부 라인 검출(S240), 측면 라인 검출(S250), 중심 라인 검출(S260), 및 차량 유사도 검출(S270))이 얼마나 오류 없이 정확하게 차량을 검출할 수 있는가에 따라 다를 수 있다. 예를 들면, 차량 유사도 검출 방법을 이용하는 경우 다른 방법에 비하여 정확하게 차량을 검출할 수 있고 오류가 적다면, 차량 유사도 검출 방법에서 계산되는 수치(score4)에 곱해지는 가중치(weight4)는 다른 검출 방법에서 계산되는 수치(score1~score3)에 곱해지는 가중치(weight1~weight3)에 비하여 큰 값을 가질 수 있다.Each weight (weight1 to weight4) detects the vehicle accurately and without error, how much each vehicle detection method (lower line detection (S240), side line detection (S250), center line detection (S260), and vehicle similarity detection (S270)). It depends on what you can do. For example, if the vehicle similarity detection method is used, the vehicle can be detected more accurately than other methods, and if there are few errors, the weight4 multiplied by the score4 calculated by the vehicle similarity detection method is different from the other detection methods. It may have a larger value than the weights (weight1 to weight3) multiplied by the calculated values score1 to score3.

구해진 최종 수치(final score)는 소정의 임계값(threshold)과 비교되어 각 관심 영역 내의 물체가 차량인지 여부가 최종적으로 판단된다(S290). The final score obtained is compared with a predetermined threshold to finally determine whether an object in each ROI is a vehicle (S290).

차량 추적부(150)는 검출된 차량에 평균 이동 트래킹(Mean Shift Tracking, MST) 및 칼만 필터링(Kalman Filtering, KF)을 적용하여 차량을 추적한다(S300). 그리고, 그 결과가 출력된다. 출력된 결과는 자차의 주변에 위치하는 차량의 정보를 포함하고, 이에 기초하여 자차에 장착된 차량의 충돌을 방지하는 시스템은 차량의 충돌이 예상되는 경우 차량을 제어하거나 운전자에게 경보를 줄 수 있다.The vehicle tracking unit 150 tracks the vehicle by applying Mean Shift Tracking (MST) and Kalman Filtering (KF) to the detected vehicle (S300). And the result is output. The output result includes information of vehicles located in the vicinity of the host vehicle, and based on the system, the system for preventing a collision of the vehicle mounted on the host vehicle may control the vehicle or alert the driver when a collision of the vehicle is expected. .

도 8a는 레이더 센서(120)로부터의 정보에 기초하여 영상 센서(110)에서 출력된 영상 데이터에 관심 영역을 설정한 예를 도시한다. 도 8b는 관심 영역에서 상술한 영상 처리를 거쳐 차량을 검출한 결과의 예를 도시한다. 도 8a 및 도 8b를 참조하면, 다수의 관심 영역에서 상술한 영상 처리를 통해 차량이 아닌 물체는 제외되고 차량만이 검출된 것을 볼 수 있다.
FIG. 8A illustrates an example in which a region of interest is set in image data output from the image sensor 110 based on information from the radar sensor 120. 8B illustrates an example of a result of detecting a vehicle through the above-described image processing in the ROI. 8A and 8B, it can be seen that only the vehicle is detected without the object other than the vehicle through the above-described image processing in the plurality of ROIs.

상술한 예에서 차량 여부는 복수의 영상 처리 과정의 결과에 기초하여 판단된다. 그러므로, 하나의 영상 처리 과정에서 오류가 발생하여 차량이 검출되지 않더라도 최종적으로는 차량으로 검출될 수 있다. 또는, 하나의 영상 처리 과정에서 오류가 발생하여 차량이 아닌 물체가 차량으로 검출되더라도 최종적으로는 차량이 아닌 것으로 판단될 수 있다. In the above-described example, it is determined whether the vehicle is based on the results of the plurality of image processing processes. Therefore, even if an error occurs in one image processing process and a vehicle is not detected, it can be finally detected as a vehicle. Alternatively, when an error occurs in one image processing process and an object other than the vehicle is detected as the vehicle, it may be finally determined that the vehicle is not the vehicle.

한편, 레이더만을 이용하는 장치는 정지한 물체는 정지 차량뿐만 아니라 가드레일, 차선 변경 금지봉, 표지판 등을 포함하기 때문에, 정지 물체는 모두 차량으로 인식하지 못하는 문제점을 갖는다. 그러나, 상술한 예에서는 물체가 정지하였는지 여부가 아니라 영상 처리를 통해 차량을 구분하여, 정지 차량도 검출할 수 있다.
On the other hand, since the apparatus using only the radar includes not only the stationary vehicle but also a guardrail, a lane change bar, a sign, and the like, the stationary object does not all have a problem of being recognized as a vehicle. However, in the above-described example, the vehicle may be classified by image processing instead of whether the object is stationary, and thus the vehicle may be detected.

또한, 이상에서 기재된 "포함하다", "구성하다" 또는 "가지다" 등의 용어는, 특별히 반대되는 기재가 없는 한, 해당 구성 요소가 내재될 수 있음을 의미하는 것이므로, 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것으로 해석되어야 한다. 기술적이거나 과학적인 용어를 포함한 모든 용어들은, 다르게 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥 상의 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.It is also to be understood that the terms such as " comprises, "" comprising," or "having ", as used herein, mean that a component can be implanted unless specifically stated to the contrary. But should be construed as including other elements. All terms, including technical and scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs, unless otherwise defined. Commonly used terms, such as predefined terms, should be interpreted to be consistent with the contextual meanings of the related art, and are not to be construed as ideal or overly formal, unless expressly defined to the contrary.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
The above description is merely illustrative of the technical idea of the present invention, and those skilled in the art to which the present invention pertains may make various modifications and changes without departing from the essential characteristics of the present invention. Therefore, the embodiments disclosed in the present invention are intended to illustrate rather than limit the scope of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be construed according to the following claims, and all technical ideas falling within the scope of the same shall be construed as falling within the scope of the present invention.

Claims (10)

자차 주변을 촬영하는 영상 센서;
상기 자차 주변의 물체를 감지하는 레이더 센서;
상기 레이더 센서에서 검출된 물체의 위치 정보에 기초하여 상기 영상 센서에서 촬영된 영상 데이터에 관심 영역(Region of Interest, ROI)을 설정하는 관심 영역 생성부; 및
상기 관심 영역 내의 영상 데이터에서 차량을 추출하는 차량 추출부를 포함하는 차량 검출 장치.
An image sensor for photographing the surrounding vehicle;
A radar sensor detecting an object around the host vehicle;
A region of interest generator configured to set a region of interest (ROI) on image data captured by the image sensor based on position information of the object detected by the radar sensor; And
And a vehicle extracting unit extracting a vehicle from the image data in the ROI.
제 1 항에 있어서,
상기 관심 영역 생성부는 상기 레이더 센서에서 검출된 물체의 위치 정보를 상기 영상 데이터의 픽셀 정보로 변환하여 관심 영역을 설정하는 것을 특징으로 하는 차량 검출 장치.
The method of claim 1,
And the ROI generator generates a ROI by converting position information of the object detected by the radar sensor into pixel information of the image data.
제 1 항에 있어서,
상기 차량 추출부는, 상기 관심 영역 내의 영상 데이터에서 경계 탐지를 통해 검출된 차량의 하부 라인, 상기 관심 영역 내의 영상 데이터에서 경계 탐지를 통해 검출된 차량의 측면 라인, 상기 관심 영역 내의 영상 데이터에서 대칭 탐지를 통해 검출된 차량의 중심 라인, 및 상기 관심 영역 내의 영상 데이터에서 그레디언트 히스토그램(Histogram of Gradient, HoG) 정보를 이용한 서포트 벡터 머신(Support Vector Machine, SVM)을 통해 검출된 차량 유사도 중 적어도 하나에 기초하여 차량을 추출하는 것을 특징으로 하는 차량 검출 장치.
The method of claim 1,
The vehicle extractor may include a lower line of the vehicle detected through boundary detection in the image data in the ROI, a side line of the vehicle detected through boundary detection in the image data in the ROI, and symmetry detection in the image data in the ROI. Based on at least one of a center line of the vehicle detected through a support vector and a vehicle similarity detected through a support vector machine (SVM) using gradient histogram (HG) information in the image data in the ROI. And detecting the vehicle.
제 3 항에 있어서,
상기 차량 추출부는, 상기 차량의 하부 라인의 검출 결과, 상기 측면 라인의 검출 결과, 상기 중심 라인의 검출 결과, 및 상기 차량 유사도 중 적어도 하나의 각각에 가중치를 곱한 값의 합과 임계값을 비교하여 차량을 추출하는 것을 특징으로 하는 차량 검출 장치.
The method of claim 3, wherein
The vehicle extracting unit may compare a sum and a threshold value of a value obtained by multiplying a weight by at least one of a detection result of a lower line of the vehicle, a detection result of the side line, a detection result of the center line, and the vehicle similarity. Vehicle detection apparatus, characterized in that for extracting the vehicle.
제 1 항에 있어서,
평균 이동 트래킹(Mean Shift Tracking, MST) 및 칼만 필터링(Kalman Filtering, KF)을 적용하여 상기 차량 추출부에서 추출된 차량을 추적하는 차량 추적부를 더 포함하는 것을 특징으로 하는 차량 검출 장치.
The method of claim 1,
And a vehicle tracking unit for tracking a vehicle extracted from the vehicle extraction unit by applying mean shift tracking (MST) and Kalman filtering (KF).
영상 센서를 이용하여 자차 주변을 촬영하는 단계;
레이더 센서를 이용하여 상기 자차 주변의 물체를 감지하는 단계;
상기 레이더 센서에서 검출된 물체의 위치 정보에 기초하여 상기 영상 센서에서 촬영된 영상 데이터에 관심 영역(Region of Interest, ROI)을 설정하는 단계; 및
상기 관심 영역 내의 영상 데이터에서 차량을 추출하는 단계를 포함하는 차량 검출 방법.
Photographing the surrounding vehicle using an image sensor;
Detecting an object around the host vehicle using a radar sensor;
Setting a region of interest (ROI) on image data captured by the image sensor based on position information of the object detected by the radar sensor; And
And extracting a vehicle from image data in the region of interest.
제 6 항에 있어서,
상기 관심 영역 설정 단계는 상기 레이더 센서에서 검출된 물체의 위치 정보를 상기 영상 데이터의 픽셀 정보로 변환하여 관심 영역을 설정하는 것을 특징으로 하는 차량 검출 방법.
The method according to claim 6,
The setting of the ROI may include converting the position information of the object detected by the radar sensor into pixel information of the image data and setting the ROI.
제 6 항에 있어서,
상기 차량 추출 단계는, 상기 관심 영역 내의 영상 데이터에서 경계 탐지를 통해 검출된 차량의 하부 라인, 상기 관심 영역 내의 영상 데이터에서 경계 탐지를 통해 검출된 차량의 측면 라인, 상기 관심 영역 내의 영상 데이터에서 대칭 탐지를 통해 검출된 차량의 중심 라인, 및 상기 관심 영역 내의 영상 데이터에서 그레디언트 히스토그램(Histogram of Gradient, HoG) 정보를 이용한 서포트 벡터 머신(Support Vector Machine, SVM)을 통해 검출된 차량 유사도 중 적어도 하나에 기초하여 차량을 추출하는 것을 특징으로 하는 차량 검출 방법.
The method according to claim 6,
The extracting of the vehicle may include a lower line of the vehicle detected through boundary detection in the image data in the ROI, a side line of the vehicle detected through boundary detection in the image data in the ROI, and symmetry in the image data in the ROI. At least one of a center line of the vehicle detected through the detection and a vehicle similarity detected through a support vector machine (SVM) using gradient histogram (HG) information in the image data in the ROI. And a vehicle is extracted on the basis of the vehicle.
제 8 항에 있어서,
상기 차량 추출 단계는, 상기 차량의 하부 라인의 검출 결과, 상기 측면 라인의 검출 결과, 상기 중심 라인의 검출 결과, 및 상기 차량 유사도 중 적어도 하나의 각각에 가중치를 곱한 값의 합과 임계값을 비교하여 차량을 추출하는 것을 특징으로 하는 차량 검출 방법.
The method of claim 8,
The extracting of the vehicle may include comparing a sum and a threshold value of a value obtained by multiplying a weight by at least one of a detection result of the lower line of the vehicle, a detection result of the side line, a detection result of the center line, and the vehicle similarity. Vehicle detection method characterized in that for extracting the vehicle.
제 6 항에 있어서,
평균 이동 트래킹(Mean Shift Tracking, MST) 및 칼만 필터링(Kalman Filtering, KF)을 적용하여 상기 차량 추출부에서 추출된 차량을 추적하는 단계를 더 포함하는 것을 특징으로 하는 차량 검출 방법.
The method according to claim 6,
And applying a mean shift tracking (MST) and Kalman filtering (KF) to track the vehicle extracted by the vehicle extracting unit.
KR1020110082586A 2011-08-19 2011-08-19 Vehicle detection device and method KR20130020151A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110082586A KR20130020151A (en) 2011-08-19 2011-08-19 Vehicle detection device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110082586A KR20130020151A (en) 2011-08-19 2011-08-19 Vehicle detection device and method

Publications (1)

Publication Number Publication Date
KR20130020151A true KR20130020151A (en) 2013-02-27

Family

ID=47898145

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110082586A KR20130020151A (en) 2011-08-19 2011-08-19 Vehicle detection device and method

Country Status (1)

Country Link
KR (1) KR20130020151A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101615992B1 (en) 2015-02-24 2016-04-29 한국항공대학교산학협력단 The method and apparatus for the extraction of feature point and tracking of the vehicle under driving environment by utilizing vision sensor
KR20160083619A (en) * 2014-12-31 2016-07-12 (주)베라시스 Vehicle Detection Method in ROI through Plural Detection Windows
KR20160087273A (en) * 2015-01-13 2016-07-21 현대모비스 주식회사 Apparatus for safety-driving of vehicle
KR20160101513A (en) * 2015-02-17 2016-08-25 현대자동차주식회사 Method for recognizing front vehicle or vehicle in front of front vehicle
KR101858583B1 (en) * 2017-10-11 2018-05-16 엘아이지넥스원 주식회사 Multi-Target Tracking Method using Millimeter Wave Seeker and IIR Image Seeker and Recording Medium Storing Computer Program thereof
CN108549864A (en) * 2018-04-12 2018-09-18 广州飒特红外股份有限公司 Area-of-interest filter method towards vehicle-mounted thermal imaging pedestrian detection and device
CN109215059A (en) * 2018-10-16 2019-01-15 西安建筑科技大学 Local data's correlating method of moving vehicle tracking in a kind of video of taking photo by plane
CN113296060A (en) * 2021-07-28 2021-08-24 四川斯艾普电子科技有限公司 MST radar final-stage transceiving system based on remote intelligent control
CN116910495A (en) * 2023-09-13 2023-10-20 江西五十铃汽车有限公司 Method and system for detecting off-line of automobile, readable storage medium and automobile

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160083619A (en) * 2014-12-31 2016-07-12 (주)베라시스 Vehicle Detection Method in ROI through Plural Detection Windows
KR20160087273A (en) * 2015-01-13 2016-07-21 현대모비스 주식회사 Apparatus for safety-driving of vehicle
KR20160101513A (en) * 2015-02-17 2016-08-25 현대자동차주식회사 Method for recognizing front vehicle or vehicle in front of front vehicle
KR101615992B1 (en) 2015-02-24 2016-04-29 한국항공대학교산학협력단 The method and apparatus for the extraction of feature point and tracking of the vehicle under driving environment by utilizing vision sensor
KR101858583B1 (en) * 2017-10-11 2018-05-16 엘아이지넥스원 주식회사 Multi-Target Tracking Method using Millimeter Wave Seeker and IIR Image Seeker and Recording Medium Storing Computer Program thereof
CN108549864B (en) * 2018-04-12 2020-04-10 广州飒特红外股份有限公司 Vehicle-mounted thermal imaging pedestrian detection-oriented region-of-interest filtering method and device
CN108549864A (en) * 2018-04-12 2018-09-18 广州飒特红外股份有限公司 Area-of-interest filter method towards vehicle-mounted thermal imaging pedestrian detection and device
WO2019196131A1 (en) * 2018-04-12 2019-10-17 广州飒特红外股份有限公司 Method and apparatus for filtering regions of interest for vehicle-mounted thermal imaging pedestrian detection
CN109215059A (en) * 2018-10-16 2019-01-15 西安建筑科技大学 Local data's correlating method of moving vehicle tracking in a kind of video of taking photo by plane
CN109215059B (en) * 2018-10-16 2021-06-29 西安建筑科技大学 Local data association method for tracking moving vehicle in aerial video
CN113296060A (en) * 2021-07-28 2021-08-24 四川斯艾普电子科技有限公司 MST radar final-stage transceiving system based on remote intelligent control
CN116910495A (en) * 2023-09-13 2023-10-20 江西五十铃汽车有限公司 Method and system for detecting off-line of automobile, readable storage medium and automobile
CN116910495B (en) * 2023-09-13 2024-01-26 江西五十铃汽车有限公司 Method and system for detecting off-line of automobile, readable storage medium and automobile

Similar Documents

Publication Publication Date Title
KR20130020151A (en) Vehicle detection device and method
CN111352110B (en) Method and device for processing radar data
US9429650B2 (en) Fusion of obstacle detection using radar and camera
JP5407898B2 (en) Object detection apparatus and program
US8610620B2 (en) Object detecting apparatus and object detecting method
US10101448B2 (en) On-board radar apparatus and region detection method
US10853963B2 (en) Object detection device, device control system, and medium
KR101176693B1 (en) Method and System for Detecting Lane by Using Distance Sensor
JP4985306B2 (en) Obstacle determination device and method, and vehicle equipped with an obstacle determination device
EP2717219B1 (en) Object detection device, object detection method, and object detection program
US9530063B2 (en) Lane-line recognition apparatus including a masking area setter to set a masking area ahead of a vehicle in an image captured by an image capture unit
JP6458651B2 (en) Road marking detection device and road marking detection method
WO2005086079A1 (en) Method and apparatus for differentiating pedestrians, vehicles, and other objects
JP6717240B2 (en) Target detection device
JP6569280B2 (en) Road marking detection device and road marking detection method
JP2017156219A (en) Tracking device, tracking method, and program
US20120242529A1 (en) Vehicle radar system
KR101427032B1 (en) Apparatus and method for recognizing pedestrian in vehicle, and apparatus and method for warning and preventing collision with pedestrian in vehicle using thereof
JP6713349B2 (en) Image processing device, external recognition device
US11054245B2 (en) Image processing apparatus, device control system, imaging apparatus, image processing method, and recording medium
KR101704635B1 (en) Method and apparatus for detecting target using radar and image raster data
JP2019164098A (en) Road surface shape estimation device, road surface shape estimation program, and moving body
JP2013069045A (en) Image recognition device, image recognition method, and image recognition program
KR101478072B1 (en) Method for Detecting Vehicle
US11983937B2 (en) Intersecting road estimation device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application