KR20130020151A - Vehicle detection device and method - Google Patents
Vehicle detection device and method Download PDFInfo
- Publication number
- KR20130020151A KR20130020151A KR1020110082586A KR20110082586A KR20130020151A KR 20130020151 A KR20130020151 A KR 20130020151A KR 1020110082586 A KR1020110082586 A KR 1020110082586A KR 20110082586 A KR20110082586 A KR 20110082586A KR 20130020151 A KR20130020151 A KR 20130020151A
- Authority
- KR
- South Korea
- Prior art keywords
- vehicle
- roi
- image data
- detected
- detection
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/584—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/277—Analysis of motion involving stochastic approaches, e.g. using Kalman filters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Electromagnetism (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Networks & Wireless Communication (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
본 발명은 차량 검출 장치 및 방법에 관한 것으로서, 레이더 인식 결과를 기초로 영상을 처리하여 차량을 검출하는 차량 검출 장치 및 방법에 관한 것이다.The present invention relates to a vehicle detection apparatus and method, and more particularly, to a vehicle detection apparatus and method for detecting a vehicle by processing an image based on radar recognition results.
자차의 전방에 위치하는 차량이 자차에 근접하여 충돌의 위험성이 있는 경우, 운전자에게 위험 경보를 주거나 자차의 속도 및 조향을 자동으로 제어하여 충돌을 방지하는 시스템이 제공되고 있다. 차량과의 충돌 가능성을 탐지하기 위해 영상 센서 또는 레이더 센서 등이 이용될 수 있다.When a vehicle located in front of the own vehicle is close to the own vehicle and there is a danger of collision, a system for preventing a collision by providing a warning to a driver or automatically controlling the speed and steering of the own vehicle is provided. An image sensor or a radar sensor may be used to detect a possibility of collision with the vehicle.
영상 센서를 이용하는 경우, 영상 센서에서 촬영된 영상 데이터에서 차량을 검출하기 위해 영상 내의 전 영역에 대하여 영상 처리를 수행하여야 할 필요가 있다. 이때 차량 검출을 위해 영상 처리를 수행하는데 소요되는 시간이 많아지게 되고, 실시간 처리에 어려울 수 있다.In the case of using an image sensor, it is necessary to perform image processing on all regions in the image in order to detect a vehicle from the image data captured by the image sensor. In this case, the time required to perform image processing for vehicle detection becomes large, and it may be difficult to process in real time.
레이더 센서를 이용하는 경우, 운동하는 물체는 차량으로 식별하고 가드레일, 차선 변경 금지봉, 표지판 등과 같은 정지한 물체는 차량이 아닌 것으로 식별하는 방식을 이용한다. 이러한 경우, 정지한 차량은 차량으로 식별되지 않고, 이후의 차량 추적에서 제외될 수 있다. When the radar sensor is used, a moving object is identified as a vehicle, and a stationary object such as a guard rail, a lane change bar, a sign, and the like is used as a vehicle. In this case, the stopped vehicle is not identified as a vehicle and may be excluded from subsequent vehicle tracking.
본 발명은 전술한 문제점을 극복하기 위해 안출된 것으로서, 빠른 시간 내에 차량을 정확하게 검출할 수 있는 차량 검출 장치 및 방법을 제공하는 것을 목적으로 한다.SUMMARY OF THE INVENTION The present invention has been made to overcome the above-described problems, and an object thereof is to provide a vehicle detecting apparatus and method capable of accurately detecting a vehicle within a short time.
상술한 목적을 달성하기 위해 본 발명의 일 실시예는, 자차 주변을 촬영하는 영상 센서; 상기 자차 주변의 물체를 감지하는 레이더 센서; 상기 레이더 센서에서 검출된 물체의 위치 정보에 기초하여 상기 영상 센서에서 촬영된 영상 데이터에 관심 영역(Region of Interest, ROI)을 설정하는 관심 영역 생성부; 및 상기 관심 영역 내의 영상 데이터에서 차량을 추출하는 차량 추출부를 포함하는 차량 검출 장치를 제공한다.In order to achieve the above object, an embodiment of the present invention, the image sensor for photographing the surrounding vehicle; A radar sensor detecting an object around the host vehicle; A region of interest generator configured to set a region of interest (ROI) on image data captured by the image sensor based on position information of the object detected by the radar sensor; And a vehicle extracting unit extracting a vehicle from the image data in the ROI.
또한, 본 발명의 다른 실시예는, 영상 센서를 이용하여 자차 주변을 촬영하는 단계; 레이더 센서를 이용하여 상기 자차 주변의 물체를 감지하는 단계; 상기 레이더 센서에서 검출된 물체의 위치 정보에 기초하여 상기 영상 센서에서 촬영된 영상 데이터에 관심 영역(Region of Interest, ROI)을 설정하는 단계; 및 상기 관심 영역 내의 영상 데이터에서 차량을 추출하는 단계를 포함하는 차량 검출 방법을 제공한다.In addition, another embodiment of the present invention, the step of photographing the surrounding vehicle using an image sensor; Detecting an object around the host vehicle using a radar sensor; Setting a region of interest (ROI) on image data captured by the image sensor based on position information of the object detected by the radar sensor; And extracting a vehicle from image data in the ROI.
상술한 본 발명에 따르면, 레이더 센서에서 감지된 물체를 기초로 설정된 관심 영역 내에서만 영상 처리를 수행하여 빠른 시간 내에 차량을 검출할 수 있다. 또한, 레이더 센서의 결과와 영상 센서의 결과를 모두 이용함으로써 차량을 정확하게 검출할 수 있다.According to the present invention described above, the vehicle can be detected in a short time by performing image processing only within the ROI set based on the object detected by the radar sensor. In addition, the vehicle can be detected accurately by using both the results of the radar sensor and the results of the image sensor.
도 1은 본 발명의 일 실시예에 따른 차량 검출 시스템의 블럭도이다.
도 2는 본 발명의 일 실시예에 따른 차량 검출 방법의 흐름도이다.
도 3은 레이더 센서에서 검출된 물체의 위치 정보를 예시하는 도면이다.
도 4는 영상 데이터에 설정된 관심 영역을 예시하는 도면이다.
도 5a 및 5b는 관심 영역 및 관심 영역에서 검출된 차량의 하부 라인을 예시하는 도면이다.
도 6a 및 6b는 관심 영역 및 관심 영역에서 검출된 차량의 측면 라인을 예시하는 도면이다.
도 7은 관심 영역 및 관심 영역에서 검출된 차량의 중심 라인을 예시하는 도면이다.
도 8a 및 8b는 영상 데이터에 설정된 관심 영역 및 차량 검출 결과를 예시하는 도면이다.1 is a block diagram of a vehicle detection system according to an embodiment of the present invention.
2 is a flowchart of a vehicle detection method according to an embodiment of the present invention.
3 is a diagram illustrating position information of an object detected by the radar sensor.
4 is a diagram illustrating an ROI set in image data.
5A and 5B illustrate a region of interest and a bottom line of a vehicle detected in the region of interest.
6A and 6B illustrate a region of interest and a side line of a vehicle detected in the region of interest.
7 is a diagram illustrating a center line of a vehicle detected in the ROI and the ROI.
8A and 8B are diagrams illustrating an ROI and a vehicle detection result set in image data.
이하, 본 발명의 일부 실시예들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.Hereinafter, some embodiments of the present invention will be described in detail with reference to exemplary drawings. In adding reference numerals to the components of each drawing, it should be noted that the same reference numerals are assigned to the same components as much as possible even though they are shown in different drawings. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear.
또한, 본 발명의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성 요소는 그 다른 구성요소에 직접적으로 연결되거나 또는 접속될 수 있지만, 각 구성 요소 사이에 또 다른 구성 요소가 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다.In addition, in describing the component of this invention, terms, such as 1st, 2nd, A, B, (a), (b), can be used. These terms are intended to distinguish the constituent elements from other constituent elements, and the terms do not limit the nature, order or order of the constituent elements. When a component is described as being "connected", "coupled", or "connected" to another component, the component may be directly connected to or connected to the other component, It should be understood that an element may be "connected," "coupled," or "connected."
도 1은 본 발명의 일 실시예에 따른 차량 검출 시스템(100)의 블럭도이다. 도 1에 도시되는 차량 검출 시스템(100)은 자차 내에 위치하는 시스템일 수 있다. 차량 검출 시스템(100)은 자차 주변의 차량을 검출하기 위한 시스템으로서, 차량의 충돌을 방지하는 시스템 또는 차량의 충돌 위험성을 운전자에게 알려주는 시스템, 예를 들면, CDM(Collision Damage Mitigation), SCC(Smart Cruise Control), FCW(Forward Collision Warning) 시스템의 일부일 수 있다. 1 is a block diagram of a vehicle detection system 100 according to an embodiment of the present invention. The vehicle detection system 100 shown in FIG. 1 may be a system located in a host vehicle. The vehicle detection system 100 is a system for detecting a vehicle around a host vehicle. The vehicle detection system 100 is a system for preventing a collision of a vehicle or a system for notifying a driver of a collision risk of a vehicle, for example, collision damage mitigation (CDM), SCC ( It may be part of a Smart Cruise Control (FCW), Forward Collision Warning (FCW) system.
도 1을 참조하면, 차량 검출 시스템(100)은 영상 센서(110), 레이더 센서(120), 관심 영역 생성부(130), 차량 추출부(140) 및 차량 추적부(150)를 포함한다.Referring to FIG. 1, the vehicle detection system 100 includes an
영상 센서(110)는 자차 주변의 영상을 촬영할 수 있는 카메라 장치이다. 영상 센서(110)는 자차 주변을 촬영하여 영상 데이터를 출력한다.The
레이더 센서(120)는 레이더를 이용하여 자차 주변의 물체를 탐지하는 장치이다. 레이더 센서(120)가 탐지하는 영역은 영상 센서(110)에서 촬영되는 영역과 유사할 수 있다. 레이더 센서(120)는 전파를 송신하는 송신 안테나부(121), 물체에 반사되어 수신되는 전파를 수신하는 수신 안테나부(122), 송신 안테나부(121)에서 송신되는 전파의 빔 방향 또는 수신 안테나부(122)에서 수신되는 전파의 빔 방향, 송신 전파와 수신 전파의 시간 차이에 기초하여 물체의 위치를 추출하는 위치 추출부(123), 송신 전파와 수신 전파의 주파수 차이에 기초하여 물체의 상대 속도를 추출하는 속도 추출부(124)를 포함할 수 있다.The
송신 안테나부(121) 및 수신 안테나부(122)는 각각 하나 이상의 안테나를 포함한다. 송신 안테나부(121) 및 수신 안테나부(122) 중 적어도 하나는 지향성 안테나(directional antenna) 장치로서, 수평 및 수직 방향으로 빔 분해능을 갖는다. 예를 들면, 송신 안테나부(121)는 지향성 안테나 장치이고 수신 안테나부(122)는 무지향성 안테나(omni-directional antenna) 장치로서, 송신 안테나부(121)로부터 송신되는 전파의 빔 방향에 의해 물체가 위치하는 수평 및 수직 방향을 알 수 있다. 다른 예를 들면, 송신 안테나부(121)는 무지향성 안테나 장치이고 수신 안테나부(122)는 지향성 안테나 장치로서, 수신 안테나(122)에 수신되는 전파의 빔 방향에 의해 물체가 위치하는 수평 및 수직 방향을 알 수 있다. The transmitting
송신 안테나부(121)는 펄스를 송신하고 수신 안테나부(122)는 물체에 반사된 펄스를 수신한다. 자차로부터 물체까지의 거리를 'R'이라고 하면, 송신 안테나부(121)에서 펄스가 송신된 시간과 수신 안테나부(122)에서 펄스가 수신된 시간의 차이(T)는 T=2R/c(c는 광속)이다. 그러므로, 송신 안테나부(121)에서 펄스가 송신된 시간과 수신 안테나부(122)에서 펄스가 수신된 시간의 차이로부터 물체까지의 거리를 알 수 있다.The transmitting
위치 추출부(123)는 물체가 위치하는 수평 및 수직 방향과 물체까지의 거리에 기초하여 물체의 위치를 추출한다. 물체의 위치는 자차의 위치를 기준으로 한 3차원 좌표로 표현될 수 있다. 또는, 물체의 위치는 물체의 수평 및 수직 방향과 물체까지의 거리로 표현될 수 있다.The
송신 안테나부(121)에서 송신하는 전파의 주파수와 수신 안테나부(122)에서 수신하는 전파의 주파수는 도플러 효과에 의하여 물체의 상대 속도에 따라 차이를 갖게 된다. 속도 추출부(124)는 송신 안테나부(121)에서 송신하는 전파의 주파수와 수신 안테나부(122)에서 수신하는 전파의 주파수 차이에 기초하여 자차에 대한 물체의 상대 속도를 추출한다. The frequency of the radio wave transmitted from the transmitting
관심 영역 생성부(130)는 레이더 센서(120)에서 추출된 물체의 위치 정보에 기초하여 영상 센서(110)에서 촬영된 영상 데이터에 관심 영역(Region of Interest, ROI)을 설정한다.The
레이더 센서(120)는 물체가 위치하는 방향과 물체의 거리를 통해 자차를 기준으로 물체의 3차원 좌표를 알 수 있다. 물체의 좌표를 이용하여 영상 센서(110)에 의해 생성된 영상 데이터에서 물체의 픽셀 좌표를 구할 수 있다. 이러한 물체의 픽셀 좌표를 기준으로 관심 영역이 설정될 수 있다. The
관심 영역은 적어도 차량의 후방 형상을 포함할 수 있다. 차량의 후방 형상이 차지하는 영역의 절대적인 넓이는 사전에 설정된 값일 수 있다. 영상 데이터에서 차량의 후방 형상이 차지하는 영역의 넓이는 자차로부터 차량까지의 거리의 제곱에 반비례한다. 그러므로, 관심 영역은 상술한 물체의 픽셀 좌표를 기준으로 자차로부터 물체까지의 거리에 반비례하는 넓이로 설정될 수 있다.The region of interest may comprise at least the rear shape of the vehicle. The absolute width of the area occupied by the rear shape of the vehicle may be a preset value. The area of the rear shape of the vehicle in the image data is inversely proportional to the square of the distance from the host vehicle to the vehicle. Therefore, the region of interest may be set to an area inversely proportional to the distance from the host vehicle to the object based on the pixel coordinates of the object described above.
상기에서 물체의 3차원 좌표로부터 관심 영역을 설정하는 것에 대하여 기재하였지만, 레이더 센서(120)에서 측정된 물체의 방향으로부터 영상 데이터 내에서 물체의 픽셀 좌표를 추출하고, 측정된 물체까지의 거리로부터 영상 데이터 내에서 관심 영역의 크기를 추출하는 것도 가능하다.Although setting the ROI from the three-dimensional coordinates of the object has been described above, the pixel coordinates of the object are extracted in the image data from the direction of the object measured by the
차량 추출부(140)는 영상 데이터 중 관심 영역 내에서 차량을 추출한다. 본 실시예에서, 차량 추출부(140)는 영상 데이터 전체에 대하여 영상 처리를 수행하여 차량을 추출하는 것이 아니라, 영상 데이터 중 관심 영역 생성부(130)에 의해 생성된 관심 영역 내에서 영상 처리를 하여 차량을 추출한다. 즉, 레이더 센서(120)에서 추출된 물체를 기준으로 영상 처리를 하여 차량을 추출한다. 차량 추출부(140)에서 차량을 추출하는 방법의 상세는 후술될 것이다. The
차량 추적부(150)는 차량 추출부(140)에서 인식된 차량을 추적한다. 일 예로서, 차량 추적부(150)는 인식된 차량에 평균 이동 트래킹(Mean Shift Tracking, MST) 및 칼만 필터링(Kalman Filtering, KF)을 적용하여 차량을 추적할 수 있다. The
도 2는 도 1의 차량 검출 시스템(100)에서 실행되는 본 발명의 일 실시예에 따른 차량 검출 방법의 흐름도이다.2 is a flowchart of a vehicle detection method according to an embodiment of the present invention executed in the vehicle detection system 100 of FIG.
도 2를 참조하면, 영상 센서(110)는 자차 주변을 촬영하여 영상 데이터를 생성한다(S210). 그리고, 레이더 센서(120)는 레이더를 이용하여 자차 주변의 물체를 감지한다(S220). 영상 센서(110)가 영상 데이터를 생성하는 S210 단계와 레이더 센서(120)가 물체를 감지하는 S220 단계는 S210, S220 단계의 순서로 실행되거나, S220, S210 단계의 순서로 실행되거나, 또는 동시에 실행될 수 있다. 레이더 센서(120)에 의하여 자차 주변의 물체의 좌표, 또는 물체의 방향 및 거리가 검출된다. 도 3은 레이더 센서(120)에 의해 감지된 물체에 대하여 자차를 기준으로 한 평면 좌표를 예시한다.Referring to FIG. 2, the
관심 영역 생성부(130)는 도 3에서 나타나는 바와 같은 물체의 인식 결과에 기초하여 영상 센서(110)에서 생성된 영상 데이터에 관심 영역을 설정한다(S230). 도 4는 도 3에서 검출된 물체의 좌표로부터 설정된 영상 데이터 내의 관심 영역을 도시한다. 관심 영역 생성부(130)는 물체의 좌표를 영상 데이터 내의 픽셀 데이터로 변환하여 영상 데이터 내에서 관심 영역의 위치를 추출한다. 또한, 관심 영역 생성부(130)는 자차로부터 물체까지의 거리에 기초하여 관심 영역의 넓이를 추출한다. 관심 영역의 넓이는, 예를 들면, 차량의 후면의 형상을 포함할 수 있도록 설정된다. 관심 영역의 넓이는 자차로부터 물체까지의 거리의 제곱에 반비례할 수 있다. 관심 영역은 물체의 좌표로부터 추출된 관심 영역의 위치를 기준으로 물체까지의 거리로부터 추출된 넓이를 가지고 설정될 수 있다. The
차량 추출부(140)는 관심 영역 내에서 차량을 추출한다. 차량 추출부(140)는 영상 데이터 전체가 아니라 설정된 관심 영역 내에서만 차량을 추출하여 차량 검출에 소요되는 시간이 감소할 수 있다.The
차량 추출부(140)는 차량을 추출하기 위해 복수의 영상 처리 과정을 병렬로 처리할 수 있다.The
차량 추출부(140)는 차량을 추출하기 위해 경계 탐지 알고리즘을 이용하여 차량의 하부 라인(bottom line)을 검출할 수 있다(S240). The
도 5a는 영상 데이터 내에서 관심 영역의 예를 도시하고, 도 5b는 관심 영역 내에서 검출된 차량의 하부 라인의 예를 도시한다. 예를 들면, 도 5a에 도시된 관심 영역(501) 내에서 수직 방향으로 경계 탐지 알고리즘을 적용하여 도 5b에 도시된 차량의 하부 라인(502)을 검출할 수 있다. 예를 들면, 관심 영역(501) 내에서 수직 방향으로 배열된 픽셀들 중에서, 픽셀 값이 급격하게 변하는 픽셀을 경계로 검출할 수 있다. 경계로 검출된 픽셀들이 수평으로 연결된 경우, 이러한 픽셀들을 차량의 하부 라인(502)으로 검출할 수 있다. 차량의 하부 라인(502)을 검출하면서 하부 라인 검출의 정확도를 예측할 수 있는 수치(score1)가 계산될 수 있다. 예를 들면, 수치(score1)는 경계선 강도(edge strength)일 수 있다.FIG. 5A shows an example of the region of interest in the image data, and FIG. 5B shows an example of the lower line of the vehicle detected in the region of interest. For example, a boundary detection algorithm may be applied in the vertical direction in the
또한, 차량 추출부(140)는 차량을 추출하기 위해 경계 탐지 알고리즘을 이용하여 차량의 측면 라인(side line)을 검출할 수 있다(S250).In addition, the
도 6a는 영상 데이터 내에서 관심 영역의 예를 도시하고, 도 6b는 관심 영역 내에서 검출된 차량의 측면 라인의 예를 도시한다. 예를 들면, 도 6a에 도시된 관심 영역(601) 내에서 수평 방향으로 경계 탐지 알고리즘을 적용하여 도 6b에 도시된 차량의 측면 라인(602, 603)을 검출할 수 있다. 예를 들면, 관심 영역(601) 내에서 수평 방향으로 배열된 픽셀들 중에서, 픽셀 값이 급격하게 변하는 픽셀을 경계로 검출할 수 있다. 경계로 검출된 픽셀들이 수직으로 연결된 경우, 이러한 픽셀들을 차량의 측면 라인(602, 603)으로 검출할 수 있다. 차량의 측면 라인(602, 603)을 검출하면서 측면 라인 검출의 정확도를 예측할 수 있는 수치(score2)가 계산될 수 있다. 예를 들면, 수치(score2)는 경계선 강도일 수 있다.6A shows an example of a region of interest in the image data, and FIG. 6B shows an example of a side line of the vehicle detected in the region of interest. For example, a boundary detection algorithm may be applied in the horizontal direction in the
또한, 차량 추출부(150)는 차량을 추출하기 위해 대칭 탐지 알고리즘을 이용하여 차량의 중심 라인(center line)을 검출할 수 있다(S260).In addition, the
도 7은 관심 영역 및 관심 영역 내에서 검출된 중심 라인을 도시한다. 예를 들면, 도 7에 도시된 관심 영역(701) 내에서 수평 방향으로 대칭 탐지 알고리즘을 적용하여 차량의 중심 라인(702)을 검출할 수 있다. 예를 들면, 관심 영역(701) 내에서 수평 방향으로 배열된 픽셀들의 픽셀 값의 분포로부터 이들이 대칭이 되는 중심 픽셀을 검출할 수 있다. 중심 픽셀들이 수직으로 연결된 선을 차량의 중심 라인(702)으로 검출할 수 있다. 차량의 중심 라인(702)을 검출하면서 중심 라인 검출의 정확도를 예측할 수 있는 수치(score3)가 계산될 수 있다. 예를 들면, 수치(score3)는 관심 영역 내에서 픽셀 값들의 대칭성을 나타내는 값일 수 있다.7 shows a region of interest and a center line detected within the region of interest. For example, the
그리고, 차량 추출부(150)는 차량을 추출하기 위해 HoG(Histogram of Gradient) 정보를 이용한 SVM(Support Vector Machine) 분류기(classifier)를 통해 차량 유사도를 검출할 수 있다(S270).In addition, the
HoG는, 예를 들면, 대상인 영상을 복수의 영역으로 분할하고, 각 영역에 대해 휘도의 구배 강도 및 구배 방향을 산출하며, 이들의 구배 강도 및 구배 방향에 기초하여 작성될 수 있다. SVM 분류기는 벡터의 분포를 학습하고, 학습 과정에서 얻어진 확률 분포에 기초하여 의사를 결정한다(차량인지 여부를 결정한다). 본 실시예에서는 HoG 정보를 이용한 SVM 분류기에 대하여 기재하였지만, HoG가 아닌 다른 값을 이용하거나, SVM 분류기가 아닌 다른 알고리즘을 이용하여 차량 유사도를 검출하는 것도 가능하다. 차량 유사도를 검출하면서 차량 유사도를 나타내는 통계적인 수치(score4)가 계산될 수 있다.HoG can, for example, divide a target image into a plurality of regions, calculate the gradient intensity and the gradient direction of luminance for each region, and can be created based on the gradient intensity and the gradient direction thereof. The SVM classifier learns the distribution of the vector and makes a decision (determines whether it is a vehicle) based on the probability distribution obtained in the learning process. In the present embodiment, the SVM classifier using HoG information is described, but vehicle similarity may be detected by using a value other than HoG or by using an algorithm other than the SVM classifier. A statistical value score4 representing vehicle similarity may be calculated while detecting vehicle similarity.
상술한 예에서, 하부 라인 검출(S240), 측면 라인 검출(S250), 중심 라인 검출(S260) 및 차량 유사도 검출(S270)은 병렬로 실행되고, 각 검출의 결과는 다른 검출의 결과에 영향을 받지 않을 수 있다. 하부 라인 검출(S240), 측면 라인 검출(S250), 중심 라인 검출(S260) 및 차량 유사도 검출(S270)의 실행 순서는 어떠한 경우도 가능할 수 있다.In the above example, the lower line detection S240, the side line detection S250, the center line detection S260, and the vehicle similarity detection S270 are executed in parallel, and the results of each detection affect the results of other detections. You may not receive it. The execution order of the lower line detection S240, the side line detection S250, the center line detection S260, and the vehicle similarity detection S270 may be possible in any case.
상술한 예에서, 하부 라인 검출(S240), 측면 라인 검출(S250), 중심 라인 검출(S260) 및 차량 유사도 검출(S270)에 대하여 기재하였지만, 영상 데이터로부터 차량인지 여부를 판정할 수 있는 다양한 알고리즘이 더 포함될 수 있다.In the above-described example, the lower line detection (S240), the side line detection (S250), the center line detection (S260), and the vehicle similarity detection (S270) have been described, but various algorithms that can determine whether the vehicle is from the image data This may be further included.
상술한 예에서, 차량을 검출하기 위해 하부 라인 검출(S240), 측면 라인 검출(S250), 중심 라인 검출(S260) 및 차량 유사도 검출(S270) 모두를 실행하는 것으로 기재하였지만, 이들 중 하나 이상을 이용하여 차량을 검출할 수 있다.In the above example, it has been described that all of the lower line detection (S240), the side line detection (S250), the center line detection (S260), and the vehicle similarity detection (S270) are executed to detect the vehicle, but one or more of these are described. Vehicle can be detected.
다음으로, 수학식 1에서와 같이, 전술한 수치들(score1~score4) 각각에 가중치(weight1~weight4)를 곱하고, 이들을 합하여 최종 수치(final score)를 계산한다(S280).Next, as in
[수학식 1][Equation 1]
final score=score1*weight1+score2*weight2+score3*weight3+score4*weight4final score = score1 * weight1 + score2 * weight2 + score3 * weight3 + score4 * weight4
각 가중치(weight1~weight4)는 각 차량 검출 방법(하부 라인 검출(S240), 측면 라인 검출(S250), 중심 라인 검출(S260), 및 차량 유사도 검출(S270))이 얼마나 오류 없이 정확하게 차량을 검출할 수 있는가에 따라 다를 수 있다. 예를 들면, 차량 유사도 검출 방법을 이용하는 경우 다른 방법에 비하여 정확하게 차량을 검출할 수 있고 오류가 적다면, 차량 유사도 검출 방법에서 계산되는 수치(score4)에 곱해지는 가중치(weight4)는 다른 검출 방법에서 계산되는 수치(score1~score3)에 곱해지는 가중치(weight1~weight3)에 비하여 큰 값을 가질 수 있다.Each weight (weight1 to weight4) detects the vehicle accurately and without error, how much each vehicle detection method (lower line detection (S240), side line detection (S250), center line detection (S260), and vehicle similarity detection (S270)). It depends on what you can do. For example, if the vehicle similarity detection method is used, the vehicle can be detected more accurately than other methods, and if there are few errors, the weight4 multiplied by the score4 calculated by the vehicle similarity detection method is different from the other detection methods. It may have a larger value than the weights (weight1 to weight3) multiplied by the calculated values score1 to score3.
구해진 최종 수치(final score)는 소정의 임계값(threshold)과 비교되어 각 관심 영역 내의 물체가 차량인지 여부가 최종적으로 판단된다(S290). The final score obtained is compared with a predetermined threshold to finally determine whether an object in each ROI is a vehicle (S290).
차량 추적부(150)는 검출된 차량에 평균 이동 트래킹(Mean Shift Tracking, MST) 및 칼만 필터링(Kalman Filtering, KF)을 적용하여 차량을 추적한다(S300). 그리고, 그 결과가 출력된다. 출력된 결과는 자차의 주변에 위치하는 차량의 정보를 포함하고, 이에 기초하여 자차에 장착된 차량의 충돌을 방지하는 시스템은 차량의 충돌이 예상되는 경우 차량을 제어하거나 운전자에게 경보를 줄 수 있다.The
도 8a는 레이더 센서(120)로부터의 정보에 기초하여 영상 센서(110)에서 출력된 영상 데이터에 관심 영역을 설정한 예를 도시한다. 도 8b는 관심 영역에서 상술한 영상 처리를 거쳐 차량을 검출한 결과의 예를 도시한다. 도 8a 및 도 8b를 참조하면, 다수의 관심 영역에서 상술한 영상 처리를 통해 차량이 아닌 물체는 제외되고 차량만이 검출된 것을 볼 수 있다.
FIG. 8A illustrates an example in which a region of interest is set in image data output from the
상술한 예에서 차량 여부는 복수의 영상 처리 과정의 결과에 기초하여 판단된다. 그러므로, 하나의 영상 처리 과정에서 오류가 발생하여 차량이 검출되지 않더라도 최종적으로는 차량으로 검출될 수 있다. 또는, 하나의 영상 처리 과정에서 오류가 발생하여 차량이 아닌 물체가 차량으로 검출되더라도 최종적으로는 차량이 아닌 것으로 판단될 수 있다. In the above-described example, it is determined whether the vehicle is based on the results of the plurality of image processing processes. Therefore, even if an error occurs in one image processing process and a vehicle is not detected, it can be finally detected as a vehicle. Alternatively, when an error occurs in one image processing process and an object other than the vehicle is detected as the vehicle, it may be finally determined that the vehicle is not the vehicle.
한편, 레이더만을 이용하는 장치는 정지한 물체는 정지 차량뿐만 아니라 가드레일, 차선 변경 금지봉, 표지판 등을 포함하기 때문에, 정지 물체는 모두 차량으로 인식하지 못하는 문제점을 갖는다. 그러나, 상술한 예에서는 물체가 정지하였는지 여부가 아니라 영상 처리를 통해 차량을 구분하여, 정지 차량도 검출할 수 있다.
On the other hand, since the apparatus using only the radar includes not only the stationary vehicle but also a guardrail, a lane change bar, a sign, and the like, the stationary object does not all have a problem of being recognized as a vehicle. However, in the above-described example, the vehicle may be classified by image processing instead of whether the object is stationary, and thus the vehicle may be detected.
또한, 이상에서 기재된 "포함하다", "구성하다" 또는 "가지다" 등의 용어는, 특별히 반대되는 기재가 없는 한, 해당 구성 요소가 내재될 수 있음을 의미하는 것이므로, 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것으로 해석되어야 한다. 기술적이거나 과학적인 용어를 포함한 모든 용어들은, 다르게 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥 상의 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.It is also to be understood that the terms such as " comprises, "" comprising," or "having ", as used herein, mean that a component can be implanted unless specifically stated to the contrary. But should be construed as including other elements. All terms, including technical and scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs, unless otherwise defined. Commonly used terms, such as predefined terms, should be interpreted to be consistent with the contextual meanings of the related art, and are not to be construed as ideal or overly formal, unless expressly defined to the contrary.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
The above description is merely illustrative of the technical idea of the present invention, and those skilled in the art to which the present invention pertains may make various modifications and changes without departing from the essential characteristics of the present invention. Therefore, the embodiments disclosed in the present invention are intended to illustrate rather than limit the scope of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be construed according to the following claims, and all technical ideas falling within the scope of the same shall be construed as falling within the scope of the present invention.
Claims (10)
상기 자차 주변의 물체를 감지하는 레이더 센서;
상기 레이더 센서에서 검출된 물체의 위치 정보에 기초하여 상기 영상 센서에서 촬영된 영상 데이터에 관심 영역(Region of Interest, ROI)을 설정하는 관심 영역 생성부; 및
상기 관심 영역 내의 영상 데이터에서 차량을 추출하는 차량 추출부를 포함하는 차량 검출 장치.An image sensor for photographing the surrounding vehicle;
A radar sensor detecting an object around the host vehicle;
A region of interest generator configured to set a region of interest (ROI) on image data captured by the image sensor based on position information of the object detected by the radar sensor; And
And a vehicle extracting unit extracting a vehicle from the image data in the ROI.
상기 관심 영역 생성부는 상기 레이더 센서에서 검출된 물체의 위치 정보를 상기 영상 데이터의 픽셀 정보로 변환하여 관심 영역을 설정하는 것을 특징으로 하는 차량 검출 장치.The method of claim 1,
And the ROI generator generates a ROI by converting position information of the object detected by the radar sensor into pixel information of the image data.
상기 차량 추출부는, 상기 관심 영역 내의 영상 데이터에서 경계 탐지를 통해 검출된 차량의 하부 라인, 상기 관심 영역 내의 영상 데이터에서 경계 탐지를 통해 검출된 차량의 측면 라인, 상기 관심 영역 내의 영상 데이터에서 대칭 탐지를 통해 검출된 차량의 중심 라인, 및 상기 관심 영역 내의 영상 데이터에서 그레디언트 히스토그램(Histogram of Gradient, HoG) 정보를 이용한 서포트 벡터 머신(Support Vector Machine, SVM)을 통해 검출된 차량 유사도 중 적어도 하나에 기초하여 차량을 추출하는 것을 특징으로 하는 차량 검출 장치.The method of claim 1,
The vehicle extractor may include a lower line of the vehicle detected through boundary detection in the image data in the ROI, a side line of the vehicle detected through boundary detection in the image data in the ROI, and symmetry detection in the image data in the ROI. Based on at least one of a center line of the vehicle detected through a support vector and a vehicle similarity detected through a support vector machine (SVM) using gradient histogram (HG) information in the image data in the ROI. And detecting the vehicle.
상기 차량 추출부는, 상기 차량의 하부 라인의 검출 결과, 상기 측면 라인의 검출 결과, 상기 중심 라인의 검출 결과, 및 상기 차량 유사도 중 적어도 하나의 각각에 가중치를 곱한 값의 합과 임계값을 비교하여 차량을 추출하는 것을 특징으로 하는 차량 검출 장치.The method of claim 3, wherein
The vehicle extracting unit may compare a sum and a threshold value of a value obtained by multiplying a weight by at least one of a detection result of a lower line of the vehicle, a detection result of the side line, a detection result of the center line, and the vehicle similarity. Vehicle detection apparatus, characterized in that for extracting the vehicle.
평균 이동 트래킹(Mean Shift Tracking, MST) 및 칼만 필터링(Kalman Filtering, KF)을 적용하여 상기 차량 추출부에서 추출된 차량을 추적하는 차량 추적부를 더 포함하는 것을 특징으로 하는 차량 검출 장치.The method of claim 1,
And a vehicle tracking unit for tracking a vehicle extracted from the vehicle extraction unit by applying mean shift tracking (MST) and Kalman filtering (KF).
레이더 센서를 이용하여 상기 자차 주변의 물체를 감지하는 단계;
상기 레이더 센서에서 검출된 물체의 위치 정보에 기초하여 상기 영상 센서에서 촬영된 영상 데이터에 관심 영역(Region of Interest, ROI)을 설정하는 단계; 및
상기 관심 영역 내의 영상 데이터에서 차량을 추출하는 단계를 포함하는 차량 검출 방법.Photographing the surrounding vehicle using an image sensor;
Detecting an object around the host vehicle using a radar sensor;
Setting a region of interest (ROI) on image data captured by the image sensor based on position information of the object detected by the radar sensor; And
And extracting a vehicle from image data in the region of interest.
상기 관심 영역 설정 단계는 상기 레이더 센서에서 검출된 물체의 위치 정보를 상기 영상 데이터의 픽셀 정보로 변환하여 관심 영역을 설정하는 것을 특징으로 하는 차량 검출 방법.The method according to claim 6,
The setting of the ROI may include converting the position information of the object detected by the radar sensor into pixel information of the image data and setting the ROI.
상기 차량 추출 단계는, 상기 관심 영역 내의 영상 데이터에서 경계 탐지를 통해 검출된 차량의 하부 라인, 상기 관심 영역 내의 영상 데이터에서 경계 탐지를 통해 검출된 차량의 측면 라인, 상기 관심 영역 내의 영상 데이터에서 대칭 탐지를 통해 검출된 차량의 중심 라인, 및 상기 관심 영역 내의 영상 데이터에서 그레디언트 히스토그램(Histogram of Gradient, HoG) 정보를 이용한 서포트 벡터 머신(Support Vector Machine, SVM)을 통해 검출된 차량 유사도 중 적어도 하나에 기초하여 차량을 추출하는 것을 특징으로 하는 차량 검출 방법.The method according to claim 6,
The extracting of the vehicle may include a lower line of the vehicle detected through boundary detection in the image data in the ROI, a side line of the vehicle detected through boundary detection in the image data in the ROI, and symmetry in the image data in the ROI. At least one of a center line of the vehicle detected through the detection and a vehicle similarity detected through a support vector machine (SVM) using gradient histogram (HG) information in the image data in the ROI. And a vehicle is extracted on the basis of the vehicle.
상기 차량 추출 단계는, 상기 차량의 하부 라인의 검출 결과, 상기 측면 라인의 검출 결과, 상기 중심 라인의 검출 결과, 및 상기 차량 유사도 중 적어도 하나의 각각에 가중치를 곱한 값의 합과 임계값을 비교하여 차량을 추출하는 것을 특징으로 하는 차량 검출 방법.The method of claim 8,
The extracting of the vehicle may include comparing a sum and a threshold value of a value obtained by multiplying a weight by at least one of a detection result of the lower line of the vehicle, a detection result of the side line, a detection result of the center line, and the vehicle similarity. Vehicle detection method characterized in that for extracting the vehicle.
평균 이동 트래킹(Mean Shift Tracking, MST) 및 칼만 필터링(Kalman Filtering, KF)을 적용하여 상기 차량 추출부에서 추출된 차량을 추적하는 단계를 더 포함하는 것을 특징으로 하는 차량 검출 방법.
The method according to claim 6,
And applying a mean shift tracking (MST) and Kalman filtering (KF) to track the vehicle extracted by the vehicle extracting unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110082586A KR20130020151A (en) | 2011-08-19 | 2011-08-19 | Vehicle detection device and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110082586A KR20130020151A (en) | 2011-08-19 | 2011-08-19 | Vehicle detection device and method |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20130020151A true KR20130020151A (en) | 2013-02-27 |
Family
ID=47898145
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020110082586A KR20130020151A (en) | 2011-08-19 | 2011-08-19 | Vehicle detection device and method |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20130020151A (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101615992B1 (en) | 2015-02-24 | 2016-04-29 | 한국항공대학교산학협력단 | The method and apparatus for the extraction of feature point and tracking of the vehicle under driving environment by utilizing vision sensor |
KR20160083619A (en) * | 2014-12-31 | 2016-07-12 | (주)베라시스 | Vehicle Detection Method in ROI through Plural Detection Windows |
KR20160087273A (en) * | 2015-01-13 | 2016-07-21 | 현대모비스 주식회사 | Apparatus for safety-driving of vehicle |
KR20160101513A (en) * | 2015-02-17 | 2016-08-25 | 현대자동차주식회사 | Method for recognizing front vehicle or vehicle in front of front vehicle |
KR101858583B1 (en) * | 2017-10-11 | 2018-05-16 | 엘아이지넥스원 주식회사 | Multi-Target Tracking Method using Millimeter Wave Seeker and IIR Image Seeker and Recording Medium Storing Computer Program thereof |
CN108549864A (en) * | 2018-04-12 | 2018-09-18 | 广州飒特红外股份有限公司 | Area-of-interest filter method towards vehicle-mounted thermal imaging pedestrian detection and device |
CN109215059A (en) * | 2018-10-16 | 2019-01-15 | 西安建筑科技大学 | Local data's correlating method of moving vehicle tracking in a kind of video of taking photo by plane |
CN113296060A (en) * | 2021-07-28 | 2021-08-24 | 四川斯艾普电子科技有限公司 | MST radar final-stage transceiving system based on remote intelligent control |
CN116910495A (en) * | 2023-09-13 | 2023-10-20 | 江西五十铃汽车有限公司 | Method and system for detecting off-line of automobile, readable storage medium and automobile |
-
2011
- 2011-08-19 KR KR1020110082586A patent/KR20130020151A/en not_active Application Discontinuation
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160083619A (en) * | 2014-12-31 | 2016-07-12 | (주)베라시스 | Vehicle Detection Method in ROI through Plural Detection Windows |
KR20160087273A (en) * | 2015-01-13 | 2016-07-21 | 현대모비스 주식회사 | Apparatus for safety-driving of vehicle |
KR20160101513A (en) * | 2015-02-17 | 2016-08-25 | 현대자동차주식회사 | Method for recognizing front vehicle or vehicle in front of front vehicle |
KR101615992B1 (en) | 2015-02-24 | 2016-04-29 | 한국항공대학교산학협력단 | The method and apparatus for the extraction of feature point and tracking of the vehicle under driving environment by utilizing vision sensor |
KR101858583B1 (en) * | 2017-10-11 | 2018-05-16 | 엘아이지넥스원 주식회사 | Multi-Target Tracking Method using Millimeter Wave Seeker and IIR Image Seeker and Recording Medium Storing Computer Program thereof |
CN108549864B (en) * | 2018-04-12 | 2020-04-10 | 广州飒特红外股份有限公司 | Vehicle-mounted thermal imaging pedestrian detection-oriented region-of-interest filtering method and device |
CN108549864A (en) * | 2018-04-12 | 2018-09-18 | 广州飒特红外股份有限公司 | Area-of-interest filter method towards vehicle-mounted thermal imaging pedestrian detection and device |
WO2019196131A1 (en) * | 2018-04-12 | 2019-10-17 | 广州飒特红外股份有限公司 | Method and apparatus for filtering regions of interest for vehicle-mounted thermal imaging pedestrian detection |
CN109215059A (en) * | 2018-10-16 | 2019-01-15 | 西安建筑科技大学 | Local data's correlating method of moving vehicle tracking in a kind of video of taking photo by plane |
CN109215059B (en) * | 2018-10-16 | 2021-06-29 | 西安建筑科技大学 | Local data association method for tracking moving vehicle in aerial video |
CN113296060A (en) * | 2021-07-28 | 2021-08-24 | 四川斯艾普电子科技有限公司 | MST radar final-stage transceiving system based on remote intelligent control |
CN116910495A (en) * | 2023-09-13 | 2023-10-20 | 江西五十铃汽车有限公司 | Method and system for detecting off-line of automobile, readable storage medium and automobile |
CN116910495B (en) * | 2023-09-13 | 2024-01-26 | 江西五十铃汽车有限公司 | Method and system for detecting off-line of automobile, readable storage medium and automobile |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20130020151A (en) | Vehicle detection device and method | |
CN111352110B (en) | Method and device for processing radar data | |
US9429650B2 (en) | Fusion of obstacle detection using radar and camera | |
JP5407898B2 (en) | Object detection apparatus and program | |
US8610620B2 (en) | Object detecting apparatus and object detecting method | |
US10101448B2 (en) | On-board radar apparatus and region detection method | |
US10853963B2 (en) | Object detection device, device control system, and medium | |
KR101176693B1 (en) | Method and System for Detecting Lane by Using Distance Sensor | |
JP4985306B2 (en) | Obstacle determination device and method, and vehicle equipped with an obstacle determination device | |
EP2717219B1 (en) | Object detection device, object detection method, and object detection program | |
US9530063B2 (en) | Lane-line recognition apparatus including a masking area setter to set a masking area ahead of a vehicle in an image captured by an image capture unit | |
JP6458651B2 (en) | Road marking detection device and road marking detection method | |
WO2005086079A1 (en) | Method and apparatus for differentiating pedestrians, vehicles, and other objects | |
JP6717240B2 (en) | Target detection device | |
JP6569280B2 (en) | Road marking detection device and road marking detection method | |
JP2017156219A (en) | Tracking device, tracking method, and program | |
US20120242529A1 (en) | Vehicle radar system | |
KR101427032B1 (en) | Apparatus and method for recognizing pedestrian in vehicle, and apparatus and method for warning and preventing collision with pedestrian in vehicle using thereof | |
JP6713349B2 (en) | Image processing device, external recognition device | |
US11054245B2 (en) | Image processing apparatus, device control system, imaging apparatus, image processing method, and recording medium | |
KR101704635B1 (en) | Method and apparatus for detecting target using radar and image raster data | |
JP2019164098A (en) | Road surface shape estimation device, road surface shape estimation program, and moving body | |
JP2013069045A (en) | Image recognition device, image recognition method, and image recognition program | |
KR101478072B1 (en) | Method for Detecting Vehicle | |
US11983937B2 (en) | Intersecting road estimation device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E601 | Decision to refuse application |