KR101478072B1 - Method for Detecting Vehicle - Google Patents

Method for Detecting Vehicle Download PDF

Info

Publication number
KR101478072B1
KR101478072B1 KR20100059426A KR20100059426A KR101478072B1 KR 101478072 B1 KR101478072 B1 KR 101478072B1 KR 20100059426 A KR20100059426 A KR 20100059426A KR 20100059426 A KR20100059426 A KR 20100059426A KR 101478072 B1 KR101478072 B1 KR 101478072B1
Authority
KR
South Korea
Prior art keywords
vehicle
candidate group
image
points
generated
Prior art date
Application number
KR20100059426A
Other languages
Korean (ko)
Other versions
KR20110139381A (en
Inventor
조영하
Original Assignee
주식회사 만도
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 만도 filed Critical 주식회사 만도
Priority to KR20100059426A priority Critical patent/KR101478072B1/en
Publication of KR20110139381A publication Critical patent/KR20110139381A/en
Application granted granted Critical
Publication of KR101478072B1 publication Critical patent/KR101478072B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R2021/01013Means for detecting collision, impending collision or roll-over
    • B60R2021/01027Safing sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • B60R2021/01306Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over monitoring vehicle inclination
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2300/00Purposes or special features of road vehicle drive control systems
    • B60Y2300/08Predicting or avoiding probable or impending collision
    • B60Y2300/095Predicting travel path or likelihood of collision
    • B60Y2300/0952Predicting travel path or likelihood of collision the prediction being responsive to vehicle dynamic parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2400/00Special features of vehicle units
    • B60Y2400/30Sensors
    • B60Y2400/301Sensors for position or displacement
    • B60Y2400/3015Optical cameras

Abstract

주행 중인 자 차량(ego vehicle) 내에 장착된 단안 카메라(momocular camera)로 촬영된 영상으로부터 전방 또는 후방에서 주행 중인 차량을 검출하는 차량 검출 방법을 개시한다. 차량 검출 방법은 카메라로부터 촬영된 영상을 입력 받고; 입력된 영상 내에서 차량 검출을 위한 관심 영역을 설정하고; 설정된 관심 영역 내에서 산출된 지면 히스토그램을 이용하여 차량의 밑면 후보군을 생성하고; 생성된 차량의 밑면 후보군을 이용하여 차량의 옆면 후보군을 생성하고; 생성된 차량의 밑변 후보군과 옆면 후보군을 결합하여 차량 후보군을 생성하고; 생성된 차량 후보군에 약 분류기 및 강 분류기를 적용하여 실제 차량 여부를 검출함으로써, 차량 검출 성능의 정확도를 높일 수 있고, 기존의 전방 충돌 경고 시스템과 비교 시 센서의 개수를 감소시켜 시스템의 단순화를 꾀할 수 있다.Disclosed is a vehicle detection method for detecting a vehicle traveling in a forward or backward direction from an image photographed with a momocular camera mounted in a running ego vehicle. A vehicle detection method includes: receiving a photographed image from a camera; Setting an area of interest for vehicle detection in the input image; Generating a bottom candidate group of the vehicle using the ground surface histogram calculated within the set region of interest; Generating a side face candidate group of the vehicle using the generated bottom face candidate group of the vehicle; Generating a vehicle candidate group by combining the base candidate group and the side face candidate group of the generated vehicle; By applying a weak classifier and a strong classifier to the generated candidate vehicle group, it is possible to improve the accuracy of the vehicle detection performance by detecting whether the vehicle is an actual vehicle, and to simplify the system by reducing the number of sensors in comparison with the existing front collision warning system .

Description

차량 검출 방법{Method for Detecting Vehicle}[0001] The present invention relates to a method for detecting a vehicle,

본 발명은 주행 중인 자 차량(ego vehicle) 내에 장착된 단안 카메라(momocular camera)로 촬영된 영상으로부터 전방 또는 후방에서 주행 중인 차량을 검출하는 차량 검출 방법에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a vehicle detection method for detecting a vehicle running in front or rear from an image photographed by a momocular camera mounted in a running ego vehicle.

차량의 운행 시 운전자의 부주의나 시계의 불량 등으로 앞에서 주행하는 차량을 추돌하는 경우가 빈번하게 발생하고 있다. 즉, 장거리 운전 시, 우천 시, 야간 운전 시 시계 불량 및 운전자의 집중력 부족 등으로 인한 차선 이탈과 주행 차량과의 추돌에 의한 교통 사고가 끊임없이 발생하고 있다. 이와 같은 추돌을 방지하기 위하여 차량 검출을 통해 차량 간 위치와 속도를 파악하여 차량 간 충돌 경보, 충돌 회피, 순항 제어와 같은 정보를 제공할 수 있는 운전자 보조 시스템이 제공되고 있다.There is a frequent occurrence of a collision between a vehicle that is running in front of the vehicle due to a driver's inattention or a clock failure during operation of the vehicle. That is, a traffic accident caused by a lane departure due to long-distance driving, a bad weather in the case of rainy weather or night driving, a lack of concentration of the driver, and a collision with the driving vehicle are constantly occurring. In order to prevent such a collision, a driver assistance system is provided which can provide information such as collision warning, collision avoidance, and cruise control by detecting vehicle position and speed through vehicle detection.

통상적으로 전방의 차량을 검출하는 방법에는 레이더, 카메라 등을 사용하는 방법이 있으며, 사각 지대 또는 후방 주차 시 장애물 또는 차량을 검출하는 방법에는 초음파 센서를 이용한 방법이 있다.Generally, a method of detecting a vehicle ahead is a method using a radar or a camera, and a method using an ultrasonic sensor is a method of detecting an obstacle or a vehicle in a dead zone or a rear parking.

그 중에서도 레이더를 이용한 방법은 다수의 레이더를 차량 전방에 부착하여 여러 방향의 차량 거리 정보를 검출하는 방법으로, 차량에 대한 정확한 위치를 알 수 있으므로 적극적인 제어를 요구하는 시스템에 응용되고 있다. 하지만, 레이더를 이용한 방법은 거리에 상관없이 사용이 가능하지만 일반적인 차량에 부착하여 상용화하기엔 비용 부담이 매우 크며 주파수 간섭 문제가 있다. 또한 기존의 전방 충돌 경고(Forward Collision Warning; FWC) 시스템은 레이더를 통해 감지한 물체를 카메라가 다시 판단하는 센서 융합 구조를 사용하고 있어 시스템의 복잡도를 가중시키는 문제가 있다.Among them, the radar method is a method of detecting vehicle distance information in various directions by attaching a plurality of radar devices to the front of the vehicle, and it is applied to a system that requires active control since the accurate position of the vehicle is known. However, the method using the radar can be used regardless of the distance, but it is very expensive to commercialize it in a general vehicle, and there is a frequency interference problem. In addition, the existing Forward Collision Warning (FWC) system uses a sensor fusion structure in which the camera again judges an object sensed by the radar, thereby increasing the complexity of the system.

그리고 초음파 센서를 이용한 방법은 차량에 부착된 초음파 센서에서 초음파를 후방으로 발사하고 후방 장애물 또는 차량으로부터 반사된 반사파를 검출함으로써 차량 거리 정보를 검출하는 방법인데, 이 방법은 근거리 영역에서만 유용하다는 한계를 가진다. 따라서, 이 방법을 이용할 경우에는 초음파 센서의 성능에 따라 10m 이내의 근거리 영역에서만 차량 검출이 효율적으로 이루어진다는 문제가 있다.The method using the ultrasonic sensor is a method of detecting the vehicle distance information by emitting the ultrasonic wave backward from the ultrasonic sensor attached to the vehicle and detecting the rear obstacle or the reflected wave reflected from the vehicle. I have. Therefore, when this method is used, there is a problem that detection of the vehicle is performed efficiently only in the near region within 10 m according to the performance of the ultrasonic sensor.

본 발명은 이러한 문제점을 해결하기 위한 것으로, 본 발명의 목적은 일정 거리 이상 떨어진 차량을 검출하는데 있어 효율적인 카메라를 이용하여 전방 또는 후방의 차량을 검출함으로써 보다 효율적이고 차량 검출 성능의 정확도가 높은 차량 검출 방법을 제공하는데 있다.SUMMARY OF THE INVENTION The present invention has been made to solve the above problems, and it is an object of the present invention to provide a vehicle detection apparatus and a vehicle detection method, which can detect a forward or a rearward vehicle using an efficient camera, Method.

또한 본 발명은 장애물 또는 전/후방 차량의 인식 및 판단을 단안 카메라의 영상만을 이용하여 처리함으로써 기존의 전방 충돌 경고 시스템과 비교 시 센서의 개수를 감소시켜 시스템의 단순화를 꾀할 수 있는 차량 검출 방법을 제공하는데 또 다른 목적이 있다.The present invention also provides a vehicle detection method that can simplify the system by reducing the number of sensors in comparison with the existing frontal collision warning system by processing the recognition and judgment of the obstacle or the front / There is another purpose to provide.

본 발명의 일 측면에 따른 차량 검출 방법은 카메라로부터 촬영된 영상을 입력 받고; 입력된 영상 내에서 차량 검출을 위한 관심 영역을 설정하고; 설정된 관심 영역 내에서 산출된 지면 히스토그램을 이용하여 차량의 밑면 후보군을 생성하고; 생성된 차량의 밑면 후보군을 이용하여 차량의 옆면 후보군을 생성하고; 생성된 차량의 밑변 후보군과 옆면 후보군을 결합하여 차량 후보군을 생성하고; 생성된 차량 후보군에 약 분류기 및 강 분류기를 적용하여 실제 차량 여부를 검출한다.According to an aspect of the present invention, there is provided a vehicle detection method comprising: receiving a photographed image from a camera; Setting an area of interest for vehicle detection in the input image; Generating a bottom candidate group of the vehicle using the ground surface histogram calculated within the set region of interest; Generating a side face candidate group of the vehicle using the generated bottom face candidate group of the vehicle; Generating a vehicle candidate group by combining the base candidate group and the side face candidate group of the generated vehicle; A weak classifier and a strong classifier are applied to the generated candidate vehicle group to detect whether the vehicle is actually a vehicle.

또한 관심 영역의 설정은, 3차원 실제 좌표계에서의 차량을 인식할 수 있는 최대 거리에 있는 점들을 상기 입력된 영상에 투영하여 관심 영역을 설정한다.Also, the setting of the ROI sets the ROI by projecting the points at the maximum distance for recognizing the vehicle in the 3D real coordinate system onto the input image.

또한 차량의 밑면 후보군 생성은, 설정된 관심 영역 내의 특정 영역을 지면으로 간주하고; 지면의 밝기를 나타내는 지면 히스토그램을 산출하고; 산출된 지면 히스토그램의 평균값(μ)과 분산값(σ)을 이용하여 그림자 영역의 임계값(threshold)을 산출하고; 관심 영역 내 모든 점의 밝기 값을 상기 임계값과 비교하여 이진화 영상을 획득하고; 획득한 이진화 영상의 흑백 경계선을 추출하여 윤곽 영상을 획득하고; 획득한 윤곽 영상으로부터 차량의 밑면 후보군을 검출한다.Also, the generation of the bottom candidate group of the vehicle considers a specific region within the set region of interest as a ground; Calculating a ground level histogram representing the brightness of the ground; Calculating a threshold value of a shadow region using an average value (μ) and a variance value (?) Of the calculated ground surface histogram; Obtaining a binarized image by comparing brightness values of all points within the region of interest with the threshold value; Extracting a black and white borderline of the obtained binarized image to obtain an outline image; And detects a base candidate group of the vehicle from the obtained outline image.

또한 획득한 윤곽 영상으로부터 차량의 밑면 후보군을 검출하는 것은, 윤곽 영상의 각 행에서 크기가 1인 점을 클러스터링(clustering)하여 그 길이가 최소 차량의 길이 이상이고 최대 차량의 길이 이하인 클러스터(cluster)를 산출하고; 산출한 클러스터들 중 동일한 차량의 밑면을 이루는 클러스터를 통합하여 밑면 후보군을 검출한다.In order to detect the candidate base group of the vehicle from the obtained outline image, clustering points having a size of 1 in each row of the outline image are clustered, and a cluster having a length of at least the minimum vehicle length and less than the maximum vehicle length, ≪ / RTI > Among the calculated clusters, clusters forming the bottom of the same vehicle are integrated to detect the base candidate group.

또한 차량의 옆면 후보군 생성은, 입력된 영상에 sobel 연산자를 이용하여 수직 에지 영상(Vertical-Edge Image)을 획득하고; 생성한 차량의 밑면 후보군을 수직 에지 영상에 투영하여 보조 영역을 설정하고; 보조 영역 내 수직 에지의 열 방향 누적합을 구하여, 상기 누적합의 최고점들을 산출하고; 산출된 최고점들 중 두 점 사이의 거리가 차량의 길이 조건을 만족하는 쌍(pair)을 찾아 좌, 우로 설정하여 차량의 옆면 후보군을 생성한다.In addition, the generation of the side candidate of the vehicle is performed by obtaining a vertical-edge image using the Sobel operator on the input image; Projecting a base candidate group of the generated vehicle onto a vertical edge image to set a sub region; Calculating a cumulative sum of columnar edges of the vertical edge in the subarea to calculate peak points of the cumulative sum; The distance between two points of the calculated maximum points is found as a pair satisfying the length condition of the vehicle and is set to the left and the right, thereby generating a side candidate of the vehicle.

또한 약 분류기의 특징점으로는 수평 에지 파워(Horizontal-Edge Power), 수직 에지 파워(Vertical-Edge Power), 대칭성 정도(Symmetry)를 사용한다.Horizontal-edge power, vertical-edge power, and symmetry are used as feature points of the weak classifiers.

또한 강 분류기로는 SVM(Support Vector Machine)을 사용한다.SVM (Support Vector Machine) is used as the classifier.

이상에서 상세히 살펴본 바와 같이, 본 발명의 일측면에 의하면 일정 거리 이상 떨어진 차량을 검출하는데 있어 효율적인 카메라를 이용하여 전방 또는 후방의 차량을 검출함으로써 차량 검출 성능의 정확도를 높일 수 있다.As described above in detail, according to one aspect of the present invention, it is possible to improve the accuracy of the vehicle detection performance by detecting a forward or a rearward vehicle by using an efficient camera in detecting a vehicle over a certain distance.

또한 장애물 또는 전/후방 차량의 인식 및 판단을 단안 카메라의 영상만을 이용하여 처리함으로써 기존의 전방 충돌 경고 시스템과 비교 시 센서의 개수를 감소시켜 시스템의 단순화를 꾀할 수 있다.Also, the recognition and judgment of the obstacle or the front / rear vehicle are processed using only the image of the monocular camera, so that the system can be simplified by reducing the number of sensors in comparison with the existing frontal collision warning system.

도 1은 본 발명의 일실시예에 따른 차량 검출 방법을 도시한 흐름도이다.
도 2는 도 1의 단계 200에 도시된 관심 영역 설정 방법을 설명하기 위한 도면이다.
도 3은 도 1의 단계 300에 도시된 차량의 밑면 검출 방법을 상세하게 도시한 흐름도이다.
도 4는 도 3의 단계 310에 도시된 지면 히스토그램 산출을 설명하기 위한 도면이다.
도 5는 도 3의 단계 330-340에 도시된 이진화 영상 획득 및 윤곽 영상 획득을 설명하기 위한 도면이다.
도 6은 도 3의 단계 350에 도시된 차량의 밑면 후보군 생성을 설명하기 위한 도면이다.
도 7은 도 1 의 단계 400에 도시된 차량의 옆면 검출 방법을 상세하게 도시한 흐름도이다.
도 8은 도 7의 단계 410에 도시된 수직 에지 영상 획득을 설명하기 위한 도면이다.
도 9는 도 7의 단계 420에 도시된 보조 영역 설정을 설명하기 위한 도면이다.
도 10은 도 7의 단계 430-440에 도시된 차량의 옆면 후보군 생성 및 최종적인 차량 후보군 생성을 설명하기 위한 도면이다.
도 11은 도 1의 단계 500에 도시된 약 분류기 통과를 설명하기 위한 도면이다.
도 12는 도 1의 단계 600에 도시된 강 분류기 통과를 설명하기 위한 도면이다.
1 is a flowchart showing a vehicle detection method according to an embodiment of the present invention.
2 is a view for explaining a method of setting a region of interest shown in step 200 of FIG.
3 is a flowchart showing in detail the bottom detection method of the vehicle shown in step 300 of FIG.
FIG. 4 is a diagram for explaining the ground surface histogram calculation shown in step 310 of FIG.
FIG. 5 is a view for explaining the binarized image acquisition and the outline image acquisition shown in steps 330-340 of FIG.
6 is a diagram for explaining generation of a bottom candidate group of the vehicle shown in step 350 of FIG.
7 is a flowchart showing in detail the method of detecting the side surface of the vehicle shown in step 400 of FIG.
FIG. 8 is a view for explaining the vertical edge image acquisition shown in step 410 of FIG.
9 is a diagram for explaining the auxiliary area setting shown in step 420 of FIG.
FIG. 10 is a diagram for explaining generation of a side face candidate group shown in steps 430-440 of FIG. 7 and final generation of a vehicle candidate group.
11 is a view for explaining passage of the weak classifier shown in step 500 of FIG.
12 is a view for explaining passage of the strong classifier shown in step 600 of FIG.

이하에서는 도면을 참조하여 본 발명의 일실시예를 상세하게 설명하도록 한다. Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.

도 1은 본 발명의 일실시예에 따른 차량 검출 방법을 도시한 흐름도이다. 도 1에 도시한 바와 같이 본 발명의 일실시예에 따른 차량 검출 방법은 차량의 전방 또는 후방에 설치된 단안 카메라(momocular camera)에 의하여 전방 또는 후방의 영상을 입력 받고(100), 3차원 공간에서의 차량 인식 가능한 최대 거리를 영상에 투영하여 관심 영역을 설정하고(200), 설정된 관심 영역 내에서 차량의 밑면과 옆면을 검출하여 차량의 후보군을 생성하고(300-400), 생성된 차량의 후보군에 약 분류기를 적용하여 1차적으로 비차량을 제거하고(500), 약 분류기를 통과한 차량의 후보군에 대하여 강 분류기를 적용하여 실제 차량 여부를 판단한다(600).1 is a flowchart showing a vehicle detection method according to an embodiment of the present invention. As shown in FIG. 1, a vehicle detection method according to an embodiment of the present invention includes receiving (100) a forward or backward image by a momocular camera installed in front of or behind a vehicle, (300-400), and a candidate region of the vehicle (300-400) is detected by detecting the bottom face and the side face of the vehicle within the set region of interest, The non-vehicle is firstly removed (500) by applying a weak classifier to the candidate class of the vehicle passing through the weak classifier (600).

이하에서는 도면을 참조하여 도 1에 도시된 차량 검출 방법의 각 단계(100-600)에 대해 상세하게 설명하도록 한다. Hereinafter, each step (100-600) of the vehicle detecting method shown in FIG. 1 will be described in detail with reference to the drawings.

도 2는 도 1의 단계 200에 도시된 관심 영역 설정 방법을 설명하기 위한 도면이다. 도 2에 도시한 바와 같이 3차원의 실제 좌표계에서 차량을 인식할 수 있는 최대 거리(예: 200m)에 있는 점들을 H-matrix를 이용하여 영상으로 투영한다. 이로써, 도 2의 (b)와 같은 영상 좌표계가 생성된다. 즉, 도 2의 (b)에 도시된 선은 3차원의 실제 좌표계에서 차량을 인식할 수 있는 최대 거리(예: 200m)에 있는 점들을 영상으로 투영시켜 모아놓은 선에 해당한다. 여기서, H-matrix는 3×4 intrinsic and extrinsic matrix로서 3차원 좌표계를 2차원 영상 좌표계로 맵핑(mapping)하기 위한 함수이다. 여기서, 영상으로 투영된 점들을 모아놓은 선(도 2의 (b)에 도시된 선) 아래의 영역이 고정된 관심 영역이 된다. 2 is a view for explaining a method of setting a region of interest shown in step 200 of FIG. As shown in FIG. 2, the points in the maximum distance (for example, 200 m) that can recognize the vehicle in the three-dimensional actual coordinate system are projected onto the image using the H-matrix. Thus, an image coordinate system as shown in Fig. 2 (b) is generated. That is, the line shown in (b) of FIG. 2 corresponds to a line obtained by projecting images of the points at the maximum distance (for example, 200 m) at which the vehicle can be recognized in the three-dimensional actual coordinate system. Here, the H-matrix is a 3 × 4 intrinsic and extrinsic matrix, and is a function for mapping a three-dimensional coordinate system to a two-dimensional image coordinate system. Here, an area below a line (a line shown in (b) of FIG. 2) which is a collection of points projected by an image becomes a fixed interest area.

이하에서는 도 3 내지 도 6을 이용하여 도 1의 단계 300에 도시된 차량의 밑면 검출 방법에 대해 상세하게 설명하도록 한다.Hereinafter, the method of detecting the bottom surface of the vehicle shown in step 300 of FIG. 1 will be described in detail with reference to FIGS. 3 to 6. FIG.

도 3은 도 1의 단계 300에 도시된 차량의 밑면 검출 방법을 상세하게 도시한 흐름도이다. 3 is a flowchart showing in detail the bottom detection method of the vehicle shown in step 300 of FIG.

도 4를 참조해 보면 관심 영역 내의 특정 영역을 지면(ground)으로 간주한다(도 4의 (a) 및 (b) 참조). 일반적으로 차량의 전방 또는 후방을 촬영하는 단안 카메라의 최근방에는 장애물이나 차량이 존재하지 않는 지면에 해당하는 것을 전제로 하여 입력 영상 내에서 카메라 근접 영역이라고 판단되는 부분을 지면으로 간주하게 된다. 이 지면의 밝기는 가우시안 분포(Gaussian Distibutuion)를 이룬다고 가정하고 지면 히스토그램(Ground Histogram)을 산출한다(310, 도 4의 (c) 참조). 이렇게 산출한 히스토그램의 평균값(μ)과 분산값(σ)을 이용하여 그림자 영역의 임계값(threshold)을 산출한다(320).Referring to FIG. 4, a specific region within the region of interest is considered as ground (see FIGS. 4 (a) and 4 (b)). Generally, a portion of the input image that is determined as the camera proximity area is regarded as the ground, assuming that the recent room of the monocular camera that photographs the front or rear of the vehicle corresponds to the ground where no obstacle or vehicle exists. The brightness of the ground assumes a Gaussian distribution and a ground Histogram is calculated 310 (see FIG. 4 (c)). The threshold value of the shadow region is calculated using the average value (μ) and the variance value () of the histogram (320).

입력 영상(도 5의 (a))의 관심 영역 내 모든 점의 밝기 값을 단계 320에서 산출한 그림자 영역의 임계값과 비교하여 점의 밝기 값이 임계값보다 작으면 그림자 영역(=1)으로 판단하고, 점의 밝기 값이 임계값보다 크면 비그림자 영역(=0)으로 판단하여 도 5의 (b)와 같은 이진화 영상(Binary Image)을 획득한다(330). 다음으로, 단계 330에서 획득한 이진화 영상의 흑백 경계선을 추출하여 최종적으로 도 5의 (c)와 같은 윤곽 영상(Contour Image)을 획득한다(340).The brightness value of all points in the ROI of the input image (FIG. 5A) is compared with the threshold value of the shadow area calculated in step 320, and if the brightness value of the point is smaller than the threshold value, the shadow area (= 1) If the brightness value of the point is larger than the threshold value, it is determined as a non-shadow region (= 0) and a binary image as shown in FIG. 5B is obtained (330). Next, the black-and-white boundary of the binarized image obtained in step 330 is extracted to obtain the contour image as shown in FIG. 5C (340).

이후 단계 340에서 획득한 윤곽 영상으로부터 차량의 밑면 후보군을 검출한다(350). 일반적으로, 차량의 밑면은 그림자로 인해 어두운 영역이다. 윤곽 영상(도 6의 (a))의 각 행에서 크기가 1인 점을 클러스터링(clustering)하여 그 길이가 최소 차량의 길이 이상이고 최대 차량의 길이 이하인 클러스터(cluster)를 산출한다(도 6의 (b)에 도시된 선 참조). 이렇게 산출한 클러스터들 중 동일한 차량의 밑면을 이루는 클러스터는 통합한다(도 6의 (c)에 도시된 선 참조). 도 6의 (c)에 도시된 선들이 최종적인 차량의 밑면 후보군이 된다.Then, the bottom candidate group of the vehicle is detected from the outline image acquired in step 340 (350). Generally, the underside of the vehicle is a dark area due to shadows. Clusters having a size of 1 in each row of the outline image (FIG. 6A) are clustered to calculate a cluster whose length is equal to or smaller than the minimum vehicle length and equal to or smaller than the maximum vehicle length (see the line shown in Fig. Among the clusters thus calculated, the clusters forming the bottom surface of the same vehicle are integrated (see the line shown in (c) of FIG. 6). The lines shown in (c) of Fig. 6 become the base candidate group of the final vehicle.

이하에서는 도 7 내지 도 10을 이용하여 도 1의 단계 400에 도시된 차량의 옆면 검출 방법에 대해 상세하게 설명하도록 한다.Hereinafter, the method of detecting the side surface of the vehicle shown in step 400 of FIG. 1 will be described in detail with reference to FIGS. 7 to 10. FIG.

도 7은 도 1 의 단계 400에 도시된 차량의 옆면 검출 방법을 상세하게 도시한 흐름도이다.7 is a flowchart showing in detail the method of detecting the side surface of the vehicle shown in step 400 of FIG.

도 8을 참조해 보면 입력 영상(도 8의 (a))에 3×3 sobel 연산자를 이용하여 도 8의 (b)와 같은 수직 에지 영상(Vertical-Edge Image)을 획득한다(410). 다음으로, 도 3의 단계 350에서 획득한 차량의 밑면 후보군을 수직 에지 영상(도 9의 (a))에 투영하여(도 9의 (b) 참조) 보조 영역(sub-region, 도 9의 (c))을 설정한다(420).Referring to FIG. 8, a vertical-edge image as shown in FIG. 8B is obtained by using a 3 × 3 sobel operator in an input image (FIG. 8A) (410). Next, a base candidate group of the vehicle obtained in the step 350 of FIG. 3 is projected onto a vertical edge image (FIG. 9A) (refer to FIG. 9B) c) is set (420).

이후 보조 영역 내 수직 에지의 열(列) 방향 누적합(profile)을 구하고, 누적합의 최고점들(Local Maxima)을 산출한다(도 10의 (a) 참조). 산출된 최고점들 중 두 점 사이의 거리가 차량의 길이 조건을 만족하는 쌍(pair)을 찾아 좌, 우로 설정하여 차량의 옆면 후보군을 생성한다(430, 도 10의 (b) 참조). 차량의 밑면 후보군과 옆면 후보군이 결합하여 최종적인 차량 후보군이 생성된다(440).Thereafter, a column direction cumulative profile of the vertical edge in the subarea is obtained, and the local maxima of the cumulative sum are calculated (see Fig. 10 (a)). A pair of left and right sides of the calculated maximum distance is searched for a pair satisfying the length condition of the vehicle (430, see FIG. 10 (b)). The bottom candidate of the vehicle and the side candidate are combined to produce the final candidate vehicle (440).

도 11은 도 1의 단계 500에 도시된 약 분류기 통과를 설명하기 위한 도면이다. 전술한 과정을 거쳐 최종적인 차량 후보군이 생성되면 생성된 차량 후보군(도 11의 (a) 참조)에 약 분류기(Weak Classifier)를 적용하여 1차적으로 비차량(非車輛)을 제거한다(500, 도 11의 (b) 참조). 약 분류기의 특징점으로는 수평 에지 파워(Horizontal-Edge Power), 수직 에지 파워(Vertical-Edge Power), 대칭성 정도(Symmetry)를 사용한다.11 is a view for explaining passage of the weak classifier shown in step 500 of FIG. When a final vehicle candidate group is generated through the above-described process, a weak classifier is applied to the generated vehicle candidate group (see FIG. 11A) to primarily remove the non-vehicle 500, 11 (b)). Horizontal-edge power, vertical-edge power, and symmetry are used as feature points of the weak classifiers.

도 12는 도 1의 단계 600에 도시된 강 분류기 통과를 설명하기 위한 도면이다. 전술한 과정을 거쳐 약 분류기를 통과한 차량 후보(도 12의 (a) 참조)에 강 분류기(Strong Classifier)를 적용하여 최종적으로 차량 여부를 판단한다(600, 도 12의 (b) 참조). 강 분류기로는 SVM(Support Vector Machine)을 사용한다.12 is a view for explaining passage of the strong classifier shown in step 600 of FIG. The strong classifier is applied to the vehicle candidate (see Fig. 12 (a)) that has passed through the weak classifier through the above-described process to determine whether the vehicle is finally in the vehicle 600 (see Fig. 12 (b)). SVM (Support Vector Machine) is used as the classifier.

Claims (7)

카메라로부터 촬영된 영상을 입력 받고;
상기 입력된 영상 내에서 차량 검출을 위한 관심 영역을 설정하고;
상기 설정된 관심 영역 내의 특정 영역을 지면으로 간주하고, 상기 지면의 밝기를 나타내는 지면 히스토그램을 산출하고, 상기 산출된 지면 히스토그램의 평균값(μ)과 분산값(σ)을 이용하여 그림자 영역의 임계값(threshold)을 산출하고, 상기 관심 영역 내 모든 점의 밝기 값을 상기 임계값과 비교하여 이진화 영상을 획득하고, 상기 획득한 이진화 영상의 흑백 경계선을 추출하여 윤곽 영상을 획득하고, 상기 윤곽 영상의 각 행에서 크기가 1인 점을 클러스터링(clustering)하여 그 길이가 최소 차량의 길이 이상이고 최대 차량의 길이 이하인 클러스터(cluster)를 산출하고; 상기 산출한 클러스터들 중 동일한 차량의 밑면을 이루는 클러스터를 통합하여 상기 차량의 밑면 후보군을 생성하고;
상기 생성된 차량의 밑면 후보군을 이용하여 차량의 옆면 후보군을 생성하고;
상기 생성된 차량의 밑변 후보군과 옆면 후보군을 결합하여 차량 후보군을 생성하고;
상기 생성된 차량 후보군에 약 분류기 및 강 분류기를 적용하여 실제 차량 여부를 검출하는 차량 검출 방법.
Receiving a photographed image from a camera;
Setting a region of interest for vehicle detection within the input image;
A specific area within the set area of interest is regarded as a ground, a ground surface histogram showing the brightness of the ground surface is calculated, and a threshold value of the shadow area is calculated using the average value (μ) threshold value of the boundary of the contour image, calculating a binarized image by comparing brightness values of all points in the area of interest with the threshold value, extracting a black and white boundary line of the obtained binarized image to obtain an outline image, Clustering points having a size of 1 in a row to calculate clusters whose length is equal to or less than the minimum vehicle length and equal to or less than the maximum vehicle length; Combining the clusters forming the bottom surface of the same vehicle among the calculated clusters to generate a bottom candidate group of the vehicle;
Generating a side face candidate group of the vehicle using the generated bottom face candidate group of the vehicle;
Generating a vehicle candidate group by combining the base candidate group and the side face candidate group of the generated vehicle;
And a weak classifier and a strong classifier are applied to the generated vehicle candidate group to detect whether the vehicle is an actual vehicle.
제 1 항에 있어서, 상기 관심 영역의 설정은,
3차원 실제 좌표계에서의 차량을 인식할 수 있는 최대 거리에 있는 점들을 상기 입력된 영상에 투영하여 상기 관심 영역을 설정하는 차량 검출 방법.
2. The method of claim 1,
And projecting the points at a maximum distance at which the vehicle can be recognized in the three-dimensional real coordinate system onto the input image to set the ROI.
삭제delete 삭제delete 제 1 항에 있어서, 상기 차량의 옆면 후보군 생성은,
상기 입력된 영상에 sobel 연산자를 이용하여 수직 에지 영상(Vertical-Edge Image)을 획득하고;
상기 생성한 차량의 밑면 후보군을 상기 수직 에지 영상에 투영하여 보조 영역을 설정하고;
상기 보조 영역 내 수직 에지의 열 방향 누적합을 구하여, 상기 누적합의 최고점들을 산출하고;
상기 산출된 최고점들 중 두 점 사이의 거리가 차량의 길이 조건을 만족하는 쌍(pair)을 찾아 좌, 우로 설정하여 차량의 옆면 후보군을 생성하는 차량 검출 방법.
2. The method according to claim 1, wherein the side-
Acquiring a vertical-edge image using the Sobel operator on the input image;
Projecting a base candidate group of the generated vehicle onto the vertical edge image to set a sub region;
Calculating a cumulative sum of columnar edges of the vertical edge in the subarea to calculate peak points of the cumulative sum;
Calculating a distance between two points of the calculated maximum points to find a pair satisfying a length condition of the vehicle, and setting the left and right sides to generate a side face candidate group of the vehicle.
제 1 항에 있어서,
상기 약 분류기의 특징점으로는 수평 에지 파워(Horizontal-Edge Power), 수직 에지 파워(Vertical-Edge Power), 대칭성 정도(Symmetry)를 사용하는 차량 검출 방법.
The method according to claim 1,
Wherein the feature point of the weak classifier is a horizontal-edge power, a vertical-edge power, and a symmetry.
제 1 항에 있어서,
상기 강 분류기로는 SVM(Support Vector Machine)을 사용하는 차량 검출 방법.
The method according to claim 1,
Wherein the SVM is a SVM (Support Vector Machine).
KR20100059426A 2010-06-23 2010-06-23 Method for Detecting Vehicle KR101478072B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR20100059426A KR101478072B1 (en) 2010-06-23 2010-06-23 Method for Detecting Vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR20100059426A KR101478072B1 (en) 2010-06-23 2010-06-23 Method for Detecting Vehicle

Publications (2)

Publication Number Publication Date
KR20110139381A KR20110139381A (en) 2011-12-29
KR101478072B1 true KR101478072B1 (en) 2015-01-02

Family

ID=45504876

Family Applications (1)

Application Number Title Priority Date Filing Date
KR20100059426A KR101478072B1 (en) 2010-06-23 2010-06-23 Method for Detecting Vehicle

Country Status (1)

Country Link
KR (1) KR101478072B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101958605B1 (en) 2018-11-30 2019-03-14 이윤기 Forward vehicle detection apparatus and method
KR20200087381A (en) 2019-01-10 2020-07-21 이윤기 Backward vehicle detection apparatus and method

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101335640B1 (en) * 2012-09-11 2013-12-03 한국기계연구원 Checking system and method for gauge of power generation plant
KR101437431B1 (en) * 2012-12-28 2014-09-05 전자부품연구원 Method and apparatus for vehicle cognition using Symmetric Edge Histogram algorithm

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1114348A (en) * 1996-11-09 1999-01-22 Hyundai Motor Co Ltd Vehicle recognizing method using image system
JP2000285245A (en) * 1999-03-31 2000-10-13 Toshiba Corp Method and device for preventing collision of moving body and recording medium
KR20080004832A (en) * 2006-07-06 2008-01-10 삼성전자주식회사 Apparatus and method for detecting a vehicle

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1114348A (en) * 1996-11-09 1999-01-22 Hyundai Motor Co Ltd Vehicle recognizing method using image system
JP2000285245A (en) * 1999-03-31 2000-10-13 Toshiba Corp Method and device for preventing collision of moving body and recording medium
KR20080004832A (en) * 2006-07-06 2008-01-10 삼성전자주식회사 Apparatus and method for detecting a vehicle

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101958605B1 (en) 2018-11-30 2019-03-14 이윤기 Forward vehicle detection apparatus and method
KR20200087381A (en) 2019-01-10 2020-07-21 이윤기 Backward vehicle detection apparatus and method

Also Published As

Publication number Publication date
KR20110139381A (en) 2011-12-29

Similar Documents

Publication Publication Date Title
US10755116B2 (en) Image processing apparatus, imaging apparatus, and device control system
US9836657B2 (en) System and method for periodic lane marker identification and tracking
US10627228B2 (en) Object detection device
US11004215B2 (en) Image processing apparatus, imaging device, moving body device control system, image information processing method, and program product
US7403659B2 (en) Method and apparatus for differentiating pedestrians, vehicles, and other objects
JP3349060B2 (en) Outside monitoring device
JP5145585B2 (en) Target detection device
US11064177B2 (en) Image processing apparatus, imaging apparatus, mobile device control system, image processing method, and recording medium
US20150161881A1 (en) In-Vehicle Surrounding Environment Recognition Device
US20050232463A1 (en) Method and apparatus for detecting a presence prior to collision
US10628960B2 (en) Information processing apparatus, imaging apparatus, device control system, moving object, information processing method, and recording medium
EP3422289A1 (en) Image processing device, imaging device, mobile entity apparatus control system, image processing method, and program
US7321669B2 (en) Method and apparatus for refining target position and size estimates using image and depth data
JP6687039B2 (en) Object detection device, device control system, imaging device, object detection method, and program
EP2821982B1 (en) Three-dimensional object detection device
EP3422290A1 (en) Image processing device, imaging device, system for controlling mobile body, image processing method, and program
US20190019044A1 (en) Image processing apparatus, imaging device, moving body device control system, image processing method, and program product
JP2015179302A (en) Solid object detection device, solid object detection method, solid object detection program, and mobile apparatus control system
CN110659552B (en) Tramcar obstacle detection and alarm method
KR20150104409A (en) System and method for detecting vehicle by using sensor
Ponsa et al. On-board image-based vehicle detection and tracking
KR101478072B1 (en) Method for Detecting Vehicle
JP2001351107A (en) Device and method for monitoring traffic
CN105574470B (en) Method and device for identifying vehicles behind and behind
KR20170138842A (en) System and Method for Tracking Vehicle on the basis on Template Matching

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
N231 Notification of change of applicant
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170922

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20180920

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20190924

Year of fee payment: 6