KR20150125818A - Forward Vehicle Identification Method and System with the Vehicular Brake Lamp at Night Time - Google Patents
Forward Vehicle Identification Method and System with the Vehicular Brake Lamp at Night Time Download PDFInfo
- Publication number
- KR20150125818A KR20150125818A KR1020140052586A KR20140052586A KR20150125818A KR 20150125818 A KR20150125818 A KR 20150125818A KR 1020140052586 A KR1020140052586 A KR 1020140052586A KR 20140052586 A KR20140052586 A KR 20140052586A KR 20150125818 A KR20150125818 A KR 20150125818A
- Authority
- KR
- South Korea
- Prior art keywords
- vehicle
- image
- areas
- extracted
- extracting
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
본 발명은 차량 인식에 관한 것으로, 더욱 상세하게는 야간에 전방의 차량을 인식하는 방법 및 시스템에 관한 것이다.
The present invention relates to vehicle recognition, and more particularly, to a method and system for recognizing a vehicle ahead at night.
차량 내 설치된 카메라를 이용하여 전방 차량을 인식하기 위해서는, 사전 수집된 차량 DB를 이용하여 전방 차량의 특징을 추출하고 추출된 특징들을 이용하여 학습 모델을 훈련시켜야 한다.In order to recognize a forward vehicle using a camera installed in the vehicle, a feature of the forward vehicle must be extracted using a pre-collected vehicle DB, and a learning model should be trained using the extracted features.
또한, 전방 차량 후보영역 추출은 훈련된 학습기를 이용하며, 추출된 후보 영역들은 차량이라고 간주할 수 있는 검증을 통과하여 최종 차량이라고 판별한다.Also, the forward vehicle candidate region extraction uses a trained learning device, and the extracted candidate regions pass the verification that can be regarded as a vehicle, and determine that the vehicle is the final vehicle.
이후, 판별된 차량 크기에 따라 자신의 차량과 전방의 주행하는 차량과의 거리를 산출하여 거리가 가까워지는 경우 경보음을 발생시켜 운전자에게 추돌 위험 정보를 알려주게 된다.Then, the distance between the own vehicle and the vehicle running ahead is calculated according to the determined size of the vehicle, and when the distance approaches, an alarm sound is generated to inform the driver of the collision risk information.
도 1에 도시된 바와 같이, 위 내용은 주간 영상에서 차량의 특징 추출이 용이한 경우에는 비교적 우수한 성능을 보인다. 하지만, 야간의 경우에는 위 내용에 따라 차량 특징들을 추출할 경우, 성능 열화를 피할 수 없다.As shown in FIG. 1, the above description shows relatively excellent performance when the feature extraction of the vehicle is easy in the daytime image. However, in the case of nighttime, performance degradation can not be avoided when extracting the vehicle characteristics according to the above description.
도 2에 도시된 바와 같이, 야간에는 배경이 어둡고, 차량 브레이크등의 번짐 현상으로 인해 차량의 특징 추출이 쉽지 않기 때문이다.
As shown in Fig. 2, the background is dark at night, and feature extraction of the vehicle is not easy due to a blurring phenomenon such as a vehicle braking.
본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 목적은, 야간에 전방 차량을 인식 성능을 높이기 위한 방안으로, 차량의 브레이크등을 이용한 야간 전방 차량 인식 방법 및 시스템을 제공함에 있다.
SUMMARY OF THE INVENTION It is an object of the present invention to provide a nighttime ahead vehicle recognition method and system using a brake or the like of a vehicle in order to improve recognition performance of a front vehicle at night have.
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른, 전방 차량 인식 방법은, 전방 영상에서 차량의 브레이크등 영역들을 추출하는 단계; 및 추출된 브레이크등 영역들을 결합하여, 전방 차량을 검출하는 단계;를 포함한다.According to an aspect of the present invention, there is provided a front vehicle recognizing method including extracting areas such as brakes of a vehicle from a forward image; And combining the extracted brake light areas to detect the front vehicle.
그리고, 상기 추출단계는, 전방 영상을 이진화하여 이진 영상을 생성하는 단계; 전방 영상에서 에지를 추출하여 에지 영상을 생성하는 단계; 및 상기 이진 영상과 상기 에지 영상을 AND 연산하여 후보 영역을 분리하는 단계;를 포함할 수 있다.The extracting step may include generating a binary image by binarizing a forward image; Extracting an edge from a forward image to generate an edge image; And separating the candidate region by ANDing the binary image and the edge image.
또한, 상기 추출 단계는, 분리된 후보 영역들을 라벨링하여 라벨 영역들을 생성하는 단계; 및 라벨 영역들 중 일부를 라벨 영역들을 구분하는 단계;를 더 포함하고, 상기 검출 단계는, 상기 구분 단계에서 구분된 라벨 영역들을 결합할 수 있다.The extracting may further include labeling the candidate regions to generate label regions; And separating the label regions in a part of the label regions, and the detecting step may combine the label regions separated in the separating step.
그리고, 상기 구분 단계는, 라벨 영역들 중 특정 크기의 라벨 영역들을 구분할 수 있다.The sorting step may identify label regions of a specific size among the label regions.
또한, 상기 검출단계는, 대칭성, 크기, 면적, 가로/세로 비율을 고려하여, 추출된 브레이크등 영역들을 결합할 수 있다.Also, the detecting step may combine the areas of the extracted brakes in consideration of the symmetry, the size, the area, and the aspect ratio.
그리고, 상기 검출단계는, 추출된 브레이크등 영역의 외곽 컬러 분포를 고려하여, 추출된 브레이크등 영역들을 결합할 수 있다.The detecting step may combine the extracted brake light areas in consideration of the outer color distribution of the extracted brake light area.
또한, 추출된 브레이크등 영역들의 움직임 정보를 고려하여, 상기 검출단계에서 검출된 전방 차량을 검증하는 단계;를 더 포함할 수 있다.Further, the step of verifying the forward vehicle detected in the detecting step may be further performed by taking into consideration the motion information of the extracted brake and like areas.
한편, 본 발명의 다른 실시예에 따른, 전방 차량 인식 시스템은, 전방 영상을 생성하는 카메라; 및 상기 카메라가 생성한 전방 영상에서 차량의 브레이크등 영역들을 추출하고, 추출된 브레이크등 영역들을 결합하여 전방 차량을 검출하는 영상 처리부;를 포함한다.
According to another aspect of the present invention, there is provided a front vehicle recognition system comprising: a camera for generating a forward image; And an image processor for extracting braking areas of the vehicle from the forward image generated by the camera and combining the extracted braking areas to detect the forward vehicle.
이상 설명한 바와 같이, 본 발명의 실시예들에 따르면, 야간 영상을 이용하여 전방 차량을 인식하고 차간 거리를 계산함에 있어서, 야간 영상에서 전방 차량을 차량의 브레이크등을 이용하여 검출함으로 야간 영상에 강건한 차량 검출이 가능해진다.As described above, according to the embodiments of the present invention, in the calculation of the headway distance by using the night image, the front vehicle is detected using the brake of the vehicle in the night image, Vehicle detection becomes possible.
이에 따라, 야간에도 차간 거리 산출이 정확해져, 전방 주시에 태만한 운전자의 안전 운전을 도모할 수 있게 된다.
Accordingly, the calculation of the headway distance is accurate even at night, and the safe operation of the driver who is negligent in forward sight can be achieved.
도 1은 주간 영상에서 차량 인식 성능의 설명에 제공되는 도면,
도 2는 야간 영상 인식 성능이 설명에 제공되는 도면,
도 3은 본 발명의 일 실시예에 따른 차량 인식 및 경보 방법의 설명에 제공되는 흐름도,
도 4는 차량 브레이크등 후보 영역 검출 과정의 설명에 제공되는 도면,
도 5 내지 도 7은, 라벨 영역 병합 기법들의 설명에 제공되는 도면들,
도 8은 움직임 정보를 이용한 차량 검증 기법의 설명에 제공되는 도면, 그리고,
도 9는 본 발명의 다른 실시예에 따른 전방 차량 인식 시스템의 블럭도이다.BRIEF DESCRIPTION OF THE DRAWINGS Figure 1 is a drawing provided for a description of vehicle recognition performance in a daytime image,
2 is a diagram illustrating night vision perception performance,
3 is a flowchart provided in the description of the vehicle recognition and alarm method according to an embodiment of the present invention;
Fig. 4 is a view provided for explaining a candidate region detection process such as a vehicle braking,
Figures 5-7 illustrate the label area merging techniques,
FIG. 8 is a view provided for explaining a vehicle verification technique using motion information, and FIG.
9 is a block diagram of a front vehicle recognition system according to another embodiment of the present invention.
이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다.
Hereinafter, the present invention will be described in detail with reference to the drawings.
1. 전방 차량 인식 및 경보1. Front vehicle recognition and alarm
도 3은 본 발명의 일 실시예에 따른 차량 인식 및 경보 방법의 설명에 제공되는 흐름도이다. 본 발명의 실시예에 따른 차량 인식 및 경보 방법은, 야간에 카메라를 통해 획득한 영상으로부터 차량을 정확하게 인식하고, 그 결과를 바탕으로 산출한 차간 거리를 기반으로 경보음을 발생시킨다.3 is a flowchart provided in the description of the vehicle recognition and alarm method according to an embodiment of the present invention. The vehicle recognizing and alarming method according to an embodiment of the present invention accurately recognizes a vehicle from an image acquired through a camera at night and generates an alarm sound based on the calculated inter-vehicle distance based on the result.
도 3에 도시된 바와 같이, 먼저 차량 내에 설치된 카메라를 통해 차량의 전방 영상을 실시간으로 획득한다(①).As shown in FIG. 3, first, a forward image of the vehicle is acquired in real time through a camera installed in the vehicle (1).
이후, 차량의 높이와 카메라의 설치 높이에 따라 지평선을 설정한다(②). 이는, 지평선 보다 높은 위치에 나타나는 차량 후보 영역을 필터링 하고, 획득되는 차량 후보 영역에 따라 실시간 영상을 확대하여 먼 거리의 차량까지 인식하기 위함이다. 또한, 실시간 차선 정보에서 획득할 수 있는 차선의 소실점 정보를 이용하여 전방 차량 검색 영역을 축소할 수도 있다.Then, set the horizon according to the height of the vehicle and the installation height of the camera (②). This is to filter the vehicle candidate region appearing at a position higher than the horizon and enlarge the real-time image according to the obtained vehicle candidate region so as to recognize the vehicle at a long distance. Also, it is possible to reduce the front vehicle search area using the vanishing point information of the lane that can be obtained from the real time lane information.
다음, 입력된 전방 영상에서 차량 인식에 필요한 영상의 특징을 효과적으로 추출하기 위하여 입력 영상의 전처리 과정이 필요하다(③). 구체적으로, 지평선 아래의 영상을 개선 시킨다.Next, a preprocessing process of the input image is required in order to effectively extract the characteristics of the image necessary for vehicle recognition in the input forward image (3). Specifically, it improves the image below the horizon.
입력 영상 개선 방법으로 히스토그램 및 비선형 방법을 이용하는데, 비선형 방법에는, AINDANE(Adaptive and Integrated Neighborhood Dependent Approach for Nonlinear Enhancement), HSV_AINDANE 방법을 사용할 수 있다.Histograms and nonlinear methods are used to improve the input image. For the nonlinear method, AINDANE (Adaptive and Integrated Neighborhood Dependent Approach for Nonlinear Enhancement) and HSV_AINDANE methods can be used.
이후, 개선된 입력 영상에서 차량의 브레이크등 영역을 추출하고(④), 추출된 브레이크등 영역 검증을 통해 실제 차량인지 검증한다(⑤). 이 단계들에 대해서는 상세히 후술한다.Then, we extract the brake light area of the vehicle from the improved input image (④), and verify the actual vehicle by verifying the extracted brake light area (⑤). These steps are described in detail below.
다음, 전방 차량의 크기를 결정하고, 사전에 구성된 LUT(LookUpTable)을 통하여 차간 거리를 산출한다(⑥). 그리고, 영역 기반 추적 방법을 적용하여 전방 차량을 추적한다(⑦).Next, the size of the forward vehicle is determined, and the inter-vehicle distance is calculated through the LUT (LookUpTable) configured in advance (6). Then, the area-based tracking method is applied to track the vehicle ahead (⑦).
만약, 전방 차량과의 거리가 가깝고 운전자가 전방을 주시하지 않는다고 판단되면(⑧), 운전자에게 시각적/청각적 경보를 발생시킨다(⑨). 운전자가 전방을 주시하는지 여부는, 차량의 브레이크 작동 및 좌우측 방향지시등으로부터 판단한다. 차량과의 거리가 가까운데 운전자가 차량을 제어하고 있다면 위험상황이 아니며, 차량을 제어하고 있다고 하더라도 일정 속도 이상에서 거리가 아주 가까울 경우 경보음을 발생한다.
If it is determined that the distance from the preceding vehicle is close and the driver does not look ahead (8), a visual / audible alarm is generated to the driver (9). Whether or not the driver looks ahead is determined from the brake operation of the vehicle and the left and right direction indicators. If the driver is close to the vehicle and the driver is controlling the vehicle, it is not a dangerous situation. Even if the vehicle is controlled, the alarm sounds when the distance is very close to the predetermined speed.
2. 야간에서 전방 차량 인식2. Forward vehicle recognition at night
이하에서는, 전술한 "④"와 "⑤" 단계를 통해, 전방 차량을 검출하는 방법에 대해 상세히 설명한다.
Hereinafter, a method for detecting the preceding vehicle will be described in detail through the steps " 4 "and" 5 "
2.1 차량 브레이크등 후보 영역 검출2.1 Detection of candidate areas such as vehicle brakes
야간 영상에서 전방 차량 영역을 추출하기 위해, 차량의 브레이크등(후미등)을 이용한다. 야간 영상의 경우, 자신의 차량 전조등으로 인해 전방 차량의 뒷 범퍼 영역이 밝아져 야간에 차량 후보 영역 추출에 있어서 잡음 요소로 발생하게 되는 문제를 해결하고자 범퍼 영역과 광원에 의해 추출되는 영역을 분리하는 것이 필요하다.In order to extract the front vehicle area from the night image, the vehicle's brake light (taillight) is used. In the case of the night image, in order to solve the problem that the rear bumper area of the vehicle ahead is brightened due to the vehicle headlight of the vehicle, the bumper area and the area extracted by the light source are separated It is necessary.
이를 위해, 먼저 입력 영상의 컬러 공간에서 OTSU 기법을 이용한 영상 이진화를 적용하여, 각 컬러 공간별로 이진화에 적용되는 임계값을 다르게 하여 브레이크등 후보 영역을 추출한다. 도 4의 [A]는 입력 영상이고, 도 4의 [B]는 OSTU 방법에 의한 입력 영상의 이진 영상을 나타내었다.To do this, image binarization using the OTSU technique is applied to the color space of the input image, and the thresholds applied to the binarization are different for each color space to extract the candidate regions such as the brakes. [A] in FIG. 4 is an input image, and [B] in FIG. 4 shows a binary image of an input image by the OSTU method.
다음, 입력 영상에서 에지들을 추출하고, 이진 영상과 에지 영상을 AND 연산하여 후보 영역을 분리한다. 도 4의 [C]는 입력 영상의 에지 영상이고, 도 4의 [D]는 이진 영상[B]과 에지 영상[C]의 AND 연산 결과이다.Next, edges are extracted from the input image, and the candidate region is separated by ANDing the binary image and the edge image. [C] in Fig. 4 is the edge image of the input image, and [D] in Fig. 4 is the AND operation result of the binary image [B] and the edge image [C].
이진 영상을 에지 영상과 AND 연산하는 것은, 자신의 차량 전조등이 전방 차량의 범퍼에 반사되어 브레이크등과 차량 범퍼가 한 개의 영역으로 추출될 수 있으므로, 이를 분리하기 위함이다.The AND operation of the binary image with the edge image is performed in order to separate the brake light and the vehicle bumper into one area because the vehicle headlight of the vehicle is reflected on the bumper of the vehicle ahead.
이후, 분리된 후보 영역들을 영역별로 라벨링하고, 라벨링된 영역들(라벨 영역들)에 대해 '크기 필터링'을 통해 브레이크등 영역들을 추출한다. '크기 필터링'은 브레이크등 대비 크기가 매우 크거나 매우 작은 영역들을 제외하는 것이다.Thereafter, the separated candidate regions are labeled for each region, and the break areas are extracted through 'size filtering' for the labeled regions (label regions). 'Size filtering' excludes areas with very large or very small contrast sizes, such as brakes.
도 4의 [E]는 [D] 영상을 라벨링한 후에 크기 필터링한 결과를 나타낸 것이다.
[E] in FIG. 4 shows the result of size filtering after labeling the [D] image.
2.2 라벨 영역 병합 2.2 Merging Label Areas
차량의 브레이크등이라고 추출된 영역들(도 4의 [E] 참조)을 차량 1대로 간주하기 위하여 병합하는 과정이 필요하다. 차량의 브레이크등의 경우 일반적으로 붉은색 계열의 색상이 강조될 듯하지만 실제 영상에서는 가까운 차량에서만 붉은색 계열의 색상이 약간 높게 나타나며, 브레이크등 영역 중심일수록 붉은색 계열의 색상은 찾기 힘들다.It is necessary to merge the areas (see [E] of Fig. 4) extracted as the brakes of the vehicle in order to consider them as one vehicle. In the case of the brake of a vehicle, it seems that the color of the red color is emphasized. However, in the actual image, the color of the red color is slightly higher than that of the near vehicle only.
따라서, 차량의 브레이크등 영역 추출 후에 영역들은, 사전적(실험적) 규칙에 기반하여 병합한다. 구체적으로, 추출된 브레이크등 영역들은, 1) 대칭성(모양이 서로 대칭되는 영역들을 병합), 2) 비슷한 크기/면적(크기나 면적이 비슷한 영역들을 병합), 3) 비슷한 가로/세로 비율(가로/세로 비율이 비슷한 영역들을 병합), 4) 비슷한 조명 정보(조명 정보가 비슷한 영역들을 병합), 5) 거리에 따른 크기(거리에 따른 크기가 비슷한 영역들을 병합), 6) 영역 외부의 상관성 등을 기초로 병합을 수행한다.Therefore, the regions after the brake light region extraction of the vehicle are merged based on the dictionary (experimental) rule. Specifically, the areas of the extracted brakes are divided into three areas: 1) symmetry (merging areas whose shapes are mutually symmetric), 2) similar size / area (merging regions of similar size or area), 3) 4) similar illumination information (merging similar areas of illumination information), 5) size according to distance (combining regions with similar size according to distance), 6) correlation outside the region The merging is performed.
도 5에는 대칭성, 비슷한 크기(면적), 비슷한 가로/세로 비율, 비슷한 조명정보에 기반한 라벨 영역 병합 기법을 나타내었고, 도 6에는 자신 차량과의 거리(카메라와의 거리)에 따른 가변 크기에 기반한 라벨 영역 병합 기법을 나타내었으며, 도 7에는 영역 외부의 비슷한 상관성에 기반한 라벨 영역 병합 기법을 나타내었다.FIG. 5 shows a label area merging technique based on symmetry, similar size (area), similar aspect ratio, similar illumination information, and FIG. 6 shows a label area merging technique based on a variable size according to the distance FIG. 7 shows a label area merging technique based on similar correlation outside the area.
영역 외부의 비슷한 상관성이란, 브레이크등으로 추출된 라벨 영역의 외곽의 컬러 분포는 붉은색임을 기저로 한 것이다. 즉, 외곽 컬러 분포가 붉은색인 라벨 영역들을 병합하는 것이다.
Similar correlation outside the area means that the color distribution outside the label area extracted by the brakes is red. That is, it merges the label areas whose outer color distribution is red.
2.3 차량 검증2.3 Vehicle Verification
차량 1대로 병합 후 이를 검증하기 위한 방법으로는 라벨 영역 추적 방법을 사용한다. 차량 1대로 병합된 영역의 라벨은 같은 움직임 정보가 나타나는 특징을 이용한다.The label area tracking method is used as a method for verifying the merged one vehicle. The label of the area merged with one vehicle uses the feature that the same motion information appears.
복잡한 도심의 경우 고정된 주변 조명, 움직이는 전방 차량들의 움직임으로 각 조명들의 움직임은 서로 다르게 나타나며, 움직이는 전방 차량 1대는 같은 움직임 정보가 발생한다. 차량 1대로 병합된 라벨의 경우 N프레임 동안 같은 움직임 정보가 발생 된다면 실제 차량으로 검증한다.In the case of a complicated city center, the movement of each lighting is different due to the fixed ambient lighting and the movement of the moving forward vehicles. In the case of a label merged into one vehicle, if the same motion information is generated during N frames, it is verified with an actual vehicle.
도 8에는 움직임 정보를 이용한 차량 검증 기법을 나타내었다.
FIG. 8 shows a vehicle verification technique using motion information.
3. 전방 차량 인식 시스템3. Forward vehicle recognition system
도 9는 본 발명의 다른 실시예에 따른 전방 차량 인식 시스템의 블럭도이다. 도 9에 도시된 바와 같이, 전방 차량 인식 시스템은, 카메라(110), 디스플레이(120), 영상 처리부(130), 저장부(140), 제어부(150) 및 출력부(160)를 포함한다.9 is a block diagram of a front vehicle recognition system according to another embodiment of the present invention. 9, the front vehicle recognition system includes a
카메라(110)는 차량의 전방 영상을 실시간으로 획득하고, 디스플레이(120)는 촬영된 전방 영상, 기타 정보를 표시한다. 저장부(140)에는 카메라(110)에 의해 획득된 전방 영상이 저장된다.The
영상 처리부(130)는 지평선 설정, 영상 전처리, 전방 차량의 브레이크등 영역 추출, 차량 검증 등을 수행하고, 전방 차량의 크기를 결정하고, 차간 거리를 산출하며, 전방 차량을 추적한다.The
영상 처리부(130)의 추출/산출/추적 결과는, 디스플레이(120)에서 전방 영상에 오버랩되어 표시될 수 있다.The extraction / calculation / tracking result of the
제어부(150)는 전방 차량과의 거리가 가깝고 운전자가 전방을 주시하지 않는다고 판단되면, 출력부(160)를 통해 운전자에게 시각적/청각적 경보를 발생시킨다.The
또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.
While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the present invention.
110 : 카메라
130 : 영상 처리부
150 : 제어부
160 : 출력부110: camera
130:
150:
160: Output section
Claims (8)
추출된 브레이크등 영역들을 결합하여, 전방 차량을 검출하는 단계;를 포함하는 것을 특징으로 하는 전방 차량 인식 방법.
Extracting braking areas of the vehicle from the forward image; And
And combining the extracted areas of the brake and detecting the front vehicle.
상기 추출단계는,
전방 영상을 이진화하여 이진 영상을 생성하는 단계;
전방 영상에서 에지를 추출하여 에지 영상을 생성하는 단계; 및
상기 이진 영상과 상기 에지 영상을 AND 연산하여 후보 영역을 분리하는 단계;를 포함하는 것을 특징으로 하는 전방 차량 인식 방법.
The method according to claim 1,
Wherein the extracting step comprises:
Generating a binary image by binarizing a forward image;
Extracting an edge from a forward image to generate an edge image; And
And performing an AND operation on the binary image and the edge image to separate the candidate region.
상기 추출 단계는,
분리된 후보 영역들을 라벨링하여 라벨 영역들을 생성하는 단계; 및
라벨 영역들 중 일부를 라벨 영역들을 구분하는 단계;를 더 포함하고,
상기 검출 단계는,
상기 구분 단계에서 구분된 라벨 영역들을 결합하는 것을 특징으로 하는 전방 차량 인식 방법.
3. The method of claim 2,
Wherein the extracting step comprises:
Labeling the candidate regions to generate label regions; And
Further comprising the steps of: identifying label regions of a portion of the label regions,
Wherein the detecting step comprises:
And combining the label regions separated in the classification step.
상기 구분 단계는,
라벨 영역들 중 특정 크기 범위에 속하는 라벨 영역들을 구분하는 것을 특징으로 하는 전방 차량 인식 방법.
The method of claim 3,
Wherein,
And label regions belonging to a specific size range of the label regions are distinguished.
상기 검출단계는,
대칭성, 크기, 면적, 가로/세로 비율을 고려하여, 추출된 브레이크등 영역들을 결합하는 것을 특징으로 하는 전방 차량 인식 방법.
The method according to claim 1,
Wherein the detecting step comprises:
Wherein the extracted areas of the brake are combined in consideration of symmetry, size, area, and aspect ratio.
상기 검출단계는,
추출된 브레이크등 영역의 외곽 컬러 분포를 고려하여, 추출된 브레이크등 영역들을 결합하는 것을 특징으로 하는 전방 차량 인식 방법.
The method according to claim 1,
Wherein the detecting step comprises:
And the extracted brake light areas are combined in consideration of the outer color distribution of the extracted brake light area.
추출된 브레이크등 영역들의 움직임 정보들을 고려하여, 상기 검출단계에서 검출된 전방 차량을 검증하는 단계;를 더 포함하는 것을 특징으로 하는 전방 차량 인식 방법.
The method according to claim 1,
And verifying the forward vehicle detected in the detecting step, taking into consideration the motion information of the extracted areas of the brake and the like.
상기 카메라가 생성한 전방 영상에서 차량의 브레이크등 영역들을 추출하고, 추출된 브레이크등 영역들을 결합하여 전방 차량을 검출하는 영상 처리부;를 포함하는 것을 특징으로 하는 전방 차량 인식 시스템.
A camera for generating a forward image; And
And an image processor for extracting braking areas of the vehicle from the forward image generated by the camera and combining the extracted braking areas to detect a forward vehicle.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140052586A KR101616462B1 (en) | 2014-04-30 | 2014-04-30 | Forward Vehicle Identification Method and System with the Vehicular Brake Lamp at Night Time |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140052586A KR101616462B1 (en) | 2014-04-30 | 2014-04-30 | Forward Vehicle Identification Method and System with the Vehicular Brake Lamp at Night Time |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20150125818A true KR20150125818A (en) | 2015-11-10 |
KR101616462B1 KR101616462B1 (en) | 2016-04-29 |
Family
ID=54605259
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020140052586A KR101616462B1 (en) | 2014-04-30 | 2014-04-30 | Forward Vehicle Identification Method and System with the Vehicular Brake Lamp at Night Time |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101616462B1 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108082037A (en) * | 2016-11-22 | 2018-05-29 | 福特全球技术公司 | Brake lamp detects |
KR101875786B1 (en) * | 2017-05-26 | 2018-07-06 | (주)베라시스 | Method for identifying vehicle using back light region in road image |
CN109523555A (en) * | 2017-09-18 | 2019-03-26 | 百度在线网络技术(北京)有限公司 | Front truck brake behavioral value method and apparatus for automatic driving vehicle |
CN112287808A (en) * | 2020-10-27 | 2021-01-29 | 江苏云从曦和人工智能有限公司 | Motion trajectory analysis warning method, device, system and storage medium |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08166221A (en) * | 1994-12-15 | 1996-06-25 | Nippondenso Co Ltd | Vehicle recognizing device for night |
JP2007193702A (en) * | 2006-01-20 | 2007-08-02 | Sumitomo Electric Ind Ltd | Image processing device and image processing method |
KR20080004833A (en) * | 2006-07-06 | 2008-01-10 | 삼성전자주식회사 | Apparatus and method for detecting a navigation vehicle in day and night according to luminous state |
JP2008287367A (en) * | 2007-05-15 | 2008-11-27 | Univ Nihon | Vehicle detection system |
-
2014
- 2014-04-30 KR KR1020140052586A patent/KR101616462B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08166221A (en) * | 1994-12-15 | 1996-06-25 | Nippondenso Co Ltd | Vehicle recognizing device for night |
JP2007193702A (en) * | 2006-01-20 | 2007-08-02 | Sumitomo Electric Ind Ltd | Image processing device and image processing method |
KR20080004833A (en) * | 2006-07-06 | 2008-01-10 | 삼성전자주식회사 | Apparatus and method for detecting a navigation vehicle in day and night according to luminous state |
JP2008287367A (en) * | 2007-05-15 | 2008-11-27 | Univ Nihon | Vehicle detection system |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108082037A (en) * | 2016-11-22 | 2018-05-29 | 福特全球技术公司 | Brake lamp detects |
KR101875786B1 (en) * | 2017-05-26 | 2018-07-06 | (주)베라시스 | Method for identifying vehicle using back light region in road image |
CN109523555A (en) * | 2017-09-18 | 2019-03-26 | 百度在线网络技术(北京)有限公司 | Front truck brake behavioral value method and apparatus for automatic driving vehicle |
US10824885B2 (en) | 2017-09-18 | 2020-11-03 | Baidu Online Network Technology (Beijing) Co., Ltd. | Method and apparatus for detecting braking behavior of front vehicle of autonomous vehicle |
CN112287808A (en) * | 2020-10-27 | 2021-01-29 | 江苏云从曦和人工智能有限公司 | Motion trajectory analysis warning method, device, system and storage medium |
Also Published As
Publication number | Publication date |
---|---|
KR101616462B1 (en) | 2016-04-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102441085B1 (en) | Apparatus and method for providing guidance information using crosswalk recognition result | |
Jensen et al. | Vision for looking at traffic lights: Issues, survey, and perspectives | |
US10627228B2 (en) | Object detection device | |
O'Malley et al. | Vehicle detection at night based on tail-light detection | |
US7952490B2 (en) | Method for identifying the activation of the brake lights of preceding vehicles | |
TWI302879B (en) | Real-time nighttime vehicle detection and recognition system based on computer vision | |
Kuo et al. | Vision-based vehicle detection for a driver assistance system | |
O'malley et al. | Vision-based detection and tracking of vehicles to the rear with perspective correction in low-light conditions | |
Chen et al. | Nighttime brake-light detection by Nakagami imaging | |
US20160335508A1 (en) | Vehicle detection system and method | |
JP5774770B2 (en) | Vehicle periphery monitoring device | |
US9280900B2 (en) | Vehicle external environment recognition device | |
CN107886034B (en) | Driving reminding method and device and vehicle | |
KR101616462B1 (en) | Forward Vehicle Identification Method and System with the Vehicular Brake Lamp at Night Time | |
Jen et al. | Robust detection and tracking of vehicle taillight signals using frequency domain feature based Adaboost learning | |
US9127941B2 (en) | System for measuring vehicle distance and method thereof | |
Boumediene et al. | Vehicle detection algorithm based on horizontal/vertical edges | |
JP6087240B2 (en) | Vehicle periphery monitoring device | |
Chen et al. | Robust rear light status recognition using symmetrical surfs | |
Kumar | Vehicle detection in monocular night-time grey-level videos | |
Fleyeh et al. | Night time vehicle detection | |
Karagiannis | Distance estimation between vehicles based on fixed dimensions licence plates | |
US20230122293A1 (en) | Occluded oncoming vehicles detection systems and methods | |
JP2015055968A (en) | Vehicle position detection device and blind spot warning system | |
KR20200060980A (en) | Front vehicle collision avoidance system for commercial vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
AMND | Amendment | ||
E601 | Decision to refuse application | ||
AMND | Amendment | ||
X701 | Decision to grant (after re-examination) | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20190313 Year of fee payment: 4 |