KR100829904B1 - Vehicles detecting method using multiple resolution technique - Google Patents

Vehicles detecting method using multiple resolution technique Download PDF

Info

Publication number
KR100829904B1
KR100829904B1 KR1020060126782A KR20060126782A KR100829904B1 KR 100829904 B1 KR100829904 B1 KR 100829904B1 KR 1020060126782 A KR1020060126782 A KR 1020060126782A KR 20060126782 A KR20060126782 A KR 20060126782A KR 100829904 B1 KR100829904 B1 KR 100829904B1
Authority
KR
South Korea
Prior art keywords
information
vehicle
region
contour
candidate
Prior art date
Application number
KR1020060126782A
Other languages
Korean (ko)
Inventor
원웅재
이선봉
Original Assignee
(재)대구경북과학기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (재)대구경북과학기술연구원 filed Critical (재)대구경북과학기술연구원
Priority to KR1020060126782A priority Critical patent/KR100829904B1/en
Application granted granted Critical
Publication of KR100829904B1 publication Critical patent/KR100829904B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/149Segmentation; Edge detection involving deformable models, e.g. active contour models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/507Depth or shape recovery from shading
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/68Analysis of geometric attributes of symmetry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing
    • G06T2207/20012Locally adaptive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Abstract

A vehicle detecting method using multiple resolution technique is provided to calculate correlation of coefficient between a vehicle area and a vehicle template, using a specific map for checking vehicles ahead and behind accurately through template matching and CCD camera sensors. Light/darkness information is extracted from input images(S100). Contour information is extracted from the light/darkness information and images of multiple resolution are created(S120). Symmetrical information is extracted from the light/darkness information(S150). The contour and symmetrical specific images are created using contour and symmetrical information(S140,S170). The specific map is created by adding the contour and symmetrical specific images(S180). A following vehicle area is calculated using entropy algorithm(S200). An actual vehicle area is selected from the following vehicle area(S270). The correlation of coefficient between the following vehicle area and the vehicle template is calculated by putting the specific map.

Description

다중 해상도 기법을 이용한 차량 검출 방법{Vehicles detecting method using multiple resolution technique}Vehicle detection method using multiple resolution technique

도 1은 종래 특허출원번호 10-1996-0073015 "모노비젼을 이용한 스티어링 제어방법"에 개시된 모노비젼을 이용한 스티어링 제어방법이 적용된 장치의 제어 블록도.1 is a control block diagram of a device to which a steering control method using a monovision disclosed in the conventional patent application No. 10-1996-0073015 "steering control method using monovision" is applied.

도 2는 상기 도 1의 모노비젼을 이용한 스티어링 제어방법의 제어 순서도.2 is a control flowchart of a steering control method using the monovision of FIG.

도 3은 종래 특허출원번호 10-1996-0079563 "컬러 비젼을 이용한 야지 주행 장치 및 방법"에 개시된 컬러 비젼을 이용한 야지 주행 장치를 도시한 도면.3 is a view showing a field driving apparatus using the color vision disclosed in the conventional patent application No. 10-1996-0079563 "field driving apparatus and method using color vision".

도 4는 종래 특허출원번호 10-2001-0033824 "전방 차량 감지 장치"에 개시된 전방 차량 감지 장치를 도시한 도면.4 is a view showing a front vehicle detecting apparatus disclosed in the conventional patent application No. 10-2001-0033824 "front vehicle detecting apparatus".

도 5는 본 발명의 차량 검출 모델을 도시한 도면.5 illustrates a vehicle detection model of the present invention.

도 6은 본 발명의 차량 검출 알고리즘을 도시한 플로우 차트.6 is a flow chart illustrating a vehicle detection algorithm of the present invention.

도 7은 본 발명의 외부로부터 입력되는 입력 영상을 나타낸 도면.7 is a view showing an input image input from the outside of the present invention.

도 8은 본 발명의 대칭성 정보를 추출하는 과정을 도시한 플로우 차트.8 is a flowchart illustrating a process of extracting symmetry information of the present invention.

도 9는 본 발명의 빠른 NTGST 알고리즘을 구현하는 방법을 나타낸 도면.9 illustrates a method of implementing the fast NTGST algorithm of the present invention.

도 10은 본 발명의 엔트로피 알고리즘을 이용한 후보 자동차 영역을 계산 방법을 나타낸 도면.10 is a diagram illustrating a method for calculating a candidate vehicle region using the entropy algorithm of the present invention.

도 11은 본 발명의 알고리즘을 실제 구현한 예를 도시한 도면.11 shows an example of the actual implementation of the algorithm of the present invention.

본 발명은 입력 영상으로부터 얻어지는 다중 해상도 영상을 통하여 차량의 윤곽선 정보, 명암 정보, 대칭성 정보를 차량의 기본 정보와 비교함으로써 효율적으로 차량을 검출할 수 있는 다중 해상도 기법을 이용한 차량 검출 방법에 관한 것이다.The present invention relates to a vehicle detection method using a multi-resolution technique that can efficiently detect a vehicle by comparing the outline information, contrast information, and symmetry information of the vehicle with the basic information of the vehicle through the multi-resolution image obtained from the input image.

현재 운전자의 안전과 편의성을 제공하기 위해 지능형 자동차 연구가 활발히 진행 중에 있다. 특히 지능형 자동차의 눈 역할을 할 비전 분야는 소위 "Grand Challenge" 라 하여 전 세계의 주목을 받고 있다. 또한, 이러한 비전 분야의 기술을 지능형 자동차의 전, 후방 차량 검출에 적용시키려는 노력이 계속되고 있다.Intelligent vehicle research is actively underway to provide driver safety and convenience. In particular, the vision field that will serve as the eye of intelligent cars is called the “Grand Challenge” and is attracting worldwide attention. In addition, efforts are being made to apply this vision technology to the front and rear vehicle detection of intelligent vehicles.

이하, 도면을 참조하여 종래 기술 및 종래 기술의 문제점을 설명한다.Hereinafter, with reference to the drawings will be described the problems of the prior art and the prior art.

도 1은 종래 특허출원번호 10-1996-0073015 "모노비젼을 이용한 스티어링 제어방법"에 개시된 모노비젼을 이용한 스티어링 제어방법이 적용된 장치의 제어 블록도이며, 도 2는 상기 도 1의 모노비젼을 이용한 스티어링 제어방법의 제어 순서도이다.1 is a control block diagram of a device to which a steering control method using a monovision disclosed in the conventional patent application No. 10-1996-0073015 "method of steering control using monovision" is applied, Figure 2 is a view using the monovision of FIG. Control flow chart of the steering control method.

도 1을 참조하면, 종래 모노비젼을 이용한 스티어링 제어방법이 적용된 장치는, 차량의 진행 방향으로 장착되어 차량 전방의 환경을 이차원적인 화면으로 구성하여 상기 영상을 전기적인 신호로 출력하는 모노비젼(1)과, 세 개의 중앙 처리 장 치로 구성되어 상기 모노비젼에서 영상 신호를 캡쳐해 이미지 압축 및 에지 검출을 하며 차량의 주행 차선에 대한 제어값을 출력하는 차선 검출장치(2)와, 상기 차선 검출 장치(2)에서 차선에 대한 차량의 진행 방향의 오차 신호를 입력받아 차량의 진행 방향을 조절하는 신호를 출력하는 차량 제어장치(3)와, 상기 차량 제어장치(3)에서 제어 신호를 입력받아 스티어링을 구동시키는 스티어링 제어장치(4)를 포함한다.Referring to FIG. 1, a device to which a conventional steering control method using a monovision is applied includes a monovision (1) mounted in a traveling direction of a vehicle to configure an environment in front of the vehicle as a two-dimensional screen and outputting the image as an electric signal (1). ), A lane detection device (2) for capturing an image signal in the monovision to perform image compression and edge detection, and outputting a control value for the driving lane of the vehicle, and the lane detection device A vehicle control device 3 for receiving an error signal of a vehicle traveling direction with respect to the lane at 2 and outputting a signal for adjusting the vehicle traveling direction, and receiving a control signal from the vehicle controller 3 for steering; It includes a steering control device 4 for driving.

도 2를 참조하면, 상기 차선 검출 장치(2)는 차량 전방의 환경 영상을 모노비젼을 이용해 이미지를 캡쳐한다(S20). 상기 이미지는 고해상도의 크기로서 처리 데이터 량이 많아 실시간 처리를 하지 못한다. 이러한 이유로 차선 검출 장치(2)는 실시간 이미지 처리를 하기 위해 고해상도의 이미지를 저해상도로 압축하게 된다(S30). 세 개의 에지에서 기울기를 구해 좌측 에지인지 우측 에지인지를 판단하고 상기 좌우측 에지의 기울기가 맞는지 판단하여 차선을 검지한다(S40). 차선 검출 장치(2)는 상기 검지된 에지를 이용해 도로의 차선을 모델링하고 차선 방향과 차량의 진행 방향에 대한 오차를 구한다(S50). 차량 제어장치(3)는 상기에서 구한 스티어링 제어값을 스티어링 제어장치(4)로 출력하고 상기 제어값으로 스티어링을 제어한다(S60).Referring to FIG. 2, the lane detection apparatus 2 captures an image of an environment image in front of a vehicle using a mono vision (S20). The image is of high resolution and has a large amount of processing data and thus cannot be processed in real time. For this reason, the lane detection apparatus 2 compresses a high resolution image to a low resolution for real time image processing (S30). Determination of the slope from the three edges to determine whether the left edge or the right edge, and determines whether the slope of the left and right edge is correct to detect the lane (S40). The lane detecting apparatus 2 models the lane of the road using the detected edge and calculates an error between the lane direction and the traveling direction of the vehicle (S50). The vehicle controller 3 outputs the steering control value obtained above to the steering controller 4 and controls steering by the control value (S60).

도 3은 종래 특허출원번호 10-1996-0079563 "컬러 비젼을 이용한 야지 주행 장치 및 방법"에 개시된 컬러 비젼을 이용한 야지 주행 장치를 도시한 도면이다.3 is a view showing a field driving apparatus using the color vision disclosed in the conventional patent application No. 10-1996-0079563 "field driving apparatus and method using the color vision".

도 3을 참조하면, 차량의 진행 방향으로 장착되어 차량 전방의 환경을 이차원적인 화면으로 구성하여 상기 영상을 전기적인 신호로 출력하는 컬러 비젼(6)과, 세 개의 중앙 처리 장치로 구성되어 상기 모노 비젼에서 영상 신호를 캡쳐해 이미지 압축 및 에지 검출을 하며, 차량의 주행 차선에 대한 제어 값을 출력하는 영상 처리 장치(7)와, 상기 영상 처리 장치(7)에서 차선에 대한 차량 진행 방향의 오차 신호를 입력받아 차량의 진행 방향을 조절하는 신호를 출력하는 차량 제어 장치(8)와, 상기 차량 제어 장치(8)에서 제어 신호를 입력받아 스티어링을 구동시키는 스티어링 제어 장치(9)를 포함한다.Referring to FIG. 3, a color vision 6 which is mounted in a traveling direction of a vehicle to configure an environment in front of the vehicle as a two-dimensional screen and outputs the image as an electric signal, and three central processing units are configured. An image processing apparatus 7 which captures an image signal in a vision, performs image compression and edge detection, and outputs a control value for a driving lane of the vehicle, and an error in the vehicle traveling direction with respect to the lane in the image processing apparatus 7. And a vehicle control device 8 for receiving a signal and outputting a signal for adjusting a traveling direction of the vehicle, and a steering control device 9 for driving the steering by receiving a control signal from the vehicle control device 8.

상기 특허출원번호 10-1996-0073015 및 특허출원번호 10-1996-0079563 에 개시된 종래 기술은 차량의 검출이 목적이 아닌 차선 검출을 목적으로 하며, 영상 신호를 병렬 처리하여 차선을 검색함으로써 차량의 자동 도로 주행 기능을 제공하는 기술에 불과하다. 즉, 도로상에 차량이 존재하지 않는 경우에만 상기 종래 기술을 이용하여 차량을 운행할 수 있다는 문제점이 있다.The prior art disclosed in Patent Application No. 10-1996-0073015 and Patent Application No. 10-1996-0079563 is for the purpose of detecting a lane, not for the purpose of detecting the vehicle, and automatically searches for a lane by processing image signals in parallel. It's just a technology that provides road driving capabilities. That is, there is a problem in that the vehicle can be operated using the conventional technology only when there is no vehicle on the road.

도 4는 종래 특허출원번호 10-2001-0033824 "전방 차량 감지 장치"에 개시된 전방 차량 감지 장치를 도시한 도면이다.4 is a diagram illustrating a front vehicle detecting apparatus disclosed in the patent application No. 10-2001-0033824 "front vehicle detecting apparatus".

도 4를 참조하면, 전방 차량 감지 장치는, 크게 전방 차량으로 밀리미터파 즉, 측정파를 송신하는 송신부(10), 전방 차량으로부터 반사되는 측정파를 수신하는 수신부(30), 수신된 측정파를 토대로 하여 전방 차량과의 거리를 산출하는 디지털 신호 처리부(20)를 포함한다.Referring to FIG. 4, the apparatus for detecting a front vehicle includes a transmitter 10 for transmitting a millimeter wave, that is, a measurement wave, to a front vehicle, a receiver 30 for receiving a measurement wave reflected from the front vehicle, and a received measurement wave. It includes a digital signal processing unit 20 for calculating the distance with the front vehicle based on.

상기 송신부(10)는 전압 제어 발진기(12), 선형 신호 발생부(linearizer ramp generator)(11), 증폭기(13), 주파수 이배기(14) 및 송신 안테나(15)를 포함한다. 선형 신호 발생부(11)는 전압 제어 발진기(12)로 입력 전압을 공급하며, 전 압 제어 발진기(12)는 공급되는 입력 전압의 발진 주파수를 가변시켜 출력한다. 증폭기(13)는 전압 제어 발진기(12)에서 출력되는 전압을 증폭시켜 출력하며, 주파수 이배기(14)는 증폭되어 입력되는 전압의 주파수를 2배 증가시켜 출력한다.The transmitter 10 includes a voltage controlled oscillator 12, a linearizer ramp generator 11, an amplifier 13, a frequency doubler 14, and a transmit antenna 15. The linear signal generator 11 supplies an input voltage to the voltage controlled oscillator 12, and the voltage controlled oscillator 12 outputs a variable oscillation frequency of the supplied input voltage. The amplifier 13 amplifies and outputs the voltage output from the voltage controlled oscillator 12, and the frequency doubler 14 doubles and outputs the frequency of the amplified voltage.

수신부(30)는 수신 안테나(31,31'), 제1 및 제2 저조파 혼합기(32,32'), 제1 및 제2 중간 주파수 증폭기(33,33'), 제1 및 제2 자동 이득 조절기(auto gain controller)(34,34'), 제1 및 제2 버퍼부(35,35'), 신호 변환부(36)를 포함한다. 제1 및 제2 저조파 혼합기(32,32')는 수신 안테나(31,31')에서 각각 수신된 수신 신호와 송신부(10)의 증폭기(13)에서 출력되는 신호를 혼합하여 중간 주파 신호를 생성하며, 제1 및 제2 중간 주파수 증폭기(33,33')는 생성된 중간 주파수 신호를 각각 증폭하여 출력한다. 제1 및 제2 자동 이득 조절기(34,34')는 디지털 신호 처리부(20)에서 출력되는 이득 조절 신호에 따라 제1 및 제2 주파수 증폭기(33,33')에서 각각 증폭된 중간 주파 신호의 이득을 조절하여 출력하며, 제1 및 제2 버퍼(35,35')는 이득 조절된 중간 주파 신호를 일시 저장하였다가 신호 변환부(36)로 출력한다. 신호 변환부(35)는 디지털 신호 처리부(20)에서 출력되는 신호를 아날로그 신호로 변환하여 출력하는 D/A 변환기(361,262)와, 중간 주파 신호를 디지털 신호로 변환하여 디지털 신호 처리부(20)로 출력하는 A/D 변환기(363,364)를 포함한다.Receiving unit 30 includes receiving antennas 31 and 31 ', first and second harmonic mixers 32 and 32', first and second intermediate frequency amplifiers 33 and 33 ', first and second automatic It includes an auto gain controller 34, 34 ', first and second buffers 35, 35', and a signal converter 36. The first and second low frequency mixers 32 and 32 'mix the received signals received from the receiving antennas 31 and 31' and the signals output from the amplifier 13 of the transmitter 10, respectively, to generate an intermediate frequency signal. The first and second intermediate frequency amplifiers 33 and 33 'amplify and output the generated intermediate frequency signals, respectively. The first and second automatic gain adjusters 34 and 34 ′ are used to adjust the intermediate frequency signals amplified by the first and second frequency amplifiers 33 and 33 ′ according to the gain control signals output from the digital signal processor 20. The gain is adjusted and output, and the first and second buffers 35 and 35 'temporarily store the gain-adjusted intermediate frequency signal and output it to the signal converter 36. The signal converter 35 converts the signal output from the digital signal processor 20 into an analog signal and outputs the D / A converters 361 and 262, and converts an intermediate frequency signal into a digital signal to the digital signal processor 20. And output A / D converters 363 and 364.

디지털 신호 처리부(20)는 송신부(10) 및 수신부(30)의 전체적인 동작을 제어하며, 수신부(30)에서 수신 및 처리되어 입력되는 신호를 토대로 하여 전방 차량과의 거리를 산출하고, 산출된 전방 차량과의 거리를 표시하거나 경고 동작을 수행 한다.The digital signal processor 20 controls the overall operations of the transmitter 10 and the receiver 30, calculates a distance from the vehicle ahead based on the signals received and processed by the receiver 30, and calculates the distance from the front vehicle. Display the distance to the vehicle or perform a warning.

상기 종래 기술은 밀리미터(mm)파를 이용하여 전방에서 주행하는 차량과의 차간 거리를 감지하는데 특징이 있으나, 차량의 차선 변경시나 전방의 차량이 상기 송신부의 감지 범위 밖에 존재하는 경우 차량의 정확한 위치를 감지하기 어려우며, 차량과 기타 장애물의 구별이 용이치 않다는 문제점이 있다.The conventional technology is characterized by detecting the distance between the vehicle and the vehicle traveling in front by using a millimeter (mm) wave, but the exact position of the vehicle when changing the lane of the vehicle or when the vehicle in front of the vehicle is outside the detection range of the transmitter It is difficult to detect, and there is a problem that it is not easy to distinguish between the vehicle and other obstacles.

이러한 문제점을 해결하기 위하여 최근 비전 기술을 이용한 차량 감지 기술의 개발이 이루어지고 있다. 비전 기반 지능형 차량 개발을 위해서는 주변 대상에 대한 인지 메커니즘과 이에 대한 실시간 모델의 개발이 필수적이다. 그럼에도 종래 차량 검출 기술은 고속도로에서 차선을 검출하고, 검출된 차선을 중심으로 색상, 윤곽선 정보, 질감, 대칭성 정도 및 그림자 등의 특정 정보를 각각 분석하여 차량을 검출하는 정도에 머물러 있다. 이들 모델은 시간에 따른 조도 변화, 그림자, 차선의 상태 그리고 우천의 영향 등 자연현상에 의한 잡음에 대하여 민감히 작용하여 그 활용이 쉽지않은 문제점이 있다.In order to solve this problem, the development of a vehicle detection technology using vision technology has recently been made. In order to develop a vision-based intelligent vehicle, it is essential to develop a cognitive mechanism and its real-time model. Nevertheless, the conventional vehicle detection technology remains at the extent of detecting a vehicle by detecting lanes on a highway and analyzing specific information such as color, contour information, texture, symmetry degree, and shadow, respectively, based on the detected lanes. These models are sensitive to noise caused by natural phenomena such as changes in illumination over time, shadows, lane conditions, and the effects of rain, making them difficult to use.

상기 문제점을 해결하기 위하여 안출된 본 발명은 외란에 덜 민감한 템플릿 매칭(template matching)을 이용하여 전, 후방 차량을 정확하게 검출할 수 있는 다중 해상도 기법을 이용한 차량 검출 방법을 제공하는 것을 목적으로 한다.The present invention devised to solve the above problems is an object of the present invention to provide a vehicle detection method using a multi-resolution technique that can accurately detect the front and rear vehicles using a template matching less sensitive to disturbance.

상기 목적을 달성하기 위한 본 발명은, (a) 기준 위치를 설정하고 상기 기준 위치 이상의 영상을 제거하여 명암 정보를 추출하는 단계; (b) 상기 명암 정보에서 윤곽선 정보를 추출하고 다중 해상도의 영상을 만드는 단계; (c) 상기 명암 정보에서 대칭성 정보를 추출하는 단계; (d) 상기 윤곽선 정보와 대칭성 정보의 모든 층을 각각 더하고 정규화하여 윤곽선, 대칭성 특징 영상을 구성하는 단계; (e) 상기 윤곽선, 대칭성 특징 영상을 더하고 평균 내어 특징맵을 구성하는 단계; (f) 각 층의 가우시안 윤곽선 정보와 대칭성 정보를 합하고 정규화하여 정규화된 특징맵을 구성하는 단계; (g) 상기 정규화된 특징맵에 대하여 지역적 최대 검색을 통하여 자동차 후보 영역을 추출하는 단계; (h) 엔트로피 알고리즘을 이용하여 후보 자동차 영역을 구하는 단계; 및 (i) 상기 후보 자동차 영역에서 실제 자동차 영역을 선택하는 단계를 포함하는 다중 해상도 기법을 이용한 차량 검출 방법을 제공한다.The present invention for achieving the above object, (a) setting the reference position and extracting the contrast information by removing the image of the reference position or more; (b) extracting contour information from the contrast information and creating a multi-resolution image; (c) extracting symmetry information from the contrast information; (d) adding and normalizing all layers of the contour information and the symmetry information to form a contour, symmetric feature image; (e) constructing a feature map by adding and averaging the contour and symmetric feature images; (f) combining and normalizing Gaussian contour information and symmetry information of each layer to construct a normalized feature map; (g) extracting a car candidate region through a local maximum search for the normalized feature map; (h) obtaining a candidate vehicle region using an entropy algorithm; And (i) selecting an actual vehicle region from the candidate vehicle region.

여기서, 상기 (b) 단계는, 가우시안 필터링을 통하여 서로 다른 다중 해상도를 가진 영상을 생성하는 단계와, 가우시안 필터링을 이용하여 상기 다중 해상도의 영상을 입력 영상의 해상도 크기로 확대하는 단계를 포함한다.Here, the step (b) includes generating an image having different multi resolutions through Gaussian filtering and enlarging the multi resolution image to the resolution size of the input image using Gaussian filtering.

또한, 상기 (c) 단계는, NTGST 알고리즘을 이용하여 대칭성 정보를 추출한다.In the step (c), the symmetry information is extracted using the NTGST algorithm.

또한, 상기 (h) 단계는, 정규화된 특징맵에 대하여 후보 자동차 중심 위치로부터 사방으로 일정 크기만큼씩 크기를 증가시켜가면서 엔트로피 알고리즘을 만족시키는 영역을 선택하여 후보 자동차 크기로 설정한다.Also, in the step (h), an area satisfying the entropy algorithm is selected and set as the candidate vehicle size while increasing the size by a predetermined size from the candidate vehicle center position in all directions with respect to the normalized feature map.

또한, 상기 (i) 단계는, 각 후보 자동차 영역의 대칭성 정보의 평균값 및 표 준편차를 구하는 단계와, 특징맵을 입력으로 하여 후보 자동차 영역과 자동차 템플릿 사이의 상관계수를 계산하는 단계, 및 대칭성 정보의 표준편차가 기준 표준편차보다 크고, 각 후보 자동차 영역의 상관계수가 기준 상관계수보다 큰 영역을 최종 자동차 영역으로 선택하는 단계를 포함한다.In addition, the step (i) may include obtaining an average value and standard deviation of the symmetry information of each candidate vehicle region, calculating a correlation coefficient between the candidate vehicle region and the vehicle template by inputting a feature map, and symmetry. And selecting an area in which the standard deviation of the information is larger than the reference standard deviation and the correlation coefficient of each candidate vehicle area is larger than the reference correlation coefficient as the final vehicle area.

본 발명과 본 발명의 동작성의 이점 및 본 발명의 실시에 의하여 달성되는 목적을 충분히 이해하기 위해서는 본 발명의 바람직한 실시예를 예시하는 첨부 도면 및 첨부 도면에 기재된 내용을 참조하여야만 한다.In order to fully understand the present invention, the advantages of the operability of the present invention, and the objects achieved by the practice of the present invention, reference should be made to the accompanying drawings which illustrate preferred embodiments of the present invention and the contents described in the accompanying drawings.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 설명함으로써, 본 발명을 상세히 설명한다. 각 도면에 제시된 동일한 참조부호는 동일한 부재를 나타낸다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. Like reference numerals in the drawings denote like elements.

도 5는 본 발명의 차량 검출 모델을 도시한 도면이며, 도 6은 본 발명의 차량 검출 알고리즘을 도시한 플로우 차트이다.5 is a diagram showing a vehicle detection model of the present invention, Figure 6 is a flow chart showing the vehicle detection algorithm of the present invention.

도 5 및 도 6을 참조하면, 일반적으로 자동차는 사각형 유사의 모양을 가지고 있다. 따라서 본 발명의 차량 검출 방법은 윤곽선(edge), 대칭성(symmetry) 정보의 다중 해상도 영상을 이용하여 자동차 영역을 주변보다 두드러지게 표현하며, 이렇게 두드러진 특징 정보를 이용하여 지역적 최대 검색(local maximum searching) 방법으로 후보 자동차 영역을 획득하고, 정보 최대화 알고리즘 중 하나인 엔트로피 최대화(Entropy maximization) 알고리즘을 이용하여 후보 자동차 영역 을 계산한다. 또한 템플릿 매칭(template matching)과 대칭성 정보를 이용하여 후보 자동차 영역 중 최종적으로 실제 자동차 영역을 선택한다.5 and 6, the motor vehicle generally has a rectangular-like shape. Therefore, the vehicle detection method of the present invention expresses the automobile area more prominently than the surroundings by using the multi-resolution image of the edge and symmetry information, and uses the characteristic information to search the local maximum searching. The candidate vehicle region is obtained by using the method, and the candidate vehicle region is calculated using an entropy maximization algorithm, which is one of information maximization algorithms. In addition, the actual vehicle region is finally selected among the candidate vehicle regions by using template matching and symmetry information.

도 7 내지 도 10을 참조하여 도 5 및 도 6을 보다 상세히 설명하면, 외부로부터 입력 영상이 입력되면(S100), 도 7에 도시된 바와 같이, 차량 검출을 위해서 불필요한 연산을 줄이고 복잡한 배경을 제거하기 위하여 기준 위치(ym)를 설정하여 상기 기준 위치 이상의 영상을 제거한다(S110). 다음으로 차량 검출을 위하여 기준 위치 이상의 배경이 제거된 입력 영상에서 Sobel 오퍼레이터(operator)를 이용하여 윤곽선 정보를 추출한다(S120). 상기 윤곽선 정보의 추출이 완료되면 다중 해상도의 영상을 생성한다. 보다 상세히, 가우시안 필터를 이용하여 가우시안 피라미드 윤곽선 정보를 추출한다(S130).5 and 6 will be described in more detail with reference to FIGS. 7 to 10, when an input image is input from the outside (S100), as shown in FIG. 7, unnecessary operations are reduced and complicated backgrounds are removed for vehicle detection. In order to set the reference position (y m ) to remove the image above the reference position (S110). Next, contour information is extracted using a Sobel operator from the input image from which the background of the reference position or more is removed for vehicle detection (S120). When the extraction of the contour information is completed, a multi-resolution image is generated. In more detail, Gaussian pyramid contour information is extracted using a Gaussian filter (S130).

예를 들어, 입력 영상의 해상도가 360*240 일 경우 다중 해상도 영상으로 180*120 해상도, 90*60 해상도, 45*30 해상도, 22*15 해상도의 영상을 생성할 수 있으며, 다중 해상도의 영상이 생성되면 가우시안 필터를 이용하여 필터링한다. 이후, 다시 가우시안 필터를 이용하여 상기 다중 해상도 영상을 입력 영상의 해상도 크기로 확대하고 이들 영상을 더하고, 정규화하여 윤곽선 특징맵을 구성한다(S140).For example, if the resolution of the input image is 360 * 240, a multi-resolution image may generate 180 * 120 resolution, 90 * 60 resolution, 45 * 30 resolution, and 22 * 15 resolution images. Once created, we filter it using a Gaussian filter. Subsequently, the multi-resolution image is enlarged to the resolution size of the input image by using a Gaussian filter, and these images are added and normalized to construct a contour feature map (S140).

상기 다중 해상도의 영상을 생성할 때 가우시안(Gaussian) 필터 또는 평활화 필터를 이용하여 각각의 영상에 대해서 블러링(burring)을 수행하여 고주파 노이즈를 제거하고 객체에 대해 두각적인 정보를 표현할 수 있다.When generating the multi-resolution image, a Gaussian filter or a smoothing filter may be used to blur each image to remove high frequency noise and to express prominent information about the object.

한편, 입력 영상에 대해 논문 Context-free Maker-controlled watershed transform for efficient multi-object detecton and segmentation, K. S. Seo. et al, IEICE Trans, 384-A,no.6, 1392-1400pp, 2001. 등에 개시된 NTGST(noise-tolerant generalized symmetry) 알고리즘을 이용하여 도 8에 도시된 절차를 통해 대칭성 정보를 추출하고(S150), 가우시안 피라미드 대칭성 정보를 추출한다(S160).On the other hand, the paper on the input image Context-free Maker-controlled watershed transform for efficient multi-object detecton and segmentation, K. S. Seo. et al, IEICE Trans, 384-A, no. 6, 1392-1400pp, 2001. The use of the noise-tolerant generalized symmetry (NTGST) algorithm disclosed in Figure 8 to extract the symmetry information through the procedure shown in Figure 8 (S150) Gaussian pyramid symmetry information is extracted (S160).

도 8을 참조하면, 피라미드 대칭 정보를 생성하기 위하여 명암 정보의 피라미드 영상을 추출한다(S160a). 명암 정보의 피라미드 영상을 추출한 뒤 피라미드 윤곽선 정보의 방향정보를 추출하고(S160b), 피라미드 윤곽선 정보를 추출한다(S160c). 추출된 피라미드 윤곽선 정보의 방향정보와 자동차 템플릿 크기의 대칭성 계산 위치 샘플링 윈도우를 기초로 위상 가중함수를 계산하고(S160d), 거리 가중함수를 계산한다(S160e). 상기 S160c 단계를 통하여 추출된 피라미드 윤곽선 정보와 S160d 및 S160e 단계를 통하여 계산된 위상 가중함수 및 거리 가중함수를 이용하여 피라미드 대칭성 정보를 추출한다(S160f). 이후 각 피라미드 영상의 합으로 대칭성 정보를 추출한다(S160g).Referring to FIG. 8, a pyramid image of contrast information is extracted to generate pyramid symmetry information (S160a). After extracting the pyramid image of the contrast information, the direction information of the pyramid contour information is extracted (S160b), and the pyramid contour information is extracted (S160c). The phase weighting function is calculated on the basis of the extracted position information of the pyramid contour information and the symmetry calculation position sampling window of the vehicle template size (S160d), and the distance weighting function is calculated (S160e). Pyramid symmetry information is extracted using the pyramid contour information extracted in step S160c and the phase weighting function and the distance weighting function calculated in steps S160d and S160e (S160f). Thereafter, symmetry information is extracted from the sum of the respective pyramid images (S160g).

상기 단계를 통하여 추출되는 가우시안 피라미드 대칭성 정보를 가우시안 필터링과 함께 입력 영상의 크기로 확대한다. 그리고 이들 영상을 더하고, 정규화하여 대칭성 특징맵을 구성한다(S170).The Gaussian pyramid symmetry information extracted through the above step is enlarged to the size of the input image with Gaussian filtering. Then, these images are added and normalized to form a symmetric feature map (S170).

여기서 NTGST 알고리즘은 위상 가중함수(Phase weight function), 거리 가중함수(Distance weithg function), 대칭성 연산자로 구성된다. 여기서 빠른 연산처리 속도를 가지는 NTGST 알고리즘을 구현하려면 도 9에 도시된 바와 같이 일정 윈 도우 크기를 설정하고 그 윈도우(window)를 자동차 템플릿 크기에 맞게 윈도우 크기를 설정한 후 계산할 위치를 설정하고, 이에 따른 거리 가중함수 및 기타 파라미터로 룩업(Look-up) 테이블을 만든다.The NTGST algorithm is composed of a phase weight function, a distance weight function and a symmetry operator. Here, to implement the NTGST algorithm having a fast processing speed, as shown in FIG. 9, a predetermined window size is set, a window size is set according to the vehicle template size, and a position to be calculated is set. Create a look-up table with the distance weighting function and other parameters.

한편, 가우시안 윤곽선 정보과 가우시안 대칭성 정보의 모든 층을 각각 더한 후 정규화하여 윤곽선, 대칭성 특징 영상을 구성한다. 또한 윤곽선, 대칭성 특징 영상을 단순히 더하고 평균의 값을 취하여 특징맵을 구성한다(S180). 또한, 각 층의 가우시안 윤곽선 정보와 대칭성 정보를 합하고 정규화하여 정규화된 특징맵을 구성한다(S190). Meanwhile, all layers of Gaussian contour information and Gaussian symmetry information are added and normalized to form a contour image. In addition, a contour map and a symmetrical feature image are simply added and the average value is taken to form a feature map (S180). Further, the Gaussian contour information and the symmetry information of each layer are added and normalized to form a normalized feature map (S190).

다음으로, 자동차는 대부분 동일한 모양을 가지고 있으므로 일정 크기를 같은 일정 모양의 윈도우(모양)를 만들고 정규화된 특징맵에 대하여 지역적 최대 검색(local maximum searching)을 통하여 자동차 후보 영역을 구한다(S200). 그리고 논문 Scale saliency and image description, Timor Kadir et al., International Journal of Computer Vision, 45 (2001), 83 - 105. 에 개시된 히스토그램을 기반으로 한 엔트로피 알고리즘을 이용하여 후보 자동차 영역을 계산한다. 여기서 Timor Kadir이 제안한 방법은 히스토그램을 기반으로 한 엔트로피 식과, 크기 가중 함수, 크기 가중함수가 반영된 엔트로피, 최적 크기를 선택할 수 있는 조건 등으로 이루어져 있다.Next, since most cars have the same shape, a car candidate area is obtained through local maximum searching for a normalized feature map by creating a window having a certain shape having the same size (S200). The candidate vehicle region is then calculated using an entropy algorithm based on the histogram disclosed in the paper Scale saliency and image description, Timor Kadir et al., International Journal of Computer Vision, 45 (2001), 83-105. The method proposed by Timor Kadir consists of a histogram-based entropy equation, a size weighting function, an entropy reflecting the size weighting function, and a condition for selecting an optimal size.

도 10을 예로 들어 설명하면, 도 10의 (a) 입력 영상에 대해 정규화된 특징맵을 구할 경우 먼저 정규화된 특징맵을 구하고, 구해진 정규화된 특징맵에 대하여 도 10의 (b)에 나타난 바와 같이 후보 자동차 중심 위치에서부터 위쪽, 아래쪽, 왼 쪽, 오른쪽으로 일정 크기만큼씩 크기를 증가시켜 엔트로피와 크기 가중값을 구한다. 엔트로피와 크기 가중값을 구하여 최적 크기를 선택할 수 있는 조건을 만족할 경우 도 10의 (c)에 나타난 바와 같이 이를 후보 자동차의 크기로 설정한다. 이는 Timor Kadir et all.이 대상의 크기를 입력 영상의 화소마다 모두 계산하여 구한 방법보다 연산량을 현저히 줄일 수 있다.Referring to FIG. 10 as an example, when a normalized feature map is obtained for the input image of FIG. 10, first, the normalized feature map is obtained, and as shown in FIG. 10B for the obtained normalized feature map. Entropy and size weighting are obtained by increasing the size by a certain size from the center of the candidate car up, down, left, and right. When the condition for selecting the optimal size is satisfied by obtaining the entropy and the size weighting value, it is set as the size of the candidate car as shown in FIG. This can significantly reduce the amount of computation compared to the method obtained by calculating the size of the object for each pixel of the input image by Timor Kadir et all.

상기 과정을 거쳐 후보 자동차 영역을 선택하였다면, 아래 과정을 통하여 상기 후보 자동차 영역들 중 실제 자동차 영역을 선택한다. 보다 상세히, S150 단계를 통하여 추출된 대칭성 정보를 이용하여 각 후보 자동차 영역의 대칭성 정보의 평균값(Symean)을 구한다(S210). 이후 후보 자동차 영역의 대칭성 평균값과 기준값(Sythreshold)을 비교하고(S220), 대칭성 평균값이 기준값 이하일 경우 상기 영역은 후보 자동차 영역에서 제외시킨다(S230). 일반적으로 자동차는 대칭 성분이 강하기 때문에 후보 자동차 영역을 선택하기 위해 대칭성을 고려한다.If the candidate vehicle region is selected through the above process, the actual vehicle region is selected from the candidate vehicle regions through the following process. In more detail, using the symmetry information extracted through the step S150 to obtain the average value (Sy mean ) of the symmetry information of each candidate vehicle region (S210). Subsequently, the average symmetry value of the candidate vehicle area is compared with the reference threshold (Sy threshold ), and when the symmetry average value is less than or equal to the reference value, the area is excluded from the candidate vehicle area (S230). In general, cars have a strong symmetry component, so symmetry is taken into consideration in order to select candidate car regions.

대칭성 평균값이 기준값 이상일 경우에는 상기 과정을 통하여 선택된 후보 자동차 영역에 대해 대칭성 정보의 표준 편차(Systd)를 구한다(S240). 자동차 영역에 대한 대칭성 정보는 국소적으로 대칭성 정보가 표현되는 것이 아니라 전체적으로 대칭성 정보가 나타난다.If the average symmetry value is greater than or equal to the reference value, the standard deviation Sy std of the symmetry information is obtained for the selected candidate vehicle region through the above process (S240). In the symmetry information on the automobile region, the symmetry information is not expressed locally but the symmetry information is displayed overall.

이후, S90 단계를 통하여 기 설정된 직사각형의 자동차 모양의 템플릿(template)을 상기 선택된 자동차 후보 영역 크기만큼 축소 또는 확대한다. 여기서 자동차 모양의 템플릿은 사전에 여러 자동차에 대해 특징맵을 구성하고, 구성된 특징맵에 대하여 사람이 직접 자동차 영역을 분할하여 일정 크기로 저장해 둔다. S180 단계를 통하여 구해진 특징맵을 입력으로 하여 상기 선택된 후보 자동차 영역과 상기 자동차 후보 영역 크기만큼 축소 또는 확대한 자동차 템플릿 사이의 상관 계수(Matcorr)를 계산하여 유사도를 계산한다(S250).In operation S90, the preset rectangular car-shaped template is reduced or enlarged by the size of the selected car candidate region. In this case, the car-shaped template is configured with feature maps for several cars in advance, and the car region is directly divided by the person and stored in a predetermined size. The degree of similarity is calculated by calculating a correlation coefficient (Mat corr ) between the selected candidate vehicle region and the vehicle template reduced or enlarged by the size of the candidate vehicle region by inputting the feature map obtained through the operation S180 (S250).

상기 선택된 후보 자동차 영역들에 대하여 S240 단계를 통해 구해진 각 후보 자동차 영역에 대한 대칭성 정보의 표준 편차(Systd)가 기준 표준편차 값(Stdthreshold) 보다 크고(Systd>Stdthreshold), 상기 S250 단계를 통하여 계산된 각 후보 자동차 영역의 상관계수 값(Matcorr)이 기준 상관계수 값(Corrthreshold)보다 큰(Matcorr>Corrthreshold) 후보 영역들을 최종 자동차 영역으로 선택한다(S270).The standard deviation Sy std of the symmetry information for each candidate vehicle region obtained through the step S240 for the selected candidate vehicle regions is greater than a standard std threshold (Sy std > Std threshold ), and the step S250. In operation S270, candidate regions having a correlation coefficient value Matt corr of each candidate vehicle region calculated through S 1 (Cat corr > Corr threshold ) larger than a reference correlation coefficient value Corr threshold are selected (S270).

도 11은 상기 설명한 알고리즘을 실제 구현한 예를 도시한 도면이다.11 is a diagram illustrating an example in which the above described algorithm is actually implemented.

본 발명은 도면에 도시된 일 실시예를 참고로 설명되었으나, 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 등록청구범위의 기술적 사상에 의해 정해져야 할 것이다.Although the present invention has been described with reference to one embodiment shown in the drawings, this is merely exemplary, and those skilled in the art will understand that various modifications and equivalent other embodiments are possible therefrom. . Therefore, the true technical protection scope of the present invention will be defined by the technical spirit of the appended claims.

본 발명은 외란에 덜 민감한 템플릿 매칭(template matching)을 이용하여 전, 후방 차량을 정확하게 검출할 수 있는 다중 해상도 기법을 이용한 차량 검출 방법을 제공한다. 또한, CCD 카메라 센서를 이용하여 주행 중 전, 후방 차량을 효율적 검출함으로써 전, 후방 차량과의 사고를 줄일 수 있다.The present invention provides a vehicle detection method using a multi-resolution technique capable of accurately detecting front and rear vehicles using template matching which is less sensitive to disturbances. In addition, by using the CCD camera sensor to efficiently detect the front and rear vehicles while driving, accidents with the front and rear vehicles can be reduced.

Claims (5)

(a) 입력 영상으로부터 명암 정보를 추출하는 단계;(a) extracting contrast information from an input image; (b) 상기 명암 정보에서 윤곽선 정보를 추출하고 다중 해상도의 영상을 만드는 단계;(b) extracting contour information from the contrast information and creating a multi-resolution image; (c) 상기 명암 정보에서 대칭성 정보를 추출하는 단계;(c) extracting symmetry information from the contrast information; (d) 상기 윤곽선 정보와 대칭성 정보의 모든 층을 각각 더하고 정규화하여 윤곽선, 대칭성 특징 영상을 구성하는 단계;(d) adding and normalizing all layers of the contour information and the symmetry information to form a contour, symmetric feature image; (e) 상기 윤곽선, 대칭성 특징 영상을 더하고 평균 내어 특징맵을 구성하는 단계;(e) constructing a feature map by adding and averaging the contour and symmetric feature images; (f) 각 층의 가우시안 윤곽선 정보와 대칭성 정보를 합하고 정규화하여 정규화된 특징맵을 구성하는 단계;(f) combining and normalizing Gaussian contour information and symmetry information of each layer to construct a normalized feature map; (g) 상기 정규화된 특징맵에 대하여 지역적 최대 검색을 통하여 자동차 후보 영역을 추출하는 단계;(g) extracting a car candidate region through a local maximum search for the normalized feature map; (h) 엔트로피 알고리즘을 이용하여 후보 자동차 영역을 구하는 단계; 및(h) obtaining a candidate vehicle region using an entropy algorithm; And (i) 상기 후보 자동차 영역에서 실제 자동차 영역을 선택하는 단계를 포함하는 다중 해상도 기법을 이용한 차량 검출 방법.(i) selecting a real vehicle region from the candidate vehicle region. 삭제delete 제 1항에 있어서,The method of claim 1, 상기 (c) 단계는,In step (c), NTGST 알고리즘을 이용하여 대칭성 정보를 추출하는 다중 해상도 기법을 이용한 차량 검출 방법.Vehicle detection method using multiple resolution technique that extracts symmetry information using NTGST algorithm. 제 1항에 있어서,The method of claim 1, 상기 (h) 단계는,(H) step, 정규화된 특징맵에 대하여 후보 자동차 중심 위치로부터 사방으로 일정 크기만큼씩 크기를 증가시켜가면서 엔트로피 알고리즘을 만족시키는 영역을 선택하여 후보 자동차 크기로 설정하는 다중 해상도 기법을 이용한 차량 검출 방법.A method for detecting a vehicle using a multi-resolution technique in which a region satisfying an entropy algorithm is selected and set to a candidate vehicle size while increasing a size by a predetermined size in all directions from a candidate vehicle center position with respect to a normalized feature map. 제 1항에 있어서,The method of claim 1, 상기 (i) 단계는,In step (i), 각 후보 자동차 영역의 대칭성 정보의 평균값 및 표준편차를 구하는 단계와,Obtaining an average value and standard deviation of symmetry information of each candidate vehicle region; 특징맵을 입력으로 하여 후보 자동차 영역과 자동차 템플릿 사이의 상관계수를 계산하는 단계, 및Calculating a correlation coefficient between the candidate car region and the car template by inputting the feature map; and 대칭성 정보의 표준편차가 기준 표준편차보다 크고, 각 후보 자동차 영역의 상관계수가 기준 상관계수보다 큰 영역을 최종 자동차 영역으로 선택하는 단계를 포함하는 다중 해상도 기법을 이용한 차량 검출 방법.And selecting a region in which the standard deviation of the symmetry information is larger than the reference standard deviation and the correlation coefficient of each candidate vehicle region is larger than the reference correlation coefficient as the final vehicle region.
KR1020060126782A 2006-12-13 2006-12-13 Vehicles detecting method using multiple resolution technique KR100829904B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020060126782A KR100829904B1 (en) 2006-12-13 2006-12-13 Vehicles detecting method using multiple resolution technique

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020060126782A KR100829904B1 (en) 2006-12-13 2006-12-13 Vehicles detecting method using multiple resolution technique

Publications (1)

Publication Number Publication Date
KR100829904B1 true KR100829904B1 (en) 2008-05-16

Family

ID=39664405

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060126782A KR100829904B1 (en) 2006-12-13 2006-12-13 Vehicles detecting method using multiple resolution technique

Country Status (1)

Country Link
KR (1) KR100829904B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101300279B1 (en) * 2011-08-05 2013-08-23 엘지전자 주식회사 Detection of vehicles in different illumination environments
US10186154B2 (en) 2014-05-09 2019-01-22 Hanwha Land Systems Co., Ltd. Device and method for detecting surrounding vehicles
KR20200002066A (en) * 2018-06-29 2020-01-08 한국교통대학교산학협력단 Method for detecting vehicles and apparatus using the same

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030040271A (en) * 2003-04-08 2003-05-22 주식회사 아이링크 시스템 Apparatus and Method for vehicle image detector using laser scanning method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030040271A (en) * 2003-04-08 2003-05-22 주식회사 아이링크 시스템 Apparatus and Method for vehicle image detector using laser scanning method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101300279B1 (en) * 2011-08-05 2013-08-23 엘지전자 주식회사 Detection of vehicles in different illumination environments
US10186154B2 (en) 2014-05-09 2019-01-22 Hanwha Land Systems Co., Ltd. Device and method for detecting surrounding vehicles
KR20200002066A (en) * 2018-06-29 2020-01-08 한국교통대학교산학협력단 Method for detecting vehicles and apparatus using the same
KR102074073B1 (en) * 2018-06-29 2020-03-02 한국교통대학교산학협력단 Method for detecting vehicles and apparatus using the same

Similar Documents

Publication Publication Date Title
US7231288B2 (en) System to determine distance to a lead vehicle
US11010622B2 (en) Infrastructure-free NLoS obstacle detection for autonomous cars
US9384401B2 (en) Method for fog detection
JP6184877B2 (en) Vehicle external recognition device
US8077198B2 (en) Object position detection device and method thereof
US20130286205A1 (en) Approaching object detection device and method for detecting approaching objects
US20100328427A1 (en) Stereo image processing device and method
US20060245653A1 (en) Method and apparatus for detecting edges of an object
US10867403B2 (en) Vehicle external recognition apparatus
KR101176693B1 (en) Method and System for Detecting Lane by Using Distance Sensor
JP4425642B2 (en) Pedestrian extraction device
EP2573708B1 (en) Method and System for Detecting Vehicle Position by Employing Polarization Image
CN111247525A (en) Lane detection method and device, lane detection equipment and mobile platform
KR101191308B1 (en) Road and lane detection system for intelligent transportation system and method therefor
US11270133B2 (en) Object detection device, object detection method, and computer-readable recording medium
CN111148965B (en) Information processing apparatus, information processing method, control apparatus, and image processing apparatus
JPWO2019202628A1 (en) Road surface detection device, image display device using road surface detection device, obstacle detection device using road surface detection device, road surface detection method, image display method using road surface detection method, and obstacle detection method using road surface detection method
JPH08329393A (en) Preceding vehicle detector
KR101483742B1 (en) Lane Detection method for Advanced Vehicle
KR100829904B1 (en) Vehicles detecting method using multiple resolution technique
JP6847709B2 (en) Camera devices, detectors, detection systems and mobiles
JP3915621B2 (en) Lane mark detector
JP6789151B2 (en) Camera devices, detectors, detection systems and mobiles
JP3867890B2 (en) Image processing method and apparatus
WO2021132229A1 (en) Information processing device, sensing device, moving body, information processing method, and information processing system

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130502

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20140507

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20150507

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20160419

Year of fee payment: 9

LAPS Lapse due to unpaid annual fee