KR19980074792A - Traffic information detection method and apparatus using image processing - Google Patents

Traffic information detection method and apparatus using image processing Download PDF

Info

Publication number
KR19980074792A
KR19980074792A KR1019970010774A KR19970010774A KR19980074792A KR 19980074792 A KR19980074792 A KR 19980074792A KR 1019970010774 A KR1019970010774 A KR 1019970010774A KR 19970010774 A KR19970010774 A KR 19970010774A KR 19980074792 A KR19980074792 A KR 19980074792A
Authority
KR
South Korea
Prior art keywords
vehicle
image
detection model
traffic information
virtual detection
Prior art date
Application number
KR1019970010774A
Other languages
Korean (ko)
Other versions
KR100207009B1 (en
Inventor
김신태
Original Assignee
이종수
엘지산전 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이종수, 엘지산전 주식회사 filed Critical 이종수
Priority to KR1019970010774A priority Critical patent/KR100207009B1/en
Publication of KR19980074792A publication Critical patent/KR19980074792A/en
Application granted granted Critical
Publication of KR100207009B1 publication Critical patent/KR100207009B1/en

Links

Landscapes

  • Traffic Control Systems (AREA)

Abstract

본 발명은 화상처리를 이용한 교통정보 검지방법 및 장치에 관한 것으로, 종래의 교통정보를 얻기 위한 알고리즘 접근방법에 있어서는 한 차선에 설치된 검지영역이 차량이 통과할 때 순차적으로 검지되어야 하므로, 차량의 밀도가 높을 때, 즉 동시에 두 영역 이상으로 차량이 존재하는 경우 오류가 발생하고, 상기 오류를 방지하기 위해 두 영역간의 간격을 좁히면 계산량의 오류가 발생하며, 알고리즘에 도로의 표면이 차량과 분리되어야 한다는 가정을 하고, 배경영상을 계속해서 갱신하는 과정이 포함되면 차두간격이 좁아 도로의 모양이 보이지 않는 경우가 발생하여 오류가 발생하고, 도로의 영상과 비슷한 명암을 가진 차량의 경우 도로의 화소값과의 차이가 적기 때문에 검지오류가 생기며, 차량이 밝은 화소값을 가지고 있어 도로의 화소값과 차이가 많은 경우에도 검지오류가 발생하고, 옆차선의 차량으로 인해 발생하는 그림자를 차량으로 인식하는 오류도 발생하며, 야간에는 검지오류가 더 심화되는 문제점이 있었다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a traffic information detecting method and apparatus using image processing. In the conventional algorithm approach for obtaining traffic information, the detection area installed in one lane must be sequentially detected when the vehicle passes, and thus the density of the vehicle. Is high, i.e. when a vehicle exists in more than one area at the same time, an error occurs, and if the distance between the two areas is narrowed to prevent the error, an error of calculation occurs, and the algorithm must separate the surface of the road from the vehicle. When the background image is continuously updated, the error occurs because the shape of the road is invisible due to the narrow head gap, and the pixel value of the road in the case of a vehicle having a contrast similar to the image of the road is assumed. Detection error occurs because the difference is small, and because the vehicle has bright pixel value, Many lice is detected an error in the case, the error also occurs to recognize the shadow caused by the vehicle in the lane next to the car, at night there is a problem that is further deepening the detection error.

따라서, 본 발명은 상기와 같은 종래의 문제점을 해결하기 위해서 창안한 것으로, 영상센서를 도로변에 설치하여, 상기 영상센서를 통해 입력되는 도로의 영상을 화상 처리하여 필요한 교통정보를 검지하는 화상처리를 이용한 교통정보 검지방법 및 장치를 제공하여 주간과 야간으로 이중화된 화상처리알고리즘을 이용하여 교통제어를 위한 여러 장치들과의 접속이 가능하고, 교통정보검지의 신뢰성을 향상시키는 효과가 있다.Accordingly, the present invention has been made to solve the above-mentioned problems, and the image sensor is installed on the side of the road, and the image processing to detect the necessary traffic information by image processing the image of the road input through the image sensor. By providing the traffic information detection method and apparatus used, it is possible to connect with various devices for traffic control by using the image processing algorithm dualized during the day and at night, thereby improving the reliability of the traffic information detection.

Description

화상처리를 이용한 교통정보 검지방법 및 장치Traffic information detection method and apparatus using image processing

본 발명은 화상처리를 이용한 교통정보 검지방법 및 장치에 관한 것으로, 특히 영상센서를 도로변에 설치하여, 상기 영상센서를 통해 입력되는 도로의 영상을 화상 처리하여 필요한 교통정보를 검지하는 화상처리를 이용한 교통정보 검지방법 및 장치에 관한 것이다.The present invention relates to a method and apparatus for detecting traffic information using image processing. In particular, an image sensor is installed on a roadside, and image processing of an image of a road input through the image sensor is used to detect necessary traffic information. It relates to a traffic information detection method and apparatus.

도1은 종래 교통정보를 검지하기 위한 영상검지장치의 블록 구성도로서, 이에 도시된 바와 같이 3차원 공간에 존재하는 도로를 2차원의 감지센서에 상이 맺히게 하여 이를 아날로그 신호로 순차적으로 전송하는 감지센서부(10)와; 상기 감지센서부(10)에서 전송한 영상신호의 각 화소값을 디지탈값으로 변환하여 전송하는 아날로그/디지탈 변환기(12)와, 상기 감지센서부(10)의 감지센서에 맺히는 3차원 공간의 도로영상과 1:1로 대응되는 데이터를 저장하는 메모리(13)로 구성된 영상취득부(11)와; 영상검지장치의 모든 기능을 제어하는 중앙처리부(14)와; 외부장치와 접속하기 위한 통신접속부(15)로 구성된 것으로, 이와 같이 구성된 종래 장치의 동작과정을 설명한다.1 is a block diagram of a conventional image detecting apparatus for detecting traffic information. As shown in FIG. 1, a road that exists in a three-dimensional space is formed on a two-dimensional sensor so that detection is sequentially transmitted as an analog signal. A sensor unit 10; 3D space road formed by the analog / digital converter 12 for converting each pixel value of the image signal transmitted from the sensing sensor unit 10 into a digital value and transmitting the same, and a sensing sensor of the sensing sensor unit 10. An image acquisition unit 11 including a memory 13 for storing data corresponding to the image in a 1: 1 manner; A central processing unit 14 for controlling all functions of the image detecting apparatus; An operation process of the conventional device configured as the communication connection unit 15 for connecting with an external device will be described.

감지센서부(10)에서 3차원 공간에 존재하는 도로를 2차원의 감지센서에 상(image)이 맺히게 하여 이를 아날로그 신호로 순차적으로 영상취득부(11)에 전송하고, 상기 영상취득부(11)에 전송된 아날로그 신호(영상신호)는 상기 영상취득부(11)내에 있는 아날로그/디지탈 변환기(12)를 통해 입력영상의 각 화소값을 디지탈 값으로 변환하며, 이 값들을 상기 영상취득부(11)내에 있는 메모리(13)에 저장하고, 상기 메모리(13)에 순차적으로 저장된 디지탈 값들을 상기 감지센서부(10)의 감지센서에 맺히는 3차원 공간의 도로영상과 1 : 1로 대응되며, 처리방식에 따라서 차이는 있지만 일반적으로 상기 메모리(13)에 저장되어 있는 모든 화소의 값들을 화상처리알고리즘에 적용하지는 않고, 초기 셋업시에 정해진 부분만을 화상처리 알고리즘에 적용해 계산에 따른 부담감을 주리는데 상기 화상처리 알고리즘에 따라 초기 셋업시에 검지영역 지정방법에 차이가 있다.In the sensor 10, an image existing in a three-dimensional space is formed on a two-dimensional sensor, and the image is sequentially transmitted as an analog signal to the image acquisition unit 11, and the image acquisition unit 11 is used. The analog signal (video signal) transmitted to the digital signal is converted into a digital value of each pixel value of the input image through the analog / digital converter 12 in the image acquisition unit 11, and the values are converted into the image acquisition unit ( 11 is stored in the memory 13 in the memory 13, and the digital values sequentially stored in the memory 13 correspond to the road image of the three-dimensional space 1: 1, which is formed on the detection sensor of the sensor 10, Although there is a difference depending on the processing method, in general, the values of all the pixels stored in the memory 13 are not applied to the image processing algorithm, but only a portion determined at the time of initial setup is applied to the image processing algorithm, resulting in the burden of calculation. There is a difference in the detection area designation method at the time of initial setup according to the image processing algorithm.

교통정보를 얻기 위해서 2가지 기본적인 알고리즘 접근방법이 사용되는데 이를 유형1과 유형2로 나누어 설명하면 다음과 같다.Two basic algorithmic approaches are used to obtain traffic information, which is divided into Type 1 and Type 2 as follows.

〈유형1〉<Type 1>

도2는 종래 화면에 가상 검지영역의 위치 지정의 일실시예로서, 이에 도시된 바와 같이 초기 셋업시에 사용자가 서로 떨어진 거리를 알고있는 서로 수직인 가상의 검지영역(20, 21)을 화면에 지정(M×N의 화소배열)하고, 검지영역내에 차량이 없으면 각각의 화소에 해당하는 화소값들은 거의 차이가 없이 일정하다.FIG. 2 illustrates an exemplary embodiment of positioning a virtual detection area on a conventional screen. As shown in FIG. 2, virtual detection areas 20 and 21 that are vertical to each other in which a user knows a distance from each other at the time of initial setup are shown on the screen. If there is no vehicle in the detection area (pixel array of M x N), the pixel values corresponding to each pixel are almost constant.

도3은 종래 미리 지정한 검지영역내에 차량이 있을 때의 검지영역 확대도로서, 이에 도시된 바와 같이 차량이 검지영역내로 들어오면 차량이 점유하고 있는 화소부분(31)과 점유하고 있지 않은 화소부분과 화소값에 변화가 생기고, 이 변화에 의해 차량의 존재유무를 판단하며, 차량이 아래로 진행할 경우 두 개의 검지영역이 순차적으로 검지영역에 화소값의 변화를 일으키고, 검지영역을 통과할 때까지 점유한 시간과 상기 두 검지영역이 화소값변화를 일으킨 시간차를 이용하여 교통정보를 산출한다.3 is an enlarged view of a detection area when a vehicle is in a conventionally designated detection area. As shown in FIG. 3, when the vehicle enters the detection area, the pixel portion 31 occupied by the vehicle and the pixel portion not occupied are shown. The pixel value changes, and the change determines whether the vehicle exists. If the vehicle proceeds downward, the two detection areas sequentially change the pixel value in the detection area and occupy until they pass through the detection area. Traffic information is calculated using the time difference between the one time and the two detection areas causing the pixel value change.

〈유형2〉<Type 2>

차량추적 알고리즘으로 움직이는 블록을 검지하여 그 궤적을 따라가면서 속도를 측정하는데 알고리즘의 복잡성 정도에 따라 계산량을 줄이기 위해 영상영역의 일부분의 정보만을 이용하는 방법과, 전 영상영역을 분석하고 임의의 방향으로 차량을 추적하는 방법으로 나뉘어 진다.The vehicle tracking algorithm detects moving blocks and measures the speed while following the trajectory.It uses only the information of a part of the image area to reduce the amount of calculation according to the complexity of the algorithm, and analyzes the entire image area and the vehicle in any direction. It is divided into ways to track it.

상기와 같이 종래의 교통정보를 얻기 위한 알고리즘 접근방법에 있어서는 한 차선에 설치된 검지영역이 차량이 통과할 때 순차적으로 검지되어야 하므로, 차량의 밀도가 높을 때, 즉 동시에 두 영역 이상으로 차량이 존재하는 경우 오류가 발생하고, 상기 오류를 방지하기 위해 두 영역간의 간격을 좁히면 계산량의 오류가 발생하며, 알고리즘에 도로의 표면이 차량과 분리되어야 한다는 가정을 하고, 배경영상을 계속해서 갱신하는 과정이 포함되면 차두간격이 좁아 도로의 모양이 보이지 않는 경우가 발생하여 오류가 발생하고, 도로의 영상과 비슷한 명암을 가진 차량의 경우 도로의 화소값과의 차이가 적기 때문에 검지오류가 생기며, 차량이 밝은 화소값을 가지고 있어 도로의 화소값과 차이가 많은 경우에도 검지오류가 발생하고, 옆차선의 차량으로 인해 발생하는 그림자를 차량으로 인식하는 오류도 발생하며, 야간에는 검지오류가 더 심화되는 문제점이 있었다.As described above, in the conventional algorithm approach for obtaining traffic information, the detection area installed in one lane must be detected sequentially when the vehicle passes. Therefore, when the vehicle density is high, that is, the vehicle exists in two or more areas at the same time. In this case, an error occurs, and if the gap between two areas is narrowed to prevent the error, a calculation error occurs, and the algorithm assumes that the surface of the road should be separated from the vehicle, and continuously updates the background image. If it is included, an error occurs because the shape of the road is invisible due to a narrow head gap, and a vehicle having a contrast similar to the image of the road generates a detection error because the difference between the pixel value of the road is small and the vehicle is bright. Detection error occurs even if the pixel value of the road is different from the pixel value of the road. Also it occurs due to the failure to recognize the shadow of the vehicle occurs, and at night there is a problem that is further deepening the detection error.

따라서, 본 발명은 상기와 같은 종래의 문제점을 해결하기 위해서 창안한 것으로, 영상센서를 도로변에 설치하여, 상기 영상센서를 통해 입력되는 도로의 영상을 화상 처리하여 필요한 교통정보를 검지하는 화상처리를 이용한 교통정보 검지방법 및 장치를 제공함에 목적이 있다.Accordingly, the present invention has been made to solve the above-mentioned problems, and the image sensor is installed on the side of the road, and the image processing to detect the necessary traffic information by image processing the image of the road input through the image sensor. An object of the present invention is to provide a method and apparatus for detecting traffic information.

도1은 종래 교통정보를 검지하기 위한 영상검지장치의 블록 구성도.1 is a block diagram of an image detecting apparatus for detecting conventional traffic information.

도2는 종래 화면에 가상 검지영역의 위치 지정의 일실시예.2 is an embodiment of designating a position of a virtual detection area on a conventional screen.

도3은 종래 미리 지정한 검지영역내에 차량이 있을 때의 검지영역 확대도.Fig. 3 is an enlarged view of the detection area when the vehicle is in the conventionally designated detection area.

도4는 본 발명 화상처리를 이용한 교통정보 검지장치의 동작 흐름도.4 is an operation flowchart of a traffic information detection apparatus using the image processing of the present invention;

도5는 검지영역 설정을 변경하기 위한 동작 순서도.Fig. 5 is an operation flowchart for changing the detection area setting.

도6은 도로의 화상에 교통정보를 검지 할 기본 검지영역을 지정하는 방법의 일실시예.6 is an embodiment of a method for designating a basic detection area for detecting traffic information on a road image.

도7은 기준영상을 갱신하는 동작 순서도.7 is an operation flowchart of updating a reference image.

도8은 교통정보를 얻기 위한 검지영역에서의 가상검지모형의 일실시예.8 is an embodiment of a virtual detection model in the detection area for obtaining traffic information.

도9는 상기 도8에 차량이 존재하는 경우 화소값에 변화가 생긴 화소배열.FIG. 9 is a pixel array in which the pixel value is changed when a vehicle exists in FIG. 8; FIG.

도10은 상기 도9의 가상검지모형의 화소값을 연산하는 순서도.10 is a flowchart for calculating pixel values of the virtual detection model of FIG.

도11은 한 대의 차량이 가상검지영역을 진입해서 통과할 때까지의 동작 순서도.Fig. 11 is a flow chart of operation until one vehicle enters and passes the virtual detection area.

도12는 상태의 변화를 따라서 교통정보를 산출하기 위한 순서도.12 is a flowchart for calculating traffic information in accordance with a change of state.

도13a는 차량이 가상검지모형을 통과할 때의 화소값 히스토그램.Fig. 13A is a histogram of pixel values when the vehicle passes the virtual detection model.

도13b는 그림자의 화소값이 도로변의 화소값과 비슷한 경우의 화소값 히스토그램.Fig. 13B is a histogram of pixel values when the pixel value of the shadow is similar to the pixel value of the road side;

도13c는 화소값이 도로면과 약간의 차이가 있을 경우의 화소값 히스토그램.Fig. 13C is a histogram of pixel values when the pixel values are slightly different from the road surface.

도14는 그림자의 화소값이 히스토그램의 좁은 구간에 집중되는 특성을 이용한 그림자와 차량의 판별 순서도.Fig. 14 is a flowchart of discrimination between a shadow and a vehicle using the characteristic that pixel values of the shadow are concentrated in a narrow section of the histogram.

도15는 차량이 야간에 통과하는 가상검지모형의 화소배열.Fig. 15 is a pixel arrangement of the virtual detection model through which a vehicle passes at night.

도16은 블럽을 형성하는 특징을 이용한 차량검지 순서도.16 is a vehicle detection flow chart using the characteristics of forming a blob.

도17은 야간에 차량이 통과할 때의 가상검지모형의 화소배열 유형도.Fig. 17 is a pixel array type diagram of a virtual detection model when a vehicle passes at night.

***도면의 주요 부분에 대한 부호의 설명****** Description of the symbols for the main parts of the drawings ***

10 : 감지센서부 11 : 영상취득부10: detection sensor unit 11: image acquisition unit

12 : 아날로그/디지탈 변환기 13 : 메모리12: analog / digital converter 13: memory

14 : 중앙처리부 15 : 통신접속부14: central processing unit 15: communication connection

20, 21 : 가상검지영역 22 : 3×3 화소배열20, 21: Virtual detection area 22: 3 × 3 pixel array

P(I,J) : 화소 31 : 차량이 점유하고 있는 화소부분P (I, J): pixel 31: pixel portion occupied by the vehicle

60a, 60b, 60c : 기본 검지영역 61a, 61b : 가상 검지모형의 영역60a, 60b, 60c: basic detection area 61a, 61b: area of virtual detection model

62 : 가이드라인 80 : 제1 가상 검지영역62: guideline 80: first virtual detection area

81 : 제2 가상 검지영역 82 : 제3 가상 검지영역81: second virtual detection area 82: third virtual detection area

90 : 제4 가상 검지영역 L : 차량에 점유되어 있는 부분의 폭90: fourth virtual detection area L: width of part occupied by vehicle

R : 차량에 점유되어 있는 부분의 폭 W : 임계치R: Width of the part occupied by the vehicle W: Threshold

130 : 전조등 빛이 도로에 반사된 부분 131 : 전조등 불빛의 블럽130: portion of the headlight light reflected on the road 131: blob of the headlight light

132 : 가상 검지모형의 왼쪽 133 : 가상 검지모형의 오른쪽132: left side of the virtual detection model 133: right side of the virtual detection model

이와 같은 목적을 달성하기 위한 본 발명의 구성은 차량이 통행하는 노변에 설치된 화상감지센서에서 도로의 화상을 감지하는 감지수단과; 상기 감지수단에서 감지한 화상데이터를 메모리에 저장하고, 교통정보를 산출하는 화상취득 및 처리수단과; 상기 화상취득 및 처리수단에서 산출된 교통정보를 관리하고, 외부와의 접속을 제어하는 중앙처리부와; 외부장치와 접속하기 위한 통신접속부와; 초기 셋업시에 검지영역 설정 및 장치의 초기화를 하는 조작수단으로 구성한다.The configuration of the present invention for achieving the above object comprises a sensing means for detecting the image of the road in the image sensor installed on the roadside through which the vehicle passes; Image acquisition and processing means for storing the image data sensed by the detection means in a memory and calculating traffic information; A central processing unit which manages traffic information calculated by the image acquisition and processing means and controls access to the outside; A communication connection unit for connecting to an external device; It consists of the operation means which sets a detection area and initializes an apparatus at the time of initial setup.

그리고, 본 발명의 방법은 장치의 초기 셋업과정에서 각각의 영상센서에서 제공하는 도로의 화상에 지정된 검지영역을 수정하거나 추가할 필요가 있는지를 판단하는 제1 단계와; 상기 제1 단계의 판단에 의해 검지영역을 다시 설정하는 제2 단계와; 차량이 존재하지 않는 상태의 도로화상인 기준영상의 갱신유무를 판단하는 제3 단계와; 상기 제3 단계의 판단에 의해 새로운 기준영상을 획득하는 제4 단계와; 영상센서로 부터 현재의 영상을 취득하여 교통정보를 산출하는 하는 제5 단계로 이루어진다.In addition, the method of the present invention includes a first step of determining whether it is necessary to correct or add a detection area designated to an image of a road provided by each image sensor during an initial setup of the device; A second step of resetting the detection area by the determination of the first step; A third step of determining whether or not the reference image, which is a road image without a vehicle, is updated; A fourth step of acquiring a new reference image by the determination of the third step; The fifth step of obtaining the current image from the image sensor and calculating the traffic information.

도4는 본 발명 화상처리를 이용한 교통정보 검지장치의 동작 흐름도이고, 도5는 검지영역 설정을 변경하기 위한 동작 순서도로서, 이에 도시한 바와 같이 먼저 초기 셋업과정에서 각각의 영상센서에서 제공하는 도로의 화상인 초기화데이터를 메모리에 할당하고, 외부장치 또는 관리자가 지정된 검지영역을 수정하거나 추가할 필요가 있어 통신으로 검지영역에 대한 변경요구가 있으면 변경모드인 검지영역 설정을 진행하고 작업진행모드로 진행하는데, 도6은 도로의 화상에 교통정보를 검지 할 기본 검지영역을 지정하는 방법의 일실시예로, 이에 도시한 바와 같이 검지영역 설정은 먼저 조작수단을 움직여 차선의 경계위치의 상단과 하단에 있는 지점(63, 64)을 순서대로 지정하면 가이드라인(62)이 생기며, 여러 차선의 경우 차선의 순서대로 이동하면서 상기 가이드라인(62)의 시작과 끝위치를 지정하면 되고, 한 쌍의 가이드라인 사이에는 기본 검지영역(60a, 60b, 60c)이 나타난다.4 is an operation flowchart of the traffic information detection apparatus using the image processing of the present invention, and FIG. 5 is an operation flowchart for changing the detection area setting. As shown therein, a road provided by each image sensor in the initial setup process is shown. If the external device or the administrator needs to modify or add the designated detection area, and the communication device needs to change the detection area, proceed with setting the detection area, which is the change mode, and return to the work progress mode. 6 is an embodiment of a method for designating a basic detection area for detecting traffic information on an image of a road. As shown in FIG. 6, the detection area is first set by moving an operation means to the top and bottom of a lane boundary position. Specifying points (63, 64) in order creates a guideline (62), and in the case of multiple lanes, The guide and by specifying the starting and ending position of the line 62, between the pair of guide line to display the default detection area (60a, 60b, 60c).

검지영역에 대한 변경요구가 없으면 바로 작업진행모드인 기준영상의 갱신유무를 판단하며, 도로의 화상은 시간대 및 날씨변화에 따라 계속해서 변화하기 때문에 기준영상을 계속해서 도로의 상태에 맞게 갱신해야 하는데, 도7은 기준영상을 갱신하는 동작 순서도로서, 이에 도시한 바와 같이 새로운 영상이 입력되면 카운트를 '0'으로 초기화하고, 상기 도6의 기본 검지영역(60a, 60b, 60c)의 화소값을 샘플링하며, 기본 검지영역의 화소배열에 다음의 연산을 수행하여 차량의 존재유무를 판단하고, 각각의 영역은 상기 도2에 지정한 화소배열(M×N)로 이루어져 있고, P(I,J)를 각 화소값이라 하면,If there is no change request for the detection area, it is immediately determined whether the base image, which is the work progress mode, is updated, and the road image continuously changes according to the time zone and weather changes. 7 is an operation flowchart of updating a reference image. As shown in FIG. 7, when a new image is input, the count is initialized to '0' and the pixel values of the basic detection regions 60a, 60b, and 60c of FIG. Sampling is performed to determine whether a vehicle exists by performing the following operation on the pixel array of the basic detection area, and each area is composed of the pixel array (M × N) specified in FIG. 2, and P (I, J) If is the pixel value,

--------------------------- (식1) --------------------------- (Equation 1)

이 되며, 상기 식1을 이용해 기본 검지영역(60a, 60b, 60c)의 평균값을 구하고, 다음 라플라스 연산자와 각 화소배열간의 연산을 통해 기본 검지영역내의 화소값의 변화를 감지한다.The average value of the basic detection areas 60a, 60b, and 60c is obtained by using Equation 1, and the change in pixel value in the basic detection area is detected by calculating between the next Laplace operator and each pixel array.

상기에서 L은 라플라스 연산자이고, I는 화소[P(I,J)]를 중심으로한 3×3 화소값 배열이며, 라플라스 연산자와 화소값배열의 곱셈연산(L×I) 결과는 결국 식2와 같이되고, 이를 기본 검지영역(60a, 60b, 60c)내의 모든 화소값에 적용된다.Where L is the Laplace operator, I is an array of 3x3 pixel values centered on pixels [P (I, J)], and the result of the multiplication (LxI) of the Laplace operator and the pixel value array is The same applies to all pixel values in the basic detection areas 60a, 60b, 60c.

--- (식2) --- (Equation 2)

상기 식2를 이전 영상의 처리결과와 비교하여 동일한 결과일 경우 카운트가 계속해서 증가되고, 이는 기본 검지영역(60a, 60b, 60c)에 차량이 존재하지 않는 상태이므로, 카운트 값이 사용자가 정한 임계값(Threshold) 이상이면 영상을 취득하여 기준영상으로 사용하며, 상기 기준영상을 이용하여 교통량, 차량의 통과속도, 평균속도, 점유율, 차종을 계산하는 교통정보 산출과정을 진행한다.If the equation 2 is compared with the result of the previous image and the count is the same, the count is continuously increased, and since the vehicle does not exist in the basic detection areas 60a, 60b, and 60c, the count value is determined by the user. If the value is equal to or greater than the threshold, the image is acquired and used as the reference image. The traffic information calculation process of calculating the traffic volume, vehicle passing speed, average speed, occupancy rate, and vehicle type is performed using the reference image.

도8은 교통정보를 얻기 위하다 검지영역에서의 가상 검지모형의 일실시예로서, 이에 도시한 바와 같이 제1,2,3 가상 검지모형(80, 81, 82)을 차량이 점유하고 있는가를 검지하고, 상기 제1,2,3 가상 검지모형(80, 81, 82)에 차량이 존재하지 않는 상태1과; 제2 가상 검지모형(81)에 차량이 존재하고, 제3 가상 검지모형(82)에는 차량이 없는 상태2와; 차량이 제2 가상 검지모형(81)을 통과하고, 제3 가상 검지모형(82)을 점유하고 있는 상태3인 3가지의 상태로 분류하는데, 시간대를 크게 주간과 야간으로 구분하여 차량의 존재유무를 판단한다.FIG. 8 is an embodiment of a virtual detection model in a detection area for obtaining traffic information. As shown in FIG. 8, it is detected whether a vehicle occupies the first, second, and third virtual detection models 80, 81, and 82. A state 1 in which no vehicle exists in the first, second, and third virtual detection models 80, 81, and 82; A state 2 in which the vehicle exists in the second virtual detection model 81 and no vehicle exists in the third virtual detection model 82; The vehicle passes through the second virtual detection model 81 and is classified into three states, which are the states 3 occupying the third virtual detection model 82. The presence or absence of the vehicle is largely divided into day and night. Judge.

도9는 상기 도8에 차량이 존재하는 경우 화소값에 변화가 생긴 화소배열이고, 도10은 상기 도9의 가상 검지모형의 화소값을 연산하는 순서도로서, 이에 도시한 바와 같이 시간대가 주간인 경우에 제1,2,3 가상 검지모형(80, 81, 82)의 화상을 취득하여 기준영상의 화소들 중에 동일한 위치에 있는 화소값들과 비교하고, 차이가 있으면 차량이 존재하는 것으로 판단하며, 차량이 점유한 제2 가상 검지모형(81)의 오른쪽 부분에 있는 화소들을 기준영상과 비교하여 점유되어 있는 부분의 폭(R)을 구하고, 왼쪽 부분에 있는 화소들을 기준영상과 비교하여 점유되어 있는 부분의 폭(L)을 구하며, 이들의 합(R+L)이 임계치(W)와 크기를 비교하여 가상 검지모형을 점유하고 있는가를 판단한다.FIG. 9 is a pixel array in which a pixel value is changed when a vehicle exists in FIG. 8, and FIG. 10 is a flowchart for calculating pixel values of the virtual detection model of FIG. 9, wherein the time zone is daytime. In this case, the images of the first, second, and third virtual detection models 80, 81, and 82 are acquired and compared with the pixel values at the same position among the pixels of the reference image, and if there is a difference, it is determined that the vehicle exists. By comparing the pixels on the right side of the second virtual detection model 81 occupied by the vehicle with the reference image, the width R of the occupied portion is obtained, and the pixels on the left side are occupied by comparing with the reference image. The width L of the portion that is present is obtained, and it is determined whether the sum R + L occupies the virtual detection model by comparing the threshold W with the size.

상기 제2 가상 검지모형(81)에 차량이 존재하지 않으면 차량이 제3 가상 검지모형(82)에 존재할 수 있으므로, 오른쪽 부분에 있는 화소들을 기준영상과 비교하여 점유되어 있는 부분의 폭(R)을 구하고, 폭(R)이 임계치(W)보다 적으면 다시 왼쪽 부분에 있는 화소들을 기준영상과 비교하여 점유되어 있는 부분의 폭(L)을 구하며, 폭(L)이 상기 임계치(W)보다 적으면 상기 제3 가상 검지모형(82)에 차량이 없는 것으로 판단하고, 검지된 물체가 차량인지 옆차선을 통과하는 차량에 의한 그림자인지를 판단한다.If a vehicle does not exist in the second virtual detection model 81, the vehicle may exist in the third virtual detection model 82. Therefore, the width R of the portion occupied by comparing the pixels on the right side with the reference image is compared. If the width R is less than the threshold W, the pixels on the left side are again compared with the reference image to obtain the width L of the occupied portion, and the width L is greater than the threshold W. If it is small, it is determined that there is no vehicle in the third virtual detection model 82, and it is determined whether the detected object is a vehicle or a shadow by a vehicle passing through the side lane.

도11은 한 대의 차량이 가상검지영역을 진입해서 통과할 때까지의 동작 순서도이고, 도12는 상태의 변화를 따라서 교통정보를 산출하기 위한 순서도로서, 이에 도시한 바와 같이 가상 검지모형에 상기 도10의 과정이 계속해서 입력되는 화상의 각 프레임마다 적용되고, 이 결과로 상기 3가지 상태의 조합이 만들어지며, 기준영상을 갱신할 주기를 계산하기 위하여 현재시간 측정을 계속하고, 일정한 시간이 지나면 기준영상 갱신을 판단하여 기준영상 갱신과정을 상기 도7의 과정을 통해 진행되며, 상태판단을 하여 현재상태가 상기 상태1인 경우는 제2 가상 검지모형(81)에 차량이 있는지를 판단하여 차량이 존재하는 경우 상기 가상 검지모형(81)에 차량이 진입한 시간(T1)을 기록하고, 상태2로 전환하여 차량의 존재여부를 판단하며, 차량이 존재하는 경우 제3 가상 검지모형(82)에 차량이 진입한 시간(T2)을 기록하며, 속도를 산출(, S : 실제거리)하고, 차량이 존재할 때 차량이 동시에 존재하는지를 판단하며, 상기 도9의 제4 가상 검지모형(90)이 자동으로 생성되고, 차종의 판별은 제1 가상 검지모형(80)에 차량이 진입하면서 동시에 제2 가상 검지모형(81)에 차량이 존재하지 않으면 소형차로, 상기 제1,2 가상 검지모형(81, 81)에만 존재하면 중형차로, 상기 제1,2,3 가상 검지모형(80, 81, 82)에 존재하면 대형차로 분류하며, 상기 제3 가상 검지모형(82)에 차량이 존재하지 않으면, 상기 상태3으로 전환하여 차량이 통과하였는지 판단하여 차량의 통과시간을 기록해서 차량이 상기 제1,2 가상 검지모형(81, 82) 사이를 통과하는데 걸린 시간과 점유시간을 산출하고, 최근 통과한 차량들의 평균속도(이동평균)를 산출하며, 점유율은(H : 차두간격시간)로 산출한다.FIG. 11 is a flowchart of operation until a vehicle enters and passes a virtual detection area, and FIG. 12 is a flowchart for calculating traffic information according to a change of state. As shown in FIG. The process of 10 is applied to each frame of the image which is continuously input, and as a result, a combination of the three states is made, and the current time measurement is continued to calculate the period to update the reference image, and after a certain time The process of updating the reference image is performed through the process of FIG. 7 by determining the reference image update. When the current state is the state 1 by determining the state of the reference image, it is determined whether the vehicle exists in the second virtual detection model 81. If is present, the time (T1) the vehicle entered into the virtual detection model 81, the state is switched to state 2 to determine the presence of the vehicle, if the vehicle exists 3 records the virtual detection model 82 time (T2), the vehicle is entering the calculated speed ( , S: actual distance), and when the vehicle exists, it is determined whether the vehicle exists at the same time. The fourth virtual detection model 90 of FIG. 9 is automatically generated, and the determination of the vehicle model is performed by the first virtual detection model 80. If the vehicle enters at the same time and the vehicle does not exist in the second virtual detection model 81, the small car, and if the vehicle exists only in the first and second virtual detection models 81 and 81, then the first, second and third virtual cars If present in the detection model (80, 81, 82) is classified as a large vehicle, and if the vehicle does not exist in the third virtual detection model (82), it is switched to the state 3 to determine whether the vehicle has passed and determine the passing time of the vehicle Record and calculate the time and occupancy time it takes for the vehicle to pass between the first and second virtual detection models 81 and 82, calculate the average speed (moving average) of the recently passed vehicles, It is calculated by (H: head interval time).

도13a는 차량이 가상 검지모형을 통과할 때의 화소값 히스토그램이고, 도13b는 그림자의 화소값이 도로변의 화소값과 비슷한 경우의 화소값 히스토그램이며, 도13c는 화소값이 도로면과 약간의 차이가 있을 경우의 화소값 히스토그램으로서, 이에 도시한 바와 같이 화소값의 범위를 N개의 구간으로 나누고, 각 구간에 포함되는 화소값들의 누적치를 나타낸 것으로, 그래프의 분포가 임의이지만 그림자가 통과할 경우 그림자의 화소값은 대부분 비슷한 화소값을 가지고 있으므로, 좁은 구간에 집중되는 모습을 띠고, 이러한 특성을 이용해 그림자와 차량을 판별한다.Fig. 13A is a histogram of pixel values when the vehicle passes the virtual detection model, and Fig. 13B is a histogram of pixel values when the pixel value of the shadow is similar to the pixel value of the roadside. Pixel value histogram when there is a difference. As shown in this figure, the range of pixel values is divided into N sections, and the cumulative values of the pixel values included in each section are shown. Since most pixel values of shadows have similar pixel values, they tend to be concentrated in a narrow section, and these characteristics are used to discriminate between shadows and vehicles.

도14는 그림자의 화소값이 히스토그램의 좁은 구간에 집중되는 특성을 이용한 그림자와 차량의 판별 순서도로서, 이에 도시한 바와 같이 화소값의 범위를 d1∼ dN으로 N등분하고, 가상 검지모형의 화소값들이 속하는 구간을 결정하며, 각 구간의 돗수를 X1∼ XN이라 할 때, 이 값들을 산출하여 돗수값중에서 최대값을 갖는 구간(dM)을 결정하고, 두 번째로 높은 돗수값을 갖는 구간(dS)을 결정하여 그림자를 산출하기 위한 히스토그램 판별량(C)을 다음의 식3으로 산출한다.14 is a determination flowchart for using a characteristic pixel values of the shadow to be concentrated in a narrow interval of the histogram shadow vehicle, equal parts N the range of the pixel value to the d 1 ~ d N as shown to this, and a virtual Detection Model Determining the section to which the pixel values belong, and when the degree of each section is X 1 to X N , the values are calculated to determine the section (d M ) with the maximum value among the number of values, and the second highest number determining the interval (S d) having to calculate the histogram to determine the amount of (C) to produce a shadow by the equation 3 below.

--------------- (식3) --------------- (Equation 3)

상기 식3에서 입실론()은 히스토그램 판별량(C)의 정규화를 위해 사용되는 것으로, 도로의 환경에 따라서 변경되는 상수이고, 상기 식3에서 구한 히스토그램 판별량(C)을 임계치와 비교하여 크면 차량으로 적으면 그림자로 판별한다.Epsilon (3) ) Is a constant used to normalize the histogram discrimination amount (C), and is a constant that changes according to the environment of the road. do.

도15는 차량이 야간에 통과하는 가상검지모형의 화소배열로서, 이에 도시한 바와 같이 시간대가 야간인 경우에는 진입하는 차량의 전조등 빛이 도로에 반사되어 제1,2,3 가상 검지모형(80, 81, 82)내의 화소값들을 매우 불규칙적으로 변화시키지만 전조 등의 중심부는 화소값이 최고치의 값을 갖고, 전조등을 중심으로한 전조등 주위의 화소값들은 하나의 블럽(131)을 형성하는 특징을 갖는다.FIG. 15 is a pixel array of a virtual detection model in which a vehicle passes at night. As shown in FIG. 15, when the time zone is at night, the headlights of a vehicle entering the vehicle are reflected on a road, and thus the first, second, and third virtual detection models (80). , 81, 82 change the pixel values very irregularly, but the central part of the headlamp has the highest pixel value, and the pixel values around the headlamp centering the headlamp form one blob 131. Have

도16은 블럽을 형성하는 특징을 이용한 차량검지 순서도이고, 도17은 야간에 차량이 통과할 때의 가상검지모형의 화소배열 유형도로서, 차량이 가상 검지모형으로 진입할 경우 가상 검지모형의 왼쪽부분을 검지하고, 전조등의 블럽이 발견되면 가상 검지모형의 오른쪽을 검지하며, 전조등의 불빛이 발견되면 차량의 검지를 끝내는 유형1과; 가상 검지모형의 왼쪽부분을 검지하고, 전조등의 블럽이 발견되면 가상 검지모형의 오른쪽을 검지하며, 전조등의 불빛이 발견되지 않으면 다시 가상 검지모형의 왼쪽부분을 검지하고, 전조등의 불빛이 발견되면 차량의 검지를 끝내는 유형2와; 가상 검지모형의 왼쪽부분을 검지하고, 전조등의 불빛이 발견되지 않으면 다시 가상 검지모형의 오른쪽을 검지하며, 전조등의 블럽을 발견되면 가상검지모형의 오른쪽을 검지하고, 블럽을 검지하면 차량의 검지를 끝내는 유형3으로 나뉘어지며, 이 과정을 통해 차량의 검지를 계속하여 진행하고, 이 결과를 토대로 교통정보 검출과정을 진행한다.FIG. 16 is a flowchart of a vehicle detection using a characteristic of forming a blob, and FIG. 17 is a pixel array type diagram of a virtual detection model when a vehicle passes at night, and the left side of the virtual detection model when the vehicle enters the virtual detection model. A type 1 for detecting a part, detecting a right side of the virtual detection model when a blob of a headlight is found, and ending detection of a vehicle when a light of a headlight is found; Detect the left side of the virtual detection model, detect the right side of the virtual detection model if the blob of the headlight is found, detect the left side of the virtual detection model again if the light of the headlight is not found, and if the light of the headlight is found, Type 2 and ending index finger; Detect the left side of the virtual detection model, detect the right side of the virtual detection model again if the headlight is not found, detect the right side of the virtual detection model if the blob of the headlight is detected, and detect the vehicle's detection if the blob is detected. It is divided into Type 3, which continues the detection of the vehicle through this process, and proceeds with the traffic information detection process based on the result.

이상에서 설명한 바와 같이 본 발명 화상처리를 이용한 교통정보 검지방법 및 장치은 주간과 야간으로 이중화된 화상처리알고리즘을 이용하여 교통제어를 위한 여러 장치들과의 접속이 가능하고, 교통정보검지의 신뢰성을 향상시키는 효과가 있다.As described above, the traffic information detection method and apparatus using the image processing of the present invention can be connected to various devices for traffic control by using the image processing algorithm dualized during the day and night, and improve the reliability of the traffic information detection. It is effective to let.

Claims (8)

차량이 통행하는 노변에 설치된 화상감지센서에서 도로의 화상을 감지하는 감지수단과; 상기 감지수단에서 감지한 화상데이터를 메모리에 저장하고, 교통정보를 산출하는 화상취득 및 처리수단과; 상기 화상취득 및 처리수단에서 산출된 교통정보를 관리하고, 외부와의 접속을 제어하는 중앙처리부와; 외부장치와 접속하기 위한 통신접속부와; 초기 셋업시에 검지영역 설정 및 장치의 초기화를 하는 조작수단으로 구성하는 것을 특징으로 하는 화상처리를 이용한 교통정보 검지장치.Sensing means for detecting an image of a road by an image sensor installed on a roadside through which a vehicle passes; Image acquisition and processing means for storing the image data sensed by the detection means in a memory and calculating traffic information; A central processing unit which manages traffic information calculated by the image acquisition and processing means and controls access to the outside; A communication connection unit for connecting to an external device; A traffic information detecting device using image processing, characterized by comprising operation means for setting a detection area and initializing the device during initial setup. 장치의 초기 셋업과정에서 각각의 영상센서에서 제공하는 도로의 화상에 지정된 검지영역을 수정하거나 추가할 필요가 있는지 검지영역 설정변경을 판단하는 제1 단계와; 상기 제1 단계의 판단에 의해 검지영역을 다시 설정하는 제2 단계와; 차량이 존재하지 않는 상태의 도로화상인 기준영상의 갱신유무를 판단하는 제3 단계와; 상기 제3 단계의 판단에 의해 새로운 기준영상을 획득하는 제4 단계와; 영상센서로 부터 현재의 영상을 취득하여 교통정보를 산출하는 하는 제5 단계로 이루어진 것을 특징으로 하는 화상처리를 이용한 교통정보 검지방법.A first step of determining whether a detection area setting change is necessary to correct or add a detection area designated to an image of a road provided by each image sensor during an initial setup of the device; A second step of resetting the detection area by the determination of the first step; A third step of determining whether or not the reference image, which is a road image without a vehicle, is updated; A fourth step of acquiring a new reference image by the determination of the third step; And a fifth step of obtaining the current image from the image sensor and calculating the traffic information. 제2항에 있어서, 상기 제1 단계는 초기화데이터를 메모리에 할당하고 외부장치 또는 관리자가 검지영역에 대한 변경요구가 있는지 판단하는 단계와; 검지영역에 대한 변경요구가 있으면 변경모드인 검지영역 설정을 진행하고, 없으면 작업진행모드로 진행하는 단계를 포함하여 된 것을 특징으로 하는 화상처리를 이용한 교통정보 검지방법.The method of claim 2, wherein the first step comprises: allocating initialization data to a memory and determining whether a change request for a detection area is requested by an external device or an administrator; And, if there is a change request for the detection area, proceeding to set the detection area in the change mode, and if not, proceeding to the work progress mode. 제2항에 있어서, 상기 제2 단계는 관리컴퓨터의 화면상에 조작수단을 이용하여 차선의 경계위치의 상단과 하단에 설정되어 있는 지점을 지정하여 경계선을 만들고, 두 경계선 사이의 영역에 자동으로 가상 검지영역을 설정하는 단계를 포함하여 된 것을 특징으로 하는 화상처리를 이용한 교통정보 검지방법.According to claim 2, wherein the second step by using the operation means on the screen of the management computer to create a boundary line by designating a point set at the top and bottom of the boundary position of the lane, automatically in the area between the two boundary lines A traffic information detection method using image processing, comprising: setting a virtual detection area. 제2항에 있어서, 상기 제3 단계는 새로운 영상이 입력되면 카운트를 '0'으로 초기화하고, 기본 검지영역의 화소값을 샘플링하는 단계와; 상기 기본 검지영역에 차량이 존재하지 않은 상태인가를 판단하는 단계와; 동일한 화상이 일정시간 이상 지속되었는가를 판단하여 기준영상을 취득하는 단계를 포함하여 된 것을 특징으로 하는 화상처리를 이용한 교통정보 검지방법.3. The method of claim 2, wherein the third step comprises: initializing a count to '0' when a new image is input, and sampling pixel values of the basic detection area; Determining whether a vehicle does not exist in the basic detection area; And determining whether the same image has been continued for a predetermined time or more, and obtaining a reference image. 제2항에 있어서, 상기 제4 단계는 시간대가 주간인 경우에 가상 검지모형에 차량의 존재유무를 판단하기 위해서 차량이 점유한 가상 검지모형의 오른쪽 부분에 있는 화소들을 기준영상과 비교하여 점유되어 있는 부분의 폭(R)을 구하고, 왼쪽 부분에 있는 화소들을 기준영상과 비교하여 점유되어 있는 부분의 폭(L)을 구하여 이들의 합과 임계치의 크기를 비교하여 가상 검지모형을 점유하고 있는가를 판단하는 단계와; 상기 가상 검지모형에 차량이 존재하지 않으면 차량이 다른 가상검지모형에 존재할 수 있으므로, 오른쪽 부분에 있는 화소들을 기준영상과 비교하여 점유되어 있는 부분의 폭을 구하고, 폭이 임계치보다 적으면 다시 왼쪽 부분에 있는 화소들을 기준영상과 비교하여 점유되어 있는 부분의 폭을 구하며, 폭이 상기 임계치보다 적으면 상기 가상 검지모형에 차량이 없는 것으로 판단하는 단계와; 검지된 물체가 차량인지 옆차선을 통과하는 차량에 의한 그림자인지를 판단하는 단계를 포함하여 된 것을 특징으로 하는 화상처리를 이용한 교통정보 검지방법.The method of claim 2, wherein the fourth step is occupied by comparing pixels in the right portion of the virtual detection model occupied by the vehicle with the reference image to determine whether the vehicle exists in the virtual detection model when the time zone is daytime. Find the width (R) of the part, compare the pixels in the left part with the reference image, get the width (L) of the part occupied, and compare the sum with the magnitude of the threshold to determine whether the virtual detection model is occupied. Making a step; If the vehicle does not exist in the virtual detection model, the vehicle may exist in another virtual detection model. Therefore, the width of the occupied area is obtained by comparing the pixels on the right side with the reference image. Comparing the pixels in the image to a reference image to obtain a width of the occupied portion, and determining that there is no vehicle in the virtual detection model when the width is smaller than the threshold value; And determining whether the detected object is a vehicle or a shadow by a vehicle passing through a side lane. 제2항에 있어서, 상기 제4 단계는 시간대가 야간인 경우에 차량이 가상 검지모형으로 진입할 경우 가상 검지모형의 왼쪽부분을 검지하고, 전조등의 블럽이 검지되면 가상 검지모형의 오른쪽을 검지하여 전조등의 블럽이 검지되면 차량의 검지를 끝내는 단계와; 가상 검지모형의 왼쪽부분을 검지하고, 전조등의 블럽이 검지되면 가상 검지모형의 오른쪽을 검지하며, 전조등의 블럽이 검지되지 않으면 다시 가상 검지모형의 왼쪽부분을 검지하여 전조등의 블럽이 검지되면 차량의 검지를 끝내는 단계와; 가상 검지모형의 왼쪽부분을 검지하고, 전조등의 블럽이 검지되지 않으면 다시 가상 검지모형의 오른쪽을 검지하며, 전조등의 블럽이 검지되면 가상 검지모형의 오른쪽을 검지하여 블럽을 검지하면 차량의 검지를 끝내는 단계를 포함하여 된 것을 특징으로 하는 화상처리를 이용한 교통정보 검지방법.The method of claim 2, wherein the fourth step detects the left part of the virtual detection model when the vehicle enters the virtual detection model when the time zone is night, and detects the right side of the virtual detection model when the blob of the headlight is detected. Ending detection of the vehicle when the blob of the headlight is detected; Detect the left part of the virtual detection model, and if the blob of the headlight is detected, detect the right side of the virtual detection model.If the blob of the headlight is not detected, detect the left part of the virtual detection model again. Ending the index finger; The left side of the virtual detection model is detected, and if the blob of the headlight is not detected, the right side of the virtual detection model is detected again. If the blob of the headlight is detected, the right side of the virtual detection model is detected and the blob of the vehicle is detected. Traffic information detection method using the image processing, characterized in that it comprises a step. 제2항에 있어서, 상기 제5 단계는 히스토그램의 특성을 이용하기 위해 화소값의 범위를 구간으로 분할하는 단계와; 가상 검지모형의 화소값이 속하는 구간을 결정하여 각 구간의 돗수값을 구하는 단계와; 각 구간의 돗수값을 이용해 히스토그램 판별량을 구하여 차량과 그림자를 판별하는 단계를 포함하여 된 것을 특징으로 하는 화상처리를 이용한 교통정보 검지방법.The method of claim 2, wherein the fifth step comprises: dividing a range of pixel values into intervals to use characteristics of a histogram; Determining intervals to which the pixel values of the virtual detection model belong, to obtain the degree values of each interval; And determining a histogram discriminating amount using the number of taps in each section to discriminate between a vehicle and a shadow.
KR1019970010774A 1997-03-27 1997-03-27 Method and apparatus for detecting the traffic information using image processing KR100207009B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1019970010774A KR100207009B1 (en) 1997-03-27 1997-03-27 Method and apparatus for detecting the traffic information using image processing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1019970010774A KR100207009B1 (en) 1997-03-27 1997-03-27 Method and apparatus for detecting the traffic information using image processing

Publications (2)

Publication Number Publication Date
KR19980074792A true KR19980074792A (en) 1998-11-05
KR100207009B1 KR100207009B1 (en) 1999-07-01

Family

ID=19500970

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019970010774A KR100207009B1 (en) 1997-03-27 1997-03-27 Method and apparatus for detecting the traffic information using image processing

Country Status (1)

Country Link
KR (1) KR100207009B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100716338B1 (en) * 2005-07-04 2007-05-11 현대자동차주식회사 Rear Side Approach Vehicle Warning Method and System using Image Recognition

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100716338B1 (en) * 2005-07-04 2007-05-11 현대자동차주식회사 Rear Side Approach Vehicle Warning Method and System using Image Recognition

Also Published As

Publication number Publication date
KR100207009B1 (en) 1999-07-01

Similar Documents

Publication Publication Date Title
US5847755A (en) Method and apparatus for detecting object movement within an image sequence
US7957559B2 (en) Apparatus and system for recognizing environment surrounding vehicle
US9852357B2 (en) Clear path detection using an example-based approach
US8428305B2 (en) Method for detecting a clear path through topographical variation analysis
JP5776795B2 (en) Three-dimensional object detection device
US20140293052A1 (en) Image-based vehicle detection and distance measuring method and apparatus
CN108629292A (en) It is bent method for detecting lane lines, device and terminal
JP3747599B2 (en) Obstacle detection device for vehicle
CN110991215A (en) Lane line detection method, lane line detection device, storage medium, and electronic apparatus
CN113111682A (en) Target object sensing method and device, sensing base station and sensing system
JPH11284997A (en) Traveling object sensing device
JP5974923B2 (en) Road edge detection system, method and program
KR100920918B1 (en) Object detection system and object detection method using codebook algorism
JP2020095623A (en) Image processing device and image processing method
KR100207009B1 (en) Method and apparatus for detecting the traffic information using image processing
CN115123291B (en) Behavior prediction method and device based on obstacle recognition
Siyal et al. Image processing techniques for real-time qualitative road traffic data analysis
JP2002008019A (en) Railway track recognition device and rolling stock using railway track recognition device
JP3360163B2 (en) Traffic flow monitoring device
JP2002042140A (en) Moving object measuring device and traffic flow measured image processing device
JP3662218B2 (en) Lane boundary detection device
JP3553698B2 (en) White line recognition device that recognizes inclined white lines in images
CN110736991B (en) Vehicle radar control device and method
JP2004199649A (en) Sudden event detection method
JP2664182B2 (en) Traffic flow measurement system

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment
FPAY Annual fee payment
LAPS Lapse due to unpaid annual fee