KR100552389B1 - Advanced Traffic Analyzing System by Descriminating Types of Vehicles - Google Patents

Advanced Traffic Analyzing System by Descriminating Types of Vehicles Download PDF

Info

Publication number
KR100552389B1
KR100552389B1 KR1020040011707A KR20040011707A KR100552389B1 KR 100552389 B1 KR100552389 B1 KR 100552389B1 KR 1020040011707 A KR1020040011707 A KR 1020040011707A KR 20040011707 A KR20040011707 A KR 20040011707A KR 100552389 B1 KR100552389 B1 KR 100552389B1
Authority
KR
South Korea
Prior art keywords
image
vehicle
unit
road
detection area
Prior art date
Application number
KR1020040011707A
Other languages
Korean (ko)
Other versions
KR20050083108A (en
Inventor
권재호
장영훈
강상구
Original Assignee
유일정보시스템(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 유일정보시스템(주) filed Critical 유일정보시스템(주)
Priority to KR1020040011707A priority Critical patent/KR100552389B1/en
Publication of KR20050083108A publication Critical patent/KR20050083108A/en
Application granted granted Critical
Publication of KR100552389B1 publication Critical patent/KR100552389B1/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/052Detecting movement of traffic to be counted or controlled with provision for determining speed or overspeed

Abstract

본 발명은 도로 상의 교통량을 분석하는 시스템에 관한 것으로, 도로 상의 검지 영역에 대한 도로 및 차량의 영상을 취득하는 영상 취득부; 각종 차량에 대하여 윤곽을 기초로 하는 기준 영상을 저장하는 차량영상 데이터베이스; 및 영상 취득부의 취득 영상에서 분석 대상 차량을 결정한 후 대상 차량의 에지를 검출하고, 대상 차량의 에지를 차량영상 데이터베이스의 다수의 기준 영상과 비교하여 매칭 점수가 가장 높은 기준 영상을 결정하고, 대상 차량을 매칭 영상에 해당하는 차량으로 판단하는 차량 분석부를 포함하여 구성되는 영상기반의 차종별 교통량 분석 시스템이다.The present invention relates to a system for analyzing a traffic volume on a road, comprising: an image acquisition unit acquiring an image of a road and a vehicle for a detection area on a road; A vehicle image database storing reference images based on contours of various vehicles; And after determining an analysis target vehicle from the acquired image of the image acquisition unit, detect an edge of the target vehicle, compare the edge of the target vehicle with a plurality of reference images of the vehicle image database, and determine a reference image having the highest matching score. Is an image-based traffic volume analysis system configured to include a vehicle analysis unit that determines the vehicle corresponding to the matching image.

Description

영상기반의 차종별 교통량 분석 시스템{Advanced Traffic Analyzing System by Descriminating Types of Vehicles}Advanced Traffic Analyzing System by Descriminating Types of Vehicles

도1은 본 발명에 따른 교통량 분석 시스템의 구성도,1 is a block diagram of a traffic analysis system according to the present invention,

도2은 영상 전처리 과정의 흐름도, 그리고2 is a flowchart of an image preprocessing process, and

도3은 본 발명에 따른 교통량 분석의 흐름도이다. 3 is a flowchart of traffic analysis according to the present invention.

- 도면의 주요 부분에 대한 부호의 설명 --Explanation of symbols for the main parts of the drawing-

100: 영상 취득부 200: 영상 전송부100: image acquisition unit 200: image transmission unit

300: 영상 분석부 310: 파일 형태 변환부300: image analysis unit 310: file type conversion unit

320: 영상 전처리부 330: 차량 추적부320: image preprocessor 330: vehicle tracking unit

340: 차량 분석부 350: 데이터베이스340: vehicle analysis unit 350: database

400: 자료 출력부400: data output unit

본 발명은 교통정보 처리시스템에 관한 것으로, 상세하게는 도로의 교통량을 측정하여 차량의 종류, 속도, 숫자 등을 분석하는 영상기반의 교통량 분석 시스템 에 관한 것이다.The present invention relates to a traffic information processing system, and more particularly, to an image-based traffic volume analysis system for analyzing a type, speed, number, and the like of a vehicle by measuring a traffic volume of a road.

차종을 고려하는 종래의 교통량 분석은 육안으로 차종을 구분하여 체크시트에 기록 및 종합하거나, 또는 CCD 카메라 등의 영상 획득 장치를 이용하여 영상자료를 취득한 후 영상을 보면서 차종을 구분하고 각 차종의 대수를 파악하는 수동적 또는 반수동적 방법을 이용하고 있다. 그 밖에, 크기에 따라 대형, 중형, 소형 등으로 차량의 종류를 구별하여 분석하는 기술이 있다.Conventional traffic analysis that considers the car type is to visually classify the car type and record and synthesize it on the check sheet, or acquire the image data using an image acquisition device such as a CCD camera, and then classify the car type while viewing the image. We use a passive or semi-passive method of identifying In addition, there is a technology that distinguishes and analyzes the types of vehicles according to size, such as large, medium, and small.

그런데, 위의 방법들은 수동적이거나, 크기 등의 개략적인 차종 분류만 가능하여, 차량의 종류에 기반한 교통량 분석이 정확히 이루어질 수 없었다.However, the above methods are only manual or can roughly classify the vehicle type, such as size, traffic analysis based on the type of vehicle could not be accurately performed.

본 발명은 이러한 문제를 해결하기 위한 것으로, 도로의 교통량 분석에서 차종까지 정확히 구별하여 교통량 분석을 정밀하게 하고, 특정 도로를 통과하는 차량의 차종별 대수 및 지점속도를 파악함으로써 도로 교통이 환경 등에 미치는 영향을 적절히 파악할 수 있도록 함을 목적으로 한다.
The present invention is to solve this problem, the traffic traffic analysis of the road to accurately distinguish the traffic volume to accurately analyze the traffic volume, by identifying the number and point speed of each vehicle type of vehicles passing through a specific road effect on the environment, etc. The purpose is to ensure that the

이러한 목적을 달성하기 위하여, 본 발명은 도로상의 특정 영역의 영상을 연속적으로 취득하여 전송하는 영상취득부, 영상 취득부의 취득 영상에서 도로를 통과하는 차량의 종류/대수/속도 등을 분석하는 영상 분석부 등으로 구성된다.In order to achieve the above object, the present invention provides an image acquisition unit for continuously acquiring and transmitting an image of a specific area on a road, an image analysis for analyzing the type, number, speed, etc. of vehicles passing through the road from the acquired image of the image acquisition unit. It consists of wealth.

이하, 첨부도면을 참조하여 본 발명을 상세히 설명한다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

도1은 본 발명에 따른 교통량 분석 시스템의 구성도이다. 교통량 분석 시스템은 영상취득부(100), 영상전송부(200), 영상분석부(300), 자료출력부(400) 등으로 구성된다.1 is a block diagram of a traffic analysis system according to the present invention. The traffic volume analysis system includes an image acquisition unit 100, an image transmission unit 200, an image analysis unit 300, a data output unit 400, and the like.

영상취득부(100)는 도로에서 차선별로 주행하는 차량 및 도로 등에 대한 영상을 취득하여 다수의 프레임을 갖는 영상 데이터로 변환하여 출력한다. 영상취득부(100)는 CCD 카메라 등의 다양한 수단을 이용한다. 영상취득부(100)는 도로에서 주행하는 차량을 취득하기 가장 적합한 위치에 고정설치될 수도 있으나, 교통량 조사가 필요한 지점이나 시점의 결정에 따라 임의로 설치할 수 있는 이동식이 바람직하다.The image acquisition unit 100 obtains an image of a vehicle, a road, and the like traveling for each lane on the road, converts the image into image data having a plurality of frames, and outputs the converted image data. The image acquisition unit 100 uses various means such as a CCD camera. The image acquisition unit 100 may be fixedly installed at a position most suitable for acquiring a vehicle traveling on a road, but a mobile type that may be arbitrarily installed according to a determination of a point or a point of time for which a traffic volume is required is preferable.

영상전송부(200)는 영상취득부(100)에서 취득된 도로상의 영상을 영상분석부(300)로 전송한다. 영상전송부(200)는 데이터 압축부, 안테나, 전송선로 등을 포함한다. 여기서, 전송선로는 유선이나 무선을 이용하며, 영상취득부(100)가 이동식인 경우에는 무선을 이용하는 것이 바람직하다.The image transmitter 200 transmits the image on the road acquired by the image acquirer 100 to the image analyzer 300. The image transmitter 200 includes a data compressor, an antenna, a transmission line, and the like. Here, it is preferable to use wired or wireless as the transmission line, and to use wireless when the image acquisition unit 100 is mobile.

영상분석부(300)는 파일 형태 변환부(310), 영상 전처리부(320), 차량 추적부(330), 차량 분석부(340), 차량정보 DB(350) 등으로 구성된다.The image analyzer 300 includes a file type converter 310, an image preprocessor 320, a vehicle tracker 330, a vehicle analyzer 340, a vehicle information DB 350, and the like.

파일 형태 변환부(310)는 영상 취득부(100)에서 전송된 영상을 처리가능한 형태, 예를들어 AVI 형태로 변환시킨다.The file type converting unit 310 converts the image transmitted from the image obtaining unit 100 into a processable form, for example, an AVI form.

영상 전처리부(320)는 검지영역에서 움직이지 않는 배경영상을 생성하고, 취 득영상을 배경영상과 비교하여 취득영상에서 움직이는 부분에 대한 객체영역의 생성한다. 영상 전처리부(320)는 일반적으로 2가지 루트를 통하여 처리된다. 취득영상에서 그림자가 없는 객체 영역을 출력하는 제1루트와 취득영상에서 배경영상은 포함하지 않으나 그림자를 포함하는 객체 영역을 추출하는 제2루트로 구성되며, 최종적으로 제1루트의 결과와 제2루트의 결과를 결합하여 근사적으로 그림자가 없는 객체의 윤곽을 출력한다.The image preprocessor 320 generates a background image which does not move in the detection area, and compares the acquired image with the background image to generate an object area for a moving part of the acquired image. The image preprocessor 320 is generally processed through two routes. It consists of a first route for outputting the object area without shadow in the acquired image and a second route for extracting the object area including the shadow but without the background image from the acquired image. Combine the results of the root and output the outline of the object without shadow.

도2은 영상 전처리 과정의 흐름도이다.2 is a flowchart of an image preprocessing process.

도2에 도시된 바와같이, 그림자 없는 객체 영역을 출력하는 제1루트는 취득영상의 시퀀스(321)에서 주요 경계선을 추출한 후(322), 모폴로지 필터를 거친다(323).As shown in FIG. 2, the first route outputting the shadowless object region extracts a main boundary line from the sequence 321 of the acquired image (322) and then passes through a morphology filter (323).

주요 경계선 추출(322)에서, 그림자는 농담, 소위 그라데이션(gradation)이 있어서 강한 에지 강도를 가지지 않는다. 따라서, 농담 영상(또는 그레이 영상)을 소벨 필터(Sobel Operator)와 컨벌루션(convolution)하면 0∼255 값을 갖게 되고, 여기서 그림자를 제거하기 위하여 200 이상을 에지로 인정함으로써 중요 경계선을 추출한다.In the major boundary extraction 322, the shadow has a light, so-called gradation, so that it does not have a strong edge intensity. Therefore, when the color image (or the gray image) is convolved with the Sobel Operator, it has a value of 0 to 255. Here, the critical boundary is extracted by recognizing 200 or more as an edge to remove the shadow.

모폴로지 필터(323)에서, 필터링을 한 영상은 임계값을 통과한 점들의 집합이다. 따라서, 다일레이션(dilation)을 통해서 점들을 연결시키고 확장된 만큼 에로젼(erosion)하면 그림자를 포함하지 않는 영역을 얻을 수 있다.In the morphology filter 323, the filtered image is a set of points passing the threshold. Therefore, by connecting the points through dilation and erosion as far as possible, an area containing no shadow can be obtained.

이와같이, 중요 경계선 추출과 모폴로지 필터를 거치면, 차선이나 그림자가 없는 객체의 에지 부분이 결과로서 출력된다.In this way, the critical edge extraction and the morphology filter result in the edge portion of the object without lanes or shadows.

도2에 도시된 바와같이, 입력영상에서 배경영상은 포함하지 않으나 그림자를 포함하는 객체 영역을 추출하는 제2루트는 배경 영상 추출(324), 차분 영상 획득(325), 및 모폴로지 필터를 거친다(326).As shown in FIG. 2, the second root extracting the object region including the shadow but not the background image from the input image passes through the background image extraction 324, the differential image acquisition 325, and the morphology filter ( 326).

배경 영상 추출(324)은 프레임에 차량이나 기타 노이즈가 있는 부분은 인접한 프레임 사이의 픽셀 값의 변화가 크고 순수한 배경 부분은 인접한 프레임 사이의 픽셀 값의 변화가 작은 성질을 이용한다. 예를들어, AVI 파일 스트림 중에서 100 프레임 당 한장의 영상을 주기적으로 선택하여, 선택된 프레임 사이의 픽셀 값의 변화가 작은 프레임의 영상을 배경 영상으로 결정한다. 여기서, 선택되는 프레임은 100 프레임당 한장씩으로 하고 있으나, 교통량이 많아서 선택되는 프레임 마다 차량 등이 존재하는 경우에는 선택되는 프레임의 간격을 300, 500, 1000 등으로 확대할 수 있다.Background image extraction 324 utilizes a property in which a vehicle or other noise in a frame has a large change in pixel value between adjacent frames and a pure background portion has a small change in pixel value between adjacent frames. For example, one image per 100 frames is periodically selected from the AVI file stream to determine an image of a frame having a small change in pixel value between the selected frames as a background image. Here, one frame is selected for every 100 frames. However, when a vehicle or the like exists for each selected frame due to a lot of traffic, the interval of the selected frame may be expanded to 300, 500, 1000, or the like.

차분 영상 획득(325)은 취득 영상에서 배경 영상을 차분하면 얻어지는 데, 여기에는 객체 블럽과 작은 사이즈의 노이즈가 존재한다.The differential image acquisition 325 is obtained by subtracting the background image from the acquired image, which includes an object blob and a small noise.

모폴로지 필터(326)에서, 차분 영상을 에로젼(erosion)하여 작은 사이즈의 노이즈를 제거하고 다일레이션(dilation)을 통해서 줄어든 면적만큼 보상해 주면 차선이나 기타 노이즈가 없는 그림자를 포함한 객체 영역을 얻을 수 있다. In the morphology filter 326, by erosion of the differential image to remove small sized noise and compensating for the reduced area through dilation, an object area including a shadow or other noise-free shadow can be obtained. have.

위의 제1루트를 통하여 얻어지는 그림자를 포함하지 않는 객체 영상과 제2루 트를 통하여 얻어지는 그림자를 포함하는 객체 영상을 AND 연산하게 되면, 근사적으로 노이즈나 그림자가 없는 객체 영역의 윤곽을 얻을 수 있다.When AND operation is performed on an object image that does not include the shadow obtained through the first route and an object image that includes the shadow obtained through the second root, an outline of an object region having no noise or shadow may be obtained. have.

차량 추적부(330)는 검지 영역 내에서 차량으로 고려할 수 있는 독립된 이동 객체를 추적한다. 연속되는 프레임을 비교하면서 검지 영역의 시작단에 새로운 블럽 객체가 생성되면 추적을 시작하고, 객체의 추적과 동시에 레이블을 생성하여 부여한다. 객체가 검지 영역의 끝단을 벗어나면 추적을 종료한다.The vehicle tracking unit 330 tracks an independent moving object that can be considered as a vehicle in the detection area. When a new blob object is created at the beginning of the detection area while comparing consecutive frames, tracking is started, and the label is created and assigned at the same time as the tracking of the object. If the object leaves the end of the detection area, the tracking ends.

새로운 객체의 검지를 보면, 먼저 검지 영역 내에서 검지 영역의 세로길이의 절반을 기준선으로 정하고, 기준선보다 위쪽 영역에 새로운 블럽 객체가 생성되면 새로운 레이블을 부여한다. 한편, 기준선 아래 영역에서 새로운 객체가 나타나면 이는 전처리의 불안정으로 판단하고 삭제하는 등의 필터링 작업을 수행한다.When detecting a new object, first, half of the vertical length of the detection area is set as a reference line in the detection area, and a new label is given when a new blob object is created in the area above the reference line. On the other hand, if a new object appears in the region below the baseline, it determines that it is unstable in preprocessing and performs filtering such as deleting.

객체가 사라지는 경우의 처리를 보면, 반사광이나 전처리 상에서 생긴 문제로 인하여 객체가 사라지면 현재 프레임에 이전 프레임의 정보를 복사한다. 검지 영역의 크기를 고려하여 객체가 소정수의 프레임 동안 나타나지 않으면 그 부분에 해당하는 객체는 잡음에 의하여 일시적으로 생긴 것으로 보고 삭제한다. 기준선 아래의 객체는 전처리에서 사라졌을 경우보다 차량이 빠져 나갔을 가능성이 크므로 다음 프레임에서 나타나지 않을 경우에 객체를 복사하지 않는다.In the case of the object disappearing, if the object disappears due to a problem in reflection or preprocessing, the information of the previous frame is copied to the current frame. If the object does not appear for a predetermined number of frames in consideration of the size of the detection area, the object corresponding to the part is regarded as being temporarily generated by noise and deleted. Objects below the baseline are more likely to exit the vehicle than if they disappeared from the preprocess, so do not copy objects unless they appear in the next frame.

본 발명의 차량 추적은 면적과 위치를 이용하여 이루어진다. 연속된 프레임에서 객체는 비슷한 위치에 있을 것이라는 가정을 바탕으로 객체를 추적한다. 객체가 추적되면 객체의 위치정보를 갱신한다.Vehicle tracking of the present invention is accomplished using area and location. In successive frames, objects are tracked based on the assumption that they will be in a similar position. When the object is tracked, the location information of the object is updated.

그 밖에, 차량 추적에서, 프레임에서 객체의 겹칩이 발생하면 객체 영역을 축소시켜 분리하고, 이전 프레임에서 하나의 영역을 가진 객체가 현재 프레임에서 두 개 이상이 되는 경우 이전 프레임에서 얻어온 마스크를 통하여 영역을 병합하고, 이전 프레임에서 두 개의 객체가 현재 프레임에서 하나의 영역으로 되는 경우에는 이전 프레임을 이용하여 객체 영역을 분리한다.In addition, in vehicle tracking, when the overlapping of objects occurs in a frame, the object area is reduced and separated, and when the object having one area in the previous frame becomes more than two in the current frame, the area is obtained through the mask obtained in the previous frame. If two objects in the previous frame become one area in the current frame, the object area is separated using the previous frame.

차량 분석부(340)는 차량의 종류 분석, 통과하는 차량의 계수, 차종별 평균 속도 등을 분석한다. The vehicle analysis unit 340 analyzes the type of vehicle, the coefficient of the vehicle passing through, and the average speed for each vehicle type.

차량의 종류 분석은 검지 영역의 특정 지점, 예를들어 검지 영역의 하단(인식 표시선)에 이른 객체의 영상에 기초하여 차량의 종류를 판단한다. 차량의 인식은 차량 인식을 위한 데이터베이스 구축과 차량 판단으로 이루어지는 데, 여기에 네버시아 필터, R-테이블, Hough 변환 등이 이용된다.The type analysis of the vehicle determines the type of vehicle based on an image of an object that reaches a specific point of the detection area, for example, a lower end (a recognition display line) of the detection area. Recognition of the vehicle is composed of a database for vehicle recognition and vehicle determination. Neversia filter, R-table, Hough transform, etc. are used.

차량 인식을 위한 객체 영상 데이터베이스의 구축은 취득 영상으로부터 추출된 객체 영역(차량)의 윤곽과 비교되는 비교 대상을 저장하는 것이다. 즉, 객체가 되는 차량의 기준 윤곽을 저장한다. 객체 영상 데이터베이스는 뷰가 고정되어 있다는 가정하에 검지 영역의 인식 표시선에 닿아 있는 차량에 대하여 차종별 및 차선별 기준 영상을 저장한다.The construction of the object image database for vehicle recognition is to store a comparison target compared with the outline of the object region (vehicle) extracted from the acquired image. That is, the reference contour of the vehicle to be the object is stored. The object image database stores reference images for respective vehicle types and lanes for vehicles that touch the recognition indication line of the detection area on the assumption that the view is fixed.

구축되는 기준 영상은 네버시아 필터를 이용하여 차량의 에지를 추출하고, R-테이블로 작성된다. 이와같이, 객체 영상 데이터베이스는 비교될 차량들의 영상에 대한 차선별 R-테이블이다.The reference image to be constructed is extracted with the edge of the vehicle using the Neversia filter, and is created as an R-table. As such, the object image database is a lane-by-lane R-table for the image of the vehicles to be compared.

네버시아 필터를 보면, 일반적으로 Hough 변환을 적용하기 위해서는 0°∼360°의 방향으로 R-테이블이 모두 구성되어야 하나, 본 발명에서는 계산량을 줄이기 위하여 네버시아 필터와 컨벌루션을 취하여 6개 방향, 즉 0°,30°,60°,90°,120°,150° 로 표시하는 것이 바람직하다. 여기서, R-테이블은 경계선과 객체의 임의 중심과의 관계식에 의하여 표현된다.In the case of the Neversia filter, in general, in order to apply the Hough transform, all of the R-tables must be configured in the direction of 0 ° to 360 °, but in the present invention, the convolution with the Neversia filter is taken in six directions, namely, in order to reduce the calculation amount. It is preferable to represent 0 °, 30 °, 60 °, 90 °, 120 ° and 150 °. Here, the R-table is represented by the relationship between the boundary line and the arbitrary center of the object.

네버시아 필터, R-테이블 등을 이용한 차량의 인식은 레이블이 부여된 추적 객체들 중에서 인식 표시선에 도착한 객체의 그레이 영상에서 네버시아 필터를 이용하여 에지를 추출한다. 추출된 에지 정보를 이미 구축된 R-테이블들과 비교하여 Hough 변환 매칭을 시도한다. 이때, 매칭점수가 가장 높은 R-테이블에 해당하는 것을 대상 차종으로 판단한다. 이와같이, 본 발명의 차종 인식은 단순히 객체의 크기를 비교하는 것이 아니라, 실제 차량의 영상을 데이터베이스화하여 비교하는 프로토타입 매핑을 이용한다. 이러한 프로토타입 매핑은 객체의 일부가 훼손되는 경우에도 차종을 인식할 수 있다. 한편, 차종 인식이 불가능한 경우에는 이상화면으로 분류하여 저장하고 카운트한다.Recognition of a vehicle using a Neversia filter, an R-table, or the like extracts an edge using a Neversia filter from a gray image of an object arriving at a recognition line among labeled tracking objects. Hough transform matching is attempted by comparing the extracted edge information with the already built R-tables. In this case, it is determined that the target vehicle model corresponds to the R-table having the highest matching score. As such, the vehicle model recognition of the present invention uses a prototype mapping that compares images of actual vehicles by database rather than simply comparing the sizes of objects. This prototype mapping can recognize a vehicle even if some of the objects are damaged. On the other hand, when the vehicle model recognition is impossible, it is classified as an abnormal screen and stored and counted.

차량 분석부(340)에서 차량의 카운트는 차종별 및 전체 차량을 대상으로 이루 어지는 데, 이는 연속된 프레임에서 동일 객체를 추적함으로써 가능하다.In the vehicle analysis unit 340, the count of the vehicle is composed of the vehicle type and the entire vehicle, which is possible by tracking the same object in a continuous frame.

차량 분석부(340)에서 차량의 속도는 차량 추적 시작 프레임과 추출한 영상까지의 프레임을 이용하여 계산한다. 예를들어, 영상에 나타난 검지 영역의 길이와 추적 대상 차량이 진행하는 데 걸린 시간을 이용한다. 차량의 진행 시간은 검 지 영역을 통과하는 데 소요된 프레임의 수가 이용된다. 즉, 진행시간은 "검지영역 통과 프레임수 * (1/프레임 레이트)" 이다. 이와같이 계산된 속도를 평균하여 평균 속도를 산출한다.The vehicle speed is calculated by the vehicle analyzer 340 using a frame from the vehicle tracking start frame and the extracted image. For example, the length of the detection area shown in the image and the time taken for the vehicle to be tracked to proceed are used. The running time of the vehicle is used for the number of frames spent passing through the detection area. That is, the advancing time is "detection area passing frame number * (1 / frame rate)". The average speed is calculated by averaging the calculated speeds.

차량정보 DB(350)는 차량 분석부(340)에서 발생한 데이터를 저장하는 것으로, 이용 시간대별로 통과하는 차량의 차종별 숫자, 차량별 또는 차선별 평균속도, 이상화면 등을 저장한다. 또한, 차량 분석부(340)에서 차종을 인식하는 데 필요한 기준 영상, 예를들어 각 차량에 대한 R-테이블 등을 저장한다.The vehicle information DB 350 stores data generated by the vehicle analyzer 340, and stores a number of vehicle types passing by use time, an average speed of each vehicle or lane, an abnormal screen, and the like. In addition, the vehicle analysis unit 340 stores a reference image required for recognizing a vehicle model, for example, an R-table for each vehicle.

자료 출력부(400)는 영상 분석부(300)의 결과를 이용하여 각종 평가자료 및 증빙자료를 출력한다.The data output unit 400 outputs various evaluation data and supporting data by using the results of the image analyzer 300.

도3은 본 발명에 따른 교통량 분석의 흐름도이다. 도3에 도시된 바와같이, 먼저 영상 취득부를 이용하여 도로상의 차량 및 배경에 대한 영상을 취득한다(S11), 취득된 영상에서 파일 형태의 변환, 배경이나 그림자가 없는 움직이는 객체에 대한 영역을 추출하는 단계를 거친다(S12). 추출된 객체를 추적하면서(S13) 속도 계산을 위한 정보를 임시로 저장한다(S14). 차량 추적(S13)에서 차량이 검지 영역의 끝단인 인식 표시선에 도착한 지를 판단하여, 차량이 인식 표시선에 도착되면 객체 영상을 취하여(S16) 차종 인식 알고리즘을 수행한다(S17).3 is a flowchart of traffic analysis according to the present invention. As shown in FIG. 3, an image of a vehicle and a background on a road is first acquired using an image acquisition unit (S11). In the acquired image, a file format is transformed and an area of a moving object without a background or a shadow is extracted. Go through the steps (S12). While tracking the extracted object (S13), the information for speed calculation is temporarily stored (S14). In the vehicle tracking (S13), it is determined whether the vehicle has reached the recognition display line, which is the end of the detection area, and when the vehicle arrives at the recognition display line, an object image is taken (S16) and a vehicle model recognition algorithm is performed (S17).

차종 인식 알고리즘의 수행에서(S17), 차종 인식이 가능하면 차종 및 전체 차량 카운트와 차량의 속도를 계산한다(S18, S19). 차종 인식이 불가능하면 이상화면으로 분류하고(S20), 이상화면에 대한 정보를 임시로 저장한다(S21). 이후, 이상화면에 대하여 차종 인식 알고리즘을 수행하여(S22), 차종을 일부라도 인식할 수 있는 지를 판단하여(S23), 일부 인식이 가능하면 차종 및 전체 차량 카운트를 수행하고(S24), 일부 인식이 불가능하면 이상화면을 카운트하면서 데이터베이스에 저장한다(S26).In the execution of the vehicle model recognition algorithm (S17), if the vehicle model recognition is possible, the vehicle model and the total vehicle count and the speed of the vehicle are calculated (S18 and S19). If it is impossible to recognize the vehicle model, it is classified as an abnormal screen (S20), and information about the abnormal screen is temporarily stored (S21). After that, by performing a vehicle model recognition algorithm on the abnormal screen (S22), it is determined whether even a portion of the vehicle can be recognized (S23), and if the partial recognition is possible, perform a vehicle model and the total vehicle count (S24), and partially recognize If this is impossible, the abnormal screen is counted and stored in the database (S26).

단계(S19) 및 단계(S24)에서 카운트 및 계산된 차종별 대수나 평균속도 등은 데이터베이스에 저장된다(S26). 데이터베이스에 저장된 데이터는 교통량 분석에서 각종 평가자료 및 증빙자료로 변환되어 그 자료를 필요로 하는 관계기관이나 업체에서 활용한다.The number and average speed for each vehicle model counted and calculated in steps S19 and S24 are stored in the database (S26). Data stored in the database is converted into various evaluation data and evidence data in the traffic analysis and used by the relevant institutions or companies that need the data.

이상의 본 발명은 영상 전송부를 별도로 구비하여 현지에서 취득된 영상자료를 원거리에서 분석하는 경우를 상정하여 설명하였으나, 현지에서 취득된 영상자료를 현지에서 직접 영상분석부를 이용하여 영상을 분석하여 자료를 저장하거나, 전송하도록 구성할 수도 있다.Although the present invention has been described on the assumption that a separate image transmission unit analyzes locally acquired image data from a long distance, the locally acquired image data is analyzed by using an image analysis unit directly to store the data. Or to transmit.

본 발명에 따른 교통량 분석 시스템에 의하면, 도로의 차선별 및 차종별로 특정 시간대의 통과 차량수, 평균속도 등을 자동으로 정확하게 분석할 수 있다. 이러한 차종별 교통량 자료는 교통량 영향 평가에서 도로의 활용도를 예측하는 데 중요하게 사용된다. 또한, 이동식 영상 취득장치를 사용함으로써, 교통량 데이터의 취득에 기동성을 기하고, 교통량 분석을 필요로 하는 고객에게 적시 적소의 정확한 자료를 제공할 수 있다.According to the traffic volume analysis system according to the present invention, it is possible to automatically and accurately analyze the number of passing vehicles, average speed, etc. in a specific time zone for each lane and vehicle type of the road. These traffic data by vehicle type are important for predicting road utilization in traffic impact assessment. In addition, by using a mobile image acquisition device, it is possible to provide mobility in acquiring traffic data and to provide accurate and timely data to customers who need traffic analysis.

Claims (5)

도로 상의 교통량을 분석하는 시스템에 있어서,In the system for analyzing the traffic volume on the road, 도로 상의 검지 영역에 대한 도로 및 차량의 영상을 취득하기 위한 영상취득부;An image acquisition unit for acquiring an image of a road and a vehicle with respect to a detection area on the road; 상기 영상취득부로부터 취득된 영상을 처리가능한 형태로 변환하기 위한 파일형태변환부;A file type conversion unit for converting an image acquired from the image acquisition unit into a processable form; 상기 파일형태변환부로부터 변환된 파일형태의 영상에서 그림자가 없는 객체영역과 그림자를 포함하는 객체영역을 추출한 후 이들을 결합하여 근사적으로 그림자가 없는 객체의 윤곽을 획득하기 위한 영상전처리부;An image preprocessing unit for extracting an object region including no shadow and an object region including shadow from the file type image converted from the file type converting unit, and then combining them to obtain an outline of an object having no shadow; 상기 영상전처리부로부터 획득된 객체를 상기 검지영역 내에서 면적과 위치를 이용하여 추적함과 동시에 레이블을 생성하여 이를 부여하기 위한 차량추적부;A vehicle tracking unit for tracing an object obtained from the image preprocessing unit using an area and a position in the detection area and simultaneously generating and assigning a label; 상기 검지영역의 인식표시선에 위치된 각종 차량에 대하여 윤곽을 기초로 하는 기준 영상을 R-테이블 형태로 저장하기 위한 차량영상 데이터베이스; 및A vehicle image database for storing a reference image based on a contour, in the form of an R-table, for various vehicles located on a recognition line of the detection area; And 상기 차량추적부로부터 레이블이 부여된 추적객체들 중에서 인식표시선에 도착한 대상차량의 에지를 추출하고, 상기 추출된 대상차량의 에지와 상기 차량영상 데이터베이스에 저장된 R-테이블 형태의 기준 영상과 비교하여 Hough 변환 매칭한 후, 매칭 점수가 가장 높은 기준 영상을 결정하며, 상기 대상차량을 상기 매칭 영상에 해당하는 차량으로 판단하며, 차종별 및 전체 차량에 대하여 상기 검지영역을 통과한 차량수를 산출하고, 상기 검지영역의 길이, 프레임 수 및 프레임 레이트를 이용하여 차선별 평균속도를 산출하기 위한 차량분석부를 포함하는 것을 특징으로 하는 영상기반의 교통량 분석 시스템.The edge of the target vehicle arriving at the recognition line is extracted from the labeled tracking objects from the vehicle tracking unit, and the edge of the extracted target vehicle is compared with the reference image of the R-table type stored in the vehicle image database. After the transform matching, the reference image having the highest matching score is determined, the target vehicle is determined as the vehicle corresponding to the matching image, the number of vehicles passing through the detection area for each vehicle type and all the vehicles is calculated, and And a vehicle analyzing unit for calculating an average speed for each lane by using the length, the number of frames, and the frame rate of the detection area. 삭제delete 제 1 항에 있어서, 상기 R-테이블은 0°,30°,60°,90°,120°,150°의 6개 방향으로 구성하는 것을 특징으로 하는 영상기반의 교통량 분석 시스템.The image-based traffic analysis system of claim 1, wherein the R-table is configured in six directions of 0 °, 30 °, 60 °, 90 °, 120 °, and 150 °. 제 1 항에 있어서, 상기 영상 취득부는 도로 상의 임의 지점에 설치 가능한 이동식이며, 취득 영상을 상기 파일형태변환부로 전송하는 영상 전송부를 더 포함하는 것을 특징으로 하는 영상기반의 교통량 분석 시스템.The image-based traffic analysis system of claim 1, wherein the image acquisition unit is a movable unit which can be installed at any point on the road, and further includes an image transmission unit which transmits the acquired image to the file type conversion unit. 삭제delete
KR1020040011707A 2004-02-21 2004-02-21 Advanced Traffic Analyzing System by Descriminating Types of Vehicles KR100552389B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020040011707A KR100552389B1 (en) 2004-02-21 2004-02-21 Advanced Traffic Analyzing System by Descriminating Types of Vehicles

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020040011707A KR100552389B1 (en) 2004-02-21 2004-02-21 Advanced Traffic Analyzing System by Descriminating Types of Vehicles

Publications (2)

Publication Number Publication Date
KR20050083108A KR20050083108A (en) 2005-08-25
KR100552389B1 true KR100552389B1 (en) 2006-02-20

Family

ID=37269395

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020040011707A KR100552389B1 (en) 2004-02-21 2004-02-21 Advanced Traffic Analyzing System by Descriminating Types of Vehicles

Country Status (1)

Country Link
KR (1) KR100552389B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100590841B1 (en) 2004-12-31 2006-06-19 유일정보시스템(주) Advanced traffic analyzing system with adding referenced vehicles
KR101104625B1 (en) * 2010-05-06 2012-01-12 한국산업기술대학교산학협력단 Apparatus for yielding traffic information of intelligent transport system and method thereof

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101475062B1 (en) * 2013-07-04 2014-12-22 신도산업 주식회사 Vehicle traffic information management system
KR101973933B1 (en) * 2017-02-16 2019-09-02 (주)지앤티솔루션 Method and Apparatus for Detecting Boarding Number

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04326200A (en) * 1991-04-25 1992-11-16 Matsushita Electric Ind Co Ltd Statistical vehicle movement measuring device
JPH0933232A (en) * 1995-05-18 1997-02-07 Omron Corp Object observation method and object observation apparatus using this method, as well as traffic-flow measuring apparatus using this apparatus, and parking-lot observation apparatus
KR19980077361A (en) * 1997-04-18 1998-11-16 윤종용 Vehicle type discrimination device
KR19990047365A (en) * 1997-12-04 1999-07-05 심광호 Image detection system
KR20020036797A (en) * 2002-02-07 2002-05-16 주식회사 케이아이티에스 Transportation information sensing apparatus and system
KR20040005299A (en) * 2002-07-09 2004-01-16 엘지산전 주식회사 Grouping apparatus for automobile and method thereof

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04326200A (en) * 1991-04-25 1992-11-16 Matsushita Electric Ind Co Ltd Statistical vehicle movement measuring device
JPH0933232A (en) * 1995-05-18 1997-02-07 Omron Corp Object observation method and object observation apparatus using this method, as well as traffic-flow measuring apparatus using this apparatus, and parking-lot observation apparatus
KR19980077361A (en) * 1997-04-18 1998-11-16 윤종용 Vehicle type discrimination device
KR19990047365A (en) * 1997-12-04 1999-07-05 심광호 Image detection system
KR20020036797A (en) * 2002-02-07 2002-05-16 주식회사 케이아이티에스 Transportation information sensing apparatus and system
KR20040005299A (en) * 2002-07-09 2004-01-16 엘지산전 주식회사 Grouping apparatus for automobile and method thereof

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100590841B1 (en) 2004-12-31 2006-06-19 유일정보시스템(주) Advanced traffic analyzing system with adding referenced vehicles
KR101104625B1 (en) * 2010-05-06 2012-01-12 한국산업기술대학교산학협력단 Apparatus for yielding traffic information of intelligent transport system and method thereof

Also Published As

Publication number Publication date
KR20050083108A (en) 2005-08-25

Similar Documents

Publication Publication Date Title
US8655078B2 (en) Situation determining apparatus, situation determining method, situation determining program, abnormality determining apparatus, abnormality determining method, abnormality determining program, and congestion estimating apparatus
CN109784162B (en) Pedestrian behavior recognition and trajectory tracking method
Tae-Hyun et al. Detection of traffic lights for vision-based car navigation system
KR100630088B1 (en) Apparatus and method for supervising vehicle using optical flow
CN111008600B (en) Lane line detection method
EP2023309B1 (en) Vehicle discriminating device, vehicle discriminating method, vehicle discriminating program, and program recording medium with the vehicle discriminating program stored therein
EP1835462A1 (en) Tracing device, and tracing method
JP2004058737A (en) Safety monitoring device in station platform
JP6595375B2 (en) Traffic condition analysis device, traffic condition analysis method, and traffic condition analysis program
Busch et al. Feature based recognition of traffic video streams for online route tracing
JP2012160165A (en) Baseline band video monitoring system and method
Monwar et al. Pain recognition using artificial neural network
EP3557529A1 (en) Lane marking recognition device
KR100552389B1 (en) Advanced Traffic Analyzing System by Descriminating Types of Vehicles
CN113505638A (en) Traffic flow monitoring method, traffic flow monitoring device and computer-readable storage medium
Al Nasim et al. An automated approach for the recognition of bengali license plates
KR100590841B1 (en) Advanced traffic analyzing system with adding referenced vehicles
EP3244344A1 (en) Ground object tracking system
JP3453952B2 (en) Traffic flow measurement device
KR102492290B1 (en) Drone image analysis system based on deep learning for traffic measurement
Yu et al. Length-based vehicle classification in multi-lane traffic flow
CN114494355A (en) Trajectory analysis method and device based on artificial intelligence, terminal equipment and medium
EP3671537A1 (en) Smoke detection method and apparatus
CN111881829A (en) Method and device for detecting personnel and calculating personnel number in public place and monitoring equipment
KR20050086559A (en) Object classification via time-varying information inherent in imagery

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee
FPAY Annual fee payment

Payment date: 20091111

Year of fee payment: 4

R401 Registration of restoration