KR100552389B1 - Advanced Traffic Analyzing System by Descriminating Types of Vehicles - Google Patents
Advanced Traffic Analyzing System by Descriminating Types of Vehicles Download PDFInfo
- Publication number
- KR100552389B1 KR100552389B1 KR1020040011707A KR20040011707A KR100552389B1 KR 100552389 B1 KR100552389 B1 KR 100552389B1 KR 1020040011707 A KR1020040011707 A KR 1020040011707A KR 20040011707 A KR20040011707 A KR 20040011707A KR 100552389 B1 KR100552389 B1 KR 100552389B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- vehicle
- unit
- road
- detection area
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/04—Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/052—Detecting movement of traffic to be counted or controlled with provision for determining speed or overspeed
Abstract
본 발명은 도로 상의 교통량을 분석하는 시스템에 관한 것으로, 도로 상의 검지 영역에 대한 도로 및 차량의 영상을 취득하는 영상 취득부; 각종 차량에 대하여 윤곽을 기초로 하는 기준 영상을 저장하는 차량영상 데이터베이스; 및 영상 취득부의 취득 영상에서 분석 대상 차량을 결정한 후 대상 차량의 에지를 검출하고, 대상 차량의 에지를 차량영상 데이터베이스의 다수의 기준 영상과 비교하여 매칭 점수가 가장 높은 기준 영상을 결정하고, 대상 차량을 매칭 영상에 해당하는 차량으로 판단하는 차량 분석부를 포함하여 구성되는 영상기반의 차종별 교통량 분석 시스템이다.The present invention relates to a system for analyzing a traffic volume on a road, comprising: an image acquisition unit acquiring an image of a road and a vehicle for a detection area on a road; A vehicle image database storing reference images based on contours of various vehicles; And after determining an analysis target vehicle from the acquired image of the image acquisition unit, detect an edge of the target vehicle, compare the edge of the target vehicle with a plurality of reference images of the vehicle image database, and determine a reference image having the highest matching score. Is an image-based traffic volume analysis system configured to include a vehicle analysis unit that determines the vehicle corresponding to the matching image.
Description
도1은 본 발명에 따른 교통량 분석 시스템의 구성도,1 is a block diagram of a traffic analysis system according to the present invention,
도2은 영상 전처리 과정의 흐름도, 그리고2 is a flowchart of an image preprocessing process, and
도3은 본 발명에 따른 교통량 분석의 흐름도이다. 3 is a flowchart of traffic analysis according to the present invention.
- 도면의 주요 부분에 대한 부호의 설명 --Explanation of symbols for the main parts of the drawing-
100: 영상 취득부 200: 영상 전송부100: image acquisition unit 200: image transmission unit
300: 영상 분석부 310: 파일 형태 변환부300: image analysis unit 310: file type conversion unit
320: 영상 전처리부 330: 차량 추적부320: image preprocessor 330: vehicle tracking unit
340: 차량 분석부 350: 데이터베이스340: vehicle analysis unit 350: database
400: 자료 출력부400: data output unit
본 발명은 교통정보 처리시스템에 관한 것으로, 상세하게는 도로의 교통량을 측정하여 차량의 종류, 속도, 숫자 등을 분석하는 영상기반의 교통량 분석 시스템 에 관한 것이다.The present invention relates to a traffic information processing system, and more particularly, to an image-based traffic volume analysis system for analyzing a type, speed, number, and the like of a vehicle by measuring a traffic volume of a road.
차종을 고려하는 종래의 교통량 분석은 육안으로 차종을 구분하여 체크시트에 기록 및 종합하거나, 또는 CCD 카메라 등의 영상 획득 장치를 이용하여 영상자료를 취득한 후 영상을 보면서 차종을 구분하고 각 차종의 대수를 파악하는 수동적 또는 반수동적 방법을 이용하고 있다. 그 밖에, 크기에 따라 대형, 중형, 소형 등으로 차량의 종류를 구별하여 분석하는 기술이 있다.Conventional traffic analysis that considers the car type is to visually classify the car type and record and synthesize it on the check sheet, or acquire the image data using an image acquisition device such as a CCD camera, and then classify the car type while viewing the image. We use a passive or semi-passive method of identifying In addition, there is a technology that distinguishes and analyzes the types of vehicles according to size, such as large, medium, and small.
그런데, 위의 방법들은 수동적이거나, 크기 등의 개략적인 차종 분류만 가능하여, 차량의 종류에 기반한 교통량 분석이 정확히 이루어질 수 없었다.However, the above methods are only manual or can roughly classify the vehicle type, such as size, traffic analysis based on the type of vehicle could not be accurately performed.
본 발명은 이러한 문제를 해결하기 위한 것으로, 도로의 교통량 분석에서 차종까지 정확히 구별하여 교통량 분석을 정밀하게 하고, 특정 도로를 통과하는 차량의 차종별 대수 및 지점속도를 파악함으로써 도로 교통이 환경 등에 미치는 영향을 적절히 파악할 수 있도록 함을 목적으로 한다.
The present invention is to solve this problem, the traffic traffic analysis of the road to accurately distinguish the traffic volume to accurately analyze the traffic volume, by identifying the number and point speed of each vehicle type of vehicles passing through a specific road effect on the environment, etc. The purpose is to ensure that the
이러한 목적을 달성하기 위하여, 본 발명은 도로상의 특정 영역의 영상을 연속적으로 취득하여 전송하는 영상취득부, 영상 취득부의 취득 영상에서 도로를 통과하는 차량의 종류/대수/속도 등을 분석하는 영상 분석부 등으로 구성된다.In order to achieve the above object, the present invention provides an image acquisition unit for continuously acquiring and transmitting an image of a specific area on a road, an image analysis for analyzing the type, number, speed, etc. of vehicles passing through the road from the acquired image of the image acquisition unit. It consists of wealth.
이하, 첨부도면을 참조하여 본 발명을 상세히 설명한다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.
도1은 본 발명에 따른 교통량 분석 시스템의 구성도이다. 교통량 분석 시스템은 영상취득부(100), 영상전송부(200), 영상분석부(300), 자료출력부(400) 등으로 구성된다.1 is a block diagram of a traffic analysis system according to the present invention. The traffic volume analysis system includes an
영상취득부(100)는 도로에서 차선별로 주행하는 차량 및 도로 등에 대한 영상을 취득하여 다수의 프레임을 갖는 영상 데이터로 변환하여 출력한다. 영상취득부(100)는 CCD 카메라 등의 다양한 수단을 이용한다. 영상취득부(100)는 도로에서 주행하는 차량을 취득하기 가장 적합한 위치에 고정설치될 수도 있으나, 교통량 조사가 필요한 지점이나 시점의 결정에 따라 임의로 설치할 수 있는 이동식이 바람직하다.The
영상전송부(200)는 영상취득부(100)에서 취득된 도로상의 영상을 영상분석부(300)로 전송한다. 영상전송부(200)는 데이터 압축부, 안테나, 전송선로 등을 포함한다. 여기서, 전송선로는 유선이나 무선을 이용하며, 영상취득부(100)가 이동식인 경우에는 무선을 이용하는 것이 바람직하다.The
영상분석부(300)는 파일 형태 변환부(310), 영상 전처리부(320), 차량 추적부(330), 차량 분석부(340), 차량정보 DB(350) 등으로 구성된다.The
파일 형태 변환부(310)는 영상 취득부(100)에서 전송된 영상을 처리가능한 형태, 예를들어 AVI 형태로 변환시킨다.The file
영상 전처리부(320)는 검지영역에서 움직이지 않는 배경영상을 생성하고, 취 득영상을 배경영상과 비교하여 취득영상에서 움직이는 부분에 대한 객체영역의 생성한다. 영상 전처리부(320)는 일반적으로 2가지 루트를 통하여 처리된다. 취득영상에서 그림자가 없는 객체 영역을 출력하는 제1루트와 취득영상에서 배경영상은 포함하지 않으나 그림자를 포함하는 객체 영역을 추출하는 제2루트로 구성되며, 최종적으로 제1루트의 결과와 제2루트의 결과를 결합하여 근사적으로 그림자가 없는 객체의 윤곽을 출력한다.The
도2은 영상 전처리 과정의 흐름도이다.2 is a flowchart of an image preprocessing process.
도2에 도시된 바와같이, 그림자 없는 객체 영역을 출력하는 제1루트는 취득영상의 시퀀스(321)에서 주요 경계선을 추출한 후(322), 모폴로지 필터를 거친다(323).As shown in FIG. 2, the first route outputting the shadowless object region extracts a main boundary line from the
주요 경계선 추출(322)에서, 그림자는 농담, 소위 그라데이션(gradation)이 있어서 강한 에지 강도를 가지지 않는다. 따라서, 농담 영상(또는 그레이 영상)을 소벨 필터(Sobel Operator)와 컨벌루션(convolution)하면 0∼255 값을 갖게 되고, 여기서 그림자를 제거하기 위하여 200 이상을 에지로 인정함으로써 중요 경계선을 추출한다.In the
모폴로지 필터(323)에서, 필터링을 한 영상은 임계값을 통과한 점들의 집합이다. 따라서, 다일레이션(dilation)을 통해서 점들을 연결시키고 확장된 만큼 에로젼(erosion)하면 그림자를 포함하지 않는 영역을 얻을 수 있다.In the
이와같이, 중요 경계선 추출과 모폴로지 필터를 거치면, 차선이나 그림자가 없는 객체의 에지 부분이 결과로서 출력된다.In this way, the critical edge extraction and the morphology filter result in the edge portion of the object without lanes or shadows.
도2에 도시된 바와같이, 입력영상에서 배경영상은 포함하지 않으나 그림자를 포함하는 객체 영역을 추출하는 제2루트는 배경 영상 추출(324), 차분 영상 획득(325), 및 모폴로지 필터를 거친다(326).As shown in FIG. 2, the second root extracting the object region including the shadow but not the background image from the input image passes through the
배경 영상 추출(324)은 프레임에 차량이나 기타 노이즈가 있는 부분은 인접한 프레임 사이의 픽셀 값의 변화가 크고 순수한 배경 부분은 인접한 프레임 사이의 픽셀 값의 변화가 작은 성질을 이용한다. 예를들어, AVI 파일 스트림 중에서 100 프레임 당 한장의 영상을 주기적으로 선택하여, 선택된 프레임 사이의 픽셀 값의 변화가 작은 프레임의 영상을 배경 영상으로 결정한다. 여기서, 선택되는 프레임은 100 프레임당 한장씩으로 하고 있으나, 교통량이 많아서 선택되는 프레임 마다 차량 등이 존재하는 경우에는 선택되는 프레임의 간격을 300, 500, 1000 등으로 확대할 수 있다.
차분 영상 획득(325)은 취득 영상에서 배경 영상을 차분하면 얻어지는 데, 여기에는 객체 블럽과 작은 사이즈의 노이즈가 존재한다.The
모폴로지 필터(326)에서, 차분 영상을 에로젼(erosion)하여 작은 사이즈의 노이즈를 제거하고 다일레이션(dilation)을 통해서 줄어든 면적만큼 보상해 주면 차선이나 기타 노이즈가 없는 그림자를 포함한 객체 영역을 얻을 수 있다. In the
위의 제1루트를 통하여 얻어지는 그림자를 포함하지 않는 객체 영상과 제2루 트를 통하여 얻어지는 그림자를 포함하는 객체 영상을 AND 연산하게 되면, 근사적으로 노이즈나 그림자가 없는 객체 영역의 윤곽을 얻을 수 있다.When AND operation is performed on an object image that does not include the shadow obtained through the first route and an object image that includes the shadow obtained through the second root, an outline of an object region having no noise or shadow may be obtained. have.
차량 추적부(330)는 검지 영역 내에서 차량으로 고려할 수 있는 독립된 이동 객체를 추적한다. 연속되는 프레임을 비교하면서 검지 영역의 시작단에 새로운 블럽 객체가 생성되면 추적을 시작하고, 객체의 추적과 동시에 레이블을 생성하여 부여한다. 객체가 검지 영역의 끝단을 벗어나면 추적을 종료한다.The
새로운 객체의 검지를 보면, 먼저 검지 영역 내에서 검지 영역의 세로길이의 절반을 기준선으로 정하고, 기준선보다 위쪽 영역에 새로운 블럽 객체가 생성되면 새로운 레이블을 부여한다. 한편, 기준선 아래 영역에서 새로운 객체가 나타나면 이는 전처리의 불안정으로 판단하고 삭제하는 등의 필터링 작업을 수행한다.When detecting a new object, first, half of the vertical length of the detection area is set as a reference line in the detection area, and a new label is given when a new blob object is created in the area above the reference line. On the other hand, if a new object appears in the region below the baseline, it determines that it is unstable in preprocessing and performs filtering such as deleting.
객체가 사라지는 경우의 처리를 보면, 반사광이나 전처리 상에서 생긴 문제로 인하여 객체가 사라지면 현재 프레임에 이전 프레임의 정보를 복사한다. 검지 영역의 크기를 고려하여 객체가 소정수의 프레임 동안 나타나지 않으면 그 부분에 해당하는 객체는 잡음에 의하여 일시적으로 생긴 것으로 보고 삭제한다. 기준선 아래의 객체는 전처리에서 사라졌을 경우보다 차량이 빠져 나갔을 가능성이 크므로 다음 프레임에서 나타나지 않을 경우에 객체를 복사하지 않는다.In the case of the object disappearing, if the object disappears due to a problem in reflection or preprocessing, the information of the previous frame is copied to the current frame. If the object does not appear for a predetermined number of frames in consideration of the size of the detection area, the object corresponding to the part is regarded as being temporarily generated by noise and deleted. Objects below the baseline are more likely to exit the vehicle than if they disappeared from the preprocess, so do not copy objects unless they appear in the next frame.
본 발명의 차량 추적은 면적과 위치를 이용하여 이루어진다. 연속된 프레임에서 객체는 비슷한 위치에 있을 것이라는 가정을 바탕으로 객체를 추적한다. 객체가 추적되면 객체의 위치정보를 갱신한다.Vehicle tracking of the present invention is accomplished using area and location. In successive frames, objects are tracked based on the assumption that they will be in a similar position. When the object is tracked, the location information of the object is updated.
그 밖에, 차량 추적에서, 프레임에서 객체의 겹칩이 발생하면 객체 영역을 축소시켜 분리하고, 이전 프레임에서 하나의 영역을 가진 객체가 현재 프레임에서 두 개 이상이 되는 경우 이전 프레임에서 얻어온 마스크를 통하여 영역을 병합하고, 이전 프레임에서 두 개의 객체가 현재 프레임에서 하나의 영역으로 되는 경우에는 이전 프레임을 이용하여 객체 영역을 분리한다.In addition, in vehicle tracking, when the overlapping of objects occurs in a frame, the object area is reduced and separated, and when the object having one area in the previous frame becomes more than two in the current frame, the area is obtained through the mask obtained in the previous frame. If two objects in the previous frame become one area in the current frame, the object area is separated using the previous frame.
차량 분석부(340)는 차량의 종류 분석, 통과하는 차량의 계수, 차종별 평균 속도 등을 분석한다. The
차량의 종류 분석은 검지 영역의 특정 지점, 예를들어 검지 영역의 하단(인식 표시선)에 이른 객체의 영상에 기초하여 차량의 종류를 판단한다. 차량의 인식은 차량 인식을 위한 데이터베이스 구축과 차량 판단으로 이루어지는 데, 여기에 네버시아 필터, R-테이블, Hough 변환 등이 이용된다.The type analysis of the vehicle determines the type of vehicle based on an image of an object that reaches a specific point of the detection area, for example, a lower end (a recognition display line) of the detection area. Recognition of the vehicle is composed of a database for vehicle recognition and vehicle determination. Neversia filter, R-table, Hough transform, etc. are used.
차량 인식을 위한 객체 영상 데이터베이스의 구축은 취득 영상으로부터 추출된 객체 영역(차량)의 윤곽과 비교되는 비교 대상을 저장하는 것이다. 즉, 객체가 되는 차량의 기준 윤곽을 저장한다. 객체 영상 데이터베이스는 뷰가 고정되어 있다는 가정하에 검지 영역의 인식 표시선에 닿아 있는 차량에 대하여 차종별 및 차선별 기준 영상을 저장한다.The construction of the object image database for vehicle recognition is to store a comparison target compared with the outline of the object region (vehicle) extracted from the acquired image. That is, the reference contour of the vehicle to be the object is stored. The object image database stores reference images for respective vehicle types and lanes for vehicles that touch the recognition indication line of the detection area on the assumption that the view is fixed.
구축되는 기준 영상은 네버시아 필터를 이용하여 차량의 에지를 추출하고, R-테이블로 작성된다. 이와같이, 객체 영상 데이터베이스는 비교될 차량들의 영상에 대한 차선별 R-테이블이다.The reference image to be constructed is extracted with the edge of the vehicle using the Neversia filter, and is created as an R-table. As such, the object image database is a lane-by-lane R-table for the image of the vehicles to be compared.
네버시아 필터를 보면, 일반적으로 Hough 변환을 적용하기 위해서는 0°∼360°의 방향으로 R-테이블이 모두 구성되어야 하나, 본 발명에서는 계산량을 줄이기 위하여 네버시아 필터와 컨벌루션을 취하여 6개 방향, 즉 0°,30°,60°,90°,120°,150° 로 표시하는 것이 바람직하다. 여기서, R-테이블은 경계선과 객체의 임의 중심과의 관계식에 의하여 표현된다.In the case of the Neversia filter, in general, in order to apply the Hough transform, all of the R-tables must be configured in the direction of 0 ° to 360 °, but in the present invention, the convolution with the Neversia filter is taken in six directions, namely, in order to reduce the calculation amount. It is preferable to represent 0 °, 30 °, 60 °, 90 °, 120 ° and 150 °. Here, the R-table is represented by the relationship between the boundary line and the arbitrary center of the object.
네버시아 필터, R-테이블 등을 이용한 차량의 인식은 레이블이 부여된 추적 객체들 중에서 인식 표시선에 도착한 객체의 그레이 영상에서 네버시아 필터를 이용하여 에지를 추출한다. 추출된 에지 정보를 이미 구축된 R-테이블들과 비교하여 Hough 변환 매칭을 시도한다. 이때, 매칭점수가 가장 높은 R-테이블에 해당하는 것을 대상 차종으로 판단한다. 이와같이, 본 발명의 차종 인식은 단순히 객체의 크기를 비교하는 것이 아니라, 실제 차량의 영상을 데이터베이스화하여 비교하는 프로토타입 매핑을 이용한다. 이러한 프로토타입 매핑은 객체의 일부가 훼손되는 경우에도 차종을 인식할 수 있다. 한편, 차종 인식이 불가능한 경우에는 이상화면으로 분류하여 저장하고 카운트한다.Recognition of a vehicle using a Neversia filter, an R-table, or the like extracts an edge using a Neversia filter from a gray image of an object arriving at a recognition line among labeled tracking objects. Hough transform matching is attempted by comparing the extracted edge information with the already built R-tables. In this case, it is determined that the target vehicle model corresponds to the R-table having the highest matching score. As such, the vehicle model recognition of the present invention uses a prototype mapping that compares images of actual vehicles by database rather than simply comparing the sizes of objects. This prototype mapping can recognize a vehicle even if some of the objects are damaged. On the other hand, when the vehicle model recognition is impossible, it is classified as an abnormal screen and stored and counted.
차량 분석부(340)에서 차량의 카운트는 차종별 및 전체 차량을 대상으로 이루 어지는 데, 이는 연속된 프레임에서 동일 객체를 추적함으로써 가능하다.In the
차량 분석부(340)에서 차량의 속도는 차량 추적 시작 프레임과 추출한 영상까지의 프레임을 이용하여 계산한다. 예를들어, 영상에 나타난 검지 영역의 길이와 추적 대상 차량이 진행하는 데 걸린 시간을 이용한다. 차량의 진행 시간은 검 지 영역을 통과하는 데 소요된 프레임의 수가 이용된다. 즉, 진행시간은 "검지영역 통과 프레임수 * (1/프레임 레이트)" 이다. 이와같이 계산된 속도를 평균하여 평균 속도를 산출한다.The vehicle speed is calculated by the
차량정보 DB(350)는 차량 분석부(340)에서 발생한 데이터를 저장하는 것으로, 이용 시간대별로 통과하는 차량의 차종별 숫자, 차량별 또는 차선별 평균속도, 이상화면 등을 저장한다. 또한, 차량 분석부(340)에서 차종을 인식하는 데 필요한 기준 영상, 예를들어 각 차량에 대한 R-테이블 등을 저장한다.The
자료 출력부(400)는 영상 분석부(300)의 결과를 이용하여 각종 평가자료 및 증빙자료를 출력한다.The
도3은 본 발명에 따른 교통량 분석의 흐름도이다. 도3에 도시된 바와같이, 먼저 영상 취득부를 이용하여 도로상의 차량 및 배경에 대한 영상을 취득한다(S11), 취득된 영상에서 파일 형태의 변환, 배경이나 그림자가 없는 움직이는 객체에 대한 영역을 추출하는 단계를 거친다(S12). 추출된 객체를 추적하면서(S13) 속도 계산을 위한 정보를 임시로 저장한다(S14). 차량 추적(S13)에서 차량이 검지 영역의 끝단인 인식 표시선에 도착한 지를 판단하여, 차량이 인식 표시선에 도착되면 객체 영상을 취하여(S16) 차종 인식 알고리즘을 수행한다(S17).3 is a flowchart of traffic analysis according to the present invention. As shown in FIG. 3, an image of a vehicle and a background on a road is first acquired using an image acquisition unit (S11). In the acquired image, a file format is transformed and an area of a moving object without a background or a shadow is extracted. Go through the steps (S12). While tracking the extracted object (S13), the information for speed calculation is temporarily stored (S14). In the vehicle tracking (S13), it is determined whether the vehicle has reached the recognition display line, which is the end of the detection area, and when the vehicle arrives at the recognition display line, an object image is taken (S16) and a vehicle model recognition algorithm is performed (S17).
차종 인식 알고리즘의 수행에서(S17), 차종 인식이 가능하면 차종 및 전체 차량 카운트와 차량의 속도를 계산한다(S18, S19). 차종 인식이 불가능하면 이상화면으로 분류하고(S20), 이상화면에 대한 정보를 임시로 저장한다(S21). 이후, 이상화면에 대하여 차종 인식 알고리즘을 수행하여(S22), 차종을 일부라도 인식할 수 있는 지를 판단하여(S23), 일부 인식이 가능하면 차종 및 전체 차량 카운트를 수행하고(S24), 일부 인식이 불가능하면 이상화면을 카운트하면서 데이터베이스에 저장한다(S26).In the execution of the vehicle model recognition algorithm (S17), if the vehicle model recognition is possible, the vehicle model and the total vehicle count and the speed of the vehicle are calculated (S18 and S19). If it is impossible to recognize the vehicle model, it is classified as an abnormal screen (S20), and information about the abnormal screen is temporarily stored (S21). After that, by performing a vehicle model recognition algorithm on the abnormal screen (S22), it is determined whether even a portion of the vehicle can be recognized (S23), and if the partial recognition is possible, perform a vehicle model and the total vehicle count (S24), and partially recognize If this is impossible, the abnormal screen is counted and stored in the database (S26).
단계(S19) 및 단계(S24)에서 카운트 및 계산된 차종별 대수나 평균속도 등은 데이터베이스에 저장된다(S26). 데이터베이스에 저장된 데이터는 교통량 분석에서 각종 평가자료 및 증빙자료로 변환되어 그 자료를 필요로 하는 관계기관이나 업체에서 활용한다.The number and average speed for each vehicle model counted and calculated in steps S19 and S24 are stored in the database (S26). Data stored in the database is converted into various evaluation data and evidence data in the traffic analysis and used by the relevant institutions or companies that need the data.
이상의 본 발명은 영상 전송부를 별도로 구비하여 현지에서 취득된 영상자료를 원거리에서 분석하는 경우를 상정하여 설명하였으나, 현지에서 취득된 영상자료를 현지에서 직접 영상분석부를 이용하여 영상을 분석하여 자료를 저장하거나, 전송하도록 구성할 수도 있다.Although the present invention has been described on the assumption that a separate image transmission unit analyzes locally acquired image data from a long distance, the locally acquired image data is analyzed by using an image analysis unit directly to store the data. Or to transmit.
본 발명에 따른 교통량 분석 시스템에 의하면, 도로의 차선별 및 차종별로 특정 시간대의 통과 차량수, 평균속도 등을 자동으로 정확하게 분석할 수 있다. 이러한 차종별 교통량 자료는 교통량 영향 평가에서 도로의 활용도를 예측하는 데 중요하게 사용된다. 또한, 이동식 영상 취득장치를 사용함으로써, 교통량 데이터의 취득에 기동성을 기하고, 교통량 분석을 필요로 하는 고객에게 적시 적소의 정확한 자료를 제공할 수 있다.According to the traffic volume analysis system according to the present invention, it is possible to automatically and accurately analyze the number of passing vehicles, average speed, etc. in a specific time zone for each lane and vehicle type of the road. These traffic data by vehicle type are important for predicting road utilization in traffic impact assessment. In addition, by using a mobile image acquisition device, it is possible to provide mobility in acquiring traffic data and to provide accurate and timely data to customers who need traffic analysis.
Claims (5)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020040011707A KR100552389B1 (en) | 2004-02-21 | 2004-02-21 | Advanced Traffic Analyzing System by Descriminating Types of Vehicles |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020040011707A KR100552389B1 (en) | 2004-02-21 | 2004-02-21 | Advanced Traffic Analyzing System by Descriminating Types of Vehicles |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20050083108A KR20050083108A (en) | 2005-08-25 |
KR100552389B1 true KR100552389B1 (en) | 2006-02-20 |
Family
ID=37269395
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020040011707A KR100552389B1 (en) | 2004-02-21 | 2004-02-21 | Advanced Traffic Analyzing System by Descriminating Types of Vehicles |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100552389B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100590841B1 (en) | 2004-12-31 | 2006-06-19 | 유일정보시스템(주) | Advanced traffic analyzing system with adding referenced vehicles |
KR101104625B1 (en) * | 2010-05-06 | 2012-01-12 | 한국산업기술대학교산학협력단 | Apparatus for yielding traffic information of intelligent transport system and method thereof |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101475062B1 (en) * | 2013-07-04 | 2014-12-22 | 신도산업 주식회사 | Vehicle traffic information management system |
KR101973933B1 (en) * | 2017-02-16 | 2019-09-02 | (주)지앤티솔루션 | Method and Apparatus for Detecting Boarding Number |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04326200A (en) * | 1991-04-25 | 1992-11-16 | Matsushita Electric Ind Co Ltd | Statistical vehicle movement measuring device |
JPH0933232A (en) * | 1995-05-18 | 1997-02-07 | Omron Corp | Object observation method and object observation apparatus using this method, as well as traffic-flow measuring apparatus using this apparatus, and parking-lot observation apparatus |
KR19980077361A (en) * | 1997-04-18 | 1998-11-16 | 윤종용 | Vehicle type discrimination device |
KR19990047365A (en) * | 1997-12-04 | 1999-07-05 | 심광호 | Image detection system |
KR20020036797A (en) * | 2002-02-07 | 2002-05-16 | 주식회사 케이아이티에스 | Transportation information sensing apparatus and system |
KR20040005299A (en) * | 2002-07-09 | 2004-01-16 | 엘지산전 주식회사 | Grouping apparatus for automobile and method thereof |
-
2004
- 2004-02-21 KR KR1020040011707A patent/KR100552389B1/en not_active IP Right Cessation
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04326200A (en) * | 1991-04-25 | 1992-11-16 | Matsushita Electric Ind Co Ltd | Statistical vehicle movement measuring device |
JPH0933232A (en) * | 1995-05-18 | 1997-02-07 | Omron Corp | Object observation method and object observation apparatus using this method, as well as traffic-flow measuring apparatus using this apparatus, and parking-lot observation apparatus |
KR19980077361A (en) * | 1997-04-18 | 1998-11-16 | 윤종용 | Vehicle type discrimination device |
KR19990047365A (en) * | 1997-12-04 | 1999-07-05 | 심광호 | Image detection system |
KR20020036797A (en) * | 2002-02-07 | 2002-05-16 | 주식회사 케이아이티에스 | Transportation information sensing apparatus and system |
KR20040005299A (en) * | 2002-07-09 | 2004-01-16 | 엘지산전 주식회사 | Grouping apparatus for automobile and method thereof |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100590841B1 (en) | 2004-12-31 | 2006-06-19 | 유일정보시스템(주) | Advanced traffic analyzing system with adding referenced vehicles |
KR101104625B1 (en) * | 2010-05-06 | 2012-01-12 | 한국산업기술대학교산학협력단 | Apparatus for yielding traffic information of intelligent transport system and method thereof |
Also Published As
Publication number | Publication date |
---|---|
KR20050083108A (en) | 2005-08-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8655078B2 (en) | Situation determining apparatus, situation determining method, situation determining program, abnormality determining apparatus, abnormality determining method, abnormality determining program, and congestion estimating apparatus | |
CN109784162B (en) | Pedestrian behavior recognition and trajectory tracking method | |
Tae-Hyun et al. | Detection of traffic lights for vision-based car navigation system | |
KR100630088B1 (en) | Apparatus and method for supervising vehicle using optical flow | |
CN111008600B (en) | Lane line detection method | |
EP2023309B1 (en) | Vehicle discriminating device, vehicle discriminating method, vehicle discriminating program, and program recording medium with the vehicle discriminating program stored therein | |
EP1835462A1 (en) | Tracing device, and tracing method | |
JP2004058737A (en) | Safety monitoring device in station platform | |
JP6595375B2 (en) | Traffic condition analysis device, traffic condition analysis method, and traffic condition analysis program | |
Busch et al. | Feature based recognition of traffic video streams for online route tracing | |
JP2012160165A (en) | Baseline band video monitoring system and method | |
Monwar et al. | Pain recognition using artificial neural network | |
EP3557529A1 (en) | Lane marking recognition device | |
KR100552389B1 (en) | Advanced Traffic Analyzing System by Descriminating Types of Vehicles | |
CN113505638A (en) | Traffic flow monitoring method, traffic flow monitoring device and computer-readable storage medium | |
Al Nasim et al. | An automated approach for the recognition of bengali license plates | |
KR100590841B1 (en) | Advanced traffic analyzing system with adding referenced vehicles | |
EP3244344A1 (en) | Ground object tracking system | |
JP3453952B2 (en) | Traffic flow measurement device | |
KR102492290B1 (en) | Drone image analysis system based on deep learning for traffic measurement | |
Yu et al. | Length-based vehicle classification in multi-lane traffic flow | |
CN114494355A (en) | Trajectory analysis method and device based on artificial intelligence, terminal equipment and medium | |
EP3671537A1 (en) | Smoke detection method and apparatus | |
CN111881829A (en) | Method and device for detecting personnel and calculating personnel number in public place and monitoring equipment | |
KR20050086559A (en) | Object classification via time-varying information inherent in imagery |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
LAPS | Lapse due to unpaid annual fee | ||
FPAY | Annual fee payment |
Payment date: 20091111 Year of fee payment: 4 |
|
R401 | Registration of restoration |