KR101133222B1 - System and Method for monitoring traffic and accident based on image processing - Google Patents

System and Method for monitoring traffic and accident based on image processing Download PDF

Info

Publication number
KR101133222B1
KR101133222B1 KR1020100043925A KR20100043925A KR101133222B1 KR 101133222 B1 KR101133222 B1 KR 101133222B1 KR 1020100043925 A KR1020100043925 A KR 1020100043925A KR 20100043925 A KR20100043925 A KR 20100043925A KR 101133222 B1 KR101133222 B1 KR 101133222B1
Authority
KR
South Korea
Prior art keywords
accident
vehicle
image
road
detection
Prior art date
Application number
KR1020100043925A
Other languages
Korean (ko)
Other versions
KR20110117576A (en
Inventor
오주택
민준영
Original Assignee
한국교통대학교산학협력단
한국교통연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국교통대학교산학협력단, 한국교통연구원 filed Critical 한국교통대학교산학협력단
Publication of KR20110117576A publication Critical patent/KR20110117576A/en
Application granted granted Critical
Publication of KR101133222B1 publication Critical patent/KR101133222B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • G06T7/41Analysis of texture based on statistical description of texture
    • G06T7/44Analysis of texture based on statistical description of texture using image operators, e.g. filters, edge density metrics or local histograms

Abstract

본 발명에 따른 사고검지 시스템은 사고로 인한 정지차량이 존재할 때, 이에 대한 영상을 통해 가우시안 혼합모델을 적용하여 예비 검지를 수행하고, 이후 개별 차량에 대한 속도와 궤적 변화를 참조하여 사고 확정을 판정하는 방법을 통해 정확한 사고 검지를 수행한다.The accident detection system according to the present invention performs a preliminary detection by applying a Gaussian mixed model through the image when a stationary vehicle is present due to an accident, and then determines the accident confirmation by referring to the speed and trajectory change of the individual vehicle. How to carry out accurate accident detection.

Description

영상기반의 사고 검지 시스템 및 방법{System and Method for monitoring traffic and accident based on image processing}System and Method for monitoring traffic and accident based on image processing

본 발명은 사고검지 시스템 및 방법에 관한 것으로 특히 영상 기반의 사고 검지 시스템 및 방법에 관한 것이다. The present invention relates to an accident detection system and method, and more particularly to an image-based accident detection system and method.

차량 이용의 증가로 인해 교통혼잡, 사고, 및 대기오염과 같은 교통 문제가 날로 증가하고 있다.Increasing use of vehicles is increasing traffic problems such as traffic congestion, accidents and air pollution.

특히, 차량 증가에 의해 도로가 감당할 수 있는 차량의 수가 점차 감소하는 추세에서, 사고 차량에 의한 교통 혼잡은 전체 도로의 교통 흐름을 악화시키므로 신속히 발견하여 조치하여야 한다. 또한, 고속도로에서 발생하는 사고의 경우, 사고 차량에 의해 유발되는 2차, 3차로 이어지는 사고에 의해 교통 흐름을 더욱 악화시키는 경우가 많다. 통상, 고속도로에서 발생하는 사고의 20 ~ 50%는 2차 사고로 연결되고 있으며, 사고가 발생할 때의 교통 흐름은 recurrent congestion보다는 non-recurrent congestion의 영향이 더 크게 나타나므로 자동사고검지(Automatic Incident Detection; AID) 시스템이 필요한 현실이다.In particular, in the trend that the number of vehicles that the road can afford due to the increase of the vehicle gradually decreases, the traffic congestion caused by the accident vehicle worsens the traffic flow of the entire road, so it is necessary to promptly detect and take measures. In addition, in the case of an accident that occurs on the highway, the traffic flow is often worsened by the second and third accidents caused by the accident vehicle. Normally, 20-50% of accidents occurring on highways are connected to secondary accidents, and the traffic flow in the event of accidents is more affected by non-recurrent congestion than by recurrent congestion. AID) is a reality that needs a system.

하지만 현재 구축되어 있는 사고검지 시스템은 루프 검지기를 기반으로 이루어져 있다. 루프 검지기는 도로를 주행하는 차량의 교통량, 차량 점유율, 및 차량의 속도와 같은 정보를 기반으로 사고 발생 여부를 판단해야 한다. 그러나, 루프 검지기 기반의 시스템에서 사고 발생 여부를 판단할 때, 차량의 정체가 교통 사고에 의해 발생하지 않는 경우, 도로에서 발생하는 보수 공사, 및 기타 사고와 연관성이 없는 원인에 의해 발생하는 차량 정체가 발생할 경우, 교통 사고의 발생을 적정히 판단할 수 없다. However, the current accident detection system is based on the loop detector. The loop detector should determine whether an accident has occurred based on information such as traffic volume, vehicle occupancy, and speed of the vehicle driving on the road. However, when determining whether an accident has occurred in a loop detector-based system, if the congestion of the vehicle is not caused by a traffic accident, vehicle congestion caused by repair work occurring on the road and a cause not related to other accidents If a car accident occurs, the occurrence of a traffic accident cannot be judged properly.

따라서, 현재, 루프 검지기를 이용하여 사고를 판단하는 방법은 교통 정보(도로를 주행하는 차량의 평균 속도, 차량의 도로 점유율, 및 도로를 통과하는 교통량 등)에 의해 사고가 발생하였다고 판단되는 구간이 존재할 때, CCTV를 이용하여 루프 검지기가 배치된 도로를 직접 보고 판단해야 한다. 루프 검지기를 이용하는 사고검지 시스템은 사고가 발생한 현재를 기준으로 전후 상황에 대해 순차적인 기록을 작성하거나, 원인을 판단하기 곤란한 측면이 있다. 이는, 사고가 발생하는 원인을 파악하는데 많은 시간을 필요로 하고, 명확한 분석을 어렵게 한다.Therefore, at present, a method of determining an accident using a loop detector includes a section in which it is determined that an accident has occurred based on traffic information (average speed of a vehicle driving on a road, a road share of a vehicle, and a traffic volume passing through a road). When present, CCTV must be used to directly determine the road on which the loop detector is located. The accident detection system using the loop detector has a side that is difficult to write a sequential record or determine the cause of the situation before and after the current occurrence of the accident. This takes a lot of time to determine the cause of the accident and makes clear analysis difficult.

현재까지 개발되어 도로에 적용되는 교통사고 검지 시스템, 및 방법은 크게 모델기반 사고검지 알고리즘과과 영상기반 사고검지 알고리즘을 이용하고 있으며, 각각 살펴보면 다음과 같다.The traffic accident detection system and method developed and applied to the road until now are largely using a model-based accident detection algorithm and an image-based accident detection algorithm.

먼저, 모델기반 사고검지 모델(Traffic incident detection algorithm based on model)은 도로에 설치된 검지기(예컨대 루프 검지기)를 이용하여 측정된 교통 정보에 따라 수학적 모델을 설계하는 방법으로, 모델(model)은 패턴인식(pattern recognition), 유체역학(hydromechanics), 통계적 예측(statistical forecast), 필터링(filtering) 모델 중 하나일 수 있다.First, a traffic incident detection algorithm based on model is a method of designing a mathematical model according to traffic information measured using a detector (for example, a loop detector) installed on a road, and the model is a pattern recognition. (pattern recognition, hydromechanics, statistical forecast, filtering model).

지능형 사고검지 알고리즘(Intelligent detection algorithm without model)은 하나의 모델이 비선형(nonlinear)으로 이루어지는 교통 흐름의 특성을 완전히 포함할 수 없기 때문에, 인공지능을 이용한 지능형 검지 알고리즘을 이용하는 것으로, 신경망(neural network) 기반의 퍼지 논리(fuzzy-logic) 알고리즘 등 복합적인 방법을 적용하고 있다.Intelligent detection algorithm without model is a neural network that uses intelligent detection algorithms using artificial intelligence because a model cannot fully include the characteristics of nonlinear traffic flows. We apply complex methods such as fuzzy-logic algorithms.

모델기반의 사고검지 시스템, 및 방법은 주로 도로에 가설된 복수의 루프 검지기를 이용하여 연속된 지점별 교통흐름(traffic flow) 데이터를 분석하여 사고검지를 수행한다. 모델기반의 사고검지 시스템이 적용되는 TVS 그룹의 microscopic AID 시스템의 경우, 각 차량을 루프 검지기가 가설된 한 지점에서 다음 지점의 검지때까지 추적하는 방법으로, 차량이 한 지점을 통과한 후 다음 지점까지 도달하는 예측시간(expected time)과 실제 값과의 속도 비교를 통해 그 값이 유의수준을 넘으면(significant difference) 사고로 판단한다. microscopic AID 시스템을 이용하여 사고검지를 수행할 때, 각 차량에 대한 추적의 정확도가 수반되어야 하나, 차량이 차로를 변경하는 경우 해당 차량을 이용한 속도 비교가 무의미해지는 단점이 있다.The model-based accident detection system and method mainly perform a traffic detection by analyzing continuous traffic flow data for each point using a plurality of loop detectors hypothesized on a road. In the case of the microscopic AID system of the TVS group, which is applied to the model-based accident detection system, each vehicle is tracked from one point where the loop detector is hypothesized to the next point where the vehicle passes one point and then the next point. By comparing the speed between the predicted time and the actual value, the value is judged to be an accident if the value exceeds the significance level. When performing an accident detection using a microscopic AID system, the tracking accuracy of each vehicle must be accompanied, but when the vehicle changes lanes, speed comparison using the vehicle is meaningless.

한편, 1971년부터 시작된 미국 LA freeway Surveillance and Control Project에서는 Santa Monica freeway, San Diego freeway, Harbor freeway의 42마일 길이의 도로에 대해 대략 700개의 루프 검지기를 설치하여 사고 발생 판단을 위한 실험을 한 바 있다. 이때, 각 루프 검지기 사이의 차량 점유율(도로에서 차량이 점유하는 비율)을 비교하여 사고가 발생하는 경우, 차량의 진행 방향을 기준으로 사고가 발생한 지점보다 이전 지점에 가설된 루프 검지기의 도로 점유율이 상승하고 이후 지점에서의 도로 점유율이 급격히 하락한다는 이론을 토대로 사고 검지를 실시한바 있다. Meanwhile, the LA Freeway Surveillance and Control Project, which began in 1971, conducted approximately 700 loop detectors on 42 miles of Santa Monica freeway, San Diego freeway and Harbor freeway. . At this time, when the accident occurs by comparing the vehicle occupancy rate (the ratio of the vehicle occupied on the road) between the loop detectors, the road occupancy rate of the loop detector hypothesized at a point earlier than the point where the accident occurred, The accident detection was carried out based on the theory that the road share rose sharply and the road share at a later point dropped sharply.

또한, Tokyo Expressway Control System에 대한 실험에서는, 두 개의 연속된 검지기의 상태를 비교하여 사고를 검지하며, 이때, 5분 이상의 이동평균법(moving average)을 적용한 바 있다. 그러나, okyo Expressway Control System에 대한 실험 또한, 전체 교통량의 변화를 참조하여 사고 발생 여부를 추측할 수는 있으나, 교통량의 변화가 항상 사고와 직접 연관되는 것만은 아니므로 사고 검지의 정확도라는 측면에서 해결 과제를 남긴 바 있다.In the experiments on the Tokyo Expressway Control System, accidents are detected by comparing the states of two consecutive detectors. At this time, a moving average method of 5 minutes or more has been applied. However, the experiment on the okyo Expressway Control System can also infer whether an accident occurred by referring to the change in the total traffic volume, but it is solved in terms of the accuracy of the accident detection because the change in the traffic volume is not always directly related to the accident. I have left a task.

다른 한편, 영상을 분석하여 사고 검지를 수행하는 방법으로서, 지식 기반형 사고검지 알고리즘이 제안된 바 있다. 지식기반형 사고검지 알고리즘은 사고검지율이 높고(high detection rate), 짧은 시간 안에 검지가 가능하며 사고 현장을 직접 확인할 수 있다는 장점이 있다.On the other hand, as a method of performing accident detection by analyzing an image, a knowledge-based accident detection algorithm has been proposed. The knowledge-based accident detection algorithm has the advantage of high detection rate, detection in a short time, and direct identification of the accident site.

이러한 지식기반형의 알고리즘은 일종분류(one-class classification) 방법으로 사고검지를 수행하는 것으로, 지역분포(region distribution)를 설정하고, 사고 영역의 특징 공간(feature space)과 지역분포를 비교하여 결정함수(decision function)를 구하며, 이 결정함수 조건에 따라 사고를 판단하는 방법으로 지역분포에 대한 선험적인 통계적 가설이 필요 없다는 장점이 있다. These knowledge-based algorithms perform accident detection using a one-class classification method, and establish a regional distribution and compare the feature space and the regional distribution of the accident domain. As a method of determining a decision function and judging an accident according to the conditions of this decision function, there is an advantage that a prior statistical hypothesis about the regional distribution is not necessary.

Kun Z은 기존 알고리즘의 보편성이 부족하다는 점을 들어 freeway와 arterial road 모두를 커버할 수 있는 전문가적 교통지식(expert traffic knowledge)을 기반으로 한 Baysian networks을 구성한 보편적 사고검지(universal incident detection) framework를 제안하였다. Due to the lack of universality of existing algorithms, Kun Z has developed a universal incident detection framework that consists of Baysian networks based on expert traffic knowledge that can cover both freeway and arterial roads. Suggested.

또한 D. Kim은 backpropagation이론의 문제점을 보완한 fuzzy ARTMAP 알고리즘으로서, 퍼지논리(fuzzy logic)와 ART이론(Adaptive Resonance Theory)의 결합모델을 제안하였다. 이는 30초 동안의 이동차량의 평균속도와 교통량을 신경망 입력벡터로 학습한 결과를 통해 사고검지를 하였다. 그러나 실제 교통상황에서 발생하는 사고검지 요소로 평균속도와 교통량만으로는 95%이상 적중률을 갖는 사고 검지를 하기에 많은 어려움이 있다. In addition, D. Kim proposed a combined model of fuzzy logic and Adaptive Resonance Theory as a fuzzy ARTMAP algorithm that complements the problem of backpropagation theory. This is based on the results of learning the average speed and the traffic volume of a moving vehicle for 30 seconds using neural network input vectors. However, there are many difficulties in detecting an accident that has a hit rate of more than 95% by the average speed and the traffic volume as an accident detection factor that occurs in the actual traffic situation.

그러나, 이러한 지식기반형 알고리즘은 검지기 사이의 거리가 멀어지게 되면(통상 500m) 검지 효율성이 급격히 떨어지게 되며, 교통량이 매우 적은 경우, 사고 검지율이 낮아지며 교통량이 매우 많은 경우에는 사고 검지가 아닌 지체 혹은 정체로 판단되는 경우가 자주 발생한다. 또한 사고 검지가 가능하더라도 사고에 대한 원인 규명 및 실시간 상황파악이 되지 않는 단점이 있다.However, if the distance between detectors is wide (typically 500m), such knowledge-based algorithms will rapidly reduce the detection efficiency.If the traffic volume is very low, the accident detection rate will be low, and if the traffic volume is very heavy, Frequent occurrences of congestion occur. In addition, even if an accident can be detected, there is a disadvantage in that the cause of the accident is not identified and the real-time situation is not identified.

다른 한편, 중국 청화대학 VISTRAM 시스템은 도로의 차선과 수직방향과 수평방향의 일정 부분에 해당하는 동영상 프레임의 한 부분의 프로파일(profile)을 모아 영상의 형태로 재구성하고, 재구성된 영상에서 차량의 유무, 차종, 차량속도 등의 정보를 추출하여 사고 발생을 검지하는 방식을 제안한바 있다. 이 방법은 조명의 변화, 일부의 가려짐 등에 대해 안정된 데이터 산출이 가능하지만 사고차량이나 개별 차량의 추적을 통해 다양한 정보를 추출하기에는 부적합한 것으로 알려져 있다.On the other hand, the VISTRAM system of Tsinghua University in China collects a profile of a part of a video frame corresponding to a part of a road lane and a vertical and horizontal direction, and reconstructs it into the form of an image, and whether the vehicle is present in the reconstructed image. We have proposed a way to detect accidents by extracting information such as vehicle type and vehicle speed. This method is able to produce stable data about changes in lighting and some obstructions, but it is known to be inadequate for extracting various information through the tracking of accident vehicles or individual vehicles.

또한, Shunsuke Kamijo는 영상처리를 통해 사고 검지를 실시하고자 하였으며, hidden Markov model(HMM) 모델을 기초로 Markov random field(MRF) 알고리즘을 활용하여 교차로 차량의 트래킹(tracking)을 통해 사고 검지를 실시하였으며, 차량 검지율은 90%대로 나타났다. HMB 모델은 차량 추출을 통한 사고검지의 정확성에 대한 추정 값일 뿐 실제 도로 상황에서 검증된 바는 없다. In addition, Shunsuke Kamijo attempted to detect accidents through image processing and based on the hidden Markov model (HMM) model, using the Markov random field (MRF) algorithm to detect accidents through tracking of intersection vehicles. The vehicle detection rate was 90%. The HMB model is an estimate of the accuracy of accident detection through vehicle extraction and has not been verified in actual road conditions.

비디오 사고검지 시스템으로 Traficon Autoscope가 상용화 되어 있는 데, 이들 제품들의 대부분의 방법이 지점검지로 정지차량 검지, 노견 등 비정상적 도로주행 검지로 기존의 영상검지기 기능 중심에서 제한적으로 돌발, 사고검지를 하는 기능으로 소개되고 있다. 하지만, Autoscope 등이 사용하고 있는 일반 동영상 프레임을 이용하는 방법은 다양한 정보를 산출할 수 있다는 이점은 있으나 가려짐, 그림자, 조명변화 등의 문제를 해결해야 안정된 정보를 추출할 수 있다. Traficon Autoscope is commercialized as a video accident detection system, and most of these products are spot detection, stationary vehicle detection, and roadside detection, such as abnormal road driving detection. It is introduced. However, the method of using the general video frame used by Autoscope has the advantage that it can calculate various information, but stable information can be extracted only when the problems such as obscuration, shadow, and light change are solved.

현재까지의 사고 검지 방법은 대부분 교통정보의 변화(change of traffic situation)율을 분석하여 판단하게 되는데, 주로 루프 검지기에서 제공하는 데이터를 분석하였으나, 최근에는 영상을 통한 사고검지 알고리즘이 많이 고려되는 추세에 있다. 특히, 영상에 의한 사고검지는 사고 상황을 즉각적으로 볼 수 있으며, 이에 대한 삼각성의 정도를 파악할 수도 있다. Most accident detection methods up to now are analyzed by analyzing the change of traffic situation rate. The data provided by the loop detector is mainly analyzed, but recently, the accident detection algorithm through video is considered a lot. Is in. In particular, the accident detection by the image can immediately see the accident situation, it can also grasp the degree of triangularity.

이에 본 출원인은 영상기반의 사고검지 시스템을 이용하여 관리 및 운영상의 한계를 보이고 있는 기존의 루프검지기 방식을 대체하며, 교통사고의 발생 전과 후의 순차적인 상황을 정확히 기록하고, 이 자료를 통해 발생된 교통사고의 사고 매커니즘을 객관적이고 명확한 분석이 가능하다. 본 출원인은 영상을 기반으로 하여 높은 검지율을 획득함과 동시에 낮은 판단오류를 보이는 신뢰성 있는 사고검지 시스템을 제안하고자 한다. 이에 더하여 정확한 사고지점 및 사고 상황에 대한 해석도 가능하면서 사고발생 위험이 높은 흐림, 비, 안개, 눈 등 악천후 날씨도 사고검지율이 떨어지지 않는 영상기반의 사고검지 시스템 및 방법을 제안하고자 한다.Therefore, the applicant replaces the existing loop detector method that shows the management and operation limitation by using the image-based accident detection system, accurately records the sequential situation before and after the traffic accident, An objective and clear analysis of the accident mechanism of traffic accidents is possible. The present applicant intends to propose a reliable accident detection system that obtains a high detection rate and shows a low judgment error based on the image. In addition, we will propose an image-based accident detection system and method that can accurately interpret the accident location and the accident situation, and the accident detection rate does not drop even in bad weather such as cloudy weather, rain, fog, and snow, which have a high risk of accidents.

본 발명의 목적은 날씨나 교통정보에 의한 영향을 최소화하며, 촬상된 영상을 이용하여 사고 판단 정확도가 높고 오류가 적은 사고검지 시스템 및 방법을 제공하는데 있다.An object of the present invention is to provide an accident detection system and method with high accuracy and low error determination by using the captured image to minimize the influence of weather or traffic information.

또한, 본 발명의 다른 목적은 Gaussian Background Mixture Model을 이용하여 도로와 차량을 구분하고, 구분된 차량의 상태를 추적하여 사고 발생 여부를 판단하는 영상 기반의 사고검지 시스템 및 방법을 제공함에 있다.Another object of the present invention is to provide an image-based accident detection system and method for determining whether an accident occurs by distinguishing a road from a vehicle using a Gaussian Background Mixture Model and tracking the state of the separated vehicle.

또한, 본 발명의 또 다른 목적은 도로에서 발생하는 차량의 사고 검지뿐 아니라, 사고 분석, 및 도로에서 발생하는 다양한 교통 정보를 수집하는 영상 기반의 사고검지 시스템 및 방법을 제공함에 있다.In addition, another object of the present invention is to provide an accident detection system and method based on the image to collect the various traffic information generated on the road, as well as the accident detection of the vehicle occurring on the road.

상기한 목적은, 카메라에 의해 획득한 교통 영상에 대해 가우시안 혼합모델(gaussian mixture model)을 적용하여 도로에 대한 영상을 기준영상으로 획득하며, 상기 기준 영상에서 정체 상태의 차량을 검지하는 예비 검지부, 및 상기 차량의 주변 교통정보를 참조하여 상기 차량에 대한 사고 발생 여부를 2차 판단하는 확정 검지부에 의해 달성된다.The above object is, by applying a Gaussian mixture model (Gaussian mixture model) to the traffic image obtained by the camera to obtain an image of the road as a reference image, the preliminary detection unit for detecting a vehicle in a stagnant state in the reference image, And a definite detection unit configured to second determine whether an accident has occurred in the vehicle with reference to the traffic information around the vehicle.

상기한 목적은, 카메라에 의해 획득한 교통 영상에 대해 가우시안 혼합모델(gaussian mixture model)을 적용하여 도로에 대한 기준영상을 획득하는 단계, 상기 기준 영상을 구성하는 프레임들 중 미리 설정된 시간 간격을 만족하는 프레임들을 참조하여 상기 기준 영상에서 정체 상태의 차량을 검지하는 단계, 상기 검지된 차량의 주변 교통 정보를 참조하여 상기 차량에 대한 사고 발생 여부를 최종 판단하는 단계에 의해 달성된다.The above object is obtained by applying a Gaussian mixture model to a traffic image obtained by a camera to obtain a reference image of a road, and satisfies a preset time interval among frames constituting the reference image. And detecting the vehicle in the stationary state from the reference image with reference to the frames, and finally determining whether an accident has occurred in the vehicle by referring to the surrounding traffic information of the detected vehicle.

본 발명에 따른 사고검지 시스템, 및 방법은 사고로 인한 정지차량이 존재할 때, 이에 대한 영상을 통해 가우시안 혼합모델을 적용하여 예비검지를 수행하고, 이후 개별 차량에 대한 속도와 궤적 변화를 참조하여 사고 확정을 판정함으로써 정확하고 신속한 사고 검지가 가능하다.The accident detection system and method according to the present invention perform a preliminary detection by applying a Gaussian mixture model through the image when a stationary vehicle due to an accident exists, and then refer to the speed and trajectory change of the individual vehicle, By determining the confirmation, accurate and quick accident detection is possible.

도 1은 본 발명의 일 실시예에 따른 영상기반 사고검지 시스템의 시스템 개념도를 도시한다.
도 2는 교통 영상의 픽셀값 분포의 일 예에 대한 참조도면을 도시한다.
도 3은 교통 영상을 구성하는 프레임들 중 기준 영상에 대한 프레임(B0 ~ Bn)이 배열된 것을 나타낸다.
도 4는 10초 간격으로 기준 영상을 버퍼링 후, 1분 전 영상과 비교하여 사고지점을 검지하는 플로우를 나타낸다.
도 5는 사고 차량이 도로에 정체된 상태의 차량 괘적을 도시한다.
도 6은 사고 차량을 회피하여 진행하고자 하는 후속 차량들의 괘적을 도시한다.
도 7은 속도 판단부에 의해 사고 발생 여부를 판단하는 방법에 대한 참조도면을 도시한다.
도 8은 사고 발생 지점의 차량의 이동 궤적을 참조하여 사고 발생 여부를 판단하는 방법에 대한 참조도면을 도시한다.
도 9는 속도변화량과 개별차량 궤적에 의한 사고 판단방법의 일 예에 대한 흐름도를 도시한다.
도 10과 도 11은 사고 모의시험 영상을 이용하여 영상 기반의 사고검지 방법에 대한 실험 결과를 도시한다.
1 is a system conceptual diagram of an image-based accident detection system according to an embodiment of the present invention.
2 is a reference diagram for an example of a pixel value distribution of a traffic image.
3 illustrates that frames B0 to Bn of reference frames are arranged among the frames constituting the traffic image.
4 shows a flow of detecting an accident point after buffering a reference image at 10-second intervals and comparing the image with the image one minute ago.
Fig. 5 shows a vehicle route in a state where the accident vehicle is stuck on the road.
Fig. 6 shows the trajectories of subsequent vehicles trying to proceed by avoiding an accident vehicle.
7 is a reference diagram for a method of determining whether an accident occurs by the speed determining unit.
8 is a reference diagram for a method of determining whether an accident has occurred by referring to a movement trajectory of a vehicle at an accident occurrence point.
9 is a flowchart illustrating an example of an accident determination method based on a speed change amount and an individual vehicle trajectory.
10 and 11 illustrate experimental results of an image-based accident detection method using an accident simulation image.

본 발명에 따른 영상기반 사고검지 시스템 및 방법은 도로를 주행중인 차량이 사고를 유발할 때, 도로에 대한 기준영상을 참조하여 정체된 차량을 사고 차량으로 1차 판정하며,In the image-based accident detection system and method according to the present invention, when a vehicle driving on a road causes an accident, the vehicle is first determined as an accident vehicle by referring to a reference image of the road.

정체된 차량에 의해 유발되는 교통정보를 참조하여 사고 발생 여부를 확정 판정함으로써 종래의 사고 감지 방법이나 시스템에 비해 정확한 사고 판정을 수행한다. 이때, 도로와 차량을 구분하기 위해, 도로에 대한 기준영상이 요구되며, 도로에 대한 기준영상은 가우시안 혼합모델(gaussian mixture model)을 교통 영상에 적용하여 획득할 수 있다. By accurately determining whether an accident has occurred with reference to the traffic information caused by the congested vehicle, an accurate accident determination is performed as compared with a conventional accident detection method or system. At this time, in order to distinguish the road from the vehicle, a reference image of the road is required, and the reference image of the road may be obtained by applying a Gaussian mixture model to the traffic image.

도 1은 본 발명의 일 실시예에 따른 영상기반 사고검지 시스템의 시스템 개념도를 도시한다.1 is a system conceptual diagram of an image-based accident detection system according to an embodiment of the present invention.

도 1을 참조하면, 영상기반 사고검지 시스템은, 도로에 가설되는 복수의 카메라(10a ~ 10n)를 통해 교통 영상을 획득하는 예비 검지부(110), 및 확정 검지부(120)를 구비한다.Referring to FIG. 1, the image-based accident detection system includes a preliminary detection unit 110 and a definite detection unit 120 that acquire a traffic image through a plurality of cameras 10a to 10n installed on a road.

예비 검지부(110)는 교통 영상에서 도로와 차량에 대한 영상을 구분하며, 도로에 대한 영상을 기준영상으로 설정하고, 기준 영상에서 이동하는 차량의 상태를 참조하여 차량에 대한 사고 발생 여부를 1차 판단한다. 이를 위해, 예비 검지부(110)는 카메라(10a ~ 10n)를 통해 획득한 교통 영상을 구성하는 복수의 프레임들 중 일정한 시간 간격(예컨대 30초 ~ 5분)을 만족하는 프레임들의 픽셀 값(예컨대 명암, 색상, 및 휘도 중 어느 적어도 하나에 대한 디지털 값)을 비교하여 차량에 대한 영상을 제외한 기준영상을 획득한다. 이때, 예비 검지부(110)는 비교 대상의 두 프레임을 구성하는 영상의 픽셀값이 가우시안 분포를 가진다는 가정하에, 가우시안 분포를 만족하는 프레임에 대한 표준편차를 구하고, 구해진 표준 편차가 미리 설정한 표준 편차(예컨대 2.5) 내의 값을 가질 때, 해당 프레임을 기준영상으로 추정할 수 있다.The preliminary detection unit 110 distinguishes the image of the road and the vehicle from the traffic image, sets the image of the road as the reference image, and refers to the state of the moving vehicle in the reference image to determine whether an accident has occurred in the vehicle. To judge. To this end, the preliminary detection unit 110 performs pixel values (eg, contrast) of frames satisfying a predetermined time interval (for example, 30 seconds to 5 minutes) among a plurality of frames constituting the traffic image acquired through the cameras 10a to 10n. , Digital values for at least one of color and luminance) are compared to obtain a reference image excluding an image of the vehicle. At this time, the preliminary detection unit 110 obtains a standard deviation for a frame that satisfies the Gaussian distribution under the assumption that the pixel values of the images constituting the two frames to be compared have a Gaussian distribution. When having a value within the deviation (eg 2.5), the frame can be estimated as the reference image.

바람직하게는, 예비 검지부(110)는 오브젝트 추출부(111), 및 예비 판단부(112)를 구비한다.Preferably, the preliminary detection unit 110 includes an object extraction unit 111 and a preliminary determination unit 112.

오브젝트 추출부(111)는 교통 영상을 구성하는 각 프레임에서 도로에 대한 기준이 되는 기준영상을 추출하고, 추출된 기준영상을 토대로 도로에서 이동하는 차량에 대한 영상을 판단한다. The object extracting unit 111 extracts a reference image which is a reference for the road from each frame constituting the traffic image, and determines an image of the vehicle moving on the road based on the extracted reference image.

예비 판단부(112)는 교통 영상에서 도로와 차량에 대해 구분된 영상을 이용하여 차량의 상태, 즉, 일정 시간(예컨대 3분) 이상 멈추거나, 해당 차량의 주변에서 유의미한 횟수의 차선 변경이 발생할 때, 해당 차량을 사고 차량으로 예비 판정한다. 예비 판단부(112)는 카메라(10a ~ 10n)를 통해 획득한 교통 영상을 이용하여 사고 차량을 판정하며, 교통량, 도로 점유율과 같은 교통정보를 이용하여 사고 판정을 수행하지 않는다. 교통 정보를 이용한 2차 사고 판정은 확정 검지부(120)에서 수행된다.The preliminary determination unit 112 stops the vehicle state, that is, stops for a predetermined time (for example, three minutes) or a significant number of lane changes in the vicinity of the vehicle, by using the divided image of the road and the vehicle in the traffic image. At that time, the vehicle is preliminarily determined to be an accident vehicle. The preliminary determination unit 112 determines the accident vehicle using the traffic images acquired through the cameras 10a to 10n and does not perform the accident determination using traffic information such as traffic volume and road occupancy. The secondary accident determination using the traffic information is performed by the determination detecting unit 120.

예비 검지부(111)에서 도로와 차량을 구분하는 방법을 수학식을 함께 참조하여 상세히 설명하도록 한다.The method of distinguishing the road from the vehicle in the preliminary detection unit 111 will be described in detail with reference to the equation.

영상 감지 방식을 크게 두 가지 방식으로 나눈다면, 트립와이어(Tripwire) 방식과 트래킹(Tracking) 방식으로 나눌 수 있는 데, 본 발명에서는 개별차량을 추적하는 트래킹 방식을 기반으로 한다. 트립와이어(Tripwire) 방식은 감지 영역이 짧기 때문에 루프 검지기 사이의 밀도추정(density estimation)을 하여 사고 감지를 하는 방법으로 상대적으로 정확도가 떨어지게 되는 반면, 트래킹 방식은 감지영역의 길이가 길어 밀도 추정방식이 아닌 감지영역 내에서 직접 사고감지가 가능하다는 장점이 있다. If the image detection method is largely divided into two methods, it can be divided into a tripwire method and a tracking method. The present invention is based on a tracking method for tracking individual vehicles. Since the tripwire method has a short sensing area, it is relatively accurate in detecting accidents by performing density estimation between loop detectors, while the tracking method has a long sensing area, which is a density estimation method. The advantage is that accident detection is possible directly in the detection area.

예비 검지부(111)가 교통 영상을 구성하는 프레임(frame)의 시퀀스에서 이동물체(차량)를 추출하기 위해서는 배경(도로)과 이동물체(차량)을 구분하는 것이 선결과제가 된다.In order for the preliminary detection unit 111 to extract the moving object (vehicle) from the sequence of frames constituting the traffic image, it is a priority to distinguish the background (road) and the moving object (vehicle).

이를 위해, 본 발명의 예비 검지부(111)는 배경 영상의 차이, 즉 도로에 대한 기준 영상에서 발생하는 차이점을 이용한다. 도로에 대한 영상의 픽셀 값이 급격히 변화할 때, 도로에 대한 영상이 움직일 때, 또는 해당 영상에 위치하는 이동물체(차량)가 정지해 있을 때는, 도로에 대한 정확한 기준영상을 생성하기 어렵다.To this end, the preliminary detection unit 111 of the present invention uses a difference of the background image, that is, a difference occurring in the reference image of the road. When the pixel value of the image on the road changes rapidly, when the image on the road moves, or when a moving object (vehicle) located in the image is stationary, it is difficult to generate an accurate reference image of the road.

예컨대, 구름이 지나가는 경우(sudden illumination change cases), 나무 가지가 흔들릴 때, 또는 파도 물결이 일 때(motion change cases), 차량이 주차하고 있는 경우 도로에 대한 기준영상을 얻기 힘들고, 기준영상이 정확하지 않을 때, 도로에서 움직이는 이동물체(차량)을 추출하기 어렵게 된다. For example, when clouds are passing (sudden illumination change cases), when tree branches shake, or when there are wave changes (motion change cases), when the vehicle is parked, it is difficult to obtain a reference image of the road, and the reference image is accurate. If not, it becomes difficult to extract moving objects (vehicles) moving on the road.

이 문제에 대한 해결책으로서, 예비 검지부(111)는 가우시안 혼합모델(Gaussian Mixture Model: GMM)을 이용하여 정확한 기준영상을 획득한다.As a solution to this problem, the preliminary detection unit 111 acquires an accurate reference image using a Gaussian Mixture Model (GMM).

가우시안 혼합모델은 교통 영상을 구성하는 각 프레임의 시퀀스에서, 각 프레임의 픽셀 값은 이전 프레임들의 픽셀 값 분포와 일정한 평균값, 및 표준편차를 갖는 가우시안 분포를 이용하는 것으로, 교통 영상을 구성하는 각 프레임의 시퀀스에 따라 픽셀값의 상태가 다양하게 변화하지만 전체 평균이나 표준편차는 일정함을 이용하는 것이다.In the Gaussian mixture model, in the sequence of each frame constituting the traffic image, the pixel value of each frame uses a Gaussian distribution having a constant mean value and standard deviation of the pixel values of the previous frames. The state of pixel values varies according to the sequence, but the overall mean or standard deviation is a constant.

따라서, 교통 영상을 구성하는 각 프레임들 중 평균값(도로에 따라 상이하다)과 표준편차를 만족하는 프레임은 도로에 대한 기준영상으로 선택될 수 있고, 나머지는 이동 물체를 포함하는 영상으로 간주될 수 있다.Therefore, among the frames constituting the traffic image, a frame satisfying an average value (different depending on the road) and a standard deviation may be selected as a reference image for the road, and the rest may be regarded as an image including a moving object. have.

교통 영상의 프레임 시퀀스는 각 프레임의 픽셀 값에 따라 다양하게 변화하는데, 각 프레임의 상태를

Figure 112010030209605-pat00001
로 정의한다.The frame sequence of traffic video varies according to the pixel value of each frame.
Figure 112010030209605-pat00001
.

본 명세서에서 픽셀 값(x)은 명암, 색상, 휘도와 같은 영상 값에 대해 정의될 수 있다. 픽셀 값(x)은 영상 프레임 시퀀스에 따라 변하게 되는 데, 이를 pixel process라고 정의한다. 이 pixel process는 일정한 분포를 가지는 데, 이를 확률밀도함수

Figure 112010030209605-pat00002
라고 정의하고, 확률밀도함수가 아래의 수학식 1의 가우시안 분포를 따른다고 가정한다. In the present specification, the pixel value x may be defined for an image value such as contrast, color, and luminance. The pixel value x changes according to the image frame sequence, which is defined as a pixel process. This pixel process has a constant distribution, which is a probability density function
Figure 112010030209605-pat00002
It is assumed that the probability density function follows the Gaussian distribution of Equation 1 below.

Figure 112010030209605-pat00003
Figure 112010030209605-pat00003

여기서

Figure 112010030209605-pat00004
는 각각 k 상태 분포에서 평균과 분산을 의미한다.here
Figure 112010030209605-pat00004
Are mean and variance in k state distribution, respectively.

이때 상태의 사전확률(prior probability)을

Figure 112010030209605-pat00005
고 했을 때,
Figure 112010030209605-pat00006
이 되며, 영상에 적용하여 픽셀 값의 분포 예는 도 2 와 같다.At this time, the prior probability of the state
Figure 112010030209605-pat00005
When you say
Figure 112010030209605-pat00006
2 is an example of distribution of pixel values applied to an image.

도 2에서 각 k 상태가 서로 독립적이라고 했을 때 X는 수학식 2의 sum-of-Gaussian mixture model이 된다.When k states in FIG. 2 are independent of each other, X becomes a sum-of-Gaussian mixture model of Equation 2.

Figure 112010030209605-pat00007
Figure 112010030209605-pat00007

여기서,

Figure 112010030209605-pat00008
이고, 모든 파라미터
Figure 112010030209605-pat00009
는 픽셀값 x로부터 추정(estimation)이 가능하다.here,
Figure 112010030209605-pat00008
, All parameters
Figure 112010030209605-pat00009
Can be estimated from the pixel value x.

만약 pixel process가 안정적으로 변하는 경우(stationary process), EM알고리즘(Expectation Maximum algorithm)으로 최대우도함수(maximum likelihood function)를 구할 수가 있다. Stauffer와 Grimson는 K-means 근사값(approximation)으로 파라미터를 추정하였다. If the pixel process is stable (stationary process), the maximum likelihood function can be found using the Expectation Maximum algorithm. Stauffer and Grimson estimated parameters by K-means approximation.

우선 현재상태를 추정(estimating current state)하기 위한 사후확률(posterior probability)은 수학식 3과 같다.First, the posterior probability for estimating the current state is expressed by Equation 3.

Figure 112010030209605-pat00010
Figure 112010030209605-pat00010

여기서, here,

Figure 112010030209605-pat00011
이고,
Figure 112010030209605-pat00011
ego,

Figure 112010030209605-pat00012
가 최대가 되는 k(이를 Stauffer와 Grimson는 match라 하였음)를 MAP(maximum a posterior)라고 하였고, 이것을 현재상태로 결정한다.
Figure 112010030209605-pat00012
The maximum k is called Stauffer and Grimson's match, and is called MAP (maximum a posterior).

새로운 영상

Figure 112010030209605-pat00013
은 현재까지의 k 가우시안 분포에서 match가 될 때까지(일반적으로 match는 가우시안분포의 표준편차가 2.5이내일 경우로 정의한다) 조정을 해주는 데, 우선
Figure 112010030209605-pat00014
는 수학식 4의 방법으로 학습시킨다.New video
Figure 112010030209605-pat00013
Is adjusted until k is matched in the current Gaussian distribution (usually match is defined as the standard deviation of the Gaussian distribution is within 2.5).
Figure 112010030209605-pat00014
Learn by the method of equation (4).

Figure 112010030209605-pat00015
Figure 112010030209605-pat00015

여기서,

Figure 112010030209605-pat00016
는 학습률(learning rate),
Figure 112010030209605-pat00017
는 match일 경우 1, 아닐 경우 0이 된다.here,
Figure 112010030209605-pat00016
Is the learning rate,
Figure 112010030209605-pat00017
Is 1 if match, 0 otherwise.

또한 새로운 영상이 입력될 때

Figure 112010030209605-pat00018
,
Figure 112010030209605-pat00019
는 수학식 5와 수학식 6에 의하여 갱신된다.Also when a new video is input
Figure 112010030209605-pat00018
,
Figure 112010030209605-pat00019
Is updated by equations (5) and (6).

Figure 112010030209605-pat00020
Figure 112010030209605-pat00020

Figure 112010030209605-pat00021
Figure 112010030209605-pat00021

여기서,

Figure 112010030209605-pat00022
here,
Figure 112010030209605-pat00022

위 방법을 이용하여 최종적으로 배경 영상을 기준영상으로서 추정(background model estimation)하는 방법은 다음과 같다. 수학식 2의 분포에는 이동물체(차량)와 배경(도로)이 같이 존재하며, 배경(background)과 전경(foreground)을 구분하기 위하여

Figure 112010030209605-pat00023
, 또는
Figure 112010030209605-pat00024
을 계산하여 K별 랭킹(ranking)을 계산한 다음 큰 값을 배경영상으로 간주하면 된다. 즉,
Figure 112010030209605-pat00025
가 큰 값이나
Figure 112010030209605-pat00026
작은 값을 가질 때 배경 영상(기준 영상)일 확률이 높다고 보고, 수학식 7과 같이
Figure 112010030209605-pat00027
의 누적으로 전체 사전확률 T와 비교하여 클 때 이를 배경(기준 영상)으로 판단한다. A method of finally estimating a background image as a reference image using the above method is as follows. In the distribution of Equation 2, a moving object (vehicle) and a background (road) exist together, and in order to distinguish a background and a foreground,
Figure 112010030209605-pat00023
, or
Figure 112010030209605-pat00024
Calculate the K-by-K ranking and then consider the large value as the background image. In other words,
Figure 112010030209605-pat00025
Is a large value or
Figure 112010030209605-pat00026
When it has a small value, it is considered that the background image (reference image) is likely to be high.
Figure 112010030209605-pat00027
When it is larger than the total prior probability T due to the accumulation of, it is determined as a background (reference image).

Figure 112010030209605-pat00028
Figure 112010030209605-pat00028

여기서, T는 전체 사전확률(overall prior probability)은

Figure 112010030209605-pat00029
이다.Where T is the overall prior probability
Figure 112010030209605-pat00029
to be.

도 2는 가우시안 혼합모델을 이용하여 기준 영상을 추정하는 과정에 대한 참조도면을 나타낸다. 도 2를 함께 참조하면, 배경(도로)에 대한 영상(기준 영상)을 이용하여 사고에 대한 예비 판단을 수행할 때, 경미한 사고, 또는 대형사고 모두 사고가 발생한 지점에는 사고 차량이 서있게 되어, 가우시안 혼합모델을 이용하면 사고 차량 역시 배경에 대한 기준 영상에 포함되어 저장된다. 2 is a reference diagram for a process of estimating a reference image using a Gaussian mixture model. Referring to FIG. 2, when a preliminary judgment on an accident is performed using an image (reference image) of a background (road), an accident vehicle stands at a point where an accident occurs in both a minor accident or a large accident. Using the mixed model, the accident vehicle is also included in the reference image of the background and stored.

본 발명에서 예비 검지부(111)는 기준영상 (X, Y)만의 시퀀스를 n초 간격으로 만들어 버퍼에 저장한 다음, 일정시간 간의 차이를 구해 임계값이 넘는 영역에 대해 사고차량이라고 검지할 수가 있다.In the present invention, the preliminary detection unit 111 may make a sequence of only the reference image (X, Y) at intervals of n seconds and store it in the buffer, and then obtain a difference between predetermined time periods and detect the accident vehicle in a region exceeding a threshold value. .

일정 시간의 차이를 두는 이유는, 차량에 사고가 발생할 경우, 사고 차량이 하나의 배경처럼 되어, 기준 영상속에 포함되어 버림으로서 발생하는 사고 검지 오류를 차단하기 위한 것이다. 이는 도 3을 함께 참조하여 설명하도록 한다.The reason for a certain time difference is that when an accident occurs in a vehicle, the accident vehicle becomes a background, and is intended to block an accident detection error caused by being included in a reference image. This will be described with reference to FIG. 3 together.

도 3은 교통 영상을 구성하는 프레임들 중 기준 영상에 대한 프레임(B0 ~ Bn)이 배열된 것을 나타낸다. 이들 기준 영상에 대한 프레임은 버퍼링되고, 그중 BO과 B6와 같이 일정한 시간 간격을 만족하는 프레임이 선택되어 차량에 대한 사고 발생 여부를 판단하는데 이용될 수 있다. 시간 간격은 아래의 수학식 8에 따라 n =100일 때, 기준 영상에 대한 간격이 10초라고 가정하면, 대략 1분의 시간 간격을 전후로 하여 차량에 대한 사고 발생 여부를 감지할 수 있다. 3 illustrates that frames B0 to Bn of reference frames are arranged among the frames constituting the traffic image. Frames for these reference images are buffered, and frames satisfying a predetermined time interval, such as BO and B6, are selected and used to determine whether an accident has occurred in the vehicle. When the time interval is n = 100 according to Equation 8 below, assuming that the interval with respect to the reference image is 10 seconds, it is possible to detect whether or not an accident occurs in the vehicle around the time interval of approximately 1 minute.

Figure 112010030209605-pat00030
Figure 112010030209605-pat00030

여기서,

Figure 112010030209605-pat00031
here,
Figure 112010030209605-pat00031

Figure 112010030209605-pat00032
Figure 112010030209605-pat00032

여기서, n = 100초라고 설정하면, 배경영상은 10초 단위로 버퍼링된다.Here, if n = 100 seconds, the background image is buffered in units of 10 seconds.

사고발생 이후 일정시간이 지나면 이동차량을 제외한 사고차량으로 포함하여 정차차량 모두가 기준 영상에 포함되며, 최초의 기준 영상

Figure 112010030209605-pat00033
으로부터 사고차량이 포함된 기준 영상
Figure 112010030209605-pat00034
까지 버퍼에 저장이 되고,
Figure 112010030209605-pat00035
을 계산하면 사고차량의 전경이 추출되어 사고 지점 및 사고차량을 검지할 수 있다.After a certain period of time after the accident, all the stopped vehicles are included in the reference video, including the accident vehicle except for the moving vehicle.
Figure 112010030209605-pat00033
Video with accident vehicle from
Figure 112010030209605-pat00034
Is stored in the buffer until
Figure 112010030209605-pat00035
By calculating, the foreground of the accident vehicle is extracted and the accident point and the accident vehicle can be detected.

도 4는 10초 간격으로 기준 영상을 버퍼링 후, 1분 전 영상과 비교하여 사고지점을 검지하는 플로우를 나타내고 있다. 즉,

Figure 112010030209605-pat00036
를 기준으로 10초 후 , 20초 후
Figure 112010030209605-pat00037
로 기준 영상을 버퍼링한 시퀀스는
Figure 112010030209605-pat00038
로 표시할 수 있으며, 여기서
Figure 112010030209605-pat00039
연산을 하면, 사고로 인한 정차 차량을 추출할 수 있다. 4 shows a flow of detecting an accident point after buffering a reference image at 10 second intervals and comparing the image with the image one minute ago. In other words,
Figure 112010030209605-pat00036
After 10 seconds, after 20 seconds
Figure 112010030209605-pat00037
The sequence that buffered the reference image with
Figure 112010030209605-pat00038
, Where
Figure 112010030209605-pat00039
The operation can extract the vehicle stopped by the accident.

단, 여기서, 극심한 정체인 경우도 차량의 이동이 없어 사고 경우와 같이 판단이 되는 데, 이는 확정 검지부(120)에서 판단하게 된다.However, even in the case of extreme congestion, since there is no movement of the vehicle, it is determined as in the case of an accident, which is determined by the determination detecting unit 120.

확정 검지부(120)는 예비 검지부(110)에서 사고가 발생하였다고 판단될 때, 사고가 감지된 영역, 및 사고가 감지된 영역의 전후 영역의 교통정보를 참조하여 사고 발생 여부를 최종 판단한다. 확정 검지부(120)는 사고가 발생한 것으로 예상되는 영역의 교통 흐름변화, 도로 점유율 변화, 차선 변경량등을 종합하여 사고가 발생할 때의 특징들이 존재하는가를 판단하여 최종적으로 사고 발생 여부를 결정한다. 바람직하게는, 확정 검지부(120)는 속도 판단부(121), 점유율 판단부(122), 및 차로 판단부(123)을 구비한다.When the determination detector 120 determines that an accident has occurred in the preliminary detection unit 110, the determination detector 120 finally determines whether the accident has occurred by referring to traffic information of the area where the accident is detected and the area before and after the area where the accident is detected. The final detection unit 120 determines whether an accident occurs by determining whether there are any characteristics when an accident occurs by combining traffic flow change, road occupancy change, lane change amount, and the like in an area where the accident is expected to occur. Preferably, the determination detecting unit 120 includes a speed determining unit 121, a occupancy determining unit 122, and a lane determining unit 123.

속도 판단부(121)는 도로에서 사고가 발생 시, 차량이 진행하는 방향을 기준으로 사고 발생 지점의 전방은 차량 속도가 증가하고, 후방은 차량 속도가 감소하는 특징을 갖는다. 이는 사고 발생 지점의 전방은 사고에 의한 영향을 받지 않기 때문이고, 후방은 사고에 의해 직접적으로 운행에 지장을 받는데 기인한다. When the accident occurs on the road, the speed determiner 121 has a characteristic that the vehicle speed increases in front of the accident occurrence point and the vehicle speed decreases in the rear, based on the direction in which the vehicle proceeds. This is because the front of the accident occurrence point is not affected by the accident, and the rear is directly affected by the accident.

속도 판단부(121)는 예비 검지부(110)에 의해 사고 발생이 예측된 지점에서 차량의 진행 방향을 기준으로 전방과 후방에 대한 차량들의 평균 속도를 비교하여 사고가 발생하였는가를 판단한다.The speed determining unit 121 determines whether an accident has occurred by comparing the average speeds of the vehicles with respect to the front and the rear of the vehicle at the point where the occurrence of the accident is predicted by the preliminary detection unit 110 based on the traveling direction of the vehicle.

점유율 판단부(122)는 예비 검지부(110)에 의해 사고 발생이 예측된 지점에서 차량의 진행 방향을 기준으로 전방과 후방에 대한 차량들의 도로 점유율을 판단한다. 통상 도로에서 사고가 발생하면, 사고 지점의 후방은 차량이 적체되어 도로를 점유하게 되나, 전방의 경우, 후속하는 차량이 없으므로 도로 점유율은 하락하게 된다. 점유율 판단부(122)는 예비 검지부(110)에서 사고 발생이 예측된 지점의 전방, 및 후방의 도로 점유율을 비교하여 사고의 발생 여부를 판단한다.The occupancy determining unit 122 determines a road occupancy rate of the vehicle for the front and the rear of the vehicle based on the traveling direction of the vehicle at the point where the occurrence of the accident is predicted by the preliminary detection unit 110. In general, when an accident occurs on the road, the rear of the accident spot occupies the road due to the vehicle being accumulated, but in the front, the road occupancy decreases because there is no subsequent vehicle. The occupancy determining unit 122 determines whether an accident occurs by comparing the occupancy rates of the roads in front of and behind the point where the accident occurrence is predicted by the preliminary detection unit 110.

차로 판단부(123)은 예비 검지부(110)에 의해 사고 발생이 예측된 지점에서 차량의 차선 변경의 횟수가 어느정도 증가하는가를 기준으로 사고 발생 여부를 판단한다. 여러 차선으로 이루어진 도로에서는 사고가 발생한 차량을 피해 주행하려는 속성이 있으므로 사고가 발생하였다면, 사고 발생 지역에서는 다량의 차선 변경이 발생하며, 특정 차선을 회피하는 차선 변경이 발생하게 된다. The lane determination unit 123 determines whether an accident has occurred based on the increase in the number of lane changes of the vehicle at the point where the accident occurrence is predicted by the preliminary detection unit 110. On the road consisting of multiple lanes, there is an attribute of driving to avoid a vehicle having an accident, so if an accident occurs, a large number of lane changes occur in an accident occurrence area, and a lane change that avoids a specific lane occurs.

차로 판단부(123)는 예비 검지부(110)에서 사고 발생이 예측된 지점을 기준으로 전방과 후방에서 발생하는 차로 변경을 추적하며, 사고 발생이 예측된 지점의 차선 변경량과 비교하여 최종적으로 사고 발생 여부를 판단할 수 있다. 사고 차량의 주변에서 차로 변경이 발생하는 방식은 도 5와 도 6을 함께 참조하여 설명하도록한다.The lane determination unit 123 tracks lane changes occurring in the front and rear directions based on the point where the accident occurrence is predicted by the preliminary detection unit 110, and finally compares the lane change amount at the point where the accident occurrence is predicted. The occurrence can be determined. The way in which the lane change occurs in the vicinity of the accident vehicle will be described with reference to FIGS. 5 and 6 together.

도 5는 사고 차량이 도로에 정체된 상태의 차량 괘적을 도시한다. 차량의 정체에 의해 도로 괘적은 더 이상 발생하지 않고 정지된다.Fig. 5 shows a vehicle route in a state where the accident vehicle is stuck on the road. Due to the congestion of the vehicle, road signs no longer occur and stop.

도 6은 사고 차량을 회피하여 진행하고자 하는 후속 차량들의 괘적을 도시한다. 도 6에 도시된 바와 같이, 사고 차량을 뒤따르던 후속 차량들은 사고 차량이 주행하던 차로와 다른 차로를 이용하기 위해 차로 변경을 수행하게 되어 차로 변경의 괘적이 다수 발생하게 된다. Fig. 6 shows the trajectories of subsequent vehicles trying to proceed by avoiding an accident vehicle. As shown in FIG. 6, subsequent vehicles following the accident vehicle perform a lane change to use a lane different from the lane in which the accident vehicle travels, resulting in a large number of routes of the lane change.

한편, 속도 판단부(121), 점유율 판단부(12), 및 차로 판단부(123)는 사고가 발생하였을 경우, 모두 도로에서 사고가 발생하였다는 판단 결과를 출력하게 된다. 그러나, 셋 중 하나가 동일한 결과를 출력하지 않을 경우, 확정 검지부(120)는 속도 판단부(121), 점유율 판단부(12), 및 차로 판단부(123) 중 둘 이상의 결과가 동일할 때, 그 결과를 따르거나, 또는 속도 판단부(121), 점유율 판단부(12), 및 차로 판단부(123) 각각에 대한 가중치를 달리 부여한 뒤, 가중치의 합을 미리 정한 기준치와 비교하여 사고 발생 여부를 판정할 수도 있다.
On the other hand, the speed determination unit 121, the occupancy determination unit 12, and the lane determination unit 123 outputs the determination result that all the accident occurred on the road when an accident occurred. However, when one of the three does not output the same result, the determination detector 120 when the two or more results of the speed determination unit 121, occupancy determination unit 12, and lane determination unit 123 is the same, According to the result or by assigning weights to each of the speed determining unit 121, the occupancy determining unit 12, and the lane determining unit 123 differently, the sum of the weights is compared with a predetermined reference value to determine whether an accident occurs. May be determined.

한편, AID 시스템이 갖춰야할 항목으로 검지율(Detection probability)이 높아야 함과 동시에(must be high), 오 검지율(False alarm probability) 역시 낮춰야(must be low) 한다. 즉, 사고가 아닌 경우를 사고로 판단하여 경고를 자주 하게 되면(wrong call) AID 시스템의 신뢰도가 떨어져, 사고검지의 효율성이 떨어지게 된다.On the other hand, the AID system needs to have a high detection rate (Detection probability) and at the same time a false alarm probability must be low. In other words, if it is determined that the accident is not an accident and frequently warns (wrong call), the reliability of the AID system is lowered and the efficiency of accident detection is reduced.

Reijmers는 사고를 판단하는 기준으로 다음의 방법을 제시한 바 있다.Reijmers suggested the following as a criterion for judging an accident.

(1) 검지기 사이의 점유율 변화량(measurement of the changes in detector occupancy) (1) Measurement of the changes in detector occupancy

(2) headway시간 분석(analysis of time headway)(2) analysis of time headway

(3) 속도 변화량 분석(analysis of the changes in velocity)(3) analysis of the changes in velocity

(4) 평균통행시간(measuring the average travel time)(4) measuring the average travel time

본 발명에 따른 영상 기반 사고검지 시스템은 가우시안 혼합모델을 적용하여 산출한 기준 영상을 이용하여 사고 발생 여부에 대한 1차적인 예비판단이 되면, 사고가 정체에 의한 것인지 사고에 의한 것인지를 Reijmers가 제시한 교통량, 속도변화량, 점유율 변화량의 교통정보를 참조하여 추가적인 판단을 수행할 수도 있다. 또한 본 발명의 영상 기반 사고검지 시스템, 및 방법은 검지영역 내에서 개별차량 트래킹 기반으로 처리하므로 개별차량의 이동궤적이 정상 또는 비정상인 경우를 고려하여 사고검지를 수행할 수 있다.
When the image-based accident detection system according to the present invention becomes a primary preliminary judgment on whether an accident occurs by using a reference image calculated by applying a Gaussian mixture model, Reijmers suggests whether the accident is due to congestion or accident. Further determination may be performed by referring to traffic information of a traffic volume, a speed change amount, and an occupancy change amount. In addition, since the image-based accident detection system and method of the present invention are processed based on individual vehicle tracking in the detection area, the accident detection can be performed in consideration of the case where the movement trajectory of the individual vehicle is normal or abnormal.

도 7은 속도 판단부(122)에 의해 사고 발생 여부를 판단하는 방법에 대한 참조도면을 도시한다. 7 is a reference view for a method of determining whether an accident has occurred by the speed determining unit 122.

도 7을 참조하면, 사고 발생 시 후속 차량의 속도 변화량은 도 4와 같이 나타난다. 예를 들어 시속 80km/h의 속도로 진행하는 차량은 3 ~ 4초 만에 10km/h 이하로 감속하며, 사고지점 이전에 옆 차로가 비어 있으면 그 즉시 차로변경을 하고, 그렇지 않을 경우 사고지점 인근에서 정차를 하게 된다. 특히 개별차량 트래킹을 할 경우 어느 특정 지점에서 속도의 감소량이 많이 나타날 수밖에 없다.Referring to FIG. 7, a speed change amount of a subsequent vehicle when an accident occurs is shown in FIG. 4. For example, a vehicle running at a speed of 80km / h decelerates to less than 10km / h in 3 to 4 seconds, and if the next lane is empty before the accident, it changes immediately, otherwise it is near the accident. You will stop at. In particular, when tracking individual vehicles, a certain amount of speed decrease is inevitable at any particular point.

개별차량의 속도 변화량을 측정하기 위해, 수학식 9에 따른 개별차량의 속도 미분값을 구하며, 이 값은 감속일 경우 수학식 9에 나타난 바와 같이 항상 음수를 갖게 된다.In order to measure the speed change of the individual vehicle, the speed differential value of the individual vehicle according to Equation 9 is obtained, and this value always has a negative number as shown in Equation 9 in the case of deceleration.

Figure 112010030209605-pat00040
Figure 112010030209605-pat00040

Figure 112010030209605-pat00041
Figure 112010030209605-pat00041

속도 변화량도 수학식 10에 의해 그 횟수를 계산하여

Figure 112010030209605-pat00042
값이 임계값을 초과하면 사고로 인한 속도 감속이라 판단하여 사고로 간주할 수 있다.The speed change amount is also calculated by the equation (10)
Figure 112010030209605-pat00042
If the value exceeds the threshold value, it can be regarded as an accident by judging that it is a speed reduction due to an accident.

Figure 112010030209605-pat00043
Figure 112010030209605-pat00043

도 8은 사고 발생 지점의 차량의 이동 궤적을 참조하여 사고 발생 여부를 판단하는 방법에 대한 참조도면을 도시한다. 8 is a reference diagram for a method of determining whether an accident has occurred by referring to a movement trajectory of a vehicle at an accident occurrence point.

사고 발생 이후 차량의 궤적 흐름에 대한 패턴은 크게 두 가지로 나눌 수가 있다. The pattern of trajectory flow of a vehicle after an accident can be divided into two types.

첫째, 경미한 사고가 발생하는 경우로, 이때 발생하는 현상은 사고지점을 중심으로 후방의 후속 차량들이 사고지점을 피하려 차로변경을 하게 된다. 연속된 도로에서 정상소통인 상황에서는 차로변경의 횟수가 많지 않으나, 사고가 발생을 하면 그 횟수가 많아지게 된다.First, when a minor accident occurs, the phenomena that occur at this time are changed to a car to avoid the accident spot by the subsequent vehicles behind the accident spot. In normal traffic conditions on a continuous road, the number of lane changes is not high, but if an accident occurs, the number of times is increased.

반면, 도 78 정상 소통에서의 궤적과 속도의 변화량을 나타내는 참조도면으로서, 각 차량들이 자신의 차선을 대체로 유지하면서 주행방향에 따라 도로를 주행하는 것을 볼 수 있다. On the other hand, as shown in Fig. 78 is a reference diagram showing the change amount of the trajectory and the speed in the normal communication, it can be seen that each vehicle travels the road according to the driving direction while substantially maintaining its own lane.

둘째, 대형사고로 인하여 전 차로가 막힌 경우로, 이는 검지영역 내에서 궤적이 나타나지 않게 된다.Second, the tramway is blocked due to a major accident, which prevents the trajectory from appearing in the detection area.

본 발명의 차로 판단부(123)는 개별 차량의 차로변경 횟수를 측정하여 사고검지를 수행할 수 있다. The lane determination unit 123 of the present invention may perform an accident detection by measuring the number of lane changes of an individual vehicle.

차량의 궤적은 지역기반 트래킹(region based tracking) 알고리즘을 이용한다. 이는 도로에서 개별차량을 분리하고, 차량영역을 추출한 사각형의 중앙 좌표를 차량에 부여하는 ID별로 연속하여 DB에 저장한다. The vehicle's trajectory uses a region based tracking algorithm. It separates individual vehicles from the road and stores them in the DB in succession for each ID that gives the vehicle the center coordinates of the rectangle from which the vehicle area is extracted.

개별 차량의 궤적을 계산하기 위해 교통 영상을 구성하는 각 프레임별 차량의 위치(화면상의 좌표값)정보를 실제 이동거리 정보로 변환하여 각 차량의 궤적을 산출하면, 차로별로 이동한 패턴과 차선 변경 궤적에 대한 패턴이 구분되며, 하나의 차로에 사고가 발생하면, 후속 차량들이 사고 차로를 벗어나기 위하여 차로변경의 횟수가 증가하게 된다.In order to calculate the trajectory of each vehicle, the vehicle position (coordinate value on the screen) of each frame constituting the traffic image is converted into actual travel distance information, and the trajectory of each vehicle is calculated. The pattern for the trajectory is divided, and when an accident occurs in one lane, the number of lane changes is increased so that subsequent vehicles may leave the accident lane.

다시 도 7을 참조하면, 도 7은 정상 소통되는 도로에서의 차량 궤적과 차로변경의 궤적을 나타내고 있다. 도 7에서 차량의 궤적이 차로의 중앙점 평균에서 표준편차 이상 벗어나는 경우를 차로변경이라 보고, 수학식 11에 따라 그 횟수를 count한다.Referring to FIG. 7 again, FIG. 7 illustrates a vehicle trajectory and a lane change trajectory on a road in normal communication. In FIG. 7, the case where the trajectory of the vehicle deviates by more than the standard deviation from the mean of the center point of the lane is regarded as a lane change, and the number of times is counted according to Equation (11).

Figure 112010030209605-pat00044
Figure 112010030209605-pat00044

여기서, j는 차로,

Figure 112010030209605-pat00045
는 차량 ID k 차량이 차로의 x좌표, y좌표는 차량 진행 방향이므로 비교에서 제외하고, 차로변경은 x 좌표값으로 비교하여, 제외하고, 차로변경은 x 좌표값으로 비교하여, 아래의 수학식 12에 따라 차로변경의 누적 횟수를 산출한다.
Where j is the car,
Figure 112010030209605-pat00045
Since the vehicle ID k vehicle is the x coordinate of the lane and the y coordinate is the vehicle traveling direction, except for the comparison, the lane change is compared with the x coordinate value, except that the lane change is compared with the x coordinate value. The cumulative number of lane changes is calculated according to 12.

Figure 112010030209605-pat00046
Figure 112010030209605-pat00046

다음으로, 수학식 12에 따라 산출된 차선변경의 누적횟수가 기준량(

Figure 112010030209605-pat00047
) 이상이면 사고로 인한 차로변경이라 판단하여 사고로 간주할 수 있다.Next, the cumulative number of lane changes calculated according to Equation 12 is a reference amount (
Figure 112010030209605-pat00047
), It can be regarded as an accident by deciding that the lane is changed by the accident.

따라서 속도변화량과 개별차량 궤적에 의한 사고 판단방법은 도 9의 순서도에 따른다. Therefore, the accident determination method based on the speed change amount and the trajectory of the individual vehicle follows the flowchart of FIG. 9.

도 9를 참조하면, 확정 검지부(120)의 속도 판단부(121)는 사고 발생이 예상된 지점에서 각 개별 차량의 속도를 계산하고(S201), 개별 차량에 대한 속도 미분값을 산출하고(S202), 개별 차량에 대한 속도 변화량 횟수를 계수하고(S203), 차량의 속도 변화량이 기준량(

Figure 112010030209605-pat00048
)을 초과하는가를 판단한다(S204). 만일, 속도 변화량이 기준량(
Figure 112010030209605-pat00049
)을 초과하지 않을 경우, 정상 소통으로 간주되고(S205), 반대로, 속도 변화량이 기준량(
Figure 112010030209605-pat00050
)을 초과하는 경우, 이상 값으로 판단 후(S206), 수학식 11에 따라 차량의 차선 변경이 발생하는가를 계산하고(S207), 차선 변경일 경우 수학식 12에 따라 차선 변경의 누적 횟수가 기준량(
Figure 112010030209605-pat00051
)를 초과하는 가를 판단하며(S208), 판단결과 초과되는 경우 사고로 판정한다(S209).
9, the speed determining unit 121 of the determination detecting unit 120 calculates a speed of each individual vehicle at a point where an accident is expected to occur (S201), and calculates a speed differential value for the individual vehicle (S202). ), The number of speed changes for the individual vehicle is counted (S203), and the speed change amount of the vehicle is a reference amount (
Figure 112010030209605-pat00048
It is determined whether to exceed (S204). If the speed change amount
Figure 112010030209605-pat00049
If not exceeding, it is regarded as normal communication (S205), on the contrary, the speed change amount is a reference amount (
Figure 112010030209605-pat00050
Is exceeded, and after determining as an abnormal value (S206), it is calculated whether a lane change of the vehicle occurs according to Equation 11 (S207), and if the lane change, the cumulative number of lane changes according to Equation 12 is the reference amount. (
Figure 112010030209605-pat00051
) Is determined to be exceeded (S208), and if it is determined that the result is exceeded, it is determined as an accident (S209).

한편, 사고 발생 후 특징은 도 7과 같이 사고지점을 중심으로 후방은 교통량과 점유율이 높고, 전방은 교통량과 점유율이 떨어지게 된다.On the other hand, after the accident occurs, as shown in FIG. 7, the traffic volume and the occupancy of the rear is high, and the traffic volume and the occupancy of the front fall.

확정 검지부(120)에서 2차 사고검지를 루틴을 수행한 다음 검지영역을 n 개의 블록으로 나누어 각 블록별 점유율을 비교한다.After the second accident detection routine is performed in the definite detection unit 120, the detection area is divided into n blocks, and the occupancy rate of each block is compared.

블록별 교통정보는 within블록과, between 블록의 상관관계로 판단하고, 사고인 경우 within 블록의 점유율은 높거나 또는 낮은 반면, between 블록의 점유율은 크게 나타나는 것으로 판단한다. The traffic information for each block is determined by the correlation between the within block and the between block, and in case of an accident, the occupancy of the within block is high or low, while the occupancy of the between block is large.

(1) Within 블록 점유율은 검지영역을 블록으로 나누고 그 다음 수학식 13에 의해 within 블록의 점유율을 계산한다.(1) Within block occupancy divides the detection area into blocks, and then calculates the occupancy of the within block by the following equation (13).

Figure 112010030209605-pat00052
Figure 112010030209605-pat00052

여기서,

Figure 112010030209605-pat00053
는 검지영역 내 블록별 면적이고,
Figure 112010030209605-pat00054
는 블록 내 차량 ID k대 면적의 합으로 모든 블록의 점유율이 90%이상인 경우는 검지영역 전체가 점유율이 높기 때문에 정체라고 판단하고, 어느 특정 불록 이전부터 점유율이 높으면 사고로 인한 정체로 판단할 수 있다.here,
Figure 112010030209605-pat00053
Is the area of each block in the detection area,
Figure 112010030209605-pat00054
Is the sum of the area of the car IDs in the block, the occupancy rate of all blocks is over 90%, so the entire detection area is congested because of the high occupancy rate. have.

또한, Between 블록 점유율 편차는 블록간 점유율의 차이가 크면 사고 가능성이 높은 반면, 블록 간 점유율의 차이가 작으면, 정체의 가능성이 높다고 판단하는 방법으로 수학식 14에 의해 블록 간(between Block) 점유율의 차이를 산출할 수가 있다.In addition, between block occupancy deviation is a high probability of accident if the difference in occupancy between blocks is high, while if the difference in occupancy between blocks is small, the probability of congestion is high. Can be calculated.

Figure 112010030209605-pat00055
Figure 112010030209605-pat00055

Between 블록은 이전 블록과의 차이를 구하는 것으로, 블록 j의 점유율에서 블록 j-1의 점유율의 편차가 10%이내이면 정체이고, 그 이상이면 사고로 판단한다.
The Between block calculates the difference from the previous block. If the deviation of the block j-1 in the block j-1 is less than 10%, the block is congested.

상기한 영상 기반 사고검지 시스템, 및 방법에 대해 본 출원인이 테스트한 결과를 살펴보면 다음과 같다.Applicant's test results of the image-based accident detection system and method described above are as follows.

사고 알고리즘을 검증하기 위해서는 실제 사고영상 또는 시뮬레이션 데이터가 필요하다. 하지만 본 연구는 영상기반의 사고검지 알고리즘으로서 일반적인 교통시뮬레이션 프로그램으로 데이터를 얻을 수 없으며, 실제 CCTV와 같은 영상 데이터를 필요로 하게 된다.Actual accident images or simulation data are needed to verify the thinking algorithm. However, this study is an image-based accident detection algorithm, which cannot obtain data through a general traffic simulation program, and requires image data such as CCTV.

따라서 본 연구에서는 알고리즘 검증을 위해 두 가지 방법을 활용하였다. 이는, 가상의 사고 실험 시뮬레이션을 통한 방법과 좀 더 객관성을 위해 실제 연속된 도로에 설치된 CCTV 수집된 실제 사고영상을 활용하였다.Therefore, this study used two methods for algorithm verification. This method utilizes the virtual accident experiment simulation method and the actual CCTV images collected on the real continuous road for more objectivity.

가상 실험은 한국도로공사의 협조를 얻어 2009년2월20일 오전 10시30분 ~ 오후 4시까지 중부내륙고속도로 실험도로 7.7km에서 20여대의 차량을 이용하여 모의사고를 발생시켜 영상을 수집하였으며, 그 유형은 1차로 또는 2차로 내 사고로 인한 정지차량 발생 (종방향, 단독추돌, 다중추돌 등), 사고추돌현상으로 인한 1, 2차로를 내 모두 정지차량 발생(횡방향) 및 고장차량으로 인한 1차로 또는 2차로 내 정지차량 발생(또는 노견정차)과 같은 복합상황을 고려한 12가지 시나리오를 구성하였다.The virtual experiment was collected from 200,000 vehicles from 7.7km on the Chubu Inland Expressway from 10:30 am to 4 pm on February 20, 2009. , Types of stop vehicles due to accidents in the primary or secondary lanes (longitudinal, single collision, multiple collisions, etc.), stop vehicles occurring in the first and second lanes due to accident collision (lateral direction) Twelve scenarios were constructed in consideration of the complex situation such as the occurrence of stop vehicles (or road stops) in the first and second lanes.

또한, 실제 사고영상을 통한 검증에 활용된 실제 사고영상은 77번 국도(자유로)상의 장항IC CCTV에서 수집된 3건의 영상을 활용하였다.In addition, the actual accident images used for verification through the actual accident images were utilized three images collected by Janghang IC CCTV on Route 77 (freeway).

이는, 높이 15m CCTV에서 수집된 영상으로서 사고 종류는 첫째, 2009년1월 17일 18:48분에 발생한 야간 추돌사고 영상으로 급차로 변경을 하는 차량을 뒤에서 오는 차량과 추돌하는 사고로 거의 검지영역 끝에서 발생하였다. 둘째, 2010년 1월 29일 오전09:50분에 일어난 주간 추돌사고 영상 역시 3차로에서 램프로 진출하려고 급차로 변경을 하다가 4차로 오는 차량과 추돌하는 사고이며, 셋째, 2010년 2월1일 오전 09:40분경 차량이 약 4분간 정차한 경우로 이 경우는 실제 사고는 아니지만 도로 상에 무단 정차를 한 경우이므로 사고로 간주하였다.This is a video collected from a 15m high CCTV. First, the type of accident is a video of a night collision that occurred on January 17, 2009 at 18:48. Occurred at the end. Second, the weekly crash video that occurred at 09:50 am on January 29, 2010 is also a collision with a vehicle coming in the fourth lane while changing to a ramp to enter the ramp from the third lane. Third, February 1, 2010 At 09:40 am, the car stopped for about four minutes. This was not an actual accident, but was considered to be an accident because it was an unauthorized stop on the road.

중부 내륙 고속도로 부근의 실험도로상의 모의시험 결과 12가지 모의 사고는 모두 검지하여, 검지율= 12/12=100.00%, 오검지율 =00.00%, 미검지율=00.00%의 신뢰성을 가진 것으로 나타났다.Simulation results on the experimental road near the central inland highway were detected in all 12 simulation accidents, indicating that the detection rate was 12/12 = 100.00%, the false detection rate = 00.00%, and the undetection rate = 00.00%.

이와 같은 중부 내륙 고속도로 부근의 실험도로상의 사고유형별 모의시험에서 12건에서는 검지시간 25~35초로서 모든 경우에 검지가 가능하였으며, 사고모의시험 영상을 이용한 사고검지 방법에 대한 실험 결과는 아래의 도 10 및 도 11과 같다. In the simulation tests for each accident type on the experimental roads near the central inland highway, 12 cases were detected in all cases with detection time of 25 to 35 seconds, and the results of the accident detection method using the accident simulation image are shown in the following figure. 10 and FIG.

또한 자유로 장항 IC 부근 Test Bed의 실시간 동영상 사고자동검지의 경우 사고건수는 3건 중 3건 모두 검지하였으며 오검지 및 미검지는 없었다. In addition, in case of automatic detection of real-time video accidents of test bed near Changhang IC, all three cases were detected, and there were no false or undetected.

야간 사고영상의 경우 실제 사고 발생 직후(충돌 직후 정지된 시점) 부터 34초 뒤 사고검지 경보를 표출하였으며, 주간 사고의 경우 33초, 27초의 시간이 소모되었다. 특히, 2월1일 영상은 안개 낀 날씨에 수집한 영상을 통해 알고리즘을 검증하였으며, 위 세 경우의 사고검지 결과는 표 1과 같다.In the case of the night accident image, the incident detection alarm was displayed 34 seconds after the actual accident (stopped immediately after the collision), and the time of 33 seconds and 27 seconds was consumed in the daytime accident. In particular, the February 1 image was verified by the image collected in the foggy weather, the accident detection results in the three cases are shown in Table 1.

Figure 112010030209605-pat00056
Figure 112010030209605-pat00056

이에 대한 검지 결과는 도 10 같다.The detection result for this is shown in FIG. 10.

이를 통해, 표본수가 충분치는 않지만 총 15건의 실험 중 15건의 사고검지가 모두 이루어져 검지율 100.00%로 높게 나타났으며, 오검지 00.00%, 미검지 00.00%로 나타났으며, 이와 같은 실험 환경 및 3건의 실제사고 모두 가능하였으므로, 연속류 도로 조건에서의 시험결과는 신뢰성이 매우 높은 것을 알 수 있다.Through this, 15 accidents were detected in all 15 experiments, although the number of samples was not enough, resulting in a high detection rate of 100.00%, a false detection of 00.00%, and an undetected 00.00%. Since all the actual accidents were possible, the test results under continuous road conditions showed very high reliability.

본 발명은 사고로 인한 정지차량이 있고, 이를 피해 서행으로 이동하는 차량이 있다는 전제 하에 가우시안 혼합모델(Gaussian Mixture Model)로 배경영상을 일정시간 저장하는 방법을 이용하여 1차사고 예비검지를 하고, 이후 저장된 교통정보를 이용하여 개별차량의 속도변화량, 궤적변화량을 비교하여 사고확정판정을 하는 알고리즘을 제안한다.The present invention preliminary detection of the first accident using a method of storing a background image with a Gaussian Mixture Model for a certain period of time under the premise that there is a stationary vehicle due to an accident, and that there is a vehicle moving in a slow way. We propose an algorithm to determine the accident by comparing the speed variation and trajectory variation of individual vehicles using the stored traffic information.

또한 본 발명의 자동사고검지 알고리즘은 검지영역 내에서 개별차량 트래킹 기반으로 하였으므로 지점 간 루프검지기의 속도, 점유율 차이에 의한 방법과는 차별화 된 방법을 제안하였다. In addition, since the automatic accident detection algorithm of the present invention is based on individual vehicle tracking in the detection area, a method that is differentiated from the method based on the speed and occupancy difference of the loop detector between points is proposed.

본 AID시스템의 정확성을 검증하기 위해 실제 현장에서 일어나는 다양한 경우의 사고영상을 취득하여 알고리즘을 적용, 그 결과를 측정해야 하나, 이 방법은 사고양상 취득에 시간이 많이 소요되기 때문에 두 가지 방법을 채택해 수행하였다. 첫째, 중부내륙선 고속도로 시험도로에서 사고를 가정한 사고 유형별 시뮬레이션 12건과 둘째, 본 연구의 현장시험을 위해 설치된 장항IC CCTV에서 수집된 실제 사고 영상 3건을 대상으로 하였다.In order to verify the accuracy of this AID system, it is necessary to acquire the accident images of various cases occurring in the actual field and apply the algorithms and measure the result. Was performed. First, 12 simulations by type of accidents assuming accidents on the Jungbu Expressway Expressway test road and second, 3 real accident images collected from Changhang IC CCTV installed for the field test of this study.

특히, 3건의 실제 사고 영상은 야간, 주간, 안개 상황 등 다양한 시간대와 날씨 조건에 따라 수집된 영상으로 본 AID알고리즘의 객관성을 입증하는 데 크게 도움이 되었다. In particular, the three actual accident images were collected according to various time zones and weather conditions such as night, daytime and fog conditions, which greatly helped to prove the objectivity of the AID algorithm.

시험 결과 시뮬레이션 영상에서는 30초 이내, 실제 사고영상에서는 27~34초에서 사고검지가 되었다. As a result of the test, accident detection was detected within 30 seconds in the simulation image and 27 to 34 seconds in the actual accident image.

본 알고리즘의 특징은 가우시안 혼합모델(Gaussian Mixture Model)로 배경영상을 연속적으로 저장하여 검지영역 내 사고로 인하여 정차된 모든 오브젝트를 검지하기 때문에 사고발생 위험이 높은 흐림, 비, 안개, 눈 등 악천후 날씨 상황에서도 사고를 검지할 수 있으며, 사고차량 이외에 도로에 떨어진 낙하장애물도 같은 알고리즘으로 검지할 수 있다는 특징이 있다.The characteristic of this algorithm is Gaussian Mixture Model, which stores background images continuously and detects all objects stopped due to accidents in the detection area. The accident can be detected in the situation, and in addition to the accident vehicle, falling obstacles falling on the road can be detected by the same algorithm.

본 발명의 검증을 위해 3건의 실제 사고영상과 총 12건의 실험을 통해 사고영상 취득하였으나 다양한 사고 상황의 반영이 어려웠으며, 향후 과제로는 실제 도로상에서 더 많은 유형의 사고영상을 수집하여 이를 검증 및 평가에 활용함으로써 사고검지 시스템으로 완성도를 높여야 하며, 또한 사고가 아닌 데 사고로 잘못 판단하여 경고를 주는 wrong call에 대해서 그 횟수를 최대한 줄이는 방법에도 연구를 진행해야 할 것이다.For the verification of the present invention, accident images were acquired through three actual accident images and a total of 12 experiments, but it was difficult to reflect various accident situations, and as a future task, more types of accident images were collected on the actual road and verified and verified. It is necessary to improve the completeness with the accident detection system by using it in the evaluation, and also to study how to reduce the number of wrong calls for the wrong call, which is wrongly judged as an accident and gives a warning.

10a ~ 10n : 카메라 110 : 예비 검지부
111 : 오브젝트 추출부 112 : 예비 판단부
120 : 확정 검지부 121 : 속도 판단부
122 : 점유율 판단부 123 : 차로 판단부
10a to 10n: camera 110: preliminary detection unit
111: object extraction unit 112: preliminary determination unit
120: confirmation detection unit 121: speed determination unit
122: share determination unit 123: car determination unit

Claims (11)

카메라에 의해 획득한 교통 영상에 대해 가우시안 혼합모델(gaussian mixture model)을 적용하여 도로에 대한 영상을 기준영상으로 획득하며, 상기 기준 영상에서 정체 상태의 차량을 검지하는 예비 검지부; 및
상기 차량의 주변 교통정보를 참조하여 상기 차량에 대한 사고 발생 여부를 2차 판단하는 확정 검지부;를 포함하고,
상기 예비 검지부는,
상기 기준영상의 픽셀값 변화를 참조하여 차량과 도로를 구분하는 오브젝트 추출부; 상기 차량에 대한 픽셀값 변화를 참조하여 상기 차량에 대한 사고 발생 여부를 판단하는 예비 판단부;를 포함하고,
상기 오브젝트 추출부는,
상기 교통 영상을 구성하는 매 프레임에 대한 픽셀값에 대해 가우시안 혼합모델을 적용하여 상기 도로에 대한 기준영상을 획득하며,
상기 픽셀값은,
상기 교통 영상을 구성하는 매 프레임에 대한 명암, 색상, 및 휘도 중 적어도 하나에 대한 값이고,
상기 확정 검지부는,
상기 예비 검지부에 의해 사고 발생이 예측된 지점에서 차량의 진행 방향을 기준으로 전방과 후방에 대한 차량에 대한 차량들의 평균속도를 비교하여 사고 발생 여부를 판단하는 속도판단부와;
상기 예비 검지부에 의해 사고 발생이 예측된 지점에서 차량의 진행 방향을 기준으로 전방과 후방에 대한 차량들의 도로 점유율을 비교하여 사고 발생여부를 판단하는 점유율 판단부; 및
상기 예비 검지부에서 사고 발생이 예측된 지점에서 차량의 차선 변경의 횟수가 어느 정도 증가하였는가를 기준으로 하여 사고 발생여부를 판단하는 차로판단부;를 포함하는 것을 특징으로 하는 영상기반 사고검지 시스템.
A preliminary detection unit which acquires an image of a road as a reference image by applying a Gaussian mixture model to the traffic image obtained by the camera, and detects a vehicle in a stagnant state from the reference image; And
And a determination detector for secondly determining whether an accident with respect to the vehicle has occurred by referring to traffic information around the vehicle.
The preliminary detection unit,
An object extractor configured to distinguish a vehicle from a road by referring to a change in a pixel value of the reference image; And a preliminary determination unit determining whether an accident has occurred in the vehicle by referring to the change in the pixel value of the vehicle.
The object extraction unit,
Obtaining a reference image of the road by applying a Gaussian mixture model to pixel values of each frame constituting the traffic image,
The pixel value is
A value for at least one of contrast, color, and luminance of each frame constituting the traffic image;
The confirmation detection unit,
A speed judging unit which determines whether an accident has occurred by comparing the average speeds of the vehicles with respect to the vehicle forward and rearward based on the traveling direction of the vehicle at the point where the accident occurrence is predicted by the preliminary detection unit;
A share determination unit for determining whether an accident has occurred by comparing road shares of vehicles for the front and the rear of the vehicle based on the direction in which the vehicle is predicted by the preliminary detection unit; And
And a lane determination unit determining whether an accident has occurred based on how much the number of lane changes of the vehicle has increased at the point where the occurrence of the accident is predicted by the preliminary detection unit.
삭제delete 삭제delete 삭제delete 제1항에 있어서,
상기 예비 검지부는,
상기 도로에 대한 영상의 매 프레임별 픽셀값의 가우시안 분포를 참조하여 상기 도로에 대한 기준영상을 생성하는 것을 특징으로 하는 영상 기반의 사고검지 시스템.
The method of claim 1,
The preliminary detection unit,
And a reference image of the road with reference to a Gaussian distribution of pixel values for each frame of the road image.
제1항에 있어서,
상기 예비 검지부는,
상기 도로에 대한 영상을 구성하는 프레임들 중, 미리 설정된 시간 간격에 따라 선택된 제1프레임과 제2프레임을 비교하여 상기 차량에 대한 사고 발생 여부를 판단하는 것을 특징으로 하는 영상 기반의 사고검지 시스템.
The method of claim 1,
The preliminary detection unit,
The image-based accident detection system of claim 1, wherein the frame of the road image comprises comparing the selected first frame and the second frame according to a predetermined time interval to determine whether an accident has occurred in the vehicle.
제6항에 있어서,
상기 제1프레임과 제2프레임은,
30초 ~ 5분 사이인 시간 간격을 두고 선택되는 프레임인 것을 특징으로 하는 영상 기반의 사고검지 시스템.
The method of claim 6,
The first frame and the second frame,
Image-based accident detection system, characterized in that the frame is selected with a time interval of 30 seconds to 5 minutes.
삭제delete 삭제delete 삭제delete 삭제delete
KR1020100043925A 2010-04-21 2010-05-11 System and Method for monitoring traffic and accident based on image processing KR101133222B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020100036827 2010-04-21
KR20100036827 2010-04-21

Publications (2)

Publication Number Publication Date
KR20110117576A KR20110117576A (en) 2011-10-27
KR101133222B1 true KR101133222B1 (en) 2012-04-05

Family

ID=45031478

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100043925A KR101133222B1 (en) 2010-04-21 2010-05-11 System and Method for monitoring traffic and accident based on image processing

Country Status (1)

Country Link
KR (1) KR101133222B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105894701A (en) * 2016-04-05 2016-08-24 江苏电力信息技术有限公司 Large construction vehicle identification and alarm method for preventing external damage to transmission lines

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101906898B1 (en) * 2015-08-25 2018-10-11 주식회사 쿠스코 Lighting Apparatus
KR101867869B1 (en) * 2018-01-29 2018-06-29 블루카이트주식회사 Disaster response system based on street light
CN111047908B (en) * 2018-10-12 2021-11-02 富士通株式会社 Detection device and method for cross-line vehicle and video monitoring equipment
KR102551566B1 (en) * 2021-05-31 2023-07-06 영남대학교 산학협력단 System and method of traffic accident detection
CN113792586A (en) * 2021-08-04 2021-12-14 武汉市公安局交通管理局 Vehicle accident detection method and device and electronic equipment

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100690279B1 (en) 2005-09-12 2007-03-09 주식회사 리트코 Multipurpose video image detection system
KR100862561B1 (en) 2008-03-13 2008-10-09 (주) 서돌 전자통신 A system for sensing a traffic accident

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100690279B1 (en) 2005-09-12 2007-03-09 주식회사 리트코 Multipurpose video image detection system
KR100862561B1 (en) 2008-03-13 2008-10-09 (주) 서돌 전자통신 A system for sensing a traffic accident

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
논문1:대한교통학회지 *
논문1:대한교통학회지*

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105894701A (en) * 2016-04-05 2016-08-24 江苏电力信息技术有限公司 Large construction vehicle identification and alarm method for preventing external damage to transmission lines

Also Published As

Publication number Publication date
KR20110117576A (en) 2011-10-27

Similar Documents

Publication Publication Date Title
US11113961B2 (en) Driver behavior monitoring
US10032085B2 (en) Method and system to identify traffic lights by an autonomous vehicle
KR101095528B1 (en) An outomatic sensing system for traffic accident and method thereof
CN103366571B (en) The traffic incidents detection method at night of intelligence
US11380105B2 (en) Identification and classification of traffic conflicts
KR101133222B1 (en) System and Method for monitoring traffic and accident based on image processing
CN112509315B (en) Traffic accident detection method based on video analysis
Fernández-Caballero et al. Road-traffic monitoring by knowledge-driven static and dynamic image analysis
EP3403219A1 (en) Driver behavior monitoring
CN103617410A (en) Highway tunnel parking detection method based on video detection technology
CN110796862B (en) Highway traffic condition detection system and method based on artificial intelligence
Poddar et al. Automated traffic monitoring system using computer vision
CN111899514A (en) Artificial intelligence's detection system that blocks up
Kamijo et al. A real-time traffic monitoring system by stochastic model combination
Quinn et al. Traffic flow monitoring in crowded cities
Wang et al. Vision-based highway traffic accident detection
Kamijo et al. Development and evaluation of real-time video surveillance system on highway based on semantic hierarchy and decision surface
Detzer et al. Analysis of traffic safety for cyclists: The automatic detection of critical traffic situations for cyclists
Fujimura et al. Vehicle infrastructure integration system using vision sensors to prevent accidents in traffic flow
Sánchez et al. Using adaptive background subtraction into a multi-level model for traffic surveillance
KR100853444B1 (en) Method of sensing car accidents
Oh et al. Gaussian background mixture model based automatic incident detection system for real-time tracking
Shende et al. Traffic Density Dependent Fine Tuning of Green Signal Timing for Faster Commute
JP7384181B2 (en) Image collection device, image collection method, and computer program for image collection
Bidwe et al. A Study of Traffic Monitoring Systems for Smart City

Legal Events

Date Code Title Description
A201 Request for examination
N231 Notification of change of applicant
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160108

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee