KR20110121885A - Apparatus and method for traffic accident recognition - Google Patents

Apparatus and method for traffic accident recognition Download PDF

Info

Publication number
KR20110121885A
KR20110121885A KR1020100041384A KR20100041384A KR20110121885A KR 20110121885 A KR20110121885 A KR 20110121885A KR 1020100041384 A KR1020100041384 A KR 1020100041384A KR 20100041384 A KR20100041384 A KR 20100041384A KR 20110121885 A KR20110121885 A KR 20110121885A
Authority
KR
South Korea
Prior art keywords
information
traffic accident
sound
accident
unit
Prior art date
Application number
KR1020100041384A
Other languages
Korean (ko)
Other versions
KR101116273B1 (en
Inventor
조성배
이영설
황주원
Original Assignee
연세대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 연세대학교 산학협력단 filed Critical 연세대학교 산학협력단
Priority to KR1020100041384A priority Critical patent/KR101116273B1/en
Publication of KR20110121885A publication Critical patent/KR20110121885A/en
Application granted granted Critical
Publication of KR101116273B1 publication Critical patent/KR101116273B1/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Abstract

PURPOSE: A traffic accident recognizing device and a method thereof are provided to apply a rule-based determination technique to image information and sound information, thereby reducing the amount of calculation. CONSTITUTION: A road information collecting unit(10) collects image information and sound information of a road. An accident information extracting unit(20) extracts the accident object image information except an image about a background from the image information. The accident information extracting unit extracts the sound information of a crash sound which is generated by a traffic accident from the sound information. An object information pre-processor(30) generates motion pattern information. An accident determining unit determines whether the motion pattern information is about a traffic accident by applying a preset rule to the motion pattern information.

Description

교통사고 인식장치 및 그 방법{Apparatus and Method for Traffic Accident Recognition}Apparatus and Method for Traffic Accident Recognition

본 발명은 교차로에서의 교통사고 인식 기술에 관한 것으로, 보다 상세하게는 카메라로부터 수집된 영상 정보와 마이크로폰으로부터 수집된 음향 정보를 분석하고 가공하여 객체(사람 또는 차량)의 운동 벡터를 계산하고 객체의 운동 상태로부터 교차로에서의 교통사고를 자동으로 인식하는 교통사고 인식장치 및 이를 이용한 교통사고의 인식방법에 관한 것이다.The present invention relates to a traffic accident recognition technology at an intersection, and more particularly, to analyze and process image information collected from a camera and acoustic information collected from a microphone to calculate a motion vector of an object (person or vehicle), The present invention relates to a traffic accident recognition device for automatically recognizing a traffic accident at an intersection from an exercise state and a method of recognizing a traffic accident using the same.

일반적으로, 교통 상황이나 사고를 모니터링 하기 위한 CCTV 와 과속 감시를 위한 카메라 등이 도로 곳곳에 설치되어 있으나, 이런 카메라를 실시간으로 모니터링하는 것은 사람들의 노력과 시간을 필요로 하므로 대개의 경우, 사고를 실시간으로 대응하기가 어렵고, 사고가 발생한 이후에 원인을 파악하기 위하여 기록된 영상정보를 활용하는 경우가 많았다. Generally, CCTVs for monitoring traffic conditions and accidents and cameras for speed monitoring are installed throughout the road.However, monitoring these cameras in real time requires effort and time. It was difficult to respond in real time, and recorded image information was often used to identify the cause after an accident occurred.

따라서 최근에는 영상을 분석하거나 사고 발생시의 교통사고 음향, 그리고 교통사고 발생시의 진동이나 충격량을 분석하여 자동으로 교통사고를 인식하기 위한 연구나 특허가 제출되고 있다. Therefore, recently, research or patents have been submitted for automatically recognizing traffic accidents by analyzing images, analyzing traffic sounds at the time of an accident, and analyzing the amount of vibration or impact when a traffic accident occurs.

종래의 관련된 특허문헌을 간략히 소개하면,Briefly introducing the related patent literature,

한국전자통신연구원에서는 차량 내부상태(온도, 속도, 브레이크 여부, 에어백 동작 여부, 충격량) + 외부 교통 상황 정보 (실시간 교통 정보 - 정체 상황, 교통사고 정보, GPS 위치 정보, 위험 시간대 정보)를 조합하여 현재 차량의 사고 위험 정도를 경보해주는 시스템에 대한 발명을 제안하였다. (교통사고 경보 장치 및 방법, 출원번호 : 2007-0123048) The Korea Electronics and Telecommunications Research Institute combines the internal condition of the vehicle (temperature, speed, brake, airbag operation, impact) + external traffic information (real-time traffic information-traffic jams, traffic accident information, GPS location information, dangerous time zone information) We have proposed an invention for a system that alerts the current vehicle to the risk of accidents. (A traffic accident alarm device and method, application number: 2007-0123048)

디에치씨 주식회사에서는 도로에 진동 감지 센서를 달아서 정상적으로 차량이 통과할 때의 진동량과 사고 발생시의 진동량이 달라지는 것을 이용하여 사고 발생을 감지하는 방법을 제안하였다. (유비쿼터스형 교통사고 감지 시스템, 출원번호: 2007-0107240). 그러나 이 특허문헌에서는 정상적인 진동량과 사고 발생시의 진동량에 대한 기준을 제시하지는 않았다.Deechi Co., Ltd. proposed a method of detecting an accident by using a vibration sensor on a road, by using a vibration amount when a vehicle passes normally and a vibration amount when an accident occurs. (Ubiquitous traffic accident detection system, application number: 2007-0107240). However, this patent document does not provide a standard for the normal amount of vibration and the amount of vibration in the event of an accident.

개인 발명자인 정양권은 GPS를 통해서 속도를 감지해서 과속인지 판단하여 경고하고, 주위 교통 상황이나 제한 속도에 비해 너무 저속일 경우에는 교통 사고가 있는 것으로 판단하여 경찰을 파견하는 서비스를 제안한 바 있다.(이동통신 단말기를 이용한 연속류 사고 예측 시스템, 출원번호: 2007-0056613) 이 특허문헌에서는 교통 사고 판별의 기준으로 GPS 의 속도만을 이용하고 있다.Jung Yang-kwon, a personal inventor, sensed the speed through GPS to determine if he was overspeed and warned, and suggested a service to dispatch the police after judging that there was a traffic accident when it was too low compared to the surrounding traffic conditions or speed limit. Continuous Flow Accident Prediction System Using Mobile Communication Terminal, Application No. 2007-0056613) In this patent document, only the speed of GPS is used as the basis of traffic accident discrimination.

개인 발명자인 김재이는 충돌시에 발생하는 음향이 일상 음향과 다르다는 가정에 근거하여 음향의 종류, 크기, 주파수 분포 등을 분석하여 사고를 파악하는 방법을 제안한 바 있다.(교차로 사고음 자동감지 시스템, 출원번호 : 2007-0060475) Based on the assumption that the sound produced in a collision is different from the everyday sound, Kim Jae-I, a personal inventor, proposed a method of identifying an accident by analyzing the type, size, and frequency distribution of the sound. Application number: 2007-0060475)

개인 발명자인 현운혁은 영상 분석 (특히 differential image 를 통한 영상 분석)을 이용해서 범죄나 교통사고를 인식하고 경고해주는 시스템을 제안한 바 있다.(컴퓨터 영상 분석기술을 이용한 범죄 및 사고예방 자동경비 시스템, 출원번호 : 2008-0040227)Hyun Un-hyuk, a personal inventor, has proposed a system that recognizes and alerts to crimes and traffic accidents using image analysis (especially image analysis through differential image) (automatic security system for crime and accident prevention using computer image analysis technology, Application number: 2008-0040227)

그 외에도 많은 개인 발명자와 회사가 교통사고를 실시간으로 인식하기 위한 방법들에 대한 연구를 진행하고 있다. 그러나 이들의 대부분은 단순한 규칙 기반 알고리즘을 이용하거나 이미 개발된 영상 분석/ 음향 분석 기술들을 사용하는 것으로 영상 분석이나 음향 분석을 통해서 얻은 정보를 토대로 교통사고를 인식하기 위한 알고리즘을 규칙에 기반하는 것 이외에는 따로 제시하지 않고 있다.In addition, many individual inventors and companies are working on ways to recognize traffic accidents in real time. However, most of them use simple rule-based algorithms or already developed image analysis / acoustic analysis techniques, except for rule-based algorithms for recognizing traffic accidents based on information obtained through image analysis or acoustic analysis. It is not presented separately.

또한, 이러한 연구에도 불구하고, 여러 대의 카메라나 마이크로폰에 의해서 하나의 사고 현장에 대한 정보를 다수 얻을 경우에 어떻게 이 정보들을 융합할 것인가 하는 측면에 관한 방법은 제시하고 있지 않은 문제점이 있었다.
In addition, in spite of these studies, there is a problem that does not suggest a method on how to fuse the information when a plurality of cameras or microphones obtains a large amount of information on a single accident site.

상술한 문제점을 해결하기 위한 관점으로부터 본 발명은 교차로에 설치된 비디오 카메라를 통해 수집된 영상 정보와 음향 정보로부터 차량 및 사람(이하, 사고객체라 함)의 운동 방향과 속도에 대한 정보를 얻고, 이 정보에 계층구조의 판단기법을 적용하여 교통사고 인식장치 및 방법을 제공을 하는 것을 제1 기술적 과제로 한다.In view of solving the above problems, the present invention obtains information on the direction and speed of movement of a vehicle and a person (hereinafter referred to as a customer body) from image information and sound information collected through a video camera installed at an intersection. The first technical problem is to provide a traffic accident recognition apparatus and method by applying a hierarchical decision method to information.

또한, 본 발명은 상기 제1 기술적 과제에 부가하여 다수의 비디오 카메라를 교차로의 여러 지점에 설치하여 이들이 동시에 수집하는 여러 정보를 융합하여 교통사고 인식의 정확도를 높일 수 있는 교통사고 인식장치 및 방법을 제공을 하는 것을 제2 기술적 과제로 한다.In addition, the present invention provides a traffic accident recognition apparatus and method that can install a plurality of video cameras at various points of the intersection in addition to the first technical problem to fuse the various information collected at the same time to increase the accuracy of traffic accident recognition. Making provision is the second technical problem.

그러나, 본 발명의 기술적 과제는 상기에 언급된 사항으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.However, the technical problem of the present invention is not limited to the above-mentioned matters, and other objects not mentioned will be clearly understood by those skilled in the art from the following description.

상기한 기술적 과제를 달성하기 위해서 본 발명에 따른 교통사고의 인식장치는, 도로의 영상정보 및 음향정보를 수집하는 도로정보 수집부와, 상기 영상정보 중 배경에 관한 영상을 제외한 사고객체 영상정보를 추출하고, 상기 음향정보 중 교통사고로 발생하는 충돌음의 음원정보를 추출하는 사고정보 추출부와, 상기 사고객체 영상정보에서 사고객체의 운동벡터의 변화량에 관한 정보인 운동패턴정보를 생성하는 객체정보 전처리부 및 상기 운동패턴정보에 미리 결정된 규칙을 적용하여 교통사고 상황인지 여부를 판단하고, 교통사고 상황으로 판단된 경우 확률모델에 기반한 확률판단을 시행하여 교통사고 상황인지를 확정하는 사고 판단부를 포함한다.In order to achieve the above technical problem, a traffic accident recognition apparatus according to the present invention includes a road information collection unit for collecting image information and sound information of a road, and customer image information other than a background image of the image information. An accident information extracting unit for extracting sound source information of a collision sound generated by a traffic accident among the sound information, and object information for generating motion pattern information which is information about a change amount of a motion vector of a customer in the customer image; It includes a pre-processing unit and an accident determination unit to determine whether or not the traffic accident situation by applying a predetermined rule to the exercise pattern information, and determine the traffic accident situation by performing a probability judgment based on a probability model if it is determined that the traffic accident situation. do.

여기서, 상기 사고정보 추출부는 상기 도로의 영상정보에 미리 결정된 알고리즘을 적용하여 관심영역인 사고 객체의 영상정보를 추출하는 관심영역(ROI,Region Of Interest)추출부 및 상기 충돌음을 이용하여 사고지점에서 발생한 음원과 상기 교통사고 인식장치간의 거리 및 상기 음원의 발생 방향에 대한 정보인 음원정보를 추출하는 음원정보 추출부를 포함하는 것이 좋다.Here, the accident information extracting unit extracts the image information of the accident object, which is the region of interest, by applying a predetermined algorithm to the image information of the road and extracts the image information of the accident object at the accident spot using the collision sound. It is preferable to include a sound source information extracting unit for extracting the sound source information that is information about the distance between the generated sound source and the traffic accident recognition device and the direction in which the sound source is generated.

그리고, 상기 사고정보 추출부에서 추출되는 음원정보는 상기 음향정보 중 미리 설정된 크기 이상의 소리 또는 미리 결정된 주파수 패턴과의 불일치 정도를 고려하여 획득되는 것도 좋다.The sound source information extracted by the accident information extracting unit may be obtained in consideration of the degree of inconsistency with a predetermined or larger sound or a predetermined frequency pattern among the sound information.

또한, 상기 사고 판단부는,In addition, the accident determination unit,

상기 운동패턴정보에 미리 결정된 규칙을 적용하여 교통사고 상황을 판단하는 규칙기반 판단부 및 상기 규칙기판 판단부에서 교통사고 상황이라고 판단된 경우, 상기 사고정보 추출부에서 추출된 음원정보와, 상기 객체정보 전처리부에서 생성된 운동패턴정보에 확률모델을 적용하여 교통사고 상황인지를 확정하는 확률기반 판단부를 포함하는 것도 바람직하다.The sound source information extracted from the accident information extraction unit and the object when the rule-based determination unit and the rule board determination unit determine a traffic accident situation by applying a predetermined rule to the exercise pattern information. It is also preferable to include a probability-based determination unit for determining whether the traffic accident situation by applying a probability model to the exercise pattern information generated by the information preprocessor.

또한 바람직하게는, 상기 도로정보 수집부는 상기 도로의 영상정보를 수집하여 외부의 서버에 기록하는 비디오 데이터 수집부 및 상기 도로의 음향정보를 수집하여 상기 서버에 기록하는 음향 데이터 수집부를 포함한다.Also preferably, the road information collecting unit may include a video data collecting unit collecting and recording image information of the road to an external server, and an acoustic data collecting unit collecting and recording sound information of the road to the server.

또한, 상기 규칙기반 판단부는 상기 객체정보 전처리부에서 생성된 운동패턴정보의 시간별 변화량을 계산한 결과를 생성하여 상기 결과가 미리 결정된 기준값을 초과하는 경우에 교통사고 상황이라고 판단하는 것도 좋다.In addition, the rule-based determination unit may generate a result of calculating the change amount of time of the exercise pattern information generated by the object information preprocessor to determine that the traffic accident situation when the result exceeds a predetermined reference value.

여기서, 상기 확률기반 판단부는 상기 확률모델로서 베이지안 네트워크(Bayesian Network)를 이용할 수 있을 것이다.The probability-based determination unit may use a Bayesian network as the probability model.

또한, 상기한 기술적 과제를 달성하기 위해서 본 발명에 따른 미리 결정된 위치에 설치되도록 복수개로 구비되는 교통사고 인식장치는, 도로의 영상정보 및 음향정보를 수집하는 도로정보 수집부와, 상기 영상정보 중 배경에 관한 영상을 제외한 사고객체 영상정보를 추출하고, 상기 음향정보 중 교통사고로 발생하는 충돌음의 음원정보를 추출하도록 구비되는 사고정보 추출부와, 상기 사고객체 영상정보에서 사고객체의 운동벡터의 변화량에 관한 정보인 운동패턴정보를 생성하는 객체정보 전처리부와, 상기 객체정보 전처리부에서 생성된 운동패턴정보에 미리 결정된 알고리즘을 적용하여 융합된 정보로 생성하는 정보 융합부 및 상기 정보 융합부에서 생성된 융합된 정보에 미리 결정된 규칙을 적용하여 교통사고 상황인지 여부를 판단하고, 교통사고 상황으로 판단된 경우 확률모델에 기반한 확률판단을 시행하여 교통사고 상황인지를 확정하는 사고 판단부를 포함한다.In addition, in order to achieve the above technical problem, a plurality of traffic accident recognition apparatus is provided to be installed at a predetermined position according to the present invention, the road information collection unit for collecting the image information and sound information of the road, the image information of the An accident information extractor configured to extract video information of the customer body except for the background image, and extract sound source information of a collision sound generated by a traffic accident among the sound information; In the object information preprocessor for generating the exercise pattern information which is information on the amount of change, the information fusion unit for generating the fused information by applying a predetermined algorithm to the exercise pattern information generated in the object information preprocessor and the information fusion unit Determining whether or not a traffic accident is applied by applying predetermined rules to the generated converged information, If the judge determines that the situation underwent a probability based on a probability model should include a determination of the accident determined whether the accident situation.

여기서, 상기 사고정보 추출부는 상기 영상정보에 미리 결정된 알고리즘을 적용하여 관심영역인 사고객체의 영상정보들을 추출하는 관심영역(ROI,Region Of Interest)추출부 및 상기 충돌음을 이용하여 사고지점에서 발생한 음원과 상기 교통사고 인식장치간의 거리 및 상기 음원의 발생 방향에 대한 정보인 음원정보를 추출하는 음원정보 추출부를 포함하여도 좋다.Here, the accident information extracting unit applies a predetermined algorithm to the image information and extracts the image information of the customer body, which is a region of interest, and a sound source generated at the accident spot using the collision sound. And a sound source information extracting unit for extracting sound source information which is information on a distance between the traffic accident recognition apparatus and a direction in which the sound source is generated.

여기서, 상기 정보 융합부는 상기 복수개의 교통사고 인식장치의 객체정보 전처리부에서 생성된 운동벡터정보를 각각 절대좌표계의 운동벡터로 형성하고, 상기 절대좌표계의 운동벡터를 결합하여 융합된 운동벡터를 생성하는 것이 좋다.Here, the information fusion unit forms the motion vector information generated by the object information preprocessor of the plurality of traffic accident recognition apparatuses as motion vectors of the absolute coordinate system, and generates a fused motion vector by combining the motion vectors of the absolute coordinate system. Good to do.

그리고, 상기 절대좌표계의 운동벡터는 상기 사고정보 추출부에서 추출된 음원정보와 상기 도로정보 수집부의 수직방향 각도 및 도로정보 수집부의 정면방향과 상기 음원과의 수평방향 각도를 이용하여 형성하고, 상기 융합된 운동벡터는 상기 절대좌표계의 운동벡터에 상기 음원정보에 포함된 음원과 상기 도로정보 수집부와의 거리에 반비례하는 상수를 가중치로 부여한 값들을 결합하여 생성하는 것이 바람직하다.The motion vector of the absolute coordinate system is formed by using sound source information extracted from the accident information extracting unit, the vertical angle of the road information collecting unit, the front direction of the road information collecting unit, and the horizontal angle of the sound source. The fused motion vector is preferably generated by combining the motion vector of the absolute coordinate system with weights of constants that are inversely proportional to the distance between the sound source included in the sound source information and the road information collection unit.

한편, 상기한 기술적 과제를 달성하기 위해서 본 발명에 따른 교통사고의 인식방법은, (a) 도로의 영상정보 및 음향정보를 수집하는 단계와, (b) 상기 영상정보 중 배경에 관한 영상을 제외한 사고객체 영상정보를 추출하고, 상기 음향정보 중 교통사고로 발생하는 충돌음의 음원정보를 추출하는 단계와, (c) 상기 사고객체 영상정보에서 사고객체의 운동벡터의 변화량에 관한 정보인 운동패턴정보를 생성하는 단계, (d) 상기 (c)단계에서 생성된 운동패턴정보에 미리 결정된 규칙을 적용하여 교통사고 상황을 판단하는 단계 및 (e) 상기 (d)단계에서 교통사고 상황이라고 판단된 경우, 상기 (b)단계에서 추출된 음원정보와, 상기 (c)단계에서 생성된 운동패턴정보에 확률모델을 적용하여 교통사고 상황인지를 확정하는 단계를 포함한다.On the other hand, in order to achieve the above technical problem, the traffic accident recognition method according to the present invention, (a) collecting the image information and sound information of the road, and (b) except for the background image of the image information Extracting an image of the customer body image, and extracting sound source information of a collision sound generated by a traffic accident among the sound information; and (c) an exercise pattern information which is information about a change amount of the exercise vector of the customer body in the customer body image information. (D) determining a traffic accident situation by applying a predetermined rule to the exercise pattern information generated in step (c), and (e) determining that the traffic accident situation is in step (d). And determining the traffic accident situation by applying a probabilistic model to the sound source information extracted in the step (b) and the exercise pattern information generated in the step (c).

여기서, 상기 (d)단계는 상기 운동패턴정보의 시간별 변화량을 계산한 결과를 생성하여 상기 결과가 미리 결정된 기준값을 초과하는 경우에 교통사고 상황이라고 판단하는 것이 좋다.Here, in step (d), it is preferable to generate a result of calculating the change amount of time of the exercise pattern information to determine the traffic accident situation when the result exceeds a predetermined reference value.

또한, 상기 (e)단계의 확률모델은 베이지안 네트워크(Bayesian Network)를 이용하는 것도 좋다.In addition, the probabilistic model of step (e) may use a Bayesian network.

한편, 미리 결정된 위치에 설치되는 복수개의 교통사고 인식장치를 이용하는 교통사고의 인식방법은, (a) 도로의 영상정보 및 음향정보를 수집하는 단계와, (b) 상기 영상정보 중 배경에 관한 영상을 제외한 사고객체 영상정보를 추출하고, 상기 음향정보 중 교통사고로 발생하는 충돌음의 음원정보를 추출하는 단계와, (c) 상기 사고객체 영상정보에서 사고객체의 운동벡터의 변화량에 관한 정보인 운동패턴정보를 생성하는 단계오, (d) 상기 운동패턴정보에 미리 결정된 알고리즘을 적용하여 융합된 정보로 생성하는 단계와, (e) 상기 (d)단계에서 생성된 융합된 정보에 미리 결정된 규칙을 적용하여 교통사고 상황을 판단하는 단계 및 (f) 상기 (e)단계에서 교통사고 상황이라고 판단된 경우, 상기 (b)단계에서 추출된 음원정보와, 상기 (d)단계에서 생성된 운동패턴정보에 확률모델을 적용하여 교통사고 상황인지를 확정하는 단계를 포함한다.Meanwhile, a traffic accident recognition method using a plurality of traffic accident recognition apparatus installed at a predetermined position includes (a) collecting image information and sound information of a road; and (b) an image related to a background of the image information. Extracting the customer information except for the customer, and extracting sound source information of the collision sound generated by the traffic accident from the sound information; and (c) an exercise which is information on the amount of change of the motion vector of the customer in the customer information; Generating pattern information; (d) generating a fused information by applying a predetermined algorithm to the exercise pattern information, and (e) applying a predetermined rule to the fused information generated in the step (d). Judging the traffic accident situation by applying and (f) if it is determined that the traffic accident situation in step (e), the sound source information extracted in step (b) and the luck generated in step (d) Determining whether the traffic accident is by applying a probability model to the pattern information.

여기서, 상기 (e)단계는 (e1) 상기 운동패턴정보를 절대좌표계의 운동벡터로 형성하는 단계 및 (e2) 상기 (e1)단계에서 형성된 절대좌표계의 운동벡터를 결합하여 융합된 운동벡터를 생성하는 단계를 포함하는 것도 좋다.Here, the step (e) comprises the step (e1) of forming the motion pattern information as the motion vector of the absolute coordinate system and (e2) generating the fused motion vector by combining the motion vectors of the absolute coordinate system formed in the step (e1). It may also include a step.

또한, 상기 (f)단계의 확률모델은 베이지안 네트워크(Bayesian Network)를 이용하는 것이 바람직하다.In addition, it is preferable that the probabilistic model of the step (f) uses a Bayesian network.

본 명세서의 내용으로부터 파악되는 본 발명에 따르면, 교차로에 설치된 비디오 카메라를 통해 수집된 영상 정보와 음향 정보로부터 차량 및 사람(이하, 사고객체라 함)의 운동 방향과 속도에 대한 정보를 얻고, 이 정보에 계층구조의 판단기법을 적용하여 교통사고를 인식할 수 있어 교통사고를 모니터링하는 데 필요한 시간과 노력을 절감할 수 있으며, 실시간으로 교통사고를 파악하여 교통사고 사상자의 구조와 신속한 사고 처리를 통한 교통 혼잡을 막을 수 있다.According to the present invention grasped from the contents of the present specification, information on the direction and speed of movement of a vehicle and a person (hereinafter referred to as a customer body) is obtained from image information and sound information collected through a video camera installed at an intersection. By applying hierarchical decision-making techniques to information, traffic accidents can be recognized, thus reducing the time and effort required to monitor traffic accidents. To prevent traffic congestion.

또한, 본 발명에 따르면, 획득된 영상정보 및 음향정보에 규칙기반의 판단기법을 적용하여 일정 조건을 만족치 않은 경우 확률기반의 판단기법을 적용하지 않으므로 많은 계산량과 메모리가 필요치 않다.In addition, according to the present invention, if the rule-based determination technique is not applied to the acquired image information and sound information, the probability-based determination technique is not applied when a predetermined condition is not satisfied, and thus a large amount of computation and memory are not required.

또한, 본 발명은 여러개의 비디오 카메라가 수집한 정보를 하나의 융합된 정보로 형성하고 여기에 계층구조의 판단기법을 적용하므로 단일의 정보를 사용하는 경우보다 보다 정확히 교통사고를 인식할 수 있다.In addition, since the present invention forms information collected by multiple video cameras into a single piece of fused information and applies a hierarchical decision method to it, it is possible to recognize a traffic accident more accurately than using a single information.

도 1은 본 발명의 일 실시예에 따른 교통사고 인식장치를 개략적으로 도시한 블록도,
도 2는 본 발명의 일 실시예에 따른 교통사고 인식장치의 작동을 설명하기 위해 도시한 도,
도 3은 관심영역에서의 사고객체의 운동벡터를 도시한 도,
도 4는 본 발명의 객체정보 전처리부에서 객체들 사이의 운동벡터 차이를 계산하는 과정을 도시한 도,
도 5는 본 발명의 일 실시예에 따라 교통사고 상황을 판단하기 위해 계층구조의 판단기법을 적용하는 과정을 설명하기 위해 도시한 도,
도 6은 본 발명의 일 실시예에 따른 교통사고 인식장치에서 확률기반 판단기법으로 베이시안 네트워크를 활용한 예를 설명하기 위해 도시한 도,
도 7은 본 발명의 다른 실시예에 따른 교통사고 인식장치를 개략적으로 도시한 블록도,
도 8은 본 발명의 다른 실시예에 따른 교통사고 인식장치를 이용하여 정보를 획득하는 모습을 설명하기 위해 도시한 도,
도 9는 본 발명의 다른 실시예에 따른 교통사고 인식장치에서 수집된 여러 정보를 하나의 융합된 정보로 형성하는 과정을 설명하기 위해 도시한 도면,
도 10은 본 발명에 따른 교통사고의 인식방법을 설명하기 위해 도시한 플로우 차트이다.
1 is a block diagram schematically showing an apparatus for recognizing a traffic accident according to an embodiment of the present invention;
2 is a view for explaining the operation of the traffic accident recognition apparatus according to an embodiment of the present invention,
3 is a diagram illustrating a motion vector of a customer in a region of interest;
4 is a diagram illustrating a process of calculating a motion vector difference between objects in the object information preprocessor of the present invention;
5 is a view illustrating a process of applying a hierarchical determination technique to determine a traffic accident situation according to an embodiment of the present invention;
6 is a view illustrating an example of using a Bayesian network as a probability-based determination method in a traffic accident recognition apparatus according to an embodiment of the present invention.
7 is a block diagram schematically showing a traffic accident recognition apparatus according to another embodiment of the present invention;
8 is a view illustrating a state in which information is obtained using a traffic accident recognition apparatus according to another embodiment of the present invention;
FIG. 9 is a view illustrating a process of forming various pieces of information collected by a traffic accident recognition apparatus according to another embodiment of the present invention into one fused information;
10 is a flowchart illustrating a method of recognizing a traffic accident according to the present invention.

이하에서는 본 발명의 바람직한 실시예를 첨부된 도면들을 참조하여 상세히 설명한다. 여기의 설명에서 어떤 구성 요소가 다른 구성 요소에 연결된다고 기술될 때, 이는 다른 구성 요소에 바로 연결될 수도 그 사이에 제3의 구성 요소가 개재될 수도 있음을 의미한다. 우선 각 도면의 구성 요소들에 참조 부호를 부가함에 있어서, 동일한 구성 요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 이때 도면에 도시되고 또 이것에 의해서 설명되는 본 발명의 구성과 작용은 적어도 하나의 실시예로서 설명되는 것이며, 이것에 의해서 본 발명의 기술적 사상과 그 핵심 구성 및 작용이 제한되지는 않는다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the description herein, when a component is described as being connected to another component, this means that the component may be directly connected to another component or an intervening third component may be interposed therebetween. First, in adding reference numerals to the components of each drawing, it should be noted that the same reference numerals are assigned to the same components as much as possible, even if shown on different drawings. At this time, the configuration and operation of the present invention shown in the drawings and described by it will be described as at least one embodiment, by which the technical spirit of the present invention and its core configuration and operation is not limited.

본 명세서에서 사용하게 될 '부'는 소프트웨어 또는 Field Programmable Gate Array(FPGA) 또는 주문형 반도체(Application Specific Integrated Circuit, ASIC)와 같은 하드웨어 구성요소를 의미하며, 어떤 역할들을 수행한다. 그렇지만 '부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 실행시키도록 구성될 수도 있다. 일 예로서 '부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함한다. 또한, 각 구성요소들에서 제공되는 기능은 더 작은 수의 구성요소들로 결합되거나 추가적인 구성요소들로 더 분리될 수 있다.As used herein, the term 'unit' refers to a hardware component such as software or a field programmable gate array (FPGA) or an application specific integrated circuit (ASIC), and performs certain roles. But wealth is not limited to software or hardware. The 'unit' may be configured to be in an addressable storage medium and may be configured to execute one or more processors. As an example, a 'part' may include components such as software components, object-oriented software components, class components, and task components, and processes, functions, properties, procedures, subroutines. , Segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays, and variables. In addition, the functionality provided in each component may be combined into a smaller number of components or further separated into additional components.

이하에서는, 본 발명의 실시예들을 통해 구체적인 사항들을 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다.Hereinafter, specific details will be described through embodiments of the present invention. Advantages and features of the present invention and methods for achieving them will be apparent with reference to the embodiments described below in detail with the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 교통사고 인식장치를 개략적으로 도시한 블록도이다.1 is a block diagram schematically showing a traffic accident recognition apparatus according to an embodiment of the present invention.

도 1에 도시된 바와 같이, 일 실시예에 따른 교통사고 인식장치(100)는 도로정보 수집부(10), 사고정보 추출부(20), 객체정보 전처리부(30) 및 사고 판단부(40)를 포함한다. As shown in FIG. 1, the traffic accident recognition apparatus 100 according to an embodiment includes a road information collector 10, an accident information extractor 20, an object information preprocessor 30, and an accident determiner 40. ).

도로정보 수집부(10)는 수집하고자 하는 정보를 수집하기 위해 도로 또는 교차로등 차량 및 사람이 이동할 수 있는 장소의 어느 지점에 설치되는 교통사고 인식장치(100)에 구비되어 영상정보 및 음향정보(Sin)를 획득한다. 도로정보 수집부(10)는 구체적으로는 비디오 카메라, CCTV, 과속감시 카메라, 컴퓨터, 디지털 카메라, 센서 노드 등 도로의 상황을 모니터링 할 수 있는 어떠한 장치로도 구현될 수 있다. 따라서, 이하에서는 도로정보 수집부라는 용어를 대신하여 카메라 혹은 비디오 카메라로 지칭될 수 있으며, 이는 단지 카메라로 한정하여 해석되어서는 안 될 것임에 유의해야 한다. 또한 도로정보 수집부(10)에서 수집된 정보는 외부에 무선 또는 유선으로 연결되는 서버에 데이터로 기록되고 저장되어 향후 검색이 필요한 경우 검색 가능하도록 상기 정보를 전송한다.The road information collection unit 10 is provided in the traffic accident recognition apparatus 100 installed at any point of a place where a vehicle and a person, such as a road or an intersection, can move to collect information to be collected and are provided with image information and sound information ( S in ). Specifically, the road information collecting unit 10 may be implemented as any device capable of monitoring the road situation, such as a video camera, a CCTV, a speed monitoring camera, a computer, a digital camera, and a sensor node. Therefore, the following may be referred to as a camera or a video camera in place of the term road information collection unit, it should be noted that this should not be construed as a camera only. In addition, the information collected by the road information collection unit 10 is recorded and stored as data in a server connected to the outside by wireless or wired, and transmits the information so that it can be searched if a future search is required.

사고정보 추출부(20)는 상기 도로정보 수집부(10)에 수집된 각종 영상정보 및 음향정보로부터 목적하는 교통사고에 관련된 정보를 추출하기 위해 구비된다. 사고정보 추출부(20)는 본래 도로정보 수집부(10)가 수집하는 정보들이 실시간으로 수집되며 교통사고 상황이 아닌 일반적인 교통 흐름에 대한 영상정보 및 도로의 소음, 차량의 경적음 등을 포함할 수 있기 때문에, 적절히 필터링 된 정보만을 사용하기 위한 것이다. 즉, 사고정보 추출부(20)는 획득한 영상정보 중 사고객체 영상정보와 배경 및 전경 영상정보를 구분하여 추출한다. 여기서 영상의 프레임간 차이를 활용하여 영상의 배경과 전경을 구분하는 알고리즘이 사용될 수 있으며, 이러한 알고리즘은 공지되고 미리 결정된 알고리즘일 수 있다. 예를 들면, GMM을 이용한 개체 추적 방법이 사용될 수 있는 것이다.The accident information extracting unit 20 is provided to extract information related to a desired traffic accident from various image information and sound information collected by the road information collecting unit 10. The accident information extracting unit 20 may collect information collected by the road information collecting unit 10 in real time in real time, and may include image information of a general traffic flow, road noise, vehicle horn sound, etc., rather than a traffic accident situation. It is intended to use only properly filtered information. That is, the accident information extracting unit 20 classifies and extracts the customer body image information from the acquired image information and the background and foreground image information. Here, an algorithm for distinguishing a background and a foreground of an image by using a difference between frames of an image may be used, and such an algorithm may be a known and predetermined algorithm. For example, an object tracking method using GMM can be used.

그리고, 사고정보 추출부(20)는 획득한 음향정보 중 노이즈를 제거한다. 즉, 사고에 수반되는 충돌음을 음향정보에서 추출하는데, 여기서는 음향의 주파수, 패턴,크기 등을 토대로 분석하는 방법이 사용될 수 있으며. 이러한 방법을 통해 사고지점의 음원과 교통사고 인식장치(100)간의 거리 및 사고지점이 교통사고 인식장치(100)를 기준으로 어느 방향에 위치하는지 등을 알 수 있게 된다.The accident information extracting unit 20 removes noise from the acquired acoustic information. That is, the collision sound accompanying the accident is extracted from the acoustic information. Here, a method of analyzing based on the frequency, pattern, and size of the sound may be used. Through this method, the distance between the sound source of the accident spot and the traffic accident recognition apparatus 100 and the direction in which the accident spot is located based on the traffic accident recognition apparatus 100 can be known.

객체정보 전처리부(30)는 사고정보 추출부(20)에서 추출된 사고객체의 운동패턴을 분석하여 운동패턴정보를 생성하는데, 본 발명에서는 사고객체의 운동방향과 속도를 이용하여 운동패턴정보를 생성한다. 즉, 사고객체의 운동벡터를 분석하여 사고객체의 운동방향과 그 크기, 운동벡터의 시간에 따른 변화량을 계산하여 후술할 사고 판단부(40)에 제공한다. The object information preprocessor 30 generates the exercise pattern information by analyzing the exercise pattern of the four-customer body extracted by the accident information extractor 20. In the present invention, the exercise pattern information is generated by using the movement direction and the speed of the four-customer body. Create In other words, by analyzing the motion vector of the customer body, the movement direction and the size of the customer body, the amount of change according to the time of the motion vector is calculated and provided to the accident determination unit 40 to be described later.

사고 판단부(40)는, 객체정보 전처리부(30)에서 제공한 사고객체의 운동패턴정보와 사고정보 추출부(20)에서 추출된 음원정보를 이용하여 여기에 계층구조의 판단기법을 적용하여 교통사고 상황인지 여부를 판단하여 이를 출력신호로 생성한다(Sout). 여기의 계층구조의 판단기법이란 단계적 구조를 갖는 판단기법으로 하위계층의 판단에서 일정요건을 만족하는 경우에 상위계층의 판단을 시행함을 의미한다. 이러한 계층구조의 판단기법을 적용하면, 하위계층에서의 요건을 만족하지 못하는 경우에는 상위계층의 요건충족여부를 판단하지 않게 되어 많은 계산량과 메모리를 사용하지 않게 되는 장점이 있다. 반면, 하위계층의 요건을 만족한 경우에 다시 상위계층의 요건충족 여부가 판단되므로 교통사고를 보다높은 신뢰도로 인식할 수 있다. 즉, 규칙 판단의 경우에는 학습이 필요 없기 때문에 실제 적용을 위해서 많은 양의 데이터를 필요로 하지 않은 반면, 확률 기반 판단의 경우에는 데이터의 일부가 유실될 경우에도 적용이 가능하고, 확률 파라미터의 변경을 통해서 다양한 환경에 적응하도록 할 수 있다는 장점이 있어 이와 같은 계층 구조를 통한 판단을 이용하여 양자에 있는 단점을 보완시킬 수 있다.The accident determination unit 40 applies the hierarchical determination technique to the motion pattern information of the customer customer provided by the object information preprocessor 30 and the sound source information extracted from the accident information extraction unit 20. It determines whether it is a traffic accident situation and generates it as an output signal (S out ). Here, the hierarchical judgment technique means that the hierarchical judgment is carried out when the predetermined criteria are satisfied in the judgment of the lower hierarchy. Applying such a hierarchical determination technique, if the requirements of the lower hierarchy are not satisfied, it is not judged whether the requirements of the upper hierarchy are satisfied, and there is an advantage of not using a large amount of computation and memory. On the other hand, if the requirements of the lower class are satisfied, it is determined whether the upper class meets the requirements again, so that the traffic accident can be recognized with higher reliability. That is, in case of rule judgment, since no learning is required, a large amount of data is not required for actual application, while in case of probability-based judgment, it can be applied even when a part of the data is lost. Through the use of this hierarchical structure, the disadvantages of both can be compensated for.

사고 판단부(40)의 상세한 구성 및 작동과정과 본 발명의 일 실시예에 따른 각 부의 상세한 작동과정은 도 2를 이용해 후술한다.Detailed configuration and operation of the accident determination unit 40 and the detailed operation of each unit according to an embodiment of the present invention will be described later with reference to FIG.

도 2는 본 발명의 일 실시예에 따른 교통사고 인식장치의 작동을 설명하기 위해 도시한 도이다.2 is a view for explaining the operation of the traffic accident recognition apparatus according to an embodiment of the present invention.

도 2에 도시된 바와 같이, 일 실시예에 따른 교통사고 인식장치(100)는 비디오 데이터 수집부(110), 음향 데이터 수집부(120), 관심영역(ROI, Region Of Interest)추출부(130), 음원 정보 추출부(140), 객체정보 전처리부(150), 규칙기반 판단부(160) 및 확률기반 판단부(170)를 포함한다.As shown in FIG. 2, the traffic accident recognition apparatus 100 according to an embodiment includes a video data collector 110, an acoustic data collector 120, and a region of interest (ROI) extractor 130. ), The sound source information extractor 140, the object information preprocessor 150, the rule-based determiner 160, and the probability-based determiner 170.

비디오 데이터 수집부(110)와 음향 데이터 수집부(120)는 사고에 관련된 영상과 음성 정보를 기록하기 위하여 이용된다. 먼저 비디오 데이터 수집부(110)는 사고를 인식하기 위한 영상 정보(Sin .1)를 수집하는 부분으로 비디오 카메라나 CCTV 등으로 구성될 수 있음은 상술한 바와 같다. 여기서 수집되는 영상정보는 실시간으로 외부서버의 데이터베이스에 기록되어 이후에 검색할 수 있도록 저장된다.The video data collector 110 and the acoustic data collector 120 are used to record video and audio information related to an accident. First, as described above, the video data collecting unit 110 may be configured as a video camera or a CCTV as a part of collecting image information S in. 1 for recognizing an accident. Image information collected here is recorded in a database of an external server in real time and stored for later retrieval.

음향 데이터 수집부(120)는 사고에 관련된 음향 정보(Sin .2)를 수집하기 위한 것으로 비디오 카메라에 붙어 있는 마이크나 음향을 수집하기 위한 마이크로폰으로 구성될 수 있다. 통상적으로 음향 데이터 수집부(120)와 비디오 데이터 수집부(110)는 하나의 장치로서 일체로 형성되거나, 카메라에 내장된 마이크로폰 등의 형태로 형성될 수 있다.The sound data collector 120 collects sound information (S in .2 ) related to an accident and may be configured as a microphone attached to a video camera or a microphone for collecting sound. Typically, the sound data collector 120 and the video data collector 110 may be integrally formed as one device or may be formed in the form of a microphone built in a camera.

관심영역 추출부(130)는 수집된 영상정보로부터 사고객체(차량, 사람)를 구분하기 위한 것으로 영상의 프레임 간의 차이를 활용하여 영상의 배경과 전경을 구분하는 알고리즘(예: GMM 을 이용한 객체 추적 등)이 사용될 수 있다. 또한, 관심영역 추출부(130)는 객체정보 전처리부에서 사용될 객체들의 기본 정보를 제공하며, 여기서 사용되는 알고리즘은 공개된 알고리즘이나 프로그램이 이용될 수 있다. (예: OpenCV 등) The ROI extractor 130 is used to distinguish the customer (vehicle, person) from the collected image information. An algorithm for distinguishing the background and the foreground of the image by using the difference between the frames of the image (eg object tracking using GMM) Etc.) may be used. In addition, the region of interest extractor 130 provides basic information of objects to be used in the object information preprocessor, and the algorithm used may be a published algorithm or program. (E.g. OpenCV, etc.)

음원정보 추출부(140)는 상기 음향 데이터 수집부(120)에 수집된 음향정보 중 교통사고와 관련된 충돌음을 구분하기 위한 것으로 음향의 주파수, 패턴 및 크기 등을 토대로 분석하는 방법이 이용될 수 있으며, 음원의 거리와 방향을 분석하여 추출한다. 즉, 음성정보 추출부(140)에서는 간단한 규칙을 통해서 일정 이상의 소리 크기, 음향 주파수 패턴에 대해서 사고에 관련된 음향으로 판단하며, 음원의 거리와 방향을 대략적으로 추정한다. 이에 관련된 알고리즘은 공개된 알고리즘이나 프로그램이 활용될 수 있으므로 그 설명은 생략한다.The sound source information extracting unit 140 is for distinguishing a collision sound associated with a traffic accident among the sound information collected by the sound data collecting unit 120, and a method of analyzing the sound source information extracting unit 140 may be used based on the frequency, pattern, and size of the sound. To analyze, extract the distance and direction of the sound source. That is, the voice information extracting unit 140 determines the sound volume related to the accident with respect to a predetermined loudness or acoustic frequency pattern through a simple rule, and roughly estimates the distance and direction of the sound source. Algorithms related to this may be used as disclosed algorithms or programs, and thus description thereof will be omitted.

객체정보 전처리부(150)는 영상정보에서 추출된 관심영역 정보를 이용하여 사고객체들의 운동 방향과 속도를 분석하고 그 결과를 후출할 규칙기반 판단부(160) 와 확률기반 판단부 (170)에 전달한다. 즉, 객체 정보 전처리부(150)는 교통 사고를 판단하기 위한 규칙기반 판단부(160) 와 확률기반 판단부 (170)를 위하여 객체의 운동 방향과 크기, 그리고 운동의 변화량을 계산한다. 객체 정보 전처리부(150)에서 처리하는 항목을 정리하면, 다음 [표 1]과 같다.The object information preprocessor 150 uses the ROI information extracted from the image information to analyze the directions and speeds of the clients and return the results to the rule-based determination unit 160 and the probability-based determination unit 170. To pass. That is, the object information preprocessor 150 calculates the movement direction and size of the object and the amount of change of the movement for the rule-based determination unit 160 and the probability-based determination unit 170 for determining the traffic accident. The items processed by the object information preprocessor 150 are summarized in the following [Table 1].

전처리 항목Preprocessing items 상세 내역details 관심영역(ROI)의 충돌 체크Conflict check of ROI 서로 다른 객체의 ROI영역이 겹치는 범위가 존재하는지 체크한다. 만약 겹치는 영역이 있다면 2개의 객체가 그만큼 근거리에 위치한다는 것을 의미하므로 사고일 확률이 높아진다.Check whether there are overlapping ranges of ROI areas of different objects. If there is an overlapping area, it means that two objects are located in the short distance, which increases the probability of an accident. 객체별 운동벡터 계산Calculation of motion vector by object 주어진 객체의 ROI영역의 중심점의 X, Y 좌표가 프레임마다 변화하는 정도를 계산한다. 이를 통해서 객체의 속도와 방향에 대한 대략적인 정보를 얻을 수 있다.Calculate the degree to which the X and Y coordinates of the center point of the given object's ROI area change from frame to frame. This gives you an overview of the speed and direction of the object. 객체간 운동벡터의
차이 계산
Of motion vector
Calculate Difference
사고 발생시 사고에 관련된 객체들은 운동 방향과 속도가 크게 변화한다. 따라서 사고에 연관된 2개의 객체 사이의 운동벡터의 차이를 계산한 후 그 변화량(증가 or 감소)을 사고 추론에 반영한다.When an accident occurs, the objects related to the accident change the direction and speed of movement greatly. Therefore, after calculating the difference of the motion vectors between two objects involved in the accident, the change amount (increase or decrease) is reflected in the accident inference.

그리고, 객체정보 전처리부(150)에서 시행되는 객체의 운동패턴정보를 생성하는 과정을 도 3 및 도 4에 예시적으로 나타내었다. 즉, 도 3은 관심영역에서의 사고객체의 운동벡터를 도시한 도, 도 4는 본 발명의 객체정보 전처리부에서 객체들 사이의 운동벡터 차이(V1-V2)를 계산하는 과정을 도시한 도이다. 3 and 4 exemplarily illustrate a process of generating motion pattern information of an object to be executed by the object information preprocessor 150. That is, FIG. 3 is a diagram illustrating a motion vector of a customer in a region of interest, and FIG. 4 is a diagram illustrating a process of calculating a motion vector difference (V1-V2) between objects in the object information preprocessor of the present invention. to be.

상기 도 3 및 도 4와 같이, 객체정보 전처리부(150)에서는 객체 1과 객체 2의 운동벡터 변화로부터 운동벡터의 차이를 이용하여 운동패턴정보를 생성하여 후술할 규칙기반 판단부(160)에 제공한다.3 and 4, the object information preprocessor 150 generates the motion pattern information using the difference of the motion vectors from the motion vector change of the object 1 and the object 2 to the rule-based determination unit 160 to be described later. to provide.

규칙기반 판단부(160)는 미리 결정된 규칙에 근거하여 현재 교통사고가 발생한 상황인지를 판단하여 교통사고라고 판단될 경우에는 정확도를 높이기 위하여 확률모델에 기반한 판단을 하는 확률기반 판단부(170)에 최종적인 판단을 맡긴다. 이와 같이, 본 발명에서는 계층구조의 판단기법 즉, 하위계층인 규칙기반 판단부(160)에서의 판단결과를 이용하여 상위계층인 확률기반 판단부(170)의 판단을 거친다.The rule-based determining unit 160 determines whether the current traffic accident has occurred based on a predetermined rule, and if it is determined that the traffic accident is a traffic accident, the rule-based determining unit 160 makes a decision based on the probability model to increase the accuracy. Leave the final judgment. As described above, according to the present invention, the decision method of the hierarchical structure, that is, the rule-based decision unit 160 which is the lower layer, is used to determine the probability-based determination unit 170 which is the upper layer.

즉, 확률기반 방법이 불확실한 현실 상황에서의 사고를 다루기에 더 적합하지만, 확률기반 알고리즘은 많은 계산량과 메모리를 요구하므로 모든 프레임마다 확률 기반 알고리즘을 사용하기는 어려우며, 반대로 규칙기반 방법은 정확도를 보장할 수 없기 때문이다. 따라서 여기서는 2단계 계층구조로 먼저 규칙기반 방법을 통해서 현재 교통사고 상황인지를 판단하고, 교통사고 상황과 유사하다고 판단될 경우에는 확률 기반 방법을 이용하여 보다 정확한 판단 결과를 얻는 것이다.In other words, although probability-based methods are better suited to deal with thinking in uncertain real-world situations, probability-based algorithms require a lot of computation and memory, making it difficult to use probability-based algorithms every frame, whereas rule-based methods guarantee accuracy. Because you can't. Therefore, in this case, the two-level hierarchical structure is used to first determine whether the current traffic accident situation is performed through the rule-based method, and when it is determined to be similar to the traffic accident situation, a more accurate judgment result is obtained by using a probability-based method.

이하에서, 계층구조의 판단기법을 적용하는 과정은 도 5를 이용하여 상세히 설명한다.Hereinafter, a process of applying the hierarchical determination method will be described in detail with reference to FIG. 5.

도 5는 본 발명의 일 실시예에 따라 교통사고 상황을 판단하기 위해 계층구조의 판단기법을 적용하는 과정을 설명하기 위해 도시한 도이다.5 is a diagram illustrating a process of applying a hierarchical determination technique to determine a traffic accident situation according to an embodiment of the present invention.

도 5에 도시된 바를 참조하면, 규칙기반 판단부(160)는 특징값으로서 객체 간의 운동벡터 차이의 변화량을 기록하여 사용한다. 일반적으로 교통사고가 발생하면 교통사고에 관련된 객체 (차량, 사람)들은 그 운동 방향과 속도가 크게 변화한다. 따라서 이전 상태의 운동 상태와 현재 상태의 운동 상태에 현저한 차이가 발생한다면, 그 상황을 사고가 발생한 것이라고 가정할 수 있다. 객체정보 전처리부(30)에서 제공된 객체간 운동벡터의 차이를 바탕으로 시간별 변화량을 계산하여 그 값이 미리 결정된 기준값(a)을 넘어서면 교통사고로 판단한다.Referring to FIG. 5, the rule-based determination unit 160 records and uses a change amount of a motion vector difference between objects as a feature value. In general, when a traffic accident occurs, the objects (vehicles and people) related to the traffic accidents change their direction and speed greatly. Therefore, if there is a significant difference between the exercise state of the previous state and the exercise state of the current state, it can be assumed that the accident occurred. Based on the difference in the motion vectors between the objects provided by the object information pre-processing unit 30 calculates the amount of change over time, if the value exceeds the predetermined reference value (a) it is determined as a traffic accident.

다음으로, 확률기반 판단부 (170)는 관심영역의 충돌 체크 결과(관심영역의 중복여부), 운동벡터 변화량의 차이, 객체의 속도, 객체의 방향, 객체의 운동이 지속되고 있는지 등을 고려하여 확률모델을 구성하고, 수집된 정보들을 바탕으로 사고가 발생했을 확률을 0~1 사이의 값으로 반환한다. 확률 모델에는Hidden Markov Model, Conditional Random Field, Bayesian network 등 여러 가지 방법이 존재하지만, 여기서는 Bayesian network를 사용하는 것이 바람직하다. 베이지안 네트워크(Bayesian network)는 변수들 간의 관계를 그래프 형태로 모델링 하는 방법으로 확률적으로 추론하는 과정에서 변수가 많아질수록 계산량이 기하급수적으로 증가하는 확률모델의 단점을 극복하고 현실적으로 사용 가능하게 만들어준다. 도 6은 이러한 예를 도시한 그림으로, 본 발명의 일 실시예에 따른 교통사고 인식장치에서 확률기반 판단기법으로 베이시안 네트워크를 활용한 예를 설명하기 위해 도시한 도이다.Next, the probability-based determination unit 170 considers the collision check result of the region of interest (whether the region of interest overlaps), the difference in the amount of change in the motion vector, the speed of the object, the direction of the object, whether the movement of the object continues, etc. Construct a probabilistic model, and return the probability that the accident occurred based on the collected information as a value between 0 and 1. There are various methods in the probabilistic model such as Hidden Markov Model, Conditional Random Field, Bayesian network, but it is preferable to use Bayesian network here. Bayesian network is a method of modeling the relationship between variables in the form of a graph. In the process of probabilistic inference, the number of variables increases and the computational amount increases exponentially. give. FIG. 6 is a diagram illustrating such an example, and illustrates an example of using a Bayesian network as a probability-based determination method in a traffic accident recognition apparatus according to an exemplary embodiment of the present invention.

지금까지는 하나의 카메라와 마이크로폰에서 수집한 정보를 바탕으로 교통사고를 인식하는 방법에 대하여 설명하였으나, 교차로의 경우 각도에 따라 여러 대의 카메라와 마이크로폰이 설치될 수 있다. 이런 환경에서는 카메라에서 수집된 정보를 통합하여 각각의 카메라에서 수집된 정보만 이용하는 것보다 높은 정확도를 확보할 수 있다. 여기서는 그런 경우에 정보를 융합하기 위한 본 발명의 다른 실시예에 따른 교통사고 인식장치를 도 7, 도 8 및 도 9를 통해 설명한다.Until now, a method of recognizing a traffic accident based on information collected from a single camera and a microphone has been described. However, in the case of an intersection, several cameras and microphones may be installed depending on an angle. In this environment, the information collected from the cameras can be integrated to achieve higher accuracy than using only the information collected from each camera. Here, a traffic accident recognition apparatus according to another embodiment of the present invention for fusing information in such a case will be described with reference to FIGS. 7, 8, and 9.

도 7은 본 발명의 다른 실시예에 따른 교통사고 인식장치를 개략적으로 도시한 블록도, 도 8은 본 발명의 다른 실시예에 따른 교통사고 인식장치를 이용하여 정보를 획득하는 모습을 설명하기 위해 도시한 도, 도 9는 본 발명의 다른 실시예에 따른 교통사고 인식장치에서 수집된 여러 정보를 하나의 융합된 정보로 형성하는 과정을 설명하기 위해 도시한 도면이다.FIG. 7 is a block diagram schematically illustrating an apparatus for recognizing a traffic accident according to another exemplary embodiment of the present invention. FIG. 8 is a view for explaining how information is acquired using the apparatus for recognizing a traffic accident according to another exemplary embodiment of the present invention. FIG. 9 is a view illustrating a process of forming various pieces of information collected by a traffic accident recognition apparatus according to another embodiment of the present invention into one fused information.

도 7에 도시된 바와 같이, 다른 실시예에 따른 교통사고 인식장치(700)는 N개의 도로정보 수집부(700), 사고정보 추출부(20), 객체정보 전처리부(30), 정보 융합부(70) 및 사고 판단부(40)를 포함한다. 여기서, 사고정보 추출부(20), 객체정보 전처리부(30) 및 사고 판단부(40)에 대한 설명은 상술한 바와 중복되므로 그 설명을 생략한다. As shown in FIG. 7, the traffic accident recognition apparatus 700 according to another embodiment includes N road information collecting units 700, an accident information extracting unit 20, an object information preprocessor 30, and an information fusion unit. 70 and the accident determination unit 40. Here, the descriptions of the accident information extracting unit 20, the object information preprocessor 30, and the accident determining unit 40 overlap with those described above, and thus description thereof will be omitted.

N개의 도로정보 수집부(10)는 일 실시예에서 설명한 바 있는 도로정보 수집부를 복수개로 구비하여 교차로 또는 도로 등 차량과 사람이 통행하는 장소로부터 영상정보 및 음향정보(Sin)를 수집하기 위해 구비된다. 복수개의 도로정보 수집부는 미리 결정된 위치에 배열, 설치되는 것으로 실제 구현예에서는 교차로의 신호등, 가로수, 가로등 등의 구조물에 설치될 수 있을 것이다.N road information collecting units 10 are provided with a plurality of road information collecting units as described in an embodiment to collect image information and sound information (Sin) from places where vehicles and people pass, such as intersections or roads. do. The plurality of road information collectors are arranged and installed at a predetermined location, and in a practical embodiment, they may be installed in structures such as traffic lights, roadside trees, and streetlights at intersections.

정보 융합부(70)는 객체정보 전처리부(30)에서 생성된 운동패턴정보들에 미리 결정된 알고리즘을 적용하여 융합된 정보로 생성하는데 이하에서는 이에 대해 상세히 설명한다.The information fusion unit 70 generates fused information by applying a predetermined algorithm to the exercise pattern information generated by the object information preprocessor 30, which will be described in detail below.

도 8은 여러 대의 카메라와 마이크로폰이 설치된 교차로에서의 상황을 보여주고 있다. 이와 같이 여러 대의 카메라가 설치된 경우에는 하나의 사고가 여러 대의 카메라에 촬영되었을 경우, 여러 대의 카메라에서 올라온 정보를 종합하여 판단할 수 있는 알고리즘이 필요하다. 여기서는 음향정보가 존재하며, 음향정보로부터 사고 발생 현장까지의 거리와 각도를 파악할 수 있는 경우를 가정한다. 8 shows the situation at the intersection with several cameras and microphones. When multiple cameras are installed as described above, when an accident is photographed by multiple cameras, an algorithm capable of combining the information from the multiple cameras may be needed. In this case, it is assumed that the acoustic information exists and the distance and angle from the acoustic information to the scene of the accident can be determined.

영상정보를 종합하기 위하여 사고발생 현장과 카메라의 거리, 각도를 기준으로 카메라에서 올라온 데이터들을 조합하여 절대 좌표계의 데이터로 변환한 이후에 결합하는 방법을 사용한다. 그 과정은 다음의 2 단계로 이루어진다.
In order to synthesize the image information, the data from the camera are combined based on the distance and angle of the accident site and the camera is converted into absolute coordinate data and then combined. The process consists of two steps:

(1단계) 카메라에서 사고 발생 현장의 각도를 이용한 운동벡터의 방향 변환(Step 1) Change the direction of the motion vector using the angle of the scene where the accident occurred in the camera

카메라와 사고 발생 현장의 각도가 주어질 경우, 카메라의 정면에서 잡힌 좌표계로 1차 변환한다. 그리고 카메라 자체의 각도를 고려하여 2차 변환을 수행한다. 최종적으로 절대좌표계의 운동벡터를 계산한다. 그 계산은 하기의 [수학식 1]과 같이 진행된다.Given the angle of the camera and the scene of the accident, it is primarily transformed into a coordinate system taken from the front of the camera. Second order transformation is performed by considering the angle of the camera itself. Finally, the motion vector of the world coordinate system is calculated. The calculation proceeds as shown in Equation 1 below.

[수학식 1][Equation 1]

Figure pat00001
Figure pat00001

여기서,

Figure pat00002
은 카메라1(11)에서 관측된 객체의 운동벡터,
Figure pat00003
은 카메라1(11)과 사고지점과의 수직방향 각도,
Figure pat00004
은 카메라1(11)의 정면방향과 사고지점과의 수평방향 각도,
Figure pat00005
는 절대좌표값으로 변환된 운동벡터를 의미한다. 여기서는 예시적으로 카메라1(11)의 경우만을 설명하였으나, N개로 구비된 카메라 모두에 대하여 같은 방법으로 계산이 진행됨은 자명하다.
here,
Figure pat00002
Is the motion vector of the object observed from camera 1 (11),
Figure pat00003
Is the vertical angle between the camera 1 (11) and the accident location,
Figure pat00004
Is the horizontal angle between the front direction of the camera 1 (11) and the accident location,
Figure pat00005
Denotes a motion vector converted to an absolute coordinate value. Here, only the case of the camera 1 (11) is described as an example, but it is obvious that the calculation is performed in the same manner for all the cameras provided with N.

(2단계) 카메라에서 사고지점까지의 거리를 이용한 운동벡터의 크기 변환(Step 2) Size conversion of motion vector using distance from camera to accident spot

각 카메라에서 잡힌 운동벡터의 크기를 융합하기 위하여 각각의 카메라에서 사고지점까지의 거리에 반비례하는 상수를 가중치로 주어 결합한다. 이는 하기의 [수학식 2]와 같이 진행된다.In order to fuse the magnitudes of the motion vectors captured by each camera, they are combined by weighting constants that are inversely proportional to the distance from each camera to the point of accident. This progresses as shown in Equation 2 below.

[수학식 2][Equation 2]

Figure pat00006
Figure pat00006

여기서,

Figure pat00007
,
Figure pat00008
,
Figure pat00009
는 카메라1,2,3에서 사고지점까지의 거리에 반비례하는 상수로
Figure pat00010
+
Figure pat00011
+
Figure pat00012
=1.0임,
Figure pat00013
는 카메라 1(11)에서 관측된 운동벡터의 각도변환 운동벡터,
Figure pat00014
는 카메라 2(12)에서 관측된 운동벡터의 각도변환 운동벡터,
Figure pat00015
는 카메라 3(13)에서 관측된 운동벡터의 각도변환 운동벡터,
Figure pat00016
은 융합된 운동벡터이다. here,
Figure pat00007
,
Figure pat00008
,
Figure pat00009
Is a constant that is inversely proportional to the distance from the camera 1, 2, 3 to the accident
Figure pat00010
+
Figure pat00011
+
Figure pat00012
= 1.0,
Figure pat00013
Is the angular transformation motion vector of the motion vector observed from Camera 1 (11),
Figure pat00014
Is the angular transformation motion vector of the motion vector observed from Camera 2 (12),
Figure pat00015
Is the angular transformation motion vector of the motion vector observed by camera 3 (13),
Figure pat00016
Is the fused motion vector.

여기서는 예시적으로 3대의 카메라를 사용하는 경우에 대한 설명을 하였으나, 카메라의 개수에 따라 상기 수학식2의 항 수는 다양하게 변경될 수 있다.Here, an example of using three cameras has been described, but the number of terms of Equation 2 may be variously changed according to the number of cameras.

이와 같이, N개의 카메라로부터 얻은 객체의 운동벡터가 결합되면, 최종적으로 이 결합된 정보를 활용하여 교통사고 상황의 인식을 진행한다. 도 9는 이에 대한 전체적인 과정을 개략적으로 보여주는 도면이다. 즉, 좌표계 변환된 운동벡터들에 가중치를 부여한 값을 조합하여 융합된 정보를 형성하고 이를 이용하여 교통사고 상황을 인식한다. 이러한 융합된 정보를 이용하여 교통사고인지 여부를 판단하는 과정은 상술한 계층구조의 판단기법이 적용되는 것이므로 여기서는 중복설명을 하지 않는다.In this way, when motion vectors of objects obtained from N cameras are combined, finally, the combined information is used to recognize a traffic accident situation. 9 is a view schematically showing the overall process for this. That is, a combination of weighted values of coordinate system transformed motion vectors is formed to form fused information, and the traffic accident situation is recognized using the information. The process of determining whether or not a traffic accident using the converged information is applied to the above-described hierarchical determination technique, and thus no duplicate description will be given here.

다음으로 본 발명의 일실시예 및 다른 실시예에 따른 교통사고의 인식방법에 관한 설명을 개시한다.Next, a description will be given of a method for recognizing a traffic accident according to an embodiment of the present invention and another embodiment.

도 10은 본 발명에 따른 교통사고의 인식방법을 설명하기 위해 도시한 플로우 차트이다.10 is a flowchart illustrating a method of recognizing a traffic accident according to the present invention.

도 10에 도시된 바와 같이, 교통사고의 인식방법은, 영상정보 및 음향정보를 수집하는 단계(S10), 사고객체의 영상정보 추출 및 음원정보를 추출하는 단계(S20), 사고객체의 운동패턴을 분석하는 단계(S30), 운동패턴정보 및 음원정보에 규칙기반 판단을 적용하는 단계(S40) 및 확률모델을 사용하여 확률기반 판단을 적용하는 단계(S50)를 포함한다. 이러한 단계들에 의해 이루어지는 교통사고의 인식방법에 관한 설명은 본 발명의 일 실시예에 따른 교통사고 인식장치를 설명한 부부을 참조하면 명확히 이해될 것이므로 여기서는 명세서의 기재를 간결히 하기 위해 그 설명을 생략한다.As shown in FIG. 10, the traffic accident recognition method includes collecting image information and sound information (S10), extracting image information of a customer's body, and extracting sound source information (S20), and an exercise pattern of the customer's body. Analyzing (S30), applying the rule-based determination to the exercise pattern information and the sound source information (S40), and applying the probability-based determination using the probability model (S50). The description of the method of recognizing a traffic accident made by these steps will be clearly understood with reference to the couple who described the traffic accident recognition apparatus according to an embodiment of the present invention, and thus the description thereof is omitted for the sake of brevity. .

이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 이는 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 따라서, 본 발명 사상은 아래에 기재된 특허청구범위에 의해서만 파악되어야 하고, 이의 균등 또는 등가적 변형 모두는 본 발명의 사상적 범주에 속한다.As described above, the present invention has been described by way of limited embodiments and drawings, but the present invention is not limited to the above-described embodiments, which can be variously modified and modified by those skilled in the art to which the present invention pertains. Modifications are possible. Accordingly, it is intended that the scope of the invention be defined solely by the claims appended hereto, and that all equivalents or equivalent variations thereof fall within the spirit and scope of the invention.

10:도로정보 수집부 20:사고정보 추출부
30:객체정보 전처리부 40:사고 판단부
110:비디오 데이터 수집부 120:음향 데이터 수집부
130:관심영역 추출부 140:관심영역 추출부
160:규칙기반 판단부 170:확률기반 판단부
10: road information collection unit 20: accident information extraction unit
30: object information preprocessing unit 40: accident judgment unit
110: video data collection unit 120: sound data collection unit
130: region of interest extraction unit 140: region of interest extraction unit
160: rule-based decision unit 170: probability-based decision unit

Claims (17)

교통사고 인식장치에 있어서,
도로의 영상정보 및 음향정보를 수집하는 도로정보 수집부;
상기 영상정보 중 배경에 관한 영상을 제외한 사고객체 영상정보를 추출하고, 상기 음향정보 중 교통사고로 발생하는 충돌음의 음원정보를 추출하는 사고정보 추출부;
상기 사고객체 영상정보에서 사고객체의 운동벡터의 변화량에 관한 정보인 운동패턴정보를 생성하는 객체정보 전처리부; 및
상기 운동패턴정보에 미리 결정된 규칙을 적용하여 교통사고 상황인지 여부를 판단하고, 교통사고 상황으로 판단된 경우 확률모델에 기반한 확률판단을 시행하여 교통사고 상황인지를 확정하는 사고 판단부를 포함하는 교통사고 인식장치.
In the traffic accident recognition device,
A road information collector configured to collect image and sound information of a road;
An accident information extracting unit extracting customer information except for a background image from the image information, and extracting sound source information of a collision sound generated by a traffic accident among the sound information;
An object information pre-processing unit for generating exercise pattern information which is information about a change amount of the motion vector of the customer body in the customer body image information; And
A traffic accident including an accident determination unit that determines whether or not the traffic accident situation by applying a predetermined rule to the exercise pattern information, and determines whether or not the traffic accident situation by performing a probability judgment based on a probability model when the traffic accident situation is determined. Recognition device.
제1항에 있어서, 상기 사고정보 추출부는
상기 도로의 영상정보에 미리 결정된 알고리즘을 적용하여 관심영역인 사고 객체의 영상정보를 추출하는 관심영역(ROI,Region Of Interest)추출부; 및
상기 충돌음을 이용하여 사고지점에서 발생한 음원과 상기 교통사고 인식장치간의 거리 및 상기 음원의 발생 방향에 대한 정보인 음원정보를 추출하는 음원정보 추출부를 포함하는 것을 특징으로 하는 교통사고 인식장치.
According to claim 1, wherein the accident information extraction unit
A region of interest (ROI) extraction unit for extracting image information of an accident object which is a region of interest by applying a predetermined algorithm to the image information of the road; And
And a sound source information extraction unit for extracting sound source information which is information on a distance between the sound source generated at the accident site and the traffic accident recognition device and the direction in which the sound source is generated using the collision sound.
제1항에 있어서,
상기 사고정보 추출부에서 추출되는 음원정보는 상기 음향정보 중 미리 설정된 크기 이상의 소리 또는 미리 결정된 주파수 패턴과의 불일치 정도를 고려하여 획득되는 것을 특징으로 하는 교통사고 인식장치.
The method of claim 1,
The sound source information extracted by the accident information extracting unit is obtained in consideration of the degree of inconsistency with a predetermined size or more than a predetermined size of the sound information or a predetermined frequency pattern.
제1항에 있어서, 상기 사고 판단부는,
상기 운동패턴정보에 미리 결정된 규칙을 적용하여 교통사고 상황을 판단하는 규칙기반 판단부; 및
상기 규칙기판 판단부에서 교통사고 상황이라고 판단된 경우, 상기 사고정보 추출부에서 추출된 음원정보와, 상기 객체정보 전처리부에서 생성된 운동패턴정보에 확률모델을 적용하여 교통사고 상황인지를 확정하는 확률기반 판단부를 포함하는 것을 특징으로 하는 교통사고 인식장치.
The method of claim 1, wherein the accident determination unit,
A rule-based decision unit which determines a traffic accident situation by applying a predetermined rule to the exercise pattern information; And
If it is determined that the traffic accident situation is determined by the ruler determining unit, the probability information is determined by applying a probabilistic model to the sound source information extracted by the accident information extraction unit and the exercise pattern information generated by the object information preprocessor. Traffic accident recognition apparatus comprising a probability-based determination unit.
제1항에 있어서, 상기 도로정보 수집부는
상기 도로의 영상정보를 수집하여 외부의 서버에 기록하는 비디오 데이터 수집부; 및
상기 도로의 음향정보를 수집하여 상기 서버에 기록하는 음향 데이터 수집부를 포함하는 것을 특징으로 하는 교통사고 인식장치.
According to claim 1, wherein the road information collecting unit
A video data collection unit for collecting the image information of the road and recording it to an external server; And
And a sound data collecting unit for collecting the sound information of the road and recording the same to the server.
제4항에 있어서, 상기 규칙기반 판단부는
상기 객체정보 전처리부에서 생성된 운동패턴정보의 시간별 변화량을 계산한 결과를 생성하여 상기 결과가 미리 결정된 기준값을 초과하는 경우에 교통사고 상황이라고 판단하는 것을 특징으로 하는 교통사고 인식장치.
The apparatus of claim 4, wherein the rule-based determination unit
And generating a result of calculating a time-based change amount of the exercise pattern information generated by the object information preprocessing unit and determining that the traffic accident situation occurs when the result exceeds a predetermined reference value.
제4항에 있어서, 상기 확률기반 판단부는
상기 확률모델로서 베이지안 네트워크(Bayesian Network)를 이용하는 것을 특징으로 하는 교통사고 인식장치.
The method of claim 4, wherein the probability-based determination unit
Traffic accident recognition apparatus using a Bayesian network as the probability model.
미리 결정된 위치에 설치되도록 복수개로 구비되는 교통사고 인식장치에 있어서,
도로의 영상정보 및 음향정보를 수집하는 도로정보 수집부;
상기 영상정보 중 배경에 관한 영상을 제외한 사고객체 영상정보를 추출하고, 상기 음향정보 중 교통사고로 발생하는 충돌음의 음원정보를 추출하도록 구비되는 사고정보 추출부;
상기 사고객체 영상정보에서 사고객체의 운동벡터의 변화량에 관한 정보인 운동패턴정보를 생성하는 객체정보 전처리부;
상기 객체정보 전처리부에서 생성된 운동패턴정보에 미리 결정된 알고리즘을 적용하여 융합된 정보로 생성하는 정보 융합부; 및
상기 정보 융합부에서 생성된 융합된 정보에 미리 결정된 규칙을 적용하여 교통사고 상황인지 여부를 판단하고, 교통사고 상황으로 판단된 경우 확률모델에 기반한 확률판단을 시행하여 교통사고 상황인지를 확정하는 사고 판단부를 포함하는 교통사고 인식장치.
In the traffic accident recognition device provided with a plurality to be installed in a predetermined position,
A road information collector configured to collect image and sound information of a road;
An accident information extracting unit configured to extract image data of the customer body except for the background image from the image information, and extract sound source information of a collision sound generated by a traffic accident among the sound information;
An object information pre-processing unit for generating exercise pattern information which is information about a change amount of the motion vector of the customer body in the customer body image information;
An information fusion unit generating fused information by applying a predetermined algorithm to the exercise pattern information generated by the object information preprocessor; And
Determine whether the traffic accident situation by applying a predetermined rule to the converged information generated by the information fusion unit, and if it is determined that the traffic accident situation is determined to determine whether the traffic accident situation by performing a probability judgment based on a probability model Traffic accident recognition device comprising a determination unit.
제8항에 있어서, 상기 사고정보 추출부는
상기 영상정보에 미리 결정된 알고리즘을 적용하여 관심영역인 사고객체의 영상정보들을 추출하는 관심영역(ROI,Region Of Interest)추출부; 및
상기 충돌음을 이용하여 사고지점에서 발생한 음원과 상기 교통사고 인식장치간의 거리 및 상기 음원의 발생 방향에 대한 정보인 음원정보를 추출하는 음원정보 추출부를 포함하는 것을 특징으로 하는 교통사고 인식장치.
The method of claim 8, wherein the accident information extraction unit
A region of interest (ROI) extracting unit for extracting image information of a customer, which is a region of interest, by applying a predetermined algorithm to the image information; And
And a sound source information extraction unit for extracting sound source information which is information on a distance between the sound source generated at the accident site and the traffic accident recognition device and the direction in which the sound source is generated using the collision sound.
제8항에 있어서, 상기 정보 융합부는
상기 복수개의 교통사고 인식장치의 객체정보 전처리부에서 생성된 운동벡터정보를 각각 절대좌표계의 운동벡터로 형성하고, 상기 절대좌표계의 운동벡터를 결합하여 융합된 운동벡터를 생성하는 것을 특징으로 하는 교통사고 인식장치.
The method of claim 8, wherein the information fusion unit
The motion vector information generated by the object information preprocessor of the plurality of traffic accident recognition apparatuses is formed as a motion vector of the absolute coordinate system, and the motion vector of the absolute coordinate system is combined to generate a fused motion vector. Incident Recognition Device.
제10항에 있어서,
상기 절대좌표계의 운동벡터는 상기 사고정보 추출부에서 추출된 음원정보와 상기 도로정보 수집부의 수직방향 각도 및 도로정보 수집부의 정면방향과 상기 음원과의 수평방향 각도를 이용하여 형성하고,
상기 융합된 운동벡터는 상기 절대좌표계의 운동벡터에 상기 음원정보에 포함된 음원과 상기 도로정보 수집부와의 거리에 반비례하는 상수를 가중치로 부여한 값들을 결합하여 생성하는 것을 특징으로 하는 교통사고 인식장치.
The method of claim 10,
The motion vector of the absolute coordinate system is formed by using the sound source information extracted from the accident information extracting unit, the vertical angle of the road information collecting unit, the front direction of the road information collecting unit, and the horizontal angle of the sound source,
The fused motion vector is generated by combining a motion vector of the absolute coordinate system with a weight value of a constant inversely proportional to the distance between the sound source included in the sound source information and the road information collecting unit. Device.
교통사고의 인식방법에 있어서,
(a) 도로의 영상정보 및 음향정보를 수집하는 단계;
(b) 상기 영상정보 중 배경에 관한 영상을 제외한 사고객체 영상정보를 추출하고, 상기 음향정보 중 교통사고로 발생하는 충돌음의 음원정보를 추출하는 단계;
(c) 상기 사고객체 영상정보에서 사고객체의 운동벡터의 변화량에 관한 정보인 운동패턴정보를 생성하는 단계;
(d) 상기 (c)단계에서 생성된 운동패턴정보에 미리 결정된 규칙을 적용하여 교통사고 상황을 판단하는 단계; 및
(e) 상기 (d)단계에서 교통사고 상황이라고 판단된 경우, 상기 (b)단계에서 추출된 음원정보와, 상기 (c)단계에서 생성된 운동패턴정보에 확률모델을 적용하여 교통사고 상황인지를 확정하는 단계를 포함하는 것을 특징으로 하는 교통사고의 인식방법.
In the recognition method of traffic accidents,
(a) collecting image information and sound information of a road;
(b) extracting customer image information except for a background image from the image information, and extracting sound source information of a collision sound generated by a traffic accident from the sound information;
(c) generating motion pattern information which is information about a change amount of the motion vector of the customer customer in the customer customer image information;
(d) determining a traffic accident situation by applying a predetermined rule to the exercise pattern information generated in step (c); And
(e) If it is determined that the traffic accident situation in step (d), whether the traffic accident situation by applying a probabilistic model to the sound source information extracted in step (b) and the exercise pattern information generated in step (c) Recognizing a traffic accident comprising the step of determining.
제12항에 있어서, 상기 (d)단계는
상기 운동패턴정보의 시간별 변화량을 계산한 결과를 생성하여 상기 결과가 미리 결정된 기준값을 초과하는 경우에 교통사고 상황이라고 판단하는 것을 특징으로 하는 교통사고의 인식방법.
The method of claim 12, wherein step (d)
And generating a result of calculating a change amount of time of the exercise pattern information to determine a traffic accident situation when the result exceeds a predetermined reference value.
제12항에 있어서,
상기 (e)단계의 확률모델은 베이지안 네트워크(Bayesian Network)를 이용하는 것을 특징으로 하는 교통사고의 인식방법.
The method of claim 12,
The probability model of step (e) is a traffic accident recognition method characterized in that using the Bayesian Network (Bayesian Network).
미리 결정된 위치에 설치되는 복수개의 교통사고 인식장치를 이용하는 교통사고의 인식방법에 있어서,
(a) 도로의 영상정보 및 음향정보를 수집하는 단계;
(b) 상기 영상정보 중 배경에 관한 영상을 제외한 사고객체 영상정보를 추출하고, 상기 음향정보 중 교통사고로 발생하는 충돌음의 음원정보를 추출하는 단계;
(c) 상기 사고객체 영상정보에서 사고객체의 운동벡터의 변화량에 관한 정보인 운동패턴정보를 생성하는 단계;
(d) 상기 운동패턴정보에 미리 결정된 알고리즘을 적용하여 융합된 정보로 생성하는 단계;
(e) 상기 (d)단계에서 생성된 융합된 정보에 미리 결정된 규칙을 적용하여 교통사고 상황을 판단하는 단계; 및
(f) 상기 (e)단계에서 교통사고 상황이라고 판단된 경우, 상기 (b)단계에서 추출된 음원정보와, 상기 (d)단계에서 생성된 운동패턴정보에 확률모델을 적용하여 교통사고 상황인지를 확정하는 단계를 포함하는 것을 특징으로 하는 교통사고의 인식방법.
In the traffic accident recognition method using a plurality of traffic accident recognition apparatus installed in a predetermined position,
(a) collecting image information and sound information of a road;
(b) extracting customer image information except for a background image from the image information, and extracting sound source information of a collision sound generated by a traffic accident from the sound information;
(c) generating motion pattern information which is information about a change amount of the motion vector of the customer customer in the customer customer image information;
(d) generating a fused information by applying a predetermined algorithm to the motion pattern information;
(e) determining a traffic accident situation by applying a predetermined rule to the fused information generated in step (d); And
(f) If it is determined that the traffic accident situation in step (e), whether the traffic accident situation by applying a probabilistic model to the sound source information extracted in step (b) and the exercise pattern information generated in step (d) Recognizing a traffic accident comprising the step of determining.
제15항에 있어서, 상기 (e)단계는
(e1) 상기 운동패턴정보를 절대좌표계의 운동벡터로 형성하는 단계; 및
(e2) 상기 (e1)단계에서 형성된 절대좌표계의 운동벡터를 결합하여 융합된 운동벡터를 생성하는 단계를 포함하는 것을 특징으로 하는 교통사고의 인식방법.
The method of claim 15, wherein step (e)
(e1) forming the motion pattern information as a motion vector of an absolute coordinate system; And
(e2) generating a fused motion vector by combining the motion vectors of the absolute coordinate system formed in step (e1).
제15항에 있어서,
상기 (f)단계의 확률모델은 베이지안 네트워크(Bayesian Network)를 이용하는 것을 특징으로 하는 교통사고의 인식방법.
16. The method of claim 15,
The probability model of step (f) is a traffic accident recognition method characterized in that using the Bayesian Network (Bayesian Network).
KR1020100041384A 2010-05-03 2010-05-03 Apparatus and Method for Traffic Accident Recognition KR101116273B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100041384A KR101116273B1 (en) 2010-05-03 2010-05-03 Apparatus and Method for Traffic Accident Recognition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100041384A KR101116273B1 (en) 2010-05-03 2010-05-03 Apparatus and Method for Traffic Accident Recognition

Publications (2)

Publication Number Publication Date
KR20110121885A true KR20110121885A (en) 2011-11-09
KR101116273B1 KR101116273B1 (en) 2012-03-14

Family

ID=45392603

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100041384A KR101116273B1 (en) 2010-05-03 2010-05-03 Apparatus and Method for Traffic Accident Recognition

Country Status (1)

Country Link
KR (1) KR101116273B1 (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101428008B1 (en) * 2013-03-07 2014-08-07 (주)디텍씨큐리티 Black box apparatus having function of accident detection and accident detection method thereof
KR101526673B1 (en) * 2013-07-25 2015-06-05 현대자동차주식회사 Method for search image data of black box
WO2015137658A1 (en) * 2014-03-13 2015-09-17 재단법인 다차원 스마트 아이티 융합시스템 연구단 Apparatus and method for storing image on basis of input sound signal
KR101676324B1 (en) * 2016-02-17 2016-11-17 (주)아이비로시스템 The monitoring system for transportation field
KR101685900B1 (en) * 2016-07-06 2016-12-13 이용호 Monitoring system for Intersection detection accident
KR101696801B1 (en) * 2016-10-21 2017-01-16 이형각 integrated image monitoring system based on IoT camera
CN106997510A (en) * 2017-04-01 2017-08-01 南京国电南自轨道交通工程有限公司 A kind of rule-based accident picture and emergency preplan method for pushing
KR20180127245A (en) * 2017-05-19 2018-11-28 한국과학기술원 Method for Predicting Vehicle Collision Using Data Collected from Video Games
KR20210029170A (en) * 2021-02-23 2021-03-15 조영빈 Safty Management System with Image Object Recognition and Video data Recording for Personal Mobility, and Control Method Thereof
KR20220144116A (en) * 2021-04-19 2022-10-26 주식회사 디알에스 How to predict the occurrence of black ice
KR20220144115A (en) * 2021-04-19 2022-10-26 주식회사 디알에스 A method for predicting the occurrence of black ice using acoustic images
KR102625231B1 (en) * 2023-02-03 2024-01-16 주식회사 디비엔텍 Video accident detection system and video accident detection method in the tunnel with improved stop detection malfunction rate by applying the method for determining unexpected situations/traffic congestion in the tunnel through real-time traffic flow analysis

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101669885B1 (en) * 2016-05-30 2016-10-27 이형각 method of detecting pedestrian collision and IoT apparatus thereof
KR102246462B1 (en) * 2020-06-15 2021-04-30 주식회사 스칼라웍스 Intelligent edge-based road traffic situation recognition method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007280407A (en) 2007-05-01 2007-10-25 Sumitomo Electric Ind Ltd Traffic terminal device and accident detection system
KR100853444B1 (en) 2007-07-09 2008-08-21 전북대학교산학협력단 Method of sensing car accidents
KR100827224B1 (en) 2007-10-31 2008-05-07 (주)경봉 Real time traffic accident sensing signal lamp

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101428008B1 (en) * 2013-03-07 2014-08-07 (주)디텍씨큐리티 Black box apparatus having function of accident detection and accident detection method thereof
KR101526673B1 (en) * 2013-07-25 2015-06-05 현대자동차주식회사 Method for search image data of black box
WO2015137658A1 (en) * 2014-03-13 2015-09-17 재단법인 다차원 스마트 아이티 융합시스템 연구단 Apparatus and method for storing image on basis of input sound signal
CN106163907A (en) * 2014-03-13 2016-11-23 财团法人多次元智能It融合系统研究团 Image storage device based on input audio signal and method
US10150447B2 (en) 2014-03-13 2018-12-11 Center For Integrated Smart Sensors Foundation Apparatus and method for storing image on basis of input sound signal
CN106163907B (en) * 2014-03-13 2019-07-12 财团法人多次元智能It融合系统研究团 Image storage device and method based on input audio signal
KR101676324B1 (en) * 2016-02-17 2016-11-17 (주)아이비로시스템 The monitoring system for transportation field
KR101685900B1 (en) * 2016-07-06 2016-12-13 이용호 Monitoring system for Intersection detection accident
KR101696801B1 (en) * 2016-10-21 2017-01-16 이형각 integrated image monitoring system based on IoT camera
CN106997510B (en) * 2017-04-01 2020-09-11 南京国电南自轨道交通工程有限公司 Rule-based accident picture and emergency plan pushing method
CN106997510A (en) * 2017-04-01 2017-08-01 南京国电南自轨道交通工程有限公司 A kind of rule-based accident picture and emergency preplan method for pushing
KR20180127245A (en) * 2017-05-19 2018-11-28 한국과학기술원 Method for Predicting Vehicle Collision Using Data Collected from Video Games
KR20210029170A (en) * 2021-02-23 2021-03-15 조영빈 Safty Management System with Image Object Recognition and Video data Recording for Personal Mobility, and Control Method Thereof
KR20220144116A (en) * 2021-04-19 2022-10-26 주식회사 디알에스 How to predict the occurrence of black ice
KR20220144115A (en) * 2021-04-19 2022-10-26 주식회사 디알에스 A method for predicting the occurrence of black ice using acoustic images
KR102625231B1 (en) * 2023-02-03 2024-01-16 주식회사 디비엔텍 Video accident detection system and video accident detection method in the tunnel with improved stop detection malfunction rate by applying the method for determining unexpected situations/traffic congestion in the tunnel through real-time traffic flow analysis

Also Published As

Publication number Publication date
KR101116273B1 (en) 2012-03-14

Similar Documents

Publication Publication Date Title
KR101116273B1 (en) Apparatus and Method for Traffic Accident Recognition
KR101995107B1 (en) Method and system for artificial intelligence based video surveillance using deep learning
CN108053427B (en) Improved multi-target tracking method, system and device based on KCF and Kalman
US11250335B2 (en) Joint processing for embedded data inference
KR101932535B1 (en) Indoor surveillance system and method
JP5670413B2 (en) Road use vulnerable person protection system
KR101877294B1 (en) Smart cctv system for crime prevention capable of setting multi situation and recognizing automatic situation by defining several basic behaviors based on organic relation between object, area and object's events
Kumar et al. Study of robust and intelligent surveillance in visible and multi-modal framework
KR102122850B1 (en) Solution for analysis road and recognition vehicle license plate employing deep-learning
KR20140004291A (en) Forward collision warning system and forward collision warning method
JP2007209008A (en) Surveillance device
JP2007310805A (en) Object recognizing device
KR102104548B1 (en) The visual detecting system and visual detecting method for operating by the same
JP2005311691A (en) Apparatus and method for detecting object
JP3910626B2 (en) Monitoring device
JP2020042785A (en) Method, apparatus, device and storage medium for identifying passenger state in unmanned vehicle
CN112383756A (en) Video monitoring alarm processing method and device
Kandpal et al. Classification of ground vehicles using acoustic signal processing and neural network classifier
CN111832450B (en) Knife holding detection method based on image recognition
KR101842488B1 (en) Smart monitoring system applied with patten recognition technic based on detection and tracking of long distance-moving object
WO2023124451A1 (en) Alarm event generating method and apparatus, device, and storage medium
Yadav et al. Video anomaly detection for pedestrian surveillance
KR101669885B1 (en) method of detecting pedestrian collision and IoT apparatus thereof
KR101117235B1 (en) Apparatus and method for recognizing traffic accident
CN114758326A (en) Real-time traffic post working behavior state detection system

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee