KR101116273B1 - 교통사고 인식장치 및 그 방법 - Google Patents

교통사고 인식장치 및 그 방법 Download PDF

Info

Publication number
KR101116273B1
KR101116273B1 KR1020100041384A KR20100041384A KR101116273B1 KR 101116273 B1 KR101116273 B1 KR 101116273B1 KR 1020100041384 A KR1020100041384 A KR 1020100041384A KR 20100041384 A KR20100041384 A KR 20100041384A KR 101116273 B1 KR101116273 B1 KR 101116273B1
Authority
KR
South Korea
Prior art keywords
information
traffic accident
sound
unit
accident
Prior art date
Application number
KR1020100041384A
Other languages
English (en)
Other versions
KR20110121885A (ko
Inventor
조성배
이영설
황주원
Original Assignee
연세대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 연세대학교 산학협력단 filed Critical 연세대학교 산학협력단
Priority to KR1020100041384A priority Critical patent/KR101116273B1/ko
Publication of KR20110121885A publication Critical patent/KR20110121885A/ko
Application granted granted Critical
Publication of KR101116273B1 publication Critical patent/KR101116273B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

도로의 영상정보와 음향정보를 이용하여 교통사고 발생을 인식하기 위한 장치 및 방법이 개시된다. 보다 상세하게는, 본 발명의 일 실시예에 따른 교통 사고 인식 정치는, 도로의 영상정보 및 음향정보를 수집하는 도로정보 수집부와, 영상정보 중 배경에 관한 영상을 제외한 사고객체 영상정보를 추출하고, 음향정보 중 교통사고로 발생하는 충돌음의 음원정보를 추출하는 사고정보 추출부와, 사고객체 영상정보에서 사고객체의 운동벡터의 변화량에 관한 정보인 운동패턴정보를 생성하는 객체정보 전처리부 및 운동패턴정보에 미리 결정된 규칙을 적용하여 교통사고 상황인지 여부를 판단하고, 교통사고 상황으로 판단된 경우 확률모델에 기반한 확률판단을 시행하여 교통사고 상황인지를 확정하는 사고 판단부를 포함하며 이러한 교통사고 인식장치를 이용하는 교통사고의 인식방법을 제공한다. 또한 본 발명은 또한 다수의 카메라와 음향 센서가 동시에 사용되는 경우를 고려하여 센서 협업을 통해 교통사고 상황 인식의 정확도를 높이는 장치 및 방법을 개시한다.

Description

교통사고 인식장치 및 그 방법{Apparatus and Method for Traffic Accident Recognition}
본 발명은 교차로에서의 교통사고 인식 기술에 관한 것으로, 보다 상세하게는 카메라로부터 수집된 영상 정보와 마이크로폰으로부터 수집된 음향 정보를 분석하고 가공하여 객체(사람 또는 차량)의 운동 벡터를 계산하고 객체의 운동 상태로부터 교차로에서의 교통사고를 자동으로 인식하는 교통사고 인식장치 및 이를 이용한 교통사고의 인식방법에 관한 것이다.
일반적으로, 교통 상황이나 사고를 모니터링 하기 위한 CCTV 와 과속 감시를 위한 카메라 등이 도로 곳곳에 설치되어 있으나, 이런 카메라를 실시간으로 모니터링하는 것은 사람들의 노력과 시간을 필요로 하므로 대개의 경우, 사고를 실시간으로 대응하기가 어렵고, 사고가 발생한 이후에 원인을 파악하기 위하여 기록된 영상정보를 활용하는 경우가 많았다.
따라서 최근에는 영상을 분석하거나 사고 발생시의 교통사고 음향, 그리고 교통사고 발생시의 진동이나 충격량을 분석하여 자동으로 교통사고를 인식하기 위한 연구나 특허가 제출되고 있다.
종래의 관련된 특허문헌을 간략히 소개하면,
한국전자통신연구원에서는 차량 내부상태(온도, 속도, 브레이크 여부, 에어백 동작 여부, 충격량) + 외부 교통 상황 정보 (실시간 교통 정보 - 정체 상황, 교통사고 정보, GPS 위치 정보, 위험 시간대 정보)를 조합하여 현재 차량의 사고 위험 정도를 경보해주는 시스템에 대한 발명을 제안하였다. (교통사고 경보 장치 및 방법, 출원번호 : 2007-0123048)
디에치씨 주식회사에서는 도로에 진동 감지 센서를 달아서 정상적으로 차량이 통과할 때의 진동량과 사고 발생시의 진동량이 달라지는 것을 이용하여 사고 발생을 감지하는 방법을 제안하였다. (유비쿼터스형 교통사고 감지 시스템, 출원번호: 2007-0107240). 그러나 이 특허문헌에서는 정상적인 진동량과 사고 발생시의 진동량에 대한 기준을 제시하지는 않았다.
개인 발명자인 정양권은 GPS를 통해서 속도를 감지해서 과속인지 판단하여 경고하고, 주위 교통 상황이나 제한 속도에 비해 너무 저속일 경우에는 교통 사고가 있는 것으로 판단하여 경찰을 파견하는 서비스를 제안한 바 있다.(이동통신 단말기를 이용한 연속류 사고 예측 시스템, 출원번호: 2007-0056613) 이 특허문헌에서는 교통 사고 판별의 기준으로 GPS 의 속도만을 이용하고 있다.
개인 발명자인 김재이는 충돌시에 발생하는 음향이 일상 음향과 다르다는 가정에 근거하여 음향의 종류, 크기, 주파수 분포 등을 분석하여 사고를 파악하는 방법을 제안한 바 있다.(교차로 사고음 자동감지 시스템, 출원번호 : 2007-0060475)
개인 발명자인 현운혁은 영상 분석 (특히 differential image 를 통한 영상 분석)을 이용해서 범죄나 교통사고를 인식하고 경고해주는 시스템을 제안한 바 있다.(컴퓨터 영상 분석기술을 이용한 범죄 및 사고예방 자동경비 시스템, 출원번호 : 2008-0040227)
그 외에도 많은 개인 발명자와 회사가 교통사고를 실시간으로 인식하기 위한 방법들에 대한 연구를 진행하고 있다. 그러나 이들의 대부분은 단순한 규칙 기반 알고리즘을 이용하거나 이미 개발된 영상 분석/ 음향 분석 기술들을 사용하는 것으로 영상 분석이나 음향 분석을 통해서 얻은 정보를 토대로 교통사고를 인식하기 위한 알고리즘을 규칙에 기반하는 것 이외에는 따로 제시하지 않고 있다.
또한, 이러한 연구에도 불구하고, 여러 대의 카메라나 마이크로폰에 의해서 하나의 사고 현장에 대한 정보를 다수 얻을 경우에 어떻게 이 정보들을 융합할 것인가 하는 측면에 관한 방법은 제시하고 있지 않은 문제점이 있었다.
상술한 문제점을 해결하기 위한 관점으로부터 본 발명은 교차로에 설치된 비디오 카메라를 통해 수집된 영상 정보와 음향 정보로부터 차량 및 사람(이하, 사고객체라 함)의 운동 방향과 속도에 대한 정보를 얻고, 이 정보에 계층구조의 판단기법을 적용하여 교통사고 인식장치 및 방법을 제공을 하는 것을 제1 기술적 과제로 한다.
또한, 본 발명은 상기 제1 기술적 과제에 부가하여 다수의 비디오 카메라를 교차로의 여러 지점에 설치하여 이들이 동시에 수집하는 여러 정보를 융합하여 교통사고 인식의 정확도를 높일 수 있는 교통사고 인식장치 및 방법을 제공을 하는 것을 제2 기술적 과제로 한다.
그러나, 본 발명의 기술적 과제는 상기에 언급된 사항으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
상기한 기술적 과제를 달성하기 위해서 본 발명에 따른 교통사고의 인식장치는, 도로의 영상정보 및 음향정보를 수집하는 도로정보 수집부와, 상기 영상정보 중 배경에 관한 영상을 제외한 사고객체 영상정보를 추출하고, 상기 음향정보 중 교통사고로 발생하는 충돌음의 음원정보를 추출하는 사고정보 추출부와, 상기 사고객체 영상정보에서 사고객체의 운동벡터의 변화량에 관한 정보인 운동패턴정보를 생성하는 객체정보 전처리부 및 상기 운동패턴정보에 미리 결정된 규칙을 적용하여 교통사고 상황인지 여부를 판단하고, 교통사고 상황으로 판단된 경우 확률모델에 기반한 확률판단을 시행하여 교통사고 상황인지를 확정하는 사고 판단부를 포함한다.
여기서, 상기 사고정보 추출부는 상기 도로의 영상정보에 미리 결정된 알고리즘을 적용하여 관심영역인 사고 객체의 영상정보를 추출하는 관심영역(ROI,Region Of Interest)추출부 및 상기 충돌음을 이용하여 사고지점에서 발생한 음원과 상기 교통사고 인식장치간의 거리 및 상기 음원의 발생 방향에 대한 정보인 음원정보를 추출하는 음원정보 추출부를 포함하는 것이 좋다.
그리고, 상기 사고정보 추출부에서 추출되는 음원정보는 상기 음향정보 중 미리 설정된 크기 이상의 소리 또는 미리 결정된 주파수 패턴과의 불일치 정도를 고려하여 획득되는 것도 좋다.
또한, 상기 사고 판단부는,
상기 운동패턴정보에 미리 결정된 규칙을 적용하여 교통사고 상황을 판단하는 규칙기반 판단부 및 상기 규칙기판 판단부에서 교통사고 상황이라고 판단된 경우, 상기 사고정보 추출부에서 추출된 음원정보와, 상기 객체정보 전처리부에서 생성된 운동패턴정보에 확률모델을 적용하여 교통사고 상황인지를 확정하는 확률기반 판단부를 포함하는 것도 바람직하다.
또한 바람직하게는, 상기 도로정보 수집부는 상기 도로의 영상정보를 수집하여 외부의 서버에 기록하는 비디오 데이터 수집부 및 상기 도로의 음향정보를 수집하여 상기 서버에 기록하는 음향 데이터 수집부를 포함한다.
또한, 상기 규칙기반 판단부는 상기 객체정보 전처리부에서 생성된 운동패턴정보의 시간별 변화량을 계산한 결과를 생성하여 상기 결과가 미리 결정된 기준값을 초과하는 경우에 교통사고 상황이라고 판단하는 것도 좋다.
여기서, 상기 확률기반 판단부는 상기 확률모델로서 베이지안 네트워크(Bayesian Network)를 이용할 수 있을 것이다.
또한, 상기한 기술적 과제를 달성하기 위해서 본 발명에 따른 미리 결정된 위치에 설치되도록 복수개로 구비되는 교통사고 인식장치는, 도로의 영상정보 및 음향정보를 수집하는 도로정보 수집부와, 상기 영상정보 중 배경에 관한 영상을 제외한 사고객체 영상정보를 추출하고, 상기 음향정보 중 교통사고로 발생하는 충돌음의 음원정보를 추출하도록 구비되는 사고정보 추출부와, 상기 사고객체 영상정보에서 사고객체의 운동벡터의 변화량에 관한 정보인 운동패턴정보를 생성하는 객체정보 전처리부와, 상기 객체정보 전처리부에서 생성된 운동패턴정보에 미리 결정된 알고리즘을 적용하여 융합된 정보로 생성하는 정보 융합부 및 상기 정보 융합부에서 생성된 융합된 정보에 미리 결정된 규칙을 적용하여 교통사고 상황인지 여부를 판단하고, 교통사고 상황으로 판단된 경우 확률모델에 기반한 확률판단을 시행하여 교통사고 상황인지를 확정하는 사고 판단부를 포함한다.
여기서, 상기 사고정보 추출부는 상기 영상정보에 미리 결정된 알고리즘을 적용하여 관심영역인 사고객체의 영상정보들을 추출하는 관심영역(ROI,Region Of Interest)추출부 및 상기 충돌음을 이용하여 사고지점에서 발생한 음원과 상기 교통사고 인식장치간의 거리 및 상기 음원의 발생 방향에 대한 정보인 음원정보를 추출하는 음원정보 추출부를 포함하여도 좋다.
여기서, 상기 정보 융합부는 상기 복수개의 교통사고 인식장치의 객체정보 전처리부에서 생성된 운동벡터정보를 각각 절대좌표계의 운동벡터로 형성하고, 상기 절대좌표계의 운동벡터를 결합하여 융합된 운동벡터를 생성하는 것이 좋다.
그리고, 상기 절대좌표계의 운동벡터는 상기 사고정보 추출부에서 추출된 음원정보와 상기 도로정보 수집부의 수직방향 각도 및 도로정보 수집부의 정면방향과 상기 음원과의 수평방향 각도를 이용하여 형성하고, 상기 융합된 운동벡터는 상기 절대좌표계의 운동벡터에 상기 음원정보에 포함된 음원과 상기 도로정보 수집부와의 거리에 반비례하는 상수를 가중치로 부여한 값들을 결합하여 생성하는 것이 바람직하다.
한편, 상기한 기술적 과제를 달성하기 위해서 본 발명에 따른 교통사고의 인식방법은, (a) 도로의 영상정보 및 음향정보를 수집하는 단계와, (b) 상기 영상정보 중 배경에 관한 영상을 제외한 사고객체 영상정보를 추출하고, 상기 음향정보 중 교통사고로 발생하는 충돌음의 음원정보를 추출하는 단계와, (c) 상기 사고객체 영상정보에서 사고객체의 운동벡터의 변화량에 관한 정보인 운동패턴정보를 생성하는 단계, (d) 상기 (c)단계에서 생성된 운동패턴정보에 미리 결정된 규칙을 적용하여 교통사고 상황을 판단하는 단계 및 (e) 상기 (d)단계에서 교통사고 상황이라고 판단된 경우, 상기 (b)단계에서 추출된 음원정보와, 상기 (c)단계에서 생성된 운동패턴정보에 확률모델을 적용하여 교통사고 상황인지를 확정하는 단계를 포함한다.
여기서, 상기 (d)단계는 상기 운동패턴정보의 시간별 변화량을 계산한 결과를 생성하여 상기 결과가 미리 결정된 기준값을 초과하는 경우에 교통사고 상황이라고 판단하는 것이 좋다.
또한, 상기 (e)단계의 확률모델은 베이지안 네트워크(Bayesian Network)를 이용하는 것도 좋다.
한편, 미리 결정된 위치에 설치되는 복수개의 교통사고 인식장치를 이용하는 교통사고의 인식방법은, (a) 도로의 영상정보 및 음향정보를 수집하는 단계와, (b) 상기 영상정보 중 배경에 관한 영상을 제외한 사고객체 영상정보를 추출하고, 상기 음향정보 중 교통사고로 발생하는 충돌음의 음원정보를 추출하는 단계와, (c) 상기 사고객체 영상정보에서 사고객체의 운동벡터의 변화량에 관한 정보인 운동패턴정보를 생성하는 단계오, (d) 상기 운동패턴정보에 미리 결정된 알고리즘을 적용하여 융합된 정보로 생성하는 단계와, (e) 상기 (d)단계에서 생성된 융합된 정보에 미리 결정된 규칙을 적용하여 교통사고 상황을 판단하는 단계 및 (f) 상기 (e)단계에서 교통사고 상황이라고 판단된 경우, 상기 (b)단계에서 추출된 음원정보와, 상기 (d)단계에서 생성된 운동패턴정보에 확률모델을 적용하여 교통사고 상황인지를 확정하는 단계를 포함한다.
여기서, 상기 (e)단계는 (e1) 상기 운동패턴정보를 절대좌표계의 운동벡터로 형성하는 단계 및 (e2) 상기 (e1)단계에서 형성된 절대좌표계의 운동벡터를 결합하여 융합된 운동벡터를 생성하는 단계를 포함하는 것도 좋다.
또한, 상기 (f)단계의 확률모델은 베이지안 네트워크(Bayesian Network)를 이용하는 것이 바람직하다.
본 명세서의 내용으로부터 파악되는 본 발명에 따르면, 교차로에 설치된 비디오 카메라를 통해 수집된 영상 정보와 음향 정보로부터 차량 및 사람(이하, 사고객체라 함)의 운동 방향과 속도에 대한 정보를 얻고, 이 정보에 계층구조의 판단기법을 적용하여 교통사고를 인식할 수 있어 교통사고를 모니터링하는 데 필요한 시간과 노력을 절감할 수 있으며, 실시간으로 교통사고를 파악하여 교통사고 사상자의 구조와 신속한 사고 처리를 통한 교통 혼잡을 막을 수 있다.
또한, 본 발명에 따르면, 획득된 영상정보 및 음향정보에 규칙기반의 판단기법을 적용하여 일정 조건을 만족치 않은 경우 확률기반의 판단기법을 적용하지 않으므로 많은 계산량과 메모리가 필요치 않다.
또한, 본 발명은 여러개의 비디오 카메라가 수집한 정보를 하나의 융합된 정보로 형성하고 여기에 계층구조의 판단기법을 적용하므로 단일의 정보를 사용하는 경우보다 보다 정확히 교통사고를 인식할 수 있다.
도 1은 본 발명의 일 실시예에 따른 교통사고 인식장치를 개략적으로 도시한 블록도,
도 2는 본 발명의 일 실시예에 따른 교통사고 인식장치의 작동을 설명하기 위해 도시한 도,
도 3은 관심영역에서의 사고객체의 운동벡터를 도시한 도,
도 4는 본 발명의 객체정보 전처리부에서 객체들 사이의 운동벡터 차이를 계산하는 과정을 도시한 도,
도 5는 본 발명의 일 실시예에 따라 교통사고 상황을 판단하기 위해 계층구조의 판단기법을 적용하는 과정을 설명하기 위해 도시한 도,
도 6은 본 발명의 일 실시예에 따른 교통사고 인식장치에서 확률기반 판단기법으로 베이시안 네트워크를 활용한 예를 설명하기 위해 도시한 도,
도 7은 본 발명의 다른 실시예에 따른 교통사고 인식장치를 개략적으로 도시한 블록도,
도 8은 본 발명의 다른 실시예에 따른 교통사고 인식장치를 이용하여 정보를 획득하는 모습을 설명하기 위해 도시한 도,
도 9는 본 발명의 다른 실시예에 따른 교통사고 인식장치에서 수집된 여러 정보를 하나의 융합된 정보로 형성하는 과정을 설명하기 위해 도시한 도면,
도 10은 본 발명에 따른 교통사고의 인식방법을 설명하기 위해 도시한 플로우 차트이다.
이하에서는 본 발명의 바람직한 실시예를 첨부된 도면들을 참조하여 상세히 설명한다. 여기의 설명에서 어떤 구성 요소가 다른 구성 요소에 연결된다고 기술될 때, 이는 다른 구성 요소에 바로 연결될 수도 그 사이에 제3의 구성 요소가 개재될 수도 있음을 의미한다. 우선 각 도면의 구성 요소들에 참조 부호를 부가함에 있어서, 동일한 구성 요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 이때 도면에 도시되고 또 이것에 의해서 설명되는 본 발명의 구성과 작용은 적어도 하나의 실시예로서 설명되는 것이며, 이것에 의해서 본 발명의 기술적 사상과 그 핵심 구성 및 작용이 제한되지는 않는다.
본 명세서에서 사용하게 될 '부'는 소프트웨어 또는 Field Programmable Gate Array(FPGA) 또는 주문형 반도체(Application Specific Integrated Circuit, ASIC)와 같은 하드웨어 구성요소를 의미하며, 어떤 역할들을 수행한다. 그렇지만 '부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 실행시키도록 구성될 수도 있다. 일 예로서 '부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함한다. 또한, 각 구성요소들에서 제공되는 기능은 더 작은 수의 구성요소들로 결합되거나 추가적인 구성요소들로 더 분리될 수 있다.
이하에서는, 본 발명의 실시예들을 통해 구체적인 사항들을 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다.
도 1은 본 발명의 일 실시예에 따른 교통사고 인식장치를 개략적으로 도시한 블록도이다.
도 1에 도시된 바와 같이, 일 실시예에 따른 교통사고 인식장치(100)는 도로정보 수집부(10), 사고정보 추출부(20), 객체정보 전처리부(30) 및 사고 판단부(40)를 포함한다.
도로정보 수집부(10)는 수집하고자 하는 정보를 수집하기 위해 도로 또는 교차로등 차량 및 사람이 이동할 수 있는 장소의 어느 지점에 설치되는 교통사고 인식장치(100)에 구비되어 영상정보 및 음향정보(Sin)를 획득한다. 도로정보 수집부(10)는 구체적으로는 비디오 카메라, CCTV, 과속감시 카메라, 컴퓨터, 디지털 카메라, 센서 노드 등 도로의 상황을 모니터링 할 수 있는 어떠한 장치로도 구현될 수 있다. 따라서, 이하에서는 도로정보 수집부라는 용어를 대신하여 카메라 혹은 비디오 카메라로 지칭될 수 있으며, 이는 단지 카메라로 한정하여 해석되어서는 안 될 것임에 유의해야 한다. 또한 도로정보 수집부(10)에서 수집된 정보는 외부에 무선 또는 유선으로 연결되는 서버에 데이터로 기록되고 저장되어 향후 검색이 필요한 경우 검색 가능하도록 상기 정보를 전송한다.
사고정보 추출부(20)는 상기 도로정보 수집부(10)에 수집된 각종 영상정보 및 음향정보로부터 목적하는 교통사고에 관련된 정보를 추출하기 위해 구비된다. 사고정보 추출부(20)는 본래 도로정보 수집부(10)가 수집하는 정보들이 실시간으로 수집되며 교통사고 상황이 아닌 일반적인 교통 흐름에 대한 영상정보 및 도로의 소음, 차량의 경적음 등을 포함할 수 있기 때문에, 적절히 필터링 된 정보만을 사용하기 위한 것이다. 즉, 사고정보 추출부(20)는 획득한 영상정보 중 사고객체 영상정보와 배경 및 전경 영상정보를 구분하여 추출한다. 여기서 영상의 프레임간 차이를 활용하여 영상의 배경과 전경을 구분하는 알고리즘이 사용될 수 있으며, 이러한 알고리즘은 공지되고 미리 결정된 알고리즘일 수 있다. 예를 들면, GMM을 이용한 개체 추적 방법이 사용될 수 있는 것이다.
그리고, 사고정보 추출부(20)는 획득한 음향정보 중 노이즈를 제거한다. 즉, 사고에 수반되는 충돌음을 음향정보에서 추출하는데, 여기서는 음향의 주파수, 패턴,크기 등을 토대로 분석하는 방법이 사용될 수 있으며. 이러한 방법을 통해 사고지점의 음원과 교통사고 인식장치(100)간의 거리 및 사고지점이 교통사고 인식장치(100)를 기준으로 어느 방향에 위치하는지 등을 알 수 있게 된다.
객체정보 전처리부(30)는 사고정보 추출부(20)에서 추출된 사고객체의 운동패턴을 분석하여 운동패턴정보를 생성하는데, 본 발명에서는 사고객체의 운동방향과 속도를 이용하여 운동패턴정보를 생성한다. 즉, 사고객체의 운동벡터를 분석하여 사고객체의 운동방향과 그 크기, 운동벡터의 시간에 따른 변화량을 계산하여 후술할 사고 판단부(40)에 제공한다.
사고 판단부(40)는, 객체정보 전처리부(30)에서 제공한 사고객체의 운동패턴정보와 사고정보 추출부(20)에서 추출된 음원정보를 이용하여 여기에 계층구조의 판단기법을 적용하여 교통사고 상황인지 여부를 판단하여 이를 출력신호로 생성한다(Sout). 여기의 계층구조의 판단기법이란 단계적 구조를 갖는 판단기법으로 하위계층의 판단에서 일정요건을 만족하는 경우에 상위계층의 판단을 시행함을 의미한다. 이러한 계층구조의 판단기법을 적용하면, 하위계층에서의 요건을 만족하지 못하는 경우에는 상위계층의 요건충족여부를 판단하지 않게 되어 많은 계산량과 메모리를 사용하지 않게 되는 장점이 있다. 반면, 하위계층의 요건을 만족한 경우에 다시 상위계층의 요건충족 여부가 판단되므로 교통사고를 보다높은 신뢰도로 인식할 수 있다. 즉, 규칙 판단의 경우에는 학습이 필요 없기 때문에 실제 적용을 위해서 많은 양의 데이터를 필요로 하지 않은 반면, 확률 기반 판단의 경우에는 데이터의 일부가 유실될 경우에도 적용이 가능하고, 확률 파라미터의 변경을 통해서 다양한 환경에 적응하도록 할 수 있다는 장점이 있어 이와 같은 계층 구조를 통한 판단을 이용하여 양자에 있는 단점을 보완시킬 수 있다.
사고 판단부(40)의 상세한 구성 및 작동과정과 본 발명의 일 실시예에 따른 각 부의 상세한 작동과정은 도 2를 이용해 후술한다.
도 2는 본 발명의 일 실시예에 따른 교통사고 인식장치의 작동을 설명하기 위해 도시한 도이다.
도 2에 도시된 바와 같이, 일 실시예에 따른 교통사고 인식장치(100)는 비디오 데이터 수집부(110), 음향 데이터 수집부(120), 관심영역(ROI, Region Of Interest)추출부(130), 음원 정보 추출부(140), 객체정보 전처리부(150), 규칙기반 판단부(160) 및 확률기반 판단부(170)를 포함한다.
비디오 데이터 수집부(110)와 음향 데이터 수집부(120)는 사고에 관련된 영상과 음성 정보를 기록하기 위하여 이용된다. 먼저 비디오 데이터 수집부(110)는 사고를 인식하기 위한 영상 정보(Sin .1)를 수집하는 부분으로 비디오 카메라나 CCTV 등으로 구성될 수 있음은 상술한 바와 같다. 여기서 수집되는 영상정보는 실시간으로 외부서버의 데이터베이스에 기록되어 이후에 검색할 수 있도록 저장된다.
음향 데이터 수집부(120)는 사고에 관련된 음향 정보(Sin .2)를 수집하기 위한 것으로 비디오 카메라에 붙어 있는 마이크나 음향을 수집하기 위한 마이크로폰으로 구성될 수 있다. 통상적으로 음향 데이터 수집부(120)와 비디오 데이터 수집부(110)는 하나의 장치로서 일체로 형성되거나, 카메라에 내장된 마이크로폰 등의 형태로 형성될 수 있다.
관심영역 추출부(130)는 수집된 영상정보로부터 사고객체(차량, 사람)를 구분하기 위한 것으로 영상의 프레임 간의 차이를 활용하여 영상의 배경과 전경을 구분하는 알고리즘(예: GMM 을 이용한 객체 추적 등)이 사용될 수 있다. 또한, 관심영역 추출부(130)는 객체정보 전처리부에서 사용될 객체들의 기본 정보를 제공하며, 여기서 사용되는 알고리즘은 공개된 알고리즘이나 프로그램이 이용될 수 있다. (예: OpenCV 등)
음원정보 추출부(140)는 상기 음향 데이터 수집부(120)에 수집된 음향정보 중 교통사고와 관련된 충돌음을 구분하기 위한 것으로 음향의 주파수, 패턴 및 크기 등을 토대로 분석하는 방법이 이용될 수 있으며, 음원의 거리와 방향을 분석하여 추출한다. 즉, 음성정보 추출부(140)에서는 간단한 규칙을 통해서 일정 이상의 소리 크기, 음향 주파수 패턴에 대해서 사고에 관련된 음향으로 판단하며, 음원의 거리와 방향을 대략적으로 추정한다. 이에 관련된 알고리즘은 공개된 알고리즘이나 프로그램이 활용될 수 있으므로 그 설명은 생략한다.
객체정보 전처리부(150)는 영상정보에서 추출된 관심영역 정보를 이용하여 사고객체들의 운동 방향과 속도를 분석하고 그 결과를 후출할 규칙기반 판단부(160) 와 확률기반 판단부 (170)에 전달한다. 즉, 객체 정보 전처리부(150)는 교통 사고를 판단하기 위한 규칙기반 판단부(160) 와 확률기반 판단부 (170)를 위하여 객체의 운동 방향과 크기, 그리고 운동의 변화량을 계산한다. 객체 정보 전처리부(150)에서 처리하는 항목을 정리하면, 다음 [표 1]과 같다.
전처리 항목 상세 내역
관심영역(ROI)의 충돌 체크 서로 다른 객체의 ROI영역이 겹치는 범위가 존재하는지 체크한다. 만약 겹치는 영역이 있다면 2개의 객체가 그만큼 근거리에 위치한다는 것을 의미하므로 사고일 확률이 높아진다.
객체별 운동벡터 계산 주어진 객체의 ROI영역의 중심점의 X, Y 좌표가 프레임마다 변화하는 정도를 계산한다. 이를 통해서 객체의 속도와 방향에 대한 대략적인 정보를 얻을 수 있다.
객체간 운동벡터의
차이 계산
사고 발생시 사고에 관련된 객체들은 운동 방향과 속도가 크게 변화한다. 따라서 사고에 연관된 2개의 객체 사이의 운동벡터의 차이를 계산한 후 그 변화량(증가 or 감소)을 사고 추론에 반영한다.
그리고, 객체정보 전처리부(150)에서 시행되는 객체의 운동패턴정보를 생성하는 과정을 도 3 및 도 4에 예시적으로 나타내었다. 즉, 도 3은 관심영역에서의 사고객체의 운동벡터를 도시한 도, 도 4는 본 발명의 객체정보 전처리부에서 객체들 사이의 운동벡터 차이(V1-V2)를 계산하는 과정을 도시한 도이다.
상기 도 3 및 도 4와 같이, 객체정보 전처리부(150)에서는 객체 1과 객체 2의 운동벡터 변화로부터 운동벡터의 차이를 이용하여 운동패턴정보를 생성하여 후술할 규칙기반 판단부(160)에 제공한다.
규칙기반 판단부(160)는 미리 결정된 규칙에 근거하여 현재 교통사고가 발생한 상황인지를 판단하여 교통사고라고 판단될 경우에는 정확도를 높이기 위하여 확률모델에 기반한 판단을 하는 확률기반 판단부(170)에 최종적인 판단을 맡긴다. 이와 같이, 본 발명에서는 계층구조의 판단기법 즉, 하위계층인 규칙기반 판단부(160)에서의 판단결과를 이용하여 상위계층인 확률기반 판단부(170)의 판단을 거친다.
즉, 확률기반 방법이 불확실한 현실 상황에서의 사고를 다루기에 더 적합하지만, 확률기반 알고리즘은 많은 계산량과 메모리를 요구하므로 모든 프레임마다 확률 기반 알고리즘을 사용하기는 어려우며, 반대로 규칙기반 방법은 정확도를 보장할 수 없기 때문이다. 따라서 여기서는 2단계 계층구조로 먼저 규칙기반 방법을 통해서 현재 교통사고 상황인지를 판단하고, 교통사고 상황과 유사하다고 판단될 경우에는 확률 기반 방법을 이용하여 보다 정확한 판단 결과를 얻는 것이다.
이하에서, 계층구조의 판단기법을 적용하는 과정은 도 5를 이용하여 상세히 설명한다.
도 5는 본 발명의 일 실시예에 따라 교통사고 상황을 판단하기 위해 계층구조의 판단기법을 적용하는 과정을 설명하기 위해 도시한 도이다.
도 5에 도시된 바를 참조하면, 규칙기반 판단부(160)는 특징값으로서 객체 간의 운동벡터 차이의 변화량을 기록하여 사용한다. 일반적으로 교통사고가 발생하면 교통사고에 관련된 객체 (차량, 사람)들은 그 운동 방향과 속도가 크게 변화한다. 따라서 이전 상태의 운동 상태와 현재 상태의 운동 상태에 현저한 차이가 발생한다면, 그 상황을 사고가 발생한 것이라고 가정할 수 있다. 객체정보 전처리부(30)에서 제공된 객체간 운동벡터의 차이를 바탕으로 시간별 변화량을 계산하여 그 값이 미리 결정된 기준값(a)을 넘어서면 교통사고로 판단한다.
다음으로, 확률기반 판단부 (170)는 관심영역의 충돌 체크 결과(관심영역의 중복여부), 운동벡터 변화량의 차이, 객체의 속도, 객체의 방향, 객체의 운동이 지속되고 있는지 등을 고려하여 확률모델을 구성하고, 수집된 정보들을 바탕으로 사고가 발생했을 확률을 0~1 사이의 값으로 반환한다. 확률 모델에는Hidden Markov Model, Conditional Random Field, Bayesian network 등 여러 가지 방법이 존재하지만, 여기서는 Bayesian network를 사용하는 것이 바람직하다. 베이지안 네트워크(Bayesian network)는 변수들 간의 관계를 그래프 형태로 모델링 하는 방법으로 확률적으로 추론하는 과정에서 변수가 많아질수록 계산량이 기하급수적으로 증가하는 확률모델의 단점을 극복하고 현실적으로 사용 가능하게 만들어준다. 도 6은 이러한 예를 도시한 그림으로, 본 발명의 일 실시예에 따른 교통사고 인식장치에서 확률기반 판단기법으로 베이시안 네트워크를 활용한 예를 설명하기 위해 도시한 도이다.
지금까지는 하나의 카메라와 마이크로폰에서 수집한 정보를 바탕으로 교통사고를 인식하는 방법에 대하여 설명하였으나, 교차로의 경우 각도에 따라 여러 대의 카메라와 마이크로폰이 설치될 수 있다. 이런 환경에서는 카메라에서 수집된 정보를 통합하여 각각의 카메라에서 수집된 정보만 이용하는 것보다 높은 정확도를 확보할 수 있다. 여기서는 그런 경우에 정보를 융합하기 위한 본 발명의 다른 실시예에 따른 교통사고 인식장치를 도 7, 도 8 및 도 9를 통해 설명한다.
도 7은 본 발명의 다른 실시예에 따른 교통사고 인식장치를 개략적으로 도시한 블록도, 도 8은 본 발명의 다른 실시예에 따른 교통사고 인식장치를 이용하여 정보를 획득하는 모습을 설명하기 위해 도시한 도, 도 9는 본 발명의 다른 실시예에 따른 교통사고 인식장치에서 수집된 여러 정보를 하나의 융합된 정보로 형성하는 과정을 설명하기 위해 도시한 도면이다.
도 7에 도시된 바와 같이, 다른 실시예에 따른 교통사고 인식장치(700)는 N개의 도로정보 수집부(700), 사고정보 추출부(20), 객체정보 전처리부(30), 정보 융합부(70) 및 사고 판단부(40)를 포함한다. 여기서, 사고정보 추출부(20), 객체정보 전처리부(30) 및 사고 판단부(40)에 대한 설명은 상술한 바와 중복되므로 그 설명을 생략한다.
N개의 도로정보 수집부(10)는 일 실시예에서 설명한 바 있는 도로정보 수집부를 복수개로 구비하여 교차로 또는 도로 등 차량과 사람이 통행하는 장소로부터 영상정보 및 음향정보(Sin)를 수집하기 위해 구비된다. 복수개의 도로정보 수집부는 미리 결정된 위치에 배열, 설치되는 것으로 실제 구현예에서는 교차로의 신호등, 가로수, 가로등 등의 구조물에 설치될 수 있을 것이다.
정보 융합부(70)는 객체정보 전처리부(30)에서 생성된 운동패턴정보들에 미리 결정된 알고리즘을 적용하여 융합된 정보로 생성하는데 이하에서는 이에 대해 상세히 설명한다.
도 8은 여러 대의 카메라와 마이크로폰이 설치된 교차로에서의 상황을 보여주고 있다. 이와 같이 여러 대의 카메라가 설치된 경우에는 하나의 사고가 여러 대의 카메라에 촬영되었을 경우, 여러 대의 카메라에서 올라온 정보를 종합하여 판단할 수 있는 알고리즘이 필요하다. 여기서는 음향정보가 존재하며, 음향정보로부터 사고 발생 현장까지의 거리와 각도를 파악할 수 있는 경우를 가정한다.
영상정보를 종합하기 위하여 사고발생 현장과 카메라의 거리, 각도를 기준으로 카메라에서 올라온 데이터들을 조합하여 절대 좌표계의 데이터로 변환한 이후에 결합하는 방법을 사용한다. 그 과정은 다음의 2 단계로 이루어진다.
(1단계) 카메라에서 사고 발생 현장의 각도를 이용한 운동벡터의 방향 변환
카메라와 사고 발생 현장의 각도가 주어질 경우, 카메라의 정면에서 잡힌 좌표계로 1차 변환한다. 그리고 카메라 자체의 각도를 고려하여 2차 변환을 수행한다. 최종적으로 절대좌표계의 운동벡터를 계산한다. 그 계산은 하기의 [수학식 1]과 같이 진행된다.
[수학식 1]
Figure 112010028572380-pat00001
여기서,
Figure 112010028572380-pat00002
은 카메라1(11)에서 관측된 객체의 운동벡터,
Figure 112010028572380-pat00003
은 카메라1(11)과 사고지점과의 수직방향 각도,
Figure 112010028572380-pat00004
은 카메라1(11)의 정면방향과 사고지점과의 수평방향 각도,
Figure 112010028572380-pat00005
는 절대좌표값으로 변환된 운동벡터를 의미한다. 여기서는 예시적으로 카메라1(11)의 경우만을 설명하였으나, N개로 구비된 카메라 모두에 대하여 같은 방법으로 계산이 진행됨은 자명하다.
(2단계) 카메라에서 사고지점까지의 거리를 이용한 운동벡터의 크기 변환
각 카메라에서 잡힌 운동벡터의 크기를 융합하기 위하여 각각의 카메라에서 사고지점까지의 거리에 반비례하는 상수를 가중치로 주어 결합한다. 이는 하기의 [수학식 2]와 같이 진행된다.
[수학식 2]
Figure 112010028572380-pat00006
여기서,
Figure 112010028572380-pat00007
,
Figure 112010028572380-pat00008
,
Figure 112010028572380-pat00009
는 카메라1,2,3에서 사고지점까지의 거리에 반비례하는 상수로
Figure 112010028572380-pat00010
+
Figure 112010028572380-pat00011
+
Figure 112010028572380-pat00012
=1.0임,
Figure 112010028572380-pat00013
는 카메라 1(11)에서 관측된 운동벡터의 각도변환 운동벡터,
Figure 112010028572380-pat00014
는 카메라 2(12)에서 관측된 운동벡터의 각도변환 운동벡터,
Figure 112010028572380-pat00015
는 카메라 3(13)에서 관측된 운동벡터의 각도변환 운동벡터,
Figure 112010028572380-pat00016
은 융합된 운동벡터이다.
여기서는 예시적으로 3대의 카메라를 사용하는 경우에 대한 설명을 하였으나, 카메라의 개수에 따라 상기 수학식2의 항 수는 다양하게 변경될 수 있다.
이와 같이, N개의 카메라로부터 얻은 객체의 운동벡터가 결합되면, 최종적으로 이 결합된 정보를 활용하여 교통사고 상황의 인식을 진행한다. 도 9는 이에 대한 전체적인 과정을 개략적으로 보여주는 도면이다. 즉, 좌표계 변환된 운동벡터들에 가중치를 부여한 값을 조합하여 융합된 정보를 형성하고 이를 이용하여 교통사고 상황을 인식한다. 이러한 융합된 정보를 이용하여 교통사고인지 여부를 판단하는 과정은 상술한 계층구조의 판단기법이 적용되는 것이므로 여기서는 중복설명을 하지 않는다.
다음으로 본 발명의 일실시예 및 다른 실시예에 따른 교통사고의 인식방법에 관한 설명을 개시한다.
도 10은 본 발명에 따른 교통사고의 인식방법을 설명하기 위해 도시한 플로우 차트이다.
도 10에 도시된 바와 같이, 교통사고의 인식방법은, 영상정보 및 음향정보를 수집하는 단계(S10), 사고객체의 영상정보 추출 및 음원정보를 추출하는 단계(S20), 사고객체의 운동패턴을 분석하는 단계(S30), 운동패턴정보 및 음원정보에 규칙기반 판단을 적용하는 단계(S40) 및 확률모델을 사용하여 확률기반 판단을 적용하는 단계(S50)를 포함한다. 이러한 단계들에 의해 이루어지는 교통사고의 인식방법에 관한 설명은 본 발명의 일 실시예에 따른 교통사고 인식장치를 설명한 부부을 참조하면 명확히 이해될 것이므로 여기서는 명세서의 기재를 간결히 하기 위해 그 설명을 생략한다.
이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 이는 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 따라서, 본 발명 사상은 아래에 기재된 특허청구범위에 의해서만 파악되어야 하고, 이의 균등 또는 등가적 변형 모두는 본 발명의 사상적 범주에 속한다.
10:도로정보 수집부 20:사고정보 추출부
30:객체정보 전처리부 40:사고 판단부
110:비디오 데이터 수집부 120:음향 데이터 수집부
130:관심영역 추출부 140:관심영역 추출부
160:규칙기반 판단부 170:확률기반 판단부

Claims (17)

  1. 교통사고 인식장치에 있어서,
    도로의 영상정보 및 음향정보를 수집하는 도로정보 수집부;
    상기 영상정보 중 배경에 관한 영상을 제외한 사고객체 영상정보를 추출하고, 상기 음향정보 중 교통사고로 발생하는 충돌음의 음원정보를 추출하는 사고정보 추출부;
    상기 사고객체 영상정보에서 사고객체의 운동벡터의 변화량에 관한 정보인 운동패턴정보를 생성하는 객체정보 전처리부; 및
    상기 운동패턴정보에 미리 결정된 규칙을 적용하여 교통사고 상황인지 여부를 판단하고, 교통사고 상황으로 판단된 경우 확률모델에 기반한 확률판단을 시행하여 교통사고 상황인지를 확정하는 사고 판단부를 포함하는 교통사고 인식장치.
  2. 제1항에 있어서, 상기 사고정보 추출부는
    상기 도로의 영상정보에 미리 결정된 알고리즘을 적용하여 관심영역인 사고 객체의 영상정보를 추출하는 관심영역(ROI,Region Of Interest)추출부; 및
    상기 충돌음을 이용하여 사고지점에서 발생한 음원과 상기 교통사고 인식장치간의 거리 및 상기 음원의 발생 방향에 대한 정보인 음원정보를 추출하는 음원정보 추출부를 포함하는 것을 특징으로 하는 교통사고 인식장치.
  3. 제1항에 있어서,
    상기 사고정보 추출부에서 추출되는 음원정보는 상기 음향정보 중 미리 설정된 크기 이상의 소리 또는 미리 결정된 주파수 패턴과의 불일치 정도를 고려하여 획득되는 것을 특징으로 하는 교통사고 인식장치.
  4. 제1항에 있어서, 상기 사고 판단부는,
    상기 운동패턴정보에 미리 결정된 규칙을 적용하여 교통사고 상황을 판단하는 규칙기반 판단부; 및
    상기 규칙기판 판단부에서 교통사고 상황이라고 판단된 경우, 상기 사고정보 추출부에서 추출된 음원정보와, 상기 객체정보 전처리부에서 생성된 운동패턴정보에 확률모델을 적용하여 교통사고 상황인지를 확정하는 확률기반 판단부를 포함하는 것을 특징으로 하는 교통사고 인식장치.
  5. 제1항에 있어서, 상기 도로정보 수집부는
    상기 도로의 영상정보를 수집하여 외부의 서버에 기록하는 비디오 데이터 수집부; 및
    상기 도로의 음향정보를 수집하여 상기 서버에 기록하는 음향 데이터 수집부를 포함하는 것을 특징으로 하는 교통사고 인식장치.
  6. 제4항에 있어서, 상기 규칙기반 판단부는
    상기 객체정보 전처리부에서 생성된 운동패턴정보의 시간별 변화량을 계산한 결과를 생성하여 상기 결과가 미리 결정된 기준값을 초과하는 경우에 교통사고 상황이라고 판단하는 것을 특징으로 하는 교통사고 인식장치.
  7. 제4항에 있어서, 상기 확률기반 판단부는
    상기 확률모델로서 베이지안 네트워크(Bayesian Network)를 이용하는 것을 특징으로 하는 교통사고 인식장치.
  8. 미리 결정된 위치에 설치되도록 복수개로 구비되는 교통사고 인식장치에 있어서,
    도로의 영상정보 및 음향정보를 수집하는 도로정보 수집부;
    상기 영상정보 중 배경에 관한 영상을 제외한 사고객체 영상정보를 추출하고, 상기 음향정보 중 교통사고로 발생하는 충돌음의 음원정보를 추출하도록 구비되는 사고정보 추출부;
    상기 사고객체 영상정보에서 사고객체의 운동벡터의 변화량에 관한 정보인 운동패턴정보를 생성하는 객체정보 전처리부;
    상기 객체정보 전처리부에서 생성된 운동패턴정보에 미리 결정된 알고리즘을 적용하여 융합된 정보로 생성하는 정보 융합부; 및
    상기 정보 융합부에서 생성된 융합된 정보에 미리 결정된 규칙을 적용하여 교통사고 상황인지 여부를 판단하고, 교통사고 상황으로 판단된 경우 확률모델에 기반한 확률판단을 시행하여 교통사고 상황인지를 확정하는 사고 판단부를 포함하는 교통사고 인식장치.
  9. 제8항에 있어서, 상기 사고정보 추출부는
    상기 영상정보에 미리 결정된 알고리즘을 적용하여 관심영역인 사고객체의 영상정보들을 추출하는 관심영역(ROI,Region Of Interest)추출부; 및
    상기 충돌음을 이용하여 사고지점에서 발생한 음원과 상기 교통사고 인식장치간의 거리 및 상기 음원의 발생 방향에 대한 정보인 음원정보를 추출하는 음원정보 추출부를 포함하는 것을 특징으로 하는 교통사고 인식장치.
  10. 제8항에 있어서, 상기 정보 융합부는
    상기 복수개의 교통사고 인식장치의 객체정보 전처리부에서 생성된 운동벡터정보를 각각 절대좌표계의 운동벡터로 형성하고, 상기 절대좌표계의 운동벡터를 결합하여 융합된 운동벡터를 생성하는 것을 특징으로 하는 교통사고 인식장치.
  11. 제10항에 있어서,
    상기 절대좌표계의 운동벡터는 상기 사고정보 추출부에서 추출된 음원정보와 상기 도로정보 수집부의 수직방향 각도 및 도로정보 수집부의 정면방향과 상기 음원과의 수평방향 각도를 이용하여 형성하고,
    상기 융합된 운동벡터는 상기 절대좌표계의 운동벡터에 상기 음원정보에 포함된 음원과 상기 도로정보 수집부와의 거리에 반비례하는 상수를 가중치로 부여한 값들을 결합하여 생성하는 것을 특징으로 하는 교통사고 인식장치.
  12. 교통사고의 인식방법에 있어서, 교통 사고 인식 장치가
    (a) 도로의 영상정보 및 음향정보를 수집하는 단계;
    (b) 상기 영상정보 중 배경에 관한 영상을 제외한 사고객체 영상정보를 추출하고, 상기 음향정보 중 교통사고로 발생하는 충돌음의 음원정보를 추출하는 단계;
    (c) 상기 사고객체 영상정보에서 사고객체의 운동벡터의 변화량에 관한 정보인 운동패턴정보를 생성하는 단계;
    (d) 상기 (c)단계에서 생성된 운동패턴정보에 미리 결정된 규칙을 적용하여 교통사고 상황을 판단하는 단계; 및
    (e) 상기 (d)단계에서 교통사고 상황이라고 판단된 경우, 상기 (b)단계에서 추출된 음원정보와, 상기 (c)단계에서 생성된 운동패턴정보에 확률모델을 적용하여 교통사고 상황인지를 확정하는 단계를 포함하는 것을 특징으로 하는 교통사고의 인식방법.
  13. 제12항에 있어서, 상기 (d)단계는
    상기 운동패턴정보의 시간별 변화량을 계산한 결과를 생성하여 상기 결과가 미리 결정된 기준값을 초과하는 경우에 교통사고 상황이라고 판단하는 것을 특징으로 하는 교통사고의 인식방법.
  14. 제12항에 있어서,
    상기 (e)단계의 확률모델은 베이지안 네트워크(Bayesian Network)를 이용하는 것을 특징으로 하는 교통사고의 인식방법.
  15. 미리 결정된 위치에 설치되는 복수개의 교통사고 인식장치를 이용하는 교통사고의 인식방법에 있어서, 교통 사고 인식 장치가
    (a) 도로의 영상정보 및 음향정보를 수집하는 단계;
    (b) 상기 영상정보 중 배경에 관한 영상을 제외한 사고객체 영상정보를 추출하고, 상기 음향정보 중 교통사고로 발생하는 충돌음의 음원정보를 추출하는 단계;
    (c) 상기 사고객체 영상정보에서 사고객체의 운동벡터의 변화량에 관한 정보인 운동패턴정보를 생성하는 단계;
    (d) 상기 운동패턴정보에 미리 결정된 알고리즘을 적용하여 융합된 정보로 생성하는 단계;
    (e) 상기 (d)단계에서 생성된 융합된 정보에 미리 결정된 규칙을 적용하여 교통사고 상황을 판단하는 단계; 및
    (f) 상기 (e)단계에서 교통사고 상황이라고 판단된 경우, 상기 (b)단계에서 추출된 음원정보와, 상기 (d)단계에서 생성된 운동패턴정보에 확률모델을 적용하여 교통사고 상황인지를 확정하는 단계를 포함하는 것을 특징으로 하는 교통사고의 인식방법.
  16. 제15항에 있어서, 상기 (e)단계는
    (e1) 상기 운동패턴정보를 절대좌표계의 운동벡터로 형성하는 단계; 및
    (e2) 상기 (e1)단계에서 형성된 절대좌표계의 운동벡터를 결합하여 융합된 운동벡터를 생성하는 단계를 포함하는 것을 특징으로 하는 교통사고의 인식방법.
  17. 제15항에 있어서,
    상기 (f)단계의 확률모델은 베이지안 네트워크(Bayesian Network)를 이용하는 것을 특징으로 하는 교통사고의 인식방법.
KR1020100041384A 2010-05-03 2010-05-03 교통사고 인식장치 및 그 방법 KR101116273B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100041384A KR101116273B1 (ko) 2010-05-03 2010-05-03 교통사고 인식장치 및 그 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100041384A KR101116273B1 (ko) 2010-05-03 2010-05-03 교통사고 인식장치 및 그 방법

Publications (2)

Publication Number Publication Date
KR20110121885A KR20110121885A (ko) 2011-11-09
KR101116273B1 true KR101116273B1 (ko) 2012-03-14

Family

ID=45392603

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100041384A KR101116273B1 (ko) 2010-05-03 2010-05-03 교통사고 인식장치 및 그 방법

Country Status (1)

Country Link
KR (1) KR101116273B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101669885B1 (ko) * 2016-05-30 2016-10-27 이형각 영상 기반 보행자 추돌 자동 검출 방법 및 이를 적용한 사물 인터넷 장치
KR102246462B1 (ko) * 2020-06-15 2021-04-30 주식회사 스칼라웍스 지능형 엣지 기반 도로교통 상황인지 방법

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101428008B1 (ko) * 2013-03-07 2014-08-07 (주)디텍씨큐리티 사고 감지 기능을 구비한 블랙박스 장치 및 그 사고 감지 방법
KR101526673B1 (ko) * 2013-07-25 2015-06-05 현대자동차주식회사 차량용 블랙박스 동영상 탐색 방법
KR101573744B1 (ko) * 2014-03-13 2015-12-14 재단법인 다차원 스마트 아이티 융합시스템 연구단 입력 사운드 신호에 기반한 영상 저장장치 및 방법
KR101676324B1 (ko) * 2016-02-17 2016-11-17 (주)아이비로시스템 교통현장 감지장치
KR101685900B1 (ko) * 2016-07-06 2016-12-13 이용호 교차로 사고 감지를 위한 모니터링 시스템
KR101696801B1 (ko) * 2016-10-21 2017-01-16 이형각 사물 인터넷(IoT) 카메라 기반의 통합 영상 감시 시스템
CN106997510B (zh) * 2017-04-01 2020-09-11 南京国电南自轨道交通工程有限公司 一种基于规则的事故画面与应急预案推送方法
KR102195317B1 (ko) * 2017-05-19 2020-12-28 한국과학기술원 비디오 게임을 활용한 차량 사고 예측 방법
KR102470699B1 (ko) * 2021-02-23 2022-11-25 조영빈 영상 저장 및 객체인식이 가능한 퍼스널 모빌리티 안전 관리 시스템 및 이의 제어방법
KR102467517B1 (ko) * 2021-04-19 2022-11-16 주식회사 디알에스 음향 이미지를 이용한 블랙 아이스 발생 예측 방법
KR102467518B1 (ko) * 2021-04-19 2022-11-16 주식회사 디알에스 블랙 아이스 발생 예측 방법
KR102625231B1 (ko) * 2023-02-03 2024-01-16 주식회사 디비엔텍 실시간 교통흐름 분석을 통한 터널 내 돌발상황/교통정체 판별 방법의 적용으로 정차 감지 오작동률이 개선된 터널 내 영상유고 감지 시스템 및 영상유고 감지 방법

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007280407A (ja) 2007-05-01 2007-10-25 Sumitomo Electric Ind Ltd 交通端末装置および事故検出システム
KR100827224B1 (ko) 2007-10-31 2008-05-07 (주)경봉 실시간 교통사고 감지 신호등
KR100853444B1 (ko) 2007-07-09 2008-08-21 전북대학교산학협력단 교통 사고의 발생 여부를 감지하는 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007280407A (ja) 2007-05-01 2007-10-25 Sumitomo Electric Ind Ltd 交通端末装置および事故検出システム
KR100853444B1 (ko) 2007-07-09 2008-08-21 전북대학교산학협력단 교통 사고의 발생 여부를 감지하는 방법
KR100827224B1 (ko) 2007-10-31 2008-05-07 (주)경봉 실시간 교통사고 감지 신호등

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101669885B1 (ko) * 2016-05-30 2016-10-27 이형각 영상 기반 보행자 추돌 자동 검출 방법 및 이를 적용한 사물 인터넷 장치
KR102246462B1 (ko) * 2020-06-15 2021-04-30 주식회사 스칼라웍스 지능형 엣지 기반 도로교통 상황인지 방법

Also Published As

Publication number Publication date
KR20110121885A (ko) 2011-11-09

Similar Documents

Publication Publication Date Title
KR101116273B1 (ko) 교통사고 인식장치 및 그 방법
US20220164686A1 (en) Joint processing for embedded data inference
KR101995107B1 (ko) 딥 러닝을 이용한 인공지능 기반 영상 감시 방법 및 시스템
CN110119676B (zh) 一种基于神经网络的驾驶员疲劳检测方法
KR101932535B1 (ko) 실내 감시 시스템 및 실내 감시 방법
JP5670413B2 (ja) 道路使用弱者保護システム
KR101877294B1 (ko) 객체, 영역 및 객체가 유발하는 이벤트의 유기적 관계를 기반으로 한 복수 개 기본행동패턴 정의를 통한 복합 상황 설정 및 자동 상황 인지가 가능한 지능형 방범 cctv 시스템
JP2018173914A (ja) 画像処理システム、撮像装置、学習モデル作成方法、情報処理装置
Kumar et al. Study of robust and intelligent surveillance in visible and multi-modal framework
WO2013101460A2 (en) Clustering-based object classification
KR102122850B1 (ko) 딥 러닝 기반의 교통분석 및 차량번호 인식 솔루션
JP2007310805A (ja) 物体認識装置
KR102104548B1 (ko) 시각 감지 시스템 및 이를 이용한 시각 감지 방법
JP2005311691A (ja) 物体検出装置及び方法
JP3910626B2 (ja) 監視装置
JP2022033805A (ja) 無人車内の乗客状態の識別方法、装置、機器及び記憶媒体
CN112383756A (zh) 一种视频监控报警处理方法和装置
Kandpal et al. Classification of ground vehicles using acoustic signal processing and neural network classifier
KR101842488B1 (ko) 원거리 동적 객체의 검지 및 추적을 기반으로 한 행동패턴인식기법이 적용된 지능형 감지시스템
CN111832450B (zh) 基于图像识别的持刀检测方法
WO2023124451A1 (zh) 用于生成告警事件的方法、装置、设备和存储介质
Yadav et al. Video anomaly detection for pedestrian surveillance
KR101669885B1 (ko) 영상 기반 보행자 추돌 자동 검출 방법 및 이를 적용한 사물 인터넷 장치
KR101117235B1 (ko) 교통사고 인식 장치 및 방법
CN114758326A (zh) 一种交通岗位工作行为状态实时检测系统

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee